id
stringlengths
9
9
text
stringlengths
8.54k
92.7k
title
stringclasses
1 value
V14N01-02
\section{まえがき} 人間の言語能力をコンピュータ上に実現することを狙った自然言語処理については,近年盛んに研究されている.しかし,かな漢字変換方式の日本語ワープロのように実用システムとして成功した例はまれで,多くは実験システムの域にとどまっている.実際,自然言語の壁は厚く,多くの研究者が従来の言語理論と実際の自然言語との間にギャップがあると感じている.事実,従来の計算言語学は強化されてきたとはいえ,自然言語の持つ論理的な一側面しか説明できず,現実の言語に十分に対応できていない.英語に比べて語順が自由で省略の多い日本語は,句構造解析には不向きとされ,係り受け解析が一般的となっている.また,係り受けが交差する入れ子破りが起こる表現は,係り受け解析では扱えるが,句構造解析による木構造では扱えない.さらに,文内で独自の統語・意味構造をもつ複合名詞や名詞句は,これらに適した個別的な構造解析法を模索する必要がある.現在,主流となっている文節構文論(学校文法)に基づく構文解析では以下の例に示すように構文解析結果が意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている\cite{水谷1993}.\begin{itemize}\item「梅の花が咲く.」\\この文は「梅の/花が/咲く.」と文節に分割でき,係り受け解析では,「梅の」が「花が」に係り,「花が」が「咲く」に係るが,図\ref{fig:umenohana}に示すように「梅の」は「花」のみに係ることが望ましい.\begin{figure}[b]\centering\includegraphics[width=5.5cm]{umenohana.eps}\caption{「梅の花が咲く.」の入れ子構造}\label{fig:umenohana}\end{figure}\item「山を下り,村に着いた.」\\この文は「山を/下り/村に/着いた.」と文節に分割でき,係り受け解析では,「山を」が「下り」に,「下り」が「着いた」に,「村に」が「着いた」に係るが,図\ref{fig:yamakudari}に示すように「下り」と「着い」をともに「た」が受けることが望ましい.\begin{figure}[t]\centering\includegraphics[width=9cm]{yamakudari.eps}\caption{「山を下り,村に着いた.」の入れ子構造}\label{fig:yamakudari}\par\vspace{20pt}\includegraphics[width=6cm]{sakanaturi.eps}\caption{「魚を釣りに行く.」の入れ子構造}\label{fig:sakanaturi}\end{figure}\item「魚を釣りに行く.」\\この文は「魚を/釣りに/行く.」と分割でき,係り受け解析では,「魚を」が「釣りに」に係り,「釣りに」が「行く」に係るが,図\ref{fig:sakanaturi}に示すように「魚を」は「釣り」のみに係ることが望ましい.この際,「釣り」が連用形名詞であり,名詞と動詞の品詞の二重性をもつことに注意が必要である.\end{itemize}元来,構文解析は文の意味を正しく解析するために行うのであるから,日本語文パーザには意味と親和性のある統語構造を出力することが要求される.日本語文解析全体としては,形態素解析に始まり,構文解析,意味解析と続く流れを想定している.ここで,構文解析と意味解析は分離しているが,構文解析は意味解析を助ける構造を出力することが求められる.すなわち,助詞・助動詞などの機能語,形式名詞から作り出される文の骨格,いわば構造が持つ意味を的確に捕らえておくことが必要である.構文解析そのものは,意味情報を導入することにより多義が発生することを避け,表層的情報・統語的情報のみを用いて解析するものとする.この方針は,長尾\cite{長尾1996}の「文は何らかの新しい情報(知識)を伝えるものであるから,文の構造を理解するために前もって意味的な情報が必要であると仮定することには本質的に問題がある.たとえば未知の分野の専門書などを読む場合,その内容(意味)は文の構造から理解できるという状況が考えられる.」との見解とも一致する.従来から日本語構文解析の主流となっている,係り受け解析に基づくKNP\cite{黒橋他1994}が既に作成されており,句構造の流れをくむHPSGを用いた日本語文解析についての研究\cite{大谷他2000}なども行われている.係り受け解析との対比は以降の章で詳細を述べる.上記のHPSG関連の研究は,主に日本語単文をHPSGで取り扱う上での問題点とその解決策について示したものであり,単文だけでなく,複文,重文などを対象とし,語の単位と機能を整理し直した構文解析の体系を作り出そうとしている本研究の目標と異なるものである.さらに,本論文で提案するパーザでは構文解析と意味解析を分離しており,HPSGのように構文解析と意味解析と融合するのではないため,本論文では特に比較を行わない.本論文では,上記のような日本語構文解析上の問題を解決するものとして,従来の研究では見逃されていた言語の過程的構造\cite{池原他1987,池原他1992,宮崎他1992}に目を向け,三浦の言語モデル(関係意味論に基づく三浦の入れ子構造)とそれらの基づく日本語文法体系(三浦文法)をベースにした意味と親和性のある統語構造を出力する日本語文パーザの枠組みを提案し,その有効性について論じる.最後に,本論文中で意味との整合性が良くないとして取り上げたパターンの出現頻度が低くないことおよびパーザが最低限の解析能力を持つことを実験により検証する. \section{三浦の言語モデルによる文の基本構造} \subsection{言語過程説と三浦の関係意味論}時枝誠記が提唱し,三浦つとむが発展的に継承した言語過程説によれば,言語表現には万人に共通する対象のあり方がそのまま表現されているのではなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断などの対象に立ち向かう話者の心的状況)を通して,言語に関する約束事である言語規範(文法,単語の語義・用法など)に従って表現されている.このように対象—認識—表現の過程を辿ることによって言語表現を生成する過程が言語生成である(図\ref{fig:generate_understand}参照).聞き手(読者)が話者(書き手)の言語生成の過程を逆に辿り,言語規範を手がかりに言語表現と話者の認識を対応づけ,聞き手が話者に同化し話者の認識を追体験し,自己の頭の中に話者の認識を再構成し,対象のあり方を推論する過程が言語理解である(図\ref{fig:generate_understand}参照).言語表現には,概念化された対象の姿を表す客体的表現と主体(話者)の対象に関する感情・意志・判断などを直接表した主体表現があり,言語理解において,これらを区別して扱うことが重要である.\begin{figure}[b]\centering\includegraphics[width=7cm]{generate_understand.eps}\caption{言語の過程的構造}\label{fig:generate_understand}\end{figure}時枝の言語過程説,およびそれに基づく日本語文法体系(時枝文法)\cite{時枝1941,時枝1950}を発展的に継承した三浦は,時枝が指摘した主体的表現と客体的表現の言語表現上の違いなどを継承しつつ,時枝が言語の意味を主体的意味作用(主体が対象を認識する仕方)として,話者の活動そのものに求めていたのを排し,意味は表現自体がもっている客観的な関係(言語規範によって表現に固定された対象と認識の関係)であるとした関係意味論\cite{三浦1977,池原1991}を提唱し,それに基づく新しい日本語文法,三浦文法\cite{三浦1967a,三浦1967b,三浦1972,三浦1975,三浦1976}を提案している.三浦の意味論によれば,言語の意味は表現に結び付き固定された対象と認識の関係であるが,対象は直接表現に結合されるのではなく,話者の目を通して得られた認識が表現に結合されるのであるから,より限定的に捉え,表現と認識の関係を意味と考える.コンピュータでは,関係はポインターで表現されるため,表現と話者の認識を対応付けるポインターが意味であり,このようなポインターを張ることが意味解析であるといえる.意味処理には,話者が言語表現に使用した意味上の約束を特定する意味解析と表現内容を把握(追体験)する意味理解の2つのステップがある.意味解析では,辞書上の意味(言語上の約束)の中から表現上の意味(実際に使われた約束)を判定する.意味理解では,特定された約束と聞き手が話者と共通してもつ世界知識を手がかりに聞き手のもつ世界モデルと対応づけ,話者の認識した世界(認識構造)を再現する.\subsection{三浦の入れ子構造}時枝によれば,言語表現は以下のように主体的表現(辞)と客体的表現(詞)に分けられ,文は,辞が詞を包み込むようにして構成された句を,別の句が重層的に包み込んだ入れ子型構造(図\ref{fig:tokieda_ireko}参照)で表される.\begin{figure}[b]\centering\includegraphics{tokieda_ireko.eps}\caption{時枝の入れ子構造}\label{fig:tokieda_ireko}\end{figure}\begin{itemize}\item主体的表現:話者の主観的な感情,要求,意志,判断などを直接表現したものであり,日本語では,助詞,助動詞(陳述を表す零記号,すなわち図\ref{fig:tokieda_ireko}に示すように肯定判断を表すが,表現としては省略された助動詞を含む),感動詞,接続詞,陳述副詞で表される.\item客体的表現:話者が対象を概念化して捉えた表現で,日本語では,名詞,動詞,形容詞,副詞,連体詞,接辞で表される.主観的な感情や意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.\end{itemize}時枝は「\underline{私}が読んだ」などの文における代名詞「私」は,主体そのものでなく,主体が客体化されたものであるという``主体の客体化''の問題を提起した.これを対象の認識の立場から発展させ,主体の観念的自己分裂と視点の移動という観点から言語表現を捉えたのは三浦である.三浦は,一人称の表現は見たところ,自分と話者が同一の人間であるが,これを対象として捉えていると言うことは,対象から独立して対象に立ち向かっている人間が存在していることであるとして,対象に立ち向かっている人間は別の人間であるとしている.すなわち,一人称の場合には現実には同一の人間であるように見えても,実は観念的な自己分裂によって観念的な話者が生まれ,この自己分裂した自分と対象になっている自分との関係が一人称として表現されると考えるのである.\begin{figure}[b]\centering\includegraphics[width=8cm]{miura_ireko.eps}\caption{三浦の入れ子構造}\label{fig:miura_ireko}\end{figure}話者と話者自身の関係は,上記のような認識の構造において成立するものであるが,同様の関係が過去や未来を表現する時制の表現,否定表現などでも見られる.話者自身が対象となっていない場合でも,自己分裂した話者は過去や未来の世界に入って行き,対象との関係を現在形で捉えた後,現在の世界に戻って来ると考えるのである.また,否定表現では否定する対象が必要であるが,否定するのであるから現実世界にはその対象がない.そこで,対象が否定されないような仮想世界に自己分裂した話者が入り込み,対象に対し肯定判断をした後,現実世界で否定判断を行うといったネストした世界構造で否定を捉えるのである.三浦は,このような観念的な話者による視点の移動を表すものとして,観念的世界が多重化した入れ子構造の世界の中を自己分裂によって生じた観念的話者が移動する入れ子構造モデル(図\ref{fig:miura_ireko}参照)を提案している.現在の否定表現や過去の表現は,それぞれ(現在の仮想世界/現在の現実世界),(過去の現実世界/現在の現実世界)の二重の入れ子構造となる.また,過去の否定表現は,(過去の仮想世界/過去の現実世界/現在の現実世界)の三重の入れ子構造となる.さらに,過去の否定推量表現は,(他の人の過去の仮想世界/他の人の過去の現実世界/他の人の現在の現実世界/話者の現在の現実世界)の四重の入れ子構造となる.\begin{figure}[t]\centering\includegraphics[width=12cm]{miura_model.eps}\caption{三浦の言語モデル}\label{fig:miura_model}\end{figure}三浦の提唱する言語の過程的構造を図\ref{fig:miura_model}に示す.\subsection{文の基本構造}日本語は,膠着言語に分類される言語であり,小さな単位要素が次々と付着して表現を形成していくという特徴を持つ.これらの単位要素が結合し,表現構造を形成していく過程には一定の手順がある.言語過程説によれば,日本語の表現は客体的表現と主体的表現が入れ子になった構造として捉えることができる.ここで,表現の元となる対象世界を構成する一つの事象は,実体・属性・関係の3要素から構成される.これらに対する話者の認識を言語規範を介して表現に結び付けるときに最も基本となるのは,概念化された対象(実体・属性・関係)とそれを表現する単語(詞)との対応関係,ならびに概念化された対象に対する話者自身(主体)のあり方と単語(辞)との関係である.前者に対して詞が選択され,後者においてそれに辞が付加される.このようにして概念化された対象および主体と単語との結び付きが形成されると,次にそれらの相互関係が構造化され,認識された構造と表現構造との対応付けが行われる.この過程で単語と単語が統語規則に従って構造化され,文が形成される\cite{池原他1990}. \section{三浦文法に基づく日本語品詞体系} 三浦文法では他の多くの文法とは異なり,表現に用いられる単語を文構成上の機能や単語が表す内容で分類するのではなく,対象の種類とその捉え方で分類する.三浦文法に基づく品詞分類の基本的考え方,それに基づき作成された日本語の品詞体系の詳細については\cite{宮崎他1995}に述べられているので,ここでは従来の学校文法との主な相違点のみ述べておく.三浦文法に基づく品詞体系と学校文法との主要な相違点は,以下の通りである\cite{宮崎他1995}.\begin{enumerate}\item形容動詞を独立した品詞とはせず,名詞(静詞)+助動詞(肯定判断)「だ」/名詞(静詞)+格助詞「に」とした.\item受身・使役の助動詞(れる,られる,せる,させる)は動的属性を付与する詞とし,動詞型接尾辞とした.\item希望の助動詞(たい)は静的属性を付与する詞とし,形容詞型接尾辞とした.\item伝聞の助動詞(そうだ),比況の助動詞(ようだ),様相の助動詞(そうだ)は助動詞とせず,それぞれ,形式名詞(そう,よう)/静詞型接尾辞(そう)+肯定判断の助動詞(だ)とした.\item準体助詞(の),終助詞(の)は形式名詞とした.\item接続助詞(ので,のに),終助詞(のだ)はそれぞれ,形式名詞(の)+[格助詞(で)/肯定判断の助動詞(だ)の連用形1(で)]/格助詞(に)/肯定判断の助動詞(だ)とした.\item接続助詞(て,で,たり,だり)は既定判断の助動詞(た,だ)の連用形1とした.\item補助動詞(ある),補助形容詞(ない)はそれぞれ,肯定判断の助動詞,否定判断の助動詞とした.\\例:本で\underline{ある}/\underline{ない},静かで\underline{ある}/\underline{ない},重く\underline{ない},書いて\underline{ある}/\underline{ない}\item既定判断の助動詞の連用形1(て,で)に後接する動詞(いる,みる,くれる,あげる,くる,もらう,やる,しまう,おく,いく,下さる,いただく,…),形容詞連用形1/[静詞+格助詞(に)]に後接する動詞(する,なる),およびサ変動詞型名詞/連用形名詞に後接する動詞(する,できる,下さる,なさる,致す,申す,申し上げる,いただく,願う,たまう,…)は,形式動詞とする.\\例:走って\underline{いる},美しく\underline{なる},静かに\underline{なる},開発\underline{する}\item動詞,形容詞,動詞型接尾辞,形容詞型接尾辞のような活用語の活用形は,従来の学校文法における6活用形を基本とし,以下の変更を加えた\cite{宮崎他1995}.未然形を以下の2通りに細分化した.\begin{itemize}\item未然形1:推量形[〜う,〜よう]\item未然形2:否定形[〜ぬ,〜ない]\end{itemize}連用形を以下の3通りに細分化した.\begin{itemize}\item連用中止形[〜,〜ます]・連用修飾形\itemイ音便形/促音便形/撥音便形[〜た,〜だ]\item形容しウ音便形[〜ございます]・動詞ウ音便形[〜た,〜だ]\end{itemize}形容詞のカリ活用語尾は以下のように扱う.\begin{itemize}\itemかろ(未然形1)→\\く(形容詞語尾・連用形1)+あろ(助動詞「ある」の未然形1)\itemかっ(連用形2)→\\く(形容詞語尾・連用形1)+あっ(助動詞「ある」の連用形2)\end{itemize}タルト型形容動詞活用語尾は,以下のように扱う.\begin{itemize}\itemと(連用形1)→と(格助詞)\itemたる(連体形)→と(格助詞)+ある(形式動詞「ある」の連体形)\end{itemize}\end{enumerate} \section{意味と整合性のよい構文解析} 意味は表現と認識,対象の結びつきであるという観点に立てば,構文は対象を捉える枠組みであると考えられる.枠組みは対象の捉え方を立体化して表現するための構造体である.単語,句,節,文など,対象のあり方と認識のしかたに応じてそれを表現する枠組みも種々存在する.言語表現の解析では,与えられた表現がどのような枠組みで表現されたものか,またその枠組みはどのような認識構造を表す規則を手がかりに,実際はどんな意味で使われているかを明らかにする必要がある.いわゆる,構文解析は言語表現の統語構造を明らかにする過程であり,表現の入れ子構造を捉え,それぞれの要素間の関係を明らかにすることである.三浦文法による日本語品詞体系\cite{宮崎他1995}は,構文構造として,従来の句構造や係り受け構造とは異なった三浦の入れ子構造を想定しており,三浦の言語モデルと親和性がよい.三浦文法は時枝文法を発展的に継承しており,意味と整合性のよい日本語文パーザの実現が期待できる.ここで,工学的には三浦の入れ子構造をコンピュータ内に実現する枠組みとして,句構造解析風の木構造を用いる.以下,従来の句構造解析とは異なる,三浦の入れ子構造に基づく意味的にも正しい解析木を得るため,文法規則の記述や文法規則の適用条件の制御をどのように行うかについて述べる.本章では,構文構造が表す意味という観点から以下の4点の意味と整合性の良くないパターンについて示した.構文構造が表す意味とは,助詞・助動詞などの機能語,形式名詞から作り出される枠組みを想定している.そして,文は単文という基本的な構造をベースとして,これを接続,埋め込みという仕組みにより,単文相当の節を組み合わせてさらに複雑な構造(重文・複文)を作り出している.このように単文からボトムアップに組み上げていく仕組みと機能語・形式名詞による枠組みという観点から4点の意味と整合性の良くないパターンを取り上げた.現時点ではこのパターンに網羅性があると考える.また,水谷\cite{水谷1993}は形容動詞の活用語尾,助動詞「〜た」の分配法則的な広がりを持つスコープ,係り受け交差について言及しており,これも参考にしている.この網羅性の実験的な検証は5.2節にて示す.\begin{figure}[b]\centering\includegraphics[width=10cm]{gakko_miura.eps}\caption{構文解析結果と意味との整合性}\label{fig:gakko_miura}\end{figure}\subsection{一対多・多対一の係り受け関係}「山を下り,村に着いた」は,学校文法風に解析すれば,図\ref{fig:gakko_miura}(a)のような意味的におかしい解析結果を得るが,三浦文法風に解析すれば,図\ref{fig:gakko_miura}(b)のように意味的に正しい解析ができる[助動詞「た」の受けの範囲(スコープ)は,(b)の場合動詞「下る」と「着く」を含む文全体となるが,(a)の場合動詞「着く」のみとなる].また,「太郎は今日山を下り,村に着いた」は,学校文法風の係り受け解析では,図\ref{fig:gakko_miura}(c)のように「太郎は」「今日」の係り先は「下り」か「着いた」のどちらか一方となるが(通常,係り受け解析では係り受けの曖昧さの爆発的増大を抑止するため,係り受けの非交差条件と係り先は1つであるという制約をもうけている),三浦文法風に解析すれば,図\ref{fig:gakko_miura}(d)のように「太郎は」「今日」が共に「下り」「着い」の両方に係っているという意味的にも正しい解析結果を入れ子構造により自然に表現することができる(助動詞「た」のスコープは,(d)の場合動詞「下る」と「着く」を含む文全体となるが,(c)の場合動詞「着く」のみとなる).三浦文法に基づく文法規則,および日本語文パーザにおける文法規則の適用条件の制御などによって,従来の句構造解析と異なる,意味的にも正しい解析木を得ることができる.図\ref{fig:gakko_miura}の(b),および(d)の入れ子構造に対応する解析木を図\ref{fig:koubun_seigou}(a)と(b)に示す.\begin{figure}[t]\centering\includegraphics[width=13.5cm]{koubun_seigou.eps}\caption{意味と整合性のよい解析木}\label{fig:koubun_seigou}\end{figure}\subsection{主題の「は」と対照の「は」の扱い}係助詞・副助詞「は」には,「〜は」の係りの範囲(スコープ)が異なる,構文構造に大きな差異を生じさせる用法(主題の「は」と対照の「は」)がある\cite{沼崎他1995}.例えば,「彼は金は無いが,アイデアはたくさん持っていた」では,上記の2種類の「は」が使われている.「彼は」の「は」はいわゆる主題の「は」であり,広いスコープをもち,「金は無いが,アイデアはたくさん持ってい」全体に係る.「金は」「アイデアは」の「は」は,対で用いられる対照の「は」であり,それぞれ対となる部分に限定して係る.「金は」は「無い」に係り,「アイデアは」は「たくさん持ってい」にのみ係る.このように,「は」は用法によりスコープが異なるため,これを区別する処理を日本語パーザに導入することで,例に示した文では,図\ref{fig:ha}に示すような解析木を出力できる.\begin{figure}[b]\centering\includegraphics[width=10cm]{ha.eps}\caption{2種類の「は」を含む文の入れ子構造}\label{fig:ha}\end{figure}\begin{figure}[t]\centering\includegraphics[width=12cm]{hinshi.eps}\caption{二つの品詞性のある語を含む文の入れ子構造}\label{fig:hinshi}\end{figure}\subsection{文中に局所的な入れ子構造をもつ文}\subsubsection{二つの品詞性のある語の扱い}一語が二つの品詞性を持つ場合(一語が体と用を兼ねて使われる場合等)\pagebreakの例として「魚を釣りに行く」という文をとりあげる.この表現は図\ref{fig:hinshi}(a)のような入れ子構造と見ることができる.「釣り」は二重線の内側の世界では「魚を」という格要素をとる動詞「釣り」として働いているが,その外側の世界では局所的な文「魚を釣り」全体を実体化(名詞化)したうえで,格助詞「に」に接続して,動詞「行く」の格要素を構成している.「本を読みはしない」という文では,話者は「本を読む」という事象を取り上げ,「は」で特殊性という主体判断を下した後,その動作に対して否定の判断を下している(\cite{沼崎他1995}を参照).ここで,事象の特殊性を表すために,取り上げた事象全体の捉え直しも行われ,実体化(体言化)が行われている.すなわち,この表現は図\ref{fig:hinshi}(b)のような入れ子構造と見ることができる.「読む」は二重線の内側の世界では動詞として働いているが,その外の世界の構成要素で体言の一部分を構成していると考えられる.このように,実際の表現の場面では,ある品詞属性を持つ単語が組み合わさって文要素が構成されるという単純な図式では説明できないものを図\ref{fig:hinshi}(a)〜(b)のように入れ子構造によって自然に扱うことができる.「うなぎを食べに浜松に行く」の解析木を図\ref{fig:unagi_tree_tgif}(a)〜(b)に示す.(a)は「うなぎを」が「食べ」に係って局所的な入れ子構造を作っている意味的にも正しい解析木である.これに対して,(b)は「うなぎを」が「行く」に係る意味的に適切でない解析木である.日本語パーザでは,意味的に不適切な解析木を含む複数の解析木が出力される.「行く」に関する格パターンを用いた意味解析などによって「うなぎを」が「行く」に係らないことを判定することにより,解析木の曖昧さを絞り込み,意味的にも正しい解析木を得ることができる.\begin{figure}[b]\centering\includegraphics[width=8cm]{unagi_tree_tgif.eps}\caption{「うなぎを食べに浜松に行く」の解析木}\label{fig:unagi_tree_tgif}\end{figure}\subsubsection{埋め込み文に形容動詞述部を含む文の扱い}「尾張屋の在庫が潤沢な秘密はこれですよ」における「潤沢+な」は,学校文法では形容動詞語幹+形容動詞活用語尾(連体形)であるが,三浦文法では状態性名詞(静詞)+肯定判断の助動詞「だ」の連体形となる.三浦の入れ子構造では,主体表現である助動詞は客体表現である単文全体を包み込むような構造として表される.例文における「潤沢な」が「秘密」を連体修飾しているのではなく,「尾張屋の在庫が潤沢」全体が「秘密」に係っているのである.このように,意味的にも正しい構造(図\ref{fig:owari})を出力できる.\begin{figure}[t]\centering\includegraphics[width=7cm]{owari.eps}\caption{埋め込み文に形容動詞述部含む文の入れ子構造}\label{fig:owari}\par\vspace{20pt}\includegraphics[width=7cm]{keishiki.eps}\caption{埋め込み文の被修飾名詞が形式名詞の場合}\label{fig:keishiki}\end{figure}\subsubsection{埋め込み文の被修飾名詞が形式名詞の場合の扱い}被修飾名詞が形式名詞(学校文法で準体助詞・終助詞とされる「の」,学校文法で伝聞の助動詞「そうだ」・比況の助動詞「ようだ」の部分である「そう」「よう」を含む)である埋め込み文は,図\ref{fig:keishiki}のように文中に局所的な入れ子構造をもつ文となる.\subsection{入れ子破りの表現の扱い}係り受けが交差し入れ子破りが生じる場合,句構造解析では構文木が生成されない.一方,係り受け解析では,係り受け構造が得られるが,係り受けの曖昧さが爆発的に増大してしまう.ここでは,係り受けの交差,すなわち入れ子破りが,陳述副詞による呼応,および単文スコープ外への格要素の移動に伴って起こることに着目して,痕跡という考えを導入することによって,句構造解析風の木構造で入れ子破りに対応する方法を提案する.\subsubsection{陳述副詞による呼応}\label{subsub441}主体表現である陳述副詞と主体表現との呼応では入れ子破りが生じる.例えば,「本を決して読まない」のように,主体表現である陳述副詞「決して」と否定の助動詞「ない」との呼応では,図\ref{fig:cross_depend_fukuji2}(a)(b)のような入れ子破りが生じる.ここで,陳述副詞「決して」はその係り先である助動詞「ない」の直前に痕跡(陳述副詞に係わる痕跡として副辞痕跡と呼ぶ)を残し,そこから移動してきたと考える.解析では,陳述副詞をその本来の位置である副辞痕跡にあるものとして,図\ref{fig:cross_depend_fukuji2}(c)のような,係り受けの交差しない,入れ子構造の解析木が得られる.\begin{figure}[b]\centering\includegraphics[width=7cm]{cross_depend_fukuji2.eps}\caption{陳述副詞の呼応による入れ子破りとその対応策}\label{fig:cross_depend_fukuji2}\end{figure}\subsubsection{単文スコープ外への格要素の移動}「うなぎを浜松に食べに電車で行った」でも図\ref{fig:cross_depend2}(a)(b)のように入れ子破りが生じる.これは本来,動詞「行く」に係る格要素「浜松に」が動詞「行く」の単文スコープの外である,動詞「食べる」の単文スコープ内に移動してきたことによって生じたものである.見かけ上,動詞「食べる」の単文スコープ内にあるため,統語的には「食べる」に係るようにみえるが,意味的には,格要素「浜松に」は直近の動詞「食べる」に係らず,後方の動詞「行く」に係る.このような単文スコープ外への格要素の移動も入れ子破りの原因となる.このような場合,\ref{subsub441}と同様に本来,格要素があった単文スコープ内に痕跡(格要素に係わる痕跡として格要素痕跡と呼ぶ)を残し,そこから単文スコープ外に移動してきたものと考える.解析では,格要素をその本来の位置である格要素痕跡にあるものとして,図\ref{fig:cross_depend2}(c)のような,係り受けの交差しない,入れ子構造の解析木が得られる.なお,すべての格要素は直近の用言の単文スコープ内にあるものとして,格要素—用言間の係り受けの可否を用言の格パターンなどを参照してチェックする.格要素—用言間の係り受け可の場合,当該格要素は当該用言の単文スコープ内にあると判断する.格要素—用言間の係り受け不可の場合,当該格要素は当該用言より後方にある用言の単文スコープ内にあると判断し,当該格要素とできるだけ近い用言の単文スコープ内で当該格要素と係り受け可となる用言をみつけ,その単文スコープ内に格要素痕跡を設定する.\begin{figure}[t]\centering\includegraphics[width=8cm]{cross_depend2.eps}\caption{単文スコープ外への格要素の移動による入れ子破りとその対応策}\label{fig:cross_depend2}\end{figure} \section{パーザへの実装と有効性の検証} \subsection{パーザへの実装}前節において述べた,意味と親和性のある統語構造を出力する日本語文パーザの有効性を検証するため,拡張型のチャートパーザSchart\cite{川辺他2005}に日本語文法規則(文法規則数138)を実装し,日本語文パーザを試作した.前節で示した事例に関して試作した日本語文パーザによって出力される構文木を示す.解析結果の構文木は複数出力されるが,記述枠組みとしての妥当性を示すために,\pagebreak複数の解候補木の中から意味的に適切な構文木を提示する.図\ref{fig:tarokudari_tree}は「太郎は山を下り,村に着いた.」の解析結果である.一対多・多対一の係り受け関係の例である.「太郎は」は「山を下り」と「村に着い」の両方に係り,その全体がさらに「だ」に結びついて一つの文を作っている.\begin{figure}[t]\centering\includegraphics[width=7cm]{tarokudari_tree.eps}\caption{「太郎は山を下り,村に着いた.」の解析結果}\vspace{2\baselineskip}\label{fig:tarokudari_tree}\end{figure}図\ref{fig:kane_idea_tree}は「彼は金は無いが,アイデアはたくさん持っていた.」の解析結果である.主題の「は」と対照の「は」の違いの例である.「金は無い」と「アイデアはたくさん持ってい」が対照の「は」により対になり,それらに対して「彼は」が係り,最後に「た」が結び付く形となっている.\begin{figure}[t]\centering\includegraphics[width=8cm]{kane_idea_tree.eps}\caption{「彼は金は無いが,アイデアはたくさん持っていた.」の解析結果}\label{fig:kane_idea_tree}\end{figure}図\ref{fig:honyomi_tree}は「本を読みはしない.」の解析結果である.一語が二つの品詞性を持つ場合の例である.連用形名詞「読み」は動詞と名詞の二つの品詞性を持つ.「読み」は,「本を」という格要素を取る動詞としての働きと動詞「し」の格要素となる名詞としての働きをする.\begin{figure}[p]\centering\includegraphics[scale=0.9]{honyomi_tree.eps}\caption{「本を読みはしない.」の解析結果}\label{fig:honyomi_tree}\par\vspace{18pt}\includegraphics[scale=0.9]{unagi_hamamatsu_tree.eps}\caption{「うなぎを食べに浜松に行く.」の解析結果}\label{fig:unagi_hamamatsu_tree}\end{figure}図\ref{fig:unagi_hamamatsu_tree}は「うなぎを食べに浜松に行く.」の解析結果である.これも図\ref{fig:honyomi_tree}と同様に一語が二つの品詞性を持つ場合の例である.「うなぎを食べ」全体が「に」に係り,動詞「行く」の格要素としての働きをする.図\ref{fig:owariya_tree}は「尾張屋の在庫が潤沢な理由はこれですよ.」の解析結果である.埋め込み文に形容動詞述部を含む文の例である.「尾張屋の在庫が」の部分全体が「潤沢」に係る構造となっている.\begin{figure}[b]\vspace{1\baselineskip}\centering\includegraphics{owariya_tree.eps}\caption{「尾張屋の在庫が潤沢な理由はこれですよ.」の解析結果}\label{fig:owariya_tree}\end{figure}図\ref{fig:kaoaka_tree}は「顔が赤いのがわかる」の解析結果である.埋め込み文の被修飾名詞が形式名詞の場合の例である.「顔が赤い」が形式名詞「の」に係る構造となっている.\begin{figure}[p]\centering\includegraphics{kaoaka_tree.eps}\caption{「顔が赤いのがわかる.」の解析結果}\label{fig:kaoaka_tree}\par\vspace{20pt}\includegraphics{fukuji_tree.eps}\caption{「本を決して読まない.」の解析結果}\label{fig:fukuji_tree}\end{figure}図\ref{fig:fukuji_tree}は「本を決して読まない.」の解析結果である.この文は陳述副詞による呼応を含み,入れ子破りが生じる.陳述副詞「決して」が意味的には「ない」に係るということを明示するため,「ない」の直前に副辞痕跡として示す.これにより係り受け交差の問題を解消している.入れ子破りのもう一つの例として,「うなぎを浜松に食べに電車で行った.」のように格要素の移動が起こっている文について既に述べた.このような文では,格要素の移動を検出するために格パターンを利用する必要がある.本論文のパーザでは,意味的な情報をできるだけ用いず,表層的な情報・統語的な情報を用いることを前提としている.そのため,構文解析の段階では格要素の移動がないものとして格要素を直近の述部に掛け,意味解析の段階で格要素の移動の検出および痕跡の表示を行う.\subsection{日本語文パーザの有効性}試作した日本語文パーザにおける有効性を示すため,一般的な文中にどの程度,本論文中で示した意味との整合性が良くないパターンが存在するか,解析結果に意味的に正しい文がどの程度含まれるかを調べた.この検証の意義は,これらの意味との整合性が良くないパターンの出現頻度は低くないこと,および,試作した日本語文パーザが最低限の解析能力を持つことを示すことによりパーザの有効性を示すことにある.対象とする文は以下の通り.\begin{itemize}\item平均文字数:19.4字\item文数:重文・複文各50文,合計100文\item分野:和英辞典の例文\end{itemize}本論文中で述べたパターンを以下のように分類する(表\ref{tab:bunrui}).\begin{table}[b]\caption{文の分類}\label{tab:bunrui}\centering\begin{tabular}{|l|l|}\hlineタイプ1&一対多・多対一の係り受け関係を含む文\\\hlineタイプ2&二つの品詞性のある語を含む文\\\hlineタイプ3&埋め込み文に形容動詞述部を含む文\\\hlineタイプ4&埋め込み文の被修飾名詞が形式名詞という文\\\hlineタイプ5&陳述副詞による呼応を含む文\\\hlineタイプ6&単文スコープ外への格要素の移動を含む文\\\hline\end{tabular}\end{table}まず,例文中で上のタイプがどの程度存在するかを示す(表\ref{tab:frequency}).複数のタイプが該当する場合には,複数を選択する.\begin{table}[t]\begin{minipage}[t]{0.45\textwidth}\caption{例文中の各タイプの出現率}\label{tab:frequency}\centering\begin{tabular}{|l|r|}\hline\multicolumn{1}{|c|}{タイプ}&出現率(\%)\\\hline\hline1&6\\\hline2&1\\\hline3&4\\\hline4&23\\\hline5&4\\\hline6&0\\\hline\hlineいずれか&33\\\hline\end{tabular}\end{minipage}\begin{minipage}[t]{0.45\textwidth}\caption{意味的に正しい解析結果を含む割合}\label{tab:precision}\centering\begin{tabular}{|l|r|}\hline文種&正解含有率(\%)\\\hline\hline重文&91.3\\\hline複文&83.3\\\hline\hline全体&87.5\\\hline\end{tabular}\end{minipage}\vspace{2\baselineskip}\end{table}さらに,例文の解析結果に意味的に正しい文がどの程度含まれるかを示す(表\ref{tab:precision}).\begin{displaymath}正解含有率(\%)=(意味的に正しい解析結果を含む文数)/(形態素解析誤りを含まない文数)\times100\end{displaymath} \section{むすび} 本論文では,関係意味論と三浦文法をベースとした意味と親和性のある統語構造を出力する日本語文パーザの枠組みを提案した.さらに,日本語文パーザにその枠組みを実装し,実験を通してその有効性を示した.これにより従来の学校文法に基づいた日本語文パーザでは意味と親和性のある解析結果が得られない点について改善することができることを示した.今後の課題として,複数の解析木が得られた場合,意味的にも正しい解析木を決定する方法について検討する必要がある.\acknowledgmentSchartパーザを提供していただいた川辺諭氏,有用な意見をいただいた新潟大学工学部情報工学科・宮崎研究室の学生諸君に深く感謝いたします.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA林}{池原\Jetal}{1987}]{池原他1987}池原\JBA宮崎\JBA白井\JBA林\BBOP1987\BBCP.\newblock\JBOQ言語における話者の認識と多段翻訳方式\JBCQ\\newblock\Jem{情処論},{\Bbf28}(12),\mbox{\BPGS\1269--1279}.\bibitem[\protect\BCAY{池原\JBA白井}{池原\JBA白井}{1990}]{池原他1990}池原\JBA白井\BBOP1990\BBCP.\newblock\JBOQ日英機械翻訳機能試験項目の体系化\JBCQ\\newblock信学技報,NLC90-43.\newblockpp.~17--24.\bibitem[\protect\BCAY{池原}{池原}{1991}]{池原1991}池原悟\BBOP1991\BBCP.\newblock\JBOQ言語表現の意味\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf6}(2),\mbox{\BPGS\290--291}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井}{池原\Jetal}{1992}]{池原他1992}池原\JBA宮崎\JBA白井\BBOP1992\BBCP.\newblock\JBOQ言語過程説から見た多段翻訳方式の意義\JBCQ\\newblock自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会.\newblockpp.~139--140.\bibitem[\protect\BCAY{川辺\JBA宮崎}{川辺\JBA宮崎}{2005}]{川辺他2005}川辺\JBA宮崎\BBOP2005\BBCP.\newblock\JBOQ構造を含む生成規則を扱える拡張型チャートパーザ—Schartパーザの実装—\JBCQ\\newblock言語処理学会第11回年次発表論文集.\newblockpp.~911--914.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1994}]{黒橋他1994}黒橋\JBA長尾\BBOP1994\BBCP.\newblock\JBOQ並列構造の検出に基づく長い日本語文の構文解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),\mbox{\BPGS\35--57}.\bibitem[\protect\BCAY{宮崎\JBA池原\JBA白井}{宮崎\Jetal}{1992}]{宮崎他1992}宮崎\JBA池原\JBA白井\BBOP1992\BBCP.\newblock\JBOQ言語の過程的構造と自然言語処理\JBCQ\\newblock自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会.\newblockpp.~60--69.\bibitem[\protect\BCAY{宮崎\JBA白井\JBA池原}{宮崎\Jetal}{1995}]{宮崎他1995}宮崎\JBA白井\JBA池原\BBOP1995\BBCP.\newblock\JBOQ言語過程説に基づく日本語品詞の体系化とその効用\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(3),\mbox{\BPGS\3--25}.\bibitem[\protect\BCAY{水谷}{水谷}{1993}]{水谷1993}水谷静夫\BBOP1993\BBCP.\newblock\JBOQ意味・構文の関係を考へる九十例\JBCQ\\newblock\Jem{計量国語学},{\Bbf19}(1),\mbox{\BPGS\1--14}.\bibitem[\protect\BCAY{長尾眞}{長尾眞}{1996}]{長尾1996}長尾眞\BBOP1996\BBCP.\newblock\JBOQ岩波講座ソフトウェア科学15自然言語処理\JBCQ\\newblock岩波書店.\newblockpp.~180--181.\bibitem[\protect\BCAY{沼崎\JBA宮崎}{沼崎\JBA宮崎}{1995}]{沼崎他1995}沼崎\JBA宮崎\BBOP1995\BBCP.\newblock\JBOQ話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分析とパーザへの実装\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(4),\mbox{\BPGS\67--81}.\bibitem[\protect\BCAY{大谷\JBA宮田\JBA松本}{大谷\Jetal}{2000}]{大谷他2000}大谷\JBA宮田\JBA松本\BBOP2000\BBCP.\newblock\JBOQHPSGにもとづく日本語文法について実装に向けての精緻化・拡張\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\19--49}.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1967a}]{三浦1967a}三浦つとむ\BBOP1967a\BBCP.\newblock\Jem{認識と言語の理論,第一部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1967b}]{三浦1967b}三浦つとむ\BBOP1967b\BBCP.\newblock\Jem{認識と言語の理論,第二部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1972}]{三浦1972}三浦つとむ\BBOP1972\BBCP.\newblock\Jem{認識と言語の理論,第三部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1975}]{三浦1975}三浦つとむ\BBOP1975\BBCP.\newblock\Jem{日本語の文法}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1976}]{三浦1976}三浦つとむ\BBOP1976\BBCP.\newblock\Jem{日本語とはどういう言語か}.\newblock講談社.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1977}]{三浦1977}三浦つとむ\BBOP1977\BBCP.\newblock\Jem{言語学と記号学}.\newblock勁草書房.\bibitem[\protect\BCAY{時枝誠記}{時枝誠記}{1941}]{時枝1941}時枝誠記\BBOP1941\BBCP.\newblock\Jem{国語学原論}.\newblock岩波書店.\bibitem[\protect\BCAY{時枝誠記}{時枝誠記}{1950}]{時枝1950}時枝誠記\BBOP1950\BBCP.\newblock\Jem{日本文法口語篇}.\newblock岩波書店.\end{thebibliography}\vspace{1\baselineskip}\begin{biography}\bioauthor{武本裕}{1999年新潟大学工学部情報工学科卒業.2001年新潟大学大学院自然科学研究科博士前期課程修了.同年新潟大学大学院自然科学研究科博士後期課程入学.現在に至る.日本語構文解析,機械翻訳などの自然言語処理とその応用システムの研究に従事.情報処理学会会員.}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所においてコンピュータシステムの性能評価法,日本文音声出力システムや機械翻訳などの研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語処理とその応用システムの研究に従事.2006年5月,宮崎研究室の研究成果を活用して自然言語処理応用システムの製品開発を行う大学発ベンチャー企業「(株)ラングテック」を設立,代表取締役社長を兼務.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.2002年電気通信普及財団賞(テレコム・システム技術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
V07N05-02
\section{はじめに} label{sec:intr}構文解析は自然言語処理の基礎技術として研究されてきたものであり,それを支える枠組の一つに言語学上の理論があると考えるのが自然であろう.過去においては言語に関する理論的理解の進展が解析技術の開発に貢献していたことは改めて述べるまでもない.しかし,現状はそうではない.現在開発されている様々な解析ツールには文法理論との直接的な関係はない.形態素解析や係り受け解析には独自のノウハウがあり,またそうしたノウハウは言語学上の知見とは無関係に開発されている.そのような事情の背景には,自然言語処理に文法理論を導入することは実用向きではない,という見解があった.また,そもそも自然言語処理という工学的な技術が文法理論の応用として位置付けられるものであるかどうかすら明確ではない.工学的なシステムは,1970年代,学校文法を発展させたものか,60年代の生成文法などにもとづいて開発されていた.そのようなアプローチの問題は個別的な規則を多用したことにあり,様々な言語現象にわたる一般性が捉えられないばかりか,肥大した文法は処理効率の面でも望ましいものではなかった.素性構造(featurestructure)の概念の形式化が進んだ80年代は,それを応用した構文解析などの研究が行われていた.研究の関心は専ら単一化(unification)という考え方が言語に特徴的な現象の説明に有効かどうかを明らかにすることであった.そのため構文解析器の開発は文法の構築と並行して行われたものの,実用面より理論的な興味が優先された.90年代になると,コーパスから統計的推定によって学習した確率モデルを用いる手法が,人手で明示的に記述された文法に匹敵する精度を達成しつつあった.しかしながら,コーパスだけに依存した方法も一つの到達点に達し,そろそろ限界が感じられてきている.これらの文法システムに共通する特徴は,自然言語に関する様々な知見を何らかの計算理論にもとづいて実装しようと試みていることである.そのような知見は言語に関する人間の認知過程の一端を分析して得られたものに他ならないが,そもそも人間の情報処理というものが他の認知活動と同様に部分的な情報を統合して活動の自由度をできるだけ小さく抑えているようなものであるならば,言語も人間が処理している情報である以上,そのような性質を持つものと考えることができる.その意味で,構文解析が果たすべき役割とは,文の構造といった言語に関する部分的な情報を提供することで可能な解析の数を抑制することにあり,またより人間らしい,あるいは高度な自然言語処理に向けての一つの課題は,そのような言語解析における部分的な情報の統合にあると考えることができる.本論文ではこういう前置きをおいた上で,現在NAISTで開発中の文法システムを概観し,自然言語処理に文法理論を積極的に導入した構文解析について論じてみたいと思う.言語データを重視する帰納的な言語処理とモデルの構築を優先する演繹的な文法理論を両立させた本論のアプローチは,どちらか一方を指針とするものよりも,構文解析,あるいは言語情報解析においてシステムの見通しが良いことを主張する.また,このような試みが自然言語処理における実践的な研究に対してどのようなパースペクティブを与えるか,ということも述べてみたい.本論文の構成は以下のとおりである.文法理論は言語の普遍的な(universal)性質を説明する原理の体系であるが,\ref{sec:jpsg}節では,言語固有の(language-specific)データを重視して構築していながらも普遍的体系に包含されるような日本語文法の骨子を明示的に述べる.\ref{sec:jl}節以下は,日本語特有の現象についての具体的分析を示す.形式化が進んでいる格助詞,取り立て助詞,サ変動詞構文を例に.言語現象の観察・基本事項の抽出を踏まえた上で,断片的な現象の間に潜む関連性が我々の提案する文法に組み込まれた一般的な制約によって捉えられることを示す.\ref{sec:adn}節では,本論の構文解析の問題点の一つ,連体修飾の曖昧性について検討する.一般に,コーパス上の雑多な現象を説明するための機構を文法に対して単純に組み込んでしまうと曖昧性は増大する.しかし,格助詞に関わる連体修飾については,文法全体を修整することなく不必要な曖昧性を抑えることができる.ここでは各事例の検討を交えながら,その方法について述べる.\ref{sec:cncl}節は総括である.本論文が示したことを簡単にまとめ,締めくくりとする.\setcounter{section}{1} \section{基本的な枠組と実装に向けての理論の精緻化・拡張} label{sec:jpsg}文法理論は,言語に関する最も体系的な知見として,人間の言語活動に対して見通しのよい説明を提供している.本研究が立脚する主辞駆動句構造文法(Head-drivenPhraseStructureGrammar---HPSG)\cite{Pollard&Sag1987,Pollard&Sag1994,Sag&Wasow1999}は,言語現象を情報という観点から形式的に捉えようとした文法理論である.HPSGは,統語,意味,あるいは今日亨受できる豊かなデータの蓄積をもとにした音韻・形態情報などの系統的な関係を記述することができ,さらにはそれらの統合的な情報も単一化によって得ることを可能にしている.また,開発の経緯において情報科学との交流が密であったため,構文解析などの言語処理の基礎技術を考える基本的な枠組みを提供するという目的においても導入に適した理論である.以下に論じる文法システムは,文法理論の導入によるこのような利点が言語処理に反映されるように設計を試みたものである.\subsection{HPSGの実装における問題点}\label{sec:jpsg:issue}HPSGの体系\cite{Pollard&Sag1987,Pollard&Sag1994}を解析システムとして実装する場合,特に考慮を要するのは次の三点である.\begin{itemize}\item[1.]語順に関する原理・制約\item[2.]音形を持たない(空の)語彙を仮定した``省略''(や``痕跡'')の説明\item[3.](無効な)構文木の生成・曖昧性の抑制\end{itemize}1は線形順序制約(LinearPrecedenceConstraint)によって規定され,直接支配スキーマ(ImmediateDominanceSchema---IDスキーマ)は構成素が左右どちらの枝にあるかという区別はしない.この制約は構成素間の局所的な順序のみを規定し,制約に違反しない任意の語順を文法的とするが,このような理論的枠組を実際の解析に反映させるためには,予め線形順序制約とIDスキーマから全ての句構造規則を派生させるといった工夫が別途必要となる.2は下位範疇化(subcategorization)に関する素性の打ち消し(cancellation)を問題にする.下位範疇化された要素が表層に現れていない場合,音形を持たない空の語彙を仮定することで素性は打ち消される.しかしながら,日本語では文中のほとんどの要素が省略可能であるため,省略の分析を実装するには,実際には起きていない省略を検査してしまう冗長な解析を抑制する方法も組み込まなければならない.3はシステムの処理対象と言語理論の説明対象の間の調整に関する問題である.原理・スキーマなどの制約は,可能であれば解析のあらゆる段階でその適用が全て検査されるが,その数が多いほど評価を試みる(無効な)構文木が組み合わせ的に増大してしまう.処理系への負担を減らすには,システムの持つ文法を調整し適用可能性を抑える必要があるが,それには言語現象の理論的な一般化を損わないような配慮が必要である.これらは,言語理論が推し進めている抽象的な原理の体系をそのまま実装する上で問題となる.しかしながら,我々の文法システムでは\ref{sec:intr}節で述べたような言語現象に対する理論の見通しの良さを活かすために,HPSGの形式化に対し独自の修正を加えることでその実装を可能にした.以下では,上記の問題点を解消するために我々が行ったHPSGの精緻化・拡張について述べる.まず,\ref{sec:jpsg:frml}節では日本語文法の形式化に関する全体的見通しを概観し,\ref{sec:jpsg:worder}節では``語順''の扱いを,次いで\ref{sec:jpsg:drop}節では``省略''の扱いについて述べる.最後に,\ref{sec:jpsg:atree}節で構文木の生成・曖昧性の抑制に関して,頻出構文である複合述語に問題を限定して論じることにする.\subsection{日本語文法の形式化}\label{sec:jpsg:frml}本論文で提案する文法は当面の記述対象を日本語に限っているため,JPSGとよんでいる.HPSGにもとづいた日本語文法としては,既にICOTJPSGが存在している\footnote{\citeA{Gunji1987,Tsuda&etal1989L}などを参照.90年代には,ICOTの成果を発展させた研究\cite{郡司1994,Gunji&Hasida1998}が,自然言語の一般的性質の説明を目指した理論体系の開発に関心を向けている.}.ここで提案する文法も言語に関する基本的な洞察はICOTと同じである.しかし,文法の理論的一貫性を保持しつつ実用的なシステムを開発することに,より関心を向けているため,理論の射程や実装面の特徴においては大きく異なっている.ゆえに,ICOTJPSGとは区別して,我々が提案する文法をNAISTJPSGとよぶことにした.HPSGにもとづくJPSGの理論的構成は,普遍原理($P_1,\dots,P_n$),日本語固有の原理($P_{n+1},\dots,P_{n+m}$),スキーマ($S_1,\dots,S_p$),語彙($L_1,\dots,L_q$),の関係として図\ref{fig:jpn}のように形式化することができる.\begin{figure}\begin{center}$日本語=P_1\wedge\dots\wedgeP_n\wedgeP_{n+1}\wedge\dots\wedgeP_{n+m}\wedge(S_1\vee\dots\veeS_p\veeL_1\vee\dots\veeL_q)$\end{center}\caption{HPSGにもとづく日本語文法の形式化}\label{fig:jpn}\end{figure}このように連言的な原理と選言的なスキーマを仮定し,言語の性質を理論的に組み立てることによって,言語の普遍性と日本語の特徴の記述を両立させている.言語的対象物(linguisticobjects)は,実際の言語状況において,図\ref{fig:fstr}のような属性(attribute)と値(value)が対になった素性構造で表わされる音韻・形態情報,統語情報,そして意味情報が互いに制約し合って配置された部分情報構造(partialinformationstructures)に則して分析される.\begin{figure}\avmvskip{-.2ex}\begin{center}\begin{avm}\[{\footnotesize\itsynsem\_struc}\\syn&\[head&\[{\footnotesize\ithead}\\case&{\itcase}\\arg-st&{\itlist(synsem\_struc)}\\mod&{\itlist(synsem\_struc)}\]\\val&\[subcat&{\itlist(synsem\_struc)}\\adjacent&{\itlist(synsem\_struc)}\]\]\\sem&{\itsem\_struc}\]\end{avm}\end{center}\avmvskip{-.5ex}\caption{NAISTJPSGの基本的な素性構造{\protect\footnotemark}}\label{fig:fstr}\end{figure}\footnotetext{以下,素性名からどの素性の値か明らかなものについては適宜\\begin{avm}\[adjcnt\\<\,\>\,\]\end{avm}\のように簡略化して記述する.}{\itsynsem\_struc\/}は語または句の持つ情報を記述するための型(type)の総称であるが,このように部分情報構造の型の名前をイタリック体で示す.また,{\itlist($\alpha$)\/}は$\alpha$という型を持つ素性のリストを表す.{\itsynsem\_struc\/}は{\itphrase,word,\dots\/}といった下位型(subtype)を持つ.主辞素性(headfeature---{\schead}素性)の値{\ithead\/}は品詞,格素性(casefeature---{\sccase}素性)の値{\itcase\/}は格に関する情報をそれぞれ表すが,各素性の詳細は以下の節で必要に応じて述べる.上記のように,素性構造に対する基本的な構想,またこのような言語情報の統合が素性構造に対する単一化によってなされる点はHPSGの見解に従うものであるが,NAISTJPSGはさらに日本語の解析システムとして,日本語を指向した新しい型体系を導入している.HPSGなどの言語理論と構文解析・文生成といった自然言語処理技術が最も密接に関連するのは,句構造の構築に関するスキーマであろう.HPSGは文の構築に関する個別の句構造規則を仮定していない.伝統的な統語論で仮定されていた句構造規則は,下位範疇化に関する情報と直接支配原理(ImmediateDominancePrinciple)に関する六つのスキーマ(1.~Head-Subject,2.~Head-Complement,3.~Head-Subject-Complement,4.~Head-Marker,5.~Head-Adjunct,6.~Head-Filler)といった普遍的制約に置き換えられている.NAISTJPSGも基本的にはこの考え方に従うものであるが,スキーマに関しては独自に図\ref{fig:schm}の四つを設定している.\begin{figure}\begin{center}\begin{tabular}{rllcllcl}a.&complement-headschema:&[{\itphrase}]&$\rightarrow$&C[{\itphrase}]&H\\b.&adjunct-headschema:&[{\itphrase}]&$\rightarrow$&A[{\itphrase}]&H[{\itphrase}]\\c.&0-complement-headschema:&[{\itphrase}]&$\rightarrow$&H[{\itword}]&\\d.&pseudo-lexical-ruleschema:&[{\itword}]&$\rightarrow$&X[{\itword}]&H[{\itword}]\\\end{tabular}\end{center}\caption{NAISTJPSGのスキーマ{\protect\footnotemark}}\label{fig:schm}\end{figure}\footnotetext{図中のC,A,H,Xはそれぞれ,補語(complement)・付加語(adjunct)・主辞(head)・任意の統語範疇を表している.}(a)のcomplement-headschemaは1--3を包括し,(b)のadjunct-headschemaは5に相当する.(c)の0-complementschemaおよび(d)のpseudo-lexical-ruleschemaは新たに導入したものであるが,これらのスキーマの必然性は\ref{sec:jpsg:issue}節で提起した問題と関連しており,順次説明していくことにする.6に関しては空所という言語学的な分析をどのように実装に反映するかを検討中ゆえに,現在のところ扱いが明確となっていない.4に相当するスキーマがないのは,NAISTJPSGでは日本語の助詞(および補文標識)をマーカと分析しないためである.助詞については\ref{sec:jl}節で詳しく論じる.\subsection{語順に関する原理・制約}\label{sec:jpsg:worder}図\ref{fig:schm}のスキーマは,HPSGで仮定されているものとは一部異なっているものの,その選択が図\ref{fig:jpn}に示すように選言的であること,またcomplement-headschemaは下位範疇化,adjunct-headschemaは付加語に関する制約を担うスキーマとして,伝統的な句構造規則に代わり,構成素の階層関係に制約を課し,図\ref{fig:btree}のような構文木の生成を保証している点では変わりはない.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\AnnoLn7{\llap{\boxit{1}\,}PP}{\xnode{xa}{\}}\tangle6{健が}}{\AnnoRn7{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@1\,\>\,\]\end{avm}}}{\hspace*{6.6cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn7{ADV\rlap{\,\begin{avm}\[mod\\<\,\@3\,\>\,\]\end{avm}}}{\xnode{ya}{\}}\Tangle1{こっそり}}{\AnnoRn7{\llap{\boxit{3}\,}V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@1\,\>\,\]\end{avm}}}{\hspace*{4.8cm}\xnode{yb}{\}{\itadjunct-head}}{\AnnoLn4{\llap{\boxit{2}\,}PP}{\xnode{za}{\}}\Tangle1{ケーキを}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\@4\,\]\end{avm}}}{\hspace*{3.5cm}\xnode{zb}{\}{\itcomplement-head}}\Annorn0{V\rlap{\,\begin{avm}\[arg-st\\@4\<\,\@1xp[{\itga}],\@2yp[{\itwo}]\,\>\,\]\end{avm}}}{\xnode{wa}{\}\hspace*{3cm}\xnode{wb}{\}{\it0-complement-head}}\lf{食べた}}}}}\hspace*{5cm}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\nodeconnect[l]{wa}[l]{wb}\caption{「健がこっそりケーキを食べた」の構文木}\label{fig:btree}\end{figure}図\ref{fig:stree}に図\ref{fig:btree}の語順転換(かき混ぜ,scrambling)の一例を示す.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\<\,\>\,\]\end{avm}}}{\AnnoLn7{\llap{\boxit{2}\,}PP}{\xnode{xa}{\}}\Tangle1{ケーキを}}{\AnnoRn7{V$'$\rlap{\,\begin{avm}\[subcat\<\,\@2\,\>\,\]\end{avm}}}{\hspace*{6.4cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn7{ADV\rlap{\,\begin{avm}\[mod\\<\,\@3\,\>\,\]\end{avm}}}{\xnode{ya}{\}}\Tangle1{こっそり}}{\AnnoRn7{\llap{\boxit{3}\,}V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@2\,\>\,\]\end{avm}}}{\hspace*{4.6cm}\xnode{yb}{\}{\itadjunct-head}}{\AnnoLn4{\llap{\boxit{1}\,}PP}{\xnode{za}{\}}\tangle7{健が}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@1,\@2\,\>\,\]\end{avm}}}{\hspace*{3.3cm}\xnode{zb}{\}{\itcomplement-head}}\lf{食べた}}}}}\hspace*{5cm}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\caption{「ケーキをこっそり健が食べた」の構文木}\label{fig:stree}\end{figure}図\ref{fig:btree}と比較するとわかるように,どちらも下位範疇化素性(subcategorizationfeature---{\scsubcat}素性)の打ち消しには違いがない.HPSGでは,言語の階層性を規定するこのような句構造表示の制約によって,英語のように語順の制限が厳しい言語と日本語のように語順の制限がゆるい言語を区別していた.NAISTJPSGの実装では次の2点により語順転換を説明する.\begin{itemize}\item[1.]{\scsubcat}素性の打ち消しに順序を設けないことにより,任意の順序での素性の打ち消しを可能とする.\item[2.]構文木の構造は構成素の階層関係を直接的には反映しておらず,そのような情報は{\scsem}素性の埋め込みで記述する.\end{itemize}また,complement-headschema,adjunct-headschemaの意図するところは,日本語の基本的な文の統語構造を,語順の制約がゆるい非階層言語のような平坦な構文木として分析するのでもなく,また階層言語のような主語・目的語の非対称性も仮定しない,ということである.1に関してはICOTJPSGでも{\scsubcat}素性の打ち消しに順序を設けないというアプローチがとられている.しかし,その定式化は素性の値をリストではなく,集合とする別の方法によって実装されていた.NAISTJPSGの{\scsubcat}素性は,{\scarg-st}素性から\citeA{Sag&Wasow1999}で提案されている項顕在化原理(ArgumentRealizationPrinciple)によって変換されたリストであり,統語情報と意味情報の関係に対する普遍的制約によって計算されている.2に関しては\citeA{Manning&etal1999}でも埋め込み分析が提案されているが,我々とは分析の対象とする言語事実やその説明の枠組,理論的帰結が異なっている.また,近年の言語学では統語構造と音韻・形態構造の独立性が考えられており,例えば\citeA{Gunji1999}では,順序連接(sequenceunion)という制約を用いることで,それらの関係を適切に捉えるような機構を提案している.しかし,順序連接は解析システムとして実装するのが困難であり,また音韻・形態情報を反映して語順を規定する構文木にもとづく解析の方が,係り受け情報を利用することで不要な可能性の数を制限しやすいため,このような分析を採用している.\subsection{省略に関するスキーマ}\label{sec:jpsg:drop}日本語では,いわゆるゼロ代名詞とよばれる,(\ref{ex:omit})に示すような項の省略が頻繁に起こる.\enumsentence{\label{ex:omit}\quad\tabcolsep=0pt\begin{tabular}[t]{rp{3mm}ccc}a.&&健が&ケーキを&食べた.\\b.&&健が&$\phi$&食べた.\\c.&&$\phi$&ケーキを&食べた.\\d.&&$\phi$&$\phi$&食べた.\end{tabular}}すなわち,(\ref{ex:omit}a)に対し,動詞が要求する項が一部表出していないような(\ref{ex:omit}b,c)や,極端な場合,(\ref{ex:omit}d)のように項が全く表出していなくても,その動詞は句または文と成り得る.一方,英語ではこのようなことはほとんど起こらず,語と句は厳格に区別される.英語はさらに語順が固定的であることから,\citeA{Sag&Wasow1999}では(主語以外の)全ての項を同時に打ち消すスキーマが標準的な機構となっている.NAISTJPSGでは次の二点を考慮し,図\ref{fig:schm}(a)のcomplement-headschemaの他に(c)の0-complementschemaを導入した.\begin{itemize}\item[1.]日本語においては部分的に飽和した動詞句がごく自然に現れる.\item[2.]仮に全ての項が表出しても,それらの間に任意の付加語が入り得る.\end{itemize}0-complementschemaに続けてcomplement-headschemaを再帰的に適用してゆけば,任意の個数の項を打ち消すことができる.図\ref{fig:go}はこのスキーマによって解析を行なった(\ref{ex:omit}d)の構文木である.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{S\,\begin{avm}\[head&\@1\\adjcnt&\<\,\>\\subcat&\@2\,\]\end{avm}}\Annorn0{V\,\begin{avm}\[head&\@1\,{\itverb}\\adjcnt&\<\,\>\\arg-st&\@2\,\<\,xp[{\itga}],yp[{\itwo}]\,\>\,\]\end{avm}}{\xnode{a}{\}\hspace*{3cm}\xnode{b}{\}{\it0-complement-head}}\lf{食べた}}\end{center}\nodeconnect[l]{a}[l]{b}\caption{(\ref{ex:omit}d)「食べた」の構文木}\label{fig:go}\end{figure}「食べた」の{\schead}素性が主辞素性原理(HeadFeaturePrinciple)によって{\scs}の{\schead}素性に受け継がれている.また,「食べた」の意味的な項を表わす{\scarg-st}素性は項顕在化原理によって{\scs}の{\scsubcat}素性に変換されている.\subsection{複合述語に関する曖昧性の抑制}\label{sec:jpsg:atree}日本語では(\ref{ex:aux})のように動詞に対する助動詞の連接が生産的に行われている.\enumsentence{\label{ex:aux}\begin{tabular}[t]{rl}a.&奈緒美が本を\underline{読んだ.}\\b.&健が奈緒美に本を\underline{読ませた.}\\c.&健が奈緒美に本を\underline{読ませたがった.}\\d.&奈緒美と違って健は絵本を\underline{読ませられたがらなかった.}\end{tabular}}図\ref{fig:schm}(c)の0-complementschemaとともに新たに導入した(d)のpseudo-lexical-ruleschemaは,このようないわゆる複合述語形成を扱うスキーマである.例えば(\ref{ex:aux}b)における複合動詞「読ませた」は図\ref{fig:lcaus}のように分析される.\begin{figure}\begin{center}\unitlength=0.08ex\tree{\node{S\rlap{\,\begin{avm}\[head&\@1\\subcat&\<\@3\,\>\,\]\end{avm}}}{\AnnoLn7{\llap{\boxit{4}\,}PP\rlap{\,\begin{avm}\[head&\[{\itni\/}\]\\adjcnt&\<\,\>\,\]\end{avm}}}{\xnode{wa}{\}}\tangle9{奈緒美に}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[head&\@1\\subcat&\<\@3,\@4\,\>\,\]\end{avm}}}{\hspace*{6cm}\xnode{wb}{\}{\itcomplement-head}}{\AnnoLn7{\llap{\boxit{5}\,}PP\rlap{\,\begin{avm}\[head&\[{\itwo\/}\]\\adjcnt&\<\,\>\,\]\end{avm}}}{\xnode{xa}{\}}\tangle4{本を}}{\AnnoRn4{V$'$\rlap{\,\begin{avm}\[{\footnotesize\itphrase}\\head&\@1\\subcat&\@6\,\]\end{avm}}}{\hspace*{4cm}\xnode{xb}{\}{\itcomplement-head}}{\Annorn0{\hspace*{5zw}V\,\begin{avm}\[{\footnotesize\itword}\\head&\@1\\arg-st&\@6\<\@3xp[{\itga\/}],\@4yp[{\itni\/}]$_{\boxit{7}}$,\@5zp[{\itwo\/}]$_{\boxit{8}}$\>\,\]\end{avm}}{\xnode{ya}{\}\hspace*{3cm}\xnode{yb}{\}{\it0-complement-head}}{\AnnoLn9{\llap{\boxit{2}\,}V\rlap{\,\begin{avm}\[{\footnotesize\itword}\\adjcnt\\<\,\>\\arg-st\\<up[{\itga}]$_{\boxit{7}}$,wp[{\itwo}]$_{\boxit{8}}$\>\,\]\end{avm}}}{{\itpseudo-lexical-rule}\xnode{zb}{\}\hspace*{2.0cm}}\lf{読ま}}{\AnnoRn6{\hspace*{11zw}V\,\begin{avm}\[{\footnotesize\itword}\\head&\@1{\itverb}\\adjcnt&\<\@2v[{\itword}]\>\,\\arg-st&\@6\]\end{avm}}{\xnode{za}{\}}\lf{せた}}}}}}\end{center}\nodeconnect[r]{wa}[l]{wb}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[l]{ya}[l]{yb}\nodeconnect[l]{za}[r]{zb}\caption{{\protect(\ref{ex:aux}b)}「(健が)奈緒美に本を読ませた」の構文木}\label{fig:lcaus}\end{figure}pseudo-lexical-ruleschemaを導入することの利点は,助動詞「せた」が左にくる姉妹を{\itword\/}に指定することで,解析における複合動詞句の曖昧性を抑制できる点にある.その指定で用いられる隣接素性(adjacentfeature---{\scadjcnt}素性)はICOTJPSGで採用されていた素性であり,下位範疇化されている要素の中でも特に隣接したものに関する制約を扱う.図\ref{fig:val}(左)に隣接素性原理(AdjacentFeaturePrinciple)を示す.\begin{figure}\begin{center}\unitlength=0.08ex\begin{tabular}{ccc}\tree{\node{\begin{avm}\[subcat&\@3\\adjcnt&\@2\,\]\end{avm}}{\Ln5{\begin{avm}\@1\[adjcnt&\<\,\>\,\]\end{avm}}}{\Rn5{\begin{avm}\[subcat&\@3\\adjcnt&\<\,\@1\,\>\$\oplus$\@2\,\]\end{avm}}}}&&\tree{\node{\begin{avm}\[subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}{\Ln5{\begin{avm}\@1\[adjnt&\<\,\>\,\]\end{avm}}}{\Rn5{\begin{avm}\[subcat&\<\,\@1\,\>\$\oplus$\@2\,\\adjcnt&\<\,\>\,\]\end{avm}}}}\\\end{tabular}\end{center}\caption{隣接素性原理(左)と下位範疇化原理(右)}\label{fig:val}\end{figure}{\scadjcnt}素性は{\scsubcat}素性を保存したまま語彙的に緊密な隣接要素を指定する.助動詞や\ref{sec:jl}節で論じる助詞のように,日本語においては他の要素を下位範疇化するだけでなく,それらと隣接していることを要求する語が存在するため,制約を局所的に記述するにはこのような素性の導入が必要である.{\scadjcnt}素性は言語類型的に膠着語(agglutinativelanguage)とよばれる言語を特徴付ける素性であると考えられるが,そのような素性の普遍的位置付けを提案するには諸言語との比較対照研究が必要であり,現時点では日本語などに固有の素性として扱っている.図\ref{fig:lcaus}の「せた」の{\scadjcnt}素性が指定する要素を{\itword\/}に制限しないと,図\ref{fig:schm}(a)のcomplement-headschemaが適用され,(\ref{ex:aux}b)は図\ref{fig:scaus}のようにも分析できる.\begin{figure}\begin{center}\unitlength=0.07ex\tree{\node{S}{\AnnoLn5{PP}{\xnode{xa}{\}}\Tangle1{奈緒美に}}{\AnnoRn5{VP\rlap{$_2$}}{\hspace*{3.4cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn3{VP\rlap{$_1$}}{\xnode{ya}{\}}{\AnnoLn1{PP}{{\itcomplement-head\/}\xnode{za}{\}\hspace*{3cm}}\tangle7{本を}}{\AnnoRn1{V$'$}{\xnode{zb}{\}}\tangle7{読ま}}}{\AnnoRn3{V$'$}{\hspace*{2cm}\xnode{yb}{\}{\itcomplement-head}}{\tangle7{せた}}}}}\hspace*{1cm}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\caption{「奈緒美に本を読ませた」の別の構文木}\label{fig:scaus}\end{figure}これは言語学的にしばしば論じられる補文分析であるが,この分析には次の二つの問題がある.\begin{itemize}\item[1.]実装が困難な順序連接を導入しないと「奈緒美に」と「本を」の語順転換が説明できない.\item[2.]「奈緒美に」と「本を」の間に付加語が挿入されるとVP$_1$とVP$_2$のどちらに付加されるかで曖昧性が組み合わせ的に増大してしまう.\end{itemize}2については,このような曖昧性が意味的な差をもたらすこともある.例えば「健は奈緒美に大声で本を読ませた」は,「大声で読んだ」と「大声で指示した」という二つの読みがあるが,このような意味的解釈が可能かどうかは,一般には統語的な構造よりも語の意味的な共起関係や背景知識に依存する.よって,統語解析の段階でこのような曖昧性を展開してしまうのは解析システムとして実装する上では得策ではない.図\ref{fig:lcaus},\ref{fig:scaus}の分析にはそれぞれ利点・欠点はあるが,現在NAISTJPSGは次の二つの理由により(\ref{ex:aux}b)の構造を図\ref{fig:lcaus}とするような分析を採用している.\begin{itemize}\item[1.]``語順転換''や(ゼロ主語などの)``省略''が構文木の情報を反映した形で直接的に扱える.\item[2.]構文木と意味素性の構造は必ずしも一致しないが,どちらの構造を採用しても,文全体の意味論としては全く同じ{\scsem}素性を考えることが可能である.\end{itemize}つまり,句構造構築に関して,先に述べた「音韻・形態情報は構文木に,階層関係などの統語情報は{\scsem}素性にそれぞれ反映する」という一貫した立場をとっているのである.\ref{sec:jpsg}節では,いくつかのHPSGの普遍原理に対し自然な拡張を行いつつ,NAISTJPSGの個別言語を指向したスキーマを導入した.関連モデルとの比較によっても明らかだが,構文解析のようなモデルの実用面においては,本論文の文法はその射程と説明力において優位にあると言える.もちろん,普遍的な体系を考慮せずに構文に特化したスキーマを仮定することによって諸構文を説明することは原理的に可能である.しかし,言語の一般性を捉えるためにはより多くの構文が原理の相互作用によって説明されることが望ましい.そこで\ref{sec:jl}節では,そのような分析の一例として,日本語に特徴的ないくつかの現象について論じることにする.\setcounter{section}{2} \section{語彙記述の設計と素性・原理の相互作用} label{sec:jl}普遍的かつ計算機処理に適した文法記述体系の開発には対象言語の理論的な理解が欠かせないが,\ref{sec:jpsg}節では,いくつかの現象にもとづいて原理やスキーマを拡張した日本語句構造文法を導入した.そのような枠組みに立脚することで,一般的な言語現象は諸現象に関与する頻度の高い一般的な原理によって説明されるが,特殊な言語現象もまた原理の相互作用の結果として説明されることが望ましい.そこで\ref{sec:jl}節では,分析が進んでいる格助詞,取り立て助詞およびサ変動詞構文を取り上げ,NAISTJPSGが日本語に特有な現象をどのように扱っているかについて述べる.また,この枠組における文法に内在した計算機構(computationalsystem)および入力となる語彙項目(lexicalitem)に関する制約の記述法についても合わせて論じることにする.\subsection{格助詞に関する素性と原理}\label{sec:jl:case}日本語などの言語に特有な現象の一つは,名詞が助詞を伴う点にある.格助詞については(\ref{ex:case})にあげる四つの現象が特徴的である.\enumsentence{\label{ex:case}\begin{tabular}[t]{rlll}a.&名詞に後接する場合:&\underline{健が}走る.&\underline{奈緒美を}知っている.\\b.&省略される場合:&\underline{健}来た?&\underline{奈緒美}知っている?\\c.&動詞に後接する場合:&\underline{行くが}よい.&\underline{足るを}知る.\\d.&省略されない場合:&\BAD\underline{行く}よい.&\BAD\underline{足る}知る.\end{tabular}}\ref{sec:jpsg:issue}節でその方針を述べたように,NAISTJPSGでは(\ref{ex:case}b,c,d)に対して,空の助詞ガや形式名詞コトなどの語彙を辞書に仮定した解析はしない.格助詞は名詞と動詞の両方を直接下位範疇化しているものとして分析する.さらに,説明できなければならない現象として「(\ref{ex:dcase})のように(名詞句でも動詞句でも)ガやヲ等の格助詞を二つ以上伴えない」ということも挙げられる.\enumsentence{\label{ex:dcase}\begin{tabular}[t]{rl}a.&\BAD健をが走る.\\b.&\BAD行くががよい.\end{tabular}}(\ref{ex:case}),(\ref{ex:dcase})のような個別言語特有の現象も,動詞・名詞・格助詞に対してそれぞれ図\ref{fig:lexicon}のような言語固有の語彙情報さえ適切に記述しておけば,原理には一切手を加えることなく説明できる.\begin{figure}\begin{center}\begin{tabular}{ccc}\begin{avm}\[\footnotesize\it{word}\\head&\[\footnotesize\it{verb}\\case&{\itnone\/}\]\\arg-st&\<xp[$\alpha$],yp[$\beta$],\dots\>\,\]\end{avm}&\begin{avm}\[\footnotesize\it{word}\\head&\[\footnotesize\it{noun}\\case&X\]\,\]\end{avm}&\begin{avm}\[\footnotesize\it{word}\\head&\[\footnotesize\it{ptcl}\\case&{\itcase\/}\]\\adjcnt&\<xp[{\itnone\/}]\>\,\]\end{avm}\end{tabular}\end{center}\caption{動詞(左)・名詞(中)・格助詞(右)の素性記述}\label{fig:lexicon}\end{figure}図\ref{fig:lexicon}中の略記{\scxp[$\alpha$]}は図\ref{fig:abbr}(左)の素性構造である.また,{\itnone\/}および{\itga\/}は\ref{sec:jpsg:frml}節で説明した型{\itcase\/}の下位型であり,図\ref{fig:abbr}(右)のような型階層を形成しているとする.\begin{figure}\begin{center}\begin{tabular}{cp{1cm}c}\raisebox{-12pt}{\begin{avm}\[{\footnotesize\itphrase}\\head&\[case&$\alpha$\]\,\]\end{avm}}&&\unitlength=0.07ex\tree{\node{\itcase}{\Ln7{\itnone}}{\Ln2{\itga}}{\rn2{\itni}}{\Rn4{\itwo}}{\Rn7{({\itto})}}}\end{tabular}\end{center}\caption{{\sccase}素性(左)と型階層(右)}\label{fig:abbr}\end{figure}つまり,言語理論が捉えようとしている言語の普遍的性質を損うことなく,日本語の現象を説明することが可能な理論となっているのである.NAISTJPSGがそのような仕組みを提案していることは,\ref{sec:jpsg}節の議論に加え,図\ref{fig:drop}に示す(\ref{ex:case}a,b)に対する名詞句と格助詞の具体的な素性構造の記述からも明らかである.\begin{figure}\begin{center}\small\begin{tabular}{cc}\unitlength=0.095ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\Ln4{\llap{\boxit{2}\,}PP\rlap{\,\begin{avm}\[head&\[{\itwo\/}\]\,\\adjcnt&\<\,\>\]\end{avm}}}{\AnnoLn2{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[head\\[X\]\,\]\end{avm}}}{\footnotesizeX={\itnone}\,}\lf{奈緒美}}{\AnnoRn2{P\rlap{\,\begin{avm}\[head&\[{\itwo\/}\]\\adjcnt&\<\@1xp[{\itnone\/}]\>\,\]\end{avm}}}{\footnotesize\,XP=NP}\lf{を}}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\<\@2yp\[{\itwo\/}\]\,\>\,\]\end{avm}}}{\footnotesize\,YP=PP}}}\hspace*{3.0cm}&\unitlength=0.17ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\Annoln9{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[head\\[X\]\,\]\end{avm}}}{\footnotesizeX={\itwo}\,}\lf{奈緒美}}{\Annorn8{V$'$\rlap{\,\begin{avm}\[subcat\\<\@1xp\[{\itwo\/}\]\,\>\,\]\end{avm}}}{\footnotesize\,XP=NP}}}\hspace*{3.0cm}\end{tabular}\end{center}\caption{格助詞が名詞に後続する場合(左)と格助詞が省略される場合(右)の構文木}\label{fig:drop}\end{figure}図\ref{fig:drop}では,格助詞が明示される場合とされない場合の任意性が,名詞の{\sccase}素性を変数(すなわち{\itnone\/}や{\itga\/}の上位である{\itcase\/}型)とすることで捉えられている.実際,このような省略は会話文においては顕著に現れ得るので,実用的な文法はそのような現象にも対処できなければならない.ICOTJPSGをはじめとして,従来の文法の実装ではこのような現象の扱いは例外として軽視されがちであったが,NAISTJPSGでは規範的でない文に対しても可能な限り特別視しないという方針をとっている.(\ref{ex:case}c)は図\ref{fig:drop}(左)の「奈緒美」に相当する部分が「行く,足る」といった動詞となったものと考えるが,そのような素性構造も助詞の{\scadjnt}素性の指定が{\itnone\/}となっているので適切に記述することができる.さらに,(\ref{ex:case}d)のように動詞に後接する格助詞が省略されないということは,動詞の{\sccase}素性が{\itnone\/}であることで捉えられている.また,この枠組では,格助詞を二つ以上伴うことにより排除されていた(\ref{ex:dcase})のような現象は,すでに格の情報が指定されているものにさらに格の指定をするという点において排除される.つまり,格助詞の{\scadjcnt}素性には{\sccase}素性が{\itnone\/}である要素に隣接することが記述されているが,すでに格助詞を伴った助詞句PPの{\sccase}素性は{\itnone\/}ではないため,さらに格助詞が隣接することはできないのである.\subsection{取り立て助詞に関する素性と原理}\label{sec:jl:focus}現時点では全ての助詞の記述が済んだわけではない.格助詞においてもそうであるが,現在のNAISTJPSGは当面の処理において必要となる助詞の機能の一部を記述したにすぎない.格助詞以外で分析が進んでいるのは取り立て助詞などとよばれるものである.サエ・スラなどの用例・用法は実に様々であるが,それらに共通する統語的特徴としては「それが選択(あるいは隣接)している語」の様々な情報に関して,「本来その語を選択している語」から参照することができるということが挙げられる.\enumsentence{\label{ex:sae}\begin{tabular}[t]{rl}a.&健が奈緒美を誉めた.\\b.&健が奈緒美サエ誉めた.\end{tabular}}例えば,(\ref{ex:sae}a)では動詞「誉める」の目的語「奈緒美を」は,ヲ格を伴うことによってそれ自身の文法機能を明示しているが,(\ref{ex:sae}b)ではサエを伴うことによりヲ格を表出していない.しかしながら,ヲ格を伴っていなくても依然「奈緒美」は「誉める」の目的語であるので,ヲ格を明示することで示していた文法機能は単に形態的に表出していないだけであることがわかる.また,サエ自身はガ格などの代わりに用いることもできるので,動詞はサエに関係なく目的語の助詞句を下位範疇化していると考えられる.\begin{figure}\begin{center}\begin{tabular}{cc}\raisebox{-45pt}{\hspace*{-5mm}\avmvskip{0ex}\begin{avm}\[head\quad\[{\footnotesize\itptcl}\\case&\@1\,\\arg-st&\@2\]\\adjcnt\\<\[{\footnotesize\itphrase}\\head\\[case\quad\\@1\\arg-st\\@2\,\]\]\>\,\]\end{avm}\avmvskip{-.5ex}}&\unitlength=0.09ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\AnnoLn3{\llap{\boxit{1}\,}PP\rlap{\,\begin{avm}\[case\quad\Y\\adjcnt\\<\,\>\,\]\end{avm}}}{\smallY={\itwo\/}\,}{\AnnoLn1{NP\rlap{\,\begin{avm}\[case\X\,\]\end{avm}}}{\smallX=Y\,}\lf{奈緒美}}{\AnnoRn4{P\rlap{\,\begin{avm}\[case&Y\\adjcnt&\<xp[Y]\>\,\]\end{avm}}}{\small\,XP=NP}\lf{サエ}}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\<\@1yp\[{\itwo\/}\]\>\,\]\end{avm}}}{\small\,YP=PP}}}\hspace*{7zw}\end{tabular}\end{center}\caption{取り立て助詞の語彙項目(左)と「\dots奈緒美サエ\dots」の構文木(右)}\label{fig:sae}\end{figure}図\ref{fig:drop}(左)では格助詞ヲの{\schead}素性の一部である{\sccase}素性の値{\itwo\/}が,おなじく{\scpp}の{\schead}素性の一部である{\sccase}素性に主辞素性原理によって受け継がれている.この情報が,下位範疇化原理において,{\scpp}が動詞の{\scsubcat}素性の中のヲ格を持つ要素と単一化する際に制約として機能する.図\ref{fig:sae}(右)では,助詞サエの{\sccase}素性が変数Yになっており,{\scpp}全体としても{\sccase}素性は変数のまま指定されない.この状態で,下位範疇化原理に従って動詞の{\scsubcat}素性の中のヲ格を持つ要素と{\scpp}が単一化すれば,Yの値が{\itwo\/}となり助詞句はヲ格句と同じ素性の指定を持つ句として解析される.ただし,サエの記述は図\ref{fig:sae}で仮定しているほど単純ではない.例えば,サエに動詞が前接する場合,特定の活用を要求することがコーパスからも伺えるので,サエの記述には格の指定の有無だけでなく品詞や活用も下位範疇化情報として記述しておくことが考えられる.これに関してはさらに詳しく調査する必要がある.もちろん,こういう原理的なアプローチだけで格助詞に関する全ての現象を説明できるわけではなく,その点に関しては\ref{sec:adn:crpsadj}節でもいくつかの事例を検討してみることにする.\subsection{サ変動詞構文}\label{sec:jl:sahen}ここで検討するサ変動詞構文とは,いわゆる項構造(argumentstructure)を持つ漢語名詞(サ変名詞,動名詞,verbalnoun---VN)とサ変動詞スルを含む(\ref{ex:suru})のような文のことである.\enumsentence{\label{ex:suru}\begin{tabular}[t]{rlll}a.&船が沈没した&船の沈没&沈没$\langleI\rangle$\\b.&健が英語を勉強した&健の英語の勉強&勉強$\langleI,J\rangle$\\c.&師匠が弟子に秘伝を伝授した&師匠の弟子への秘伝の伝授&伝授$\langleI,J,K\rangle$\end{tabular}}例えば(\ref{ex:suru}c)の$I$,$J$,$K$は,「伝授」という行為において,それぞれ伝授する人({\scinitiator}),伝授される人({\scinitiatee}),伝授される内容({\scinitiated})を表わし,NAISTJPSGでは図\ref{fig:astr}のように記述する.\begin{figure}\begin{center}\begin{avm}\[syn&\|head\\|arg-st\$\langle${\scxp}$_i$,{\scyp}$_j$,{\sczp}$_k$$\rangle$\\sem&\[rel&{\itinitiation}\\initiator&{\iti}\\initiatee&{\itj}\\initiated&{\itk\/}\]\]\end{avm}\end{center}\caption{NAISTJPSGの素性構造における項構造の表記}\label{fig:astr}\end{figure}この構文は(\ref{ex:suru})に示すように,VNを主辞とする名詞句と現れる項の数と種類が同じになっているという点に特徴がある.京大コーパスversion2.0\cite{Kurohashi&Nagao1997}を調べてみると,「動詞・助動詞・形容詞・形容動詞・副詞・終助詞」を含む全述語的文節の出現回数約19,000回に対して約10,000回と半分以上を占めており,日本語では頻出と考えられ,文法の被覆率を上げるためには無視できない構文である.このサ変動詞構文の興味深い点は,いわゆる``局所性''に関するところにある.制約が局所的な形式化で述べられるか否かは,自然言語の記述体系としての理論的関心もさることながら,実装においてはこと重要である.(\ref{ex:suru}c)を例に詳しく見てみると,VNを主辞とする名詞句では図\ref{fig:nonloc}(左)に示すようにそれを主辞とした句の内部で``局所的に''意味的関係が成立している.一方,同じVNを含むサ変動詞構文ではそのような``局所性''に従わず,図\ref{fig:nonloc}(右)に示すように句の外側の要素との間で意味的関係が成立しているように見える.このことから\citeA{Grimshaw&Mester1988}などの研究では,概ね(i)項構造を持たない特殊な軽動詞(lightverb---LV)という語彙項目と,(ii)VNが持つ意味的な主辞として機能をLVに転送する(transfer)といった操作,いわゆる項転送(ArgumentTransfer)を仮定することで,図\ref{fig:nonloc}(右)における一見するところの局所性違反を説明しようとする.\begin{figure}\begin{center}\small{\unitlength=0.085ex\begin{tabular}{cc}\hspace*{-1zw}\tree{\node{\fbox{VNP}}{\Ln6{PP$_{I}$}\tangle8{師匠の}}{\Ln1{PP$_{J}$}\tangle9{弟子への}}{\rn9{PP$_{K}$}\tangle8{秘伝の}}{\Rn5{VN\rlap{\,$\langleI,J,K\rangle$}}\lf{伝授}}}\hspace*{3zw}&\hspace*{1zw}\tree{\node{VP}{\Ln7{PP$_{I}$}\tangle8{師匠が}}{\Ln4{PP$_{J}$}\tangle8{弟子に}}{\rn0{PP$_{K}$}\tangle8{秘伝を}}{\Rn3{\fbox{VNP}}\raisebox{1ex}{\lf{伝授}}}{\Rn6{V\rlap{\,$\langleI,J,K\rangle$}}\lf{した}}}\hspace*{3zw}\end{tabular}}\end{center}\caption{VNを主辞とする名詞句(左)とVNを含むサ変動詞構文(右)の意味的関係}\label{fig:nonloc}\end{figure}これに対しNAISTJPSGでは,特殊な``操作''は導入せず,スルに対してこのような特性を反映した語彙項目を仮定するだけでサ変動詞構文の局所性に関する問題を説明する.この場合,語彙項目は原理から導き得ない特性を述べているにすぎない.単一化という,ここまでの諸現象の説明においても仮定してきた,NAISTJPSGでは当然の操作が,項転送を仮定するまでもなくサ変動詞構文の問題を局所的に説明する.つまり,\citeA{Grimshaw&Mester1988}のように特殊な操作を計算機構に組み込む必要はなく,ごく少数の単一化のような計算機構と,充実した語彙情報のみで個別言語の現象を説明するのである.では,このような分析の入力となる語彙情報は,いかにして記述されるのか.それは(\ref{ex:vnomit}),(\ref{ex:vnscr})のような個別言語(JPSGの場合は日本語)の言語事実の観察にもとづいて規定される.\enumsentence{\label{ex:vnomit}\begin{tabular}[t]{rl}a.&\BAD船が$\phi$した.\\b.&\BAD健が英語を$\phi$した.\\c.&\BAD師匠が弟子に秘伝を$\phi$した.\\\end{tabular}}\enumsentence{\label{ex:vnscr}\begin{tabular}[t]{rl}a.&\BAD沈没$_i$船が$t_i$した.\\b.&\BAD健が勉強$_i$英語を$t_i$した.\\c.&\BAD師匠が弟子に伝授$_i$秘伝を$t_i$した.\end{tabular}}もしVNがLVの{\scsubcat}素性の要素(ここでは目的語)ならば,省略や語順転換が可能だが,(\ref{ex:vnomit}),(\ref{ex:vnscr})はそれができないことを示している.このことはVNとLVが``語彙的''に緊密であり,その構文木は\ref{sec:jpsg:atree}節で論じた図\ref{fig:schm}(d)のpseudo-lexical-ruleschemaによって生成されることを示唆する.図\ref{fig:lvlex}にそのような特性を反映したスル(以下これをLVとよぶ)の素性構造を示す.\begin{figure}\begin{center}\begin{avm}\[head&{\itverb}\\arg-st&\@1\\adjcnt&\<\[{\footnotesize\itword}\\case&{\itnone}\,\\arg-st&\@1\]\>\,\]\end{avm}\end{center}\caption{NAISTJPSGにおける軽動詞スルの語彙項目}\label{fig:lvlex}\end{figure}未確定の{\scarg-st}素性,項構造を含む範疇と単一化すべき要素が{\scsubcat}素性ではなく{\scadjcnt}素性となっていること,およびその値が{\itword\/}型に制限されているのは先の分析にもとづいている.また,図\ref{fig:stlvc}には図\ref{fig:lvlex}の語彙記述を持つLVを入力として,一般的な計算機構によって構築された(\ref{ex:suru}c)の構文木を示す.\begin{figure}\begin{center}\small{\unitlength=0.06ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\\<\\>\,\]\end{avm}}}{\AnnoLn4{\llap{\boxit{3}\,}PP\rlap{$_{I}$}}{\xnode{xa}{\}}\tangle9{師匠が}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_{I}$\>\,\]\end{avm}}}{\hspace*{7.7cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{4}\,}PP\rlap{$_{J}$}}{\xnode{ya}{\}}\tangle9{弟子に}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_{I}$,\@4yp$_{J}$\>\,\]\end{avm}}}{\hspace*{6.2cm}\xnode{yb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{5}\,}PP\rlap{$_{K}$}}{\xnode{za}{\}}\tangle9{秘伝を}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_{I}$,\@4yp$_{J}$,\@5zp$_{K}$\>\,\]\end{avm}}}{\hspace*{4.8cm}\xnode{zb}{\}{\itcomplement-head}}\Annorn0{V\rlap{\,\begin{avm}\[arg-st\\@1\,\]\end{avm}}}{\xnode{a}{\}\hspace*{4cm}\xnode{b}{\}{\it0-complement}}{\Ln6{\llap{\boxit{2}\,}VN\rlap{\,\begin{avm}\[arg-st\\@1\<I,J,K\>\,\]\end{avm}}}\tangle5{伝授}}{\Rn7{\hspace*{12zw}V\,\begin{avm}\[arg-st&\@1\\adjcnt&\<\@2\[arg-st\\@1\,\]\,\>\,\]\end{avm}}\lf{した}}}}}}}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\nodeconnect[l]{a}[l]{b}\caption{NAISTJPSGにおけるサ変動詞構文の構文木}\label{fig:stlvc}\end{figure}未確定の部分\begin{avm}\@1\end{avm}は{\scadjcnt}素性と単一化したVNが持つ項構造と構造共有(structuresharing)されている.LVのもつ{\scadjcnt}素性の要素は隣接素性原理に従って,VNによって打ち消され,VNの項は構造共有によって「VNスル」全体の項構造となる.この項は一般的な句構造同様に下位範疇化素性原理に従って打ち消されるが,項転送相当の現象は捉えられているのである.ところが,\citeA{Grimshaw&Mester1988}などの研究にも言えることであるが,スルという語彙の記述は図\ref{fig:lvlex}に挙げたものだけでは充分でない.(\ref{ex:vnsae})のようにVNとスルの間に取り立て助詞が介在する文や,(\ref{ex:sbjitv}b,c)のように主語が介在する文は,LVとはまた違った特性を持ったスルが必要であることを示している.\enumsentence{\label{ex:vnsae}\begin{tabular}[t]{rl}a.&船が[沈没サエ]した.\\b.&健が英語を[勉強サエ]した.\\c.&師匠が弟子に秘伝を[伝授サエ]した.\end{tabular}}\enumsentence{\label{ex:sbjitv}\begin{tabular}[t]{rl}a.&\BAD沈没サエ船がした.\\b.&英語を勉強サエ健がした.\\c.&弟子に秘伝を伝授サエ師匠がした.\end{tabular}}(\ref{ex:vnomit}),(\ref{ex:vnscr})の例では,VNとスルは隣接しなければならないと分析し,それに適ったスルの語彙記述を仮定した.しかしながら,(\ref{ex:vnsae}),(\ref{ex:sbjitv}b,c)は隣接していなくてもよい例と考えられる.さらに,(\ref{ex:sbjitv})は項との間で語順転換が可能なVNとそうでないものがあることを示している.VNとスルの間に要素が介在するということは,図\ref{fig:lvlex}のように{\scadjnt}素性でVNを指定すると説明できない.そこで,新たに図\ref{fig:hvlex}のスル(これを重動詞,heavyverb---HVとよぶ)を導入する.\begin{figure}\begin{center}\begin{avm}\[head&{\itverb}\\arg-st&\<\@1\[case\{\itga}\],\[{\footnotesize\itphrase}\\case&{\itwo}\\arg-st&\<\,\@1$\mid$\@2\,\>\,\]\,$\mid$\@2\,\>\,\\adjcnt&\<\,\>\]\end{avm}\end{center}\caption{重動詞スルの語彙項目}\label{fig:hvlex}\end{figure}図\ref{fig:sthvc}は(\ref{ex:sbjitv}b)の構文木であるが,図\ref{fig:hvlex}のHVが図\ref{fig:schm}(c)の0-complementschemaで句となった場合,VNと単一化すべき要素と主語は{\scsubcat}素性の要素として顕在化するので,語順転換が可能となっている\footnote{ただし,図\ref{fig:hvlex}において\begin{avm}\@2\end{avm}が未確定ならば,それを語順転換に参与させない機構を導入する必要がある.}.\begin{figure}\begin{center}\small\\unitlength=0.08ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@4\,\>\,\\adjcnt\\<\,\>\,\]\end{avm}}}{\Ln7{\llap{\boxit{3}\,}PP\rlap{\,\begin{avm}\[case\quad\\@5\\arg-st\\@6\\adjcnt\\<\,\>\,\]\end{avm}}}{\Ln5{\llap{\boxit{1}\,}VNP\rlap{\,\begin{avm}\[case\quad\\@5X\\arg-st\\@6\,\<\,\@2,\@4\,\>\,\\adjcnt\\<\,\>\]\end{avm}}}\lf{勉強}}{\Rn6{P\rlap{\,\begin{avm}\[case\quad\\@5\\arg-st\\@6\\adjcnt\\<\,\@1\,\>\,\]\end{avm}}}\lf{サエ}}}{\AnnoRn8{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@3,\@4\,\>\,\\adjcnt\\<\\>\]\end{avm}}}{$X=${\itwo}}{\Ln1{\llap{\boxit{2}\,}PP}\tangle2{健が}}{\Rn2{\hspace*{10zw}HVP\,\begin{avm}\[subcat\\<\@2,\@3\[{\footnotesize\itphrase}\\case\quad\{\itwo\/}\\arg-st\\@6\,\],\@4\,\>\,\\adjcnt\\<\,\>\]\end{avm}}\lf{HV}\lf{スル}}}}\end{center}\caption{(\ref{ex:sbjitv}b)「\dots勉強サエ健がスル」の構文木}\label{fig:sthvc}\end{figure}図\ref{fig:hvlex}において{\scarg-st}素性の第二項の{\sccase}素性が{\itwo\/}であることに注意されたい.これはVNが格助詞ヲを伴っている(\ref{ex:double})の観察にもとづいている.\enumsentence{\label{ex:double}\begin{tabular}[t]{rl}a.&\BAD船サエ沈没ヲした.\\b.&健が英語サエ勉強ヲした.\\c.&師匠が弟子に秘伝サエ伝授ヲした.\end{tabular}}ただし,(\ref{ex:sbjitv}b,c)で「英語,秘伝」がヲ格を伴っていることを考えると,HV自体は(\ref{ex:vnwo}b,c)のような文まで認可してしまう.しかし,これらは日本語では一般的な,いわゆる二重ヲ格制約(Double-{\itWO\/}Constraint)という別の制約によって排除されていると分析することができる.\enumsentence{\label{ex:vnwo}\begin{tabular}[t]{rl}a.&\BAD船ヲ沈没ヲした.\\b.&\BAD健が英語ヲ勉強ヲした.\\c.&\BAD師匠が弟子に秘伝ヲ伝授ヲした.\end{tabular}}(\ref{ex:vnwo}b)を例にとれば,「英語」もVN「勉強」もどちらも潜在的にはヲ格を伴うことができるのであるが,そのような制約により,両方がヲ格を伴った文は排除されていると考えるのである.また,(\ref{ex:vnwo}a)が非文法的なのは,文中に一つもガ格名詞句が含まれていないなどの理由によると説明できる.しかしながら,ガ格の生起についての制約は検討しなければならない現象が広範囲に及ぶため,具体的な制約の定式化は今後の課題である.これまでの議論では,(\ref{ex:double}a)の非文法性は捉えられない.しかし,(\ref{ex:double}a)に含まれる「沈没」のような名詞は,能格名詞(ergativenominal)とよばれるクラスを形成し,ヲ格を伴えないことが\citeA{Miyagawa1989}などの研究により知られている.\enumsentence{\label{ex:ergn}\begin{tabular}[t]{rl}a.&船が沈没(*ヲ)した.\\b.&矢が的に命中(*ヲ)した.\\c.&隕石が落下(*ヲ)した.\end{tabular}}本論文は(\ref{ex:ergn})のようなVNを含むサ変動詞構文については明確な分析を持たない.それはすぐ後に述べる理由によるのであるが,もし能格名詞の型{\itergative}を導入して(\ref{ex:vnsae}a),(\ref{ex:sbjitv}a),(\ref{ex:double}a)を説明するならば,図\ref{fig:lvlex}のLV,図\ref{fig:hvlex}のHVに加えて,さらに図\ref{fig:ergvn}のような語彙項目のスルを導入する必要があるだろう.\begin{figure}\begin{center}\avmvskip{-.2ex}\begin{avm}\[head&{\itverb}\\arg-st&\@1\\adjcnt&\<\[{\scriptsize\itphrase/ergative}\\case\;{\itnone}\,\\arg-st\;\@1\]\>\,\]\end{avm}\avmvskip{-.5ex}\end{center}\caption{能格名詞を指定するスルの語彙項目}\label{fig:ergvn}\end{figure}(\ref{ex:double}a)などのスルが図\ref{fig:ergvn}のような語彙記述であるならば,その非文法性は{\sccase}素性が単一化できないことによると説明できる.しかしながら,このような分析にも反例がある.例えば(\ref{ex:ergn}c)の「落下」は,主語が行為者と解釈できれば,(\ref{ex:fall}a)のようにVNがヲ格を伴っていても我々の判断では容認できてしまう.\enumsentence{\label{ex:fall}\begin{tabular}[t]{rl}a.&スタントマンが派手な落下をした.\\b.&スタントマンが派手な落下サエした.\\c.&派手な落下サエスタントマンがした.\end{tabular}}この場合(\ref{ex:fall})のスルはHVと考えられるが,(\ref{ex:vnsae}a)と(\ref{ex:sbjitv}a)のスルを同様にHVとするなど,これらの文が同じスルを含むと仮定していては文法性の差が説明できない.(\ref{ex:vnsae}a),(\ref{ex:sbjitv}a)の文法性は{\sccase}素性の単一化というよりは,むしろ主語の意味解釈の観点,つまり意味素性の制約から説明すべき問題と考えられるが,現時点ではデータの指摘にとどまっている.\ref{sec:jl}節では格助詞,取り立て助詞およびサ変動詞構文という日本語特有の現象が,普遍的かつ計算機処理に適した文法体系において,どのように扱われるべきかを論じた.いくつかの言語事実を取り上げ,一部の語彙項目に関してはその詳細な素性記述法についても論じてきたが,言及しなかった他の語彙に関してもここで示したような考察・分析の過程を経ることによってはじめて入力として認められる.つまり,NAISTJPSGは原理からは導き得ない情報を語彙に記述し,単一化といった一般的な計算機構によって諸現象を説明するのである.このことは,特殊な現象を処理するために特別な計算機構を導入する必要がなくなるということに外ならず,システムの見通しを良くし,設計を単純化するには不可欠な考え方と言える.\setcounter{section}{3} \section{コーパス調査にもとづく,分析と語彙記述の設計} label{sec:adn}\ref{sec:jl}節ではNAISTJPSGで導入した図\ref{fig:schm}のスキーマの中で,おもに下位範疇化に関するものである(a)complement-headschema,(c)0-complementschema,(d)pseudo-lexical-ruleschemaについて述べた.\ref{sec:adn}節では連体修飾に関する現象を中心に,(b)adjunct-headschemaについて論じることにする.\subsection{補語と付加語の意味制約}\label{sec:adn:cmpadj}VNは(\ref{ex:fasp}a)のようにLVとともに用られる以外にも,(\ref{ex:fasp}b)のように相接辞(AspecutualMorpheme---AM)とも共起できる.実際,(\ref{ex:fasp}b)のような連体修飾の用例はコーパスにおいてもかなりの割合を占めている.京大コーパスversion2.0を調べてみても「名詞性接尾辞」で終わる文節の頻度は約1,000回であり,「サ変名詞+サ変動詞」という文節の約10,000回に比べると十分の一程度となっている.\enumsentence{\label{ex:fasp}\begin{tabular}[t]{rl}a.&師匠が弟子に秘伝を伝授した.\\b.&師匠が弟子に秘伝を伝授中\end{tabular}}「中」などのAMは,(\ref{ex:asp})に示すように様々な項構造を持つVNと隣接できることから,それ自体が項構造を持っているとは考え難い.\enumsentence{\label{ex:asp}\begin{tabular}[t]{rlll}a.&船が沈没後&船の沈没&沈没$\langleI\rangle$\\b.&健が英語を勉強前&健の英語の勉強&勉強$\langleI,J\rangle$\\c.&師匠が弟子に秘伝を伝授中&師匠の弟子への秘伝の伝授&伝授$\langleI,J,K\rangle$\end{tabular}}AMの項構造もVNから伝わったものと考えるならば,AMを主辞として形成される句構造も「サセル,スル」を主辞とした場合と共通の構造を内包し,その生成には同様に図\ref{fig:schm}(d)のpseudo-lexical-ruleschemaの適用が考えられるだろう.\begin{figure}\begin{center}\small\unitlength=0.06ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\\<\\>\,\]\end{avm}}}{\AnnoLn4{\llap{\boxit{3}\,}PP\rlap{$_I$}}{\xnode{xa}{\}}\tangle9{師匠が}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_I$\>\,\]\end{avm}}}{\hspace*{8.2cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{4}\,}PP\rlap{$_J$}}{\xnode{ya}{\}}\tangle9{弟子に}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_I$,\@4yp$_J$\>\,\]\end{avm}}}{\hspace*{6.7cm}\xnode{yb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{5}\,}PP\rlap{$_K$}}{\xnode{za}{\}}\tangle9{秘伝を}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_I$,\@4yp$_J$,\@5zp$_K$\>\,\]\end{avm}}}{\hspace*{5.3cm}\xnode{zb}{\}{\itcomplement-head}}\Annorn0{V\rlap{\,\begin{avm}\[arg-st\\@1\,\]\end{avm}}}{\xnode{a}{\}\hspace*{4.5cm}\xnode{b}{\}{\it0-complement}}{\Ln6{\llap{\boxit{2}\,}VN\rlap{\,\begin{avm}\[arg-st\\@1\<I,J,K\>\,\]\end{avm}}}\tangle5{伝授}}{\Rn7{\hspace*{12.8zw}V\,\begin{avm}\[arg-st&\@1\\adjcnt&\<\@2\[arg-st\\@1\,\]\,\>\,\]\end{avm}}\lf{中}}}}}}\hspace*{2zw}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\nodeconnect[l]{a}[l]{b}\caption{{\protect(\ref{ex:asp}c)}「師匠が弟子に秘伝を伝授中」の構文木}\label{fig:sca}\end{figure}(\ref{ex:asp}c)の「師匠が弟子に秘伝を伝授中」は,使役構文・サ変動詞構文と同じく,主辞はそれぞれ異なるものの,複合AM句は三項述語のように振舞っている.特に,その三つの名詞句の表出には「ガ,ニ,ヲ」の格助詞が伴われていることに注目したい.HPSG/NAISTJPSGにおける格は\ref{sec:jl:case}節で論じたように動詞の下位範疇化素性の一部として記述される.その仮定に従うならば,VN「伝授」には図\ref{fig:conv}のような語彙記述がなされていることになる.\begin{figure}\begin{center}\avmvskip{0ex}\begin{avm}\[syn&\[head&{\itnoun/verb\/}\\arg-st&\<xp[{\itga\/}]$_i$,yp[{\itni\/}]$_j$,zp[{\itwo\/}]$_k$\>\,\]\\sem&\[rel&{\itinitiation\/}\\initiator&{\iti\/}\\initiatee&{\itj\/}\\initiated&{\itk\/}\]\]\end{avm}\avmvskip{-.5ex}\end{center}\caption{VN「伝授」の語彙項目}\label{fig:conv}\end{figure}格に関する情報をそのように記述してしまうと,(\ref{ex:asp}c)の「師匠の弟子への秘伝の伝授」のような連体修飾における修飾要素のノ格の説明が捉えられなくなってしまうと思われるかもしれない.このような問題に対し,NAISTJPSGでは名詞句内において修飾語として機能しているノ格名詞句については付加語と分析している.図\ref{fig:scaa}に(\ref{ex:asp}c)のノ格名詞句を伴った場合の構文木を示す.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{VNP\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\AnnoLn5{PP$_i$}{\xnode{xa}{\}}\Tangle1{師匠の}}{\AnnoRn5{VN$'$\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\hspace*{9cm}\xnode{xb}{\}{\itadjunct-head}}{\AnnoLn5{PP$_j$}{\xnode{ya}{\}}\Tangle1{弟子への}}{\AnnoRn5{VN$'$\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\hspace*{8cm}\xnode{yb}{\}{\itadjunct-head}}{\AnnoLn3{PP$_k$}{\xnode{za}{\}}\Tangle1{秘伝の}}{\AnnoRn2{VN$'$\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\hspace*{7cm}\xnode{zb}{\}{\itadjunct-head}}{\rn0{VN\rlap{\,\avmvskip{0ex}\begin{avm}\[syn\\[head&{\itnoun/verb\/}\\arg-st&\@4\<\@1xp[{\itga\/}]$_i$,\@2yp[{\itni\/}]$_j$,\@3zp[{\itwo\/}]$_k$\>\,\]\\sem\\[rel&{\itinitiation\/}\\initiator&{\iti\/}\\initiatee&{\itj\/}\\initiated&{\itk\/}\]\]\end{avm}\avmvskip{-0.5ex}}}\lf{伝授}}}}}}\hspace*{25zw}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\caption{{\protect(\ref{ex:asp}c)}「師匠の弟子への秘伝の伝授」に対する構文木}\label{fig:scaa}\vspace*{-0.2mm}\end{figure}この場合,主辞「伝授」には項顕在化原理が適用されず,そのため{\scarg-st}素性は{\scsubcat}素性に変換されない.よって,{\scsubcat}素性の打ち消しも起こらず「伝授」の{\scarg-st}素性は投射内で母(mother)へ受け継がれてゆく.一般に付加語と主辞の関係は統語的な情報だけでは決められないので,NAISTJPSGではこれらの間に付加語と主辞の関係があるということまでは規定するが,どのような関係であるかまでは規定しない.また,通常ノ格名詞句の語順転換はできないと言われるが,上述のような分析をとれば,(\ref{ex:ssca})の文法性も意味論の観点から説明できる.\enumsentence{\label{ex:ssca}\begin{tabular}[t]{rl}a.&\%弟子の師匠への秘伝の伝授\\b.&\%弟子の秘伝への師匠の伝授\end{tabular}}もし付加語間の語順,つまり階層関係がなんらかの素性に反映されるならば,そのような素性と受け継がれた{\scarg-st}素性を比較することで,どの名詞がどの項と対応すべきかが計算できる.また,その場合(\ref{ex:ssca})では,そのような対応が述語の意味の点から整合的でないことも予測できる.つまり,「伝授」という語が意味する関係{\scinitiation}においては,(\ref{ex:ssca}a)のように弟子が{\scinitiator}で師匠が{\scinitiatee}であったり,(\ref{ex:ssca}b)のように弟子が{\scinitiator}で秘伝が{\scinitiatee}であることはないと考えるのである.付加語と主辞の関係を統語的制約として文法においては規定しないという立場は,計算機構の記述を簡潔にし,解析システム全体をモジュラーな構造にできるという利点がある半面,曖昧性を抑制する手段を制限してしまうという欠点もある.従ってNAISTJPSGでは,ある句が付加語とも必須項とも分析できるならば,積極的に必須項として分析している.\ref{sec:adn:amb}節では付加語が関与する解析において起こる問題と,その解決方法について述べる.\subsection{付加語に関わる曖昧性の増大}\label{sec:adn:amb}動詞に対する必須項となっていないような修飾句も,連体修飾と同様に図\ref{fig:schm}(b)のadjunct-headschemaによって扱われ,図\ref{fig:modifier}のように分析される.\begin{figure}\begin{center}\unitlength=0.1ex\parbox{0.45\textwidth}{\tree{\node{\begin{avm}\[{\itverb}\\subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}{\Ln4{\begin{avm}\[{\itptcl}\\mod\\<\@1\[{\itverb}\]\>\,\]\end{avm}}\tangle8{三時から}}{\Rn4{\begin{avm}\@1\[{\itverb}\\subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}\Tangle1{出かける}}}}\quad\parbox{0.45\textwidth}{\tree{\node{\begin{avm}\[{\itnoun}\\arg-st&\@2\\adjcnt&\<\,\>\,\]\end{avm}}{\Ln4{\begin{avm}\[{\itptcl}\\mod\\<\@1\[{\itnoun}\]\>\,\]\end{avm}}\tangle8{演奏会の}}{\Rn4{\begin{avm}\@1\[{\itnoun}\\arg-st&\@2\\adjcnt&\<\,\>\,\]\end{avm}}\tangle6{準備}}}}\end{center}\caption{付加語が動詞を修飾する場合(左)と名詞を修飾する場合(右)}\label{fig:modifier}\end{figure}これらは次のような特徴を持つ.\begin{itemize}\item[1.]被修飾句側ではどのような修飾句が認可されるかを制限する手立てがない.\item[2.]修飾句側がどのような句を修飾するかは(比較的)固定されている.\end{itemize}2を定式化したものがHPSGでも導入されている被修飾素性(modifiedfeature---{\scmod}素性)である.これによれば「赤い花」のような形容詞による名詞の修飾や,「さんまを焼く匂い」のような連体修飾についても図\ref{fig:modifier}と同様の分析ができる.なお,(a)のcomplement-headschemaとadjunct-headschemaの間には{\scsem}素性に関して重要な違いがある.すなわち,母の{\scsem}素性は,complement-headschemaにおいては主辞の{\scsem}素性と同一となり,adjunct-headschemaにおいては付加語の{\scsem}素性と同一となる.このように{\scmod}素性には「どのような句を修飾できるか」が記述されるが,NAISTJPSGでは助詞を主辞にしているので,この情報は助詞が元来持っている{\scmod}素性に記述しなければならない.格助詞ガの{\scmod}素性は,(\ref{ex:csadn})にあげる三通りの場合があり得る.\enumsentence{\label{ex:csadn}\begin{tabular}[t]{rlll}a.&項として動詞に下位範疇化される場合:&\begin{avm}\[mod\\<\,\>\,\]\end{avm}\\[-3pt]&\multicolumn{3}{l}{[$_{vp}$\underline{健が}走る].}\\b.&付加語として動詞句を修飾する場合:&\begin{avm}\[mod\\<\[head\{\itverb\/}\]\>\,\]\end{avm}\\[-3pt]&\multicolumn{3}{l}{[$_{vp}$\underline{東京が}[$_{vp}$人が多い]].}\\c.&付加語として名詞句を修飾する場合:&\begin{avm}\[mod\\<\[head\{\itnoun\/}\]\>\,\]\end{avm}\\[-3pt]&\multicolumn{3}{l}{[$_{vp}$[$_{np}$\underline{今年が}初出場]の奈緒美が優勝した].}\end{tabular}}ところが,(\ref{ex:csadn})に従うならば,「健が本を読む」のような単純な文でさえ,概ね[$_{vp}$健が[$_{vp}$本を読む]]の構造に対応した(\ref{ex:csadn}a,b)の分析だけでなく,[$_{vp}$[$_{np}$健が本]を読む]に対応した(\ref{ex:csadn}c)の分析も可能となってしまう.この問題に対してコーパスを予備的に調査した結果,NAISTJPSGでは現在のところ次のような立場をとるのが妥当であると考えている.\begin{itemize}\item[1.]格助詞ガ・ヲ・ニ・トの四つについては(\ref{ex:csadn}c)のような語彙は仮定しない.\item[2.]サ変名詞以外にも項構造をもつような名詞のクラスをいくつか仮定する.\item[3.]ニ・ノ・トについては繋辞(copula)のように機能する述語的な語彙も用意する.\end{itemize}上記を仮定し,(\ref{ex:csadn}c)に対しては具体的に図\ref{fig:copula}のような構文木を与えている.\begin{figure}\begin{center}\unitlength=0.06ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}}{\AnnoLn7{PP\rlap{\,\begin{avm}\[mod\\<\@3\[head\{\itverb}\]\,\>\,\]\end{avm}}}{\xnode{xa}{\}}\tangle7{今年が}}{\AnnoRn8{\llap{\boxit{3}\,}V$'$\rlap{\,\begin{avm}\[subcat&\@2\,\\adjcnt&\<\,\>\,\]\end{avm}}}{\hspace*{5.3cm}\xnode{xb}{\}{\itadjunct-head}}{\AnnoLn5{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[arg-st&\@2\,\]\end{avm}}}{\xnode{ya}{\}}\tangle9{初出場}}{\AnnoRn5{\hspace*{13zw}V\,\begin{avm}\[subcat&\@2\\adjcnt&\<\@1\[arg-st\\@2\,\]\,\>\,\]\end{avm}}{\hspace*{3.3cm}\xnode{yb}{\}{\itcomplement-head}}\lf{の}}}}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\caption{格助詞句が名詞句に係る場合}\label{fig:copula}\end{figure}このような例について調査した結果は,\ref{sec:adn:crpsadj}節でさらに検討する.また,以下では(\ref{ex:csadn}c)における修飾先の「名詞句」をより厳密に「サ変名詞・動詞・助動詞・形容詞・形容動詞・判定詞・終助詞・副詞を全く含まない文節」すなわち「述語的でない文節」と解釈して分析する.\subsection{コーパスを利用した連体修飾の分類}\label{sec:adn:crpsadj}まず,格助詞句が「述語的でない文節」に係る場合の頻度を調べるために,京大コーパスversion2.0中の全ての係り受けの中から次の二つの条件を満たすものを抽出した.\begin{itemize}\item[1.]係り側の文節中,記号類以外で最も右の形態素が格助詞「ガ,ヲ,ニ,ト」である.\item[2.]「通常の」係り関係である\footnote{京大コーパスでは「並立」も係り受け関係の一種としてタグ付けされており,普通の意味での係り受け関係とは付与されたマークで区別される.}.\end{itemize}このような係り受けは表\ref{tbl:all}に示すように四つの格助詞に対してのべ約51,000回出現する.\begin{table}\caption{格助詞句が係る文節の内訳(京大コーパス全係り受け157901から抽出)}\label{tbl:all}\begin{center}\begin{tabular}{c|r|r|r|r}&&\multicolumn{3}{c}{受け側の文節}\\[2pt]\cline{3-5}\rule{0pt}{25pt}格助詞&\shortstack{係り受け\\[-2pt]出現数}&\shortstack{品詞\\[-2pt]パターン数}&\shortstack{述語的でない\\[-2pt]文節}&\shortstack{出現する\\[-2pt]文数}\\[2pt]\hline&&&&\\[-7pt]が&12179&1227&98&302\\[2pt]を&16906&963&39&415\\[2pt]に&13824&875&61&140\\[2pt]と&8134&518&65&174\\[2pt]\hline&&&&\\[-7pt]計&51043&3583&263&1031\end{tabular}\end{center}\end{table}次に,受け側の文節の品詞を細分類まで区別してまとめ,パターンの数を数えた.例えば,\begin{center}\begin{tabular}{ll}\underline{健が}&\underline{走った(動詞)こと(形式名詞)も(副助詞),(読点)}\\\underline{「ハトが}都市に&\underline{増えた(動詞)の(形式名詞)は(副助詞),(読点)}\end{tabular}\end{center}の二つはいずれも「ガ格が[動詞・形式名詞・副助詞・読点]という文節に係る」というパターンにまとめられる.この結果,四つの格助詞の受け側の文節は約3,600パターンに分類できた.この中から「述語的でない文節」だけを抽出し,約260パターンを得た.文の数にすると約1,000文である.本来はこれら全ての文を確認すべきであるが,ここでは各パターンについて最初の一文だけを詳細に分類した.これをまとめたのが表\ref{tbl:detail}である.すなわち,考慮したパターン258(もとは263)のうち約1/3がコーパスの誤りであり,正しくタグ付けされていれば「述語的な文節」に係ると分類されるはずのものであった.残りの200パターン弱のうち半分以上は,いわゆる体言止めや動詞の省略もしくは並立関係の一方に係っているものであった.例えば,「シンクタンクの多くが一%台,官公庁が一○%台であった.」のような場合である.文末の「であった」まで省略される場合もあるので,動詞の省略と並立は厳密には区別していない.この結果から,確認したものだけでも約60例は(少なくとも表層上は)格助詞句が「述語的でない文節」に係っていたことがわかる.なお,表\ref{tbl:all}の「述語的でない文節」に対して表\ref{tbl:detail}の「文数」がガ格で2パターン,ニ格で3パターン少ないのは,同じ文が二つ以上のパターンを含んでいたことによる.\begin{table}\caption{述語的でない文節の内訳}\label{tbl:detail}\begin{center}\begin{tabular}{c|r|r|r|r|r|r}&&\multicolumn{2}{c|}{コーパスの誤り}&\multicolumn{3}{c}{考慮すべきパターン}\\[2pt]\cline{3-7}\rule{0pt}{25pt}格助詞&文数&\shortstack{係り先\\[-2pt]間違い}&\shortstack{品詞\\[-2pt]間違い}&\shortstack{動詞の\\[-2pt]省略}&並立&その他\\[2pt]\hline&&&&&&\\[-7pt]が&96&14&13&55&3&11\\[2pt]を&39&8&6&17&5&3\\[2pt]に&58&7&11&11&10&19\\[2pt]と&65&1&38&2&0&24\\[2pt]\hline&&&&&&\\[-7pt]計&258&30&75&85&18&57\end{tabular}\end{center}\end{table}以下,各々の助詞に関する特徴的な係り方のパターンについて論じる.\paragraph{ガ格}ガ格名詞では,時間・期間を表わす名詞に係る傾向が見られる\footnote{以下では例文のうち特徴的な係り方が現れている部分だけを示す.最後の(\,)内は文番号である.}.\enumsentence{\label{ex:ga}\begin{tabular}[t]{rp{0.8\textwidth}}a.&\underline{野茂投手が}\underline{大阪府立成城工高時代に}野球部監督を務め,現在,府立淀川工高野球部顧問の宮崎彰夫さんは\dots.(S-ID:950110151-017)\\b.&\underline{政界再編が}いまだ\underline{途上の}せいか,\dots.(S-ID:950207056-001)\\c.&法の\underline{施行が}\underline{四年後とは,}\dots.(S-ID:950522042-015)\end{tabular}}このような係り受け関係を許す例には「Aガ〜時間・期間(中に)」などがあり,その主辞の名詞「時間・期間」は一定の意味クラスを形成すると考えられる.さらに,サ変動詞構文のLVと同じように,ニが前接する名詞から項構造を受け継ぐと考えると,図\ref{fig:interval}のような分析が可能となる.\begin{figure}\begin{center}\unitlength=0.08ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat&\<\,\>\,\\adjcnt&\<\,\>\]\end{avm}}}{\AnnoLn4{\llap{\boxit{3}\,}PP\rlap{\,\begin{avm}\[mod&\<\,\>\,\]\end{avm}}}{\xnode{xa}{\}}\tangle7{健が}}{\AnnoRn4{V$'$\rlap{\,\begin{avm}\[subcat&\@2\<\,\@3\,\>\,\\adjcnt&\<\,\>\]\end{avm}}}{\hspace*{5.3cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn5{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[arg-st&\@2\<\,\@3\,\>\,\]\end{avm}}}{\xnode{ya}{\}}\tangle9{学生時代}}{\AnnoRn5{\hspace*{13zw}V\,\begin{avm}\[subcat&\@2\\adjcnt&\<\@1\[arg-st\\@2\,\]\,\>\,\]\end{avm}}{\hspace*{3.7cm}\xnode{yb}{\}{\itcomplement-head}}\lf{に}}}}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\caption{時間・期間を表す名詞にガ格が係る場合}\label{fig:interval}\end{figure}また,係り先としてノが含まれる例も多かった.\enumsentence{\label{ex:no:cop}\begin{tabular}[t]{rp{0.8\textwidth}}a.&十二月の土曜日,ちょうど半月の夜に,大人が七人,\underline{子供が}\\underline{九人の}五家族が集まった.(S-ID:950107034-007)\\b.&\dots,国民,\underline{メディアを}\underline{相手の}カジ取りが注目される.(S-ID:950107047-011)\\c.&四輪部門の総合で,篠塚建次郎が\underline{首位と}2時間44分\underline{10秒差の}五位に浮上した.(S-ID:950109078-001)\end{tabular}}(\ref{ex:no:cop}b)はヲ格が,(\ref{ex:no:cop}c)はト格がノ格名詞句に係っているが,このように係り側の格の間には,共通に見られるような修飾関係がいくつか存在している.\paragraph{ヲ格}ガ格で見られた「ニ,ノ」の他に「スル,シテ」などが省略されたとみなせる例がヲ格には存在する.前接する名詞もやはり「主体,先頭,中心」などを表わす名詞として一定の意味クラスを形成すると考えられ,これらについても統語的には図\ref{fig:interval}に示した分析と同様に扱うことができる.\enumsentence{\label{ex:wo}\begin{tabular}[t]{rp{0.8\textwidth}}a.&\underline{二月十日ぐらいを}\underline{めどに}決着がつけられる\dots.(S-ID:950101008-026)\\b.&ピークの午後五時半ごろには大阪,京都府境の\underline{天王山トンネルを}\underline{先頭に}栗東インター付近まで約四十キロの車の列.(S-ID:950103137-002)\end{tabular}}その他に,「割合」を表わすパターンがある.\enumsentence{\label{ex:wo:ratio}\begin{tabular}[t]{rp{0.8\textwidth}}a.&他県から車で乗り付け,\underline{おにぎり六個を}\underline{千五百円で}売りさばいた家族連れもいた.(S-ID:950126047-017)\\b.&\underline{変動金利五・〇%を}\underline{四・〇%に,}固定金利五・九〇%を五・四〇%に優遇する.(S-ID:950110075-002)\end{tabular}}このような用法に関しては,次のニ格にも見られる.\paragraph{ニ格}ヲ格の例(\ref{ex:wo:ratio})のように,ニ格にも「割合」を表わすパターンが多い.\enumsentence{\label{ex:ni}\begin{tabular}[t]{rp{0.8\textwidth}}a.&日本農業の危機的現象を示すものとして,しばしば新規学卒の就農者が\underline{年に}\underline{二千人弱しか}いないことが指摘される.(S-ID:950419051-020)\\b.&\underline{年に}\underline{一度の}便りで修復しようというのだから,\dots.(S-ID:950104230-008)\end{tabular}}\enumsentence{\label{ex:ni:gap}\begin{tabular}[t]{rp{0.8\textwidth}}a.&\underline{南に}\underline{約三キロ}離れた袖ケ浦市代宿の県企業庁袖ケ浦工業用水浄水場内で車から降ろし,\dots.(S-ID:950101111-002)\\b.&\underline{一階に}\underline{六室,}二階に一室と広間があった.(S-ID:950105224-007)\end{tabular}}ただし,(\ref{ex:ni:gap})のような例は,「南に\dots離れた」のように述部の方に係ると考え,「南に三キロ,東に五キロ離れた」のように現れた場合は,「並立」として別の扱いをする.\paragraph{ト格}ト格で着目すべき頻出の例は,本来の係り先の文節が省略されているために,さらに先の文節に係るような変更が生じているものである.\enumsentence{\label{ex:to}\begin{tabular}[t]{rp{0.8\textwidth}}a.&「エンディング・テーマ曲,\underline{英語詞と}{}\underline{初めての}経験だったが,言葉や文化は違っても,音楽にそれほど変わりはありません.(S-ID:950105207-015)\\b.&公定歩合は\underline{一・七五%と}歴史的な\underline{低水準に}あり,これ以上下げると,いつの日にかインフレの火種になる恐れはある.(S-ID:950325045-026)\end{tabular}}(\ref{ex:to}a)は,本来「英語詞トいった初めての経験だった」であり,その解釈においては「英語詞ト」は「いった」に係る.この「いった」が省略されたことにより,(コーパスでは誤って「初めての」に係るとされているが)「いった」の係り先である「経験だった」に係ると考えられる.(\ref{ex:to}b)も,本来「一・七五%トいった低水準に」のような表現であり,「一・七五%ト」は「いった」が省略されたことにより,「いった」の係り先である「低水準に」に係るとされている.ただし,(\ref{ex:to}b)は意味的には「一・七五%ト(いった)」は「低水準にある」という句に係ると考えた方が自然であり,「一・七五%ト」の係り先を「あり」という述語的な文節としている.以上,ガ・ヲ・ニ・トの四つの格助詞が「述語的でない文節」を修飾する場合に関して,コーパスの調査結果を説明した.多くの用例は,(場合によってはニやノを述語を形成する繋辞とみることによって)実際には述語的な文節を修飾しているとみなせる.すなわち,(\ref{ex:csadn}c)のように{\scmod}素性が{\itnoun\/}であるような助詞を仮定する必要は今のところないといえる.また,図\ref{fig:interval}中の,繋辞のように機能する語彙項目の{\scadjcnt}素性は前接するNPを選択するので,ニやノを繋辞とそうでないものに分けても曖昧性が生じることはない.すなわち,(\ref{ex:csadn}c)の解析を排除し図\ref{fig:interval}の分析をとれば,曖昧性の数を減少させることができる.一方,(\ref{ex:csadn}a,b)のような項か付加語かの曖昧性は依然として残るが,これについては項の組み合わせに対する優先度を統計的に求め\cite{Miyata&etal1997,Utsuro&etal1997},統計的係り受け情報にもとづいた優先度に従って漸進的に解析を進めるアルゴリズム\cite{Miyata&etal2000}を用いることで解決できると考えている.\setcounter{section}{4} \section{おわりに} label{sec:cncl}本論文で論じてきたことは,次の二点に集約される.\begin{itemize}\item[1.]文法理論における知見の実装に向けての精緻化.\item[2.]文法理論の射程外である出現頻度などの調査.\end{itemize}特に文法理論の精緻化においては,実装上の都合だけに応じたような素性の設計はせず,言語現象を的確に捉えることを常に優先してきた.図\ref{fig:overview}に本論文で取り上げた言語現象とそれを扱うための主要な原理・スキーマの関係を示しておく.\begin{figure}\begin{center}\unitlength=1pt{\begin{picture}(405,170)\put(380,80){\myfbox{head}{\shortstack{Head\\Feature}}(40,25)}\put(210,10){\myfbox{subcat}{\shortstack{Subcat\\Feature}}(40,25)}\put(140,160){\myfbox{adjcnt}{\shortstack{Adjacent\\Feature}}(45,25)}\put(210,110){\myobox{comphead}{\shortstack{Complement\\Head}}(60,25)}\put(310,160){\myobox{ajcthead}{\shortstack{Adjunct\\Head}}(45,25)}\put(40,80){\myobox{zerocomp}{\shortstack{0-Complement\\Head}}(70,25)}\put(90,120){\myobox{pseudlex}{\shortstack{Pseudo\\Lexical\\Rule}}(45,37)}\put(40,160){\mybbox{complx}{\shortstack{複合動詞\\(\ref{sec:jpsg:atree}節)}}}\put(210,160){\mybbox{adnoun}{\shortstack{連体修飾\\(\ref{sec:adn:amb}節)}}}\put(380,160){\mybbox{nocase}{\shortstack{ノ格の修飾\\(\ref{sec:adn:cmpadj}節)}}}\put(140,80){\mybbox{sahen}{\shortstack{サ変動詞\\(\ref{sec:jl:sahen}節)}}}\put(310,110){\mybbox{topic}{\shortstack{取り立て助詞\\(\ref{sec:jl:focus}節)}}}\put(210,60){\mybbox{scrmbl}{\shortstack{補語の\\語順転換\\(\ref{sec:jpsg:worder}節)}}}\put(110,10){\mybbox{cmpomt}{\shortstack{補語の省略\\(\ref{sec:jpsg:drop}節)}}}\put(310,50){\mybbox{mkrdrp}{\shortstack{助詞欠落\\(\ref{sec:jl:case}節)}}}\end{picture}}\end{center}\anodeconnect[b]{comphead}[tr]{cmpomt}\anodeconnect[l]{comphead}[tr]{sahen}\anodeconnect[b]{comphead}[t]{scrmbl}\anodeconnect[r]{comphead}[tl]{mkrdrp}\anodeconnect[r]{comphead}[l]{topic}\anodeconnect[t]{comphead}[b]{adnoun}\anodeconnect[b]{zerocomp}[tl]{cmpomt}\anodeconnect[r]{zerocomp}[l]{sahen}\anodeconnect[t]{zerocomp}[b]{complx}\anodeconnect[b]{pseudlex}[tl]{sahen}\anodeconnect[t]{pseudlex}[br]{complx}\anodeconnect[l]{ajcthead}[r]{adnoun}\anodeconnect[r]{ajcthead}[l]{nocase}\anodeconnect[tl]{subcat}[br]{sahen}\anodeconnect[t]{subcat}[b]{scrmbl}\anodeconnect[tr]{subcat}[bl]{topic}\anodeconnect[r]{subcat}[bl]{mkrdrp}\anodeconnect[bl]{head}[r]{mkrdrp}\anodeconnect[tl]{head}[r]{topic}\anodeconnect[l]{adjcnt}[r]{complx}\anodeconnect[br]{adjcnt}[tl]{topic}\anodeconnect[b]{adjcnt}[t]{sahen}{\makedash{2pt}\anodeconnect[r]{adjcnt}[l]{adnoun}}\caption{NAISTJPSGの原理・制約と本論文で扱った言語現象}\label{fig:overview}\end{figure}もちろん,図\ref{fig:overview}に示すような枠組みだけで言語の諸相が捉えられるわけではない.本論文ではコーパスの調査を行なうことで,理論指向の研究ではあまり顧みられることのなかった現象に関しても整合的な説明を試みた.今後の課題としては,十分に論じることができなかった次の二点があげられる.\begin{itemize}\item[1.]文法の適用範囲の拡大.\item[2.]構文解析の効率化・高速化.\end{itemize}文法の適用範囲を広げるということは,単にコーパスに対する被覆率をあげるためだけにアドホックな文法を構築するということではない.特に,\ref{sec:adn}節で挙げた分析は,どのような名詞のクラスを仮定し,それらにどのような項を付与するか,およびどのような繋辞を仮定するかを体系的に決めないと,文法をいたずらに複雑化することになる.この点に関しては,従来単なるラベルとして捉えられていた名詞に対して様々な情報を付与する生成語彙\cite{Pustejovsky1995}の枠組などが参考になると思われる.また,効率化・高速化に関しては,計算機上での実装の都合というものもある程度考えなくてはならないが,処理系の実装という点では既に成果をあげているLiLFeS\cite{Makino&etal1998}などを参考にしたい.以上,文法理論と自然言語処理を結びつける一つの方法を示すことによって,本論文は新たな問題を示すことになったが,少なくとも,今後の課題が具体的になったという点においてはこのような試みも十分意義のあるものと考えておきたい.\smallskip\noindent{\bf謝辞}本研究を進めるにあたって郡司隆男,橋田浩一,白井英俊,松井理直,橋本喜代太の諸氏,および匿名の査読者から様々なコメントを頂いた.ここに記して感謝の意を表したい.なお,本論文に述べられている見解などについては全て筆者らが責任を負う.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{大谷朗}{1991年愛知教育大学教育学部総合科学課程卒業.1993年大阪大学大学院言語文化研究科言語文化学専攻博士前期課程修了.1996年同大学大学院言語文化研究科言語文化学専攻博士後期課程単位取得退学.大阪大学言語文化部,同大学大学院言語文化研究科助手を経て,1999年より奈良先端科学技術大学院大学情報科学研究科情報処理学専攻博士後期課程,2000年より大阪学院大学情報学部講師,現在に至る.言語文化学博士(大阪大学).言語処理学会,情報処理学会,日本認知科学会,日本言語学会,日本英語学会各会員.}\bioauthor{宮田高志}{1991年東京大学理学部情報科学科卒業.1993年同大学大学院理学系研究科情報科学専攻修士課程修了.1996年同大学院理学系研究科情報科学専攻博士課程単位取得退学.同年,奈良先端科学技術大学院大学情報科学研究科助手,現在に至る.理学博士(東京大学).言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,ACL,ACM各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科情報工学専攻修士課程修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学情報科学研究科教授,現在に至る.工学博士(京都大学).言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\newpage\verb++\thispagestyle{plain}\end{biography}\end{document}
V28N03-08
\section{はじめに} アイヌとは北海道・樺太・千島列島に住む民族であり,独自の文化と言語を持っているが,これらは19世紀後半から行われた同化政策の影響で急速に失われていった.これに対して,20世紀後半からアイヌ文化保護活動が活発に行われており,その過程で多くの口頭伝承の音声が収録されてきた.このような録音資料はアイヌ文化を理解するうえで重要な役割を果たすものであるが,アイヌ語に関する専門知識を持った人材の不足からその大半は未だ書き起こされておらず,十分に活用されていないというのが現状である.そこで,アイヌ語に対する音声認識システムを構築することが強く求められているが,これまで本格的な研究は行われていない.近年,音声認識技術は大規模コーパスと深層学習の導入によって劇的な進歩を遂げ,実用的な水準に達している\cite{conformer,sota_dnn_hmm}.その代表的なもので,現在最も用いられているDNN-HMMハイブリッドモデル\cite{dnn_hmm}は,音響モデル,言語モデル,発音辞書からなる階層構造を持っている.一方で,音響特徴量列から直接ラベル列へと変換するEnd-to-Endモデル\cite{attn}がその単純な構造と応用の容易さから活発に研究されており,ハイブリッドモデルと同等以上の性能を達成しつつある.しかしながら,これらの深層学習を適用するためにはかなり大規模な学習データが必要となるため,低資源言語において実現することは難しい.本研究で構成するアイヌ語音声コーパスは40時間の音声データからなるが,これは『日本語話し言葉コーパス(CSJ)』\cite{csj}や英語のLibriSpeechコーパス\cite{libri}などと比較して10分の1以下であり,アイヌ語もまた低資源言語に分類される.低資源言語の音声認識のために,表現学習\cite{feature_learning1,cross_language_feature_learning2}やマルチリンガル学習\cite{multi_3_1,multi_3_2,multi_3_3}が検討されている.表現学習では,主要言語の大規模コーパスで学習された多層パーセプトロンを特徴抽出器として使用する.マルチリンガル学習では,認識対象でない言語のデータで学習データの量を補完して音声認識モデルを学習させる.これらの手法はアイヌ語音声認識においても有用であることが予想されるが,アイヌ語音声コーパスは話者数の少なさと話者毎のデータ量の偏りという特徴を持っており,上記の手法を単純に適用できない.また,アイヌに関する一次資料は日本語とアイヌ語が混合した音声であるが,高い音声認識性能を得るためにはアイヌ語の発話区間をあらかじめ抽出しておく必要がある.音声データにおける言語識別の従来手法として,フォルマントに基づくもの\cite{lid_proto1},音素認識モデルと言語モデルを組み合わせたもの\cite{lid_hmm1},音響特徴量列から直接言語ラベルを出力するもの\cite{cai2019}などが存在するが,日本語アイヌ語混合音声には一人の話者が複数の言語を流暢に話すという点で上記の研究対象より難度が高い.本稿の構成を以下に記す.まず,我々は白老町アイヌ民族博物館と平取町アイヌ文化博物館から提供されたアイヌ語アーカイブのデータを元にアイヌ語音声コーパスを構成する.次に,本コーパスを用いたアイヌ語音声認識において,音素・音節・ワードピース・単語の4つの認識単位を比較する.実験は,学習セットと評価セットで話者が同一である話者クローズド条件と,話者が異なる話者オープン条件で行う.話者オープン条件での認識性能の低下を緩和するために,CycleGANを用いた声質変換技術による教師なし話者適応を提案する.最後に,日本語とアイヌ語が混合した音声における言語識別について検討を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アイヌ語と従来研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アイヌ語について}アイヌとは,主に北海道・樺太.千島列島に住み,狩猟採集を生業としてきた日本の民族の一つであり,19世紀中ごろには約2万人存在していたとされる\cite{hardacre1997new}.しかし,19世紀後半における明治政府の同化政策を経てその母語話者の数は急速に減少し,2009年には国際連合教育科学文化機関(ユネスコ)によって北海道アイヌ語は「極めて深刻」な状況にあると分類されるに至っている\cite{unesco}.このような状況に対して,20世紀後半以降アイヌの民話や歌謡が積極的に収集されている.例えば,国立アイヌ民族博物館(旧:アイヌ民族博物館)は約700時間のアイヌに関する録音音声を保持している.このような音声データはアイヌ文化の理解をより一層深めるための手がかりとなり得るが,その大部分は書き起こされておらず,十分に研究されていないのが現状である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{アイヌ語の概説}\label{sec-ainu_lang}アイヌ語は膠着的,複統合的,抱合的な特徴を示し\cite{bugaeva_jp},日本語とはいくつかの類似点や語彙の借用はあるものの,系統不明の孤立言語である.アイヌ語は大まかに北海道アイヌ語,千島アイヌ語,樺太アイヌ語の三つに分類され\cite{lang_dict},それぞれがさらに細かい方言の分類を内包する.本節では,北海道アイヌ語に属する沙流方言について解説を行う.音声認識の観点からアイヌ語に関して重要な特徴を述べる.アイヌ語の音節には開音節(CVなど)と閉音節(CVCなど)の双方があるが,いずれにおいても音節頭と音節末に許容される子音の数は最大で1であり,英単語の\textit{strike}における\textit{`str'}のような子音群は存在しない\cite{ainu_world_jp}.例えば,\textit{apkas}(「歩く」)は\textit{`ap'}と\textit{`kas'}の2つの閉音節から構成される.また,アイヌ語には複合語が多く存在する.例えば,\textit{atuykorkamuy}(「ウミガメ」)という単語は\textit{atuy}(「海」),\textit{kor}(「所有する」),\textit{kamuy}(「神」)という3つの要素(形態素)に分解でき,なおかつ各々に対応する単語が存在する\cite{ainu_dict_jp}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{アイヌ口頭伝承の分類}\label{sec-class}アイヌ口頭伝承は大きく次の3つに分類される.ユカ\UI{31FB}とカムイユカ\UI{31FB}は節をつけて歌われるのに対し,ウウェペケ\UI{31FE}は単調に語られる.アイヌ語音声資料の大部分はこのウウェペケ\UI{31FE}が占めるとされている.{\setlength{\leftskip}{2zw}\noindentユカ\UI{31FB}(英雄叙事詩):節をつけて語られる英雄の物語\\カムイユカ\UI{31FB}(神謡):ユカ\UI{31FB}を神の視点から歌ったもの\\ウウェペケ\UI{31FE}(民話,散文説話):会話調で語られる物語\par}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{表記体系}\label{sec-writing}アイヌ語にはもともと固有の筆記体系が存在しないが,現在は『アコ\UI{31FF}イタ\UI{31F0}』\cite{akor_jp}に範示される表記法に基づいて記述されるのが一般的である.この表記法では,\{\textit{a,c,e,h,i,k,m,n,o,p,r,s,t,u,w,y}\}の16種類のローマ字が用いられる.これらのローマ字をここでは便宜上「音素」と呼ぶ.アイヌ語話者が日本語を発した場合,上記に加えて\{\textit{b,d,g,z}\}が使用されることがある.さらに,人称接続を表す\{=\}が用いられる他,発音の脱落を表す\{\_,\_\_\}などが表記されることもあるが,これらは明示的に発音されない.本稿では,アイヌ語の文から空白記号と\{=\}記号によって分割される単位を「単語」と定義する.以下にアイヌ語の文とその構文解析の例を一つ挙げる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\begin{center}\begin{tabular}{c|ccccc}原文&\multicolumn{5}{c}{\textit{mos=an\_\_hineinkar'=an}}\\日本語訳&\multicolumn{5}{c}{目が覚めて見ると}\\\hline\multirow{2}{*}{解析}&\textit{mos}&\textit{=an}&\textit{hine}&\textit{inkar}&\textit{=an}\\&起きる&4sg.&そして&見る&4sg.\\\end{tabular}\end{center}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{}ここで\textbf{4sg.}は不定人称単数を表すが,特に引用文中の自称として使用されており,単なる一人称(物語の語り手自身)とは区別される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アイヌ語における言語処理と音声認識}言語処理の分野において,アイヌ語を扱った研究はこれまでに数件存在している.瀬沼と相澤\cite{UD}は,『アイヌ神謡集』\cite{shinyo}に含まれるアイヌ語のテキストにおいて,単語間の関係を表現する依存関係木のアノテーションを行った.Nowakowski\cite{postag}らは,『アイヌ語会話字典』から抜粋された2500程度のアイヌ語のフレーズや文章にアノテーションを付与した学習データを作成し,サポートベクトルマシンによる品詞タグ付けツールを開発した.アイヌ語の音声認識は,低資源言語音声認識の研究の一環として,Anastasopoulosら\cite{ainutrans}によって試みられている.約2.5時間のアイヌ語の民話が使用されているが,アイヌ語の音声認識は主な目的ではなく,また音素誤り率は40\%程度と実用的なレベルには至っていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アイヌ語音声コーパス} \label{sec-baseline}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの概要}本研究で使用する音声コーパスは,白老町アイヌ民族博物館\footnote{\url{http://ainugo.ainu-museum.or.jp/}}(以下,「白老」と表記)と平取町アイヌ文化博物館\footnote{\url{http://www.town.biratori.hokkaido.jp/biratori/nibutani/}}(以下,「平取」と表記)から提供されたデータに含まれる民話(ウウェペケ\UI{31FE})から構成される.提供されたデータのうち英雄叙事詩(ユカ\UI{31FB})や神謡(カムイユカ\UI{31FB})は数が少なく,なおかつ\ref{sec-class}節で述べたように民話とは大きく異なる性質を持つため,本研究の対象にはせずコーパスにも含めないことにした.表\ref{porosir}に,提供されたデータに含まれる民話の一部とその日本語訳を具体例として例示する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}\caption{話者KMによる説話『ポロシルンカムイになった少年』より一部抜粋}\label{porosir}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提供された民話は合計114個で,約40時間の音声データとその書き起こしからなっており,書き起こしは\ref{sec-writing}節で述べた表記方法に従っている.単語を区切るスペースと\{=\}が入れられており,アーカイブ閲覧の利便性の点から5から15語程度の意味的なまとまりで改行されている.話者数が8名ときわめて少数であり,かつデータ量が話者ごとに大きく偏っているが,この特徴は収録当時の各話者の知識量や体調などに収集できるデータ量が依存したためである.また,白老の音声データは1980年代に収録されている一方,平取のデータは1969年に収録されている点で,話者ごとに収録時期に大きな時間的隔たりが存在し,録音環境も統一されていない.収録は自宅などでカセットデッキを用いて行われており,周囲の騒音が多いわけではないが,SN比は高くない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データの調整}音声認識の学習を容易にするために,提供されたデータを加工した.まず,テキストから\ref{sec-writing}節で述べた文字セットの内,\{\_,\_\_,'\}の補助記号を以下の例のように除去する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\begin{center}\begin{tabular}{c|l}原文&\textit{uymam'=anwaisam=an\_\_hiokaketa}\\調整後&\textit{uymam=anwaisam=anhiokaketa}\\\end{tabular}\end{center}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人称接続を表す記号\{`='\}も補助記号であるが,アイヌ語のテキストに幅広くみられ,なおかつ文法的に重要な情報を保持しているため,除去しないことにした.音声認識モデルを学習するにあたり,音声データは適切な長さに分割されている必要がある.提供された時点で音声データは意味のまとまりに従って分割されていたが,発声の途中に分割点があるなど音声認識に不向きな分割がなされていたため,無音区間で区切られた単位(IPU)で再分割を行った.以下,このIPUを便宜上「発話」と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの分析}\label{sec-analyse}表\ref{dataset}に,アイヌ語音声コーパスおける8名の話者ごとのデータ量,民話の数,発話(IPU)の数,単語数を示す.各話者には便宜上IDを与えている.このうち,話者KMとUTの元データは白老から,その他6名のデータは平取から提供されたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\vspace{-0.5\Cvs}\input{04table02.tex}\caption{話者ごとのデータ量}\label{dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提供された元データにおける話者ごとのデータ量の偏りはコーパスにも引き継がれており,例えば話者KMの発話量はコーパス全体の半分以上を占めている.さらに,話者KMは1発話当たりの平均単語数が15.8語であるのに対し話者NNは平均6.0語であるなど,話者ごとにデータの性質も大きく異なっている.一方で,各話者の発話時間は最低でも一時間半と,いずれの話者に関してもある程度多くの音声データが存在している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アイヌ語音声認識システム} \label{measureing_baseline}本節では,アイヌ語音声コーパスを用いた音声認識システムを構成するに際して,音素,音節,ワードピース,単語の4つの認識単位の比較と,マルチリンガル学習の検討を行う.音声認識モデルには注意機構モデルのエンコーダにCTC損失関数を付加したEnd-to-Endモデル\cite{attn_ctc}を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{認識単位の比較}\label{sec-units}End-to-End音声認識モデルは認識単位をある程度自由に設定することが可能である.単語単位で認識を行った場合,推論時に長期的な文脈を考慮することができるが,語彙サイズが大きくなるため学習が難しい.逆に,音素や文字単位の場合は語彙サイズが小さくなるが,ラベル長が長くなり長期的な文脈を掴むことが難しくなってしまう.以上のトレードオフの関係を考慮し,アイヌ語音声認識に最適な単位を検討する.認識単位の候補は,音素,音節,ワードピース,単語の4通りであり,表\ref{modeling_units}に各単位で表記した文の例を示す,また,各認識単位に関する説明を以下に述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{04table03.tex}\caption{各認識単位の例}\label{modeling_units}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{音素単位}\ref{sec-writing}節で述べた通り,ここではアイヌ語を表記するときに使用されるローマ字を便宜上音素とする.また,人称接続を表す記号`='と単語境界を表す特殊記号`$\langle$wb$\rangle$'を出力候補に加え,認識結果を単語単位へと復元できるようにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{音節単位}アイヌ語における音節は,\textsf{V},\textsf{CV},\textsf{VC},そして\textsf{CVC}の4通りを取りうる.ここで,`\textsf{C}'と`\textsf{V}'はそれぞれ子音と母音を表す.\ref{sec-writing}節に示される文字セットの内,音素\{a,e,i,o,u\}が母音であり,その他が子音に分類される.以下に,単語から音節へと分割するための手続きを示す.\textbf{音節}の項と同様に,人称接続を表す`='と単語境界を表す`$\langle$wb$\rangle$'を含める.\begin{enumerate}\item{1文字の単語はそのまま音節とする.}\item{連続する\textsf{C}と\textsf{V}が存在する場合,そこに音節境界を挿入する.\vspace{10pt}\\\centerline{\selectfont\sf{R$^*$\{CC,VV\}R$^*$$\rightarrow$~R$^*$\{C-C,V-V\}R$^*$}}\\\centerline{\textsf{R}$\coloneqq$\{\textsf{C},\textsf{V}\}}}\item{3つ以上の音素からなる部分列について,語頭の\textsf{V}の直後に音節境界を挿入する.\\\centerline{\selectfont\sf{VCR$^+$}$\rightarrow$~\sf{V-CR$^+$}}}\item{\textsf{CV}か\textsf{CVC}が残るまで,左から右へ\textsf{CV}の直後に音節境界を挿入する.\vspace{10pt}\\\centerline{\selectfont\sf{(CV)$^*$\{CV,CVC\}}~$\rightarrow$~\sf{(CV-)$^*$\{CV,CVC\}}}}\vspace{10pt}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ワードピース単位}単語を部分列へと分割する別の方法として,BytePairEncoding(BPE)\cite{bpe}と1-gram言語モデル\cite{kudo}がある.前者は,頻出の記号ペアを新しい一つの記号に繰り返し置き換えていくことで語彙サイズを調整する.後者はテキストの生成確率が最大になる分割方法を探索する.本稿では後者の1-gram言語モデルによるワードピースへの分割を採用し,オープンソースのソフトウェアであるSentencePieceトークナイザ\footnote{\url{https://github.com/google/sentencepiece}}を利用する.表\ref{modeling_units}におけるワードピース単位の分割例では単語境界`$\langle$wb$\rangle$'が後続の部分列に接続している場合もあるが,これは本ソフトフェアの仕様である.ワードピースの構成方法は音節の構成方法とは独立であり,ワードピースが音節の連結であるとは限らない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{単語単位}コーパスの書き起こしは既に`='記号と空白記号で単語単位に分割されている.本研究では,`='記号も1つのラベルとして扱うため,例えば表\ref{modeling_units}に見られるように,`\textit{a=saha}'というフレーズは\{`\textit{a}',`\textit{=}',`\textit{saha}'\}の3つのラベルとして扱われる.また,語彙サイズを減らすために,低頻出語は未知語を表す特殊記号`$\langle$unk$\rangle$'で置換する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチリンガル学習}\label{sec-multilingual}マルチリンガル学習は,目的言語以外の言語の音声コーパスを転用し,学習データ量を補完して音声認識モデルを学習させる手法である.%%%%英語などの主要言語の大規模コーパスを用いる場合\cite{use_hr_tamil2}だけでなく,英語などの主要言語の大規模コーパスを用いる場合(\c{C}etinet~al.2008)だけでなく,\nocite{use_hr_tamil2}低資源言語コーパスのみであってもマルチリンガル学習によってデータを増強することは有効であり,これはDNN-HMMハイブリッドモデル\cite{multi_3_1,multi_3_2,multi_3_3}とEnd-to-Endモデル\cite{multi_3_4,multi_3_5}の両方で示されている.例えば,Toshniwalら\cite{multi_3_4}はベンガル語などの10の低資源言語を単一の注意機構モデルで学習したところ,別個に学習した場合と比較して相対約20\%の単語誤り率の改善を達成している.本稿でもマルチリンガル学習について検討を行うことにし,アイヌ語以外の言語として日本語を採用する.これは,日本語とアイヌ語では,音素セットが同じであることや,子音群(例えば英語の`strike'における`str')が存在しないことなど共通点が多くみられるためである.このため,日本語はアイヌ語とのマルチリンガル学習に適していると考えられる.比較のために英語コーパスを用いたマルチリンガル学習についても実験を行う.マルチリンガル学習における音声認識モデルは図\ref{fig-multi}のように構成する.エンコーダと注意機構は言語間で共有されるが,デコーダは言語ごとに別途用意する.例えば,アイヌ語音声コーパス由来の学習データが入力された場合は図の左側の部分を用いて認識と学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-3ia5f1.pdf}\end{center}\caption{マルチリンガル学習における音声認識モデルの概略図.C.E.は交差エントロピ損失関数を表す.}\label{fig-multi}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験条件}\label{sec-baseline_settings}実験は,話者クローズド条件と話者オープン条件の2通りについて行う.話者クローズド条件では,学習セットと評価セットに含まれる話者が同じである.具体的には,各話者から民話を二つずつ選び,開発セットと評価セットとし,それ以外のデータを学習セットとする.これによって,開発セットは2時間23分の1585発話となり.評価セットは2時間48分の1841発話となった.話者オープン条件では,評価用話者のデータを除く全てのデータを学習セットとして使用する.ハイパーパラメータなどの調整は話者クローズド条件における開発セットを用いるため,話者オープン条件において開発セットは存在しない.また,話者KMやUTのデータを除くと学習データが大幅に小さくなってしまうため,この2話者については話者オープン条件の実験を行わない.実験条件によって各認識単位のクラスサイズは多少異なるが,音素単位は25クラス前後,音節単位は約500クラスとなった.単語単位認識の際,開発セットを用いた予備実験に従い出現回数が2回未満のものを未知語ラベル`$\langle$unk$\rangle$'で置き換えた.この時,全データにおける語彙サイズは4710であったが,学習セットに限ると話者クローズ条件下で語彙サイズは3911となった.評価セットに出現する語彙のうちこれでカバーされない異なり語の数は654で,未知語率(未知語の出現割合)は4.3\%であった.話者オープン条件の場合,未知語率は話者によって異なり,話者KM,UT,KT,HS,NN,KS,HY,KKの順にそれぞれ6.7\%,3,3\%,4.9\%,5.9\%,5.7\%,5.9\%,5.1\%,3.5\%であった.ワードピース単位認識における語彙サイズは事前実験によって500に決定した.このとき,語彙には音素が全て含まれたため,評価セットにおいて未知語となる単語は発生しなかった.実験条件の詳細を以下に述べる.入力音響特徴量は,連続する3つのフレームの40次元対数メルフィルタバンク特徴量をスタッキング\cite{framestacking}して120次元としたものである.ここで,各フレームの窓幅は25ミリ秒であり,シフト幅は10ミリ秒である.音声認識モデルのエンコーダは5層の双方向LSTM\cite{birnn}(BiLSTM)からなっており,注意機構付きデコーダは1層の単方向LSTMである.各層は320個のノードをもつ.音声認識の注意機構モデルの学習は,単調性が保証されるCTCとマルチタスク学習を行うことにより安定することが知られている\cite{attn_ctc}ため,モデルの損失関数は,下式(\ref{eqn_interpolates})のように,注意機構モデルのデコーダにおける交差エントロピ関数($\mathcal{L}_{\rm{AED}}$)とCTC損失関数($\mathcal{L}_{\rm{CTC}}$)の重み付き線形和とした.\begin{equation}\mathcal{L}_{\mathrm{all}}=\lambda\mathcal{L}_{\mathrm{AED}}+(1-\lambda)\mathcal{L}_{\mathrm{CTC}}\label{eqn_interpolates}\end{equation}開発セットを用いて重み$\lambda$を$0.0$~$1.0$の間でチューニングしたところ,$0.3$~$0.8$の間で大きな性能の違いは見られなかったため,本節では双方が同じ重みとなる$0.5$とした.全ての実験において,CTC損失関数の計算には音素ラベルを使用した.マルチリンガル学習において,日本語にはJNASコーパス\cite{jnas}(話者320名,約80時間)を,英語にはWSJコーパス\cite{wsj}(280名,約70時間)を使用した.これらの正解ラベルにはいずれも音素単位を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec-baseline_result}表\ref{baseline}に,話者クローズド条件と話者オープン条件における単語誤り率(WER)と音素誤り率(PER)を示す.話者クローズド条件においてWERが21\%,PERが6\%程度,話者オープン条件においてはWERが39\%,PERが14\%程度が達成できている.両条件において,最も認識精度が高かったのは音節単位で認識を行った場合であり,音節が音響的なマッチングを保ちながらアイヌ語としての言語的な制約をある程度モデル化できていることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{04table04.tex}\hangcaption{各認識単位における,話者クローズド条件と話者オープン条件における単語誤り率(WER;\%)と音素誤り率(PER;\%)の一覧.}\label{baseline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%単語単位認識におけるPERは他の認識単位よりも高くなっているが,これは下記のように単語単位モデルの出力にしばしば`$\langle$unk$\rangle$'が現れるためである.この例での単語単位モデルのPERは30\%になる.一方で,音節単位モデルは未知語に対して誤りを含みつつも類似のラベル列を出力でき,PERを5\%に留めている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\begin{center}\begin{tabular}{c|l}正解&\textit{iokakeunaunuhuaonaha}\\音素単位モデル&\textit{piokakeunaunuhuaonaha}\\単語単位モデル&$\langle$unk$\rangle$\textit{unaunuhuaonaha}\\\end{tabular}\end{center}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%WERは音素誤り率よりも大幅に高くなっている.これは,\ref{sec-ainu_lang}節でも述べたようにアイヌ語には複合語が多く含まれるため,一つの単語が長くなることと,単語境界の位置をしばしば誤ることの二つに起因する.例えば下記の例では,PERは0\%であるが,WERは57\%である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\begin{center}\begin{tabular}{c|l}正解&\textit{nenpokaapkasanmakankusu}\\認識結果&\textit{nenpokaapkasanmakankusu}\\\end{tabular}\end{center}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%音節単位認識におけるマルチリンガル学習の実験結果を表\ref{table-multi}に示す.これから,マルチリンガル学習は話者オープン条件で効果的であることがわかる.日本語コーパス(JNAS)を加えた場合の改善幅の方が英語の場合よりも大きく,これは\ref{sec-multilingual}節で述べた日本語とアイヌ語の類似性によるものと考えられるが,最も改善幅が大きかったのは両言語を使用した場合であり,この時WERは相対的に約10\%改善した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{04table05.tex}\caption{マルチリンガル学習を行ったときのPER(\%)とWER(\%)}\label{table-multi}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{CycleGANを利用した教師なし話者適応} \label{sec-cgan}\ref{sec-analyse}節で述べた通り,アイヌ語音声コーパスにはわずか8名の話者しか含まれておらず,しかも話者ごとのデータ量の分布の偏りが大きい.この結果,\ref{sec-baseline_result}節に示した通り,話者オープン条件における認識性能の大幅な低下が生じた.この問題を「話者スパース問題」と呼ぶことにし,本節ではこの問題について取り組む.多くの話者のデータを収集することが困難なのは,低資源言語音声認識において一般に当てはまる.例えば,Grikoコーパス\cite{griko}は話者9名,Mboshiコーパス\cite{mboshi}は3名,Basaaコーパス\cite{basaa}は明記されていないものの数名とされている.このため,話者スパース問題はアイヌ語を含む低資源言語の音声認識において重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連研究と提案手法}話者スパース問題を緩和する手法はこれまでにいくつか提案されている.その一つが,評価データの音声認識結果を疑似的に正解ラベルとみなし,学習済みの音声認識モデルのファインチューニングを行う自己適応学習である.落合らは,音声強調と音声認識を同時に行うモデルにおいて,ファインチューニングを行う際にどの部分のパラメータを固定するべきかについて検討している\cite{ochiai}.Mengらは,カルバック・ライブラー距離による正則化と話者敵対学習を提案し,ファインチューニング時の過学習を緩和しようと試みている\cite{meng}.しかしながら,音声認識結果には誤りが多く含まれており,ファインチューニングの際にその影響を受けるため大幅な認識性能の改善には至っていない.自己適応学習の他には,i-vectorを音響特徴量に付加する手法がある\cite{audhkhasi}.各話者の特徴を表現するi-vectorは話者適応に有用であるが,その計算には不特定話者の平均的な音声を表現するUniversalBackgroundModel(UBM)が必要であり,話者数の少ないコーパスでは実現が難しい.\ref{sec-multilingual}節で述べたマルチリンガル学習も低資源言語の音声認識で広く用いられているが,認識対象の言語でないデータを使用して音声認識モデルを学習させるためミスマッチがある.本節では,他の言語コーパスにも誤りを含む学習データにも依らない教師なし話者適応の手法を提案する.提案手法の手続きは以下の通りである.まず,学習データに含まれる音声と評価データに含まれる音声の間の写像を声質変換モデルで学習する.次に,この声質変換モデルを用いて学習データに含まれる音声を全て認識対象話者風の音声に変換する.最後に,元の音声と変換された音声の両方を使用して音声認識モデルを学習する.以上の手続きによって,認識対象話者にマッチした音声データを正しいラベルとともに音声認識モデルに与えることができる.本提案手法は,声質変換モデルの性能が十分に高くなければ実現できないが,近年CycleGAN\cite{radford,zhu}に基づく高品質かつ学習時にパラレルデータを必要としない声質変換モデルが提案されており\cite{cgan_vc,cgan_vc2},本研究ではこれを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{04table06.tex}\caption{アイヌ語音声コーパスにおける4通りの実験条件}\label{four_settings}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験条件}本節の実験では話者KSかNNのいずれかを認識対象の未知話者と仮定し,その他の7名を既知の話者とする.これに加えて,話者KMの1名のみが既知であると仮定する極端な例についても実験を行う.以上に挙げた4通りの実験条件の詳細な情報を表\ref{four_settings}に示す.ただし,ALL/XXは話者XXを除く7名全員を表し,便宜上各実験条件のIDとしてKM-KS,KM-NN,ALL-KS,ALL-NNを付与する.提案手法には認識したい話者の音声がどの程度必要かを調査するため,CycleGANは学習セットに含まれる音声の全てと認識対象話者の音声の一部(1,5,10,20,30分.ただし,音声認識の評価セットは含めない.)を用いて学習する.CycleGANへ入力する音響特徴量は,窓幅25ミリ秒,シフト幅10ミリ秒で抽出した40次元の対数メルフィルタバンク(LMFB)である.CycleGAN-VC2の元論文\cite{cgan_vc2}で使用されるMel-cepstral係数(MCEPs)特徴量とは異なっていることに注意されたい.音声認識モデルには\ref{sec-baseline}章と同じものを採用し,実験条件は\ref{sec-baseline_settings}節で述べたものと同じである.アイヌ語における認識単位は\ref{sec-baseline_result}節の結果に基づき音節単位とする.式(\ref{eqn_interpolates})における$\lambda$は本実験条件であらためて開発セットを用いてチューニングを行い,0.8とした.比較のために,自己適応学習とマルチリンガル学習についても実験を行う.自己適応学習による話者適応において,使用する評価話者の音声の量を1,5,10,20,30分の場合について音声認識モデルのファインチューニングを行う.マルチリンガル学習に関するモデルと実験条件は\ref{sec-baseline}章で述べたものと同じであり,JNASとWSJの両方を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{04table07.tex}\hangcaption{話者適応の効果(PER\%).ただし,自己適応学習と提案手法における数値は学習時に使用する認識対象話者の音声量を1,5,10,20,30分と変化させたときの最良の値である.}\label{cgan_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{cgan_result}に各手法のPERを示す.表のうち,自己適応学習と提案手法における数値は学習時に使用する認識対象話者の音声量を1,5,10,20,30分と変化させた時の最良の値である.全実験条件において提案手法が自己適応学習とマルチリンガル学習よりもPERが改善している.実験条件KM-KSとKM-NNでは,認識対象話者の音声を30分使用した時に,PERがそれぞれ45.4\%から17.8\%(60.6\%の相対改善率),そして42.6\%から18.3\%(57.0\%の相対改善率)へと改善している.実験条件ALL-KSとALL-NNにおけるベースラインのPERは,実験条件KM-KSとKM-NNのものよりも大幅に改善しており,これから学習データに含まれる話者数の重要性が再確認できる.実験条件ALL-KSとALL-NNでは既にベースラインモデルの認識性能が高いものの,提案法によって性能はさらに改善している.具体的には,認識対象話者の音声を20分使用した時に,実験条件ALL-KSでは33.7\%の相対改善率,実験条件ALL-NNでは35.9\%の相対改善率を達成している.本実験において,評価データをCycleGANの学習に使用していないため,認識対象話者の異なる音声についても同様の改善が得られることが期待される.なお,ALL-KS及びALL-NNにおいてデータを30分まで増やすと提案手法と自己適応学習においてPERが上昇する傾向がみられるが,これはオーバーフィッティングによるものと考えられる.図\ref{fig-cgan_prop}に,提案手法と自己適応学習の二つの手法について,モデルの学習時に使用する認識対象話者の音声量を変化させたときのPERの推移を示す.全実験条件において,認識対象話者の音声が1分であっても一定の認識性能の向上を得られることがわかる.これは,提案手法が認識対象話者のデータ量に対して効率的に機能することを示している.自己適応学習は本アイヌ語音声コーパスにおいてあまり認識性能の向上に寄与しなかったが,最初の音声認識結果に含まれる誤りが多すぎるためであると考えられ,アイヌ語以外の低資源言語においても同様の問題が生じることが予想される.また,認識対象話者の音声が5分あれば,マルチリンガル学習による改善幅を提案法が上回る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-3ia5f2.pdf}\end{center}\hangcaption{認識対象話者の発話の使用量を1,5,10,20,30分と変化させたときのPER(\%)の変化.ただし,マルチリンガル学習は認識対象話者の音声を使用しないため一定値となる.}\label{fig-cgan_prop}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以下に,実験KM-KSにおける認識結果の実際の改善例を挙げる.提案手法を適用した場合,ある程度誤りは残っているものの,ベースラインの結果と比較して大幅に削除誤りが減少していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\begin{center}\begin{tabular}{c|l}正解&\it{aunuhuanaonahaanhineokaanhikeiskaremkoun}\\ベースライン&\it{aonahaneokkaymikiiskaremko}\\提案手法&\it{aponomoanaonahaanhineokaanhekiiskaremkoun}\\\end{tabular}\end{center}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{日本語アイヌ語混合音声における言語識別} アイヌ語アーカイブの元データである一次音声資料は日本語の発話とアイヌ語の発話が混合したもの(以下,「言語混合データ」)である.図\ref{fig-eg_mix_episode}に一つの収録音声の中で言語が切り替わる例を示す.この音源には一人のアイヌ語話者(語り手)と日本語話者(聞き手)の発話が含まれており,語り手の民話を中心に雑談や質疑応答が行われている.ここで,語り手はアイヌ語と同様に日本語も流暢に話す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-3ia5f3.pdf}\end{center}\caption{日本語とアイヌ語が混合した収録音声の例.薄色の箇所がアイヌ語の発話であることを表す.}\label{fig-eg_mix_episode}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%今回二つの博物館から提供されたデータは既にアイヌ語部分のみが抽出されていたが,未調査の大規模なアイヌ録音資料を処理・分類するにあたって,この抽出作業も自動化できることが望ましい.ここで,言語混合データを多人数かつ大量に整備することは困難であるため,学習には単言語コーパスのみを使用する.また,図\ref{fig-eg_mix_episode}に例示したように,アイヌ語と日本語の発話は各々連続する傾向にあり,大局的な構造が把握できれば十分であるため.本研究では発話ごとに言語識別を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連研究と提案手法}\label{sec-lid_methods}音声データの言語識別はもともと\cite{manual_phones}に示される音素列の重要性に基づいて,音素認識モデルに言語モデルを組み合わせる手法が模索されてきた\cite{lid_hmm1,lid_hmm2}.しかし,DNNの登場以降,i-vector\cite{lid_dnn2}や対数メルフィルタバンク特徴量を自己注意プーリング\cite{self-attentive}によって固定長のベクトルに変換したものをDNNへの入力とする\cite{cai2019}など,音響特徴量から直接言語識別を行う手法が活発に研究されている.本稿で扱う言語混合データは一人の話者が複数の言語を流暢に話すという点で従来の言語識別タスクよりも難易度が高い.そこで,音素認識と単語認識を段階的に適用し,言語識別を行う.以下に,処理の手順を示す.まず,音響特徴量列を音素認識器にかけ,音素列に変換する(A2P).音素列に変換することで,単言語コーパスごとの音響的な差異を緩和する.次に,音素列から単語列を復元する(P2W).これにより,語彙的知識を利用できることが期待される.最後に,単語列の中の各言語における単語数によって多数決をとって,その発話の属する言語とする.A2Pモデルはアイヌ語音声コーパスのみで学習し,P2Wモデルは両単言語コーパスを用いて学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験条件}本稿では,単言語コーパスとして,アイヌ語音声コーパスから話者KMの発話を除いたもの(20時間)と『日本語話し言葉コーパス(CSJ)』の模擬講演(260時間)を使用する.参考のために言語混合データには白老から提供された話者KMの民話を含む日本語アイヌ語混合音声54セッション(30時間)を使用する.このうち5セッション(4時間)が評価セット,1セッション(0.7時間)を開発セットとし,残りを参考実験における学習セットとする.提案法におけるP2Wモデルは,4層のCNNと5層の双方向LSTMからなるネットワークをCTC損失関数を用いて学習したものである.P2Wモデルは注意機構を含むエンコーダ・デコーダモデルであり,エンコーダは4層のCNNと5層の双方向LSTMから,デコーダは1層の単方向LSTMからなる.日本語の単語列はMeCabを用いて得た.音素数は22,単語数は50756となった.比較手法として,\ref{sec-lid_methods}節で紹介したCaiらによる言語識別モデル(Caiモデル)についても実験を行う.CaiモデルはResNETと双方向LSTMによって音響特徴量を識別に適した潜在表現列に変換し,これを自己注意プーリングによって固定長の1つのベクトルに埋め込んだ表現を用いて言語を識別するものである.本実験では,モデルの次元数(ResNetの出力)は128,双方向LSTMの層数は3とした.先述の通り言語識別は発話単位で行うが,評価はフレーム単位でのMacro-F1値(アイヌ語と日本語それぞれに対するF値の単純平均)とした.フレーム単位の正解言語ラベルはGMM-HMMモデルを用いて,強制アライメントを行って得た.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{table-lid}に各手法における言語識別結果のフレーム単位でのMacro-F1値とアイヌ語に関する適合率(precision),再現率(recall),F値(\%)を示す.また,図\ref{fig-lid_result}は推定結果を可視化したものであり,薄色の箇所がアイヌ語,濃色の箇所が日本語を表す.単言語コーパスで学習したCaiモデルでは,図\ref{fig-lid_result}の下から2番目の結果のように,ほとんど全ての発話をアイヌ語と識別している.これは,モデルが音響条件や話者性の影響を大きく受けているためである.一方で,言語混合音声を学習データに含めると,最も下の図のように有意な識別結果が得られる.ただし,このモデル学習は特定話者(KM)で行われており,他の話者に適用することは困難であると考えられる.以上から,Caiモデルは同一話者の言語識別を行う能力は十分に保持しているものの,その性能はコーパスの音響特性や話者に大きく依存し,単言語コーパスのみでの学習は不可能であることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{04table08.tex}\caption{言語識別の結果.値はフレーム単位でのMacro-F1値とアイヌ語に関する適合率・再現率・F値(\%)}\label{table-lid}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-3ia5f4.pdf}\end{center}\hangcaption{言語識別結果を可視化したもの.薄色がアイヌ語を表し,評価セットに含まれる5セッションを結合して表示している.}\label{fig-lid_result}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法による言語識別結果は,学習時に言語混合音声を使用していないにもかかわらず高い性能を示しており,コーパス間の音響特性に頑健であることがわかる.表\ref{table-lid}を見ると,アイヌ語に関する適合率は高いが再現率が低く,図\ref{fig-lid_result}のようにアイヌ語と識別される箇所が疎らになっている.図\ref{fig-eg_mix_episode}に例示したように,本言語混合音声においてアイヌ語の発話は連続する傾向にあり,かつ提案手法の適合率が高いため,結果をスムージングすることによって表\ref{table-lid}に示すようにさらにMacro-F1値を高めることができる.具体的には,各フレームについて前後4000フレームの結果を元にスムージングを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本稿ではアイヌ語アーカイブを対象とした音声認識の取り組みについて述べた.まず,アイヌ語音声コーパスを整備し,注意機構モデルを用いて音声認識システムを実現した.その中で,音節単位での認識が最良の結果となることがわかり,話者クローズド条件と話者オープン条件において,それぞれ6.3\%と13.8\%のPER,21.7\%と38.6\%のWERを達成した.次に,話者オープン条件において音声認識性能が大幅に低下する話者スパース問題に対して,CycleGANに基づく声質変換を用いた教師なし話者適応を提案した.提案手法によって,話者オープン条件におけるPERは相対35\%から60\%改善し,従来手法の自己適応学習やマルチリンガル学習による改善幅を大きく上回った.最後に,日本語アイヌ語混合音声における言語識別を検討した.学習データに単言語コーパスのみを用いるという制約の下で,音素認識と単語認識を経由する提案手法により一定の識別性能が得られることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究において大変有用なアドバイスをくださった札幌学院大学の奥田統己教授に深く感謝の意を表す.また,アイヌ語の音声データを提供してくださった国立アイヌ民族博物館(旧白老町立アイヌ民族博物館)と,平取町立二風谷アイヌ文化博物館に深い感謝の意を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\input{IA0262_04matuura_bbl.tex}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{松浦孝平}{%2021年京都大学大学院情報学研究科修士課程修了.同年,日本電信電話株式会社入社.ISCA,日本音響学会各会員.}\bioauthor{三村正人}{%2000年京都大学大学院情報学研究科修士課程修了.京都大学情報学研究科研究員等を経て,現在,同博士後期課程在学中.IEEE,日本音響学会各会員.}\bioauthor{河原達也}{%1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.京都大学工学部助手,同助教授,学術情報メディアセンター教授を経て,現在,情報学研究科教授.音声情報処理,特に音声認識及び対話システムに関する研究に従事.博士(工学).IEEEFellow.ISCA,APSIPA各理事.情報処理学会,日本音響学会,電子情報通信学会,人工知能学会,言語処理学会各会員.日本学術会議連携会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V20N05-05
\section{はじめに} 『現代日本語書き言葉均衡コーパス(BCCWJ)』(国立国語研究所2011)\nocite{NINJAL2011}の完成を受けて,国立国語研究所では日本語の歴史をたどることのできる「通時コーパス」の構築が進められている\footnote{NINJAL通時コーパスプロジェクトhttp://www.historicalcorpus.jp/}\cite{近藤2012}.コーパスの高度な活用のために,通時コーパスに収録されるテキストにもBCCWJと同等の形態論情報を付与することが期待される.しかし,従来は十分な精度で古文\footnote{本稿では,様々な時代・文体・ジャンルの歴史的な日本語資料を総称して「古文」と呼ぶ.}の形態素解析を行うことができなかった.残された歴史的資料は有限であるとはいえ,その量は多く,主要な文学作品に限っても手作業で整備できる量を大きく超えている.また,均質なタグ付けのためには機械処理が必須である.本研究の目的は,通時コーパス構築の基盤として活用することのできるような,歴史的資料の形態素解析を実現することである.通時コーパスに収録されるテキストは時代・ジャンルが幅広いため,必要性の高い分野から解析に着手する必要がある.明治時代の文語論説文と平安時代の仮名文学作品は,残されたテキスト量が多いうえ,日本語史研究の上でも価値が高いことから,これらを対象に,96\%以上の精度での形態素解析を実現することを目指す.そして,他の時代・分野の資料の解析に活かすために,各種条件下での解析精度の比較を行い,歴史的資料を日本語研究用に十分な精度で解析するために必要な学習用コーパスの量を確認し,エラーの傾向を調査する.本研究の主要な貢献は以下の通りである.\begin{itemize}\item現代語用のUniDicをベースに見出し語の追加を行って古文用の辞書データを作成した.\item新たに古文のコーパスを作成し,既公開のコーパスとともに学習用コーパスとして,MeCabを用いたパラメータ学習を行い形態素解析用のモデルを作成した.\item同辞書を単語境界・品詞認定・語彙素認定の各レベルで評価し,語彙素認定のF値で0.96以上の実用的な精度を得た.また,同辞書について未知語が存在する場合の解析精度を実験により推測し,その場合でも実用的な精度が得られることを確認した.\item同辞書の学習曲線を描き,古文を対象とした形態素解析に必要なコーパス量が5〜10万語であること,5,000語程度の少量であっても専用の学習用コーパスを作成することが有効であることを確認した.\item高頻度エラーの分析を行い,特に係り結びに起因するものは現状の解析器で用いている局所的な素性では対処できないものであることを確認した.\end{itemize} \section{研究の背景} \subsection{古文の形態素解析}現代文を対象とした日本語形態素解析は1990年代には実用的になっていたが,古文を対象とした形態素解析は長い間実現せず,コンピュータによる古文の処理を行おうとする人々から待ち望まれていた.日本語学・国語学の分野においては,BCCWJの完成によってコーパスを用いた現代語の研究が盛んになりつつあるが,形態素解析は複雑な共起条件を指定した用例検索や,コロケーション強度の取得,テキストごとの特徴語抽出,多変量解析を用いた研究など,新しい手法による研究を可能にしている.歴史的資料の形態素解析が可能になることで,日本語の史的研究の分野においてもこれが可能になり新しい知見がもたらされることが期待される.\citeA{村上2004}は,計量文献学の立場から,古典の研究資料としての価値を論じた上で「古典に関して計量分析で著者に関する疑問を解明できたなら,古典研究に大きな刺激を与えるにちがいない.ただ,残念なことに文章を自動的に単語に分割し,品詞情報等を付加する形態素分析のプログラムの開発が古文の場合,遅れている」(p.~191)と述べている.また,\citeA{近藤2009}は古典語研究の立場から「古典語は形態素解析の自動化がしにくいため,単語レベルの索引を作るには,すべて手作業で形態素解析を行う必要があるため,多くの資料を対象に語彙研究することは困難である」と述べている.もっとも,古文の形態素解析の実現のための研究はこれまでにも行われてきた.早い時期の研究として,\citeA{安武1995},\citeA{山本1996}などがある.しかし,古文の電子的な辞書やコーパスが不足していたこともあり,これらはいずれも試行のレベルにとどまっており,アプリケーションの公開も行われていない.また,研究の主眼が解析手法の開発自体にあるため,コーパスや辞書の整備も最小限しか行われてこなかった.このほか,\citeA{山元2007}が和歌集の言語学的分析を目的として和歌の形態素解析を実現しているが,これは和歌に特化したものであり,散文等の古文一般に適用できるものではない.このように,多くの資料を対象にした通時コーパス構築の基盤として利用可能な形態素解析のシステムは新たに作成する必要があった.\subsection{UniDicと古文}通時コーパスに先だって構築されたBCCWJでは,新しく開発された形態素解析辞書UniDic\footnote{http://download.unidic.org}を利用して形態論情報が付与された.UniDicは,(1)見出し語として「短単位」という揺れが少ない斉一な単位を採用している,(2)語彙素・語形・書字形・発音形の階層構造を持ち,表記の揺れや語形の変異をまとめ上げることができる,(3)個々の見出し語に語種やアクセント型などの豊富な情報が付与されている,といった言語研究に適した特長を持っている\cite{伝2007}.古文の形態素解析にとっても,上述のUniDicの特長は非常に有効である.たとえば,揺れの少ない斉一な単位は,テキストの解析結果を用いた語彙の比較を可能にする.従来の古典文学作品の総索引は単位認定や見出し付与の方針の違いにより相互の比較が難しい場合があった.しかし通時的なコーパスを構築する場合には,現代語コーパスと共通する一貫した原理に基づいた情報付与を行って,一作品・一時代にとどまらず古代から現代に至る「通時」的な観察を可能にする必要がある.UniDicをベースとすることで,作品間の比較が可能になるだけでなく,時代の違いを超え,各種のテキスト間で相互に語彙を比較することが可能になる.また,階層化された見出しを用いることで,文語形や旧字・旧仮名遣いの語を同一見出しの元にまとめることができるため,さまざまな時代のテキストに出現する語形・表記を統一的に扱うことができる.こうした理由から,本研究では現代語用のUniDicをもとにして,歴史的資料のための形態素解析辞書を作成することにした.UniDicでは,形態素解析器にMeCab\footnote{https://code.google.com/p/mecab/}\cite{Kudo2004}を用いている.MeCabはCRF\cite{Lafferty2001}にもとづく統計的機械学習によって高精度な形態素解析を実現しており,学習器も公開されている.したがって,古文の学習用コーパスを用意し,UniDicの見出し語を拡充することで古文に対応することができる.3.1節で示すように,見出し語を追加するだけでは実用的な解析精度を達成することはできず,学習用コーパスを用いて形態素解析器を再学習することが重要である.\subsection{解析対象のテキスト}一口に古文と言っても,その中身は極めて多様である.通時コーパスでは,時代幅としては8世紀から19世紀までが,ジャンルとしては和歌から物語,仏教説話,軍記物,狂言,また洒落本などの近世文学,さらに近代の小説や論説文,法律までが対象となる.これらのテキストの文体は,文法・語彙・表記にわたって極めて多様であって,単に「古文」としてひとくくりにして済むものではない\cite{小木曽2011}.テキストに大きな違いがある以上,解析対象のテキストごとに最適の辞書を作成することができれば望ましいが,残された歴史的資料は有限であり,少量のテキストのために個別に辞書を作成することは現実的ではない.文体的に近いテキストを十分な量のグループにまとめ,グループごとに適した形態素解析辞書を用意することが適切である.こうしたグループとしてまず考えられるのは,今から約1000年前の平安時代(中古)に書かれた仮名文学作品を中心とする和文系の資料である.中でも源氏物語は日本語の古典の代表的なものであり,その文体は,中世の擬古物語や近世・近代の擬古文に至るまで模倣されながら長い期間にわたって用いられている.もう一つのグループとしてあげられるのは,約100年前に広く用いられていた近代の文語文である.中でも明治普通文とも呼ばれる近代の文語論説文は,明治以降戦前にかけて広く用いられた文体であり,公文書から新聞・雑誌まで各種の資料がこれによって書かれている.表1に二つのグループに属するテキストの例を挙げる.\begin{table}[t]\caption{中古和文と近代文語文のテキスト例}\label{tab1}\input{05table01.txt}\end{table}近代文語文は,平安時代以来の漢文訓読文の流れに位置づけられる文体である.漢文訓読文では漢語が多く用いられるのに対して,和文では漢語はわずかしか用いられない.また和文と漢文訓読文では使用する和語の語彙も大きく異なっていることが知られている.こうした語彙の違いからも,現代語からの時代的遠近という点からも,中古和文と近代文語文は対照的な位置にあり,この2つのグループについて形態素解析辞書を用意することは,通時コーパス全体の解析を目的とする上で有効であると考えられる.\subsection{現代語用のUniDicによる古文の解析精度:ベースライン}一般に公開されている現代語用の形態素解析辞書はこれによって古文を解析することは考慮されていない.古文では,特に助動詞などの機能語の用いられ方が大きく異なるため,現代語用の辞書で古文を解析することは困難であると考えられる.現代語用に作られたUniDicも同様であるが,新たに作成する古文用辞書と比較するためのベースラインとして,手始めに現代語用のUniDicで近代文語文と中古和文を解析した場合の精度を調査する.評価に用いる現代語用UniDicは一般公開されているunidic-mecab-2.1.0である.UniDicの学習にはコーパスとしてBCCWJのコアデータのほか日本語話し言葉コーパスとRWCPコーパスの一部が用いられており,学習素性としては語彙素・語彙素読み・語種・品詞・活用型・活用形・書字形が用いられている\cite{Den2008}.UniDicの見出し語は,語彙素・語形・書字形・発音形の階層構造を持っている.そのため,解析結果の精度評価もこの階層ごとに行った.最も基礎的なレベルとして,単語境界の認定が正しく行われているかを見る「Lv.1境界」を設定した.またこれに加えて品詞・活用型・活用形の認定が正しいかどうかを見る「Lv.2品詞」,Lv.1・Lv.2に加えて語彙素(辞書見出し)としての認定も正しかったかどうかを見る「Lv.3語彙素」を設定した.Lv.3は,たとえば「金」が「キン」でなく「カネ」と正しく解析されているかどうかを見ることになる.さらに,Lv.1〜Lv.3が正しいことに加え,読み方が正しいかどうかを見る「Lv.4発音形」を設定した.Lv.4は,古文の場合には発音というよりは語形の違いが正しく認定されているかどうかを評価するものである.たとえば,「所」が文脈にあわせて「トコロ」ではなく「ドコロ」と正しく解析されているかどうかを見ることになる.ところで,現代語の辞書で古文を解析した場合には,活用型が文語であるか口語であるかの違いによって誤りとされる例が多い.たとえば動詞「書く」は口語ではカ行五段活用(「五段-カ行」)だが,文語ではカ行四段活用(「文語四段-カ行」)で定義されているため両者が一致しないと品詞レベルで誤りと見なされる.しかし両者は本質的には同語であるといってよく,相互に容易に変換することができる.そこで,こうした口語・文語の活用型の対についてはいずれを出力した場合にも正解と見なした場合の精度についても調査した.具体的には,「文語形容詞-ク」と「文語形容詞-シク」を「形容詞」と同一視し,「文語四段」は「五段」,「文語サ行変格」は「サ行変格」,「文語下二段」は「下一段」,「文語上二段」は「上一段」と同一視した.さらに文語の「-ハ行」「-ワ行」を「-ア行」と同一視した.以上の観点でまとめた解析精度の調査結果を表2に示す.評価コーパスは,後述する人手修正済みのコーパスから約10万語を文単位でランダムサンプリングしたものである.評価項目は次に示すPrecision(精度),Recall(再現率),F値(PrecisonとRecallの調和平均)である.\begin{gather*}\mbox{Precision}=\frac{正解語数}{システムの出力語数}\\[1ex]\mbox{Recall}=\frac{正解語数}{評価コーパスの語数}\\[1ex]\mbox{F値}=\frac{2*\mbox{Precision}*\mbox{Recall}}{\mbox{Precision}+\mbox{Recall}}\end{gather*}活用型の補正なしの場合の語彙素レベルのF値でみると,近代語では0.6775,中古和文では0.5432となっており,予想通り通時コーパス構築の実用に耐える精度ではない.中古和文と比べ近代文語の方が比較的精度が良いが,これは現代語との年代差が少ないため使用される語彙が近いことによるものと考えられる.補正後は,近代語では0.7323,中古和文では0.5939となっている.補正による上昇は0.05ポイント程度であり,単純な活用型変換を行ってもさほど精度は向上しないことが分かる.\begin{table}[t]\caption{現代語用UniDicによる近代文語・中古和文の解析精度}\label{tab2}\input{05table02.txt}\end{table}このように古文の形態素解析のためには辞書への古文の見出し語追加が必須であり,また古文のコーパスで再学習を行うことで解析精度の向上が期待できる.以下,3節で見出し語の追加と学習用コーパスの構築について説明する.4節では見出し語追加と再学習を行った提案手法による解析精度を他の手法と比較して確認し,その後この辞書による各種テキストの解析精度について議論する. \section{見出し語の追加と学習用コーパスの作成} \subsection{現代語用のUniDicに対する見出し語の追加}古文用の形態素解析を行うために,現代語用の辞書に見出し語の追加を行った.UniDicでは見出し語を語彙素・語形・書字形・発音形の4段階で階層的に管理しているため,近代語解析に必要な語を各階層に整理して追加することができる.現代語としては使われなくなっている語は「語彙素」のレベルで,文語活用型の語は「語形」のレベルで,異体字や旧字形など表記の違いは「書字形」のレベルで追加することになる(図1).これにより,現代語のための見出し語と統一的に管理することができ,文語形と口語形,新字形と旧字形がそれぞれ関係を持つものであることを示すことができる.\begin{figure}[t]\begin{center}\includegraphics{20-5ia5f1.eps}\end{center}\caption{UniDicの階層(語彙素・語形・書字形)と文語形・旧字形}\label{fig1}\vspace{-1\Cvs}\end{figure}これまでに近代文語文のために追加した語彙は,語彙素レベルで10,814語,語形レベルで12,417語,書字形レベルで25,224語であった.また,中古和文のために追加した語彙は,語彙素レベルで5,939語,語形レベルで7,351語,書字形レベルで13,763語であった.両者には共通の語彙も多いが近代文語文の語彙追加を先に行ったため,中古和文のための追加数が少なくなっている.もともとあった現代語の見出し語とあわせ,全体の見出し語数は,語彙素225,588語,語形253,061語,書字形413,897語となっている.追加した見出し語は,現代語形から派生させた文語形や旧字形を追加するところからはじめ,既存の古語辞典やデータ集の見出し語からも追加を行った.しかし,形態素解析辞書の見出し語としては,UniDic体系に基づく詳細な品詞を付与し,実際に出現する表記形を入力する必要があるため,単なる辞典の見出し語リストは多くの場合,登録用のソースとして不十分である.そのため,大部分の語彙は,後述する学習用コーパスを整備する過程で不足するものを追加する形で行った.見出し語の単位認定については,通時的な比較ができるようにするため,可能な限り現代語と共通の枠組みで処理を行った.しかし,語の歴史的変化や古文における使用実態を踏まえ,時代別に異なった扱いをしている語も少なくない.たとえば,指示詞について,現代語のUniDicでは「この」「その」などは1語の連体詞として扱っているが,「こ」「そ」が単独で指示代名詞として使われる中古語では,これらは代名詞+格助詞として扱った方が適切である.このように,歴史的資料向けの辞書見出しの追加は単純な作業ではなく,通時的な共通性に配慮しつつ,各時代の言語の実態を反映させるかたちで見出し語を認定するという高度な判断にもとづくものである.その積み重ねによって作られた見出し語リストは,日本語の通時的な処理を行う上で基礎となる重要なデータであると言える.また,中古和文UniDicの見出し語認定基準は規程集としてまとめ公開している\cite{小椋2012}\footnote{http://www2.ninjal.ac.jp/lrc/index.php?UniDic}が,これは通時的な比較を考慮した歴史的資料の処理にとって利用価値が高い資料である.中古和文用の規定はそのまま他の時代の資料に適用できるわけではないが,日本語の古典文法は中古和文を基準として作られたものであるため,この規定を中核として追加・修正を行うことで各時代向けの辞書を作成していくことが可能である.語彙の追加と平行して活用表の整備も行った.UniDicはもともと文語の活用表を一部備えていたが,これを整備して網羅的なものとするとともに,通時コーパス構築に必要な活用形の追加を行った.UniDicは現代語用に整備されてきたため,古文では用いられない語彙を多く含んでいる.しかし,基礎語彙の多くは中古和文でも共通であり,どの語が不要であるかを事前に判断することは必ずしも容易ではない.また,古文の形態素解析辞書にとって見出し語の肥大化は大きな問題ではないうえ,不要語があることによる解析精度への悪影響は認められなかったため,現代語用の見出しも原則としてそのままとした.同様の理由から,近代文語UniDicと中古和文UniDicの間でも同一の語彙表を用いている.\begin{table}[b]\caption{古文用の見出し語を追加した現代語用UniDicによる解析精度}\label{tab3}\input{05table03.txt}\end{table}以上のような見出し語の追加だけであれば,学習用コーパスの作成に比べて低コストで行うことができる.そこで,見出し語の追加だけで十分な精度向上が見られるのかどうか確認するため,古文用の見出し語を追加した現代語用のUniDicを作成し,2.4節の表2と同様に解析精度を調査した.その結果を表3に示す.見出し語の追加によって,近代文語では,語彙素認定のF値で約0.06ポイント向上し0.7363,補正後の数字で0.797となっている.また,精度の低かった中古和文では,語彙素認定のF値で約0.07ポイント向上し0.6190,補正後の数字で0.664となっている.しかし,やはりこの精度は不十分であり,見出し語の追加だけでは通時コーパスの構築にとって十分なだけの精度は得られなかった.\subsection{学習用コーパスの準備}前節で確認したように,古文の形態素解析のためには,見出し語の追加だけでなく学習用コーパスの整備が必要となる.近代文語では,主たる解析対象の明治期の文語論説文を中心に,表4の約64万語の人手修正済みのコーパスを作成した.近代詩・小説・法令・論説文の大部分は「青空文庫」\unskip\footnote{http://www.aozora.gr.jp/}所収のテキストを利用し,論説文としては他に上田修一氏作成の「文明論之概略」テキストデータ\footnote{http://web.keio.jp/\~uedas/bunmei.html}を利用した.また,雑誌の本文は国立国語研究所の「太陽コーパス」「近代女性雑誌コーパス」\unskip\footnote{http://www.ninjal.ac.jp/corpus\_center/cmj/なお,「太陽コーパス」「近代女性雑誌コーパス」は文書構造等がタグ付けされたコーパスで形態論情報は付与されていない.}の一部のテキストを利用した.以上のテキストに対して独自にUniDicベースの形態論情報をタグ付けしたデータに加え,国立国語研究所で公開された形態論情報付き「明六雑誌コーパス」\unskip\footnote{http://www.ninjal.ac.jp/corpus\_center/cmj/meiroku/}を学習用のデータとして利用した.\begin{table}[b]\begin{minipage}[t]{0.5\textwidth}\caption{近代文語のコーパス}\label{tab4}\input{05table04.txt}\end{minipage}\begin{minipage}[t]{0.5\textwidth}\caption{中古和文のコーパス}\label{tab5}\input{05table05.txt}\end{minipage}\end{table}中古和文では,2012年に国立国語研究所によって公開された「日本語歴史コーパス平安時代編先行公開版」\unskip\footnote{http://www.ninjal.ac.jp/corpus\_center/chj/}のデータを学習に利用した.このコーパスは,表5に示す平安時代の仮名文学作品を中心とした約82万語の人手修正済みの形態論情報を含んでいる.学習用のコーパスは段落や改行,振り仮名などがタグ付けされたテキストに形態論情報を付与したもので,これを関係データベース上で辞書データと紐付けて管理している.近代語コーパスでは,さらに濁点が付されていない部分に濁点を付与するなど表記上の問題に対処するためのタグ付けを行い,また文末を認定してセンテンスタグを付与している.日本語の歴史的資料のコーパスを形態素解析辞書の機械学習に利用可能な形で整備したのはこれが初めての試みである.近代文語文と中古和文は,同じ古文と言っても大きく性質の異なる文体である.近代文語文では低頻度語が多く,上記のコーパス中,書字形(基本形)で集計した場合,頻度1の語が18,120語,頻度2の語が5,943語含まれていた.一方,中古和文では,頻度1の語が6,198語,頻度2の語が2,134語にすぎない.近代文語文は,明治維新後に西洋の新たな文物を吸収していく時代において,新しい書き言葉を確立していく過程にあった文体であるため,新たに作られながらも定着しなかった語などの低頻度語が目立つ.また,書かれる内容が多様で文体差が大きい.一方,中古和文は,古代の宮廷における限られたコミュニティの中で当時の話し言葉に基づいて書かれた文章であり,内容的な幅も狭いため,語彙の広がりが小さい.こうした違いは,形態素解析の精度にも影響を及ぼしてくると考えられる.\subsection{MeCabを用いたコーパスからのパラメータ学習}MeCabでコーパスからのパラメータを学習する場合,設定ファイルrewrite.defとfeature.defによって,学習に用いる内部素性のマッピングと,内部素性からCRF素性を抽出するためのテンプレートを書き換えることができる.近代文語UniDicと中古和文UniDicの学習にあたっては,CRF素性を抽出するテンプレート(feature.def)は,どちらの辞書でも現代語用のものをそのまま用いている.利用している素性は,語彙素・語彙素読み・語種・品詞(大分類・中分類・小分類)・活用型・活用形・書字形(基本形と出現形)とその組み合わせである.UniDicでは語種を学習素性として利用しているのが特徴となっており\cite{Den2008},この素性は古文の解析にも大きく寄与している.一方,内部素性のマッピング(rewrite.def)は,現代語用UniDicのものを修正して,語彙化する見出し語を文語の助動詞・接辞に置き換えた.たとえば,次の助動詞については品詞ではなく,語彙のレベルで連接コストを計算している.\begin{quote}き,けむ,けらし,けり,こす,ごとし,ざます,ざんす,じ,ず,たり,つ,なり,ぬ,べし,べらなり,まし,まじ,む,むず,めり,らし,らむ,り,んす,んなり,んめり,非ず\end{quote}助詞・助動詞などの語彙化すべき見出し語については近代文語文と中古和文とで共通する部分が多いため,rewrite.defは近代文語UniDicと中古和文UniDicとで共通のものを利用した. \section{解析精度の評価} \subsection{解析精度}上述の方法で作成した「近代文語UniDic」「中古和文UniDic」の解析精度を調査した.評価コーパスは,3.2節で示した人手による修正済みのコーパスから文単位でランダムサンプリングした10万語分とし,その残りを訓練コーパスとした.評価コーパスは,辞書ごとに固定して,以後の精度評価でも同一のものを用いている.2.4節での調査と同様に,単位境界・品詞・語彙素・発音形の4つのレベルで調査を行った結果を表6に示す.なお,評価コーパスはもともと学習用に整備したものの一部を転用したものであるため,当初含まれていた未知語は辞書に登録されている.そのため,解釈不能語などを除いて原則として未知語を含んでいない.\begin{table}[b]\caption{「近代文語UniDic」「中古和文UniDic」の解析精度}\label{tab6}\input{05table06.txt}\end{table}語彙素認定のF値で,近代文語は0.9641,中古和文では0.9700となっており,ベースライン(表2)や見出し語のみを追加した場合(表3)と比較して大幅に精度が向上している.近代文語UniDicと中古和文UniDicを比較すると,すべてのレベルで中古和文の方が良い精度となっている.これには中古和文の方が訓練コーパスの量が多いことも影響しているが,それよりも3.2節で見たようなテキストの性質の違いによる影響が大きいと考えられる(4.4節参照).図2に,再学習を行った提案手法と,2〜3節で確認した各種手法(現代語辞書によるベースライン,再学習を伴わず見出し語だけを追加した辞書)の解析精度を比較した結果を示す.精度は語彙素認定レベルのF値である.図中の「補正」とは活用型の文語形への変換を行った場合の精度である.\begin{figure}[t]\begin{center}\includegraphics{20-5ia5f2.eps}\end{center}\caption{各種方法による解析精度の比較(語彙素レベル・F値)}\label{fig2}\end{figure}このように,コーパスによる再学習によって初めて実用的な精度での解析が可能になる.BCCWJの構築に利用された現代語のUniDicの解析精度が語彙素認定のF値で約0.98であり,ジャンルによっては0.96程度に留まることと比較しても,コーパス構築に利用するために十分な精度が出ていると言える.\subsection{未知語を考慮した解析精度}表6の精度は,基本的に未知語が存在しない状態のコーパスを評価対象とした場合のものであった.しかし,実際の解析対象には未知語が含まれているのが通常である.そこで,未知語を含んだテキストを解析した際の精度を検証した.評価コーパスには同一のものを用いて,評価コーパスのみに現れ,それ以外の人手修正済みコーパス(=学習用コーパス)には一度も出現しない語を,近代文語UniDic・中古和文UniDicそれぞれの辞書から削除して未知語を発生させた.削除した語数は,近代文語UniDicでは2,089語(評価コーパス中の出現回数3,128),中古和文UniDicでは795語(評価コーパス中の出現回数824)であった.3.2節で見たように,近代文語文には低頻度の語が多く含まれるため,中古和文に比べて未知語が多く発生することになる.この条件で作成し直した辞書の解析精度を表7に示す.Precisionが特に低下しており,語彙素認定のF値で見ると,近代文語文では0.0376ポイント低下して0.9265,中古和文では0.0089ポイント低下して0.9611となっている.未知語が多い近代文語文では影響が大きいが,それでも十分に実用的な精度が得られている.\begin{table}[t]\caption{未知語の有無による解析精度比較}\label{tab7}\input{05table07.txt}\end{table}\subsection{未知の資料の解析精度}前節で見たように学習用コーパスと同一の作品では十分な精度が得られたが,学習用コーパスとは完全に無関係な資料の解析精度を確認する必要がある.未知の資料には,当該辞書の適用対象といえるテキストと,文体差があり必ずしも適切な対象であるとはいえないテキストがある.ここでは,中古和文UniDicを例に,その適用対象内の文体で書かれたテキストであるといえる擬古物語『恋路ゆかしき大将』と,時代的には中古和文に近いが和漢混淆文と呼ばれる別種の文体である『今昔物語集』の一部の解析精度を調査する.調査対象のテキストはいずれも未知語を一部含んだ状態である.それぞれ,表8に示すような文体である.中古和文UniDicによる擬古物語と和漢混淆文の解析結果を表9に示す.擬古物語では,語彙素認定のF値で0.95以上の精度を確保している一方,和漢混淆文では0.85程度となっている.ここから,中古和文UniDicがターゲットとしていた文体であれば未知の資料であっても十分な解析が可能であること,一方ターゲットとしていない文体では十分な精度が得られず,再学習など新たな取り組みが必要であることが分かる.\begin{table}[b]\caption{擬古物語・和漢混淆文のテキスト例}\label{tab8}\input{05table08.txt}\vspace{0.5\Cvs}\end{table}\begin{table}[b]\caption{「中古和文UniDic」による擬古物語・和漢混淆文の解析精度}\label{tab9}\input{05table09.txt}\end{table}\subsection{学習に用いるコーパスの量の解析精度への影響}\begin{figure}[b]\begin{center}\includegraphics{20-5ia5f3.eps}\end{center}\caption{各種UniDicの学習曲線(語彙素レベル・F値)}\label{fig3}\end{figure}つづいて,学習に用いるコーパスの量の解析精度への影響を確認するために,コーパスの量を変化させて解析精度を評価した.評価コーパスは辞書ごとに固定した10万語で,4.1節・4.2節と同一のものである.学習用のコーパスは,評価コーパス以外の人手修正済みデータを文単位でランダムに並び替えた後,先頭から指定語数分取得している.語数は,2万語までは5,000語ごと,10万語までは2万語ごと,それ以上は10万語ごとに学習用コーパスを増やし,近代文語UniDicでは50万語,中古和文UniDicでは70万語まで評価している.比較のため現代語用のUniDicについても同様の方法で100万語まで評価した.現代語の学習・評価用コーパスにはBCCWJのコアデータを利用した.この結果を図3に示す.縦軸が語彙素認定のF値,横軸がコーパス量である.現代語$>$中古和文$>$近代文語の順に解析精度が低くなるが,この傾向はコーパス量が同じであればどの段階においても同じであり,この差は各辞書が対象とするテキストの(短単位による形態素解析という観点での)難易度を反映したものだといえそうである.ただし,近代文語文の精度低下には,口語による表現が部分的に挿入される場合があることも影響している\footnote{近代文語文のコーパス中,口語表現が占める割合は,抜き取り調査にもとづく概算で1\%程度である.}.口語表現を除外するようにコーパスを整備したり,口語表現の品詞認定基準を改めたりすることで,他の辞書との差は小さくなるものと思われる.学習用のコーパス量が5,000語でも0.9以上のF値が得られているが,これは現代語のUniDicで解析した表2や表3の結果よりも遙かに良い数値である.古文の形態素解析では,少ない量であっても専用のコーパスを使って辞書を作成することが効果的であることがわかる.また,約5万語のコーパスで95\%の精度に達しており,どの辞書でも約10万語を境に精度向上が大幅に鈍化し飽和していく.短単位の形態素解析辞書を新たに作成するのに必要な学習用のコーパスは約5〜10万語というのが一つの目安であるといえる. \section{エラー分析} \subsection{高頻度の解析エラー}\begin{table}[b]\caption{高頻度の解析エラー}\label{tab10}\input{05table10.txt}\end{table}4.1節(表6)の精度調査におけるエラーから,近代文語UniDic,中古和文UniDicのエラーの傾向を分析する.表10に,境界認定・品詞認定・語彙素認定の各レベルにおいて特に高頻度のエラーをまとめた.表中括弧内の数字はエラー数である.以下,これらのエラーについてレベル別に確認する.\subsection{境界認定レベルのエラー}境界認定のレベルでは,近代文語UniDicは結果として過分割となっているものが272例,同数となるもの74例,過結合となるものが258例であった.中古和文UniDicは過分割となっているものが189例,同数となるものが25例,過結合となるものが176例であった.中古和文・近代文語でともにエラーが多い「にて」「とも」は,語源にさかのぼると「に/て」「と/も」であり,複合してできた語を語源的に見て2語と扱うか,新たにできた1語として扱うかという認定基準の立て方の問題と関わる.歴史的な言語変化によって一語化が進展していくわけだが,もともと連続して出てきやすい語の連続であり,また全ての「に/て」「と/も」連続が一語化するわけではないため判別が難しい.近代文語の「然れども」は,現在の規程では,「しかれども」と読む場合には「然り」と「ども」に分割し,「されども」と読む場合には1語の接続詞として扱っている.したがって問題は「然れ」を「され」と読むか「しかれ」と読むかという点にあり,実質上は語彙素認定のエラーであるとも言える.「彼の」も同様で,「かれ(の)」と読めば2語になり,「か(の)」と読めば連体詞として1語と見なされる.このように近代語では漢字表記語が多く読みに曖昧さがあり,そこに語の歴史的変化による一語化が進展していることが複合して問題となっている.一方,近代文語の「論派」は,「○○論派」とある場合に,UniDicの短単位規定で「((○○)論)派」という語構成を考えて「-論」「-派」がいずれも接尾辞となって切り出されるのに対し,「論派」という1語の名詞も存在するためにこちらが優先されることによっている.漢語の多い近代語で目立っているが,これは現代語でも同種の現象が起きる問題であり,漢語の単位認定について,形態素解析では扱いきれない語構成の問題が短単位認定基準に取り込まれていることが要因であるといえる.\subsection{品詞認定レベルのエラー}品詞認定のレベルでは,品詞そのものの認定エラーと,活用形の認定のエラーが区別される.品詞そのものの認定で中古和文・近代文語ともに最多のものは「に」の認定が助動詞・格助詞・接続助詞の間で揺れるものである.「に」の判別は現代語においても助動詞「だ」連用形と格助詞「に」の間などで問題になるが,古文では接続助詞の「に」が高い頻度で用いられるためより曖昧性が高い.接続助詞「に」は連体形接続であるため,接続の上でも他と区別が付かない.このほか,中古和文では「を」の判別エラーが多い.現代語では格助詞以外の用法を持たないが,中古語では接続助詞・終助詞があるためエラーにつながっている.また,近代文語では「も」「で」の判別エラーが目立つが,いずれも同形の接続助詞があることで現代語よりも曖昧性が増している.さらに「で」は近代においては口語的な助動詞「だ」の連用形としての「で」が用いられることがあるため,現代語で発生する助動詞「だ」連用形と格助詞「で」の判別と同じ問題が生じている.このように品詞の認定では,コピュラ助動詞(「なり」「だ」)の連用形と格助詞との判別という現代語でも見られるエラーがあることに加えて,古文では同形の接続助詞が存在するためにより曖昧性が高くエラーにつながっている.活用形の認定では,高頻度の助動詞や動詞の終止形・連体形の判別と,助動詞「ず」・動詞「有り」の終止形と連用形の判別でエラーが多く発生している.終止形・連体形の判別エラーは,係り結びに起因する古文特有のものである.古文では,文中に「ぞ」「か」「や」の係助詞や疑問詞(不定語)が存在する場合,係り結びの法則によって文末が終止形ではなく連体形になるという現象がある.ところが,四段活用では終止形と連体形が同形であるため,文末に位置する場合には文中に上述の要素(係り)が存在するかどうかによって同形の動詞を判別しなければならず,この困難がエラーにつながっている.係り結びは中古和文で特に多いため終止形・連体形の判別エラーも中古和文に多く,活用形間の誤り全体363例のうち214例がこのエラーである.助動詞「ず」・動詞「有り」の終止形と連用形の判別は,文末の認定に関わるものである.助動詞「ず」やラ行変格活用の語では終止形と連用形が同形であるが,終止形と連用形の違いは多くの場合,文が中止しているのかそこで終わっているのかの違いに相当する.ところが,近代文語文では,文末が句点として必ずしも明示されない\footnote{このため,近代語のコーパスでは人手によって文境界をタグ付けしている.古文の解析にとって文末の自動認定は残された重要な課題の一つである.}.句点と読点が区別されず,ともに「、」で表されている文が多く,こうした場合には中止か終止かの区別が極めて難しい.このことが終止形・連用形の選択エラーにつながっている.これも古文のテキスト特有のエラーである.\subsection{語彙素認定のエラー}語彙素認定では,中古和文における接頭辞「御」が「ミ」「オオン」の間で揺れる例が極めて多かった.これを含め中古和文における高頻度の語彙素認定エラーは,品詞が一致する上に語種までが同じ例である.近代文語で最多の「人」が「ジン」「ニン」で揺れる例も語種が同じものである.UniDicの見出し語中には,同一の漢字表記語が音読する漢語と訓読する和語に区別される例が多いが,学習素性に語種を利用していることもあり,語種をまたいだ誤りは比較的少なかった.語彙素認定のエラーは現代語でも生じうるタイプの誤りである.ただし,現代語では接頭辞「御」は漢語「ゴ」と和語「オ」でほぼ区別が付くが,中古和文では和語に複数の読みがあるため語種では判別ができないといった違いがある.\subsection{エラーのまとめ}以上のエラーのうち古文特有といえる問題は,(1)係り結びに起因する文末活用語の終止形・連体形の判別,(2)文末表示の曖昧さに起因する文末活用語の終止形・連用形の判別である.特に係り結びの問題に対処するには文中の離れた要素を考慮する必要があるが,提案手法では局所的な形態論情報だけを素性として利用しているため対応できていない.しかし,これらのエラーは比較的簡単なルールによって自動修正できるため,形態素解析後の後処理で対応することが可能である.その他のエラーは同種の問題が現代語でも発生しうるものである.しかし,「に/て」「と/も」,「に」「も」「を」などの助詞に関する判別は,古文の方が同音異義となる語彙が多いため曖昧性が増していた(「を」は現代語では曖昧性がない).また,特に近代文語では漢字表記語の割合が大きく,その読みの曖昧性がエラーにつながる例が現代語よりも多い.中古和文の接頭辞「御」も同様で和語に絞っても多様な読みがあるため判別が困難である.以上のように,エラーの原因には文法現象から語彙,表記法の違いまで,古文特有の現象が関わっているものが見られた. \section{おわりに} UniDicの見出し語を増補し,学習用のコーパスを整備することによって,「中古和文UniDic」と「近代文語UniDic」の二つの形態素解析辞書を作成した.これらの辞書により,語彙素認定のF値で,近代文語は0.9641,中古和文では0.9700という高い精度で解析することが可能になった.これにより,通時コーパス構築の基盤となる形態素解析システムが整ったといえる.これらの形態素解析辞書はすでにWeb上で一般公開を行っている\footnote{http://www2.ninjal.ac.jp/lrc/index.php?UniDic}.開発過程で,古文の形態素解析には見出し語の追加だけでは十分な精度が得られないこと,5,000語程度の少量であっても専用の学習用コーパスを用意することが効果的であることが確認された.他分野の辞書による解析精度が低いこととあわせ,このことは,古文の形態素解析では,他分野のコーパスによって学習したパラメータの転用を図ることは有効ではないことを示唆している.また,短単位にもとづく形態素解析辞書の学習には,5〜10万語の学習用コーパスを用意すれば歴史的日本語コーパスの構築にとって十分であることが確認された.さらに,エラーの分析から,残されたエラーの多くは,現状の解析器と学習可能な素性では対処の難しいものであることが確認された.近代文語と中古和文を比較すると,近代文語の解析精度が低かったが,その理由の一つは近代文語の中身が多様で,ドメインの分割がうまくできていないことにあるものと思われる.比較的少量の学習用コーパスで効果が見込まれることが確認されたことから,近代文語文をより小さなドメインに分割することで全体として精度を向上させられる可能性がある.同様に,会話文と地の文とで別の辞書を作成することでも精度の向上が期待できる.今後の課題としたい.通時コーパスの構築のためには,今後,様々なタイプのテキストの解析を行っていく必要がある.今回の調査においても,中古和文と同時代の資料であっても和漢混淆文は中古和文UniDicでは十分な精度で解析できないことが確認された.今後,和漢混淆文をはじめとする多様なジャンルのテキストを対象とした形態素解析辞書を作成していく必要がある.その中では,仮名遣いのバリエーションへの対処や送り仮名の大幅な省略などの表記揺れへの対処も必要となる.今回得られた情報をもとに必要なコーパスを整備するとともに,新たな解析器も活用しつつ,通時コーパスのための形態素解析を行っていきたい.\acknowledgment本研究は2009〜2012年に行われた国立国語研究所の共同研究プロジェクト(統計と機械学習による日本語史研究)による研究成果の一部である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{伝2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源—形態素解析用電子化辞書の開発とその応用{(特集コーパス日本語学の射程)\unskip}.\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{Den2008}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAproperapproachtoJapanesemorphologicalanalysis:Dictionary,model,andevaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thLanguageResourcesandEvaluationConference(LREC2008),Marrakech,Morocco},\mbox{\BPGS\1019--1024}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2011}]{NINJAL2011}国立国語研究所\BBOP2011\BBCP.\newblock現代日本語書き言葉均衡コーパス.\bibitem[\protect\BCAY{近藤}{近藤}{2009}]{近藤2009}近藤泰弘\BBOP2009\BBCP.\newblock\Jem{古典語・古典文学研究における言語処理},\mbox{\BPGS\472--473}.\newblock共立出版.\bibitem[\protect\BCAY{近藤}{近藤}{2012}]{近藤2012}近藤泰弘\BBOP2012\BBCP.\newblock日本語通時コーパスの設計.\\newblock\Jem{NINJAL「通時コーパス」プロジェクト・OxfordVSARPSプロジェクト合同シンポジウム通時コーパスと日本語史研究予稿集},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingconditionalrandomfieldstoJapanesemorphologicalanalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,Barcelona,Spain.},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty2001}Lafferty,J.~D.,McCallum,A.,\BBA\Pereira,F.C.~N.\BBOP2001\BBCP.\newblock\BBOQConditionalrandomfields:Probabilisticmodelsforsegmentingandlabelingsequencedata.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning,Williamstown,MA.},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{村上}{村上}{2004}]{村上2004}村上征勝\BBOP2004\BBCP.\newblock\Jem{シェークスピアは誰ですか?—計量文献学の世界}.\newblock文春新書.\bibitem[\protect\BCAY{小木曽}{小木曽}{2011}]{小木曽2011}小木曽智信\BBOP2011\BBCP.\newblock通時コーパスの構築に向けた古文用形態素解析辞書の開発.\\newblock\Jem{情報処理学会研究報告人文科学とコンピュータ},{\Bbf2011-CH-92}(6),\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{小椋\JBA須永}{小椋\JBA須永}{2012}]{小椋2012}小椋秀樹\JBA須永哲矢\BBOP2012\BBCP.\newblock\Jem{中古和文UniDic短単位規程集(科研費基盤研究(C)課題番号21520492「和文系資料を対象とした形態素解析辞書の開発」研究成果報告書2)}.\newblock国立国語研究所.\bibitem[\protect\BCAY{山元}{山元}{2007}]{山元2007}山元啓史\BBOP2007\BBCP.\newblock和歌のための品詞タグづけシステム.\\newblock\Jem{日本語の研究},{\Bbf3}(22),\mbox{\BPGS\33--39}.\bibitem[\protect\BCAY{山本\JBA松本}{山本\JBA松本}{1996}]{山本1996}山本靖\JBA松本裕治\BBOP1996\BBCP.\newblock日本語形態素解析システムJUMANによる古文の形態素解析とその応用.\\newblock\Jem{情報処理語学文学研究会第19回研究発表大会要旨}.\bibitem[\protect\BCAY{安武\JBA吉村\JBA首藤}{安武\Jetal}{1995}]{安武1995}安武満佐子\JBA吉村賢治\JBA首藤公昭\BBOP1995\BBCP.\newblock古文の形態素解析システム.\\newblock\Jem{福岡大学工学集報},{\Bbf54},\mbox{\BPGS\157--165}.\end{thebibliography}\begin{biography}\bioauthor{小木曽智信}{1995年東京大学文学部日本語日本文学(国語学)専修課程卒.1997年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了.2001年同博士課程中途退学.修士(文学).2001年より明海大学講師.2006年より独立行政法人国立国語研究所研究員を経て,2009年より人間文化研究機構国立国語研究所准教授,現在に至る.現在,社会人学生として奈良先端科学技術大学院大学情報科学研究科博士後期課程に在学中.専門は日本語学,自然言語処理.言語処理学会,日本語学会,情報処理学会各会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同研究科助教を経て,現在,首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.計量国語学会,言語処理学会,情報処理学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V14N03-08
\section{まえがき} 音声言語処理の研究・開発は,コンピュータの高性能化を背景にし,ここ数年の間に飛躍的な発展を遂げ,特に大量のデータに基づく,確率・統計的なモデル化のアプローチは,音響処理面および言語処理面の双方において大きな成功を収めた.これらの技術的進展により,音声合成・音声認識技術は一気に実用レベルに達し,人間とコンピュータとのインタフェースとして広範囲に応用されるに至った.一方,応用範囲が広範になるにつれ,その精度・品質に対して,より高いレベルのものが要求されるようになっている.例えば,音声合成においては,テキストを単に読み上げるだけのものから,パラ言語情報や感情などを表現する柔軟な合成音声が望まれる.このような合成音声には,音声機能障害者を対象とした対話支援システム\cite{Ii2}や,癒し系ロボットへの応用など様々なものが提案されている.言語情報だけでは伝わらないこのような表現豊かな音声での感情や意図の表現には,韻律的特徴が大きく寄与することは明らかである\cite{Rai},\cite{Fuji},\cite{Nikku}.そのため,従来から,感情音声の韻律的特徴に関する研究が行われており,基本周波数パターン(以下,$F_0$パターンと呼ぶ)の統計的な傾向を音声心理学的な観点からとらえた研究\cite{Naga},\cite{As},\cite{Sige}や,音声言語コーパスに基づく工学的な観点からの研究\cite{Koba},\cite{Sagi}がある.日本語音声における感情表現に関する研究は,感情の種類に着目して,特徴付けや識別を試みている例が多い\cite{ITI},\cite{Ii},\cite{Kita}.一方,表現豊かな音声合成のために,特定の感情について,その程度を数段階に分けた研究も行われるようになってきている.\cite{Hasi},\cite{kw2},\cite{Nsima}.また,韻律的特徴が,文の統語構造と関連を持つことも明らかとなっており\cite{Hir},\cite{Ume},韻律的特徴であるイントネーションやアクセントの生起タイミングにおいては,言語的情報を的確に利用することで,よりよい決定が行われると考えられる.筆者らは,表現豊かな音声合成の実現を目的として,特に感情に着目し,複数の程度の感情情報を含む典型的な発話に対する韻律制御指令の生成について検討を行っている.本論文は,感情の種類として「喜び」「悲しみ」の2つの感情を取り上げ,それぞれの感情を3段階の程度で表現した音声に対し,発話の言語的情報と$F_0$パターン制御指令のパラメータとの関係について検討することによって,感情を表現する音声合成への応用を目指すものである.すなわち,本論文の主な目的は,感情の種類の判別・差異に着目することではなく,同一感情の程度に対する影響について明らかにするものである.そのための足がかりとして,R.Plutchikが提案した心理学上の感情の立体モデル\cite{PLU}の基本8感情のうち「喜び」「悲しみ」のみを対象として取り上げるにとどめた.「喜び」「悲しみ」の2感情をその程度まで考慮し分析した先行研究\cite{MD}では,4〜6モーラの単語を発声した際の感情音声を対象として,韻律的特徴が分析されている.この先行研究では,韻律的特徴のうち,時間構造に関するパラメータと$F_0$パターンに関するパラメータを取り扱っている.しかし,孤立に発声された特定の単語発話に対する詳細な検討であり,任意の文章を対象とした音声合成に直接応用することは困難であると考えられる.一方,模擬対話を行って数段階の程度で感情音声を収集した先行研究\cite{Kawana}では,非常に限られた種類の文を対象として文発話を収録している.収録音声の$F_0$パターンとモーラ持続時間短縮率について分析を行い,感情の程度と韻律的特徴との間に一定の傾向を見い出しているが,それは話者や感情の種類によって大きく異なるものと結論づけるにとどまり,一般化には及んでいない.本論文では,任意の文章への感情音声合成への応用を目指して,感情ごとに異なる10文を用意して分析対象とした.ここで,言語的要因の1つである係り受け関係を網羅するため,対象を4文節からなる文に限定した.また,韻律的特徴には,$F_0$パターン・発話速度・発話強度・声質など様々あるが,日本語音声の場合,高さに関する特徴である$F_0$パターンが韻律情報を支配する直接的要因であると考えられているため,本論文では特に$F_0$パターンに着目することとする.$F_0$パターンについては,その生成過程モデル\cite{Fuji3}に基づいた分析を行い,韻律的特徴の定量化を行う.これは$F_0$パターン生成過程モデルが,音声を生成する人間の生理的・物理的な特性を捉えたものであり,また,言語的内容とも整合した制御指令が得られることが確認されているためである.このモデルの$F_0$パターン制御指令の変化傾向をとらえることで,テキスト音声合成時の$F_0$パターン生成に直接に結びつけることが可能であると期待できる.以下,\ref{mt}.では,発話内容の言語的情報と音声資料の収録方法について述べる.\ref{ln}.において,$F_0$パターンの分析手法について述べ,\ref{ex}.で言語的情報に基づき$F_0$パターン制御指令のパラメータとの関係について検討した結果について述べる.\ref{sa}.で本論文をまとめる. \section{音声資料} label{mt}\subsection{発話内容の言語的情報}\label{yoso}発話テキストとして,「喜び」「悲しみ」のそれぞれの感情に対して,4文節からなるテキスト10文を用意した.特定の感情を前提としない中立な文を発話テキストとして用いて複数感情を同一文で表現させる手法もあるが,ここでは感情ごとに適切な文をそれぞれ用意した.これは,話者に無理のない状況設定を理解させ,より自然な音声資料を収集するためである.表~\ref{hatuwa}に,用意した発話テキストの一部を示す.韻律制御指令の生起タイミングは,感情の種類,その程度のほか,発話内容の言語的情報である係り受け関係,モーラ数,アクセント型等の影響を受けると考えられる.表~\ref{factors}に,発話テキストから得られる言語的情報に基づく要因をまとめた.これらの要因はテキスト音声合成の際に,一般的に考慮されているものである.ここで,文の係り受け構造に関しては,文節境界の枝分かれ種別に着目した.図~\ref{bdc}に文の係り受け構造と境界の枝分かれ種別を示す.以上,ここでは文節数と係り受け構造に配慮したほかは,特にテキストの制約を与えないこととした.\ref{ex}.以降の結果の検討において,これらの要因との影響について調べていく.\begin{table}[b]\begin{center}\caption{発話テキストの例}\label{hatuwa}\begin{tabular}{p{0.06\textwidth}p{0.42\textwidth}p{0.42\textwidth}}\hline&「喜び」&「悲しみ」\\\hline1.&海が透き通って珊瑚まで見えるよ.&いつまで待っても帰ってこない.\\2.&こんなステーキを食べられて幸せだ.&彼に伝える勇気がありません.\\3.&5年掛かってついに司法試験に合格したよ.&これで二度と息子に会えない.\\4.&あの大きいぬいぐるみが欲しい.&センターの数学のテストができなかった.\\5.&今日は僕のウチで遊ぼうよ.&二度ときれいな花が見られない.\\\hline\end{tabular}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{言語的情報に基づく要因}\label{factors}\begin{tabular}{ll}\hline要因&とり得る値\\\hline韻律語の文中での位置&1,2,3,4.\\境界の枝分かれ種別&右枝分かれ,左枝分かれ.\\韻律語のモーラ数&2,3,…,8.\\アクセント型&平板型,頭高型,起伏型.\\修飾関係&連体修飾,連用修飾.\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\includegraphics[width=1.0\textwidth]{bdc.eps}\end{center}\caption{係り受け構造と境界の枝分かれ種別(L:左枝分かれ境界/R:右枝分かれ境界)}\label{bdc}\end{figure}\begin{table}[t]\caption{発話の状況設定の例}\label{jyoukyou}\begin{tabular}{p{0.09\textwidth}p{0.42\textwidth}p{0.42\textwidth}}\hline&「喜び」&「悲しみ」\\\hlineテキスト&「海が透き通って珊瑚まで見えるよ.」&「いつまで待っても帰ってこない.」\\状況設定&待ちに待った夏休み.海がとても綺麗と評判の島に行きました.本当に透き通るように綺麗な海で珊瑚が砂浜からでも見られたことに感激して一言.&一緒に生活するのが当たり前だと思っていた夫(or妻)を不慮の事故で亡くしました.いつもの元気のよい“ただいま”の声が聞こえてきません.悲しんで一言.\\\hline\end{tabular}\end{table}\subsection{録音条件}中立な(感情を込めない)発話と,弱・中・強の3段階の程度で「喜び」と「悲しみ」の2種類の感情を表現した発話を収録した.発話の際,指定した感情を表現しやすくするために発話の状況を設定した.表~\ref{jyoukyou}に,状況設定の例を示す.収録ではディスプレイに表示される発話テキストおよび状況設定に従い,演劇経験のある成人話者8名(男6名,女2名)が簡易防音室内において「中立」→「中」→「弱」→「強」の順に発話した音声をそれぞれ3回録音した.\subsection{感情の程度の主観評価}\label{subeva}話者の意図によって数段階の程度で収録した音声に対し,聴取実験を行い,聞き手側の観点から感情の程度の主観評価を行った.この聴取実験は,話者の意図した感情表現の程度と,聞き手が受容した感情の程度との一致度を把握することが目的である.被験者は大学4年生の男女6名である.まず,各感情の発話テキスト10文の中からランダムに5文を選択し,480発話(5文×4段階×3セット×8人)を実験用の音声資料とした.実験では,話者ごとにデータセットを用意し,``これから聞こえてくる音声の感情の程度を判定して下さい''という指示に続いて,中立を含むそれぞれの感情に関するすべての発話をランダムな順序で呈示し,聴取した音声に指定した感情がどの程度表れていると感じたかを「まったく感情が表れていない,他の感情に聞こえる」という場合の``0"と,「僅かに感情が表れている」という場合の``1"から「とても強く感情が表れている」という場合の``5"までの6段階で評価し,その数字を回答させた.\begin{figure}[b]\begin{center}\includegraphics[width=0.8\textwidth]{14-3ia8f2.eps}\end{center}\caption{感情の程度の主観評価値と有意差検定の結果(上段:話者MTI,下段:話者MTS)}\label{mos}\end{figure}\subsubsection{有意差検定}図~\ref{mos}に,話者の意図した感情の程度別の主観評価値の分布結果と,それぞれの程度間で行った片側検定による有意差検定の結果の一部を示す.ここでは,話者の意図した感情の程度が最も的確に聞き手側に伝わったと考えられる話者MTIに対する結果と,逆に,話者の意図した感情の程度が聞き手側にうまく伝わらなかったと考えられる話者MTSに対する結果を示す.図中の点線は聴取実験において得られた評価値の平均値を表している.話者MTIについては,「喜び」に関して感情の程度強の平均値が小さく,また分散も大きくなっているが,それぞれの程度の違いについては有意に区別された.また,「悲しみ」に関しては,それぞれ有意な差があり,話者の意図した程度が聞き手に伝達された.一方,話者MTSについては,「喜び」に関して,すべての程度において評価値の分布が重なった.「悲しみ」に関しても,一部有意な差がないと判断され,明確な有意差を見い出せない組み合わせもあり,必ずしもうまく話者の意図した感情の程度が聞き手に伝わらなかった. \section{韻律的特徴の分析手法} label{ln}\begin{figure}[b]\begin{center}\includegraphics[width=0.8\textwidth]{f0model.eps}\end{center}\caption{$F_0$パターン生成過程モデル}\label{model}\end{figure}韻律的特徴の分析には,藤崎らによって提案された$F_0$パターン生成過程モデル(図~\ref{model})\cite{Fuji3}を用いた.このモデルは,対数$F_0$パターンが句頭から句末に向かって上昇とその後の緩やかな下降を示すフレーズ成分と,語のアクセントに対応して局所的な起伏を示すアクセント成分,および発話単位中で,ほぼ一定値をとるベースライン成分(基底周波数)の総和として表現できるとするものであり,各成分がそれぞれの指令に対する一定の応答から生成されるとしている.このモデルの入力パラメータは,音声を生成する人間の生理的・物理的な特性を捉えたもので,言語的内容とも整合した制御パラメータが得られることが確認されている.河井らは,韻律上の単位を$F_0$パターン生成過程モデルにおけるフレーズ指令・アクセント指令に基づいて定義しており\cite{kawa},本論文でも「韻律語」「韻律句」を同じ定義で取り扱う.すなわち,一つのアクセント指令に対応し,かつ,一定のアクセント型を示す音素連鎖を「韻律語」,また,一つのフレーズ指令に対応する韻律語の連鎖を「韻律句」と定義する.\begin{figure}[b]\begin{center}\includegraphics[width=0.85\textwidth]{sample.eps}\end{center}\caption{$F_0$パターン生成過程モデルに基づく分析例}\label{sample}\end{figure}モデルパラメータである基底周波数$F_b$,フレーズ指令の大きさ$A_{pi}$とその生起位置$T_{0i}$,および,アクセント指令の大きさ$A_{aj}$とその生起位置$T_{1j}$,$T_{2j}$について,録音した音声の$F_0$パターンの分析を行った.具体的にはまず,収録した音声資料を10kHz・16bitでデジタル化し,LPC予測残差に対する変形自己相関関数法を用いて10ms間隔で$F_0$の値を抽出した.その$F_0$パターンに対し,視察によりモデルのパラメータを定め,次にそれを初期値として,AbS法に基づき最良近似を与えるパラメータを求めた.図~\ref{sample}に,「喜び」に関する発話「海が透き通って珊瑚まで見えるよ.」と,「悲しみ」に関する発話「いつまで待っても帰ってこない.」について,$F_0$パターン生成過程モデルに基づいて分析した結果を示す.上から,音声波形,$F_0$の実測値(+印)・モデルによる最良近似(実線)・フレーズ成分(破線)・基底周波数$F_b$(点線),フレーズ指令$A_p$,およびアクセント指令$A_a$を示している. \section{$F_0$パターン制御指令と言語的要因との関係についての検討} label{ex}感情の程度の違いが,$F_0$パターン制御指令の生起タイミングおよび大きさに,どのように影響するかについて,文の言語的要因との関連で求めた.収録音声の感情の程度を聞き手側の観点から主観評価した結果,話し手の意図での感情の程度が最も的確に聞き手に伝達されていた男性話者1名(MTI)の音声資料に対して,検討を行った結果を以下に示す.\subsection{基底周波数$F_b$}図\ref{Fbkekka}は収集した発話について,各発話の感情の程度に対する基底周波数の分布を示したものである.発話セットによる固有の傾向は認められず,また,発話内容に依存する傾向の差は特にみられなかった.以降の検討では,発話セットに関する傾向の違いはないものとする.「喜び」「悲しみ」とも感情の程度が強くなるに従って,基底周波数は高くなる傾向にある.「喜び」では,感情の程度が弱いときはほぼ一定あるいは微増の変化傾向がみられ,感情の程度が強いとき,増加傾向がみられた.一方,「悲しみ」では,感情の程度が強くなるにつれて,ほぼ一様な増加傾向があった.\begin{figure}[t]\begin{center}\includegraphics[width=0.9\textwidth]{fbokisa.eps}\end{center}\caption{感情の程度に対する基底周波数の分布}\label{Fbkekka}\end{figure}\subsection{フレーズ指令$A_p$}\label{Ap}\subsubsection{文節境界におけるフレーズ指令の生起率}文中でのフレーズ指令の生起に関しては,文節境界の枝分かれ種別と,直前のフレーズ指令以降のモーラ数に大きく影響を受けることを予備的に確認した.図~\ref{kekka-1}に文節境界の枝分かれ種別ごとに,感情の程度に対するフレーズ指令の生起率と直前のフレーズ指令以降のモーラ数との関係を示した.「喜び」では,いずれの枝分かれ境界に対しても感情の程度が強くなるにつれて,より短い韻律句の後でも生起率が増加する傾向があった.一方「悲しみ」では,右枝分かれ境界の場合,感情の程度が強くなるに従って生起率が大きく増加し,左枝分かれ境界の場合,感情の程度の影響を受けず生起率はほぼ一定であった.限られたデータ数から得た結果ではあるが,枝分かれ境界種別,直前のフレーズ指令からのモーラ数をパラメータとして,感情の程度の影響が明確に表われることが確認できた.\begin{figure}[t]\begin{center}\includegraphics[width=1.0\textwidth]{Aptiming.eps}\end{center}\caption{直前のフレーズ指令からのモーラ数に対するフレーズ指令生起率}\label{kekka-1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=1.0\textwidth]{Apokisa.eps}\end{center}\caption{感情の程度に対するフレーズ指令の大きさ}\label{kekka-3}\end{figure}\subsubsection{フレーズ指令の大きさ}フレーズ指令の大きさ関しては,その生起位置が文頭の場合と文中の場合とで,感情の程度に対する大きさの変化に違いがみられた.また,文中で生起したフレーズ指令は,その境界の枝分かれ種別により,異なる変化の傾向がみられた.図~\ref{kekka-3}に,文頭・右枝分かれ境界・左枝分かれ境界ごとに,感情の程度に対するフレーズ指令の大きさを示した.感情を込めない中立の発話の場合,フレーズ指令の大きさは,文頭>右枝分かれ境界>左枝分かれ境界,の関係がみられた.中立発話の場合,文の統語構造である切れ目の深さが深いほど,大きなフレーズ指令が生起するものと考えられる.また「喜び」「悲しみ」ともに,感情の程度が強くなると,文頭のフレーズ指令の大きさは小さくなり,左枝分かれ境界のフレーズ指令は大きくなった.右枝分かれ境界のフレーズ指令の大きさは,感情の種類により異なる傾向がみられ,「喜び」では,感情の程度が強くなるに従って,大きくなり,感情の程度強において文頭でのフレーズ指令の大きさとほぼ一致した.一方「悲しみ」では,感情の程度が強くなるに従って,小さくなり,発話内のすべてのフレーズ指令の大きさが近づいた.\subsection{アクセント指令$A_a$}\label{Aa}\subsubsection{アクセント指令の生起タイミング}\begin{table}[b]\begin{center}\caption{立ち上がり・立ち下がりの基準点}\label{basetime}\begin{tabular}{cll}\hline型&立ち上がりの基準点&立ち下がりの基準点\\\hline平板型&第2モーラの母音開始時点&最終モーラの終了時点\\頭高型&第1モーラの母音開始時点&第2モーラの母音開始時点\\起伏型&第2モーラの母音開始時点&アクセント核を持つ次の母音開始時点\\\hline\end{tabular}\end{center}\end{table}表~\ref{basetime}に示すように,各韻律語ごとのアクセント型の情報に基づきアクセント指令の立ち上がり・立ち下がりの基準点を求めた\cite{kawa}.この基準点に対し,$F_0$パターン生成過程モデルを用いた分析によって得られたアクセント指令の立ち上がり・立ち下がりのタイミングの相対時間が感情の程度によってどのように変化するかについて検討を行った.表\ref{onoffset}に基準点に対するアクセント指令の立ち上がり・立ち下がりのタイミングの相対時間の平均値を示した.その結果,感情の有無やその程度の影響はほとんど見られず,アクセント指令の立ち上がり・立ち下がりのタイミングはアクセント型にのみ依存した.したがって,音声合成時に感情の程度を制御するにあたって,アクセント指令のタイミングについて考慮する必要はないことを確認した.\begin{table}[t]\begin{center}\caption{基準点に対するアクセント指令の生起タイミング}\label{onoffset}\begin{tabular}{lcc}\hline&立ち上がり[s]&立ち下がり[s]\\\hline平板型&$-0.077$&$-0.062$\\頭高型&$-0.075$&$\phantom{-}0.027$\\起伏型&$-0.104$&$-0.034$\\\hline\end{tabular}\end{center}\end{table}\subsubsection{アクセント指令の大きさ}\begin{figure}[b]\begin{center}\includegraphics[width=0.9\textwidth]{Aaokisa.eps}\end{center}\caption{文頭からの韻律語数ごとの感情の程度に対するアクセント指令の大きさの増加率}\label{Aakekka}\end{figure}アクセント指令の大きさに関しては,予備的な検討の結果,文頭からの位置(韻律語数)が大きく影響することが分かっている\cite{kw2}.図~\ref{Aakekka}に,感情の程度に対するアクセント指令の大きさの増加率を,文頭からの生起位置に着目して示した.ここでは,中立を0,感情の程度が弱の場合を1,中の場合を2,強の場合を3として,これらの感情の程度の値に対するアクセント指令の大きさの回帰直線を求め,この回帰直線の傾きを増加率と定義し,感情の程度に対する増加率と捉える.つまり,この増加率が大きいということは,感情の程度が強くなるに従って,アクセント指令の大きさがより大きくなるということを表す.「喜び」では,文頭からの位置が離れている韻律語のアクセントに増大傾向がみられ,一方「悲しみ」では,文頭のアクセントに最も顕著に減少の変化傾向がみられた.また,図~\ref{Aakekka1}には,平板型,頭高型,起伏型のアクセント型ごとに,感情の程度に対するアクセント指令の大きさの増加率を示した.「喜び」「悲しみ」いずれの感情においても,平板型・起伏型の韻律語に対するアクセント指令の大きさは,感情の程度の影響を受けずほぼ一定,あるいは,若干の減少傾向がみられた.一方,頭高型の韻律語に対するアクセント指令の大きさは,感情の程度が強くなるにつれて減少する変化傾向がみられた.\begin{figure}[t]\begin{center}\includegraphics[width=0.9\textwidth]{Aaokisa1.eps}\end{center}\caption{アクセント型ごとの感情の程度に対するアクセント指令の大きさの増加率}\label{Aakekka1}\end{figure} \section{あとがき} label{sa}本論文では,表現豊かな感情音声の合成を目的として,「喜び」「悲しみ」の2つの感情を取り上げ,それらの感情の程度と韻律的特徴との関係について,特に$F_0$パターンの特徴に着目して分析を行った.$F_0$パターンの特徴としては,$F_0$パターン生成過程モデルの各パラメータを採用し,得られる結果がテキスト音声合成時に容易に適用できることを目指した.分析の際,テキスト音声合成で考慮される言語的要因との関係について検討を行った.その結果,$F_0$パターン生成過程モデルのパラメータのうち基底周波数,フレーズ指令の大きさ,およびアクセント指令の大きさに関して,感情の程度に対する各パラメータの変化傾向が得られた.また,フレーズ指令の生起に対する感情の程度の影響については,文節境界の枝分かれ種別と直前のフレーズ指令からモーラ数といった言語的要因ごとに異なることを確認した.アクセント指令の生起タイミングに関して,感情の有無や程度の違いが,アクセント型の変形を伴うような影響を与えないことを確認した.本論文で得られた結果は,4文節からなる文発話を対象として変化傾向を求めたものであるが,基底周波数,フレーズ指令の生起位置および大きさについては,他の文節数からなる一般の文への適応が可能であると考えられる.アクセント指令の大きさの変化傾向に関しては,文頭からの文節数が大きく寄与することが明らかとなっており,前述の一般文へ適応可能なパラメータに対する妥当性の検証も含めて,さらなる検討が必要である.また,本論文では,音声合成の工学的な応用を第一の目的として捉え,聞き手に対して感情の種類・程度が的確に表現されている典型的な1名の発話を分析対象とした.しかし,川波らの先行研究\cite{Kawana}によれば,感情表現に関する韻律的特徴には個人差が大きいことが指摘されており,今後,本論文と同様のアプローチにより複数話者の分析を進め,話者に独立な傾向と話者に依存する傾向とに分離して把握することを試みる予定である.さらに,本論文では韻律的特徴として$F_0$パターンのみを分析の対象としたが,筆者らの予備的検討によると,感情の種類によっては,発話速度がその伝達に大きく寄与するという結果を得ており,今後,$F_0$パターンのほか,発話速度,パワーを含めた総合的な韻律制御規則を導出するべく検討を進める計画である.{\renewcommand{\baselinestretch}{}\selectfont\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Banse\BBA\Scherer}{Banse\BBA\Scherer}{1996}]{Rai}Banse,R.\BBACOMMA\\BBA\Scherer,K.~R.\BBOP1996\BBCP.\newblock\BBOQAcousticProfilesinVocalEmotionExpression\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf70}(3),\mbox{\BPGS\614--636}.\bibitem[\protect\BCAY{藤崎}{藤崎}{1994}]{Fuji}藤崎博也\BBOP1994\BBCP.\newblock\JBOQ音声の韻律的特徴における言語的・パラ言語的・非言語的情報の表出\JBCQ\\newblock\Jem{信学技報},\mbox{\BPGS\HC94--09}.\bibitem[\protect\BCAY{Fujisaki\BBA\Nagashima}{Fujisaki\BBA\Nagashima}{1969}]{Fuji3}Fujisaki,H.\BBACOMMA\\BBA\Nagashima,S.\BBOP1969\BBCP.\newblock\BBOQAmodelforthesynthesisofpitchcontoursofconnectedspeech\BBCQ\\newblock{\BemAnnualReportoftheEngineeringResearchInstitute},{\Bbf28},\mbox{\BPGS\53--60}.\bibitem[\protect\BCAY{Hashizawa,Takeda,Hamzah,\BBA\Ohyama}{Hashizawaet~al.}{2004}]{Hasi}Hashizawa,Y.,Takeda,S.,Hamzah,M.~D.,\BBA\Ohyama,G.\BBOP2004\BBCP.\newblock\BBOQOntheDifferencesinProsodicFeaturesofEmotionalExpressionsinJapaneseSpeechaccordingtotheDegreeoftheEmotion\BBCQ\\newblock{\BemSpeechProsody2004},\mbox{\BPGS\655--658}.\bibitem[\protect\BCAY{廣瀬\JBA尾関\JBA高木}{廣瀬\Jetal}{2001}]{Hir}廣瀬幸由\JBA尾関和彦\JBA高木一幸\BBOP2001\BBCP.\newblock\JBOQ日本語読み上げ文の係り受け解析における韻律的特徴量の有効性\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(4),\mbox{\BPGS\71--89}.\bibitem[\protect\BCAY{市川\JBA中山\JBA中田}{市川\Jetal}{1967}]{ITI}市川熹\JBA中山剛\JBA中田和男\BBOP1967\BBCP.\newblock\JBOQ合成音声の自然性に関する実験的考察\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\95--96}.\bibitem[\protect\BCAY{飯田\JBA伊賀\JBA樋口\JBAニック\JBA安村}{飯田\Jetal}{2000}]{Ii2}飯田朱美\JBA伊賀聡一郎\JBA樋口文人\JBAニックキャンベル\JBA安村通晃\BBOP2000\BBCP.\newblock\JBOQ対話支援のための感情音声合成システムの試作と評価\JBCQ\\newblock\Jem{ヒューマンインタフェース学会論文誌},{\Bbf2}(2),\mbox{\BPGS\169--176}.\bibitem[\protect\BCAY{Iida,Campbell,Iga,Higuchi,\BBA\Yasumura}{Iidaet~al.}{1998}]{Ii}Iida,A.,Campbell,N.,Iga,S.,Higuchi,F.,\BBA\Yasumura,M.\BBOP1998\BBCP.\newblock\BBOQAcousticnatureandperceptualtestingofcorporaofemotionalspeech\BBCQ\\newblock{\Bem5thICSLP'98},\mbox{\BPGS\1559--1562}.\bibitem[\protect\BCAY{河井\JBA広瀬\JBA藤崎}{河井\Jetal}{1994}]{kawa}河井恒\JBA広瀬啓吉\JBA藤崎博也\BBOP1994\BBCP.\newblock\JBOQ日本文章音声の合成のための韻律規則\JBCQ\\newblock\Jem{音響誌},{\Bbf50}(6),\mbox{\BPGS\433--442}.\bibitem[\protect\BCAY{川波\JBA広瀬}{川波\JBA広瀬}{1997}]{Kawana}川波弘道\JBA広瀬啓吉\BBOP1997\BBCP.\newblock\JBOQ態度・感情音声における韻律的特徴の考察\JBCQ\\newblock\Jem{信学技報},\mbox{\BPGS\SP97--67}.\bibitem[\protect\BCAY{河津\JBA長島\JBA大野}{河津\Jetal}{2005}]{kw2}河津宏美\JBA長島大介\JBA大野澄雄\BBOP2005\BBCP.\newblock\JBOQ生成過程モデルパラメータに基づく感情制御規則を適用した合成音声の評価\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\229--230}.\bibitem[\protect\BCAY{北原\JBA東倉}{北原\JBA東倉}{1989}]{Kita}北原義典\JBA東倉洋一\BBOP1989\BBCP.\newblock\JBOQ音声の韻律情報と感情表現\JBCQ\\newblock\Jem{信学技報},\mbox{\BPGS\SP88--158}.\bibitem[\protect\BCAY{小林\JBA徳田}{小林\JBA徳田}{2004}]{Koba}小林隆夫\JBA徳田恵一\BBOP2004\BBCP.\newblock\JBOQコーパスベース音声合成技術の動向[4]—HMM音声合成方式—\JBCQ\\newblock\Jem{信学誌},{\BbfJ87}(4),\mbox{\BPGS\322--327}.\bibitem[\protect\BCAY{M.~Dzulkhiflee\JBA武田\JBA大山}{M.~Dzulkhiflee\Jetal}{2003}]{MD}DzulkhifleeHamzah,M.,武田昌一\JBA大山玄\BBOP2003\BBCP.\newblock\JBOQ声優が発声した日本語「喜び」,「悲しみ」表現音声の感情の程度に応じた韻律的特徴の比較\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\367--368}.\bibitem[\protect\BCAY{Nagasaki\BBA\Komatsu}{Nagasaki\BBA\Komatsu}{2004}]{Naga}Nagasaki,Y.\BBACOMMA\\BBA\Komatsu,T.\BBOP2004\BBCP.\newblock\BBOQCanPeoplePerceiveDifferentEmotionsfromaNon-emotionalVoicebyModifyingitsF0andDuration?''\\newblock{\BemSpeechProsody2004},\mbox{\BPGS\667--670}.\bibitem[\protect\BCAY{長島\JBA大野}{長島\JBA大野}{2004}]{Nsima}長島大介\JBA大野澄雄\BBOP2004\BBCP.\newblock\JBOQ感情表現の韻律的特徴の分析—喜びと悲しみについて\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\273--274}.\bibitem[\protect\BCAY{ニック}{ニック}{1997}]{Nikku}ニックキャンベル\BBOP1997\BBCP.\newblock\Jem{プラグマティック・イントネーション:韻律情報の機能的役割}.\newblockくろしお出版.\bibitem[\protect\BCAY{Paeschke}{Paeschke}{2004}]{As}Paeschke,A.\BBOP2004\BBCP.\newblock\BBOQGlobalTrendofFundamentalFrequencyinEmotionalSpeech\BBCQ\\newblock{\BemSpeechProsody2004},\mbox{\BPGS\671--674}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1980}]{PLU}Plutchik,R.\BBOP1980\BBCP.\newblock\BBOQEmotion---APsychoevolutionarySynthesis\BBCQ\\newblock{\BemHarperandRow}.\bibitem[\protect\BCAY{匂坂\JBAニック}{匂坂\JBAニック}{2000}]{Sagi}匂坂芳典\JBAニックキャンベル\BBOP2000\BBCP.\newblock\JBOQ音声合成のための規則とデータの表現,獲得,評価\JBCQ\\newblock\Jem{信学論(D-2)},{\BbfJ83-D-2}(11),\mbox{\BPGS\2068--2076}.\bibitem[\protect\BCAY{重永}{重永}{2000}]{Sige}重永實\BBOP2000\BBCP.\newblock\JBOQ感情判別分析からみた感情音声の特性\JBCQ\\newblock\Jem{信学論(A)},{\BbfJ83-A}(6),\mbox{\BPGS\726--735}.\bibitem[\protect\BCAY{梅村\JBA原田\JBA清水\JBA杉本}{梅村\Jetal}{2000}]{Ume}梅村祥之\JBA原田義久\JBA清水司\JBA杉本軍司\BBOP2000\BBCP.\newblock\JBOQ音声合成におけるポーズ制御のための決定リストを用いた局所係り受け解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\51--70}.\end{thebibliography}}\begin{biography}\bioauthor{河津宏美}{2002年東京工科大学工学部情報通信工学科卒業.同年,同大工学部助手.2005年東京工科大学大学院バイオ・情報メディア研究科コンピュータサイエンス専攻.現在に至る.韻律的特徴の分析・合成に関する研究に従事.電子情報通信学会,日本音響学会,日本シミュレーション学会各会員.}\bioauthor{大野澄雄}{1988年東京大学工学部電気工学科卒.1993年同大大学院工学系研究科電子工学専攻博士課程了.同年,東京理科大学基礎工学部助手.1999年東京工科大学工学部講師.現在,同大コンピュータサイエンス学部助教授.音声言語処理,特に音声の韻律の分析・合成・認識処理の研究に従事.博士(工学).電子情報通信学会,日本音響学会各会員.}\end{biography}\biodate\end{document}
V06N03-06
\section{はじめに} label{sec:intro}計算機上の文書データが増大するにつれ,膨大なデータの中からユーザの求める文書を効率よく索き出す文書検索の重要性が高まっている.文書検索では,ユーザが情報要求を検索要求として表現する.検索システムは,検索要求の内容と各文書の内容との類似度を計算し,値の高い順に文書を並べて表示する.この類似度は,一般に検索要求内のタームとマッチするタームの文書中の重要度を基に計算される.各タームの重要度は,「ある文書に多く出現し,文書集合全体ではあまり出現しないタームほど,その文書中で重要なタームである」という仮定に基づき,文書中の各タームの出現頻度($tf$)および,そのタームの文書集合全体での出現文書頻度の逆数($idf$)に基づいて計算する場合が多い\cite{salton:88b}.伝統的な検索手法では,文書全体を1つのまとまりとして考え,文書中の各タームの重要度を文書全体における重要度として計算する.しかし,実際の文書,特に長い文書は様々な話題を含むため,文書中の各部分によって話題が異なる場合も多く見られる.話題の違いは,その話題が述べられている部分に出現するタームの違いとして現われる.例えば,あるタームが文書中の一部分では頻出し,他の部分ではほとんど出現しないという状況もある.このような文書に対しては,文書全体を分割できない1つの単位とするのでは,各タームの重要度を計算するには充分ではなく,各話題を表わす部分を別々に扱って各タームの重要度を計算することが必要になる.こうした点から,最近の研究では,パッセージを用いた検索が注目されている\cite{Salton:93,Callan:94,Hearst:93,Knaus:94,Moffat:94,Kaszkiel:97,Melucci:98}.パッセージ検索は,文書全体を1つの単位とした検索とは異なり,パッセージという単位を使用して,検索要求と文書の類似度計算を行なう.各タームの重要度は,パッセージにおける重要度として計算する.そのため,パッセージ検索と文書全体での検索では,同じ検索要求と文書に対し,異なる単位によって類似度を計算することになり,統合的に用いることが可能である.パッセージ検索では,どのようにパッセージを決定するかという新たな問題が発生する.良いパッセージが決定できれば検索の精度も向上すると考えられるので,これは重要な問題である.パッセージとは一般的には文書中で連続した一部分のことを言うが,パッセージ検索においては,単に連続した一部分というだけでは充分ではなく,文書中で検索要求の内容と強く関連する内容を持つ意味的なまとまりを形成する必要がある.また,ユーザによって求める情報が異なり,その要求は検索要求によって反映されるという文書検索の性質から,文書検索におけるパッセージは,検索要求が入力された時点で検索要求に応じて動的に計算される方が望ましい.さらに,検索要求に関連する部分が全ての文書で一定のサイズであるということは考え難いことから,パッセージのサイズが検索要求や文書に応じて柔軟に設定されることも良いパッセージの決定につながると考えられる.本研究では検索要求が入力された時点で検索要求と各文書に応じて意味的なまとまりを持つパッセージを動的に決定する手法を示す.意味的なまとまりは,語彙的連鎖\cite{Morris:91}の情報を使用して獲得する.語彙的連鎖(lexicalchain)とは,語彙的結束性(lexicalcohesion)\cite{Halliday:76}と呼ばれる意味的な関連を持つ単語の連続のことをいう.語彙的連鎖は文書中に複数存在し,1つの連鎖の範囲内では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.そのため,文書内で検索要求と関連する話題が述べられている部分を語彙的連鎖の情報を使用して計算できるので,意味的にまとまったパッセージを得ることができる.本研究では,語彙的連鎖を使用することで検索要求に応じた良いパッセージが抽出でき,そのパッセージを使用することで検索精度が向上することを示す.また,上記の主張の有効性を調べるため,いくつかの実験を行う.以下,\ref{sec:passage}節ではパッセージ検索研究の概要について述べ,\ref{sec:lexchain}節では語彙的連鎖の計算方法について述べる.\ref{sec:ourpassage}節では本研究で提案する語彙的連鎖に基づくパッセージ検索手法について述べる.\ref{sec:experiment}節では実験に関して述べ,結果の考察をする. \section{パッセージレベルの文書検索} label{sec:passage}パッセージ検索では,検索要求と各文書との類似度を,文書中の各パッセージとの類似度によって計算\cite{Mittendorf:94,Hearst:93,Melucci:98}したり,文書全体での類似度とパッセージでの類似度を組み合わせて計算\cite{Callan:94,Salton:93,Wilkinson:94,Allan:95}したりする.パッセージの単位には大きく分けて,文書の章,節や形式段落のような形式的な情報に基づくもの\cite{Salton:93,Salton:94b,Moffat:94,Wilkinson:94,Mittendorf:94,Knaus:94},固定長や可変長のウィンドウに基づくもの\cite{Callan:94,Kaszkiel:97,Melucci:98},形式によらない意味的なまとまりに基づくもの\cite{Hearst:93}の3種類がある.文書中の形式段落や章,節という形式的な情報によるパッセージ抽出は,パッセージを著者が決定した構造に従って取り出す手法である.このタイプのパッセージは,検索に先立ってインデキシング時に決定できるため処理が容易であるという利点がある.しかし,現実の文書では同一の話題が複数の段落や章,節などにまたがる場合もある.また,日本語においては,形式的な切れ目と内容の切れ目が一致しない場合がある\cite{tokoro}.このような場合,形式的な情報をパッセージの単位とすると検索精度に悪影響を与える可能性がある.また,このタイプのパッセージは,検索要求に関係なくパッセージの単位を決定する.そのため,検索の精度を向上させる条件として,決定されたパッセージがどのような検索要求に対しても適切な類似度を計算できるパッセージである必要がある.しかし,実際にこのようなパッセージを決定することは困難であり,この点が問題点として指摘されている\cite{Callan:94,Melucci:98}.固定長や可変長ウィンドウによるパッセージは,検索要求が入力された時点でウィンドウをスライドさせながら各文書を走査し,検索要求との類似度が高いウィンドウを関連の高いパッセージとして決定する.このタイプのパッセージ検索は,検索要求に応じて関連するパッセージを決定できるという利点がある一方で,有意なウィンドウサイズを決定しなければならないという問題が生じる.ウィンドウサイズには,固定長\cite{Callan:94,Kaszkiel:97},一定の範囲で変化させる可変長\cite{Kaszkiel:97,Melucci:98}があるが,実際には効果的な検索を実現するために,データベース中の文書の長さや種類によってウィンドウの長さを調整する方法がよくとられている.また,走査において,ウィンドウをスライドさせる幅も問題になる.スライド幅を小さくすると細かな走査が可能になるが,検索にかかるコストが高くなり実用的でなくなる.一方,幅を大きくすると検索コストは軽減されるが,ウィンドウ境界にまたがる部分の影響により検索精度が悪くなる可能性がある.Callanはこの問題に対処するために,入力された検索要求と最初に一致した場所からウィンドウによる走査を開始し,以降のウィンドウは前のウィンドウの中間点から開始するという手法を提案している\cite{Callan:94}.しかし,有意なウィンドウサイズを決定しなけれはならないという問題は依然として残っている.またこのタイプのパッセージは,文書の意味的な要素を反映していないという問題がある.形式によらない意味的なまとまりに基づくパッセージ抽出は,文書の内容に基づいているため最も望ましい方法である.このタイプのパッセージ抽出には,あらかじめ文書を談話セグメント(意味段落)に分割することでインデキシング時にパッセージを決定する方法と,検索要求が入力された時点で検索要求と関連の強い意味的なまとまりとしてパッセージを取り出す方法の2つが考えられる.HearstとPlauntは,前者の方法として,文書をあらかじめ固定長のブロックに区切り,文書中に出現する語の結束性を計算し,結束性を持つ語がブロック間にまたがっている割合の多いブロックどうしをまとめ,談話セグメント,すなわちパッセージを形成する\cite{Hearst:93}.しかし,形式的な情報を用いる場合と同様に,検索要求に関係なくパッセージが決定されるため,どのような検索要求にも適切なパッセージを仮定しているという問題がある.また,文書の談話セグメントへの分割は多くの研究者によって行われているが\cite{Kozima:93,Hearst:94,Litman:95,Mochizuki:98},現在のところ充分な精度での談話セグメントへの分割は達成されていない.しかし,厳密に談話セグメントを計算する代わりに,比較的浅い処理を用いて文書中の意味的にまとまった部分を取り出すことは可能である.例えば,語彙的連鎖\cite{Morris:91}を計算すると,文書中の語彙ごとに意味的にまとまった部分を計算できる.この語彙的連鎖の情報を使用することで,意味的なまとまりに基づくパッセージ抽出の後者の方法が実現できる.すなわち,検索要求が入力された時点で検索要求と一致する語彙に関する語彙的連鎖が出現する部分をまとめることで検索要求と関連するパッセージが取り出せる.次節では,我々がパッセージの決定に使用する語彙的連鎖の計算方法について説明する. \section{語彙的連鎖の計算} label{sec:lexchain}語彙的連鎖とは文書中で互いに意味的な関係を持つ語の連続のことである.例えば,\vspace*{1em}膨張を続ける宇宙の中で数多くの星が誕生,消滅を繰り返しました.そして宇宙の誕生から約100億年後,他の星と同じ様にして,原始太陽を中心にして原始太陽系星雲と呼ばれるガスの円盤を作りました.\vspace*{1em}\noindentという文章中には,意味的に関連のある語の集まり\{星,星,星雲\}が共起する.このような語の集まりを語彙的連鎖と呼ぶ.一般に語彙的連鎖は文書中に複数存在し,1つの連鎖が出現している範囲では,その連鎖を構成する語に関する話題が述べられていると考えることができる.語彙的連鎖形成の基準としては,表層形式が一致するタームの連続(同一タームの反復),シソーラス上の同一概念に属するタームの連続,共起しやすいタームの連続などが考えられる.以降では本研究で使用する語彙的連鎖の計算手法について説明する.なお,本研究では,文書中の各文を形態素解析し\cite{Chasen:97j},名詞,動詞,形容詞をタームとして取り出す.語彙的連鎖は,この名詞,動詞,形容詞についてのみ計算する.\subsection{同一タームの反復に基づく語彙的連鎖}\label{ssec:repetition}同一タームの反復に基づく語彙的連鎖は,最も単純な手法である.表層形式の同じタームは互いに意味的に関連のあるタームと考え連鎖を構成する.\subsection{シソーラス上の同一概念に基づく語彙的連鎖}\label{ssec:thesaurus}シソーラス上の同一概念に属するタームを互いに意味的に関連のあるタームと考え,連鎖を構成する.シソーラスを使用する場合,1つのタームが複数の概念に含まれる場合には,語義曖昧性の問題が発生する.そのため,語義曖昧性を解消しつつ語彙的連鎖を生成する手法\cite{okumura:94a}により語彙的連鎖を生成する.語彙的連鎖生成の手法を要約すると次のようになる.語彙的連鎖を漸進的に生成する過程で,語彙的連鎖の候補を最近更新されたものが上位に来るようにスタック状に管理し,スタックの上位にある語彙的連鎖の候補から順に,現在解析中の語との結束性を調べる.このスタック構造により,解析中の語の近傍の文脈を得ることができるので,語義曖昧性解消をしつつ,語彙的連鎖を生成することが可能となる.本研究では,シソーラスに角川類語新辞典\cite{kadokawa}を使用する.角川類語新辞典では,概念体系を大分類,中分類,小分類の3階層に分類しているが,小分類を使用する\footnote{小分類は$1000$分類あるが,語彙的連鎖形成の基準として考慮しない方が良いと考えられる\{508:接尾辞,509:接辞,828:単位,829:助数詞および834:接辞\}の5つの分類を除く.}.\subsection{語の共起関係に基づく語彙的連鎖}\label{ssec:cooccurrence}このタイプの語彙的連鎖は,既存のシソーラスを使用しない.文書コーパスの共起情報からターム間の共起の強さである共起スコアを計算する.このスコアを用いてタームのクラスタを構成する.1つのクラスタ内のタームの連続が1つの語彙的連鎖となる.本研究では,ターム$X$と$Y$の共起スコアを式(\ref{equ:cosdis})のコサイン距離によって計算する.\begin{equation}\label{equ:cosdis}coscr(X,Y)=\frac{\sum_{i=1}^{n}x_{i}\timesy_{i}}{\sqrt{\sum_{i=1}^{n}x_{i}^{2}}\times\sqrt{\sum_{i=1}^{n}y_{i}^{2}}}\end{equation}\noindentここで,$x_{i}$と$y_{i}$はそれぞれ文書$i$にターム$X$と$Y$の出現する数($tf$)を表わし,$n$はコーパスの全文書数を表わす.また,クラスタリングにおけるクラスタ間の類似尺度には式(\ref{equ:min})の最短距離法を用いる.\begin{equation}\label{equ:min}sim(C_i,C_j)=\max_{X,Y}coscr(X\inC_i,Y\inC_j)\end{equation}\noindentここで$X,Y$はそれぞれクラスタ$C_i$内,$C_j$内のタームである.この共起スコアを使用した文書ごとの語彙的連鎖の計算は,次のように行なう.文書の先頭から順に1文を取り出し,1文内のタームの共起スコアを計算する(式(\ref{equ:cosdis})).1ターム1クラスタから開始し,クラスタ間の類似度をタームの共起スコアを基に式(\ref{equ:min})により計算する.類似度が高い順に,閾値以上の類似度を持つクラスタをマージすることで,クラスタリングを行なう.1文内での処理が終了した後に,その時点までに作成された文書全体でのクラスタと今計算した1文内でのクラスタによる2段階目のクラスタリングを1文内の場合と同様に行なう.これを文書内の文がなくなるまで繰り返す.共起関係に基づく語彙的連鎖生成アルゴリズムは次のようになる.\begin{tabbing}{\bfステップ1.}\\\quad\={\bfif}(文書から取り出す文がない)\\\>\quad\=終了\\\>{\bfelse}\\\>\quad\=文書から1文を取り出し,{\bfステップ2}へ\\{\bfステップ2.}1文内のタームのクラスタリング\\\quad\={\bfステップ2-1.}\\\>\quad\=1文内のすべてのタームペア間の共起スコアをコサイン距離(式(\ref{equ:cosdis}))\\\>\>により計算する\\\quad\={\bfステップ2-2.}\\\>\quad\=1ターム1クラスタとしてクラスタを形成する\\\quad\={\bfステップ2-3.}\\\>\quad\={\bfif}(クラスタが1つである)\\\>\>\quad\={\bfステップ3}へ\\\>\>{\bfelse}\\\>\>\quad\=すべてのクラスタペア間の類似度を最短距離法(式(\ref{equ:min}))により計算する\\\quad\={\bfステップ2-4.}\\\>\quad\={\bfif}(類似度の最も高いクラスタペアの類似度が閾値以上である)\\\>\>\quad\=クラスタペアをマージし,{\bfステップ2-3}へ\\\>\>{\bfelse}\\\>\>\quad\={\bfステップ3}へ\\{\bfステップ3.}文書全体のタームのクラスタリング\\\quad\={\bfステップ3-1.}\\\>\quad\={\bfif}(文書全体のクラスタが存在しない)\\\>\>\quad\={\bfステップ2}で計算したクラスタを文書全体のクラスタとする\\\>\quad\={\bfelse}\\\>\>\quad\={\bfステップ2}で計算した1文内の各クラスタ内の各タームと,\\\>\>\>文書全体の各クラスタ内の\\\>\>\>タームとの共起スコアをコサイン距離(式\ref{equ:cosdis}))により計算する\\\quad\={\bfステップ3-2.}\\\>\quad\={\bfif}(マージするクラスタがない)\\\>\>\quad\={\bfステップ1}へ\\\>\quad\={\bfelse}\\\>\>\quad\=1文内のクラスタと文書全体のクラスタの\\\>\>\>全ペア間の類似度を最短距離法(式(\ref{equ:min}))により計算する\\\quad\={\bfステップ3-3.}\\\>\quad\={\bfif}(類似度の最も高いクラスタペアの類似度が閾値以上である)\\\>\>\quad\=クラスタペアをマージし,{\bfステップ3-2}へ\\\>\>{\bfelse}\\\>\>\quad\={\bfステップ1}へ\\\end{tabbing}\subsection{有意な連鎖の選択}\label{ssec:lexselect}計算された語彙的連鎖の中には重要と考え難いものも含まれる.例えば,図\ref{fig:leximg}の語彙的連鎖を考える.図\ref{fig:leximg}では,連鎖A,B,C,D,Eの5種類の連鎖が計算されているが,連鎖CとEは連鎖を形成するタームが極端に少ないうえに,出現する位置が互いに非常に離れている.このような連鎖は重要ではなく有意な連鎖と認めない方が良いと思われる.一方,連鎖A,BおよびDは形成するタームの数が全体的に多く,文書のある部分で高密度で出現していることがわかる.また,連鎖Bでは,14語目から23語目までの間および,28語目から36語目の間というタームの出現しない部分が存在する.これを我々は語彙的連鎖のギャップと呼ぶ.このようなギャップが存在する場合,同一の連鎖であっても,ギャップの区間ではその連鎖に関連する話題が述べられていないと考えられるため,ギャップで一旦連鎖を切り離して別の連鎖として計算した方が良い.\begin{figure}[htbp]\begin{center}\epsfile{file=chain_img.eps,scale=0.65}\caption{語彙的連鎖の例}\label{fig:leximg}\end{center}\end{figure}そこで,有意な連鎖を選択するために,連鎖およびギャップの長さを考慮した以下の制約を設ける.\begin{itemize}\itemギャップ長の閾値を設定し,連鎖を構成するタームが閾値以上の間出現しない場合は,連鎖を切り別々の連鎖とする.\item連鎖長の閾値を設定し,連鎖の覆う範囲が閾値以上の長さをもつ連鎖だけを有意な連鎖とする.\end{itemize}図\ref{fig:leximg}の連鎖Bを例にとると,図\ref{fig:decidechn}のように,ギャップ長閾値において連鎖Bは部分連鎖B1,B2,B3に分割される.次にそれぞれの部分連鎖に対して連鎖長の閾値の制約を適用することで,部分連鎖B2,B3は連鎖と認められなくなる.結果として元の連鎖Bの中で,部分連鎖B1だけが有意な連鎖として残される(図\ref{fig:decidechn}).図\ref{fig:leximg}の連鎖CおよびEも同様の閾値によって有意な連鎖と認められなくなる.\begin{figure}[htbp]\begin{center}\epsfile{file=decide_chain.eps,scale=0.75}\caption{有意な語彙的連鎖の例}\label{fig:decidechn}\end{center}\end{figure} \section{語彙的連鎖に基づくパッセージ検索} label{sec:ourpassage}前節で説明した語彙的連鎖を使用した我々のパッセージ検索手法について述べる.我々のパッセージ検索手法は基本的に次のような手法に基づく.まず,入力された検索要求内の各タームと関連する語彙的連鎖の文書内での出現位置と,その連鎖の重要度を文書ごとに取り出す.次に,各文書ごとに出現位置の重複する語彙的連鎖をまとめ,1つのパッセージとする.各パッセージ内の語彙的連鎖の重要度を足し合わせることにより検索要求と各パッセージの類似度を計算する.以下では語彙的連鎖の重要度の計算方法,連鎖のインデキシングおよび検索要求と関連の強いパッセージの抽出手法について順に説明する.\subsection{語彙的連鎖の重要度}\label{ssec:lexweighting}各連鎖の重要度は,ある文書に多く出現し,文書集合全体ではあまり出現しないタームほどその文書内で重要なタームであるという$tf*idf$の考えに基づいて決定する.すなわち,ある文書内で多くのタームから構成される連鎖で,文書集合全体ではあまり出現しない連鎖ほどその文書内で重要な連鎖であると考え,文書$d$内の語彙的連鎖$C_{d}$の重要度$w_{C_d}$を次のように定義する.シソーラスおよび同一タームの反復を使用する場合,\begin{equation}\label{equ:cweight_lex}w_{C_d}={\midC_{d}\mid}\timeslog(N/n_{C_{d}})\end{equation}共起タームを使用する場合,\begin{equation}\label{equ:cweight_co}w_{C_d}={\midC_{d}\mid}\timeslog(N/\max_{c\inC_{d}}n_{c})\end{equation}ここで,$\midC_d\mid$は語彙的連鎖$C_{d}$を構成するタームの総数,$N$はデータベース中の全文書数,$n_{C_{d}}$は連鎖$C_{d}$と同一の概念に属する連鎖が出現する文書の数,$max_{c\inC_{d}}n_{c}$は,連鎖$C_{d}$を構成するタームの出現する文書数の中で最大の値をそれぞれ示している.シソーラスを使用する場合,各タームの属する概念があらかじめ決っているため,全文書中に現れる各概念の数も計算できる.同一タームの反復の場合も同様である.一方,共起タームに基づき文書ごとに計算した連鎖の場合,連鎖を構成するタームの種類も文書ごとに異なるため,シソーラスのように出現する文書数を計算できない.例えば,タームAとBがある文書で連鎖を構成し,別の文書でタームBとCが連鎖を構成した場合,タームAおよびCの出現する文書は1つであるが,タームBは2つの文書に出現することになる.そのため,連鎖の出現文書頻度としては連鎖を構成するタームの内,もっとも多くの文書に出現するタームの情報を使用することにした.\subsection{語彙的連鎖のインデキシング}\label{ssec:lexindexing}検索時にタームの属する語彙的連鎖の出現文書と文書中の出現位置および連鎖の重要度を取り出す必要があるため,まず語彙的連鎖のインデキシングを行う.インデックスは,(連鎖を構成するターム,文書ID,連鎖ID[出現範囲],重要度)\noindentという形式からなる.例として,文書00001に出現する連鎖A1\{星,星,星雲,星\}と,連鎖A2\{星,太陽,月,星\}の2つの連鎖のインデキシングを考える.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hline(星,00001,A1[1-36],xxxx)\\(星雲,00001,A1[1-36],xxxx)\\(星,00001,A2[93-116],yyyy)\\(太陽,00001,A2[93-116],yyyy)\\(月,00001,A2[93-116],yyyy)\\\hline\end{tabular}\caption{インデキシングの例}\label{fig:index}\end{center}\end{figure}図\ref{fig:index}のように,インデキシングすることにより,タームの属する連鎖の出現文書と文書中の出現位置および重要度を効率良く取り出すことができる.例えば,図\ref{fig:index}のインデックスを使用すると,『星』というタームから文書00001の連鎖A1と連鎖A2が検索でき,連鎖A1の範囲はテキスト00001の1語目から36語目まで,連鎖A2の範囲は93語目から116語目までであることがわかる.\subsection{検索要求と関連の強いパッセージの計算}\label{ssec:calcpassage}前節で作成したインデックスを使用することで,検索要求と関連の強いパッセージが計算できる.計算は以下の手続きで行う.\begin{enumerate}\item検索要求を形態素解析し,検索要求内のタームとして名詞,動詞,形容詞を選択する.\item検索要求内の各タームごとにインデックスを索き,語彙的連鎖の出現位置の情報を得る.\item検索要求内のタームにマッチした連鎖の含まれる文書ごとに,出現する各連鎖をまとめパッセージの範囲を決定する.パッセージの範囲は次のように決定する.まず,文書中に出現する各語彙的連鎖のうち,出現位置に重なりのある連鎖どうしを1つのパッセージ候補としてマージする.この処理を出現位置に重なりのある連鎖がなくなるまで繰り返し,最終的に残ったパッセージ候補をパッセージとする.1つのパッセージの範囲は,パッセージ内の最初の語彙的連鎖が始まるタームから最後の語彙的連鎖が終了するタームまでである.\item各パッセージと検索要求との類似度を計算する.\\次のようなパッセージは検索要求と強く類似していると考えられる.\begin{itemize}\itemより多くの検索要求内のタームと関連する語彙的連鎖を含むパッセージ.\item重要度の高い語彙的連鎖を多く含むパッセージ.\item各語彙的連鎖の出現位置の重なっている部分が多いパッセージ.\end{itemize}そこで,本研究では上記の条件を満たすパッセージほど検索要求との類似度が高くなるように,パッセージ内の連鎖の出現数,重要度および連鎖どうしの重なりを考慮してパッセージと検索要求の類似度を計算する.まず,式(\ref{equ:passcr0})により,検索要求内のターム$q_{k}$と対応する語彙的連鎖$c_{k}$との類似度$cw_{k}$を計算する.\begin{equation}\label{equ:passcr0}cw_{k}=(tf_{q_{k}}\timeslog(N/n_{k}))^2\timesw_{C_{k}}\end{equation}ここで,$tf_{q_{k}}$は検索要求内のターム$q_{k}$の検索要求内の頻度,$N$は全文書数,$n_{k}$はターム$q_{k}$の出現する文書数であり,$w_{C_{k}}$はターム$q_{k}$に対応する語彙的連鎖$C_{k}$の重要度である.次に,$cw_{k}$を連鎖の長さ$cl_{k}$で割ることにより,連鎖の範囲内の各ターム$j$のスコア$cw_{k,j}$を計算する(式(\ref{equ:passcr1})).\begin{equation}\label{equ:passcr1}cw_{k,j}=cw_{k}/cl_{k}\end{equation}\vspace{6mm}次に検索要求内のターム毎の各スコア$cw_{k,j}$をパッセージの開始位置から終了位置まで足しながら各位置での連鎖の重なりに応じて重みをかける(式(\ref{equ:passcr})).\begin{equation}\label{equ:passcr}sim(Q,P_{i})=\sum_{j=begin_{i}}^{end_{i}}(\sum_{k=1}^{\midQ\mid}cw_{k,j})\times(\midq_{j}\mid^2/\midQ\mid^2)\end{equation}ここで,$Q$は検索要求,$P_{i}$はパッセージ$i$であり,$begin_{i}$,$end_{i}$はそれぞれパッセージ$P_{i}$の開始するタームの位置および終了するタームの位置を表す.$cw_{k,j}$は語彙的連鎖$k$の位置$j$におけるスコアである.$\midQ\mid$は検索要求内のタームの数,$\midq_{j}\mid$は検索要求内のタームに対応する連鎖の内,パッセージ$P_{i}$内の$j$番目のタームを範囲に含んでいる連鎖の数である.\end{enumerate}\begin{figure}[htbp]\begin{center}\epsfile{file=pasimg.eps,scale=0.75}\caption{パッセージの例}\label{fig:pasimg}\end{center}\end{figure}例として,図\ref{fig:pasimg}を考える.図\ref{fig:pasimg}には,検索要求内のタームとして入力された3つのターム(それぞれ黒い丸,グレーの丸,四角で表されている)と,インデックスを索くことによりマッチした文書の1つが示されている.この文書中には検索要求内のタームとマッチする語彙的連鎖A1,A2,B1,B2,C1,C2,C3が存在している.この例では,連鎖A1およびA2は黒い丸で表わされた検索要求内のタームに,連鎖B1およびB2はグレーの丸で表わされた検索要求内のタームに,また連鎖C1,C2およびC3は四角で表わされた検索要求内のタームにそれぞれマッチする.ここで各語彙的連鎖をパッセージ候補とし,その範囲を調べる.次に重複した範囲を持つ連鎖どうしを1つのパッセージ候補としてまとめる作業を繰り返すことにより,最終的なパッセージを決定する.図\ref{fig:pasimg}では3つのパッセージが決定されており,パッセージ1には語彙的連鎖A1,B1,C1,パッセージ2にはA2,C2,パッセージ3にはB2,C3がそれぞれ含まれている.次に各パッセージと検索要求との類似度を計算する.例えば,パッセージ1では,連鎖A1の範囲が1語目から36語目の36語,B1の範囲が3語目から59語目の57語,C1の範囲が17語目から63語目の44語である.従って各連鎖と検索要求内のタームの類似度$cw_{k}$を,それぞれ36,57,44で割ることにより,$cw_{k,j}$を求める.パッセージ1のスコアは$j$を1語目から63語目まで変化させながら,対応する$cw_{k,j}$を足して求める.この時,3語目から16語目までは,A1とB1が重なり,17語目から36語目まではA1,B1とC1が重なり,37語目から63語目まではB1とC1が重なっているためそれぞれの重みをかける.これにより,各文書中の各パッセージごとに検索要求との類似度が計算できる. \section{実験} label{sec:experiment}前節までで述べた我々のパッセージ検索の有効性を調べるため,伝統的な文書全体によるキーワード検索(以下,キーワード検索),パッセージ検索として代表的である形式段落に基づくパッセージ検索およびウィンドウに基づくパッセージ検索と,我々の語彙的連鎖に基づくパッセージ検索による比較実験を行う.また,各パッセージ検索を単独で行う場合とパッセージ検索とキーワード検索を組み合わせた場合の比較も行う.実験には,『情報検索システム評価用テストコレクションBMIR-J2』\cite{BMIR-J2:98j}を使用する.BMIR-J2は,対象文書5080件(1994年の毎日新聞から選択した経済および工学,工業技術一般に関連する記事),検索要求50種と対応する正解がセットとなっているテストコレクションである.50の検索要求には5種類の機能分類がされており,研究課題に応じて使用する検索要求を選ぶことが出来るようになっている.また,正解判定にはA,Bの2ランクがあり,Aは検索要求を主題とする記事,Bは検索要求の内容を少しでも記述している記事をそれぞれ表わしている.パッセージ検索は,文書中で強く関連する部分を取り出すという性質から,本研究の正解判定には,主題を表わすAランクを使用する.また,パッセージ検索は特に長い文書で有効であると考えられるため,全5080件の内比較的長い文書として1600バイト以上の文書904件を選択したセット(セット1)を使用する.また,5080件全てを使用するセット2による実験も行う.検索要求は全50の内,数値・レンジ機能\footnote{システムに求められる機能として『数の数え上げや,数値などの範囲を正しく解釈する.数値の大小比較や単位の理解・変換なども含む』が要求される.}および知識処理機能\footnote{システムに求められる機能として『世界知識を利用する.常識的な判断や,蓄積された事実からの推論などを含む』が要求される.}を必要とする検索要求以外の検索要求から,セット1において正解文書数が5文書を越える検索要求をすべて選択して使用する.本研究では,後述するように評価尺度として再現率と適合率を使用する.このような評価尺度を用いる場合,正解文書数の少ない検索要求を使用すると統計的な信頼性が低下する.そのため,本実験で使用するテストコレクションにおいて信頼性の基準とされている5文書以上の正解を持つ検索要求だけを使用することにした.また,各文書には見出しが付いているが,本文と合せて1つの文書として扱う.テストコレクションの特徴を表\ref{tab:collection}にまとめる.\begin{table}[htbp]\begin{center}\caption{テストコレクションの特徴}\label{tab:collection}\begin{tabular}{lcc}\hline&セット1&セット2\\\hline文書数&904&5080\\検索要求数&8&8\\正解文書数&52&197\\平均正解文書数&6.5&24.6\\平均文書長(バイト数)&1785.8&1236.1\\平均文書長(ターム数)&199.5&142.1\\平均文数&19.1&12.9\\\hline\end{tabular}\end{center}\end{table}\vspace{-5mm}次に本研究で実装した各検索手法について説明する.すべての手法において,文書を形態素解析し,名詞,動詞,形容詞を取り出しインデキシング用のタームとする.また,パッセージ検索では同一文書内で検索要求とマッチするパッセージが複数ある場合には,類似度が最大のものを選択し検索要求と各文書の類似度として使用する.\subsection{キーワード検索}\label{subsec:keyword}1つの文書内のターム$t$の重みは,タームの文書内の出現頻度$tf$およびタームの文書集合全体での出現文書頻度の逆数$idf$に基づく一般的な$tf*idf$の式(\ref{equ:tfidf})により計算し,文書をタームの重みつきベクトル$D$で表現する.\vspace{-2mm}\begin{equation}\label{equ:tfidf}w_{t}=tf_{t}\timeslog(N/n_{t})\end{equation}\noindentここで,$tf_{t}$は文書内でのターム$t$の出現頻度,$N$は全文書数,$n_{t}$はターム$t$が出現する文書の数である.検索要求ベクトル$Q$と文書ベクトル$D$との間の類似度は次式で計算する.\begin{equation}\label{equ:normsim}sim(Q,D)=\sum_{t}(tf_{q_{t}}/log(N/n_{t}))^2\timesw_{t}\end{equation}\noindentここで,$tf_{q_{t}}$は検索要求内のターム$q_{t}$の検索要求内の頻度である.\subsection{形式段落に基づくパッセージ検索}\label{subsec:formpara}このタイプのパッセージ検索では,見出しと形式段落をそれぞれ1つのパッセージとして扱う.パッセージ毎の各タームの重要度は式(\ref{equ:tfidf})と同様であり,検索要求とパッセージの類似度は式(\ref{equ:normsim})と同様であるが,$tf_{t}$はパッセージ内に出現するターム$t$の数,$N$は全段落数であり,$n_{t}$はターム$t$の出現する段落の数となる.セット1(904文書)は,7949段落に分割され,1文書平均8.8段落であり,1段落当り平均28.2タームである.セット2(5080文書)は,31904段落に分割され,1文書平均6.3段落であり,1段落当り平均27.9タームである.\subsection{固定長ウィンドウに基づくパッセージ検索}\label{subsec:window}サイズ$l$の固定長ウィンドウによりパッセージを作る.Callanの手法\cite{Callan:94}と同様に,検索要求にマッチするタームが最初に出現した位置から走査を開始し,$\frac{l}{2}$ずつウィンドウをずらしながらクエリーとの類似度を計算する.ウィンドウ内のタームの重要度は式(\ref{equ:tfidf})と同様であり,各ウィンドウと検索要求の類似度は式(\ref{equ:normsim})で計算されるが,$tf_{t}$はウィンドウ内に出現するターム$t$の数となる.本研究では,ウィンドウのサイズを,$20,40,80,\cdots,300$までの範囲で20刻みに設定しそれぞれのサイズで実験を行う.本研究で用いたほとんどの文書データにおいて,文書全体となる値である300をウィンドウサイズの上限とした.\subsection{語彙的連鎖に基づくパッセージ検索}\label{subsec:lexpas}\ref{sec:lexchain}節で述べた手法により語彙的連鎖を計算し,\ref{sec:ourpassage}節で述べた手法によりパッセージと各検索要求の類似度を計算する.検索要求との類似度が最大のパッセージを検索要求と関連の高いパッセージとし,その類似度を検索要求と文書の類似度とする.\begin{equation}\label{equ:maxpas}sim(Q,D)=\max_{i}sim(Q,P_{i})\end{equation}\noindentここで,$sim(Q,P_{i})$は式(\ref{equ:passcr})によって求められる.\ref{ssec:lexselect}節で述べたように,語彙的連鎖に基づくパッセージでは,有意な連鎖を選択するための2つの制約,ギャップ長の制約と連鎖長の制約を課す.今回の実験では,両制約とも閾値を文書内のターム数の$1/4,1/8,1/16,1/32$の4通りに変化させ$4*4=16$通りの組み合わせを用いて実験する.連鎖長,ギャップ長は,文書内のターム数に対してどのくらいの割合になるかを考慮して,長めである$1/4$から短かめである$1/32$までの範囲とした.また,タームの共起スコアに基づく語彙的連鎖の計算では,\ref{ssec:cooccurrence}節で述べたように,連鎖の決定に共起スコアの閾値を用いる.今回の実験では,$0.2,0.25,0.3,0.35,0.4$の各閾値について連鎖を計算して実験を行う.この閾値は,予備的な語彙的連鎖構成実験により,$0.2$より小さいとまとまり過ぎ,$0.4$より大きいと細かくなり過ぎる傾向が見られたため,この範囲に決定した.なお,共起スコアの計算では大規模なコーパスが必要となるため,テストコレクションと同じ毎日新聞94年の記事1年分(約10万記事)を使用する.\subsection{キーワード検索とパッセージ検索の統合}形式段落,ウィンドウおよび語彙的連鎖に基づくパッセージ検索とキーワード検索とを統合した検索を行う.数多くの統合手法が考えられるが,本研究では次の統合手法を実装して実験を行う.検索要求$Q$に対する文書$D$のキーワード検索,パッセージ検索における類似度を,それぞれの最大の類似度で割って正規化し足し合わせた値を$D$の類似度として計算する.\begin{equation}sim(Q,D)=\frac{ksim}{\displaystyle{\max_{i}ksim_{i}}}+\frac{psim}{\displaystyle{\max_{i}psim_{i}}}\end{equation}\noindentここで,$ksim$は\ref{subsec:keyword}節で述べたキーワード検索による文書$D$の類似度であり,$\displaystyle{\max_{i}ksim_{i}}$はキーワード検索の中で検索要求$Q$との類似度が最大の文書の類似度である.$psim$はパッセージ検索による文書$D$の類似度であり,$\displaystyle{\max_{i}psim_{i}}$はパッセージ検索の中で検索要求$Q$との類似度が最大の文書の類似度を表わす.パッセージ検索の類似度は,形式段落型を使用する場合は\ref{subsec:formpara}節,ウィンドウ型は\ref{subsec:window}節,語彙的連鎖型は\ref{subsec:lexpas}節で述べた手法によりそれぞれ計算する.この統合手法では,パッセージとキーワードでの検索の両方の類似度が相対的に高い文書が上位にランクされる.\subsection{比較実験}\label{subsec:experiments}前節の4つの検索手法を使用して以下の組み合わせで実験を行う.\begin{enumerate}\itemキーワード検索(document)\item形式段落に基づくパッセージ検索(formpara)\item固定長ウィンドウに基づくパッセージ検索(window)\item語彙的連鎖に基づくパッセージ検索\begin{enumerate}\item[(4-a)]同一タームの反復による語彙的連鎖(repetition)\item[(4-b)]シソーラスによる語彙的連鎖(thesaurus)\item[(4-c)]共起タームによる語彙的連鎖(cooccurrence)\end{enumerate}\item(1)と(2)の組み合わせ(formpara\_doc)\item(1)と(3)の組み合わせ(window\_doc)\item(1)と(4)の組み合わせ\begin{enumerate}\item[(7-a)](1)と(4-a)(repetition\_doc)\item[(7-b)](1)と(4-b)(thesaurus\_doc)\item[(7-c)](1)と(4-c)(cooccurrence\_doc)\end{enumerate}\end{enumerate}評価尺度には,再現率($Recall$)と適合率($Precision$)を使用する.$再現率$は全正解文書の内,システムによって正しく検出された文書の割合を示す.$適合率$はシステムが関連すると判断した文書の内,実際に正解文書であるものの割合を示す.$再現率$,$適合率$は次式で表わされる.\begin{equation}\label{equ:recall}再現率=\frac{システムにより検出された正解文書数}{全ての正解文書数}\end{equation}\begin{equation}\label{equ:precision}適合率=\frac{システムにより検出された正解文書数}{システムが検出した文書数}\end{equation}但し,各検索要求に対するシステムの出力を上位$M$位までとする.本研究では,$M$を上位2位から26位まで2文書刻み($M=2,4,\cdots,26$)にし各$M$の時点で全検索要求による適合率,再現率の平均を計算する\footnote{検索要求によっては出力数が$M$個に満たない場合が存在するが,式(\ref{equ:precision})の右辺の分母を$M$にして計算している.}.実験結果を図\ref{fig:ex5}から図\ref{fig:ex8}に示す.図\ref{fig:ex5}と\ref{fig:ex6}はセット1の結果であり,図\ref{fig:ex7}と図\ref{fig:ex8}はセット2の結果である.図\ref{fig:ex5}と図\ref{fig:ex7}は,各パッセージ検索単独と文書全体の検索の結果である.図\ref{fig:ex6}と図\ref{fig:ex8}は,各パッセージ検索とキーワード検索の統合手法の結果である.また,前節までで述べた各検索実験にはさまざまなパラメータが存在しているが,各$M$における平均適合率が最大になる場合を最適なパラメータ値であると推定した.パッセージ検索の主な効果としては,キーワード検索に比べ適合率を向上させることが期待される.そのため,パラメータ値の推定には再現率を考慮せず,適合率のみを考慮した.図\ref{fig:ex5}から図\ref{fig:ex8}には,最も良かった場合の結果を示している.最も良い結果が得られた各パラメータの値と,その際の平均パッセージサイズおよびパッセージサイズの標準偏差を表\ref{tab:bestparam}に示す.\begin{table}[htbp]\begin{center}\caption{結果の良かったパラメータの値}\label{tab:bestparam}\begin{tabular}{lccccc}\hline&共起&{\small同一ターム}&{\smallシソーラス}&{\smallウィンドウ}&{\small形式段落}\\\hline\multicolumn{6}{c}{セット1}\\\hline共起スコア閾値&0.25&-&-&-&-\\連鎖閾値{\small(ターム数/*)}&8&32&32&-&-\\ギャップ閾値{\small(ターム数/*)}&4&8&8&-&-\\ウィンドウサイズ&-&-&-&260&-\\\hline平均パッセージサイズ&96.0&81.9&64.9&260&43.4\\標準偏差&52.3&68.4&46.5&-&19.3\\\hline\hline\multicolumn{6}{c}{セット2}\\\hline共起スコア閾値&0.25&-&-&-&-\\連鎖閾値{\small(ターム数/*)}&8&32&32&-&-\\ギャップ閾値{\small(ターム数/*)}&4&4&8&-&-\\ウィンドウサイズ&-&-&-&240&-\\\hline平均パッセージサイズ&66.9&67.5&50.7&240&41.5\\標準偏差&46.9&49.6&37.8&-&17.5\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\epsfile{file=res1600btpasa.ps,scale=0.48}\caption{1600bytes以上の文書セット1を使用(パッセージのみ)}\label{fig:ex5}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=res1600bthba_.ps,scale=0.48}\caption{1600bytes以上の文書セット1を使用(統合)}\label{fig:ex6}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=respasa.ps,scale=0.48}\caption{全文書セット2を使用(パッセージのみ)}\label{fig:ex7}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=reshba.ps,scale=0.48}\caption{全文書セット2を使用(統合)}\label{fig:ex8}\end{center}\end{figure}\newpage\subsection{考察}\label{subsec:kousatsu}パッセージ検索単独では,セット1の場合(図\ref{fig:ex5}),ウィンドウ型がキーワード検索単独とほぼ同じであり,形式段落,語彙的連鎖のパッセージの中では共起による語彙的連鎖型が一番良いものの,キーワード検索単独を上回る精度を得られなかった.また,セット2(図\ref{fig:ex7})の場合も,セット1の時ほどはっきりした差はないが,概ね同様の結果であった.一方,キーワード検索との統合による結果では,セット1の場合(図\ref{fig:ex6}),共起による語彙的連鎖型のパッセージ検索によって,多くの部分でキーワード検索単独を上回る良い適合率および再現率を得た.形式段落型と他の語彙的連鎖型パッセージ検索では,単独の場合よりも統合することによって適合率,再現率が向上したもののキーワード検索単独の結果を上回ることができなかった.ウィンドウ型は統合によってもキーワード検索単独の結果とほぼ同じであった.また,セット2(図\ref{fig:ex8})の場合も,セット1の時より差が少ないが,共起による語彙的連鎖型のパッセージ検索により,多くの部分でキーワード検索単独を上回る結果を得た.結果的にセット1で共起による語彙的連鎖に基づくパッセージ検索とキーワード検索を統合する場合に,最も高い適合率,再現率が得られた.特に検索文書数が少ない段階での差は顕著であり,上位10位までの文書を見ると,キーワード検索単独では適合率約34\%,再現率約53\%であるのに対し,統合により適合率約40\%,再現率約64\%を得ている.セット1とセット2の結果をキーワード検索を基準として比べると,形式段落以外の各パッセージ検索では,セット1の方がセット2よりも全体的に良い成績を収めている.セット2には短い文書が含まれているのに対し,セット1は比較的長い文書によるセットであるため,この結果は,本来パッセージ検索は長い文書の方が有効であるという考えに概ね一致し,セット1の方がパッセージ検索の評価に向いていると考えられる.よって,以降はセット1の結果である図\ref{fig:ex5}と図\ref{fig:ex6}について考察する.パッセージ検索はキーワード検索とは異なる検索結果を示すことが期待できる.パッセージ検索の効果として期待されるのは,次の3点である.\begin{enumerate}\itemキーワード検索とは異なる正解文書を上位に上げる.\itemキーワード検索で上位にランクされる正解文書をより上位に上げる.\itemキーワード検索で上位にランクされる不正解文書を下位に下げる.\end{enumerate}逆に,悪影響を及ぼす可能性があるのは,次の3点である.\begin{enumerate}\itemキーワード検索とは異なる不正解文書を上位に上げる.\itemキーワード検索で上位にランクされる不正解文書をより上位に上げる.\itemキーワード検索で上位にランクされる正解文書を下位に下げる.\end{enumerate}当然のことながら,パッセージ検索がキーワード検索を上回る精度を得るためには,パッセージ検索による効果が悪影響を上回る必要がある.その意味で図\ref{fig:ex5}の実験結果では悪影響の方が強く出たと考えられる.しかし,キーワード検索との精度の差がパッセージ検索の優劣を直接示すことにはならない.パッセージ検索で上位に位置する文書集合がキーワード検索によるものとどのくらい異なるかという点と,集合内で上記効果と悪影響がどのような割合で見られるかという点に注目する必要がある.パッセージ検索とキーワード検索では,有効に働く文書が異なると考えられるため,パッセージ検索によってキーワード検索とは異なる正解文書の順位を上げ,不正解の文書の順位を下げることができていれば,統合によって全体的な精度を向上させる可能性が高いからである.そこで,セット1で,各パッセージ検索結果の上位(10位以内),下位(11位〜26位以内),圏外(27位以下)にランクされる文書をキーワード検索の結果と比較すると次のような傾向が見られた.\begin{itemize}\item上位の文書集合がキーワード検索の結果と異なる割合いは,シソーラス,共起,同一ターム,形式段落の順に高い.ウィンドウ型では,順位にほとんど変化が見られずキーワード検索とほぼ同じ文書を同じ順位で選択している.\itemキーワード検索で下位または圏外にある正解文書を上位に上げる割合(正の働き)は,共起,同一ターム,シソーラス,形式段落の順に高い.逆に,上位にある正解文書の順位を下げる割合(負の働き)は,形式段落,シソーラス,共起,同一タームの順に高かった.\item不正解文書の順位を下げる割合(正の働き)は,上位どうしでは形式段落が高いが,上位から下位,圏外へ下げる割合は,シソーラス,共起,同一ターム,形式段落の順に高い.逆に,不正解文書の順位を上げる割合(負の働き)は,上位どうしでは,形式段落が高く,下位,圏外から上位へは,シソーラス,形式段落,同一ターム,共起の順に高い.\end{itemize}上記の結果から各パッセージ検索について次のような特徴が言える.ウィンドウ型は検索される文書集合や順位がキーワード検索とほとんど同じである.形式段落型は比較的狭い範囲で文書の順位が入れ換わっており,上位および下位の文書集合はキーワード検索とそれほど変わらない.3タイプの語彙的連鎖型は,他のパッセージ検索に比べて上位にランクされる文書集合が異なる割合が高い.しかし,シソーラスと同一タームによる語彙的連鎖型は,不正解文書が上位に含まれる割合も高い.一方,共起による語彙的連鎖型では,上位に正解文書が含まれる割合も他の2つの語彙的連鎖型に比べて高い.以上の特徴から,共起による語彙的連鎖型のパッセージ検索が,キーワード検索との統合によって精度を向上する可能性がもっとも高い手法であるといえる.次にパッセージ検索で選択されたパッセージのサイズについて考察する.表\ref{tab:bestparam}に示すように,選択されたパッセージの長さは各パッセージ検索手法によって異なっている.ウィンドウ型では260語が最適だった.これはほとんどの文書よりも大きく,パッセージの単位は文書全体とほぼ同じである.このことから今回の実験で,ウィンドウ型では有意なパッセージサイズを決定できていないと考えられる.形式段落では平均パッセージ長が43.4語であった.これは1段落当りの平均長28.2語よりも大きいが語彙的連鎖型に比べて小さい.また標準偏差を見るとサイズのばらつきも小さい.語彙的連鎖型では平均パッセージ長が共起,同一ターム,シソーラスの順に大きく,ばらつきも大きい.形式段落で選択されるパッセージ長は小さく,変化が少ないのに対して,語彙的連鎖では検索要求や文書によって選択されるパッセージの長さが大きく変化しており,語彙的連鎖型の方が柔軟なパッセージサイズを設定していると考えられる.3タイプの語彙的連鎖型パッセージ検索の比較では,共起によるものがキーワード検索に近い適合率,再現率を得ている.他の2つは共起の場合よりも適合率,再現率ともにかなり低い.語彙的連鎖型パッセージでは生成する語彙的連鎖の良否が精度に大きく関連する.シソーラスの分類を基に連鎖を計算する場合は,分類が粗過ぎるためシソーラス上では同一概念にあるが文書中ではあまり関連のないタームを含む可能性がある.このような連鎖がノイズになった可能性がある.逆に同一タームの反復を基に計算する場合は,連鎖を生成する基準が細か過ぎて文書中では関連があるが異なる表層形式をしたタームを連鎖に含めることができない.このため良い連鎖を得ることができなかった可能性がある.一方,タームの共起を基に計算する場合は,検索対象の文書に近いデータをコーパスとして使用したため,関連の高いタームによってうまく語彙的連鎖を生成できたと考えられる.実際に,キーワード検索との統合結果である図\ref{fig:ex6}において,ウィンドウ型の統合にはほとんど変化が見られない.また,形式段落型では単独の場合よりも適合率,再現率が向上しているが,キーワード検索単独の場合に比べ,統合によって精度が向上しているとは言えない.また,シソーラスと同一タームによる語彙的連鎖型の場合も,統合によって単独の場合より適合率,再現率が向上しているものの,キーワード検索単独の場合を上回っていない.一方,タームの共起関係による語彙的連鎖型では,統合によって良い精度を示すことができている.以上のことから,共起による語彙的連鎖に基づくパッセージ検索が最も優れたパッセージ検索であるため,文書全体の検索との統合によって,高い精度を得ることができたと言える. \section{おわりに} label{sec:owarini}本稿では,文書中の語彙的連鎖を利用して,検索要求と対象文書の適切な類似度を計算するパッセージ検索手法について述べた.他のパッセージ検索手法との比較により,タームの共起により作られた語彙的連鎖が,より優れたパッセージの決定ができ,キーワード検索との統合によって,高い適合率を得ることができることを示した.本稿で述べたパッセージ検索手法には,語彙的連鎖の連鎖長閾値,ギャップ長閾値など以外にもパラメータとして考えられる要素が存在する.例えば,共起スコアによって語彙的連鎖を生成する際の共起スコアの計算方法や語彙的連鎖を組み合せてパッセージを決定する際の連鎖の重なりに関するスコアなどは変化させて実験することができる.また,同一文書内で複数のパッセージが存在する場合に,パッセージと検索要求の類似度を最大のものではなく,上位$N$位のパッセージの合計スコアとする方法なども考えられる.今後パラメータとして考えられる要素を明らかにし,それらパラメータの検索精度への影響について検討していく必要がある.近年,パッセージ検索の技術はハイパーテキスト生成や要約生成の分野で応用され始めている.検索された複数のパッセージをリンクして階層構造化する\cite{Salton:94b},関連の高いパッセージ間から重要文を抜き出す\cite{Salton:94b},異なる文書間のパッセージをリンクする\cite{Dalamagas:98}などの手法が提案されている.本稿で述べた語彙的連鎖型のパッセージも同様にハイパーテキスト生成への応用が可能である.また.検索要求に強く関連する部分を意味的にまとまった単位で選択できることから,検索要求指向型の自動要約文生成への応用も考えられる.今後の課題として,より高度な文書検索の実現のためにパッセージ検索を応用することについて検討していく必要がある.\vspace{4mm}\acknowledgment本研究では,(社)情報処理学会・データベースシステム研究会が,新情報処理開発機構との共同作業により,毎日新聞CD-ROM'94データ版を基に構築した情報検索システム評価用テストコレクションBMIR-J2を利用させていただきました.感謝致します.また,「角川類語新辞典」の使用を許可して下さいました株式会社角川書店に感謝致します.本研究を進めるにあたり貴重な御助言を下さいました高野明彦氏,丹羽芳樹氏をはじめとする日立製作所基礎研究所ソフトウェア研究プログラムグループの皆様に感謝致します.また,共起計算プログラムの提供およびシステム実装に関する御助言を頂きました同グループの西岡真吾氏に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v06n3_05}\begin{biography}\biotitle{略歴}\bioauthor{望月源}{1970年生.1993年金沢大学経済学部経済学科卒業.1999年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月より,北陸先端科学技術大学院大学情報科学研究科助手.博士(情報科学).自然言語処理,知的情報検索システムの研究に従事.情報処理学会会員.}\bioauthor{岩山真}{1987年東京工業大学工学部情報工学科卒業.1992年同大学院理工学研究科博士後期課程修了.同年(株)日立製作所基礎研究所入所.博士(工学).自然言語処理,情報検索の研究に従事.情報処理学会,人工知能学会,AAAI,ACMSIGIR各会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.工学博士.自然言語処理,知的情報検索システム,語学学習支援システム,語彙知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V08N01-03
\section{はじめに} \label{sec:intro}現在,統計的言語モデルの一クラスとして確率文脈自由文法(probabilisticcontext-freegrammar;以下PCFG)が広く知られている.PCFGは文脈自由文法(context-freegrammar;以下CFG)の生成規則に確率パラメタが付与されたものと見ることができ,それらのパラメタによって生成される文の確率が規定される.しかし,すべてのパラメタを人手で付けるのはコストと客観性の点で問題がある.そこで,計算機によるコーパスからのPCFGのパラメタ推定,すなわちPCFGの訓練(training)が広く行なわれている.現在,構造つきコーパス中の規則出現の相対頻度に基づきPCFGを訓練する方法(以下,相対頻度法と呼ぶ)が広く行なわれているが,我々はより安価な訓練データとして,分かち書きされている(形態素解析済みの)括弧なしコーパスを用いる.括弧なしコーパスからのPCFGの訓練法としては,Inside-Outsideアルゴリズム\cite{Baker79,Lari90}が広く知られている(以下,I-Oアルゴリズムと略す).I-OアルゴリズムはCYK(Cocke-Younger-Kasami)パーザで用いられる三角行列の上に構築された,PCFG用のEM(expectation-maximization)アルゴリズム\cite{Dempster77}と特徴づけることができる.I-Oアルゴリズムは多項式オーダのEMアルゴリズムであり,効率的とされているが,訓練コーパスの文の長さに対し3乗の計算時間を要するため,大規模な文法・コーパスからの訓練は困難であった.また,基になるCFGがChomsky標準形でなければならないという制約をもっている.一方,本論文では,PCFGの文法構造(基になるCFG)が所与であるときの効率的なEM学習法を提案する.提案手法はwell-formedsubstringtable(以下WFST)と呼ばれるデータ構造を利用しており,全体の訓練過程を次の2段階に分離してPCFGを訓練する.\begin{description}\item\underline{\bf構文解析}:\\はじめにパーザによって与えられたテキストコーパスもしくはタグ付きコーパス中の各文に構文解析を施し,その文の構文木すべてを得る.ただし,構文木は実際に構築せずに途中で構築されるWFSTのままでとどめておく.\item\underline{\bfEM学習}:\\上で得られたWFSTから支持グラフと呼ばれるデータ構造を抽出し,新たに導出されたグラフィカルEM(graphicalEM;以下gEMと略記)アルゴリズムを支持グラフ上で走らせる.\end{description}WFSTは構文解析途中の部分的な解析結果(部分構文木)を格納するデータ構造の総称であり~\cite{Tanaka88,Nagata99},パーザはWFSTを参照することにより再計算を防いでいる.また,最終的にWFSTに格納されている部分構文木を組み合わせて構文木を出力する.表~\ref{tab:WFST}に各構文解析手法におけるWFSTを掲げる.なお,Fujisakiらも文法が所与であるとして,上の2段階でPCFGを訓練する方法を提案しているが\cite{Fujisaki89},その方法ではWFSTは活用されていない.\begin{table}[b]\caption{各パーザにおけるWFST.}\label{tab:WFST}\begin{center}\begin{tabular}{|l||l|l|}\hlineパーザ&\multicolumn{1}{c|}{WFST}\\\hlineCYK法&三角行列\\Earley法&アイテム集合(Earleyチャート)の集まり\\GLR法&圧縮共有構文森(packedsharedparseforest)\\\hline\end{tabular}\end{center}\end{table}提案手法の特長は従来法であるI-Oアルゴリズムの一般化と高速化が同時に実現された点,すなわち\begin{description}\item{\bf特長1:}従来のPCFGのEM学習法の一般化となっている,\item{\bf特長2:}現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される,\item{\bf特長3:}提案手法が,PCFGに文脈依存性を導入した確率言語モデル(PCFGの拡張文法\footnote{Magermanらが\cite{Magerman92}で述べている``Context-freegrammarwithcontext-sensitiveprobability(CFGwithCSP)''を指す.具体的にはCharniakらの疑似確率文脈依存文法\cite{Charniak94b}や北らの規則バイグラムモデル\cite{Kita94}が挙げられる.}と呼ぶ)に対する多項式オーダのEMアルゴリズムを包含する\end{description}点にある.先述したように,I-OアルゴリズムはCYK法のWFSTである三角行列を利用して効率的に訓練を行なう手法と捉えることができ,提案手法のCYK法とgEMアルゴリズムを組み合わせた場合がI-Oアルゴリズムに対応する.一方,提案手法でEarleyパーザや一般化LR(以下GLR)パーザと組み合わせる場合,文法構造にChomsky標準形を前提としないため,本手法はI-Oアルゴリズムの一般化となっている({\bf特長1}).加えて,本論文ではStolckeの確率的Earleyパーザ\cite{Stolcke95}や,PereiraとSchabesによって提案された括弧なしコーパスからの学習法\cite{Pereira92}も提案手法の枠組で扱うことができる\footnote{より正確には,文法構造が与えられている場合のPereiraとSchabesの学習法を扱う.}ことを示す.また,{\bf特長2}が得られるのは,提案手法ではがWFSTというコンパクトなデータ構造のみを走査するためである.そして,LR表へのコンパイル・ボトムアップ解析といった特長により実用的には最も効率的とされる一般化LR法~\cite{Tomita91}(以下GLR法)を利用できる点も訓練時間の軽減に効果があると考えられる.そして{\bf特長3}は提案手法の汎用性を示すものであり,本論文では北らの規則バイグラムモデル\cite{Kita94}の多項式オーダのEMアルゴリズムを提示する.本論文の構成は次の通りである.まず節~\ref{sec:PCFG}でPCFG,CYKパーザ,I-Oアルゴリズム,およびそれらの関連事項の導入を行なう.I-Oアルゴリズムと対比させるため,提案手法をCYKパーザと\gEMアルゴリズムの組合せを対象にした場合を節~\ref{sec:GEM}で記述した.{\bf特長2}を検証するため,GLRパーザとgEMアルゴリズムを組み合わせた場合の訓練時間をATR対話コーパス(SLDB)を用いて計測した.その結果を節~\ref{sec:experiment}に示す.また,{\bf特長3}を具体的に示すため,節~\ref{sec:extensions}ではPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを提示する.最後に節~\ref{sec:related-work}で関連研究について述べ,{\bf特長1}について考察する.本論文で用いる例文法,例文,およびそれらに基づく構文解析結果の多くは\cite{Nagata99}のもの,もしくはそれに手を加えたものである.以降では$A,B,\ldots$を非終端記号を表すメタ記号,$a,b,\ldots$を終端記号を表すメタ記号,$\rho$を一つの終端または非終端記号を表すメタ記号,$\zeta$,$\xi$,$\nu$を空列もしくは終端記号または非終端記号から成る記号列を表すメタ記号とする.空列は$\varepsilon$と書く.一方,一部の図を除き,具体的な文法記号を$\sym{S},\sym{NP},\ldots$などタイプライタ書体で表す.また,$y_n$を第$n$要素とするリストを\$\tuple{y_1,y_2,\ldots}$で表現する.またリスト$Y=\tuple{\ldots,y,\ldots}$であるとき,$y\inY$と書く.集合$X$の要素数,記号列$\zeta$に含まれる記号数,リスト$Y$の要素数をそれぞれ$|X|$,$|\zeta|$,$|Y|$で表す.これらはどれも見た目は同じだが文脈で違いを判断できる. \section{準備} \label{sec:PCFG}\subsection{確率文脈自由文法}\label{sec:PCFG:PCFG}はじめに,文脈自由文法$G$を4つ組$\tuple{\Vn,\Vt,R,S}$で定義する.ただし,$\Vn$は非終端記号の集合,$\Vt$は終端記号の集合,$R$は規則の集合,$S$は開始記号$(S\in\Vn)$である.$R$中の各規則$r$は$A\to\zeta$の形をしており,記号列$\zeta'$中に非終端記号$A$が出現するとき,$A$を$\zeta$に置き換えることが可能であることを表す.我々は常に最左の非終端記号を置き換えるように規則を適用する(最左導出に固定する).規則$r$の適用により記号列$\zeta$が$\xi$に置き換えられるとき$\zeta\rderives{r}\xi$と書く.このような置き換えを0回以上行なって$\zeta$から$\xi$が得られるとき,$\zeta\derivesstar\xi$と書く.特に,置換えが1回以上であることを強調する場合は\$\zeta\derivesplus\xi$と書く.$S$から導出可能な非終端記号列$\win$を文と呼ぶ.CFG$G$における文の集合を$G$の言語と呼び,$L_G$と書く.そして,$G$に基づくPCFGを$G(\theta)$で表す.逆に$G$を「PCFG$G(\theta)$の文法構造」と呼ぶ.$\theta$は$|R|$次元ベクトルであり,以降パラメタと呼ぶ.$\theta$の各要素は$\theta(r)$で参照され,$0\le\theta(r)\le1,\;\sum_{\zeta:(A\to\zeta)\inR}\theta(A\dto\zeta)=1$が成り立つとする($A\in\Vn,\;r\inR$).PCFGでは「適用する規則は他に影響を受けずに選択される」と仮定される.従って\$\zeta_0\rderives{r_1}\zeta_1\rderives{r_2}\zeta_2\rderives{r_3}\cdots\rderives{r_{K}}\zeta_K$における規則の適用列$\rseq=\tuple{r_1,r_2,\ldots,r_K}$の出現確率$P(\rseq|\theta)$は\begin{equation}\textstyleP(\rseq|\theta)=\prod_{k=1}^K\theta(r_k)\label{eq:derivation-prob}\end{equation}と計算される.また,$\occ(r,\rseq)$を適用規則列$\rseq$中に\規則$r$が出現する数とすると,\begin{equation}\textstyleP(\rseq|\theta)=\prod_{r\inR}\theta(r)^{\occ(r,\rseq)}\label{eq:derivation-prob2}\end{equation}と書くこともできる.$S\derivesstar\win$を実現する適用規則列すべてから成る集合を$\trees(\win)$とおく.文$\win$は適用規則列$\rseq$から一意に定まるので,文と適用規則列の同時分布$P(\win,\rseq|\theta)$に関し\begin{equation}\textstyleP(\win,\rseq|\theta)=\left\{\begin{array}{ll}P(\rseq|\theta)&\mbox{if}\;\rseq\in\trees(\win)\\0&\mbox{otherwise}\end{array}\right.\label{eq:joint-prob}\end{equation}が成り立つ.式~\ref{eq:joint-prob}より開始記号$S$から$\win$が導出される確率$P(\win|\theta)$は次のように求まる:\begin{equation}\textstyleP(\win)=\sum_{{\rmall}\;\rseq}P(\win,\rseq|\theta)=\sum_{\rseq\in\trees(\win)}P(\rseq|\theta)\;.\label{eq:sentence-prob}\end{equation}パラメタ$\theta$が文脈より明らかなときは\$P(\rseq,\ldots|\theta)$,$P(\win,\ldots|\theta)$を各々$P(\rseq,\ldots)$,$P(\win,\ldots)$と書く.先述した規則適用の独立性に加え,以降で考えるPCFG$G(\theta)$は次を満たすとする.\begin{itemize}\item$G(\theta)$は整合的である.すなわち\$\sum_{\win\inL_G}P(\win|\theta)=1$が成り立つ.\item右辺が$\varepsilon$である規則($\varepsilon$規則)や$A\derivesplusA$となるような$A\in\Vn$が存在しない.\end{itemize}ChiとZemanは,2番目の条件を満たす文法構造$G$と有限長の文から成る括弧なしコーパス$\corpus$が与えられたとき,I-Oアルゴリズムで得られる訓練パラメタ$\theta^{\ast}$の下でのPCFG$G(\theta^{\ast})$が整合的であることを示した~\cite{Chi98}.\subsection{コーパス・構文木}\label{sec:PCFG:corpus}平文$\win=w_1w_2\cdotsw_n\inL_G$に対して個々の$w_j$は単語である($n>0$,$j=1\ldotsn$).$\win$に対して単語位置$d=0\ldotsn$を与える.$0\led\led'\len$について$d$と$d'$の間にある部分単語列$w_{d+1}\cdotsw_{d'}$を$\win_{d,d'}$と書く($\win=\win_{0,n}$である).また,(部分)単語列$w_d\cdotsw_{d'}$をリスト\$\tuple{w_d,\ldots,w_{d'}}$で表すことがある.$\win\inL_G$に対して,$\win$の構文木は\$S\derivesstar\win$の導出過程を木構造で表現したものである.我々は導出戦略を最左導出に固定しているので,$S\derivesstar\win$の適用規則列$\rseq$から$\win$の構文木$t$が一意に決まり,逆も真である.従って$P(t)=P(\rseq)$が成り立つ.先に我々は対象とするPCFGが$\varepsilon$規則をもたないこと,$A\derivesplusA$という導出が起こらないと仮定した.この仮定より,$\win$の構文木$t$の部分構文木(以下,部分木)$t'$はその根ノードの非終端記号$A$と葉ノードを構成する部分単語列の開始/終了位置の対$(d,d')$によって一意に定まるので,以降,我々は部分木$t'$をラベル$A(d,d')$で参照する.$\win$の構文木$t$は,葉ノードを除く$t$の部分木ラベルから成る集合$\labels(t)$($t$のラベル集合と呼ぶ)と同一視できる.また,$(d,d')$は一つの括弧づけに相当する.$\brackets(t)\defined\{(d,d')\midA(d,d')\in\labels(t)\}$と定め,$t$の括弧集合と呼ぶ.また,$A\dto\rho_1\rho_2\cdots\rho_M$の展開によって得られた$\rho_1,\rho_2,\ldots,\rho_M$を根とする部分木$\rho_m(d_{m-1},d_m)$を考える(図~\ref{fig:parse-tree}).このとき$A(d_0,d_M)@\rho_m(d_{m-1},d_m)$なる部分木に関する半順序関係$@$を導入する($m=1\ldotsM$).この関係を以降では「$A(d_0,d_M)$は$\rho_m(d_{m-1},d_m)$の親である」,また逆に「$\rho_m(d_{m-1},d_m)$は$A(d_0,d_M)$の子である」などということがある.そして親$A(d_0,d_M)$とその子をすべてまとめて\begin{equation}A(d_0,d_M)@\rho_1(d_0,d_1)\rho_2(d_1,d_2)\cdots\rho_M(d_{M-1},d_M)\label{eq:parent-children}\end{equation}と表し,これを「部分木の親子対」と呼ぶことにする.構文木$t$中に出現する部分木の親子対をすべて集めた集合を$\wfst(t)$で表す.構文木$t$に対応する適用規則列$\rseq$に対して\$\labels(\rseq)$,$\brackets(\rseq)$,$\wfst(\rseq)$をそれぞれ$\labels(t)$,$\brackets(t)$,$\wfst(t)$と同一視する.\begin{figure}[t]\atari(51,32)\caption{部分木の親子対.}\label{fig:parse-tree}\end{figure}PCFGの訓練用のコーパスとして我々は(1)構造つきコーパス(labeledcorpus),(2)完全括弧つきコーパス(fullybracketedcorpus),(3)部分括弧つきコーパス(partiallybracketedcorpus),(4)括弧なしコーパス(unbracketedcorpus)の4つを考える.我々は訓練法として最尤推定法(maximumlikelihoodestimation)を考えており,$N$文を含むコーパス$\corpus\defined\tuple{c_1,c_2,\ldots,c_N}$はPCFG$G(\theta)$に基づく独立な$N$回のサンプリング導出の結果であると仮定する.$\win_\ell$,$\rseq_\ell$を$\ell$回目のサンプリングで得られた平文および適用規則列とすると($\ell=1\ldotsN$),$\corpus$が構造つきコーパスのとき$c_\ell=\tuple{\win_\ell,\labels(\rseq_\ell)}$,完全括弧つきコーパスのとき$c_\ell=\tuple{\win_\ell,\brackets(\rseq_\ell)}$,部分括弧つきコーパスのとき$c_\ell=\tuple{\win_\ell,\brackets_\ell}$,括弧なしコーパスのとき$c_\ell=\win_\ell$となる($\win_\ell\inL_G$,$\rseq\in\trees(\win_\ell)$,$\brackets_\ell\subseteq\brackets(\rseq_\ell)$).$\win_\ell$の部分単語列を\$\win^{(\ell)}_{d,d'}$とおき$(0\led<d'\len_\ell)$,$\win_\ell$の$d$番目の単語を$w^{(\ell)}_d$とおく.ただし$n_\ell\defined|\win_\ell|$である.\subsection{CYKパーザ}\label{sec:PCFG:CYK}CYKパーザはChomsky標準形であるCFGに適用可能なパーザである.我々は括弧なしコーパス$\corpus$中の文$\win_\ell$に対して\$n_\ell\timesn_\ell$の三角行列$T^{(\ell)}$を用意する\footnote{通常,三角行列の各行と各列に振られる番号は(単語位置ではなく)単語そのものに振られた番号であるが,本論文では他の記法と整合をとるために行番号を1つずつ減らす.}($n_\ell=|\win_\ell|$).$d$行$d'$列の要素$T_{d,d'}$には部分単語列$\win_{d,d'}$に対する解析結果が格納される.CYKパーザを実現する手続き$\proc{CYK-Parser}$を図~\ref{alg:CYK}に示す.対角要素から順に部分木を組み上げ(行~\ref{list:CYK:fill-diagonal:begin}--\ref{list:CYK:fill-non-diag:end}),$T_{0,n_\ell}$に$S(0,n_\ell)@\;\cdot$が含まれていたら解析が成功したものとし,含まれていなかったら失敗したものとする(行~\ref{list:CYK:accept}).解析が成功したら$T_{0,n_\ell}$に含まれる$S(0,n_\ell)@\;\cdot$から順に部分木の親子対を辿って構文木が取り出される.図~\ref{gram:ichiro-CNF}に示したCFG$G1$において文$\win=\tuple{急いで,走る,一郎,を,見た}$に対する三角行列を図~\ref{fig:CYK-table}に示す.図~\ref{fig:CYK-table}の○印のついた部分木の親子から図~\ref{fig:parse-tree-ichiro-CNF}の構文木$t1$が取り出され,●印のついた部分木の親子から$t2$が取り出される.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{CYK-Parser}(\corpus)$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPrepare$(n_\ell\timesn_\ell)$triangularmatrix$T^{(\ell)}$;\itemii\rw{for}$d:=0$\rw{to}$n_\ell-1$\rw{do}\q\q\progcomment{三角行列の対角要素から始める}\label{list:CYK:fill-diagonal:begin}\itemiii$T^{(\ell)}_{d,d+1}:=\{A(d,d+1)@w_{d+1}^{(\ell)}(d,d+1)\mid(A\dtow_{d+1})\inR\}$;\label{list:CYK:fill-diagonal:end}\itemii\rw{for}$k:=2$\rw{to}$n_\ell$\rw{do}\q\q\progcomment{三角行列の非対角要素について計算}\label{list:CYK:fill-non-diag:begin}\itemiii\rw{for}$d:=0$\rw{to}$n_\ell-k$\rw{do}\itemiiii$T_{d,d+k}^{(\ell)}:=\bigcup_{k'=1}^{k-1}\bigl\{A(d,d+k)@B(d,d\!+\!k')C(d\!+\!k',d\!+\!k)\;\big|\;(A\dtoBC)\inR,$\item\hfill$(B(d,d+k')@\;\cdot)\inT_{d,d+k'}^{(\ell)},(C(d+k',d+k)@\;\cdot)\inT_{d+k',d+k}^{(\ell)}\bigr\}$;\label{list:CYK:fill-non-diag:end}\itemii\rw{if}$(S(0,n_\ell)@\;\cdot)\inT_{0,n_\ell}^{(\ell)}$\rw{then}accept\rw{else}reject\label{list:CYK:accept}\itemi\rw{end}\item\rw{end}.\end{listing}\caption{CYKパーザ.}\label{alg:CYK}\end{figure}\begin{figure}[t]\centerline{\small\def\arraystretch{}\begin{tabular}{rlrlrl}\multicolumn{6}{l}{$G1:$}\\$(1)$&$\sym{S}\dto\sym{PP}\;\sym{V}$&$(6)$&$\sym{NP}\dto\sym{V}\;\sym{N}$&$(10)$&$\sym{N}\dto\sym{一郎}$\\$(2)$&$\sym{S}\dto\sym{ADV}\;\sym{VP}$&$(7)$&$\sym{PP}\dto\sym{NP}\;\sym{P}$&$(11)$&$\sym{P}\dto\sym{を}$\\$(3)$&$\sym{VP}\dto\sym{PP}\;\sym{V}$&$(8)$&$\sym{PP}\dto\sym{N}\;\sym{P}$&$(12)$&$\sym{V}\dto\sym{走る}$\\$(4)$&$\sym{VP}\dto\sym{ADV}\;\sym{V}$&$(9)$&$\sym{ADV}\dto\sym{急いで}$&$(13)$&$\sym{V}\dto\sym{見た}$\\$(5)$&$\sym{NP}\dto\sym{VP}\;\sym{N}$\\\end{tabular}}\caption{文脈自由文法の例$G1$.}\label{gram:ichiro-CNF}\end{figure}\begin{figure}[t]\atari(140,42)\caption{$G1$と文$\tuple{急いで,走る,一郎,を,見た}$に対する三角行列.}\label{fig:CYK-table}\end{figure}\begin{figure}[t]\atari(99,36)\caption{三角行列から取り出された2つの構文木.}\label{fig:parse-tree-ichiro-CNF}\end{figure}\subsection{Inside-Outsideアルゴリズム}\label{sec:PCFG:IO}先にも述べたように,我々はPCFGのパラメタをコーパス$\corpus=\tuple{c_1,c_2,\ldots,c_N}$から最尤推定法に基づき訓練することを考えている.$\corpus$が構造つきコーパスの場合,相対頻度法で得られる各規則$r$の相対出現頻度が最尤推定値となるので,これを$r$の訓練パラメタ$\theta^{\ast}(r)$とすればよい.しかし,構造つきコーパスの作成コストを考えると,より安価な括弧なしコーパスしか利用できない場合が十分考えられる.括弧なしコーパスでは構文構造が明らかでないため,相対頻度法が適用できず,代わりにI-OアルゴリズムというPCFGに特化された形のEMアルゴリズムが広く知られている.I-Oアルゴリズムは,括弧なしコーパス$\corpus=\tuple{\win_1,\win_2,\ldots,\win_N}$が与えられたときに尤度$\prod_{\ell=1}^NP(\win_\ell\mid\theta)$あるいはその対数$\sum_{\ell=1}^N\logP(\win_\ell\mid\theta)$(対数尤度)を局所的に最大にする$\theta^{\ast}$を見つける.つまりI-Oアルゴリズムもまた最尤推定法である.\cite{Lari90}をはじめとする多くの文献の記述では,文法構造$G$のうち規則集合$R$を明示的に与えず,終端記号集合$\Vt$と非終端記号集合$\Vn$を与えた場合を考えている.提案手法との対比のため,本節では$R$を明示的に与えた場合のI-Oアルゴリズムを記述する.$\Vt$と$\Vn$のみを与えた場合のI-Oアルゴリズムは\begin{equation}\Rmax(\Vn,\Vt)\defined\left\{A\dtoBC\;\left|\;A,B,C\in\Vn\right.\right\}\;\cup\;\left\{A\dtoa\;\left|\;A\in\Vn,a\in\Vt\right.\right\}\label{eq:Rmax}\end{equation}(以下では$\Rmax$と略すことがある)を考え,規則集合を$R=\Rmax(\Vn,\Vt)$として与えた場合と同一である.ただし,いずれの場合でも$R$はChomsky標準形でなければならない.\cite{Lari90}では規則集合$R$を含めた学習を目的にI-Oアルゴリズムを使用しているが,我々はパラメタ$\theta$の学習に焦点を絞る.I-Oアルゴリズムの中心は内側確率$P(A\derivesstar\win_{d,d'}^{(\ell)})$と外側確率$P(S\derivesstar\win_{0,d}^{(\ell)}A\win_{d',n_\ell}^{(\ell)})$という2つの確率値の計算である($\ell=1\ldotsN$,$A\in\Vn$,$0\led<d'\len_\ell$).各確率値を配列変数$\beta_{d,d'}^{(\ell)}[A]$,$\alpha_{d,d'}^{(\ell)}[A]$に格納する.これらの配列変数はCYKアルゴリズムで用いた三角行列$T_{d,d'}$中に設けられているものとする.$\win^{(\ell)}_{0,n_\ell}=\win_\ell$より\$\beta_{0,n_\ell}^{(\ell)}[S]$に文$\win_\ell$の生起確率$P(S\derivesstar\win_\ell)$が格納される点に注意する.\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Get-Beta}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemii\rw{for}$d:=0$\rw{to}$n_\ell-1$\rw{do}\q\progcomment{三角行列の対角要素について計算}\itemiii\rw{foreach}$A$suchthat$(A\dtow_{d+1}^{(\ell)})\inR$\rw{do}\itemiiii$\beta_{d,d+1}^{(\ell)}[A]:=\theta(A\dtow_{d+1}^{(\ell)})$;\label{list:get-beta:calc-beta-diagonal}\itemii\rw{for}$k:=2$\rw{to}$n_\ell$\rw{do}\q\progcomment{三角行列の非対角要素について計算}\itemiii\rw{for}$d:=0$\rw{to}$n_\ell-k$\rw{do}\itemiiii\rw{foreach}$A\in\Vn$\rw{do}\itemiiiii$\beta_{d,d+k}^{(\ell)}[A]:=\sum_{B,C:(A\toBC)\inR}\theta(A\dtoBC)\sum_{k'=1}^{k-1}\beta_{d,d+k'}^{(\ell)}[B]\beta_{d+k',d+k}^{(\ell)}[C]$\label{list:get-beta:calc-beta}\itemi\rw{end}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Get-Alpha}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemii$\alpha_{0,n_\ell}^{(\ell)}[S]:=1$;\q\progcomment{右上隅の$S$については特別に1に初期化}\label{list:get-alpha:init:end}\label{list:get-alpha:init:s}\itemii\rw{for}$k:=n_\ell$\rw{downto}$2$\rw{do}\label{list:get-alpha:inverse-for}\itemiii\rw{for}$d:=0$\rw{to}$n_\ell-k$\rw{do}\itemiiii\rw{foreach}$B\in\Vn$\rw{do}\itemiiiii$\alpha_{d,d+k}^{(\ell)}[B]:=\sum_{A,X:(A\toBX)\inR}\theta(A\dtoBX)\sum_{k'=k+1}^{n_\ell-d}\alpha_{d,d+k'}^{(\ell)}[A]\beta_{d+k,d+k'}^{(\ell)}[X]$\label{list:get-alpha:calc-op:begin}\itemiiiiiiiiii$+\sum_{A',Y:(A'\toYB)\inR}\theta(A'\dtoYB)\sum_{k'=1}^d\alpha_{d-k',d+k}^{(\ell)}[A']\beta_{d-k',d}^{(\ell)}[Y]$\label{list:get-alpha:calc-op:end}\itemi\rw{end}\item\rw{end}.\end{listing}\caption{(上)内側確率の計算ルーチン$\proc{Get-Beta}$,(下)外側確率の計算ルーチン$\proc{Get-Alpha}$.}\label{alg:get-beta-alpha}\end{figure}内側確率と外側確率を計算する手続き$\proc{Get-Beta}$,$\proc{Get-Alpha}$を図~\ref{alg:get-beta-alpha}に示す.記述を簡単にするため,配列変数$\alpha_{d,d'}^{(\ell)}[\cdot]$および$\beta_{d,d'}^{(\ell)}[\cdot]$は手続きが呼び出される度に0に初期化されるものとする.$\proc{Get-Beta}$はCYKパーザにおいて部分木を組み上げるのと同じように,三角行列の対角要素から出発し,右上隅$\beta_{0,n_\ell}^{(\ell)}[\cdot]$に至るまで段階的に内側確率を計算していく.また,逆に$\proc{Get-Alpha}$では右上隅$\alpha_{0,n_\ell}^{(\ell)}[\cdot]$から対角要素に向かって外側確率を計算する.このように内側・外側確率は動的計画法(dynamicprogramming)に基づき,一方向に従って計算が進められる.内側・外側確率を計算し終ったら,コーパス$\corpus$が与えられた下での規則$A\dtoBC$,$A\dtoa$の適用回数の条件つき期待値(以下,期待適用回数という)が次のように計算される:{\small\begin{eqnarray}\eta[A\dtoBC]&:=&\sum_{\ell=1}^N\frac{1}{\beta_{0,n_\ell}^{(\ell)}[S]}\sum_{k=2}^{n_\ell}\sum_{d=0}^{n_\ell-k}\sum_{k'=1}^{k-1}\theta(A\dtoBC)\alpha_{d,d+k}^{(\ell)}[A]\beta_{d,d+k'}^{(\ell)}[B]\beta_{d+k',d+k}^{(\ell)}[C]\label{eq:eta-ABC},\\\eta[A\dtoa]&:=&\sum_{\ell=1}^N\frac{1}{\beta_{0,n_\ell}^{(\ell)}[S]}\sum_{d=0}^{n_\ell-1}\theta(A\dtoa)\alpha_{d,d+1}^{(\ell)}[A].\label{eq:eta-Aa}\end{eqnarray}}\noindent更に,上で計算された期待値からパラメタ$\theta(A\dto\zeta)$が更新(再推定)される:\begin{equation}\textstyle\theta(A\dto\zeta):=\eta[A\dto\zeta]\Big/\sum_{\zeta':(A\to\zeta')\inR}\eta[A\dto\zeta'].\label{eq:update}\end{equation}I-Oアルゴリズムでは,まず$\theta$を適当な値に初期化し,次いで手続き$\proc{Get-Beta}$,$\proc{Get-Alpha}$および式~\ref{eq:eta-ABC},~\ref{eq:eta-Aa},~\ref{eq:update}によって\$\theta$を更新する.そして,このように更新を繰り返すと対数尤度\$\sum_{\ell=1}^N\logP(\win_\ell)=\sum_{\ell=1}^N\log\beta_{0,n_\ell}^{(\ell)}[S]$が単調増加しながら最終的には収束する.収束したら,そのときのパラメタの値を最終的な推定値としてI-Oアルゴリズムは終了する.ここで,I-Oアルゴリズムの計算量を考える.収束までのパラメタ更新回数は初期値に依存するため,事前には分からない.従って1回のパラメタ更新に必要な計算量をI-Oアルゴリズムの計算量とする.非終端記号集合$\Vn$,終端記号集合$\Vt$を固定した場合の最悪計算量を測る場合には$R=\Rmax(\Vn,\Vt)$の場合を考えればよい.訓練コーパス$\corpus$に対して最長の文の長さを$L$とする.手続き$\proc{Get-Beta}$,$\proc{Get-Beta}$(図~\ref{alg:get-beta-alpha})中の{\bffor},{\bfforeach}ループと$\sum$の引数に注目すれば,I-Oアルゴリズムの最悪計算量は$O(|\Vn|^3L^3)$であることが容易に分かる.\subsection{Inside-Outsideアルゴリズムに関する考察}\label{sec:PCFG:IO-problems}アルゴリズム中で最もコストが高いのは,$\proc{Get-Beta}$行~\ref{list:get-beta:calc-beta}における内側確率の計算,$\proc{Get-Alpha}$行~\ref{list:get-alpha:calc-op:begin}--\ref{list:get-alpha:calc-op:end}における外側確率の計算である.$\proc{Get-Beta}$行~\ref{list:get-beta:calc-beta}において図~\ref{fig:get-beta-alpha}(1)という状況すべてを考慮して内側確率が計算される.一方,$\proc{Get-Alpha}$の行~\ref{list:get-alpha:calc-op:begin}--\ref{list:get-alpha:calc-op:end}における右辺第1項,第2項ではそれぞれ図~\ref{fig:get-beta-alpha}(2),(3)という状況がすべて考慮されている.考えられるすべての状況について計算をすすめるという意味でI-Oアルゴリズムの動作は仮説駆動(トップダウン)型パーザの動作と同じである.一般に仮説駆動型は入力文$\win_\ell$の情報とは無関係に計算をすすめるために効率が悪いとされている.文法構造が与えられていてもI-Oアルゴリズムの計算速度が低いのは,仮説駆動型であることが原因であると考えられる.そもそもI-Oアルゴリズムは\begin{equation}\eta[r]=\sum_{\ell=1}^N\sum_{{\rmall}\;\rseq}P(\rseq|\win_\ell)\occ(r,\rseq)=\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\sum_{{\rmall}\;\rseq}P(\win_\ell,\rseq)\occ(r,\rseq)\label{eq:naive-eta}\end{equation}という規則$r$の期待適用回数$\eta[r]$の計算を\begin{equation}\eta[r]\;=\;\theta(r)\cdot\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\frac{\partialP(\win_\ell)}{\partial\theta(r)}\;=\;\theta(r)\cdot\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\frac{\partial}{\partial\theta(r)}\sum_{{\rmall}\;\rseq}P(\win_\ell,\rseq)\label{eq:naive-eta2}\end{equation}から得られる手続き$\proc{Get-Beta}$,$\proc{Get-Alpha}$および式~\ref{eq:eta-ABC},~\ref{eq:eta-Aa}によって効率化したものである~\cite{Lafferty93}\footnote{\cite{Lafferty93}ではコーパスサイズ$N=1$の場合が説明されている.}.ただし,節~\ref{sec:PCFG:PCFG}で定めたように\$\occ(r,\rseq)$は規則列$\rseq$に出現する規則$r$の数である.式~\ref{eq:naive-eta2}で,$r=(A\dtoBC)$とおいたとき,I-Oアルゴリズムでは\$\frac{\partial}{\partial\theta(A\toBC)}\sum_{{\rmall}\;\rseq}P(\win_\ell,\rseq)$を次のように計算する(添字の${\cdot}_{\ell}$,${\cdot}^{(\ell)}$は省略).\begin{eqnarray}&&\frac{\partial}{\partial\theta(A\toBC)}\sum_{\mbox{\footnotesizeall$\rseq$}}P(\win,\rseq)\nonumber\\&&\q\q\q=\frac{\partial}{\partial\theta(A\toBC)}\sum_{\mbox{\footnotesizeall$\rseq$s.t.$A\toBC$appearsin$\rseq$}}\iq\iqP(\win,\rseq)\nonumber\\&&\q\q\q=\frac{\partial}{\partial\theta(A\toBC)}\sum_{d,k,k'}\sum_{\mbox{\footnotesize\begin{tabular}{l}all$\rseq$s.t.$A\toBC$appearsin$\rseq$\\\qwiththeposition$(d,d+k',d+k)$\end{tabular}}}\iq\iq\iq\iqP(\win,\rseq)\label{eq:with-position}\\&&\q\q\q=\frac{\partial}{\partial\theta(A\toBC)}\sum_{d,k,k'}P(S\derivesstar\win_{0,d}A\win_{d+k,n})\theta(A\dtoBC)\cdot\nonumber\\&&\q\q\q\q\q\q\q\q\q\q\q\q\qP(B\derivesstar\win_{d,d+k'})P(C\derivesstar\win_{d+k',d+k})\nonumber\\&&\q\q\q=\sum_{d,k,k'}P(S\derivesstar\win_{0,d}A\win_{d+k,n})P(B\derivesstar\win_{d,d+k'})P(C\derivesstar\win_{d+k',d+k})\end{eqnarray}式~\ref{eq:with-position}の変形は入力文$\win$や実際の構文木$t\in\trees(\win)$とは無関係に行なわれており,I-Oアルゴリズムが仮説駆動型であるというのはこの点に由来する.\begin{figure}[t]\atari(115,26)\caption{内側確率,外側確率の計算において想定している状況($n=n_\ell$とおいている).}\label{fig:get-beta-alpha}\end{figure}それに対し,式~\ref{eq:joint-prob}より式~\ref{eq:naive-eta}を下の式~\ref{eq:naive-eta3}に変形し,構文木情報$\trees$を直接利用する方法を考える.$\trees$はパーザを利用することによって事前に獲得しておく.また,式~\ref{eq:naive-eta3}はFujisakiらの計算方法\cite{Fujisaki89}に他ならない.\begin{equation}\eta[r]=\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\sum_{\rseq\in\trees(\win_\ell)}P(\rseq)\occ(r,\rseq)\label{eq:naive-eta3}\label{eq:Fujisaki-eta}\end{equation}式~\ref{eq:naive-eta3}を用いればI-Oアルゴリズムのように$\psi$と無関係な部分を計算することはなくなる.ただし,一般に$|\trees(\win)|$は文長$|\win|$に対して指数オーダになってしまうため,これをそのまま計算するのは現実的ではない.提案手法ではI-Oアルゴリズムのように再計算を防ぐ仕組みを取り入れ,パーザのもつWFSTを利用して式~\ref{eq:naive-eta3}を効率的に計算する.従って,提案手法をFujisakiらの方法とI-Oアルゴリズム双方の長所を取り入れた方法と見ることもできる. \section{提案手法} \label{sec:GEM}提案手法の概要を図~\ref{fig:scheme}に示す.入力として確率文脈文法$G(\theta)$の文法構造\$\tuple{\Vn,\Vt,R,S}$と括弧なしコーパス$\corpus$が与えられるものとする.そして訓練パラメタ$\theta$を出力として返す.提案手法において,我々は全体の訓練過程を構文解析とEM学習に分離する.はじめに我々はパーザで$\corpus$中の各文$\win_\ell$をすべて解析する.すると$\trees(\win_\ell)$を細切れにした,しかし$\trees(\win_\ell)$と等価な構文情報$\tuple{O_\ell,\subtrees_\ell}$がパーザのWFSTに格納されているので,これらを抽出する.$\tuple{O_\ell,\subtrees_\ell}$を表現するデータ構造を支持グラフと呼ぶ.次に,支持グラフに基づきgEMアルゴリズムを動作させ$\theta$を得る.図~\ref{gram:ichiro-CNF}のCFG$G1$と文\$\win_\ell=\tuple{急いで,走る,一郎,を,見た}$の例を考えると,支持グラフは図~\ref{fig:CYK-table}において○印と●印がついた部分木の親子から得られる.この例から分かるように,文法によっては\gEMアルゴリズムで参照する支持グラフは三角行列全体に比べて非常に小さくなる可能性があり,その場合は三角行列全体を走査しなければならない\I-Oアルゴリズムに比べ大幅な速度向上が得られる(提案手法の{\bf特長2}).\begin{figure}[t]\atari(83,56)\caption{提案手法の概要.}\label{fig:scheme}\end{figure}\subsection{準備}\label{sec:GEM:preliminary}提案手法を記述する前に形式化を行なう.$\ell=1\ldotsN$について以下をおこなう.まず,$\wfst_\ell\defined\bigcup_{\rseq\in\trees(\win_\ell)}\wfst(\rseq)$,$V_\ell\defined\bigcup_{\rseq\in\trees(\win_\ell)}\labels(\rseq)=\{\tau\mid\tau@\;\cdot\;\in\wfst_\ell\}$と定める\footnote{$\labels(\rseq)$および$\wfst(\rseq)$については節~\ref{sec:PCFG:corpus}で定めたとおりである.}.そして,$V_\ell$の要素を\$\tau_k@\tau_{k_1}\tau_{k_2}\cdots\tau_{k_M}\in\wfst_\ell\Rightarrowk<k_1,k_2,\ldots,k_M$を満たすように並べた$\tuple{\tau_1,\tau_2,\ldots,\tau_{|V_\ell|}}$を\$O_\ell$とする.また,次を導入する.\begin{eqnarray}\subtrees_\ell(A(d,d'))&\defined&\left\{E\left|\begin{array}{l}A(d,d')@\rho_1(d_0,d_1)\rho_2(d_1,d_2)\cdots\rho_M(d_{M-1},d_M)\in\wfst_\ell,\\E=\{\rho_m(d_{m-1},d_m)\midm=1\ldotsM\}\\\q\q\q\q\cup\;\{A\dto\rho_1\rho_2\cdots\rho_M\},\qd=d_0,\;d'=d_M\end{array}\right.\right\}\end{eqnarray}$\wfst_\ell$はコーパス中の文$\win_\ell$の構文木のいずれかに現れる部分木の親子対の集合である.同様に$V_\ell$は$\win_\ell$の構文木のいずれかに現れる部分木ラベルの集合である.$O_\ell$は$V_\ell$の要素を\$\wfst_\ell$中の半順序関係(親子関係)$@$を満たすように順序づけたものである.$O_\ell$の第一要素$\tau_1$は必ず$S(0,n_\ell)$になる.$\subtrees_\ell$は部分木と規則の論理的な関係を表現する.例えば,\[\subtrees_\ell(A(d,d'))=\bigl\{\;\{A\dtoB_1C_1,\;B_1(d,d''_1),\;C_1(d''_1,d')\},\;\{A\dtoB_2C_2,\;B_2(d,d''_2),\;C_2(d''_2,d')\}\;\bigr\}\]に対しては,「$\win_\ell$に対して部分木$A(d,d')$を作るためには,規則$A\dtoB_1C_1$を適用し,部分木$B_1(d,d''_1)$と部分木\$C_1(d''_1,d')$を作る,もしくは規則$A\dtoB_2C_2$を適用し,部分木$B_2(d,d''_2)$と部分木$C_2(d''_2,d')$を作る,のいずれかである(他の場合はあり得ない)」と解釈する.$O_\ell$と$\subtrees_\ell$は次節で説明する支持グラフを構成する.例として,図~\ref{gram:ichiro-CNF}のCFG$G1$と\$\win_\ell=\tuple{急いで,走る,一郎,を,見た}$に対して図~\ref{fig:parse-tree-ichiro-CNF}の2つの構文木$t1$,$t2$を考える.各々に対応する適用規則列を$\rseq_1,\rseq_2$とおくと,$\trees(\win_\ell)=\{\rseq_1,\rseq_2\}$である.このとき$\wfst_\ell$は{\small\begin{eqnarray*}\wfst_\ell&=&\wfst(\rseq_1)\cup\wfst(\rseq_2)\\&=&\{\;\sym{S}(0,5)@\sym{PP}(0,4)\sym{V}(4,5),\;\sym{PP}(0,4)@\sym{NP}(0,3)\sym{P}(3,4),\;\sym{NP}(0,3)@\sym{VP}(0,2)\sym{N}(2,3),\\&&\q\sym{VP}(0,2)@\sym{ADV}(0,1)\sym{V}(1,2),\;\sym{V}(4,5)@\sym{見た}(4,5),\;\sym{P}(3,4)@\sym{を}(3,4),\;\sym{N}(2,3)@\sym{一郎}(2,3),\\&&\q\sym{V}(1,2)@\sym{走る}(1,2),\;\sym{ADV}(0,1)@\sym{急いで}(0,1)\;\}\\&&\cup\;\{\;\sym{S}(0,5)@\sym{ADV}(0,1)\sym{VP}(1,5),\;\sym{ADV}(0,1)@\sym{急いで}(0,1),\;\sym{VP}(1,5)@\sym{PP}(1,4)\sym{V}(4,5),\\&&\q\q\sym{PP}(1,4)@\sym{NP}(1,3)\sym{P}(3,4),\;\sym{NP}(1,3)@\sym{V}(1,2)\sym{N}(2,3),\;\sym{V}(1,2)@\sym{走る}(1,2),\\&&\q\q\sym{N}(2,3)@\sym{一郎}(2,3),\;\sym{P}(3,4)@\sym{を}(3,4),\;\sym{V}(4,5)@\sym{見た}(4,5)\;\}\end{eqnarray*}}\noindentとなる.また,$O_\ell$は一意には決まらないが,どの場合でも第一要素は必ず$\sym{S}(0,5)$になる点に注意する.例えば下のような$O_\ell$が考えられる.{\small\[\begin{array}{l}O_\ell=\langle\sym{S}(0,5),\sym{VP}(1,5),\sym{PP}(1,4),\sym{NP}(1,3),\sym{V}(4,5),\sym{PP}(0,4),\sym{P}(3,4),\\\q\q\q\sym{NP}(0,3),\sym{N}(2,3),\sym{VP}(0,2),\sym{V}(1,2),\sym{ADV}(0,1)\rangle\end{array}\]}\noindentまた$\subtrees_\ell$を$O_\ell$の順に示す.\begin{small}\[{\arraycolsep=4pt\begin{array}{lll|lll}\subtrees_\ell(\sym{S}(0,5))&=&\{\;\{\sym{S}\dto\sym{PP}\;\sym{V},\;\sym{PP}(0,4),\;\sym{V}(4,5)\},&\subtrees_\ell(\sym{NP}(0,3))&=&\{\;\{\sym{NP}\dto\sym{VP}\;\sym{N},\\&&\q\{\sym{S}\dto\sym{ADV}\;\sym{VP},\;\sym{ADV}(0,1),\;\sym{VP}(1,5)\}\;\}&&&\q\sym{VP}(0,2),\;\sym{N}(2,3)\}\;\}\\\subtrees_\ell(\sym{VP}(1,5))&=&\{\;\{\sym{VP}\dto\sym{PP}\;\sym{V},\;\sym{PP}(1,4),\;\sym{V}(4,5)\}\;\}&\subtrees_\ell(\sym{N}(2,3))&=&\{\;\{\sym{N}\dto\sym{一郎}\}\;\}\\\subtrees_\ell(\sym{PP}(1,4))&=&\{\;\{\sym{PP}\dto\sym{NP}\;\sym{P},\;\sym{NP}(1,3),\;\sym{P}(3,4)\}\;\}&\subtrees_\ell(\sym{VP}(0,2))&=&\{\;\{\sym{VP}\dto\sym{ADV}\;\sym{V},\\\subtrees_\ell(\sym{NP}(1,3))&=&\{\;\{\sym{NP}\dto\sym{V}\;\sym{N},\;\sym{NP}(1,2),\;\sym{N}(2,3)\}\;\}&&&\q\sym{ADV}(0,1),\;\sym{V}(1,2)\}\;\}\\\subtrees_\ell(\sym{V}(4,5))&=&\{\;\{\sym{V}\dto\sym{見た}\}\;\}&\subtrees_\ell(\sym{V}(1,2))&=&\{\;\{\sym{V}\dto\sym{走る}\}\;\}\\\subtrees_\ell(\sym{PP}(0,4))&=&\{\;\{\sym{PP}\dto\sym{NP}\;\sym{P},\;\sym{NP}(0,3),\;\sym{P}(3,4)\}\;\}&\subtrees_\ell(\sym{ADV}(0,1))&=&\{\;\{\sym{ADV}\dto\sym{急いで}\}\;\}\\\subtrees_\ell(\sym{P}(3,4))&=&\{\;\{\sym{P}\dto\sym{を}\}\;\}\end{array}}\]\end{small}\subsection{支持グラフ}\label{sec:GEM:support-graph}$\tuple{O_\ell,\subtrees_\ell}$という組を支持グラフ$\sg_\ell$というデータ構造で捉えるとgEMアルゴリズムが理解しやすくなる.「グラフィカルEM」の名もここに由来する.まず,前節で示した$O_\ell$,$\subtrees_\ell$の例に対応する支持グラフを図~\ref{fig:support-graph-ichiro}(a)に示す.支持グラフ$\sg_\ell$は再帰遷移ネットワーク(recursivetransitionnetwork;以下RTN)に似た構造をもつ非循環有向グラフ(DAG)であり,共通の辺をもたない部分グラフ\$\subsg_\ell(\tau)\defined\tuple{\tau,\subtrees_\ell(\tau)}$の集まりから成る(ただし$\tau\inO_\ell$).各$\subsg_\ell(\tau)$は「$\tau$の部分支持グラフ」と呼ばれ,$\tau=A(d,d')$が付与されている.また,$\subsg_\ell(\tau)$は開始ノード,終了ノードと呼ばれる2つの特殊なノードをもち(図~\ref{fig:support-graph-ichiro}では各々{\sfstart},{\sfend}と書かれている),各$E\in\subtrees_\ell(\tau)$に対して開始ノード,$E$の各要素(規則$A\dto\zeta$または部分木ラベル$A(d,d')$)が付与されたノード,終了ノードが一列に連結されている.複数のノードに同じ規則または部分木ラベルが付与されることもある点に注意する.有向辺はすべて開始ノードから終了ノードに向かっている.開始ノードから終了ノードに至るパスを局所パスと呼び,これも$E$で参照する.局所パスにおいて,規則$A\dto\zeta$が付与されたノードを基本ノード,部分木ラベル$A(d,d')$が付与されたノードを中間ノードと呼び,各々図~\ref{fig:support-graph-ichiro}のように○と◎で表す.支持グラフは次の特徴をもつ.\begin{enumerate}\item支持グラフ$\sg_\ell$に対してRTNのように再帰的な巡回を行なうことができる.\item複数の巡回パスの一部が共有される.\item部分支持グラフ$\subsg_\ell(\tau)=\tuple{\tau,\subtrees(\tau)}$の$E\in\subtrees_\ell(\tau)$に対して,どの$\tau'=A(d,d')\inE$についても$\tau@\tau'$が成り立つ.\item一つの局所パス中に存在する基本ノードと中間ノードの数に制限がない.\end{enumerate}\begin{figure}[t]\atari(140,74)\caption{支持グラフの例.}\label{fig:support-graph-ichiro}\end{figure}1つ目の特徴である再帰的な巡回は次のようにして行なわれる.$S(0,n_\ell)$の開始ノードから出発し,辺に沿って各ノードを訪問していくが,途中に中間ノード$\tau=A(d,d')$があったら,$\tau$が付与された部分支持グラフ$\tau$の開始ノードにジャンプする.そして終了ノードに至ったらジャンプ元のノードに戻る.これを再帰的に繰り返し,$S(0,n_\ell)$の終了ノードに至ったら一回の巡回を終了する.分岐がある場合はその中のどれかを選ぶ.このような巡回の途中で中間ノードに付与される部分木ラベルを集めると$\win_\ell$の構文木いずれか一つのラベル集合が得られる.また,局所パス中のノードの順序を図~\ref{fig:support-graph-ichiro}のようにして,巡回中に基本ノードに付与されている規則を順に集めると\$\win_\ell$の最左導出における適用規則列$\rseq\in\trees(\win_\ell)$が一つ得られる.再帰的巡回を全通り行なえば$\trees(\win_\ell)$中の適用規則列をすべて見つけることができる.この考えは後に記述するgEMアルゴリズムの正当性を示すときに用いる(付録~\ref{sec:GEM-validity}).図~\ref{fig:support-graph-ichiro}~(b)に再帰的巡回の例を示す.2つ目の特徴が得られるのは,ある再帰的巡回において,同じ部分木ラベル$\tau=A(d,d')$が付与されたノードでは同じ部分支持グラフ$\subsg_\ell(\tau)$にジャンプするためである.このような共有構造により支持グラフのサイズが圧縮され,我々はgEMアルゴリズムを支持グラフの上で動作させることによって効率的な確率計算を実現する.例えば,図~\ref{fig:support-graph-ichiro}(a)において$\sym{V}(4,5)$が付与されたノード($\times$印)では同じ部分支持グラフ\$\subsg_\ell(\sym{V}(4,5))$にジャンプする.3つ目の特徴は,$\varepsilon$規則およびサイクル$A\derivesplusA$が存在しないという仮定と,$O_\ell$,$\subtrees_\ell$の定義から明らかであり,「$\tau@\tau'$であるとき,$\tau'$の部分支持グラフ$\subsg_\ell(\tau')$中のノードは$\tau$を参照しない」と言い替えることもできる.この事実に基づき,I-Oアルゴリズムの内側・外側確率計算における動的計画法(節~\ref{sec:PCFG:IO})の考えを一般化したものがgEMアルゴリズムに導入されている.また,4つ目の特徴は支持グラフの構造の一般性を示しているが,gEMアルゴリズムはこの一般性を保持するように記述される.\subsection{支持グラフの獲得}\label{sec:GEM:extract-support-graph}次に,支持グラフ$\tuple{O_\ell,\subtrees_\ell}$をパーザがもつWFSTから効率的に抽出する方法を説明する.$O_\ell$は$V_\ell$の要素を$\wfst_\ell$における半順序関係$@$を満たすように全順序に並べたものである.一般に,半順序関係の全順序関係への変換はトポロジカルソーティングによって実現される.従って,我々はトポロジカルソーティングの考えに基づき$O_\ell$を獲得する.また,ソーティングの途中で$\subtrees_\ell$が計算できる.以上を実現する支持グラフ抽出ルーチン$\proc{Extract-CYK}$を図~\ref{alg:extract-sg}(上)に示す.ただし,そのサブルーチンは利用するパーザのWFSTの形式に特化したものを用意する.図~\ref{alg:extract-sg}(下)にCYK用サブルーチン\$\proc{Visit-CYK}$を示す.我々は大域的にスタック\footnote{スタック用手続きとして,スタック$U$を空にする$\proc{ClearStack}(U)$,スタック$U$にオブジェクト$x$をpushする$\proc{PushStack}(x,U)$,スタック$U$をpopして,popされたオブジェクトを返す$\proc{PopStack}(U)$の3つを用意する.}$U$とフラグ$\varComp[\cdot]$を用意し,再帰的手続き$\proc{Visit-CYK}$で三角行列(CYKのWFST)の右上隅から部分木$A(d,d')$を次々に訪問する($\proc{Extract-CYK}$行~\ref{list:preproc-CYK:call-visit}).そして訪問が終ったら,部分木のラベルをスタック$U$に積む($\proc{Visit-CYK}$行~\ref{list:visit-CYK:push}).また,訪問の途中で$\subtrees_\ell$を記録していく($\proc{Visit-CYK}$行~\ref{list:visit-CYK:add1},~\ref{list:visit-CYK:add2}).フラグ$\varComp[\cdot]$に訪問したことを記録し,一度訪問した部分木には行かない($\proc{Visit-CYK}$行~\ref{list:visit-RB:mark},\ref{list:visit-CYK:recursion:begin}--\ref{list:visit-CYK:recursion:end}).最後にスタック$U$に積んであった部分木ラベルを順に取り出せば($\proc{Extract-CYK}$行~\ref{list:preproc-CYK:pop:begin}--\ref{list:preproc-CYK:pop:end}),それが$O_\ell$になっている.\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Extract-CYK}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiInitializeall$\subtrees_\ell(\cdot)$to$\emptyset$andall$\varComp[\cdot]$to$\sym{NO}$;\itemii$\proc{ClearStack}(U)$;\q\progcomment{スタックを初期化}\label{list:preproc-CYK:clear-U}\itemii$\proc{Visit-CYK}(\ell,S,0,n_\ell)$;\q\progcomment{各パーザ専用ルーチン;三角行列右上隅から巡回}\label{list:preproc-CYK:call-visit}\itemii\rw{for}$k:=1$\rw{to}$|U|$\rw{do}$\tau_k:=\proc{PopStack}(U)$;\q\progcomment{スタック中の整列結果を順に取り出す}\label{list:preproc-CYK:pop:begin}\itemii$O_\ell:=\tuple{\tau_1,\tau_2,\ldots,\tau_{|U|}}$\label{list:preproc-CYK:pop:end}\itemi\rw{end}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Visit-CYK}(\ell,A,d,d')$\rw{begin}\itemiPut$\tau=A(d,d')$andthen$\varComp[\tau]:={\ttYES}$;\q\progcomment{訪問を記録}\label{list:visit-CYK:mark}\itemi\rw{if}$d'=d+1$\rw{and}$A(d,d')@w_{d'}(d,d')\inT_{d,d'}^{(\ell)}$\rw{then}Addaset$\{A\dtow_{d'}\}$to$\subtrees_\ell(\tau)$\label{list:visit-CYK:add1}\itemi\rw{else}\itemii\rw{foreach}$A(d,d')@B(d,d'')C(d'',d')\inT_{d,d'}^{(\ell)}$\rw{do}\rw{begin}\label{list:visit-CYK:foreachABC}\itemiiiAddaset$\{A\dtoBC,\;B(d,d''),\;C(d'',d')\}$to$\subtrees_\ell(\tau)$;\label{list:visit-CYK:add2}\itemiii\rw{if}$\varComp[B(d,d'')]={\ttNO}$\rw{then}\label{list:visit-CYK:recursion:begin}$\proc{Visit-CYK}(\ell,B,d,d'')$;\q\progcomment{再帰}\itemiii\rw{if}$\varComp[C(d'',d')]={\ttNO}$\rw{then}$\proc{Visit-CYK}(\ell,C,d'',d')$\q\progcomment{再帰}\label{list:visit-CYK:recursion:end}\itemii\rw{end};\itemi$\proc{PushStack}(\tau,U)$\label{list:visit-CYK:push}\item\rw{end}.\end{listing}\caption{(上)支持グラフ抽出ルーチン$\proc{Extract-CYK}$,(下)CYKパーザ用サブルーチン$\proc{Visit-CYK}$.}\label{alg:extract-sg}\end{figure}GLRパーザのWFSTである共有圧縮統語森は$\wfst_\ell$を木(森)構造で捉えたものと見ることができる.GLRパーザは文法構造にChomsky標準形を要求しないので,$\proc{Visit-CYK}$よりも一般的な形で記述する必要があるが,スタック$U$,フラグ$\varComp[\cdot]$を用いる点や再帰手続きになる点など基本手続きは$\proc{Visit-CYK}$と変わらない.また,支持グラフ抽出ルーチンの動作はパーザ備え付けの構文木出力ルーチンや構文木数え上げルーチンによく似ている.従って,支持グラフ抽出ルーチンを実装するときにはこれらのルーチンを基にすればよい.\subsection{グラフィカルEMアルゴリズム}\label{sec:GEM:GEM}提案手法によるPCFG訓練のメインルーチン$\proc{Learn-PCFG}$は図~\ref{alg:learn-PCFG}のようになる.2つのサブルーチン$\proc{CYK-Parser}$と\$\proc{Extract-CYK}$は先に説明した.本節ではgEMアルゴリズムを実現する手続き$\proc{Graphical-EM}$を記述する.I-Oアルゴリズムと同様,gEMアルゴリズムでも内側・外側確率という2つの確率値の計算が中心になる.各$\tau\inO_\ell$の内側確率,外側確率の値は$\varP[\ell,\tau]$,$\varQ[\ell,\tau]$という配列変数に格納される.これは各部分支持グラフ\$\subsg_\ell(\tau)=\tuple{\tau,\subtrees_\ell(\tau)}$によって保持される.また,$\subsg_\ell(\tau)$は各局所パス$E\in\subtrees_\ell(\tau)$ごとに配列変数$\varR[\ell,\tau,E]$をもつ.また,配列変数$\varON[A\dto\zeta]$に規則$A\dto\zeta$の期待適用回数が格納される.$\proc{Graphical-EM}$は内側確率を計算する$\proc{Get-Inside-Probs}$,外側確率と規則の期待適用回数を同時に計算する$\proc{Get-Expectations}$という2つのサブルーチンをもつ.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Learn-PCFG}(\corpus)$\rw{begin}\itemi$\proc{CYK-Parser}(\corpus)$;\q\progcomment{$\corpus$の解析結果のWFSTを生成}\itemi$\proc{Extract-CYK}()$;\q\progcomment{WFSTから支持グラフを抽出}\itemi$\proc{Graphical-EM}()$\q\progcomment{支持グラフを参照しながらパラメタ$\theta$を訓練}\item\rw{end}.\end{listing}\caption{PCFG訓練のメインルーチン$\proc{Learn-PCFG}$.}\label{alg:learn-PCFG}\end{figure}\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Graphical-EM}()$\rw{begin}\itemiInitializeallparameters$\theta(A\dto\zeta)$suchthat$P(\win_\ell|\theta)>0$forall$\ell=1\ldotsN$;\label{list:gEM:init}\itemi$\proc{Get-Inside-Probs}()$;\itemi$\lambda^{(0)}:=\sum_{\ell=1}^N\log\varP[\ell,S(0,n_\ell)]$;\label{list:gEM:loglike:1}\itemi\rw{repeat}\label{list:gEM:repeat:begin}\itemii$\proc{Get-Expectations}()$;\label{list:gEM:call-expect}\itemii\rw{foreach}$(A\dto\zeta)\inR$\rw{do}\label{list:gEM:update:begin}\itemiii$\theta(A\dto\zeta):=\varON[A\dto\zeta]/\sum_{\zeta':(A\to\zeta')\inR}\varON[A\dto\zeta']$;\label{list:gEM:update:end}\itemii$m\incby1$;\itemii$\proc{Get-Inside-Probs}()$;\itemii$\lambda^{(m)}:=\sum_{\ell=1}^N\log\varP[\ell,S(0,n_\ell)]$\label{list:gEM:loglike:2}\itemi\rw{until}$\lambda^{(m)}-\lambda^{(m-1)}$becomessufficientlysmall\label{list:gEM:repeat:end}\item\rw{end}.\end{listing}\caption{gEMアルゴリズムのメインルーチン$\proc{Graphical-EM}$.}\label{alg:GEM}\end{figure}$\proc{Graphical-EM}$を図~\ref{alg:GEM}に示す.$\proc{Graphical-EM}$では,はじめにすべてのパラメタを初期化する(行~\ref{list:gEM:init}).そして,$\proc{Get-Inside-Probs}$,$\proc{Get-Expectations}$,パラメタの更新(行~\ref{list:gEM:update:begin}--\ref{list:gEM:update:end})をこの順に繰り返す.対数尤度$\lambda$が収束したら(行~\ref{list:gEM:repeat:end}),その時点でのパラメタ値$\theta$を推定値$\theta^{\ast}$として終了する.$\varP[\ell,S(0,n_\ell)]$に文$\win_\ell$の生起確率$P(\win_\ell)$が格納されており,対数尤度の計算にはこの値を使う(行~\ref{list:gEM:loglike:1},~\ref{list:gEM:loglike:2}).図~\ref{alg:GEM-sub}にサブルーチン$\proc{Get-Inside-Probs}$,$\proc{Get-Expectations}$を示す.また,図~\ref{fig:GEM-sub}は支持グラフ上における各々の計算イメージである.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Get-Inside-Probs}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPut$O_\ell=\tuple{\tau_1,\tau_2,\ldots,\tau_{|O_\ell|}}$;\itemii\rw{for}$k:=|O_\ell|$\rw{downto}$1$\rw{do}\rw{begin}\label{list:get-ip:for-k:begin}\itemiii\rw{foreach}$E\in\subtrees_\ell(\tau_k)$\rw{do}\rw{begin}\label{list:get-ip:foreachE:begin}\itemiiii$\varR[\ell,\tau_k,E]:=1$;\itemiiii\rw{foreach}$\tau'\inE$\rw{do}\label{list:get-ip:for-tau:begin}\itemiiiii\rw{if}$\tau'=(A\dto\zeta)$\rw{then}$\varR[\ell,\tau_k,E]\mulby\theta(A\dto\zeta)$\rw{else}$\varR[\ell,\tau_k,E]\mulby\varP[\ell,\tau']$\label{list:get-ip:for-tau:end}\itemiii\rw{end};\q\progcomment{\rw{foreach}$E$}\itemiii$\varP[\ell,\tau_k]:=\sum_{E\in\subtrees_\ell(\tau_k)}\varR[\ell,\tau_k,E]$\label{list:get-ip:calc-P}\itemii\rw{end}\q\progcomment{\rw{for}$k$}\label{list:get-ip:for-i:end}\itemi\rw{end}\q\progcomment{\rw{for}$\ell$}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Get-Expectations}()$\rw{begin}\itemi\rw{foreach}$(A\dto\zeta)\inR$\rw{do}$\varON[A\dto\zeta]:=0$;\label{list:get-exp:init:eta}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPut$O_\ell=\tuple{\tau_1,\tau_2,\ldots,\tau_{|O_\ell|}}$;\itemii\rw{for}$k:=2$\rw{to}$|O_\ell|$\rw{do}$\varQ[\ell,\tau_k]:=0$;\label{list:get-exp:init:s:1}\itemii$\varQ[\ell,\tau_1]:=1$;\q\progcomment{$\tau_1$は特別に1に初期化}\label{list:get-exp:init:s:2}\itemii\rw{for}$k:=1$\rw{to}$|O_\ell|$\rw{do}\label{list:get-exp:for-i:begin}\itemiii\rw{foreach}$E\in\subtrees_\ell(\tau_k)$\rw{do}\label{list:get-exp:foreach-E}\itemiiii\rw{foreach}$\tau'\inE$\rw{do}\itemiiiii\rw{if}$\tau'=(A\dto\zeta)$\rw{then}$\varON[A\dto\zeta]\incby\varQ[\ell,\tau_k]\cdot\varR[\ell,\tau_k,E]/\varP[\ell,S(0,n_\ell)]$\label{list:get-exp:updateON}\itemiiiii\rw{else}\rw{if}$\varP[\ell,\tau']>0$\rw{then}$\varQ[\ell,\tau']\incby\varQ[\ell,\tau_k]\cdot\varR[\ell,\tau_k,E]/\varP[\ell,\tau']$\label{list:get-exp:updateQ}\itemi\rw{end}\q\progcomment{\rw{for}$\ell$}\item\rw{end}.\end{listing}\caption{$\proc{Graphical-EM}$のサブルーチン:(上)内側確率を計算する$\proc{Get-Inside-Probs}$,\\(下)外側確率および規則の期待適用回数を計算する$\proc{Get-Expectations}$.}\label{alg:GEM-sub}\end{figure}$\proc{Get-Inside-Probs}$における内側確率$\varP[\ell,\tau]$の計算は$O_\ell$の最後尾の部分支持グラフから順に行なう.$\tau_k$の部分支持グラフ\$\subsg_\ell(\tau_k)=\tuple{\tau_k,\subtrees_\ell(\tau_k)}$($k=1\ldots|O_\ell|$)の各局所パス$E\in\subtrees_\ell(\tau_k)$ではパス中の各ノードの確率積を計算し,$\varR[\ell,\tau_k,E]$に格納する(行~\ref{list:get-ip:for-tau:begin}--\ref{list:get-ip:for-tau:end},図~\ref{fig:GEM-sub}(1)).その際,基本ノード$A\dto\zeta$に対してパラメタ\$\theta(A\dto\zeta)$を乗じ,中間ノード$\tau'$に対して内側確率$\varP[\ell,\tau']$を乗じる\footnote{節~\ref{sec:GEM:support-graph}で述べた支持グラフの3つ目の特徴より$\tau'=\tau_{k'}$とおくと必ず$k<k'$であることと,$\varP$の計算は$O_\ell$の最後尾から順に行なわれることから,$\varP[\ell,\tau']$は参照されるとき既に計算済みになっている点に注意する.}(図~\ref{fig:GEM-sub}(2)).最後に$\varR[\ell,\tau_k,E]$の和によって$\varP[\tau_k]$を計算する(行~\ref{list:get-ip:calc-P},図~\ref{fig:GEM-sub}(3)).\begin{figure}[t]\atari(142,57)\caption{サブルーチン$\proc{Get-Inside-Probs}$(左)と\$\proc{Get-Expectations}$(右)の計算イメージ.}\label{fig:GEM-sub}\end{figure}一方,$\proc{Get-Expectations}$では$\proc{Get-Inside-Probs}$とは逆に$O_\ell$の先頭の部分支持グラフから順に計算を進める.はじめに配列変数$\varQ$と$\varON$を初期化する.特に外側確率$\varQ[\ell,\cdot]$について$O_\ell$の先頭要素\$\tau_1=S(0,n_\ell)$のみを1,他は0にする点に注意する(行~\ref{list:get-exp:init:s:1}--\ref{list:get-exp:init:s:2}).次に,ある$k=1\ldots|O_\ell|$について$\tau_k$の部分支持グラフ\$\subsg_\ell(\tau_k)$の局所パス$E$を考える(行~\ref{list:get-exp:foreach-E}).更に,行~\ref{list:get-exp:updateQ}で外側確率$\varQ$が書き換えられる$\tau'\inE$を考える.また,行~\ref{list:get-exp:updateQ}の式で$\varQ[\ell,\tau']$に加算されるのは,$E$における$\tau'$の局所的な外側確率(パス$E$に現れる$\tau'$以外のノードの確率積)と$\tau'$の親部分木$\tau_k$の外側確率$\varQ[\ell,\tau_k]$の積である\footnote{$\tau'=\tau_{k'}$とおくと,支持グラフの3つ目の特徴より必ず$k<k'$が成り立つので,$\tau'$は$O_\ell$では常に$\tau_k$より後ろに現れる.逆にいえば$k''=k\ldots|O_\ell|$なる部分支持グラフ\$\subsg_\ell(\tau_{k''})$では$\varQ[\ell,\tau_k]$の値は書き換えられることはなく,従って行~\ref{list:get-exp:updateQ}の式の右辺に現れる$\varQ[\ell,\tau_k]$は既に計算済みである.}(図~\ref{fig:GEM-sub}(4)).また,行~\ref{list:get-exp:updateON}において,基本ノード\$A\dto\zeta$に対しては局所パスの確率$\varR[\ell,\tau_k,E]$と親部分木$\tau_k$の外側確率$\varQ[\ell,\tau_k]$の積を文$\win_\ell$の生起確率$P(\win_\ell)$で割って\footnote{$\proc{Graphical-EM}$行~\ref{list:gEM:init}のように,すべての$\ell=1\ldotsN$について$P(\win_\ell|\theta)>0$となる$\theta$に初期化しているので,以降$\theta$の更新が行なわれても$P(\win_\ell|\theta)=0$となることはない.この事実は,gEMアルゴリズムにおける$\eta[r]$の更新値とFujisakiらの方法(式~\ref{eq:Fujisaki-eta})における$\eta[r]$の更新値が等しいと仮定したとき(これは付録~\ref{sec:GEM-validity}で直観的に証明される),以下のように帰納的に証明される:まず$m$回目の更新後のパラメタ$\theta^{(m)}$の下で\$P(\win_\ell|\theta^{(m)})>0$が成り立つとする.すると,ある$\rseq\in\subtrees(\win_\ell)$に対して\$P(\rseq|\theta^{(m)})>0$が成り立つ.そしてこの$\rseq$に出現する任意の規則$r\in\rseq$について,$\occ(r,\rseq)>0$が成り立つことと式~\ref{eq:Fujisaki-eta}より,$\theta^{(m)}$の下で$\eta[r]>0$となる.すると$\proc{Graphical-EM}$行~\ref{list:gEM:update:end}により更新後のパラメータ$\theta^{(m+1)}(r)>0$が保たれる.従って同じ$\rseq$に対して$P(\rseq|\theta^{(m+1)})>0$が成り立ち,これより$P(\win_\ell|\theta^{(m+1)})>0$もまた成り立つ.以上で\$P(\win_\ell|\theta^{(m)})>0\RightarrowP(\win_\ell|\theta^{(m+1)})>0$が言えたので,パラメタを$P(\win_\ell|\theta^{(0)})>0$なる\$\theta^{(0)}$に初期化すれば,以降の更新$m=1,2,\ldots$では必ず$P(\win_\ell|\theta^{(m)})>0$である.(証明終)また,$P(\win_\ell|\theta)>0$とするために,現実的にはすべての規則$r\inR$について$\theta(r)>0$となる$\theta$を選べば十分である.}$\varON[A\dto\zeta]$に足し込む(図~\ref{fig:GEM-sub}(5)).こうして$\varON[A\dto\zeta]$の内容を書き換えていくと,$\proc{Get-Expectations}$の終了時には$\varON[A\dto\zeta]$に$A\dto\zeta$の期待適用回数が格納されている.gEMアルゴリズムの計算は支持グラフの1つ目の特徴である支持グラフ$\sg_\ell$の再帰的巡回(節~\ref{sec:GEM:support-graph})に基づいて正当化される.それを付録~\ref{sec:GEM-validity}で示す.一般に,EMアルゴリズムは尤度関数の山登りを行なうため局所的な最尤推定しか保証しない.従って訓練されたパラメタの質は初期パラメタ値に依存する.LariとYoungはHMMを利用して初期パラメタ値を与える方法を提案している~\cite{Lari90}.最も簡便な解決法としては,初期パラメタをランダムに設定することとEMアルゴリズムを動作させることを$h$回繰り返し,その中で収束時の対数尤度が最も高かった回の収束パラメタ値を訓練パラメタ値とする.この方法を以降では簡単に再出発法と呼ぶ.\subsection{予測構文木の計算}\label{sec:GEM:ML-tree}いったんパラメタ$\theta^{\ast}$が訓練されたら,括弧なしであるテストコーパスの各文$\win_\ell$に対して$\rseq^{\ast}_\ell\defined\max_{{\rmall}\;\rseq}P(\rseq|\win_\ell)=\max_{{\rmall}\;\rseq}P(\rseq,\win_\ell)=\max_{\rseq\in\trees(\win_\ell)}P(\rseq)$なる$\rseq^{\ast}_\ell$を計算することができる.$\rseq^{\ast}_\ell$に対応する構文木$t^{\ast}_\ell$を予測構文木(以下,単に予測木)という.この予測木$t^{\ast}_\ell$によって入力文$\win_\ell$に対する構文的曖昧性が解消される.ただし,$|\trees(\win_\ell)|$は指数オーダなので,ここでも支持グラフに基づいて$t^{\ast}_\ell$を計算する.予測木$t^{\ast}_\ell$を計算する手続き$\proc{Predict}$およびそのサブルーチン$\proc{Construct-Tree}$を図~\ref{alg:predict}に示す.$\proc{Predict}$はテストコーパス\$\corpus=\tuple{\win_1,\win_2,\ldots,\win_N}$を受けとり,各$\win_\ell$に対する予測木中の部分木ラベルの集合$\labels(t^{\ast}_\ell)$を$\labels^{\ast}_\ell$に格納する.$\proc{Predict}$では,はじめにパーザ,支持グラフ抽出ルーチン,内側確率計算ルーチン$\proc{Get-Inside-Probs}$の3つを走らせる(行~\ref{line:predict-tree:parser}).次に,$\proc{Get-Inside-Probs}$が計算した確率値$\varR[\ell,\tau,E]$を参照しながら,$\delta[\ell,\tau]$に最も確率の高い$\tau$の局所パスを記録する(行~\ref{line:predict-tree:record}).再帰手続き$\proc{Construct-Tree}$では,支持グラフ$\sg_\ell$の再帰的巡回に基づき,$\delta[\ell,\tau]$中のラベル$A(d,d')$を$\labels^{\ast}_\ell$に追加する(行~\ref{line:const-pred-tree:add})ことで予測木を構築する.$\delta[\ell,\tau]$に複数の局所パス候補を格納するように拡張すれば,生起確率上位$n$個の予測木が獲得できる.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Predict}(\corpus)$\rw{begin}\itemiPut$N=|\corpus|$;\itemi$\proc{CYK-Parser}(\corpus)$;\q$\proc{Extract-CYK}()$;\q$\proc{Get-Inside-Probs}()$;\label{line:predict-tree:parser}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPut$O_\ell=\tuple{\tau_1,\tau_2,\ldots,\tau_{|O_\ell|}}$;\itemii\rw{for}$k:=1$\rw{to}$|O_\ell|$\rw{do}$\delta[\ell,\tau_k]:=\mathop{\mbox{argmax}}_{E\in\subtrees_\ell(\tau_k)}\varR[\ell,\tau_k,E]$;\label{line:predict-tree:record}\itemii$\labels^{\ast}_\ell:=\emptyset$;\itemii$\proc{Construct-Tree}(\ell,\tau_1)$\q\progcomment{必ず$\tau_1=S(0,n_\ell)$である.}\itemi\rw{end}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Construct-Tree}(\ell,\tau)$\rw{begin}\itemi\rw{foreach}$\tau'\in\delta[\ell,\tau]$suchthat$\tau'=A(d,d')$\rw{do}\rw{begin}\itemiiAdd$\tau'$to$\labels^{\ast}_\ell$;\label{line:const-pred-tree:add}\itemii$\proc{Construct-Tree}(\ell,\tau')$\itemi\rw{end}\item\rw{end}.\end{listing}\caption{予測木計算ルーチン$\proc{Predict}$とそのサブルーチン$\proc{Construct-Tree}$.}\label{alg:predict}\end{figure}\subsection{計算量}\label{sec:GEM:complexity}節~\ref{sec:PCFG:IO}のI-Oアルゴリズムの計算量評価で述べたように,収束までのパラメタ更新回数は初期値に依存するため,1回のパラメタ更新に要する計算量をgEMアルゴリズムの計算量とする.手続き$\proc{Graphical-EM}$では{\bfrepeat}ループ内の計算量をはかればよい.まず,各$\ell=1\ldotsN$について\$O_\ell=\tuple{\tau_1^{(\ell)},\tau_2^{(\ell)},\ldots,\tau^{(\ell)}_{|O_\ell|}}$とおく.$\proc{Graphical-EM}$に呼び出される\$\proc{Get-Inside-Probs}$はその内部処理において$k=1\ldots|O_\ell|$について$|\subtrees_\ell(\tau_k^{(\ell)})|$の要素を一回ずつ訪れることから,\begin{eqnarray}\mu_{\rmnum}&\defined&\max_{\ell=1\ldotsN}\sum_{k=1}^{|O_\ell|}\big|\subtrees_\ell(\tau_k^{(\ell)})\big|\label{eq:xi-num}\\\mu_{\rmmaxsize}&\defined&\max_{E:\;\ell=1\ldotsN,\;k=1\ldots|O_\ell|,\;E\in\subtrees_\ell(\tau_k^{(\ell)})}|E|\label{eq:xi-maxsize}\end{eqnarray}を導入すると,手続き$\proc{Get-Inside-Probs}$の計算量は\$O(\mu_{\rmnum}\mu_{\rmmaxsize}N)$である.同様に手続き$\proc{Get-Expectations}$においても\$O(\mu_{\rmnum}\mu_{\rmmaxsize}N)$の計算量を要する.I-Oアルゴリズムの計算量評価と同様,訓練コーパス$\corpus$に対して最長の文の長さを$L$とし,非終端記号集合$\Vn$,終端記号集合$\Vt$を固定する.我々はChomsky標準形を満たす文法に対する最悪計算量を考える.そのために,まずChomsky標準形を満たす最大のPCFGとして節~\ref{sec:PCFG:IO}式~\ref{eq:Rmax}で導入した規則集合$\Rmax$を考える.このとき,$A\in\Vn$,$0\led,d'\leL$,$d+2\led'$なる\$A$,$d$,$d'$について下が成り立つ($d'=d+1$の場合は無視できる):\begin{equation}\subtrees_\ell(A(d,d'))=\bigl\{\{A\dtoBC,\;B(d,d''),\;C(d'',d')\}\;\big|\;B,C\in\Vn,\;d<d''<d'\bigr\}_{\mbox{.}}\label{eq:possible-psi}\end{equation}$|O_\ell|=\bigl|\{A(d,d')\midA\in\Vn,\;0\led<d'\leL\}\bigr|=O(|\Vn|L^2)$かつ$\big|\subtrees_\ell(\tau)\big|=O(|\Vn|^2L)$が成り立ち,定義より$\mu_{\rmnum}=O(|\Vn|^3L^3)$となる.同様に定義より$\mu_{\rmmaxsize}=3=O(1)$である.また,$\theta(A\dto\beta)$の更新に要する計算量は$O(|\Rmax|)$だが,$|\Rmax|=O(|\Vn|^3)$なので無視できる.以上より手続き$\proc{Graphical-EM}$の{\bfrepeat}ループ内の計算量は$O(|\Vn|^3L^3N)$である.以上よりgEMアルゴリズムの最悪計算量はI-Oアルゴリズムと同じ$O(|\Vn|^3L^3N)$である.Chomsky標準形を仮定したとき,CYKパーザ$\proc{CYK-Parser}$と支持グラフ抽出ルーチン$\proc{Extract-CYK}$の最悪計算量はEMの一更新ステップの最悪計算量と同じ\$O(|\Vn|^3L^3N)$である.ただ,EMアルゴリズムでは更新ステップを数10から数100回繰り返すのが通常なので$\proc{Extract-CYK}$が訓練全体に占める割合は小さい.同様にChomsky標準形を仮定したとき,一つの文に対する生起確率計算,予測木の計算いずれの計算量も$O(|\Vn|^3L^3)$である($N=1$).また,式~\ref{eq:parent-children}の形をした部分木の親子対を構成要素とするWFSTをもつパーザ(例えばCYKやGLR)では,抽出される$O_\ell$,$\subtrees_\ell$は全く同じになるので,提案手法の計算量は組み合わせたパーザによる差はない.Earleyパーザを用いた場合に関する評価は付録~\ref{sec:Stolcke}に示す. \section{訓練時間に関する実験} \label{sec:experiment}我々は現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される(提案手法の{\bf特長2})ことを示すため,ATR対話コーパス(SLDB)でパラメタ推定に要する計算時間(訓練時間と呼ぶ)を計測した.対象PCFGの元になるCFGは860規則から成る,田中らが開発した音声認識用日本語文法~\cite{Tanaka97}に手が加えられたものである.以降ではこのCFGを$\Gtanaka$で参照する.ATR対話コーパスもこの文法に対応して手が加えられている.$\Gtanaka$は品詞を細分化したカテゴリを終端記号としたCFGであり,非終端記号数173,終端記号数441である.ATR対話コーパス中の文では,(実際の単語ではなく)上記カテゴリの列を対象とした.文長は平均9.97,最短2,最長49である.また,$\Gtanaka$の規則集合$\Rtanaka$はChomsky標準形ではないので,GLRパーザとの組合せを採用した\footnote{具体的には,東京工業大学田中・徳永研究室で開発・公開されている\MSLR(MorphologicalandSyntacticLR)パーザに支持グラフ抽出ルーチンとgEMアルゴリズムのルーチンを連結した.MSLRパーザは\verb|http://tanaka-www.cs.titech.ac.jp/pub/mslr/|で公開されている.MSLRパーザは形態素解析と構文解析を同時に行なう機能を有するが,今回の実験では構文解析機能のみを使用した.MSLRパーザを含め,実験で用いたプログラムはすべてC言語で実装されている.Cコンパイラはgcc2.8.1を使用した.また,実験で使用した計算機のCPUとOSはそれぞれ\SunUltraSPARC-II296MHzとSolaris2.6である.}.本論文の実験では$\Gtanaka$が与えられた場合の訓練時間を提案手法とI-Oアルゴリズムの間で比較する.ただし,I-Oアルゴリズムにおいては節~\ref{sec:PCFG:IO}で記述したものを用い,そこで参照される規則集合$R$には,全ての終端・非終端記号の組合せから成るChomsky標準形の規則集合$\Rmax$ではなく,$\Gtanaka$の規則集合$\Rtanaka$を用いる点に注意する\footnote{当然,$\Rtanaka$を用いた場合のI-Oアルゴリズムは,その文法制約のため$\Rmax$を用いた場合より高速になる.}.我々は文長$L$を変化させたときにパラメタを一回更新するのに要する計算時間(更新時間と呼ぶ)が変化する様子を比較する.まず,我々はATRコーパス$\corpus$の中で文長$L-1$と$L$の文をグループ化し,各々から無作為に取り出した100文を\$\corpus_L$とする($L=2,4,\ldots26$)\footnote{長さ27以上の176文(全体の1.6\%)はデータ不足のため,実験では考慮しなかった.}.そして,各$\corpus_L$を一つの訓練コーパスとし,各々に対して更新時間を計測する.I-OアルゴリズムはChomsky標準形でしか動作しないので,あらかじめ$\Gtanaka$をChomsky標準形に変換した.その結果860規則が2,308規則(非終端記号数210,終端記号数441)の文法になった.更新時間を計測した結果を図~\ref{graph:1}左に示す.縦軸が更新時間(sec),横軸$L$が使用した訓練コーパス$\corpus_L$を表す.``{\itInside-Outside}''はI-Oアルゴリズムの更新時間,``{\itIOwithpruning}''は\cite{Kita99}で説明されている,I-Oアルゴリズムの外側確率の計算において無駄な計算部分を枝刈りするように改良したものである.これを以下では枝刈り版I-Oアルゴリズムと呼ぶ.``{\itGraphicalEM}''はgEMアルゴリズムの更新時間を示す.また,変化の様子を見やすくするために,図~\ref{graph:1}左の縦軸を拡大,縮小したものをそれぞれ図~\ref{graph:1}中央,図~\ref{graph:1}右に示す.図~\ref{graph:1}中央においてgEMアルゴリズムの更新時間は見にくいため省略した.\begin{figure}[t]\atari(125,63)\caption{(左)Inside-Outsideアルゴリズムとその枝刈り版,および\gEMアルゴリズムにおける\\更新時間(sec)の変化,(中央)縦軸を縮小したもの,(右)縦軸を拡大したもの.}\label{graph:1}\end{figure}図~\ref{graph:1}左のグラフから分かるように,gEMアルゴリズムはI-Oアルゴリズムやその枝刈り版に比べてはるかに高速な計算が行なわれていることが分かる.また,図~\ref{graph:1}中央のグラフから分かるようにI-Oアルゴリズムは理論値どおり$L^3$の曲線を描く.枝刈り版I-Oアルゴリズムは枝刈りした分高速であるものの,仮説駆動型である($L\timesL$の三角行列の全要素を走査する)点は変わらないので,枝刈りが最も効率良く行なわれた場合でも$L^2$を下回ることはない.収束まで数100回の更新を要すること,および再出発法を採用することを考慮すると,$L=20$を越える訓練コーパス\$\corpus_L$に対してI-Oアルゴリズムおよびその枝刈り版を収束するまで動作させるのは現実的ではない.それに対し,提案手法では$L=2,4,\ldots,26$の範囲では$L$に対してほぼ線形に計算できており(図~\ref{graph:1}右),最悪計算量$O(|\Vn|^3L^3)$とは大きな差があることが分かった.これは文法の制約により,WFSTに格納される部分木の数が抑えられたためと考えられる.ATRコーパスにおける文長平均9.97に近い$L=10$ではI-Oアルゴリズムに対しておよそ1,000倍(枝刈り版に対してはおよそ700倍)の速度向上が得られた.\begin{figure}[t]\atari(103,63)\caption{訓練時間全体に占める各過程の処理時間の内訳.(左)再出発なしの場合($h=1$),\\(右)再出発回数$h=10$の場合.}\label{graph:2}\end{figure}良質なパラメタを得る目的で再出発法(節~\ref{sec:GEM:GEM})を採用すると,訓練時間の内訳は\begin{eqnarray*}(\mbox{全体の訓練時間})&=&(\mbox{構文解析時間})+(\mbox{支持グラフ抽出に要する時間})\nonumber\\&&\q+\;(\mbox{gEMアルゴリズム実行時間}),\\(\mbox{gEMアルゴリズム実行時間})&=&(\mbox{更新時間})\times(\mbox{収束までの更新回数})\times(\mbox{再出発回数$h$}).\end{eqnarray*}となる.先に述べた文長毎の訓練コーパス$\corpus_L$($L=2,4,\ldots,26$)を使って,訓練時間の内訳(構文解析時間,支持グラフ抽出時間,gEM実行時間)を計測した.その結果を図~\ref{graph:2}に示す.横軸が$L$,縦軸が処理時間(sec)である.図~\ref{graph:2}(左)は再出発なし$(h=1)$の場合,図~\ref{graph:2}(右)は再出発回数$h=10$の場合である.また,収束までの更新回数はコーパス$\corpus_L$によって異なるため,ここでは100に固定した.構文解析時間(``{\itParsing}''),支持グラフ抽出時間(``{\itSupportgraph}''),gEM実行時間(``{\itGraphicalEM}'')はいずれも文長$L$に対してほぼ線形になっていることが分かる.更に図~\ref{graph:2}(右)より,再出発法を採用した場合は構文解析時間と支持グラフ抽出時間が訓練時間全体に占める割合は非常に小さい.構文解析と支持グラフ抽出は再出発の度に繰り返す必要がないからである.構文解析と支持グラフ抽出をgEMアルゴリズムの前処理と捉えれば,わずかな前処理(図~\ref{graph:2})で大きな速度向上(図~\ref{graph:1})が得られているということができ,構文解析とEM学習を分離したメリットが現れている. \section{PCFGの拡張文法のEM学習} \label{sec:extensions}これまでPCFGに文脈依存性を採り入れたモデル(PCFGの拡張文法と呼ぶ)が数多く提案されているが,Charniakらの疑似確率文脈依存文法(pseudoprobabilisticcontext-sensitivegrammars)\cite{Charniak94b}を除けばEMアルゴリズムを具体的に記述した文献は見当たらない.本節では,提案手法がPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを包含する(提案手法の{\bf特長3})ことを示すため,一例としてKitaらの規則バイグラムモデル\cite{Kita94}を取り上げ,その多項式オーダのEMアルゴリズムを導出する.\subsection{規則バイグラムモデルとそのEMアルゴリズム}\label{sec:extensions:RB}まず,我々はPCFGのときと同様に導出戦略は最左導出に固定する.規則バイグラムモデルでは,節~\ref{sec:PCFG:PCFG}で述べたPCFGの「規則選択は他と独立」という仮定の代わりに,「規則選択は直前の選択のみに依存する」という仮定をおく.従って,規則バイグラムモデルではPCFGでは扱えなかった文脈依存性も若干考慮できる.この仮定の下で適用規則列$\rseq$の出現確率は\begin{equation}P(\rseq)=\theta(r_1\mid\#)\prod_{k=2}^K\theta(r_k\midr_{k-1})\end{equation}と計算される.\#は境界を表すマーカ,$\theta(r\midr')$は各規則$r\inR$に付与されるパラメタである($r'\inR\cup\{\#\}$).各$A\in\Vn$,$r\inR\cup\{\#\}$に対し$\sum_{\zeta:(A\to\zeta)\inR}\theta(A\dto\zeta\midr)=1$が成り立つ.\cite{Kita94}で示された,括弧なしコーパス\$\corpus=\tuple{\win_1,\ldots,\win_N}$に基づく$\theta(r_k|r_{k-1})$の推定式は式~\ref{eq:kita}のとおりである.適用規則列$\rseq$に対して,$\occ(r,r';\rseq)$は\$\rseq$において$r'$が$r$の直後に出現する頻度を表す.定義より明らかに$\sum_{r'\inR}\occ(r,r';\rseq)=\occ(r;\rseq)$が成り立つ.\begin{equation}\textstyle\theta(r_k|r_{k-1}):=\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}\occ(r_{k-1},r_k;\rseq)}{\displaystyle|\trees(\win_\ell)|}}\right)\left/\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}\occ(r_{k-1};\rseq)}{\displaystyle|\trees(\win_\ell)|}}\right)\right.\label{eq:kita}\end{equation}ところが式~\ref{eq:update},~\ref{eq:naive-eta3}から類推できるように,EMアルゴリズムの考えに基づく更新式は次のようになる($m=1,2,\ldots$).つまり式~\ref{eq:kita}は相対頻度法,EMアルゴリズムのいずれにもなっていない.\begin{eqnarray}&&\textstyle\theta^{(m+1)}(r_k|r_{k-1}):=\nonumber\\&&\textstyle\q\q\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}P(\rseq|\theta^{(m)})\occ(r_{k-1},r_k;\rseq)}{P(\win_\ell|\theta^{(m)})}}\right)\left/\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}P(\rseq|\theta^{(m)})\occ(r_{k-1};\rseq)}{P(\win_\ell|\theta^{(m)})}}\right)\right.\nonumber\\\label{eq:kita:EM}\end{eqnarray}式~\ref{eq:kita:EM}の更新式により(局所)最尤推定は実現されるが,これまで述べてきたように一般に$|\trees(\win)|$は文長$|\win|$に対して指数オーダになるため,式~\ref{eq:kita:EM}は現実時間で計算できない.一方,提案手法に基づき,式~\ref{eq:kita:EM}と等価な規則バイグラムモデルの多項式オーダのEMアルゴリズムを導出することができる.次節でアルゴリズムを記述するが,その前にいくつかの記号を導入する.まず,次のような文$\win$の最左導出列$\rseq$を考える:\begin{equation}S\derivesstar\cdots\rderives{r}\win_{0,d}A\xi\rderives{r''}\win_{0,d}\zeta\xi\derivesstar\cdots\derivesstar\win_{0,d}\zeta'\xi\rderives{r'}\win_{0,d}\win_{d,d'}\xi(=\win_{0,d'}\xi)\derivesstar\win\q.\label{eq:RB-derivation}\end{equation}を考える.式~\ref{eq:RB-derivation}において$r$は$A$を展開する直前に適用された規則,$r'$は導出$A\derivesstar\win_{d,d'}$で用いられた最後の規則である.$r$と$r'$を考慮した,$\win_{d,d'}$を統治する部分木ラベルを$A(d,d'|r,r')$で表す.また,式~\ref{eq:RB-derivation}において$r'$を$\lastrule(A,d,d';\rseq)$で参照し,$r$の次に適用された規則$r''$を$\condrule{A}{\zeta}{r}$で参照する.前節で述べた$\theta(A\dto\zeta|r)$の確率で$\condrule{A}{\zeta}{r}$が適用される.また,$\win$の構文木中の部分木$A(d,d')$を導出するとき最後に使われた規則の集合を\$\lastrule(A,d,d';\win)\defined\bigcup_{\rseq\in\trees(\win)}\lastrule(A,d,d';\rseq)$と定める.\subsection{グラフィカルEMアルゴリズムの適用}\label{sec:extensions:RB-GEM}ここではCYKパーザと組み合わせた場合の規則バイグラムモデルのEM学習法を示す.規則バイグラムモデルを対象にする場合,パーザに新たな変更を加える必要はない.また,gEMアルゴリズムもその汎用性により,対象とする確率値の意味が変わるだけで制御構造に変化はない.従って,我々は支持グラフ抽出ルーチンを変更するだけである.例えば,図~\ref{fig:parse-tree-ichiro-CNF}の$t2$にでは次のような関係$\subtrees_\ell$が得られる.\[\begin{array}{l}\subtrees_\ell(\sym{VP}(1,5\mid\sym{ADV}\dto\sym{急いで},\;\sym{V}\dto\sym{見た}))=\\\q\q\Bigl\{\;\bigl\{\condrule{\sym{VP}}{\sym{PP}\;\sym{V}}{\mbox{\footnotesize\ttADV}\to急いで}\;,\;\sym{PP}(1,4\mid\sym{VP}\dto\sym{PP}\;\sym{V},\;\sym{P}\dto\sym{を}),\;\sym{V}(4,5\mid\sym{P}\dto\sym{を},\;\sym{V}\dto\sym{見た})\bigr\}\;\Bigr\}\end{array}\]節~\ref{sec:GEM:preliminary}で示したPCFGの場合に比べて,部分木ラベル$A(d,d')$が,その導出直前に適用された規則と自身の導出において最後に適用された規則の組(``$\mid$''記号の後ろ)によって細分化されており,この細分化によって文脈依存性が表現される.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Extract-CYK-RB}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiInitializeall$\subtrees_\ell(\cdot)$to$\emptyset$andall$\varComp[\cdot,\cdot]$and$\varLast[\cdot]$to$\sym{NO}$;\itemii$\proc{ClearStack}(U)$;\label{list:Extract-CYK-RB:clear-U}\itemii$\proc{Visit-CYK-RB}(\ell,S,0,n_\ell,\#)$;\q\progcomment{\#は境界を表すマーカ.}\label{list:Extract-CYK-RB:call-visit}\itemii\rw{for}$k:=1$\rw{to}$|U|$\rw{do}$\tau_k:=\proc{PopStack}(U)$;\label{list:Extract-CYK-RB:pop:begin}\itemiiPreparesome$\tau_0$;\itemii$\subtrees_\ell(\tau_0):=\bigl\{\{S(0,n_\ell|\#,r)\}\big|r\in\varLast[S(0,n_\ell)]\bigr\}$;\itemii$O_\ell:=\tuple{\tau_0,\tau_1,\tau_2,\ldots,\tau_{|U|}}$\label{list:Extract-CYK-RB:pop:end}\itemi\rw{end}\item\rw{end}.\end{listing}\caption{規則バイグラム用支持グラフ抽出ルーチン$\proc{Extract-CYK-RB}$}\label{alg:extract-CYK-RB}\end{figure}規則バイグラム用の支持グラフ抽出ルーチン\$\proc{Extract-CYK-RB}$とそのサブルーチン$\proc{Visit-CYK-RB}$をそれぞれ図~\ref{alg:extract-CYK-RB},図~\ref{alg:visit-CYK-RB}に示す.$\proc{Visit-CYK-RB}(\ell,r,A,d,d')$は$\win_\ell$の構文木中の部分木$A(d,d')$を訪問し,大域的配列変数$\varLast[A(d,d')]$に\$\lastrule(A,d,d';\win_\ell)$を格納する再帰手続きである.後はgEMアルゴリズム(手続き$\proc{Graphical-EM}$,$\proc{Get-Inside-Probs}$,$\proc{Get-Expectations}$)において$A\dto\zeta$,$\theta(A\dto\zeta)$,$\varON[A\dto\zeta]$を各々$\condrule{A}{\zeta}{r}$,$\theta(A\dto\zeta|r)$,$\varON[A\dto\zeta|r]$といった規則バイグラム用の確率値,期待値に書き換え,$\proc{Graphical-EM}$行~\ref{list:gEM:update:begin}--\ref{list:gEM:update:end}と$\proc{Get-Expectations}$行~\ref{list:get-exp:init:eta}の\rw{foreach}ループに``\rw{foreach}$r\inR$''ループを重ねるだけでよい.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Visit-CYK-RB}(\ell,A,d,d',r)$\rw{begin}\itemi$\varComp[A(d,d'),r]:={\ttYES}$;\label{list:visit-RB:mark}\itemi\rw{if}$d'=d+1$and$A(d,d+1)@w_{d,d+1}^{(\ell)}\inT_{d,d+1}^{(\ell)}$\rw{then}\rw{begin}\itemiiiAddaset$\{\condrule{A}{w_{d,d+1}^{(\ell)}}{r}\}$to$\subtrees_\ell(A(d,d+1|r,A\dtow_{d,d+1}^{(\ell)}))$;\label{list:visit-RB:diagonal:begin}\label{list:visit-RB:add1}\itemiii$\varLast[A(d,d')]:=\{A\dtow_{d,d+1}^{(\ell)}\}$\label{list:visit-RB:diagonal:end}\itemii\rw{end}\itemi\rw{else}\rw{begin}\itemii$\varLast[A(d,d')]:=\emptyset$;\itemii\rw{foreach}$A(d,d')@B(d,d'')C(d'',d')\inT_{d,d'}^{(\ell)}$\rw{do}\rw{begin}\label{list:visit-RB:foreachABC}\label{list:visit-RB:foreachABC:begin}\itemiii\rw{if}$\varComp[B(d,d''),A\dtoBC]={\ttNO}$\rw{then}$\proc{Visit-CYK-RB}(\ell,B,d,d'',A\dtoBC)$;\label{list:visit-RB:recursion:begin}\label{list:visit-RB:visit-B}\itemiii\rw{foreach}$r''\in\varLast[B(d,d'')]$\rw{do}\rw{begin}\label{list:visit-RB:visit-C:begin}\itemiiii\rw{if}$\varComp[C(d'',d'),r'']={\ttNO}$\rw{then}$\proc{Visit-CYK-RB}(\ell,C,d'',d',r'')$;\label{list:visit-RB:recursion:end}\label{list:visit-RB:add2}\itemiiii\rw{foreach}$r'\in\varLast[C(d'',d')]$\rw{do}\rw{begin}\itemiiiiiAddaset$\bigl\{\condrule{A}{BC}{r},\;B(d,d''|A\dtoBC,r''),\;C(d'',d'|r'',r')\bigr\}$\itemiiiiiiito$\subtrees_\ell(A(d,d'|r,r'))$;\itemiiiii$\proc{PushStack}(A(d,d'|r,r'),U)$\label{list:visit-RB:push}\itemiiii\rw{end}\itemiii\rw{end};\q\progcomment{\rw{foreach}$r''$}\label{list:visit-RB:visit-C:end}\itemiii$\varLast[A(d,d')]:=\varLast[A(d,d')]\cup\varLast[C(d'',d')]$\itemii\rw{end}\q\progcomment{\rw{foreach}$A@BC$}\label{list:visit-RB:foreachABC:end}\itemi\rw{end}\q\progcomment{\rw{else}}\item\rw{end}.\end{listing}\caption{規則バイグラム用支持グラフ抽出ルーチンのサブルーチン$\proc{Visit-CYK-RB}$.\\記述短縮のため,ここでは異なる引数$r$(直前の適用規則)の呼び出しについて$\varLast[A(d,d')]$\\の計算を重複して行なうものを示す.}\label{alg:visit-CYK-RB}\end{figure}次に,規則バイグラム用EMアルゴリズムの最悪計算量を評価する.$\Rmax$を考えたとき,最悪計算量は$O(|\Vn|^{12}L^3N)$となる\footnote{まず,$A\in\Vn$,$0\led<d'\leL$かつ$d+2\led'$なる$A$,$d$,$d'$および,$r,r'\inR$について\[\subtrees_\ell(A(d,d'|r,r'))=\left\{\bigl\{\condrule{A}{BC}{r},\;B(d,d''|A\dtoBC,r''),\;C(d'',d'|r'',r')\bigr\}\;\left|\begin{array}{l}B,C\in\Vn,\;d<d''<d',\\r''\in\lastrule(B,d,d'')\subseteqR\end{array}\right.\right\}\]となるような$A(d,d'|r,r')$が$O_\ell$中に出現する($\ell=1\ldotsN$).$\left|\subtrees_\ell(\tau)\right|=O(|\Vn|^2L|R|)$であるのは明らかである.また,$O_\ell$は\$\big\{A(d,d'|r,r')\;\big|\;A\in\Vn,\;0\led<d'\leL,\;r,r'\inR\big\}$の部分集合を並べたものであるから,$|O_\ell|=O(|\Vn|L^2|R|^2)$となる.定義より$\mu_{\rmnum}=O(|\Vn|^3L^3|R|^3)$,$\mu_{\rmmaxsize}=O(1)$であり,さらに最悪の場合$R=\Rmax$を考えるとgEMアルゴリズムの計算量は\$O(|\Vn|^3L^3|\Rmax|^3N)=O(|\Vn|^{12}L^3N)$となる.}.これは非常に大きなオーダであるが,文長$L$に対して3乗のオーダである点はI-Oアルゴリズムと変わらない.また,節~\ref{sec:experiment}の実験結果はPCFGに対する現実の計算時間と最悪時の計算時間$O(|\Vn|^3L^3)$に大きな差があることを示しており,これは規則バイグラムモデルでも成り立つと考えられる.実際森らは,節~\ref{sec:experiment}の実験で用いたCFG$\Gtanaka$に対し本節で述べた方法を適用した結果,規則バイグラムのEM学習におけるパラメタ更新時間がPCFG(図~\ref{graph:1}右)の1.5倍程度で収まることを報告している\cite{Mori00}. \section{関連研究} \label{sec:related-work}まず,Magermanらの${\calP}$earl\cite{Magerman91}およびその後継である${\calP}$icky\cite{Magerman92},またStolckeの確率的Earleyパーザ\cite{Stolcke95}をはじめ,確率的パーザが多く提案されている.しかし,それらの多くは文法構造$G$とパラメタ$\theta$が与えられていることを前提としており,Stolckeを除けばPCFG(もしくはその拡張文法)のEM学習について具体的に記述しているものは少ない.Chomsky標準形でないPCFGの訓練法としては,Kupiecの方法~\cite{Kupiec92}と先述のStolckeの確率的Earleyパーザによる訓練が挙げられる.Kupiecの方法はPCFGを再帰遷移ネットワークと捉え,拡張したtrellis図に基づき訓練を行なうものである.しかし,仮説駆動型である点はI-Oアルゴリズムと変わらない.また,提案手法で用いるWFSTは,CFGに基づく構文解析にとって本質的なデータ構造であることから,本手法はtrellis図に基づく\Kupiecの方法よりも簡潔で理解しやすいものと考える.一方,$\varepsilon$規則やサイクル$A\derivesplusA$が存在しない\PCFGに対して,Stolckeの方法は我々の枠組でEarleyパーザと\gEMアルゴリズムを組み合わせた場合と等価である.すなわち,このようなPCFGに対して我々の枠組はStolckeの方法の一般化になっている.Stolckeの方法との対応づけを付録~\ref{sec:Stolcke}に示す.また,StolckeはPCFGの拡張文法については言及していない.$\varepsilon$規則やサイクル$A\derivesplusA$をもつPCFGに対する訓練法を考えるのは今後の課題であるが,提案手法は現段階においても充分実用的である.PerairaとSchabesは部分もしくは完全括弧コーパスからPCFGの文法構造を学習する方法を提案し,学習された文法構造とパラメタの質が括弧なしコーパスからの学習に比べ大きく向上することを実験的に示した~\cite{Pereira92}.我々の枠組でも,括弧づけされた文に対し,括弧の制約を満たす構文木のみを出力する機能をもつパーザを用意すれば\footnote{節~\ref{sec:experiment}で用いたMSLRパーザはそのような機能を備えている.},支持グラフ抽出ルーチン,gEMアルゴリズムに何の変更も加えることなく括弧つきコーパスからの訓練が可能になる.変更の必要がないのは,我々が最終的な構文木情報(すなわちWFST)のみを参照するためである.また,完全に括弧づけされた訓練コーパスに対し\gEMアルゴリズムの計算量はPereiraとSchabesの方法と同じオーダ$O(|\Vn|^3LN)$であることも容易に分かる\footnote{PereiraとSchabesは$O(L)$としか明記していないが,彼らが提示したアルゴリズムより$\Rmax(\Vn,\Vt)$に対して\$O(|\Vn|^3LN)$となることは明らかである.また,gEMアルゴリズムで$O(|\Vn|^3LN)$であることは次のように示される:まず,$\win_\ell$に与えられた括弧集合$\brackets(\win_\ell)$のサイズは(PereiraとSchabesも述べているように)$O(|\win_\ell|)$である.与えられた$\brackets(\win_\ell)$と一致しない部分木は最終的な構文木にはならない(すなわち$O_\ell$の要素にはならない)ので,$\forall\ell=1\ldotsN$について$|O_\ell|=\left|\{A(d,d')\midA\in\Vn\;\mbox{かつ}\;(d,d')\in\brackets(\win_\ell)\}\right|=O(|\Vn|\cdot|\win_\ell|)=O(|\Vn|L)$である.また,式~\ref{eq:possible-psi}において,$\brackets(\win_\ell)$に一致する$d'$は高々1つであるから,すべての$\ell=1\ldotsN$について$|\subtrees_\ell(A(d,d'))|=O(|\Vn|^2)$である.従って,式~\ref{eq:xi-num}より$\mu_{\rmnum}=O(|\Vn|^3L)$である.前の議論と同様に$\mu_{\rmmaxsize}=O(1)$であるから,gEMアルゴリズムにおいて一回のパラメタ更新に要する計算量は\$O(|\Vn|^3LN)$である.}.本論文の手法は文法構造(CFG)が与えられていることを前提としているが,人間が精密な文法を記述するのに多くの手間を費やすことを考えると,文法構造の自動学習は重要な課題である.先述したように,LariとYoungは非終端記号集合$\Vn$と終端記号集合$\Vt$をあらかじめ定めた上で先述した$\Rmax(\Vn,\Vt)$を考え,I-Oアルゴリズムを走らせ,推定後にパラメタ値が小さい規則を除去する方法を提案した~\cite{Lari90}.また,先述したPereira\&Schabesの学習法~\cite{Pereira92}も括弧づけコーパスからの文法学習と捉えることができる.しかし,一般にEMアルゴリズムは局所的な最尤推定値しか保証しないため,学習される文法の質はパラメタの初期値に大きく依存し,文法学習を困難にしている.それに対し,HMMでは逐次状態分割(SSS)法~\cite{Takami93}やモデル選択規準に基づくHMMの構造探索法~\cite{Ikeda95}のように,パラメタ訓練と構造探索を分離し,これらを交互に繰り返して良質なモデル構造を得る方法が提案されている.どちらの手法もパラメタ訓練ステップではモデル(文法)構造が与えられるので,上記手法をPCFGの構造学習に一般化したとき\footnote{もちろん,そのときはパラメタ訓練ステップが更に構文解析ステップとgEMアルゴリズムステップに分離される.},本論文で示した高速化が有効に働くものと期待する.本論文で示したgEMアルゴリズムは最小モデル意味論の確率的一般化である分布意味論~\cite{Sato95}に基づく確率的な論理プログラミング言語PRISM~\cite{Sato97}における高速EM学習のために提案されたものである~\cite{Kameya00}.そこではOLDT探索~\cite{Tamaki86}とgEMアルゴリズムを連結するが,本論文の手法はPCFGおよびその拡張文法用に\OLDTをパーザに置き換えて特殊化を図ったものである.OLDT探索を構文解析に用いることも可能だが,OLDT探索はトップダウン(仮説駆動)探索であるので,LR表へのコンパイル・ボトムアップ探索を利用するGLRパーザの方が現実文法ではより高速である.得られる支持グラフはまったく同じなのでgEMアルゴリズムの計算時間は変わらない. \section{まとめ} \label{sec:conclusion}文法構造が与えられていることを前提に,確率文脈自由文法(PCFG)を括弧なしコーパスから訓練するための一般的な枠組を提案し,従来法であるInside-Outsideアルゴリズムの一般化と(現実文法における)高速化を同時に実現した.提案手法ではPCFGの訓練過程を構文解析とEM学習を分離し,パーザが記録するWFSTから訓練文と関係のある部分木構造のみを抽出してからEM学習することにより,仮説駆動型であった\Inside-Outsideアルゴリズムの計算効率上の欠点を克服した.また,従来知られてきた構文解析の高速化技術がPCFGの訓練にそのまま反映される.更に,提案手法を実装し,ATR対話コーパスにおける訓練時間を計測したところ,Inside-Outsideアルゴリズムに比べコーパス平均文長においておよそ1,000倍の速度向上が得られることを確認した.また,提案手法の一般性に基づき,文脈依存性を考慮したPCFGの拡張文法(北らの規則バイグラムモデル)の多項式オーダのEMアルゴリズムを導出した.加えて,確率EarleyパーザによるStolckeのEM学習法やPereiraとSchabesらによる部分括弧つきコーパスからの学習法も提案手法の枠組で扱えることを示し,提案手法がCFGに基づく確率言語モデルの訓練手法を広くカバーしていることを明らかにした.今後の課題としては,PCFGの拡張文法を用いた実験や文法構造の学習,また支持グラフとgEMアルゴリズムの一般性を利用して,Inuiらによって再定式化された確率GLRモデル~\cite{Inui98}の効率的なEMアルゴリズムの導出を試みるのも興味深い.\subsection*{謝辞}実験に用いたATRコーパス,日本語文法の改訂版は,東京工業大学\田中・徳永研究室のご厚意により提供頂きました.記して感謝致します.また,同研究室白井清昭助手には上記コーパス・文法に関する情報やテキスト処理プログラムの提供,文献紹介など貴重なご助力を頂きました.重ねて感謝申し上げます.また,東京工業大学佐藤泰介研究室の上田展久氏には文献紹介を含め,数多くの有益なコメントを頂きました.感謝致します.なお,本研究の一部は平成11年度科学研究費補助金特定領域研究(A)「発見科学」の補助を受けています.\bibliographystyle{jnlpbbl}\bibliography{draft}\appendix \section{グラフィカルEMアルゴリズムの正当化} \label{sec:GEM-validity}本節ではFujisakiらの方法,I-Oアルゴリズム,gEMアルゴリズムに同じ初期パラメタを与えたとき,収束条件を同一にすればパラメタが同一の値に収束することを示す.これによりgEMアルゴリズムが正当化される.具体的にはgEMアルゴリズムが計算する$\eta[A\dto\zeta]$,すなわち規則$(A\dto\zeta)\inR$の期待適用回数がFujisakiらの方法,およびI-Oアルゴリズムで得られるものと一致することを示せばよい.また,節~\ref{sec:PCFG:IO-problems}で見たように,Fujisakiらの方法とI-Oアルゴリズムが計算する$\eta[A\dto\zeta]$は一致するので,ここではFujisakiらの方法とgEMアルゴリズムで計算される\$\eta[A\dto\zeta]$を調べれば十分である.はじめに,我々はgEMアルゴリズムの計算は支持グラフの1つ目の特徴である支持グラフ$\sg_\ell$の再帰的巡回を考える.そして,以下では$\tau$の部分支持グラフの開始(終了)ノードを「$\tau$の開始(終了)ノード」と呼ぶことにする.節~\ref{sec:GEM:support-graph}で述べたように,我々は巡回中に基本ノードに付与されている規則を集めることにする.まず,$\sg_\ell$中に出現する$A\dto\zeta$が付与された基本ノードの一つ$v$に注目する.$v$は$\tau$の部分支持グラフに含まれているとし,$v$が属する局所パスを$E$とおく.その状況を図~\ref{fig:v-in-sg}に示す.そして,$S(0,n_\ell)$の開始ノードから出発して$v$を通過するような再帰的巡回を全通り行ない,そこで集められた規則列の集合を$\trees(v,\win_\ell)$とおく\(明らかに$\trees(v,\win_\ell)\subseteq\trees(\win_\ell)$である).\begin{figure}[b]\atari(56,48)\caption{支持グラフ$\sg_\ell$に出現する$A\dto\zeta$が付与された基本ノード$v$.}\label{fig:v-in-sg}\end{figure}$\tau$の開始ノードから$E$に沿って$\tau$の終了ノードに至る巡回によって得られる部分規則列を$\rseq_1$とおく.また$O_\ell$の先頭である$S(0,n_\ell)$の開始ノードから出発し,$\tau$が付与された中間ノード$u$(図~\ref{fig:v-in-sg})に至る巡回,および$u$から$S(0,n_\ell)$の終了ノードに至る巡回によって得られた部分規則列をそれぞれ$\rseq_0$,$\rseq_2$とおく.そして,このような$\rseq_1$すべてから成る集合を\$\treesin(v,\win_\ell)$とおき,可能な$\rseq_0,\rseq_2$の組$\tuple{\rseq_0,\rseq_2}$から成る集合を$\treesout(v,\win_\ell)$とする.すると,先に定義した$\trees(v,\win_\ell)$は\$\treesin(v,\win_\ell)$と$\treesout(v,\win_\ell)$の直積と同一視できる.以上の定義と,PCFGにおける規則適用に関する独立性の仮定より,\begin{eqnarray*}\textstyle\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')&=&\textstyle\sum_{\tuple{\rseq_0,\rseq_1,\rseq_2}\in\trees(v,\win_\ell)}P(\rseq_0,\rseq_1,\rseq_2)\\&=&\textstyle\sum_{\rseq_1\in\treesin(v,\win_\ell)}\sum_{\tuple{\rseq_0,\rseq_2}\in\treesout(v,\win_\ell)}P(\rseq_1)P(\rseq_0,\rseq_2)\\&=&\textstyle\left(\sum_{\rseq_1\in\treesin(v,\win_\ell)}P(\rseq_1)\right)\left(\sum_{\tuple{\rseq_0,\rseq_2}\in\treesout(v,\win_\ell)}P(\rseq_0,\rseq_2)\right)\end{eqnarray*}が成り立つ.手続き$\proc{Get-Inside-Probs}$における$\varP$と\$\varR$の計算を再帰的に追えば,手続き終了時に\$\varR[\ell,\tau,E]=\sum_{\rseq_1\in\treesin(v,\win_\ell)}P(\rseq_1)$となることは明らか.また,手続き$\proc{Get-Expectations}$の$\varQ$の計算を追えば,$\varQ[\ell,\tau]=\sum_{\tuple{\rseq_0,\rseq_2}\in\treesout(v,\win_\ell)}P(\rseq_0,\rseq_2)$であることが分かる.よって\$\varQ[\ell,\tau]\cdot\varR[\ell,\tau,E]=\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')$となる.これより$\proc{Get-Expectations}$行~\ref{list:get-exp:updateON}で$\varON[A\dto\zeta]$に足し込まれる値は\$\frac{1}{P(\win_\ell)}\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')$に等しい.$A\dto\zeta$が付与された他の基本ノードについても同じ作業が行なわれ,さらにこれを$\ell=1\ldotsN$で繰り返すので,最終的に\$\varON[A\dto\zeta]$は次のように計算される:\begin{equation}\varON[A\dto\zeta]=\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\sum_{v:\;A\to\zeta\;{\rmis\;attached}}\;\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')\;.\label{eq:naive-eta4}\end{equation}ところで,$S(0,n_\ell)$の開始ノードから出発する一つの再帰的巡回を考え,そこで集められた規則列を$\rseq$とする.そのとき,この巡回において$A\dto\zeta$が付与された基本ノードを通過する回数は$\occ(A\dto\zeta,\rseq)$である.従ってこの$\rseq\in\trees(\win_\ell)$について,和\$\sum_{v:\;A\to\zeta\;{\rmis\;attached}}\;\sum_{\rseq'\in\trees(v,\win_\ell)}$では$\rseq$が$\occ(A\dto\zeta,\rseq)$回重複して数え上げられている.よって式~\ref{eq:naive-eta4}はFujisakiらの計算式(式~\ref{eq:Fujisaki-eta})と同値になる.以上と本節冒頭に述べた注意より,Fujisakiらの方法,I-Oアルゴリズム,gEMアルゴリズムに同じ初期パラメタを与えたとき,収束条件を同一にすればパラメタは同じ値に収束する. \section{Stolckeの方法との対応} \label{sec:Stolcke}本節ではStolckeが提案した確率的Earleyパーザを用いるPCFGの訓練法~\cite{Stolcke95}と提案手法においてEarleyパーザとgEMアルゴリズムを組み合わせた場合を簡単に対応づける.はじめに確率的Earleyパーザを簡単に記述する\footnote{確率的Earleyパーザの記述は基本的にStolckeの記法に従うが,本論文の記法に合わせた箇所もある.また,用語は\cite{Tanaka88}のものを用いる場合がある.}.\subsection{確率的Earleyパーザ}Earleyパーザは入力文$\win_\ell$の各単語位置をアイテム集合(Earleyチャート)$I_\ell$に基づいて構文解析を行なう.各アイテムは``$\es{d'}{d}{A\dto\zeta.\xi}$''の形をしており,(i)現在のポインタの位置が$d'$($\win_{0,d'}^{(\ell)}=w_1^{(\ell)}\cdotsw_{d'}^{(\ell)}$が解析済み)であること,(ii)非終端記号$A$が統治する部分単語列が位置$d$から始まること,(iii)$A$の展開は規則$A\dto\zeta\xi$を用いて進められ,ドットの場所まで展開されていること,を表す.確率的Earleyパーザでは,Earleyパーザに確率的な拡張が施されており,各アイテムに内側確率$\ip{d'}{d}{A\dto\zeta.\xi}$が式~\ref{eq:pitem}のように付与される(式中の$\beta$は$\ip{d'}{d}{A\dto\zeta.\xi}$の略記)\footnote{\cite{Stolcke95}では内側確率の他に前向き確率と呼ばれる確率値を各アイテムに付与するが,EM学習とは無関係なのでここでは省略する.その他にもEM学習と無関係な記述は省略されている.}.内側確率$\ip{d'}{d}{A\dto\zeta.\xi}$はアイテム$\es{d}{d}{A\dto.\zeta\xi}$から始まり,$\es{d'}{d}{A\dto\zeta.\xi}$に至る経路の確率和である.\begin{equation}\esp{d'}{d}{A\dto\zeta.\xi}{\beta}\label{eq:pitem}\end{equation}内側確率は次の3つの操作に従って計算される.\begin{description}\item{\bf$\diamond$Prediction:}アイテム$\esp{d'}{d}{A\dto\zeta.B\xi}{\beta}$が存在し,かつ$(B\dto\nu)\inR$であるとき,アイテム$\esp{d'}{d'}{B\dto.\nu}{\beta'}$が$I_\ell$中に存在しなければ,そのアイテムを$I_\ell$に追加する.ただし,$\beta'=\theta(B\dto\nu)$である.もし存在すれば何も行なわない.\item{\bf$\diamond$Scanning:}アイテム$\esp{(d'-1)}{d}{A\dto\zeta.w_{d'}^{(\ell)}\xi}{\beta}$が$I_\ell$中に存在するとき,$\esp{d'}{d}{A\dto\zetaw_{d'}^{(\ell)}.\xi}{\beta'}$が$I_\ell$に存在しなければ,これを$I_\ell$に追加する.ただし\$\beta'=\beta$である.\item{\bf$\diamond$Completion:}$d''<d'$なる\footnote{$d''\led'$と等号が入らないのは,我々が$\varepsilon$規則をもたず$A\derivesplusA$とならない文法構造(CFG)を仮定しているためである.Stolckeは両者を許しているので,彼の記述では等号が入っている.}2つのアイテム$\esp{d'}{d''}{B\dto\nu.}{\beta''}$および$\esp{d''}{d}{A\dto\zeta.B\xi}{\beta}$が$I_\ell$に存在するとき,$\esp{d'}{d}{A\dto\zetaB.\xi}{\beta'}$が$I_\ell$に存在しなければ,これを$I_\ell$に追加する.ただし,$\beta'=\beta\cdot\beta''$である.存在しているときは\$\beta'\;\incby\;\beta\cdot\beta''$とする.\end{description}EM学習においては更にアイテム$\es{d'}{d}{A\dto\zeta.\xi}$の外側確率$\op{d'}{d}{A\dto\zeta.\xi}$を考慮する.この確率は(i)初期アイテム$\es{0}{0}{\dto.S}$から出発し,(ii)$\win_{0,d}^{(\ell)}$を生成し,(iii)ある$\nu$について${}_{d}A\dto.\nu\xi$を通り,(iv)${}_{d'}A\dto\nu.\xi$から出発して\$\win_{d',n_\ell}^{(\ell)}$を生成し,(v)最終アイテム$\es{n_\ell}{0}{\toS.}$で終わるような経路の確率和である.\begin{description}\item{\bf$\diamond$Reversecompletion:}$I_\ell$中の\$\esp{d'}{d''}{B\dto\nu.}{\alpha'',\beta''}$と$\esp{d''}{d}{A\dto\zeta.B\xi}{\alpha',\alpha'}$の組すべてに対し,$\esp{d'}{d}{A\dto\zetaB.\xi}{\alpha,\beta}$を見つけ,$\alpha'\;\incby\;\beta''\cdot\alpha$と\$\alpha''\;\incby\;\beta'\cdot\alpha$を行う.\end{description}ただし,アイテム$\esp{n_\ell}{0}{S\dto\nu.}{\alpha}$のみ\$\alpha:=1$と初期化し,それ以外は$\alpha:=0$としておく.すべての内側確率と外側確率を計算し終ったら,規則$A\dto\zeta$の期待適用回数を次のように求め,後はI-Oアルゴリズムの式~\ref{eq:update}と同様にパラメタを更新する.\begin{equation}\varON[A\dto\zeta]=\sum_{\ell=1}^N\frac{1}{\ip{n_\ell}{0}{\toS.}}\sum_{(d:{}_d{A\to.\zeta})\inI_\ell}\op{d}{d}{A\dto.\zeta}\ip{d}{d}{A\dto.\zeta}\label{eq:update-Stolcke}\end{equation}\subsection{対応する支持グラフ}\label{sec:Stolcke:support-graph}図~\ref{alg:learn-PCFG}のメインルーチン$\proc{Learn-PCFG}$における支持グラフ抽出ルーチン$\proc{Extract-CYK}$をEarleyパーザ用の支持グラフ抽出ルーチン$\proc{Extract-Earley}$(図~\ref{alg:extract-Earley})に置き換える.そのサブルーチン$\proc{Visit-Earley}$を図~\ref{alg:visit-Earley}に示す.gEMアルゴリズムは汎用であるため,手続きを特に変更する必要はない.$\proc{Extract-Earley}$はEarleyパーザの構文木出力ルーチンに基づいて記述されており,支持グラフ\$\sg_\ell=\tuple{O_\ell,\subtrees_\ell}$を生成する.$\subtrees_\ell$は次のような形をしている.\begin{eqnarray}\subtrees_\ell(\es{d}{d}{B\dto.\nu})&=&\bigl\{\{B\dto\nu\}\bigr\}\label{eq:subtrees-earley:1}\\\subtrees_\ell(\es{d'}{d}{A\dto\zetaw_{d'}^{(\ell)}.\xi})&=&\bigl\{\{\es{(d'-1)}{d}{A\dto\zeta.w_{d'}^{(\ell)}\xi}\}\bigr\}\label{eq:subtrees-earley:2}\\\subtrees_\ell(\es{d'}{d}{A\dto\zetaB.\xi})&=&\Bigl\{\bigl\{(\es{d''}{d}{A\dto\zeta.B\xi}),\;(\es{d'}{d''}{B\dto\nu.})\bigr\}\nonumber\\&&\q\q\q\q\q\Big|\;d\led''<d',(\es{d'}{d''}{B\to\nu.})\inI_\ell\Bigr\}\label{eq:subtrees-earley:3}\end{eqnarray}\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Extract-Earley}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\itemiiInitializeall$\subtrees_\ell(\cdot)$to$\emptyset$andall$\varComp[\cdot]$to$\sym{NO}$;\itemii$\proc{ClearStack}(U)$;\itemii$\proc{Visit-Earley}(\ell,\es{n_\ell}{0}{\toS.})$;\itemii\rw{for}$k:=1$to$|U|$\rw{do}$\tau_k:=\proc{PopStack}(U)$;\itemii$O_\ell:=\tuple{\tau_1,\tau_2,\ldots,\tau_{|U|}}$\itemi\rw{end}\item\rw{end}.\end{listing}\caption{Earleyパーザ用の支持グラフ抽出ルーチン$\proc{Extract-Earley}()$.}\label{alg:extract-Earley}\end{figure}式~\ref{eq:subtrees-earley:1}の部分支持グラフに対するgEMアルゴリズムの内側確率の計算が確率的EarleyパーザのPrediction操作に対応する.同様に式~\ref{eq:subtrees-earley:2}に対するgEMアルゴリズムの内側確率計算がScanning操作に対応する.さらに,式~\ref{eq:subtrees-earley:3}に対するgEMアルゴリズムの内側確率計算がCompletionに,外側確率計算がReversecompletion操作に各々対応する.そして,式~\ref{eq:subtrees-earley:1}の部分支持グラフでの期待値計算が式~\ref{eq:update-Stolcke}に対応する.この場合のgEMアルゴリズムの計算量としては,式~\ref{eq:subtrees-earley:3}の形の$\subtrees_\ell$をもつ部分支持グラフに対する部分が効いてくる.Chomsky標準形を満たす文法に対しては,このような部分支持グラフのノード数は可能な規則および単語位置\$d$,$d'$,$d''$の組合せ数$O(|R|L^3)$となる($R$は規則集合,$L$はコーパス中の最大文長).$R=\Rmax$のときgEMアルゴリズムの最悪計算量はStolckeの確率的Earleyパーザのものと同じく$O(|\Vn|^3L^3)$となる.また,Chomsky標準形を満たさない場合を考え,規則右辺の最大記号数を\$m$とおく.提案手法において,式~\ref{eq:parent-children}のような部分木の親子対を構成要素とするWFSTをもつパーザ(GLRなど)を用いた場合の計算量は$O(L^{m+1})$となるが,Earleyパーザを用いた場合の計算量は\Stolckeの確率的Earleyパーザと同じく,$m$によらず$O(L^3)$になる.ただ,GLRはLR表への事前コンパイル・ボトムアップ計算等の好ましい性質を持っており,対象とする文法の特徴に応じてパーザを使い分けることが重要と思われる.\begin{figure}[h]\begin{listing}\item\rw{procedure}$\proc{Visit-Earley}(\ell,\es{d'}{d}{A\dto\zeta.\xi})$\rw{begin}\itemiPut$\tau=(\es{d'}{d}{A\dto\zeta.\xi})$\itemi$\varComp[\tau]:={\ttYES}$;\itemi\rw{if}$\zeta=\varepsilon$and$d'=d$\rw{then}\q\progcomment{$\es{d}{d}{A\dto.\xi}$(Prediction)}\itemii$\subtrees_\ell(\tau):=\bigl\{\{A\dto\xi\}\bigr\}$\itemi\rw{else}\rw{if}$\zeta=\zeta'w_{d'}^{(\ell)}$\rw{then}\rw{begin}\q\progcomment{$\es{d'}{d}{A\dto\zeta'w_{d'}^{(\ell)}.\xi}$(Scanning)}\itemiii$\subtrees_\ell(\tau):=\bigl\{\{\es{(d'-1)}{d}{A\dto\zeta'.w_{d'}^{(\ell)}\xi}\}\bigr\}$;\itemiii\rw{if}$\varComp[\es{(d'-1)}{d}{A\dto\zeta'.w_{d'}^{(\ell)}\xi}]={\ttNO}$\rw{then}$\proc{Visit-Earley}(\ell,\es{(d'-1)}{d}{A\dto\zeta'.w_{d'}^{(\ell)}\xi})$\itemii\rw{end}\itemi\rw{else}\rw{begin}\itemiiPut$\zeta=\zeta'B$;\q\progcomment{$B$は非終端記号;$\es{d'}{d}{A\dto\zeta'B.\xi}$(Completion)}\itemii\rw{foreach}$d''$suchthat$d\led''<d'$and$(\es{d''}{d}{A\dto\zeta'.B\xi}),(\es{d'}{d''}{B\dto\nu.})\inI_\ell$\rw{do}\rw{begin}\itemiiiAddaset$\bigl\{(\es{d''}{d}{A\dto\zeta'.B\xi}),(\es{d'}{d''}{B\dto\nu.})\bigr\}$to$\subtrees_\ell(\tau)$;\itemiii\rw{if}$\varComp[\es{d''}{d}{A\dto\zeta'.B\xi}]={\ttNO}$\rw{then}$\proc{Visit-Earley}(\ell,\es{d''}{d}{A\dto\zeta'.B\xi})$;\itemiii\rw{if}$\varComp[\es{d'}{d''}{B\dto\nu.}]={\ttNO}$\rw{then}$\proc{Visit-Earley}(\ell,\es{d'}{d''}{B\dto\nu.})$\itemii\rw{end}\itemi\rw{end};\itemi$\proc{PushStack}(\tau,U)$\item\rw{end}.\end{listing}\caption{$\proc{Extract-Earley}()$のサブルーチン$\proc{Visit-Earley}$.}\label{alg:visit-Earley}\end{figure}}\newpage\begin{biography}\biotitle{略歴}\bioauthor{亀谷由隆}{1995年東京工業大学工学部情報工学科卒業.1997年同大学大学院情報理工学研究科修士課程修了.2000年9月同研究科博士後期課程修了.博士(工学).同研究科技術補佐員を経て,現在同研究科リサーチアソシエイト.論理プログラミングに基づく確率推論システム研究に従事.人工知能学会会員.}\bioauthor{森高志}{1999年東京工業大学工学部情報工学科卒業.1999年同大学大学院情報理工学研究科修士課程入学,現在在学中.}\bioauthor{佐藤泰介}{1973年東京工業大学工学部電子物理学科卒業.1975年同大学大学院修士課程修了.工学博士.同年,電子技術総合研究所入所.以来,人工知能の研究に従事.1995年以来,東京工業大学大学院情報理工学研究科教授.人工知能学会,情報処理学会,EATCS各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V08N01-01
\section{はじめに} 近年,インターネットの普及とともに,個人でWWW(WorldWideWeb)を代表とするネットワーク上の大量の電子データやデータベースが取り扱えるようになり,膨大なテキストデータの中から必要な情報を取り出す機会が増加している.しかし,このようなデータの増加は必要な情報の抽出を困難とする原因となる.この状況を反映し,情報検索,情報フィルタリングや文書クラスタリング等の技術に関する研究開発が盛んに進められている.情報検索システムの中でよく使われている検索モデルに,ベクトル空間モデル\cite{salton}がある.ベクトル空間モデルは,文書と検索要求を多次元空間ベクトルとして表現する方法である.基本的には,文書集合から索引語とするタームを取り出し,タームの頻度などの統計的な情報により,文書ベクトルを表現する.この際,タームに重みを加えることにより,文書全体に対するタームの特徴を目立たせることが可能である.この重みを計算するために,IDF(InverseDocumentFreqency)\cite{chisholm}などの重みづけ方法が数多く提案されている.また,文書と検索要求を比較する類似度の尺度として,内積や余弦(cosine)がよく用いられている.この類似度計算により,類似度の高いものからランクづけを行い,ユーザに表示することができることもベクトル空間モデルの特徴のひとつである.ベクトル空間モデルを用いた検索システムを新聞記事などの大量の文書データに対して適用した場合,文書データ全体に存在するタームの数が非常に多くなるため,文書ベクトルは高い次元を持つようになる.しかし,ひとつの文書データに存在するタームの数は文書データ全体のターム数に比べると非常に少なく,文書ベクトルは要素に0の多い,スパースなベクトルになる.このような文書ベクトルを用いて類似度を計算する際には,検索時間の増加や文書ベクトルを保存するために必要なメモリの量が大きな問題となる.このため,単語の意味や共起関係などの情報を用いたり,ベクトル空間の構造を利用してベクトルの次元を圧縮する研究が盛んに行われている.このようなベクトルの次元圧縮技術には,統計的なパターン認識技術や線形代数を用いた手法などが用いられている\cite{Kolda}\cite{Faloutsos}.この中で,最も代表的な手法として,LSI(LatentSemanticIndexing)がある\cite{Deerwester}\cite{Dumais}.この手法は,文書・単語行列を特異値分解を用いて,低いランクの近似的な行列を求めるものであり,これを用いた検索システムは,次元圧縮を行わない検索モデルと比較して一般的に良い性能を示す.しかし,特異値分解に必要な計算量が大きいために,検索モデルを構築する時間が非常に長いことが問題となっている.上記の問題を解決するベクトル空間モデルの次元圧縮手法に,ランダム・プロジェクション\cite{Arriaga}が存在する.ランダム・プロジェクションは,あらかじめ指定した数のベクトルとの内積を計算することで次元圧縮を行う手法である.これまでに報告されているランダム・プロジェクションを用いた研究には,VLSI(VeryLarge-ScaleIntegratedcircuit)の設計問題への利用\cite{Vempala}や次元圧縮後の行列の特性を理論的に述べたものがある\cite{Papadimitriou}\cite{Arriaga}.しかし,これらの文献では,ランダム・プロジェクションの理論的な特性は示されているものの,情報検索における具体的な実験結果は報告されていない.そのため,情報検索に対するランダム・プロジェクションの有効性に疑問が残る.我々は,ランダム・プロジェクションを用いた情報検索モデルを構築し,評価用テストコレクションであるMEDLINEを利用した検索実験を行った.この検索実験より,情報検索における次元圧縮手法として,ランダム・プロジェクションが有効であることを示す.また,ランダム・プロジェクションを行う際にあらかじめ指定するベクトルとして,文書の内容を表す概念ベクトル\cite{Dhillon}の利用を提案する.概念ベクトルは文書の内容が似ているベクトル集合の重心で,この概念ベクトルを得る際,高次元でスパースな文書データ集合を高速にクラスタリングすることができる球面$k$平均アルゴリズム\cite{Dhillon}を用いる.これにより,文書集合を自動的にクラスタリングできるだけでなく,ランダム・プロジェクションに必要な概念ベクトルも同時に得ることができる.この概念ベクトルをランダム・プロジェクションで用いることにより,任意のベクトルを用いた検索性能と比較して,検索性能が改善されていることを示し,概念ベクトルを利用した次元圧縮の有効性を示す. \section{ランダム・プロジェクションによるベクトルの次元圧縮} 本節では,ランダム・プロジェクションを用いたベクトル空間モデル\cite{Papadimitriou}\cite{Arriaga}についての概観を述べる.ランダム・プロジェクションは,ひとつの文書データを$n$次元空間上のベクトル${\bfu}$として表現するとき,このベクトルを$k\(k<n)$次元空間に射影する手法である.その際,$k$個の任意の$n$次元ベクトル${\bfr}_1,\cdots,{\bfr}_k$を用意する.用意したこれらのベクトルと$n$次元ベクトル${\bfu}$の内積,\begin{equation}{\bfu}'_1={\bfr}_1\cdot{\bfu},\cdots,{\bfu}'_k={\bfr}_k\cdot{\bfu}\end{equation}をそれぞれ計算する.その結果,$k$次元に圧縮した${\bfu}'_1,\cdots,{\bfu}'_k$を要素とするベクトルが得られる.次元圧縮に必要なベクトル${\bfr}_1,\cdots,{\bfr}_k$を列ベクトルとする$n\timesk$の行列${\bfR}$を用いると,求める$k$次元ベクトルは\begin{equation}{\bfu}'={\bfR}^T{\bfu}\end{equation}となり,ランダム・プロジェクションは行列計算のみの簡単な形で表現することができる.この行列${\bfR}$が任意の正規直交行列のとき,すなわち,行列${\bfR}$の列ベクトルがすべて単位ベクトルで,かつ,相異なる列ベクトルが互いに直交していれば,ランダム・プロジェクションは射影前後におけるベクトル間距離を近似的に保存する特性を持っている. \section{概念ベクトルを用いたランダム・プロジェクション} ランダム・プロジェクションに必要な行列${\bfR}$は,これまでの研究では正規分布などの確率分布をなす任意の行列が用いられている\cite{Papadimitriou}\cite{Vempala}\cite{Arriaga}\cite{Kleinberg}\cite{Blum}\cite{Feige}.このような行列を用いて任意の部分空間に射影する場合,次元圧縮を行う前後の任意のベクトル間距離は近似的に保存されることが示されている\cite{Frankl}\cite{Johnson}.しかし,任意の正規直交行列を用いる場合,次元圧縮を行う前後のベクトル間距離を保存する効果は得られたとしても,LSIのように,ベクトルの要素が抽象的な意味を持つ索引語の生成や内容的に関連のある文書をまとめる効果があるとは考えられない.このことから,LSIのような,情報検索に有効な索引語を生成するために,ランダム・プロジェクションの改良が課題となる.このような課題を解決するものとして,ランダム・プロジェクションでベクトルを次元圧縮をした後,さらに特異値分解を行うことにより,LSIの効果を得る手法が提案されている\cite{Papadimitriou}.この手法は,関連文書をまとめる効果を得ると同時に,特異値分解のみを用いた場合に比べ,モデル作成に必要な時間を短縮したものである.しかし,ランダム・プロジェクションと特異値分解は,共にベクトル間距離を保存する効果を持つ手法であるため,特異値分解が内容的に関連のある文書,あるいはタームをまとめるために適用されているとしても,これらの手法を同時に利用することは,検索モデルを構築する時間に関して,効率の良い手法であるとはいえない.さらに,非常に大きい次元数をもつ行列について考えた場合,特異値分解に多くの計算量が必要であることも問題となる.したがって,特異値分解により誤差を最小とする近似行列を得る代わりに,誤差は最小ではないものの,ランダム・プロジェクションのみを用いてLSIの効果を得ることで,より高速に検索モデルが構築できるのではないかと考えられる.これを実現するために,我々は,ランダム・プロジェクションにおける行列${\bfR}$に,文書の内容を表現した概念ベクトルを利用することを提案する.概念ベクトルは,文書ベクトル集合をクラスタリングしてできたクラスタの,各クラスタに属する文書ベクトルの重心を正規化したベクトルとして表される.この概念ベクトルによる次元圧縮は,単にベクトルを近似するだけではなく,クラスタに属するベクトル集合の重心を求めることにより,ターム間で特徴づけられる隠れた関連性やタームの同義性と多義性を捉えることができる.クラスタリングにより得られた各クラスタは互いに異なる概念を持ち,これより得られる概念ベクトルが圧縮した空間の軸となるように用いられる.これにより,次元圧縮された行列は文書と概念ベクトルの類似度を表し,元の空間において内容の近い文書は,圧縮した空間においても近くなる可能性がある.また,類似しているが,異なるタームを使った文書の場合,元の空間では近くないが,圧縮した空間では近くなる可能性があり,検索性能が改善されると考えられる.さらに,多義語により元の空間において近いとされる文書どうしが圧縮した空間では遠くに離れ,誤った検索が取り除かれる可能性も期待できる.このように,これまで単語などが要素であったベクトルが,文書の内容を要素とするようなベクトルに変換され,文書を低い次元で,より検索性能が向上するベクトル表現ができると考えられる.概念ベクトルからなる行列${\bfR}$を求めるために,球面$k$平均アルゴリズム\cite{Dhillon}と呼ばれるクラスタリング手法を用いる.球面$k$平均アルゴリズムは,目的関数が局所的に最大となるまで,高い次元でスパースな文書データ集合をクラスタリングする手法である.球面$k$平均アルゴリズムでは,ユークリッド空間内でベクトル間のなす角の余弦を類似度とし,多次元空間の単位円を分割することによりクラスタリングを行う.これにより,文書ベクトルの集合は指定した数の部分集合に分割され,各クラスタの中心を計算することで,容易に概念ベクトルを作ることができる.さらに,このアルゴリズムは文書ベクトルのスパースさを逆に利用して高速に収束する利点を持ち,得られる概念ベクトルは特異値分解を用いたものに非常に近いことが示されている\cite{Dhillon}.しかし,球面$k$平均アルゴリズムにより得られる概念ベクトルは一般的に直交性を満たしているとは限らないため,概念ベクトルをランダム・プロジェクションに適用するには疑問が生じる.先に述べたように,距離を保存するには正規直交性を満たすベクトルを利用する必要があるが,この概念ベクトルをランダム・プロジェクションに適用する場合,直交性を満たしていないとしても独立であれば,任意の行列においても十分に距離を保存する可能性のあることが示されている\cite{Arriaga}.球面$k$平均アルゴリズムでは,内容的に似通ったベクトルをクラスタとしてまとめるため,原理的には独立した概念ベクトルを生成すると考えられる.このため,直交性に関して,概念ベクトルをランダム・プロジェクションに適用するのは問題ないと考えられる.本節では,まず,球面$k$平均アルゴリズムの概要を述べる前に,クラスタリングにより得られる概念ベクトルについて述べる.\subsection{概念ベクトル}ベクトルの集合をベクトル空間にプロットしたとき,同質のベクトルが多く存在する場合を除いて,いくつかのグループに分かれる.このようなグループはクラスタと呼ばれ,類似した内容をもつベクトルの集合が形成される.概念ベクトルはクラスタに属するベクトルの重心を求めることにより得られ,そのクラスタの内容を表す代表ベクトルである.概念ベクトルを求める例として,正規化された$N$個のベクトル${\bfx}_1,{\bfx}_2,\cdots,{\bfx}_N$を,異なる$s\(s<N)$個のクラスタ$\pi_1,\pi_2,\cdots,\pi_s$にクラスタリングすることを考える.このとき,ひとつのクラスタ$\pi_j$に含まれるベクトル$x_i$の平均である重心${\bfm}_j$は以下のように表される.\begin{equation}{\bfm}_j=\frac{1}{n_j}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i\end{equation}ここで$n_j$はクラスタ$\pi_j$に含まれるベクトルの数を表す.ベクトルの重心は単位長にはなっていないので,そのベクトルの長さで割ることにより概念ベクトル${\bfc}_j$を得る.\begin{equation}{\bfc}_j=\frac{{\bfm}_j}{\|{\bfm}_j\|}\end{equation}\subsection{目的関数}\label{moku}$k$平均アルゴリズムでは,目的関数は一般的に概念ベクトルとクラスタに属するベクトルとの距離の和\begin{equation}\sum_{{\bfx}_i\in\pi_j}\|{\bfm}_j-{\bfx}_i\|\end{equation}を最小にするような概念ベクトルを求める,最小二乗法が用いられる.球面$k$平均アルゴリズムでは,このような最小化問題ではなく,ミクロ経済学の分野における,生産計画の最適化問題で扱われている目的関数を用いている\cite{Kleinberg}.これは,各クラスタ$\pi_{j}(1\leqj\leqs)$の密度を\begin{equation}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j\end{equation}とし,クラスタの結合密度の和を目的関数としている.\begin{equation}D=\sum_{j=1}^{s}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j\end{equation}クラスタの密度は,以下のコーシー・シュワルツの不等式より,任意の単位ベクトル${\bfz}$に対して,クラスタ$\pi_j$に含まれるベクトル$x_i$と概念ベクトルとの内積の総和が最大となる.\begin{equation}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfz}\leq\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j\end{equation}また,クラスタの密度は,それに属するベクトル和の距離に等しくなるという特徴を持っている.\begin{equation}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j=\|\sum_{{\bfx}_i\in\pi_j}{\bfx}_i\|\end{equation}\subsection{球面$k$平均アルゴリズム}\ref{moku}節で示した目的関数$D$を最大にするように,ベクトルの集合を反復法によりクラスタリングする.文書ベクトル${\bfx}_1,{\bfx}_2,\cdots,{\bfx}_N$を$s$個のクラスタ$\pi_1^{\star},\pi_2^{\star},\cdots,\pi_s^{\star}$に分割するためのアルゴリズムを以下に示す.\begin{enumerate}\itemすべての文書ベクトルを$s$個のクラスタに任意に分割する.これらの部分集合を$\{\pi_j^{(0)}\}_{j=1}^{s}$とし,これより求められた概念ベクトルの初期集合を$\{{\bfc}_j^{(0)}\}_{j=1}^{s}$とする.また,$t$を繰り返しの回数とし,初期値は$t=0$である.\item各文書ベクトル${\bfx}_i(1\leqi\leqN$)に対し,余弦が最も大きい,最も文書ベクトルに近い概念ベクトルを見つける.このとき,すべての概念ベクトルは正規化されているので,余弦は文書ベクトル${\bfx}_i$と概念ベクトル${\bfc}_j^{(t)}$の内積を求めることと同値である.これにより,前回の繰り返しで求めた概念ベクトル$\{{\bfc}_j^{(t)}\}_{j=1}^{s}$から,文書ベクトルが新たな部分集合$\{\pi_j^{(t+1)}\}_{j=1}^{s}$に分割される.\begin{equation}\pi_j^{(t+1)}=\{{\bfx}_i:{\bfx}_i^T{\bfc}_j^{(t)}\geq{\bfx}_i^T{\bfc}_l^{(t)}\}\(1\leql\leqN,\1\leqj\leqs)\end{equation}ここで,$\pi_j^{(t+1)}$は概念ベクトル${\bfc}_j^{(t)}$に近いすべての文書ベクトルの集合とする.\item新たに導かれた概念ベクトルの長さを正規化する.\begin{equation}{\bfc}_j^{(t+1)}=\frac{{\bfm}_j^{(t+1)}}{||{\bfm}_j^{(t+1)}||},\\\(1\leqj\leqs)\end{equation}ここで,${\bfm}_j^{(t+1)}$はクラスタ$\pi_j^{(t+1)}$の文書ベクトルの重心を表す.\item目的関数$D^{(t+1)}$の値を求め.前回の繰り返しにおける目的関数の値$D^{(t)}$との差を計算する.このとき,\begin{equation}\|D^{(t)}-D^{(t+1)}\|\leq1\end{equation}を満たす場合,$\pi_j^{\star}=\pi_j^{(t+1)}$,${\bfc}_j^{\star}={\bfc}_j^{(t+1)}$($1\leqj\leqs$)とし,アルゴリズムを終了する.停止基準を超えていない場合は,$t$に1を加え,ステップ2に戻る.ここで,停止基準における目的関数の差は,文書数が約4000で,クラスタの数が8よりも大きい場合,収束した時の目的関数は1000を超えることがこれまでの研究で報告されている\cite{Dhillon}.このため,繰り返しでの1以下の差は無視できるとし,便宜的に1という値を設定した.\end{enumerate} \section{実験} 本節では,ランダム・プロジェクションを用いた検索モデルを構築し,その評価として,MEDLINEを用いた検索実験について述べる.\subsection{データ}実験で用いたデータは,情報検索システムの評価用テストコレクションであるMEDLINEを利用した.MEDLINEは医学・生物学分野における英文の文献情報データベースで,検索の対象となる文書の件数は1033件で,約1Mbyteの容量を持つテキストデータである.また,MEDLINEには30個の評価用検索要求文と各要求文に対する正解文書が用意されている.MEDLINEに含まれている1033件の文書全体から,前処理として,``a''や``about''などの一般的な439個の英単語を不要語リストに指定して,文書の内容と関係のほとんどない単語は削除した.この後,接辞処理を行い,残った英単語を語幹に変換する処理を行った.この前処理の結果,文書全体に5526個あった単語から,4329個の単語が索引語として抽出され,実験データとして用いた.\subsection{検索実験方法}実験では,MEDLINEから前処理により得られた索引語を要素とする文書ベクトルと検索要求ベクトルを作成し,比較することで検索スコアを計算する.文書ベクトルを作成するとき,ベクトルの要素には局所的,大域的な索引語の分布を考慮するために,索引語の頻度に重み付けした数値が用いられる.数多く提案されている重みづけ手法で,今回の実験では以下の式で定義された対数エントロピー重み\cite{chisholm}を用いた.$L_{ij}$は$j$番目の文書に対する$i$番目の索引語への重み,$G_i$は文書全体に対する$i$番目の索引語への重みを表す.\begin{equation}L_{ij}=\left\{\begin{array}{l}1+\logf_{ij}\\(f_{ij}>0)\\0\\\\\\\\\\\\\(f_{ij}=0)\end{array}\right.\end{equation}\begin{equation}G_i=1+\sum_{j=1}^{n}\frac{\frac{f_{ij}}{F_i}\log\frac{f_{ij}}{F_i}}{\logn}\end{equation}ここで,$n$は全文書数,$f_{ij}$は$j$番目の文書に出現する$i$番目の索引語の頻度,$F_i$は文書集合全体における$i$番目の索引語の頻度を表す.これより,$j$番目の文書から得られる文書ベクトルの$i$番目の要素$d_{ij}$は,\begin{equation}d_{ij}=L_{ij}\timesG_i\end{equation}となる.得られた文書ベクトルから,球面$k$平均アルゴリズムを用い,これらの文書ベクトルより指定された数の概念ベクトルを作成する.作成した概念ベクトルを結合した行列に対し,ランダム・プロジェクションを行い,文書ベクトル,検索要求ベクトルの次元を削減する.次元の削減されたベクトルを用いて,内積の計算を行い,その値を各文書に対する検索スコアとする.これらのスコアのうち,上位50文書を検索結果として出力する.検索システムの評価には,一般的に用いられている正解率(Precision)と再現率(Recall)を用いた\cite{lewis2}\cite{Witten}.\begin{equation}\mbox{Recall}=\frac{システムが出力した正解文書数}{全正解文書数}\end{equation}\begin{equation}\mbox{Precision}=\frac{システムが出力した正解文書数}{システムが出力した文書数}\end{equation}再現率と正解率は,それぞれ個別に用いて,システム評価を行うことができるが,本実験では,一般にランクづけ検索システムの評価に用いられる再現率・正解率曲線を用い,システムの評価を行った.この曲線は,各質問に対しひとつの曲線が作成されるが,本稿の検索システム評価には,全30個の質問に対する各再現率での平均を計算した再現率・正解率曲線を用いた.\vspace*{0.3cm} \section{実験結果および考察} \subsection{次元数による比較}本実験では,ランダム・プロジェクションにより,ベクトルの次元を100から900まで圧縮した検索モデルについて,検索実験を行った.その結果,各次元における平均正解率は表\ref{pre_sys}のようになった.平均正解率は,ベクトルの次元が大きくなるにつれて増加し,次元数300において,次元圧縮を行わないベクトル空間モデルよりも良い結果となった.また,次元数が400から500に変化させたときの平均正解率の増加が最も大きく,それ以降は変化の割合が少なくなっている.次元数を大きくすれば,検索に必要な計算量が増加する.このことから,効果的な検索を行うためには,全文書数の約半分に次元圧縮を行う必要があることが分かった.\begin{table}\caption{各次元数における平均正解率}\ecaption{Averageprecisionateachnumberofdimensions}\label{pre_sys}\renewcommand{\arraystretch}{}\centering\begin{tabular}{c|c|c}\hline\hline次元数&ランダム・プロジェクション&平均正解率\\\hline100&あり&0.3982\\200&あり&0.4711\\300&あり&0.5154\\400&あり&0.5231\\500&あり&0.5673\\600&あり&0.5748\\700&あり&0.5822\\800&あり&0.5979\\900&あり&0.6037\\\hline1033&なし&0.4936\\\hline\end{tabular}\end{table}\subsection{検索モデル作成時間}検索モデルを作成する時間,および,一つの検索要求に対し,検索を行うために必要な時間を測定した結果を述べる.検索実験には,UltraSparc(330MHz)のマシンを使用し,ベクトルの次元を500とした結果,表\ref{time}に示すように,ランダム・プロジェクションを用いた場合,モデルを作成する時間は約11分必要であった.LSIの場合,SVDの計算についてはSVDPACKの中で最も高速なLanczos法を利用し,同様にベクトルの次元を500とした結果,モデルを作成する時間は約24分で必要であった.この結果,ランダム・プロジェクションはLSIに比べ,高速に検索モデルを構築することができた.このモデル作成時間においては,メモリサイズの大きさによる,SVDの計算時間に与える影響が考えられる.スワップ領域を用いるほどの大規模なデータについては大きな影響を及ぼし,モデル作成の時間を多く必要とするが,本実験において用いたマシンには640Mバイトのメモリを搭載しているため,MEDLINEコレクションのような規模のデータに対しては,メモリサイズの影響はほとんどないと考えられる.本実験で用いたMEDLINEには収録されているデータは1033件と比較的少ない.このため,文書数を変化させたときの検索モデル構築時間の変化について比較を行った.文書数を増加させるために,MEDLINEと同様なテストコレクションであるCISIを併せた2493記事,さらにCRANFIELDを併せた3893記事について,それぞれの検索モデル作成時間を測定した.その結果,ランダム・プロジェクションとLSIのモデル作成時間は表\ref{model_time}のようになった.これより,文書数が増加に対して球面$k$平均アルゴリズムの1回の反復による計算量が大きくなるのであるが,ランダム・プロジェクションが検索時間に関しても有効であることが分かる.しかし,非常に大規模な文書数に対しては,より1回の反復による計算量が増加するため,反復計算を必要とせずに,球面$k$平均アルゴリズム並の概念ベクトルを得ることが課題となった.\begin{table}\caption{モデル作成時間とひとつの検索要求に対する検索時間}\ecaption{Processingtimeformakingaretrievalmodelandretrievingonequery}\renewcommand{\arraystretch}{}\label{time}\centering\begin{tabular}{c|c|c}\hline\hline手法&モデル作成時間&検索時間\\\hlineランダム・プロジェクション&約2分&4秒\\LSI&約24分&4秒\\\hline\end{tabular}\end{table}\begin{table}\caption{文書数の変化によるモデル作成時間}\ecaption{Processingtimeformakingaretrievalmodelandretrievingonequery}\renewcommand{\arraystretch}{}\label{model_time}\centering\begin{tabular}{l|c|c}\hline\hlineデータ&ランダム・プロジェクション&LSI\\\hlineMEDLINE&約2分&約24分\\MEDLINE+CISI&約14分&約26分\\MEDLINE+CISI+CRANFIELD&約34分&約43分\\\hline\end{tabular}\end{table}\subsection{他の検索モデルとの比較}ランダム・プロジェクションを用いた検索モデルに対して,モデルとしての有効性について評価をする.この評価をするために,次元圧縮をしていない元のベクトル空間モデルと特異値分解を用いたLSIによる検索モデルについての検索実験も同時に行い,性能を比較した.このとき,比較として用いたLSIは,次元数100として次元圧縮した検索モデルを用いている.これらの検索モデルについて,同様に検索実験を行い,すべての検索質問の平均を求めた再現率・正解率曲線を図\ref{re_pre}に示す.図\ref{re_pre}において,横軸は再現率を表し,縦軸は正解率を表す.またグラフの`LSI100'は次元数100のLSI,`VSM'は次元圧縮なしのベクトル空間モデル,`RP500',`RP700',`RP900'はランダム・プロジェクションによるそれぞれに示された次元数に圧縮したモデルの実験結果である.その結果,ベクトル空間モデルと比較して,ランダム・プロジェクションを用いた検索モデルは,大幅に性能が改善されていることが分かった.また,次元数100のLSIと比較すると,ランダム・プロジェクションはLSIに比べ少し下がってはいるものの,ほぼ同じ程度に検索精度が改善されていることを示している.このことから,ランダム・プロジェクションが検索モデルとして,LSIと同等の性能を持っていることが分かる.\begin{figure}[tb]\begin{center}\atari(100,82)\end{center}\caption{モデルに対する再現率・正解率曲線}\ecaption{Recall-Precisioncurveforcomparisonbetweenmodels}\label{re_pre}\end{figure}\subsection{概念ベクトルの有効性}ランダム・プロジェクションで次元圧縮に用いられる概念ベクトルが有効であるかを評価するために,他のベクトルを用いて次元圧縮が行われた場合との検索結果の比較を行った.ベクトルには,乱数を用いて,全要素の平均が0,分散が1の正規分布$N(0,1)$となるベクトルと,指定された数の文書ベクトルを任意に抽出して得られた部分集合からなるベクトルを,それぞれ次元圧縮に用いた.この結果,再現率・正解率曲線は図\ref{concept}となった.ここで,`Random'は正規分布となるベクトル,`Subset'は文書ベクトルの部分集合を表し,共にベクトルの次元数は500として,次元圧縮を行ったモデルの実験結果である.また,サンプルに使った文書集合の偏りを考慮するため,グラフに示した実験でのベクトルの他にいくらかのサンプルを用意し,同様の実験を行い,平均的な検索精度を求めた.その結果,正規分布による任意のベクトルにおける平均正解率の平均値は0.38,文書ベクトルの部分集合における平均値は0.47となった.このグラフと平均値から,正規分布の性質を持つ任意のベクトルや文書ベクトルの部分集合を用いて次元圧縮を行った結果とそれぞれ比較すると,概念ベクトルを用いて次元圧縮を行った結果が,明らかに優れていることが分かる.乱数により生成したベクトルを用いた場合,これらのベクトルの各要素には,索引の重要度や索引語間の関連性はほとんど存在しない.このようなベクトルにより次元圧縮を行う場合,ベクトルの要素には文書の内容を表すような潜在的な意味がほとんど含まれていないために,検索性能が下がってしまったと考えられる.文書ベクトルの部分集合を用いた場合は,次元圧縮後,ベクトル中のいくつかの要素が似通った意味を持っているために,検索性能が下がったと考えられる.概念ベクトルは,内容の似通った文書がクラスタリングによりひとつにまとめられ,それらの重心を求めることで,文書の内容を端的に表すことができる.また,クラスタリングを行うことで似通った内容を持つ概念ベクトルが少なくなるため,内容がほとんど変わらない概念ベクトルを重複して生成する可能性が少ない.しかし,文書の部分集合では,内容の重複した文書が複数存在する可能性がある.このため,次元圧縮後のベクトル空間モデルに意味の重なった要素が存在し,検索性能が下がってしまう可能性が大きくなってしまうと考えられる.これらのことにより,情報検索に対してランダム・プロジェクションを用いて次元圧縮を行う場合,内容の近い文書や同義語などのような索引語の特徴を表した概念ベクトルを用いることにより,優れた検索性能が得られることが示された.\begin{figure}[tb]\begin{center}\atari(90,75)\end{center}\caption{概念ベクトルに対する再現率・正解率曲線}\ecaption{Recall-Precisioncurveforcomparisonbetweenvectors}\label{concept}\end{figure} \section{おわりに} 本論文では,ベクトル空間モデルの次元圧縮手法として,ランダム・プロジェクションを用いた検索モデルを提案した.このモデルの有効性を評価するために,MEDLINEを利用した検索実験を行った.その結果,次元圧縮していない元のベクトル空間モデルと比べ検索精度が改善されていることが分かった.また,LSIと比較しても,検索精度の差は少なく,ランダム・プロジェクションがLSIと同程度の次元圧縮性能を持っていることが分かった.LSIとランダム・プロジェクションのモデル作成,検索に必要な時間を比較すると,LSIは特異値分解を行うこともあり,ランダム・プロジェクションはLSIに比べ約半分の時間で検索を行うことができた.また,MEDLINEよりも大規模な文書集合に対しても,ランダム・プロジェクションが高速に検索モデルが構築することができる.これらのことから,ランダム・プロジェクションはLSIに比べ,高速,かつ有効な次元圧縮手法であることが分かった.また,ランダム・プロジェクションで次元圧縮に必要な行列を得るために,球面$k$平均アルゴリズムで得られる概念ベクトルの利用を提案し,その有効性を検索実験にて評価した.その結果,乱数により生成したベクトルや文書ベクトルの部分集合を用いた場合に比べ,検索精度が優れていた.文書間の内容などの特徴を表した概念ベクトルを用いることで,その概念における索引語の分布を,ベクトルのひとつの要素として表現することができる.これより,ランダム・プロジェクションを用いて検索モデルを構築するとき,概念ベクトルが潜在的な意味を有効にとらえることができることが分かった.今後の研究課題としては,まず,球面$k$平均アルゴリズムは初期段階での分割に非常に大きな影響を及ぼす可能性があるため,初期分割に依存しない有効な概念ベクトルの生成方法を考慮し,より有効な次元圧縮を実現が可能であると考えられる.さらに,より有効な次元圧縮を行うために,評価用データの解答やユーザの評価をフィードバック情報として,概念ベクトルの調節を行った検索モデル\cite{Vogt}\cite{Tai}を構築することが挙げられる.\bibliographystyle{jnlpbbl}\bibliography{sankou}\begin{biography}\biotitle{略歴}\bioauthor{佐々木稔}{1973年生.1996年徳島大学工学部知能情報工学科卒業.1998年徳島大学大学院博士前期課程修了.同年,徳島大学大学院博士後期課程入学,現在に至る.機械学習,情報検索等の研究に従事.情報処理学会会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同教授.工学博士.確率・統計的自然言語処理,情報検索等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-03
\section{はじめに} 近年,全世界のインターネット上の情報量は指数関数的に増加しており\cite{Worldwide},2010年から2024年まで年平均29\%で成長し,2024年には143ZBに達すると予想されている.また,テキストデータに関しても,2018年の全世界のWebサイト数は16億程度であったのに対して2021年現在においては18億程度\cite{Websites}と,3年で2億程度増えていることからこれからもどんどん増えていくことが予想される.このような状況のなかで,インターネットの情報を取捨選択する必要性は高まっており,自動要約の技術が必須となってくる.しかし,実用段階に至っている自動要約システムの多くが,元の文章から要約文を抽出するだけに終わっている.これは抽出型要約といわれており,問題点として,指示語の指す情報の不明確さ,不必要な接続詞の存在,文同士の不自然なつながりなどがあげられる.しかし,抽出型要約システムによっては,要約をする元の文章だけで学習できる場合があり,必ずしも要約の文章が必要とならないことがある.その場合,抽出型要約は,データ整備のコストはあまりかからない.一方で,抽出型要約に対して生成型要約というものがある.生成型要約の多くは,Encoder-Decoderモデルを基本として作られている.この方法でシステムを作る際,学習には,要約をする元の文章と要約の文章のペアが多く必要となる.さらに,例えば,日本語の論文の要約システムを作るとすれば,日本語の論文とその要約文のデータセットが必要となる.このシステムの学習に,ニュース記事の要約データセットを用いることはできない.なぜなら,文章の体裁が全く違うからである.このように,特定のドメイン・言語で大規模データセットを作るのは困難である.本研究では,様々な長さの文章に対して複数の要約文を生成する要約システムに焦点を当て,学習のためのデータセットに対してデータ拡張の効果を検証した.まず,Encoderで,入力文章を固定長のベクトルに変換し,Decoderでその固定長のベクトルから,一単語ずつ生成していく.生成する際には,一単語ずつ,学習に使った語彙の中から選んで要約を作る.初期のころは,Decoder側で使われる語彙集合から,単語を選んでいたが,のちに,CopyMechanism\cite{Gu_2016}が提案され,Encoder側の単語をコピーして生成する機構が提案された.これによって,特定の文章にしかでてこない単語(固有名詞など)を生成することを可能にした.また,生成された要約文に同じフレーズが繰り返される問題を解決するためにCoverageMechanism\cite{Tu_2016}が提案された.本研究では,データ拡張の検証としてこのCopyMechanismとCoverageMechanismを組み合わせたPointer-Generatorモデル\cite{See_2017}を使用した.学習のためのデータセットとして,日本語では,LivedoorNewsを用いた三行要約がある\cite{Kodaira_2018}が,本研究では,様々な長さの文章に対して複数の要約文を生成する要約システムでのデータ拡張の検証を目指しており,採用しなかった.また,出力長制御を考慮した見出し生成モデルのための大規模コーパス(JNC,JAMUL)\cite{Hitomi_2019}では,見出し生成を目的としており,これも採用しなかった.英語では,CNN/DailyMailDataset\cite{Hermann_2015}や,CornellNewsroom\cite{Grusky_2018},Gigaword\cite{Napoles_2012}などのデータセットが整備されている.このデータセットは,人手の要約が付いており,様々な長さの要約をする文章があり,複数文要約にもなっている.そこで,本研究では,データセットとしてCNN/DailyMailDatasetを用い,少ないデータでもデータ拡張することで効果的に自動要約システムを作ることができないかということに着目した.既存の自然言語処理におけるデータ拡張手法を以下に示す.1.同義語・類義語で置き換える2.類似度を計算して置き換える3.反意語で置き換える4.文章内の語と語を入れ替える5.ランダムに削除する6.BackTranslationを用いて文章を水増しする本研究においてデータ拡張の比較対象として用いたEDA(EasyDataAugmentationTechniques)\cite{Wei_2019}は,1と4と5に該当する.2の類似度を計算するには,教師なしクラスタリングや単語埋め込み行列などを使う.単語埋め込み行列には,word2vec\cite{Mikolov_2013},GloVe\cite{Pennington_2014},fastText\cite{Bojanowski_2017}などがある.6のBackTranslation\cite{Edunov_2018}は,機械翻訳におけるデータ拡張手法である.しかし,いずれの手法も文書分類システムや機械翻訳システムで効果が確かめられているだけであり,自動要約システムでは効果を検証されていない.一方,画像処理分野では,少ないデータでも効果的に画像処理ができるデータ拡張の方法がある.具体的には,以下の9つがある.1.水平・垂直方向に画像をシフトする2.水平方向・垂直方向に画像を反転させる3.回転させる(回転角度はランダムの場合あり)4.明度を変える5.ズームインする・ズームアウトする6.画像の一部をくり抜く,削除する7.背景色を変える8.背景を置き換える9.Mixup・CutMixここで説明するMixupとCutMixでは,カテゴリを表すラベルを1(あり)か0(なし)ではなく,連続量で表す.例えば,犬であるかないか(1か0)ではなく,犬である可能性が高い(例えば,0.8)という風に表す.Mixupは,二枚の画像とラベルを組み合わせて一つのデータに合成する\cite{Zhang_2018}.例えば,犬0.4猫0.6といったラベルの画像は各画素値を犬0.4猫0.6の比率で合成した画像になる.CutMixは,複数の画像の一部を切り取ってつなぎ合わせて1枚の入力画像にするデータ拡張である\cite{Yun_2019}.ラベルの表し方は,合成した画像中のそれぞれのラベルの付いた画像の面積比となる.例えば,犬と猫の面積比が1:3であるならば,犬0.25猫0.75というラベルとなる.MixupやCutMix以外の手法では,元画像だけでデータ拡張が行える.我々は,これらの手法の内,背景を置き換えるという拡張手法に着目し,データ拡張手法を提案する.具体的には,要約する文章において,不要文を取り除き,文章の大意を損なわない拡張文章を作ることでデータ拡張を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 自動要約システムに関連する研究は,大別して抽出型要約と生成型要約の二つの種類がある.以下の三つの節でそれぞれの要約とデータ拡張の関連研究について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{抽出型要約}一つ目は,抽出型要約である.これは,要約元の文章から重要な部分を抽出して行う要約で,文単位のものから,フレーズ,単語単位まである.複数文書要約においては,同じような内容の部分を抽出しないように,冗長性を考慮した要約にする必要がある.抽出型要約でよく使われる手法としては,GraphBase手法とFeatureBase手法,TopicBase手法などがある.GraphBase手法でよく用いられるアルゴリズムとしてTextRank\cite{Mihalcea_2004}が挙げられる.これは,Google検索で用いられているPageRank手法\cite{Page_1998}をもとに,自然言語に適用したものである.PageRankでは,あるページが人気の高いページから多くリンクされていればいるほどそのページは重要度が高いとしている.TextRankは相互に関連度の高い語句は重要度が高いという仮定に基づき語句を選択する手法である.このTextRankの派生にLexRank\cite{Erkan_2004}がある.本研究において提案手法に対する比較手法としてLexRankを用いたデータ拡張を行う.以降,この比較手法をDA-LexRankと呼ぶ(このDAはDataAugmentationからとった).FeatureBase手法は,文の特徴を定義して,その特徴による重みづけを行うことで文選択を行うものである.本研究では,単語の位置と頻度の情報を元に文の重要度を測る手法\cite{Luhn_1958}を用いてデータ拡張を行い提案手法に対する比較手法とする.以降,この比較手法をDA-Luhnと呼ぶ.TopicBase手法は,トピックモデル\cite{Blei_2003}を用いて,各文においてトピックの出現確率が高いものから文を選択するという手法である.文におけるトピック分布は,文においてTF-IDF値を求め,それから,トピック分布の事前分布であるディリクレ分布を推定することで得られる.本研究では,重松らの研究\cite{Shigematsu_2012}をもとにトピックモデルを用いて文の重要度を決めた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生成型要約}二つ目は,生成型要約である.これは,要約元の文章と要約の対応関係を学習させ,未知の文章が入力されたときに,要約を生成するというものである.ここで,生成するというのは,入力文章から文,フレーズ,単語を抽出するのではなく,一から要約を生成するというものである.生成の仕方は,生成確率の高い単語をひとつずつ選んでいき,文章の終わりを示すトークンが選ばれたときに,生成を終了するというものである.抽出型要約に比べて自然な文が生成される可能性が高いが,二つの課題がある.一つ目の課題は,要約元の文章と要約のペアになったデータ作成の困難さである.要約元の文章だけなら用意できるが,要約は,人による介入が必要となりコストがかかってしまう.人によっても要約の仕方は変わり,また,どれくらいの長さにするかも変わってくる.そのため,厳密にデータを作ろうとすると,要約の基準を定めなければならない.また,機械翻訳では,翻訳元の文数と翻訳先の文数は等しくなるが,自動要約では,要約の文数に対して,要約元の文数はその数倍の量になることが多い.したがって,できるかぎり少ないデータで効率よく自動要約システムを作ることが求められる.二つ目の課題は,自動要約タスクの定義の曖昧性である.機械翻訳においては,入力された文の内容を過不足なく翻訳することがタスクの定義の正解として設定できるが,自動要約に関しては,どの程度要約するのがタスクの定義の正解なのかはタスクの目的による.実用段階となると,そのタスクで求められている程度の要約ができればいいということになる.このように,タスクによって求められる正解が変わってくるという意味で,データ作成の困難さがある.その難しさから,生成型要約の研究が始まった当初は,ニュース記事の1文目を入力してタイトルを生成するというタスクに限定して研究が行われた.このタスクは通称見出し生成タスクと呼ばれる.また,Encoder-Decoderモデルを初めて導入した論文にABS(AttentionBasedSummarization)がある\cite{Rush_2015}.これを皮切りに,深層学習を用いた自動要約システムの研究が盛んになった.そして,2017年には,CNN/DailyMailDatasetを用いたPointer-Generatorモデル(See,Liu,andManning2017)が開発された.今までは,Encoder-DecoderモデルにAttentionモデルを加えたものが主流であったが,記事特有の固有名詞などがうまく生成できないという問題があった.そこで,Encoder側の単語をコピーするか,Decoder側の語彙から選ぶかを確率で決めるというCopyMechanismが開発された\cite{Gu_2016}.しかし,このメカニズムで生成された要約は,同じフレーズを繰り返してしまうという問題があった.これを解決するために,以前選ばれた単語を選ばれにくくするCoverageMechanism\cite{Tu_2016}というものが開発された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存のデータ拡張手法}自然言語処理におけるデータ拡張に関する研究はいくつかある.多くは,文書分類に適用したもので,そのうちの一つがEDA\cite{Wei_2019}である.また,機械翻訳におけるデータ拡張手法として,BackTranslation\cite{Edunov_2018}がある.BackTranslationとは,まず,入力ソースと出力ソースのデータから,翻訳モデルと逆翻訳モデルを作る.次に,入力ソースが存在しない出力ソースから,逆翻訳モデルで,入力ソース(疑似データ)を作るというものである.したがって,本来のデータに加えて,逆翻訳した入力ソースと出力ソースができ,データ拡張を行うものである.Edunovらの研究\cite{Edunov_2018}によって機械翻訳のベンチマークを大幅に更新したことが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データ拡張} この章では,本研究において用いたデータ拡張について説明する.3.1節では,本研究で提案した手法を,3.2節では,それに対して比較する対象の手法を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{トピックモデル}潜在的意味解析は文書のもつ話題や分野など「潜在的な意味カテゴリ」を解析する手法\cite{Blei_2003}である.この「潜在的な意味カテゴリ」を潜在的なトピック,または単にトピックと呼び,文書内の複数の単語の共起性によって創発されると考える.トピックモデルは,文書に隠れた潜在的なトピックを推定するモデルである.特にLDA(LatentDirichletAllocation)は,一つの文書に複数の潜在的なトピックが存在すると仮定し,そのトピック分布をディリクレ分布としてモデル化する.単語などを表層的と表現するならば,トピックは,単語と違って表面には現れないので潜在的と表現できる.潜在的なトピック分布にディリクレ分布を仮定することから,潜在的ディリクレ配分法と呼ばれる.例えば,「貴景勝実戦稽古再開カド番で臨む7月場所自分の攻めを意識」という文があったとする.人はこの文を見て相撲に関する文書であることを理解できる.文書中に相撲という言葉は出てこないにもかかわらずである.よって,単語は単に存在しているのではなく,潜在的なトピックから生成され,それぞれの文書はその文書がもつ複数のトピックに応じて出現しやすい単語集合で構成されていると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文の重要度の決め方}トピックモデルを用いた文の重要度の決め方は,重松らの研究\cite{Shigematsu_2012}を参考にした.今回用いたトピックモデルには,LDA手法を用いた.また,本研究で用いたモジュールはgensimのバージョン3.7.3を利用した.トピックモデルは,一つの文書が複数のトピックからなることを仮定した言語モデルの一つである.また,それぞれのトピックは出現単語分布を持つ.文$s$の重要度$i_s$の決め方は次のようになる.1.文を構成している単語$w$のトピック$t$における出現確率$p(w|t)$と文$s$におけるトピックtの出現確率$q(t|s)$の積を算出2.文を構成している全ての単語$W$で総和3.文長の平方根$\sqrt{|s|}$で割る4.全てのトピック$T$において総和する式で表すと以下の通りとなる.\begin{equation}i_s=\sum_{t\inT}\sum_{w\inW}{\frac{p(w|t)q(t|s)}{\sqrt{|s|}}}\end{equation}この手法は,文を構成している主要なトピックにおいて出現確率の高い単語が多く含まれているときにスコアが高くなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{処理の手順}我々は,画像処理におけるデータ拡張の考え方をもとに,文章から不要文を削除するデータ拡張の方法を用いてデータ拡張の効果を検証した.画像処理におけるデータ拡張の一種である「背景の差し替え」における背景を,自動要約システムにおける入力文章の不要な部分に置き換え,入力文章から不要な部分を取り除いたものを新たな入力文章とした.入力文章から不要文を取り除くことは,画像処理における背景の除去(無背景に置き換えること)に対応する.他の背景に置き換える,つまり不要文を他の文に置き換えることは,今後の課題として検討するべきである.また,この方法で生成される拡張データは,不要文を除くだけなので意味的に破綻した文章が生み出される可能性は少ないといえる.本研究の提案手法は,具体的に,以下の手順をとる.\begin{itemize}\item[1.]英語のWikipediaのデータからトピックモデルを作る.Wikipediaのデータを選んだ理由は多くの項目を解説しており,内容に偏りが少ないためである.今回の実験では,トピック数を100と設定し,20文書以上かつ全記事(287,226記事)の1割以下の文書で使われた語に限定した.トピック数を決める際にChangらの研究\cite{Chang_2009}を参考にした.この研究では,Wikipediaにおいてトピック数を50,100,150とおきLDA手法を含む三つの手法で実験している.LDA手法においてはトピック数が150のときが最もパフォーマンスが高かった.しかし,150で実験すると各文が持つトピックの重なりが少なくなり,各文の重要度がうまく計算できないと思われたため本研究ではトピック数を100に減らした.\item[2.]1.で作成したトピックモデルを用いて,各文章Sにおける各文sの重要度$i_s$をスコアとして算出する\item[3.]重要度$i_s$の最も低い文を取り除き,拡張データEとする\end{itemize}アルゴリズムを図示すると,図1のようになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\input{02fig01.tex}\caption{提案手法の疑似コード}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}本研究では,提案手法の比較対象として,EDA\cite{Wei_2019}と,FeatureBase手法である,単語の位置と頻度の情報を元に文の重要度を測る手法\cite{Luhn_1958}を用いたデータ拡張手法(DA-Luhn)と,GraphBase手法であるLexRankを用いたデータ拡張手法(DA-LexRank)を用いた.以下では,EDAと,DA-Luhn,DA-LexRankについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{EDA}EDAは極性分類やレビュー推定などの文書分類におけるタスクにおいて,データ拡張を行った方法である.中間ベクトルにノイズを加えるなどのデータ拡張ではなく,記事自体を変えるデータ拡張として,EDAを比較手法として選んだ.拡張手法の概要は以下となる.\begin{itemize}\item[(1)]SynonymReplacement(SR)\\ある単語を同義語に置き換える\item[(2)]RandomInsertion(RI)\\ある単語の同義語を記事のランダムな位置に挿入する\item[(3)]RandomSwap(RS)\\ランダムな二つの単語を入れ替える\item[(4)]RandomDeletion(RD)\\ランダムな単語を削除する\end{itemize}EDAでは,上記の四つの手法を行う頻度を記事に使われている延べの単語数にハイパーパラメータ$\alpha$を掛けて求めている.この研究では,訓練記事数が5,000以上だと$\alpha$の値は0.1に設定しているので本研究でもそれに倣った.また,EDAの論文\cite{Wei_2019}によると,一つの記事に対する拡張する記事の数を4にしたときが最も良い結果が出たということで,本研究でもそれに倣った.EDAをPointer-Generatorモデル\cite{See_2017}に適用して,提案手法との比較検討を行った.本研究では,EDAの各手法(SR,RI,RS,RD)と,文章ごとに各手法をランダムに選択した手法(以降,この手法をEDAと呼ぶ)を比較手法とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{DA-Luhn}単語の位置と頻度の情報を元に文の重要度を測る手法\cite{Luhn_1958}では,まず,対象とする文章のうち,ストップワードでない頻出単語のトップ100単語を重要単語とし,重要単語の文章中の位置を調べる.次に,重要単語同士の距離が4以下のものを一つのクラスタとしてクラスタリングする.そして,クラスタ内の重要単語数の二乗の値を,クラスタの最初の単語と最後の単語の距離で割った値を,そのクラスタのスコアとする.最終的に各クラスタのスコアの最大値がその文のスコアになる.そのスコアを用いて,不要文(最小スコアの文)を除去するデータ拡張手法がDA-Luhnとなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{DA-LexRank}LexRankは,多くの文と類似する文や重要な文と類似する文は重要な文と考え,文章同士のTF-IDFベクトルのコサイン類似度から遷移確率行列を求め,遷移確率行列に滞在確率ベクトルをかけたものが滞在確率ベクトルになるような滞在確率ベクトルを求める.このときの滞在確率ベクトルが文の重要度となる.そして,文の重要度を用いて,不要文(最小スコアの文)を除去するデータ拡張手法がDA-LexRankとなる.今回の実験では,コサイン類似度が0.1以上のものは全て1とし,更新前の滞在確率ベクトルと更新後の滞在確率ベクトルの差のノルムが0.1以下になったときを収束条件とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Pointer-Generatorモデル} この章では,本研究において使用した自動要約システムであるPointer-Generatorモデル\cite{See_2017}について説明する.そのために必要な知識として,Encoder-Decoderモデル,Attentionモデルについても説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Encoder-Decoder+Attentionモデル}図2がLSTMEncoder-Decoder+Attentionモデルの概要図になる.LSTM(LongShortTermMemory)は\cite{Hochreiter_1997}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-2ia2f2.pdf}\end{center}\caption{LSTMEncoder-Decoder+Attentionモデルの概要図}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%${\mbox{\boldmath$x$}}(\tau)$は$\tau$番目の単語を指す.Encoderは,$T$個の単語から成り立っており,Decoder側でt番目の単語の隠れベクトル${\mbox{\boldmath$h_{dec}$}}(t)$を算出する場合を表している.${\mbox{\boldmath$h_{dec}$}}(t)$の算出の仕方は,以下の式による.\begin{equation}{\mbox{\boldmath$h_{dec}$}}(t)=f({\mbox{\boldmath$h_{dec}$}}(t-1),{\mbox{\boldmath$y$}}(t-1),{\mbox{\boldmath$c$}}(t))\end{equation}${\mbox{\boldmath$c$}}(t)$は以下の式によって求められる.\begin{equation}{\mbox{\boldmath$c$}}(t)=\sum_{\tau=1}^T{\mbox{\boldmath$\alpha$}}_\tau(t){\mbox{\boldmath$h_{dec}$}}(\tau)\end{equation}つまり,この${\mbox{\boldmath$\alpha$}}_{\tau}(t)$が,Encoder側のそれぞれの単語をどれくらいデコーダー側に伝えるかの割合を表している.\begin{equation}{\mbox{$w$}}_\tau(t)=f({\mbox{\boldmath$h_{dec}$}}(t-1),{\mbox{\boldmath$h_{enc}$}}(\tau))\end{equation}なる${\mbox{$w$}}_\tau(t)$を用いて,\begin{equation}{\mbox{$\alpha$}}_{\tau}(t)=\frac{exp({\mbox{$w$}}_\tau(t))}{\sum_{\rho=1}^Texp({\mbox{$w$}}_\rho(t))}=softmax({\mbox{$w$}}_\tau(t))\end{equation}と表される.この${\mbox{$w$}}_\tau(t)$が最適化されるべきパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Pointer-Generatorモデル}Pointer-Generatorモデルについて説明する.Pointer-GeneratorモデルはEncoder-Decoder+Attentionモデルに,CopyMechanismとCoverageMechanismを追加したモデルである.概要図は図3の通りとなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-2ia2f3.pdf}\end{center}\caption{Pointer-Generatorモデルの概略図\protect\cite{See_2017}}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このモデルは以下の手順で処理を行う.\begin{itemize}\item[1.]入力テキスト(SourceText)を,双方向LSTMでエンコードする.可変長の長さのデータを固定長のベクトルになおす.(赤色箇所)\item[2.]EncorderLSTMでAttentionMechanism(青色箇所)を用いて,単語生成確率(黒色箇所)を求める.\item[3.]デコード部分(PartialSummary)における単語の生成確率分布(VocabularyDistribution)に,エンコード部分におけるAttentionの値(AttentionDistribution)を加算する(CopyMechanism)(FinalDistribution).CopyMechanismによって,モデルの出力語彙には含まれない単語を生成することが可能となる.\item[4.]FinalDistributionから最終的に生成する単語を選択\item[5.]2.〜4.を繰り返して,逐次的に単語を生成.文章の終わりを表すトークンが選ばれたら,そこで,デコード(要約)は終了する\end{itemize}CoverageMechanismを使うときは,2.の時点において以下の処理を行う.\begin{itemize}\item[]以前Attentionの値が大きかったところは,Attention値を減衰させる.これには,現在注目しているEncoderの単語以前のAttentionを総和したCoverageVectorを導入する.また,それをAttentionDistribution(Encoderに入力された全語彙のAttention分布)の式に加える.そして,最終的な損失に,現在のAttentionかCoverageVectorの低い方を加える.そうすることで,Attentionの方が低いときは,現在の単語のAttentionが減衰するように学習され,CoverageVectorの方が低いときは,現在の単語が重要ということなので,それまでのAttentionが減衰するように学習する.\end{itemize}この処理を行うことで,できるだけ入力文章全体の情報を用いて要約を生成するようにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験条件} この章では,本研究における実験条件について述べる.5.1節では,パラメータ設定と,デコードする(要約を生成する)ときに使うビームサーチについて説明する.5.2節ではEarlyStoppingについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パラメータ設定}本研究では,データセットにCNN/DailyMailDataset(DeepMindQ\&ADataset)を用いた.このデータセットは,訓練データが287,226記事,検証データが13,368記事,テストデータが11,490記事存在する.データ拡張の効果を見るために,287,226記事の他に,約1/5の記事数である57,000記事と,約1/10の記事数である28,000記事で実験を行った.隠れ層のベクトルサイズは256に設定し,埋め込みベクトルサイズは128に設定した.ドロップアウトは使っていない.バッチサイズは8に設定した.Pointer-Generatorモデル(See,Liu,andManning2017)(以降この論文を原論文と呼ぶ)では,バッチサイズが16となっているため,同じ記事数学習するためには,二倍の学習回数が必要となる.要約を生成する部分には,ビームサーチを使用した.貪欲法では,単語を生成するときに,最も生成確率の高い単語をひとつ選ぶのに対し,ビームサーチでは,上位K個までの生成単語を保持しながら処理を進めていく.そして最終的にできた複数の要約に対して,それぞれの単語の生成確率を掛け,最も高いものを最終的な生成要約とした.今回の実験では,Kの値は4に設定している.語彙数は50,000に,学習率は0.15に設定した.原論文では,エンコードする際に,入力記事の最初から400単語のみを用いて,学習していたが,提案手法の場合,取り除かれる不要文が最初から400単語以内にない場合,文を取り除いた効果が無くなってしまうので,入力記事全ての単語を用いて学習した.具体的には,入力単語数に,入力記事の中の最大単語数である2,380を用いた.また,最適化アルゴリズムはAdaGradを用いた.これらのパラメータを表1に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{02table01.tex}\caption{パラメータ設定}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{EarlyStopping}EarlyStoppingというのは,通常,各エポックの検証誤差(学習したモデルを使って,学習データ以外の検証データを入力して得られた要約と参照要約との生成確率の誤差)をモニタリングし,ある一定のエポック数が進んでも,検証誤差が下がらなかったところで学習を終了するというものである.Ouchiらの研究\cite{Ouchi_2019}では90,000記事,45,000記事,において提案手法と拡張なし手法の比較を行っているが,異なる記事数における学習回数の決定法について考察をしていなかった.具体的には,90,000記事,45,000記事が全記事に対して約1/3,1/6の記事数になるということから,学習回数も287,226記事のときの1/3,1/6回にしていた.それに対し本研究では,モデルや訓練記事数に応じた学習回数を決定する方法としてEarlyStoppingを採用した.訓練データ数287,226記事,57,000記事,28,000記事それぞれで,各手法において検証誤差をモニタリングし,どれだけのエポック数をモニタリングすればよいかを決定した.モニタリングするエポック数については,最小の検証誤差を出したエポック数の2倍までモニタリングする(例えば,5エポックで検証誤差が最小なら10エポックまでモニタリングしてそれでも最小値が更新されなければ,5エポックのモデルを採用する).デコード(要約)に使うモデルは,誤差が最小となったときのモデルを使うことにする.我々は,CoverageMechanismにおいては,CoverageLossを用いて,各ステップにおいてモニタリングした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 6.1節では,評価に用いた尺度を,6.2節,6.3節では拡張なし手法,提案手法,SR,RI,RS,RDについて,EarlyStoppingの条件を変えた比較実験を述べ,6.4節,6.5節では6.3節の実験2に対して,記事数を変えて比較実験をした結果を載せた.6.6節では,さらに比較対象として,DA-Luhn,DA-LexRank,EDAを加えて実験をした結果を載せた.6.7節では,生成した要約例を載せた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価尺度}本研究では,評価尺度にROUGEを用いた\cite{Lin_2004}.ROUGEは,参照要約と生成要約の単語の一致率を見るものである.本研究における参照要約は,CNN/DailyMailDataset(DeepMindQ\&ADataset)において人が作った要約である.本研究では,ROUGE-1,ROUGE-2,ROUGE-Lを用いた.ROUGE-1,ROUGE-2は,それぞれユニグラム,バイグラムの一致率,ROUGE-Lは,最長共通部分列の文長に対する割合で測る.参照要約をABCDとし,生成要約をABCXYとすると,例えば,ROUGE-1の再現率は,3/5で,適合率は,3/4である.ROUGE-2では,要約をバイグラムに直さなければならないので,参照要約は,(AB),(BC),(CD),生成要約は,(AB),(BC),(CX),(XY)となるので,再現率は,2/4で,適合率は,2/3となる.また,それぞれのROUGEの測り方として,再現率と適合率とF値を用いる.再現率は,参照要約がどれだけ生成要約に含まれているか,つまり,参照要約の単語をどれだけ生成できたかをみるもので,適合率は,生成要約がどれだけ参照要約に含まれているかを考えるものである.F値は再現率と適合率を両方考慮したもので,式(6)で表される.\begin{equation}F値=\frac{2\timesRecall\timesPrecision}{Recall+Precision}\end{equation}ただし,$Recall$は再現率,$Precision$は適合率を表す.$Recall$,$Precision$の計算式はそれぞれ式(7),式(8)となる.\begin{gather}Recall=\frac{参照要約と生成要約の一致単語数もしくは一致単語長}{生成要約の単語数}\\[1ex]Precision=\frac{参照要約と生成要約の一致単語数もしくは一致単語長}{参照要約の単語数}\end{gather}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{原論文とCoverageMechanismの条件を揃えた比較実験(実験1)}本実験では,学習記事数を最大記事数である287,226記事にして実験を行った.CopyMechanismに関しては,EarlyStoppingで,検証誤差が最小となるようなエポックを見つけた.CoverageMechanismについては,原論文に倣って,6,000回とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}表2に結果を示す.原論文とCoverageMechanismの条件を揃えた条件では,提案手法が最も良くなり,EDAのRD(RandomDeletion)手法が最も悪い結果となった.続いて,RI(RandomInsertion),SR(SynonymReplacement),拡張なし手法,RS(RandomSwap),そして提案手法の順番に良くなっていった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{02table02.tex}\caption{学習記事数287,226のF値(CopyMechanism:EarlyStopping,CoverageMechanism:6,000)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}CoverageMechanismは6,000回と固定したが,あくまで拡張なし手法において最適な回数である可能性もあるので,実験2では,CoverageMechanismに関して,EarlyStoppingを用いることで,手法に限らず,自動的に決定する手法をとった.実験1の条件下では,提案手法が最も良い結果となり,拡張なし手法に比べて,スコアが0.055良くなっている.本実験の拡張なし手法と原論文との違いは大きく二つある.まず入力単語数を原論文では400単語と限定していたのに対し,本研究では限定をなくした.二つ目は,EarlyStoppingを用いたところである.これは,他の記事数で実験したり,他の手法で比べる際に学習回数をヒューリスティックに決めるのを避けるために必要なことであった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習回数を全てEarlyStoppingで決定した比較実験(実験2)}本実験では,実験1と同じく学習記事数を最大記事数である287,226記事にして実験を行った.CopyMechanismに関しては,EarlyStoppingで行い,CoverageMechanismについてもEarlyStoppingで行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}表3に結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}\hangcaption{学習記事数287,226のF値(CopyMechanism:EarlyStopping,CoverageMechanism:EarlyStopping)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法が最も良い結果となり,EDAのRS(RandomSwap)が最も悪い結果となり,続いて,RD(RandomDeletion),SR(SynonymReplacement),RI(RandomInsertion),拡張なし手法,そして提案手法の順に良くなっていった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}本実験ではCoverageMechanismにおいてもCopymechanismと同様にEarlyStoppingを用いた.結果からみると,提案手法が最も良い結果となった.提案手法は拡張なし手法に比べて,スコアが0.016程度良くなっている.実験1と実験2を比べてみると,拡張なし手法は若干であるが良くなっている.提案手法をみると,少し悪くなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{57,000記事におけるデータ拡張効果の検証実験(実験3)}本実験では,学習記事数を最大の約1/5の57,000記事にして,実験2と同様,CopyMechanism,CoverageMechanismの両方でEarlyStoppingを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}表4に結果を示す.提案手法が最も良い結果となりRS(RandomSwap)が最も悪い結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{02table04.tex}\hangcaption{学習記事数57,000のF値(CopyMechanism:EarlyStopping,CoverageMechanism:EarlyStopping)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}RS(RandomSwap),拡張なし手法,RD(RandomDeletion),RI(RandomInsertion),SR(SynonymReplacement),そして提案手法の順番に値が良くなっている.提案手法は拡張なし手法に比べて,スコアが0.0251良くなっている.RI(RandomInsertion)とSR(SynonymReplacement)は拡張なし手法よりも良くなった.このことから,提案手法に関して287,226記事のときよりもデータ拡張の効果が大きくなったということが言える.また,EDAのうちRS以外は全て拡張なし手法よりも良い結果となった.少ない記事の方がデータ拡張の効果が出ることは,EDAの論文(WeiandZou2019)でも報告されている.これは,多くの記事を学習した方が偏りが少なくなり,データ拡張の効果が出にくいことによると思われる.今回の例だと,57,000記事は学習の偏りが多くなり,データ拡張によってデータの複雑性を増すことにより汎化性能が高まったものと思われる.さらに,本実験で言うと,提案手法がEDAの各手法よりも汎化性能を上げるのに有用であったと言える.拡張なし手法に比べて提案手法の方が拡張した分,データは増えているが,学習データを増やせることがデータ拡張手法のメリットであり,学習回数が増える可能性についてはEarlyStoppingで自動化されているのでデータ拡張手法の効果を検証する上で問題ではないと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{28,000記事におけるデータ拡張効果の検証実験(実験4)}本実験では,学習記事数を最大記事数の約1/10である28,000記事にして,実験を行った.CopyMechanism,CoverageMechanismの学習回数の決め方は実験2と同じとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}表5に結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{02table05.tex}\hangcaption{学習記事数28,000のF値(CopyMechanism:EarlyStopping,CoverageMechanism:EarlyStopping)}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本実験でも提案手法が最もよい結果となり,SR(SynonymReplacement)で最も悪い結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}RS(RandomSwap),拡張なし手法,RI(RandomInsertion),RD(RandomDeletion),提案手法,SR(SynonymReplacement)の順番に良くなった.提案手法は,拡張なし手法に比べて,スコアが0.0115良くなった.EDAの手法は,拡張なし手法よりも良くなることもあれば,悪くなることもあった.しかし,提案手法は常に拡張なし手法よりも良い結果を出していた.今回の実験では,SR手法が最も良い結果となっている.実験2から実験4までをみると,どれもRS手法が一番悪い結果となっている.一方で,実験1に関しては,提案手法を除いて最も良い結果となっている.RS手法は,ランダムに二つの単語を入れ替えてデータ拡張する手法で,EDAの他の3手法より最も意味的に破綻した文章を作ってしまう可能性がある.そのため,実験2から実験4ではRS手法が最も悪い結果になったものと思われる.実験1に関しては,CoverageMechanismの学習回数を6,000回として固定して学習しており,他の実験よりも多い回数になっている.そのため,他の実験に比べ全体の文脈をより考慮した形となり,多少文が破綻しても影響が少なかったのではないかと思われる.逆に,SR手法は,全体的にEDA手法の中で最も良い結果を出している.その理由として,SR手法は,同義語に入れ替えるものなので,意味的に最も影響の少ない手法となっているためであると考えられる.残りのRI手法とRD手法は,前者の二つの手法の中間に位置する.RI手法は,ある単語の同義語をランダムな位置に挿入する方法で,RD手法は,ランダムな単語を削除する方法で,いずれも同じ単語数だけ文章全体に影響を与えるという意味で同程度の効果が表れたものと思われる.提案手法よりもEDA手法全体が悪くなった原因としては,EDAの場合は,特に意味のない単語を挿入したりや単語が入れ替わってしまい意味が取れなくなったり,重要な単語が消されてしまう可能性があることにより汎化性能を上げる効果よりも正しく学習できなかった影響のほうが大きかったと思われる.その点で,提案手法は,不要文を削除するだけなので文章全体の意味が取れなくなることもなく,さらに重要なところが削除されることもないのでデータ拡張による悪い影響は少なく効果がEDAより表れていたものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法,DA-Luhn,DA-LexRank,EDAの比較実験(実験5)}本実験では,記事数287,226,CopyMechanism,CoverageMechanismの学習回数の決め方は実験2と同じとした.そして,本実験ではさらに,DA-Luhn,DA-LexRank,EDAの方法でデータ拡張して学習させた結果も載せた.また,DA-Luhn,DA-LexRank手法と提案手法における不要文抽出の評価実験も行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{02table06.tex}\hangcaption{学習記事数287,226のF値(CopyMechanism:EarlyStopping,CoverageMechanism:EarlyStopping).全手法で比較.}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{02table07.tex}\caption{各手法とROUGEを用いた手法で一致した文の数}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}表6,7に結果を示す.新たに加えた三手法(DA-Luhn,DA-LexRank,EDA)のどの手法も拡張なし手法,提案手法,EDAの各手法(SR,RI,RS,RD)に及ばなかった.表8においては,ROUGEを用いて,要約と最もROUGE-1のF値の高かった文を最重要文とし,要約とのROUGE-1のF値の最も低かった文もしくは,ROUGE-1のF値が0になった文集合を不要文または不要文群とした.そして,提案手法に用いたトピックモデルとDA-LexRankで用いたLexRankとDA-Luhnで用いたLuhnを使って最重要文と不要文を抽出し,一致した文の数を調べた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}DA-Luhnが最も悪い結果となり,続いて,DA-LexRank,EDA,RS(RandomSwap),RD(RandomDeletion),SR(SynonymReplacement),RI(RandomInsertion),拡張なし手法,そして提案手法の順に良くなっていった.この結果から,データ拡張をするために行う文の重要度決めに用いるのは,DA-LuhnやDA-LexRankよりもトピックモデルを用いた提案手法の方が効果があることを確認した.実際,表8を見てもわかるとおり,提案手法を用いた場合の方が,不要文,最重要文とも一致度は高い.ROUGEを使って不要文削除を行えばいいのではないかということも考えられるが,ROUGEはあくまで単語の一致率を見ているので単語がひとつも一致しない文はスコアが0になる.したがって,スコアが0の文同士の重要度の差は生まれない.本研究では,不要文として一文を削除することにしているが,ROUGEだとスコアがどちらも0で差が生まれない場合に一文を選ぶことができないため本研究では扱わなかった.また,EDAは,組み合わせて使うよりもそれぞれの手法を用いた方がデータ拡張の効果が表れやすいことが確認できた.DA-Luhnがトピックモデルを用いたときよりも拡張の効果が表れなかった原因として,DA-Luhnでは,単語の位置と頻度だけを考慮しており,一方で,トピックモデルはTF-IDF行列からトピック分布の事前分布であるディリクレ分布を推定するため,各文章のトピック分布を評価することができる点にあると思われる.次にDA-LexRankがトピックモデルを用いたときよりも拡張の効果が表れなかった原因として考えられるのは,トピックモデルでは,TF-IDF行列から推定したトピックを用いているので,carとautomobileといった同じ意味でも異なる単語を捉えられる.そのようなトピックの観点がDA-LexRankにはなかったことが文の重要度を決めるときに影響を及ぼし,トピックモデルより悪い結果になったものと思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\input{02fig04.tex}\caption{ROUGE-1のF値が最大になる場合(要約のみ)}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\input{02fig05.tex}\caption{ROUGE-1のF値が最小になる場合(要約のみ)}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生成した要約例}本文と生成した要約例を付録に載せる.要約例は,拡張なし手法で生成した要約と提案手法で生成した要約とを比較するため,参照要約とのROUGE-1のF値をもとに,実験1において提案手法で生成した要約と参照要約とのROUGE-1のF値が最大になる場合(付録1),最小になる場合(付録2),中央値になる場合(付録3)の三つの場合の要約元文,参照要約,拡張なし手法での要約,提案手法での要約を示した.また,図4〜6は,そのうち要約例だけ示す.ROUGE-1のF値が最大になる場合(図4)は,参照要約が4文あるが,拡張なし手法モデルはそのうち最初の2文だけ正解している.提案手法は4文とも正解している.ROUGE-1のF値が最小になる場合(図5)は,どちらの手法も正解には程遠いが,``jamalbryant''というこの文章にしか出てこない固有名詞に対して,うまく生成できているのがわかる.提案手法の方は,文が繰り返されており,CoverageMechanismがうまく働いていないことがわかる.ROUGE-1のF値が中央値をとる場合(図6)は,どちらの手法も最初の一文だけうまく生成できているのがわかる.総合すると,若干ではあるが提案手法の方が全体として良い要約になっているものと思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\input{02fig06.tex}\caption{ROUGE-1のF値が中央値をとる場合(要約のみ)}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,自然言語処理におけるデータ拡張の手法を提案し,自動要約システムPointer-Generatorモデル\cite{See_2017}の場合で,データ拡張の効果があることを示した.また,比較実験により,自動要約システムにおいて汎化性能を出すためには,EDAの各手法およびそれらを組み合わせた手法よりも提案手法の方が効果があることが確認できた.さらに,本研究では,重要度の低い文を取り出す方法として,抽出型要約の3手法(トピックモデル,DA-Luhn,DA-LexRank)で比較実験したが,実験5の結果からトピックモデルの場合が最も不要文抽出の一致度は高かった.したがって,データ拡張の効果もトピックモデルの場合が最も良かった.より少ない学習記事においてデータ拡張の効果が大きく現れるのではないかと考えていたが,実験結果からは,57,000記事のときに一番効果が表れていた.しかし,少なすぎるとデータ拡張の効果が少なくなることがわかった.今回は,一番重要度の低い文を取り除いた文章を拡張記事データとして水増しすることでデータ拡張を行った.しかし,元の文章の長短に関わらず,一文しか取り除いていないので,今後の課題として,文章の長さに応じて取り除く文の数を変えるといった拡張が考えられる.また,重要度の低い文を取り除くのではなく,重要度の高い文を残すというやり方も考えられる.最近の研究では,BERTを使った自動要約システムも考えられている\cite{Liu_2019}.このように,Pointer-Generatorモデルだけでなく最先端のモデルにも提案手法が有効であるか試していく必要性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1.3\Cvs}\noindent{\large\bf付録1}\noindentROUGE-1のF値が最大になる場合\vspace{-0.5\Cvs}%%%%\fbox{\parbox{14cm}{\noindent\begin{picture}(420,0)\put(0,0){\line(1,0){420}}\put(0,0){\line(0,-1){170}}\put(420,0){\line(0,-1){170}}\end{picture}\begingroup\setlength{\leftskip}{0.5zw}\setlength{\rightskip}{0.5zw}\setlength{\parindent}{0pt}要約元の文章``april8,2015.afterareportonheadlinesconcerningtheu.s.andcuba,cnnstudentnewsgivessomeperspectiveoncalifornia'shistoricdrought:itseffectsarebecomingmorelikelytorippleacrossthenation.there'sbeenafluoutbreakinchicago--butnotonethataffectshumans.andaproposedtunnelwouldconnectdenmarkandgermanyviaanundersearoadandrailline.onthispageyouwillfindtoday'sshowtranscriptandaplaceforyoutorequesttobeonthecnnstudentnewsrollcall.transcript.clickheretoaccessthetranscriptoftoday'scnnstudentnewsprogram.pleasenotethattheremaybeadelaybetweenthetimewhenthevideoisavailableandwhenthetranscriptispublished.cnnstudentnewsiscreatedbyateamofjournalistswhoconsiderthecommoncorestatestandards,nationalstandardsindifferentsubjectareas,andstatestandardswhenproducingtheshow.rollcall.forachancetobementionedonthenextcnnstudentnews,commentonthebottomofthispagewithyourschoolname,mascot,cityandstate.wewillbeselectingschoolsfromthecommentsofthepreviousshow.youmustbeateacherorastudentage13oroldertorequestamentiononthecnnstudentnewsrollcall!thankyouforusingcnnstudentnews!''参照要約thispageincludestheshowtranscript.usethetranscripttohelpstudentswithreadingcomprehensionandvocabulary.atthebottomofthepage,commentforachancetobementionedoncnnstudentnews.youmustbeateacherorastudentage13oroldertorequestamentiononthecnnstudentnewsrollcall.生成要約(拡張なし手法coverage6000回)thispageincludestheshowtranscript.usethetranscripttohelpstudentswithreadingcomprehensionandvocabulary.usetheweeklynewsquiztotestyourknowledgeofstoriesyousawoncnnstudentnews.生成要約(提案手法coverage6000回)thispageincludestheshowtranscript.usethetranscripttohelpstudentswithreadingcomprehensionandvocabulary.atthebottomofthepage,commentforachancetobementionedoncnnstudentnews.youmustbeateacherorastudentage13oroldertorequestamentiononthecnnstudentnewsrollcall.%%%%}}\endgroup\vspace{-0.5\Cvs}\noindent\begin{picture}(420,0)\put(0,0){\line(1,0){420}}\put(0,0){\line(0,1){357}}\put(420,0){\line(0,1){357}}\end{picture}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1.3\Cvs}\noindent{\large\bf付録2}\noindentROUGE-1のF値が最小になる場合\vspace{-0.5\Cvs}%%%%\fbox{\parbox{14cm}{\noindent\begin{picture}(420,0)\put(0,0){\line(1,0){420}}\put(0,0){\line(0,-1){136}}\put(420,0){\line(0,-1){136}}\end{picture}\begingroup\setlength{\leftskip}{0.5zw}\setlength{\rightskip}{0.5zw}\setlength{\parindent}{0pt}要約元の文章``please,notevenademonstration.freddiegray'sfamilyhadaskedtherebequietonbaltimore'sstreetsthedaytheylaidhimtorest.andaboveall,noviolence.raginghordesturnedadeafeartothatonmonday.butahandfulofpeoplerepeatedthefamily'smessage.theybecamecriersinthedesertagainstcountlessyoungpeopleflingingrocksatpolice,breakingwindows,lootingandsettingfires.thepeacemakers--clergy,gray'sfamilyandbraveresidents--placedthemselvesintherioters'way.theirmessagewasthesame.``iwantthemalltogobackhome,''saidrev.jamalbryant.``it'sdisrespecttothefamily.thefamilywasveryclear--\linebreak\begin{picture}(0,0)\put(-4.5,9){\line(0,-1){571}}\put(415.5,9){\line(0,-1){571}}\end{picture}%we'vebeensayingitallalong--todaytherewasabsolutelynoprotest,nodemonstration,''hesaid.butthemessengerswereafingerinadamthatquicklycrumbled,asrowdygroupsswelledintoafullurbanriot.itovershadowedthemessagepeacefulprotestersdeliveredonpriordays--justiceforgray.the25-year-oldafrican-americanmandiedfromspinalinjuriesafterbeingarrestedearlierthismonth.theearlyfitsofviolencecameintheafternoon,aboutthetimemournersleftgray'smemorialservicesblocksaway,rev.bryantsaid.theybumpedrightintoit.``forustocomeoutoftheburialandwalkintothisisabsolutelyinexcusable,''hesaid.hedidnotwanttoseeitspreadtodowntownbaltimore,wheresomerioterssaiditwould,andorganizedpeopletostandintheway.``wehavealineofgentlemenfromthenationofislamtobuildahumanwall,aswellasmenfromthechristianchurchmakingthathumanwall,''hesaid.butascrowdsturnedintomultitudes,theinterventionbecameadropinthebucketbycompare,andpolicelineswerealsonomatch.asofficersinriotgearreceded,flamesengulfedcarsandstoresandroaredoutofapartmentbuildingsintothenightsky.aseniorlivingfacilityunderconstructionbyabaptistchurchburnedtotheground.theblazesstretchedthefiredepartments'resources,asatleast30trucksdeployed.lootersstreamedintoacvs,bodegasandliquorstoresandwalkedoutwithwhattheycouldcarry.ayoungmaninabluesweatshirttriedtotalkpeopledownbyhimself.hewalkeduptocnncorrespondentmiguelmartinez,asastorenearbywasbeinglooted.itlaterwentupinflames.theman,whodidn'tsayhisname,wasdisgustedatwhatwashappeninginhisneighborhoodanddisappointedinthepoliceresponsetorioting.therewasalineofpolicedownthestreet,notfaraway.``theycouldhavemoveddownheretostopit,''hetoldmartinez.thegrayfamily'slawyers,again,putthefamily'swishouttothepublicthattherebenoproteststhatday,letaloneviolence.it'smarringthecauseandhopeforchangethatmayhavecomeoutoftheinvestigationintofreddiegray'sdeath,saidfamilyattorneymarykoch.``that'sjustdisintegratedintojustlookingatbaltimorecityandthinkingthatthecityisthecityofviolence,''shesaid.againstallodds,ahandfulofindividualskepttryingtostopit.atall,adultmanwalkeduptoayoungmanwhowasconfrontingriotpolice.heslunganarmoverhisshoulder,turnedhimbackaroundintheotherdirectionandmarchedhimawayfrompolicelines.butastheystrolledpastacrowd,ayoungmanbehindthemhurledastoneatpolice,puttinghiswholebodyintothethrow.atleastoneyoungmanpaidthepriceforhisparticipation,whenhismotherturneduptospankhimhome.beforerunningcameras,sheslappedhimintheheadagainandagain,drivinghimawayfromthecrowd,asshecursed.policecommissioneranthonybattslaterthankedher.``iwishihadmoreparentsthattookchargeoftheirkidsouttheretonight,''hesaid.afternightfell,givingwaytoa\linebreak\begin{picture}(0,0)\put(-4.5,9){\line(0,-1){571}}\put(415.5,9){\line(0,-1){571}}\end{picture}%10p.m.curfewforjuveniles,robertvalentinestoodalonewithhisbacktoalineofpoliceinriotgear.heshooedawayyoungpeopletemptedtoapproachthem.``go!stepyour--ssaway!''``i'mjustasoldier,''saidvalentine.hetoldcnn'sjoejohnsthathewasaveteranofthevietnamwar.youngpeoplehadnobusinessonthestreets,hesaid.``theyneedtobeintheirhomeunitsstudyinganddoingsomethingwiththeirlives.''evenbaltimoremembersofthecripsandbloods,twostreetgangsrenownedfordrugdealingandextensiveviolentcrime--andforkillingeachother--cametogetherwithotherswhocondemnedtheragethatsweptthroughtheirneighborhoods.``theguyswhopulledmeasideareself-identifyingascripsandsaytheydon'tapproveofwhatshappening.`thisisourcommunity,'''wrotebaltimoresunreporterjustinfentononhisconfirmedtwitteraccount.gangsmembersjoinedcommunityleadersandgray'sfamilyforapressconferencemondaynightonthestageatnewshilohbaptistchurch,whichhadheldgray'sfuneral.anannouncerthankedthemforcomingtothechurch.thegangshavesignedapeacedealandareunitingtopushagainstpolicelinesinprotests,accordingtoareportbythedailybeast.rev.bryantalsomentionedtheirpeacetreaty.butpolicesaythegangs'purposegoesmuchfurther--thattheyandanothergangcalledtheblackguerillafamilyplanto`takeout'lawenforcementofficers,policesaid.``thisisacrediblethreat.''thegangsareconsistentlypursuedbythefbi.attheendoftheday,gray'sfamilyhadthelastwordontheviolenceatthepressconference.itwasn'tgood.``toseethatitturnedintoallthisviolenceanddestruction,iamappalled,''saidrichardshipley,gray'sstepfather.``iwanty'alltogetjusticeformyson,butdon'tdoitlikethishere,''saidgray'smothergloriadarden,whoworeat-shirtwithherson'sphoto.``idon'tthinkthat'sforfreddie,''histwinsisterfrederickagraysaid.``ithinktheviolenceiswrong.''afterhadbeenbitterlymarredbytherioting.murphyaskedforashowofhandsinthechurchaudienceofpeoplewhohadexperiencedpolicebrutalityorpersonallyknewsomeonewhodid.allbutafewhandswentup.''参照要約gray'sfamilyaskedtherebenoprotests;theycondemnedviolence.communityleadersandbraveresidentsgotinbetweenriotersandpolice.生成要約(拡張なし手法coverage6000回)``iwantthemalltogobackhome,''rev.jamalbryanttellscnn'srev.jamalbryant.thegangshavesignedapeacedealandareunitingtopushagainstpolicelines.thegangsareconsistentlypursuedbythefbi.生成要約(提案手法coverage6000回)``iwantthemalltogobackhome,''rev.jamalbryantsays.``iwanty'alltogetjusticeformyson,''``i'mjustasoldier,''stepfathersays.``iwanty'alltogetjusticeformyson,butdon'tdoitlikethisisforfreddie,''stepfathersays.%%%%}}\endgroup\vspace{-0.5\Cvs}\noindent\begin{picture}(420,0)\put(0,0){\line(1,0){420}}\put(0,0){\line(0,1){51}}\put(420,0){\line(0,1){51}}\end{picture}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1.3\Cvs}\noindent{\large\bf付録3}\noindentROUGE-1のF値が中央値をとる場合\vspace{-0.5\Cvs}%%%%\fbox{\parbox{14cm}{\noindent\begin{picture}(420,0)\put(0,0){\line(1,0){420}}\put(0,0){\line(0,-1){442}}\put(420,0){\line(0,-1){442}}\end{picture}\begingroup\setlength{\leftskip}{0.5zw}\setlength{\rightskip}{0.5zw}\setlength{\parindent}{0pt}要約元の文章``britainbuckedthetrendofwesternnationsbyincreasingspendingonforeignaidlastyearwhileothersimposedsavagecuts.morethanhalfthemembersofagroupof28industrialisednationsreducedtheiraidbudgetbetween2013and2014,areportfound.britain'sfailuretofollowsuit--thankstoatargetimposedbydavidcameron--meansthatitsoverseasaidspendingof0.7percentofnationalincomeisdoubletheaverageleveloftheothernationsinthegroupknownasthedevelopmentassistancecommittee.atargetsetbydavidcameron-lrb-picturedatarallythisweek-rrb-hasleftbritainunabletofollowothercountriesinreducingtheiraidbudgetbetween2013and2014.outofevery\#100spentbythesewesternnationsonoverseasaid,nolessthan\#14nowcomesfromtheuk.overallacrossthese28countriesaidbudgetsfellby0.5percentinrealterms,accordingtothereportbytheorganisationforeconomicco-operationanddevelopment.despitethis,theukincreaseditsspendby1.2percentto\#11.7billionin2014.itcomesontopofevenlargerincreasesinpreviousyears.franceslasheditsaidbudgetby9.2percentto\#6.2billion,thefourthsuccessivedecrease.japan'swascutby15.3percentto\#5.5billion.australiacutitsforeignaidby7.2percentto\#2.5billion,whilecash-strappedspaincutitsfundingby20.3percentto\#1.1billion.theuk'saidbudgetisnownearlydoublefrance'sandtentimesthelevelinspain.intotal,15membersofthedaccutforeignaid,includingbelgium,italy,norway,polandandportugal.britainwasoneof13countrieswhichincreaseditsbudgetdespitethestraitenedtimes.theseincludedgermany,theusandnewzealand.trade,notaid:conservativemppeterbone.surprisingly,greece,whichisdependentonbailoutsfromtheeuandtheimf,putupitsaidbudgetby6.8percent.lastnighttorypeterbone,whoisstandingforre-electionasmpforwellingborough,said:`whenwehaveseencutsathome,peoplefinditverystrangethatwecangiveawaysomanybillionsofpoundsayear,halfofwhichwedon'tevencontrolwhoitgoesto.`peoplearetellingmeonthedoorstepduringthiscampaignthatweshouldcuttheamountwespendonoverseasaid,andincreaseopportunitiesforpoorercountriestotradewiththeeu--trade,notaid,iswhatweneed.whatthisreportshowsisthatothergovernmentsrecognisethefactthatwehavegottolookafterourowncountryfirst,andensureaidisbettertargeted.'britain'saidbudgetmayneedtorisebyatleast\#500millioninfutureyears,becausechangesineuaccountingrulesmakeithardertomeetthe0.7percenttarget.thedevelopmentassistancecommitteewassetupbytheoecdwhichrepresentsrichercountries.theoecdreport,2014globaloutlookonaid,showsthatbritainisoneofonlyfivemembersofthedactomeetthetargetofspending0.7percentofnationalincomeonaidalongwithsweden,luxembourg,norwayanddenmark.theaverageoecdmemberspendsjust0.39percent.inmonetaryterms,theuknowhasthesecondhighestaidbudgetintheworldbehindtheuswhichspends\#19.6billion.butthatisjust0.19percentofitsnationalincome.francespends0.36percent,andgermany0.41percent.the28dacmembersspentatotalof\#81billiononaidlastyear--arecordfigure,butdowninrealterms.itmeanstheuk'sbudgetof\#11.7billionisaseventhoftheentiretotalforthewesternworld.maxlawson,ofoxfam,praisedbritainandcriticisedcountrieswhichhavecuttheiraidbudgets.`aidsaveslives,'hesaid.`whatwe'reseeingisshamefulindifferenceonthepartofmanyoftheworld'srichestnations.`theirleadersarebreakingwithimpunitythesolemnpromisetheymadetohelpmakepovertyhistory.'\,''参照要約morethanhalfofmembersofgroupofindustrialnationsreducedaid.butbritainfailedtofollowsuit-thankstotargetimposedbymrcameron.itsoverseasspendingisdoubletheaveragelevelofothernationsingroup.生成要約(拡張なし手法coverage6000回)morethanhalfthemembersofagroupof28industrialisednationsreducedtheiraidbudgetbetween2013and2014,areportfound.britain'sfailuretofollowsuitmeansthatitsoverseasaidspendingof0.7percentofnationalincomeisdoubletheaverageleveloftheothernations.overallacrossthese28countriesaidbudgetsfellby0.5percentinrealterms.生成要約(提案手法coverage6000回)morethanhalfthemembersofagroupof28industrialisednationsreducedtheiraidbudgetbetween2013and2014.outofevery\#100spentbythesewesternnationsonoverseasaid,nolessthan\#14nowcomesfromtheuk.despitethis,theukincreaseditsspendby1.2percentto\#11.7billionin2014.%%%%}}\endgroup\vspace{-0.5\Cvs}\noindent\begin{picture}(420,0)\put(0,0){\line(1,0){420}}\put(0,0){\line(0,1){563}}\put(420,0){\line(0,1){563}}\end{picture}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大内智仁}{%2017年京都府立大学生命環境学部環境・情報科学科卒業.2019年同大学大学院生命環境科学研究科環境科学専攻修了.同年同大学大学院生命環境科学研究科環境科学専攻博士後期課程に進学.}\bioauthor{田伏正佳}{%1983年神戸大学理学部物理学科卒業.1985年同大学大学院理学研究科修士課程修了.1988年同大学大学院自然科学研究科博士課程修了.学術博士.1992年宮崎大学工学部助手.1999年同大学助教授.2003年京都府立大学人間環境学部助教授.2019年同大学教授.機械学習,コンピュータビジョン,自然言語処理に興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V28N04-12
\section{はじめに} \label{sec:intro}近年の天気予報は,ある時点の気象観測データと大気の状態に基づいて,風や気温などの時間変化を数理モデルによりコンピュータで計算し,将来の大気の状態を予測する数値気象予報(NumericalWeatherPrediction;NWP)が主流となっている.ウェザーニュース\footnote{\url{https://weathernews.jp/}}やYahoo!天気\footnote{\url{https://weather.yahoo.co.jp/weather/}}の天気予報サイトでは,数値気象予報に基づき作成された天気図や表データと共に,気象情報をユーザーに分かりやすく伝えるための天気予報コメントが配信されている.これらの天気予報コメントは,数値気象予報や過去の気象観測データ,専門知識に基づいて気象の専門家により記述されている.また,天気予報サイトでは,特定のエリアや施設周辺に限定して天気予報を伝えるピンポイント天気予報が一般的になっている.一方で,全国の天気予報コメントを作成するのは手間がかかる上に,専門的な知識を要するため作業コストが高い.そのため,自然言語生成の分野では,天気予報コメントの自動生成タスクについて長年取り組まれている\cite{goldberg1994using,belz2007probabilistic}.本論文では,数値気象予報のシミュレーション結果から天気予報コメントを生成するタスクに取り組む.これまで取り組まれてきた天気予報コメント生成の研究では,数値気象予報のシミュレーション結果から気象の専門家の知識と経験に基づき作成した構造化データを用いた研究が中心であったが\cite{reiter2005choosing,sripada2004sumtime-mousam,liang-jordan-klein:2009:ACLIJCNLP},本研究では,数値気象予報の生のシミュレーション結果を用いる.これは,気象の専門家が数値気象予報から天気予報コメントを記述する実際のシナリオに近い設定であり,天気予報コメントの作成作業の自動化においても有用であると考える.ここで,図\ref{fig:example_comment_tokyo}を用いて,天気予報コメントの生成における特徴的な3つの問題について説明する.まず,第一の問題は,コメントを記述する際に降水量や海面更正気圧等の複数の物理量とそれぞれの時間変化を考慮しなければならないことである.例えば,図\ref{fig:example_comment_tokyo}では,降水量や雲量といった複数の物理量の時間変化に応じて,日差しが出た後に雲が広がり雨が降ることについて言及されている.次に,第二の問題は,天気予報コメントは,対象となる地域やコメントの配信時刻,日付といったメタ情報に基づいて記述されることである.例えば,午前中に配信される天気予報コメントでは,図\ref{fig:example_comment_tokyo}のように,配信日当日の日中から夕方にかけた天気に言及することが多く,夕方以降に配信される天気予報コメントでは,配信日当日の夜から翌日の日中の天気に言及する傾向がある.最後に,第三の問題は,天気予報サイトのユーザーは天気予報コメントの情報の有用性(以降では,{\bf情報性}と呼称する)を重要視している点である.特に,「晴れ」「雨」「曇り」「雪」といった気象情報は,ユーザーの服装や予定に大きな影響を与えることから明示的に記載する必要がある.例えば,図\ref{fig:example_comment_tokyo}では,降水量,雲量,気圧など,記述すべき内容はいくつか考えられるが,雨や傘の情報はユーザーの行動に大きな影響を与えるため,主に雨や傘の情報に焦点を当てている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f1.pdf}\end{center}\caption{数値気象予報のシミュレーション結果と天気予報コメントの例}\label{fig:example_comment_tokyo}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの問題に対して,本研究では数値気象予報のシミュレーション結果から天気予報コメントを生成するためのData-to-Textモデルを提案する.第一の問題に対しては,多層パーセプトロン(Multi-LayerPerceptron;MLP)や畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)を用いて様々な物理量を捉え,それらの時間変化を双方向リカレントニューラルネットワーク(BidirectionalRecurrentNeuralNetwork;Bi-RNN)を用いて考慮する.第二の問題については,エリア情報やコメントの配信時刻,日付などのメタ情報を生成モデルへ取り入れることでこれらの情報を考慮する.第三の問題について,本研究では「晴れ」「雨」「曇り」「雪」に関する気象情報をユーザーにとって重要な情報と定義し,これらを適切に言及するための機構を提案する.具体的には,言及すべき重要な情報を明示的に記述するために,数値気象予報のシミュレーション結果から「晴れ」「雨」「曇り」「雪」の気象情報を表す「天気ラベル」を予測する内容選択モデルを導入し,予測結果をテキスト生成時に考慮することで,生成テキストの情報性の向上に取り組む.実験では,数値気象予報のシミュレーション結果,気象観測データ,および,人手で書かれた天気予報コメントを用いて提案手法の評価を行った.自動評価では,人手で書かれた天気予報コメントと生成テキストの単語の一致度合いを評価するためのBLEUおよびROUGE,また,生成テキストにおいて天気ラベルが正確に反映されているかを評価するためのF値を使用し,提案手法がベースライン手法に比べて性能が改善することを確認した.さらに,人手評価では,提案手法はベースライン手法と比較して,天気予報コメントの情報性が向上していることが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related_work}時系列数値データや構造化データといった非言語データを人間にとって分かりやすく説明するために,様々なドメインにおいてData-to-Textタスクの研究が取り組まれている.例えば,バスケットボールの試合における選手のスタッツやボックススコアからなる表データから試合要約テキストを生成する研究\cite{wiseman-etal-2017-challenges,puduppully2019aaai},日経平均株価からなる時系列数値データから株価の概況テキストを生成する研究\cite{murakami-etal-2017-learning,aoki-etal-2018-generating,aoki-etal-2019-controlling},レストランの概要を表すメタ情報から説明テキストを生成する研究\cite{novikova2017e2e}などが行われている.本研究で取り組む気象シミュレーションからの天気予報コメントの生成タスクは,Data-to-Textタスク\cite{Gatt:2018:SSA:3241691.3241693}の一種である.一般的にData-to-Textタスクは,(\ajroman{1})入力データの中で言及すべき内容を選択する{\bf内容選択}({\itcontentselection}),(\ajroman{2})選択した内容をどのように言及するかを表す内容プラン({\itcontentplan})を作成するための{\bf内容プランニング}({\itcontentplanning}),(\ajroman{3})実際のテキストを生成する{\bf表層化}({\itsurfacerealization})の3つのサブタスクにより構成される\cite{Gatt:2018:SSA:3241691.3241693}.従来,これらのサブタスクは,知識や経験に基づくルールベース\cite{kukich:1983:ACL,reiter_dale_1997,reiter2005choosing}や過去のデータから各サブタスクの規則を獲得する機械学習ベース\cite{duboue-mckeown-2001-empirically,duboue-mckeown-2003-statistical,barzilay2005collective}などの手法により,それぞれ個々に取り組まれてきた.一方,近年では,情報通信分野の発展によりウェブから大規模データの収集が容易になったことで,入力データと出力テキストのペアから機械学習によりテキスト生成規則を自動的に獲得するEnd-to-Endな手法が広く用いられている\cite{LiuWSCS18,iso-etal-2019-learning}.特に最近では,機械翻訳分野で提案されたニューラルネットワークに基づくエンコーダ・デコーダモデル\cite{bahdanau15alignandtranslate,sutskever2014sequence,cho-EtAl:2014:EMNLP2014}を用いた手法に注目が集まっており,様々なData-to-Textタスクにおいて有用性が報告されている\cite{ShaMLPLCS18,mei-bansal-walter:2016:N16-1,lebret-grangier-auli:2016:EMNLP2016}.本研究では,近年取り組まれているこれらの研究と同様に,天気予報コメント生成タスクを数値気象予報のシミュレーション結果から天気予報コメントを生成する系列生成タスクとして考え,エンコーダ・デコーダを用いた手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-4ia11f2.pdf}\end{center}\caption{{\scSUMTIME-METEO}の例}\label{fig:sumtime-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%天気予報コメントは,一般的なユーザー向けの天気予報コメントと専門的な天気予報コメントの2種類に大別できる.一般的なユーザー向けの天気予報コメントとは,ウェザーニュースやYahoo!天気といった天気予報サイトで配信されている一般ユーザー向けの天気予報コメントのことを表す.また,専門的な天気予報コメントとは,海運や農業,航空業界といった特定の業界向けの専門的な天気予報コメントのことである.そのため,天気予報コメントは,対象とするユーザーや業種によって書かれる内容は様々である.例えば,一般的なユーザー向けの地域の天気予報コメントの生成の研究\cite{kerpedjiev-1992-automatic,liang-jordan-klein:2009:ACLIJCNLP}では,雲の量や雨の時間帯,風の強さ,気温といった幅広い観点について言及する天気予報コメントの生成を対象としている.一方,海運や海洋石油施設を対象とした海上の天気予報コメントの生成の研究\cite{kittredge-etal-1986-synthesizing,reiter2005choosing}では,海上の風の強さや波の高さを中心に言及するコメントの生成を対象としている.本研究では,ウェザーニュースやYahoo!天気などの天気予報サイトで配信されている一般的なユーザー向けの天気予報コメントの生成を対象としている.天気予報コメントの自動生成タスクは,Data-to-Textの分野において長年取り組まれている課題の1つである\cite{belz2007probabilistic,angeli-liang-klein:2010:EMNLP,mei-bansal-walter:2016:N16-1}.これまでの研究において,天気予報コメント生成タスクを対象としたデータセットである,図\ref{fig:sumtime-example}の{\scSUMTIME-METEO}\cite{sripada2003sumtime}や図\ref{fig:weathergov-example}の{\scWeatherGov}\cite{liang-jordan-klein:2009:ACLIJCNLP}といったデータセットが公開され,様々な研究で広く用いられている.これらのデータセットは,数値気象予報のシミュレーション結果を専門家の知識・経験に基づき修正した表やデータベース形式の構造化データと天気予報コメントのテキストデータから構成されている.{\scSUMTIME-METEO}は,{\scSUMTIME}と呼ばれる時系列データの概況テキストの生成技術に関する研究プロジェクト\cite{sripada2001sumtimeproject}において作成された北海における海洋石油施設向けの海洋気象を対象としたデータセットである\footnote{当該研究プロジェクトにおけるその他のデータセットとして,ガスタービンや新生児集中治療室におけるセンサー値とそれらの概況テキストから構成される{\scSUMTIME-TURBINE}と{\scSUMTIME-NEONATE}がある.}.本データの特徴として,図\ref{fig:sumtime-example}のように,海上の風や波の高さに関する時系列データと風や波などのそれぞれの物理量に対する人手で書かれた短文テキストから構成されていることが挙げられる.また,{\scWeatherGov}は,米国の都市を対象とした天気予報配信サイトWeather.gov\footnote{\url{https://www.weather.gov/}}から収集されたデータセットである.本データの特徴としては,図\ref{fig:weathergov-example}のように,気温や風向き,雲量等に関するデータベース形式の構造化データとそれらの物理量全体について概況する天気予報コメントから構成されていることが挙げられる.また,{\scWeatherGov}の天気予報コメントの多くは,ルールベースに基づくシステムにより自動生成されたテキストやそれらを人手で修正したテキストであることから,一般的な天気予報サイトにおける天気予報コメントと比べて単調な文章であることが知られている\cite{wiseman-etal-2017-challenges}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\includegraphics{28-4ia11f3.pdf}\caption{{\scWEATHERGOV}の例}\label{fig:weathergov-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,これまでの天気予報コメント生成に関する研究で扱われてきた{\scSUMTIME-METEO}や{\scWeatherGov}といった構造化データではなく,数値気象予報のシミュレーション結果,および,雨量,日照時間等の気象観測値といった時系列数値データを入力として考える.これは,気象の専門家が天気予報コメントを記述する際にこれらの時系列数値データを参照するという実際のシナリオを模したタスク設定となっている.このように,数値気象予報のシミュレーション結果や気象観測値等の生データを入力として考えることで,天気予報コメントの自動生成タスクにおいて次の2つの利点があると考えられる.まず,1つ目に,気象の専門家が参照する数値気象予報のシミュレーション結果や気象観測値等の生データは情報量が多く,{\scSUMTIME-METEO}や{\scWeatherGov}のようにデータを構造化することで情報量が落ちることが懸念されるが,生データを用いることで,含まれる情報を全て活用することが可能となる.2つ目に,数値気象予報のシミュレーション結果から人手またはシステムを介して事前に構造化データを作成するという手間がないため,天気予報コメントの作成作業の自動化やシステム構成の簡易化の観点から有用である.これは,我々がテレビや新聞で目にする一般的な天気予報の情報(例えば,曇り時々雨)においても同様である.一般的な天気予報の情報の一部は,気象庁の予報官や気象会社の気象予報士といった専門家が数値気象予報の結果や観測値等に基づいて作成しているため,これらをシステムの入力として前提した場合,人手を介した作業が必要となり,天気予報コメントの作成作業の自動化において障壁になることが懸念される.そのため,本研究では,一般的な天気予報の情報や構造化データを入力として使用していない\footnote{その他の一般的な天気予報の情報として「降水確率」や「最高気温」,「最低気温」などがあるが,入力データとして使用した数値気象予報のシミュレーション結果には「降水量」や「気温」の予測値といった類似した情報が含まれていることから,今回は不要と判断し,使用していない.}.一方で,本研究で扱う気象データは,これまでの研究で扱われてきた構造化データと形式が大きく異なることから,従来研究で提案されてきた構造化データからテキスト生成するためのTable-to-Text技術\cite{mei-bansal-walter:2016:N16-1,wiseman-etal-2017-challenges,ma-etal-2019-key}を時系列数値データへ直接的に適用することが難しい場合がある.加えて,Data-to-Text生成の分野全体においても,時系列数値データからのテキスト生成に関する取り組みは限られている\cite{Gatt:2018:SSA:3241691.3241693}.したがって,本タスクの第一の問題として挙げた複数の物理量からなる時系列数値データを捉えてテキスト化するためのエンコード/デコード手法の考案・検証が求められる.また,Data-to-Text生成の分野において,本研究で取り組む第二および第三の問題に関連する研究はいくつか取り組まれている\cite{li-EtAl:2016:P16-13,murakami-etal-2017-learning,puduppully2019aaai,wang-etal-2020-towards,ma-etal-2019-key,lebret-grangier-auli:2016:EMNLP2016}.例えば,第二の問題として挙げた,テキストの配信時刻や日付,エリア等のメタ情報に基づきテキストが書かれる特徴については,時系列株価データの市況コメントを生成するData-to-Text生成課題において,テキストのメタ情報(時間帯情報)を表す埋め込みベクトルをデコーダに組み込むことでメタ情報を捉えた単語列を生成できることが報告されている\cite{murakami-etal-2017-learning}.この研究は,\citeA{li-EtAl:2016:P16-13}が行ったエンコーダ・デコーダモデルを用いた対話システムの研究で,デコーダにペルソナ情報を与えることで,指定したペルソナの特徴を捉えた単語列が生成が可能になるという報告に基づいた取り組みとなっている.本研究では,これらの研究に倣い,テキストの配信時刻や日時,エリア等のメタ情報を表す埋め込みベクトルをモデルへ組み込むことで,メタ情報を捉えた天気予報コメントの生成に取り組む.第三の問題として挙げた,ユーザーにとって天気予報コメントの情報性は重要であるという特徴は,配信テキストの信憑性やユーザー満足度などの観点から,本研究で取り組む天気予報コメント生成に限らずData-to-Text生成の分野全体において極めて重要な課題である.そのため,Data-to-Text生成の分野において,入力データの事実に基づく正確なテキスト生成に関する研究が注目されている.特に,近年のエンコーダ・デコーダモデルに基づくテキスト生成モデルでは,内容選択や内容プランニングを明示的に行う外部機構を導入することでテキストの情報性向上に取り組む動きが盛んになっており,有用性が報告されている\cite{puduppully2019aaai,wang-etal-2020-towards,ma-etal-2019-key,lebret-grangier-auli:2016:EMNLP2016}.例えば,Table-to-Textタスクの研究では,表データに含まれる固有名詞や数詞等を正確に記述するためにコピー機構\cite{luong-etal-2015-addressing}を導入する手法\cite{lebret-grangier-auli:2016:EMNLP2016}や,表データの中で言及すべき内容を予測し,明示的に生成モデルに組み込む手法\cite{ma-etal-2019-key},表データの中から言及すべきエンティティや数字の情報抽出し,これらを基に作成した内容プランを生成モデルへ導入することで正確かつ一貫性のあるテキストを生成する手法\cite{puduppully2019aaai}などが提案されている.しかしながら,これらの手法では,表から単語をコピーするためのコピー機構や表から言及すべき内容を予測する分類器や情報抽出システムのように,Table-to-Textタスク特有の外部機構が必要となる.また,これらの分類器や情報抽出システムを学習するためには,表データとテキストの単語一致に基づいて教師データを事前に作成する必要がある\cite{wiseman-etal-2017-challenges}.そのため,本研究で取り組む時系列数値データからのテキスト生成タスクでは,これらの研究と入力データの性質が大きく異なるため,Table-to-Textタスク特有の外部機構の導入が困難となる.このような状況を踏まえ,本研究では,入力データを参照せずにテキスト側から言及すべき内容を抽出することにより,内容選択を明示的に行う分類器のための教師データを作成する.これにより,外部機構として内容選択を行う分類器の学習が可能となった.なお,以降では,外部機構として内容選択を行う分類器のことを\textbf{内容選択モデル}と呼称する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{気象データの概要} \label{sec:weather_data}天気予報コメントは,気象の専門家が数値気象予報や過去の気象観測データ,気象の専門知識を基に記述している.これに従い,本研究では数値気象予報のシミュレーション結果である数値予報マップと気象観測データを使用した.本章では,これらの詳細について解説する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数値予報マップ}数値予報マップとは,数値気象予報モデルを大規模コンピュータで三次元シミュレーションした結果から,地表部分を取り出した二次元面データである.本研究では,数値気象予報モデルの一種である全球数値予報モデル(GlobalSpectralModel;GSM)を用いて計算された日本周辺の数値予報マップを使用する.表\ref{table:gpv_outline}に本研究で使用する日本周辺の数値予報マップの概要を示す.数値予報マップは,気圧や気温,風向きなどの各物理量の1時間ごとの予測数値が84時間先まで格納された時系列数値データである.気象庁が作成している日本周辺の数値予報マップには,北緯20度から50度,東経120度から150度の範囲で20kmごとに格子点が設定されており,合計151$\times$121の格子点から構成されている.また,各格子点には各物理量の予測数値が格納されている.例えば,気圧の場合は$1021.01hPa$,気温の場合は$258.52K$等の数値が含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{11table01.tex}\caption{数値予報マップの概要}\label{table:gpv_outline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f4.pdf}\end{center}\caption{数値予報マップの例}\label{fig:gpv_example_sequence}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:gpv_example_sequence}に降水量,海面更正気圧,気温,中層雲量を日本周辺の地図上に可視化した数値予報マップの例を示す.今回使用した数値予報マップでは,数値気象予報のシミュレーションの起点となる時刻の0時間後(直後)から84時間後までの各物理量の予測数値が含まれているが,図\ref{fig:example_comment_tokyo}では0時間後から12時間後,24時間後の予測数値を可視化している.また,可視化した数値予報マップ上の色の濃淡は予測数値の大きさを表している.例えば,中層雲量の色が濃い箇所は雲量が多いことを表し,色が薄い箇所は雲量が少ないことを表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{気象観測データ}気象観測データとして,気象庁の地域気象観測システム\footnote{\url{https://www.jma.go.jp/jp/amedas/}}(automatedmeteorologicaldataacquisitionsystem;AMeDAS)から収集された観測値を使用した.AMeDASは,全国の約1,300地点に設置されており,10分毎の降水量,気温,風,日照時間を計測している.図\ref{fig:amedas_tokorozawa}に「所沢」エリアのAMeDASによる10分毎の観測値データの例を示す.%%%%図\ref{fig:amedas_tokorozawa_1}および図\ref{fig:amedas_tokorozawa_2}は図\ref{fig:amedas_tokorozawa}(a)および図\ref{fig:amedas_tokorozawa}(b)はそれぞれ2014年6月7日,2014年12月2日の午前9時から翌午前8時50分に観測された10分毎の降水量(precipitation),気温(temperature),風(windspeed),日照時間(sunshineduration)である.ここで,降水量は10分間における雨量(mm),日照時間は10分間における日照時間(分)を表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f5.pdf}\end{center}%%%%\label{fig:amedas_tokorozawa_1}%%%%\label{fig:amedas_tokorozawa_2}\caption{「所沢」エリアにおける10分毎の観測値の例}\label{fig:amedas_tokorozawa}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} label{sec:proposed_method}近年,Data-to-Textタスク\cite{mei-bansal-walter:2016:N16-1,lebret-grangier-auli:2016:EMNLP2016}や動画キャプション生成\cite{yao2015video,long-etal-2018-video}などのさまざまな系列生成タスクにおいて,機械翻訳分野で注目されているニューラルネットワークに基づくエンコーダ・デコーダモデル\cite{sutskever2014sequence,cho-EtAl:2014:EMNLP2014}を用いた研究が提案され,有用性が示されている.本研究では,天気予報コメントの生成を,数値予報マップからなる時系列データから単語系列を生成する系列生成タスクとして考え,注意機構付きのエンコーダ・デコーダモデル\cite{bahdanau15alignandtranslate}を用いた手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f6.pdf}\end{center}\caption{提案モデルの概要}\label{fig:model_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:model_overview}に提案モデルの概要を示す.提案モデルでは,数値予報マップからなる時系列データ$\bm{g}=(g_{i})^{|\bm{g}|}_{i=1}$,降水量や気温などの過去の観測データ$\bm{a}=\{a_{i}\}^{|\bm{a}|}_{i=1}$,配信日時や対象エリア等のコメントに関するメタ情報$\bm{m}=\{m_{i}\}^{|\bm{m}|}_{i=1}$の3種類のデータを入力とし,天気予報コメント$\bm{w}=(w_i)^{|\bm{w}|}_{i=1}$および言及すべき重要な情報を表す天気ラベル$\bm{l}=\{l_i\}^{|\bm{l}|}_{i=1}$を出力とする.ここで,入力データの$g_{i}$,$a_{i}$,$m_{i}$は,数値予報マップ,降水量や日照時間等の観測データを表す数値ベクトル,エリア名や配信日時等のメタ情報を表す埋め込みベクトルをそれぞれ表す.また,出力データの$w_i$および$l_i$は,生成テキストにおける単語および天気ラベルを表している.数値予報マップからなる時系列データのエンコーダとして,数値予報マップに含まれる気圧や雲量といった様々な物理量から特徴を抽出するためにMLPまたCNNを使用し,Bi-RNNにより時系列情報を考慮する.気象観測データおよびメタ情報のエンコーダには,MLPを使用する.また,入力データから言及すべき重要な情報を選定する内容選択モデルとして,エンコーダの出力状態ベクトルを入力とするMLPを使用する.天気予報コメントのための単語生成デコーダとして,機械翻訳や文書要約等の系列生成タスクで広く用いられているRNNLM\cite{mikolov2010recurrent}を使用する.以降では,提案モデルの詳細について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エリアごとの数値予報マップの抽出}天気予報コメントの作成において,コメント作成者は日本周辺全体の数値予報マップを参照するが,各エリアごとのコメントを記述する際には,主に対象エリア周辺の気象情報に着目して記述することが一般的である.そこで本研究では,各エリアの天気予報コメントは対象エリア周辺の数値気象予報に深く関係しているという仮定のもと,151$\times$121の格子点からなる日本周辺全体の数値予報マップから,緯度・経度の位置情報を基に対象エリアを中心とする5$\times$5のマップを抽出し,各エリアの気象情報として利用する.抽出した各エリアの数値予報マップは,対象エリアを中心とした10,000平方kmのマップとなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f7.pdf}\end{center}\caption{日本全体の数値予報マップから抽出した東京エリア周辺の数値予報マップ}\label{fig:gpv_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで,図\ref{fig:gpv_example}に東京を対象エリアとし,日本全体の数値予報マップからエリア周辺の数値予報マップを抽出した例を示す.図\ref{fig:gpv_example}の例は,降水量(Prec.),海面更正気圧(Pres.),気温(Temp.),総雲量(Clo),上層雲量(h-Clo),低層雲量(l-Clo.),中層雲量(m-Clo.),相対湿度(Hum.),東西風(x-win.),南北風(y-win.)の10種類の物理量について,24時間先まで3時間ごとの計9タイムステップからなる数値予報マップを表している.数値予報マップに含まれる各物理量の予測値は,1年間の各物理量の予測値の平均および標準偏差を用いて標準化している.また,各物理量の色の濃淡は,予測値の大きさを表している.すなわち,図\ref{fig:gpv_example}の21--24時間後(タイムステップ7から8)の降水量(Prec.)の色の濃さは,降水量の予測値が高いことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数値予報マップのエンコード手法}本研究では,天気予報コメント生成タスクを,図\ref{fig:gpv_example}に示す時系列の二次元面データである数値予報マップから単語系列を生成する系列生成タスクとして考える.これは,時系列の二次元画像データからなる動画の説明テキスト(キャプション)を生成する動画キャプション生成タスクと類似したタスクとして考えることができる.そこで,本研究では,動画キャプション生成タスクにおいて一般的なCNNまたはMLPを数値予報マップのエンコーダとして採用し,それらの有用性を比較検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{CNNを用いたエンコード手法}画像認識や動画キャプション生成タスクでは,入力の動画像の特徴を抽出する手法としてCNNが広く使われている.本研究でも同様に,エリア毎の数値予報マップから数値の特徴や物理量間の関係を獲得するためにCNNを用いて特徴抽出を行う.また,画像の場合,CNNでは画像のRGB情報から特徴を抽出するために入力チャネルとして3チャネル(Red,Green,Blue)を使用しているが,本研究の場合は,数値予報マップに含まれる10種類の物理量を考慮するために10チャネルを用いて特徴抽出を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{MLPを用いたエンコード手法}画像認識や動画キャプション生成では,位置不変性の観点からCNNを用いて特徴抽出を行うことが一般的である.しかし,本研究の場合,エリアごとに抽出した数値予報マップを入力としており,着目しているエリアは常にその中心に位置しているため,マップ上の位置をそのまま考慮したモデルの方が適している可能性が考えられる.そのため本研究では,CNNの代替としてMLPを用いた特徴ベクトルの抽出方法についても検証する.具体的には,10種類の物理量ごとに$5\times5$の予測値を入力するために$10\times5\times5$個のユニットの入力層を持つMLPを用いて特徴抽出を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{数値予報マップにおける時系列情報の考慮}複数の物理量からなる数値予報マップの時系列的な変化を捉えて天気予報コメントとしてテキスト化するために,前述のCNNまたはMLPによりエンコードされた数値予報マップをBi-RNNへ入力する.具体的には,まず,前述のCNNまたはMLPを用いたエンコード手法により,各タイムステップ$i$の数値予報マップ$g_i$から特徴ベクトル$h^{g}_{i}$を取得する.次に,数値予報マップにおける時系列情報を考慮するために,各タイムステップの特徴ベクトルをBi-RNNによりエンコードし,それぞれの出力ベクトル$h^{g}_{i}$を獲得する.最後に,時系列データ全体の変化を捉えるために,Bi-RNNの出力ベクトルの先頭と末尾を下記の式のように結合し,$h^g$を獲得する:\begin{equation}h^g=[h^{g}_{1};h^{g}_{|\bm{g}|}],\label{eq:gpv_output}\end{equation}ここで,$[;]$はベクトルの連結演算子を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{気象観測データの導入}天気予報コメントは,数値気象予報と過去の気象観測データを基に記述されることから,本研究ではAMeDASにより収集された気象観測データも入力として使用する.具体的には,まず,降水量や日照時間などの過去24時間の時系列の観測値からなる数値ベクトル$a_i$をそれぞれMLPによりエンコードし,特徴ベクトル$h^a_i$を取得する.次に,各観測データに関する特徴ベクトルを下記の式のように結合し,$h^a$を獲得する:\begin{equation}h^a=[h^{a}_{1};h^{a}_{2};\cdots;h^{a}_{|\bm{a}|}].\label{eq:ame_output}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メタ情報の導入}気象の専門家が天気予報コメントを記述する際には,コメントが書かれる時間帯の情報やエリア特有の情報を考慮して記述することが一般的である.例えば,午前中または午後に配信される天気予報コメントでは,以下の天気予報コメント(\ref{sen:comment_meta_time_1}),(\ref{sen:comment_meta_time_2})のように配信時刻に依存する表現が使われる.\begin{exe}\ex\underline{今日(土)}は日差しが届いても、気温は低空飛行で身体の芯まで凍える寒さ。\label{sen:comment_meta_time_1}\ex\underline{明日は}雲の間から時々日差しが届きます。\label{sen:comment_meta_time_2}\end{exe}また,天気予報コメントの対象エリアとして,例えば東京都の場合は,「新宿,世田谷,八王子,町田,お台場,大島,三宅島」などの複数エリアに分けられており,それぞれのエリアの特徴(例えば,海辺,山間部)が反映されたコメントが配信されている.具体的には,海辺が近いエリアに対しては,以下の天気予報コメント(\ref{sen:comment_meta_area})のように,エリアに依存する表現が用いられる.\begin{exe}\ex\underline{波}も穏やかで\underline{マリンレジャー}も楽しめそうです。\label{sen:comment_meta_area}\end{exe}そこで本研究では,このような表現を生成するために,配信日時(月,日,曜日,時刻)や対象エリア名(新宿,横浜,石垣島等)といった天気予報コメントのメタ情報を導入する.具体的には,まず,配信日時やエリア名から作成した単語埋め込みベクトルを作成する.次に,それらの埋め込みベクトルをMLPによりエンコードすることで各メタ情報の特徴ベクトル$h^m_i$を獲得する.最後に,全てのメタ情報$\bm{m}$を捉えた出力ベクトル$h^m$を下記の式のように作成する:\begin{equation}h^m=[h^{m}_{1};h^{m}_{2};\cdots;h^{m}_{|\bm{m}|}].\label{eq:meta_output}\end{equation}これまで説明した以上が提案モデルの入力データである数値予報マップ,気象観測データ,メタ情報のエンコード手法である.これらの手法で獲得した各特徴ベクトル$h^{g},h^{a},h^{m}$から,下記の式に基づき内容選択モデルおよび単語生成デコーダの初期状態を設定する:\begin{equation}s_{0}=ReLU(MLP([h^{g};h^{a};h^{m}])).\label{eq:decoder_init}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{内容選択モデルによる天気ラベルの予測}天気予報コメントでは,天気予報コメントの情報性とその正確さが重要な要素となる.しかし,機械翻訳や文書要約等でも広く使われているニューラルネットワークに基づく生成モデルは,入力データや出力単語系列における長期的な依存関係を捉えることに課題があり,入力データに含まれる重要な情報を失うといった問題があることが知られている.例えば,ニューラルネットワークを用いた機械翻訳モデルでは,原文に含まれている内容が訳文で抜けている訳抜けという課題が広く知られている\cite{tu-etal-2016-modeling}.このような課題は,ニューラルネットワークに基づくテキスト生成システムを実世界へ適用する上での障壁となるため,解決が求められる.このような課題に対してData-to-Textタスクの分野では,生成テキストの情報性を向上させることを目的に,生成テキストの内容を表す明示的なラベルを導入する手法\cite{aoki-etal-2019-controlling}や表データに含まれる事実・内容そのものを予測しテキスト生成に導入する手法\cite{ma-etal-2019-key,puduppully2019aaai},入力データと生成テキストに含まれる情報の類似性に関する損失関数を用いる手法\cite{wang-etal-2020-towards}などが提案されており,それらの有用性が示されている.本研究では,これら近年の生成テキストの情報性向上に着目した研究から着想を得て,生成モデルが入力データから言及すべき重要な情報を選定するための外部的な機構を導入し,生成テキストにおける情報性の向上に取り組む.具体的には,\citeA{ma-etal-2019-key}や\citeA{puduppully2019aaai}らの手法のように,入力データにおいて言及すべき内容を予測する内容選択モデルを導入し,それらの予測結果を明示的に生成モデルへ導入する手法を提案する.これにより,内容選択モデルは生成モデルが重要な情報を言及するための補助的な外部機構として作用し,情報性の高いテキストが生成できるようになることを期待する.しかし,入力データの言及すべき内容を予測する内容選択モデルを構築するためには,入力データの言及すべき内容を表す教師データが必要となる.そのため,\citeA{ma-etal-2019-key}や\citeA{puduppully2019aaai}らが取り組むTable-to-Textタスクの場合,表データと参照テキストにおける表層的な単語の一致に基づいて言及すべき内容を表す教師データを作成している\cite{wiseman-etal-2017-challenges}.一方,本研究で取り組む数値気象予報からの天気予報コメント生成タスクのように,入力データが数値データとなる場合,入力データとテキストの単語一致による手法の適用が困難なため,入力と出力テキストの単語一致に依存しない教師データ作成方法が求められる.そこで本研究では,入力データに依存せずに出力テキスト側から言及すべき内容を抽出することにより,内容選択モデルのための教師データを作成する.以降では,内容選択モデルの教師データの作成方法,内容選択モデルの学習および推論方法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{内容選択モデルの教師データの作成}天気予報コメントを参照するユーザーは,主に晴れや雨などの気象情報に高い関心を持っていることがほとんどである.そこで,このような気象情報を天気コメントの「\textit{天気ラベル}」と定義し,「晴れ」,「雨」,「曇り」,「雪」の4種類の天気ラベルを導入する.本研究では,言及すべき重要な情報であるこれらの天気ラベルを内容選択モデルにより予測し,テキスト生成時に天気ラベルの予測結果を考慮することで情報性の向上を試みる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{11table02.tex}\caption{天気ラベルと対応する手がかり語}\label{table:all_clue_words}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,内容選択モデルの教師データを作成するために,表\ref{table:all_clue_words}に定義した各天気ラベルの手がかり語に基づいて天気予報コメントから天気ラベルを抽出する\footnote{これらの手がかり語は,開発データを参考に人手により選定した.}.具体的には,天気コメントに手がかり語のいずれかが含まれる場合,その天気予報コメントでは該当する気象情報を言及しているとみなし,天気ラベルを紐付ける.例えば,以下の天気コメント(\ref{sen:comment})には,手がかり語である「日差し」,「雲」,「雨」,「傘」が含まれているため,「晴れ」,「曇り」,「雨」の3つの天気ラベルが紐付けられる.\begin{exe}\ex今日は\underline{日差し}が届く時間がありますが、\underline{雲}が広がりやすくて夕方以降は\underline{雨}が段々と降り出します。外出時に\underline{雨}が降っていなくても\underline{傘}を持ってお出かけ下さい。\label{sen:comment}\end{exe}手がかり語に基づいて内容選択モデルの学習データを作成するための本手法は簡易的ではあるものの,本研究で取り組む天気予報コメントの生成タスクにおいて,次の2点の利点があると考えられる.まず,1点目として,数値予報マップのような時系列数値データと天気予報コメントを人手やルール等により明示的に紐付けることは困難であるが,本手法では天気予報コメントのみを参照するため,人手やルールによる天気ラベルを対応付けすることができる.2点目として,数値予報マップにおいて言及すべき内容をアノテーションするためには,気象の専門知識が必要となるが,本手法の場合はテキストのみを参照するため,専門知識がない場合でも比較的容易に重要な情報を判定できるという点である.一方,手がかり語に基づくラベル付けは単語レベルで判定しているため,本来テキストで言及されている意図とは異なるといった正確性に関して懸念が生じる.そこで,ランダムにサンプリングされた100件の天気予報コメントに対して上記の方法で天気ラベルの付与を行い,5人の評価者により正確性を評価した.その結果,全体の96\%の天気ラベルが適切であると判定されたことから,ほとんどの事例で正確性に問題がないことが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{内容選択モデルの学習および推論方法}次に,上記の方法で作成した教師データを用いて内容選択モデルを学習する方法について説明する.内容選択モデルは,数値予報マップ,気象観測データ,メタ情報($\bm{g}$,$\bm{a}$,$\bm{m}$)をエンコードした結果を受け取り,各天気ラベル($l_{sunny}$等)を予測する二値分類器である.内容選択モデルは,各天気ラベルごとに言及するべきか否か判定する.内容選択モデルの学習時には,学習データの天気予報コメントから抽出した天気ラベルを用いて,各天気ラベルに対する内容選択モデルを学習する.推論時には,3種類の入力データ($\bm{g}$,$\bm{a}$,$\bm{m}$)から各天気ラベル($l_{sunny}$等)を予測する.また,生成テキストの情報性の向上を目的として,天気予報コメントの生成時には,テキストで言及すべき内容を表す内容選択モデルの予測結果を単語生成デコーダへ導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{天気予報コメントの生成}天気予報コメントの生成に使用する単語生成デコーダとして,機械翻訳や文書要約等の系列生成タスクで広く用いられているRNNLMを使用する.RNNとして,GatedRecurrentUnit(GRU)\cite{chung2014gru}を用いる.また,単語生成デコーダには,図\ref{fig:model_overview}のように,一般的に用いられる入力データに対する注意機構\cite{wiseman-etal-2017-challenges,chen-etal-2019-enhancing}(図中では省略)だけでなく,内容選択モデルが予測した天気ラベルに対する注意機構を備える.これにより,テキスト生成において重要な情報を明示的に記述するために導入する天気ラベルを考慮することが期待できる.単語生成デコーダでは,タイムステップ$t$における単語$w_t$の生成確率は,下記の式により計算される:\begin{gather}p(w_{t}|w_{<t},\bm{g},\bm{a},\bm{m},\bm{l})=softmax_{w_t}(W_{s}s^{w}_{t}),\label{eq:word_decoder_prob}\\s^{w}_{t}=GRU(w_{t-1},s^{w}_{t-1},c_t).\label{eq:word_decoder_hidden}\end{gather}ここで,$w_{t-1}$,$s^{w}_{t-1}$はタイムステップ$t-1$における出力単語および単語生成デコーダの内部状態を表す.$W_s$は重みパラメータである.また,タイムステップ$t$におけるベクトル$c_t$は,3種類の入力データ($\bm{g},\bm{a},\bm{m}$)と天気ラベル$\bm{l}$それぞれの文脈ベクトル$[c^g_{t};c^a_{t};c^m_{t};c^l_{t}]$を結合した文脈ベクトルである.例えばタイムステップ$t$における天気ラベル$\bm{l}$に対する文脈ベクトル$c^{l}_{t}$は,下記の式により導出される:\begin{align}c^{l}_{t}&=\sum_{i=1}^{|\bm{l}|}\alpha^{l}_{t,i}s^{l}_{i}\label{eq:context_vector},\\\alpha^{l}_{t,i}&=\frac{exp(\eta(s^{w}_{t-1},s^{l}_{i}))}{\sum\limits_{j=1}^{|\bm{l}|}exp(\eta(s^{w}_{t-1},s^{l}_{j}))}.\label{eq:alignment_probability}\end{align}ここで,$s^{l}_{i}$は天気ラベル$l_i$に対する内容選択モデルの内部状態ベクトルであり,$\alpha^{l}_{t,i}$は,$t$番目の出力単語と天気ラベル$l_i$に対する内容選択モデルの内部状態ベクトルのアライメントスコアを表す.式\ref{eq:alignment_probability}におけるスコア関数$\eta$には,MLPを用いた.また,その他の文脈ベクトル$c^{g}_{t}$,$c^{a}_{t}$,$c^{m}_{t}$は,式\ref{eq:context_vector},\ref{eq:alignment_probability}と同様に導出できることに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:setting}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}\label{sec:setting_dataset}実験には,株式会社ウェザーニューズ\footnote{\url{https://weathernews.jp/}}のピンポイント天気サービスから収集された2014年から2015年の天気予報コメント57,412件を利用した.このうち,2014年に配信された28,555件のコメントを学習データ,2015年に配信された14,464件,14,393件をそれぞれ開発データ,評価データとして使用した.また,数値予報マップのデータとして,京都大学生存圏研究所が運営する生存圏データベース\footnote{\url{http://database.rish.kyoto-u.ac.jp}}によって収集・配布されている気象庁作成の2014年から2015年の数値予報マップ2,715件を利用した.このうち,2014年に配信された1,344件の数値予報マップを学習データ,1,326件,1,329件をそれぞれ開発データ,評価データとして利用している.ここで,これらの合計が数値予報マップの合計数である2,715件と一致していないが,これは,開発および評価データの天気予報コメントは2015年のデータからサンプリングしており,異なるエリアの数値予報マップを日本全体の1つのマップからそれぞれ抽出して使用しているためである.なお,天気予報コメントとそれに対応する抽出された数値予報マップはエリアごとに固有のものであり,開発用およびテスト用の天気予報コメントは重複していない.また,数値予報マップと天気予報コメントの対応付けはそれぞれの配信時刻に基づき実施した.具体的には,天気予報コメントは既に配信された数値予報マップに基づき作成されるため,天気予報コメントの配信日時より以前に配信された数値予報マップのうち,コメントの配信日時に直近の数値予報マップをコメントと対応付けしている.天気予報コメントでは,翌日までの天気について言及していることから,24時間先までの3時間ごとで合計9タイムステップからなる数値予報マップ$\bm{g}$を使用した.また,AMeDASにより収集された観測データとして,降水量,気温,風速,日照時間の過去24時間の10分ごとの合計144タイムステップからなる観測値を使用した.各エリアの観測データは,天気予報コメントの対象エリアとそれぞれ1対1対応している.天気予報コメントのメタ情報として,配信日時(月,日,曜日,時刻)およびエリア名(東京,熊本等)を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハイパーパラメータ}本研究では数値予報マップ,観測値データ,メタ情報の三種類の入力データを扱うため,それぞれに対するエンコーダが必要となる.数値予報マップのエンコーダには,レイヤ数が1層のMLPとBi-GRUを用い,活性化関数はTanhを使用した.また,観測値データとメタ情報のエンコーダには,レイヤ数が1層のMLPを使用し,活性化関数はTanhとした.デコーダには,テキスト生成タスクにおいて一般的に用いられているRNNLMを使用した.RNNには,レイヤ数が2層のGRUを使用した.単語埋め込みベクトルおよび数値予報マップのエンコーダの内部状態の次元数は512,観測値データおよびメタ情報のエンコーダの内部状態の次元数は64,デコーダの内部状態の次元数は512とした.ミニバッチのサイズは200,損失関数には交差エントロピー,モデルパラメータの最適化手法にはAdam\cite{DBLP:journals/corr/KingmaB14}を使用した.学習率は0.001,学習時のエポック数は25に設定した.推論時には,ビームサーチによりテキスト生成を行い,ビーム幅は5とした.実験結果では,学習における全25エポックのうち開発データに対するロスが3エポック連続で改善しない場合は早期終了し,その時点で開発データに対して最もロスが低いモデルを評価対象とし,自動評価および人手評価の結果を報告する.また,近年の言語生成タスクではTransformer\cite{vaswani2017transformer}を用いた手法や事前学習モデル\cite{devlin-etal-2019-bert,kale-rastogi-2020-text,raffel2020t5}の導入が一般的となっている.しかし,生成タスクの予備検証においてTransformerベースの手法との比較を実施した結果,RNNを上回る結果が得られなかったため,提案モデルではRNNベースの手法を採用している.加えて,提案モデルでは,事前学習を行わない場合であっても一定の学習効果を得られることが分かったため,事前学習モデルの導入は行っていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}実験では,自動評価指標と人手評価により評価を実施した.実際に配信された天気予報コメントと生成テキストの単語の一致度合いを測る目的として,テキスト生成の研究で広く用いられているBLEU-4\cite{papineni-EtAl:2002:ACL}とROUGE-1\cite{lin-2004-rouge}を使用した.これは,気象の専門家により記述され,実際に配信されている天気予報コメントには,晴れや雨といったユーザーにとって重要な情報が含まれていることが一般的であるためである.BLEU-4の計測には\texttt{SacreBLEU}\footnote{\url{https://github.com/mjpost/sacrebleu}}\cite{post-2018-call},ROUGE-1の計測には\texttt{rouge}\footnote{\url{https://github.com/pltrdy/rouge}}を使用した.また,ROUGE-1のスコアとして,$F_{1}$スコアを報告する.しかしながら,生成テキストと参照テキストに含まれる情報が類似していたとしても語彙表現が異なる場合には,参照テキストとの単語の一致率に基づくBLEUやROUGEといった自動評価指標では適切に評価できないことが懸念される.そこで,語彙表現が異なる場合でもテキストに含まれる情報の正確さを検証するために,参照テキストおよび生成テキストから表\ref{table:all_clue_words}に示す手がかり語に基づき抽出された天気ラベルの適合率({\itPrecision}),再現率({\itRecall})およびそれらの調和平均である$F_{1}$スコアに基づく評価を実施した.これにより,生成テキストにおける内容選択の正確性を評価することができる.人手評価では,一般ユーザーの視点から天気予報コメントを品質を評価するために,クラウドソーシングを用いて情報性,一貫性,文法性について,5人の評価者により3段階の評価を実施した.表\ref{table:human_eval_criterion}に人手評価指標の概要を示す.情報性の評価では,システムの入力として使用した数値予報マップや気象観測データは使用せず,実際に配信された天気予報コメントを正解テキストとして提示し,それらと生成テキストを比較した上で評価を行うよう依頼した.これは,専門家ではない評価者にとって,これらの専門性の高いデータを理解した上で評価することは困難であると考えたためである.また,天気予報コメントの評価では,「晴れ」や「雨」といった天気予報のそれぞれの内容だけでなく,「晴れのち雨」などの天気の移り変わりについても正確に言及できているかを評価する必要がある.しかし,前述の天気ラベルに基づく内容選択の評価では,生成テキストから抽出された天気ラベルを独立に評価するため,天気の移り変わり(抽出された天気ラベルの順序)を考慮することが難しい.そのため,情報性の評価では,正解テキストと生成テキストを合わせて提示することで,天気予報の内容(晴れ,雨)だけでなく,天気の移り変わり(晴れのち雨)に関して評価に考慮されることを期待している.ここで,情報性に関する3段階の評価では,重要な情報の全てまたは一部だけ含まれている場合であっても内容に誤りがあれば1となることに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{11table03.tex}\caption{人手評価指標}\label{table:human_eval_criterion}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一貫性の評価では,生成テキストにおける内容や文のつながりの自然さを評価対象としている.例えば,内容の一貫性が欠けている例として,「今日は一日中晴れるため、折りたたみ傘が必要です。」のように内容の辻褄が合わない場合が挙げられる.また,文のつながりが不自然な例としては「午前は晴れます。そのため、午後からは雨が降るのでご注意下さい。」といった例が挙げられる.人手評価には,評価データからランダムに抽出した40件の天気予報コメントを使用した.なお,各天気ラベルの有用性を検証するために,各天気ラベルが紐づくコメントが10件以上になるように抽出を行っている.各コメントに対して5人全ての評価者で評価を実施した.また,人手評価で比較するモデル間の差の統計的有意性を検定するために,ウィルコクソンの符号順位検定\cite{wilcoxon_test}を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較モデル}表\ref{table:model_definition}に実験に使用したモデルの概要を表す.実験では,数値予報マップのエンコード手法の検討として,CNNまたはMLPをエンコーダとしたモデル(2,3)を比較する.また,本研究で提案した天気ラベルを予測する内容選択モデルの有用性を確認するために,内容選択モデルを導入したモデル(4)と導入しないモデル(2,3)を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{11table04.tex}\caption{実験に使用したモデルの概要}\label{table:model_definition}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,生成テキストの情報性向上を目的に,\citeA{wang-etal-2020-towards}が提案した内容一致制約損失({\itcontent-matchingconstraintloss})を検証した.内容一致制約とは,Data-to-Textタスクにおいて,入力データと出力テキストに含まれる情報の類似性は高いという着想から,入力データを表す状態ベクトルと出力テキストを表す埋め込みベクトルの距離を近づける制約である.\citeA{wang-etal-2020-towards}は,損失関数として二乗誤差を用いることにより,これら2つのベクトルの距離を近づける制約を提案し,有用性を示した.本研究では,\citeA{wang-etal-2020-towards}の手法を参考に,内容一致制約損失を提案モデルへ導入する.具体的には,言及すべき内容を選択する内容選択モデルの予測結果を生成テキストへ反映させることで生成テキストの情報性を向上させることを期待して,内容選択モデルの出力状態ベクトルと生成テキストを表す埋め込みベクトルの二乗誤差を計算する損失関数を導入した.ここで,内容一致制約を導入するモデルをモデル(6)とし,モデル(4)と比較することで有用性を検証する.また,実験では,メタ情報の導入による効果を確認するために,メタ情報埋め込みベクトルを用いないモデル(5)も合わせて比較した.天気ラベルを導入するモデル(4,5,6)では,内容選択モデルの性能が生成テキストの品質に影響を与えることが考えられる.つまり,内容選択モデル自体の性能を改善にすることで,生成テキストのさらなる品質向上が期待できる.そこで,実験では,参照テキストから抽出した``正解''の天気ラベルを用いるモデル(7)を導入した.これにより,天気ラベルの導入により期待できる品質向上の上限を検証することができる.また,表\ref{table:model_definition}における「天気ラベル」列の「予測」,「正解」は,それぞれ分類器により予測された天気ラベル,または,参照テキストから抽出した正解の天気ラベルであることを表している.また,その他の比較手法として,知識や経験に基づくルールベース手法\cite{kukich:1983:ACL}や類似する過去の問題の解法に基づいて新たな問題の解法を類推する枠組みである事例ベース推論\cite{adeyanju2012weathercbr}が考えられる.しかし,多数のルールやテンプレートの作成に専門知識と膨大な作業時間を要するルールベース手法を数値気象予報のシミュレーション結果のような複雑な数値データへ適用することは現実的ではない.一方,事例ベース推論は,現在の数値気象データに類似する過去の数値気象データの抽出ができれば,その過去の気象データに対する天気予報コメントを現在の気象データに対する天気予報コメントとして活用することが可能であると考えられる.そこで実験では,数値気象データへの適用がより実現性の高い事例ベース推論を比較手法として採用した.\citeA{adeyanju2012weathercbr}は,風に関する予報コメントの生成タスクにおいて,事例ベース推論を用いた手法を提案している.\citeA{adeyanju2012weathercbr}らの研究では,クエリとなる現在の風向きや風の強さを基に,事例データベースから過去の類似事例を抽出し,現在のクエリに対する天気予報コメントを作成している.本研究では,\citeA{adeyanju2012weathercbr}の手法を参考に,数値予報マップ,気象観測値およびメタ情報をクエリとして事例データベースから類似事例を抽出し,現在のクエリに対する天気予報コメントを作成する.具体的には,まず,クエリである数値予報マップ,気象観測値,および,メタ情報\footnote{One-hotエンコーディングによりメタ情報を数値ベクトル化した.}から1つの数値ベクトルを作成する.次に,事例データベースに含まれる事例についても同様に数値ベクトルを作成し,クエリとのコサイン類似度を計算する.最後に,現在のクエリと最も類似する過去の事例を抽出し,抽出された過去事例に紐づく天気予報コメントを現在のクエリに対する天気予報コメントとして採用する.事例データベースには,\ref{sec:setting_dataset}節の学習データを用いた.つまり,与えられた評価データに対する天気予報コメントを,上記の手順に基づいて学習データの類似事例から抽出することになる.表\ref{table:model_definition}において,事例ベース推論に基づく手法をモデル(1)とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} label{sec:result}表\ref{table:result_score}に生成テキストと参照テキストの単語一致率に基づくBLEUおよびROUGEスコア,および,生成テキストと参照テキストのそれぞれから抽出した天気ラベルに関する適合率(P$\%$),再現率(P$\%$),$F_{1}$スコア(F$_{1}\%$)による評価結果を示す.表\ref{table:result_score}では,各モデルの重みパラメータの初期値を変更させて,3回実行した際の平均スコアを報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{11table05.tex}\caption{各モデルの評価データに対する自動評価スコア}\label{table:result_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数値予報マップのエンコード手法の比較}まず,数値予報マップのエンコード手法の検討として,CNNまたはMLPを数値予報マップのエンコーダとして採用したモデル(2),(3)を比較する.表\ref{table:result_score}のBLEUおよびROUGEによる自動評価において,MLPをエンコーダとするモデル(3)とCNNをエンコーダとして用いるモデル(2)では,2つのエンコーダ間において顕著な差は見受けられなかった.一方,表\ref{table:result_score}に示す,生成テキストから手がかり語により抽出した天気ラベルに対する適合率,再現率,$F_{1}$スコアの評価では,特に「雨」と「雪」において,モデル(3)がモデル(2)を上回るスコアが得られた.この結果から,MLPをエンコーダとして用いるモデル(3)は,CNNを用いるモデル(2)に比べて,天気予報コメントにおいて重要な情報である「雨」や「雪」について適切に言及できていることが推察できる.以降の実験では,天気ラベルに基づく評価においてMLPを用いるモデル(3)がモデル(2)を上回っていることから,モデル(3)をベースモデルとし,各コンポーネントの有用性を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{内容選択による生成テキストへの影響}次に,生成テキストの情報性向上を目的として導入した,内容選択モデルを検証するために,本コンポーネントを導入したモデル(4)と導入しないモデル(3)を比較する.表\ref{table:result_score}に示す,生成テキストから手がかり語に基づき抽出した天気ラベルに関する$F_{1}$スコアについて,内容選択モデルを導入したモデル(4)は,導入しないモデル(3)に比べてスコアが大きく向上していることを確認できた.特に,「晴れ」,「雪」の$F_{1}$スコアについては約5\%の改善が確認できており,これらの気象情報を生成テキストにおいて適切に言及できていることが推察できる.これらの結果から,本研究で導入した内容選択モデルのように,入力データから言及すべき内容を明示的に選択する外部機構を導入することで,生成テキストの情報性が改善することが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{11table06.tex}\caption{評価データに対する内容選択モデルの予測精度}\label{table:weather_label_prediction}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,表\ref{table:result_score}の各天気ラベルに関する自動評価スコアは,生成テキストで各気象情報についてどの程度適切に言及できているかを表す指標であるが,提案モデルの単語生成デコーダは内容選択モデルの予測結果を参照するため,これらのスコアは内容選択モデルの精度に依存していると考えられる.つまり,内容選択モデルの精度が高い場合は生成テキストの情報性の向上を期待できるが,内容選択モデルの精度が低い場合は生成テキストへの悪影響が懸念される.そこで追加検証として,内容選択モデルの精度を評価し,その分類精度の生成テキストへの影響を調査した.表\ref{table:weather_label_prediction}に内容選択モデル単体の予測精度を示す.表\ref{table:weather_label_prediction}の内容選択モデルの精度と,表\ref{table:result_score}に示すモデル(4)の生成テキストにおける内容選択の精度を比較すると,それぞれの予測精度は概ね匹敵していることが分かった.このことから,モデル(4)は内容選択モデルの予測結果を概ね反映できていることが推察できる.しかし,現状では,モデル(4)の生成テキストにおける内容選択の精度は,内容選択モデル単体による予測精度よりも約3\%程度低いことから,内容選択モデルの導入によりさらなる精度向上の余地があると考えられる.そのため,今後の課題の1つとして,内容選択モデルの予測結果を生成テキストへ十分に反映するための仕組みを導入することにより,生成テキストにおける内容選択の精度をさらに向上させることなどが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{内容一致制約の効果}内容選択モデルの予測結果と生成テキストを表す埋め込みベクトルの距離を近づけることで生成テキストの情報性が向上することを期待して導入した内容一致制約\cite{wang-etal-2020-towards}の効果について検証する.具体的には,内容一致制約を導入したモデル(6)と導入しないモデル(4)を比較する.まず,表\ref{table:result_score}のBLEUおよびROUGEによる自動評価では,内容一致制約を導入したモデル(6)は導入しないモデル(4)に対してわずかな改善に留まっていることが分かった.また,表\ref{table:result_score}の内容選択に関する自動評価スコアでは,ほとんど改善が見受けられなかった.これらの結果から,内容一致制約による生成テキストの情報性改善の効果は限定的であることが推察できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メタ情報の導入による生成テキストへの影響}次に,生成モデルが天気予報コメントの配信される時間帯や対象エリアに依存する表現を用いてテキスト生成することを期待して導入したメタ情報埋め込みベクトルの効果について検証する.具体的には,メタ情報を用いたモデル(6)とそれを用いないモデル(5)の比較を行う.表\ref{table:result_score}のBLEUおよびROUGEによる自動評価では,メタ情報を導入したモデル(6)はそれを用いないモデル(5)と比べて,わずかにスコアが向上することを確認できた.しかしながら,生成テキストと参照テキストの単語の一致率に基づくBLEUやROUGEといった自動評価スコアだけでは,モデル(6)がモデル(5)に比べてメタ情報に依存する表現を適切に生成できているか判断することが難しい.そこで,天気予報コメントの配信時刻やエリアなどのメタ情報に依存する表現について,参照テキストと比較して正しく出力できているか評価を実施した.具体的には,参照テキストに含まれるメタ情報の依存表現について,提案モデルより生成されたテキストにおいても適切に言及できているか評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{11table07.tex}\caption{各依存表現に対する自動評価スコア}\label{table:meta_data_analysis}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:meta_data_analysis}にメタ情報に依存する表現を参照テキストと比較して生成テキストにおいて適切に言及できているかを表す$F_{1}$スコア,適合率(P\%),および,再現率(R\%)の自動評価結果を示す.表\ref{table:meta_data_analysis}における$\Delta_{F_{1}}$は,$F_{1}$スコアに関するモデル(6)とモデル(5)の差分を表している.また,表\ref{table:meta_word_frequency}に学習データ,開発データ,評価データの天気予報コメントにおける各依存表現の出現回数を示す.これらの評価対象として選定した依存表現は,開発データを参考に人手により抽出している.この結果によると,天気予報コメントのメタ情報として与えたモデル(6)はメタ情報を考慮しないモデル(5)に比べて,配信時刻に依存する「今日,明日」や,曜日に依存する「(月),(火)」,月に依存する「春,夏」などの表現に対する$F_{1}$スコアが大きく向上していることを確認できた.同様に,エリアに依存表現する表現においても$F_{1}$スコアが全体的に向上していることが確認できた.しかし,評価データにおいて比較的出現回数が少ない依存表現(山,山間)については変化が見受けられなかった.また,選定した依存のうち,エリアに依存する表現である「高波,台風」について精度劣化が見受けられた.表\ref{table:meta_word_frequency}に示すように,この2つの依存表現は共起している回数が多い.そのため,メタ情報をモデルへ与えたことで台風または高波のいずれかを言及する精度が低下し,他方の依存表現に対する精度も劣化したことが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{11table08.tex}\caption{各依存表現の各データにおける出現回数}\label{table:meta_word_frequency}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の結果から,生成モデルへメタ情報を導入することにより,多くの事例において,メタ情報に依存した表現を適切に生成する性能が改善することが確認できた.一方で,いくつかの依存表現においては性能劣化が見受けられたことから今後の改善が求められる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事例ベース推論に基づく手法との比較}エンコーダ・デコーダモデルに基づく提案モデルの有用性を検証するために,比較手法として導入した事例ベース推論に基づく手法\cite{adeyanju2012weathercbr}と提案モデルの比較を行う.表\ref{table:result_score}におけるモデル(1)が事例ベース推論に基づいたモデルの自動評価結果である.表\ref{table:result_score}のBLEUおよびROUGEに基づく自動評価において,提案モデルであるモデル(3)や(6)は,事例ベース推論に基づく手法であるモデル(1)よりも大幅に上回るスコアが得られた.この結果からエンコーダ・デコーダモデルに基づく提案モデルは,事例ベース推論に基づくモデル(1)よりも参照テキストに類似した天気予報コメントを生成できていることが推察できる.一方で,生成テキストにおける内容選択の正確性を表す各天気ラベルの精度においては,事例ベース推論に基づくモデル(1)は提案モデルであるモデル(3)や(6)よりもスコアが劣ってはいるものの,比較的高いスコアを得られていることが分かった.つまり,事例ベース推論に基づくモデル(1)の生成テキストは,提案モデルと比べて参照テキストとの類似性はやや劣るものの,適切な内容選択ができていることが推察できる.上記の結果から,数値予報マップ,気象観測値,メタ情報をクエリとした事例ベース推論に基づくモデル(1)では,最も類似度が高い事例を事例データベースから抽出することで,内容選択の正確性が高い天気予報コメントが得られることが分かった.このことを踏まえると,最も類似度が低い事例が抽出された場合には,生成テキストにおける内容選択の正確性は低くなることが予想される.そこで追加検証として,クエリに類似した事例を事例データベースから抽出する際に用いる類似度と生成テキストにおける内容選択の正確性の関係性を調査した.具体的には,クエリに類似した事例を事例データベースから抽出する際に,最も類似度が高い事例を抽出する場合のモデル(1)$_{max}$と最も類似度が低い事例を抽出する場合のモデル(1)$_{min}$を比較する.ここで,最も類似度が高い事例を抽出した場合のモデル(1)$_{max}$は,表\ref{table:result_score}におけるモデル(1)と同じモデルであることに注意されたい.表\ref{table:result_score_for_cbr}に各モデルの自動評価結果を示す.これら2つのモデルを比較すると,クエリに最も類似度が高い事例を事例データベースから抽出した場合のモデル(1)$_{max}$は,クエリに最も類似度が低い事例を抽出した場合のモデル(1)$_{min}$よりも大幅に自動評価スコアが向上していることが分かった.これらの結果からも,事例データベース推論に基づく手法において,最も類似度が高い事例を事例データベースから抽出することで,内容選択の正確性が高い天気予報コメントを得られることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{11table09.tex}\caption{事例ベース推論に基づくモデルの評価データに対する自動評価スコア}\label{table:result_score_for_cbr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,表\ref{table:generated_commments_by_cbr}に事例ベース推論に基づくモデル(1)$_{max}$およびモデル(1)$_{min}$による生成テキストの例を示す.表\ref{table:generated_commments_by_cbr}における「正解」は,評価データにおける一事例であり,2015年7月23日(木曜)午前0時22分に実際に配信された天気予報コメントである.モデル(1)$_{max}$およびモデル(1)$_{min}$のそれぞれの生成テキストは,数値予報マップ,気象観測値,メタ情報からなるクエリの類似度に基づいて事例データベースから抽出された天気予報コメントである.まず,クエリに最も類似度が高い事例を用いたモデル(1)$_{max}$の生成テキストは,正解テキストと同様に,雨と曇り空について言及できていることが確認できた.一方,クエリに最も類似度が低い事例を用いたモデル(1)$_{min}$の生成テキストでは,「今日は冬晴れの一日。お出かけ日和」のように,正解テキストとは異なった内容が言及されている.これは,モデル(1)$_{min}$では,正解の気象データと最も類似度が低い事例の天気予報コメントを生成テキストとして用いるため,言及される内容は必然的に正解テキストと大きく異なることが要因となっている.以上の結果からも,事例ベース推論に基づく手法において,事例データベースから抽出する際の類似度によって生成テキストで言及される内容およびその正確性が変化することが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{11table10.tex}\caption{事例ベース推論に基づく手法の生成テキスト}\label{table:generated_commments_by_cbr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%tabld11\begin{table}[b]\input{11table11.tex}\caption{人手評価の結果}\label{table:human_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価結果}表\ref{table:human_eval}に人手評価の結果を示す.表\ref{table:human_eval}における,$^{\dagger}$は統計的に有意差があることを示す($p<0.05$).また,「事例数」列は,人手評価データ40件のうち,各天気ラベルを含む事例の件数を表している.ここで,各天気予報コメントには図\ref{fig:example_comment_tokyo}の事例のように1つ以上の天気ラベルが含まれることに注意されたい.人手評価結果によると,本研究で提案した天気ラベルの予測タスクにより明示的な内容選択を行うモデル(6)は,明示的な内容選択を行わないモデル(3)に比べて,統計的有意に情報性が優れていることが分かった.これは,表\ref{table:result_score}の自動評価結果から明らかになったように,提案モデル(6)はモデル(3)よりも生成テキストにおける内容選択の正確性が高いことが要因として考えられる.一方で,文章全体の一貫性の観点においては,両モデルのスコアは十分に高いものの,モデル(6)はモデル(3)よりも劣ることが分かった.これは,生成テキストに含まれる情報量が増えたことで,それらの一貫性を担保することが難しくなったことが要因として考えられる.この問題の対策としては,テキストで言及する内容を予測する内容選択だけではなく,それらをどのような順序で言及するかを考慮するための内容プランニングを明示的に実施することが挙げられる\cite{wiseman-etal-2017-challenges,iso-etal-2019-learning}.また,モデル(6)の生成テキストでは,以下に示す事例(\ref{sen:low_consistency})のように文と文のつながりの不自然さに起因して一貫性スコアが低く評価された事例\footnote{一貫性の平均スコアは1.8.}も確認された.この例では,1文目と2文目を繋ぐ接続詞として「ただ」が使われていることで,1文目から推察できる内容(段々と日差しが届いて晴れるため、午後から過ごしやすくなる事)に対して,さらに2文目で補足している状況となり,文のつながりに不自然さが生じていたことが原因として考えられる.\begin{exe}\ex今日は朝まで雨が降りますが、段々と日差しが届いてお出かけ日和になります。\underline{ただ}、昼間は過ごしやすい体感になりそうです。\label{sen:low_consistency}\end{exe}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{11table12.tex}\caption{「豊橋」エリアに配信された天気予報コメントと各モデルの生成テキスト}\label{table:generateion_example_1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{11table13.tex}\caption{「白糠」エリアに配信された天気予報コメントと各モデルの生成テキスト}\label{table:generateion_example_2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:generateion_example_1},\ref{table:generateion_example_2},\ref{table:generateion_example_3}に各モデルの出力例と実際に配信された正解の天気予報コメントの例を示す.表\ref{table:generateion_example_1},\ref{table:generateion_example_2},\ref{table:generateion_example_3}におけるI,C,Gはそれぞれ,情報性({\itInformativeness}),一貫性({\itConsistency}),文法性({\itGrammaticality})に関する評価者5人の平均スコアを表す.表\ref{table:generateion_example_1}では,各モデルの生成テキストにおいて正解テキストと同様に雲について言及できているものの,モデル(3)の生成テキストでは正解テキストでは言及されていない雨について記述されている.この結果から,モデル(3)の生成テキストは誤った情報が含まれていると判断され,モデル(6)よりも情報性のスコアが低く付けられたと考えられる.表\ref{table:generateion_example_2}では,各モデルの生成テキストでは日差しや気温の低下について言及できている.一方,モデル(6)は正解テキストと同様に雪についても言及できているが,モデル(3)では雪ではなく,ニワカ雨と言及している.このことから,表\ref{table:generateion_example_2}におけるモデル(3)の生成テキストは,情報性が低いと判断されたことが考えられる.表\ref{table:generateion_example_3}では,モデル(6)は正解テキストと同様に日差しや雨について言及できているため比較的高い情報性のスコアが付けられている.一方,モデル(3)では,日差しについては言及できているものの,雨についての記述は含まれていない.そのため,モデル(3)の生成テキストはモデル(6)よりも情報性が低いと判断されたことが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{11table14.tex}\caption{「東京」エリアに配信された天気予報コメントと各モデルの生成テキスト}\label{table:generateion_example_3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,情報性の評価では,正解テキストと生成テキストを比較して評価を行っているが,正解テキストの何を重要な情報とみなすかは評価者ごとに結果が分かれる可能性がある.例えば,以下の正解テキスト(\ref{sen:example_referece})と生成テキスト(\ref{sen:example_generation})では,生成テキストに対して評価者5名のうち3名からは3,2名からは2の評価結果が得られた.この事例において,正解テキストと比較して生成テキストで言及されていない差分となる情報は,風や気温に関する情報であるため,2名の評価者は風や気温に関する情報も重要な情報とみなし,生成テキストに対して2を付与したことが推察できる.\begin{exe}\ex今日(木)は晴れたり曇ったり。ニワカ雨の可能性もあるので、お出かけの際は折りたたみ傘があると安心です。\underline{風が吹くと涼しい~肌寒いくらいの体感になります。}\label{sen:example_referece}\end{exe}\begin{exe}\ex今日(木)は日差しが届いても、ニワカ雨の可能性があります。お出かけの際は折りたたみ傘があると安心です。\label{sen:example_generation}\end{exe}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本研究では,数値気象予報のシミュレーション結果から天気予報コメントを生成するためのData-to-Textモデルを提案した.天気予報コメント生成タスクには,(i)複数の物理量からなる時系列数値データの考慮する必要がある,(ii)コメントが書かれる時間帯や対象エリアに依存した表現が用いられる,(iii)天気予報コメントにおいて情報性が重要である,といった課題があり,本研究ではそれぞれの課題に対して手法を提案した.実験では,自動評価および人手評価によって提案手法の有用性を示した.今後の課題として2点挙げる.まず,1点目の課題として,人手評価において,提案モデルの生成テキストの情報性の向上は見受けられたものの,わずかな劣化が観測された一貫性の課題が挙げられる.この課題の解決策として,生成テキストの情報性向上を目的とした,入力データからの内容選択だけではなく,それらの内容をどのような順序で言及するかを考慮するための内容プランニングを導入する方法などが考えられる.2点目の課題として,生成モデルの入力データとして使用した気象データの入力形式の検討が挙げられる.本研究では,入力データとして,数値気象予報のシミュレーション結果の生データである数値予報マップを使用したが,これらのデータを基に作成された{\scSUMTIME-METEO}や{\scWeatherGov}などの構造化データを用いる方法も考えられる.これらの構造化データは,数値予報マップといった生データに比べて情報量が落ちることが懸念されるものの,人手や機械により情報が整理された上で構造化されているため,重要な情報を選定する内容選択の問題がより簡単になる可能性が考えられる.また,その他にも,生データや構造化データのいずれかだけでなく,両者を組み合わせた入力形式も考えられる.そのため,今後の課題として,天気予報コメントの生成タスクにより適した気象データの入力形式やそれらの組み合わせを検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の一部は,The16thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2021)で発表したものです\cite{murakami-etal-2021-weather}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{11refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{村上聡一朗}{%2015年熊本高等専門学校専攻科電子情報システム工学専攻修了.2017年東京工業大学大学院博士前期課程修了.2019年より,東京工業大学工学院博士後期課程に在籍.自然言語処理,特に自然言語生成に関する研究開発に従事.言語処理学会会員.}\bioauthor{田中天}{%2016年大阪大学工学部電子情報学科修了.2019年東京工業大学大学院博士前期課程修了.}\bioauthor{萩行正嗣}{%2014年京都大学大学院情報学研究科知能情報学専攻博士後期課程修了.博士(情報学).同年より現職.自然言語処理の研究に従事.言語処理学会会員,情報処理学会会員.AI防災協議会常務理事.}\bioauthor{上垣外英剛}{%2012年東京工業大学情報工学科卒業.2014年東京工業大学大学院総合理工学研究科知能システム科学専攻博士前期課程修了.2017年東京工業大学大学院~総合理工学研究科知能システム科学専攻博士後期課程修了.博士(工学).同年NTTコミュニケーション科学基礎研究所入所.2018年より東京工業大学科学技術創成研究院未来産業技術研究所助教.自然言語処理分野の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{船越孝太郎}{%2005年東京工業大学大学院情報理工学研究科計算工学専攻博士後期課程修了.博士(工学).2006年より(株)ホンダ・リサーチ・インスティチュート・ジャパンリサーチャー.2017年より京都大学大学院情報学研究科知能情報学専攻特定准教授.2020年より東京工業大学科学技術創成研究院未来産業技術研究所准教授.自然言語処理およびマルチモーダル対話システムに関する研究に従事.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{高村大也}{%1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年から2021年3月まで同教授.2017年から産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.}\bioauthor{奥村学}{%1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在は,科学技術創成研究院教授.2017年より,理化学研究所革新知能統合研究センター(AIP)客員研究員を兼務.工学博士.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V26N01-06
\section{はじめに} フレーズベースの統計的機械翻訳\cite{Koehn:2003:SPT:1073445.1073462}は,フレーズを翻訳単位として機械翻訳を行う手法である.この手法では局所的な文脈を考慮して翻訳を行うため,英語とフランス語のように,語順が似ている言語対や短い文においては高品質な翻訳を行えることが知られている.しかし,英語と日本語のように,語順が大きく異なる言語対では,局所的な文脈を考慮するだけでは原言語のフレーズを目的言語のどのフレーズに翻訳するかを正しく選択することは難しいため,翻訳精度が低い.このような語順の問題に対し,翻訳器のデコーダで並び替えを考慮しつつ翻訳する手法\linebreak\cite{Tillmann:2004:UOM:1613984.1614010},翻訳器に入力する前に原言語文の語順を目的言語文の語順に近づくよう並び替える事前並び替え\cite{nakagawa2015},原言語文をそのまま翻訳した目的言語文を並び替える事後並び替えが提案されている\cite{hayashi-EtAl:2013:EMNLP}.特に事前並び替え手法は,長距離の並び替えを効果的かつ効率的に行える\cite{E14-1026,nakagawa2015}.先行研究として,Nakagawa\cite{nakagawa2015}はBracketingTransductionGrammar(BTG)\cite{Wu:1997:SIT:972705.972707}にしたがって構文解析を行いつつ事前並び替えを行う手法を提案している.この手法は事前並び替えにおいて最高性能を達成しているが,並び替えの学習のために人手による素性テンプレートの設計が必要である.そこで,本稿では統計的機械翻訳のためのRecursiveNeuralNetwork(RvNN)\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}を用いた事前並び替え手法を提案する.ニューラルネットワークによる学習の特徴として,人手による素性テンプレートの設計が不要であり,訓練データから直接素性ベクトルを学習できるという利点がある.また,RvNNは木構造の再帰的ニューラルネットワークであり,長距離の並び替えが容易に行える.提案手法では与えられた構文木にしたがってRvNNを構築し,葉ノードからボトムアップに計算を行っていくことで,各節ノードにおいて,並び替えに対して重要であると考えられる部分木の単語や品詞・構文タグを考慮した並び替えを行う.統計的機械翻訳をベースにすることで,事前並び替えのような中間プロセスに注目した手法の性能が翻訳全体に与える影響について明らかにできる利点がある.また統計的機械翻訳のようにホワイトボックス的なアプローチは,商用翻訳においてシステムの修正やアップデートが容易であるという利点もある.さらに現在主流のニューラル機械翻訳\cite{D15-1166}でも,統計的機械翻訳とニューラル機械翻訳を組み合わせることで性能を向上するモデルが先行研究\cite{D17-1149}により提案されており,統計的機械翻訳の性能を向上させることは有益である.英日・英仏・英中の言語対を用いた評価実験の結果,英日翻訳において,提案手法はNakagawaの手法と遜色ない精度を達成した.また詳細な分析を実施し,英仏,英中における事前並び替えの性能,また事前並び替えに影響を与える要因を調査した.さらに近年,機械翻訳の主流となっているニューラル機械翻訳\cite{D15-1166}において事前並び替えが与える影響についても実験を行い検証した. \section{関連研究} \label{sec:mt_reordering}本章では,提案手法と関連の深い事前並び替えに関する既存研究について議論する.Collinsら\cite{CollinsKoehn2005}やGojunandFraser\cite{gojunfraser2012},Wangら\cite{wang-collins-koehn:2007:EMNLP-CoNLL2007}は並び替えのルールを定め,そのルールにしたがって事前並び替えを行っている.Xuら\cite{xu-EtAl:2009:NAACLHLT09}やIsozakiら\cite{isozaki10hfe}は木構造に対して並び替えのルールを定め,SVO型言語である英語からSOV型言語への翻訳における事前並び替えを行っている.これらの手法のように,ある言語対について並び替えのルールを定めるためには原言語と目的言語についての知識が必要であり,また全ての言語対において並び替えのルールを定めることは難しい.そのため,ルールに基づいた並び替えでは適用可能な言語対が限られてしまう.そこで,対訳コーパスから自動で並び替えを学習する手法も提案されている.Zhangら\cite{Zhang:2007:CRS:1626281.1626282}やCregoandHabash\cite{crego-habash:2008:WMT}は$n$-gramからなるチャンクに対して,並び替えルールを対訳コーパスから得る手法を提案している.CregoandMari\~no\cite{Crego2006}やTrombleandEisner\cite{tromble-eisner:2009:EMNLP}は品詞タグを用いた事前並び替え手法を提案している.またVisweswariahら\cite{visweswariah-EtAl:2011:EMNLP}は単語をノードとしたグラフを作成し,巡回セールスマン問題として並び替えの問題を定式化している.木構造を用いることで長距離の部分フレーズの並び替えが容易に行えるという利点があるため,木構造を用いる手法も多く提案されている.XiaandMcCord\cite{xia-mccord:2004:COLING}やGenzel\cite{genzel:2010:PAPERS}は木構造から並び替えパターンを抽出し,これを原言語文に適用することで並び替えを行っている.機械学習を用いて並び替えを学習する手法も提案されている.Liら\cite{li-EtAl:2007:ACLMain2}は構文木での各ノードにおいて最大エントロピーモデルを用いて,子ノードが$3$つ以内のノードに限定して学習および並び替えを行うモデルを提案している.LernerandPetrov\cite{lerner-petrov:2013:EMNLP}は依存木に対して,子ノードが$7$つ以内のノードに対して並び替えを行う手法を提案している.Yangら\cite{yang-EtAl:2012:ACL2012}は並び替えを子ノードの順序を求める順序問題とし,Ranking-SVM\cite{joachims2002optimizing}を用いて子ノードの順序を求めることで並び替えを行っている.木構造を用いて各ノードにおける子ノードの順序を決定するようなモデルでは,子ノードの数が多くなるにつれて並び替え候補が爆発的に増加するという問題がある.そこで,木構造を$2$分木に限定することで,各ノードにおいて子ノードを並び替えるか否かという二値分類の問題として定義できる.Jehlら\cite{E14-1026}は$2$分木に対して,アラインメントの交差が少なくなるようにロジスティック回帰モデルを用いて並び替えを学習する手法を提案している.Hoshinoら\cite{hoshino-EtAl:2015:ACL-IJCNLP}は,$2$分木に対して順位相関係数であるKendallの$\tau$\cite{kendall1938measure}が最大となるように二値分類の分類器を用いて各ノードでの並び替えを行っている.DeNeroandUszkoreit\cite{denero-uszkoreit:2011:EMNLP}は構文解析をしつつ同時に並び替えも学習する手法を提案している.Neubigら\cite{neubig-watanabe-mori:2012:EMNLP-CoNLL}はBTGに基づいて構文木の構築および並び替えを行う手法を提案しているが,計算量が多く時間がかかるという問題があった.本稿で比較を行うNakagawa\cite{nakagawa2015}の手法は,BTGに基づく並び替えにおける計算量の問題を解決した手法であり,翻訳において最高性能を達成している.原言語文と単語アラインメントからトップダウンで$2$分木を構築しつつ,各ノードで並び替えをするか否かを学習する.$2$単語以上のスパンのうち,どこで区切るか,区切った部分の前後を並び替えるかをトップダウンで再帰的に計算していくことで,最終的に構文木および各節ノードでのラベルが決定される.構文木を構築しながら並び替えも予測するため構文解析を事前に行う必要がなく,構文解析器の精度に依ることなく並び替えを行える.しかしその学習のために素性テンプレートを人手で設計する必要がある.近年では,素性テンプレートの設計を必要としないニューラルネットワークに基づいた手法も提案されている.deGispertら\cite{degispert-iglesias-byrne:2015:NAACL-HLT}はフィードフォワードニューラルネットワーク(FFNN)を用いた$2$分木での並び替えを提案している.Bothaら\cite{botha-EtAl:2017:EMNLP2017}もFFNNを用いた並び替えを提案しているが,木構造を用いずに並び替えを行っている.Miceli-BaroneandAttardi\cite{micelibarone-attardi:2015:ACL-IJCNLP}はRecurrentNeuralNetwork(RNN)を用いて依存木のノードを辿ることで並び替え手法を提案している.彼らは,単語を出力する``EMIT'',親ノードへ移動する``UP'',$j$番目のノードへ移動する``DOWN$_j$''の$3$つの動作を定義し,RNNで動作を予測することで並び替えを行う.Kanouchiら\cite{kanouchi-sudoh-komachi:2016:WAT2016}は統計的機械翻訳の翻訳モデルにより抽出するフレーズペアについて,RvNNを用いて並び替えラベルを推定することで,翻訳システムの内部で翻訳と同時にフレーズの並び替えを行う.提案手法と同様RvNNを用いているが,提案手法は翻訳システムとは独立して事前並び替えを行う点で異なる.また提案手法では原言語の構文木に対してボトムアップに構築されるRvNNを用いて$2$種類のラベルの予測を行うことで,部分木全体を考慮した並び替えを行える.構文木を用いることで,長距離の並び替えがより簡単に行えるという利点がある.Kawaraら\cite{P18-3004}は英日対においてRvNNを用いた事前並び替え手法を提案し,提案手法が有効であることを示している.本稿では英日,英仏,英中対に対してRvNNを用いた事前並び替えを適用し,詳細な分析を行う. \section{RecursiveNeuralNetworkによる事前並び替え} \label{sec:reorder_rvnn}本章では提案手法であるRvNNによる並び替え手法を説明する.まず提案手法のベースとなる,文対における語順の近さを測る指標であるKendallの$\tau$を説明する.次に節ノードにおける正解ラベル付与のアルゴリズムについて述べ,RvNNを用いた事前並び替えモデルについて述べる.\subsection{Kendallの$\tau$}\label{sec:kendall_tau}Kendallの$\tau$\cite{kendall1938measure}は順位相関係数の$1$つであり,式(\ref{eq:kendall_tau})で計算される.\begin{align}\label{eq:kendall_tau}\tau(\bm{a})&=\frac{4\sum^{n-1}_{i=1}\sum^{n}_{j=i}\delta({\bm{a}}_i<{\bm{a}}_j)}{|\bm{a}|(|\bm{a}|-1)}-1,\\\delta(x)&=\begin{cases}1&(x\{\rmis\true}),\\0&({\rmotherwise}).\end{cases}\nonumber\end{align}数列$\bm{a}$の要素が完全に昇順に並んでいる場合,$\tau(\bm{a})$は$1$を,完全に降順であれば$-1$をとり,それ以外であれば$-1<\tau(\bm{a})<1$となる.式(\ref{eq:kendall_tau})は$\bm{a}$に含まれる数値のペア$\bm{a}_iと\bm{a}_j(i<j)$が昇順$(\bm{a}_i<\bm{a}_j)$になっている割合を$-1$から$1$の間に正規化したものであり,この値が大きいほど昇順に並んでいるペアの割合が多い.\subsection{正解ラベルの付与}\label{sec:rank_eval}提案手法では,$2$分木である句構文木の各節ノードにおいて子ノードの順序を入れ替えるかどうかのラベル付けを行い,並び替えの訓練データを作成する.Algorithm\ref{alg:labeling}に正解ラベル付与の擬似コードを示す.入力は$2$分木のノード$n$と単語アラインメント$\bm{a}$である.ノードは左右の子ノードへのリンク(leftおよびright)と,並び替えを示すラベル(label)を保持する.$\bm{a}[n]$は,葉ノードにおける単語のアラインメントの目的言語におけるインデックスを表す.並び替えのラベルは関数KendallTau($a_l,a_r$)により,\ref{sec:kendall_tau}節で説明した手法でKendallの$\tau$の値を計算し,その結果に基づいて決定する.各節ノードにおいて,子ノードを並び替えた際にKendallの$\tau$が大きくなる場合は並び替えを行う``Inverted''ラベルを,小さくなるまたは変わらない場合はそのままの順序を維持する``Straight''ラベルを付与する.これをボトムアップで行うことで,与えられた構文木においてKendallの$\tau$が最大となるようにラベルが付与される.\begin{algorithm}[t]\caption{正解ラベル付与の擬似コード}\label{alg:labeling}\input{06algo01.tex}\end{algorithm}\subsection{事前並び替えモデル}RvNNは木構造型のニューラルネットワークである\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}.RvNNにおける各ノードは図\ref{fig:rvnn_unit}に示す構造を持ち,これを再帰的に結合することで,木構造型のニューラルネットワークを構築する.\begin{figure}[t]\begin{center}\includegraphics{26-1ia6f1.eps}\end{center}\caption{RvNNの基本となる構造}\label{fig:rvnn_unit}\end{figure}提案手法では句構文木にしたがってRvNNを構築し,各節ノードにおいてAlgorithm\ref{alg:labeling}で付与した正解ラベルを予測する学習を行う.Algorithm\ref{alg:preorder}に予測したラベルを用いた並び替えの擬似コードを示す.入力はAlgorithm\ref{alg:labeling}によって正解ラベルが付与された$2$分木のノード$n$であり,左右の子ノードへのリンク(leftおよびright)と並び替えの予測結果を保持するlabelを持つ.$\mathrm{len}(\cdot)$は要素の数を計算する.葉ノードはさらに自身の単語wordとそのベクトル表現$\bm{e}$を保持する.$S_l$,$S_r$は並び替え後の単語列である.節ノードにおいては,左と右の子ノードから,それぞれのベクトル表現$\bm{v}_l$,$\bm{v}_r$を入力とし,関数RvNN($\bm{v}_l,\bm{v}_r$)によって自身のベクトルの計算とラベルの予測を行う.RvNN($\bm{v}_l,\bm{v}_r$)はベクトル表現$\bm{v}_l$,$\bm{v}_r$を受け取り,予測されたラベル$Label$と節ノードのベクトル$\bm{v}$を返す関数である.左の子ノードと右の子ノードのベクトル表現を用いてラベルを予測することで,部分木を考慮しつつ並び替えを行うかどうかを決定できる.\begin{algorithm}[b]\caption{RvNNによる並び替えの擬似コード}\label{alg:preorder}\input{06algo02.tex}\end{algorithm}\begin{figure}[b]\begin{center}\includegraphics{26-1ia6f2.eps}\end{center}\hangcaption{``MyparentsliveinLondon''のRvNNによる並び替え(横線が引いてある節ノードは``Inverted'').緑色はノードのベクトルを表し,青色は品詞・構文タグのベクトルを表す.}\label{fig:rec_example}\end{figure}図\ref{fig:rec_example}に``MyparentsliveinLondon''という文に対してRvNNを用いた並び替えの例を示す.例えば``liveinLondon''のフレーズに対応したノードにおいて,式(\ref{eq:concatnodes})に従い``live''と``inLondon''の子ノードを考慮してベクトルを計算する.\begin{align}\label{eq:concatnodes}\bm{v}&=f([\bm{v}_l;\bm{v}_r]W+\bm{b})\\\label{eq:labelfunc}\bm{s}&=\bm{v}W_s+\bm{b_s}\end{align}$f$はReLU関数,$W\in\mathbb{R}^{\lambda\times2\lambda}$は重み行列,$\bm{v}_l$,$\bm{v}_r\in\mathbb{R}^\lambda$はそれぞれ左,右の子ノードのベクトル,$W_s\in\mathbb{R}^{2\times\lambda}$は出力層における重み行列,$\bm{b}\in\mathbb{R}^\lambda$,$\bm{b_s}\in\mathbb{R}^2$はバイアス項を表す($\lambda$は隠れ層の次元数を表す).また$[\cdot;\cdot]$はベクトルを結合する.${\bfs}\inR^2$は各ラベルに対する重みのベクトルであり,式(\ref{eq:softmax})に示すソフトマックス関数に入力することで``Straight''および``Inverted''ラベルの確率を計算する.\begin{equation}\label{eq:softmax}p_i=\frac{\exp(\bm{s}_i)}{\sum_{m=1}^{|\bm{s}|}\exp(\bm{s}_m)}\end{equation}$|\cdot|$はベクトルの次元数を表し,ここでは$|\bm{s}|=2$である.葉ノードでは,単語ベクトルを入力とし,式(\ref{eq:leaf_node})によってベクトル表現を得る.\begin{align}\bm{e}&=\bm{x}W_x\nonumber\\\label{eq:leaf_node}\bm{v}_e&=f(\bm{e}W_e+\bm{b}_e)\end{align}ここで$\bm{x}\in\mathbb{R}^V$は入力単語を表すone-hotベクトル,$W_x\in\mathbb{R}^{V\times\lambda}$は単語分散表現を表す行列($V$は語彙数を表す),$W_e\in\mathbb{R}^{\lambda\times\lambda}$は重み行列,$\bm{b}_e\in\mathbb{R}^\lambda$はバイアス項である.ロス関数は式(\ref{eq:loss_func})で定義される交差エントロピーを用いる.\begin{equation}\label{eq:loss_func}L(\theta)=-\frac{1}{K}\sum^K_{k=1}\sum_{n\in\mathcal{T}}\logp(l^n_k;\theta)\end{equation}$\theta$はモデルのパラメータ,$n$は構文木$\mathcal{T}$のノードであり,$K$はミニバッチのサイズ,$l^n_k$はミニバッチの$k$番目の構文木の$n$番目のノードのラベルを表す.本稿では,各ノードにおける品詞もしくは構文タグを考慮する手法も提案する.これらを考慮する際は,式(\ref{eq:concatnodes})に代わり式(\ref{eq:concatnodes_pos})を用いる.\begin{equation}\label{eq:concatnodes_pos}\bm{v}_t=f([\bm{v}_l;\bm{v}_r;\bm{e}_t]W_t+\bm{b}_t)\end{equation}${\bfe}_t\in\mathbb{R}^\lambda$は品詞・構文タグの情報を表現するベクトルで,各ノードの品詞または構文タグを表すone-hotベクトルを入力とし,式(\ref{eq:leaf_node})と同様に計算する.$W_t\in\mathbb{R}^{3\lambda\times\lambda}$は重み行列,$\bm{b}_t\in\mathbb{R}^\lambda$はバイアス項である. \section{翻訳性能評価} \label{sec:experiments}本章では事前並び替えを用いた翻訳評価実験について述べる.まず初めに実験設定について述べ,実験結果を示す.その後,翻訳結果の詳細な分析を行う.\subsection{実験設定}英日,英仏,英中対において原言語文の事前並び替えを行い,その上で機械翻訳システムを訓練し,翻訳精度を評価する.英日翻訳はASPECコーパス\cite{NAKAZAWA16.621}を用いた.ASPECコーパスはUtiyamaandIsahara\cite{Utiyama07ajapanese-english}による文アラインメント類似度に基づいて対訳文がランク付けされている.本稿では上位$50$万文対から$10$万文対をサンプリングして事前並び替えの訓練データとした.英仏翻訳はCommonCrawlコーパス\cite{bojar-EtAl:2015:WMT}を用いた.CommonCrawlコーパスに含まれる訓練データは約$291$万文対,開発データ(newstest2013)は3,000文対,テストデータ(newstest2014)は3,003文対である.英中翻訳はIWSLTコーパス\cite{iwslt15}を用いた.IWSLTコーパスに含まれる訓練データは約$21$万文対,開発データ(dev2010)は$887$文対,テストデータ(tst2013)は1,261文対である.英仏,英中ともに,訓練データから無作為にサンプリングした10万文を並び替えの訓練データとした.全ての言語対において,先行研究\cite{nakagawa2015,D15-1166}と同様翻訳器の学習には原言語,目的言語ともに$50$単語以下で,文対の単語数の比はMosesの前処理スクリプトのデフォルト値である$9$以下の条件を満たす文対を用いた.表\ref{tab:corpus_stats}に翻訳システムの訓練に用いたデータの統計量を示す.\begin{table}[b]\caption{翻訳の学習に用いたデータの統計量(文対)}\label{tab:corpus_stats}\input{06table01.tex}\end{table}英語文はStanfordCoreNLP\footnote{http://stanfordnlp.github.io/CoreNLP/}で単語分割と品詞タグ付けを,Enju\footnote{http://www.nactem.ac.uk/enju/}で構文解析を行った.日本語文はMeCab\footnote{http://taku910.github.io/mecab/}で形態素解析を,Ckylark\footnote{https://github.com/odashi/Ckylark}で構文解析を行った.フランス語文はMosesに付属しているスクリプト\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl}で単語分割を行い,BerkeleyParser\footnote{https://github.com/slavpetrov/berkeleyparser}で構文解析を行った.中国語文はKyotoMorph\footnote{https://bitbucket.org/msmoshen/kyotomorph-beta}を用いて単語分割を行い,BerkeleyParserで構文解析を行った.KyotoMorphの訓練にはCTBversion5(CTB5)とSCTB\cite{chu-EtAl:2016:ALR12}を用いた.並び替えの学習における単語アラインメントはMGIZA\footnote{https://github.com/moses-smt/mgiza}を用い,IBMModel1とhiddenMarkovmodelをそれぞれ$3$回繰り返して両方向のアラインメントを計算した.この時の単語クラス数は,先行研究\cite{nakagawa2015}にしたがって$256$とした.その後,intersectionのルールにより最終的なアラインメントを獲得した.提案手法であるRvNNはChainer\footnote{http://chainer.org/}を用いて実装し,語彙は頻度が高いものから$5$万語を用いた.最適化にはAdam\cite{DBLP:journals/corr/KingmaB14}に重み減衰(0.0001)およびGradientClipping($5$)を適用して行った.ミニバッチサイズは$500$とした.開発データにおけるロス値が最小となったエポック(英日:2,英中・英仏:5)のモデルを用い,事前並び替えを行う.Nakagawa\cite{nakagawa2015}のBTG手法を比較対象とし,公開されている実装\footnote{http://github.com/google/topdown-btg-preordering}を用いた.訓練には提案手法と同一の前処理を行った$10$万文対の対訳データを用い事前並び替えを行った.統計的機械翻訳器としてMoses\footnote{http://www.statmt.org/moses/}のフレーズベース統計的機械翻訳(PBSMT)を用いた.訓練データの目的言語文を用いてKenLM\footnote{http://github.com/kpu/kenlm}で$5$-gram言語モデルを訓練した.並び替えモデルはLinearモデル\cite{Koehn:2003:SPT:1073445.1073462}を用いた.ハイパーパラメータのチューニングは開発データを用いてMERT\cite{och:2003:ACL}で$3$回行った.それぞれの設定でテストデータの翻訳を評価した評価値の平均を最終的な評価値とする.また,ニューラル機械翻訳器としてOpenNMT\footnote{http://opennmt.net/}の注意機構モデルを用いた.語彙は原言語,目的言語ともに頻度の上位$5$万語を用い,単語ベクトルの次元数は$500$,隠れ層のベクトルの次元数は$500$とした.デフォルトの設定に従い,エンコーダ,デコーダともに$2$層のLSTMを用いた.バッチサイズは$64$文とし,$13$エポックの学習を行った.翻訳精度の評価指標としてBLEU\cite{papineni-EtAl:2002:ACL},また語順の評価指標としてRIBES\cite{sudoh-nagata:2016:WAT2016}を用いた.それぞれの評価値の統計的有意差を検証するため,ブートストラップによる検定\cite{koehn:2004:EMNLP}を行った.\subsection{実験結果}\label{sec:ex_result}\subsubsection{提案手法における品詞・構文タグの効果}RvNNにおける品詞・構文タグおよび単語ベクトル,節ノードのベクトルの次元数が事前並び替えおよびPBSMTの翻訳精度に与える影響を検証するため,英日対においてASPECコーパスの上位$50$万文対を用いて実験を行った.表\ref{tab:rec_bleu}に,単語のみを入力とした場合と品詞・構文タグを付与した場合の開発セットにおけるBLEU値を示す.WAT2017のベースラインシステム\footnote{http://lotus.kuee.kyoto-u.ac.jp/WAT/WAT2017/baseline/baselineSystemPhrase.html}と同様に並び替えなしのものは歪み制約は$20$とし,BTGとRvNNで並び替えを行った場合の歪み制約は$0$とした.品詞・構文タグがない場合,ベクトルの次元数が$100$の時に比べて,$200$の時はBLEU値が低下しているが,$500$の時は向上している.品詞・構文タグを用いた場合,ベクトルの次元数が$100$の時に比べて,$200$の時はBLEU値が向上したが,$500$の時は低下している.また,品詞・構文タグを用いないベクトル次元数が$500$の時と,品詞・構文タグを用いたベクトル次元数が$200$の時を比較すると,有意差は見られなかった.以上の結果に基づき,以降の実験では隠れ層のベクトルの次元数をより少ない$200$とし,品詞・構文タグを用いて事前並び替えを行う.\begin{table}[t]\hangcaption{ベクトルの次元数と品詞・構文タグの有無による開発セットにおけるBLEUの変化(英日ASPECコーパスの50万文対で学習)}\label{tab:rec_bleu}\input{06table02.tex}\end{table}\subsubsection{PBSMTおよびNMTによる翻訳精度}PBSMT,NMTにより翻訳を行った結果を表\ref{tab:eval_bleu}に示す.BTGとRvNNで事前並び替えを行ったものはPBSMTにおける歪み制約を$0$とした.並び替えなしのものは英日,日英ではWAT2017のベースラインシステムの設定に従い,歪み制約を$20$とした.英中,中英,英仏,仏英対では歪み制約をMosesのデフォルト値である$6$とした\footnote{Gotoら\cite{P13-1016}は中英翻訳において歪み制約を$10$,$20$,$30$,$\infty$にして翻訳を行い,歪み制約が$10$の時にBLEU値が一番高かったと報告している.そのため,英中,中英翻訳において,歪み制約を$6$,$10$,$20$に設定し翻訳実験を行った.その結果,開発データにおいてBLEU値が一番高かった歪み制約$6$を選択した.}.\begin{table}[t]\hangcaption{テストセットにおけるBLEUおよびRIBESの評価結果(最も性能の高いものと有意差がないもの($p<0.05$)を太字で表す)}\label{tab:eval_bleu}\input{06table03.tex}\end{table}PBSMTで翻訳を行った場合,英日方向の翻訳では並び替えなしに比べてRvNNとBTGの両方でBLEU値がそれぞれ$4.62$ポイント,$4.97$ポイント有意に向上した.またRIBES値も事前並び替えなしに比べて,RvNNおよびBTGで$8.77$ポイント,$9.58$ポイント有意に向上した.これらの結果から,英日翻訳において事前並び替えを行うことで翻訳精度が大きく向上していることが分かる.RvNNとBTGでは,BLEU値およびRIBES値において統計的有意差は認められなかった($p$値はそれぞれ$p=0.068$,$p=0.226$であった).このことから提案手法では,素性テンプレートの設計を必要とすることなく,事前並び替え手法のstate-of-the-artであるBTGと同等の翻訳性能を達成していることが分かる.英仏,英中方向におけるPBSMTを用いた翻訳結果のBLEU値およびRIBES値は,BTGでは有意に向上したが,RvNNでは並び替えなしと同程度となった.一方で,RvNN,BTG,並び替えなしの三者について,英仏・英中翻訳におけるRIBESの値に有意差はなかった.これは英中,英仏の言語対では元々長距離の語順変換が不要であるため,事前並び替えの効果が限定的だったことを示唆していると考える.また日英方向では,PBSMTを用いた翻訳結果では,並び替えなしと比較してRvNNによる事前並び替えを行うことで,BLEU値が有意に$1.99$ポイント向上している.しかしBTGでの並び替えによるBLEU値の向上には及ばない結果となった.RIBES値はRvNNとBTGでそれぞれ$7.65$ポイント,$8.27$ポイントの向上を達成している.仏英,中英方向においてPBSMTによる翻訳では,BTGによる並び替えではBLEU値が並び替えなしの場合に比べ有意に向上しているが,RvNNによる並び替えでは,並び替えなしの場合よりも低下している.これは構文木の精度が影響したものと考えられ,\ref{sec:analsys_reorder}項において分析する.NMTを用いた翻訳では,RvNNによる事前並び替えを行うと,英日,英中,日英,仏英方向の翻訳においてBLEU値,RIBES値が低下した.しかし,英仏方向ではBLEU値が$0.65$ポイント,RIBES値が$0.18$ポイント,中英方向ではBLEU値が$0.62$ポイント,RIBES値が$0.57$ポイント向上した.BTGによる事前並び替えでは,NMTを用いて翻訳を行うと,並び替えなしの場合に比べ,すべての言語対でBLEU値{,RIBES値}が低下する結果となった.これはSudohら\cite{sudoh-nagata:2016:WAT2016}の英中翻訳における実験結果と共通の現象であり,原因の$1$つとして,事前並び替えにより言語の構造が崩れてしまうことが考えられる.しかし英仏,中英対においては,RvNNの事前並び替えの結果,NMTの翻訳精度が向上しており,NMTにおいても事前並び替えによる効果が発揮される場合があることを示している.今後,提案手法をNMTのモデルに組み込み同時に学習を行うことで,NMTにおける翻訳精度の向上に取り組む予定である.NMTによる翻訳におけるRIBES値について,英仏,仏英翻訳においてBTGによる並び替えを行ったPBSMTの性能が事前並び替えなしのNMTの性能をわずかに上回っているが,これらの結果には統計的有意差はなかった(それぞれ$p=0.329$,$p=0.323$).先行研究でも示されている通り,本実験においても事前並び替えの有無に関わらず,NMTがSMTを上回る結果となっている.\subsection{分析}\subsubsection{事前並び替えと翻訳精度の関係分析}\label{sec:analsys_reorder}事前並び替えの性能が翻訳結果に与える影響を調査するため,事前並び替えの性能と翻訳精度の関連を分析する.入力文の理想的な事前並び替えが行えると,原言語と目的言語の語順が等しくなる.つまり,並び替えた入力文と参照翻訳の語順が等しくなり,翻訳タスクは逐語翻訳に近づくと考えられる.そのため,並び替えた入力文と参照翻訳の語順の近さを評価するKendallの$\tau$と,翻訳結果と参照翻訳の語順を評価するRIBES値には相関があると期待される.また逐語翻訳に近づくことで翻訳タスク自体が簡単になり,BLEU値も向上すると期待できる.表\ref{tab:kendallBLEURIBES}に,開発セットにおける並び替え前後の入力文それぞれと参照翻訳文間のKendallの$\tau$と,PBSMTによる翻訳結果のBLEU値,RIBES値を示す.英日対において,RvNNは並び替えなしに比べてKendallの$\tau$が$27.07$ポイント向上しており,英語,日本語文での語順の一致率を大きく向上できている.BLEU値,RIBES値もそれぞれ$3.68$ポイント,$8.27$ポイント向上している.日英対においても並び替えなしと比較してRvNNによる事前並び替えでKendallの$\tau$が$10.83$ポイント向上し,BLEU値,RIBES値もそれぞれ$2.27$ポイント,$8.23$ポイント向上している.つまりRvNNでは,語順の一致率を大きく向上できた英日,日英対では,BLEU値およびRIBES値を改善できていることが分かる.一方,仏英,中英対では並び替えなしに比べてRvNNのKendallの$\tau$がそれぞれ$1.08$ポイント,$0.26$ポイント向上したが,BLEU値,RIBES値に有意な変化はみられなかった.このことから,事前並び替えにより語順の一致率を高めることができれば,翻訳精度に大きく貢献できるが,Kendallの$\tau$の小規模な改善が翻訳精度に与える影響は限定的であることが分かる.\begin{table}[t]\hangcaption{開発データにおけるKendallの$\tau$とBLEUおよびRIBESとの関係(最も性能の高いものと有意差がないもの($p<0.05$)を太字で表す)}\label{tab:kendallBLEURIBES}\input{06table04.tex}\end{table}一方で,BTGでは仏英対においてKendallの$\tau$を$1.43$ポイント向上できており,またBLEU値,RIBES値がそれぞれ$1.27$ポイント,$0.41$ポイント,中英対においてもKendallの$\tau$を$1.65$ポイント改善し,またRIBES値が$0.24$ポイント向上している.提案手法では中英対においてBLEU,RIBESを向上できなかった理由として,構文解析エラーの影響が考えられる.BTGでは事前並び替えに適した木構造を構築しながら並び替えを行う.一方,RvNNでは構文解析器が出力する構文木に基づいて事前並び替えを行うため,構文解析器の精度がRvNNによる並び替えの精度に影響する.本実験で用いた構文解析器の精度は,中国語で$77\%$\cite{che-spitkovsky-liu:2012:ACL2012short}と報告されており,英語の場合の$91\%$\cite{Miyao:2008:FFM:1350986.1350988}より大幅に低い.中英翻訳のため構文解析した中国語文のうち,開発データから一文単位のBLEU値が低下した$50$件を観察した結果,構文解析エラーと単語アラインメントの質が低いことによる複合的な要因により事前並び替えに失敗していることが明らかとなった.構文解析に失敗した文は$13$文あり,そのうち名詞句の解析誤りが$9$件,動詞句の解析誤りが$6$件あった.これらの構文解析エラーにより,事前並び替えに失敗したものは$6$件あった.このうち構文解析エラーによりどのような並び替えを行ってもKendallの$\tau$を向上できないものが$3$件,単語アラインメントそのものができておらず,どのような並び替えを行ってもKendallの$\tau$を向上できないものが$2$件あった.これらは中英翻訳の実験に用いた対訳コーパス(IWSLT2015)はTEDより収集された口語体の文であるため構文解析が難しく,またコーパスサイズが小さいことから単語アラインメントも困難なためと考えられる.\subsubsection{機械学習手法の効果}\label{sec:diff_ml}次に,提案手法では構文木に基づく機械学習により事前並び替えを行うが,構文木を用いる効果および機械学習手法の効果を分けて検証するため,提案手法と同様に機械学習を用いて構文木の各ノードで並び替えを行う手法であるHoshinoら\cite{hoshino-EtAl:2015:ACL-IJCNLP}と英日対で比較実験を行った.Hoshinoらの手法は,機械学習手法としてSupportVectorMachineを用いるものである.表\ref{tab:comp_hoshino}にその結果を示す.Hoshinoらの手法と比較して,RvNNを用いた翻訳ではBLEU値が有意に$0.58$ポイント高い結果となった.この結果より,単語ベクトルおよび品詞・構文タグベクトルを考慮しRvNNによる事前並び替えを行うことで,構文情報をよりとらえた並び替えを実現できることが分かる.\begin{table}[b]\hangcaption{機械学習手法の違いによる並び替えのPBSMTによる英日対での翻訳評価(最も性能の高いものと有意差がないもの($p<0.05$)を太字で表す)}\label{tab:comp_hoshino}\input{06table05.tex}\end{table}\begin{table}[b]\caption{英日対における並び替えの成功例とその翻訳例}\label{tab:preorder_success}\input{06table06.tex}\end{table}\subsubsection{翻訳例の分析}表\ref{tab:preorder_success}に英日対において事前並び替えに成功した例,およびそのPBSMT,NMTを用いた翻訳結果を示す.原文と参照訳では語順が大きく異なっているが,並び替えを行うことで語順が近づいていることが分かる.PBSMTによる翻訳例では,並び替えなしの文と比べ,並び替えを行った文は意味が通るような訳文となっている.特に,動詞である``causes''が並び替えを行うことで文末に移動し,参照訳の「ひきおこす」と同様の意味を表す「原因となる」と翻訳されており,並び替えなしの翻訳である「部品である」と比べて正しい翻訳結果となっている.NMTによる翻訳例ではPBSMTによる翻訳例と比較してより流暢な翻訳となっているが,低頻度語である``economizer''が$\langle$unk$\rangle$と翻訳されている.\begin{table}[b]\caption{英日対における並び替えの失敗例とその翻訳例}\label{tab:preorder_failed1}\input{06table07.tex}\end{table}表\ref{tab:preorder_failed1}に英日対において事前並び替えに失敗した例およびそのPBSMT,NMTによる翻訳結果を示す.RvNNによる並び替えの例では,元々括弧外にあった単語列が,並び替えの結果括弧の中に入っていたり,左括弧と右括弧の順番が反対になっている.これは構文解析の結果,図\ref{fig:parse_ex}に示すように``(c)''というフレーズが誤って二つの句に分断されており,その誤りが事前並び替えに影響してしまったためである.BTGでは構文解析と並び替えを同時に行うため,このような構文解析誤りの影響を受けない.表\ref{tab:preorder_enfr},\ref{tab:preorder_enzh}に,英仏対および英中対での並び替えおよび翻訳結果を示す.これらの言語対では語順が似ているため,事前並び替えを行っても語順はほとんど変化せず,実際に並び替えなしの文とBTG,RvNNによって並び替えられた文も,それほど変化していない.\begin{figure}[t]\begin{center}\includegraphics{26-1ia6f3.eps}\end{center}\caption{失敗した構文解析結果の一部分(横線が引いてある節ノードは``Inverted''を示す)}\label{fig:parse_ex}\end{figure}\begin{table}[t]\caption{英仏対における並び替えの例とその翻訳例}\label{tab:preorder_enfr}\input{06table08.tex}\end{table}\begin{table}[t]\caption{英中対における並び替えの例とその翻訳例}\label{tab:preorder_enzh}\input{06table09.tex}\end{table} \section{まとめ} 本稿では統計的機械翻訳のための素性テンプレートの設計を必要としないRvNNを用いた事前並び替え手法を提案した.英日,英仏,英中言語対を用いた評価実験の結果,提案手法は英日統計的機械翻訳において,人手で設計した素性テンプレートに基づく事前並び替え手法のstate-of-the-art\cite{nakagawa2015}と同等の翻訳性能を達成している.しかし,提案手法では構文解析を必要とするため,構文解析の誤りが事前並び替えの精度に影響する.よって,構文解析とノードの並び替えを同時に行うモデルの構築が今後の課題の$1$つとして挙げられる.先行研究\cite{sudoh-nagata:2016:WAT2016,DuandWay:2017}において,事前並び替えを行った文対でNMTを訓練すると,翻訳精度が低下することが報告されている.しかし提案手法を用いた場合,英仏,中英対ではNMTにおいてBLEU値が有意に向上しており,事前並び替えがNMTに貢献する可能性が示された.提案手法では事前並び替えとNMTは完全に独立なモデルとなっているが,これらを統合し,事前並び替えモデルとNMTの訓練を同時に行うことでNMTに適した事前並び替えを行えると期待できる.今後,このような事前並び替えとNMTモデルを融合した手法に取り組む予定である.\acknowledgment本研究は,日本電信電話株式会社コミュニケーション科学基礎研究所及びJSPS科研費\#17H06822の助成を受けたものです.本稿の評価実験を行うにあたり,ご協力いただいた星野翔氏に深謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bojar,Chatterjee,Federmann,Haddow,Huck,Hokamp,Koehn,Logacheva,Monz,Negri,Post,Scarton,Specia,\BBA\Turchi}{Bojaret~al.}{2015}]{bojar-EtAl:2015:WMT}Bojar,O.,Chatterjee,R.,Federmann,C.,Haddow,B.,Huck,M.,Hokamp,C.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Post,M.,Scarton,C.,Specia,L.,\BBA\Turchi,M.\BBOP2015\BBCP.\newblock\BBOQFindingsofthe2015WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation(WMT)},\mbox{\BPGS\1--46},Lisbon,Portugal.\bibitem[\protect\BCAY{Botha,Pitler,Ma,Bakalov,Salcianu,Weiss,McDonald,\BBA\Petrov}{Bothaet~al.}{2017}]{botha-EtAl:2017:EMNLP2017}Botha,J.~A.,Pitler,E.,Ma,J.,Bakalov,A.,Salcianu,A.,Weiss,D.,McDonald,R.,\BBA\Petrov,S.\BBOP2017\BBCP.\newblock\BBOQNaturalLanguageProcessingwithSmallFeed-ForwardNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\2879--2885},Copenhagen,Denmark.\bibitem[\protect\BCAY{Cettolo,Niehues,St{\"{u}}ker,Bentivogli,Cattoni,\BBA\Federico}{Cettoloet~al.}{2015}]{iwslt15}Cettolo,M.,Niehues,J.,St{\"{u}}ker,S.,Bentivogli,L.,Cattoni,R.,\BBA\Federico,M.\BBOP2015\BBCP.\newblock\BBOQTheIWSLT2015EvaluationCampaign.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT)},\mbox{\BPGS\2--10},Tokyo,Japan.\bibitem[\protect\BCAY{Che,Spitkovsky,\BBA\Liu}{Cheet~al.}{2012}]{che-spitkovsky-liu:2012:ACL2012short}Che,W.,Spitkovsky,V.,\BBA\Liu,T.\BBOP2012\BBCP.\newblock\BBOQAComparisonofChineseParsersforStanfordDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\11--16},JejuIsland,Korea.\bibitem[\protect\BCAY{Chu,Nakazawa,Kawahara,\BBA\Kurohashi}{Chuet~al.}{2016}]{chu-EtAl:2016:ALR12}Chu,C.,Nakazawa,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016\BBCP.\newblock\BBOQSCTB:AChineseTreebankinScientificDomain.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAsianLanguageResources(ALR)},\mbox{\BPGS\59--67},Osaka,Japan.\bibitem[\protect\BCAY{Collins,Koehn,\BBA\Kucerova}{Collinset~al.}{2005}]{CollinsKoehn2005}Collins,M.,Koehn,P.,\BBA\Kucerova,I.\BBOP2005\BBCP.\newblock\BBOQClauseRestructuringforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\531--540}.\bibitem[\protect\BCAY{Crego\BBA\Habash}{Crego\BBA\Habash}{2008}]{crego-habash:2008:WMT}Crego,J.~M.\BBACOMMA\\BBA\Habash,N.\BBOP2008\BBCP.\newblock\BBOQUsingShallowSyntaxInformationtoImproveWordAlignmentandReorderingforSMT.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\53--61},Columbus,Ohio.\bibitem[\protect\BCAY{Crego\BBA\Mari{\~{n}}o}{Crego\BBA\Mari{\~{n}}o}{2006}]{Crego2006}Crego,J.~M.\BBACOMMA\\BBA\Mari{\~{n}}o,J.~B.\BBOP2006\BBCP.\newblock\BBOQImprovingStatisticalMTbyCouplingReorderingandDecoding.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf20}(3),\mbox{\BPGS\199--215}.\bibitem[\protect\BCAY{de~Gispert,Iglesias,\BBA\Byrne}{de~Gispertet~al.}{2015}]{degispert-iglesias-byrne:2015:NAACL-HLT}de~Gispert,A.,Iglesias,G.,\BBA\Byrne,B.\BBOP2015\BBCP.\newblock\BBOQFastandAccuratePreorderingforSMTusingNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL-HLT)},\mbox{\BPGS\1012--1017},Denver,Colorado.\bibitem[\protect\BCAY{DeNero\BBA\Uszkoreit}{DeNero\BBA\Uszkoreit}{2011}]{denero-uszkoreit:2011:EMNLP}DeNero,J.\BBACOMMA\\BBA\Uszkoreit,J.\BBOP2011\BBCP.\newblock\BBOQInducingSentenceStructurefromParallelCorporaforReordering.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\193--203},Edinburgh,UK.\bibitem[\protect\BCAY{Du\BBA\Way}{Du\BBA\Way}{2017}]{DuandWay:2017}Du,J.\BBACOMMA\\BBA\Way,A.\BBOP2017\BBCP.\newblock\BBOQPre-ReorderingforNeuralMachineTranslation:HelpfulorHarmful?\BBCQ\\newblock{\BemThePragueBulletinofMathematicalLinguistics},{\Bbf108},\mbox{\BPGS\171--182}.\bibitem[\protect\BCAY{Genzel}{Genzel}{2010}]{genzel:2010:PAPERS}Genzel,D.\BBOP2010\BBCP.\newblock\BBOQAutomaticallyLearningSource-sideReorderingRulesforLargeScaleMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\376--384},Beijing,China.\bibitem[\protect\BCAY{Gojun\BBA\Fraser}{Gojun\BBA\Fraser}{2012}]{gojunfraser2012}Gojun,A.\BBACOMMA\\BBA\Fraser,A.\BBOP2012\BBCP.\newblock\BBOQDeterminingthePlacementofGermanVerbsinEnglish-to-GermanSMT.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL)},\mbox{\BPGS\726--735},Avignon,France.\bibitem[\protect\BCAY{Goller\BBA\Kuchler}{Goller\BBA\Kuchler}{1996}]{GollerandKuchler}Goller,C.\BBACOMMA\\BBA\Kuchler,A.\BBOP1996\BBCP.\newblock\BBOQLearningTask-dependentDistributedRepresentationsbyBackpropagationthroughStructure.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEInternationalConferenceonNeuralNetworks,1996},\lowercase{\BVOL}~1,\mbox{\BPGS\347--352}.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,Tamura,\BBA\Kurohashi}{Gotoet~al.}{2013}]{P13-1016}Goto,I.,Utiyama,M.,Sumita,E.,Tamura,A.,\BBA\Kurohashi,S.\BBOP2013\BBCP.\newblock\BBOQDistortionModelConsideringRichContextforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\155--165},Sofia,Bulgaria.\bibitem[\protect\BCAY{Hayashi,Sudoh,Tsukada,Suzuki,\BBA\Nagata}{Hayashiet~al.}{2013}]{hayashi-EtAl:2013:EMNLP}Hayashi,K.,Sudoh,K.,Tsukada,H.,Suzuki,J.,\BBA\Nagata,M.\BBOP2013\BBCP\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1382--1386},Seattle,USA.\bibitem[\protect\BCAY{Hoshino,Miyao,Sudoh,Hayashi,\BBA\Nagata}{Hoshinoet~al.}{2015}]{hoshino-EtAl:2015:ACL-IJCNLP}Hoshino,S.,Miyao,Y.,Sudoh,K.,Hayashi,K.,\BBA\Nagata,M.\BBOP2015\BBCP.\newblock\BBOQDiscriminativePreorderingMeetsKendall's$\tau$Maximization.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguisticsandInternationalJointConferenceonNaturalLanguageProcessing(ACL-IJCNLP)},\mbox{\BPGS\139--144},Beijing,China.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2010}]{isozaki10hfe}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2010\BBCP.\newblock\BBOQHeadFinalization:ASimpleReorderingRuleforSOVLanguages.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponStatisticalMachineTranslationandMetricsMATR},\mbox{\BPGS\244--251},Uppsala,Sweden.\bibitem[\protect\BCAY{Jehl,de~Gispert,Hopkins,\BBA\Byrne}{Jehlet~al.}{2014}]{E14-1026}Jehl,L.,de~Gispert,A.,Hopkins,M.,\BBA\Byrne,W.\BBOP2014\BBCP.\newblock\BBOQSource-sidePreorderingforTranslationusingLogisticRegressionandDepth-firstBranch-and-BoundSearch.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL)},\mbox{\BPGS\239--248},Gothenburg,Sweden.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims2002optimizing}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesusingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsoftheACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\133--142},NewYork,USA.\bibitem[\protect\BCAY{Kanouchi,Sudoh,\BBA\Komachi}{Kanouchiet~al.}{2016}]{kanouchi-sudoh-komachi:2016:WAT2016}Kanouchi,S.,Sudoh,K.,\BBA\Komachi,M.\BBOP2016\BBCP.\newblock\BBOQNeuralReorderingModelConsideringPhraseTranslationandWordAlignmentforPhrase-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAsianTranslation(WAT)},\mbox{\BPGS\94--103},Osaka,Japan.\bibitem[\protect\BCAY{Kawara,Chu,\BBA\Arase}{Kawaraet~al.}{2018}]{P18-3004}Kawara,Y.,Chu,C.,\BBA\Arase,Y.\BBOP2018\BBCP.\newblock\BBOQRecursiveNeuralNetworkBasedPreorderingforEnglish-to-JapaneseMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL),StudentResearchWorkshop},\mbox{\BPGS\21--27},Melbourne,Australia.\bibitem[\protect\BCAY{Kendall}{Kendall}{1938}]{kendall1938measure}Kendall,M.~G.\BBOP1938\BBCP.\newblock\BBOQANewMeasureofRankCorrelation.\BBCQ\\newblock{\BemBiometrika},{\Bbf30}(1/2),\mbox{\BPGS\81--93}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{DBLP:journals/corr/KingmaB14}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceforLearningRepresentations(ICLR)},SanDiego,USA.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn:2004:EMNLP}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\388--395},Barcelona,Spain.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{Koehn:2003:SPT:1073445.1073462}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology(NAACL-HLT)},\mbox{\BPGS\48--54},Edmonton,Canada.\bibitem[\protect\BCAY{Lerner\BBA\Petrov}{Lerner\BBA\Petrov}{2013}]{lerner-petrov:2013:EMNLP}Lerner,U.\BBACOMMA\\BBA\Petrov,S.\BBOP2013\BBCP.\newblock\BBOQSource-SideClassifierPreorderingforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\513--523},Seattle,USA.\bibitem[\protect\BCAY{Li,Li,Zhang,Li,Zhou,\BBA\Guan}{Liet~al.}{2007}]{li-EtAl:2007:ACLMain2}Li,C.-H.,Li,M.,Zhang,D.,Li,M.,Zhou,M.,\BBA\Guan,Y.\BBOP2007\BBCP.\newblock\BBOQAProbabilisticApproachtoSyntax-basedReorderingforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationofComputationalLinguistics(ACL)},\mbox{\BPGS\720--727},Prague,CzechRepublic.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{D15-1166}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1412--1421},Lisbon,Portugal.\bibitem[\protect\BCAY{Miceli~Barone\BBA\Attardi}{Miceli~Barone\BBA\Attardi}{2015}]{micelibarone-attardi:2015:ACL-IJCNLP}Miceli~Barone,A.~V.\BBACOMMA\\BBA\Attardi,G.\BBOP2015\BBCP.\newblock\BBOQNon-projectiveDependency-basedPre-ReorderingwithRecurrentNeuralNetworkforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguisticsandtheInternationalJointConferenceonNaturalLanguageProcessing(ACL-IJCNLP)},\mbox{\BPGS\846--856},Beijing,China.\bibitem[\protect\BCAY{Miyao\BBA\Tsujii}{Miyao\BBA\Tsujii}{2008}]{Miyao:2008:FFM:1350986.1350988}Miyao,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQFeatureForestModelsforProbabilisticHpsgParsing.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\35--80}.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2015}]{nakagawa2015}Nakagawa,T.\BBOP2015\BBCP.\newblock\BBOQEfficientTop-DownBTGParsingforMachineTranslationPreordering.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguisticsandInternationalJointConferenceonNaturalLanguageProcessing(ACL-IJCNLP)},\mbox{\BPGS\208--218},Beijing,China.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16.621}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\2204--2208},Portoro{\v{z}},Slovenia.\bibitem[\protect\BCAY{Neubig,Watanabe,\BBA\Mori}{Neubiget~al.}{2012}]{neubig-watanabe-mori:2012:EMNLP-CoNLL}Neubig,G.,Watanabe,T.,\BBA\Mori,S.\BBOP2012\BBCP.\newblock\BBOQInducingaDiscriminativeParsertoOptimizeMachineTranslationReordering.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\843--853},JejuIsland,Korea.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och:2003:ACL}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\160--167},Sapporo,Japan.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\311--318},Philadelphia,USA.\bibitem[\protect\BCAY{Socher,Lin,Ng,\BBA\Manning}{Socheret~al.}{2011}]{Socher:2011:PNS:3104482.3104499}Socher,R.,Lin,C.C.-Y.,Ng,A.~Y.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQParsingNaturalScenesandNaturalLanguagewithRecursiveNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheonInternationalConferenceonMachineLearning(ICML)},\mbox{\BPGS\129--136},Bellevue,USA.\bibitem[\protect\BCAY{Sudoh\BBA\Nagata}{Sudoh\BBA\Nagata}{2016}]{sudoh-nagata:2016:WAT2016}Sudoh,K.\BBACOMMA\\BBA\Nagata,M.\BBOP2016\BBCP.\newblock\BBOQChinese-to-JapanesePatentMachineTranslationbasedonSyntacticPre-orderingforWAT2016.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAsianTranslation(WAT)},\mbox{\BPGS\211--215},Osaka,Japan.\bibitem[\protect\BCAY{Tillmann}{Tillmann}{2004}]{Tillmann:2004:UOM:1613984.1614010}Tillmann,C.\BBOP2004\BBCP.\newblock\BBOQAUnigramOrientationModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL)},\mbox{\BPGS\101--104},Boston,USA.\bibitem[\protect\BCAY{Tromble\BBA\Eisner}{Tromble\BBA\Eisner}{2009}]{tromble-eisner:2009:EMNLP}Tromble,R.\BBACOMMA\\BBA\Eisner,J.\BBOP2009\BBCP.\newblock\BBOQLearningLinearOrderingProblemsforBetterTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1007--1016},Singapore.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{Utiyama07ajapanese-english}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAJapanese-EnglishPatentParallelCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheMachineTranslationSummitXI},\mbox{\BPGS\475--482},Copenhagen,Denmark.\bibitem[\protect\BCAY{Visweswariah,Rajkumar,Gandhe,Ramanathan,\BBA\Navratil}{Visweswariahet~al.}{2011}]{visweswariah-EtAl:2011:EMNLP}Visweswariah,K.,Rajkumar,R.,Gandhe,A.,Ramanathan,A.,\BBA\Navratil,J.\BBOP2011\BBCP.\newblock\BBOQAWordReorderingModelforImprovedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\486--496},Edinburgh,UK.\bibitem[\protect\BCAY{Wang,Collins,\BBA\Koehn}{Wanget~al.}{2007}]{wang-collins-koehn:2007:EMNLP-CoNLL2007}Wang,C.,Collins,M.,\BBA\Koehn,P.\BBOP2007\BBCP.\newblock\BBOQChineseSyntacticReorderingforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\737--745},Prague,CzechRepublic.\bibitem[\protect\BCAY{Wang,Tu,Xiong,\BBA\Zhang}{Wanget~al.}{2017}]{D17-1149}Wang,X.,Tu,Z.,Xiong,D.,\BBA\Zhang,M.\BBOP2017\BBCP.\newblock\BBOQTranslatingPhrasesinNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1421--1431},Copenhagen,Denmark.\bibitem[\protect\BCAY{Wu}{Wu}{1997}]{Wu:1997:SIT:972705.972707}Wu,D.\BBOP1997\BBCP.\newblock\BBOQStochasticInversionTransductionGrammarsandBilingualParsingofParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(3),\mbox{\BPGS\377--403}.\bibitem[\protect\BCAY{Xia\BBA\McCord}{Xia\BBA\McCord}{2004}]{xia-mccord:2004:COLING}Xia,F.\BBACOMMA\\BBA\McCord,M.\BBOP2004\BBCP.\newblock\BBOQImprovingaStatisticalMTSystemwithAutomaticallyLearnedRewritePatterns.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\508--514},Geneva,Switzerland.\bibitem[\protect\BCAY{Xu,Kang,Ringgaard,\BBA\Och}{Xuet~al.}{2009}]{xu-EtAl:2009:NAACLHLT09}Xu,P.,Kang,J.,Ringgaard,M.,\BBA\Och,F.\BBOP2009\BBCP.\newblock\BBOQUsingaDependencyParsertoImproveSMTforSubject-Object-VerbLanguages.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:TheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL)},\mbox{\BPGS\245--253},Boulder,Colorado.\bibitem[\protect\BCAY{Yang,Li,Zhang,\BBA\Yu}{Yanget~al.}{2012}]{yang-EtAl:2012:ACL2012}Yang,N.,Li,M.,Zhang,D.,\BBA\Yu,N.\BBOP2012\BBCP.\newblock\BBOQARanking-basedApproachtoWordReorderingforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\912--920},JejuIsland,Korea.\bibitem[\protect\BCAY{Zhang,Zens,\BBA\Ney}{Zhanget~al.}{2007}]{Zhang:2007:CRS:1626281.1626282}Zhang,Y.,Zens,R.,\BBA\Ney,H.\BBOP2007\BBCP.\newblock\BBOQChunk-levelReorderingofSourceLanguageSentenceswithAutomaticallyLearnedRulesforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL);ProceedingsoftheMainConference},\mbox{\BPGS\1--8},Rochester,USA.\end{thebibliography}\begin{biography}\bioauthor{瓦祐希}{2018年大阪大学大学院情報科学研究科博士前期課程修了.現在同大学院博士課程.機械翻訳の研究に従事.言語処理学会,ACL,各会員.}\bioauthor[:]{ChenhuiChu}{2008年重慶大学ソフトウェア工学部卒業.2012年に京都大学大学院情報学研究科修士課程修了.2015年同大学院博士課程修了.博士(情報学).日本学術振興会特別研究員DC2,国立研究開発法人科学技術振興機構研究員を経て,2017年より大阪大学データビリティフロンティア機構特任助教.機械翻訳,自然言語処理の研究に従事.言語処理学会,人工知能学会,ACL,各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,MicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現抽出,機械翻訳技術,対話システム研究に興味を持つ.}\end{biography}\biodate\end{document}
V14N03-15
\section{はじめに} 近年,Webが爆発的に普及し,掲示板等のコミュニティにおいて誰もが容易に情報交換をすることが可能になった.このようなコミュニティには様々な人の多様な評判情報(意見)が多く存在している.これらの情報は企業のマーケティングや個人が商品を購入する際の意思決定などに利用されている.このため,このような製品などに対する評判情報を,Web上に存在するレビューあるいはブログなどから,自動的に収集・解析する技術への期待が高まっている.このため,従来このような評判情報の抽出に関して研究されてきた\cite{morinaga,iida,dave,kaji,yano,suzuki}.これらの研究では,製品などに関する評価文書から自然言語処理技術を用いて評判情報を抽出する.また,評判情報を含む評価文書を,ポジティヴ(おすすめ)とネガティヴ(おすすめしない)という2つの極性値に分類し,その結果をユーザに提示する.提示された情報を基にユーザは様々な意思決定を行う.評価文書を2つの極性値に分類する手法に関して,これまで多くの研究が行われてきた.\cite{turney}では,フレーズの極性値に基づく教師なし学習によって評価文書を分類している.\cite{chaovalit}では,映画のレビューを対象に教師なし学習\cite{turney}と教師あり学習を比較している.ここでは,教師あり学習としてN-gramを用いている.実験の結果,分類精度は教師あり学習の方が高かったと報告している.教師あり学習を用いたものとして\cite{dave}では,ナイーブベイズを用いて評判情報の分類学習を行っている.これらの研究では,文書中に含まれている単語や評判情報をすべて同等に扱っている.しかし,評価文書には,全体評判情報と部分評判情報という2つのレベルの評判情報が含まれていると考えられる.全体評判情報とは,評価文書の対象全般に関わる評価表現のことを指す.例えば,映画のレビューにおいて「この映画はおもしろい」という評価表現は対象全般に関わる評価表現であり,この表現がある場合はその極性値が評価文書の極値にほぼ一致する.一方,部分評判情報とは,対象の一属性に関わる評価表現のことを指す.例えば,映画のレビューにおいて「映像がきれい」という評価表現は映画の一属性である映像に関する評価表現であり,この表現があったとしてもその極性値が評価文書の極性値と一致するわけではない.したがって,これら2つのレベルを考慮することで評価文書の分類精度の向上が期待できる.そこで本論文では,評判情報を全体評判情報と部分評判情報という2つのレベルに分け,その極性値を基に評価文書を分類する手法を提案する.本手法では,まず評価文書から全体評判情報を抽出し,その極性値を判定する.この極性値は評価文書の極性値とほぼ一致するため,この極性値を評価文書の極性値とする.評価文書に全体評判情報が含まれない場合は,部分評判情報の極性値の割合から評価文書の極性値を決定する.さらに,この2つのレベルの評判情報を用いて,評判情報の信頼性を評価するための一手法を提案する.評判情報は主観的な情報のため,信頼性が低いという問題点がある.このため,その信頼性を評価できれば有益な情報となる.信頼性を評価する手法は多くのことが考えられるが,ここではその1つとして,評価文書の極値と異なる極性値を持つ部分評判情報は信頼性の高い情報と捉えることを提案する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書があるとする.前者のように,映画全体をポジティブに評価している人が映像に関してもポジティブに評価することはあまり情報としての価値はない.悪意のある見方をすると宣伝ともとれる.一方,後者は映画全体としてはネガティブな評価であるが,映像に関してはポジティブに評価している.このような評価は客観的でフェアである可能性が高いため,信頼性が高い評価情報であるとする.このような信頼性は,評判情報の2つのレベルを用いることで評価できる. \section{評判情報} 評判情報と評価文書を定義し,その表現法について述べる.また,全体評判情報と部分評判情報という評判情報の2つのレベルに関して述べる.\subsection{評判情報と評価文書}Web上ではブログや掲示板あるいはレビュー等で映画の感想やある製品に関する評価が多く存在する.例えば「映像に迫力がなかった」というような文がある.このような評価を含む情報を本研究では評判情報と呼ぶ.また,評判情報を含む文書を評価文書と呼ぶ.レビューで考えれば,1投稿が1つの評価文書に対応する(図\ref{fig:2.1}).\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f1.eps}\caption{評価文書と評判情報}\label{fig:2.1}\end{center}\end{figure}また,「こんにちは,私は原作は見てないので比較はできませんが,この映画はとても面白かったです.」という文章では,評判に関わる部分は「この映画は面白い」ということである.必要な部分だけを抽出すると,評判情報は(対象,属性,評価表現)という3つ組の形で表すことができる\cite{iida,tateishi}.対象とは評価対象の名前や評価対象全体を表す言葉である.属性とは評価対象の一部分を表す言葉であり,評価表現とはその評価対象や属性の評価である.映画を例にした評判情報の表現として,(映画,映像,迫力—ない),($\phi$,演技,すごい),(映画,$\phi$,面白い)などが挙げられる.$\phi$は,実際のデータでは対象や属性が必要ない場合や,文章中で省略されている場合を表す.本研究では,この3つ組みは文単位で抽出する.評判情報には,大別して全体評判情報と部分評判情報という2つのレベルが存在すると考えられる.全体評判情報とは評価対象全般に関する評価表現であり,部分評判情報とは評価対象の一属性に関する評価表現である.例えば,(映画,$\phi$,おもしろい)は評価対象全般である映画に関する評価表現であるため,全体評判情報である.一方,($\phi$,映像,きれい)は映画の一部である映像に関する評価であるため,部分評判情報である.また,(映画,映像,きれい)のようなすべての属性がある場合でも,映像に関する評判情報であるため,部分評判情報と捉える.全体評判情報は対象全般に関する評価であるため,その極性値は評価文書の極性値と一致すると考えられる.一方,部分評判情報は一属性に関する評価であるため,その極性値は評価文書の極性値と一致するとは限らない.したがって,全体評判情報を重視して評価文書を分類すると,その分類精度の向上が期待できる.本研究において上記の3つ組の表現を用いることで全体評判情報と部分評判情報を明確に区別することが可能となる.また,本研究では,レビュー内のテキスト情報以外の情報は用いていない.例えば,投稿者の情報や投稿の返信関係,文を超えた範囲からの抽出などは行っていない.これらの情報を考慮することで評価文書の分類精度が上がることが期待できるが,本論文では評判情報の2つのレベルに焦点をあてているため,これらの情報を考慮しなかった. \section{評価文書の分類} ここでは,評価文書をポジティブとネガティブに分類する手法を説明する.\pagebreakまず,本手法での基本モデルとして用いるナイーブベイズ(NB)モデルついて述べる\cite{dave}.次に,2つのレベルの評判情報を用いた評価文書の分類手法を提案する.\subsection{ナイーブベイズモデル}文書分類では単語の順序は必ずしも必要ではなく,文書中にどのような単語がどのような頻度で出現するかの情報で十分な場合が多い.そこで,単語の順序を無視し,文書を単語の集合として捉えるBOW(bag-of--words)モデルが用いられる.BOWモデルでは,1つの文書は形態素解析によって抜き出された単語リスト$d\{w_1,w_2,\cdots,w_M\}$と表現され,単語リスト$d$は文書と同一視される.$w_m$は文書に含まれる単語で,各々は異なる単語とは限らない.この考えに基づき,分類する文書(実際には単語リスト)を$d$とし,分類するための手がかりとなる学習コーパス(N個の学習用文書)$D=\{d_1,\cdots,d_N\}$から形態素解析等の処理によって得られる単語リストを単語集合Wとする.単語集合は$W=\{t_1,t_2,\cdots,t_V\}$と表現する.$t_i$は第$i$番目の単語でVは単語の総数を表す.NBモデルではBOWモデルに従う.NBでは,あるトピック$c$を持つ文書$d$の各単語$w_m$の生起を統計的に独立と仮定しているため,独立性の定義から次の式が成り立つ,\begin{equation}p(d|c)=P(w_1,\cdots,w_m|c)=\Pi_{m=1}^MP(w_m|c)\end{equation}これはあるクラスを与えたときに文書$d$が生成される確率は,$w_M\inW$の生成確率である$P(w_m|c)$の乗算で算出できることを意味する.次に単語頻度ベクトル$x=(x_1,\cdots,x_V)$を導入する.$x_i$は$t_i\inW$が文書$d$に出現する回数を表す.単語$t_i$ごとに整理すると,$P(w_1|c)\times\cdots\timesP(w_M|c)=P(t_1|c)^{x_1}\times\cdots\timesP(t_V|c)^{x_V}$が成り立つため,$P(t_i|c)=\theta_iとすると,$式(1)は次のようになる.\begin{equation}p(d|c)=\Pi_{i=1}^V\theta_i^{x_i}\end{equation}これがBOWモデルに基づく,文書のNBモデルである.$\theta=(\theta_1,\cdots,\theta_V)$は未知のパラメータであるために学習する必要がある.本研究では,NBのパラメータ学習に,事後分布最大化学習(MAP学習)を用いる.MAP学習では,与えられた学習用コーパス$D$に対して,$\theta$の事後分布$p(\theta|D)$を最大化するパラメータを最適としている.MAP学習による$\theta$の推定値は次の式で表現できる.\begin{equation}\hat{\theta}=\frac{\sum_{n=1}^Nx_{n,i}+\alpha-1}{\sum_{i=1}^V\sum_{n=1}^Nx_{n,i}+V(\alpha-1)}\end{equation}ここで,$x_{n,i}$は$t_i$が$D_i$中に出現する頻度ベクトルである.推定パラメータ$\alpha$は一種の平滑化(スムージング)パラメータである.$\hat{\theta_i}$はW中の全ての単語が$D$中に出現する総回数に対する,$t_i$が$D$中に出現する数の割合となっている(図\ref{fig:3.2}).\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f2.eps}\caption{ナイーブベイズモデル}\label{fig:3.2}\end{center}\end{figure}NBモデルを用いて文書をポジティブとネガティブの2つのクラス$(c_1=P,c_2=N)$に分類する.各クラス毎に学習データ$D$から式(3)を利用して$P(d|c_1)とP(d|c_2)$が得られる.クラスが未知の文書$d*$に対して,クラス事後確率$P(c_i|d*)$を最大化するクラス$c_i$がベイズ誤り確率最小化の観点で最適なクラス分類となる.ここで,$P(c_i|d*)\proptoP(c_i)P(d*|c_i)$なので,$P(c_i)P(d*|c_i)$の最大化となる.\subsection{NB分類器の作成}単語素性のNB分類器は次の手順で作られる.\begin{enumerate}\item学習データから評価表現候補単語リストの作成\itemNBモデルの作成\end{enumerate}学習データ$D$には,極性値がラベル付けされたレビュー集合を用いる.$D$から,評価表現の単語リストを抽出する.このとき,評価表現候補は,形容詞—自立,動詞—自立,名詞—形容動詞語幹,名詞—サ変接続,副詞—一般,副詞—助詞類接続という品詞で絞り込んだ単語集合を抽出する.これは評価表現をこれらの品詞にほぼ限定できるためである.この段階では明らかに評価表現でない名詞を多く含んでいる.そこで,評価対象を特徴づける対象名や属性名(映画ならば“映画”や“映像”など)と助詞—連体化や助詞—並立助詞,つまり“の”や“と”で繋がる名詞を$D$から抽出し,評価表現ではない可能性が高いので評価表現候補からは除外する(図\ref{fig:3.3}).また,明らかに評価表現にならない動詞も候補から外す.これには“する”などのstop-wordと呼ばれるものが含まれる.次に,評価表現候補をTF-IDFで得点づけする.TF-IDFは単語を得点づけするアルゴリズムで,ポジティブである評価文書だけに頻出するような単語はTF-IDF値が大きくなる.逆に,ポジティブにもネガティブにも出現するような評判情報はTF-IDF値が押さえられる.この段階で,ポジティブとネガティブそれぞれに対して特徴的な語が数値として得られる(表\ref{fig:3.4}).ポジティブ,ネガティブそれぞれに特徴的な語を数値順でソートしたものの中で上位の単語だけを用いる.これは,あまり数値が低いものは特徴的な単語でない可能性があるためである.また,候補数に差があると,分類に偏りが出易くなるので,ポジティブとネガティブ,それぞれの候補数を合わせる.本研究では,ポジティブとネガティブで候補数が少ない方の数に合わせた.このようにして単語集合$W$が完成する.さらに単語集合Wの$D$中における頻度ベクトル$X$を作成し,式(3)に基づき$P(d|N)$と$P(d|P)$を作成する.\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f3.eps}\caption{属性と属性評価表現の抽出}\label{fig:3.3}\end{center}\end{figure}\begin{table}[t]\caption{TF-IDFによるスコアリング}\label{fig:3.4}\begin{center}\begin{tabular}{|c|r|c|r|}\hlinePositiveword&tf-idf&Negativeword&tf-idf\\\hline楽しめる&963&悪い&786\\\hline最高&920&良い&634\\\hline面白い&873&ない&617\\\hline楽しい&845&面白い&377\\\hlineいい&625&飽きる&371\\\hline良い&598&面白い—ない&361\\\hlineとても&563&つまらない&332\\\hlineすごい&484&感じる&318\\\hlineない&435&もっと&302\\\hlineすき&434&拾う&300\\\hlineおもしろい&433&ちょっと&298\\\hlineよい&387&わかる—ない&298\\\hline演技&345&好き&258\\\hline監督&345&がっかり&251\\\hline笑う&344&無い&248\\\hline感じる&326&どう&243\\\hline楽しむ&323&正直&242\\\hlineちょっと&310&変&236\\\hlineもう一度&300&残念&223\\\hline\end{tabular}\end{center}\end{table}\subsection{評価文書分類の提案モデル}ここでは,評価文書を分類するための提案モデルについて述べる.NBモデルによる分類には,分類対象を評価文書にした場合には以下のような問題点がある.問題点の1つは係り受けを扱えないことである.例えば,「車がはやい」と「電池切れがはやい」のように,評価表現だけでなく,対象と評価表現,あるいは属性と評価表現の組でなければ,ポジティブとネガティブに正確に分類できない.このため,係り受けを扱うことで分類精度が高められると期待できる.もう1つの問題点は,全体評判情報と部分評判情報を同等に扱っていることである.単なる多数決ではなく,レベルの違いを利用した分類手法が必要である.例えば,(映画,$\phi$,おもしろい)が1回,($\phi$,映像,荒い)が2回出現するような評価文書は一般的にはポジティブに分類される.なぜならば,全体評判情報の極性値は評価文書の極性値とほぼ一致するため,これを重視すると,この評価文書の極性値はポジティブであると予想されるからである.しかし,評判情報の単純な多数決ではこの評価文書はネガティブに分類される.したがって,全体評判情報を重視すれば,評価文書の分類精度は向上すると期待できる.評価文書を分類するための提案モデルには次の2つの新しい点がある.\begin{itemize}\item全体評判情報と部分評判情報に分けて文書分類すること\item係り受けの関係を扱うこと\end{itemize}提案モデルでは,次の2つの分類器を作成する.1つは全体評判情報の分類器,もう1つはNB分類器である.最初に全体評判情報分類器で分類を試みる.この分類器では全体評判情報を抽出し,その極性値を求める.全体評判情報の極性値は評価文書の極性値とほぼ一致するため,評価文書を全体評判情報の極性値に基づき分類する.全体評判情報を含まない評価文書はこの分類噐では分類不可能であるため,このような評価文書は,単語素性のNB分類器を用いて分類する.この手順により本手法では優先的に全体評判情報を用いて評価文書を分類する.実際に全体評判情報として使われる素性は評判情報の3つ組の種類のうち(対象,$\phi$,評価表現)となる.\subsection{2つのレベルを考慮した評価文書の分類手法}全体評判情報の分類器の作成手順を以下に示す.\begin{enumerate}\item学習データ$D$から対象候補単語リストの作成\\対象候補単語はその対象の特徴的な言葉に限定し,人手で設定する.例えば,映画ならば``映画'',``作品''を用いる.\item$D$から評価表現候補単語リストの作成\\単語素性に基づくNB分類器の評価候補単語リストの作成と同様に行う.\item$D$から対象候補と評価表現候補の組み合わせとのマッチングによる全体評判情報候補を作成\\$D$から係り受けの関係にある2文節をすべて抽出し,対象候補と評価表現候補の組み合わせとマッチングしていく.このようにして抜き出されたものを同じ組み合わせであるもの毎に集めて単語集合Wと単語集合の頻度ベクトルXを得る(図\ref{fig:3.5}).\itemNBモデルの作成\\$W$と$X$と式(3)から$P(d|N)$と$P(d|P)$を作成する.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f4.eps}\caption{属性と評価表現の抽出}\label{fig:3.5}\end{center}\end{figure} \section{評価情報の信頼性評価} ここでは,評価情報の信頼性を評価する一手法について述べる.評判情報は主観的な意見であるために,その客観性は乏しく信頼性は低いという問題点がある.このような信頼性の低い情報の中から比較的信頼性の高い情報を抽出できれば有益な情報となる.人間は主に2つの信頼性評価方法を用いていると考えられる.1つは,サイト名などの情報発信者や組織名などの情報を用いる方法である.このような情報を元に情報の信頼性を評価する研究\cite{mui,takehara}があるが,サイトの信頼性が低いからといって全ての評判情報の信頼性が低いわけではない.また,投稿者情報を用いることは匿名性の高さのために困難であることが多い.もう1つの信頼性評価手法は,複数の情報の整合性から評価するものである.これを利用した研究は単純に多数決をとることで客観性を与えるということ\cite{tateishi}しかなされていない.本論文では,信頼性評価の一要素として評価文書と評判情報の極性値に基づく手法を提案する.ここでは,評価文書の極性値とその中の部分評判情報の極性値が異なる場合にその部分評判情報は信頼性が高いと評価する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書について考える.前者のように,ポジティブな極性値を持つ評価文書において,ポジティブな部分評判情報はあまり情報としての価値はない.悪意のある見方をすれば,前者の評判情報は映画の宣伝とも捉えられる.しかし,後者は映画そのものはネガティブと捉えているが,映像に関してはポジティブに評価しているため,客観的でフェアな評判情報と考えられる.このように,評価文書の極性値とは逆の評価を持つ部分評判情報は,他のものよりもフェアであると考えられる.この理由は以下の通りである.\begin{itemize}\item対象全般に対する評価と属性に対する評価が同じになることが一般的であるが,あえて異なる極性値を持つ評価情報を書き込むことは情報としての価値が高い.\item対象に関してポジティブな面とネガティブな面の両方が評価できているため,客観性が高い.\item宣伝や熱狂的なファン,アンチファンの投稿は信頼性が低いが,このような情報を排除できる.\end{itemize}本論文では,このような情報をフェアな評判情報と呼ぶ.このフェアな評判情報を抽出するためには,評価文書と評判情報の極性値も調べることが必要である.つまり,評価文書を分類するタスクと,評価文書から評判情報を抜き出した後,各評判情報を分類するタスクの2つのタスクが必要である(図\ref{fig:3.1}).\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f5.eps}\caption{信頼性評価手法の概要}\label{fig:3.1}\end{center}\end{figure}この2つのタスクの結果,部分評判情報は以下の4種類に分類される.\begin{itemize}\item評価文書としてはポジティブ,部分評判情報としてはポジティブなもの(Pp)\item評価文書としてはポジティブ,部分評判情報としてはネガティブなもの(Pn)\item評価文書としてはネガティブ,部分評判情報としてはポジティブなもの(Np)\item評価文書としてはネガティブ,部分評判情報としてはネガティブなもの(Nn)\end{itemize}フェアな評判情報はPnとNpということになる.本論文では,このように評価文書を分類し,その中の評判情報を分類することでフェアな評判情報とそれ以外の評判情報を区別する.このようにしてフェアな評判情報を抽出する.\subsection{フェアな評判情報の抽出}本節では,フェアな評判情報の抽出法について述べる.フェアな評判情報を抽出するためには,評価文書の分類と,それに含まれている評判情報の抽出およびその分類が必要である.評価文書の分類に関しては,前章で提案した手法を用いる.以下では評判情報の抽出とその分類について述べる\cite{iida}.このタスクにおける評判情報とは部分評判情報を指すため,($\phi$,属性,評価表現)を抽出し,分類するタスクである.このタスクのために,まず,評判情報辞書を作成する.基本的な考え方は辞書にマッチする評判情報候補は評判情報であるというものである.この手法を用いる理由は,既存の研究では様々な条件付けで評判情報候補を絞ることはできても,それが実際に評判情報であるかという分類は難しいとされているためである.辞書の作成には,まず学習データ$D$から属性候補と評価表現候補を抽出することから始める.属性候補に関しては,初期値として属性であると考えられる単語を10程度与える.学習データ$D$中でそれらと助詞—連体化や助詞—並立助詞,つまり「の」や「と」で繋がる名詞を抽出する.このように抜き出された名詞は,対象の属性である可能性が高いため初期値にこれを加え属性候補とする.評価表現候補は,形容詞—自立,動詞—自立,名詞—形容動詞語幹,名詞—サ変接続,副詞—一般,副詞—助詞類接続という品詞で絞り込めるため,これらの品詞を候補とする.このように抽出された属性候補と評価集合の全組み合わせに対して手動でポジティブとネガティブをラベル付けして,正事例として辞書に加える.評価表現でないと判断した組み合わせは負事例として学習していく.このように作成された評判情報辞書を用いることで,分類対象の評価文書から評判情報を抜き出す.\subsection{フェアな評判情報の利用}本手法によって得られた部分評判情報を評価対象毎,カテゴリ毎,ラベル(PpやNn)毎にカウントすることによって,表\ref{class}のような分類結果が得られる.カテゴリとは属性のグループであり,映画のカテゴリでは映像・音楽・ストーリなどである.このカテゴリと属性を一対多で対応させることで,カテゴリ毎,ラベル毎に集計する.この表をユーザに提示することで評判情報が評価できる.例えば,この表でのカテゴリ1,カテゴリ2はともに単なるポジティブとネガティブの多数決をとると,それぞれ100対100と145対145で同じとなる.しかし,フェアな評判情報であるPnとNpを考慮することで,カテゴリ1はポジティブが優勢であり,カテゴリ2はネガティブが優勢であると判断できる.\begin{table}[t]\caption{評判情報の分類}\label{class}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&Pp&Pn&Np&Nn\\\hlineカテゴリ1&14&0&86&100\\\hlineカテゴリ2&145&22&0&123\\\hline\end{tabular}\end{center}\end{table} \section{評価実験} 評価文書分類においてNBモデルと提案手法の比較実験を行った.また,抽出されたフェアな評判情報の有用性について評価する.\subsection{実験設定}実験に用いたデータはポータルサイト``YahooJapan''の``YahooMovie''から収集した.収集したデータは,最近公開されたメジャーな10タイトルにおいてそれぞれ最新の1000レビューを収集したものであり,合計10000レビューである.これらのタイトルを選択したのは,レビュー数が十分であることと,実際に本手法を用いる際には比較的新しい情報を対象とすることが多いと考えたためである.``YahooMovie''のレビューには,投稿者によって点数が5段階で付与されている.本実験では得点が5点あるいは4点のレビューをポジティブとし,2点あるいは1点のものをネガティブとした.3点または“得点なし”は中立とした.表\ref{train}にデータの詳細な内訳を示す.10回交差検定でNBモデルと提案手法の結果を比較した.データの中から,1000レビュー,つまり1タイトル毎に評価データとし,残りのデータである9000レビューを訓練データとした.比較の指標には精度と再現率を用いた.また,評判情報に関する語は自立語に絞られるため,両手法共に素性には自立語のみを利用した.また,否定語である“ない”に関しては,“自立語—ない”の形で扱っている.全体評判情報の最初の対象候補単語リストとしては,映画,作品,ムービーを用いた.部分評判情報の最初の候補単語リストは,映像,CG,画面,音楽,ミュージック,曲,演出,ステージング,脚色,配役,キャスティング,キャスト,物語,ストーリー,話を用いた.\begin{table}[t]\caption{実験データ}\label{train}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineデータ&ポジティブ&ネガティブ&合計\\\hlineタイトル1&647&242&889\\\hlineタイトル2&426&356&782\\\hlineタイトル3&592&207&799\\\hlineタイトル4&750&149&899\\\hlineタイトル5&812&122&934\\\hlineタイトル6&790&131&921\\\hlineタイトル7&547&261&808\\\hlineタイトル8&426&396&822\\\hlineタイトル9&654&283&937\\\hlineタイトル10&542&298&840\\\hline合計&6186&2445&8631\\\hline\end{tabular}\end{center}\end{table}\subsection{全体評判情報による分類評価}ここでは,全体評判情報が実際に評価文書分類に有用であるかの評価のために,全体評判情報を人手で抽出し,全体評判情報と評価文書の評価がどの程度一致するかを調べた.ここでの人手による全体評判情報の抽出は,「良かった」,「最悪」などの一単語で明確に評価が分かるものに限定し,「ちょっと...」,「心に残る」などの分かりにくい表現は抽出に用いなかった.500のレビューを人手で評価した結果,全体評判情報は178のレビューに含まれており,そのうち162のレビューでは全体評判情報と評価文書の極性値が一致した.また,一致しなかった16のレビューに関しても,評価文書の評価値はすべて3点となっており,中立の評価となった.したがって,全体評判情報によって逆の極性値を取るものはなかった.全体評判情報が含まれている文書は全体の1/3以上であり,全体評判情報が一般的な情報であることがわかった.以上のことから,全体評判情報が評価文書分類に有用であることが示唆された.更に,提案手法において全体評判情報がNBよりも高い精度で抽出できれば評価文書の分類精度が向上することが予測される.\subsection{評価文書分類の実験結果}評価文書分類の実験結果を表\ref{result}に示す.値は10回交差検定の平均値である.P精度,P再現率とは,それぞれポジティブな評価文書に対する精度,再現率を表しており,N精度,N再現率,全体精度,全体再現率はそれぞれネガティブな評価文書と全評価文書に対する精度と再現率を表す.人間がこの分類を行った場合,9割強の精度で分類できるが,完全には分類できないと思われる.この理由は内容に関して述べているだけで評価につながる表現がないレビューやポジティブとネガティブの両方の評価が書いてあるが,結局全体としてどちらに評価したのかがわからない場合が挙げられる.\begin{table}[b]\caption{評価文書の分類結果}\label{result}\begin{center}\begin{tabular}{|c|c|c|c|c||c|c|}\hline&P精度&P再現率&N精度&N再現率&全体精度&全体再現率\\\hlineNBモデル&0.832&0.7943&0.538&0.578&0.741&0.733\\\hline提案モデル&0.848&0.799&0.570&0.639&0.771&0.760\\\hline\end{tabular}\end{center}\end{table}実験結果としては,提案モデルがNBモデルをすべての精度,再現率において上回った.これは全体評判情報を用いて分類したためと考えられる.本手法の方が正確に分類した例として「先日,見てきました.とても面白かったです.ですが,レンのお腹….あれはないかと….ちょっと失笑してしまいました.もう少し役作りして欲しかったです.」というレビューがある.このレビューでは,「とても面白かった」という全体評判情報によってポジティブな投稿であると本手法では判定しているが,NBモデルでは,それ以外の単語も考慮しているため,この影響でネガティブに分類された.しかしながら,全体の精度と再現率に関してはNBモデルと提案手法のt検定による有意差はなかった.この原因は,明らかに全体情報でない候補に対して強い特徴づけをしていることが主として挙げられる.本手法による全体評判情報の抽出精度は82\%であり,全体評判情報をさらに高い精度で抽出する必要がある.全体評判情報の抽出精度を上げるには辞書の拡充があげられるが,人手によるコストが大きくなる.また,ネガティブな評価文書に関する性能の低さは,ポジティブと比べて,学習データが少ないことが原因として考えられる.これは,学習データ数を揃えることで解決できそうであるが,ネガティブな評価文書数は表\ref{train}からもわかるように少なく,揃えることが容易ではない.また,日本人の特徴である“否定的な事ははっきり言わない”ということを考えると,数を揃えるだけでは対処できない場合もある.例えば「ちょっと…」のような表現がある.分類誤りは,Yahooの得点とは逆の内容を書いている,ということを除けば以下のような例がある.\begin{itemize}\item全体評判情報の候補リストに誤っているものが含まれている場合\\例えば,(映画,$\phi$,聞く)(映画,$\phi$,感じる)などがネガティブな候補として上位となった.これらの全体評判情報は極性値を決定するものではないが,分布の偏りによってはこのように全体評判情報の候補となる.このリストを基に分類器を作成するため,分類精度を下げることになった.\item他人のレビューを引用して否定している場合\\``「最高の映画」なんて書いている人がいるけど''のように逆の見地をとる投稿者の評判情報部分を引用していることがある.この問題に対処するためには,引用部分を見分ける必要がある.\end{itemize}\subsection{フェアな評判情報の評価}ここでは,フェアな評判情報を評価する.映画の評判を多数決を用いて評価した場合とフェアな評判情報のみを用いて多数決を用いて評価した場合を比較し,どちらが世間的な評価に近いかを確認する.世間的な評価を完全に把握することは困難であるが,ここでは著者の1名が多くのレビューを読むことで世間的な評価を判断した.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{NANAの評判情報の分類結果}\label{result2}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&Pp&Pn&Np&Nn\\\hline映像&9&0&0&0\\\hline音楽&98&2&24&2\\\hlineキャスト&143&15&25&34\\\hlineストーリ&163&72&61&42\\\hline\end{tabular}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\caption{オペラ座の怪人の評判情報の分類結果}\label{result3}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hlineオペラ座の怪人&Pp&Pn&Np&Nn\\\hline映像&65&1&7&0\\\hline音楽&172&7&25&10\\\hlineキャスト&71&8&11&7\\\hlineストーリ&147&3&18&2\\\hline\end{tabular}\end{center}\end{minipage}\end{table}実際のデータに対して本手法を適用し,評判情報を分類した.評価データとしてどのように世間的に評価されているかがよく知られているため,``NANA''と``オペラ座の怪人''の2つの映画のレビューを用いた.表\ref{result2},表\ref{result3}にその分類結果を示す.表中の数値はデータ中に含まれていたそれぞれのカテゴリの評判情報の数である.NANAの分類結果を見てみると,音楽カテゴリにおいてPnに対してNpが多く,ポジティブである可能性が高いと考えられる.オペラ座の怪人の音楽カテゴリにおいても同様のことが言える.実際にこの両作品に関しては音楽的な評価が高かったと考えられるため,世間的な評価と一致している.しかし,これらの結果は単純な多数決でも同様の結果が得られる.NANAのストーリに注目すると,単純な多数決をとった場合,224対114となりポジティブの方が多い.しかし,フェアな評判情報であるPnとNpを比較すると61対72となりネガティブの方が多くなる.NANAのストーリは世間的には原作とのギャップから評価が低かったことを考えると,ネガティブとする方が妥当である.これはフェアな評判情報のみを用いた場合と一致している.このようにフェアな評判情報を用いることで,世間的な評価を抽出できる可能性を示唆した.このように評判情報の分類結果を用いることで,評判情報の多様な解析が可能となる. \section{おわりに} 本論文では,評判情報の2つのレベルを考慮した評価文書の分類手法を提案した.全体評判情報を用いて評価文書を分類し,その後に部分評判情報を用いて分類することによって,分類精度の向上を試みた.映画のレビューを用いた実験の結果,ナイーブベイズによる手法よりも分類精度が向上することを確認した.また,評価文書の極性値と評判情報の極性値を利用することで,信頼性の高い情報を抽出するための一手法を提案した.評価文書の極性値とその中の評判情報の極値が異なる場合,その評判情報をフェアな評判情報であるとし,信頼性の高い情報とした.実験により,フェアな評判情報が評判情報を評価する際に1つの指標となる可能性を示した.今後の課題としては,フェアな評判情報および,評判情報の分類結果から読み取れる情報の利用法があげられる.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chaovalit}{Chaovalit}{2005}]{chaovalit}Chaovalit,P.andZhou,L.\BBOP2005\BBCP.\newblock\BBOQMovieReviewMining:aComparisonbetweenSupervisedandUnsupervisedClassificationApproaches\BBCQ\\newblockIn{\BemProceedingsofthe38thHawaiiInternatioanlConferenceonSystemSciences}.\bibitem[\protect\BCAY{Dave,Lawrence,Pennock}{Dave\Jetal}{2003}]{dave}Dave,K.,Lawrence,S.,andPennock,D.M.\BBOP2003\BBCP.\newblock\BBOQMiningthepeanutgallery:Opinionextractionandsemanticclassificationofproductrevews\BBCQ\\newblockIn{\BemProceedingsofWWW},\BPGS\519--528.\bibitem[\protect\BCAY{飯田,小林,乾,松本,立石,福島}{飯田\Jetal}{2005}]{iida}飯田龍,小林のぞみ,乾健太郎,松本裕治,立石健二,福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出を目的とした機械学習による属性—評価値の同定\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{165},\BPGS\21--28.\bibitem[\protect\BCAY{鍛冶,喜連川}{鍛冶\JBA喜連川}{2005}]{kaji}鍛冶伸裕,喜連川優\BBOP2005\BBCP.\newblock\JBOQ依存構造を考慮した評価文書の分類\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{170},\BPGS\15--20.\bibitem[\protect\BCAY{Morinaga}{Morinaga\Jetal}{2002}]{morinaga}Morinaga,S.,Ymamanishi,K.,Tateishi,K.,andFukushima,T.,\BBOP2002\BBCP.\newblock\BBOQMiningProductReputationsontheWeb\BBCQ\\newblockIn{\BemProceedingsofSIGKDD02}.\bibitem[\protect\BCAY{Mui}{Mui}{2002}]{mui}Mui,L.,Halberstadt,A.,andMohtashemi,M.\BBOP2002\BBCP.\newblock\BBOQAComputationalModelofTrustandReputaion\BBCQ\\newblockIn{\BemProceedingsofthe35thHawaiiInternatioanlConferenceonSystemSciences}.\bibitem[\protect\BCAY{鈴木,高村,奥村}{鈴木\Jetal}{2004}]{suzuki}鈴木泰裕,高村大也,奥村学\BBOP2004\BBCP.\newblock\JBOQWeblogを対象とした評価表現抽出\JBCQ\\newblock人工知能学会,SIGSW\&ONT-A401-2.\bibitem[\protect\BCAY{竹原,中島,角谷,田中}{竹原\Jetal}{2004}]{takehara}竹原幹人,中島伸介,角谷和俊,田中克己\BBOP2004\BBCP.\newblock\JBOQWeb情報検索の為のBlog情報に基づくトラスト値の算出方法\JBCQ\\newblock日本データベース学会Letters,\textbf{3}(1),\BPGS\101--104.\bibitem[\protect\BCAY{立石,石黒,福島}{立石\Jetal}{2001}]{tateishi}立石健二,石黒義英,福島俊一\BBOP2001\BBCP.\newblock\JBOQインターネットからの評判情報検索\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{144},\BPGS\75--82.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{turney}Turney,P.D.\BBOP2002\BBCP.\newblock\BBOQThumbsUporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\417--424.\bibitem[\protect\BCAY{矢野,目良,相沢}{矢野\Jetal}{2004}]{yano}矢野宏実,目良和也,相沢輝昭\BBOP2004\BBCP.\newblock\JBOQ趣向を考慮した評判情報検索手法\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{164},\BPGS\165--170.\end{thebibliography}\begin{biography}\bioauthor{安村禎明}{1993年大阪大学基礎工学部卒業.1998年同大学院基礎工学研究科博士後期課程修了.同年東京工業大学大学院助手.2004年神戸大学工学部助教授.現在,同大学大学院工学研究科准教授.博士(工学).機械学習,テキストマイニング,エージェントに関する研究に従事.人工知能学会,電子情報通信学会,情報処理学会,IEEE各会員.}\bioauthor{坂野大作}{2004年岡山県立大学情報工学部卒業.2006年神戸大学大学院自然科学研究科情報知能工学専攻修了.現在,NTTコミュニケーションズ株式会社に勤務.在学中,テキストマイニングの研究に従事.}\bioauthor{上原邦昭}{1978年大阪大学基礎工学部情報工学科卒業.1983年同大学院博士後期課程単位取得退学.大阪大学産業科学研究所助手,講師,神戸大学工学部情報知能工学科助教授,同都市安全研究センター教授,同大学大学院自然科学研究科教授を経て,同大学院工学研究科教授.工学博士.人工知能,特に機械学習,マルチメディア処理の研究に従事.情報処理学会,人工知能学会,電子情報通信学会,計量国語学会,日本ソフトウェア科学会,AAAI各会員.}\end{biography}\biodate\end{document}
V32N01-02
\section{はじめに} 実世界の事物を考慮してユーザ(話者)と共同作業が可能な対話ロボット・システムの実現は,Vision-and-Language研究が目標とする到達点の1つである.こうした共同作業においては,システムは自身が見ている視覚情報と話者が発する言語情報を統合・理解して,適切な応答を返す能力を備える必要がある.この実現に向けて,画像を交えた質問応答(VQA:VisualQuestionAnswering)\cite{C18-1163,original_VQA,balanced_vqa_v2}や,画像と対話履歴を考慮した質問応答(VisualDialogue)\cite{visdial,agarwal-etal-2020-history}といったタスクがこれまで提案されてきた.これまでのVQAは,基本的に質問の意図は明確であり,システムがどう応答すればよいかも一意に定まるという状況を想定していた.しかし,実際の話者とシステムの会話においては,指示語の発生に起因した曖昧性が含まれており\cite{4399120,survey_language_and_robotics},これらの曖昧性をVQAでは陽に扱っていない.例えば,「それ取ってきてもらえる?」という質問は,「それ」という指示語が原因で複数の解釈を持つ可能性がある.さらに,日本語のような言語における会話では,指示語に加え,主語・目的語といった話題となる項の省略も発生する\cite{seki-etal-2002-probabilistic,sasano-etal-2008-fully}.こうした指示語や省略に起因する曖昧性は,その質問が行われた対話の場における実世界の情報を正しく参照し,利用することで解消可能な場合が多い.例えば,話者の視線情報\cite{EMERY2000581}や指差し\cite{nakamura2023ICCV},あるいは共同注視\cite{rocca2018CogSci}は,指示語や省略の参照先を明らかにするための重要な手がかりである.本研究では,こうしたユーザ(話者)とシステムの会話に生じる曖昧性を,視線や指差しを介したインタラクションにもとづいて解消する課題を考える.本課題をVQAとして定式化し,視線や指差しを適切に利用できるシステムを研究開発することを目的とする.この目的の達成に向けて,本研究では,日本語で記述された質問を対象とした視線情報付きVQAデータセット(LookVQA),および話者の視線情報を考慮する質問応答モデルを提案する.LookVQAのタスクは話者の注視対象に関するVQAタスクであり,モデルは視線情報を入力とした注視対象推定タスクを前提とする.ただし,これらのタスクは分離しているため,視線情報より明示的なインタラクションである指差し情報を入力とする場合においても,本データセットが転用できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{LookVQA:視線情報付きVQAデータセット}図~\ref{fig:1_1}に示すように,LookVQAは画像内の人物を話者とみなし,話者が発する指示語・省略が含まれる曖昧な質問に対し,話者の視線情報を考慮してシステムが回答する状況を想定する.視線元と注視先のアノテーションが施されたGazeFollow\cite{nips15_recasens}に含まれる一般物体認識用の画像データサブセット(COCO)\cite{10.1007/978-3-319-10602-1_48}を対象に,注視対象に関する質問と回答をクラウドソーシングにて収集した.実際に視線情報がないと回答が困難な質問を収集するため,ワーカは質問作成時に注視対象について言及していない.10,760件の画像に対し,17,276件の質問・回答ペアを収集し,このうち1,680件の質問・回答ペアをテストセットとした.テストセットの各質問には,曖昧な質問に対応して,回答が一意に決定できるよう書き換えが行われた明確な質問,および10件の人手回答が用意されている.このため,本データセットは日本語のVQAとしても利用可能であり,回答の多様性・同義性を考慮したモデルの評価を実施することができる.構築したデータセットは商用利用な形式で公開している\footnote{\url{https://github.com/riken-grp/LookVQA}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{32-1ia1f1.eps}\end{center}\hangcaption{本研究で提案する視線情報付きVQAデータセットの質問と回答の例.角括弧は省略された物体名.視線元の点に対応する注視先の点が複数個付与されている.}\label{fig:1_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{視線情報を考慮する質問応答モデル}LookVQAの質問に正確な回答を与えるため,画像・質問に加え視線情報を利用する質問応答モデルを提案する.これまでのVision-and-Languageの研究では,画像・質問を入力とし,回答を生成するモデルが提案されてきた\cite{mokady2021clipcap,pmlr-v139-cho21a}.本研究では,テキスト・画像をクエリとした物体セグメンテーションの研究\cite{lueddecke22_cvpr}に着想を得て,VQAを扱えるベースライン\cite{mokady2021clipcap}に線形層のアダプタ\cite{Dumoulin2018_FiLM}を追加する.アダプタは注視対象を表す注視領域と全体画像を統合する役割を持ち,アダプタの追加によりモデルは注視対象部分に焦点を置くことが可能となる.画像から得られる情報を限定して,曖昧な質問に対し適切な回答を得ることを期待する.実験では,ベースラインと提案モデルを日本語キャプション\cite{yoshikawa-etal-2017-stair}および日本語VQA\cite{C18-1163}で学習し,LookVQAで評価を行った.注視領域の推定には既存の注視対象推定モデル\cite{Chong_2020_CVPR}を用いた.実験条件として,視線情報をアダプタで用いる場合(正例,推定値)と用いない場合を比較した.視線情報を用いた提案モデルは,注視対象の属性を問う質問タイプに精度良く回答ができ,ベースラインと比較してテストセット全体の性能が向上した.一方で,画像全体の理解を要する質問タイプに対しては,ベースラインが正確な回答を与える傾向にあった.また,物体の位置関係を問う質問や物体の個数を問う質問といった質問タイプは,いずれのモデルも正確に回答を与えることが困難であることが判明し,LookVQAのタスクを扱うモデルにおける改善の方向が明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{VQA:画像に対する質問応答}VisualQuestionAnswering(VQA)は,画像に関する質問に対してシステムが回答を与えるタスクであり,画像処理と自然言語処理の融合分野であるVision-and-Languageのタスクの1つに位置する\cite{original_VQA,balanced_vqa_v2,C18-1163}.その問題設定として,あらかじめ用意された回答群から回答を選択する形式(選択型のVQA)\cite{original_VQA,balanced_vqa_v2}や自由に回答を生成する形式(自由回答型のVQA)\cite{C18-1163}がある.基本的に,VQAの質問は画像の情報から回答が一意に定まるよう設定されているが,本研究は視線情報を持たない場合に曖昧になるような質問を研究対象としている.このため,視線元となる人物を含む画像と注視対象の物体名が明記されていない質問を,自由回答型の設定で収集した.また,\citeA{original_VQA,balanced_vqa_v2}にならって,10件の回答をテストセットの各質問に付与し,回答の多義性・多様性を考慮した評価を実施できるようにする.選択型のVQAを扱う初期のモデルは,質問文に応じた画像特徴を注意機構\cite{10.5555/3295222.3295349}を用いて取得し,その特徴を利用して回答を出力することを志向していた\cite{NEURIPS2018_96ea64f3,Dumoulin2018_FiLM}.大規模なテキスト・画像データで学習された事前学習済みモデル\cite{radford2019language,2020t5,pmlr-v139-radford21a}の登場以後,これらのモデルを利用した生成型のVQAを扱うモデルが提案されてきた\cite{mokady2021clipcap,pmlr-v139-cho21a,sung2022vladapter}.近年では,大規模言語モデルを利用したモデルが台頭しており\cite{openai2023gpt4},医用画像やビジネス文書を対象とした幅広いVQAタスクにおいて,その有効性が確認されている\cite{yue2023mmmu}.提案モデルは,先に述べた事前学習済みモデルを利用したVQAモデルをベースとしている\cite{mokady2021clipcap}.また,LookVQAの質問文に応じた,全体画像と注視対象の画像特徴を取得するべく,選択型のVQAで提案された複数の特徴の統合手法\cite{Dumoulin2018_FiLM}を提案モデルに導入している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問応答における曖昧性}質問応答システムのユーザの質問に生じる曖昧性に関する課題は,オープンドメイン質問応答\cite{min-etal-2020-ambigqa,xu-etal-2019-asking}や対話を伴う質問応答\cite{nakano-etal-2022-pseudo}の分野で活発に扱われている.例えば\citeA{xu-etal-2019-asking}では,回答が複数存在する質問を曖昧であるとみなし,名詞語義の曖昧性に起因した曖昧さや代名詞と省略に起因する曖昧さを,曖昧性解消の対象として扱っている.これまでに,外部文書に基づいた質問の書き換え\cite{min-etal-2020-ambigqa}や,ユーザの意図を特定する明確化質問の生成\cite{nakano-etal-2022-pseudo}といった曖昧性解消の手法が検討されてきた.VQAの質問においても曖昧性の議論は存在する.一般的なVQAデータセットに含まれる質問のうち,およそ半分は回答に複数の可能性があることが示されている\cite{10.1145/3025453.3025781}.この現象は,画像内の事象・対象物が不鮮明な場合あるいは質問が曖昧である場合に生じる\cite{bhattacharya2019does}.とくに後者は,画像中の物体に対する参照表現\footnote{複数物体から特定の物体を区別するための言語表現.}が質問に含まれていない場合\cite{Li_2017_ICCV,mani2020point}や構文・語義的な曖昧性が質問に生じている場合\cite{stengel-eskin-etal-2023-chicken}に分けられ,視覚情報および意味役割タグ付きコーパス\cite{kingsbury-palmer-2002-treebank}に基づく質問の書き換えによりその曖昧性解消が実現されてきた.本研究はVQAの質問の曖昧性のうち参照表現の不十分さに起因する状況を想定するが,質問の書き換えを通さず,画像から得られた追加の情報をもとに曖昧な質問を理解する点において,これらの先行研究とは異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈情報付きVQAデータセット}画像と質問に加え多様な文脈情報を収録したVQAデータセットがこれまで提案されてきた.VisualDialogue\cite{visdial,agarwal-etal-2020-history}は,対話中に発生するユーザの曖昧な質問に対し,過去の対話履歴を参照して,正確な回答を導くことに焦点を当てている.\citeA{das-etal-2016-human},\citeA{sood-etal-2021-vqa},および\citeA{ilaslan-etal-2023-gazevqa}では,質問を解く際に生じる人間の主観的な注視情報を用いることで,VQAタスクやVideoQAタスクの精度改善を図った.\citeA{mani2020point}では,画像に与えられた点情報を用いて,代名詞を含む曖昧な質問に回答することに焦点を当てている.LookVQAは,ロボットなどの第三者がユーザの視線情報を用いることを指向して,追加の文脈情報として画像情報から得られる話者の注視情報を利用する点が大きく異なる.また,日本語特有の主語や目的語の省略を含む質問を収集した点も重要な違いである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{注視対象推定}注視対象推定は画像に映る人物の頭部画像からその人物が注視している物体を推定するタスクである.GazeFollow\cite{nips15_recasens}は,人物の視線元と注視先のアノテーションが付与された注視対象推定データセットの1つである.COCO\cite{10.1007/978-3-319-10602-1_48}を含む様々な画像データセットから収集した人物を対象にしている.その他に,小売店の環境で撮影した画像を対象に視線情報と物体情報を対応づけたデータセットも存在する\cite{tomas2021goo}.本研究では,特定の環境を仮定していないため,GazeFollowをベースとしてLookVQAを構築した.GazeFollowに含まれる視線情報は注視先が常に物体と紐付いておらず,注視対象の具体的な名称までは判別できていない.そこで,GazeFollowのCOCOサブセットの物体情報を利用し,注視先の物体に関する質問と回答を収集した.実際に注視対象推定を行う際は,GazeFollowの視線元に対応付けられた人物の頭部画像を利用した\cite{Chong_2018_ECCV}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{LookVQA:視線情報付きVQAデータセット} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク設定}視線情報付きVQAデータセット(LookVQA)では質問をする話者がシステムの一人称視点画像に映っていることを仮定する.そこで,LookVQAのタスクは画像,話者の質問,および話者の視線情報を考慮して回答を生成することを目標とする.本タスクの定義を以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{視線情報付きVQAタスク}全体画像$\mathbf{I}$,質問$\mathbf{q}$,および注視対象を表す注視領域$\mathbf{I}_{s}$から,回答$\mathbf{y}$を出力する.以後,このタスクをLookVQAタスクと呼ぶ.$\mathbf{I}_{s}$を取得するための注視対象推定タスクの定義を以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{注視対象推定タスク}全体画像$\mathbf{I}$と発話者の頭部画像$\mathbf{I}_{h}$から$\mathbf{I}_{s}$を取得する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ収集}\label{sec:collect_qa}LookVQAの構築プロセスを図~\ref{fig:3_1}に示す.LookVQAの質問はGazeFollowの注視先に位置する物体(注視対象)を対象にしている.視線情報と物体情報が対応づいた質問を収集するため,GazeFollowのCOCOサブセットに含まれる画像$\mathbf{I}$と注視対象を対象に,質問$\mathbf{q}$と10件の回答$\mathbf{y}$の組$(\mathbf{I},\mathbf{q},\mathbf{Y})$をクラウドソーシング\footnote{株式会社クラウドワークス,\url{https://crowdworks.jp/}}により収集した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{32-1ia1f2.eps}\end{center}\caption{LookVQAの構築プロセス.}\label{fig:3_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Step1:画像と視線情報の選定}質問と回答を収集する前に,前処理として視線情報の選別を行い,機械的に14,000件の画像・視線情報ペアを選定した.Gazefollowに含まれる視線情報の中には,視線先が画像枠外を指しているケースや視線先そのものが誤っているケースが存在する.視線情報に対する再アノテーションのコストを除去するべく,COCOの物体セグメンテーションを利用し,視線が物体を指していないケースを除いた.具体的には,GazeFollowとCOCOで共通する画像を対象に,注視先の点が物体セグメンテーションに含まれているGazeFollowの訓練・テストセットのアノテーションを抽出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Step2:質問と回答の収集}クラウドソーシングにより,26,296件の質問・回答を収集した.視線情報が付与された画像とCOCOの物体ラベルをもとに,注視先の物体に関する質問とその回答のペアを,同一のワーカが作成する\footnote{ワーカへの報酬は10件の質問・回答ペアあたり80円と設定した.}.ただし,画像が不鮮明である場合,注視対象が確認できない場合,あるいは物体ラベルに誤りがある場合は,ワーカに質問と回答の作成をしないよう依頼した.ワーカに対して与えた,質問と回答を作成する際の注意事項を以下に示す.\begin{itemize}\item質問の文字数は10文字以上とする.\item注視対象の物体名は質問文中に含めない.\item画像内の情報のみで回答できる質問を作成する.\end{itemize}第1・第2の項目は,それぞれ,多様な質問・回答に視線情報を要する質問をデータセットに含める目的で設定した.第3の項目は,画像の内容以外で曖昧になる質問をデータセットに含めない目的で設定した.例えば,「彼はこの後何をするでしょうか?」といった常識を要する質問で生じる曖昧さは本研究で扱わない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Step3:質問と回答の選別}画像と対応していない質問を除くべく,17,276件の質問・回答ペアを選定した.Step2の質問を入力する作業の途中で,設問(「本項目には文字を入力しないでください」)を配置した.この設問に対して回答を与えたワーカの質問を手作業で確認した.この結果,作業を依頼した246名のワーカのうち,27名のワーカのアノテーション結果をLookVQAから除いた.これらのワーカの入力はあらゆる画像に対して同じ質問を繰り返しているといった問題があった.この結果得た曖昧な質問を$\mathbf{q}_{AQ}$,それに対する回答を$\mathbf{y}_{0}$とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Step4:テストセットの整備}\label{sec:step4}LookVQAの訓練・開発・テストセットにおける質問・回答ペアの件数を,13,785件・1,811件・1,860件(およそ,0.8:0.1:0.1)とした.本研究では,注視対象の物体名・人物の特徴が補完された明確な質問($\mathbf{q}_{CQ}$)をアノテータの作業によりテストセットの質問全てに割り付けている.このため,本データセットは従来のVQAベンチマークとしても利用可能である.アノテータは曖昧な質問と回答および視線情報を参照し,質問に含まれる指示語や省略を注視対象の物体名や参照表現で書き換えあるいは補完することで,$\mathbf{q}_{AQ}$を$\mathbf{q}_{CQ}$へ改訂した.ユニークな質問を得るため,回答に準ずるフレーズは$\mathbf{q}_{CQ}$に含めず,かつ必要に応じて物体同士の位置関係や物体の属性情報を含めるように依頼した.さらに,先行研究\cite{original_VQA}にならって,回答の多義性・同義牲をLookVQAの評価で保証するためテストセットに回答を10件割り付けた.具体的には,画像,画像中の視線元の人物,および$\mathbf{q}_{AQ}$のみをワーカに与え,テストセットの質問1件につき9人のワーカが回答を追加で作成した\footnote{ワーカへの報酬は10件の回答あたり80円と設定した.}.オリジナルの回答$\mathbf{y}_{0}$に加えて新しい9件の回答$\mathbf{y}_{\{1:9\}}$を付与したセットを$\mathbf{Y}$とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計的分析}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{LookVQAと既存のデータセットの比較}LookVQAと日本語VQAデータセット(VQA-ja)\cite{C18-1163}の統計量を比較する.LookVQAに関して,\ref{sec:collect_qa}節のStep3時点で収集した質問と回答に対し,前処理としてテキスト正規化\footnote{\url{https://github.com/ikegami-yukino/neologdn}による正規化処理を質問・回答に適用した.回答のみ,記号を除去し,数字をアラビア数字へ統一した.}を施した場合の統計量を報告する.表~\ref{tab:3_1}にそれぞれのデータセットの統計情報を示す.表~\ref{tab:3_1}より,LookVQAのユニークな質問の割合(46.46\%)はVQA-jaの割合(45.21\%)よりも多く,質問の平均文字長はLookVQAの方が長い.また,LookVQAのユニークな回答の割合(33.87\%)は日本語VQA(17.10\%)より多く,回答の平均文字長はLookVQAの方が長い.表~\ref{tab:3_2}にLookVQAに含まれる質問タイプの類型を示す.表~\ref{tab:3_2}より,LookVQAに含まれる``what''形式の質問の割合は81.85\%である.\citeA{C18-1163}のTable1より,VQA-jaに含まれる``what''形式の質問の割合は67.10\%であることから,LookVQAはVQA-jaよりも``what''形式の質問の割合が14.75\%多い.物体の位置関係を問う``where''形式の質問や物体の個数を問う``how''形式の質問の割合は,あわせて12.04\%である.LookVQAには,その他に,現在時刻を問う``when''タイプの質問や人物に関する``who''タイプの質問も収録されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1and2\begin{table}[b]\setlength{\captionwidth}{200pt}\raisebox{2.5\normalbaselineskip}[0pt][0pt]{%\begin{minipage}[t]{200pt}\input{01table01.tex}%\hangcaption{LookVQAと日本語VQA(VQA-ja)の\\統計情報.}\label{tab:3_1}\end{minipage}}%\hfill\begin{minipage}[t]{200pt}\input{01table02.tex}%\hangcaption{LookVQAの質問の類型.各質問は日本語表現に含まれる単語にもとづいて分類した.}\label{tab:3_2}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{01table03.tex}%\hangcaption{LookVQAのテストセットにおける述語項関係の頻度.AQは\ref{sec:collect_qa}節のStep3で得た曖昧な質問.CQはアノテータの作業により明確化した質問.}\label{tab:3_3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{質問に含まれる省略}LookVQAに含まれる省略の種類を確認するべく,表~\ref{tab:3_3}にLookVQAのテストセットに含まれる質問における述語項関係の頻度を報告する.テストセットに含まれる全ての曖昧な質問($\mathbf{q}_{AQ}$)および明確な質問($\mathbf{q}_{CQ}$)に対し,日本語の統合解析ツール\cite{ueda-etal-2023-kwja}を用いて述語項関係を集計した.表~\ref{tab:3_3}より,LookVQAのテストセットにおいて$\mathbf{q}_{AQ}$は$\mathbf{q}_{CQ}$と比較してガ格やヲ格の省略を頻繁に含むことがわかる.この結果から,特に日本語においてしばしば起こる主語や目的語の省略が行われた発話が収録できていることが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事例分析}LookVQAにおける曖昧な質問とその回答の特徴を明確にするため,LookVQAのテストセットに含まれる各回答の類似度に関する分布を示し,事例分析を実施する.\ref{sec:collect_qa}節のStep3時点で得た質問$\mathbf{q}_{AQ}$・回答$\mathbf{y}_{0}$は同一のワーカが割り付けたペアであり,Step4で得た9件の回答$\mathbf{y}_{\{1:9\}}$はそれぞれ異なるワーカが割り付けたものである.このため,Step3で得た回答$\mathbf{y}_{0}$を参照文として,参照文とStep4の回答$\mathbf{y}_{\{1:9\}}$の類似度を算出する.図~\ref{fig:3_2}にBLEU-1\cite{papineni-etal-2002-bleu},METEOR\footnote{\url{https://omwn.org/}を用いて日本語の類義語を考慮した評価を実施した.語幹は評価で考慮していない.}\cite{banarjee2005},およびBERTスコア\footnote{\url{https://huggingface.co/bert-base-multilingual-cased}の単語分散表現を利用した.}\cite{Zhang*2020BERTScore:}で算出したテストセットにおける回答の分布を示す\footnote{あらかじめ,\url{https://taku910.github.io/mecab/}を用いて,回答に対し形態素解析を適用した.}.図~\ref{fig:3_3}にテストセットに含まれる例を示し,各例における回答の類似度を表~\ref{tab:3_4}に示す.さらに,注視対象の候補数と回答の多様性を確認するべく,表~\ref{tab:3_5}に注視対象の候補数ごとに算出した回答の類似度を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\vspace{-0.6\Cvs}\begin{center}\includegraphics{32-1ia1f3.eps}\end{center}\caption{BLEU-1,METEOR,BERTスコアで算出した回答の類似度に関する分布.}\label{fig:3_2}\vspace{-0.4\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:3_3}(a,b,c)はいずれのスコアも高い値を示し,ワーカ間の回答が一致した事例である.図~\ref{fig:3_3}(d,e,f)は1-gramベースの評価指標(BLEU-1,METEOR)のスコアが低い値を示した事例である.指示語による曖昧さを持つ質問(図~\ref{fig:3_3}(a))や日本語特有の省略による曖昧さを持つ質問(図~\ref{fig:3_3}(b))であってもワーカ間の回答は一致している.図~\ref{fig:3_3}(e,f)は回答の類似度が低い事例であるが,回答に同義な単語や数値が多く見られ,複数ワーカ間の回答が一致している.図~\ref{fig:3_2}で示した回答の類似度が低い事例には,図~\ref{fig:3_3}(e,f)のような回答の同義表現を多く有する事例が存在する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{32-1ia1f4.eps}\end{center}\hangcaption{LookVQAのテストセットに含まれる実例.AQ,CQは表~\ref{tab:3_3}のキャプション参照.太字は\ref{sec:collect_qa}節のStep3で得られた回答である.}\label{fig:3_3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[p]\input{01table04.tex}%\caption{図~\ref{fig:3_3}の各例におけるBLEU-1,METEOR,BERTスコア.}\label{tab:3_4}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{01table05.tex}%\caption{注視対象の候補数ごとに算出したBLEU-1,METEOR,BERTスコア.}\label{tab:3_5}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%注視対象の候補が2つ以上の場合と1つの場合における,回答の類似度の変化を報告する.表~\ref{tab:3_5}より,いずれのスコアにおいても顕著な変化は確認されなかった.これは,注視対象の候補が2つ以上の場合でも質問の内容を考慮すると,その回答が1つに決定できる事例(図~\ref{fig:3_3}(c))がLookVQAに含まれることに起因すると推察される.図~\ref{fig:3_3}(d)は視線情報や質問文の内容を考慮しても回答にばらつきがある事例である.この場合,注視対象の候補数が複数存在することに起因して複数ワーカ間の回答が一致しなかったと言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{視線情報を考慮する質問応答モデル} 本節ではLookVQAに対して実際に視線情報を考慮した回答生成が可能な質問応答モデルの構築方法を説明する.一般的な環境でパラメータチューニングが容易なベースラインとして,ClipCap\cite{mokady2021clipcap}およびVL-T5\cite{pmlr-v139-cho21a}に基づく手法を用いる.また,ClipCapにアダプタを追加するモデル(ClipCap+Adapter)を提案する.提案モデル中で注視領域を得るための注視対象推定についても説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースライン}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ClipCap}ClipCapは事前学習済みの画像エンコーダ\cite{pmlr-v139-radford21a}・言語デコーダ\cite{radford2019language}で構成された画像キャプションモデルであり\cite{mokady2021clipcap},VQAタスクに対しても適用事例がある\cite{10.1007/978-3-031-20074-8_9}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{画像エンコーダ}ClipCapの画像エンコーダは,RGBの全体画像$\mathbf{I}\in\mathbb{R}^{W\timesH\times3}$を入力として,言語デコーダへ入力可能な画像ベクトル集合$\mathbf{r}=\{\mathbf{r}_1,\dots,\mathbf{r}_n\}$を出力する.ただし,$W$・$H$はそれぞれ画像の横・縦の画素数,$n$は$\mathbf{r}$の要素数であり,$\mathbf{r}$の要素$\mathbf{r}_i$は質問$\mathbf{q}$のトークン埋め込み\footnote{言語デコーダのTokenizerが出力するトークン毎のベクトルを意味する.}と同じ次元を持つ.CLIP\cite{pmlr-v139-radford21a}の画像エンコーダと単一の線形層$f(\cdot)$により,全体画像$I$をベクトル集合$\mathbf{p}=\{\mathbf{p}_1,\dots,\mathbf{p}_n\}$に変換する(式\ref{form:4_1}).\begin{equation}\label{form:4_1}\{\mathbf{p}_1,\dots,\mathbf{p}_n\}=f(\mbox{CLIP}(\mathbf{I}))\end{equation}多層のTransformerブロック$F(\cdot)$\cite{10.5555/3295222.3295349}を用いてベクトル集合$\mathbf{p}$を,$\mathbf{p}$と同次元の$\mathbf{r}$に変換する(式\ref{form:4_2}).CLIPの画像エンコーダとデコーダを結ぶ,これらのTransformerブロックをMappingNetworkと呼び,これらブロックを訓練するのみで画像キャプショニングといった視覚・言語タスクを扱うことができる\cite{mokady2021clipcap}.\begin{equation}\label{form:4_2}\{\mathbf{r}_1,\dots,\mathbf{r}_n\}=F(\{\mathbf{p}_1,\dots,\mathbf{p}_n\})\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{言語デコーダ}言語デコーダは,質問$\mathbf{q}=\{\mathbf{q}_1,\dots,\mathbf{q}_m\}$と画像ベクトル集合$\mathbf{r}$から構成した入力系列(式\ref{form:4_3})から,回答系列$\mathbf{y}$を自己回帰的に出力する.\begin{equation}\label{form:4_3}\{\mathbf{r}_1,\dots,\mathbf{r}_n,\mbox{[SEP1]},\mathbf{q}_1,\dots,\mathbf{q}_m,\mbox{[SEP2]}\}\end{equation}ここで,$\mathbf{q}$の各要素はトークン埋め込みを表し,$\mbox{[SEP1]}$と$\mbox{[SEP2]}$はそれぞれ``質問:''と``回答:''でありデコーダに与えるプロンプトを意味する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{VL-T5}VL-T5は事前学習済み画像エンコーダ\cite{NIPS2015_14bfa6bb}と言語エンコーダ・デコーダ\cite{2020t5}で構成された,画像キャプショニングやVQAタスクに適用可能な汎用モデルである\cite{pmlr-v139-cho21a}.ClipCapの画像エンコーダと構成を揃えるべく,本研究では\citeA{sung2022vladapter}と\citeA{futeral-etal-2023-tackling}の実装を参考に,CLIP\cite{pmlr-v139-radford21a}の画像エンコーダから得られる中間の特徴量\footnote{正確には,CLIPにおけるProjection層を通す前の特徴量である.}を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{画像エンコーダ}VL-T5の画像エンコーダは,RGBの全体画像$\mathbf{I}\in\mathbb{R}^{W\timesH\times3}$を入力として,言語エンコーダ・デコーダへ入力可能な画像ベクトル集合$\mathbf{r}=\{\mathbf{r}_1,\dots,\mathbf{r}_n\}$を出力する(式~\ref{form:4_4}).本研究では,画像エンコーダをCLIPの画像エンコーダと単一の線形層$f(\cdot)$で構成する.\begin{equation}\label{form:4_4}\{\mathbf{r}_1,\dots,\mathbf{r}_n\}=f(\mbox{CLIP}(\mathbf{I}))\end{equation}$n$は$\mathbf{r}$の要素数であり,$\mathbf{r}$の要素$\mathbf{r}_i$は質問$\mathbf{q}$のトークン埋め込みと同じ次元を持つ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{言語エンコーダ・デコーダ}言語エンコーダ・デコーダは,質問$\mathbf{q}=\{\mathbf{q}_1,\dots,\mathbf{q}_m\}$とベクトル集合$\mathbf{r}$から構成した入力系列(式\ref{form:4_5})から,回答系列$\mathbf{y}$を自己回帰的に出力する.\begin{equation}\label{form:4_5}\{\mbox{[SEP1]},\mathbf{q}_1,\dots,\mathbf{q}_m,\mathbf{r}_1,\dots,\mathbf{r}_n\}\end{equation}ここで,$\mathbf{q}$の各要素はトークン埋め込みを表し,$\mbox{[SEP1]}$は``質問:''であり言語エンコーダ・デコーダのプロンプトを意味する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案モデル}LookVQAタスクを扱うための提案モデル(ClipCap+Adapter)の構成を図~\ref{fig:4_2}に示す.モデルの訓練に利用可能な,日本語を対象とした視覚・言語データセットの量に制限があるため,提案モデルは,MappingNetworkのみの訓練で視覚・言語タスクにおけるモデル性能が担保できる,訓練効率の良いClipCapをベースとしている.ClipCapとの差分はMappingNetworkの各ブロックの先頭に挿入されたアダプタである.アダプタは全体画像と注視対象推定で得られた注視領域$\mathbf{I}_{s}$を統合し,注視先の情報を考慮した画像ベクトルを構成する.このベクトルを言語デコーダの入力することで,視線情報を要する曖昧な質問に対して,適切な回答を出力することが期待できる.具体的には,ClipCapの画像エンコーダの処理(式\ref{form:4_1})と同様に,全体画像$\mathbf{I}$と注視領域$\mathbf{I}_s$から,画像ベクトル集合$\mathbf{p}=\{\mathbf{p}_1,\dots,\mathbf{p}_i,\dots,\mathbf{p}_n\}$と注視領域の画像ベクトル集合$\mathbf{s}=\{\mathbf{s}_1,\dots,\mathbf{s}_i,\dots,\mathbf{s}_n\}$を構成する.Transformerブロックの先頭で$\mathbf{p}$と$\mathbf{s}$の要素ごとのアフィン変換を計算し,その結果得たベクトル集合$\mathbf{p}'=\{\mathbf{p}'_1,\dots,\mathbf{p}'_i,\dots,\mathbf{p}'_n\}$をレイヤー正規化層に入力する.$\mathbf{p}'$の$i$番目のベクトル$\mathbf{p}'_i$に対する計算は,$\mathbf{s}_i$および$\mathbf{p}_i$を用いて,式~\ref{form:4_6}のように表せる.\begin{equation}\label{form:4_6}\mathbf{p}'_i=g(\mathbf{s}_i)\odot\mathbf{p}_{i}^{l}\oplush(\mathbf{s}_i)\end{equation}ただし,$g(\cdot)$と$h(\cdot)$は入出力が同次元の単一の線形層,$\odot$と$\oplus$はそれぞれ要素ごとの積と和を表す演算子,$\mathbf{p}^{l}$は$l$層目におけるアダプタへの入力である.1層目のブロックの入力は,$\mathbf{p}^{l}=\mathbf{p}$である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{32-1ia1f5.eps}\end{center}\caption{\textbf{左}:提案モデルの概要図.\textbf{右}:画像エンコーダの構成.}\label{fig:4_2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{注視対象推定}注視対象推定タスクは,LookVQAタスクを扱うための前処理である.本研究ではこの前処理を実現するため,既存研究で提案されたCNNベースのモデル\cite{Chong_2020_CVPR}を注視対象推定モデルとして利用する.図~\ref{fig:4_1}に注視対象推定の処理を,以下にその解説を示す.\begin{itemize}\itemStep1:\citeA{Chong_2018_ECCV}のアノテーションをもとに,全体画像$\mathbf{I}$から発話者の頭部画像$\mathbf{I}_{h}$を抽出する.\itemStep2:モデルは$\mathbf{I}$と$\mathbf{I}_{h}$を入力として,話者の注視対象を表すヒートマップ$\mathbf{H}$を出力する.ここで,$\mathbf{H}$の各要素は$[0,1]$の値をとる.\itemStep3:閾値0として$\mathbf{H}$を二値化し,注視対象に対応するバウンディングボックスを求めることで,注視領域$\mathbf{I}_{s}$を取得する\cite{Ardizzone2013_saliency}.ただし,$\mathbf{H}$の各要素が全て0で$\mathbf{I}_{s}$が取得できない場合は,擬似的に$\mathbf{I}$を$\mathbf{I}_{s}$とみなす.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{32-1ia1f6.eps}\end{center}\caption{提案モデルの前処理となる注視対象推定タスクのプロセス.}\label{fig:4_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}日本語VQAデータセット(VQA-ja)\cite{C18-1163}と日本語画像キャプションデータセット(STAIR)\cite{yoshikawa-etal-2017-stair}をモデルの事前学習に利用した.その後,LookVQAの訓練セットを用いて,追加でモデルを訓練する(Fine-tuning).事前学習には,STAIRに収録された123,287枚の画像と616,435件のキャプション,VQA-jaに収録された99,208枚の画像と793,664件の質問・回答ペアを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{実装詳細}提案モデルとベースラインにおけるCLIPの画像エンコーダは,ResNetベースの$RN\times4$\cite{pmlr-v97-tan19a}を利用した\footnote{\url{https://github.com/openai/CLIP}}.画像$\mathbf{I}$と注視領域$\mathbf{I}_s$はCLIPの正規化と同様の処理を行い,CLIPへの入力は縦横$224$画素($H=224$,$W=224$)にリサイズされた画像とする.提案モデルおよびClipCapに関して,画像エンコーダへの入力はCLIPから得られた640次元のベクトルである.ベクトル集合$\mathbf{p}$,$\mathbf{s}$,$\mathbf{r}$の要素数を$n=10$とする.言語デコーダは事前学習済みGPT-2\cite{radford2019language}を利用した\footnote{\url{https://huggingface.co/rinna/japanese-gpt2-medium}}.VL-T5に関して,画像エンコーダの入力はCLIPから得られた$9\times9\times2560$次元のベクトルである.実際の入力は,ベクトル集合$\mathbf{r}$の要素数$n=81$として,先のベクトル集合を$81\times2560$次元に変換したものである.言語エンコーダ・デコーダは事前学習済みT5\cite{2020t5}のSmallモデル\footnote{\url{https://huggingface.co/retrieva-jp/t5-small-short}}とBaseモデル\footnote{\url{https://huggingface.co/retrieva-jp/t5-base-short}}を利用した.提案モデルとベースラインをSTAIR,VQA-ja,およびLookVQAで学習した.具体的には,バッチサイズを32,事前学習の学習率を2e-5,LookVQAによるFine-tune時の学習率を1e-4,オプティマイザをAdamW\cite{loshchilov2018decoupled}として各データセットで10epochsずつ学習した.LookVQAの推論時にはデコーディングにビーム幅10のBeamSearchを用いた.注視対象推定タスクに関して,実験では\citeA{Chong_2018_ECCV}のデモ版\footnote{\url{https://github.com/ejcgt/attention-target-detection/blob/master/download_models.sh}}を注視対象推定モデルとする.このモデルにおいて,注視領域$\mathbf{I}_{s}$を$\mathbf{I}$とみなした質問・回答ペアの件数は,17,276件中1,272件(7.36\%)であった.GazeFollowのテストセットとLookVQAのテストセットで重複する質問・回答ペアは1,596件存在する\footnote{LookVQAはGazeFollowの訓練・テストセットから構築されている.このため,注視対象推定モデルそのものはLookVQAを用いて訓練していない.}.これら質問・回答ペアにおける,注視対象推定モデルのAreaUnderCurve(AUC)と平均$L^2$距離(Avg.dist.)はそれぞれ0.92と0.15であった\footnote{いずれもヒートマップ$\mathbf{H}$に対する評価指標である.前者は画像パッチごとに$\mathbf{H}$を評価し\cite{judd2009learning},後者は注視先の点の正例で$\mathbf{H}$を評価する\cite{nips15_recasens}.前者は評価値が1に近づくほど,後者は評価値が0に近づくほど,注視対象推定モデルの出力が正確なことを意味する.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{訓練対象}訓練データ数の制約により,本研究では画像エンコーダに含まれるCLIPのパラメータを固定した結果を報告する.ここで,パラメータは機械学習モデルにおけるテンソルの要素数の総和を意味する.各ベースラインについて,ClipCapは410M,VL-T5のSmallは78M,VL-T5のBaseは249Mの訓練可能なパラメータを持つ.提案モデルは426Mの訓練可能なパラメータを持ち,うちアダプタのパラメータは16Mである.ClipCapと提案モデルにおいては,明示的にアダプタの重みを更新するべく,MappingNetworkのみを訓練する場合およびアダプタのみを訓練する場合の結果も報告する.MappingNetworkのみを訓練した場合,ClipCapは74M,提案モデルは90Mの訓練可能なパラメータを持つ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価指標}質問応答における回答の同義性・多様性を考慮したVQAスコア\cite{original_VQA}をモデルの評価に用いた(式\ref{form:5_1}).\begin{equation}\label{form:5_1}Acc=\min(\frac{cnt}{3},1)\end{equation}$cnt$は回答セットの10件の人手回答と予測回答が完全一致した回数を意味する.回答の表記揺れを考慮した評価を行うため,BERTスコア\cite{Zhang*2020BERTScore:}によって回答フレーズの類似を考慮した評価も実施した(式\ref{form:5_2}).\begin{gather}\label{form:5_2}Bs(\mathbf{h})=\frac{1}{|\mathbf{D}|}\sum_{\mathbf{R}\in\mathbf{D}}\sum_{\mathbf{r}\in\mathbf{R}}\frac{2\cdotP_{\rm{BERT}}(\mathbf{r},\mathbf{h})\cdotR_{\rm{BERT}}(\mathbf{r},\mathbf{h})}{P_{\rm{BERT}}(\mathbf{r},\mathbf{h})+R_{\rm{BERT}}(\mathbf{r},\mathbf{h})}\\[1ex]\label{form:5_3}P_{\rm{BERT}}(\mathbf{r},\mathbf{h})=\frac{1}{|\mathbf{r}|}\sum_{\mathbf{r}_i\in\mathbf{r}}\max_{\mathbf{h}_j\in\mathbf{h}}\mathbf{r}_i^\top\mathbf{h}_j\\[1ex]\label{form:5_4}R_{\rm{BERT}}(\mathbf{r},\mathbf{h})=\frac{1}{|\mathbf{h}|}\sum_{\mathbf{h}_j\in\mathbf{h}}\max_{\mathbf{r}_i\in\mathbf{r}}\mathbf{r}_i^\top\mathbf{h}_j\end{gather}$\mathbf{r}$は1件の人手回答の単語集合,$\mathbf{h}$は予測回答の単語集合,$\mathbf{R}$は1つの質問に割り当てられた10件の人手回答(回答セット),$\mathbf{D}$はテストセット全体の回答セットの集合を意味する.式\ref{form:5_3}と式\ref{form:5_4}において,$\mathbf{r}_i$と$\mathbf{h}_j$は,多言語BERT\footnote{\url{https://huggingface.co/bert-base-multilingual-cased}}から得られた,人手回答$\mathbf{r}$と予測回答$\mathbf{h}$の各単語における分散表現である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{01table06.tex}%\hangcaption{ベースラインと提案モデルの評価結果.訓練・推論時のシードを0に固定した結果を報告する.$|\theta|$はモデルの訓練可能なパラメータ数[M]である.}\label{tab:5_1_1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{01table07.tex}%\hangcaption{ClipCapと提案モデルの詳細な比較結果.LookVQAによる訓練・推論をランダムシードで5回試行した結果を報告する.$|\theta|$は表~\ref{tab:5_1_1}のキャプション参照.}\label{tab:5_1_2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定量評価}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{提案モデルとベースラインの比較}\label{sec:comparing_baselines}表~\ref{tab:5_1_1}に提案モデルとベースラインの評価結果を示す.さらに,表~\ref{tab:5_1_2}に学習パラメータに制約をかけた場合における,提案モデルとベースラインの1つであるClipCapの詳細な比較結果を示し,アダプタの効用を報告する.比較条件を以下に示す.\begin{enumerate}\item[i)]言語デコーダとMappingNetworkを訓練した場合\item[ii)]MappingNetworkのみを訓練した場合\item[iii)]提案モデルにおける新規パラメータであるAdapterのみを訓練した場合\end{enumerate}アダプタの入力に関して,$\mathbf{I}_s$は注視領域の推定値,$\mathbf{GT}$は注視領域の正例\footnote{曖昧な質問と対応づいたCOCOのバウンディングボックスを意味する.},$\mathbf{I}$は全体画像を意味する.表~\ref{tab:5_1_1}より,i)MappingNetworkと言語デコーダを訓練した場合,LookVQAにおいてはClipCapが最も性能が高く,推定値$\mathbf{I}_s$を追加した提案モデルは最も性能が低い.表~\ref{tab:5_1_2}においても同様の結果である.一方で表~\ref{tab:5_1_2}より,ii)MappingNetworkのみまたはiii)アダプタのみを訓練した提案モデルにおいては,それらの性能が,i)MappingNetworkと言語デコーダを訓練したClipCapの性能を上回った.とくに,アダプタのみを訓練した提案モデル(ClipCap+Adapter$(\mathbf{I}_s)$)のVQAスコアは39.03であり,MappingNetworkと言語デコーダを訓練したClipCapよりも,スコアが4ポイント程度上回っている.アダプタのパラメータの学習が不十分である場合,提案モデルはベースラインの精度を下回る.しかし,アダプタのみを十分に学習する状況において,提案モデルは16M程度のパラメータ更新でベースラインの精度を上回り,LookVQAに含まれる曖昧な質問に対して適当な回答を生成できることが判明した.LookVQAの類似データセットである日本語VQAで提案モデルを予め訓練した結果,新規のパラメータ更新のみで提案モデルがLookVQAタスクに適合できたと考えられる.表~\ref{tab:5_1_2}より,ii)MappingNetworkのみを訓練した提案モデルとベースライン(ClipCap)を比較する.画像$\mathbf{I}$をアダプタの入力とする提案モデル(ClipCap+Adapter($\mathbf{I}$))は,ベースラインと比較して性能が良く,注視領域$\mathbf{I}_s$やその正例$\mathbf{GT}$をアダプタの入力とする提案モデルと比較して性能に大きな差が無い.このことから,アダプタを追加することによる訓練パラメータの増加が,提案モデルの精度向上の一因となることがわかる.アダプタの入力変化がLookVQAの精度へ与える影響は\ref{sec:qualitative}節で議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{注視対象推定タスクのエラーが提案モデルの結果に与える影響}\label{sec:gt_score}$\mathbf{I}_s$を追加した提案モデルにおけるVQAスコアと注視対象推定タスクの精度の関係を,注視対象推定モデルの評価指標であるAUC\cite{judd2009learning}とAvg.dist.\cite{nips15_recasens}にもとづいて調査する.具体的には,GazeFollowのテストセットとLookVQAのテストセットで重複する1,596件の質問・回答ペアから,注視対象推定モデルの精度が高い質問・回答ペアを抜き取り,これらの差分に対するVQAスコアの推移を確認する.図~\ref{fig:5_2_1}と図~\ref{fig:5_2_2}に,AUCとAvg.dist.の閾値の刻み幅を0.05として,AUCがある閾値未満の(Avg.dist.がある閾値より大きい)質問・回答ペアに対して算出したVQAスコアの推移を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7and8\begin{figure}[t]\setlength{\captionwidth}{200pt}\noindent\begin{minipage}[t]{200pt}\begin{center}\includegraphics{32-1ia1f7.eps}\end{center}\hangcaption{AUCを基準としたVQAスコアの推移.評価値が1に近づくほど注視対象推定モデルの出力が正確なことを意味する.}\label{fig:5_2_1}\end{minipage}\hfill\begin{minipage}[t]{200pt}\begin{center}\includegraphics{32-1ia1f8.eps}\end{center}\hangcaption{Avg.dist.を基準としたVQAスコアの推移.評価値が0に近づくほど注視対象推定モデルの出力が正確なことを意味する.}\label{fig:5_2_2}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%質問・回答ペア全件におけるVQAスコアは40.44である.図~\ref{fig:5_2_1}よりAUCの閾値を0.20ずつ減少させると,VQAスコアが3から4ポイント減少する.実際に,AUCの閾値が0.80未満と0.60未満の時,各VQAスコアは36.93と33.51である.図~\ref{fig:5_2_2}よりAvg.dist.の閾値を0.20ずつ増加させると,VQAスコアは4から7ポイント減少する.実際に,Avg.dist.の閾値が0.20より大きい場合と0.40より大きい場合における,各VQAスコアは36.84と29.63である.このことから,注視対象推定タスクの結果である注視領域$\mathbf{I}_s$の利用については,モデルの推定が誤った場合にLookVQAタスクの精度低下が生じていることがわかる.注視対象推定モデルの評価値が低い値を示したがVQAスコアが高い値を示した例外\footnote{AUCの閾値が0.60以上0.65未満かつAvg.dist.の閾値が0.30より大きく0.35以下の場合.\label{footnote:gt_exception}}は\ref{sec:qualitative}節で議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{視線情報付きVQAデータセットの特徴}\label{sec:eval_gazevqa}表~\ref{tab:5_2_1}にClipCapのAblation評価を示す.ベースラインであるClipCapのAblationテストを通して,LookVQAの曖昧な質問を解くために必要な要素を特定する.ClipCapから,質問を含むテキスト情報または画像情報を除いて学習・評価すると,性能が著しく低下することが判明した.LookVQAタスクを解くために,モデルは画像・質問を統合して理解する能力を持つ必要がある.ClipCapの画像エンコーダの入力を,注視領域$\mathbf{I}_s$または注視領域の正例$\mathbf{GT}$とすると,画像$\mathbf{I}$を入力した場合と比較して,性能が低下することが判明した.このことから,注視対象領域外の情報を完全に落とすより,注視対象領域外の情報も保持しておく方が,LookVQAタスクの精度向上に寄与することが示唆された.注視対象領域外の情報の必要性については\ref{sec:qualitative}節で議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8and9\begin{table}[t]\setlength{\captionwidth}{200pt}\noindent\raisebox{0.75\normalbaselineskip}[0pt][0pt]{%\begin{minipage}[t]{200pt}\input{01table08.tex}%\hangcaption{ClipCapのAblation評価結果.MappingNetworkと言語デコーダを訓練した結果($|\theta|=410M$)を報告する.}\label{tab:5_2_1}\end{minipage}}%\hfill\begin{minipage}[t]{200pt}\input{01table09.tex}%\hangcaption{ベースラインによる曖昧な質問($\mathbf{q}_{AQ}$)と明確な質問($\mathbf{q}_{CQ}$)の比較結果.いずれのモデルもLookVQAによる訓練を実施していない.}\label{tab:5_2_2}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:5_2_2}より,全てのベースラインに対し,曖昧な質問$\mathbf{q}_{AQ}$あるいは明確な質問\footnote{$\mathbf{q}_{AQ}$に含まれる指示語や省略を注視対象の名称や属性といった情報で補完した質問.詳細は\ref{sec:step4}節を参照.}$\mathbf{q}_{CQ}$を入力した結果を比較する.LookVQAにおける回答の偏りを抑えた評価を実施するために,日本語キャプションおよび日本語VQAのみで訓練したベースラインを評価で用いる.$\mathbf{q}_{AQ}$の代わりに$\mathbf{q}_{CQ}$を入力した場合,いずれのベースラインもVQAスコア($Acc$)が1から5ポイント程度向上することが判明し,とくに訓練可能パラメータ数$|\theta|$が多いベースラインが顕著な性能向上を見せた.この結果と\ref{sec:comparing_baselines}節の結果より,LookVQAの曖昧な質問$\mathbf{q}_{AQ}$に対処するためには,提案モデルのような画像,質問,および注視領域から回答を直接生成するアプローチの他に,注視対象推定の結果にもとづいて$\mathbf{q}_{AQ}$を$\mathbf{q}_{CQ}$に書き換えるアプローチも有望な方向であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{質問タイプごとの精度比較}図~\ref{fig:5_1}より,LookVQAのテストセットの質問の類型をとり,この類型にもとづいてベースライン(ClipCap)と提案モデル(w/Adapter)を比較する.物体の属性を問う``Whatis''の質問,物体の現在の状態を問う``Whatcondition''の質問,あるいは択一式の質問である``Which''では,提案モデルがベースラインの性能を上回った.物体の属性のうち,色に関する``Whatcolor''の質問では,例外的に,注視領域の正例$\mathbf{GT}$を入力したベースライン(ClipCap($\mathbf{GT}$))の性能が最も良い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{32-1ia1f9.eps}\end{center}\hangcaption{質問タイプごとのベースライン(ClipCap)と提案モデルのVQAスコア(Acc)における評価結果.角括弧は各タイプのQAの件数を表す.分類手法は表~\ref{tab:3_2}参照.MappingNetworkのみを訓練したベースライン($|\theta|=74M$),およびアダプタのみを訓練した提案モデル($|\theta|=16M$)の結果を報告する.}\label{fig:5_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{01table10.tex}%\hangcaption{視覚・言語モデルによる曖昧な質問($\mathbf{q}_{AQ}$)と明確な質問($\mathbf{q}_{CQ}$)の比較結果.LookVQAのテストセット300件を評価に利用した.いずれのモデルもLookVQAによる訓練を実施していない.}\label{tab:5_2_5}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{大規模言語モデルをベースとした視覚・言語モデルによる評価}表~\ref{tab:5_2_5}にベースラインおよび大規模言語モデルをベースとした視覚・言語モデルであるGPT-4V\footnote{\url{GPT-4-1106-vision-preview}}\cite{openai2023gpt4}の評価結果を示し,LookVQAにおける既存モデルの性能の限界を報告する.ただし,GPT-4Vにおける計算資源の制限により,LookVQAのテストセットに含まれる300件を評価に利用した.いずれのモデルもLookVQAによる訓練は実施していない.実験で用いたGPT-4Vのプロンプトの詳細は付録\ref{sec:gpt4v_prompts}で示す.表~\ref{tab:5_2_5}より,曖昧な質問$\mathbf{q}_{AQ}$の代わりに明確な質問$\mathbf{q}_{CQ}$を入力とした場合,VL-T5{\scriptsizesmall}以外の視覚・言語モデルの性能が向上し,とりわけ,$\mathbf{q}_{CQ}$を入力としたGPT-4Vが最も高い性能を示した.表~\ref{tab:5_2_5}と表~\ref{tab:5_1_2}より,$\mathbf{q}_{AQ}$を入力したGPT-4VはLookVQAで訓練した提案モデルの性能を下回っていることが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{32-1ia1f10.eps}\end{center}\hangcaption{テストセットにおける提案モデルとベースライン(ClipCap)の入出力例.AQ,CQ,Aはそれぞれ曖昧な質問,明確な質問,人手回答である.5回試行のうち,VQAスコアが最も高いモデルの出力を太字で示す.$\mathbf{GT}$と$\mathbf{I}_s$の範囲をそれぞれ赤枠と緑枠(破線)で示す.}\label{fig:5_2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%大規模言語モデルをベースとした視覚・言語モデルであるGPT-4Vは,ベースラインのClipCapやVL-T5と比較して,画像・質問を正確に認識する能力を持つ.しかし,質問の曖昧さを文脈情報で補完する必要があるLookVQAタスクのような状況下では,その能力を十分に発揮できないことが判明した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性評価}\label{sec:qualitative}図~\ref{fig:5_2}と図~\ref{fig:5_3}に,言語デコーダとMappingNetworkを訓練したClipCap,\pagebreakおよびアダプタのみを訓練した提案モデルの入出力例とエラー例を示す.提案モデルのアダプタに注視領域$\mathbf{I}_s$や物体情報$\mathbf{GT}$を入力した場合,物体の形状や名称など,注視対象の属性を問う曖昧な質問に対して,その回答が一意に定まる傾向にあった.正確な回答を与えるに資する視覚情報が物体情報に含まれている場合,その傾向が顕著に現れる(図~\ref{fig:5_2}(a)).言い換えれば,注視対象推定モデルで注視対象を絞り込めていない場合,提案モデルは一貫性の無い回答を出力する(図~\ref{fig:5_2}(b,c)).実際に,図~\ref{fig:5_2}(a)における注視対象推定モデルの評価値Avg.dist.は0.07であり,図~\ref{fig:5_2}(b,c)における評価値はそれぞれ0.36と0.26であった.ただし,図~\ref{fig:5_2}(a--c)のうち,注視対象推定モデルの評価値AUCは図~\ref{fig:5_2}(c)が最も高く0.98であった.図~\ref{fig:5_2}(c)においては,注視対象推定モデルの出力であるヒートマップ$\mathbf{H}$は正確であるが,$\mathbf{H}$から$\mathbf{I}_s$を取得する際にエラーが生じたと推察できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[t]\begin{center}\includegraphics{32-1ia1f11.eps}\end{center}\hangcaption{テストセットにおける提案モデルとベースライン(ClipCap)のエラー例.AQ,CQ,A,および$\mathbf{GT}$と$\mathbf{I}_s$の範囲は図~\ref{fig:5_2}のキャプション参照.}\label{fig:5_3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案モデルのアダプタに全体画像$\mathbf{I}$を入力した場合,画像全体の理解を要する質問に対して正確な回答を与える傾向にあった.実際に,図~\ref{fig:5_2}(d)におけるAUCとAvg.dist.はそれぞれ,0.97と0.07であり$\mathbf{H}$と$\mathbf{I}_s$はともに正確であるが,$\mathbf{I}$を入力した提案モデルの方が一貫した回答を生成している.また,注視対象推定モデルの出力が誤っていても\footref{footnote:gt_exception},正確な回答を導ける質問・回答ペアは存在する(図~\ref{fig:5_2}(e,f)).これらの観察から,LookVQAには注視対象を考慮しなくても回答が可能な質問・回答ペアが含まれていることが認められる.提案モデルとベースラインの出力におけるエラーについて議論する.LookVQAは日本語の質問を対象にしており,訓練に利用可能な日本語を対象とした視覚・言語データセットの量に制限がある.このため,本研究では訓練効率の良いシンプルなモデル\cite{mokady2021clipcap}をベースとして提案モデルを構築した.しかし,特殊な物体の形状(図~\ref{fig:5_3}(a)),物体同士の位置関係(図~\ref{fig:5_3}(b)),物体の個数(図~\ref{fig:5_3}(c)),文字の読み取り(図~\ref{fig:5_3}(d))に関する質問は,ベースラインのClipCapおよび提案モデルのいずれも正確に回答を与えることが困難であった.この問題を緩和するには,画像エンコーダの構成の再検討\cite{dosovitskiy2021an,NIPS2015_14bfa6bb},質問自体の書き換え\cite{Li_2017_ICCV,stengel-eskin-etal-2023-chicken,TERAO20202020EDP7089,prasad2024rephrase}の実施,あるいは注視対象推定モデルから得られる隠れ表現やヒートマップ$\mathbf{H}$を注視領域の代わりに用いる必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,ユーザとシステムの会話に生じる曖昧さの問題を,視線や指差しといったユーザのインタラクションを用いて対処することを目的として,視線情報付きVQAデータセット(LookVQA)と視線情報を活用する質問応答モデルを提案した.LookVQAは,``指示語・省略に起因する曖昧さを含み''かつ``回答に話者の視線情報を要する''質問,および10,760件の画像に対し17,276件の質問・回答ペアを持つ.LookVQAのテストセットには,曖昧な質問に対応した明確な質問,および10件の回答が用意されている.このため,LookVQAでは,LookVQAタスクおよびVQAタスクとして,回答の多様性・同義牲を考慮したモデルの評価を実施することができる.LookVQAによる実験の結果は,提案モデルがベースラインよりもLookVQAタスクの性能が良いこと,注視対象推定モデルの推定が誤った場合にLookVQAタスクの精度低下が生じること,曖昧な質問を明確に書き換えることの有効性を示している.とりわけ,視線情報を用いることで,提案モデルは注視対象の属性に関する曖昧な質問に対して正確な回答を与えることができた.本研究で構築したデータセットの限界を述べる.LookVQAに含まれる視覚情報は,1枚の画像であり,注視先と視線元がその画像枠内に収まっていた.しかし,ロボットのような実際のシステムが獲得する視覚情報は動的であるため,視線元の人物が不鮮明である場合や物体の隠れといった不確実性が含まれる.このため,曖昧性解消の手がかりとなる事物や話者の振る舞いを,常にシステムが認識することは困難である.このような視覚の不確実性を考慮する際は,システムが得る視覚情報・視線情報のみならず,話者の骨格情報\cite{Nonaka_2022_CVPR}や指差し情報\cite{nakamura2023ICCV},あるいは発話前後の対話文脈\cite{visdial,agarwal-etal-2020-history,yu-etal-2019-see}といった種々のモダリティを駆使して対処することが望ましい.本研究で提案したモデルに関する今後の方向性を述べる.提案モデルは,注視対象推定タスクとLookVQAタスクを扱うモデルそれぞれが独立しているため,注視対象推定タスクのエラーが後段のLookVQAタスクに伝搬する構成であった.また,話者の頭部画像およびヒートマップから得られる特徴量や注視対象推定モデルから得られる隠れ表現を用いず,注視対象の特徴量を用いるのみであった.データ形式に依存しないTransformerエンコーダ\cite{pmlr-v139-jaegle21a,jaegle2022perceiver}を用いれば,複数の特徴量の統合が可能となり,End-to-Endで提案モデルを学習することができる.また,本研究で提案した指示情報を利用するLookVQAにおいては,先に述べた通り,視線以外の多様な指示情報を利活用するような拡張も考えられる.LookVQAの訓練セットを拡張し,以上のモデルを構築することは今後の課題としたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は理研の大学院生リサーチ・アソシエイト制度の下での成果である.本研究の一部はJSPS科研費JP22H04873およびJSTムーンショット型研究開発事業JPMJMS2236の助成を受けた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{プロンプト} \label{sec:gpt4v_prompts}図~\ref{fig:A_1}に,曖昧な質問($\mathbf{q}_{AQ}$)または明確な質問($\mathbf{q}_{CQ}$)の評価で使用したGPT-4Vのプロンプトを示す.タスク指示と3つの質問・回答ペアから各プロンプトを構成し,LookVQAの訓練セットに含まれる画像と注視領域から各質問・回答ペアを構成した.\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[t]\begin{center}\includegraphics{32-1ia1f12.eps}\end{center}\hangcaption{\textbf{左}:曖昧な質問($\mathbf{q}_{AQ}$)の評価で使用したGPT4Vのプロンプト.テキストとして与えた注視領域の範囲を赤枠で示す.\textbf{右}:明確な質問($\mathbf{q}_{CQ}$)の評価で使用したGPT4Vのプロンプト.}\label{fig:A_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{稲積駿}{2024年奈良先端科学技術大学院大学先端科学技術研究科博士前期課程修了.同年より,理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チーム大学院生リサーチ・アソシエイト,同先端科学技術研究科博士後期課程に在学中.修士(工学).言語処理学会会員.}\bioauthor{河野誠也}{2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2021年同先端科学技術研究科博士後期課程研究指導認定退学.博士(工学).2020年に日本学術振興会特別研究員(DC2)を経て,2021年から理化学研究所ガーディアンロボットプロジェクト特別研究員.2023年から奈良先端科学技術大学院大学客員助教.2024年から理化学研究所ガーディアンロボットプロジェクト研究員.現在に至る.自然言語処理および音声言語処理に関する研究に従事.ACL,ISCA,人工知能学会,言語処理学会各会員.}\bioauthor{湯口彰重}{2017年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2021年同博士後期課程研究指導認定退学.博士(工学).理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チーム特別研究員などを経て,2023年より東京理科大学先進工学部機能デザイン工学科助教および理化学研究所ガーディアンロボットプロジェクト知識獲得・対話研究チーム客員研究員.ロボティクスに関する研究に従事.IEEE,SIGdial,日本ロボット学会,日本機械学会各会員.}\bioauthor{川西康友}{2011年京都大学大学院情報学研究科博士課程指導認定退学.京都大学博士(情報学).名古屋大学大学院情報学研究科講師などを経て,現在,理化学研究所ガーディアンロボットプロジェクト感覚データ認識研究チームチームリーダー,奈良先端科学技術大学院大学客員教授,名古屋大学数理・データ科学・人工知能教育研究センター客員教授.ロボットによる3D環境認識に関する研究に従事.電子情報通信学会シニア会員,IEEE,画像電子学会各会員.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同博士後期課程修了.京大博士(情報学).日本学術振興会特別研究員(PD),奈良先端科学技術大学院大学情報科学研究科助教等を経て,2020年より理化学研究所ロボティクスプロジェクト(現ガーディアンロボットプロジェクト;GRP)知識獲得・対話チームチームリーダー.2024年より東京工業大学(現東京科学大学)情報理工学院准教授(クロスアポイントメント).この間,2019年から2020年にかけてハインリッヒハイネ大学客員研究員.2022年から奈良先端科学技術大学院大学客員教授.音声言語処理および自然言語処理,特に音声対話システム・ロボット対話システムに関する研究に従事.本学会理事および編集委員.IEEESLTCMember,ARRActionEdior,SIGdialBoardMember,DSTCSteeringCommitteeMember.人工知能学会SLUD研究会専門委員.情報処理学会シニア会員,人工知能学会,日本ロボット学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V29N04-06
\section{はじめに} \label{sec:introduction}臨床現場の文書記録が電子カルテシステムによって電子化されて以降,自然言語処理(NaturalLanguageProcessing;NLP)技術を電子カルテの自由記述テキストに適用する重要性も増す一方である\shortcite{AramakiBook}.例えば診療録は医師が診療に際して記載する記録文書であるが,その診療においては数値入力やカテゴリ選択だけでは表現し得ない微妙なニュアンスや複雑な状況もあることから,依然として診療に関する情報の大部分が自由記述部分に蓄えられており\footnote{NLPに頼らず電子カルテから情報抽出できるように,予め電子カルテに入力できる項目を規格化・標準化し,機械可読で構造的なデータにする動きもないわけではない.例えば新医療リアルワールドデータ研究機構株式会社(京都)は標準化された診療録入力を支援するためのオンコロジーデータベースを開発・販売している.},そのままでは診療履歴の検索や二次的な症例分析に使うのが困難である.この自由記述テキストに,もし固有表現認識(NamedEntityRecognition;NER)を適用して病名や薬品名を識別できれば,ある患者が入院前も含めてどのような病歴を辿ったかや,なぜ特定の薬品が治療に使われてきたかといった情報を抽出できる可能性が開ける.さらに近年,大規模な症状データベース(フェノタイピングデータベース)\shortcite{Kohler2021-ha}と遺伝子レベル・分子レベルの研究\shortcite{Bayes-Genis2020-fj,Sun2016-iw}とを組み合わせることで,劇的な医学の進歩も期待されている.このような研究枠組みに使用できるデータソースとして,これまで分析困難とされてきた電子カルテの自由記述テキストから情報が得られれば,有益であることは明白である.このように医療へのNLP応用(医療言語処理)が注目される中で,適用されるのは教師付き機械学習に基づく手法が多く,質・量ともに優れた学習データの整備が重要である.ところが医療言語処理のためにアノテーションされたデータは,NER一つを取ってみても,他のドメインに比べると少ない.これは医療データが個人情報を含むものであって一般公開しづらく,アノテーション作業に特別な配慮が必要であることが大きな理由の一つとして知られている\shortcite{Gonzalez-Hernandez2017-cx}.専門的な用語・表現が高密度に作成されていることから,医学概念を表す言語表現を定義するのが難しいことも挙げられる.例えば,「間質性肺炎」という病変の名称を固有表現としたいとき,「肺」という臓器名もこの中には含まれている.病名も臓器名も臨床医学的には基本的な概念であり,医療ドメインの固有表現認識タスクでは抽出の対象となる固有表現タイプに設定されやすいが,「間質性肺炎」という表現全体を病名と扱うことも,内包された「肺」を臓器名としてさらに区別してネストされた固有表現とみなすこともできる.さらには「間質性」を核たる病変たる「肺炎」についての属性と捉え,属性+病変からなる複合的な固有表現とみなす仕様も設計可能である.また「異常がみられる」といった,何らかの臨床医学的事実に言及しつつも標準的な病変名を含まない一般的な表現も散見され,この表現に出現する「異常」をも病名と捉える考え方もできる.いずれの方針も一定の応用目的に照らせば妥当たりうるが,アノテーションの難易度が変わる.臨床医学的に厳密なアノテーションを要求すれば,作業者に専門知識が必要となり,ただでさえ入手・公開が困難な臨床医学テキストコーパスへのアノテーションが困難になってしまう.もちろん臨床医学コーパスは専門家によるアノテーションが施されることが理想だが,現実的に難しいことが知られている.日本では医療従事者は慢性的に不足しているうえ\footnote{厚生労働省の『労働経済動向調査』における人手の過不足感を表す指標「労働人員判断D.I.」では,医療・ヘルスケア領域の人手不足は5年以上も慢性的にほぼ平均以上となっている.},``本来の職務はアノテーションの作業と大きく乖離しており,熱意を持ってアノテーションに従事可能な人材の確保は容易でない''\shortcite[p.~124]{Aramaki2018}.さらに2019年末にはコロナウィルス感染症の世界的蔓延(パンデミック)が発生し,国際的に医療提供体制が逼迫する事態が断続的に起きた\shortcite{Hibi2021-im}.このような深刻な状況下で,本務である医療行為に専念すべき医療従事者に対し,NLPのためのアノテーションを依頼することは困難である.本研究では,多くの臨床的応用を見据えた言語処理向けアノテーション仕様を設計し,作業者に専門知識がなくても作業可能になるようなガイドライン\shortcite{guideline-en,guideline-ja}を策定した.特に,臨床医学テキストからのNERと関係抽出(RelationExtraction;RE)の両タスクで,これまで多くの研究が抽出すべき情報として定義してきた医学概念を広くカバーし,後続の研究者が車輪の再発明をせずに済むような,汎用的なアノテーション仕様を目指した.例えば,小規模な応用については固有表現のみ,あるいは一部の固有表現タイプだけを採用してもらう,また大規模な応用では本仕様をベースに新たな固有表現や関係を追加・拡張してもらうといった利用を想定している.本研究ではさらに,大規模な臨床医学テキスト3,769件に本アノテーションを実施した.コーパスとしての記述統計,および本コーパスにNERとREを適用した実験結果を報告する.なお本コーパスは研究用途で活用できるよう一般公開に向けて関係機関と調整中である.次節以降の構成は以下の通りである.\cref{sec:relwork}では医療言語処理向けのアノテーション仕様やコーパスを構築する過去の主な研究をまとめる.続いて,本仕様の策定手続きを\cref{sec:workflow}で,定義したエンティティや関係の概要を\cref{sec:scheme}で説明する.また\cref{sec:guidelines}において,本仕様に基づく作業の方針を作業者に説明するためのガイドラインについて述べる.\cref{sec:outcome}で本仕様に基づいて作成されたコーパスに関する統計を報告した上で,コーパスの人手による評価結果とコーパスを用いたNERとREの実験結果とを\cref{sec:experiments}で記述する.最後に\cref{sec:conclusion}で本研究をまとめ,展望に触れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}\caption{主な医療言語処理アノテーション仕様・コーパス}\label{tab:existing_schemes}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:relwork}臨床医学テキストからの情報抽出を目的とする代表的なアノテーション仕様を表\ref{tab:existing_schemes}に整理した.医療言語処理の中でも最も基本的なタスクは病名抽出,すなわち医学論文や電子カルテ記述の中から病名を表す表現を認識することである.同じ病変を表す異なる表現(「糖尿病」とその略称「DM」など)を集約したい需要から,医学概念を識別するオントロジー上のコードと紐づける正規化(あるいは標準化,エンティティリンキングとも呼ばれる)も併せて取り組まれることが多い\shortcite{Ogren2008-lc}.NCBI\shortcite{Dogan2014-oy}とBC5CDR\shortcite{Wei2016-ak}は医療ドメインのNERないしエンティティリンキングの標準データセットとしてよく用いられる.病名について,患者に実際に見られたかどうか(事実性)を考慮した日本語の大規模コーパスとして\shortciteA{Aramaki2018}のものがある.電子カルテにおいては患者に実際に認められた症状以外にも,今後発現を注意すべき症状・病変や,その有無を将来検査したい病名などが記載されることがあり,これらを区別することはNERで抽出された情報に基づく後段の解析に役立つ.病名抽出を拡張し,病変をめぐる医学的関係を抽出する研究も盛んである.病変と,その原因となる遺伝子・タンパク質との間の関係を生物医学論文から同定する\shortciteA{Cano2009-on}の研究や,患者の状態と症状との因果関係を医学論文から識別する\shortciteA{Schulz2020-it}の研究がそのような例である.また\shortciteA{Uzuner2011-si}は,退院サマリに出現する検査名・処置名と病名との間の関係抽出として,検査によって病変が発見されたかや処置によって病変が治癒したかといった臨床的事実関係を識別するタスクを提案した.なかでも医薬品投与後の副作用を臨床医学テキストから検出するタスクは近年開催が増えている\shortcite{Hahn2020-kb}.各国で医師・薬剤師・製薬会社による副作用報告が義務化されているところ,報告のために各種医療文書を精査する人手の作業が大きな負担となっていることを受けたものである.医療言語処理共通タスクを定期的に開催するi2b2(現在はn2c2と名称を変更している)でも,医薬品および付随情報(投薬量や剤形など)を電子カルテから抽出する固有表現認識タスク\shortcite{Uzuner2010-ht}や,それら医薬品と副作用表現との間の関係抽出タスク\shortcite{Henry2020-rp}が提案されている.近年,日本語の患者ブログから医薬品副作用抽出を目指すコーパスも構築された\shortcite{Arase2020-ib}.他に,電子カルテ記述から患者の発病・治療・検査などの履歴を時系列で整理するTHYME\shortcite{Styler2014-hb}は,各種の臨床イベントとテキスト中の時間表現とを結びつける仕様を提案している.臨床医学テキストには日時や期間,頻度を表す表現も多数含まれるうえ,臨床医学現象そのものの時間的複雑さを考えれば,非常に重要な取り組みといえる.病変を軸とした特定の種類の医学的事実に限らず,臨床医学情報を全般的に取り扱う汎用的なアノテーション仕様も提案されてきた.ここまで述べた応用を包含するスーパーセットを目指した仕様として,複数の臨床医学タスクに汎用的に使えるコーパスの作成に取り組んだ研究である.ごく初期の試みは\shortciteA{Aramaki2009-wo}の仕様やCLEFCorpus\shortcite{Roberts2009-on}であり,病名に加えて身体部位,検査・薬品名を固有表現に含め,それらの間の関係(病変の包含部位や検査対象の病変など)を定義している.その後も同様の方針で\shortciteA{Patel2018-wx}の仕様やMERLOT\shortcite{Campillos2018-tx},\shortciteA{Shinohara2021}の仕様などが提案されてきた.ただし,固有表現間の関係まで含めると複雑になりすぎる傾向もあってか,固有表現だけにとどまる仕様も少なくない\shortcite{Neveol2014-qn,Mitrofan2019-iw}.同様の医療情報抽出タスクに対し,データセットとしてのコーパスのみならずアノテーション仕様自体が多数みられるのは,アノテーション対象の臨床医学テキスト種や記述言語による違いによるところが大きい.臨床医学テキストは,電子カルテや症例報告論文といった粒度では同じ形式であっても,診療科や国・地域によって記述スタイルが違うことが知られている.さらに,病院の内部文書である電子カルテに至っては,病院や医師によっても慣習が違う\shortcite{Rizvi2016-ju}.疾患の定義が異なるような概念レベルの違い,あるいは法律によって記載内容が指定されるといった制度レベルの違いもここには介在している.したがって,ある1通りのテキスト種・言語で考案されたアノテーション仕様では,異なる設定ではうまく当てはまらない部分が生じ,目指す応用ごとに新たな仕様が提案されることになる.新たな仕様を設計する際の主な検討事項の一つは,何種類のエンティティや関係を定義するかである.本節で取り上げたアノテーション仕様には多くの共通部分がみられるため,最大公約数的な仕様を作ることができれば有用と考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーション仕様の策定方法} \label{sec:workflow}本節では,我々が策定した臨床医学テキストアノテーション仕様をどのような方法・方針で作成したか説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{仕様策定者}本研究では,著者らNLP研究者\footnote{後述する臨床医学エンティティの仕様策定の初期段階では,著者以外に会話分析研究者1名と言語学専門家1名も含まれる.}がガイドライン策定を主導しつつ,医学専門家(医師および医学研究者)3名からなるレビューを定期的に複数回受けた.特に医学専門家からは医学概念の単位や性質について助言を得ながら,実行可能性の高いアノテーション仕様に向けて議論を重ねた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{仕様策定手続き}\label{sub:AnnoCycles}仕様の考案と試験アノテーションを複数回異なる規模で繰り返す反復的な枠組みを採用した.実際のアノテーション事例に乏しい中での机上の議論に時間をかけすぎず,アノテーション作業を早い段階で小規模に実施しながら問題点を洗い出すことを繰り返せば,着実に仕様の実行可能性を高められると考えたためである.具体的には,(1)NLP研究者だけのサイクル,(2)医療従事者を交えたサイクル,(3)アノテーション作業者を加えたサイクルの順で進めつつ,各サイクルを複数回繰り返しながら,アノテーション対象の臨床テキスト数も段階的に増やしていった.複数回行われたサイクル(3)におけるコーパス作成については\cref{sub:annoMethod}で詳述する.各サイクルの詳細を箇条書きで示すとともに,3つのサイクル全体の流れを\cref{fig:SpecDesignFlow}に示す.\begin{enumerate}\itemNLP研究者だけのサイクル\begin{enumerate}\itemアノテーションとして付与するエンティティ及び関係の種類と定義,作業規則の仮決め\item数件の臨床テキストサンプルを元にした試験アノテーションの実施\item試験アノテーションで生じた課題をもとにしたエンティティ及び関係の種類・定義・作業規則の修正\itemアノテーション作業を説明するガイドライン文書の作成・編集\end{enumerate}\item医学専門家を交えたサイクル\begin{enumerate}\itemアノテーション仕様とサンプルへのアノテーション結果をもとにした仕様の議論\item議論での指摘項目を踏まえた「NLP研究者だけのサイクル」を実行\end{enumerate}\itemアノテーション作業者を加えたサイクル\begin{enumerate}\itemコーパスの半量\footnote{この「半量」は\cref{sub:annoMethod}で述べる人手アノテーションを実施したコーパス前半部分を指す.}を作業者にアノテーションしてもらう\item作業者からの質問を踏まえた「NLP研究者だけのサイクル」または「医学専門家を交えたサイクル」を必要に応じて実行\item再実行したサイクル(1),(2)の結果を踏まえて,作業者の質問事項について遡及的にアノテーションを修正\end{enumerate}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-4ia5f1.pdf}\end{center}\caption{アノテーション仕様策定手続きの流れ}\label{fig:SpecDesignFlow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\cref{fig:SpecDesignFlow}に示した通り,各サイクル自身を繰り返す他に,後続のサイクルが前のサイクルを呼び出すようになっている.各サイクルは1回あたり最長で3ヶ月程度を充てたが,サイクル(2)→(1)や(3)→(2)などの出戻りの場合,呼び出されるサイクル(1),(2)は数週間程度と短く進めた.最終的な仕様確定までは2018年から2020年までの約2年かかったが,サイクル(3)は実質的には本番アノテーション作業に相当するので,純粋な仕様策定に関する議論(サイクル(1-b)の試験アノテーションを含む)そのものには,これより短い時間(総計約1年程度)が費やされている.なお,最初のサイクル(1-a)で仕様策定を開始した際には,既存のアノテーション仕様\shortcite{Aramaki2009-wo}を参考にした.その後サイクル(1),(2)を通じて,フェノタイピングやオミックス分析に有用と考えられる医学的情報がテキスト中に認められれば,アノテーション仕様として編入していった.サイクル(3-b)でフィードバックとして得る質問は,作業者が類似事例に基づいてグルーピングした各論点のリストに対し,仕様策定担当者が適切と考えるアノテーションを指示する.頻出する論点はサイクル(1)への出戻り時に,後述するガイドライン(\cref{sec:guidelines})に「注記」として記載することで,品質向上を図った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーション仕様の概要} \label{sec:scheme}本節では,本仕様で定義したアノテーション対象を説明する.病名や医薬品名など,医療に関する概念を表す個々の言語表現を「臨床医学エンティティ」とし,臨床医学エンティティと,それらの間の関係(臨床医学エンティティ間関係)をアノテーションの対象とした.それぞれ,固有表現認識と関係抽出のための教師データ構築に対応する.以下,アノテーションは便宜的にXML形式で表現するが,同等の情報を表現できる限りにおいて他のどのような形式でも良いものとした.臨床医学エンティティとエンティティ間関係のアノテーション例を\cref{fig:eg_anno}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{臨床医学エンティティ}医療専門家と議論の上,臨床テキストから抽出できれば医学的な解析や分析に有用となる概念を選別し,10種類の臨床医学エンティティを定義した(\cref{tab:entity_def}).病変・症状,臓器・部位,特徴・尺度,変化,時間表現\footnote{一般的な自然言語文における時間表現のアノテーション仕様を定義したTimeMLの\texttt{<TIMEX3>}を採用した\shortcite{Pustejovsky2003-ui,Sauri2006-yo}.ただし属性のなかでは時間表現の種類を表す\texttt{type}だけを取り入れ,後述する属性値AGE,MED,MISCを本アノテーションの目的に沿って新たに定義した.},検査・問診,薬品,治療,クリニカルコンテクスト,および保留である.これは先行する\shortciteA{Aramaki2009-wo}の仕様をもとに,汎用性を高める方向で拡張したものである.具体的な定義を\cref{tab:entity_def}に示す.なお,性別や氏名といった患者情報も重要な臨床医学的情報であるが,これは臨床医学テキストにメタデータとして含まれていたり,比較的簡単なルールベースないし汎用NERソフトウェアで取得できる情報であるため,人手アノテーションというコストを払うに値しないと判断し,除外した.なお,保留エンティティは非医療専門家でもアノテーションを実行可能にするために導入したもので,アノテーション終了後に専門家のレビューの上で最終的な臨床医学エンティティに振り分けることを意図している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{05table02.tex}\caption{臨床医学エンティティの種類}\label{tab:entity_def}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これら臨床医学エンティティのうち,一部のものには詳細な情報を「属性」として付与する.\begin{description}\item[certainty属性]病変・症状エンティティについて,実際に患者にみられたものであるかを表す.原則全ての病変・症状エンティティに付与するが,がんの進行度を表す標準規格であるTNM分類記号には付与しなくて良い\begin{description}\item[positive]その病変・症状がその患者に実際に認められた場合\item[suspicious]その病変・症状がその患者には認められるのではないかと疑われる場合\item[negative]その病変・症状がその患者には認められなかった場合\item[general]記述時点の患者の状態と関わりなくその病変・症状が記載されている場合\end{description}\item[type属性]時間表現エンティティについて,時間の種類を表す.この属性は全ての時間表現エンティティに付与される\begin{description}\item[DATE]日暦に焦点を当てた日付表現\item[TIME]1日のうちのある時点に焦点をあてた表現や,不定の現在を表す「今」「現在」などの時刻表現\item[DURATION]時間軸上の両端ではなく期間全体を表すことに焦点をあてた期間表現\item[SET]複数の日付・時刻・期間に焦点をあてた頻度集合表現\item[AGE]年齢に関する表現\item[MED]「術後」など医療に特徴的な時間表現\item[MISC]以上のいずれにも該当しない時間表現\end{description}\item[state属性]検査・問診,薬品,治療エンティティについて,患者への実施状況を表す.値よりも名称を表すエンティティに優先的に付与する\begin{description}\item[scheduled]今後実施を予定している場合\item[executed]すでに実施済みの場合\item[negated]中止など,実施しないことになった場合\item[other]上記以外の状態である場合\end{description}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{臨床医学エンティティ間の関係}関係は2つの臨床医学エンティティの間で成立し,方向によって意味が異なる.臨床医学エンティティ\argAから他の臨床医学エンティティ\argBへの関係として,基本関係,時間関係の大きく2種類を定義した.これらに加え,臨床医学エンティティ仕様と同様に,アノテーション作業を補助する目的で,任意のエンティティ間に付与できる「保留」関係も導入している.基本関係は,時間表現以外の臨床医学エンティティが\argAとなるものであり,changeSbj,changeRef,featureSbj,subRegion,keyValueの5種類のタイプに分けられる.各タイプの定義を表\ref{tab:rel_def}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{05table03.tex}\caption{基本関係のタイプ}\label{tab:rel_def}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%時間関係は,\argBに時間表現あるいは文書作成日時(documentcreationtime;DCT)をとり,\argAの発生や存在に関する時間的な情報を表す関係である.関係タイプはtimeOn,timeBefore,timeAfter,timeBegin,timeEndの5種類に分けられる.このうち時間関係timeOnは\argAが\argBに相当する時間で起こったことを表し,おおよその時点や時間的包含関係にある場合も含め,広く適用される.ただし,\argAの開始時点あるいは終了時点に関する時間的前後関係が明示されている場合には他の4つの時間関係タイプが優先される.なお,基本関係の一部のタイプを除いて,同一文内にない臨床医学エンティティ間にも関係を付与するものとした.これは臨床テキストにおいて,例えば特定の部位に存在する病変(subRegion関係にある)を複数文にわたって記述することなどが頻出するためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション例}\cref{fig:eg_anno}に本アノテーションの例を示す.例1には2つの病変・症状(\texttt{<d>}タグ)エンティティが存在し,いずれも事実性あり(certainty=``positive'';+記号で表記)である.2つ目の病変・症状エンティティ「陰影」は,直前の特徴・尺度(\texttt{<f>}タグ)エンティティ「一部」から修飾されている(featureSbj関係)ほか,直後の変化(\texttt{<c>}タグ)エンティティ「増強」で表される変化の主体である(changeSbj関係).時間関係付与の対象となる2つの病変・症状エンティティはいずれもDCTと同時と考えられる(timeOn関係).ただし,「陰影」エンティティからのtimeOn関係は,ガイドライン上で認めた省略ルール(次節で述べる)に従い省略できるため,点線で表示してある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-4ia5f2.pdf}\end{center}\caption{アノテーション例}\label{fig:eg_anno}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%例2はstate属性を持つクリニカルコンテクスト(\texttt{<cc>}タグ)や治療(\texttt{<r>}タグ)エンティティが出現し,いずれも実施された(state=``executed'';+記号)状態と読める.特徴・尺度エンティティ「Afbradyに伴う」は一見すると「Afbrady」の範囲だけで良いように思われるが,「に伴う」かどうかも医学的に重要な情報であるという医学専門家の意見(仕様策定サイクル(2-a))により,エンティティ内に含めるという作業規則になっている.また,時間表現(\texttt{<TIMEX3>}タグ)エンティティ「H364/11~22」\footnote{Hは年号「平成」の略記だが,匿名化のため,実在しない年数に変換してある.}は期間を表し(type=``DURATION''),「入院」という臨床イベントの発生と同時である(timeOn関係)とともに,「warfarization」の開始点と読める(timeBegin関係).エンティティ「循環器内科通院中」と「心不全」の詳細な時期は不明だが,少なくとも「H364/11~22」より前と解せる(timeBefore関係).例3は新たに検査・問診名(\texttt{<t-test>}タグ)エンティティが出現する例である.変化エンティティの変化主体として頻出するのは病変・症状エンティティだが,検査結果が全体的に変化がない(「nochange」)ことが記述されており,changeSbj関係の\argBとして検査・問診名エンティティが当てはまる事例になっている.また,「終了」というキーワードがあることから治療エンティティ「HOT」が時間表現エンティティ「11/17」の日時(type=``DATE'')に実施終了したことをアノテーションできる(timeEnd関係).例1と例3において,もしも前回の検査結果などを記述する文章が前出するなどの場合には,前回の検査を実施した日時を表す時間表現エンティティを\argBとして,それぞれの変化エンティティが\argAとなるchangeRef関係が付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーションガイドラインの作成} \label{sec:guidelines}本ガイドライン設計の指針は,ドメイン知識のない作業者でも十分に実行可能なアノテーション仕様の構築にある.一般に,臨床テキストアノテーションは医師や看護師などの医療従事者またはその経験者によって実施されることが多い.アノテーション対象となる医学的概念の判定には医学知識を要することが多いからである.しかし,医療従事者にアノテーションを依頼すると,ドメイン知識を必要としないアノテーションに比べて作業単価が高くなり,納期も長くなるなど,コストが増大する傾向にある\shortcite{Aramaki2018}.さらに,感染症の流行など医療への需要が高い状況では,ただでさえアノテーション業務へのインセンティブが少ない現役の医療従事者を作業者として迎え入れるのがそもそも困難となる.医学的知識に乏しくてもアノテーションを可能とするために,先行研究\shortcite{Aramaki2018}も参考にしつつ,本研究では大きく以下4点の工夫を導入した.%%%%\bigskip%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{言語表現だけから判断できる手がかりを積極的に記述}アノテータに医学知識がないことから,医学的表現の範囲・種類・属性の判断に迷うことはよく生じる.しかし,医学的知識がなくても,周辺の言語表現を手がかりにして確定できることも多く,そのような例が頻出する場合は積極的にガイドラインに記述した.例えば病変・症状エンティティのcertainty属性は医学的に当該病変・症状が患者に見られたかどうかをコーディングしているが,実際に見つかっている場合(=\texttt{"positive"})は「認めます」や「(+)」などの表現が手がかりになることを例とともに示した.また特定の病変・症状の存在が疑われる場合(=\texttt{"suspicious"}によく使われる専門用語「D/D」(DifferentialDiagnosis;鑑別疾患)に言及するなど,頻出する専門用語についても積極的に紹介した.上記の事例\shortcite[p.~4]{guideline-ja}を\cref{fig:guideline_eg}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{29-4ia5f3.pdf}\end{center}\caption{ガイドラインに示した言語表現上の手がかり例}\label{fig:guideline_eg}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{厳密な医学的差異を吸収し,似た概念を一種類のエンティティ・関係に集約}本仕様では医学的概念としては本来異なる「病変」と「症状」を一種類のエンティティ「病変・症状エンティティ」に集約した.これを厳密に分ける仕様も過去には提案されているが,アノテータがどちらにすべきか迷い,一致率が下がったという報告がある\shortcite{Campillos2018-tx}.例えば副作用抽出の応用では,なんらかの薬品により生じた心身の不調全般が識別できればよく,不調が医学的に「病変」というべきなのか「症状」というべきなのかはあまり重要ではない.本仕様ではそうした応用上の重要性が低い厳密な違いを集約し,医学的知識のないアノテータにとっても仕様がわかりやすくなるよう配慮した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{判断に迷った場合に付与できる「保留」アノテーションを導入}診療録の記入を簡素化する目的で,多数の省略語・短縮語が使用される.一部は医学辞書などでもカバーされているが,特定の病院でのみ使われる表現などもある.医学的知識がない場合,こうした表現の臨床医学エンティティタイプ同定は難しい.医学的な情報のように見えるが,種類がわからないものには,後で医学専門家のレビューを受けやすいように「保留」というエンティティや関係を設定できるようにした.アノテータとしても,作業上この表現を見逃したわけではないことをマークできるという利点がある.例えば「縦隔内に短径4cm程度までのLNsが認められます」という文中における「LNs」は``LymphNodes''を省略した表現で「リンパ節(腫大)」という病変を表すが,このような表記がコーパス中で稀だった場合,病変・症状エンティティと思われるが自信がないという意図で保留(\texttt{<p>}タグ)エンティティを付与できる\shortcite[p.~13]{guideline-ja}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{繰り返し付与することになるアノテーションを省略できるルールの導入}関係アノテーションにおいては,一つのエンティティが他の多数のエンティティと複数の関係を持つこともあり,付与した結果が煩雑な状態になることが多い.仕様の理解を事例から理解する妨げになるほか,アノテーション作業においては人的ミスを誘発することもある.そこで,一部の関係アノテーション付与を省略できるルールを3つ導入した\shortcite[3.4節]{guideline-ja}.そのうちの1つ「時間関係timeOnの省略」は,同じ時間表現エンティティ\textbf{T}を\argBとするエンティティが連続して出現する場合,最初の1つだけtimeOn関係を付与すれば,後続のエンティティは\textbf{T}へのtimeOn関係の付与を省略して良いというものである.例えば医師がある日の患者の診察時,電子カルテに残す診療録は,同一患者の過去のカルテ記述をコピーアンドペーストして作られることが多い\shortcite{Topol2019-xq}.そのため,診療録内の1セクション全体が「前回の診察内容」で,その次のセクションからは当日の検査内容が続く,などの形式がよく見られる.セクションごとに数十のtimeOn関係を厳密に付与する代わりに,参照する時間点が同じセクション内ではtimeOn関係を1つだけにして良いという省略ルールである.なお,ルールに従っている限り,省略されたアノテーションの復元は後処理で自動的に可能である.後述するアノテーション再現度(\cref{sub:iaa})およびタスク性能(\cref{sub:TaskRuns})の評価では,これら省略したアノテーションを復元したコーパスを用いた.%%%%\bigskip\vspace{1\Cvs}以上の工夫はアノテーションの間違いや揺れを生みやすいものの,一度アノテーションされてしまえば後処理の工程でその結果を整形することにそれほど大きなコストがかからないと判断した.また,後続のタスクが要求する医学的情報の粒度によって固有表現認識や関係抽出の出力も調整されるべきであり(病変と症状を同じ概念として取り扱うかや,ナ形動詞の活用部分を含めるかなど),アノテーションの段階で詳細かつ厳密に取り扱おうとして実行可能性やコストパフォーマンスの低下をもたらすよりも望ましいと考えた.また,一般に関係アノテーションの結果は複雑になりやすい.例えば,暗黙に推定できる関係をも考慮すると,あらゆるエンティティ同士に何らかの関係が付与できるかもしれないと作業者が考慮し始め,負担が増大する恐れがある.本仕様では,最終的に文章から明らかにわかるものだけに絞った.例えば病変同士の因果関係や同時性をラベル付けする仕様もあるが\shortcite{Uzuner2011-si},テキストからのそうした判断は医療従事者でも解釈が揺れるもので,医学知識に乏しい作業者にはさらに難しいため,本仕様には含めなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーション結果} \label{sec:outcome}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対象データ}国立がんセンターと国立医薬基盤・健康・栄養研究所から提供を受けた,重篤肺疾患を取り扱う臨床テキストをアノテーション対象とした.この中には診療録が461件,読影所見が3,308件含まれる.診療録とは,医師が患者の診察時に電子カルテシステムに記入する自由記述テキストで,患者の治療歴や検査・投薬歴,当日の診察結果や今後の予定などが書かれている.読影所見は,ある患者のCTスキャン画像やレントゲン画像を解釈する読影医が,その患者の主治医等に向けて画像診断の結果を説明する文書である.\cref{tab:TextSamples}にそれぞれの文書の例を,表\ref{tab:data_size}にコーパスの言語的記述統計を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\caption{コーパス中の文書例}\label{tab:TextSamples}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%重篤肺疾患ドメインに着目するのは,日本国内でも死者数が最も多い疾患の1つだからである\footnote{国立がん研究センターがん情報サービス「がん統計」(厚生労働省人口動態統計)によれば,2019年時の死亡者数順位は肺がんが1位である.そしてがん,すなわち悪性新生物は,昭和56年以降,日本国内の死因の1位を占める(厚生労働省「令和2年人口動態統計月報年計(概数)」).}.医療NLPにより従来の臨床医学研究で用いられた以上の情報が電子カルテから抽出できれば,重篤肺疾患の隠れた特徴や創薬対象の発見につながる可能性があり,ひいては死者数低減に寄与できると見込まれる.なお,本コーパスには患者や医師の個人情報が含まれる.この臨床テキストの取り扱いにあたり,著者らは所属機関において研究倫理審査の承認及び研究倫理教育の講習を受けた.また,アノテーション作業者とは秘密保持契約を結び,第三者に臨床テキストの内容を開示・漏洩しないことを求め,作業後はデータを破棄してもらった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}\caption{データの規模}\label{tab:data_size}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}\caption{アノテーション作業の順序}\label{tab:AnnoFlow}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{方法}\label{sub:annoMethod}アノテーション作業の流れを\cref{tab:AnnoFlow}に示す.本研究では,まず臨床医学エンティティを定義したのち,エンティティ間関係を定義したので,コーパスへのアノテーション作業もこの順で実施した(作業ステップ\MARU{1}→\MARU{4}).ただし,エンティティ・関係それぞれのアノテーション作業において,診療録・読影所見ともに,全体の半分程度についてまず人手でアノテーションを実施し(\MARU{1},\MARU{3}),その過程で仕様の品質をさらに向上させたあと,残り半分のアノテーション(\MARU{2},\MARU{4})に取り組んだ.この後半のアノテーションでは,前半のアノテーションデータを学習データとする固有表現認識ないし関係抽出の機械学習モデル(\cref{subs:model}と同じ)を構築し,事前にこのモデルによるラベル推定結果を付与することで,アノテーション作業の負担軽減を図った(モデル補助アノテーション).すなわち,後半のアノテーションは,機械学習モデルによる自動アノテーションの修正作業となる.これら各作業ステップにおいて,\cref{sub:AnnoCycles}で述べた仕様策定サイクルが繰り返されている.なおモデル補助アノテーションないし事前アノテーションを用いればアノテーションの時間的コストと品質を向上させられることは,一般的なコーパスのみならず\shortcite{Gobbel2014-hd}臨床医学テキストコーパスでも\shortcite{Kholghi2017-ur,Lingren2014-bm}報告されており,実用的と見込んで採用した.この方法は,推定モデルが推定結果についてオラクルの回答を求め,その結果をもとに再学習する能動学習の枠組み\shortcite{Settles2009-bm}において,モデル確信度等によらず全ての推定結果について人間の修正を求める設定ともいえ,アノテーション作業における能動学習の有用性\shortcite{Tomanek2009-mf}からも支持される.最後の作業ステップとして,確定した仕様に沿うよう,コーパス全体を人手で修正した(\MARU{5}).これは,\MARU{1}から\MARU{4}の各作業ステップで都度\cref{sub:AnnoCycles}に示した仕様策定サイクルを実施しており\footnote{厳密には,人手アノテーションである\MARU{1}と\MARU{3}でサイクル(1)から始め,モデル補助アノテーションである\MARU{2}と\MARU{4}ではサイクル(3)から開始した.},仕様変更がそれぞれの作業ステップで発生しているためである.変更された仕様は各作業ステップでアノテーションされた部分(\MARU{1}ならコーパス前半のエンティティアノテーションの範囲)内では作業者によって遡及適用してもらったが,後続の作業ステップでの変更は反映されていない.そこで,最終的に仕様が確定した作業ステップ\MARU{4}終了後,それまでの変更をコーパス全体に適用したということである.「完全な」アノテーション仕様を事前に設計してからアノテーション作業を実施する場合と比べて作業量が増えるのは欠点であるが,エンティティ及び関係をセットにしたような大規模な仕様の完成には通常1年以上の議論を要する\footnote{同様の研究に従事した著者らの経験による.本研究も,実際のアノテーション作業を除き,仕様策定に関する議論の時間だけを抽出すれば,約1年であった(\cref{sub:AnnoCycles}).}.そのような長期間まとまった大きさのコーパスを見ることが叶わないのと比べ,本手法は仕様設計中のアノテーション作業に関する実行可能性や作成された(中規模)コーパスの有用性を早期に検証できるのが利点である.同様の手法は\shortciteA{Alex2010-yi}でも用いられている.アノテーション作業者は計11名で,うち1名は医学研究者である(専門家アノテータ)が,他10名は医療に関する専門的な知識・経験を持たず,日本語への一般的な言語学的アノテーション作業の経験を有する程度である(一般作業者).いずれも著者には含まれず著者所属機関にも属さない外部の作業者である\footnote{著者のうち2名はアノテーション例として5件程度の文書をアノテーションしているが,作業者には含めない.}.専門家アノテータはエンティティアノテーションについて診療録140件程度を人手で,読影所見200件程度をモデル補助アノテーションで従事した.7名の一般作業者はエンティティアノテーションのみ従事し,他3名の一般作業者は関係アノテーションも含めて従事した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーションの記述統計}\label{sub:corpus_stats}アノテーションの結果付与された臨床医学エンティティとエンティティ間関係の総数をそれぞれ\cref{tab:entity_anno_res,tab:relation_anno_res}に示す.臨床医学エンティティ及びエンティティ間関係のいずれも,臨床医学テキストのタイプによって出現しやすいものが異なることがわかる.例えば診療録では薬品名などが出現するのに対し,CTスキャン画像に対するコメントである読影所見ではそれらはほとんど出現しない.時間表現も,投薬や検査の履歴が詳しく書かれる傾向にある診療録の方が多数出現し,タイプも多様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[p]\input{05table07.tex}\caption{臨床医学エンティティアノテーション作業結果}\label{tab:entity_anno_res}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%モデル補助アノテーションを実施した後半のデータでも,各エンティティや関係が前半の比率を概ね保つように増えている.モデル補助によって文書に本来出現するエンティティや関係の分布に大きな偏りが生じる恐れは少ないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験と分析} \label{sec:experiments}本研究で作成したコーパスを2つの方法で評価した.1つは人手によるもので,アノテーションの品質を検討した.もう1つは機械学習モデルを用いた実験で,後続タスクに対するコーパスの有用性を検証した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{05table08.tex}\caption{臨床医学エンティティ間の関係アノテーション作業結果}\label{tab:relation_anno_res}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーションの品質}アノテーションの品質を人手で評価するにあたり,一般作業者がアノテーションを再現できるかと,医学的専門知識を有する者からみて妥当なアノテーションが付与されているかの2観点を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{アノテーション再現度}\label{sub:iaa}本研究ではアノテーションを人手のみの通常作業とモデル補助アノテーションの修正作業にわけたことから,それぞれの場合について,本アノテーションをどの程度再現できるか(再現度)を下記の手順で計測した.まず人手のみ作業とモデル補助作業それぞれで,異なる読影所見・診療録を5件ずつ計20件を,本コーパスの全アノテーションが終了して十分時間をおいて記憶が薄れてから(1ヶ月以上),本アノテーション経験者(一般作業者2名)にガイドラインのみを参照してもらいながら再度アノテーションしてもらった.作業者2名は文書タイプで分担し,選出した20件の文書はどちらか1名だけが再アノテーションした.対象の診療録は,出現する臨床医学エンティティやエンティティ間関係の種類がバランスするように選出し,読影所見は比較的記述の特徴が均一であることから全体よりランダムにサンプリングした.すでに本コーパスに付与されたアノテーションを正解とし,再実施したアノテーション結果がどの程度完全一致するか,その精度・再現率・F1値のマイクロ平均を表\ref{tab:iaa}に示すとともに,再現度の代表値としてこれらマイクロF1値を参照する.ただし,可読性を高めるため各値を100倍した.計算には\texttt{brateval}(ver.\0.3.1)\footnote{\url{https://github.com/READ-BioMed/brateval}}を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{05table09.tex}\caption{アノテーション再現実験の精度・再現率・F1値(マイクロ平均)}\label{tab:iaa}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%臨床医学エンティティアノテーションについては,モデル補助がなくても80前後のF1値を示し,本仕様とガイドラインの実行可能性が高いものであることを示唆している.特に,属性の値の別を考慮しても大きく再現度が下がらないことから,エンティティの状態やモダリティを考慮することは作業品質に大きな悪影響を与えないことがわかる.部分的なコーパスで学習したモデルを用いて自動付与されたアノテーションを修正する作業の場合,再現度が最大で10ポイント程度上昇しており,このアノテーション作業手法の有用性が示唆されている.しかし関係アノテーションは,エンティティに比べると大幅に再現度が低い.関係の項となるエンティティのアノテーションが事前に正しくなければならないうえ,本仕様が時間関係などの複雑な関係も含むことが原因と考えられる.診療録は特に投薬や治療の開始・中止・終了の関係が複雑に記載されることがある一方,読影所見は病変とそれが見つかった部位に関する定型的な記述から構成されることが多い.こうした特徴が再現度にも表れているといえる.しかし,モデル補助アノテーションでは大きく再現度が改善し,診療録で80程度,読影所見で90程度のF1値を得ており,医学的なデータ分析研究などの応用に耐える一貫性があるとみなせる.モデル補助が示したアノテーション例に作業者が従順になっている面もあると考えられるが,本仕様のようなアノテーションでは事例が重要な手がかりになると作業者も述べており,複雑な仕様であるほど事前に「候補」が提示されることでエンティティや関係のカバー率が上がると示唆される.なおアノテーション品質を評価する標準的な手法としては,作業者が初見の文書に対して複数人でアノテーションした結果を比較する,いわゆる一致率評価が知られているが,本研究ではこの評価法の適用を今後の課題としたい.本研究は\ref{sub:AnnoCycles},\ref{sub:annoMethod}節で述べたようにアノテーション作業でのフィードバックを踏まえて順次仕様を更新していく手法を採用したため,事前の仕様確定と作業者初見文書のプールを前提とする一致率評価を適用しにくかった.本節の再現実験は,作業者が過去に一度アノテーションを実施したかもしれない文書を再アノテーションする点で,一致率に比べて簡易な評価となる.しかし一定時間経過による文書およびアノテーション内容の忘却と,ガイドライン外のアノテーション文書例参照禁止という制約のもとでは,初見の文書へのアノテーションに近いという作業者からの報告があり,標準的な一致率評価の限定的代替とみなして採用した.なお作業者には「仕様の評価であって作業者・作業結果の評価ではない」ことを説明したため,高い再現度を得ることは作業者のインセンティブとはならない条件になっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{05table10.tex}\caption{アノテーション済み診療録10件に対する医療従事者のレビュー結果(マイクロF1値)}\label{tab:iaaMedics}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{医療従事者によるレビュー}本研究で得たコーパスの大部分は医学的専門知識のない作業者によってアノテーションされており,アノテーション結果の医学的妥当性は専門家によるアノテーションより低いのではないかという懸念がある.そこで,診療録\footnote{重篤肺疾患患者の診療録には,ある検査時の読影所見文書が入れ子になって挿入(コピーアンドペースト)されていることがあり,文書スタイルとしては読影所見のスーパセットともみなせるため,診療録のみを対象として十分と判断した.}の再現度算出に用いた10文書について,アノテーション結果の医学的妥当性を3名の医療従事者により独立にレビューしてもらった.3名は過去に本仕様のアノテーション経験はなく,本研究の著者や謝辞に挙げる関係者と異なる外部の看護師(2名;ともに実務10年以上)と医師(1名;専門医)である.3名により修正されたアノテーション結果を真の正解とし,本研究で得たアノテーションが一致している度合いをマイクロF1値で算出した結果を\cref{tab:iaaMedics}に示す.エンティティおよび関係アノテーションで96.0以上と,一定の医学的妥当性が認められる結果と解釈できる.なお1文書あたりのアノテーションミスはエンティティで平均して3件ほど,関係で平均して12件ほどとなる.ただし本レビューは,アノテーション済みの文書に対し,ガイドラインも参照しつつ,そこに医学的な間違いがないかを評価してもらうという設定で,モデル補助アノテーションに近いことから,実際に独立してアノテーション作業してもらい一致率を測る標準的な手法よりも評価は高くなる傾向にある点は注意が必要である.アノテータの訓練には1ヶ月以上を要する傾向にあり,執筆時点では作業者の確保が難しく,医学専門家による標準的な一致率評価は今後の課題としたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク性能}\label{sub:TaskRuns}本仕様は臨床医学テキスト向けのNERとREを目的としている.作成されたコーパスが実際に機械学習ベースのNERとREに用いられる水準の品質かどうか,実験を通して確認する.本研究では,アノテーション作業を人手のみとモデル補助によるものとの2つに分けて実施した.両者の品質は違うことが予想されるため,それぞれのデータセットで実験するとともに,両データセット全てを用いた実験も行う.この設定により,本コーパスの質と量がタスクに与える影響を考察する.本仕様の臨床医学エンティティの一部には属性が与えられているため,便宜的にNERを2つのサブタスクに分解し,計3つのNLPタスクを実施する.\begin{itemize}\item臨床医学エンティティ認識(MER)\item臨床医学エンティティ属性値分類(MOD)\item臨床医学エンティティ間関係抽出(MRE)\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデル}\label{subs:model}機械学習モデルの実装はJaMIE\shortcite{Cheng2022-lq}\footnote{\url{https://github.com/racerandom/JaMIE}}を用いた.臨床医学エンティティ認識,属性値分類,関係抽出を一気通貫(end-to-end)に解くモデルである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{MER}日本語Wikipediaコーパスで事前学習したBERT\footnote{NICTBERT(\url{https://alaginrc.nict.go.jp/nict-bert/index.html})を用いた.一般に,適用先ドメインに即したコーパスで事前学習する方が性能向上すると知られることから,予備的実験では東京大学附属病院の診療録で事前学習したUTH-BERT\shortcite{Kawazoe2021-eh}も試したが,NICTBERTの方が性能が良かったため採用を見送った.}を使用し,入力テキストを形態素単位で文脈依存の分散表現にしたうえ,CRFで制約する出力層で臨床医学エンティティのBIO(Begin,Inside,Outside)タグを予測する(BERT-CRF).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{MOD}病変・症状エンティティ(\texttt{<d>}タグ)など属性を持つ臨床医学エンティティの属性値については,BERT-CRFの出力結果を入力として受け取る別の多層パーセプトロンによる分類モデルで予測する.具体的には,前述のBERT-CRFによってスパンを予測された各臨床医学エンティティのうち属性を持ちうるものについて,それを構成する形態素の分散表現の和と,その臨床医学エンティティタイプを表す分散表現を連結したベクトルを入力とし,中間層を1つ経てsoftmax関数で属性値を分類する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{MRE}関係抽出はMultipleHeadSelection\shortcite{Zhang2017-ow}方式を採用し,入力文中の各エンティティについて,関係の種類と関係付与先(第2項)となるエンティティを推定する.前述のBERT-CRFモデルの上に,シグモイド関数で活性化する全結合層を1つ持つネットワークを接続する.なお学習・推論時に,関係がないことを表す「Null関係」を便宜的に導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験方法}エンティティ・属性値・関係の認識・分類・抽出度について,エンティティ・属性・関係タイプ全種(保留を除く)のマイクロF1値を算出し,5分割交差検証の平均値で評価する.すなわち,人手のみデータセット,モデル補助データセット,および両者を合わせた全データセットそれぞれにおいて5分割交差検証を実施した.各検証において,学習セットの10\%サンプルを開発(dev)セットとして使用した.入力テキストはJuman辞書を用いたMeCabでトークナイズし,サブワード分割した.モデル学習における最適化関数はAdamW\shortcite{Loshchilov2019-fl}とし,学習率を$2.0\times10^{-5}$,学習エポック数20,バッチサイズは4とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果と考察}MER,MOD,MREの実験結果をそれぞれ表\ref{tab:result_ner},\ref{tab:result_mod},及び\ref{tab:result_rel}に示す.いずれのタスクにおいても,人手データセットよりもモデル補助データセットの方が性能が高く,両者全てを用いた場合は中間的な性能に落ち着く傾向がみられた.診療録ではモデル補助データセットの方が量が少なく,読影所見ではその逆であるにもかかわらず,その傾向が共通していることを踏まえると,モデル補助データセットの方がアノテーション一貫性が高いことを示唆している.\cref{sub:iaa}で報告したアノテーション再現度の評価結果とも符合する.ただし,モデル補助データセットにはモデル推論により人手データセットの情報が間接的に伝播していて,性能向上に寄与しうることに注意したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[p]\input{05table11.tex}\caption{臨床医学エンティティ認識(MER)におけるマイクロF1値(5分割交差検証の平均)}\label{tab:result_ner}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[p]\input{05table12.tex}\caption{臨床医学エンティティ属性値認識(MOD)におけるマイクロF1値(5分割交差検証の平均)}\label{tab:result_mod}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,臨床医学テキスト種の違いでみると,診療録よりも読影所見の方が全体的に性能が高い.特に読影所見ではマイクロF1値が0.9前後を示し,医学的なデータ分析研究などへの応用には申し分ないと思われる水準に達している.これは\cref{sub:corpus_stats}でも述べた両者の違い,特に出現するエンティティや関係タイプが診療録においてより複雑であることによると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{05table13.tex}\caption{臨床医学エンティティ間関係抽出(MRE)におけるマイクロF1値(5分割交差検証の平均)}\label{tab:result_rel}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{05table14.tex}\caption{アノテーション手法および文書タイプ横断実験の結果(マイクロF1値)}\label{tab:CrossExpr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%アノテーション手法および文書タイプによるコーパスの違いを考察するために,追加実験を実施した.一方のアノテーション手法で学習し他方のアノテーション手法でテストするアノテーション手法横断実験(文書タイプ別)と,一方の文書タイプで学習し他方の文書タイプでテストする文書タイプ横断実験(学習・テストともに全データセットを使用)である.簡単のため,ハイパーパラメータは本実験のまま固定し,各設定で5分割交差検証ではなく1度きりの実施とした.両実験の結果をまとめて\cref{tab:CrossExpr}に示す.アノテーション手法横断実験では,文書タイプによらず人手データセットで学習してモデル補助でテストする場合の性能が一貫して良いことから,モデル補助データセットがテストセットとしてのアノテーション一貫性に優れていることがここでも示唆された.文書タイプ横断実験では,読影所見で学習し診療録でテストした結果が著しく低い.読影所見は診療録よりもシンプルな文書スタイルであり,診療録よりも含まれるエンティティ・関係タイプ数が少ない(\cref{tab:entity_anno_res,tab:relation_anno_res})ためと考えられる.その逆の設定では一定の転移学習に成功している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本研究では,自然言語処理の医療ドメイン適用に向け,日本語の臨床医学テキストに汎用的に適用できるアノテーション仕様を提案し,重篤肺疾患患者の診療録と読影所見でコーパスを作成した.仕様は臨床医学表現を固有表現とする臨床医学エンティティアノテーションと,それらの間の医学的関係である臨床医学エンティティ間関係アノテーションからなる.言語処理研究者,医学専門家,アノテーション作業者の三者を交えた反復的なプロセスに基づいて,コーパスを作りながら仕様とガイドラインを策定した.コーパスは半分程度のアノテーションが終わった段階で固有表現認識・関係抽出モデルを作成し,モデルで事前にアノテーションしたデータを修正する形式の作業に切り替え,効率化と品質向上を図った.作成したコーパスでは,臨床医学テキスト種によってアノテーションされた臨床医学エンティティ・関係の数が異なり,テキスト種の特徴を表していることがわかった.このコーパスを用いた固有表現認識・関係抽出タスクでは,end-to-endのニューラルネットワークモデルが高い性能を発揮し,モデル補助アノテーションに基づくデータセットの一貫性が人手アノテーションのみのデータセットよりも高いことが示唆された.臨床医学分野の自然言語処理においては,テキストに含まれる個人情報の懸念もあり,アノテーション済みデータが少ないことが指摘されてきた\shortcite{Gonzalez-Hernandez2017-cx}.一方,NLPのためのアノテーションガイドライン(指針)を策定する知見は,論文上では十分に公開されない.本論文はアノテーション策定への作業レベルの検討も報告することで,コーパス不足にある医療NLP応用の促進に貢献するとともに,医療以外のドメインへのNLP応用におけるコーパス作成手続きへの示唆を与える意義があると考える.ただし本研究では,臨床医学テキストとして重篤肺疾患領域の電子カルテテキストのみを用いている点は課題である.真の汎用アノテーション仕様を目指すならば,他の疾患をめぐる臨床医学テキストへも適用できるべきだからである.我々は,本仕様に基づいたアノテーションを他のテキスト種・言語へと適用することを進めている.まず,本研究で作成した日本語のアノテーションガイドライン\shortcite{guideline-ja}を英語に翻訳し\shortcite{guideline-en},本仕様の国際化に努めた.さらに,国立情報学研究所による共同評価基盤NTCIR第16回において,実世界の臨床医学テキストに対する言語処理に取り組むタスクとして採択されたReal-MedNLP\footnote{\url{https://sociocom.naist.jp/real-mednlp/}}では,本仕様に基づくアノテーションを肺疾患に限らない症例報告論文(日本語,英語とも)に適用した.このような過程で本仕様の限界が浮き彫りとなり,本仕様の修正や改善を進めることで,汎用性をさらに向上させられると考える.また医療NLPにおいては,固有表現認識や関係抽出といったタスク単体としての評価にとどまらず,その結果を活用した医療情報学的応用においての有用性も測定されるべきである.例えば\shortciteA{Aramaki2009-wo}は,アノテーションされたコーパスから医療表現抽出モデルを作成した上で,その抽出結果を用いて電子カルテに記載された患者の診療情報を表形式に可視化するシステムを構築している.このような臨床現場の医療従事者に直接役立つ応用の他にも,基礎研究すなわち医療言語処理技術で大規模コーパスから抽出された臨床医学情報に基づいたビッグデータ解析などへの応用も考えられる.実際,本研究のモデル・コーパスから抽出されたデータも活用したオミックス分析により,突発性肺繊維症に有効なタンパク質の同定に貢献した実績がある\shortcite{Natsume-Kitatani2022-ol}.こうした直接患者の生死に結びつかない応用では,本研究のアノテーション品質ないしモデル性能(F1値0.8--0.9程度)のように多少のノイズを含んでも実用に耐えることを踏まえ,我々は今後も本研究の成果を社会実装に役立てることを目指す.なお自動診断などの致命的な応用においてはさらなる品質・性能が求められるため,本研究の成果に対する批判的検討が期待される.本研究で策定したアノテーションガイドラインは日本語\footnote{\url{https://doi.org/10.6084/m9.figshare.16418787}}・英語\footnote{\url{https://doi.org/10.6084/m9.figshare.16418811}}ともに公開している.また,本研究で作成したアノテーション済みコーパスも,医薬基盤・健康・栄養研究所で運営されるプラットフォーム「峰」\footnote{\url{http://www.nibiohn.go.jp/mine/}}から公開される予定である.なお本アノテーション仕様には,文書タイプによって出現が稀なエンティティや関係もあり,後続タスクにおける機械学習モデルの訓練に不十分なことがある.実際,本コーパスの読影所見では薬品関連のエンティティや時間的開始・終了を表す関係はごく低頻度で,診療録でも中止された入退院を表すエンティティが稀であるなどした.本仕様・コーパスはあくまで汎用性を目指したが,こうした一部のエンティティや関係タイプを不採用としたり,カバーされなかったタイプを新設するなどして,各種応用のたたき台として利用されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSTAIP-PRISMの助成を受けました.研究内容は\shortciteA{Yada2020-LREC}と\shortciteA{Cheng2022-lq}を発展させたものです.本研究に医学的見地からの助言をしていただいた伊藤眞里研究員をはじめとする国立医薬基盤・健康・栄養研究所の皆様,小林和馬研究員をはじめとする国立がんセンターの皆様に感謝いたします.また,本アノテーション仕様の初期設計に関わってくださった九州大学の伊藤薫氏と立命館大学の城綾実氏に御礼申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}%%%%\bibliography{05refs}\input{IA0290_05yada_bbl.tex}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{矢田竣太郎}{%2014年,東京大学教育学部総合教育科学科卒業.2016年,同大学大学院教育学研究科修士課程修了.2019年,同博士課程単位取得退学.博士(教育学).2020年より奈良先端科学技術大学院大学助教.医療言語処理および図書館情報学に従事.}\bioauthor{田中リベカ}{%2013年お茶の水女子大学理学部情報科学科卒業.2015年同大学院博士前期課程修了.2018年同博士後期課程単位取得退学.博士(理学).2021年よりお茶の水女子大学文理融合AI・データサイエンスセンター特任講師.}\bioauthor{FeiCheng}{%receivedhisB.S.degreeinAppliedPhysicsfromDonghuaUniversityin2005.HereceivedM.S.andPh.D.inInformaticsfromNARAInstituteofScienceandTechnologyin2013and2018.Hisresearchinterestsincludeinformationextraction,morphologicalanalysis,andabroadrangeofnaturallanguageprocessingtopics.Currently,heisaprogram-specificassistantprofessoratKyotoUniversity.}\bioauthor{荒牧英治}{%2000年京都大学総合人間学部基礎科学科卒業.2005年東京大学大学院情報理工系研究科博士課程修了.2020年より奈良先端科学技術大学院大学教授.博士(情報理工学).自然言語処理の医療応用に関する研究に従事.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.2020年より文部科学省科学官.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V28N02-10
\section{はじめに} \label{sec:intro}インターネット上の会話が活発化するにつれ,会話文の自動要約技術の必要性は益々増している.ニューラルネットワークを使用したモデルは教師あり要約において,高い性能を発揮しているが,教師なし要約への応用は未だ限定的である.教師あり要約モデルの学習には,数万の要約-本文対が必要になる.あらゆるドメインにおいてこれらの対データを用意することは現実的ではないため,教師なし要約の手法が求められている.我々は返信を伴う会話形式のテキストを対象とした教師なし要約手法を提案する.過去,多くの教師なし要約手法が提案されてきた.文の類似度グラフのCentralityを使用した手法は強力な教師なし要約手法であり\cite{mihalcea-tarau-2004-textrank,Erkan:2004:LGL:1622487.1622501,zheng-lapata-2019-sentence},会話文の要約にも応用されている\cite{mehdad-etal-2014-abstractive,shang-etal-2018-unsupervised}.Centralityの他にも,文の特徴量ベクトルのCentroid\cite{gholipour-ghalandari-2017-revisiting},Kullback-Leiblerdivergence\cite{haghighi-vanderwende-2009-exploring},ReconstructionLoss\cite{He:2012:DSB:2900728.2900817,Liu:2015:MSB:2887007.2887035,ma-etal-2016-unsupervised-multi},単語をノードとした有向グラフの経路スコア計算\cite{mehdad-etal-2014-abstractive,shang-etal-2018-unsupervised}などが,要約に使われている.上記全ての手法の前提にあるのは,重要なトピックは文書中に高頻度に言及されるという点である.しかし,重要なトピックは必ずしも高頻度に言及されるわけではない.そのため,もし重要なトピックの言及回数が少ない場合,上記手法は重要文の抽出に失敗する.より高精度の要約を実現するためには,“頻度”とは異なる文書の側面に着目する必要がある.頻度とは異なる文書の重要度の指標として,我々は“引用のされやすさ”に着目する.我々は,メールや投稿文に返信する際,投稿の一部分を引用することがある.具体例を図\ref{fig:quote}に示す.右側の返信の例にあるように.引用文は,引用符“>”から始まり,返信先の投稿文中の文・フレーズと一致する箇所を指す.高頻度に引用される箇所は重要であると考えられるため,引用される箇所を予測できれば,本文中で言及される頻度に関わらず,重要な情報を含む文を抽出できると考えられる.過去の研究に,引用を要約モデルに補助的に利用したものがある.Careniniは,引用文に現れる単語に重み付けをし,Centroidベースの要約手法の精度を向上させた\cite{Carenini:2007:SEC:1242572.1242586,oya-carenini-2014-extractive}.ただし,ほとんどの返信は明示的な引用を含まない.そのため,引用を直接教師データとして扱うことは難しい.我々は,引用文を教師として使用せずに引用箇所を抽出できるモデル,ImplicitQuoteExtractor(IQE:暗黙的引用抽出器)を提案する.図\ref{fig:quote}に示す例のように,引用文は返信が言及している投稿の箇所であるため,明示的な引用が無い場合にも,返信内容から本来引用されるべき箇所を間接的に特定できる.これを暗黙的引用と呼称する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia9f1.pdf}\end{center}\hangcaption{投稿と引用付きの返信と引用無しの返信の例.暗黙的引用は,返信が言及している投稿の一部であるが,返信には明示的に示されていないものを指す.}\label{fig:quote}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IQEは,返信によって言及される箇所を特定することにより,明示的な引用なしに,引用箇所を抽出することを目指す.IQEは投稿と返信候補のみを学習に使用し,明示的な引用を使用しない.返信候補は,投稿に対する実際の返信,あるいはランダムにサンプリングされた返信である.学習タスクは,返信候補が実際の返信であるかどうかを判定することである.IQEは,投稿から少数の文を抽出し,これを真偽判定の特徴量に使う.IQEは返信候補の真偽判定の性能を向上させるように文抽出のパラメータを学習するので,返信が言及しやすい文を要約として抽出するようになる.要約は本文のみから作成する必要があり,返信に依存してはならない.そのため,IQEは抽出文の選択に,返信の特徴量を使わない.すなわち,IQEは学習時にのみ返信を必要とし,評価時には必要としない.IQEが抽出するのは返信に依存した引用箇所では無く,返信によって最も引用されやすい箇所となる.IQEを2つのメールデータセット,Enron要約データセット\cite{loza-etal-2014-building}の業務メールと私用メールで評価し,また,ソーシャルメディアのデータセットとして,RedditTIFUデータセット\cite{kim-etal-2019-abstractive}でも評価を行い,多くのベースラインの性能を上回ることを確認した.提案したモデルは2つの仮説に基づいている.1つは提案モデルが引用を抽出できるという点である.IQEは引用抽出を目的としているが,引用を教師として使用していないため,実際に引用される文を抽出できるかは明らかでない.そのため,我々は,提案モデルがどの程度引用を抽出できるか評価する.もう1つの仮説は,引用は要約として有用であるという点である.先行研究\cite{Carenini:2007:SEC:1242572.1242586,oya-carenini-2014-extractive}は引用文を利用して,Centroid要約モデルの性能を向上させ,引用が要約に有効であることを示した.しかしながら,これらの先行研究は引用を補助的な特徴量として使用しているため,引用それ自体が要約になりうるかは明らかでない.これを検証するため,我々は引用を要約とみなし,そのROUGE値を評価することで,引用が要約として有用であるかを評価する.引用が多数存在するRedditデータセットで,上記2点の仮説を検証し,仮説を裏付ける結果を得た.また,定量的,定性的2つの観点で,頻度ベースの既存手法が抽出できない重要文を提案モデルが抽出できることを示した.本研究の貢献は以下の3つである.\begin{itemize}\item言及頻度に依存した従来の教師なし抽出型要約手法の問題点を指摘し,新たな文書の重要度の指標として“返信による引用のされやすさ”を提案,実験により有効性を示した.\itemEnd-to-endで学習可能な教師なし抽出型要約モデル,ImplicitQuoteExtractor(IQE)を提案し,ベースラインと同等の性能を示すことを2つのメールデータセットと1つのソーシャルメディアデータセットを対象にした評価実験によって示した.\item引用を実際に含むソーシャルメディアデータセットを使い,提案モデルが引用を抽出しやすいこと,また,引用が要約に有用であることを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 要約手法は2つの方法に大別される.抽出型要約(ExtractiveSummarization)と生成型要約(AbstractiveSummarization)である.これまで提案されてきたほとんどの教師なし要約手法は抽出型である.教師あり要約においては,ニューラルネットワークを使用した手法が多く提案され発展を遂げているが,教師なし抽出型要約においては古典的手法が現在でも強力である.文の類似度グラフのCentrality\cite{mihalcea-tarau-2004-textrank,Erkan:2004:LGL:1622487.1622501,zheng-lapata-2019-sentence},Bag-of-wordsなどの文の特徴量ベクトルのCentroid\cite{gholipour-ghalandari-2017-revisiting}を利用した手法は教師なし抽出型要約における主要な手法とされてきた.その他にも,抽出文の特徴量ベクトル(単語の頻度ベクトルやParagraphVectorなどを使用)から本文の特徴量ベクトルを復元するReconstructionLoss\cite{He:2012:DSB:2900728.2900817,Liu:2015:MSB:2887007.2887035,ma-etal-2016-unsupervised-multi}を用いたものや,抽出文と文全体のUnigram単語分布のKullback-Leiblerdivergence\cite{haghighi-vanderwende-2009-exploring}を利用した手法がある.単語をノードとしたグラフの経路スコア計算を用いた手法\cite{mehdad-etal-2014-abstractive,shang-etal-2018-unsupervised}は,複数文圧縮アルゴリズム\cite{filippova-2010-multi}に依拠している.ニューラルネットワークを利用した教師なし抽出型要約手法もいくつか存在する.Skipgramから得られた単語ベクトルの和を文ベクトルとして,サブモジュラ最適化を行う手法\cite{kageback-etal-2014-extractive}や,ParagraphVectorを用いて計算された抽出文と全文の特徴量の誤差を最小化する手法\cite{ma-etal-2016-unsupervised-multi},CNN言語モデルやBERTの特徴量をTextRankに適用する手法\cite{Yin:2015:OSM:2832415.2832442,zheng-lapata-2019-sentence}が提案されている.これらは事前学習されたニューラルネットワークを特徴量抽出器として用いて,既存の要約モデルに適用しているが,我々はend-to-endでの学習が可能なフレームワークを提示する.End-to-endで学習可能なニューラルネットワークベースの要約モデルは,生成型のモデルがいくつか提案されている.文圧縮においては,シャッフルされた単語を元の順番に並び替えるタスクを使用したもの\cite{fevry-phang-2018-unsupervised},圧縮された文から元の文を復元するタスクを使用したもの\cite{baziotis-etal-2019-seq}がある.レビュー文の生成型要約として,木構造の親ノードから要約生成を行うもの\cite{isonuma-etal-2019-unsupervised},レビュー文の特徴量ベクトルの平均ベクトルから要約を生成する手法\cite{DBLP:conf/icml/2019},VAE(VariationalAuto-Encoder)の事前分布を要約生成に応用したもの\cite{amplayo-lapata-2020-unsupervised}がある.他に,マスクされた文を復元するタスクを要約生成に応用した研究がある\cite{laban-etal-2020-summary}.メール,チャット,ソーシャルメディアなどのオンライン会話の要約は古くから研究されている.ニューラルネットワークを利用した要約モデルが台頭している一方,会話文の要約には非ニューラルモデルが使われている.既存手法として,単語をノードとしたグラフの経路スコア計算を利用したもの\cite{mehdad-etal-2014-abstractive,shang-etal-2018-unsupervised}がある.DialogueAct分類は,文をその役割(例:質問,回答,挨拶など)ごとに分類するタスクであるが,会話文の要約研究にも応用されている\cite{bhatia-etal-2014-summarizing,oya-carenini-2014-extractive}.引用は要約の重要な要素になりうる.我々は返信する際,重要な箇所を強調するため,引用を利用する.引用を特徴量として活用した研究として,引用に出現した単語に重み付けをして,Centroidベースの手法を改善したものがある\cite{Carenini:2007:SEC:1242572.1242586,oya-carenini-2014-extractive}.この先行研究では,引用を補助的な特徴量として使用したが,本研究では,引用のみに着目する.また,本研究では明示的な引用を教師信号として使わずに,暗黙的引用を抽出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案モデル} \label{sec:model}本研究では,教師なし抽出型要約モデルであるImplicitQuoteExtractor(IQE)を提案する.図\ref{fig:model}にモデルの概要を示す.学習時のモデルの入力は投稿と返信候補である.返信候補は,投稿に対する真,あるいは偽の返信である.IQEの学習タスクは返信候補が真であるか偽であるかを判定することである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-2ia9f2.pdf}\end{center}\hangcaption{提案モデル,ImplicitQuoteExtractor(IQE)の概要図.Extractorは,投稿の文をいくつか抽出し,返信候補が投稿に対する真の返信であるかの予測に利用する.$k$と$j$は1からNの整数である.}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IQEは3つの構成要素から成る.Encoder,Extractor,Predictorである.Encoderは,投稿文の特徴量を計算する.Extractorは少数の文を投稿から抽出する.この抽出文はテスト時には要約として使用される.PredictorはExtractorが抽出した投稿の文を用いて,返信候補の真偽を判定する.各構成要素の詳細を以下に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Encoder}Encoderは投稿の特徴量を計算する.まず,投稿を$N$個の文$\{s^p_1,s^p_2,...,s^p_N\}$に分割する.各文${s^p_i}\(i\in\{1,...,N\})$は$K_i$個の単語$W^p_{i}=\{w^p_{i1},w^p_{i2},...,w^p_{iK_i}\}$を含む.単語は単語埋め込み層を通じて,連続空間のベクトル$X^p_{i}=\{\boldsymbol{x}^p_{i1},\boldsymbol{x}^p_{i2},...,\boldsymbol{x}^p_{iK_i}\}$に埋め込まれる.各文の特徴量$\boldsymbol{h}^p_{i}$は各埋め込み単語ベクトルを双方向LongShort-TermMemory(BiLSTM)に入力し,最初と最後の隠れ層を結合することで得る.\begin{equation}\boldsymbol{h}^p_{i}=\textrm{BiLSTM}(X^p_{i})\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Extractor}ExtractorはAttention機構を用いて返信候補の真偽判定に利用する少数の文を投稿から抽出する.IQEが正確な判定を行うようパラメータを学習する過程で,Extractorは返信が言及しやすい文を抽出するように学習する.これは,返信に言及されない文は返信候補の真偽判定に有用では無いからである.Extractorは抽出文の選択に返信の特徴量を使わないことに注意されたい.これは,要約の抽出処理を返信に依存させないようにするためである.IQEは学習時にのみ返信を必要とし,評価時には返信なしで要約を抽出することができる.我々はExtractorにおける特徴量計算器としてLSTMを使用する.Extractorの隠れ層の初期値$\boldsymbol{h}^{ext}_{0}$として,Encoderの隠れ層$\boldsymbol{h}^p_{i}$の平均値を使用する.Extractorの隠れ層$\boldsymbol{h}^{ext}_{t}$は入力ベクトル$\boldsymbol{x}^{ext}_{t-1}$を逐次的に入力することで更新される.この逐次的な更新は,抽出したい文の数$L$回分行われる.\begin{equation}\boldsymbol{h}^{ext}_{t}=\begin{cases}\frac{1}{N}\sum_{i=1}^N\boldsymbol{h}^p_{i}&(t=0)\\\textrm{LSTM}(\boldsymbol{x}^{ext}_{t-1})&(1\leqt\leqL)\end{cases}\end{equation}ExtractorのLSTMへの入力ベクトル$\boldsymbol{x}^{ext}_{t}(0\leqt\leqL)$は,以下のように計算される.\begin{equation}\boldsymbol{x}^{ext}_{t}=\begin{cases}\boldsymbol{p}&(t=0)\\\sum_{i=1}^N\alpha_{ti}\boldsymbol{h}^p_{i}&(1\leqt\leqL)\end{cases}\end{equation}$t=0$の時,$\boldsymbol{x}^{ext}_{t}$はパラメータベクトル$\boldsymbol{p}$であるが,$t>0$の時,Encoderで計算された投稿文の特徴量ベクトル$\boldsymbol{h}^p_{i}$の線形和である.この線形和は,Attention機構によって計算される.図\ref{fig:model}に示すようにExtractorはLSTMとAttention機構を用いて逐次的に文を抽出する.図の$\boldsymbol{h}^p_{k}$および,$\boldsymbol{h}^p_{j}$は抽出された投稿の文を示し,$k$,および$j$は,1からNの整数である.Attention機構を用いて抽出する投稿文を一意に決定するには,Attentionの重みベクトルをone-hotにする必要がある.このため,学習時にはGumbelSoftmax\cite{JangGP17}を使用する.one-hot化されたAttentionの重み$\boldsymbol{\alpha}_{t}=\{\alpha_{ti}\}$は,以下の式によって計算される.ここで,$t$は$1$から$L$までの整数である.\begin{gather}u_i\sim\textrm{Uniform}(0,1)\\g_i=-\log{(-\log{u_i})}\\a_{ti}=\boldsymbol{c}^{T}\tanh(\boldsymbol{h}^{ext}_{t}+\boldsymbol{h}^p_{i})\\\pi_{ti}=\frac{\exp{a_{ti}}}{\sum_{k=1}^{N}{\exp{a_{tk}}}}\\\alpha_{ti}=\frac{\exp{(\log{\pi_{ti}}+g_i)/\tau}}{\sum_{k=1}^N\exp{(\log{\pi_{tk}}+g_k)/\tau}}\end{gather}式(4)(5)のように,Gumbelノイズ$\boldsymbol{g}=\{g_i\}$を,一様分布からサンプリングされたノイズ$\boldsymbol{u}=\{u_i\}$を用いて生成する.次に式(6)のように,重み$a_{ti}$を,Extractorの隠れ層$\boldsymbol{h}^{ext}_{t}$とEncoderが計算した各投稿文の特徴量ベクトル$\boldsymbol{h}^p_{i}$から計算する.重みベクトル$\boldsymbol{a}_t=\{a_{ti}\}$は,式(7)(8)を通じて,one-hotに近い重みベクトル$\boldsymbol{\alpha}_{t}=\{\alpha_{ti}\}$に変換される.$\boldsymbol{c}$はパラメータベクトルであり,温度定数$\tau$は0.1に固定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Predictor}抽出された投稿の文と返信候補の特徴量を使い,Predictorは返信候補が実際の返信であるかどうかを判定する.実際の投稿に正のラベル,ランダムにサンプリングされた返信候補に負のラベルを付与した.返信候補$R=\{s^r_1,s^r_2,...,s^r_M\}$は$M$個の文から成ると仮定する.これらの文の特徴量ベクトル$\boldsymbol{h}^r_{j}\(j\in\{1,...,M\})$は,数式(1)と同様に計算される.\pagebreak投稿と返信候補の関係の計算に,DecomposableAttention\cite{parikh-etal-2016-decomposable}を使用する.DecomposableAttentionは,2つのテキストを文ごとに分解し,テキスト間の関係性予測に使用するモデルである.IQEも同様に,投稿を文単位に分割して2つの文集合の関係性を計算するため,同様の機構を持つモデルとして,DecomposableAttentionを採用した.抽出された文のベクトル$\boldsymbol{x}^{ext}_{t}$,および返信の文のベクトル$\boldsymbol{h}^r_{j}$をDecomposableAttentionに入力し,得られた出力をシグモイド関数に入力することで,二値分類の確率値$y$を得る.\begin{equation}y=\textrm{sigmoid}(\textrm{DecomposableAttention}(\boldsymbol{x}^{ext}_{1},...,\boldsymbol{x}^{ext}_{L},\boldsymbol{h}^r_1,...,\boldsymbol{h}^r_M))\end{equation}この分類タスクの損失関数$\mathcal{L}_{rep}$は,以下のようにCrossEntropyを用いて計算される.$t_{rep}$は返信候補が実際の返信である時1であり,そうでない時には0である.\begin{equation}\mathcal{L}_{rep}=-t_{rep}\log{y}-(1-t_{rep})\log{(1-y)}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 我々は,2種類のデータセットで学習と評価を行う.1つはメールデータであり,もう1つはソーシャルメディアRedditのデータセットである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メールデータセット}\label{sec:data_enron}我々はAvocadocollection\footnote{\url{https://catalog.ldc.upenn.edu/LDC2015T03}}を学習に使用する.Avocadocollectionは倒産したIT企業から得た279のアカウントの公開メールデータセットである.このデータセットから,投稿と返信の対を収集し,モデルの学習データを作った.投稿と返信の対の内,単語数が50語以下の投稿,あるいは25語以下の返信を含む対を除去した.この前処理の後,56,174の対を得た.ランダムサンプリングにより,誤った投稿と返信の対を取得する.実際の投稿と返信の対に正のラベル,誤った投稿と返信の対に負のラベルを付与した.正のラベル,負のラベルの数は同数である.すなわち,合計して,112,348の対を得た.評価のため,Enron要約データセットを使用する\cite{loza-etal-2014-building}.このデータセットは2つの評価データセットから成る.ECS(EnronCorporateSingle)とEPS(EnronPersonalSingle)である.ECSは業務用メールのデータセットであり,EPSは私用メールのデータセットである.各メールの要約は2名のアノテーターによって,2つずつ作成されている.表\ref{tab:data}に,これらのデータセットの概要を示す.これらのデータセットは開発データセットを含まないため,ECSの開発データセットをEPS,EPSの開発データセットをECSとした.開発データセットは,評価に使うモデルの決定に使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{09table01.tex}\caption{評価データセットの概要.}\label{tab:data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{RedditTIFUデータセット}\label{sec:data_reddit}RedditTIFUデータセット\cite{kim-etal-2019-abstractive}は,tldrタグを要約タスクに応用したデータセットである.tldrは``toolongdidntread''の略である.RedditのTIFUと呼ばれるオンライン掲示板では,本文が長すぎる時に要約をtldrとして記す慣習がある.我々はメールデータセットと同様の前処理をTIFUデータセットに対しても行う.既存研究\cite{kim-etal-2019-abstractive}で公開されたTIFUデータセットには返信データが付いていないため,我々はpraw\footnote{\url{https://praw.readthedocs.io/}}を用いてこれを収集した.結果,183,500の投稿と返信の対を得た.ランダムサンプリングにより,負のラベルの付いた対を同数得て,学習データとして合計367,000対を得た.学習データに含まれていない投稿とtldrの対の内,tldrの単語長が20以上のものを2,500対得て,1,240を開発データセット,もう1,260を評価データセットとした.TIFUの評価データセットの概要をメールデータセットと同じく表\ref{tab:data}に記す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習}\label{sec:training}単語埋め込み層とLSTMの隠れ層の次元はそれぞれ100とした.単語数は30,000とした.メールやソーシャルメディアの投稿と返信を文に分割した後に単語に分割した.分割にはnltkのtokenizer\footnote{\url{https://www.nltk.org}}を用いた.文数の上限を30文,各文の単語数の上限を200語とした.学習のepoch数を10とし,ミニバッチサイズは64,optimizerとしてAdam\cite{KingmaB14}を用いた.Adamのパラメータとして,$\alpha=0.001,\beta_1=0.9,\beta_2=0.999,eps=1e-8$を用いた.最初の数epochではExtractorを使用せずに,投稿の全ての文を返信候補の真偽判定に使用する.これはExtractorとPredictorをそれぞれ効率的に学習するためである.Extractorはどの文を抽出すべきかを学習するが,Predictorは投稿と返信候補の関係を学習する.そのため,2つの構成要素が別々のことを同時に学習しなければならない.一般に,複数の構成要素を持つモデルは,各構成要素を事前学習しておいた方が高性能になる\cite{hashimoto-etal-2017-joint}.そのため,最初の数epochではPredictorのみを学習し,Extractorを学習しない.この閾値は,全投稿文を返信候補の真偽判定に利用した時の分類精度(F1-score)が収束するepoch数から決定する.学習時には,Extractorが抽出する文数$L$を1から4にランダムに変化させた.投稿あるいは返信候補のテキスト中に出現する固有表現(人物,場所,組織)を,StanfordNamedEntityRecognizer(NER)\footnote{\url{https://nlp.stanford.edu/software/CRF-NER.shtml}}を用いてタグに置換した.これは,モデルがただ固有表現のみを抽出の判断材料に使うことを防ぐためである.単語埋め込み層のベクトルはSkipgramを用いて事前学習したものを初期値とした.その際,学習にはIQE自体の学習データと同じデータを使用した.我々は同じ実験を5回繰り返し,平均値を結果として計算する.これは,学習パラメータの初期値や最適化の際の乱数の影響を小さくするためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価}\label{sec:test}評価時には,EncoderとExtractorのみを使用し,Predictorを使用しない.IQEとベースライン要約モデルは3文を要約として抽出する.先行研究に倣い,我々はROUGE-1,ROUGE-2,ROUGE-LのF1値のデータ毎の平均値を評価に使用する\cite{lin-2004-rouge}.各モデルは3文を抽出し,評価に使用する.ROUGEの計算にはROUGE2.0\cite{ganesan2015rouge}を使用する.この時,stemming,同義語処理,およびstopwordは使用していない.開発データの評価指標として,ROUGE-1のF1値を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースラインモデル}ベースラインモデルとして,TextRank\cite{mihalcea-tarau-2004-textrank},LexRank\cite{Erkan:2004:LGL:1622487.1622501},KL-Sum\cite{haghighi-vanderwende-2009-exploring},PacSum(idf),PacSum(BERT)\cite{zheng-lapata-2019-sentence},Lead,そしてRandomを使用する.TextRank,およびLexRankはグラフCentralityベースの手法で,教師なし要約において長らく強力な手法として認められてきた.PacSumはTextRankを改良した手法である.これは,Centralityに加え,文の順番を特徴量として利用する.PacSumは文の類似度グラフ計算に,古典的な単語の共起度にidfを積算したものを用いることもできるが,BERT\cite{devlin-etal-2019-bert}などのニューラルネットワークの分散表現を利用しても有効性を発揮する.本実験では,前者のモデルPacSum(idf)と,後者のモデルPacSum(BERT)両方で実験を行う.KL-Sumは抽出された文と本文が同じ単語分布を持つようにKLDivergenceを用いて制約をかける手法である.Leadは最初の数文を抽出する手法であるが,ニュース記事要約において強力な手法とされてきた.加えて,ベースラインとしてIQETextRankを使用する.これは文同士の類似度として,IQEのEncoderの文ベクトルのCosine類似度を使用したTextRankのモデルである.このモデルで実験を行う理由は,我々の提案手法の性能が単にニューラルネットワーク由来でないことを示すためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{09table02.tex}\hangcaption{ECSデータセットにおける結果.太字は最も良い結果を,下線は2番目に良い結果を示している.提案手法の$\pm{}$は,5回実験した際の標準偏差を示す.$\dagger$は提案手法IQEが有意に勝っている箇所,$\natural$は提案手法IQEが優位に劣っている箇所を示す(p$<$0.05;PairedBootstrapResampling).}\label{tab:ecs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{09table03.tex}\hangcaption{EPSデータセットにおける結果.太字は最も良い結果を,下線は2番目に良い結果を示している.提案手法の$\pm{}$は,5回実験した際の標準偏差を示す.$\dagger$は提案手法IQEが有意に勝っている箇所,$\natural$は提案手法IQEが優位に劣っている箇所を示す(p$<$0.05;PairedBootstrapResampling).}\label{tab:eps}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果と考察} 表\ref{tab:ecs},\ref{tab:eps},\ref{tab:tldr}にそれぞれの評価データセットに対する結果を示す.表中の$\dagger$は,提案手法IQE(固有表現置換有り)が有意に勝っている箇所,$\natural$は,IQEが優位に劣っている箇所を示している.有意差検定にはPairedBootstrapResampling\cite{koehn-2004-statistical}を使用した.各モデルの出力の評価値を評価データの総数の半分に当たる回数分,重複有りでランダムサンプリングし,提案手法の性能が上回る確率を1,000試行行うことで計算する.我々の提案手法IQEはメールデータセット(ECS,EPS)において,ROUGE-2-Fの評価値がPacSum(BERT)に及ばなかったものの,他の多くのベースラインモデルの性能を評価指標において上回った.RedditTIFUデータセットにおいては,IQEはTextRank以外のベースラインモデルの性能を上回った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{09table04.tex}\hangcaption{TIFUtldrデータセットにおける結果.太字は最も良い結果を,下線は2番目に良い結果を示している.提案手法の$\pm{}$は,5回実験した際の標準偏差を示す.$\dagger$は提案手法IQEが有意に勝っている箇所,$\natural$は提案手法IQEが優位に劣っている箇所を示す(p$<$0.05;PairedBootstrapResampling).}\label{tab:tldr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ECS,およびEPSデータセットにおいて,IQETextRankは性能面において,IQEを大きく下回った.これは,提案手法の有効性が単にニューラルネットワーク由来のものでは無いことを支持する.過去の研究\cite{zheng-lapata-2019-sentence}においても,TextRankのグラフの類似度計算にニューラルネットワークの特徴量を利用したモデルは性能が低下することが報告されている.提案手法はECSデータセットよりもEPSデータセットにおいて,より大きくLexRankやTextRankを上回った.この理由は表\ref{tab:data}に記されたデータセットの概要から説明できる.各文中の平均単語数はEPSの方が少ない.LexRankやTextRankのようなベースラインモデルは単語の共起情報を利用した文類似度を文抽出に利用する.そのため,文長が短ければ共起ネットワークは疎になり,文間の関係性をうまく捉えられなくなり,性能が低下する.RedditTIFUデータセットにおいて,LexRankやPacSumのROUGE値は低い結果となった.これは,idfや順序情報がRedditTIFUデータにおいて有効でないことを示唆している.また,提案手法はRedditTIFUデータセットにおいて,TextRankより低性能となった.考えられる理由として,IQEの学習がRedditデータにおいて,メールデータより難しいということが挙げられる.IQEの返信候補の真偽判定の精度(F1-score)は,5回平均で,メールデータでは0.803であったが,Redditデータでは0.741であった.この理由には,それぞれのデータの投稿数の長さと,返信の長さが関連している.IQEは,投稿から一部の文のみを,返信候補の真偽判定に使用する.そのため,投稿が長ければ長いほど,返信が言及しやすい文を抽出する難易度が増加する.反対に,返信は長ければ長いほど判断材料が増えるため,抽出した文が返信と関係しているかの判断が容易になる.学習データにおけるメールデータの投稿の平均文数,返信の平均単語長はそれぞれ7.7,150.0であるが,Redditデータの投稿の文数,返信の平均単語長はそれぞれ,16.9,101.5であった.このことがRedditデータにおける学習の難しさを示している.返信の長さに差が生じている理由は,Redditは誰でも返信ができるという特性があり,それにより,メールと比べてユーザーが重要箇所に返信しなければならないという義務感を持ちにくいという点が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{引用抽出性能と要約性能との関係}\label{discuss_quote}提案モデルはメールデータセットにおいて高い性能を発揮したが,2つの疑問が残る.1つは,提案モデルは引用を直接教師データとはしておらず,そのため提案モデルが実際に引用箇所を抽出しやすいのか不明確であるという点である.もう1つの疑問は,引用と要約性能の関係についてである.我々はCareniniらの先行研究\cite{Carenini:2007:SEC:1242572.1242586,oya-carenini-2014-extractive}に従い,引用が要約に有用だと仮定した.しかし,この先行研究では引用を補助的な特徴量として使用しているので,引用自体が要約に有用なのか明らかでない.これら2つの疑問を明らかにするために,2つの実験を行った.\ref{sec:data_enron}章で使用したEnronデータセット\cite{loza-etal-2014-building}には引用を含む返信がほとんど存在しない.そのため,実験において我々はRedditTIFUデータセットとprawを通じて得た返信を利用する.このデータセットは\ref{sec:data_reddit}章で説明したものであり,ここから引用を含む返信を抽出する.ここで,``$>$''という記号から始まり,かつ返信先の投稿に含まれている文を引用と定義する.合計して,1,969の投稿と引用を含む返信の対を得た.返信で引用される文を,要約モデルがどの程度正確に投稿から抽出できるか,また,引用が要約として有用でありうるかを,これらのデータを用いて評価する.比較には,表\ref{tab:tldr}において,最も良い結果を出したTextRankを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{提案モデルの引用抽出性能}要約モデルの引用抽出能力を評価するため,引用抽出を情報抽出タスクとみなし,Precision@3(prec@3)で評価した.これは,各要約モデルが抽出した3つの文の中にどの程度引用文が含まれているかを示す.表\ref{tab:implicit_mrr}に結果を示す.IQEはTextRank,そしてRandomより引用を抽出する性能が高いことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{被引用箇所は要約になりうるか?}引用が要約として有用であるかを検証するため,我々は引用自体を要約とみなし,そのROUGE値を計算した.我々は前項で説明したRedditから得た引用データ1,969を引用の文数に応じて分類し,それぞれROUGE値を計算した.また比較のため,TextRankやランダムに同数の文を取得した場合(Random)のROUGE値も計算した.表\ref{tab:quote_rouge}に結果を示す.引用文の文数が1文あるいは2文の時,引用(Quote)は,TextRankの性能をROUGE-2-F,ROUGE-L-Fにおいて上回った.この結果は,引用が要約として有効であるという仮説を支持する.引用が3文である時,性能は著しく減少した.これは引用が基本的に連続した文であるという制約があるのに対し,TextRankは文の順序を問わず,最適な文を自由に抽出できるからと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{09table05.tex}\caption{各モデルの引用抽出性能.}\label{tab:implicit_mrr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{09table06.tex}\caption{引用を抽出要約とみなした時のROUGE.太字は最も良い結果を示している.}\label{tab:quote_rouge}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{09table07.tex}\hangcaption{Ablationtestの結果.固有表現置換や事前学習を行わない場合の結果を示す.$\dagger$はIQEが有意に勝っている箇所を示す(p$<$0.05;PairedBootstrapResampling).}\label{tab:ner}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{AblationTests}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{固有表現置換の影響}固有表現の影響を調べるため,固有表現置換を行わない場合の結果を議論する.表\ref{tab:ner}のメールデータにおける結果は,固有表現置換は性能向上に寄与することを示している.これは,人名,地名,組織名は正しい返信を判定する際の大きなヒントになり得るからと考えられる.例えば,投稿と返信が同じ人物の名前に言及していると,モデルは人物名を含む文を単純に抽出するようになる.固有表現の置換は,固有表現ではなく意味的に返信に関連する文をモデルに抽出させることを促す.しかしながら,表\ref{tab:ner}が示すように,RedditTIFUデータセットでは固有表現置換はあまり性能に影響を与えなかった.Redditは匿名掲示板であるため,投稿は特定の人物名に言及しにくいと考えられる.そのため,固有表現が投稿と返信候補の真偽判定の手がかりにはなりにくい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{事前学習の影響}\ref{sec:training}章で説明したように,我々はPredictorを最初の数epochで事前学習した.これはExtractorとPredictorを別々に学習するためである.表\ref{tab:ner}にPredictorの事前学習の影響の結果を示す.事前学習なしでは,性能は低下した.これは各構成要素を別々に学習させることの重要性を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存手法との相違点}\ref{sec:intro}章で述べたように,ほとんどの既存の教師なし要約手法は重要なトピックが高頻度に言及されるという仮定に基づいている.TextRankはその好例である.TextRankは文の類似度グラフのCentralityを重要文抽出に使用する.多くの場合Centralityの指標としてPageRankが使われる.すなわち,TextRankはPageRankの高い文を要約として抽出する.ある文のPageRankが高いということは,その文が他の多くの文と類似度が高いことを意味している.これはその文が言及する話題に他の文も言及していることを示す.我々は,重要なトピックは必ずしも頻繁に言及されるわけではないと考え,言及頻度とは異なる性質に着目した.それは返信による引用のされやすさ,である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{28-2ia9f3.pdf}\end{center}\hangcaption{ECSおよびEPSデータセットの各メールにおいて,最大のPageRankとROUGE-1-Fの相関を示した図.X軸は,四捨五入された最大PageRankを,Y軸はROUGE-1-Fを,エラーバーは標準誤差を示している.}\label{fig:correlation}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%TextRankと比較し,我々の提案手法がCentralityベースの手法では捉えきれない重要文を抽出できることを示す.図\ref{fig:correlation}に最大PageRankと各モデルが抽出する文のROUGE-1-Fの関係性を示す.各テキストを文に分割し,文毎にPageRankを計算する.その内,最大のPageRankを小数点第一位で四捨五入し,同一の最大PageRank値を持つデータ間のROUGE-1-Fの標準誤差をエラーバーとして示す.使用したデータはECSとEPSであり,ROUGE値は各モデルが1文要約として抽出した時の値を示している.図より,TextRankが抽出する文のROUGE-1-Fは,最大PageRankと比例して増加する.最大PageRankが低い時,IQEが抽出した文のROUGE-1-F値は,TextRankを上回る.これは,提案手法が言及回数の少ない場合にも,重要文を捉えられるという仮説を支持している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{09table08.tex}\hangcaption{\textbf{ImplicitQuoteExtractor(IQE)(bold)}と\textit{TextRank(italic)}によって抽出されたEPSデータセットの文の具体例.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:example}にIQEとTextRankがそれぞれ抽出した要約の具体例(EPSデータセット)を示す.参照要約は,メールの受信者の昇進や発信者の出産に言及している.これらは本文で一度しか言及されていないため,TextRankはそれらの文の抽出に失敗しているが,我々の提案モデルは正しくそれらの文を抽出できている.それは,こうしたトピックが返信によって言及されやすいからである.実際,学習に使用したAvocadoMailCollectionデータの返信で,baby,promoted,promotionはそれぞれ566回,58回,456回言及されている.表\ref{tab:example_tldr}に載せたRedditTIFUデータセットの具体例にも同様の傾向が見られる.すなわち,kittenやsquirrelは一度しか言及されていないため,TextRankはそれらの文の抽出に失敗しているが,提案モデルIQEはそれらの文を抽出できている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{09table09.tex}\hangcaption{\textbf{ImplicitQuoteExtractor(IQE)(bold)}と\textit{TextRank(italic)}によって抽出されたRedditTIFUデータセットの文の具体例.}\label{tab:example_tldr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本稿では,従来手法とは異なる文の重要度の指標である“引用のされやすさ”に着目した教師なし抽出型要約モデルImplicitQuoteExtractorを提案し,その有効性を2つのメールデータセット(ECSとEPS)と1つのソーシャルメディアデータセット(RedditTIFU)を対象にした評価実験で示した.我々は,従来手法とは異なる指標に着目したが,従来手法で用いられた“言及頻度”も依然として重要であるため,これら両方の側面を考慮するモデルの考案が今後の課題となる.また,提案モデルがより引用を抽出しやすく,かつ引用が要約に有用であるとする仮説を,RedditTIFUデータセットを用いて検証し,仮説を支持する結果を得たが,メールデータセットでは検証できなかった.メールデータセットは引用を含む返信と参照要約を同時に持つデータを含んでいなかったからである.我々の仮説がメールやその他のデータセットでも有効であるかを検証することが今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment東京工業大学奥村・高村・船越研の皆様には研究の方針に関して様々なアドバイスを頂きました.ここに感謝の意を表します.本研究は,The1stConferenceoftheAsia-PacificChapteroftheAssociationforComputationalLinguisticsandthe10thInternationalJointConferenceonNaturalLanguageProcessing(AACL-ICJNLP2020)の発表``IdentifyingImplicitQuotesforUnsupervisedExtractiveSummarizationofConversations''で報告した研究に,追加実験を加え,加筆修正したものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{09refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{狩野竜示}{%2011年東京大学理学部生物学科卒業.2013年同大学院情報理工学系研究科知能機械情報学専攻修了.2013年から2020年まで富士ゼロックス株式会社に勤務.2019年より東京工業大学工学院情報通信コース博士課程に在籍.2020年より富士フイルム株式会社画像技術センターにおいて,医療言語処理,要約関連の研究に従事.}\bioauthor{谷口友紀}{%2004年神戸大学大学院自然科学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,富士フイルム株式会社画像技術センターにおいて,医療言語処理,情報抽出の研究に従事.言語処理学会会員.}\bioauthor{大熊智子}{%1996年慶應義塾大学政策・メディア研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,富士フイルム株式会社画像技術センターにおいて,医療言語処理,情報抽出の研究に従事.言語処理学会理事.博士(学術).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N05-08
\section{はじめに} \label{sec:intro}\subsection{背景と動機}参照結束性(referentialcoherence)とは,主題の連続性や代名詞化によってもたらされる,談話の局所的な繋がりの滑らかさである.本研究の目的は,参照結束性を引き起こすメカニズムの定量的モデル化である.この問題を扱う動機を以下に示す.\begin{itemize}\item[1.]{\bf認知言語学的動機:}談話参与者(発話者,受話者;筆者,読者)が高い参照結束性で繋がる表現/解釈を選択するのは,どのような行動選択メカニズムによるものだろうか?~参照結束性の標準的理論であるセンタリング理論\shortcite{grosz1983,grosz1995}は,この行動選択メカニズムをモデル化していないという課題を残している.上記の問いに対する仮説として,Hasidaetal.\citeyear{hasida1995}はゲーム理論\shortcite{osbone1994,neumann1944}に基づく定式化を提案した.この仮説を{\bf意味ゲーム(MeaningGame)}と呼ぶ.意味ゲーム仮説は日本語コーパスで検証された\shortcite{siramatu2005nlp}が,日本語以外の言語では未検証である.近年,語用論や談話現象などの言語現象をゲーム理論で説明しようとする研究が増えている\shortcite{parikh2001,rooij2004,benz2006}ことからも,意味ゲーム仮説が言語をまたぐ一般性を有するか否かを実データ上で検証することは重要な課題である.\item[2.]{\bf工学的動機:}対話システムや自動要約処理では,参照結束性が高い順序で発話や文を並べ,理解しやすい談話構造を出力することが重要である.そのためには,発話$U_i$までの先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性のモデル化が不可欠である.工学的に,$U_{i+1}$の候補群から1つの候補を選択する基準として用いるためには,参照結束性の高い候補を選択するためのメカニズムを定量的にモデル化し,そのモデルによって参照結束性の高さを定量的な値として推定できることが望ましい.つまり,本研究が目指す処理の出力は,{\bf先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性を表す定量的な値}である.これを,様々な言語の談話処理システムから利用可能にすることを目指す.\end{itemize}本研究が扱う参照結束性という談話現象は,談話参与者の認知的な負荷削減と密接に関連する.もし,談話参与者の負荷を削減しようとする発話行動が,様々な言語で参照結束性を引き起こす基本原理となっているのならば,その原理を定式化することで,言語をまたぐ一般性を備えた参照結束性のモデルを構築できるはずである.われわれは,意味ゲーム仮説に基づいてセンタリング理論を一般化するというアプローチを踏襲することで,そのような言語一般性を備えたモデルを構築できると考える.これにより,ゲーム理論に基づく定量的・体系的な参照結束性の分析が,様々な言語で可能になると期待される.\subsection{目的と課題}本研究の目的は,(1)「参照結束性はゲーム理論の期待効用原理で説明できる」という仮説\shortcite{hasida1996,siramatu2005nlp}を,性質の異なる様々な言語の実データを用いて検証し,(2)それによって言語一般性を備えた参照結束性の定量的モデルを構築することである\footnote{本研究の目的は照応解析の精度向上ではない.また,機械学習を用いた照応解析研究\shortcite{ng2004,strube2003,iida2004}は,参照結束性を引き起こす行動選択メカニズムの解明を目指してはいないので,本研究とは目的が異なる.}.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f1.eps}\caption{2つの課題}\label{fig:issues}\vspace{-\normalbaselineskip}\end{center}\end{figure}本研究の目的のために重要な2つの課題を,図\ref{fig:issues}および以下に示す.\begin{itemize}\item[1.]{\bf言語独立な行動選択原理のモデル化:}談話参与者は,コミュニケーションを阻害しない程度に知覚的負荷の軽減が見込まれる表現と解釈を選択する.この行動選択原理から,様々な言語の上での参照結束性のメカニズムを説明できるとわれわれは予想する.この原理を意味ゲームのフレームワークに基づいて定式化することで,参照結束性の選好を談話参与者の知覚的な因子(談話中で参照される実体に向ける注意や,参照表現を用いる際の知覚的なコスト)からボトムアップにモデル化する.そのモデルが参照結束性を説明できるか否かを,様々な言語の実データで確かめる.\item[2.]{\bf言語依存な特性を統計的に獲得可能なモデル化:}原理的には言語に独立な行動選択機構があるにしても,表層表現の知覚においては各言語の特性に依存する言語的因子があると考えられる.具体的には,談話参与者が実体に向ける注意の度合(顕現性;salience)や,参照表現を用いる際の知覚的なコストは,各言語に特有な言語表現に影響されるはずである.言語毎の手作業の設計を避け,より精緻に当該言語に適応させるためには,当該言語のコーパスからその特性を自動獲得可能なモデルが望ましい.そのためには,顕現性や知覚コストを統計的に定式化する必要がある.\end{itemize}\subsection{アプローチ}本稿では,上で述べた2つの課題に対して以下のアプローチをとる.\begin{itemize}\item[1.]{\bf参照結束性を引き起こす行動選択原理の言語をまたぐ一般性を検証:}Hasida\citeyear{hasida1995},白松他\citeyear{siramatu2005nlp}の仮説(ゲーム理論に基づく参照結束性の定式化)が,言語をまたぐ一般性を有するか否かを検証する.具体的には,性質が異なる2つの言語である日本語と英語のコーパスを用いて検証実験を行う.\item[2.]{\bf言語依存な知覚的要因を表すパラメタを統計的に設計:}参照結束性に影響する知覚的な要因(実体の顕現性,参照表現を使う際の知覚コスト)は,言語毎に特有な表現に影響されると考えられるので,これらをコーパスに基づく統計的なパラメタとして設計する.具体的には,言語特有の表現に依存するパラメタ分布を,日本語と英語のコーパスから獲得する実験を行う.これにより,統計的定義の妥当性を検証する.\end{itemize}以下,\ref{sec:issues}章で従来研究の概要と問題点を説明し,\ref{sec:ut}章では白松他\citeyear{siramatu2005nlp}のモデルを多言語に適用する際の問題点を解決する.\ref{sec:verification}章では,性質が異なる大きく異なる2つの言語である日本語と英語のコーパスを用い,モデルの言語一般性を検証する.\ref{sec:discussion}章では,参照結束性の尺度としての期待効用の性質,および,代名詞化の傾向に関する日本語と英語の違いを考察する.最後に,\ref{sec:conc}章で結論を述べる. \section{従来研究の概要と問題点} \label{sec:issues}以下では,まずセンタリング理論による非定量的なモデル化の概要と問題点を述べる.次に,その定量的な一般化である白松他\citeyear{siramatu2005nlp}のモデルの概要と,言語一般性に関する問題点,および,多言語への適用のために解決する必要のある問題点を述べる.\subsection{センタリング理論}\paragraph{センタリング理論の概要}センタリング理論\shortcite{grosz1983,grosz1995}は,参照結束性に関する標準的理論である.センタリング理論では,局所的に共同注意の焦点になっている実体を{\bf中心(center)}と呼ぶ.実体に対する共同注意の度合,すなわち実体の目立ち具合を{\bf顕現性(salience)}と呼ぶ.顕現性の順に文法役割を順序付けするヒューリスティクスは,{\bfCf-ranking}と呼ばれる\shortcite{walker1994}.Cf-rankingには言語によって違いがあり,日本語と英語では以下のように定義される.\\\hspace{2mm}日本語:主題(助詞ハ)$\succ$主語(助詞ガ)$\succ$間接目的語(助詞ニ)$\succ$目的語(助詞ヲ)$\succ$その他\\\hspace{2mm}英語:~~~主語$\succ$目的語$\succ$間接目的語$\succ$補語$\succ$その他\\ただし${\itgram}_1\succ{\itgram}_2$は,${\itgram}_1$の顕現性が${\itgram}_2$より高いことを表す.談話[U$_1$,U$_2$,$\cdots$,U$_n$]における各発話単位$U_i$の中心は,Cf-rankingの顕現性順序に基づき以下の3つの制約によって定義される.\begin{itemize}\item{\bf制約1:}発話単位$U_i$は1つの{\bf後向き中心(backward-lookingcenter)}Cb($U_i$)を持つ.\item{\bf制約2:}{\bf前向き中心(forward-lookingcenters)}Cf($U_i$)の全要素は$U_i$で参照される.\item{\bf制約3:}Cb($U_i$)は,$U_i$で参照される実体のうちでCf($U_{i-1}$)における顕現性順序が最も高い.\end{itemize}なお,Cf($U_i$)の要素のうち最も顕現性順序が高い実体Cp($U_i$)は{\bf優先中心(preferredcenter)}と呼ばれ,後続発話のCb$(U_{i+1})$の予測であると解釈される.これらの制約に基づき,参照結束性は以下の2つのルールで形式化される.\begin{itemize}\item{\bfルール1:}Cf($U_i$)の要素のうち1つでも代名詞化されるなら,Cb($U_i$)は代名詞化される.\item{\bfルール2:}隣接する発話単位対では,以下のように中心の連続性が高い遷移ほど好まれる.\\~~~~~~~{\bfContinue}(Cb($U_i$)$=$Cb($U_{i+1}$),Cb($U_{i+1}$)$=$Cp($U_{i+1}$))\\~~~~$\succ${\bfRetain}~~~~(Cb($U_i$)$=$Cb($U_{i+1}$),Cb($U_{i+1}$)$\neq$Cp($U_{i+1}$))\\~~~~$\succ${\bfSmooth-Shift}(Cb($U_i$)$\neq$Cb($U_{i+1}$),Cb($U_{i+1}$)$=$Cp($U_{i+1}$))\\~~~~$\succ${\bfRough-Shift}~~(Cb($U_i$)$\neq$Cb($U_{i+1}$),Cb($U_{i+1}$)$\neq$Cp($U_{i+1}$))\end{itemize}ただし${\ittrans}_1\succ{\ittrans}_2$は,遷移タイプ${\ittrans}_1$が${\ittrans}_2$よりも好まれることを表す.ルール1は「後向き中心Cbは代名詞化されやすい」という傾向を意味し,ルール2は「中心は連続しやすい」という傾向を意味する.図\ref{fig:coherence}に,ルール1,2に従う例,すなわち参照結束性の高い例と,ルール1,2に従わない例,すなわち参照結束性の低い例を示す.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f2.eps}\caption{参照結束性が高い繋がり,低い繋がりの例}\label{fig:coherence}\end{center}\end{figure}\paragraph{センタリング理論の問題点}センタリング理論を構成する制約やルールについては,研究者ごとに様々なバリエーションが提案されている\shortcite{poesio2004}.それらの試みは理論の改良を意図したものだが,「なぜルール1,2を満たす表現が選択されるのか」という行動選択原理の形式化が不十分という点においては改善されていない.このことから,原理を欠いたまま,際限なくヒューリスティクスのバリエーションが提案されていくという状況が危惧される.これに対してわれわれは,参照結束性を引き起こす行動選択機構の,よりシンプルな定量的モデルが必要であると考える.言い換えると,センタリング理論は,談話参与者の行動選択原理から参照結束性のメカニズムを説明するモデルによって一般化されるべきである.この一般化により,定量的な観点からの,より体系的な分析が可能になると期待される.また,Cf-rankingは言語依存な因子の一例であるが,これを各言語特有の文法役割の上で設定するには人手が必要である上,その定義には統計的根拠を欠く.たとえば,Walkerら\citeyear{walker1994}の日本語Cf-rankingにおける目的語と間接目的語の順序は,根拠が明らかでない.\subsection{意味ゲームに基づくセンタリングモデル}\label{sec:mgcm}\paragraph{意味ゲームの概要}{\bf意味ゲーム(MeaningGame)}\shortcite{hasida1995,hasida1996}とは,自然言語による意図的コミュニケーションを複数のプレイヤーによるゲームと見なし,ゲーム理論\shortcite{neumann1944,osbone1994}によって数理的にモデル化する枠組である.発話者を$S$,受話者を$R$,意味内容の集合を$C$,表現(メッセージ)の集合を$M$,発話者が意図した内容$c_S$,発話した表現$m$,受話者が解釈した内容$c_R$の三つ組$\langlec_S,m,c_R\rangle$の集合を$O=C\timesM\timesC$とおき,$S$と$R$が$o=\langlec_S,m,c_R\rangle$を選択する確率をPr$(o)$,談話参与者$X$にとっての$o$の効用($o$が選ばれることによって$X$が得る利得)をUt$(o,X)$とすると,$X$にとっての{\bf期待効用}(効用の期待値)は$$\sum_{o\inO}{\rmPr}(o){\rmUt}(X,o)$$と表され,$X$は期待効用が大きくなるような$o$を選択しやすい.この行動選択原理は{\bf期待効用原理}と呼ばれ,ゲーム理論や意思決定理論で一般的な仮説である.また以下の仮定を置くと,期待効用を最大化する$o$がPareto最適解\footnote{どのプレーヤについても単独で戦略を変えることによって自分の利得が高くならないようなプレーヤ達の戦略の組合せを(Nash)均衡と言い,全プレーヤにとってより望ましい均衡がないような均衡をPareto最適であると言う.}となる.\begin{itemize}\item{\bf確率Prに関する仮定:}${\rmPr}(o)$は,$S$と$R$の共有信念から定まる.また,${\rmPr}(o)$の分布自体が$S$と$R$の共有信念に含まれる.\item{\bf効用Utに関する仮定:}${\rmUt}(S,o)$と${\rmUt}(R,o)$の分布に相関がある.すなわち,${\rmUt}(S,o_1)>{\rmUt}(S,o_2)ならば{\rmUt}(R,o_1)>{\rmUt}(R,o_2)$が成り立つ.\item{\bfコミュニケーション成立に関する仮定:}常に$c_S=c_R$である.すなわち,意味内容の伝達が必ず成功する.\end{itemize}\noindentHasida\citeyear{hasida1996}は,この枠組に基づいて$S$による照応詞選択,および,$R$による照応解消を定式化することにより,センタリング理論のルール1が導けることを示した.\paragraph{意味ゲームに基づくセンタリングモデルの概要}白松他\citeyear{siramatu2005nlp}は,ルール1の導出に関するHasidaの議論を以下のように定式化することでセンタリング理論を一般化し,その仮説を日本語の大規模コーパスを用いて検証した.ただし,以下では発話単位$U_i$までの先行文脈$[U_1,\cdots,U_i]$を${\rmpre}(U_i)$と表記する.\begin{itemize}\item{\bf参照確率Prに関する仮定:}発話者$S$と受話者$R$が先行文脈${\rmpre}(U_i)$を共有し,これを手がかりにして後続発話$U_{i+1}$で参照される実体$e_1,e_2,\cdots$を決定するとき,後続発話$U_{i+1}$で実体$e$が参照される確率${\rmPr}(e|{\rmpre}(U_i))$も,$S$と$R$の共有信念に含まれる.この確率を{\bf参照確率(referenceprobability)}と呼び,実体$e$の顕現性を表す量と見なせる.センタリング理論のCf-rankingに対応する.\item{\bf知覚効用Utに関する仮定:}後続発話$U_{i+1}$に含まれる参照表現$w$を$S$が言う(書く)知覚的なコストと,$R$が聞く(読む)知覚的なコストを考えると,$S,R$双方にとって代名詞の方が非代名詞よりも低コストなので,$S$,$R$双方にとっての$w$の効用として共通の値Ut($w$)を用い,$w$が代名詞のとき${\rmUt}(w)=2$,$w$が非代名詞のとき${\rmUt}(w)=1$と仮定する.この効用を{\bf知覚効用(perceptualutility)}と呼び,参照表現$w$の簡略性を表す量と見なせる.センタリング理論のルール1における代名詞/非代名詞の区別に対応する.\item{\bfコミュニケーション成立に関する仮定:}後続発話$U_{i+1}$に含まれる参照表現$w_1,w_2,\cdots$と実体$e_1,e_2,\cdots$との参照関係$\langlew_1,e_1\rangle,\langlew_2,e_2\rangle,\cdots$について,$S$の意図と$R$の解釈とが必ず一致する.\end{itemize}\noindentこれら3つの仮定の下で,発話$U_{i+1}$の{\bf期待効用}${\rmEU}(U_{i+1})$は以下のように表される\footnote{「$w_1$が$e_1$を参照する」という事象と「$w_2$が$e_2$を参照する」という事象は互いに排反ではないので,${\rmEU}(U_{i+1})$の定義は厳密な意味での期待効用とは異なる.しかし,「大きな期待効用を持つ表現/解釈が好まれる」という期待効用原理においては,複数の候補を期待効用の大小に基づいて選択できることが重要である.${\rmEU}(U_{i+1})$がこの性質を満たすことはHasidaetal.\citeyear{hasida1995}に例示されているので,本稿では省略する.}.$${\rmEU}(U_{i+1})=\hspace{-1mm}\sum_{w\mbox{refersto}e\mbox{in}U_{i+1}}\hspace{-4mm}{\rmPr}(e|{\rmpre}(U_i)){\rmUt}(w)$$この期待効用${\rmEU}(U_{i+1})$を最大化するような参照関係$\langlew,e\rangle$から成る$U_{i+1}$がPareto最適解となるので,$U_{i+1}$の表現/解釈の選択メカニズムは単純な期待効用原理に帰着できる.その期待効用原理から,センタリング理論ルール1,2の一般化である以下の選好1a,1b,2が導かれる.\begin{itemize}\item{\bf選好1a:}1つの発話単位$U_{i+1}$が複数の参照表現を含む場合,その中から${\rmUt}(w_1)>{\rmUt}(w_2)$であるような参照表現のペア$w_1,w_2$を選び,それぞれ指示対象との組が$\langlew_1,e_1\rangle,\langlew_2,e_2\rangle$であるとき,実体$e_1,e_2$の参照確率の大小関係は${\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i))$になりやすい.すなわち,知覚効用が高い参照表現$w_1$の方が,参照確率が高い実体$e_1$を参照しやすい(図\ref{fig:crossed_or_uncrossed}).\item{\bf選好1b:}照応詞$w$の効用{\itUt$(w)$}とその指示対象$e$の参照確率Pr$(e|{\rmpre}(U_i))$の間には正の相関がある.\item{\bf選好2:}より大きな期待効用EU($U_{i+1}$)を持つ$U_{i+1}$が選ばれやすい.\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f3.eps}\caption{期待効用原理から導かれる選好1a,1b}\label{fig:crossed_or_uncrossed}\end{center}\vspace{-\normalbaselineskip}\end{figure}選好1aは,期待効用原理から導かれ,センタリング理論のルール1の一般化になっている.図\ref{fig:crossed_or_uncrossed}に示すように,実体$e$をPrの降順に,参照表現$w$をUtの降順に並べたときに,交差しない参照関係(A)に伴う期待効用${\rmEU_A}(U_{i+1})$の方が,交差する(B)に伴う${\rmEU_B}(U_{i+1})$よりも常に大きくなる.よって期待効用原理より,(A)の方が(B)よりも選ばれやすい.このとき,実体$e$がCbならば参照確率が高くなり,参照表現$w$が代名詞ならば知覚効用が高くなることから,(A)はセンタリング理論のルール1を満たしており,よって選好1aはルール1の一般化であることがわかる.ただし,(A)と(B)の期待効用の差${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$が小さいと選好1aは弱く働き,差が大きいと選好1aは強く働くと予想される.選好1bは,選好1aから導かれ,選好1aの更なる一般化になっている.図\ref{fig:crossed_or_uncrossed}の(A)が選ばれやすいならば,高い参照確率Prを有する(目立っている)実体$e$は,高い知覚効用Utを有する(簡略化された)参照表現$w$によって参照されやすいはずであり,${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$には正の相関があると予想される.選好2は,期待効用原理そのものであると同時に,センタリング理論のルール2の一般化になっている.センタリング理論のルール2における条件式Cb($U_i$)$=$Cb($U_{i+1}$)が成り立つとき,Cbの参照確率が高くなると同時に,選好1bの予測からCbを参照する照応詞の効用も高くなると考えられ,したがって現在の発話の期待効用が増すからである.また条件式Cb(U$_{i+1}$)$=$Cp(U$_{i+1})$が成り立つときも,やはりCbの参照確率と効用が高くなり,期待効用が高くなると考えられる.さらに,RetainとSmooth-Shiftは共に一方の条件式のみが成り立つ遷移タイプであるが,Cbは既に観測されたセンターであるのに対し,Cpは次のセンターの予測に過ぎないので,Cb($U_i$)$=$Cb($U_{i+1}$)が成り立つRetainの方が,Cb(U$_{i+1}$)$=$Cp(U$_{i+1})$が成り立つSmooth-Shiftよりも期待効用が大きくなると予想される.この白松他\citeyear{siramatu2005nlp}のモデルを,本稿では{\bfMGCM(Meaning-Game-basedCentering\linebreakModel)}と呼ぶ.MGCMにおける期待効用を構成する2つのパラメタ,すなわち参照確率と知覚効用について,以下に定義と算出方法を述べる.\noindent\hangafter=1\hangindent=1zw\textbf{参照確率(ReferenceProbability)の定義}\\発話単位$U_i$までの先行文脈${\rmpre}(U_i)$における実体$e$の素性ベクトルが与えられた下で,実体$e$が後続する発話単位$U_{i+1}$で参照される条件付き確率Pr($e|{\rmpre}(U_i)$)で参照確率を定義する.この確率は,$U_i$における実体$e$の顕現性を表す.\noindent\hangafter=1\hangindent=1zw\textbf{参照確率の算出方法}\\実体$e$の顕現性は,先行文脈${\rmpre}(U_i)$において$e$がどのように参照されているかに影響される.白松他\citeyear{siramatu2005nlp}が用いた表\ref{tab:features}の3つの素性{\itdist,gram,chain}は,顕現性に影響すると考えられる素性である.{\itdist}は,$e$が最後に参照された発話単位から,発話単位$U_{i+1}$への距離を表す.{\itgram}は,$e$の最後に参照された発話単位における文法役割を表す.文法役割の種類ごとの実数値としては,まずコーパス中の当該文法役割の名詞句を全て抽出し,そのうち次の発話で参照されている割合Pr({\itgram})を用いる.{\itchain}は,$U_i$までに$e$が参照された回数を表す.{\itdistやchain}の設計で$\log$を用いているのは,ウェーバー・フェヒナーの法則\shortcite{fechner1860}として知られる人間の知覚の対数関数的性質を反映させるためである.本稿でも,これら3つの素性から成る素性ベクトルを用いて参照確率を算出する.\begin{table}[t]\begin{center}\caption{Pr$(e|{\rmpre}(U_i))$の計算で用いる素性}\label{tab:features}\input{08t01.txt}\end{center}\end{table}図\ref{fig:pr}は,参照確率算出の基本的アイディアを表している.コーパス中のサンプルが3次元の素性空間上で充分に密に分布しているような理想的な場合に限り,図\ref{fig:pr}のような単純な計算方法で参照確率を計算することができる.以下では,まず最初に図\ref{fig:pr}の基本的アイディアを説明し,次に現実的な算出手法であるロジスティック回帰分析を用いる計算手法を説明する.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f4.eps}\caption{Pr($e|{\rmpre}(U_i)$)計算の基本的アイディア}\label{fig:pr}\end{center}\end{figure}\begin{itemize}\item{\bf基本的アイディア:}仮に,図\ref{fig:pr}の左側の発話$U_i$における``Tom''の参照確率\linebreakPr(``Tom''$|$pre($U_i$))を求めたいとする.このときの,対象事例(``Tom'',pre($U_i$))の素性は以下のようになる.\begin{itemize}\item[・]{\itdist=}$\log$(2+1)(``Tom''が最後に参照された$U_{i-2}$から$U_{i+1}$までの間の発話数が2)\item[・]{\itgram=}Pr(subject)(``Tom''が最後に参照された$U_{i-2}$での``Tom''の文法役割がsubject)\item[・]{\itchain}=$\log$(2+1)(``Tom''が$U_i$までに参照された回数が2)\end{itemize}この素性ベクトル[{\itdist=}$\log$(2+1),{\itgram=}Pr(subject),{\itchain}=$\log$(2+1)]と同じ素性ベクトルを持つサンプル($e$,pre($U_j$))の集合を,コーパスから抽出する.そのうち,$e$が$U_{j+1}$で参照されているサンプルの割合が,対象事例における``Tom''が$U_{i+1}$で参照される確率の近似値となる.\item{\bfロジスティック回帰による参照確率の算出:}実際には対象事例と全く同じ素性ベクトルを持つサンプルがコーパス中に充分にあるとは限らない.よって,何らかの内挿・外挿法を用いてデータスパースネスに対応する必要がある.そのため本稿では白松他\citeyear{siramatu2005nlp}と同様に,ロジスティック回帰によって参照確率を算出する.具体的には,サンプル($e$,pre($U_j$))の素性{\itdist,gram,chain}を説明変数として用い,$e$が$U_{j+1}$で参照されるか否か(参照されるとき1,参照されないとき0)を被説明変数として用いる.ロジスティック回帰では,被説明変数が1になる確率${\rmPr}(e|{\rmpre}(U_j))$のロジット$\log({\rmPr}/(1-{\rmPr}))$を,以下のような説明変数の線形結合で表す.$$\log\frac{{\rmPr}(e|{\rmpre}(U_j))}{1-{\rmPr}(e|{\rmpre}(U_j))}=b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain}$$ロジスティック回帰モデルの事前学習では,コーパス中のサンプル($e$,pre($U_j$))で観測された説明変数・被説明変数の値を学習データとして与え,最尤法によって回帰重み$b_0,b_1,b_2,b_3$を求める.また,事前学習したロジスティック回帰モデルを用いて新たな事例($e$,pre($U_i$))の参照確率${\rmPr}(e|{\rmpre}(U_i))$を計算するには,素性{\itdist,gram,chain}の観測値を以下の回帰式に代入すればよい.$${\rmPr}(e|{\rmpre}(U_i))=(1+{\rmexp}(-(b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain})))^{-1}$$\end{itemize}\par\noindent\hangafter=1\hangindent=1zw\textbf{知覚効用(PerceptualUtility)の定義}\\参照表現$w$が発話者から受話者へ伝達される際の知覚的な負荷低減の度合Ut($w$)を知覚効用として定義する.ただし,照応解消などの意味的解釈に伴う認知的負荷は含まず,表層的な記号伝達処理(発話,聞き取り;筆記,読み取り)に伴う知覚的な負荷のみを対象とする.\par\noindent\hangafter=1\hangindent=1zw\textbf{知覚効用の算出方法}\\白松他\citeyear{siramatu2005nlp}は,$w$が代名詞のとき${\rmUt}(w)=2$,$w$が非代名詞のとき${\rmUt}(w)=1$という先験的な仮定を置いているので,このままでは知覚効用をコーパスから測定することはできない.\noindent認知的負荷を排除して知覚的負荷のみを用いて効用を設計する意図は,図\ref{fig:issues}に示したように,表層の知覚(実体の顕現性と名詞句使用の知覚的コスト)からボトムアップに決定される行動選択原理(期待効用EU($U_{i+1}$)に基づく行動選択)により,発話者の照応詞選択および受話者の照応解消の過程をモデル化するためである\footnote{なお,センタリング理論やMGCMが表現する参照結束性の選好は,照応処理過程において述語項構造や参照表現自身の選択制限によって上書きされる.よって,参照結束性の選好だけを用いて照応解析しようとするアプローチは現実的でなく,それは本研究の目的(参照結束性の定量的モデル化)の範疇外である.}.表\ref{tab:corresp}は,参照確率,知覚効用,期待効用がそれぞれセンタリング理論のどのルールに対応しているのかを示している.参照確率は顕現性の尺度なので,センタリング理論におけるCf-rankingに対応する.知覚効用は参照表現伝達時の負荷低減の尺度なので,センタリング理論のルール1における代名詞化に対応する.期待効用は参照結束性の尺度なので,センタリング理論のルール2における遷移のランキングに対応する.\begin{table}[t]\begin{center}\caption{センタリング理論とMGCMの対応}\label{tab:corresp}\input{08t02.txt}\end{center}\end{table}MGCMにおける期待効用は,$U_{i+1}$が発話者$S$から受話者$R$へ伝達される際に,「その両者にとって,参照関係の処理(発話者による出力と受話者による予測)にかかる負荷削減がどれだけ見込めるか」という期待値を表す.例えば,顕現性の高い(参照確率の高い)実体が,後続発話単位において知覚コストの低い(知覚効用の高い)表現によって参照される場合,その後続発話単位の期待効用は高くなる.つまり,そのような後続発話は認知的に低負荷であると期待されるので,選択されやすい\footnote{ただし,意味ゲームではコミュニケーションの成立(意味内容伝達の成功)を仮定しているので,「伝えるべき意味内容があるのに何も発話しない」という行動は選択されない.}.言い換えると,期待効用が大きくなるような$U_{i+1}$を選択することによって,${\rmpre}(U_i)$と$U_{i+1}$の間の高い参照結束性が実現されていると予想される.また対偶をとって,${\rmpre}(U_i)$と$U_{i+1}$の間の参照結束性が低い場合には,期待効用が小さな$U_{i+1}$が選択されてしまっていると予想される.この期待効用原理は理論的には各言語に独立なので,様々な言語において参照結束性が高い談話構造が好まれる理由を説明できると予想される.また工学的には,期待効用${\rmEU}(U_{i+1})$は${\rmpre}(U_i)$と$U_{i+1}$の間の参照結束性を表す尺度として,様々な言語の上での談話処理において,$U_{i+1}$の選択基準として使えると期待される.\paragraph{意味ゲームに基づくセンタリングモデルの問題点}従来のMGCM\shortcite{siramatu2005nlp}には,以下の課題が残されている.\begin{itemize}\item[1.]{\bf行動選択原理の言語一般性が未検証:}行動選択のメカニズムとしての期待効用原理は言語一般に関して成り立つと予想されるが,従来,MGCMは日本語のコーパスでしか検証されていなかった.「期待効用原理が,参照結束性の背後にある言語非依存な原理である」という仮説を実際のデータで裏付けるために,複数の言語のコーパスで検証する必要がある.\item[2.]{\bf先験的な知覚効用の設計:}従来のMGCMでは,参照確率$w$の知覚効用Ut($w$)は単純かつ先験的な仮定に基づいて定義されていた(Ut(代名詞)=2,Ut(非代名詞)=1).このような先験的な設計では,言語毎の参照表現の違いに対応できない.また,代名詞/非代名詞という参照表現の分類は粗すぎると考えられる.各言語に適応させるためにも,より細かい粒度に対応可能な統計的定義が必要である.\end{itemize}\noindent上記2における代名詞/非代名詞という分類の粗さの問題を,以下の例で説明する.\newenvironment{fminipage}{}{}\vspace{1\baselineskip}\begin{fminipage}{39zw}\noindent自民党は十一日,次期衆院選に向けた選挙対策本部(本部長・\underline{河野洋平総裁})の会合を開いた.\\\underline{河野氏}は「新制度の下で戦い,政権奪還を目指すのが基本的な考え」と強調.\\しかし,$\left\{\begin{array}{lc}{\rm(a)}&(\underline{φ}ハ)\\{\rm(b)}&\underline{彼}は\\{\rm(c)}&\underline{河野氏}は\\{\rm(d)}&\underline{河野洋平総裁}は\\\end{array}\right\}$「いつ行われても不思議ではない衆院選」とも述べ,...\\\end{fminipage}\vspace{\baselineskip}下線部は全て「河野洋平総裁」を参照している.(a)〜(d)は参照表現を変化させた例であり,原文では(a)のゼロ代名詞が使用されている.従来のMGCMの知覚効用の定義や,センタリング理論のルール1においては,(a),(b)の区別と,(c),(d)の区別が無かった.しかし本来ならば,(a)が最も知覚効用が高い(知覚コストが低い)参照表現であり,(b),(c),(d)と知覚効用が低くなると考えられる.モデルをより現実に近づけるには,より詳細な知覚効用の定義が必要である. \section{改良MGCM:知覚効用の統計的な定義} \label{sec:ut}以下では,知覚効用を様々な言語のコーパスから統計的に獲得できるように定義する.この新たな定義を用いたMGCMを,本稿では{\bf改良MGCM}と呼ぶ.\subsection{知覚効用とは}参照表現の知覚効用とは,前述したように,その表現を発話者・受話者間で伝達する際の処理(発話,聞き取り;筆記,読み取り)にかかる知覚的負荷の低さを表す.つまり,慣れなどの要因によって少ない知覚コストで処理できる参照表現ほど,高い知覚効用を持つ.ただし,ここでの知覚コストとは表層的なシンボルの伝達にかかる負荷のみを指し,照応解消などの意味理解に伴う負荷は含まない.何故なら,言語特有の表現に依存する知覚的処理を2つのパラメタ(参照確率と知覚効用)に割り当て,そこからボトムアップに構成される期待効用原理から,言語独立な表現/解釈の選択メカニズムをモデル化することを意図しているからである(\ref{sec:intro}章の図\ref{fig:issues}参照).この知覚効用を,白松ら\citeyear{siramatu2005nlp}は「代名詞の効用は非代名詞の効用よりも高い」という単純な仮定のみによって定義していた.\subsection{知覚コストの統計的定義}われわれは,参照表現の知覚コストはその表現の頻度に基づいて計算できると考える.何故なら,頻繁に使用される参照表現ほど,発話者・受話者はその表層的伝達処理に慣れてゆくため,知覚コストが低くなるためである.また,発話者・受話者が一旦その参照表現に慣れてしまうと,その表現の使用が知覚コストの削減に繋がるので,更に頻繁に使用されるようになる,とも考えられる.よって参照表現$w$の知覚コストは,コーパスの各発話単位で$w$が照応詞として使用される確率$p(w)$に基づいて定義できる.具体的には,「感覚量は物理量の対数に比例する」というウェーバー・フェヒナーの法則\shortcite{fechner1860}に従い,以下のように$p(w)$の対数を用いて$w$の知覚コストI($w$)を定義する.\begin{align*}{\rmI}(w)&=-\logp(w)\\&=-\log\frac{\#照応詞としてのw}{\#\rm全発話単位}~[{\rmnat}].\end{align*}つまり,知覚コストI($w$)を,当該発話単位で$w$が使用されるという事象の自己情報量として定義する.ただし$[{\rmnat}]$は自然対数を用いたときの情報量の単位であり,$1~[{\rmnat}]$=$\log_2e~[{\rmbit}]$である.\subsection{知覚効用の統計的定義}\label{subsec:utdef}$w$の知覚効用${\rmUt}(w)$を,知覚コスト${\rmI}(w)$の削減の度合として定義する.知覚効用${\rmUt}(w)$は,非負の値をとる尺度として設計する必要がある.その理由を以下に示す.MGCMでは,期待効用EU($U_{i+1}$)を参照結束性の尺度として設計する.参照結束性が強くなるのは,参照確率(顕現性)の高い実体$e$が,知覚効用の高い(知覚コストの低い代名詞などの)参照表現$w$によって参照されるときである.期待効用EU($U_{i+1}$)は,参照確率${\rmPr}(e|{\rmpre}(U_i))$と知覚効用${\rmUt}(w)$の積和なので,EU($U_{i+1}$)を参照結束性の尺度として設計するためには,\begin{align*}&{\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i)),{\rmUt}(w_1)>{\rmUt}(w_2)\\&\Rightarrow{\rmPr}(e_1|{\rmpre}(U_i)){\rmUt}(w_1)>{\rmPr}(e_2|{\rmpre}(U_i)){\rmUt}(w_2)\end{align*}という条件が常に満たされるように${\rmUt}(w)$を設計する必要がある.知覚効用を非負の尺度として設計した場合,${\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i))\ge0,{\rmUt}(w_1)>{\rmUt}(w_2)\ge0$のとき,常に${\rmPr}(e_1|{\rmpre}(U_i)){\rmUt}(w_1)>{\rmPr}(e_2|{\rmpre}(U_i)){\rmUt}(w_2)$が成り立つ.一方,知覚効用を負の値として設計した場合,${\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i))\ge0,0>{\rmUt}(w_1)>{\rmUt}(w_2)$のとき,${\rmPr}(e_1|{\rmpre}(U_i)){\rmUt}(w_1)>{\rmPr}(e_2|{\rmpre}(U_i)){\rmUt}(w_2)$が成り立つとは限らない.以上の考察より,知覚効用${\rmUt}(w)$を非負の値をとる尺度として設計する.具体的には,知覚コスト${\rmI}(w)$を逆転させた非負の尺度として以下のように定義する.\[{\rmUt}(w)={\itUt}_0-{\rmI}(w).\]基準値${\itUt}_0$は,${\rmUt}(w)\ge0$を保証するための${\rmmax}~{\rmI}(w)$以上の定数である.上記の議論より,この条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$さえ満たされていればEU($U_{i+1}$)は参照結束性を表す尺度になると予想される.ただし,この条件は選好2とセンタリング理論のルール2との整合性を保つためには必要だが,選好1a,1bには影響しない.何故なら,選好2とルール2が整合するのは条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$が成立するときのみであると(上記の議論から)予想されるのに対し,選好1a,1bの成立/不成立を決める参照表現ペア$w_1,w_2$の知覚効用の差${\rmUt}(w_1)-{\rmUt}(w_2)={\rmI}(w_2)-{\rmI}(w_1)$は,${\itUt}_0$の値に依存しないからである.よって,${\itUt}_0$の値は,選好2とルール2の整合性を基準として決定すればよい.具体的に本稿では,センタリング理論のルール2における遷移タイプ順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)と期待効用EU($U_{i+1}$)とのスピアマン順位相関係数が最大になるように,コーパスから基準値${\itUt}_0$を決定する.このように決定した${\itUt}_0$の値は,${\itUt}_0\ge{\rmmax}~{\rmI}(w)$を満たしていると予想される.また,仮に${\itUt}_0\ge{\rmmax}~{\rmI}(w)$を満たす範囲で${\itUt}_0$の値を動かしたとしても,選好2とルール2の整合性は保たれると予想される.以上の統計的な定式化によって,言語特有の表現に依存した知覚効用の分布を,対象言語のコーパスから獲得可能にした. \section{日本語・英語の大規模コーパスによる検証} \label{sec:verification}\paragraph{検証実験の位置づけ}改良MGCMにおける各言語の特性の統計的獲得と,期待効用原理に基づく行動選択機構の言語一般性を,大きく性格の異なる2つの言語,日本語と英語のコーパスで検証する.日本語コーパスとして毎日新聞の記事を,英語コーパスとしてWallStreetJournal(WSJ)の記事を用いる.表\ref{tab:verification}に,本節で行う検証実験の位置づけを示す.特に新規性のある実験は,英語コーパス上での検証実験と,統計的に定義された知覚効用${\rmUt}(w)$の獲得に関する検証実験である.\begin{table}[b]\begin{center}\caption{本稿の改良MGCM検証実験の位置づけ}\label{tab:verification}\input{08t03.txt}\end{center}\end{table}\paragraph{前提となるコーパスの仕様}毎日新聞コーパスは1,356記事,63,562述語節,16,728照応詞から成る.WSJコーパスは2,412記事,135,278述語節,95,677照応詞から成る.どちらのコーパスにも,形態素,品詞,係り受け構造,照応の情報を表すGDA(GlobalDocumentAnnotation)\shortcite{hasida1998gda}のタグが付与されている.形態素,品詞,係り受け構造に関しては,自動的な解析結果を人手で修正したタグが付与されている.照応に関しては,完全に人手によるタグが付与されている.以下は毎日新聞の記事に対するアノテーション例である.ただし見やすくするため,形態素・品詞・細かい係り受けを表すタグは省いてある.\vspace{1\baselineskip}{\small\tt\noindent~<susyn="f">\\~~~<adpopr="topic.fit.agt">自民党は</adp>\\~~~<adp>十一日</adp>,\\~~~<adpopr="obj">\\~~~~~<np>\\~~~~~~~<adp>\\~~~~~~~~~<n>次期衆院選に向けた選挙対策本部</n>\\~~~~~~~~~<np>(本部長・<np\underline{id="KonoYohei"}>河野洋平総裁</np>)</np>の\hfill…\textcircled{\small1}\\~~~~~~~</adp>\\~~~~~~~<n>会合</n>\\~~~~~</np>を</adp>\\~~~<v>開い</v>た.</su>\\\\~<susyn="f">\\~~~<adpopr="topic.fit.agt"><np\underline{eq="KonoYohei"}>河野氏</np>は</adp>\hfill…\textcircled{\small2}\\~~~<adpopr="cnt">「新制度の下で戦い,政権奪還を目指すのが基本的な考え」と</adp>\\~~~<v>強調</v>.</su>\\\\~<susyn="f">\\~~~<adp>しかし</adp>,\\~~~<vp>\\~~~~~<adpopr="cnt">「いつ行われても不思議ではない衆院選」とも</adp>\\~~~~~<v\underline{agt="KonoYohei"}>述べ</v>,\hfill…\textcircled{\small3}\\~~~</vp>\\~~~<adpopr="obj">現行制度での準備も怠らない構えを</adp>\\~~~<v\underline{agt="KonoYohei"}>示し</v>た.</su>\hfill…\textcircled{\small4}}\vspace{1\baselineskip}上記の例の照応タグについて説明する.まず,先行詞のエレメント\textcircled{\small1}には,id属性({\ttid={\linebreak}"KonoYohei"})が付与されている.省略以外の照応詞を表すために,照応詞のエレメント\textcircled{\small2}にeq属性({\tteq="KonoYohei"})が付与されている.ゼロ代名詞などの省略を表すために,省略を受けるエレメント\textcircled{\small3},\textcircled{\small4}に省略の格を表す関係属性({\ttagt="KonoYohei"},この場合は主格)が付与されている.WallStreetJournalの記事に対しても,同様の照応タグが付与されている.\vspace{\baselineskip}{\small\tt\noindent~<susyn="b">\\~~~<qopr="cnt">``Wehavenousefulinformationonwhetherusersareatrisk,''</q>\\~~~<v>\\~~~~~<v>said</v>\\~~~~~<npopr="agt">\\~~~~~~~<persnamep\underline{id="DrTalcott"}>JamesA.Talcott</persnamep>\\~~~~~~~<adp>ofBoston'sDana-FarberCancerInstitute</adp>\\~~~~~</np></v>.</su>\\\\~<susyn="b">\\~~~<persnamep\underline{eq="DrTalcott"}opr="agt">Dr.Talcott</persnamep>\\~~~<v>\\~~~~~<v>led</v>\\~~~~~<npopr="obj">\\~~~~~~~<n>ateamofresearchers</n>\\~~~~~~~<adp>fromtheNationalCancerInstitute</adp>\\~~~~~</np></v>.</su>}\vspace{\baselineskip}\subsection{検証実験の準備}検証実験の準備として,サンプルの抽出と,参照確率のロジスティック回帰モデル(2.2節ロジスティック回帰式の回帰重み$b_0,b_1,b_2,b_3$)の事前学習を行う.ロジスティック回帰モデルの事前学習には,統計ソフトウェアR\shortcite{Rsite,funao2005}を用いる.このとき,上記の人手で付与された照応タグを手がかりとして用いる.ただしKameyama\citeyear{kameyama1998}に従い,時制節・述語節を発話単位と見なす.\\\paragraph{サンプルの抽出}まず,発話単位列$[U_1,\cdots,U_n]$の各$U_i$に対し,先行文脈${\rmpre}(U_i)=$\linebreak$[U_1,\cdots,U_i]$で参照されている実体を全て抽出する.このとき,実体$e$と先行文脈${\rmpre}(U_i)$の組,すなわち($e,{\rmpre}(U_i)$)を1サンプルと見なす.サンプル($e,{\rmpre}(U_i)$)において実体$e$が発話$U_{i+1}$で参照されている場合,そのサンプルをここでは「正例」と呼ぶ.$e$が$U_{i+1}$で参照されていない場合,そのサンプルをここでは「負例」と呼ぶ.表\ref{tab:samples}に,毎日新聞とWSJから抽出されたサンプル数を示す.参照確率のロジスティック回帰分析のためには,正例と負例を用いる.後述する選好1a,1b,2の検証には,正例のみを用いる.\begin{table}[b]\caption{抽出されたサンプル数}\label{tab:samples}\input{08t04.txt}\end{table}\paragraph{参照パターンの抽出}参照確率のロジスティック回帰のため,各サンプル($e$,${\rmpre}(U_i)$)の参照パターンを抽出する.本研究では,表\ref{tab:features}に示した素性(特徴量)によって参照パターンを表す.\subsection{参照確率の言語依存特性の獲得実験}\label{sec:verify_salience}\paragraph{回帰モデルの事前学習}参照確率Prの計算のためには,2つの準備が必要である.まず,\ref{sec:mgcm}節で示した参照確率のロジスティック回帰式$${\rmPr}(e|{\rmpre}(U_i))=(1+{\rmexp}(-(b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain})))^{-1}$$における{\itgram}に割り当てる値として,文法役割ごとの参照確率の平均値Pr({\itgram})を求める.Pr({\itgram})は,ロジスティック回帰は使わずにコーパス中のサンプルを数えるだけで計算できる.具体的には,まずコーパス中の当該文法役割の名詞句を全て抽出し,そのうち次の発話で参照されている割合をPr({\itgram})とする.回帰モデルを用いる必要がないのは,各言語でよく使用される文法役割は十数種類に限定できるので,データスパースネスが生じないためである.表\ref{tab:sal_jpn},\ref{tab:sal_eng}にその結果を示す.\begin{table}[b]\caption{文法役割ごとの参照確率の平均値Pr({\itgram})(毎日新聞)}\label{tab:sal_jpn}\input{08t05.txt}\end{table}\begin{table}[t]\caption{文法役割ごとの参照確率の平均値Pr({\itgram})(WSJ)}\label{tab:sal_eng}\input{08t06.txt}\end{table}次に,ロジスティック回帰分析における重み$b_i$をコーパスから獲得する.処理時間が膨大になるのを避けるため,表\ref{tab:samples}の全サンプルを使うのではなく,12,000サンプルをサブサンプリングして回帰重みを事前学習した.その結果を,表\ref{tab:weights_jpn},\ref{tab:weights_eng}に示す.\begin{table}[t]\begin{minipage}[t]{.5\textwidth}\caption{ロジスティック回帰分析の回帰重み(毎日新聞)}\label{tab:weights_jpn}\input{08t07.txt}\end{minipage}\hfill\begin{minipage}[t]{.47\textwidth}\caption{ロジスティック回帰分析の回帰重み(WSJ)}\label{tab:weights_eng}\input{08t08.txt}\end{minipage}\end{table}以下,表\ref{tab:sal_jpn},\ref{tab:sal_eng},\ref{tab:weights_jpn},\ref{tab:weights_eng}が示す事前学習結果の妥当性を検証する.\paragraph{言語依存性の確認}日本語と英語には,それぞれに特有の文法役割がある.このことは表\ref{tab:sal_jpn},\ref{tab:sal_eng}にも明らかであり,たとえば日本語における主題(係助詞の「ハ」)のような文法役割は,英語には無い.よって必然的に,日本語と英語では文法役割毎の参照確率の分布も異なるはずである.実際に表\ref{tab:sal_jpn}と表\ref{tab:sal_eng}では,参照確率の分布(文法役割間の比)における各言語の特性が観察された.このことは,参照確率の測定における言語依存特性の獲得の必要性を示している.\paragraph{英語コーパスから獲得した参照確率の検証}表\ref{tab:sal_eng}の文法役割順序は,従来のセンタリング理論のCf-rankingとの整合性を示している.すなわちWSJコーパスにおける主語,目的語,補語の間の順序が,センタリング理論におけるCf-rankingと一致した.この結果は,参照確率による顕現性定義の,英語における妥当性を示している.よって,表\ref{tab:sal_eng}の値を回帰分析に用いることで,文法役割における顕現性の英語特性を獲得できると考えられる.次に,図\ref{fig:dist_chain_refpr_wsj}に,WSJコーパスから得られたロジスティック回帰モデルを用いた参照確率の推定値を示す.文法役割{\itgram}を主語に固定し,距離{\itdist}と参照回数{\itchain}を変動させた場合の参照確率の推定値をプロットした.また,表\ref{tab:weights_eng}は,WSJコーパスから得られたロジスティック回帰モデルの回帰重みを表している.表\ref{tab:weights_eng}の,素性{\itdist}(最近参照された箇所からの距離)の回帰重み$b_1$は負の値であった.これは,「最近参照された実体ほど注意が向かいやすい」という知見と整合し,図\ref{fig:dist_chain_refpr_wsj}にもその傾向が現れている.素性{\itgram}(最近参照された箇所の文法役割)の回帰重み$b_2$は正の値であった.これは,上述したCf-rankingとの整合性からしても妥当である.素性{\itchain}(共参照連鎖の長さ)の回帰重み$b_3$は正の値であった.これは,「多く参照された実体ほど注意が向かいやすい」という知見と整合し,図\ref{fig:dist_chain_refpr_wsj}にもその傾向が現れている.これらの結果は,WSJコーパスから統計的に獲得された英語の参照確率分布の妥当性を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f5.eps}\caption{{\itdist},{\itchain}による参照確率の推定結果(毎日新聞)}\label{fig:dist_chain_refpr_mainiti}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f6.eps}\caption{{\itdist},{\itchain}による参照確率の推定結果(WSJ)}\label{fig:dist_chain_refpr_wsj}\end{center}\end{figure}\paragraph{日本語コーパスから獲得した参照確率の検証}白松ら\citeyear{siramatu2005nlp}の結果と同様に,表\ref{tab:sal_jpn}の文法役割順序はセンタリング理論におけるCf-rankingと一致した.また,表\ref{tab:weights_jpn}に示す回帰重みと,図\ref{fig:dist_chain_refpr_mainiti}に示す参照確率の推定結果も,顕現性に関する従来の知見と整合していた.これらの結果は,毎日新聞コーパスから統計的に獲得された日本語の参照確率分布の妥当性を示している.\subsection{知覚効用の言語依存特性の獲得実験}\label{sec:verify_cost}\paragraph{基準値${\itUt}_0$のコーパスに基づく決定}\ref{subsec:utdef}節で述べた議論から,知覚効用${\rmUt}(w)={\itUt}_0-{\rmI}(w)$は非負の値として設計する必要がある.そのためには,条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$を満たすように基準値${\itUt}_0$を設定する必要があるが,この条件さえ満たされていれば,期待効用EU($U_{i+1}$)は参照結束性を表す尺度となると予想される.本稿では,センタリング理論との整合性が最大になるように基準値${\itUt}_0$を定める.\ref{subsec:utdef}節で述べたように,${\itUt}_0$の値に依存するのは改良MGCMの選好2とセンタリング理論のルール2との整合性であり,選好1a,1bは${\itUt}_0$の値に影響されない.よって,選好2とルール2の整合性,すなわち期待効用EU($U_{i+1}$)とルール2の遷移タイプ順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)とのスピアマン順位相関係数が最大になるように,基準値${\itUt}_0$を定める.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f7.eps}\caption{知覚効用Utの基準値${\itUt}_0$のコーパスに基づく決定}\label{fig:imax}\end{center}\end{figure}図\ref{fig:imax}は,基準値${\itUt}_0$を変動させてEU($U_{i+1}$)と遷移タイプ順序のスピアマン相関係数を計測した結果である.毎日新聞コーパスでは${\itUt}_0=15.1$,WSJコーパスでは${\itUt}_0=12.6$のとき,それぞれ最大のスピアマン順位相関係数を観測した.よって,ここでは基準値${\itUt}_0$をこれらの値に定める.これらの値は\ref{subsec:utdef}節の予想どおり,条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$(毎日新聞では${\rmmax}~{\rmI}(w)=11.06$,WSJでは${\rmmax}~{\rmI}(w)=11.82$)を満たしている.また,図\ref{fig:imax}の${\itUt}_0\ge{\rmmax}~{\rmI}(w)$の領域においては,スピアマン相関係数はほぼ平坦になっている.この観測結果は,「条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$さえ満たされていれば期待効用EU($U_{i+1}$)が参照結束性を表す尺度になるはずである」という\ref{subsec:utdef}節の予想と合致する.\begin{table}[b]\caption{参照表現ごとの知覚効用(毎日新聞)}\label{tab:cost_jpn}\input{08t09.txt}\end{table}\begin{table}[t]\caption{参照表現ごとの知覚効用(WSJ)}\label{tab:cost_eng}\input{08t10.txt}\end{table}\paragraph{知覚効用の事前測定}毎日新聞コーパスとWSJコーパスに出現する全ての参照表現$w$について,その知覚効用を計測した.ただし複数の形態素から成る参照表現については,その主辞である形態素の出現確率を用いて知覚効用を計算した.表\ref{tab:cost_jpn},\ref{tab:cost_eng}は,それぞれ毎日新聞とWSJにおいて知覚効用が上位ランクであった参照表現を示している.ただし,日本語のゼロ代名詞,英語の空範疇(emptycategory)はともに省略された文法要素を指す用語である.空範疇は生成文法の用語であり,NP痕跡,pro(定形節の音形を持たない主語代名詞),PRO(不定形節や動名詞の音形を持たない主語代名詞),wh痕跡の4つのタイプがあるとされる\shortcite{jeita2005}.以下,表\ref{tab:cost_jpn},\ref{tab:cost_eng}が示す知覚効用の測定結果の妥当性を検証する.\paragraph{言語依存性の確認}日本語と英語には,それぞれに特有の参照表現がある.このことは,表\ref{tab:cost_jpn}と表\ref{tab:cost_eng}にも明らかである.よって必然的に,参照表現毎の知覚効用の分布も異なるはずである.実際に表\ref{tab:cost_jpn}と表\ref{tab:cost_eng}では,知覚効用の分布(参照表現間の比)における各言語の特性が観察された.このことは,知覚効用の測定における言語依存特性の獲得の必要性を示唆している.\paragraph{日本語コーパスから獲得した知覚効用の検証}表\ref{tab:cost_jpn}が示すように,毎日新聞コーパスではゼロ代名詞(省略)の知覚コストが最も低く,したがって知覚効用が高かった.また,「私」「その」などの指示詞・代名詞がランク上位を占め,大部分の非代名詞は指示詞・代名詞よりも低い知覚効用であった.表\ref{tab:cost_jpn}の下部3行が示すとおり,ゼロ代名詞,指示詞・代名詞,非代名詞というカテゴリ毎の知覚効用の平均は,\[\text{ゼロ代名詞}>\text{指示詞・代名詞}>\text{非代名詞}\]となった.この順序は,直感的な負荷低減の順序と一致しており,妥当である.つまり,毎日新聞コーパスで計測された日本語の知覚効用の妥当性を示している.\paragraph{英語コーパスから獲得した知覚効用の検証}表\ref{tab:cost_eng}が示すように,WSJコーパスでは空範疇(省略)の知覚コストが最も低く,したがって知覚効用が高かった.また,``it'',``he''などの代名詞がランク上位を占め,大部分の非代名詞は代名詞よりも低い知覚効用であった.表\ref{tab:cost_eng}の下部3行が示すとおり,空範疇,代名詞,非代名詞というカテゴリ毎の知覚効用の平均は,\[\text{空範疇}>\text{代名詞}>\text{非代名詞}\]となった.この順序は,直感的な負荷低減の順序と一致しており,妥当である.つまり,WSJコーパスで計測された英語の知覚効用の妥当性を示している.\vspace{\baselineskip}以上により,毎日新聞,WSJの両コーパスから,言語特有の表現に依存した知覚効用(知覚コスト低減)の分布を,統計的に獲得できることが示された.\paragraph{知覚効用の統計的定義の効果}従来の単純かつ先験的な知覚効用の定義(Ut(代名詞)=2,Ut(非代名詞)=1)は,参照表現の分類が粗過ぎることが問題であった.例えば\ref{sec:mgcm}節で示した例文では,(a)ゼロ代名詞(φ)と(b)代名詞「彼」,(c)「河野氏」と(d)「河野洋平総裁」の区別ができなかった.表\ref{tab:ut_example}は,改良MGCMにおける知覚効用の定義に基づき毎日新聞コーパスから統計的に獲得した知覚効用Ut$(w)$の値である.これにより,(a)と(b),(c)と(d)の知覚効用の違いが扱えることが示された.\begin{table}[t]\caption{従来の知覚効用の定義との比較}\label{tab:ut_example}\input{08t11.txt}\end{table}\subsection{改良MGCMの検証}\label{sec:verify_coherence}MGCMは,センタリング理論のルール1,2の一般化である選好1a,1b,2を含んでいる.以下では,期待効用原理から導出された選好1a,1b,2を日本語と英語のコーパスを用いて統計的に検証することにより,期待効用原理が言語をまたいで成り立つ原理であるかを検証する.各選好の検証では,正規分布が仮定できないパラメタ同士の相関や,センタリング理論における選好順序との相関をとるのに適している,スピアマン順位相関係数を用いる.何故なら,スピアマン順位相関係数は分布を仮定しないノンパラメトリックな推定により求まるからである.また参考のために,一般的に用いられるピアソン積率相関係数も観測する.\paragraph{選好1aの検証}選好1aはセンタリング理論のルール1の一般化であり,期待効用原理から導かれる.図\ref{fig:crossed_or_uncrossed}において,常に${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})>0$が成り立つので,(A)の方が(B)より選ばれやすい,というのが選好1aである.ただし,(A)の選ばれやすさは${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$の大きさに影響されるはずである.つまり,期待効用原理から以下の予想が導かれる.\vspace{\baselineskip}{\setlength{\leftskip}{1zw}\noindent選好1aの(A)と(B)の期待効用の差${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$が大きい参照表現ペアの場合,(A)が好まれるという選好が強く働き,選好1a合致率が100\%に近づくと予想される.一方,(A)と(B)の期待効用の差がほどんど無い参照表現ペアの場合は,(A),(B)どちらの候補を選んでも参照結束性に差が無いので,(A)が好まれるという選好が弱くしか働かず,選好1a合致率が50\%に近づくと予想される.\par}\vspace{\baselineskip}\noindent以下では,この予想を裏付ける観測結果が得られるかどうかにより,選好1aを検証する.まず,検証の準備として,図\ref{fig:crossed_or_uncrossed}における($w_1$,$w_2$)のような同一発話単位内の参照表現ペアをコーパスから抽出する.次に,コーパスから抽出した参照表現ペアから(A)と(B)の期待効用の差${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$を計算し,その差の大きさと,実際の選好1a合致率((A)が選ばれている率)の関係を観測する.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f8.eps}\caption{選好1a:${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好適合率(毎日新聞)}\label{fig:pref1a_eu_mainiti}\end{center}\end{figure}図\ref{fig:pref1a_eu_mainiti},\ref{fig:pref1a_eu_wsj}に,実際の観測結果を示す.(A)と(B)の期待効用の差が3以上の参照表現ペアのみに限定すると,選好1a合致率は毎日新聞で0.825,WSJで0.822となり,(A)が選ばれる選好が強い.それに対し,(A)と(B)の期待効用の差が0.5未満の参照表現ペアのみに限定すると,選好1aの合致率は毎日新聞で0.564,WSJで0.529となり,(A)が選ばれる選好は非常に弱くなる.この結果は,期待効用原理から導かれた上記の予想と合致する.また,表\ref{tab:pref1a_mainiti},\ref{tab:pref1a_wsj}は,(A)と(B)の期待効用の差と,選好1a合致率との相関係数を計算したものである.スピアマン順位相関係数の観測結果では,毎日新聞では0.833,WSJでは0.981という強い相関を示している.これは,「参照結束性は期待効用原理によって引き起こされる」という仮説の妥当性を強く支持する結果である.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f9.eps}\caption{選好1a:${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好適合率(WSJ)}\label{fig:pref1a_eu_wsj}\end{center}\end{figure}\begin{table}[t]\caption{${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好1a合致率との相関(毎日新聞)}\label{tab:pref1a_mainiti}\input{08t12.txt}\end{table}\begin{table}[t]\caption{${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好1a合致率との相関(WSJ)}\label{tab:pref1a_wsj}\input{08t13.txt}\end{table}\paragraph{選好1bの検証}選好1bは,期待効用原理から導かれた選好1aの更なる一般化である.もし選好1aの予想どおり,図\ref{fig:crossed_or_uncrossed}の(A)の方が(B)より選ばれやすいのならば,{\rmPr$(e|{\rmpre}(U_i))$}と{\rmUt$(w)$}に正の相関があるはずである.これが選好1bであり,定性的には顕現性の高い実体$e$ほど,知覚的に簡単な参照表現$w$で参照されやすいという傾向を表す.ここで,{\rmPr$(e|{\rmpre}(U_i))$}と{\rmUt$(w)$}のスピアマン順位相関係数を\begin{itemize}\item選好1aの(A)が選ばれた参照表現ペアに限定して計測した相関係数$\rho_A$\item(B)が選ばれた参照表現ペアに限定して計測した相関係数$\rho_B$\item全てのサンプルで計測した相関係数$\rho$\end{itemize}の3つに分けて計測すると,図\ref{fig:crossed_or_uncrossed}より,明らかに$\rho_A$は正,$\rho_B$は負になるはずである.このとき,もしコーパス中のデータで選好1bが成り立つのならば,$$|\rho_A|>|\rho_B|,~\rho>0$$が観測されると予想される.一方,もし選好1bが成り立たないのならば,$$|\rho_A|\simeq|\rho_B|,~\rho\simeq0$$が観測されると予想される.以下では,選好1bが成り立つ場合の予想に合致する観測結果が得られるか否かにより,選好1bを検証する.\begin{table}[b]\caption{選好1b:${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$の相関(毎日新聞)}\label{tab:pref1b_mainiti}\input{08t14.txt}\end{table}\begin{table}[b]\caption{選好1b:${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$の相関(WSJ)}\label{tab:pref1b_wsj}\input{08t15.txt}\end{table}表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj}は,実際に$\rho_A,\rho_B,\rho$を観測した結果である.毎日新聞での観測結果は,$\rho_A=0.540$,$\rho_B=-0.086$,$\rho=0.377$であった.WSJでの観測結果は,$\rho_A=0.454,\rho_B=-0.120,\rho=0.237$であった.この結果は,コーパス中のデータで選好1bが成り立たない場合の予想とは合致せず,選好1bが成り立つ場合の予想と合致していた.また,表の95\%信頼区間が示すとおり,この値は統計的に有意である.よって,この結果は選好1bの妥当性を裏付けるものである.次に,従来のMGCMにおける単純な知覚効用(Ut(代名詞)=2,Ut(非代名詞)=1)との比較のため,従来の単純なUtとPrとのスピアマン順位相関係数を計測した結果,毎日新聞で0.358,WSJで0.236であった.一方,本稿で統計的に設計されたUtの場合,Prとのスピアマン順位相関係数が毎日新聞で0.377,WSJで0.237であった(表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj}).よって,本稿で示した知覚効用の統計的設計を用いることにより,「顕現性の高い実体$e$ほど,知覚的に簡単な参照表現$w$で参照されやすい」という傾向を,人手による先験的な設計とほぼ同程度以上に表現できることが確認できた.なお,順位相関係数$\rho_A,\rho_B,\rho$の値の意味については,\ref{sec:scale_validity}節で考察する.また,毎日新聞コーパスの方がWSJコーパスよりも相関係数が大きかった理由については,\ref{sec:pron_ratio}節で考察する.\paragraph{選好2の検証}センタリング理論のルール2は,4つの遷移タイプの選好順序で表される.ここでは,ルール2の選好順序に対する選好2(EU$(U_{i+1})$が高い$U_{i+1}$が好まれる)の整合性を検証した.その検定の手順を以下に示す.\begin{itemize}\item[1.]センタリング理論のCb($U_i$),Cb($U_{i+1}$),Cp($U_{i+1}$)を決定する.Cb,Cpの定義については2.1節を参照のこと.ただし,以下のようにCf-rankingの代わりに参照確率を用いる.\\Cb($U_i$):$\bigcup_{k=1}^i{\rmCf}(U_k)$の要素のうち,Pr($e|{\rmpre}(U_{i-1})$)が最も大きい実体\\Cb($U_{i+1}$):$\bigcup_{k=1}^{i+1}{\rmCf}(U_k)$の要素のうち,Pr($e|{\rmpre}(U_i)$)が最も大きい実体\\Cp($U_{i+1}$):$\bigcup_{k=1}^{i+1}{\rmCf}(U_k)$の要素のうち,Pr($e|{\rmpre}(U_{i+1})$)が最も大きい実体\item[2.]1に基づいて,センタリング理論のルール2と同じ方法で遷移タイプ(Continue,Retain,Smooth-Shift,Rough-Shift)を決定する.遷移タイプの定義については2.1節を参照のこと.\item[3.]2で決定した4つの遷移タイプごとに期待効用EU($U_{i+1}$)の平均を計算する.\item[4.]Wilcoxonの順序和検定により,「ルール2の遷移タイプ間のEU($U_{i+1}$)平均の順序が,ルール2の順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)と一致する」という整合性の統計的有意性を検証する.これにより,MGCMの選好2とセンタリング理論のルール2の整合性を検証する.\item[5.]4つの遷移タイプに,ルール2の順序を表す値(Continue:4,Retain:3,Smooth-Shift:2,Rough-Shift:1)を割り当てた上で,EU($U_{i+1}$)との相関係数を計算する.この相関係数が高いほど,MGCMの選好2とセンタリング理論のルール2とが整合すると言える.\end{itemize}表\ref{tab:tran_jpn},\ref{tab:tran_eng}と図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj}に,手順3で計算した4つの遷移タイプごとの期待効用EU($U_{i+1}$)の平均を示す.また図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj}には,EU($U_{i+1}$)の平均だけでなく分布も示してある.このEU($U_{i+1}$)平均値の順序は,毎日新聞,WSJの両コーパスにおいて,ルール2の遷移タイプ順序と一致した\footnote{なお,サンプル数がContinueとSmooth-Shiftに偏っているのは,各サンプルにおいて4種類の遷移がすべて選択可能とは限らないためである\shortcite{kibble2001,siramatu2005nlp}.他のセンタリング理論の研究においても,ルール2の遷移タイプ順序とサンプル数の多さの順序は一致しない\shortcite{iida1996,takei2000}}.また,手順4のWilcoxonの順序和検定の結果,有意水準$2.2\times10^{-16}$未満で遷移タイプ順序とEU($U_{i+1}$)の平均順序は整合していた.更に,手順5での遷移タイプ順序と期待効用EU($U_{i+1}$)との相関係数の測定結果(95\%信頼区間)を表\ref{tab:pref2_mainiti},\ref{tab:pref2_wsj}に示す.これにより,毎日新聞で0.639,WSJで0.482のスピアマン順位相関係数が観測された.表の95\%信頼区間が示すように,両コーパスで観測された正の相関は統計的に有意である.\begin{table}[t]\caption{選好2:遷移タイプごとの期待効用EU($U_{i+1}$)の平均(毎日新聞)}\label{tab:tran_jpn}\input{08t16.txt}\end{table}\begin{table}[t]\caption{選好2:遷移タイプごとの期待効用EU($U_{i+1}$)の平均(WSJ)}\label{tab:tran_eng}\input{08t17.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f10.eps}\caption{選好2:遷移タイプと${\rmEU}(U_{i+1})$の分布(毎日新聞)}\label{fig:tran_eu_mainiti}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f11.eps}\caption{選好2:遷移タイプと${\rmEU}(U_{i+1})$の分布(WSJ)}\label{fig:tran_eu_wsj}\end{center}\end{figure}また,従来のMGCMにおける先験的な知覚効用の設計(Ut(代名詞)=2,Ut(非代名詞)=1)と本稿における統計的な設計を比較するために,従来の知覚効用を用いてスピアマン順位相関係数を測定し,毎日新聞で0.640,WSJで0.479という結果を得た.この値は,本稿の知覚効用を用いた場合の値とほぼ等しい.よって,統計的設計によって獲得した知覚効用を用いた場合に,参照結束性の尺度としての期待効用が,従来の人手による設計とほぼ同程度の表現能力を持つことが確認できた.つまり,参照結束性の尺度としてのEU($U_{i+1}$)の妥当性が,日本語・英語の両コーパスにおいて示された.\begin{table}[t]\caption{選好2:遷移タイプ順序と期待効用${\rmEU}(U_{i+1})$との相関係数(毎日新聞)}\label{tab:pref2_mainiti}\input{08t18.txt}\end{table}\begin{table}[t]\caption{選好2:遷移タイプ順序と期待効用${\rmEU}(U_{i+1})$との相関係数(WSJ)}\label{tab:pref2_wsj}\input{08t19.txt}\end{table}以上より,両コーパスにおいて,改良MGCMの選好2と,センタリング理論のルール2との整合性を確認できた.これは,期待効用EU($U_{i+1}$)に基づく表現/解釈の選択原理が,両言語で参照結束性を引き起こす行動選択原理となっていることを示唆する. \section{考察} \label{sec:discussion}\subsection{参照結束性の尺度としての期待効用}\label{sec:scale_validity}本節では,期待効用が参照結束性を表す尺度としての性質を満たすか否か,および,期待効用原理が後続発話$U_{i+1}$の表現/解釈の選択基準になっているか否かを考察する.\paragraph{選好1aの検証結果からの考察}選好1aは,期待効用原理から導かれる参照結束性の選好である.\ref{sec:verify_coherence}節の図\ref{fig:pref1a_eu_mainiti},\ref{fig:pref1a_eu_wsj}では,「図\ref{fig:crossed_or_uncrossed}の(A)と(B)の期待効用の差が大きいほど,(A)を選ぶ選考が強くなる」という,期待効用原理から導かれた予想を裏付ける検証結果が得られた.具体的には,${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好1a合致率のスピアマン順位相関係数が,毎日新聞で0.833,WSJで0.981と,非常に強い相関を示した.${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})\ge3$の場合,選好1a合致率が毎日新聞で0.825,WSJで0.822となり,${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})<0.5$の場合,選好1a合致率が毎日新聞で0.564,WSJで0.529となっていた.この結果は,期待効用の差が$U_{i+1}$の選択基準としての性質を持ち,参照結束性の差を表すという仮説と整合する.ここで,参照表現ペア全体で選好1aの合致率を計算すると,毎日新聞で0.622,WSJで0.605であった.つまり,(B)が選ばれている事例も全体の40\%ほど存在した.これは(A)と(B)の期待効用の差がわずかな参照表現ペア\footnote{参照表現ペア全体のうち,${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})<0.5$のサンプルの割合は,毎日新聞で65.0\%,WSJで45.8\%である.}もあわせて計算しているためであり,期待効用の差が0.5以上に限ると合致率が毎日新聞で0.729,WSJで0.670となり,(B)が選ばれる事例が約30\%に減少した.また2以上に限ると合致率が毎日新聞で0.808,WSJで0.772となり,(B)が選ばれる事例が約20\%に減少した.(A)と(B)の期待効用の差がわずかな参照表現ペアでは,(A),(B)どちらを選んでも,見込める知覚コスト削減量に差が無いため,選好1aが弱くなると考えられる.白松他\citeyear{siramatu2005nlp}は,述語項構造の選択制限によって選好1aが上書きされる事例を示したが,\ref{sec:verify_coherence}節の検証結果を踏まえると,(A)と(B)の期待効用の差がわずかな場合ほど高頻度で選択制限による上書きが起こっていると考えられる.この考察は,期待効用の差がわずかな候補間の選択においては,期待効用原理よりも選択制限の方が行動選択原理として強いことを示唆するが,期待効用の差が参照結束性の差を表すという仮説とは矛盾しない.では,(A)と(B)の期待効用の差が大きいにもかかわらず(B)が選択されているのは,どのような事例であろうか.われわれは,段落の変わり目や話題の転換点においては,(B)のような期待効用が低い(参照結束性が低い)遷移が起こりやすいと予想する.何故なら話題の転換点においては,顕現性が高い実体ではなく,新たな実体がトピックとして参照される可能性が高いからである.そのように文脈が切り替わる箇所では,文脈を利用した知覚コストの削減ができないため,参照結束性が低くなると予想される.以下に示す毎日新聞コーパスの投書記事における$U_{i+1}$は,(A)と(B)の期待効用の差が大きいにもかかわらず,(B)が選択されていた事例である.\vspace{\baselineskip}\begin{fminipage}{39zw}\noindent$U_{i-5}:$私のクラスに,足に障害のある生徒がいます.\\$U_{i-4}:$(φガ)学校を一日も休むことなく,\\$U_{i-3}:$(φガ)勉学に励んでいます.\\$U_{i-2}:$彼を送り迎えするのは,お母さんですが,\\$U_{i-1}:$(φガ)最近体の調子を崩し,\\$U_{i\phantom{-0}}:$彼はタクシーで帰宅することが多いのです.\\$U_{i+1}:$先日,(φガ)彼の家の最寄り駅まで送迎しました.\end{fminipage}\vspace{\baselineskip}\noindentこの例では,$U_{i+1}$に含まれる参照表現ペア$(w_1={\bfφ},w_2={\bf彼})$と,その指示対象候補$(e_1={\bf生徒},e_2={\bf私})$に対し,${\rmPr}({\bf生徒}|{\rmpre}(U_i))>{\rmPr}({\bf私}|{\rmpre}(U_i))$,${\rmUt}({\bfφ})>{\rmUt}({\bf彼})$が観測され,(A)・(B)の期待効用の差は4.31と大きかった.それにもかかわらず,(A)ではなく(B),すなわち$\langlew_1={\bfφ},e_2={\bf私}\rangle$,$\langlew_2={\bf彼},e_1={\bf生徒}\rangle$の参照関係が選択されていた.実はこの記事では$U_i$と$U_{i+1}$の間で段落が変わっているので,ここが話題の転換点であると見なせる.「日本語では一人称がゼロ代名詞φで参照されることが多い」という性質の影響も無視できないが,そうだとしても,話題の転換点で期待効用の低い(参照結束性の低い)表現が選択された事例である.つまり,「(A)と(B)の期待効用の差が大きいにもかかわらず(B)が選ばれているのは話題の転換点であろう」という予想に合致する事例である.この考察は,期待効用が参照結束性の尺度であるという仮説とは矛盾しない.しかし,話題の転換点や段落の変わり目においては,期待効用原理(および,参照結束性の選好)は表現/解釈の選択基準になっていないということを示唆している.このことから,工学的に,期待効用が小さい隣接発話の間を話題の転換点と見なせる可能性がある.\paragraph{選好1bの検証結果からの考察}選好1bは,期待効用原理から導かれる選好1aの更なる一般化であり,定性的には「目立っている実体は低コストな参照表現で参照できる」という,文脈を利用した知覚コスト低減の傾向を表す.\ref{sec:verify_coherence}節の表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj}が示す選好1bの検証結果によると,(A)が選ばれた参照表現ペアに限定した場合の${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$のスピアマン相関係数$\rho_A$は,毎日新聞で0.540,WSJで0.454と,中程度の正の相関を示した.(B)に限定した場合の$\rho_B$は,毎日新聞で$-$0.086,WSJで$-$0.120と,ほぼ無相関と言えるほど弱い負の相関を示した.全ての照応詞における$\rho$は,毎日新聞で0.377,WSJで0.237と,弱い正の相関を示した.この,$|\rho_A|>|\rho_B|,~\rho>0$という結果は,「目立っている実体は低コストな参照表現で参照できる」という,文脈を利用した知覚コスト低減傾向を表現できていると考えられる.また,期待効用原理(選好1a)に従って(A)を選択した場合,文脈を利用したコスト低減傾向が強く($\rho_A>0$),期待効用原理に従わず(B)を選択した場合は,文脈を利用したコスト低減傾向が無かった($\rho_B\le0$)とも解釈できる.この解釈は,期待効用が参照結束性を表す尺度であるという仮説と矛盾しない.\\ここで,全体の正の相関$\rho$が弱かった原因と,期待効用原理に従わない場合のわずかな負の相関$\rho_B$の原因について考察する.これも,表現/解釈の候補間で期待効用の差がわずかな場合に,選好1bが述語項構造の選択制限などによって上書きされた影響と考えられる.これにより,$\rho_B$のわずかな負の相関が生まれ,全体での$\rho$の正の相関が弱まったと考えられる.しかし,期待効用原理に従った場合の正の相関$\rho_A$(毎日新聞で0.540,WSJで0.454)に比べると,期待効用原理に従わない場合の負の相関$\rho_B$(毎日新聞で$-$0.086,WSJで$-$0.120)の絶対値は非常に小さなものであった.この結果は,選好1bの妥当性を示唆していると考える.\paragraph{選好2の検証結果からの考察}選好2は,期待効用原理そのものである.\ref{sec:verify_coherence}節では,センタリング理論のルール2との整合性を検証するため,ルール2の遷移タイプ順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)と期待効用${\rmEU}(U_{i+1})$とのスピアマン順位相関計数を求めた.その結果,毎日新聞で0.639,WSJで0.482の正の相関を観測した.この観測結果は,期待効用が参照結束性の尺度であるという仮説を裏付けるものであると考える.ただし\ref{sec:verify_coherence}節の図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj}によると,確かに遷移タイプ毎の${\rmEU}(U_{i+1})$平均の順序はルール2における遷移タイプ順序と合致するが,${\rmEU}(U_{i+1})$が0に近い領域にも,Continueが分布することが見てとれる.これは,ContinueのサンプルとRough-Shiftのサンプルの間で${\rmEU}(U_{i+1})$の大小関係が逆転するケースも0ではない,ということを意味する.このことと,選好1aの検証結果を併せて考察すると,以下の予想が導かれる.\vspace{1\baselineskip}{\setlength{\leftskip}{1zw}\noindentある先行文脈${\rmpre}(U_{i+1})$を有するひとつの発話$U_{i+1}$における表現/解釈の候補同士を比べる場合には,期待効用${\rmEU}(U_{i+1})$は${\rmpre}(U_i)$と$U_{i+1}$の間の参照結束性の尺度として有効である.しかし,先行文脈が異なる発話同士を比べる場合は,文脈に応じて期待効用${\rmEU}(U_{i+1})$に何らかの正規化を加えた方が,より参照結束性の尺度に適した値になる可能性がある.\par}\vspace{1\baselineskip}文脈に応じてどのような正規化を期待効用の値に加えるべきかは,今後の課題とする.ただし本稿で目指すのは,定まった先行文脈を有するひとつの後続発話$U_{i+1}$における表現/解釈の候補同士からの選択である.その目的のためには正規化は必要なく,本稿の期待効用は参照結束性の尺度としての性質を充分に備えていると考える.\subsection{文脈を利用した知覚コスト低減傾向に関する日本語と英語の比較}\label{sec:pron_ratio}選好1bの検証の結果,参照確率が高い実体ほど,知覚効用が高い表現(代名詞など)で参照されやすいという正の相関が確認された.言い換えると,「顕現性が高く目立っている実体ほどコストが低い表現で参照できる」という相関であり,文脈を利用した知覚コストの低減傾向を表していると考えられる.具体的には,毎日新聞では0.377,WSJでは0.237のスピアマン順位相関係数(表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj})が観測され,毎日新聞の方がWSJよりも文脈を利用したコスト低減傾向が高かった.その理由は,図\ref{fig:pron_ratio}に示されている.図\ref{fig:pron_ratio}は,参照確率の変化により,代名詞化される実体の割合がどう変化するかをプロットしたグラフである.これによると,顕現性が低い範囲(${\rmPr}<0.75$)では毎日新聞とWSJの違いは顕著ではない.この範囲では,参照確率が上がるにつれて代名詞化率も上がっていたことが両コーパスで確認できる.一方,顕現性が高い範囲(${\rmPr}\ge0.75$)においては,両コーパスの代名詞化傾向に大きな違いがあることがわかる.毎日新聞では参照確率が上がるにつれて代名詞化率が上がっていたが,WSJでは代名詞化率は横ばいとなっていた.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f12.eps}\caption{参照確率による代名詞化率の変化}\label{fig:pron_ratio}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f13.eps}\caption{参照確率と知覚効用の散布図(毎日新聞)}\label{fig:salutil_scatter_mainiti}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f14.eps}\caption{参照確率と知覚効用の散布図(WSJ)}\label{fig:salutil_scatter_wsj}\end{center}\end{figure}次に,この選好1bが示す現象(実体の顕現性と,参照表現の簡単さとの相関)の性質を更に詳細に調べるため,参照確率{\rmPr$(e|{\rmpre}(U_i))$}と知覚効用{\rmUt$(w)$}の散布図を描く.各コーパスに含まれる約3,000照応詞を無作為抽出して描いた散布図が,図\ref{fig:salutil_scatter_mainiti},\ref{fig:salutil_scatter_wsj}である.毎日新聞,WSJの双方に共通して観察できるのは,省略(ゼロ代名詞と空範疇)がPrの値域全域に渡って分布しているのに対し,省略以外の名詞句はPr$<$0.2に偏って分布しているという現象である.ただし,省略以外のPr$<$0.2への偏りは,WSJよりも毎日新聞の方がより顕著である.一方,WSJ(図\ref{fig:salutil_scatter_wsj})のみに見られる現象としては,Pr$>$0.9付近に非代名詞(Utが3から5程度)が集まっているのが見てとれる.これは,図\ref{fig:pron_ratio}のPr$>$0.75における代名詞化率の横ばい傾向と整合する.そこで,顕現性が高い範囲(Pr$>$0.75)において代名詞化されていない実体の割合を調べると,毎日新聞では17.6\%,WSJでは55.3\%(11,367例)であった.さらに詳しく調べると,WSJの11,367例のうちの41.7\%(4,735例)は固有名詞であった.具体的には以下のような事例である.\vspace{\baselineskip}\begin{fminipage}{39zw}\noindent``Wehavenousefulinformationonwhetherusersareatrisk,''said\underline{JamesA.Talcott}ofBoston'sDana-FarberCancerInstitute.\underline{Dr.Talcott}ledateamofresearchersfrom...\end{fminipage}\vspace{\baselineskip}この例のように,英語の新聞においては代名詞``he''などで参照可能な顕現性が高い実体であっても,``Dr.Talcott''のような略称で参照されることも多い.また,この顕現性が高い範囲において,WSJでは定冠詞句による参照も多く観察された.これらの事例が,図\ref{fig:salutil_scatter_wsj}のPr$>$0.9に分布する非代名詞サンプルの正体であり,図\ref{fig:pron_ratio}の${\rmPr}\ge0.75$の範囲における日本語と英語の代名詞化傾向の違いとなって現れたと考えられる.この結果は,「日本語の新聞では,英語の新聞よりも文脈を利用した知覚的な労力削減が行われやすい」ということを示しており,日本語の談話構造における文脈依存性の高さを示唆している.なお,本節で議論した言語間の定量的比較を可能にしたのは,MGCMにおける定量的な定式化である.つまり,このような定量的な議論ができること自体が,定量的なモデル化の効果の一つである.\subsection{パラメタ設計における今後の課題}\ref{sec:scale_validity}節,\ref{sec:pron_ratio}節の議論を踏まえて,MGCMのパラメタ設計において残されている課題を述べる.\begin{itemize}\item{\bf知覚コストの定義において残された課題:}本稿の知覚コストの定義では,英語の``Dr.Talcott''のような略称の知覚コストは高く評価されてしまうが,本来ならば略称の使用も負荷削減を引き起こしているはずである.よって,モデルの更なる改良のためには,固有名詞の略称化や名詞句の指示性を考慮したI($w$)の測定方法が必要であると考えられる.これにより,英語だけでなく日本語の上でのモデル表現能力も向上すると予想される.\item{\bf参照確率の計測方法において残された課題:}本稿では,参照確率の推定に用いる素性として,白松他\citeyear{siramatu2005nlp}のものを踏襲して用いた.モデルの更なる改良のためには,他の素性設計(例えば,対数$\log$を用いない等)も検討し,比較する必要がある.更に,本稿の測定方法では,\ref{sec:scale_validity}節で議論したような話題の転換点(低い参照結束性で繋がる隣接発話)を考慮していない.話題の転換点の後では,談話参与者が注目する実体が大きく変化する可能性がある.参照確率は実体の顕現性を表すので,話題の転換点の前と後で参照確率の値も変化すると考えられる.よって今後は,先行文脈における話題の転換点を考慮した素性設計も検討する予定である.\end{itemize} \section{まとめ} \label{sec:conc}本稿では,意味ゲーム仮説に基づく参照結束性のモデルMGCMを多言語化するため,改良MGCMを設計した.また,日本語と英語の大規模新聞記事コーパスを用いて改良MGCMを検証し,言語をまたぐ一般性を備えていることを示した.これにより,日本語と英語という性質の大きく異なる言語において,参照結束性のメカニズムがゲーム理論で説明できるという証拠を示した.同時に,期待効用が,参照結束性の尺度としての性質(すなわち,先行文脈が与えられた上で後続発話の表現/解釈を選択する基準としての性質)を備えていることを,両言語のコーパス上で示した.\\まず従来のMGCMには,(1)日本語のコーパスでしか検証されていない,(2)参照表現の知覚効用${\rmUt}(w)$を統計的に計測できない,という2つの課題が残されていた.様々な言語にモデルを適用するためにも,言語依存特性をコーパスから獲得可能なパラメタ設計が課題であった.本稿では,参照表現の知覚効用を統計的に再設計することにより,多言語に適用可能な改良MGCMを構築した.この統計的パラメタ設計に基づき,日本語と英語のコーパスからパラメタ(参照確率と知覚効用)の値の分布を獲得できることを示した(\ref{sec:verification}章の表\ref{tab:sal_jpn},\ref{tab:sal_eng},\ref{tab:cost_jpn},\ref{tab:cost_eng}).この結果から,以下の2つの知見が得られた.\begin{itemize}\item2つのコーパスの間には,確かに各言語に特有な言語表現と,その上でのパラメタ分布の違いが見られた.よって,コーパスからの統計的獲得が必要である.\item一方,2つのコーパスから獲得されたパラメタ分布は,言語間の違いを吸収し,従来の知見との整合性を示した.よって,各言語に特有な表現に適応したパラメタ分布が獲得できたと考えられる.\end{itemize}この改良MGCMの設計により多言語への適用が可能になったので,日本語,英語という性質が大きく異なる2つの言語の大規模コーパスを用い,MGCMの統計的な検証実験を行った.具体的には,期待効用原理から導かれた選好1a,1b,2を,両言語のコーパスの上で検証した.選好1aの検証(\ref{sec:verification}章の図\ref{fig:pref1a_eu_mainiti},図\ref{fig:pref1a_eu_wsj})では,2つの候補の期待効用の差と,選好1a合致率とのスピアマン順位相関係数が,日本語コーパス上で0.833,英語コーパス上で0.981となり,非常に強い正の相関を示した.これは,両言語において「参照結束性は期待効用原理によって引き起こされる」という仮説を強く支持する結果である.同時にこの結果から,候補間の期待効用の差が,参照結束性の差を表現しているという知見を得た.選好1bの検証,つまり「目立っている実体ほど,知覚的に低コストな参照表現で参照されやすい」という傾向の検証(\ref{sec:verification}章の表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj})では,選好1aに従う事例に限定した場合の参照確率と知覚効用とのスピアマン順位相関係数が,日本語コーパス上で0.540,英語コーパス上で0.454となり,中程度の正の相関を示した.このことから,期待効用原理に従って表現/解釈を選択した場合,確かに文脈を利用して知覚コストの低減を図る傾向がある,という知見を得た.また,選好1bに従わない事例に限定した場合は,日本語コーパス上で$-$0.086,英語コーパス上で$-$0.120となり,ほぼ無相関と言えるほど弱い負の相関を示した.このことから,期待効用原理に従わずに表現/解釈を選択した場合,文脈を利用した知覚コストの低減がなされないという知見を得た.さらに全ての事例では,日本語コーパス上で0.377,英語コーパス上で0.237となり,弱い正の相関を示した.このことから,文脈を利用して知覚コストを低減する傾向が弱いながらも存在し,その傾向は英語コーパスより日本語コーパスの方が強いという知見を得た.これらの結果は,両言語において「参照結束性は期待効用原理によって引き起こされる」という仮説と矛盾しない.選好2の検証(\ref{sec:verification}章の図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj})では,選好2とセンタリング理論のルール2との整合性を検証した.期待効用と,ルール2における遷移タイプ順序とのスピアマン順位相関係数が,日本語コーパス上で0.639,英語コーパス上で0.482となり,中程度からやや強い正の相関を示した.これは,両言語において「参照結束性は期待効用原理によって引き起こされる」という仮説を支持する結果である.以上の検証結果から,日本語と英語の両言語において,参照結束性は期待効用原理によって引き起こされているという経験的な証拠を得た.同時に両言語において,期待効用原理に従えば参照結束性の高い表現/解釈を選択できるという知見を得た.さらに本稿では,英語と日本語のコスト低減化傾向を比較するために両コーパスにおける参照確率と知覚効用の相関関係を比較した(\ref{sec:discussion}章の図\ref{fig:pron_ratio},\ref{fig:salutil_scatter_mainiti},\ref{fig:salutil_scatter_wsj}).その結果,参照確率が高い実体を参照するためには日本語の方が英語よりも低いコストの表現が選ばれやすく,期待効用原理がより強く働いていることを発見した.このような定量的分析が可能になったこと自体が,MGCMにおける定量的なモデル化の効果の一つである.今後,更に多くの言語でも改良MGCMを検証できれば,ゲーム理論から導かれた行動選択原理が参照結束性の認知機構として言語に独立に成り立っていることを確認できるであろう.このゲーム理論に基づく一般化により,従来のセンタリング理論に含まれていなかった原理的観点からの,体系的かつ定量的な分析が可能になると期待される.\acknowledgment本研究を進めるにあたって有意義なコメントや励ましの言葉を戴いた奥乃研究室の学生諸君と,丁寧な御指摘を戴いた匿名のレフェリーに深謝致します.また,日本語新聞記事GDAコーパスの研究利用を許諾して下さった三菱電機株式会社と,調整の労をお取り下さったGSK(言語資源協会)に感謝致します.本研究は,科研費(特別研究員奨励費,19・91)の助成を受けたものです.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Benz,Jager,\BBA\vanRooij}{Benzet~al.}{2006}]{benz2006}Benz,A.,Jager,G.,\BBA\vanRooij,R.\BBOP2006\BBCP.\newblock{\Bem{GameTheoryandPragmatics}}.\newblockPalgraveMacmillan,Basingstoke.\bibitem[\protect\BCAY{Fechner}{Fechner}{1860}]{fechner1860}Fechner,G.\BBOP1860\BBCP.\newblock{\Bem{ElementederPsychophysik{\rm,translatedto}ElementsofPsychopysics{\rm,translatedbyH.E.Adler,1966}}}.\newblockHolt,RinehartandWinston,NewYork.\bibitem[\protect\BCAY{Grosz,Joshi,\BBA\Weinstein}{Groszet~al.}{1983}]{grosz1983}Grosz,B.,Joshi,A.,\BBA\Weinstein,S.\BBOP1983\BBCP.\newblock\BBOQ{ProvidingaUnifiedAccountofDefiniteNounPhraseinDiscourse}\BBCQ\\newblockIn{\BemProceedingsofthe21stACL},\mbox{\BPGS\44--50}.\bibitem[\protect\BCAY{Grosz,Joshi,\BBA\Weinstein}{Groszet~al.}{1995}]{grosz1995}Grosz,B.,Joshi,A.,\BBA\Weinstein,S.\BBOP1995\BBCP.\newblock\BBOQ{Centering:AFrameworkforModelingtheLocalCoherenceofDiscourse}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf21}(2),\mbox{\BPGS\203--225}.\bibitem[\protect\BCAY{Hasida}{Hasida}{1996}]{hasida1996}Hasida,K.\BBOP1996\BBCP.\newblock\BBOQ{IssuesinCommunicationGame}\BBCQ\\newblockIn{\BemProceedingsofCOLING'96},\mbox{\BPGS\531--536}.\bibitem[\protect\BCAY{Hasida,Nagao,\BBA\Miyata}{Hasidaet~al.}{1995}]{hasida1995}Hasida,K.,Nagao,K.,\BBA\Miyata,T.\BBOP1995\BBCP.\newblock\BBOQ{AGame-TheoreticAccountofCollaborationinCommunication}\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalConferenceonMulti-AgentSystems},\mbox{\BPGS\140--147}.\bibitem[\protect\BCAY{Iida}{Iida}{1997}]{iida1996}Iida,M.\BBOP1997\BBCP.\newblock\BBOQDiscourseCoherenceandShiftingCentersinJapaneseTexts\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\mbox{\BPGS\161--180}.OxfordUniversityPress.\bibitem[\protect\BCAY{Kameyama}{Kameyama}{1998}]{kameyama1998}Kameyama,M.\BBOP1998\BBCP.\newblock\BBOQ{IntrasententialCentering:ACaseStudy}\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\mbox{\BPGS\89--112}.OxfordUniversityPress.\bibitem[\protect\BCAY{Kibble}{Kibble}{2001}]{kibble2001}Kibble,R.\BBOP2001\BBCP.\newblock\BBOQ{AReformulationofRule2ofCenteringTheory}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4).\bibitem[\protect\BCAY{Ng}{Ng}{2004}]{ng2004}Ng,V.\BBOP2004\BBCP.\newblock\BBOQ{Learningnounphraseanaphoricitytoimprovecoreferenceresolution:Issuesinrepresentationandoptimization}\BBCQ\\newblockIn{\BemProceedingsofthe42ndACL},\mbox{\BPGS\152--159}.\bibitem[\protect\BCAY{Osborne\BBA\Rubinstein}{Osborne\BBA\Rubinstein}{1994}]{osbone1994}Osborne,M.\BBACOMMA\\BBA\Rubinstein,A.\BBOP1994\BBCP.\newblock{\Bem{ACourseinGameTheory}}.\newblockTheMITPress,Cambridge,Massachusetts.\bibitem[\protect\BCAY{Parikh}{Parikh}{2001}]{parikh2001}Parikh,P.\BBOP2001\BBCP.\newblock{\Bem{TheUseofLanguage}}.\newblockCSLIPublications,Stanford,California.\bibitem[\protect\BCAY{Poesio,Stevenson,Eugenio,\BBA\Vieira}{Poesioet~al.}{2004}]{poesio2004}Poesio,M.,Stevenson,R.,Eugenio,B.~D.,\BBA\Vieira,R.\BBOP2004\BBCP.\newblock\BBOQ{Centering:Aparametrictheoryanditsinstantiations}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(3),\mbox{\BPGS\309--363}.\bibitem[\protect\BCAY{R-Foundation}{R-Foundation}{2003}]{Rsite}R-Foundation\BBOP2003\BBCP.\newblock\BBOQ{TheRProjectforStatisticalComputing}\BBCQ\\newblockhttp:{\slash}{\slash}www.{R}-project.org{\slash}.\bibitem[\protect\BCAY{Strube\BBA\Muller}{Strube\BBA\Muller}{2003}]{strube2003}Strube,M.\BBACOMMA\\BBA\Muller,C.\BBOP2003\BBCP.\newblock\BBOQ{Amachinelearningapproachtopronounresolutioninspokendialogue}\BBCQ\\newblockIn{\BemProceedingsofthe41stACL},\mbox{\BPGS\168--175}.\bibitem[\protect\BCAY{vanRooij}{vanRooij}{2004}]{rooij2004}vanRooij,R.\BBOP2004\BBCP.\newblock\BBOQSignalinggamesselectHornstrategies\BBCQ\\newblock{\BemLinguisticsandPhilosophy},{\Bbf27},\mbox{\BPGS\493--527}.\bibitem[\protect\BCAY{vonNeumann\BBA\Morgenstern}{vonNeumann\BBA\Morgenstern}{1944}]{neumann1944}vonNeumann,J.\BBACOMMA\\BBA\Morgenstern,O.\BBOP1944\BBCP.\newblock{\Bem{TheoryofGamesandEconomicBehavior}}.\newblockPrincetonUniversityPress,Princeton.\bibitem[\protect\BCAY{Walker,,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{walker1994}Walker,M.,,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQ{JapaneseDiscourseandtheProcessofCentering}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2),\mbox{\BPGS\193--232}.\bibitem[\protect\BCAY{Yamura-Takei,Takada,\BBA\Aizawa}{Yamura-Takeiet~al.}{2000}]{takei2000}Yamura-Takei,M.,Takada,M.,\BBA\Aizawa,T.\BBOP2000\BBCP.\newblock\BBOQ{TheRoleofGlobalTopicinJapaneseZeroAnaphoraResolution(inJapanese)}\BBCQ\\newblock{\BemTechnicalReportofIPSJ},{\Bbf135}(10),\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{橋田}{橋田}{1998}]{hasida1998gda}橋田浩一\BBOP1998\BBCP.\newblock\JBOQGDA:意味的修飾に基づく多用途の知的コンテンツ\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf13}(4),\mbox{\BPGS\528--535}.\bibitem[\protect\BCAY{白松\JBA宮田\JBA奥乃\JBA橋田}{白松\Jetal}{2005}]{siramatu2005nlp}白松俊\JBA宮田高志\JBA奥乃博\JBA橋田浩一\BBOP2005\BBCP.\newblock\JBOQゲーム理論による中心化理論の解体と実言語データに基づく検証\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\91--110}.\bibitem[\protect\BCAY{舟尾}{舟尾}{2005}]{funao2005}舟尾暢男\BBOP2005\BBCP.\newblock{\Bem{TheRTips}}.\newblock九天社.\bibitem[\protect\BCAY{電子情報技術産業協会}{電子情報技術産業協会}{2005}]{jeita2005}電子情報技術産業協会\BBOP2005\BBCP.\newblock\JBOQ言語情報処理用語集(in言語情報処理ポータル)\JBCQ\\newblockhttp:{\slash}{\slash}nlp.kuee.kyoto-u.ac.jp{\slash}{NLP\_{}Portal}{\slash}glossary{\slash}index.html.\bibitem[\protect\BCAY{飯田\JBA乾\JBA松本}{飯田\Jetal}{2004}]{iida2004}飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ文脈的手がかりを考慮した機械学習による日本語ゼロ代名詞の先行詞同定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(3),\mbox{\BPGS\906--918}.\end{thebibliography}\begin{biography}\bioauthor{白松俊(学生会員){\unskip}}{2000年東京理科大学理工学部情報科学科卒業.2003年同大学院修士課程修了,JSTCREST研究補助員を経て,現在京都大学大学院情報学研究科博士後期課程在学中.談話文脈研究に従事.2007年よりJSPS特別研究員(DC2).}\bioauthor{駒谷和範(正会員){\unskip}}{1998年京都大学工学部情報工学科卒業.2002年同大学院情報学研究科博士後期課程修了.博士(情報学).現在,同大学院情報学研究科助教.音声対話システムの研究に従事.情報処理学会平成16年度山下記念研究賞等を受賞.}\bioauthor{橋田浩一(正会員){\unskip}}{1981年東京大学理学部情報科学科卒業.1986年同大学大学院理学系研究科博士課程修了.理学博士.同年,電子技術総合研究所入所.現在,産業技術総合研究所情報技術研究部門長.日本認知科学会優秀論文賞等を受賞.}\bioauthor{尾形哲也(非会員){\unskip}}{1993年早稲田大学理工学部機械工学科卒業.博士(工学).2003年京都大学大学院情報学研究科講師,現在同准教授.ロボット模倣,神経回路モデル等の研究に従事.情報処理学会,日本ロボット学会,IEEEなどの会員.}\bioauthor{奥乃博(非会員){\unskip}}{1972年東京大学教養学部基礎科学科卒業.博士(工学).2001年より京都大学大学院情報学研究科教授.音環境理解,ロボット聴覚の研究に従事.情報処理学会,人工知能学会,ロボット学会,ACM,IEEE等会員.}\end{biography}\biodate\end{document}
V06N02-06
\section{はじめに} 近年の著しい計算機速度の向上,及び,音声処理技術/自然言語処理技術の向上により,音声ディクテーションシステムやパソコンで動作する連続音声認識のフリーソフトウェアの公開など,音声認識技術が実用的なアプリケーションとして社会に受け入れられる可能性がでてきた\cite{test1,test2}.我が国では,大量のテキストデータベースや音声データベースの未整備のため欧米と比べてディクテーションシステムの研究は遅れていたが,最近になって新聞テキストデータやその読み上げ文のデータが整備され\cite{test3},ようやく研究基盤が整った状況である.このような背景を踏まえ,本研究では大規模コーパスが利用可能な新聞の読み上げ音声の精度の良い言語モデルの構築を実験的に検討した.音声認識のためのN-gram言語モデルでは,N=3$\sim$4で十分であると考えられる\hspace{-0.05mm}\cite{test4,test5,test25}.しかし,N=3ではパラメータの数が多くなり,音声認識時の負荷が大きい.そこで,大語彙連続音声認識では,第1パス目はN=2のbigramモデルで複数候補の認識結果を出力し,N=3のtrigramで後処理を行なう方法が一般的である.\mbox{本研究では,第2パスのtrigramの改善}ばかりでなく,第1パス目の\hspace{-0.05mm}bigram\hspace{-0.05mm}言語モデルの改善を目指し,以下の3つの点に注目した.まずタスクについて注目する.言語モデルをN-gram\mbox{ベースで構築する場合(ルールベースで}記述するのとは異なり),大量の学習データが必要となる.最近では各種データベースが幅広く構築され,言語モデルの作成に新聞記事などの大規模なデータベースを利用した研究が行なわれている\cite{test6}.しかしN-gramはタスクに依存するのでタスクに関する大量のデータベースを用いて構築される必要がある.例えば,観光案内対話タスクを想定し,既存の大量の言語データに特定タスクの言語データを少量混合することによって,N-gram言語モデルの性能の改善が行なわれている\cite{test7}.また,複数のトピックに関する言語モデルの線形補間で適応化する方法が試みられている\cite{test8}.本研究ではタスクへの適応化のために,同一ジャンルの過去の記事を用いる方法とその有効性を示す.次に言語モデルの経時変化について注目する.例えば新聞記事などでは話題が経時的に変化し,新しい固有名詞が短期的に集中的に出現する場合が多い.以前の研究では、\mbox{直前の数百単}\mbox{語による言語モデルの適応化(キャッシュ法)が試}みられ\cite{test20},\mbox{小さいタスクでは}その有効性が示されてはいるが,本論文では直前の数万〜数十万語に拡大する.つまり,直前の数日間〜数週間の記事内容で言語モデルを適応化する方法を検討し,その有効性を示す.最後に認識単位に注目する.音声認識において,\mbox{認識単位が短い場合認識誤りを生じやすく,}付属語においてその影響は大きいと考えられ,小林らは,付属語列を新たな認識単位とした場\mbox{合の効果の検証をしている\cite{test9}}.\mbox{また高木らは,高頻度の付属語連鎖,}関連率の高い複合名詞などを新しい認識単位とし,\mbox{これらを語彙に加えることによる言語モデ}ルの性能に与える影響を検討している\cite{test10}.なお,連続する単語クラスを連結して一つの単語クラスとする方法や句を一つの単位とする方法は以前から試みられているが,いずれも適用されたデータベースの規模が小さい\cite{test11,test12}.同じような効果を狙った方法として,N-gramのNを可変にする方法も試みられている\cite{test8}.なお,定型表現の抽出に関する研究は,テキスト処理分野では多くが試みられている(例えば,新納,井佐原1995;北,小倉,森本,矢野1995).新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しなどの表現(以下,定型表現と呼ぶ)が非常に多いと思われる.定型表現は,音声認識用の言語モデルや音声認識結果の誤り訂正のための後処理に適用できる.そこでまず,定型表現を抽出した.次に,これらの(複数形態素から成る)定型表現を1形態素として捉えた上で,N-gram言語モデルを構築する方法を検討する.評価実験の結果,長さ2および3以下である定型表現を1形態素化してbigram,trigram言語モデルを作成することで,bigramに関しては,エントロピーが小さくなり,言語モデルとして有効であることを示す.なお,これらの手法に関しては様々な方法が提案されているが,大規模のテキストデータを用いて,タスクの適応化と定型表現の導入の有効性を統一的に評価した研究は報告されていない.\vspace*{-3mm} \section{言語モデルの評価基準} \vspace*{-1mm}\subsection{エントロピーとパープレキシティ}言語モデルの評価基準として,エントロピーとパープレキシティを用いる.エントロピーとパープレキシティは共に,対象とする文集合の複雑さを定量的に示す指標で,その文集合が複雑なほど,それぞれの値は大きくなる.単語列を生成する情報源をモデル化したものを言語モデルと呼ぶ.いま\mbox{言語Lにおいて,文}(単語列)$W_i={w_1}\cdotsw_{L_i}$の出現確率を$P(W_i)$とすれば,文集合$W_1$,$W_2$,$\cdots$,$W_N$のエントロピー\breakは次式で求められる.\vspace*{-3mm}\begin{equation}H(L)=-\sum^{N}_{i=1}P(W_i)\logP(W_i)\end{equation}テキスト文の連接を$W=W_1W_2\cdotsW_N=w_1w_2\cdotsw_T$とすれば,テストセットのエントロピーは\vspace*{-3mm}\begin{equation}H(L)=-\logP(W)\end{equation}で示される.トライグラムを用いた場合,P(W)は\vspace*{-3mm}\begin{eqnarray}P(W)&=&P(W_1)P(W_2)\cdotsP(W_N)\nonumber\\&=&P(w_1|*\\#)P(w_2|\#\w_1)\nonumber\\&&P(w_3|w_1\w_2)\cdotsP(w_T|w_{T-2}\w_{T-1})\end{eqnarray}となる(注:\#は文頭を,*は文末を示す.以降の評価実験では句読点を含む).この時,一単語当たりのエントロピーは\begin{equation}H_0(L)=-\frac{\sum_i\logP(W_i)}{\sum_iL_i}\end{equation}また,言語の複雑さ・パープレキシティは\begin{equation}PP=2^{H_0(L)}\end{equation}と定義される.パープレキシティは,情報理論的にある単語から後続可能な単語の種類数を表している.この値が大きくなるほど,単語を特定するのが難しくなり,言語として複雑であるといえる.また逆に,この値が小さくなるほど,音声認識での後続予測単語を特定するのがやさしくなるので,認識率が上がる傾向にある\cite{test13}.日本語の単語の定義は定かでなく,また形態素の定義も異なる.そこで,本論文では文字単位のエントロピー(パープレキシティ)の指標も用いる.\vspace*{-1mm}\subsection{補正パープレキシティ}本研究で使用したCMUSLMtoolkit\cite{test14}では語彙に含まれないものは全て一つの未知語のカテゴリにまとめられ,語彙に含まれる形態素と等価に未知語のカテゴリは扱われる.そのため語彙サイズのセットが小さい程(カバー率が小さい程),パープレキシティは小さくなるということになり好ましくない.そこで評価テキスト中に出現した未知語の種類$m$と,未知語の出現回数$n_u$を用いてパープレキシティを補正する\cite{test15}.補正パープレキシティは\vspace*{-3mm}\begin{equation}APP=(P(w_1...w_n)m^{-n_u})^{-\frac{1}{n}}\end{equation}で与えられる.これは,複数の未知語はそれぞれ等確率に生じると仮定して,補正したものである.勿論,これは評価テキストの大きさに依存する(テキストが大きくなると未知語の種類が増える)ので,簡易的な補正である.より厳密には未知語に対しては出現頻度を考慮するか\cite{newapp},未知語の生成モデルを用いる必要がある\cite{test5}.なお,一般には,未知語部分はスキップしてパープレキシティを算出する方法がよく使われている.\vspace*{-1mm} \section{言語モデルの適応化} \vspace*{-1mm}\subsection{面種別での学習と評価}\vspace*{-1mm}タスク依存の言語モデルを構築する場合,ターゲットとするタスクに関するデータのみを用いて学習する方がよいと考えられる\cite{test16}.学習と評価用のコーパスとして毎日新聞の1991年$\sim$1994年の記事を用いた.形態素解析にはRWCPが提供している毎日新聞形態素解析データを,電総研で作成された括弧除去ツールで加工し,使用している\cite{test17}.学習には1991年\mbox{1月から1994年11}月までの記事を用い,評価には1994年12月の記事を用いた.毎\mbox{日新聞には全部で13面種に分}類されているが,「社説」,「科学」,「読書」などの面種にはデータが少な過ぎるので,面種別の結果は省いた.登録した形態素数は5000,20000の2通りで,bigram,trigramの学習と評価にCMUSLMtoolkitを使用した.表\ref{base}に用いたコーパスの諸量をまとめた(学\mbox{習テキストが}1994年1月〜11月の場合の結果は,文献\cite{test26}を参照されたい).これらのデータを用いて作成したbigramとtrigramの評価結果を表\ref{tbl:pp_bi_20k},\ref{tbl:pp_tri_20k}に示す.\mbox{紙数の関係}で,5000形態素に関する結果は省略した.これらの表では,実験結果をエントロピーではなくパープレキシティで表示している.これは音声認識実験を行なうことを踏まえ,情報理論的にある単語から後続可能な単語の種類数を示すパープキシティという指標の方が直観的にわかりやすいためである.またカバー率とは,unigramのヒット率のことである.これらの結果より以下の事がわかる.\begin{itemize}\itembigramとtrigramを比較すると,bigramより,\mbox{trigramで言語モデルを構築した方が,ト}レーニングデータとテストデータのどちらのパープレキシティも小さくなる.\itemテストデータとトレーニングデータを比較すると,形態素数5000のbigramでは,テストデータとトレーニングデータとの間にパープレキシティの差はほとんど見られなかった.しかし,それ以外の言語モデル(bigram形態素数20000,trigram形態素数5000,trigram形態素数20000)では,テストデータとトレーニングデータとの間にパープレキシティの差が大きい.これは補正パープレキシティでも同様である.特に形態素数20000のtrigramで差が大きい.これは,9000万形態素では,トレーニングデータ量が不足していることを示している.\item全面種で学習した場合と面種別で学習した場合の比較をすると,面種別に語彙を設定する方がカバー率は向上する.また,テストデータのパープレキシティに関しては,形態素数20000のbigramでは全面種で学習するより面種別で学習する方がパープレキシティが小さくなる.trigramでは面種別で学習するより全面種で学習する方がパープレキシティが小さくなる.これは,面種別ではトレーニングデータが不足することによると考えられる.なお,テストデータの補正パープレキシティに関しては,形態素数20000のtrigramでは面種別で学習するより全面種で学習する方が補正パープレキシティが小さくなる.bigramでは全面種で学習するより面種別で学習する方が補正パープレキシティが小さくなる.また,スポーツ面に関しては全面種で学習するより,面種別(すなわち,スポーツ面)で学習する方がパープレキシティが小さくなる傾向が見られる.これは,スポーツ面は他の面種と異なった文が多いことによる.\end{itemize}表には示さなかったが,形態素数5000のbigramに関しては,全面種での学習では4年分の新聞記事で十分な学習が出来ている.一方,面種別での学習ではトレーニングデータとテストデータのパープレキシティの間に差があるのでトレーニングデータの不足が見られる.しかしトレーニングデータの不足が見られるものの,全面種で学習した言語モデルより面種別で学習した言語モデルの方がテストデータのパープレキシティが小さい.つまり,全面種で学習した言語モデルより面種別で学習した言語モデルを使用する方がよいことになる.形態素数5000のtrigramに関しては,面種別学習による効果はパープレキシティでは見られないが,補正パープレキシティでは効果が見られる.形態素数20000のtrigramに関しては,トレーニングデータとテストデータの(補正)パープレキシティの比較によって,面種別での学習のみならず全面種での学習でもトレーニングデータ量の不足が起きていることが分かる.全面種で学習した言語モデルと面種別で学習した言語モデルをテストデータの(補正)パープレキシティで比較すると,形態素数5000のbigramでの比較とは逆に,面種別で学習した言語モデルより全面種で学習した言語モデルの方が,(補正)パープレキシティが小さく,面種別で学習した言語モデルを使用するより,全面種で学習した言語モデルを使用する方がよいという結論が得られた.以上から,形態素数5000のbigramを言語モデルに使用する場合は,面種別で学習した言語モデルを用いればよいことがわかった.しかし,最近の大語彙音声認識に用いられる形態素数は20000以上で,また第2パスに言語モデルとしてtrigramを使用するのが主流となりつつある.形態素数20000のtrigramだと,本研究で用いたトレーニングデータ量程度では,面種別で学習した言語モデルを使用するより,全面種で学習した言語モデルを使用する方がよい.そこで,タスク(新聞では,面種)依存のより精度のよい言語モデルを構築するために全面種の記事で構築した言語モデルを,ターゲットとするタスク(面種)に適応化する手法をとる必要がある.\vspace*{-4mm}{\small\input{table_corpus.tex.euc}\vspace*{-5mm}}\newpage{\small\input{table_bi_20k.tex.euc}\vspace{-6mm}\input{table_tri_20k.tex.euc}}\newpage\subsection{適応化法}新聞記事では数日間に渡って関連のある記事が載っていることがある.そこで記事の評価時に,過去の数日間の記事で言語モデルを適応化しておけば,適応前より精度のよい言語モデルが出来ると考えられる.ここで,N-gram言語モデルの適応化にはMAP推定(最大事後確率推定)\cite{test7,test18,test19,test26}を用いる.適応化サンプルを与えた後の推定値は次式で与えられ,推定前の条件確率と現在与えたサンプルとの間で,サンプル数で重み付けされた線形補間の形になっている.\begin{center}\begin{equation}prob=\frac{\alpha\cdotN_0\cdotprob_0+N_1\cdotprob_1}{\alpha\cdotN_0+N_1}\end{equation}\small\gt\begin{tabular}{ll}$\alpha$&重み\\$N_0$&標準言語モデルの総数\\$N_1$&適応化サンプルの総数\\$prob$&MAP推定後の条件確率(N-gram確率)\\$prob_0$&標準言語モデルでの条件確率\\$prob_1$&適応化サンプルでの条件確率\\\end{tabular}\end{center}\begin{figure}[htbp]\begin{center}\epsfile{file=block.eps,scale=1.1}\end{center}\caption{MAP推定のブロック図}\label{fig:block}\end{figure}今回の実験では標準言語モデルと適応化サンプルによる言語モデルの2つを構築しておき,バックオフを行なってスムージングした2つの条件確率を用いてMAP推定を行なっている.この過程のブロック図を図\ref{fig:block}に示す.標準言語モデルでは,\mbox{新聞記事の全面種に対応する学習サン}プルで出現頻度の高い形態素20000に限定した.適応化サンプルでは語彙を限定せず,全ての形態素を語彙リストに登録した.そのため,2つのモデルの語彙リストは独立している.実験手順としては,{\large$\bigcirc$\hspace{-.73em}}1\hspace{0.3mm}形態素数20000の標準言語モデル(trigram)を構築し,{\large$\bigcirc$\hspace{-.73em}}2\hspace{0.3mm}\mbox{標準言語モ}デルを事前モデルとして,面種別の適応化サンプルでターゲットタスクの言語モデルをMAP推定し,{\large$\bigcirc$\hspace{-.73em}}3\hspace{0.3mm}テストデータのパープレキシティを求める.本実験では,$\alpha$を種々変えてパープレキシティが最小となる場合を求めた.\subsection{実験結果}実験結果を表\ref{tbl:MAP_pp_20k},\ref{tbl:MAP_app_20k}に示す.最適な$\alpha$の値は5日間の適応化データに対してはほとんどの面種で0.01,14日間の適応化データに対しては0.02$\sim$0.04であり,ほぼデータ量に比例した.これらの表より\begin{itemize}\item適応化前より適応化後の方がパープレキシティが小さくなること\item5日より14日間の適応化サンプルの方がパープレキシティが小さくなること\item6カ月前の数日間より直前の数日間の記事での適応化の方がパープレキ\mbox{シティが小さくな}ること\end{itemize}が分かる.通常,直前の数百単語をキャッシュとして用いて適応化する方法が効果があると言われているが\cite{test20},これよりも大量の直前データを用いる方が効果があるということである\cite{test8}.特に,スポーツ面において,直前の記事による適応化の効果が大きい.これは,他の面種記事よりも特定の話題が短期間継続するためと考えられる.国際面とスポーツ面で適応化サンプルの期間を5,14日,1,2,3,6カ月にして求めたパープレキシティと補正パープレキシティを図\ref{fig:pp2}に示す.\mbox{これを見ると,適応化サンプルの量が多くなるほ}ど,パープレキシティが小さくなること,日数が多くなるにつれてパープレキシティが飽和していくことが分かる.また,直前の適応化データと6カ月前の適応化データを比べると,後者の場合の方がやや最適な$\alpha$の値が大きくなった.これは直前の適応化データの方が6カ月前の適応化データよりも有用であることを示している.{\small\input{table_map_20k.tex.euc}}\begin{figure}[htbp]\centering\epsfile{file=MAP.4year.20k.ver2.eps,scale=0.7}\caption{MAP推定の日数とパープレキシティの関係(20000形態素)}\label{fig:pp2}\end{figure}\subsection{固有名詞の適応化}前述したように,新聞記事では数日間に渡って関連のある記事が載っていることが多い.音声認識では特に固有名詞の扱いが重要となってくるので,固有名詞の登録法について検討した.固有名詞はトピックに依存するものが多いので,数日間に渡って局所的に出現する傾向があると考えられる.そこで数日間〜数週間中に出現した固有名詞を基本語彙に追加することにより,評価文の固有名詞をどの程度カバーすることが出来るかを調べた.実験手順を以下に示す.\begin{description}\vspace{-1mm}\item[Step.1]形態素数5000,20000の基本語彙を構築する.\vspace{-1mm}\item[Step.2]基本語彙でテストデータのカバー率を求める.\vspace{-1mm}\item[Step.3]基本語彙に数日間〜数週間の適応化サンプル中に出現した固有名詞を高出現頻度順に追加し,固有名詞のカバー率を求める.\end{description}実験は,追加登録する形態素を5000に限定した場合と出現したすべてを登録する場合を行なった.実験結果を表\ref{tbl:Cover1},\ref{tbl:Cover2}に示す.\mbox{表中の括弧内の数値は出現した固有名詞をすべて登録した場}合の数を示している.この結果より次のことが言える.\begin{itemize}\item6ヶ月前の記事より直前の記事に出現する固有名詞を追加する方がカバー率が高い.これより,新しく出現した固有名詞の多くは直前の数日間に渡って出現していることが分かる.\item追加する固有名詞の数を制限しない場合は,適応化サンプルが多いほどカバー率が高くなるのは当然だが,固有名詞の数を制限した場合でも,10日間より30日間の適応化サン\breakプルを用いた方が,カバー率は少し高くなる.\itemテストデータ全体でのカバー率を見て分かるように,固有名詞を追加することによるカバー率の上昇は高々2\%程度である.このことは,基本語彙に登録されなかった単語(未知語)において,固有名詞の占める割合が低いことを示している(5000語彙に対しては約20\%,20000語彙に対しては約25\%).\end{itemize}\begin{table}[htbp]\caption{固有名詞の追加登録によるテストデータ全体でのカバー率[\%]の変化}\label{tbl:Cover1}\begin{center}\vspace*{1ex}\begin{tabular}{|c|c|c|c|c|c|c|c|c|}\hline基本語彙&追加語彙&&\multicolumn{3}{c|}{直前の記事で適応}&\multicolumn{3}{c|}{6カ月前の記事で適応}\\\cline{4-9}サイズ&サイズ&適応前&10日分&20日分&30日分&10日分&20日分&30日分\\\hline5000&5000&85.2&86.6&86.8&86.8&86.4&86.5&86.6\\\cline{2-9}&制限なし&85.2&86.8&87.1&87.2&86.6&86.9&87.0\\&(追加語彙)&---&(6860)&(11071)&(14380)&(7096)&(11353)&(14677)\\\hline20000&5000&95.2&95.7&95.7&95.8&95.5&95.5&95.6\\\cline{2-9}&制限なし&95.2&95.7&95.9&96.0&95.5&95.7&95.8\\&(追加語彙)&---&(5222)&(9166)&(12383)&(5403)&(9411)&(12655)\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{固有名詞の追加登録によるテストデータ中の固有名詞についてのカバー率[\%]の変化}\label{tbl:Cover2}\begin{center}\vspace*{1ex}\begin{tabular}{|c|c|c|c|c|c|c|c|c|}\hline基本語彙&追加語彙&&\multicolumn{3}{c|}{直前の記事で適応}&\multicolumn{3}{c|}{6カ月前の記事で適応}\\\cline{4-9}サイズ&サイズ&適応前&10日分&20日分&30日分&10日分&20日分&30日分\\\hline5000&5000&41.9&75.0&78.3&79.2&69.0&72.1&74.1\\\cline{2-9}&制限なし&41.9&79.5&85.0&87.7&73.6&80.5&84.2\\&(追加語彙)&---&(6860)&(11071)&(14380)&(7096)&(11353)&(14677)\\\hline20000&5000&69.9&81.3&81.8&82.9&76.7&77.8&78.5\\\cline{2-9}&制限なし&69.9&81.8&85.7&87.9&77.5&81.9&84.9\\&(追加語彙)&---&(5222)&(9166)&(12383)&(5403)&(9411)&(12655)\\\hline\end{tabular}\end{center}\end{table}なお,固有名詞に限定せずに,出現頻度の多い形態素を登録した場合の結果を表\ref{tbl:Cover3}に示す.\mbox{表\ref{tbl:Cover3}より},登録する単語を固有名詞\mbox{に限定しない方がカバー率は大きくなることかがわかる.し}かし,このような新しい登録単語のbigram,trigramの算出は困難なので固有名詞に限定した方が扱いやすいと思われる.また表\ref{tbl:Cover3}より,カバー率を98\%にするためには直前に出現した形態素を中心とした55000形態素程度が必要なことがわかる.但し,面種別で学習すれば,20000〜30000形態素でも十分である(表~2,3参照).\vspace*{-1mm}\begin{table}[htbp]\caption{高出現頻度の形態素の追加登録によるテストデータ全体でのカバー率[\%]の変化(品詞の限定なし)}\label{tbl:Cover3}\begin{center}\vspace*{-3mm}\begin{tabular}{|c|c|c|c|c|c|c|c|c|}\hline基本語彙&追加語彙&&\multicolumn{3}{c|}{直前の記事で適応}&\multicolumn{3}{c|}{6カ月前の記事で適応}\\\cline{4-9}サイズ&サイズ&適応前&10日分&20日分&30日分&10日分&20日分&30日分\\\hline5000&5000&85.2&90.8&91.0&91.1&90.0&90.3&90.5\\\cline{2-9}&制限なし&85.2&96.8&97.9&98.4&96.2&97.5&98.1\\&(追加語彙)&---&(34012)&(49539)&(60665)&(34287)&(49457)&(60314)\\\hline20000&5000&95.2&96.1&96.2&96.2&95.8&95.9&95.9\\\cline{2-9}&制限なし&95.2&97.3&98.0&98.4&96.9&97.7&98.1\\&(追加語彙)&---&(20906)&(35158)&(45966)&(21014)&(34999)&(45559)\\\hline\end{tabular}\end{center}\end{table}\vspace*{-13mm} \section{定型表現} 新聞テキスト文には,定型表現が多いことに着目し,これらの高頻出定型表現を1形態素として捉えた上で,言語モデルを構築すれば,より精度の良いモデルが出来ると考られる.今回の実験では,定型表現を抽出するアルゴリズムとして,池原らの提案した方法\cite{test21}を用いる.エントロピー基準で連語を抽出する方法も考えられるが\cite{test11,test12,test23},今回は簡略化のため出現頻度に着目した.どのような基準で連語を抽出し,言語モデルを構築するかは興味ある課題であるが,手法による実質的な差は少ないと思われる\cite{nakagawa}.この方法では,最長一致の文字列抽出(ある文字列が抽出されたとき,その文字列に含まれる部分文字列は統計量を求める際にはこの部分文字列を定型表現とはカウントしない)を条件とし,任意の長さ以上,任意の使用頻度以上の表現を,もれなく自動的に抽出する.文献\cite{test21}では文字列単位で抽出していたが,これを\mbox{形態素単位で}抽出するように変更した.抽出例を表~\ref{rei}に示す.\vspace*{-5mm}\begin{table}[htbp]\centering\caption{定型表現抽出例}\label{rei}\begin{tabular}{|c|l|}\hline連語数&定型表現(頻度)\\\hline&て/いる(318691)\\&は/ない(56333)\\2&東京/都(23452)\\&大統領/は(14647)\\&国民/の(9909)\\\hline&し/て/いる(106121)\\&に/よる/と(24093)\\3&に/なっ/て(19718)\\&話し/て/いる(6130)\\&記者/会見/し(4297)\\\hline\end{tabular}\end{table}\subsection{標準言語モデル}標準言語モデルは,表~\ref{base}に示した全面種の学習用データから作成した表~\ref{tbl:pp_bi_20k}のモデルを用いる.まず,RWC\cite{test22}の毎日新聞形態素解析結果を用いて,出現頻度が上位20000番目までの形態素を語彙として辞書に登録した.言語モデルの構築には,CMUSLMToolkitVer.1を用いた.バックオフ・スムージングにはGood-Turing推定を用いた.\subsection{定型表現を用いた言語モデル}定型表現を用いた言語モデル構築のための手順を以下に示す.\subsubsection*{Step.1定型表現抽出}RWCの毎日新聞形態素解析結果に対して,定型表現抽出プログラムを実行し,連結数2または3の定型表現を抽出する.\subsubsection*{Step.2頻度の計算}定型表現を用いる前のトレーニングデータから,各形態素の頻度リストを求める.上位15000番目くらいの形態素の出現頻度が50回であるので,\mbox{定型表現の出現頻度が50回以上のものを新}しい形態素候補として用いることにする.\subsubsection*{Step.3定型表現の連結}Step.2の定型表現を用い,トレーニングデータ内の定型表現を図~\ref{renketu}のように\mbox{1つの単語にま}とめる.\vspace*{-5mm}\begin{figure}[htbp]\centering\epsfile{file=mai_renketu.eps}\caption{形態素の連結例}\label{renketu}\end{figure}\vspace*{3mm}\subsubsection*{Step.4語彙サイズ20000の辞書作成(1回目)}トレーニングデータから出現頻度の多い順に20000を求め,語彙サイズ20000の辞書を作成する.このとき,上位20000の辞書に登録された定型表現は2連結で9430個,\mbox{3連結で9357個}(このうち2連語が7010,3連語が2347)である.登録されなかった定型表現が\mbox{多数あるので,こ}れは未知語の数を増やすだけなので図~\ref{bun}のようにもとの形態素に分解しておく.\begin{figure}[htbp]\centering\epsfile{file=mai_bunkai.eps}\caption{形態素の分解例}\label{bun}\end{figure}\subsubsection*{Step.5語彙サイズ20000の辞書作成(2回目)}分解後のトレーニングデータから,もう一度語彙サイズ20000の辞書を作成する.これは,Step.3で定型表現を分解したことによって形態素の出現頻度が変わってしまうためである.当\break然ここでも登録されない定型表現がでてくる.登録された定型表現は2連結で8944個,3連結\breakで9282個(このうち2連語が6967,3連語が2315)になった.ここでも,\mbox{登録されなかった定型}表現はもとの形態素に分解する.厳密に行なうなら,辞書作成と定型表現の分解といった作業を繰り返し行ない,辞書に登録される定型表現の数が収束するまで行わないといけないが,今回は1回だけしか行なっていない.\subsubsection*{Step.6言語モデルの構築}CMUSLMToolkitを用いてトレーニングデータから,語彙サイズ20000の辞書を作成し,bigram,trigram言語モデルを構築する.\subsection{評価実験}評価を行なう時,注意しなければならないことは,いずれの比較対象に対しても同じ定義の1形態素あたりのパープレキシティを求めないといけないということである.\mbox{通常パープレキシ}ティを求める式は{\bfbigram}の場合で,\begin{equation}PP_0={}^M\sqrt{\prod_{i=1}^MP(w_i|w_{i-1})^{-1}}\end{equation}であるが,これは1連結形態素(定型表現として形態素を連結したもの)あたりのパープレキシティを求めている.形態素を連結する前の従来の1形態素あたりのパープレキシティを求めるには,\begin{equation}PP_1={}^{N}\sqrt{\prod_{i=1}^MP(w_i|w_{i-1})^{-1}}\end{equation}を用いなければならない.ここで$M$:定型表現を1つの形態素としたときの連結形態素と従来の形態素の総数$N$:定型表現を使わなかったときの従来の形態素の総数また,定型表現は述語表現に多く現れるため,それらの形態素は比較的短いものが多い.そのため形態素単位のパープレキシティでは全体に及ぼす影響が大きいと考えられる.そこで同時に文字単位のパープレキシティも求めた.標準言語モデルと,前節に述べた方法で定型表現を用いた言語モデルを構築し,その評価を行なった.トレーニングデータには,標準言語モデル作成の場合と同じ,表~\ref{base}の学習用データを用いている.テストデータには,標準言語モデル,定型表現を用いた言語モデルともに表~\ref{base}の評価用データを使用した.実験結果を表~\ref{kekka20k}と図~\ref{hyouka}に示す.まず,bigramモデルでは,トレーニングデータに関しては\break約半分,テストデータに関しては約3割,パープレキシティが減少しているのがわかる.しかし,trigramモデルではトレーニングデータでは効果があったが,テストデータに対しては大きな効果が得られなかった.これは,語彙サイズを一定にしたため,定型表現を登録したためにもとの語彙から省かれた単語が未知語となったのが原因であると考えられる.実際,定型表現を\break用いた場合,定型表現を用いなかった場合と比べて,未知語の種類数が約8000個増加している.次に,標準言語モデルを作成した時の語彙サイズ20000の辞書に,2および3連結の定型表現をそれぞれ高出現頻度順で上位2000個,5000個分を追加した場合の辞書で言語モデルを構築した.その評価結果を表~\ref{kekka22k},\ref{kekka25k}に示す.ここで表~\ref{kekka22k},\ref{kekka25k}の``定型表現の連結なし''は\mbox{通常の形態素}を22000個および25000個用いた時の結果である.この言語モデルの作成方法の場合でも,パープレキシティの改善が見られた.bigramでは定型表現を用いることにより,補正パープレキシティも大幅に減少している.また,定型表現5000個追加のものの方が,\mbox{定型表現2000個追加の}ものと比べて,語彙サイズが大きいのにも関わらず,パープレキシティが減少している.これより,出来るだけ多くの定型表現を辞書に登録すれば良いということが言える.以上より,trigramではトレーニングデータに対しては大きな効果があったが,テストデータに対しては効果がなかった.これはトレーニングデータの不足によるものと考えられる.一方,bigramでは大きな効果があった.同じパラメータ数(bigram)でも\mbox{パープレキシティが小さ}いモデルが構築できたことは,これを大語彙連続音声認識の第1パスに使用すると認識率の向上に繋がると考えられる.{\small\begin{table}[htbp]\centering\caption{定型表現の評価結果(語彙サイズ20000)}\label{kekka20k}\vspace*{-1mm}(括弧内は文字単位のパープレキシティ)\\\vspace*{1mm}\begin{tabular}{|c|c|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|}\hline\multicolumn{2}{|c|@{~}}{データセット}&\multicolumn{6}{c@{~}|@{~}}{トレーニングデータ}&\multicolumn{6}{c@{~}|}{テストデータ}\\\hline\multicolumn{2}{|c|@{~}}{定型表現}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|@{~}}{3連結}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|}{3連結}\\\hline\hlinebigram&PP&91.0&(16.3)&57.5&(12.2)&52.2&(11.5)&105.5&(17.9)&75.6&(14.5)&73.3&(14.3)\\\cline{2-14}&APP&136.7&(20.9)&121.3&(19.4)&113.1&(18.6)&156.0&(22.8)&160.8&(23.2)&151.6&(22.4)\\\hlinetrigram&PP&29.7&(8.1)&20.1&(6.4)&13.2&(4.9)&61.3&(12.8)&65.1&(13.3)&55.4&(12.0)\\\cline{2-14}&APP&44.6&(10.5)&42.3&(10.1)&28.6&(7.9)&90.7&(16.3)&131.5&(20.5)&114.6&(18.8)\\\hline\end{tabular}\end{table}\begin{table}[htbp]\centering\caption{定型表現の評価結果(語彙サイズ20000+2000)}\label{kekka22k}\vspace*{-1mm}(括弧内は文字単位のパープレキシティ)\\\vspace*{1mm}\begin{tabular}{|c|c|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|}\hline\multicolumn{2}{|c|@{~}}{データセット}&\multicolumn{6}{c@{~}|@{~}}{トレーニングデータ}&\multicolumn{6}{c@{~}|}{テストデータ}\\\hline\multicolumn{2}{|c|@{~}}{定型表現}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|@{~}}{3連結}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|}{3連結}\\\hline\hlinebigram&PP&92.7&(16.4)&73.7&(14.3)&75.9&(14.5)&108.5&(18.2)&93.9&(16.6)&98.2&(17.1)\\\cline{2-14}&APP&133.4&(20.6)&110.7&(18.3)&113.9&(18.7)&153.7&(22.6)&138.9&(21.2)&145.3&(21.8)\\\hlinetrigram&PP&29.7&(8.1)&19.5&(6.3)&18.8&(6.1)&62.8&(13.0)&62.8&(13.0)&64.6&(13.2)\\\cline{2-14}&APP&42.7&(10.2)&29.3&(8.1)&28.2&(7.8)&89.0&(16.1)&91.9&(16.4)&95.5&(16.8)\\\hline\end{tabular}\end{table}\begin{table}[htbp]\centering\caption{定型表現の評価結果(語彙サイズ20000+5000)}\label{kekka25k}\vspace*{-1mm}(括弧内は文字単位のパープレキシティ)\\\vspace*{1mm}\begin{tabular}{|c|c|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|}\hline\multicolumn{2}{|c|@{~}}{データセット}&\multicolumn{6}{c@{~}|@{~}}{トレーニングデータ}&\multicolumn{6}{c@{~}|}{テストデータ}\\\hline\multicolumn{2}{|c|@{~}}{定型表現}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|@{~}}{3連結}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|}{3連結}\\\hline\hlinebigram&PP&94.8&(16.7)&66.0&(13.3)&66.5&(13.4)&111.9&(18.5)&89.6&(16.2)&93.6&(16.6)\\\cline{2-14}&APP&129.6&(20.2)&99.1&(17.1)&99.9&(17.2)&151.4&(22.4)&132.6&(20.6)&138.5&(21.2)\\\hlinetrigram&PP&30.2&(8.2)&16.6&(5.7)&14.9&(5.3)&64.6&(13.2)&63.2&(13.0)&65.9&(13.4)\\\cline{2-14}&APP&40.5&(9.9)&24.9&(7.3)&22.4&(6.8)&87.5&(15.9)&93.5&(16.6)&97.6&(17.0)\\\hline\end{tabular}\end{table}}\begin{figure*}[htbp]\begin{center}\epsfile{file=mainichi.eps,scale=0.6}\caption{定型表現の評価結果[注:()内の数値は補正パープレキシティを示す]}\label{hyouka}\end{center}\end{figure*}\newpage \section{まとめ} 本研究では,毎日新聞記事データベースを用いた過去の記事による言語モデルのタスクへの適応化と抽出した定型表現を用い,N-gram言語モデルを構築する方法を検討した.まず言語モデルのタスクへの適応化については,実験の結果,6カ月前の数日間の記事より直前の数日間の記事で適応化した方がパープレキシティが小さくなった.このことは言語モデルがジャンルだけでなく時間にも依存するものであることを示すものである.ただ,適応化サンプルの量を多くするほどパープレキシティが小さくなる傾向があり,N-gramベースでの言語モデルを少量サンプルで適応化させることは限界があると考えられる.次に定型表現を抽出し,これを用いたN-gram言語モデルを構築した.定型表現を用いた言\mbox{語モデルを}作成することで,bigramモデルに関しては,テストデータに対し約3割程度\mbox{パープレ}キシティを低く押えるとこができ,言語モデルの有効性を示すことができた.しかし,trigramではトレーニングデータの量が不十分だったため,トレーニングデータでは効果があったがテストデータに対しては効果が得られなかった.トレーニングデータの量をもっと増やし,本方法の有効性を調べる必要がある.また,本研究では言語モデルの有効性をパープレキシティで評価したが,実際の音声認識で確認する必要がある\cite{akamatsu}.なお,NHKのニュース原稿に対する経時変化の適応化や定型表現の導入による言語モデルに関しては文献\cite{nhk,test24}を参照されたい.\begin{thebibliography}{99}\bibitem[\protect\BCAY{赤松,中川}{赤松}{1997}]{test26}赤松裕隆,中川聖一(1997).``新聞記事のトライグラムによるモデル化と適応化''言語処理学会,第3回年次大会D5-2,533-536.\bibitem[\protect\BCAY{赤松,甲斐,中川}{赤松}{1998}]{akamatsu}赤松裕隆,甲斐充彦,中川聖一(1998).``新聞・ニュース文の大語彙連続音声認識''情報処理学会,音声言語情報処理SLP-21-11,97--104.\bibitem[\protect\BCAY{Federico}{Federico}{1997}]{test18}Federico,M.(1997).``BaysianEstimationMethodsforN-gramLanguageModelAdaptation.''Proc.ICSLP-96,240--243.\bibitem[\protect\BCAY{Giachin}{Giachin}{1995}]{test11}Giachin,E.P.(1995).``Phrasebigramsforcontinuousspeechrecognition.''Proc.ICASSP,225--228.\bibitem[\protect\BCAY{池原,白井,河岡}{池原}{1995}]{test21}池原悟,白井諭,河岡司(1995).``大規模日本語コーパスからの連鎖型および離散型の共起表現の自動抽出法.''情報処理学会論文誌,Vol.36,No.11,2584--2596.\bibitem[\protect\BCAY{井佐原{\emetal.}}{井佐原{\emetal.}}{1995}]{test22}井佐原均,元吉文男,徳永健伸,橋本三奈子,荻野紫穂,豊浦潤,岡隆一(1995).``RWCにおける品詞情報付きテキストデータベースの作成''言語処理学会,第1回年次大会B3-1,181--184.\bibitem[\protect\BCAY{伊藤,牧野}{伊藤}{1996}]{test7}伊藤彰則,好田正紀(1996).``対話音声認識のための事前タスク適応の検討.''情報処理学会,音声言語情報処理SLP-14-13.\bibitem[\protect\BCAY{伊藤}{伊藤{\emetal.}}{1997}]{test3}伊藤克亘{\emetal.},(1997).``大語彙日本語連続音声認識研究基盤の整備---学習・評価テキストコーパスの作成---.''情報処理学会,音声言語情報処理SLP-18-2,7--12.\bibitem[\protect\BCAY{伊藤,松岡,竹沢,武田,鹿野}{伊藤}{1996}]{test17}伊藤克亘,松岡達雄,竹沢寿幸,武田一哉,鹿野清宏(1996).``大語彙連続音声認識研究のためのテキストデータ処理.''日本音響学会秋季講演論文集3-3-10,105--106.\bibitem[\protect\BCAY{甲斐,伊藤,山本,中川}{甲斐}{1997}]{test2}甲斐充彦,伊藤敏彦,山本一公,中川聖一(1997).``自然な発話を対象としたパソコン/ワークステーション用連続音声認識ソフトウェア.''日本音響学会秋季講演論文集2-Q-30,175--176.\bibitem[\protect\BCAY{北,小倉,森本,矢野}{北}{1995}]{no18}北研二,小倉健太郎,森元逞,矢野米雄(1995).``\mbox{仕事量基準を用いたコーパスからの定型表現の自}動抽出.''情報処理学会論文誌,Vol.34,No.9,1937--1943.\bibitem[\protect\BCAY{小林,今井,安藤}{小林}{1997}]{nhk}小林彰夫,今井亨,安藤彰男(1997).``ニュース音声認識用言語モデルの学習期間の検討.''電子情報通信学会,音声技報SP97-48,29--36.\bibitem[\protect\BCAY{小林,中野,和田,小林}{小林}{1998}]{test9}小林紀彦,中野裕一郎,和田陽介,小林哲則(1998).``統計的言語モデルにおける\mbox{高頻度形態素連鎖}の辞書登録に関する一考察.''情報処理学会,音声言語情報処理SLP-20-5,33--38.\bibitem[\protect\BCAY{Kuhn,Mori}{Kuhn}{1990}]{test20}Kuhn,R.,Mori,R.(1990).``Acache-basednaturallanguagemodelforspeechrecognition.''IEEETransPatternAnalysisandMachineIntelligence,Vol.12,No.6,570--583.\bibitem[\protect\BCAY{Marlin,Liermann}{Marlin,Liermann}{1997}]{test8}Marlin,S.C.,Liermann,J.,(1997).``Adaptivetopicdependentlanguagemodellingusingword-basedvarigrams.''Proc.EuroSpeech,1447--1450.\bibitem[\protect\BCAY{政瀧,松永,匂坂}{政瀧}{1995}]{test12}政瀧浩和,松永昭一,匂坂芳典(1995).``連続音声認識のための可変長連鎖統計言語モデル.''電子情報通信学会,音声技報SP95-73,1--6.\bibitem[\protect\BCAY{政瀧,匂坂,久木,河原}{政瀧}{1997}]{test19}政瀧浩和,匂坂芳典,久木和也,河原達也(1997).``MAP推定を用いたN-gram言語モデルのタスク適応.''電子情報通信学会,音声技報SP96--103,59--64.\bibitem[\protect\BCAY{松永,山田,鹿野}{松永}{1991}]{test16}松永昭一,山田智一,鹿野清宏(1991).``音節連鎖統計情報のタスク適応化.''\mbox{情報処理学会第42回}全国大会(2)6D-5,114-115.\bibitem[\protect\BCAY{森,山地}{森}{1997a}]{test5}森信介,山地治(1997).``日本語情報量の上限の推定.''情報処理学会論文誌,Vol.38,No.11,2191--2199.\bibitem[\protect\BCAY{森,山地,長尾}{森}{1997b}]{test23}森信介,山地治,長尾眞(1997).``予測単位の変更によるn-gramモデルの改善.''\mbox{情報処理学会,音}声言語情報処理SLP-19-14,87--94.\bibitem[\protect\BCAY{中川}{中川}{1992}]{test13}中川聖一(1992).``情報理論の基礎と応用.''近代科学社.\bibitem[\protect\BCAY{中川}{中川}{1998}]{nakagawa}中川聖一(1998).``音声認識のための統計的言語モデル.''日本音響学会春季講演論文集1-6-11,23--26.\bibitem[\protect\BCAY{中川,赤松}{中川}{1998}]{newapp}中川聖一,赤松裕隆(1998).``未知語を含む文集合のパープレ\mbox{キシティの算出法ー新補正パープレ}キシティ.''日本音響学会秋季講演論文集2-1-13,63--64.\bibitem[\protect\BCAY{西村,伊藤,山崎,萩野}{西村}{1998}]{test1}西村雅史,伊藤伸泰,山崎一孝,萩野紫穂(1998).``単語を認識単位とした日本語の\mbox{大語彙連続音声}認識.''情報処理学会,音声言語情報処理SLP-20-3,17--24.\bibitem[\protect\BCAY{西崎,中川}{西崎}{1998}]{test24}西崎博光,中川聖一(1998).``音声認識のための定型表現を用いた言語モデルの検討.''言語処理学会,第4回年次大会C4-3,520-523.\bibitem[\protect\BCAY{小黒,高木,橋本,尾関}{小黒}{1998}]{test10}小黒玲,高木一幸,橋本顕示,尾関和彦(1998).``ニュース音声認識のための\mbox{言語モデルの比較.''日}本音響学会春季講演論文集1-6-22,47--48.\bibitem[\protect\BCAY{大附,吉田,松岡,古井}{大附}{1997}]{test4}大附克年,吉田航太郎,松岡達雄,古井貞照(1997).``高次n-gramを用いた大語彙連続音声認識の検討.''日本音響学会春季講演論文集2-6-2,47--48.\bibitem[\protect\BCAY{大附,森,松岡,古井,白井}{大附}{1995}]{test6}大附克年,森岳至,松岡達雄,古井貞照,白井克彦(1995).``新聞記事を用いた大語彙連続音声認識の検討.''電子情報通信学会,音声技報SP95-90,63--68.\bibitem[\protect\BCAY{Rosenfeld}{Rosenfeld}{1995}]{test14}Rosenfeld,R.(1995).``TheCMUstatisticallanguagemodelingtoolkitanditsuseinthe1994ARPACSRevaluation.''Proc.ARPASpokenLanguageSystemsTechnologyWorkshop,47--50.\bibitem[\protect\BCAY{新納,井佐原}{新納}{1995}]{no15}新納浩幸,井佐原均(1995).``疑似Nグラムを用いた助詞的定型表現の自動抽出.''情報処理学会論文誌,Vol.36,No.1,32--40.\bibitem[\protect\BCAY{Ueberla}{Ueberla}{1994}]{test15}Ueberla,J.(1994).``Analysingasimplelanguagemodel-somegeneralconclusionforlanguagemodelsforspeechrecognition.''ComputerSpeechandLanguage,Vol.8,No.2,153--176.\bibitem[\protect\BCAY{Woodland{\emetal.}}{Woodland}{1997}]{test25}Woodland,P.C.,Cales,M.J.F.,Pye,D.,Young,S.J.(1997).``Thedevelopmentofthe1996HTKbroadcastnewstranscriptionsystems.''Proc.SpeechRecognitionWorkshop,73--78.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年京都大学情報助手.1980年豊橋技術科学大学情報工学系講師.1983年助教授.1990年教授.1985$\sim$86年カーネギメロン大学客員研究員.音声情報処理,自然言語処理,人工知能の研究に従事.工博.1977年電子情報通信学会論文賞,\mbox{1988年度IETE最優}秀論文賞受賞.}\bioauthor{赤松裕隆}{1997年豊橋技術科学大学情報工学課程卒業.現在,同大学研究科修士課程情報工学専攻在学中.言語モデルに関する研究に従事.}\bioauthor{西崎博光}{1998年豊橋技術科学大学情報工学課程卒業.現在,同大学研究科修士課程情報工学専攻在学中.言語モデルに関する研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V10N02-03
\section{はじめに} 近年,情報分野の認知度・重要度は急速に増し,それに伴って自然言語処理分野の研究もさらに活発なものとなっている.形態素論から構文論へと研究は進み,現在は意味論に関する研究がその中心となっている.比喩表現はその代表的なテーマの1つであり,我々の日常的なコミュニケーションも比喩表現の雛型としての言語知識に基づいた部分が多いとされている\cite{Lakoff-1}.比喩表現に関する研究は,近年細かく分類され,様々なアプローチによる研究が精力的に進められている.人工知能(自然言語処理)分野における比喩処理の研究として,Barndenは,ATT-Metaと呼ばれる比喩推論システムを試作している\cite{Barnden-1}.このシステムは,cnduitmetaphorと称する意味伝達に際しての理解のずれの枠組み\cite{Reddy-1}など,比喩表現についての言語学的な研究成果をもとに構築され,喩詞と被喩詞との意味的な共通領域を定量的に示すことができる.コンピュータに比喩を理解させるためには概念の類似性や顕現性に関する知識が必要となるが,TverskyやOrtonyは概念の属性集合の照合によって類似性を説明する線形結合モデルを提案し,顕現性を計算する際に重要な要素として情報の強度(intensity)と診断度(diagnosticity)を提案している\cite{Tversky-1,Ortony-3}.今井らは連想実験に基づいて構成される属性の束を用いてSD法の実験を行い,その結果を円形図上に配置し,さらに凸包という幾何学的な概念を用いて相対的に顕現性の高い属性の抽出を行っている\cite{Imai-1}.比喩表現を大きく直喩・隠喩的な比喩と換喩的な比喩とに分類すると,換喩的な比喩の研究として,村田らは「名詞Aの名詞B」「名詞A名詞B」の形をした名詞句を利用し,それを用いて換喩を解析することを試みている\cite{Murata-1}.内山らは換喩的な比喩を研究対象に,統計的に解釈する方法について述べている\cite{Uchiyama-1}.また内海らは直喩・隠喩的な比喩の研究について,関連性理論を基盤とした言語解釈の計算モデルを適用し,属性隠喩を対象として文脈に依存した隠喩解釈の計算モデルを提案している\cite{Utsumi-1}.しかしこれらの研究はいずれも比喩とわかっている表現の解釈を中心に行われており,実際の文章に現れる表現が比喩であるかどうかといった比喩認識については,あまり深い議論はなされていない.本研究は日本語文章の比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的としている.我々はこれまで確率的なプロトタイプモデル\cite{Iwayama-1}を利用して,コーパスから知識を取り出すことによって比喩認識に用いる大規模な知識ベースを自動構築する手法を提案し\cite{Masui-1},動作に基づく属性に注目した観点からの比喩認識を提案してきた\cite{Masui-3}.これにより喩詞と被喩詞とからなる表現の定量的な比喩性判断が可能となった.しかし,この手法を実際の文章に現れる表現に対して適用するためには,比喩表現候補の喩詞と被喩詞とを正確に抽出できなければならない.これに対しては直喩の代表的な表現形式である``名詞Aのような名詞B''を対象に,構文パターンやシソーラスを用いる手法で研究を進めてきた\cite{Tazoe-1,Tazoe-2}が,喩詞・被喩詞を抽出する手法は,同時に``名詞Aのような名詞B''表現が比喩であるかどうかを判定することにも密接に関連するという結論に至った.本論文では``名詞Aのような名詞B''表現について,意味情報を用いたパターン分類によって比喩性を判定し,喩詞と被喩詞とを正確に抽出できるモデルについて提案する.本論文の構成を示す.\ref{sec:bunrui}章では``名詞Aのような名詞B''表現について意味情報を用いたパターン分類とそれぞれのパターンの特徴・比喩性を述べる.\ref{sec:teian}章では我々が提案する比喩性判定モデルの処理の流れを詳細に説明する.\ref{sec:ko-pasu}章ではコーパスを用いた判定実験結果について考察を加える.\ref{sec:hiyugo}章では明らかに比喩性を決定づける語の存在について検証する. \section{``名詞Aのような名詞B''表現のパターン分類} label{sec:bunrui}\subsection{比喩とリテラル}\label{subsec:hiyulite}比喩表現の中の直喩の代表的な表現形式に``名詞Aのような名詞B''がある.しかし,``名詞Aのような名詞B''表現がすべて直喩であるとは限らない.これについては従来から議論がなされており,中村は,対応する2つの名詞の意味領域が互いに排斥しあっている場合は比喩表現であり,名詞Aの意味領域が名詞Bの意味領域の中に含まれると比喩表現であることが少なくなる,としている\cite{Nakamura-1}.またOrtonyは``AislikeB(AはBのようだ)''において,A,B共通の属性の顕現性がAにおいて低くBにおいて高ければ比喩的な類似性であり,Aにおいて高くBにおいても高ければリテラルな(字義通りの)類似性である,としている\cite{Ortony-2}.以上をまとめると,``名詞Aのような名詞B''表現の用法は大きく2つに分けることができる.1つは「じゅうたんのような芝」を例とする直喩であり,この用法を単に『比喩』と呼ぶことにする.もう1つは「中国のような国」を例とする比喩ではない用法であり,この場合は例示を意味する.このような比喩ではない用法は他にも,指示(例えば「次のような点」),人の判断(例えば「当たり前のようなこと」)などがあり,それらをまとめて『リテラル』と呼ぶことにする.我々は``名詞Aのような名詞B''表現について,これら2つの用法をコンピュータで判定するモデルを提案する.明らかにこの判定モデルは構文情報だけでは実現できず,意味情報や概念情報を扱う必要がある.\subsection{意味情報を用いたパターン分類}\label{subsec:imitekina}``名詞Aのような名詞B''表現が実際の文章の中でどのような用法で使用されているのかを調べるために,日本経済新聞\cite{Nikkei-1}の1994年1月分の記事約11万文について調査した.その結果,``のような''を含む表現はちょうど500組抽出され,構文情報を用いて分類したところ``名詞句のような名詞句''表現は311組,その中で2つとも単一名詞(修飾語句がつかない)である``名詞Aのような名詞B''表現は78組抽出された(表\ref{tab:noyouna1}参照).\begin{table}[htbp]\caption{``のような''を含む表現の分類}\begin{center}\begin{tabular}{|l|r|}\hline名詞Aのような名詞B&78\\\hline名詞句のような名詞句(上を除く)&233\\このような&81\\そのような&20\\どのような&61\\〜かのような&9\\これまでのような&10\\かつてのような&3\\のようなのだ&2\\のような,&1\\のような)&2\\\hline\hline計&500\\\hline\end{tabular}\end{center}\label{tab:noyouna1}\end{table}その78組について,名詞Aと名詞Bの意味情報やその関係に従って,``名詞Aのような名詞B''表現が比喩なのかリテラルなのかを判定することを考慮しながら,次の6つのパターンに分類した.\medskip\begin{description}\item[パターン1:]名詞Aと名詞Bが直接対比され,異種概念であるもの(あとのパターン2〜6に該当しないもの)--11組\end{description}\begin{quote}\begin{description}\item[例:]じゅうたんのような芝\\夢のような約束\end{description}\end{quote}\medskip\begin{description}\item[パターン2:]名詞Aと名詞Bが直接対比され,名詞Bが名詞Aの上位概念であるもの--5組\end{description}\begin{quote}\begin{description}\item[例:]中国のような国\\雑木林のような自然\end{description}\end{quote}\medskip\begin{description}\item[パターン3:]名詞Bが名詞Aの静的な属性(部分,形状など)であるもの--11組\end{description}\begin{quote}\begin{description}\item[例:](スペース)シャトルのような羽根\\ピラミッドのような形\end{description}\end{quote}\medskip\begin{description}\item[パターン4:]名詞Bが名詞Aの動的な属性(状態,状況など)であるもの--5組\end{description}\begin{quote}\begin{description}\item[例:]ニュージーランドのような自然\\ボスニアのような問題\end{description}\end{quote}\medskip\begin{description}\item[パターン5:]名詞Bが特定の名詞(抽象名詞)であるもの--24組\end{description}\begin{quote}\begin{description}\item[例:]バールのようなもの\\刃物のようなもの\end{description}\end{quote}\medskip\begin{description}\item[パターン6:]名詞Aが特定の名詞(人称代名詞,時制名詞,文中の場所を指す名詞,事物の評価を表す名詞)であるもの--27組\end{description}\begin{quote}\begin{description}\item[例:]私のような選手\\君のような人間\\現在のような環境\\従来のような勢い\\次のような点\\以上のような状況\\当たり前のようなこと\end{description}\end{quote}\medskipここで,例えば「次のようなもの」のようにパターン5とパターン6に属する表現が5組あり,両方のパターンでカウントしている.\subsection{各パターンの比喩性}\label{subsec:kakupata-n}\ref{subsec:hiyulite}の定義をもとに,\ref{subsec:imitekina}で分類した各パターンの比喩性について説明する.\medskipパターン1(直接対比,異種概念)について\begin{quote}名詞Aと名詞Bが異種概念で直接対比されており,異種概念の類似属性を比較しているということで,比喩といえる.この場合,名詞Aが喩詞であり,名詞Bが被喩詞である.\end{quote}\medskipパターン2(直接対比,上下関係)について\begin{quote}名詞Aが名詞Bの概念に含まれており,これは比喩としての意味はなく,例示を表すリテラルである.名詞Bの例として名詞Aが挙げられているのである.\end{quote}\medskipパターン3(BがAの静的な属性)について\begin{quote}意味の上からは``AのBのようなXのB''であり,論理的にはAとXの関係で比喩かリテラルかが決まる.実際のところ,``AのB''が普遍性のある静的な属性を表現することから,AとXは異種概念であることが一般的であり,比喩となる.この場合,喩詞は``AのB'',被喩詞は``XのB''である.しかしXは文脈のどこかに記されており,``AのようなB''だけを抽出した場合,Xを特定することはできない.喩詞として``AのB''は抽出することができる.\end{quote}\medskipパターン4(BがAの動的な属性)について\begin{quote}意味の上からはパターン3と同様``AのBのようなXのB''であるが,``AのB''が時と場合によってゆれのある動的な属性を表現することから,XはAを普遍化したもの(上位概念)であることが一般的であり,例示を表すリテラルとなる.\end{quote}\medskipパターン5(名詞Bが特定の名詞)について\begin{quote}名詞Bが``もの'',``こと''など特定の抽象名詞の場合で,例示を表すリテラルである可能性が高い.ただし,「特効薬のようなもの」や「安全弁のようなもの」などのように,名詞Aが比喩性を決定づける語(\ref{sec:hiyugo}章で述べる比喩語)であるときに比喩となる.\end{quote}\medskipパターン6(名詞Aが特定の名詞)について\begin{quote}名詞Aが人称代名詞あるいは現在過去の時制名詞であるときは例示,文中の場所を指す名詞であるときは指示,事物の評価を表す名詞であるときは人の判断と,いずれもリテラルである.\end{quote}\medskip以上をまとめると,表\ref{tab:noyouna3}のようになる.\begin{table}[htbp]\caption{``名詞Aのような名詞B''表現のパターン分類}\begin{center}\begin{tabular}{|l|l|l|r|}\hlineパターン1&直接対比,異種概念&比喩(喩詞``A'',被喩詞``B'')&11組\\パターン2&直接対比,上下関係&リテラル&5組\\パターン3&BがAの静的な属性&比喩(喩詞``AのB'')&11組\\パターン4&BがAの動的な属性&リテラル&5組\\パターン5&名詞Bが特定の名詞&ほぼリテラル&24組\\パターン6&名詞Aが特定の名詞&リテラル&27組\\\hline\end{tabular}\end{center}\label{tab:noyouna3}\end{table} \section{比喩性判定モデルの提案} label{sec:teian}\ref{sec:bunrui}章のパターン分類をもとに,``名詞Aのような名詞B''表現を入力として,比喩あるいはリテラルを判定し,比喩については喩詞・被喩詞を抽出するモデルを提案する(図\ref{fig:hantei_moderu}参照).\begin{figure}[htbp]\begin{center}\leavevmode\vspace*{5mm}\epsfxsize=14cm\epsfysize=14.466cm\epsfbox{fig1.eps}\caption{比喩性判定モデル}\label{fig:hantei_moderu}\vspace*{5mm}\end{center}\end{figure}図\ref{fig:hantei_moderu}の各ステップについて説明する.\medskipステップ1[Aが特定名詞?]:\begin{quote}名詞Aが特定の名詞(人称代名詞,時制名詞,文中の場所を指す名詞,事物の評価を表す名詞)であるかを調べる.特定の名詞であれば,パターン6(リテラル)と判定する.そうでなければ,ステップ2へ渡す.\end{quote}\medskipステップ2[Bが特定名詞?]:\begin{quote}名詞Bが特定の名詞(抽象名詞)であるかを調べる.特定の名詞であれば,パターン5(ほぼリテラル)と判定する.そうでなければ,ステップ3へ渡す.\end{quote}\medskipステップ3[BがAの属性?]:\begin{quote}名詞Bが名詞Aの属性であるかどうかを調べる.属性であればステップ4へ,属性でなければステップ5へ渡す.\end{quote}\medskipステップ4[静的or動的]:\begin{quote}「名詞Aの名詞B」が静的な属性か動的な属性かを判断する.静的な属性であれば,パターン3(比喩)と判定し,喩詞は``AのB''となる.動的な属性であれば,パターン4(リテラル)と判定する.\end{quote}\medskipステップ5[概念比較]:\begin{quote}名詞Bが名詞Aの属性でなければ,名詞Aと名詞Bは直接対比できると判断し,概念比較を行う.名詞Bが名詞Aの上位概念であれば,パターン2(リテラル)と判定する.そうでなければ,名詞Aと名詞Bは異種概念と判断し,パターン1(比喩)と判定,喩詞は``A'',被喩詞は``B''となる.\end{quote}\medskipこのモデルに従えば,\ref{subsec:imitekina}のパターン5(ほぼリテラル)とパターン6(リテラル)の両方に属する表現(例えば「次のようなもの」)は,パターン6(リテラル)と分類される. \section{コーパスでの検証} label{sec:ko-pasu}\subsection{比喩性判定モデルの実現}\label{subsec:jitugen}\ref{sec:teian}章の比喩性判定モデルを実現するために,意味情報として日本語語彙大系\cite{NTT-1}を利用して,図\ref{fig:hantei_moderu}の各ステップの具体的なルールを定義した.その手順はまず,日本経済新聞1994年1月のデータ78組に対して,日本語語彙大系からそれぞれの名詞に意味情報を付与した.その際に,1つの名詞に複数の意味情報が付与される,いわゆる多義性が生じるが,今回は我々が妥当と考える意味情報を1つだけ付与することとした.そして,各ステップの処理とデータに付与された意味情報を参照しながら,比喩性判定モデルを実現するための具体的なルールを定義した.各ステップのルールを説明する.\medskipステップ1のルール:\begin{quote}日本語語彙大系では,名詞をさらに8種類(一般名詞,用言性名詞,転生名詞,副詞型名詞,連体詞型名詞,代名詞,形式名詞,固有名詞)に細分類している.名詞Aが用言性名詞(サ変動詞型名詞,形容動詞型名詞)か,副詞型名詞(時詞,数詞など)か,代名詞か,形式名詞であれば,名詞Aが特定の名詞とする.\end{quote}\medskipステップ2のルール:\begin{quote}名詞Bが形式名詞であれば,名詞Bが特定の名詞とする.\end{quote}\medskipステップ3のルール:\begin{quote}名詞Aと名詞Bの意味情報を調べて,名詞Aが具体(意味属性番号2--994)で名詞Bが抽象(1000--2715)か,名詞Aが抽象物(1001--1234)で名詞Bが事・抽象的関係(1235--2715)であれば,名詞Bが名詞Aの属性とする.\end{quote}\medskipステップ4のルール:\begin{quote}名詞Aが固有名詞であれば,「名詞Aの名詞B」は動的な属性とする.そうでなければ静的な属性とする.\end{quote}\medskipステップ5のルール:\begin{quote}名詞Aと名詞Bの意味情報を日本語語彙大系の階層構造に当てはめ,名詞Bが名詞Aの上位であるか,まったく同種であるか,異種(その他)であるか判定する.名詞Bが名詞Aの上位であれば,上下関係とする.名詞Aと名詞Bが異種(その他)であれば,異種概念とする.名詞Aと名詞Bの意味情報が同種であるとき,名詞Aが固有名詞で名詞Bが一般名詞であれば,厳密には名詞Bが名詞Aの上位概念であるとし,そうでなければ,厳密には異種概念であるとする.\end{quote}\subsection{学習データでの検証}\label{subsec:jikken1}\ref{subsec:jitugen}のルールに基づいて比喩性判定モデルを実装し,日本経済新聞1994年1月のデータ78組を用いて実験を行った.これは学習データを用いた実験に相当する.比喩性判定結果を表\ref{tab:kekka1}に示す.\begin{table}[htbp]\caption{比喩性判定結果(1994年1月データ78組)}\begin{center}\begin{small}\begin{tabular}{|lll|}\hline\multicolumn{3}{|l|}{{\bfパターン1:直接対比,異種概念(比喩)}}\\\hline夢のような約束&じゅうたんのような芝&丘のような山\\悪夢のような日々&小春日和のような読後感&黒子のような組織\\夢のような話&迷路のような路地&魔法のような話\\屋根裏のような部屋&&\\\hline2食中毒のような危機&2京都のような都&4ニュージーランドのような自然\\5スパナのような物&5タイヤのような物&6次のような点(2組)\\6次のような質問&6右のような事態&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン2:直接対比,上下関係(リテラル)}}\\\hline中国のような国&雑木林のような自然&北朝鮮のような国\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン3:BがAの静的な属性(比喩)}}\\\hlineピラミッドのような形&大理石のような肌合い&オーケストラのような構造\\杉のような感じ&針のような形&雑誌のようなペース\\円盤のようなデザイン&能のような動き&航空機のような構造\\渡り鳥のようなやり方&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン4:BがAの動的な属性(リテラル)}}\\\hlineボスニアのような問題&米国のような意識&東京のような混乱\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン5:名詞Bが特定の名詞(ほぼリテラル)}}\\\hlineバールのようなもの(2組)&刃物のようなもの&安全弁のようなもの\\特効薬のようなもの&金づちのようなもの&ハンマーのようなもの\\印のようなもの&弾のようなもの&ハサミのようなもの\\古典のようなもの&ジーパンのようなもの&シンポジウムのようなもの\\\hline6次のようなもの&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン6:名詞Aが特定の名詞(リテラル)}}\\\hline私のような選手&君のような人間&現在のような環境\\従来のような勢い&以上のような状況&当たり前のようなこと\\今のような話&今回のような不祥事&昔のような姿\\今のような人生&私のようなユーザー&私のような職業\\昔日のような活気&前回のような調整&当時のような活気\\今回のような決着&彼女のような例&私のような者\\今回のようなこと&&\\\hline1ルネサンスのような息吹&5結晶のようなもの&\\\hline\hline\multicolumn{3}{|l|}{{\bf未知語:}}\\\hline3シャトルのような羽根&4オークマのような例&5スタンガンのようなもの(3組)\\6本書のような書物&6同社のような企業&6昨夏のようなこと\\\hline\end{tabular}\end{small}\end{center}\label{tab:kekka1}\end{table}先頭に番号がついているデータは,実装モデルのパターン分類結果と我々のパターン分類結果(表\ref{tab:noyouna3})が一致しないものであり,その番号は我々の分類パターンを示す.判定が一致する割合は,全体で74.4\,\%(58/78),未知語を除けば82.9\,\%(58/70)である.判定が一致しないデータを中心に,モデルの各ステップについて考察を加える.\medskip未知語について\begin{quote}名詞Aあるいは名詞Bが日本語語彙大系では未知語のため,パターンを判定することができない表現である.省略形(``シャトル''…スペースシャトル),固有名詞(``オークマ''),外来語(``スタンガン'')などは未知語となり得る.また,データの切り出しには形態素解析器茶筅\cite{Chasen-1}を利用したため,接辞がついた表現(``昨夏'',``本書'',``同社'')などは,茶筅の辞書と日本語語彙大系とでずれが生じている.\end{quote}\medskipステップ1について\begin{quote}時詞の中にも顕現性が高いもの(``ルネサンス'')が存在し,比喩となり得る表現がある.このような表現は比喩語(\ref{sec:hiyugo}章参照)で対処することも考えられる.名詞Aがサ変動詞型名詞(``結晶'')の場合,これは用言性名詞に含まれ,パターン6(リテラル)と判定されてしまう.名詞分類の粒度をさらに細かくし,サ変動詞型名詞と形容動詞型名詞(例えば``当たり前'')を別に処理したほうがよいのかもしれない.``次''と``右''については,日本語語彙大系では一般名詞であるが,形式名詞扱いをすればよいと考える.\end{quote}\medskipステップ2について\begin{quote}``物''については,日本語語彙大系では一般名詞であるが,形式名詞扱いをすればよいと考える.\end{quote}\medskipステップ3について\begin{quote}現行のルールでは,名詞Bが具体(``自然'')であると,名詞Bが名詞Aの属性とは判断しない.しかし,そのようなケースもないとは言えないので,ルールをさらに精緻化する必要がある.これも意味属性を束ねる粒度の問題である.\end{quote}\medskipステップ5について\begin{quote}名詞Bと名詞Aの間に上下関係がある(``危機''--``食中毒'',``都''--``京都'')と思われるが,日本語語彙大系の意味情報がそのような上下関係にないものが存在する.日本語語彙大系の意味情報はある視点を基に構築された階層構造となっている.対して,本来の上下関係にはさまざまな視点があり,それらをすべて表現するならば意味ネットワーク構造になると考える.これらの複数の視点を取り込むことは,今後の課題となる.\end{quote}\subsection{評価用データでの検証}\ref{subsec:jikken1}と同じ方法で,日本経済新聞1994年2月のデータ61組を用いて実験を行った.これはルールの評価用データを用いた実験に相当し,データの抽出には1994年1月データと同様の手法を用いている.比喩性判定結果を表\ref{tab:kekka2}に示す.\begin{table}[htbp]\caption{比喩性判定結果(1994年2月データ61組)}\begin{center}\begin{small}\begin{tabular}{|lll|}\hline\multicolumn{3}{|l|}{{\bfパターン1:直接対比,異種概念(比喩)}}\\\hline魔球のような歌集&悪夢のような事件&\\\hline2フォーラムのようなイベント&2弾痕のような穴&2山形のような場所\\2樹海のような森&6次のような事実&6以下のような行為\\6次のような歌&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン2:直接対比,上下関係(リテラル)}}\\\hline北朝鮮のような国&寒天のような食べ物&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン3:BがAの静的な属性(比喩)}}\\\hline友達のような関係&戦友のような存在&オーナーのような存在\\陶器のような肌触り&ディーラーのような感覚&ワインのような味わい\\貝殻のような光沢&子供のような思い込み&青年のような気迫\\地獄のような状況&&\\\hline1ウソのような変化&1うそのような静けさ&1糸車のような木片\\2定番のような曲&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン4:BがAの動的な属性(リテラル)}}\\\hline米国のような例&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン5:名詞Bが特定の名詞(ほぼリテラル)}}\\\hlineドライバーのようなもの&ガソリンのようなもの&ナイフのようなもの(2組)\\同窓会のようなもの&制服のようなもの&学校のようなもの\\ニックネームのようなもの&タンクのようなところ&イラストのようなもの\\\hline6以下のようなもの(2組)&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン6:名詞Aが特定の名詞(リテラル)}}\\\hline今回のようなケース&昨年のような崩落&従来のような姿勢\\昨年のような方式&今度のような文書&こんどのような手法\\今回のような特例&今回のような行動&いまのような黒字\\現在のような形&今回のような形式&昨年のような凶作\\昔のような勢い&今回のような事件&以上のような仕組み\\\hline3落雷のような音&5合併のようなもの&\\\hline\hline\multicolumn{3}{|l|}{{\bf未知語:}}\\\hline1木靴のような空間&2北斎のような巨人&3レーザー光線のような光\\3おわんのような形&3ガイドラインのような意味合い&6今のような変革期\\\hline\end{tabular}\end{small}\end{center}\label{tab:kekka2}\end{table}判定が一致する割合は,全体で65.6\,\%(40/61),未知語を除けば72.7\,\%(40/55)である.1994年1月データ(表\ref{tab:kekka1})と比べると一致する割合が10\,\%ほど落ちている.これはステップ3の,名詞Bが名詞Aの属性かどうかの判断に失敗するケースが増えていることが主な原因である.特にステップ3については実装のためのルールにまだ精細が必要と考えられるが,これは意味属性の束の粒度の問題であり,議論・検証するためには粒度に見合うだけの用例データが必要となる.今回は全体的な処理の流れとして,提案する比喩性判定モデルは実際の文章に現れる``名詞Aのような名詞B''表現に有効であることが確認できた. \section{比喩語の存在} label{sec:hiyugo}\subsection{比喩語の定義}典型的な比喩表現に用いられる喩詞は,属性が顕著であり,その属性を持つ代表的な事物として一般的に知識共有されているものであることが多い.逆に,そのような語が名詞Aに使用された場合,``名詞Aのような名詞B''表現は比喩である可能性が極めて高くなる.ここではそのような語のことを『比喩語』と呼ぶことにする.比喩語は例えば``夢''や``魔法''などである.これらは慣用的に喩詞として使用されている語で,典型的比喩表現を収集することによって抽出できると考えている.\subsection{比喩語の効果}比喩語の効果を示すために,簡単な実験を行った.まず比喩語辞書を,比喩表現辞典\cite{Nakamura-2}を利用して作成した.比喩表現辞典には巻末に索引があり,イメージ(喩詞に相当する)やトピック(被喩詞に相当する)という観点で語が集められている.今回は,イメージとして複数回現れた語を収集し(1,553語),比喩語辞書とした.データとして日本経済新聞1994年1月分78組を用い,名詞Aが比喩語であるかどうかを調べた.その結果をパターン別に表\ref{tab:hiyugo}に示す.\begin{table}[htbp]\caption{比喩語辞書との一致}\begin{center}\begin{tabular}{|l|r|r|l|}\hline&データ数&比喩語数&\\\hline\hlineパターン1(比喩)&11&5&``夢''(2組),``悪夢'',``魔法'',``丘''\\パターン2(リテラル)&5&0&\\パターン3(比喩)&11&3&``大理石'',``ピラミッド'',``針''\\パターン4(リテラル)&5&0&\\パターン5(ほぼリテラル)&19&2&``刃物'',``ハサミ''\\パターン6(リテラル)&27&1&``彼女''\\\hline\hline計&78&11&\\\hline\end{tabular}\end{center}\label{tab:hiyugo}\end{table}比喩表現(パターン1,3)に比喩語の含まれる割合は36.4\,\%(8/22),リテラル(パターン2,4,6)は2.7\,\%(1/37)と,十分に利用価値のある値となっている.このことから比喩語と呼ばれる,比喩性を決定づける語の存在は明らかであり,それらは比喩性判定に有用であると考えられる.パターン6の``彼女''には代名詞としての用法と``恋人''という意味での用法があり,データは前者,比喩語辞書は後者でくいちがいが見られる.パターン5の``刃物のようなもの'',``ハサミのようなもの''は通常はリテラルと考えられるが,文脈によっては比喩となる可能性もある. \section{おわりに} 本研究は,日本語文章の比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的としている.比喩表現に関する研究は,比喩解釈のものが多く,確率理論に基づいた計算モデルがいくつか報告されている\cite{Iwayama-1,Pattabhiraman-1}.比喩解釈については対比する喩詞と被喩詞が既知であることが前提となり,比喩認識はその喩詞と被喩詞とを正確に抽出できなければならない.直喩の代表的な表現形式である``名詞Aのような名詞B''を対象にしても,常に名詞Aと名詞Bが対比されるわけではない.本論文では,``名詞Aのような名詞B''表現について,意味情報を用いたパターン分類によって比喩性を判定し,喩詞と被喩詞とを正確に抽出できるモデルを提案した.このモデルを日本語語彙大系を利用して実装したところ,得られたパターン分類結果と人間のそれとが一致する割合は,学習データについては未知語を除けば82.9\,\%(含めれば74.4\,\%),評価用データについては72.7\,\%(同65.6\,\%)であった.実装ルールをさらに精緻化するために,用例データを増やし細かく検証する必要はあるが,比喩性判定モデルの処理の流れは実際の文章中の比喩表現認識,喩詞・被喩詞の抽出に有効であることを示すことができた.また,比喩語という比喩性を決定づける語についてもその効果を示すことができた.本手法は明らかに,前後の文脈を考慮していないので,文脈に依存した比喩性の判断はできない.「刃物のようなもの」を例にすれば,「凶器は刃物のようなものである」ではリテラル(例示)であるのに対し,「言葉は刃物のようなものである」では比喩表現となる.``もの''が``凶器''を指すのか``言葉''を指すのか同定する手法を取り入れることによって,これらの表現を我々のモデルでも区別して判断することが可能と考えられる.このような文脈処理の問題は,比喩性判定モデルの拡張として今後の課題となる.自然言語において比喩表現は例外ではなくむしろ本質的なものであり\cite{Ikehara-2},これらを機械的に扱う研究を進めることで,自然言語処理研究全体に通じる重要な知見を得ることができると確信している.\acknowledgment鈴鹿工業高等専門学校電子情報工学科田添研究室と三重大学情報工学科人工知能研究室の学生のみなさんには,ディスカッションでの有益な意見交換,検証データの整理などで非常なお世話になった.ここであらためて感謝の意を表したい.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{田添丈博}{1991年三重大学工学部電子工学科卒業.1993年同大学院工学研究科電子工学専攻修士課程修了.同年,鈴鹿工業高等専門学校電子情報工学科助手,現在に至る.また,2000年より三重大学大学院工学研究科システム工学専攻博士後期課程在学中.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{椎野努}{1964年名古屋大学工学部電気工学科卒業.同年,沖電気工業(株)入社.マイクロ波通信,データ通信,基本ソフトウェア,ソフトウェアCAD,各種エキスパートシステム,機械翻訳システム等の研究開発に従事.1990年三重大学工学部情報工学科教授.2002年愛知工業大学工学部情報通信工学科教授.工学博士.自然言語処理,画像処理,音楽情報処理等に興味をもつ.情報処理学会,人工知能学会,日本心理学会,IEEE各会員.}\bioauthor{桝井文人}{1990年岡山大学理学部地学科卒業.同年,沖電気工業(株)入社.2000年三重大学工学部情報工学科助手.質問応答システム,情報抽出の研究に従事.言語処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{河合敦夫}{1980年名古屋大学理学部卒業.1985年同大学院工学研究科情報工学専攻博士課程修了.工学博士.同年,日本電信電話(株)入社.同社情報通信網研究所主任研究員を経て,1992年より三重大学工学部情報工学科助教授.文書添削,検索分類等の自然言語処理及び色彩画像処理の研究開発に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N03-17
\section{はじめに} 日本経済新聞社は,経済分野を中心とした新聞記事に加え,自社が調査した企業情報を収録したデータベース(日経企業DB\footnote{\url{https://telecom.nikkei.co.jp/public/guide/manual/b/b09.html}})を保有している.新聞記事には,新規事業や組織再編などの,各企業に関する新しい情報が提供される.記事に登場する企業名を日経企業DBの企業IDと紐づけることで,企業レベルの記事検索などの,特定企業に関する高度な情報抽出への応用に期待ができる.企業名と企業IDの紐づけには,記事に出現する企業名の抽出と,抽出した企業名に企業IDを割り当てるエンティティリンキング(EntityLinking;EL)が必要になる.しかし,GiNZA\footnote{\url{https://megagonlabs.github.io/ginza/}}などの日本語汎用NLPツールは,企業名が組織名(Organization)の一部として定義されており,既存の日本語ELシステム\cite{Davaajav-etal-2016-anlp,sekine-etal-2023-anlp}も主にWikificationタスクのために設計されている.そのため,これらの既存ツールから日経企業DBへの適応は困難であり,Wikipediaと日経企業DBのリンキングの違いについても議論の余地がある.そこで本研究は,企業名と企業IDのリンキングを目的とした,日経企業IDリンキングシステムを実装する.具体的には,日経企業IDを知識ベースとするELデータセット(日経企業IDリンキングデータセット)を作成し,事前学習済み日本語言語モデル\cite{yamada-etal-2020-luke}による企業名抽出モデル・類似度ベースELモデルを構築する.本研究は,日経企業IDリンキングデータセットから企業名の抽出性能とリンキング性能を評価し,日経企業IDリンキングと一般的なELタスクの技術的困難性の違いについても考察する.実験の結果,提案システムは抽出した企業名に対して約83\%のリンキング性能を示したものの,同名他社などの日経企業DB特有の事例に対しては依然としてリンキングが困難であることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{日本経済新聞における企業IDリンキングシステム} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{タスク概要}日経企業IDリンキングは,新聞記事を入力とし,記事に登場する企業名に日経企業DBの企業IDを割り振ることを目的とする.日経企業IDリンキングのタスク概要を図\ref{fig:task-overview}に示す.図\ref{fig:task-overview}では,記事中に記述された4つの企業名(``トヨタ自動車'',``デンソー'',``オーロラ・イノベーション'',``トヨタ'')のうち,``トヨタ自動車'',``デンソー'',``トヨタ''に企業IDが紐づけされている.日経企業DBは日本企業のみが登録されており,``オーロラ・イノベーション''などの外国企業は登録されていない特徴がある.本タスクは,日経企業DBに収録されていない企業をリンク不可能な企業として定義し,これらの企業名には[NIL]のラベルを付与する.評価時には,システムが抽出した企業名のスパン・ラベルの一致を評価し,ラベルは企業IDまたは[NIL]が一致していれば正解とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-3ia16f1.pdf}\end{center}\hangcaption{日経企業IDリンキングのタスク概要図.\textcolor{red}{赤文字}は企業IDを持つ企業名.\textcolor{blue}{青文字}は企業IDを持たない企業名を表す.}\label{fig:task-overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{日経企業IDリンキングデータセットの構築}\label{subseq:dataset}上述のタスク設定にしたがって,本研究は日本経済新聞社の新聞記事と日経企業DBから日経企業IDリンキングデータセットを作成する.本データセットは,日本経済新聞記事オープンコーパス\cite{NKOPN_JLR2023}\footnote{\url{https://nkbb.nikkei.co.jp/alternative/corpus/}}を含めた3,025件の新聞記事と,全33,745社の日本企業が登録された日経企業DBを使用し,以下のアノテーション定義・データ作成方法に従ってデータセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2.1\subsubsection{アノテーション定義}本データセットは,略語(``日経''など)を含む特定企業を指す言語表現\footnote{本研究では``あの企業'',``当企業''などの特定の企業を間接的に示す表現は対象外とする.}を企業名として定義する.企業名は,企業名に成りうる最長範囲を抽出対象とし,入れ子や不連続な範囲から成る固有表現は対象から除外する.例えば,``ネッツ\underline{トヨタ}愛知''のような一部に親会社の企業名が含まれる事例においては,子会社の企業名のみ(``ネッツトヨタ愛知'')を抽出対象にする.また,株式会社の略語表現(``ヤンセン\underline{社}'')は企業名の範囲に含め,``\underline{日経}平均株価''のような用語内部に含まれる企業名は対象から除外する.次に,日経企業IDのアノテーションでは,企業名に関連するキーワードから企業IDを特定する.企業名に関連するキーワードは以下のルールに従って作成し,キーワードと文字列が類似する商号を日経企業DBから検索する.%%%%%\vspace*{3mm}{\vskip.5\baselineskip}\begin{enumerate}\item「三菱UFJフィナンシャル・グループ」における「三菱UFJフィナンシャルグループ」など,中黒(・)などの記号を削除した文字列\item「トヨタ自動車」における「トヨタ」など,重要度が高い「部分文字列」のみ\footnote{重要度が高い部分文字列は,グループ企業同士で共通している可能性が高い文字列を表す.例えば「トヨタ自動車」の「トヨタ」は,「トヨタ紡績」や「トヨタ自動車九州」などのグループ企業で共通する文字列である.もし企業名と完全一致する商号が存在しない場合は,アノテータの判断によって重要な文字列を抽出し,キーワードからグループ企業の一覧を取得する.}\item「トヨタ自動車」における「トヨタジドウシャ」など,企業名のカタカナ表記\footnote{日経企業DBには企業の読み情報が収録されていないため,アノテータが任意で調査したカナカナ表記を使用する.}\item``ホールディングス'',``グループ''の文字列をそれぞれ``HD'',``G''に置換した文字列\footnote{日経企業DBには,``阪急阪神HD''のように商号の一部が略される企業も存在する.これらの略語はホールディングス企業によく出現するため,企業名が商号とマッチするように一部文字列を置換する.}\end{enumerate}{\vskip.5\baselineskip}%%%%%\vspace*{3mm}正解企業IDは,アノテータが各キーワードで検索した結果の中で決定する\footnote{検索結果による正解企業IDの揺れを調査するため,一部記事で筆者らもアノテーションを行った.筆者らのアノテーションと本データセットのスパン・ラベルの一致率を評価した結果,一致率(F値)は94.5\%であった.}.検索結果の中から正解企業IDの特定が困難な場合や,検索結果に類似する商号が存在しない場合は,各企業の会社情報などを参考に正解企業IDを決定する.日経企業DBに存在しないと判明した場合は[NIL]を付与し,正解企業IDが一つに絞り込めない場合は,該当する全ての企業IDを正解として扱う\footnote{評価時には,複数の企業IDのうち,いずれかの企業IDが出力されていれば正解とする.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.3\subsection{データの作成方法}日経企業IDリンキングデータセットは,日本経済新聞の記事3,000件と,日本経済新聞記事オープンコーパスで企業名が出現する記事25件を使用する.日本経済新聞の記事は,2018年1月~2022年6月までに掲載された朝刊の中から,以下の条件に従う記事を抽出し,抽出した約6万件の記事からランダムにサンプリングした.%%%%%\vspace*{3mm}{\vskip.5\baselineskip}\begin{itemize}\item俳壇などのデータセットとして適さない記事種別や,掲載面に属す記事を除く\item本文の文字数が1,000未満\item企業名をほどよく含む.企業名を全く含まない記事や企業名が羅列された記事を除く\footnote{これらの記事は,疑似アノテーションの結果に従って削除した.疑似アノテーションで大量に固有表現が出現する記事は,人事情報のような企業名が羅列された記事である可能性が高いため,アノテーション対象から除外した.}\end{itemize}{\vskip.5\baselineskip}%%%%%\vspace*{3mm}日経企業DBは2022年度のバージョンを使用し,情報抽出向けアノテーションツールのbrat\cite{stenetorp-etal-2012-brat}でアノテーションを実施した.また,企業名を効率的にアノテーションするため,stockmark社の日本語固有表現抽出データセット\cite{omi-2021-anlp}で,法人名を抽出する固有表現認識モデルを作成した.法人名は,教育機関などの企業名以外の固有表現が含まれるため.疑似アノテーションされた約10,500件の法人名の中から,企業名ではないスパンや範囲誤りを2,000件程度削除・修正した.最後に,疑似アノテーションで取りこぼした企業名を約500件追加し,9,014件の企業名に対して日経企業IDと[NIL]のラベルを付与した.作成した日経企業IDリンキングデータセットの統計を表\ref{tab:data_split}に示す.本データセットは,文字数が1,000文字未満の新聞記事に限定したことから,各記事の平均トークン数は200語程度である.また,日経企業DBは日本企業のみを対象にしているため,全企業名の約4割のリンク先が[NIL]であることも特徴である.本研究では,アノテーションした全3,025記事のうち100記事を評価用,残りの8割を訓練用,2割を開発用として使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{16table01.tex}\hangcaption{評価実験時データセットの統計.平均トークン数はjapanese-luke-largeのトークナイズで分割したサブワードの数を表す.}\label{tab:data_split}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.4\subsection{日経企業IDリンキングの技術的困難性}\label{subseq:2.4}一般ELタスクでは,特定の実体を指す言語表現(メンション)を知識ベースに登録された実体(エンティティ)にリンキングすることを目的としている.そして,一般ELタスクの先行研究では,主に「訓練事例に出現しない未知なエンティティ」,「エンティティの時間変化」「メンションの語義曖昧性」が技術的困難な課題として挙げられている\cite{yamada-etal-2022-global,onoe-etal-2022-entity,higashiyama-etal-2023-jxiv}.そこで,本データセットと一般ELタスクのデータセットの出現傾向を比較し,日経企業IDリンキングタスクからみた3つの技術的困難性を考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.4.1\subsubsection{未知な企業IDに対するリンキング}\label{subseq:rare_entities}経済や政治に関する新聞記事では,一部の大手企業が出現しやすい特徴がある.実際に,本データセットでの日経企業IDの出現頻度を表\ref{tab:long-talecompany}に示す.表\ref{tab:long-talecompany}では,60\%程度の企業IDがデータセットに2回以上出現し,``トヨタ自動車''や``日産自動車''などの大手企業は50回以上出現する傾向が見られる.一方で,日経企業DBに登録された企業IDの約96\%はデータセットに登場しておらず,開発用・テスト用データにのみ出現する企業IDは,各データの全企業IDのうち6割以上を占める.一般ELタスクの評価指標として使用されているAIDACoNLL-YAGO\footnote{\url{https://github.com/facebookresearch/KILT?tab=readme-ov-file}}は,約590万件のエンティティのうち0.07\%のみが出現する.しかし,AIDACoNLL-YAGOはWikificationを目的に設計されているため,Wikipediaのリンク注釈を用いたモデル事前学習によって,全エントリの25\%程度を網羅することができる.さらに,開発用データにのみ出現するエントリも1割未満まで減少することから,本データセットでは訓練事例に出現しない企業IDを多く含む状態でリンキングする必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[t]\input{16table02.tex}\caption{日経企業IDリンキングデータセットにおける日経企業IDの出現頻度}\label{tab:long-talecompany}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{16table03.tex}\caption{日経企業DBで重複する企業名数}\label{tab:duplicatecompanyname_nikkei}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.4.2\subsubsection{同名企業やグループ企業の曖昧性解消}\label{subseq:2.4.2}日本国内には,子会社やグループ会社,近い本拠地で活動している企業同士(``トヨタ紡績'',\mbox{``トヨタ自動車''}など)で同じ文字列を採用する企業が存在する.これらの企業は,記事内で同じ略称を用いる可能性があり,同じ略称を持つ企業名へのリンキングは一般ELタスクの語義曖昧性と同様の問題として捉えられる.また,日本国内には同名企業が数多く存在しており,同じ業種でも所在地の違いから同じ商号を採用する場合もある.実際に,日経企業DBで登録されている同名企業の割合を表\ref{tab:duplicatecompanyname_nikkei}に示す.日経企業DBには同名企業が全企業の2\%程度存在し,平均で約3.4社,最大で11社の商号が重複している.一般ELタスクは曖昧性を回避したWikipediaページ\footnote{例えば,レオナルド・ダ・ヴィンチという名前の戦艦は``レオナルド・ダ・ヴィンチ(戦艦)''がページ名である.}をエンティティ名にしているため,Wuら\cite{wu-etal-2020-scalable}やPetroniら\cite{petroni-etal-2021-kilt}が使用しているエンティティ辞書では,名前の重複が発生していない.一方で,日経企業DBは同名企業が少ない傾向にあるものの,開発データで正解企業IDと同名の企業名が存在する事例は57件\footnote{[NIL]を除く全企業名の5.3\%.テストデータには4件出現する.}存在した.そこで,本研究は同名他社への対応を本タスク特有の問題として整理し,これらの事例に対してリンキング性能を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.4.3\subsubsection{商号の時間変化への対応}\label{subseq:2.4.3}各企業の商号は,M\&Aなどの組織改編によって変化しやすい特徴がある.そのため,記事の掲載時期と日経企業DBのバージョンの違いによって,掲載当時の企業名と現在の商号の間にミスマッチが起きることがある.例えば,「日本興亜損害保険」と「損害保険ジャパン」は,2014年に「損害保険ジャパン」を存続会社として経営統合しており,2022年の日経企業DBでは「日本興亜損害保険」のリンク先は「損害保険ジャパン」になっている.さらに,2021年以前の記事に登場する「ソニー」は現在の「ソニーグループ」を指しているのに対して,2021年以降の「ソニー」は現在の「ソニー(元ソニーエレクトロ二クス)」を指す\footnote{ソニーは,2021年に当社のエレクトロニクス事業を2代目ソニーとして移管し,本社機能を持つ初代ソニーの商号を「ソニーグループ」に変更した.そのため,2021年以前の「ソニー」は本社の「ソニーグループ(初代ソニー)」,2021年以降の「ソニー」はエレクトロニクス事業の「ソニー(2代目ソニー)」を指している.}など,同じ商号でも時間軸の変化によってリンク先の企業IDが変化することもある.Wikipediaでは,消滅した企業も「かつて存在した企業」としてページが残り続ける.また,「ソニー」のような商号が継承される場合も,同じ「ソニー」のページ内で継承前後の企業を説明するように更新される.そのため,Wikificationを目的とする一般ELタスクでは,テキストの時系列やエントリ辞書のバージョンの違いに対しても,リンク先が変化しにくいと考えられる.これに対し,日経企業IDリンキングデータセットは,企業名と商号の間に時間変化が生じている事例が開発データで26件\footnote{[NIL]を除く全事例の2\%程度.テストデータには該当する事例は出現しなかった.}出現する特徴が見られた.また,日経企業DBは今後新しいバージョンに更新される可能性が高く,日経企業DBの更新につれてミスマッチが起きる事例が増加すると予想される.そこで,本研究では時間変化が起きた26件の事例に対してリンキング性能を評価し,\ref{subseq:error}節にて課題を分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{日経企業IDリンキングシステム} 日経企業IDリンキングシステムは,入力テキストから企業名を抽出する企業名抽出器と,各企業名を該当する企業IDに紐づける企業IDリンキング器の二つのモジュールで構成されている.提案システムの概要を図\ref{fig:system-overview}に示す.本システムは,二つのモジュールの解析結果に基づいて,新聞記事から企業名を抽出し,抽出した企業名に対応する企業IDまたは[NIL]をラベリングする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[t]\begin{center}\includegraphics{31-3ia16f2.pdf}\end{center}\caption{提案システムの概要図}\label{fig:system-overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{事前学習済み言語モデルを用いた企業名抽出器}\label{subsec:bert_crf}事前学習済み言語モデルを用いて,新聞記事から企業名を抽出する固有表現認識モデルを作成する.本研究では,日本語LUKEモデル\cite{yamada-etal-2020-luke}とSoftmax層を結合し,最大系列長が30語のサブワードから成るスパンで,企業名の適否を分類するスパン分類モデル\footnote{LUKE-NERのモデル部分とハイパーパラメータは\citeA{higashiyama-etal-2023-arxiv}を元に作成した(\url{https://github.com/naist-nlp/geo_data/tree/main/baseline/ner})}(LUKE-NER)を作成する.また,比較手法として東北大学版の日本語BERTモデル\footnote{\url{https://huggingface.co/cl-tohoku/bert-large-japanese-v2}}と条件付き確率場\cite{lafferty-etal-2001-crf}を結合した系列ラベリングモデル\footnote{モデル部分とハイパーパラメータは\citeA{souza2020bertimbau}を元に作成した(\url{https://github.com/neuralmind-ai/portuguese-bert})}(BERT-CRF)も作成し,各サブワードのBIO方式によるラベル分類から企業名を抽出する.日本語固有表現認識では,トークナイザによる単語分割誤りによって,モデルへ入力するサブワードと固有表現の境界の間に齟齬が生じることがある.トークナイザによる単語分割誤りによる影響を考慮して,LUKE-NERはHigashiyamaら\cite{higashiyama-etal-2023-arxiv}と同様に分割誤りが生じた企業名を削除し,BERT-CRFは近江ら\cite{omi-2021-anlp}と同様に企業名の周辺文脈と企業名でそれぞれ分割したサブワード系列を入力して,モデルを学習する.推論時は,どちらのモデルも企業名の分割誤りが生じた時点で不正解として評価する\footnote{なおテストデータでは,いずれのモデルも企業名の分割誤りは発生しなかった.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{31-3ia16f3.pdf}\end{center}\caption{LUKEを用いた企業IDリンキング}\label{fig:company-linking}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{LUKE-Similarity:LUKEを用いた類似度ベース企業IDリンキング}企業IDリンキング器の概要図を図\ref{fig:company-linking}に示す.本研究は,日経企業IDリンキングタスクを日経企業DB$C$に登録されている企業IDと[NIL]を表すクラス$y\in\mathcal{Y}(\mathcal{Y}=\{y_1,...,y_{|C|},y_{\text{[NIL]}}\})$の分類問題と想定する.具体的には,文字数$n$のテキスト$X=\{x_1,x_2,...,x_n\}$において,任意の始点と終点$i,j\,(1\leqi\leqj\leqn)$のスパンから成る$k$個の企業名$m\in\mathcal{M}\,(\mathcal{M}=\{m_1,m_2,...,m_k\})$に,それぞれクラス$y$を予測する.本研究では,日本語LUKEから出力されるスパンベクトルを用いて類似度を計算し,各企業名$m$からクラス$y$が割り当てられる確率$P(y|m)$を以下の式より計算する.{\vskip0.5\baselineskip}\begin{equation}\mathrm{P}(y|m)=\frac{\text{exp}\,(\text{score}(m,y))}{\sum\limits_{y'\in\mathcal{Y}}\,\text{exp}(\text{score}(m,y'))}\end{equation}{\vskip0.5\baselineskip}\noindentここで,企業名$m$とクラス$y$の類似性を表す$\text{score}(m,y)$は,LUKEから出力された企業名$m$のスパンベクトル$\bm{e}$と,クラス$y$を表すクラスベクトル$\bm{s}$のcosine類似度である.企業名のスパンベクトル$\bm{e}$とクラスベクトル$\bm{s}$は以下の式より求められ,[NIL]のクラスベクトルは,ランダム値で作成したベクトルを使用する.{\vskip0.5\baselineskip}\begin{equation}\bm{e}=\textrm{LUKE}(X,i,j)\label{eq:mention_vector}\end{equation}\begin{equation}\bm{s}=\begin{cases}\,\textrm{LUKE}(c,1,|c|)&(y\neq[\text{NIL}])\\\,\mathrm{random}()&(y=[\text{NIL}])\end{cases}\label{eq:company_vector}\end{equation}\begin{equation}\text{score}(m,y)=\frac{\bm{s}\cdot\bm{e}}{||\bm{s}||\,||\bm{e}||}\label{eq:cosine}\end{equation}{\vskip0.5\baselineskip}式\ref{eq:mention_vector},\ref{eq:company_vector}において,企業名のスパンベクトル$\bm{e}$はテキスト$X$と位置情報$(i,j)$,[NIL]以外のクラスベクトル$\bm{s}$は各企業IDに対応する商号$c$と商号の全体範囲$(1,|c|)$を入力したものである.モデル学習時は,クラスベクトル$\bm{e}$は更新せずに,以下の式より正解企業IDのクラスベクトルと類似度が最大になるように損失を最小化する.{\vskip0.5\baselineskip}\begin{equation}\mathcal{L}=-\sum\limits_{m\in\mathcal{M}}\sum\limits_{y\in\mathcal{Y}}\,\mathrm{log}(\mathrm{P}(y|m))\end{equation}{\vskip0.5\baselineskip}推論時は,企業名抽出器から抽出した企業名$m'$のスパンベクトルとモデル学習時に作成したクラスベクトルのcosine類似度を計算し,最も高い類似度を示したクラス$\hat{y}$の企業IDまたは[NIL]をリンク先として推定する.\begin{equation}\label{eq:predict}\hat{y}=\underset{\text{$y\in\mathcal{Y}$}}{\mathrm{argmax}}\,\mathrm{P}(y|m')\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{評価実験} \ref{subseq:dataset}節で説明した日経企業IDリンキングデータセットを用いて,提案システムの企業名抽出,企業IDリンキングの精度を評価する.企業名抽出・企業IDリンキングの実験で使用するモデルの一覧とハイパーパラメータを表\ref{tab:models},\ref{tab:hyperparameters}に示す.本研究では,日本経済新聞社で導入されているルールベース情報抽出システム(T-laei)をベースラインとして使用する.T-laeiは,企業名に関する概念辞書との辞書マッチによって企業名と企業IDが対となる候補を抽出し,ルールベースで企業IDを選別するEnd-to-Endリンキングシステムである.T-laeiのELタスク本来の性能を示すため,T-laeiの概念辞書を日経企業DBの商号リストで代用した辞書マッチシステムを比較手法に追加した.また,日経企業IDリンキングデータセットは一般公開が困難なため,両タスクの実験では一般利用可能なモデルからどの程度企業名が解析可能かも評価する.具体的には,企業名抽出では本データセットの疑似アノテーションに使用したStockmark日本語固有表現データセット\cite{omi-2021-anlp}で学習したLUKE-NER,企業IDリンキングでは事前学習済みLUKEのパラメータから直接類似度検索を行うZero-shotモデルを比較手法として追加し,提案システムと解析精度を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[t]\input{16table04.tex}\caption{比較モデル}\label{tab:models}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{16table05.tex}\hangcaption{各モデルのハイパーパラメータ.BERT-CRFの()内の数値はCRFのハイパーパラメータ,LUKE-Similarityの()内の数値はBiLUKE-Similarityのハイパーパラメータを表す.}\label{tab:hyperparameters}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,入力文の長さや周辺文脈の違いによる抽出性能の差異を調べるため,各記事を文レベル,段落レベル,記事レベル\footnote{一部記事ではトークン長がLUKEの最大入力トークン長を上回るため,パラグラフのトークン数の合計が最大入力トークン数を上回るごとに分割した.}に分けて解析性能を評価し,訓練事例数ごとの解析性能も比較する\footnote{LUKE-NERは入力文のトークン数によって学習コストが指数的に増加するため,文レベルと段落レベルからのみ評価する.記事レベルでBERT-CRFを学習したモデルの予測結果は図\ref{fig:ner-compare_with_datasize}に示す.}.例えば,段落レベルは日経データセットを段落レベルに分割し,いずれもモデル学習時・テスト時に使用する.日経データセットをモデル学習で使用しない比較手法においては,テスト時にのみ各レベルの日経データセットを使って評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{企業名抽出}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.1\subsubsection{実験方法}文中の各企業名のスパンの一致について,適合率・再現率及びそれらの調和平均(F値)で評価する.Stockmark日本語固有表現抽出データセットによるLUKE-NERモデルは橋本ら\citeyear{hashimoto-etal-2022-anlp}と同様に学習データ,開発データ,テストデータの比率が8:1:1になるようにデータセットを分割し,開発データで抽出精度が最も高いパラメータで企業名を抽出する\footnote{予備実験として,全種類の固有表現ラベルで学習したモデルと法人名のスパンのみから学習したモデルを比較した.実験の結果,全種類使って学習したモデルのF値が法人名のスパンのみから学習したモデルとほぼ同程度の性能であったため,前者のモデルを比較手法として採用した.}.また,Stockmark日本語固有表現抽出データセットは全8種類\footnote{人名,法人名,政治的組織名,その他の組織名,地名,施設名,製品名,イベント名}の固有表現ラベルが付与されているため,本研究では法人名として予測されたスパンを企業名と仮定し,法人名と正解企業名スパンの一致について評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{16table06.tex}\caption{企業名抽出の実験結果}\label{tab:ner_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.2\subsubsection{実験結果}実験結果を表\ref{tab:ner_results}に示す.テストデータにおいて,BERT-CRF(日経データ)とLUKE-NER(日経データ)はルールベースのT-laeiよりも高い再現率・F値を示しており,事前学習済み言語モデルの固有表現認識タスク向けFinetuningによって偽陰性の問題が解消されている.BERT-CRFとLUKE-NERの比較においては,文レベル・段落レベルのいずれも同程度の適合率・再現率・F値を示しているものの,LUKE-NERの方が2ポイント程度上回っている.この結果は\citeA{yamada-etal-2020-luke}のCoNLL2003\cite{tjong-kim-sang-de-meulder-2003-introduction}による実験結果でも同様の傾向が見られており,日本語BERTと日本語LUKEのパラメータ数の違い\footnote{bert-large-japanese-v2の337Mのパラメータ数に対し,luke-japanese-large(lite)のパラメータ数は415Mである.}も原因として考えられる\footnote{日本語LUKEはTransormerのパラメータとTokenembeddingをXLM-RoBerta\cite{conneau-etal-2020-unsupervised}のパラメータで初期化している.XLM-RoBertaは事前学習時にCC-100の全言語テキストを使用しているのに対して,日本語BERTはCC-100の日本語テキストのみを使用していることから,事前学習時に用いるデータセットの違いも性能差を生む原因になった可能性がある.}.LUKE-NER(Stockmark)は,LUKE-NER(日経データ)よりもF値が10ポイント程度下回ったものの,再現率はほぼ同程度の値を示した.Stockmark固有表現認識データセットは,大学名などの企業名以外の固有表現が法人名として定義されているため,企業名以外の固有表現を抽出したことで偽陽性の誤りが生じたと考えられる.企業名抽出器の抽出性能を訓練用の記事数ごとに比較した結果を図\ref{fig:ner-compare_with_datasize}に示す.BERT-CRFとLUKE-NERは,100件程度の記事から500記事にかけてF値がやや増加傾向にあるものの,500記事からほぼ横ばいのF値で推移している.日経データセットの新聞記事は主に大手企業が頻出し,「タタ自動車」の「タタ自」,「現代自動車」の「現代自」のように企業名の略称も規則性が高い特徴が見られる.500件以上の記事から大手企業を網羅し,略称の規則性を捉えたことで,どちらのモデルも全記事と同程度の抽出性能が得られたと考えられる.また,BERT-CRFを記事レベルで学習した場合,文レベル・記事レベルと比べて性能が著しく低下した.記事を入力とした場合,文・段落レベルと比べてラベルの系列長がそれぞれ8.9倍・3.4倍長くなるため,系列パターンの学習が困難になったことが性能低下の原因として考えられる.LUKE-NERも入力文が長くなるほど計算量が指数的に増加するため,記事レベルでの企業名抽出器の検討は学習コストの面で今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[b]\begin{center}\includegraphics{31-3ia16f4.pdf}\end{center}\caption{訓練用データの記事数ごとのF値の推移}\label{fig:ner-compare_with_datasize}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{日経企業IDリンキング}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.1\subsubsection{実験設定}企業IDリンキングシステムのみのリンキング性能と,企業名抽出器と組み合わせたパイプラインシステムによるリンキング性能を評価する.前者の評価では企業名の全正解スパンをELモデルに与え,各スパンと最も類似度が高い上位$k(k=\{1,5,10\})$件の日経企業IDの中から正解企業IDが含まれているか評価する.パイプラインシステムの評価では,文・段落レベルの各企業名抽出モデルから抽出されたスパンに対して企業IDを予測し,企業IDリンキングシステムのスパンとリンク先の一致について,適合率・再現率及びそれらの調和平均(F値)で評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.2\subsubsection{各モデルの実装詳細}\begin{description}\item[辞書マッチ]\mbox{}\\Levenstein距離\cite{Levenshtein1966BinaryCC}を用いて,文中の企業名において最も文字列が類似する商号を検索する.Levenstein距離の長さは企業名と商号の文字数に依存するため,それぞれのLevenstein距離に対して文字列同士の最大編集距離で正規化し,編集距離が短い順に日経企業IDを出力する.最短編集距離が閾値\footnote{開発データを用いた探索結果から,0.2を閾値として設定した.}を上回る場合は,[NIL]を最上位とする.\item[LUKE-Similarity(Zero-shot)]\mbox{}\\事前学習済みLUKEのパラメータで各企業ベクトルを作成し,各企業名のスパンベクトルとの近傍探索により日経企業IDを予測する.ベクトル近傍探索にはFaiss\cite{johnson2019billion}を導入し,最近傍のクラスベクトルとのcosine類似度が閾値\footnote{訓練用データと開発データを用いた探索結果から,閾値を0.98に設定した.}未満の場合は[NIL]を最上位とする.\item[BiLUKE-Similarity]\mbox{}\\提案手法は,モデル学習時に企業IDのクラスベクトルを更新しないため,クラスベクトルを更新可能な状態で学習したBi-encoderELモデル(BiLUKE-Similarity)を比較手法に追加する.BiLUKE-Similarityは,Wuら\cite{wu-etal-2020-scalable}に倣い,企業IDのクラスベクトルを作成するLUKEと企業名のスパンベクトルを作成するLUKEから構築する.具体的には,前者のLUKEから式\ref{eq:company_vector}によって企業IDのクラスベクトル$\bm{s'}$を作成し,式\ref{eq:cosine}の$\bm{s}$部分を置き換えることで,双方のLUKEのパラメータを更新するようにモデル学習する.モデル学習時には,メモリ削減のためにIn-batchサンプリングで正解候補を削減する.削減した正解候補の中から,正解企業IDのクラスベクトルと類似度が最大になるように損失を最小化する\footnote{事前実験では,Gillickら\cite{gillick-etal-2019-learning}のようにLUKE-Similarity(Zero-shot)の上位10件の予測結果をHard-Negativeとして導入する手法も検討した.しかし,Hard-negativeを追加するとリンキング性能が悪化したため,BiLUKE-Similarityの学習にはIn-batchサンプルのみを使用した.}.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.3\subsubsection{実験結果}実験結果を表\ref{tab:el_results}に示す.まず,本データセットにおいて辞書マッチはR@1で70ポイント程度,R@10で80ポイント程度の再現率でリンキングされており,辞書マッチでも部分文字列の一致から予測可能な事例が多い.T-laeiは辞書マッチの結果からルールベースで正解候補を選別しているため,辞書マッチと比べて適合率が高い傾向がある.LUKE-Similarity(日経データ)は,企業名の正解スパンを対象にしたテストデータの評価において9割程度の企業名が正しくリンキングされており,全てのレベルで辞書マッチより高い再現率を示している.文・段落・記事の3つ入力レベルでは,記事レベルが最も高い再現率を示しており,LUKE-Similarity(Zero-shot)でも同様の傾向が見られる.この結果から,スパンベクトルの質は周辺文脈の情報量と直接関係しており,スパンベクトルの質はリンキング性能の向上において重要であることが確認できる.しかし,LUKE-Similarity(Zero-shot)自体は文レベルを除いて辞書マッチとほぼ同等の再現率であるため,初期パラメータから得られる企業ベクトル自体は,文字列類似度と同程度の効果であると解釈できる.BiLUKE-Similarityは,R@1が段落レベルのLUKE-Similarityよりも9ポイント程度下回っている.これは学習時にIn-batchサンプリングで比較対象を減らしたことが原因であり,Wuら\cite{wu-etal-2020-scalable}のようにHard-negativeを導入しても性能改善が見られなかった\footnote{式\ref{eq:cosine}にスコアを10倍にする温度パラメータを加えたところ,Hard-negativeの有無によって性能が改善され,BiLUKE-SimilarityもLUKE-Similarityと同程度の再現率を示した.しかし,提案手法もBiLUKE-Similarity同様にスコア関数に改善の余地があることから,依然として提案手法が妥当と考える.}.この実験の結果から,提案手法は日経企業DBにおいてはBiLUKE-SImilarityを上回る性能を示しており,BiLUKE-Similarityの半分のパラメータ数でリンキング可能である点でも有効と考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{16table07.tex}\caption{企業IDリンキングの実験結果}\label{tab:el_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,企業名抽出モデル(LUKE-NER)の出力を用いたパイプラインシステムでは,提案システムのF値はLUKE-NERの95ポイント程度から12ポイント低下する結果を示した.また,正解スパンを用いた結果と比べてパイプラインシステムの再現率は4ポイント程度低下しており,LUKE-NERの再現率から想定される性能低下の幅が3ポイントから1ポイント増加している.LUKE-Similarityに入力するサブワード系列は,入力文を各企業名が登場する前後の文脈と企業名自体の3つのセグメントでトークナイズしたサブワード系列を結合して作成する.LUKE-NERは入力文全体でトークナイズしたサブワード系列を入力するため,LUKE-SimilarityとLUKE-NERの入力サブワード系列の違いもリンキング誤りに寄与したと考えられる.LUKE-NERとLUKE-Similarityを組み合わせたシステムのリンキング性能を図\ref{fig:el-compare_with_datasize}に示す.企業名抽出モデル(図\ref{fig:ner-compare_with_datasize})は各500記事からほぼ横ばいのF値になっているのに対し,リンキング性能は記事数の増加に沿って徐々に改善されている.この結果から,企業IDリンキングは少量の事例から全企業IDの規則性を捉えられることは難しく,企業名抽出と比べて多様な企業IDの事例が必要と言える.学習可能な記事数を増加させ,別表記の企業名に対する正解事例を増やすことで,将来的な性能改善が見込まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}[t]\begin{center}\includegraphics{31-3ia16f5.pdf}\end{center}\hangcaption{パイプラインシステムにおける訓練用データの記事数ごとのF値の推移.LUKE-NER(Zero-shot)のNER部分は各記事サイズで学習したLUKE-NERを使用している.}\label{fig:el-compare_with_datasize}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[b]\input{16table08.tex}\caption{訓練事例に出現する企業IDと出現しない企業ID,[NIL]に対する各ELモデルのリンキング性能.}\label{tab:el_performance_unknown}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{技術的困難性に対する提案システムのリンキング性能の分析}\label{subseq:error}本節では,\ref{subseq:2.4}節で紹介した技術的困難な事例について,提案システムの予測傾向を分析する.まず,「未知な企業IDへのリンキング(\ref{subseq:rare_entities}節)」について,訓練事例に含まれる企業ID,含まれない企業ID,企業IDが存在しない事例に対する段落レベルのリンキング性能を表\ref{tab:el_performance_unknown}に示す.提案システムは訓練事例に存在する企業IDおよび[NIL]において,辞書マッチより15ポイント以上上回るF値を示している.しかし,訓練事例に存在しない企業IDでは辞書マッチとほぼ同程度の性能になっており,提案システムによって改善されたとは考えにくい.実際に提案システムによる出力(表\ref{tab:output_examples_unknown})では,正解の商号と文中の企業名が一致する場合は企業IDが特定できる場合はあるものの,未知の企業IDの別表記や略称に対応できていないことが確認できる.また,一部のカタカナ表記の企業名が商号と一致するにも関わらず[NIL]と予測される事例もあり,外国企業が[NIL]として扱われることで,周辺文脈による外国企業の曖昧性を生んだ可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[b]\input{16table09.tex}\caption{訓練事例に出現しない企業IDに対するリンキング例}\label{tab:output_examples_unknown}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,開発データにおいて「同名他社が存在する事例(\ref{subseq:2.4.2}節)」と「企業名と商号の間に時間変化がある事例(\ref{subseq:2.4.3}節)」に対する,段落レベルのリンキング性能と出力例を表\ref{tab:el_performance_amb_change},\ref{tab:output_examples_time}に示す.提案システムは,同名他社・時間変化がある事例において比較手法を上回る性能を示しており,訓練事例に存在するこれらの事例を記憶したことで正解事例が増えたと考えられる.同名他社においては,提案システムはR@5,R@10で正解企業IDをほぼ網羅するように予測しており,同名企業が上位数件の中に絞り込まれていることが確認できる.しかし,提案システムは商号のみからクラスベクトルを作成しているため,同名企業に対する類似度は同一である.表\ref{tab:output_examples_time}上部の例は,提案システムは誤って同名他社(三陽商会(3212))をリンク先としているものの,実際は正解企業ID(三陽商会(1638))と同じcosine類似度を示している.そのため,提案システムはR@1の精度に反して,本質的には同名他社を判別できてない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[b]\input{16table10.tex}\caption{同名他社が存在する企業ID,時間変化が生じた企業IDに対するELモデルのリンキング性能}\label{tab:el_performance_amb_change}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[t]\input{16table11.tex}\caption{同名他社,企業の時間変化におけるシステムエラー例.上部の例の()は日経企業IDを表す.}\label{tab:output_examples_time}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%時間変化がある企業名においては,提案手法が最も高い再現率を示しているものの,全体の性能は低い傾向にある.表\ref{tab:output_examples_time}の下部の例では,企業の統合によって,企業名が正解企業IDの商号に変化していることが分かる.このような変化に対して,文字列や周辺文脈の類似性のみからではリンク先の予測は難しく,類似度ベースのELシステムではリンキングが困難であると確認できる.以上の結果を踏まえ,提案システムは事前学習済み言語モデルから出力されるスパンベクトルを学習することで性能改善が見られたものの,未知企業ID,同名他社,時間変化のある企業名においては依然として課題が残る.企業IDの有無以外に外国企業であるかを事前に分類をする機構や,各企業の属性や時間的特性を考慮した類似度計算方法の導入は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{日本語固有表現認識タスク}日本語テキストを含んだ固有表現認識タスクに関する言語資源の一覧を表\ref{tab:japanese_ner_datasets}に示す.萩行ら\cite{kawahara-etal-2014-KWDLC}による京都大学ウェブ文書リードコーパス(KWDLC)\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?KWDLC}}は,Web上の多様な文書の先頭3文に形態素・固有表現・構文・格関係,照応・省略関係,共参照,談話関係の情報が人手付与されており,企業名はIREX\footnote{\url{https://nlp.cs.nyu.edu/irex/}}を基準に組織名の一部として定義されている.橋本ら\citeyear{hashimoto-etal-2008-gsk}による拡張固有表現タグ付きコーパス(GSK2014-A)\footnote{\url{https://www.gsk.or.jp/catalog/gsk2014-a/}}は,BCCWJ\footnote{\url{https://clrd.ninjal.ac.jp/bccwj/}}のコアデータと毎日新聞の記事に対して関根の拡張固有表現階層バージョン7\footnote{\url{https://nlp.cs.nyu.edu/ene/version7_1_0Beng.html}}\cite{sekine-etal-2002-extended}を人手付与したコーパスであり,二つのデータには約8,000個の企業名が固有表現としてタグ付けされている.松田ら\citeyear{matsuda-etal-2020-anlp}は,UD-japanese-GSD\footnote{\url{https://github.com/UniversalDependencies/UD_Japanese-GSD}}をspaCy標準日本語モデルに搭載する固有表現抽出モデルの元データとして再整備した.再整備したUD-japanese-GSDにはspaCyの固有表現ラベル体系であるOntoNotes5\cite{ralph-etal-2013-OntoNote}をベースに固有表現ラベルが人手付与されており,企業名は組織名の一部として扱われている.近江ら\citeyear{omi-2021-anlp}は松田らと同じWikipediaテキストを使用しているが,応用上重要な固有名詞のみに焦点を当てるため組織名を「法人名」,「政治的組織名」,「その他の組織名」に細分化しており,企業名は法人名の一部として定義されている.PanらによるWikiANN\footnote{\url{https://huggingface.co/datasets/wikiann}}は,英語Wikipediaページの分類結果を多言語リンクから他の言語に適用することで,日本語を含む282言語の固有表現認識データセットを自動作成する手法を実装した.PanらのフレームワークはAMRやYAGOのラベル体系でも自動生成が可能と主張しているものの,公開されている日本語データセット\footnote{\url{https://huggingface.co/datasets/wikiann/viewer/ja}}は人名(PER)・地名(GPE/LOC)・組織名(ORG)のみがラベル付けされている.本研究で作成した日経企業IDリンキングデータセットは,使用テキストが新聞記事で同じ企業名をラベル付与しているGSK2014-Aと,定義上は法人名であるものの,ほぼ企業名の固有表現が占めるner-wikipedia-datasetと比較可能である.しかし,GSK-2014-Aは20年以上前の新聞記事を使用しているため,本研究はテキストデータの作成時期が近くBERT-CRF・LUKE-NERにおいて94ポイント程度の精度で法人名が抽出できるner-wikipedia-datasetのみを比較対象として使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[t]\input{16table12.tex}\caption{日本語を対象に含む固有表現認識データセットの比較.$^{\star}$は多言語の固有表現認識データセットを表す.}\label{tab:japanese_ner_datasets}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{日本語ELタスク}現在一般利用可能な日本語ELタスクに関する言語資源の一覧を表\ref{tab:japanese_el_datasets}に示す\footnote{\citeA{higashiyama-etal-2023-jxiv}より一部抜粋.}.日本語ELに関する言語資源は,\citeA{higashiyama-etal-2023-arxiv}によるATD-MCLを除いてWikipediaエントリを人手付与したデータセットであり,多言語を対象にしたELタスクでは日本語を含んだ言語資源\cite{botha-etal-2020-emnlp,david-etal-2023-arxiv}も存在する.Jargalsaikhanら\cite{Davaajav-etal-2016-anlp}による日本語wikificationデータセットは,GSK2014-Aの新聞記事データ\footnote{BCCWJのサブコーパス(PN)であり,毎日新聞`95データ集の新聞記事とは異なる.}を使用し,数値表現・時間表現などの一部固有表現を除いたラベルにWikipediaエントリを人手付与したデータセットである.関根らによるSHINRA2022は,Wikipedia構造化プロジェクトの一環として日本語Wikipediaページ内にある属性値に対して該当するWikipediaページをリンキングするタスクを開催している.属性値のリンキングでは,関根の拡張固有表現ごとに定められた属性に関するメンションに対し,適当なWikipedia記事を選択する.例えば,企業名には属性として「創設者」などが定義されており,``Microsoft(企業名)''のWikipediaページに記載された属性値「ゲイツ」のメンションから「ビル・ゲイツ」のWikipedia記事をリンキングする.Higashiyamaら\citeyear{higashiyama-etal-2023-arxiv}によるATD-MCLは,旅行記に記述された地名・施設名などの特定の場所を示す表現(場所参照表現)に対して,地理データベース上のエントリを人手付与したデータセットである.Bothaら\cite{botha-etal-2020-emnlp}によるMewsli-9とKube{\v{s}}aら\cite{david-etal-2023-arxiv}によるDaMuELは,Wikipedia記事の編集者によって設定されたアンカーテキストをメンションとしており,一般名詞句によるメンションも一部含まれる.WikificationタスクではWikipediaのdumpデータを使った事前学習\cite{yamada-etal-2022-global,decao2021autoregressive}によってWikificationタスクに特化した手法が実装されているが,日経企業IDリンキングではこのようなdumpデータは使用できないため,約3,000記事程度のテキストからリンク先が特定できる手法が求められる.ATD-MCLもOpenstreatMapがリンク先の知識ベースとなっているため同様の課題が考えられるが,Higashiyamaら場所参照表現の抽出性能と共参照関係の解析性能についてモデル評価は行っているものの,地理データベースのエントリにおいてはアノテータのAgreementの評価のみ実施している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[t]\input{16table13.tex}\caption{日本語を対象に含むELデータセットの比較.$^{\star}$は多言語のELデータセットを表す.}\label{tab:japanese_el_datasets}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究は,Wikipedia以外の知識ベースを使ったELシステム構築の足掛かりとして事前学習済みLUKEモデルによる類似度ベース企業IDリンキングシステムを構築し,本データセットの性能評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3\subsection{類似度ベースELモデル}類似度ベースのELモデルでは,主にBi-encoderとCross-encoderによるリンキング手法が提案されている.Bi-encoderELモデルは,エンティティ本体とメンションを符号化するEncoderを用意し,それぞれのEncoderの出力ベクトル同士で類似度を計算する.Gillickら\cite{gillick-etal-2019-learning}は,メンション自体と周辺文脈を符号化するEncoderと,エンティティ本体・定義文・カテゴリを符号化するEncoderを組み合わせ,二つのEncoderから出力されるベクトル同士のcosine類似度を計算することでリンク先を推定する手法を提案した.Bi-encoderによる手法は,メモリ削減のために学習時の比較事例を減らす必要があるものの,近似近傍探索によって全エンティティの中から高速にリンク先を推論できる利点があり,未知のエンティティに対しても類似するエンティティと近いベクトルが作成されるため,再現率が高い傾向がある.Cross-encoderELモデルは,メンションとエンティティの組み合わせをそれぞれ入力し,各組み合わせに対してスコアリングを行う\cite{Humeau2019PolyencodersAA}.Cross-encoderは,各組合せを入力することで周辺文脈とエンティティの相互作用を考慮しやすくなり,Bi-encoderと比べて適合率が高い利点がある.しかし,文中の各メンションに対して全てのエンティティの組み合わせでスコアリングすると計算量が膨大になるため,BM25などの頻度ベースの類似度計算によって候補集合を事前抽出している\cite{logeswaran-etal-2019-zero}.Wuら\cite{wu-etal-2020-scalable}はBi-encoderとCross-encoderの双方の特徴を活用し,Bi-encoderELで予測された上位100件のエンティティをCross-encoderELで再度ランキングする手法を提案している.本手法は,複数のLUKEモデルからスパンベクトルとクラスベクトルの類似度を求める点でBi-encoderに近いモデル構造となっている.そこで,Wuらと同様にBi-encoderによるLUKE-ELを比較手法として追加したところ,企業IDリンキングタスクにおいて全企業IDを候補として直接ランキングを行う本手法が有効であることが分かった.また,本手法はクラスベクトル$\bm{e}$の作成に商号のみを使用したが,日経企業DBの基礎情報には企業の業界カテゴリや住所,通称などの属性も収録されている.エンティティの属性を含んだ定義文から企業ベクトルを作成することでモデル改善が見込まれるため,これらの属性情報を含んだ企業定義文の作成方法や[NIL]ベクトルの作成方法は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{おわりに} 本研究は,日本経済新聞社の新聞記事と日経企業DBの知識統合化のための,新聞記事に出現する企業名と企業IDを紐づける企業IDリンキングシステムを作成した.企業名を対象にしたELデータセットを作成し,事前学習済み言語モデルベースのELモデルを実装した結果,既存システムよりも高い抽出性能を達成した.また,日経企業IDリンキングタスクにおける技術困難性について考察し,提案システムは未知企業ID,同名他社,企業名の時間変化に対して改善の余地が見られた.今後対象記事の拡大により発生すると考えられる課題として,同名他社・企業名の時間変化の事例増加への対応が挙げられる.また,企業IDのアノテーションは2022年時点の日経企業DBを用いて実施したため,将来的に別バージョンの日経企業DBからでも取り扱えるようにする必要がある.日経企業DBで収録されたその他の企業属性の活用によるモデルの性能改善とともに,企業の沿革情報から企業名変遷のタイムラインを生成するなど,記事と日経企業DBの時間軸によってリンク先の企業IDを更新しやすいシステムを検討する予定である.%StartAcknowledgment%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,日本経済新聞と奈良先端科学技術大の共同プロジェクトとして実施したものです.%Startbibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{16refs}%Startbiography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{澤田悠冶}{%2019年関西学院大学総合政策学部卒.2021年奈良先端科学技術大学院大学先端科学技術研究科博士前期課程修了.同年,同大学院先端科学技術研究科博士後期課程入学.自然言語処理の研究に従事.}\bioauthor{安井雄一郎}{%日本経済新聞社日経イノベーション・ラボ主任研究員.2009年中央大学理工学研究科経営システム工学科博士前期課程修了.2023年総合研究大学院大学複合科学研究科統計科学専攻修了.博士(統計科学).2012年から2016年まで中央大学および九州大学にて技術スタッフや研究員,2017年日経BPにてデータサイエンティストを経て,2019年より現職.2023年より統計数理研究所外来研究員.}\bioauthor{大内啓樹}{%奈良先端科学技術大学院大学先端科学技術研究科助教.2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2018年同博士後期課程修了.博士(工学).2018年から2021年まで理化学研究所AIPセンター特別研究員.2021年より現職,および,理化学研究所AIPセンター客員研究員.2023年より国立国語研究所共同研究員.情報処理学会,言語処理学会,地理情報システム学会各会員.}\bioauthor{渡辺太郎}{%1994年京都大学工学部情報工学科卒業.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATRおよびNTT,NICTにて研究員,またグーグルでソフトウェアエンジニアとして勤めたあと,2020年より奈良先端科学技術大学院大学教授.自然言語処理や機械学習,機械翻訳の研究に従事.}\bioauthor{石井昌之}{%日本経済新聞社日経イノベーション・ラボ所属.2019年より現職,現在の専門分野は自然言語処理と生成AIの応用.}\bioauthor{石原祥太郎}{%日本経済新聞社日経イノベーション・ラボ主任研究員.2017年東京大学工学部システム創成学科卒業.2017年より日本経済新聞社に入社し,現在は自然言語処理や機械学習の研究開発に従事.}\bioauthor{山田剛}{%日本経済新聞社日経イノベーション・ラボ事務局長.2021年京都芸術大学大学院学際デザイン研究領域修了.修士(芸術).2014年から日経金融工学研究所において信用リスクモデル開発等に従事,2017年より現職.}\bioauthor{進藤裕之}{%2009年,早稲田大学先進理工学研究科博士前期課程修了.同年NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学情報科学研究科助教.これまで,主に自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate%%%%Followingsettingswillbeeditedbyeditors.\end{document}
V15N05-04
\section{はじめに} 言葉の意味処理にとってシソーラスは不可欠の資源である.シソーラスは,単語間の上位下位関係という,いわば縦の関連を表現するものである.我々は意味処理技術の深化を目指し,縦の関連に加えて,単語が使用されるドメインという,いわば横の関連を提案する.例えば,単語が「教科書」「先生」ならドメインは\dom{教育・学習}であり,「庖丁」なら\dom{料理・食事},「メス」なら\dom{健康・医学}である.本研究では,このようなドメイン情報を基本語約30,000語に付与し,基本語ドメイン辞書として完成させた.ドメインを考慮することでより自然な単語分類が可能となる.例えば分類語彙表は,「教科書」は『文献・図書』,「先生」は『専門的・技術的職業』として区別するが,ドメイン上は両者とも\dom{教育・学習}に属する.また,分類語彙表は「庖丁」も「メス」も『刃物』として同一視するが,両者はドメインにおいて区別される.ドメイン情報は様々な自然言語処理タスクで利用されてきた.本研究では\S\ref{bunrui-method}で述べるように文書分類に応用するが,それ以外にも,文書フィルタリング\cite{Liddy:Paik:1993},語義曖昧性解消\cite{Rigau:Atserias:Agirre:1997,Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007},機械翻訳\cite{Yoshimoto:Kinoshita:Shimazu:1997,Lange:Yang:1999}等で用いられてきた.本研究で開発した基本語ドメイン辞書構築手法は半自動のプロセスである.まず,人手で付与されたドメイン手掛かり語と各基本語の関連度をもとに,基本語にドメインを自動付与する.次に,自動ドメイン付与結果を人手で修正して完成させる.関連度計算には検索ヒット数を利用した.本研究で半自動の構築プロセスを採用したのは次の理由による.基本語の語彙情報は,多くの自然言語処理技術の根幹を形成するものであり,非常に高い正確さが要求される.しかし今日の技術では,全自動でそのような正確さを備えた語彙情報を獲得するのは困難である.一方で,全て人手で作業するのは,コスト的にも,一貫性と保守性の観点からも望ましくない.以上の理由により,高い精度の自動ドメイン付与結果を人手で修正する,という半自動プロセスを採用した\footnote{京都テキストコーパスも同様の理由から,高精度な構文解析器KNP\cite{黒橋:長尾:1992}.による解析結果を人手で修正する,という手法を採用した.}このドメイン辞書は世界初のフリーの日本語ドメイン資源である.また,本手法に必要なのは検索エンジンへのアクセスのみで,文書集合や高度に構造化された語彙資源等は必要ない.さらに,基本語ドメイン辞書の応用としてブログ自動分類を行った.各ブログ記事は,記事中の語にドメインとIDF値が付与され,最もIDF値の高いドメインに分類される.基本語ドメイン辞書に無い未知語のドメインは,基本語ドメイン辞書,Wikipedia,検索エンジンを利用して,リアルタイムで推定される.結果として,ブログ分類正解率94\%(564/600)と,未知語ドメイン推定正解率76.6\%(383/500)が得られた.なお,基本語ドメイン辞書に収録するのは基本語のみ\footnote{より正確には,JUMAN\cite{JumanManual:2005}に収録された内容語約30,000語である.}であり,専門用語等は含めない.以下,\S\ref{2issues}で基本語ドメイン辞書構築時の問題点を,\S\ref{domain-construction-method}では基本語ドメイン辞書構築手法を述べる.完成した基本語ドメイン辞書の詳細は\S\ref{dic-spec}で報告する.\S\ref{bunrui-method}では基本語ドメイン辞書のブログ分類への応用について述べ,\S\ref{unknown_domest}ではブログ分類時に用いられる未知語ドメイン推定について述べる.その後,ブログ分類と未知語ドメイン推定の評価結果を\S\ref{eval}で報告する.\S\ref{related-work}で関連研究と比較した後,\S\ref{conclusion}で結論を述べる. \section{2つの問題\label{2issues}} 基本語ドメイン辞書構築には2つの問題がある.1つは世界を適切に分類するドメイン体系の設計であり,もう1つは文書集合を必要としない基本語ドメイン辞書構築技術の開発である.1つ目の問題は,人間の外界認識の様式を明らかにするという難問である.本研究ではこの問題には深く立ち入らず,表\ref{domain-table}にある,多くの人から合意が得られやすいと思われるシンプルなドメイン体系を採用した.このドメイン体系はOpenDirectoryProject(\url{http://www.dmoz.org})等の検索ディレクトリのカテゴリを参考にした.また,「人」や「青」のような特定のドメインに属さない語のために\dom{ドメイン無し}も用意した.\begin{table}[b]\caption{本研究のドメイン体系}\label{domain-table}\begin{center}\input{04table01.txt}\end{center}\end{table}もう1つの問題は,あるドメインと深く関わる単語集合を得ようとする場合,文書集合からの重要語抽出技術がその手法の第一候補と考えられるが,その種の手法が本研究には適用しにくいというものである.これは,特定の専門分野を対象とした場合に比べて,表\ref{domain-table}にあるような一般的・日常的な粒度のドメインの文書集合を集めることが困難なことに起因する.当初我々は,検索ディレクトリの登録ページをそのような文書集合として利用した.しかし,登録ページの多くはいわゆるトップページ(特定のWebサイトの「入口」にあたるページ)で,統計的指標でキーワードを同定するには文章量が十分ではなかった.文章量を増やすためトップページのリンクを辿ってみたが,そのトップページが属する1つのサイトから多くのページが収集されたため,ドメインのキーワードというより,そのサイトのキーワードというべき語が抽出された.他に,関連性の低い広告リンクを辿ってしまうという問題もある.そこで我々は,文書集合を必要としない基本語ドメイン辞書構築手法を開発した.次節でその手法について述べる. \section{基本語ドメイン辞書構築手法\label{domain-construction-method}} 本手法のポイントは,基本語にドメインを割り当てるヒントとして,文書集合ではなく,少数の手掛かり語集合を用いる点にある.本手法の流れは次の通りである(図\ref{association-figure}).\begin{figure}[p]\begin{center}\includegraphics{15-5ia4f1.eps}\end{center}\caption{各ドメインへの基本語の割り当て}\label{association-figure}\end{figure}\begin{enumerate}\item各ドメインへの手掛かり語の付与(\S\ref{keyword-assignment})\item各基本語へのドメインの割り当て(\S\ref{association})\item\dom{ドメイン無し}の割り当て(\S\ref{nodomain-identification})\item人手による修正(\S\ref{manual-correction}).\end{enumerate}ここで注意すべきは,以下で述べる構築手法は特定のドメイン体系に依存しないという点である.つまり,本研究では表\ref{domain-table}にある12ドメインを採用したが,異なるドメイン体系を採用しても以下の手法はそのまま適用可能である.\subsection{各ドメインへの手掛かり語の付与\label{keyword-assignment}}表\ref{domain-table}のドメイン(\dom{ドメイン無し}以外)に20〜30語ずつ人手で手掛かり語を与える.手掛かり語はWeb高頻度語リストの上位から選ぶ.\revise{その際,判断に迷う語は無視し,当該ドメインへの所属が比較的明確なもののみを選ぶようにした.}\footnote{\revise{今回は著者1名がこの作業を行った.作業者間でどの程度判断がばらつくのか,そしてそのばらつきが辞書自動構築と後述するブログ分類にどのような影響を与えるのかは今後検討する必要がある.しかし,上記の作業仕様により,作業者が異なっても判断に大きなばらつきはないと予想している.}}\表\ref{ex_kw}に手掛かり語の例を挙げる.\begin{table}[t]\caption{手掛かり語の例}\label{ex_kw}\begin{center}\input{04table02.txt}\end{center}\end{table}本研究と異なるドメイン体系を採用した場合は,それに応じて,表\ref{ex_kw}とは異なる手掛かり語を独自に収集する必要がある.しかし,以下に述べるその後のプロセスは全く同じである.\subsection{各基本語へのドメインの割り当て\label{association}}基本語と(\dom{ドメイン無し}以外の)ドメインの間に関連度スコア($A_d$スコア)を定義し,基本語を最も$A_d$スコアの高いドメインに割り当てる.$A_d$スコアとして,基本語とドメインの各手掛かり語の間に定義される関連度スコア($A_k$スコア)の上位5つを合計したものを与える.本研究では,コーパスにおいてよく共起する語ほど関連度が高いという前提のもと,$A_k$スコアとして$\chi^2$に基づく指標を,コーパスとしてWebを採用する\footnote{我々が行った予備実験では,他に,相互情報量,Dice係数,Jaccard係数を試したが,$\chi^2$が最もよい結果を示した.これは\citeA{佐々木:佐藤:宇津呂:2006}の報告と一致する.}.共起頻度として,基本語と手掛かり語をクエリとした場合の検索エンジンヒット数を用いる\cite{佐々木:佐藤:宇津呂:2006}.結局,基本語$w$と手掛かり語$k$の間の$A_k$スコアは以下のようになる.$$A_k(w,k)=\frac{n(ad-bc)^{2}}{(a+b)(c+d)(a+c)(b+d)}$$ただし$n$は日本語Webページ総数で\footnote{我々は10,000,000,000を$n$とした.},$a$から$d$はそれぞれ以下のようになる.\begin{center}\begin{tabular}{ll}$a=hits(w\\&\k)$&$b=hits(w)-a$\\$c=hits(k)-a$&$d=n-(a+b+c)$\end{tabular}\end{center}$hits(q)$は$q$をクエリとした場合のヒット数である.この段階で,各基本語は(\dom{ドメイン無し}以外の)いずれかのドメインを割り当てられる.\subsection{\dom{ドメイン無し}の割り当て\label{nodomain-identification}}割り当てられたドメインの$A_d$スコアが低い基本語には,そのドメインの代わりに\dom{ドメイン無し}を割り当てる.ここで$A_d$スコアが低いかどうかを決める閾値が必要となる.我々が行った予備調査によると,検索エンジンヒット数が多い基本語ほど閾値を高めに設定する必要がある.そこで,ヒット数に応じた適切な閾値を与える関数を次の手順で得た(図\ref{reassociation-nodomain}).\begin{figure}[b]\begin{center}\includegraphics{15-5ia4f2.eps}\end{center}\caption{\dom{ドメイン無し}の再割り当て:\textbf{1}から\textbf{4}まで}\label{reassociation-nodomain}\end{figure}\begin{enumerate}\item〈基本語,ヒット数,割り当てられたドメインの$A_d$〉の3つ組をヒット数の降順に並べる\footnote{\S\ref{association}の段階でこれら3つ組が全て得られていることに注意.}.\item3つ組の集合を130のヒット数セグメントに分割する.\item各セグメントから,\dom{ドメイン無し}に属すべき基本語を含む3つ組とそれ以外の3つ組をそれぞれ5つ手作業で抽出する\footnote{通常,前者より後者の3つ組の方が$A_d$スコアが高い.}.\itemセグメントごとに,\dom{ドメイン無し}に属すべき基本語を含む3つ組とそれ以外の3つ組を分離する$A_d$スコアの値を同定する.この値が当該ヒット数セグメントにおける閾値となる.この段階で,(セグメントによって表された)ヒット数とその閾値のペアが130組得られる.\itemヒット数と閾値の関係を最小二乗法により1次関数で近似する.この1次関数がヒット数に応じた適切な閾値を与える関数である.\end{enumerate}\subsection{ドメイン割り当ての性能評価}\S\ref{keyword-assignment}から\S\ref{nodomain-identification}で述べた手法のドメイン割り当て正解率を測定した.\pagebreakドメイン割り当て結果から基本語—ドメインのペアを380組抽出し,そのうち何\%が正解か調べた.比較のためベースラインも用意した.ベースラインは,全ての基本語を\dom{ドメイン無し}とした場合の正解率である.これは,予備調査の段階で,基本語の半分以上が\dom{ドメイン無し}と判定されることがわかったためである.結果として,81.3\%(309/380)の正解率を得た.一方ベースラインの正解率は69.5\%(264/380)だった.\subsection{複数ドメインの割り当て}ある基本語は複数のドメインに属す.例えば「大学院」なら\dom{教育・学習}と\dom{科学・技術}の両方に属すものと考えられる.しかし,上述の手法は1語を1つのドメインにしか割り当てないように設計されている.本節では,1語に対し複数のドメインを割り当てることが可能な,上述の手法の拡張版について述べる.語を,$A_d$スコアが最も高いドメインだけでなく,以下の2つの条件を満たすドメイン全てに割り当てる.\begin{enumerate}\itemそのドメインの$A_d$スコアが\S\ref{nodomain-identification}で述べた閾値以上である.\itemそのドメインの$A_d$スコアが最も高い$A_d$スコアに十分近い.\end{enumerate}2番目の条件は次のように定式化される.$$\frac{\textrm{最も高い$A_d$$-$そのドメインの$A_d$}}{\textrm{最も高い$A_d$}}<0.01$$この手法により,基本語—ドメインの組は814組増えた.一方,基本語—ドメインの全ペアから392組抽出して正解率を調べたところ,正解率は78.6\%(308/392)に落ちることがわかった.\subsection{人手による修正\label{manual-correction}}人手による修正では,その正解率の高さから,複数ドメイン版ではなく,単一ドメイン版の手法の結果を使用した.複数ドメインを割り当てるべき基本語には人手による修正で対応した.ドメイン割り当て結果を人手で修正するにあたって,指針をいくつか設けた.それらの中でも重要な,複数のドメインに属する語の扱いと,多義語の扱い,\dom{ドメイン無し}の判定基準について述べる.\paragraph{複数のドメインに属する語の扱い:}複数ドメインを割り当てるべき語は,それら複数のドメインに\textbf{同程度に}関連するもののみに限定した.これには,基本語ドメイン辞書をなるべくシンプルなものにするという狙いがある.複数ドメインを割り当てた語には,「大学院」(\dom{教育・学習}と\dom{科学・技術}),「登山」(\dom{レクリエーション}と\dom{スポーツ}),「円高」(\dom{ビジネス}と\dom{政治})などが含まれる.一方で,複数ドメインに属すると考えられるが,関連性が同程度ではないために単一ドメインと判定された語として,例えば「微分」や「ゴルフ」がある.前者は\dom{教育・学習}のみとし,\dom{科学・技術}には含めなかった.後者は\dom{スポーツ}のみとし,\dom{レクリエーション}には含めなかった.\paragraph{多義語の扱い:}多義語には,各語義に対応するドメインを割り当てる.例えば,「ボール」には\dom{スポーツ}と\dom{料理・食事}が割り当てられる.\paragraph{\dom{ドメイン無し}の判定基準:}今回構築した基本語ドメイン辞書では,特定ドメインの割り当ては「保守的」に行われた.つまり,どのドメインに属するか意見が分かれそうな語,あるいは多くのドメインに属すると考えられる語は,無理に特定のドメインを割り当てるのではなく,\dom{ドメイン無し}と判定した.今回の構築では,属するドメインが4つまでならそれぞれのドメインを割り当てた.5つ以上のドメインに属すると考えられる場合は\dom{ドメイン無し}にした.例えば「委員」や「組織」などが該当する. \section{基本語ドメイン辞書の詳細\label{dic-spec}} 表\ref{breakdown_domain-dictionary}は完成した基本語ドメイン辞書の語の内訳である.\dom{ドメイン無し}が63\%と大半を占めるのは,\S\ref{manual-correction}で述べた\dom{ドメイン無し}の判定基準に従ったためである.また,複数ドメインを割り当てられた語は787語(26.2\%)だった.\begin{table}[b]\caption{基本語ドメイン情報の内訳}\label{breakdown_domain-dictionary}\input{04table03.txt}\end{table}完成した基本語ドメイン辞書は,JUMANに組み込んで,それとともに配布している.JUMANは下記のWebサイトで入手可できる.\begin{itemize}\item\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}\end{itemize}JUMANで,例えば「研究室のゼミで先生と議論した.」を形態素解析すると図\ref{juman-pic}のようになる.「研究」,「ゼミ」,「先生」は特定のドメインに属する語であり,基本語ドメイン辞書から当てはまるドメインが付与される.それ以外の語は\dom{ドメイン無し}の語である.\begin{figure}[t]\includegraphics{15-5ia4f3.eps}\caption{JUMAN解析結果中のドメイン情報}\label{juman-pic}\end{figure} \section{ブログ自動分類への応用\label{bunrui-method}} 基本語ドメイン辞書の評価の一環として,ブログ記事を,\dom{ドメイン無し}以外の12ドメインに分類する実験を行った.ブログ自動分類を取り上げた理由は,ブログが近年自然言語処理において注目を集めていることと,文書分類が基本語ドメイン辞書を最も直接的に適用できるタスクであることの2点である.本研究では基本語ドメイン辞書を利用してブログ記事を分類する.その概略は,記事中の語にドメインを付与して,その結果,最も支配的なドメインをその記事のドメインとする,というものである(図\ref{bunrui-syuhou}).\begin{figure}[t]\begin{center}\includegraphics{15-5ia4f4.eps}\end{center}\caption{ブログ分類手法の全体像}\label{bunrui-syuhou}\end{figure}より具体的には次のようになる.\begin{enumerate}\item記事中の語を抽出する.\item各語にドメインとIDF値を付与する.\itemドメインごとに,割り当てられた語のIDF値を合計.\itemIDF値合計が最も高いドメインを記事に割り当てる\footnote{今回の実験では,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合は2番目のドメインを割り当てた.}.\end{enumerate}IDF値は次の定義に従う\footnote{我々は10,000,000,000を日本語Webページ総数とした.}.$$\textrm{語のIDF値}=log\frac{\textrm{日本語Webページ総数}}{\textrm{語のWebヒット数}}$$なお,今回実験に使用した基本語ドメイン辞書には,各基本語に対して,そのドメインだけでなくIDF値もあらかじめ付与しておいた.記事からの単語の抽出方法として,\S\ref{eval}で述べる評価実験では次の3通りを試みた.\begin{enumerate}\renewcommand{\labelenumi}{}\item基本語\item基本語と未知語\item基本語と未知語と複合名詞\end{enumerate}基本語は基本語ドメイン辞書にある語で,未知語とは,例えば「コンプライアンス」などのように,基本語ドメイン辞書にない語である.複合名詞は「贈収賄/容疑」や「軍需/企業」などが該当する.本研究では同じ文節内にある名詞の連続を複合名詞として認識している.複合名詞は,未知語と同様,基本語ドメイン辞書に含まれていない.また,上記A.あるいはB.の場合,複合名詞は単語に分割され,その中の基本語のみが抽出される.例として,「コンプライアンスが叫ばれる中,贈収賄容疑をかけられた軍需商社と次官は$\cdots$」という内容の記事から,上の3通りの方法で語を抜き出した結果を図\ref{words-ext}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-5ia4f5.eps}\end{center}\caption{記事からの3通りの語抽出}\label{words-ext}\end{figure}ブログ分類時に未知語あるいは未知語と複合名詞両方を用いる場合は,語抽出の段階で基本語とそれ以外にわける必要がある.これは,基本語は基本語ドメイン辞書からドメインとIDF値が与えられるのに対し,未知語と複合名詞は\S\ref{unknown_domest}で述べる方法により,動的にドメインとIDF値が推定されるためである.以下,未知語と複合名詞を区別せず,両者を合わせて「未知語」と呼ぶことにする.両者を区別する必要がある場合は,前者を「単純未知語」,後者を「複合名詞未知語」と呼ぶ. \section{未知語ドメイン推定\label{unknown_domest}} 未知語(単純未知語と複合名詞未知語の両方)のドメインはWeb上の情報を利用して推定する.これは,Webに書かれていると考えられる,その未知語の世の中での解釈を利用するのが狙いである.Web上の情報として,より具体的には,Wikipediaの記事と,Web検索結果\footnote{本研究ではYahoo!JAPANを用いた.}のタイトルとスニペットを利用する.後述するように,未知語ドメイン推定においても基本語ドメイン辞書を活用する.未知語ドメイン推定は次の手順に従う(図\ref{unknown-domest-pic}).\begin{figure}[b]\begin{center}\includegraphics{15-5ia4f6.eps}\end{center}\caption{未知語ドメイン推定手法の全体像}\label{unknown-domest-pic}\end{figure}\begin{enumerate}\item未知語をクエリとしてWeb検索を実行する.その際,検索結果から得られるWebヒット数をもとに,その未知語のIDF値を計算する.\item検索結果上位100件の中に,その未知語とエントリが完全一致するWikipedia記事があれば,その記事を取得して,記事中の基本語を手掛かりにドメインを推定し,終了.(\textbf{Wikipedia-strict法})\itemもし未知語とエントリが完全一致するWikipedia記事が無ければ,検索結果上位30件の中から何らかのWikipedia記事を探し,もしあれば,その記事中の基本語を手掛かりにドメインを推定し,終了\footnote{例えば未知語が「亀田兄弟」で,検索結果に「亀田兄弟」とエントリが完全一致するWikipedia記事がない場合,検索結果上位30件から何らかのWikipedia記事を探す.この例の場合,「亀田三兄弟」のエントリのWikipedia記事が見つかるので,その記事を取得し,ドメイン推定に利用する.}.(\textbf{Wikipedia-loose法})\itemWikipedia記事が全く見つからなければ,検索結果から企業の広告サイト等のタイトルとスニペットを除外し,その残りのタイトルとスニペットにある基本語を手掛かりにドメインを推定し,終了.(\textbf{Snippets法})\item企業サイトを全て削除すると何も残らない場合もある.その場合,未知語が基本語を構成素に持つ複合語なら,その構成語のドメインから未知語のドメインを推定して終了.(\textbf{Components法})\item検索結果に,Wikipedia記事も,企業サイト以外のサイトも無く,また,その未知語が基本語を構成素に持つ複合語でもない場合,ドメイン推定不可能のメッセージを出力して終了.\end{enumerate}未知語ドメイン推定で用いられるWikipedia-strict法,Wikipedia-loose法,Snippets法,Components法について順に説明する.これらに共通するのは,手掛かりとなる記述(Wikipedia記事,検索結果のタイトルとスニペット,複合語の構成語)にある基本語のドメインを調べ,最も支配的なドメインをその未知語のドメインとする,という発想である.\subsection{Wikipedia(-strict$|$-loose)法}Wikipedia-strict法とWikipedia-loose法の流れは次の通りである(図\ref{Wikipedia-pic}).\begin{figure}[t]\begin{center}\includegraphics{15-5ia4f7.eps}\end{center}\caption{Wikipedia(-strict$|$-loose)手法による未知語ドメイン推定}\label{Wikipedia-pic}\end{figure}\begin{enumerate}\item検索結果をもとにWikipedia記事を取得する.\item記事から基本語のみを抽出する.\item基本語ドメイン辞書を参照して,各基本語にドメインとIDF値を付与する.\itemIDF値合計が最も高いドメインを未知語に割り当てる.ただし,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合,次の条件のもと,2番目にIDF値が高いドメインに割り当てる.$$\frac{\textrm{2番目のドメインのIDF値}}{\textrm{〈ドメイン無し〉のIDF値}}>0.15$$\end{enumerate}ドメイン推定の所要時間は,Wikipedia-strict法,Wikipedia-loose法ともに約10秒である\footnote{使用した計算機はDellPowerEdge830(PentiumDプロセッサ3.00~GHz,メモリ512~MB)である.}.\subsection{Snippets法}Snippets法の流れは次の通りである.\begin{enumerate}\item企業の広告サイト等のタイトルとスニペットを検索結果からあらかじめ除外しておく.\begin{itemize}\item次のリスト中の語がタイトルとスニペットに2回以上現れたら,それを企業サイトのものと判断する\footnote{このリストは,ブログ分類の予備実験におけるエラー分析をもとに作成した.}.\begin{quote}会社,株式,商品,販売,製品,価格,無料,市場,企業,ショップ,通販,事業,発売,サービス,法人,店舗,購入,採用,会員,業務,当社,営業,工業,ビジネス,広告,仕事,出荷,料金\end{quote}\end{itemize}\item検索結果から基本語のみを抽出する.\item基本語ドメイン辞書を参照して,各基本語にドメインとIDF値を付与する.\itemIDF値合計が最も高いドメインを未知語に割り当てる.ただし,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合,次の条件のもと,2番目にIDF値が高いドメインに割り当てる.$$\frac{\textrm{2番目のドメインのIDF値}}{\textrm{〈ドメイン無し〉のIDF値}}>0.15$$\end{enumerate}あらかじめ企業サイトのタイトルとスニペットを除外するのは次の理由による.検索結果には企業の広告サイト等のタイトルとスニペットが含まれうるが,これが多くなると,未知語の本来のドメインとは関係なく\dom{ビジネス}と誤判定されてしまう.例えば「プロピレングリコール」という未知語は,本来\dom{科学・技術}に属するべきだが,検索結果に医療あるいは工業関係の企業が多数現れるため\dom{ビジネス}と誤判定されてしまう.これを防ぐために企業サイトのタイトルとスニペットを除外しておく.ドメイン推定の所要時間は6秒程度である\footnote{これは,未知語が入力されてから,Wikipedia-strict法とWikipedia-loose法を経由した後,Snippets法によりドメインが出力されるまでの時間である.2つのWikipedia法の方が先に実行されるにも関わらず所要時間が長いのは,Snippets方が既に得られている検索結果を手掛かりとする一方,2つのWikipedia法では,新たにWebにアクセスし,Wikipedia記事を取得する手間がかかるためである.}.\subsection{Components法}Components法の流れは次の通りである.\begin{enumerate}\item未知語を構成する基本語を抽出する.\item基本語ドメイン辞書を参照して,各基本語にドメインとIDF値を付与する.\itemIDF値合計が最も高いドメインを未知語に割り当てる.ただし,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合,次の条件のもと,2番目にIDF値が高いドメインに割り当てる.$$\frac{\textrm{2番目のドメインのIDF値}}{\textrm{〈ドメイン無し〉のIDF値}}>0.15$$\end{enumerate}例えば未知語が「金融市場」の場合,その構成語である基本語「金融」と「市場」のドメインを手掛かりとして「金融市場」のドメインを得る.ドメイン推定の所要時間は約4秒である\footnote{これは,未知語が入力されてから,Wikipedia-strict法とWikipedia-loose法,Snippets法を経由した後,Components法によりドメインが出力されるまでの時間である.他の3つの手法よりも高速なのは,基本語抽出対象が他の手法よりもずっと小規模で,かつ,Wikipedia法のように新たにWebにアクセスする必要もないからである.}. \section{ブログ分類と未知語ドメイン推定の評価実験\label{eval}} \S\ref{bunrui-method}の手法に基づいてブログ分類実験を行い,分類の正解率を調査した.また,ブログ分類の際に行われた未知語ドメイン推定の結果についても正解率を調査した.\subsection{実験条件}\subsubsection{評価データ}\begin{table}[b]\caption{ドメインとYahoo!ブログカテゴリの対応関係}\label{domain-yahoo}\begin{center}\input{04table04.txt}\end{center}\end{table}分類対象のブログ記事は,Yahoo!ブログ(\url{http://blogs.yahoo.co.jp/})から,各ドメインにつき50記事ずつ,計600記事得た.Yahoo!ブログでは,記事が投稿時に著者によってカテゴリ(本研究のドメインに相当するもの)に分類されている.本研究では,ドメインごとに対応するYahoo!ブログカテゴリを決めておいて,そのカテゴリからドメインごとに50記事ずつ集めた.今回の実験で使用したドメインとYahoo!ブログカテゴリの対応関係は表\ref{domain-yahoo}の通りである.これらのYahoo!ブログカテゴリは,本研究のドメインの定義とよくマッチし,かつ,なるべく広範な内容をカバーするように選定した\footnote{ただし,Yahoo!ブログには,明らかに分類がおかしい,あるいはYahoo!ブログカテゴリ(ドメイン)の趣旨に合致しがたい記事も存在する.例えば,「科学」のYahoo!ブログカテゴリに,慰安旅行について書かれた記事が分類されていた.また,文章がなく,写真や画像だけの記事もある.そのような記事はあらかじめ人手でより適切な記事と入れ換えた.結果として,およそ3割の記事が入れ換えが必要だった.}.\subsubsection{評価方法}ブログ分類手法と未知語ドメイン推定手法それぞれに対し,正解率を測定した.ブログ分類手法の評価では,ブログ分類における未知語ドメイン推定の効果を調べるために,分類の手掛かりに利用する語として,「基本語のみ」,「基本語$+$単純未知語」,「基本語$+$全未知語(単純未知語と複合名詞未知語の両方)」の3通りを試した.さらに,IDF値合計がトップのものだけでなく,上位N位までに正解が含まれているかも調べた\footnote{ただし\dom{ドメイン無し}は除く.}.\revise{加えて,人手修正無しの基本語ドメイン辞書を用いた場合と,スコアにIDF値ではなくドメインごとの語数を用いた場合のブログ分類結果も調査した.これらに関しては「基本語$+$全未知語」のみを試した.}未知語ドメイン推定手法の評価では,分類実験評価データ中の未知語約12,000語のドメイン推定結果から500件をサンプリングして正解率を調べた.複数ドメインに属すると考えられる語に関しては,そのうちの1つが推定されていれば正解とした.また,未知語ドメイン推定で使用した各手法(Wikipedia-strict,Wikipedia-loose,Snippets,Components)の使用頻度とそれぞれの正解率も調べた.\subsection{ブログ分類結果}\begin{table}[b]\caption{ブログ分類正解率}\label{bunrui-eval-result}\begin{center}\input{04table05.txt}\end{center}\end{table}ブログ分類の正解率は表\ref{bunrui-eval-result}の通りである.この結果は,分類手法が\S\ref{bunrui-method}にあるようなごくシンプルなものでも,基本語を対象に分類のための手掛かり(本研究ではドメイン情報)をしっかり整備することで,高い精度でブログ分類が可能であることを示している.また,「基本語$+$単純未知語」が「基本語のみ」をわずかだが上回り,「基本語$+$全未知語」がその他2つを上回っていることが,未知語ドメイン推定がブログ分類に効果的であることを示している.分類間違いの大半は,記事に書かれているあまり重要でない周辺的な話題を誤って取り上げてしまったことに起因する.例えば,観光旅行に関するある記事では,その記事の著者が旅行の交通手段に何度か言及したため,本来\dom{レクリエーション}に分類されるべきところを,誤って\dom{交通}に分類した.他に,経営・業務システムを開発しているシステムエンジニアに関する記事が,本来\dom{科学・技術}に分類されるべきところを,誤って\dom{ビジネス}に分類されたケースがある.\revise{手作業修正していない基本語ドメイン辞書を用いた場合のブログ分類結果は表}\ref{bunrui-eval-result-autodic}\revise{の通りである.}\revise{手作業修正無しの辞書でも正解率が80\%を越えているが,これは本研究の基本語ドメイン辞書構築手法の精度の高さを示している.一方,手作業修正を加えた場合に比べたら上位1位で10\%以上正解率が下がった.これは,正確に手作業修正が行われたことを示しており,本研究の成果である基本語ドメイン辞書の言語資源としての完成度の高さを示している.}\begin{table}[b]\captionwidth=0.45\textwidth\begin{minipage}{0.45\textwidth}\hangcaption{ブログ分類正解率(手作業修正無しの辞書を用いた場合)}\label{bunrui-eval-result-autodic}\begin{center}\input{04table06.txt}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\hangcaption{ブログ分類正解率(スコアとして語数を用いた場合)}\label{bunrui-eval-result-wordfreq}\begin{center}\input{04table07.txt}\end{center}\end{minipage}\end{table}\revise{本研究ではドメインごとのIDF値の合計をブログ分類時のスコアとして使用したが,より単純に,ドメインごとの語数を用いた場合は,表}\ref{bunrui-eval-result-wordfreq}\revise{のような結果になる.}\revise{IDF値合計を用いた場合を若干下回っているが,これは単純に語数を用いるより,IDF値で重み付けすることがより効果的であることを示している.}\subsection{未知語ドメイン推定結果}未知語ドメイン推定の正解率は76.6\%(383/500)だった.各手法(Wikipedia-strict,Wikipedia-loose,Snippets,Components)の使用頻度と正解率は表\ref{domest-methods-results}の通りである.最も使用頻度の高いSnippets法の正解率が76\%と比較的高い.最も精度の高いWikipedia-strict法の使用頻度はそれほど高くないが,今後Wikipediaのエントリ数が増えるにしたがい使用頻度が高くなり,その結果,未知語ドメイン推定全体の正解率も高まることが期待できる.\begin{table}[t]\caption{未知語ドメイン推定各手法の使用頻度と正解率}\label{domest-methods-results}\begin{center}\input{04table08.txt}\end{center}\end{table}単純未知語のドメイン推定の成功例として,\dom{ビジネス}として正しく推定された「デイトレ」(「デイトレード」の略)が挙げられる.他には,\dom{文化・芸術}として推定された「レオナルド・ディカプリオ」などがある.複合名詞未知語のドメイン推定成功例には,「支持率」や「運動野」などが含まれる.前者は,その構成語である「支持」も「率」もそれ単体では\dom{ドメイン無し}だが,全体としては\dom{政治}であるということが正しく推定された.同様に,後者は,その構成語である「運動」も「野」もそれ単体では\dom{ドメイン無し}だが,全体としては\dom{健康・医学}であるということが正しく推定された.失敗例のほとんどは,\dom{ドメイン無し}かそれ以外かの判断を誤ったものである.主なものは,都道府県名と市区町村名,あるいはありふれた人名であり,本来どちらも\dom{ドメイン無し}に属する.しかし,前者は,ほとんどの地方自治体が行政等に関するホームページを開設しているため,Wikipedia法あるいはSnippets法により,\dom{政治}と誤判定される.後者に関する誤りは,ほとんどの人名が何らかのドメインと関連づけられてしまうというWebの性質により引き起こされる.つまり,どんなありふれた人名でも,それをクエリとしてWeb検索すると,何らかの特定のドメインに関するWebサイトが検索されてしまう. \section{関連研究\label{related-work}} \subsection{ドメイン資源の関連研究}上位下位関係に比べると,単語間のドメイン関係に関する研究は少ない.上位下位関係については,多くの言語資源(シソーラス)が構築され,また,その構築方法に関する研究も活発である.一方,ドメイン関係では,構築された言語資源も構築に関する方法論もわずかである\footnote{\citeA{Fellbaum:WordNet:1998}は,WordNet等の語彙資源におけるドメイン情報の欠落をTennisProblemと呼んでいる.}.既存のドメイン資源として挙げられるのはHowNet\cite{HowNet:Dong:Dong:2006}とWordNet\cite{Fellbaum:WordNet:1998},そしてLDOCE\cite{LDOCE:1987}である.HowNetでは,ECONOMY,INDUSTRY,AGRICULTURE,EDUCATION等,計32のドメインが想定されている.WordNetではsynset間にドメインにあたる情報が定義されている.例えば,\textit{forehand},\textit{rally},\textit{match}は\textit{tennis}に関連づけられている.人間向けの辞書としては,LDOCEがドメインにあたる情報(subjectコード)を単語に付与している.しかしながら,上記のようなドメイン資源は英語や中国語などのごく少数の言語でしか利用できない.多くの言語でドメイン情報が利用できるようになるために,効率的なドメイン資源の構築方法が求められる\footnote{日本語では\citeA{Yoshimoto:Kinoshita:Shimazu:1997}がドメイン資源を構築しているが,一般に公開されてはいない.}.しかし,従来のドメイン資源構築手法のほとんどは,LDOCEやWordNetといった,高度に構造化された既存の語彙資源を利用しており,そのような高価な語彙資源が存在しない言語に対しては適用できない.例えば,\citeA{guthrie91subjectdependent}はLDOCEにあるドメイン情報を利用して単語間のドメイン関係を得ている.\citeA{Magnini:Cavaglia:2000}では,WordNetにあるドメイン情報を拡充することを目的に,上位のsynsetに手作業でドメイン情報を与え,その後,自動で下位階層にドメイン情報を伝搬させている.\citeA{Agirre:Ansa:Martinez:Hovy:2001}では,WordNetの各synsetに対し,Webから集めた文書集合から,そのsynsetと同じドメインに属する語を抽出している.Webから文書集合を集める際,効果的なクエリを生成するため,WordNetの意味情報を活用している.\citeA{Chang:Huang:Ker:Yang:2002}は,WordNetとFarEastDictionaryに定義されているドメイン情報から「ドメインタグ」を定義し,それをWordNetに付与している.このように,既存の手法はWordNetやLDOCE等の語彙資源の存在を前提にしているため,そのような資源の無い言語には適用できない.そこで,高度に構造化された語彙資源に頼らないドメイン資源構築手法が望まれる.そのような手法の第一候補は,情報検索や専門用語抽出の分野で開発された重要語抽出手法\cite{Frantzi:Ananiadou:Tsujii:1998,Hisamitsu:Tsujii:2003,中川:森:湯本:2003}であろう.しかし,\S\ref{2issues}で述べた通り,本研究のように基本語を対象としたドメインの場合,重要語抽出の元となる文書集合を正確に収集するのが非常に困難である.一方,本研究のドメイン資源構築手法は,文書集合もWordNetのような高価な語彙資源も必要としない.また,本研究では表\ref{domain-table}にある12ドメインを採用してドメイン資源を構築したが,\S\ref{domain-construction-method}で述べたように,本研究の基本語ドメイン辞書構築手法は特定のドメイン体系に依存しない.以上を踏まえると,本研究のドメイン資源研究における貢献は次の2点である.\begin{itemize}\item(一般に利用可能な)世界初の日本語ドメイン資源を構築した.\item文書集合もWordNetのような高価な語彙資源も必要としないドメイン資源構築手法を開発した.\end{itemize}\subsection{文書分類の関連研究}従来の文書分類手法は,機械学習等の統計的手法を用いたものがほとんどである.例えば,$k$-最近隣法\cite{yang99evaluation},決定木\cite{lewis94comparison},ナイーブベイズ\cite{lewis98naive},決定リスト\cite{li99text},サポートベクトルマシン\cite{平:春野:2000},ブースティング\cite{schapire00boostexter}を用いたものがある.これらのような統計的手法では,訓練データとして大量の文書集合をあらかじめ用意しなくてはならない.近年,少量の正解情報が付与されたデータと正解情報のない大量のデータから分類器を構築する研究\cite{Abney:2007}も行われているが,その技術は発展途上と言える.一方,本研究の分類手法では,基本語のみを対象に分類の手掛かり(ドメイン情報)を整備しておくだけで済む.上述の通り,本研究の基本語ドメイン辞書を作るには,高価な語彙資源も文書集合も必要なく,Webへのアクセスさえ用意すればよい.また,\S\ref{domain-construction-method}で述べた通り,構築の過程は全自動ではなく手作業をわずかに要するが,その作業は軽微なものである.本研究の分類手法は我々が構築した基本語ドメイン辞書に基づいているため,分類体系が表\ref{domain-table}にある12ドメインに固定されている.しかし,\S\ref{domain-construction-method}で述べた通り,基本語ドメイン辞書のドメイン体系はユーザが目的に応じて自由に選べるため,我々が使用した12ドメインとは異なる分類体系を使用する場合,その体系に合わせて基本語ドメイン辞書を作りなおせばよい.そのコストは上述の通り軽微なものである.また,文書分類が実際に用いられる現場では,分類体系が頻繁に変更されるということは考えにくいため,いったん基本語ドメイン辞書を構築すればそれで済む.本研究の分類手法のもう一つの強みは,未知語への対応能力である.\S\ref{bunrui-method}で述べた通り,本手法では,記事中に未知語を発見すると,リアルタイムでその語のドメインを推定する.そしてその正解率も77\%と実用に耐えうるものであった.この能力は,ブログのような,新たな語が次々に生まれ出るようなジャンルの文書を分類する際に非常に有効である.一方,上に挙げた統計的手法で未知語に対応するには,訓練データの文書集合を集め直す必要があり,大変手間がかかる.しかもブログを対象とした場合,次々と未知語が現れるため,訓練データの更新を短い周期で行う必要がある.以上をまとめると,本研究の文書分類研究における貢献は次のようになる.\begin{itemize}\item機械学習(そして文書集合)を必要としない,未知語にも柔軟に対応できる文書分類手法を開発した.\end{itemize} \section{まとめ\label{conclusion}} 本研究では,意味処理技術の深化を目指し,基本語ドメイン辞書を構築した.基本語ドメイン辞書では,基本語約30,000語に対し,表\ref{domain-table}にある12のドメインを付与してある.基本語ドメイン辞書構築では,ドメイン体系の設計と,語とドメインの関連付けの2つが問題となる.1つ目の問題に関しては,本研究では深く立ち入ることを避け,Web検索エンジンディレクトリを参考に12のドメインを採用した.2つ目の問題には,文書集合もWordNetのような語彙資源も前提としない半自動の構築手法を開発した.その手法を基本語約30,000語に適用した結果,81.3\%の語に正しいドメインを付与することができた.基本語ドメイン辞書の完成版はその結果を人手で修正して作成した.また,基本語ドメイン辞書をブログ分類タスクに応用した.その手法は,基本語ドメイン辞書と未知語ドメイン推定法を利用して,ブログ記事中の語にドメインを付与し,結果,最も支配的なドメインに分類する,というごくシンプルなものである.文書分類研究で主流の機械学習を用いた手法と違い,大量の文書集合は用いない.にもかかわらず,基本語のみを利用した場合でも正解率89\%,未知語ドメイン推定を併用した場合で正解率94\%と良好な結果を得た.未知語ドメイン推定も,全体の正解率が77\%と実用に耐えうるものである.本研究の貢献をまとめると次のようになる.\begin{itemize}\item(一般に利用可能な)世界初の日本語ドメイン資源を構築した.\item文書集合もWordNetのような高価な語彙資源も必要としないドメイン資源構築手法を開発した.\item機械学習(そして文書集合)を必要としない,未知語にも柔軟に対応できる文書分類手法を開発した.\end{itemize}本研究では基本語ドメイン辞書を文書分類に応用したが,今後,訳語選択と語義曖昧性解消への適用を行う予定である.\citeA{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}では,処理対象の語と同じ文内に存在する基本語のドメインを手掛かりの一部として利用して語義曖昧性解消を試みた.一方我々は,より広い文脈に存在する語,しかも基本語と未知語の両方のドメインを合わせて利用することを考えている.\acknowledgment京都大学情報学研究科—NTTコミュニケーション科学基礎研究所共同研究ユニットのメンバーの方々に感謝申し上げます.\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{2007}]{Abney:2007}Abney,S.\BBOP2007\BBCP.\newblock{\BemSemisupervisedLearningforComputationalLinguistics}.\newblockChapman\&Hall.\bibitem[\protect\BCAY{Agirre,Ansa,Martinez,\BBA\Hovy}{Agirreet~al.}{2001}]{Agirre:Ansa:Martinez:Hovy:2001}Agirre,E.,Ansa,O.,Martinez,D.,\BBA\Hovy,E.\BBOP2001\BBCP.\newblock\BBOQEnrichingWordNetconceptswithtopicsignatures\BBCQ\\newblockIn{\BemProceedingsoftheSIGLEXWorkshopon``WordNetandOtherLexicalResources:Applications,Extensions,andCustomizations''inconjunctionwithNAACL}.\bibitem[\protect\BCAY{Chang,Huang,Ker,\BBA\Yang}{Changet~al.}{2002}]{Chang:Huang:Ker:Yang:2002}Chang,E.,Huang,C.-R.,Ker,S.-J.,\BBA\Yang,C.-H.\BBOP2002\BBCP.\newblock\BBOQInductionofClassificationfromLexiconExpansion:AssigninigDomainTagstoWordNetEntries\BBCQ\\newblockIn{\BemProceedingsofCOLING-2002WorkshoponSEMANET},\mbox{\BPGS\1--7}\Taipei.\bibitem[\protect\BCAY{Dong\BBA\Dong}{Dong\BBA\Dong}{2006}]{HowNet:Dong:Dong:2006}Dong,Z.\BBACOMMA\\BBA\Dong,Q.\BBOP2006\BBCP.\newblock{\BemHowNetandtheComputationofMeaning}.\newblockWorldScientificPubCoInc.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{Fellbaum:WordNet:1998}Fellbaum,C.\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Frantzi,Ananiadou,\BBA\Tsujii}{Frantziet~al.}{1998}]{Frantzi:Ananiadou:Tsujii:1998}Frantzi,K.~T.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP1998\BBCP.\newblock\BBOQ{T}he{C}-value/{NC}-value{M}ethodof{A}utomatic{R}ecognitionfor{M}ulti-word{T}erms\BBCQ\\newblockIn{\BemProceedingsoftheResearchandAdvancedTechnologyforDigitalLibraries:SecondEuropeanConference,ECDL'98},\mbox{\BPGS\585--604}.\bibitem[\protect\BCAY{Guthrie,Guthrie,Wilks,\BBA\Aidinejad}{Guthrieet~al.}{1991}]{guthrie91subjectdependent}Guthrie,J.~A.,Guthrie,L.,Wilks,Y.,\BBA\Aidinejad,H.\BBOP1991\BBCP.\newblock\BBOQ{S}ubject-{D}ependent{C}o-{O}ccurenceand{W}ord{S}ense{D}isambiguation\BBCQ\\newblockIn{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\146--152}.\bibitem[\protect\BCAY{Hisamitsu\BBA\Tsujii}{Hisamitsu\BBA\Tsujii}{2003}]{Hisamitsu:Tsujii:2003}Hisamitsu,T.\BBACOMMA\\BBA\Tsujii,J.\BBOP2003\BBCP.\newblock\BBOQMeasuring{T}erm{R}epresentativeness\BBCQ\\newblockIn{\BemInformationExtractionintheWebEra},\mbox{\BPGS\45--76}.Springer-Verlag.\bibitem[\protect\BCAY{Lange\BBA\Yang}{Lange\BBA\Yang}{1999}]{Lange:Yang:1999}Lange,E.~D.\BBACOMMA\\BBA\Yang,J.\BBOP1999\BBCP.\newblock\BBOQAutomaticDomainRecognitionforMachineTranslation\BBCQ\\newblockIn{\Bemmt-vii},\mbox{\BPGS\641--645}\Singapore.\bibitem[\protect\BCAY{Lewis}{Lewis}{1998}]{lewis98naive}Lewis,D.~D.\BBOP1998\BBCP.\newblock\BBOQNaive({B}ayes)atforty:Theindependenceassumptionininformationretrieval\BBCQ\\newblockInN{\'{e}}dellec,C.\BBACOMMA\\BBA\Rouveirol,C.\BEDS,{\BemProceedingsof{ECML}-98,10thEuropeanConferenceonMachineLearning},\mbox{\BPGS\4--15}\Chemnitz,DE.SpringerVerlag,Heidelberg,DE.\bibitem[\protect\BCAY{Lewis\BBA\Ringuette}{Lewis\BBA\Ringuette}{1994}]{lewis94comparison}Lewis,D.~D.\BBACOMMA\\BBA\Ringuette,M.\BBOP1994\BBCP.\newblock\BBOQAcomparisonoftwolearningalgorithmsfortextcategorization\BBCQ\\newblockIn{\BemProceedingsof{SDAIR}-94,3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\81--93}\LasVegas,US.\bibitem[\protect\BCAY{Li\BBA\Yamanishi}{Li\BBA\Yamanishi}{1999}]{li99text}Li,H.\BBACOMMA\\BBA\Yamanishi,K.\BBOP1999\BBCP.\newblock\BBOQTextclassificationusing{ESC}-basedstochasticdecisionlists\BBCQ\\newblockIn{\BemProceedingsof{CIKM}-99,8th{ACM}InternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\122--130}\KansasCity,US.ACMPress,NewYork.\bibitem[\protect\BCAY{Liddy\BBA\Paik}{Liddy\BBA\Paik}{1993}]{Liddy:Paik:1993}Liddy,E.\BBACOMMA\\BBA\Paik,W.\BBOP1993\BBCP.\newblock\BBOQ{D}ocument{F}iltering{U}sing{S}emantic{I}nformationfroma{M}achine{R}eadable{D}ictionary\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponVeryLargeCorpora},\mbox{\BPGS\20--29}.\bibitem[\protect\BCAY{Magnini\BBA\Cavagli\`{a}}{Magnini\BBA\Cavagli\`{a}}{2000}]{Magnini:Cavaglia:2000}Magnini,B.\BBACOMMA\\BBA\Cavagli\`{a},G.\BBOP2000\BBCP.\newblock\BBOQIntegratingSubjectFieldCodesintoWordNet\BBCQ\\newblockIn{\BemProceedingsofLREC-2000},\mbox{\BPGS\1413--1418}\Athens.\bibitem[\protect\BCAY{Proctor}{Proctor}{1987}]{LDOCE:1987}Proctor,P.\BBOP1987\BBCP.\newblock{\BemLongmanDictionaryofContemporaryEnglish}.\newblockLongmanGroup.\bibitem[\protect\BCAY{Rigau,Atserias,\BBA\Agirre}{Rigauet~al.}{1997}]{Rigau:Atserias:Agirre:1997}Rigau,G.,Atserias,J.,\BBA\Agirre,E.\BBOP1997\BBCP.\newblock\BBOQCombiningUnsupervisedLexicalKnowledgeMethodsforWordSenseDisambiguation\BBCQ\\newblockIn{\BemProceedingsofjointEACL/ACL97}\Madrid.\bibitem[\protect\BCAY{Schapire\BBA\Singer}{Schapire\BBA\Singer}{2000}]{schapire00boostexter}Schapire,R.~E.\BBACOMMA\\BBA\Singer,Y.\BBOP2000\BBCP.\newblock\BBOQ{BoosTexter}:{ABoosting-basedSystemforTextCategorization}\BBCQ\\newblock{\BemMachineLearning},{\Bbf39}(2/3),\mbox{\BPGS\135--168}.\bibitem[\protect\BCAY{Tanaka,Bond,Baldwin,Fujita,\BBA\Hashimoto}{Tanakaet~al.}{2007}]{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}Tanaka,T.,Bond,F.,Baldwin,T.,Fujita,S.,\BBA\Hashimoto,C.\BBOP2007\BBCP.\newblock\BBOQ{WordSenseDisambiguationIncorporatingLexicalandStructuralSemanticInformation}\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\477--485}.\bibitem[\protect\BCAY{Yang}{Yang}{1999}]{yang99evaluation}Yang,Y.\BBOP1999\BBCP.\newblock\BBOQ{A}n{E}valuationof{S}tatistical{A}pproachesto{T}ext{C}ategorization\BBCQ\\newblock{\BemInformationRetrieval},{\Bbf1}(1/2),\mbox{\BPGS\69--90}.\bibitem[\protect\BCAY{Yoshimoto,Kinoshita,\BBA\Shimazu}{Yoshimotoet~al.}{1997}]{Yoshimoto:Kinoshita:Shimazu:1997}Yoshimoto,Y.,Kinoshita,S.,\BBA\Shimazu,M.\BBOP1997\BBCP.\newblock\BBOQProcessingofProperNounsandUseofEstimatedSubjectAreaforWebPageTranslation\BBCQ\\newblockIn{\Bemtmi97},\mbox{\BPGS\10--18}\SantaFe.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1992}]{黒橋:長尾:1992}黒橋禎夫\JBA長尾真\BBOP1992\BBCP.\newblock\JBOQ長い日本語文における並列構造の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(8),\mbox{\BPGS\1022--1031}.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2005}]{JumanManual:2005}黒橋禎夫\JBA河原大輔\BBOP2005\BBCP.\newblock\Jem{日本語形態素解析システムJUMANversion5.1使用説明書}.\newblock京都大学大学院情報学研究科.\bibitem[\protect\BCAY{平\JBA春野}{平\JBA春野}{2000}]{平:春野:2000}平博順\JBA春野雅彦\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineによるテキスト分類における属性選択\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),\mbox{\BPGS\1113--1123}.\bibitem[\protect\BCAY{佐々木\JBA佐藤\JBA宇津呂}{佐々木\Jetal}{2006}]{佐々木:佐藤:宇津呂:2006}佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ関連用語収集問題とその解法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\151--176}.\bibitem[\protect\BCAY{中川\JBA森\JBA湯本}{中川\Jetal}{2003}]{中川:森:湯本:2003}中川裕志\JBA森辰則\JBA湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\end{thebibliography}\begin{biography}\bioauthor{橋本力}{1999年福島大学教育学部卒業.2001年北陸先端科学技術大学院大学博士前期課程修了.2005年神戸松蔭女子学院大学大学院博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2007年山形大学大学院理工学研究科助教,現在に至る.理論言語学,自然言語処理の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程終了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
V15N02-03
\section{はじめに} \label{Introduction}初期の機械翻訳の研究では,翻訳のルールを人手により書き下して翻訳するルールベース翻訳(RBMT)が用いられていた.計算機性能の問題もあり,しばらくはRBMTによる研究が進められてきたが,多様な言語現象を全て人手で書き下すことは事実上不可能であるし,他の言語対への汎用性が乏しいなどの欠点がある.そこで次に考案されたのが,あらかじめ与えられた対訳コーパスから翻訳知識を自動で学習し,その知識を用いて翻訳を行うコーパスベースの手法である.コーパスベースの手法で最も重要なのが,翻訳で使う知識を対訳コーパスから学習するアラインメントと呼ばれるステップである.アラインメント精度は翻訳精度を大きく左右するため,現在までにアラインメントに関する研究が数多くなされてきた.アラインメント研究の多くは,対訳文を1次元の単語列として扱うものであり,その最も基本的なモデルとして,単語レベルでのアラインメントを統計的に行うIBMモデル\cite{Brown93}が広く利用されている.IBMモデルでは原言語と目的言語の単語同士の対応確率モデル(lexicon)や,語順に関するモデル(distortion),語数を合わせるためのモデル(fertility,nullgeneration)などを統計的に学習する.この単語列アラインメント手法を基礎として,アラインメント結果からより高度な翻訳知識を学習する手法がいくつか提案されている.IBMモデルは1単語ごとでのアラインメントを行うが,Koehnら\cite{koehn-och-marcu:2003:HLTNAACL}はIBMモデルによるアラインメント結果をベースとして,そこから句に相当する部分を抽出する手法を考案し,翻訳の精度をより高めた.ここでいう句とは,単語列を便宜上,句と呼んでいるだけであり,意味のまとまりを表しているわけではなく,また句の階層的関係を扱うものでもない.またChiang\cite{chiang:2005:ACL}は単語列ではなく,同期文脈自由文法に基づいた広い範囲の翻訳パターンを学習する手法を提案した.Chiangの手法はKoehnらの手法による句対応結果からの学習を行うため,そのベースにはやはりIBMモデルがある.このような発展的な翻訳知識学習の手法は,翻訳においてある程度の文の構造を用いることにつながるが,そのベースとなるアラインメント手法であるIBMモデルは,文の構造情報は一切用いていない.このように単語列として文を扱う手法は,英語とヨーロッパ言語など言語構造に大きな違いがない言語対では精度よいアラインメント結果が得られるが,日英などのように言語構造が大きく異なる言語対に対しては不十分である.つまり言語構造が大きく異なる言語対において高精度なアラインメントを実現するためには,アラインメントにおいても各言語での文の構造を利用する必要がある.アラインメントにおいて言語構造を扱う研究は,古くは佐藤と長尾\cite{sato:1990:COLING}やSadlerとVendelmans\cite{sadler:1990:COLING},松本ら\cite{matsumoto:1993:ACL}によって提案されたが,当時は枠組を提案し,短い文での実証を行ったのみで,長い文,複雑な文への適用実験などは行われなかった.しかしその枠組自体は現在でも十分有効なものである.また渡辺ら\cite{watanabe:2000:COLING}やMenezesとRichardson\cite{Menezes01}も構造を用いたアラインメント手法を提案している.これらの研究では,比較的長く,複雑な文のアラインメントを行っている.文が長くなると,対応関係の曖昧性が必然的に増加し,これが問題となる.渡辺らは,曖昧性のない語からの木構造上での距離を尺度として曖昧性の解消を行い,MenezesとRichardsonは確率的な辞書の情報を利用し,最も確率の高い単語から順に対応付けることにより,曖昧性解消を行ったが,いずれもヒューリスティックなルールに基づいた手法であり,木構造全体を整合的に対応付けることはしていない.両言語の木構造を確率的に対応づける研究もある.このような手法は,原言語文の木構造を組み換えることにより,目的言語文の木構造を再現しようとするものであるが,構造を用いることの制約が強すぎるため,この制約をいかに緩めるかが議論の対象となる.Gildea\cite{Gildea03}は原言語の任意の部分木を複製し,目的言語の木構造を再現する手法を提案し,韓国語と英語を対象とした実験でアラインメントエラーレート(AER)\cite{och00comparison}で0.32という高い精度を達成しており,言語構造を用いたアラインメントの有効性を示している.しかし我々は,木構造に対してこのような操作を行う必要はなく,木構造をそのままアラインメントすれば良いと考えた.我々の手法は,佐藤と長尾などによって提案された手法を踏まえつつ,ヒューリスティックなルールではなく,木構造全体を整合的に対応付けることを目的とする.本論文では,係り受け距離と距離—スコア関数を利用した,構造的木構造アラインメント手法を提案する.本手法は依存構造木を利用しているため言語構造の違いを克服することができ,さらに木構造上の距離に基づいたアラインメント全体の整合性を,言語対に独立に測ることができる.さらに構造情報を崩すことなく利用するため,豊富な翻訳知識の獲得も望める.次章では我々の機械翻訳システムのアラインメントモジュールの基本的な部分について簡単に紹介する.\ref{proposed}章では我々が提案する手法を説明する.\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる. \section{構造的句アラインメント} 我々の機械翻訳システムは主に日英を対象としている.アラインメントは日本語,英語の構文解析器や対訳辞書などを用いて,以下のステップにより達成される.\subsection{依存構造解析}日本語文は形態素解析器JUMAN\cite{JUMAN}と構文解析器KNP\cite{KNP}を用いて依存構造木に変換される.依存構造木の各ノードにはただ1つの内容語が含まれており,それに付随する助動詞や接尾辞などの機能語は同じノードに含まれる.英語文については,まずCharniakらのnlparser\cite{Charniak}を用いて構文解析し,さらにヘッドを定義するルールにより依存構造木に変換する.日本語の場合と同様,各ノードは1つの内容語とそれに付随する機能語とからなる.図\ref{fig:Amb}に木構造の例を示す.木構造のルートノードは一番左に配置されており,それぞれの句は上から下に語順どおりに配置されている.\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f1.eps}\caption{アラインメントの例}\label{fig:Amb}\end{center}\end{figure}\subsection{単語/句対応の探索}\label{alignment}日英間の単語/句対応の候補探索には,対訳辞書,Transliteration,数字のマッチング,部分文字列アラインメントなどいくつかの手がかりを利用する.\subsubsection{対訳辞書}日本語の単語と英語の単語の全ての組み合わせを対訳辞書から探し,対応候補を見つける.このとき,1語ずつではなく複合名詞などの複数語の探索も行う.また現時点では対訳辞書には確率的な情報は含まれていない.\subsubsection{Transliteration}日本語で形態素解析器によって人名や地名などの固有名詞と判定された語や,一般的に外来語に用いられることの多いカタカナ語に対して,英語へのtransliteration候補を自動的に生成し,これら候補と英語文に現れる単語との類似度を計算する.類似度は編集距離を元にして計算され,類似度が閾値を越える組み合わせがあった場合,それらを対応候補とする.例えば以下の例は対訳辞書では対応候補として得られないが,transliterationにより対応候補とされる.\begin{quote}新宿$\rightarrow$Shinjuku$\leftrightarrow$Shinjuku(類似度:1.0)\\ローズワイン$\rightarrow$rosuwain$\leftrightarrow$rosewine(類似度:0.78)\end{quote}\subsubsection{数字のマッチング}それぞれの言語において異なる数字表現を算用数字に汎化することにより,対応候補を得る.例えば日本語の「二百六十万」と英語の``2.6million''は共に同じ数字``2600000''を表しているため,それぞれ汎化することにより対応候補とすることができる.\subsubsection{部分文字列アラインメント}\label{Fabien}対訳文の中には特別な言い回しや辞書に載っていない専門用語などを含んだもの,文の内容に過不足があるものなどが存在する.これまで挙げた手がかりだけでは,このような対訳文を正確にアラインメントするのに十分な対応候補を見つけることができない場合がある.このため,言語資源に依存しない統計的なアラインメント手法も併用することが必要となる.統計的手法として,我々はCromieresの手法\cite{Fabien06}を利用した.この手法は,対訳コーパス中の各言語の任意の部分文字列(分かち書きされている場合は単語列)の共起頻度を元にして対訳文のアラインメントを行う手法である.任意の部分文字列についてアラインメントするため形態素解析が不要な点,またSuffixArrayを用いて高速にアラインメントできる点で優れている.例えば以下の対訳文を考える.\begin{quote}Source:参院選での社会党の大敗は必至と言われる.\\Target:ItissaidthattheSocialDemocraticPartywillsufferamajorlossattheHouseofCouncillorselection.\end{quote}対訳辞書情報から得られる対訳候補は``言われる$\leftrightarrow$saidthat''のみであり,不十分だが,Cromieresの手法を用いることにより``参院$\leftrightarrow$theHouseofCouncillors'',``選$\leftrightarrow$election'',``の社会$\leftrightarrow$thesocial'',\makebox{``党の$\leftrightarrow$DemocraticParty''}の各対応が得られる.\subsection{適切な対応候補の選択}\label{topic}前章で得られた対応候補の中には,曖昧性を持つ候補や,曖昧ではないが文脈上不適切な候補が含まれることがある.例えば図\ref{fig:Amb}において,日本語の``保険''と英語の``insurance''はそれぞれ2度ずつ出現しており,組み合わせで4つの対応候補が得られることになり,曖昧性が生じる.さらに``申し立て''の訳語として``file''と``claim''の2つがみつかり,ここでも曖昧性が生じる.このため,見つかった対応候補の中から適切な候補のみを選び出す基準が必要となる.これについての詳細は\ref{proposed}章で述べる.\subsection{未対応ノードの処理}ここまでの処理により対訳文間にいくつかの対応が見つかったが,いくつかのノードが対応付けられずに残る場合がある.これらのノードは簡単なルールにより他の対応に併合する.まず日本語,英語ともに名詞句内で未対応部分があれば名詞句内の他の対応に併合し,それ以外の未対応ノードはすべて親ノードの対応に併合する.ただし,節の区切りなどの大きな区切りを越えての併合は行わない. \section{整合性尺度に基づく構造的句アラインメント} \label{proposed}対訳文全体として整合的なアラインメントを行うために,任意の1組の対応に対して{\bf整合性スコア}を定義する.最も整合的なアラインメントは整合性スコアの平均を最大とするような対応候補の組み合わせとして得られる.\begin{equation}\argmax_{alignment}\frac{\sum^{n}_{i=1}\sum^{n}_{j=i+1}整合性スコア(a_i,a_j)}{n(n-1)/2}\label{eq:sum}\end{equation}上式で$a_i$と$a_j$は互いに異なる任意の対応候補であり,整合性スコアは対応候補のペアに対して定義される.整合性スコアの定義については次章以降で詳しく述べる.\subsection{アラインメントの整合性}アラインメントの精度を左右するのは,曖昧な対応や誤った対応が含まれるたくさんの対応候補の中から,いかに正しいものを選択するかである.これを実現するために,対訳文全体を整合的に対応付けられるロバストな手法が必要である.英語とヨーロッパ言語のように言語構造の似た言語対ならば,広く研究されている統計的な手法でも高精度にアラインメントすることが可能であるが,日本語と英語では言語構造が大きくことなるため,統計的な手法での高精度なアラインメントは難しい.しかし我々のMTシステムは依存構造木をベースとした深い言語処理を行っているため,リッチな情報を利用して言語構造の違いを吸収できるようなアラインメントが可能である.我々の提案する手法を説明する前に,アラインメントの整合性とは何かを考えてみよう.図\ref{fig:consistency}において,それぞれの三角形は各言語の木構造上の節を表しており,2つの木構造にまたがって引かれた直線の1つ1つが対応候補を表している.すべての対応候補のうちで,×印が記された候補が全体の整合性を低下させていることが見て取れる.このような不整合は視覚的には明らかである.この不整合さを定量的に評価するために,我々は一組の対応候補の木構造上での{\bf距離}に注目する.図\ref{fig:consistency}の例で×印が記された候補と他の1つの候補とに注目すると,原言語側での2つの直線の距離は遠いのに対して,目的言語側では非常に近い.句の依存情報を元にした木構造上で議論すると,このようなことが起こることは稀である.つまり,一方の言語で構造的に近い句同士が他方の言語では遠くなるようなことはほぼありえないということである.このように,あらゆる対応候補のペアの距離を適切に扱うことにより,全体的に整合的なアラインメントを得ることができると考えられる.この距離を扱うために,我々は次章で説明する{\bf整合性スコア}を提案する.\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f2.eps}\caption{整合性の例}\label{fig:consistency}\end{center}\end{figure}\subsection{整合性スコア}整合的なアラインメントを得るために,依存構造木上で整合性スコアを定義する.整合性スコアは2つ1組の対応候補に対して計算され,対応候補ペアの距離の関係が適切ならばプラス,そうでなければマイナスのスコアとなる.まず,任意の対応候補ペア$a_i$($p_{Si}$,$p_{Ti}$)と$a_j$($p_{Sj}$,$p_{Tj}$)に注目する.$p_{Si}$と$p_{Ti}$はそれぞれ対応候補$a_i$によって対応づけられている原言語,目的言語の句を表しており,$p_{Sj}$と$p_{Tj}$も同様である.原言語側の係り受け距離$d_S(a_i,a_j)$は,$p_{Si}$と$p_{Sj}$の間の木構造上での距離として定義され,目的言語側についても同様に$d_T(a_i,a_j)$が定義される.この距離を用いて整合性スコアは以下のように計算される.\begin{equation}整合性スコア(a_i,a_j)=f(d_S,d_T)\end{equation}ここで$d_S$は$d_S(a_i,a_j)$を省略して表記したもので,$d_T$も同様である.$f(d_S,d_T)$は原言語側と目的言語側の距離のペアをスコアに変換する関数であり,{\bf距離—スコア関数}と呼ぶ.係り受け距離と距離スコア関数については次章で詳しく述べる.対訳文全体のアラインメントの整合性は,式\ref{eq:sum}に表されるように,あらゆる組み合わせの対応候補ペアの整合性スコアの和として定義される.正しい対応候補は,その近くにある対応候補により支持され,プラスのスコアが与えられ,さらに全体のアラインメントの整合性に寄与する.ここで,近くにある対応候補とは,原言語側,目的言語側ともに,距離が小さい対応候補ということである.\subsection{係り受け距離}この章では,係り受け距離$d_S$や$d_T$の計算方法を説明する.最も単純な設定としては,すべての枝の距離を1とし,係り受け距離はあるノードから別のノードまでに通る枝の数とすることが考えられる.しかしながら,高度な言語処理技術により得られる知識を利用し,より精度の高いシステムの構築を目指すことは自然である.日本語依存構造解析器KNPおよび英語のCharniakのnlparserはそれぞれ係り受けタイプの情報を出力する.これらの情報を利用して,係り受けタイプスコアを定義する.このスコアは係り受けの強さ,つまり枝の距離を表しており,係り受けの強さが強い(区切りが弱い)ほど小さく,係り受けの強さが弱い(区切りが強い)ほど大きくなるように設定する.例えば複号名詞内の形態素の区切りなどは係り受けが強いのでスコアは小さく,逆に節の区切りなどは係り受けが弱いのでスコアは大きくなる.係り受けタイプは高々30種類程度しかないため,係り受けタイプスコアは人手により設定する.図\ref{fig:dep_dist}にその一部を示す.日本語の係り受けタイプは南による分類\cite{Minami}に基づいて,構文解析器KNP\cite{KNP}が出力するものである.スコアの値は主観的に定義したものであり,正確に言語現象を反映した値ではない可能性がある.この値を自動学習により設定することは,今後の課題である.\begin{figure}[b]\begin{center}\input{03figure3.txt}\end{center}\caption{係り受け距離の定義の例}\label{fig:dep_dist}\end{figure}係り受けタイプスコアを実際の対訳文に適用した例を図\ref{fig:exgood}に示す.図\ref{fig:exgood}で各枝上のラベルが係り受けタイプを示しており,その上の数字が係り受けタイプスコアである.\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f4.eps}\caption{係り受け距離とスコアの例}\label{fig:exgood}\end{center}\end{figure}係り受け距離$d_S$や$d_T$は,あるノードから別のノードまで最短ルートでたどるときに通る枝の係り受けタイプスコアの和と定義する.例えば図\ref{fig:exgood}でペア1の距離は,日本語側($d_S$)は``保険$\rightarrow$請求の''の枝を通るので,$d_S=1$となり,英語側($d_T$)は``insurance$\rightarrow$anclaim''の枝を通るので,$d_T=1$となるため,$(d_S,d_T)=(1,1)$となる(図で丸で囲まれた数字のある枝を通る).同様にペア2の距離は,日本語側はペア1と同じで$d_S=1$だが,英語側は``insurance$\rightarrow$withtheoffice'',``withtheoffice$\rightarrow$willhavetofile'',``anclaim$\rightarrow$willhavetofile''の3つの枝を通るので,枝の距離を合計して$d_T=7$となるため,$(d_S,d_T)=(1,7)$となる(図で四角で囲まれた数字のある枝を通る).木構造を用いずに単純な単語列として見た場合,2つの``insurance''はどちらも``claim''から近いと判断されてしまうため,正しい曖昧性解消ができなくなる.このようなことは他の例でもしばしば起こりうることであり,木構造を用いることの利点がここで示される.\subsection{距離—スコア関数}\label{function}距離スコア関数$f(d_S,d_T)$は2つの距離の組$(d_S,d_T)$に対して,それらの関係が適切かどうかを反映するスコアを与える.この関数を設定するために,まず実際のデータにおける現象を観測した.正解のアラインメントが付与された4万文の新聞記事対訳コーパス\cite{Uchimoto04}を用いて,距離の組の出現頻度を係数した.図\ref{fig:learn}に観測結果を示す(状況がとらえやすいように,別角度からの図を2つ示す).縦軸が頻度の対数であり,2つの横軸は2つの距離にそれぞれ対応する.結果を見ると,距離が等しいペアの頻度は高く,逆に距離に差があるペアの頻度が著しく低下することがわかる.この観測結果を踏まえて,距離—スコア関数$f(d_S,d_T)$を人手で設定した.このとき,以下の条件を満たすようにする:\begin{itemize}\item$d_S$と$d_T$が共に小さい場合は,注目した対応候補の関係が適切であると判断できるので,プラスのスコアを与える\item$d_S$と$d_T$が共に大きい場合(距離10以上)は,対応候補は互いに関係性を持たないと判断し,0とする.\item$d_S$と$d_T$の差が大きい場合は,対応候補の関係が不適切であると判断できるので,マイナスのスコアを与える.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f5.eps}\caption{観測された距離の組の頻度分布}\label{fig:learn}\end{center}\end{figure}例えば図\ref{fig:exgood}において,ペア1$(d_S,d_T)=(1,1)$にはプラスのスコアを与えるが,ペア2$(d_S,d_T)=(1,7)$に対してはマイナスのスコアを与える.\subsection{最適なアラインメントの探索}\label{new_align}アラインメントの整合性は式\ref{eq:sum}に示したように,全ての対応候補ペアの$f(d_S,d_T)$の和として定義される.また最適なアラインメントは,この和を最大とするアラインメントである.しかしながら,考えうる全てのアラインメントのパターンをチェックしようとすると,組み合わせ爆発を起こすので,最適なアラインメントの探索は近似的に行う.まず,ある1つの対応候補$a_i$に対するスコアを以下のように定義する:\begin{equation}score(a_i)=\sum^{}_{j\neqi}整合性スコア(a_i,a_j)\\\label{eq:individual}\end{equation}これにより,全ての対応候補の1つ1つに個別にスコアが計算される.ここで,最も高いスコアとなった対応候補は正しい対応であると判断し,採用する.同時に,採用された対応と衝突している対応候補は棄却する.そして各対応候補のスコアを再計算し,採用・棄却を繰り返す.これをすべての対応候補が採用か棄却されるまで繰り返すことにより,近似的に最適なアラインメントが得られる. \section{実験と考察} \label{result}\subsection{アラインメント実験}正解のアラインメントが付与されている新聞記事の対訳コーパス\cite{Uchimoto04}からランダムに500文を選び,これを用いて日英対訳文のアラインメント実験を行なった.アラインメントの評価単位は,日本語は文字単位,英語は単語単位とした.日本語の評価単位を単語単位としなかった理由は2つある.1つは我々の出力と正解データとで形態素解析のずれがある場合があることである.もう1つは,我々の出力も正解データもアラインメントの単位は句なのだが,そもそも何を句とするかの定義が定まっていないため,句の区切りにずれがあることである.これらの理由から,評価を単純に,わかりやすくするために,日本語では文字単位で評価した.なお我々の予備実験により,評価単位を文字単位としても大きな副作用はないことが示されている.対訳辞書として,研究社の和英辞書(見出し語数36\,K,抽出した対訳数214\,K)と,同英和辞書(見出し語数50\,K,抽出した対訳数303\,K)を用いた.評価は適合率,再現率,F値により算出し,さらにAER\cite{och00comparison}も求めた.なお,正解データにはSure($S$)アラインメントのみが付与されており,Possible($P$)アラインメントはない\cite{Och03}\footnote{Possible($P$)アラインメントがない場合,$\mathrm{AER}=1\text{-}F-measure$として計算される.}.実験結果を表\ref{tab:result_a}に示す.``baseline''はすべての枝の距離を1とし,さらに整合性スコア$f=1/d_S+1/d_T$として実験したものである.``uniformdist.''は枝の距離はすべて1だが,整合性スコアを\ref{function}章で定義した関数により計算した場合の結果である.``proposed''は``uniformdist.''の枝の距離を係り受け距離に変更した結果である.\begin{table}[b]\begin{center}\caption{アラインメント実験結果}\label{tab:result_a}\input{03table1.txt}\end{center}\end{table}比較実験として,統計翻訳のフリーツールであり,その精度に定評のある``Moses''\cite{Moses}を利用したアラインメント実験も行なった.トレーニングデータとして,毎日新聞4万対訳文と読売新聞25万文を利用し,日本語文については形態素解析器JUMANで形態素に分割した.また\ref{alignment}章で述べた部分文字列アラインメントのみでのアラインメント精度を``sub-string''に示した.ここでのトレーニングデータは,Mosesと同じものを用いた(ただし,日本語の形態素分割は行っていない).``manual''は,我々の出力を人手により修正したものであり,アラインメントの上限値と見ることができる.上限値が100にならないのは,我々の出力と正解データとのアラインメントの単位にズレがあることや,正解データ自体に誤りが含まれていることがあるためである.\subsection{考察}表\ref{tab:result_a}より,距離スコア関数を改善することによりF値で2.7ポイントの精度向上が見られる.実際の言語現象を観測し,それを反映する関数の定義を用いることの妥当性と,その効果の高さがこの結果から示された.係り受けスコアを用いることにより,さらに約1.5ポイント精度向上したが,距離スコア改善による向上に比べると差が小さく,係り受けスコアを用いることの利点はそれほどないように見える.現在は係り受け距離は人手により設定されているが,この設定が実際の言語の特徴を十分に反映しているかどうかという点で疑問が残る.今後係り受け距離を自動学習などにより適切に設定することにより,係り受け距離を利用する効果がより顕著に表れるものと思われる.\begin{figure}[b]\begin{center}\includegraphics{15-2ia3f6.eps}\caption{アラインメントの改善例}\label{fig:result_ex}\end{center}\end{figure}距離スコア関数の改善と,係り受けスコアの利用により,baselineより4.22ポイントの精度向上を達成した.図\ref{fig:result_ex}に改善例を示す.例では日本語の``司法''に対して,英語では``judicial''が二度出現しており,曖昧性が発生している.baselineではこの曖昧性解消に失敗しており,アラインメントが不適切だが,proposedでは正しく曖昧性解消が行われ,正しいアラインメントを得ることができた.しかしながら,日本語で``司法''という語が一度しか出てきていないため,正確には英語の``ourjudicialsystem''は未対応とするのが適切である.このような省略は逆の場合を含め,しばしば起こることであるため,適切に扱う必要がある.これについては今後検討する.我々の提案手法では依存構造を用いており,その情報に強く頼っている部分が大きい.このことは今まで述べたとおり非常に有効な手段であるが,一方で依存構造解析の失敗が容易にアラインメントの失敗につながってしまう.日本語については形態素解析(JUMAN)の精度が99\%,構文解析(KNP)の精度が90\%であり,高精度ではあるが失敗も10\%程度は含まれることになる.英語ではこれよりさらに精度は低くなり,特に並列構造などでの解析失敗が目立つ.このため,我々が提案する整合性尺度を利用して,依存構造木自体の修正を可能にする枠組を考案する必要がある.これにより,アラインメントの精度向上が見込めるだけでなく,基礎技術である構文解析技術へのフィードバックを図ることも可能となる.``Moses''の結果は我々の結果に比べてかなり低い.これは\ref{Introduction}章で述べたように,統計的な手法が言語構造の異なる言語対に対してはあまり効果が発揮できないことの表れといえる.日本語と英語では言語構造に大きな違いがあり,例えば日本語ではSOVの語順で文が構成されるが,英語ではSVOの語順で文が構成される.このような言語対に対しては,我々の手法のように言語処理リソースを用いた深い文解析が必要であると言える.``sub-string''の結果は``Moses''の結果とほぼ同じであるが,``sub-string''では形態素解析を行っていないという点を考慮すると,十分によい結果であると言える.特に適合率を見るとMosesよりも良い結果であり,このことは我々のアラインメントで利用するときには有効である.\begin{table}[b]\begin{center}\caption{他言語対でのアラインメント精度(AER)}\label{tab:result_b}\input{03table2.txt}\end{center}\end{table}表\ref{tab:result_b}に,関連研究で示された,日英以外の言語対におけるアラインメント精度を示す.HLT-NAACL2003\cite{mihalcea-pedersen:2003:Partext}(英語—フランス語と英語—ロシア語)とACL2005\cite{martin-mihalcea-pedersen:2005:WPT}(英語—ロシア語)はそれぞれアラインメントに関するワークショップでの結果であり,それぞれのワークショップでの最も良い精度を記録した研究の値である.\cite{Gildea03}は英語と韓国語でのアラインメント精度の向上を目指したものである.また最も基本的な統計的単語アラインメントツールであるGIZA++\cite{rodriguez-garciavarea-gamez:2006:WMT}を用いてそれぞれの言語対でアラインメントした結果も示す.すべての値はAERである.表\ref{tab:result_b}より,英語—フランス語対でのアラインメントは最も容易であり,英語—韓国語で最も難しいといえる.これは言語構造の違いが英仏では小さいが,英韓では大きいことからくると思われる.韓国語は日本語に近いといわれており,日英と同様,アラインメントが難しい.我々の日英アラインメントの結果をこれらの他言語対での結果と比較しても,十分高精度であると言える. \section{結論と今後の課題} 本論文では構造的句アラインメントの精度向上を目的とし,係り受け距離と距離—スコア関数$f(d_S,d_T)$を用いた新しいアラインメント手法を提案した.また対訳文全体のアラインメントの整合性を全ての対応ペアのスコア$f(d_S,d_T)$の和として定義し,整合性を定量的に評価する枠組を提案した.これにより,構造的句アラインメントの精度向上を達成し,基本的な統計的手法に比べておよそ30ポイント高いアラインメント精度を実現した.実験結果から,言語構造の異なる言語対であっても我々の手法は十分に高精度なアラインメントを行うことができ,関連研究での他の言語対での結果と比較しても遜色ない結果をあげた.今後我々の手法を日英以外の言語対に対しても適用し,その有効性を検証したい.また係り受け距離と距離—スコア関数は現在は人手により設定されているが,実際の言語の特徴をよりよく反映するモデルを構築し,さらに他言語において人手により設定するコストを抑えるために,単言語コーパスからパラメータを自動的に学習する手法を考案する必要がある.アラインメントの失敗例の多くは構文解析誤りによるものである.現在の枠組では構文解析結果を完全に信頼して整合性を測っているが,我々の手法が十分に洗練されたものになれば,整合性尺度に基づいて構文を修正できるような,構文解析とアラインメントが互いに柔軟に影響しあい,互いの精度向上を行えるような柔軟な枠組を作ることが今後の課題である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown93}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Charniak\BBA\Johnson}{Charniak\BBA\Johnson}{2005}]{Charniak}Charniak,E.\BBACOMMA\\BBA\Johnson,M.\BBOP2005\BBCP.\newblock\BBOQCoarse-to-Finen-BestParsingandMaxEntDiscriminativeReranking\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\173--180}\AnnArbor,Michigan.\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{chiang:2005:ACL}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-BasedModelforStatisticalMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\263--270}\AnnArbor,Michigan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cromieres}{Cromieres}{2006}]{Fabien06}Cromieres,F.\BBOP2006\BBCP.\newblock\BBOQSub-SententialAlignmentUsingSubstringCo-OccurrenceCounts\BBCQ\\newblockIn{\BemProceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{Gildea}{Gildea}{2003}]{Gildea03}Gildea,D.\BBOP2003\BBCP.\newblock\BBOQLooselyTree-basedAlignmentforMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\80--87}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation\BBCQ\\newblockIn{\BemAnnualMeetingoftheAssociationforComputationalLinguistics(ACL),demonstrationsession}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-och-marcu:2003:HLTNAACL}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation\BBCQ\\newblockInHearst,M.\BBACOMMA\\BBA\Ostendorf,M.\BEDS,{\BemHLT-NAACL2003:MainProceedings},\mbox{\BPGS\127--133}\Edmonton,Alberta,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{KNP}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLong{J}apaneseSentencesBasedontheDetectionofConjunctiveStructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),\mbox{\BPGS\507--534}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{JUMAN}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}\BBCQ\\newblockIn{\BemProceedingsofTheInternationalWorkshoponSharableNaturalLanguage},\mbox{\BPGS\22--28}.\bibitem[\protect\BCAY{Martin,Mihalcea,\BBA\Pedersen}{Martinet~al.}{2005}]{martin-mihalcea-pedersen:2005:WPT}Martin,J.,Mihalcea,R.,\BBA\Pedersen,T.\BBOP2005\BBCP.\newblock\BBOQWordAlignmentforLanguageswithScarceResources\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponBuildingandUsingParallelTexts},\mbox{\BPGS\65--74}\AnnArbor,Michigan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Matsumoto,Ishimoto,\BBA\Utsuro}{Matsumotoet~al.}{1993}]{matsumoto:1993:ACL}Matsumoto,Y.,Ishimoto,H.,\BBA\Utsuro,T.\BBOP1993\BBCP.\newblock\BBOQStructuralMatchingofParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\23--30}.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes01}Menezes,A.\BBACOMMA\\BBA\Richardson,S.~D.\BBOP2001\BBCP.\newblock\BBOQABest-firstAlignmentAlgorithmforAutomaticExtractionofTransferMappingsfromBilingualCorpora\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)WorkshoponData-DrivenMachineTranslation},\mbox{\BPGS\39--46}.\bibitem[\protect\BCAY{Mihalcea\BBA\Pedersen}{Mihalcea\BBA\Pedersen}{2003}]{mihalcea-pedersen:2003:Partext}Mihalcea,R.\BBACOMMA\\BBA\Pedersen,T.\BBOP2003\BBCP.\newblock\BBOQAnEvaluationExerciseforWordAlignment\BBCQ\\newblockInMihalcea,R.\BBACOMMA\\BBA\Pedersen,T.\BEDS,{\BemHLT-NAACL2003Workshop:BuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\1--10}\Edmonton,Alberta,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2000}]{och00comparison}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2000\BBCP.\newblock\BBOQAComparisonofAlignmentModelsforStatisticalMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1086--1090}\Saarbrucken,Germany.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Rodr\'{i}guez,Garc\'{i}a-Varea,\BBA\G\'{a}mez}{Rodr\'{i}guezet~al.}{2006}]{rodriguez-garciavarea-gamez:2006:WMT}Rodr\'{i}guez,L.,Garc\'{i}a-Varea,I.,\BBA\G\'{a}mez,J.~A.\BBOP2006\BBCP.\newblock\BBOQSearchingforalignmentsinSMT.AnovelapproachbasedonanEstimationofDistributionAlgorithm\BBCQ\\newblockIn{\BemProceedingsontheWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\47--54}\NewYorkCity.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sadler\BBA\Vendelmans}{Sadler\BBA\Vendelmans}{1990}]{sadler:1990:COLING}Sadler,V.\BBACOMMA\\BBA\Vendelmans,R.\BBOP1990\BBCP.\newblock\BBOQPilotImplementationofaBilingualKnowledgeBank\BBCQ\\newblockIn{\BemPaperspresentedtothe13thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\449--451}.\bibitem[\protect\BCAY{Sato\BBA\Nagao}{Sato\BBA\Nagao}{1990}]{sato:1990:COLING}Sato,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1990\BBCP.\newblock\BBOQTowardMemory-basedTranslation\BBCQ\\newblockIn{\BemPaperspresentedtothe13thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\247--252}.\bibitem[\protect\BCAY{Uchimoto,Zhang,Sudo,Murata,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2004}]{Uchimoto04}Uchimoto,K.,Zhang,Y.,Sudo,K.,Murata,M.,Sekine,S.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQ{MultilingualAlignedParallelTreebankCorpusReflectingContextualInformationandItsApplications}\BBCQ\\newblockIn{\BemProceedingsoftheMLR2004:PostCOLINGWorkshoponMultilingualLinguisticResources},\mbox{\BPGS\63--70}.\bibitem[\protect\BCAY{Watanabe,Kurohashi,\BBA\Aramaki}{Watanabeet~al.}{2000}]{watanabe:2000:COLING}Watanabe,H.,Kurohashi,S.,\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQFindingStructuralCorrespondencesfromBilingualParsedCorpusforCorpus-basedTranslation\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\906--912}.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\end{thebibliography}\begin{biography}\bioauthor{中澤敏明}{2005年東京大学工学部電子情報工学科卒業.2007年同大学院修士課程修了.2007年京都大学大学院博士後期課程入学.機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
V02N04-01
\section{背景と目的} 今日,家庭向けの電化製品から,ビジネス向けの専門的な機器まであらゆる製品にマニュアルが付属している.これらの機器は,複雑な操作手順を必要とするものが多い.これを曖昧性なく記述することが,マニュアルには求められている.また,海外向けの製品などのマニュアルで,このような複雑な操作手順を適切に翻訳することも困難である.そこで,本稿は,上記のような問題の解決の基礎となるマニュアル文を計算機で理解する手法について検討するが,その前に日本語マニュアル文の理解システムが実現した際に期待される効果について述べておく.\begin{itemize}\item日本語マニュアル文の機械翻訳において言語-知識間の関係の基礎を与える.\item自然言語で書かれたマニュアル文の表す知識の論理構造を明らかにし,これをマニュアル文作成者にフィードバックすることによってより質の良いマニュアル文作成の援助を行なえる.\itemマニュアル文理解を通して抽出されたマニュアルが記述している機械操作に関する知識を知識ベース化できる.この知識ベースは,知的操作システムや自動運転システムにおいて役立つ.\end{itemize}さて,一般的な文理解は,おおむね次の手順で行なわれると考えられる.\begin{enumerate}\item文の表層表現を意味表現に変換する.\label{変換}\itemこの意味表現の未決定部分を決定する.\label{決定}\end{enumerate}\ref{変換}は,一般的に「文法の最小関与アプローチ」\cite{kame}といわれる考え方に則って行なわれる.この考え方は,文を形態素解析や構文解析などを用いて論理式などの意味表現へ翻訳する際,統語的知識や一部の意味的知識だけを利用し,以後の処理において覆されない意味表現を得るというものである.よって,得られた意味表現は一般に曖昧であり,文脈などにより決定されると考えられる未決定部分が含まれる.従来の\ref{決定}に関する研究は,記述対象や事象に関する領域知識を利用して,意味表現の表す物事に関する推論をして,意味表現の未決定部分を決定するという方向であった(\cite{abe}など).これは,知識表現レベルでの曖昧性解消と考えることができる.領域知識を用いる方法は,広範な知識を用いるため,曖昧性解消においては有用である.しかし,この方法を用いるには,大規模な領域知識ないし常識知識をあらかじめ備えておく必要があるが,現在そのような常識・知識ベースは存在していない点が問題である.したがって,この問題に対処するためは,個別の領域知識にほとんど依存しない情報を用いることが必要となる.さて,本稿では,対象を日本語マニュアル文に限定して考えている.そして,\cite{mori}に基づき,上記の個別の領域知識にほとんど依存しない情報として,言語表現自体が持っている意味によって,その言語表現がマニュアル文に使用される際に顕在化する制約について考察する.ここで重要な点は,以下での考察が個別のマニュアルが記述している個別領域(例えば、ワープロのマニュアルならワープロ操作固有の知識)を問題にしているのではなく,マニュアル文でありさえすれば,分野や製品を問わずいかなるマニュアル文にも通用する制約について考察しようとしている点である.しかし,領域知識にほとんど依存しないとはいえ,言語的な制約を適用する話し手,聞き手などの対象が,解析しようとしているマニュアル文では何に対応しているかなどの,言語的対象とマニュアルで述べられている世界における対象物の間の関係に関する知識は必要である.以下では,この知識を言語・マニュアル対応関係知識と呼ぶ.ここでは,対象としているのが日本語マニュアル文であるから,言語学的な対象と記述対象の間の関係に関する情報などこの種の情報は「解析中の文章が日本語で書かれたマニュアルに現れる文である」ということ自身から導く.よって以上の手順をまとめると,本稿で想定している日本語マニュアル文の理解システムでは,「文法の最小関与アプローチ」による構文解析と,言語表現自身が持つ語用論的制約と,言語・マニュアル対応関係知識に基づいて,マニュアル文を理解することとなろう.さて,意味表現の未決定部分を決定する問題に関しては,ゼロ代名詞の照応,限量子の作用範囲の決定や,もともと曖昧な語の曖昧性解消など,さまざまな問題がある.日本語では主語が頻繁に省略されるため,意味表現の未決定部分にはゼロ代名詞が多く存在する.そのため,ゼロ代名詞の適切な指示対象を同定することは日本語マニュアル文の理解における重要な要素技術である.そこで,本稿では,ゼロ代名詞の指示対象同定問題に対して,マニュアル文の操作手順においてしばしば現れる条件表現の性質を利用することを提案する.というのは,システムの操作に関しては,今のところ基本的に利用者とのインタラクションなしで完全に動くものはない.そこで,ある条件の時はこういう動作が起きるなどという人間とシステムのインタラクションをマニュアルで正確に記述しなければならない.そして,その記述方法として,条件表現がしばしば用いられているからである.一般に,マニュアル文の読者,つまり利用者の関心は,自分が行なう動作,システムが行なう動作が何であるか,自分の動作の結果システムはどうなるかなどを知ることなので,条件表現における動作主の決定が不可欠である.従って,本稿では,マニュアルの操作手順に現れる条件表現についてその語用論的制約を定式化し,主に主語に対応するゼロ代名詞の指示対象同定に応用することについて述べる.もちろん,本稿で提案する制約だけでゼロ代名詞の指示対象同定問題が全て解決するわけではないが,条件表現が使われている文においては有力な制約となることが多くのマニュアル文を分析した結果分かった.さて,本稿で問題にするのは,操作手順を記述する文であり,多くの場合主語は動作の主体すなわち動作主である.ただし,無意志の動作や,状態を記述している文あるいは節もあるので,ここでは,動作主の代わりに\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」という概念を用いる.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが非常に大雑把に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.以下,第2節では,マニュアル文に現れる対象物と,依頼勧誘表現,可能義務表現が使用される場合に言語学的に導かれる制約について記す.第3節では,マニュアル文において条件表現が使用される場合に,言語学的に導かれる制約を説明し,さらに実際のマニュアル文において,その制約がどの程度成立しているかを示す.第4節は,まとめである. \section{マニュアル文における基本的制約} マニュアルを構成する最も基本的なオブジェクトおよびその言語的な役割は大別すると次のようになる.\begin{description}\item[制約1]マニュアル文における言語的役割に対応するオブジェクト\item[話し手]メーカー(マニュアルライター)である.意図を持つ.\item[聞き手]マニュアルの読み手である利用者になる.意図を持つ.\item[第三者]装置やシステムの全体もしくは一部を表す.通常は,意図的動作を行なわず,メーカー,利用者により制御される.またすべての動きがメーカーに把握されている.ただし,非常に知的なマシンの場合には,意図を持ち得る.\end{description}これらを考慮するとマニュアル文で用いられる人称は次のようになる.\begin{description}\item[制約2]人称\item[一人称]メーカー\item[二人称]利用者\item[三人称]システム\end{description}次に,基本的な表現形式についての考察をする.マニュアルの基本的な構成は説明の仕方の説明,操作手順の説明,アフターサービスに関する説明等からなる.これら各々の文脈に現われる文は性質が異なる.操作手順の説明では,話し手の動作は既に完了しているが,説明の仕方の説明,アフターサービスに関する説明では,その限りではない.そこで,以下の考察では,マニュアルの主要部である操作手順の説明に現れる場合を考える.まず,依頼文について考える.例えば,\enumsentence{「ここで設定したホスト名は,NCDXサーバで発生するNFSの要求に内部的に使用されることに留意して下さい.」\cite[p.3-29]{NCDw}}のように,マニュアル文での依頼対象は人称の制約(制約2)から利用者となる.従って次の制約が得られる.\begin{description}\item[制約3]依頼勧誘表現\end{description}\begin{quote}依頼,勧誘表現の文において依頼ないしは勧誘されて動作などを行なう{\dg主}は,利用者である.\end{quote}また,マニュアルにはある動作に関する許可,可能,義務などの状態を表現するモダリティがしばしば現われる.ここでは,可能表現と義務表現について考える.可能表現の例文を示す.\enumsentence{\label{kanou}「この設定により,Telnetで接続する場合にTelnetホスト名の入力を省略できます.」\cite[p.3-33]{NCDw}}可能表現を持つ文は,ある動作をすることが可能であることを示すとともに,その動作を行なうことに関して,{\dg主}に選択権があることを示す.また,義務表現を持つ文は,{\dg主}がある動作をしなければならないことを示しているが,これは,{\dg主}には選択の余地があり,その動作を行なわない可能性があるからである.よって,次の制約が得られる.\begin{description}\item[制約4]可能表現,義務表現における{\dg主}\end{description}\begin{quote}可能表現,義務表現の文の{\dg主}は何らかの意味でその選択を行なうための意図を持ち得なければならない.マニュアルが読まれている時点では操作に関するメーカの動作は終了しているとすれば,{\dg主}はメーカにはなり得ないので,利用者となる.\end{quote}これより,(\ref{kanou})の場合「省略する」動作を行なうのが利用者であることが得られる. \section{条件表現の{\dg主}に関する制約} 日本語の条件表現には,「れば」,「たら」,「なら」,「と」があり,これらの形式を特徴づける基本的性格は異なっている\cite{masu}.それぞれの基本的な特徴をまとめると表\ref{kihon}のようになる.\begin{table}[htbp]\begin{center}\caption{条件表現の基本的特徴}\label{kihon}\begin{tabular}{|c|l|}\hline形式&基本的特徴\\\hline\hline「と」&現実に観察される継起的な事態の表現\\\hline「れば」&一般的因果関係の表現\\\hline「たら」&時空間に実現する個別事態の表現\\\hline「なら」&ある事態を真であると仮定して提示する表現\\\hline\end{tabular}\end{center}\end{table}このうち,我々が調べた範囲で見ると,マニュアル文では「たら」,「なら」はあまり用いられていなかった.また,「れば」に比べて,「と」の出現頻度が高かった.以下の節ではそれぞれの場合について考察する.\subsection{「と」文の{\dg主}制約}まず,\cite{kuno}によると,接続助詞「と」について,前件は先行条件を表し,後件は,その当然の結果,習慣的な結果,或いは不可避な結果を表すとある.また,\cite{masu}によると,「と」が未然の事態を表す場合,後件の事態が前件の事態に連動して起こるという意味において前件と後件の二つの事態が一体の事態であることが強調されている.このような性質から,「と」の後件は,命令・要求・決意を表せないとされる.よって,後件には基本的に事実の叙述や判断,推量の表現のみが許される.また,基本的にはマニュアル文では確実な物事のみを述べるものであり,物事の不確実さを表すような話し手の態度,特に判断,推量の表現は現れにくい.したがって,事実叙述のみが後件に現われると考えられる.事実叙述として現われ得るのは,ある動作の記述と,許可表現などによる何らかの動作に関連する状態記述である.動作の記述を考える際に重要となるのが動詞の意志性,無意志性の問題である.動詞の意志に関する分類として,\cite{ipa}の分類に基づくと,{\dg主}が意図的に行ないうる動作を表す意志動詞と,{\dg主}による意図的な動作を表さない無意志動詞とがある.動詞の命令形が命令を表し,意志・推量形が意志・勧誘を表すものが,意志動詞であり,命令形が願望を表したり,意志・推量形が推量を表すのが無意志動詞である.無意志動詞は,無意志用法のみであるが,意志動詞は,意志用法のみのものと,意志用法,無意志用法の両方に使えるものの2種類がある.無意志動詞としては,「痛む」,無意志用法もある意志動詞としては,「落す」,意志用法のみの意志動詞としては,「捜す」などがある.まず,意志用法の動詞が後件で使われる場合を考える.「と」文の後件には,先に述べたように依頼,勧誘表現は存在しない.そのため,動作手順の説明では,動詞の基本形つまり「る形」\cite{井上}が用いられることがほとんどである.「る形」で動作主が聞き手の場合,実質的に依頼表現になる.従って,「と」文では後件で依頼を表現できないため,{\dg主}は聞き手にはなり得ない.また,「と」文では,先に述べたように決意を表すことができない.「る形」で{\dg主}が話し手の場合意志を表すが,この用法も「と」文では存在しないため{\dg主}は話し手にはならない.{\dg主}が第三者の場合,「る形」では,依頼,意志等を表さないので,「と」文の性質には抵触しない.したがって,人称に関する制約より第三者であるシステムが後件の{\dg主}となる.例えば,\enumsentence{\label{tobun}「取消キーを押すと,文書作成画面に戻ります.」\cite{OAS}}において,「文書作成画面に戻る」のはシステムである.無意志用法の場合は,「る形」が意志,命令,依頼等を表さないので,意志用法の場合と異なる振舞いをする.例えば,「触れると,感電します.」の後件の{\dg主}は利用者になる.また,可能態の文のように状態記述の場合は,意志,命令,依頼を表さない.状態記述には意志用法/無意志用法の概念は無いが,これを無意志用法しかないと見倣せば,「と」に関する制約は次のようになる.\begin{description}\item[制約5]「と」文の後件の{\dg主}制約\end{description}\begin{quote}接続助詞「と」による複文構造において,後件の述部が無意志用法を持たず非過去の場合には,その{\dg主}は3人称になる.\end{quote}この制約の検証のために,接続助詞「と」が用いられているマニュアル文例を約400例ほどを集め,2節における主要な結果である制約4,および言語学的考察においてはそれに関連している制約5について調べた.その結果,調べた範囲では,これらの制約に違反する文はなく,制約の妥当性が確認された.\subsection{「れば」,「たら」,「なら」の使用例についての考察}ここでは,「と」以外の条件表現である「れば」,「たら」,「なら」のマニュアル文での使われ方について考察する.「なら」は用例が少ないので,特に,「れば」と「たら」の使い分けについて述べる.まず,\cite{masu}による「れば」「たら」「なら」の意味を列挙しよう.\begin{description}\item[「れば」]の基本的特徴は,時間を越えて成り立つ普遍的因果関係を表すことにある.また,状態表現は,動作の表現に比べ仮定的な表現になりやすい.\item[「たら」]に関しては,1)時間の経過にともなって実現することが予想される事態を表すものと,2)実現するかどうかが定かではないような事態が実現したことを仮定し,それにともなってどのような事態が実現するかを表現するもの,とがある.\item[「なら」]については,後件に表現の重点があり,前件を真と仮定して,その想定のもとで,後件で判断や態度の表明が行なわれるため,典型的な仮定表現である.また,「れば」,「たら」に比べて前件と後件のつながりが弱い.\end{description}ここで述べた各接続助詞の意味からすぐに分かることは,条件節すなわち前件で「れば」「たら」「なら」が使われる場合,主節すなわち後件において依頼表現の可能かどうかである.まず,普遍的な因果関係が記述される場合は,後件は前件の発生にともなって必然的に生じる結果であるから,原理的には話し手自身がその結果に対して持つ意見が介入する余地がない.依頼は話し手自身の持つ主観的なものであるから,後件に依頼はこない.「れば」が普遍的因果性を表すということは,「れば」の後件には基本的には依頼表現が現れないことを意味する.ただし,前件が状態表現の場合は仮定的になる,とあることから,その場合は後件に依頼表現が現れる可能性がある.次に仮定を表すとされる「たら」「なら」の場合について考えてみる.前件すなわち条件節で仮定が表現される場合は次のように考えられる.すなわち,仮定した人物は話し手である.話し手は,この仮定された状況において起こりそうなことやあるべき動作などを後件すなわち主節で記述する.つまり,後件は話し手の願望や予想が記述されている.このことは,仮定法一般に言えることである.したがって,後件で話し手の願望とみなせる依頼が現れることは可能性が高い,と言える.まとめると,「たら」「なら」は基本的には仮定を表すから,後件では依頼表現が現れる可能性が高いことになる.このことを実例で見てみよう.まず,「れば」と同じように因果性を記述する「と」では,実例を調べた結果,主節で依頼表現は現れなかった.後に示す実例文の分析でも「れば」接続の文で主節が依頼表現のものは非常に少ない.ただし,「れば」では,前件が状態の場合には後件で依頼が可能であり,それに該当する例として次のものがある.\enumsentence{\label{iraireba}「ウィンドウを見る必要がなければ,ウィンドウをリサイズ・コーナを使用して小さくするのではなくアイコンにして下さい.」\cite[p.63]{desk}}この文の前件は,状態を表しているので,上で述べたように主節で依頼表現が現れていると考えられる.(\ref{iraireba})の「なければ」を「なかったら」や「ないなら」に代えた文を考えてみれば分かるように,「たら」,「なら」も同様に依頼を表すことができるのことも,上の説明から予想されることである.これは,ごく大雑把な傾向であるが,もう少し詳しく,「れば」「たら」「なら」の使い分けを考えるために,主節つまり後件を次のような観点から分類する.まず,操作手順の説明の場合と限定しているので,メーカーの動作は完了していると考えられる.従って,{\dg主}となりうるオブジェクトは利用者とシステムである.そして,「と」と同様に意志性/無意志性の観点から,意志用法であるものを動作,無意志用法であるものを状態と2つに分ける.さらに,完了などの相表現,可能表現,形容詞,形容動詞など本質的に状態であるものも状態に分類している.本稿で調べた範囲ではこの分類で状態であることを認識できたが,その他の状態と認識されうる表現が存在する可能性はあり,その際には状態を表示する表現について追加が必要になる.現状では,この分類より,可能な{\dg主}と動作$\cdot$状態の組合せは,次の4つになる.\begin{itemize}\item利用者の動作\item利用者の状態\itemシステムの動作\itemシステムの状態\end{itemize}この4つの状態をそれぞれの接続助詞で接続すると各々16通りの接続が考えられる.以下では,この分類に従って,「れば」,「たら」,「なら」を前件及び後件の性質により分類し考察する.表\ref{bunruireba}に「れば」の分類,表\ref{bunruitara}に「たら」の分類,「なら」は例文数が少ないが参考までに表\ref{bunruinara}に「なら」の分類を示す.\newcommand{\maintab}{}\newcommand{\subtab}{}\begin{table*}[btp]\caption{「れば」の分類表}\label{bunruireba}\begin{center}\begin{tabular}{|@{}c@{}|@{}c@{}|}\hline&後\hspace{3zw}件\\\subtab&\maintab\\\hline\end{tabular}\end{center}\end{table*}\newcommand{\Maintab}{}\newcommand{\Subtab}{}\begin{table*}[btp]\caption{「たら」の分類表}\label{bunruitara}\begin{center}\begin{tabular}{|@{}c@{}|@{}c@{}|}\hline&後\hspace{3zw}件\\\Subtab&\Maintab\\\hline\end{tabular}\end{center}\end{table*}\newcommand{\MainTab}{}\newcommand{\SubTab}{}\begin{table*}[btp]\caption{「なら」の分類表}\label{bunruinara}\begin{center}\begin{tabular}{|@{}c@{}|@{}c@{}|}\hline&後\hspace{3zw}件\\\SubTab&\MainTab\\\hline\end{tabular}\end{center}\end{table*}これらの基本的特徴に,マニュアルで用いられる文であるということを勘案して,表\ref{bunruireba},表\ref{bunruitara},表\ref{bunruinara}について各々検討していく.まず,全体を概観すると,「れば」と「たら」,「なら」とでは,使用傾向が大きく違うことが分る.「れば」では後件が利用者の動作になりにくく,逆に「たら」,「なら」では「れば」とは相補的に後件が利用者の動作になりやすい.また,全般的に,前件がシステムの動作である文が非常に少ない.このことの理由は,現在のシステムのほとんどが,利用者の働きかけにより何か他の動作を行なったりある状態に移行したりするからであると考えられる.前件がシステムの状態である文でも,そのシステム状態は利用者の動作に起因するものであるというタイプが多い.「れば」文の場合,前件が利用者の動作である文が多い.これは,「れば」文の基本的性質である因果関係は,動作の方が表しやすいためと考えられる.さらに,前件がシステムの状態である文も,そのシステム状態は利用者によって引き起こされた結果であるという文が多い.この理由は,動作的側面を残しているため,上記の場合と同様の理由で「れば」で表しやすいからであろう.以下では,接続の種類により差が明確に出た後件の性質の分類に基づき考察していく.\subsubsection{後件が利用者の動作である文について}ここでは,後件が利用者の動作になるタイプについて考察する.この分類になる割合は,「れば」の場合約5\%,「たら」の場合約90\%,「なら」の場合,文例が少ないが100\%である.まず,これらの接続助詞で接続される文では,後件に利用者の動作をとることができるという点で,「と」文と根本的に異なる.後件が利用者の動作である場合,すなわち,利用者が{\dg主}である場合は,ある種の依頼を表す.なお,マニュアル文において,前件が$\alpha$,後件が$\beta$であるこ\\とを「$\alpha\rightarrow\beta$」と表記する.ただし,$\alpha,\beta$は,「(利用者ないしはシステム)の(動作ないしは状態)」を表す。利用者でもシステムでもよいときは,単に動作,あるいは状態と書く.\begin{enumerate}\item{\bf動作$\rightarrow$利用者の動作について}\label{act-usract}\\「れば」1例,「たら」33例まず,前件が利用者の動作である「れば」の文はほとんどない.そこで頻度の高い「たら」の文を無理に「れば」文に変えた次の文について考えてみよう.\enumsentence{\label{debag}「そのモジュールのデバッグが終了すれば,指定のファイルに書き込んで下さい.」\\ただし,原文は(シャープ株式会社,p.108)であり、「終了すれば,」が「終了したら,」となっている.}この文は,少なくとも筆者らには「終了すれば」ではなく「終了したら」とする方が自然である.その理由は,「れば」の基本的性質は,因果関係を表すからである.もう少し詳しく言うと,基本的に利用者に行動の選択権があるマニュアル文において,二つの利用者の動作が何らかの必然的な因果関係を持っているとは考えにくいからである.一方,「たら」では仮定的表現と時間的経過の性質が反映される.前件が利用者の動作の場合は時間の経過に沿って,前件がシステムの動作の場合は仮定的な事態の発生によって,利用者にある動作を促していると考えられる.従って,「動作$\rightarrow$利用者の動作」では「たら」を使うのが適当であろう.前件がシステムの動作となる「たら」例をあげる.\enumsentence{\label{ijou}「使用中に機器が停止したら安全装置が作動してないか調べて下さい.」(リンナイ株式会社,p.31)}\item{\bf利用者の状態$\rightarrow$利用者の動作について}\label{st-usract}\\「れば」4例,「たら」7例,「なら」8例\\先に例示した(\ref{iraireba})が「れば」の例である.「れば」接続の文(\ref{iraireba})については既に述べた通りである.これまた,既に述べたような「たら」「なら」文の主節に依頼表現がくる例を以下に示しておく.\enumsentence{\label{iraitara}「縫いおわったら,布をひろげます.」(蛇の目ミシン工業株式会社)}「なら」の場合,次の例の「必要なら」など出現の仕方がほぼ決まっている.\enumsentence{\label{irainara}「必要なら,ボーレート,パリティ,フロー制御,データ長及びストップビット数の設定を変更して下さい.」\cite[p.58]{LASER}}\item{\bfシステムの状態$\rightarrow$利用者の動作について}\label{sysst-usract}\\「れば」6例,「たら」13例,「なら」1例\\この型については,「れば」も「たら」も文例が存在しているが性質は大きく異なる.「なら」は用例が少ないのでここでは省略する.「たら」は今までと同様に,時間的推移や仮定を表している.一方,「れば」の場合は異なる.この分類に出てくる表現は次のように異常に関する処置についてである.\enumsentence{\label{shochi}「それでもエラーが出るようであれば,``A''を押して処理を中止しMS-DOSにもどり,前項「重要なエラーメッセージ」の処置を試みます.」\cite[p.167]{DOS}}異常とその処置の対応がはっきりしている場合,表現の因果性を強くして利用者に処置の仕方を表すために「れば」を用いる傾向があると考えられる.\end{enumerate}後件が利用者の動作となる文についてみてきたがまとめると次のようになる.\begin{itemize}\item「れば」の場合,後件に利用者の動作が来ること自体が特殊で,もし来たとしても前件が状態の方が自然である.\item「たら」の場合は,前件には束縛されない.\end{itemize}\subsubsection{後件がシステムの動作である文について}後件がシステムの動作,すなわち,後件の{\dg主}がシステムである文では,「れば」の使用頻度が非常に高い.全体としてこの分類になる割合は,「れば」では約45\%,「たら」では約3\%,「なら」はなしである.よって,ここからの考察は主として「れば」についておこなう.\def\labelenumi{}\def\theenumi{}\begin{enumerate}\item{\bf動作$\rightarrow$システムの動作について}\label{act-sysact}\\「れば」53例,「たら」0例\\前件の{\dg主}が利用者の場合,利用者の動作の結果としてシステムが何かの動作を行なうという文となり,「れば」の基本的性質と一致する.一方,システムの動作からシステムの動作は利用者にとって直接関係ない情報であると考えられる.そのため,前件の{\dg主}がシステムの場合の文例が少ないと考えられる.一方,「たら」,「なら」は因果関係を表さないため,ここでは使われないと考えられる.\item{\bfシステムの状態$\rightarrow$システムの動作について}\label{sysst-sysact}\\「れば」38例,「たら」2例\\この分類でよく用いられている用法は,システムがある状態であると自動的に次の動作にシステムが移るというものである.システムの状態が利用者の操作の結果であれば,利用者の動作の結果として,システムがある動作を起こすという意味になるので,「れば」で表現しやすい.\item{\bf利用者の状態$\rightarrow$システムの動作について}\label{usrst-sysact}\\「れば」1例,「たら」0例\\利用者の状態を察知してシステムが何か動作を起こすような文である.これは,本来システムが知的であるか利用者の状態を検知するセンサー機能を有する場合に現れると考えられる.現在のところ,この意味での文例は見つかっていない.しかし,現在行なっている表層表現による分類では次の文がここに該当してしまう.\enumsentence{\label{chau}「TRANSPORTでDECnetを選択するのであれば,NODEはDECnetnodeになります.」\cite[p.4-25]{NCDw}}意味的には(\ref{chau})は,NODEの利用者に対する選択肢がDECnetnodeだけであるということを表すのでこの分類には実際には対応しない.\end{enumerate}以上,後件がシステムの動作である文について見てきたが,まとめると,現在のシステムの動作は,利用者の動作の結果としての動作,システム内での動作という2通りがあり,いずれも,システムの動作は因果関係があるために「れば」で表現される.\subsubsection{後件が状態である文について}後件が状態である文では,「れば」の使用頻度が非常に高い.全体としてこの分類になる割合は,「れば」では約48\%,「たら」では約7\%,「なら」はなしである.よって,ここからの考察は主として「れば」についておこなう.後件の状態は利用者の状態とシステムの状態の2種類あるが,後件がシステムの状態である文は非常に少ない.一方,後件が利用者の状態である文例は非常に多く,これについて見るとほとんどが可能態の「〜できる」という形になっている.これは,マニュアル文では,話し手の視点はもっぱら聞き手である利用者に合わせているため,システムの状態は利用者の状態と一体化させて書かれていることが多いためであると考えられる.すなわち,システムの状態の多くは,利用者にとって「なにかすることができる」という選択権があることを示すために,利用者の状態の表現をとっていると考えられる.そのため,状態の分類について後件が利用者の状態である文は多く,システムの状態である文は少ないことが説明できる.以下,各々の場合を考察する.\def\labelenumi{}\def\theenumi{}\begin{enumerate}\item{\bf後件が利用者の状態のとき}\label{-usrst}\\「れば」97例,「たら」3例\\先に述べたように後件の利用者の状態は「〜できる」という形が多い.前件が利用者の動作の場合,利用者の動作の帰結として利用者の状態,特に可能状態になるので,因果関係が成立していると考えられる.そのため,「れば」が用いられていると考えられる.前件がシステムの状態である場合,システムのある状態から予想される利用者の特定の状態への推移を表す.したがって,因果関係を表す「れば」を用いると考えられる.前件が利用者の状態である場合,その状態で利用者にできる動作を示す.既に述べたように前件が状態だと,「れば」の持つ普遍的因果性の意味会いが薄まるため,「れば」が用いられる.また,「たら」についても,利用者のある状態を仮定するとあることができるので,使用可能である.前件がシステムの動作の場合,調べた範囲では「れば」は見つからなかった.前件が動作であれば,「れば」は因果関係を表す.利用者の可能状態とは,マニュアルの書き手すなわち話し手の利用者すなわち聞き手への態度であり,「れば」の因果関係の意味と相容れないのが「れば」文がない理由であろう.「たら」では,システムの動作が終了したあと利用者がある状態になるということを表現しており,「たら」の時間的経過の性質を反映している.いずれの場合も,制約4により,可能態の{\dg主}は意図を持ちうる利用者となる.\item{\bf後件がシステムの状態のとき}\label{-sysst}\\「れば」25例,「たら」0例\\先に述べたように,後件がシステムの状態である文は,状態を利用者と一体化させて記述するため総じて少ない.前件が利用者の動作の場合,利用者の動作によりシステムがある状態になるという文になるので,因果関係が生じ「れば」が用いられる.前件がシステムの動作である場合,システムのとった動作の結果として,システムがある状態になるということで,「れば」の基本的性質に反しない.また,システムの動作が時間的に終ったあとで,システムのある状態になるということで,「たら」の性質にも反しない.前件がシステムの状態である場合,システムの状態からシステムの状態への関連を表すが,これについては,利用者は直接関与できないと考えられる.後件におけるシステムの状態が利用者の状態に直接結び付いていない限り,この表現は使われないと考えられる.前件が利用者の状態である場合は特殊で,\ref{usrst-sysact}と同様システムのあり方に依存し,システムが知的であるか,利用者の状態を察知するセンサー機能を有する場合に限られると考えられる.実際,システムの状態は,利用者の状態と一致させて記述されることが多く,文例は見つかってはいない.\end{enumerate}いずれの場合も,後件の{\dg主}は,システムになると考えられる.後件が状態の場合,「れば」が用いられやすい理由としては,マニュアル文では,物事を確定的に記述する傾向があるためと考えられる.一方,「たら」は基本的には仮定の事態ないしは時間経過を表すために用いられる.時間経過を表現したい場合は,後件が状態であるため時間経過を表現することにはなりにくいことが,使用例が少ない原因のひとつであろう.また,仮定法の場合,後件が確定的状態になりにくいことも,「たら」が使われない理由のひとつであろう.後件が状態である文についてみてきたがまとめると,利用者の状態とシステムの状態は一体化されて記述され,そのため,利用者に選択権を持たせる「〜できる」という表現を用いる傾向がある.そして,利用者の選択権は,状況により必然的に生じるものであるという理由で「れば」が多く用いられていると考えられる.\subsection{デフォールト規則}今までの考察から,「れば」,「たら」,「なら」についてのマニュアルにおける使用方法に関する傾向が得られた.特に,{\dg主}に注目すると文型と強い相関があることがわかる.そこで次のデフォールト規則を立てることができる.まず,「れば」については,「と」とほぼ同様の分布になるので以下のようになる.\begin{description}\item[デフォールト規則1]「れば」文の後件の{\dg主}制約\end{description}\begin{quote}接続助詞「れば」による複文構造において,後件は利用者の意志的動作を表さない.つまり,後件の述部が無意志用法を持たない場合には,その{\dg主}はシステムになる.\end{quote}「たら」,「なら」については,これと相補的な分布をしているので,以下のようになる.\begin{description}\item[デフォールト規則2]「たら」「なら」文の後件の{\dg主}制約\end{description}\begin{quote}接続助詞「たら」,「なら」による複文構造において,後件は利用者の動作しか表さない.つまり,後件の{\dg主}は利用者である.\end{quote}前出の分布表から上記のデフォールト規則の予測の正しさを調べてみると,「れば」に関するデフォールト規則1は95.1\%,デフォールト規則2は「たら」に対して89.8\%,「なら」に対しては,文例が少ないものの,100\%満足されている.よって,これらのデフォールト規則は十分妥当性を持っていると考えられる.もちろん,3.2節での分析に従った,よりきめの細かいデフォールト規則も可能だが,紙面の都合で,ここでは省略する. \section{おわりに} マニュアル文に現われる条件表現「と」,「れば」,「たら」,「なら」について言語学的,実証的考察を行ない,その性質について述べた.また,その性質から,各条件表現の後件の{\dg主}について,制約ならびにデフォールト規則を提案し,十分妥当性を持つことを検証した.これらの制約やデフォールト規則を利用することにより,マニュアル文から知識獲得に必要不可欠なゼロ代名詞の照応候補の絞り込みなどを効率よく行なえると期待される.また,本稿で扱った条件表現は二つの単文が接続されたものであったが,複文が前件もしくは後件に含まれる場合も数は少ないが存在する.このような場合に関しても考察する必要があろう.\bibliographystyle{jtheapa}\bibliography{jpaper}\renewcommand{\refname}{}\makeatletter\@ifundefined{nop}{\def\nop#1{}}{}\makeatother\begin{thebibliography}{}\bibitem[\protect\BCAY{{Canon,Inc.}}{{Canon,Inc.}}{1993}]{LASER}{Canon,Inc.}\BBOP1993\BBCP.\newblock\Jem{LASERSHOTA404PS/A404PS-Lite操作説明書}.\bibitem[\protect\BCAY{{NetworkComputingDevices,Inc.}}{{NetworkComputingDevices,Inc.}}{1992}]{NCDw}{NetworkComputingDevices,Inc.}\BBOP1992\BBCP.\newblock{\BemNCDware2.4XServerUser'sManual}.\bibitem[\protect\BCAY{日本電気株式会社}{日本電気株式会社}{1990}]{DOS}日本電気株式会社\BBOP1990\BBCP.\newblock\Jem{MS-DOS$^{\mbox{{\smallTM}}}$3.3Cユーザーズガイド}.\bibitem[\protect\BCAY{{SunMicrosystems,Inc.}}{{SunMicrosystems,Inc.}}{1992}]{desk}{SunMicrosystems,Inc.}\BBOP1992\BBCP.\newblock\Jem{Desktopシステム・ユーザ・ガイド}.\bibitem[\protect\BCAY{ハイテクノロジーコミュニケーションズ(株)}{ハイテクノロジーコミュニケーションズ(株)}{1988}]{OAS}ハイテクノロジーコミュニケーションズ(株)\BBOP1988\BBCP.\newblock\Jem{OASYSLiteF・ROM11/11D操作マニュアル}.\bibitem[\protect\BCAY{シャープ株式会社}{シャープ株式会社}{}]{pocket}シャープ株式会社.\newblock\Jem{ポケットコンピュータPC-1490UII取扱説明書}.\bibitem[\protect\BCAY{リンナイ株式会社}{リンナイ株式会社}{}]{heater}リンナイ株式会社.\newblock\Jem{ガスファンヒーター取扱説明書}.\bibitem[\protect\BCAY{蛇の目ミシン工業株式会社}{蛇の目ミシン工業株式会社}{}]{sew}蛇の目ミシン工業株式会社.\newblock\Jem{JE-2000使い方の手引き}.\end{thebibliography}など16冊.\begin{biography}\biotitle{略歴}\bioauthor{森辰則}{1986年横浜国立大学工学部卒業.1991年同大大学院工学研究科博士課程修了.工学博士.1991年より横浜国立大学工学部勤務.現在,同助教授.計算言語学,自然言語処理システムの研究に従事.情報処理学会,人工知能学会,日本認知科学会,日本ソフトウェア科学会各会員.}\bioauthor{龍野弘幸}{1971年生.1994年横浜国立大学工学部卒業.現在同大大学院工学研究科在籍}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士過程修了.工学博士.現在横浜国立大学工学部電子情報工学科教授.自然言語処理,日本語の意味論・語用論などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V05N04-03
\section{はじめに} label{はじめに}\subsection{複合名詞解析とは}\label{複合名詞解析とは}複合名詞とは,名詞の列であって,全体で文法的に一つの名詞として振る舞うものを指す.そして,複合名詞解析とは,複合名詞を構成する名詞の間の依存関係を尤度の高い順に導出することである.複合名詞は情報をコンパクトに伝達できるため重要な役割を果たしており,簡潔な表現が要求される新聞記事等ではとりわけ多用される.そして,記事中の重要語から構成される複合名詞は,記事内容を凝縮することさえ可能である.例えば,「改正大店法施行」という見出しは,「改正された大店法(=大規模小売店舗法)が施行される」ことを述べた記事の内容を一つの名詞に縮約したものである.そして,このことを理解するためには,{大店法,改正,施行}が掛かり受けの構成要素となる単位であることと,これら3単語間に[[大店法改正]施行]という依存関係があることを理解する必要がある.複合名詞解析の確立は,機械翻訳のみでなく,インデキシングやフィルタリングを通して,情報抽出・情報検索等の高度化に貢献することが期待される.\subsection{従来の手法}\label{従来の手法}日本語の複合名詞解析の枠組みは,基本的に,\begin{itemize}\item[(1)]入力された文字列を形態素解析により構成単語列に分解する.\item[(2)]構成単語列間の可能な依存構造の中から尤度の高いものを選択する.\end{itemize}の二つの過程からなり,この限りでは通常の掛かり受け解析と同一である.異なる点は,品詞情報だけでは解析の手がかりとならないため,品詞以外の情報を利用せざるを得ない点である.品詞以外の手がかりを導入する方法としては,まず人手により記述したルールを主体とする手法が用いられ,大規模なコーパスが利用可能になるにつれ,コーパスから自動的に抽出した知識を利用する手法が主流となってきた.第一の段階である語分割の過程は,通常の形態素解析の一環でもあるが,特に複合名詞の分割を意識して行われたものとして,長尾らの研究\cite{長尾1978}がある.そこでは,各漢字の接頭辞・接尾辞らしさを利用したルールに基づく複合名詞の分割法が提案され\breakており,例えば長さ8の複合名詞の分割精度は84.9\%と報告されている.複合名詞の構造決定に\breakついては述べられていないが,長さ3,4,5,6の複合名詞について深さ2までの構造が人手で調べられている.それによれば,調べられた240個の長さ5の複合名詞については接辞を含んだ構\break造が完全に示されており,その59\%は左分岐構造をとっている.その後宮崎により、数詞の処理,固有名詞処理,動詞の格パターンと名詞の意味を用いた掛かり受け判定等に関する14種類のルールを導入する等、ルールを精緻化し,更に,「分割数が少なく掛かり受け数が多い分割ほど優先する」等のヒューリスティクスを導入することにより,未登録語が無いという条件の下で,99.8\%の精度で複合語の分割を行う手法が提案された\cite{宮崎1984}.コーパスに基づく統計的な手法では,分かち書きの一般的な手法として確率文節文法に基づく形態素解析が提案され\cite{松延1986},ついで漢字複合語の分割に特化して,短単\break位造語モデル(漢字複合語の基本単位を,長さ2の語基の前後に長さ1の接頭辞・接尾辞がそれ\breakぞれ0個以上連接したものとする)と呼ばれるマルコフモデルに基づく漢字複合語分割手法が提案された\cite{武田1987}.確率パラメータは,技術論文の抄録から抽出した長さ2,3,4の連続漢字列を用いて繰り返し法により推定し,頻出語について正解パターンを与える等の改良により,97\%の分割精度を達成している(全体の平均文字長は不明).次の段階である分割された単語の間の掛かり受けの解析についても,ルールに基づく枠組みと,コーパスに基づく枠組み双方で研究されてきた.前者の枠組みとして,宮崎は語分割に関する研究を発展させ,掛かり受けルールの拡充とこれらの適用順序の考慮により,限定された領域については,未知語を含まない平均語基数3.4の複合名詞167個について94.6\%の精度を達成している\cite{宮崎1993}.なお,英語圏でのルールに基づく研究としてはFinin\cite{Finin1980},McDonald\cite{McDonald1982},Isabelle\cite{Isabelle1984}等の研究があるが,シソーラス等の知識に基づくルールを用いる点は同様である.ルールに基づく手法の利点は,対象領域を特化した場合,人手による精密なルールの記述が可能となるため,高精度な解析が可能になることである.しかし,ルール作成・維持にコストがかかることと,一般に移植性に劣る点で,大規模で開いたテキストの取り扱いには向かないといえる.コーパスに基づく手法では,人手によるルール作成・メンテナンスのコストは削減できるが,名詞間の共起のしやすさを評価するために,単語間の共起情報を獲得する必要がある.しかし,共起情報の信頼性と獲得量が両立するデータ獲得手法の実現は容易ではなく,さまざまな研究が行われている.一般には,共起情報を抽出する対象として,何らかの固定したトレーニングコーパスを用意し,適当な共起条件に基づいて自動的に名詞対を取り出す.そのままでは一般に名詞対のデータが不足するので,観測されない名詞対の掛かり受け尤度を仮想的に得るため,名詞をシソーラス上の概念や,共起解析により自動的に生成したクラスタに写像し,観測された名詞間の共起を,そのようなクラス間共起として評価する.例えば,西野は共起単語ベクトルを用いて名詞をクラスタリングし,名詞間の掛かり受けの尤度をクラス間の掛かり受け尤度として捉えた\cite{西野1988}.小林は分類語彙表\cite{林1966}中の概念を利用して,名詞間の掛かり受けの尤度を概念間の掛かり受け尤度により評価した\cite{小林1996}.これらを掛かり受け解析に適用するためには,一般に,複合名詞の掛かり受け構造を二分木で記述し,統計的に求めた名詞間の掛かり受けのしやすさを,掛かり受け構造の各分岐における主辞間の掛かり受けのしやすさとみなし,それらの積算によって掛かり受け構造全体の確からしさを評価する手法が取られる.西野の手法では,平均4.2文字の複合名詞について73.6\%の精度で正しい掛かり受け構造が特定できたと報告されている.小林は,名詞間の距離に関するヒューリスティクスと併用することにより,シソーラス未登録語を含まない,例えば長さ6文字の複合名詞について,73\%の解析精度を得ている.なお英語圏では,Lauerが小林とほとんど同じ枠組みで3語からなる複合名詞解析の研究を行っており\cite{Lauer1995},Rogetのシソーラス(1911年版)を用いて,Gloria'sencyclopediaに出現する,シソーラス未登録語を含まない3語よりなる複合名詞について,81\%の解析精度を得ている.(ただし,小林,Lauerとも,概念間の共起尤度に加え,主辞間の距離や左分岐構造を優先するヒューリスティクスを併用している).以上を総括すると,従来のコーパスに基づく複合名詞解析の枠組みは,固定したトレーニングコーパスを用い,クラス間共起という形で間接的に名詞の共起情報を抽出することにより,掛かり受け構造の推定を行っていたといえる.この場合に生じる問題は,クラスへの所属が不明な単語を扱うことができないことである.例えば新聞記事のような開いたデータを扱う場合には,形態素解析辞書への未登録単語が頻出するばかりでなく(この場合,形態素解析の段階で誤りが発生するため,正解は得られない),形態素解析辞書へ登録されていてもシソーラスに登録されていない単語が出現する可能性があり,解析の際には問題となる.実際,我々が実験に用いた400個の複合名詞中,形態素解析用の辞書または分類語彙表に登録されていない単語を含むものは120個に上った(うち形態素解析辞書未登録語は48個).未登録語の問題は,未登録語の語境界,品詞,所属クラスを正しく推定することができれば解決可能であるが,現時点では,これらについて確立した手法は無い.特に,語の所属クラス推定のためには,与えられたコーパス中でのその語の出現環境を得ることが必要となるため,なんらかの形でコンテクストの参照が必要となる.すなわち,あらかじめ固定したデータのみを用いて解析を行う枠組みでは,開いたコーパスを扱うには限界がある.\subsection{本論文の目的}\label{本論文の目的}本論文では,「あらかじめ固定されたデータのみを用いて解析する」という従来の枠組に対して,「必要な情報をオン・デマンドで対象コーパスから取得しながら解析する」という枠組を提唱し,その枠組における複合名詞解析の能力を検証する.文字インデキシングされた大規模なコーパスを主記憶内に置くことが仮想的ではない現在,本論文で提示する枠組には検討の価値があると考える.十分な大きさのコーパスの任意の場所を参照できれば,複合名詞に含まれる辞書未登録語の発見や,それらを含めた複合名詞を構成する諸単語に関する,様々な共起情報が取得できると思われるが,実際に我々は,テンプレートを用いたパターン照合によりこれらが実現できることを示す.このような手法においては,未登録語の発見はパターン照合の問題へ統合されるうえ,発見された未登録語の共起情報を文字列のレベルで直接参照するため,クラス推定の問題も生じない.データスパースネスの問題については,テンプレートの拡充による共起情報抽出能力の強化と,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に,それらをできるだけ尊重して掛かり受け構造を選択するためのヒューリスティクスを整備する.これらにより,シソーラス等の知識源に依存せず,純粋に表層情報のみを利用した場合の解析精度の一つの限界を目指す.本論文では,長さ5,6,7,8の複合名詞各100個,計400個について,新聞2ヵ月分,1年分\breakを用いて実験を行い,提案する枠組みで,高い精度の複合名詞解析が可能なことを示す.複合名詞解析の精度評価に関しては,パターン照合による未登録語の発見やヒューリスティクスの寄与も明らかにする.\subsection{本論文の構成}\label{本論文の構成}以下{\bf\ref{複合名詞解析の構成}節}では,複合名詞解析の構成の概略を述べ,{\bf\ref{従来手法と問題点の分析}節}では,クラス間共起を用いる手法のうち,クラスとしてシソーラス上の概念を用いる「概念依存法」の概括と,その問題点を整理する.{\bf\ref{文書走査による複合名詞解析}節}では提案手法の詳細を示し,共起データ抽出と構造解析について例を用いて述べる.{\bf\ref{実験結果}節}では,{\bf\ref{文書走査による複合名詞解析}節}で述べた複合名詞の解析実験の結果について示す.{\bf\ref{本論文の目的}}で述べた分析の他,ベースラインとの比較等を行う.最後に,今後の課題について述べる. \section{複合名詞解析の構成} label{複合名詞解析の構成}既に述べたように,複合名詞解析の基本要素は:\\(1)\入力された文字列を形態素解析により構成単語列に分解する.\\(2)\構成単語列間の依存構造のうち尤度の高いものを選択する.\\の2点である.本節ではこれらの項目について述べる.\subsection{形態素解析}\label{形態素解析}複合名詞は,まず形態素解析器により名詞,接辞等の列に分解される.我々はルールベースの形態素解析器\cite{久光1994}を用いたが,複合名詞解析の前処理として位置付けた場合,若干の調整が必要であった.例えば,「構造解析」のように長さ2の語基2個からなる複合名詞や,「解決策」,「担当者」のように,長さ2のサ変名詞に接辞が付加した複合語が登録されていると,本来捉えるべき内部構造が得られなくなることがある\footnote{例えば,「構造解析」が登録されていた場合,(((複合-語)-構造)-解析)のような内部構造は得られなくなる.}.したがって,語基や接辞である「構造」,「解析」,「担当」,「解決」,「策」,「者」等は辞書に残す一方で,長単位のエントリは削除しておく必要がある.このような手順を経たうえで,試料として選んだ400個の複合名詞(長さ5,6,7,8のもの100個ずつ)に関して,最小コストかつ最小分割数の解のみ(複数個ある場合はそのすべて)を形態素解析結果として用いた.解析の対象となる複合名詞の形態素解析の精度に関しては,形態素解析が出力する解の平均個数が1.2個で,正しい解が含まれるものは,複合名詞400個中352個であった.残りの48個について,46個は,「住専」,「大店法」のような略語や,姓,名のような未登録語が過分割される誤り(「住・専」のように)であり,2例は単語境界を捉えられない誤りであった.これらの解は,誤りがある場合もそのまま,共起情報抽出部に渡される.参考までに,固有名詞,略号等の出現単語をすべて辞書登録した場合,複合名詞1個ごとの解の平均個数は1.1個,解候補に正解を含まないものは4例であった.\subsection{複合名詞解析規則}\label{複合名詞解析規則}形態素解析の結果得られる名詞の連鎖を複合名詞に組み上げるため,2分木を基本とするCFG\breakルールと,各ルールに付随する属性計算ルールを用いた.名詞(句)と名詞(句)の連鎖により名詞句ができることを示す最も基本的なルールは,以下の3つである:\vspace*{1mm}\begin{tabular}{clll}\hboxto10mm{\hfil}&\itNP&$\rightarrow$&\itNPNP\\\hboxto10mm{\hfil}&\itNP&$\rightarrow$&\itN\\\hboxto10mm{\hfil}&\itN&$\rightarrow$&\it{w}\rm{(}\it{w}は単語\rm{)}\end{tabular}\vspace*{1mm}\noindentこれに,接頭辞(\it{PREFIX}\rm{)}に関するルール,接尾辞(\it{SUFFIX}\rm{)}に関するルール:\vspace*{1mm}\begin{tabular}{clll}\hboxto10mm{\hfil}&\itN&$\rightarrow$&\itPREFIXN\\\hboxto10mm{\hfil}&\itN&$\rightarrow$&\itNSUFFIX\end{tabular}\vspace*{1mm}\noindent等を追加することにより,標準的な二分木モデルのためのルール群が得られる.ここで,各ルールに出現する非終端記号には,属性"$head$","$cost$"を付与し,それぞれ,そのノード全体を代表する名詞である主辞と,積算されたコストを記録する.第一のルールの左辺・右辺の非終端記号を添字で区別したルール:\begin{tabular}{clll}\hboxto10mm{\hfil}&\it$NP_L$&$\rightarrow$&\it$NP_{R1}\\NP_{R2}$\end{tabular}\noindentを用いて各属性値の伝搬について一般的に記述すれば次のようになる:\vspace*{-8mm}\begin{eqnarray*}NP_{L}{\bullet}head&=&H(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head),\\\vspace*{-3mm}NP_{L}{\bullet}cost&=&C(NP_{R1}{\bullet}head,NP_{R1}{\bullet}cost,NP_{R2}{\bullet}head,NP_{R2}{\bullet}cost).\end{eqnarray*}\vspace*{-2mm}\noindentここで$NP_{X}{\bullet}Y$は$NP_X$の属性$Y$の属性値を表す.$NP_{R1}$と$NP_{R2}$の親ノードとなる$NP_L$の主\break辞は$NP_{R1}$と$NP_{R2}$の主辞から計算され,$NP_L$を親とする部分木のコストは,その子ノード達\breakの属性値からボトムアップで定められる.$H$と$C$の定め方によりさまざまな尤度付けが定式化できる.主辞の定め方については,二つの名詞が複合して名詞を構成するとき,日本語では一般に後置される名詞が全体の主要部となる(すなわち,$H(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)=NP_{R2}{\bullet}head$).しかし,いくつかの例外があり,それらについては後述する. \section{従来手法と問題点の分析} label{従来手法と問題点の分析}本節では,小林・Lauerの概念依存モデルを{\bf\ref{複合名詞解析規則}}の枠組みを用いて表現し,改良すべき点を整理する.\subsection{概念依存モデルの実現}\label{概念依存モデルの実現}小林が示した概念依存モデルと同等の尤度付けは,次の関数$C$によるスコアの最大化問題として実現できる:\vspace{-0.3cm}\begin{eqnarray*}\lefteqn{C(NP_{R1}{\bullet}head,NP_{R1}{\bullet}cost,NP_{R2}{\bullet}head,NP_{R2}{\bullet}cost)=}\\&&NP_{R1}{\bullet}cost+NP_{R2}{\bullet}cost+{\Delta}(NP_{R1}{\bullet}head+NP_{R2}{\bullet}head),\\\lefteqn{{\Delta}(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)=}\\&&\log\frac{RF(class(NP_{R1}{\bullet}head),class(NP_{R2}{\bullet}head)}{RF(class(NP_{R1}{\bullet}head),\ast){\times}RF(\ast,class(NP_{R2}{\bullet}head)}.\\\end{eqnarray*}\vspace{-0.3cm}ここで,$class(x)$は,主辞$x$の分類語彙表中の意味分類,$RF(a,b)$は,あらかじめ用意された意味分類の2項組データベース(後で述べる単語の共起データベースから生成される)中で,意味分類$a$と$b$がこの順序で共起する相対頻度,"$\ast$"は,任意の意味分類を表す.主辞については,二つの名詞が複合して名詞を構成するとき,後置される名詞を全体の主辞としている\footnote{接尾辞が語基に後接する場合,語基を主辞とするほうが良いであろうと示唆している.}.この手法を用いた複合名詞解析の精度は,6文字漢字複合名詞で61\%,数値表現に関するテンプレートと,主辞間の依存距離を加味した場合,6文字漢字複合名詞で73\%と報告されている\cite{小林1996}.\vspace{-2mm}\subsection{課題の整理}\label{課題の整理}\vspace{-1mm}従来法の問題点を整理し,取り組むべき課題を整理すると,以下の3点となる.\vspace{-2mm}\subsubsection{共起情報獲得手法の拡充}\label{共起情報獲得手法の拡充}自明な問題としては,形態素解析用辞書またはシソーラスに登録されていない単語が出現した場合,概念共起法では取り扱いが困難なことである.既に述べたように,このような未登録語\breakは,我々が実験用に無作為抽出した400個の複合語サンプル中,120個に現れており,そのうち46個の形態素解析辞書未登録語に関しては,始めの形態素解析の段階で失敗してしまう.従って,このような事実を考慮した共起情報の獲得方法を考えねばならない.2単語の「共起」を数える場合,共起するとみなす条件の強さによりさまざまな立場がある.英語圏の研究では,緩やかな共起を認めるものとして,注目する二単語が特定の長さの単語列の中にともに出現する回数を計るワードウィンドウ法\cite{Yarowsky1992}が,強い条件を課すものとして,注目する2名詞が非名詞に両側から挟まれる形で出現する回数を計る方法\cite{Pustejovsky1993}があり,Lauerは先に述べた研究において,後者の手法の優位性を示した\cite{Lauer1995}.これらを語境界が明示されない日本語コーパスに適用するためには,語境界の同定を含む何らかの工夫が必要である.西野の手法では,名詞のクラスタリングをするために単語間の共起回数を数える際,上記の中間的な手法を取っている.すなわち,2単語がトレーニングセットに含まれる連続漢字文字列中で掛かり受けの可能性がある位置に現れたとき,両者は1回共起したとする.この場合,共起\breakの観測を連続漢字文字列中に限定することによる量的な問題と,掛かり受けの可能性が0でない名詞対をすべて1回共起したとみなすことにより生じる共起源の品質低下の問題が懸念される.小林は,単語共起データを得るために,より厳しい制限を課している.すなわち,あらかじ\breakめ獲得されている16万の4文字漢字列を用い\cite{田中1992},これを2文字ずつに分割して得られ\breakる2文字漢字列の双方が辞書にある場合,これを単語の共起と認める.小林の方法では,これを概念共起に変換するため,上記単語対の双方がシソーラス中でそれぞれ唯一の概念に対応する場合のみ,両概念が1回共起したと数える.したがって,共起データの品質は高いと思われるが,4文字漢字列という限定と,曖昧性無くシソーラスに登録されているという限定が加わる\breakため,共起を数える条件はかなり厳しい.このため,「の」で結ばれて出現する2文字の名詞対も共起したとはみなされないし,「住専」や「大店法」のように,辞書・シソーラス共に未登録の単語を含む複合語には対応できない.例えば「改正大店法施行」の場合は,「改正/SN・大/ADJ・店/N・法/N・施行/SN」と過分割されてしまい,意味の有る依存構造は得られない\footnote{観測された分割誤りはほとんどすべてが過分割誤りであるため,以下では実際的な効果と問題の簡易化のため,未登録語による分割誤りのタイプとして,過分割誤りのみを想定している.}.従って,実際のデータを扱うためには,シソーラスを用いないだけでなく,上記のような解析誤りも前提とした枠組みが必要である.ここで,「住専」,「大店法」等が掛かり受けの単位となるまとまりであることは,多くの場合,文書の他の部分におけるこれら文字列の出現状況から推定できるため,それを利用することが考えられる.我々は,シソーラスを介さずに,ノイズの少ない文字列レベルの共起情報をできるだけ多く収集するため,日本語の特性を生かしたテンプレートを各種用意し,それらを用いて共起情報を得ることにした.過分割された未登録語の発見は,これらのテンプレート中に自然に組み入れられる.\subsubsection{短い複合語の問題}\label{短い複合語の問題}「住専」,「大店法」のような未登録語だけでなく,主辞の選択においても,単語自体の情報を用いないと困難が生じることがありうる.例えば,「危険物」は,「危険」と「物」の意味的な組み合わせで全体の意味を構成できるため,辞書に「危険物」が登録されていないことは自然であり,「危険物」が「危険」+「物」と分解されることは,形態素解析として失敗ではない.しかし,「危険物」が部分複合語として含まれる複合語の掛かり受け構造を調べる場合,「危険物」を「危険」と「物」に分解したままで扱い,全体の主辞を「物」とすると,「危険物」の共起情報が適切に捉えられない恐れが多分にある.そこで,係り受けを判断する際には「危険物」全体の共起関係を利用することが必要となってくる.しかし,「危険物」のような単語すべてをあらかじめシソーラスに登録しておくことは困難であるから,「住専」のような,通常の未登録語の問題と同様,これらの部分複合語を概念共起モデルで扱うことは困難となる.これに対し,文書中の他の部分で「危険物」が独立して出現することが発見できた場合,「危険物」自体を掛かり受け単位とみて,その共起情報を取得することにすれば,シソーラスに関する制約は回避できる.以下では,複合語中で,他の単語との掛かり受けを考えるときに考慮すべき部分を,便宜上「主辞」と呼ぶことにする.\subsubsection{主辞の選択}\label{主辞の選択}{\bf\ref{短い複合語の問題}}では,短い複合語を扱う場合の辞書登録の問題とともに,主辞の選択について述べたが,単に後置される名詞を主辞とすれば良いと言えない場合として,人名,地名等の固有名詞を含む場合がある.固有名詞は,登録語も含めて,同サンプル中約29\%の複合名詞に出現したので,これらを扱う場合の主辞計算ルールも考察する必要がある. \section{文書走査による複合名詞解析} label{文書走査による複合名詞解析}本節では,{\bf\ref{課題の整理}}で述べた問題を解決するための手法を提案する\footnote{報告者らが以前提案した手法\cite{Hisamitsu1996}を精密化したものである.}.提案手法では,辞書とテンプレートを組み合わせて,与えられた複合名詞に含まれる名詞の共起情報を必要に応じて表層的に抽出する.その際,コーパスに応じた動的なデータ獲得を行うことが特徴である.すなわち,テンプレート照合のキーとして,初期の形態素解析の結果得られる単語を用いるだけでなく,テンプレートによるデータ抽出時に,辞書照合と文字列比較の組み合わせにより,初期の形態素解析で過分割されていた未登録語や,部分複合語の検出を行い,これらの共起情報を追加獲得する.そして,必要に応じて形態素解析結果の修正などをした後,掛かり受け解析を行う.提案する手法は,固定されたシソーラスを用いず,発見された未登録語や部分複合語に対応して,必要に応じて柔軟に共起情報を取得することができるため,頑健性に優れている.以下では,提案手法を「文書走査法」と称する.\subsection{共起データ獲得法}\label{共起データ獲得法}{\bf\ref{共起情報獲得手法の拡充}}において名詞A,Bの共起を数えるいくつかの手法について述べたが,文書走作法では,\break2単語A,Bがフィラーとなるテンプレートを用いて単語Aに関する共起単語群を抽出するため,「名詞A,Bが共起する」ことを,「A,Bが同時にあるテンプレートのフィラーとなる」こと\breakと定義する.テンプレートは,2単語の隣接を含み,小林の方法の拡張になっている.以下,文書走査法の共起単語獲得手順を例を用いながら示す:\newlength{\originalparindent}\originalparindent=\parindent\settowidth{\leftskip}{(1)\}\settowidth{\parindent}{(1)\}\parindent=-\parindent(1)\与えられた複合語を形態素解析し,結果(複数可)を分割結果リストに記録する.同時に,得られた候補単語を字面レベルでリストKEY\_LISTに記録する.ここで,KEY\_LISTは,共起情報抽出の対象となる単語(テンプレートでAの位置をしめる単語)を格納する.\settowidth{\parindent}{例)\}\parindent=-\parindent例)\「改正大店法施行」の場合,初期解析結果により唯一の解が得られ,分割結果リストは{「改正/SN・大/Adj・店/N・法/N・施行/SN」},KEY\_LISTは{改正,大,店,法,施行}となる.\settowidth{\leftskip}{(2)\}\settowidth{\parindent}{(2)\}\parindent=-\parindent(2)\KEY\_LIST中の先頭の文字列の共起文字列をテンプレートを用いて抽出する.その過程で,共起情報抽出の対象となっている単語と,分割結果リスト中での隣接単語(1個または2個)を連結した文字列が,\settowidth{\leftskip}{(2)\(I)\}\settowidth{\parindent}{(I)\}\parindent=-\parindent(I)\形態素解析の単位となるべき未登録語と判断されたとき:\settowidth{\leftskip}{(2)\(I)\}\noindent\rightskip=15mm連結された文字列をWORD\_LISTとKEY\_LISTの両方に追加する.ここでWORD\_LISTは,新たに発見された単語を格納する(新たに発見された単語の品詞については後述).\settowidth{\leftskip}{(2)\(I)\}\settowidth{\parindent}{(II)\}\parindent=-\parindent(II)\掛かり受けの単位となるべき主辞と判断されたとき:\settowidth{\leftskip}{(2)\(I)\}\noindent\rightskip=15mm上記連結した文字列を,KEY\_LISTに追加する.\settowidth{\leftskip}{(2)\}\noindentここで,(I),(II)の判断の根拠となるルールについては,{\bf\ref{連続漢字文字列中から共起情報を取り出すもの}}で{\bfフィルタリング規則}として詳述する.\settowidth{\parindent}{例)\}\parindent=-\parindent例)\「改正大店法施行」の場合,「大店法」を新たに形態素解析の単位となるべき未登録語とみなし,WORD\_LISTとKEY\_LISTに追加する.\settowidth{\leftskip}{(3)\}\settowidth{\parindent}{(3)\}\parindent=-\parindent(3)\共起情報を獲得し終えた要素は,KEY\_LISTから除去する.\settowidth{\leftskip}{(4)\}\settowidth{\parindent}{(4)\}\parindent=-\parindent(4)\KEY\_LISTが空でなければ(2)に戻る.\settowidth{\leftskip}{(5)\}\settowidth{\parindent}{(5)\}\parindent=-\parindent(5)\WORD\_LISTの要素を元の形態素解析辞書と併用して,複合名詞を再解析し,分割結果リストを更新する.\settowidth{\parindent}{例)\}\parindent=-\parindent例)\「改正大店法施行」の場合,再解析の結果,唯一の解「改正/SN・大店法/N・施行/SN」が得られ,分割結果リストは{「改正/SN・大店法/N・施行/SN」}となる.\settowidth{\leftskip}{(6)\}\settowidth{\parindent}{(6)\}\parindent=-\parindent(6)\文法と共起情報を用いて,最尤掛かり受け構造を求める.\parindent=\originalparindent\leftskip=0mm\rightskip=0mm\subsection{テンプレートの説明}\label{テンプレートの説明}本節では,{\bf\ref{共起データ獲得法}}で述べたテンプレートについて説明する.{\bf図\ref{fig:templates}}は2つの文字列A,Bの共起を抽出するためのテンプレート群である.Aは共起関係を調べる対象となる単語,Bは漢字文字列,Dは,空白,記号,“の”以外の平仮名等のいずれかであるとする(D中から“の”を除くのは,例えば「AのBのC」中から「AのB」,「BのC」だけを抜き出すと,誤った掛かり受け\breakを獲得することが多いためである).テンプレートは,連続漢字文字列中から共起情報を取り出すもの({\bf図\ref{fig:templates}}(A))と,平仮名を含む文字列中から共起情報を取り出すもの(それ以外)の二種類に分かれる.\begin{figure}[tbp]\begin{center}\leavevmode\epsfile{file=templates.epsf,scale=0.8}\vspace{3mm}\end{center}\caption{用いたテンプレートの例}\label{fig:templates}\end{figure}\subsubsection{連続漢字文字列中から共起情報を取り出すもの}\label{連続漢字文字列中から共起情報を取り出すもの}テンプレート群{\bf図\ref{fig:templates}}(A)は,2つの名詞が,連続漢字文字列内に共起する例を獲得する.Aが長さ1の単語の場合,Bは長さ2以下の漢字文字列,Aが長さ2以上の単語の場合,Bは長さ3\break以下の漢字文字列とする.ここでBの長さの制限は,掛かり受けの単位を2文字以下の基本単語(いわゆる短単位),またはそれに接辞が付加されたものとしたためで,文字数3はこれから従う.この制限を除くと,Aと共起する文字列として2語以上からなる複合語が混入するため,共起データの品質が著しく劣化する.連続漢字文字列からの共起情報抽出は,語内の単語境界が示されていないため次に述べるフィルタリング規則を補助的に用いる:\noindent{\bfフィルタリング規則}\noindent「{\bf図\ref{fig:templates}}(A)に属するテンプレートにより発見されたABおよびBAについては:\settowidth{\leftskip}{(I)\}\settowidth{\parindent}{(I)\}\parindent=-\parindent(I)\文字列ABが解析すべき複合語内に部分文字列として含まれており,AB(BA)の始端と終端が,初期分割の解における形態素境界と一致し、かつ\settowidth{\leftskip}{(I)\(a)\}\settowidth{\parindent}{(a)\}\parindent=-\parindent(a)\AB(BA)の長さが2であり,かつ連結した文字列としてAB(BA)が辞書に登録されていない\vspace*{-5mm}\begin{center}または,\end{center}\vspace*{-3mm}\settowidth{\leftskip}{(I)\(b)\}\settowidth{\parindent}{(b)\}\parindent=-\parindent(b)\AB(BA)の長さが3であり,Bも文字列の連結AB(BA)も辞書登録されておらず,辞書登録された2単語A',B'(ただしA'≠A)を用いてAB=A'B'(BA=B'A')と分割でき\breakない\vspace*{-5mm}\begin{center}または,\end{center}\vspace*{-3mm}\settowidth{\leftskip}{(I)\(c)\}\settowidth{\parindent}{(c)\}\parindent=-\parindent(c)\AB(BA)の長さが3であり,A(B)がサ変名詞でなく,Aが接頭(尾)辞またはBが接尾(頭)辞であり,文字列の連結AB(BA)が辞書登録されておらず,辞書登録された2単語A',B'(ただしA'≠A)を用いてAB=A'B'(BA=B'A')と分割できない\settowidth{\leftskip}{(I)\}\noindentならば,C=AB(BA)を新たに単語とみなし(品詞はNまたはSNとする.SNはCがサ変化\break接辞で終わる場合),WORD\_LISTとKEY\_LISTに加える.\settowidth{\leftskip}{(I)\(d)\}\settowidth{\parindent}{(d)\}\parindent=-\parindent(d)\\(b),(c)以外でAB(BA)の長さが3の場合は,A(B)がサ変名詞でなく,B(A)の長さが1\breakならば,主辞としてAB(BA)をKEY\_LISTに加える.\settowidth{\leftskip}{(II)\}\settowidth{\parindent}{(II)\}\parindent=-\parindent(II)\それ以外の場合:\\AB(BA)の長さが3以上で,Bが辞書登録されており,2単語A',B'(ただしA'≠A)を用\breakいてAB=A'B'(BA=B'A')と分割できない場合,AB(BA)を複合語とみなし,AとBが\break複合語内で共起したとする.\parindent=\originalparindent\leftskip=0mm例えば,「住専」,「大店法」,「簡素化」等が,ひらがなや括弧に挟まれる形で文中の他の部分に出現しているとき,「住/N・専/KJ・問題/N」(KJは単漢字)の"住"を対象とする共起単語抽出過程からは,I-(a)に従い「住専/N」が得られる.同様に,「改正/SN・大/Adj・店/N・法/N・施行/SN」の"大"を対象とする共起単語抽出過程からは,I-(b)に従い「大店法」が,「簡素/Adj・化/Suffix・手続/SN」の"簡素"を対象とする共起単語抽出過程からは,I-(c)に従い「簡素化/SN」が,新たに単語とみなされ,WORD\_LISTとKEY\_LISTに加えられる.\subsubsection{平仮名を含む文字列から共起情報を取り出すもの}\label{平仮名を含む文字列から共起情報を取り出すもの}1-(B)以降のテンプレート群においては,Aの長さに関わり無く,Bは長さ3以下の漢字文字列とする.テンプレート群1-(B)は,2つの名詞が,助詞「の」を挟んで共起する例を獲得するためのテンプレートである.テンプレート群1-(C)は,形容詞,形容動詞と,それが修飾する単語の例を獲得するテンプレートである.テンプレート群1-(D)は,サ変動詞と,そのガ格,ニ格,ヲ格となる名詞の例を獲得するテンプレートである.テンプレート群1-(E)は,サ変動詞と,それに連体修飾される名詞の例を獲得するテンプレートである.テンプレート群1-(F)は,並列関係をとる名詞の例を獲得するテンプレートである.テンプレート群1-(G)は,「〜についての〜」という関係にある二つの名詞の例を獲得するテンプレートである.\subsection{例}\label{例}「改正大店法施行」の解析の場合,初期の形態素解析において,5つの単語からなる唯一の解「改正/SN・大/Adj・店/N・法/N・施行/SN」を得る.第1の単語「改正」については,「改正中」(1-(A)),「法律の改正」(1-(B)),「法を改正する」(1-(D)),「改正された大店法」(1-(E))等が獲得される(「大店法」はこの段階で既に「改正」に対する共起文字列として取り上げられている).第2の単語「大」からは,「大店法」が単語としてWORD\_LISTに登録され(1-(A)+フィルタリング規則I-(b)),「大きな変化」(1-(C))等が共起例として獲得される.第3の単語「店」,第4の単語「法」については,「大」と同様に,「店の管理」(1-(B)),「法を改正」(1-(D))等が得られる.第4の単語「施行」については,「早期施行」(1-(A)),「施行を決定」(1-(D)),「大店法の施行」(1-(B))等が獲得される.最後に,新たに発見された単語“大店法”をキーとして検索を実施し,「反大店法」(1-(A))等を得る.{\bf図\ref{fig:DBexample}}(A),(B)に,上記の5つのキーに基づいて発見されたパターンと,これらを単語の共起対ごとに頻度情報とともに整理した例をまとめた.参考のため,(B)には,各対の共起パターン\breakの種類を付記したが,最終的に回数の計数時には共起の種類を区別していない.\begin{figure}[tbp]\begin{center}\leavevmode\epsfile{file=DBexample.epsf,scale=0.8}\end{center}\caption{発見された共起データの例}\label{fig:DBexample}\end{figure}\subsection{尤度判定と主辞の選択}\label{尤度判定と主辞の選択}複合名詞の掛かり受け構造の選択は,共起情報に基づくスコア付けと,共起情報が足りない場合に用いるヒューリスティクスを組み合わせて行う.\subsubsection{主辞同士の尤度計算}\label{主辞同士の尤度計算}最尤掛かり受け構造の計算は,{\bf\ref{複合名詞解析規則}}の枠組を用いて,以下の関数$C$によるコスト最小化問題と\breakして実現される:\vspace{-0.5cm}\begin{eqnarray*}\lefteqn{C(NP_{R1}{\bullet}head,NP_{R1}{\bullet}cost,NP_{R2}{\bullet}head,NP_{R2}{\bullet}cost)=}\\&&NP_{R1}{\bullet}cost+NP_{R2}{\bullet}cost+{\Delta}(NP_{R1}{\bullet}head+NP_{R2}{\bullet}head),\\\lefteqn{{\Delta}(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)=}\\&&\displaystyle-\log(\frac{Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)}).\\\end{eqnarray*}\vspace{-0.5cm}ここで,$Freq(x,y)$は,主辞$x,y$が何等かのテンプレート中に$A=x,B=y$または$A=y,B=x$として共起した回数,$Freq(x)$は,主辞$x$が何等かのテンプレート中に$A=x$または$B=x$として現われた回数,$Freq(y)$は,主辞$y$が何等かのテンプレート中に$A=y$または$B=y$として現われた回数を表わす\footnote{テンプレートのフィラーとなる順序は考慮していない.「簡素な手続き」,「手続の簡素さ」や,能動態と受動態の区別を無視したためである.}.$x,y$の値は文字列である.上記のコストを用いてコストの低い順から依存木を選出することは,名詞句をまとめあげるごとに計算される主辞同士の相互情報量\cite{Church1990}を依存木全体で積算した値が大きな順に依存木を選び出すのと同等である.実際,テンプレートで2名詞A,B間の共起が\break観測できるすべての位置の数を$N_{total}$としたとき,相互情報量を用いる場合,$log$の内側は,\begin{center}$\displaystyle\frac{N_{total}{\times}Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)}$\end{center}\noindentとすべきであるが,この値が大きくなることと,\begin{center}$\displaystyle\log(\frac{Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)})$\end{center}\noindentが大きくなること,すなわち,正値のコスト:\begin{center}$\displaystyle-\log(\frac{Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)})$\end{center}\noindentが小さくなることは同値である.文書走査法では,オンデマンドで共起情報を抽出するためコスト計算時に$N_{total}$が不明であるが,分割数の等しい解同士のコストを比較する場合には$N_{total}$は順序に影響を与えず,しかも比較は最小分割数の解同士で行われるため,$N_{total}$は無視できる.\subsubsection{主辞の選択における注意}\label{主辞の選択における注意}先にも述べたように,二つの名詞(句)を一つの名詞句に組み上げるとき,一般には後置される名詞句の主辞を全体の主辞とする.最も典型的な場合,\begin{tabular}{clll}\hboxto10mm{\hfil}&\itNP&$\rightarrow$&\it$NP_1\NP_2$\end{tabular}\noindentにおいて,典型的な場合,例えば右辺の$NP_{i}$の主辞がそれぞれ長さ2の普通名詞であるような場合,左辺の$NP$の主辞は,$NP_2$の主辞である.しかし,{\bf\ref{複合名詞解析の構成}}節で述べたように,新たな主辞を合成したり,$NP_1$の主辞を選択する方が望ましい場合がある.以下,そのような場合について述べる.\noindent{\bf短い複合語}\noindent長さが3の短い複合語に関しては,新たな主辞を合成した方が良い場合がある.例えば,以下の例:\begin{tabular}{cllll}\hboxto10mm{\hfil}&(1)&新工場&$\rightarrow$&新/Adj+工場/N\\\hboxto10mm{\hfil}&(2)&危険物&$\rightarrow$&危険/Adj+物/N\end{tabular}\noindentのうち,(1)は,右辺の2単語の長さが,順に1,2である.これに対して,(2)では,右辺の2単語の長さが,順に2,1となる.一般に(2)のように,2語目の長さが短い場合,2語目を全体\breakの主辞とするとあまり共起情報が得られないことが多い(例えば,「物」のような抽象的な名詞が直接用いられることはまれである).我々は,このような場合,部分依存構造としては[危険物]を二単語間の依存関係として認めつつ,左辺$NP$全体の主辞として,「危険物」自体を用いる\breakことした.そのために,$NP_1,NP_2$から$NP$を構成するとき,主辞を合成するルールを追加する\footnote{右辺第1項がサ変名詞の場合は,このような主辞の合成は行わない.}.このような合成された主辞に関しては,{\bf\ref{連続漢字文字列中から共起情報を取り出すもの}}のルールにより,共起情報が抽出されることに注意されたい.\noindent{\bf人名}\noindent「会長/N・山田/PN・太郎/PN・氏/Suffix・引退/SN」中の「山田/PN・太郎/PN・氏/Suffix」のようなパターンがある場合\footnote{我々の辞書は,固有名詞に,「人名」や,「姓」,「名」等の細分を持たない.この細分があれば,解析精度はより向上するであろう.},この部分の掛かり受け構造は[[山田\太郎]\氏]で,その主辞は「山田」と考えるのが自然であろう.このとき,「山田会長」のような共起関係が他の場所で観測されれば,部分構造[会長\[[山田\太郎]\氏]]が得られる.さらに,このような構造に関しては,その主辞は役職名である「会長」とするのが自然と思われる.実際は,役職名を定義してルール化することは行わなかったが,人名部分をまとめる処理は,掛かり受け解析の前処理として行った({\bf\ref{人名の場合}}を参照).\subsection{データ不足に対応するためのヒューリスティクスの整備}\label{データ不足に対応するためのヒューリスティクスの整備}データ不足に対処するための方策として,テンプレートの拡充とともに,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に用いるヒューリスティクスを整備した.基本的な方針は,{\bf観測された共起例をできるだけ尊重して掛かり受け構造を選択する}ことである.まず,問題を整理するため,「共起データが不足する」ことを次のように定義する:\leftskip=10mm\rightskip=10mm\noindentある依存構造に対して,そこに現れるすべての掛かり受け対に対してコーパス中で共起関係が観測されている場合,その依存構造は「共起例によって完全に覆われている」と定義する.ある複合名詞に対し,共起例によって完全に覆われた依存構造が存在しない場合,「その複合名詞に関する共起データが不足している」と定義する.\leftskip=0mm\rightskip=0mmある複合名詞について共起データが不足する場合は,大きく分けて三種類であった.すなわち,数詞を含む場合,固有名詞を含む場合,その他一般の単語からなる場合である.以下,この三つの場合についてそれぞれ述べる.\vspace*{-2mm}\subsubsection{数表現}\label{数表現}「合計約二十五万円」のように数値を含む表現の場合,通常の形態素解析を行うと「合計/SN・約/Prefix・二/Num・十/Num・五/Num・万/Num・円/Suffix」となる(Numは数詞を表す).このような数字の列を含む結果をそのまま共起解析に渡しても,数字列が長いと{\bf\ref{テンプレートの説明}}で定義されたテンプレートでは有効な共起関係は得られないうえ,数字部分の内部構造を考えること自体無意味である.我々は,宮崎や小林と同様に,数値表現は前処理によって対処した.すなわち,まず数値部\break分をまとめ,「円」,「人」,「年」等の数詞接尾辞,「約」等の数詞接頭辞を付加することにより,「約二十五万円」の部分を,予め[[約二十五万]円]のような名詞句としてまとめる処理を行った(この処理により,金額,日時,等がすべて正しく処理された).この後に,必要ならば{\bf\ref{一般の場合}}で述べるルールを適用する.\vspace*{-3mm}\subsubsection{人名の場合}\label{人名の場合}{\bf\ref{主辞の選択における注意}}で述べたように,人名の場合,低頻度であったり,他の単語(職名や「氏」など)と結合\breakして,漢字列の途中に現われることが多く,{\bf\ref{テンプレートの説明}}のテンプレートでは共起情報が得られないことが多い.このため,「$固有名詞_1$+$固有名詞_2$+氏」を$固有名詞_1$を主辞とする名詞句[[$固有名詞_1$\$固有名詞_2$]\氏]としてまとめたうえで,{\bf\ref{一般の場合}}を適用する.ここで,$固有名詞_1$は姓,$固有名詞_2$は名と想定しているが,我々の辞書には固有名詞の細分がないため,単に固有名詞としている.\vspace*{-3mm}\subsubsection{一般の場合}\label{一般の場合}ある複合名詞に対し共起例が不足する場合でも,主要な単語同士の掛かり受けは観測されていることは多く,このような情報を優先して評価することは効果的であると考えられる.我々は,この考え方をルールの形に整理し,共起例が不足する複合名詞の解析については,唯一の解が選択できるまで次のルールを順に適用することにより対応した:\settowidth{\leftskip}{(1)\}\settowidth{\parindent}{(1)\}\parindent=-\parindent(1)\なるべく多くの共起情報を利用している依存構造を優先する.\settowidth{\leftskip}{(2)\}\settowidth{\parindent}{(2)\}\parindent=-\parindent(2)\共起情報が存在しない対については大きな定正値コスト($>>1$)を与えた上で,コストが小さくなる依存構造を優先する.\settowidth{\leftskip}{(3)\}\settowidth{\parindent}{(3)\}\parindent=-\parindent(3)\共起情報が得られている終端の名詞対を結ぶ依存木上の距離(経過する最小ノード数)の和が少ないものを優先する.\settowidth{\leftskip}{(4)\}\settowidth{\parindent}{(4)\}\parindent=-\parindent(4)\依存関係にある名詞の,複合名詞内での位置の間の距離の和が少ないものを優先する.\parindent=\originalparindent\leftskip=0mm背景となる考え方は,{\bfなるべく多くの観測例を反映させた上で,最小コストの構造を選ぶこと}(ルール1,2)と,{\bf観測された共起ペアはなるべく小さな部分木のなかでまとめること}(ルール3)の二点である.後者は,長い固有名詞が,部分的な固有名詞の連鎖として合成される場合を想定している.すべての名詞対の間に共起関係が観測されないときは,(4)により最左導出優先戦略の解が得られるが,これはLauerが3単語の場合に用いたベースライン「左分岐優先」\cite{Lauer1995}を拡\break充したものにあたる.これは言語学で指摘されている「日本語においては左分岐構造が優位である」\cite{奥津1978}という点の反映でもある.ルールの適用例として,{\bf図\ref{fig:heuristics}}(a)の例は,5個の名詞のうち,1番目と3番目,4番目と5番目の名詞のみに共起関係が観測された場合である.ルールを(1)$\rightarrow$(2)$\rightarrow$(3)の順で適用することにより,観測された例を優先させ,しかも,観測された共起ペアをはじめになるべく小さな部分木のなかでまとめている(I)が選ばれる.もし,{\bf図\ref{fig:heuristics}}(b)のように,共起関係が一切観測されなかった場合,(4)に従って依存構造(III)が選ばれる.ここで,各ノードに付与された記号はそれ\breakぞれの主辞を表わし,実線は共起例が観測された依存関係,破線はそうでない依存関係を表す(具体例は,{\bf\ref{解析例}}を参照).\begin{figure}[tbp]\begin{center}\leavevmode\epsfile{file=heuristics.epsf,scale=0.77}\end{center}\caption{ヒューリスティクスの適用例}\label{fig:heuristics}\end{figure} \section{実験結果} label{実験結果}以上に述べた手法を用いて,新聞記事から抽出した長さ5文字から8文字までの漢字だけから\breakなる複合名詞各100個,計400個について実験を行った.\subsection{実験に用いた資料}\label{実験に用いた資料}実験に用いたのは,日経新聞1992年の記事であり,対象とした複合名詞は,1月,2月の記事\break約27,000(文字数にして約700万文字)から連続漢字列を無作為に抽出した.最初に抽出した400個のうち,34個は,複合名詞ではない,または,依存構造が一意に判断不能のいずれかであったため,解が一意的に定まるもののみになるまで無作為抽出を追加した.\subsection{ベースライン}\label{ベースライン}本論文では,提案手法の位置付けを示すためにベースラインと比較した.比較の対象としたベースラインは,テンプレートにより新たに発見された単語を追加して形態素解析結果を修正した後,人名と数表現部分は前処理し,共起情報抽出の過程で発見された長さ3の短い複合語はその部分でまとめたうえで,最左導出優先戦略を適用したものであり,最左導出優先戦略に文書走査法の特性を反映させて強化したものである.また,このベースラインは実際に扱った例における最頻掛かり受け構造を反映している.このベースラインとの比較により,共起情報やヒューリスティクスの効果を見ることができる.\subsection{コーパスサイズの影響}\label{コーパスサイズの影響}コーパスサイズの影響を調べるため,1月,2月の2月分の記事中から共起データを抽出した場合と,1年分全体から共起データを抽出した場合のそれぞれについて解析精度を調べた.\subsection{結果}\label{結果}{\bf表\ref{表:文字数と精度}}は,提案方式については2つのコーパスサイズを含む4つの場合について,文字数ごとの\break解析精度を評価したものである.未知語が無い場合に表層的な共起データとヒューリスティクスで達成できる精度の上限を見積もるため,未登録語すべてを辞書に追加したうえで,どの程度の精度が得られるかを示したのが最下段の数値である.\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline複合名詞の構成文字数&5&6&7&8\\\hline\hlineベースライン&81&72&65&53\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事2ヶ月分)\end{center}\vspace*{-2mm}}&88&83&80&75\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事1年分)\end{center}\vspace*{-2mm}}&90&86&84&84\\\hline\parbox{11.5zw}{\vspace*{-2mm}\baselineskip11pt\hspace*{-3mm}\begin{center}文書走査法\\(すべての未登録語を\\\\与え、新聞記事1年分)\end{center}\vspace*{-2mm}}&94&92&91&89\\\hline\end{tabular}\end{center}\caption{複合名詞の文字数と解析精度}\label{表:文字数と精度}\end{table}\noindent\ref{表:単語数と精度}は,表\ref{表:文字数と精度}の内容を,掛かり受けに関わる単語数ごとに評価しなおしたものである.3行目以降の各行の数字は,正しく解析できた数を表す.単語数が2の場合,間違いが生じるのは未登録語などが正しく認識できない場合である.\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline複合名詞の構成単語数&2&3&4&5&6\\\hline\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}各構成単語数ごとの\\複合名詞の数\end{center}\vspace*{-2mm}}&46&201&130&21&2\\\hlineベースライン&42&138&82&9&0\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事2ヶ月分)\end{center}\vspace*{-2mm}}&42&176&91&16&1\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事1年分)\end{center}\vspace*{-2mm}}&42&177&108&16&1\\\hline\parbox{11.5zw}{\vspace*{-2mm}\baselineskip11pt\hspace*{-3mm}\begin{center}文書走査法\\(すべての未登録語を\\\\与え、新聞記事1年分)\end{center}\vspace*{-2mm}}&46&191&112&16&1\\\hline\end{tabular}\end{center}\caption{複合名詞の構成単語数と解析精度}\label{表:単語数と精度}\end{table}ここで,単語数については,数字部分は前処理により1語と判定している.また,掛かり受け構造の正誤を判定する上で,掛かり受け構造を担う最小単位として,「大店法」のような略語系のものは,これ以上細分しないものを正解としている.獲得した単語の品詞については,現状では固有名詞の同定を行っていないため,固有名詞を文字列として獲得でき,その掛かり受けが正しく認識できても,正解とはしていない.例えば,「二子山」は普通名詞として認識され,「二子山親方」は[二子山親方]と解析できるが,「二子山」を固有名として認識できないため誤りとしている(このようなケースは,新聞記事1年分を用いた文書走査法の場合,16例あった).{\bf表\ref{表:文字数とヒューリスティクス利用数}}には,新聞記事1年分を用いた文書走査法において,共起例が不足した場合にヒューリス\breakティクスを用いた例の総数とそれによる正解の総数を,複合名詞の長さごとに示した.{\bf表\ref{表:単語数とヒューリスティクス利用数}}は,これを単語数ごとに調べたものである.\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline複合名詞の構成文字数&5&6&7&8\\\hline\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いた場合の数\end{flushleft}\vspace*{-2mm}}&15&29&47&45\\\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いて解析に成功した場合の数\end{flushleft}\vspace*{-2mm}}&12(2)&26(2)&39(1)&34(1)\\\hline\end{tabular}\\{\footnotesize*括弧内は,単語間の共起が観測できず,最左分岐戦略が適用されたものの数}\end{center}\caption{複合名詞の長さごとのヒューリスティクスの利用状況}\label{表:文字数とヒューリスティクス利用数}\end{table}\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline複合名詞の構成単語数&3&4&5&6\\\hline\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いた場合の数\end{flushleft}\vspace*{-2mm}}&57&69&9&1\\\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いて解析に成功した場合の数\end{flushleft}\vspace*{-2mm}}&49(3)&54(2)&7(1)&1\\\hline\end{tabular}{\footnotesize*括弧内は,単語間の共起が観測できず,最左分岐戦略が適用されたものの数}\end{center}\caption{複合名詞の構成単語数ごとのヒューリスティクスの利用状況}\label{表:単語数とヒューリスティクス利用数}\end{table}\subsection{解析例}\label{解析例}解析が成功した例と,失敗した例をいくつか示す.\subsubsection{成功例}\label{成功例}\noindent・全体を覆う共起例がある場合.\settowidth{\leftskip}{・}\noindent[[改正\大店法]\施行]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"大店法"は,単語として獲得された.\settowidth{\leftskip}{・}\noindent[[[土地\区画]\整理]\事業]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"整理"と"事業"は,「事業を整理する」という形の共起しか得られなかったが,解析は正しい.\settowidth{\leftskip}{・}\noindent[[国内\[独占\販売]]\契約]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"独占"と"販売","国内"と"販売","販売"と"契約"の共起がそれぞれ強く観察され,全体として正しく解析された.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・共起例が不足した場合のヒューリスティクスにより,正しい解析がえられた例:\settowidth{\leftskip}{・}\noindent[第二\[湾岸\道路]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"湾岸道路"が単独で観察された.この部分をまとめることにより,正解が得られた.\settowidth{\leftskip}{・}\noindent[県\[[環境\保全]\協会]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"県"と"協会","環境"と"保全"の共起がそれぞれ単独で観察された.これらを優先する解釈により正解が得られた.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・前処理により,解が一意に絞られる例\settowidth{\leftskip}{・}\noindent[同[百二十七万人]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"百二十七万"は数字としてまとめられ,[百二十七万人]までが「数字+接辞」とし\breakて前処理される.\parindent=\originalparindent\leftskip=0mm\subsubsection{失敗例}\label{失敗例}\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・全体を覆う共起例があっても間違いを生じる例\settowidth{\leftskip}{・}\noindent[発売[開始以来]](正解は[[発売開始]以来])\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"発売"と"開始","発売"と"以来","開始"と"以来"のすべての対が観察されたが,"発売"と"以来"の共起が強く,これに解釈が引っ張られた.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・共起例が不足で,ヒューリスティクスにより間違いを生じる例\settowidth{\leftskip}{・}\noindent[酸素[[製造装置]開発]](正解は[[[酸素製造]装置]開発])\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"酸素"と"製造"という共起が観察されず,観察された"製造装置","装置開発"等の共起を優先する解釈に引っ張られた.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・未登録固有名詞により間違いが生じる例\settowidth{\leftskip}{・}\noindent[[[小宮路]清行]社長](正解は,[[小宮路清行]社長])\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"小宮路"が"小宮/PN"+"路/N"と分解され回復できなかった.\parindent=\originalparindent\leftskip=0mm\subsection{未登録語を含む複合名詞について}\label{未登録語を含む複合名詞について}未登録語に関しては,400個の複合名詞中,形態素解析辞書未登録語を含むものが46個,分類語彙表未登録語を含むものが117個,どちらか一方を含むものが120個あったが,これらのう\breakち85個は正しく解析された.形態素解析用辞書に登録されていない未登録語のうち,25個は共起例抽出の段階で正しく獲得され,それらを含む複合名詞のうち18個は正しく解析された.その他単語境界のみを正しく獲得した未登録語は16個あった.正しく獲得できなかった未登録語の例は,次の通り:\noindent・単語境界は検出できたが,品詞が誤り:\settowidth{\leftskip}{・単語}\noindent渚園(固有名詞.施設名),李鵬(人名),小和田(人名)\leftskip=0mm\noindent・単語境界も検出できない:\settowidth{\leftskip}{・単語}\noindent車駕之古祉(地名),日豊(「日豊本線」に出現),欽用(人名.「上条欽用氏」に出現)\leftskip=0mm \section{考察} label{考察}ベースラインは,数字部分や短い複合語をまとめたうえで,基本的には最左導出優先戦略をとっているが,その精度は,{\bf表\ref{表:単語数と精度}}から,3単語で約69\%であり,日本語と英語の違いにも関わらず,Lauerの「3単語65\%」\cite{Lauer1995}というベースライン精度と類似している.提案手法は{\bf表\ref{表:文字数と精度}},{\bf表\ref{表:単語数と精度}}のどちらで見てもベースラインを大きく上回っており,共起情報を用いることによる効果があきらかとなっている.また,コーパスサイズ拡大の有効性も示されており,実験した範囲では,コーパスサイズの拡大により正解は増加しても,新たな間違いが発生することはなかった.これは,新聞記事1,2月分と通年分で比較したため,文書の同質性・関連性が比較的保たれたためと思われる.共起例が不足する場合に用いたヒューリスティクスは,例えば,3単語からなる複合名詞の28\%に適用され,その86\%(49例)に正解を与えている.これらの中で,共起例が全く見つからず,単なる最左導出優先戦略で出力されたものは3例に過ぎず,この傾向は4語,5語の場合も変わらない.したがって,実際に観測された共起関係をできるだけ優先するという考え方が有効であることがわかる.{\bf\ref{未登録語を含む複合名詞について}}で述べたように,400個の複合名詞のうち形態素解析辞書またはシソーラス未登録語を含むものは120個であった.これはクラス間共起を用いる手法を用いる場合には障害となるが,提\break案手法は表層情報しか用いないため,形態素解析さえ成功すれば問題とはならず,これらのうち70\%を正しく解析できた.特に,形態素解析の過分割誤りで生じた誤りのうち18例は,未登録語を獲得してこれを修正した上で正解を得ており,提案手法がクラス間共起を用いる方法に比べて頑健であることを示している.本論文で提示した未登録語や短い部分複合語の発見手法は,文字種,長さ,出現環境のみを用いた単純な手法であるが,略称や部分複合語の発見には効果的であった.固有名詞を除いて,複合語中にのみ出現し,他に単独で現れない名詞は少ないこと,特に重要な未登録語は単独で出現しやすく,略称系の未登録語は一般的に重要度が高いこと,等の理由で,単純な手法でも効果が得られたものと思われる. \section{おわりに} label{おわりに}本論文では,新聞記事に現われる複合名詞内の掛かり受け構造を決定するために,コーパス中を複数個のテンプレートを用いて走査し,複合名詞構成単語間の共起情報を抽出し,複合名詞の解析を行う手法について述べた.構成単語の出現環境と辞書引きの結果から,共起データ収集と同時に,略称,短い複合語,固有名詞の一部等の未登録語を検出し,それらの共起情報も追加探索することにより,未登録語に対しても頑健かつ高精度な複合名詞解析が実現できた.また,共起例が十分に得られなかった場合のため,観察された共起例をなるべく有効に利用するヒューリスティクスを提案し,その効果が示された.解析精度においては,それ自体かなり高精度である,ベースラインとして用いた最左導出法に基づく手法を大きく上回り,長さ8の複合名詞についても80\%以上の精度で解析できることがわかった.提案した手法は,テンプレートマッチしか用いないため,頑健性,簡便性,移植性において優れている.今後の課題としては,以下のことが挙げられる.\noindent{\bf人名等の推定}単語境界が正しく獲得された未登録名詞であって,品詞が正しく判定されなかった16個の固有名詞のうち8個は人名であった.これらは,役職名や,「氏」のような周囲の手がかり語を用いることにより推定可能であると考えられる.このような部分については,ルールに基づく手法を取り入れてゆくことが効果的と思われる.\noindent{\bf解析の効率}本研究では,表層情報のみを用いて達成できる手法の能力評価が目的であったため,データ抽出を含めた解析速度は考慮していない.共起情報の抽出は,ディスク上の新聞1年分のテキストファイルの線形探索を用いており,掛かり受けの解析は,共起情報が発見されなかった主辞の間の掛かり受けのコストを仮想的な高い価に設定することにより,発見された単語共起対が最も多く用いられている掛かり受け構造中で,最小コストを持つものをまず導出し,その中から必要に応じてヒューリスティクスを用いて最尤解を選出することで行った.実験の範囲では,最尤解の選択は,共起情報抽出に比べて無視できる程度の時間しかかからなかった.共起情報抽出の高速化のためには,テキストに文字インデックスを付与してメモリ上に置き,テンプレートマッチを並列化し,共起データを再利用するなどの工夫が考えられ,1桁から2桁の高速化は可能と見積もれる.従って,今回の実験に用いた程度の複合名詞であれば,「文書走査法」の枠組みでも必ずしもリアルタイムの解析を逸脱しない.掛かり受け構造の導出には,ボトムアップ・チャート法を用いた.文字列の長さを$n$として,チャートの作成自体は${\rmO}(n^3)$で完了するが,最小コスト解の中からさらにヒューリスティクスを用いて最尤解を選択する場合,現在のままでは,複合名詞の長さの指数関数で個数が増大する可能な掛かり受け構造間の比較が必要なため,問題となる.コスト計算に掛かり受けの距離等を含めることにより,ヒューリスティクスまで考慮しながら$n$の多項式時間でチャートを作成することも可能であるため,これを実装する必要がある.\noindent{\bf言い替え表現}単語の共起頻度を記録する際に用いたテンプレートの種類は,掛かり受け解析には現在利用していない.ある依存構造が選ばれた場合,用いられたテンプレートを参照して,複合名詞を通常の文に言い替えられる可能性がある.言い替え手法の研究は,言語生成に関係する興味深い問題である.\noindent{\bf形態素解析における未知語検出・クラス間共起法との統合}形態素解析の研究の進展により,形態素解析部単独で「住専」のような未登録語を高精度に推定可能となった場合,これをただちに未登録語の発見に利用することができる.クラス間共起法との統合については,文書走査による共起情報抽において構成単語同士の共起例が十分に得られない場合に,クラス間共起法に切り替えることが考えうる(Lauerによれば,十分に共起情報がある場合,クラスを介すより,直接単語共起を用いた方が精度が良い\cite{Lauer1995}.実際,我々の例では,ヒューリスティクスが必要ない場合の4単語からなる複合名詞の解析精度は約88\%であった).このとき,複合語構成単語中にクラス所属不明語が存在する場合,それらの所属クラスを推定する必要があるため,それらの単語の出現環境を調べる必要がある.このためには,文書走査法の自然な拡張として,テンプレートを用いて,それらの単語の出現環境を単語ベクトルとして抽出し,これらのベクトルと,あらかじめ用意された,クラスを特徴付けるベクトルの比較により,単語の所属クラスを推定することが考えられる.そして,各単語の所属が推定できた時点で,クラス間共起モデルを利用する.クラス間共起でも共起情報が不足するときは,例えば今回提案したヒューリスティクスを用いて最尤解を決定すれば良い.組み合わせは他にも考えられるため,さまざまな方法を比較する必要がある.\noindent{\bf他の課題への適用}テンプレートによる表層的なデータ収集のみで,かなり困難とされてきた複合名詞解析が高精度で達成できることは,例えば構文解析の曖昧性解消問題等にも同様の手法が応用できることを示唆している.今後は,文書走査法の,そのようなタスクへの適用を図りたい.\vspace{-0.5cm}\bibliographystyle{jnlpbbl}\bibliography{v05n4_03}\begin{biography}\biotitle{略歴}\bioauthor{久光徹}{1984年東京大学理学部数学科卒業.1986年同大学院修士課程修了.同年より(株)日立製作所\基礎研究所に勤務.自然言語処理の研究に従事.現在に至る.1995年1月より1年間Sheffield大学客員研究員.情報処理学会,電子情報通信学会,言語処理学会,ACL各会員.}\bioauthor{新田義彦}{1969年東京大学理学部数学科卒業.同年より(株)日立製作所中央研究所に勤務.1974年より同システム開発研究所に勤務.1985年より同基礎研究所に勤務.この間1976〜1977年スタンフォード大学工学部OR学科(M.S.).形式言語,情報検索,機械翻訳,自然言語理解の研究に従事.1995年より日本大学経済学部教授(理工学部兼任教授).日本ソフトウェア科学会,ACM,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N04-09
\section{はじめに} SNS上のユーザ動向調査\cite{lee2016predicting}やフェイクニュース検知\cite{guo2019dean}への応用を目的として,対話文における各発話の感情認識(EmotionRecognitioninConversations:ERC)が注目を集めている\cite{picard2010affective}.またチャットボットなどの会話エージェントが自然な発話文を生成するために,話者の感情が対話中にどのように変化するかが分析されている\cite{huang2018automatic}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}\caption{対話文の各発話に現れる感情ラベルの例}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%先行研究の多くは,RecurrentNeuralNetworks(RNN)を用いて,各発話の特徴を抽出する\cite{liu2016recurrent,hochreiter1997long}.しかし,RNNを用いる場合,長い系列データの特徴の抽出は容易ではない\cite{bradbury2016quasi}.そこでMajumderらは,Attention機構により全発話の中から関連のある発話に焦点を当て,長い系列データの特徴を抽出することで高い認識精度を実現した\cite{majumder2019dialoguernn}.しかしながら,これらの従来手法は発話間の関係,特に自身の発話からの影響(自己依存)と他者の発話からの影響(相互依存)を考慮していない.表\ref{tab:dataset}を用いて,2つの依存関係の重要性を示す.表\ref{tab:dataset}は,2人の話者が就職活動について意見を交わす例である.話者Aは長い間就職先が見つからないため,一連の発話で常に負の感情を抱いている.これは自己依存の例を示し,自分自身の感情の推移を表す.一方で,話者Bの$4$番目の感情は,直前の話者Aの状況に同情し,負の感情を抱いている.これは相互依存の例を示し,他者の発話が自身の感情に影響を与える性質を持つ.Ghosalらは自己依存と相互依存の関係を利用するために,RelationalGraphAttentionNetworks(RGAT)\footnote{RGCN:RelationalGraphConvolutionalNetworks\cite{schlichtkrull2018modeling}とGAT:GraphAttentionNetworks\cite{velivckovic2017graph}を組み合わせたモデル.}を用いて,当時の世界最高峰の認識精度を達成した\cite{ghosal2019dialoguegcn}.この手法は,ノードに各発話の特徴量を,エッジに発話間の関係を,エッジの種類に依存関係の種類を設定し,有向グラフを構築する.しかしながら,RGATを含むGraphNeuralNetworks(GNN)は対話文中の発話の順序情報を利用できない課題がある.表\ref{tab:dataset}を用いて,順序情報の重要性を示す.話者Bは$4$番目の発話で,感情が変化する.これは,$1$番目や$2$番目の発話ではなく,直前の$3$番目の発話に同情したことが原因と考えられる.従って,ERCの認識精度の向上には,発話から発話への距離の影響を考慮する必要がある.一般的な解決策として,発話の絶対位置\cite{vaswani2017attention}や相対位置\cite{shaw2018self}を基にしたPositionEncodingsを,GNNモデルに加える方法がある.絶対位置を基にしたPositionEncodingsはGNNのノード(発話)に,相対位置を基にしたPositionEncodingsはエッジ(発話間の関係)に加えられる.一方で提案手法は,Ghosalらの手法\cite{ghosal2019dialoguegcn}を参考に,自己依存と相互依存の利用を目的として,依存関係の種類に応じたRGATを用いる.従って,絶対位置や相対位置ではなく依存関係の種類に応じた位置表現を用いることで,認識性能の向上が期待できる.本論文は,依存関係の種類に応じた位置表現を新たに作成し,RGATに加える手法\textit{RelationalPositionEncodings}を提案する.提案手法を用いることで,自己依存と相互依存を含む発話間の関係と,発話の順序情報の両方を利用できる.評価実験において,ERCにおける3つのベンチマークデータセットのうち,2つのデータセットで従来手法を上回り,世界最高峰の認識精度を達成した.さらに,絶対位置や相対位置ではなく,依存関係の種類に応じた位置表現が,ERCの精度向上に貢献することも確認した.本論文の貢献を以下に示す.(1)対話文における発話の順序情報を利用するため,初めてRGATモデルに\textit{RelationalPositionEncodings}を適応した.(2)提案手法を用いることで,自己依存と相互依存を含む発話間の関係と,発話の順序情報の両方の利用を可能にした.(3)従来手法との比較実験を通して,提案手法の有用性を確認した.(4)絶対位置や相対位置ではなく,依存関係の種類に応じた位置表現の有用性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{対話文における各発話の感情認識(ERC)}多くの研究者がERCに注目し認識精度向上に取り組んでいる.その中でも,精度向上に大きく貢献した手法にDialogueRNN\cite{majumder2019dialoguernn}がある.DialogueRNNは,Attention機構によって全発話の中から関連のある発話に焦点を当て,長い系列データの特徴を抽出する手法である.また,発話の特徴を抽出する手法として,Luoらの手法\cite{luo2019emotionx}とYangらの手法\cite{yang2019emotionx}がある.Luoらの手法\cite{luo2019emotionx}は事前学習済みBERTモデル\cite{devlin2018bert}を用いて,トークンごとの特徴量を抽出する.得られた特徴量の中から,先頭の$[CLS]$トークンの特徴量を抜き出し,FeedForwardNeuralNetworks(FFNN)を用いて感情ラベルの確率値を算出する.Yangらの手法\cite{yang2019emotionx}は,事前学習済みBERTモデルに,複数の発話をまとめて入力する手法である.複数の発話の間に$[SEP]$トークンを挿入し,連結する.連結した複数発話を同時に入力することで,各発話の内容を考慮しつつ発話間の相互作用も利用することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{GraphNeuralNetworks(GNN)}GNNは,自然言語処理の分野だけでなく画像処理など様々な問題に応用され,著しい注目を集めている.いくつか種類のあるGNNの中でも,ノードとノードの結合関係を表す隣接行列を利用したGCN:GraphConvolutionalNetworks\cite{kipf2016semi}をはじめ,RGCN\cite{schlichtkrull2018modeling}やGAT\cite{velivckovic2017graph}が盛んに利用されている.提案手法は,RGCNとGATを組み合わせたRGATを用いる.RGCNはノード間の関係の種類ごとにGCNを用意するため,自己依存と相互依存など依存の種類ごとにネットワークを構築することができる.またGATを用いることで,ノード間の類似度を計算し,関連性のあるノードに注意を向けることができる.提案手法に最も関連のある手法として,DialogueGCN\cite{ghosal2019dialoguegcn}がある.DialogueGCNは,自己依存と相互依存を含む発話間の関係の取得のためにRGATモデルを利用し,当時の世界最高峰の認識精度を達成した手法である.Ghosalらは,対話文に登場する話者ごとに自己依存と相互依存の影響の度合いが異なると考え,話者ごとに自己依存と相互依存を区別するRGATモデルを構築した.しかしながら,話者の数が増えると,依存関係の種類が増えパラメータの数も増加する.そこで提案手法は,パラメータ数の削減を目的として,話者ごとに自己依存と相互依存を区別しないRGATモデルを構築する.加えて,DialogueGCNを含むGNNモデルは,対話文中の発話の順序情報を利用できない課題がある.本論文は,順序情報の利用を目的として,依存関係の種類に応じた位置表現を新たに作成し,RGATモデルに加える手法\textit{RelationalPositionEncodings}を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{PositionEncodings}本論文は,発話の順序情報をGNNモデルに加える手法を提案する.関連研究に,PositionEncodingsをTransformer\cite{vaswani2017attention}に加える方法がある.TransformerモデルはAttention機構を基に構成されるため,時系列情報の利用が容易ではない.そこで,絶対位置\cite{vaswani2017attention}や相対位置\cite{shaw2018self},構造位置\cite{wang2019self}に基づくPositionEncodingsが提案されている.GNNも同様に時系列情報の利用が容易ではない.そのためIngrahamらはタンパク質の設計に際し,タンパク質の相対的な位置をGNNのエッジに付加するモデルを提案した\cite{ingraham2019generative}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} はじめにERCの問題設定を示す.ERCでは,対話文における各発話$u_1,u_2,\cdots,u_N$の感情ラベル(\textit{neutral},\textit{surprise},\textit{fear}など)を認識する.$N$は1つの対話に現れる発話の数を示す.また,1つの対話に登場する話者を$s_m(m=1,\cdots,M)$とする.$M$は話者の人数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-4ia8f1.pdf}\end{center}\hangcaption{提案手法の全体図.はじめにRoBERTaを用いて発話の特徴量を抽出する.次に,RGATを用いて発話間の関係を考慮した特徴量を作成する.$\mathbf{h}_i^{l}$は発話$u_i$の$l$層目の特徴量を表す.次に,PositionEncodingsによりRGATに発話の順序情報を付加する.最後に発話の特徴量と発話間の関係を考慮した特徴量を連結し,FFNNを用いて感情ラベルを認識する.図は発話$u_4$の感情ラベルを識別する例を示す.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法は,発話特徴量の抽出,PositionEncodingsを加えた発話関係の抽出,感情ラベルの識別の3つで構成される.全体図を図\ref{fig:overview}に示す.本手法は,Ghosalらの手法\cite{ghosal2019dialoguegcn}を参考に,発話間の関係の抽出を目的として,RGATモデルを構築する.さらに,RGATでは取得が容易でない発話の順序情報の利用を目的として,PositionEncodingsを加える手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話特徴量の抽出}\label{sec:cue}BERTモデル\cite{vaswani2017attention}を用いた発話特徴量の抽出方法\cite{luo2019emotionx}を参考に,発話内のtokenごとの特徴量を抽出する.まず,各発話$u_1,u_2,\cdots,u_N$をRoBERTatokenizerを用いて,tokenごとに分割する.発話$u_i$の分割されたtokenを$(u_{i,1},u_{i,2},\cdots,u_{i,T_i})$とする.$T_i$は発話$u_i$に含まれるtokenの数を示す.次に,事前学習モデルRoBERTa-large\footnote{\url{https://github.com/pytorch/fairseq}}\cite{liu2019roberta}を用いて,発話の内容を考慮した特徴量を抽出する.最後に,Max-poolingを通じて発話$u_i$の特徴量$\mathbf{h}_i^{0}\in\mathbb{R}^{D}$を得る.$D$は発話特徴量の次元数を示す.事前学習済みRoBERTaモデルは,学習ステップでファインチューニングを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{順序情報を考慮した発話関係の抽出}\label{sec:rgat}次に,\ref{sec:cue}節で作成した特徴量$\mathbf{h}_i^{0}$をRGATに入力し,発話間の関係を考慮した特徴量を作成する.本手法は,自己依存と相互依存の関係を区別するために,RGATを用いて関係の種類に応じたネットワークを用意する.また,Attention機構を導入し,関連性のある発話に注意を向ける.さらに,発話の順序情報の利用を目的として,依存関係の種類に応じた位置表現を加える\textit{RelationalPositionEncodings}を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{グラフ構造}はじめにグラフ構造を定義する.グラフのノード(発話の特徴量)を$\mathbf{v}_i\in\mathcal{V}$とし,2つのノード$\mathbf{v}_i,\mathbf{v}_j$間を結ぶエッジ(発話間の関係)を$(\mathbf{v}_i,r,\mathbf{v}_j)\in\mathcal{E}$とする.$r\in\mathcal{R}$はエッジの種類(依存関係の種類)を示す.ノードとエッジを一つにまとめた複数のグラフを,$\mathcal{G}=(\mathcal{V},\mathcal{E},\mathcal{R})$と表記する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ノード}グラフのノード$\mathbf{v}_i\in\mathcal{V}$は,各発話の特徴量で表現する.ノード$\mathbf{v}_i$は,発話の特徴量$\mathbf{h}_i^{0}$を初期値とする.RGATを複数層重ねることで,隣接する発話の特徴量を複数回集計する.$L$層重ねた発話$u_i$の特徴量を$\mathbf{h}_i^{L}$とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{エッジの種類}\label{sec:relation}発話間の関係ごとにグラフを構築するGhosalらの手法\cite{ghosal2019dialoguegcn}を参考に,(a)話者の関係と(b)時間の関係に基づきエッジの種類を決定する.(a)話者の関係$\colon$発話間の関係を自己依存と相互依存のいずれかに割り当てる.話者$s_m$による発話$u_i$に対して,同じ話者$s_m$の発話($u_i$を含む)を自己依存とする.一方で,話者$s_m$による発話$u_i$に対して,違う話者$s_{k\neqm}$の発話を相互依存とする.(b)時間の関係$\colon$発せられた時間によって,エッジの種類を割り当てる.すなわち発話$u_i$に対して,発話$u_j$が先に発せられたか(過去),あるいは後に発せられたか(未来)に応じて種類を分ける.一般的に,リアルタイムの対話では,未来の発話を利用できないが,ERCの問題設定はデータが全て揃ったオフラインを想定しているため,未来の発話も利用することができる.以上より,(a)話者の関係と(b)時間の関係に基づき,(1)自己-過去,(2)相互-過去,(3)自己-未来,そして(4)相互-未来,の計4種類のエッジを設定する.エッジの種類を$\mathcal{R}=\{1,2,3,4\}$とする.次に,エッジの種類について,Ghosalらの手法{\cite{ghosal2019dialoguegcn}}と本手法の違いを説明する.Ghosalらは自己依存と相互依存の影響の度合いが話者ごとに異なると考え,登場する話者の数に応じて,(a)話者の関係と(b)時間の関係に基づく4種類の関係を用意した.例えば,ある対話に{$s_1,s_2$}の話者2人が登場する場合,(1)話者{$s_1$}-自己-過去,(2)話者{$s_2$}-自己-過去,$\cdots$,(8)話者{$s_2$}-相互-未来の,計{$2(話者の数)\times4(関係の種類)=8$}種類のエッジを用意する.Ghosalらの手法は,話者ごとにネットワークを区別するため,特定の話者に関する影響を考慮することができる.しかしながら,対話に登場する話者の数が増えると,エッジの種類が増えパラメータの数も増加する.そこで本手法は,パラメータの数を削減するために,話者ごとに関係を区別せず,(a)話者の関係と(b)時間の関係に基づく4種類の関係を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-4ia8f2.pdf}\end{center}\hangcaption{グラフの構築方法.対話文における全ての発話に対して,エッジの種類に基づくグラフを構築する.左は発話$\mathbf{h}_4$を基準にしたとき,右は発話$\mathbf{h}_5$を基準したときのエッジの種類を示す.}\label{fig:figbg}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{グラフの構築}対話文における全ての発話に対して,4種類の関係に基づいたグラフを構築する.図{\ref{fig:figbg}}を用いて,グラフ構築の例を示す.図{\ref{fig:figbg}}は,4番目の発話(左)と5番目の発話(右)を基準にしたときの,隣接する発話との関係を示す.例えば,4番目の発話を基準にした1番目の発話は,過去の自身の発話なので,赤色で示す(1)自己-過去の関係({$r=1$})を表す.また,6番目の発話は未来の自身の発話なので,青色で示す(3)自己-未来の関係({$r=3$})を表す.次に,5番目の発話を基準にした図{\ref{fig:figbg}}の右側の例を考える.5番目の発話を基準にした2番目の発話は,過去の違う話者の発話なので,黄色の点線で示す(2)相互-過去の関係({$r=2$})を表す.このように,対話文における全ての発話{$u_i$}に対して,隣接する発話{$u_j$}と,話者と時間の関係に基づく4種類の関係を構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{エッジの上限数}エッジを結ぶ発話の上限数(窓幅)を定める.過去の窓幅を$p$,未来の窓幅を$f$としたとき,発話$u_i$と$p$個の過去の発話,$f$個の未来の発話をエッジで結ぶ.窓幅を小さく設定する場合,小さな隣接グループしか注目することができない.一方で窓幅を大きくする場合,高い計算コストが必要となる.従って,適当な窓幅$p$と$f$の設定が求められる.本手法は,ハイパーパラメータの数を削減するために,過去の窓幅{$p$}と未来の窓幅{$f$}を同じ値{$p=f$}に設定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{隣接発話の集合}発話{$u_i$}の隣接する発話の集合を定める.エッジの種類{$r$}で発話{$u_i$}に隣接する発話の集合を{$\mathcal{N}_r{(i)}$}とする.集合{$\mathcal{N}_r{(i)}$}の要素は,最大で窓幅{$p(=f)$}の数存在する.例えば,図{\ref{fig:figbg}}において窓幅{$p=3$}で$5$番目の発話(右側)を基準にしたとき,黄色の点線で示すエッジの種類{$r=2$}で発話{$u_5$}に隣接する発話の集合は,{$\mathcal{N}_2{(5)}=\{1,2,4\}$}となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{RGAT}\label{sec:propagation}RGCNモデル\cite{schlichtkrull2018modeling}とGATモデル\cite{velivckovic2017graph}に基づき,隣接する発話の特徴を加味した,$l+1$層目の発話$u_i$の特徴量$\mathbf{h}_i^{l+1}$を作成する.次項に示す,発話$u_i$と発話$u_j$間のAttention機構とPositionEncodingsを加味した重み係数$\alpha_{ij}^{l}$により,隣接する発話の重み付けを行う.エッジの種類$r$で隣接する発話$\mathcal{N}_r(i)$の特徴を,全てのエッジの種類$\mathcal{R}$で集計した特徴量を下式で示す.\begin{equation}\label{eq:rgat}\mathbf{h}_i^{l+1}=\sum_{r\in\mathcal{R}}\sum_{j\in\mathcal{N}_r(i)}\alpha_{ij}^{l}W_{r}^{l}\mathbf{h}_j^{l}\end{equation}$W_r^{l}$は,エッジの種類$r$ごとに用意したRGATのパラメータである.RGATの層数を$L$回重ねることで,$L$回分のエッジによって結ばれた隣接ノードの特徴を反映することができる.さらに本手法は式(\ref{eq:rgat})にMultiHeadAttentionを適用し,LayerNormalizationも加える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{エッジの重み係数}\label{sec:eweight}式(\ref{eq:rgat})における,Attention機構を用いたエッジの重み係数{$\alpha_{ij}^{l}$}を導入する.本手法は,GATモデル{\cite{velivckovic2017graph}}と同様にAttention機構を利用する.発話{$u_i$}と,エッジの種類{$r$}で隣接する発話の集合{$\mathcal{N}_r(i)$}の発話{$u_j$}の,エッジの重み係数{$\alpha_{ij}^{l}$}を下式で示す.\begin{equation}\label{eq:eqew}\begin{split}\alpha_{ij}^{l}&=\frac{\exp(z_{ij}^{l})}{\sum_{\overline{j}\in\mathcal{N}_{r}(i)}\exp(z_{i\overline{j}}^{l})}\\z_{ij}^{l}&=\mathrm{LeakyReLU}\big((\mathbf{a}_r^{l})^T[W_r^{l}\mathbf{h}_i^{l}||W_r^{l}\mathbf{h}_j^{l}]\big)\end{split}\end{equation}ただし,式({\ref{eq:rgat}})に示すように,{$j$}はエッジの種類{$r$}で発話{$u_i$}に隣接する集合{$\mathcal{N}_r(i)$}の要素である.従って,{$j\in\mathcal{N}_r(i)$}の関係から,{$(i,j)$}の組が定まるとエッジの種類{$r$}も定まる.また,$W_r^{l}$はAttention機構のパラメータを,$\mathbf{a}_r^{l}$は学習可能なベクトルを,$\cdot^T$は転置を示す.活性化関数LeakyReLUを通じて得た{$z_{ij}^{l}$}を,集合{$\mathcal{N}_r{(i)}$}におけるedgesoftmax\footnote{対象ノードと隣接するノード間の,エッジの値に関するsoftmaxをedgesoftmaxと呼ぶ.}{\cite{velivckovic2017graph}}で正規化し,重み係数{$\alpha_{ij}^{l}$}を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{RelationalPositionEncodings}\label{sec:pe}本項では,RGATモデルでは取得が容易でない発話の順序情報の利用を目的として,エッジの種類に応じた位置表現を新たに作成し,RGATに加える手法\textit{RelationalPositionEncodings}を提案する.提案手法の位置表現を図\ref{fig:figpv}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-4ia8f3.pdf}\end{center}\hangcaption{提案手法\textit{RelationalPosition}の例.提案手法は,エッジの種類ごとに用意した相対位置を用いる.背景色は$\mathbf{h}_4$を基準とした時のエッジの種類を示す.提案手法の値は,窓幅$p=3$のときの発話{$u_4$}からの\textit{RelationalPosition}を示す.}\label{fig:figpv}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%順序情報を加える従来手法に,絶対位置\cite{vaswani2017attention}や相対位置\cite{shaw2018self}に基づくPositionEncodingsがある.図\ref{fig:figpv}に示すように,絶対位置はノード(発話)の順番に基づき,相対位置はエッジ(発話間の関係)すなわち発話から発話への距離に基づく.発話から発話へ有向グラフを結ぶGNNでは,相対位置を基にしたPositionEncodingsの適用が望ましい.しかしながら,相対位置を基にしたPositionEncodingsは,エッジの種類によらず一律に順序情報が与えられる.本手法は,自己依存と相互依存の取得を目的にRGATを利用するため(\ref{sec:relation}項),エッジの種類に応じた位置表現を作成する.以上より,図\ref{fig:figpv}に示す,エッジの種類ごとに用意した相対位置の位置表現(\textit{RelationalPosition})を新たに作成する.次に\textit{RelationalPosition}の式を示す.はじめに,隣接発話の集合に対応する順番の集合を定める.隣接発話の集合{$\mathcal{N}_r{(i)}$}に対応する順番の集合を,{$\mathcal{I}_{r}(i)\subset\mathbb{N}$}とする.{$\mathbb{N}$}は自然数の集合を示す.{$\mathcal{I}_{r}(i)$}は,窓幅{$p(=f)$}を最大とする自然数から降順に,隣接発話の集合{$\mathcal{N}_r{(i)}$}の要素数を取り出した集合を示す.例えば,図\ref{fig:figpv}の例で窓幅{$p=3$}の時,エッジの種類{$r=1$}で発話{$u_4$}に隣接する集合は,{$\mathcal{N}_{1}{(4)}=\{1,2,4\}$}である.この時,窓幅{$p=3$}を最大とする自然数から降順に,隣接発話の集合{$\mathcal{N}_{1}{(4)}$}の要素数取り出した順番の集合は{$\mathcal{I}_{1}(4)=\{1,2,3\}$}となる.次に,エッジの種類{$r=2$}で発話{$u_4$}に隣接する集合{$\mathcal{N}_{2}{(4)}=\{3\}$}に対応する順番の集合を考える.この時,窓幅{$p=3$}を最大とする自然数から降順に,隣接発話の集合{$\mathcal{N}_{2}{(4)}$}の要素数取り出した順番の集合は{$\mathcal{I}_{2}(4)=\{3\}$}となる.続いて,隣接発話の集合{$\mathcal{N}_r{(i)}$}の要素に対応する,順番の集合{$\mathcal{I}_{r}(i)$}の要素を取り出す変換を定める.隣接発話の集合{$\mathcal{N}_r{(i)}$}の中で,対象{$i$}から相対距離の遠い順に,順番の集合{$\mathcal{I}_{r}(i)$}の要素を対応させる.その変換を{$\mathrm{idx}_{r,i}:\mathcal{N}_{r}(i)\rightarrow\mathcal{I}_{r}(i)$}とする.すなわち,対象{$i=4$}にエッジの種類{$r=4$}で隣接する発話の集合{$\mathcal{N}_{4}{(4)}=\{5,9,10\}$}に対して,対象{$i=4$}から相対距離の遠い順に,順番の集合{$\mathcal{I}_{4}(4)=\{1,2,3\}$}を対応させる.例えば,{$j=10$}番目の発話は,隣接する発話{$\mathcal{N}_{4}(4)$}の中で対象{$i=4$}に最も遠いので,順番の集合{$\mathcal{I}_{4}(4)$}の中から{$1$}が対応する.したがって,{$j=10$}番目の発話の順番を抜き出すときは,変換{$\mathrm{idx}_{r,i}(j)$}を用いて{$\mathrm{idx}_{4,4}(10)=1$}となる.本手法では,発話$u_j$から発話$u_i$への位置表現{\textit{RelationalPosition}を,}変換{$\mathrm{idx}_{r,i}$}を用いて,下式で表現する.\begin{equation}\label{eq:peequ}\mathrm{PE}_{ij}=\mathrm{idx}_{r,i}(j)-\{(r+1)\bmod2\}\end{equation}$\bmod$は剰余演算を示す.式(\ref{eq:peequ})の$\bmod$を含む2項目は,相互の依存関係を示すエッジの種類$r=2,4$の時に,位置表現の値を$(-1)$加算する処理を示す.すなわち,対象の発話に対して,自分自身の発話の位置表現を最大(窓幅{$p$})に設定する.また,位置表現{$\mathrm{PE}_{ij}$}は,対象の発話から離れるに従い減少する.Gehringらの手法\cite{gehring2017convolutional}を参考に,位置表現{$\mathrm{PE}_{ij}$}の値を固定する場合(fixed)と学習する場合(learned)の2つを用意する.まず値を固定する場合(fixed)は,式(\ref{eq:peequ})によって得られる値をそのまま用いる.一方で,値を学習する場合(learned)は,式(\ref{eq:peequ})によって得られた値を入力した1層のFFNNの出力を用いる.値を学習する場合(learned)は,データセットに適した位置表現を学習することが可能になる.図\ref{fig:figpe}に示すように,相対位置に基づく位置表現$\mathrm{PE}_{ij}$は,発話から発話への距離に相当し,エッジの重み係数に加えることができる(\textit{RelationalPositionEncodings}).新たに提案する位置表現を加えたエッジの重み係数を下式で示す.\begin{equation}\label{eq:eqewpe}\begin{split}\alpha_{ij}^{l}&=\frac{\exp(z_{ij}^{l})}{\sum_{\overline{j}\in\mathcal{N}_{r}(i)}\exp(z_{i\overline{j}}^{l})}\\z_{ij}^{l}&=\mathrm{LeakyReLU}\big((\mathbf{a}_r^{l})^T[W_r^{l}\mathbf{h}_i^{l}||W_r^{l}\mathbf{h}_j^{l}]+\mathrm{PE}_{ij}\big)\end{split}\end{equation}式(\ref{eq:eqew})との違いは,位置表現$\mathrm{PE}_{ij}$を足し合わせている点である.位置表現$\mathrm{PE}_{ij}$は,値を固定する場合(fixed)も学習する場合(learned)も,同様にスカラー値である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-4ia8f4.pdf}\end{center}\hangcaption{\textit{RelationalPositionEncodings}の挿入方法.位置表現をエッジの種類ごとに用意し,それぞれをエッジに加える.``PE''はPositionEncodingsを示す.}\label{fig:figpe}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{感情ラベルの識別}\label{sec:classification}\ref{sec:rgat}節で発話関係を考慮し作成した特徴量$\mathbf{h}_i^{L}$と,\ref{sec:cue}節で作成した発話の特徴量$\mathbf{h}_i^{0}$を連結したベクトル$\mathbf{x}$を入力し,$\mathrm{ReLU}$活性化関数を間に挿入した2層のFFNNを用いて,感情ラベルを判別する.式を以下に示す.\begin{equation}\mathrm{Classifier}(\mathbf{x})=\mathrm{ReLU}(\mathbf{x}W_1+\mathbf{b}_1)W_2+\mathbf{b}_2\end{equation}$W_1$と$W_2$はFFNNのパラメータを示し,$\mathbf{b}_1$と$\mathbf{b}_2$は学習可能なバイアスベクトルを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{08table02.tex}\hangcaption{MELD,IEMOCAP,EmoryNLPベンチマークデータセットの割合と評価方法.train,validation,testにおける対話数と発話数,クラス数を示す.}\label{tab:description}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:exp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}ERCにおける3つのベンチマークセットを用いて,提案手法の有効性を検証する.train,validation,testの割合と評価方法を表\ref{tab:description}に示す.また各セットにおける対話数と発話数,クラス数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[MELD]{MELD\cite{poria2018meld}}は,複数の俳優が登場する\textit{Friends}というTVドラマの,一部シーンを切り取った映像と音声の書き起こしからなるデータセットである.また,1つの対話に複数の話者が登場するデータセットである.各発話は,(\textit{neutral},\textit{happiness},\textit{surprise},\textit{sadness},\textit{anger},\textit{disgust},or\textit{fear})のうち1つが付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[IEMOCAP]{IEMOCAP\cite{busso2008iemocap}}は2人の話者が,1対1の会話を行う様子を収録した映像と音声の書き起こしからなるデータセットである.各発話は,(\textit{happy},\textit{sad},\textit{neutral},\textit{angry},\textit{excited},or\textit{frustrated})のうち1つが付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[EmoryNLP]{EmoryNLP\cite{zahiri2018emotion}}はTVドラマ\textit{Friends}から,一部のシーンを切り取り収集したデータセットである.MELDデータセットとデータサイズとラベルの種類が異なり,(\textit{neural},\textit{sad},\textit{mad},\textit{scared},\textit{powerful},\textit{peaceful},or\textit{joyful})のうち1つが付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}Ghosalらの手法\cite{ghosal2019dialoguegcn}で用いられた評価指標と同じ,Weighted-F1値を全てのデータセットの評価に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来手法}提案手法の有効性を検証するために,以下に示す従来手法と精度を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[CNN]{CNN\cite{kim2014convolutional}}ConvolutionalNeuralNetworks(CNN)を用いて対話文における各発話の特徴量を抽出する手法である.これは対話文における発話同士の関係は利用しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[CNN+cLSTM]{CNN+cLSTM\cite{poria2017context}}CNNを用いた発話特徴量の抽出に加えて,双方向LongShortTermMemory(LSTM)を用いて隣接する発話間の関係を利用する手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[KET]{KET\cite{zhong2019knowledge}}階層的Self-Attentionを用いて発話の特徴量を抽出する手法である.また,GATと外部データベースを組み合わせ,CommonsenseKnowledgeと感情に関連する単語の特徴量を抽出する手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogueRNN]{DialogueRNN\cite{majumder2019dialoguernn}}\label{dialoguernn}CNNを用いて発話の特徴量を抽出し,各発話の関連と話者の特徴,感情の推移について,それぞれGatedRecurrentUnit(GRU)でモデリングする手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogueGCN]{DialogueGCN\cite{ghosal2019dialoguegcn}}\label{dialoguegcn}CNNを用いて発話の特徴量を抽出し,隣接する発話間の相互作用をGRUを用いて抽出する手法である.加えて,発話間の関係の中でも自己依存と相互依存の取得にRGATを利用する手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[IEIN]{IEIN\cite{lu2020iterative}}双方向GRUを用いて発話の特徴量を抽出し,発話間の相互作用の抽出に双方向GRUとAttention機構を用いる手法である.さらに,感情ラベルの確率を入力し,新たな感情ラベルの確率を出力するネットワークを用いる.再起的に確率を導出することで,隣接する発話間の影響を利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[HiTrans]{HiTrans\cite{li2020hitrans}}EmoryNLPデータセットにおいて,State-of-the-artを達成した手法である.発話特徴量の抽出にBERTモデルを用い,話者間の関係の抽出にTransformerを利用し,階層的に組み合わせた手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph[DialogXL]{DialogXL\cite{shen2020dialogxl}}MELD,IEMOCAPデータセットにおいて,State-of-the-artを達成した手法である.過去の発話を保存し共有するネットワークを,XLNetに加えた手法である.また隣接する発話間の関係(local)と,会話全体の発話間の関係(global)と,話し手,聞き手の特徴を,それぞれSelf-Attentionを用いて抽出する手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{その他の実験設定}その他の実験設定を示す.提案手法は,損失関数にCrossEntropyLossを用いて学習を行った.また,RoBERTaとRGATモデルの学習率を$1e-3$に設定し,CosineAnnealingScheduleにより学習率を減少させ学習した\cite{loshchilov2016sgdr}.RAdamoptimizer\cite{liu2019variance}を用いて最適化を行った.発話の特徴量と発話関係を考慮し作成した特徴量の次元数を$1024$とし,ラベル識別の中間層の次元数を$512$に設定した.また,エッジ重み係数を計算する際に,$4$-HeadAttentionを用いた.RGATのレイヤ数とバッチサイズはそれぞれ$2$と$8$に設定した.validationセットで最もWeighted-F1値が高くなるハイパーパラメータの組み合わせを選択した.ドロップアウトの割合は$0.1,0.3,0.5$の中から$0.3$を,窓幅は$(p,f)={(2,2),(3,3),(4,4),(5,5)}$の中から$(p,f)=(5,5)$を選択した.全ての実験結果は5回行い平均値を用いた.512GBメモリのXeon(R)Gold6246CPUと,48GBメモリのQuadroRTX8000GPUを用い,CentOS環境で実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果と考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来手法との比較}従来手法との比較結果を表\ref{comparison}と表\ref{eachlabel}に示す.提案手法を除く全てのWeighted-F1値は,各文献から引用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベンチマークの比較}表\ref{comparison}より,MELDデータセットでは,Weighted-F1値$63.12\%$を達成し,従来手法を約$0.7\%$近く上回る世界最高水準の認識精度を達成した.また,IEMOCAPデータセットにおいても,Weighted-F1値$65.95\%$を獲得し,世界最高水準の認識精度を達成した.結果から3つのベンチマークデータセットのうち,2つのデータセットでState-of-the-artを達成し,提案手法の有効性を確認した.さらに,複数のベンチマークで高い認識精度を有することから,データ数や発話数,登場する話者数が異なる場合でも,精度良く認識できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{08table03.tex}\hangcaption{MELD,IEMOCAP,EmoryNLPベンチマークデータセットにおける従来手法との比較.ボールド体は最も性能が高い値を示す.各値は5回の実験によるWeighted-F1値の平均値を示す.}\label{comparison}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{08table04.tex}\hangcaption{MELDデータセットにおける従来手法と提案手法の,感情ラベルごとの認識結果.ボールド体は最も性能が高い値を示す.RoBERTaは発話特徴量の抽出を目的としてRoBERTaを用いた手法,+RGATは発話関係の抽出を目的としてRGATを加えた手法(RoBERTa+RGAT),+PEはPositionEncodingsを加えた提案手法(RoBERTa+RGAT+PE)を示す.W-F1はWeighted-F1値を示す.}\label{eachlabel}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{感情ラベルの比較}MELDデータセットを用いて,感情ラベルごとの認識精度を比較し,提案手法の特徴を分析する.結果を表\ref{eachlabel}に示す.従来手法($\sharp0-\sharp4$)に加え,$\sharp5$に発話特徴量の抽出を目的としてRoBERTaを用いた手法(RoBERTa),$\sharp6$に発話関係の抽出を目的としてRGATを加えた手法(+RGAT),そして$\sharp7$にPositionEncodingsを加えた提案手法(+PE)の結果を示す.結果から,従来手法({$\sharp0-\sharp4$})と比較し,全ての感情ラベルで提案手法({$\sharp7$})の有効性を確認できる.特に,出現回数の少ない{\textit{disgust}}ラベルにおいて,提案手法({$\sharp7$})はF1値{$27.51\%$}を達成し,F1値{$19.38\%$}を獲得したLuらの手法($\sharp4$)を$8\%$以上上回る認識精度を達成した.出現頻度の低い感情ラベルにおいても,提案手法は高い認識性能を有することを確認した.またRoBERTa({$\sharp5$})と+RGAT({$\sharp6$})と比較し,ほとんど全ての感情ラベルで提案手法({$\sharp7$})の有効性を確認できる.しかしながら,{\textit{fear}}ラベルでは,RoBERTa({$\sharp5$})が高い認識性能を達成した.MELDデータセットでは,``Ilostit''や``Howbadisthis?''といった発話に,しばしば{\textit{fear}}ラベルが付与される.RoBERTa({$\sharp5$})が最も高いF1値を達成したことから,他の発話からの影響や時系列情報に比べて,発話内容が{\textit{fear}}の感情に影響することが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{推定結果の分析}次に,発話特徴量の抽出を目的としてRoBERTaを用いた手法,発話関係の抽出を目的としてRGATを加えた手法(+RGAT),そしてPositionEncodingsを加えた提案手法(+PE),それぞれの推定結果を分析する.結果を表\ref{error}に示す.表\ref{error}は,MELDのvalidationセットの一部で,恋人と共に引越しをするMonicaが,友人であるRachelに別れを告げるシーンである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{08table05.tex}\hangcaption{MELDデータセットにおける推定結果.RoBERTaは発話特徴量の抽出を目的としてRoBERTaを用いた手法,+RGATは発話関係の抽出を目的としてRGATを加えた手法(RoBERTa+RGAT),+PEはPositionEncodingsを加えた提案手法(RoBERTa+RGAT+PE)を示す.}\label{error}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%結果から,RGATを用いない手法(RoBERTa)は,$4$番目と$10$番目の発話で,誤って\textit{joy}と認識していることが分かる.一方で,RGATを用いる手法(+RGAT,+PE)は,正しく感情ラベルを認識した.発話間の関係を考慮したことで,MonicaとRachelの一連の悲しい感情を反映し,正しく認識した.しかしながら,$0$番目の発話で,提案手法(+PE)は\textit{joy}と誤って認識した.先頭(または末尾)の発話を認識する場合,未来(過去)の発話しか参照できないため,他の発話に比べて識別が難しい.そこで,対話全体の感情の傾向を考慮することで,参照し得る情報の不足を補うことが見込める.MELDデータセットでは,表{\ref{error}}の正解ラベルが示すように,負の感情が現れる対話の場合は負の感情({\textit{sadness},\textit{surprise}}など)が続く傾向にある.従って,対話全体で負の感情が連続する傾向を考慮することで,表{\ref{error}}の$0$番目の結果のような正の感情({\textit{joy}}など)への誤認識を防ぐことが期待できる.提案手法は,window幅を設け隣接する発話の局所的な影響を考慮する構造をそなえているが,対話全体の感情の傾向を捉える構造はそなえていない.今後の展望として,発話間の局所的な影響を抽出するモデルに加えて,対話全体の大域的な感情の傾向を抽出するモデルを検討する.最後にRGATを加えた手法(+RGAT)と提案手法(+PE)について,$4$番目の発話で\textit{neutral}と推定した際に,周辺のどの発話の影響を重視したかを分析する.表\ref{error}のサンプルにおける,+RGATと+PEのそれぞれのエッジの重み係数(式(\ref{eq:eqew}),(\ref{eq:eqewpe}))を,図\ref{fig:edgeweight}に示す.左に+RGATの結果を,右に+PEの結果を示す.それぞれの図は,RGATモデルの最終層($L=2$)の,$4$番目の発話に対するエッジの種類ごとの重み係数を示す.重み係数の値が大きいほど濃い色で示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-4ia8f5.pdf}\end{center}\hangcaption{表\ref{error}のサンプルにおけるエッジの種類ごとの重み係数.左に発話関係の利用を目的としてRGATを加えた手法+RGAT(RoBERTa+RGAT),右にPositionEncodingsを加えた提案手法+PE(RoBERTa+RGAT+PE)の結果を示す.各図はRGATモデルの最終層($L=2$)の,4番目の発話へのエッジの重み係数を示す.重み係数の値が大きいほど,濃い色を示す.}\label{fig:edgeweight}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:edgeweight}の結果から,PEを加えることで,対象の発話($i=4$)に近い発話の影響がそれぞれのエッジの種類で大きくなることが確認できる.赤色で示す自己-過去の関係({$r=1$})では,PEを加えることで$4$番目の発話の影響が大きくなり,緑色で示す相互-未来の関係({$r=4$})では,PEを加えることで$7$番目の発話の影響が大きくなった.このように,PEを加えることで,対象に近い発話の影響を重視することが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデルの種類}MELDデータセットを用いて,絶対位置と相対位置に基づくPositionEncodingsと比較し,提案手法の有効性を確認する.TransformerにおけるPositionEncodings手法\cite{vaswani2017attention}を参考に,絶対位置に基づくPositionEncodingsをRGATモデルの入力部分に加える.また,相対位置に基づくPositionEncodingsを,グラフのエッジ係数に加える.位置表現を示す値は,固定する場合(fixed)と,FFNNを用いて学習する場合(learned)のいずれかを用いる.結果を表\ref{tab:modelvariation}に示す.発話特徴量の抽出を目的としてRoBERTaを用いた手法($\sharp0$)と,発話関係の抽出を目的としてRGATを加えた手法($\sharp1$)をそれぞれベースラインとする.PositionEncodingsの種類を変更し,固定または学習した場合の結果を$\sharp2-\sharp7$に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{08table06.tex}\caption{絶対位置と相対位置,提案手法に基づくPositionEncodingsの比較}\label{tab:modelvariation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案するRelationPositionEncodingsを用いて値を学習する場合($\sharp7$),最も高いWeighted-F1値$63.12\%$を得た.提案手法はベースライン($\sharp0,\sharp1$)に比べ$2\%$近く値が改善し,さらにその他のPositionEncodingsに比べ高い認識精度を達成した.以上より,PositionEncodingsを学習する場合,最も高い認識精度を達成することが確認できる.また,全てのPositionEncodings($\sharp2-\sharp7$)が,ベースライン($\sharp0,\sharp1$)よりも高いWeighted-F1値を得ていることから,PositionEncodingsの有効性も確認することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} \label{sec:conclusion}本論文は,対話文における各発話の感情認識において,RGATモデルに適した順序情報を加える\textit{RelationalPositionEncodings}を提案した.順序情報を加えたRGATを用いることで,発話間の関係と発話の順序情報の両方を利用できる.3つのベンチマークデータセットを用いて提案手法の有効性を確認したところ,2つのデータセットで従来手法を上回る認識精度を達成した.また提案手法は,絶対位置や相対位置に基づくPositionEncodingsよりも高い認識精度を達成し,その有効性を確認した.今後,\textit{RelationalPositionEncodings}の次元数を増加させることを検討している.\textit{RelationalPositionEncodings}はエッジの重み係数に加えるため,スカラー値で表現した.スカラー値では表現次数として不十分な可能性があり,今後次元数を増やすことを検討する.また,発話間の局所的な影響を抽出するモデルに加えて,対話全体の大域的な感情の傾向を抽出するモデルを検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の内容の一部は,Proceedingsofthe2020ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2020)で発表したものである\cite{ishiwatari2020relation}.貴重なコメントや議論を頂いたNHK放送技術研究所の山田一郎上級研究員,美野秀弥研究員,遠藤伶研究員,東京工業大学の\UTF{5FB7}永健伸教授に感謝の意を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{08refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石渡太智}{%2017年早稲田大学大学院修士課程修了.同年,NHKに入局.2019年より放送技術研究所にて自然言語処理の研究に従事.2021年より東京工業大学博士後期課程在学.言語処理学会会員.}\bioauthor{安田有希}{%2017年早稲田大学大学院修士課程修了.同年,NHKに入局.2019年より放送技術研究所にて自然言語処理の研究に従事.}\bioauthor{宮\CID{8443}太郎}{%2006年東京工業大学大学院修士課程修了.同年,NHKに入局.2011年より放送技術研究所にて自然言語処理の研究に従事.2017年から2018年メルボルン大学訪問研究員.言語処理学会,映像情報メディア学会,電子情報通信学会,各会員.}\bioauthor{後藤淳}{%1993年徳島大学大学院修士課程修了.同年,NHKに入局.1998年より同放送技術研究所で言語処理研究に従事.2014年総合研究大学院大学博士課程修了.博士(情報学).現在,放送技術研究所上級研究員.映像情報メディア学会,電子情報通信学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V11N05-08
\section{はじめに} \label{sec:introduction}\numexs{hodonai}{\item\emph{旧友}と飲む酒\emph{ほど}楽しいものは\emph{ない}.\item\emph{昔の友達}と飲む酒が\emph{一番}楽しい.}\numexs{kousan}{\item内戦状態に\emph{再突入する公算が大きい}.\item\emph{再び}内戦状態に\emph{なる}\emph{可能性が高い}.}この例のように,言語には同じ情報を伝える表現がいくつも用意されている.意味が近似的に等価な言語表現の異形を言い換え(paraphrase)と言う.言い換えを指す用語には他に,言い替え,換言,書き換え,パラフレーズといった語も使われるが,統一のため本論文では一貫して「言い換え」という用語を使う.これまでの言語処理研究の中心的課題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つ問題をどう解決するかにあった.これに対し,言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題も同様に重要である.与えられた言語表現からさまざまな言い換えを自動生成することができれば,たとえば,所与の文章を読み手の読解能力に合わせて平易な表現に変換したり,音声合成の前編集として聴き取りやすい表現に変換したりすることができる.あるいは,機械翻訳の前編集として翻訳しやすい表現に変換するといったことも可能になるだろう.また,与えられた2つの言語表現が言い換えであるかどうかを自動判定することができれば,情報検索や質問応答,複数文書要約といったタスクにおける重要な問題の一つが解決する.近年,こうした問題に関心を持つ研究者が増え,言い換えというキーワードが目立つようになってきた.本学会年次大会でも,2001年に言い換えのセッションが設置されて以来,4件(2001年),9件(2002年),10件(2003年),7件(2004年)と投稿を集めた.また2001年,2003年には言い換えに関する国際ワークショップが開かれ,それぞれ8件,14件の発表,活発な議論が行なわれた\cite{NLPRSWS:01,IWP:03}.本論文では,言い換えに関する工学的研究を中心に,近年の動向を紹介する.以下,まず,\sec{definition}で,言語学的研究および意味論研究における言い換えに関連の深い話題を取り上げ,言い換えの定義について考察する.次に,\sec{applications}で言い換え技術の応用可能性について論じた後,\sec{models}で構造変換による言い換え生成,質問応答・複数文書要約のための言い換え認識に関する研究を概観する.最後に\sec{knowledge}で言い換え知識の自動獲得に関する最新の研究動向を紹介する. \section{言い換えとは?} \label{sec:definition}そもそも言い換えとはどのようなものか?どのような種類があるのか?直感的なイメージをつかむには,末尾の\app{taxonomy}に目を通されるのがよいかもしれない.日本語の言い換え現象を構文的特徴に基づいて整理してある.では,こうした言い換えはどのように定義されるか?英語学習辞典COBUILDによると,「言い換え」=``paraphrase''は次のように説明されている.\begin{quote}Ifyou\emph{paraphrase}somethingwrittenorspoken,orthepersonwhosaidit,yougiveits\textbf{meaning}usingdifferentwords.\end{quote}明らかなのは,言い換えを定義するには,``meaning''が何を指すか,つまり言葉の「意味」とは何かという問題に深く立ち入らなければならないということである.言語の意味論が多くの議論を要する,形式化が困難な問題であることは読者の良く知るところであろう.しかも,意味論研究の成果と自然言語処理技術の現状には依然として深いギャップがある.ここでは言語学研究および意味論研究における言い換えに関連の深い話題をいくつか紹介し,言い換えとは何かを考える材料を提供する.\subsection{言語学から見た言い換え}\label{ssec:ling_pov}\subsubsection{変形文法}\label{sssec:trans}理論言語学における言い換えの扱いは初期の変形文法まで遡る.変形文法における変形は,表層構造(統語構造)に対する統語的操作で,たとえば,能動文から受動文に変形する操作は次のように記述される.\smallskip\begin{center}\begin{tabular}{cccccc}\hline能動文:&\featbox{1}~:~NP&\featbox{2}~:~[$+$V,$+$AUX]&&\featbox{3}~:~[$+$V,$-$AUX]&\featbox{4}~:~NP\\受動文:&\featbox{4}&\featbox{2}&BE\+EN&\featbox{3}&BY\featbox{1}\\\hline\end{tabular}\end{center}\smallskipこうした操作は,表す意味を保存したまま統語構造を変えるという意味で構造的な言い換えと見なすことができる.\cite{harris:81}には,文から文への変形,名詞句から文へ変形といった具合に対象の粒度によって変形規則を約20種類に分類したものが掲載されている(ただし,これらの変換規則が構文的言い換えをどの程度カバーするかは明らかでない).こうした研究の成果は言い換えの工学的実現にも有益であろう.変形規則のもう一つの問題は,変形の語彙依存性をうまく扱えていないことである.ある変形の適用が可能となる条件は単語に依存する場合が少なくない.たとえば,上の受動化の例をとってみても,他動詞であれば常に受動化できるわけではなく,「``resemble''のような動詞の場合は適用できない」といったきめの細かい条件指定が必要になる.これは個々の語の特性に立ち入る必要があることを意味しているが,変形文法のような伝統的文法理論ではそれらを明らかにする活発な研究は見られなかった.\subsubsection{Meaning-TextTheory}\label{sssec:MTT}変形の語彙依存性の記述を試みた例として,\citeauthor{melcuk:96}らが発展させたMeaning-TextTheory(以下,MTT)があげられる\cite{melcuk:87,iordanskaja:91,wanner:94,melcuk:96,iordanskaja:96}.MTTでは,意味構造から深層統語構造,表層統語構造を経て音韻構造にいたるまで7層の表現レベルを用意し,次の2種類の規則で言い換えを説明する.\begin{itemize}\item\emph{変形規則:}各レベル間の対応を変形規則として記述する.同じ意味構造に対して異なる変形規則を適用すると異なる文が得られる.これらの文は互いに言い換えの関係にある.\item\emph{言い換え規則:}同じレベルの表現どうしの間で起こる変形を言い換え規則として記述する.言い換え規則を適用すると言い換えが得られる.\end{itemize}変形規則と言い換え規則の語彙依存性の記述には語彙関数(lexicalfunction)を用いる.語彙関数とは,語の共起関係を記述するための道具で,たとえばある動詞$X$に対してその名詞形を返す$S_{0}(X)$と,ある動詞の名詞形$Y$に対して元の動詞形の主語を同じく主語とするような機能動詞を返す$Oper_{1}(Y)$という2つの語彙関数を組み合わせると,\refex{MTTrule}のような深層統語構造の言い換え規則によって,\refex{MTTex}のような言い換えを記述することができる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip000.eps}\caption{MTTにおける言い換え規則の例\cite{iordanskaja:96}}\label{fig:MTTrule}\end{center}\end{figure}\numex{MTTrule}{$X_{verb}$\quad{\lra}\quad$S_{0}(X)+Oper_{1}(S_{0}(X))$(\fig{MTTrule}のような構造を仮定)\\($S_{0}(\emph{decrease}_{verb})=\emph{decrease}_{noun}$,$Oper_{1}(\emph{decrease}_{noun})=\emph{show}$)}\numexs{MTTex}{\item[s.]Employment\emph{decreasedsharply}inOctober.\item[t.]Employment\emph{showedasharpdecrease}inOctober.}\citeA{melcuk:96}によると,言語の記述に必要な語の共起関係は60種類の言語独立な語彙関数でカバーできるとしており,それらの関数を組み合わせて表現する\fig{MTTrule}のような言い換え規則もまた言語に依存しない一般的な規則で記述する.ただし,実際には個々の言語の語彙について語彙関数の大規模な辞書が必要となるが,残念ながらそうした辞書はいまだ存在しない.\subsubsection{言い換えの構成性}変形文法やMTTにおける言い換えの扱いでもう一つ重要な原理は言い換えの構成性である.たとえば,次の\refex{synonym+casealt}の言い換えは,\emph{purchase}{\ra}\emph{buy}という語彙的な言い換えと,\emph{$X$beVERB-\textsc{pp}by$Y$}{\ra}\emph{$Y$VERB$X$}のような一般的な態交替の規則を組み合わせによって記述できる.\numexs{synonym+casealt}{\item[s.]Thiscar\emph{waspurchasedby}him.\item[t.]He\emph{bought}thiscar.}明らかに,言い換えをよりプリミティブな変形に分解して記述するアプローチは,分解せずに記述するアプローチに比べると理論的にも工学的にも理にかなっている.ただし,前者を採用することにしても,それ以上分解できないプリミティブな言い換えにはどのような種類があるのか,それらは網羅的に数えあげられるのか,また,そもそも分解の可否を判断する基準を明確に規定できるか,という問題が残る.たとえば,MTTの研究者らはこれらを究明すべき中心的な問題の一部と考え,前述のように言い換え規則や語彙関数としてその成果を形にしてきた.しかし,語彙関数の定義が厳密性を欠くなど,不十分な点も多く,大規模な評価も試みられていないのが現状である.\subsubsection{言い換えの言語横断性}言い換えの言語横断的共通性の解明も注目すべき言語学的知見の一つである.MTTでは,フランス語や英語など,複数の言語の言い換えを対比させることによって,言語に依存しない言い換え規則を規定しようとしてきた.\citeA{melcuk:96}によると,すべての言語の言い換えは60種類の語彙関数を組み合わせた言い換え規則で記述できるとされる.こうした成果が本当に正しいかどうかは十分な経験的評価による証明を待たねばならないが,少なくとも言い換えのモデル化に関して有益な知見を提供していることは間違いない.経験的方法と組み合わせた大規模な調査も報告されている.たとえば,\citeA{kageura:04:b}は,日本語と英語の各々で同じ言い換え現象,とくに複合語を中心とした専門用語の言い換えを取り上げ,\refex{compound-parallel}のような日英各々の言い換え規則集合\cite{jacquemin:97,yoshikane:03}を用いて,両言語における言い換え可能性の共通性を調査している\footnote{\refex{compound-parallel}の言い換え規則において,$N_{i}$は名詞,$V_{i}$は動詞,$X_{i}$は任意の内容語,$V(N_{i})$は名詞$N_{i}$の動詞形を表す.}.\numexs{compound-parallel}{\item[j.]概念学習{\ra}概念を学習する($X_{1}$$N_{2}${\ra}$X_{1}$``を''$N_{2}$する)\item[e.]wordcategory{\ra}categorizewords($N_{1}$$N_{2}${\ra}$V(N_{2})$$N_{1}$)}彼らは,事例から演繹的に50〜60個の変換規則を作成し,これを用いて,ある技術用語集の6割強の複合専門用語に対する両言語同時の言い換えを可能にしている.ほかにも,\refex{cleft-parallel}のような分裂文の言い換え\cite{sunagawa:95,dras:99:a}や\refex{lvc-parallel}のような機能動詞結合の言い換え\cite{muraki:91,iordanskaja:91,dras:99:a,fujita:04:d}なども,さまざまな言語に共通の言い換え現象である.\numexs{cleft-parallel}{\item[j.]\emph{収録されているのは}約千人の人物\emph{だ}.\\{\ra}約千人の人物\emph{が収録されている}.\item[e.]\emph{Itwashisbestsuitthat}Johnworetothedancelastnight.\\{\ra}Johnwore\emph{hisbestsuit}tothedancelastnight.}\numexs{lvc-parallel}{\item[j.]\emph{住民の強い要請を受け},廃棄物処理場の建設を中止した.\\{\lra}\emph{住民に(から)強く要請され},廃棄物処理場の建設を中止した.\item[e.]Employment\emph{showedasharpdecrease}inOctober.\\{\lra}Employment\emph{decreasedsharply}inOctober.}言い換えの定式化・類型化にはこうした言語横断的視点からの分析が欠かせない.\subsubsection{言い換えの機能論的説明}人間は言い換える.それはなぜだろうか?この疑問に対する答えはいくつか考えられる.\citeA{walker:93}は,言い換えによって意思の疎通をはかっていると指摘している.また,\citeA{takatsuka:99}は,テクニカルコミュニケーションの立場から,第二言語学習者にとって有用な語彙的言い換えに着目し,言い換えの機能として次のような項目をあげている.\begin{itemize}\item第二言語の学習者が自らの言語能力を補う.\item相手の理解を促進させるために自分の先行発話を言い換える.\item意味を確認するために相手の発話を言い換える.\end{itemize}上の例のようなコミュニケーションの促進という機能の他にも,言い換えは,社会的関係を保持する道具として用いられる.\citeA{kunihiro:00}は,会話の相手のメンツを傷つけることを避ける婉曲表現,仲間との連体性を保つ集団語として言い換えが用いられると述べている.自治体,企業のサービス窓口やアナウンサー向けのマニュアルにも社会的に不適切な表現の使用を避けるような項目が設けられており,代替表現(言い換え)が提示されていることもある.\subsection{意味が同じであるとは?}\label{ssec:equivalence}\subsubsection{真理値意味論的意味の同一性}変形文法やMTTを含む多くの現代文法理論では,意味構造(深層構造)が同一であれば同義であり言い換えであると仮定しており,これが言い換えの定義になっている.ここで言う意味とは,語あるいは言語表現の内包的な意味(intension)を指す.本論文では,内包的意味の同一性に基づく言い換えを,以下で述べる参照的言い換えや語用論的言い換えと区別するために,\emph{語彙・構文的言い換え}(lexicalandstructuralparaphrase)と呼ぶ.内包的意味が同一かどうかの判断は,真理値意味論(モデル論的意味論)を仮定すると考えやすい場合が少なくない.真理値意味論では,意味を真理値への写像と見なして定式化する.たとえば,「本」の意味は,個体$x$が本であれば真,本でなければ偽を返す真理関数`本'$(x)$で与えられる.これによると,二つの表現があるとき,それぞれの真理関数において任意の個体の写像先の真理値がつねに同じであれば,またそのときに限り,それらの意味は同一である.「書籍」の関数`書籍'$(x)$を真にする個体の集合,すなわち書籍という概念の外延(extension)が「本」のそれと同じであれば,「書籍」と「本」は意味が同じといえる.よく知られるように,こうした見方は,「太郎が本を読む」のような命題を表す表現にも拡張できる.ただし,こうした真理値意味論が言葉の意味を表現するのに十分でないことは明らかであり,真理値意味論の問題に関する議論は枚挙にいとまがない.以下,言い換えの定義に深く関連する問題について論じる.\subsubsection{言外の意味}変形文法では,前述のように能動文と受動文の対は同じ意味構造を持つと仮定した.誰が何をどうしたかという命題部分の意味は同じと考えて良いだろう.こうした仮定はたとえばより最近の主辞駆動句構造文法(Head-drivenPhraseStructureGrammar;HPSG)にも受け継がれている.しかし,能動文と受動文は,話者の視点が違っていたり,どの情報を強調するか,あるいはどの情報が新情報かといった情報構造の違いがあるので,文脈によっては置換できない.現在の文法理論が仮定する意味表現は,こうした意味の違いを十分に扱えていない.こうした問題は,最も基本的なものに見える単語間の言い換えにも見られる.たとえば,前述のように「書籍」と「本」は真理値意味論的意味,すなわち指示的意味(denotation)はほぼ同じだが,厳密にはフォーマリティなどの暗示的意味(connotation,いわゆるニュアンスあるいは言外の意味)の違いがあり,いつでも置き換えられるわけではない.言語は同義語を嫌う\cite{clark:92}.同じ意味を持つ語があったとしても,語用論的な力が作用して,次第に違う意味,とくに違うニュアンスを帯びるようになる.したがって,実際には完全に意味が同じで常に置換可能な同義語はまれである.言い換えと認められる表現対の多くになんらかの意味の違いがあるとすれば,ただちに,言い換え対の意味の差にはどのような種類があり,どのように記述すればよいかという問題が出てくる.これについては,すでに多くの言語学的蓄積\cite{halliday:94,miyajima:95:a,miyajima:95:b,kageyama:01}があるものの,全貌はまだ遠く見えない.さらに,こうした言い換え対が所与の文脈で置換可能であるためには,意味の差がその文脈で無視できるものなくてはならない.したがって,言い換えの理論化には,言い換え対の意味の差分が所与の文脈に照らして無視できるかどうかを判別する機構の説明が必要である.\subsubsection{参照の同一性}語の意味に関する哲学的考察のなかで古くから論じられてきたように,言語表現の内包的意味が同じであることは,その表現の参照対象が同一であることと必ずしも一致しない.たとえば,Fregeの「宵の明星」「明けの明星」の例は有名である.「宵の明星」と「明けの明星」は同じ参照対象を持つが,明らかに内包的意味は異なる.両者が言い換え可能(置換可能)となる文脈を考えるのは容易でない.このように,参照対象が同一であることは言い換え可能であるための十分な条件にはならない.ただし,内包的意味が違っていても,参照の同一性に基づいて言い換えることができる場合がある.典型的なのは,次の例のような参照表現の言い換えである\cite{sato:99}.\numexs{semantic_paraphrase1}{\item[s.]去年の出来事\item[t.]1998年の出来事}\numexs{semantic_paraphrase2}{\item[s.]筆者の考え\item[t.]佐藤の考え}こうした言い換えは特定の大域的文脈,談話の状況でのみ成り立つもので,内包的意味の同一性に基づく言い換えとは区別するべきである.本論文では,この種の言い換えを\emph{参照的言い換え}(referentialparaphrase)と呼ぶ.\subsubsection{語用論的効果の同一性}先に意味の同一性を真理値意味論的に捉えた場合を議論したが,真理値意味論の欠陥を踏まえて状況論的意味論や言語行為理論が登場した経緯から容易に推測されるように,真理値意味論に基づいて言い換えを論じるのには限界がある.その一つが,語用論的効果の同一性に基づく言い換えである.言葉の語用論的効果とは,話者がそれを発することによって達成できると期待するコミュニケーションの目的である.次の例のように同じ語用論的効果を持つ発話は言い換え可能である\cite{sato:99,kawamura:00}.\numexs{pragmatic_paraphrase1}{\item[s.]どなたかgccのソースのありかをご存知ないでしょうか.\item[t.]gccのソースが置いてあるftpサイトを教えてください.}\numexs{pragmatic_paraphrase2}{\item[s.]Willyoubreakthisbill?\item[t.]Iwanttousethatvendingmachine.}これらの言い換えは,仮に内包的意味が真理値意味論的に与えられたとしても,同じではない.\citeA{sato:99}はこうした言い換えを語用論的言い換えと呼んでいる.本論文でもこれに倣い,語用論的効果の同一性に基づく言い換えを\emph{語用論的言い換え}(pragmaticparaphrase)と呼ぶ.\bigskip以上の議論をまとめると,言い換えには少なくとも,語彙・構文的言い換え,参照的言い換え,語用論的言い換えの3種類がある.参照的言い換えは言葉が発せられた文脈や談話の状況を参照する必要がある.また,語用論的言い換えは明らかに,代表的な現代文法理論で仮定している意味論を超えるものである.このうち工学的実現が最も容易に見えるのは語彙・構文的言い換えである.実際,言い換えに関する工学的研究のほとんどが対象をこの語彙・構文的言い換えに限定している.以下,本論文でも語彙・構文的言い換えに話題をしぼる. \section{言い換え技術の使い方} \label{sec:applications}言い換え技術の用途は広い.言い換えの実現方法に話をすすめる前に,さまざまな言い換えが自動化できるようになるとどのような使い方ができるかを整理してみよう.\subsection{人間のために言い換える}電子化文書データの爆発的な増加を背景に,そうした文書を利用者や利用形態に適した形に自動編集する技術の必要性が説かれるようになって久しい.冒頭の例のように,高齢者や子供,外国人,障害者など,利用者の言語能力にあわせて読みやすい平易な文面になおすタスク\cite{carroll:98:a,canning:99:a,inui:01:a,higashinaka:02,inui:03:a}はそのような編集の一例である.また,ニュース原稿から字幕を生成したり,Webの文書を携帯端末に表示したり,ニュースを街頭や新幹線の電光掲示板に表示したい場合は,1行当たりの字数を考慮してコンパクトな表現に言い換える技術が必要になる\cite{robin:96,kondo:97:a,fukushima:99,mikami:99,ehara:00,kataoka:00,masuda:01:a,SatoDai:04:a,ikeda:04}.言い換え技術は,人間が文書を書く現場でも有用である.読みやすい文書を書く,スタイルを統一する,規定の語彙と構文を使って(制限言語文書を)書く,といった作業を支援する推敲支援でも,読みにくい文や制限言語に合わない文を自動的に適切な文に言い換える技術が必要とされている\cite{hayashi:91,takahashi:91:a,takeishi:92,dras:99:a,mitamura:01}.同様のことは,機械翻訳や要約など,機械が文章を生成する場合にもいえる.機械が出力した文章をチェックし,適格でない表現があれば自動的に修正するといった後編集\cite{knight:94:a,mani:99:a,nanba:00:a}が実現するとありがたい.また,人間が要約する場合は,原文にはない表現をうまく使って内容をまとめることができるが,これなども言い換えの一種といえ,そのような言い換えをいかに自動化するかが自動要約の重要な課題になっている\cite{kondo:97:a,okumura:99:a,kataoka:00,okumura:02:a}.\subsection{言語の機械処理のために言い換える}\label{ssec:for_machine}言い換えた結果を消費するのは人間ばかりとは限らない.言い換えは入出力が同一言語であることから,さまざまな言語処理アプリケーションの中に部分タスクとして組み込むことができる.機械翻訳では,前編集段階で機械処理に適した言語表現にあらかじめ書き換えておくと訳質が上がる\cite{shirai:95:a,kato:97:a,yoshimi:00:b}.この前編集を自動化する試みがすでに多数報告されている\cite{kim:94:a,shirai:95:a,chandrasekar:96:a,nyberg:00,yoshimi:00:a,yoshimi:00:b,imamura:01,YamamotoKazuhide:02:c}.機械翻訳の他にも,手話への翻訳のための前編集(手話に変換しやすい表現に言い換える)\cite{adachi:92:a,tokuda:98}や音声合成のための前編集(耳で聴きとりやすい表現に言い換える)など,前編集としての言い換え技術の潜在的応用範囲は広い.言語には同じ内容を指す表現がいくつも用意されている.\cite{sato:01:a}の例を引こう.\numexs{お名前}{\itemお名前をお願いしたいのですが.\\{\ra}Couldyoutellmeyourname,please?\itemお名前を頂戴することはできますか.\\{\ra}Couldyoutellmeyourname,please?}\refexs{お名前}{a}と\refexs{お名前}{b}はだいたい同じ意味の発話で,同じ訳文を当てることができる.したがって,(a)を翻訳できる人なら,(b)も翻訳できるだろう.しかし,翻訳システムが(a)と(b)の同義性を理解できず,それぞれ別々に翻訳しようとすると,(a)は翻訳できるが,(b)は翻訳できないといったことになりかねない.その場合でも,仮に前編集段階で(b)を(a)に言い換えることができれば,翻訳システムも対応できることになる.前編集が機械翻訳に効果的と考えられるのは,言語が持つこのような表現の多様性を前編集段階で吸収できることが期待されるためである.言語表現の多様性が機械処理を難しくしている例は翻訳にとどまらない.文書集合に対する情報検索や質問応答では,検索要求や質問に使われる言語表現とそれに該当する記述の言語表現が異なれば,単純なキーワード照合ではうまく応答できない.これに対し,たとえば,\numexs{verification}{\item《著作名》の著者は《人名》だ.\item《人名》が《著作名》を発表する.}という2つの言い回しが広い意味での言い換えの関係になっていることを認識できれば,「『坊ちゃん』の著者は誰ですか?」のような質問の答えを,情報源となる文書中の「夏目漱石が『坊ちゃん』を発表した明治39年は,$\ldots$」のような記述から探し出すことができる.検索質問拡張(termexpansion)は,その近似的な解決策の一つであるが,より洗練された同義性判定,すなわち言い換えの認識の仕組みが必要であることは明かであり,すでにさまざまな試みが報告されている\cite{jacquemin:97,hikasa:99:a,anick:99:a,hirata:00:a,shiraki:00:a,tomuro:01:a,ravichandran:02,hermjakob:02,sasaki:02,duclaye:03,moldovan:03,takahashi:03:c,yoshikane:03}.また,情報抽出において多様な言い換え表現から同じ情報を抽出する問題\cite{sekine:01,shinyama:02,shinyama:03}や,複数文書要約において個々の文書から抽出したパッセージの中に同じ情報を冗長に伝える記述がないかどうかを判定する問題\cite{mckeown:99,barzilay:99,ueda:00,narimatsu:02,barzilay:03:c}なども,同様に言い換え認識の問題といえる.\subsection{言い換えを研究の道具として使う}\label{ssec:as_tools}言い換え技術は言語処理研究の道具としても使える可能性がある.直接的な使用例の一つに,機械翻訳システムの評価用正解翻訳例の自動生成がある.機械翻訳の研究では,評価用の各原文に対して複数の正解翻訳例を用意し,システムの出力を評価するのが一般的になってきた.たとえば,BLEU~\cite{papineni:02:b}と呼ばれる自動評価手法では,豊富な正解例を用意することが評価結果の信頼性を確保するのに必要なことが分かっている.しかしながら,いくつもの正解翻訳例を人手で作るのはコストが高い.こうした背景から,代表的な正解例からその他の翻訳例を言い換え生成によって自動的に入手する試みがいくつか報告されている\cite{pang:03,kanayama:03}.\clearpage \section{言い換えの実現方法} \label{sec:models}\sec{applications}で述べたように,言い換えの工学的な処理は大きく生成と認識の2種類に分けられる.言い換え生成は,与えられた言語表現からその言い換えを生成する作業であり,\sec{applications}で述べたように機械翻訳の前編集や後編集,文章読解の支援など,さまざまな応用がある.言い換え生成は,言語表現を入力とする生成という意味で,テキストからのテキスト生成(text-to-textgeneration)の一種と言うことができる.これに対し,自然言語生成の文脈では,同一の意味構造からさまざまな言い換えを生成する作業を指して「言い換え生成」と呼ぶことがある.両者は相互に深く関係しあう問題であり,独立な問題として考えるべきではないが,混乱を避けるため,本論文ではもっぱらテキストからのテキスト生成の意味で言い換え生成という用語を使う.言い換え生成は,意味を保存しながらある言語表現を別の意味表現に変換するという意味で,同一言語内の翻訳と見なすことができる.逆に言い換えの方を広く捉えて,翻訳は異なる言語間をまたぐ言い換えであると言ってもよい.本節では,まず\ssec{MT}で言い換え生成の研究を歴史の長い機械翻訳研究と対比させながら紹介し,\ssec{vsMT}で機械翻訳研究では顕在化しなかった新しい問題を論じる.以下,「言い換え生成」と「(機械)翻訳」を区別するため,それぞれを狭い意味で用いる.すなわち,「言い換え生成」は意味を保存したまま同一言語内の別の表現に変換する作業,「(機械)翻訳」は意味を保存したまま他の言語の表現に変換する作業を指す.一方,言い換え認識は,2つの異なる言語表現が言い換えかどうかを判別する作業であり,情報検索や質問応答,複数文書要約などの応用がある.この問題は,一方から言い換えを生成して他方に到達できるかを調べる問題と見なせるので,言い換え生成と裏表の関係にあるといえる.\ssec{recognition}ではこの点を論じる.\subsection{同一言語内翻訳としての言い換え生成}\label{ssec:MT}\subsubsection{機械翻訳と言い換え生成}言い換え生成の研究が機械翻訳研究の長い歴史から学べることは多い.たとえば,統語構造変換と意味構造変換の長所短所,用例ベース翻訳や統計的翻訳などの経験的手法の有効性,対訳コーパスからの翻訳知識獲得の可能性といった議論は,言い換えにもほとんどそのまま当てはまる.実際,言い換え生成の実現方法に関するこれまでの提案や試みの多くは,こうした既存の機械翻訳技術からのアナロジーに基づいている.むしろ,処理方式などの方法論的議論に関するかぎり,言い換え生成の研究はこれまでのところ機械翻訳技術の後追いの域をほとんど出ていないとさえいえる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip001.eps}\caption{MTTに基づく翻訳と言い換えの統合モデル\cite{lavoie:00}}\label{fig:lavoie}\end{center}\end{figure}言い換えと翻訳の共通性をうまく切り取って形にした例として,\citeA{lavoie:00}の翻訳と言い換えの統合モデル(\fig{lavoie})は象徴的である.このモデルでは,MTT(\sssec{MTT}を参照)に基づいて,まず入力文から深層の依存構造表現(深層統語構造表現;DSyntS)を生成する.この中間表現を他言語の中間表現に構造変換(トランスファ)してから生成すると翻訳になり,同言語内の別の中間表現に変換して生成すると言い換えになる.中間表現には言語に依存しない共通の表現形式を用いるので,言い換えにせよ翻訳にせよ同じエンジンを使って構造変換することができる.言い換えと翻訳の違いは,構造変換に用いる変換知識(変換パターン)が違うだけである.\subsubsection{構造変換(トランスファ)方式}\label{sssec:transfer}既存の言い換えの実現方法の多くは機械翻訳のトランスファ方式に対応する.ただし,機械翻訳と異なって入力文の全体を変換する必要はないため,対象とする言い換えの種類ごとに,その現象を捉えるのに都合の良い変換レベルを設定していて実現可能性を調査するというスタイルの研究が多い.たとえば,言い換えの対象が語や句のような比較的局所的な場合は,表層レベルでの局所的な置換によって言い換えを生成できる可能性があるが,埋め込み文を主節から切り離したり,主辞が交替するような言い換えを実現するためには,少なくとも依存構造や句構造などの統語レベルのトランスファが必要になる.\begin{description}\item[表層レベル]単語を同義語に言い換える場合や,慣用表現のような,要素が省略されにくく,語の間に別の語が割り込まない表現を言い換える場合,単純な文字列置換でも言い換えを生成できる.このレベルの言い換えには完全に語彙化された表現対が用いられる.実現例としては,単語から単語への置き換え\cite{edmonds:99,fujita:01,lapata:01:b,pearce:01},数語の単語列から同じく数語の単語列への言い換え\cite{barzilay:01,barzilay:02,pang:03,shimohata:03:c,quirk:04},慣用表現の言い換え\cite{fujita:03:c}などがあげられる.\item[統語レベル]言い換え生成モデルの中には依存構造を前提としているものも多い.統語レベルのトランスファでは,\app{taxonomy}に示すようなさまざまな種類の言い換えが実現可能になる.たとえば,\citeA{kurohashi:99:b},\citeA{kaji:01}のモデルでは,文節レベルの係り受け構造を用いている.そして,「AのB」{\lra}連体節\cite{kurohashi:99:b},内容語の言い換え\cite{kaji:03:b},機能動詞結合の言い換え\cite{kaji:04:a}などを実現している.一方,\citeA{takahashi:01:c}は,言い換えの対象が文節以上の単位であっても,その影響が文節よりも小さなレベルに及ぶことに着目し,形態素レベルの依存構造を採用している.また,機能語列や係り受けの順序などを表現するための記述言語を提供し,依存構造レベルのトランスファ規則の作成を支援している.\item[意味レベル]\sssec{MTT}で紹介したMTTの深層統語構造レベルでの言い換えは,項の順序を区別して語彙関数を定義するなど,依存構造や句構造から意味的なレベルに一歩踏み込んだ構造変換を仮定している.その他,動詞の格役割,格要素間の関係を捉えるためにより意味に踏み込んだ例として,語彙概念構造(LexicalConceptualStructure;LCS)を用いた複合動詞の言い換え\cite{takeuchi:02},機能動詞結合の言い換え\cite{fujita:04:d}があげられる.\end{description}\subsubsection{ピボット方式}\label{sssec:pivot}機械翻訳のピボット方式相当のアプローチも見られる\cite{meteer:88,huang:96,brun:03}.この方式では,対象領域や捕らえるべき情報を限定して専用の意味構造を定義し,対象テキストをその構造に当てはめることで言い換えを生成する.こうした研究では,情報抽出の技術を用いて入力から意味構造の要素を抽出する技術や,意味構造から表層表現を生成する技術が各々独立に論じられている.たとえば,\citeA{brun:03}は,薬品データベースの分析に基づいて7種類の述語--項構造を定義し,\refex{brun1}の例のようにこの領域専用の意味表現として用いている.\numexs{brun1}{\itemAcetoneisamanufacturedchemicalthatisalsofoundnaturallyintheenvironment.\item\texttt{SUBSTANCE(acetone).PHYS\_FORM(acetone,chemical).\\ORIGIN(acetone,natural,theenvironment,in).\\ORIGIN(acetone,man-made,NONE,NONE).}}機械翻訳の場合と同様,ピボット方式では中間意味表現の設計と管理が問題になるため,領域を十分に限定して,過度に複雑な意味の問題をうまく避ける必要がある.\subsubsection{言い換え知識の表現方法}\label{sssec:representation}言い換え知識の表現方法については,言い換え関係にある表現対を表層の単語列または構文木の対として表現する場合が多い.\sssec{trans}で紹介した変形文法の操作は統語レベルの言い換え知識とみなせるし,\sssec{MTT}で紹介したMTTにおける言い換え規則も依存構造の対からなる.文法を用いて言い換えを表現している例もある.\citeA{dras:99:a}は,木接合による同期文法(SynchronousTreeAdjoiningGrammar;STAG)\cite{abeille:90,shieber:90}を用いて言い換え知識を表現している.同期文法の枠組みでは,入力文の解析と同時に,解析に用いられる文法のそれぞれに対応(同期)する文法が組み合わさり,解析終了と同時に出力が得られる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip002.eps}\caption{複数単語列アラインメントによって生成される単語ラティス\cite{pang:03}}\label{fig:lattice}\end{center}\end{figure}その他,言い換えの関係にある複数の文を,複数単語列アラインメント(Multi-SequenceAlignment;MSA)というアルゴリズムを用いて\fig{lattice}のような1つの単語ラティスで表現する試みもある\cite{barzilay:02,barzilay:03:a,pang:03}.これは,英語のように語順の制約が比較的強い言語ならではのアプローチである.\subsection{機械翻訳と何が違うのか?}\label{ssec:vsMT}\subsubsection{応用横断的技術としての言い換え}翻訳が異言語間の同義表現であるのに対し,言い換えは同一言語内の同義表現である.このことのおかげで,言い換え生成・認識技術は,単一言語を対象とするさまざまな言語処理アプリケーションへの利用が期待できる.別の言い方をすれば,言い換え技術は形態素・統語解析のような要素技術をさまざまな応用につながる応用横断的なミドルウェアであると考えてもよい.\ssec{for_machine}の例\refex{お名前}をもう一度考えよう.機械翻訳の前編集で「お名前を頂戴することはできますか」を「お名前をお願いしたいのですが」に言い換えることが有益なのは,翻訳システムが前者を正しく処理できず,後者を正しく処理できる場合である.しかし,この議論には少し誤魔化しがある.この議論が成り立つためには,言い換えシステムが「お名前を頂戴することはできますか」という文を正しく解析し,正しく言い換える能力を持っていなければならない.しかし,上で述べたように翻訳と言い換え生成は本質的には同じ問題を扱う技術なので,もし「お名前を頂戴することはできますか」の言い換えが技術的に可能なのであれば,その技術を翻訳システムに組み込んで,両方の入力を正しく翻訳するシステムを作ることも原理的には可能なはずである.逆に,翻訳システムにとって解析が困難な文は言い換えもやはり困難なはずであり,翻訳の問題の一部を前編集に移したとしても,問題の難しさは変わらない.それでも翻訳の前編集に言い換え技術を使う試みが合理的に見えるのは,複雑な既存の翻訳システムの中身を触らずに済むといった短期的な利益のためばかりでなく,この技術が広く応用横断的でだからである.翻訳という一つの応用技術から言い換えという応用横断技術を切り出す試みと言ってもよい.このように,言い換え技術が応用横断的であることは,従来の機械翻訳研究では見過ごされてきた重要な特徴である.これまでの言い換えの研究では,特定の応用/言語/言い換えを想定して知識が構築されてきた.しかし,今後は,知識やシステムのポータビリティを考慮し,\begin{itemize}\item言い換えのための知識をどのように整理し,分割し,記述しておけば応用横断的な再利用性が高くなるかを検討し,\itemその成果にもとづいて実際に言い換えの処理や知識を実現し,\itemそれらの部品を組み合わせて新しい用途に対応できる仕組みを作る\end{itemize}という努力を重ねる必要がある.\subsubsection{問題解決型タスクとしての言い換え}\label{sssec:problem_solving}言い換え生成では,言い換えるべき対象を選択しなければならないという問題もある.翻訳では,原文のすべての構成要素を目的言語に変換するという暗黙の前提があった\cite{verbmobil:00,EBMT:03}.一方,言い換えは,「なんらかの目的を満たす表現への変換」\cite{YamamotoKazuhide:01}であるため,「原文のどの部分を言い換えるべきか」を目的に照らして判断し,その部分だけを選択的に変換する必要がでてくる.たとえば,原文を平易な表現に言い換えて文章の読解を支援するといった用途の場合,原文のままでユーザが理解できる部分は言い換える必要がないし,むしろ言い換えない方がよい\cite{dras:99:a,inui:01:a,inui:03:a}.\sec{definition}で述べたように,言い換えは多くの場合原文の意味を厳密には保存できないため,不必要な言い換えは原文の情報を過度にねじまげてしまう恐れがあるからである.\citeauthor{dras:99:a}は,原文を言い換えるたびに,話し手が伝えたい情報や微妙なニュアンスなど原文のなんらかの情報がかならず損われるため,人間の書いたテキストを言い換える際は目的を満たす範囲で言い換えの程度を最小限に抑えるべきだと指摘している.そして,そのような言い換えを「外部から与えられた制約を満たすために仕方なくやる言い換え」という意味で``reluctantparaphrasing''と呼んでいる.これをもう少し一般化すると,言い換え生成は,「なんらかのテキストの評価基準が与えられたとき,原文から基準を満たさない言語表現を抽出し,満たす表現に言い換える」という問題解決型のタスクと見なせる.評価基準は言い換えの目的によって異なるだろう.読解支援の場合は「人間(外国人,子供,障害者,特定のユーザなど)にとってのテキストの読みやすさ」が基準になる\cite{carroll:98:a,canning:99:a,inui:01:a,higashinaka:02,inui:03:a}が,機械翻訳の前編集では「解析・翻訳の容易性」\cite{shirai:95:a,kato:97:a,yoshimi:00:b},音声合成(text-to-speechsysthesis)の前編集では「聴覚理解の容易性」ということになる.また,特定の語彙と構文を基準として与えると制限言語への言い換え\cite{mitamura:01}というタスクになり,書き言葉から話し言葉への変換\cite{kaji:04:c}などの応用例がある.以上から,言い換え生成技術は,次の2つの部分技術に集約できることがわかる.\begin{itemize}\item\emph{言い換え候補生成}与えられた言語表現に対して,言語的に適格な種々の言い換えを網羅的に生成する技術\item\emph{テキスト評価}与えられた評価基準に基づいてテキストを評価する技術\end{itemize}言い換え候補生成が通常の意味での機械翻訳にほぼ相当するとすれば,テキスト評価は言い換えになって初めて顕在化される問題であるといえる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip003.eps}\caption{言い換え候補生成とテキスト評価}\label{fig:gen-and-eval}\end{center}\end{figure}テキスト評価の必要性は,すでに何人もの研究者が指摘するところである.\citeA{YamamotoKazuhide:01}は,「対象特定」「仮説生成」「仮説選択」,\citeA{murata:01:c}は,「変換(transformation)」「評価(evaluation)」と呼んでいる.また,\citeA{mitamura:01}も制限言語への言い換えを「checking」「rewriting」に分けている.これらはいずれもほぼ同じ分け方と見てよい.両者の組み合わせ方にはいろいろ考えられる.最も単純には,次のような3段階のカスケード型のモデルが考えられる(\fig{gen-and-eval}).\begin{itemize}\item[1.]テキストを評価し,言い換えの対象を選択する\item[2.]選択された対象から可能な言い換えを網羅的に生成する\item[3.]生成された候補を評価し,最適解を出力する\end{itemize}もちろん,そのような単純な`generateandtest'方式に計算量的な問題がある場合は,評価基準に対する原文の「違反の仕方」に応じて言い換えの種類を絞り込むといった,いわば「言い換えプランニング」のような機構を検討してもよい.\citeA{dras:99:a}が試みたように,制約下での最適化問題として定式化する方向も考えられる.言語生成のセンテンスプランニングを制約充足問題として定式化した\citeA{beale:98}のアプローチも参考になると思われる.また,読解支援などの場合,評価基準にユーザの読解能力の個人差(ユーザモデル)を反映することができれば,ユーザに適応的な支援も可能になるだろう.いずれにせよ,テキスト評価と言い換え候補生成を切り離した設計は,テキストの評価基準を取り替えることによってさまざまな用途の違いを吸収でき,より汎用的な枠組みを提供することができる点で有利である.\subsection{言い換えの認識}\label{ssec:recognition}言い換えの認識は,質問応答や情報検索の中心的な部分問題の一つである\cite{shiraki:00:a,kurohashi:01,lin:01,ravichandran:02,sasaki:02,hermjakob:02,duclaye:03,moldovan:03,takahashi:03:c,takahashi:04:a}.\citeA{takahashi:04:a}は,NTCIRQACトラック\cite{fukumoto:02}で用いられた質問文と,人手で作成した質問の合計約400問とそれに対する解答文書の関係を分析している.それによると,質問と解答を結び付ける変換操作の約85\%が含意・前提条件などの推論を含む広義の言い換えと見なせる.また,複数文書要約では,イベント間の関係を把握したり冗長な要約を避けたりするために,異なる文書中で同じ内容を指す部分(類似部分)を同定する必要がある.\citeA{barzilay:99}は,TopicDetectionandTrackingコーパス\cite{allan:98}中の同じ内容を示す文の対200組を分析し,語彙・構文的言い換えによって約85\%の文対を結び付けることができると述べている.この文脈でも,言い換えの認識に関するいくつかの手法が提案されている\cite{mckeown:99,barzilay:99,ueda:00,narimatsu:02,barzilay:03:c}.言い換えの認識のアプローチは大きく2種類に分けられる.1つ目は,語彙・構文的変換の到達可能性を調べるアプローチで,与えられた2つの言語表現のうち,一方を語彙・構文的に言い換えて,他方に到達できるか否かを判別する.2つ目は,意味レベルの照合を明示的に扱うアプローチで,2つの言語表現の各々をピボット的な意味表現に変換し,それらが一致するか否かを判別する.以下,それぞれの代表的な研究を紹介する.\subsubsection{語彙・構文的変換に基づく言い換えの認識}語彙・構文的変換に基づく方法の例は\citeA{ueda:00}の複数文書要約アルゴリズムに見ることができる.彼らの方法では,複数の入力文書を依存構造の部分木の集合として表現し,その中から入力文書に共通に出現する部分木を取り出すことで複数文書要約を生成する.ただし,文書によっては同じ情報が別の表現で言語化されている可能性があるので,同義な(すなわち言い換えの関係にある)部分木どうしも共通の部分木として扱う必要がある.彼らが扱った言い換えは,\refex{ueda1}のような類義語,上位語への言い換え,および\refex{ueda2},\refex{ueda3}のような構文的な交替などである.\numexs{ueda1}{\item[s1.]\emph{ホウレンソウ}からダイオキシンが検出された.\item[s2.]\emph{白菜}からダイオキシンが検出された.\item[t.]\emph{野菜}からダイオキシンが検出された.}\numexs{ueda2}{\item[s.]軽量の携帯\emph{電話が}\emph{フーバー社によって}\emph{発売される}.\item[t.]\emph{フーバー社が}軽量の携帯\emph{電話を}\emph{発売する}.}\numexs{ueda3}{\item[s.]全角\emph{スペースが}シンタックス\emph{エラーを}\emph{起こす}.\item[t.]全角\emph{スペースで}シンタックス\emph{エラーが}\emph{起きる}.}彼らのアプローチは,\citeA{mckeown:99,barzilay:99}の手法と次の点で共通する.\begin{itemize}\item従来のbag-of-words的な手法に替えて部分構文構造を導入し,類似度をより正確に見積もる\cite{mckeown:99},\itemWordNet~\cite{WN:90}のsynsetや動詞のクラス\cite{levin:93}を用いて,部分構造間の同義性を判定する\cite{mckeown:99,barzilay:99},\item各種交替などの構文的な言い換えを規則として実装し,表現の多様性を吸収する\cite{barzilay:99}.\end{itemize}\citeauthor{ueda:00}は,語彙・構文的変換によって生成された部分木にペナルティを課すことで,変換によって生じる元文との情報のずれを考慮している.そして,変換によるペナルティと文書間での共通性から各部分木の重要度を計算し,上位数個の部分木を要約生成に用いている.このアルゴリズムは,入力となる$n$文の各々について可能なすべての言い換えを生成することで,複数の文書間で共通に出現し,かつ言い換え回数が少ない表現を効率良く選択している.こうした語彙・構文的変換に基づく方式では,入力表現の言い換え方が組み合わせ的な数に膨らむ可能性があるので,変換の種類に制限を加える,あるいは効率的な探索法を導入するといったなんらかの対策が必要になる.たとえば,\citeA{takahashi:03:c}は,質問応答の文脈で,山登り法探索を実現する枠組みを提案している.彼らのアルゴリズムでは,質問と解答候補文書の両方に言い換えを適用し,最も類似度が高い$\langle$質問,解答候補$\rangle$の組を優先して繰り返し言い換える.また,\citeauthor{ueda:00}のように,語彙・構文的変換にペナルティを課す場合はそれによって探索空間が抑えられる.\subsubsection{意味表現に基づく言い換えの認識}ある表現の含意や前提条件などの推論は,統語構造上よりも意味表現上で扱う方が,知識記述や変形操作の実現という点で都合が良い.しかし,意味表現に基づいて言い換えを認識するには,やはり意味表現の設計が問題になる.ここでは,質問応答の文脈でのアプローチをいくつか紹介する.\citeA{ravichandran:02}は,質問応答では多くの場合,質問に対して特有の表現パターンが解答になるということに着目している.たとえば,\refexs{ravi1}{a}と\refexs{ravi1}{b}は``Mozart''の誕生年を示す異なる表現だが,\refexs{ravi2}{a},\refexs{ravi2}{b}のように固有表現を抽象化すると,どちらも「ある人物の誕生年」に関する\refex{ravi3}のような意味表現に対する表現のパターンと見なすことができる.\numexs{ravi1}{\itemMozartwasbornin1756.\itemMozart(1756-1791)$\ldots$}\numexs{ravi2}{\item$\langle$\emph{name}$\rangle$wasbornin$\langle$\emph{birthdate}$\rangle$\item$\langle$\emph{name}$\rangle$($\langle$\emph{birthdate}$\rangle$-}\numex{ravi3}{\textsc{birthdate}~(\emph{name},\emph{birthdate})}彼らは,TREC2001~\cite{voorhees:01}における質問の分析によって上の誕生年に関する質問を含む6つの質問タイプを選択し,それぞれを表すような典型的な表現パターンをWebから自動収集している.質問に対する解答としては,単純に上のような表現パターン中の,質問対象の固有表現のスロットに対応する表現が出力される.たとえば,``WhenwasMozartborn?''という質問は,\refex{ravi3}の意味表現に対応付けられ,同時に$\langle$\emph{birthdate}$\rangle$が解答を示す固有表現スロットだと同定される.質問文中の固有表現``Mozart''を用いて検索した文書中に,\refexs{ravi1}{a}のような,\refex{ravi2}中の表現パターンに対応する表現が見つかれば,その文書と質問は\refex{ravi3}という意味表現において等価だと認識され,``1756''が解答として取り出される.\citeA{sasaki:02,moldovan:03}は,質問と解答候補文書を論理形式(LogicalForm)を意味表現とすることで,言い換えの関係にある文間の統語レベルの違いを捨象し,質問と解答候補文書の対応付けを可能にしている.\refexs{sasaki1}{\textsc{lf}}は,\citeauthor{sasaki:02}の質問応答システム,SAIQA-Isに\refexs{sasaki1}{q}という質問文を入力したときに得られる論理形式である.\numexs{sasaki1}{\item[q.]WhereisthecapicalcityofJapan?\item[\textsc{lf}.]\texttt{COUNTRY(Y1:'Japan'),R(Y1,Y2),'city'(Y2:'capitalcity'),\\LOCATION(Y3:Z);ORGANIZATION(Y3:Z),R(Y2,Y3)}}SAIQA-Isでは,さらに,解答が得られなかったときのみ``\emph{WorldCup}''{\ra}``\emph{W-Cup}''のような同義語レベルの言い換えを適用し,解答を再度探索する.一方,\citeauthor{moldovan:03}のシステム,LogicProverは,WordNet~\cite{WN:90}を用いて論理形式中の一部の語を同義語・上位語に置き換えるだけでなく,論理形式レベルで推論に関する書き換え処理を施して,質問と解答候補文書の照合を試みる. \section{言い換え知識の獲得} \label{sec:knowledge}言い換えの生成や認識を実用規模で実現するには,言い換えに関する知識を既存の資源から効率的に獲得する手段の開発が必須である.本節では,言い換え知識の獲得に関するこれまでの試みを翻訳や情報抽出のための知識獲得技術に照らして紹介する.\subsection{既存の語彙資源を言い換えに利用する}\label{ssec:existent}\subsubsection{シソーラスを使って同概念語に言い換える}言い換えに利用できる語彙資源と言うと,まず思い浮ぶのはシソーラスである.たとえば,WordNet~\cite{WN:90}\footnote{\uri{http://www.cogsci.princeton.edu/\~{}wn/}}やEDR日本語単語辞書\cite{EDR:95}\footnote{\uri{http://www2.crl.go.jp/kk/e416/EDR/J\_index.html}}には,非常に細かい意味分類に基づく単語間の同義関係が与えられているので,それを用いれば,入力中の単語を同義語に置換する語彙的言い換えを実現できるように思える.しかし,実際には同義語といえども意味や用法になんらかの差がある場合がほとんどで,無条件で置換できる語のペアは必ずしも多くない\cite{edmonds:99,fujita:01,lapata:01:b,pearce:01,okamoto:03:b,inkpen:03:b}.たとえば,「随所」と「各地」はEDR日本語単語辞書によると同概念に属する(同概念語)が厳密には意味が異なる.このため,互いに言い換え可能かどうかは,\refex{zuisho}のように,その差が周囲の文脈に照らして無視できるかどうかに依存する.\numexs{zuisho}{\item\emph{随所}({\ra}\emph{各地})でがれきの山が生まれ,火災も発生し,死傷者も多数,確認されている.\item片仮名交じりの文語体,しかも難解な言葉が\emph{随所}({\ra}{\badex}\emph{各地})にあり,法学専攻の学生をすら悩ます現行刑法の法文が現代用語に書き換えられる.}\subsubsection{語釈文に言い換える}国語辞典の語釈文は見出し語の言い換え表現と見なせるので,国語辞典から$\langle$見出し語,語釈文$\rangle$の対を取り出せば,そのまま大規模な語彙的言い換え知識として使える.たとえば,「廃材」は「いらなくなった木材(岩波国語辞典)」という語釈文を持つので,\refex{haizai}のような言い換えができる.\numexs{haizai}{\item[s.]がれきや\emph{廃材}の仮置き場\item[t.]がれきや\emph{いらなくなった木材}の仮置き場}しかし,いつも語釈文に置き換えるだけで正しい言い換えが作れるわけではない.たとえば,次の例\refexs{ainori}{s}の「相乗り(する)」を語釈文「乗り物に一緒に乗る」にそのまま置き換えようとすると,\refexs{ainori}{t1}のような不適格な文になってしまう.正しくは,原文中の「タクシーに」と語釈文中の「乗り物に」の重複を検出して,\refexs{ainori}{t2}のように「乗り物に」を削除する必要がある.\numexs{ainori}{\item[s.]タクシーに\emph{相乗りする}\item[t1.]{\badex}タクシーに\emph{\underline{乗り物に}一緒に乗る}\item[t2.]タクシーに\emph{一緒に乗る}}語釈文への言い換えでおこる上の問題に注目した\citeA{kurohashi:01,kaji:01}は,言い換え対象語の周囲の文脈と語釈文の要素と重なり(上の例では「タクシー」と「乗り物」)を自動的に検出し,重複をうまく取り除いた適格な言い換えを生成する手法を提案している.彼らのアプローチは,(a)国語辞典という既存の語彙資源を使うため,カバレッジの広い多様な語について語彙的言い換えを実現できる,(b)自然言語で書かれた語釈文を知識源とするので,知識の拡張・保守が容易であるなどの利点があり,大きな可能性を秘めている.\subsubsection{語釈文から言い換えを見つける}さらに,慣用表現など,内容語の特別な用法について,語釈文にヒントが隠されている場合がある.たとえば,岩波国語辞典\cite{RWC:98}の「はこぶ」の語釈文には,\refex{RWC:98:はこぶ}のように,慣用表現とそれに対応する表現の対が記述されている.ただし,こうした記述は網羅的なものではないため,この方法で十分なカバレージを確保することは難しい.また,運用の際には多義性も考慮する必要がある.\numex{RWC:98:はこぶ}{\emph{はこ‐ぶ【運ぶ】}〈1〉((五他))何かのために,ものを他の所に進め移す.〈ア〉物を持ったり車に積んだりして,他の場所まで動かす.「机を別の部屋に—」「恋人の所へせっせと金を—(=みつぐ)」\emph{「筆を—」(文章を書き進める)}\emph{「足を—」(行く.通う)}「ようこそお—・び(=おいで)くださいました」}\subsubsection{対訳辞書から言い換えを見つける}対訳辞書を利用するという手も考えられる.たとえば,日本語語彙大系\cite{NTT:97}の構文体系には\refex{NTT:97:surrender}のような記述があり,そこから\refexs{NTT:97:combi}{r}のような言い換え知識を獲得することができる.\numexs{NTT:97:surrender}{\itemN1(名詞のクラス:主体)がN2(名詞のクラス:主体)の軍門に下る\\{\lra}N1surrendertoN2\itemN1(名詞のクラス:主体)がN2(名詞のクラス:主体)に降伏する\\{\lra}N1surrendertoN2}\numexs{NTT:97:combi}{\item[r.]N1(名詞のクラス:主体)がN2(名詞のクラス:主体)の軍門に下る\\{\ra}N1がN2に降伏する.\item[s.]英国を含む\emph{欧州がヒトラーの軍門に下る}のを黙って見ているわけにはいかない.\item[t.]英国を含む\emph{欧州がヒトラーに降伏する}のを黙って見ているわけにはいかない.}\subsubsection{意味の同一性を考えて言い換えを獲得する}\label{sssec:distinction}より厳密に同義表現を獲得するためには,言い換え前後の表現対の共通の意味や意味の差を捉え,\ssec{equivalence}で述べたさまざまなレベルにおける同一性の問題に踏み込む必要がある.ここでは,最もプリミティブなレベル,すなわち類義語間の意味の差と捉えようとする試みをいくつか紹介する.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip006.eps}\caption{語の指示的意味と言外の意味を示すクラスタモデル\cite[p.97]{edmonds:99}}\label{fig:cluster}\end{center}\end{figure}\citeA{edmonds:99}は,類義語(near-synonym)の意味を記述するオントロジを開発し,自然言語生成の語選択に用いている.\fig{cluster}では,類義語``brunder''と``error''の意味が,それらを含む語のクラスの指示的意味,および一部の言外の意味のリンクによって示されている.この図からは,この2語が,(i)非難の激しさの程度(criticism→severity),(ii)誤りがばかげているか否か(stupidity),(iii)具体性(concreteness),(iv)軽蔑的か否か(pejorative),という4つの点で異なっていることが分かる.語の意味を記述する意味素の粒度について,\citeauthor{edmonds:99}は,複数の言語を対象として上のような異なりを表現できているためある程度妥当であると評価している.意味記述に替わる語彙知識のリソースとして国語辞典の語釈文を用いた研究がいくつかある.\citeA{tsuchiya:00}は,国語辞典中の各語の語釈文を統語解析器を用いてグラフに変換し,MDS原理に基づいて,辞書全体にわたる部分グラフの抽象化および辞書の圧縮を施している.結果として得られる辞書からは,任意の2語$w_{1}$と$w_{2}$の共通の意味と個別の付加的意味を容易に取り出すことができる.\citeA{fujita:01}は,\citeauthor{tsuchiya:00}の手法を各々の$w_{1}$と$w_{2}$の対に対して適用し,語釈文間の重なりの大きさに基づいて言い換えの適格性を判定している.\refex{zuisho}の例では,「随所」の語釈が「限定されないどの場所にも.方々.」,「各所」の語釈が「ある範囲内のところどころ.」(いずれも角川類語新辞典\cite{kadokawa:81})と完全に異なる.\citeauthor{fujita:01}の手法では,語釈文の差分と文脈における制約を独立にしか捉えていないため,文脈に関わらず常に(例\refexs{zuisho}{a}の言い換えも)適格でないと判断されるという問題がある.\citeA{okamoto:03:b}は,ある語が持つ指示的意味とその語が文脈中の他の語句の選択に与える制約(語彙的制約)を語釈文から取り出している.具体的には,語釈文中のすべての内容語を,その意味クラスとコーパス中の共起頻度を用いて指示的意味,語彙的制約に分類している.彼らの手法では,語釈文の比較などを要さずに単語そのものを表現できるため,\citeA{edmonds:99}のモデルにおける知識獲得につながる可能性がある.しかし,\citeA{fujita:01,okamoto:03:b}の実験結果を見るかぎり,語釈文の情報を用いて同概念語間の可換性を判断するためには,かなり深い言語理解を必要とするように見える場合も多く,越えるべきハードルは高い.言外の意味(フォーマリティや親密度など)をいかにして獲得するか,という課題もある.この課題に対する試みとして\citeA{inkpen:03:b}の研究を紹介する.彼女はまず,\citeA{edmonds:99}のオントロジに基づいて,類義語の意味を表現するための知識を,指示的意味(denotation),姿勢・態度(attitude),スタイル(style)の3クラスの知識に分類・形式化している.それぞれの知識は次のような組で表現される.\medskip\begin{description}\item[指示的意味]$\langle$語,頻度(sometimes,usually,always),強さ(low,medium,high),指示の間接性(\textsc{suggestion},\textsc{implication},\textsc{denotation}),周辺的概念(不定形)$\rangle$\item[姿勢・態度]$\langle$語,頻度,強さ,姿勢・態度の種類(\textsc{favorable},\textsc{neutral},\textsc{pejorative})$\rangle$\item[スタイル]$\langle$語,強さ,スタイルの種類(\textsc{formality},\textsc{concreteness},\textsc{floridity}など)$\rangle$\end{description}\medskip\fig{cluster}で示されている言外の意味のうち,軽蔑的か否か(pejorative)は姿勢・態度の,具体性(concreteness)はスタイルの下位クラスとして定義されており,それぞれ種類の項の値となる.\citeauthor{inkpen:03:b}は次に,これらの知識を類義語の使い分け辞典から抽出する手法を提案している.この手法では,たとえば,\refexs{inkpen}{a}の文章から\refexs{inkpen}{b}に示す3つの語彙知識を獲得できる.\refexs{inkpen}{b}の1つ目は動詞``absorb''のスタイルに関する知識であり,残りは指示的意味に関する知識である.指示的意味における周辺的概念だけは不定形であり,\refexs{inkpen}{a}の文章中の句で表現される.\numexs{inkpen}{\item\textbf{Absorb}isslightlymoreinformalthantheothersandhas,perhaps,thewidestrangeofuses.Initsmostrestrictedsenseitsuggeststhetakinginorsoakingupspecificallyofliquids:theliquid\emph{absorbed}bythesponge.Inmoregeneraluses\emph{absorb}mayimplythethoroughnessoftheaction:notmerelytoreadthechapter,butto\emph{absorb}itsmeaning.\item\texttt{$\langle$absorb,low,\textsc{formality}$\rangle$\\$\langle$absorb,usually,medium,\textsc{suggestion},thetakinginofliquids$\rangle$\\$\langle$absorb,sometimes,medium,\textsc{implication},thethoroughnessoftheaction$\rangle$}}\subsection{パラレルコーパスから言い換え知識を獲得する}\label{sssec:extraction}機械翻訳では,対訳コーパスから翻訳知識を自動獲得する試みが多数報告されており\cite{meyers:98,watanabe:00,melamed:01,YamamotoKaoru:01:b,imamura:02},大規模なパラレルコーパスまたはコンパラブルコーパスがあれば,そこから翻訳知識を獲得できることがわかっている.一方,言い換えの場合,大量の言い換え事例の入手は翻訳の場合ほど容易でない.日本語の新聞記事や書籍,ホームページが英語や他の言語に翻訳されることはあっても,わざわざ「外国人日本語学習者にもわかる日本語」や「朗読して聴きとりやすい日本語」に言い換えられることはほとんどない.パラレル/コンパラブルコーパスを収集するためになんらかの工夫をするか,パラレルでないコーパスからの知識獲得を考える必要がでてくる.\subsubsection{同じ原文に対する複数の翻訳文を集める}同じ原文に対して複数の翻訳がある場合,それらは言い換えと見なすことができる.機械翻訳では,システムの評価方法として,1つの原文に対して例\refex{shirai2}のような複数の正解翻訳例を用意するのが一般的になってきており,そうした複数の翻訳例を含む対訳コーパスもいくつか整備されつつある\cite{shirai:01:c,shimohata:04:b}.\numexs{shirai2}{\item[J0]競技場は大勢の観客で\emph{膨れ上がった}.\item[J1]競技場は大勢の観客で\emph{身動きができなかった}.\item[E0]Theathleticfieldwasswampedwithspectators.}\cite{shirai:01:c}では,既存の対訳コーパスに対して多様な別訳を作る作業をどうやってうまく制御し効率化するかといった問題も検討されており,今後も研究者間で共有できる資源が増えるものと思われる.対訳コーパスからの翻訳知識獲得では,一対一の翻訳対を対象に句や節の対応を計算するという問題が一般的であった.一方,言い換えの場合は,互いに言い換え関係にある複数の表現を含む集合を用意することができるので,一般には3つ以上の要素間のアラインメントをとるという新しい問題が出てくる.もっとも単純なアプローチは,集合内の各要素対ごとにアラインメントをとる方法である.たとえば,\citeA{imamura:01}は,集合内の各言い換え対について構文木に基づく階層的アラインメントによって句や節レベルの言い換え対を獲得する方法を提案している.これに対し,\citeA{pang:03}の方法では,構文木に基づく複数単語列アラインメントによって3つ以上の言い換え間の対応関係を1つの単語ラティスで表現する(\sssec{representation}を参照).一方,既存の翻訳を集めてくるという手もある.\citeA{barzilay:01}は,『海底二万里\footnote{JulesVerne(1869).\emph{Vingtmillelieuessouslesmers/TwoThousandLeaguesUndertheSea}.}』のように同じ原著から何冊もの訳本がでている作品があることに着目し,そうした訳本から言い換え事例を大量に獲得しようと試みている.彼女らによると,複数の翻訳本から得られるパラレルコーパスはノイズが多く,また従来扱ってきた対訳コーパスに比べるときれいに言い換えの対応がとれる箇所は必ずしも多くない.さらに,獲得できた事例は\emph{King'sson}{\lra}\emph{sonoftheking}や\emph{countless}{\lra}\emph{lotsof}のような局所的な語句の言い換えが多く,\ssec{existent}で述べたような既存の資源から得られそうなものも少なくない.一方,\citeA{ohtake:03:b}が同様の実験を旅行対話に関する対訳コーパスで行ったところ,領域に特化した\refex{ohtake}のような言い換えが多数獲得できた.\numexs{ohtake}{\item[s.]それ以上は安くなりませんか.\item[t.]それが最終的な値段ですか.}機械翻訳の場合と同じように,パラレルコーパス→アラインメント→言い換え知識の獲得,というシナリオが現実的に描けるか,難しいとすればどのような工夫が必要かなど,興味深い問題が課題として残されている.\subsubsection{同じ物事に対する複数の説明文を集める}同じ事件を報道している複数の違った新聞社の記事をコンパラブルコーパスと見なせば,そこから言い換え表現を発見できる可能性がある.厳密なパラレルコーパスと違って,記事は日々生産されるので大規模なコーパスを入手できるという利点がある.ただし,各記事がまったく同じ情報を同じ順序で過不足なく伝えている保証はないため,文単位,句単位の順番で厳密にアラインメントをとるという従来の翻訳知識獲得の方法を単純に適用するわけにはいかない.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip004.eps}\caption{コンパラブルな文の対からの言い換え対の抽出\cite{shinyama:03}}\label{fig:extraction}\end{center}\end{figure}この問題に対し,\citeA{shinyama:02,shinyama:03}の方法では,まず記事対応をとった後,出現単語の類似度に基づいて文対応を同定する.次に,句単位のアラインメントをとる代わりに,次の条件をより良く満たす依存構造の部分木の対だけを言い換え対として獲得する(\fig{extraction}).\begin{itemize}\item[(a)]各部分依存構造木の根は用言である.\item[(b)]対となる部分依存構造木が共通の固有表現を含んでいる.\item[(c)]各用言が要求する格が部分依存構造木に過不足なく含まれている.\end{itemize}一方,\citeA{barzilay:03:a}は,まずコーパスに含まれる各文を単語n-gramに基づく類似度でクラスタリングし,各クラスタ内に含まれる類似文から複数単語列アラインメントによって単語ラティス(\fig{lattice})を生成する.単語ラティスを見れば,クラスタ内の各類似文のどの箇所が共通でどの箇所が文ごとに異なるかが分かるので,共通部分を定型表現,それ以外を変数とする定型パターンが作れる.この方法を各新聞社の記事集合に適用し,\citeA{shinyama:03}と同様の方法で記事集合間の対応をとれば,定型パターン間の言い換え関係を同定できる可能性がある.句単位のアライメントがとれない場合に問題となるのは,与えられた文の対のどの部分を言い換え対として抽出すれば良いかの判断が難しいことである.たとえば,\fig{extraction}の例で言うと,右側の木に対応する言い換えは``havedied''を根とする左側の木の一部であって,``hasannounced''を根とする木全体でない.しかし,そうだと判断するに足る手がかりは,この文の対を見ているだけでは得られない.このとき,有用な手がかりとなるのは,言い換え関係に立つ表現の「表現らしさ」である.\citeA{shinyama:03}は,上の条件(c)を追加することによってこの「表現らしさ」を考慮しようとしている.また,\citeA{barzilay:03:a}が複数単語列アラインメントによって定型パターンを事前に収集したのも,そのねらいは同じである.\subsection{パラレルでないコーパスを使う}\subsubsection{文脈の類似性を測る}パラレルでないコーパス(ノンパラレルコーパス)から同義表現を獲得する場合に基本となるのは,\begin{quote}与えられた入力表現と(a)似た文脈で出現する表現,あるいは(b)内部構造が似ている表現がコーパス中に存在すれば,それは入力の言い換えである可能性が高い\end{quote}という仮定である.とくに,(a)の出現文脈の類似性に基づいて推定される言語表現の類似度は分布類似度(distributionalsimilarity)と呼ばれ,単語間の類似度の推定に効果的であることが知られている\cite{pereira:93,lin:98:a}.言い換えの獲得は同義語の獲得を一般化した問題と見なせるので,単語間の分布類似度の推定方法をうまく拡張すれば,より多様な構造の言い換えを獲得できる可能性がある.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip005.eps}\caption{分布類似度に基づく部分依存構造木間の同義性の判定\cite{lin:01}}\label{fig:dirt}\end{center}\end{figure}代表的なのは\citeA{lin:01}の手法である.DIRTと呼ばれる彼らのアルゴリズムは,\cite{lin:98:a}で提案した単語間分布類似度の推定方法を一般化したもので,\fig{dirt}のような依存構造の部分木間の類似度を推定する.ここで対象とする部分木は,両端を名詞の変数スロットとする枝分かれなしのパスである.図の例のように,2つのパスの両端のスロット$X$,$Y$に現れる単語の分布が互いに十分に似ていれば,それらのパスは言い換えと同定される.また,\citeA{torisawa:02:a}の手法は,「アメリカの車」のような入力に対して「アメリカで生産する車」のような言い換えをコーパスから獲得する.二つの名詞(「アメリカ」と「車」)を出現文脈とし,与えられた文脈と確率的に良く共起する表現を選択する点は同じで,違うのは,共起の強さを測る方法と獲得の対象を動詞格構造(「で生産する」)に限定している点である.また,\cite{torisawa:02:b}では,同様の方法が\cite{kondo:99}と同様の動詞格構造間の言い換えにも適用できることが報告されている.コンパラブルコーパスに比べると,ノンパラレルコーパスははるかに容易に入手できるので,これと分布類似度の組み合わせは良い解決策であるように見える.ただし,分布類似度にも問題がある.まず,分布類似度を推定するには参照する文脈のスコープを固定する必要があるため,予め固定したパターンの言い換えしか獲得できないという制限がつきまとう.たとえば,\citeA{lin:01}の手法では,両端を名詞の変数スロットとする枝分かれなしのパスに対象が限定されており,3つ以上の変数スロットを持つ部分構文木を同時に扱うことはできない.分布類似度に基づく方法にはもう一つ,文脈の分布の偏りが大きい表現の言い換えしか獲得できないという欠点もある.たとえば,「$X$が$Y$を告訴する」の言い換えを同様の方法で獲得しようとしても,スロット$X$,$Y$に出現する人間や組織の間でなされる行為は「告訴」だけではないので,これだけの情報で正しい言い換えを選別するのは困難である.\subsubsection{内部構造の類似性を測る}内部構造の類似に基づく方法には次のような例がある.\citeA{kimura:01:a,tokunaga:03}の手法では,同義表現を探し出す手段として,漢字インデックスによる情報検索を利用する.同じ漢字をより多く共有する2つ名詞句は意味が似ている可能性が高い.漢字をインデックスとすることによって多様な表現の間の類似性が計算できるので,次のように単語の置換だけでは抽出できない言い換えも生成できる.\numexs{kanji-index1}{\item[s.]収益の減少\item[t.]減収減益}\numexs{kanji-index2}{\item[s.]倍額の増資\item[t.]出資額倍増}また,\citeA{terada:01}は,略語をもとの単語に復元する\refex{terada}のような言い換えをとりあげ,言い換えの候補を文脈に応じて候補選択するモデルを略語の多いコーパスと略語の少いコーパスから獲得する手法を提案している.\numexs{terada}{\item[s.]TWR\item[t.]tower/toward}彼らの手法では,文字ベースの類似性と単語が出現する文脈の類似性の両方を考慮して,略語と同義な単語をコーパス中から探す.入力と「似ている」表現をコーパスから探し出すという点で,やはり上述のアプローチと同様の方向性を持っている.\citeA{jacquemin:97,yoshikane:03}は,文書検索の文脈で,索引語(ここではとくに複合専門用語,multi-wordterm;MWT)の表現の多様性を吸収する言い換え規則を単言語コーパスから発見する手法を提案している.\numexs{Jac}{\item構文的変形:techniqueforperformingvolumetricmeasurements\\{\qquad\qquad\qquad}{\ra}measurementtechnique\item形態的変形:electrophoresedonaneutralpolyacrylamidegel{\ra}gelelectrophoresis}彼らの手法では,まず,専門用語辞書中の複合専門用語(以下,単に複合語)を種にして,その言い換えをコーパスから抽出する.ここでは,所与の複合語を構成する内容語がコーパス中で有意に共起しているパターンを,この複合語の言い換えパターンとして取り出す.次に,さまざまな複合語について得られた言い換えパターンを人手で類型化し,大きく6種類(\citeauthor{yoshikane:03}は7種類)の言い換え規則集合を作成している.両研究とも,作成した言い換え規則集合によって生成される複合語の言い換えがどれだけ正しいか,情報検索の精度向上にどれだけ寄与するかの2段階で評価している.\subsection{言い換えの適格性を判定するための知識}\label{ssec:correctness}言い換えた後の表現が言語的に適格か否かを判定する必要がある.言い換え生成はテキストの一部に関する操作であるため,適格性の判定も,文や文章全体の良さではなく,その操作を受けた部分と文脈がうまくあうかどうかだけを評価すればよさそうに思える.ただし,言い換えの言語的適格性に関わる要因には,形態素・構文レベルから意味レベル,談話レベルまで性質が異なるさまざまなものがあり,言い換えの種類によって共通性は見られるものの,その傾向は異なっている\cite{fujita:03:c}.これらをまとめて捉えるようなモデルは現状では存在しないので,それぞれの適格性に関わる要因を個別に捉えて整理・モデル化し,うまく融合させる必要がある.自然言語生成の分野では,近年,出力テキストの候補を複数生成し,最後にランキングして候補を1つに絞る方式が有力になってきた\cite{knight:95,langkilde:98,bangalore:00}.これにならったランキング方式のモデルの一例として,単語の共起の是非を判定する研究\cite{pearce:01,lapata:01:b,fujita:04:c}を取り上げる.例\refexs{zuisho}{b}では,「言葉が(法文の)\emph{各地}にある」という表現について,「法文の」と「各地」が共起しない(修飾関係にならない)ことがわかれば,適格ではないと判定できる.しかし,「随所」とは共起するが,同概念語の「各地」とは共起しないといった粒度の細かい共起制約を必要とするということは,「意味クラスに基づく共起データの抽象化」という常套手段が通用しないことを意味するので,問題は見た目ほど単純ではない.この共起の是非を判定するためには,厳密には個々の語に関する詳細な知識や共起に関する知識が必要になるが,個々の単語を区別する統計モデルを洗練するだけでも比較的良い成果をあげている.\citeA{pearce:01,lapata:01:b}は,WordNet~\cite{WN:90}を用いて名詞を修飾する形容詞を言い換えたときの単語の共起の是非を判定し,単語間の分布類似度が人間の判断と相関を持っていることを示した.一方,\citeA{fujita:04:c}は,態の交替や内容語の言い換えなど,さまざまな言い換えの際に頻繁に不適格になる,動詞とその名詞格要素の共起を対象としている.\citeauthor{fujita:04:c}は,大規模な生コーパスから得られる共起用例の分布クラスタリング\cite{pereira:93}によって単語間の潜在的な類似性を考慮するとともに,人手で収集した不適格な共起用例(負例)を組み合わせて,共起の適格性を判定するモデルを構築している.その他,言い換えの適格性判定の研究としては,談話構造や結束性を対象とした研究\cite{inui:01:c,nogami:02,siddharthan:03:a}がある.さらに,言語的適格性を超えたレベルでも評価が必要になる場合がある.言語生成の分野では,ユーザの知識に合わせて表現を変える\cite{cawsey:92}.語用論的効果を考慮する\cite{hovy:88}.丁寧さや性別などを考慮する\cite{kaneko:96,uchimoto:96}など,さまざまな試みが報告されている\cite{inui:99:b}. \section{おわりに} \label{sec:issues}本論文では,近年研究者間で関心が高まってきた言い換え技術について,最近の研究動向を紹介した.言い換え技術は言い換え生成と言い換え認識に大きく分けて考えることができる.言い換え生成は,ある言語表現を意味を保存しながら別の言語表現に変換する作業であり,機械翻訳の前編集や読解支援のための文章簡単化など,さまざまな応用に利用できる.変換の方式,曖昧性解消,言語生成,知識の表現方法と自動獲得など,個別の部分問題に関する限り,言い換え生成に必要な技術は機械翻訳技術と重なるところが大きい.一方,言い換え認識は,2つの異なる言語表現が言い換えかどうかを判別する作業であり,情報検索や質問応答,複数文書要約などの応用がある.この問題は,一方から言い換えを生成して他方に到達できるかを調べる問題と見なせるので,言い換え生成と裏表の関係にある.こうした技術は,これまで,それぞれの応用で別々に必要性が論じられ,個別に研究されてきた.しかし,それらの間には必要な技術や蓄積すべき言語知識に共通する部分も多い.今後はこれら個別の試みを統合し,応用横断的なミドルウェア技術に発展させていくことが重要である.最大の技術的関心は知識獲得である.言い換えのパラレルコーパスは,翻訳の場合よりさらに入手が難しいので,大規模なコンパラブルコーパスを収集するためになんらかの新しい工夫をするか,ノンパラレルコーパスから言い換え知識を獲得する方法を考える必要がある.コンパラブルコーパスの収集については,同じ事件を報道した複数の新聞記事を集める方法や,同じ原著に対する複数の翻訳を集める方法を紹介したが,ノイズの多いコンパラブルコーパス上で高精度な知識獲得を実現するには克服すべき課題も多い.一方,ノンパラレルコーパスからの知識獲得も,分布類似度に代表される従来の単語間類似度の推定手法を拡張・一般化する方向で発展してきたが,実際の応用に耐える実用規模の知識獲得に至った例はほとんどない.目指すべき方向性の一つは,コーパスから獲得した言い換え知識と既知の言い換え知識を組み合わせて知識の洗練をはかるアプローチであろう.これまでに報告された知識獲得の研究は,同義語の知識以外は既知の言い換え知識を仮定せず,スクラッチから言い換え知識を獲得しようとする試みがほとんどである.しかし,\ssec{ling_pov}で見た言語学的研究が示すように,我々はかなり多くの言い換えをすでに知っている.また,\citeA{asaoka:04,fujita:04:d}の試みに見られるように,規則化がある程度可能なタイプの言い換えも少なくない(\app{taxonomy}).安易にすべてを知識獲得技術に頼るのではなく,まずはこうした人手による管理が可能な言い換え知識を収集・蓄積し,コーパスからの知識獲得に積極的に活用する姿勢が必要なように思われる.そのためにはまず,言い換えにはどのような種類があるのか,どのタイプの言い換えの知識を人手で書くのが合理的なのか,自動獲得に頼るべき言い換え知識はどのようなものかを明らかにしていく必要がある.言い換え技術をさらに発展させるためには,多様な言い換え現象を包括的に調査・分類し,それに基づいて言い換えコーパスや言い換え知識などの言語資源を共有可能な形に設計・蓄積する努力が必要である.しかし,言い換えが言語表現の同義性に立脚する概念である以上,これに厳密な定義や分類を与えるには,意味とは何か,意味が同じとはどういうことかといった深い意味論の問題に立ち入らなければならない.本論文では,語彙・構文的言い換え,参照的言い換え,語用論的言い換えを混同すべきでないことに言及したが,これは議論の出発点の一つに過ぎない.こうした意味に深く根ざす問題にどうやって工学的にアプローチするか.統計的言語処理技術がある程度成熟を見た今,再度じっくり議論してよいテーマである.言い換え技術が現在の言語処理技術をより深い意味処理に一歩近づけるための良い例題になると期待したい.\section*{謝辞}本論文に対する,佐藤理史氏(京都大学),山本和英氏(長岡技術科学大学),難波英嗣氏(広島市立大学),高橋哲朗氏(奈良先端科学技術大学院大学)の有益なコメントに感謝する.\bibliographystyle{jnlpbbl}\newcommand{\noopsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abeille,Schabes,\BBA\Joshi}{Abeilleet~al.}{1990}]{abeille:90}Abeille,A.,Schabes,Y.,\BBA\Joshi,A.~K.\BBOP1990\BBCP.\newblock\BBOQUsinglexicalized{TAG}sformachinetranslation\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)},Vol.3},\BPGS\1--6.\bibitem[\protect\BCAY{安達}{安達}{1992}]{adachi:92:a}安達久博\BBOP1992\BBCP.\newblock\JBOQ手話通訳のためのニュース文の話しコトバへの変換処理\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告,NLC92-47}.\bibitem[\protect\BCAY{Allan,Carbonell,Doddington,Yamron,\BBA\Yang}{Allanet~al.}{1998}]{allan:98}Allan,J.,Carbonell,J.,Doddington,G.,Yamron,J.,\BBA\Yang,Y.\BBOP1998\BBCP.\newblock\BBOQTopicdetectionandtrackingpilotstudy:finalreport\BBCQ\\newblockIn{\BemProceedingsoftheBroadcastNewsUnderstandingandTranscriptionWorkshop},\BPGS\194--218.\bibitem[\protect\BCAY{Anick\BBA\Tipirneni}{Anick\BBA\Tipirneni}{1999}]{anick:99:a}Anick,P.~G.\,\BBA\Tipirneni,S.\BBOP1999\BBCP.\newblock\BBOQTheparaphrasesearchassistant:terminologicalfeedbackforiterativeinformationseeking\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval{\rm(}SIGIR\/{\rm)}WorkshoponCustomisedInformationDelivery},\BPGS\153--159.\bibitem[\protect\BCAY{麻岡,佐藤,宇津呂}{麻岡\Jetal}{2004}]{asaoka:04}麻岡正洋,佐藤理史,宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ語構成を利用した言い換え表現の自動生成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\488--491.\bibitem[\protect\BCAY{Bangalore\BBA\Ranbow}{Bangalore\BBA\Ranbow}{2000}]{bangalore:00}Bangalore,S.\,\BBA\Ranbow,O.\BBOP2000\BBCP.\newblock\BBOQCorpus-basedlexicalchoiceinnaturallanguagegeneration\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\464--471.\bibitem[\protect\BCAY{Barzilay,McKeown,\BBA\Elhadad}{Barzilayet~al.}{1999}]{barzilay:99}Barzilay,R.,McKeown,K.~R.,\BBA\Elhadad,M.\BBOP1999\BBCP.\newblock\BBOQInformationfusioninthecontextofmulti-documentsummarization\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\550--557.\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{barzilay:01}Barzilay,R.\,\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingparaphrasesfromaparallelcorpus\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\50--57.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2002}]{barzilay:02}Barzilay,R.\,\BBA\Lee,L.\BBOP2002\BBCP.\newblock\BBOQBootstrappinglexicalchoiceviamultiple-sequencealignment\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing{\rm(}EMNLP\/{\rm)}},\BPGS\164--171.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2003}]{barzilay:03:a}Barzilay,R.\,\BBA\Lee,L.\BBOP2003\BBCP.\newblock\BBOQLearningtoparaphrase:anunsupervisedapproachusingmultiple-sequencealignment\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\16--23.\bibitem[\protect\BCAY{Barzilay}{Barzilay}{2003}]{barzilay:03:c}Barzilay,R.\BBOP2003\BBCP.\newblock{\BemInformationfusionformultidocumentsummarization:paraphrasingandgeneration}.\newblockPh.D.\thesis,ColumbiaUniversity.\bibitem[\protect\BCAY{Beale,Nirenburg,Viegas,\BBA\Wanner}{Bealeet~al.}{1998}]{beale:98}Beale,S.,Nirenburg,S.,Viegas,E.,\BBA\Wanner,L.\BBOP1998\BBCP.\newblock\BBOQDe-constrainingtextgeneration\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponNaturalLanguageGeneration{\rm(}INLG\/{\rm)}},\BPGS\48--57.\bibitem[\protect\BCAY{Brun\BBA\Hag\`{e}ge}{Brun\BBA\Hag\`{e}ge}{2003}]{brun:03}Brun,C.\,\BBA\Hag\`{e}ge,C.\BBOP2003\BBCP.\newblock\BBOQNormalizationandparaphrasingusingsymbolicmethods\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\41--48.\bibitem[\protect\BCAY{Canning\BBA\Tait}{Canning\BBA\Tait}{1999}]{canning:99:a}Canning,Y.\,\BBA\Tait,J.\BBOP1999\BBCP.\newblock\BBOQSyntacticsimplificationofnewspapertextforaphasicreaders\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval{\rm(}SIGIR\/{\rm)}WorkshoponCustomisedInformationDelivery},\BPGS\6--11.\bibitem[\protect\BCAY{Carl\BBA\Way}{Carl\BBA\Way}{2003}]{EBMT:03}Carl,M.\,\BBA\Way,A.\BEDS\\BBOP2003\BBCP.\newblock{\BemRecentadvancesinexample-basedmachinetranslation}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Carroll,Minnen,Canning,Devlin,\BBA\Tait}{Carrollet~al.}{1998}]{carroll:98:a}Carroll,J.,Minnen,G.,Canning,Y.,Devlin,S.,\BBA\Tait,J.\BBOP1998\BBCP.\newblock\BBOQPracticalsimplificationofEnglishnewspapertexttoassistaphasicreaders\BBCQ\\newblockIn{\BemProceedingsofthe15thNationalConferenceonArtificialIntelligenceand10thConferenceonInnovativeApplicationsofArtificialIntelligence{\rm(}AAAI-IAAI\/{\rm)}WorkshoponIntegratingArtificialIntelligenceandAssistiveTechnology}.\bibitem[\protect\BCAY{Cawsey}{Cawsey}{1992}]{cawsey:92}Cawsey,A.\BBOP1992\BBCP.\newblock{\BemExplanationandinteraction}.\newblockTheMITPress.\bibitem[\protect\BCAY{Chandrasekar,Doran,\BBA\Srinivas}{Chandrasekaret~al.}{1996}]{chandrasekar:96:a}Chandrasekar,R.,Doran,C.,\BBA\Srinivas,B.\BBOP1996\BBCP.\newblock\BBOQMotivationsandmethodsfortextsimplification\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1041--1044.\bibitem[\protect\BCAY{Clark}{Clark}{1992}]{clark:92}Clark,E.~V.\BBOP1992\BBCP.\newblock\BBOQConventionalityandcontrast:pragmaticprincipleswithlexicalconsequences\BBCQ\\newblockIn{\BemKittayandLehrer{\rm(}Eds.{\rm)},Frames,fields,andcontrasts:Newessaysinsemanticandlexicalorganization},\BPGS\171--188.LawrenceErlbaumAssociates.\bibitem[\protect\BCAY{Dras}{Dras}{1999}]{dras:99:a}Dras,M.\BBOP1999\BBCP.\newblock{\BemTreeadjoininggrammarandthereluctantparaphrasingoftext}.\newblockPh.D.\thesis,DepartmentofComputing,MacquarieUniversity.\bibitem[\protect\BCAY{Duclaye,Yvon,\BBA\Collin}{Duclayeet~al.}{2003}]{duclaye:03}Duclaye,F.,Yvon,F.,\BBA\Collin,O.\BBOP2003\BBCP.\newblock\BBOQLearningparaphrasestoimproveaquestion-answeringsystem\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics{\rm(}EACL\/{\rm)}WorkshoponNaturalLanguageProcessingforQuestion-Answering},\BPGS\35--41.\bibitem[\protect\BCAY{Edmonds}{Edmonds}{1999}]{edmonds:99}Edmonds,P.\BBOP1999\BBCP.\newblock{\BemSemanticrepresentationsofnear-synonymsforautomaticlexicalchoice}.\newblockPh.D.\thesis,CSRI-399,DepartmentofComputerScience,UniversityofToronto.\bibitem[\protect\BCAY{江原,福島,和田,白井}{江原\Jetal}{2000}]{ehara:00}江原暉将,福島孝博,和田裕二,白井克彦\BBOP2000\BBCP.\newblock\JBOQ聴覚障害者向け字幕放送のためのニュース文自動短文分割\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-138-3},\BPGS\17--22.\bibitem[\protect\BCAY{藤田乾}{藤田\JBA乾}{2001}]{fujita:01}藤田篤,乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した普通名詞の同概念語への言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\331--334.\bibitem[\protect\BCAY{藤田乾}{藤田\JBA乾}{2003}]{fujita:03:c}藤田篤,乾健太郎\BBOP2003\BBCP.\newblock\JBOQ語彙・構文的言い換えにおける変換誤りの分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11),\BPGS\2826--2838.\bibitem[\protect\BCAY{藤田,乾,松本}{藤田\Jetal}{2004}]{fujita:04:c}藤田篤,乾健太郎,松本裕治\BBOP2004\BBCP.\newblock\JBOQ自動生成された言い換え文における不適格な動詞格構造の検出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(4),\BPGS\1176--1187.\bibitem[\protect\BCAY{Fujita,Furihata,Inui,Matsumoto,\BBA\Takeuchi}{Fujitaet~al.}{2004}]{fujita:04:d}Fujita,A.,Furihata,K.,Inui,K.,Matsumoto,Y.,\BBA\Takeuchi,K.\BBOP2004\BBCP.\newblock\BBOQParaphrasingof{J}apaneselight-verbconstructionsbasedonlexicalconceptualstructure\BBCQ\\newblockIn{\BemProceedingsofthe42thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}WorkshoponMultiwordExpressions:IntegratingProcessing},\BPGS\9--16.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2002}]{fukumoto:02}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2002\BBCP.\newblock\BBOQQuestionansweringchallenge({QAC}):questionansweringevaluationat{NTCIR}workshop3\BBCQ\\newblockIn{\BemWorkingNotesofthe3rdNTCIRWorkshopMeeting:QAC1},\BPGS\1--10.\bibitem[\protect\BCAY{福島,江原,白井}{福島\Jetal}{1999}]{fukushima:99}福島孝博,江原暉将,白井克彦\BBOP1999\BBCP.\newblock\JBOQ短文分割の自動要約への効果\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),\BPGS\131--147.\bibitem[\protect\BCAY{Halliday}{Halliday}{1994}]{halliday:94}Halliday,M.A.~K.\BBOP1994\BBCP.\newblock{\BemAnintroductiontofunctionalgrammar(secondedition)}.\newblockEdwardArnold.\bibitem[\protect\BCAY{Harris}{Harris}{1981}]{harris:81}Harris,Z.\BBOP1981\BBCP.\newblock\BBOQCo-occurrenceandtransformationinlinguisticstructure\BBCQ\\newblockIn{\BemHiz{\rm(}Ed.{\rm)}PapersonSyntax},\BPGS\143--210.D.ReidelPublishingCompany.\bibitem[\protect\BCAY{林菊井}{林\JBA菊井}{1991}]{hayashi:91}林良彦,菊井玄一郎\BBOP1991\BBCP.\newblock\JBOQ日本文推敲支援システムにおける書換え支援機能の実現方式\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf32}(8),\BPGS\962--970.\bibitem[\protect\BCAY{Hermjakob,Echibahi,\BBA\Marcu}{Hermjakobet~al.}{2002}]{hermjakob:02}Hermjakob,U.,Echibahi,A.,\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQNaturallanguagebasedreformulationresourceandwebexploitationforquestionanswering\BBCQ\\newblockIn{\BemProceedingsofthe11thTextRetrievalConference{\rm(}TREC2002\/{\rm)}}.\bibitem[\protect\BCAY{日笠,藤井,黒橋}{日笠\Jetal}{1999}]{hikasa:99:a}日笠亘,藤井綱貴,黒橋禎夫\BBOP1999\BBCP.\newblock\JBOQ入力質問と知識表現の柔軟なマッチングによる対話的ヘルプシステムの構築\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-134-14},\BPGS\101--108.\bibitem[\protect\BCAY{Higashinaka\BBA\Nagao}{Higashinaka\BBA\Nagao}{2002}]{higashinaka:02}Higashinaka,R.\,\BBA\Nagao,K.\BBOP2002\BBCP.\newblock\BBOQInteractiveparaphrasingbasedonlinguisticannotation\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1218--1222.\bibitem[\protect\BCAY{平田,日笠,藤井,黒橋}{平田\Jetal}{2000}]{hirata:00:a}平田大志,日笠亘,藤井綱貴,黒橋禎夫\BBOP2000\BBCP.\newblock\JBOQ図書館の自動リファレンス・サービス・システムの構築\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\463--466.\bibitem[\protect\BCAY{Hovy}{Hovy}{1988}]{hovy:88}Hovy,E.~H.\BBOP1988\BBCP.\newblock{\BemGeneratingnaturallanguageunderpragmaticconstraints}.\newblockLawrenceErlbaumAssociates.\bibitem[\protect\BCAY{Huang\BBA\Fiedler}{Huang\BBA\Fiedler}{1996}]{huang:96}Huang,X.\,\BBA\Fiedler,A.\BBOP1996\BBCP.\newblock\BBOQParaphrasingandaggregatingargumentativetextusingtextstructure\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponNaturalLanguageGeneration{\rm(}INLG\/{\rm)}},\BPGS\21--30.\bibitem[\protect\BCAY{飯田,徳永,乾,衛藤}{飯田\Jetal}{2001}]{iida:01}飯田龍,徳永泰浩,乾健太郎,衛藤純司\BBOP2001\BBCP.\newblock\JBOQ言い換えエンジン\textsc{Kura}を用いた節内構造および機能語相当表現レベルの言い換え\JBCQ\\newblock\Jem{第63回情報処理学会全国大会予稿集第二分冊},\BPGS\5--6.\bibitem[\protect\BCAY{池田,大橋,山本}{池田\Jetal}{2004}]{ikeda:04}池田諭史,大橋一輝,山本和英\BBOP2004\BBCP.\newblock\JBOQ「新幹線要約」のための文末の整形\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-163-22}.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{NTT:97}池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系:CD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{今村,秋葉,隅田}{今村\Jetal}{2001}]{imamura:01}今村賢治,秋葉泰弘,隅田英一郎\BBOP2001\BBCP.\newblock\JBOQ階層的句アライメントを用いた日本語翻訳文の換言\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\15--20.\bibitem[\protect\BCAY{今村}{今村}{2002}]{imamura:02}今村賢治\BBOP2002\BBCP.\newblock\JBOQ構文解析と融合した階層的句アライメント\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\BPGS\23--42.\bibitem[\protect\BCAY{Inkpen}{Inkpen}{2003}]{inkpen:03:b}Inkpen,D.~Z.\BBOP2003\BBCP.\newblock{\BemBuildingalexicalknowledge-baseofnear-synonymdifferences}.\newblockPh.D.\thesis,DepartmentofComputerScience,UniversityofToronto.\bibitem[\protect\BCAY{乾,山本,野上,藤田,乾}{乾\Jetal}{1999}]{inui:99:a}乾健太郎,山本聡美,野上優,藤田篤,乾裕子\BBOP1999\BBCP.\newblock\JBOQ聾者向け文章読解支援における構文的言い換えの効果について\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告,WIT1999-2},\BPGS\9--14.\bibitem[\protect\BCAY{乾}{乾}{1999}]{inui:99:b}乾健太郎\BBOP1999\BBCP.\newblock\JBOQ文章生成\JBCQ\\newblock\Jem{自然言語処理---基礎と応用---},\BPGS\116--158.電子情報通信学会.\bibitem[\protect\BCAY{乾}{乾}{2001}]{inui:01:a}乾健太郎\BBOP2001\BBCP.\newblock\JBOQコミュニケーション支援のための言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\71--76.\bibitem[\protect\BCAY{Inui\BBA\Nogami}{Inui\BBA\Nogami}{2001}]{inui:01:c}Inui,K.\,\BBA\Nogami,M.\BBOP2001\BBCP.\newblock\BBOQAparaphrase-basedexplorationofcohesivenesscriteria\BBCQ\\newblockIn{\BemProceedingsofthe8thEuropeanWorkshoponNatulalLanguageGeneration{\rm(}EWNLG\/{\rm)}},\BPGS\101--110.\bibitem[\protect\BCAY{Inui\BBA\Hermjekob}{Inui\BBA\Hermjekob}{2003}]{IWP:03}Inui,K.\,\BBA\Hermjekob,U.\BEDS\\BBOP2003\BBCP.\newblock{\BemThe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}}.\newblockACL-2003Workshop.\bibitem[\protect\BCAY{Inui,Fujita,Takahashi,Iida,\BBA\Iwakura}{Inuiet~al.}{2003}]{inui:03:a}Inui,K.,Fujita,A.,Takahashi,T.,Iida,R.,\BBA\Iwakura,T.\BBOP2003\BBCP.\newblock\BBOQTextsimplificationforreadingassistance:aprojectnote\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\9--16.\bibitem[\protect\BCAY{Iordanskaja,Kittredge,\BBA\Polgu\`{e}re}{Iordanskajaet~al.}{1991}]{iordanskaja:91}Iordanskaja,L.,Kittredge,R.,\BBA\Polgu\`{e}re,A.\BBOP1991\BBCP.\newblock\BBOQLexicalselectionandparaphraseinameaning-textgenerationmodel\BBCQ\\newblockIn{\BemParisetal.{\rm(}Eds.{\rm)}NaturalLanguageGenerationinArtificialIntelligenceandComputationalLinguistics},\BPGS\293--312.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Iordanskaja,Kim,\BBA\Polgu\`{e}re}{Iordanskajaet~al.}{1996}]{iordanskaja:96}Iordanskaja,L.,Kim,M.,\BBA\Polgu\`{e}re,A.\BBOP1996\BBCP.\newblock\BBOQSomeproceduralproblemsintheimplementationoflexicalfunctionsfortextgeneration\BBCQ\\newblockIn{\BemWanner{\rm(}Ed.{\rm)}LexicalFunctionsinLexicographyandNaturalLanguageProcessing},\BPGS\279--297.JohnBenjaminPublishingCompany.\bibitem[\protect\BCAY{Jacquemin,Klavans,\BBA\Tzoukermann}{Jacqueminet~al.}{1997}]{jacquemin:97}Jacquemin,C.,Klavans,J.~L.,\BBA\Tzoukermann,E.\BBOP1997\BBCP.\newblock\BBOQExpansionofmulti-wordtermsforindexingandretrievalusingmorphologyandsyntax\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe8thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics{\rm(}ACL-EACL\/{\rm)}},\BPGS\24--31.\bibitem[\protect\BCAY{Kageura,Yoshikane,\BBA\Nozawa}{Kageuraet~al.}{2004}]{kageura:04:b}Kageura,K.,Yoshikane,F.,\BBA\Nozawa,T.\BBOP2004\BBCP.\newblock\BBOQParallelbilingualparaphraserulefornouncompounds:conceptsandrulesforexploringweblanguageresources\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponAsianLanguageResources{\rm(}ALR\/{\rm)}},\BPGS\54--61.\bibitem[\protect\BCAY{影山}{影山}{2001}]{kageyama:01}影山太郎\JED\\BBOP2001\BBCP.\newblock\Jem{日英対照動詞の意味と構文}.\newblock大修館書店.\bibitem[\protect\BCAY{鍜治,黒橋,佐藤}{鍜治\Jetal}{2001}]{kaji:01}鍜治伸裕,黒橋禎夫,佐藤理史\BBOP2001\BBCP.\newblock\JBOQ国語辞典に基づく平易文へのパラフレーズ\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-144-23},\BPGS\167--174.\bibitem[\protect\BCAY{鍜治,河原,黒橋,佐藤}{鍜治\Jetal}{2003}]{kaji:03:b}鍜治伸裕,河原大輔,黒橋禎夫,佐藤理史\BBOP2003\BBCP.\newblock\JBOQ格フレームの対応付けに基づく用言の言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),\BPGS\65--81.\bibitem[\protect\BCAY{鍜治黒橋}{鍜治\JBA黒橋}{2004}]{kaji:04:a}鍜治伸裕,黒橋禎夫\BBOP2004\BBCP.\newblock\JBOQ迂言表現と重複表現の認識と言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\BPGS\81--106.\bibitem[\protect\BCAY{Kaji,Okamoto,\BBA\Kurohashi}{Kajiet~al.}{2004}]{kaji:04:c}Kaji,N.,Okamoto,M.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQParaphrasingpredicatesfromwrittenlanguagetospokenlanguageusingthe{W}eb\BBCQ\\newblockIn{\BemProceedingsofthe2004HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}}.\bibitem[\protect\BCAY{Kanayama}{Kanayama}{2003}]{kanayama:03}Kanayama,H.\BBOP2003\BBCP.\newblock\BBOQParaphrasingrulesforautomaticevaluationoftranslationinto{J}apanese\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\88--93.\bibitem[\protect\BCAY{金子,八木沢,藤田}{金子\Jetal}{1996}]{kaneko:96}金子和恵,八木沢津義,藤田稔\BBOP1996\BBCP.\newblock\JBOQ話し手の性別・年齢を反映する文生成システム\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-116-19},\BPGS\129--136.\bibitem[\protect\BCAY{片岡,増山,山本}{片岡\Jetal}{2000}]{kataoka:00}片岡明,増山繁,山本和英\BBOP2000\BBCP.\newblock\JBOQ動詞型連体修飾表現の{"N1のN2"}への言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(4),\BPGS\79--98.\bibitem[\protect\BCAY{加藤,小川,佐良木}{加藤\Jetal}{1997}]{kato:97:a}加藤輝政,小川清,佐良木昌\BBOP1997\BBCP.\newblock\JBOQ英語構文の構文解析と編集、その論理と方法\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-120-10},\BPGS\65--70.\bibitem[\protect\BCAY{川村}{川村}{2000}]{kawamura:00}川村珠巨\BBOP2000\BBCP.\newblock\JBOQ言語生成プロセスの一視点---命題を言い換えるというコミュニケーション方略について---\JBCQ\\newblock\Jem{大阪府立工業高等専門学校研究紀要,Vol.34},\BPGS\77--82.\bibitem[\protect\BCAY{金江原}{金\JBA江原}{1994}]{kim:94:a}金淵培,江原暉将\BBOP1994\BBCP.\newblock\JBOQ日英機械翻訳のための日本語長文自動短文分割と主語の補完\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(6),\BPGS\1018--1028.\bibitem[\protect\BCAY{木村,徳永,田中}{木村\Jetal}{2001}]{kimura:01:a}木村健司,徳永健伸,田中穂積\BBOP2001\BBCP.\newblock\JBOQ漢字インデックスを利用したパラフレーズの抽出\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-146-7},\BPGS\39--45.\bibitem[\protect\BCAY{木村,徳永,田中}{木村\Jetal}{2002}]{kimura:02}木村健司,徳永健伸,田中穂積\BBOP2002\BBCP.\newblock\JBOQ日本語名詞句に対するパラフレーズ事例の自動抽出に関する研究\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\327--330.\bibitem[\protect\BCAY{金水,工藤,沼田}{金水\Jetal}{2000}]{kinsui:00}金水敏,工藤真由美,沼田善子\BBOP2000\BBCP.\newblock\Jem{時・否定と取り立て}.\newblock岩波書店.\bibitem[\protect\BCAY{Knight\BBA\Chander}{Knight\BBA\Chander}{1994}]{knight:94:a}Knight,K.\,\BBA\Chander,I.\BBOP1994\BBCP.\newblock\BBOQAutomatedposteditingofdocuments\BBCQ\\newblockIn{\BemProceedingsofthe12thNationalConferenceonArtificialIntelligence{\rm(}AAAI\/{\rm)}},\BPGS\779--784.\bibitem[\protect\BCAY{Knight\BBA\Hatzivassiloglou}{Knight\BBA\Hatzivassiloglou}{1995}]{knight:95}Knight,K.\,\BBA\Hatzivassiloglou,V.\BBOP1995\BBCP.\newblock\BBOQTwo-level,many-pathsgeneration\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\252--260.\bibitem[\protect\BCAY{Kondo\BBA\Okumura}{Kondo\BBA\Okumura}{1997}]{kondo:97:a}Kondo,K.\,\BBA\Okumura,M.\BBOP1997\BBCP.\newblock\BBOQSummarizationwithdictionary-basedparaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe4thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}},\BPGS\649--652.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{1999}]{kondo:99}近藤恵子,佐藤理史,奥村学\BBOP1999\BBCP.\newblock\JBOQ「サ変名詞+する」から動詞相当句への言い換え\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(11),\BPGS\4064--4074.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{2001}]{kondo:01}近藤恵子,佐藤理史,奥村学\BBOP2001\BBCP.\newblock\JBOQ格変換による単文の言い換え\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(3),\BPGS\465--477.\bibitem[\protect\BCAY{神田,藤田,乾}{神田\Jetal}{2001}]{kouda:01}神田慎哉,藤田篤,乾健太郎\BBOP2001\BBCP.\newblock\JBOQ連用節主節化に関する規則の追試と洗練\JBCQ\\newblock\Jem{第15回人工知能学会全国大会,1A1-06}.\bibitem[\protect\BCAY{国広}{国広}{2000}]{kunihiro:00}国広哲弥\BBOP2000\BBCP.\newblock\JBOQ人はなぜ言葉を言い換えるか\JBCQ\\newblock\Jem{言語},{\Bbf29}(10),\BPGS\20--25.\bibitem[\protect\BCAY{Kurohashi\BBA\Sakai}{Kurohashi\BBA\Sakai}{1999}]{kurohashi:99:b}Kurohashi,S.\,\BBA\Sakai,Y.\BBOP1999\BBCP.\newblock\BBOQSemanticanalysisof{J}apanesenounphrases:anewapproachtodictionary-basedunderstanding\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\481--488.\bibitem[\protect\BCAY{黒橋酒井}{黒橋\JBA酒井}{2001}]{kurohashi:01}黒橋禎夫,酒井康行\BBOP2001\BBCP.\newblock\JBOQ日本語の柔軟な照合\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\343--346.\bibitem[\protect\BCAY{黒川}{黒川}{2003}]{kurokawa:03:master}黒川和也\BBOP2003\BBCP.\newblock\JBOQ日本語機能表現の正用・誤用の判別および日本語学習支援における利用に関する研究\JBCQ\\newblock豊橋技術科学大学大学院工学研究科修士論文.\bibitem[\protect\BCAY{Langkilde\BBA\Knight}{Langkilde\BBA\Knight}{1998}]{langkilde:98}Langkilde,I.\,\BBA\Knight,K.\BBOP1998\BBCP.\newblock\BBOQGenerationthatexploitscorpus-basedstatisticalknowledge\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics{\rm(}COLING-ACL\/{\rm)}},\BPGS\704--710.\bibitem[\protect\BCAY{Lapata,Keller,\BBA\McDonald}{Lapataet~al.}{2001}]{lapata:01:b}Lapata,M.,Keller,F.,\BBA\McDonald,S.\BBOP2001\BBCP.\newblock\BBOQEvaluatingsmoothingalgorithmsagainstplausibilityjudgements\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\346--353.\bibitem[\protect\BCAY{Lavoie,Kittredge,Korelsky,\BBA\Rambow}{Lavoieet~al.}{2000}]{lavoie:00}Lavoie,B.,Kittredge,R.,Korelsky,T.,\BBA\Rambow,O.\BBOP2000\BBCP.\newblock\BBOQAframeworkfor{MT}andmultilingual{NLG}systemsbasedonuniformlexico-structuralprocessing\BBCQ\\newblockIn{\BemProceedingsofthe6thAppliedNaturalLanguageProcessingConferenceandthe1stMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}ANLP-NAACL\/{\rm)}},\BPGS\60--67.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin:93}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishverbclassesandalternations:apreliminaryinvestigation}.\newblockChicagoPress.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin:98:a}Lin,D.\BBOP1998\BBCP.\newblock\BBOQExtractingcollocationsfromtextcorpora\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalWorkshoponComputationalTerminology{\rm(}CompuTerm\/{\rm)}},\BPGS\57--63.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2001}]{lin:01}Lin,D.\,\BBA\Pantel,P.\BBOP2001\BBCP.\newblock\BBOQDiscoveryofinferencerulesforquestionanswering\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf7}(4),\BPGS\343--360.\bibitem[\protect\BCAY{Mani,Gates,\BBA\Bloedorn}{Maniet~al.}{1999}]{mani:99:a}Mani,I.,Gates,B.,\BBA\Bloedorn,E.\BBOP1999\BBCP.\newblock\BBOQImprovingsummariesbyrevisingthem\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\558--565.\bibitem[\protect\BCAY{Masuda,Yasutomi,\BBA\Nakagawa}{Masudaet~al.}{2001}]{masuda:01:a}Masuda,H.,Yasutomi,D.,\BBA\Nakagawa,H.\BBOP2001\BBCP.\newblock\BBOQHowtotransformtablesin{HTML}fordisplayingonmobileterminals\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\29--36.\bibitem[\protect\BCAY{益岡田窪}{益岡\JBA田窪}{1994}]{masuoka:94}益岡隆志,田窪行則\BBOP1994\BBCP.\newblock\Jem{基礎日本語文法(改訂版)}.\newblockくろしお出版.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2004}]{matsuyoshi:04:a}松吉俊,佐藤理史,宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ機能表現「なら」の機械翻訳のための言い換え\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-159-28},\BPGS\201--208.\bibitem[\protect\BCAY{McKeown,Klavans,Hatzivassiloglou,Barzilay,\BBA\Eskin}{McKeownet~al.}{1999}]{mckeown:99}McKeown,K.~R.,Klavans,J.~L.,Hatzivassiloglou,V.,Barzilay,R.,\BBA\Eskin,E.\BBOP1999\BBCP.\newblock\BBOQTowardsmultidocumentsummarizationbyreformulation:progressandprospects\BBCQ\\newblockIn{\BemProceedingsofthe16thNationalConferenceonArtificialIntelligenceand11thConferenceonInnovativeApplicationsofArtificialIntelligence{\rm(}AAAI-IAAI\/{\rm)}},\BPGS\453--460.\bibitem[\protect\BCAY{Melamed}{Melamed}{2001}]{melamed:01}Melamed,I.~D.\BBOP2001\BBCP.\newblock{\BemEmpiricalmethodsforexploitingparalleltexts}.\newblockTheMITPress.\bibitem[\protect\BCAY{Mel'\v{c}uk\BBA\Polgu\`{e}re}{Mel'\v{c}uk\BBA\Polgu\`{e}re}{1987}]{melcuk:87}Mel'\v{c}uk,I.\,\BBA\Polgu\`{e}re,A.\BBOP1987\BBCP.\newblock\BBOQAformallexiconinmeaning-texttheory(orhowtodolexicawithwords)\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13}(3-4),\BPGS\261--275.\bibitem[\protect\BCAY{Mel'\v{c}uk}{Mel'\v{c}uk}{1996}]{melcuk:96}Mel'\v{c}uk,I.\BBOP1996\BBCP.\newblock\BBOQLexicalfunctions:atoolforthedescriptionoflexicalrelationsinalexicon\BBCQ\\newblockIn{\BemWanner{\rm(}Ed.{\rm)}LexicalFunctionsinLexicographyandNaturalLanguageProcessing},\BPGS\37--102.JohnBenjaminPublishingCompany.\bibitem[\protect\BCAY{Meteer\BBA\Shaked}{Meteer\BBA\Shaked}{1988}]{meteer:88}Meteer,~M.\,\BBA\Shaked,~V.\BBOP1988\BBCP.\newblock\BBOQStrategiesforeffectiveparaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\431--436.\bibitem[\protect\BCAY{Meyers,Yangarber,\BBA\Grishman}{Meyerset~al.}{1998}]{meyers:98}Meyers,A.,Yangarber,R.,\BBA\Grishman,R.\BBOP1998\BBCP.\newblock\BBOQDerivingtransferrulesfromdominance-preservingalignments\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics{\rm(}COLING-ACL\/{\rm)}},\BPGS\843--847.\bibitem[\protect\BCAY{三上,増山,中川}{三上\Jetal}{1999}]{mikami:99}三上真,増山繁,中川聖一\BBOP1999\BBCP.\newblock\JBOQニュース番組における字幕生成のための文内短縮による要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),\BPGS\65--81.\bibitem[\protect\BCAY{Miller,Beckwith,Fellbaum,Gross,\BBA\Miller}{Milleret~al.}{1990}]{WN:90}Miller,G.~A.,Beckwith,R.,Fellbaum,C.,Gross,D.,\BBA\Miller,K.~J.\BBOP1990\BBCP.\newblock\BBOQIntroductionto{W}ord{N}et:anon-linelexicaldatabase\BBCQ\\newblock{\BemInternationalJournalofLexicography},{\Bbf3}(4),\BPGS\235--244.\bibitem[\protect\BCAY{Mitamura\BBA\Nyberg}{Mitamura\BBA\Nyberg}{2001}]{mitamura:01}Mitamura,T.\,\BBA\Nyberg,E.\BBOP2001\BBCP.\newblock\BBOQAutomaticrewritingforcontrolledlanguagetranslation\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\1--12.\bibitem[\protect\BCAY{宮島仁田}{宮島\JBA仁田}{1995a}]{miyajima:95:a}宮島達夫,仁田義雄\JEDS\\BBOP1995a\BBCP.\newblock\Jem{日本語類義表現の文法(上)単文編}.\newblockくろしお出版.\bibitem[\protect\BCAY{宮島仁田}{宮島\JBA仁田}{1995b}]{miyajima:95:b}宮島達夫,仁田義雄\JEDS\\BBOP1995b\BBCP.\newblock\Jem{日本語類義表現の文法(下)複文・連文編}.\newblockくろしお出版.\bibitem[\protect\BCAY{Moldovan,Clark,Harabagiu,\BBA\Maiorano}{Moldovanet~al.}{2003}]{moldovan:03}Moldovan,D.,Clark,C.,Harabagiu,S.,\BBA\Maiorano,S.\BBOP2003\BBCP.\newblock\BBOQ{COGEX}:alogicproverforquestionanswering\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\87--93.\bibitem[\protect\BCAY{森田松木}{森田\JBA松木}{1989}]{morita:89}森田良行,松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型---用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{森田}{森田}{1994}]{morita:94}森田良行\BBOP1994\BBCP.\newblock\Jem{動詞の意味論的文法研究}.\newblock明治書院.\bibitem[\protect\BCAY{村木}{村木}{1991}]{muraki:91}村木新次郎\BBOP1991\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata:01:c}Murata,M.\,\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalmodelforparaphrasing---usingtransformationbasedonadefinedcriteria---\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\47--54.\bibitem[\protect\BCAY{村田井佐原}{村田\JBA井佐原}{2002}]{murata:02}村田真樹,井佐原均\BBOP2002\BBCP.\newblock\JBOQ受け身/使役文の能動文への変換における機械学習を用いた格助詞の変換\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-149-6},\BPGS\39--44.\bibitem[\protect\BCAY{Nanba\BBA\Okumura}{Nanba\BBA\Okumura}{2000}]{nanba:00:a}Nanba,H.\,\BBA\Okumura,M.\BBOP2000\BBCP.\newblock\BBOQProducingmorereadableextractsbyrevisingthem\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1071--1075.\bibitem[\protect\BCAY{成松,河原,黒橋,西田}{成松\Jetal}{2002}]{narimatsu:02}成松深,河原大輔,黒橋禎夫,西田豊明\BBOP2002\BBCP.\newblock\JBOQ格関係の比較を用いた複数テキスト間の重複・差分の検出\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\535--538.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1995}]{EDR:95}日本電子化辞書研究所\BBOP1995\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書}.\bibitem[\protect\BCAY{野上乾}{野上\JBA乾}{2001}]{nogami:01}野上優,乾健太郎\BBOP2001\BBCP.\newblock\JBOQ結束性を考慮した連体修飾節の言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\339--342.\bibitem[\protect\BCAY{野上乾}{野上\JBA乾}{2002}]{nogami:02}野上優,乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言い換えを用いた結束性評価基準の構築\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\335--338.\bibitem[\protect\BCAY{Nyberg\BBA\Mitamura}{Nyberg\BBA\Mitamura}{2000}]{nyberg:00}Nyberg,E.\,\BBA\Mitamura,T.\BBOP2000\BBCP.\newblock\BBOQThe{KANTOO}machinetranslationenvironment\BBCQ\\newblockIn{\BemProceedingsofAMTA2000Conference},\BPGS\192--195.\bibitem[\protect\BCAY{小川石崎}{小川\JBA石崎}{2004}]{ogawa:04}小川修太,石崎俊\BBOP2004\BBCP.\newblock\JBOQ概念辞書における深層格の相互作用について---壁塗り構文を例として---\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\572--575.\bibitem[\protect\BCAY{大橋山本}{大橋\JBA山本}{2004}]{ohashi:04}大橋一輝,山本和英\BBOP2004\BBCP.\newblock\JBOQ「サ変動詞+名詞」の複合名詞への換言\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\693--696.\bibitem[\protect\BCAY{大野,横山,西原}{大野\Jetal}{2003}]{ohno:03}大野満,横山晶一,西原典孝\BBOP2003\BBCP.\newblock\JBOQ日本語敬語表現の変換・解析システム\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\218--222.\bibitem[\protect\BCAY{Ohtake\BBA\Yamamoto}{Ohtake\BBA\Yamamoto}{2001}]{ohtake:01:b}Ohtake,K.\,\BBA\Yamamoto,K.\BBOP2001\BBCP.\newblock\BBOQParaphrasinghonorifics\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\13--20.\bibitem[\protect\BCAY{Ohtake\BBA\Yamamoto}{Ohtake\BBA\Yamamoto}{2003}]{ohtake:03:b}Ohtake,K.\,\BBA\Yamamoto,K.\BBOP2003\BBCP.\newblock\BBOQApplicabilityanalysisofcorpus-derivedparaphrasestowardexample-basedparaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe17thPacificAsiaConferenceonLanguage,InformationandComputation{\rm(}PACLIC\/{\rm)}},\BPGS\380--391.\bibitem[\protect\BCAY{大泉,鍜治,河原,岡本,黒橋,西田}{大泉\Jetal}{2003}]{oizumi:03}大泉敏貴,鍜治伸裕,河原大輔,岡本雅史,黒橋禎夫,西田豊明\BBOP2003\BBCP.\newblock\JBOQ書きことばから話しことばへの変換\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\93--96.\bibitem[\protect\BCAY{Okamoto,Sato,\BBA\Saito}{Okamotoet~al.}{2003}]{okamoto:03:b}Okamoto,H.,Sato,K.,\BBA\Saito,H.\BBOP2003\BBCP.\newblock\BBOQPreferentialpresentationof{J}apanesenear-synonymsusingdefinitionstatements\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\17--24.\bibitem[\protect\BCAY{奥}{奥}{1990}]{oku:90}奥雅博\BBOP1990\BBCP.\newblock\JBOQ日本文解析における述語相当の慣用的表現の扱い\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf31}(12),\BPGS\1727--1734.\bibitem[\protect\BCAY{奥村難波}{奥村\JBA難波}{1999}]{okumura:99:a}奥村学,難波英嗣\BBOP1999\BBCP.\JBOQテキスト自動要約に関する研究動向\JBCQ\\Jem{自然言語処理},{\Bbf6}(6),\BPGS\1--26.\bibitem[\protect\BCAY{奥村難波}{奥村\JBA難波}{2002}]{okumura:02:a}奥村学,難波英嗣\BBOP2002\BBCP.\newblock\JBOQテキスト自動要約に関する最近の話題\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(4),\BPGS\97--116.\bibitem[\protect\BCAY{大野浜西}{大野\JBA浜西}{1981}]{kadokawa:81}大野晋,浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Pang,Knight,\BBA\Marcu}{Panget~al.}{2003}]{pang:03}Pang,B.,Knight,K.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQSyntax-basedalignmentofmultipletranslations:extractingparaphrasesandgeneratingnewsentences\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\102--109.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni:02:b}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQ\textsc{BLEU}:amethodforautomaticevaluationofmachinetranslation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\311--318.\bibitem[\protect\BCAY{Pearce}{Pearce}{2001}]{pearce:01}Pearce,D.\BBOP2001\BBCP.\newblock\BBOQSynonymyincollocationextraction\BBCQ\\newblockIn{\BemProceedingsofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}NAACL\/{\rm)}WorkshoponWordNetandOtherLexicalResources:Applications,ExtensionsandCustomizations},\BPGS\41--46.\bibitem[\protect\BCAY{Pereira,Tishby,\BBA\Lee}{Pereiraet~al.}{1993}]{pereira:93}Pereira,F.,Tishby,N.,\BBA\Lee,L.\BBOP1993\BBCP.\newblock\BBOQDistributionalclusteringof{E}nglishwords\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\183--190.\bibitem[\protect\BCAY{Quirk,Brockett,\BBA\Dolan}{Quirket~al.}{2004}]{quirk:04}Quirk,C.,Brockett,C.,\BBA\Dolan,W.\BBOP2004\BBCP.\newblock\BBOQMonolingualmachinetranslationforparaphrasegeneration\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing{\rm(}EMNLP\/{\rm)}},\BPGS\142--149.\bibitem[\protect\BCAY{Ravichandran\BBA\Hovy}{Ravichandran\BBA\Hovy}{2002}]{ravichandran:02}Ravichandran,D.\,\BBA\Hovy,E.\BBOP2002\BBCP.\newblock\BBOQLearningsurfacetextpatternsforaquestionansweringsystem\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\215--222.\bibitem[\protect\BCAY{Robin\BBA\McKeown}{Robin\BBA\McKeown}{1996}]{robin:96}Robin,J.\,\BBA\McKeown,K.\BBOP1996\BBCP.\newblock\BBOQEmpiricallydesigningandevaluatinganewrevision-basedmodelforsummarygeneration\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf85}(1-2),\BPGS\135--179.\bibitem[\protect\BCAY{RWC}{RWC}{1998}]{RWC:98}RWC\BBOP1998\BBCP.\newblock\Jem{RWCテキストデータベース第2版,岩波国語辞典タグ付き/形態素解析データ第5版}.\bibitem[\protect\BCAY{斉藤,池原,村上}{斉藤\Jetal}{2002}]{saito:02:b}斉藤健太郎,池原悟,村上仁一\BBOP2002\BBCP.\newblock\JBOQ日英文型パターンの意味的対応方式\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\295--298.\bibitem[\protect\BCAY{酒井増山}{酒井\JBA増山}{2003}]{sakai:03}酒井浩之,増山繁\BBOP2003\BBCP.\newblock\JBOQコーパスからの名詞と略語の対応関係の自動獲得\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\226--229.\bibitem[\protect\BCAY{Sasaki,Isozaki,Kokuryou,Hirao,,\BBA\Maeda}{Sasakiet~al.}{2002}]{sasaki:02}Sasaki,Y.,Isozaki,H.,Kokuryou,K.,Hirao,T.,,\BBA\Maeda,E.\BBOP2002\BBCP.\newblock\BBOQ{NTT}'s{QA}Systemsfor{NTCIR}{QAC-1}\BBCQ\\newblockIn{\BemNTCIRWorkshop3QuestionAnsweringChallenge{\rm(}QAC\/{\rm)}}.\bibitem[\protect\BCAY{佐藤,岩越,増田,中川}{佐藤\Jetal}{2004}]{SatoDai:04:a}佐藤大,岩越守孝,増田英孝,中川裕志\BBOP2004\BBCP.\newblock\JBOQWebと携帯端末向けの新聞記事の対応コーパスからの言い換え抽出\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-159-27},\BPGS\193--200.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato:99}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\BPGS\2937--2945.\bibitem[\protect\BCAY{佐藤}{佐藤}{2001}]{sato:01:a}佐藤理史\BBOP2001\BBCP.\newblock\JBOQなぜ言い換え/パラフレーズを研究するのか\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\1--2.\bibitem[\protect\BCAY{Sato\BBA\Nakagawa}{Sato\BBA\Nakagawa}{2001}]{NLPRSWS:01}Sato,S.\,\BBA\Nakagawa,H.\BEDS\\BBOP2001\BBCP.\newblock{\BemWorkshoponAutomaticParaphrasing:TheoriesandApplications}.\newblockNLPRS-2001Workshop.\bibitem[\protect\BCAY{関根}{関根}{2001}]{sekine:01}関根聡\BBOP2001\BBCP.\newblock\JBOQ複数の新聞を使用した言い替え表現の自動抽出\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\9--14.\bibitem[\protect\BCAY{Shieber\BBA\Schabes}{Shieber\BBA\Schabes}{1990}]{shieber:90}Shieber,S.~M.\,\BBA\Schabes,Y.\BBOP1990\BBCP.\newblock\BBOQSynchronoustree-adjoininggrammars\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)},Vol.3},\BPGS\253--258.\bibitem[\protect\BCAY{下畑,渡辺,隅田,松本}{下畑\Jetal}{2003}]{shimohata:03:c}下畑光夫,渡辺太郎,隅田英一郎,松本裕治\BBOP2003\BBCP.\newblock\JBOQパラレルコーパスからの機械翻訳向け同義表現抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11),\BPGS\2854--2863.\bibitem[\protect\BCAY{Shimohata,Sumita,\BBA\Matsumoto}{Shimohataet~al.}{2004}]{shimohata:04:b}Shimohata,M.,Sumita,E.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQBuildingaparaphrasecorpusforspeechtranslation\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation{\rm(}LREC\/{\rm)}},\BPGS\1407--1410.\bibitem[\protect\BCAY{Shinyama,Sekine,Sudo,\BBA\Grishman}{Shinyamaet~al.}{2002}]{shinyama:02}Shinyama,Y.,Sekine,S.,Sudo,K.,\BBA\Grishman,R.\BBOP2002\BBCP.\newblock\BBOQAutomaticparaphraseacquisitionfromnewsarticles\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConference{\rm(}HLT\/{\rm)}}.\bibitem[\protect\BCAY{Shinyama\BBA\Sekine}{Shinyama\BBA\Sekine}{2003}]{shinyama:03}Shinyama,Y.\,\BBA\Sekine,S.\BBOP2003\BBCP.\newblock\BBOQParaphraseacquisitionforinformationextraction\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\65--71.\bibitem[\protect\BCAY{白井,池原,河岡,中村}{白井\Jetal}{1995}]{shirai:95:a}白井諭,池原悟,河岡司,中村行宏\BBOP1995\BBCP.\newblock\JBOQ日英機械翻訳における原文自動書き換え型翻訳方式とその効果\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(1),\BPGS\12--21.\bibitem[\protect\BCAY{Shirai,Yamamoto,\BBA\Bond}{Shiraiet~al.}{2001}]{shirai:01:c}Shirai,S.,Yamamoto,K.,\BBA\Bond,F.\BBOP2001\BBCP.\newblock\BBOQJapanese-{E}nglishparaphrasecorpus\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponLanguageResourcesinAsia},\BPGS\23--30.\bibitem[\protect\BCAY{白木黒橋}{白木\JBA黒橋}{2000}]{shiraki:00:a}白木伸征,黒橋禎夫\BBOP2000\BBCP.\newblock\JBOQ自然言語入力と目次との柔軟な照合による図書検索システム\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),\BPGS\1162--1170.\bibitem[\protect\BCAY{首藤,田辺,吉村}{首藤\Jetal}{2001}]{shuto:01}首藤公昭,田辺利文,吉村賢治\BBOP2001\BBCP.\newblock\JBOQ日本語モダリティ表現とその言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\47--50.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2003}]{siddharthan:03:a}Siddharthan,A.\BBOP2003\BBCP.\newblock\BBOQPreservingdiscoursestructurewhensimplifyingtext\BBCQ\\newblockIn{\BemProceedingsofthe9thEuropeanWorkshoponNatulalLanguageGeneration{\rm(}EWNLG\/{\rm)}},\BPGS\103--110.\bibitem[\protect\BCAY{砂川}{砂川}{1995}]{sunagawa:95}砂川有里子\BBOP1995\BBCP.\newblock\JBOQ日本語における分裂文の機能と語順の原理\JBCQ\\newblock\Jem{複文の研究(下),仁田義雄(編)},\BPGS\353--388.くろしお出版.\bibitem[\protect\BCAY{Takahashi,Iwakura,Iida,Fujita,\BBA\Inui}{Takahashiet~al.}{2001}]{takahashi:01:c}Takahashi,T.,Iwakura,T.,Iida,R.,Fujita,A.,\BBA\Inui,K.\BBOP2001\BBCP.\newblock\BBOQ\textsc{Kura}:atransfer-basedlexico-structuralparaphrasingengine\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\37--46.\bibitem[\protect\BCAY{Takahashi,Nawata,Inui,\BBA\Matsumoto}{Takahashiet~al.}{2003}]{takahashi:03:c}Takahashi,T.,Nawata,K.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQEffectsofstructuralmatchingandparaphrasinginquestionanswering\BBCQ\\newblock{\BemIEICETransactionsonInformationandSystems},{\BbfE86-D}(9),\BPGS\1677--1685.\bibitem[\protect\BCAY{高橋,乾,関根,松本}{高橋\Jetal}{2004}]{takahashi:04:a}高橋哲朗,乾健太郎,関根聡,松本裕治\BBOP2004\BBCP.\newblock\JBOQ質問応答に必要な言い換えの分析\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\309--312.\bibitem[\protect\BCAY{高橋牛島}{高橋\JBA牛島}{1991}]{takahashi:91:a}高橋善文,牛島和夫\BBOP1991\BBCP.\newblock\JBOQ計算機マニュアルのわかりやすさの定量的評価方法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf32}(4),\BPGS\460--469.\bibitem[\protect\BCAY{高塚}{高塚}{1999}]{takatsuka:99}高塚成信\BBOP1999\BBCP.\newblock\JBOQコミュニケーション方略としての「言い換え」---その指導内容と方法に関する基礎的研究---\JBCQ\\newblock\Jem{岡山大学教育学部研究集録,第10号},\BPGS\1--12.\bibitem[\protect\BCAY{武石林}{武石\JBA林}{1992}]{takeishi:92}武石英二,林良彦\BBOP1992\BBCP.\newblock\JBOQ接続構造解析に基づく日本語複文の分割\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(5),\BPGS\652--663.\bibitem[\protect\BCAY{竹内,内山,吉岡,影浦,小山}{竹内\Jetal}{2002}]{takeuchi:02}竹内孔一,内山清子,吉岡真治,影浦峡,小山照夫\BBOP2002\BBCP.\newblock\JBOQ語彙概念構造を利用した複合名詞内の係り関係の解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(5),\BPGS\1446--1456.\bibitem[\protect\BCAY{Terada\BBA\Tokunaga}{Terada\BBA\Tokunaga}{2001}]{terada:01}Terada,A.\,\BBA\Tokunaga,T.\BBOP2001\BBCP.\newblock\BBOQAutomaticdisabbreviationbyusingcontextinformation\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\21--28.\bibitem[\protect\BCAY{徳田奥村}{徳田\JBA奥村}{1998}]{tokuda:98}徳田昌晃,奥村学\BBOP1998\BBCP.\newblock\JBOQ日本語から手話への機械翻訳における手話単語辞書の補完方法について\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(3),\BPGS\542--550.\bibitem[\protect\BCAY{Tokunaga,Tanaka,\BBA\Kimura}{Tokunagaet~al.}{2003}]{tokunaga:03}Tokunaga,T.,Tanaka,H.,\BBA\Kimura,K.\BBOP2003\BBCP.\newblock\BBOQParaphrasingJapanesenounphrasesusingcharacter-basedindexing\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\80--87.\bibitem[\protect\BCAY{徳永}{徳永}{2002}]{tokunaga:02:bachelor}徳永泰浩\BBOP2002\BBCP.\newblock\JBOQ取り立て詞に着目した否定表現の言い換えと意味解析\JBCQ\\newblock九州工業大学情報工学部知能情報工学科卒業論文.\bibitem[\protect\BCAY{Tomuro\BBA\Lytinen}{Tomuro\BBA\Lytinen}{2001}]{tomuro:01:a}Tomuro,N.\,\BBA\Lytinen,S.~L.\BBOP2001\BBCP.\newblock\BBOQSelectingfeaturesforparaphrasingquestionsentences\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\55--62.\bibitem[\protect\BCAY{鳥澤}{鳥澤}{2002}]{torisawa:02:a}鳥澤健太郎\BBOP2002\BBCP.\newblock\JBOQ教師無し学習による名詞句の言い換え\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\323--326.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2002}]{torisawa:02:b}Torisawa,K.\BBOP2002\BBCP.\newblock\BBOQAnunsupervisedlearningmethodforassociativerelationshipsbetweenverbphrases\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1009--1015.\bibitem[\protect\BCAY{土屋黒橋}{土屋\JBA黒橋}{2000}]{tsuchiya:00}土屋雅稔,黒橋禎夫\BBOP2000\BBCP.\newblock\JBOQMDL原理に基づく辞書定義文の圧縮と共通性の発見\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-140-7},\BPGS\47--54.\bibitem[\protect\BCAY{土屋,佐藤,宇津呂}{土屋\Jetal}{2004}]{tsuchiya:04}土屋雅稔,佐藤理史,宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ機能表現言い換えデータからの言い換え規則の自動生成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\492--495.\bibitem[\protect\BCAY{内元,黒橋,長尾}{内元\Jetal}{1996}]{uchimoto:96}内元清貴,黒橋禎夫,長尾眞\BBOP1996\BBCP.\newblock\JBOQ日本語文生成における語彙選択に必要な要因とその性質\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-116-21},\BPGS\143--150.\bibitem[\protect\BCAY{内山石崎}{内山\JBA石崎}{2003}]{uchiyama:03}内山清子,石崎俊\BBOP2003\BBCP.\newblock\JBOQ複合動詞の多義性解消のための意味解析法\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\163--166.\bibitem[\protect\BCAY{内山Baldwin}{内山\JBABaldwin}{2004}]{uchiyama:04}内山清子,Baldwin,T.\BBOP2004\BBCP.\newblock\JBOQ機械学習を用いた複合動詞の多義性解消\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\741--744.\bibitem[\protect\BCAY{上田小山}{上田\JBA小山}{2000}]{ueda:00}上田良寛,小山剛弘\BBOP2000\BBCP.\newblock\JBOQ共通意味断片の抽出による複数文書要約\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\360--363.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2001}]{voorhees:01}Voorhees,E.~M.\BBOP2001\BBCP.\newblock\BBOQOverviewofthe{TREC}2001questionansweringtrack\BBCQ\\newblockIn{\BemProceedingsofthe10thTextRetrievalConference{\rm(}TREC2001\/{\rm)}},\BPGS\42--51.\bibitem[\protect\BCAY{Wahlster}{Wahlster}{2000}]{verbmobil:00}Wahlster,W.\BED\\BBOP2000\BBCP.\newblock{\BemVerbmobil:foundationsofspeech-to-speechtranslation}.\newblockSpringer.\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1997}]{wakao:97}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\JBOQテレビニュース番組の字幕に見られる要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-122-13},\BPGS\83--89.\bibitem[\protect\BCAY{Walker}{Walker}{1993}]{walker:93}Walker,M.~A.\BBOP1993\BBCP.\newblock\BBOQWhengiveninformationisaccented:repetition,paraphraseandinferenceindialogue\BBCQ\\newblockIn{\BemProceedingsofLinguisticsSocietyofAmericaAnnualMeeting}.\bibitem[\protect\BCAY{Wanner}{Wanner}{1994}]{wanner:94}Wanner,L.\BBOP1994\BBCP.\newblock{\BemCurrentissuesin{M}eaning-{T}ext{T}heory}.\newblockPinterPublishers.\bibitem[\protect\BCAY{Watanabe,Kurohashi,\BBA\Aramaki}{Watanabeet~al.}{2000}]{watanabe:00}Watanabe,H.,Kurohashi,S.,\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQFindingstructuralcorrespondencesfrombilingualparsedcorpusforcorpus-basedtranslation\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\933--939.\bibitem[\protect\BCAY{山口,乾,小谷,西村}{山口\Jetal}{1998}]{yamaguchi:98}山口昌也,乾伸雄,小谷善行,西村恕彦\BBOP1998\BBCP.\newblock\JBOQ前編集結果を利用した前編集自動化規則の獲得\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(1),\BPGS\17--28.\bibitem[\protect\BCAY{山本松本}{山本\JBA松本}{2001}]{YamamotoKaoru:01:b}山本薫,松本裕治\BBOP2001\BBCP.\newblock\JBOQ統計的係り受け結果を用いた対訳表現抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),\BPGS\2239--2247.\bibitem[\protect\BCAY{山本}{山本}{2001}]{YamamotoKazuhide:01}山本和英\BBOP2001\BBCP.\newblock\JBOQ換言処理の現状と課題\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\93--96.\bibitem[\protect\BCAY{Yamamoto}{Yamamoto}{2002a}]{YamamotoKazuhide:02:c}Yamamoto,K.\BBOP2002a\BBCP.\newblock\BBOQMachinetranslationbyinteractionbetweenparaphraserandtransfer\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1107--1113.\bibitem[\protect\BCAY{Yamamoto}{Yamamoto}{2002b}]{YamamotoKazuhide:02:d}Yamamoto,K.\BBOP2002b\BBCP.\newblock\BBOQAcquisitionoflexicalparaphrasesfromtexts\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponComputationalTerminology{\rm(}CompuTerm\/{\rm)}},\BPGS\22--28.\bibitem[\protect\BCAY{Yoshikane,Tsuji,Kageura,\BBA\Jacquemin}{Yoshikaneet~al.}{2003}]{yoshikane:03}Yoshikane,F.,Tsuji,K.,Kageura,K.,\BBA\Jacquemin,C.\BBOP2003\BBCP.\newblock\BBOQMorpho-syntacticrulesfordetectingJapanesetermvariation:establishmentandevaluation\BBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),\BPGS\3--32.\bibitem[\protect\BCAY{吉見佐田}{吉見\JBA佐田}{2000}]{yoshimi:00:a}吉見毅彦,佐田いち子\BBOP2000\BBCP.\newblock\JBOQ英字新聞記事見出し翻訳の自動前編集による改良\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(2),\BPGS\27--43.\bibitem[\protect\BCAY{吉見,佐田,福持}{吉見\Jetal}{2000}]{yoshimi:00:b}吉見毅彦,佐田いち子,福持陽士\BBOP2000\BBCP.\newblock\JBOQ頑健な英日機械翻訳システム実現のための原文自動前編集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(4),\BPGS\99--117.\end{thebibliography}\appendix \section{語彙・構文的言い換えの分類} \label{app:taxonomy}これまでの事例研究の中で扱われてきたさまざまな種類の言い換えや,言語学の分野で示されてきた交替現象,表現の使い分けなどの分析結果を集めた.さらに,それぞれの言い換えを実現するための課題を考察し,(a)言い換えのスコープ,(b)内容表現か機能表現か,(c)必要な語彙知識の種類,という観点から分類した.\subsection{節間の言い換え}\label{ssec:category1}2つ以上の節にまたがる言い換えである.\refex{dc2mc},\refex{cleft}のような言い換えでは,主題が変更するため,それにともなって対応する名詞述語表現が必要になる.一方,\refex{adv_clause},\refex{conjunction}のような言い換えでは,節間の修辞的関係を表す接続詞を改めて選択しなければならない.このように,節間の言い換えでは,節間の順序や関係が変化するため,結束性の評価が必要になる.\numexs{dc2mc}{\item[]\hspace{-6mm}\emph{連体節主節化}~\cite{chandrasekar:96:a,dras:99:a,nogami:01}\item[s.]昨年,区制施行70周年という大きな節目を\emph{迎えた本区}は,新たな10年に向けて順調な区政運営をスタートいたしました.\item[t.]昨年,\emph{本区は}区制施行70周年という大きな節目を\emph{迎えました.そして,}新たな10年に向けて順調な区政運営をスタートいたしました.}\numexs{cleft}{\item[]\hspace{-6mm}\emph{分裂文から非分裂文への言い換え}~\cite{sunagawa:95,dras:99:a}\item[s.]今週当選した\emph{のは},奈良県の男性\emph{でした}.\item[t.]今週\emph{は},奈良県の男性\emph{が}当選し\emph{ました}.}\numexs{adv_clause}{\item[]\hspace{-6mm}\emph{連用節・並列節の分割}~\cite{takeishi:92,kouda:01,mitamura:01}\item[s.]情報化に向けての前向きな意見が多くを占めています\emph{が},情報格差などの不安もみられます.\item[t.]情報化に向けての前向きな意見が多くを占めています.\emph{しかし},情報格差などの不安もみられます.}\numexs{conjunction}{\item[]\hspace{-6mm}\emph{接続表現の言い換え}~\cite{miyajima:95:b}\item[s.]用紙は各事務所に置いてあります\emph{から},どしどし意見をお寄せください.\item[t.]用紙は各事務所に置いてあります\emph{ので},どしどし意見をお寄せください.}\subsection{節内の言い換え}\label{ssec:category2}\refex{comparison}の主題交替や,\refex{voice_alternation}の格交替など,操作の対象が節内で閉じている言い換えである.変換パターンのバリエーションはそれほど多くなく,人手で書き尽くせる程度のように見えるが,変換パターンによっては適用の可否が語に依存するため,その判断に必要な語彙知識をいかにして発見・構築するかが課題となる.また,視点のような対人関係的意味や主題/陳述構造のような文脈レベルの意味が変化するため,これを捉えるモデルを形式化する必要もある.\numexs{negation}{\item[]\hspace{-6mm}\emph{否定表現の言い換え}~\cite{hayashi:91,kondo:01,iida:01,tokunaga:02:bachelor}\item[s.]返信\emph{しない}と,申込みは取り消され\emph{ます}.\item[t.]返信\emph{する}と,申込みは取り消され\emph{ません}.}\numexs{comparison}{\item[]\hspace{-6mm}\emph{比較表現の言い換え}~\cite{kondo:01,saito:02:b}\item[s.]\emph{隣町は我が町より}山林資源が\emph{乏しい}.\item[t.]\emph{我が町は隣町より}山林資源が\emph{豊かだ}.}\numexs{voice_alternation}{\item[]\hspace{-6mm}\emph{態・使役の交替}~\cite{yamaguchi:98,kondo:01,murata:02}\item[s.]今年は湾岸などの都市基盤の\emph{整備が}\emph{行われました}.\item[t.]今年は湾岸などの都市基盤の\emph{整備を}\emph{行いました}.}\numexs{transitivity_alternation}{\item[]\hspace{-6mm}\emph{動詞交替(自他)}~\cite{levin:93,kageyama:01,kondo:01}\item[s.]無制限な個人情報の収集に一定の\emph{制限を}\emph{加える}.\item[t.]無制限な個人情報の収集に一定の\emph{制限が}\emph{加わる}.}\numexs{locative_alternation}{\item[]\hspace{-6mm}\emph{動詞交替(壁塗り/場所格)}~\cite{levin:93,kageyama:01,ogawa:04}\item[s.]課長は\emph{大きな杯に}\emph{日本酒を}満たした.\item[t.]課長は\emph{大きな杯を}\emph{日本酒で}満たした.}\numexs{lightverb}{\item[]\hspace{-6mm}\emph{機能動詞結合の言い換え}~\cite{oku:90,muraki:91,iordanskaja:91,morita:94,dras:99:a,kaji:04:a,fujita:04:d}\item[s.]\emph{住民の熱心な要請を受け},工事を中止した.\item[t.]\emph{住民に熱心に要請され},工事を中止した.}\numexs{donatory}{\item[]\hspace{-6mm}\emph{授受の構文の言い換え}~\cite{masuoka:94,inui:99:a}\item[s.]区民の健康保持の立場から,清掃活動を\emph{頑張ってくれている}.\item[t.]区民の健康保持の立場から,清掃活動を\emph{頑張っている}.}\numexs{enable_verb}{\item[]\hspace{-6mm}\emph{可能動詞の言い換え}~\cite{miyajima:95:a,inui:99:a}\item[s.]電車は込んでいたけど吊革に\emph{掴まれた}.\item[t.]電車は込んでいたけど吊革に\emph{掴まることができた}.}\numexs{mod_alternation}{\item[]\hspace{-6mm}\emph{修飾要素の交替}~\cite{miyajima:95:b}\item[s.]ブロック,レンガなど\emph{大きくて}重いものは,ひも掛けをしてそのまま出してください.\item[t.]ブロック,レンガなど\emph{大きく}重いものは,ひも掛けをしてそのまま出してください.}\numexs{quantity}{\item[]\hspace{-6mm}\emph{数量詞の遊離}~\cite{muraki:91}\item[s.]\emph{一件の}開示請求がありました.\item[t.]開示請求が\emph{一件}ありました.}\subsection{内容語の複合表現の言い換え}\label{ssec:category3}複数の内容語が複合表現を形成する場合,接続詞や格助詞,共通の動詞などの関係は明示的には現れない.この隠れている関係を明示的に示すように言い換えれば(下記s{\ra}t),読解支援という目的に対しては有効だと考えられる.一方,要約のような応用には,複合表現への言い換え(下記t{\ra}s)の方が有効である.これらの言い換えの可否は,構成素となる内容語からそれらの関係(複合表現における結び付き方)が容易に連想できるかどうかにも依存する.\numexs{compound_word}{\item[]\hspace{-6mm}\emph{複合名詞の分解・構成}~\cite{sato:99,kimura:02,takeuchi:02,ohashi:04}\item[s.]\emph{区政施行70周年}という大きな節目を迎えました.\item[t.]\emph{区の行政が施行されてから70周年}という大きな節目を迎えました.}\numexs{relative_clause}{\item[]\hspace{-6mm}\emph{「AのB」{\lra}連体節}~\cite{kurohashi:99:b,kataoka:00,torisawa:02:a}\item[s.]奈良県知事選への\emph{出馬の挨拶}を行った.\item[t.]奈良県知事選への\emph{出馬を表明する挨拶}を行った.}\numexs{compound_verb}{\item[]\hspace{-6mm}\emph{複合動詞の分解・構成}~\cite{uchiyama:03,uchiyama:04}\item[s1.]人に\emph{頷きかける}.\item[t1.]人に\emph{向かって頷く}.\item[s2.]夕飯を\emph{食べ過ぎた}.\item[t2.]夕飯を\emph{必要以上に食べた}.}\subsection{機能語/モダリティの言い換え}\label{ssec:category4}機能語相当表現(助詞・助動詞)やモダリティのレベルの言い換えは,上で示した言い換えに比べて語彙的な性格が強く,局所的な情報を参照するだけで言い換えられるものも多い.このレベルの言い換えを実現するには,同義の機能語/モダリティ表現をグループ化して辞書を整備するとともに,個々の言い換えで生じる意味差分をどのように計算するかが課題となる.\numexs{functional_expression}{\item[]\hspace{-6mm}\emph{機能語相当表現の言い換え}~\cite{morita:89,iida:01,kurokawa:03:master,matsuyoshi:04:a,tsuchiya:04}\item[s.]\emph{市民はもとより}全国に誇れるものにしていきたい.\item[t.]\emph{市民だけでなく}全国に誇れるものにしていきたい.}\numexs{move_emphasis}{\item[]\hspace{-6mm}\emph{取り立て助詞の移動}~\cite{kinsui:00,tokunaga:02:bachelor}\item[s.]ご飯は食べずに,辛いおかずを\emph{食べてばかり}いた.\item[t.]ご飯は食べずに,辛い\emph{おかずばかりを}食べていた.}\numexs{delete_emphasis}{\item[]\hspace{-6mm}\emph{助詞による特徴づけの削除}~\cite{morita:94}\item[s.]人口は一時10万人を\emph{超えこそしたが},今は7万人まで減少している.\item[t.]人口は一時10万人を\emph{超えたが},今は7万人まで減少している.}\numexs{modality}{\item[]\hspace{-6mm}\emph{伝達のモダリティ}~\cite{miyajima:95:a,inui:99:a,shuto:01}\item[s.]秋には紅葉を見に多くの人が\emph{集まるという}.\item[t.]秋には紅葉を見に多くの人が\emph{集まるそうだ}.}\numexs{honorifics}{\item[]\hspace{-6mm}\emph{敬語表現の言い換え}~\cite{ohtake:01:b,ohno:03}\item[s.]お支払いの方は\emph{いかがなさいますか}.\item[t.]お支払いの方は\emph{どうなさいますか}.}\numexs{changing_style}{\item[]\hspace{-6mm}\emph{文体の変換}~\cite{oizumi:03,kaji:04:c}\item[s.]不本意\emph{だが}仕方\emph{ない}.\item[t.]不本意\emph{ですが}仕方\emph{ありません}.}\subsection{内容語句の言い換え}\label{ssec:category5}内容語の言い換え表現は個々の単語ごとに記述する必要があるため,パラレルコーパスのアラインメント,シソーラス中の同概念語,国語辞典の語釈文などの既存の資源から機械的に収集する手段が検討されている(\sec{knowledge}).\numexs{oneword_noun}{\item[]\hspace{-6mm}\emph{名詞の言い換え}~\cite{fujita:01,pearce:01,YamamotoKazuhide:02:d,okamoto:03:b}\item[s.]太平洋を一望する桂浜公園の\emph{丘陵}に完成.\item[t.]太平洋を一望する桂浜公園の\emph{高台}に完成.}\numexs{oneword_verb}{\item[]\hspace{-6mm}\emph{動詞の言い換え}~\cite{kondo:97:a,kondo:99,kaji:01,torisawa:02:b,kaji:03:b}\item[s.]警官が犯人を\emph{逮捕する}.\item[t.]警官が犯人を\emph{捕まえる}.}\subsection{慣用表現の言い換え}\label{ssec:category6}構成語の変形では生成できない特有の言い回しの言い換えは,言い換え表現対を辞書に蓄える必要がある.\numexs{idiom}{\item[]\hspace{-6mm}\emph{慣用句}~\cite{morita:94,mitamura:01}\item[s.]「ひかり都市」として\emph{脚光を浴びる}こととなりました.\item[t.]「ひかり都市」として\emph{注目される}こととなりました.}\numexs{acronym}{\item[]\hspace{-6mm}\emph{表記のゆれ/略語}~\cite{wakao:97,terada:01,sakai:03}\item[s.]多くの市民が\emph{原発}の建設に反対している.\item[t.]多くの市民が\emph{原子力発電所}の建設に反対している.}\numexs{metonymy}{\item[]\hspace{-6mm}\emph{換喩}\item[s.]\emph{シェイクスピアを}読む.\item[t.]\emph{シェイクスピアが書いた本を}読む}\newcommand{\email}[1]{}\begin{biography}\biotitle{略歴}\bioauthor{乾健太郎}{1967年生.1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授.現在にいたる.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.\email{[email protected]}.}\bioauthor{藤田篤}{1977年生.2000年九州工業大学情報工学部卒業.2002年同大学大学院情報工学研究科博士前期課程修了.同年,奈良先端科学技術大学院大学情報科学研究科博士課程入学.現在にいたる.自然言語処理,特にテキストの自動言い換えの研究に従事.情報処理学会,ACL各学生会員.\email{[email protected]}.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V15N05-08
\section{はじめに} 多言語依存構造解析器に関して,CoNLL-2006\shortcite{CoNLL-2006}やCoNLL-2007\shortcite{CoNLL-2007}といった評価型SharedTaskが提案されており,言語非依存な解析アルゴリズムが多く提案されている.これらのアルゴリズムは対象言語の様々な制約---交差を許すか否か,主辞が句の先頭にあるか末尾にあるか---に適応する必要がある.この問題に対し様々な手法が提案されている.Eisner\shortcite{Eisner:1996}は文脈自由文法に基づくアルゴリズムを提案した.山田ら\shortcite{Yamada:2003},およびNivreら\shortcite{Nivre:2003,Nivre:2004}はshift-reduce法に基づくアルゴリズムを提案した.Nivreらはのちに,交差を許す言語に対応する手法を提案した\shortcite{Nivre:2005}.McDonaldら\shortcite{McDonald:2005b}はChu-Liu-Edmondsアルゴリズム(以下「CLEアルゴリズム」)\shortcite{Chu:1965,Edmonds:1967}を用いた,最大全域木の探索に基づく手法を提案した.多くの日本語係り受け解析器は入力として文節列を想定している.日本語の書き言葉の係り受け構造に関する制約は他の言語よりも強く,文節単位には左から右にしか係らず,係り受け関係は非交差であるという制約を仮定することが多い.図\ref{fig_jpsen}は日本語の係り受け構造の例である.ここで係り受け関係は,係り元から係り先に向かう矢印で表される.文(a)は文(b)と似ているが,両者の構文構造は異なる.特に「彼は」と「食べない」に関して,(a)は直接係り受け関係にあるのに対して,(b)ではそうなっていない.この構文構造の違いは意味的にも,肉を食べない人物が誰であるかという違いとして現れている.\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f1.eps}\end{center}\caption{日本語文の係り受け構造の例}\label{fig_jpsen}\end{figure}日本語係り受け解析では,機械学習器を用いた決定的解析アルゴリズムによる手法が,確率モデルを用いた,CKY法等の文脈自由文法の解析アルゴリズムによる手法よりも高精度の解析を実現している.工藤ら\shortcite{Kudo:2002}はチャンキングの段階適用(cascadedchunking,以下「CCアルゴリズム」)を日本語係り受け解析に適用した.颯々野\shortcite{Sassano:2004}はShift-Reduce法に基づいた時間計算量$O(n)$のアルゴリズム(以下「SRアルゴリズム」)を提案している.これらの決定的解析アルゴリズムは入力文を先頭から末尾に向かって走査し,係り先と思われる文節が見つかるとその時点でそこに掛けてしまい,それより遠くの文節は見ないので,近くの文節に係りやすいという傾向がある.\ref{sec:exp_acc}節で述べるように,我々はCLEアルゴリズムを日本語係り受け解析に適用した実験を行ったが,その精度は決定的解析手法に比べて同等あるいは劣っていた.実際CLEアルゴリズムは,左から右にしか係らないかつ非交差という日本語の制約に合っていない.まず全ての係り関係の矢印は左から右に向かうので,各ステップにおいて係り受け木にサイクルができることはない.加えて,CLEアルゴリズムは交差を許す係り受け解析を意図しているので,日本語の解析の際には非交差のチェックをするステップを追加しなければならない.工藤ら\shortcite{Kudo:2005j}は候補間の相対的な係りやすさ(選択選好性)に基づいたモデルを提案した.このモデルでは係り先候補集合から最尤候補を選択する問題を,係り元との選択選好性が最大の候補を選択する問題として定式化しており,京大コーパスVersion3.0に対して最も高い精度を達成している\footnote{ただし京大コーパスVersion2.0に対しては,颯々野の手法が最高精度を達成している.相対モデルと颯々野手法を同じデータで比べた報告はない.}.決定的手法においては候補間の相対的な係りやすさを考慮することはせず,単に注目している係り元文節と係り先候補文節が係り受け関係にあるか否かということのみを考える.また,この手法は,先に述べたCLEアルゴリズムに,左から右にのみ掛ける制約と非交差制約を導入した方法を拡張したものになっている.上にあげた手法はいずれも,係り元とある候補の係りやすさを評価する際に他の候補を参照していない\footnote{手法によっては係り元や候補に係っている文節や,周辺の文節の情報を素性として使用しているものもあるが,アクションの選択に重要な役割を果たす文節がこれらの素性によって参照される場所にあるとは限らない.}.これに対し内元ら\shortcite{Uchimoto:2000}は,(係り元,係り先候補)の二文節が係るか否かではなく,二文節の間に正解係り先がある・その候補に係る・その候補を越えた先に正解係り先がある,の3クラスとして学習し,解析時には各候補を正解と仮定した場合の確率が最大の候補を係り先として選択する確率モデルを提案している.また,金山ら\shortcite{Kanayama:2000}はHPSGによって係り先候補を絞り込み,さらに,三つ以下の候補のみを考慮して係り受け確率を推定する手法を提案している.本稿では,飯田ら\shortcite{Iida:2003}が照応解析に用いたトーナメントモデルを日本語係り受け解析に適用したモデルを提案する.同時に係り元と二つの係り先候補文節を提示して対決させるという一対一の対戦をステップラダートーナメント状に組み上げ,最尤係り先候補を決定するモデルである.2節ではどのようにしてトーナメントモデルを日本語係り受け解析に適用するかについて説明する.3節ではトーナメントモデルの性質について関連研究と比較しながら説明する.4節では評価実験の結果を示す.5節では我々の現在の仕事および今後の課題を示し,6章で本研究をまとめる. \section{トーナメントモデル} トーナメントモデルは飯田ら\shortcite{Iida:2003}が照応解析のために提案したモデルである.このモデルでは,与えられた照応表現の先行詞候補集合から二つを提示し,そのどちらがより先行詞らしいかをSVMなどの二値分類器を用いて判断するという勝ち抜き戦を行っていくことで,最尤先行詞候補を選択する.日本語係り受け解析も,ある係り元文節の複数の係り先候補の中から最尤候補を一つ選出する問題であるから,照応解析における最尤先行詞候補選出と類似した問題である.このトーナメントモデルを,日本語の係り受け構造の制約を考慮しつつ日本語係り受け解析に適用することを考える.図\ref{fig_jpsen}(b)の文の解析において,「彼は」の係り先を同定するトーナメントの例を図\ref{fig_tournament}に示す.左から右にしか係らない制約に従うと,係り先候補集合は係り元より右側に位置する四文節(「肉を」,「食べない」,「人と」,「結婚した」)である.このトーナメントは,候補集合の中からまず「肉を」と「食べない」を戦わせ,次にその勝者と「人と」を戦わせ,最後に第二試合の勝者と「結婚した」を戦わせる,ステップラダートーナメントである.このトーナメントの結果,最終的な勝者である「結婚した」が最尤係り先候補として選ばれ,「彼は」の係り先文節として認定される.図\ref{fig_tournament}では明記していないが,非交差制約をトーナメントモデルに導入するのは容易である.係り先候補集合から最尤候補を選択する際に,交差を生じない候補のみを候補集合として考えればよい.\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f2.eps}\end{center}\caption{トーナメントの例}\label{fig_tournament}\end{figure}以下に具体的なアルゴリズムを示す.\subsection{訓練事例生成アルゴリズム}\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f3.eps}\end{center}\caption{訓練事例生成アルゴリズムの疑似コード}\label{fig_train}\end{figure}このアルゴリズムは図\ref{fig_train}に示すように,全ての文節を係り元文節として見ていき,\pagebreak各係り元文節について,正解係り先候補とその他の全ての係り先候補との組について訓練事例を生成する.訓練事例生成の際は非交差制約を考慮せず,係り元の右側に位置するすべての文節を係り先候補として扱う.トーナメントモデルでは二値分類器で係り先を判定するため,左右いずれかの文節が正解係り先となる事例のみを生成する.このアルゴリズムに図\ref{fig_jpsen}に示した文を入力すると,表\ref{tbl_exgen_example}のような訓練事例が生成される\footnote{説明の都合上,訓練事例生成と解析の例に同一の文を使用しているが,実験において訓練データとテストデータに重なりはない.}.決定的手法や相対モデルなど,同時に一つの候補のみを見て(係り元,候補)の形の訓練事例を生成するモデルでは,「係り元:彼は,候補:食べない,クラスラベル:係る」と「係り元:彼は,候補:食べない,クラスラベル:係らない」というクラスラベルの異なる二つの矛盾した訓練事例が生成されるが,トーナメントモデルではこれらを区別し矛盾のない訓練事例を生成できる.\begin{table}[t]\caption{生成される訓練事例}\begin{center}\input{08table01.txt}\end{center}\label{tbl_exgen_example}\end{table}\subsection{解析アルゴリズム}\label{sec:parsing_algorithm}CCアルゴリズムやSRアルゴリズムには,訓練事例生成と解析のアルゴリズムを同一にしなければならないという制限があるが,トーナメントモデルにはそのような制限はない.そのためトーナメントモデルの解析アルゴリズムには主に,文頭に近い文節から係り先を同定していくか文末に近い文節から係り先を同定していくか,トーナメントをどう組むか,交差を許すか否か,といった自由度がある.図\ref{fig_test}は,文末に近い文節から係り先を同定し,トーナメントの組み方としては図\ref{fig_tournament}のような文頭に近い候補から先に戦わせるステップラダートーナメントとし,非交差制約を考慮する解析アルゴリズムである.同定順が文末から文頭であるため,注目している係り元より右側の係り受け関係はすべて決まっている.{\ithead}は各文節の係り先を格納する配列であるとともに,非交差制約に違反しない候補をつなぐ線形リストの役目も果たしている.\begin{figure}[t]\begin{center}\includegraphics{15-5ia8f4.eps}\end{center}\caption{解析アルゴリズムの疑似コード}\label{fig_test}\end{figure} \section{議論} 以下でトーナメントモデルの性質について先行研究と比較しながら論じる.\subsection{文脈の識別性}\label{sec:context}CCアルゴリズムとSRアルゴリズムは,二文節つまり一つの係り元文節と一つの係り先文節のみを参照してアクション(掛けるか掛けないか)を選択する.だが,たとえば図\ref{fig_jpsen}における「彼は」と「食べない」のように,ある二文節が係り受け関係にあるか否かが文脈に依存する場合がある.決定的解析アルゴリズムや相対モデルのような二文節のみを見るモデルでは,文脈素性によらなければこの二つの場合を識別することができない.なお,文脈素性とは,係り元文節と係り先候補文節自身以外の文節に関する素性のこととする.具体的にはたとえば,候補文節に隣接する左右の文節の情報(周辺文節素性)や,解析済みの係り受け関係に関する素性(動的素性)などである.動的素性が利用できるのは,ある係り元文節の係り先の同定を終えてから別の係り元文節の係り先の同定を行うようなモデルに限られる.日本語係り受け解析においては周辺文節素性はあまり使われていない.同時に参照する文節数に基づく分類によると,トーナメントモデルは三文節つまり一つの係り元文節と二つの係り先候補文節を同時に見る三つ組モデルということができる.三つ組モデルでは二つの候補のどちらがより係り先としてふさわしいかを直接比較し,最適な係り先を決定することができるので,文脈の識別性は二つ組モデルより高い.再び図\ref{fig_jpsen}の文について考えてみると,(b)では「彼は」は「食べない」に係っていない.これは,より適切な係り先「結婚した」が「食べない」の右に存在するからである.二つ組モデルにおいて,二文節の外に「結婚した」が存在することは動的素性によって検出できる可能性があるが,確実ではないので,二つ組モデルは「結婚した」が存在することを知らないまま係り先を選ばなければならないかもしれない.なお,金山ら\cite{Kanayama:2000}も一つの係り元文節と二つの係り先候補文節を同時に見るモデルを三つ組モデルと呼んでいる.トーナメントモデルと金山らのモデルは,複数の候補を同時に提示することで\ref{sec:context}〜\ref{sec:selectional}節の性質を備えているという点で共通している.両手法の主な相違点は,$k$個の係り先候補集合から一つの係り先を選ぶという問題を二つ(金山モデルでは二つまたは三つ)の候補から最も係り先として適切なものを選ぶという問題に落とし込む方法として,金山モデルではHPSGおよびヒューリスティック\footnote{HPSGによる絞り込みの結果,候補が四つ以上あるときは,係り元に最も近い候補・係り元に二番目に近い候補・係り元から最も遠い候補の三候補を提示する.},トーナメントモデルではトーナメントを用いている点である.提案手法はHPSGのような人手による文法規則を用いる必要がない.\subsection{文中における相対的な位置の表現}\label{sec:relative}三つ組モデルにおける二つの候補のうち係り元に近い方を「左候補」,遠い方を「右候補」と区別して呼ぶことにする.そうすると,トーナメントモデルの対戦においては係り元,左候補,右候補がこの順で文頭から文末の方向に並んでいることが保証されている.先行研究では,係り元と候補との間の距離(絶対距離)を1or2-5or6+といったバケツ素性で表現しており,後述のようにトーナメントモデルでもこの素性を使用している.絶対距離素性は相対位置を表す素性の一種であるとも考えられるが,ある候補との距離が1であるか否かの情報は重要だとしても,日本語は語順自由なので距離の絶対値はあまり重要ではない.たとえば図\ref{fig_jpsen}(b)の文において「彼は」を係り元とするとき,候補「食べない」と「結婚した」との距離はそれぞれ2と4であるため,どちらも「2-5」のバケツに分類される.したがって文脈素性を用いない場合,二つ組モデルはこの二つの候補のどちらが係り元により近い位置にあるかという相対的な位置関係を認識することができない.決定的解析アルゴリズムは先に相対的に近い対から判定するため,暗に相対位置の情報を用いている.これに対し提案手法は,相対位置をより直接的に,ラベルとして表現している.また,相対位置の認識は,ある種の格要素が他の格要素より近くに現れやすいといった傾向の学習にも有用と考えられる.たとえば目的語は他の要素より述語の近くに置かれやすい.決定的解析アルゴリズムは係り元に近い候補を選択しやすいため,工藤ら\shortcite{Kudo:2005j}が指摘しているように,決定的解析アルゴリズムは長距離の係り関係を正しく解析するのが苦手である.その理由としては,\ref{sec:context}節および\ref{sec:relative}節のような文脈識別能力が低いことが大きいと考えられる.なお,正解係り先は係り元に近いことが多いので,近い候補を選択しやすいという傾向のために生じる解析誤りはそれほど多くない.\subsection{選択選好}\label{sec:selectional}相対モデル\shortcite{Kudo:2005j}は係り先候補間の選択選好性の強さを直接学習し,log-linearモデルの尤度として全順序にエンコードする.CLEアルゴリズムを用いたMcDonaldら\shortcite{McDonald:2005b}の手法では,選択選好性をMIRA\shortcite{Crammer:2003}とよばれるパーセプトロンアルゴリズムで学習する.これに対してトーナメントモデルは候補間の一対一対戦のトーナメントで選択選好性を学習するため,全順序ではなく半順序の学習を行っている.相対モデルやMcDonaldらの手法が全候補を識別モデルで独立して見るのに対し,トーナメントモデルではどの候補がより適切かを前の試合の勝者と新しい候補で評価する.前の試合の勝者はそれ以前の候補をすべて倒しているので,新しい候補が前の試合の勝者を倒したということは,半順序の束において先行した全ての候補より係り先としてふさわしいということである\footnote{提案手法では一次解しか出力しないため半順序関係の束の部分構造は一次元的なものになる.提案手法を$k$-best解を出力するアルゴリズムに拡張すると,半順序関係の束の部分構造はより複雑なものになる.}.このことから,トーナメントモデルは全ての候補を独立に見る手法より選択選好性に関してより豊かな情報を学習することができる可能性がある.\subsection{文節の挿入に対する頑健性}日本語においては様々な文節が任意の位置に挿入されることがある.その要因としては,かき混ぜ構文,ゼロ代名詞,任意格等がある.CCアルゴリズムは距離の短い係り受け関係から決定していくという戦略をとっている.ある挿入文節の係り先が,あるcascadedchunkingステップにおいて決定されると,それ以降のcascadedchunkingステップではその挿入文節は無視される.たとえば,「肉をあまり食べない」と「肉を食べない」という文について考える.CCアルゴリズムではまず各文節が隣の文節に係るかどうかをチェックし係り先が決まった文節を徐々に取り除いていくので,前者の文は最初のステップで「あまり」が隣の「食べない」に係ると解析され,次のステップでは「あまり」が取り除かれて「肉を食べない」という後者の文と同じ形になる.したがって,前者の文が訓練データに出現していれば後者の文も正しく解析できることを期待できるし,逆も然りである.このように,文節の挿入の影響を受けないようにする仕組みが解析器の文節の挿入に対する頑健性を実現している.トーナメントモデルにもこれと同様の仕組みがある.一文あるいは二文の訓練データから\linebreak表~\ref{tbl_exgen_example2}の事例が生成されたなら,「彼は肉をあまり食べない」という文の解析において「彼は」の係り先を同定する際にまず「あまり」と「食べない」と戦わせて「あまり」を敗退させれば,「彼は肉を食べない」という文の解析と同様の状況になる.このようにうまくトーナメントを組むことができれば,挿入文節が最終決定を妨害しないような解析をすることができると考えられる.\begin{table}[t]\hangcaption{生成された訓練事例.この二つの事例が訓練データの単一の文から生成される必要はなく,二つの文から生成されることもありうる.}\begin{center}\input{08table02.txt}\end{center}\label{tbl_exgen_example2}\end{table} \section{評価実験} \subsection{設定}\label{sec:experimental_settings}我々はトーナメントモデル,CCアルゴリズム\shortcite{Kudo:2002},SRアルゴリズム\shortcite{Sassano:2004},CLEアルゴリズム\shortcite{McDonald:2005b}をSVMを用いて実装し,係り受け正解率と文正解率を京大コーパスVersion4.0を用いて評価した.係り受け正解率とは係り先文節を正しく同定できた文節の割合であり,文正解率とは文中の全ての文節の係り先を正しく同定できた文の割合である.係り受け正解率は各文の末尾の文節(係り先を持たない)を除いて計算する\footnote{多くの先行研究で用いられている基準である.}.また,一文節からなる文は本実験では一切使用しておらず,以下の文数も一文節からなる文を除いた数である.1月1日〜1月8日分の記事(7,587文)を訓練データとし,1月9日分(1,213文),1月10日分(1,479文),1月15日分(1,179文)の記事をそれぞれテストデータとした.二値分類器としてはTinySVM\footnote{http:\slash\slash{}chasen.org\slash\~{}taku\slash{}software\slash{}TinySVM\slash}を用いた.以下のすべての実験・手法において,多くの先行研究と同じく三次の多項式カーネルを使用し,誤分類のコストは1.0とした.すべての実験はDualCoreXeon3GHzx2のLinux上で行った.\subsection{使用した素性}使用した素性を表\ref{tbl_features}に示す.文節の主辞とは,文節の形態素のうち品詞が特殊・助詞・接尾辞以外の形態素のうち最も右側のもの,語形とは品詞が特殊以外の形態素のうち最も右側のものである.また,文節の子文節とは,その文節に係っている文節のこととする.なお,トーナメントモデルは同時に候補を二つ見るため,候補に関する素性はそれぞれの候補について別々に作成する.標準素性と追加素性は颯々野\shortcite{Sassano:2004}の用いたのとほぼ同じものを使用した.格助詞素性は,ある格要素がすでに埋まっているかどうかを認識させ,「複数のヲ格が単一の文節に係ることはない」といった現象を学習させることを意図したものである.ある動的素性が使用できるかは解析アルゴリズムに依存する.たとえば表\ref{tbl_features}の素性の中では格助詞素性のみが動的素性であるが,この格助詞素性はトーナメントモデルにおいて文末から文頭に向かって係り先を決定していく解析アルゴリズムでは「候補の全ての子文節」とは候補の子文節のうち係り元より右側にあるものに限られる.SRアルゴリズムでも同様に,係り元より右側にあるものに限られる.CCアルゴリズムでは片側に限られるということはないものの,候補から遠い子文節については未解析である場合がある.またCLEアルゴリズムではすべての係り関係を独立と考える都合上,動的素性は使用できない.\begin{table}[b]\caption{使用した素性}\begin{center}\input{08table03.txt}\end{center}\label{tbl_features}\end{table}\subsection{解析精度}\label{sec:exp_acc}\begin{table}[b]\caption{訓練データ(7,587文)による係り受け正解率/文正解率[\%]}\label{tbl_accuracy}\begin{center}\input{08table04.txt}\end{center}\end{table}解析精度を表\ref{tbl_accuracy}に示す.係り受け正解率に関するマクネマー検定($p<0.01$)によると,トーナメントモデルは,素性セット:全素性,テストデータ:1月10日分のSRアルゴリズム($p=0.083$)およびCCアルゴリズム($p=0.099$)以外の全ての条件で他の手法より優位であった.テストデータ:1月9日分に対して報告されている最高の係り受け正解率は颯々野\shortcite{Sassano:2004}の89.56\%であるが\footnote{この結果は京大コーパスVersion4.0ではなくVersion2.0を用いた実験の結果である.また,用いた素性も我々のものとは異なる.},トーナメントモデルはこの係り受け正解率を上回っている.ただし,颯々野の実験の出力が手元にないためにマクネマー検定の代わりに符号検定($p<0.01$)を行ったところ,この差は有意ではなかった($p=0.097$).追加素性と格助詞素性の有無による精度の差に注目すると,トーナメントモデルは他のモデルより精度差が小さいことが分かる.このことは単に「元の精度が高い方が大幅な精度向上が難しい」と解釈できるが,「トーナメントモデルは他の手法よりモデル自身で周辺情報を多くとらえられている」とも解釈できる.なお,素性の追加による係り受け正解率の向上に関しては,テストデータ:1月9日分のトーナメントモデルのみ有意ではなかった($p=0.25$).また結果からは,同じ素性を用いたときSRアルゴリズムとCCアルゴリズムの精度がほぼ同じということも分かる.だがこの結果は両アルゴリズムの能力が同程度ということを示しているわけではなく,解析順が違えば使用できる動的素性も異なるため,各アルゴリズムに最適な素性を使ったときの能力には差が出る可能性がある.\subsection{解析時間と訓練事例の規模}各方式において全素性を使用し,テストデータ:1月9日分全体を解析するのに要した時間と,訓練事例の規模を表\ref{tbl_speed}に示す.ステップ数とは,SVMclassifyの実行回数である.\begin{table}[b]\caption{解析時間と訓練事例の規模}\begin{center}\input{08table05.txt}\end{center}\label{tbl_speed}\end{table}時間計算量はトーナメントモデルとCCアルゴリズムが$O(n^2)$,SRアルゴリズムが$O(n)$である.結果からはSRアルゴリズムが最も高速でCCアルゴリズムもそれに準ずる速度,トーナメントモデルはSRアルゴリズムの4倍以上の時間がかかっていることがわかる.ステップ数でみるとトーナメントモデルはSRアルゴリズムの1.7倍程度であるのに解析時間では4倍以上の差が開く理由は,トーナメントモデルは訓練事例数の規模が大きくSVMモデルが巨大になるためアクションの決定に時間がかかるからである.\subsection{解析順等の精度への影響}\ref{sec:parsing_algorithm}節において,トーナメントモデルには係り先の同定順,トーナメントの組み方,非交差制約の考慮に関して自由度があると述べた.そこで,これらの自由度および動的素性である格助詞素性の有無に関して実験を行った.その解析精度を表\ref{tbl:variation}に示す.なお,唯一の動的素性である格助詞素性を使用せず非交差制約も仮定しない場合,各係り元文節の係り先の同定は独立となるので,同定順は解析結果に影響を与えない.精度の変化は多くの場合0.1\%程度と小さいが,係り受け正解率に関しては一貫して格助詞素性あり,同定順:右から左,トーナメント:右から左,非交差制約:ありという設定が最もよい.また,格助詞素性を使用することでほとんどの場合精度が向上しているが,向上幅はそれほど大きくない.\begin{table}[b]\caption{解析順等を変化させたときの係り受け正解率/文正解率[\%]}\label{tbl:variation}\begin{center}\input{08table06.txt}\end{center}\end{table}なお,動的素性である格助詞素性を使用しているため,トーナメントの組み方と非交差制約の考慮の有無を変更する場合には同一のモデルを共用できるが,同定順の変更はモデルの再学習を必要とする.なぜなら,解析時に有効な係り先候補の子文節は,同定順が左から右の場合には係り元より左にあって候補に係っている文節に限られ,同定順が右から左の場合は係り元より右にある子文節に限られるので,訓練事例生成時には格助詞素性における子文節をそのように制限する必要があるからである.\subsection{相対モデルとの比較}我々は相対モデルを実装していないため,京大コーパスVersion3.0を使い,工藤ら\shortcite{Kudo:2005j}と実験設定を合わせた実験を行った.ただし素性は統一していない.訓練データは1月1日〜1月11日分の記事と1月〜8月分の社説(24,263文),テストデータは1月14日〜1月17日分の記事と10〜12月分の社説(9,287文)である.工藤ら\shortcite{Kudo:2005j}は誤分類のコストをディベロップメントデータを用いて調整しているが,本実験ではしておらずすべての実験・手法において1.0に固定した.また,本実験の解析順等は\ref{sec:exp_acc}節の実験と同じく,同定順:右から左,トーナメント:左から右,非交差制約:ありとした.係り受け正解率の計算法は上の実験と同じだが,文正解率は工藤ら\shortcite{Kudo:2005j}の基準に合わせ,一文節からなる文であっても計算に含めた.\begin{table}[t]\caption{工藤ら(2005)との比較実験の係り受け正解率/文正解率[\%]}\begin{center}\input{08table07.txt}\end{center}\label{tbl_accuracy_kudo05}\end{table}結果を表\ref{tbl_accuracy_kudo05}に示す.工藤ら\shortcite{Kudo:2005j}の実験と本実験では使用した素性が異なるので直接的な比較はできないが,唯一両方の素性で実験されているCCアルゴリズムの結果を比較すると我々の素性の方が優れているように見える.係り受け正解率に関するマクネマー検定($p<0.01$)によると,トーナメントモデルはSRアルゴリズムおよびCCアルゴリズムに対して優位である.相対モデルに関しては出力が手元にないのでマクネマー検定は行えないが,係り受け正解率に関する符号検定($p<0.01$)によるとトーナメントモデルは相対モデル\shortcite{Kudo:2005j}より優位であった.一方,トーナメントモデルは「組み合わせ」モデル\shortcite{Kudo:2005j}を係り受け正解率において上回っているものの,符号検定によるとその差は有意ではなかった($p=0.014$)\footnote{「組み合わせ」モデルとは,CCアルゴリズムが近距離の係り受け関係に,相対モデルが遠距離の係り受け関係に強いことに着目し,係り関係の距離に基づいて両手法を使い分けるモデルである.距離の閾値はディベロップメントセットを用いて3と決めている.しかしながらトーナメントモデルの解析精度はCCアルゴリズムと比較して近距離・遠距離ともに上回っているため,このようなアドホックな組み合わせは不要と思われる.}.ただし,工藤ら\shortcite{Kudo:2005j}の実験で用いているlog-linearモデルはSVMに比べて訓練時間が短いが,精度の面では不利といえる.というのは,SVMは多項式カーネルによって組み合わせ素性が自動的に考慮されるが,log-linearモデルは明示的に組み合わせ素性を導入する必要があるからである. \section{議論と今後の課題} われわれのエラー分析によると,エラーの多くは並列構造に関係したものであった.颯々野\shortcite{Sassano:2004}は,各文節が並列構造のキー文節であるか否かを素性として入れることで解析精度が向上したと報告している.京大コーパスには係り受け関係のタグとして並列や同格がタグづけされているが,今回の実験ではこれらのタグは一切使用していないので,何らかの形で使用することで精度向上が期待できる.単純な導入法としては,各タグごとにone-vs-restSVMを作成し,係り先とタグを同時に決めるようにすることが考えられる.また,新保ら\shortcite{Shimbo:2007}のように,並列構造解析を係り受け解析の前処理として行う方法も考えられる.共起情報の導入によって精度向上を図ることも考えられる.一つの使い方としては,動詞--名詞の共起情報を,現在の格助詞素性のような形で入れることである.阿辺川ら\shortcite{Abekawa:2006}は$k$-best解を出力できる解析器の出力を,共起情報を用いてリランキングする手法を提案している.我々はすでにトーナメントモデルにおける$k$-best解出力アルゴリズムを考案しており,そのようなリランキング法の導入も検討している.トーナメントモデルを英語などの他の言語に対応させることも,別の課題としてあげられる.日本語は書き言葉においては左から右にしか係らないが,多くの言語にはこの制約はないため,係り先候補が係り元の左側にあるか右側にあるかを区別する仕組みが必要となる.単純な解決法としては,左右どちら側にあるかを識別できるようなモデル(素性名)にすることである.非交差制約の有無に関しては問題にならない.現在のアルゴリズムではわざわざ非交差制約を満たさないものを候補から除外しているので,この処理をなくすことで対応できる.また,日本語では文節列に対して解析を行っているが,たとえば英語において単語列に対して解析する場合には時間計算量$O(n^2)$の$n$が大きくなるため計算量の問題が深刻になる.この問題は,必要に応じて基本句同定を行うことで軽減できると考える. \section{まとめ} 本稿ではトーナメントモデルを用いた日本語係り受け解析手法を提案した.トーナメントモデルは(係り元,候補1,候補2)の三つ組を同時に見て,係り元文節の最尤係り先候補を候補同士の一対一対戦で構成されるステップラダートーナメントによって決定する.この三つ組を同時に見ることによって,従来の(係り元,候補)のみを見るモデルと比べて素性による文脈識別能力の向上が期待できる.また,二つの候補を係り元に近い方の候補,遠い方の候補と区別することによって候補間の相対的な位置関係を把握できる.さらに決定的解析手法と比べると,すべての候補を考慮できるという長所がある.トーナメントモデルの解析精度はほとんどの実験設定において従来手法を有意に上回った.解析速度の面での問題はあるものの,二つ以上の候補を同時に見ることで解析精度を向上させる可能性を示した.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2006}]{Abekawa:2006}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2006\BBCP.\newblock\BBOQ{JapaneseDependencyParsingUsingCo-occurrenceInformationandaCombinationofCaseElements}\BBCQ\\newblockIn{\Bem{Proceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL2006)}},\mbox{\BPGS\833--840}.\bibitem[\protect\BCAY{Buchholz\BBA\Marsi}{Buchholz\BBA\Marsi}{2006}]{CoNLL-2006}Buchholz,S.\BBACOMMA\\BBA\Marsi,E.\BBOP2006\BBCP.\newblock\BBOQ{CoNLL-XSharedTaskonMultilingualDependencyParsing}\BBCQ\\newblockIn{\Bem{CoNLL-2006:ProceedingsoftheTenthConferenceonComputationalNaturalLanguageLearning}},\mbox{\BPGS\149--164}.\bibitem[\protect\BCAY{Chu\BBA\Liu}{Chu\BBA\Liu}{1965}]{Chu:1965}Chu,Y.~J.\BBACOMMA\\BBA\Liu,T.~H.\BBOP1965\BBCP.\newblock\BBOQ{Ontheshortestarborescenceofadirectedgraph}\BBCQ\\newblock{\BemScienceSinica},{\Bbf14},\mbox{\BPGS\1396--1400}.\bibitem[\protect\BCAY{Crammer\BBA\Singer}{Crammer\BBA\Singer}{2003}]{Crammer:2003}Crammer,K.\BBACOMMA\\BBA\Singer,Y.\BBOP2003\BBCP.\newblock\BBOQ{UltraconservativeOnlineAlgorithmsforMulticlassProblems}\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\951--991}.\bibitem[\protect\BCAY{Edmonds}{Edmonds}{1967}]{Edmonds:1967}Edmonds,J.\BBOP1967\BBCP.\newblock\BBOQ{Optimumbranchings}\BBCQ\\newblock{\BemJournalofResearchoftheNaturalBureauofStandards},{\Bbf71B},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{Eisner:1996}Eisner,J.~M.\BBOP1996\BBCP.\newblock\BBOQ{ThreeNewProbabilisticModelsforDependencyParsing:AnExploration}\BBCQ\\newblockIn{\Bem{COLING-96:Proceedingsofthe16thConferenceonComputationalLinguistics---Volume1}},\mbox{\BPGS\340--345}.\bibitem[\protect\BCAY{Iida,Inui,Takamura,\BBA\Matsumoto}{Iidaet~al.}{2003}]{Iida:2003}Iida,R.,Inui,K.,Takamura,H.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQ{IncorporatingContextualCuesinTrainableModelsforCoreferenceResolution}\BBCQ\\newblockIn{\BemEACLWorkshop`TheComputationalTreatmentofAnaphora'}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo:2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQ{JapaneseDependencyAnalysisUsingCascadedChunking}\BBCQ\\newblockIn{\Bem{CoNLL-2002:ProceedingsoftheSixthConferenceonComputationalLanguageLearning}},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{McDonald,Pereira,Ribarov,\BBA\Haji\^{c}}{McDonaldet~al.}{2005}]{McDonald:2005b}McDonald,R.,Pereira,F.,Ribarov,K.,\BBA\Haji\^{c},J.\BBOP2005\BBCP.\newblock\BBOQ{Non-projectiveDependencyParsingUsingSpanningTreeAlgorithm}\BBCQ\\newblockIn{\Bem{HLT-EMNLP-2005:ProceedingsoftheconferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLanguageProcessing}},\mbox{\BPGS\523--530}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre:2003}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQ{AnEfficientAlgorithmforProjectiveDependencyParsing}\BBCQ\\newblockIn{\Bem{IWPT-2003:8thInternationalWorkshoponParsingTechnology}},\mbox{\BPGS\149--160}.\bibitem[\protect\BCAY{Nivre,Hall,K\"{u}bler,McDonald,Nilsson,Riedel,\BBA\Yuret}{Nivreet~al.}{2007}]{CoNLL-2007}Nivre,J.,Hall,J.,K\"{u}bler,S.,McDonald,R.,Nilsson,J.,Riedel,S.,\BBA\Yuret,D.\BBOP2007\BBCP.\newblock\BBOQ{TheCoNLL2007SharedTaskonDependencyParsing}\BBCQ\\newblockIn{\Bem{CoNLL-2007:ProceedingsoftheCoNLLSharedTaskSessionofEMNLP-CoNLL-2007}},\mbox{\BPGS\915--932}.\bibitem[\protect\BCAY{Nivre\BBA\Nilsson}{Nivre\BBA\Nilsson}{2005}]{Nivre:2005}Nivre,J.\BBACOMMA\\BBA\Nilsson,J.\BBOP2005\BBCP.\newblock\BBOQ{Psuedo-ProjectiveDependencyParsing}\BBCQ\\newblockIn{\Bem{ACL-2005:Proceedingsof43rdAnnualMeetingoftheAssociationforComputationalLinguistics}},\mbox{\BPGS\99--106}.\bibitem[\protect\BCAY{Nivre\BBA\Scholz}{Nivre\BBA\Scholz}{2004}]{Nivre:2004}Nivre,J.\BBACOMMA\\BBA\Scholz,M.\BBOP2004\BBCP.\newblock\BBOQ{DeterministicDependencyParsingofEnglishText}\BBCQ\\newblockIn{\Bem{COLING-2004:Proceedingsofthe20thInternationalConferenceonComputationalLinguistics}},\mbox{\BPGS\64--70}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2004}]{Sassano:2004}Sassano,M.\BBOP2004\BBCP.\newblock\BBOQ{Linear-TimeDependencyAnalysisforJapanese}\BBCQ\\newblockIn{\Bem{COLING-2004:Proceedingsofthe20thInternationalConferenceonComputationalLinguistics}},\mbox{\BPGS\8--14}.\bibitem[\protect\BCAY{Shimbo\BBA\Hara}{Shimbo\BBA\Hara}{2007}]{Shimbo:2007}Shimbo,M.\BBACOMMA\\BBA\Hara,K.\BBOP2007\BBCP.\newblock\BBOQ{ADiscriminativeLearningModelforCoordinateConjunctions}\BBCQ\\newblockIn{\Bem{Proceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)}},\mbox{\BPGS\610--619}.\bibitem[\protect\BCAY{Yamada\BBA\Matsumoto}{Yamada\BBA\Matsumoto}{2003}]{Yamada:2003}Yamada,H.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQ{StatisticalDependencyAnalysiswithSupportVectorMachines}\BBCQ\\newblockIn{\Bem{IWPT-2003:8thInternationalWorkshoponParsingTechnology}},\mbox{\BPGS\195--206}.\bibitem[\protect\BCAY{内元\JBA村田\JBA関根\JBA井佐原}{内元\Jetal}{2000}]{Uchimoto:2000}内元清貴\JBA村田真樹\JBA関根聡\JBA井佐原均\BBOP2000\BBCP.\newblock\JBOQ後方文脈を考慮した係り受けモデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\3--17}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2005}]{Kudo:2005j}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ{相対的な係りやすさを考慮した日本語係り受け解析モデル}\JBCQ\\newblock\Jem{情報処理学会誌},{\Bbf46}(4),\mbox{\BPGS\1082--1092}.\bibitem[\protect\BCAY{金山\JBA鳥澤\JBA光石\JBA辻井}{金山\Jetal}{2000}]{Kanayama:2000}金山博\JBA鳥澤健太郎\JBA光石豊\JBA辻井潤一\BBOP2000\BBCP.\newblock\JBOQ3つ以下の候補から係り先を選択する係り受け解析モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\71--91}.\end{thebibliography}\begin{biography}\bioauthor{岩立将和}{2007年法政大学情報科学部コンピュータ科学科卒業.同年,奈良先端科学技術大学院大学情報科学研究科博士前期課程入学,現在に至る.}\bioauthor{浅原正幸}{1998年京都大学総合人間学部基礎科学科卒業.2001年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年より日本学術振興会特別研究員.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年同大学助教,現在に至る.博士(工学).自然言語処理の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,日本ソフトウェア科学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
V10N05-07
\section{はじめに} カスタマサービスとして,ユーザから製品の使用方法等についての質問を受けるコールセンターの需要が増している.しかし,新製品の開発のサイクルが早くなり,ユーザからの質問の応対に次々に新しい知識が必要となり,応対するオペレータにとっては,複雑な質問へすばやく的確に応答することが困難な状況にある.オペレータは,過酷な業務のため定着率が低く,企業にとっても,レベルの高いオペレータを継続して維持することは,人件費や教育などのコストがかかり,問題となっている.本稿では,ユーザが自ら問題解決できるような,対話的ナビゲーションシステムを実現する基礎技術を開発することにより,コールセンターのオペレータ業務の負荷を軽減することを目的とする.通常のコールセンターでは,オペレータがユーザとのやり取りによって質問応答の要約文をあらかじめ作成しておく(図\ref{fig:call}\,(a)).Web上の質問応答システムでは,これをデータベース化したものをユーザの質問文のマッチング対象に用いる(図\ref{fig:call}\,(b)).ユーザはオペレータの介入なしに質問を入力し,応答を得ることができる.\begin{figure}[ht]\begin{center}\epsfile{file=figure/fig1.eps,scale=0.5}\caption{コールセンター(a)とWeb上の質問応答システム(b)}\label{fig:call}\end{center}\end{figure}このようなWeb上の質問応答システムを用いて,所望の応答結果を速やかに得るために必要なナビゲーション技術の新しい提案を行なう.パソコン関連の疑問に答える,既存のWeb上の質問応答システムから収集したデータによると,ユーザが入力する質問文(端末からの入力文)は,平均20.8文字と短いため,この質問文を用いて,一度で適切な質問と応答の要約文にマッチングすることは稀である.そこで,必要に応じてシステムがユーザに適切なキータームの追加を促すことで,必要な条件を補いながら質問の要約文とのマッチングを行ない,適切な応答の要約文を引き出す必要がある.しかしながら,このようなナビゲーションにおいては,ユーザに追加を促したキータームがどれだけ有効に機能したかどうかがわからない,といった評価上の問題がある.これらのキータームの補いの問題と,評価上の問題を解決するために,本稿では以下の手法を用いた.\begin{itemize}\itemまず,34,736件の質問の要約文から300件を無作為に抽出し,ユーザが初期に入力するような質問文(以下,初期質問文と呼ぶ)を人手で作成した.この初期質問文を初期入力として要約文とのマッチングを行なった.\item次に,システム側がユーザに対して適切なキータームの追加を促し,新たに作成した質問文(以下,二次質問文と呼ぶ)を入力として,再度,要約文とのマッチングを行なった.\itemマッチングの結果,初期質問文を作成する際の元になった質問の要約文が出力結果として得られた場合に,ユーザが問題を解決したとする仮説を立てた.この仮説に基づき,ユーザが問題解決できたか否かという評価を行なった.\end{itemize}ユーザにどのようなキータームの追加を促すべきかをシステム側が判定する方式として,サクセスファクタ分析方式を用いた.これは,ユーザの質問文と蓄積している質問の要約文とのマッチングが成功したものから一定の基準によってキータームを変更して結果を評価し,マッチングの精度に大きな影響を及ぼすものをルール化し,質問文にキータームを追加する方式である.本論文の第\ref{sec:2}\,章では,Web上の質問応答システムとコールセンターの現状のデータを具体的に例示し,初期質問文作成の意義やその作成方法について述べる.第\ref{sec:3}\,章では,従来行なわれてきた質問応答の関連研究を概観し,本研究の位置付けを明確にする.第\ref{sec:4}\,章では,実験と評価の方法について述べる.第\ref{sec:5}\,章では,サクセスファクタ分析方式の詳細と,それを用いた実験結果を述べ,本方式が対話的ナビゲーションに極めて有効であることを示す. \section{研究概要} label{sec:2}\subsection{Web上の質問応答システム}パソコンなどの使用法に関する質問応答システム(FMWorld.net)がWeb上で公開されているが,このシステムに対して2003年の1月〜3月までに入力された問い合わせのうち,助詞を含む約24万件の質問文の文字数分布を表\ref{tab:sbunpu}\,に示す.\begin{table}[ht]\caption{質問文の文字数分布}\label{tab:sbunpu}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{文字数}&\multicolumn{1}{|c|}{質問文数}&\multicolumn{1}{|c|}{割合}&\multicolumn{1}{|c|}{累積割合}\\\hline\hline1〜10文字&65740&27.3\,\%&27.3\,\%\\\hline11〜20文字&100789&41.9\,\%&69.2\,\%\\\hline21〜30文字&35973&14.9\,\%&84.1\,\%\\\hline31〜40文字&16087&6.7\,\%&90.8\,\%\\\hline41文字以上&22213&9.2\,\%&100.0\,\%\\\hline\multicolumn{1}{|c|}{合計}&240802&100.0\,\%&\\\hline\end{tabular}平均は20.8文字/質問文\end{center}\end{table}例\ref{ex:system}\,には,これらの助詞を含む質問文の一部を入力のあった頻度とともに例として示す.例\ref{ex:system}\,の中で,高頻度の質問文を質問応答システムに入力しても,それに対する応答が50以上もあり,問題を解決する知識にたどり着くには,さらなる絞込みが必要である.\begin{example}[ht]\begin{center}\fbox{\small\begin{tabular}{ll}\multicolumn{2}{l}{高頻度}\\~&\begin{tabular}{ll}2036&``電源が切れない''\\1495&``音が出ない''\\602&``起動が遅い''\\\end{tabular}\\\multicolumn{2}{l}{中頻度}\\~&\begin{tabular}{ll}24&``フラットポイントを無効にしたい''\\10&``光デジタルオーディオ端子が使えない''\\10&``再起動中にフリーズする''\\\end{tabular}\\\multicolumn{2}{l}{低頻度}\\~&\begin{tabular}{ll}1&``最初から入っているアプリケーションが,リカバリー後いくつか消えている.''\\1&``マウスのスクロールボタンが有効になりません"\\1&``アカウントの設定ができない"\\\end{tabular}\\\end{tabular}}\end{center}\caption{質問応答システムでの質問文(左端の数字は頻度)}\label{ex:system}\end{example}\subsection{コールセンターにおける質問応答の例}Web上の質問応答システムは,ユーザの入力した質問文で過去の事例として蓄積した質問を検索して,その質問と応答の要約文を引き出して問題を解決する知識として提供している.この質問と応答の要約文は,コールセンターにおいてオペレータが電話の応対により解決した問題を質問($\langle$subject$\rangle$)と応答($\langle$solution$\rangle$)に分けてまとめて記述した記録の集まりである.実際の例を例\ref{ex:call}\,に示す.\begin{example}\begin{center}\fbox{\small~\begin{minipage}{0.9\textwidth}\noindent$\langle$qaid$\rangle$354$\langle$/qaid$\rangle$\\$\langle$subject$\rangle$\\USB対応オーディオ録音機のROLAND製AUDIOCANVASUA-100を使ってオーディオ録音,再生をしたい.PCのオーディオ出力をまとめる接続方法を教えてください.\\$\langle$/subject$\rangle$\\$\langle$solution$\rangle$\\Roland製AudioCanvasUA-100を使用したオーディオ録音,再生について.AD/DA変換がPC本体内(サウンドカード)から離れるため,ノイズの影響を受けずにオーディオ録音が可能となります.\\・操作手順\\1.PCとUA-100のUSB端子を接続します.(WAVファイルの録音,再生)\\2.PC側のサウンドボードのLINEOUT端子とUA-100のINPUT端子を接続します.(音楽CDの再生やサウンドボード,ソフトMIDI音源を使ったMIDIファイルの再生)\\~3.UA-100のOUTPUT端子と外部スピーカーを繋ぎます.\\~4.更に,UA-100にマイクや録音機器(MD,カセット等)を接続してオーディオ録音ができます.\\$\langle$/solution$\rangle$\end{minipage}}\end{center}\caption{コールセンターにおける質問応答の例}\label{ex:call}\end{example}この記録は富士通株式会社において,約5年間にわたり蓄積した,コールセンターに問い合わせのあったパソコン関係の質問と応答の実例の一部である.これは,ユーザとオペレータの対話のそのままの記録ではなく,ユーザとの幾度かのやり取りによる対話を最後にまとめて書いたものである.本研究では,これらの蓄積した質問と応答を有効に活用してコールセンターのオペレータ業務の負荷を低減させるために,オペレータの介在なくユーザが自ら問題解決できるような,対話的な質問応答システムの実現を目指すことにした.\subsection{対話的ナビゲーション}Web上の質問応答システムにおいて,ユーザの問い合わせから,蓄積された質問応答へ導くためには,オペレータがユーザからいろいろな条件を聞き出して正しい解答へと導くのと同様に,計算機上でこれと同等なナビゲーションを実現しなければならない.そのためには,まず,ユーザの問い合わせを受け付け,必要に応じてシステムがユーザに適切なキータームの追加を促すことで,必要な条件を補いながら,質問の要約文とのマッチングを行ない,適切な応答の要約文を引き出す必要がある.今回の実験では,あらかじめ,質問の要約文から初期質問文を人手で作成する.その初期質問文を作成する際の元になった質問の要約文が出力結果として得られた場合に,ユーザが問題を解決できたとする仮説を立て,評価を行なう.ユーザに追加を促したキータームがどれだけ有効に機能したかどうかを測定するために,まず,初期質問文を入力として要約文とのマッチングを行ない,それをベースラインとする.次に,そのマッチングの結果で,元になった質問の要約文が得られなかった初期質問文に対しては,システム側がユーザに適切なキータームの追加を促し,二次質問文を用いて,再度,要約文とのマッチングを行なう(図\ref{fig:navi}\,).ここで用いる初期質問文の作成の目安としては,できるだけ一般的なユーザの質問文に近くなるように,実験内容を知らない第三者に以下の指針に沿った作成を依頼した.また,初期質問文の例を例\ref{ex:shoki}\,に示す.\begin{example}[hb]\begin{center}\begin{tabular}{ll}[指針]&\begin{minipage}[t]{0.85\textwidth}\begin{itemize}\item20文字程度の平易な文で記述する.\item質問の要約文をいくつかの構成要素に分解し,それぞれの構成要素が初期質問文になるようにする.\end{itemize}\end{minipage}\\\end{tabular}\vspace{0.8em}\fbox{\small\begin{minipage}{0.9\textwidth}\noindent[質問の要約文の例]\begin{quote}USB対応オーディオ録音機のROLAND製AUDIOCANVASUA-100を使ってオーディオ録音,再生をしたい.PCのオーディオ出力をまとめる接続方法を教えてください.\end{quote}[初期質問文の例]\begin{quote}オーディオの録音,再生をしたい.\\USB対応のオーディオ録音機を使いたい.\\パソコンとの接続方法を教えてほしい.\end{quote}\end{minipage}}\end{center}\caption{初期質問文の例}\label{ex:shoki}\end{example}これらの初期質問文を使って,第\ref{sec:5}\,章で述べる実験を行なう.この実験で得られた結果を元に,システムがユーザに新たなキータームの入力を促し,問題の解決となるような対話的なナビゲーションシステムの構築を目指す.\begin{figure}[t]\begin{center}\epsfile{file=figure/fig2.eps,scale=0.5}\end{center}\caption{対話的ナビゲーションによる問題解決}\label{fig:navi}\end{figure} \section{関連研究} label{sec:3}コールセンターのオペレータの代替をコンピュータが行なう理想的な解決方法としては,自然な対話による高精度な質問応答が重要なキーとなる.対話の研究としては,古くはELIZA~\cite{eliza}があるが,ユーザの問題解決という目的に作られたものではない.対話による情報検索~\cite{oddy}では,システムがユーザに対していくつかの選択肢を提示して検索を進めるもので,ユーザの意図が反映されにくい.近年,意味や文脈を考慮した対話モデル~\cite{katou,iida}が提案されているが,実用レベルには至っていない.一方,質問応答システムでは,ユーザの問い合わせに対して,一般的な情報源から応答を生成する方法がある.これは,TRECのQAタスクで用いられるような精密な検索クエリを作成することによる検索問題に置き換えるもの~\cite{sanda,sanda2}と,限定された世界において,その世界モデルとユーザモデルの対応により,ゴールを明確にするプランニングの問題に置き換えるもの~\cite{allen}がある.前者は,「米国の第23代大統領の名前は?」というようなピンポイント的な知識を答えとして求めているのに対し,パソコンなどの使用法に関する質問応答は,使用のプロセスのように過去の蓄積した事例を答えとして求めるものが多く,そのアプローチが異なる.後者は応用システムごとに分野知識やモデルの構築が必要で作成コストがかかり過ぎ,変化の激しい現実の問題には向かない,といった問題点がある.また,質問応答システムのもう一つのアプローチとして,蓄積された以前の質問と応答の検索によって,問題を解決する方法がある.この方法は,いくつかのタイプに分けられる.第一のタイプは,ユーザの問い合わせをオペレータが仲介し,そのオペレータが問題を解決する時の支援として用いられるものである.これは,ユーザとシステムの間を人間が仲介することから,システムには完全性は求められず,たとえ不完全であってもオペレータを支援する意味で効果を挙げているもの~\cite{yanase}もある.第二のタイプは,コンピュータが直接応答を行なうもので,ニュースグループのFAQを対象としたFAQ-Finder~\cite{bruke}や,これを参考にして作られたらのソフトウェア製品を対象としたヘルプデスク~\cite{kurohashi}がある.FAQ-Finderは,ユーザの問い合わせに対して類似したいくつかの質問文をリストとして提示し選択させているが,ユーザとシステムが対話を行ないながら問題を解決していく仕組みはない.ヘルプデスクは,対話の仕組みは取り入れたが,限定された一部の内容の選択にとどまっているのが現状である.本研究は,モデルに沿って構造化したデータを対象にするのではなく,コールセンターのオペレータの応答記録のような質問応答データを活用して,ユーザが自ら問題を解決できるように,蓄積された質問応答データへナビゲーションするための基礎技術の開発を試みるものである. \section{実験方法と評価方法} label{sec:4}\subsection{実験方法}図\ref{fig:exp}\,に今回行なった実験の流れを示す.実験の順序は,実験1→実験2→実験3の順にそれぞれの結果を受けて進める.実験1では,初期質問文と質問の要約文のマッチングを行ない,一致した初期質問文と一致しなかった初期質問文に分け,実験2及び実験3へ振り分ける.「一致」,「不一致」の定義は\ref{sec:4.2}\,項で詳述する.\begin{figure}[ht]\begin{center}\epsfile{file=figure/fig3.eps,scale=0.45}\end{center}\caption{実験の流れ(実験1→実験2→実験3の順)}\label{fig:exp}\end{figure}実験2では,実験1で一致した初期質問文の成功要因を分析するために,キータームとする条件の変更や文節に含まれるキータームの削除を行なって,再度,質問の要約文とのマッチングを行なう.その結果,実験1では一致していたものが,あるタームを削除することによって不一致となる場合は,削除したタームがマッチングに重要な要素であると考え,マッチングに適切なタームを補うためのルール化を行なう.この方式は,マッチングに成功した要因を分析してルール化を行なうため,サクセスファクタ分析方式と呼び,実験3において検証する.実験3では,実験1で不一致となった初期質問文に対して,実験2から得られたタームの補いのルールと,質問の要約文を統計的に分析して得られたルールを用いてタームを補ってマッチングを行ない,実験1で得られるベースライン及び,単純に質問の要約文の先頭語を補ってマッチングを行なった結果と比較する.\subsection{評価方法}\label{sec:4.2}質問と応答の要約文へのナビゲーションは,ユーザが満足する結果に導かれれば,そこで問題が解決されるため,一般的な検索で用いる再現率と適合率は評価の尺度として適さない.そこで,初期質問文から作成した検索式を入力として,検索エンジンを用いて質問の要約文とマッチングさせ,元々の質問の要約文(初期質問文を作成する際の元になった質問)が第一位にランキングされたものを「一致」,第二位以下にランキングされたものを「不一致」とした.なお,ランキングは,以下の重み付けを用いた.\[R_i=\sum_{j=1}^{k}\left(\logtf_{ij}\times\log\frac{N}{df_j}\right)\]ここで,全$N$件中,$i$番目($1\leqi\leqN$)の文書の関連度$R_i$は,$k$個の単語の$tf\timesidf$の総和で表す.$tf_{ij}$は,$j$番目($1\leqj\leqk$)のタームの$i$番目の文書内出現回数であり,$df_j$は,$j$番目の単語の全質問の要約文中で出現する質問の要約文の数である.$idf_j$は$N/df_j$で計算している.$tf_{ij}$および$df_j$の$\log$を取っているのは,突出して出現するタームの影響を減らすためである.また,キータームを補ったり,削ったりすることでマッチングの結果が変わるが,その指標を影響度$I$で表す.\[I=\frac{U}{U+M}\]ここで$U$はマッチングの結果,一致から不一致へ,または不一致から一致へ変化した初期質問文の数で,$M$はマッチングの結果が変わらなかった初期質問文の数を表す. \section{実験と考察} label{sec:5}まず,実験に用いるツールとデータの規模について述べる.初期質問文を質問の要約文とマッチングさせる検索エンジンは,我々の開発した全文検索エンジン~\cite{matui}を用いた.初期質問文は,JUMAN~\cite{juman}を用いて品詞付きの形態素解析結果を得て,検索に用いるキータームを選定した.キータームとして選定する品詞,及び実験に用いた初期質問文と質問の要約文は,以下の通りである.\begin{tabular}[t]{ll}\\\multicolumn{2}{l}{[キータームとすべき品詞]}\\~&名詞未定義語形容詞動詞助動詞(ない)\\\\\multicolumn{2}{l}{[実験に用いた初期質問文と質問の要約文]}\\~&対象とした質問の要約文の種類:無作為に抽出した300種類\\~&初期質問文の数:499個(一つの質問の要約文に複数の初期質問文がある)\\~&検索対象となる質問の要約文の数:34,736個\\\end{tabular}\subsection{実験1:ベースラインの設定}実験1では,初期質問文と質問の要約文のマッチングを行ない,これをベースラインとする.この実験結果を表\ref{tab:match}\,に示す.初期質問文は元々情報量が少ないので,元の質問の要約文と一致する可能性は低い.この状態が,ユーザが普通に質問文を入力した時にシステムが応答する状態である.一致した初期質問文は,問題が解決したものとし,一致/不一致の数を実験2,実験3の結果と比較する.\begin{table}[hb]\caption{初期質問文と質問の要約文のマッチング結果}\label{tab:match}\begin{center}\begin{tabular}{|l|r|r|}\hline&\multicolumn{1}{|c|}{数}&\multicolumn{1}{|c|}{割合}\\\hline\hline一致&239&47.9\,\%\\\hline不一致&260&52.1\,\%\\\hline合計&499&100.0\,\%\\\hline\end{tabular}\end{center}\end{table}\subsection{実験2:重要タームの要因分析}実験2では,実験1において質問の要約文とのマッチングで一致した初期質問文に対して,第一にキータームを削除する条件の変更,第二に文節に含まれるキータームの削除を行なって,再度,質問の要約文とのマッチングを行なう.その結果,不一致となるものを調べ,その要因分析(サクセスファクタ分析)を行なう.第一に,初期質問中のキータームの構文的役割の違いの影響を調べるために,以下の条件でキータームを削除する.この時,削除するキータームの数は同数とする.また,助詞「の」や名詞連続によるタームの比較を行なうため,ここでは,「の」を文節の区切りとしない.名詞と未定義語を併せて名詞類と呼び,文節の最後の名詞類を主辞と呼ぶ.\begin{tabular}{ll}\\\multicolumn{2}{l}{[キータームを削除する条件の変更]}\\~&ベースライン:キータームとすべき品詞の形態素すべて(削除するキータームはなし)\\~&修飾語削除(主辞選択):各文節の主辞以外のキータームを削除し,主辞を選択する.\\~&\begin{tabular}{@{}l@{\hspace{0.3zw}}p{0.63\textwidth}@{}}主辞削除(修飾語選択):&主辞を助詞「の」または名詞連続によって修飾する名詞類があれば主辞を削除し,その代わりに修飾語を選択する.\\\end{tabular}\\\\\end{tabular}例~\ref{ex:keyterm}\,に,初期質問文の形態素解析結果と各条件で削除して残ったキータームの例を示す.\begin{example}[ht]\begin{center}\fbox{\small\begin{tabular}{ll}\multicolumn{2}{l}{[例文]留守番電話で相手の番号を通知させる方法がわからない.}\\\multicolumn{2}{l}{[形態素解析結果]}\\~&[留守番/電話/で][相手/の/番号/を][通知させ/る/方法/が][わか/ら/ない].\\\multicolumn{2}{l}{[キーターム例]}\\~&ベースライン:留守番,電話,相手,番号,通知させ,方法,わか,ない\\~&修飾語削除(主辞選択):電話,番号,方法\\~&主辞削除(修飾語選択):留守番,相手,方法\\\end{tabular}}\end{center}\caption{形態素解析結果とキータームの例}\label{ex:keyterm}\end{example}このように,キータームの種類を変更してマッチングを行なった結果を表~\ref{tab:keymatch}\,に示す.ここで,マイナスの影響度とは,実験1でマッチングが一致していたものがキータームの選択によって不一致となった割合を示す.\begin{table}[ht]\caption{キータームを削除する条件の変更によるマッチング結果}\label{tab:keymatch}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&\multicolumn{1}{|c|}{\mrow{ベースライン}}&\multicolumn{1}{|c|}{修飾語削除}&\multicolumn{1}{|c|}{主辞削除}\\&&\multicolumn{1}{|c|}{(主辞選択)}&\multicolumn{1}{|c|}{(修飾語選択)}\\\hline\hline一致→一致&239&80&112\\\hline一致→不一致&0&159&127\\\hline\hline合計&239&239&239\\\hlineマイナスの影響度&&66.5\,\%&53.1\,\%\\\hline\end{tabular}\end{center}\end{table}キータームの数を減らすことにより,不一致となる数が増えるが,修飾語削除は,主辞削除に比べ,マイナスの影響度は13.4\,\%も大きくなり,修飾語はマッチングの精度に重要なキータームであることを示している.第二に,キータームが存在する文節の種類によってどのような影響があるかを調べるために,代表的な格助詞及び係助詞で終わる文節中のキータームを削除して残ったキータームによってマッチングを行なう.削除する文節は,初期質問文中に30個以上出現するものを選び,以下の通りとする.\begin{tabular}{ll}\\\multicolumn{2}{l}{[削除する文節]}\\~&「が文節」,「を文節」,「で文節」,「は文節」,「に文節」\\\\\end{tabular}例\ref{ex:delkey}\,では,各文節を削除した場合の残ったキータームの例を示す.\begin{example}[ht]\begin{center}\fbox{\small\begin{tabular}{ll}\multicolumn{2}{l}{[例文]留守番電話で相手の番号を通知させる方法がわからない.}\\\multicolumn{2}{l}{[形態素解析結果]}\\~&[留守番/電話/で][相手/の/番号/を][通知させ/る/方法/が][わか/ら/ない].\\\multicolumn{2}{l}{[キーターム例]}\\~&「が文節」を除く:留守番,電話,相手,番号,わか,ない\\~&「を文節」を除く:留守番,電話,通知させ,方法,わか,ない\\~&「で文節」を除く:相手,番号,通知させ,方法,わか,ない\\\end{tabular}}\end{center}\caption{文節を削除したキータームの例}\label{ex:delkey}\end{example}このように,各文節中を削除して残ったキータームによってマッチングを行なった結果を表\ref{tab:delsets}\,に示す.\begin{table}[ht]\caption{文節を削除した影響度}\label{tab:delsets}\begin{center}\begin{tabular}{|l|r|r|r|r|r|r|}\hline&ベースライン&が文節&を文節&で文節&に文節&は文節\\\hline\hline一致→一致&239&25&27&25&22&10\\\hline一致→不一致&0&76&68&24&32&20\\\hline\hline合計&239&101&95&49&54&30\\\hlineマイナスの影響度&&75.2\,\%&71.6\,\%&49.0\,\%&59.3\,\%&66.7\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:delsets}\,から,「が文節」と「を文節」中のキータームを除去するとその影響は最も顕著に現れ,どちらも70\,\%以上の影響度がある.その結果,以下の文節の順にマッチングに重要なキーワードが含まれると考えられる.\[\mbox{「が文節」}>\mbox{「を文節」}>\mbox{「は文節」}>\mbox{「に文節」}>\mbox{「で文節」}\]\vspace*{1cm}\subsection{実験3:タームの補い}実験3では,実験1において質問の要約文とのマッチングで不一致であった初期質問文に対して,実験2から得られた補いルールと,比較のための単純な補いルールに基づいてキータームを追加して再度質問の要約文とのマッチングを行なう.その結果一致する初期質問文を調べ,その評価を行なう.\begin{table}[b]\caption{サ変名詞と「の」の関係}\label{tab:sano}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{語句}&\multicolumn{1}{|c|}{頻度}&\multicolumn{1}{|c|}{「の」の左側に出現}&\multicolumn{1}{|c|}{「の」の右側に出現}\\\hline\hline設定&722&32&690\\\hline表示&166&9&157\\\hlineインストール&158&16&142\\\hline変更&144&4&140\\\hline接続&119&18&101\\\hline\hlineサ変合計&5107&862&4245\\\hline割合&&16.9\,\%&83.1\,\%\\\hline\end{tabular}\end{center}\caption{普通名詞と「の」の関係}\label{tab:funo}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{語句}&\multicolumn{1}{|c|}{頻度}&\multicolumn{1}{|c|}{「の」の左側に出現}&\multicolumn{1}{|c|}{「の」の右側に出現}\\\hline\hlineファイル&262&132&130\\\hlineデータ&182&75&107\\\hlineハードディスク&121&85&36\\\hlineパソコン&107&77&30\\\hlineプログラム&96&47&49\\\hline\hline普通合計&14181&6362&7819\\\hline割合&&44.9\,\%&55.1\,\%\\\hline\end{tabular}\end{center}\caption{固有名詞と「の」の関係}\label{tab:kono}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{語句}&\multicolumn{1}{|c|}{頻度}&\multicolumn{1}{|c|}{「の」の左側に出現}&\multicolumn{1}{|c|}{「の」の右側に出現}\\\hline\hlineWindows95&180&149&20\\\hlineWindows98&85&76&9\\\hlineWindows&65&61&4\\\hlineWord&37&35&2\\\hline富士通&36&35&1\\\hline\hline固有合計&1567&1405&162\\\hline割合&&88.9\,\%&11.1\,\%\\\hline\end{tabular}\end{center}\end{table}実験1の結果では,5割以上の初期質問文が不一致であった.これらのマッチング精度を高めるためには,実験2の考察で得られたように,主辞だけをキータームとする検索では,問題を解決する知識(蓄積している応答文)にたどり着くことはできず,主辞の修飾語が重要である.そこで,今回は,主辞の周りにいかに適切なタームを補って詳細化するかというポイントに絞り,蓄積した類似質問にナビゲーションできるかどうかを実験で検証することにした.これを対話により効率的に補うためには,システムからどのような問い掛けをするかがタームの補いの方略となる.そのために,初期質問文中のどのタームに着目したらよいかを決め,さらに,着目したタームをどのように詳細化するかを決める必要がある.そこで,名詞の種類がタームの詳細化の方法を決定する手がかりになり得るかを調べるために,蓄積された34,736個の文を分析し,「の」による修飾・被修飾の出現頻度5以上のものを数え上げた.典型的な語句の例と合計頻度,及びその割合を表\ref{tab:sano}\,〜\ref{tab:kono}\,に示す.表\ref{tab:sano}\,にはサ変名詞と「の」の関係,表\ref{tab:funo}\,には普通名詞と「の」の関係,表\ref{tab:kono}\,には固有名詞と「の」の関係を示す.これらの表からわかることは,サ変名詞の場合は,「〜の設定」というように「の」の右側に出現して,サ変名詞自体を意味的に限定するタームの要求が多い.一方,固有名詞の場合は,「富士通の〜」というように,「の」の左側に出現して,固有名詞を詳細化するタームの要求が多い.これまでの分析から,初期質問文中のどのタームに着目するかを決めるルールとして,以下に示す5つのルールを導出できる.\begin{enumerate}\item文節が一つの場合は,その文節の主辞に着目する.文節が複数の場合は,検索精度に影響を与える文節の順(表\ref{tab:delsets}\,より「が文節$>$を文節$>$は文節$>$に文節$>$で文節」)に,その文節の主辞となるタームに着目する.\item着目するタームがサ変名詞ならば,そのサ変名詞が右側に出現するようなタームを補う(表\ref{tab:sano}\,より).\item着目するタームが普通名詞ならば,その普通名詞が右側または左側のどちらかに出現するような両方の可能性を考慮してタームを補う(表\ref{tab:funo}\,より).\item着目するタームが固有名詞ならば,その固有名詞が左側に出現するようなタームを補う(表\ref{tab:kono}\,より).\item着目するターム「B」がすでに「AのB」の形で修飾されている場合には,表\ref{tab:AnoB}\,の品詞の組み合わせで着目すべきタームを決定する.例えば,Aがサ変名詞でBが普通名詞の場合,Aは左から修飾される(ルール(2)より)場合があり、Bは左から修飾される場合と、右を修飾する(ルール(3)より)場合がある.ここで,Bは「Aの」によりすでに修飾されているため,左から修飾されることはない.よって着目すべきタームは第一に「A」,第二に「B」となる.\end{enumerate}\begin{table}[ht]\caption{「AのB」の場合の着目すべきターム}\label{tab:AnoB}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineA\B&サ変名詞&普通名詞&固有名詞\\\hline\hlineサ変名詞&A&A,B&A,B\\\hline普通名詞&A&A,B&A,B\\\hline固有名詞&なし&B&B\\\hline\end{tabular}\end{center}\end{table}ルール(1)〜(5)で定めた着目すべきタームに対して新しいタームを補うために,システムからユーザに問いかける句の生成ルールを表\ref{tab:crule}\,に示す.これらのルールを用いて,着目するタームとシステムの問い掛けを決定する.その問い掛けへユーザが返す答えに含まれるタームが一次質問文へ補うタームとなる.\begin{table}[ht]\caption{着目したタームに対しユーザへ問い掛ける句の生成ルール}\label{tab:crule}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineA\B&サ変名詞&普通名詞&固有名詞\\\hline\hline\mrow{ナシ}&(2)&(3)&(4)\\\cline{2-4}&「どんなB」&「何のB」|「Bの何」&「Bの何」\\\hline\mrow{サ変名詞}&(2)(5)&(2)(3)(5)&(2)(4)(5)\\\cline{2-4}&「どんなA」&「どんなA」|「Bの何」&「どんなA」|「Bの何」\\\hline\mrow{普通名詞}&(2)(3)(5)&(3)(5)&(3)(4)(5)\\\cline{2-4}&「何のA」&「何のA」|「Bの何」&「何のA」|「Bの何」\\\hline\mrow{固有名詞}&(2)(4)(5)&(3)(4)(5)&(4)(5)\\\cline{2-4}&--&「Bの何」&「Bの何」\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:crule}\,において,上段は適用した着目すべきタームを決定するルールの番号,下段はシステムからの問い掛けを示し,「|」記号は,どちらの可能性もあることを示す.例えば,ルール(1)で着目する文節が決定されたら,その文節のタームに着目する.そのタームがAのBの形になっていなければ,そのタームをBとして,Bの品詞を表\ref{tab:crule}\,にあてはめる.もしBがサ変名詞であれば,Aが「ナシ」となり,「どんなB」が導かれる.これにより,システムからユーザに「どんなBですか」という問い掛けを返す.また,もし着目するタームがAのBの形になっていて,Aがサ変名詞,Bが普通名詞なら,表\ref{tab:crule}\,から「どんなA」|「Bの何」が導かれる.これにより,システムからの問い掛けは,「どんなAですか?」または「Bの何ですか?」となり,いずれかの新しいタームの要求を行なうことになる.なお,表\ref{tab:crule}\,では,「の」による修飾の補いが原則であるが,サ変名詞の限定には「どんな〜」を用いた方が自然な問い掛けとなるため,ヒューリスティックなルールとして用いた.このように作成したシステムからの問い掛けに対して,ユーザが返した答えに含まれるキータームを初期質問文に追加して,二次質問文を作成する.例\ref{ex:2q}\,には,初期質問文に対して表\ref{tab:crule}\,で示したルールを適用し,システムが対話的にキータームを補い,二次質問文に相当するマッチングのための検索式を生成することを想定した例を示す.ここでは,実験1のベースラインのキータームを利用した検索式を生成する.\begin{example}[ht]\begin{center}\fbox{\small\begin{minipage}{0.8\textwidth}\begin{tabular}{lll}\multicolumn{3}{l}{[初期質問文]CRTの設定は必要ですか}\\~&~&⇒[マッチングのキーターム]CRT設定必要\\\multicolumn{3}{l}{システム:「何のCRTですか」(「設定」は修飾済)}\\\multicolumn{3}{l}{ユーザ:「FMV-5133T3のCRTです」}\\~&\multicolumn{2}{l}{→[二次質問文]FMV-5133T3のCRTの設定は必要ですか}\\~&~&⇒[マッチングのキーターム]FMV-5133T3CRT設定必要\\\\\multicolumn{3}{l}{[初期質問文]筆まめでエラーが発生する}\\~&~&⇒[マッチングのキーターム]筆まめエラー発生\\\multicolumn{3}{l}{システム:「何のエラーですか」(が>で)}\\\multicolumn{3}{l}{ユーザ:「住所リストのエラーです」}\\~&\multicolumn{2}{l}{→[二次質問文]筆まめで住所リストのエラーが発生する}\\~&~&⇒[マッチングのキーターム]筆まめ住所リストエラー発生\\\end{tabular}\end{minipage}}\end{center}\caption{二次質問文の作成例}\label{ex:2q}\end{example}例\ref{ex:2q}\,で示したような新しい二次質問文から生成される検索式によってマッチングした結果を表\ref{tab:new2q}\,に示す.比較のため,質問の要約文の先頭語を補うという単純な補いルールに基づきキータームの追加を行なってマッチングした結果も表\ref{tab:new2q}\,に併記する.実験の目的は,ユーザが効率的に問題を解決できる知識にたどり着くことであり,対話的にタームを補っていくシステムを想定している.できる限り最適なタームを補うことが,問題解決を早めることに有効に働く.表\ref{tab:new2q}\,では,単純に補った場合も,先頭に来るタームが固有名詞である場合が多いため,ある程度の精度向上は見られるが,これはアドホックな対応である.ルールによって補った結果の影響度が高く,単純にタームを補うよりも効果が得られた.\begin{table}[ht]\caption{新しい二次質問文による検索結果}\label{tab:new2q}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&ベースライン&単純に補い&ルールで補い\\\hline\hline不一致→不一致&260&202&147\\\hline不一致→一致&0&58&113\\\hline\hline合計&260&260&260\\\hlineプラスの影響度&0.0\,\%&22.3\,\%&43.5\,\%\\\hline\end{tabular}\end{center}\end{table} \section{おわりに} 今回の実験では,ユーザの自然言語による状況説明や質問を表わす初期質問文をトリガーとして,システムからユーザに新たなキータームの入力を促してユーザの意図する適切な質問応答の要約文に速やかに到達できるような対話的ナビゲーション技術を提案した.初期質問文中のどのようなタームが検索式を作成するのに重要であるかを判定する方式として,入力した質問と要約文とのマッチングが成功したものから一定の基準によってタームを変更するサクセスファクタ分析方式を適用した.その結果,主辞を詳細化するタームは,マッチングの精度に極めて大きく影響することが明らかになり,そのタームを検索式に補うことで,質問の要約文の先頭語を補うという単純な補いルールに比べ,マッチング精度を約2倍向上させることができた(これは,初期質問では一致しなかった質問に,システムとユーザとの1回の対話を加えるだけで,5割近くが一致する,ということを示している).今回実証したタームの補強ルールは,音声の認識・合成技術を用いた音声応答システムに適用していくことが理想的であり,今後の課題である.また,今回の実験では,20文字程度の短い質問文を想定している.実際には,このような短い質問文が7割程度を占めているため,本稿で述べたシステムが実装されれば,オペレータ業務の一部を肩代わりし,労力の軽減につながる.しかし,Web上の質問応答システムにおいては,長い文章の入力もあり,このような文章も解析して対話ができるようにすることが望ましい.これについては,今後の自然言語処理技術の進展に期待したい.\vspace{0.3cm}\acknowledgment日頃よりご指導頂く,東京工業大学の徳永健伸助教授,及び富士通研究所言語処理研究部及び富士通DBサービス部の皆様に感謝致します.\nocite{fmw}\bibliographystyle{jnlpbbl}\bibliography{441}\begin{biography}\biotitle{略歴}\bioauthor{松井くにお}{1980年静岡大学工学部情報工学科卒業.同年(株)富士通研究所入社.以来,自然言語処理,文書情報処理,情報検索の研究開発に従事.言語処理学会評議員,厚生省電子カルテ研究班班員を歴任.ITメディア研究所言語処理研究部部長.情報処理学会会員.}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V17N01-11
\section{はじめに} 筆者らは,1990年,自然言語処理のための解析辞書の日本語表記の揺れを管理することから始め,1995年に同義語辞書の初版を発行した.その後,用語の意味関係を含むシソーラスのパッケージを発売し,現在6版を重ねている.1年間に20,000語程度を追加していて,420,000語に達している.これまでのシソーラスは,主として,情報検索のキーワードを選択するための支援ツールとして開発されてきた.登録されている用語は該当する分野の専門用語が主体で,さらに品詞は名詞だけであった.そのため,情報検索を越えて,文書整理や統計処理などのために必要な構文解析や用語の標準化など,自然言語処理に利用することは難しかった.筆者らのシソーラスは,自然言語処理を目的とした一般語を主とするシソーラスである.いわゆる名詞だけでなく,動詞,形容詞,形容動詞,副詞,代名詞,擬態語さらに慣用句までを登録している.これまでのシソーラスでは,作成者の考え方で分類してあった.使用者は,その分類基準に従ってたどって探さなければならなかった.また紙面の物理的な制約もあって意味空間を1次元的に整理してあった.本来意味分類は多次元空間のはずで,筆者らのシソーラスでは,複数の観点で多次元的に分類してある.また,メール整理に代表されるような文書整理のために,時事的な用語や省略語も積極的に登録している.送り仮名や訳語などの差異による異表記語も網羅的に収集した.自然言語処理で使うことを目的としているため,テレビなどから収集した新語や,構文解析で発見した新語を登録している.用語間の意味関係として,広義—狭義(上位—下位)関係,関連関係および同義—反義関係を持っている.流動的に変化する用語の意味および用語間関係への対応とコスト・パフォーマンスの観点から,トップダウン方式ではなく,ボトムアップ方式で開発した.一般語を主体としているが,他の専門シソーラスと併合もできる.以下,(第2章)用語の収集とシソーラスの構造,(第3章)用語同士の意味関係,(第4章)パッケージソフトの機能について順次述べる. \section{用語の収集とシソーラスの構造} 用語の収集と分類の仕方について述べる.\subsection{用語の収集}市販の辞書は語義が分からない用語を調べるためのものである.筆者らのシソーラスは自然言語処理で使うのが目的なので,市販の辞書に記載されている用語よりも,頻繁に使われる用語を中心に登録している.正しい表記だけでなくよく使われるのであれば「キューピット」(Cupid)のように誤った表記も登録している筆者らの構文解析(別途SDKとして販売)で新しい記事コーパスを解析した結果,解析できなかった新しい用語は逐次,解析辞書に登録しているが,同時にシソーラスにも登録している.シソーラス更新中に,追加登録した用語も形態素解析の辞書に登録している.見つけた用語がよく使われている用語かどうかはネットで調べている.新語を探しだす作業よりもシソーラス上の用語と関連付ける作業の方が工数がかかった.品詞分類も名詞の意味を除いて解析辞書と同じにしてある(文末付録参照).構文解析では名詞を意味で分類しているが,シソーラスでは意味分類が構文解析より詳細なこと,名詞に複数の意味を持たせられないことなどの理由で意味では分類していない.自然言語処理用のシソーラスではほとんど全ての自立語が収集の対象になる.構文解析では,解析時に結合して処理するので,複合語の要素だけを網羅すれば十分である.一方シソーラスでは組み合わされた複合語もすべて網羅する必要があるため,語数が多くなる.自然言語処理では固有名詞も重要な位置をしめるが,日々生成されていて,かつ変化するため辞書として登録するには手が付けられないので,地名など変化の少ないもの以外は登録できていない.\subsection{シソーラス構造における分類}\noindent{\gtfamily複数の観点での分類}意味空間は1次元ではなく多次元である.どの属性に注目して(観点で)分類するかによって,いろいろな分類の仕方が考えられる.身近な例で「料理」について考えてみる.古今東西の料理の種類は相当な数になり,分類の仕方も人によって異なる.ここで調理法,材料,地域の3つの観点で分類するとつぎのようになる.調理法の観点で分類すると生もの,煮物,焼き物材料の観点で分類すると魚料理,肉料理,野菜料理地域の観点で分類すると和食,中華,洋食例えば「刺し身」は,料理を3つの観点によって分類した結果,連想された用語「魚料理」「生もの」「和食」の狭義語である.逆に「刺し身」の広義語が「生もの」「魚料理」「和食」の3つあることになる.その結果,網構造になる。これを図にすると,図1のようになる.この他に「料理」のための観点としては「対象」(病人食,独身料理)「スタイル」(会席料理,飲茶)などが考えられる.いろいろな考え方で探す利用者がいるので,なるべく多くの観点で分類しておく必要がある.\noindent{\gtfamily人間の感覚に沿った分類}色を分類するときにも参考文献にあげたシソーラスでは「赤系統」「青系統」「黄色系統」などと色相や明度などに従って分類してある.データベースの検索の支援をするためには,人間との関係を重視して「はでな色」「暖かい色」といった人間の感覚に沿った観点での分類も併設した方が実用的である.筆者らのシソーラスもなるべく多くの観点で分類している.検索された用語を見やすくする目的で,グループに入れる用語を少なくする方針を取ったため階層が深くなってしまった.電子化されたシソーラスでは,クリックするだけで,簡単に上下の階層に移行できるので階層を深くしても問題は少ないのであるが,グループにつける名前が恣意的になりがちなことが課題である.\noindent{\gtfamily分類作業における揺れの吸収}\nopagebreak用語同士の意味的な関係は,自明な場合だけではない.どこまでを同義語として認めるかは,シソーラスの作業者同士でも食い違うことがある.現在3名で相談しながら,最終的には多数決で決めている.\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f1.eps}\end{center}\caption{「料理」を「調理法」「材料」「地域」の3つの観点で分類した例}\label{fig:one}\end{figure}例えば「明日」と「翌日」を考えて見ると,意味的にほとんど重なっていて同義語と思われるが,厳密に言えば違いがある.同義語にするか関連語にするかが一義的に決定できない.「明日」「翌日」現在○○過去×○このように微妙に意味の異なる場合にユーザーの意見を聞いて,同義語として扱った場合が多い.\subsection{シソーラス構造における記述}\noindent{\gtfamily補助的な記述}各の用語の持つ関係語の数が多いため,用語を3つの目的で,(|)で区切って補助的な記述をつけている.A.分類の観点を表示する.狭義語の例料理|材料肉料理,魚料理,野菜料理料理|地域和食,洋食,中華料理B.同じ分類に属する用語が膨大な数になるため細分したいときに,細分した分野に対応する適当な用語がなく,恣意的な用語になるのを防ぐ.狭義語の例肉料理|煮物シチュー肉料理|薫製ビーフジャーキーC.多義語を区別する.狭義語の例月|天体満月,寒月,三日月月|時間正月,うるう月現在関係語が多い用語を中心に,全体の4.0パーセントの用語に補助的な記述が付けてある.\noindent{\gtfamily語義の違いの記述法}冊子体のシソーラスは木構造で,その構造をたどりながら探していかなければならなかった.筆者らの電子化されたシソーラスはキーボードから直接構造上のどこでも指定できるので,もはや木構造である必要はない.網構造で,複数の広義語を持つことになる.しかしその結果同じ文字列で複数の意味を持つ多義語が区別できないという問題がでてくる.例えば木構造で検索したときには,「時間」からたどった「月」(month)と,「天体」からたどった「月」(moon)の2つの異なった意味の用語は区別できるが,直接「月」と指定する方法では区別ができなくなる.補助的な記述をつけて「月」を「天体」の観点でとらえたときは「月|天体」で「時間」の観点でとらえたときは「月|時間」として区別した.広義語狭義語月|天体名月月|時間正月\begin{figure}[b]\begin{center}\includegraphics{17-1ia12f2.eps}\end{center}\caption{「月」を中心にした構造}\label{fig:2}\end{figure}\noindent{\gtfamily用言}自然言語処理で使うには,名詞だけでなく用言(動詞,形容詞)や副詞も登録しておく必要がある.用言は語幹と活用形で登録してある.パッケージソフトでは終止形で表示する.\pagebreak活用形も構文解析に合わせてある.例動(く)動詞カ行5段活用赤(い)形容詞\noindent{\gtfamily慣用句}日本語では,慣用句が大きな意味的位置を占めている.慣用句はまとめた形で1語にして登録してある.例「水をあける」=「引き離す」「水をあける」は「引き離す」という意味で「水」の意味はまったくない.「水をあけ(る)」は1つの動詞にして「引き離す」の同義語として登録してある.慣用句は用法によって間に挟まれる助詞までが変わるものがある.「山田は顔が広い」(叙述用法)「顔が広(い)」を形容詞として登録してある.「顔の広い山田は」(限定用法)「顔の広い」を連体詞として登録してある.\noindent{\gtfamily誤りのある用語}実際にシソーラスを運用するためには,関係する用語として差別語を出力しないなどといった細かい配慮が必須である.差別語は年々増える方向にある.増える差別語を次々に登録していくためにもいつもシソーラスを更新していかなければならない.エラーに2つのレベルがある.誤り語および差別語.誤り語例ご多聞にもれず(正:ご多分にもれず)差別語標準でない用語.常用漢字以外を含んでいる用語表記の揺れ例インタフェース(正:インターフェース)旧地名例浦和市旧機関名例文部省商品名例宅急便 \section{用語同士の意味関係} label{sec:ITEM}用語同士の意味関係として,表1のものを用意した.広義語—狭義語の関係は自然言語処理で広義語に適用した規則は,狭義語にも適用できるようにするため狭義語になるのは同じ属性のものだけとした.「自動車」—「タイヤ」のような「全体」—「部分」関係は「部分」という観点の関連語とした.原則として自立語だけとしたが,一部に接尾辞も採択してある.\subsection{同義語}英語で1人称単数は「I」だけであるが,日本語には「私」「僕」「我」「小生」「我が輩」「手前」「愚生」と数十あり,話者と相手との関係で使い分けられている.日本語にはなぜ同じ意味の用語,同義語がこんなに多いのか考えてみる.(表2参照)\begin{table}[b]\caption{用語同士の意味関係}\input{12table01.txt}\end{table}\begin{table}[b]\caption{同義語の例}\input{12table02.txt}\end{table}辞書の中では,「大和言葉」「外来語」などの区別はせず,同等に扱っている.\noindent{\gtfamily外来語}日本語のなかに奈良時代には中国,朝鮮から,最近は主に米国から輸入されて日本語の中に入ってきている用語がある.多少のニュアンスの違いはあるが,すべて同義語といえる.このような組み合わせが日本語のなかにたくさんあり,これが同義語を増やしている大きな原因である.大和言葉は親しみやすさを,漢語は権威を,片仮名語は近代的な感じをあたえる.また最近は「計算機」が「コンピューター」に,「写真機」が「カメラ」になるといったふうに,漢語が片仮名語に置き換わる傾向がある.\noindent{\gtfamily通称}通称と正式名称が両方使われている.「首相」=「内閣総理大臣」\noindent{\gtfamily年号}わが国だけの問題であるが,年号が2種類ある.さらに漢数字とアラビア数字が両方使われる.「2008年」=「平成20年」=「平成二十年」\noindent{\gtfamily立場による用語の違い}立場によって同じことを違った用語で表す場合がある.例えば「税金」という用語を政府は「公的資金」という言い方をするが,納税者は「血税」という言葉を使う.検索者は「税金」という用語で探すだろう.このような傾向は社会科学の用語に多い.\noindent{\gtfamily省略語}「特別急行」→「特急」のようなものをいうが,「マスコミ」は「マス・コミュニケーション」の省略形であったというように,現在は省略形の方が4拍の新しい用語として定着してしまっているものがたくさんある.省略の程度も地域によって異なる.関東よりも関西の方が積極的に省略するようである.「弱冷房車」(JR東日本)「弱冷車」~(JR西日本)頭字語(英語の用語の先頭の文字だけを集めた用語:アクロニム)もこの省略形に入れるべきだろう.ROMReadOnlyMemory\noindent{\gtfamily表記の揺れ}同義語のうち発音も同じものを表記の揺れ(異表記語ともいう)と言う.日本語では標準とされている表記の他に複数の「表記の揺れ」が許されている用語がある.個人により,機関により,いろいろな表記が氾濫している.極端な場合には,同じ著者が書いた記事でも表記法が違うことがある.複数の機関の記事を一度に検索しようとする場合には,考えられる揺れをすべてキーにして検索しなければならない.漢字と仮名による表記の揺れ犬,イヌ,いぬ漢字表記の揺れ沈殿,沈澱(「澱」の字が常用漢字でないので「殿」の字を代用した.)超電導(JIS)超伝導(学術用語)外来語をカタカナ書きするときの揺れインターフェース(新聞1996年まではインタフェース)インタフェース(JIS)インターフェイス(学術用語)インタフェイス古い記事を扱うときは異体字も問題になる.国語,國語送り仮名の違いによる表記の揺れ行う,行なう打ち合わせ,打ち合せ,打合わせ,打合せ,打合(内閣告示の「送り仮名の付け方」の中にも複数の表記が許容されている.)\noindent{\gtfamily推奨語}用語を標準化するために,同義語のグループのなかから,言語工学研究所が推奨する用語である.標準の用語に置き換える機能はパッケージソフトには含まれていない.別売の用語標準化ソフトとして提供している.インターフェース(新聞)インタフェース(JIS)インターフェイス(学術用語)インタフェイス$\Longrightarrow${\gtfamilyインターフェース}(言語工学研究所推奨)米,米国,USA,U.S.A.,アメリカ合衆国,合衆国,アメリカ(新聞)$\Longrightarrow${\gtfamilyアメリカ}(言語工学研究所推奨)\subsection{反義語}意味が対立する用語の関係である.対立の仕方にいくつかある.A.片方を否定すると対立する相手になる用語の関係である.「良いこと」を否定すると「悪いこと」になるような関係である.例善←→悪B.ある中間的な点を中心にして逆の方向になる用語の関係である.例上←中→下C.一つの行為を対立する立場で捕らえた用語の関係である.例売る←→買うD.さらには「兄」に年齢で対立する用語として「弟」がある.また性別で対立する用語として「姉」がある.どちらも反義語になる.例兄←年齢的対立→弟↑性別的対立↓姉\subsection{広義語・狭義語}自然言語処理で広義語との関係が狭義語にも適用できるように広義語・狭義語の関係は,属性が同じものだけにした.「自動車」—「タイヤ」のような全体部分関係は関連語にした.例1東京都新宿区(狭義語)東京都都庁(関連語)「東京都に住む」,「新宿区に住む」は成り立つが,「都庁に住む」は成り立たない.例2疾病伝染病(狭義語)疾病発病(関連語)\subsection{関連語}ある程度の意味的な関連性を持つ用語の関係を言う.大きく分けると同じカテゴリーの用語と異なるカテゴリーの用語との関係がある.A.共通の広義語を持つ用語.広義語狭義語食材$\rightarrow$肉$\searrow$野菜(「肉」と「野菜」とは関連語である.)B.異なるカテゴリーであるが,意味的な関係のある用語.広義語狭義語食材→肉料理→肉料理(「肉」と「肉料理」とは関連語と,人の判断で設定する.)\subsection{多義語}英語は多義語が多いと言われているが,日本語,特に大和言葉も多義語が多い.関係語は別の言葉になる.大和言葉での例うめる穴をうめる.お風呂をうめる.借金をうめる.時間をうめる.外来語での例英語の多義性の影響も受けている.ライト光,照明,明るい,軽い右,右翼手権利書く多義語は,|で区切って補助的な記述を付けてそれぞれ別の語として扱っている.\subsection{共起語}係り受けを構成する組み合わせを集めた辞書である.構文解析で係り先を決定したり,「良しあし」を決定したりするときに用いる.係り側の格助詞を含めて管理している.構文解析の通常の単語には必要に応じて「良しあし」のフラグが振ってあり,リスク管理やリコメンデーションなどに使っている.しかし例えば下記の例では,例寿命が延びる(良い)例寿命が短い(悪い)「寿命」,「延びる」,「短い」など用語はそれ自体では「良しあし」の情報は持っていないが,係り受けになったときに「良しあし」の性質が出てくる.共起語として,7万組を登録してある.係り,受けのそれぞれの用語の同義語,狭義語を実行時に拡張するので,共起語辞書に登録されていない係り受けにも対応できる.ビールが冷えている.麦酒が冷えている(同義語)生ビールが冷えている(狭義語)組み合わせの意味的な関係として,現在は「良い」「悪い」「それ以外」の3種類の情報しか持っていない.将来オントロジーとして発展させていく予定である.\noindent{\gtfamily共起辞書の作成方法}コーパスを構文解析で係り受けファイルにして,その結果を整理して,共起語辞書に登録する方式を取っている.\subsection{用語の意味関係は時と共に変化する}1991年当時「発泡酒」は「ビール」の意味を含む広義語であった(JISX0901-1991).しかし現在は「発泡酒」は「ビール」とは別のものの名前になったため,「ビール」「発泡酒」は共に「醸造酒」の狭義語となった.シソーラスには,原則として最新の意味だけを採択している.広義語狭義語醸造酒$\rightarrow$ビール$\searrow$発泡酒 \section{パッケージソフトの機能} 筆者らのシソーラスはパッケージで販売するほかにネットからも使えるようにしてある.\subsection{操作画面}\begin{figure}[h]\vspace{-1\baselineskip}\begin{center}\includegraphics{17-1ia12f3.eps}\end{center}\caption{「料理」で検索したときの操作画面}\label{fig:3}\vspace{-1\baselineskip}\end{figure}観点の「——」は下に表示したどの観点にも属さない関係語を集めたものである.\begin{figure}[b]\begin{center}\includegraphics{17-1ia12f4.eps}\end{center}\caption{「調理法」の観点で検索したときの操作画面}\label{fig:4}\end{figure}「かっぽう」に対する「割烹」,「はし休め」に対する「箸休め」など,標準でない標記も表示されている.実際の画面上では文字色で区別している.(注)「エラーレベル・差別語の表示」(4.5)を参照のこと以下に「料理」を「調理法」「材料」「地域」の観点で検索したときの画面を示す.\subsection{未知語の形態素解析}ユーザーがシソーラスに登録されていない用語で検索したときのために,形態素解析をして分解された形態素を自動表示する.画面上の分解された形態素をクリックすると検索できる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f5.eps}\end{center}\caption{「材料」の観点で検索したときの操作画面}\label{fig:5}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f6.eps}\end{center}\caption{「地域」の観点で検索したときの操作画面}\label{fig:6}\end{figure}複合語の最後の用語を広義語に,それ以外の用語を関連語とした.接尾辞は同じ意味の自立語に置き換える(下の例を参照).例「未知語解析」を形態素解析すると,下記の3つの用語が表示される.未知(関連語)言語(広義語)「語」は接尾辞なので同じ意味の「言語」に変換する.解析(広義語)\subsection{語末一致検索}日本語の複合語はほとんどの場合,意味や品詞を決定する用語が語末に,修飾する用語が前方にくる.この性質に着目して語末が同じ用語を取り出すと同じ意味の用語が集められ,狭義語を集めたのと同じような効果を持たせることができる.例えば「トンボ」をキーにして検索すると,語末が一致として下記の用語が表示される.狭義語「アカトンボ」「イトトンボ」「シオカラトンボ」……ノイズ「竹トンボ」「尻切れトンボ」「極楽トンボ」漏れ「オニヤンマ」「ギンヤンマ」「トンボ」という言葉を比ゆ的に用いている場合にノイズになる.接尾辞シソーラスには接尾辞も登録できる.\subsection{カスタマイズ機能}ユーザーがどんな用語を関係語として要求するかは個人によって,また置かれた状態によってまちまちである.「非常勤社員」「フリーター」「非正規社員」の同義語である「テンポラリー・ワーカー」などという用語は最近の労働問題を調べているひとには必要であるが,労働問題の歴史を研究しているひとには不要である.用語同士の関係がそのひとの環境,世代で異なることもある.筆者らの世代では,「パソコン」は「コンピューター」の狭義語であるが,最近の社会一般では「パソコン」という言葉の方が一般的になっている.個人別に学習したりする柔らかい機能が必要である.筆者らのシソーラスには次の機能を用意してある.A.当面不要な用語をじゃまにならないように,一時隠しておく機能B.ユーザーが手持ちのシソーラスをファイルから併合する機能筆者らのシソーラスには専門用語が登録されていない.利用者がそれぞれの専門分野の用語を登録する方式を取っている.ユーザー登録語は優先して表示する.\subsection{エラーレベル・差別語の表示}エラーのある用語と差別語は赤で表示している.また標準でない次のような用語をピンクで表示している.常用漢字以外を含んでいる用語例割烹表記の揺れ例インタフェース旧地名例浦和市旧機関名例文部省商品名例宅急便画面上正しい用語だけにするために,エラーのある用語と標準でない用語を表示しないようにする機能もある.\subsection{インターネット・辞書との接続}「言葉のポータルサイト」を目指している.画面上の用語をクリックするとGoogle,Wikipediaなどのインターネット検索ができる.また同様に電子化された辞書を串刺し検索できるようにしてある.(図7参照)\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f7.eps}\end{center}\caption{他のシステムとの接続}\label{fig:7}\end{figure}\subsection{文章を推敲中の自動検索}ワープロなどで文章を推敲中により適した用語を探すために,クリッピングボード(コピーなどのために切り取った文字列)の文字列でシソーラスを自動的に探す. \section{おわりに} ネット上の記事が現在のペースで増えていくと,キーワードだけの検索ではノイズが多く早晩限界がくると思われる.ノイズを減らすためにも自然文検索のニーズ高まっている.今後日本語解析などを高度化していくためには意味の分野に立ち入らざるを得ないだろう.そのときにシソーラスが多用されるだろう.「補助的な記述」(1.4)ではすべて同じ(|)で区切って示しているが,それぞれの目的で区切り方を分けておくべきであったと思っている.特に多義語は,それ以外とは意味が異なる.シソーラス・ファイルのコードは外国語との結合を考えて,unicodeを使用している.これから高度な自然言語処理で活用していくためには,固有名詞も扱わなければならないだろう.本シソーラスについてご興味のある方は下記までお問い合わせください。E-mail:[email protected]\acknowledgment本稿の改善に有益なコメントを頂いた査読者の方に感謝いたします.\nocite{Book_01}\nocite{Book_02}\nocite{Book_03}\nocite{Book_04}\nocite{Book_05}\nocite{Book_06}\nocite{Web_07}\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林}{池原悟\Jetal}{1997}]{Book_04}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{医学中央雑誌刊行会編}{医学中央雑誌刊行会編}{2007}]{Book_06}医学中央雑誌刊行会編\BBOP2007\BBCP.\newblock\Jem{医学用語シソーラス第6版}.\newblock医学中央雑誌刊行会.\bibitem[\protect\BCAY{大野晋\JBA浜西正人}{大野晋\JBA浜西正人}{1985}]{Book_03}大野晋\JBA浜西正人\BBOP1985\BBCP.\newblock\Jem{類語国語辞典}.\newblock角川学芸出版.\bibitem[\protect\BCAY{科学技術振興機構編}{科学技術振興機構編}{1999}]{Book_05}科学技術振興機構編\BBOP1999\BBCP.\newblock\Jem{JICST科学技術用語シソーラス}.\newblock科学技術振興機構.\bibitem[\protect\BCAY{言語工学研究所}{言語工学研究所}{}]{Web_07}言語工学研究所.\newblock「類語.jp」(類語辞書オンライン版)\inhibitglue.\\newblock\Turl{http://ruigo.jp}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{Book_02}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{日本工業規格}{日本工業規格}{1991}]{Book_01}日本工業規格\BBOP1991\BBCP.\newblock\Jem{シソーラスの構成及びその作成方法:JISX0901-1991}.\newblock日本規格協会.\end{thebibliography}\appendix \section{付録品詞一覧} かっこ内は活用語尾である.品詞・活用形例名詞学校サ変名詞形勉強(する)サ変非名詞形察(する)ザ変信(ずる)一段生き(る)カ行五段書(く)カ行五段例外行(く)ガ行五段泳(ぐ)サ行五段押(す)タ行五段立(つ)ナ行五段死(ぬ)バ行五段遊(ぶ)マ行五段飲(む)ラ行五段走(る)ラ行五段例外おっしゃ(る)ワア行5段買(う)ワ行五段例外問(う)形容詞青(い)形容動詞閑静(な)形容動詞と/たる形矍鑠(たる)副詞さっぱり打ち消しの動詞年端もいか(ない:助動詞)打ち消しの形容詞必要(ない:形容詞)連体詞こんな接尾辞*法見出しに*をつける.\begin{biography}\bioauthor{国分芳宏(正会員)}{1966年東京理科大学理学部応用物理学科卒.同年日本科学技術情報センター入社.1985年株式会社言語工学研究所設立代表取締役就任.自然言語処理,シソーラス作成に従事.情報処理学会会員.}\bioauthor{岡野弘行(正会員)}{1966年大阪大学理学部物理学科卒.同年日本科学技術情報センター入社.2004年株式会社言語工学研究所入社.シソーラス作成に従事.}\end{biography}\biodate\end{document}
V21N05-02
\section{はじめに} 本論文では,語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応に対して,共変量シフト下の学習を試みる.共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSDのタスクでは算出される確率密度比が小さくなる傾向がある.ここではソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なすことで,この問題に対処する.なお本手法はターゲット領域のデータにラベル付けしないため,教師なし領域適応手法に分類される.WSDは文中の多義語の語義を識別するタスクである.通常,あるコーパス$S$から対象単語の用例を取り出し,その用例中の対象単語の語義を付与した訓練データを作成し,そこからSVM等の分類器を学習することでWSDを解決する.ここで学習した分類器を適用する用例がコーパス$S$とは異なるコーパス$T$内のものである場合,学習した分類器の精度が悪い場合がある.これが領域適応の問題であり,自然言語処理ではWSD以外にも様々なタスクで問題となるため,近年,活発に研究されている\cite{da-book,mori,kamishima}.今,対象単語$w$の用例を${\bmx}$,$w$の語義の集合を$C$とする.${\bmx}$内の$w$の語義が$c\inC$である確率を$P(c|{\bmx})$とおくと,WSDは$\arg\max_{c\inC}P(c|{\bmx})$を求めることで解決できる.領域適応では,コーパス$S$(ソース領域)から得られた訓練データを用いて,$P(c|{\bmx})$を推定するので,得られるのは$S$上の条件付き分布$P_S(c|{\bmx})$であるが,識別の対象はコーパス$T$(ターゲット領域)内のデータであるため必要とされるのは$T$上の条件付き分布$P_T(c|{\bmx})$である.このため領域適応の問題は$P_S(c|{\bmx})\neP_T(c|{\bmx})$から生じているように見えるが,用例${\bmx}$がどのような領域で現れたとしても,その用例${\bmx}$内の対象単語$w$の語義が変化するとは考えづらい.このため$P_S(c|{\bmx})=P_T(c|{\bmx})$と考えられる.$P_S(c|{\bmx})=P_T(c|{\bmx})$が成立しているなら,$P_T(c|{\bmx})$の代わりに$P_S(c|{\bmx})$を用いて識別すればよいと思われるが,この場合,識別の精度が悪いことが多い.これは$P_S({\bmx})\neP_T({\bmx})$から生じている.$P_S(c|{\bmx})=P_T(c|{\bmx})$かつ$P_S({\bmx})\neP_T({\bmx})$という仮定は共変量シフトと呼ばれる\cite{sugiyama-book}.自然言語処理の多くの領域適応のタスクは共変量シフトが成立していると考えられる\cite{da-book}.ソース領域のコーパス$S$から得られる訓練データを$D=\{({\bmx_i},c_i)\}_{i=1}^N$とおく.一般に共変量シフト下の学習では確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$を重みとした以下の重み付き対数尤度を最大にするパラメータ${\bm\theta}$を求めることで,$P_T(c|{\bmx})$を構築する.\[\sum_{i=1}^{N}w({\bmx_i})\logP_T(c_i|{\bmx_i};{\bm\theta})\]共変量シフト下の学習の要は確率密度比$w({\bmx})$の算出であるが,その方法は大きく2つに分類できる.1つは$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求め,その比を求めることで$w({\bmx})$を求める方法である.もう1つは$w({\bmx})$を直接モデル化する方法である\cite{sugiyama-2010}.ただしどちらの方法をとっても,WSDの領域適応に対しては,求められる値が低くなる傾向がある.この問題に対しては,確率密度比を$p$乗($0<p<1$)したり\cite{sugiyama-2006-09-05},相対確率密度比\cite{yamada2011relative}を使うなど,求めた確率密度比を上方に修正する手法が存在する\footnote{これらの手法は正確には確率密度比を1に近づける手法であるが,多くの場合,確率密度比は1以下の値であるため,ここではこれらの手法も確率密度比を上方に修正する手法と呼ぶことにする.}.本論文では$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求める手法を用いる際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス$S$と見なして確率密度比を求めることを提案する.提案手法は必ずしも確率密度比を上方に修正する訳ではないが,多くの場合,この処理により$P_S({\bmx})$の値が減少し,結果的に$w({\bmx})$の値が増加する.なお,本論文で利用する手法は,ターゲット領域のラベル付きデータを利用しないために,教師なし領域適応手法に属する.当然,ターゲット領域のラベル付きデータを利用する教師付き領域適応手法を用いる方が,WSDの識別精度は高くなる.しかし本論文では教師なし領域適応手法を扱う.理由は3つある.1つ目は,教師なし領域適応手法はラベル付けするコストがないという大きな長所があるからである.2つ目は,共変量シフト下の学習はターゲット領域のラベル付きデータを利用しない設定になっているからである.3つ目は,WSDの領域適応の場合,対象単語毎に領域間距離が異なり,コーパスの領域が異なっていても,領域適応の問題が生じていないケースも多いからである.領域適応の問題が生じている,いないの問題を考察していくには,ターゲット領域のラベル付きデータを利用しない教師なし領域適応手法の方が適している.実験では現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese,BCCWJ\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果$16\times6=96$通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法による重み付けの効果を確認できた.また,従来手法はベースラインよりも低い値となったが,これは多くのWSDの教師なし領域適応では負の転移が生じていない,言い換えれば実際には領域適応の問題になっていないことから生じていると考えられる.考察では負の転移と重み付けとの関連,また負の転移と関連の深いMisleadingデータの存在と重み付けとの関連を中心に議論した. \section{関連研究} 自然言語処理における領域適応は,帰納学習手法を利用する全てのタスクで生じる問題であるために,その研究は多岐にわたる.利用手法をおおまかに分類すると,ターゲット領域のラベル付きデータを利用するかしないかで分類できる.利用する場合を教師付き領域適応手法,利用しない場合を教師なし領域適応手法と呼ぶ.提案手法は教師なし領域適応手法の範疇に入るので,ここでは教師なし領域適応手法を中心に関連研究を述べる.領域適応の問題は,一般の教師付き学習手法における訓練事例のスパース性の問題だと捉えることもできる.そのためターゲット領域のデータにラベルを付与しないという条件では,半教師付き学習\cite{chapelle2006semi}が教師なし領域適応手法として使えることは明らかである.ただし半教師付き学習では大量のラベルなしデータを必要とする.半教師付き学習をWSDに利用する場合,対象単語毎に用例を集める必要があり,しかもターゲット領域のコーパスは新規であることが多いため,対象単語毎の用例を大量に集めることは困難である.このためWSDの領域適応の場合,半教師付き学習を利用しようとすれば,Transductive学習\cite{joachims1999transductive}に近い形となるが,ソース領域とターゲット領域が異なる領域適応の形にTransductive学習が利用できるかどうかは明らかではない.WSDの領域適応をタスクとした教師なし領域適応の研究としては,論文\cite{shinnou-gengo-13}の研究がある.そこでの基本的なアイデアはWSDで使うシソーラスをターゲット領域のコーパスから構築することであるが,WSDで使うシソーラスが分野依存になっているかどうかは明らかではない\cite{shinnou-jws5}\footnote{この論文\cite{shinnou-gengo-13}は本論文と同じタスクに対して,一部同じデータを用いた実験結果を示しているため,考察において提案手法との比較を行う.}.またChanはターゲット領域上の語義分布をEMアルゴリズムで推定している\cite{chan2005word,chan2006estimating}.これも教師なし領域適応手法であるが,本論文で扱う領域適応では語義分布の違いは顕著ではなく,効果が期待できない.本論文は,WSDの領域適応では共変量シフトの仮定が成立していると考え,共変量シフト下の学習を利用する.共変量シフト下の学習を領域適応に応用した研究としてはJiangの研究\cite{jiang2007instance}と齋木の研究\cite{saiki-2008-03-27}がある.Jiangは確率密度比を手動で調整し,モデルにはロジステック回帰を用いている.また齋木は$P_S({\bmx})$と$P_T({\bmx})$をunigramでモデル化することで確率密度比を推定し,モデルには最大エントロピー法を用いている.ただしどちらの研究もタスクはWSDではない.しかもターゲット領域のラベル付きデータを利用しているために,教師なし領域適応手法でもない.また新納はWSDの領域適応に共変量シフト下の学習を用いているが\cite{shinnou-gengo-14},そこではDaum{\'e}が提案した素性空間拡張法(FeatureAugmentation)\cite{daume0}を組み合わせて利用しているために,これも教師なし領域適応手法ではない.一方,共変量シフト下の学習は,事例への重み付き学習の一種である.Jiangは識別精度を悪化させるようなデータをMisleadingデータとして訓練データから取り除いて学習することを試みた\cite{jiang2007instance}.これはMisleadingデータの重みを0にした学習と見なせるため,この手法も重み付き学習手法と見なせる.吉田はソース領域内の訓練データ${\bmx}$がターゲット領域から見て外れ値と見なせた場合,${\bmx}$をMisleadingと判定し,それらを訓練データから取り除いて学習している\cite{yoshida}.これはWSDの教師なし領域適応手法であるが,Misleadingデータの検出は困難であり,精度の改善には至っていない.またWSDの領域適応をタスクとした古宮の手法\cite{komiya-nenji2013}も重み付き学習と見なせる.そこでは複数のソース領域のコーパスを用意し,そこから訓練事例をランダムに選択し,選択された訓練データセットの中で,ターゲット領域のテストデータを識別するのに最も適した訓練データセットを選ぶ.これは全ソース領域のコーパスの訓練データから選択された訓練データの重みを1,それ以外を重み0としていることを意味する.ただし複数のソース領域のコーパスから対象単語のラベル付き訓練データを集めるのは実際は困難である.また古宮は上記の研究以外にもWSDの領域適応の研究\cite{komiya3,komiya2,komiya-nlp2012}を行っているが,これらは教師付き学習手法となっている. \section{期待損失最小化に基づく共変量シフト下の学習} 対象単語$w$の語義の集合を$C$,また$w$の用例${\bmx}$内の$w$の語義を$c$と識別したときの損失関数を$l({\bmx},c,d)$で表す.$d$は$w$の語義を識別する分類器である.$P_T({\bmx},c)$をターゲット領域上の分布とすれば,本タスクにおける期待損失$L_0$は以下で表せる.\[L_0=\sum_{{\bmx},c}l({\bmx},c,d)P_T({\bmx},c)\]また$P_S({\bmx},c)$をソース領域上の分布とすると以下が成立する.\[L_0=\sum_{{\bmx},c}l({\bmx},c,d)\frac{P_T({\bmx},c)}{P_S({\bmx},c)}P_S({\bmx},c)\]ここで共変量シフトの仮定から\[\frac{P_T({\bmx},c)}{P_S({\bmx},c)}=\frac{P_T({\bmx})P_T(c|{\bmx})}{P_S({\bmx})P_S(c|{\bmx})}=\frac{P_T({\bmx})}{P_S({\bmx})}\]となり,$w({\bmx})=P_T({\bmx})/P_S({\bmx})$とおくと以下が成立する.\[L_0=\sum_{{\bmx},c}w({\bmx})l({\bmx},c,d)P_S({\bmx},c)\]訓練データを$D=\{({\bmx_i},c_i)\}_{i=1}^N$とし,$P_S({\bmx},c)$を経験分布で近似すれば,\[L_0\approx\frac{1}{N}\sum_{i=1}^Nw({\bmx_i})l({\bmx_i},c_i,d)\]となるので,期待損失最小化の観点から考えると,共変量シフトの問題は以下の式$L_1$を最小にする$d$を求めればよいことがわかる.\begin{equation}\label{eq:1}L_1=\sum_{i=1}^Nw({\bmx_i})l({\bmx_i},c_i,d)\end{equation}分類器$d$として以下の事後確率最大化推定に基づく識別を考える.\[d({\bmx})=\arg\max_{c}P_T(c|{\bmx})\]また損失関数として対数損失$-\logP_T(c|{\bmx})$を用いれば,\mbox{式(\ref{eq:1})}は以下となる.\[L_1=-\sum_{i=1}^Nw({\bmx_i})\logP_T(c_i|{\bmx_i})\]つまり,分類問題の解決に$P_T(c|{\bmx},{\bm\lambda})$のモデルを導入するアプローチを取る場合,共変量シフト下での学習では,確率密度比を重みとした以下に示す重み付き対数尤度$L({\bm\lambda})$を最大化するパラメータ${\bm\lambda}$を求める形となる.\begin{equation}\label{eq:2}L({\bm\lambda})=\sum_{i=1}^Nw({\bmx_i})\logP_T(c_i|{\bmx_i},{\bm\lambda})\end{equation}ここではモデルとして以下の式で示される最大エントロピー法を用いる.\begin{equation}\label{eq:3}P_T(c|{\bmx},{\bm\lambda})=\frac{1}{Z({\bmx},{\bm\lambda})}\exp\left(\sum_{j=1}^M\lambda_jf_j({\bmx},c)\right)\end{equation}${\bmx}=(x_1,x_2,\cdots,x_M)$が入力,$c$がクラスである.関数$f_j({\bmx},c)$は素性関数であり,実質${\bmx}$の真のクラスが$c$のときに$x_j$を返し,そうでないとき0を返す関数に設定される.$Z({\bmx},{\bm\lambda})$は正規化項であり,以下で表せる.\begin{equation}\label{eq:4}Z({\bmx},{\bm\lambda})=\sum_{c\inC}\exp\left(\sum_{j=1}^M\lambda_jf_j({\bmx},c)\right)\end{equation}\noindentそして${\bm\lambda}=(\lambda_1,\lambda_2,\cdots,\lambda_M)$が素性に対応する重みパラメータとなる. \section{確率密度比の算出} 確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$の算出法は大きく2つに分類できる.1つは$P_S({\bmx})$と$P_T({\bmx})$を各々推定し,その比を取る手法であり,もう1つは$w({\bmx})$を直接モデル化する手法である.ここでは前者の方法として論文\cite{shinnou-gengo-14}において提案された手法を利用する.簡単化のために本論文ではこの手法をNB法と名付ける.また後者の方法としては論文\cite{kanamori2009least}において提案された拘束無し最小二乗重要度適合法(unconstrainedLeast-SquaresImportanceFitting,uLSIF)を利用する.\subsection{NB法}対象単語$w$の用例${\bmx}$の素性リストを$\{f_1,f_2,\cdots,f_n\}$とする.求めるのは領域$R\in\{S,T\}$上の${\bmx}$の分布$P_R({\bmx})$である.ここでNaiveBayesで使われるモデルを用いる.NaiveBayesのモデルでは以下を仮定する.\[P_R({\bmx})=\prod_{i=1}^{n}P_R(f_i)\]領域$R$のコーパス内の$w$の全ての用例について素性リストを作成しておく.ここで用例の数を$N(R)$とおく.また$N(R)$個の用例の中で,素性$f$が現れた用例数を$n(R,f)$とおく.MAP推定でスムージングを行い,$P_R(f)$を以下で定義する\cite{takamura}.\[P_R(f)=\frac{n(R,f)+1}{N(R)+2}\]以上より,ソース領域$S$の用例${\bmx}$に対して,確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$が計算できる.\[w({\bmx})=\frac{P_T({\bmx})}{P_S({\bmx})}=\prod_{i=1}^n\left(\frac{n(T,f_i)+1}{N(T)+2}\cdot\frac{N(S)+2}{n(S,f_i)+1}\right)\]\subsection{uLSIF}ソース領域内のデータを$\{{\bmx_i^s}\}_{i=1}^{N_s}$,ターゲット領域内のデータを$\{{\bmx_i^t}\}_{i=1}^{N_t}$とするuLSIFでは確率密度比$w({\bmx})$を以下の式でモデル化する.\begin{align*}w({\bmx})&=\sum_{l=1}^b\alpha_l\psi_l({\bmx})\\&={\bm\alpha}\cdot{\bm\psi}({\bmx})\end{align*}ただしここで,${\bm\alpha}=(\alpha_1,\alpha_2,\cdots,\alpha_b)$,${\bm\psi}({\bmx})=(\psi_1({\bmx}),\psi_2({\bmx}),\cdots,\psi_b({\bmx}))$である.また$\alpha_l$は正の実数であり,$\psi_l({\bmx})$は基底関数と呼ばれるソース領域のデータ${\bmx}$から正の実数値への関数である.uLSIFでは,概略,自然数$b$と基底関数${\bm\psi}({\bmx})$を定めた後に,パラメータ${\bm\alpha}$を推定する手順をとる.説明の都合上,$b$と${\bm\psi}({\bmx})$が定まった後の${\bm\alpha}$の推定を先に説明する.$w({\bmx})$のモデルを$\hat{w}({\bmx})$とおくと,パラメータ$\alpha_l$を推定するには,$w({\bmx})$と$\hat{w}({\bmx})$の平均2乗誤差$J_0({\bm\alpha})$を最小にするような${\bm\alpha}$を求めれば良い.$w({\bmx})=P_T({\bmx})/P_S({\bmx})$に注意すると,$J_0({\bm\alpha})$は以下のように変形できる.\begin{align*}J_0({\bm\alpha})&=\frac{1}{2}\int(\hat{w}({\bmx})-w({\bmx}))^2P_S({\bmx})d{\bmx}\\&=\frac{1}{2}\int\hat{w}({\bmx})^2P_S({\bmx})d{\bmx}-\int\hat{w}({\bmx})w({\bmx})P_S({\bmx})d{\bmx}+\frac{1}{2}\intw({\bmx})^2P_S({\bmx})d{\bmx}\\&=\frac{1}{2}\int\hat{w}({\bmx})^2P_S({\bmx})d{\bmx}-\int\hat{w}({\bmx})P_T({\bmx})d{\bmx}+\frac{1}{2}\intw({\bmx})^2P_S({\bmx})d{\bmx}\end{align*}3項目の式は定数なので,$J_0({\bm\alpha})$を最小にするには,以下の$J({\bm\alpha})$を最小にすればよい.\[J({\bm\alpha})=\frac{1}{2}\int\hat{w}({\bmx})^2P_S({\bmx})d{\bmx}-\int\hat{w}({\bmx})P_T({\bmx})d{\bmx}\]$J({\bm\alpha})$を経験分布で近似した$\widehat{J}({\bm\alpha})$は以下となる.\begin{equation}\begin{aligned}[b]\widehat{J}({\bm\alpha})&=\frac{1}{2N_s}\sum_{i=1}^{N_s}\widehat{w}({\bmx_i^s})^2-\frac{1}{N_t}\sum_{j=1}^{N_t}\widehat{w}({\bmx_j^t})\\&=\frac{1}{2}\sum_{l,l'=1}^b\alpha_l\alpha_{l'}\left(\frac{1}{N_s}\sum_{i=1}^{N_s}\psi_l({\bmx_i^s})\psi_{l'}({\bmx_i^s})\right)-\sum_{l=1}^b\alpha_l\left(\frac{1}{N_t}\sum_{j=1}^{N_t}\psi_l({\bmx_j^t})\right)\\&=\frac{1}{2}{\bm\alpha}^T\widehat{H}{\bm\alpha}-\widehat{h}^T{\bm\alpha}\end{aligned}\label{jhatalpha}\end{equation}ここで$\widehat{H}$は$b\timesb$の行列であり,その$l$行$l'$列の要素$\widehat{H}_{l,l'}$は以下である.\[\widehat{H}_{l,l'}=\frac{1}{N_s}\sum_{i=1}^{N_s}\psi_l({\bmx_i^s})\psi_{l'}({\bmx_i^s})\]また$\widehat{h}$は$b$次元のベクトルであり,その$l$次元目の要素$\widehat{h}_l$は以下である.\[\widehat{h}_l=\frac{1}{N_t}\sum_{j=1}^{N_t}\psi_l({\bmx_j^t})\]$\widehat{J}({\bm\alpha})$の最小値を求める際に正則化を行う.このとき付加する正則化項をL2ノルムに設定し,${\bm\alpha}>0$の条件を外して,以下の最小化問題を解く.ここでパラメータ$\lambda$が導入されることに注意する.$\lambda$は基底関数を設定する際に決められる.\[\min_{{\bm\alpha}}\left[\frac{1}{2}{\bm\alpha}^T\widehat{H}{\bm\alpha}-\widehat{h}^T{\bm\alpha}+\frac{\lambda}{2}{\bm\alpha}^T{\bm\alpha}\right]\]この最小化問題は制約のない凸2次計画問題であるために,唯一の大域解が得られる.その解は以下である.\begin{equation}\label{eq:alp-kai1}\tilde{{\bm\alpha}}=(\widehat{H}+\lambdaI_b)^{-1}\widehat{h}^T\end{equation}最後に${\bm\alpha}>0$の条件に合わせるように,以下の調整を行う.\begin{equation}\begin{aligned}[b]\widehat{{\bm\alpha}}&=\left((\max(0,\tilde{\alpha_1}),\max(0,\tilde{\alpha_2}),\cdots,\max(0,\tilde{\alpha_b})\right)\\&=\max(0_b,\tilde{{\bm\alpha}})\end{aligned}\label{eq:alp-kai2}\end{equation}パラメータ$b$と基底関数の設定であるが,まず,$b$については以下で設定する\footnote{本実験では$b$の値は最大100となるが,この100という数値はオリジナルの論文\cite{kanamori2009least}で使われた値であり,本論文でのなんらかの予備実験から得た値ではない.uLSIFの実験結果はこの値を調整することで多少の向上があったかもしれない.}.\[b=\min(100,N_t)\]次にターゲット領域のデータから重複を許さずに$b$個の点をランダムに取り出す.それらの点を$\{{\bmx_j^t}\}_{j=1}^b$とおく.そして基底関数$\psi_l({\bmx})$を以下のガウシアンカーネルで定義する.\[\psi_l({\bmx})=K({\bmx},{\bmx_l^t})=\exp\left(-\frac{||{\bmx}-{\bmx_l^t}||^2}{\sigma^2}\right)\]以上より,確率密度比を求めるために残されているパラメータは正則化項の係数$\lambda$とガウシアンカーネルの幅$\sigma$の2つである.これらのパラメータはグリッドサーチの交差検定で求める.まずソース領域のデータとターゲット領域のデータをそれぞれ交わりのない$R$個の部分集合に分割する.それらの部分集合の中で$r$番目の部分集合を除き,残りを結合した集合を作る.それらを新たなソース領域のデータとターゲット領域のデータと見なす.そして$\lambda$と$\sigma$をある値に設定し,\mbox{式(\ref{eq:alp-kai1})}と\mbox{式(\ref{eq:alp-kai2})}より${\bm\alpha}$を求め,\mbox{式(\ref{jhatalpha})}より$\widehat{J}({\bm\alpha})^{(r)}$の値を求める.$r$を1から$R$まで変化させることで,$R$個の$\widehat{J}({\bm\alpha})^{(r)}$の値が求まり,それらを平均した値を$\lambda$と$\sigma$に対する$\widehat{J}({\bm\alpha})$の値とする.次に$\lambda$と$\sigma$を変化させ,上記手順で得られる$\widehat{J}({\bm\alpha})$の値が最小となる$\hat{\lambda}$と$\hat{\sigma}$を求め,これを$\lambda$と$\sigma$の推定値とする.\subsection{$P_S({\bmx})$の補正による確率密度比の算出}WSDのタスクではNB法あるいはuLSIFで算出される確率密度比は小さい値を取る傾向があり,実際の学習で用いる際には,少し上方に修正した値を取る方が最終の識別結果が改善されることが多い.これは以下の2点から生じていると考えられる.\begin{itemize}\item$T$に${\bmx}$が入っているかは確率的であるが,$S$には必ず${\bmx}$が入っている.\item$P_S({\bmx})$を推定するために${\bmx}\inS$を用いるため,訓練データである${\bmx}$に過学習した結果$P_S({\bmx})$は$P_T({\bmx})$に比べて高く見積もられてしまう.\end{itemize}このため,求まった確率密度比を上方に修正する手法が存在する.論文\cite{sugiyama-2006-09-05}では確率密度比$w({\bmx})$を$p$乗($0<p<1$)することを提案している.また論文\cite{yamada2011relative}では以下で示される相対確率密度比$w'({\bmx})$を確率密度比として利用することを提案している.\[w'({\bmx})=\frac{P_T({\bmx})}{\alphaP_S({\bmx})+(1-\alpha)P_T({\bmx})}\]ここで$0<\alpha<1$である.確率密度比$w({\bmx})$が1以下である場合,$w({\bmx})$を$p$乗すると上方に修正できることは,それらの比の対数を取れば,\mbox{$\logw({\bmx})<0$}であることから明らかである.\[\log\frac{w({\bmx})^p}{w({\bmx})}=(p-1)\logw({\bmx})>0\]また相対確率密度比$w'({\bmx})$は以下の変形から$w({\bmx})$を上方に修正していると見なせる.\begin{align*}w'({\bmx})&=\frac{P_T({\bmx})}{\alphaP_S({\bmx})+(1-\alpha)P_T({\bmx})}\\&=\frac{1}{\alpha+(1-\alpha)w({\bmx})}w({\bmx})\\&>\frac{1}{\alpha+(1-\alpha)}w({\bmx})\\&=w({\bmx})\end{align*}確率密度比が1以上である場合,これらの手法は確率密度比を下方に修正するので,正確には確率密度比を1に近づける手法である.しかし,ほとんどの訓練データの確率密度比は1以下であるために,ここではこれらの手法を上方修正する手法と呼び,提案手法と対比させる.本論文では確率密度比を上方に修正するために,ソース領域のデータとターゲット領域のデータを合わせたデータを新たにソース領域のデータとみなし,NB法を用いて$P_S({\bmx})$を補正することを提案する.これは$S$のスパース性を緩和させることを狙ったものである.確率密度比が真の値よりも低く見積もられる原因の1つは,$P_S({\bmx})$が真の値よりも高く見積もられるからだと考える.さらにその原因が$S$のスパース性なので,スパース性を緩和するために$S$にデータを追加するというアイデアである.ただし追加するデータは$S$と類似の領域のデータであることが望ましい.WSDの領域適応の場合,$S$と$T$は完全に異なることはなく,比較的似ているために,追加するデータとして$T$のデータが利用できると考えた.提案手法の新たなソース領域を$S+T$で表せば,$P_S({\bmx})>P_{S+T}({\bmx})$が成立していると考えるのは自然であり,この不等式が成立していれば,提案手法により確率密度比は上方に修正される.ただし,ここで提案手法は必ずしもNB法の確率密度比を上方に修正できるとは限らないことに注意する.また提案手法はNB法の確率密度比が1以下かどうかには無関係であることにも注意する.NB法の確率密度比が1以上であっても,上方に修正する可能性がある.また$P_{S+T}({\bmx})$は以下の式を利用して求められる.\begin{align*}P_{S+T}(f)&=\frac{n(S+T,f)+1}{N(S+T)+2}\\&=\frac{n(S,f)+n(T,f)+1}{N(S)+N(T)+2}\end{align*} \section{実験} BCCWJのPB(書籍),OC(Yahoo!知恵袋)及びPN(新聞)を異なった領域として実験を行う.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれら領域のコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.この3つの領域からある程度頻度のある多義語16単語をWSDの対象単語とする.これら単語と辞書上での語義数及び各コーパスでの頻度と語義数を\mbox{表\ref{tab:target-word}}に示す\footnote{語義は岩波国語辞書がもとになっている.そこでの中分類までを対象にした.また「入る」は辞書上の語義が3つだが,OCやPBでは4つの語義がある.これはSemEval-2の日本語WSDタスクでは新語義のタグも許しているからである.}.領域適応の方向としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りの方向が存在する.\begin{table}[t]\caption{対象単語}\label{tab:target-word}\input{02table01.txt}\end{table}本稿で利用した素性は以下の8種類である.(e0)$w$の表記,(e1)$w$の品詞,(e2)$w_{-1}$の表記,(e3)$w_{-1}$の品詞,(e4)$w_1$の表記,(e5)$w_1$の品詞,(e6)$w$の前後3単語までの自立語の表記,(e7)e6の分類語彙表の番号の4桁と5桁.なお対象単語の直前の単語を$w_{-1}$,直後の単語を$w_1$としている.対象単語$w$についてソース領域$S$からターゲット領域$T$への領域適応の実験について説明する.ソース領域$S$の訓練データのみを用いて,手法Aにより分類器を学習し$w$に対する正解率を求める.16種類の各対象単語($w_1,w_2,\cdots,w_{16}$)に対する正解率の平均,つまりマクロ平均をソース領域$S$からターゲット領域$T$に対する手法Aの正解率とする.結果,手法Aについて6種類の各領域適応に対しての正解率が得られる.それらの平均を手法Aの平均正解率とする.上記の手法Aとしては,以下の8種類を試す.(1)重みを考慮しない(重みを1で固定する)手法(Base),(2)NB法による重みをつけた手法(NB),(3)NB法の重みを$p$乗した値を重みにする手法(P-NB),(4)NB法の重みを相対確率密度比により上方修正した値を重みにする手法(A-NB),(5)uLSIFによる重みをつけた手法(uLISF),(6)uLSIFの重みを$p$乗した値を重みにする手法(P-uLSIF),(7)uLSIFの重みを相対確率密度比により上方修正した値を重みにする手法(A-uLSIF),(8)提案手法,またすべての手法において学習アルゴリズムとしては最大エントロピー法を用いた.またその実行にはツールのClassiasを用いた\cite{Classias}.$S$から$T$への領域適応における各手法の正解率を\mbox{表\ref{tab:resultall}}に示す.ただしP-NB,A-NB,P-uLSIF,A-uLSIFについては$p$と$\alpha$のパラメータが存在する.これらの値については,その値を0.01から0.09まで0.01刻み,及び0.1から0.9まで0.1刻みで変化させ,平均正解率が最もよい値を示した値を採用した.結果,P-NBについては$p=0.2$,A-NBについては$\alpha=0.01$,P-uLSIFについては$p=0.04$,A-uLSIFについては$\alpha=0.01$の値を採用した.\mbox{表\ref{tab:resultall}}が示すように,領域適応のタイプ毎に最適な手法は異なるが,平均正解率としては提案手法が最も高い値を示した.またP-NBとA-NBの平均正解率はNBの平均正解率よりも高く,P-uLSIFとA-uLSIFの平均正解率はuLSIFの平均正解率よりも高い.つまり確率密度比を上方に修正する手法が有効であったことがわかる.\begin{table}[b]\caption{各手法の平均正解率(\%)}\label{tab:resultall}\input{02table02.txt}\end{table}また有意差を検定するために以下の実験を行った.まず対象単語毎にOCのデータからランダムに9割のデータ取り出し,それらのデータセットをOC-1とする.これを20回行い,OC-1,OC-2,$\cdots$,OC-20を作成する.同様にPBのデータからPB-1,PB-2,$\cdots$,PB-20を作成する.また同様にPNのデータからPN-1,PN-2,$\cdots$,PN-20を作成する.そしてデータセットの組(OC-i,PB-i,PN-i)を用いて,前述した実験と同様の実験を行い,20個の平均正解率を算出しt-検定(両側検定の有意水準5\%)を行った.結果を\mbox{表\ref{tab:kentei}}に示す.\mbox{表\ref{tab:kentei}}における評価値は以下の式により計算されたものである.\[\frac{\bar{X_1}-\bar{X_2}}{\sqrt{\left(\frac{1}{n_2}+\frac{1}{n_2}\right)\frac{n_1S_1^2+n_2S_2^2}{n_1+n_2-2}}}\]ここで$\bar{X_1}$と$S_1^2$が提案手法の20個の平均正解率の平均と分散であり,$\bar{X_2}$と$S_2^2$が比較対象の手法の20個の平均正解率の平均と分散である.$n_1$と$n_2$は共にサンプル数20である.この評価値が自由度38のt分布の0.975の分位点2.0244よりも大きい場合に,提案手法が対応する手法に対して有意であると判定される.\begin{table}[b]\caption{有意差の検定結果}\label{tab:kentei}\input{02table03.txt}\end{table}\mbox{表\ref{tab:kentei}}が示すようにP-NB以外の全ての手法に対して,提案手法が有意に優れていた. \section{考察} \subsection{確率密度比を上方修正しないケース}「$p$乗する」あるいは「相対確率密度比を取る」という手法は,元の確率密度比が1以下である全てのデータに対してその値を上方に修正するが,提案手法は一部のデータに対してはNB法の確率密度比が1以下であっても,それらを上方に修正できない.提案手法により確率密度比の値が大きくならず,逆に小さくなったデータの個数を\mbox{表\ref{tab:down}}に示す.\begin{table}[b]\caption{上方修正できなかったデータの個数}\label{tab:down}\input{02table04.txt}\end{table}ほとんどのデータに対して,その確率密度比を上方に修正しているが,修正できていないデータが極端に多いケースも存在する.例えば,PB→PNに関しては「言う」「自分」「見る」「やる」「ゆく」,OC→PNに関しては「書く」「見る」「やる」「ゆく」である.これらに関してのみBaseとNBと提案手法の正解率の比較を\mbox{表\ref{tab:down-pre}}に示す.\mbox{表\ref{tab:down-pre}}からわかるように,上方修正ができないデータが多くなると,提案手法はNB法よりも正解率が下がっている.ただし,下方に修正した場合には必ず正解率が下がるとも言えないことに注意したい.例えば,確率密度比の値を下げないようにするには提案手法を修正し,「NB法の値を上方に修正できなければ,NB法の値をそのまま使う」という形にすれば良い.この修正案の手法も試した結果を\mbox{表\ref{tab:resultsyuusei}}に示す.修正案の手法の平均正解率は,提案手法よりも若干悪かった.\begin{table}[t]\caption{上方修正できなかったデータの正解率(\%)}\label{tab:down-pre}\input{02table05.txt}\end{table}\begin{table}[t]\caption{修正版提案手法の平均正解率(\%)}\label{tab:resultsyuusei}\input{02table06.txt}\end{table}上記の実験はNB法による確率密度比が1以下かどうかは考慮していない.「p乗する」や「相対確率密度比を取る」手法では,確率密度比が1以上の場合に,その値を逆に小さくしている.確率密度比が1以上の場合に,上方修正する方がよいのか下方修正する方がよいのかは未解決である.参考として上記の修正案の手法を更に修正し,「NB法の値が1以上の場合,あるいはNB法の値を上方に修正できな場合にはNB法の値をそのまま使う」という形の実験も行った.結果,平均正解率は72.14と若干改善はされたが,提案手法よりも若干悪いことに変化はなかった.データの確率密度比(重み)はその値の大きさが重要ではなく,他データとの重みとの関係が本質的である.例えば全てのデータの重みを10倍して,値自体を増やしても,推定できるパラメータが変化しないのは,重み付き対数尤度(\mbox{式\ref{eq:2}})の最大化する部分が変化しないことから明らかである.データの重みはタスクの背景知識から,その重要度を設定していくか,そのデータを数値化した後に確率密度比という観点から設定していくしか方法はないと考える.提案手法は後者であり,コーパスのスパース性への対処からNB法を改良した手法と考えている.上方修正することに,どのような意味があるかを調べることは今後の課題である.\subsection{提案手法の重みの上方修正}\begin{figure}[b]\begin{center}\includegraphics{21-5ia2f1.eps}\end{center}\caption{$p$乗による提案手法値の上方修正}\label{zu1}\end{figure}\begin{figure}[tb]\begin{center}\includegraphics{21-5ia2f2.eps}\end{center}\caption{相対確率密度比による提案手法値の上方修正}\label{zu2}\end{figure}提案手法は,確率密度比を上方修正する手法と組み合わせて利用することで更なる精度改善も可能である.提案手法の確率密度比を$p$乗した場合の平均正解率の変化を\mbox{図\ref{zu1}}に示す.$p=0.6$のとき最大値72.54\%をとった.また提案手法の確率密度比に対してパラメータ$\alpha$の相対確率密度比をとった場合の平均正解率の変化を\mbox{図\ref{zu2}}に示す.$\alpha=0.6$のとき最大値72.30\%をとった.ともに確率密度比を上方修正することで平均正解率は改善されている.本論文の以降の記述において,提案手法の重みを$p$乗した値を重みにする手法を「P-提案手法」,提案手法の重みを相対確率密度比により上方修正した値を重みにする手法を「A-提案手法」と名付ける.ここで$p=0.6$,$\alpha=0.6$である.また前節で行った有意差の検定を「P-提案手法」と「A-提案手法」に対しても行った.結果,「P-提案手法」はP-NBや提案手法を含む全ての手法に対して有意に優れていた.ただし「A-提案手法」はP-NBや提案手法とに有意な差はなかった.\subsection{Misleadingデータからの評価}本論文で提案した確率密度比(重み)はNB法やuLSIFによる確率密度比よりも,有効に機能していた.ただし真の確率密度比の値は未知であるために,真の値に近いかどうかという観点での評価は不可能である.また重みの設定だけで,どの程度まで平均正解率が向上できるのかも未知である.一方,Misleadingデータを削除してから学習を行うことでかなりの精度向上が可能であることが論文\cite{yoshida}により示されている.Misleadingデータを削除してから学習することは,Misleadingデータの重みを0,それ以外のデータの重みを1とした重み付き学習と見なせる.この重み付けが真の確率密度比と類似しているかどうかは不明だが,Misleadingデータに対してはできるだけ小さな重みを与える手法が優れているとみなせる.そこでここでは各手法においてMisleadingデータに付与された重みを調べることで手法を評価する.まず論文\cite{yoshida}で行ったように,しらみつぶしにMisleadingを見つけ出す.領域$S$から領域$T$の領域適応において,対象単語$w$の$S$上のラベル付きデータ$D$が存在する.まず$D$で学習した識別器の$T$に対する正解率$p_0$を測る.次に$D$から1つデータ$x$を取り除き,$D-\{x\}$から学習した識別器の$T$に対する正解率$p_1$を測る.$p_1>p_0$となった場合,データ$x$をMisleadingデータと見なす.これを$D$内のすべてのデータに対して行い,$S$から$T$の領域適応における対象単語$w$のMisleadingデータを見つける.この処理によって見つけ出されたMisleadingデータの個数を\mbox{表\ref{tab:mislead}}示す.括弧内の数値は全データ数である.またMisleadingによる重みを用いた学習の識別結果を\mbox{表\ref{tab:resultmis}}に示す.表中のMisleadがそれにあたる.本論文の実験で得られている平均正解率よりもかなり高い.つまり重みの設定のみでもBaseの平均正解率71.71\%を少なくとも75.42\%まで改善可能である.\begin{table}[t]\caption{Misleadingデータの個数}\label{tab:mislead}\input{02table07.txt}\end{table}\normalsize\begin{table}[t]\caption{Misleadingによる重みを用いた学習の平均正解率(\%)}\label{tab:resultmis}\input{02table08.txt}\end{table}次に各手法がMisleadingデータに付与した重みにより手法を評価する.領域$S$から領域$T$の領域適応において,対象単語$w$の$S$上のラベル付きデータを$D=\{x_i\}_{i=1}^{N_w}$とする.まず$D$内のデータの重みの平均値$m_w$を調べる.\[m_w=\frac{1}{N_w}\sum_{i=1}^{N_w}w(x_i)\]次に$D$内のMisleadingデータを$\{x'_j\}_{j=1}^{M_w}$とする.各$x'_j$の重み$w(x'_j)$が$m_w$と比較して小さな値であればよいので,対象単語$w$に関するMisleadingデータを用いた評価値$d_w$を以下で測る.\[d_w=\frac{1}{M_w}\sum_{j=1}^{M_w}\frac{w(x'_j)}{m_w}\]$d_w$は対象単語$w$の訓練データの重みの平均値$m_w$に対して,Misleadingデータ$x'_j$の重み$w(x'_j)$の比を取り,その比の平均を取ったものである.このため$d_w$の値が小さいほど,適切に重み付けできていると考えられる.そして$d_w$の各単語に関して平均を取った値を,その手法における$S$から$T$のMisleadingデータを用いた評価値(小さいほど良い)とする.これをまとめたものが\mbox{表\ref{tab:miseval}}である.\mbox{表\ref{tab:miseval}}が示すように,Misleadingデータを用いた評価では,NB法,uLSIF及び提案手法の3つの中でuLSIFが最も優れている.ただし提案手法はNB法よりも優れていた.更に全ての手法において「$p$乗する」,あるいは「相対確率密度比を取る」ことで評価値は改善されており,重みを上方修正する効果があることがわかる.また「$p$乗する」と「相対確率密度比を取る」を比較すると,「$p$乗する」方が効果があることもわかる.\begin{table}[t]\caption{Misleadingデータからの評価値}\label{tab:miseval}\input{02table09.txt}\end{table}\subsection{負の転移の有無}NB法やuLSIFはBaseよりも平均正解率が低い.これは確率密度比からの重み付き学習が効果がなかったことを示している.この原因として,WSDの領域適応では,領域の変化はあるが,実際には領域適応の問題が生じていない,つまり負の転移\cite{rosenstein2005transfer}が生じていない対象単語がかなり存在するからだと考える.負の転移が生じていなければ,訓練データを全て利用して学習する方が有利であることは明らかであり,重みをつけると逆効果になると考えられる.この点を確認するために,負の転移が生じているものと生じていないものに分けて,各手法の平均正解率を測ってみる.まず負の転移が生じている単語の判定であるが,これは\mbox{表\ref{tab:mislead}}で示したMisleadingデータの個数から行う.ここではMisleadingデータが全データの1割以下の場合,負の転移が生じないと判定した.結果を\mbox{表\ref{tab:mislead2}}に示す.チェックが付いているものが「負の転移が生じない」と判定したものである.\mbox{表\ref{tab:mislead2}}でチェックがついていない対象単語に限定して,各手法の平均正解率を測った結果が\mbox{表\ref{tab:del-fu-kekka}}である.また逆に\mbox{表\ref{tab:mislead2}}でチェックがついている対象単語に限定して,各手法の平均正解率を測った結果が\mbox{表\ref{tab:del-fu-kekka2}}である.\begin{table}[t]\caption{負の転移が生じない単語}\label{tab:mislead2}\input{02table10.txt}\end{table}\begin{table}[t]\caption{負の転移が生じる単語に限定した平均正解率(\%)}\label{tab:del-fu-kekka}\input{02table11.txt}\end{table}\mbox{表\ref{tab:del-fu-kekka}}と\mbox{表\ref{tab:del-fu-kekka2}}からわかるように,NB法やuLSIFは負の転移が生じる,生じないに関わらず,Baseよりも平均正解率が低く,本実験においては有効ではなかった.一方,提案手法は負の転移が生じる場合でも,生じない場合でもBaseよりも平均正解率が高く,どちらの場合でも有効であることがわかる.また負の転移が生じる場合,提案手法の平均正解率はNB法の平均正解率の1.09倍であり,uLSIFの平均正解率1.05倍である.一方,負の転移が生じない場合,提案手法の平均正解率はNB法の平均正解率の1.02倍であり,uLSIFの平均正解率1.03倍である.つまり負の転移が生じるケースで提案手法と既存手法(NB法,uLSIF)との差が大きくなる.更に確率密度比を上方修正する効果をみてみる.負の転移が生じる場合,NB法は平均正解率60.69\%が$p$乗することで65.19\%,相対確率密度比を取ることで65.35\%まで向上しているので,平均的には7.5\%平均正解率が向上している\footnote{$((65.19+65.35)/2)/60.69\approx1.075$から算出した.}.同様に計算してuLSIFの平均正解率は3.6\%,提案手法の平均正解率は0.5\%向上している.負の転移が生じない場合,NB法は1.4\%,uLSIFは2.8\%平均正解率が向上している.また提案手法では平均正解率はほとんど変化しない.つまり確率密度比を上方修正する効果は負の転移が生じるケースで顕著になっている.\begin{table}[t]\caption{負の転移が生じない単語に限定した平均正解率(\%)}\label{tab:del-fu-kekka2}\input{02table12.txt}\end{table}今後の課題としてはMisleadingデータの検出方法を考案することである.Misleadingデータを検出し,そのデータに重みを0にすることはかなりの精度向上が期待できる.またMisleadingデータの割合から負の転移の有無を判定し,負の転移が生じる問題にだけ,重み付け学習手法を適用するアプローチも効果があると考えられる.\subsection{トピックモデルの利用}論文\cite{shinnou-gengo-13}は本論文と同じタスクに対して一部同じデータを用いた実験結果を示している.ここではそこでの実験結果の値と本論文の実験結果の値を比較し,手法間の違いを考察する.論文\cite{shinnou-gengo-13}の核となるアイデアは,ターゲット領域$T$のトピックモデルを作成し,ターゲット領域に特有のシソーラスを構築することである.このシソーラスの情報を素性として組み込むことで,識別精度を上げることを狙っている.実験はOC→PBと\mbox{PB→OC}の2方向である.また対象単語は本論文の16単語の他「来る」が含まれている\footnote{本論文では「来る」はPNの領域において曖昧性がないため対象単語から外した.}.\begin{table}[p]\caption{正解率(\%)の比較(OC→PB)}\label{tm-hikaku1}\input{02table13.txt}\end{table}\begin{table}[p]\caption{正解率(\%)の比較(PB→OC)}\label{tm-hikaku2}\input{02table14.txt}\end{table}OC→PBとPB→OCの領域適応における,本論文の対象単語16単語についての識別精度の比較を\mbox{表\ref{tm-hikaku1}}と\mbox{表\ref{tm-hikaku2}}に示す.なお表中のSVM-TM-kNNは論文\cite{shinnou-gengo-13}の手法を意味する.対象単語に応じて最も高い正解率の手法は異なるが,平均的にはSVM-TM-kNNが最も高い正解率を示している.ただしSVM-TM-kNNはトピックモデルを構築するために,ターゲット領域のコーパスを利用していることに注意したい.本論文の提案手法はターゲット領域の対象単語の用例を用いているが,コーパスは利用していない.つまり利用しているリソースが異なるために,単純にSVM-TM-kNNが提案手法よりも優れているとは結論できない.またSVM-TM-kNNにおけるトピックモデルは素性構築の際に利用されているだけであり,提案手法と競合するものではない.つまりSVM-TM-kNNの手法を利用して,WSDでの素性を構築し,それに対して本論文の提案手法を適用することも可能である.今後はこの方向での改良も試みたい. \section{おわりに} 本論文では,WSDの領域適応に対して,共変量シフト下の学習を試みた.共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSDのタスクでは算出される確率密度比が小さくなる傾向があるため,ソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なしてNB法を用いる手法を提案した.BCCWJの3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)に共通して出現する多義語16単語を対象にして,WSDの領域適応の実験を行った.NB法,uLSIF及び提案手法を比較すると,提案手法が最も高い平均正解率を出した.また「$p$乗する」や「相対確率密度比を取る」といった確率密度比を上方修正する手法も試し,提案手法のように確率密度比を上方修正する効果を確認した.またMisleadingデータをしらみつぶし的に取り出し,Misleadingデータを用いた手法の評価も行った.Misleadingデータを利用した評価ではuLSIFが優れていたが,提案手法はNB法の改良になっていることを確認できた.WSDの領域適応の場合,Misleadingデータの検出あるいは負の転移の有無を判定することが,精度改善に大きく寄与できる.今後はこの点の研究を進めたい.またトピックモデルの利用も検討したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2005}]{chan2005word}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithDistributionEstimation.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-2005},\mbox{\BPGS\1010--1015}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{chan2006estimating}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingClassPriorsinDomainAdaptationforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofCOLING-ACL-2006},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Chapelle,Sch{\"o}lkopf,\BBA\Zien}{Chapelleet~al.}{2006}]{chapelle2006semi}Chapelle,O.,Sch{\"o}lkopf,B.,\BBA\Zien,A.\BBOP2006\BBCP.\newblock{\BemSemi-SupervisedLearning},\lowercase{\BVOL}~2.\newblockMITpressCambridge.\bibitem[\protect\BCAY{Daum{\'{e}}}{Daum{\'{e}}}{2007}]{daume0}Daum{\'{e}},H.~I.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jiang2007instance}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceWeightingforDomainAdaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{joachims1999transductive}Joachims,T.\BBOP1999\BBCP.\newblock\BBOQTransductiveInferenceforTextClassificationusingSupportVectorMachines.\BBCQ\\newblockIn{\BemICML},\lowercase{\BVOL}~99,\mbox{\BPGS\200--209}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{kamishima}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\\newblock\Jem{人工知能学会誌},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{Kanamori,Hido,\BBA\Sugiyama}{Kanamoriet~al.}{2009}]{kanamori2009least}Kanamori,T.,Hido,S.,\BBA\Sugiyama,M.\BBOP2009\BBCP.\newblock\BBOQALeast-SquaresApproachtoDirectImportanceEstimation.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf10},\mbox{\BPGS\1391--1445}.\bibitem[\protect\BCAY{古宮\JBA奥村}{古宮\JBA奥村}{2012}]{komiya-nlp2012}古宮嘉那子\JBA奥村学\BBOP2012\BBCP.\newblock語義曖昧性解消のための領域適応手法の決定木学習による自動選択.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\143--166}.\bibitem[\protect\BCAY{古宮\JBA小谷\JBA奥村}{古宮\Jetal}{2013}]{komiya-nenji2013}古宮嘉那子\JBA小谷善行\JBA奥村学\BBOP2013\BBCP.\newblock語義曖昧性解消の領域適応のための訓練事例集合の選択.\\newblock\Jem{言語処理学会第19回年次大会},\mbox{\BPGS\C6{--}2}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{komiya3}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQAutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationusingDecisionTreeLearning.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP-2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2012}]{komiya2}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2012\BBCP.\newblock\BBOQAutomaticDomainAdaptationforWordSenseDisambiguationBasedonComparisonofMultipleClassifiers.\BBCQ\\newblockIn{\BemProceedingsofPACLIC-2012},\mbox{\BPGS\75--85}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2007}]{bccwj}Maekawa,K.\BBOP2007\BBCP.\newblock\BBOQDesignofaBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemSymposiumonLarge-ScaleKnowledgeResources(LKR2007)},\mbox{\BPGS\55--58}.\bibitem[\protect\BCAY{森}{森}{2012}]{mori}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\\newblock\Jem{人工知能学会誌},{\Bbf27}(4),\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{Okazaki}{Okazaki}{2009}]{Classias}Okazaki,N.\BBOP2009\BBCP.\newblock\BBOQClassias:ACollectionofMachine-LearningAlgorithmsforClassification.\BBCQ.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Rosenstein,Marx,Kaelbling,\BBA\Dietterich}{Rosensteinet~al.}{2005}]{rosenstein2005transfer}Rosenstein,M.~T.,Marx,Z.,Kaelbling,L.~P.,\BBA\Dietterich,T.~G.\BBOP2005\BBCP.\newblock\BBOQToTransferorNottoTransfer.\BBCQ\\newblockIn{\BemProceedingsoftheNIPS2005WorkshoponInductiveTransfer:10YearsLater}.\bibitem[\protect\BCAY{齋木\JBA高村\JBA奥村}{齋木\Jetal}{2008}]{saiki-2008-03-27}齋木陽介\JBA高村大也\JBA奥村学\BBOP2008\BBCP.\newblock文の感情極性判定における事例重み付けによるドメイン適応.\\newblock\Jem{情報処理学会第184回自然言語処理研究会,NL-184-10}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2013}]{shinnou-gengo-13}新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockk近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\707--726}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2014}]{shinnou-gengo-14}新納浩幸\JBA佐々木稔\BBOP2014\BBCP.\newblock共変量シフトの問題としての語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\61--79}.\bibitem[\protect\BCAY{新納\JBA國井\JBA佐々木}{新納\Jetal}{2014}]{shinnou-jws5}新納浩幸\JBA國井慎也\JBA佐々木稔\BBOP2014\BBCP.\newblock語義曖昧性解消を対象とした領域固有のシソーラスの構築.\\newblock\Jem{第5回コーパス日本語学ワークショップ},\mbox{\BPGS\199--206}.\bibitem[\protect\BCAY{Sogaard}{Sogaard}{2013}]{da-book}Sogaard,A.\BBOP2013\BBCP.\newblock{\BemSemi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}.\newblockMorgan\&Claypool.\bibitem[\protect\BCAY{杉山}{杉山}{2006}]{sugiyama-2006-09-05}杉山将\BBOP2006\BBCP.\newblock共変量シフト下での教師付き学習.\\newblock\Jem{日本神経回路学会誌},{\Bbf13}(3),\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{杉山}{杉山}{2010}]{sugiyama-2010}杉山将\BBOP2010\BBCP.\newblock密度比に基づく機械学習の新たなアプローチ.\\newblock\Jem{統計数理},{\Bbf58}(2),\mbox{\BPGS\141--155}.\bibitem[\protect\BCAY{Sugiyama\BBA\Kawanabe}{Sugiyama\BBA\Kawanabe}{2011}]{sugiyama-book}Sugiyama,M.\BBACOMMA\\BBA\Kawanabe,M.\BBOP2011\BBCP.\newblock{\BemMachineLearninginNon-StationaryEnvironments:IntroductiontoCovariateShiftAdaptation}.\newblockMITPress.\bibitem[\protect\BCAY{高村}{高村}{2010}]{takamura}高村大也\BBOP2010\BBCP.\newblock\Jem{言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{Yamada,Suzuki,Kanamori,Hachiya,\BBA\Sugiyama}{Yamadaet~al.}{2011}]{yamada2011relative}Yamada,M.,Suzuki,T.,Kanamori,T.,Hachiya,H.,\BBA\Sugiyama,M.\BBOP2011\BBCP.\newblock\BBOQRelativeDensity-ratioEstimationforRobustDistributionComparison.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf25}(5),\mbox{\BPGS\1370--1370}.\bibitem[\protect\BCAY{吉田\JBA新納}{吉田\JBA新納}{2014}]{yoshida}吉田拓夢\JBA新納浩幸\BBOP2014\BBCP.\newblock外れ値検出手法を利用したMisleadingデータの検出.\\newblock\Jem{第5回コーパス日本語学ワークショップ},\mbox{\BPGS\49--56}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V17N01-06
\section{はじめに} 質問応答,情報抽出,複数文章要約などの応用では,テキスト間の含意関係や因果関係を理解することが有益である.例えば,動詞「洗う」と動詞句「きれいになる」の間には,「何かを洗うという行為の結果としてその何かがきれいになる」という因果関係を考えることができる.本論文では,このような述語または述語句で表現される事態と事態の間にある関係を大規模にかつ機械的に獲得する問題について述べる.事態表現間の因果関係,時間関係,含意関係等を機械的に獲得する研究がいくつか存在する~\cite[etc.]{lin:01,inui:DS03,chklovski,torisawa:NAACL,pekar:06,zanzotto:06,abe:08}.事態間関係の獲得を目的とする研究では,事態を表現する述語(または述語句)の間でどの項が共有されているのかを捉えるということが重要である.例えば,述語「洗う」と述語句「きれいになる」の因果関係は次にように表現できる.\begin{quotation}($X$を)\emph{洗う}$\rightarrow_{因果関係}$($X$が)\emph{きれいになる}\end{quotation}この$X$は述語「洗う」のヲ格と述語句「きれいになる」のガ格が共有されていることを表している.関係$R$を満たす述語対は次のように一般化して表現することができる.\begin{quotation}($X項_{1}$)$\emph{述語}_1$$\rightarrow_{R}$($X項_{2}$)$\emph{述語}_2$\end{quotation}$\emph{述語}_i$は自然言語における述語(または述語句)であり,典型的には動詞または形容詞である.$X$はある述語の項ともう一つの述語の項が共有されていることを表している.我々の目的は,(a)特定の関係を満たす述語対を見付けだし(\emph{述語対獲得}),(b)述語対の間で共有されている項を特定する(\emph{共有項同定})ことである.事態間関係の獲得を目的とする研究は既にいくつかあるが,どの研究も関係述語対獲得または共有項同定の片方の問題のみを対象としており,両方の問題を対象とした研究はない.我々が提案する手法は,目的が異なる2種類の手法を段階的に適用して述語間関係を獲得する手法である. \section{関連研究} \label{sec:related}既存の述語間関係獲得の手法は2種類の手法に分類することができる.本論文ではそれぞれの手法を\emph{パターン方式},\emph{アンカー方式}と呼称する.\subsection{パターン方式}\label{ssec:related_patt}パターン方式に共通する手法は,多数の事例と共起する様な語彙統語的な共起パターンを作成し,これを用いて特定の関係を満たす述語対を獲得するという手法である.パターン方式の中で最も基本的な手法は,\emph{VerbOcean}という知識源を構築するためにChklovskiとPantel~\cite{chklovski}が用いたものである.例えば,\emph{to\bracket{\emph{Verb-X}}andthen\bracket{\emph{Verb-Y}}}~\footnote{共起パターン中の\bracket{~}は変数スロットを意味しており,特定の表現に置き換えることが可能である.また,\bracket{~}の中に記述している情報は語彙または統語的な制約であり,\bracket{Verb-X\,}は\bracket{~}を置き換える表現が動詞であることを表現している.}のような共起パターンを人手で作成し,\emph{strength}(e.g.\emph{taint--poison})という述語間の関係を獲得した.述語間関係毎に共起パターンを人手で作成することで6種類の述語間関係を獲得した.このように人手で作成した共起パターンを用いることで少数の共起パターンを用意するだけで多数の述語間関係を獲得することができるが,獲得した述語間関係の再現率は高いが,精度が低くなる傾向がみられる.例えば,Chklovskiらが約29,000の述語間関係を獲得した実験における精度は約65.5\%であった.これに対し,自動獲得した述語間関係から誤り事例を除くための手法も提案されている~\cite{chklovski,torisawa:NAACL,zanzotto:06,inui:DS03}.近年,Abeら~\cite{abe:08}がPantelとPennacchiotti~\cite{pantel2006}の手法を拡張した.Pantelらの手法は,実体間関係獲得のために提案されたもので,任意の関係のみとよく共起するパターンと実体対をブートストラップ的に獲得する.Abeらはこの手法を述語間関係獲得に適用できるように拡張し,例えば「\bracket{\text{\bfseries名詞}}不足により\bracket{\text{\bfseries動詞}}できなかった」\footnote{この共起パターンは,例えば「\emph{研究}不足により\emph{発見}できなかった」という事例と共起する.}のような,多数の事例とは共起しないが獲得した述語対の精度が高くなる傾向を持つ共起するパターン(特殊な共起パターン)をブートストラップ的に学習し,述語間関係知識を獲得した.\subsection{アンカー方式}\label{ssec:related_anc}アンカー方式は,述語間関係を決めるための手がかりとして述語の項を埋める表現を用い,主に述語間の類義関係を獲得する場合や含意関係を獲得する場合の前処理として利用される.述語の項を埋める表現を取り扱う方法の違いから,アンカー方式を2つに分けることができる.ひとつめ手法はDistributionalHypothesis~\cite{harris}を利用し,述語の項を埋める表現が似ている述語の間には同義関係が成り立つと仮定する方法であり,Linら~\cite{lin:01}とSzpektorら~\cite{szpektor-EtAl:2004:EMNLP}らの研究がこのような手法を用いている.もうひとつの手法はPekar~\cite{pekar:06}が提案している手法である.この手法は,含意関係を満たす動詞対の候補を見付けるために次の2つの基準を用いる.\begin{itemize}\item2つの動詞が同一の談話に出現する.\item2つの動詞の項を埋める表現が指しているものが同一である(これを\emph{アンカー}と呼ぶ).\end{itemize}例えば,次の節対``\emph{Maryboughtahouse.}''と``\emph{ThehousebelongstoMary.}''が同一談話に存在する場合,動詞対\emph{buy}(object:\emph{X})-\emph{belong}(subject:\emph{X})と\emph{buy}(subject:\emph{X})-\emph{belong}(to:\emph{X})は含意関係の候補である\footnote{含意関係の候補となる動詞対を2つ挙げたが,どちらも\emph{buy}と\emph{belong}の対である.2つの動詞対は,それぞれ項が異なるため別の対であるとみなす.}.\subsection{パターン方式とアンカー方式の違い}パターン方式とアンカー方式の2つの手法を説明したが,この2つの手法は独立かつ相補的な関係にある.パターン方式は,アンカー方式と比較して関係の種類を詳細に識別することができ,例えばChklovskiとPantel~\cite{chklovski}が用いたパターンは6種類の関係を認識し,Abeら~\cite{abe:08}はInuiら\cite{inui:DS03}によって定義された4種類の因果関係のうち2種類の関係を認識した.しかし,パターン方式は共起パターンを用いて同一文内で共起した述語対を関係の候補とするが,同一文内ではしばしば述語の項が省略されるため,述語の間で共有されている項を同定することが難しい.例えば,普通は「お茶を淹れてからお茶を飲んだ」とは言わずに「お茶を淹れてから飲んだ」と言うように,同一文内において同じ項が2回以上出現する場合は2回目以降はその項が省略されることが多い.一方,アンカー方式では,述語の間で共有されている項を用いて述語間関係を発見するため,この手法で獲得した述語対は述語間で共有されている項が同定されている.しかし,述語間の関係を決めるために用いる情報がせいぜい項の情報であるため,同義関係や含意関係よりも詳細な因果関係や前提条件を直接的に識別することが難しい.\subsection{パターン方式とアンカー方式の組み合わせ}このような独立的かつ相補的な特徴にも関わらず,2つの手法の組み合わせについては十分に研究が行われていない.興味深い例外としてTorisawa~\cite{torisawa:NAACL}の手法がある.この手法は,一般的な接続表現「\emph{\bracket{Verb-X\,}て\bracket{Verb-Y\,}}」と動詞と項の間の共起情報を組み合わせて時間的な順序関係の制約を持つような事態間の推論規則を獲得する.この手法は有望であるように思えるが,時間的な制約を持つ事態間の推論規則に特化したヒューリスティックを用いているために,別の種類の関係を獲得するためにこの手法を適用できるのかという点が明かではない. \section{2段階述語間関係獲得手法} \label{sec:method}パターン方式の関係指向手法とアンカー方式の類義指向手法を組み合わせる手法を提案する.この手法の概要を\fig{overview}に記す.この手法は述語対獲得と共有項同定の2つの過程からなる.最初にパターン方式を用いて所与の関係を満たす述語対を獲得し,これを述語対候補とする.次に,アンカー方式を用いて各述語対候補のフィルタリングと共有項同定を行う.アンカーとして,インスタンスアンカーとタイプアンカーの2種類を用いる.述語対候補のアンカーを発見した場合,述語対候補は確かに所与の関係にあると見なし,アンカーを共有している述語対の項対を共有項とする.一方で,述語対候補のアンカーがない場合はその述語対候補を破棄する.\sec{result}で示すように,パターン方式とアンカー方式を組み合わせて述語対の関係を判断することにより精度が向上した.\begin{figure}[p]\begin{center}\includegraphics{17-1ia7f1.eps}\end{center}\vspace{-3pt}\caption{2段階述語間関係獲得}\label{fig:overview}\end{figure}\subsection{述語対獲得}\label{ssec:pred_pair}述語対獲得ではパターン方式の手法を用いて,所与の関係にある述語対を獲得する.このとき,パターン方式の手法は,関係を詳細に識別して因果関係のような事態間関係を獲得することができれば任意の手法でもよい.例えば,\ssec{related_patt}で挙げた手法はこの条件を備えているが,\ssec{related_anc}で挙げた手法はこの条件を備えていない.実験ではパターン方式の手法として,Abeら~\cite{abe:08}の手法を用いることにした.その理由は,この手法が獲得した事態対の確からしさを表すスコアを持つため,このスコアを用いて信頼度の高い事態対だけを利用することができるという利点を備えているためである.この手法の詳細は~\cite{abe:08}に記されているが,概要を\sec{patt_method}にも記す.\subsection{共有項同定}\label{ssec:shared_case}共有項同定では,パターン方式を用いて獲得した所与の関係にある述語対候補に対して,アンカーを用いることで,フィルタリングと共有項同定を行う.インスタンスアンカーとタイプアンカーの2種類のアンカーを用いる.この2種類のアンカーはそれぞれ独立的かつ相補的な特徴を持つため,この2つのアンカーを組み合わせることで再現率を向上できる可能性がある.\subsection{共有項同定:インスタンスアンカー}\label{ssec:instance_anc}Pekar~\cite{pekar:06}が動詞間の含意関係を獲得するためにアンカーを用いた方法に示唆を受けて,我々は次の3つの仮説を置いた.\begin{itemize}\item同一談話内において2つの述語が項に同じ名詞表現を伴っているとき,この名詞表現は同じものを指している.\item同一談話内において2つの述語の項が同じものを指しているのであれば,この2つの述語の項は共有されている.\item同一談話内において2つの述語の項が同じものを指しているのであれば,この2つの述語は何らかの関係\footnote{ここで言う関係とは含意関係や因果関係のことである.また述語間の含意関係や因果関係では,述語の間の順序関係が重要であるが,この仮説は順序関係について述べない.}を満たす.\end{itemize}例えば\fig{overview}の(2a)はある文章中の談話である.この談話において,名詞「パン」は2回出現し,1つめの「パン」は「焼く」のヲ格であり,2つめの「パン」は「焦げる」のガ格である.仮説から,2回出現した「パン」は同じ「パン」を指していると仮定でき,「焼く」のヲ格と「焦げる」のガ格は項を共有し,さらに「焼く」と「焦げる」は何らかの関係にあると仮定できる.ここで重要な役割を果す名詞(この例では「パン」)を我々はアンカーと呼び,このようなアンカーを\ssec{type_anc}で述べる「タイプアンカー」と対比させて「インスタンスアンカー」と呼ぶ.述語対$\emph{Pred}_1$,$\emph{Pred}_2$が与えられたとき,次の条件を満たす3つ組\bracket{$\emph{Pred}_1$-$\emph{Arg}_1$;$\emph{Pred}_2$-$\emph{Arg}_2$;\emph{Anc}}を探す.\begin{itemize}\item[(a)]Webページ中に出現した$\emph{Pred}_1$の項の名詞句の主辞$\emph{Arg}_1$をアンカー\emph{Anc}とする.\item[(b)](a)と同じWebページに出現する$\emph{Pred}_2$の項の名詞句の主辞$\emph{Arg}_2$が\emph{Anc}と等しい.\item[(c)]\emph{Anc}がストップリストに含まれていない.\item[(d)]条件$\textit{PMI}(\emph{Pred}_1,\emph{Arg}_1)\geq\alpha$かつ$\textit{PMI}(\emph{Pred}_2,\emph{Arg}_2)\geq\alpha$を満たす(ただし実験では$\alpha=-1$とした).\end{itemize}実験では人手でストップリストを作成した.リストには219語の代名詞,数字,「こと」,「もの」,「とき」のように非常に一般的な名詞を含んでいる.条件(d)の$\textit{PMI}(\emph{Pred}_i,\emph{Arg}_i)$は,\emph{Pred}$_i$と\emph{Arg}$_i$の間の自己相互情報量である.この条件は,係り受け解析器のエラーが原因で誤認したアンカーを除くことを目的としている.インスタンスアンカーの集合は,項の共有関係を持つ述語対の組\emph{Pred}$_1$-\emph{Arg}$_1$と\emph{Pred}$_2$-\emph{Arg}$_2$から次のように求められる.\[\mathit{AnchorSet}(\mathit{Pred}_1\text{-}\mathit{Arg}_1,\mathit{Pred}_2\text{-}\mathit{Arg}_2)=\{\mathit{Arg}|\langle\mathit{Pred}_1\text{-}\mathit{Arg}_1;\mathit{Pred}_2\text{-}\mathit{Arg}_2;\mathit{Anc}\rangle\}.\]Pekarは談話の範囲をできるだけ正確に認識しようと勤めているのに対して,我々は同一Webページに含まれる文を同じ談話であると見なし,同一Webページ内でアンカーを共有している述語対は何らかの関係を持つと仮定した.このようにPekarと比較してより少ない制約のみを用いているにもかかわらず,\sec{result}で示すように我々の手法を用いて良い実験結果を得ることができた.この理由は,我々は少ない制約を用いて談話関係を認識したが,代りに語彙統語的パターンを用いて獲得した述語対を用いたため,これが強い制約となり精度の低下を防いでいると考えられる.\subsection{共有項同定:タイプアンカー}\label{ssec:type_anc}我々は次の仮説を置いた.\begin{itemize}\item同一文内で共起する2つの述語は何らかの関係\footnote{ここで言う関係とは,\ssec{instance_anc}における何らかの関係と同じであり,含意関係や因果関係のことである.また,述語の間の順序関係について述べない.}を満たす.\item同一文内で2つの述語が共起するという状況下において,2つの述語の項が伴う名詞をそれぞれの項毎に独立に集めたとき,2つの名詞集合の両方において出現する名詞は,2つの述語の項の間で共有されるような名詞である.\end{itemize}\fig{overview}の文(3a)と(3b)について考察する.この2文は独立した文であり,同一文章内の2文であっても,異なる文章の2文であってもよい.この2文はともに述語「焼く」と述語「焦げる」を含む.(3a)では名詞「パン」が「焼く」のヲ格にあり,(3b)では名詞「パン」が「焦げる」のガ格にある.ここから名詞「パン」は,「焼く」のヲ格に伴うことができ,かつ「焦げる」のガ格に伴うこともできるということがわかる.仮説から,「焼く」のヲ格と「焦げる」のガ格は同じ名詞(少なくとも名詞「パン」)を伴うことができるということがわかる.このときの名詞「パン」は,「焼く」のヲ格と「焦げる」のガ格が共有項である可能性を示す名詞である.このような名詞を「タイプアンカー」と呼ぶ.この名称の理由は,(3a)の「パン」と(3b)の「パン」は同じものを指していないが,同じタイプであるためである.タイプアンカーの集合は次のように求める.述語対$\emph{Pred}_1$と$\emph{Pred}_2$が与えられたとき,コーパス全体から$\emph{Pred}_1$と$\emph{Pred}_2$が共起する文を探し,次に示すように,どちらか片方の述語の項を埋める名詞の出現頻度を計算する.\begin{itemize}\item$\emph{Pred}_1$の項$\emph{Arg}_1$に名詞\emph{Anc}があれば,\bracket{$\emph{Pred}_1$-$\emph{Arg}_1$;$\emph{Pred}_2$;\emph{Anc}}の頻度を増やす.\item$\emph{Pred}_2$の項$\emph{Arg}_2$に名詞\emph{Anc}があれば,\bracket{$\emph{Pred}_1$;$\emph{Pred}_2$-$\emph{Arg}_2$;\emph{Anc}}の頻度を増やす.\end{itemize}$\emph{Pred}_1$-$\emph{Arg}_1$と$\emph{Pred}_2$-$\emph{Arg}_2$の間で共有された名詞集合の交差集合を計算する.すなわち,\[\mathit{AnchSet}(\mathit{Pred}_1\text{-}\mathit{Arg}_1,\mathit{Pred}_2\text{-}\mathit{Arg}_2)=S_1\capS_2,\]となる.このとき,\begin{align*}S_1&=\{\mathit{Arg}|\langle\mathit{Pred}_1\text{-}\mathit{Arg}_1;\mathit{Pred}_2;\mathit{Anc}\rangle\},\\S_2&=\{\mathit{Arg}|\langle\mathit{Pred}_1;\mathit{Pred}_2\text{-}\mathit{Arg}_2;\mathit{Anc}\rangle\}.\end{align*}である.\subsection{共有項同定:アンカー集合の利用}インスタンスアンカーとタイプアンカーに共通する性質を利用して次の目的を達成する.\begin{itemize}\itemアンカーを持つ述語対候補は何らかの関係を満たすという性質を利用し,何らかの関係を満たさないような述語対候補を除く.\item述語対の項対の共有項を見付けることができるというアンカーの性質を利用し,述語対候補の項対の共有項を同定する.\end{itemize}このとき,ある述語対のある項対に対応するアンカーが見付かった場合,その項対は\emph{アンカーを持つ}と言うことにする.また,ある述語対の項対がアンカーを持てば,その述語対もアンカーを持つとみなす.逆にある述語対の項対がアンカーを持てば,その述語対もアンカーを持つとみなす.\fig{overview}の例を用いて,アンカーによる述語対候補のフィルタリングと共有項同定について説明する.述語対獲得から述語対候補$\emph{焼く}\rightarrow_{行為—効果関係}\emph{焦げる}$を得る.この述語対候補のインスタンスアンカーには「パン」「肉」「オーブン」「トースター」の4つの名詞が存在するため,この述語対候補はインスタンスアンカーを持つ.同様に,タイプアンカーも4つの名詞を持つため,この述語対候補はタイプアンカーも持つ.このときアンカーが存在しなければ,この述語対候補は何の関係も満たさないとみなして候補から除かれるが,この例ではインスタンスアンカーとタイプアンカーを持つため,所与の関係を満たす可能性のある述語対であると見なされる.さらに,この述語対は,アンカー「パン」と「肉」より「焼く」のヲ格と「焦げる」のガ格が共有項であり,アンカー「オーブン」と「トースター」より「焼く」のデ格と「焦げる」のデ格も共有項であるとみなす.アンカーを用いて,述語対獲得によって獲得した述語対候補それぞれに対して次の手続きを実行する.\begin{enumerate}\itemアンカーを持たない述語対を除く.\item述語対毎に項対を選ぶ.このとき頻度の高い項対を最大で$k$個を選ぶ(実験では$k=3$).\item項対毎にアンカーを選ぶ.このとき頻度の高いアンカーを最大で$l$個を選ぶ(実験では$l=3$).\end{enumerate} \section{実験設定} \label{ssec:settings}述語間関係獲得手法の性能を確認するために,Kawaharaとkurohashiが獲得したWebコーパス約5億文~\cite{kawahara:NAACL06}を用いた.このコーパスに含まれる文に対してMecabで形態素解析を行い,CaboCha~\cite{cabocha}で係り受け解析を行い,述語表現の共起事例を獲得した.頻度20回未満の共起パターンを伴う述語表現は計算コストを削減するために削除した.実験では,Inuiら\cite{inui:DS03}の4つの因果関係のうち行為—効果関係(Inuiらの分類ではEffectに相当する)と行為—手段関係(Inuiらの分類ではMeansに相当する)を獲得し,評価した.行為—効果関係は,非意志的な出来事$y$の起るように直接または間接的にしばしば意志的な行為$x$を行うことであり,$x$と$y$の間に必然性がなくてもよい.例えば,行為「Xが運動する」と出来事「Xが汗をかく」は行為—効果関係を満たす.また「飲む」の結果として「二日酔いになる」ことに必然性はないが,これも行為—効果関係を満たす.一方で行為—手段関係は行為$x$を行うためにしばしば行為$y$を行うことであり,$x$と$y$の間に必然性がなくともよい.例えば,「Xが走る」は「Xが運動する」ためにしばしば行うことであるため行為—手段関係を満たす.実験では,12,000以上の動詞に対して意志性の有無を人手で付与した.これには,8,968の意志性のある動詞,3,597の意志性のない動詞,547の意志性の有無が曖昧な動詞を含んでいる.意志性のある動詞は「食べる」「研究する」等であり,意志性のない動詞は「温まる」「壊れる」「悲しむ」等である.この動詞の意志性の有無に関する情報は,共起パターンを用いて述語対を獲得する際に述語の素性として用いる. \section{実験結果} \label{sec:result}\subsection{関係獲得}\label{ssec:result_relation}パターン方式の手法を用いて,行為—効果関係と行為—手段関係の述語対を獲得した.このとき,行為—効果関係では正例25,負例4のシード述語対,行為—手段関係では正例174,負例131のシード述語対を用いた.また,ブートストラップを40回繰り返した後,行為—効果関係では9,511共起パターンと22,489事態対,行為—手段関係では14,119共起パターンと13,121述語対を獲得した.獲得した述語対を信頼度の順番に並べ,4つの範囲(1--500,501--1,500,1,501--3,500,3,501--7,500)からそれぞれ100述語対をランダムに取得した(行為—効果関係の400述語対と行為—手段関係の400述語対の合計800述語対).この述語対候補に対して,アンカー方式を用いてフィルタリングし,共有項を付与した.このとき,インスタンスアンカーまたはタイプアンカーによって共有項を付与された述語対は,行為—効果関係で254述語対,行為—手段関係で254述語対であった.共有項を付与できた事例の一部を\tab{examples}に示す.\begin{table}[b]\caption{獲得した述語対と共有項とアンカーの例}\label{tab:examples}\input{07table01.txt}\end{table}共有項を付与できた述語対と付与できなかった述語対に対して,2人の評価者により述語対の関係が正しいかを判定した(行為—効果関係の400述語対と行為—手段関係の400述語対の合計800述語対を評価した).このとき,与えられた述語対が所与の関係を満たすときに述語対が必要とする項対とアンカーの組を評価者が最低でも1つ以上想像できない場合は,その述語対の関係は正しくないと判断した.例えば,述語対「かける」と「つながる」は正しい行為—効果関係であるが,この関係は,「電話」というアンカーが「かける」のヲ格と「つながる」のガ格が共有項であるときに満たされる.\begin{align*}&かける(を:\mathit{X})\rightarrow_{行為—効果関係}つながる(が:\mathit{X})\\&(X\in\{電話\})\end{align*}評価者は,共有項を付与できた述語対については,評価者は共有項とアンカーを想像するために,機械的に付与された共有項とアンカーを参照してもよいとした\footnote{述語対候補の関係を評価する場合において,機械的に付与された共有項とアンカーは評価者の作業を補助するための情報である.仮に機械的に付与したアンカーと共有項が全て誤りであったとしても,評価者が述語対の関係を誤りであると評価するとは限らない.述語対の関係は,評価者が述語対の関係が正しいときのアンカーと共有項を想像できたかできないかによって決定する.}.2人の評価結果は,400事例のうち,行為—効果関係では294事例,行為—手段関係では297事例が一致し,一致度は然程高くない.しかし,1人目の評価は一貫して厳しい判定基準で,2人目の評価は一貫して寛容な基準であるように見える.その証拠に2人目の評価結果が正しいと仮定した場合,1人目の評価の精度と相対再現率は行為—効果関係で0.71と0.97であり,行為—手段関係で0.75と0.99となり,2人の間で評価の厳しさの基準は異なっているが個々の評価基準は一貫しており,厳しい基準を考えると両者の評価はよく一致していると言える.これを受けて,評価者2人が共に正しいとした事例のみを正解とみなした.\begin{table}[b]\caption{関係獲得の精度と相対再現率}\label{tab:rel-prec}\input{07table02.txt}\end{table}評価結果を\tab{rel-prec}に示す.なお,行為—効果関係の評価結果も行為—手段関係の評価結果も同じ傾向を示しているため,行為—効果関係の評価結果に注目して説明する.また,今回の実験で用いたコーパスから獲得可能な全て行為—効果関係(または行為—手段関係)を満たす述語対のリスト,または,特にコーパスを限定しない行為—効果関係(または行為—手段関係)を満たす述語対のリストを用意することができれば再現率を計算できるが,このようなリストを用意することは困難であり,かつこのようなリストは存在しないため再現率を計算することは難しい.そこで,本実験では我々が評価した400述語対を用いて相対再現率を計算し,ここから本手法が再現率に及ぼす影響を考察する.アンカーを用いないパターン方式のみの評価結果を,\tab{rel-prec}の「パターン方式」の「全て」に示した.先にサンプルした400述語対のうち269述語対が正しい関係を満たした.精度は,269述語対を400述語対で割って0.67と計算した.また,このときの相対再現率は1.00である.パターン方式で獲得した述語対候補をアンカー方式でフィルタリングした場合の評価結果を\tab{rel-prec}の「アンカーを持つ事例」に示した.先にサンプルした400述語対のうち175述語対はインスタンスアンカーを持ち,そのうち144述語対は正しい関係を満たした(「アンカーを持つ事例」の「インスタンス」).142述語対を175述語対で割って精度0.81を計算した.さらに,インスタンスアンカーを用いたときに正しく関係を満たす144事例を,評価した400述語対のうち正しく関係を満たす269述語対で割って相対再現率0.52を計算した.一方で,タイプアンカーを持つ事例は169事例中143事例が正しい関係を満たした(「アンカーを持つ事例」の「タイプ」).このときの精度は0.84であり,相対再現率は0.53である.ここから,インスタンスアンカーを用いた場合もタイプアンカーを用いた場合も同程度の精度と相対再現率であり,どちらも再現率を犠牲にする代わりに高い精度を得ていることがわかる.インスタンスアンカーまたはタイプアンカーのどちらかのアンカーを持つ述語対の評価結果を「アンカーを持つ事例」の「混成」に示した.インスタンスアンカーのみまたはタイプアンカーのみの場合と比較して,同程度の精度であるが相対再現率が向上している.この結果から,インスタンスアンカーとタイプアンカーを組み合わせることで精度を犠牲にせずに再現率を改善できることがわかる.タイプアンカーとインスタンスアンカーは高い精度と低い相対再現率という似た傾向を示すが,カバーしている述語対は互いに異なるため2つのアンカーを組み合わせることで再現率が改善されたと考えられる.本実験で用いたパターン方式の手法は,所与の関係にある述語対をその確からしさを表わすスコアと共に導く.そこで,述語対候補をこのスコアでフィルタリングした場合と,アンカー方式(インスタンスアンカーとタイプアンカーの組み合わせ)によりフィルタリングした場合で精度と相対再現率を比較する.アンカー方式ではフィルタリングにより結果400事例中254事例を残した.これと比較するために,400事例からスコアの高い上位254事例について精度と相対再現率を計算した(「パターン方式」の「高スコア254件」).スコアによるフィルタリングの結果(「パターン方式」の「高スコア254件」)とアンカー方式(「アンカーを持つ事例」の「混成」)によるフィルタリングの結果を比較すると,精度と相対再現率の両方においてアンカー方式の方が良い結果である.この結果は,パターン方式の述語対獲得手法にアンカー方式のフィルタリングを組み込むことで述語対獲得の性能を改善できることを示唆している.さらに,共有項を付与できた254述語対(「アンカーを持つ事例」の「混成」)について信頼度毎の述語対の数と,共有項を付与できない146述語対\footnote{評価した400述語対のうち共有項を付与できた254述語対を除いた残りの述語対.}について信頼度毎の述語対の数を比較した結果を\fig{effect_shared},\fig{means_shared}に示す\footnote{この図においては,小数点第2位で四捨五入して信頼度を用いた.}.ここから,共有項を付与できた述語対も付与できない述語対も信頼度の面からは類似した傾向を持つため,共有項を付与できたことと信頼度の間には強い相関がないことがわかる.この結果から,共有項によるアンカー方式は信頼度によるパターン方式とは異なる性質を持ち,この2つを組み合わせることが有効であることがわかる.\begin{figure}[b]\begin{minipage}[t]{.45\textwidth}\begin{center}\includegraphics{17-1ia7f2.eps}\caption{共有項の有無と信頼度(行為—効果関係)}\label{fig:effect_shared}\end{center}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\begin{center}\includegraphics{17-1ia7f3.eps}\caption{共有項の有無と信頼度(行為—手段関係)}\label{fig:means_shared}\end{center}\end{minipage}\end{figure}\subsection{共有項同定}共有項同定の評価結果を示す.評価者2人に,インスタンスアンカーとタイプアンカーを組み合わせた手法で共有項を付与することができた述語対の内,所与の関係を満たすと判断された事例について,付与された共有項が正しいかどうかを尋ねた(行為—結果関係で203述語対,行為—手段関係で196述語対).次の2種類の基準で共有項の正しさを評価した.\begin{itemize}\item共有項(1-best):最も頻度の高い共有項が正しい場合を正解とした.\item共有項(3-best):頻度の高い最大3つの共有項のうち1つ以上が正しい場合を正解とした.\end{itemize}評価結果を\tab{arg-prec}に示す.この評価結果も,評価者2人が両方とも正しいとした事例のみを正解とした.\begin{table}[b]\caption{共有項同定の精度}\label{tab:arg-prec}\input{07table03.txt}\end{table}続けて,共有項によって共有されているアンカーの正しさを,次の3種類の基準で評価した.\begin{itemize}\item共有名詞(厳格):最大3つのアンカーが全て正しい場合を正解とした.\item共有名詞(寛容):最大3つのアンカーのうち1つ以上が正しい場合を正解とした.\end{itemize}評価結果を\tab{noun-prec}に示す.この評価結果も,評価者2人が両方とも正しいとした事例のみを正解とした.\tab{arg-prec}と\tab{noun-prec}から,アンカー方式の手法は高い精度で共有項とアンカーを同定できていることがわかる.この手法の精度は,獲得したアンカーの良さに依存しているが,インスタンスアンカーもタイプアンカーも実際に出現した事例から獲得しているため,結果的に高い精度に結び付いたと考えられる.しかし,「共有項(1-best)」かつ「共有名詞(厳格)」の精度はまだ改善の余地はあるとみられるが,これは将来の課題である.\begin{table}[t]\caption{共有項同定と共有名詞同定の精度}\label{tab:noun-prec}\input{07table04.txt}\end{table}また,典型的な誤りとその原因を次に示す.\begin{itemize}\item[(1)]項の誤り\begin{itemize}\item[(1a)]コーパス中において不適切に格を用いていたため,誤った格を伴う知識が獲得されている.\item[(2b)]係り受け解析器の誤りのため,誤った項を伴う知識が獲得されている.\end{itemize}\item[(2)]アンカーの誤り\begin{itemize}\item[(2a)]コーパス中において表記は等しいが,それが指す実体が異なる名詞をインスタンスアンカーが共有名詞とみなしてしまうことにより,誤った共有項を伴う知識が獲得されている.\item[(2b)]コーパス中において名詞が多義であったため,タイプアンカーにより誤った共有項を伴う知識が獲得されている.\end{itemize}\end{itemize}理由(1a)の問題は低頻度の事例を除くことで,理由(1b)の問題は\ssec{instance_anc}で述べた係り受け解析器の誤りを除くための制約を強くすることで解決することができる.しかし,理由(2a),(2b)の問題は本手法で対処することが難しく,これを解決するためには同一表記の実体の同一性を判定する照応技術を導入する必要がある.理由(2a),(2b)の誤り例を次に示す.\begin{align*}&Xが操作する\rightarrow_{行為—効果関係}Xが動く(X=プレイヤー)\\&Xを雇う\rightarrow_{行為—効果関係}Xに雇われる(X=他人)\\&Xから到着する\rightarrow_{行為—手段関係}Xから旅する(X=空港)\end{align*} \section{まとめと今後の研究} \label{sec:discussion}述語間関係獲得のためにパターン方式の関係指向のアプローチとアンカー方式の項指向のアプローチの相補的な性質に注目し,パターン方式による述語対獲得とアンカー方式による共有項同定を組み合わせた2段階手法を提案し,これを実験し評価した.この結果,(a)アンカー方式のフィルタリングは事態対獲得の精度を改善し,(b)インスタンスアンカーとタイプアンカーは同じくらいの性能で,これらを組み合わせることで精度を犠牲にせずに(相対)再現率を改善でき,(c)アンカー方式は共有項同定で高い精度を達成することがわかった.将来的には3つの方向を考えている.1つめは評価方法の改善であり,コーパスベースの評価とタスクベースの評価を検討している.Szpektorら\cite{Szpektor2008}は,英語コーパスに対して事態に関する情報が付与されたAutomaticContentExtraction(ACE)のeventtrainingset\footnote{http://projects.ldc.upenn.edu/ace/}を用いて,自動獲得した事態間の含意関係知識を評価した.しかし,これは英語に関する評価セットであり,日本語のコーパスに対して同様の情報を付与した評価セットは存在しない.そのため,Szpektorらのようにコーパスベースの評価を行うためには,日本語の評価セットを作成する必要がある.評価セットの作成を含めてコーパスベースの評価を検討している.また他にも特定のタスクに述語間関係知識を適用し,その結果を評価することを検討している.2つめは,ゼロ照応解析~\cite[etc.]{iida:ACL06,komachi2007}の利用して共有項同定を行うことを検討している.本稿では,所与の関係を満たす述語対とその共有項を獲得するためにパターン方式とアンカー方式を組み合わせる手法を提案したが,もうひとつ方法として,ゼロ照応解析とパターン方式を組み合わせることでも所与の関係を満たす述語対とその共有項を獲得できる可能性がある.しかし,現在のゼロ照応解析の精度は然程高くないため,本稿ではパターン方式とアンカー方式を組み合わせる手法を用いた.ただし,現状のゼロ照応解析の精度でも,アンカー方式を改善するための前処理としてゼロ照応解析用いることはできる可能性がある.この方法の検証を検討している.3つめは,アンカー方式の結果を文内のゼロ照応解析に利用することを検討している.これによりゼロ照応解析の精度を向上させることができる可能性がある.\appendix \section{パターン方式の手法} \label{sec:patt_method}実験で用いたパターン方式の手法であるAbeら~\cite{abe:08}の手法の概要を述べる.本稿ではこの手法を拡張Espressoと言うことにする.拡張Espresoは,共起パターンを利用して実体対を獲得する手法であるEspressoを,共起パターンを利用して事態対を獲得するように拡張したものである.Espressoに対する拡張Espressoの主要な変更点は次の2つである.\begin{itemize}\itemEspressoにおける実体対は名詞句の対であるが,拡張Espressoの事態対は述語または述語句の対である.\itemEspressoにおける共起パターンは名詞句の対の間にある文字列であるが,拡張Espressoの共起パターンは係り受け関係の木を考えた場合の事態対の間のパスに相当する.\end{itemize}\subsection{Espresso}Espressoは,共起パターンを用いた実体間関係獲得手法のひとつであり,共起パターンを用いた手法に共通する,任意の関係のみを表現する共起パターンを用いて任意の関係にある実体対を獲得でき,任意の関係のみで表現される実体対を用いることで,任意の関係のみを表現する共起パターンを獲得できるという仮定を持っている.さらにEspressoは,共起パターンまたは実体対が任意の関係を表わす程度を信頼度という指標で表わし,信頼度の高い共起パターンとよく共起する実体対は信頼度が高く,信頼度の高い述語対とよく共起する共起パターンも信頼度が高いという仮定をおいた.このとき,Espressoは人手で作成した任意の関係にある信頼度の高い実体対を入力として,これと共起する信頼度の高い共起パターンを獲得する.次に信頼度の高い共起パターンを用いて,信頼度の高い実体対を獲得する.この操作をブートストラップ的に繰り返すことで,信頼度の高い実体対を大量に獲得する.\subsection{共起パターンの信頼度}獲得したい関係にある実体対\bracket{$x,y$}が与えられたとき,Espressoは$x$と$y$の両方が含まれた文をコーパスから探し出す.例えば,\textsl{is-a}関係の実体対\bracket{\textit{Italy,country}}が与えられたとき,Espressoはテキスト\textit{countriessuchasItaly}が含まれるような文を見つけ出し,共起パターン\textit{YsuchasX}を獲得する.Espressoは共起パターン$p$の良さを測るために信頼度$r_\pi(p)$という尺度を用いる.共起パターンの信頼度$r_\pi(p)$は,共起パターン$p$と共起する実体対$i$の信頼度$r_\iota(i)$から求められる.$I$は共起パターン$p$と共起する実体対$i$の集合である.\begin{eqnarray}\label{eq:rpi}r_\pi(p)=\frac{1}{|I|}\sum_{i\inI}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\iota(i)\end{eqnarray}$\mathit{pmi}(i,p)$は\eq{pmi}で定義される$i$と$p$のpointwisemutualinformation(PMI)であり,$i$と$p$の関連度を表現する.$max_{pmi}$は,共起パターンと実体対が共起した場合全てのPMIの中で最大となるPMIである.\begin{eqnarray}\label{eq:pmi}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\end{eqnarray}PMIは頻度が少ないときに不当に高い関連性を示すという問題が知られている.この問題を軽減するために,Espressoでは\eq{pmi}の代りに\cite{pantel2004}で定義された\eq{pmi2}を用いる.\begin{eqnarray}\label{eq:pmi2}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\times\frac{C_{xy}}{C_{xy}+1}\times\frac{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})}{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})+1}\end{eqnarray}$C_{xy}$は$x$と$y$が同時に出現した回数,$C_{x_i}$は個々の$x$の出現した回数,$C_{y_j}$は個々の$y$の出現した回数,$n$は$x$の異り数,$m$は$y$の異り数である.\subsection{実体対の信頼度}共起パターンの信頼度と同じように,実体対$i$の信頼度$r_\iota(i)$を次のように定義する.\begin{eqnarray}\label{eq:rl}r_\iota(i)=\frac{1}{|P|}\sum_{p\inP}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\pi(p)\end{eqnarray}共起パターン$p$の信頼度$r_\pi(p)$は,前述の\eq{rpi}で定義され,$max_{pmi}$は先の定義と同じであり,$P$は実体対$i$と共起する共起パターン$p$の集合である.共起パターンの信頼度$r_\iota(i)$と実体対の信頼度$r_\pi(p)$は再帰的に定義され,人手で与えたシード$i$の信頼度を$r_\iota(i)=1$とする.なお,我々の拡張では,人手で与えた負例関係にある述語対の信頼度を$r_\iota(i)=-1$とした.\acknowledgment「Web上の5億文の日本語テキスト」の使用許可を下さった情報通信研究機構の河原大輔氏と京都大学大学院の黒橋禎夫氏に感謝いたします.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abe,Inui,\BBA\Matsumoto}{Abeet~al.}{2008}]{abe:08}Abe,S.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQAcquiringEventRelationKnowledgebyLearningCooccurrencePatternsandFertilizingCooccurrenceSampleswithVerbalNouns.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\497--504}.\bibitem[\protect\BCAY{Chklovski\BBA\Pantel}{Chklovski\BBA\Pantel}{2005}]{chklovski}Chklovski,T.\BBACOMMA\\BBA\Pantel,P.\BBOP2005\BBCP.\newblock\BBOQGlobalPath-basedRefinementofNoisyGraphsAppliedtoVerbSemantics.\BBCQ\\newblockIn{\BemProceedingsofJointConferenceonNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Harris}{Harris}{1968}]{harris}Harris,Z.\BBOP1968\BBCP.\newblock\BBOQMathematicalStructuresofLanguage.\BBCQ\\newblockIn{\BemInterscienceTractsinPureandAppliedMathematics}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida:ACL06}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingsyntacticpatternsascluesinzero-anaphoraresolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheACL},\mbox{\BPGS\625--632}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Inui,Inui,\BBA\Matsumoto}{Inuiet~al.}{2003}]{inui:DS03}Inui,T.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQWhatkindsandamountsofcausalknowledgecanbeacquiredfromtextbyusingconnectivemarkersasclues?\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonDiscoveryScience},\mbox{\BPGS\180--193}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara:NAACL06}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{komachi2007}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearningBasedArgumentStructureAnalysisofEvent-nounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{cabocha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2001}]{lin:01}Lin,D.\BBACOMMA\\BBA\Pantel,P.\BBOP2001\BBCP.\newblock\BBOQDIRT:discoveryofinferencerulesfromtext.\BBCQ\\newblockIn{\BemProceedingsoftheseventhACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining},\mbox{\BPGS\323--328}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel2006}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel2004}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnology/NorthAmericanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pekar}{Pekar}{2006}]{pekar:06}Pekar,V.\BBOP2006\BBCP.\newblock\BBOQAcquisitionofVerbEntailmentfromText.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Szpektor\BBA\Dagan}{Szpektor\BBA\Dagan}{2008}]{Szpektor2008}Szpektor,I.\BBACOMMA\\BBA\Dagan,I.\BBOP2008\BBCP.\newblock\BBOQLearningEntailmentRulesforUnaryTemplates.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\849--856}.\bibitem[\protect\BCAY{Szpektor,Tanev,Dagan,\BBA\Coppola}{Szpektoret~al.}{2004}]{szpektor-EtAl:2004:EMNLP}Szpektor,I.,Tanev,H.,Dagan,I.,\BBA\Coppola,B.\BBOP2004\BBCP.\newblock\BBOQScalingWeb-basedAcquisitionofEntailmentRelations.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofEMNLP2004},\mbox{\BPGS\41--48}\Barcelona,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2006}]{torisawa:NAACL}Torisawa,K.\BBOP2006\BBCP.\newblock\BBOQAcquiringInferenceRuleswithTemporalConstraintsbyusingJapaneseCoordinatedSentencesandNoun-VerbCo-occurrences.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologyConference/NorthAmericanchapteroftheAssociationforComputationalLinguisticsannualmeeting(HLT-NAACL06)},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Zanzotto,Pennacchiotti,\BBA\Pazienza}{Zanzottoet~al.}{2006}]{zanzotto:06}Zanzotto,F.~M.,Pennacchiotti,M.,\BBA\Pazienza,M.~T.\BBOP2006\BBCP.\newblock\BBOQDiscoveringAsymmetricEntailmentRelationsbetweenVerbsUsingSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\849--856}.\end{thebibliography}\begin{biography}\bioauthor{阿部修也}{2008年奈良先端科学技術大学院大学後期課程単位取得満期退学.同年,奈良先端科学技術大学院大学研究員,現在に至る.専門は自然言語処理.情報処理学会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.博士(工学).同研究科助手,九州工業大学情報工学部助教授を経て,2002年より奈良先端科学技術大学院大学情報科学研究科助教授.現在同研究科准教授,情報通信研究機構有期研究員を兼任.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員,ComputationalLinguistics編集委員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.博士(工学).同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
V08N04-05
\section{まえがき} 音声認識技術の進歩により,最近は文章入力を音声で行うことも可能になって来ている.文章を音声で入力する場合には,音声を文字化すると失われてしまう韻律のような情報も言語処理に利用できる可能性がある.韻律には,多様な情報が含まれているが,その中で構文情報に着目した研究がこれまでにいくつか行われている.\cite{UYE}は読み上げ文のポーズやイントネーションを観察し,それらが文の構文構造と関連を持つことを明らかにした.この結果は,もし韻律情報が得られるならば,それを構文解析のための知識源の一つとして利用できる可能性を示唆している.\cite{KOM}は韻律情報を用いて隣接句間の結合度を定義し,結合度の弱い句境界から順に分割して行くことにより,構文木に似た構造が得られることを示した.また,\cite{SEK}は隣接句間の修飾関係の有無の判定に韻律情報が有効であることを報告している.これらの研究は,韻律と構文構造の関係を取り扱ってはいるが,実際に韻律情報を通常の意味の構文解析に利用したものではない.これに対して,\cite{EGU}は5種類の韻律的特徴量を取り上げ,それらと係り受け距離の統計的な関係を,総ペナルティ最小化法\cite{OZE-1}を用いて係り受け解析を行う際のペナルティ関数に組み込むことにより,韻律情報を用いない場合に比べて解析精度が向上することを見い出した.そして,そこで取り上げられた韻律的特徴量の中では文節間のポーズ長が最も有効であることを報告している.その後,同じ枠組みの中で韻律的特徴量の種類を増やし,また対象話者数を拡大して,特徴量の有効な組合せを求める研究や,特徴量の話者独立性に関する検討が行われている\cite{KOU-1,OZE-2,OZE-3,OZE-4}.総ペナルティ最小化法を用いたこれら一連の研究においては,韻律的特徴量が正規分布することが仮定されている.しかし,実際の分布は正規分布とはかなり異なっている.したがって,特徴量の分布を近似するための分布関数を改良することにより,韻律情報をより有効に利用できる可能性がある.また,これまでに取り上げられていない韻律的特徴量の中に有効性の高いものがある可能性もある.そこで本研究では,まず韻律的特徴量,特に最も有効とされるポーズ長に対する分布関数の改良を試みた.また,韻律的特徴量を従来の12種類\cite{OZE-4}から24種類に増やし,日本語読み上げ文の係り受け解析におけるそれらの有効性を実験的に検討した\cite{HIR}. \section{係り受け解析} 日本語文の構文構造は,文節間の広義の修飾・被修飾関係である「係り受け」という考え方に基づいて記述することができる\cite{HAS}.すなわち日本語文の構文構造は,文中のどの文節がどの文節に係るかを指定することにより決定される.いま,文を文節列$x_{1}x_{2}\cdotsx_{m}$で表し,文節$x_{i}$の係り先,すなわち$x_{i}$を受ける唯一の文節を$x_{c(i)}$で表せば,$c$は$\{1,2,\ldots,m-1\}$から$\{2,3,\ldots,m\}$への写像となる.この写像は次の性質を持つ\cite{YOS}.\vspace{5mm}\begin{itemize}\item後方唯一性:\$i<c(i)$\\($i=1,2,\ldots,m-1$)\\(唯一性は$c$が写像であるということに,すでに含まれている.)\item非交差性:\$i<j$ならば,$c(i)\leqj$または$c(j)\leqc(i)$\\($i,j=1,2,\ldots,m-1$)\end{itemize}\vspace{5mm}上の2つの条件を満たす写像$c$を,ここでは$x_{1}x_{2}\cdotsx_{m}$の上の係り受け構造という.係り受け構造$c$が定まっているとき,$(x_{i},x_{c(i)})$を係り受け文節対という.また,$c(i)-i$を文節$x_{i}$と$x_{c(i)}$の間の係り受け距離,あるいは単に$x_{i}$の係り受け距離という.$(x_{i},\x_{j})$が係り受け文節対であるか否かに関わらず,$j-i$を$x_{i}$と$x_{j}$の間の文節間距離,あるいは単に距離という.文長$m$が3以上の場合には複数の係り受け構造が存在するが,そのすべてが妥当な構文構造を表すわけではない.したがって,さらに制約条件を加え,係り受け構造の中から妥当な構文構造を見い出す必要がある.古典的な係り受け解析においては,文節$x,y$の属性値によって$x$が$y$に係ることが許されるか否かが決まっていると考え,これを制約条件として用いることが多かった.しかし,それだけでは大きな構文的曖昧性が残るので,最近では「許されるか否か」の2値情報ではなく「許される程度」を考え,それを確率,整合度,選好度など\cite{FJO,EHA,UTU}の実数値で表すことが試みられている.本研究で用いた係り受け解析法である「総ペナルティ最小化法」では,$x$が$y$に係ることの困難さを,非負の実数値を取るペナルティ関数$F(x,y)$で表す.そして,総ペナルティ\begin{equation}\sum_{i=1}^{m-1}F(x_{i},x_{c(i)})\end{equation}が最小になる係り受け構造$c$を見い出す.この問題は動的計画法の原理に基づき効率良く解くことができる\cite{OZE-1}.ペナルティ関数$F(x,y)$には種々の言語的知識を組み込むことができる.本研究では,学習データから得られる韻律と係り受け距離に関する統計的知識を組み込む.本研究では,この他に,韻律情報を用いない場合の解析精度を知るため,「決定論的解析法」と呼ばれる係り受け解析法\cite{KUR}を用いた.この方法では,2文節間に係り受けが許されるか否かの2値情報に基づき,文末文節から順にその文節を受ける文節を決定していく.その文節を受けることができる文節が複数存在する場合は,最も距離が近い文節を受け文節として採用する. \section{データベース} 本研究で使用したATR音声データベース(セットB)\cite{ATR}について簡単に説明する.このデータベースには,新聞,雑誌,小説,手紙,教科書等の出版物から抽出された503文が含まれている.これらの文はAからJまでの10グループに分けられており,各グループには50文(グループJだけは53文)が含まれている.総文節数は3425であり,文末の文節は係り先を持たないので,全部で2922の係り受け文節対が存在する.各文には,表記の他に品詞情報や各文節の係り受け距離などを表すラベルが付されている.このような言語情報の他に,このデータベースにはこれらの文を読み上げた音声データが含まれており,音韻やポーズの位置などを示すラベルが付けられている.データベース全体としては,男性6名,女性4名のアナウンサー/ナレーターの音声データが含まれているが,本研究では,その中の男性2名(MHT,MTK),女性2名(FKN,FYM)の音声データを用いた.これらの発声者はすべてナレーターである.MHT,FKN,FYMの3名については,ピッチ(基本周波数)データがデータベースに含まれているので,それを利用した.MTKについては,ピッチデータが含まれていなかったので,ラグ窓法\cite{SAG}により抽出した. \section{韻律情報} 係り受け解析とは,文中の各文節がどの文節に係るかを定めることであるから,各文節の係り受け距離に関する何らかの情報があれば,それは係り受け解析のための有効な情報となる.したがって,各文節の韻律的特徴量と係り受け距離の間の関係が分かれば,韻律的特徴量は係り受け解析のための有効な情報となるはずである.本研究では,このような考え方に基づいて韻律情報の利用を図る.\subsection{係り受け距離とポーズ長}まず,係り受け距離と関係がある韻律的特徴量の例として,着目している文節とその直後の文節の間のポーズ長を取り上げる.ポーズ長は,\cite{EGU}および,その後の一連の研究で採用された韻律的特徴量の中で,最も有効性が高いと報告されているものである.図\ref{pau1}は,男性話者MHTについて,1から5までの係り受け距離ごとに,ポーズ長の相対頻度分布を示したものである.このグラフから,どの係り受け距離に対しても,頻度が一度極端に少なくなった後で再び上昇する傾向のあることが分かる.(以後,このように落ち込んだ部分を「ディップ」と呼ぶ.)そして,係り受け距離によって固有の分布を持つことが知られる.このことは,ポーズ長が係り受け距離に関する情報を含んでいることを意味している.なお,参考までに係り受け距離そのものの頻度分布を表\ref{kakarifreq}に示す.これより,係り受け距離が大きくなると頻度が急激に減少し,1から3までの係り受け距離が全体の90\%以上を占めていることが分かる.\begin{figure}\begin{center}\atari(130,89.3)\caption{ポーズ長の相対頻度分布(男性話者MHT).\\(係り受け距離1,2に対してはポーズ長0の相対頻度はスケールの上限を越えている.)}\label{pau1}\end{center}\end{figure}\small\begin{table}\caption{係り受け距離の頻度分布}\label{kakarifreq}\begin{center}\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&9&10&計\\\hline文節数&1909&500&253&126&73&35&13&9&3&1&2922\\相対頻度(\%)&65.3&17.1&8.7&4.3&2.5&1.2&0.4&0.3&0.1&0.0&100.0\\\hline\end{tabular}\end{center}\end{table}\normalsize\subsection{韻律的特徴量}文節$X$に対する韻律的特徴量は,文節$X$と,主としてその直後の文節$Y$が持つ物理量の相対的関係から抽出する.測定する物理量は,ポーズ長,ピッチ曲線,パワー曲線,発話速度などである.ポーズ長はそのまま特徴量とするが,ピッチ曲線やパワー曲線からは何に着目するかによって種々の特徴量が抽出できる.発話速度に関しても,どの部分の速度に着目するかによって異なった特徴量が得られる.本研究では,以下のような24種類の特徴量を取り上げた.ピッチやパワーの値は対数をとっている.図\ref{prosody3}は1$\sim$16の特徴量を模式的に示したものである.図中の番号は上記の番号に対応している.19$\sim$24は,アクセントコマンドやフレーズコマンド\cite{FUJ}を,東京大学新領域創成科学研究科広瀬研究室で作成された韻律解析プログラム``{\itPROSODY}''\cite{MIN}によって推定し,それらから求めた特徴量である.\vspace{5mm}\begin{itemize}\item[1),2)]$X$,$Y$間のポーズ長(ポーズ長),および$X$の直前のポーズ長(ポーズ長前)\item[3),4)]$X$の末尾の母音継続時間長(母音長前),および$Y$の先頭の母音継続時間長(母音長後)\item[5)]$X$のピッチ曲線にあてはめた回帰直線の傾き(ピッチ傾)\item[6),7)]$X$のピッチ曲線の最大値までの,および最大値後の回帰直線の傾き(それぞれ,ピッチ傾前,ピッチ傾後)\item[8)]$X$の回帰直線の終端値と$Y$の回帰直線の始端値の差(ピッチ差1)\item[9)]ピッチ曲線を文節内の最大値で分割し,それぞれにあてはめた回帰直線によるピッチの差(ピッチ差2)\item[10)]$X$,$Y$のそれぞれに対するピッチ曲線の平均値の差(ピッチ平均)\end{itemize}パワーについても上記{\it5-10}と同様に抽出\begin{itemize}\item[11)](パワー傾),12)(パワー傾前),13)(パワー傾後)\item[14)](パワー差1),15)(パワー差2),16)(パワー平均)\end{itemize}\vspace{5mm}\begin{itemize}\item[17),18)]\\$X$,および$Y$の1秒当たりの平均モーラ数(それぞれ,平均モーラ数1,平均モーラ数2)\item[19),20)]\\$X$の直前,および直後にあるフレーズコマンドの大きさ(それぞれ,フレーズコマンド前,フレーズコマンド後)\item[21)]$X$の終端から$X$の直後にあるフレーズコマンドまでの時間(フレーズコマンド時間)\item[22)]Xの直前,および直後にあるフレーズコマンドの大きさの差(フレーズコマンド差1)\item[23)]22)を$X$の継続長で割ったもの(フレーズコマンド差2)\item[24)]$X$内のアクセントコマンドの数を$X$の継続長で割ったもの(アクセントコマンド数)\end{itemize}\vspace{5mm}これらの中で,1),3),4),5),8),9),10),11),14),15),16)の11種類の特徴量は\cite{OZE-4}で取り上げられたものである.なお,同論文では3)と4)の比も特徴量として取り上げられているが,明確な有効性は報告されていないので,本研究では取り上げなかった.19)$\sim$22)において,$X$の直前(直後)のフレーズコマンドとは,$X$の始端(終端)から一定の時間的しきい値内にあるフレーズコマンドの中で始端(終端)に最も近いものである.そのようなフレーズコマンドが存在しない場合には,その大きさを0とした.\begin{figure}\begin{center}\atari(130.1,43.5)\atari(65.8,43.5)\caption{韻律的特徴量の模式図}\label{prosody3}\end{center}\end{figure} \section{ペナルティ関数} \vspace{-1mm}総ペナルティ最小化法を用いて韻律的特徴量の有効性を調べるため,文節$x$が文節$y$に係ることの困難さを表すペナルティ関数$F(x,\y)$を,学習データから得られる韻律的特徴量と係り受け距離に関する統計的知識に基づいて定義する.まず,文中のある文節の係り受け距離を$d$とし,その文節に対する$n$個の韻律的特徴量を成分とするベクトルを$\mbox{\boldmath$p$}_n=(p_1,\ldots,p_n)$とする.そして,$\mbox{\boldmath$p$}_n$が与えられたときの$d$の条件付き確率を$P(d|\mbox{\boldmath$p$}_n)$とする.$P(d|\mbox{\boldmath$p$}_n)$はベイズの定理により\begin{equation}P(d|\mbox{\boldmath$p$}_n)=\frac{P(\mbox{\boldmath$p$}_n|d)P(d)}{\sum_{d}P(\mbox{\boldmath$p$}_n|d)P(d)}\end{equation}と書き直すことができる.したがって,$P(\mbox{\boldmath$p$}_n|d)$と$P(d)$が分かれば$P(d|\mbox{\boldmath$p$}_n)$が求められる.$P(\mbox{\boldmath$p$}_n|d)$は,第$i$特徴量に対する条件付き確率分布$P_{i}(\\cdot\\midd)$を学習データ中の係り受け距離$d$の文節に対する第$i$特徴量の実際の分布から推定し,また,それらの独立性を仮定して\begin{equation}P(\mbox{\boldmath$p$}_n|d)=\prod_{i=1}^{n}P_{i}(p_{i}|d)\end{equation}\noindentにより推定する.$P_{i}(\\cdot\\midd)$の具体的な推定法については後で述べる.また,学習データ中の係り受け距離が$d$である文節数を$N_d$とすれば,$P(d)$は\begin{equation}P(d)=\frac{N_d}{\displaystyle\sum_{d}N_d}\end{equation}により推定できる.さて,文節$x$が文節$y$に係ることができるか否かは,それらを構成する形態素によってかなりの程度定まっている.そこで,これを「係り受け規則」として表し,文節$x$が文節$y$に係ることがその規則によって許されないときは$\infty$のペナルティを与える.また,許されるときは$P(d|\mbox{\boldmath$p$}_n)$を用いてペナルティを定めることにする.すなわち,$d(x,y)$を$x$と$y$の間の距離として,ペナルティ関数$F(x,y)$を次のように定義する\cite{EGU}.\begin{equation}F(x,y)=\left\{\begin{array}{ll}\infty,&x\\mbox{が}\y\\mbox{に係ることが規則によって許されない場合}\\-\logP(d(x,y)|\mbox{\boldmath$p$}_n),&x\\mbox{が}\y\\mbox{に係ることが規則によって許される場合}\end{array}\right.\label{eqn:6}\end{equation}係り受け規則は\cite{KUR}の考え方に基づいて人手で作成したもの\cite{KOU-1}を用いた.この係り受け規則は,決定論的解析法においても共通に使用する.使用したデータベースに対するこの規則の係り受け被覆率,すなわち,データベース中のラベルによって示される2922個の係り受け文節対の中で,この規則により係り受けが許される文節対の割合は92.6\%であった.また,文被覆率,すなわち,503文の中でラベルによって示される係り受け構造がこの規則により許される文の割合は73.0\%であった. \section{韻律的特徴量の有効性} 係り受け解析における韻律的特徴量の有効性を文正解率,すなわち評価文の中で解析結果がデータベースのラベルで示される係り受け構造と一致する文の割合によって評価する.また,学習データと評価データの組合わせを変えたときの文正解率と係り受け正解率の違いを,それぞれ文長と係り受け距離ごとに観察する.\subsection{学習データと評価データ}3節に述べたデータベースを学習データと評価データに用いた.そのときの条件を表\ref{cond:1}に示す.表中のExp(i)はクローズド実験のための条件である.使用できるデータ量が少ない場合のオープン実験においては,学習データと評価データの役割を入れ替えて複数回の実験を行う,クロス・バリデーション\cite{JEL,MAN}を用いるのがよいとされている.クロス・バリデーションにも,単純なものから複雑なものまで種々の変形が考えられるが,ここで用いるデータ量や研究目的に対してどれが最適であるかは,現時点では不明であるので,ここでは,全データを学習データと評価データに分割する仕方を変えたデータセットを2組用意するという単純な方法を採用した.学習データと評価データの最適な分割比率も不明であるが,学習データを多めに取り,学習データと評価データの量の比が約7対3となるように分割した.また,2つのデータセットの評価データは,重なりがなく,読み上げ方が異なる可能性が大きい部分を選ぶこととした.すなわち,データセットExp(ii)では503文リストの最初の3グループを評価データ,残りを学習データとし,一方,Exp(iii)ではリストの最後の3グループを評価データ,残りを学習データとしている.これらのデータセットに対する解析結果の平均を韻律的特徴量の有効性の評価値とすると共に,それぞれに対する結果の違いも観察することとした.なお,全て話者依存実験である.すなわち,学習と評価は同一話者の文音声を用いて,話者ごとに行っている.\begin{table}\caption{学習データと評価データに関する実験条件}\label{cond:1}\begin{center}\begin{tabular}{|c|c|c|}\hline&学習データ&評価データ\\\hlineExp(i)&A-J(503文,3425文節)&A-J(503文,3425文節)\\Exp(ii)&D-J(353文,2409文節)&A-C(150文,1016文節)\\Exp(iii)&A-G(350文,2505文節)&H-J(153文,920文節)\\\hline\end{tabular}\end{center}\end{table}\subsection{ポーズ長に対する分布関数}韻律的特徴量の中で,特にポーズ長が係り受け解析に有効であることが報告されている\cite{EGU,KOU-1,KOU-2}.また,ポーズ長は,図\ref{pau1}に示したように,係り受け距離によって特異な分布を持っている.そこで,まずポーズ長のみに着目して,使用する分布関数を係り受け距離ごとに変え,どのような分布関数の組合せが有効であるかを調べた.実験条件はExp(i)である.取り上げた分布関数は,正規分布,ポアソン分布,指数分布,および相対頻度分布である.係り受け距離1,2,3に対しては,これらの分布関数の全ての組合わせを試みた.また,係り受け距離4以上に対しては,全て相対頻度分布を用いた.相対頻度分布は,各特徴量の最大値と最小値の間を30分割して求めた.相対頻度分布以外の分布関数の平均値パラメータを推定するとき,\begin{itemize}\item[(A)]全てのデータから平均値パラメータを推定\item[(B)]ディップより大きい値を持つデータのみから平均値パラメータを推定\end{itemize}の2つの場合を比較すると,(B)の方が文正解率が高いことが予備実験において観察された.そこで,(A),(B)それぞれの場合において文正解率が上位であった分布関数の組合わせを3つずつ選んだ.その結果を表3に掲げる.$C_{1}\simC_{3}$が場合(A),$C_{4}\simC_{6}$が場合(B)から選んだものである.\begin{table}\begin{center}\caption{係り受け距離1$\sim$3に対するポーズ長の分布関数の組合せ.\\係り受け距離4以上に対しては,すべて相対頻度分布を使用.}\label{cond:2}\small\begin{tabular}{cl}\hline\hline$C_1$&係り受け距離$1\sim3$の全てに対して正規分布で近似.\\$C_2$&係り受け距離$1\sim3$の全てに対してポアソン分布で近似.\\$C_3$&係り受け距離1に対しては指数分布で近似.$2,3$に対しては正規分布で近似.\\\hline$C_4$&係り受け距離$1\sim3$の全てに対して正規分布で近似.\\$C_5$&係り受け距離2に対しては相対頻度分布を使用.1,3に対しては正規分布で近似.\\$C_6$&係り受け距離1,2に対しては正規分布で近似.3に対してはポアソン分布で近似.\\\hline\hline\end{tabular}\normalsize\end{center}\end{table}これらの分布関数の組合せに対する文正解率を表\ref{res:3}に示す.同表において``距離情報''は,式(\ref{eqn:6})において$P(d(x,y)|\mbox{\boldmath$p$}_n)$の代りに,その事前確率,すなわち文節間距離の確率$P(d(x,y))$を使用したときの文正解率である.また,``決定論的''は,決定論的解析法を用いた時の文正解率を表す.$C_{1}$の文正解率は,係り受け距離4以上に対しても正規分布を適用した場合と全く同じであった.したがって,係り受け距離4以上に対して従来の正規分布の代りに相対頻度分布を用いても,文正解率は向上も低下もしなかったことになる.\begin{table}[htbp]\begin{center}\caption{分布関数の組合せに対する文正解率(\%)}\label{res:3}\small\begin{tabular}{|c|c|c|c|c|c|}\hline組合せ&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_1$&57.7&57.3&54.5&55.3&56.2\\$C_2$&57.9&56.9&57.1&55.5&56.9\\$C_3$&56.7&56.7&55.3&56.1&55.8\\\hline$C_4$&59.6&57.3&57.3&55.5&57.4\\$C_5$&59.4&57.3&57.1&55.7&57.4\\$C_6$&60.2&56.9&57.3&55.7&57.5\\\hline距離情報&&&&&52.3\\\hline決定論的&&&&&47.3\\\hline\end{tabular}\normalsize\end{center}\end{table}組合せ$C_4$,$C_5$,$C_6$の中では文正解率の違いはあまり見られない.しかし,組合せ$C_4$,$C_5$,$C_6$の方が,組合せ$C_1$,$C_2$,$C_3$よりも全体的に正解率が高い.すなわち,平均値パラメータの推定法として,方法(A)より方法(B)の方が良い.この理由は解明できていないが,ポーズ長は値が0のデータが多く,またディップを持つという特異な分布によるものと思われる.表\ref{res:3}の4名の話者の文正解率の平均から,文正解率が,係り受け規則に係り受け距離の頻度情報を加えることで5ポイント,さらにポーズ情報を用いることで約5ポイント向上することが分かる.\subsection{ポーズ長と他の一つの韻律的特徴量の組合せ}組合せ$C_4$,$C_5$,$C_6$に対する文正解率は話者により高低があるので,どの組合せが最適かが明確でない.そこで,ポーズ長にもう一つ韻律的特徴量を組合せて結果を比較する.ポーズ長以外の韻律的特徴量の分布関数としては,相対頻度分布を用いた.表\ref{res:4}は,ポーズ長と他の一つの特徴量の組合せで,話者4名の文正解率の平均値が高かったものを上から順に示している.実験条件はExp(i)である.\begin{table}\begin{center}\caption{ポーズ長と他の一つの特徴量を組合わせたときの文正解率(\%)}\label{res:4}\begin{tabular}{|c|c||c|c|c|c|c|}\hlineポーズ長分布関数&組合せる特徴量&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_5$&平均モーラ数2&60.4&58.4&58.1&57.1&58.5\\$C_5$&ピッチ傾&60.6&57.1&57.7&56.1&57.9\\$C_4$&平均モーラ数2&60.6&57.1&57.7&56.1&57.9\\$C_5$&パワー差1&59.4&57.3&57.9&56.5&57.8\\$C_4$&パワー差2&60.4&57.7&57.3&55.7&57.8\\$C_4$&パワー傾前&60.4&57.1&57.3&56.3&57.8\\$C_6$&平均モーラ数2&59.8&57.5&57.7&56.3&57.8\\$C_5$&アクセントコマンド数&60.4&58.1&57.1&55.5&57.8\\\hline\end{tabular}\end{center}\end{table}表\ref{res:4}の結果より,組合せ$C_5$によってポーズ情報を利用し,もう一つの特徴量として``平均モーラ数2''すなわち,注目している文節の次の文節の平均モーラ数を利用した場合に,ほとんどの話者で最高の結果が得られた.したがって,ポーズ長の分布関数の組合せ$C_5$が,ポーズ情報を利用する上で効果があることが分かった.このことから,以後の実験では,組合せ$C_5$を利用する.\subsection{韻律的特徴量の組合わせ(クローズド実験)}ポーズ長以外の有効な特徴量を探索するため,次のように一つずつ特徴量を追加して係り受け解析実験を行った.ただし,実験条件はExp(i)である.また,25番目の韻律的特徴量として,「``パワー傾前''と``パワー傾後''の併用」を追加した.これは,これらの特徴量の併用による相乗効果を期待したためである.以下で,$T$は特徴量の全体からなる集合,$S$はその中で実際に係り受け解析に使用する特徴量の集合を表す.\vspace{5mm}\begin{itemize}\item[(1)]$S:=\{\mbox{ポーズ長}\}$とし,$S$を用いて係り受け解析を行う.\item[(2)]今までに用いてない(すなわち,$T-S$に含まれる)特徴量の一つを$f$とし,$S\cup\{f\}$を用いて係り受け解析を行う.\item[(3)]$f$を$T-S$の中で動かしたときの$S\cup\{f\}$による文正解率の最大値が$S$による文正解率より高くなければ終了する.高ければ,そのときの最大値を与える$f$を$f_{0}$とし,$S:=S\cup\{f_{0}\}$とする.もし,$S=T$(すなわち,特徴量を使い切った)ならば終了する.$S\not=T$ならば(2)に戻る.\end{itemize}\vspace{5mm}特徴量の組合せを表\ref{cond:3}に,実験結果を表\ref{res:5}に示す.距離情報を用いることにより平均文正解率が5.0ポイント向上し,それがポーズ長を用いることによって,さらに5.1ポイント向上している.残りの10種類の特徴量の追加による平均文正解率の向上は3.3ポイントである.この結果,決定論的解析法の結果をベースラインとしたときの文正解率の向上率は28.3\%となる.これはこれまでの向上率22.0\%\cite{KOU-1,OZE-4}より6.3ポイント高い.\begin{table}\begin{center}\caption{韻律的特徴量の組合せ}\label{cond:3}\begin{tabular}{cl}\hline\hline特徴量の組合せ&使用する特徴量\\\hline$C_a$&``ポーズ長''のみ\\$C_b$&$C_a$と``平均モーラ数2''\\$C_c$&$C_b$と``パワー差1''\\$C_d$&$C_c$と``ピッチ傾前''\\$C_e$&$C_d$と``パワー傾前後の併用''\\$C_f$&$C_e$と``アクセントコマンド数''\\$C_g$&$C_f$と``母音長後''\\$C_h$&$C_g$と``フレーズコマンド差2''\\$C_i$&$C_h$と``パワー差2''\\$C_j$&$C_i$と``ピッチ差2''\\$C_k$&$C_j$と``ポーズ長前''\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{韻律的特徴量の組合わせに対する文正解率(\%)}\label{res:5}\begin{tabular}{|c|c|c|c|c|c|}\hline組合せ&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_a$&59.4&57.3&57.1&55.7&57.4\\$C_b$&60.4&58.4&58.1&57.1&58.5\\$C_c$&60.4&59.0&58.1&57.3&58.7\\$C_d$&61.0&59.2&57.9&57.3&58.9\\$C_e$&61.6&58.4&58.3&58.3&59.2\\$C_f$&62.6&59.8&58.3&58.3&59.8\\$C_g$&63.0&59.2&59.2&58.1&59.9\\$C_h$&63.0&60.0&59.6&59.2&60.5\\$C_i$&63.4&60.8&58.6&59.4&60.5\\$C_j$&63.2&60.8&58.6&59.6&60.6\\$C_k$&63.8&60.4&59.2&59.4&60.7\\\hline距離情報&&&&&52.3\\\hline決定論的&&&&&47.3\\\hline\end{tabular}\end{center}\end{table}\newpage\subsection{韻律的特徴量の組合わせ(オープン実験)}クローズド実験と同様に特徴量を順次追加することにより,有効な特徴量の探索を行った.ただし,実験条件はExp(ii),Exp(iii)であり,結果は,それらの文正解率の平均で示す.特徴量の組合せを表\ref{cond:4}に,Exp(ii),Exp(iii)の実験結果の平均を表\ref{res:8}に示す.このように,オープン実験においては3種類の特徴量が有効であり,距離情報で5.0ポイント,ポーズ長でさらに4.7ポイント,2つの特徴量の追加によりさらに0.8ポイントの文正解率の向上が認められる.決定論的解析法の結果をベースラインとしたときの文正解率の向上率は21.2\%である.これは,これまでの向上率17.2\%\cite{KOU-1}より4.0ポイント高い.\begin{table}\begin{center}\caption{韻律的特徴量の組合せ}\label{cond:4}\begin{tabular}{cl}\hline\hline特徴量の組合せ&使用する韻律的特徴量\\\hline$C_A$&ポーズ長のみ\\$C_B$&$C_A$と``パワー差1''\\$C_C$&$C_B$と``母音長後''\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{韻律的特徴量の組合わせに対する文正解率(\%)(Exp(ii)とExp(iii)の平均)}\label{res:8}\begin{tabular}{|c|c|c|c|c|c|}\hline組合せ&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_A$&60.4&59.8&59.7&56.8&59.2\\$C_B$&62.3&60.0&59.8&57.4&59.9\\$C_C$&62.3&61.3&59.1&57.4&60.0\\\hline距離情報&&&&&54.5\\\hline決定論的&&&&&49.5\\\hline\end{tabular}\end{center}\end{table}しかしながら,クローズド実験に比べ,文正解率の向上に寄与する特徴量の数が少ない.また,正解率の向上は,ほとんどポーズ長によるものであり,それと併用したときの,ピッチ,パワー,話速などに関連する特徴量の寄与はあまり明らかでなかった.\subsection{文長と文正解率}クローズド実験,およびオープン実験において,それぞれ文正解率が一番高かった特徴量の組合せに対する文長(文節数)と文正解率の関係を表\ref{res:9},表\ref{res:10},表\ref{res:11}に示す.文長11以上については,オープン実験における評価文の数が少なく,信頼性が低いと思われるので省略した.クローズド実験,オープン実験共に,当然ながら文長が長くなるほど文正解率が下がっているが,ほとんどの場合,韻律情報を使った方が,決定論的解析法よりも良い結果が得られている.韻律情報を用いた場合の話者平均正解率は,Exp(ii)(表\ref{res:10})においては,文が長くなったとき比較的緩やかに低下するが,Exp(iii)(表\ref{res:11})においては,それより急に低下する.この傾向は決定論的解析法を用いたときにも見られるので,Exp(ii)の評価文セットよりもExp(iii)の評価文セットの方が,長い文に対する解析の困難度が高いと考えられる.しかし,韻律情報を用いたときの全文話者平均正解率はExp(ii)(58.7\%)よりもExp(iii)(61.4\%)の方が高い.この原因は,Exp(ii)の評価文セットには,話者平均正解率が全文話者平均正解率を下回る長さ7以上の文がExp(iii)の評価文セットより多く存在するためと考えられる.ところが決定論的解析法の全文平均正解率は,Exp(ii)(50.0\%)の方がExp(iii)(49.0\%)より高いので,韻律情報を用いたときのExp(ii)とExp(iii)の全文話者平均正解率の違いは,文長の分布の違いだけに帰せられるものではなく,韻律情報の効果の違いが関係していると考えられる.また,話者別に見ると,Exp(ii)の方がExp(iii)より全文平均正解率が高い話者もいれば,逆の話者もいる.話者FYMは,Exp(ii)においてもExp(iii)においても,全文平均正解率が全文話者平均正解率より低い.FYMが読み上げた音声は,他の話者より発話速度が速く,ポーズ数が少なく,平均ポーズ長も短いことが知られており\cite{OZE-4},このことがFYMに対する全文平均正解率の低さに関係があると思われる.以上のように,解析結果は,評価文が本来持っている解析の困難さ,韻律情報の効果,学習データと評価データの組合せ,読み上げ方など,多くの要因によって影響を受けると推察される.しかし,上に述べた観察結果が単なる統計的ばらつきによるものではないことを確認するためには,より多くのデータが必要と思われる.\begin{table}\begin{center}\caption{文長に対する文正解率(\%)(クローズド実験)(Exp(i))}\label{res:9}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c||c|}\hline文長&2&3&4&5&6&7&8&9&10&全文平均\\\hline\hline文数&4&17&38&80&110&86&58&58&23&503\\\hlineMHT&100&94.1&89.5&75.0&73.6&58.1&50.0&48.3&56.5&63.8\\MTK&100&94.1&78.9&75.0&73.6&50.0&43.1&46.6&39.1&60.4\\FKN&100&76.5&84.2&75.0&66.4&53.5&44.8&46.6&34.8&59.2\\FYM&100&94.1&84.2&67.5&68.2&46.5&50.0&46.6&56.5&59.4\\話者平均&100&89.7&84.2&73.1&70.5&52.0&47.0&47.0&46.7&60.7\\\hline決定論的&100&82.4&73.7&63.8&57.3&37.2&31.0&32.8&30.4&47.3\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{文長に対する文正解率(\%)(オープン実験)(Exp(ii))}\label{res:10}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c||c|}\hline文長&2&3&4&5&6&7&8&9&10&全文平均\\\hline\hline文数&2&3&10&28&30&26&19&20&4&150\\\hlineMHT&100&100&90.0&75.0&80.0&53.8&47.4&55.0&50.0&63.3\\MTK&100&100&80.0&82.1&73.3&42.3&47.4&50.0&50.0&60.0\\FKN&100&66.7&100&71.4&70.0&46.2&36.8&55.0&0.0&56.7\\FYM&100&100&90.0&57.1&66.7&42.3&47.4&50.0&25.0&54.7\\話者平均&100&91.7&90.0&71.4&72.5&46.2&44.8&52.5&31.3&58.7\\\hline決定論的&100&100&80.0&57.1&63.3&38.5&36.8&35.0&50.0&50.0\\\hline\end{tabular}\end{center}\end{table}\vspace{-5mm}\begin{table}\begin{center}\caption{文長に対する文正解率(\%)(オープン実験)(Exp(iii))}\label{res:11}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c||c|}\hline文長&2&3&4&5&6&7&8&9&10&全文平均\\\hline\hline文数&2&10&19&32&37&24&13&10&2&153\\\hlineMHT&100&90.0&84.2&78.1&62.2&37.5&38.5&40.0&50.0&61.4\\MTK&100&90.0&84.2&87.5&59.5&37.5&38.5&40.0&0.0&62.7\\FKN&100&80.0&89.5&84.4&59.5&41.7&38.5&30.0&0.0&61.4\\FYM&100&100&78.9&78.1&56.8&33.3&38.5&40.0&50.0&60.1\\話者平均&100&90.0&84.2&82.0&59.5&37.5&38.5&37.5&25.0&61.4\\\hline決定論的&100&80.0&73.7&68.8&43.2&29.2&23.1&30.0&0.0&49.0\\\hline\end{tabular}\end{center}\end{table}\subsection{係り受け距離と係り受け正解率}6.5節と同じ特徴量の組合せに対する,係り受け距離と係り受け正解率の関係を表\ref{res:12},表\ref{res:13},表\ref{res:14}に示す.ただし係り受け正解率とは,評価文中の文末を除く全文節の中で,解析結果による係り先がデータベースのラベルで示される係り先と一致するものの割合である.ほとんどの場合において,韻律情報を用いた方が決定論的解析法より高い係り受け正解率が得られている.Exp(ii)(表\ref{res:13})とExp(iii)(表\ref{res:14})を比較すると係り受け距離6のところで正解率にかなりの差が見られる.文が長くなったときのExp(ii)とExp(iii)の文正解率の差は,このことが関係しているかも知れない.その他の点については,Exp(ii)とExp(iii)で顕著な傾向の違いは見られない.FYMは,Exp(ii)においてもExp(iii)においても,ほとんどの係り受け距離に対して係り受け正解率が平均より低い.全文節話者平均で見るとExp(ii)の方がExp(iii)より係り受け正解率が高いが,全文話者正解率はExp(iii)の方が高い.傾向としては,係り受け正解率が高くなるほど文正解率も高くなるはずであるが,この結果が示すように完全な単調性はない.\begin{table}\begin{center}\caption{係り受け距離に対する係り受け正解率(\%)(クローズド実験)(Exp(i))}\label{res:12}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&9&10&合計/全文節平均\\\hline\hline文節数&1909&500&253&126&73&35&13&9&3&1&2922\\\hlineMHT&95.0&83.8&90.9&82.5&71.2&62.9&92.3&88.9&0.0&0.0&91.0\\MTK&94.7&85.0&86.6&76.2&68.5&65.7&76.9&66.7&0.0&0.0&90.2\\FKN&95.1&85.4&86.2&73.0&63.0&60.0&69.2&88.9&0.0&0.0&90.2\\FYM&95.8&80.4&86.6&74.6&65.8&48.6&84.6&55.6&0.0&0.0&89.8\\話者平均&95.2&83.7&87.6&76.6&67.1&59.3&80.8&75.0&0.0&0.0&90.3\\\hline決定論的&94.0&79.4&76.3&57.1&39.7&17.1&15.4&0.0&0.0&0.0&85.3\\\hline\end{tabular}\normalsize\end{center}\end{table}\begin{table}\begin{center}\caption{係り受け距離に対する係り受け正解率(\%)(オープン実験)(Exp(ii))}\label{res:13}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&合計/全文節平均\\\hline\hline文節数&566&161&74&30&19&10&3&3&866\\\hlineMHT&94.7&83.9&91.9&80.0&57.9&40.0&0.0&0.0&89.8\\MTK&94.7&85.1&86.5&76.7&47.4&30.0&0.0&0.0&89.1\\FKN&95.4&80.1&89.2&73.3&52.6&30.0&0.0&0.0&88.9\\FYM&96.5&78.9&87.8&66.7&42.1&30.0&33.3&0.0&88.9\\話者平均&95.3&82.0&88.9&74.2&50.0&32.5&8.3&0.0&89.2\\\hline決定論的&93.6&83.2&74.3&60.0&42.1&20.0&0.0&0.0&86.3\\\hline\end{tabular}\normalsize\end{center}\end{table}\begin{table}\begin{center}\caption{係り受け距離に対する係り受け正解率(\%)(オープン実験)(Exp(iii))}\label{res:14}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&9&10&合計/全文節平均\\\hline\hline文節数&511&129&61&35&17&9&1&2&1&1&767\\\hlineMHT&95.7&79.8&88.5&80.0&47.1&22.2&0.0&0.0&0.0&0.0&89.2\\MTK&95.7&86.0&88.5&68.6&47.1&11.1&0.0&0.0&0.0&0.0&89.6\\FKN&96.1&83.7&86.9&62.9&29.4&11.1&0.0&0.0&0.0&0.0&88.7\\FYM&97.1&78.3&82.0&57.1&58.8&11.1&0.0&0.0&0.0&0.0&88.4\\話者平均&96.2&82.0&86.5&67.2&45.6&13.9&0.0&0.0&0.0&0.0&89.0\\\hline決定論的&94.3&77.5&73.8&57.1&23.5&11.1&0.0&0.0&0.0&0.0&85.0\\\hline\end{tabular}\normalsize\end{center}\vspace{3mm}\end{table} \section{あとがき} 24種類の韻律的特徴量を取り上げ,係り受け解析に有効な特徴量を求めるための広範な探索を行った.また,特徴量の現実の分布をより良く近似するために,分布関数の改良を試みた.その結果,決定論的解析法をベースラインにしたとき,韻律的特徴量を用いることによる文正解率の向上率は,従来の向上率に比べて,クローズド実験において6.3ポイント,オープン実験において4.0ポイント高い値が得られた.ポーズ長はクローズド実験においてもオープン実験においても非常に有効であったが,これと併用したときの,ピッチ,パワー,話速などに関連する特徴量の有効性は,オープン実験においてはあまり明らかではなかった.しかし,これは特徴量の抽出法やその利用法に問題があるためかも知れないので,このことから直ちにピッチ,パワー,話速などに関連する特徴量が構文情報を含まないと結論付けることはできない.ピッチやパワーに関連する特徴量がそれぞれ単独ではある程度有効であることが知られている\cite{EGU,OZE-3}ので,ポーズ長と併用したときの有効性があまり認められなかったのは,これらの特徴量がポーズ長と強い相関を持つためかも知れない.また,各文節は固有のピッチやパワーのパターンを持っている.したがって,本研究で使用した韻律的特徴量には,係り受け距離に関する情報だけでなく,文節が変ることによるピッチやパワーの変動も同時に含まれている.もし,それらを分離できればさらに有効な特徴量が抽出できる可能性もある.また,ポーズ長の有効性は確認されているものの,その特異な分布を良く近似するには到っておらず,改良の余地が残されている.学習データと評価データの組合せを変えた2つのオープン実験の結果の観察から,文正解率は,評価文が本来持っている解析の困難さ,韻律情報の効果,学習データと評価データの組合せ,読み上げ方など,多くの要因に依存することが推察された.しかし,今回用いた503文のデータではデータ量が少ないため,この観察結果が単なる統計的なばらつきによるものか,必然性のあることなのかを明確に区別することは困難であった.今後より多くのデータを用いてこれらの点を確認したい.本研究で用いた係り受け規則の文被覆率は73.0\%である.したがって,この規則を用いる限り,文正解率はこの数字を越えることはできない.本研究では,韻律的特徴量を用いた場合の文正解率の向上量だけを問題にしたので,文被覆率にはあまり注意を払わなかった.しかし,文被覆率の低さが有効な特徴量を見い出す妨げになっている可能性も否定できない.したがって,今後は,係り受け規則の改良も含めて検討する必要がある.\vspace{5mm}\acknowledgment藤崎モデルに基づく韻律解析プログラムを提供して下さった,東京大学新領域創成科学研究科広瀬啓吉教授に深く感謝致します.また,本研究は高坂和之氏(現在日本電気(株)勤務)の電気通信大学大学院在学中の研究に負うところが多いことを記して,感謝の意を表します.\bibliographystyle{jnlpbbl}\bibliography{288}\newpage\begin{biography}\biotitle{略歴}\bioauthor{廣瀬幸由}{1998年電気通信大学電気通信学部情報工学科卒業.2000年同大学院修士課程修了.在学中,音声言語の研究に従事.現在,ソニー株式会社勤務.言語処理学会会員.}\bioauthor{尾関和彦}{1965年東京大学工学部電気工学科卒業.同年,日本放送協会入社.1968年より1年間エジンバラ大学客員研究員.音声言語処理の研究に従事.電子通信学会第41回論文賞受賞.現在,電気通信大学電気通信学部情報通信工学科教授.工学博士.言語処理学会,日本音響学会,電子情報通信学会,情報処理学会,ISCA,IEEE各会員.}\bioauthor{高木一幸}{1987年筑波大学第3学群情報学類卒業.1989年筑波大学理工学研究科修士課程修了.同年,日本IBM入社.1995年筑波大学工学研究科博士課程修了.音声言語処理の研究に従事.現在,電気通信大学電気通信学部情報通信工学科助手.博士(工学).日本音響学会,電子情報通信学会,情報処理学会,人工知能学会各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V30N02-02
\section{はじめに} label{sec:introduction}単語は異なる時期間や分野間で異なる意味や用法を持つことがある.例えば,\textit{meat}は古英語で「食べ物全般」を意味していたが,近代英語では「動物の肉」という狭い意味で使われるようになった.また,\textit{interface}は一般的に「物体の表面」という意味で使われるが,情報科学の分野では「利用者とコンピュータを結びつけるシステム」という意味で使われている.上記のような時期間や分野間で意味や用法の変わる単語を自動で検出する手法は,言語学・社会学や辞書学だけでなく,情報検索においても有用である\cite{kutuzov-etal-2018-diachronic}.本稿ではこれ以降,時期の違いによる意味の変化に焦点を絞って言及する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f1.pdf}\end{center}\hangcaption{1900年代から1990年代にかけて,学習した単語\textit{coach}のベクトルとその周辺単語のベクトルが変化する様子.}\label{fig:difference}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%近年,このような変化を検出する方法として,単語を周辺単語との共起情報を基にベクトルで表現する単語分散表現が広く用いられている.例として,1900年代と1990年代における単語\textit{coach}の単語ベクトルとその周辺単語ベクトルを図\ref{fig:difference}に示す.図より,\textit{coach}の周辺単語が乗り物関連からスポーツ関連に変化していることがわかる.最終的な意味変化の度合いについては,学習した単語ベクトル$\overrightarrow{coach}_{1900s}$と$\overrightarrow{coach}_{1990s}$のユークリッド距離や余弦類似度などの尺度を用いられることが多い.上記のように異なる時期の文書情報を考慮した単語分散表現は,各時期で独立に訓練した単語分散表現に対応づけを行うなどをして獲得する\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic}.対応づけによる手法は主にWord2Vec\cite{mikolov-etal-2013-efficient}などの文脈を考慮しない単語分散表現を対象としているため,実装が容易で計算コストも低いことから,大規模な計算資源を持たない研究者でも導入することができる\cite{sommerauer-fokkens-2019-conceptual,zimmermann-2019-studying}.しかし,対応づけによる手法は「各文書で学習したベクトル空間を線形変換で対応づけできる」という強い仮定をおいている.そこで近年,対応づけを回避する2つの手法が提案された\cite{yao-etal-2018-dynamic,dubossarsky-etal-2019-time}.%が,現在も以下の問題が残されている.まず,\citeA{yao-etal-2018-dynamic}は各時期の単語分散表現を同時に学習するDynamicWordEmbeddingsを提案した.この手法は回転行列などによる対応づけが不要だが,%後\ref{subsubsec:non-contextual-word-embed}節式\eqref{eqn:dynamic-embed}に示すように,設定に敏感な3つのハイパーパラメータが存在するため,膨大な組み合わせ数の設定から最適なハイパーパラメータを探索する必要がある.次に,\citeA{dubossarsky-etal-2019-time}は全ての時期の文書をただ1つの文書とみなし,事前に用意したリストに載っている単語だけ時期を区別してベクトルを学習するTemporalReferencingを提案した.この手法は1つに結合した文書で単語分散表現を学習すれば良いことから非常に導入しやすいが,リストに載っていない単語は文書間で変化しないと仮定しているため,事前によく選定された対象単語のリストを用意する必要がある.また,時期を考慮した単語分散表現を獲得する手法だけでなく,それらを用いた分析においてもいくつかの問題がある.1つ目は,時期を考慮した単語分散表現を獲得する手法が数多く提案されているにも関わらず,それらの性能の定量的な比較があまり行われていないことである\cite{schlechtweg-etal-2019-wind,shoemark-etal-2019-room,tsakalidis-liakata-2020-sequential,schlechtweg-etal-2020-semeval}.これは主に評価で対象の文書間で意味の変化した単語を用意する必要があるためである.比較が行われていても,多くが英語やドイツ語などのヨーロッパ圏の言語を対象としており,複数の言語での比較は少ない\cite{schlechtweg-etal-2020-semeval}.2つ目は,意味変化が自明な単語に絞った定性的な分析が多いことである.特に英語においては,「陽気な」という意味から「同性愛者」という意味を持つようになった\textit{gay}という単語についての分析が多く\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic,hu-etal-2019-diachronic},意味の変化が自明でない単語に注目されることは少ない\cite{gonen-etal-2020-simple}.そこで本研究では,これらの問題に対して以下のように取り組む.まず,手法の問題を解消するために,\citeA{dubossarsky-etal-2019-time}のTemporalReferencingに対して2つの拡張を行う.1つ目は,単語ベクトルの学習の際に選定した語彙に含まれるすべての単語を対象単語とすることである.このように拡張することで,対象単語のリストを事前に用意する必要が無くなり,リストに載っていない単語の意味が変化することによる分析漏れなども避けることができる.また,単語ベクトルの変化量から,自明でない単語の意味変化を検出することが可能になる.2つ目は,周辺単語ベクトルも文書間での変化を考慮することである.一般的に動的な単語分散表現\cite{yao-etal-2018-dynamic}でない限り,学習した単語分散表現の対象単語ベクトルは文書間で獲得されるが,一緒に学習される周辺単語ベクトルは文書間で固定されているか,対応が取れていないことが多い\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic,dubossarsky-etal-2019-time}.そこで,DynamicWordEmbeddingsのように周辺単語ベクトルも文書間での変化を考慮するような拡張を行う.次に,実験において,複数の言語での性能比較および網羅的な分析を行った.定量的な分析においては,各手法で意味変化した単語の検出性能を評価した.SemEval-2020Task1\cite{schlechtweg-etal-2020-semeval}で4つの言語において提案した拡張方法による効果を検証した後に,英語と日本語の2つの言語において先行研究と提案した拡張手法の性能を比較した.先行研究との比較の際には,意味変化を検出する性能だけでなく,単語分散表現の学習に要する計算時間も比較した.定性的な分析においては,先行研究によって意味の変化が報告されている単語だけでなく,意味の変化が自明でない単語についても,網羅的な分析を行った.本稿の構成を示す.第\ref{sec:relatedwork}節では時期を考慮した単語分散表現を獲得するための先行研究および既存手法の問題点について述べる.第\ref{sec:proposal}節では既存手法の問題点を解消するための拡張方法を提案する.第\ref{sec:preexperiment}節と第\ref{sec:experiment}節では提案手法と既存手法について,意味変化した単語の検出性能を比較する.第\ref{sec:qualitative}節では各手法が検出した単語や,意味変化の種類・傾向について分析を行う.最後に,第\ref{sec:conclusion}節で本研究の結論を述べる\footnote{実験に使用したコードは以下で公開している.\url{https://github.com/a1da4/pmi-semantic-difference}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} label{sec:relatedwork}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈を考慮しない単語分散表現を用いた手法}\label{subsubsec:non-contextual-word-embed}初期の段階では,各時期の頻度情報を用いた分析・検出が行われていた\cite{sagi-etal-2009-semantic,cook-stevenson-2010-automatically-identifying,gulordava-baroni-2011-distributional}.しかし,意味の変化が頻度の増減によって決まるとは限らないため,単語の意味を直接表現する必要がある.そのような状況の中で,\citeA{mikolov-etal-2013-efficient}が単語の意味をベクトル空間上で表すWord2Vecを提案し,数多くの研究で用いられるようになった.この手法では一般的に1つの文書に対して1つの単語分散表現を学習するため,時期の異なる複数の文書で学習を行うと文書ごとに異なるベクトル空間が得られ,直接比較することができない.図\ref{fig:difference}のように通時的な単語分散表現を獲得するには,各時期でのベクトル空間を対応させる必要がある.そのために,\citeA{kim-etal-2014-temporal}は時期$t$の単語分散表現の初期値を時期$t-1$の単語分散表現で初期化することで,時期間で対応の取れた単語分散表現の獲得手法を提案した.近年では\citeA{kaji-kobayashi-2017-incremental}によってWord2Vecの動的な学習方法が提案され,より効率的に学習を行えるようになった.その後,\citeA{kulkarni-etal-2015-statistically}と\citeA{hamilton-etal-2016-diachronic}は各文書で独立に学習した単語分散表現を線形変換で対応づける手法を提案した.\citeA{kulkarni-etal-2015-statistically}は対象単語以外のほとんどの単語は意味が変化しないという仮定のもと,ある対象単語$w$の時期$t$での単語ベクトル$\vW_{t}(w)$と時期$t+1$での単語ベクトル$\vW_{t+1}(w)$を対応づける線形変換$\vR(w)_{t\mapstot+1}$を以下のように獲得した\begin{equation}\mathop{\vR(w)}_{t\mapstot+1}=\mathop{\rmargmin}_{\vR}\kern-1em\sum_{\makebox[4em][l]{$s\ink\text{-NN}(\vW_t(w))$}}||\vW_t(s)\vR-\vW_{t+1}(s)||^2_F.\label{eqn:linear-transformation}\end{equation}ここで,$k\text{-NN}(\vW_{t}(w))$は$\vW_{t}(w)$における上位$k$個の近傍単語であり,$||\cdot||_F$はフロベニウスノルムである.\citeA{hamilton-etal-2016-diachronic}も同様の仮定のもと,時期$t$の単語分散表現$\vW_t$と時期$t+1$の単語分散表現$\vW_{t+1}$を対応させる回転行列$\vR_{t\mapstot+1}$を以下のように獲得した\begin{equation}\mathop{\vR}_{t\mapstot+1}=\mathop{\rmargmin}_{\vR:~\vR\vR^\mathsf{T}\!=\!1}||\vW_t\vR-\vW_{t+1}||^2_F.\label{eqn:alignment}\end{equation}この回転行列を用いた手法は,時期の異なる2つの文書において意味の変化した単語を検出するタスクにおいて,頻度による手法を上回ることが報告されている\cite{schlechtweg-etal-2019-wind}.しかし,これらの線形変換に基づく対応づけによる手法は,異なる文書で学習したベクトル空間を線形変換で対応づけすることができるという強い仮定をおいている.このような仮定は時期の近い文書を比較する際には有用かもしれないが,時期が大きく離れている場合には,それぞれのベクトル空間を正しく対応づけできない可能性がある.そこで,上記の線形変換による問題を避けるため,\citeA{yao-etal-2018-dynamic}はDynamicWordEmbeddings(DWE)を提案した.この手法は各時期の単語分散表現を同時に学習するため,線形変換による対応づけを必要としない.ある時期$t$の単語ベクトルの集合$\vW_t$は以下の目的関数を最小化することで獲得できる\begin{align}&\frac{1}{2}\sum_{t=1}^T||\vM_t-\vW_t\vC_t||^2_F+\frac{\gamma}{2}\sum_{t=1}^T||\vW_t-\vC_t^\mathsf{T}||^2_F\notag\\[-.5ex]&\quad{}+\frac{\lambda}{2}\sum_{t=1}^T||\vW_t||^2_F+\frac{\tau}{2}\sum_{t=1}^{T-1}||\vW_{t+1}-\vW_t||^2_F\notag\\[-.5ex]&\quad{}+\frac{\lambda}{2}\sum_{t=1}^T||\vC_t||^2_F+\frac{\tau}{2}\sum_{t=1}^{T-1}||\vC_{t+1}-\vC_t||^2_F.\label{eqn:dynamic-embed}\end{align}ここで$\vM_t$は時期$t$のpositivepointwisemutualinformation(PMI)行列,$\vC_t$は時期$t$の周辺単語ベクトル集合を示す.訓練では,学習パラメータである$\vW_t$,$\vC_t$をランダムに初期化し,各時期のPMI行列をもとに行列分解に適したブロック座標降下法で更新する\footnote{ブロック座標降下法では一度に更新するブロックの数(ここでは単語数)のハイパーパラメータがあるが,\citeA{yao-etal-2018-dynamic}の研究ではブロック数を全単語数とし,全ての単語ベクトルを同時に更新している.}.また,$\gamma,\lambda,\tau$はそれぞれハイパーパラメータであり,$\gamma$は同じ時期における単語ベクトルと周辺単語ベクトルの対応づけの強さ,$\tau$は各ベクトルにおける隣接する時期間での対応づけの強さを制御し,$\lambda$は正則化の強さを制御する.この手法は同じ単語の同じ時期におけるベクトル($\vW_t,\vC_t^\mathsf{T}$)および同じ単語の隣接する時期におけるベクトル{($\vW_t,\vW_{t+1}$),($\vC_t,\vC_{t+1}$)}は近いことを仮定している.したがって,この手法には設定に敏感な3つのハイパーパラメータがあり,膨大な組み合わせ数の設定から適切なハイパーパラメータを探索する必要がある.線形変換や動的な単語分散表現の問題を回避するために,\citeA{dubossarsky-etal-2019-time}は各文書を1つの大きな文書とみなして単語分散表現を同時に学習するTemporalReferencingを提案した.時期の異なる文書を1つの大きな文書とみなし,事前に与えられた対象単語のリスト$L=\{w^1,w^2,...,w^{|L|}\}$に載っている単語のみ時期ごとに区別して単語分散表現の学習を行う.\begin{equation}\begin{cases}\vW_1(w^i),...,\vW_t(w^i),...,\vW_T(w^i)&w^i\inL\\\vW(w^i)&w^i\notinL\end{cases}\label{eqn:temporal-referencing}\end{equation}しかし,実際に任意の文書間で分析を行う場合において,適切に選定された対象単語リストを事前に用意するのは労力を要する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈を考慮した単語分散表現を用いた手法}\label{subsubsec:contextual-word-embed}\ref{subsubsec:non-contextual-word-embed}節で取り上げたWord2Vecなどの単語分散表現は1つの文書において1単語に1つのベクトルを割り当てているが,近年提案されたBERT\cite{devlin-etal-2019-bert}などに代表される事前訓練済み言語モデルは文ごとに単語のベクトルを獲得できるため,主に多義語の通時的な分析に用いられている.\citeA{hu-etal-2019-diachronic}は各意味における辞書の例文から各意味の教師ベクトルを獲得して,文書に含まれる各文における対象単語の意味を教師ベクトルとの類似度に基づいて分類する手法を提案し,\textit{gay}や\textit{tape}などの多義語について,主要な意味の時間変化を分析した.\citeA{giulianelli-etal-2020-analysing}は辞書の代わりに\textit{k}-meansを用いて単語の意味のクラスタリングを行う手法を提案し,辞書のような教師情報なしに多義語における通時的な意味の時間変化を分析した.一般的に,BERTのような文脈を考慮した単語ベクトルを獲得できる手法は,意味変化検出タスクSemEval-2020Task1においてWord2Vecなどの文脈を考慮しない単語分散表現より劣ることが報告されている\cite{kutuzov-giulianelli-2020-uio,martinc-etal-2020-discovery,laicher-etal-2021-explaining,montariol-etal-2021-scalable}.しかし,最近では,文に$\langle2022\rangle$などの時期トークンを付与したり,時期ベクトルを学習する注意機構を追加したりして事前訓練済み言語モデルに時期を考慮した調整を加えることで意味変化検出の性能が向上し,SemEval-2020Task1で最高性能を獲得することが報告された\cite{rosin-etal-2022-time,rosin-radinsky-2022-temporal}.上記で取り上げた手法は,調査対象の言語において事前訓練済みの言語モデルが存在する前提だが,mBERT\cite{devlin-etal-2019-bert}やXLM-R\cite{conneau-etal-2020-unsupervised}などの多言語モデルでも対応しているのはせいぜい100言語である.しかし,対応外の言語で分析を行うためにモデルを一から訓練するには膨大な計算資源を必要とするため,潤沢な計算資源を持たない言語学者や社会学者には困難である.したがって,本研究では,少ない計算資源でも手軽に学習できる\ref{subsubsec:non-contextual-word-embed}節のような文脈を考慮しない単語分散表現に基づいた手法に着目する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案法} label{sec:proposal}本研究では,先行研究であるTemporalReferencingに対して,2つの拡張手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f2.pdf}\end{center}\hangcaption{PMI-SVD\protect\cite{levy-2014-neural}の概要図.対象単語\textit{apple}とその周辺単語\textit{eat},\textit{computer}の共起情報から自己相互情報量を計算して次元削減を行うことで,Word2Vecと等価な対象単語ベクトルの集合$\vW$と周辺単語ベクトルの集合$\vC$を獲得できる.}\label{fig:sppmi-svd}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースとなる単語分散表現:PMI-SVD}最初に,本研究の基盤となる\citeA{levy-2014-neural}による研究について説明する.彼らは図\ref{fig:sppmi-svd}のように,対象単語-周辺単語のPMI行列をSingularValueDecomposition(SVD)で次元削減した結果がWord2VecのSkip-GramswithNegativeSampling(SGNS)モデル\cite{mikolov-etal-2013-efficient}と等価であることを示した.具体的には対象単語$w$,周辺単語$c$,及びそれらの共起する確率を$p(w)$,$p(c)$,$p(w,c)$とすると,単語分散表現は以下の手順で獲得できる.最初に,PMI行列$\vM\in\mathbb{R}^{W\timesC}$($W$と$C$はそれぞれ対象単語数,周辺単語数を示す)を以下のように求める\begin{equation}\mathrm{M}[w,c]=\max\left(\log\frac{p(w,c)}{p(w)p(c)},0\right).\label{eqn:pmi}\end{equation}\citeA{levy-2014-neural}の研究ではSGNSはShiftedPositivePMIと等価であることを示していた.しかし,その後の彼らの研究により,ShiftedPositivePMIは情報を減らしてしまうばかりで性能に貢献しないことが示された\cite{levy-etal-2015-improving}ため,本研究では標準的なPositivePMIを使用した.次に,PMI行列$\vM$をSVDで以下のように行列分解する\begin{equation}\vM=\vU\bm{\Sigma}\vV^\mathsf{T}.\label{eqn:svd}\end{equation}ここで$\vU$と$\vV$は直交行列を示し,$\bm{\Sigma}$は$\vM$の固有値が大きい順に格納された対角行列を示す.最終的に,目的の$d$次元の対象単語ベクトルの集合$\vW\in\mathbb{R}^{W\timesd}$と周辺単語ベクトルの集合$\vC^{\mathsf{T}}\in\mathbb{R}^{C\timesd}$は以下のようにして獲得できる\begin{equation}\vW\!=\!\vU\bm{\Sigma}^{1/2},\\vC^{\mathsf{T}}\!=\!\vV\bm{\Sigma}^{1/2}.\label{eqn:pmi-svd}\end{equation}この手法をもとに,TemporalReferencingに対して2つの拡張を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{拡張1:語彙に含まれる全ての単語を対象語とするPMI-SVD$_\mathrm{joint}$}TemporalReferencingに対する1つ目の拡張として,語彙に含まれる全ての単語を対象単語とした.ここで先行研究と同様に,周辺単語ベクトルの集合$\vC$が文書AとBにおいて変化しないと仮定すると,各文書のPMI行列$\vM_\mathrm{A}$,$\vM_\mathrm{B}$を結合した$\vM=[\vM_\mathrm{A};\vM_\mathrm{B}]$をまとめて次元削減することで,文書間の対応の取れた単語分散表現を獲得できる(図\ref{fig:sppmi-svd_joint})\begin{equation}\begin{bmatrix}\vM_\mathrm{A}\\\vM_\mathrm{B}\end{bmatrix}=\begin{bmatrix}\vW_\mathrm{A}\\\vW_\mathrm{B}\end{bmatrix}\raisebox{1.3ex}{$\begin{bmatrix}\,\vC\,\end{bmatrix}$}.\label{eqn:extended-matrix-factorization}\vspace{1ex}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f3.pdf}\end{center}\hangcaption{PMI-SVD$_\mathrm{joint}$の概要図.各文書A,Bで対象単語\textit{apple}とその周辺単語\textit{eat},\textit{computer}の自己相互情報量を計算し,同時に次元削減を行うことで,文書間で対応の取れた単語分散表現を獲得できる.}\label{fig:sppmi-svd_joint}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{拡張2:文書間における周辺単語ベクトルの変化を考慮するPMI-SVD$_c$}2つ目の拡張として,周辺単語ベクトルの文書間の変化を考慮する(図\ref{fig:sppmi-svd_c}).各文書の周辺単語ベクトル$\vC_\mathrm{A}$,$\vC_\mathrm{B}$を獲得する単純な方法として各文書で計算したPMI行列をそれぞれ独立に行列分解する方法が挙げられるが,そのように獲得した単語分散表現は文書間での対応がとれない.そこで,本研究では各文書の周辺単語ベクトルに制約条件を与えることによって,DWEのように文書間で対応のとれた単語分散表現を獲得する.訓練において最小化する目的関数を以下に示す\begin{equation}\label{eqn:constrained-svd}\sum_{y\in\{A,B\}}\|\vM_{y}-\vW_{y}\vC_{y}\|_F+\tau\|\vC_\mathrm{B}-\vC_\mathrm{A}\|_F.\end{equation}ここで,$\tau$は対応づけの強さを制御するハイパーパラメータである.DWEと同様に,各時期のPMI行列をもとにランダムに初期化した学習パラメータ$\vW_t,\vC_t$をブロック座標降下法で更新する\footnote{ブロック座標降下法における一度に更新するブロックの数はDWEと同様に全単語数とし,全ての単語ベクトルを同時に更新した.}.この手法はDWEに似ているが,DWEと比較して単語ベクトルと周辺単語ベクトルの対応づけの強さおよび正則化の強さを制御するハイパーパラメータを持たず,探索すべきハイパーパラメータの数が2つ少ない.\ref{subsubsec:quantitative-real}節の実験2で,PMI-SVD$_\textit{c}$とDWEの性能及び訓練に必要な時間の比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia1f4.pdf}\end{center}\hangcaption{PMI-SVD$_\textit{c}$の概要図.DynamicWordEmbeddings\protect\cite{yao-etal-2018-dynamic}のように制約条件を加え,周辺単語ベクトルの文書間での変化を考慮しながら文書間で対応の取れた単語分散表現を獲得する.}\label{fig:sppmi-svd_c}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験1} label{sec:preexperiment}本節では,提案した拡張手法による効果を検証するため,2つの拡張手法PMI-SVD$_\textrm{joint}$,PMI-SVD$_\textit{c}$と既存手法TemporalReferencingの性能の比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{概要}SemEval-2020Task1\cite{schlechtweg-etal-2020-semeval}で性能の比較を行った.SemEval-2020Task1は時期の離れた2つの文書間で与えられた単語の意味変化を検出する共通タスクであり,分類と順位付けの2つのサブタスクに分かれている.分類タスクでは,2つの文書間で与えられた単語の意味が変化したかどうかを分類し,分類の精度を評価する.順位付けタスクでは,与えられた単語を意味変化の度合いで並び替えを行い,スピアマンの順位相関係数で評価を行う.上記の2つのサブタスクについて,英語・ドイツ語・ラテン語・スウェーデン語の4つの言語で評価を行う.各言語における時期の区別とデータ量を表\ref{tab:semeval2020-data}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{01table01.tex}%\hangcaption{SemEval-2020Task1のデータセット.時期の離れた2つの文書$C_1,C_2$から与えられた単語の意味変化を検出し,4つの言語で性能を評価する.\#tokensは延べ語数,\#typesは異なり語数を示す.}\label{tab:semeval2020-data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}今回の実験では,与えられた対象単語と両方の文書で100回以上出現した単語を語彙とし,頻度行列を作成する際の文脈窓幅は前後4単語,PMI行列の次元削減で得る単語ベクトルは100次元とした.開発用の単語セットが存在しないため,PMI-SVD$_\textit{c}$のハイパーパラメータ$\tau$は$\{10^{-3},10^{-2},\ldots,10^3\}$のうち4つの言語全てで最も安定して学習した$\tau=1$とした.予測では,与えられた対象単語に対して時期間のベクトルの余弦類似度を使用した.分類タスクでは,先行研究と同様に対象単語の類似度の平均を閾値として分類を行った\cite{prazak-etal-2020-uwb}.順位付けタスクでは,時期間の類似度が低い順に対象単語の順位付けを行った.以上の条件で,既存手法TemporalReferencingをPMI-SVDに適用したPMI-SVD$_\textrm{tr}$,語彙に含まれる全ての単語を対象語とする拡張を施したPMI-SVD$_\textrm{joint}$,そして周辺単語ベクトルの変化を考慮したPMI-SVD$_\textit{c}$の性能を比較した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果と考察}分類タスクの結果を表\ref{tab:semeval2020-subtask1}に示す.表\ref{tab:semeval2020-subtask1}より,提案した2つの拡張を施したモデルPMI-SVD$_\textrm{joint}$,PMI-SVD$_\textit{c}$はどちらも既存手法PMI-SVD$_\textrm{tr}$の性能を上回っていることがわかる.また,PMI-SVD$_\textrm{tr}$,PMI-SVD$_\textrm{joint}$はデータ量の少ないラテン語での性能が他の言語に比べて低いが,PMI-SVD$_\textit{c}$では他の言語と同等の性能を獲得し,言語間の平均で最も高い性能であることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{01table02.tex}%\hangcaption{SemEval-2020Task1のSubtask1意味変化の有無を分類するタスクの結果.En,De,La,Sv,Avg.はそれぞれ英語,ドイツ語,ラテン語,スウェーデン語および4つの言語の平均を示す.}\label{tab:semeval2020-subtask1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,順位づけタスクの結果を表\ref{tab:semeval2020-subtask2}に示す.英語では既存手法PMI-SVD$_\textrm{tr}$の性能が高いが,それ以外の言語では提案した拡張手法PMI-SVD$_\textrm{joint}$,PMI-SVD$_\textit{c}$が既存手法の性能を上回っていることがわかる.このタスクでは特に既存手法およびPMI-SVD$_\textrm{joint}$のラテン語での性能が低いが,PMI-SVD$_\textit{c}$が大幅に性能を向上した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{01table03.tex}%\hangcaption{SemEval-2020Task1のSubtask2対象単語の順位づけタスクの結果.En,De,La,Sv,Avg.はそれぞれ英語,ドイツ語,ラテン語,スウェーデン語および4つの言語の平均を示す.}\label{tab:semeval2020-subtask2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{01table04.tex}%\hangcaption{PMI-SVD$_\textrm{joint}$で時期間の余弦類似度が低い順に並べた意味変化の可能性が高い上位10単語.()の中はその単語の品詞であり,(名),(動),(形),(副),(代),(接)はそれぞれ名詞,動詞,形容詞,副詞,代名詞,接続詞を示す.また,太字は固有名詞を示す.}\label{tab:semeval2020-top10}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の結果より,提案した2つの拡張手法によって文書間における単語の意味変化の検出性能を向上させることが確認できた.1つ目の拡張「語彙に含まれる全ての単語を対象語にする」が性能を向上させた理由として,与えられた対象単語以外にも意味や用法の変化した単語が存在したことが挙げられる.今回のSemEval-2020Task1では人手で選択されたいくつかの単語だけが評価の対象となっているが,それ以外の単語が大規模なデータ内で意味や用法が変化している可能性がある.既存手法PMI-SVD$_\textrm{tr}$では対象単語以外の単語について文書間で比較ができないため,代わりに対象単語を語彙全体に拡張したPMI-SVD$_\textrm{joint}$で時期間の余弦類似度が低い順に意味変化の可能性が高い単語を出力した結果を表\ref{tab:semeval2020-top10}に示す.表\ref{tab:semeval2020-top10}より,英語・ドイツ語・スウェーデン語では固有名詞が上位に多く出現していることが確認できる.ラテン語では固有名詞が2つしか出現していないが,それ以外の単語はほとんど副詞であった.ここで検出した固有名詞や副詞は与えられた対象単語に含まれていないが,時代によって周辺文脈が異なるため,上位に出現したのだと考える.TemporalReferencingでは与えられた対象単語だけが意味変化すると仮定し,それ以外の単語は複数の文書でまとめて1つのベクトルのみ学習するため,今回の固有名詞や副詞のように対象から外れているが用例の異なる単語のベクトルがノイズとなっていたのだと考える.2つ目の拡張「周辺単語ベクトルの変化を考慮する」が主にラテン語での性能を大幅に向上させた要因として,時間経過に伴う周辺単語の変化が挙げられる.従来の手法を基にしているPMI-SVD$_\textrm{tr}$やPMI-SVD$_\textrm{joint}$では各時期に対応した単語ベクトルの学習時に周辺単語ベクトルを固定していた(図\ref{fig:sppmi-svd_joint})ため,ラテン語のような時期が大きく離れている文書間での性能が低くなっていたのだと考える.そこで,周辺単語ベクトルも各時期で作成することで上記の問題を回避し,時間が大きく離れて周辺単語が大きく変わったラテン語のような状況でも他の言語と同様の性能を獲得したのだと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{まとめ}本節では,提案した2つの拡張手法PMI-SVD$_\textrm{joint}$,PMI-SVD$_\textit{c}$と既存手法TemporalReferencingの性能の比較を行った.時期の異なる2つの文書間で与えられた対象単語の意味変化を検出するSemEval-2020Task1において4つの言語で性能を比較したところ,提案した2つの拡張手法が既存手法の性能を上回ることを示した.今回のデータでは与えられた対象単語以外の固有名詞や副詞といった単語が時期によって周辺文脈が異なるため,文書間でただ1つのベクトルにまとめるのではなく,全ての単語を対象単語として考慮することで性能が向上することを確認した.また,周辺単語ベクトルの変化を考慮することによって,データ量の少ないラテン語における性能を大幅に改善することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験2} label{sec:experiment}本節では,提案した2つの拡張手法といくつかの代表的な先行研究について,意味変化を検出する性能を比較した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ}\label{subsec:data}ここでは,日本語と英語の2つの言語で比較を行った.実験に使用したコーパスの統計量を表\ref{tab:chj_coha_dataset}に示す.英語では,CorpusofHistoricalAmericanEnglish(COHA)\footnote{\url{https://www.english-corpora.org/coha/}}を用いた.COHAは10年ごとに文書が分かれているため,1900年代と1990年代の文書を対象にした.\citeA{hamilton-etal-2016-diachronic}と同様に,ストップワードと固有名詞を取り除き,両方の文書で100回以上出現する名詞・動詞・形容詞・副詞を対象単語とした.日本語では,日本語歴史コーパス\footnote{\url{https://clrd.ninjal.ac.jp/chj/index.html}}を用いた.実験では第二次世界大戦の前後で文書を分け,英語と同様に両方の文書で100回以上出現する名詞・動詞・形容詞(形状詞は除く)・副詞を対象単語とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{01table05.tex}%\hangcaption{データセットの統計量.時期の離れた2つの文書$C_1,C_2$から単語の意味変化を検出する.\#tokensは延べ語数,\#typesは異なり語数を示す.}\label{tab:chj_coha_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}今回の実験では,提案した2つの拡張手法(PMI-SVD$_\mathrm{joint}$,PMI-SVD$_\textit{c}$)と以下の代表的な先行研究を比較した.\begin{itemize}\item\textbf{Word2Vec}$_\textit{vi}$\cite{kim-etal-2014-temporal}:古い時期の文書(戦前,1900年代)の文書でWord2VecSGNSモデルを訓練し,その結果を新しい時期の文書(戦後,1990年代)の文書のモデルの初期値にして学習を行った.\item\textbf{Word2Vec}$_\textit{incr}$\cite{kaji-kobayashi-2017-incremental}:文書を与える度に動的にモデルを学習するincrementalskipgram\footnote{\url{https://github.com/yahoojapan/yskip/}}を適用し,最初に古い時期の文書を,次に新しい時期の文書を与えて学習を行った.\item\textbf{Word2Vec}$_\mathbf{align}$\cite{hamilton-etal-2016-diachronic}:各文書でWord2VecSGNSモデルを訓練し,式\eqref{eqn:alignment}の回転行列で対応づけを行った.\item{\textbf{PMI-SVD}$_\mathbf{align}$\cite{hamilton-etal-2016-diachronic}:}各文書でPMI-SVDを訓練し,$\text{Word2Vec}_\text{align}$と同様に回転行列で対応づけを行った.\item{\textbf{DWE}\cite{yao-etal-2018-dynamic}:}先行研究と同様に,ブロック座標降下法で式\eqref{eqn:dynamic-embed}を最小化し,単語分散表現を獲得した.この手法およびPMI-SVD$_\textit{c}$のハイパーパラメータ探索は,$\{10^{-3},10^{-2},\ldots,10^3\}$の中からグリッドサーチで探索し,AreaUndertheCurveの最も高い設定を採用した.\item{\textbf{BERT}\cite{martinc-etal-2020-leveraging}:}各時期の対象単語ベクトルは,各時期の中における対象単語の全ての出現から文脈を考慮した対象単語のベクトルを獲得し,その平均を使用した.両言語において,Huggingface\footnote{\url{https://github.com/huggingface/transformers}}で公開されている事前訓練済みの\textit{bert-base-uncased}モデルを使用した.\end{itemize}文脈を考慮しない単語分散表現を使った手法は,文脈窓幅を前後4単語,100次元,contextualdistributionalsmoothingを0.75とした.その後,先行研究と同様に,2つの時期の単語分散表現に対して同時にall-but-the-top\cite{mu-and-viswanath-2018-all}の後処理を行った\cite{kaiser-etal-2021-effects}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価}\label{subsec:evaluation}評価には,先行研究と同様に平均逆順位(meanreciprocalrank;MRR)を使用した\cite{kulkarni-etal-2015-statistically,yao-etal-2018-dynamic}.具体的には,時期間のベクトルの余弦類似度に応じて語彙中の単語を並べ替え,評価に使う意味の変化が報告されている単語の逆順位の平均を求める.平均逆順位は主に検索システムの評価に用いられ,目的のWebサイトを上位で検出できているほど値は大きくなり,優れたシステムであると評価される.また,各手法が意味の変化した単語を検出する様子を可視化するために,再現率でも評価を行った\cite{kulkarni-etal-2015-statistically}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果と考察}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{疑似データでの評価実験}\label{subsubsec:quantitative-artificial}まず,2つの時期で完全に意味が変化する場合の性能を確認するため,\citeA{shoemark-etal-2019-room}と同様に,意味変化する単語を擬似的に生成して評価を行った.具体的には,新しい時期の文書で単語$\beta$(例:「景色」)が含まれる全ての文に対して単語$\alpha$(例:「友」)で置き換え,本来の単語$\alpha$が出現する全ての文に対して単語$\alpha$を削除することで,$\alpha$の出現文脈集合から$\beta$の出現文脈集合へと変化する単語$\alpha'$を擬似的に生成した.\begin{description}\item[(置換:変更前)]その辺りは,フランスの國道にそった\underline{景色}のよいところですから,\item\begin{flushright}(1947年,文部省『小学校国語6期』,国語第五学年)\footnote{コーパス検索アプリケーション『中納言』(\url{https://chunagon.ninjal.ac.jp/})で閲覧可能なID:60T小読1947\_65A02}\end{flushright}\item[(置換:変更後)]その辺りは,フランスの國道にそった\underline{友}のよいところですから,\end{description}\begin{description}\item[(削除:変更前)]世界の\underline{友}よ,手をつなぎ,なかよくとんであそぼうよ.\item\begin{flushright}(1947年,文部省『小学校国語6期』,国語第三学年)\footnote{中納言のID:60T小読1947\_65A06}\end{flushright}\item[(削除:変更後)]世界の\underline{(削除)}よ,手をつなぎ,なかよくとんであそぼうよ.\end{description}置換する単語ペアの意味が似ている場合,擬似的に生成した単語の意味変化の度合いが小さくなってしまうため,単語ペアはなるべく意味が離れているか無関係であることが望ましい.そこで本研究では,両方の時期でそれぞれ獲得したPMI行列の各行の余弦類似度の絶対値が0.01以下である単語ペアの中からランダムに50ペア抽出し,文脈が完全に変化する単語を擬似的に生成した.実験では,10単語をハイパーパラメータ探索に,残りを評価に使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f5.pdf}\end{center}\hangcaption{各手法が擬似的に意味の変化した単語を検出する様子.縦軸は上位$k$単語における再現率(Recall@$k$),横軸は考慮する上位の単語数$k$を示す.}\label{fig:5}%%%%\label{fig:en_pseudo_cos}%%%%\label{fig:ja_pseudo_cos}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{01table06.tex}%\hangcaption{擬似的に生成した単語における平均逆順位(MRR).*は事前訓練で外部のデータを使用していることを示す.}\label{tab:mean-reciprocal-rank_replace}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:en_pseudo_cos},\ref{fig:ja_pseudo_cos}は疑似データにおける各手法のRecall@$k$を示す.図\ref{fig:5}(a),\ref{fig:5}(b)は疑似データにおける各手法のRecall@$k$を示す.提案した2つの拡張手法はDWEのように,擬似的に生成した意味の変化する単語をほぼ正確に検出できていることがわかる.これらの図及び平均逆順位(表\ref{tab:mean-reciprocal-rank_replace})より,提案した拡張手法は先行研究と同等またはそれ以上の性能であることを示した.線形変換で対応づけを行う手法PMI-SVD$_\mathrm{align}$,Word2Vec$_\mathrm{align}$は今回のように2つの時期で意味が完全に変わる場合では性能が低いことが確認できた.このことから,学習した単語分散表現を線形変換で対応づけができるという仮定は強すぎるのではないかと考える.また,先行研究より,古い時期で訓練した単語ベクトルを新しい時期の単語ベクトルの初期値とする手法Word2Vec$_\textit{vi}$,Word2Vec$_\textit{incr}$は線形変換で対応づけを行う手法PMI-SVD$_\mathrm{align}$,Word2Vec$_\mathrm{align}$に劣ると報告されていた\cite{schlechtweg-etal-2019-wind,schlechtweg-etal-2020-semeval}が,今回の実験設定では提案手法PMI-SVD$_\mathrm{joint}$,PMI-SVD$_\textit{c}$と同等の高い検出性能を示した.この結果及び\ref{sec:preexperiment}節での結果(表\ref{tab:semeval2020-subtask2})より,意味変化検出の性能は分析対象の言語や時期によって大きく変わる可能性があるため,多様な言語や時期間を対象とする言語学や社会学へ応用するためには任意の言語や時期間で安定する手法の検討が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実データでの評価実験}\label{subsubsec:quantitative-real}次に,実際に意味の変化が報告されている単語を用いて評価を行った.英語ではwordsensechangetestset\footnote{\url{https://zenodo.org/record/495572}}をハイパーパラメータ探索に,\citeA{kulkarni-etal-2015-statistically}が作成したリストを評価に使用した.日本語では,\citeA{mabuchi-ogiso-2021-attempt}が作成したリストをハイパーパラメータ探索と評価に使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f6.pdf}\end{center}\hangcaption{各手法が実際に意味の変化した単語を検出する様子.縦軸は上位$k$単語における再現率(Recall@$k$),横軸は考慮する上位の単語数$k$を示す.}\label{fig:6}%%%%\label{fig:en_real_cos}%%%%\label{fig:ja_real_cos}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%再現率を図\ref{fig:en_real_cos},\ref{fig:ja_real_cos}に,平均逆順位を表\ref{tab:mean-reciprocal-rank_true}に示す.再現率を図\ref{fig:6}(a),\ref{fig:6}(b)に,平均逆順位を表\ref{tab:mean-reciprocal-rank_true}に示す.結果より,提案した2つの拡張手法はWord2Vec$_\textit{vi}$,Word2Vec$_\textit{incr}$,BERT以外の手法の性能を上回っていることを確認した.また,表\ref{tab:mean-reciprocal-rank_true}より英語のデータにおける訓練時間を比較すると,PMI-SVD$_\mathrm{joint}$は非常に高速に動作し,PMI-SVD$_\textit{c}$はDWEに比べてハイパーパラメータ探索の時間を大幅に削減していることがわかる\footnote{訓練時間は2CPU(IntelXeon2.60GHz,全56コア),512GBのRAMを備えた計算機で計測した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{01table07.tex}%\hangcaption{実際に意味の変化が報告されている単語での平均逆順位(MRR).訓練時間の列は英語のデータにおける各手法の訓練に要する時間を示す.*は事前訓練で外部のデータを使用していることを示す.BERT-tiny,BERT-miniは今回の実験で対象にしたデータのみを使用して訓練したものである.}\label{tab:mean-reciprocal-rank_true}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これまでの実験では,外部の大規模なデータで事前訓練されたBERT-baseモデル(12層768次元)を使用してきた.ここでは,データを揃えて性能を比較するために,実験で対象にした通時データ(\ref{subsec:data}節)だけを使用してBERTモデルを再訓練する.BERT-baseの事前訓練に使用されたデータと比べると通時データの量は非常に少ないため,今回はBERT-tiny(2層128次元)とBERT-mini(4層256次元)を訓練した\footnote{どちらのモデルも1,000,000回のtrainstepを訓練終了とし,訓練時間は他の単語ベクトル手法と同様に2CPU(IntelXeon2.60GHz,全56コア),512GBのRAMを備えた計算機で計測した.}.表\ref{tab:mean-reciprocal-rank_true}より,提案した2つの拡張手法が同じデータで訓練されたBERT-tinyとBERT-miniの性能を上回ることを確認した.さらに,訓練時間を比較すると,BERT-tiny,BERT-miniは膨大な計算資源で2週間程度の訓練時間を要するのに対し,提案手法は軽量で高速に動作することがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{まとめ}本節では,提案した2つの拡張手法といくつかの代表的な先行研究について,英語と日本語の2つの言語で定量的な比較を行った.意味の変化する単語を擬似的に生成した場合では,提案した2つの拡張手法がほぼ完璧に意味の変化する単語を検出し,先行研究と同等またはそれ以上の平均逆順位を示した.実際に変化が報告されている単語を用いた場合でも,提案した2つの拡張手法が先行研究と同等またはそれ以上の平均逆順位を示した,また,単語分散表現の学習に必要な訓練時間を比較した結果,提案手法PMI-SVD$_\mathrm{joint}$が高速に動作し,PMI-SVD$_\textit{c}$は先行研究DynamicWordEmbeddingsと比較してハイパーパラメータ探索に必要な時間を大幅に削減していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} label{sec:qualitative}本節では最初に,定量的な比較実験(\ref{subsubsec:quantitative-real}節)で優れた性能を示したBERTと提案手法の1つであるPMI-SVD$_\textit{c}$について,定性的な分析を行った.次に,単に意味変化の有無を予測するだけでなく,意味変化の種類について先行研究の指標を用いて分析を行った.最後に,単語の意味変化の傾向について,単語ベクトルの空間上で分析を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{01table08.tex}%\hangcaption{各手法において時期間の余弦類似度が低い順に並べた上位10単語と,各時期における単語の意味の分析結果.1文字の単語は除外している.}\label{tab:ja_pred_changed_words}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化の可能性が高い上位10単語}\label{subsec:top10_words}まず,各手法が時期間の余弦類似度に基づいて語彙中の単語を並べ替え,意味変化の可能性が高いと予測した上位10単語を比較した.具体的には,各手法で時期間の余弦類似度が低い順に並べた単語について,その単語が出現する文を各時期のコーパスから50文抽出し,各時期における意味について人手でアノテーションを行い,代表的な意味を集計した.日本語における結果を表\ref{tab:ja_pred_changed_words}に示す.どちらの手法も「行い」や「欠け」といった2つの時期間で意味が変化した単語を検出できている事がわかる.また,BERTは「若く」,「公明」,「参議」,「幼稚」のように概念が追加・削除されることで意味が大きく変化する単語を,PMI-SVD$_\textit{c}$は「おまけ」,「反面」のように元の概念が拡張されることで意味が多少変化する単語を捉えている.BERTは与えられた文全体を考慮して単語ベクトルを算出し,PMI-SVD$_\textit{c}$は周辺数単語の頻度情報から単語ベクトルを算出していることから,単語ベクトルを獲得する際の文脈窓幅の違いによるものであると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化した単語に対する近傍単語の変化}\label{subsec:neighbors}次に,意味変化をした単語の近傍単語の変化を分析した\cite{kim-etal-2014-temporal,hamilton-etal-2016-diachronic}.ここでは,\citeA{mabuchi-ogiso-2021-attempt}によって意味の変化が報告されている単語「了解(理解$\rightarrow$承諾)」及び表\ref{tab:ja_pred_changed_words}で今回検出した単語「欠け(物理的$\rightarrow$概念的)」について,BERTとPMI-SVD$_\textit{c}$の近傍単語を比較した.%%%%それぞれの単語における近傍単語の変化を表\ref{tab:non-fanous}\subref{tab:ryokai},\ref{tab:non-fanous}\subref{tab:kake}に示す.それぞれの単語における近傍単語の変化を表\ref{tab:non-fanous}(a),\ref{tab:non-fanous}(b)に示す.%%%%意味変化が自明な単語「了解」は理解から承知へと意味が変化しており,表\ref{tab:non-fanous}\subref{tab:ryokai}からどちらの手法も適切に両方の意味を検出できているが,意味変化が自明な単語「了解」は理解から承知へと意味が変化しており,表\ref{tab:non-fanous}(a)からどちらの手法も適切に両方の意味を検出できているが,BERTは変化後の意味を持つ単語「承諾」,「承知」を変化前(戦前)に検出してしまっていることが分かる.今回の分析で検出した単語「欠け」は物理的な欠損から概念的な欠損へと変化していることを確認した.%%%%表\ref{tab:non-fanous}\subref{tab:kake}より,どちらの手法も変化の前後で適切に近傍単語を検出できていることがわかる.表\ref{tab:non-fanous}(b)より,どちらの手法も変化の前後で適切に近傍単語を検出できていることがわかる.以上の結果より,提案手法PMI-SVD$_\textit{c}$は意味変化が自明な単語だけでなく,そうでない単語についても適切に意味の変化を捉えられることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{01table09.tex}%\caption{各時期における対象単語ベクトルの近傍5単語.1文字の単語は除外している.}\label{tab:non-fanous}%%%%\label{tab:ryokai}%%%%\label{tab:kake}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化の種類}\label{subsec:global_local}これまでの分析では,2つの時期間で意味が変化した単語を検出していたが,それがどのような変化であるかまでは予測できていない.\citeA{hamilton-etal-2016-cultural}は,調査対象単語が緩やかに変化する言語的な変化または何らかの拍子に急激に変化する文化的な変化のどちらかを予測する指標を提案した.最初に,globalな指標として,分析対象の時期$t,t+1$における対象単語$w^i$のベクトル$\vW_t(w^i),\vW_{t+1}(w^i)$を以下のように直接比較する\begin{equation}\mathrm{global}_{t,t+1}(w^{i})=1-\cos(\vW_t(w^i),\vW_{t+1}(w^i)).\end{equation}次に,localな指標を以下のように算出する.まず,各時期$t,t+1$で対象単語$w^i$の上位$k$個の近傍単語$k\mathchar`-\mathrm{NN}(\vW_t(w^i)),k\mathchar`-\mathrm{NN}(\vW_{t+1}(w^i))$を獲得する.その後,各時期の近傍単語を結合し\begin{equation}L_{t,t+1}(w^{i})=k\mathchar`-\mathrm{NN}(\vW_t(w^i))\cupk\mathchar`-\mathrm{NN}(\vW_{t+1}(w^i)),\notag\end{equation}時期$t$における対象単語$w^i$と$L_{t,t+1}(w^{i})$に含まれる近傍単語$w^j$のベクトルの類似度を$|L_{t,t+1}(w^{i})|$次元のベクトル$\mathbf{s}_t$に格納する\begin{equation}\mathrm{s}_t[j]=\cos(\vW_{t}({w}^{i}),\vW_{t}({w}^{j})),\forallw^j\inL_{t,t+1}(w^{i}).\end{equation}最終的に,得られた類似度ベクトル$\mathbf{s}_t,\mathbf{s}_{t+1}$の変化を算出する\begin{equation}\mathrm{local}_{t,t+1}(w^{i})=1-\cos(\mathbf{s}_t,\mathbf{s}_{t+1}).\end{equation}以上のglobalとlocalの2つの指標の差を計算したところ,英語において,言語的に変化する副詞などの単語はglobalの値が大きく,文化的に変化する名詞や動詞などの単語はlocalの値が大きいことが報告されている\cite{hamilton-etal-2016-cultural}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{01table10.tex}%\caption{言語的($\mathrm{global}>\mathrm{local}$),文化的($\mathrm{global}<\mathrm{local}$)な意味変化の度合いが高い上位5単語.}\label{tab:global_local_change}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで,この指標を用いて,言語的・文化的それぞれの変化が強い単語を日本語のデータで分析する.結果を表\ref{tab:global_local_change}に示す.言語的な変化と予測された単語の中には,「老婆」や「心情」のように,時間経過とともに限定的な使われ方をするようになる単語が見られた.一方,文化的な変化と予測された単語の中には,「氾濫」のようにより広い使われ方に拡張された単語や「分離」のようにある用法が急激に使われるようになった単語が見られた.以上の結果より,先行研究とは異なるが,globalとlocalの2つの指標を組み合わせることで,限定的な使われ方をする単語と拡張された意味で使われるようになる単語を検出できることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化しやすいベクトルの特徴}\label{subsec:shift_regression}ここでは,どのような単語ベクトルが変化しやすいのか,\pagebreakまた,変化しやすい単語ベクトルには空間的な特徴があるのかについて分析を行った.日本語のデータにおいて,古い時期(戦前)の単語ベクトルを入力として与え,そのベクトルの変化量を予測する回帰問題として定式化を行った.今回は,PMI-SVD$_\textit{c}$のベクトルを訓練に4,000単語,評価に1,000単語使用した.実験に使用した回帰モデルを以下に示す.\begin{itemize}\item\textbf{線形回帰}:二乗の正則化項を持つリッジ回帰を採用した.正則化パラメータは\\$\{10^{-3},10^{-2},\ldots,10^3\}$から探索した.\item\textbf{多層パーセプトロン}:3層のネットワークを用い,線形回帰と同様に正則化パラメータの探索を行った.\item\textbf{ガウス過程回帰}:確率に基づいた予測を得られるため,ガウス過程による回帰モデルを用いた.カーネルはRBFカーネルを採用し,ハイパーパラメータはガウス過程回帰で一般的なスケーリング共役勾配法で最適化を行った.\end{itemize}ガウス過程回帰では,カーネルを用いることで,与えられた単語ベクトル間の類似度を考慮して変化量を予測することが可能である.RBFカーネルでは類似度にユークリッド距離が用いられているため,ガウス過程回帰は単語ベクトルからそのノルムも考慮していることになる.そこで,線形回帰と多層パーセプトロンの特徴量には,単語ベクトルだけを使用した場合と単語ベクトルとそのノルムを使用した場合の2種類を用いた.予測する変化量は平均0,分散1に標準化したユークリッド距離とし,評価には予測した変化量と実際の変化量との平均二乗誤差を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{01table11.tex}%\hangcaption{古い時期(戦前)の単語ベクトルから,その変化量(ユークリッド距離)を予測した結果.異なるseed値で5回評価した平均と標準偏差を示す.}\label{tab:shift_regression}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%訓練・評価用データの分割方法を変え,5回実験を行った結果を表\ref{tab:shift_regression}に示す.表より,ガウス過程回帰が最も正解からの誤差が低く,適切な予測ができていることがわかる.また,線形回帰において,単語ベクトルのノルムを特徴量に追加することで予測性能の向上が確認できる.このため,単語ベクトルのノルムが意味変化のしやすさに関係していると考える.そこで,単語ベクトルのノルムと意味変化の関係について調査するため,評価に用いた単語ベクトルをTSNEで2次元に圧縮して正解のユークリッド距離とガウス過程回帰の予測値を描画した.その結果を図\ref{fig:tsne_gpr}に示す.図より,中央にある単語ほど変化量が小さく,中央から離れた位置にある単語ほど変化量が大きいことが確認できる.ガウス過程回帰による予測結果は,図の外側に分布する人名や地理名などの固有名詞に対して,正解の値と同様に大きな変化量を示している.\ref{sec:preexperiment}節で行った分析でも同様の結果が現れており,表\ref{tab:semeval2020-top10}では意味変化の度合いが大きい順に並べた単語の多くが固有名詞であった.また,\ref{subsec:top10_words}節における分析結果の表\ref{tab:ja_pred_changed_words}でも,BERTとPMI-SVD$_\textit{c}$の両方が組織名や人名を含む単語を上位に検出していることから,この現象はモデル固有ではないことが言える.ここで,単語ベクトルのノルムを調べたところ,外側に位置する変化量の大きい固有名詞はベクトルのノルムが大きく,中央に位置する変化量の小さい単語はベクトルのノルムが小さいことがわかった.先行研究においても,固有名詞は他の品詞と比べてベクトルのノルムが大きく\cite{schakel-2015-measuring},特定の文脈で出現しやすい\cite{ohyama-etal-2022-vector}ことが示されている.これらの結果より,ベクトルのノルムが大きい固有名詞のような単語ほど意味が変化しやすいと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f7.pdf}\end{center}\hangcaption{正解のユークリッド距離(左)とガウス過程回帰の予測結果(右)をTSNEで2次元に圧縮し,可視化した結果.}\label{fig:tsne_gpr}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{01table12.tex}%\hangcaption{ガウス過程回帰のエラー分析の結果.「出版・報道」,「貿易」,「工学」,「軍事」のグループから単語を選択し,用例の変化を調査した.}\label{tab:gpr_false_positive}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,図\ref{fig:tsne_gpr}に示した「出版・報道」,「貿易」,「工学」,「軍事」のグループに含まれる単語は,実際にはあまり変化していないが回帰モデルは大きな変化量であると予測していた.そこで,各グループから単語を選択し,戦前と戦後での用例の違いを分析した.表\ref{tab:gpr_false_positive}より,「特派」と「電力」は人名や地名,企業名などと一緒に共起していることが確認できる.また,「製造」や「作戦」は単語自体の意味は変わらないものの,戦前・戦後の時代の特徴を反映していることが確認できる.以上から,これらのグループに含まれる単語は,変化量の大きい人名や地名などの固有名詞に影響されていると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{まとめ}本節では,いくつかの定性的な分析を行った.まず,BERTと提案手法の1つであるPMI-SVD$_\textit{c}$について比較を行った結果,PMI-SVD$_\textit{c}$は意味変化が自明な単語だけでなく,自明でない単語についても適切に意味変化を捉えられることがわかった.次に,意味変化の種類を予測する先行研究の指標を用いて,日本語のデータに対して分析を行った.その結果,限定的な使われ方をするようになった単語と拡張された意味で使われるようになった単語を分けて検出できることが確認できた.最後に,単語の意味変化のしやすさについて,回帰モデルを用いてベクトル空間の観点から分析を行った.その結果,単語ベクトルのノルムが意味変化量の予測に影響していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} label{sec:conclusion}本研究では,時期や分野の異なる文書間で意味や用例の異なる単語を検出するタスクにおいて,既存の単語ベクトル学習手法に対して2つの拡張を提案した.この手法は従来の手法の問題点を解消し,大規模な計算資源を必要とするBERTと比べCPUのみで軽量かつ高速に学習可能である.SemEval-2020Task1での事前実験の結果,提案した2つの拡張手法によって意味変化した単語の検出性能を向上させることを確認した.また,日本語と英語での実験より,提案した拡張手法は従来の手法よりも効果的に学習し,優れた性能を発揮する事を示した.網羅的な分析の結果,提案した拡張手法は意味変化が既知である単語だけでなく,自明でない単語についても検出可能である事を示した.意味変化の種類について先行研究の指標を用いて日本語で分析した結果,限定的な意味で使われるようになった単語と拡張された意味で使われるようになった単語を区別して検出できることがわかった.最後に,回帰モデルを用いて意味変化のしやすさをベクトル空間の観点から分析した結果,単語ベクトルのノルムが意味変化量の予測に影響していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は国立国語研究所の共同研究プロジェクト「現代語の意味の変化に対する計算的・統計力学的アプローチ」,同「通時コーパスの設計と日本語史研究の新展開」およびJSPS科研費19H00531,18K11456の研究成果の一部を報告したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{相田太一}{%2020年長岡技術科学大学工学部電気電子情報工学課程卒業.2022年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年同大学同研究科同学域博士後期課程進学.}\bioauthor{小町守}{%小林さんの執筆途中の論文誌から2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年同研究科博士後期課程修了.博士(工学).同年同研究科助教.2013年首都大学東京(現東京都立大学)システムデザイン学部准教授,2022年より教授.2023年より一橋大学ソーシャル・データサイエンス研究科教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{小木曽智信}{%白井さんの論文誌から1995年東京大学文学部日本語日本文学(国語学)専修課程卒業.1997年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了.2001年同博士課程中途退学.2014年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2001年明海大学講師,2006年独立行政法人国立国語研究所研究員を経て,2009年人間文化研究機構国立国語研究所准教授,2016年より教授.言語処理学会,日本語学会各会員.}\bioauthor{高村大也}{%馬蝶さんの論文誌+古山さんの論文誌1997年東京大学工学部計数工学科卒業.2000年同大学大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学で研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年東京工業大学助手,のち助教,准教授を経て,2017年から2021年まで同教授.2017年より産業技術総合研究所人工知能研究センターチーム長.言語処理学会,ACL各会員.}\bioauthor{持橋大地}{%2007年情報処理学会論文誌+profileより1998年東京大学教養学部基礎科学科第二卒業.2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(理学).2003年ATR音声言語コミュニケーション研究所研修研究員/専任研究員.2007年よりNTTコミュニケーション科学基礎研究所リサーチアソシエイト.2011年より統計数理研究所准教授.ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V12N05-08
\section{はじめに} モンゴル語においては,自立語の語幹に対して格を表す語尾や動詞の活用を表す語尾・接続助詞等が結合したものが句を構成し,ヨーロッパ言語と同様に,空白で区切られた句の列により文を構成する.ここで,モンゴル語の形態素解析の問題について考えると,この問題は,モンゴル語文中の名詞句や動詞句が与えられて,それらの句を名詞あるいは動詞の語幹と語尾とに分解することであると言える.この処理を実現するためには,名詞あるいは動詞の語幹に語尾が接続する際の接続可能性や語変形の規則性を明らかにする必要がある.また,例えば,他の言語からモンゴル語への機械翻訳などにおいては,名詞あるいは動詞の語幹および語尾が与えられると,その語幹・語尾の組に対する語変形や活用の過程を規則化し,名詞句あるいは動詞句を生成する機構を確立する必要がある.ところが,現時点で利用可能なモンゴル語の言語資源としては,数千語程度の規模の単語について語幹情報が登録された電子辞書,および,ウェブ上で収集可能な新聞記事等の電子テキストが存在するにすぎない.また,モンゴル語に関して,名詞あるいは動詞の語幹と語尾の組から名詞句あるいは動詞句を生成するための言語知識や規則なども全く整備されていない.また,そのような句生成のための言語知識・規則を運用すれば,モンゴル語の句の形態素解析を行なうこともできるが,現時点では,モンゴル語文の形態素解析を実用的規模で行なうことも実現されていない.本論文では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストから,モンゴル語の名詞句・動詞句を生成する手法を提案する.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成する.評価実験の結果において,名詞句の場合は98\%程度,動詞句の場合は100\%という性能で,生成された句の中に正しい句候補が含まれるという結果が得られた.さらに,本論文では,この句生成に基づいて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案する.具体的には,まず,既存のモンゴル語辞書から名詞語幹および動詞語幹を人手で抽出する.次に,これらの語幹に対して,モンゴル語名詞句・動詞句生成規則を適用することにより,語幹・語尾の組から句を生成するための語形変化テーブルを作成する.そして,この語形変化テーブルを参照することにより,与えられた名詞句・動詞句を形態素解析して語幹・語尾に分離する.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.以下,まず,\ref{sec:mon-gra}~節においては,モンゴル語の文法の概要について述べる.\ref{scn:vowelagreement}~節においては,名詞・動詞の語幹に語尾が接続する際に,名詞・動詞に含まれる母音字と,語尾に含まれる母音字の間で満たされるべき接続制約について述べ,\ref{scn:suffixagreement}~節においては,名詞・動詞の語幹に語尾が接続する際の語形変化規則について述べる.\ref{sec:phrase-gene}~節においては,モンゴル語句生成の評価実験について,\ref{sec:morph-analysis}~節においては,モンゴル語形態素解析の評価実験について,それぞれ述べる.また,\ref{sec:related}~節においては,関連研究について述べる. \section{モンゴル語の文法} label{sec:mon-gra}\begin{table}\caption{\label{tbl:noun-suf}名詞に接続する語尾の一覧}\begin{center}\begin{tabular}{|c|c|}\Hline語尾の分類&語尾種類数\\\Hline属格&7\\対格&2\\与位格&3\\奪格&4\\造格&4\\共同格&3\\再帰所属&4\\複数&4\\否定&1\\\Hline合計&32\\\Hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\begin{tabular}{cl}(1)&名詞語幹\\&${х\!\!v\!\!v\!\!х\!\!э\!\!д}$(子供)\\(2)&名詞語幹$+$複数語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д}$(子供達)\\(3)&名詞語幹$+$複数語尾$+$格語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д\!\!т\!\!э\!\!й}$(子供達と一緒に)\\(4)&名詞語幹$+$複数語尾$+$格語尾$+$再帰所属語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д\!\!т\!\!э\!\!й\!\!г\!\!э\!\!э}$(自分の子供達と一緒に)\\(5)&名詞語幹$+$複数語尾$+$否定の語尾$+$格語尾$+$再帰所属語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д\!\!т\!\!э\!\!й\!\!г\!\!э\!\!э\!\!р\!\!э\!\!э}$(自分の子供達とは別に)\end{tabular}\end{center}\caption{名詞の語形変化の例}\label{fig:noun}\end{figure}\begin{table}\caption{\label{tbl:verb-suf1}動詞の活用語尾の一覧(その1)}\begin{center}\begin{tabular}{|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&活用の分類&語尾種類数\\\Hline1&&1人称意思1&3\\2&&1人称意思2&2\\3&&2人称命令&0\\4&命令・願望&2人称勧告&4\\5&&2人称催促&4\\6&&2人称懇願&2\\7&&1-3人称願望&4\\8&&1-3人称懸念&2\\\hline9&&現在・未来&4\\10&&単純過去&4\\11&叙述&体験過去&4\\12&&伝聞過去&2\\13&&過去&1\\\hline14&&完了&4\\15&&継続&4\\16&形動詞&予定&1\\17&&習慣&4\\18&&可能性&4\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:verb-suf2}動詞の活用語尾の一覧(その2)}\begin{center}\begin{tabular}{|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&活用の分類&語尾種類数\\\Hline19&&連合&1\\20&&並列&2\\21&&分離&4\\22&&条件&8\\23&副動詞&継続&4\\24&&限界&4\\25&&即刻&4\\26&&随伴&4\\27&&付帯1&2\\28&&付帯2&4\\\hline29&&受身&1\\30&その他&使役&2\\31&&否定&2\\32&&完了&1\\\Hline\multicolumn{3}{|c|}{合計}&96\\\Hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\begin{tabular}{cl}(1)&動詞語幹\\&${и\!\!д}$(食べる)\\(2)&動詞語幹$+$受動態語尾\\&${и\!\!д\!\!э\!\!г\!\!д}$(食べられる)\\(3)&動詞語幹$+$使役態語尾\\&${и\!\!д\!\!v\!\!v\!\!л}$(食べさせる)\\(4)&動詞語幹$+$意志の語尾\\&${и\!\!д\!\!ь\!\!е}$(食べよう)\\(5)&動詞語幹$+$単純過去の語尾\\&${и\!\!д\!{\rmc}\!э\!\!н}$(食べた)\\(6)&動詞語幹$+$形動詞・完了の語尾$+$否定の語尾\\&${и\!\!д\!{\rmc}\!э\!\!н\!\!г\!\!v\!\!й}$(食べなかった)\\(7)&動詞語幹$+$従属節(限界)語尾\\&${и\!\!д\!\!т\!\!э\!\!л}$(食べるまで)\\(8)&動詞語幹$+$受動態語尾$+$単純過去の語尾\\&${и\!\!д\!\!э\!\!г\!\!д\!{\rmc}\!э\!\!н}$(食べられた)\end{tabular}\end{center}\caption{\label{fig:verb}動詞の活用の例}\end{figure}現代モンゴル語で使われる文字はキリル文字である.モンゴル語では,自立語の語幹に対して格を表す語尾や動詞の活用を表す語尾・接続助詞等が結合したものが句を構成し,ヨーロッパ言語と同様に,空白で区切られた句の列により文を構成する.モンゴル語の語順は日本語と同じSOVで,動詞が文末に位置し,その他の句の語順は比較的自由である.通常,名詞の語幹には,数を表す語尾,格を表す語尾,再帰所属を表す語尾がこの順に接続する.名詞に接続する語尾の分類,および,各分類ごとの語尾の種類数を表\ref{tbl:noun-suf}に示す.通常,同一の分類に対応する語尾には数種類の可能性があり,一つの名詞に接続する語尾を決定する際には,その複数の可能性の中から,\ref{scn:vowelagreement}~節で述べる母音の接続制約,および,\ref{scn:suffixagreement}~節で述べる語幹・語尾の接続制約を満たす語尾が選ばれる.さらに,\ref{scn:suffixagreement}~節の語形変化規則により,語幹・語尾が語形変化する.名詞の語幹にこれらの語尾が接続した場合の語形変化の例を図\ref{fig:noun}に示す.同様に,動詞の語幹に接続する語尾は,命令・願望類,叙述類,完了・習慣等を表す類,順序関係を表す類,等に分類される.動詞の活用語尾の分類,および,各分類ごとの語尾の種類数を表\ref{tbl:verb-suf1}$\sim$\ref{tbl:verb-suf2}に示す.動詞の場合も,同一の分類に対応する語尾には数種類の可能性があり,一つの動詞に接続する語尾を決定する際には,その複数の可能性の中から,\ref{scn:vowelagreement}~節で述べる母音の接続制約,および,\ref{scn:suffixagreement}~節で述べる語幹・語尾の接続制約を満たす語尾が選ばれる.そして,\ref{scn:suffixagreement}~節の語形変化規則により,語幹・語尾が語形変化する.動詞の語幹にこれらの語尾が接続して動詞が活用する例を図\ref{fig:verb}に示す.なお,名詞・動詞に関して,本論文の執筆段階において実装されていないものとして,派生語がある.派生語とは,名詞語幹あるいは動詞語幹に派生語語尾が接続して語形変化した結果の語であり,名詞語幹から構成される派生動詞,名詞語幹から構成される派生名詞,および,動詞語幹から構成される派生名詞がある.派生語語尾としては,数十種類のものがある.派生語の内部構造を解析するためには,派生語に対して語幹・語尾の語形変化規則を適用して形態素解析を行なう必要があるが,実用的には,既知の派生語を語幹として登録し,形態素解析を行なうという方式が妥当であると考えられる.また,句生成および形態素解析において,名詞と同様の扱いが可能なものとして形容詞がある.モンゴル語の形容詞には,名詞に接続する語尾のうち複数語尾を除く語尾がすべて接続可能であり,語幹・語尾の語形変化の規則についても,名詞句の語形変化で用いている規則がそのまま適用できる. \section{\label{scn:vowelagreement}モンゴル語の母音字の接続制約} モンゴル語においては,名詞・動詞の語幹に語尾が接続する際に,名詞・動詞の語幹の末尾および語尾において語形変化・活用が起こる.本章では,この語尾の接続において,名詞・動詞に含まれる母音字と,語尾に含まれる母音字の間で,どのような接続制約が満たされる必要があるかについて述べる.なお,本章および次章で述べる内容は,\cite{Mongol00aj}に基づいており,日本語での用語等は\cite{Kuribayashi92aj}に従っている.\subsection{モンゴル語の母音字と子音字}\begin{table*}\caption{\label{tbl:vowels}モンゴル語の母音}\begin{center}\begin{tabular}{|l|l|}\hline基本母音字&{а,о,У,и,з,Θ,v}\\補助母音字1(子音+母音と見なされる)&{я,е,ё,ю}\\補助母音字2(長母音として扱う)&{ы}\\補助母音字3(基本的に単独では使われない)&{й}\\\hline長母音&${а\!\!а,о\!\!о,У\!\!У,и\!\!й,з\!\!з,Θ\!\!Θ,v\!\!v}$\\二重母音&${а\!\!й,о\!\!й,У\!\!й,з\!\!й,v\!\!й}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:consonents}モンゴル語の子音字}\begin{center}\begin{tabular}{|l|l|}\hline母音を必ず伴う子音字&{м,н,г,л,б,в,р}\\母音を伴わなくてもよい子音字&{д,т,ч,ж,ц,з,С,Ш,х}\\特殊子音字(外来語に使われる)&{п,ф,Щ,к}\\\hline\end{tabular}\end{center}\end{table*}\begin{table}\caption{\label{tbl:gender}モンゴル語の母音と性の関係}\begin{center}\begin{tabular}{|l|l|}\hline男性母音&{а,о,У,я,ё,ю,ы}\\女性母音&{з,Θ,v,е,ю}\\中性母音&{и}\\\hline\end{tabular}\end{center}\end{table}モンゴル語で用いる文字は全35文字で,母音字13字,子音字20字,記号文字2字から構成される.長母音,二重母音を含めたモンゴル語の母音の一覧を表\ref{tbl:vowels}に,子音の一覧を表\ref{tbl:consonents}に,それぞれ示す.母音字のうち補助母音字1は,多音字であり子音+母音とみなされる.また,補助母音字1に基本母音を一つつけるという形でも使われる.補助母音字2は,単独で長母音として扱われる.補助母音字3は,単独で使われることはなく,他の母音とともに使われ二重母音を構成する.また,モンゴル語の母音は,男性・女性・中性の三つの性を持ち,その内訳は表\ref{tbl:gender}となる.モンゴル語の単語の性は,強勢が置かれる母音の性によって決まる.\begin{table}\caption{\label{tbl:genderagreement}モンゴル語の母音字の接続制約}\begin{center}\begin{tabular}{|l|l|}\Hline\multicolumn{1}{|c|}{語幹の母音字}&\multicolumn{1}{|c|}{語尾の母音}\\\Hline{а,У,я}&{а,я,$а\!\!й$}\\{о,ё}&{о,ё,$о\!\!й$}\\{з,v,и,е,ю}&{з,е,$з\!\!й$}\\{Θ}&{Θ}\\\hline{а,о,У,я,ё,ю,ы}&{У,ы}\\{з,Θ,v,и,е,ю}&{v,$и\!\!й$}\\\Hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:ii}母音字の接続制約の例外:語幹の末尾の文字と語尾の先頭字の接続制約}\begin{center}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{語幹の末尾の文字}&語尾の先頭字\\\hline{ж,ч,ш,и,г,ь}&{$и\!\!й$}\\\hline\end{tabular}\end{center}\end{table}\subsection{母音字の接続制約}動詞・名詞の語幹と語尾の接続の際に,双方の母音字の間で満たされるべき接続制約をまとめると,表\ref{tbl:genderagreement}となる.この表は,語幹の母音字,および,それに接続可能な語尾の母音の組の一覧となっている.なお,ここで接続可能な母音同士は,表\ref{tbl:gender}で示した性が同一のものとなっている.ただし,この場合,中性母音は女性母音として扱う.また,表\ref{tbl:genderagreement}の母音字の接続制約に対する例外として,名詞・動詞の語幹の末尾の文字と語尾の先頭字の間においては,表\ref{tbl:ii}に示す接続制約が満たされなければならない.ここで,表\ref{tbl:ii}に示す接続制約は,名詞・動詞の語幹の末尾の文字が表\ref{tbl:ii}左側の文字となる場合で,しかも,語尾の候補として,表\ref{tbl:ii}右側の文字を先頭字として持つものが含まれる場合には,必ずその語尾が選ばれなければならない,と解釈される.そして,このときには,表\ref{tbl:genderagreement}の母音の接続制約は必ずも満たされる必要はない. \section{\label{scn:suffixagreement}モンゴル語の語幹・語尾の語形変化} 通常,同一の分類に対応する語尾には数種類の可能性があり,一つの名詞あるいは動詞に接続する語尾を決定する際には,その複数の可能性の中から,まず,前節で述べた母音の接続制約を満たす語尾が選ばれ,さらに,\ref{subsec:suf-agr}節で述べる語幹・語尾の接続制約を満たす語尾が選ばれる.そして,\ref{subsec:inflect}節の語形変化規則により,語幹・語尾が語形変化する.\subsection{語幹・語尾接続制約}\label{subsec:suf-agr}動詞・名詞の語幹の末尾と語尾の接続において満たされるべき接続制約をまとめると,表\ref{tbl:rule0}となる.この表は,語幹の末尾,および,それに接続可能な語尾の組の一覧となっている.\begin{table*}\caption{\label{tbl:rule0}語幹の末尾と語尾の接続制約}\begin{center}\begin{tabular}{|l|l|}\Hline\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾}\\\Hline{н}&{г}\\{c,х}&{т,ч}\\母音&{л}\\母音を必ず伴う子音字$+$軟音符{ь}&母音を伴わなくてもよい子音字\\子音字$+$軟音符{ь}&{я,ё}\\子音字$+$軟音符{ь}&${г\!\!v\!\!й}$\\母音&{е,я,ё}\\\Hline\end{tabular}\end{center}\end{table*}\subsection{語幹・語尾の語形変化}\label{subsec:inflect}語幹・語尾の接続における語形変化の規則は,以下の四種類である.\begin{enumerate}\item母音字消失の規則(表\ref{tbl:rule1})\item軟音符{ь}が母音字{и}に変化する際の規則(表\ref{tbl:i})\itemつなぎの母音字の挿入規則(表\ref{tbl:newvowel})\item母音以外のつなぎの文字の挿入規則(表\ref{tbl:new})\end{enumerate}語幹・語尾の接続における語形変化の際に,語形変化後の語のアクセントが変化する場合がある.この場合,特に,アクセントが変化して,母音が発音されなくなることがあり,この発音されなくなった母音字が消失する.その際の規則性を記述したものが「母音字消失の規則」である.ただし,以下の場合には,必ずしも母音字が消失しなくてもよい.\begin{enumerate}\item「母音を必ず伴う子音字」に伴っている母音が消失する場合\item{н,г}の直後の母音字\item{ж,ч,ш}以外の子音字の直後の{и}\item固有名詞の母音字\item形動詞予定形の母音字\end{enumerate}語幹・語尾の接続における語形変化の際に,軟音符{ь}が母音字{и}に変化することがある.その際の規則性を記述したものが「軟音符{ь}が母音字{и}に変化する際の規則」である.また,語幹・語尾の接続において子音が連続する場合は,つなぎの母音字を挿入する.その際の規則性を記述したものが「つなぎの母音字の挿入規則」である.その他の場合で,語幹・語尾の接続において,母音以外のつなぎの文字を挿入する場合もある.その際の規則性を記述したものが「母音以外のつなぎの文字の挿入規則」である.\begin{table*}\caption{\label{tbl:rule1}母音字消失の規則}\begin{center}\begin{tabular}{|r|p{1.2in}|p{1.4in}|p{1.4in}|}\Hline&\multicolumn{1}{|c|}{語の末尾}&\multicolumn{1}{|c|}{語尾の先頭}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&{и}以外の母音&長母音&語の最後の母音が消失\\(ii)&母音字$+$子音字&長母音&子音字$+$長母音\\(iii)&母音字$_1+$子音字$_1$&子音字$_2$&子音字$_1+$母音字$_2+$子音字$_2$\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:i}軟音符{ь}が母音字{и}に変化する際の規則}\begin{center}\begin{tabular}{|r|p{1.2in}|p{1.4in}|p{1.4in}|}\Hline&\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾の先頭}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&子音字$+$軟音符{ь}&長母音($х\!\!х$)&子音字$+$$и\!\!х$\\(ii)&子音字$+$軟音符{ь}&母音を必ず伴う子音字&子音字$+${и}$+$母音を必ず伴う子音字\\(iii)&母音を伴わなくてもよい子音字$_1+$軟音符{ь}&母音を伴わなくてもよい子音字$_2$&母音を伴わなくてもよい子音字$_1+${и}$+$母音を伴わなくてもよい子音字$_2$\\(iv)&子音字$+$軟音符{ь}&{х}(形動詞予定形活用語尾)&子音字$+$$и\!\!х$\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:newvowel}つなぎの母音字の挿入規則}\begin{center}\begin{tabular}{|r|p{1.2in}|p{1.5in}|p{1.4in}|}\Hline&\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&母音を伴わなくてもよい子音字&子音字&母音を伴わなくてもよい子音字$+$母音字$+$子音字\\(ii)&母音を必ず伴う子音字$_1$&母音を必ず伴う子音字$_2$&母音を必ず伴う子音字$_1+$母音字$+$母音を必ず伴う子音字$_2$\\(iii)&{c,ш}&{л}&{c,ш}$+${л}$+$母音字\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:new}母音以外のつなぎの文字の挿入規則}\begin{center}\begin{tabular}{|c|l|l|l|}\Hline&\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾の先頭}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&(女性語)子音字&{е}&子音字$+$軟音符{ь}$+${е}\\\hline(ii)&(男性語)子音字&{я,ё}&子音字$+$硬音符{ъ}$+${я,ё}\\\hline(iii)&長母音$_1$&長母音$_2$&長母音$_1+${г}$+$長母音$_2$\\(iv)&長母音$_1$&長母音$_2$&長母音$_1+${$н\!\!х$}$+$長母音$_2$\\\Hline\end{tabular}\end{center}\end{table*} \section{モンゴル語句生成} \label{sec:phrase-gene}\subsection{名詞・動詞の語幹リストの作成}\label{subsec:stems}見出し語数約7,500語の日本語・モンゴル語対訳辞書のモンゴル語見出し語から,以下の手順で,名詞・動詞の語幹を抽出した.まず,名詞については,見出し語が名詞の語幹で記述されているので,1,926語を人手で抽出した.一方,動詞については,見出し語が形動詞・予定形で記述されている.そこで,まず,動詞の形動詞・予定形1,254語を人手で抽出し,形動詞・予定形を動詞・語幹と予定形・活用語尾に分離する形態素解析規則を適用した.この形態素解析における語幹の候補語数は,形動詞・予定形一単語あたり,平均で1.365語であり,この中に正しい語幹を含む率は100\%であった.この形態素解析結果に対して,人手で正しい語幹を選択し,動詞の語幹リストを作成した.さらに,形態素解析の実験に用いる句から語幹を人手で抽出したものを追加し,合計で名詞語幹2,048語,動詞語幹1,258語のリストを得た.\subsection{モンゴル語の句が生成されるパターン}\label{subsec:network}モンゴル語の句が語幹からどの順番で生成されるかを図で示す.名詞句の場合を図\ref{fig:nounnet}に,動詞句の場合を図\ref{fig:verbnet}に示す.\begin{figure*}[hbtp]\begin{center}\epsfile{file=FIG/noun-network.eps,width=12cm}\caption{\label{fig:nounnet}名詞語幹に語尾が接続する順序}\end{center}\end{figure*}\begin{figure*}[hbtp]\begin{center}\epsfile{file=FIG/verb-network.eps,width=12cm}\caption{\label{fig:verbnet}動詞語幹に語尾が接続する順序}\end{center}\end{figure*}\subsection{例}\label{subsec:phrase-ex}表\ref{tbl:nounphrase1}$\sim$\ref{tbl:verbnoun1}に,名詞+属格の語形変化の例,名詞+与位格の語形変化の例,動詞の活用「副動詞:並列」の例,動詞の活用「命令・願望:1-3人称懸念」,および,「動詞語幹+形動詞・予定形語尾+与位格語尾+再帰所属語尾」の例をそれぞれ示す.表\ref{tbl:nounphrase1}の名詞+属格の語形変化の例においては,「${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$」(教育)という名詞に,「$\sim$の」という意味の属格語尾が接続した場合の語形変化の様子を示す.まず,属格語尾の全候補として六種類の語尾が得られるが,このうち,男性名詞「${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$」に接続可能な語尾は三種類に絞られる.さらに,属格固有の語幹・語尾接続制約により,接続可能な語尾は二種類に絞られる.この二種類の語尾が語幹に接続すると,語形変化を伴わず語幹に語尾がそのまま接続した形の句候補が二種類,および,母音字消失規則(ii)が適用された形の句候補が一種類,合計三種類の句候補が生成される.今回の評価実験では行っていないが,人手でこれらの句候補の検証を行なった場合は,一種類の句候補のみが得られる.表\ref{tbl:nounphrase2}の名詞+与位格の語形変化の例においては,「${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$」(教育)という名詞に,「$\sim$に」という意味の与位格語尾が接続した場合の語形変化の様子を示す.この場合,与位格語尾の全候補二種類がそのまま接続した形の句候補二種類の他に,与位格固有のつなぎの子音字の挿入,および,つなぎの母音字の挿入が適用され,さらに二種類の句候補が生成される.今回の評価実験では行っていないが,人手でこれらの句候補の検証を行なった場合は,一種類の句候補のみが得られる.\begin{table*}\caption{\label{tbl:nounphrase1}名詞+属格の語形変化の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$\\\hline&{$н\!\!ы$,$ы\!\!н$,ы,$н\!\!и\!\!й$,$и\!\!й$,$и\!\!й\!\!н$}(属格の全語尾候補)\\語尾候補&$\longrightarrow${$н\!\!ы$,$ы\!\!н$,ы}(男性名詞に接続可能な語尾候補)\\&$\longrightarrow${$н\!\!ы$,$ы\!\!н$}(属格固有の接続制約:{ы}は語の末尾が{н}以外には接続不可)\\\hline&(語幹+{$н\!\!ы$})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!ы}$\\語形変化&(語幹+{$ы\!\!н$})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!ы\!\!н}$\\&(語幹+{$ы\!\!н$})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!ы\!\!н}$$\longrightarrow$(母音字消失規則(ii))$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!л\!\!ы\!\!н}$\\\hline人手による検証&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!ы\!\!н}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:nounphrase2}名詞+与位格の語形変化の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$\\\hline語尾候補&{д,т}\hspace*{2cm}(与位格の全語尾候補)\\\hline&(語幹+{д})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$\\&(語幹+{д})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$$\longrightarrow$(与位格固有のつなぎの子音字{н}の挿入)$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!д}$$\longrightarrow$(つなぎの母音字の挿入規則(ii))$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!о\!\!н\!\!д}$\\語形変化&(語幹+{т})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!т}$\\&(語幹+{т})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!т}$$\longrightarrow$(与位格固有のつなぎの子音字{н}の挿入)$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!т}$$\longrightarrow$(つなぎの母音字の挿入規則(ii))$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!о\!\!н\!\!т}$\\\hline人手による検証&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$\\\hline\end{tabular}\end{center}\end{table*}表\ref{tbl:verbphrase1}の動詞の活用「副動詞:並列」の例においては,「${и\!\!р}$」(来る)という動詞の活用の様子を示す.また,表\ref{tbl:verbphrase2}の動詞の活用「叙述:伝聞過去」の例においては,「${г\!\!а\!\!р}$」(出る)という動詞の活用の様子を示す.表\ref{tbl:verbphrase1}および表\ref{tbl:verbphrase2}のどちらの場合も,全語尾候補二種類がそのまま接続した形の句候補二種類が生成される.いずれの場合も,人手でこれらの句候補の検証を行なった結果においては,文法的に正規の句候補が一種類だけ得られる.ただし,実際には,表\ref{tbl:verbphrase2}の「${г\!\!а\!\!р}$」の活用「叙述:伝聞過去」の場合は,慣習的に表記の揺れが起こっており,誤った句候補の方も用いられることがある.また,活用「副動詞:並列」の場合も,動詞によっては表記の揺れが起こる場合があり,現在の句生成規則は,そのような場合を考慮した設計となっている.表\ref{tbl:verbphrase1}の「${и\!\!р}$」の活用「副動詞:並列」において,誤った句候補が生成されるのは,このことが原因である.表\ref{tbl:verbnoun1}に形動詞・予定形の変化を示す.モンゴル語の動詞の形動詞の中に名詞として変化する一部がある.表\ref{tbl:verbnoun1}にその一例を示す.こういう語形変化済み句を更に語形変化すると一つ前の変化の結果によって,接続される語尾が限られる.本論文では語形変化を複数回すると,一つ前の語尾を考慮している.そのため,表\ref{tbl:verbnoun1}に示す句は一意に生成されている.\begin{table*}\caption{\label{tbl:verbphrase1}動詞の活用「副動詞:並列」の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${и\!\!р}$\\\hline語尾候補&{ж,ч}(副動詞:並列の全語尾候補)\\\hline活用&(語幹+{ж})$\longrightarrow$${и\!\!р\!\!ж}$\\&(語幹+{ч})$\longrightarrow$${и\!\!р\!\!ч}$\\\hline人手による検証&${и\!\!р\!\!ж}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:verbphrase2}動詞の活用「叙述:伝聞過去」の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${г\!\!а\!\!р}$\\\hline語尾候補&${ж\!\!э\!\!э}$,${ч\!\!э\!\!э}$(叙述:伝聞過去の全語尾候補)\\\hline活用&(語幹+${ж\!\!э\!\!э}$)$\longrightarrow$${г\!\!а\!\!р\!\!ж\!\!э\!\!э}$\\&(語幹+${ч\!\!э\!\!э}$)$\longrightarrow$${г\!\!а\!\!р\!\!ч\!\!э\!\!э}$\\\hline人手による検証&${г\!\!а\!\!р\!\!ж\!\!э\!\!э}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:verbnoun1}動詞語幹+形動詞・予定形語尾+与位格語尾+再帰所属語尾の語形変化の例}\begin{center}\begin{tabular}{|c|ll|}\hline動詞語幹&${а\!\!в\!\!а\!\!р}$(救う)&\\\hline&\multicolumn{2}{|l|}{${а\!\!в\!\!а\!\!р}$+{х}(形動詞・予定形語尾)$\longrightarrow$${а\!\!в\!\!р\!\!а\!\!х}$(救うこと)}\\語形変化&\multicolumn{2}{|l|}{${а\!\!в\!\!р\!\!а\!\!х}$+${ы\!\!г}$(与位格語尾)$\longrightarrow$${а\!\!в\!\!р\!\!а\!\!х\!\!ы\!\!г}$(救うことを)}\\&\multicolumn{2}{|r|}{${а\!\!в\!\!р\!\!а\!\!х\!\!ы\!\!г}$+${а\!\!а}$(再帰所属語尾)$\longrightarrow$${а\!\!в\!\!р\!\!а\!\!х\!\!ы\!\!г\!\!а\!\!а}$(自分が救うことを)}\\\hline\end{tabular}\end{center}\end{table*}\subsection{モンゴル語句候補生成の評価}\label{subsec:phrase-result}前節で作成した,名詞語幹2,048語,および,動詞語幹1,258語について,以下の手順で名詞句・動詞句の句候補生成を行ない,その性能を評価した.\begin{enumerate}\item与えられた名詞もしくは動詞の語幹に対して,格や活用の分類に応じた語尾の全候補をまず求める.\item\ref{scn:vowelagreement}~節で述べた母音の接続制約に基づいて,語尾の候補を絞り込む.\item\ref{scn:suffixagreement}~節で述べた語幹・語尾の語形変化の規則を用いて,名詞・動詞の句候補を生成する.\end{enumerate}名詞と動詞の語幹にそれぞれ,表\ref{tbl:noun-suf}と表\ref{tbl:verb-suf1}$\sim$\ref{tbl:verb-suf2}中の語尾を一つだけ接続した句を生成する過程を評価した.評価の詳細な結果は,名詞の結果は,表\ref{tbl:nounresult}に,動詞の結果は,表\ref{tbl:verbresult1}$\sim$\ref{tbl:verbresult2}に示す.評価実験の結果では,名詞については,句候補の平均数が1.60,正しい句を含む率は97.78\%であった.ここで,正しい句を含まない場合の多くを占めるのは外来語であり,外来語が語幹の場合の句生成は,本論文で用いているモンゴル語の句生成規則に従わないことが多いと言える.例えば,${о\!\!п\!\!т\!\!е\!\!р\!\!о\!\!н}$(Opteronマシン)という外来語名詞語幹に造格語尾${о\!\!о\!\!р}$($\sim$で)が接続して語形変化をする場合,句生成規則に従えば,${о\!\!п\!\!т\!\!е\!\!р\!\!\underline{о}\!\!н}$の下線部の母音{\underline{о}}が消失し,句候補${о\!\!п\!\!т\!\!е\!\!р\!\!н\!\!о\!\!о\!\!р}$が生成される.しかし,実際には,消失された母音も発音されるため,正しい句は,${о\!\!п\!\!т\!\!е\!\!р\!\!\underline{о}\!\!н\!\!о\!\!о\!\!р}$となる.このような外来語の句生成に対処する方法としては,外来語に特化した句生成規則を用意することが考えられる.また,動詞については,二種類の変化(形態素解析において表記の揺れに対処するために,二通りの句を生成するように規則が設定されている副動詞:並列(表\ref{tbl:verbphrase1})および叙述:伝聞過去(表\ref{tbl:verbphrase2}))を除いて一意に生成できて(その二種類については句候補の平均数は1.15),句候補の平均数が1.01,正しい句を含む率は100.00\%であった.ただし,句候補の平均数は全ての語幹を対象として算出したが,句生成の精度については,動詞語幹および名詞語幹を100語ずつ無作為に選び,それらに語尾を一つだけ接続した句を対象として算出した.動詞句の場合は,二種類の変化を除いて,生成された句は全て正しい.句候補の平均数が1.15となる二種類の変化についても,形態素解析において表記の揺れに対処するために,二通りの句を生成するように規則が設定されているためであり,これらの変化において句候補の平均数を1.00とすることは容易である.一方,名詞句の場合は,誤った句が生成されており,1語幹につき0.6語の誤った句が生成されている.誤った句は,特に,複数,与位格,属格,奪格の語尾が接続する場合に多い.\begin{table}\caption{\label{tbl:nounresult}名詞の句候補手順の評価}\begin{center}\begin{tabular}{|c|c|c|c|}\Hline&&\multicolumn{2}{|c|}{(一名詞あたり)}\\\cline{3-4}語尾の分類&語尾種類数&句候補数の平均&正しい句候補を含む率(\%)\\\Hline属格&7&2.000&97.0\\対格&2&2.803&99.5\\与位格&3&1.107&97.0\\奪格&4&2.00&97.0\\造格&4&1.107&97.0\\共同格&3&1.000&99.0\\再帰所属&4&1.107&97.0\\複数&4&2.237&97.0\\否定&1&1.000&100.0\\\Hline合計/平均&32&1.596&97.78\\\Hline\end{tabular}\end{center}\end{table}\begin{table*}\caption{\label{tbl:verbresult1}動詞の句候補生成手順の評価(その1)}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&&&\multicolumn{2}{|c|}{(一動詞あたり)}\\\cline{5-6}\multicolumn{2}{|c|}{}&&&&正しい句候補\\\multicolumn{2}{|c|}{}&活用の分類&語尾種類数&句候補数の平均&を含む率(\%)\\\Hline1&&1人称意思1&3&1.000&100.0\\2&&1人称意思2&2&1.000&100.0\\3&&2人称命令&0&1.000&100.0\\4&命令・願望&2人称勧告&4&1.000&100.0\\5&&2人称催促&4&1.000&100.0\\6&&2人称懇願&2&1.000&100.0\\7&&1-3人称願望&4&1.000&100.0\\8&&1-3人称懸念&2&1.000&100.0\\\hline9&&現在・未来&4&1.000&100.0\\10&&単純過去&4&1.000&100.0\\11&叙述&体験過去&4&1.000&100.0\\12&&伝聞過去&2&1.154&100.0\\13&&過去&1&1.000&100.0\\\hline14&&完了&4&1.000&100.0\\15&&継続&4&1.000&100.0\\16&形動詞&予定&1&1.000&100.0\\17&&習慣&4&1.000&100.0\\18&&可能性&4&1.000&100.0\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:verbresult2}動詞の句候補生成手順の評価(その2)}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&&&\multicolumn{2}{|c|}{(一動詞あたり)}\\\cline{5-6}\multicolumn{2}{|c|}{}&&&&正しい句候補\\\multicolumn{2}{|c|}{}&活用の分類&語尾種類数&句候補数の平均&を含む率(\%)\\\Hline19&&連合&1&1.000&100.0\\20&&並列&2&1.154&100.0\\21&&分離&4&1.000&100.0\\22&&条件&8&1.000&100.0\\23&副動詞&継続&4&1.000&100.0\\24&&限界&4&1.000&100.0\\25&&即刻&4&1.000&100.0\\26&&随伴&4&1.000&100.0\\27&&付帯1&2&1.000&100.0\\28&&付帯2&4&1.000&100.0\\\hline29&&受身&1&1.000&100.0\\30&その他&使役&2&1.000&100.0\\31&&否定&2&1.000&100.0\\32&&完了&1&1.000&100.0\\\Hline\multicolumn{3}{|c|}{合計/平均}&96&1.010&100.0\\\Hline\end{tabular}\end{center}\end{table*} \section{\label{sec:morph-analysis}モンゴル語形態素解析} \subsection{\label{subsec:table}語幹・語尾の語形変化テーブルの作成}\ref{subsec:stems}で述べた名詞語幹2,048語,および,動詞語幹1,258語について,以下の手順で語幹・語尾の語形変化テーブルを作成した.表\ref{tbl:noun-suf}と表\ref{tbl:verb-suf1}$\sim$\ref{tbl:verb-suf2}中の全語尾を文法上の順番で接続して句を生成した.次に,語幹・語尾,および,語形変化後の句の情報を用いて語形変化テーブルを作成した.語形変化テーブルは以下の情報から構成した.\begin{itemize}\item語幹,もしくは,語幹にいくつかの語尾が接続して語形変化した語.および,語幹の品詞.\item新たに接続する語尾の種類,および,語尾.\item語形変化後の語.\end{itemize}語形変化テーブルの例を表\ref{tbl:examplenoun1}$\sim$\ref{tbl:verbexample2}に示す.名詞語幹2,048語,および,動詞語幹1,258語に対して,語形変化テーブルの数は,それぞれ,226,541個,および,2,703,462個となった.これらのテーブル中における句の重複数は,名詞句が7,603個(名詞句の3.36\%),動詞句が126,945個(動詞句の4.70\%),名詞・動詞の両方にわたって重複する句は3548個(全体の0.12\%)であった.なお,語形変化テーブルを用いて句の形態素解析を行なった結果,語幹・語尾の組合せとして複数の候補が得られる場合がある.これらの例を表\ref{tbl:lexambiguity}に示す.一つ目の例においては,``${о\!\!р}$(ベッド,代わり)''あるいは``${о\!\!р\!\!о\!\!н}$(国)''という,異なる二つの名詞語幹に対して,``{$н\!\!ы$}($\sim$の)''あるいは``{ы}($\sim$の)''という異なる属格語尾が接続して語形変化した結果の句が同じ表記になっている.この例の場合は,文の意味を考慮して形態素解析の曖昧性を解消する必要がある.一方,二つ目の例においては,``{$х\!\!а\!\!з$}(噛む)''という動詞語幹に対して,叙述・単純過去形語尾あるいは形動詞・完了形語尾が接続しているが,この二つの語尾が同じ表記となっており,語形変化した結果の句も同じ表記となっている.叙述・単純過去形の場合は,文末等に現れる過去形となり,形動詞・完了形の場合は,連体修飾用法となる.この例の場合は,この句の直後が名詞句かどうかによって,形態素解析の曖昧性を解消することができる.\begin{table}\caption{\label{tbl:examplenoun1}名詞+語尾の語形変化テーブルの例1}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$(教育)/名詞\\\hline語尾/語尾種類&{$н\!\!ы$}($\sim$の)/属格\\\Hline語形変化後の語&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!ы}$(教育の)\\\Hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:examplenoun2}名詞+語尾の語形変化テーブルの例2}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$(教育)/名詞\\\hline語尾/語尾種類&{д}($\sim$に)/与位格\\\Hline語形変化後の語&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$(教育に)\\\Hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:verbexample1}動詞+活用語尾の語形変化テーブルの例1}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${а\!\!р\!\!и\!\!л\!\!и\!\!а}$(消す)/動詞\\\hline語尾/語尾種類&{ж}($\sim$して)/副動詞:並列\\\Hline語形変化後の語&${а\!\!р\!\!и\!\!л\!\!и\!\!а\!\!ж}$(消して)\\\Hline\end{tabular}\end{center}\end{table}\begin{table*}\caption{\label{tbl:verbexample2}動詞+活用語尾の語形変化テーブルの例2}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${а\!\!р\!\!и\!\!л\!\!и\!\!а}$(消す)/動詞\\\hline語尾/語尾種類&${У\!\!У\!\!з\!\!а\!\!й}$($\sim$するな)/命令・願望:1-3人称懸念\\\Hline語形変化後の語&${а\!\!р\!\!и\!\!л\!\!и\!\!У\!\!У\!\!з\!\!а\!\!й}$(消すな)\\\Hline\end{tabular}\end{center}\end{table*}\subsection{\label{subsec:ma}モンゴル語形態素解析の評価実験}モンゴル語形態素解析の評価実験を行なうために,まず,モンゴル語コーパスを収集した.本稿で用いたモンゴル語コーパスは,ウェブ上のモンゴル語新聞一年半分のテキストを収集してコーパスとしたもの(延べ語数206万,異なり語数11万5千,30MBytes)である.このコーパスから,無作為に680語を収集し,前節で用意した動詞・名詞の語形変化テーブルを用いて各語の形態素解析を行なった.680語のうち,語形変化後の語が語形変化テーブルに含まれる語については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれていた.語形変化テーブルに誤った句が登録されていて,入力された句がそれと一致すると誤った解析結果が得られる.本実験では派生語が入力されて,それが誤った名詞句と一致し,誤った解析となった事例が一つあった.また,名詞句について複数の解析結果が得られたのは11語で,動詞句については41語であった.そして,名詞句かつ動詞句とした重複解析結果が4語であった.名詞句の11語のうち6語が,''対格+再帰''と''再帰''との間の曖昧性の事例であった.動詞の41語のうち32語が表\ref{tbl:lexambiguity}の二つ目の例と同様の動詞・叙述・単純過去形と動詞・形動詞・完了形の間の曖昧性であった.次に,前節で用意した動詞・名詞の語形変化テーブルが,コーパス中のどの程度の範囲の語に対応しているかのカバレージを評価するために,まず,680語を,名詞,動詞,その他の単語に分類し,それぞれのクラスについて,語形変化テーブルに含まれるかどうかを判別し,以下に分類し,表\ref{tbl:morphsInCorpus}に結果を示した.名詞かつ動詞として重複した解析結果が得られた句については「重複」という欄に示した.\begin{itemize}\item「語幹・句とも存在する」\item「語幹のみ存在する」\item「語幹が存在しない」\end{itemize}「語幹・句とも存在する」は,コーパス中の出現形が,そのままの形で,語形変化後の語として語形変化テーブルに含まれるものである.「語幹のみ存在する」は,コーパス中の出現形から判別した語幹は語形変化テーブルに含まれるが,コーパス中の出現形が,そのままの形で,語形変化後の語として語形変化テーブルに含まれてはいない,というものである.これらの語については,\ref{sec:mon-gra}節で述べた語形変化以外の語形変化(具体的には,派生語を生成する語形変化)を実装することにより,形態素解析が可能となる.「語幹が存在しない」は,コーパス中の出現形から判別した語幹が語形変化テーブルに含まれない,というものである.\begin{table*}\caption{\label{tbl:lexambiguity}形態素解析において複数の解析結果が得られる例}\begin{center}\begin{tabular}{|c|c|}\Hline句&\multicolumn{1}{|c|}{形態素解析結果(語幹/語幹品詞+語尾/語尾種類)}\\\Hline${о\!\!р\!\!н\!\!ы}$&\multicolumn{1}{|l|}{${о\!\!р}$(ベッド,代わり)/名詞+{$н\!\!ы$}($\sim$の)/属格}\\&\multicolumn{1}{|l|}{${о\!\!р\!\!о\!\!н}$(国)/名詞+ы($\sim$の)/属格}\\\hline$х\!\!а\!\!з\!{\rmc}\!а\!\!н$&\multicolumn{1}{|l|}{$х\!\!а\!\!з$(噛む)/動詞+{${\rmc}\!а\!\!н$}($\sim$した)/叙述・単純過去\hfill(噛んだ(文末))}\\&\multicolumn{1}{|l|}{$х\!\!а\!\!з$(噛む)/動詞+{${\rmc}\!а\!\!н$}($\sim$した(連体修飾))/形動詞・完了\\\\hfill(噛んだ(犬))}\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:morphsInCorpus}コーパス中の句の内訳(\%(個数))}\begin{center}\begin{tabular}{|l||c|c|c|c||c|}\hline語形変化テーブル中&&&&&\\語幹・句の有無&名詞&動詞&重複&その他&合計\\\hline語幹・句とも&93.5&93.5&100.0&0&86.3\\存在する&(260)&(331)&(4)&(0)&(587)\\\hline語幹のみ&6.5&6.5&0&0&6.0\\存在する&(18)&(23)&(0)&(0)&(41)\\\hline語幹が&0.0&0.0&0.0&7.6&7.6\\存在しない&(0)&(0)&(0)&(52)&(52)\\\hline&40.9&52.1&0.6&7.6&100\\合計&(278)&(354)&(4)&(52)&(680)\\\hline\end{tabular}\end{center}\end{table*} \section{関連研究} \label{sec:related}\cite{Ehara04aj}においては,日本語形態素解析システム茶筌を処理系として,モンゴル語文の形態素解析を行なうための文法体系の構築を試みている.茶筌の処理系は,基本的には,活用語・非活用語の品詞体系,および,活用語の活用語尾の語形変化の体系を定義する機能を持つ.また,各形態素,および,二個もしくは三個程度の形態素の連接に対してコストを定義することにより,形態素解析の結果得られる複数の解析結果を絞り込む機能を持つ.\cite{Ehara04aj}においては,茶筌の処理系が持つ機能のうち,活用語の活用語尾の語形変化の体系を定義する機能を利用することにより,名詞・動詞の詳細な活用型・活用形を定義している.また,語尾については,活用語とはせず,変化形をすべて別形態素として登録している.この方式と比較すると,本稿のアプローチは,茶筌辞書のような明示的な文法体系を立てるのではなく,できる限り抽象化したレベルで音韻論的・形態論的特性を整備し,この制約を用いて語幹・語尾の接続制約・語形変化規則を記述するというアプローチであると言える.本稿のアプローチでは,形態素として辞書に登録されるのは,(名詞・動詞の)語幹およびそれらの語幹に接続する語尾(の基本形)のみとなり,語幹や語尾の変化形を別途登録することはしない.そのかわりに,語幹・語尾が語形変化して生成される句については,その全ての可能性を語形変化テーブルに登録することとなる.ここで,日本語文の形態素解析と,モンゴル語における句の形態素解析を比較すると,モンゴル語においては,句が空白により分かち書きされる点が特徴的である.したがって,モンゴル語の句の形態素解析においても,実用的には,語幹に対して高々数個の語尾が連続して接続する可能性を考慮すれば十分である.本稿では,モンゴル語におけるこの特性を考慮して,句の候補をすべてテーブルに登録するアプローチを採用している.\cite{Cucerzan02a}においては,スペイン語およびルーマニア語について,時制・人称・数の活用変化形の生成規則を人手で記述しておき,コーパス中で実際に観測される不規則変化形との間の類似度を計算して,各々の不規則変化形に対して,最も近い規則変化形の時制・人称・数を割り当てるという方法により,各言語での不規則変化形の形態素解析規則を獲得している. \section{おわりに} 本稿では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストを用いて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案した.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成した.そして,この規則を用いて,語幹・語尾の組とそこから生成される句を対応させる語形変化テーブルを作成し,このテーブルを参照することにより,名詞句・動詞句の形態素解析を行なう手法を提案した.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.そして,特に,誤った句候補も含めて,生成された句候補を全て用いて語形変化テーブルを作成し,形態素解析の評価を行った結果では,誤った句の影響による性能の低下はほとんどなかった.\acknowledgment日本語・モンゴル語対訳辞書を提供して頂いた清水幹夫氏に感謝する.また,\cite{Ehara04aj}の辞書データを提供して頂いた諏訪東京理科大学江原暉将先生に感謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Cucerzan\BBA\Yarowsky}{Cucerzan\BBA\Yarowsky}{2002}]{Cucerzan02a}Cucerzan,S.\BBACOMMA\\BBA\Yarowsky,D.\BBOP2002\BBCP.\newblock\BBOQBootstrappingaMultilingualPart-of-speechTaggerinOnePerson-day\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturalLanguageLearning},\BPGS\132--138.\bibitem[\protect\BCAY{江原,早田,木村}{江原\Jetal}{2004}]{Ehara04aj}江原暉将,早田清冷,木村展幸\BBOP2004\BBCP.\newblock\JBOQ茶筌を用いたモンゴル語の形態素解析\JBCQ\\newblock\Jem{言語処理学会第10回年次大会論文集},\BPGS\709--712.言語処理学会.\bibitem[\protect\BCAY{$Г\!\!а\!\!н\!\!б\!\!о\!\!л\!\!о\!\!р$\BBA\$Т\!\!У\!\!н\!\!г\!\!а\!\!л\!\!а\!\!г$}{$Г\!\!а\!\!н\!\!б\!\!о\!\!л\!\!о\!\!р$\BBA\$Т\!\!У\!\!н\!\!г\!\!а\!\!л\!\!а\!\!г$}{2000}]{Mongol00aj}$Г\!\!а\!\!н\!\!б\!\!о\!\!л\!\!о\!\!р$,С.\BBACOMMA\\BBA\$Т\!\!У\!\!н\!\!г\!\!а\!\!л\!\!а\!\!г$,Л.\BBOP2000\BBCP.\newblock{\Bem{$З\!\!Θ\!\!в$$б\!\!и\!\!ч\!\!и\!\!х$$д\!\!v\!\!р\!\!м\!\!и\!\!й\!\!н$$т\!\!У\!\!л\!\!г\!\!У\!\!У\!\!р$$д\!\!о\!\!х\!\!и\!\!о$.}}\bibitem[\protect\BCAY{栗林}{栗林}{1992}]{Kuribayashi92aj}栗林均\BBOP1992\BBCP.\newblock\JBOQモンゴル語\JBCQ\\newblock亀井孝,河野六郎,千野栄一\JEDS,\Jem{言語学大辞典,第4巻,世界言語編(下--2)},\BPGS\501--517.三省堂.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{SanduijavENKHBAYAR}{2003年神戸大学工学部情報知能工学科卒業.2005年京都大学情報学研究科修士課程知能情報学専攻修了.現在,日立ソフトウェアエンジニアリング株式会社に勤務.在学中はモンゴル語の自然言語処理に関する研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師を経て,2003年より京都大学情報学研究科知能情報学専攻講師.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院博士課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て、2005年より名古屋大学大学院工学研究科教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N03-07
\section{はじめに} \NERは,ユーザーが関心のあるクラスに対応する文中のスパンを検出するタスクである.\NERの代表的なSharedTaskとして知られるCoNLL2003SharedTask\cite{\CoNLLPaper}では,\dq{PER}(人物名),\dq{LOC}(場所名),\dq{ORG}(組織名),\dq{MISC}(その他)のカテゴリに対応する文中のスパンの検出を目的としている.例えば,``EUrejectsGermancalltoboycottBritishlamb.''という文章を入力とし,``EU'',``German'',``British''という文中のスパンをそれが所属する``LOC'',``MISC'',``MISC''というクラスとともに検出する.\NERは質問応答\cite{khalid_impact_2008},関係抽出\cite{liu_neural_2018},エンティティ・リンキング\cite{sun_modeling_2015},対話システム\cite{bowden_slugnerds_2018}など様々なタスクで応用されており,自然言語処理において基本的で重要なタスクである.関心のあるクラスは\Userによって異なる.例えば政治を取材するジャーナリストであれば,人物名の中でも政治家名に関心があり,組織名の中でも政党に関心があるだろう.映画の好きな\Userであれば,人物名の中でも映画監督に関心があり,組織名の中でも映画スタジオに関心があるだろう.しかし,従来の\NER手法では,\Userの関心に応じて異なる多様なカテゴリに柔軟に対応できない.なぜなら従来の\NERシステムは,カテゴリがあらかじめ定義されたデータセットを用いて構築されるため,\Userにとって関心のあるカテゴリがあらかじめ定義されたデータセットが存在しなければ,それらのスパンは抽出できないからである.各\Userが関心のあるカテゴリを人手でアノテーションすることもできるが,これには膨大なコストと時間がかかってしまう.先行研究\cite{\PaperGraphCut}は,\WSLNERを大規模な\THESAURUSと組み合わせることで\Userの要求に柔軟に対応する\NERを実現する方法を提案した.\WSLNERとは,\Userが関心のあるカテゴリ(以下,\FOCUSCAT)に属する語句のリストを活用し,リストに含まれる語句の出現箇所を擬似的に固有表現と見做すこと(\DictionaryMatch)で\PseudoDataを作成し,この\PseudoDataに基づく学習によって,\FOCUSCATに属する固有表現の抽出を目指す方法である.例えば先の映画好きの例を考えてみる.この場合,大規模な\THESAURUSである\DBpediaから,映画監督\footnote{\url{https://dbpedia.org/ontology/MovieDirector}}・映画スタジオ\footnote{\url{https://dbpedia.org/class/yago/WikicatFilmStudios}}の情報を\FOCUSCATとして活用する.これらカテゴリの\KNOWNTERM(例:スティーブン・スピルバーグ,黒澤明,20世紀フォックス映画,東宝スタジオ)が含まれる文章の\KNOWNTERMのスパンを擬似的な教師データとして活用することで,映画監督や映画スタジオを検出できる\NERモデルを作ることができる.しかし,\PseudoDataには通常の\SupervisedDataとの乖離がある.多義性のある\KNOWNTERMに対して文脈を考慮せずクラスを付与してしまうことでラベル誤りが生じてしまう(\PseudoFalsePositive).他にも,\KNOWNTERMを対象に行われる\DictionaryMatchでは,\THESAURUSには載っていない\UNKNOWNTERMを取り逃してしまう(\PseudoFalseNegative).例えば,映画監督であるがお笑い芸人でもある北野武(ビートたけし)がお笑い芸人として取り扱われている文脈に対しても映画監督としてラベル付けしてしまったり,未知の,すなわち,\THESAURUSには載っていない映画監督や映画スタジオが自動アノテーションから漏れてしまうといった問題が生ずる.弱教師あり学習の先行研究\cite{\PaperBOND,zhu_weaker_2023,peng_distantly_2019}では,この2種類の\PseudoDataの誤りに頑健な学習法を提案してきた.\PseudoFalsePositiveに対しては,擬似正例の各カテゴリに含まれる他の語句と乖離した語句を本来は負例であるとみなす学習法で,その学習における影響を抑制する.例えば,映画監督を\FOCUSCATとして「北野武(ビートたけし)」が含まれる文脈を学習する際に,「ビートたけしは漫才コンビ:ツービートとして活躍したお笑い芸人である。」というようなお笑い芸人として出ている文脈が本来は負例であるとみなして\PseudoFalsePositiveの影響を抑制することができる.\PseudoFalseNegativeに対しては,擬似負例のうち擬似正例に近い語句を本来は正例であるとみなす学習法で,その学習における影響を抑制する.例えば,化学物質名を\FOCUSCATとし,物質名全体は\THESAURUSに載っていなくても,その構成要素は\THESAURUSに載っているような場合(例:4-ブロモ-1,1,1-トリフルオロブタンは\THESAURUSに載っていないが,1,1,1-トリフルオロブタンは\THESAURUSに載っているような場合)の影響を抑制できる.他にも,明らかに\FOCUSCATであると判断できる文脈の場合(例:映画監督を\FOCUSCATとした際に\THESAURUSに載っていない人名が「...はアカデミー監督賞を受賞した。」という文脈に現れる場合)に対して本来は正例であるとみなすことで\PseudoFalseNegativeの影響を抑制することができる.\PseudoFalsePositiveに頑健な学習法は有用だが副作用もある.特に,表層形や文脈が\FOCUSCATの他の語句から乖離しているが\FOCUSCATに含まれる場合に,\FOCUSCATから取り除いてしまうという副作用が生じうる.例えば,出現文脈が\FOCUSCATの他の語句から乖離している例として,\FOCUSCATが哺乳類の際のクジラがあげられる.クジラは哺乳類という人間や犬などの陸上生物が多いカテゴリに属している.しかし,水中で生活しており魚類などと共通の文脈に出現する.そのため,クジラが哺乳類に含まれる他の語句から乖離しているとして哺乳類から除外されてしまう危険性がある.このことは,\FOCUSCATの典型例と乖離した特徴をもつ\FOCUSCATの下位クラスの情報が欠けていることが一因である,と考えられる.例えば,哺乳類を\FOCUSCATとした際のクジラの事例であれば,哺乳類の下位カテゴリであり,クジラやイルカが属す鯨類の情報がカテゴリの判断に必要である,と考えられる.\PseudoFalseNegativeに頑健な学習法も有用だが副作用もある.特に,表層形や文脈が\FOCUSCATの例に類似しているが\FOCUSCATに含まれない場合に,\FOCUSCATに含まれる,と誤って判断してしまうという副作用が生じうる.例えば,表層形が類似している事例として\FOCUSCATを甲殻類としたときのカブトガニを考えることができる.カブトガニはその表層形の類似度によって,本来はクモ・サソリなどと同じ鋏角類であるにも関わらず,エビやカニの属す甲殻類に含まれる,と誤って判断される危険性がある.この副作用は,排他的なクラス,特に\FOCUSCATの持つ特徴と類似する排他的なクラスの情報が欠けていることが一因であると考えられる.例えば,\FOCUSCATを甲殻類とした際のカブトガニの事例であれば,甲殻類の表層形と類似したカブトガニ目やその上位カテゴリであり甲殻類と排他的な鋏角類の情報がカテゴリの判断に必要であると考えられる.以上のように,先行研究の\WSL手法は,\PseudoFalsePositiveや\PseudoFalseNegativeに頑健な学習法を通じて,PrecisionやRecallを\PseudoAnnotationより改善できる.一方で,過小な\FOCUSCATの予測や過剰な\FOCUSCATの予測につながる副作用があり,それらの副作用を抑制するには,\FOCUSCATの下位クラスや,排他的なクラス及びその下位クラスの活用が必要であることを述べてきた.そこで本研究では,\THESAURUSの階層的な分類項目全てを\PseudoDataに活用した\WSLNER手法を提案する.具体的には,\ALLCATを\DictionaryMatchに活用したマルチラベル固有表現抽出の\PseudoDataに基づき,\ALLCATを認識可能な弱教師あり学習モデルを訓練する.その後,この\ALLCATを認識可能な弱教師あり学習モデルで\FOCUSCATを予測させる,という手法である.この提案手法によって,\PseudoDataに追加した\FOCUSCATの下位クラスの情報を活用しながら,過小な\FOCUSCATの予測,という\PseudoFalsePositiveに頑健な学習法の副作用を抑制することを目指す.それとともに,\PseudoDataに追加した排他的なクラスの情報を活用しながら,過剰な\FOCUSCAT予測,という\PseudoFalseNegativeに頑健な学習法の副作用も抑制することを目指す.本論文では,実験を通じて\PROPOSALの優位性を明らかにした.具体的には\DBpedia\cite{\DBpediaPaper},\UMLS\cite{\UMLSPaper}を\PseudoAnnotationに活用し,\CoNLL\cite{\CoNLLPaper},\MedMentions\cite{\MedMentionsPaper}を検証用データセットとして利用した実験を行った.提案手法は\FOCUSCATのみを\PseudoAnnotationに利用するベースラインに比べてF1値において,約5~8\%の改善を達成することができた.さらに本論文では,この提案手法の改善がどれくらいの量の\SupervisedData追加に匹敵するのかを明らかにした.具体的には訓練事例数を制限した\SLとの比較実験から提案手法には\FOCUSCATのみを\PseudoAnnotationに利用するベースラインと比べて140~450文程度の\SupervisedData追加に相当する効果が有ることが分かった.\DBpedia,\UMLSの\PseudoAnnotationへの活用方法も含めて,本論文の実験で利用したコードの全てをGitHubにて公開した\footnote{\url{https://github.com/fracivilization/thesaurus-based-ner}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related_works}本論文で取り扱う\WSLとは,ルールや\THESAURUSに基づく擬似的な教師信号(\WS)に基づいた学習方法である.テキスト分類\cite{hingmire_sprinkling_2014}や固有表現抽出\cite{bellare_learning_2007},関係抽出\cite{mintz_distant_2009}など\SupervisedDataを必要とする様々なタスクにおいて\WSLは利用されてきた.特に\NERにおいては,関心のあるカテゴリの語句のリストを利用して,同じカテゴリの\UNKNOWNTERM(語句のリストに含まれない語句)の取得をするために\WSLが利用されてきた.具体的には\KNOWNTERM(語句のリストに含まれる語句)に\DictionaryMatchするスパンを擬似的な正例とみなした\PseudoDataに基づき\NERモデルを学習する手法が試みられてきた(図\ref{fig:pseudo_dataset_comparison}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-3ia6f1.pdf}\end{center}\hangcaption{既存の\WSLNERとの比較.通常の\WSLNERでは関心のあるカテゴリ:\FOCUSCAT(\focuscat{哺乳類}・\focuscat{爬虫類})に含まれる語句のみを\DictionaryMatchによる\PseudoAnnotationに活用する.先行研究\protect\cite{\PaperGraphCut}ではそれらに追加して,\FOCUSCAT及びその祖先と兄弟関係にあるカテゴリ:\COMPLEMENTCAT(\complementcat{魚類}・\complementcat{植物})も\DictionaryMatchによる\PseudoAnnotationに活用する.提案手法では\THESAURUSに含まれる\ALLCATを\DictionaryMatchによる\PseudoAnnotationに活用する.例えば「マグロ」や「ミカン」などのエンティティや\othercat{魚類}・\othercat{植物}などのカテゴリも\PseudoDataに活用する.赤色のカテゴリは\FOCUSCAT,青色のカテゴリは\COMPLEMENTCATをそれぞれ意味している.}\label{fig:pseudo_dataset_comparison}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\KNOWNTERMに\DictionaryMatchするという\PseudoAnnotationには通常の教師信号との乖離が存在しており,それは二種類に分けられる.間違った\PseudoAnnotationをしてしまう\PseudoFalsePositiveと,本来アノテーションするべき語句を逃してしまう\PseudoFalseNegativeである.これら二種類のノイズに頑健な\WSL手法として主に二つのアイデアが提案されてきた.一つは事前学習モデルの持つ知識をノイズ除去に利用する方法であり,もう一つは\DictionaryMatchしなかったトークン・スパンなどのラベルなし語句を割り引いて学習する方法である.前者は\PseudoFalsePositive・\PseudoFalseNegativeに頑健な学習法であり,後者は\PseudoFalseNegativeに頑健な学習法である.事前学習モデルの持つ知識をノイズ除去に利用した研究として代表的なものは\citeA{\PaperBOND},\citeA{zhu_weaker_2023}の研究である.\citeA{\PaperBOND},\citeA{zhu_weaker_2023}らはEarlystoppingを利用してノイズへの過剰な適応を防ぎつつ事前学習モデルの持つ知識を活用するという学習法で,\PseudoFalseNegative,\PseudoFalsePositiveに頑健な学習をしていた.ラベルなし語句を割り引いて学習する研究として代表的なものはPU学習\cite{peng_distantly_2019}や擬似負例スパンのアンダーサンプリング\cite{\PaperNegativeUndersampling}といった手法である.他にもlenientCRF\cite{jie_better_2019},Self-training\cite{\PaperBOND}などを通じて\PseudoAnnotationと異なるラベルを推測する手法も存在する.これらの手法は\KNOWNTERMに対しては特定が容易であるという\DictionaryMatchの特徴を利用し,擬似ラベルのない単語やスパンの影響を割り引くことで\PseudoFalseNegativeに頑健な学習をしている.\PseudoFalsePositiveに頑健な学習法は,学習結果のモデルのPrecisionを\DictionaryMatchよりも改善することができる.一方で,学習結果のモデルが本来であれば\FOCUSCATに属すはずのカテゴリの語も除外してしまう危険性がある.\PseudoFalseNegativeに頑健な学習法は,学習結果のモデルのRecallを\PseudoAnnotationよりも改善することができる.一方で,\FOCUSCATと排他的なカテゴリなど本来であれば\FOCUSCATに属さないカテゴリの語も学習結果のモデルが抽出してしまう危険性がある.提案手法ではこれら\PseudoAnnotationの誤りに頑健な学習法が持つ副作用を\THESAURUSの持つ階層的で総体的なカテゴリ知識で抑制することを目指す.具体的には\ALLCATを\PseudoAnnotationに活用し,\ALLCATを学習した\WSLNERモデルを活用する手法を提案する.\PseudoFalseNegativeに頑健な学習法の持つ,過剰な\FOCUSCATの予測という副作用に対しては,\FOCUSCATと排他的なカテゴリやその下位カテゴリの学習によって抑制を目指す.\PseudoFalsePositiveに頑健な学習法の持つ,過小な\FOCUSCATの予測という副作用に対しても,\FOCUSCATの下位カテゴリの学習によって抑制することを目指す.先行研究\cite{\PaperGraphCut}では,提案手法と同様に\THESAURUSの持つカテゴリ知識を用いて\PseudoAnnotationの誤りに頑健な学習法が持つ副作用を抑制しようとした.しかし,\PseudoFalsePositiveに頑健な学習法の副作用を考慮せず,\PseudoFalseNegativeに頑健な学習法の持つ副作用のみを対象としているほか,\ALLCATを利用した提案手法とは異なり,\FOCUSCAT及びその祖先と兄弟関係にあるカテゴリ(\COMPLEMENTCAT)の利用に留まっているという違いがある.例えば図\ref{fig:pseudo_dataset_comparison}のような\THESAURUSで\FOCUSCATとして「哺乳類」と「爬虫類」を選択した場合を考える.\FOCUSCATの祖先には「動物」,「生物」が存在する.ルートノードである「生物」には兄弟カテゴリが存在しないため,「哺乳類」・「爬虫類」の兄弟である「魚類」と,「動物」の兄弟である「植物」が\COMPLEMENTCATとなる.先行研究\cite{\PaperGraphCut}では,この\COMPLEMENTCATを\FOCUSCATに対する擬似負例として活用し,過剰な\FOCUSCATの予測を抑えようとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 提案手法では,\ALLCAT\footnote{正確には全カテゴリではなく,ある程度の粒度以上の全カテゴリを活用している.実際に利用したカテゴリの個数については\ref{sec:expsetting}章を参照されたい.}を\PseudoData作成に活用し,その\PseudoDataに基づいて「\ALLCATを認識する\NERモデル」(以下,\AllcatModel)を学習し,この\AllcatModelによって\FOCUSCATの抽出を行う.本論文ではシングルクラスの固有表現抽出タスクを取り扱っている.つまり,文を入力とした際にその文に含まれるスパンとその一意なラベルを出力する.例えば\FOCUSCATが「哺乳類」と「爬虫類」の場合,図\ref{fig:pseudo_dataset_comparison}の「人間はスッポン,マグロ,ミカン,イチゴ,ワカメなど様々な生物を食してきた」という文の「人間」というスパンには「哺乳類」とラベルを付与することを目指している.一方で\ALLCATの情報をモデルに理解させるにはスパンに複数のラベルを付与して学習する必要がある.例えば,先の「人間」というスパンに対しては,「哺乳類」,「動物」,「生物」という複数のラベルが付与されることをモデルが学習する必要がある.そこで本稿では学習時には複数の正解を許容して\ALLCATの学習を行い,予測時には単一の正解クラスがあるとして予測する手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\ALLCATを含んだ\PseudoData作成}\label{subsec:pseudo_data_making}\ALLCATに含まれる語句のそれぞれに対し,\DictionaryMatchによって\PseudoAnnotationを行う.ただし,この際に各カテゴリへの語句の所属関係は\THESAURUSの所属・階層関係を推移的なものとみなして拡張したものとする\footnote{この所属・階層関係を推移的にみなして利用する語句を増やす手法は比較対象となる\WSL手法に対しても同様に適用している.}.具体例として図\ref{fig:pseudo_dataset_comparison}の「人間」という語句を考える.「人間」という語句は\focuscat{哺乳類}に直接所属し,さらに\othercat{動物}は\focuscat{哺乳類}の上位概念であり,\othercat{生物}は\othercat{動物}の上位概念である.このことから「人間」という語句は\focuscat{哺乳類}に追加して,\othercat{動物}・\othercat{生物}という3つのカテゴリに所属していると見做す.この所属情報から,「人間はスッポン、マグロ、ミカン、イチゴ、ワカメなど様々な生物を食してきた」という文の「人間」の部分に\focuscat{哺乳類}・\othercat{動物}・\othercat{生物}という3つのラベルを\DictionaryMatchによって付与する\footnote{ただし修飾語も含んだ文字列も取得するために\NPChunkerを利用し,\NounPhraseの末端に語句がある場合にラベルを付与した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\PseudoDataに基づく\AllcatModelの学習}\label{subsec:train_ds_ner_model}\ref{subsec:pseudo_data_making}節で作成された\PseudoData上でモデルを学習させ,\AllcatModelの取得を目指す.本研究では,先行研究\cite{\PaperNegativeUndersampling}と同じBERT\cite{devlin_bert_2019}ベースのスパン分類モデルを学習させる.このスパン分類モデルはBERTにより文を符号化し,スパンの始端・終端のベクトルを元にMLPにより分類を行う(図\ref{fig:span_classification_model}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-3ia6f2.pdf}\end{center}\hangcaption{二つの提案手法における訓練時と予測時のスパン分類モデルの挙動の違い.スパン「ゴールデン・レトリーバー」を分類対象のスパンと仮定した時の挙動を示している.訓練時には二つの提案手法で共通の処理を行う.具体的には,\THESAURUSの全カテゴリと特定のカテゴリが付与されていないことを示す“O”ラベルを対象にスパン分類確率を計算する.予測時には二つの提案手法で異なる処理を行う.一つ目の提案手法(\WithAlmostCatProposal)では予測時に\FOCUSCATの祖先カテゴリを除くことでユーザーのニーズより粒度の粗いカテゴリの予測をしないようにする.二つ目の提案手法(\AbbrevProposal)ではさらに\FOCUSCATと\COMPLEMENTCAT+``O''ラベルの予測スコアからスパン分類確率を計算し,少数事例で学習の難しいカテゴリからのノイズの影響を緩和する(\ref{subsec:exclude-minor-categories}節).赤色のカテゴリは\FOCUSCAT,青色のカテゴリは\COMPLEMENTCATをそれぞれ意味している.}\label{fig:span_classification_model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず前処理として,\ref{subsec:pseudo_data_making}節で作成された\NERの\PseudoDataをスパン分類の\PseudoDataに変換した.具体的には,まずスパン最大長を決め文中のスパンを列挙した.その後,ラベルのあるスパンはそのままのラベルを利用し,ラベルの付与されていないスパンは``O''ラベルを持つスパンとした.学習時には,複数の正解に対処できるように,正解クラスに等しい重みが付与された確率分布を真の分布とした相互エントロピーをロス関数として学習を行った.例えば図\ref{fig:span_classification_model}の事例を考える.図\ref{fig:span_classification_model}では「ゴールデン・レトリーバーは人気がある.」という文$x$の「ゴールデン・レトリーバー」というスパン$s$の分類を学習する際の学習予測手順を提示している.訓練時にはモデルが出力した\ALLCAT(「生物」,「動物」,「植物」,「哺乳類」,「爬虫類」,「魚類」,「草」,「木」,「藻」),及び``O''ラベル上の予測スコアの全てを活用する.これらの予測スコアから,Softmax関数によって,\ALLCAT,及び``O''ラベル上の予測確率分布:$p(y|x,s)$を生成する.「ゴールデン・レトリーバー」は「哺乳類」であり,「動物」であり,「生物」である.そこで,これら3つの正解に対してそれぞれ$1/3$が付与された確率分布を真の分布として相互エントロピーを計算し,$-1/3(\logp(哺乳類|x,s)+\logp(動物|x,s)+\logp(生物|x,s))$をこの文$x$のスパン$s$に対するロス関数として学習を行っている.さらに,本研究では関連研究(\ref{sec:related_works}章)で述べた二種類の擬似アノテーションの誤りに頑健な学習法を適用した.一つは\citeauthor{\PaperBOND}で実行された手法で,\PseudoDataで学習をする際に\PseudoDataに含まれるノイズへの過剰適応を抑えるために途中で学習を打ちきる手法である.具体的には評価データセットに含まれるvalidationデータでスパン完全一致F1を評価し,Earlystoppingによって学習を早期に打ち切る.もう一つは\citeauthor{\PaperNegativeUndersampling}で実行された擬似負例スパンのアンダーサンプリングである.この手法では学習時に``O''ラベルが付与されたスパンを一定確率でロスの計算から除外することで,``O''ラベルの付与された擬似負例スパンの一部が本来は``O''ラベルではないことをモデルに教えることが出来る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\AllcatModelによる\FOCUSCATの抽出}\label{sec:extract_focuscat_using_allcatmodel}\ref{subsec:pseudo_data_making}節の\PseudoData上で学習した\AllcatModelを用いて\FOCUSCATの抽出を行う.具体的には,i)スパン最大長を決め文中の候補スパンを列挙する.次に,ii)\ALLCATから\FOCUSCATの祖先となるカテゴリを除いて分類する(図\ref{fig:span_classification_model}).最後に,iii)これらスパン分類の出力を固有表現抽出の出力に変換する(図\ref{fig:span_classification_to_ner}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-3ia6f3.pdf}\end{center}\hangcaption{提案手法で利用しているスパン分類の出力を固有表現抽出に変換する\protect\citeA{\PaperLUKE}の手法の図解.i)で列挙し,ii)で分類したスパンに対する最尤推定の結果を用いて,\dq{O}クラス以外の予測確率の高いものからスパンの重複のないように選んでいく.図中では「ゴールデン・レトリーバーはコーンスネークより人気がある.」という文章に対しての予測が図解されている.「ゴールデン・レトリーバー」,「コーンスネーク」が先に埋まることで,「スネーク」,「レトリーバー」,「コーン」の予測が妨げられる.最終的に「ゴールデン・レトリーバー」が\focuscat{哺乳類}として,「コーンスネーク」が\focuscat{爬虫類}として出力される.}\label{fig:span_classification_to_ner}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ii)では\FOCUSCATの祖先となるカテゴリを除いて分類する(図\ref{fig:span_classification_model}の「\WithAlmostCatProposal」).このことでユーザーのニーズより粒度の粗いカテゴリの出力を抑止する.先程と同様に図\ref{fig:span_classification_model}の事例を考えてみる.図\ref{fig:span_classification_model}では「ゴールデン・レトリーバーは人気がある。」という文$x$の「ゴールデン・レトリーバー」というスパン$s$の分類を学習する際の学習予測手順を提示している.\AllcatModelは$x$中の$s$に対して,\ALLCAT(「生物」,「動物」,「植物」,「哺乳類」,「爬虫類」,「魚類」,「草」,「木」,「藻」),及び``O''ラベル上の予測スコアを出力する.そこから,\FOCUSCAT(「哺乳類」,「爬虫類」)の祖先カテゴリである「生物」,「動物」を予測対象から除く.このことによって「哺乳類」,「爬虫類」を欲するユーザーに対して,提案手法が「生物」,「動物」を抽出しないようにする.そして最終的に「植物」,「哺乳類」,「爬虫類」,「魚類」,「草」,「木」,「藻」,及び``O''ラベルに絞られた予測スコアから,Softmax関数によって,スパンの予測確率分布を生成する.この予測ラベルを制限した予測確率分布を利用し,最尤推定によって各スパンの分類結果と分類確率を計算する.iii)の際には,\citeA{\PaperLUKE}の手法と同様にスパンを予測確率の高いものから重複のないように選んでいくという方法で変換を行った.(ただしこの際に``O''ラベルが予測されたスパンは除いた.)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{粒度の細かいクラスを予測時に除くノイズ除去}\label{subsec:exclude-minor-categories}提案手法ではさらに,訓練事例数が少なく学習が困難であると思われる粒度の細かいカテゴリを予測時に使わない手法を提案する.この手法では\FOCUSCAT,\COMPLEMENTCAT,``O''ラベルに予測対象のカテゴリを絞って分類を行う.先程と同様に図\ref{fig:span_classification_model}の事例を考える.図\ref{fig:span_classification_model}では「ゴールデン・レトリーバーは人気がある。」という文:$x$の「ゴールデン・レトリーバー」というスパン:$s$の分類を学習する際の学習予測手順を提示している.\AllcatModelは$x$中の$s$に対して,\ALLCAT(「生物」,「動物」,「植物」,「哺乳類」,「爬虫類」,「魚類」,「草」,「木」,「藻」),及び``O''ラベル上の予測スコアを出力する.そこから,このノイズ除去を使う手法(「\AbbrevProposal」)では\FOCUSCAT(「哺乳類」,「爬虫類」),\COMPLEMENTCAT(「魚類」,「植物」),及び``O''ラベルに対する予測スコアのみを残す.絞られた予測スコアから,Softmax関数によって,\FOCUSCAT,\COMPLEMENTCAT,及び``O''ラベル上の予測確率分布を生成する.この予測ラベルを制限した予測確率分布を利用し,最尤推定によって各スパンの分類結果と分類確率を計算する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:expsetting}本論文では,\DBpedia\cite{\DBpediaPaper},\UMLS(2021AA版)\cite{\UMLSPaper}を\THESAURUSとして\PseudoAnnotationに利用し,\CoNLL\cite{\CoNLLPaper},\MedMentions\cite{\MedMentionsPaper}データセットを検証用データセットして活用した\WSLNERの実験を行った.\DBpediaは,Wikipdiaをベースとした\THESAURUSであり,466のクラスと21,942,484の用語を持つ.\CoNLLは,1,393項目のニュース記事に,35,089のスパンが\dq{PER},\dq{LOC},\dq{ORG},\dq{MISC}(人名,場所,組織名,その他)のどれに所属するかをアノテーションしたデータセットであり,train/dev/testの項目数はそれぞれ946/216/231項目である.\WSL実施時には,\DBpediaの466のクラスから\CoNLLの4つのクラスに対応するクラスを\FOCUSCATとして選択し(付録\ref{sec:CoNLL2003CategoryMapper}),\CoNLLデータセットで評価を行った.\UMLSは,生物医学分野の\THESAURUSで,127のクラス(SemanticTypes)と16,132,274の用語を持つ.\MedMentionsは,4,392の生物医学論文抄録に352,496のスパンが\UMLSの各エンティティに対応付けられるようにアノテーションされているデータセットであり,train/dev/testの抄録数はそれぞれ2,635/878/879である.\WSL実施時には,これら127のクラスから\MedMentionsで固有表現抽出タスクの対象として指定されている21個のカテゴリを\FOCUSCATとして選択し,\MedMentionsデータセットで評価を行った.それぞれのタスクにおいて,train部分のデータセットは擬似アノテーションの対象として学習に活用し,dev/test部分のデータセットは正解アノテーションをそのまま使い,それぞれハイパーパラメータ調整と評価に利用する.先述の通り\PseudoDataを作成する際には,\NPChunkerを利用し,\NounPhraseの末端に既知語があるかどうかで\DictionaryMatchを行う.この際の\NPChunkerには,OntoNotes5\cite{weischedel_ontonotes_2013}のデータで訓練されたSpacyの\dq{en\_core\_web\_sm}モデルを利用した.また,\NounPhraseの末端に\KNOWNTERMがあるかどうかを判断する際に\CoNLLでは大文字・小文字の区別をおこないつつ\DictionaryMatchを行い,\MedMentionsでは大文字・小文字の区別をせずに\DictionaryMatchを行うようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}本論文では,なるべく多くのカテゴリ(\FOCUSCATの祖先以外)を利用する提案手法(「\WithAlmostCatProposal」)と,\ref{subsec:exclude-minor-categories}節のノイズ除去手法を利用した提案手法(「\AbbrevProposal」)を4つの手法と比較する.1つ目の比較手法は,\PseudoDataを作成した方法と同じ\DictionaryMatchの手法である.この手法との比較によって,擬似アノテーションを行い,それを学習データとして用いることでどの程度の改善が得られるかを確認する.2つ目の比較手法は,通常の\WSLNERと同様に\FOCUSCATのみを\PseudoData作成のための\DictionaryMatchに活用したBERTベーススパン分類手法である.この手法との比較によって,\THESAURUSの持つカテゴリの一部ではなく全体を活用することで\WSLの副作用を抑制するという本論文のアイデアの是非を確認する.3つ目の比較手法は,\FOCUSCATに追加して\COMPLEMENTCATを\PseudoAnnotationのための\DictionaryMatchに利用し,\PseudoFalseNegativeに頑健な学習法の副作用を抑制しようとした先行研究\cite{\PaperGraphCut}の手法である.この手法との比較によって,\PseudoFalsePositiveに頑健な学習法の副作用を抑制し,Recallの減少を抑えられるのかを確認する.2つ目と3つ目の比較手法と提案手法における擬似データ作成手法の違いについては図\ref{fig:span_classification_model_baselines}に図解を行った.シソーラスにおける所属・階層関係に沿ったデータ拡張は2つ目と3つ目の比較手法でも用いられてきたのに対し,\FOCUSCATと\COMPLEMENTCAT以外のシソーラスに含まれるカテゴリ情報を用いたロス関数の設計は提案手法独自の特徴である.4つ目の比較手法は,\FOCUSCATをのみを含んだ教師データによる\SLである.この手法との比較によって,\SLに提案手法がどれだけせまれているかを確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-3ia6f4.pdf}\end{center}\hangcaption{提案手法と2つの\WSLNERとしてのベースラインとの\PseudoData作成方法の違い.通常の\WSLNERでは,関心のあるカテゴリ(\focuscat{哺乳類},\focuscat{爬虫類})に所属する語句のみを用いた\PseudoDataを利用する.先行研究\protect\cite{\PaperGraphCut}では,\FOCUSCATに追加して\COMPLEMENTCAT(\FOCUSCATを補完し\THESAURUS全体を被覆するような最小限のカテゴリ)である\complementcat{魚類},\complementcat{植物}に所属する語句も利用する.本論文の提案手法では,\THESAURUSに所属する\ALLCATを利用することで,\othercat{生物},\othercat{動物},\othercat{草},\othercat{木},\othercat{藻}など先行研究では利用されていなかったカテゴリ情報を活用する.赤色のカテゴリは\FOCUSCAT,青色のカテゴリは\COMPLEMENTCATをそれぞれ意味している.}\label{fig:span_classification_model_baselines}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文で作成した比較手法及び提案手法の\PseudoDataにおける各カテゴリの訓練事例数については付録\ref{sec:pseudo_data_statistics}に記載した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハイパーパラメータ}BERTの事前学習済みパラメータとして,UMLSとMedMenrtionsの実験ではBioBERT\cite{lee_biobert_2019}\footnote{\url{https://huggingface.co/dmis-lab/biobert-base-cased-v1.1}}を利用し,DBpediaとCoNLL2003の実験では\dq{bert-base-cased}\cite{devlin_bert_2019}\footnote{\url{https://huggingface.co/bert-base-cased}}を利用した.スパン分類の分類器に活用したMLPの中間層の埋め込み次元数は,BERT最終層の埋め込み次元数の2倍とした.\citeA{\PaperBOND}の手法を参考にEarlystopping活用時には,100ステップごとにdevデータで評価を行い,5回連続でF1値の最大値が更新されなくなったときに学習を打ち切るようにした.\citeA{\PaperNegativeUndersampling}の手法を参考に\dq{O}ラベルをアンダーサンプリングする際,そのサンプルの割合はラベルのつけられているスパンと\dq{O}ラベルのスパンの比率によって指定し,\StrictF1の値が大きくなるようにハイパーパラメータ探索を行い,この\dq{O}ラベル/その他の比率を決定した(付録\ref{sec:parameter_tuning_by_undersampling}).\DBpediaと\CoNLLを利用した実験においては\TableBaseline,\TableGraphcut,提案手法のそれぞれで\dq{O}ラベルがついたスパンとその他のスパンの比率を3.0,8.0,1.0になるようにした.\UMLSと\MedMentionsを利用した実験においては16.0,16.0,2.0になるように設定した.教師データで訓練する場合には40epoch学習して,devセットで最も良いF1値を出した学習済みパラメータを選択するようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果} \label{sec:main_result}表\ref{tab:exp_result}では,\DBpedia,\UMLSを\THESAURUSとして擬似アノテーションに利用し,\CoNLL,\MedMentionsを評価に利用した際の\StrictPrecision,Recall,F1スコアが示されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}%\hangcaption{\DBpedia,\UMLSを\PseudoAnnotationに\CoNLL,\MedMentionsを評価に利用した\WSLNERの実験結果.「\TableDataMaking」の行は\PseudoData作成手法,「\TableBaseline」,「\TableGraphcut」,「\AbbrevProposal」の行は\WSLNERの手法,「\TableSupervised」の行は\SLの実験結果を示している.「\TableBaseline」は\FOCUSCAT,「\TableGraphcut」はそれに加えて\COMPLEMENTCATを擬似データに活用した際の精度を示している.「\WithAlmostCatProposal」は\ALLCATを擬似データに活用し,\FOCUSCATの祖先カテゴリのみ予測対象のカテゴリから除いた際の精度を示している.「\AbbrevProposal」は\ALLCATを擬似データに活用し,\FOCUSCAT,\COMPLEMENTCAT,\dq{O}カテゴリのみ予測対象のカテゴリとした際の精度を示している.\CoNLLの下の3つの列は\CoNLLでの精度,\MedMentionsの下の3つの列は\MedMentionsでの精度を示している.}\label{tab:exp_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%「\AbbrevProposal」と「\WithAlmostCatProposal」の比較によって,「\AbbrevProposal」が「\WithAlmostCatProposal」に対して全ての尺度で上回り,粒度の細かく学習事例の細かいカテゴリを予測時に利用しない(\ref{subsec:exclude-minor-categories}節)工夫によって精度向上が達成できていることがわかる.\TableDataMakingと\TableBaseline,\TableGraphcut,二つの提案手法との比較によって,\WSL手法がF1値において\DataMaking以上の精度を達成していることがわかる.ただし,Recallの増加の一方で,Precisionが減少しているのは\citeauthor{\PaperNegativeUndersampling}の\dq{O}ラベルのアンダーサンプリング利用の副作用として,\FOCUSCATの過剰予測という問題が生じているためであると考えられる.表\ref{tab:exp_result}の\TableBaselineと\AbbrevProposalの\CoNLLでの評価によって,\ALLCATを活用することでPrecision,Recallの改善が見受けられる.Precisionが47.07から43.50に減少した\MedMentionsにおいても詳細に見ていくと同様の効果が確認できる.なぜなら,付録\ref{sec:parameter_tuning_by_undersampling}の表\ref{tab:undersample_medmentions}から,\AbbrevProposalの\dq{O}スパンの他のスパンに対する比率を2.0から8.0に増加させた場合には,P./R./F.スコアは51.30/24.37/33.05となる.この数値と表\ref{tab:exp_result}の\TableBaselineの47.07/22.25/30.22という値を比較することによって,Recallを減少させずにPrecisionも増加していることがわかるからである.以上のことから,提案手法によって\WSLの副作用を抑制し,\FOCUSCATの過剰・過小予測が減っていると考えられる.表\ref{tab:exp_result}の\TableGraphcutと\AbbrevProposalの比較によって,\AbbrevProposalが\AbbrevGraphcutに対してより高い精度になっていることがわかる.特にRecallが上昇しており,\PseudoFalsePositiveに頑健な学習法の副作用としてのRecallの悪化を防げていると考えられる.一見\MedMentionsでは成立していないように見えるが,\GRAPHCUTと比べたときに\PseudoFalsePositiveに頑健な学習法の副作用としてのRecallの悪化を防ぐという当初の目的を超えて,\AbbrevProposalはPrecisionも上昇させることができている.なぜなら,先行研究との精度比較が容易になるように,付録\ref{sec:parameter_tuning_by_undersampling}の表\ref{tab:undersample_medmentions}から\AbbrevProposalの\dq{O}スパンの他のスパンに対する比率を2.0から8.0に増加させた場合に,P./R./F.スコアは51.30/24.37/33.05となる.この数値と表\ref{tab:exp_result}の\TableGraphcutの48.82/21.82/30.16という値を比較することによって,\MedMentionsにおいてもRecallを減少させずにPrecisionが増加していることがわかるからである.このようにPrecisionも上昇させられた理由として,\FOCUSCATの下位カテゴリの学習により\FOCUSCATの特定が精度高くできるようになったり,\COMPLEMENTCATの上位語の追加により\COMPLEMENTCATの中でも事例数の少ないカテゴリの学習が容易になったというような可能性を考えることができる.\AbbrevProposalと\TableSupervisedの比較によって,\WSLの中で最も精度の高い\AbbrevProposalであったとしても,まだまだ教師あり学習との精度差が大きいことがわかる.具体的には,\CoNLL,\MedMentionsデータセットそれぞれにおいて,F1で31,24\%もの精度差があることが読み取れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラス別の精度比較}この節では\TableBaselineとのクラス別の精度比較によって,どういったカテゴリにおいて提案手法が優位であるのかを確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{06table02.tex}%\hangcaption{\PseudoData作成手法,弱教師あり手法におけるクラスごとのF1精度比較.\DBpediaを\PseudoAnnotationに\CoNLLを評価に利用した実験結果.「\TableDataMaking」の行は\PseudoData作成手法,「\TableBaseline」,「\TableGraphcut」,「\WithAlmostCatProposal」,「\AbbrevProposal」の行は\WSLNERの手法の実験結果を示している.「\TableBaseline」は\FOCUSCAT,「\TableGraphcut」はそれに加えて\COMPLEMENTCATを擬似データに活用した際の精度を示している.「\WithAlmostCatProposal」は\ALLCATを擬似データに活用し,\FOCUSCATの祖先カテゴリのみ予測対象のカテゴリから除いた際の精度を示している.「\AbbrevProposal」は\ALLCATを擬似データに活用し,\FOCUSCAT,\COMPLEMENTCAT,\dq{O}カテゴリのみ予測対象のカテゴリとした際の精度を示している.「ALL」の行は全体での精度を示し,「PER」~「MISC」の行はそれぞれのカテゴリに対する精度を提示している.また「PER」~「MISC」の行は\AbbrevProposalが\TableBaselineに対して大きい順にソートしている.}\label{tab:class_wise_ws_result_on_conll}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:class_wise_ws_result_on_conll}では,\DBpediaを\PseudoAnnotationに\CoNLLを評価に利用した実験結果を示している.「\TableDataMaking」の行は\PseudoData作成手法,「\TableBaseline」,「先行研究\protect\cite{\PaperGraphCut}」,「\WithAlmostCatProposal」,「\AbbrevProposal」の行は\WSLNERの手法の実験結果を示している.「\TableBaseline」は\FOCUSCAT,「\TableGraphcut」はそれに加えて\COMPLEMENTCATを擬似データに活用した際の精度を示している.「\WithAlmostCatProposal」は\ALLCATを擬似データに活用し,\FOCUSCATの祖先カテゴリのみ予測対象のカテゴリから除いた際の精度を示している.「\AbbrevProposal」は\ALLCATを擬似データに活用し,\FOCUSCAT,\COMPLEMENTCAT,\dq{O}カテゴリのみ予測対象のカテゴリとした際の精度を示している.「ALL」の行は全体での精度を示し,「PER」~「MISC」の行はそれぞれのカテゴリに対する精度差を提示している.また「PER」~「MISC」の行は\AbbrevProposalが\TableBaselineに対して大きい順にソートしている.同様に表\ref{tab:class_wise_ws_result_on_medmentions}では,\UMLSを\PseudoAnnotationに\MedMentionsを評価に利用した実験結果を示している.表\ref{tab:class_wise_ws_result_on_conll}と同様に「Eukaryote」~「InjuryorPoisoning」の行はそれぞれのカテゴリに対する精度を提示している.また「Eukaryote」~「InjuryorPoisoning」の行は\AbbrevProposalが\TableBaselineに対して大きい順にソートしている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{06table03.tex}%\hangcaption{\PseudoData作成手法,弱教師あり手法におけるクラスごとのF1精度比較.\UMLSを\PseudoAnnotationに\MedMentionsを評価に利用した実験結果.「\TableDataMaking」の行は\PseudoData作成手法,「\TableBaseline」,「\TableGraphcut」,「\WithAlmostCatProposal」,「\AbbrevProposal」の行は\WSLNERの手法の実験結果を示している.「\TableBaseline」は\FOCUSCAT,「\TableGraphcut」はそれに加えて\COMPLEMENTCATを擬似データに活用した際の精度を示している.「\WithAlmostCatProposal」は\ALLCATを擬似データに活用し,\FOCUSCATの祖先カテゴリのみ予測対象のカテゴリから除いた際の精度を示している.「\AbbrevProposal」は\ALLCATを擬似データに活用し,\FOCUSCAT,\COMPLEMENTCAT,\dq{O}カテゴリのみ予測対象のカテゴリとした際の精度を示している.「ALL」の行は全体での精度を示し,「Eukaryote」~「InjuryorPoisoning」の行はそれぞれのカテゴリに対する精度を提示している.また「Eukaryote」~「InjuryorPoisoning」の行は\AbbrevProposalが\TableBaselineに対して大きい順にソートしている.}\label{tab:class_wise_ws_result_on_medmentions}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このクラスごとの出力結果から,抽象度が高く多様な下位クラスを持つ,「PER」,「Eukaryote」,「Chemical」などのクラスに提案手法が強い一方で,「MISC」や「Bacterium」などあまり下位クラスの多様性が大きくなさそうなクラスにおいては有効性を発揮できていないことがわかる.表\ref{tab:class_wise_ws_result_on_conll},\ref{tab:class_wise_ws_result_on_medmentions}の「ALL」の行からも,より抽象度の高い\CoNLLのクラスを\FOCUSCATとした際の提案手法の精度改善の幅がより専門性の高い\MedMentionsのクラスを\FOCUSCATとした際の提案手法の精度改善の幅が大きいこと見てとれる.このことからも提案手法はより粒度が粗く,その子孫に多様なクラスが存在する場合に有用である一方で,より粒度の細かいクラスに関しては親クラスをヒントに使うことが必ずしも有用であるとは言えないことが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師データを量を変えた場合との比較}\label{sec:data_size_shift}この章では,\ref{sec:main_result}章で確認できた\AbbrevProposalの改善がどれくらいの量の\SupervisedData追加に匹敵するのかを明らかにする.そのために,\TableBaseline,\AbbrevProposalの\WSLNER手法がどのくらいの量の\SupervisedDataを伴う教師あり学習に匹敵するのかを確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{31-3ia6f5.pdf}\end{center}\hangcaption{\CoNLL,\MedMentionsの教師データ量を変更した際のF1と\TableBaseline,\AbbrevProposalの精度比較.表では\TableBaseline,\AbbrevProposalとの比較が容易になるようにデータ量・精度の区間を拡大している.\TableSupervisedの実験結果は訓練データから指定された数の教師データをランダムに10回サンプリングし,精度の平均を計算することで計算を行なった.また\TableSupervisedに示されている誤差範囲は標準偏差である.全体像やより細かい数値については,付録\ref{sec:low_resource_detail}を参照されたい.}\label{fig:data_size_experiment_strict}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:data_size_experiment_strict}では,\CoNLL,\MedMentionsの教師データ量を変更した際の\StrictF1値の推移を\TableBaseline,\AbbrevProposalのF1値とともに表示している.\TableSupervisedの精度は訓練データから指定された数の教師データをランダムに10回サンプリングし,精度の平均を計算することで計算を行なった.まず\TableSupervisedと\TableBaselineを比較すると,\TableBaselineが\CoNLL,\MedMentionsそれぞれの評価において,360,900文ほどの\SupervisedDataを伴った教師あり学習と同等の効果があることがわかる.次に\TableSupervisedと\AbbrevProposalを比較すると,\AbbrevProposalが\CoNLL,\MedMentionsそれぞれの評価において,500,1350文ほどの\SupervisedDataを伴った教師あり学習と同等の効果があることがわかる.\pagebreak以上のことから\AbbrevProposalの改善が\CoNLL,\MedMentionsそれぞれの評価において140,450文追加程度の効果があることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本論文の実験から次の二つのことを確認できた.まず,\WSLNERにおいて着目する\FOCUSCATだけではなく,\ALLCATを利用する有用性を検証し,\CoNLLと\MedMentionsの両データセットにおいて,\BASELINEから5~7\%の改善を達成できた.さらに,\PROPOSALが760~1690文ほどの教師データのアノテーションに匹敵することも明らかにできた.本論文の実験を通じて得られた知見として,巨大なカテゴリ階層の一部である\FOCUSCATにしか関心がない場合であっても,単にそれらを擬似アノテーションの対象にするだけでなく,\ALLCATを考慮させることで\FOCUSCAT取得精度が上昇することを明らかにした.この実験結果は,分類の難しい事例を考慮したい際に,分類の失敗事例を教えるだけではなく,総体的な知識に基づいてなぜその事例が間違っているのかを教えることが有用であることを示している.次に,本研究の活用と発展について述べる.本研究で利用した弱教師あり学習は様々な分野において\THESAURUSさえあれば利用可能な方法であり,様々なカテゴリを含む\DBpediaなどの巨大な\THESAURUSを利用すれば,\Userのニーズに応じた固有表現抽出器を\WSLNERで作成する際に活用することができる.またLUKE\cite{\PaperLUKE}などの\THESAURUS情報を考慮させた事前学習済みモデルの学習においても\THESAURUSのもつ総体的な知識構造を教えることができるメリットがあるかもしれない.最後に,今回の研究の限界について述べる.まず教師あり学習の精度には24~31\%も劣っており,教師あり学習に匹敵した精度を実現するという理想にはまだ到達していない.また,今回の研究では\DBpedia,\UMLSというとても大規模で階層的なカテゴリ構造を持つ\THESAURUSを活用した.一方で,どれくらい小規模な\THESAURUSにおいても提案手法の優位性が成り立つのか,階層的クラスタリングとの併用により階層構造を自動で作成しても有用性が保たれるのかについては明らかにされていない.さらに本研究では,「映画監督」に関心があるが「お笑い芸人」には関心がない,ただし「映画監督」であり「お笑い芸人」である人間には関心がある,といった関心のある・ないカテゴリが重複する状況に対応できていないという課題も存在している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,第一著者が奈良先端科学技術大学院大学自然言語処理学研究室で始めた研究を発展させたものです.奈良先端科学技術大学院大学自然言語処理学研究室においてセミナーなどで議論いただいた皆さんありがとうございました.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{擬似データにおける各カテゴリの訓練事例数} \label{sec:pseudo_data_statistics}この章では,本論文で作成した擬似データの各カテゴリの訓練事例数を提示する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[p]\input{06table04.tex}%\end{center}\hangcaption{\CoNLLのtrainsetに\DBpediaを用いて\PseudoAnnotationを行った\PseudoDataのカテゴリごとの訓練事例数.「\TableBaseline」の列では\FOCUSCATのみを利用したベースラインのカテゴリごとの訓練事例数,「\TableGraphcut」の列では\FOCUSCATと\COMPLEMENTCATを利用した比較手法の訓練事例数,「提案手法」の列では\ALLCATを利用したカテゴリごとの訓練事例数を示している.ただし正確には「提案手法」の「PER」「LOC」「ORG」「MISC」のカテゴリは\DBpediaに含まれないため\PseudoDataには含まれていない.その変わりに推論時にこれらのカテゴリの代替として利用した(付録\ref{sec:CoNLL2003CategoryMapper})カテゴリの訓練事例数の総計を提示している.ページ内に収めるため提案手法の\PseudoDataにおいて20スパン以上出現するカテゴリのみ提示している.}\label{tab:category_statistics_in_conll_pseudo_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{06table05.tex}%\end{center}\hangcaption{\MedMentionsのtrainsetに\UMLSを用いて\PseudoAnnotationを行った\PseudoDataのカテゴリごとの訓練事例数.「\TableBaseline」の列では\FOCUSCATのみを利用したベースラインのカテゴリごとの訓練事例数,「\TableGraphcut」の列では\FOCUSCATと\COMPLEMENTCATを利用した比較手法の訓練事例数,「提案手法」の列では\ALLCATを利用したカテゴリごとの訓練事例数を示している.ページ内に収めるため提案手法の\PseudoDataにおいて250スパン以上出現するカテゴリのみ提示している.}\label{tab:category_statistics_in_medmentions_pseudo_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:category_statistics_in_conll_pseudo_data},\ref{tab:category_statistics_in_medmentions_pseudo_data}には,\CoNLL,\MedMentionsのtrainsetに\DBpedia,\UMLSを用いて作成した\PseudoDataに含まれるカテゴリごとの訓練事例数を明示している.「\TableBaseline」の列では\FOCUSCATのみを利用したベースラインのカテゴリごとの訓練事例数,「\TableGraphcut」の列では\FOCUSCATと\COMPLEMENTCATを利用した比較手法のカテゴリごとの訓練事例数,「提案手法」の列では\ALLCATを利用した提案手法の訓練に利用した\PseudoDataのカテゴリごとの訓練事例数を示している.ただし正確には「提案手法」の「PER」「LOC」「ORG」「MISC」のカテゴリは\DBpediaに含まれないため\ALLCATを活用する\PseudoDataには含まれていない.その代わり,推論時にこれらのカテゴリの代替として利用した(付録\ref{sec:CoNLL2003CategoryMapper})カテゴリの訓練事例数の総計を提示している.\TableBaselineを基準に\TableGraphcutの列を比較すると,\COMPLEMENTCATの訓練事例が追加されている他,\FOCUSCATの事例数が減少している.これは\TableBaselineと\TableGraphcutの両手法の前処理において,曖昧性のある(複数のカテゴリを持つ)語句を擬似データ作成の際に取り除いているからである.\TableGraphcutでは,\TableBaselineに比べて\COMPLEMENTCATが追加されているので,より曖昧性があるとされて除去される語句が増えている.\TableBaselineや\TableGraphcutを基準に提案手法の列を比較すると,\FOCUSCATの事例数が減少していることもあれば増加している場合もある.これは提案手法において\TableBaseline及び\TableGraphcutとは異なる曖昧性解消手法を利用していることに起因する.具体的には提案手法では同一名称を持つ複数のエンティティがある場合,その共通カテゴリを利用するという曖昧性解消手法を利用している.これは例えば「江川卓」という名前を考えた時に,エンティティとしてはロシア文学者の「江川卓」(えがわたく)と,野球選手の「江川卓」(えがわすぐる)という曖昧性があるものの,そのどちらのエンティティであっても人名を指していることには変わりないとして,「江川卓」を「文学者」や「スポーツ選手」というカテゴリの語句として利用はしないが,「人名」というカテゴリの語句としては利用する,といった曖昧性解消手法である.この曖昧性解消手法では粒度の粗いカテゴリしか付与されていないエンティティがあると\TableBaselineや\TableGraphcutよりも提案手法の訓練事例数が減少しうる.例えば,「ホモサピエンス」に対して二つのエンティティが存在し,片方は「哺乳類」「生物」カテゴリが付与され,もう片方には「生物」カテゴリのみ付与されている場合を考える.\FOCUSCATとして「哺乳類」を選択した場合の\TableBaselineでは,「ホモサピエンス」は「哺乳類」として活用される.一方で提案手法では「ホモサピエンス」は「生物」として活用されるものの,「哺乳類」としては活用されないといった事態が生じてしまう.また,この曖昧性解消手法ではエンティティ自体が多義的である場合に\TableBaselineや\TableGraphcutよりも提案手法の訓練事例数が増加しうる.例えば,「石原慎太郎」という語句に対して一つのエンティティが存在し,「政治家」,「小説家」という二つのカテゴリが付与されている場合を考える.\FOCUSCATとして「政治家」と「小説家」を選択した場合の\TableBaselineでは,「石原慎太郎」という語句は曖昧性を持っているとして除去される.一方で提案手法では「石原慎太郎」には一つのエンティティしか存在しないので「政治家」と「小説家」両方のカテゴリを持つ語句として活用される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{06table06.tex}%\hangcaption{\CoNLLで\SupervisedData量を変化させた時の精度変化.「\TableDataMaking」の行にはデータ作成手法,「\TableBaseline」,「\AbbrevProposal」の行には\WSL手法である\BASELINE,\PROPOSAL,「\TableSupervised」の行以降には\SLで指定された数ランダムに教師データを取得した際の精度の平均値と標準偏差を提示している.「\Strict」の下の3つの列には\Strictの精度を,「\Lenient」の下の3つの列には\Lenientの精度を示している.}\label{tab:low_resource_conll}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{06table07.tex}%\hangcaption{\MedMentionsで\SupervisedData量を変化させた時の精度変化.「\TableDataMaking」の行にはデータ作成手法,「\TableBaseline」,「\AbbrevProposal」の行には\WSL手法である\BASELINE,\PROPOSAL,「\TableSupervised」の行以降には\SLで指定された数ランダムに教師データを取得した際の精度の平均値と標準偏差を提示している.「\Strict」の下の3つの列には\Strictの精度を,「\Lenient」の下の3つの列には\Lenientの精度を示している.}\label{tab:low_resource_medmentions}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{教師データ量を変更したときの実験結果詳細} \label{sec:low_resource_detail}この章では,\ref{sec:data_size_shift}章において紹介した教師データ量を変更したときの実験結果の詳細を提示する.表\ref{tab:low_resource_conll},\ref{tab:low_resource_medmentions}では,\CoNLL,\MedMentionsデータセットにおいて教師データ量を変更したときの精度の変化を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Undersampling率を変えたときの精度変化} \label{sec:parameter_tuning_by_undersampling}表\ref{tab:under_sample_conll2003},\ref{tab:undersample_medmentions}には,\DBpedia,\UMLSを\PseudoAnnotationに利用し,\CoNLL,\MedMentionsで評価した実験において\dq{O}スパンのアンダーサンプリング率\cite{\PaperNegativeUndersampling}を変更した際の実験結果を提示している.表\ref{tab:under_sample_conll2003},\ref{tab:undersample_medmentions}から,\Strictの観点でも,\Lenientの観点でも\PROPOSALが\WSL手法の中では最も精度が高いことがわかる.なぜなら,表\ref{tab:under_sample_conll2003}の4つの弱教師あり学習手法の最大の\StrictF1はそれぞれ``O''/その他比が3.0,8.0,3.0,1.0の51.80,50.69,58.90,60.18であり,最大の\LenientF1はそれぞれ``O''/その他比が0.1,1.0,0.1,0.5の61.73,63.06,66.28,65.95となっているからである.同様に表\ref{tab:undersample_medmentions}においても,最大の\StrictF1はそれぞれ``O''/その他比が16.0,16.0,3.0,2.0の30.22,30.16,34.86,35.20であり,最大の\LenientF1はそれぞれ``O''/その他比が2.0,0.5,0.1,0.1の44.87,47.44,50.42,54.90となっていることがわかるからである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\input{06table08.tex}%\hangcaption{\DBpediaを\PseudoAnnotationに利用し\CoNLLで評価した際に\dq{O}ラベルの割合を変動させた際の精度変化.\BASELINE,\GRAPHCUT,\PROPOSAL,さらに対象・補完カテゴリに予測を絞った提案手法のそれぞれにおいて,正例に対する\dq{O}ラベルの割合を変動させた際の\Strictの精度と\Lenientの精度を提示している.}\label{tab:under_sample_conll2003}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\input{06table09.tex}%\hangcaption{\UMLSを\PseudoAnnotationに利用し\MedMentionsで評価した際に\dq{O}ラベルの割合を変動させた際の精度変化.\BASELINE,\GRAPHCUT,\PROPOSAL,さらに対象・補完カテゴリに予測を絞った提案手法のそれぞれにおいて,正例に対する\dq{O}ラベルの割合を変動させた際の\Strictの精度と\Lenientの精度を提示している.}\label{tab:undersample_medmentions}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:under_sample_conll2003},\ref{tab:undersample_medmentions}の「\TableBaseline」及び「\TableGraphcut」と記載のある行以降を見ると,基本的に\dq{O}スパンの他スパンに対する割合が上昇することによってPrecisionが高くなるがRecallが減少するというトレードオフがあることがわかる.表\ref{tab:undersample_medmentions}の「\WithAlmostCatProposal」,「\AbbrevProposal」の結果においても基本的に\dq{O}スパンの他スパンに対する割合が上昇することによってPrecisionが高くなるがRecallが減少するというトレードオフがあることがわかる.一方で,表\ref{tab:under_sample_conll2003}からははっきりとした傾向が読み取れない.これは,\FOCUSCATに対して負例として働く\THESAURUS中の他のカテゴリの事例が学習データ中に豊富に存在していることで,\dq{O}ラベルを持つスパンの影響が小さくなっているためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\CoNLLのカテゴリに対応させた\DBpediaのカテゴリ} \label{sec:CoNLL2003CategoryMapper}本章では,\CoNLL\cite{\CoNLLPaper}と異なるラベル体系をもつ\DBpedia\cite{\DBpediaPaper}を\PseudoAnnotationに活かすにあたって\DBpediaのどのカテゴリを\CoNLLの4つのカテゴリと見做したかについて述べる.\CoNLLの\dq{PER}カテゴリに対して,\DBpediaの\dq{Person},\dq{Name}カテゴリを利用し,\dq{ORG}カテゴリに対して\DBpediaの\dq{Organisation}カテゴリを利用し,\dq{LOC}カテゴリに対しては\dq{Place}カテゴリを利用し,\dq{MISC}カテゴリに対しては\DBpediaの\dq{Work},\dq{Event},\dq{MeanOfTransportation},\dq{Device},\dq{Award},\dq{Disease},\dq{ethnicGroup},\dq{EthnicGroup}\footnote{\dq{ethnicGroup},\dq{EthnicGroup}はどちらも民族を示すカテゴリだが,前者は属性名として利用されるものであり,後者はエンティティの分類に使われるものであるという違いがある}のカテゴリを利用した.\AbbrevProposalの学習時には,\DBpediaのより細かいカテゴリを利用している.そこで,予測時にこれらに対応するカテゴリを\CoNLLの4つのカテゴリにまとめる工夫をした.具体的にはこれら対応するカテゴリ群に予測された確率の総和を用いてまとめた.例えば\dq{PER}カテゴリに対しては\dq{Person},\dq{Name}カテゴリに対する予測確率の総和を利用するといった具合である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{芝原隆善}{2017年京都大学総合人間学部知能情報学系を卒業.2019年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2022年同博士後期課程満期取得退学.2022年から株式会社レトリバに勤務.}\bioauthor{山田育矢}{中学から大学院博士課程まで慶應義塾大学SFCキャンパスで学ぶ.武藤佳恭教授(現名誉教授)に師事し,博士(学術)を取得.2000年の大学入学と同時にインターネットの基盤技術の研究開発を行う学生ベンチャー企業ニューロンを起業.その後,同社をフラクタリスト社に売却し,NATトラバーサル技術を事業化.2007年に自然言語処理の研究開発を行うStudioOusiaを共同創業.自然言語処理の基本的な問題である質問応答及びエンティティ抽出についての研究開発を推進.}\bioauthor{西田典起}{%2015年東京大学工学部電子情報工学科卒業.2017年同大学院情報理工学系研究科創造情報学専攻修士課程修了.2020年同専攻博士課程修了.博士(情報理工学).同年より理化学研究所革新知能統合研究センター(AIP)特別研究員.2023年より同センター研究員.}\bioauthor{寺西裕紀}{%2014年慶應義塾大学商学部卒.2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2020年同大学院先端科学技術研究科博士後期課程修了.博士(工学).同年より理化学研究所革新知能統合研究センター(AIP)特別研究員.2023年より奈良先端科学技術大学院大学客員助教を兼務.自然言語処理の研究に従事.}\bioauthor{古崎晃司}{1997年大阪大学工学部電子工学科卒業.2002年同大学院工学研究科博士後期課程修了.同年,化学工学会嘱託研究員,同年12月大阪大学産業科学研究所助手,2008年同准教授.2019年から大阪電気通信大学情報通信工学部情報工学科の教授.博士(工学).オントロジー工学の基礎理論,オントロジー構築・利用環境の設計・開発,セマンティックWeb,LinkedData,医療,環境など各種領域におけるオントロジー開発・応用に関する研究に従事.LinkedOpenDataチャレンジにおいて,ライフサイエンス賞(2013年),アプリケーション部門優秀賞(2014年)を受賞.2014年,オープンデータ・アプリコンテスト技術賞受賞.情報処理学会,電子情報通信学会,医療情報学会,InternationalAssociationforOntologyanditsApplications,各会員.}\bioauthor{松本裕治}{%1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984~85年英国インペリアルカレッジ客員研究員.1985~87年(財)新世代コンピュータ技術開発機構に出向.1988年京都大学助教授,1993年奈良先端科学技術大学院大学教授.2020年理研AIP知識獲得リーダ,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,言語処理学会,AAAI,ACL,ACM各会員,情報処理学会フェロー,ACLFellow.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V28N01-11
\section{はじめに} \label{sec:intro}テキスト分類\cite{shen-2018}や機械翻訳\cite{qi-2018}など,多くの自然言語処理タスクにおいて単語分散表現は基盤となる言語資源である.しかし,広く利用されているGloVe\cite{pennington-2014}やfastText\cite{bojanowski-2017}などの単語分散表現はモデルサイズが非常に大きく,モバイル機器などメモリ容量が制限された環境での自然言語処理アプリケーションの開発において,大きな問題となっている.例えば,$200$万単語にそれぞれ$300$次元のベクトルを割り当てるfastText\footnote{\url{https://fasttext.cc/docs/en/english-vectors.html}}は,約$2$GBの記憶領域を必要とする.語彙サイズを限定することで単語分散表現のモデルサイズを削減できるが,これはシステムが処理できない未知語を増大させるため,アプリケーションの性能を著しく悪化させてしまう.未知語の発生を避けつつ単語分散表現のモデルサイズを削減するために,文字\cite{pinter-2017,kim-2018}や文字N-gram\cite{zhao-2018,sasaki-2019}の情報から単語分散表現を推定する研究が行われてきた.単語のタイプ数に比べて文字や文字N-gramのタイプ数は著しく少ないため,これらの部分文字列\footnote{本研究では,文字や文字N-gramのことを部分文字列と呼ぶ.}から単語分散表現を高精度に推定できれば,アプリケーションの性能を保持したままモデルサイズを削減できる.これらの先行研究では,図~\ref{fig:reconstruction}に示すように,部分文字列の分散表現から単語の分散表現を構成し,学習済みの単語分散表現を模倣する.これらの手法では,学習済み単語分散表現および部分文字列という対象単語から得られる局所的な情報のみを扱ってきた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1and2\begin{figure}[b]\noindent\begin{minipage}[b]{202pt}\includegraphics{28-1ia10f1.pdf}\caption{部分文字列に基づく単語分散表現の模倣}\label{fig:reconstruction}\end{minipage}\hfill\begin{minipage}[b]{202pt}\includegraphics{28-1ia10f2.pdf}\caption{提案手法における損失計算}\label{fig:loss}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,図~\ref{fig:loss}に示すように,対象単語以外の単語も手がかりとして利用する大域的な訓練によって,単語分散表現の模倣性能を改善する.似た意味を持つ単語同士が似たベクトルを持つという単語分散表現の特性を考慮して,対象単語の学習済み単語分散表現を模倣する通常の訓練に加えて,対象単語と他の単語との類似度分布を模倣する訓練も行うマルチタスク学習を実施する.我々の提案手法は,部分文字列の単位や模倣モデルの構造に依存せず,部分文字列から単語分散表現を模倣する全ての既存手法に容易に適用できる.単語間の意味的類似度推定タスク\cite{faruqui-2014}における評価実験の結果,本手法の適用によって全ての先行研究における単語分散表現の模倣性能が改善した.特に,文字N-gramから単語分散表現を模倣する自己注意機構\cite{sasaki-2019}に本手法を適用することによって,fastTextの$97$\%の品質を保持しつつモデルサイズを$74$MB($30$分の$1$)に削減できた.また,モデルサイズを$12$MB($200$分の$1$)に削減した状態でも,元のfastTextの$87$\%の品質を保つことができた.さらに,テキスト分類タスク\cite{conneau-2018}の評価においても,$12$MBの設定で元のfastTextの$90$\%程度の品質を保持できることを確認した.%================================================== \section{関連研究} label{sec:related_work}%==================================================%==============================\subsection{単語分散表現に関する研究}\label{ssec:word_embedding}%==============================単語の分散表現を獲得するために,対象単語とその周辺単語を用いる教師なし学習によってニューラルネットワークを訓練する研究が盛んに行われている.周辺単語から対象単語を推定するContinuousBag-of-Words\cite{mikolov-2013a}や対象単語から周辺単語を推定するSkip-gram\cite{mikolov-2013b}をはじめとして,単語間の共起を考慮するGloVe\cite{pennington-2014}や係り受け関係を考慮する手法\cite{levy-2014},部分文字列を考慮するfastText\cite{bojanowski-2017}などが代表的な手法として知られている.単語分散表現は,テキスト分類\cite{shen-2018}や機械翻訳\cite{qi-2018}など,機械学習に基づく多くの自然言語処理タスクにおいて有用である.しかし,数GBのメモリ容量を必要とする単語分散表現は,組み込みシステムやモバイル機器などのメモリ容量が制限された環境への実装が困難である.例えば,組み込みシステム開発においてよく用いられるRasberryPi$3$のメモリ容量は$4$GBであり,fastText(約2.2GB)の単語分散表現を読み込むと半分以上のメモリ容量を消費してしまう.OSなど,その他のプログラムでもメモリを利用することを考えると,これは深刻な問題である.そこで本研究では,品質を保持したまま単語分散表現のモデルサイズを削減する方法について検討する.%==============================\subsection{単語分散表現の模倣に関する研究}\label{ssec:mimick}%==============================図~\ref{fig:reconstruction}に示すように,単語を構成する部分文字列から単語の分散表現を推定する研究が近年活発に行われている.これらの研究では,部分文字列の分散表現から単語の分散表現を構成し,学習済み単語分散表現を模倣する.単語のタイプ数に比べて文字や文字N-gramなどの部分文字列のタイプ数は著しく少ないため,このアプローチでモデルサイズを削減できる.部分文字列としては,文字を用いる手法\cite{pinter-2017,kim-2018}と文字N-gramを用いる手法\cite{zhao-2018,sasaki-2019}が提案されている.模倣モデル(図~\ref{fig:reconstruction}のReconstructionNetwork)としては,文字ベースの手法においてはニューラルネットワークに基づく手法\cite{pinter-2017,kim-2018}が,文字N-gramベースの手法においては各部分文字列の分散表現を(重み付きで)平均する手法\cite{zhao-2018,sasaki-2019}が採用されている.これらの先行研究においては,対象単語を構成する部分文字列と対象単語の学習済み単語分散表現のみを用いて模倣モデルを訓練する.本研究では,対象単語以外の単語の情報も利用して単語間の関係を学習することによって,より高品質な模倣モデルを得ることを目指す.これにより,最終的には,高い品質を保持しつつモデルサイズの更なる小規模化を実現する.%==============================\subsection{単語分散表現の圧縮に関する研究}\label{ssec:compact}%==============================単語分散表現を圧縮するために,\ref{ssec:mimick}節の模倣アプローチの他にも,多くの研究が行われている.例えば,各単語の分散表現を任意の基底ベクトルの組み合わせとして学習する手法\cite{suzuki-2016}や,コードと呼ばれる整数の組み合わせとして単語を表現する手法\cite{shu-2018,chen-2018},低次元の分散表現を用いて高次元の分散表現を生成する手法\cite{mehta-2020}などが存在する.また,単語分散表現の他にも,行列分解を用いてモデルのパラメータを削減する手法\cite{lan-2020}も提案されている.これらの先行研究においても高い圧縮性能が報告されているが,これらは訓練時に使用した既知語の分散表現しか扱えないという副次的な問題を持つ.一方で,\ref{ssec:mimick}節の模倣アプローチでは,未知語の分散表現についても部分文字列の分散表現から構成できる.そこで本研究では,模倣アプローチを用いて単語分散表現の圧縮を行う.%================================================== \section{提案手法} label{sec:method}%==================================================単語$w\inW$の学習済み分散表現を$\bm{e}_w$,部分文字列$s\inS$の無作為に初期化された分散表現を$\bm{v}_s$と表す.本研究では,先行研究\cite{pinter-2017,kim-2018,zhao-2018,sasaki-2019}と同じく,ある単語$w$に関する部分文字列の集合$\phi(w)$から単語分散表現$\bm{\hat{e}}_w=f(\phi(w))$を構成する問題を次の損失関数の最小化問題として定式化する.\begin{equation}L_{\rmlocal}=\frac{1}{d_w}||\bm{\hat{e}}_w-\bm{e}_w||^2_2\label{eq:local}\end{equation}ここで,$d_w$は単語分散表現の次元数である.また,$f(\cdot)$は部分文字列の集合から単語分散表現$\bm{\hat{e}}_w$を構成する関数であり,図~\ref{fig:reconstruction}のReconstructionNetworkに対応する.この構成関数として,先行研究では再帰型ニューラルネットワーク(RNN:recurrentneuralnetwork)\cite{pinter-2017}や,畳み込みニューラルネットワーク(CNN:convolutionalneuralnetwork)\cite{kim-2018},自己注意機構(SAM:self-attentionmechanism)\cite{sasaki-2019}が利用されている.本研究では,対象単語$w$の局所的な情報のみに依存する式~(\ref{eq:local})の損失関数に加えて,対象単語以外の大域的な情報に基づく損失関数を用いることで,単語分散表現の模倣性能を改善する.つまり,図~\ref{fig:loss}に示すように,対象単語についての模倣した分散表現と学習済み分散表現の間の関係だけでなく,対象単語の模倣した分散表現と他の単語の学習済み分散表現の間の関係も考慮する.大域的な損失関数は,単語間の余弦類似度\footnote{大域的な損失関数として平均二乗誤差も検討したが,余弦類似度に基づく損失関数がより高い性能を発揮した.}を用いて次のように定義する.\begin{equation}L_{\rmglobal}=\frac{1}{n}\sum_{g\inW}\left(\cos(\bm{\hat{e}}_w,\bm{e}_g)-\cos(\bm{e}_w,\bm{e}_g)\right)^2\label{eq:global}\end{equation}ただし,計算量の削減のために,訓練バッチごとに$n$個の単語$g\inW$をサンプリングして使用する.ここで,これらの単語$g$を無作為に選択すると,対象単語$w$と無関係な単語ばかりが選ばれる可能性があり,効率が悪い.そこで,$n/2$語は対象単語$w$との余弦類似度が高い順に選択し,残りは無作為に選択する.最終的に,式~(\ref{eq:local})および式~(\ref{eq:global})を足し合わせ,以下の損失関数を最小化する.\begin{equation}L=L_{\rmlocal}+L_{\rmglobal}\label{eq:loss}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\vspace{-0.25\Cvs}\input{10table01.tex}\caption{データセットの統計情報}\label{tab:stats}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%================================================== \section{評価実験} label{sec:experiment}%==================================================単語分散表現の代表的なベンチマークである単語類似度タスク\footnote{\url{https://github.com/mfaruqui/eval-word-vectors/}}\cite{faruqui-2014}を用いて提案手法の有効性を検証する.本研究では,Rubenstein-Goodenough(RG)\cite{rubenstein-1965},Miller-Charles(MC)\cite{miller-1991},WordSim-$353$(WS)\cite{finkelstein-2002},MENtestcollection(MEN)\cite{bruni-2012},StanfordRareWordSimilarity(RW)\cite{luong-2013},Stanford'sContextualWordSimilarities(SCWS)\cite{huang-2012},SimLex-999(SL)\cite{hill-2015},MTurk-771(MTurk)\cite{radinsky-2011}の$8$つのデータセットを用いて実験する.データセットの統計情報を表\ref{tab:stats}に示す.各手法の性能は,単語分散表現間の余弦類似度と人手で付与された単語間の意味的類似度とのスピアマンの順位相関係数で評価する.%==============================\subsection{実験設定}\label{ssec:setup}%==============================模倣元の単語分散表現には$300$次元の学習済みfastText(crawl-$300$d-$2$M-subword)\cite{bojanowski-2017}を用いた.このうち高頻度な$10$万単語を用いて模倣モデルを訓練した.なお,単語の出現頻度はfastTextの訓練コーパスを用いて計算した.ただし,記号や数字を含む単語は除外し,小文字ラテンアルファベットの$26$種類の文字のみで構成される単語を対象にした.大域的な損失計算のために,$n=10$単語をサンプリングした.式~(\ref{eq:loss})の最適化には,Adam\cite{kingma-2015}を$\alpha=0.001,~\beta_1=0.9,~\beta_2=0.999,~\epsilon=10^{-8}$の設定で使用した.バッチサイズは$50$単語とし,$5$エポックのearlystoppingで訓練を終了した.%==============================\subsection{ベースラインモデル}\label{ssec:baseline}%==============================部分文字列から単語分散表現を模倣する以下の$4$手法に対して,大域的な損失に基づくマルチタスク学習を適用する.\paragraph{CharacterRNN}\cite{pinter-2017}:部分文字列として文字を用いる.模倣モデルは,$32$次元の埋め込み層および$512$次元の隠れ層を持つ双方向LSTMである.\paragraph{CharacterCNN}\cite{kim-2018}:部分文字列として文字を用いる.模倣モデルは,フィルタサイズ$[1,2,...,7]$,スライド幅$3$,フィルタ数$\max(200,50\timesフィルタサイズ)$のCNNである.\paragraph{BagofN-gram}\cite{zhao-2018}:部分文字列として文字N-gramを用いる.模倣モデルは,各文字N-gramの$300$次元の分散表現を要素ごとに平均する.\paragraph{N-gramSAM}\cite{sasaki-2019}:部分文字列として文字N-gramを用いる.模倣モデルは,$300$次元の分散表現を重み付きで平均する自己注意機構である.文字N-gramに基づく手法は,扱うN-gramの長さ\footnote{\citeA{zhao-2018}および\citeA{sasaki-2019}に従い,語の先頭と末尾を示す特殊記号を加えてN-gramを数える.}を変更しつつ$3$つの設定で実験する.\begin{itemize}\itemSmall:$N=3$のみ\itemMedium:$N=3$および$N=4$\itemLarge:$N=3$から$N=5$まで\end{itemize}また,他の単語分散表現の圧縮手法との比較のために,以下の手法との比較を行う.\paragraph{Quantization}\cite{shu-2018}:コードの組み合わせとして単語を表現する単語分散表現の圧縮手法.最も高い性能が報告されているパラメータに従い,圧縮後の単語分散表現の次元数を$64$,コード数を$64$とする.N-gramSAM\footnote{\url{https://github.com/losyer/compact_reconstruction}}およびQuantization\footnote{\url{https://github.com/zomux/neuralcompressor}}については,著者による実装を用いた.その他はTensorflow\footnote{\url{https://www.tensorflow.org/}}($1.14.0$)を用いて再実装した.全ての実験は$1$枚のGeForceRTX$2080$Tiを用いて行なった.%==============================\subsection{実験結果}\label{ssec:result}%==============================実験結果を表\ref{tab:wordsim}に示す.全ての設定において,提案手法が単語類似度の推定性能を改善した.特に,N-gramSAM\cite{sasaki-2019}におけるSmallの設定では,提案手法によって$0.467$から$0.592$に向上した.これらの結果から,単語間の大域的な関係を考慮する提案手法の有効性を確認できた.N-gramSAMにおけるMediumの設定では,元のfastTextの性能を$98\%$保持しつつ,モデルサイズを約$30$分の$1$である$74$MBに削減できた.同様に,Smallの設定では,元のfastTextの性能を$87\%$保持しつつ,モデルサイズを約$200$分の$1$である$12$MBに削減できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{10table02.tex}\caption{スピアマン相関係数のマイクロ平均およびモデルサイズ(MB)fastText:$\rho=0.684$($2,230$MB)}\label{tab:wordsim}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{10table03.tex}\caption{データセットごとのスピアマン相関係数}\label{tab:wordsim_detail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文字に基づく手法\cite{pinter-2017,kim-2018}に対しても提案手法は有効であったが,文字N-gramに基づく手法\cite{zhao-2018,sasaki-2019}ほどの改善は見られなかった.文字よりも文字N-gramの方が豊富な情報を持てるため,提案手法によって訓練の手がかりが増えたときに,文字N-gramに基づく手法の方がより大きく性能を改善できたと考えられる.データセットごとの性能の内訳\footnote{文字N-gramに基づくモデルはSmallの設定での実験結果を載せているが,他の設定でも結論は変わらない.}を表~\ref{tab:wordsim_detail}に示す.RNNやCNNを用いて複雑な構成を行うベースラインに対しては,提案手法は常に有効なわけではない.一方で,BagofN-gramやN-gramSAMといった文字N-gramの分散表現の(重み付き)和で構成を行うシンプルなベースラインに対しては,提案手法が一貫して有効である.これらの結果から,本手法はシンプルな構成手法に対して,より有効であると言える.また,低頻度語に焦点を当てて構築されたRWデータセットにおいては,提案手法が常に性能改善に貢献している.単語類似度の推定が特に難しいSLデータセットにおいても,N-gramSAMにおける提案手法が元のfastTextの性能を$87\%$保持している.これはSmallの設定におけるマイクロ平均の性能の維持率と同等である.これらの結果から,提案手法によってモデルサイズを圧縮しつつ高品質な単語分散表現を得られることがわかる.他の圧縮アプローチであるQuantization\cite{shu-2018}は$6.4$MBと高い圧縮性能を持つが,単語類似度の推定性能ではN-gramSAM+GlobalLossが常に上回る.また,低頻度語に焦点を当てて構築されたRWデータセットにおいて,Quantizationでは$2,034$単語対のうち$389$単語対が未知語を含むために評価できなかった.これらの結果から,メモリ容量を抑えつつ高品質な単語分散表現が求められる状況や,未知語に対処したい状況では,模倣アプローチによる単語分散表現の圧縮が適していると言える.%================================================== \section{分析} label{sec:analysis}%==================================================%==============================\subsection{サンプル数に関する分析}\label{ssec:sample}%==============================表~\ref{tab:wordsim}および表~\ref{tab:wordsim_detail}の実験では,大域的な損失計算のために$n=10$単語をサンプリングした.本節では,単語のサンプル数が単語類似度推定の性能に与える影響を調査する.サンプル数を$n=10$,$n=20$,$n=50$,と変化させた場合の単語類似度推定の性能(スピアマン相関係数のマイクロ平均)を表~\ref{tab:wordsim_n}に示す.なお,$n=0$は大域的な損失計算を行わないベースラインであり,文字N-gramに基づくモデルはSmallの設定で実験した.表~\ref{tab:wordsim_n}より,大域的な損失計算のための単語のサンプル数は多いほど良いわけではないことがわかる.全体に,$n=10$よりも$n=20$の方が高い性能を発揮するが,$n=20$以上に増やしても大きな改善は見られない.ただし,提案手法は$n$のサンプル数に関係なく,一貫して$n=0$のベースラインよりも高い性能を発揮することがわかる.%==============================\subsection{単語のサンプリング方法に関する分析}\label{ssec:global-knn}%==============================本節では,大域的な損失関数の計算に用いる単語のサンプリング方法において,単語の選択条件が性能に与える影響について調査する.\ref{sec:method}節では,$n/2$単語を対象単語との余弦類似度が高い順に選択し,残りは無作為に選択すると説明した.本節の分析では,前者を近傍単語と呼ぶことにし,近傍単語の割合を$0\%,20\%,40\%,60\%,80\%,100\%$と変化させ,単語類似度の推定性能(スピアマン相関係数のマイクロ平均)への影響を調査する.サンプル数は$n=100$で固定し,モデルにはSmall設定のN-gramSAMを用いた.結果を図\ref{fig:plot_nn}に示す.近傍単語の割合が$20$\%の時に提案手法の効果は最大となり,その後近傍単語の数が増加するにつれ性能が悪化している.近傍単語の割合が多い場合,大域的な損失関数は模倣対象の単語に近い単語のみを考慮し,局所的な情報のみを考慮してしまうためだと考えられる.近傍単語の割合が$100$\%のときの性能が,近傍単語の数が$0$のとき(全て無作為に選択)と比べて低いのも同様の理由であると考えられる.近傍単語の割合が$20$\%から$80$\%の範囲で,$0$\%や$100$\%の場合よりも高い性能を持つことから,対象単語に類似したサンプルと類似していないサンプルの両方を考慮することが有効であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4and5\begin{table}[b]\begin{minipage}[t]{.49\textwidth}\input{10table04.tex}\caption{損失計算におけるサンプルサイズ$n$の影響}\label{tab:wordsim_n}\end{minipage}\hfill\begin{minipage}[t]{.49\textwidth}\input{10table05.tex}\caption{類似単語検索におけるPrecision@$5$}\label{tab:wordsim_k}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[b]\noindent\begin{minipage}[b]{207pt}\begin{center}\includegraphics{28-1ia10f3.pdf}\end{center}\caption{近傍単語のサンプル数を変化させた時の性能}\label{fig:plot_nn}\end{minipage}\hfill\begin{minipage}[b]{180pt}\begin{center}\includegraphics{28-1ia10f4.pdf}\end{center}\caption{損失関数の重みを変化させた時の性能}\label{fig:plot_weights}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{大域的な損失関数の重みに関する分析}\label{ssec:weight-global}%==============================本節では,式~(\ref{eq:loss})に重み$\beta$を導入した場合の性能を評価し,大域的な損失関数の影響を調査する.$\beta$を導入したとき,損失関数は次のようになる.\begin{equation}L=(1-\beta)L_{\rmlocal}+\betaL_{\rmglobal}\label{eq:loss_weight}\end{equation}つまり,$\beta$が大きいほど大域的な損失関数の影響が増す.なお,$\beta$は$0.01,0.1,0.2,0.4,0.6,0.8,1.0$の間で変化させた.結果を図\ref{fig:plot_weights}に示す.$\beta$が大きいほど単語類似度の推定性能が向上しており,大域的な損失関数の重要性を確認できた.なお,$\beta=0.1$の周辺で性能は収束し始めており,$\beta$を$0.2$以上に増加しても大きな性能の変化は見られない.以上より,大域的な損失関数を小さすぎない重みで考慮することにより,単語類似度の推定性能を改善できる.%==============================\subsection{類似単語に関する分析}\label{ssec:knn}%==============================模倣した分散表現を分析するために,fastTextにおける高頻度な$10$万単語を用いて,類似単語を調査する.表~\ref{tab:wordsim_k}は,類似単語検索の適合率を評価した結果である.正解の類似単語には,模倣元のfastTextを用いて各単語との余弦類似度の上位$5$単語を収集した.なお,提案手法のサンプルサイズは$n=10$であり,文字N-gramに基づくモデルはSmallの設定で実験した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{10table06.tex}\caption{単語``london''(上段)および単語``flu''(下段)に関する類似単語検索の例}\label{tab:knn}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:wordsim_k}より,提案手法によって類似単語検索の性能が常に改善されることがわかる.表~\ref{tab:knn}に,単語``london''および``flu''に関する類似単語検索の結果を示す.上段の``london''の例において,模倣元のfastTextでは``glasgow''や``birmingham''など,``london''と同じくイギリスの大都市が並んでいる.一方でSmall設定のN-gramSAM($n=0$)では,``lon''や``lond''など,表層的には類似するものの意味的には無関係な単語を上位に集めてしまっている.単語間の関係を考慮して訓練する提案手法を適用することで,N-gramSAM($n=10$)では,``glasgow''や``edinburgh''などの意味的に近い単語が``london''と似た分散表現の獲得に成功している.下段の``flu''の例では,ベースラインは全く無関係な単語を集めているが,提案手法では``influenza''や``pneumonia''などの意味的に近い単語を得ることができた.%================================================== \section{応用タスクにおける検証} label{sec:application}%==================================================模倣した単語分散表現の応用タスクにおける有効性を検証するために,表~\ref{tab:sent_dataset}および表~\ref{tab:pair_dataset}に示す$12$種類のテキスト分類タスク\cite{conneau-2018}に取り組む.本実験では,多くのタスクにおいて有効性が示されているSWEM-{\itaver}\cite{shen-2018}に基づき,単語分散表現から文の分散表現を構成する.SWEM-{\itaver}(以降,単にSWEMと表記)は,単語分散表現を要素ごとに平均して文の分散表現を得る手法であり,単語分散表現の品質が文の分散表現の品質を直接左右するという点でも本実験に適した手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7and8\begin{table}[t]\begin{minipage}[b]{.39\textwidth}\input{10table07.tex}\caption{文分類タスクのデータセット}\label{tab:sent_dataset}\end{minipage}\hfill\begin{minipage}[b]{.6\textwidth}\input{10table08.tex}\caption{文対モデリングタスクのデータセット}\label{tab:pair_dataset}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他のテキスト分類モデルとして,RNN\cite{yang-2016}やCNN\cite{zhang-2015},自己注意機構を用いたモデル\cite{raheja-2019}も考えられるが,これらのモデルでは単語分散表現の品質以外の要件も分類性能に大きく影響するため,本実験ではSWEMに基づいて文の分散表現を構成する.SWEMについても,SWEM-{\itaver}の他に,要素ごとの最大値をとるSWEM-{\itmax}や,両者の演算結果を連結するSWEM-{\itconcat}が提案されている.SWEM-{\itmax}では最大値以外の情報を無視するため,個々の単語分散表現の品質がより大きく分類性能に影響するSWEM-{\itaver}を用いて実験を行う.%==============================\subsection{実験設定}\label{ssec:setup-senteval}%==============================文の分散表現の代表的なベンチマークのひとつであるSentEval\cite{conneau-2018}を用いて提案手法の有効性を検証する.文分類タスクには,MR\cite{pang-2005},CR\cite{hu-2004},SUBJ\cite{pang-2004},MPQA\cite{wiebe-2005},SST\cite{socher-2013},TREC\cite{voorhees-2000}の$6$つのデータセットを用いて実験する.ただし,SSTの感情分類については,$2$値分類と$5$値分類の両方の設定で実験する.文対モデリングタスクには,MRPC\cite{dolan-2004},SNLI\cite{bowman-2015},SICK\cite{marelli-2014},STS-B\cite{cer-2017}の$4$つのデータセットを用いて実験する.ただし,SICKについては分類タスク(SICK-E)と回帰タスク(SICK-R)の両方の設定で実験する.各手法の性能は,SICK-RおよびSTS-Bの回帰タスクはピアソンの相関係数,その他の分類タスクは正解率によって評価する.SWEMのベースとなる単語分散表現には,\ref{sec:experiment}節と同じく,fastText\cite{bojanowski-2017}を模倣したN-gramSAM\cite{sasaki-2019}を用いた.提案手法は,$n=10$で適用した.分類および回帰のために,SWEMによって構成した特徴ベクトルを入力とするロジスティック回帰モデルを訓練した.文分類タスクでは$5$分割交差検証を実施し,検証用データを用いて最適な$C\in\{10^{-5},10^{-4},10^{-3},10^{-2}\}$を選択した.最適化には,Adam\cite{kingma-2015}を$\alpha=0.01,~\beta_1=0.9,~\beta_2=0.999,~\epsilon=10^{-8}$の設定で使用した.バッチサイズは$64$文とし,$5$エポックのearlystoppingで訓練を終了した.実験には1枚のGeForceRTX2080Tiを使用し,SentEval\footnote{\url{https://github.com/facebookresearch/SentEval}}の公式実装を用いた.ライブラリとそのバージョンは,PyTorch\footnote{\url{https://pytorch.org/}}(1.2.0),scikit-learn\footnote{\url{https://scikit-learn.org/}}(0.22.1)を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{10table09.tex}\caption{文分類タスクにおける評価(正解率)}\label{tab:result-sent}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{10table10.tex}\caption{文対モデリングタスクにおける評価}\label{tab:result-pair}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{実験結果}\label{ssec:result-senteval}%==============================表~\ref{tab:result-sent}に文分類タスクにおける実験結果を,表~\ref{tab:result-pair}に文対モデリングタスクにおける実験結果を,それぞれ示す.多くの設定(MRPCの言い換え認識におけるMediumの設定以外)において,提案手法がテキスト分類の性能を改善した.また,\ref{sec:experiment}節の単語類似度推定とは異なり,文分類タスクにおいてLargeは元のfastTextの90.2\%の性能を保持しているのに対し,Smallでは90.0\%保持しておりLargeと同等の性能を保持できた.特に,SST-$2$などの$2$値分類タスクでは,Smallの設定においても元のfastTextの$9$割以上の性能を保持できた.この結果から,応用タスクであるテキスト分類においても,提案手法は単語分散表現の品質を保持しつつモデルサイズを約$200$分の$1$に削減できることを確認できた.%================================================== \section{おわりに} label{sec:outro}%==================================================本研究では,単語分散表現のモデルサイズの削減に取り組んだ.部分文字列の分散表現から単語の分散表現を構成して学習済み単語分散表現を模倣するアプローチにおいて,単語間の関係を学習するための大域的な損失を提案した.単語類似度推定による評価の結果,従来の局所的な損失計算と提案手法である大域的な損失計算のマルチタスク学習によって,部分文字列に基づく全ての既存手法の性能が改善することを示した.また,テキスト分類による評価の結果,特に$2$値分類タスクにおいては,モデルサイズを$200$分の$1$に削減する設定でも$9$割の性能を保持できることを確認した.これにより,$2$GBのfastTextの場合,提案手法によって性能を保ちつつ$12$MBまでモデルサイズを削減できる.本研究の成果は,モバイル機器などメモリ容量が制限された環境での自然言語処理アプリケーションの開発を助けると期待できる.%==================================================\acknowledgment%==================================================本研究の一部はJSPS科研費20H04484の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{10refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大橋空}{%2019年大阪大学工学部電子情報工学科卒業,同年同大学大学院情報科学研究科マルチメディア工学専攻に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{五十川真生}{%2017年大阪大学工学部電子情報工学科卒業,2019年同大学大学院情報科学研究科マルチメディア工学専攻修了.修士(情報科学).同年ヤフー株式会社に入社,現在に至る.}\bioauthor{梶原智之}{%愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{%2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,機械翻訳技術,対話システムに興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N05-04
\section{はじめに} 本論文では,ランダムな初期値を使ってNon-negativeMatrixFactorization(NMF)による文書クラスタリングを複数回行い,それらの結果をアンサンブルすることで,より精度\footnote{本論文において用いる「(クラスタリングの)精度」とは,クラスタリングの正解率(accuracy)と同義である.つまり,ここでは暗にクラスタリングの正解があることを想定しており,得られた結果がどの程度正解に近いかという尺度の意味で「(クラスタリングの)精度」という用語を用いる.}の高い文書クラスタリングの実現を目指す.複数のクラスタリング結果を統合する部分で,従来のハイパーグラフの代わりに重み付きハイパーグラフを用いることが特徴である.文書クラスタリングは,文書の集合に対して,知的な処理を行う基本的な処理であり,その重要性は明らかである.例えばテキストマイニングの分野では,文書クラスタリングは基本的な構成要素であるし\cite{TextMiningBook},情報検索の分野では,検索結果の概観を視覚化するために検索された文書の集合をクラスタリングする研究が盛んに行われている\cite{hearst96reexamining}\cite{leuski01evaluating}\cite{zeng-learning}\cite{kummamuruwww2004}.文書クラスタリングでは,まずデータとなる文書をベクトルで表現する.通常,bagofwordsのモデルを用い,次にTF-IDFなどによって次元の重みを調整する.このようにして作成されたベクトルは高次元かつスパースになるために,文書クラスタリングではクラスタリング処理を行う前に主成分分析や特異値分解などの次元縮約の手法を用いることが行われる\cite{boley99document}\cite{deerwester90indexing}.次元縮約により高次元のベクトルが構造を保った状態で低次元で表現されるため,クラスタリング処理の速度や精度が向上する.NMFは次元縮約の手法を応用したクラスタリング手法である\cite{nmf}.今,クラスタリング対象の\(m\)次元で表現された\(n\)個の文書を\(m\)行\(n\)列の索引語文書行列\(X\)で表す.目的とするクラスタの数が\(k\)である場合,NMFでは\(X\)を以下のような行列\(U\)と\(V^{T}\)に分解する.そして行列\(V\)がクラスタリング結果に対応する.\[X=UV^{T}\]ここで\(U\)は\(m\)行\(k\)列,\(V\)は\(n\)行\(k\)列である.\(V^{T}\)は\(V\)の転置を表す.また\(U\)と\(V\)の要素は非負である.与えられた\(X\)と\(k\)から,ある繰り返し処理により\(U\)と\(V\)を得ることができる\cite{lee00algorithms}.しかしこの繰り返し処理は局所最適解にしか収束しない.つまりNMFでは,与える初期値によって得られるクラスタリング結果が異なるという問題がある.通常は適当な初期値を与える実験を複数回行い,それらから得た複数個のクラスタリング結果の中で\(X\)と\(UV^{T}\)の差\footnote{差は\(||X-UV^{T}||_{F}\)により測定する.}が最小のもの,つまり\(X\)の分解の精度が最も高いものを選ぶ.しかし分解の精度は,直接的にはクラスタリングの精度を意味してはいないため,最も精度の高いクラスタリング結果を選択できる保証がない.ここではNMFの分解の精度を用いて,複数個のクラスタリング結果から最終的なクラスタリング結果を選ぶのではなく,複数個のクラスタリング結果をアンサンブルさせて,より精度の高いクラスタリング結果を導くアンサンブルクラスタリングを試みる.一般にアンサンブルクラスタリングの処理は2段階に分けられる.まず第1段で複数個のクラスタリング結果を生成し,次の第2段でそれらを組み合わせ,最終的なクラスタリング結果を導く.複数個のクラスタリング結果を生成する手法としては,k-meansの初期値を変化させたり\cite{fred02data},ランダムプロジェクションにより利用する特徴を変化させたり\cite{fern_clustensem03},``weakpartition''を生成する研究などがある\cite{topchy03combining}.また複数個のクラスタリング結果を組み合わせる手法としては,データ間の類似度を新たに構築する手法\cite{fred02data}や,データの表すベクトルを新たに構築する手法\cite{strehl02}などがある.ここでは後者の手法を改良して用いる.論文\cite{strehl02}では,データの表すベクトルを新たに構築するために,複数個のクラスタリング結果から,データセットに対するハイパーグラフを作成する.このハイパーグラフは,データセットが表す行列に相当する.このハイパーグラフで表現されたデータに対してクラスタリングを行い,最終的なクラスタリング結果を得る.ただしこのハイパーグラフではエッジの重みが0か1のバイナリ値である.ハイパーグラフが行列に相当すると考えると,エッジの重みの意味は同じクラスタに属する度合いとなり,バイナリ値で表すよりも非負の実数で表す方がより適切と考えられる.そこで本論文ではハイパーグラフのエッジの重みに非負の実数値を与える.具体的には,NMFのクラスタリング結果が行列\(V\)で得られ,同じクラスタに属する度合いが\(V\)から直接求められることを利用する.またここでは,この実数値の重みを付けたハイパーグラフを重み付きハイパーグラフと呼ぶことにする.実験ではk-means,NMF,通常のハイパーグラフを用いたアンサンブル手法および重み付きハイパーグラフを用いたアンサンブル手法(本手法)の各クラスタリング結果を比較し,本手法の有効性を示す. \section{NMFと初期値の問題} \subsection{NMFとその特徴}NMFは\(m\timesn\)の索引語文書行列\(X\)を,\(m\timesk\)の行列\(U\)と\(n\timesk\)の行列\(V\)の転置行列\(V^{T}\)の積に分解する\cite{nmf}.ただし\(k\)はクラスタ数である.\[X=UV^{T}\]NMFはクラスタに対応したトピックの次元を\(k\)個想定し,その基底ベクトルの線形和によって,文書ベクトル及び索引語ベクトルを表現することに対応する.つまり基底ベクトルの係数が,そのトピックとの関連度を表しているので,行列\(V\)自体がクラスタリング結果と見なせる.具体的には,\(i\)番目の文書\(d_i\)は,行列\(X\)の第\(i\)列のベクトルで表現され,その次元圧縮された結果が,行列\(V\)の第\(i\)行のベクトルとなる.このとき,\(V\)の第\(i\)行のベクトルは\[(v_{i1},v_{i2},\cdots,v_{ik})\]と表せ,文書\(d_i\)のクラスタの番号は\[\arg\max_{j\in1:k}v_{ij}\]となる.\subsection{NMFのアルゴリズム}与えられた索引語文書行列\(X\)から,\(U\)と\(V\)は以下の繰り返しで得ることができる\cite{lee00algorithms}.\begin{gather}\label{eq:1}u'_{ij}\leftarrowu_{ij}\frac{(XV)_{ij}}{(UV^{T}V)_{ij}}\\\label{eq:2}v'_{ij}\leftarrowv_{ij}\frac{(X^{T}U)_{ij}}{(VU^{T}U)_{ij}}\end{gather}ここで\(u_{ij}\)と\(v_{ij}\)はそれぞれ\(U\)と\(V\)の\(i\)行\(j\)列の要素を表す.また\((X)_{ij}\)により行列\(X\)の\(i\)行\(j\)列の要素を表す.上記の式により,現在の\(U\)と\(V\)から,\(u'_{ij}\)と\(v'_{ij}\)が得られる,つまり新たな\(U'\)と\(V'\)が得られるので,それを\(U\)と\(V\)と見なして,上記の式を繰り返し適用する.また各繰り返しの後に\(U\)を以下のように正規化する.\begin{equation}u'_{ij}\leftarrow\frac{u_{ij}}{\sqrt{\sum_{i}u_{ij}^2}}\end{equation}繰り返しの終了は,繰り返しの最大回数を決めておくか,\(UV^{T}\)と\(X\)との距離\(J\)の変化量から判定する.\begin{equation}\label{eq:3}J=||X-UV^{T}||_{F}\end{equation}\(J\)の値はNMFの分解の精度を表現している.NMFではこの分解の精度がクラスタリングの目的関数となっており,この分解の精度が高い,つまり\(J\)の値が小さいほど,良好なクラスタリングであると推定する.また\(||\cdot||_{F}\)はFrobeniusノルムを表し,\(m\timesn\)の行列\(A\)のFrobeniusノルムは以下で定義される.\[||A||_{F}=\sqrt{\sum_{i=1}^{m}\sum_{j=1}^{n}{a_{ij}}^2}\]\subsection{NMFの解の多様性}通常,行列\(V\)と\(U\)の初期値にはランダムな値を与える.しかし\mbox{式\ref{eq:1}と\ref{eq:2}}による繰り返しは局所最適解にしか収束しないために,\(V\)と\(U\)の初期値の与え方によって,最終的に得られる\(V\)と\(U\)は大きく異なり,結果としてクラスタリングの精度も大きく異なる.例えば,\mbox{図\ref{tr45a}}は本論文の実験で用いた文書データセットtr45に対して,NMFによるクラスタリングの実験を20回行った結果である.ただし各実験でのNMFの初期値にはランダムな値を与えており,各実験の初期値は異なる.\mbox{図\ref{tr45a}}の横軸は実験の番号を示し,縦軸はクラスタリングの精度を表している.\mbox{図\ref{tr45a}}から初期値によって得られる精度が大きく異なることが確認できる.\begin{figure}[t]\begin{center}\includegraphics{14-5ia4f1.eps}\caption{初期値とクラスタリングの精度}\label{tr45a}\end{center}\end{figure}つまり,NMFは初期値によって得られるクラスタリング結果が異なる.通常は適当な初期値を与える実験を複数回行い,それらから得た複数個の解の中で\(X\)の分解の精度が最も高いものを選ぶ.しかし分解の精度は,直接的にはクラスタリングの精度を意味していないため,最も精度の高いクラスタリング結果を選択できる保証がない.ここでは複数個のクラスタリング結果から1つを選択するのではなく,それらをアンサンブルするアンサンブルクラスタリングを試みる. \section{アンサンブルクラスタリング} \subsection{ハイパーグラフによるデータの再表現}本手法のアンサンブルクラスタリングでは,NMFの初期値を様々に変化させて,複数個のクラスタリング結果を生成する.次に複数個得られたクラスタリング結果から各データに対するベクトル表現を新たに作成し,その新たにベクトル表現されたデータに対してクラスタリングを行うことで,アンサンブルクラスタリングを実現する.ここでは複数個得られたクラスタリング結果からデータに対する新たなベクトル表現を作る方法を説明する.基本的には論文\cite{strehl02}で提案されたハイパーグラフを用いる.クラスタの数が\(k\)個であり,得られているクラスタリング結果が\(m\)種類の場合,各データは\(km\)次元のベクトルで表現される.データ\(d\)の\(k(i-1)+c\)次元の値は,\(i\)番目のクラスタリング結果として,データ\(d\)がクラスタ番号\(c\)のクラスタに属していれば1を,属していなければ0を与える.この結果,データ\(d\)の\(km\)次元のベクトル表現が得られる.例を示す.\(k=3\),\(m=4\)とする.またデータは\(\{d_1,d_2,\cdots,d_7\}\)の7つとする.4種類のクラスタリング結果が以下のようになっていたとする.第1のクラスタリング結果:\[\{d_1,d_2,d_5\},\{d_3,d_4\},\{d_6,d_7\}\]この結果から目的の行列の1列目から3列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}1&0&0\\1&0&0\\0&1&0\\0&1&0\\1&0&0\\0&0&1\\0&0&1\end{array}\right]\]第2のクラスタリング結果:\[\{d_1,d_5\},\{d_2,d_3\},\{d_4,d_6,d_7\}\]この結果から目的の行列の4列目から6列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}1&0&0\\0&1&0\\0&1&0\\0&0&1\\1&0&0\\0&0&1\\0&0&1\end{array}\right]\]第3のクラスタリング結果:\[\{d_2,d_5\},\{d_1,d_4\},\{d_3,d_6,d_7\}\]この結果から目的の行列の7列目から9列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}0&1&0\\1&0&0\\0&0&1\\0&1&0\\1&0&0\\0&0&1\\0&0&1\end{array}\right]\]第4のクラスタリング結果:\[\{d_1,d_5,d_7\},\{d_3,d_4\},\{d_2,d_6\}\]この結果から目的の行列の10列目から12列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}1&0&0\\0&0&1\\0&1&0\\0&1&0\\1&0&0\\0&0&1\\1&0&0\end{array}\right]\]以上の4つの行列を結合させ,以下の\(7\times12\)の行列を得る.これがハイパーグラフである.このハイパーグラフにおける行ベクトルが,各データ(本論文の場合,文書)の新たなベクトル表現に対応している.このベクトルの類似度に基づいて,データをクラスタリングする.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrrrrrrrrrrr}1&0&0&1&0&0&0&1&0&1&0&0\\1&0&0&0&1&0&1&0&0&0&0&1\\0&1&0&0&1&0&0&0&1&0&1&0\\0&1&0&0&0&1&0&1&0&0&1&0\\1&0&0&1&0&0&1&0&0&1&0&0\\0&0&1&0&0&1&0&0&1&0&0&1\\0&0&1&0&0&1&0&0&1&1&0&0\end{array}\right]\]\subsection{重み付きハイパーグラフ}ハイパーグラフが表す行列の各要素の値は0か1のバイナリ値である.しかし値の意味を考えれば,その次元に対応するあるクラスタリング結果のあるクラスタに属する度合いと捉えられる.そのため0か1のバイナリ値ではなく,非負の実数値を与える方が適切である.しかもNMFの場合,各クラスタリング結果では各クラスタに属する度合いに対応する値が行列\(V\)に記載されている.そこでここではハイパーグラフの要素が1である部分を,行列\(V\)の値から得ることで,非負の実数値を与えることにした.このようにして作成したハイパーグラフを,ここでは重み付きハイパーグラフと呼ぶ.\mbox{図\ref{ensemble}}に重み付きハイパーグラフの作成例を示す.これは先の第1のクラスタリング結果に対応する部分である.\(d_1\)から\(d_7\)の7個の文書データセットをNMFにより3グループにクラスタリングする.結果は行列\(V\)で表される.次に行列\(V\)を正規化する.\(V\)の各行に注目し,最大値の部分を1に,それ以外を0に変換したものが通常のハイパーグラフである.\(V\)の各行に注目し,最大値の部分はそのままに,それ以外を0に変換したものが本論文で提案する重み付きハイパーグラフである.\begin{figure}[tbp]\begin{center}\includegraphics{14-5ia4f2.eps}\caption{行列Vから作られる重み付きハイパーグラフ}\label{ensemble}\end{center}\end{figure} \section{実験} 本手法の有効性を示すために,k-means,NMF,通常のハイパーグラフを使うアンサンブル手法および重み付きハイパーグラフを使うアンサンブル手法(本手法)の4種のクラスタリング結果を比較する.利用するデータセットは以下のサイトで提供されている18種類である(\mbox{表\ref{tab:dataset}}).\begin{verbatim}http://glaros.dtc.umn.edu/gkhome/cluto/cluto/download\end{verbatim}データセットは通常の索引語文書行列で表現されており,正規化されていない.ここではTF-IDFによって正規化を行った.\begin{table}[tbp]\input{04t1.txt}\end{table}\begin{table}[tbp]\input{04t2.txt}\end{table}実験結果を\mbox{表\ref{tab:result}}に示す.表の値はクラスタリング結果のエントロピーを表し,低い値ほどクラスタリングが良好であることを意味する.なお,ハイパーグラフのデータからのクラスタリングには,簡単のために,クラスタリングtoolkitのCLUTO\footnote{{\tthttp://glaros.dtc.umn.edu/gkhome/views/cluto}}を利用した.CLUTOはクラスタリング手法や類似度関数を様々に設定できるが,ここではdefaultの設定であるk-wayclusteringと呼ばれる手法とcosineの類似度を用いた.またハイパーグラフのデータからのクラスタリング手法には任意のものが利用可能であり,高機能なクラスタリング手法を用いて,更に高い精度を得ることも可能である.ただしここではアンサンブルすることの効果と,ハイパーグラフに重みを付ける効果を明確に確認するために,簡易なものを用いた.また,エントロピーについても注記しておく.エントロピーはクラスタリング結果を評価するための1つの尺度である.データセットのクラスタリングの正解が\(\{K_h\}_{h=1}^{k}\)であり,得られたクラスタリングが\(\{C_j\}_{j=1}^{k}\)となっているとき,クラスタ\(C_i\)に対するエントロピー\(E_i\)は以下で定義される.\[E_{i}=-\sum_{h=1}^{k}P(K_{h}|C_i)\logP(K_{h}|C_i)\]各クラスタに対して\(E_i\)を求め,クラスタのデータ数による重み付き平均をとることで全体のエントロピーが定義される.すなわち以下の式となる.\[\sum_{i=1}^{k}\frac{|C_i|}{N}E_{i}\]ここで\(N\)は全データ数を表す.また定義中に確率\(P(K_{h}|C_i)\)が出ているが,これは\(K_{h}\)と\(C_i\)に共通に存在するデータの数を\(n_{hi}\)と置き,\(n_{hi}/|C_i|\)によって推定する.またクラスタリングの精度は,クラスタリング結果の各クラスタを正解のクラスタに対応つけ,\(n_{hi}\)の合計を\(N\)で割った値により求まる.つまりエントロピーの値の低さとクラスタリングの精度はほぼ対応していると見なせる.本実験の場合,クラスタリングの精度を求めて,評価を行うことも可能ではあるが,クラスタリングの精度を求めるには,クラスタリング結果の各クラスタを正解のクラスタに対応させなくてはならない.この処理は組み合わせ最適化問題になっているために,単純には最適解が求まらない.そのために,ここではエントロピーによる評価を行っている.NMFの実験では初期値を20個用意し,得られた20個のクラスタリング結果において,NMFの分解の精度(\mbox{式\ref{eq:3}}の値)が最も高いものを選び,それをNMFのクラスタリング結果とした.NMFmeanとあるのは,20個のクラスタリング結果の平均のエントロピーである.表のstandardhypergraphが通常のハイパーグラフを使うアンサンブル手法,weightedhypergraphが重み付きハイパーグラフを使うアンサンブル手法(本手法)を意味する.NMFとNMFmeanを比較すると,NMFの方が若干エントロピーが大きい.つまりクラスタリング結果を評価するのに,\mbox{式\ref{eq:3}}を使うのは最良ではないことがわかる.またNMFmeanとweightedhypergraphを比較すると,18個のデータセット中17個で本手法の方がエントロピーが小さい.つまりこの点からアンサンブルすることの効果が確認できる.またstandardhypergraphとweightedhypergraphを比較すると,18個のデータセット中13個で本手法の方がエントロピーが小さく,ハイパーグラフに重みを与える効果も確認できる.なお18個中13個の改善は,統計的には以下のような観点から有意とみなした.standardhypergraphとweightedhypergraphのパフォーマンスが同程度である場合,standardhypergraphのエントロピーからweightedhypergraphのエントロピーを引いた値(値が大きいほど改善の度合いが高い)は平均0の正規分布と考えられる.そこで有意水準0.05としてt-検定の片側検定を用いると,棄却域は自由度が17であることに注意すると\(1.74\)以上となる.実際の値はstandardhypergraphのエントロピーからweightedhypergraphのエントロピーを引いた値の標本平均が0.03706,標本分散が0.007389なので,\[\frac{0.03706-0}{\sqrt{0.007389/17}}=1.78>1.74\]\noindentとなり,パフォーマンスが同程度という仮説が棄却できる. \section{考察と関連研究} 一般に複数の解をアンサンブルすると,複数の解の平均よりも良い値が得られると考えられる.本実験でも18個のデータセット中17個でアンサンブルの効果が得られているが,データセットtr23に関しては,本手法のエントロピーの値の方が高い.これは解の分散の影響と考えられる.実験で得られた各データセットに対するNMFによる20個のクラスタリング結果のエントロピーの分散と,\mbox{表\ref{tab:result}}におけるNMFmeanとweightedhypergarphとの差(つまりアンサンブルによる改善の度合い)をプロットした図を\mbox{図\ref{kou}}に示す.図の横軸が分散を示し,縦軸がweightedhypergarphとNMFmeanとの差(改善の度合い)を示している.\begin{figure}[tbp]\begin{center}\includegraphics{14-5ia4f3.eps}\caption{解の分散とアンサンブルによる改善}\label{kou}\end{center}\end{figure}\mbox{図\ref{kou}}をみると,分散が大きい2つ(cranmadとreviews)は,アンサンブルによる改善の度合いも大きいことが分かる.そして3番目に分散が大きなデータセットがtr23である.つまり分散の大きな解をアンサンブルすると,非常に良い結果を得ることもあるが,逆に悪い結果を得ることもあり得ると考えられる.データセットtr23に対するNMFの結果を見ると,1つだけ非常にエントロピーの低いクラスタリング結果が得られていた.この解を取り除いて,19個のクラスタリング結果で本手法によるアンサンブルを試したところ,NMFmeanのエントロピーは0.493,weightedhypergarphのエントロピーは0.492となり,アンサンブルの効果が現れた.また,ここではNMFで複数個のクラスタリング結果を生成する際に,個々のクラスタリング結果のクラスタ数は,最終的なクラスタ数と一致させている.しかしハイパーグラフの考え方を用いれば,生成される個々のクラスタリング結果のクラスタ数は任意でかまわない.実際にk-meansでは少ないクラスタ数に直接クラスタリングするよりも,多数のクラスタに分割してから,目的のクラスタ数にまとめた方が効果があることが経験的にわかっている.論文\cite{fred02data}ではこのヒューリスティクスを利用して,多数のクラスタに分割してから,アンサンブルを行っている.本手法においても,そのような工夫を取り入れることも可能である.本手法ではハイパーグラフの値として,1に当たる部分を行列\(V\)の値を用いることで,実数値に変換した.この効果は実験で確認できている.この工夫を更に進めると,0に当たる部分にも行列\(V\)の値を用いることで,実数値に変換することが考えられる.この場合,ハイパーグラフは単純に各クラスタリング結果に対応する行列\(V\)を結合させたものになる.実際にこのようにして作ったハイパーグラフに対して,クラスタリングを行ってみた.結果を表\ref{tab:vresult}に示す.ここでhypergraphVが行列\(V\)を結合させてハイパーグラフを作成する手法を示す.\begin{table}[tbp]\input{04t3.txt}\end{table}通常のハイパーグラフを使うよりも結果は良好であるが,1に当たる部分だけを精密化する方が効果があることがわかる.また0の値はそのままにしている方が,ハイパーグラフがスパースになり,データ間の類似度が0であるケースが生じやすくなる.そのためグラフスペクトル理論を用いたクラスタリング手法\cite{graph-minmax-cut}なども使えるようになるために好ましい.最後にアンサンブル学習\cite{breiman96bagging}との関連について述べる.アンサンブル学習とアンサンブルクラスタリングの違いは,クラスタにラベルがつくかどうかである.アンサンブル学習ではデータにラベルが付くので,そのラベルをもつデータがラベル付きのクラスタと見なせる.アンサンブルクラスタリングの場合は,クラスタにラベルがついていない.もしもクラスタにラベルをつけることができれば,アンサンブル学習の手法を直接利用できるために,さらなる改良や発展が可能である.クラスタにラベルをつける処理は,クラスタ数が2や3などの小さい場合はそれほど大きな問題ではないので,今後はクラスタにラベルをつけるという戦略で,アンサンブルを行う手法を開発したい. \section{おわりに} 本論文では,NMFを用いたアンサンブルクラスタリングの手法を提案した.NMFの初期値を変化させて,複数個のクラスタリング結果を得る.次に得られた複数個のクラスタリング結果をハイパーグラフで表現し,それをクラスタリングすることで最終的なクラスタリング結果を得る.ハイパーグラフを作成する際に,NMFより得られた行列\(V\)を利用して,1の部分に実数値の重み付けする工夫を取り入れた.実験では18個のデータセットを用いて,k-means,NMF,通常のハイパーグラフを使うアンサンブル手法および重み付きハイパーグラフを使うアンサンブル手法(本手法)の比較を行った.エントロピーで評価を行い,本手法の有効性を確認できた.個々のクラスタリングで生成させるクラスタ数を変化させること,クラスタ数が小さい場合は,クラスタにラベルを与えて,アンサンブル学習の手法を利用することなどを今後の課題とする.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Boley,Gini,Gross,Han,Hastings,Karypis,Kumar,Mobasher,\BBA\Moore}{Boleyet~al.}{1999}]{boley99document}Boley,D.,Gini,M.~L.,Gross,R.,Han,E.-H.,Hastings,K.,Karypis,G.,Kumar,V.,Mobasher,B.,\BBA\Moore,J.\BBOP1999\BBCP.\newblock\BBOQDocumentCategorizationandQueryGenerationontheWorldWideWebUsingWebACE\BBCQ\\newblock{\BemArtificialIntelligenceReview},{\Bbf13}(5-6),\mbox{\BPGS\365--391}.\bibitem[\protect\BCAY{Breiman}{Breiman}{1996}]{breiman96bagging}Breiman,L.\BBOP1996\BBCP.\newblock\BBOQBaggingPredictors\BBCQ\\newblock{\BemMachineLearning},{\Bbf24}(2),\mbox{\BPGS\123--140}.\bibitem[\protect\BCAY{Deerwester,Dumais,Landauer,Furnas,\BBA\Harshman}{Deerwesteret~al.}{1990}]{deerwester90indexing}Deerwester,S.~C.,Dumais,S.~T.,Landauer,T.~K.,Furnas,G.~W.,\BBA\Harshman,R.~A.\BBOP1990\BBCP.\newblock\BBOQIndexingbyLatentSemanticAnalysis\BBCQ\\newblock{\BemJournaloftheAmericanSocietyofInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Ding,He,Zha,Gu,\BBA\Simon}{Dinget~al.}{2001}]{graph-minmax-cut}Ding,C.,He,X.,Zha,H.,Gu,M.,\BBA\Simon,H.\BBOP2001\BBCP.\newblock\BBOQ{SpectralMin-maxCutforGraphPartitioningandDataClustering}\BBCQ\\newblockIn{\BemLawrenceBerkeleyNationalLab.Tech.report47848}.\bibitem[\protect\BCAY{Fern\BBA\Brodley}{Fern\BBA\Brodley}{2003}]{fern_clustensem03}Fern,X.~Z.\BBACOMMA\\BBA\Brodley,C.~E.\BBOP2003\BBCP.\newblock\BBOQRandomProjectionforHighDimensionalDataClustering:AClusterEnsembleApproach\BBCQ\\newblockIn{\Bemthe20thInternationalConferenceofMachineLearning(ICML-03)}.\bibitem[\protect\BCAY{Fred\BBA\Jain}{Fred\BBA\Jain}{2002}]{fred02data}Fred,A.~L.\BBACOMMA\\BBA\Jain,A.~K.\BBOP2002\BBCP.\newblock\BBOQ{DataClusteringUsingEvidenceAccumulation}\BBCQ\\newblockIn{\Bemthe16thinternationalconferenceonpatternrecognition},\mbox{\BPGS\276--280}.\bibitem[\protect\BCAY{Hearst\BBA\Pedersen}{Hearst\BBA\Pedersen}{1996}]{hearst96reexamining}Hearst,M.~A.\BBACOMMA\\BBA\Pedersen,J.~O.\BBOP1996\BBCP.\newblock\BBOQ{Reexaminingtheclusterhypothesis:Scatter/gatheronretrievalresults}\BBCQ\\newblockIn{\Bem{ProceedingsofSIGIR-96}},\mbox{\BPGS\76--84}.\bibitem[\protect\BCAY{Kummamuru,Lotlikar,Roy,Singal,\BBA\Krishnapuram}{Kummamuruet~al.}{2004}]{kummamuruwww2004}Kummamuru,K.,Lotlikar,R.,Roy,S.,Singal,K.,\BBA\Krishnapuram,R.\BBOP2004\BBCP.\newblock\BBOQ{AHierarchicalMonotheticDocumentClusteringAlgorithmforSummarizationandBrowsingSearchResults}\BBCQ\\newblockIn{\BemProceedingsofWWW-04},\mbox{\BPGS\658--665}.\bibitem[\protect\BCAY{Lee\BBA\Seung}{Lee\BBA\Seung}{2000}]{lee00algorithms}Lee,D.~D.\BBACOMMA\\BBA\Seung,H.~S.\BBOP2000\BBCP.\newblock\BBOQAlgorithmsforNon-negativeMatrixFactorization\BBCQ\\newblockIn{\Bem{NIPS}},\mbox{\BPGS\556--562}.\bibitem[\protect\BCAY{Leuski}{Leuski}{2001}]{leuski01evaluating}Leuski,A.\BBOP2001\BBCP.\newblock\BBOQ{EvaluatingDocumentClusteringforInteractiveInformationRetrieval}\BBCQ\\newblockIn{\Bem{ProceedingsofCIKM-01}},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{{MichaelW.Berry}}{{MichaelW.Berry}}{2003}]{TextMiningBook}{MichaelW.Berry}\BED\\BBOP2003\BBCP.\newblock{\Bem{SurveyofTextMining:Clustering,Classification,andRetrieval}}.\newblockSpringer.\bibitem[\protect\BCAY{Strehl\BBA\Ghosh}{Strehl\BBA\Ghosh}{2002}]{strehl02}Strehl,A.\BBACOMMA\\BBA\Ghosh,J.\BBOP2002\BBCP.\newblock\BBOQ{ClusterEnsembles-AKnowledgeReuseFrameworkforCombiningMultiplePartitions}\BBCQ\\newblockIn{\Bem{ConferenceonArtificialIntelligence(AAAI-2002)}},\mbox{\BPGS\93--98}.\bibitem[\protect\BCAY{Topchy,Jain,\BBA\Punch}{Topchyet~al.}{2003}]{topchy03combining}Topchy,A.,Jain,A.~K.,\BBA\Punch,W.\BBOP2003\BBCP.\newblock\BBOQ{CombiningMultipleWeakClusterings}\BBCQ\\newblockIn{\BemInTheThirdIEEEInternationalConferenceonDataMining(ICDM'03)}.\bibitem[\protect\BCAY{Xu,Liu,\BBA\Gong}{Xuet~al.}{2003}]{nmf}Xu,W.,Liu,X.,\BBA\Gong,Y.\BBOP2003\BBCP.\newblock\BBOQ{Documentclusteringbasedonnon-negativematrixfactorization}\BBCQ\\newblockIn{\Bem{ProceedingsofSIGIR-03}},\mbox{\BPGS\267--273}.\bibitem[\protect\BCAY{Zeng,He,Chen,Ma,\BBA\Ma}{Zenget~al.}{2001}]{zeng-learning}Zeng,H.-J.,He,Q.-C.,Chen,Z.,Ma,W.-Y.,\BBA\Ma,J.\BBOP2001\BBCP.\newblock\BBOQ{LearningtoClusterWebSearchResults}\BBCQ\\newblockIn{\Bem{ProceedingsofSIGIR-04}},\mbox{\BPGS\33--40}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{昭和60年東京工業大学理学部情報科学科卒業.昭和62年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,平成5年4月茨城大学工学部システム工学科助手.平成9年10月同学科講師,平成13年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{佐々木稔}{平成8年徳島大学工学部知能情報工学科卒業.平成13年同大学大学院博士後期課程修了.博士(工学).平成13年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V14N03-09
\section{はじめに} インターネットが普及し,ユビキタス社会が浸透するなか,人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い,そのパラ言語情報を扱うことは少ないため,人間同士の対話と比較すると,コンピュータとの対話ではコンピュータが得る人間の情報は少ない.本研究では音声の言語表現の特徴と音響的特徴から推定可能な感情を検出するために,感情の程度による言語表現の特徴および音響的変化を分析し,コンピュータと人間とのインタラクションにおける人間の感情および態度表出を捉えることを目指す.それにより,両者の円滑なコミュニケーションを図ることを目的としている.将来の具体的応用対象として考えられる対話を想定し,コールセンターなどへの自動音声応答システムにおける認識性能に対する不満からくる「苛立ち」や,真意が伝わらないことに対する「腹立ち」の表現などに着目して,ユーザの内的状態をその発話の言語表現および音響的な特徴から推定する可能性について検討する.本報告では,感情表現を含む音声データの収録方法および感情情報を付与する主観評価法および言語表現・音響的特徴をパラメータとした決定木による「怒り」の感情の程度を推定する実験手法に関して述べ,今後の分析手法の指針について報告する. \section{関連研究} ここでは感情の心理学的なモデルに関する研究および音響的特徴による感情の推定および識別手法に関する研究,言語表現と心的状態および態度に関する研究について述べる.感情の心理学的なモデルに関しては様々な研究がとり行われているものの,現状では広く使用されるモデルが確立されておらず,感情にまつわる研究でも様々なカテゴライズが独自に行われ,その独自のモデルに基づいて研究が行われている.本論文では,心理学的な尺度をもとに怒りの感情の程度を推定する手法について述べるので,ここでは各モデルがどのような尺度で構成されているかに着目したい.心理進化論的なアプローチから基本感情を8感情(acceptance,anger,anticipation,disgust,joy,fear,sadness,surprise)に設定し,立体構造モデルを定めたPlutchikの研究がある\cite{plutchik1980}.Plutchikは強度(intensity)または覚醒(arousal)という尺度で基本感情ごとに類似する感情を立体モデルの縦軸に当てはめている.RussellはShlosbergのcircularstructuralmodelをもとに水平軸に快(pleasure)—不快(displeasure),垂直軸に覚醒(arousal)—眠気(sleep)の2次元で表される平面状に日常使用する一般用語で分類した感情を円環に並べたcircumplexmodelを提唱している\cite{russell1989}.ここで特筆すべきは,Plutchikが同様と捉えた強度と覚醒の次元を別のものとして捉えている点である.Russellは感情の強度は円環の中心からのベクトルの長さで表されるとしている.Russellが強度と覚醒の次元を別のものと捉える理由はDalyらの理論にある.Dalyらはpleasantnessとactivityの2軸の他に円錐状にneutralに向かって上昇するintensityの次元を設けた3次元モデルを提唱し,それまで同様に扱われていたactivityとintensityの違いを明確にしている\cite{daly1983}.本論文は,自然な対話のなかで発声された怒りの音声の感情の強さの程度をintensityの次元で計るものとする.音響的特徴による感情の推定および識別手法に関する研究は1つの感情を扱うのではなく,多感情を扱い,感情間の識別を行う研究が多く行われている.本論文では怒りの感情の認識に向けた検討を行うため,怒りの音声に限定した研究あるいは怒りの音声を2種類に分類して識別を行った研究について述べたい.武田らは平板,中高,頭高の3種類のアクセント型を持つ4モーラと6モーラの有意味単語および無意味単語をNHKアナウンサー4人および音声研究者1名の計5人により平常,軽い怒り,怒り,激怒の4段階で発声されている音声試料を用意し,音声パワー,時間構造(持続時間,発話速度)および基本周波数を韻律の特徴パラメータとして分析を行った\cite{Takeda2002}.その結果,怒りの度合いが大きくなるにしたがって,最高音圧および最高基本周波数の増大が認められている.また,時間構造に関する特徴では,怒りの度合いが強くなるに従って早口になる傾向が見られる一方,逆に激怒時には発話が遅くなる傾向が見られたことも確認している.Shribergらの研究はDARPACommunicatorProjectのもとで開発された電話による航空券予約システムを利用して,演技ではない実際の音声の収録を行い識別実験に利用している.怒りのなかでもfrustrationとannoyanceに限定し,話速,休止,基本周波数,音圧,スペクトログラムなどの音響的特徴だけでなく,対話中の発話の位置や繰り返しや言い直しなどの情報もパラメータとして加え,怒りの音声の特徴を分析している\cite{Ang2002}.その分析の結果をもとにCART-styleの決定木によって感情を識別し,すべてのパラメータを利用した識別ではfrustrationおよびannoyanceの発話とそれ以外の発話を80\%以上の正解率で識別している.ここにおいて特筆すべきは,対象の音声が従来の研究によくみられるアナウンサーや俳優により演じられた感情音声ではないことである.実際に人間が発する自然な発話を対象とすることで,コンピュータとの対話に生じる人間の自然な感情を識別の対象としているのである.Banseらは多感情の識別実験を行っているが,複数の感情のうち,怒りをHotAngerとColdAngerに分け,異なる感情として扱い,人間による判断と音響パラメータを用いたジャックナイフ法および判別分析による識別実験との比較を行っている\cite{Banse1996}.その結果,HotAngerはジャックナイフ法で69\%,判別分析で75\%の正解率を得ている.一方,ColdAngerは正解率が低く,いずれも50\%以下の成績であった.本論文では,言語の使用を話者の心的状態および態度表出として捉え,感情表出時にどのような話者の意図が存在しているのかを分析し,感情を捉える可能性について検討するので,言語表現と意図との関係について検討された研究を先行研究として挙げる.言語表現と話者の心的状態および態度に関する認知心理学的なアプローチとして横森の接続助詞ケドの文末用法に関する考察がある\cite{Yokomori2006}.横森によれば,文末のケドに符号化された意味は従属節から予期されることに対して,聞き手が認知していることが逸脱的であるという認知的評価であるとしている.心的態度表出はこの認知的評価により決定付けられる.さらに,終助詞「よ」または「ね」の語用論的機能とイントネーションとのかかわりについても研究されている\cite[など]{Katagiri1997,Sugito2001,Inukai2001,Moriyama2001}. \section{音声資料} 怒りを表現した発話を含むできる限り自然な対話音声を収録し,各収録発話に対し5段階の主観評価に基づいて,感情の程度の実測値を付与した.ここでは,実際に行った音声収録方法・主観評価法について述べる.\subsection{音声収録手法}コンピュータ対人間および人間対人間の擬似対話を設定し,収録を行った.発話内容を限定せず,(a)ユーザ役の音声提供者がコンピュータ役の人間と対話をし,コンピュータの認識ミスによる聞き返しにより怒りを誘発させる方法と,(b)あらかじめ,クレームの内容を提示し,人間のオペレータとその内容について話し合ってもらう方法の2通りの対話を実施した.その際,音声提供者には対話に必要な最低限の情報のみを与え,オペレータの指示に従って自由に発話するようにした.実際の対話例を図\ref{fig:utter}に示す.収録は一般の大学生10名(男性5名,女性5名)がユーザ役の音声提供者となり,研究の趣旨を熟知しているオペレータ役1名が対応した.オペレータ役とユーザ役とは非対面で対話を行い,それぞれの発話をDATレコーダに左右チャネルに分けて録音した.\begin{figure}[t]\begin{center}\includegraphics[width=0.8\hsize]{sampleDialogue.eps}\caption{「怒り」の収録対話例}\par注:Oはオペレータの発話,Uはユーザの発話\label{fig:utter}\end{center}\end{figure}収録した音声を10kHz,16bitでディジタル化し,ユーザ役の音声データを発話単位に切り出した5名(男性3名,女性2名)による発話から,159発話を音声資料として使用した.各々の発話の長さは様々で,最短の発話は「はい」(112ms),最長の発話は「だから,その…そのデータベースに全部残っているっていう証明はどうやってするんですか」(6.26s)であった.\subsection{主観評価法}\begin{table}[b]\caption{各クラスタのデータ数}\label{tb:cluster}\begin{center}\begin{tabular}{cc}\hlineクラスタ&データ数\\\hlineA&41\\B&52\\C&55\\D&11\\\hline\end{tabular}\end{center}\end{table}音声資料に対して,含まれている怒りの程度を定量化するため,主観評価実験を行った.被験者は大学生12名(男性11名,女性1名)で,ヘッドホンを通して1発話につき2回ずつランダムに提示される各発話について,怒りの程度を1(ぜんぜん)から5(すごく)までの5段階で評価させた.発話ごとに評価された値の平均値を求め,それを怒りの程度を表す実測値として各発話に付与した.さらに,音響的な特徴を分析する際に,怒りの程度による大まかな傾向をみるため,全159発話の音声資料を主観評価値をもとに4つのクラスタにクラスタリングした.クラスタリングには距離尺度にWard法を用いた階層型分類法を利用した.以後,分類した4つのクラスタを平静から順に怒りの程度が大きくなるようA,B,C,Dと称する.各クラスタのデータ数を表\ref{tb:cluster}にまとめた.なお,評価値,すなわち怒りの程度は連続に分布しており,このクラスタリングは以後の分析のために便宜上行ったもので,相隣り合うクラスタの境界は必ずしも明確ではない. \section{「怒り」を含む発話の分析} \subsection{音響的分析}本研究では音声の音響情報を反映するようなパラメータを怒りの推定のために利用する.検討したパラメータは感情表現に関する先行研究\cite[など]{Takeda2002,Cowie2001,Nagae1997,Banse1996,Ang2002}を参考に定めた.多くのパラメータについては,発話内の代表的な値として平均値を,時間的な変動の指標として発話内での標準偏差の値を用いた.\subsubsection{高さに関連するパラメータ}音声の高さに関連するパラメータとして,表\ref{tb:F0}に挙げた基本周波数({\itF}{\tiny0})から求められる発話内での統計量F-1〜F-7を用いる.なお{\itF}{\tiny0}は可変窓長の変形自己相関関数法により10ms間隔で自動抽出した後,視察により修正を施したものを用いた.また,{\itF}{\tiny0}の絶対的な値を対象とするパラメータ(F-1,F-2,F-3)については,男女間の差の影響を除去するため,簡易的ではあるが,男女それぞれについて全データの平均値を求め,その値を差し引くことで男女差の正規化を行ったパラメータ(F-4,F-5,F-6)を用意した.\begin{table}[b]\caption{高さに関連するパラメータ}\label{tb:F0}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineF-1&{\itF}{\tiny0}の発話内平均(対数軸)\\F-2&{\itF}{\tiny0}の発話内最低値\\F-3&{\itF}{\tiny0}の発話内最高値\\F-4&男女差正規化{\itF}{\tiny0}の発話内平均(対数軸)\\F-5&男女差正規化{\itF}{\tiny0}の発話内最低値\\F-6&男女差正規化{\itF}{\tiny0}の発話内最高値\\F-7&{\itF}{\tiny0}の発話内標準偏差(対数軸)\\\hline\end{tabular}\end{center}\end{table}\subsubsection{強さに関連するパラメータ}音声の強さに関連するパラメータとして,表\ref{tb:pwr}に挙げたP-1〜P-3を用いる.P-1〜P-2のパラメータは振幅のRMS値10000を0dBVとしたdBVを単位とする.短時間平均パワーは窓長20msの矩形窓を施し,5ms間隔で求めた.P-3の変動量は,短時間平均パワーの変化の緩急を定量化するため,11フレームに渡る短時間平均パワーの回帰直線の傾きのRMSを求めたものである.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{強さに関連するパラメータ}\label{tb:pwr}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineP-1&短時間平均パワーの発話内標準偏差\\P-2&短時間平均パワーの発話内最大値\\P-3&短時間パワーの変動量\\\hline\end{tabular}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\caption{速さ・長さに関連するパラメータ}\label{tb:dur}\begin{tabular}{ll}\hline記号&説明\\\hlineD-1&呼気段落の平均モーラ数\\D-2&平均発話速度(mora/s)\\\hline\\\end{tabular}\end{center}\end{minipage}\end{table}\subsubsection{速さ・長さに関連するパラメータ}発話の速さ・長さに関連するパラメータとして表\ref{tb:dur}に示す2種の値を用いる.D-1は呼気段落のモーラ数を発話内で平均したものであり,D-2は休止区間を除外して求めた平均発話速度(単位:mora/s)である.\subsubsection{声質に関連するパラメータ}声質に関連するパラメータとして,ここではスペクトル包絡の大局的な傾きに着目して,表\ref{tb:cep}に示すC-1〜C-2を取り上げた.スペクトル包絡の大局的な傾きに関連するパラメータとして,改良ケプストラム法により求めたケプストラムの第1次係数の値を使用した.\begin{table}[b]\caption{声質に関連するパラメータ}\label{tb:cep}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineC-1&第1次ケプストラム係数の発話内平均\\C-2&第1次ケプストラム係数の発話内標準偏差\\\hline\end{tabular}\end{center}\end{table}\subsubsection{各パラメータに対する実測値の分布}上述の計14種のパラメータがそれぞれ単独でどの程度怒りの推定能力を有するかについて検討する.図\ref{fig:graph}はいくつかのパラメータについて,怒りの程度に関する4つのクラスタ内での平均値,標準誤差,標準偏差を示したものである.個別のパラメータに関する詳細については割愛するが,クラスタ間での傾向は以下の2つに大別できる.1つは怒りの程度が大きくなるに従って,ほぼ単調に値が増加あるいは減少するもの(図2中D-2およびF-2)で,もう1つは怒りの程度が最大のクラスタDについてAからCまでの傾向と反する変化を呈するもの(図2中P-2およびF-3)である.\begin{figure}[t]\begin{center}\includegraphics[width=0.4\hsize]{D-2.eps}\includegraphics[width=0.4\hsize]{F-2.eps}\includegraphics[width=0.42\hsize]{P-2.eps}\includegraphics[width=0.4\hsize]{F-3.eps}\caption{クラスタごとのパラメータの平均値,標準誤差,標準偏差}\label{fig:graph}\end{center}\end{figure}\subsubsection{パラメータ間の相関}複数のパラメータを組み合わせて怒りの推定に用いる際に相互に相関の高いパラメータ対を把握する必要がある.上述の14種のパラメータに関して相関係数を求めたところ,いずれのパラメータも同種のカテゴリを超えて,高い相関が見られたものはなかった.同一のカテゴリ内で特に正の相関が大きいもの(r≧0.75)は,高さに関連するパラメータでは,{\itF}{\tiny0}対数平均,{\itF}{\tiny0}最高値,{\itF}{\tiny0}最低値のそれぞれの組み合わせであった.\subsection{言語的分析}収録した音声データのうち怒りの強いクラスタ内に疑問表現,終助詞「よ・ね」や接続助詞中止型「ので・けど」が見られた\cite[など]{Arimoto2006a,Arimoto2006b}.ここでは,こうした言語特徴を利用し,怒りの推定に貢献するパラメータを用意するため,語用論的機能の観点から見た怒りとの関係や音響的特徴による機能の変化などに着目し,分析を行う.\subsubsection{文構成に関するパラメータ}怒りの強いクラスタであるCとDにおいては,「それはどうやって証明するんですか?」「でも全部残っているって証明はされてないじゃないですか?」などの疑問文が多く見られた.疑問表現は一般的に未知の部分の情報を相手に求める質問型と自分自身に問いかける自問型に分類される\cite{Masuoka1992}.質問型では上昇調のイントネーションが使われ,自問型では下降調のイントネーションが使われる.本研究では対話を取り扱っているので,主に質問型の疑問文を対象とする.疑問の形式としては,「昨日,花子に会いましたか?」などの事柄の真偽に関わる「真偽疑問文」,「昨日,誰に会ったのですか?」などの「疑問語疑問文」,「文法は,好きですか,嫌いですか?」などの「選択疑問文」がある.言語の表層的な構文としては「真偽疑問文」は疑問の終助詞「か/の」で終了することが認識されているが,「か/の」を付けず,文末の音響的な上昇イントネーションにするだけでも真偽疑問文になることも確認されている.「疑問語疑問文」では「何」や「誰」などの疑問語を文中に含み,普通体では文末には「か」が原則使用できない(丁寧体では「か」は使用できる)\cite{Masuoka1992}.文末の言語表層的な表現が制限される一方で,「疑問語疑問文」でも文末の音響的な上昇イントネーションは保たれている.こうしたことから,疑問表現と音響的特徴との関連は深いものと考えることができる.疑問表現は既定の部分を前提として,未定の部分を質問する用法で用いられるが,ここでは相手の主張の正当性に対する強い反意を疑問文として表現していると捉えられる.\subsubsection{文末表現を捉えたパラメータ}話し言葉の1つの典型発話タイプである「予約したんですけど/予約したんで/残ってるんスけど」などの接続助詞中止型は,一般的に主節部分を明示せずに,聞き手にその解釈を委ねる用法であると捉えられる.こうした表現は,その主節に含まれると考えられる,対話相手の対応の悪さに対する「怒り」の内容を,聴き手に想起・自覚させ,強く印象つける役目を果たすものと考察できる.その例として,想定される主節の「怒り」の内容例を表\ref{tb:sample}にまとめる.\begin{table}[b]\caption{接続助詞中止型に想定される「怒り」の内容例}\label{tb:sample}\begin{center}\begin{tabular}{ll}\hline従属節&想定される主節\\\hlineえ,でも(予約番号は発行)されてるんで.&(1)予約はしてるんだよ.\\&(2)会議室は使えるのが当たり前だろ.\\\hline(履歴が)残ってるんスけど&(1)ちゃんと確認しろ.\\&(2)もっと調べろよ.\\\hline\end{tabular}\end{center}\end{table}さらに,横森は感情の認知的モデルにおける感情状態に遷移する前の認知的評価のみを接続助詞の意味とみなし,主体の心的態度は従属節における入力に対する主体の価値的関係によって決定されるとしている\cite{Yokomori2006}.その上で,文末における「けど」の符号化された意味を従属節から「予期されることに対して,聞き手が認知していることが逸脱的である」と定めている.収録した対話においても,怒りを誘発するために,話し手(ユーザ)が予期していることに対して,聞き手(オペレータ)が認知していることが逸脱している対話が多い.そのため,接続助詞中止型で終わる発話が収録されたと考えられる.終助詞「ね・よ」で終止する発話は,いずれも表面上は同意要求あるいは確認としての使用と見なせるが,言語運用的には話者が納得できない条件,事態について同意させられていることに対する話者の「怒り」の内的感情を表していると捉えることができる.終助詞「ね・よ」に関しては多くの研究者\cite[など]{Katagiri1997,Sugito2001,Inukai2001,Moriyama2001}がその意味・機能やイントネーションとのかかわりについて研究を行っている.片桐\cite{Katagiri1997}によれば,「ね」で終止する発話は文末に上昇調のイントネーションが加わると確認要求,下降調のイントネーションが加わると情報提供の機能を果たす.また,「よ」についても上昇調のイントネーションが付随した場合は将来の聞き手の行動に対する純粋な依頼であるのに対し,下降調イントネーションが付随すると,この聞き手の行動に対する異議申し立てと捉えられるとしている.また,イントネーションの位置によって不満・強調・強引な押し付けなどさまざまな含みを持たせることが可能であるとしている.収録音声に見られる「ね」で終止する発話についても,イントネーションとの関わりにより,その言語機能に変化があった可能性を探るため,やや怒りの強いクラスタCで見られる発話に限定して,文末30フレームの{\itF}{\tiny0}の傾きと手前30フレームの{\itF}{\tiny0}の傾きの差分を求めた(図\ref{fig:diff}).一般に句末の{\itF}{\tiny0}は下降調になるといわれるが,終助詞「ね」で終わる発話はその他の発話に比べ,緩やかな変化ではあるものの上昇傾向を示していると考えられる.ここでの発話の機能としては確認要求とみなすことができる.\begin{figure}[b]\begin{center}\includegraphics[width=0.4\hsize]{graph3_1.eps}\includegraphics[width=0.4\hsize]{graph3_2.eps}\caption{文末30フレームの{\itF}{\tiny0}の傾きと手前30フレームの{\itF}{\tiny0}の傾きの差分とクラスタとの分布}\label{fig:diff}\end{center}\end{figure}\subsubsection{言語表現のパラメータ化}言語パラメータとして,各発話を平叙文,疑問文に分類し,表\ref{tb:ling_param}中のL-1文構成として挙げた.この際,平叙文でも語尾のイントネーションを上げることで疑問となる表現は疑問文として扱った.さらに,接続助詞中止型「ので・けど」と終助詞「ね・よ」を表\ref{tb:ling_param}中のL-2文末表現として,パラメータに加えた.各発話が接続助詞中止型「ので・けど」/終助詞「ね,よ」で終わっていることを分類の基準とした.ただし,文末に接続詞中止型の「ので・けど」が来る場合,「したいんですけど」という発話と「したんですけど」という2種類の発話が現れていたが,言語表層からもその使用の違いが明らかであるため,「したいんですけど」という発話は接続助詞中止型の分類とはしなかった.\begin{table}[t]\caption{言語表現を利用したパラメータ}\label{tb:ling_param}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineL-1&文構成(平叙文,疑問文)\\L-2&文末表現(終助詞,接続助詞,その他)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics[width=168pt]{bunkousei.eps}\caption{文構成のパラメータに対する実測値の分布}\label{fig:bunkousei}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\vspace{7.2pt}\begin{center}\includegraphics[width=168pt]{bunmatu.eps}\caption{文末表現に対する実測値の分布}\label{fig:bunmatu}\end{center}\end{minipage}\end{figure}\subsubsection{言語パラメータに対する実測値の分布}言語パラメータに対する実測値の分布を図\ref{fig:bunkousei}・\ref{fig:bunmatu}に示す.図\ref{fig:bunkousei}の文構成の分布をみると,疑問文のほうが怒りの程度の高い発話に多く見られ,平叙文との差も明らかである.文末表現の分布では,すべての項目でバラツキが大きくなっているが,平均値をみるとその他・終助詞・接続助詞の順に値が上昇している. \section{推定実験} 収録した音声データを用い,音響パラメータと言語パラメータを使用して,決定木による怒りの程度を推定する実験を行った.ここではその実験手法とその結果について述べる.\subsection{音声データとパラメータの組み合わせ}収録した音声データにはデータ数に男女の偏りがあることが分かっている\cite[など]{Arimoto2004,Arimoto2005a,Arimoto2005b}ため,全159発話を含むdatasetAの他に男性の発話のみ(141発話)を含むdatasetBを用意した.各datasetに対し,{\itF}{\tiny0}の絶対的な値を用いるパラメータ(F-1〜3)を除いた11種の音響パラメータを用いた実験と言語パラメータを加えた13種のパラメータによる実験を行った.さらに,datasetAには女性の発話が含まれていることから,男女差の影響の程度を比較するため,14種のすべてのパラメータを用いることにした.datasetAによる14種のパラメータを用いた実験を実験I,11種のパラメータを用いた実験を実験II,言語パラメータを加えた13種のパラメータを用いた実験を実験IIIとする.datasetBによる11種のパラメータを用いた実験を実験IV,言語パラメータを加えた13種のパラメータを用いた実験を実験Vとする.各datasetに使用するパラメータ数とその実験名称を表\ref{tb:experiment}にまとめた.\begin{table}[b]\caption{実験ごとに使用するdatasetとパラメータ}\label{tb:experiment}\begin{center}\begin{tabular}{lll}\hline実験&dataset&パラメータ数\\\hline実験I&A(男女混合)&14種(すべての音響パラメータ)\\実験II&&11種(男女差正規化音響パラメータ)\\実験III&&13種(男女差正規化音響パラメータ+言語パラメータ)\\実験IV&B(男性のみ)&11種(男女差正規化音響パラメータ)\\実験V&&13種(男女差正規化音響パラメータ+言語パラメータ)\\\hline\end{tabular}\end{center}\end{table}\subsection{実験手法}推定実験は決定木を用いて行った.交差検定を行うため,各datasetの発話を3つのグループに分割した.各datasetは発話数が限られているため,ランダムに三分割を行うと,グループ間に怒りの程度の偏りが生じてしまう.そのため,1発話ずつを主観評価値の高いデータから順に3つのグループに振り分け,グループ間の怒りの程度の偏りを排除し,実験の信頼性の確保に努めた.決定木のための学習用データとして2グループを,評価用データとして1グループを使用する.データに依存しない最適な木を求めるため,学習用・評価用データに使用するグループを入れ替えて{\itn}-fold交差検証法({\itn}=3)を行う.学習用・評価用データに含まれる怒りの種類に影響されない木を求めるため,評価用データの分岐回ごとの予測値と主観評価による実測値の標準誤差が最小になる分岐回で木の生成を停止した.実験の評価方法として主観評価により付与された怒りの実測値と決定木による予測値との標準誤差を求め,推定性能の指標とした.\subsection{結果と考察}実験の結果,音響パラメータのみを用いた実験I・II・IVでは8回目,7回目,6回目が最適な分岐回となり,その際の平均推定誤差は0.54,0.60,0.53となった.音響パラメータに言語パラメータを加えた実験III・Vでは5回目,4回目が最適な分岐回となり,その際の平均推定誤差はともに0.50となった.各実験での分岐停止回と平均推定誤差を表\ref{tb:result}に,各分岐回で選択されたパラメータを表\ref{tb:selected_param_acous}・\ref{tb:selected_param_ling}にまとめる.\begin{table}[b]\caption{実験ごとの分岐停止回と平均推定誤差}\label{tb:result}\begin{center}\begin{tabular}{ccc}\hline&分岐停止回&平均誤差\\\hline実験I&8回目&0.54\\実験II&7回目&0.60\\実験III&5回目&0.50\\実験IV&6回目&0.53\\実験V&4回目&0.50\\\hline\end{tabular}\end{center}\end{table}音響パラメータのみの実験と言語パラメータを加えた実験の結果を比べると,男女混合のdatasetAでは平均推定誤差に0.10差,男性のみのdatasetBで0.03差となり,音響的特徴のみの実験よりも言語的特徴を含めた実験のほうが推定精度が若干向上している.\begin{table}[b]\caption{各分岐回で選択されたパラメータ(音響パラメータのみの実験)}\label{tb:selected_param_acous}\footnotesize\begin{tabular}{cccccccccc}\hline\scalebox{0.75}[1]{分岐回}&&実験I&&&実験II&&&実験IV&\\&group1&group2&group3&group1&group2&group3&group1&group2&group3\\\hline1&F-2(低)&F-7(大)&P-2(強)&F-7(大)&F-7(大)&P-2(強)&F-7(大)&P-2(強)&F-7(大)\\2&F-7(大)&F-2(低)&D-2(速)&P-2(強)&C-1(大)&D-2(速)&P-2(強)&D-2(速)&P-2(強)\\3&P-2(強)&P-1(大)&F-7(大)&D-2(速)&D-2(速)&F-7(大)&F-5(低)&F-5(低)&D-2(速)\\4&D-2(速)&D-2(速)&F-2(低)&F-6(低)&F-7(大)&F-7(大)&D-2(速)&F-7(大)&F-7(大)\\5&F-3(低)&C-2(大)&F-3(低)&F-7(大)&D-1(短)&D-2(速)&F-6(高)&F-7(大)&F-6(低)\\6&F-7(大)&F-2(低)&D-2(速)&F-7(大)&P-2(強)&P-2(弱)&F-6(低)&F-6(低)&F-5(低)\\7&P-2(弱)&P-2(強)&P-2(弱)&P-2(強)&F-4(小)&F-6(低)&-&-&-\\8&F-2(低)&F-3(高)&P-1(大)&-&-&-&-&-&-\\\hline\end{tabular}\end{table}\begin{table}[b—]\caption{各分岐回で選択されたパラメータ(音響+言語パラメータの実験)}\label{tb:selected_param_ling}\begin{center}\footnotesize\begin{tabular}{ccccccc}\hline分岐回&&実験III&&&実験V&\\&group1&group2&group3&group1&group2&group3\\\hline1&F-7(大)&P-2(大)&L-1(疑問文)&L-1(疑問文)&P-2(大)&F-7(大)\\2&P-2(大)&L-1(疑問文)&P-2(大)&P-2(大)&L-1(疑問文)&L-1(疑問文)\\3&F-6(低)&D-2(速)&L-2(終助詞,接続助詞)&F-5(低)&D-2(速)&P-2(大)\\4&D-2(速)&F-7(大)&P-3(小)&D-2(速)&F-7(大)&D-2(速)\\5&F-7(大)&F-6(高)&P-2(大)&-&-&-\\\hline\end{tabular}\end{center}\end{table}音響パラメータのみを使用した実験I・II・IVにより選択されたパラメータをみると,共通に選択されたパラメータ(F-7,P-2,D-2)があることが分かる.男女の発話が混合するdatasetと男性の発話のみのdatasetの間で怒りの発話に共通する音響的特徴(発話内での声の高さに大きな変化がある,声が大きい,速い)があることが分かる.実験IVにより選択されたパラメータをみると,すべてのグループで同じパラメータが選択されていることが分かり,学習用・評価用データに依存することなく,男性の怒りの発話の特徴をより正確に捉えることができたといえる.実験IVgroup1による決定木(図\ref{fig:tree}参照)の最後の3回の分岐ではD-2で速くとゆっくりに分かれた発話がその後,同じF-6のパラメータで分岐し,声の低い発話と声の高い発話のそれぞれが怒りの程度が高いと推定されていることが分かる.これは音声データに2種の怒りの発話(はやく・声の高い発話,ゆっくり・声の低い発話)が存在していることを示唆する.ひとつは対人間の対話で納得できない相手の主張に対し感情的になっている発話であり,もう1つは対コンピュータの対話で誤認識に対し同一内容を丁寧に繰り返している発話と認識内容を確認する際に念を押すようにゆっくりと話す発話である.\begin{figure}[t]\begin{center}\includegraphics[width=0.8\hsize]{tree1.eps}\caption{実験IVgroup1による決定木}\label{fig:tree}\end{center}\end{figure}表\ref{tb:selected_param_ling}をみると,言語パラメータL-1がほぼすべてのgroupで1回目・2回目という早い分岐回で選択され,疑問文である発話が怒りが強いと判断されている.これは疑問文の文構成が怒りの程度の推定に大きく寄与したと言える.音響パラメータも音響パラメータのみの実験とほぼ同じパラメータが選択され,怒りの発話の音響的な特徴も捉えられているといえる.一方で,L-2文末表現はdatasetAのgroup3で3回目の分岐で選択されている.文末表現も怒りを推定するパラメータとなりえる可能性を確認することが出来た.今回の分類では3で述べた用途以外の接続助詞中止型および終助詞「ね・よ」が含まれていた可能性があるため,そうした2種の用途を区別することが出来れば,さらにパラメータとしての精度を向上させることが出来ると考えられる. \section{おわりに} コンピュータと人間とのインタラクションにおいて人間が表出するパラ言語情報・非言語情報を捉えることを目指し,音声の音響的特徴と言語表現の特徴から推定可能な感情を検出するために,感情の程度による音響的特徴・言語使用の特徴を分析した.感情を「怒り」に限定し,非対面の擬似対話により,認識性能に対する不満からくる「苛立ち」や,クレーム対応時におけるユーザの「腹立ち」の内的感情を表現した怒りの音声を収録,主観評価により感情の程度を付与した音声データを作成した.また,決定木により「怒り」の程度の推定実験を行い,データに依存しない「怒り」の音響的な特徴を捉えた.感情を含む音声に「それはどうやって証明するんですか?」「でも全部残っているって証明は,されてないじゃないですか?」などの疑問文の文構成,「したんですけど/したんで/してるんスけど」などの接続助詞中止型で終止する発話,終助詞「よ,ね」で終止する発話が頻出していることから,発話者の感情表現とその言語表現との定量的な関係を分析し,怒りを推定するパラメータとして適用した.その結果,文構成・文末表現などの言語表現も「怒り」の感情の推定に貢献することを明らかにした.今後は,自然な対話の中でのユーザの感情をその発話の音響的・言語的特徴から推定するために,データの量的・質的拡充を図りながら,より推定性能の優れた音響パラメータ・言語パラメータを追究し,詳細な分析と特徴抽出を行う.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた飯田研究室および大野研究室の学生諸君に感謝いたします.\bibliographystyle{jnlpbbl_1.2}\newcommand{\SPhy}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ang,Dhillon,Krupski,Shriberg,\BBA\Stolcke.}{Anget~al.}{2002}]{Ang2002}Ang,J.,Dhillon,R.,Krupski,A.,Shriberg,E.,\BBA\Stolcke.,A.\BBOP2002\BBCP.\newblock\BBOQProsody-BasedAutomaticDetectionofAnnoyanceandFrustrationinHuman-ComputerDialog\BBCQ\\newblockIn{\BemProc.Intl.Conf.onSpokenLanguageProcessing},\lowercase{\BVOL}~3,\mbox{\BPGS\2037--2040}.\bibitem[\protect\BCAY{Arimoto,Ohno,\BBA\Iida}{Arimotoet~al.}{2005}]{Arimoto2005b}Arimoto,Y.,Ohno,S.,\BBA\Iida,H.\BBOP2005\BBCP.\newblock\BBOQAMethodforDiscriminatingAngerUtterancesfromOtherUtterancesusingSuitableAcousticFeatures\BBCQ\\newblockIn{\BemProceedingsofSPECOM2005},\mbox{\BPGS\613--616}.\bibitem[\protect\BCAY{Banse\BBA\Scherer}{Banse\BBA\Scherer}{1996}]{Banse1996}Banse,R.\BBACOMMA\\BBA\Scherer,K.~R.\BBOP1996\BBCP.\newblock\BBOQAcousticProfilesinVocalEmotionExpression\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf70}(3),\mbox{\BPGS\614--636}.\bibitem[\protect\BCAY{Cowie,Douglas-Cowie,Tsapatsoulis,Votsis,Kollias,Fellenz,\BBA\Taylor}{Cowieet~al.}{2001}]{Cowie2001}Cowie,R.,Douglas-Cowie,E.,Tsapatsoulis,N.,Votsis,G.,Kollias,S.,Fellenz,W.,\BBA\Taylor,J.~G.\BBOP2001\BBCP.\newblock\BBOQEmotionRecognitioninHuman-ComputerInteraction\BBCQ\\newblock{\BemIEEESignalProcessingMagazine},{\Bbf18}(1),\mbox{\BPGS\32--80}.\bibitem[\protect\BCAY{Daly,Lancee,\BBA\Polivy}{Dalyet~al.}{1983}]{daly1983}Daly,E.~M.,Lancee,W.~J.,\BBA\Polivy,J.\BBOP1983\BBCP.\newblock\BBOQAConicalModelfortheTaxonomyofEmotionalExperience\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf45}(2),\mbox{\BPGS\443--457}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1980}]{plutchik1980}Plutchik,R.\BBOP1980\BBCP.\newblock{\BemChapter11:AstructuralmodeloftheemotionsinEmotions:Apsychoevolutionarysynthesis}.\newblockHarperandRow,N.Y.\bibitem[\protect\BCAY{Russell}{Russell}{1989}]{russell1989}Russell,J.~A.\BBOP1989\BBCP.\newblock{\BemChapter4:Measuresofemotion.inEmotionTheory,Research,andExperience}.\newblockAcademicPress,Inc.\bibitem[\protect\BCAY{片桐}{片桐}{1997}]{Katagiri1997}片桐恭弘\BBOP1997\BBCP.\newblock\Jem{文法と音声12.終助詞とイントネーション}.\newblockくろしお出版.\bibitem[\protect\BCAY{長江}{長江}{1997}]{Nagae1997}長江功広\BBOP1997\BBCP.\newblock\Jem{音声に含まれる話者の感情の分析と認識に関する研究}.\newblock宇都宮大学学士論文.\bibitem[\protect\BCAY{武田\JBA大山\JBA杤谷\JBA西澤}{武田\Jetal}{2002}]{Takeda2002}武田昌一\JBA大山玄\JBA杤谷綾香\JBA西澤良博\BBOP2002\BBCP.\newblock\JBOQ日本語音声における「怒り」を表現する韻律的特徴の解析\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf58}(9),\mbox{\BPGS\561--568}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2004}]{Arimoto2004}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2004\BBCP.\newblock\JBOQ{\kern-0.5zw}「怒り」識別のための音声の特徴量の検討\JBCQ\\newblock\Jem{人工知能学会研究会資料},SIG-SLUD-A303\JVOL,\mbox{\BPGS\13--19}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2005}]{Arimoto2005a}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2005\BBCP.\newblock\JBOQ決定木による「怒り」識別のための音響的特徴の検討と評価\JBCQ\\newblock\Jem{日本音響学会2005年秋季研究発表会講演論文集},1-6-2\JVOL,\mbox{\BPGS\225--226}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2006a}]{Arimoto2006a}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2006a\BBCP.\newblock\JBOQ{\kern-0.5zw}「怒り」の感情表現とその言語表現—音響的特徴の関係\JBCQ\\newblock\Jem{言語処理学会第12回年次大会ワークショップ「感情・評価・態度と言語」論文集},1\JVOL,\mbox{\BPGS\53--56}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2006b}]{Arimoto2006b}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2006b\BBCP.\newblock\JBOQ感情音声の収録と言語表現に現れる感情表現の分析\JBCQ\\newblock\Jem{電子情報通信学会2006年総合大会講演論文集},\mbox{\BPGS\{\SPhy}42--43}.\bibitem[\protect\BCAY{横森}{横森}{2006}]{Yokomori2006}横森大輔\BBOP2006\BBCP.\newblock\JBOQ接続助詞ケドの文末用法と話し手の態度\JBCQ\\newblock\Jem{言語処理学会第12回年次大会ワークショップ「感情・評価・態度と言語」論文集},\mbox{\BPGS\37--40}.\bibitem[\protect\BCAY{森山}{森山}{2001}]{Moriyama2001}森山卓郎\BBOP2001\BBCP.\newblock\Jem{文法と音声III3.終助詞「ね」のイントネーション—修正イントネーション制約の試み—}.\newblockくろしお出版.\bibitem[\protect\BCAY{杉藤}{杉藤}{2001}]{Sugito2001}杉藤美代子\BBOP2001\BBCP.\newblock\Jem{文法と音声III1.終助詞「ね」の意味・機能とイントネーション}.\newblockくろしお出版.\bibitem[\protect\BCAY{犬飼}{犬飼}{2001}]{Inukai2001}犬飼隆\BBOP2001\BBCP.\newblock\Jem{文法と音声III2.低く短く付く終助詞「ね」{\unskip}}.\newblockくろしお出版.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{Masuoka1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\end{thebibliography}\begin{biography}\bioauthor{有本泰子}{1996年青山学院大学文学部英米文学科卒業.2004年東京工科大学メディア学部メディア学科卒業.2005年,東京工科大学バイオ・情報メディア研究科に入学,現在に至る.日本音響学会学生会員.}\bioauthor{大野澄雄}{1988年東京大学工学部電気工学科卒.1993年同大大学院工学系研究科電子工学専攻博士課程了.同年,東京理科大学基礎工学部助手.1999年東京工科大学工学部講師.現在,同大コンピュータサイエンス学部助教授.音声言語処理,特に音声の韻律の分析・合成・認識処理の研究に従事.博士(工学).電子情報通信学会,日本音響学会各会員.}\bioauthor{飯田仁}{1974年早稲田大学大学院理工学研究科数学専攻修了.NTT基礎研究所,ATR自動翻訳電話研究所,ATR音声翻訳通信研究所等を経て,2003年4月より東京工科大学メディア学部教授.2006年4月より同大学片柳研究所長.言語処理学会元会長.博士(工学).音声対話理解,マルチモーダル・インタラクション等の教育・研究に従事.科学技術庁長官賞等受賞.}\end{biography}\biodate\end{document}
V24N01-06
\section{はじめに} 社会学においては,職業や産業データは性別や年齢などと同様に重要な属性であり,正確を期する必要がある.このため,国勢調査でも行われているように,自由回答で収集したものを研究者自身が職業・産業分類コードに変換する場合が多い\cite{Hara84}.この作業は「職業・産業コーディング」とよばれるが,国内の社会学において標準的に用いられる職業コード(SSM職業小分類コード)は約200個,産業コード(SSM産業大分類コード)は約20個あり\cite{SSM95},分類すべきクラスの数が非常に多く,コード化のルールも複雑なことから,特に大規模調査の場合は多大な労力や時間を要するという深刻な問題を抱えている\cite{Seiyama04}.また,多人数で長期間にわたる作業となるため,コーディング結果における一貫性の問題も指摘されている\cite{Todoroki_et_al13}.そこで,これらの問題を軽減する目的で,職業・産業コーディングを自動化するシステムの開発を行ってきた.最初に開発したシステムは,SSM職業・産業分類コードを決定するルールを生成し,これに基づいて自動コーディングを行った結果をCSV形式のファイルにするもので\cite{Takahashi00},主として大規模調査に利用された\cite{Takahashi02b,Takahashi03,Takahashi_et_al05b}.その後,自動コーディングの精度向上のため,自動化のアルゴリズムを,文書分類において分類性能の高さで評価されている機械学習のサポートベクターマシン(SVM)\cite{Joachims98,Sebastiani02}とルールベース手法を組み合わせた手法に改良した\cite{Takahashi_et_al05a,Takahashi_et_al05c}.また,社会学を取り巻く環境の変化に対応するために,ILOにより定められた国際標準コードに変換するシステムも開発した\cite{Takahashi08,Takahashi11}.さらに,いずれのシステムにも,自動コーディングの結果に対してシステムの確信度を付与する機能を追加した\cite{Takahashi_et_al13a}.この結果,自動化システムは職業・産業コーディングにおける前述の2つの問題解決に大きく貢献するものとして,社会調査分野において評価を得た\cite{Hara13}.自動化システムはまた,職業・産業コーディングの実施方法も変えた.以前は,コーダは調査票を見ながらコーディングを行い,その結果を調査票に書き入れていた.しかし,システムの開発以降,依頼者が作成したデータファイルを開発者が事前に処理し,コーダはその結果付きのファイルを画面に表示してコーディングを行い,結果を入力するようになった.この方法は,自動化システムを利用する場合の標準的な方法となった.現在,自動化システムは整理統合され,東京大学社会科学研究所附属社会調査・データアーカイブ研究センター(CSRDA)から,Webを通じた利用サービスとして試行提供されている\footnote{http://csrda.iss.u-tokyo.ac.jp/joint/autocode/}\cite{Takahashi_et_al14}.利用希望者は,自動コーディングを希望するコードの種類を明記した書類をCSRDAに申請し,受理されれば,所定の形式の入力ファイルを指定された場所にアップロードすることができ,その場所から,CSRDAのシステム運用担当者が処理した結果をダウンロードできる仕組みとなっている.これにより,一般の研究者や研究グループが開発者を通すことなく,自由にシステムを利用することができるようになった.海外においても職業・産業コーディングは実施されており,負担の大きい作業であるとの認識から,コンピュータによる支援方法が検討されている.しかし,単なる単語のマッチング以外のものは,韓国と米国における2例のみである.いずれもルールベース手法が中心で,機械学習は適用されていない.また,以上に述べた自動化システムと大きく異なるのは,職業や産業コードそのものを重要な変数として分析に用いる社会学の研究を支援するものではない点である.本稿では,現在公開中の自動化システム(以下,本システムと略す)について報告する.本システムにおける新規性は次の3つである.\begin{itemize}\item分類精度向上のために,ルールベース手法と機械学習の組み合わせ手法の適用\itemコーダの作業負担軽減のため,第1位に予測された候補に対する確信度を付与\item国内標準コードだけでなく,近年利用が高まっている国際標準コードにも対応\end{itemize}本システムは,CSRDAに置かれたのを機に,だれもが容易に操作することができるように,ユーザーインターフェイスを改良した.これは,システムの運用担当者が社会学研究者であることと,短期間で交代する状況を考慮したためである.以下では,最初に自動化システムのこれまでの変遷について補足説明を行った後,本システムについて述べる.そこでは,実際に本システムを利用する社会学研究者による評価も報告する.また,CSRDAにおける本システムの利用方法についても述べる. \section{自動化システムの変遷} 1節で述べたように,自動化システムは開発当初とはアルゴリズムを変え,国際標準コードへの変換も行うようになった.国際標準の職業コードは,ISCO(InternationalStandardClassificationofOccupations)\footnote{http://laborsta.ilo.org/applv8/data/isco88e.html},産業コードはISIC(InternationalStandardIndustrialClassificationofAllEconomicActivities)\footnote{http://laborsta.ilo.org/applv8/data/isic3e.html}で,いずれもSSMコードとはコード体系が異なり,4桁の階層構造で,SSMコードより分類クラスの個数が多い.新規にシステムを開発した理由は,SSMコードはもともと1968年版の国際標準コードを源とするが,1988年の国際標準コードの大幅な改訂により両者の対応関係が複雑化し,変換表の作成が困難であると判断したためである\cite{Tanabe06}.これにより,個々に独立したシステムではあるが,国内標準コードと国際標準コードに対する自動コーディングが可能となった.自動化システムを利用すれば,コーダは提示されたコードを参考にコーディングを行うことができる.このため,特に初心者のコーダに対する有効性が評価され,国内の代表的な社会調査において利用が広がった.例えば,我が国初の二次分析のための大規模調査JGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\footnote{http://jgss.daishodai.ac.jp/surveys/sur\_top.html}においては,初回の2000年以降,毎回利用されてきた\cite{Takahashi02b,Takahashi03,Takahashi_et_al05b,Takahashi11}.また,10年ごとに実施されるSSM(SocialStratificationandsocilaMobility)調査(社会階層と社会移動全国調査)においても,2005年調査に引き続き\cite{Takahashi08},2015年調査\footnote{http://www.l.u-tokyo.ac.jp/2015SSM-PJ/index.html}でも利用されている\footnote{SSM調査は大規模である上に,社会学の中でも職業や産業データがとりわけ重要な役割を果たす階層移動研究の調査で,本人の初職から現職にいたるまでの職業や産業の履歴に加え,配偶者,父親,母親についても収集されるため,作業量の問題は重大である.例えば2015SSM調査の場合,コーディングを行う事例は約60,000にのぼっている.}.自動化システムの利用によりコーダの作業は楽になったが,熟練コーダがすべてのコーディング結果に対して再チェックを行って最終コード(正解)を決定する状況は変わらなかった.そこで,熟練コーダの作業量についても軽減できるように,自動コーディングの結果に対して,人手によるコーディングが必要かどうかを示す目安として,3段階(A:不要,B:できれば行う方がよい,C:必要)の確信度を付与する機能の追加を行った\cite{Takahashi_et_al13a}.この確信度は,一般のコーダが自動コーディングの結果を参考にする場合の判断基準としても有用であると考えられる.自動化システムは開発以来,大規模調査での利用が多かった.しかし,近年は,一般の研究者や研究グループからも利用の要請が増えてきたため,Webを通じてだれもが自由に利用できる仕組みの検討を始めた\cite{Takahashi_et_al13b}.その際,利用者の多くが文系の研究者であることや,システムの稼働環境がやや複雑であることから,利用者自身がシステムをダウンロードして用いるのではなく,入力データのファイルをアップロードしたものをシステム運用担当者が処理する方法を想定した.また,システムの運用業務についても,開発者以外のだれもが担当できるように改良する必要があると判断した.これらの課題を解決し,CSRDAから公開されているものが本システムである. \section{職業・産業コーディング自動化システム} \subsection{職業・産業コーディング}最初に,職業・産業コーディングが対象とする質問と回答について具体的に説明する.職業・産業コーディングは,自由回答である「仕事の内容」(職業の場合)または「従業先の事業内容」(産業)を中心に,選択回答である「従業上の地位・役職」,「従業先の事業規模」から構成される質問群により収集される回答に対して実施される\cite{SSM96}.質問文は調査により多少異なるが,JGSSにおける質問文と回答の形式を表~\ref{table0}に示す\cite{JGSS05}\footnote{JGSSでは一つの質問としている「従業上の地位・役職」を,「地位」と「役職」の2つに分けて尋ねる調査も多い.}.表~\ref{table0}における選択回答の選択肢は注に示す通りである\footnote{選択肢も調査により異なるが,ここでは本システムで用いるJGSS-2003調査における配偶者職のものを示す\cite{JGSS05}.「地位・役職」は,「1:経営者・役員,2:常時雇用の一般従事者役職なし,3:同左職長、班長、組長,4:同左係長、班長、組長,5:同左課長、課長相当職,6:同左部長、部長相当職,7:同左役職はわからない,8:臨時雇用・パート・アルバイト,9:派遣社員,10:自営業主・自由業者,11:家族従業者,12:内職,14:わからない(選択肢13なし)」である.「従業先の事業規模」は,「1:1人,2:2〜4人,3:5〜9人,4:10〜29人,5:30〜99人,6:100〜299人,7:300〜499人,8:500〜999人,9:1,000〜1,999人,10:2,000〜9,999人,11:1万人以上,12:官公庁,13:わからない」である.本システムを利用する場合は,この選択肢に適宜合わせる必要がある.}.\begin{table}[t]\caption{質問文の例と回答の形式(JGSSの場合)}\label{table0}\input{04table01.txt}\end{table}職業・産業コーディングの例として,「仕事の内容」が「配車等を手配」,「従業先の事業内容」が「荷物をつみおろす業務等」,「従業上の地位・役職」が「2」,「従業先の事業規模」が「8」であるようなデータの場合,SSM職業コードは「563」(運輸事務員)が付与され\cite{Takahashi_et_al05c},SSM産業コードは「80」(運輸業)が付与される.なお,社会学においては職業と産業の両方をコーディングする場合が多いが,産業のデータ(「従業先の事業内容」「従業先の事業規模」)が収集されず,職業コーディングのみ実施される場合もある.このような場合,本システムは,それぞれを「無回答」「13」とした入力ファイルにより処理を行う.\subsection{変換を行うコードの種類}職業・産業コーディングにおいて本システムが変換するコードは,表~\ref{table1}に示す4種類で,いずれも現在の社会学で必要性が高いものである\footnote{社会学においては職業の方が産業より重要であるために,産業より細かい分類を行う.}.特に,SSM職業コードは,初回の1955年SSM調査以来,社会学における標準的なコードとして用いられている.表~\ref{table1}に示す小分類コードの上位には16の大分類がある(表~\ref{table22}参照).社会学の研究では,この大分類または4.2節で述べる別の種類の大分類レベルに小分類コードを統合して分析する場合が多い.\begin{table}[b]\caption{変換するコードの種類と個数}\label{table1}\input{04table02.txt}\end{table}\begin{table}[b]\caption{SSM職業コードにおける大分類と小分類の対応}\label{table22}\input{04table03.txt}\end{table}SSMコードは1995年に改定されて以来,コード体系は変えていないが,職業や産業を取り巻く環境の変化を反映するために,新規のコードが追加されている.例えば,SSM職業コードは,1995年調査で用いられた189個(表~\ref{table22}参照)が基本であるが,2005年SSM調査では既存のコードから700番台のコードを分化させ\footnote{「599」(会計事務員)から「701」(レジ・キャッシャー),「679」(大工、左官、とび職)から「702」(大工)を分化させた他に,これまでは情報不足のために「999」(不明)としていた中から,得られた情報を少しでも活かすために,「703」(どこで教えているかはわからないが教員)や「704」(何の製品かはわからないが製品製造作業者)なども分化させた.},2015SSM調査では800番台のコードを分化させた\footnote{「578」(女中、家政婦、家事サービス職業従事者)から「801(介護員、ヘルパー),「592」(その他のサービス職業従事者)から「802」(その他の医療福祉サービス職従事者)などを分化させた.}.国内の社会学ではSSM調査やJGSSで用いられるコードに倣うことが多いため,本システムでも2005SSM調査に合わせ,表~\ref{table22}に示したコードに700番台のコードを追加した193個のコードに分類する.コードの分化はSSM産業コードにおいても行われている\footnote{「90」(卸売・小売業、飲食店)から「91」(卸売)「92」(小売)「93」(飲食店)を分化させた他,「130」(情報・通信サービス業)や「170」(その他のサービス業)からも分化させたコードがある.}.\subsection{入力ファイルと結果ファイルの形式}入力データは,A列からF列までの各列がこの順に,「ID」「学歴」「従業上の地位・役職」「従業先の事業内容」「仕事の内容」「従業先の事業規模」であるCSV形式のファイルである(表~\ref{table2}参照).学歴は選択肢で収集される\footnote{学歴についても.本システムで用いるJGSS-2003調査における選択肢を示す\cite{JGSS05}.「1:旧制尋常小学校(国民学校を含む),2:旧制高等小学校,3:旧制中学校・高等女学校,4:旧制実業学校,5:旧制師範学校,6:旧制高校・旧制専門学校・高等師範学校,7:旧制大学・旧制大学院,8:新制中学校,9:新制高校,10:新制短大・高専,11:新制大学,12:新制大学院,13:わからない」である.}.\begin{table}[b]\caption{入力ファイルの例}\label{table2}\input{04table04.txt}\end{table}利用者は,この形式のファイルを用意すれば,表~\ref{table1}に示す4種類のコードのうち希望するコードを最大4種類まで自由に選択できる.入力ファイルの作成方法については,CSRDAのWebサイト\footnote{http://csrda.iss.u-tokyo.ac.jp/autocode-form.pdf}に詳細な説明が掲載されている.本システムでは,過去の調査等ですでにSSMコードが付与された事例に対し,このコードを利用して新たにISCOやISICを付与することも可能である.このため,表~\ref{table2}に示した入力ファイルの右列に「付与ずみのSSMコード」を追加したものも受け付ける.例えば,ISCOを希望する場合はG列にSSM職業コード,ISICを希望する場合はH列にSSM産業コードを入力すれば,3.7節で述べるように,システムはこのSSMコードを利用して処理を行う.本システムでは,結果ファイルとして,第3位までに予測したコードを提示したCSV形式のファイルをコードの種類ごとに出力する(表~\ref{table3}参照).表\ref{table3}において,rank1,rank2,rank3はそれぞれ「第1位に予測されたコード」「第2位に予測されたコード」「第3位に予測されたコード」を意味する.また,確信度は,システムが第1位に予測したコードに対する信頼度で,本システムでは,「A:人手によるコーディングは不要,B:できれば人手によるコーディングを行う方がよい,C:人手によるコーディングが必要」の3段階を出力する.確信度については3.8節で説明する.\begin{table}[t]\caption{結果ファイルの例(SSM職業コードの場合)}\label{table3}\input{04table05.txt}\end{table}\subsection{操作用の画面}図~\ref{fg2}は,本システムを稼働させたときに最初に表示される操作用画面である.実行を開始するには,この画面上で入力ファイルを指定し,変換を希望するコードのチェックボックスをクリックした後,Runボタンを押せばよい.図~\ref{fg3}は,SSM職業コードとISCOを選択した場合の例である.\begin{figure}[t]\noindent\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f1.eps}\caption{操作画面(開始時)}\label{fg2}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f2.eps}\caption{操作画面(入力ファイルとコードを指定)}\label{fg3}\end{center}\end{minipage}\vspace{1\Cvs}\end{figure}本システムは,図~\ref{fg3}に示すように,実行開始までは人間が操作するが,これ以降は結果ファイルを出力するまですべて人手を介さずにコンピュータが自動的に処理をする.結果ファイルは,SSM職業コード,ISCO,SSM産業コード,ISICの順に作成する.例えば,図~\ref{fg3}の場合は,SSM職業コードの結果ファイルを作成後,ISCOの結果ファイルを作成して処理を完了する.途中の処理状況は画面に表示される.その一部を図~\ref{fg5},図~\ref{fg6}に示す.\begin{figure}[t]\noindent\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f3.eps}\caption{処理状況の表示(ISCO処理中)}\label{fg5}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f4.eps}\caption{処理状況の表示(処理完了)}\label{fg6}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{24-1ia4f5.eps}\end{center}\caption{システム構成図}\label{fg1}\end{figure}\subsection{システム構成図と自動化の手法}本システムの構成を図~\ref{fg1}に示す.図~\ref{fg1}より明らかなように,本システムでは,すべてのコードに対して,直接または間接的にルールベース手法とSVMを組み合わせた手法を適用する.直接的にルールベース手法とSVMを組み合わせる手法はSSMコードに適用するもので,ルールベース手法により決定されたコードを直接,SVMの素性として利用する.ISCOとISICにはルールベース手法がないためにこの手法は適用せず,SVMの素性として,ルールベース手法とSVMを組み合わせた手法により予測されたSSMコードを利用する.このため,ISCOやISICも間接的にルールベース手法とSVMを組み合わせた手法を適用している.ただし,例外として図~\ref{fg1}には示していないが,過去の調査等ですでにSSMコードが付与された事例にISCOやISICを付与する場合はこのコードを利用するため,ルールベース手法の適用は行わない.自動化の手法について,次節でルールベース手法\cite{Takahashi00}について述べた後,3.7節でこれをSVMに組み合わせる方法\cite{Takahashi_et_al05c}について述べる.\subsection{ルールベース手法}\subsubsection{格フレームの概念による職業・産業データの理解}職業・産業コーディングにおいて最も重要な情報は,自由回答の記述内容である.職業コードや産業コードの定義\cite{SSM95}から,職業データは個人,産業データは従業先の事業という違いはあるが,いずれも基本的には動作の違いにより大きく分かれ,さらに,その動作が何を対象とするのか,どこで行われるのかにより細かく分類されると解釈できる.したがって,本システムでは自由回答に記述された内容すべてを解析せず,分類に必要なものとして,「格フレーム」の概念に基づく情報のみを抽出する.最初に,入力ファイル中の自由回答に対して形態素解析\cite{Kurohashi98}を行う.その結果から,職業・産業コーディングにおいて不要であると判断できる語を削除する.具体的には,品詞が「形容詞」,「副詞」,「接頭辞」,「接尾辞」である語および原形が「等」,「他」,「関係」,「仕事」,「作業」などの語(118種類)である.次に,動作を表す語(本稿ではこれを「述語」とよぶ)を抽出するが,本システムでは構文解析を行わずに,単純に回答の末尾にある語を述語とする.このため,本システムでは,動詞だけでなく,サ変名詞や普通名詞も述語として扱われる\footnote{1995SSM調査データにおいて無作為抽出した1,000サンプルの場合,「仕事の内容」における末尾の語の品詞は,動詞($6\%$),サ変名詞($51\%$),普通名詞($39\%$)であった.普通名詞は,例えば,「医師」,「薬剤師」のように職業名が多いが,「米」,「野菜」のように生産物の場合もある\cite{Takahashi00}.}.以下では,職業を例に述べる.述語には,述語だけでSSM職業コードが決定できるものと,述語が必要とする格とその格が取る語(本稿ではこれを「名詞」とよぶ)が必要なものがある.前者の例は,「薬剤師」や「栄養士」のような職業名が多く,述語のみでSSM職業コード「510」(薬剤師)や「513」(栄養士)が付与される.後者の例は,「製造」や「教える」で,それぞれ「何を」や「どこで」の内容によりSSM職業コードが異なるため,格と名詞が必要となる.この場合,述語の前に助詞(「を」や「で」)があれば,これを手がかりにして名詞を抽出し,<述語,格,名詞>の三つ組を生成する.例えば,述語が「製造」の場合,述語の前に助詞「を」があればこれを抽出した後,「を」の直前にある名詞も抽出する.同様に,「教える」の場合は,述語の前に助詞「で」があればこれを抽出し,「で」の直前にある名詞も抽出する.本システムでは,前者の場合も,格と名詞を抽出する必要のない三つ組として扱う.本システムは,回答から複数の述語が抽出されたり,回答の途中に「。」があると,複数の文(単語のみの場合もある)が存在すると判断し,各文に対してそれぞれ三つ組を生成する.例えば,「仕事の内容」が「野菜の生産と販売」や「野菜を生産する。販売もする」である場合,いずれも,最初の文からは<生産,ヲ,野菜>,2つめの文からは<販売>なる三つ組を生成する.また,1文であっても,「米や野菜を作っている」のように,複数の名詞が並列で表現されている場合には,<作る,ヲ,野菜>,<作る,ヲ,米>のように複数の三つ組を生成する.最後に,このようにして生成された三つ組に対し,あらかじめ三つ組と職業コードのペアにより構築しておいたルールセットを探し,マッチするものがあれば該当するSSM職業コードを付与し,なければ不明を意味する「999」を付与する.三つ組が複数ある場合には,その各々に対してこの処理を行う.このルールを本稿ではルール$\alpha$とよぶ.ルール$\alpha$は次の形式で表現されるが,左辺において,格と名詞が省略される場合もある.また,実際には,ルール$\alpha$では,述語ではなく,3.6.2節で述べる述語コードを用いるが,説明の都合上,ここでは述語を用いて表現した.\vspace{1\Cvs}ルール$\alpha$:<述語,格,名詞>$\Rightarrow$<SSM職業コード>\vspace{1\Cvs}例えば,「仕事の内容」が「アルバイトでケーキを作っている」の場合,<作る,ヲ,ケーキ>を抽出し,ルール$\alpha$<製造,ヲ,菓子>$\Rightarrow$<644>により,SSM職業コード「644」(パン・菓子・めん類・豆腐製造工)を付与する.このとき,「作る」を「製造」,「ケーキ」を「菓子」とみなすことができるのは,次節で述べる「述語シソーラス」や「名詞シソーラス」を利用するためである.同様に,「仕事の内容」が「大学で哲学を教えている」であれば,<教える,デ,大学>を抽出し,ルール$\alpha$<教える,デ,大学>$\Rightarrow$<524>により,SSM職業コード「524」(大学教員)を付与する.ルール$\alpha$は,文献\cite{SSM95}に記載された定義や例に基づいて人手で生成した.その後,自動化システムが処理した事例から得られた情報を追加した.その際,ルール$\alpha$の右辺に2つ以上のコードを記述したものも生成した.例えば,「仕事の内容」に「営業」としか記述されていない場合,内勤の営業事務(「557」)であるのか外回りの営業(「573」)であるのかは判断できないが,どちらかである可能性が非常に高い.そこで,少しでもコーダの参考となるように,実際には存在しないが,「5570573」(営業・販売事務員または外交員(保険・不動産を除く))なるコードを生成した\footnote{同様の理由により,複数のコードから構成されるものとして,「5030507」(機械・電気・化学技術者またはその他の技師・技術者)や「6070686」(自動車運転者または運搬労働者)など計10個を生成した.}.「従業先の事業内容」からSSM産業コードを決定するためのルール(産業ルール)もルール$\alpha$と同様の形式であり,ルール$\alpha$と同様の手続きにより生成した.現在,ルール$\alpha$は4,224個.産業ルールは948個存在する.\subsubsection{シソーラスによる語の拡張}社会の変化に伴い,「仕事の内容」や「従業先の事業内容」には多様な語が記述される.そこで,本システムでは,ルール$\alpha$は,出現するすべての語ではなく代表的な語により生成し,ルール$\alpha$で用いた述語や名詞に対してそれぞれシソーラスを構築することで対応することとした.述語シソーラスは,語や品詞が異なっていても,職業や産業コードに分類する観点からは同一視できる語同士に同一の述語コードを付けてグループ化したものである.例えば,「製造」(サ変名詞),「製作」(サ変名詞),「作る」(動詞)にはすべて同一の述語コード「3861」を付ける.3.6.1節の例において,「作る」を「製造」と同一視できたのはこのためである.現在,述語シソーラスの述語コードは2,880個,異なり語は10,871個であり,1つの述語コードは平均4個の異なり語をもつ.名詞シソーラスは,ルール$\alpha$で用いた名詞を見出し語とし,職業や産業コードに分類する観点からはこの見出し語と同一視できる語とともにグループ化したものである.見出し語は,「自動車1」や「電気機械器具」のように,複数の形態素に切り出される語であってもよいが,見出し語以外の語は,回答とのマッチングを行うために,形態素が1個である必要がある.1つのグループにk個の語が含まれる場合,名詞シソーラスは次の形式で表現される($1<i<k$).\vspace{1\Cvs}(見出し語\quad語1\quad・・・\quad語i\quad・・・\quad語k)\vspace{1\Cvs}3.6.1節の例で,「ケーキ」を「菓子」とみなすことができたのは,「ケーキ」が見出し語「菓子」のグループに含まれるためである.名詞シソーラスでは,同じ語が別のグループに出現する場合もある.例えば,「菓子」は先の例では見出し語であったが,見出し語「小売店」のグループにおいては,見出し語以外の語としても出現する.現在,名詞シソーラスのグループは331個,見出し語以外の語は延べで3,994個であり,1つのグループに平均12個の語が含まれる.2つのシソーラスによりルール$\alpha$で用いられた語が拡張され,ルール$\alpha$の適用範囲が広がる.例えば,「コンピュータの製造」と「テレビを作る」は,いずれも述語コードが「3861」で,名詞である「コンピュータ」と「テレビ」のいずれも名詞シソーラスにおける見出し語「電気機械器具」のグループに含まれるため,どちらにも<3861,ヲ,電気機械器具>$\Rightarrow$<634>なるルール$\alpha$がマッチし,同一のSSM職業コード「634」(電気機械器具組立工)が付与される.以上に述べたルール$\alpha$におけるシソーラスによる語の拡張は,産業ルールにおいても同様に適用される.\subsubsection{職業コードの修正}職業コーディングにおいては「仕事の内容」の記述内容が重要であるが,選択回答である「従業先の事業規模」や「地位・役職」,さらには「従業先の事業内容」の情報も用いて総合的に判断される.したがって,ルール$\alpha$によって付与されたコードの中で,これらの情報により影響を受けるものに対しては,ルール$\alpha$の適用後にチェックを行って最終的なコードを決める必要がある.このチェックのためのルールを,本稿ではルール$\beta$とよぶ.ルール$\beta$を必要とするコードは,管理職,自営業,建設関係に多い.以下では,SSM職業コードを区別するために,ルール$\alpha$によって付与されたものを「SSM職業コード(ルール$\alpha$)」,ルール$\beta$のチェックを受け,ルールベース手法として最終的に決定されたものを「SSM職業コード(ルールベース)」とよび,「SSM職業コード」とよぶのは本システムにより最終的に決定されたものとする.SSM産業コードにおいても同様に,産業ルールにより決定されたものを「SSM産業コード(産業ルール)」とよぶが,SSM産業コードではルール$\beta$に該当するものがないため,これがそのまま「SSM産業コード(ルールベース)」となる.ルール$\beta$は次の形式で表現される.左辺の条件のすべてが必要ではない場合もある.\vspace{1\Cvs}ルール$\beta$:<SSM職業コード(ルール$\alpha$),従業上の地位・役職,従業先の事業規模,\\\qquad\qquad\qquad\qquad\quad従業先の事業内容,SSM産業コード(産業ルール)>\\\qquad\qquad\qquad\qquad\quad$\Rightarrow$<SSM職業コード(ルールベース)>\vspace{1\Cvs}ルール$\beta$の適用例として,管理職(「545」〜「553」)の場合を示す.管理職は,「従業上の地位・役職が常時雇用の課長以上」かつ「従業先の事業規模が30人以上」を条件とするため\cite{SSM96},SSM職業コード(ルール$\alpha$)により管理職が付与されたコードに対してはルール$\beta$によるチェックを行う.条件を満たさない場合は,SSM産業コードを参照して変更する\footnote{例えば,産業コードが「92」(小売業)であれば「566」(小売店主),「130」(情報・通信サービス業)であれば「506」(情報処理技術者)に変更する.もしルール$\beta$におけるいずれの産業コードともマッチしない場合は,「554」(総務・企画事務員)に変更する.}.これとは逆に,ルール$\alpha$ではコードが特定できずに「999」とされた場合に,ルール$\beta$により管理職の条件がチェックされて,該当する管理職コードが付与される場合もある.ルール$\beta$は文献\cite{SSM96}にしたがって人手で生成した.ルール$\beta$は43個で,その内訳は,管理職14個,自営9個,建設関係7個,その他13個である.ルール$\beta$の限界は,形式化できるものしか扱えないことである.実際には,コードの決定にあたっては,回答者の性別や学歴,本人の場合はこれまでの職歴,さらに父職,配偶者職などのように回答者以外の職業や産業の情報を含め,収集されたあらゆる情報を利用する場合が多く,これらをすべて反映したルール$\beta$を生成することは非常に困難である.また,調査によりルール$\beta$を重視する程度に違いがある場合もある\footnote{例えば,2005SSM調査では,できる限り管理職以外のコードを付与するという方針があり,管理職に関してはルール$\beta$による修正を適用しない場合も多かった.}.これにより,熟練コーダや調査が異なる場合は,最終的なコードを決定するためのルールに一貫性が欠如し,最終コードに揺れが生じる可能性がある.\subsection{ルールベース手法とSVMの組み合わせ手法}本システムにおけるルールベース手法では,自由回答の内容を格フレームで表現してコードを決定するルールが必要になるが,回答の中にはこの形式で表現できないものも存在する\footnote{1995SSM調査データにおいて無作為抽出した1,000サンプルの場合,約$20\%$がこれに該当した\cite{Takahashi00}.}.例えば,「仕事の内容」に商品名や生産物のみが記述された場合,本システムでは述語として扱われるが,動作を表すものではない.また,コードの修正方法もルールとして表現することが困難な場合があった.これらはシステムの性能を低下させる要因になると考えられる.さらに,自由回答に出現する用語や変換するコードは時代とともに変化するため,ルールベース手法においては,シソーラスやルールのメンテナンスを随時行わなければならないが,これを開発者以外の人間が長期間継続することは,時間的にも労力的にも負担となることが予想される.以上の理由により,ルールベース手法以外の方法を適用する必要があると考えた.SVMを選択した理由は,文書分類において分類性能の高さで評価が高かった\cite{Joachims98,Sebastiani02}ためである.本システムが対象とする自由回答は,文書分類が対象とする文書に比較すると非常に短いという懸念はあったが\footnote{JGSS-2000,JGSS-2001,JGSS-2002データセットにおける「仕事の内容」と「従業先の事業内容」の語数は,平均で約2〜3語である.また,文字数も,通常のテキスト分類で対象とされる新聞記事は,CD-毎日新聞2000データ集の場合,1記事平均550文字であるのに対し,前述のデータセットにおける「仕事の内容」は,平均で15文字程度である\cite{Takahashi_et_al05c}.},職業・産業コーディングは調査が完了するたびに実施されてコードが決定されるため,これを正解とみなすことで,今後も訓練事例の蓄積が容易であるという利点を考慮した.なお,職業・産業コーディングは多値分類のタスクであるため,2値分類器であるSVMをone-versus-rest法\cite{kressel99}により多値分類器に拡張した.SSM職業コードを対象に,SVMによる方法をルールベース手法と比較し,さらに,ルールベース手法とSVMを組み合わせた手法(ルールベース手法により得られた結果をSVMの素性として活用する方法)とも比較した結果,ルールベース手法とSVMを組み合わせた手法,SVMによる手法,ルールベース手法の順に分類精度が高かったため\cite{Takahashi_et_al05c},本システムでもこの組み合わせ手法を適用する.SSM産業コードについては実験を行っていないが,SSM職業コードと同様の効果が得られると考え,同様の組み合わせ手法を適用する.表~\ref{table4}にコードごとの自動化の手法とSVMで用いる素性を示す.本稿では,「仕事の内容」「従業先の事業内容」「地位・役職」を基本素性とよぶ.「仕事の内容」と「従業先の事業内容」はいずれも自由回答であるために,形態素解析により分割された形態素を素性とするが,品詞付き単語と素性番号を対にして生成した素性辞書により素性番号に変換したものを用いる.素性辞書は現在,15,069語から構成されるため,素性番号の最大値は15069である.回答に出現した単語が素性辞書に存在しない場合の素性番号は20000にする.また,素性として用いる語が「仕事の内容」と「従業先の事業内容」のどちらに出現したかを区別するために,「仕事の内容」に出現したものは素性番号をそのまま用いるが,「従業先の事業内容」に出現したものは素性番号に200,000をプラスした番号を用いる.\begin{table}[t]\caption{自動化の手法とSVMで用いる素性}\label{table4}\input{04table06.txt}\vspace{4pt}\hangafter=1\hangindent=1zw\leavevmode\hboxto1zw{*}過去の調査等ですでにSSMコードが付与されている場合は,本システムにより予測されたコードではなく付与ずみのコードを用いる.\end{table}ISCOやISICにおいて,SVMの素性として用いるSSMコードはルールベース手法とSVMの組み合わせ手法により第1位に予測されたコードである.これは,ISCOにおいてSSMコードを利用する方法として,第1位から第3位までに予測されたコードをさまざまに用いた実験を行った結果,この方法がもっとも正解率が高かったためである\cite{Takahashi08}.ただし,前述したように,もし過去の調査等ですでに付与されたSSMコードが入力されていれば,予測されたコードではなくこのコードをSVMの素性として用いる.ISICについては実験を行っていないが,ISCOの場合と同様の効果が得られるものと考え,ISCOと同様の方法を適用する.ISCOでは,SVMの素性として「学歴」も用いる.この理由は,ISCOではコードの決定時に,職業の遂行に必要なスキルレベル(=教育・職業資格)が用いられるが,我が国ではこれがデータとして収集されないため,スキルレベルが国際標準教育分類(ISCED)と対応することや学歴を判断基準とする点\cite{Tanabe08}に注目し,学歴で代用可能であると判断したためである.本システムにおいて4種類のコードすべてに変換する場合は,STEP1〜STEP6の順に連続処理を行う.また,SSM職業コードのみに変換する場合はSTEP1,STEP2,STEP3,SSM産業コードのみの場合はSTEP1,STEP2,STEP5,ISCOのみの場合はSTEP1,STEP2,STEP3,STEP4,ISICのみの場合はSTEP1,STEP2,STEP5,STEP6の順に実行する.ただし,ISCO(またはISIC)のみに変換する場合に,すでに付与されたSSMコードが入力されている場合は,STEP2とSTEP3(またはSTEP2とSTEP5)は省略し,STEP4(またはSTEP6)ではこのSSMコードを用いる.\vspace{1\Cvs}\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP1\hss}職業・産業データに対する形態素解析\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP2\hss}ルールベース手法の適用により,SSM職業コード(ルールベース)とSSM産業コード(ルールベース)を決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP3\hss}基本素性に,STEP2により決定されたSSM職業コード(ルールベース)を追加してSVMを適用し,SSM職業コードを第1位から第3位まで決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP4\hss}基本素性に,学歴とSTEP3により決定されたSSM職業コード(第1位のみ)を追加してSVMを適用し,ISCOを第1位から第3位まで決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP5\hss}基本素性に,STEP2により決定されたSSM産業コード(ルールベース)を追加してSVMを適用し,SSM産業コードを第1位から第3位まで決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP6\hss}基本素性に,STEP5により決定されたSSM産業コード(第1位のみ)を追加してSVMを適用し,ISICを第1位から第3位まで決定\subsection{確信度の付与}SVMは,予測したコードとともにスコア(分離平面からの距離)も出力するため,これを利用して,予測したコードのクラス所属確率を推定することが可能である\cite{Takahashi_et_al08}.そこで,この推定値を予測したコードに対する信頼度として利用することを考えた.ただし,本システムでは厳密な確率値までは必要としないため,文献\cite{Takahashi_et_al08}における提案手法を特徴づける考え方である「複数のスコア利用」に基づく簡便な方法を提案し,3段階の確信度として付与することとした\cite{Takahashi_et_al13a}.各確信度の決定条件は次の通りである.ただし,$rank1$,$rank2$は,それぞれSVMにより第1位,第2位に予測されたコードにともなって出力されるスコアを示す.$\alpha$は閾値で,$rank1$と$rank2$の差を示す.$\alpha$を大きく設定するほど予測されたコードのクラス所属確率が高まるため\cite{Takahashi_et_al08},確信度Aの信頼性は$\alpha$を大きく設定するほど向上することになる.\vspace{1\Cvs}A:$rank1>0$かつ$rank2<=0$,$rank1-rank2>\alpha$B:$rank1>0$かつ$rank2<=0$,$rank1-rank2<=\alpha$C:A,B以外の場合\vspace{1\Cvs}2節で述べたように,確信度付与の目的は,コーディング結果のすべてに対して再チェックを行う熟練コーダの作業量を削減するためである.したがって,特に,人手によるコーディングを不要とする確信度Aに注目する必要があり,確信度Aが付与された事例のカバー率(確信度が付与された評価事例数を評価事例数で割った値)が高いことが望ましい.しかし,この場合の正解率(正解した評価事例数を評価事例数で割った値\cite{Takamura10})も,熟練コーダが作業不要であることを納得する程度に高い値である必要がある.このように,確信度Aにおいては,正解率とカバー率はいずれも高い値である必要があるが,両者はトレードオフの関係がある.本システムでは,職業・産業コーディングの目的が研究のための基礎データを提供するものであることから,カバー率を考慮しながらも正解率を優先し,その値を熟練コーダの要望にしたがって$95\%$以上とした.なお,本稿では,「正解」を最終的に決定されたコードとするため,本稿における正解率は最終コードとの一致率である.閾値$\alpha$を決定するために,SSM職業コードについて2005SSM調査データセット(16,083事例)を用いた3分割交差検定による実験を行った.図~\ref{fg7}は,閾値$\alpha$を1から4まで変化させたときの確信度Aにおける正解率とカバー率の状況を示したものである\cite{Takahashi_et_al14}.X軸が$\alpha$,Y軸が正解率とカバー率を示す.図~\ref{fg7}より,正解率が$95\%$以上であるのは,$\alpha=3$と$\alpha=4$の場合である.両者を比較すると,$\alpha=4$の方が正解率が$97.5\%$と高いが,カバー率が約$10\%$と低く,$\alpha=3$では,$\alpha=4$の場合より正解率は1.7ポイント劣るが,カバー率は18.2ポイント向上して$28.9\%$となる.これより,本システムでは最適な閾値として$\alpha=3$を選択した.\begin{figure}[t]\begin{center}\includegraphics{24-1ia4f6.eps}\end{center}\caption{閾値$\alpha$の変化による確信度Aが付与された事例の正解率とカバー率}\label{fg7}\end{figure}実際には,確信度は上記の目的だけでなく,一般コーダが自動コーディングの結果を参考にする際の判断基準としても利用されるようになったため,確信度Aだけでなく,確信度Bや確信度Cについても,妥当性を調査しておく必要が生じた.確信度を一般コーダの判断基準として用いるためには,カバー率ではなく正解率に注目する必要がある.前述の実験において閾値$\alpha=3$とした場合,確信度Bの正解率は$71.9\%$(カバー率は$47.8\%$),確信度Cの正解率は$35.8\%$(カバー率$23.3\%$)であった.これより,$\alpha=3$は,確信度B,確信度Cに対しても妥当な閾値であると判断した. \section{システムの評価} 一般コーダの正解率は,コーダやデータの違いにより差があるが,記録が残されている6つの調査(SSM職業コード)においては$68.8\%$から$80.0\%$で,平均は約$75\%$であった\cite{Takahashi02a}.コーダに対する有効な支援を行うにはこの値を上回る必要があるため,本システムにおける正解率の目標を,いずれのコードも$80\%$に設定する\footnote{経験上,ISCOやISICはSSMコードより困難なタスクであると認識されているが,目標値は高めに設定した.}.また,確信度ごとの正解率は,確信度Aでは$95\%$,確信度Bでは一般コーダの平均値$75\%$を目標とする.システムの評価実験では,まず,コードの種類ごとの正解率と確信度付与の有効性を報告した後,処理時間についても報告する(実験1).次に,視点を変え,実際に本システムを利用する社会階層分野の研究者による評価について簡単に報告する(実験2).\subsection{実験1}実験は現実の場面を想定し,交差検定ではなく,評価事例を訓練事例より新しいデータセットや別の調査により収集されたものを用いた(表~\ref{table5}参照)\footnote{ISCOやISICは2005年SSMデータセット以降に用いられるようになり,JGSS-2005以前のデータセットには付与されていないため,2005年SSMデータセットを訓練事例とし,JGSS-2006データセットを評価事例とした.}.その際,4種類のコード間における結果を比較するため,すべてのコードが付与された「本人現職」を用いた.「本人現職」は社会学においてもっともよく用いられる変数であるが,新しい仕事内容が新しい用語により表現されるケースが多いため,他の場合(「本人初職」や「父職」など)より正解率が低い傾向がある.\subsubsection{正解率}コードの種類別の正解率(第3位に予測されたコードまで含む)を表~\ref{table6}に示す.表中,ISCO*とISIC*は,SVMの素性としてルールベース手法による結果ではなく,過去の調査等ですでに付与されたSSMコードを用いた場合を表す(以下,同様である).\begin{table}[b]\caption{コードの種類別訓練事例と評価事例}\label{table5}\input{04table07.txt}\end{table}\begin{table}[b]\caption{正解率(第3位に予測されたコードまで含む)}\label{table6}\input{04table08.txt}\end{table}SSMコードでは,2種類の評価事例のいずれにおいても,職業コードは約$80\%$,産業コードは約$90\%$で目標値に達しており,安定している.ISCOやISICは,SSM職業コードやSSM産業コードよりそれぞれ約8ポイント,約10ポイント低いが,ISICは目標値に達している.また,ISCOやISICにおいてすでに付与されたSSMコードを利用した場合は,いずれもこの値より約5ポイントずつ高く,付与ずみのSSMコードを利用することは有効である.ただし,ISCOはこの場合も目標値に達しておらず,SSM職業コードより約4ポイント低い.ISCOやISICの正解率ががSSMコードより低い理由としては,分類クラスの数が多く困難なタスクであることと,訓練事例として用いられるデータの蓄積が不足していることが考えられる.\subsubsection*{SSM職業コードの状況}社会学でもっとも関心の高いSSM職業コードについて,JGSS-2006データセットを用いてより詳細に調査する.このとき,正解とされるコードごとの正解率は,再現率(注目した正解コードの事例数のうち,システムが正解した事例が占める割合)を計算していることになる.本システムで用いるSSM職業コードは全部で193個であるが,正解として本データセットに出現したコードは150個($77.7\%$)であった.この中で,正解率が$100\%$のコードは39個($26\%$)で,表~\ref{table22}に示す大分類では専門・技術が多く,$0\%$のコードは12個($8\%$)で製造が多かった.ただし,これらはいずれもコードの出現度数が非常に少なく,特に正解率が$100\%$のコードはすべて頻度15以下,$0\%$のコードもすべて頻度7以下で,合計しても178($8\%$)で,全体に与える影響は大きくない.そこで,以下では,正解コードの度数が全体の$1\%$(頻度22)以上の31個のコードについて調査する.これらは出現したコードの$21\%$を占め,累積度数は1,499($68\%$)である.\begin{table}[b]\caption{SSM職業コードにおける正解率のベスト10とワースト10(第3位に予測されたコードまで含む)}\label{table17}\input{04table09.txt}\end{table}まず,表~\ref{table17}に正解率のベスト10とワースト10を示す.正解率が高いものはサービス,農林,専門・技術,販売,低いものは労務や建設が多いことがわかる.次に,本システムが間違えた状況を調査する.間違い方には,正解がコードXであるのに本システムがX以外のコードを付与する場合と,正解がX以外のコードであるのに本システムが間違えてコードXを付与する場合がある.前者の結果を表~\ref{table15},後者の結果を表~\ref{table16}に示す.ただし,全体に及ぼす影響を考慮し,間違えた事例数が全体の1割(頻度22)以上のコードに限定した.いずれの表においても,コードの後に,本システムが間違えた事例数をカッコ内に示す.また,最右欄においてコード名を示していないものは,間違えた事例数が1のコードである.\begin{table}[b]\caption{正解コードからみた不正解の状況(SSM職業コード)}\label{table15}\input{04table10.txt}\end{table}\begin{table}[b]\caption{本システムのコード付与からみた不正解の状況(SSM職業コード)}\label{table16}\input{04table11.txt}\end{table}不正解がもっとも多かったのは,正解である「554」を他のコードに間違えたり(表~\ref{table15}参照),他のコードを「554」に間違える(表~\ref{table16}参照)場合である.具体的には,「554」を販売や管理に間違えたり,「554」と同じ事務の「556」「557」「559」や専門・技術や製造を「554」に間違えている.次に多いのは,「557」と「573」を相互に間違える場合である.さらに,事務を「569」(販売店員)や「550」(会社・団体等の管理職員)に間違える場合も多い.事務は,表~\ref{table17}によると,「557」以外は特に正解率が低いわけではないが,事務同士や販売または管理との間で間違うケースが多い.ここで,不正解であった全467事例を調査した結果,誤りの原因は次の9種類に分類できた.\begin{itemize}\item入力データに誤りがある(誤字や脱字など)(A)\item文末の語を述語とする方法も含め,格フレームの形式では有効な情報を抽出できない(B)\itemルール$\alpha$が不十分である(C)\itemルール$\beta$が不十分である(「従業先の事業内容」を参照していないなど)(D)\itemシソーラスが不十分である(E)\item正解がルール$\beta$を適用していない(F)\item回答に複数の職業内容が記述された場合に,本システムが正解が異なるものに決定(G)\item回答の情報が不足している(正解が曖昧)(H)\item正解が誤っている可能性がある(I)\end{itemize}\begin{table}[b]\caption{誤りの原因別の回答例と決定されたコード(SSM職業コード)}\label{table18}\input{04table12.txt}\end{table}1つの事例に誤りの原因が複数含まれるものもあるが,表~\ref{table18}に誤りの原因別に回答例を示し,誤りの原因について順に分析する.原因Aは,人間であれば理解可能でも,コンピュータは正しい処理が行えない.本システムの場合も最初の形態素解析で失敗してしまうため,後の処理が正しく行えない.例では,もっとも重要な述語「評価」が「表価」と誤入力または調査票に誤記入されたため,マッチするルールが見つからず,また,SVMにおける素性としても「評価」がないために,不正解となった.社会調査においては,メイキング防止のため,調査票の記入通りに入力を行う.したがって,調査員による誤記入が予想できる場合でもそのまま入力されるため,入力ミス以外に調査票における誤字や脱字も正解率を低下させる.調査票記入における別の問題として,調査員が,単語の一部またはすべてをひらかなやカタカナで記入する場合も多い(例えば,「き械」「キカイ」など)\footnote{この原因により形態素解析を失敗するケースを減らすため,本システムでは,1,481語から構成される置換表(CSV形式)を用意し,形態素解析の前にこの表を参照した置換を自動的に行っている.これにより,例えば,「事ム」は「事務」に,「アツエン機」は「圧延機」に置換されるが,すべての表現をカバーすることはできない.}.原因Aは人手によるコーディングでは大きな問題とはならないために,社会学研究者からの理解が得にくいが,コンピュータによる自動処理を行う本システムにとっては大きな問題であり,今後,この問題に取り組む必要がある.原因Bの最初の例では,<組み立て,ヲ,部品>なる三つ組を生成するが,この名詞が意味する範囲が広く,職業の特定ができない.もし,「部品」の前に位置する「電化製品」が抽出できれば,ルールベース手法の段階でコードが決定でき,SVMの素性として有効に作用することが期待できる.このように,名詞が「部品」や「製品」のような場合には,その前の語を抽出する必要がある.二番目の例では3個の三つ組を生成するが,いずれも「999」のため,SVMの素性として有効ではない.このように,複雑な構成の文に対しては,単純に文末の語を述語とする三つ組を生成する方法では,有効な情報の抽出ができない場合がある.逆に,三番目の例は非常に単純で1個の単語から構成される文であるが,この語が動作を表すものではないために述語コードを付与できず,この場合も文末の語を述語とする方法では対応できない.原因Cの例では,<検査,ヲ,パン>なる三つ組を生成するが,これを「644(パン・菓子・めん類・豆腐製造工)」に結びつけるルール$\alpha$が存在しないため,「999」となり,不正解につながった.原因Dの例はいずれも,「仕事の内容」からは「554」でよいが,正解では「従業先の事業内容」を参照し,より妥当なコードに修正されている\footnote{正解は順に,「559」(会計事務員),「556」(出荷・受荷事務員),「574」(保険代理人・外交員)である.}.ルール$\beta$に,SSM職業コード(ルール$\alpha$)が「554」の場合も追加する必要がある.原因Eの例では,形態素解析により切り出された結果,述語が「上絵」,名詞が「紋章」となるが,どちらもシソーラスにないために「999」となり,不正解につながった.原因C,D,Eについては,ルール$\alpha$,ルール$\beta$,述語シソーラス,名詞シソーラスの改善が有効である.原因Fの最初の例は,ルール$\alpha$により管理とされたが,ルール$\beta$\footnote{表~\ref{table18}に示していないが,「従業先の事業規模」が「2人〜4人」のためにルール$\beta$による修正が必要と判断され,「従業先の事業内容」が「事務所」であることが参照された.}により「554」と修正され,SVMによる結果も「554」となった.正解でも,「従業先の事業規模」により修正が必要とされたが,「従業先の事業内容」ではカッコ内の「電子機器の部品を作る会社」に注目して「503」(機械・電気・化学技術者)としたため,不正解となった.二番目の例は,ルール$\alpha$により管理(「548」(会社役員))とされ,ルール$\beta$における管理の条件を満たすために修正されず,SVMによる結果も「548」であった.しかし,正解ではルール$\beta$を適用せず,「従業先の事業内容」が「建設住宅コンサルタント会社」であることに注目して「541」(経営コンサルタント)とされた.このように,正解においては,特に管理の場合にルール$\beta$を適用する場合としない場合があり\footnote{文献\cite{SSM95}に,ルール$\beta$は原則であるとの説明がある.},コーダの間でも混乱が生じている.人間にとってもコンピュータにとっても,管理コードの付与方針を整理しておく必要がある.原因Gはしばしば起きるもので,今回も全不正解事例のうち125事例($27\%$)が該当した.ただし,複数の内容を記述した全384事例($17\%$)においては正解が259事例で,不正解の事例の2倍である.複数の内容が記述された場合,どれを正解とするかについては,重要なものから記述されるとの考えから,先に記述されたものを正解とすることが多いが,本システムは記述された順番の情報を用いていないため,結果が正解と異なる場合もあり得る.また,「2つ以上の勤務先で異なる仕事に従事している場合には,就業時間の長い仕事,収入の多い仕事の順であり,1つの勤務先で異なる仕事に従事している場合には,就業時間の長い仕事,生産・製造作業,主要工程または最終工程という順に決定する.」なるルール\cite{SSM95}が適用されることもあり,この中では,「生産・製造作業が他より優先される」はルール化が可能である.原因Hは,コンピュータだけでなく人間においても誤りの原因となる.これは,回答者も調査員も,職業分類の決め手となる情報についての知識が不足するために生じる場合(二番目,三番目,四番目の例)と,回答者が情報を開示したくない場合(最初と最後の例)がある.原因Hの場合,コーディング現場において可能な限り「999」や「689」(分類不能の職業)を付与しない方針が強く要請されると,正解を誤ってしまう危険性がある.回答における情報不足の問題については,原因Aの問題とも併せ,データの質向上というより一般的な観点から,新たな課題として取り組む予定である.原因Iは,現職までの職歴データや他の情報も考慮された結果,このような正解となった可能性も否定できないが,「本人現職」からは正解が誤っており,本システムの結果が不正解であるとは言い切れない.正解が誤っているという状況は,新しい職業が登場した当初に解釈が分かれ,その時点で正解としたものが後に定められるコード(新規に生成される場合もある)と異なる場合にも生じる.このため,訓練事例は適宜見直し,必要に応じて正解を更新する必要がある.ところで,表~\ref{table18}における例では,本システムの結果がルールベース手法による結果と一致する場合が多かった.そこで,全事例における両者の一致率を調査した結果,約$80\%$(1,811事例)であった.両者における正解・不正解の関連を表~\ref{table8}に示す.カッコ内の数値は全体に占める割合である.ここで正解としたのは,ルールベース手法では複数のコードが付与された場合はその中に,本システムでは第3位までのコードの中にそれぞれ正解が含まれる場合である.\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(SSM職業コード)}\label{table8}\input{04table13.txt}\end{table}表~\ref{table8}より,ルールベース手法の正解率は$60.7\%$であるが,ルールベース手法で不正解となった事例の半数がSVMの適用により正解となり,特に,ルールベース手法でコードが決定できなかった事例の約7割が正解となったため,本システムの正解率は18ポイント上昇した.これより,両手法を組み合わせる手法の有効性が再確認できた.一方で,ルールベース手法で正解であった事例のうち,SVMの適用により不正解となったものは約$2\%$しかなく,ルールベース手法の正解率を向上させることは,本システムの正解率向上に有効であると考えられる.\subsubsection*{ISCOにおける追加実験}ISCOにおける正解率の向上を目的に,ISCOのコード体系が階層構造であることを利用した追加実験を行った.まず大分類(10個)を学習させた後に,大分類ごとに小分類を学習する方法の有効性を実験した.第1位に予測されたコードについて,階層構造を利用した方法の有効性を調査した結果,効果あり5個,効果なし3個,変化なし1個であった\footnote{ただし,大分類が「0(Armedforces)」の場合は小分類が存在しないため除いた.}.次に,大分類ごとに,この方法と本システムにおける手法(直接,小分類を学習する)のうち正解率の高い方を選択して全体の正解率を算出したが,本システムにおける手法より0.5ポイントしか向上せず,両者を組み合わせた方法の有効性も認められなかった.ISCOやISICは,今後,国際標準コードが普及するにつれ,正解付きの事例が蓄積されていく.実験によれば,訓練事例のサイズが大きいほど正解率が向上するため\cite{Takahashi_et_al05c},今後,この正解付きの事例を既存の訓練事例に追加していくことで,正解率の向上が見込める.このためには,訓練事例の追加処理を容易に行うことができる必要がある.\subsubsection{確信度の有効性}表~\ref{table7}に,確信度別の正解率とカバー率(カッコ内)をコードの種類ごとに示す.確信度は第1位に予測されたコードに対するものである.表~\ref{table7}において,SSMコードの値は2種類の評価事例の平均である.\begin{table}[t]\caption{確信度別の正解率とカバー率}\label{table7}\input{04table14.txt}\end{table}表~\ref{table7}より,確信度Aが付与された事例の正解率は,ISIC($94\%$)を除くすべてのコードで目標値($95\%$)を上回っているため,有効であると判断できる.特にISCOでは,第1位の正解率は$60\%$未満で,第3位までを含めても$70\%$(表~\ref{table6}参照)と低いが,確信度Aが付与された事例については$96\%$と高い値であった.一方,カバー率は,SSMコードは約$30\%$であるのに対し,ISCOは$5\%$,ISICも$1\%$と非常に低く,有用性の点で問題がある.今後,ISCOとISICは訓練サイズの増大による正解率の向上が期待できるが,カバー率についても向上させる必要がある.確信度Bと確信度Cにおける正解率は,それぞれ$70\%$から$97\%$と$28\%$から$67\%$で,確信度Aに比較するといずれもバラツキが大きい.確信度Bは,国内・国際職業コードのいずれも目標値($75\%$)をやや下回ったが,一般コーダの正解率の範囲内である.確信度Bがもっとも高いISIC($92\%$)は,確信度Aがもっとも低く,両者の差が$2\%$しかない上に,確信度Cにおける正解率も比較的高い.これはSSM産業コードにおいても同様の傾向である.職業コードでは,確信度A,確信度B,確信度Cがそれぞれ$95\%$,$70\%$台,$30\%$で安定していることと対照的である\footnote{この原因として,産業コードは分類クラスが少ないために正解率が高いことと,閾値$\alpha$はSSM職業コードを用いた実験により決定したことが考えられる.}.いずれにしても,すべてのコードにおいて,任意の確信度の最低値は下位の確信度の最高値より高く,3つの確信度は信頼性の程度を明確に区別する.以上より,本システムにおける確信度は,自動コーディング後の人手の要・不要の程度を表す指標として有効であるといえる.最後に,表~\ref{table8}の状況を確信度別に調査した結果を,表~\ref{table9}(確信度A),表~\ref{table10}(確信度B),表~\ref{table11}(確信度C)に示す.カッコ内の数値は全体に占める割合である.表~\ref{table9},表~\ref{table10},表~\ref{table11}より,本システムで正解であった事例について,ルールベース手法における正解・不正解の比率を調査すると,確信度Aでは約80倍でもっとも高く,確信度Bで約2.7倍,確信度Cで約0.7倍と,確信度のレベルが下がるにつれて大きく低下した.また,ルールベース手法で正解であった事例が本システムにおいても正解となる割合を確信度別に調査すると,それぞれ約$100\%$,$98\%$,$91\%$で,確信度のレベルが高いほど高かった.\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(確信度A)(SSM職業コード)}\label{table9}\input{04table15.txt}\end{table}\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(確信度B)(SSM職業コード)}\label{table10}\input{04table16.txt}\end{table}\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(確信度C)(SSM職業コード)}\label{table11}\input{04table17.txt}\end{table}\subsubsection{処理時間}処理時間は,PCの性能\footnote{実験には,IntelCorei52500KQuad-CoreProcessor3.3~GHzを使用した.}や訓練事例,評価事例のサイズにより異なるが,評価事例がJGSS-2006データセットの場合,STEP1からSTEP6にそれぞれ0分,7分,34分,7分,13分,2分(計63分)を要した.1事例当たり,約1.7秒かかる計算となる.本システムで1度に処理できる事例数は最大5,000であり,これより大きなサイズのデータセットの場合は数回に分けて処理する必要がある.5,000事例の場合,1回の処理時間は約2時間半弱である.\subsection{実験2}SSM調査のような大規模プロジェクトによる調査では,自動コーディングの結果が得られても,従来通り一般コーダによるコーディングを実施し,その後に熟練コーダによる再チェックを行うことが可能である.しかし,多くの調査では,コーディング作業にこのような労力や時間ををかけることは困難である.また,実際の分析においては,研究の目的に応じ,類似した性質をもつ小分類コードは大分類にまとめて扱う場合が多いため,この大分類レベルで正解であれば問題はない.例えば,本システムの利用が多い社会階層分野でも,職業威信スコアを用いる研究\footnote{職業威信スコアは個人および職業の社会的地位を示す重要な指標で,回答者により小分類コードごとに評定される.}を除くと,大分類にまとめたものを分析する場合が多い.このため,自動コーディングの性能が高まるにつれ,この結果をそのまま利用できるのではないかと考える研究者も出てきた.そこで,本システムの利用者である社会階層分野の研究者の立場から,自動コーディングの結果をそのまま利用した場合の有効性と問題点についての検討を開始した\cite{Takahashi_et_al16}.本稿では,SSM職業コードを対象に,第1位に予測されたコードの正解率や確信度について報告する.実験2では,実験1で用いた訓練事例(表~\ref{table5}参照)に,JGSS-2006,JGSS-2008,JGSS-2010データセットを加えた計49,795事例を訓練事例とした\footnote{これは,新規に追加された700番台や800番台のコードにも対応する.}.評価事例は,東京大学社会科学研究所が実施する「働き方とライフスタイルの変化に関する全国調査」(若年・壮年パネル調査;\linebreakJLPS)\footnote{http://csrda.iss.u-tokyo.ac.jp/panel/JLPSYM/}の第1波のうち,本システムを利用するための項目を満たす3,619事例を用いた.前述したように,職業威信研究では小分類コードを用いることと,実験2における訓練事例と評価事例はいずれも実験1と異なるため,まず小分類コードの結果を報告し,次に,大分類にまとめた場合の結果を報告する.以下では,すべて第1位に予測されたコードを対象とする.\subsubsection{小分類コードにおける正解率と確信度}正解率は$67.1\%$で,表~\ref{table7}に示した実験1の結果($70.2\%$)と比較すると,訓練事例のサイズが増大したにもかかわらず約3ポイント低かった.この理由として,実験2は実験1と異なり,評価事例が訓練事例とは性質が大きく異なる調査により収集されたデータセットであることと,パネル調査のため,第2波以降に得られた情報により正解が修正された可能性があることが考えられる.ただし,第3位に予測されたコードまで含むと,正解率は$79.0\%$となり,実験1の結果($78.8\%$)をやや上回っており,本システムの頑強性が確認できた.\begin{table}[b]\caption{正解率が50\%以下の小分類コード(SSM職業コード)}\label{table20}\input{04table18.txt}\end{table}表~\ref{table20}に,正解コードの出現度数が全体の$1\%$(頻度35)以上であるコードのうち,正解率が$50\%$以下のものを示す.「557」や労務が含まれる点は,実験1の結果(表~\ref{table17}参照\footnote{ただし,表~\ref{table17}は第3位までに予測されたコードの結果である.})と類似する.全体に及ぼす影響の大きさから,不正解の事例数が多いコードを調査した.10位までのコードを表~\ref{table21}に示す.実験2においても実験1(表~\ref{table15}参照)と同様,「554」や「557」を他のコードに間違う場合が多い\footnote{「554」を「559」に,「557」を「573」「554」「569」に間違える場合が多いことも実験1と同様である.大分類にまとめて分析を行う場合には,「573」「569」は事務ではなく販売であるため,問題となる.}.\begin{table}[b]\caption{不正解事例数が多い小分類コード(SSM職業コード)}\label{table21}\input{04table19.txt}\end{table}\begin{table}[b]\caption{確信度別の正解率とカバー率(SSM職業コード)}\label{table12}\input{04table20.txt}\end{table}次に,確信度ごとの正解率とカバー率(カッコ内)を表~\ref{table12}に示す.いずれの確信度も実験1の結果(表~\ref{table7}参照)を上回っている.特に,確信度Aが付与された事例では正解率が$97.8\%$に達しており,ここでも確信度Aの有効性が確認された.これより,「確信度Aが付与された場合は人手によるコーディングは不要」と主張することに一定の説得力があるといえる.ただし,確信度Aが付与された事例が全体の$14\%$と低いことは,有効性の点からは問題である.確信度Bの正解率は$76.4\%$で,一般コーダの平均を約1.5ポイント上回っている.このため,確信度AまたはBが付与された事例については,自動コーディングの結果をそのまま利用しても大きな支障はないと考えられる.この場合のカバー率は合計で約$66\%$となる.確信度Cの正解率は$40.2\%$と低いため,そのまま利用することは危険で,人手によるチェックが必要である.\subsubsection{大分類に合併後の正解率と確信度}国内の階層研究において実際に分析が行われる場合,\pagebreak表~\ref{table22}に示す大分類が用いられることはほとんどなく,表~\ref{table19}に示すものが用いられることが多い\footnote{表~\ref{table19}におけるSSM総合職業分類(簡略版9分類)は,表には掲載していないが,SSM総合職業分類(12分類)の「中小企業ホワイト(事務)」と「中小企業ホワイト(販売・サービス)」を「中小企業ホワイト」,「大企業ブルー(熟練)」と「大企業ブルー(半熟練・非熟練)」を「大企業ブルー」,「中小企業ブルー(事務)」と「中小企業ブルー(販売・サービス)」を「中小企業ブルー」にそれぞれまとめたものである.}.また,分析の目的によっては,小分類コードを表~\ref{table22}に示す大分類に変換し,さらに表~\ref{table19}に近い8つのカテゴリ(「専門・技術職」「管理職」「事務職」「販売職」「サービス職」「生産現場・技能職」「運輸・保安職」「農林」)に合併することもしばしばある.このカテゴリは小分類コードと自然な対応関係にあり,両者の比較がもっとも容易に行えるため,ここでは,これを大分類として扱う.\begin{table}[b]\caption{階層研究で用いられる大分類と分類の単位}\label{table19}\input{04table21.txt}\end{table}\begin{table}[b]\caption{分類レベルの違いによる正解率の比較と確信度Aのカバー率(SSM職業コード)}\label{table13}\input{04table22.txt}\vspace{-0.5\Cvs}\end{table}表~\ref{table13}に,小分類コードの正解率を大分類別に平均した値と,大分類に合併したときの正解率を比較した結果を示す.表中,確信度Aのカバー率の平均とは,注目する正解コードにおいて確信度Aが付与された事例がその正解コードの全事例に占める割合を大分類別に平均した値である.大分類に合併すると,正解率の平均は$67.1\%$から$79.9\%$に上昇し,特に「生産現場・技能職」の上昇幅は約24ポイントと大きい.「運輸・保安職」の上昇幅は約4ポイントであるが,確信度Aのカバー率は$34\%$と高い.逆に,「管理職」では小分類でも大分類合併後でも$60\%$未満で低く,また確信度Aのカバー率も$0\%$である.これより,「管理職」が付与されたコードをそのまま用いるのは危険であり,コーダも十分に注意する必要がある.ただし,管理職の出現率は$0.8\%$で,全体に及ぼす影響は大きくない\footnote{正解コードの出現度数は,「事務職」(933事例),「生産現場・技能職」(802事例),「専門・技術職」(788事例),「販売職」(503事例),「サービス職」(378事例),「運輸・保安職」(140事例),「農林」(32事例),「管理職」(28事例)の順である.}.また,「事務職」と「販売職」も小分類での正解率が$70\%$未満と低く,大分類合併後も$80\%$に達していない.これら3つに共通する特徴として,職務が明確に限定されていない職業を多く含むことが挙げられる.これは,資格との対応や必要な技能および職務が明確な「専門・技術職」の正解率が小分類でも高く,大分類合併後にもっとも高くなることと対照的である.表~\ref{table14}に,大分類に合併後の正解率を確信度ごとに示す.小分類レベル(表~\ref{table12}参照)と比較すると,大分類合併後は,いずれの確信度も正解率が上昇し,特に確信度Bでは10ポイント,確信度Cでは20ポイント以上上昇する.大分類に合併すると,確信度AまたはBが付与された事例の正解率は十分に高い値となるため,自動コーディングの結果をそのまま利用することが可能である.\begin{table}[t]\caption{大分類に合併後の確信度別の正解率}\label{table14}\input{04table23.txt}\end{table} \section{システムの利用方法} 最後に,本システムの利用方法について述べる.利用者は,3.3節で述べた所定の形式の入力ファイルを準備し,CSRDAのWebサイトを通じて図~\ref{fg4}に示す(1)〜(4)の手続きを行えば,自動コーディングの結果を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{24-1ia4f7.eps}\end{center}\caption{Web公開版システム(試行提供中)の利用手順}\label{fg4}\end{figure}図~\ref{fg4}において,[CSRDA]自動化システムによる処理とは,運用担当者が行う次の2つである.\begin{itemize}\itemシステムを稼働させて図~\ref{fg2}に示す操作画面を表示させ,図~\ref{fg3}に示すように,指定場所に置かれた入力データファイルと利用者から希望のあったコードを指定する\item本システムが出力した結果ファイルを指定場所に置く\end{itemize}なお,CSRDAでは,セキュリティの点から,システム運用担当者は利用者からの入力ファイルをe-mail等では受けとらず,オンラインストレージ構築パッケージ(Proself)\footnote{https://www.proself.jp/}を介する仕組みとしている. \section{関連研究} \label{sec:kanren}ここでは,韓国と米国における自動化システムについて述べる.本システムとの大きな違いは,いずれも社会学の研究支援が目的ではなく,職業や産業コードそれ自体が分析に用いられる変数ではないこと,また,自動化のアルゴリズムに機械学習を適用していないことである.韓国では,2008年に大韓民国統計庁においてWeb-basedAIOCS(AWeb-basedAutomatedSystemforIndustryandOccupationCoding)が開発された\cite{Jung_et_al08}.Web-basedAIOCSは,ISCOやISICに由来する韓国独自の職業コード(442個)や産業コード(450個)への変換を行う.自動化のアルゴリズムは,文献\cite{Takahashi00,Takahashi_et_al05a}を参考にしながらも,処理時間の問題からSVMは用いずに,ルールベース手法,最大エントロピー法(MEM),情報検索技術(IRT)の3種類を単独または後の2つをルールベース手法と組み合わせた計6種類が提案されている.この中で正解率が最も高いのは,ルールベース手法,MEM,IRTをこの順に実行する方法で$76\%$である.利用方法は一問一答方式で,Webサイト上に,会社名(自由回答),ビジネスカテゴリ,部門,役職,仕事の内容(自由回答)を入力すると,同一画面に結果が表示される.Web-basedAIOCSにおける入力データは本システムと類似するが,ファイルによる入出力については不明で\footnote{ファイルによる入出力も可能であるとの記述があるのみで,説明がない.},利用も統計庁内部に限定され,一般に公開されていない.米国では,これまでCDC(CentersforDiseaseControlandPrevention;米国疾病予防管理センター)のWebサイト上に,単語のマッチングを主とするSOIC(StandardizedOccupation\&IndustryCoding)システム\footnote{http://www.cdc.gov/niosh/soic/SOIC.About.html}を公開し,利用者自身がソフトウェアをダウンロードして処理を行っていた.SOICは1990年のセンサス・コードに変換するもので,正解率は,職業コード$75\%$,産業コード$76\%$で,職業コードと産業コードの両方では$63\%$であった.CDCでは,2000年以降のセンサス・コードに対応するため,2013年にSOICを含むNIOCCS(TheNIOSHIndustry\&OccupationComputerizedCodingSystem)を構築した\footnote{http://wwwn.cdc.gov/niosh-nioccs/}.NIOCCSにおける入力データは,職業や産業を記述したテキストのみで,これは本システムにおける自由回答部分に該当する.自動化のアルゴリズムはルールベース手法で,単語だけでなく知識についてもデータベース化したものとのマッチングを行う.知識の表現形式についての説明はないが,本システムにおけるルール$\alpha$による処理に該当すると考えられる.ただし,本システムではルール$\alpha$で決定されたコードをチェックするルール$\beta$が存在するのに対し,NIOCCSにはこれに該当するものがないため,「従業上の地位」や「役職」「従業先の事業規模」も参照して総合的かつ慎重な判断を必要とする社会学研究のためには厳密さに欠ける.NIOCCSにおいても,本システムにおける確信度と同様に,自動コーディングの結果に3段階(High,Medium,Low)の信頼度を付与するが,機械学習を適用しないため,その算出方法が本システムと異なることは明らかである\footnote{信頼度を算出するための根拠が不明で,FrequentlyAskedQuestionsmの回答として,Highが$90\%$以上,Mediumが$70\%$以上との説明があるだけである.カバー率も示されていない.}.NIOCCSでは一問一答方式とファイルによる入出力が可能である.SOICと異なり,利用者はシステムをダウンロードせずに,NIOCCSのアカウントを取得した上で処理を依頼する点は本システムと共通するが,マッチングを行うデータベースを2000年,2002年,2010年の中から選択できる機能は本システムにはないものである.本システムでは,同一コード体系内におけるさまざまな版(例えば,SSM職業コードにおいて700番台や800番台のコードを含む/含まないなど)に対応するルールや訓練事例を複数種類用意し,利用者の希望に応じて版を選択できる機能の追加を予定している. \section{おわりに} 本稿では,社会学で活用されている職業・産業コーディング自動化システムについて,現在,CSRDAのWebから試行提供されているシステムを中心に,運用・利用方法も含めて述べた.本システムは,国内/国際標準の計4種類の職業・産業コードへの変換を行うが,社会学において重要な職業コードの正解率は,第3位に予測されたものまで含め,国内標準コードで約$80\%$,国際標準では$70\%$〜$75\%$であり,正解率の向上が今後の大きな課題である.このため,もっとも利用の多い国内標準コードについて,誤り分析の結果に基づき,ルールベース手法におけるルールやシソーラスの見直しを行っている.また,SVMで用いられる訓練事例の正解の見直しも開始した.さらに,訓練事例のサイズを拡大するため,2015SSM調査における職業コーディングの最終結果が決定された時点で,これを正解付き事例として追加する予定である.正解率は全体では満足できる程度に高くないが,確信度Aが付与された場合は,職業・産業のすべてのコードにおいて,評価事例に関係なく$94\%$以上(平均$97\%$)で,確信度Aを付与する有効性が確認できた.ただし,この場合のカバー率は$1\%$〜$32\%$と低いため,カバー率の向上が今後の課題である.確信度Bや確信度Cが付与された場合の正解率はそれぞれ$70\%$〜$97\%$(平均$79\%$),$28\%$〜$67\%$(平均$42\%$)で,国内・国際に関係なく産業コードは職業コードを上回った.社会学研究者がもっともよく利用するSSM職業コードについて,実際の利用状況を想定した大分類レベルに合併すると,正解率は第1位に予測されたもので約$80\%$となり,確信度Aが付与された場合は$99\%$となった.また,確信度B,確信度Cが付与された場合の正解率もそれぞれ$87\%$,$62\%$となった.これより,確信度Cが付与されない事例は,本システムの結果をそのまま利用できる可能性がある.今後は,別の種類の大分類に合併した場合についても同様の調査を行った後,より高度な分析として多変量解析に利用された場合についても調査する予定である.国内の社会学において用いられる職業・産業コードは,今後の社会変動に伴い,さらなる改変が予想される.これは,個々のコードレベルにとどまらず,コード体系が変更される可能性もある.実際,SSM職業コードでは,すでにISCOに倣った4桁の階層的なコード体系が提案されている\cite{Miwa11}.また,SSM産業コードも,2015SSM調査では,ISICとの関係を重視し,これまでの大分類コードから中分類コードに変更された.さらに,ISCOについても,近い将来,本システムで用いたISCO-88(1988年版)からISCO-08(2008年版)に移行することが予想され,この動きはISICにおいても同様であると思われる.このような状況の中で,新規のコードまたはコード体系が現行のものと単純な対応関係にある場合は問題ないが,そうでない場合には次のような対応を行う予定である.まず,コード体系が変更されずに新規のコードが追加される場合は,必要に応じてコードを決定するルールや訓練事例の正解を修正する.その際,どの新規コードを用いるかが調査により異なる可能性がある場合には,さまざまな版を用意し,利用者の希望に応じて選択できる機能が必要である.本機能は,現在開発中である.次に,コード体系が新しく変更される場合は,これに対応する正解付きの事例を蓄積し,新規の訓練事例を生成する必要がある\cite{Takahashi16}.職業・産業コーディングは,大規模調査が終了するたびに正解付きの事例が大量に得られるという利点があるため,この事例から訓練事例を容易に生成することができる機能があれば,迅速な対応が可能になる.本機能はほぼ完成しており,本システムへの追加を予定している.\acknowledgment日本版GeneralSocialSurveys(JGSS)は,大阪商業大学JGSS研究センター(文部科学大臣認定日本版総合的社会調査共同研究拠点)が,東京大学社会科学研究所の協力を受けて実施した研究プロジェクトである.2005年SSM調査データの利用に関して,2015年SSM調査研究会の許可を得た.東大社研パネル調査プロジェクトにおける職業・産業コーディングの精度向上を目的として,職業・産業の自由記述データの提供を受けた.本研究はJSPS科研費25380640の助成を受けた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{1995年SSM調査研究会}{1995年SSM調査研究会}{1995}]{SSM95}1995年SSM調査研究会\BBOP1995\BBCP.\newblock\Jem{SSM産業分類・産業分類(95年版)}.\bibitem[\protect\BCAY{1995年SSM調査研究会}{1995年SSM調査研究会}{1996}]{SSM96}1995年SSM調査研究会\BBOP1996\BBCP.\newblock\Jem{1995年SSM調査コード・ブック}.\bibitem[\protect\BCAY{原}{原}{1984}]{Hara84}原純輔\BBOP1984\BBCP.\newblock\Jem{社会調査演習}.\newblock東京大学出版会.\bibitem[\protect\BCAY{原}{原}{2013}]{Hara13}原純輔\BBOP2013\BBCP.\newblock職業自動コーディング.\\newblock\Jem{社会と調査},{\Bbf11},p.3.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Joachims98}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures.\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{Jung,Yoo,Myaeng,\BBA\Han}{Junget~al.}{2008}]{Jung_et_al08}Jung,Y.,Yoo,J.,Myaeng,S.-H.,\BBA\Han,D.-C.\BBOP2008\BBCP.\newblock\BBOQAWeb-basedAutomatedSystemforIndustryandOccupationCoding.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonWebInformationSystemsEngineering(WISE-08)},\lowercase{\BVOL}\3518,\mbox{\BPGS\443--457}.\bibitem[\protect\BCAY{Kressel}{Kressel}{1999}]{kressel99}Kressel,U.\BBOP1999\BBCP.\newblock\BBOQPairwiseClassificationandSupportVectorMachines.\BBCQ\\newblockInSch{\"o}lkopf,B.,Burgesa,C.J.~C.,\BBA\Smola,A.~J.\BEDS,{\BemAdvancesinKernelMethods*SupportVectorLearning},\mbox{\BPGS\255--268}.TheMITPress.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{Kurohashi98}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock日本語形態素解析システムJUMANversion3.61.\\newblock\JTR,京都大学大学院情報学研究科.\bibitem[\protect\BCAY{三輪}{三輪}{2011}]{Miwa11}三輪哲(編)\BBOP2011\BBCP.\newblock\Jem{SSM職業分類・産業分類の改定に向けて(科学研究費補助金基盤研究A「現代日本の階層状況の解明—ミクロ--マクロ連結からのアプローチ」研究成果報告書別冊)}.\bibitem[\protect\BCAY{大阪商業大学比較地域研究所・東京大学社会科学研究所}{大阪商業大学比較地域研究所・東京大学社会科学研究所}{2005}]{JGSS05}大阪商業大学比較地域研究所・東京大学社会科学研究所\BBOP2005\BBCP.\newblock\Jem{日本版GeneralSocialSurveys基礎集計表・コードブックJGSS-2003}.\bibitem[\protect\BCAY{Sebastiani}{Sebastiani}{2002}]{Sebastiani02}Sebastiani,F.\BBOP2002\BBCP.\newblock\BBOQMachineLearningAutomatedTextCategorization.\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf34}(1),\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{盛山}{盛山}{2004}]{Seiyama04}盛山和夫\BBOP2004\BBCP.\newblock\Jem{社会調査法入門}.\newblock有斐閣.\bibitem[\protect\BCAY{高橋}{高橋}{2000}]{Takahashi00}高橋和子\BBOP2000\BBCP.\newblock自由回答のコーディング支援について—格フレームによるSSM職業コーディング自動化システム—.\\newblock\Jem{理論と方法},{\Bbf15}(1),\mbox{\BPGS\149--164}.\bibitem[\protect\BCAY{高橋}{高橋}{2002a}]{Takahashi02a}高橋和子\BBOP2002a\BBCP.\newblock職業・産業コーディング自動化システムの活用.\\newblock\Jem{言語処理学会第8回年次大会論文集},\mbox{\BPGS\491--494}.\bibitem[\protect\BCAY{高橋}{高橋}{2002b}]{Takahashi02b}高橋和子\BBOP2002b\BBCP.\newblockJGSS-2000における職業・産業コーディング自動化システムの適用.\\newblock\Jem{日本版GeneralSocialSurveys研究論文集JGSSで見た日本人の意識と行動[東京大学社会科学研究所資料第20集]},{\Bbf1},\mbox{\BPGS\171--184}.\bibitem[\protect\BCAY{高橋}{高橋}{2003}]{Takahashi03}高橋和子\BBOP2003\BBCP.\newblockJGSS-2001における職業・産業コーディング自動化システムの適用.\\newblock\Jem{日本版GeneralSocialSurveys研究論文集[2]JGSSで見た日本人の意識と行動[東京大学社会科学研究所資料第21集]},{\Bbf2},\mbox{\BPGS\179--191}.\bibitem[\protect\BCAY{高橋}{高橋}{2008}]{Takahashi08}高橋和子\BBOP2008\BBCP.\newblock機械学習によるISCO自動コーディング.\\newblock\Jem{2005年SSM調査シリーズ12社会調査における測定と分析をめぐる諸問題},{\Bbf12},\mbox{\BPGS\53--78}.\bibitem[\protect\BCAY{高橋}{高橋}{2011}]{Takahashi11}高橋和子\BBOP2011\BBCP.\newblockISCO自動コーディングシステムの分類精度向上に向けて—SSMおよびJGSSデータセットによる実験の結果—.\\newblock\Jem{JGSSResearchSeriesNo.8:日本版総合的社会調査共同研究拠点研究論文集[11]},{\Bbf11},\mbox{\BPGS\193--205}.\bibitem[\protect\BCAY{高橋}{高橋}{2016}]{Takahashi16}高橋和子\BBOP2016\BBCP.\newblock\Jem{職業・産業コーディング自動化システム(平成25〜27年度科学研究費補助金基板研究(C)「社会調査の基盤を提供する自動コーディグシステムのWeb提供:その国際化と汎用化」)}.\bibitem[\protect\BCAY{高橋\JBA須山\JBA村山\JBA高村\JBA奥村}{高橋\Jetal}{2005a}]{Takahashi_et_al05b}高橋和子\JBA須山敦\JBA村山紀文\JBA高村大也\JBA奥村学\BBOP2005a\BBCP.\newblock職業コーディング支援システム(NANACO)の開発とJGSS-2003における適用.\\newblock\Jem{日本版GeneralSocialSurveys研究論文集[4]JGSSで見た日本人の意識と行動},{\Bbf4},\mbox{\BPGS\225--242}.\bibitem[\protect\BCAY{高橋\JBA高村\JBA奥村}{高橋\Jetal}{2005b}]{Takahashi_et_al05c}高橋和子\JBA高村大也\JBA奥村学\BBOP2005b\BBCP.\newblock機械学習とルールベース手法の組み合わせによる自動職業コーディング.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2005}]{Takahashi_et_al05a}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQAutomaticOccupationCodingwithCombinationofMachineLearningandHand-CraftedRules.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonPacific-AsiaKnowledgeDiscoveryandDataMining(PAKDD'05)},\lowercase{\BVOL}\3518,\mbox{\BPGS\269--279}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2008}]{Takahashi_et_al08}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2008\BBCP.\newblock\BBOQDirectEstimationofClassMembershipProbabilitiesforMulticlassClassificationusingMultipleScores.\BBCQ\\newblock{\BemKnowledgeandInformationSystems},{\Bbf19}(2),\mbox{\BPGS\185--210}.\bibitem[\protect\BCAY{高橋\JBA田辺\JBA吉田\JBA魏\JBA李}{高橋\Jetal}{2013a}]{Takahashi_et_al13a}高橋和子\JBA田辺俊介\JBA吉田崇\JBA魏大比\JBA李偉\BBOP2013a\BBCP.\newblock確信度付き職業・産業コーディング自動化システムの開発と公開.\\newblock\Jem{数理社会学会第55回大会報告要旨集},\mbox{\BPGS\38--41}.\bibitem[\protect\BCAY{高橋\JBA田辺\JBA吉田\JBA魏\JBA李}{高橋\Jetal}{2013b}]{Takahashi_et_al13b}高橋和子\JBA田辺俊介\JBA吉田崇\JBA魏大比\JBA李偉\BBOP2013b\BBCP.\newblockWeb版職業・産業コーディング自動化システムの開発.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\769--772}.\bibitem[\protect\BCAY{高橋\JBA多喜\JBA田辺}{高橋\Jetal}{2016}]{Takahashi_et_al16}高橋和子\JBA多喜弘文\JBA田辺俊介\BBOP2016\BBCP.\newblock職業コーディング自動化システム利用に関する評価—社会階層研究を事例に—.\\newblock\Jem{数理社会学会第61回大会報告要旨集},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Takahashi,Taki,Tanabe,\BBA\Li}{Takahashiet~al.}{2014}]{Takahashi_et_al14}Takahashi,K.,Taki,H.,Tanabe,S.,\BBA\Li,W.\BBOP2014\BBCP.\newblock\BBOQAnAutomaticCodingSystemwithaThree-GradeConfidenceLevelCorrespondingtotheNational/InternationalOccupationandIndustryStandard:OpentothePublicontheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonKnowledgeEngineeringandOntologyDevelopment(KEOD2014)},\mbox{\BPGS\369--375}.\bibitem[\protect\BCAY{高村}{高村}{2010}]{Takamura10}高村大也\BBOP2010\BBCP.\newblock\Jem{自然言語処理シリーズ1言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{田辺}{田辺}{2006}]{Tanabe06}田辺俊介\BBOP2006\BBCP.\newblockISCOとSSM職業分類の相違点の検討—国際比較調査における職業データに関する研究ノート—.\\newblock\Jem{社会学論考},{\Bbf27},\mbox{\BPGS\47--68}.\bibitem[\protect\BCAY{田辺}{田辺}{2008}]{Tanabe08}田辺俊介\BBOP2008\BBCP.\newblockSSM職業分類とISCO-88の比較分析.\\newblock\Jem{2005年SSM調査シリーズ12005年SSM日本調査の基礎分析—構造・趨勢・方法—},{\Bbf1},\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{轟\JBA杉野}{轟\JBA杉野}{2013}]{Todoroki_et_al13}轟亮\JBA杉野勇\BBOP2013\BBCP.\newblock\Jem{入門社会調査法}.\newblock法律文化社.\end{thebibliography}\begin{biography}\bioauthor{高橋和子}{東京女子大学文理学部数理学科卒.2007年東京工業大学大学院総合理工学研究科博士課程修了.1993年千葉敬愛短期大学専任講師,1997年敬愛大学国際学部専任講師,2001年同助教授,2008年より同教授.博士(工学).言語処理学会,数理社会学会,情報処理学会,人工知能学会各会員.\\}\vspace{-0.5\Cvs}\bioauthor{多喜弘文}{2005年同志社大学文学部社会学科卒(社会学専攻).2011年同大学大学院社会学研究科社会学科博士後期課程修了.2012年東京大学社会学研究所助教.2014年法政大学社会学部社会学科専任講師,2016年より同准教授.博士(社会学).日本社会学会,国際社会学会,日本教育社会学会,数理社会学会各会員.\\}\vspace{-0.5\Cvs}\bioauthor{田辺俊介}{1999年東京都立大学人文学部卒(社会学専攻).2005年同大学大学院社会科学研究科社会学専攻博士課程単位取得退学.2007年東京大学社会科学研究所助教,2009年同准教授.2013年より早稲田大学文学学術院准教授.博士(社会学).日本社会学会,数理社会学会,アメリカ社会学会各会員.\\}\vspace{-0.5\Cvs}\bioauthor{李偉}{2015年東京工業大学大学院理工学研究科博士課程単位取得退学.2016年株式会社シービーエージャパン入社.\\}\end{biography}\biodate\end{document}
V07N04-05
\section{はじめに} \label{sec:introduction}様々な状況で利用される機械翻訳システムが直面する現実の文には,システムが持つ言語知識では適切に解析できない様々な言語現象が現れる.このような現象を含む文は,人間にとっても適格でない(が理解できる)絶対的不適格文と,人間にとっては適格であるがシステムの処理能力を越えている相対的不適格文に分けられるが,両者を適切に扱える頑健なシステムが求められている\cite{Matsumoto94}.絶対的不適格現象のうち語句の欠落や主語述語の不一致などの構文レベルの現象へ対処することを目的とした手法としては,部分解析法\cite{Imaichi95}や制約緩和法\cite{Mellish89,KatoTsuneaki95}などがこれまでに提案されている.他方,我々は,相対的不適格文への対処に焦点を当て,機械翻訳システムの翻訳品質の向上を目指している.以降本稿では紛れない限り,相対的不適格文を単に不適格文と呼ぶ.構文レベルの不適格文すなわちシステムの解析能力を越えた構文構造を持つ文を扱うための代表的な手法には,1)対象テキストの分野を限定した専用文法を用いる手法\cite{Aizawa96}や,2)原文を書き換える手法\cite{Kim94,Narita94,Sagawa94,Shirai95,KatoTerumasa97}などがある.また,後者の手法に関連して,原文とそれを人間が書き換えた結果とを比較した差分から原文書き換え規則を学習する手法\cite{Yamaguchi98}も示されている.(1)と(2)の手法の設計方針は,システムの既存部分の変更を避け,新たな処理系を追加するという点で共通しているが,以下の点で異なっている.前者の手法では,システムの既存部分による処理は,可能な場合には,新たに追加した処理系による処理によって代行される.すなわち,新たな処理系による解析(分野依存の専用文法による解析)が成功した場合には,既存の処理系による解析(汎用文法による解析)は実行されない.これに対して後者では,新たに追加した処理系は既存部分の前処理系と位置付けられる.原文書き換えによる手法は,書き換えを構文解析の前に行なうか後に行なうかによって二つに分けられる.構文解析後に行なう場合\cite{Sagawa94,Shirai95}\footnote{白井らは,文献\cite{Shirai98}で,一部の書き換えを構文解析前に行なうように拡張を施しているが,書き換え規則の多くは構文解析後に適用される.}は,構文情報が得られているため,構文解析前すなわち形態素解析後に行なう場合に比べてより翻訳品質の高いシステムが実現できる可能性がある.しかし,実用的な機械翻訳システムにおいて原文書き換えの実行を構文解析終了後まで遅らせることは,処理効率の点では望ましくない.なぜならば,入力文全体を覆う構文構造が生成できず構文解析に失敗すること\footnote{以降本稿では,入力文全体を覆う構文構造が生成できないことを構文解析の失敗と呼ぶ.}が判明するのは構文解析規則をすべて適用し終えた後であるが,実用的な機械翻訳システムでは構文解析規則の規模は非常に大きくなっており,構文解析に要する時間は解析全体に要する時間の大半を占めているため,構文解析後の書き換えは処理の効率化につながりにくいからである.これに対して,構文解析が失敗しないようにあらかじめ原文を書き換えれば,すべての構文解析規則の適用が試みられる可能性は低くなるため,システム全体として効率の良い処理が実現できる.また,構文情報が(ほとんど)得られていない時点で行なう書き換えがどの程度有効であるかを明らかにすることも重要である.このような観点から本稿では,形態素解析で得られる情報と通常よりも簡単な構文解析\footnote{具体的には,\ref{sec:preedit:ruleformat:condition}\,節で述べる手続きによる処理を指す.}で得られる情報に基づいて原文書き換えを構文解析前に行なうことによって翻訳品質と共に翻訳速度を改善する手法を示す.以下,本稿で扱う書き換え対象を\ref{sec:object}\,節で整理する.次に\ref{sec:preedit}\,節で原文書き換え系の処理枠組について説明する.\ref{sec:experiment}\,節では,原文書き換え系を既存の英日機械翻訳システムに組み込み,システムの性能向上にどの程度貢献できるかを実験によって検証する.\ref{sec:relatedworks}\,節では関連研究との比較を行なう. \section{書き換え対象文} \label{sec:object}我々の従来システムにとっての不適格現象には様々なものがあるがそれらをすべて一度に扱うことは容易ではない.このため本研究では,出現頻度が高い現象や翻訳品質の改善度が大きい現象を含む文を書き換え対象として優先的に選ぶことにする.書き換え対象を選定するために,英文法書の例文や新聞記事\cite{Lewis97}を我々のシステムで処理し,構文解析に失敗した文のうち558文についてその原因を分析した.構文解析に失敗する現象は595箇所で見られた.このうち238箇所は,綴り誤りなどの絶対的不適格現象や,辞書や形態素解析系の不備によるものであった.残り357箇所のうち108箇所が省略現象によるもの,61箇所が倒置によるもの,41箇所が挿入語句によるものであった.また,特殊構文を含まないが文が長いために構文解析に失敗する文が26文存在した.この分析結果に基づいて,表\ref{tab:illformedness}\,に示すパターンへ対処することを目的とした\footnote{表\ref{tab:illformedness}\,は対象とするパターンの概略であり,実際の書き換え規則の適用条件部にはより厳密な条件を記述している.また,強調構文は構文解析に失敗するわけではないが重要な構文であるので,書き換え対象に含めた.}.表\ref{tab:illformedness}\,のパターンで,構文解析に失敗した558文に現れたすべての倒置,省略,挿入を網羅しているわけではない.パターン7ないし10は,複雑で長い部分を動詞の後方に置くための前置詞句の前置であるが,ここでは倒置とみなす.表\ref{tab:illformedness}\,において,上付き記号?は任意項を,\{\\}は選択項をそれぞれ表し,斜字体の語句は省略されている語句を意味する.\begin{table}[htbp]\caption{書き換え対象パターン}\label{tab:illformedness}\begin{center}\begin{tabular}{|c||r|l|}\hline分類&\multicolumn{1}{c}{\#}&\multicolumn{1}{|c|}{パターン}\\\hline\hline&1.&[$副詞句^?$\\{分詞$|$形容詞\}\$前置詞句^?$\$助動詞^?$\be動詞]\\&2.&[$副詞句^?$\前置詞句\$助動詞^?$\be動詞]\\&3.&[\{nor$|$neither\}\助動詞\名詞句\原形動詞]\\&4.&[\{nor$|$neither\}\have\名詞句\過去分詞]\\&5.&[\{nor$|$neither\}\be動詞\名詞句]\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{倒置}}&6.&[should$\langle$文頭$\rangle$]\\&7.&[関係代名詞\前置詞句\動詞]\\&8.&[名詞句\前置詞句$\langle$意味標識:TIME$\rangle$\動詞]\\&9.&[助動詞\前置詞句\原形動詞]\\&10.&[have\前置詞句\to\原形動詞]\\\hline&11.&[so\形容詞\{\itthat}\代名詞]\\&12.&[say\{\itthat}\$\cdots$\and\that\$\cdots$]\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{省略}}&13.&[say\{\itthat}\there\動詞]\\&14.&[\{double$|$twice\}\that\{\itfigure}]\\\hline&15.&[,\\{all$|$most$|$much$|$$\cdots$\}\of\\{it$|$them\}\$\cdots$\\{,$|$.\}]\\&16.&[,\but\not\動詞\$\cdots$\,]\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{挿入}}&17.&[名詞句\and\名詞句\,\名詞句\,\動詞]\\&18.&[名詞句\,\\{which$|$who\}\$\cdots$\,\動詞]\\\hline強調&19.&[it\be動詞\$\mbox{not}^?$\名詞句\\{which$|$who\}]\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:illformedness}\,のパターンは我々の従来システムにとっての不適格現象であり,他のシステムの中には適切に処理できるものも存在すると考えられる.しかし,例えば日本電子工業振興協会の自然言語処理技術委員会で編集された翻訳品質評価用テストセット\cite{NihonDenshiKogyoShinkoKyokai95}で取り扱いが重要な特殊構文として取り上げられているように,これらを適切に処理することは一般の機械翻訳システムにとっても重要な課題である.また,これらの現象のうち,倒置,省略,挿入は,英日機械翻訳システムの一般利用者が日々接することが多いテキストの一つである英字新聞記事に比較的頻繁に現れる表現である\cite{Uenoda78,Horiuchi79,Tomita94}ため,これらを適切に処理する必要性は高い.本節では,これらの現象\cite{Egawa64,Yasui82,Greenbaum90}を含む文をどのように書き換えれば翻訳品質が改善されるかを検討する.以降,従来システムとは我々の従来システムを指す.\subsection{倒置}\label{sec:object:inversion}倒置のうち分詞を中心とする叙述部の倒置や否定表現が冒頭に置かれた文における倒置などを扱う.例えば文(E\ref{SENT:inversion_whatis})は過去分詞が文頭に現れているために,構文解析に失敗し(J\ref{SENT:inversion_whatis})のような出力しか得られない\footnote{記号◇で構文解析が失敗したことを表し,記号‖で区切られた区間が部分的な構造にまとめられたことを表す.}.しかし,文(E\ref{SENT:inversion_whatis})の先頭に``whatis''という語句を追加して文(E\ref{SENT:inversion_whatis}')のように書き換えると,従来システムにとって適格文となり文(J\ref{SENT:inversion_whatis}')のような翻訳が得られる.\begin{SENT}\sentEAffiliatedistheparentcompanyofGlobeNewspaperCo.\sentJ◇加入した‖GlobeNewspaperCoの親会社である。\sentNewEWhatisaffiliatedistheparentcompanyofGlobeNewspaperCo.\sentNewJ合併されるものは、GlobeNewspaperCoの親会社である。\label{SENT:inversion_whatis}\end{SENT}文(E\ref{SENT:inversion_neither})に見られるように,否定の副詞``neither''が冒頭に置かれた節では主語と助動詞の倒置が生じる.このような節に対しては,``neither''を``andalso''に書き換えて,助動詞``have''を否定形にし主語の後方に移動する.このような処理の実現には,助動詞の移動先を決定しなければならないため,主語になる名詞句この場合``thegovernmentregulators''を認識する必要がある.このため,書き換え規則の適用条件部には簡単な構文構造を認識するための手続きも記述する.この手続きに関しては\ref{sec:preedit:ruleformat:condition}\,節で述べる.\begin{SENT}\sentENeitherhavethegovernmentregulatorsindicatedthattherewillbeaproblem.\sentJ◇どちらも、政府取締官を示された状態にしない‖そこのそれは、問題であろう\sentNewEAndalsothegovernmentregulatorshavenotindicatedthattherewillbeaproblem.\sentNewJそしてまた、政府取締官は、問題があるであろうことを示さなかった。\label{SENT:inversion_neither}\end{SENT}\subsection{省略}\label{sec:object:ellipsis}接続詞の省略など構文的知識に依存する省略のいくつかを扱う.文(E\ref{SENT:ellipsis_saythat})は,二つの被伝達節が``and''で連結されているが,一つ目の被伝達節を導く``that''が明示されていない.これが原因で構文解析に失敗するが,``said''の直後に``that''を補えば構文解析の失敗は避けられるようになる.\begin{SENT}\sentESprinkelsaidthefallofthedollarhadsubstantiallyrestoredU.S.costcompetitivenessandthatthedeteriorationoftheU.S.tradebalanceappearedtohaveabated.\sentJ◇Sprinkelによれば、ドルの低下は、米国のコスト競争、及び、それを大幅に回復した‖米国の貿易収支の悪化は、減少したために、現れた。\sentNewESprinkelsaidthatthefallofthedollarhadsubstantiallyrestoredU.S.costcompetitivenessandthatthedeteriorationoftheU.S.tradebalanceappearedtohaveabated.\sentNewJSprinkelは、ドルの低下が米国のコスト競争を大幅に回復したということ、そして、米国の貿易収支の悪化が減少したように思われるということを言った。\label{SENT:ellipsis_saythat}\end{SENT}また,文(E\ref{SENT:ellipsis_sothat})で``so''と相関関係にある``that''が省略されていることは,``so''の直後の形容詞に代名詞が後続していることを手がかりにすれば検出できる.\begin{SENT}\sentEThe2.5pctdiscountrateissolowitispoliticallyimpossibletocutitfurther.\sentJ2.5パーセント割引率は、そのようにそれが政治上まで不可能である安値が更にそれを切ったことである。\sentNewEThe2.5pctdiscountrateissolowthatitispoliticallyimpossibletocutitfurther.\sentNewJ2.5パーセント割引率は、更にそれを切ることが政治上不可能であるほど低い。\label{SENT:ellipsis_sothat}\end{SENT}\subsection{挿入}\label{sec:object:parenthesis}挿入句は文中の他の語句と特に構文的な関係を持つことなく現れ,コンマやダッシュや括弧などで区切られる.括弧で囲まれた挿入句を発見することは比較的容易であるが,コンマで囲まれている場合にはコンマの他の用法との区別を行なう必要があり,挿入句の正確な認識は容易ではない\cite{TakedaNoriko95}.しかし,コンマだけでなくその前後の語句も手がかりとし,表\ref{tab:illformedness}\,のようなパターンとして捉えれば,挿入句の発見はより正確に行なえる.例えば文(E\ref{SENT:parenthesis_someofthem})において,一つ目のコンマの直後に存在する``someofthem''のような特徴的な語句や二つ目のコンマの直後に存在する(助)動詞に着目すればよい.このような手がかりに基づいて認識した挿入句を括弧で囲めば,既存の構文解析系による処理が成功するようになる.ただし,文(E\ref{SENT:parenthesis_someofthem})は挿入だけでなくbe動詞の省略も含んでいるため,``them''の直後に``are''を補う必要がある.\begin{SENT}\sentETheirseparateproposals,someofthemconflicting,willbewovenbyHouseDemocraticleadersintoafinaltradebillforavotebythefullHouseinlateApril.\sentJ◇それらの個別の提案、‖いくらかの‖それら‖対立する、‖下院の民主党のリーダーによって4月下旬の下院本会議による投票のための最終の貿易手形に織られるであろう。\sentNewETheirseparateproposals(someofthemareconflicting)willbewovenbyHouseDemocraticleadersintoafinaltradebillforavotebythefullHouseinlateApril.\sentNewJそれらの個別の提案(それらのうちのいくらかが対立している)は、下院の民主党のリーダーによって4月下旬の下院本会議による投票のための最終の貿易手形に組み立てられるであろう。\label{SENT:parenthesis_someofthem}\end{SENT}\subsection{強調}\label{sec:object:emphasis}強調のための言語的手段には,\ref{sec:object:inversion}\,節で述べた倒置文の他に感嘆文や修辞疑問文や分裂文などがある.このうち従来システムでは文(E\ref{SENT:emphasis})のような分裂文を適切に処理することができないが,これを文(E\ref{SENT:emphasis}')のように書き換えれば翻訳が改善される.文(E\ref{SENT:emphasis}')は,文(E\ref{SENT:emphasis})に対して,``it''を削除し,``which''を``what''に置換し,焦点の名詞句とその直前のbe動詞を``which''節の後方へ移動するという三操作を行なうことによって得られる.\begin{SENT}\sentEHowever,headdedthatintheend,itwasmarketforceswhichprevailed.\sentJしかしながら、彼は、結局それが普及していた市場諸力であるとつけ加えた。\sentNewEHowever,headdedthatintheend,whatprevailedwasmarketforces.\sentNewJしかしながら、彼は、結局普及していたものが市場諸力であるとつけ加えた。\label{SENT:emphasis}\end{SENT} \section{原文書き換え系} \label{sec:preedit}\subsection{原文書き換えの枠組}\label{sec:preedit:flow}本節で述べる原文書き換え系を組み込んだ機械翻訳システムにおける解析の流れを図\ref{fig:flow}\,に示す.このシステムでは,形態素解析終了後に書き換えを実行した後,書き換えた部分の形態素解析を行ない,入力文全体の形態素解析結果を構文解析系に送る.一度目の書き換え結果に対して全体を覆う構文構造が生成できず構文解析に失敗した場合,処理の制御は原文書き換え系に戻る.再度書き換えを行なう場合には,各書き換え規則に記述されている規則の信頼度(後述)に従って,一度目の書き換えでは用いなかった規則を新たに適用したり,逆に一度目の処理で行なった書き換えを取り消したりする\footnote{二度目の構文解析に失敗した場合には,断片的な構文構造を解析結果とする.}.\begin{figure}[htbp]\begin{center}\begin{epsf}\fbox{\epsfile{file=flow32.eps,width=0.65\columnwidth}}\end{epsf}\begin{draft}\atari(264.46587,49.13538,1pt)\end{draft}\end{center}\caption{解析の流れ}\label{fig:flow}\end{figure}原文書き換え系での処理は,形態素解析結果に対して先頭から順に書き換え規則の適用条件との照合を行なっていき,適用条件が満たされる部分を順次書き換えていく.\subsection{書き換え規則の形式}\label{sec:preedit:ruleformat}書き換え規則には,次に示すように,適用条件と書き換え操作の他,制御情報として適用抑制規則集合と信頼度を記述することができる.\[(\,識別番号,適用条件,書き換え操作,適用抑制規則集合,信頼度\,)\]\subsubsection{適用条件部}\label{sec:preedit:ruleformat:condition}適用条件は,ある指定された属性を持つ語句がある位置あるいは区間に存在するかどうかを調べる手続きの論理積,論理和の形で表現される.入力文中での書き換え対象候補の出現位置は次のように表す.まず着目語の出現位置を変数$p$で表し,$p+n$で着目語の$n$語後方(文末側)の語を,$p-n$で着目語の$n$語前方(文頭側)の語を指す.コンマや終止符なども語とみなす.特別な記号として文末の語を指すドル記号\$を用いる.この他,コンマが書き換え対象を発見するための重要な手がかりとなることが多い\cite{Jones94}ため,$\mbox{com\_fwd\_}m$で着目語の後方に存在する$m$番目のコンマを指し,$\mbox{com\_bwd\_}m$で前方の$m$番目のコンマを指すことにする.例えばword\_class(com\_fwd\_$1+2$,noun)という手続きは,着目語に最も近い後方のコンマの二語後方に,語種(品詞)候補として名詞を持つ語が存在するとき真を返し,存在しないとき偽を返す.適用条件部に記述する手続きは主に語の形態素語彙属性を調べるものであるが,特別な手続きとして,入力文のある部分を節や名詞句と解釈できるかという構文的な属性を調べる手続きを記述する.ただし,簡単な構文解析しか行なわない方針であることから,節の認識は次のような手順で行なう.\begin{quote}処理対象の先頭から順に述語になり得る定形動詞を探していく.もし見つかれば,その述語候補と人称・数が一致する名詞を主辞とする名詞句がその前方に存在するかどうかを調べる.もしそのような名詞句が存在すれば,それを主語とみなし,節が存在するものとする.\end{quote}ここで,名詞句を認識する手続きは次のような簡単な構造を検出するものである.上付き記号?と+はそれぞれ一回以下,一回以上の出現を意味する.\begin{eqnarray*}名詞句&=&名詞句0\(前置詞\名詞句0)^?\\名詞句0&=&(副詞^?\\{形容詞|過去分詞|現在分詞\})^?\\mbox{名詞}^+\end{eqnarray*}\subsubsection{操作部}\label{sec:preedit:ruleformat:action}書き換え操作には,語句の追加・削除・置換・移動,文の分割,前編集記号の付加がある.前編集記号の付加は,語の形態素語彙属性を指定したり,節や句の範囲や従属先を指定したりするためのものである.語句の語彙属性や従属先の指定によって解釈の曖昧性が減るため,解析の品質と速度の向上が期待できる.\subsubsection{適用抑制規則集合}ある規則$R$に与えられている適用抑制規則集合は$R$の適用を抑える他の規則に関するメタ条件を表し,規則$R$はその適用抑制規則集合に記述されている識別番号の規則が既に適用されている場合には適用されない.規則$R$の適用抑制規則集合には,$R$の書き換え対象と重複する部分を書き換えようとする規則だけでなく,書き換え対象が$R$のものと重複しない規則を含めてもよい.\subsubsection{信頼度}規則には,その信頼性が高く規則の適用によって翻訳品質が向上することがほぼ確実な規則もあれば,信頼性があまり高くない規則もある.信頼度は,このようなことを考慮して,信頼性があまり高くない規則による悪影響を抑えるために設定したものである.各規則には,その信頼性に応じてA,B,Cのいずれかの信頼度を与える.信頼度Aの規則は最初の構文解析の前に適用し,構文解析に失敗してもこの規則による書き換えは取り消さない.規則に信頼度Aを与えるのは,この規則を適用しないと構文解析に失敗することがほぼ確実であり,たとえこの規則によって書き換えた表現の構文解析に失敗して断片的な構文構造しか得られなかったとしても,この規則を適用しない場合の(断片的な)構文構造から生成される翻訳よりも高い品質の翻訳が生成されると期待される場合である.信頼度Bの規則は最初の構文解析の前に適用するが,最初の構文解析に失敗した場合,この規則による書き換えは取り消す.信頼度Cの規則は最初の構文解析の前には適用せず,最初の構文解析に失敗した場合に初めて適用する.各規則にどの信頼度を与えるかは実験を繰り返して経験的に決定する.\subsection{書き換え規則の例}\label{sec:preedit:example}書き換え規則の例として,挿入と省略を含む文(E\ref{SENT:parenthesis_someofthem})に対処するための規則と分裂文(E\ref{SENT:emphasis})に対処するための規則を図\ref{fig:rule_ex}\,に示す.図\ref{fig:rule_ex}\,の最初の規則が挿入と省略のための規則であり,二つ目が分裂文のための規則である.ただし,これらは,理解を容易にするため実際の規則を簡単化したものである.最初の規則の適用条件が満たされるのは,現在着目している位置に``someofthem''が存在し,着目語の直前がコンマであり,着目語に最も近い後方のコンマの直後に動詞が存在し,二つのコンマに挟まれた区間に``someofthem''を主語とする述語が存在しないときである.このとき,コンマを括弧に書き換え,``someofthem''の直後にbe動詞``are''を挿入する.二つ目の規則は,現在着目している位置に代名詞``it''が存在し,着目語の直後がbe動詞の肯定形あるいは否定形であり,その直後に名詞句が存在し,その名詞句の直後に``which''が存在するときに適用する.\begin{figure}[tbhp]\begin{RULE}{0.9\textwidth}\begin{verbatim}(/*識別番号*/36,/*適用条件*/(word(p,p+2,"someofthem")==TRUE&&word(p-1,",")==TRUE&&word_class(com_fwd_1+1,verb)==TRUE&&subject_predicate(com_bwd_1+1,com_fwd_1-1)==FALSE),/*書き換え操作*/(substitute(com_bwd_1,"("),substitute(com_fwd_1,")"),insert(p+2,"are")),/*適用抑制規則集合*/(),/*信頼度*/A)(/*識別番号*/42,/*適用条件*/(word(p,"it")==TRUE&&word_class(p+1,be)==TRUE&&(noun_phrase(p+2,q)==TRUE||word(p+2,"not")==TRUE&&noun_phrase(p+3,q)==TRUE)&&word(q+1,"which")==TRUE),/*書き換え操作*/(remove(p),substitute(q+1,"what"),move(p+1,q,$-1)),/*適用抑制規則集合*/(),/*信頼度*/B)\end{verbatim}\end{RULE}\caption{書き換え規則の例}\label{fig:rule_ex}\end{figure} \section{実験と考察} \label{sec:experiment}原文書き換えの有効性を検証するために,提案手法を我々の従来システムに組み込み,翻訳品質がどの程度向上するかを調べる実験と翻訳速度がどの程度向上するかを調べる実験を行なった.\subsection{実装}今回の実験のために実装した書き換え規則の総数は35規則であり,その内訳は倒置,省略,挿入,強調用がそれぞれ18,6,8,3規則である\footnote{規則作成に要した時間的,人的コストも提案手法の有効性を判断する上で重要なファクターであるとの指摘を査読者の方より受けたが,記録がなく記載できない.}.規則の適用条件部には,形態素語彙属性を調べる手続きと構文的な属性を調べる手続きの二種類が記述されている.構文的な属性を調べる手続きは,\ref{sec:preedit:ruleformat:condition}\,節で述べた,簡単な名詞句を認識する手続きnoun\_phrase()と,これを利用して節を認識する手続きsubject\_predicate()である.形態素属性を調べる手続きは,単語の語形,語種(品詞),意味標識などの照合を行なうものである.形態素属性を調べる手続きの一覧を付録の表\ref{tab:morph_proc}\,に示す.各規則の適用条件部に含まれる平均手続き数を表\ref{tab:rule_complex}\,に示す.形態素属性を調べる手続きは,表\ref{tab:rule_complex}\,によれば,実装した規則全体の平均で10.1個含まれている.最も多い規則では16個,最も少ない規則では3個である.構文属性を調べる手続きについては,平均で0.9個,最も多い規則で3個,最も少ない規則では0個である.構文属性を調べる手続きを全く含まない規則は10規則存在する.\begin{table}[htbp]\caption{適用条件部を構成する平均手続き数}\label{tab:rule_complex}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{|c|}{倒置}&\multicolumn{1}{|c|}{省略}&\multicolumn{1}{|c|}{挿入}&\multicolumn{1}{|c|}{強調}&\multicolumn{1}{|c|}{全体}\\\hline\hline形態素属性&10.6&10.0&10.8&6.0&10.1\\\hline構文属性&1.2&0.3&0.5&1.0&0.9\\\hline\end{tabular}\end{center}\end{table}\subsection{翻訳品質評価実験}\subsubsection{実験方法}評価実験には新聞記事\cite{Lewis97}から抽出した6182文を用いた.これらのうち1282文は従来システムでの構文解析に失敗するものであり,残り4900文は失敗しないものである.評価文集に含まれる文の長さは,最も短いもので4語,最も長いもので63語,平均では27.7語であった.評価文集には書き換え規則作成時に参照した文も含まれているため,今回の実験は完全ブラインドテストではない\footnote{本稿では,提案手法の技術的限界を知ることを主な目的としているため,ユーザの立場からの評価であるブラインドテストは今後の課題とする.}.規則記述の方針として,書き換えるべき表現が書き換えられない(再現率が上がらない)ことにはあまり注意せず,書き換えるべきでない表現を書き換えてしまう誤りの発生を極力抑える(適合率を上げる)ことにした.このため,評価では適合率のみに着目し,書き換えるべきでない表現が誤って書き換えられていないかを調べた.次に,規則が正しく適用されている文について,原文書き換え系を組み込んだ場合と組み込まない場合とで次の二点について比較した.\begin{LIST}\item[\bf解析品質]原文書き換えを行なうことによって,構文解析失敗の頻度がどの程度減少するか.失敗とは,\ref{sec:introduction}\,節で述べたように,入力文全体を覆う構文構造が生成できないことを意味する.\item[\bf翻訳品質]翻訳品質がどの程度向上するか.評価値は,品質の向上・若干向上・低下・若干低下・同等のいずれかとした.評価の実施は第三者一名に依頼した.\end{LIST}\subsubsection{実験結果}実験に用いた6182文のうち書き換え規則が適用された文は5.3\%にあたる330文であった.書き換えるべきでない表現に規則が誤って適用された文は存在しなかった.二つ以上の規則が適用された文は存在しなかった.書き換えられた330文の構文解析品質の改善度を表\ref{tab:result_parse}\,に示す.表\ref{tab:result_parse}\,によれば,330文の55.8\%にあたる184文について,失敗していた構文解析が成功するようになっている.ここで,「成功」とは,入力文全体を覆う構文構造が生成できたことを意味しており,人間にとって正しい解釈が生成できたことを必ずしも意味しない.原文書き換えを行なっても依然として構文解析に失敗している33文の内訳は,今回書き換え対象としなかった等位構造などの相対的不適格現象を含むものが10文,記述した書き換え規則で捉えられなかった挿入や省略を含むものが8文,綴り誤りなどを含む絶対的不適格文が7文などであった.原文書き換えによって「成功」から「失敗」に悪化した文は存在しなかった.なお,表\ref{tab:result_parse}\,は不適格現象ごとの集計ではなく書き換え規則ごとの集計である.例えば\ref{sec:object}\,節で挙げた文(E\ref{SENT:parenthesis_someofthem})は挿入と省略の二つの不適格現象を含むが,図\ref{fig:rule_ex}\,に示した一つの書き換え規則で書き換えられるため,挿入に関する規則としてのみ数えた.\begin{table}[htbp]\caption{構文解析品質の改善}\label{tab:result_parse}\begin{center}\begin{tabular}{|c||r|r|r|r|r@{}r|}\hline&\multicolumn{1}{|c|}{倒置}&\multicolumn{1}{|c|}{省略}&\multicolumn{1}{|c|}{挿入}&\multicolumn{1}{|c|}{強調}&\multicolumn{2}{|c|}{計}\\\hline\hline失敗$\rightarrow$成功&93&58&33&0&184&(55.8\%)\\失敗$\rightarrow$失敗&3&17&13&0&33&(10.0\%)\\成功$\rightarrow$成功&23&86&1&3&113&(34.2\%)\\成功$\rightarrow$失敗&0&0&0&0&0&(0.0\%)\\\hline\multicolumn{1}{|c||}{計}&119&161&47&3&330&(100\%)\\\hline\end{tabular}\end{center}\end{table}330文についての翻訳品質改善度の評価結果を表\ref{tab:result_trans}\,に示す.表\ref{tab:result_trans}\,によれば,規則が適用された330文の78.8\%にあたる260文で品質改善が見られる.\begin{table}[htbp]\caption{翻訳品質の改善}\label{tab:result_trans}\begin{center}\begin{tabular}{|l||r|r|r|r|r@{}r|}\hline&\multicolumn{1}{|c|}{倒置}&\multicolumn{1}{|c|}{省略}&\multicolumn{1}{|c|}{挿入}&\multicolumn{1}{|c|}{強調}&\multicolumn{2}{|c|}{計}\\\hline\hline向上&62&64&25&3&154&(46.7\%)\\若干向上&49&44&13&0&106&(32.1\%)\\同等&5&41&8&0&54&(16.4\%)\\若干低下&0&5&1&0&6&(1.8\%)\\低下&3&7&0&0&10&(3.0\%)\\\hline\multicolumn{1}{|c||}{計}&119&161&47&3&330&(100\%)\\\hline\end{tabular}\end{center}\end{table}書き換え規則が正しく適用されているにも拘らず評価値が「低下」となった10文についてその原因を分析した\footnote{原因は,実験に用いたシステムの既存部分の不備にあり,書き換え自体は文法的に正しい.}.省略に関する7文はすべて接続詞``that''の省略を含むものであった.``that''の補完が文(E\ref{SENT:ellipsis_saythat})のように品質改善につながることも多いが、文(E\ref{SENT:B1_saythat})のようにつながらないこともある.文(E\ref{SENT:B1_saythat})を翻訳した文(J\ref{SENT:B1_saythat})では,``that''は接続詞と解釈されずに形容詞と誤解釈されている\footnote{``thatsecondarytrading''が名詞句と解釈され「その第2の取引」と翻訳されている.}が,``and''以降の節``that$\ldots$tomorrow.''も被伝達節として正しく認識されている.これに対して文(J\ref{SENT:B1_saythat}')では,被伝達節として認識されているのは二つの節のうち一つ目の節``telephone$\ldots$today''だけである.文(J\ref{SENT:B1_saythat}')は,``1500hrsEST''などの時間表現が原語のまま残っているが,被伝達節の範囲が誤りであることは原文と照らし合わせなければ判明しないため誤解を招く危険な翻訳である.\begin{SENT}\sentETheofficesaidtelephoneconfirmationofallotmentsmustbereceivedby1500hrsESTtodayandthatsecondarytradingwillbeginat0930hrsESTtomorrow.\sentJそのオフィスは言った。割当額の電話確認は、1500hrsESTによって今日受け取られなければならず、そして、その第2の取引は、0930hrsESTから明日始まるであろうと。\sentNewETheofficesaidthattelephoneconfirmationofallotmentsmustbereceivedby1500hrsESTtodayandthatsecondarytradingwillbeginat0930hrsESTtomorrow.\sentNewJそのオフィスは、割当額の電話確認が1500hrsESTによって今日受け取られなければならないと言い、そして、その第2の取引は、0930hrsESTから明日始まるであろう。\label{SENT:B1_saythat}\end{SENT}評価値が「低下」となった残りの3文は,文(E\ref{SENT:B1_should})のように,二つの節``should$\ldots$thisquarter''と``thisaction$\ldots$negotiations''の節境界を示すコンマが存在しないために,書き換え後の文(E\ref{SENT:B1_should}')において節境界の認識を誤ったものである.文(E\ref{SENT:B1_should}')を翻訳した文(J\ref{SENT:B1_should}')では,``If$\ldots$urgency''が名詞節と解釈されているが,``if''で導かれる節が名詞節ではなく副詞節であることは,文頭の``should''を``if''に置き換える規則を文(E\ref{SENT:B1_should})に適用する段階で判明しているので,``if''の語種(品詞)を副詞節接続詞と指定する前編集記号``ca\_''を付加する操作を書き換え規則に追加し,文(E\ref{SENT:B1_should}'')のように書き換えることは可能である.この修正によって文(J\ref{SENT:B1_should}'')のような翻訳が得られる.\begin{SENT3}\sentE3ShouldCiticorpactuallyplacetheBrazilianloansinanon-performingcategoryattheendofthisquarterthisactionwouldservetoalleviatetheurgencyassociatedwiththedebtnegotiations,heargues.\sentJ3◇シティコープ‖ブラジルのローンを終りの契約不履行のカテゴリに実際に置く‖の。今期にこの活動が負債交渉によって関連していた切迫を緩和するのに役立つであろう、と彼は主張する。\sentNewE3IfCiticorpactuallyplacetheBrazilianloansinanon-performingcategoryattheendofthisquarterthisactionwouldservetoalleviatetheurgencyassociatedwiththedebtnegotiations,heargues.\sentNewJ3シティコープがブラジルのローンを切迫を緩和するためにこの活動が役立つであろう今期の終りの契約不履行のカテゴリに実際に置くかどうかが負債交渉と結合した、と彼は主張する。\sentYAE3ca\_IfCiticorpactuallyplacetheBrazilianloansinanon-performingcategoryattheendofthisquarterthisactionwouldservetoalleviatetheurgencyassociatedwiththedebtnegotiations,heargues.\sentYAJ3シティコープがブラジルのローンを今期の終りの契約不履行のカテゴリに実際に置くならば、この活動が負債交渉と結合していた切迫を緩和するのに役立つであろう、と彼は主張する。\label{SENT:B1_should}\end{SENT3}\subsection{翻訳速度評価実験}\subsubsection{実験方法}構文解析前に原文を書き換えれば,その分の処理の負担が増加する一方で,すべての構文解析規則の適用が試みられる可能性が低くなり構文解析の負担が減少する.このため,システム全体としては処理効率が向上すると予想される.この点を確認するために,原文書き換え系を従来システムに組み込んだ場合と組み込まない場合の翻訳速度を比較した.翻訳時間の測定は次の四種類の評価文集について行なった.\begin{CORPUS}\corpus品質評価実験に用いた6182文.\label{CORPUS:all}\corpus評価文集\ref{CORPUS:all}\,のうち構文解析に失敗する1282文.\label{CORPUS:fail}\corpus評価文集\ref{CORPUS:all}\,のうち書き換え規則が適用された330文.\label{CORPUS:all-applied}\corpus評価文集\ref{CORPUS:fail}\,のうち書き換え規則が適用された217文.\label{CORPUS:fail-applied}\end{CORPUS}\subsubsection{実験結果}各評価文集について,原文書き換え系を組み込まない場合の一文当り平均の翻訳時間と,組み込んだ場合の一文当り平均の翻訳時間,さらに,前者の翻訳速度を1としたときの後者の翻訳速度を表\ref{tab:result_efficiency}\,に示す.実験に用いた計算機のCPUは$\mbox{Pentium}^{\mbox{\tiny{(R)}}}$II400MHz,メモリは128MB,OSは$\mbox{Windows}^{\mbox{\tiny{(R)}}}$98である.翻訳システムはC言語で記述されている.評価文集\ref{CORPUS:all}\,を対象とした実験の結果,原文書き換えを行なった場合の速度は行なわない場合の速度に対して1.12となっている.評価文集\ref{CORPUS:all}\,において実際に書き換えられた文の数は入力文数の5.3\%に過ぎないが,このことを考慮すると翻訳速度向上への原文書き換えの貢献度は高いと考えられる.評価文集\ref{CORPUS:all-applied}\,を対象とした実験の結果より,書き換えるべき文がすべて書き換えられた場合には翻訳速度は2.6倍程度にまで向上するという一つの目安が得られた.また,構文解析が失敗することがあらかじめ判明している文だけを対象とした場合には,評価文集\ref{CORPUS:all}\,や\ref{CORPUS:all-applied}\,を対象とした場合よりも大きな効果が現れることが確認された.\begin{table}[htbp]\caption{翻訳速度の比較}\label{tab:result_efficiency}\begin{center}\begin{tabular}{|c|c|c|c|}\hline評価文集&原文書き換えなし(秒)&あり(秒)&速度比\\\hline\hline\ref{CORPUS:all}&1.20&1.07&1.12\\\ref{CORPUS:fail}&2.63&2.01&1.31\\\ref{CORPUS:all-applied}&3.93&1.46&2.69\\\ref{CORPUS:fail-applied}&5.27&1.51&3.49\\\hline\end{tabular}\end{center}\end{table}原文書き換え系を組み込むことによってシステム全体の処理効率が向上したのは,具体的には次の二つの理由による.我々の構文解析系は二段階方式に基づいており,適格文用の構文解析規則を用いて解析を行なう機構と,この機構による通常の解析が失敗した時点で起動され,解析途中で生成された部分構造の中から発見的知識を用いて妥当なものを選び出すための別の機構を備えている.第一の理由は,システムにとっての不適格文が原文書き換え系によって適格文に書き換えられると,第二の機構による処理を実行する必要がなくなるからである.従って,構文解析前に原文書き換えを行なうことによる処理効率向上の効果は,我々のシステムに限らず,制約緩和法や部分解析法のように二段階方式で構文解析を行なっているシステムで一般に期待できる.システムが想定していない言語現象を含む文の構文解析が失敗することは,第一の機構に記述されている規則をすべて適用し終えないと判明しない.これに対して,システムが想定している言語現象の文の解釈は,すべての規則を適用しなくても生成できる.速度向上のもう一つの理由は,原文書き換えによって,第一の機構で適用される規則の数すなわち生成される部分構造の数が減っていることである\footnote{適用される規則の数が具体的にどの程度減ったかの検証は本稿の範囲を越える.}.今回実装した書き換え規則では実際には記述していないが,\ref{sec:preedit:ruleformat:action}\,節で述べたように,本稿の原文書き換え系では書き換え操作として前編集記号を付加する操作を記述することができる.前編集記号の付加によって解釈の曖昧性が減るため,この操作を記述することによって解析速度がさらに向上する.例えば,文(E\ref{SENT:B1_should}')では``if''に名詞節接続詞か副詞節接続詞かの曖昧性があるが,文(E\ref{SENT:B1_should}'')では副詞節接続詞に決定されるため,文(E\ref{SENT:B1_should}')を文(E\ref{SENT:B1_should}'')に書き換えれば,さらに翻訳時間が短縮される. \section{関連研究との比較} \label{sec:relatedworks}原文書き換えを,形態素解析で得られる情報と通常よりも簡単な構文解析で得られる情報に基づいて行なう手法としては,金らの方法\cite{Kim94}や加藤らの方法\cite{KatoTerumasa97}がある.金らの方法は,長い日本語文の構文解析が失敗しやすいという問題に,長文を複数の短文に分割し,必要な場合には各短文に主語を補うことによって対処するものである.これに対して本稿の原文書き換え系では,文の分割だけでなく,語句の追加・削除・置換・移動,前編集記号の付加が可能であり,単に文を分割する場合よりも品質の高い翻訳が得られる.加藤らは,英語の複文に着目してその編集方法を示しているが,書き換え方法の提案に留まっており評価結果は報告されていない. \section{おわりに} 本稿では,一部の構文レベルの相対的不適格文を既存システムでも適切に扱えるように書き換えることによって頑健な処理を実現する手法を示した.この原文書き換え系を既存の英日機械翻訳システムの形態素解析系と構文解析系の間に組み込み,翻訳の品質と速度が改善されることを実験によって確認した.倒置,省略,挿入,強調の現象にはそれぞれ様々なパターンがあるが,今回着目したパターンは比較的単純なものであり,記述した規則で多様なパターンを網羅しているわけではない.また,書き換えるべき表現が書き換えられないことにはあまり注意を払わなかった.今後,これらの点を考慮に入れた規則の拡張が必要である.\acknowledgment英々変換系の初期の実装を行なって頂いたシャープ(株)設計技術開発センターの関谷正明さんと,議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に非常に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{rew}\newpage\appendix\begin{table}[hb]\caption{形態素属性を調べる手続きの一覧}\label{tab:morph_proc}\begin{center}\begin{tabular}{|l||p{0.5\textwidth}|}\hline\multicolumn{1}{|c||}{手続き名}&\multicolumn{1}{c|}{説明}\\\hline\hlineword($pos$,$w$)&入力文中で位置$pos$に単語$w$が存在すれば真を,さもなければ偽を返す.$pos$には,$p$(着目語の位置),$p+n(-3\len\le5)$,$\mbox{com\_fwd\_}m+n(m\le3)$,$\mbox{com\_bwd\_}m+n(m\le3)$,0(文頭),\$(文末)のいずれかが記述される.\\\hlineword($pos_1$,$pos_2$,$w$)&入力文中の区間$[pos_1,pos_2]$に単語$w$が存在すれば真,さもなければ偽.\\\hlineword\_class($pos$,$wc$)&位置$pos$に語種が$wc$である語が存在すれば真,さもなければ偽.$wc$としては,adjective,noun,singular\_noun,plural\_noun,verb,past\_participleなど59種類が記述されうる.\\\hlineword\_class($pos_1$,$pos_2$,$wc$)&区間$[pos_1,pos_2]$に語種が$wc$である語が存在すれば真,さもなければ偽.\\\hlinesem\_feat($pos$,$sf$)&位置$pos$に意味標識が$sf$である語が存在すれば真,さもなければ偽.$sf$としては,HUMAN,TIME,PLACEなど40種類が記述されうる.\\\hlinesem\_feat($pos_1$,$pos_2$,$sf$)&区間$[pos_1,pos_2]$に意味標識が$sf$である語が存在すれば真,さもなければ偽.\\\hlineverb\_pat($pos$,$vp$)&位置$pos$に動詞型が$vp$である語が存在すれば真,さもなければ偽.$vp$としては,Hornbyの分類\cite{Hornby77}を拡張した60種類が記述されうる.\\\hlineverb\_pat($pos_1$,$pos_2$,$vp$)&区間$[pos_1,pos_2]$に動詞型が$vp$である語が存在すれば真,さもなければ偽.\\\hlineadj\_pat($pos$,$ap$)&位置$pos$に形容詞型が$ap$である語が存在すれば真,さもなければ偽.$ap$としては,Hornbyの分類を拡張した9種類が記述されうる.\\\hlineadj\_pat($pos_1$,$pos_2$,$ap$)&区間$[pos_1,pos_2]$に形容詞型が$ap$である語が存在すれば真,さもなければ偽.\\\hlineidiom($pos$)&位置$pos$の語が慣用句の構成要素ならば真,さもなければ偽.\\\hline\end{tabular}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報システム事業本部ソリューション事業推進センターソフト開発部係長.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{福持陽士}{1982年インディアナ大学言語学部応用言語学科修士課程修了.翌年,シャープ(株)に入社.現在,情報システム事業本部ソリューション事業推進センターソフト開発部副参事.機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\biorevised{再々受付}\bioaccepted{採録}\end{biography}\newpage\\end{document}
V06N06-05
\section{はじめに} 本稿は、語彙的結束性(lexicalcohesion)という文章一般に見られる現象に基づき話題の階層構成を認定する手法を提案する。この手法は、任意の大きさの話題を選択的取り出せること、大きな話題と小さな話題との対応関係を認定できること、文書の種類によらない汎用性を持つことの3つの要件を満たすよう考案した手法である。本研究の最終的な目標は、数十頁の文書に対して、1〜2頁程度の要約を自動作成することにある。これは、白書などの長い文書に関し、オンラインで閲覧中の利用者のナビゲートや、簡潔な調査レポートの作成支援などに用いることを意図している\cite{JFJ-V49N6P434}。長い文書に対して簡潔な要約を作成するには、適切な粒度の話題を文書から抽出する技術が必要になる。白書のような数十頁におよぶ報告書の場合、骨子をひとまず把握しておこうとしている利用者にとっては、1/4程度にまとめた通常の要約ではなく、1頁で主要な話題の骨子のみを取り上げた要約の方が利用価値が高い。このように原文に比べて極端に短い要約は、要約に取り込む話題を厳選しないと作成できない。例えば、新聞記事からの重要文抜粋実験\cite{NL-117-17}によれば、それぞれの話題に対して最低3文程度(120〜150文字程度)抜粋しないと内容の把握が難しい\footnote{見出し1文に本文から抜粋した2〜3文を提示すれば、雑談の話題として提供できる程度には理解できた気になれる。}。よって、1,500字程度(A4判1頁程度)の要約を作成するのであれば、要約対象の文書から10個程度以下の主要な話題を厳選して抽出しなければならない。従来の自動要約研究の多くは、新聞の社説や論文など、全体を貫く論旨の流れのはっきりした文章を対象にしてきた(例えば\cite{J78-D-II-N3P511})。あるいは、複数記事をまとめて要約する研究(例えば\cite{NL-114-7})であっても、何らかの一貫した流れ(ストーリーや事件の経過など)に沿う文章を対象にしてきた点に変わりはない。言い換えれば、ひとつの談話の流れに沿った文章を対象に、要約研究が進められてきたといえる。しかし、白書などの長い文書では、文書全体を貫く論旨の流れが存在するとは限らず、ある論旨に沿って記述された複数の文章が、緩やかな関連性の下に並べ置かれていることが多い。このような集合的文書を1頁程度に要約するためには、大局的な話題構成を認定して、要約に取り入れるべき話題を選択/抽出する必要がある。すなわち、原文書の部分を抜粋して要約を作成するのであれば、それぞれの談話の単位(修辞的な文章構造)を要約する技術に加え、個々の談話の単位を包含する大きな話題のまとまりを認定する技術と、要約に取り入れるべき適切な話題のまとまりを選択する技術の2つが必要となる。また、特に長い文書では、大きな話題まとまりの下に談話の単位が並ぶという2レベルの構造だけでなく、大きな話題から従来技術で要約可能な大きさのまとまりまで、色々なレベルで選択できるよう、多層構造の話題のまとまり、すなわち、話題の階層構成が望まれる。談話の単位を包含する大きな話題のまとまりは、文書の論理構造(章や節など)と深く関連するので、その認定を書式解析(例えば\cite{J76-D-II-N9P2042,NLC94-17})に\break\vspace*{-1mm}より行うことも考えられる。しかしながら、書式解析処理は、処理対象を限定すれば容易に実現できるものの、汎用性に問題がある。つまり、書式はある種類の文書における約束事であるため、文書の種類毎に経験的な規則を用意しなければならないという問題点がある。また、同じ章の下に並んでいる節であっても、節間の関連の程度が大きく異なる場合もあり、文書の論理構造と話題の階層構成とは必ずしも一致しない。このような場合にも的確に(大きな)話題のまとまりを認定できる手法が望まれる。そこで、本稿では、書式解析などより一般性の高い語彙的結束性という言語現象に基づき、談話の単位を包含するような話題の階層構成の認定を試みる。語彙的結束性とは、文章中の関連箇所に見られる、同一語彙あるいは関連語彙の出現による結び付きのことであり、\cite{Haliday.M-76}で、英文において文章らしさ(texture)をもたらす要因の1つとして提示されたものである。国語学においても、\cite{Nagano.M-86}が、主語(話題)の連鎖、陳述(表現態度)の連鎖、主要語句の連鎖というよく似た言語現象を、日本語の文章構造をとらえる主要な観点として、文や段落の連接、統括の2つとともにあげている。語彙的結束性に基づき文章構造を認定する手法は、文章中の関連語彙の連鎖を追跡するタイプと、文章中の同一語彙(または関連語彙)の出現密度を測定するタイプの2つに大別される。連鎖追跡タイプの研究には、\cite{CL-V17N1P21}を筆頭に、\cite{NLC93-8,NL-102-4,PNLP-2-P325}などがあり、出現密度測定タイプの研究には、提案手法のベースである\cite{PACL-32-P9}の手法\footnote{\cite{PACL-32-P9}には連鎖追跡タイプの手法も別法として示されている。}や、\cite{NLC93-7,NLC93-63}などがある。また、情報検索の立場から、文書中の要素を元の文書構造とは異なる構造にクラスタリングする研究\cite{HYPERTEXT96-P53}なども、出現密度測定タイプの一種としてとらえられる。これらの研究は、\cite{CL-V17N1P21}中の基礎的な検討と文書分類的研究\cite{HYPERTEXT96-P53}を除けば、話題の転換点だけを求める手法であり、本稿とは異なり、話題の階層構成までは認定対象としていない。また、認定対象の話題のまとまりは、基本的には数段落程度の大きさであり、大きくても新聞の1記事程度である。すなわち、本稿のように複数の記事を包含するようなまとまりを語彙的結束性だけを使って認定することは、試みられていなかった。また、連鎖追跡タイプの語彙的結束性による話題境界の認定技術と、接続詞や文末のモダリティに関わる表現などの手がかりとする文章構造解析技術\cite[など]{NL-78-15,J78-D-II-N3P511,LIS-N31P25}を併用して、大域的な構造の取り扱いを狙った研究\cite{JNLP-V5N1P59}もある。ただし、現時点で提示されているのは、語彙的結束性を修辞的な関係の大域的な制約として用いる手法だけなので、修辞的関係が働く範囲内の文章構造までしか原理的に認定できない\footnote{\cite{JNLP-V5N1P59}では、「話題レベル」の構造の上に、導入・展開・結論という役割に関する「論証レベル」という構造も想定している。実際にこのような機能構造を解析するためには、\cite{LIS-N30P1}が論じているような、分野に依存した類型的構成の知識(スキーマ)などが必要になると考えられる。}。本稿では、同一語彙の繰り返しだけを手がかりにするという単純な手法で、章・節レベルの大きさのまとまりまで認定可能かを確かめることをひとつのテーマとする。また、同一語彙の繰り返しだけを手がかりにする方法で話題の階層関係が認定できるかをもうひとつのテーマとする。以下、\ref{sect:Hearst法}章で\cite{PACL-32-P9}の手法によって章・節レベルの大きな話題の境界位置の認定を試みた実験の結果を示し、問題点を指摘する。次に、指摘した問題点を解決するために考案した提案手法の詳細を\ref{sect:話題構成認定手法}章で説明し、その評価実験を\ref{sect:評価実験}章で報告する。 \section{Hearstの手法を用いた章・節レベルの話題境界の認定} \label{sect:Hearst法}本章では、提案手法のベースになっているHearstの話題境界認定手法\cite[以下Hearst法と称する]{PACL-32-P9}を紹介し、それを章・節レベルの大きな話題の境界の認定に適用した実験の結果を示す。そして、実験結果に基づきHearst法の問題点を議論する。\subsection{Hearst法による話題境界の認定}Hearst法では、まず、文書中の各位置の前後に、段落程度の大きさ(120語程度)の窓を設定し、その2つの窓にどれくらい同じ語彙が出現しているかにより、2つの窓内の部分の類似性を測定する。類似性は、次に示す余弦測度(cosinemeasure)\footnote{「コサイン・メジャー」とカナ書きされることも多いが、長過ぎて読みにくいので、本稿では「余弦測度」と訳した。}で測定している。\[sim(b_{l},b_{r})=\frac{\Sigma_{t}w_{t,b_{l}}w_{t,b_{r}}}{\sqrt{\Sigma_{t}w_{t,b_{l}}^{2}\Sigma_{t}w_{t,b_{r}}^{2}}}\]\noindent{}ここで、$b_{l}$,$b_{r}$は、それぞれ、左窓(文書の冒頭方向側の窓)、右窓(文書の末尾方向側の窓)に含まれる文書の部分であり、$w_{t,b_{l}}$,$w_{t,b_{r}}$は、それぞれ、単語$t$の左窓、右窓中での出現頻度である。この値は、前後の窓に共通語彙が多く含まれるほど大きくなり(最大1)、共通語彙が全くない時に最小値0をとる。つまり、この値が大きい部分は、前後の窓で共通の話題を扱っている可能性が高く、逆に、この値が小さい部分は、話題の境界である可能性が高いことになる。本稿では、この値を結束度(cohesionscore)と呼ぶことにする。また、結束度に対応する窓の境界位置を結束度の基準点(referencepoint)と称し、基準点によって結束度を並べたものを結束度系列(cohesionscoreseries)と称することにする。Hearst法は、上記の結束度を文書の冒頭から末尾まで、ある刻み幅(20語)で基準点をずらしながら測定し、極小となる位置を話題境界と認定する。ただし、結束度の細かい振動を無視するために、極小点$mp$の周囲で単調減少(極小点の左側)/単調増加(極小点の右側)している部分を切りだし、その開始点$lp$と終了点$rp$における結束度$C_{lp},C_{rp}$と結束度の極小値$C_{mp}$との差を基に以下のdepthscoreと呼ばれる値$d$を計算し、極小点における結束度の変動量の指標としている。そして、$d$が閾値$h$を越えた極小点だけを話題境界として認定している\footnote{結束度が大きく落ち込んだ部分がより話題境界である可能性が高いと考えることに相当。}。\begin{eqnarray*}d&=&(C_{lp}-C_{mp})+(C_{rp}-C_{mp})\\h&=&\bar{C}-\sigma/2\\\end{eqnarray*}\noindent{}ここで、$\bar{C},\sigma$は、それぞれ、文書全体における結束度$C_p$の平均値と標準偏差である。\subsection{Hearst法に基づく大きな話題の認定実験}\label{sect:大きな話題の認定実験}Hearst法は、上記のように、結束度計算用窓の幅の2倍の範囲における語彙の繰り返し状況を手がかりに、話題境界を認定する手法である。\cite{PACL-32-P9}では数段落程度の大きさの話題のまとまりしか認定を試みていないが、\cite{PACL-32-P9}より大きな幅の窓を用いれば大きな話題のまとまりを認定できる可能性がある。大きな話題に関連する語(特に名詞)は大きな間隔で繰り返される傾向があるので\footnote{\cite{BABA.T-86}の反復距離(繰り返される語彙の出現間隔の平均値)の分析や\cite{CL-V17N1P21}の語彙連鎖の再開(chainreturn)の観察など参照。}、窓幅を大きくとって大きな間隔で繰り返される語彙の出現状況を反映した結束度を計算すれば、大きな話題に関する話題境界が得られる可能性がある。また、窓幅を大きくとれば余弦測度の計算式の分母が大きくなり、小さい間隔で繰り返される語による結束度の変動は小さくなると考えられるので、小さい話題に関する話題境界の検出もある程度抑制できると考えられる\footnote{Hearst法の類似手法により記事境界の認定を試みた研究\cite{NLC93-63}にも、「ウィンドウサイズが大きくなると検出されるテキスト構造も大局的になるようである」とのコメントがある。}。そこで、Hearst法で大きな話題のまとまりを認定できるかを調べるために\cite{PACL-32-P9}より巨大な(10〜5倍程度)窓幅で計算した結束度により話題境界を認定する実験を行った。実験文書としては、(社)電子工業振興協会『自然言語処理システムの動向に関する調査報告書』(平成9年3月)の第4章「ネットワークアクセス技術専門委員会活動報告」(pp.~117--197)を用いた。この文書は、4.1節から4.4節の4節からなり、1,440文(延べ17,816内容語\footnote{動詞・名詞・形容詞のいずれか。詳細については\ref{sect:単語認定}節で説明する。})を含んでいる。図\ref{fig:Hearst法:1280語窓}と図\ref{fig:Hearst法:640語窓}は、この実験の結果であり、以下のグラフを文書中での位置(文書の冒頭からその位置までの延べ語数)を横軸にとって示してある。\begin{itemize}\item点線の棒グラフは、実験文書の節の開始位置である。長い点線ほど大きい節と対応する。\item折れ線グラフ(◇)は結束度系列である。結束度は、図\ref{fig:Hearst法:1280語窓}では1280語幅の窓、図\ref{fig:Hearst法:640語窓}では640語幅の窓によって、それぞれ窓幅の1/8(160語と80語)刻みで計算し\footnote{先頭の7点では、左窓に窓幅分の語数がないが、構わず左窓中の語数が少ないままで計算した。文書の末尾も同様。}、プロットした。\item実線の棒グラフ(*)は、結束度の極小点で計算したdepthscore$d$である。また、実線の水平線はdepthscoreの閾値$h$である。\end{itemize}\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=fig/88_ue_250.eps,width=120mm}\caption{窓幅1280語のHearst法による話題境界}\label{fig:Hearst法:1280語窓}\end{center}\begin{center}\leavevmode\epsfile{file=fig/88_sita_250.eps,width=120mm}\caption{窓幅640語のHearst法による話題境界}\label{fig:Hearst法:640語窓}\end{center}\end{figure}\subsubsection{Hearst法の検討}\label{sect:Hearst法の検討}これらの図に見られるように、結束度の極小点は節境界とよく一致しており、窓幅の大きい結束度を使うと大きな話題の切れ目が認定でき、窓幅の小さい結束度を使うと小さい話題の切れ目が認定できるという傾向がある。よって、大きな窓幅(の結束度)で認定した話題境界と、小さい窓幅で認定した話題境界を組み合わせれば、大きな話題(主題)のまとまりの中に、小さな話題(副主題)のまとまりがある、というような話題の階層構成が認定できる見込みがある。しかし、Hearst法には、次のような問題点がある。ひとつは、大きな話題と小さな話題の区別が難しいことである。図\ref{fig:Hearst法:1280語窓}に見られるように、depthscoreは結束度の局所的変化の激しさを示す値であるので、話題の大きさとは直接関係しない。例えば、図\ref{fig:Hearst法:1280語窓}の12,000語の手前にある4.4節の開始位置は、14,000語付近にある、4.4.2節と4.4.3節の開始位置より大きい話題の境界であると考えられるが、depthscoreの値は、後者の方が大きくなっている。これは、図の矢印で示した部分の結束度の小さな谷により、4.4節の開始位置付近の結束度の落差が2つのdepthscoreに分散してしまったことによる。また、このようなdepthscoreの不安定さにも関係して、depthscoreの閾値の設定が難しいという問題もある。図\ref{fig:Hearst法:1280語窓}、\ref{fig:Hearst法:640語窓}では、前述の閾値$h$を用いたが、図\ref{fig:Hearst法:1280語窓}を見る限り、閾値をもっと下げた方がよいように思える。例えば、もうほんの少し閾値を下げれば、2,000語の手前にある4.2.2節の開始位置なども話題境界として認定することができる。あるいは、全ての結束度の谷を話題境界と認定してもよいようにも思える。しかし、閾値を下げ過ぎてしまうと、図\ref{fig:Hearst法:640語窓}の8,000語〜10,000語付近の幅の狭い山による境界も全て話題境界として認定されてしまう。このため、話題の大きさを区別して認定する場合には、何らかの経験的制約が必要になる可能性が高い。実際、\cite{PACL-32-P9}には、60語以内の隔たりしかない境界は認めない、というヒューリスティックスが示されている。なお、depthscoreの不安定性は、Hearst自身も認識しており、結束度を平滑化\footnote{本稿で移動平均と呼んでいる操作を何回か繰り返す。}してからdepthscoreを求める手法を別の論文\cite{CL-V23N1P33}で示している。ただし、Hearstの目標が数段落程度の大きさの話題の転換点の発見にあるためか、話題の大きさの区別に関する議論は見当たらない。 \section{語彙的結束性に基づく話題の階層構成の認定手法} \label{sect:話題構成認定手法}本章では、話題の階層構成を同一語彙の繰り返しだけを手がかりに認定する手法を提示する。本手法は、以下の手順で話題の階層構成を認定する。\begin{enumerate}\item話題境界位置の区間推定\label{item:話題境界の区間推定}ある窓幅で計算した結束度に基づき、話題境界が存在しそうな位置を、話題境界候補区間として求める。そして、大きさの異なる複数の窓幅に対してこの処理を繰り返し、大きな話題の切れ目を示す境界から小さな話題の切れ目を示す境界まで、話題の大きさ別に話題境界候補区間を求める。\item話題の階層関係の認定異なる窓幅により求めた話題境界候補区間を統合し、話題の階層構成を決定する。\end{enumerate}以下、\ref{sect:話題境界の区間推定法}節でHearst法をベースに、話題のまとまりを大きさ別に認定可能にした話題境界位置の区間推定手法の詳細を説明し、\ref{sect:話題の階層関係の認定手法}節で話題の階層関係の認定手法について説明する。\subsection{結束度の移動平均に基づく話題境界の位置の区間推定手法}\label{sect:話題境界の区間推定法}提案手法では、結束度の移動平均(movingaverage)を用いて話題境界の位置を区間推定する。移動平均は、時系列分析(timeseriesanalysis)で、細かい変動を取り除いて大局的な傾向を把握するために用いられる手法である。提案手法では、細かい変動を無視するためだけでなく、結束度系列の移動平均値を、移動平均の開始点における「順方向結束力(forwardcohesionforce)」および移動平均の終了点における「逆方向結束力(backwardcohesionforce)」とみなし、その差を話題境界候補区間の認定の直接的手がかりとしている。この手法の原理について、図\ref{fig:移動平均と結束力}を使って説明する。\subsubsection{結束度系列の定義}まず準備として、「結束度系列」を図\ref{fig:移動平均と結束力}(a)によって定義する。図\ref{fig:移動平均と結束力}(a)で、文書領域$1$〜$8$は、結束度を計算する刻み幅$tic$(語)に対応する一定幅の領域である。$c_3$は、文書中の$3$と$4$の境界を基準点として計算した窓幅$w$(語)の結束度である。次の$c_4$は、窓を一定幅$tic$分だけ右(文書の末尾方向)へずらして計算した結束度である。このようにして計算した$c_3,c_4,c_5,\ldots$を、以後、文書の冒頭から末尾へ向かう窓幅$w$の結束度系列と呼ぶ。\begin{figure}[htbp]\begin{center}\leavevmode\begin{tabular}{ccccccccc}結束度&\multicolumn{8}{c}{文書の領域}\\\cline{2-7}$c_3$&\multicolumn{1}{|c}{1}&2&\multicolumn{1}{c|}{3}&4&5&\multicolumn{1}{c|}{6}&7&8\\\cline{2-8}$c_4$&1&\multicolumn{1}{|c}{2}&3&\multicolumn{1}{c|}{4}&5&6&\multicolumn{1}{c|}{7}&8\\\cline{3-9}$c_5$&1&2&\multicolumn{1}{|c}{3}&4&\multicolumn{1}{c|}{5}&6&7&\multicolumn{1}{c|}{8}\\\cline{4-9}\multicolumn{3}{c}{}&\multicolumn{1}{l}{$\leftarrow$}&\multicolumn{1}{c}{$w$語}&\multicolumn{1}{r}{$\rightarrow$}&\multicolumn{1}{l}{$\leftarrow$}&\multicolumn{1}{c}{$w$語}&\multicolumn{1}{r}{$\rightarrow$}\\\end{tabular}\\(a)結束度の系列\\\medskip{}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline\multicolumn{1}{|c|}{結束度の}&\multicolumn{9}{|c|}{文書の領域が関与した数}\\\cline{2-10}\multicolumn{1}{|c|}{移動平均}&\multicolumn{1}{c|}{領域}&1&2&3&4&5&6&7&8\\\hline3項平均&左窓&1&2&{\bf3}&2&1&0&0&0\\\cline{2-10}$\frac{c_3+c_4+c_5}{3}$&右窓&0&0&0&1&2&{\bf3}&2&1\\\hline2項平均&左窓&1&2&{\bf2}&1&0&0&0&0\\\cline{2-10}$\frac{c_3+c_4}{2}$&右窓&0&0&0&1&{\bf2}&2&1&0\\\hline\end{tabular}\\\medskip{}(b)結束度系列の移動平均に対する文書領域の関与\\\medskip{}\caption{順方向結束力と逆方向結束力の意味}\label{fig:移動平均と結束力}\end{center}\end{figure}\subsubsection{順方向結束力と逆方向結束力の定義}順方向結束力と逆方向結束力の求め方と意味を図\ref{fig:移動平均と結束力}(b)を使って説明する。図\ref{fig:移動平均と結束力}(b)は、移動平均の値と文書領域との関係を示した表である。例えば、表の左上角の領域1の直下の値(1)は、$c_3$〜$c_5$の3項の移動平均($\frac{c_3+c_4+c_5}{3}$)に対して、文書領域$1$が1度だけ($c_3$の計算において)左窓の一部として関与したことを示している(図\ref{fig:移動平均と結束力}(a)の$c_3$の部分を参照)。結束度は、境界の前後の結び付きの強さを表す指標であるので、領域$1$を左窓に含む$c_3$を移動平均した値も、領域$1$がそれより右側の部分に結びついているかどうかを示す指標のひとつと考えられる。言い換えれば、移動平均の値は、移動平均をとった結束度の左窓部分の領域($c_3$〜$c_5$の3項平均に対しては$1$〜$5$)が文書の末尾へ向かう方向(順方向:図では右方向)に引っ張られる強さの指標(順方向結束力)とみなせる。一方、逆に、移動平均をとった結束度の右窓部分の領域(同$4$〜$8$)が文書の冒頭方向(逆方向:図では左方向)に引っ張られる強さの指標(逆方向結束力)ともみなせる。ここで、結束力と文書領域の関連性を考察すると、個々の結束度の計算において多くの窓に含まれていた領域ほど、その移動平均値である結束度への関与が強いと考えられる。また、語彙的結束性は、近傍で繰り返される語彙によるものほど強いと考えられるので、移動平均をとった結束度の基準点(左右の窓の境界)に近い領域ほど結束力に強く関与しているといえる。これに基づき、表にあげた3項平均と2項平均について、移動平均に最も強く関与している部分を選ぶと、左窓についてはどちらも$3$、右窓については、それぞれ$6$、$5$となる。以上の考察に基づき、話題境界の候補区間の認定では、結束度の移動平均を、移動平均をとった部分の最初の基準点における順方向結束力、最後の基準点における逆方向結束力として取り扱う。\subsubsection{話題境界の区間推定アルゴリズム}\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{0.95\textwidth}\leavevmode\begin{enumerate}\itemsep=0pt\item以下のパラメータを設定する:\begin{itemize}\itemsep=0pt\item結束度を計算する刻み幅(語数)$tic$\item移動平均をとる項数$n$\item移動平均をとる幅(語数)$d\equiv(n-1)\timestic$\end{itemize}\item順方向結束力と逆方向結束力の計算文書中の各位置$p$について、$p$以降$d$語の範囲で結束度系列の移動平均をとり、\\位置$p$の順方向結束力(かつ、位置$(p+d)$の左逆方向束力)として記録する。\item結束力拮抗点の認定$(順方向結束力-逆方向結束力)$の値を文書の冒頭から末尾に向かって調べ、\\負から正に変化する位置を結束力拮抗点として記録する。\item話題境界候補区間の認定それぞれの結束力拮抗点について、その直前$d$語以内の範囲で、順方向結束力が\\最小となる位置$mp$を求め、$[mp,mp+d]$を話題境界候補区間と認定する。\end{enumerate}\end{minipage}}\caption{話題境界の区間推定アルゴリズム}\label{fig:話題境界候補区間認定方法}\end{center}\end{figure}話題境界は、順方向結束力と逆方向結束力の差に基づいて、図\ref{fig:話題境界候補区間認定方法}に示した手順で認定する。話題境界の区間推定の2つの独立パラメータ、移動平均をとる幅$d$(語)と結束度系列の刻み幅$tic$(語)の目安は、$d$が窓幅の1/2〜1倍程度、$tic$が窓幅の1/8程度である。順・逆方向の結束力の差によって話題境界位置の候補区間を認定する意味を、図\ref{fig:話題境界の候補区間}を使って説明する。図では、順・逆方向の結束力の差が0になる点、すなわち結束力拮抗点(cohesionforceequilibriumpoint)を、ep1〜ep3の破線の鉛直線で示した。最初の点ep1の左側では、逆方向結束力(BC)が優勢であり、その右側から次の点ep2までは順方向結束力(FC)が優勢で、それ以後最後の点ep3までは逆方向結束力(BC)が優勢である。これは、ep1(負の結束力拮抗点)の左側の領域は、それより左側(文書の冒頭方向側)のいずれかの部分へ向かって結束し、また、ep2(正の結束力拮抗点)の近傍では、ep2へ向かって結束していることに対応する。実際、順・逆方向の結束力と共にプロットした結束度($C$)は、ep1とep3の近傍で極小値を、ep2の近傍で極大値をとっている。\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=fig/93_ue_250.eps,width=120mm}\caption{結束力拮抗点と結束度の極値との関係}\label{fig:話題境界の候補区間}\end{center}\begin{center}\leavevmode\epsfile{file=fig/93_sita_250.eps,width=120mm}\caption{調査報告書の話題構成の認定結果}\label{fig:余弦測度による話題境界}\end{center}\end{figure}話題境界候補区間\footnote{図\ref{fig:話題境界の候補区間}内の大きい矩形領域。}に結束度系列の極小点が来ることは必然である。図\ref{fig:話題境界の候補区間}で最後の結束力拮抗点ep3の前後の矢印で示した部分で結束度は極小値をとっている。よって、その部分の移動平均(図では4項平均)も通常は極小値(ブロック矢印の先の部分)をとる\footnote{移動平均区間より狭い範囲の変動では、移動平均の平滑化作用により、結束力が極小値をとらないことがある。}。また、順方向結束力(FC)は移動平均の値を移動平均の開始位置に記録したものあるので、順方向結束力の極小位置は結束度の極小位置の左になる。同様に、逆方向結束力(BC)の極小位置は結束度の極小位置の右になる。そして、結束度の変動が十分に大きければ、その間に結束力拮抗点が形成されることになる\footnote{結束度拮抗点の直前$d$語以内に順方向結束力の極小値が必ず存在することも、順・逆方向の結束力の相似性と結束力拮抗点の前後で順・逆方向の結束力の大小関係が入れ替わることから示せる(付録\ref{app:拮抗点と順方向結束力の関係})。}。図\ref{fig:余弦測度による話題境界}に、本手法で認定した話題境界の候補区間を窓幅別(縦軸)に示す。図の大きい矩形領域が話題境界候補区間であり、その中にある小さい矩形領域が結束力拮抗点である。○付きの棒グラフで示した話題境界など詳細については次節で説明する。\subsection{話題の階層関係の認定手法}\label{sect:話題の階層関係の認定手法}\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{0.95\textwidth}\begin{enumerate}\item認定に使った窓幅の大きい順に話題境界候補区間データを並べ、話題境界候補区間の系列$B^{(n)}_{p}$を作成する。$n$は、話題境界候補区間の系列番号であり、最大窓幅の結束度系列から窓幅の大きい順に$1,2,\ldots$と振る。$p$は、話題境界候補区間の系列内のデータ番号であり、結束力拮抗点の出現位置順に$1,2,\ldots$と振る。各$B^{(n)}_p$のデータに以下のように名前をつける。\begin{tabular}{ll}$B^{(n)}_p.level$&話題境界のレベル。初期値は$n$。\\$B^{(n)}_p.range$&話題境界候補区間(図\ref{fig:余弦測度による話題境界}中の大きい矩形領域)。\\$B^{(n)}_p.ep$&結束度拮抗点(図\ref{fig:余弦測度による話題境界}中の小さい矩形領域)。\\$w_n$&$B^{(n)}$の認定に使った結束度の窓幅。\\$d_n$&$B^{(n)}$の認定に使った移動平均の幅。\\\end{tabular}\item$n$の小さい順に以下の処理を行う:\begin{enumerate}\item$p$の小さい順に以下の処理を行う:\begin{enumerate}\item$B^{(n)}_p$の話題境界候補区間$B^{(n)}_p.range$中に結束力拮抗点をもつ$B^{(n+1)}_q$で、$B^{(n+1)}_q.ep$が$B^{(n)}_p.ep$に最も近いものを求める。\item$B^{(n+1)}_q$が見つからなかった場合、以下の処理を行う:$B^{(n)}_p.range$内で窓幅$w_n$の結束度の最小位置$mp$を求め、新たな$B^{(n+1)}_q$を作成し、\begin{tabbing}$B^{(n+1)}_q.ep\leftarrow[mp,mp]$\\$B^{(n+1)}_q.range\leftarrow[mp-d_{n+1}/2,mp-d_{n+1}/2]$\end{tabbing}と設定し、$B{^{(n+1)}}$の系列に挿入する。\item$B^{(n+1)}_q.level$←$B^{(n)}_p.level$\end{enumerate}\end{enumerate}\item$n$が最大(窓幅最小)の系列中のデータ$B^{(n)}_p$それぞれについて、$B^{(n)}_p.range$内における窓幅$w_n$の結束度の最小位置$mp$(図\ref{fig:余弦測度による話題境界}中の〇付き棒グラフのx座標)を求め、$mp$と$B^{(n)}_p.level$を出力する。\end{enumerate}\end{minipage}}\caption{話題の階層関係認定アルゴリズム}\label{fig:話題階層関係認定アルゴリズム}\end{center}\end{figure}話題構成認定処理は、異なる窓幅の結束度系列による話題境界候補区間を統合して、大きな窓幅の結束度系列から得られた大きな話題に関する境界と、小さい窓幅の結束度系列からのみ得られる小さい話題に関する境界を区別して出力するものである。話題境界候補区間を統合する理由は、大きな窓幅の結束度系列は、窓位置の移動に対して鈍感であり、それだけから認定すると境界位置を十分精密に求めることができないからである。図\ref{fig:話題階層関係認定アルゴリズム}に話題の階層関係認定アルゴリズムを示す。(1)の話題境界のレベル($B^{(n)}_p.level$)は、認定境界がいずれの窓幅の結束度系列に基づく境界かを記録するための変数である。この変数には、(2)の操作により、それぞれの認定境界の近傍に極小値のある結束度系列のうちで最も大きい窓幅の結束度系列の系列番号が設定される。\ref{sect:Hearst法の検討}節で示したように、大きな窓幅の結束度系列に基づく認定境界ほど、大きな話題の境界と対応するという傾向があるので、結果として、それぞれの認定境界と対応する話題の大きさに相当する値が話題境界のレベルとして設定されることになる。(2)は、大きさの異なる窓幅で認定した話題境界候補区間を統合する操作である。例えば、図\ref{fig:余弦測度による話題境界}の$B^{(2)}_4$の話題境界候補区間(図\ref{fig:余弦測度による話題境界}中の大きい矩形領域)中に結束度拮抗点(図\ref{fig:余弦測度による話題境界}中の小さい矩形領域\footnote{理論的には点であるが、順方向結束力と逆方向結束力との差の符合が反転する地点を拮抗点とするので、差が負の点と差が正の点の組になる。})のある$B^{(3)}$のデータは、$B^{(3)}_9$と$B^{(3)}_{10}$であり、$B^{(2)}_4.ep$に近いものは$B^{(3)}_{10}$であるので、$B^{(3)}_{10}.level$を次のように変更する。\[B^{(3)}_{10}.level←B^{(2)}_4.level\]図\ref{fig:余弦測度による話題境界}の○付き棒グラフは、このようにして求めた話題境界である。棒グラフのx座標が最小窓幅の結束度系列の極小値$mp$と対応し、棒グラフの長さが話題境界のレベル($B^{(n)}_p.level$)と対応(長い程がレベル小)する。例えば、最大窓幅(5120語幅)の結束度系列による最初の話題境界候補区間$B^{(1)}_1$の中に〇がある棒グラフは、最大窓幅(5120語幅)以下全ての結束度系列によって検出され、(2)の操作により統合された、話題境界のレベルが1の認定境界である。なお、図に示した最小窓幅(640語)の話題境界候補区間でも、結束度拮抗点と話題境界が大きくずれているものがあるのは、図には示さなかったより小さい窓幅\footnote{320語、160語、80語、40語の4種類。}の話題境界候補区間との統合も行っているためである。 \section{提案手法の評価} \label{sect:評価実験}提案手法を最初の実験文書に適用した結果、図\ref{fig:余弦測度による話題境界}のように話題境界が認定できた。図でみる限り、最大窓幅(2560語幅)による話題境界が4.3節、4.4節などの大きい節の開始位置とよく対応しており、その次に大きい窓幅(1280語幅)による話題境界が4.3.2節などの次に大きな節の開始位置とよく対応している。本章では、図からは読みとり難い結果の詳細について報告する。以下、\ref{sect:評価方針}節で評価実験の趣旨を簡単に述べてから、\ref{sect:実験条件}節で実験対象文書や実験用パラメータなどについて説明し、\ref{sect:窓幅と認定境界の間隔との関係}節で結束度計算用窓幅とそれにより認定された話題境界の間隔との関係を示し、\ref{sect:話題境界の認定精度の評価}節で実験文書において文書の作成者が設定した境界(節や記事の開始位置など)と提案手法による認定境界との比較結果を示す。\subsection{評価の方針}\label{sect:評価方針}本章で示す評価は、主として、提案手法で認定した話題境界と実験対象文書中の人為的境界との一致度を比較したものである。人為的境界とは、実験対象文書の作成者が設定した節や記事の見出し行(開始位置が正解境界)、および、内容の切れ目を示すために挿入した区切り行(記号のみの行など)のことである\footnote{段落境界は提案手法の主目的が大きな話題のまとまりの認定にあり、また、形式段落の客観性には議論の余地が大きいので、比較対象としなかった。}。この評価の趣旨は、話題の大きな転換を示すシグナル(見出し行や区切り行)を書き手が読み手に送っている箇所について、その箇所をシグナルなしに語彙の繰り返し状況だけから検出できるか確かめることにある。従来の研究では\cite[など]{PACL-32-P9,NLC93-7,PNLP-2-P325}のように、見出しを取り除いた(または見出しのない)文書を対象に、複数の人間により直感的に話題境界の認定をしてもらい、その結果を正解として使って、話題境界の認定手法の精度を評価しているものが多い。今回の評価でこのような手法をとらなかったのは、次の理由による。\begin{itemize}\item[(1)]文書の読解は書き手の意図通りに読み取ることを第一の目標とすべきであり、計算機処理においても書き手の意図をうまく読み取れたかを評価すべきである。特に、著者が誤解を避けるために挿入したかもしれない区切りや見出しを無視して評価することには疑問がある。\item[(2)]提案手法が話題境界認定の手がかりとしているのは、語彙の繰り返し状況のみであり、これと、書き手が意図的にシグナルを送っている話題の転換点との関係を分析することは、人間の自然な言語運用の性質を知る上でも意義がある。\item[(3)]今回認定対象としている話題の大きさは従来研究で対象としてきたものよりかなり大きく、人間の直観による認定結果を集めるのは困難である。話題の階層構成の認定の評価を考えると、色々な粒度の話題に対して認定結果を集めなければならず、多くの人の認定結果が一致するように実験条件を設定するのは難しい。\end{itemize}\subsection{実験条件}\label{sect:実験条件}\subsubsection{実験に用いた文書}\label{sect:実験対象文書}評価実験は、提案手法の一般性などを確認するため、前述の調査報告書に性質の異なる2種類の文書を加え、以下の3種類、計21文書を用いて行った。いずれの文書も、複数の話題に関する文章が混在しているだけでなく、それぞれ文章の間に何らかの関連があるという点で、新聞記事をランダムに並べただけの実験データとは性質が異なる。以下、それぞれの文書の構成や内容について簡単に紹介する。\begin{itemize}\parindent=1zw\item調査報告書:1文書第\ref{sect:Hearst法}章で用いた実験文書「ネットワークアクセス技術専門委員会活動報告」(\ref{sect:大きな話題の認定実験}節参照)。筆者が当面の要約対象として想定している典型的な文書である。文書中の節境界(表\ref{tab:実験文書の構成}(a)参照)を評価実験の話題境界の正解データとして用いた。この報告書は、調査項目と報告書のアウトライン(ほぼ表\ref{tab:実験文書の構成}の小計より上の部分に相当)を委員会で協議・決定してから、それぞれの項目を13人の委員で分担して執筆したものである\footnote{報告書の執筆形態に関する情報は、執筆者の一人である富士通研究所の津田氏より得た。}。そのため、実験対象部分(第4章)を構成する上位3レベル目\footnote{(1)〜(6)。文書全体から見れば上位4レベル目。付録\ref{sect:実験文書の見出し}の図\ref{fig:電子協の見出し}参照。}までの節には、調査対象とした技術の分野や用途などに応じてはっきりとした区別が見られる。また、それ以下のレベル(表\ref{tab:実験文書の構成}(a)の小計から下の部分)についても、いずれの粒度で見出しを立てるかには執筆者の個性が見受けられたが、基本的に取り上げた題材を示すように見出しが立てられていることは共通していた。\item新聞の特集記事:8文書(延べ86記事)インターネット上で公開されている読売新聞\footnote{ヨミウリ・オンライン(\verb$http://www.yomiuri.co.jp/$)。}の一連の特集記事を掲載日順に並べて仮想的に1つの文書にまとめたもの(8種類の特集記事に対応する8文書)。記事境界、および記事中の小見出しの開始位置、人為的に挿入された区切り行(◇のみの行など)を正解データとして用いた\footnote{正解データとした小見出しや区切り行は、前後の文脈の目視確認により、話題の転換を示唆するために設定された行であると認められたものである。すなわち、全文書に一通り目を通して見出しらしい行に印をつけ、また、行頭の記号パタンなどに基づき抽出した候補行を全数目視確認して漏れを補った結果である。}。これらの文書は、表\ref{tab:実験文書の構成}(b)に区切り線で示した3種類のグループで記事の連載形態などに違いが見られる。これは、(i)「連載・20世紀はどんな時代だったのか」、(ii)「連載・新ニッポン人」、(iii)「医療ルネサンス」という特集記事の区分に対応する。(i)は20世紀における歴史的事件や関係者の証言などを紹介しながら20世紀という時代の特徴や歴史的意義を明らかにしていくという趣旨の連載で、「ロシア革命」などというテーマが明確なこともあり、他のグループに比べ、連載記事に一貫した流れが強くみられるという特徴がある。小見出しには、記事の題材の象徴(例えば「過ちは死で償った」)や関連する歴史的事件名(例えば「天安門事件」)などが掲げられ、また記事の書き起こしの部分やまとめの部分の前に「◇」のみからなる区切り行が多く挿入されていた(延べ31件)。(ii)(iii)は、それぞれの現代的なテーマに関連する事例をひとつの記事で一二例ずつ紹介していく連載形態をとっており、それぞれの記事の関連性は比較的緩やかである。小見出しは、それに続く数段落程度のまとまりの要旨を掲げたもの(例えば「親の扶養が問題に」)がほとんどであり、記号のみからなる行は、3記事でまとめの部分の前に挿入されていたのみであった\footnote{例外として「近頃の麻酔事情」の連載の最後に一問一答形式の記事があったので、これについては、1つの問答をひとつの話題として取り扱った。}。\item経済レポート:12文書(延べ131記事)社内で流通している経済関係のレポート\footnote{報告者はイリノイ大学の室賀教授。}。それぞれのレポートは、10程度(7〜13)の記事からなる。記事境界を正解データとして用いた。このレポートは、アメリカの計算機関連の市場動向などを1月単位でまとめて紹介するもので、「アメリカ経済の動向」という固定見出しの記事以外は、1カ月の間に話題となった新製品情報などを随時取り上げている。よって、同じ文書中の記事の関連性は(計算機関連市場の情報であるという点を除けば)あまり見られないことが多い。近年ネットワーク経由で盛んに配信されるようになったニュース速報などと似た形式であるが、記事サイズにばらつきが大きいという特徴がある。\end{itemize}それぞれの文書中に含まれる節・記事の数と大きさを表\ref{tab:実験文書の構成}に示す。節・記事の大きさは、次節で説明する「語」単位で示した。また、文書中の文の長さ\footnote{句点で終わる文を対象に集計。見出しや文書中に含まれる表などの通常の文でない部分は除外して集計した。ただし、評価実験では見出しや表などの部分も通常の文の部分と区別せずに扱っている。}と段落の大きさを、表\ref{tab:1文当たりの語数}、表\ref{tab:1段落当たりの語数}に参考情報として示す。\begin{table}[htbp]\footnotesize\begin{minipage}[b]{6.5cm}\begin{center}\leavevmode\caption{実験文書の構成}\label{tab:実験文書の構成}(a)調査報告書\par\begin{tabular}{|c|c|c|c|c|}\hline&節の&\multicolumn{2}{|c|}{節の大きさ(語)}\\\cline{3-4}節の種類&個数&平均&最小〜最大\\\hline4.1〜4.4&4&4,454&308〜6,670\\4.1.1〜4.4.4&9&1.740&744〜3,682\\参考文献&3&527&218〜854\\(1)〜(6)&35&427&63〜1,509\\\hline小計&51&980&63〜6,670\\\hline(a)〜(h)&50&190&25〜704\\(ア)〜(ケ)&30&91&12〜371\\\hline\hline総計&131&475&12〜6,670\\\hline\end{tabular}\end{center}\begin{center}{(b)新聞の特集記事}\par\leavevmode\begin{tabular}{|l|c|c|c|}\hline&記事&\multicolumn{2}{c|}{記事の大きさ(語)}\\\cline{3-4}&数&平均&最小〜最大\\%&標準偏差\\\hlineロシア革命&24&470&336〜861\\%&110\\中国革命&21&517&405〜582\\%&44\\キューバ革命&4&446&416〜460\\%&20\\イラン革命&4&455&429〜470\\%&18\\\hline働くというこ&7&340&297〜374\\%&27\\家族のかたち&8&347&311〜399\\%&27\\\hline薬剤師の役割&8&343&322〜362\\%&14\\近頃の麻酔事情&10&322&296〜366\\%&19\\\hline全体&86&428&296〜861\\%&98\\\hline\end{tabular}\end{center}\begin{center}\leavevmode{(c)経済レポート}\par\begin{tabular}{|c|c|c|c|}\hline&\multicolumn{3}{c|}{記事の大きさ(語)}\\\cline{2-4}記事数&平均&最小〜最大&標準偏差\\\hline113&385&33〜2375&361\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[b]{7.5cm}\begin{center}\leavevmode\caption{1文当たりの語数}\label{tab:1文当たりの語数}\begin{tabular}{|l|c|c|c|}\hline&平均&標準偏差&最頻値\\\hline調査報告書&12.1語&6.5語&10語(7\%)\\新聞の特集記事&12.0語&6.6語&9語(7\%)\\経済レポート&10.5語&5.5語&6語(9\%)\\\hline\end{tabular}\end{center}\begin{center}\leavevmode\caption{1段落当たりの語数}\label{tab:1段落当たりの語数}\begin{tabular}{|l|c|c|c|c|}\hline&平均&標準偏差&最頻値\\\hline調査報告書&29.2語&22.0語&24語(3\%)\\新聞の特集記事&25.8語&11.6語&22語(4\%)\\経済レポート&69.2語&49.6語&36語(2\%)\\\hline\end{tabular}\end{center}\bigskip\begin{center}\leavevmode\caption{正解境界数}\label{tab:正解境界数}\begin{tabular}{|r||r|r|r||r|}\hline\multicolumn{1}{|c||}{境界の大きさ}&\multicolumn{1}{c|}{報告書}&\multicolumn{1}{c|}{新聞}&\multicolumn{1}{c||}{レポート}&\multicolumn{1}{c|}{合計}\\\hline5,120語以上&1&0&0&1\\2,560語以上&2&0&0&2\\1,280語以上&3&0&0&3\\640語以上&12&1&1&14\\320語以上&21&70&23&114\\160語以上&44&86&54&184\\80語以上&70&174&78&322\\40語以上&97&202&104&403\\20語以上&115&216&113&444\\\hline20語未満(対象外)&15&62&0&78\\\hline\end{tabular}\end{center}\end{minipage}\end{table}また、評価実験において正解データとして用いた境界の数を表\ref{tab:正解境界数}に示す。表中、「境界の大きさ」\label{loc:境界の大きさ}というのは、境界の隔てている2つの節(記事)のうち、小さい方の節(記事)の大きさを指す\footnote{このようにして正解境界の大きさを求めたのは、大きさ別に話題が認定できたかを評価するためである。}。例えば、調査報告書の4.4節の開始位置は、4.3節と4.4節を隔てる境界であり、4.3節(6,067語)の方が4.4節(6,670語)より小さいので、4.3節の大きさを4.4節の開始位置の大きさとして扱う。4.4.1節の開始位置は、4.4節の開始位置から4.4.1節の開始位置までの部分(115語)と、4.4.1節(2,643語)を隔てる境界であるので、その大きさは、115語となる。表の最終行の対象外とした部分は、大きさが小さ過ぎるため、後述の評価に用いなかった正解境界である。このほとんどは、階層関係にある見出しが連続しているもの(例えば、調査報告書の4.2.1節の直後にある(1)の見出し)であり、その他は、階層関係にある見出しの間に1〜2文の導入部がはさまれていたもの(調査報告書の2箇所)、短い本文(1〜2文)と対応する調査報告書の6レベルの見出し(4.3.1節中の(2)(ア)、(3)(ウ)の2箇所)、短い(1〜3文)の記事のまとめの前におかれた区切り行(2箇所)のみであった。なお、表\ref{tab:正解境界数}で、新聞の境界数が記事境界の数より多くなっているのは、前述のように、◇のみの行なども正解データとして利用していることによる。また、経済レポートの境界数が記事数と同じになっているのは、それぞれの経済レポートの冒頭に、記事見出しの一覧部があることによる。\subsubsection{語彙的結束度の計算に用いた単語}\label{sect:単語認定}今回の実験では、結束度は、日本語形態素解析ツールjmor\cite{NL-112-14}を使って切り出した内容語(名詞・動詞・形容詞)を用いて計算した。jmorによって切り出される名詞には、形容動詞語幹が含まれ、機能語や数字・時詞・相対名詞(左右/上下/以上/以下など)は含まれない。また、jmorには名詞などの連続を複合語としてまとめて抽出する機能もあるが、この機能は用いず、個々の名詞を別々の語として扱った。例えば、最初の実験文書(調査報告書)の先頭の3文から以下の【】で囲まれたものが切りだされた。【】内の``/''の後ろは、活用語の終止形語尾である。結束度の計算においては、終止形語尾つきで表記が一致するものを同一の語とみなした\footnote{「い/る」は``要る''、``居る''のいずれの意味でも同一の語とみなすことになる。また、「い/る」と「要/る」のように表記が違う語は例え意味が同じでも別の語とみなした。}。\nobreak\begin{quote}4.1【調査/する】の【概要/】【インターネット/】は【予想/する】されて【い/る】た以上の【早さ/】で【急速/】に【普及/する】して【い/る】る。【業務/】はもちろん特に【家庭/】での【利用/する】が【急速/】に【広が/る】って【い/る】る。\end{quote}\subsubsection{語彙的結束度の計算に用いた窓のパラメータ}結束度は、最大窓幅5,120語から最小窓幅40語まで窓幅を1/2の比率で縮小した窓(8種類)を用いて計算した。ただし、文書サイズの1/2を超える窓幅で結束度の計算をしても意味がないと考えられるので\footnote{結束度系列中の大半の結束度の計算において左右いずれかの窓が文書からはみ出してしまうため。}、小さい実験文書については、文書サイズの1/2を超えない窓幅のみに限って処理を行った。また、結束度を計算する刻みは窓幅の1/8とし、移動平均では、この刻みの結束度系列の連続する4項の平均をとった。\subsection{結束度計算用窓幅と認定境界の間隔との関係}\label{sect:窓幅と認定境界の間隔との関係}提案手法の1つの大きな狙いは、大きな話題の切れ目と小さな話題の切れ目を区別して認定することにある。すなわち、大きな幅の窓を使って計算した結束度では大きな話題の切れ目だけを選択的に認定しようとしている。表\ref{tab:窓幅と境界間隔}は、狙い通りに、窓幅に応じた大きさの話題のまとまりが認定できているかを集計したものである。表\ref{tab:窓幅と境界間隔}から、いずれの種類の文書に対しても、結束度計算用の窓幅の1/2〜2倍程度の間隔で話題境界が認定されていることが分かる。また、それぞれの窓幅の認定境界数を、表\ref{tab:正解境界数}に示した境界の大きさ別の正解境界数と比較すると、窓幅の1/2〜1倍程度の大きさの正解境界の数と近い値になっていることが分かる。この2つ事実は、提案手法により結束度計算用の窓幅の1/2〜1倍程度の大きさの話題に由来する話題境界が認定できたことを示唆している。よって、認定境界が正しく話題境界と対応していれば、提案手法は狙い通りの機能を実現したといえる。そこで、認定境界と正解境界との対応に関する評価実験の結果を以下の節で報告する。\begin{table}[htbp]\small\leavevmode\caption{結束度計算用窓幅と認定境界の間隔との関係}\label{tab:窓幅と境界間隔}\begin{center}(a)調査報告書\\\medskip{}\begin{tabular}{|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{窓幅}&\multicolumn{1}{c|}{認定}&\multicolumn{3}{c|}{認定境界の間隔(語)}\\\cline{3-5}\multicolumn{1}{|c|}{(語)}&\multicolumn{1}{c|}{境界数}&\multicolumn{1}{c|}{平均}&\multicolumn{1}{c|}{最小〜最大}&\multicolumn{1}{c|}{標準偏差}\\\hline5,120&2&5,939&5,040〜6,666&826\\2,560&4&3,563&2,370〜5,040&978\\1,280&11&1,485&440〜2,810&746\\640&19&891&440〜1,525&297\\320&40&435&120〜860&189\\160&74&238&90〜470&89\\80&153&120&25〜275&49\\40&308&58&5〜155&25\\\hline\end{tabular}\end{center}\begin{center}(b)新聞の特集記事\\\medskip{}\begin{tabular}{|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{窓幅}&\multicolumn{1}{c|}{認定}&\multicolumn{3}{c|}{認定境界の間隔(語)}\\\cline{3-5}\multicolumn{1}{|c|}{(語)}&\multicolumn{1}{c|}{境界数}&\multicolumn{1}{c|}{平均}&\multicolumn{1}{c|}{最小〜最大}&\multicolumn{1}{c|}{標準偏差}\\\hline5,120&2&5,529&1,775〜9,073&3,568\\2,560&6&2,815&1,045〜8,033&2,144\\1,280&11&1,810&290〜3,235&820\\640&30&969&290〜1,775&318\\320&64&512&35〜1,080&226\\160&130&267&35〜585&116\\80&312&115&30〜305&46\\40&646&56&5〜145&23\\\hline\end{tabular}\end{center}\begin{center}(c)経済レポート\\\medskip{}\begin{tabular}{|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{窓幅}&\multicolumn{1}{c|}{認定}&\multicolumn{3}{c|}{認定境界の間隔(語)}\\\cline{3-5}\multicolumn{1}{|c|}{(語)}&\multicolumn{1}{c|}{境界数}&\multicolumn{1}{c|}{平均}&\multicolumn{1}{c|}{最小〜最大}&\multicolumn{1}{c|}{標準偏差}\\\hline2,560&1&1,882&1,490〜2,274&554\\1,280&14&1,509&695〜2,336&496\\640&33&978&160〜2,000&439\\320&79&483&145〜1,290&241\\160&165&249&55〜565&105\\80&360&118&30〜360&50\\40&761&57&5〜165&24\\\hline\end{tabular}\end{center}\end{table}\subsection{話題境界の認定精度の評価}\label{sect:話題境界の認定精度の評価}前節で示したように、提案手法で認定される話題境界の間隔は、認定に使う結束度計算用窓幅に大体比例している。そこで、節や記事の開始位置で、結束度計算用窓幅の1〜1/2倍の大きさ(\pageref{loc:境界の大きさ}頁参照)を持つものを、正解境界として用いた評価実験を行った。以下、まず、認定精度の評価尺度を簡単に説明し、次に、話題境界候補区間認定処理の評価結果と話題の階層関係認定処理の評価結果をそれぞれ示す。\subsubsection{認定精度の尺度とその基準値}\label{sect:基準値}以下のいずれの評価実験においても、話題境界の認定精度は、認定した話題境界と正解境界との一致度によって評価した。一致度は、情報検索で用いられる以下の2つの尺度で表した。\begin{eqnarray*}再現率(recall)&\equiv&\frac{一致正解境界数}{正解境界数}\\適合率(precision)&\equiv&\frac{一致認定境界数}{認定境界数}\\\end{eqnarray*}\noindent{}ここで、「一致」とは、認定境界と正解境界との隔たりが許容範囲に納まっていることを指す。また、「一致正解境界数」とは何らかの認定境界と「一致」した正解境界の数であり、「一致認定境界数」とは何らかの正解境界と「一致」した認定境界数\footnote{正解境界と認定境界が1対1で一致している場合は同じ数になるが、認定境界の許容範囲内に2つの正解境界が含まれる場合などには異なる数になる。}である。「一致」の許容範囲は、話題境界候補区間では候補区間そのもの(窓幅の1/2程度\footnote{話題境界の区間推定アルゴリズム(図\ref{fig:話題境界候補区間認定方法})では、移動平均をとる幅$d$(今回の実験では窓幅の3/8倍)と説明したが、実際の話題の階層関係認定処理(図\ref{fig:話題階層関係認定アルゴリズム})では、両端を$tic/2$ずつ拡張した区間(1/2窓幅)を用いている。これは、刻み幅$tic$(同1/8)分の不定性を考慮したためである。ただし、話題境界候補区間の近傍に正の結束力拮抗点がある場合の例外処理などのため、実際には窓幅の1/2より狭い区間が若干ある。})とし、話題の階層関係認定のアルゴリズムでは、±4語以内\footnote{最小窓幅(40語)の結束度の刻み幅(5語)未満という意味。}とした。また、再現率・適合率の有意性を示す基準値(baseline)として、「一致」判定の許容範囲の大きさによって計算される以下の値を用いた。\begin{itemize}\item再現率の基準値:\[\frac{一致と判定する許容範囲の大きさの合計}{文書サイズ}\]許容範囲の大きさの合計の分だけ、ランダムに文書の部分を選んだ場合に、その部分に含まれる正解境界の割合の期待値。\item適合率の基準値:\[\frac{記事境界数\times再現率の基準値}{認定境界数}\]「一致認定境界数の期待値」を「一致正解境界数の期待値」で近似して、「一致認定境界の期待値/認定境界数」の値を求めたもの。多くの正解境界がある場合に、100\%を超えてしまうことがあり、その場合には、``ALL''と示した。\end{itemize}\subsubsection{話題境界候補区間の認定処理の精度}\begin{table}[htbp]\footnotesize\begin{center}\caption{話題境界候補区間の認定処理の窓幅別精度}\label{tab:話題境界候補区間認定処理の精度}\leavevmode(a)正解境界の再現率\\\medskip{}\begin{tabular}{|r|r|r|r|r|r|r|r|r||r|}\hline\multicolumn{1}{|c|}{正解境界}&\multicolumn{9}{|c|}{結束度の計算用窓幅(語)}\\\cline{2-10}\multicolumn{1}{|c|}{の大きさ}&5120語&2560語&1280語&640語&320語&160語&80語&40語&\multicolumn{1}{|c|}{点(40語)}\\\hline5120語以上&\bf100\%&100\%&100\%&100\%&100\%&100\%&100\%&100\%&100\%\\2560語以上&\bf100\%&\bf100\%&100\%&100\%&100\%&100\%&100\%&100\%&100\%\\1280語以上&67\%&\bf67\%&\bf100\%&100\%&100\%&100\%&100\%&100\%&100\%\\\hline640語以上&31\%&23\%&\bf62\%&\bf93\%&79\%&79\%&64\%&71\%&50\%\\320語以上&21\%&23\%&28\%&\bf44\%&\bf68\%&72\%&76\%&77\%&40\%\\160語以上&23\%&22\%&30\%&33\%&\bf60\%&\bf74\%&76\%&73\%&42\%\\80語以上&19\%&24\%&29\%&30\%&45\%&\bf57\%&\bf67\%&70\%&40\%\\40語以上&20\%&22\%&27\%&28\%&42\%&50\%&\bf63\%&\bf70\%&43\%\\\hline\multicolumn{1}{|c|}{基準値}&18\%&23\%&21\%&20\%&23\%&25\%&32\%&41\%&15\%\\\hline\end{tabular}\end{center}\noindent{}\begin{center}\leavevmode(b)認定境界の適合率\\\medskip{}\begin{tabular}{|r|r|r|r|}\hline\multicolumn{1}{|c|}{認定用}&\multicolumn{3}{|c|}{正解境界の大きさ(語)}\\\cline{2-4}\multicolumn{1}{|c|}{窓幅}&5120語以上&2560語以上&1280語以上\\\hline5120語&\bf50\%(11\%)&\bf100\%(22\%)&100\%(32\%)\\2560語&25\%(5\%)&\bf50\%(11\%)&\bf50\%(16\%)\\1280語&9\%(2\%)&18\%(5\%)&\bf27\%(7\%)\\640語&5\%(1\%)&11\%(3\%)&16\%(4\%)\\320語&3\%(1\%)&5\%(1\%)&8\%(2\%)\\160語&1\%(0\%)&3\%(1\%)&4\%(1\%)\\80語&1\%(0\%)&1\%(0\%)&2\%(1\%)\\40語&0\%(0\%)&1\%(0\%)&1\%(0\%)\\\hline\end{tabular}\par\medskip{}\begin{tabular}{|r|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{認定用}&\multicolumn{5}{|c|}{正解境界の大きさ(語)}\\\cline{2-6}\multicolumn{1}{|c|}{窓幅}&640語以上&320語以上&160語以上&80語以上&40語以上\\\hline5120語&67\%(86\%)&100\%(ALL)&100\%(ALL)&100\%(ALL)&100\%(ALL)\\2560語&60\%(43\%)&91\%(ALL)&100\%(ALL)&100\%(ALL)&100\%(ALL)\\1280語&\bf53\%(20\%)&69\%(57\%)&86\%(83\%)&94\%(ALL)&97\%(ALL)\\640語&\bf39\%(11\%)&\bf67\%(32\%)&73\%(46\%)&84\%(80\%)&88\%(ALL)\\320語&17\%(5\%)&\bf47\%(16\%)&\bf60\%(23\%)&72\%(41\%)&77\%(51\%)\\160語&9\%(3\%)&25\%(9\%)&\bf37\%(13\%)&\bf49\%(22\%)&53\%(28\%)\\80語&3\%(2\%)&12\%(5\%)&17\%(7\%)&\bf26\%(13\%)&\bf31\%(16\%)\\40語&2\%(1\%)&6\%(3\%)&8\%(4\%)&13\%(8\%)&\bf17\%(10\%)\\\hline\multicolumn{1}{c}{}&\multicolumn{5}{c}{※()内は候補区間の合計サイズと文書サイズとの比による基準値}\end{tabular}\end{center}\end{table}表\ref{tab:話題境界候補区間認定処理の精度}は、話題境界候補区間の精度を、結束度計算用窓幅の大きさと正解境界の大きさ別に集計したものである。太字の値は、結束度計算用窓幅と正解境界の大きさの比が1〜1/2となる部分である。(a)の「点(40語)」の列は、話題の階層関係認定処理の最後で、最小窓幅(40語)の結束度により決定した認定境界位置に関する正解境界の再現率である。なお、1,280語以上の大きさの正解境界は、最初の実験文書(調査報告書)中の6境界のみなので、これに対応する部分を区別して表示した((a)表の中程の区切り線より上の部分と(b)の表で上のもの)。(a)によれば、話題境界候補区間の認定処理は、結束度計算用窓幅程度の大きさの話題であれば、その境界の7割程度は、窓幅の1/2程度の精度で検出可能であると推定される。この値は、正解境界の大きさ程度以下の窓幅による部分では、正解境界の大きさによる違いが小さいので、信頼のおける値と考えられる。また、(b)によれば、実験で正解とした境界以外の潜在的話題境界の存在も考慮すると、ある窓幅の結束度で認定した話題境界の5割程度以上は、窓幅と同程度の大きさの話題の境界と対応すると推定される。例えば、1,280語の窓幅で認定した境界の1,280語以上の大きさの正解境界に対する適合度は、27\%と低くなっているが、これは1,280語以上の正解境界が3つ\footnote{図\ref{fig:余弦測度による話題境界}中の$B^{(2)}_1$、$B^{(2)}_2$、$B^{(2)}_3$に含まれる4.3、4.3.2、4.4の各節。}しかないこと(表\ref{tab:正解境界数})に由来している。図\ref{fig:余弦測度による話題境界}を参照すると、1,280語幅の窓による話題境界候補区間は、11個中$B^{(3)}_3,B^{(3)}_4,B^{(3)}_7,B^{(3)}_{11}$を除く7個が、実験文書中の上位2レベル以上の節(4.x節〜4.x.x節)の境界を含んでいる。よって、(b)中の値が低いのは、正解境界の選別基準とした「境界の大きさ」の求め方(\ref{sect:実験対象文書}節)の問題であり、実質的な適合率はもっと高いと考えられる。また、以上の数値は、40語窓幅による適合率以外、基準値の2倍以上になっているので、提案手法の効果は明白である。なお、再現率7割適合率5割という値は、\cite{PACL-32-P9}の値とほぼ一致しており、同論文に示されている人間同士の認定結果の食い違いや、その他の日本語の文章を対象にした話題境界の認定研究\cite[など]{NLC93-8,PNLP-2-P325}に比べても低くない値である。これらの研究との比較は、対象言語・対象文書・認定する話題の大きさなどの実験条件が異なるので、数値の直接比較に意味があるのかは微妙であるが、以下の2点は、提案手法の独自の特徴といえる。すなわち、話題の大きさ別に選択的に話題境界を認定できる点と、調整すべきパラメータがほとんどない点である。提案手法の基本的パラメータは結束度計算用窓幅と移動平均をとる項数だけであり、閾値や重みなどは設定の必要がない。また、窓幅に関しては、認定したい話題の大きさに応じて決定できるので、移動平均の項数が残されたパラメータである\footnote{移動平均の項数も、話題の階層関係認定処理において、結束度計算用の窓幅を1/2ずつ縮小するのであれば、ほぼ必然的に本稿で用いた値に落ち着くと思われる。}。\subsubsection{話題の階層関係認定処理の精度}\label{sect:話題の階層関係認定精度}表\ref{tab:大きさ別の再現率と適合率(総合)}は、話題の階層関係認定処理の精度の評価結果である。この処理で精度に影響する操作には、話題境界候補区間の統合操作(図\ref{fig:話題階層関係認定アルゴリズム}(2))と、話題境界の点推定操作(同(3))の2つがある。表の「区間推定精度」と「点推定精度」は、これらの操作に関する精度である。話題境界候補区間の統合操作は、大きな窓幅による話題境界候補区間(以下仮に「親」と呼ぶ)と、それより一回り小さい(1/2の)窓幅による話題境界候補区間(同「子」と呼ぶ)とを統合する操作である。この操作は、最大の窓幅による話題境界候補区間から始めて順次繰り返し、最小の窓幅(今回は40語幅)の話題境界候補区間まで統合し終えたところで終了する。表の「区間推定精度」は、この操作を完了した時点の認定精度、すなわち、統合された最小幅の話題境界候補区間に正解境界が含まれることを「一致」とした場合の再現率と適合率を示している。話題境界の点推定操作では、固定幅(5語)刻みに計算した結束度の極小値を手がかりに、最終的な話題境界の位置を決定する。そのため、正解境界と話題境界が完全に一致するのは、正解境界が(たまたま)5語刻みの位置にある場合だけである。そこで、表\ref{tab:大きさ別の再現率と適合率(総合)}では、認定した境界位置から±4語以内の範囲内に正解境界があることを「一致」として再現率と適合率を求めた。表\ref{tab:大きさ別の再現率と適合率(総合)}の「基準窓幅」というのは、話題境界の統合処理を開始する、話題境界候補区間の窓幅である。表\ref{tab:大きさ別の再現率と適合率(総合)}には、この基準窓幅以上の大きさをもつ正解境界との一致度を、基準窓幅別に集計した。例えば、図\ref{fig:余弦測度による話題境界}の$B^{(1)}_1,B^{(2)}_1,B^{(3)}_5$が統合された話題境界は、5,120語〜40語のどの窓幅の話題境界候補区間から統合処理を開始しても認定できる境界であるので、全ての基準窓幅の認定境界として集計した。同様に、その右の$B^{(2)}_2,B^{(3)}_6$が統合された話題境界は、2,560語以下の窓幅の話題境界候補区間から統合処理を開始した場合に認定できる境界であるので、「5,120語以上」以外の基準窓幅に対する認定境界として集計した。表\ref{tab:大きさ別の再現率と適合率(総合)}によれば、話題境界候補区間の統合操作まで完了した時の再現率と適合率(表の区間推定精度)は、それぞれ、5〜6割、2〜3割程度と推定される。また、最小窓幅の結束度による話題境界の点推定操作の後の再現率と適合率(表の点推定精度)は、それぞれ、3〜4割、2割弱程度と推定される。これらの値は、括弧内に示した基準値よりも2倍程度以上大きいので、提案手法全体の有効性は明らかであるが、前節で述べた話題境界候補区間の認定処理の値より見劣りがする。その代わり、境界位置の推定区間の大きさに相当する再現率の基準値\footnote{再現率の基準値は、話題境界候補区間の大きさ(点推定の場合は±4語幅に固定)の総和の文書サイズに対する比率である(\pageref{sect:基準値}頁参照)。}は、統合操作と点推定操作を行うことで1/4以下になっている。例えば、基準窓幅80語の場合、統合前には文書全体の32\%(表\ref{tab:話題境界候補区間認定処理の精度}(a)の「80語」の列の基準値)を占めていた境界位置の推定区間が、40語幅の結束度を使って点推定した後には文書全体の7\%(表\ref{tab:大きさ別の再現率と適合率(総合)})に縮小している。\begin{table}[htbp]\begin{center}\leavevmode\caption{基準窓幅以上の大きさの正解境界に対する話題境界の一致度}\label{tab:大きさ別の再現率と適合率(総合)}\begin{tabular}{|r||r|r||r|r||r|r|}\hline&\multicolumn{2}{c||}{境界数}&\multicolumn{2}{c||}{区間推定精度(40語窓幅)}&\multicolumn{2}{c|}{点推定精度(±4語以内)}\\\cline{2-7}基準窓幅&正解&認定&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c||}{適合率}&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{適合率}\\\hline5120語&1&2&100\%(0\%)&50\%(0\%)&100\%(0\%)&50\%(0\%)\\2560語&2&4&50\%(1\%)&25\%(0\%)&50\%(0\%)&25\%(0\%)\\1280語&3&11&67\%(1\%)&18\%(0\%)&67\%(0\%)&18\%(0\%)\\\hline640語&14&33&43\%(2\%)&18\%(1\%)&36\%(1\%)&15\%(0\%)\\320語&114&164&46\%(4\%)&32\%(3\%)&25\%(1\%)&18\%(1\%)\\160語&184&369&50\%(9\%)&25\%(4\%)&30\%(3\%)&15\%(1\%)\\80語&322&825&56\%(20\%)&22\%(8\%)&32\%(7\%)&12\%(3\%)\\40語&403&1715&70\%(41\%)&17\%(10\%)&43\%(15\%)&10\%(5\%)\\\hline\multicolumn{1}{c}{}&\multicolumn{6}{c}{※()内は一致度の許容範囲の大きさと文書サイズとの比による基準値}\end{tabular}\end{center}\end{table}\vspace{-9mm}\subsection{考察}\label{sect:考察}以上の実験によれば、提案手法は、結束度計算用の窓幅程度の大きさの話題のまとまりを選択的に認定できる。また、異なる窓幅の結束度による認定境界を統合することで、大きな話題の下に、いくつかの小さい話題が配されているような話題の階層構成を認定できる。ただし、その精度は、±4語(あわせて1文程度)以内で認定できた境界が2割弱(適合率)と高くない。話題境界候補区間に対する正解境界の再現率(表\ref{tab:話題境界候補区間認定処理の精度}(a))は、結束度計算用窓幅以上の大きさの正解境界に対しては、ほぼ一定(約7割)している。よって、話題境界の統合操作をうまく行えば、適合率(表\ref{tab:話題境界候補区間認定処理の精度}(b):5割程度以上)を落とさずに候補区間を絞り込めると考えられる。従って、話題境界候補区間の統合操作の失敗が、今回の実験における精度低下の大きな原因と考えられる。この操作で問題となるのは、統合候補(子の候補)が複数ある場合である。例えば、\ref{sect:話題の階層関係の認定手法}で説明した図\ref{fig:余弦測度による話題境界}の$B^{(2)}_4$の子を選ぶ場合である。このような場合の処理のやり方は色々と考えられるが、今回は単純に、親の結束度拮抗点に最も近い子を1つだけ選択している。この操作には、まだ工夫の余地がある。また、話題境界位置最終決定の手がかりとして、移動平均をとらない生の結束度を用いていることも、精度低下の原因のひとつと考えられる。ひとつの解決策として、提案手法を話題境界候補区間の絞り込みに使い、話題境界位置の最終決定を別の手段にまかせることが考えられる。最も簡単なのは、話題境界候補区間で、見出しなどに特徴的な書式を探すことである。話題境界候補区間を使えば、少なくとも7割程度の正解境界に関しては、文書全体の2〜3割程度\footnote{表\ref{tab:話題境界候補区間認定処理の精度}(a)の基準値。}の領域に候補範囲を絞ることができる(表\ref{tab:話題境界候補区間認定処理の精度}(a))。よって、その部分に絞って書式解析を行うのであれば、単純な条件判定でも高い精度が期待できる。あるいは、\cite{PNLP-2-P325}のように統計的な処理を行う場合であっても、話題境界候補区間に処理対象を絞れば、雑音の影響の軽減が期待できる。その他の課題として、語彙的結束性を何を単位として測定するかという問題がある。本稿では、名詞・動詞・形容詞の繰り返しによって語彙的結束度を求めたが、品詞によって結束の特性が異なると考えられる。例えば、アスペクトを示す補助用言(「(て)いる」など)の繰り返しによる結束性\footnote{英文由来の語彙的結束性という概念には本来あてはまらない結束性。}は、数段落程度の狭い範囲では有効に働いたと見られる部分が観察されたが、章をまたがるような範囲の結束に寄与するとは考えにくい。このような特性の利用は今後の課題である。また、シソーラスなどを利用して関連語の繰り返しによる結束性を手がかりとすべきか\cite{PACL-32-P9,COLING-98-P1481}という議論もある。これに関しては、少なくとも単一文書中の大きな話題を認定する場合には不要であると考えている。理由は、今回の実験でもかなり高い話題境界の検出力が確認されており、かつ、実用的には上述の書式や接続詞などの手がかりを併用した処理の方が効率の面で有利だからである。特に日本語では、複合語の末尾の構成語が上位語であることが多く、短い単位に単語を区切れば、そのような上位語(「委員会」など)の代名詞代わりの繰り返しによる結束性も含めて話題境界を認定できるので、シソーラスの利用が劇的な改善をもたらすとは思われない。ただし、用語の統一のとれていない短い文書の集合(ネットニュースなど)の話題境界を認定する場合などには、何らかの関連語の処置が必要であろう。最後に、提案手法で認定した話題構成と関連記事のまとまり方との関連についての観察結果を補足する。まず、関連記事のまとまりが比較的精度よく認定できた例として、新聞記事の特集の中から「中国革命」の記事境界の認定状況を図\ref{fig:china.result}に示す。図のp、w、xの記号の並びはその左の見出しの開始位置が、話題境界として認定されたことを示している\footnote{p、wは上述の評価で一致と判定した境界で、それぞれ、点推定、窓幅40語の結束度による区間推定に対応する。xは最終的に決定した境界位置から40語以内にある記事境界である。}。記号の並びが横に長く伸びているほど大きい窓幅で認定された境界である。この図から、大きい窓幅による認定境界ほど大きい話題の境界であるという傾向が見てとれる。例えば、最大の窓幅で認定された境界は「国共合作(上)」の開始位置であり、ついで、「毛沢東の栄光と悲惨(1)」「文化大革命(上)」「連合政府(上)」の開始位置であるというように、続き物の記事の開始位置が認定されている(図にはこの4つの開始位置に横線を加えてある)。記事中の記者の署名を見ると「中国\vspace{-1mm}革命」の連載は7人の担当記者が分担しており、続き物の記事は同じ記者が担当していることが多かった。よって、これらの認定境界は話題に対応するのでなく、あるいは、担当記者の用語の個性によるものである可能性もある。しかし、「文化大革命」に関しては、上中と下の担当記者の署名が異なっていたので用語の個性だけでは説明できない一致といえる。\begin{figure}[htbp]\small\begin{center}\leavevmode\epsfile{file=fig/107_ue_250.eps,width=120mm}\\{(a)話題境界と話題境界候補区間}\par\end{center}\begin{center}\leavevmode\begin{tabular}{l|r|cccccccc}&&\multicolumn{6}{c}{基準窓幅別認定状況}&\multicolumn{2}{r}{→大境界[語]}\\\multicolumn{1}{c|}{記事見出し}&\multicolumn{1}{c|}{開始位置}&40&80&160&320&640&1280&2560&5120\\\hline歴史再評価(上)&0&-&-&-&-&-&-&-&-\\歴史再評価(下)&405&x&x&&&&&&\\辛亥革命栄光と挫折(上)&890&x&x&x&x&&&&\\辛亥革命栄光と挫折(下)&1346&p&p&p&&&&&\\\cline{1-10}国共合作(上)&1779&p&p&p&p&p&p&p&p\\国共合作(下)&2299&w&w&&&&&&\\\cline{1-9}毛沢東の栄光と悲惨(1)&2826&w&w&w&w&w&w&w&\\毛沢東の栄光と悲惨(2)&3332&w&w&w&w&&&&\\毛沢東の栄光と悲惨(3)&3897&w&w&&&&&&\\毛沢東の栄光と悲惨(4)&4456&w&w&w&w&&&&\\整風運動&4985&x&&&&&&&\\\cline{1-9}文化大革命(上)&5567&p&p&p&p&p&p&p&\\文化大革命(中)&6080&p&p&p&&&&&\\文化大革命(下)&6602&p&p&p&p&p&&&\\\cline{1-9}連合政府(上)&7168&w&w&w&w&w&w&w&\\連合政府(下)&7676&w&w&&&&&&\\改革・開放(上)&8175&p&p&p&p&p&&&\\改革・開放(下)&8706&w&w&w&w&&&&\\中ソ対立&9231&w&w&w&w&w&w&&\\少数民族の苦悩&9757&w&w&w&w&&&&\\百年の決算&10317&p&p&p&p&&&&\\\end{tabular}\end{center}\begin{center}{(b)記事境界の認定状況}\\\end{center}\caption{「中国革命」中の話題構成の認定結果}\label{fig:china.result}\end{figure}なお、今回の実験に使った新聞の特集記事には、記事の後半に次の記事へとつなぐ話題をおき、連載記事のまとまりをつけていると見られるものがあった。例えば、「働くということ」という特集記事\footnote{記事境界の認定精度が比較的悪かった例でもある。}で、最大の基準窓幅(640語)の認定境界は、「◆プロの時代…専門磨き生き抜く」の記事境界より、その前の記事中の小見出し「◇巧みな外資系◇」の方に大きくずれている(図\ref{fig:hataraku.result}の中程の横線部分)。この部分の内容を見ると、「働く女性」の話題と「専門性」「能力主義」の話題が交錯している部分であった\footnote{前後の記事中の署名が異なっていたのであるいは偶然の一致かもしれない。}。このような話題の交錯する部分の扱いは、今後の課題である。\begin{figure}[htbp]\small\begin{center}\leavevmode\epsfile{file=fig/108_ue_250.eps,width=120mm}\\{(a)話題境界と話題境界候補区間}\par\end{center}\begin{center}\leavevmode\begin{tabular}{l|r|ccccc}&&\multicolumn{3}{c}{基準窓幅別認定状況}&\multicolumn{2}{r}{→大境界[語]}\\\multicolumn{1}{c|}{見出し(◆記事見出し/◇小見出し)}&\multicolumn{1}{c|}{開始位置}&40&80&160&320&640\\\hline◆「山一」の衝撃…「会社が消滅」生活激変&0&-&-&-&-&-\\\phantom{....}\phantom{....}◇&281&x&&&&\\◆転身…「災い」バネに新天地へ&320&x&&&&\\\phantom{....}◇専門知識の習得必要◇&505&x&x&&&\\◆年俸制…人物「時価」で評価&685&p&&&&\\\phantom{....}◇人生設計を見直し◇&851&p&p&&&\\◆女性パワー…会社支える必要条件&1018&w&w&w&w&\\\phantom{....}◇巧みな外資系◇&1176&x&x&&&\\\hline◆プロの時代…専門磨き生き抜く&1350&w&&&&\\\phantom{....}◇年功序列に疑問◇&1535&x&x&&&\\◆若者の挑戦…広がる独立・転職志向&1647&x&x&x&x&\\\phantom{....}◇二極化傾向強く◇&1921&x&x&x&&\\◆出社不要…車中に仮想オフィス&2004&p&p&&&\\\phantom{....}◇広がる裁量労働制◇&2216&x&x&x&&\\\phantom{....}\phantom{....}◇&2297&p&p&&&\\\end{tabular}\end{center}\begin{center}{(b)記事境界・節境界の認定状況}\end{center}\caption{「働くということ」中の話題構成の認定結果}\label{fig:hataraku.result}\end{figure} \section{結論} 本稿では、語彙的結束性という文章一般に見られる現象に基いて話題の階層構成を認定する手法を提案した。そして、数十頁にわたる長い文書についても、文書サイズの1/2〜1/4程度の大きな話題のまとまりから、段落程度の大きさの話題のまとまりまで、任意の大きさの話題のまとまりを認定可能であることを示した。また、語彙的結束度を複数の窓幅で測定し、組み合わせて用いることで、話題の階層構成が認定可能なことも示した。今後の大きな課題は、話題の階層構成に基づき、長い文書に対する質の高い要約を作成できる手法の実現である。当面の課題は、重要な話題のまとまりの選別処理\cite{PNLP-4W-P72}や、重要文抜粋処理などを組み合わせて、実用レベルの要約手法を完成させることである。また、将来的課題には、文章の修辞構造解析などの複雑な処理も組み入れてより質の高い要約の作成を可能にすることや、新聞の特集記事のような関連文書を再構成して要約することなどがある。これらの実現においても、任意の大きさの話題のまとまりを語彙の繰り返しという単純な手がかりだけから認定できる提案手法は、大きな役割を果たしうると考えている。\acknowledgment実験用文書を提供して下さった電子工業振興協会のネットワークアクセス技術専門委員会の方々に感謝します。\appendix \section{話題境界候補区間認定原理の補足} \label{app:拮抗点と順方向結束力の関係}負の結束力拮抗点の直前の移動平均をとる幅($d$語)以内に順方向結束力の極小点が存在することを証明する(関連\ref{sect:話題境界の区間推定法}節)。まず、ある点$p$における順方向結束力と逆方向結束力をそれぞれ$FC_p,BC_p$とおくと、\[FC_p\equivBC_{p+d}\]であり、拮抗点$ep3$では順方向結束力と逆方向結束力が等しいので、\[FC_{ep3-d}(\equivBC_{ep3})=FC_{ep3}\]が成り立つ。よって、拮抗点の直前の点の値が拮抗点の値より小さければ、$ep3-d$までの部分、拮抗点の直前$d$語以内に順方向結束力の極小値がある。また、拮抗点の直前の点の値が拮抗点の値より小さくなくても、\[FC_{ep3-d-1}\equivBC_{ep3-1}>FC_{ep3-1}\geFC_{ep3}\\\]であり、同様に\begin{eqnarray*}FC_{ep3}<FC_{ep3+1}&or&\\FC_{ep3-d+1}(\equivBC_{ep3+1})&<&FC_{ep3+1}\leFC_{ep3}\end{eqnarray*}となるので、$ep3-d$から$ep3$までの間に極小値が存在することになる。(証明終り) \section{実験文書中の見出しの例} \label{sect:実験文書の見出し}\medskip評価実験に用いた文書の見出しの例を参考として示す。新聞の特集記事の見出しの例については、本文中の図\ref{fig:china.result}、図\ref{fig:hataraku.result}を参照。\begin{figure}[htbp]\footnotesize\begin{center}\begin{minipage}[t]{7cm}\begin{tabular}{l}4.1調査の概要\\4.2ネットワークアクセスのインタフェース\\4.2.1提言:10年後のネットワークアクセス\\\\\\\\\\インタフェースはこうなる\\\\(1)ネットワーク情報への多様なアクセス\\\\(2)個人向けインタフェースを支える\\\\\\\\\エージェント技術\\\\(3)セキュリティ・個人認証の今後\\\\(4)機械翻訳と多国語\\4.2.2現状と問題点\\\\(1)アクセスインタフェースの多様化\\\\(2)インタフェースを支える\\\\\\\\\ネットワークプログラム技術\\\\(3)セキュリティ・個人認証\\\\(4)機械翻訳・言語処理技術\\4.3ネットワーク上の検索サービス\\4.3.1検索サービスの調査\\\\(1)WWW検索サービスの概要\\\\(2)情報収集/検索方式\\\\(3)情報提示方式\\\\(4)今後の課題\\4.3.2検索技術の動向\\\\(1)キーワード抽出\\\\(2)文書自動分類\\\\(3)要約・抄録技術\\\\(4)分散検索\\\end{tabular}\end{minipage}\begin{minipage}[t]{6cm}\begin{tabular}{l}4.3.3電子出版及び電子図書館\\\\(1)電子出版\\\\(2)電子図書館\\4.4.検索エンジン\\4.4.1.日本語の全文検索技術の動向\\\\(1)文字列検索アルゴリズム\\\\(2)インデックス作成法\\\\(3)日本語の全文検索技術\\\\(4)製品化動向\\\\(5)今後の課題\\4.4.2.有限オートマトンによる\\\\\\\\\\自然言語処理技術の動向\\\\(1)有限変換器のコンパクト化\\\\(2)文字列パタン照合\\\\(3)書き換え規則,Two-levelモデル\\\\(4)形態素解析,構文解析\\\\(5)まとめ\\4.4.3情報フィルタリング技術の動向\\\\(1)内容に基づくフィルタリング\\\\(2)協調フィルタリング\\\\(3)ユーザモデリング\\\\(4)まとめ\\4.4.4情報抽出/統合技術の動向\\\\(1)検索ナビゲーション技術\\\\(2)情報統合技術\\\\(3)情報の可視化技術\\\end{tabular}\end{minipage}\caption{実験文書中の見出し:調査報告書(上位3レベルまで)}\label{fig:電子協の見出し}\end{center}\bigskip\begin{center}\begin{minipage}{12cm}\small\begin{itemize}\item[$\bigcirc$]アメリカ経済の動向(171語)\item[$\bigcirc$]フィンランドは通信技術の最先進国(94語)\item[$\bigcirc$]低下するパソコンの売れ行き(299語)\item[$\bigcirc$]Microsoftの将来は不透明(303語)\item[$\bigcirc$]ますます難局に立つApple(1523語)\item[$\bigcirc$]Netscape社の苦闘(513語)\item[$\bigcirc$]通信衛星が将来Internetアクセスの困難を解消(653語)\\()内は記事の大きさ(記事中の内容語の数)\end{itemize}\caption{実験文書中の見出し:経済レポート(97年1月分の全記事)}\label{fig:室賀教授レポートの見出し}\end{minipage}\end{center}\end{figure}\bibliographystyle{jnlpbbl}\bibliography{v06n6_04}\begin{biography}\biotitle{略歴}\bioauthor{仲尾由雄(正会員)}{1986年東京大学理学部物理学科卒業。同年(株)富士通研究所入社。1988〜1994年日本電子化辞書研究所へ出向。現在、(株)富士通研究所。自然言語処理技術を使った文書処理システムの研究開発に従事。情報処理学会会員。}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-14
\section{はじめに} ニューラル機械翻訳(NeuralMachineTranslation,以下NMT)では,予め指定した語彙に基づいて計算を行うため,翻訳時の入力文に低頻度語や未知語が現れると翻訳精度が低下する.このような語彙の問題に対処するため,バイトペア符号化(BytePairEncoding,以下BPE)\cite{sennrich-etal-2016-neural}やユニグラム言語モデル\cite{kudo-2018-subword}などによるサブワード分割が現在広く用いられている.BPEによるサブワード分割は事前トークナイズを要すのに対し,ユニグラム言語モデルは生文からサブワード列に直接分割するため,日本語や中国語といった分かち書きされない言語においても形態素解析器を必要としない.BPEやユニグラム言語モデルはどちらもデータ圧縮に基づいたアルゴリズムであり,語彙量の上限を制約としたトークン数の最小化\footnote{語彙量を減らす方法としては文字単位に分割するという方法も考えられるが,文字単位の分割を用いると文全体のトークン数が増える(系列長が長くなる)ため,系列長に依存した計算量が増加する.サブワード分割によって,語彙量の上限を制約として満たす中でトークン数を最小化することで,トレードオフの関係にある語彙量とトークン数(系列長)の問題に対処しているといえる.}を行っている.しかしながら,これらの分割法は対訳関係を考慮せず,各言語ごとにサブワード分割を学習するため,機械翻訳タスクに適したサブワード分割になるとは限らない.例として,日英翻訳において``設計法(designmethod)''と``計測装置(measurementinstrument)''という複合語が訓練データに多数出現する場合を考える.従来のサブワード分割法はデータ圧縮技術に基づきトークン数の最小化を行うため,これらの複合語が1つのサブワード単位に結合される.したがって,これらの訓練データは``計測法''という語の翻訳の学習に寄与しない.本論文では対訳情報からサブワード列を得る新たなサブワード分割法を提案する.提案法は,分かち書きされない言語を含む翻訳の性能を改善するため,ユニグラム言語モデル\cite{kudo-2018-subword}による分割に基づいたサブワード列を得る.具体的に,提案法は,ユニグラム言語モデルによって得られる原言語文と目的言語文それぞれの分割候補から,お互いのトークン数の差が小さくなるサブワード列を選択する方法である.提案法では,ユニグラム言語モデルから得られる原言語文と目的言語文の最尤解を比較し,トークン数が多い言語側のトークン数に近づけるように,より細かい単位のサブワード分割を複数分割候補から選択する.提案法を用いることで,原言語文と目的言語文のトークン数の差が小さくなり,言語間でトークンが1対1に対応付けされやすくなる.そのため,従来のサブワード分割法よりNMTに適した分割が得られることが期待される.提案法では日本語文と英語文のサブワードトークン数を近づけるため,課題例として挙げた``設計法''と``計測装置''という複合語は``設計(design)''と``法(method)'',``計測(measurement)''と``装置(instrument)'',それぞれ2トークンに分解される\footnote{なお,提案法はサブワード辞書自体を変えるものではないことに注意されたい.例えば,課題例の``設計法''の場合,``設計法'',``設計'',``法''のいずれもサブワード辞書内に含まれており,従来法では``設計法''が選択されるのに対して,提案法では``設計''と``法''が選択される.}.これにより,NMTにおいて,``設計''と``法'',``計測''と``装置''というそれぞれのサブワードの訓練データが``計測法''という語の翻訳にも活用できるようになると考えられる.ここで,本手法は原言語文と目的言語文の分割数を比較しながらそれぞれの文を分割するため,原言語文単体では分割ができない.NMTの訓練時には原言語文と目的言語文の分割数を比較するために対訳コーパスを用いることができるが,翻訳時には原言語文に対応する目的言語文が存在しないため,原言語文を分割することができない.そこで提案法では,対訳コーパスを用いてサブワード分割した訓練データの原言語文からLSTMベースのサブワード分割器を予め学習し,翻訳時において訓練時の分割に近い候補を選択することで,訓練時と翻訳時の分割のギャップを小さくして翻訳性能の低下を防ぐ.具体的には,翻訳時に,学習したLSTMベースのサブワード分割器により原言語文のサブワード分割候補をリランキングし,スコアが最大となる分割を選択する.WATAsianScientificPaperExcerptCorpus(以下,ASPEC)\cite{aspec}英日・日英・英中・中英翻訳タスクとWMT14英独・独英翻訳タスクにおいて,従来法と提案法を用いた翻訳性能を比較したところ,TransformerNMTモデルの性能が最大0.81BLEUポイント改善した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{従来法:ユニグラム言語モデルに基づいたサブワード分割} \label{sec:unigram}本節では提案法の基礎となるユニグラム言語モデルに基づいたサブワード分割法\cite{kudo-2018-subword}について説明する.ユニグラム言語モデルでは各サブワードが独立に生起すると仮定し,サブワード列の生起確率$P(\boldsymbol{x})$を次式により表す.\begin{gather}P(\boldsymbol{x})=\prod_{i=1}^{N}p(x_{i}),\\\foralli~x_i\in\mathcal{V},~\sum_{x\in\mathcal{V}}p(x)=1,\end{gather}ただし,$\boldsymbol{x}=(x_1,x_2,\ldots,x_N)$はサブワード列であり,$\mathcal{V}$は語彙集合(サブワード辞書)である.各サブワードの生起確率$p(x_i)$はEMアルゴリズムによって周辺尤度$\mathcal{L}_{lm}$を最大化することにより推定される.\begin{equation}\mathcal{L}_{lm}=\sum_{s=1}^{|D|}\log(P(X^{(s)}))=\sum_{s=1}^{|D|}\log\left(\sum_{\boldsymbol{x}\in\mathcal{S}(X^{(s)})}P(\boldsymbol{x})\right),\end{equation}ただし,$D$は対訳コーパスであり,$X^{(s)}$は$D$中の$s$番目の原言語文または目的言語文であり,$\mathcal{S}(X^{(s)})$は$X^{(s)}$の分割候補集合である.生起確率が最大となるサブワード列(最尤解)は次式によって得られる.\begin{equation}\boldsymbol{x}^\ast=\argmax_{\boldsymbol{x}\in\mathcal{S}(X)}P(\boldsymbol{x}),\end{equation}ただし,$X$は入力文である.また,$k$-best分割候補も入力文$X$に対するユニグラム言語モデルによって計算される確率$P(\boldsymbol{x})$に基づいて得ることができる.ただし,サブワード列の生起確率は各サブワードの尤度の積の形で表されるため,系列長の短い(トークン数の少ない)サブワード列が高い確率を持つ傾向がある.このユニグラム言語モデルによるサブワード分割は生文から直接学習できるため,日本語や中国語といった分かち書きされない言語においても単語分割器や形態素解析器を必要とせずに分割できるという特長がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案法} 本節では,対訳文からサブワード列を得る提案手法を示す.我々の提案法では対訳文対でサブワードトークン数の差が最小になるような分割を行う.具体的には,原言語文と目的言語文それぞれのユニグラム言語モデルの最尤解のうち,トークン数の少ない(系列長の短い)側の文を,トークン数が多い側のトークン数に近づけるよう,より細かく分割された分割候補からサブワード列を選択する.ただし,NMTの訓練時には対訳コーパスを利用できるが,翻訳時(評価データ)には対訳文が存在しない.そこで,NMTの訓練時と翻訳時で異なる方法によりサブワード列を得る.図\ref{fig:training},\ref{fig:test}にNMT訓練時のサブワード分割と翻訳時のサブワード分割をそれぞれ示す.NMTモデルの訓練時は,図\ref{fig:training}の通り,対訳データに基づくサブワード分割結果を用いてNMTモデルを学習する.一方で翻訳時には,図\ref{fig:test}の通り,対訳データのサブワード分割結果内の原言語文だけから予め学習しておいたLSTMベースの単語分割器を用いて,翻訳対象の原言語文のサブワード分割候補をリランキングする.提案法はNMTモデルや訓練法を修正する必要がなく,従来のサブワード分割法を置き換えるだけで適用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia13f1.pdf}\end{center}\caption{訓練時のサブワード分割}\label{fig:training}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-2ia13f2.pdf}\end{center}\caption{翻訳時のサブワード分割}\label{fig:test}\vspace*{-2\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練データのサブワード分割}\label{sec:training}訓練データ$D$におけるサブワード分割では,ユニグラム言語モデルによる分割候補からトークン数が近い候補対を選択することで,対訳文対$(f,e)\inD$の分割を得る.具体的には,以下のようにして,原言語文と目的言語文それぞれの$k$-bestの分割候補$\mathcal{B}^k(f)$,$\mathcal{B}^k(e)$の中から,対訳文対$(f,e)$のサブワード列$(\hat{\boldsymbol{f}},\hat{\boldsymbol{e}})$を得る.\pagebreak\begin{equation}(\hat{\boldsymbol{f}},\hat{\boldsymbol{e}})=\begin{cases}(\hat{\boldsymbol{u}},\boldsymbol{e}^\ast)&\mathrm{if}~\len(\boldsymbol{f}^\ast)<\len(\boldsymbol{e}^\ast)\\(\boldsymbol{f}^\ast,\hat{\boldsymbol{u}})&\mathrm{otherwise}\end{cases},\label{eq:def}\end{equation}ただし,$\mathrm{len}()$はサブワードトークン数を返す関数であり,$\boldsymbol{f}^\ast$と$\boldsymbol{e}^\ast$は,それぞれ,原言語と目的言語文の最大の確率を持つサブワード列(ユニグラム言語モデルの最尤解)である.そして,$\hat{\boldsymbol{u}}$は,$\boldsymbol{v}^\ast$を$\boldsymbol{f}^\ast$と$\boldsymbol{e}^\ast$のうち系列長の長い方としたとき,$\boldsymbol{v}^\ast$とのトークン数の差が最小の候補の中から最大の確率を持つサブワード列であり,以下の式で表される.\newpage\begin{align}\hat{\boldsymbol{u}}&=\argmax_{\boldsymbol{u}\in\mathcal{T}}P(\boldsymbol{u}),\\\mathcal{T}&=\argmin_{\boldsymbol{u}\in\mathcal{B}^k}|\len(\boldsymbol{u})-\len(\boldsymbol{v}^\ast)|,\label{eq:min_diff_len}\\\mathcal{B}^k&=\begin{cases}\mathcal{B}^k(f)&\mathrm{if}~\len(\boldsymbol{f}^\ast)<\len(\boldsymbol{e}^\ast)\\\mathcal{B}^k(e)&\mathrm{otherwise}\end{cases}.\label{eq:searching}\end{align}ここで,式{\ref{eq:min_diff_len}},{\ref{eq:searching}}より,分割候補の選択は,\pagebreak最尤解のトークン数の少ない側(系列長の短い側)において行われる\footnote{ユニグラム言語モデルは各サブワードの尤度の積によって求められる生起確率に基づいて分割を行うため,{$k$}-best分割候補のうち,最尤解に近づくほどトークン数は少なくなる傾向がある.そのため,通常は最尤解よりもトークン数の少ない分割候補は得られない.したがって,提案法では最尤解のトークン数の少ない側(系列長の短い側)においてより細かく分割された分割候補を選択する.}.NMTモデルは,提案法により各対訳文をサブワード分割した訓練データ$\hat{D}=\{(\hat{\boldsymbol{f}}^{(s)},\hat{\boldsymbol{e}}^{(s)})\}_{s=1}^{|D|}$から学習される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{翻訳時のサブワード分割}翻訳時は入力文$f$に対する対訳文$e$が存在しないため,サブワード分割の入力に対訳文を用いることができない.そのため,予め\ref{sec:training}節で作成した訓練データ$\hat{D}$の原言語文$\{\hat{\boldsymbol{f}}^{(s)}\}_{s=1}^{|D|}$から,文字ベースの双方向LSTM(BidirectionalLSTM,以下BiLSTM)を用いたサブワード分割器(以下,BiLSTM分割器)を学習しておく.そして,翻訳時の分割は,ユニグラム言語モデルの{$k$}-best分割候補をBiLSTM分割器に入力し,各分割候補に対してスコア付けを行いリランキングすることにより得られる.BiLSTM分割器は,$n$個の文字からなる入力文字列$\mathbf{c}=(c_1,c_2,\ldots,c_n)$に対して,サブワードの開始文字か否かを表す境界タグを割り当て,サブワードの境界点を2値分類として識別する.BiLSTM分割器は以下のような構造のニューラルネットワークである.\begin{align}\mathbf{z}&=\mathrm{Embedding}(\mathbf{c}),\\\mathbf{h}&=\mathrm{BiLSTM}(\mathbf{z}),\\\mathbf{b}&=\mathrm{softmax}(\mathbf{h}W),\end{align}ただし,$\mathrm{Embedding}()$は文字埋め込み層,$\mathbf{z}$は文字列$\mathbf{c}$の$d$次元埋め込み表現,$\mathrm{BiLSTM}()$はBiLSTM層,$\mathbf{h}$はBiLSTMの隠れベクトル,$\mathrm{softmax}()$はsoftmax関数,$\mathbf{b}$はBiLSTM分割器の出力,$W\in\mathbb{R}^{d\times\{0,1\}}$は隠れベクトル$\mathbf{h}$の空間から境界タグ次元に写像するパラメータ行列である.ベクトル$\mathbf{b}_t=(b_{t,0},b_{t,1})$は文字$c_t$がサブワードの開始点か($b_{t,0}$)開始点でないか($b_{t,1}$)の確率分布を表現している.BiLSTM分割器は,\ref{sec:training}節の方法でサブワード分割された訓練データ$\hat{D}$中の全原言語文$\hat{\boldsymbol{f}}\in\{\hat{\boldsymbol{f}}^{(s)}\}_{s=1}^{|D|}$について,以下の目的関数$\mathcal{L}_{segment}$を最大化することにより学習される.\begin{align}\mathcal{L}_{segment}&=\sum_{t=1}^{n}\logb_{t,r_t},\\\mathrm{where}~r_t&=\begin{cases}0&\text{if~}c_t\text{はサブワードの開始点}\\1&\text{otherwise}\end{cases}.\end{align}翻訳時は次のようにして入力文$f$をサブワード分割する.はじめに,ユニグラム言語モデルを用いて入力文$f$の$k$-bestサブワード分割候補$\mathcal{B}^k(f)$を得る.次に,各分割候補$\boldsymbol{f}\in\mathcal{B}^k(f)$のスコア$\mathrm{score}(\boldsymbol{f})$を,予め学習しておいたBiLSTM分割器によって以下のように算出する.\begin{equation}\mathrm{score}(\boldsymbol{f})=\sum_{t=1}^{n}\logb_{t,r_t}.\end{equation}最後に,最大のスコアを持つサブワード列を選択し,出力とする.\begin{equation}\hat{\boldsymbol{f}}^\ast=\argmax_{\boldsymbol{f}\in\mathcal{B}^k(f)}\mathrm{score}(\boldsymbol{f}).\end{equation}以上により得られたサブワード列$\hat{\boldsymbol{f}}^\ast$をNMTモデルに入力し,翻訳を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}提案法と従来法(ユニグラム言語モデル\cite{kudo-2018-subword})の翻訳性能を比較した.また,従来法として,ユニグラム言語モデルによって得られる複数のサブワード分割候補について周辺尤度を最大化する``サブワード正則化\cite{kudo-richardson-2018-sentencepiece}''とも性能を比較した.複数サブワード分割候補を得るためのユニグラム言語モデルには\texttt{Sentencepiece}\footnote{\url{https://github.com/google/sentencepiece}}を用いた.全実験において,NMTシステムとしてTransformer\texttt{base}\cite{transformer}モデルを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}翻訳性能はWATASPEC日英・英日(以下ASPEC日-英)翻訳タスク\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}}\cite{aspec}を用いて評価した.ユニグラム言語モデルの学習は,原言語側と目的言語側でそれぞれ独立に行い,サブワードの語彙量は,原言語側と目的言語側でそれぞれ16,000になるように設定した.ミニバッチの大きさは約10,000トークンになるよう設定した.NMTの訓練には訓練データの上位150万文対を使用し,データの前処理はWATベースラインシステム\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/WAT2019/baseline/dataPreparationJE.html}}に従った.開発データと評価データのデータ数はそれぞれ1,790,1,812文対であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ハイパーパラメータ}全NMTモデルにおいて,パラメータ最適化にはAdam\cite{adam}を用い,$\beta_1=0.9$,$\beta_2=0.98$とした.モデルのパラメータ更新は10万回行った.学習率は4,000回更新時で5e-4となるように線形に増加させ,\pagebreak以降は更新回数の逆平方根に比例して減衰させた\cite{transformer}.ドロップアウトの確率は0.1に設定した.NMTモデルの損失関数にはラベル平滑化交差エントロピー\cite{label_smoothing}を用い,平滑化$\epsilon$は0.1に設定した.パラメータの更新1,000回毎にモデルを保存し,性能評価時には,訓練終了時点から前5つ分のモデルパラメータを平均化したモデルを用いた.翻訳文の生成にはビーム探索を用い,ビーム幅は4,文長正則化パラメータは0.6\cite{googlenmt}とした.提案法のハイパーパラメータに関して,ユニグラム言語モデルから得るサブワード分割候補数$k$は開発データで調整し,5に設定した.BiLSTM分割器の埋め込み次元は$d=256$とし,BiLSTM層は2層スタックした.文字埋め込み層,BiLSTM層,出力層のパラメータは全て$[-0.1,0.1]$の一様分布で初期化した.BiLSTM分割器のパラメータ最適化にはAdamを用い,$\beta_1=0.9$,$\beta_2=0.98$とした.モデルのパラメータ更新は10エポック分行った.学習率は5e-4,ドロップアウトの確率は0.1,ミニバッチの大きさは約256文にそれぞれ設定した.サブワード正則化を用いたモデルでは,提案法と条件を揃えるため,ユニグラム言語モデルの最大スコアのサブワード列を翻訳する1-bestデコードを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{13table01.tex}\caption{ASPEC日-英における翻訳性能の比較(BLEU(\%))}\label{tab:results-jaen}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{tab:results-jaen}に実験結果を示す.表中の``ユニグラム言語モデル'',``サブワード正則化'',``BiSW''はそれぞれ,ユニグラム言語モデル,サブワード正則化,提案法を用いたNMTモデルを示している.翻訳性能はBLEU\cite{papineni-etal-2002-bleu}で評価し,評価方法はWATAutomaticEvaluationProcedures\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/evaluation/index.html#automatic_evaluation_systems.html}}に従った.また,ブートストラップ再サンプリングによる有意差検定\cite{koehn-2004-statistical}を実施し,有意水準は5\%とした($p\leq0.05$).表\ref{tab:results-jaen}中の``$\dag$''は``BiSW''が``ユニグラム言語モデル''に対して,``{$\ddag$}''は``BiSW''が``サブワード正則化''に対して,有意に高いことを示す.表\ref{tab:results-jaen}から分かるとおり,提案法``BiSW''は日英,英日翻訳の両言語方向において``ユニグラム言語モデル''および``サブワード正則化''より性能が改善されている.``BiSW''を用いることで``ユニグラム言語モデル''に対し,日英,英日翻訳においてそれぞれ0.81,0.10BLEUポイント,``サブワード正則化''に対し,それぞれ0.53,0.19BLEUポイントの性能改善が確認された.また,両言語方向において,提案法はベースラインの``ユニグラム言語モデル'',及び``サブワード正則化''より有意に性能が高く,提案法の有効性が確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BiLSTM分割器の性能とオラクル分割}\label{sec:oracle}本節では翻訳時に用いるBiLSTM分割器のリランキングによる分割性能を考察する.分割性能の評価にはASPECの評価データを用い,参照訳を使用して\ref{sec:training}節の手法により分割した原言語文の分割結果を正解の分割とみなした.結果を表\ref{tab:accuracy}に示す.表\ref{tab:accuracy}のとおり,BiLSTM分割器のリランキングによる分割性能は非常に高く,正解分割に近いサブワード分割を得ていることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{13table02.tex}\caption{ASPEC日-英の評価データにおけるBiLSTM分割器のサブワード分割性能}\label{tab:accuracy}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,正解分割の原言語文を用いた翻訳性能を評価した.この正解分割に対する翻訳性能は提案法の性能の上限値を示しているといえる.結果を表\ref{tab:oracle}に示す.表\ref{tab:oracle}中の``オラクル分割''が正解分割に対する翻訳性能を示している.表{\ref{tab:oracle}}より,``オラクル分割''は``BiSW''より高い翻訳性能となっていることが確認できる.``BiSW''の翻訳性能は``オラクル分割''と比較して,日英,英日翻訳においてそれぞれ0.10,0.20BLEUポイント低く,これはBiLSTM分割器の予測の誤差によりオラクル分割と異なる分割が得られたため性能が低下したと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{13table03.tex}\caption{オラクル分割の翻訳性能(BLEU(\%))}\label{tab:oracle}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BiLSTM分割器の必要性}提案法では翻訳時の入力文をサブワード分割するためBiLSTM分割器を必要とする.本節では翻訳時のBiLSTM分割器の必要性を確認するため,BiLSTM分割器を用いたときと用いないときの翻訳性能を比較した.BiLSTM分割器を用いない場合は,翻訳時の原言語文の分割結果としては,ユニグラム言語モデルの最尤解($\boldsymbol{f}^\ast$)を用いる.また,訓練時と翻訳時とのギャップを失くすため,訓練時には,原言語文をユニグラム言語モデルの最尤解($\boldsymbol{f}^\ast$)で固定する.つまり,常に$\boldsymbol{v}^\ast=\boldsymbol{f}^\ast$で固定する.これにより,訓練時の複数分割候補からの選択は常に目的言語側のみで行われ,原言語側の最尤解のトークン数に最も近い候補が選択されるようになる.表\ref{tab:fixed_srcbest}に実験結果を示す.表中の``BiSWw/oBiLSTM''がBiLSTMを用いない場合の手法を示しており,``\dag''は提案法の``BiSW''の性能が``BiSWw/oBiLSTM''と比較して有意水準5\%で有意に高いことを示す.表\ref{tab:fixed_srcbest}より,BiLSTM分割器を用いないと翻訳性能が低下することが確認された.具体的には,``BiSWw/oBiLSTM''は``BiLSTM''と比較して,日英,英日翻訳においてそれぞれ0.59,0.29BLEUポイント性能が低下することが分かる.この実験結果より,目的言語側のみの分割候補からの選択では翻訳に適した分割を獲得するのに十分でなく,原言語,目的言語それぞれの分割候補から双方向に選択する必要があると考えられる.したがって,翻訳時の入力文を分割するためのBiLSTM分割器は必要であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{13table04.tex}\caption{BiLSTM分割器を用いないときとの翻訳性能比較(BLEU(\%))}\label{tab:fixed_srcbest}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{13table05.tex}\caption{ASPEC日英翻訳の訓練データにおけるサブワードの例}\label{tab:examples_train}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案法によるサブワード分割の例}本節では従来法``ユニグラム言語モデル''と提案法で得られるサブワードの違いを実例で確認する.表\ref{tab:examples_train}に,APSEC日英の訓練データに対して従来法と提案法をそれぞれ適用した実際の例を示す.表\ref{tab:examples_train}より,従来法では複数の意味から成るサブワードが1トークンに結合されているのに対し,提案法ではそれらが分解されていることが分かる.また,表中に訳文中の対応箇所を示す.表より,``設計法''が訳文中の``designmethod''と対応付いて``設計''と``法''に分割されていることが確認できる.これは,従来法が生起確率のみに基づいて分割されるのに対し,提案法では対訳相手の分割情報を参照しているためであるといえる.これにより,原言語文と目的言語文間でサブワードが対応付けられやすくなり,NMTモデルの学習を支援できるようになると考えられる.ただし,``popularization''の訳文中の対応箇所は``普及''という1トークンであるのに対し,提案法による分割では``popular''と``ization''に分割されている.これは,単語単位ではなく,文単位でトークン数を近づけるため,``普及''以外のトークンの分割を参照し,訳文中の対応箇所とトークン数の対応がない分割を行ったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{13table06.tex}\caption{ASPEC日英翻訳の評価データにおけるサブワードの例}\label{tab:examples_test}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples_test}にAPSEC日英翻訳の評価データ(評価データの日本語文)に対して従来法と提案法をそれぞれ適用した実際の例を示す.表\ref{tab:examples_test}より,評価データにおいても,対訳文(参照訳)を参照することなく,BiLSTM分割器により,言語間で1対1のサブワードの対応付けを取りやすい単位に分解されていることが分かる.ただし,提案法において``透水性''と分割された例は,訳文中の対応箇所が``premeability''であるのに対し,従来法の``透水性''よりもトークン数の差が大きくなっている.これは,文単位でトークン数を近づけた訓練データからBiLSTM分割器を学習させているため,もしくは,BiLSTM分割器が誤って予測しているためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハイパーパラメータ$k$に対する敏感さ}提案法では分割候補の候補数$k$がハイパーパラメータとなっている.本節では,ハイパーパラメータ$k$の値によって提案法の翻訳性能がどの程度変化するかを考察する.図\ref{fig:kbest}に,ASPEC日英翻訳の開発データにおける$k$を変化させたときの翻訳性能を示す.$k$の値を$\{[2,10],15,20,50,100\}$の中で変化させたときの翻訳性能を評価した.図\ref{fig:kbest}より,一部例外はあるものの$k$が50を超えるまでは概ね翻訳性能が改善していることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-2ia13f3.pdf}\end{center}\caption{ハイパーパラメータ$k$に対する敏感さ(開発データにおける翻訳性能)}\label{fig:kbest}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{尤度に基づいた対訳文対のサブワード分割手法}Kudo\cite{kudo-2018-subword}の文献では\textit{``theunigramlanguagemodelisreformulatedasanentropyencoderthatminimizesthetotalcodelengthforthetext.AccordingtoShannon'scodingtheorem,theoptimalcodelengthforasymbol$s$is$-\logp_s$,where$p_s$istheoccurrenceprobabilityof$s$.}''と述べられている.このことから,サブワード分割した文のトークン数とそのサブワード列の尤度の間には関係性があると考えられる.そこで本節では,提案手法において,文のトークン数の代わりに尤度を用いた場合の性能を考察する.つまり,原言語文と目的言語文のトークン数の差を小さくする代わりに,尤度の差が小さくなるように分割を行った場合の性能を評価する.具体的には,式\ref{eq:def}から式\ref{eq:searching}において,$\mathrm{len}()$を$-\logP()$で置き換えて計算することで,原言語文と目的言語文をサブワード分割した際の尤度の差が小さくなるような分割候補を選択する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{13table07.tex}\caption{尤度ベースの手法との比較(BLEU(\%))}\label{tab:lprobs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:lprobs}に結果を示す.表中の``BiSW(トークン数ベース)''と``BiSW(尤度ベース)''はそれぞれトークン数に基づいた提案法と尤度に基づいた提案法を示している.表\ref{tab:lprobs}より,尤度に基づいた手法は日英翻訳においてはユニグラム言語モデルよりも翻訳性能が改善されているが,両言語方向においてトークン数に基づいた提案法よりも性能が低い.これは,尤度とトークン数の間に関係はあるものの完全に一致していないためであると考えられ,関係の度合いはユニグラム言語モデルの性能に依存していると考えられる.さらに,ASPEC日-英の訓練データおよび評価データにおいて,対訳文対間のサブワードトークン数の差の平均を調査した.結果を表\ref{tab:diff_ntokens}に示す.表\ref{tab:diff_ntokens}より,トークン数ベースと尤度ベースのどちらの手法も訓練データ,評価データの両方においてユニグラム言語モデルよりもトークン数の差は縮まっている.また,尤度ベースよりもトークン数ベースの提案法のほうがよりトークン数の差が小さくなっていることも確認できる.この結果より,トークン数ベースの提案法により,原言語文と目的言語文のトークン数の差を小さくする分割を行うという目的が達成できていることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{13table08.tex}\caption{対訳文対間のサブワードトークン数の差の平均}\label{tab:diff_ntokens}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分かち書きされた言語対及び分かち書きされない言語対に対する提案法の有効性}\label{sec:segmented_langpair}本節では,英独翻訳のような分かち書きされている言語対,及び,日中翻訳のような分かち書きされない言語対の翻訳に対する提案法の有効性を検証する.翻訳性能の評価には,それぞれWMT14英独・独英(以下WMT14英-独)翻訳タスク\footnote{\url{https://www.statmt.org/wmt14/translation-task.html}}とASPEC日中・中日(以下ASPEC日-中)翻訳タスクを用いた.本実験におけるユニグラム言語モデルの学習は,原言語側と目的言語側で辞書を共有して行った.サブワードの語彙量は,WMT14英-独で37,000,ASPEC日-中で16,000に設定し,NMTモデル内の原言語側と目的言語側の埋め込み層を共有した.ミニバッチの大きさはWMT14英-独で約25,000トークン,ASPEC日-中で約6,000トークンになるよう設定した.WMT14英-独の訓練データにおいて,各文をサブワード分割した後,250トークンを超える文と原言語/目的言語文のトークン数の比が1.5を超えるものを除去した.ハイパーパラメータ$k$は開発データで調整し,2に設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{13table09.tex}\caption{WMT14英-独及びASPEC日-中翻訳における提案法の有効性(BLEU(\%))}\label{tab:langpair}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:langpair}にWMT14英独・独英翻訳,ASPEC日中・中日翻訳の実験結果を示す.表\ref{tab:langpair}より,両言語方向において,提案法``BiSW''を用いることで従来法``ユニグラム言語モデル''と比べて翻訳性能が改善されることが確認された.具体的には,英独,独英,日中,中日翻訳において,``BiSW''は``ユニグラム言語モデル''と比べてそれぞれ0.32,0.02,0.11,0.12BLEUポイント性能が改善された.実験結果より,分かち書きされた言語対及び分かち書きされない言語対に対しても提案法の有効性が確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} BPE\cite{sennrich-etal-2016-neural}とユニグラム言語モデル\cite{kudo-2018-subword}はサブワード分割法として広く用いられている.BPEは辞書式圧縮に基づいたサブワード分割アルゴリズムであり,指定した語彙量を上限として,出現回数順に隣接するサブワードを再帰的に結合する.BPEは簡単なアルゴリズムで実装が容易なため多くのNMTシステムで採用されているが,決定的アルゴリズムであるため複数の分割候補を得ることができない.ユニグラム言語モデルは尤度に基づいたサブワード分割アルゴリズムである.各サブワードの生起確率はEMアルゴリズムによって推定される.ユニグラム言語モデルはBPEと比べてアルゴリズムが複雑であるが,尤度に基づいた複数のサブワード分割候補を得られ,かつ,事前トークナイズを必要とせず生文から直接学習できるという特長がある.本研究の実験ではユニグラム言語モデルのリファレンス実装であるSentencePiece\cite{kudo-richardson-2018-sentencepiece}を用いた.サブワード正則化\cite{kudo-2018-subword}は複数のサブワード分割候補を用いたNMTの訓練法であり,サンプリングされた分割候補の周辺尤度を最大化する.サブワード正則化をNMTに組み込むには,訓練時にパラメータを更新するごとに動的にサブワード分割をサンプリングする必要があり,NMTの訓練処理を修正する必要がある.BPE-dropout\cite{provilkov-etal-2020-bpe}はサブワード正則化を用いられるようにBPEを拡張した手法である.BPE-dropoutでは,隣接サブワードの結合を確率的に棄却することで複数のサブワード分割候補が得られる.ただし,$P(\boldsymbol{x}|X)$のような尤度に基づいた$k$-best候補を得ることはできない.単語やサブワードへの分割を行わずに文字単位で翻訳を行うNMTモデルも提案されている.Cherryら\cite{cherry-etal-2018-revisiting}は単語単位やサブワード単位のNMTよりも文字単位のNMTの翻訳性能が高くなると報告している.ただし,Cherryらは文字単位のNMTの問題点として計算量の多さとモデリングの難しさがあることも述べている.我々の手法はNMTモデルの入出力の粒度について文字単位のNMTの長所と短所(翻訳性能とモデリング,計算量)のバランスをとったものとも考えられる.Atamanら\cite{ataman-etal-2017-linguistically,ataman-federico-2018-evaluation}やHuckら\cite{huck-etal-2017-target}は言語学に基づくサブワード分割を提案している.Atamanら\cite{ataman-etal-2017-linguistically,ataman-federico-2018-evaluation}は教師なし形態学習に基づく``LinguisticallyMotivatedVocabularyReduction(LMVR)''を用いることでBPEより翻訳性能が向上することを示した.Huckら\cite{huck-etal-2017-target}はサブワード分割においてステミングや複合語分割などによる言語学的な知識を用いた分割を組み合わせることで,翻訳性能が改善することを示した.また,Atamanら\cite{ataman-federico-2018-compositional}は単語をn-gram文字で分解することで形態学的にリッチな言語を含む翻訳が改善することを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,対訳文からサブワード列を得る,ニューラル機械翻訳のための新たなサブワード分割法を提案した.WATASPEC英日・日英・英中・中英翻訳タスクとWMT14英独・独英翻訳タスクにおいて,提案法を用いることでTransformerNMTモデルの性能が最大0.81BLEUポイント改善した.実験と考察により,対訳文とのサブワードトークン数の差を小さくすることで翻訳性能が改善されることを示した.今後は他の言語対での提案法の有効性も確認していきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は国際会議The28thInternationalConferenceonComputationalLinguistics(COLING'2020)に採択された論文に基づいて日本語で書き直し,説明を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである.また,本研究の一部はJSPS科研費20K19864の助成を受けたものである.ここに謝意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{13refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{出口祥之}{%2019年愛媛大学工学部情報工学科卒業.2021年同大学院理工学研究科博士前期課程修了.2021年より奈良先端科学技術大学院大学博士後期課程に在学.}\bioauthor{内山将夫}{%1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,国立研究開発法人情報通信研究機構上席研究員.主な研究分野は機械翻訳.言語処理学会会員.}\bioauthor{田村晃裕}{%2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教,2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{%1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor{隅田英一郎}{%1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年(株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員,主幹研究員,室長.2007年〜現在国立研究開発法人情報通信研究機構(NICT)先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V10N03-03
\section{はじめに} 単語の意味を判別し,多義曖昧性を解消する技術(語義曖昧性解消;WordSenseDisambiguation)は,機械翻訳や情報検索,意味・構文解析など,自然言語処理のあらゆる分野において必要である\cite{ide:98}.これは一般に,テキストに現れた単語の語義が辞書などであらかじめ与えられた複数の語義のいずれに該当するかを判定する分類問題である.ただし,曖昧性解消をどのような応用に利用するかに依存して,どのような語義分類を与えるのが適切であるかは異なる.そして,分類の粒度や語義定義の与え方に応じて,最適な分類手法は異なってくることが予想される.それゆえ,具体的な応用に沿った語義曖昧性解消課題を設定して解決手法を研究することは有用である.2001年に開催された語義曖昧性解消国際コンテスト{\scSenseval}-2\footnote{cf.\{\tthttp://www.sle.sharp.co.uk/senseval2/}}\では,このような考え方に基づき,日本語翻訳タスクが実施された.本タスクは,日本語単語(対象語)320語に対して,1語あたり約20の日英対訳用例を収集した翻訳メモリを語義分類の定義と見なし,新たな日本語表現に含まれる対象語の語義を翻訳メモリ中の適切な用例を選択することで分類する課題である\cite{kurohashi:01a}.各対象語の語義分類は,翻訳メモリとして収集された日英の表現対であるが,語義を決定している重要な要因が日本語表現に現れる周辺文脈であるとみなすことにより単言語の語義曖昧性解消課題と捉えることができる.この種の問題は,一般に,正解タグを付与した訓練データを用い,各分類に属する表現例の対象語周辺文脈の性質を機械学習によって獲得することで解決できる.正解タグを付与した訓練データの作成のために,さまざまな全自動/半自動の訓練データ構築手法が提案されてきた\cite{dagan:94,yarowsky:95,karov:98}.しかし,本タスクには,以下のような問題点がある.\begin{itemize}\item翻訳メモリ中には,各語義分類ごとに1つしか正解例が与えられない.また,正解タグを付与した訓練データも(タスクの配布物としては)与えられない.\item翻訳メモリ中の表現は,(人間の感覚で)最低限語義を分別できる程度の,たかだか数語の文脈しか持たない.\item語義分類間の違いがしばしば非常に微妙である.\end{itemize}本タスクでは,上記の問題点のため,正解例を機械的に拡張するための手がかりは乏しく,これを精度よく行うことは難しい.このため,我々は,入力表現を直接的に翻訳メモリの各日本語表現と比較して表現間の類似度を計算し,用例を選択する手法を採用した.我々は,情報抽出や文書分類の分野でよく用いられるベクタ空間モデル(VectorSpaceModel)による文書間比較\cite{salton:83}の手法に着目し,Sch\"utzeによる,目的語の近傍に出現する単語の情報をベクタ(共起ベクタ)に表現して共起ベクタ間の余弦値を類似度の尺度とする手法\cite{schutze:97}を用いた.ベクタ空間モデルでは,通常,ベクタの各次元に文書中の単語の出現(真偽値)や出現頻度を配置する.しかし本タスクへの適用を考えた場合,翻訳メモリの日本語表現中に対象語と共に出現する単語は非常に少ないため,単純に表層的な単語出現情報を用いるだけでは表現の特徴(表現間の差異)をつかみきれない.またデータスパースネスの影響も深刻である.そこで我々は,単語の代わりに対象語周辺の各種素性({\bf文脈素性})の出現を各次元に配置したベクタ({\bf文脈素性ベクタ})を用いることとした.各文脈素性は,対象語周辺文脈を特徴づける要素を表すもので,表現中に出現する内容語の\begin{enumerate}\item[a)]対象語との構文的/位置的関係(構文解析の結果から獲得)\\例:対象語にガ格でかかる,対象語より前にある,任意の位置,\ldots\item[b)]形態的/意味的属性(形態素解析の結果とシソーラスから獲得)\\例:標準形=\hspace*{-.25zw}「子供」,品詞=\hspace*{-.25zw}「名詞」,シソーラス上の意味コード=\hspace*{-.25zw}「名\kern0pt86」,\ldots\end{enumerate}を任意に組み合わせたものである.これは,対象語周辺の単語の出現をさまざまな抽象化のレベルで捉えることを意味する.これにより,文脈素性ベクタは,表現間の微妙な違いを表現すると同時に,適応範囲の広い文脈特徴量となることが期待できる.本稿では,まず\ref{sec:task}~章で{\scSenseval}-2日本語翻訳タスクの特徴について述べるとともに,本タスクを解決するシステムの設計方針について述べる.次に\ref{sec:method}~章で文脈素性ベクタを用いた翻訳選択の手法を説明する.そして\ref{sec:senseval_result}~章で{\scSenseval}-2参加システムの諸元と,コンテスト参加結果を紹介する.\ref{sec:vector_component}~章では,\ref{sec:method}~章で各種文脈素性の翻訳選択性能への寄与について調査した結果を報告し,考察を行う.最後に\ref{sec:conclusion}~章でまとめと今後の課題について述べる. \section{S{\normalsize\bfENSEVAL}-2日本語翻訳タスクの特徴とシステム設計方針} \label{sec:task}{\scSenseval}-2日本語翻訳タスクは,対訳用例に基づく翻訳アプリケーションにおいて,ある対象語を含んだ表現の翻訳として適切な対訳用例を選択する問題を,語義曖昧性解消の問題と見なした課題である\cite{kurohashi:01a}.コンテスト参加者は,あらかじめ配布される対訳用例集「翻訳メモリ」に基づいて翻訳を選択するシステムを構築する.そして,後に評価データが配布されると,システムを用いてデータ中の指定された対象語の翻訳を翻訳メモリ中の用例から選択する.本章では,配布された翻訳メモリと評価データの概要を説明し,タスクの特徴とそれに適したシステムの設計について考察する.\subsection{翻訳メモリ}\label{sec:TM}語義分類の定義として与えられる翻訳メモリは,毎日新聞9年分の記事から収集された用例を元に作成されたもので,各対象語に対して,図~\ref{fig:TM_entry}のような形式で与えられる.\begin{figure}[tp]\begin{center}\begin{minipage}{.8\textwidth}\epsfile{file=figs/fig1.eps,scale=1.0}\end{minipage}\end{center}\caption{翻訳メモリの例}\label{fig:TM_entry}\end{figure}各語義分類(\verb|<sense>|)を定義する用例は,1対の対象語を含む日本語表現(\verb|<jexpression>|)とその表現全体の対訳である英語表現(\verb|<eexpression>|),それに用例作成時に対訳作成者によって付与された補足情報(\verb|<transmemo>|)などからなっている.配布された翻訳メモリは320対象語に対して合計6,920用例(1対象語平均21.6用例)であった.用例中の日本語表現は,図~\ref{fig:TM_entry}の例のように,一般に短く,人間が見て最低限語義を分別できる程度の文脈しか与えられていない(日本語表現の平均単語数は4.5語).また分類間の日本語表現の違いは微妙なものも多く,図~\ref{fig:TM_entry}の用例\verb|14-19|〜\verb|14-21|のように,全く同じ日本語表現が複数の異なる翻訳に分類されていることもある.このように分類間の日本語表現の違いが微妙な場合に,補足情報が分類を行う上で決定的な情報を持っているものもある(図~\ref{fig:TM_entry}の用例\verb|14-20|,\verb|14-21|が一例).\subsection{評価データ}評価データは,毎日新聞1994年の記事の中から選ばれたものである.翻訳メモリに存在する対象語から動詞・名詞20語ずつが選ばれ,この対象語を持つ記事が各対象語につき30記事ずつ選ばれた.評価記事は図~\ref{fig:eval_entry}のように,記事全体が形態素解析されており,対象語に印(\verb|<head>|)がつけられている.\begin{figure}[tp]\begin{center}\begin{minipage}{.8\textwidth}\footnotesize\begin{verbatim}<instanceid="ataeru.001"docsrc="00004730"topic="(046)341.241.2(4+73)"><context><morpos="7"rd="トウオウ">東欧</mor><morpos="1"rd="キキ">危機</mor><morpos="457"rd="ナラ"bfm="だ">なら</mor><morpos="1"rd="キンキュウ">緊急</mor><morpos="1"rd="キョウギ">協議</mor><morpos="490"rd=""></mor><morpos="1"rd="ソウキ">早期</mor><morpos="1"rd="カメイ">加盟</mor><morpos="423"rd="ハ">は</mor><morpos="13"rd="サキオクリ">先送り</mor><morpos="468"rd="−−">−−</mor><morpos="2"rd="エヌエイティーオー">NATO</mor><morpos="1"rd="シュノウ">首脳</mor><morpos="1"rd="カイギ">会議</mor><morpos="1"rd="サイシュウ">最終</mor><morpos="1"rd="ブンショ">文書</mor><morpos="1"rd="ゲンアン">原案</mor>\end{verbatim}\vspace*{-1.5\baselineskip}\hspace*{5em}$\vdots$\vspace*{-.5\baselineskip}\begin{verbatim}<morpos="7"rd="トウオウ">東欧</mor><morpos="22"rd="ショ">諸</mor><morpos="24"rd="コク">国</mor><morpos="419"rd="ノ">の</mor><morpos="1"rd="ケネン">懸念</mor><morpos="419"rd="ニ">に</mor><morpos="468"rd=",">,</mor><morpos="1"rd="シンリ">心理</mor><morpos="24"rd="テキ">的</mor><morpos="1"rd="ホショウ">保証</mor><morpos="419"rd="ヲ">を</mor><morpos="102"rd="アタエ"bfm="与える"><head>与え</head></mor><morpos="454"rd="タ"bfm="た">た</mor><morpos="420"rd="ト">と</mor><morpos="103"rd="イエル"bfm="いえる">いえる</mor><morpos="468"rd=".">.</mor>\end{verbatim}\vspace*{-1.5\baselineskip}\hspace*{5em}$\vdots$\vspace*{-.5\baselineskip}\begin{verbatim}</context></instance>\end{verbatim}\end{minipage}\end{center}\caption{評価データの一例}\label{fig:eval_entry}\end{figure}対象語は記事本文中に設定されていることが多いが,記事先頭にある見出しに設定されていることもある.\subsection{タスクの特徴とシステム設計方針}語義曖昧性解消問題の解法には,決定木学習\cite{tanaka:94}や決定リスト学習\cite{yarowsky:95}のような,正解例からの学習に基づく手法がしばしば用いられる.しかし本タスクのように,どの分類に対しても正解例が1例しか与えられていないような問題を解くには適していない.半自動的に正解例を拡張しようという試みも,本タスクの翻訳メモリのように,対象語あたりの語義数が非常に多く,かつそれぞれの違いが微妙で文脈情報も少ない場合には精度よく行うことは難しい.このため,我々は,入力表現を直接的に翻訳メモリの各日本語表現と比較して表現間の類似度を計算し,用例を選択する手法が適切であると考えた.類似度に基づく手法は,類似度をどのように定めるかが重要である.表現間の類似度の尺度には,従来から数多くの提案がされてきた.田中らは,表現中の内容語の一致数と,一致した内容語間の距離(文字数)に基づいて,類似度を定義している\cite{tanaka:99}.また黒橋らは,表現中の各文節の類似度を字面や品詞,シソーラスの意味コードの一致度などを用いて求め,動的計画法を用いて表現間の類似文節列を発見している\cite{kurohashi:92}.これらは表現間の類似度を直接計算する手法であるが,本タスクで必要な,ある対象語を中心とした類似性を測定する手法とはやや異なる.一方Sch\"utzeは,ベクタ空間モデルを用いて単語の語義曖昧性解消を行っている.コーパスから目的語の近傍に出現する単語の情報を単語ベクタとして収集し,それらを語義ごとに足し合わせることで,語義を表す文脈ベクタを作成している.そして,入力表現を表す単語ベクタと各語義の文脈ベクタとの間の余弦値を求めることにより,入力表現がどの語義に一番近いかを求めている\cite{schutze:97}.またFujiiは,日本語の動詞の語義曖昧性を解消するためにある語義に属する用例表現集合と入力表現を比較する際,動詞の格スロットに入る名詞の類似度を求めている.この類似度は,シソーラスの意味コードの一致度,またはベクタ空間モデルによって計算する\cite{fujii:98}.これらの手法は,ある対象語を中心とした類似性を測定しているが,数多くの正解例の存在を前提にしており,そのままでは本タスクに適用できない.そこで我々は,Sch\"utzeの手法の文脈ベクタに相当する{\bf文脈素性ベクタ}を,ただ1つの正解例から構築することを目指した.文脈ベクタは,単語ベクタを足し合わせることで周辺語の意味的な性質を表現していたが,文脈素性ベクタではシソーラスを用い,直接的に周辺語の意味属性を表現する.また,周辺語の出現を,目的語との関係(係り受け関係など)と併せて表現することで,格スロットの類似性の観点を取り入れる. \section{文脈素性ベクタを用いた翻訳選択} \label{sec:method}本章では,対象語周辺の文脈を多角的に表現するための{\bf文脈素性}の考え方を説明する.そして,これを用いてベクタ空間モデルによって表現間の類似度を計算し,翻訳選択を行う手法について述べる.\subsection{文脈素性}対象語から見て構文的/位置的関係$r$にある単語(群)が持つ形態的/意味的属性$t$=$v$(属性種別が$t$でその値が$v$)を指して,{\bf文脈素性}$r$:$t$=$v$と呼ぶ.一例として,翻訳選択の対象語(対象語)が「間」であるような表現$e_1$:\begin{center}「夫婦の\mbox{}\underline{間}\mbox{}に子供が産まれる」\end{center}を考える.\begin{figure}[tp]\begin{center}\epsfile{file=figs/expression-j.EPS,scale=1.0}\end{center}\caption{表現$e_1$とその文脈情報(抜粋)}\label{fig:expression-j}\end{figure}図~\ref{fig:expression-j}のように,この表現には,対象語「間」の周辺に内容語「夫婦」「子供」「産まれる」が存在している.これら周辺語は,対象語との間に図中{\sfa)}に示すような構文的/位置的関係にある.また各単語は,それぞれ図中{\sfb)}に示すような形態的/意味的属性を持つ.この表現$e_1$は,対象語の周囲に図~\ref{fig:e1-context_feature}のような文脈素性を持っている.\begin{figure}[tp]\begin{center}\begin{minipage}{.75\textwidth}\begin{center}\footnotesize\begin{tabular}{r@{\,:\,}l}対象語にノ格でかかる&基本形=\hspace*{-.25zw}「夫婦」\\対象語にノ格でかかる&基本形読み=\hspace*{-.25zw}「ふうふ」\\対象語にノ格でかかる&出現形=\hspace*{-.25zw}「夫婦」\\対象語にノ格でかかる&出現形読み=\hspace*{-.25zw}「ふうふ」\\対象語にノ格でかかる&品詞=\hspace*{-.25zw}「名詞」\\対象語にノ格でかかる&意味コード=\hspace*{-.25zw}「名\kern0pt74」\\対象語より前にある&基本形=\hspace*{-.25zw}「夫婦」\\対象語より前にある&基本形読み=\hspace*{-.25zw}「ふうふ」\\\multicolumn{2}{c}{$\vdots$}\\任意の周辺位置にある&基本形=\hspace*{-.25zw}「夫婦」\\任意の周辺位置にある&基本形読み=\hspace*{-.25zw}「ふうふ」\\\multicolumn{2}{c}{$\vdots$}\\対象語&基本形=\hspace*{-.25zw}「間」\\対象語&基本形読み=\hspace*{-.25zw}「あいだ」\\\multicolumn{2}{c}{$\vdots$}\\対象語より後にある&基本形=\hspace*{-.25zw}「子供」\\対象語より後にある&基本形読み=\hspace*{-.25zw}「こども」\\\multicolumn{2}{c}{$\vdots$}\\対象語がニ格で係る&基本形=\hspace*{-.25zw}「産まれる」\\対象語がニ格で係る&基本形読み=\hspace*{-.25zw}「うまれる」\\\multicolumn{2}{c}{$\vdots$}\\対象語より後にある&基本形=\hspace*{-.25zw}「産まれる」\\対象語より後にある&基本形読み=\hspace*{-.25zw}「うまれる」\\\multicolumn{2}{c}{$\vdots$}\end{tabular}\end{center}\end{minipage}\end{center}\caption{表現$e_1$の持つ文脈素性(抜粋)}\label{fig:e1-context_feature}\end{figure}\subsection{文脈素性ベクタの作成}文脈素性ベクタは,以下の手順で作成する.\begin{enumerate}\item翻訳メモリ中の日本語表現と入力表現の各々を行成分に,各文脈素性を列成分に持つ行列({\bf文脈素性共起行列})を作成する(\ref{sec:appearance}~節).\item文脈素性のうちシソーラス上の意味コードを属性に持つものに対応する要素(意味属性要素)を,それぞれ上位概念まで拡張する(\ref{sec:expand_sense}~節).\item各要素に対して文脈素性種別に応じた重みづけをする(\ref{sec:weight}~節).\item行列の各行ベクタを文脈素性ベクタと見なす.\end{enumerate}以下では,図~\ref{fig:expression-j}の表現$e_1$を例にとり,上記の各手順を説明する.\subsubsection{文脈素性共起行列の作成}\label{sec:appearance}{\bf文脈素性共起行列}$A$は,翻訳メモリ中の日本語表現と入力表現の各々を行成分に,各日本語表現が持つすべての文脈素性を列成分に持つ行列である.行列の要素$a_{e,\mbox{\scriptsize$r$:$t$=$v$}}$は,表現$e$中,対象語の周辺に文脈素性$r$:$t$=$v$が出現しているか(真偽値)を表している.例えば,図~\ref{fig:expression-j}の表現$e_1$に対応する行列の行成分は,表~\ref{tab:appearance}に示される表現の行のようになる\footnote{誌面の都合上,多くの本来出現している要素を割愛している.}.\begin{table}[tp]\caption{表現$e_1$の文脈素性共起行列(抜粋)}\begin{flushleft}\footnotesize\tabcolsep3pt\begin{tabular}{r|c||c|c|c|c|c|c|c|c|c|c|c|c|c|c|c|c}\multicolumn{1}{c}{}&\multicolumn{17}{c}{文脈素性}\vspace*{.1zh}\\\cline{3-18}\multicolumn{2}{r|}{a)}&\multicolumn{7}{c|}{対象語にノ格でかかる}&\hspace*{3pt}$\cdots$\hspace*{3pt}&\multicolumn{7}{c|}{対象語がニ格でかかる}&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\cline{3-18}\multicolumn{2}{r|}{\raisebox{-.5zh}[0pt][0pt]{b)}}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\hspace*{3pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\\multicolumn{2}{r|}{}&&\hspace*{-.5zw}「夫婦」\hspace*{-.5zw}&&\hspace*{-.5zw}「名詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&&&&\hspace*{-.5zw}「産まれる」\hspace*{-.5zw}&&\hspace*{-.5zw}「動詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「用\kern0pt26」\hspace*{-.5zw}&\\\cline{3-18}\multicolumn{1}{r}{}\vspace*{-7.9pt}\\\cline{2-18}\hspace*{-3pt}表現&$e_1$&$\cdots$&1&$\cdots$&1&$\cdots$&1&$\cdots$&$\cdots$&$\cdots$&1&$\cdots$&1&$\cdots$&1&$\cdots$&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\cline{2-18}\end{tabular}\end{flushleft}\begin{center}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c|c|c|c|c|c|c|c|c}\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&\multicolumn{10}{c|}{対象語と係り関係がある}&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{3pt}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\hspace*{3pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\&&\hspace*{-.5zw}「夫婦」\hspace*{-.5zw}&\hspace*{-.5zw}「産まれる」\hspace*{-.5zw}&&\hspace*{-.5zw}「名詞」\hspace*{-.5zw}&\hspace*{-.5zw}「動詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「用\kern0pt26」\hspace*{-.5zw}&\\\hline\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&$\cdots$&1&1&$\cdots$&1&1&$\cdots$&1&1&$\cdots$&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\hline\end{tabular}\end{center}\begin{flushright}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c|c|c|c|c|c|c|c|c|c|}\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&\multicolumn{12}{c|}{任意の周辺位置にある}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{3pt}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&基本形&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\vspace*{-.1zh}\\&&\hspace*{-.5zw}「夫婦」\hspace*{-.5zw}&\hspace*{-.5zw}「子供」\hspace*{-.5zw}&\hspace*{-.5zw}「産まれる」\hspace*{-.5zw}&&\hspace*{-.5zw}「名詞」\hspace*{-.5zw}&\hspace*{-.5zw}「動詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt86」\hspace*{-.5zw}&\hspace*{-.5zw}「用\kern0pt26」\hspace*{-.5zw}&\\\hline\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&$\cdots$&1&1&1&$\cdots$&1&1&$\cdots$&1&1&1&$\cdots$\\\hline\end{tabular}\end{flushright}\label{tab:appearance}\end{table}周辺語の多くは対象語に対して複数の構文的/位置的関係に解釈できるので,ある1つの周辺語中に現れる形態的/意味的属性は,一般に複数の文脈素性要素となって行成分中に出現することに注意されたい.\subsubsection{意味属性要素の拡張}\label{sec:expand_sense}前節で作成した行列の各行ベクタをそのまま文脈素性ベクタと見なし,ベクタ間の角度の余弦値を計算して表現間の類似度を求めることができる.しかし,それはデータスパースネスの克服という点で十分でない.なぜならこのままでは,シソーラス上の意味コードを属性に持つ文脈素性の出現の一致を,単純な真偽で測ることになってしまうからである.階層構造を持つシソーラス上の2つの意味コードに対しては,単純な意味コードの一致による真偽値ではなく,一致している階層の深さを考慮した一致度を決めることができる.我々が用いる日本語語彙体系のように階層構造を持つシソーラスの場合,その概念から最上位概念までの上位概念を共有している度合を意味コードの一致度と見なすことができる.我々は,形態的/意味的属性として意味コードを持つ文脈素性に対応する行列要素(意味属性要素)の出現の各々について,その上位概念である意味コードの文脈素性も出現していると見なす拡張を行うことにした.具体的には,以下の通りである.\begin{quote}シソーラス上のある概念に対して,最上位から$n$~階層目の概念を表す意味コードを$s_n$とする.各上位概念の意味コードは,上から$s_1,s_2,\ldots,s_{n-1}$で表される.表現$e$中に,構文的/位置的関係$r$と組み合わされた文脈素性`\mbox{$r$:意味コード=$s_n$}'が出現している(要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}=1$である)とき,これの代わりに,要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_1$}},a_{e,\mbox{\scriptsize$r$:意味コード=$s_2$}},\ldots,a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}$の各々に等しく$\frac{1}{\sqrt{n}}$を与える.\end{quote}これは,意味コードを含む部分的な文脈素性ベクタが以下の性質を保持することを期待している.\begin{itemize}\item2つの意味コードが概念階層を共有している度合は,ベクタの意味属性成分どうしの余弦値に一致する.\item拡張後の全ての意味属性要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_1$}},a_{e,\mbox{\scriptsize$r$:意味コード=$s_2$}},\ldots,a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}$からなる部分ベクタの大きさ\[\sqrt{(a_{e,\mbox{\scriptsize$r$:意味コード=$s_1$}})^2+(a_{e,\mbox{\scriptsize$r$:意味コード=$s_2$}})^2+\ldots+(a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}})^2}\]を拡張前の意味属性要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}$と等しくすることで,概念階層の深さにかかわらず余弦値計算への寄与を一定に保つ.\end{itemize}一例として,表~\ref{tab:appearance}の文脈素性\begin{center}\begin{tabular}{r@{\,:\,}l}任意の周辺位置にある&意味コード=\hspace*{-.25zw}「名\kern0pt74」\\任意の周辺位置にある&意味コード=\hspace*{-.25zw}「名\kern0pt86」\end{tabular}\end{center}に対応する要素を拡張してみる.概念「名\kern0pt74」と「名\kern0pt86」は,日本語語彙体系上に図~\ref{fig:thesaurus}のように位置している.\begin{figure}[tp]\begin{center}\epsfile{file=figs/thesaurus.EPS,scale=1.0}\end{center}\caption{日本語語彙体系上での概念「名\kern0pt74」「名\kern0pt86」}\label{fig:thesaurus}\end{figure}従って,2つの要素は表~\ref{tab:expand_sense}のように拡張される.\begin{table}[tp]\caption{意味属性要素の上位概念の展開}\begin{center}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c}\hline\multicolumn{4}{c}{\makebox[0pt]{任意の周辺位置にある}}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt86」\hspace*{-.5zw}&\\\hline\hline\hspace*{-6pt}$\cdots$&1&1&$\cdots$\hspace*{-6pt}\\\hline\end{tabular}\end{center}\begin{center}$\Downarrow$\end{center}\begin{center}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c|c|c|c|c|c|c|c}\hline\multicolumn{11}{c}{任意の周辺位置にある}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&意味&意味&意味&意味&意味&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\&\hspace*{-.5zw}「名\kern0pt1」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt2」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt3」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt4」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt5」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt72」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt85」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt86」\hspace*{-.5zw}&\\\hline\hline&\multicolumn{1}{c|}{\rule[-2ex]{0pt}{5.5ex}\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&&&\\\hspace*{-6pt}$\cdots$&$\lor$&$\lor$&$\lor$&$\lor$&$\lor$&$\lor$&&&&$\cdots$\hspace*{-6pt}\vspace*{-.5ex}\\&\multicolumn{1}{c|}{\rule[-3ex]{0pt}{4.5ex}$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{}&\multicolumn{1}{@{\protect\makebox[0pt]{$-$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{8}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{8}}$}}&\\\hline\end{tabular}\end{center}\label{tab:expand_sense}\end{table}このとき,同じ構造的/位置的関係に複数の意味コードが与えられた文脈素性が存在することがあり,これらの展開の結果,上位の意味コードを含む文脈素性に対してそれぞれ異なった値を配置しようとする要素があるが,その場合は大きい方の値を採用する.\subsubsection{文脈素性要素の重みづけ}\label{sec:weight}2つの文脈素性ベクタを比較して類似度を測る際に,文脈素性の出現の一致が類似性に寄与する度合は,文脈素性によって異なると考えられる.例えば,表~\ref{tab:appearance}で表現$e_1$の文脈素性として出現しているもののうち,\begin{center}任意の周辺位置にある\,:\,意味コード=\hspace*{-.25zw}「名\kern0pt74」\end{center}の一致は\begin{center}任意の周辺位置にある\,:\,品詞=\hspace*{-.25zw}「名詞」\end{center}より類似性への寄与が大きいであろうし,さらに\begin{center}対象語にノ格で係る\,:\,意味コード=\hspace*{-.25zw}「名\kern0pt74」\end{center}の一致は\begin{center}任意の周辺位置にある\,:\,意味コード=\hspace*{-.25zw}「名\kern0pt74」\end{center}より類似性への寄与が大きいであろう.すなわち,{\bf文脈素性種別}$r$:$t$が類似性への寄与の度合を決定しているのではないかと考えられる.ベクタ空間モデルを用いた文書間比較においては,一般に索引語が文書の内容に寄与する度合(重要度)で索引語の重みづけを行う.我々は,同様の枠組で文脈素性ベクタの各文脈素性要素の出現に重みづけをすることにした.先の考察結果を実現するために,各要素に対して以下のように重みづけを行うことにする.\begin{quote}表現$e$中の文脈素性$r$:$t$=$v$を考える.重みづけ前の文脈素性共起行列$A$の要素$a_{e,\mbox{\scriptsize$r$:$t$=$v$}}$に対して,\\重みづけ後の文脈素性共起行列$A'$の要素$a'_{e,\mbox{\scriptsize$r$:$t$=$v$}}$は次のように計算する.\[a'_{e,\mbox{\scriptsize$r$:$t$=$v$}}=\sqrt{w(\mbox{$r$:$t$})}\cdot\frac{a_{e,\mbox{\scriptsize$r$:$t$=$v$}}}{\displaystyle\sqrt{\sum_{v\inV}(a_{e,\mbox{\scriptsize$r$:$t$=$v$}})^2}}\]ここで,$V$は文脈素性種別$r$:$t$に対してありうる全ての形態的/意味的属性の値,$w(\mbox{$r$:$t$})$は,文脈素性種別$r$:$t$に応じて決まる重みである.\end{quote}この重みづけの結果,文脈素性ベクタ中,ある文脈素性種別$r$:$t$に属する要素からなる部分ベクタの大きさは$\sqrt{w(\mbox{$r$:$t$})}$に正規化される.これは直感的には,2つの文脈素性ベクタの類似度を計算するとき,ある文脈素性種別$r$:$t$に属する要素成分の類似度が全体の類似度に寄与する度合が次の式のようになる.\begin{quote}\[\frac{w(\mbox{$r$:$t$})}{\displaystyle\sum_{\mbox{\footnotesize$r$:$t$\/}\inR\timesT}\!\!w(\mbox{$r$:$t$})}\]ここで,$R$はありうる全ての構文的/位置的関係,\\$T$はありうる全ての形態的/意味的属性種別\end{quote}つまり文脈素性種別ごとの寄与度の比が$w$の比になることを意味する.{\scSenseval}-2日本語翻訳タスクへの参加システムではこの解釈に基づき,文脈素性種別ごとの$w$を,その種別の意味づけを考慮したうえで直感的に決定した.\subsection{表現間の類似度の計算}\label{sec:candidate}ある対象語を含む日本語入力表現に対して,その語の適切な翻訳を選択するためには,入力表現の文脈素性ベクタを,その対象語に対応する翻訳メモリ中の全ての選択肢中の日本語表現の文脈素性ベクタと比較する.そして,入力表現のベクタとのなす角が最も小さい(余弦値が最も大きい)選択肢を採用する.文脈素性ベクタ間の比較を行うためには,当然両方のベクタは一意に決まっている必要がある.しかし,対象語周辺語は一般に多義であり,シソーラス上の意味コードには複数の候補がある.対象語の曖昧性解消にあたって,全ての周辺語の曖昧性を解消しておく必要があるというのは,手法として適切でない.そこで我々は,文脈素性ベクタ間の比較に先立って周辺語の曖昧性の解消は行わないことにした.代わりに,曖昧性を持つ周辺語の全ての候補の組み合わせについて文脈素性ベクタを計算し,その全てを「文脈素性ベクタ候補」として持つことにする.そして,文脈素性ベクタ間の類似度の計算の際には,お互いの全ての候補の組み合わせについて類似度を求め,値が最も大きな組み合わせを採用する.これによって,周辺語の多義性解消を対象語の翻訳選択と同時に行うことができる. \section{S{\normalsize\bfENSEVAL}-2日本語翻訳タスク参加システム} \label{sec:senseval_result}我々の開発した{\scSenseval}-2参加システムは,翻訳メモリ中の各日本語表現,評価データ,それぞれに対して,以下の手順で文脈素性となる情報を付与し,文脈素性ベクタを作成している.\begin{center}\begin{tabular}{p{7zw}l}{\bf形態素解析}&JUMANversion.\3.61\cite{kurohashi:98-1}\\\hspace*{2zw}$\Downarrow$\\{\bf構文解析}&KNPversion.\2.0~b6\cite{kurohashi:98-2}\\\hspace*{2zw}$\Downarrow$\\\multicolumn{2}{l}{\bfシソーラスによる内容語への意味コード付与}\\\hspace*{2zw}$\Downarrow$&日本語語彙体系\cite{ikehara:97}\\\multicolumn{2}{l}{\bf文脈素性ベクタ作成}\end{tabular}\end{center}以下ではシステムの諸元を説明し,コンテスト参加の結果を紹介する.\subsection{システムの諸元}\subsubsection{文脈を考慮する範囲}翻訳メモリ中の表現が非常に短いのに対し,評価データはそれぞれ新聞記事1記事分と非常に長い.できるだけ長さをそろえるために,評価データの方は対象語を含む1文のみを用いることにした.\subsubsection{文脈素性・種別ごとの重み}\label{sec:params}対象語周辺の文脈素性を形成するものとして採用した,構文的/位置的関係と形態的/意味的属性の一覧を表~\ref{tab:params}に示す.\begin{table*}[t]\caption{{\scSenseval}-2参加システムが採用した文脈素性要素と,種別ごとの重み}\begin{center}\begin{tabular}[t]{l|r@{\hspace*{1em}}}\hline構文的/位置的関係種別$r$&\multicolumn{1}{c}{$w_r(r)$}\\\hline対象語に係る\footnotemark\hspace*{\fill}(格関係:特定)&3\\\hspace*{\fill}(格関係:不特定)&1\\対象語を受ける\addtocounter{footnote}{-1}\footnotemark\(格関係:特定)&3\\\hspace*{\fill}(格関係:不特定)&1\\対象語と係り受け関係がある\addtocounter{footnote}{-1}\footnotemark&1\\対象語&2\\対象語文節中&2\\対象語より前&1\\対象語より後&1\\任意の周辺文脈&2\\\hline\end{tabular}\hspace*{3zw}\newlength{\zerowidth}\settowidth{\zerowidth}{0}\begin{tabular}[t]{l|r@{\hspace*{1em}}}\hline形態的/意味的属性種別$t$&\multicolumn{1}{c}{$w_t(t)$}\\\hline出現形&1\\出現形読み&1\\標準形&4\\標準形読み&4\\品詞&\protect\makebox[\zerowidth][l]{0\footnotemark}\\活用&\protect\makebox[\zerowidth][l]{0\addtocounter{footnote}{-1}\footnotemark}\\意味&12\\\hline\end{tabular}\end{center}\label{tab:params}\end{table*}また,\ref{sec:weight}~節で説明した,文脈素性種別$r$:$t$ごとに与える重みは,表~\ref{tab:params}の$w_r(r)$と$w_t(t)$を用いて\[w(\mbox{$r$:$t$})=w_r(r)\cdotw_t(t)\]と与えることにした.これは,表中全ての$r$:$t$の組み合わせについて人手で直感的に値を定めるのは困難なためである.\subsubsection{形態素・構文解析結果の誤りの扱い}\label{sec:error_correct}形態素・構文解析結果の誤りは,次のように扱った.\newpage\begin{enumerate}\item翻訳メモリ中の各表現の文脈素性ベクタを作成する際には,誤りを人手で修正した.\item評価セットの各表現の文脈素性ベクタを作成する際\footnotemarkには,修正は行わなかった.\end{enumerate}\addtocounter{footnote}{-2}\footnotetext{対象語がその文節の主辞(一番最後の自立語)でないときには,これらの構文的関係は考慮しない.}\addtocounter{footnote}{1}\footnotetext{「品詞」と「活用」の属性種別は,選択に有効な属性ではないのではないかと予測した.このため,{\scSenseval}-2参加システムでは,実験時間の削減の必要もあり,これらを利用しなかった.}\addtocounter{footnote}{1}\footnotetext{評価セットには形態素解析結果(単語境界,品詞コード)のタグが与えられていたが,我々はその情報を利用せず,新たに形態素・構文解析を行った.}\subsubsection{翻訳メモリ中の補足情報の扱い}配布された翻訳メモリには,日英表現対のいくつかに,作成者が加えた日本語による補足情報,例えば補足的な表現例やコメントなど,が含まれていた(\ref{sec:TM}~節参照).これらは以下のように扱う.\begin{enumerate}\item\label{enum:add_expr}対象語が含まれているならば,日英表現対の日本語表現と同等に扱う.すなわち,日英表現対の日本語表現と補足情報の両方に対して文脈素性ベクタを作成し,それらの全てを,\ref{sec:candidate}~節で述べた文脈素性ベクタ候補と扱う.\item\label{enum:add_context}対象語が含まれないならば,それらに含まれる全ての内容語を,対応する日本語用例で対象語の「任意の周辺文脈」に属しているものと見なし,該当する文脈素性要素に組み入れる.\end{enumerate}各補足情報の上記\ref{enum:add_expr}と\ref{enum:add_context}への分類,および\ref{enum:add_expr}の場合の対象語へのマーキングは,全て人手で行った.\subsubsection{シソーラスの検索}「日本語語彙体系」は,一般名詞,固有名詞,用言の3つの体系からなる.そして,収録されている各単語には標準形と読みの情報がある.「日本語語彙体系」から各単語の意味コードを取得するときには,以下の手順に従った.\begin{enumerate}\item\label{enum:yomi_trust}翻訳メモリ中の各表現の文脈素性ベクタを作成するときには,表現の形態素解析結果は人手で修正済である(\ref{sec:error_correct}~節)ので,修正済の形態素解析結果と完全に一致する単語のみを(複数あれば全てを候補に)採用する.すなわち,形態素解析結果の品詞情報を基に体系(一般名詞/固有名詞/用言)を選択し,その中で標準表記と読みが一致するものを選ぶ.一方,評価セットの場合は形態素解析結果の修正は行わないため,読みや品詞分類が誤っている場合がある.そのため,体系の選択を行うときには一般名詞と固有名詞の区別は行わず,標準表記が一致する語を全て選択する.\item翻訳メモリ中には,例えば「〜\usebox{\mykern}(人)に手をあげる」のように,単語が特定されず,その概念を表す語が添えられている用例がある.この語には,その概念語に対する一般名詞を検索し,その意味コードを当てる.\item数詞には全て意味コード「名\kern0pt2585(数量)」を割り当てる.\item\label{enum:nonexist}体系中に存在しない単語には,該当する体系の最上位の意味コードを1つ割り当てる.\item上記\ref{enum:yomi_trust}~〜~\ref{enum:nonexist}で一般名詞の意味コードを割り当てた場合,「日本語語彙体系」の「一般名詞と固有名詞の意味属性対応表\cite[pp.~1:89--91]{ikehara:97}」に相当する項目があれば,得られる固有名詞の意味コードも併せて候補にする.固有名詞から一般名詞への拡張も同様に行う.\end{enumerate}\subsection{参加システムの翻訳選択精度}我々の参加システムが評価データに対して行った翻訳選択実験の,正解データ(goldstandard)に対する精度・再現率\footnote{\ref{sec:candidate}~節で述べたように,翻訳選択は翻訳メモリ中の表現と入力表現それぞれの文脈素性ベクタ候補の総当たりで余弦値を計算して決定する.ここで,余弦値が0より大きくなる組み合わせが1つもないときには,システムは結果を「判定不能(UNASSIGNABLE)」とし,選択は行わない.このとき,精度はこれを評価セットから除いたときの正解率,再現率はこれを失敗としたときの正解率である.}\は,ともに45.8\,\%であった(goldstandard作成者間の一致度は86.0\,\%,baseline(無作為に1つを選択)の精度は36.8\,\%).ただ,参加システムにはベクタの正規化などに重大な不具合があった.この点を修正し,参加システムと同じ文脈素性種別の重みを用いて再度実験を行った.その精度・再現率はともに49.3\,\%(名詞:50.0\,\%,動詞:48.5\,\%)であった. \section{文脈素性種別と翻訳選択性能との関係} \label{sec:vector_component}本システムの開発にあたって,各種の文脈素性が表現の類似性を異なる観点から表現し,それぞれ類似性への寄与の度合が異なるという前提があった.従って,システムの翻訳選択性能は,文脈素性種別ごとの重みづけに本質的に依存すると言える.{\scSenseval}-2参加システムではこの重みを直感的に定めたが,より適切な重みを正解データから獲得することで性能の向上が期待できる.本章では,最適な重みの正解データからの学習の前段階として,文脈素性が種別ごとに翻訳選択性能にどのように寄与しているかを調査した.\subsection{実験}各文脈素性種別$r$:$t$について,それぞれ重み$w(\mbox{$r$:$t$})$のみを1,残りを全て0にした重み集合を用いて翻訳選択実験を行い,性能を比較した.実験時間の節約のため,対象語との構文的/位置的関係が\begin{itemize}\item任意の周辺位置にある\item対象語より前にある\item対象語より後にある\end{itemize}である文脈素性要素については,対象語から内容語5~語分より遠くにあるものを対象から外した\footnote{この条件で{\scSenseval}-2参加システムと同じ文脈素性種別の重みを用いて評価実験を行った結果の精度/再現率は,52.1\,\%/51.3\,\%(名詞:54.4\,\%/53.6\,\%,動詞:49.7\,\%/49.0\,\%)であった.}.実験の結果得られた,各文脈素性種別ごとの精度/再現率を図~\ref{fig:prec_rec}に示す.また,得られた精度/再現率の総合的な指標として,各々のF-尺度:\[F=\frac{(\beta+1)PR}{\betaP+R}\]を$\beta=1$として計算したものの上位を表~\ref{tab:f_measure}に示す.\subsection{分析}\begin{figure}[p]\begin{center}\begin{tabular}{c}\epsfile{file=figs/all.eps,scale=1.0}\\(1)全対象語\\\vspace*{.15\baselineskip}\\\epsfile{file=figs/noun.eps,scale=1.0}\\(2)名詞\\\vspace*{.15\baselineskip}\\\epsfile{file=figs/verb.eps,scale=1.0}\\(3)動詞\\\multicolumn{1}{r}{\epsfile{file=figs/legend.eps,scale=1.0}}\\\end{tabular}\end{center}\vspace*{-.4\baselineskip}\caption{文脈素性種別ごとの精度/再現率}\label{fig:prec_rec}\end{figure}\begin{table}[tp]\caption{文脈素性種別とF-尺度(上位抜粋)}\label{tab:f_measure}\begin{center}\small(1)全対象語\\\begin{tabular}[t]{r@{\,:\,}l|c}\hline\protect\makebox[14zw][r]{構文的/位置的関係}&形態的/意味的属性種別&F-尺度\\\hline任意の周辺文脈&意味&0.454\\対象語と係り受け関係にある&意味&0.423\\対象語より前&意味&0.421\\任意の周辺文脈&品詞&0.385\\対象語&意味\footnotemark&0.384\\対象語&標準形読み\addtocounter{footnote}{-1}\footnotemark&0.383\\対象語と係り受け関係にある&品詞&0.377\\\hline\end{tabular}\end{center}\vspace*{.25\baselineskip}\begin{center}\small(2)名詞\\\begin{tabular}[t]{r@{\,:\,}l|c}\hline\protect\makebox[14zw][r]{構文的/位置的関係}&形態的/意味的属性種別&F-尺度\\\hline対象語より後&意味&0.465\\任意の周辺文脈&意味&0.452\\対象語と係り受け関係にある&意味&0.407\\対象語より後&品詞&0.396\\対象語&出現形読み\addtocounter{footnote}{-1}\footnotemark&0.390\\対象語&出現形\addtocounter{footnote}{-1}\footnotemark&0.390\\対象語&意味\addtocounter{footnote}{-1}\footnotemark&0.390\\\hline\end{tabular}\end{center}\vspace*{.25\baselineskip}\begin{center}\small(3)動詞\\\begin{tabular}[t]{r@{\,:\,}l|c}\hline\protect\makebox[14zw][r]{構文的/位置的関係}&形態的/意味的属性種別&F-尺度\\\hline対象語に係る(格関係:特定)&意味&0.457\\任意の周辺文脈&意味&0.456\\対象語より前&意味&0.455\\対象語に係る(格関係:不特定)&意味&0.442\\対象語と係り受け関係にある&意味&0.440\\対象語より前&品詞&0.387\\任意の周辺文脈&品詞&0.384\\\hline\end{tabular}\end{center}\end{table}前節の実験結果を分析し,以下の考察を行った.\begin{description}\item[精度と再現率の関係]図~\ref{fig:prec_rec}が示すように,ある素性を用いて翻訳選択を行ったときの選択精度と再現率は両立しない.例えば,構文的/位置的関係が「対象語文節中」や「対象語に係る」「対象語を受ける」である素性や,形態的/意味的属性種別が「出現形(読み)」「基本形(読み)」である素性など,限定的な素性を用いると,精度は高くなるが再現率が低くなる.逆に,構文的/位置的関係が「任意の周辺文脈」や「対象語より前/後」である素性や,形態的/意味的属性種別が「意味」「品詞」である素性などでは,再現率は高くなるが精度があまり高くない.\footnotetext{対象語に相当する部分が形態素解析の結果得られる単語より小さく,単語の中に含まれてしまう場合,システムはその含む単語全体を対象語として扱う(例えば対象語「味」に対する「味わい」).そのため,この大きな対象語の「意味」や「標準形」属性などで選択が可能なことがある.}その中で比較的精度と再現率を両立しているのは,表~\ref{tab:f_measure}のF-尺度が示すように,形態的/意味的属性種別が「意味」である素性が多い.シソーラスの意味情報が翻訳選択性能に貢献していることが分かる.\item[名詞と動詞の違い]図~\ref{fig:prec_rec}(3)の再現率のグラフを見ると,動詞では,構文的/位置的関係が「対象語に係る」や「対象語より前」である素性と,「対象語を受ける」や「対象語より後」である素性とで,再現率が二分されることが分かる.このうち再現率が高い方のグループである「対象語に係る(格関係:特定)」「対象語に係る(格関係:不特定)」「対象語より前」の3種類について,形態的/意味的属性種別が同じ素性を用いたときの性能を比較してみると,再現率はどれもほとんど同じであるが,精度は「対象語に係る(格関係:特定)」が高い.つまり,動詞の場合は,対象語と特定の格関係にある(格スロットに入る)単語の類似性が性能に貢献すると言える.この傾向は,表~\ref{tab:f_measure}(3)のF-尺度によっても裏付けられる.一方,図~\ref{fig:prec_rec}(2)の再現率のグラフを見ると,名詞では動詞に比較して,構文的/位置的関係が「任意の周辺」や「対象語より前/後」である素性を用いたときに再現率が高くなっている.また,表~\ref{tab:f_measure}(2)のF-尺度を見ても,「対象語より後\,:\,意味」「任意の周辺文脈\,:\,意味」の上位2素性が抜きん出ている.全般には,名詞の場合,係り受け関係は性能にあまり貢献せず,対象語より後の文脈の方が性能に貢献する度合が高いと言える.\end{description}また,前節表~\ref{tab:params}で決めた文脈素性分類ごとの重みを全て与えて翻訳選択実験を行ったときの性能は,F-尺度で0.517であり,表~\ref{tab:f_measure}で最大のF-尺度を持つものより大きい.このことから,提案の枠組による各種文脈情報の統合は効果があったと言える. \section{まとめ} \label{sec:conclusion}本稿では,ベクタ空間モデルを用いた翻訳選択手法を提案し,本手法を用いたシステムで{\scSenseval}-2日本語翻訳タスクに参加した結果を報告した.ある対象語を含む対訳用例の中から最適な翻訳を選択する問題を,対象語周辺の詳細な文脈情報を表す文脈素性ベクタの類似した用例を選択することで解決する.本手法を用いた{\scSenseval}-2日本語翻訳タスク参加システムは,不具合修正後の精度が49.3\,\%であった.本手法で利用した各種文脈素性が翻訳選択性能に寄与する度合を調査したところ,シソーラスの意味情報が大きく貢献していることが分かった.また構文的制約の緩い素性の方が全般に頑強であった.今後の課題として,以下の2点を挙げる.\begin{itemize}\item表現間の類似度を計算するとき,周辺語の意味がシソーラス上で一般に複数の語義を持つために,語義曖昧性の数だけ「文脈素性ベクタ候補」を作成し,総当たりで類似度を求めている(\ref{sec:candidate}~節).このため,周辺語の数が増えるにしたがって計算時間が指数関数的に増大する.何らかの枝刈りを検討したい.\item正解データに基づく,最適な文脈素性種別ごとの重みの学習方法を検討したい.\end{itemize}\vspace{\baselineskip}\acknowledgment訓練データの整備に協力していただいた,大阪大学(現通信総合研究所)の森本郁代氏に感謝いたします.本研究は,通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものである.\bibliographystyle{jnlpbbl}\bibliography{kumano}\begin{biography}\biotitle{略歴}\bioauthor{熊野正}{1993年東京工業大学工学部情報工学科卒業.1995年同理工学研究科情報工学専攻修士課程修了.同年,日本放送協会に入局.同放送技術研究所に勤務.2000年よりATR音声言語通信研究所(現ATR音声言語コミュニケーション研究所)に勤務.第4研究室研究員.自然言語処理,情報検索,機械翻訳,人工知能の研究に従事.電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioauthor{柏岡秀紀}{1993年大阪大学大学院基礎工学研究科博士後期課程修了.博士(工学).同年ATR音声翻訳通信研究所入社.1998年同研究所主任研究員.1999年奈良先端科学技術大学院大学情報学研究科客員助教授.2000年ATR音声言語通信研究所主任研究員.2001年ATR音声言語コミュニケーション研究所主任研究員.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会各会員.}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年,日本放送協会に入局.1987年同放送技術研究所勤務.1997年より2年間ATRエイ・ティ・アール音声翻訳通信研究所に勤務.1999年NHK放送技術研究所に復帰.2000年よりATR音声言語通信研究所(現ATR音声言語コミュニケーション研究所)に勤務.現在,第4研究室室長.機械翻訳,機械学習,情報検索の研究に従事.工学博士.言語処理学会,情報処理学会,映像情報メディア学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N01-02
\section{はじめに} \label{sec:introduction}質問応答は,自然言語処理における重要な問題の一つであり,古くから研究が続けられている.特に近年では,SQuAD\shortcite{rajpurkar_squad:_2016,rajpurkar_know_2018},MSMARCO\shortcite{bajaj_ms_2016},RACE\shortcite{lai_race:_2017}といった読解型質問応答の大規模なデータセットが多数提案され,それと同時に,深層ニューラルネットワークを用いた質問応答の手法が数多く提案されている.また,これらのデータセットは,質問応答の研究だけではなく,近年盛んに研究がなされているBERT\shortcite{devlin_bert:_2019}をはじめとする大規模言語モデルの言語理解能力を測るベンチマークとしても利用されている.これらのデータセットが対象とする読解型質問応答のタスクでは,質問文と関連文書の両方が与えられ,システムは関連文書から正解の可能性が高い文字列を抜き出すことによって質問に解答する.すなわち,システムは解答時に知識源となる関連文書をその場で参照することが許されるので,質問に答えるためには文書の「読み方」を学習できれば良く,質問で問われる事実知識そのものをモデリングする必要はない.そのため,読解型質問応答の問題設定は,人間にとっての「持ち込み可能(open-book)試験」に喩えられる.一方,システムが文書を「どう読むか」を問う読解型質問応答とは対照的に,与えられる質問について「何を知っているか」を直接問う\textbf{「クローズドブック質問応答(closed-bookQA)」}と呼ばれるタスクが近年注目されている\shortcite{roberts_how_2020}.クローズドブック質問応答では,現実の「持ち込み不可(closed-book)試験」と同様,解答時に質問文以外の情報を参照することは認められない.したがって,システム(解答者)は事前に出題範囲を十分に学習し,記憶しておくことが要求される.すなわち,クローズドブック質問応答は,あらかじめ重要な情報を知識として記憶し,与えられる質問に対して自らが保持する知識を用いて答えるという,人間の知識を用いた知的活動により近い問題設定となっている.最近では,大規模な言語モデルが事実知識をどれだけ保持しているかをクローズドブック質問応答によって評価する研究がいくつか行われている.既存の研究では,モデルの訓練可能なパラメータの数を多くしたり\shortcite{raffel_exploring_2019},モデルの構造や訓練の目的関数を工夫する\shortcite{ling_learning_2020,fevry_entities_2020}というモデル指向の方法によって,クローズドブック質問応答の性能が向上することが報告されている.特に最先端の研究では,数十億〜数百億の訓練可能なパラメータを持つ超巨大なモデルによる性能が報告されている\shortcite{roberts_how_2020}.これらの研究は,言語モデルが持つことのできる表現力や汎化能力を追究するという面で意義深い反面,モデルの訓練には大規模な計算機資源と多大なエネルギーを必要とするため,誰でも既存研究を再現でき改善を加えられるという状況からは逸脱しつつあることが懸念される\shortcite{strubell_energy_2019}.一方,モデル指向の方法とは対照的に,訓練データを工夫してモデルが持つ知識のカバー率を上げることでクローズドブック質問応答を実現するというデータ指向のアプローチも考えられる.クローズドブック質問応答の実例としてクイズを考えてみると,例えば「ジョージ・ルーカス」が答えとなるクイズ問題は,監督した作品,本人の生い立ち,家族についてなど,複数の異なる角度からの知識が問われることが予想される.しかし,モデルが予習に用いる訓練データには,考えられる多様なクイズ問題の一部しか含まれていない.そのため,訓練データに登場しない問題がテスト時に出題された際には,訓練データのみで訓練されたモデルにとっては多くの場合,解答不可能であると考えられる.このことは,正解が訓練データ中に1回もしくは数回しか出現しない,いわゆるfew-shotの事例では特に問題となる.このような問題に対して,データ指向のアプローチは,より多様な事実知識をより効率的にモデルに教えるために役立てられると考えられる.さらに,モデルの大型化に頼らずにクローズドブック質問応答を実現できれば,関連文書の検索・走査を伴う読解型質問応答システムよりも高速に利用者の質問に解答できるシステムが低コストで実現できる可能性がある.しかしながら,深層ニューラルネットワークを活用したクローズドブック質問応答の研究は歴史が浅く,データ指向のアプローチの有効性については十分に研究がされていない.本稿では,クローズドブック質問応答におけるデータ指向アプローチの有効性を実験的に調査する.具体的には,Wikipediaを知識源とした拡張データを作成し,遠距離教師あり学習によって,元の訓練データには記述されていない事実知識をモデルに教えるために利用する.モデルには事前訓練済み言語モデルのBERT\shortcite{devlin_bert:_2019}を用い,元の訓練データおよび拡張データに対してモデルをファインチューンさせる.実験では,クイズを題材にした質問応答のデータセットであるQuizbowl\shortcite{rodriguez_quizbowl:_2019}とTriviaQA\shortcite{joshi_triviaqa:_2017}を用いて,モデルのクローズドブック質問応答の性能を調査した.モデルが出力した解答の分析から,拡張データを用いて訓練されたモデルが,元の訓練データには記述されていない事実知識を問う問題に対しても正しく解答できたことがわかり,モデルが拡張データから新たな知識を学習し解答に活用できていることを示唆する結果が得られた.テストデータを用いた評価実験では,Quizbowlでは従来の最高性能を更新し,TriviaQAでは既存の強力な系列生成モデル\shortcite{roberts_how_2020}に匹敵する性能をおよそ20分の1のパラメータ数で実現した.以下では,2節でクローズドブック質問応答の関連研究について概観し,3節でタスクの定義およびデータセットについて説明する.4節で本研究の提案手法について述べ,5節で実験設定および実験結果を示す.6節でまとめと今後の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2 \section{関連研究} \label{sec:related_work}質問応答システムの研究は,古くはコンピュータの黎明期である1960年代に遡る.初期の研究は主に自然言語理解を目的としたものであったが\shortcite{green_baseball_1961,winograd_terry_procedures_1971},1990年代からは,情報アクセス技術としての質問応答の研究が行われるようになった.特に,分野が限定されない文書集合に対する質問応答,いわゆるオープンドメイン質問応答の研究は,1999年に開かれた情報検索技術の評価型ワークショプTREC-8でのQAトラックをきっかけに広く取り組まれるようになった\shortcite{voorhees_trec-8_1999}.オープンドメイン質問応答は,質問文の解析,情報検索,解答候補の抽出,解答候補の統合という複数のモジュールによるパイプライン処理で行われることが一般的である.初期のシステムでは,各モジュールの処理に人手による規則や素性の設計を伴う手法が主流であった\shortcite{simmons_answering_1965}.2011年にアメリカのクイズ番組Jeopardy!で人間のクイズ王と対戦し勝利を収めたIBMWatson\cite{ferrucci_introduction_2012}は,大量のコーパスと大規模な計算資源を活用したパイプライン処理に基づく質問応答システムであり,そのプロジェクトの成功は人工知能研究の進展を社会に大きく印象付けた.一方,2010年代から,与えられる文書を読解して質問に答える読解型質問応答の研究が,深層ニューラルネットワーク技術の進展およびSQuAD\shortcite{rajpurkar_squad:_2016}に代表される数多くのデータセットの登場により後押しされ,多くの研究者に取り組まれるようになった.それ以降,オープンドメイン質問応答の研究においても,解答候補の抽出・統合のモジュールを読解型質問応答のモデルに置き換えることでより高い解答性能の実現を目指す研究が進められている\shortcite{chen_reading_2017,clark_simple_2018,wang_r3_2018,seo_real-time_2019}.さらに近年,深層ニューラルネットワークを用いた自然言語処理技術のさらなる発展に伴い,文書の検索や読解を必要とせずモデルに知識そのものを保持させることで質問応答を実現する,クローズドブック質問応答と呼ばれるタスクの研究がいくつか行われている.その一つに,大規模なコーパスで訓練された言語モデルがどれだけ事実知識を保持し想起できるかを評価する一連の研究がある.\shortciteA{radford_language_2019}は,大量のウェブ文書を用いて訓練されたGPT-2と呼ばれる汎用言語モデルを提案し,言語モデルのテキスト生成による質問応答の能力をNaturalQuestionsデータセット\shortcite{kwiatkowski_natural_2019}の上で評価した.その結果,質問に対してモデルが文章読解なしに正しく解答できた質問は全体の4.1\%にとどまることを報告している.\shortciteA{raffel_exploring_2019}は,GPT-2よりもさらに多くの訓練可能なパラメータを持つ汎用系列変換モデルT5を提案し,\shortciteA{roberts_how_2020}はT5の質問応答能力を,本来は読解型質問応答のデータセットであるTriviaQA\shortcite{joshi_triviaqa:_2017}の質問をテキスト生成により解かせることで評価した.その結果,数十億〜数百億個の訓練可能なパラメータを持つモデルが,複数の強力な読解型質問応答のモデルを上回る解答性能を示した.別の系統の研究では,エンティティの分散表現の学習に焦点を当て,学習された分散表現の評価にクローズドブック質問応答を利用している.\shortciteA{ling_learning_2020}と\shortciteA{fevry_entities_2020}は,Wikipedia記事のハイパーリンクを活用し,エンティティの分散表現を学習する方法をそれぞれ提案した.彼らの研究では,TriviaQAをエンティティをクラスとした分類問題として解くことにより,学習されたエンティティの分散表現の有用性を評価している.以上の既存研究に対して本研究は,モデルの構造の工夫や大型化に頼ることなく,訓練に用いるデータを工夫することよって,より効率的にクローズドブック質問応答のモデルを訓練することを追究するものである.言語モデルが保持する知識の評価を目的とした既存研究としては,入力文のマスクされた部分を予測させることでモデルが持つ知識の評価を行う研究がある.\shortciteA{petroni_language_2019}と\shortciteA{davison_commonsense_2019}による研究では,知識ベースを利用して,関係知識に対応する部分がマスクされた穴埋め問題の文を作成し,穴埋め言語モデルであるBERTにマスク部分を予測させることによって,モデルが保持する知識を評価した.これに対して本研究では,関係知識ではなく,エンティティについて任意のテキストで記述される知識を質問応答の形式で評価するという点で異なっている.質問応答のタスクにデータ拡張を適用させた既存研究として,\shortciteA{rodriguez_quizbowl:_2019}は,Quizbowl\shortcite{boyd-graber_besting_2012}というクローズドブック質問応答タスクにおいて,Wikipediaから作成した拡張データをモデルの訓練に利用することを提案した.彼らはGRU\shortcite{cho_learning_2014}をモデルに用いた実験により,データ拡張がモデルの解答性能の向上に寄与することを示した.他方,\shortciteA{yang_data_2019}は,読解型質問応答におけるデータ拡張の有効性について調査している.BERTを読解モデルに利用した彼らの実験では,拡張データと元の訓練データを用いた段階的なモデルのファインチューニングが,モデルの読解性能の向上に有効であることを報告している.本研究ではこれらの既存研究を踏まえ,\shortcite{rodriguez_quizbowl:_2019}と同様のクローズドブック質問応答における,訓練済み言語モデルおよびデータ拡張の有効性を調査し,データ拡張によってどのような問題を解答できるようになったかについて,より詳しい分析を与える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3 \section{クローズドブック質問応答} \label{sec:task_and_dataset}%3.1%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク定義}\label{sec:task_formalization}本研究では,データ指向のアプローチをとる既存研究\shortcite{rodriguez_quizbowl:_2019}に倣い,クローズドブック質問応答をエンティティをクラスとした分類問題として解く.すなわち,システムは,与えられる質問文$q$に対して,予め決定されたエンティティの集合$V_a=\{a_1,\cdots,a_{|V_a|}\}$の要素であるようなエンティティ$a$を正解として予測する.したがって,本解法はクラス数が$|V_a|$のマルチクラス分類問題となる.%3.2%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}\label{sec:datasets}本研究では,ドメインを限定しない多様な事実知識についてモデルの解答性能を評価するために,クイズの問題を活用した質問応答のデータセットであるQuizbowlとTriviaQAを実験に用いる.各データセットの統計量を表\ref{tab:dataset_stats}に示す.それぞれのデータセットについて,訓練データに1回以上正解として出現するエンティティの集合を正解エンティティの集合$V_a$として定める.すなわち,Quizbowlでは25,969クラス,TriviaQAでは28,689クラスの多クラス分類問題となる\footnote{本研究の提案手法では,訓練データに一度も出現しない,すなわちzero-shotの正解エンティティについては,最初から解けないものとして取り扱う.}.以下の節では,2種類のデータセットの特徴について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表1\begin{table}[b]\input{01table01.tex}\caption{データセットの統計量}\label{tab:dataset_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表2\begin{table}[b]\input{01table02.tex}\caption{Quizbowlの問題例}\label{tab:example_quizbowl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2.1%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Quizbowl}\label{sec:quizbowl}Quizbowlは,主に英語圏で実際に行われているクイズの大会であり,自然言語処理における質問応答のタスクとしても研究されている\shortcite{boyd-graber_besting_2012,iyyer_neural_2014,rodriguez_quizbowl:_2019}.表\ref{tab:example_quizbowl}に,Quizbowlで出題されるクイズ問題の例を示す.Quizbowlで出題される問題は「早押しクイズ」であり,解答者は正解が分かった時点でブザーを押して解答する.そのため,質問の文章は,正解のエンティティについてより詳しく知っている解答者が有利となるよう,より難しい(知名度の低い,抽象的な)ヒントが先に,より易しい(よく知られている,具体的な)ヒントが後に現れるように,複数の文を配列させることで作られている.本研究では,\shortciteA{rodriguez_quizbowl:_2019}によって提案された\textsc{qanta}2018データセットを用いる\footnote{\url{https://sites.google.com/view/qanta/resources}}.\textsc{qanta}2018は,過去のQuizbowlの大会で使用されたおよそ12万問のクイズ問題からなるデータセットである.すべてのクイズ問題には,正解のエンティティがWikipediaの記事タイトルとして付与されている.そのため,\textsc{qanta}2018のクイズ問題は,Wikipediaの記事タイトルをクラスとした分類問題として解くことができるようになっている.%3.2.2%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{TriviaQA}\label{sec:triviaqa}TriviaQA\shortcite{joshi_triviaqa:_2017}は,ウェブ上のクイズ問題を収集して作られた質問応答のデータセットである.表3に,TriviaQAの質問と正解の例を示す.TriviaQAは元々読解タスク向けに作られたデータセットであり,データセットに含まれる各事例は,質問文,正解,そして読解対象の文書からなる.同様の読解タスクのデータセットとしてSQuAD\shortcite{rajpurkar_squad:_2016,rajpurkar_know_2018}があるが,SQuADはWikipediaの文章に対して質問を人手で作成・付与することで作られているため,例えば``Whatindividualistheschoolnamedafter?''のような,それ単独では意味が定まらないような質問が一部含まれている.これに対してTriviaQAは,既存のクイズ問題に対してウェブ文書やWikipedia記事を付与するという方法で作られており,質問の内容が読解対象の文書の内容に依存してしない.したがって,TriviaQAは,読解対象の文書を無視することでクローズドブック質問応答のデータセットとしても用いることができ,実際にクローズドブック質問応答の既存研究でもそのように用いられている\shortcite{roberts_how_2020,ling_learning_2020,fevry_entities_2020}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表3\begin{table}[b]\input{01table03.tex}\caption{TriviaQAの問題例}\label{tab:example_triviaqa}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,TriviaQAの公式ウェブサイト\footnote{\url{https://nlp.cs.washington.edu/triviaqa}}で公開されているデータのうち,{\sfunfiltered-train}のデータをモデルの訓練に,{\sf\smallwikipedia-dev}と{\sf\smallwikipedia-test}のそれぞれをモデルの開発およびテスト用のデータとして用いる.TriviaQAの訓練および開発データには,質問文,正解の文字列,読解文書の他に,Wikipediaの記事タイトルで表された正解エンティティの情報もメタデータとして付与されている.本研究では,分類問題として解くクローズドブック質問応答の設定に適合させるため,訓練データのうち正解エンティティの情報が付与されている事例のみをモデルの訓練に用い,読解向けの正解の文字列ではなく正解エンティティの情報をモデルへの教師信号として用いる.%3.2.3%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{2つのデータセットに共通する特徴}\label{sec:few-shotness}QuizbowlとTriviaQAのデータセットに共通する特徴の一つに,訓練データの量に対して正解エンティティの異なり数$|V_a|$が大きく,その出現頻度の分布が大きく偏っていることが挙げられる.図\ref{fig:train_freq}に,それぞれの訓練データセットにおける正解エンティティの出現頻度を示す.どちらのデータセットでも,一部の正解エンティティは訓練データに多く出現する一方で,ほとんどの正解エンティティは訓練データに1回もしくは数回しか出現しない,いわゆるfew-shotの事例となっている.本研究では,このようなfew-shotの正解エンティティに対してもモデルが多様な知識を持てるように,データ拡張を行う(\ref{sec:data_augmentation}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図1\begin{figure}[t]\begin{center}\includegraphics{28-1ia1f1.pdf}\end{center}%%%%\subcaption{Quizbowl}%%%%\label{fig:qb_train_freq}%%%%\subcaption{TriviaQA}%%%%%\label{fig:tq_train_freq}\caption{訓練データにおけるエンティティの出現頻度}\label{fig:train_freq}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4 \section{提案手法} \label{sec:methodology}%4.1%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}\label{sec:model}本研究では,クローズドブック質問応答のモデルとして,大規模コーパスで事前訓練された汎用言語モデルであるBERT\shortcite{devlin_bert:_2019}を多クラス分類問題向けに拡張したものを用いる\footnote{\url{https://github.com/google-research/bert}で配布されているBERT-base(cased)のモデルを用いた.}.具体的には,質問文$q$の入力に対してBERTが出力する,文頭の特殊トークン\texttt{[CLS]}に対応するベクトル$\mathbf{q}\in\mathbb{R}^d$を多クラス分類層に入力しsoftmax関数を適用することで,エンティティ$a\inV_a$が質問$q$の正解である確率分布$P(a|q)$を計算する.\[P(a|q)=\frac{\exp(\mathbf{q}^\top\mathbf{w}_a)}{\sum_{a'\inV_a}\exp(\mathbf{q}^\top\mathbf{w}_{a'})}\]ここで,$\mathbf{w}_a\in\mathbb{R}^d$は,エンティティ$a\inV_a$に関連付けられた,訓練可能な重みベクトルである.なお,本研究ではBERTの他にも,RoBERTa\shortcite{liu_roberta:_2019}とXLNet\shortcite{yang_xlnet_2019}をモデルに用いた実験も行っている.これらの実験結果については付録\ref{appendix:different_model_results}に示す.%4.2%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ拡張}\label{sec:data_augmentation}エンティティについてのより多様な事実知識をモデルに保持させるために,Wikipediaを知識源としたデータ拡張を行う.本研究では,\shortciteA{rodriguez_quizbowl:_2019}が提案したデータ拡張手法を基本に,拡張データを作成する.QuizbowlとTriviaQAのそれぞれについて,拡張データを以下の手順により作成した:\begin{enumerate}\item正解エンティティの集合$V_a$の要素である各エンティティ$a$について,$a$を記事名(主題)とするWikipedia記事$D^{(a)}$を取得する.\item各エンティティの記事$D^{(a)}$について,記事本文全文を文分割して$\{s_i^{(a)}\}_{i=1}^{N_a}$を得る.ここで,$N_a$は記事$D^{(a)}$の本文の文数である.\item各エンティティの記事$D^{(a)}$について得られた文-エンティティペア$\{(s_i^{(a)},a)\}_{i=1}^{N_a}$を拡張データの事例とする.\end{enumerate}\noindentなお,Wikipedia記事からの拡張データ作成にあたっては,\shortcite{rodriguez_quizbowl:_2019}では各記事の最初の段落だけから文を取り出していたのに対し,本研究では記事全文から文を取り出している.これにより,訓練したモデルの解答性能が向上することを事前実験により確認している.拡張データの作成には,英語版Wikipediaの2018年4月18日付けのダンプファイルを使用した\footnote{当該ダンプファイルは,\textsc{qanta}2018のデータセットとともに公式サイト(\url{https://sites.google.com/view/qanta/resources})で配布されている.}.Wikipediaダンプファイルからの記事本文の抽出には{\sfWikiExtractor}\footnote{\url{https://github.com/attardi/wikiextractor}}を,本文の文分割には{\sfBlingFireTokenizer}\footnote{\url{https://github.com/microsoft/BlingFire}}を使用した.記事から得られた文のうち,文長が20文字よりも短い記事は,ノイズとなる可能性が高いため拡張データから除外した.また,文中における正解エンティティの直接的な言及は,解答のあからさまなヒントとなりうるため,マスクする処理を行った.具体的には,各文-エンティティペア$(s,a)$について,文$s$に含まれる,正解エンティティ$a$と単語単位で部分一致する全ての文字列を,その文字列をサブワード分割した際と同じ長さの\texttt{[MASK]}トークン列に置換した.ここで完全一致ではなく部分一致としたのは,文中の言及が正解エンティティの略称(人名であれば姓名のいずれかなど)であっても置換できるようにするためである\footnote{例えば,\texttt{Justin\_Bieber}(サブワードでは``JustinB\#\#ie\#\#ber'')というエンティティに対しては,本文中の``Justin''が``\texttt{[MASK]}''に,``Bieber''が``\texttt{[MASK][MASK][MASK]}''にそれぞれ置換される.}.なお,部分一致の検索は大文字と小文字を区別せずに行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表4\begin{table}[t]\input{01table04.tex}\caption{Wikipediaから作成した拡張データの例}\label{tab:example_augmented_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%作成した拡張データの統計量を表\ref{tab:dataset_stats}に,事例を表\ref{tab:example_augmented_data}にそれぞれ示す.一般に,Wikipediaの記事には,エンティティについての多様な側面からの情報が記述されているが,表\ref{tab:example_augmented_data}の(c)の例のように,それ単独では主題のエンティティを特定することが難しい文も一定の割合で存在する.このような文は,1文だけからなる訓練事例としてはノイズになると考えられるため,フィルタリングにより取り除くことでデータセットの品質を向上させられる可能性がある\footnote{フィルタリングの方法としては,文に含まれる単語のTF-IDFや固有表現の個数などを特徴量としたヒューリスティクスに基づく手法や,強化学習により汎化性能向上への貢献度の計算とフィルタリングを同時に行う手法などが考えられる.}.あるいは,正解エンティティが同じである複数の文を組み合わせることで,より正解エンティティを特定しやすい訓練事例を作ることも考えられる.このように,本研究のデータセットの作成方法には,品質向上のための改良の余地が残されているが,本稿では今後の研究課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \section{実験} \label{sec:experiments}クローズドブック質問応答におけるデータ拡張の有効性,ならびにデータ拡張によりモデルが未知の質問に答えられるかどうかを検証するために,実験を行った.%5.1%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:experimental_setting}\shortciteA{rodriguez_quizbowl:_2019}の研究では,Wikipediaから作成した拡張データを元の訓練データと混ぜ合わせることによって,データ拡張を行っていた.一方,BERTをはじめとする言語モデルの訓練には,タスク非依存のコーパスを用いた事前訓練とタスク固有の訓練データを用いたファインチューニングからなる2段階の訓練方法が広く用いられている.本研究では,\shortcite{rodriguez_quizbowl:_2019}と同様のデータ拡張方法に加えて,拡張データと元の訓練データを用いた2段階のデータ拡張についても実験を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表5\begin{table}[b]\input{01table05.tex}\caption{モデルのハイパーパラメータの一覧}\label{tab:hyperparam}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ref{sec:datasets}節で述べたQuizbowlとTriviaQAのそれぞれのデータセットについて,\ref{sec:model}節で述べたモデルと\ref{sec:data_augmentation}節で述べた手法で作成した拡張データを用い,以下の5つの設定で実験を行った.\begin{itemize}\item\textbf{Quiz:}モデルをクイズの訓練データのみで訓練する.\item\textbf{Wiki:}モデルをWikipediaから作成した拡張データのみで訓練する.\item\textbf{Quiz$+$Wiki:}モデルを,クイズの訓練データとWikipediaから作成した拡張データを混合したデータを用いて訓練する.これは,既存研究\shortcite{rodriguez_quizbowl:_2019}と同様のデータ拡張手法である.\item\textbf{Quiz$\rightarrow$Wiki:}モデルをクイズの訓練データで訓練した後に,Wikipediaから作成した拡張データで追加訓練する.\item\textbf{Wiki$\rightarrow$Quiz:}モデルをWikipediaから作成した拡張データで訓練した後に,クイズの訓練データで追加訓練する.\end{itemize}\noindent各実験設定で,訓練時のエポック数は10,ミニバッチサイズは128とした\footnote{Quizbowlのデータセットを用いた実験では,既存研究\shortcite{rodriguez_quizbowl:_2019}に倣い,モデルの訓練時のみ質問を文分割し,得られた文-正解ペアを1事例とした.}.ただし,TriviaQAのQuizの設定のみ,訓練データの量が少ないことによるモデルの過小適合を避けるため,訓練時のエポック数を30とした.モデルの訓練には,モデルが予測する正解の確率分布$P(a|q)$と正解ラベルの間の交差エントロピー損失の最小化を目的関数とした.最適化のアルゴリズムにはAdamW\shortcite{loshchilov_decoupled_2019}を用い,訓練の冒頭20\%における学習率のwarmupおよび以降の学習率のlineardecayを適用した.その他のハイパーパラメータの一覧を表\ref{tab:hyperparam}に示す.実験には,{\sfPyTorch}\shortcite{paszke_pytorch_2019}\footnote{\url{https://pytorch.org/}},{\sfAllenNLP}\shortcite{gardner_allennlp_2018}\footnote{\url{https://allennlp.org/}},{\sfTransformers}\shortcite{wolf_transformers_2020}\footnote{\url{https://github.com/huggingface/transformers/}}を使用した.モデルの訓練および評価には,メモリ容量16GBのNVIDIAV100GPU1枚を使用した.1つのモデルの訓練には,データセットと実験設定によって異なるが,最大で36時間の時間を要した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表6\begin{table}[b]\input{01table06.tex}\hangcaption{QuizbowlとTriviaQAの訓練・開発データに対する正解率($\dag$は訓練時のエポック数を30とした場合の結果であることを示す)}\label{tab:result_quizbowl_triviaqa_dev}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.2%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:results}%5.2.1%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データ拡張による解答性能の向上}\label{sec:results_quantative}表\ref{tab:result_quizbowl_triviaqa_dev}に,QuizbowlとTriviaQAの訓練データおよび開発データに対するモデルの解答性能を示す.まず,Quizの実験設定の結果について見ると,訓練データ上での正解率がほぼ100\%に到達した.このことから,モデルは各データセットの訓練データを丸暗記し,全く同じ内容の質問が入力された時には正しく解答できることがわかる.次に,データ拡張を行う実験設定同士で比較すると,Wiki$\rightarrow$Quizの実験設定が,Quiz$+$WikiおよびQuiz$\rightarrow$Wikiと比較して最も高い正解率を示した.これら3つの実験設定では,モデルは同じ訓練データの事例を同じ回数だけ与えられるにも関わらず,解答性能に差が生じているということから,モデルの事前訓練の後にタスク特有のデータセットでファインチューニングを行うという,BERTをはじめとする言語モデルの訓練に広く用いられている方法が,クローズドブック質問応答のタスクにおいても有効であることが示唆される.これとは対照的に,Quiz$\rightarrow$Wikiの実験設定では正解率が著しく低下し,データ拡張を行わないQuizの実験設定よりも悪い結果となった.Quiz$\rightarrow$Wikiでは訓練データ上での正解率も大きく低下していることから,モデルの破滅的忘却(catastrophicforgetting)\shortcite{mccloskey_catastrophic_1989,french_catastrophic_1999}が発生していると考えられる.図\ref{fig:freq_acc}に,QuizbowlおよびTriviaQAの開発データにおける,QuizおよびWiki$\rightarrow$Quiz設定で訓練されたモデルのfew-shotの正解エンティティに対する解答性能を示す.どちらのデータセットにおいても,Wiki$\rightarrow$Quizのデータ拡張の設定によってfew-shotの正解エンティティに対して特に大きな性能向上が見られた.few-shotの正解エンティティは,元のクイズの訓練データに含まれる限られた情報のみでは解答することが難しいと考えられるため,これらエンティティでの解答性能が向上したという結果は,データ拡張によりモデルが新しい知識を学習したことで,初見の質問に対しても正しく答えられるようになったことを支持している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図2\begin{figure}[b]\begin{center}\includegraphics{28-1ia1f2.pdf}\end{center}%%%%\subcaption{Quizbowl}%%%%\label{fig:qb_freq_acc}%%%%\subcaption{TriviaQA}%%%%\label{fig:tq_freq_acc}\caption{開発データに含まれるfew-shotの正解エンティティに対する正解率}\label{fig:freq_acc}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表7\begin{table}[b]\input{01table07.tex}\caption{データ拡張によって正答するようになったTriviaQA開発データの問題例}\label{tab:positive_sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.2.2%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データ拡張がモデルの解答に及ぼす影響の分析}\label{sec:results_qualitative}表\ref{tab:positive_sample}に,Quizの設定で訓練されたモデルは誤答したがWiki$\rightarrow$Quizの設定で訓練されたモデルは正答できた,TriviaQAの開発データの質問の例を示す.表\ref{tab:positive_sample}の質問に正しく解答するためには,モデルは「GeorgeLucasがStarWarsを監督した」という事実知識を保持していなければならない.しかし,TriviaQAの訓練データには,GeorgeLucasが監督した別の映画に関する質問は含まれているが,StarWarsに関する質問は含まれていない.そのため,Quizの設定で訓練されたモデルにとっては,開発データの問題は未知の知識を問う問題となり,正答できなかったと考えられる.他方,Wikipediaから作成した拡張データには,GeorgeLucasがStarWarsを監督した事実について述べられた文が複数存在する.Wiki$\rightarrow$Quizの設定で訓練されたモデルは,これらの拡張データの事例から新たな知識を学習し,質問に答えることができるようになったと考えられる\footnote{同様の,データ拡張によって正答できるようになった例を付録\ref{appendix:additional_examples}に示す.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表8\begin{table}[b]\input{01table08.tex}\caption{データ拡張によって誤答するようになったTriviaQA開発データの問題例}\label{tab:negative_sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%それとは逆に,Quizの設定で訓練されたモデルは正答できていたにもかかわらず,Wiki$\rightarrow$Quizの設定で訓練されたモデルは誤答した質問も存在する.表\ref{tab:negative_sample}に例を示す.この質問は,解答に必要な知識が拡張データにのみ存在していたにもかかわらず,データ拡張なしのモデルは正答し,逆にデータ拡張ありのモデルは誤答するようになってしまった.詳しく調べると,TriviaQAの訓練データには``Inwhichsea''で始まる質問が9問あり,そのうちの4問は正解が\texttt{Caribbean}の質問で,残りの5問はそれぞれ異なるエンティティが正解の質問であった.すなわち,Quizの設定で訓練されたモデルは,訓練データに見られる出題内容の偏りを学習してしまい,表層的な手がかりだけで正答できていたと考えられる.その一方で,\texttt{Caribbean}の拡張データには,真に解答の手掛かりとなる知識を含む文が1つしか含まれておらず,Wiki$\rightarrow$Quizの設定で訓練されたモデルは,正解エンティティを弁別するのに十分な知識を学習できなかったと推測される.データ拡張がモデルの解答に与える影響についてより詳しく調査するため,TriviaQAの開発データの事例を(a)QuizとWiki$\rightarrow$Quizのどちらの設定でも正答できた事例,(b)Quizでは誤答したがWiki$\rightarrow$Quizでは正答できた事例,(c)Quizでは正答できたがWiki$\rightarrow$Quizでは誤答した事例,(d)QuizとWiki$\rightarrow$Quizのどちらの設定でも誤答した事例の4つのグループに分割し,分析を行った.それぞれのグループに対してランダムサンプルした20例について,質問の解答に必要な知識がクイズの訓練データまたはWikipediaの拡張データのどちらに記述されていたかで事例を分類し,その割合を求めた.ここで「質問の解答に必要な知識」とは,解答を一つに特定するために必要な事実知識とし,その形式は定めないものとした\footnote{例えば,``WhocomposedtheoperaTurandot?''という質問の解答には,\texttt{(Turandot,composer,GiacomoPuccini)}のような3つ組で表される関係知識が必要となる.一方,``Whatnameisgiventoasubstancethatacceleratesachemicalreactionwithoutitselfbeingaffected?''という質問では,正解エンティティの定義や説明といった非定形の知識が解答に必要となる.}.分析は,著者自身がクイズの訓練データおよびWikipediaの拡張データを比較することにより行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図3\begin{figure}[b]\begin{center}\includegraphics{28-1ia1f3.pdf}\end{center}\hangcaption{TriviaQAの開発データにおける,質問の解答に必要な知識の所在の割合.QuizはTriviaQAの訓練データ内に知識が存在する事例,WikiはWikipediaの拡張データ内に知識が存在する事例,Bothは両方のデータに知識が存在する事例,Noneはどちらのデータにも知識が存在しなかった事例をそれぞれ示す.}\label{fig:grouped_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:grouped_results}に分析の結果を示す.図\ref{fig:grouped_results}(a)より,データ拡張の有無にかかわらず正解できた事例の90\%は,クイズの訓練データに解答に必要な知識が記述されていたことがわかる.一方,図\ref{fig:grouped_results}(b)より,データ拡張により正解できるようになった事例の55\%は,Wikipediaの拡張データにのみ必要な知識が記述されていた.すなわち,モデルが拡張データから新しい知識を獲得して質問に正答できるようになった事例が,データ拡張で新たに解けるようになった質問のおよそ半数を占めていたことがわかる.また,図\ref{fig:grouped_results}(c)および(d)は,提案手法では正答できなかった質問の多くは必要な知識が拡張データに記述されていなかったものであることを示している.このような事例には,解答に必要な情報が複数の文にまたがって記述されていたり別の記事に記述されているような例\footnote{例えば,``Inwhichcountrywasthe2006FIFAWorldCupheld?''という質問の解答に必要な情報は,正解である\texttt{Germany}のWikipedia記事でなく,FIFAワールドカップに関する別の記事に記述されている.},あるいはWikipediaの記事内容を正しく取得できなかった例\footnote{正解エンティティとして,Wikipediaの曖昧性解消ページが付与されていた例も存在する.}も含まれる.このような例は,本研究のデータ拡張手法,すなわちWikipediaの文-記事タイトルペアを擬似的にクイズの質問-正解ペアとみなす方法の限界を示すものであり,より洗練されたデータ拡張手法によって解決できる可能性がある.%5.2.3%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{既存手法の解答性能との比較}\label{sec:results_test}最後に,QuizbowlとTriviaQAのテストデータ上での提案手法の解答性能を示し,既存手法と比較する.ここでは,既存手法との比較を容易にするために,解答性能の評価指標としてタスクおよびデータセット固有のもの,すなわち,Quizbowlでは正解率(Accuracy),TriviaQAでは解答文字列の完全一致率(ExactMatch,EM)を評価指標として用いる.TriviaQAについては,テストデータは非公開であるため,公式サイトのリーダーボード\footnote{\url{https://competitions.codalab.org/competitions/17208}}上で解答性能を評価した.また,本来は読解タスクであるTriviaQAの正解文字列と,モデルが予測するWikipedia記事タイトルのミスマッチを抑制するため,提案手法のモデルの出力に対して文字列整形の後処理を適用した\footnote{具体的には,記事名のアンダースコアを空白に置換し,記事名末尾のカッコで括られた文字列の除去を行った.例えば,\texttt{Symphony\_No.\_6\_(Beethoven)}という記事名は``SymphonyNo.6''に置換される.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表9\begin{table}[b]\input{01table09.tex}\caption{Quizbowlのテストデータに対する解答性能}\label{tab:result_quizbowl_test}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表10\begin{table}[b]\input{01table10.tex}\caption{TriviaQAのテストデータに対する解答性能}\label{tab:result_triviaqa_test}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:result_quizbowl_test}と表\ref{tab:result_triviaqa_test}に,QuizbowlとTriviaQAのテストデータに対するモデルの解答性能をそれぞれ示す.データ拡張を利用した本研究の提案手法により,Quizbowlでは,GloVe\shortcite{pennington_glove:_2014}とGRU\shortcite{cho_learning_2014}を用いた既存手法の解答性能を5.5ポイント上回る性能を達成した.また,TriviaQAでは,汎用テキスト生成モデルのT5-3B\shortcite{roberts_how_2020}に匹敵する解答性能を,T5-3Bの20分の1以下のモデルパラメータ数で実現した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6 \section{おわりに} \label{sec:conclusion}本稿では,クローズドブック質問応答のタスクにおける,データ指向のアプローチの有効性について検証した.エンティティについてのより多様な知識をモデルに与えるために,Wikipediaを知識源とした拡張データを作成し,モデルの訓練に利用した.実験により,データ拡張を行い訓練したモデルは,元の訓練データに現れない知識を要する質問に対しても正しく答えられるようになり,データ拡張の有効性を確認した.本研究で提案したデータ指向のアプローチは,既存のモデル指向のアプローチと直交するものであり,最近提案されたEntitiesasExperts\shortcite{fevry_entities_2020}のような,より洗練されたモデルの利用と組み合わせることも可能である.本研究の今後の課題として,より洗練されたデータ拡張手法の提案,および,モデルが扱うことのできるエンティティをより多くすることが挙げられる.前者については,\ref{sec:data_augmentation}節で述べたように,拡張データからノイズとなる文をフィルタリングすることや,複数の文を組み合わせることでノイズを低減すること,後者については,正解エンティティの集合$|V_a|$を,例えばWikipediaに記事があるエンティティ全件に拡張することなどが考えられる.特に後者は,本研究では初めから解けない事例として扱っていたzero-shotの事例を解答可能とするためには必須であるが,元の訓練データに出現しないエンティティに対する解答の汎化性能をどのように実現するか,拡張データの利用方法と合わせて検討する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はの一部は,JSPS科研費JP19J13238,JP19H04162の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{01refs}\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表11\begin{table}[b]\input{01table11.tex}\caption{RoBERTaおよびXLNetをモデルに用いた場合の正解率}\label{tab:appendix_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%A \section{異なる言語モデルを用いた場合の性能} \label{appendix:different_model_results}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表12\begin{table}[p]\input{01table12.tex}\caption{データ拡張によって正答するようになったTriviaQA開発データの問題の別例}\label{tab:appendix:pred_sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,BERT以外の言語モデルを用いた場合についても,\ref{sec:experimental_setting}と同様の設定で実験を行った.表\ref{tab:appendix_results}に,モデルにRoBERTa-base\shortcite{liu_roberta:_2019}\footnote{\url{https://github.com/pytorch/fairseq/tree/master/examples/roberta}}およびXLNet-basecased\shortcite{yang_xlnet_2019}\footnote{\url{https://github.com/zihangdai/xlnet}}を用いた場合の,QuizbowlとTriviaQAの訓練・開発データ上の正解率を示す.モデルを変更した場合でも,Quizの質問は丸暗記できること,Wiki$\rightarrow$Quizの段階的なデータ拡張が有効であること,別のデータ拡張の設定では性能低下を引き起こすことといった,\ref{sec:results_quantative}節で述べた現象が同様にみられることを確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%B \section{モデルの予測の別例} \label{appendix:additional_examples}表\ref{tab:appendix:pred_sample}に,Quizの設定で訓練されたモデルは誤答したがWiki$\rightarrow$Quizの設定で訓練されたモデルは正答できた,TriviaQAの開発データの質問の追加の例を示す.表\ref{tab:appendix:pred_sample}の最後の例は,開発データの質問と同じ正解を持つ質問が訓練データ中に17件存在していたが,そのどれもが開発データの質問と内容が共通していない質問であった例である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{鈴木正敏}{%2018年東北大学大学院情報科学研究科博士前期課程修了.同年より東北大学大学院情報科学研究科博士後期課程に在籍中.2019年より日本学術振興会特別研究員(DC2).同年より理化学研究所革新知能統合研究センター言語情報アクセス技術チーム研修生.}\bioauthor{松田耕史}{%2012年東京工業大学大学院総合理工学研究科修了.修士(工学).2018年より理化学研究所革新知能統合研究センターテクニカルスタッフ.東北大学大学院情報科学研究科博士後期課程に在籍中.}\bioauthor{大内啓樹}{%奈良先端科学技術大学院情報科学研究科にて,2015年博士前期課程修了.2018年博士後期課程修了.2018年より理化学研究所革新知能統合研究センター特別研究員.}\bioauthor{鈴木潤}{%2001年から2018年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員(主任研究員/特別研究員).2005年奈良先端科学技術大学院情報科学研究科博士後期課程修了.現在,東北大学データ駆動科学・AI教育研究センター教授.}\bioauthor{乾健太郎}{%東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V29N04-07
\section{はじめに} \label{sec:intro}言語と画像という二つの異なるモダリティを橋渡しする技術を確立することは,自然言語処理および画像処理の両分野において重要な目標の一つである.この目標に向けて,これまで複数のマルチモーダルタスクにおいて大きな進歩を遂げてきた.例えば,画像のキャプション生成タスク\cite{lin2014microsoft}や画像の質問応答タスク\cite{antol2015vqa,agrawal2017vqa}は,盛んに研究が行われている代表的なマルチモーダルタスクである\cite{hossain2019comprehensive,kafle2017visual,wu2017visual}.画像のキャプション生成タスクでは,入力画像の内容を短く簡潔な自然言語(キャプション)で記述することを目的とし,画像の質問応答タスクでは,自然言語で問われた画像に関する質問(文)に自然言語で回答することがタスクのゴールである.しかしながら,普段我々人間が目にする実際のマルチモーダル文書\footnote{本研究では,文書に画像が付随するデータをマルチモーダル文書と呼称する.}は,複数文および複数画像から成る場合がある.ニュース記事には取り上げている事件・イベントに関連する写真が含まれるし,料理のレシピには途中の各工程の様子が描かれた画像を載せることがある.また,Wikipedia\footnote{\url{https://www.wikipedia.org/}}の記事には人物,各国の建造物・街並み,電化製品や自動車などの人工物,草花,鉱物,化学物質など,ありとあらゆる物事が詳しく記述され,それらに関連する画像が付随する.この時,文書の適切な位置に画像が配置されることで,画像は我々人間が文書理解することを助けている.言い換えれば,我々人間は,画像と文書内の(多くの場合はその近辺の)テキストの関連性や対応関係を自然に読み取りながら文書を理解している.一方,画像のキャプション生成タスクや質問応答タスクを含む既存の多くのマルチモーダルタスクでは,タスクの定義上1事例が短文と1画像のペアで構成されるため,複数画像の対応関係や,文書レベルの長いテキスト,および,データセットのアノテーションコストの都合上多種多様な視覚的概念を扱っていない.これは,既存のマルチモーダルタスクからでは上述した人間が行う文書理解の仕方を明示的に学習させたり,既存のタスク上で学習されたモデルをそのまま上述した我々が普段目にする多様なマルチモーダル文書に適用できないことを示唆している.この問題に対処するため,我々は実際にWeb上に存在するマルチモーダル文書を対象とした新しいタスク,Image-to-TextMatching(ITeM)を提案する\footnote{本研究の内容の一部はLREC2020に採択されたものである\cite{muraoka-lrec-2020}.}.これにより実応用可能なマルチモーダルシステムを構築するための新たな研究の方向性を切り開くことが本研究の目的である.図~\ref{fig:task_overview}に提案タスクの概要を示す\footnote{\url{https://en.wikipedia.org/w/index.php?title=Headset_(audio)&oldid=899726384}}.このタスクの目標は,ある1つの入力文書と入力画像集合が与えられた時,読者の文書理解を助けるような画像の文書内における配置位置,すなわち,関連度の高い部分テキストを予測することである.このタスクを解くためには,複数文および複数画像を考慮することが要求される.それに加え,このタスクには既存のマルチモーダルタスクでは扱われていない次の3つの技術課題が含まれる.(i)文書レベルの長いテキスト,および,内在する文書構造を考慮すること.(ii)複数の画像を関連づけること.例えば,図~\ref{fig:task_overview}の最初の2つの画像は,対比しながら見ることで視覚的形状の違いを強調させつつ,対応するテキスト(``Bluetooth''セクション)を補完している.(iii)既存のマルチモーダルタスクで扱われる事前に定義された限られた種類の視覚的概念だけでなく,固有名詞を含む幅広いドメインで扱われる多様な語彙知識に対処すること.これらの技術課題を含む提案タスクによって,新聞記事の見出し生成や適切な画像選定,物語からの自動絵本生成,イベント写真からのアルバム生成など,マルチモーダル文書に関する新たな研究や応用を期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics[height=245.6pt,clip]{29-4ia6f1_org.pdf}\end{center}\caption{提案タスクの概要.英語版Wikipedia``Headset(audio)''より引用,一部改変.}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,ITeMタスクを提案するにあたり,我々はWikipediadumpから66,947文書および320,200画像からなる大規模なデータセットを低コストで機械的に構築する.Wikipediaに着目したのは,1つの記事ページを1つのマルチモーダル文書とみなすことができ,また,タスクのゴールである文書内のテキストと画像の対応関係がマークアップファイルに明示的に記述されているためである.それに加え,Wikipediaでは,様々なトピック・事柄について扱われており,さらにWikipediaのセクション構造を擬似的な文書構造(段落構造)とみなすことができる.従って,Wikipediaは上述した3つの技術課題を全て満たす言語資源である.また,構築したデータセットは,既存の単一言語からなるマルチモーダルデータセットと比べ,画像数,文書数,語彙数の観点で大規模であることを\ref{sec:dataset}節で示す.提案タスクの妥当性と難易度を調査するため,過去に既存のマルチモーダルタスクで最高精度を達成した手法(Pythia\cite{jiang2018pythia},OSCAR\cite{li2020oscar})を本タスク向けに改良を行い,評価実験を行う.実験結果から,改良した既存手法はベースラインを大幅に上回り,提案タスクを解くことができる可能性を示したものの,人間の精度に到達するには改良の余地があることも確認された.また,提案タスクを事前学習の一種とみなし,提案タスクで学習させたモデルを既存のマルチモーダルタスクでfine-tuningし,性能評価を行った.その結果,提案タスクで学習を行わなかったモデルとの明らかな差は見られなかった一方で,定量分析および定性分析により,記事内の画像数が多くなるほど,また,画像が分散して配置されている記事ほどタスクが難しくなる傾向にあることや,タスクを解くためには複数画像を同時に考慮したり画像中の物体情報を抽象化しなければならないなど,既存のタスクとは異なる側面の画像理解・言語理解能力を提案タスクによって学習・評価していることが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:rel-work}これまでに提案された代表的なマルチモーダルデータタスクおよびデータセットについて述べる.\citeA{lin2014microsoft}によって画像のキャプション生成のベンチマークデータセットとして,MSCOCOが構築された.MSCOCOには12万3千以上の画像が含まれ,各画像には5つ以上の正解キャプションが付けられている.画像はFlickr\footnote{\url{https://www.flickr.com/}}と呼ばれる画像の管理共有サービスから収集され,一方キャプションはAmazonMechanicalTurk\footnote{\url{https://www.mturk.com/}}を用いて別々にアノテーションされた.\citeA{goyal2017making}は,初期のVQAデータセット\cite{antol2015vqa}で問題となっていた言語的バイアスの問題に対処し,よりバランスの取れたVQAv2データセットを提案した.約20万4千を超える画像を含む.VisualGenome\cite{krishna2017visual}は詳細なアノテーションが付与されたマルチモーダルデータセットであり,物体ごとの矩形の座標情報や,それら矩形ごとの説明フレーズ,物体の属性情報,物体間の関係,シーングラフ,QAペアなどのアノテーションが付けられている.各画像には平均50個の矩形のアノテーションがなされており,各矩形には説明フレーズとしてその矩形に描かれた内容をフレーズレベルの短い自然言語で記述されたものが付与されている.これら上記のデータセットにアノテーションされた説明文等のテキストは,その画像が撮影された背景やコンテキストを知らないクラウドワーカーによって独立して付与され,誰が見ても納得する客観的なテキストを付与するように指示されたため,撮影した当事者しか知らないような情報や固有名詞などを含まず,一般的な語を用いて記述されている.それに対し,\citeA{shah2019kvqa}が作成したKVQAは固有名詞に特化したデータセットであり,世界知識に関する推論を目的として作成された.タスクを解くためには,Wikipediaの記事が存在するような有名人に関する知識が要求される.上記のデータセットは多くのマルチモーダル研究で使用される一方,いずれのデータセットにおいても,文書レベルの長いテキストや,1事例内で複数の画像を扱っていない.それらを扱った研究も存在するが,数は限られている.\citeA{krause2017hierarchical}は,説明文ではなく説明パラグラフからなるパラグラフキャプション生成のデータセットを構築した.従って,パラグラフレベルで一貫性のあるキャプションの生成技術が要求される.TQA\cite{kembhavi2017you}と呼ばれるデータセットは,小学校中学年の理科の教科書から構築され,1事例が1レッスンに対応する.1レッスンは1つの科学トピックについて書かれた複数のパラグラフからなり,化学反応などの複数のイラストや図を画像として含む.また,教科書にある練習問題が,TQAのタスクとして解くべき問題として設定されているため,そのタスクを解くシステムも同様に1レッスン全体を理解することが求められる.ISVQA\cite{bansal2018isvqa}は,屋内または屋外で撮影された複数の画像に対し,1組の質問および解答が付与された複数画像からなるVQAデータセットである.約3割の事例は複数の画像を考慮しないと質問に解答できない事例になっている.これらのデータセットは,\ref{sec:intro}節で述べた提案タスクに含まれる技術課題(i)から(iii)のいずれかを満たすものであるが,3つ全てを同時に満たすものではない.\citeA{srinivasan2021wit}は本研究と同様Wikipediaから大規模かつ多言語のマルチモーダルデータセットWITを構築している.我々がマルチモーダル文書としてWikipediaの1記事全体を本タスクの1事例とするのに対し,WIT内ではWikipedia中の画像を主とし,その画像のキャプション,および,画像が使われている記事の第1セクションのテキスト,画像が言及されているセクションのテキストを組み合わせて1事例としている.従って,画像を参照していないセクションはWITデータセットに含まれていない.一方,本研究では一部のテキストを除外したりせず,1つの完結した文書の中でテキストと画像の関連性を捉えることを目指す.本研究と関連する研究分野として文書画像理解(Documentimageunderstanding,DIU)がある\cite{layoutlm,layoutlmv2,docvqa,doccvqa,infographicvqa}.DIUでは,machine-readableではない画像化された文書データを対象として情報抽出を行うことを目指している.例えば,商品レシート画像から特定の商品の値段を抽出したり,手書きの手紙画像から差出人の名前や郵便番号を抽出することが目標である.そのため,このタスクを解くためにはレイアウト情報を考慮することが重要であることが示されている\cite{layoutlmv2}.一方で,本研究で扱うデータはWikipediaのマークアップファイルから得られるため既にmachine-readableな形式になっており,本タスクを解くためには,レイアウト情報よりむしろ,テキストと画像の意味的な関連性および内容を考慮することが求められる.近年,代表的な画像のキャプション生成や画像に関する質問応答以外の,萌芽的なマルチモーダルタスクもいくつか提案されている.ここでは本研究と関連があるものを取り上げる.\citeA{zhu2015aligning}は,映画の動画フレームとその元になっている本のパッセージとの対応関係を求めるタスクを提案した.\citeA{agrawal2016sort}は,シャッフルされた画像とキャプションのペア集合(全て同じある1つのストーリーに関するもの)を,時系列順に並び替えるタスクを提案した.また,\citeA{bosselut2016learning}は,結婚式などの代表的なイベントの典型的な流れ(新郎新婦入場から退場までなど)をフォトアルバムを用いて学習する試みを行った.\citeA{iyyer2017amazing}は,漫画からデータセットを構築し,台詞やコマの穴埋め問題をタスクとして提案した.このタスクを解くためには,漫画のストーリーの一貫性や流れ,さらには明示的に描かれていない行間を理解することが求められる.\citeA{biten2019good}は,新聞記事のキャプション生成タスクに取り組んだ.キャプション自体はこれまでのキャプション生成タスク同様,画像の内容に関する短い文を想定していたが,クラウドソーシングを使ってキャプションを付与したデータセットと異なり,様々な固有表現に対処する必要があった.\citeA{hessel2019unsupervised}は,既存のマルチモーダルデータセットを用いて,テキストと画像の対応関係を教師なしで学習する手法を提案した.彼らの研究は我々の問題意識と共通する点があるものの,扱っているデータセットの規模や種類において大きく異なり,彼らがモデルの学習に使用したデータセットは上記のMSCOCOのようなテキストが独立してアノテーションされたデータセットであるのに対し,我々が使用するのはWeb上に実際に存在するデータから構築したデータセットである.\citeA{radford2021learning}は,CLIP(ContrastiveLanguage-ImagePre-training)と呼ばれるマルチモーダル表現の学習手法を提案し,事前に定義された物体クラス情報を用いるのではなく,キャプション付き画像データセットから画像中の物体とそれに対応するキャプション中のテキスト表現の対応関係を自然に学習できることを示している.学習によって得られたマルチモーダル表現がzero-shotタスクで高成績を収めることも示した.より最近では\citeA{Tanaka2021VisualMRC_AAAI}が,画像の質問応答タスクの枠組みで入力画像がマルチモーダル文書のスクリーンショットになっているデータセットおよびタスクを提案している.上述のマルチモーダルタスクではそれぞれ異なる技術課題に着目しているが,本研究ではそれらとはまた異なる新たな技術課題に取り組む.詳しくは\ref{sec:data_analysis}節で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{タスクの定式化} \label{sec:form}本節では,論文中で使用する用語の定義と提案タスクITeMの定式化を行う\footnote{問題設定において共通する部分があるため,いくつかの記法や表現は\citeA{hessel2019unsupervised}に従った.}.ITeMで扱うマルチモーダル文書は,図~\ref{fig:task_overview}のような文書と複数画像から成る.1つの文書は数十から百数十の文からなり,言語的構造,もしくは,番号付きリストやネストされたリストのような順序的階層的構造を持つ.本タスクにおける文書は,これらの構造に従ってあらかじめ文やパラグラフ,セクションといった意味のあるテキストの単位に分割されているものとする.本研究ではセクション単位に分割されていると仮定する.画像はキャプションを伴うことができ,テキストで記述された文書を視覚的に補完し,読者の文書読解を助ける役割を担う.本タスクのゴールは,ある1つの文書に関する画像の集合と分割されたテキストの集合のペアが与えられた時,テキスト集合中のあるテキストを補完するような画像からテキストへの尤もらしい割り当て(図~\ref{fig:task_overview}中央の画像とテキスト間のエッジ)を求めることである.このタスクを以下のように定式化する.あるマルチモーダル文書$d$に含まれる画像集合を$V$,テキスト集合を$S$で表す.それぞれの要素数は$|V|$,および,$|S|$で表される.画像集合$V$中の要素$v$は,実際の画像と,キャプションがある場合はそのキャプションのペアから構成され,テキスト集合$S$中の要素$s$(およびキャプション)は単語列から構成される.これにより,マルチモーダル文書$d=\langleV,S\rangle$は$|V|$個の画像と$|S|$個のテキストを頂点に持つ(無向)2部グラフとみなすことができる.画像と画像が割り当てられるべきテキスト間にのみ2部グラフのエッジが張られる.上記より,提案タスクは画像集合$V$とテキスト集合$S$間のあり得るエッジを予測するグラフ補完問題として定義される.グラフを補完するためには,グラフ全体で推論する必要がある.すなわち,複数のテキスト$S$と複数画像$V$と同時に考慮する必要がある.エッジの割り当て行列を${\bfA}\in[0,1]^{|V|\times|S|}$で表すと,行列${\bfA}$の$(i,j)$成分(ただし,$i$は行,$j$は列のインデクスをそれぞれ表す)は,$i$番目の画像が$j$番目のテキストに割り当てられる確率を表す.画像集合中の各画像は必ずただ1つのエッジを持つが\footnote{2つ以上のエッジを持つ場合も考えられるが,本研究では扱わない.本研究でデータセット構築のために使用するWikipediaにおいては(\ref{sec:dataset}節),そのガイドライン(\url{https://en.wikipedia.org/wiki/Wikipedia:Manual_of_Style#Images})に「画像は関連するセクション“内”に配置すること」とあり,無関係なセクションにむやみに画像を配置することや,あるセクションに配置された画像をそれ以外の異なる複数のセクションから言及することはなるべく避けるような指示がなされているため,このように定義しても問題ないと考える.},テキスト集合中のテキストは必ずただ1つのエッジを持つとは限らない.エッジを持たない場合(画像が紐づかないテキスト)や1つのテキストが複数のエッジを持つ場合(複数の画像が割り当てられるテキスト)があることに注意されたい.この性質を満たすように,割り当て行列${\bfA}$に次の制約を加える.%%%%\begin{rest*}\noindent\textbf{制約}~各行${\bfa}_{i}$の確率値の和は必ず1にならなければならない:%%%%\end{rest*}%%%%\vspace{-20pt}\begin{equation}\Sigma_{j}{a_{ij}}=1.\end{equation}これにより,各行${\bfa}_i=[a_{i1}\,a_{i2}\,\cdots\,a_{i|S|}]$はテキスト集合$S$上の確率分布となり,確率質量関数$\phi_i:S\to[0,1],\phi_i(s_j)=a_{ij}$で表される.従って,求めるべきマルチモーダル文書$d$における各画像のテキストへの割り当て${\bfy}$は,割り当て行列${\bfA}$の各行${\bfa}_i$の確率最大となる次元を見れば良い.\pagebreak\begin{align}{\bfy}&=\begin{bmatrix}y_1&\cdots&y_{|V|}\end{bmatrix},\notag\\y_i&=\argmax_{j\in\{1,\ldots,|S|\}}{a_{ij}}\\&=\argmax_{j\in\{1,\ldots,|S|\}}{\phi_i(s_j)},\notag\end{align}ただし,$y_i$は$i$番目の画像$v_i$が割り当てられるテキストのインデクスを表す.この基準を緩め,各画像について確率値top-$k$個のテキストを考慮することで,top-$k$の割り当てを考えることもできる.提案タスクを解くシステムの精度は\texttt{accuracy@k}で評価する.\texttt{accuracy@k}とは,各画像に関してtop-$k$個の割り当てを考慮した際の精度であり,top-$k$個の中に正解テキストが含まれている場合に正解したとみなす.実験では,$k\in\{1,3,5\}$を使用し,\texttt{accuracy@k}は正解した画像数を評価セットに含まれる全画像数で割った平均値を算出し,評価セット全体の精度を求める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット} \label{sec:dataset}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット構築}\label{sec:curation}ここでは提案タスクのためのデータセット構築方法を提案する.先に述べた通り,WikipediaのマークアップMediaWiki\footnote{\url{https://www.mediawiki.org/wiki/Help:Formatting}}に着目し,英語版Wikipediaからデータセットを構築する.WikipediaのマークアップファイルにはHTMLの$\langle$h$\rangle$タグに相当する見出しタグで囲まれたセクションのテキストと,$\langle$img$\rangle$タグに相当する画像タグ(キャプションを伴うことができる)が含まれる.画像タグが記述されたセクションをその画像が割り当てられているセクションとみなす.これにより,Wikipediaの各記事から,提案タスクの入力となるテキスト集合と画像集合,および,予測対象となる画像からテキストへの正解の割り当てが得られ,機械的に大規模なマルチモーダルタスク(提案タスク)のデータセットを構築することができる.この構築方法は,機械的に低コストで構築するため,多少のノイズは含まれるものの\footnote{著者らが実際に構築されたデータセットのいくつかの事例を確認したところ,適切でないセクションに画像が割り当てられていたり(多くの場合は前後のセクションに割り当てられるのが正しいケース),画像のキャプションが``300x300px''のように有用でないものが見つかった.},次節で説明するような既存のマルチモーダルデータセットには含まれない難解な事例が含まれていたり,マークアップのフォーマットが変わらない限りWikipediaの他の言語にも適用できるといった特長を持つ.以下に実際の手続きを詳述する\footnote{データセットを構築するために使用したコードは\url{https://github.com/muraoka7/tool4ipp}に公開されている.}.まず,英語版Wikipediadump\footnote{\url{https://dumps.wikimedia.org/}.2019年6月1日時点で最新のものを使用した.}に含まれる全ての記事からセクション,画像,および,キャプションを抽出した.この時,インフォボックスや表形式のデータはセクションのテキストには含めなかった.また,マークアップ言語の解析に失敗した記事も除外した.その結果,5,870,656文書が得られた.次に,セクションの数が10以上50以下で,かつ,画像数が2以上30以下の文書のみ保持した.下限値を設定したのは,タスクとしての難易度が簡単すぎるものを除外するためであり,上限値を設定したのは,画像が極端に多い記事はテキストがほぼ無い写真ギャラリーのような記事になり\footnote{例えば,\url{https://en.wikipedia.org/wiki/Gallery_of_sovereign_state_flags}など.},本タスクには不適切と考え,それらを含めないようにするためである.これにより,161,763文書が残った.続いて,残った文書に含まれる全ての画像を収集した.この時,拡張子がjpeg,JPEG,jpg,JPG,png,PNGのいずれかである画像を収集対象とした.加えて,全ての画像をRGB形式に変換し,画像のファイルサイズを圧縮する後処理を行った.最終的に,66,947文書および320,200画像からなるデータセットが得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}\label{sec:data_analysis}表~\ref{tab:datacomp},\ref{tab:datastats}に構築したデータセットの統計情報を示す.また,\ref{sec:rel-work}~節で言及した,広く使われている既存の代表的なマルチモーダルデータセットも合わせて載せている\footnote{これら以外にも近年大規模なマルチモーダルデータセットが提案されている\cite{ordonez2011im2text,yfcc100m,sharma-etal-2018-conceptual,Changpinyo2021CC12M,desai2021redcaps,Schuhmann2021LAION400M,schuhmann2022laionb}.しかしながら,WITを除いていずれも1事例中に複数画像や文書レベルの長文が含まれていないものであり,データ形式は既存の代表的なマルチモーダルデータセットと同様であるため割愛する.また,WITに関しても\ref{sec:rel-work}~節で述べたようにWikipedia中の画像が紐付かないセクションは除外されており文書として不完全であるため割愛する.}.本節では,提案タスクのために構築したデータセットの特徴を定量的・定性的に述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}\hangcaption{ITeMデータセットの統計情報,および,既存の代表的なマルチモーダルデータセットとの比較.データセットによってテキストとして扱われる言語単位が異なるため,単位も合わせて記載.}\label{tab:datacomp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{06table02.tex}\hangcaption{文書,テキスト,文単位における統計情報.$^*$1画像に紐付いている全てのテキストを集めて文書とみなして算出(例えば,MSCOCOにおいて,1画像に紐付いている独立した複数のキャプション間に文書構造は存在しないが,それらを無視し文書とみなして算出).}\label{tab:datastats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{文数および単語数はいくらか?}\noindent公平な比較を行うため,表~\ref{tab:datacomp}にある全てのデータセットに対し,同一のライブラリ\texttt{spaCy}\cite{spacy2}\footnote{\url{https://spacy.io/}}を用いて,文数および単語数をカウントした.その結果,我々のデータセットには1千万以上の文が含まれており,各セクションは平均8.9文から構成されることが確認された.平均文長は22.3単語であり,平均セクション長は198.4単語であった.また,1文書は平均150.4文から構成され,表~\ref{tab:datastats}中の2番目に平均文数が大きいTQAデータセットの約2倍であり,1文書に含まれる平均単語数は約3.6倍であった.このことから,提案タスクを解くためには,既存のマルチモーダルタスクに比べてより長いテキストの読解が要求されることがわかる.\textbf{1文書および1セクションの平均画像数はいくらか?}\noindent我々のデータセットに含まれる画像数は32万以上で,表~\ref{tab:datacomp}の中でも大規模である.先述したように,我々のデータセットにおける1セクションには複数の画像が割り当てられうる(実際には平均1.3枚)が,TQAを除く他のデータセットにおけるテキスト(1キャプションや1質問文)にはタスクの設定上必ず1枚の画像しか結びつかない.これに加え,我々のデータセットは1文書あたり,すなわち,1事例あたり,平均4.8枚の画像を含む.従って,タスクを解くためには,複数の画像を考慮した推論が必要になると考えられる.\textbf{語彙数はどのくらい大きいか?}\noindent表~\ref{tab:datastats}の語彙数を見ると,我々のデータセットの語彙数は非常にロングテールであり,他と比べても2桁規模が大きいことがわかる.Wikipediaはインターネット上にある最大の百科事典の一つであり,誰でも編集可能な性質を持つことから,我々のデータセットが普通名詞や固有名詞に限らず,一般常識および世界知識に関する多種多様な事柄をカバーすることは明らかである.このことから,既存のマルチモーダルタスクとは異なり,普段我々人間が目にするマルチモーダル文書を読み解く時と同じように,このタスクを解くシステムは多種多様な語彙を扱わなければならない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics[height=367.9pt,clip]{29-4ia6f2_org.pdf}\end{center}\hangcaption{ITeMデータセットの具体例.図中のセクションは画像が割り当てられる正解テキスト.各事例を解く際に対処すべき技術課題も合わせて提示(図中の下線部はそれらに関連する部分).}\label{fig:skills}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{ITeMタスクを解くために対処すべき技術課題は?}\noindent構築したデータセットからランダムに抽出した事例(サブセット)を著者らが確認し,タスクを解くために対処しなければならない技術課題を特定,分類した.\ref{sec:intro}~節で述べた大きな3つの技術課題(i)--(iii)に加え,個別の事例を解くためには,次のような技術課題に対処する必要があることを確認した.具体的には,キーフレーズ抽出,物体とキーフレーズのマッチング,シーン予測,文字認識(OCR),図の理解,文書全体からの情報統合や選択などである.図~\ref{fig:skills}に具体例を示す\footnote{それぞれのデータセット構築時点の記事へのリンクは以下の通り.Tricycle:\url{https://en.wikipedia.org/w/index.php?title=Tricycle&oldid=897115862},Wine:\url{https://en.wikipedia.org/w/index.php?title=Wine&oldid=898479596},Railwayplatform:\url{https://en.wikipedia.org/w/index.php?title=Railway_platform&oldid=898450839},UnifiedProcess:\url{https://en.wikipedia.org/w/index.php?title=Unified_Process&oldid=882821949},MontacuteHouse:\url{https://en.wikipedia.org/w/index.php?title=Montacute_House&oldid=895284736}.}.図中(a)の画像の正解セクションを予測するには,画像中の物体が``spidertrike''であることを認識し,(キャプションを使用したとしても)約200語からなるセクションから同じテキスト表現(``spidertrike''という単語)を抽出し対応付けなければならない.図中(b)の例では画像中の個々の物体ではなく,画像全体としてのシーン(ワインの貯蔵庫,storageであること)を認識する必要がある.また,キャプションに含まれる``Oak''や``barrels''といった表現は正解セクション中では使われていないため,直接的な手がかりになり得ない.図中(c)はOCR(OpticalCharacterRecognition,光学文字認識)を使用すれば,画像中の文字を手がかりに正解セクションを予測することが可能である.図中(d)はOCRに加え,グラフ読み取りが必要な例である.グラフ中の列名を認識し,それを手がかりとして正解セクションの記述がグラフの説明であることを読み取らなければならない.図中(e)では画像の類似性および互いに隣接し合うセクションの記述内容の類似性から,複数の画像のそれぞれの正解セクションを同時に予測しなければならない.また,図はある建物のフロアマップを表しているため,OCRを行うかキャプション内の表現と,セクション内のテキスト表現のマッチングも行う必要がある.これらの技術課題は網羅的なものではないが,確認した事例において頻出したものである.上記の例を通して,実際のマルチモーダル文書における画像の使われ方は多岐にわたることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiment}本節では,既存のマルチモーダル手法を提案タスク上で学習することによって提案タスクの妥当性および難易度を検証する.仮に,既存の最高精度を達成したマルチモーダル手法を本タスクで学習し極端な高成績を収めた場合,タスクの難しさとして既に簡単すぎるため,新たなマルチモーダルタスクとしての価値は低いかもしれない.逆に,既存の最高精度を達成した手法をもってしても全く解けなかった場合,タスクとして難しすぎるか,構築したデータセットに問題がある可能性がある.タスクとして難しすぎる場合,将来的に多くの研究者が取り組みたがらなければ,これもタスクの価値として大きいとはいえないだろう.従って,既存の手法がある程度提案タスクを解くことができるが,改善の余地もある状態というのが適切な難易度であり,妥当なタスク設計であると考えられる.また,単に性能を評価するだけではなく,現在のマルチモーダル手法の限界や課題を見つけ,今後の研究に生かすことができる示唆に富む分析を行うことも重要であると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{検証モデル}\label{sec:models}提案タスクの妥当性および難易度を検証するモデルとして,Pythia\cite{jiang2018pythia}およびOSCAR\cite{li2020oscar}の2手法を考慮する.Pythiaは2018年に画像の質問応答タスクで最高精度を収めた手法であり,OSCARは2020年に画像の説明文生成や質問応答を含む複数の代表的なマルチモーダルタスクにおいて最高精度を達成したTransformer\cite{vaswani}ベースの手法である.\ref{sec:intro}~節で述べたように,これら既存のマルチモーダルタスクは,短文と1画像のペアが1事例として構成されているため,PythiaおよびOSCARも入力データ形式が異なる本タスクではそのままの形では学習できない.そのため,本タスクで学習を行うために,複数文および複数画像を1事例として受け付けるための拡張を行う\footnote{本実験の目的はあくまで既存のマルチモーダル手法がどの程度提案タスクを解けるかを調査することにあるため,拡張は最低限であり,提案タスクを解く新たな手法の提案ではないことに注意されたい.}.それぞれの手法の拡張を行った部分について以下で詳しく説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{拡張Pythia}\label{sec:pythia}Pythiaは画像の質問応答タスクを解くモデルとして提案された.画像と質問文が入力として与えられた時,Pythiaはまずそれぞれをテキストエンコーダーと画像エンコーダーで特徴ベクトルに変換する.続いて,その特徴ベクトルを用いてAttention層を計算する.これは入力質問文に基づいて,入力画像のどの部分に注目するかを求めるためである.最後に,Attentionが考慮された特徴ベクトルから質問文に対する答えを生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics[height=102.5pt,clip]{29-4ia6f3_org.pdf}\end{center}\hangcaption{拡張Pythiaの概要.灰色および白色の長方形はそれぞれ事前学習済みモデルおよび特徴量に対する操作を表す.$W$と書かれたオレンジの円は提案タスクで学習対象のモデルパラメータを表す.記号$\otimes$は行列積を表す.灰色の数字は各操作後の特徴量の次元を表す.}\label{fig:pythia}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%我々はこのモデルを複数テキストおよび複数画像を入力として受け取り,それらの入力に対してAttention層を計算するように拡張する.このように拡張されたPythiaは,複数テキストおよび複数画像間のインタラクションを扱うように学習されることが期待される.図~\ref{fig:pythia}に拡張Pythiaの概要を示す.下記に拡張Pythia内部の計算方法を示す.テキストの処理に関しては,まずWordPiecetokenizer\cite{wu2016google}を適用し\footnote{実験では,後述の事前学習済みBERTも合わせて,PyTorchの\texttt{transformers}\cite{Wolf2019HuggingFacesTS}で実装されたものを使用した.},入力テキストに対するサブワード列を得る.次に,事前学習済みのBERT\cite{devlin2019bert}を用いて,得られたサブワードの最初の512語から特徴ベクトルを得る.入力テキストが512サブワードを超える場合,それ以降のサブワードは使わないことになるが,表~\ref{tab:datastats}より,我々のデータセットの1つのテキストに含まれる平均単語が198.4語であることを考慮すると,512という数字は十分大きいと考えられる.入力テキストが512サブワードを超えない場合は,ゼロベクトルでpaddingを行う.BERTから得られる各入力テキストの特徴ベクトルは,最終隠れ層の\texttt{[CLS]}トークンに対応する出力を使用し,$d_{{\rmtxt}}$次元の実数ベクトルで表される($d_{{\rmtxt}}=768$).画像の処理に関しては,事前学習済みのConvolutionalNeuralNetworks(CNN)を使用する.具体的には,18層のResidualNetwork(ResNet)\cite{he2016deep}を用いる.提案タスクを解くためには,画像全体を捉えることに加え,画像の特定の領域に注目することが求められるため,画像全体の特徴ベクトルに加え,画像の小領域の特徴ベクトルも取得する.1つの画像を$3\times3$の小画像に分割し,それぞれの特徴ベクトルを得ることで,1画像につき,合計$K=10$個の画像ベクトルを得る(うち1つは全体画像の画像ベクトルである).各画像ベクトルはResNetの最終averagepooling層の出力を使用し,$d_{{\rmimg}}$次元の実数ベクトルで表される($d_{{\rmimg}}=512$).従って,1画像の画像特徴量は,$K\timesd_{\rmimg}$の行列になる.画像のキャプションも使用する場合は,上述と同様のテキスト処理によりBERTでキャプションの特徴ベクトルを得た後,各画像ベクトルと結合し画像特徴量とする.この時,次元は$K\times(d_{\rmimg}+d_{\rmtxt})$となる.続いて,得られたテキストと画像の特徴量から,入力テキストに基づいて注目すべき画像の領域(小領域を含む)を求めるために,以下の方法でAttention層を計算する.まずテキストと画像の特徴量を結合した後,線形変換を行い,最後にsoftmax関数を適用する.${\bfS}$$\in$$\mathbb{R}^{|S|\timesd_{\rmtxt}}$を文書内の全テキストの特徴量,${\bfV}(i)$$\in$$\mathbb{R}^{K\times(d_{\rmimg}+d_{\rmtxt})}$を文書内の$i$番目の画像$(1\lei\le|V|)$の画像特徴量とする.${\bfS}$を行ベクトルに変形しつつ${\bfV}(i)$と結合し,テンソル${\bfM}$$=$$[{\bfM}(1)\,\cdots\,{\bfM}(|V|)]$を得る.テンソル内の各行列${\bfM}(i)$の次元は$\mathbb{R}^{K\times(d_{\rmimg}+d_{\rmtxt}+d_{\rmtxt}|S|)}$である.以下の式により,Attention層${\bf\alpha}$を計算する.\begin{equation}{\bf\alpha}={\rmsoftmax}\Bigl((g_2\circf\circg_1)({\bfM})\Bigr).\\\end{equation}ただし,$f({\bfX})={\rmReLU}({\bfX})$,$g_j({\bfX};{\bfW}_j,{\bfB}_j)={\bfX}{\bfW}_j^\top+{\bfB}_j$であり,${\bfW}_{j}$および${\bfB}_{j}$はモデルパラメータである.また,計算されたAttention層は${\bf\alpha}\in[0,1]^{|V|K}$の列ベクトルとなる.画像特徴量${\bfV}(i)$に関して${\bf\alpha}$による重み付き和を計算することで,Attentionを考慮した画像特徴量$\widehat{\bfV}(i)$を得る.\pagebreak\begin{equation}\widehat{\bfV}(i)=\Sigma_{k=1}^K{{\bf\alpha}_{(i-1)K+k}{\bfV}(i,k)}.\end{equation}上記の式において${\bfV}(i,k)$は$i$番目の画像の$k$番目の小領域に対応する画像ベクトルを表す.最終的に各画像$v_i\inV$の割り当て確率分布$\phi_i$は$\widehat{\bfV}$と${\bfS}$を用いて,次式で求める.\begin{equation}\label{eqn:pythia_softmax}\phi_i={\rmsoftmax}\Bigl((g_3\circf)(\widehat{\bfV}(i))\cdot(g_4\circf)({\bfS})^\top\Bigr).\end{equation}$g_{3}$および$g_{4}$による線形変換後のベクトルの次元が256となるように重み行列${\bfW}_{3,4}$および${\bfb}_{3,4}$の次元を指定した.各画像に関する割り当て確率分布$\phi_i$を結合することで,割り当て行列${\bfA}=[\phi_1\,\cdots\,\phi_{|V|}]$が得られる.ここから,各画像の予測割り当て${\bfy}$も$y_i=\argmax\phi_i$として求められる.学習時には,正解のテキストの割り当てとのクロスエントロピーを損失関数として使用し,モデルの学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{拡張OSCAR}\label{sec:oscar}OSCARはMSCOCOやVisualGenomeを含む複数のマルチモーダルデータを結合した大規模データを用いてBERTのように事前学習を行い,さまざまなダウンストリームタスクで特徴量抽出器として使用されるVisionandLanguageモデル\cite{vl_survey}の一つである.Pythiaや他のVisionandLanguageモデルと異なり,入力としてテキストと画像の他に画像中に含まれる物体のタグも受け付ける点が特徴的である.物体タグをテキスト表現の一種として扱うことで,画像中の物体に関する情報と入力テキストをより効果的に関連づけられることが期待される.入力テキストと物体タグはテキストエンコーダーで特徴ベクトルを抽出し,画像は画像エンコーダーで特徴ベクトルを抽出する.その後,得られた2種類の特徴ベクトルを結合したものをTransformerに渡し,self-attentionによりテキスト,物体タグ,画像をそれぞれ互いに関連づけた特徴表現を得る.Pythia同様,OSCARを複数テキストおよび複数画像を受理するように拡張する\footnote{実験では,著者らが公開している事前学習済みモデルおよびコードを使用した:\url{https://github.com/microsoft/Oscar}}.図~\ref{fig:oscar}に拡張OSCARの概要を示す.テキストの処理に関しては,OSCAR自体にテキストエンコーダーとして事前学習済みのBERTを内包しているため,それを用いて特徴ベクトルを得る.各特徴ベクトルは,最終隠れ層の\texttt{[CLS]}トークンに対応する出力を使用し,$d_{{\rmtxt}}$次元の実数ベクトルで表される($d_{{\rmtxt}}=768$).画像の処理に関しては,事前学習済みの物体検出器であるFasterR-CNN\cite{faster_rcnn}を用いて特徴ベクトルを計算する.FasterR-CNNは入力画像に対して,重複を許容した最大50個の物体領域座標(6次元\footnote{左上および右下の$(x,y)$座標と領域の幅と高さの6次元で表される.}),その物体領域の特徴ベクトル(2,048次元),および,物体タグを確信度付きで返す.拡張OSCARではこのうち確信度上位K個を使用する($K=15$)\footnote{予備実験よりこれ以上$K$の値を大きくしても大きな性能向上は見られなかった.}.特徴ベクトルと物体領域座標を結合したベクトルに対し線形変換を行い,テキストの特徴ベクトルと同じ次元数$d_{{\rmtxt}}$のベクトルを得る.線形変換には事前学習済みのOSCARに内包されているLinear層を用いた.一方で物体タグは空白で区切って一列に並べ,キャプションがある場合は\texttt{[SEP]}トークンで結合し,OSCARに内包された事前学習済みBERT内のEmbedidng層に渡し,対応する単語埋め込みを抽出する.この時点ではself-attentionを計算する前の単語埋め込みであることに注意されたい.これを$d_{{\rmtxt}}$次元に線形変換された画像ベクトルと結合し,OSCARのTransformer層でself-attentionを計算し,最終隠れ層の\texttt{[CLS]}トークンに対応するベクトルを入力画像の特徴ベクトルとする.この特徴ベクトルの次元数はテキストの特徴ベクトルと同じである($d_{{\rmimg}}=d_{{\rmtxt}}=768$).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics[height=96.3pt,clip]{29-4ia6f4_org.pdf}\end{center}\hangcaption{拡張OSCARの概要.灰色および白色の長方形はそれぞれ事前学習済みモデルおよび特徴量に対する操作を表す.オレンジの長方形および円は学習対象のモデルパラメータを表す.記号$\otimes$は行列積を表す.灰色の数字は各操作後の特徴量の次元を表す.}\label{fig:oscar}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%得られた$|S|$個のテキストと$|V|$個の画像の特徴量から,それぞれの関連度を計算するために,行列積を計算する.\begin{equation}\label{eqn:oscar_matrix}{\bf\phi}={\rmsoftmax}\Bigl(({\bfV}{\bfW}_{\rmimg}^\top+{\bfb}_{\rmimg})\cdot({\bfS}{\bfW}_{\rmtxt}^\top+{\bfb}_{\rmtxt})^\top\Bigr).\end{equation}${\bfV}$$\in$$\mathbb{R}^{|V|\timesd}$は文書内の全画像の特徴量であり,${\bfS}$$\in$$\mathbb{R}^{|S|\timesd}$は文書内の全テキストの特徴量である((ただし,$d=d_{\rmtxt}=d_{\rmimg}$).また,${\bfW}_{{\rmtxt},{\rmimg}}$$\in$$\mathbb{R}^{d'\timesd}$および${\bfb}_{{\rmtxt},{\rmimg}}$$\in$$\mathbb{R}^{d'}$はモデルパラメータである($d'=256$).既存研究\cite{radford2021learning}においても行列積のみから十分効果的な特徴表現を学習でき,テキストと画像の関連度を計算できることが示されているため,得られた行列積${\bf\phi}$をそのまま割り当て行列${\bfA}$とみなし,各画像のテキストの割り当て${\bfy}$を$y_i=\argmax\phi_i$から求める.学習時には,拡張Pythia同様,正解のテキストの割り当てとのクロスエントロピーを損失関数として使用し,モデルの学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:setup}\ref{sec:curation}~節で構築したデータセットを8:1:1にランダムに分割し,それぞれ訓練,開発,評価セットとした.分割した結果,それぞれのセットのデータサイズは53,557,6,695,6,695文書であった.学習時,各事例内の画像の出現順をシャッフルし,モデルが画像の内容ではなく,順番によって予測を行わないようにした.一方で,セクションは文書としての前後のつながりがあるため,シャッフルせずに出現順を保持した.バッチサイズを16とし,20エポック学習を行い,各エポックの終了時,開発セットでの評価結果が最も高いエポックのモデルを保存した.Pythiaに関しては,原著論文に従い,AdaMax\cite{kingma2014adam}で最適化を行い,学習率は0.001から始め,1000ステップで学習率が0.01になるまで単調に増加させ(warm-up),その後5000ステップ時から2000ステップ毎に学習率をその時点の学習率の1/10だけ減少させた.OSCARに関しても原著論文に従い,AdamW\cite{adamw}で最適化を行い,学習率は0.00005から始め,warm-upは行わず,毎ステップ係数0.05でweightdecayを行った\footnote{そのほかの詳細についてはそれぞれの原著論文\cite{jiang2018pythia,li2020oscar}を参照されたい.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}\label{sec:result}表~\ref{tab:result}に評価セットにおける実験結果を示す.2つの検証モデルはそれぞれ学習時に開発セットにおいて\texttt{accuracy@1}で最高精度を達成した時のモデルパラメータを使用した.それに加え,2つのベースラインの結果も載せている.「ランダム」は各画像のテキスト割り当てをランダムに予測した場合の精度であり,「最頻値」は,訓練セットにおいて最も割り当てが多かったテキストの位置(インデクス)を常に予測した場合の精度である.表の最下部には,著者ら3人が個別に提案タスクを解いた時の\texttt{accuracy@1}の平均値を載せている\footnote{提案タスクを解くためには,各Wikipediaの記事を読み込み各画像の適切なテキスト割り当てを予測する必要がある.これを人手で解くとコストがかかる都合上,表~\ref{tab:result}の「人間」の結果は評価セットのうちランダムに選んだ21記事,100画像の結果となっている.参考値として学習した拡張OSCARをこのサブセットに適用したところ,\texttt{accuracy@1}は39.01\%だった.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{06table03.tex}\caption{提案タスクの実験結果.}\label{tab:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2つの検証モデルは2つのベースラインに12~45ポイント以上の差をつけ上回った.このことから,既存のマルチモーダル手法を用いたとしても,ある程度提案タスクに適合するように学習されることを示している.また,拡張OSCARは拡張Pythiaに対して,10~12ポイント上回る結果となった.これは既存のマルチモーダルタスクで見られる傾向と同様で,提案タスクにおいても近年のTransformerに基づくモデルが,それ以前のself-attentionを用いないモデルよりも汎化性能が高いことを示している.しかしながら,拡張OSCARでも人間の精度の約半分となっており,大きな改善の余地があることは明らかである.このギャップを埋める手法を構築することが今後の課題である.次に,検証モデルの提案タスクにおける学習の振る舞いをより詳しく見るために,入力データにおけるAblationstudyを行った.具体的には,画像側の入力を画像のみ,または,キャプションのみとしたモデルを上記と同じ実験設定で学習し,評価セット上で比較した.結果を表~\ref{tab:ablation}に示す.両方の検証モデルにおいて,キャプションのみを使用したモデルが,両方のモダリティを使用したモデルより僅かに上回った(拡張Pythiaは\texttt{accuracy@\{1,3,5\}}の全てにおいて,拡張OSCARは\texttt{accuracy@1}のみにおいて).これは,両モデルが画像とキャプションの特徴量を効果的に考慮できていないことを示唆する.一方で,Wikipediaから構築されたデータセットで提案タスクを解くにはキャプションのみで十分という可能性も考えられるが,既存のマルチモーダルタスクにおいても,同様の結果(画像とキャプションの特徴量を効果的に考慮できていないことを示唆する結果)が得られており\cite{kembhavi2016diagram,kembhavi2017you},この結果は使用したモデルに起因する可能性が高い.実応用として,本タスクを解いて得られたモデルをインターネット上に存在するマルチモーダル文書データに適用することを考えると(例えば,Amazon\footnote{\url{https://www.amazon.com/}}のレビューや食べログ\footnote{\url{https://tabelog.com/}}・TripAdvisor\footnote{\url{https://www.tripadvisor.com/}}の口コミなどのテキストと画像が分離されているデータ),必ずしもキャプションがついているとは限らないため,画像のみ,または,画像とキャプションの両方を使用するモデルの性能を向上させる方法を模索することが望ましい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{06table04.tex}\caption{検証モデルのAblationstudy.}\label{tab:ablation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,本タスクが\ref{sec:intro}節で述べた技術課題「(i)長いテキストの読解」「(ii)複数画像の考慮」が必要なタスクになっていることを検証するために,上記で結果が良かった拡張OSCARを用いて,以下の2つの実験設定で追加実験を行った.\begin{itemize}\item[(i)]各セクションの冒頭文1文のみをモデルに入力\item[(ii)]画像を複数枚同時ではなく個別にモデルに入力\end{itemize}結果を表~\ref{tab:ablation-2}に示す.構築したデータセットの分析(表~\ref{tab:datastats})において,1セクションに含まれる平均単語数が198.4であり長いテキストになっていたが,セクションの冒頭文だけ考慮してもタスクが解けてしまう場合,「長いテキストの読解」が要求されるタスクにはなっていないことになる.しかしながら,冒頭文のみを使用した場合,精度が大きく下がったことから(\texttt{accuracy@1}で32.41\%$\rightarrow$24.22\%),本タスクを解くためには長いテキスト(複数文)を考慮する必要があることがわかる.また,拡張OSCARモデルは複数の画像を同時に入力することで,self-attentionにより他の画像情報も考慮するように拡張されたが,画像を個別に入力することで,他の画像情報を使わずに予測を行うこともできる.表~\ref{tab:ablation-2}-(ii)より,画像を個別に入力した時,精度(\texttt{accuracy@1})が約1.5ポイント下がることが確認された.このことから,複数の画像を同時に考慮しなければ解けない事例が含まれていることが示唆される\footnote{セクション冒頭文のみ使用した場合と比べ,精度の減少幅が小さいのは複数の画像を考慮する必要がある事例が限られているためと考えられる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{06table05.tex}\caption{提案タスクの特徴の検証実験.}\label{tab:ablation-2}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%続いて,人間の精度が6割にとどまった原因を考察する.原因は,今回実験で用いたデータセットはWikipediaから構築されたものであり,提案タスクを解くためには非常に幅広い知識を要求され,人間にとってもやや難しいタスクになっていたためと考えられる.これを調べるため,評価者3人の回答一致率を調べたところ,3人全員の回答一致率は48.0\%,2人以上の回答一致率は91.0\%であった.また,記事毎の回答一致率も確認したところ,ばらつきが大きく,回答が一致する記事と全く一致しない記事の差が顕著であった.これは,Wikipediaには世界中のさまざまな事柄について詳細に記事に記されており,評価者の持つ知識がそれぞれ異なることで,容易に答えられる記事とそうでない記事が評価者によって異なったためと考えられる.エンティティ関係抽出などの本研究と同様に世界知識を求められるタスクにおいても,タスクの設定によっては人間の正解率が7割程度になったり\cite{docred},エンティティ間の関係認識タスクのデータセットにおけるアノテーション一致率もばらつきが大きくなる傾向にある\cite{hendrickx-etal-2010-semeval}など,人間の精度に関して同様の傾向が報告されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}\label{sel:analysis}本節では,提案タスクの事例の特徴,および,前節で評価実験を行った2つの検証モデルの提案タスクにおける学習傾向を定量的・定性的に分析する.以降の分析は全て開発セットで行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{定量分析}\textbf{1記事の画像数が多いほどタスクとして難しいか?}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{29-4ia6f5.pdf}\end{center}\hangcaption{1記事に含まれる画像数(横軸)とそれらの画像のばらつき度合い(散布図,左縦軸)および平均セクション数(折れ線,右縦軸)の関係.ばらつき度合いに関しては,色が濃いほどそのデータ点における事例数が多く高頻度であることを示している.}\label{fig:num_var}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent本タスクを解く場合,各画像について最も適切なテキスト(セクション)を与えられた記事内から選ばなければならないためセクション数が多くなるほどタスクが難しくなることは明らかである.一方で,1記事に含まれる画像数はタスクの難しさにどのように関係しているだろうか.ここではその関係性について分析する.直感的には1記事に含まれる画像数が多くなるほど,画像同士の関係が複雑化し適切なテキスト割り当てを予測することが難しくなると考えられる.また,複数画像が含まれる記事でも,同じセクションにまとまって画像が割り当てられる記事は,画像同士の関連性が高く予測が比較的易しいと考えられ,逆にさまざまなセクションに分散して画像が割り当てられる記事は,画像同士の関連性は低くむしろそれぞれの画像とセクションの関連度を個別に考慮しなければならないため,タスクとしての難易度が高くなる考えられる.これを確かめるため,1記事に含まれる画像数と各画像が割り当てられているセクションの全セクション数に対する割合(すなわち,画像の割り当ての記事内でのばらつき度合い),および,2つの検証モデルの精度との関係を分析した.それぞれの関係を表したのが,図~\ref{fig:num_var}から図~\ref{fig:var_acc}である.図~\ref{fig:num_var}の散布図を見ると,1記事あたり8枚以下の画像が含まれる記事は,画像が1セクションに集中して割り当てられてるものから(縦軸の値が小さいもの),別々のセクションに分散して割り当てられている記事まで(縦軸の値が大きいもの)おおよそ等しく分布しているが\footnote{\ref{sec:curation}節より,データセット構築時に10セクション未満の記事はデータセットに含まれていないため,1記事あたり10画像未満の記事は画像のばらつき度合いが最大でも画像数/10になっていることに注意されたい.},9枚以上含まれる記事では全セクションの2割から7割程度のセクションに画像が割り当てられている記事が多いことがわかる.このことから多くの画像が含まれている記事内では,複数画像が同一セクションに割り当てられることがあり,画像間である種のクラスタのようなものが形成され,同じトピックを表す画像はまとまって同じセクションに割り当てられると考えられ,この潜在的なトピックに気付くことが提案タスクを解くポイントになると思われる.一方で,画像数と平均セクション数の関係(折れ線)を見ると,画像数に関わらず平均セクション数は25$\sim$35となっている\footnote{特に画像が多い記事(画像数が20以上)はそもそもデータ数が少なく(ばらつき度のデータ点が少ない),平均セクション数のばらつきが大きい.}.このことから画像数とセクション数の間に強い相関はないことが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6and7\begin{figure}[b]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\begin{center}\includegraphics{29-4ia6f6.pdf}\end{center}\hangcaption{記事毎の画像数(横軸)と検証モデルの記事毎の精度(縦軸)の関係.色が濃いほど高頻度.}\label{fig:num_acc}\end{minipage}\hfill\begin{minipage}[t]{205pt}\begin{center}\includegraphics{29-4ia6f7.pdf}\end{center}\hangcaption{記事毎の画像のばらつき度合い(横軸)と検証モデルの精度(縦軸)の関係.色が濃いほど高頻度.}\label{fig:var_acc}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:num_acc},\ref{fig:var_acc}は,それぞれ記事あたりの画像数と検証モデルの精度,画像のばらつき度合い(画像が割り当てられているセクションの割合)と精度をプロットしたものである.どちらの検証モデルも,画像数が少ない記事や画像のばらつき度合いが小さい,すなわち,画像がまとまって割り当てられる記事ほど完璧に解けている(精度1.0の)記事数が多いが,画像が多くなるにつれ,また,画像のばらつき度合いが大きくなるにつれ精度が下がっていることがわかる.特にPythiaはどちらの図においても右上の範囲のデータ点がOSCARより少なく,この傾向が顕著である.これらの結果から,画像数が多くなるにつれ,また,画像が記事内の複数セクションに分散して割り当てられている記事ほどタスクとして難しくなること,および,PythiaはOSCARより画像間の潜在的なトピックを認識できていない可能性が高いと考えられる.後者の可能性をさらに分析するため,各記事の正解の画像のばらつき度合いと,検証モデルの予測による画像のばらつき度合い(予測された割り当てセクションの全体に対する割合)を比較した.図~\ref{fig:sec_var}に結果のヒストグラムを示す.図から,正解(gold)およびOSCARの予測によるばらつき度合いはともに[0.1,0.2)が最頻値なのに対し,Pythiaは[0.0,0.1)が最頻値となっている.これは複数画像ある記事でもPythiaの予測は特定のセクションに集中する傾向にあることを示唆している.図~\ref{fig:sec_var_diff}は正解と検証モデルの予測による画像のばらつき度合いの差のヒストグラムである.これを見ると,OSCARは正解との差が0.1未満である記事が大多数であるのに対し,Pythiaは正解との差が大きい記事(差0.2以上)が一定数存在している.したがって,やはりPythiaは画像間の潜在的なトピックを考慮しているというより,画像が割り当てられるであろうセクションを記事内で選択し,そこに集中的に画像を割り当てていると考えられる.一方OSCARは,画像や画像に描かれた物体の類似性などからトピックのようなものを学習し,各トピックに合致するセクションに画像を分散させて割り当てていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8and9\begin{figure}[t]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\begin{center}\includegraphics{29-4ia6f8.pdf}\end{center}\caption{画像のばらつき度合いのヒストグラム.}\label{fig:sec_var}\end{minipage}\hfill\begin{minipage}[t]{205pt}\begin{center}\includegraphics{29-4ia6f9.pdf}\end{center}\hangcaption{正解と検証モデルの予測間の画像のばらつき度合いの差のヒストグラム.}\label{fig:sec_var_diff}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{検証モデルはキャプションに大きく頼ってタスクを解いているか?}\noindent構築したデータセットに含まれる画像にはキャプションがついているものが多い.\ref{sec:data_analysis}節で述べたように,構築したデータセットには多くの固有名詞が含まれており,画像のキャプションも同様である.キャプションに含まれる固有名詞表現と同じ(または一部重複する)表現が含まれるセクションを選べば正解となる可能性がある.その場合,画像を全く考慮せずにタスクを解けてしまうことになるが,我々が目指すマルチモーダルモデルの学習にはなっていない.我々が今回使用した検証モデルの学習では,そのような望ましくない学習が起きていないと期待する.この仮説を検証するため,画像のキャプション中の単語とセクション中の単語の重複率と,検証モデルの精度の関係を調べた.単語の重複率は単語uni-gramのSimpson係数\cite{vijaymeena2016survey}によって算出し,算出の際,ストップワードおよび句読点等の記号は重複率の計算からは除外した\footnote{単語分割およびストップワード等の除去にはNLTK\cite{bird2009natural}を使用した.}.Simpson係数(重複率)は次式で求めた\footnote{多くの場合,キャプションの単語数はセクションの単語数に比べ非常に少ないため,重複率はキャプション中の単語のセクションにおける重複割合を表す.}.\begin{equation}{\rmSimpson係数(重複率)}=\frac{{\rm共通単語数}}{\min({\rmキャプションの単語数},{\rmセクションの単語数})}.\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10and11\begin{figure}[t]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\begin{center}\includegraphics{29-4ia6f10.pdf}\end{center}\hangcaption{画像のキャプションと正解セクションの単語の重複率のヒストグラム.検証モデルでは正解した画像のみを考慮.}\label{fig:ovlp_corr}\end{minipage}\hfill\begin{minipage}[t]{205pt}\begin{center}\includegraphics{29-4ia6f11.pdf}\end{center}\hangcaption{画像のキャプションと検証モデルの予測セクションの単語の重複率のヒストグラム.検証モデルでは不正解だった画像のみを考慮.}\label{fig:ovlp_incorr}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%結果のヒストグラムを図~\ref{fig:ovlp_corr},\ref{fig:ovlp_incorr}に示す.図~\ref{fig:ovlp_corr}の正解セクションとの重複率のヒストグラム(gold)から,構築したデータセットには,キャプションとセクションの単語の重複率の観点において多少の偏りはあるものの,バランス良く事例が含まれていることがわかる.また,ヒストグラムの各ビンに注目すると,正解セクションとの個々の重複率の頻度におおよそ比例して,2つの検証モデルもどの重複率においてもタスクを解けていることがわかる.図~\ref{fig:pred_example}~(b)にキャプションがない画像でも2つの検証モデルが正しく正解セクションを予測した具体例を示す(次節で詳述する).これより,検証モデルが画像を無視しキャプションに大きく依存してタスクを解いている可能性は低いと考えられる.図~\ref{fig:ovlp_incorr}は検証モデルが予測を誤った事例の予測セクションとキャプションの単語の重複率のヒストグラムである.両モデルとも重複率が0.5以下の頻度が多くなっていることから,単語の重複率が小さいセクションに誤った予測を行っていることがわかる.キャプションに大きく依存しているならば,逆に重複率の大きいセクションに誤った予測を行うだろうから,この結果も検証モデルがキャプションのみに依存してタスクを解いていないことを示唆している.両モデルともセクション・キャプションの特徴ベクトルとしてBERTの\texttt{[CLS]}トークンに対応する隠れ層を使用しているため,予測に必要な特定の固有名詞の情報がエンコード時に欠落し特徴ベクトルに十分反映されていないことがこの原因の一つとして考えられる.BERTの特徴表現に加えて,単語の重複情報も考慮するようなモデル設計を行うことでこの問題が改善される可能性がある\footnote{OSCARの場合はキャプションがない事例でも画像中の物体タグを使用できる.}.\textbf{提案タスクは既存のマルチモーダルタスクの性能向上に寄与するか?}\noindent表~\ref{tab:datacomp}に示したようにWikipediaから構築したデータセットは,既存のマルチモーダルタスクのデータセットに比べて大規模であり,多様な言語表現および視覚概念を含む.このことから,提案タスクにおける学習もVisionandLanguageの事前学習の一種とみなし,提案タスクで学習したモデルを既存のダウンストリームタスクでfine-tuningすることで性能向上できるのではないかと考えた.そこで表~\ref{tab:result}の評価実験の結果が良かった拡張OSCARを,ITeMタスク固有のモデルパラメータを取り去り(具体的には,式(\ref{eqn:oscar_matrix})に関係するモデルパラメータ),原著論文\cite{li2020oscar}に従って同じハイパーパラメータおよび実験設定を用いて,5つのダウンストリームタスク(VQA,GQA,NLVR2,ImageCaptioning,Image/TextRetrieval)でそれぞれfine-tuningを行った\footnote{著者らが公開しているfine-tuning用のコードを使用した:\url{https://github.com/microsoft/Oscar}.実験設定およびそれぞれのダウンストリームタスクの詳細は原著論文\cite{li2020oscar}を参照されたい.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{06table06.tex}\hangcaption{VisionandLanguageのダウンストリームタスクの実験結果.タスク名の下にはそれぞれのタスクの評価指標を示してある.accは精度,B@4はBLUE@4,MはMETEOR,CはCIDEr,SはSPICE,T@\{1,5\}はtext-to-imageのRecall@\{1,5\},I@\{1,5\}はimage-to-textのRecall@\{1,5\}をそれぞれ表し,全て数字が大きいほど良い性能である.}\label{tab:ds_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:ds_result}に結果を示す.GQAタスクでは提案タスクで事前学習を行わなかったOSCARをわずかに上回ったものの,それ以外のタスクでは同等か下回る結果になった.したがって,期待に反してダウンストリームタスクにおける性能向上にはつながらなかった.原因として,提案タスクの学習で用いたデータとダウンストリームタスクにおけるデータのテキストおよび画像のデータ分布の乖離が考えられる.ダウンストリームタスクで使用されるデータには固有名詞はほとんど出現せず,地図や国旗,グラフのようなWikipediaで使用されるイラスト画像も含まれない.このようなドメインの異なるデータで事前学習を行ったことが,性能向上に至らなかった可能性が高い.既存研究においても,ドメインの異なるマルチモーダルデータでモデルの評価を行うと,たとえ大量のデータでモデルを学習したとしても,同じドメインでの結果ほど高い精度が得られないことが報告されている\cite{srinivasan2021wit}.しかしながら,より直接的な原因を特定するためには詳しい分析が必要である.実用的なマルチモーダルシステムの構築を目指すならば,WikipediaのようなWeb上に存在するマルチモーダルデータもうまく扱うことができることが望ましい.既存のベンチマークとして使用されているマルチモーダルデータセットにおいてこれらの性能が正しく評価されているかという点についても継続的な議論を行っていくべきであると考える.一方で,ドメインの異なるタスク・データにモデルを適用させる際は,転移学習が有効であることも知られている.例えば,BERTなどの事前学習済み大規模言語モデルを他ドメインに適用させる際は,そのドメインのデータで追加事前学習を行ったり\cite{gururangan-etal-2020-dont},fine-tuning時に単語分割器も同時に最適化する\cite{hiraoka2022jnlp}などの手法が有効であることが知られている.これらの手法の適用可能性や有効性を検証することは今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{定性分析}\label{sec:teisei}ここでは,検証モデルが実際に学習できた事例,学習に失敗した事例を通して提案タスクと検証モデルの特徴について考察する.開発セットにおいて,2つの検証モデルが共に正解セクションを正しく予測できた割合は全体の7.7\%(2,421画像)だった.これらの事例を人手で確認したところ,共通して学習できたと思われるテキストと画像間の対応関係パターンが見つかった.例えば,図~\ref{fig:pred_example}~(a)\footnote{それぞれのデータセット構築時点の記事へのリンクは以下の通り.IkebukuroStation:\url{https://en.wikipedia.org/w/index.php?title=Ikebukuro_Station&oldid=831849329},Sylt:\url{https://en.wikipedia.org/w/index.php?title=Sylt&oldid=896899628},Lom\`{e}:\url{https://en.wikipedia.org/w/index.php?title=Lom\%C3\%A9&oldid=897914460}.}に示すように,白黒画像やセピア調の画像は過去の出来事を説明しているセクションに割り当てられる傾向にあることを学習した.他にも,衛生画像や広範囲の景色を映したランドスケープ・パノラマ画像,および,地図画像は国や地域に関する記事の地理・地形を説明しているセクションに対応することを学習し(図~\ref{fig:pred_example}~(a)中央の例),建造物の外観全体を映した画像は著名な建築物や有名な観光スポットを説明するセクションに対応することを学習している(図~\ref{fig:pred_example}~(a)右の例)ことが複数確認された.白黒画像や地図画像,それらのキャプション中やセクション中に現れる固有名詞表現等は表~\ref{tab:datacomp}に挙げた既存のマルチモーダルデータセットにはほとんど含まれないため,本タスクを通してそれらの画像やテキストの特徴およびその対応関係を学習したといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[p]\begin{center}\includegraphics[height=496.8pt,clip]{29-4ia6f12_org.pdf}\end{center}\caption{検証モデルの予測例.キャプションやセクションが長い場合は一部のみ抜粋.}\label{fig:pred_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%より難しい事例として,キャプションが全くない画像が考えられる.正解セクションを予測するには,画像のみを手がかりとし画像中の物体を正しく認識し,時には画像間の関連性も考慮しながら適切なセクションを選ぶ必要がある.開発セットにキャプションがついていない画像は97件含まれていた.このうち,Pythiaは12件(12.37\%),OSCARは30件(30.93\%)正しく正解セクションを予測できた.具体例を図~\ref{fig:pred_example}~(b)\footnote{\url{https://en.wikipedia.org/w/index.php?title=Rushey_Mead&oldid=897635878}}に示す.図中の4枚の画像は全てキャプションがついておらず,またこの記事は14セクションから構成される記事だったが,2つの検証モデルは4枚全ての画像を正しいセクション「TheWorldTree」に割り当てた.これらの画像は全て「TheWorldTree」(図~\ref{fig:pred_example}~(b)の一番左端の画像に描かれた木の彫刻)とその周辺の物を描いたものである.各画像を独立に考慮してしまうと4枚の画像のうち左端を除く3枚の画像が木の彫刻(の全体)が描かれていないため正解セクションに関連する画像であると推測することが難しくなると思われるが\footnote{実際拡張OSCARモデルに個別に画像を入力した場合,最も右の画像は予測に失敗することを確認した.},2つの検証モデルは画像間の背景が似ていることや式~(\ref{eqn:pythia_softmax})および(\ref{eqn:oscar_matrix})から画像間の関連性を考慮し,正しいセクションを予測したと考えられる.したがってこの例は,本タスクによって,既存のマルチモーダルタスクで扱われてこなかった複数画像を関連づける処理が学習できていることを示唆している.\ref{sec:result}節の実験結果から精度上は人間の性能にまだ及ばないものの,人間がマルチモーダル文書を読む上で自然に行っているこのような処理を適切なタスク設計することで学習可能であることを示唆する結果が得られたことは非常に興味深い.しかしながら,人間の性能とのギャップを埋めるためにモデルが改善すべき点もいくつか確認された.図~\ref{fig:pred_example}~(c)に具体例を示す\footnote{それぞれのデータセット構築時点の記事へのリンクは以下の通り.Boot:\url{https://en.wikipedia.org/w/index.php?title=Boot&oldid=896633419},Cameraphone:\url{https://en.wikipedia.org/w/index.php?title=Camera_phone&oldid=897978852},Photographicfilter:\url{https://en.wikipedia.org/w/index.php?title=Photographic_filter&oldid=866458657}.}.図~\ref{fig:pred_example}~(c)左の例は,画像中の物体やキャプションの情報を抽象化するのに失敗した例である.描かれた物体はブーツの部品や付属品の具体例であり,これらは「ブーツ」に関する記事の「Bootpartsandaccessories」を説明しているセクションに割り当てるのが妥当である.キャプションと正解セクションには「bootjack」という単語列も共通して現れている.しかしながら,2つの検証モデルはいずれもこの画像を第1セクション,すなわち,記事タイトル直下のブーツの概要を説明しているセクションに割り当てた.おそらくこの原因は,第1セクションおよびキャプション中にブーツに関連する表現(boots,footwear,shoeやputon,takeoffなど)があり,それらが強く結び付いてしまったためと考えられる.この事例は画像中の物体そのものを考慮するのではなく,物体は例示の目的で使われていることを認識し,抽象化して正解セクションを予測しなければならない.図~\ref{fig:pred_example}~(c)中央の例は,描かれている物体の時代変化を認識することに失敗している.人工物や生物は,それを呼称する名前(商品名,個人名,概念としての名称)は変わらなくとも,時が経つにつれてその視覚的特徴(外観,形状など)がしばしば変化する.図~\ref{fig:pred_example}~(c)中央の画像は2000年代のカメラ機能付き携帯電話を映したものであり,2,3世代前の携帯電話であることから,記事「Cameraphone」の「History」セクションに割り当てるのが正しい.キャプションからも画像中の「cameraphone」が「2007」年のものであることを読み取れるし,「History」セクションも各年代ごとにその年代を代表する「cameraphone」の説明をしている.しかし,この例も上記の例と同様,2つの検証モデルは画像中の物体が「(camera)phone」であることにのみ注目し「cameraphone」の概要を述べている第1セクションに誤って割り当てている.このことから両モデルは(カメラ付き)携帯電話の視覚的特徴が時代変化することをうまく学習できていないと思われる.これまでのマルチモーダル手法も,ある時に一度だけ画像を収集し作られたデータセット上(MSCOCO\cite{lin2014microsoft}やVisualGenome\cite{krishna2017visual}など)で学習されていたため,これと同様の問題が起きる可能性がある.図~\ref{fig:pred_example}~(c)右の例は,画像中の物体に注目するのではなく,画像(小領域)の変化/差分を認識しなければ解けない事例である.画像は4つの小領域で構成され,左上の小領域に対して,異なる画像処理(photographicfilter)を適用した結果が残りの小領域となっている.左上の小領域から左下の小領域への変化が正解セクションで説明されている「Diffusion」と呼ばれる画像処理であり,小領域の視覚的差分がこれに合致することを認識しなければならない.マルチモーダル文書における画像の1つの用法としてこのような対比が使われることがある.例えば,ある処理の適用前後の対比や同一視点・同一被写体の時間変化(夜空の星の動きなど),taxonomy上で同じ階層に位置する概念の比較(ゴールデンレトリバーとラブラドールレトリバーの比較等)などがある.この他にもマルチモーダル文書における画像の使われ方はさまざまであり,\citeA{Marsh2003image_taxonomy}はその使用法について実際に存在するWeb記事を調査し,49種類の使用法があることを発見し,taxonomyを構築している.実用的なマルチモーダルシステムを構築するためには,これらの用法に合わせた画像理解ができるように改善を今後していくことが望ましい.我々は,本タスクおよびこれらの分析が,より有用なマルチモーダル手法の構築に繋がることを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本研究では,実用的なマルチモーダルシステムの構築を目指し,マルチモーダル文書中の画像とテキストのマッチングを求める新たなタスクImage-to-TextMatching(ITeM)を提案した.また,マークアップに着目し英語版Wikipediaから機械的に提案タスク用のデータセットを構築する方法も提案した.構築したデータセットは,既存の単一言語からなるマルチモーダルデータセットと比べ,画像数,文書数,語彙数の観点で大規模であり,多様な言語表現,視覚的概念,画像の用法を含むことを示した.提案タスクの妥当性,難易度を測るために,既存のマルチモーダル手法を本タスク上で動作するように最低限の改良を施し,評価実験を行った.その結果,既存のマルチモーダル手法は3割から7割の精度でタスクを解くことができることを確認したが,人間の性能との間にはまだ差があり改善の余地があることがわかった.定量的および定性的に結果を分析したところ,1文書あたりの画像数が多くなるほど,また,画像が文書内に散りばめられている文書ほど問題が難化する傾向にあることを確認した.一方で,これまでのマルチモーダルタスクで扱われてこなかった複数画像を考慮するという処理など興味深い学習が行われていることを示唆する結果も得られた.今後は提案タスクで事前学習したモデルが既存のマルチモーダルのダウンストリームタスクで性能向上が見られなかった原因を調査し,提案手法およびその他のダウンストリームタスクでも性能向上を達成する手法の開発を目指す.また,本研究を発展させ,本研究で扱った\ref{sec:intro}~節の技術課題を含むマルチモーダルデータと同種のデータ(Amazonや食べログ,TripAdvisor等のレビューやFacebook等の投稿,ウェブニュースの記事などのテキストと画像が分離されているデータ)や提案タスクに類似するタスク(新聞記事の適切な画像選定や物語からの自動絵本生成等)に取り組む研究や実応用に繋がることを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費19H01118の助成を受けたものです.本稿の査読にあたり,査読者の方から本稿をより良くするため,多くの有益で建設的な意見をいただいたことに感謝いたします.本稿を執筆するにあたり,研究室の学生からたくさんのご助言をいただきました.ここに感謝します.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{村岡雅康}{%2016年東北大学大学院情報科学研究科博士前期課程修了.同年,日本アイ・ビー・エム株式会社に入社.2020年10月より東京工業大学情報理工学院博士後期課程に在学.言語処理学会会員.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\bioauthor{小比田涼介}{%2018年奈良先端科学技術大学院大学情報工学科博士前期課程修了.同年,日本アイ・ビー・エム株式会社に入社.}\bioauthor{石井悦子}{%2019年東京大学工学部計数工学科卒業.同年よりDepartmentofElectronic\&ComputerEngineering,TheHongKongUniversityofScienceandTechnology,博士課程に在学.ACL学生会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N05-06
\section{はじめに} 「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.言語学の角度から,この種類の品詞の意味,構文の特徴について,~\cite{teramura91,kinsui00,okutsu86,miyajima95}などの全般的な分析がある.また,日中両言語の対照の角度から,文献~\cite{wu87,ohkouchi77,yamanaka85}のような,個別のとりたて詞に関する分析もある.しかしながら,日中機械翻訳の角度からは,格助詞を対象とする研究はあるが~\cite{ren91a},とりたて詞に関する研究は,見当たらない.とりたて詞は,その意味上と構文上の多様さのために,更には中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,取立て表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文は,言語学の側の文献を参考にしながらとりたて詞に関する日中機械翻訳の方法について考察したものである.すなわち,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴によってとりたて詞の意味の曖昧さを解消する方法を示し,さらに同じ意味的な用法でも,対応する中訳語が状況により異なる可能性があることを考慮し,中国語側で取り立てられる部分の統語的,意味的な特徴及び関係する構文特徴によって,訳語を特定するための意味解析を行った.また,とりたて詞に対応する中訳語の位置を,その訳語の文法上の位置の約束と,取り立てられる部分の構文上の成分などから特定する規則を提案した.また,これらの翻訳規則を手作業により評価した.なお,本論文では,とりたて詞として,文献~\cite{kinsui00}が挙げている「も,でも,すら,さえ,まで,だって,だけ,のみ,ばかり,しか,こそ,など,なんか,なんて,なんぞ,くらい,は」の17個のうちの「も」,「さえ」,「でも」の三つを検討の対象とした.論文の構成は次の通りである.第2章ではとりたて表現の特徴と中国語との対応関係を述べ,第3章ではとりたて表現の中国語への翻訳方式とその方式の構成の主要な内容---意味解析と語順規則を説明する.第4章では,「さえ」,「も」,「でも」の翻訳の手順を例文を用いて示す.第5章では,手作業による翻訳の評価実験と問題点の分析について述べ,第6章では論文のまとめを述べる. \section{とりたて表現の特徴と中国語との対応関係} \subsection{日本語のとりたて詞ととりたて表現}意味から見ると,とりたて詞は「文中のさまざまな要素を取り立て,これとこれに対する他者との関係を示す」作用を持つ助詞である.その「他者」は常に暗示されて,文の表に出てこない.文脈や,社会知識により,とりたて詞に取り立てられる部分(自者)を通して,暗示されている「他者」を推測でき,更にこの「両者」の関係を理解するのである.この「両者の関係」は場合によって,「他者への肯定,全面的な肯定(否定),強調,制限,譲歩,意外性,例示」などのさまざまな意味が現れてくる.例えば:\begin{enumerates}\item先生\underlines{も}今日のパーティに出席した.\item戦争中,16歳の子供\underlines{も}(\underlines{でも}\,)徴兵された.\itemご飯\underlines{さえ}食べられれば満足だ.\item誰\underlines{も}私の話を聞いてくれない.\itemここから駅まで30分\underlines{も}あれば足りる.\end{enumerates}上記の例文の下線部がとりたて詞である.意味から見ると:(1)では,「先生」はパーティに出席したが,「先生」以外の人もパーティに出席したと暗示されている.(2)では,16歳の子供が徴兵されるのは普通の世界では道理に合わないため,そのことに対する「意外」の意味を表す.(3)番では,「ご飯」を食べることは満足の十分な条件で,ほかのものはいらないという「最低限の十分条件」を示す.とりたて詞のこのような意味上の多様性は,「が,を」のような格助詞の「格関係的意味」とは異質のものであり,また名詞や動詞が表現する「明示的なこと的意味」とも異なる.文の表に表現されている意味より,とりたて詞によって暗示されている意味の方が主目的であると考えられる.とりたて詞が全体として多様な意味を持っているばかりでなく,1つのとりたて詞も一般に複数の意味用法を持っている.例えば,「も」には,(1)の「他者への肯定」,(2)の「意外性」,(4)の「全面的な否定」,(5)の「数量に対する評価」など多くの意味がある.とりたて詞の意味解釈にはなおもう一つ特徴がある.それは話し手がどのように状況を認識するか,社会常識ではどのように理解されるのかによって,文の意味解釈が定まる場合があるということである.これがいわゆるとりたて詞の語用論的意味あるいは性質である.たとえば,例(2)の「も」の「意外性の意味」を理解するには,「16歳の子供を兵士にするのは常理には合わない」という社会常識が必要である.構文上の特徴から見ると,とりたて詞は,名詞ないし形式名詞とのみ共起する格助詞と違って,さまざまの品詞と共起できる.下記の例では,(6)(7)では述部の真中に,(8)では格助詞の直後に,(9)では副詞の直後に現れている.\begin{enumerates}\setcounter{enumi}{5}\item親子の子は私の言うことを疑って\underlines{でも}いるようだ.\item彼女はその手紙を見\underlines{も}しなかった.\itemあの若い女優は外国に\underlines{まで}有名になった.\itemもっとゆっくり\underlines{でも}間に合う.\end{enumerates}更に,とりたて詞によっては,同じ成分においても,名詞の直後か,名詞+格助詞の後か,或は名詞と格助詞の真中か,動詞の連用形か「て形」か,などまちまちである.\subsection{取立て表現の中国語との対応関係}孤立語とされる中国語には,意味上から見ると,たいていとりたて詞と同じ意味を持つ表現があるが,直接的に対応する品詞は無く,副詞,介詞,連詞など様々の品詞を用いた表現に翻訳することになる.日本語側で1つのとりたて詞は複数の意味をもつ場合があるが,中国語では,意味が違えば異なる訳語に対応する場合もあるし,また同様な意味も異なる訳語で表す場合もある.また日本語側で同じ意味を異なるとりたて詞で表現できる場合があるが,中国語ではそれらが1つの訳語に対応できる場合もある.また,訳語が訳文の構造に依存して決まる場合もある.訳語の訳文での位置は関連する統語上の成分に依存して決まるが,日本語側の位置とは必ずしも対応しない場合がある.以下に「さえ」と「も」を例として,対応する中国語の訳語,訳語の品詞及び位置などを示す.\vspace{1em}\noindentさえ:\begin{enumerates}\setcounter{enumi}{9}\item戦争の時期,お粥\underlines{さえ}食べられなかった.\begin{flushright}(意外性の意味,目的語の後)\end{flushright}訳文:\kanji{a}争\kanji{b}期,\underlines{\kanji{c}}粥\underlines{都}吃不上.\begin{flushright}(介詞+副詞,前置賓語の前)\end{flushright}\item彼は授業中に寝て\underlines{さえ}いた.\begin{flushright}(意外性の意味,述語と助動詞いるの間)\end{flushright}訳文:他在\kanji{d}堂上\underlines{甚至}睡\kanji{f}.\begin{flushright}(副詞;述語の前)\end{flushright}\item水\underlines{さえ}あればこの花は何週間も枯れない.\begin{flushright}(最低限の条件;主語の後)\end{flushright}訳文:\underlines{只要}有水,\kanji{g}支花\underlines{就}几周也不枯.\begin{flushright}(連詞;「只要」は主語の後,「就」は状語の前)\end{flushright}\end{enumerates}\vspace{1em}\noindentも:\begin{enumerates}\setcounter{enumi}{12}\item彼は自分の名前\underlines{も}書けない.\begin{flushright}(意外性の意味,目的語の後)\end{flushright}訳文:他\underlines{\kanji{c}}自己的名字\underlines{都}不会\kanji{h}.\begin{flushright}(介詞+副詞;「\kanji{c}」は前置賓語の前,「都」は述語の前)\end{flushright}\newpage\item私\underlines{も}中華料理が好きだ.\begin{flushright}(他者への肯定の意味,主語の後)\end{flushright}訳文:我\underlines{也}喜\kanji{i}中国菜.\begin{flushright}(副詞;主語の後か述部の前)\end{flushright}\end{enumerates}このように,日本語のとりたて詞の意味用法が非常に多様であるのに加え,中国語との意味的,位置的な対応も複雑多岐であることが,とりたて詞の日中機械翻訳を難しくしている要因である. \section{取立て表現の中国語への翻訳} \subsection{翻訳方式の構成}上記の取立て表現の日中両言語における対応関係を考慮して,とりたて詞を含む文は,図~\ref{housiki}で示す翻訳方式で翻訳するものと考えた.全体は二つの部分に分けて進行する.\renewcommand{\theenumi}{}\newcommand{\labelenumii}{}\renewcommand{\theenumii}{}\begin{enumerates}\itemとりたて詞を含む日本語文を解析し,とりたて詞以外の部分(以下骨格文という)に対して翻訳を行い,中国語文の骨格構造を得る.\itemとりたて詞の翻訳\begin{enumeratess}\item訳語を特定するための意味解析を行う.\item訳語の中国語文での語順を特定する.\end{enumeratess}\end{enumerates}\renewcommand{\theenumi}{}この方式においては,「とりたて詞の意味解析規則」と「語順規則」の二つの規則が必要である.語順を特定する際,中国語文の骨格文の構造と関連して決めるため,骨格文があらかじめ翻訳されていることが前提となる.本論文では,とりたて詞の翻訳の部分(図~\ref{housiki}の点線の部分)を議論する.\begin{figure}[hbtp]\begin{center}\epsfile{file=figures/Fig1.eps,scale=0.6}\caption{翻訳の方式}\label{housiki}\end{center}\end{figure}\subsection{とりたて詞の意味解析}とりたて詞の翻訳を行うために,取立て表現の意味的用法をまず明らかにする必要がある.以下の論述の便利のため,とりたて詞をT,係り部分(取り立てられる部分)をX,結び部分(述部)をP,またXの中訳語をX$^{\prime}$,Tの訳語をT$^{\prime}$とする.(Xには単語,句,文などの可能性がある.また連体修飾語があればそれを含んでXとする.Tによって取り立てられる部分が二つ以上あれば,それをX1,X2$\cdots$とし,複文ならば,Tを含む従属節の述部をP1,主節の述部をP2とする.)\subsubsection{とりたて詞の意味分類}ここで,まず対象としている三つのとりたて詞「さえ/も/でも」の意味を中国語との対応付けも考慮して分類を行った(表~\ref{imibunrui}).意味分類は文献~\cite{teramura91,kinsui00,okutsu86,matsumura68,gu97}などを参考にして纏めた(同形の他品詞と,慣用句にある同形の表現は含まれていない).\begin{table}[hbtp]\begin{center}\caption{とりたて詞「も」,「さえ」,「でも」の意味分類}\epsfile{file=figures/Table1.eps,scale=0.82}\label{imibunrui}\end{center}\end{table}\subsubsection{とりたて詞の意味解析法}自然言語処理では,「多義語の文中での意味を,文中の他の単語との意味的整合性から決定することが意味解析の一つの目的である」~\cite{nagao96}.多様な意味を持つ取り立詞の意味を特定するには,その関連する要素から分析しなければならない.とりたて詞の意味については,~\cite{teramura91,kinsui00,okutsu86,miyajima95}など多くの分析があるが,関連要素から系統的に分析したのは文献~\cite{teramura91}の寺村氏である.氏は「とりたて詞の意味は,係部分と,結び部分のそれぞれの文法的,意味的特徴と相関している」と指摘し分析している.係部分と,結び部分は,とりたて詞に取り立てられる部分と述語部(そのモダリティや,テンスなどを含める)である.我々もこの観点にたって実際にとりたて詞を含む多数の例文を観察した.その結果,とりたて詞の意味はその取りたてられる部分と述語部の各種の属性から基本的に特定できることを確認した.\hspace*{4.0zw}\begin{picture}(115,20)\put(75,0){\line(0,1){10}}\put(75,10){\line(1,0){40}}\put(115,10){\vector(0,-1){10}}\end{picture}\begin{enumerates}\setcounter{enumi}{14}\item家から駅まで\hspace{1zw}\fbox{\underlines{三時間}\hspace{1zw}\underlines{も}}\hspace{1zw}\underlines{かかる}\,.\\\hspace*{8.3zw}X\hspace{1.9zw}T\hspace{2.4zw}P\\\begin{picture}(110,20)\put(70,0){\line(0,1){10}}\put(70,10){\line(1,0){40}}\put(110,10){\vector(0,-1){10}}\end{picture}\item私の肩は\hspace{1zw}\fbox{\underlines{痛く}\hspace{1zw}\underlines{も}}\hspace{1zw}\underlines{なった}\,.\\\hspace*{5.9zw}X\hspace{1.3zw}T\hspace{2.4zw}P\end{enumerates}取り立てられるもの(X)は(15)のように通常名詞あるいは名詞+格助詞であるが,(16)のように用言を取り立てる場合もある.その場合には,(16)のように「形容詞連用形+T+なる」や,「走ってもいない」のように「動詞て形+T+いる」などの形をとる.この場合Xは用言の連用形あるいは「テ」形であり(「も」には,基本形,タ形もあり得る.例えば,「聞くも涙話すも涙」),Pは「なる/いる/する/ある」などの補助動詞となる.この場合のPは中国語の述語動詞に対応する場合と単にテンスやアスペクト補助字に対応する場合がある.(15)の例は,\{X=数量詞\hspace{1zw}P=肯定式という条件が成立する場合,「も」の意味は「時間が意外に多いことを強調する意味」\}という意味解析規則で解釈できる;(16)の例は,\{X=形容詞の連用形\hspace{1zw}P=肯定式という条件が成立する場合,「も」は「他者への肯定の意味」\}という意味解析規則で解釈できる.以上のように,XとPに対する条件によってTの意味を特定できる場合が多いが,「X1もX2も$\cdots$」のようにXが複数のとりたて部分を持つパターンであるかどうかも意味判定条件にかかわる場合がある.たとえば表~\ref{imibunrui}の「も」の1番と5番の意味は,Xの属性は同じであるが,1の意味では複数のXを含めるパターン(X1もX2も$\cdots$),5の意味では単一のXを含めるパターンという条件が必要である.また日本語側の条件のみでは,意味を区別できても中訳語T$^{\prime}$を特定できない場合がある.例えば,「も」は,日本語側の条件として,P=肯定式,X=普通数量詞/疑問数量詞であれば,表~\ref{imibunrui}の「も」の2のaの意味であると解釈できるが,中訳語としては,X$^{\prime}$が普通数量詞の主語か賓語か,或は疑問数量詞かによって,それぞれ「竟然」,「竟然有」,「好」となる.本論文ではとりたて詞の部分を除いた骨格構造の翻訳を用いる2段構造の翻訳方式を前提としているが,中国語側の構文構造を必要に応じて参照し,中訳語を特定することができる.このほか,表~\ref{imibunrui}の「さえ」の2番目の意味は,「只要$\cdots$就$\cdots$」に訳すが,中国語文の主節が反問文あるいは主節の述部が「是$\cdots$」の構造ならば,また日本語側で主節が省略されれば「只要$\cdots$」のみに訳す,というように,日本語文と中国語文の構文特徴が条件になる場合もある.上記をまとめると,本論で提案している中訳語を特定するためのとりたて詞の意味解析は,表~\ref{ruibetsu}に示す5種類の関係要素の属性,特徴によって行うことになる.関係要素の属性についての条件は,品詞,活用形,肯(否)定式,ムード,成分及び文の構造特徴などのさまざまの角度から記述する.記述の細かさは,その記述によって他の意味用法との区別及び中国語への訳し分けが可能な程度に分解されればよい.例えば「X=人を表す名詞/数量詞/述語\hspace{1zw}P=仮定形/否定式/勧誘のモダリティ.X$^{\prime}$=普通数量詞の主語」など.\begin{table}[htbp]\begin{center}\caption{確意味の判定条件の類別}\label{ruibetsu}\begin{tabular}{|l|l|}\hline1&Xの属性\\\hline2&Pの属性\\\hline3&日本語側のパターン特徴\\\hline4&X$^{\prime}$の属性\\\hline5&日本語,中国語文の構文特徴\\\hline\end{tabular}\end{center}\end{table}以上の分析に従い,「も,さえ,でも」の三つのとりたて詞の意味解析を行った.表~\ref{kaisekikisoku}にその解析の規則を示す.(表~\ref{kaisekikisoku}の意味分類欄の数字は表~\ref{imibunrui}の意味分類の数字と対応する.)\begin{table}[pt]\begin{center}\vspace*{-2em}\caption{とりたて詞「さえ」,「も」,「でも」の意味解析規則}\label{kaisekikisoku}\epsfile{file=figures/Table3.eps,scale=0.82}\end{center}{\footnotesize[表~\ref{kaisekikisoku}に関する注]\renewcommand{\labelenumi}{}\begin{enumerate}\setlength{\labelwidth}{15pt}\item表~\ref{kaisekikisoku}中のPは「する,なる,ある」などの補助動詞以外の述語である.\item※が付いている処は完全に区別できない場合がある.それについての詳細な分析は5.2節の問題点考察に譲る.\item「も」の2のaのX$^{\prime}$の属性は,「普通数量詞の賓語」は実際に「普通数量詞の賓語」と「普通数量詞の補語」の二つの場合があるが,ここで統一に数量賓語とする.\end{enumerate}}\end{table}\renewcommand{\labelenumi}{}\subsection{とりたて詞に対応する訳語の語順処理}格標識がない中国語には,語順は構文上で重要な役割を果たしている.とりたて詞に対応する中訳語T$^{\prime}$は副詞,介詞,連詞など様々であり,文中での位置も様々であるが,基本的には取り立てられる対象の中訳語X$^{\prime}$に関係して位置が決まる場合とX$^{\prime}$とは無関係に位置が決まる場合の2つの場合がある.例えば,「さえ」の「最低限の条件」の意味に対応する訳語は「只要$\cdots$就$\cdots$」である.「只要」の語順は,文法上の約束により,条件節の主語の前あるいは直後に置き,「就」は主節の謂語部の前に置く.つまり,「只要」の位置はX$^{\prime}$とは無関係に位置が決まる.一方では,「も」,「さえ」の「意外性」の意味に対応する訳語の「\kanji{c}$\cdots$也$\cdots$」の場合,「\kanji{c}」はX$^{\prime}$が成分として主語,謂語,賓語,状語などのいずれであっても,X$^{\prime}$の前に置く(「也」謂語部の前に置く).すなわち,「\kanji{c}$\cdots$也$\cdots$」の位置がX$^{\prime}$に関係して決まる.文献~\cite{lu80,yu98}を参考にして,3つのとりたて詞の中訳語T$^{\prime}$の位置に関して調査分析し,語順処理規則を作成した(表~\ref{tposition}).\begin{table}[p]\begin{center}\vspace*{-2em}\caption{T$^{\prime}$の位置を決める規則}\label{tposition}\epsfile{file=figures/Table4.eps,scale=0.74}\end{center}{\scriptsize[表~\ref{tposition}に関する注]\renewcommand{\labelenumi}{}\begin{enumerate}\setlength{\labelwidth}{15pt}\item「$\cdots$和$\cdots$都$\cdots$」に関して,並列謂語の間に置くのは,その謂語は双音節詞及びその前後に共通的な連体成分があるという条件が必要である.また表~\ref{kaisekikisoku}では,この訳語に,X1$^{\prime}$とX2$^{\prime}$=主語/状語/賓語の条件であるため,X1$^{\prime}$とX2$^{\prime}$=謂語の場合を無視してもよい.\item表~\ref{tposition}にある訳語は上記の品詞以外,他の品詞を兼ねる可能性もあるが,ここでは表~\ref{kaisekikisoku}の意味に対応する時の品詞のみを扱っている.\item主語,賓語の前に定語があれば,T$^{\prime}$はその定語の前に置く.\item一つの文で大主語,小主語が同時にあり,X$^{\prime}$=小主語であれば,「連」「即使」は小主語の前に置き,X$^{\prime}$=大主語であれば,「連」「即使」は大主語の前に置く.\item文は複文で,いくつかの謂語がある場合,ここの語順規則で言っている謂語は,指定するもの以外に,X$^{\prime}$にもっとも近い謂語である.しかし,実際に適応しない例もあった.\end{enumerate}}\end{table}\renewcommand{\labelenumi}{}\subsection{他品詞との区別の処理}表層ではとりたて詞と同じ表現であるが,品詞が異なる場合がある.たとえば「でも」には,とりたて詞「でも」の他に,\renewcommand{\theenumi}{}\begin{enumerates}\item接続助詞の「でも」\item場所/道具格助詞「で」+とりたて詞「も」\item助動詞「だ」の連用形「で」+とりたて詞「も」\item逆接の接続詞「でも」\end{enumerates}などの場合がある.言語学的には,例えば~\cite{kinsui00}で,\renewcommand{\theenumi}{}\begin{enumerates}\item分布の自由性\item任意性\item連体文内性\item非名詞性\end{enumerates}という四つの統語的特徴を同時に持つ場合がとりたて詞であると分析している.しかし,このような基準はコンピュータで判断することは不可能である.この問題の解決は困難であるが,部分的には関係要素の属性を用いて解決できる場合もあり,また曖昧性を保留したままで中訳語を決めることができる場合もある.これについての詳細な分析は第5.2節の問題点と第5.1節の表~\ref{demodemo}に譲る.\subsection{とりたて詞が慣用句の中に現れる場合の処理}上記のとりたて詞と同形の他品詞の用法以外,他の言葉と接続し,固定的な用法を構成する同形の表現も多い(例えば,「言うまでもなく」,「それでも」).このような慣用句の中に含まれるとりたて詞と同形の表現は,上記の処理と別に,慣用句として対訳辞書を作ることにより解決すべきであると考える. \section{3つのとりたて詞の翻訳手順} \subsection{とりたて詞の全体の翻訳手順}上記の過程を総合すると,とりたて詞を含む文の翻訳アルゴリズムは下記のようになる.\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\renewcommand{\labelenumii}{}\renewcommand{\theenumii}{}\begin{enumeratess}\itemとりたて詞Tを含む日本語文を構文解析する.\itemとりたて詞以外の部分の中国語への翻訳を行い,中国語骨格文を得る.\itemとりたて詞の翻訳は下記のように行う.\begin{enumeratess}\item日本語側の取り立てられる部分X,述語P,Xの中訳語X$^{\prime}$や構成したパターンの特徴,日,中文の構文特徴などを表~\ref{kaisekikisoku}の条件と照合し,中訳語T$^{\prime}$を決める.\itemT$^{\prime}$X$^{\prime}$等の属性を表~\ref{tposition}と照合し,T$^{\prime}$の位置を特定する.\end{enumeratess}\item2の中国語骨格構造と3で得た結果を総合して生成し,T$^{\prime}$を含む中国語文を得る.\end{enumeratess}\subsection{翻訳手順の例}以下に「さえ」,「も」,「でも」を含む例文をそれぞれ一つ挙げ,その翻訳のアルゴリズムを述べる.\subsubsection{「さえ」を含む例文の翻訳}\renewcommand{\labelenumi}{}\renewcommand{\labelenumii}{}\begin{enumerates}\setcounter{enumi}{16}\itemあなた\underlines{さえ}同意すれば,私が反対するわけはないのだ.\begin{enumerate}\item構文解析し,下記の各情報を得る.\\\begin{tabular}{lll}とりたて詞&(T)=さえ&\\取り立てられる部分&(X)=あなた&(X$^{\prime}$)=\kanji{j}\\述語&(P1)=同意する&(P1$^{\prime}$)=同意\\\multicolumn{3}{l}{日本語文主節=私が反対するわけがないのだ}\\\multicolumn{3}{l}{中国語文主節=我\underlines{是}不会\kanji{k}\kanji{l}的}\\\multicolumn{3}{l}{日本語文の構造「XさえP1$\cdots$P2」}\\\multicolumn{3}{l}{中国語文の主節は「是$\cdots$」の構造である}\end{tabular}\itemstept1の結果と表~\ref{kaisekikisoku}を照合する.\\パターン=「XさえP1$\cdots$P2」,P1=仮定形,中国語文の主節は「是$\cdots$」の構造という条件で,表~\ref{kaisekikisoku}の「さえ」の意味分類1のB状況の訳語と照合して,訳語「只要」を選択する.\item「只要」をもって,表~\ref{tposition}の語順処理規則と照合し,『「只要」を条件節の主語の直前に置く.』という語順を得る.この場合,中国語骨格文において条件節の主語は「\kanji{j}自己」であることが分っているので,「只要」を「\kanji{j}自己」の直前に置く.\itemstept3の結果と他の骨格部分と共同に生成し,下記の訳文を得る.\\訳文:只要\kanji{j}自己同意,我是不会\kanji{k}\kanji{l}的.\end{enumerate}\end{enumerates}\newpage\subsubsection{「も」を含む例文の翻訳}\begin{enumerates}\setcounter{enumi}{17}\item誰\underlines{も}が私の友達だ.\begin{enumerate}\item構文解析し,下記の各情報を得る.\\\begin{tabular}{lll}とりたて詞&(T)=も\\取り立てられる部分&(X)=だれ(疑問詞)&(X$^{\prime}$)=誰\\述語&(P)=私の友達だ.\\&\multicolumn{2}{l}{P$^{\prime}$=是我的朋友.且P$^{\prime}$は肯定式}\\\multicolumn{3}{l}{日本語文の構造は「XもP」}\\\end{tabular}\itemstept1の結果と表~\ref{kaisekikisoku}と照合する.\\パターン=「XもP」,X=疑問詞,P=肯定式という条件で,表~\ref{kaisekikisoku}の「も」の意味分類3のaと照合して,訳語「都」を選択する.\item「都」をもって,表~\ref{tposition}の語順処理規則と照合し,『X$^{\prime}$=主語/状語/補語ならば,「都」をそれらの成分の直後に置く.』という語順を得る.この場合,中国語骨格において,X$^{\prime}$「誰」は主語であることが分かっているので,「都」を「誰」の直後に置く.\itemstept3の結果と他の骨格部分と共同に生成し,下記の訳文を得る.\\訳文:\kanji{m}都是我的好朋友.\end{enumerate}\end{enumerates}\subsubsection{「でも」を含む例文の翻訳}\begin{enumerates}\setcounter{enumi}{18}\item一円\underlines{でも}浪費したくない.\begin{enumerate}\item構文解析し,下記の各情報を得る.\\\begin{tabular}{lll}とりたて詞&(T)=でも\\取り立てられる部分&(X)=一円=最小数量詞&X$^{\prime}$=一日元\\述語&(P)=「浪費したくない」\\&\multicolumn{2}{l}{P$^{\prime}$=「不想浪\kanji{n}」且Pは確言式(ムード)}\\\multicolumn{3}{l}{日本語文の構造は「XもP」}\\\end{tabular}\itemstept1の結果と表~\ref{kaisekikisoku}と照合する.\\パターン=「XでもP」,X=最小数量詞,P=確言のムードという条件で,表~\ref{kaisekikisoku}の「でも」の意味分類2の一つの状況と照合して,訳語「即使$\cdots$也$\cdots$」を選択する.\item「即使$\cdots$也$\cdots$」をもって、表~\ref{tposition}の語順処理規則と照合し,『「即使」をX$^{\prime}$の前に置き,「也」を状語/謂語の前に置く(状語と謂語があれば状語を優先とする).』という語順を得る.この場合,X$^{\prime}$=一日元,中国語骨格において,謂語は「不想浪\kanji{n}」であることが分かっているので,「即使」を「一日元」の前に置き、「也」を「不想浪\kanji{n}」の前に置く.\itemstept3の結果と他の骨格部分と共同に生成し,下記の訳文を得る.\\訳文:即使一日元也不想浪\kanji{n}.\end{enumerate}\end{enumerates} \section{翻訳規則の評価と問題} \subsection{評価}以上の翻訳手順を「も」,「さえ」,「でも」の各100例文について手作業により評価した.評価データは『朝日新聞』の「天声人語」の約6万文から抽出した.この約6万文を我々の研究室で開発した文節解析システムIbukiで解析したところ,「も」,「さえ」,「でも」を持つ文はそれぞれ7897,168,1039文あった.それらを先頭から順次チェックし,同形の他品詞や慣用句を構成する表現を除外しながら各100文を抽出した(表~\ref{100bun}).この各100文に対して,我々の翻訳手順を手作業で適用し,その結果を人手で判断し,評価した(表~\ref{hyouka},表~\ref{algo}).表~\ref{hyouka}は我々の意味解析による訳語の妥当性,表~\ref{algo}は語順まで含めた妥当性評価である.またある市販翻訳ソフトとの比較も示した.表~\ref{hyouka},表~\ref{algo}はとりたて詞であることが分かっている場合に対しての評価であるが,表~\ref{100bun}には,各100文を抽出するために必要な文数と除外した状況を示した.表~\ref{demodemo}に「でも」の例文100文を抽出する際に必要であった総文数141とその内容,及びそれらを含めて評価した場合の訳語の正訳率を示した.これらの結果から見ると,全体として80%以上の正訳率であり,市販の翻訳ソフトの現状と比較すると,我々の方法は十分な有効性が期待できると考えている.\begin{table}[htbp]\caption{意味解析規則の評価(A:我々の訳B:市販ソフトの訳)}\label{hyouka}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline\multicolumn{1}{|c|}{とりたて詞}&例文数&\multicolumn{2}{|c|}{正訳数}&\multicolumn{2}{|c|}{正訳率}\\\cline{3-6}&&A&B&A&B\\\hlineも&100&97&77&97\,\%&77\,\%\\\hlineさえ&100&99&20&99\,\%&20\,\%\\\hlineでも&100&95&45&95\,\%&45\,\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{語順を含む翻訳アルゴリズムの評価}\label{algo}\begin{tabular}{|l|c|c|c|c|c|}\hline\multicolumn{1}{|c|}{とりたて詞}&例文数&\multicolumn{2}{|c|}{正訳数}&\multicolumn{2}{|c|}{正訳率}\\\cline{3-6}&&A&B&A&B\\\hlineも&100&93&61&93\,\%&61\,\%\\\hlineさえ&100&94&11&94\,\%&11\,\%\\\hlineでも&100&82&24&82\,\%&24\,\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{100文のとりたて詞を抽出するための必要文数と除外状況}\label{100bun}\begin{tabular}{|c|c|l|l|c|}\hlineとりたて詞&除外文数&\multicolumn{1}{|c|}{除外原因}&\multicolumn{1}{|c|}{例}&必要総文数\\\hlineも&2&\maru{1}解析の誤り(1文)&\maru{1}着もの&102\\&&\maru{2}慣用句用法(1文)&\maru{2}途方もなく&\\\hlineさえ&1&\multicolumn{1}{|c|}{解析の誤り}&\multicolumn{1}{|c|}{さえずる}&101\\\hlineでも&41&\maru{1}{他品詞}(31文)&\maru{1}地下街でも&141\\&&\maru{2}慣用句用法(10文)&\maru{2}それでも&\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{とりたて詞「でも」と同形の他品詞「でも」を含めた場合の正訳率統計}\label{demodemo}\begin{tabular}{|c|c|c|c|c|c|c|}\hline総文数&T&(b)&両方&慣用句&(c)&正訳率\\\hline141&100&30&16&10&1&79\,\%\\\hline\end{tabular}\end{center}{\small[表~\ref{demodemo}に関する注]「両方」は(a)と5.2節の(24)例のような「意外性」のとりたて詞にも(b)にも解釈できる場合.(b)(c)は,各々『場所/道具格助詞「で」+とりたて詞「も」』と,『助動詞「だ」の連用形「で」+とりたて詞「も」』の意味用法しか取れない場合.評価基準:「慣用句」と「両方」に属すものは正訳とし,(b),(c)ととりたて詞の「でも」との区別の条件は,X=用言ならば,とりたて詞とし,X=場所/道具を表す名詞ならば,場所/道具格助詞「で」+とりたて詞「も」とし,「でも」の後に「ある/ない」が付いていれば,助動詞「だ」の連用形「で」+とりたて詞「も」とした.また,この評価では訳語のみで,語順を考慮していない.}\end{table}\subsection{問題点と考察}現在の規則では,下記のような問題を残している.\subsubsection{}長い単文あるいは複雑な複文では,語順規則が正しくない場合がある.例えば,\begin{enumerates}\setcounter{enumi}{19}\itemそして,どんなに異様な植物\underlines{も},きれいな水といい土で育てれば,可愛いい花が咲き,毒も出さないことを知る.\\訳文:然后知道\underlines{不管}什\kanji{o}\kanji{p}的植物,只要有干\kanji{q}的水和肥沃的土,\underlines{都}会\kanji{r}可\kanji{s}的花,不\kanji{t}出\kanji{u}素.\item今は,どんな国\underlines{でも}発展しようとするなら,鎖国政策をとるわけにはいかない.\\訳文:\kanji{v}在(\underlines{不管}\,)什\kanji{o}\kanji{p}的国家如果要\kanji{t}展\underlines{都}不能采取\kanji{w}国政策.\end{enumerates}分析:(20)と(21)二例とも複雑な複文である.表~\ref{kaisekikisoku}によると,(20)の「も」も(21)の「でも」も「都」に訳す.表~\ref{tposition}によると,『X$^{\prime}$=主語/状語ならば,「都」を主語/状語の直後に置く.』ということになるが,実際は(20)では,主語の「植物」の直後ではなく,主節の謂語の「花が咲き(\kanji{r}花)」の直前に置く.(21)も主節の謂語「不能采取」の前に置く.訳語も「不管」を入れた方が自然である.これは,主語と謂語の間に,また条件節や,仮定節が入ると関係があると思われるが,どのような条件で語順を判断すればよいことか判然としない.\subsubsection{とりたて詞と同形の他品詞との区別の問題}とりたて詞と同形の他品詞との区別がはっきりとしない場合がある.「でも」には,次のような同形の他品詞がある.\renewcommand{\theenumi}{}\begin{enumerates}\item接続助詞の「でも」\item場所/道具格助詞「で」+とりたて詞「も」\item助動詞「だ」の連用形「で」+とりたて詞「も」\end{enumerates}\vspace{1em}\renewcommand{\theenumi}{}\begin{enumerates}\setcounter{enumi}{21}\item日曜日\underlines{でも}出勤しなければならない.\itemそんなことは子供\underlines{でも}知っている.\itemレーガン総統の構想については,米国内\underlines{でも}強い批判がある.\item宴会の席\underlines{でも},いい考えが浮かぶと急に立ち上がって消えてしまうことがあった.\item彼はダンサーであると同時に俳優\underlines{でも}ある.\end{enumerates}(22)と(23)は(a)と関わる問題である.どれが接続助詞かどれがとりたて詞か言語上でも必ずしも明確でないが,機械翻訳では,意味も中訳語も同様であるため,区別して処理する必要がない.(24)と(25)は(b)と関わる問題である.表現の形のみから見ると,2例とも『「意外性」のとりたて詞の「でも」』と,『場所格「で」+「も」』の解釈があり得る.人間なら,社会知識から(25)を「意外性」のとりたて詞の意味と取れるが,機械には困難である.(24)は人間にも二つの解釈があり得る.(26)は(c)の場合である.『助動詞「で」+とりたて詞「も」』の用法は,常に「ある/ない」が後続しているため,「意外性」のとりたて詞「でも」との区別が明白である.ただし「ある/ない」が後続しても,従属節の中に包まれていれば,「提案」の意味のとりたて詞の「でも」にもなり得るため,また曖昧性が残っている.\subsubsection{}文脈や状況,社会知識などに頼らなければ,とりたて詞の間の意味用法を区別できない場合がある.\begin{enumerates}\setcounter{enumi}{26}\itemその国では,7歳の子供\underlines{も}入学できる.\itemその国では,4歳の子供\underlines{も}入学できる.\end{enumerates}人間は社会知識によって,(28)の「意外性」を感じ,(27)の「他者への肯定」の意味と区別して理解できる.コンピーターには,構造も前後起語の属性も同じである(27)と(28)を区別するのは困難である.4節の規則では,頻度が遥かに高い「他者への肯定」の意味という解釈をとるように扱っている.5節の表~\ref{hyouka}の評価で誤った3例は,ともにこの区分に関するものである.ただし,X=動詞の場合には,Pが否定の形なら(Xもしない)「意外性」の用法,Pが肯定の形なら(Xもする),「他者への肯定」の意味であると推定できる.また,中国語でこの意味の訳語の「也」は,ある場合には「意外性」の意味も体現できるため,そのような場合には訳語の曖昧性が保留できる.また「も」の4番と6番の意味の区別も困難であり,我々の規則ではやはり頻度が大きい4番の解釈をとるようにしている.ただし6番の中訳語の一部は4番と同じの「也」になっていることもあって,評価では,誤った例は出現しなかった.「でも」の場合,1と2の意味を誤ったのが(29)の1件あった.\begin{enumerates}\setcounter{enumi}{28}\itemやはりトンボの短い一生\underlines{でも}楽しいことはあるのでしょう.\item彼はビール\underlines{でも}飲んだのでしょう.\end{enumerates}現在の規則で,Pは「の+だろう」のような概言のムードならば,「提案」の意味とする.この規則では(30)は正しいが,(29)の「でも」は「意外性」の意味である.また,Pが疑問文,命令のムードの場合も,1と2の意味ともあり得るため,曖昧さが残る.本規則では2番の意味を取るようにしている.\subsubsection{その他}\paragraph{}省略された表現の場合,判定条件が適用できない場合がある.\begin{enumerates}\setcounter{enumi}{30}\item回答は「美味しいサンドイッチ\underlines{でも}」だったが,それを上回る接待ぶりだった\end{enumerates}表~\ref{hyouka}の評価で,誤訳した「でも」の3例は(31)の例と同じく述語が省略されたあるいは述部に省略があるものであった.\paragraph{}「提案」の意味の「でも」は,中国語で不定代詞「什\kanji{o}的」,不定数量詞の「一点児」及び「$\phi$」などに訳しうる.しかしながら,どのような条件で訳し分ければよいか特定しにくい.\begin{enumerates}\setcounter{enumi}{31}\itemこんな暑いときに,アイスクリーム\underlines{でも}食べられればいいなあ.\\現在訳:\kanji{g}\kanji{p}\kanji{x}的\kanji{y}候,能吃上冰淇淋就好了.\\完全訳:\kanji{g}\kanji{p}\kanji{x}的\kanji{y}候,能吃上冰淇淋\underlines{什\kanji{o}的}就好了.\item仕方がない,弟と\underlines{でも}行くとするか.\\訳文:没\kanji{z}法,\kanji{z1}是和弟弟去\kanji{z2}.\itemまるで野中の一つ家に\underlines{でも}住んでいるような,隣近所に少しの遠慮もない,ぱりぱりした叫び方で$\cdots\cdots$.\\訳文:好象住在荒野似的,一点也不用\kanji{z3}\kanji{z4}周\kanji{z5}的人,用清脆的叫声$\cdots\cdots$\end{enumerates}現在の処理ではすべて「$\phi$」に訳しており,(32)の完全訳のようなニュアンスは表せない.しかし,(33)や(34)の例では,「$\phi$」に訳すのは適当である.なぜならば,(32)は提案されている「アイスクリーム」と関係の他要素は思いつくものであり,(33)はその他要素は実に存在しないためである.(訳語の「什\kanji{o}的」の使用により,「アイスクリーム」と同様の「西瓜,冷ジュース」などの冷たいものを暗示されている.)(34)のように,「でも」を含む節の述語が「ような,みたい」などの比況助動詞がついている場合は,「$\phi$」に訳すのも正確である.\paragraph{}ある中訳語は前後の文脈により,部分的に変化する場合がある.\begin{enumerates}\setcounter{enumi}{34}\itemどんな話題\underlines{でも}こなすにはどういう手があるか.\\訳文:\underlines{不管}什\kanji{o}\kanji{p}的\kanji{z6}\kanji{z7},要\kanji{z8}理好需要什\kanji{o}\kanji{p}的方法\kanji{z9}?\item金\underlines{さえ}あれば仙女でも買える.\\訳文:\underlines{只要}有\kanji{za}即使(就是)仙女也\kanji{zb}的起.\end{enumerates}(35)は表~\ref{imibunrui}の「でも」の意味分類の3のaに属する.(文末は「か」の疑問式であるが,この分類は「あるか」を肯定式とし,「ないか」を否定式とする.)表3の規則によると,「都」に訳すが,この例ではその代わりに「話題」の前に「不管」を付き,「都」は訳さないほうが自然である.原因として,「こなすには」という目的状語と関係あるようであるが,確定できていない.(36)は,「最低限の条件」を表す「さえ」であり,規則によると,「只要$\cdots$就$\cdots$」に訳すが,ここでは「只要$\cdots$」のみに翻訳する.しかし構文の特徴は表~\ref{kaisekikisoku}の1の意味のbの状況に属していない.ここの「就$\cdots$」の省略は後続する「譲歩」の「でも」と関係があると考える.即ち,「条件」文と「逆接」の文を一緒になると(他の「が,のに」も),条件を表す連詞「只要$\cdots$就$\cdots$」も「只要$\cdots$」に変化すると推測しているが,更に多くの例で証明することが必要である.上記の分析から,とりたて詞の意味は文脈知識,状況知識,世界知識のような言語外知識に依存する場合が多くあるとわかった.これらの知識は現在の機械翻訳の領域では,未だ処理することはできない.一方,対応する中訳語の弾力性により,曖昧性を保留したまま翻訳できる場合があることも分かった.\renewcommand{\labelenumi}{}\begin{enumeratess}\item「も」は,4,5,6番の意味とも,4番の訳語の「也」で翻訳できる場合がある.現在使用頻度の高い4番の「也」を選択しているため,5,6番の意味と区別できなくても,その二つの意味に属する一部の訳は正確である.\item「でも」の場合,2番の意味では,「意外性」と「譲歩」の二つのニュアンスがある.単純な意味から見ると,区別が存在する.しかし,中国語では,「即使$\cdots$也$\cdots$」という言葉は両方の意味とも表せるため,機械翻訳から,上記の二つの意味を一つとして処理することができる.\end{enumeratess}\renewcommand{\labelenumi}{} \section{おわりに} 本論文では,とりたて詞ととりたて詞に関連する文の構成要素との整合性に着目し,日中機械翻訳における取り立て表現の翻訳手法を提案した.本手法で,とりたて詞と,その取り立てられる部分と述部をパターンに構成し,その二つの要素に対する多方面の統語的,意味的な属性及びパターンの特徴,ないし中国語側の関係要素の属性などによって,取り立て表現の種々な意味用法を区別し,訳語を特定した.このような両言語から,関係要素の多方面の特徴からの条件制限は曖昧さに富むとりたて詞には適当だと考えられる.意味解析の時,目的言語の主導性を重視し,訳語の選択や訳語の曖昧さの保留などを十分に考慮した.また,とりたて詞の訳語の語順に対して,その文法上の約束以外に,中国語側の取り立てられる部分の成分や,それと訳語の位置関係などを分析し,語順特定規則を作成した.手作業によって,正訳率は各詞とも80\,\%以上であり,市販の翻訳ソフトと比較して,本手法の有効性を確認した.本論の提案は意味用法が複雑で,文法の用法と語彙的な意味を両方兼ねて持つとりたて詞の機械翻訳に,一つの手がかりを示したと考える.しかしながら,とりたて詞の意味上と構文上の活発な性質のため,同一詞の用法や,他品詞の用法と完全に区別が出来ない場合もあるし,訳文の訳語の語順が不自然の場合もある.複雑な複文における取立ての範疇や,文脈との関連などに対する分析は本論では取り上げていない.とりたて表現の翻訳は更に様々な角度からアプローチする必要がある課題である.残る12個のとりたて詞に対する考察と,これらの問題に対するさらなる分析,及び翻訳システムに組み込むことが,今後の課題である.\nocite{*}\bibliographystyle{jnlpbbl}\bibliography{391}\begin{biography}\biotitle{略歴}\bioauthor{卜朝暉}{1991年中国広西大学外国語学部日本語科卒.2001年岐阜大学教育学研究科国語科教育専修修了.教育学修士.現在同大学工学研究科電子情報システム工学専攻博士後期課程に在学中.日中機械翻訳に興味を持つ.言語処理学会、情報処理学会各学生会員.}\bioauthor{謝軍}{2000年岐阜大学大学院修士課程電子情報工学専攻修了.工学修士.現在、同大学院博士課程在学.機械翻訳,中国語処理の研究に従事.情報処理学会学生会員.}\bioauthor{池田尚志(正会員)}{1968年東大・教養・基礎科学科卒.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.人工知能,自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V05N04-05
\section{はじめに} WWWの普及とともに多言語情報検索,とりわけ,クロス言語検索(crosslanguageinformationretrieval,CLIR)に対するニーズが高まっている.CLIRによって,例えば,日本語の検索要求(キュエリ)によって英語ドキュメントの検索が可能となる.CLIRは,キュエリもしくは検索対象となるドキュメントの翻訳が必要となるので,IRよりも複雑な処理が必要となる\cite{hull97}.CLIRの多くは,キュエリを翻訳した後,情報検索を行なう.キュエリの各タームには,訳語としての曖昧性が存在するため,CLIRの精度は単言語でのIRよりも低い.特に日英間では,機械翻訳の訳語選択と同様に,対訳の訳語候補が多いので困難である\cite{yamabana96}.機械翻訳の訳語選択手法として,コンパラブルコーパスでの単語の文内共起頻度に基づいたDoubleMAXimize(DMAX)法が提案されている\cite{yamabana96,doi92,doi93,muraki94}.DMAX法は,ソース言語コーパスにおいて最大の共起頻度を持つ2つの単語に着目し,その2つの単語の訳語候補が複数ある場合,正しい訳語は,コンパラブルなコーパスにおいても最大の共起頻度を有するという事実に基づいた訳語選択手法である.機械翻訳においては,一つの単語は一意に訳されるべきであるが,CLIRにおいては,キュエリのタームは適切な複数のタームに訳される方が精度良く検索できることもある.シソーラスや他のデータベースによって適切に展開されたキュエリのタームは良い検索結果を導くことが報告されている\cite{trec,trec4}.CLIRにおけるキュエリタームの訳語選択の問題を解決するために,DMAX法を一般化したGDMAX法を提案する.GDMAX法では,コンパラブルコーパスを用いてキュエリタームの共起頻度を成分とする共起頻度ベクトルを生成し,入力キュエリと翻訳キュエリの類似度をベクトルとして計算して類似性の高い翻訳キュエリを選択する.本報告では,まず,CLIRにおけるキュエリの翻訳の課題について説明し,次に,GDMAX法によるキュエリタームの翻訳・生成ついて説明する.GDMAX法に関して,TREC6(TextRetrievalConference)の50万件のドキュメントと15の日本語キュエリを用いて実験したので報告する\cite{trec}. \section{キュエリタームの訳語選択} キュエリタームの翻訳では,検索精度が向上するよう適切な訳語集合を得ることが課題である.一般には,表~\ref{queryall}に示すように,ソースキュエリのターム$j_{i}$には,ターゲットキュエリのタームとして対訳辞書から$e_{i1}$,...,$e_{ik}$,...,$e_{ir}$の候補を得る.それぞれのソースキュエリのタームに対して適切な訳語集合を得なければならない.\begin{table}[htbp]\renewcommand{\arraystretch}{}\vspace*{-2mm}\caption{キュエリタームの選択}\begin{center}\begin{tabular}[tb]{|c|c|}\hlineSourcequeryterms&Targetqueryterms\\\hline$j_{1}$&$e_{11}$~~~$e_{12}$~~~...~~~$e_{1p}$\\$j_{2}$&$e_{21}$~~~$e_{22}$~~~...~~~$e_{2q}$\\…&…\\$j_{i}$&$e_{i1}$~~~...~~$e_{ik}$~~...~~~$e_{ir}$\\…&…\\$j_{n}$&$e_{n1}$~~~$e_{n2}$~~~...~~~$e_{nm}$\\\hline\end{tabular}\end{center}\label{queryall}\end{table}キュエリタームの翻訳には,パラレルコーパスやコンパラブルコーパスを用いるコーパスベースの手法,機械翻訳を含めて対訳辞書を用いる辞書ベースの手法,コーパスベースと辞書ベースを統合したハイブリッドな手法,の3種類がある\cite{hull97}.パラレルコーパスは,異なる言語の文書セットで,対訳関係が保証されたものであって,パラレルコーパスによって,キュエリの選択を高い精度で行なうことができるが,一般にはなかなか整備されていないので,適用ドメインが限定される.コンパラブルコーパスは,対訳コーパスほど異言語間で文書の対応が保証されていないが,記述内容の分野的同一性が保証されたものであり,同一の概念や表現がコーパス中に含まれる.コンパラブルコーパスは,収集しやすいが,関連性の低いタームもキュエリの中に含みがちである.また,辞書ベースの手法では,ドメイン毎に適切な訳語を柔軟に得ることが困難である.こういった問題を解決するためにハイブリッドな手法が研究されている.GDMAX法は,対訳辞書とコンパラブルコーパスを用いるハイブリッドな手法で,対訳辞書から得られた訳語候補の中から適切なものをコンパラブルコーパスを用いて抽出する. \section{GDMAX訳語選択法} GDMAX法は,DMAX法と同様に,対訳辞書およびコンパラブルコーパスにおけるタームの文内共起頻度を利用する.DMAX法は,ソース言語コーパスにおいて最大の共起頻度を持つ2つの単語に着目し,その2つの単語の複数の訳語候補の中から,コンパラブルコーパスにおける共起頻度を用いて訳語を選択する.DMAXのアルゴリズムは,以下の通りである\cite{doi93}.\begin{enumerate}\setlength{\itemsep}{-1mm}\itemコンパラブルコーパスにおけるタームの1文内の共起頻度をカウントする.\\{j}$_{i}(i=1\cdotsn)$:ソース言語のターム\\{e}$_{ij}(j=1\cdotsm_{i})$:{j}$_{i}$に対する$m_{i}$個のターゲット言語の訳語\\{f}({j}$_{a}$,{j}$_{b}$):ソース言語でのターム{j}$_{a}$,{j}$_{b}$の共起頻度\\{f}({e}$_{ai}$,{e}$_{bj}$):ターゲット言語のターム{e}$_{ai}$,{e}$_{bj}$の共起頻度\item$\max_{p,q}{f}({j}_{p},{j}_{q})$となる{j}$_{p}$,{j}$_{q}$を選択する.\\この段階では,{j}$_{p}$と{j}$_{q}$のターゲット言語の訳語が決定されていない.\item$\max_{r,s}{f}({e}_{pr},{e}_{qs})$となる{e}$_{pr}$,{e}$_{qs}$を選択する.\item{j}$_{p}$のターゲット言語の訳語を{e}$_{pr}$に決定する.\item{j}$_{q}$のターゲット言語の訳語を{e}$_{qs}$に決定する.\itemすべての{j}$_{a}(a=1\cdotsn)$のターゲット言語の訳語が決まるまで,2-5のステップを繰り返す.\end{enumerate}DMAX法は,機械翻訳における訳語選択のために開発されたもので,最大の共起頻度をもつ訳語のペアに着目して,決定的に訳語のタームを探索していく.一方,GDMAX法は,CLIRのために訳語集合を得るもので,ターゲット言語のタームをランキングするために,すべてのタームのペアの文書内共起頻度を考慮しながら探索する.共起頻度データがスパースな場合,ひとつの候補を選択できても,すべての候補をランキングすることは困難である.そこで,GDMAX法では,文内共起頻度よりも文書内共起頻度を用いる.GDMAX法では,ソース言語のキュエリタームとターゲット言語のキュエリタームからコンパラブルなそれぞれの言語コーパスを用いて,各タームの共起頻度を成分とするベクトル,共起頻度ベクトルを生成する.例えば,$n$タームからなる日本語キュエリからは,共起頻度ベクトルの列である${\bfF}_{jap}$が生成される.\begin{eqnarray*}{\bfF}_{jap}=({\bff}_{j}^{1},{\bff}_{j}^{2},..,{\bff}_{j}^{n})\end{eqnarray*}${\bff}_{j}^{p}$は,$~_{n}C_{p}$次元のベクトルで,同一文中の$p$個のタームの共起頻度である.つまり,GDMAX法は,キュエリを表現するために,ベクトル空間法におけるタームの代わりにタームの共起頻度を成分として用いる.以下の式において,${\bff}_{j}^{2}$は,任意の2つのタームが1文書中で共起する頻度から構成される.ここで,$f(j_{i},j_{j})$は,日本語コーパスにおけるターム$j_{i}$と$j_{j}$の共起頻度を正規化した値である.\begin{eqnarray*}{\bff}_{j}^{2}=(f(j_{1},j_{2}),f(j_{1},j_{3}),...f(j_{n-1},j_{n}))\end{eqnarray*}同様に,英語翻訳キュエリの共起頻度ベクトル列${\bfF}_{eng}$は,以下のように表現される.\begin{eqnarray*}{\bfF}_{eng}=({\bff}_{e}^{1},{\bff}_{e}^{2},..,{\bff}_{e}^{n})\end{eqnarray*}表~\ref{queryall}に示すような訳語候補が存在する場合,${\bfF}_{eng}$として,$p*q*r*..*m$通りの可能性が存在する.${\bfF}_{jap}$と${\bfF}_{eng}$の類似性,${\bfSim}({\bfF}_{jap},{\bfF}_{eng})$は,各成分の類似性,${\bfSim}({\bff}_{j}^{1},{\bff}_{e}^{1})$,${\bfSim}({\bff}_{j}^{2},{\bff}_{e}^{2})$,...,${\bfSim}({\bff}_{j}^{n},{\bff}_{e}^{n})$の関数と考えられる.ここでは,類似性${\bfSim}({\bff}_{j}^{p},{\bff}_{e}^{p})$を以下のようにコサインによって定義する.\begin{eqnarray*}{\bfSim}({\bff}_{j}^{p},{\bff}_{e}^{p})=\frac{({\bff}_{j}^{p},{\bff}_{e}^{p})}{|{\bff}_{j}^{p}||{\bff}_{e}^{p}|}\end{eqnarray*}実際には,データスパースネスの問題もあって,3ターム以上の共起頻度は,2タームの共起頻度と比べて無視できるほど小さくなることが多い.また,1タームの出現頻度は,非常に大きく,日英の単語がカバーする意味の違いを考えた場合,類似性における1タームの出現頻度の影響は抑制されるべきである.例えば,「米」というタームには,riceとUSAなどの意味があり,「米」の出現頻度が日本語コーパスにおいて多いからといって,訳語の一つであるriceがコンパラブルな英語コーパスにおいて出現頻度が多いとは限らない.そこで,ここでは,2タームの共起頻度にのみ着目してモデルを簡略化する.つまり,${\bfF}_{jap}$と${\bfF}_{eng}$は,${\bff}_{j}^{2}$と${\bff}_{e}^{2}$を用いて類似性を照合する.類似性は,以下に示すように,${\bfF}_{jap}$とその訳語候補である${\bfF}_{eng}$の内積を計算しコサインによって照合する.\vspace{-4mm}\begin{eqnarray*}{\bfSim}({\bfF}_{jap},{\bfF}_{eng})&=&{\bfSim}({\bff}_{j}^{2},{\bff}_{e}^{2})\\&=&\frac{({\bff}_{j}^{2},{\bff}_{e}^{2})}{|{\bff}_{j}^{2}||{\bff}_{e}^{2}|}\end{eqnarray*}訳語候補は,ベクトルの距離の近いものから順にランキングされる.例えば,日本語キュエリが3つのターム,$j_{1},j_{2},j_{3}$で表現される場合,2つのタームの共起頻度として,$f(j_{1},j_{2})$,$f(j_{1},j_{3})$,$f(j_{2},j_{3})$の3つの値がある.この日本語キュエリは,図~\ref{dmaxspace}の示すように日本語コーパス空間の三角形で表現できる.GDMAX法は,コンパラブルな英語コーパス空間において,$j_{1},j_{2},j_{3}$と相似に近い三角形$e_{1i},e_{2j},e_{3k}$を探索する.ある閾値を越えた類似性をもつ訳語集合が,検索で用いられる英語訳語キュエリタームとなる.\begin{figure}[htbp]\begin{center}\epsfile{file=./compspace.prn,height=5cm,width=8cm}\end{center}\caption{コンパラブルコーパスにおける類似性}\label{dmaxspace}\end{figure} \section{実験・評価} \subsection{実験方法}TREC6のドキュメントとトピックを用いて,GDMAX法を実験・評価する\cite{trec,trec4}.TREC6では,図~\ref{topic1e}に示すように,トピックと呼ばれる英語検索要求文が用意されている.それぞれのトピックには,関連があることが人手により確認されたリレバントドキュメントと呼ばれる正解データが準備されている.今回の実験では,図~\ref{topic1j}に示すように,英語トピックと等価な日本語トピックを15作成した.つまり,15の日本語トピックに関しては,英語ドキュメントのリレバントドキュメントが存在しており,この15の日本語トピックを入力として実験を行なう.トピックの内容は,政治,経済,科学,社会的なもので,およそ,50から100のタームのキュエリで表現される.検索対象となる英語ドキュメントは,ウォールストリートジャナールやAP通信などから抽出された約50万件の記事である.\begin{figure}[tb]\vspace*{-4mm}\begin{center}\epsfile{file=./topic1e.prn,height=5cm,width=8cm}\end{center}\caption{TREC英語トピック例}\label{topic1e}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=./topic1j.prn,height=5cm,width=8cm}\end{center}\caption{TREC日本語トピック例}\label{topic1j}\end{figure}訳語集合による検索の効果を確認するために,英語トピックから生成したキュエリによる検索,日本語キュエリの各タームの可能な英語訳語をすべて用いた検索,日本語キュエリの各タームの英語訳語を一つに絞った検索との比較を行なう.図~\ref{expenv}に示すように,以下の4種類の方法で生成された英語キュエリに関して,実験・評価を行なう.英語のキュエリタームの重みは,それぞれのトピックに対するリレバントドキュメントを含むトレーニングデータから与える.評価用のドキュメントには,トレーニングデータは含まない.重みの与え方としては,キュエリタームの全ドキュメント中の出現頻度とリレバントドキュメント中の出現頻度に基づく対数尤度比を用いて行なう\cite{trec4}.検索は,ベクトル空間モデルを用いており,重みつきのベクトルとして表現されたキュエリとドキュメントの内積を計算することでランキングする\cite{trec}.\begin{figure}[tb]\begin{center}\epsfile{file=./expenv2.prn,height=8cm,width=12cm}\end{center}\caption{実験環境}\label{expenv}\end{figure}\noindent{\bf・理想訳語キュエリ(理想訳):}キュエリタームは,人手によって作成された英語タームである.TRECの英語トピックから約50のストップワードを除外し,キュエリのタームとなる英単語を抽出して生成した英語キュエリで,理想訳として扱う.シソーラスや人手によるキュエリの拡張は行なわない.\noindent{\bf・可能訳語キュエリ(可能訳):}キュエリタームは,日英対訳辞書による訳語すべてである.日本語トピックは,形態素解析によって単語単位に分割され,約50のストップワードを除く自立語をタームとし,日英機械翻訳システムの約5万語の一般辞書(対訳辞書)を用いて,それぞれの日本語タームにリンクされた英語訳語すべてを可能訳としてキュエリタームとする.\noindent{\bf・機械翻訳キュエリ(機械翻訳):}キュエリタームは,日英機械翻訳システムによって選択されたものである.日本語トピックは,約5万語の一般辞書(対訳辞書)をもつ日英機械翻訳システムによって英語に翻訳される.英語に翻訳されたトピックは,理想訳語キュエリ生成と同様の手順で,英語キュエリに変換される.対訳辞書は,可能訳語キュエリ生成に用いたものと同一のものである.訳語を一つに絞る方法としては,機械翻訳システム以外に,代表訳語によるもの,DMAX法などコーパスを用いる方法などが考えられるが,ドメインに影響されずに安定した訳出を行なうルールベースの機械翻訳システムを用いることとした.\noindent{\bf・GDMAXキュエリ(GDMAX):}キュエリタームは,GDMAX法によって日英対訳辞書から選択されたものである.共起頻度データは,図~\ref{datamake}に示すように,コンパラブルコーパスと対訳辞書を用いて準備する.日本語トピックは,形態素解析によって単語に分割され,約50のストップワードを除く自立語をタームとして,すべての2つのタームの文書内共起頻度を日本語コーパスにおいてカウントする.日本語タームは,対訳辞書を用いて訳語となり得るすべての英語タームに変換する.対訳辞書は,可能訳と機械翻訳に用いたものと同一のものである.日本語コーパスとコンパラブルな英語コーパスにおいて,英語タームについても,すべての2つの組み合わせの文書内共起頻度をカウントする.例えば,図~\ref{datamake}に示すように,日本語ターム,「危機」と「水」には,英語タームとして,それぞれ,``crisis,precipice,criticalsituation,pinch,imminentdanger,emergency''と``water,aqua,plasma''が存在し,それぞれの組み合わせに対する共起頻度がカウントされる.日本語キュエリと英語キュエリから共起頻度を成分とするベクトルを生成し,ベクトルの類似度計算によって,類似した英語キュエリを求める.今回,ひとつのタームあたり平均3個程の訳語となるように,実験的にベクトルの類似性の閾値を0.85とした.この閾値を越える共起頻度ベクトルをもつすべての英語キュエリを類似キュエリとし,類似キュエリのすべてのタームから構成されるキュエリを作成して検索を行なう.\begin{figure*}[tb]\vspace*{-6mm}\begin{center}\epsfile{file=./datamake.prn,height=8.2cm,width=14cm}\end{center}\caption{共起頻度データの作成フロー}\label{datamake}\end{figure*}\subsection{日英コンパラブルコーパス}共起頻度データは,50万記事ずつの日英コンパラブルコーパスから抽出する.コーパスは,ドメインとサイズに関して,以下の点を考慮して収集した.\noindent{\bf・ドメイン:}実験対象となるドメインが,政治,経済,社会,科学の分野であることから,これらの分野に関する新聞,雑誌記事を収集する.コンパラブルコーパスを用いることの利点の一つは,その収集しやすさであることから,ジャンルや話題の一致などの特別な調整は行なわずに収集を行なう.ただし,新聞記事の時間情報に着目して,日英ともに10年未満のものとし,時間的な共有を図る.実験をオープンテストとするために,検索対象となるドキュメント(TRECドキュメント)は,コーパスの中に含めない.\newpage\noindent{\bf・サイズ:}コンパラブルコーパス作成のために収集した記事の平均的サイズは,日本語約500文字,英語約300単語であり,共起頻度は記事毎にカウントする.コーパスのサイズが小さく共起頻度データがスパースになると,GDMAXの有効性が低下すると予想されるので,共起頻度データが0となるタームの対が,極力少なくなるまでデータを収集する.データサイズは,大きければ大きいほどデータスパースネスの問題は解消されるが実験コストが大きくなる.今回のトピックを用いて実験するために,9,815対の日本語キュエリタームの共起頻度データが必要であり,英語タームは,すべての訳語候補の組合せとして,166,111対の共起頻度データが必要であった.日英50万件の記事を収集した時点で,頻度0の日本語ターム対は96対,英語ターム対は2,503対となった.ターム対総数に対する0件のターム対の割合が,日英ともに1〜2\%程度であり,共起頻度0のターム対がほとんど増加しなくなったので,データスパースネスの問題は少ないと判断し,かつ,現実的に実験可能なサイズであることから,50万件ずつのコンパラブルコーパスを用いて実験を行なうこととした.\subsection{実験結果}4つの方法で生成されたキュエリの各タームに先に述べたように対数尤度比によって重みをつけ,ベクトル空間モデルによってドキュメントとの類似性を計算する.キュエリベクトルとドキュメントベクトルとの内積によってランキングされた1000件のドキュメントが,各キュエリ毎に出力される.適合率/再現率は,TRECの評価方法に基づいて4種類のキュエリによる検索結果に対して計算した\cite{trec}.TRECでは,各キュエリ毎にリレバントドキュメントが用意されており,このデータをもとに,interpolatedprecision-recallcurveを描く.これは,リレバントドキュメントの10\%,20\%,30\%,40\%,50\%,60\%,70\%,80\%,90\%,100\%を含むように上位の検索結果をとった場合の精度をプロットして曲線を描くもので,それぞれ4つの方法に対して,15件のキュエリの平均をプロットした結果,図\ref{result}に示すような適合率/再現率曲線(precision-recallcurve)を得ることができた.\vspace*{0.5cm}\begin{figure}[htbp]\vspace*{-8mm}\begin{center}\epsfile{file=./eval2.prn,height=10cm,width=12cm}\end{center}\vspace*{-1cm}\caption{適合率/再現率曲線}\label{result}\end{figure}\vspace*{0.5cm} \section{考察} GDMAX法は,理想訳に比べて再現率の各ポイントの平均で約62\%の精度を得た.また,機械翻訳による手法と対訳辞書による手法と比べて,適合率/再現率ともに高い結果を得た.特に,実際にユーザがブラウズすることが多い再現率10\%までの精度に関して,GDMAX法は,機械翻訳による手法に比べて,約6\%,対訳辞書による手法と比べて,約12\%高い精度を得た.理想訳のキュエリよりも低かったのは,主に2つの理由による.第1は,対訳辞書が十分な語彙を持っていなかったことである.理想訳語が対訳辞書のエントリとして含まれていない場合と,エントリとしては存在するが,入力訳語の対訳としてのパスがない場合がある.IRにおいては,専門用語や固有名詞が精度の向上に大きく寄与する.今回,5万語の一般的な語彙に関する対訳辞書を用いたので,必ずしも専門用語や固有名詞の語彙が十分ではなかった.そのため,3つの手法によるキュエリの精度がすべて低くなっている.対訳の中に的確な訳語が含まれていなかったので,GDMAX法が正しい訳語を選択できなかった.第2は,タームの重み付けの問題である.タームの重みは,それぞれのトピックに対するリレバントドキュメントから計算されて付与されているが,GDMAX法によって得られた類似性の割合も考慮すべきである.類似性が低いタームであっても類似性の高いタームと同様の重みがつけられたことが,検索精度として大きな差を生じなかった原因と考えられる.今回の実験結果を基に,以下の課題に取り組む予定である.\noindent{\bf・対訳辞書}キュエリを翻訳するための適切な訳語を辞書の中に含むように対訳辞書を改良する.改良した対訳辞書を用いて,GDMAX法によるキュエリ,機械翻訳によるキュエリ,可能訳語すべてのキュエリ,TRECの英語トピックから作ったキュエリによる,4つの検索精度を比較する予定である.また,対訳辞書を改良した後,訳語選択能力を評価する.予め入力訳語ごとに選択されるべき訳語(集合)を明らかにしておき,選択能力を適合率と再現率で評価する.選択されるべき訳語とは,検索精度をベストにするものであるべきだが,ここでは,検索能力と訳語選択能力を切り分けるために,理想訳語およびその同義語を選択すべき訳語として評価する.\noindent{\bf・タームの重み調整と閾値の設定}今回の実験で,GDMAX法によるキュエリのタームの重みは,ベクトルとしての類似性を考慮しなかった.基本的には,タームの重みに類似度を掛け合わせて調整を図る必要がある.その時,ワードネットのようなシソーラスを用いて重み調整をコントロールする\cite{WORDNET}.例えば,類似性の高いベクトルの訳語タームと類似性が低いベクトルの訳語タームが,シソーラスによって同義語関係があることが保証された場合,タームの重みを調整する必要はないと考えられる.タームの重みの調整方法は,実験的に最適なものを見つけていく.また,今回の実験では,平均選択訳語数の観点から類似度の閾値を設定したが,閾値は,検索精度が最適となるように設定されるべきものである.実験的に最適な閾値を求めていく.類似ベクトルの選択方法としては,類似度の絶対値を閾値とするのではなく,類似度の差分を用いる方法も考えられる.例えば,ランキングされたベクトルの1位と2位の差分,2位と3位の差分,…というように差分を比較して,その差分がある一定の値を超えたところを境界として選択することができる.他の統計的な手法も含めて,ランキングされたベクトルからの選択手法について検討する.\noindent{\bf・多次元的な類似性照合}今回のモデルでは,2タームの共起頻度,${\bff}_{j}^{2}$に着目して,${\bfF}_{jap}$と${\bfF}_{eng}$の類似性を照合した.厳密には,${\bfF}_{eng}$の他の次元の共起頻度ベクトルも${\bfF}_{jap}$と照合されるべきである.例えば,次元毎の重み$w_{p}$を各次元の類似度に掛け合わせて以下のような総合的な類似性が考えられる.\begin{eqnarray*}{\bfSim}({\bfF}_{jap},{\bfF}_{eng})=\sum_{p=1}^{n}{w}_{p}{{\bfSim}({\bff}_{j}^{p},{\bff}_{e}^{p})}\end{eqnarray*}計算が複雑になるので探索アルゴリズムを工夫する必要はあるが,少なくとも,主成分分析や他の統計的手法によって,重要な次元を認定する必要がある.\noindent{\bf・コーパスへの依存性}コンパラブルコーパスは,パラレルコーパスに比べて収集しやすく,ドメインへの依存性が少ない.さらに,本方式では,訳語を複数選択するので,訳語を一つに選択する手法よりもドメイン依存の影響は小さいと考えられる.その代わり,不要な訳語がキュエリに含まれる可能性が増えるが,選択された訳語集合の個々のタームにリレバンスデータから計算された重みをつけるので,不要な訳語の検索への悪影響を抑制することができる.実験によって,すべての訳語に重みをつけたもの(可能訳キュエリ)と,一つに選択したものに重みをつけたもの(機械翻訳キュエリ)の双方よりも精度が上回ったので,訳語集合としての選択と重み付けは効果があったと考えられる.しかしながら,その精度は,作成された共起頻度データの質に依存するものであり,共起頻度データの質的評価方法の確立が必要である.一つの方法として,パラレルコーパスとの比較において,コンパラブルコーパスの質を評価することが考えられる.パラレルコーパスによる共起頻度データを用いた方が,より正確に類似度の高い共起頻度ベクトルを求めることができるので,訳語集合を選択するためには好ましい.コンパラブルコーパスによる共起頻度データと,パラレルコーパスによる共起頻度データとの差異が,一つの質的評価基準となりうると考える.コンパラブルコーパスのいずれかの言語に関してパラレルコーパスを作成して,パラレルコーパスにおける共起頻度データとコンパラブルコーパスにおける共起頻度データを比較することができれば,コンパラブルコーパスとパラレルコーパスのずれを分析できるが,大量データでの実現は困難である.そこで,いくつかのドメインをサンプリングして,小規模でもパラレルコーパスとコンパラブルコーパスを作成して評価する方法が考えられる.例えば,すでにパラレルコーパスが存在するものをいくつかの異なる分野で収集して,パラレルコーパスと同じ分野のコーパスを類似文検索の手法を用いてそれぞれの言語で独立に収集することによって,コンパラブルコーパスを作成する.また,実際に収集したコンパラブルコーパスの中には,パラレルコーパスとなっているものもある.対訳辞書と統計情報を用いてテキスト照合を行なうことにより,パラレルコーパス部分を抽出することも可能だと考えられる\cite{Utsuro94al}.パラレルコーパス部分とコンパラブルコーパス部分を分離して,共起頻度データを作成して比較することで,コンパラブルコーパスの質の評価が可能になる.さらに,コーパスの量に関する評価として,コーパスの量と検索精度の関係を明らかにする必要がある.現状の50万記事以上を集めるのは,必ずしも容易ではないので,量を減少させた場合の検索精度の変化を測定する予定である.その際には,コーパスに含まれる記事のドメインの割合が同じくなるように変化させることが必要と考える.今後,上述した手法でコーパスの質と量に関する分析を行ない,コンパラブルコーパスの収集方法と質的・量的評価手法を確立していく. \section{関連研究} CLIRのシステムは利用するリソースから以下のように分類される\cite{hull97}.\noindent{\bf・コーパスベースシステム}コーパスベースシステムは,パラレルコーパスやコンパラブルコーパスをキュエリの翻訳のために用いる.LSI(LatentSemanticIndexing)は,行列の次元を縮退させる手法で,パラレルコーパスから言語に依存せずに,タームとドキュメントを表現することができる\cite{14,17}.LSIは,パラレルコーパスから抽出したタームとドキュメントの対応をターム/ドキュメント間頻度マトリクスに,特異値分析法(singularvaluedecomposition)を適用して,次元数を縮退し新たな空間を形成するベクトルを抽出する.LSIが,トレーニングコーパス以外のドメインでどの程度有効なのかは明らかではない.ETHは,疑似的なパラレルコーパスとシソーラスを用いて類似のキュエリタームを拡張しながら,ドイツ語キュエリをイタリア語キュエリに変換した\cite{26}.シソーラスを用いた類似性判定では,タームの分布状況によって,ドキュメントにまたがるタームを関連つける.拡張されたイタリア語キュエリタームが,イタリア語ドキュメントと照合される.この手法は,平均適合率で単言語の検索の約半分の精度を得たが,ドメイン依存の問題点がある.また,機械翻訳のためにコンパラブルコーパスから単語レベルの訳語知識を抽出する手法がいくつか提案されている\cite{Fung95,Fung97,Rappo95,Kaji96,Tanaka96}.訳語集合抽出に活用できる手法については比較・検討し,GDMAX法の改良のために参考としていく.\noindent{\bf・辞書ベースシステム}辞書ベースシステムは,対訳辞書によってタームやフレーズを翻訳しすべての翻訳結果を結合してキュエリを生成する.SPIRITは,ターム,複合語,イディオムの辞書を用いてキュエリタームを翻訳しブーリアンモデルによって検索する\cite{23}.この辞書ベースのシステムは,単言語検索の75-80\%の精度を得たが,機械翻訳システムでは,60-65\%の精度であった.この性能は,ドメイン対応辞書を作ってキュエリをマニュアル編集した結果によるものであり,機械翻訳においても,ドメイン辞書を用意して比較したものである.我々も,対訳辞書をドメインに適応させた後,GDMAX法に関して同様の比較実験を行なう予定である.辞書ベースシステムに関して,DavidHullは,自身のシステムの実験の中でキュエリの約20\%は,キュエリ翻訳の訳語の曖昧性の問題により,不適切なものになっていることを報告している\cite{hull97}.対訳辞書の改良とともに,GDMAX法に関しても同様の分析を行なう.\noindent{\bf・ハイブリッドシステム}ハイブリッドシステムは,キュエリ翻訳のために,辞書,コーパス,ユーザインタラクションなどを組み合わせて用いるもので,GDMAX法は,この範疇に属する.日英の言語対の報告ではないが,以下の評価結果とGDMAX法の結果を比較検討する予定である.マサチュセッツ大学では,翻訳前と翻訳後のフィードバックを用いる手法を提案している\cite{1}.キュエリの拡張には,キュエリタームと高頻度で共起するタームを選択する自動フィードバック手法が用いられている.キュエリ拡張は,ソース言語で翻訳前に,ターゲット言語で翻訳後に行なう.翻訳前のフィードバックは,検索結果と関係のないコーパスを用いて,翻訳後のフィードバックは,検索結果のコーパスを用いて行なわれる.はじめは,単言語検索の40-50\%の精度だったものが,キュエリ拡張により,60-65\%まで向上した\cite{1}.ニューメキシコ州立大学は,品詞タガーを使って,同じ品詞の訳語だけを選択するようにしている.さらに,各タームの訳語候補の中から,パラレルコーパス中のアラインメントされた文に着目して,最も対応性の高い訳語を選択する.CLIRの精度は,初期翻訳では40-50\%の精度であったが,この2段階の訳語絞り込みにより70-75\%の精度となった\cite{5}.CNRは,コンパラブルコーパスを用いた自動キュエリ翻訳の手法を提案している\cite{20}.ソース言語のキュエリタームは,限られた範囲内で共起する単語集合というプロファイルで表現される.ターゲット言語のキュエリタームに関しても同様のプロファイルが作成される.ソース言語のプロファイルは,対訳辞書を用いて翻訳され,ターゲット言語のプロファイルと最も類似しているものが認定される.その中で上位のターゲット言語のタームが,翻訳キュエリとして用いられる.この手法は,ソース言語キュエリとターゲット言語キュエリをプロファイルという別の形式で表現し比較する点において,GDMAX法と類似しているが,共起する単語というインスタンスで表現している点で異なる.GDMAX法は,共起頻度という数値と共起の次元数も複数とれるので,より一般的な記述と考えられる.CNRについては,具体的な評価結果が報告されていないが,同様の実験を日英に関しても行なって比較評価していきたい. \section{おわりに} 本稿では,クロス言語情報検索のためのキュエリ翻訳手法として,GDMAX法を提案した.GDMAX法をTREC6の50万件の英語ドキュメントと15の日本語キュエリを用いて実験評価したところ,理想訳に比べて再現率の各ポイントの平均で約62\%の精度を得た.また,適合率/再現率において,機械翻訳を用いる方法,対訳辞書を用いる方法よりも高い精度を得た.今後は,対訳辞書を整備しシソーラスと統合するとともに,GDMAX法の一般化によって検索精度の向上を図っていく予定である.\acknowledgment本研究を進めるにあたって,DMAX法に関して,C\&Cメディア研究所音声言語TGの土井伸一氏より,また,関連研究並びにGDMAX法の検討にあたって,C\&Cメディア研究所音声言語TGの山端潔氏より,有意義なコメントを頂きました.また,東京工業大学の田中穂積教授と徳永健伸助教授からは,論文作成にあたり大変貴重なコメントを頂きました.\bibliographystyle{jnlpbbl}\bibliography{draft}\newpage\begin{biography}\biotitle{略歴}\bioauthor{奥村明俊}{1984年京都大学工学部精密工学科卒業.1986年同大学院工学研究科修士課程修了.同年,日本電気株式会社入社.1992年10月より1年半南カリフォルニア大学客員研究員としてDARPA機械翻訳プロジェクトに参加.現在,C\&Cメディア研究所,主任研究員.自然言語処理,自動通訳システムの研究に従事.情報処理学会,人工知能学会,ACL各会員}\bioauthor{石川開}{1994年東京大学理学部物理学科卒業.1996年同大学大学院修士課程修了.同年,日本電気株式会社入社.1997年ATR音声翻訳通信研究所出向.現在,第三研究室,研究員.音声翻訳,情報検索の研究に従事.情報処理学会会員}\bioauthor{佐藤研治}{1989年京都大学工学部情報工学科卒業.1991年同大学院工学研究科修士課程修了.同年,日本電気株式会社入社.現在,C\&Cメディア研究所,主任.自然言語処理,情報分類の研究に従事.情報処理学会,人工知能学会,各会員}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V11N05-03
\section{はじめに} 近年,機械翻訳に関する研究が進み,日本語や英語をはじめとし,韓国語,中国語,フランス語など,主要な言語に関してはある程度実用的なシステムが構築されつつある.その反面,そうした研究の進んでいない言語や,機械翻訳の対象となっていない言語が残されているのも事実である.こうした言語においては,言語現象を学習するためのモノリンガル・コーパスや,翻訳知識を得るためのバイリンガル・コーパスなどが充分に蓄積されておらず,また,翻訳の要である対訳辞書の整備も進んでいないことが多い.そうした,比較的マイナーな言語に関する機械翻訳として,日本語--ウイグル語機械翻訳システム\cite{ogawa}が研究されている.このシステムにおいては,その原型となった日本語形態素解析システム\cite{ogawa2}の日本語辞書が,語彙として約25万語,形態素として約35万語を収録しているのに対して,日本語--ウイグル語対訳辞書\cite{muhtar2003}は語彙数約2万語,形態素数約3.6万語\footnote{漢字表記の語彙に対しては,その読みが別の形態素として登録されるため,語彙数と形態素数に差が生じる.}と少ないため,翻訳可能な文の数が限られてしまうという問題がある.このように,対訳辞書の規模は,そのシステムが処理できる文数と直接関わる重大な要素である.しかしながら,一般に辞書の構築はコストが高く,登録単語数を増やすことは容易ではない.これに対して,人間が翻訳作業をする場合を考えると,翻訳者は知らない単語を対訳辞書で検索するが,その単語が辞書に記載されていない場合,同じ意味の別の表現に言い換えて辞書を引く.本研究では,人間のこの行動を模倣し,対訳辞書に登録されていない自立語を,登録されている単語だけから成る表現に言い換えることにより,訳語の獲得を目指す.これにより,二言語間の言語知識が必要な問題を一言語内で扱える問題にすることができる.言い換えに関する研究は,近年,盛んに進められている\cite{yama01}.これに伴って,言い換えの目的に応じた種々の言い換え獲得手法が提案されている.これらの内,本研究で扱う自立語の言い換えに関するものに注目すると,概ね次の二つの手法に分けることができる.一つは,単語の用法や出現傾向,概念などの類似性を評価し,類似する表現を集める手法である\cite{hindle}\cite{cui}\cite{kasahara}.これらの中には言い換えを獲得することを直接の目的としないものもあるが,集められた類似表現を言い換え可能な語の集合と見做すことができる.もう一つは,国語辞書などにおいて単語の語義を説明している語義文を,その見出し語の意味を保存した言い換えと見做して利用する手法である.これに属する手法としては,語義文から見出し語との同等句を抜き出し,直接言い換える手法\cite{kajichi}\cite{ipsj02}や,2つの単語間の意味の差を,単語の語義文における記述の差異として捉え,言い換えの可否を判定する手法\cite{fuj00}\cite{fujita}が挙げられる.従来,自立語の言い換え処理は,この二つの分類のどちらか一方の手法を適用して言い換えを得る,一段階の処理として扱われてきた.これに対して,Murataら\cite{murata}は,言い換え処理を次の二つのモジュールに分割した.一つは,用意した規則を元に,入力表現を可能な限り変換するモジュールであり,もう一つは,変換された表現の内,言い換えの目的に最も適ったものを選び出す評価モジュールである.ただし,変換のための規則は,言い換えの前後で意味が変わらないものであることを保証する必要がある.処理を分割することによって,評価モジュールにおける評価の観点を変えることが可能となり,様々な言い換え目的に対して,汎用的な言い換え処理モデルを提供できるとしている.しかし,この手法では,あらかじめ変換規則を検証しておく必要があるほか,従来の言い換え獲得処理に関する手法を柔軟に適用できないという問題がある.そこで,本研究では,この言い換え処理の段階分けの考え方をさらに進めて,可能な限り類似表現を収集する{\bf収集段階}と,収集された言い換え候補について,言い換えの目的に適う表現を選び出す{\bf選抜段階}とに分けることを考える.このように分割することにより,各段階において,類似度に基づく手法と語義文に基づく手法とを別々に適用できる.さらに,言い換えの対象となる単語に合わせて,その組み合わせ方を変えることができる.本論文では,収集段階に語義文に基づく手法を,選抜段階に類似度に基づく手法を用い,両者を組み合わせることによって適切な言い換えを獲得する手法について提案する.さらに,獲得した言い換えを日本語--ウイグル語翻訳システムで翻訳し,それを辞書に追加することによる対訳辞書の拡充実験も行った.以下,本論文では,第2章において現在までに研究されている言い換え処理技術について,その概要を述べて整理する.次に第3章において,言い換え処理を収集段階と選抜段階に分割し,それぞれに第2章で述べた従来の研究を適用する手法について提案する.第4章においては,第3章で提案した言い換え手法を用いた実験と,さらに対訳辞書の拡充実験について報告する.最後に,第5章は本論文のまとめである. \section{言い換え処理技術の分類} 一般に,言い換え処理は「(同一言語内での)同義表現への言い換え」と捉えることができる.しかし,工学的な言い換え処理を考える場合に,「明示的な意味が同一である表現への言い換え」として捉えると,対象が限定され過ぎてしまう.これに対して,山本\cite{yama01}は言い換え処理を「何かが同一なものへの変換」ではなく「何かの目的を満たす表現への変換」と捉えた.そして,入出力の同一性ではなく,入力表現に対する基準達成の是非に着目し,言い換え処理を「言語表現と換言因子を入力とし,換言因子に沿うように入力表現を変換する処理」と定義している.ここで換言因子とは,言い換え処理を施す目的であり,山本\cite{yama01}では,表\ref{inshi}ような例が挙げられている.こうした換言因子ごとに,さまざまな言い換え処理が研究されているが,自立語を類似する別の表現に変換するという点に着目すれば,その手法は,語義文ベースと類似度ベースの二つに大別することができる.各手法について,以下にまとめる.\begin{table}[tb]\caption{\label{inshi}換言因子}\begin{center}\begin{tabular}{l|l}\hline換言因子&説明\\\hline入力誤り訂正&誤りのない表現に\\推敲/校正&より自然な表現に\\計算機処理に対する頑健化&構文解析に可能な表現に\\要約&より短く\\詳細化&(計算機/人間にとって)より曖昧さの少ない表現に\\簡潔化&易しく分かりやすく\\文体&話し言葉/書き言葉に\\性別&男言葉/女言葉に\\年齢&子ども/高齢者の言葉に\\方言&方言に/共通語に\\換言因子なし&狭義の換言処理\\\hline\end{tabular}\end{center}\end{table}\subsection{語義文ベースの手法}\label{subsec:usingdescriptionofwordmeaning}国語辞書の語義文は,見出し語の意味を説明したものであると同時に,意味を充分保存した言い換えであると見ることができる.このような見地に基づく語義文を利用した言い換え獲得手法を,本研究では語義文ベースの手法と呼ぶ.これに属する研究として,次のような例が挙げられる.\begin{itemize}\item語義文への直接言い換え一般に,国語辞書の語義文には見出し語の意味に加えて,用法・用例なども合わせて記載されている.そのため,そうした余分な記述を削除した言い換えを獲得する必要がある.このための手法として,鍛治ら\cite{kajichi}は,コーパスを用いて言い換え対象の文と語義文間の格フレームを対応付け,言い換えの際に不必要な格を選定することにより,同等句のみを抜き出してる.また,釜谷ら\cite{ipsj02}は,辞書に固有の語義文のパターンに注目し,不必要と考えられる部分を削除するルールを人手により作成し,同等句を切り出している.\item語義文を利用した意味の差分評価藤田ら\cite{fujita}は,単語の語義文の表現の重なりに着目し,単語間の意味の差を評価した.さらに,その重なりの程度を制約とすることで,ある程度良質な言い換えを生成できることを確認している.\end{itemize}\subsection{類似度ベースの手法}対象となる単語と他の単語との,共起傾向の類似性や概念的な近さを評価することによって類似度を算出し,それに基づいて類似する単語を集める手法を,本研究では類似度ベースの手法と呼ぶ.こうした研究の多くは,言い換えの獲得よりも類似する単語を集めることを目的としているが,類似する単語グループを言い換え可能な対象と考えることができる.こうした研究には,以下のようなものがある.\begin{itemize}\item単語の共起傾向に基づく類似性Hindle\cite{hindle}は,直接評価することが難しい単語間の類似度を,コーパスにおける単語の共起パターンを利用して評価した.この手法は,類似した名詞同士は同じ共起パターンを示すという仮定に基づいている.Hindleは,英語コーパスから共起関係にある主語--動詞--目的語の組を抽出し,その共起傾向の類似性から名詞間の類似度を評価する手法を提案している.\itemシソーラス上の概念間距離に基づく類似性崔\cite{cui}らは,単語の振る舞いや使われ方から見た類似度の尺度として,EDR日本語概念体系上での概念間の距離から計算した類似度を用いた.その際,注目している単語そのものに付けられている概念だけではなく,その上位概念間の一致も含めた類似度を考慮して類似度を補正している.この手法は,言語に依存しない概念体系を用いるため,任意の言語の任意の二つの単語に対して類似度が計算可能である.\item概念の知識ベース(概念ベース)に基づく類似性笠原ら\cite{kasahara}は,ある単語の国語辞書の語義文中に現れる単語を属性とみることで,その単語の概念を特徴づけた.例えば,「馬」に対する語義文が,「家畜の一.たてがみが長い.草食の動物で$\cdots$動物$\cdots$.」と与えられた場合,「馬」の概念は,その語義文を構成する「家畜」,「たてがみ」,「動物」などの単語によって特徴付けることができるとした.そして,各単語の概念を,属性を軸としたベクトルによって表現し,二つの単語の概念のベクトルがなす角の余弦を基に類似性を評価している.\end{itemize} \section{対訳辞書拡充のための言い換え処理} \subsection{本研究における換言因子}本研究の目的は,日本語--ウイグル語対訳辞書の拡充のための言い換えであり,換言因子は「既存の日本語--ウイグル語対訳辞書で翻訳可能,かつ,意味的な過不足の少ない語句への変換」となる.ここで,「既存の日本語--ウイグル語対訳辞書で翻訳可能」という条件は,本研究の最終的な目的である,対訳辞書の拡充に根ざした因子である.「意味的な過不足の少ない」という条件は,本研究によって対訳辞書を拡充した結果,翻訳前後で大きく意味が変わってしまったり,原文で伝えたい内容が失われることを防ぐための因子である.例えば,「単語数を\underline{漸増させる}」を「単語数を\underline{増やす}」と言い換えて翻訳した場合,原文における「漸増」の「だんだん」に相当する意味が失われてしまい,本来の内容とは異なる印象を与えてしまう.このような言い換えは,文脈によっては許容することができない場合がある.また,「\underline{単語}数を漸増させる」を「\underline{言語の最小単位}数を漸増させる」と言い換えて翻訳した場合,言い換えによる意味情報の欠落はないが,回りくどい表現を含んだ違和感のある文章になってしまう.本研究の目的を満たすためには,意味的な欠落が少なくて,翻訳処理を加えても違和感のない表現を,言い換えとして獲得する必要がある.\subsection{提案する言い換えの枠組み}従来の言い換え処理は,前章で述べたように,種々の言語知識からある言い換え表現を獲得する一段階の処理として考えられてきた.しかし本研究では,言い換え処理を,言い換えの候補を集める{\bf収集段階}とその中から不充分あるいは不適切なものを削除する{\bf選抜段階}の二段階に分けて処理する.このように分割することにより,収集段階では言い換え表現の多様性を重視した再現率の高い収集をし,選抜段階では言い換えとして不適格なものを削除する精度を重視した篩い分けをする,といったことが可能となり,多様性と品質に関してバランスの取れた言い換えを獲得することが期待できる.類似度ベースの手法と語義文ベースの手法は相補的な関係にあることから,本研究では,収集段階と選抜段階の各段階に,類似度ベースおよび語義文ベースの手法をそれぞれ組み合わせて適用することを提案する.類似度ベースの手法は,単語が持つ概念や語の振る舞いの類似性に基づいて言い換えを獲得する手法であり,語義文ベースの手法は,語義文という見出し語と意味的に等価なものを利用して言い換えを獲得する手法である.よって,この二つの手法を組み合わせることで,質の高い言い換えを獲得することが期待できる.そうした手法の内,本論文では,収集段階に語義文ベースの手法を,選抜段階に類似度ベースを用いた手法について述べる.以下,言い換え処理を施す対象となる単語を{\bf言い換え元},言い換え処理によって得られた語句を{\bf言い換え先}と呼ぶ.\subsection{語義文ベースでの言い換え先候補の収集}\label{subsec:collection}本手法では,辞書の語義文を利用して言い換え先の候補を作成する.その際に,\ref{subsec:usingdescriptionofwordmeaning}節で述べた釜谷ら\cite{ipsj02}の手法を用いる.具体的には,以下の手順で言い換え先候補を収集する.\begin{enumerate}\item語義文を,JUMAN\cite{kur99}で形態素解析し,さらにKNP\cite{kur98}によって係り受け解析する.これにより,文節情報と係り受け情報を得る.\item言い換え元が用言の場合は,言い換え先の終わりも用言になるのが望ましいため,語義文末の「こと」「さま」を削除する.\item語義文を構成する文節の組み合わせの内,元の語義文中の係り受け関係を崩さないものを言い換え先候補とする.ただし,語義文の末尾の文節\footnote{ただし,「こと」「さま」は,(2)で除去されているので,それを除いた末尾となる.}は見出し語を説明する上で主要な役割を果たしているという傾向に基づき,言い換え先候補に必ず含める.\end{enumerate}この言い換え先候補収集の手順を,言い換え元「総決算する」とその語義文「一定期間の収支をすべて決算すること」を例として図\ref{sokessanknp}に示す.まず,手順(1)において,KNPで係り受け解析がなされ,図\ref{sokessanknp}の上に示される文節情報および係り受け情報が得られる.さらに,言い換え元「総決算する」は用言であることから,手順(2)において,文末の``こと''が削除される.結果,言い換え先候補に含まれる可能性のある文節は,「一定期間の」,「収支を」,「すべて」,「決算する」となる.手順(3)で,「決算する」を含む全ての文節の組み合わせが作られる.ただし,元の係り受け関係が崩れてしまうような組み合わせである,「一定期間の決算する」などは候補から外す.以上により図\ref{sokessanknp}中の下に示す,6個の言い換え先候補が獲得される.\begin{figure}[t]\begin{center}\begin{minipage}[c]{.4\textwidth}\mbox{\epsfxsize=\textwidth\epsfbox{./sokessanknp.eps}}\end{minipage}{\Large$\Downarrow$}\hspace{50pt}\vspace{5pt}\begin{tabular}{clrl}1.&決算する&\hspace{20pt}4.&収支をすべて決算する\\2.&すべて決算する&5.&一定期間の収支を決算する\\3.&収支を決算する&6.&一定期間の収支をすべて決算する\\\end{tabular}\end{center}\caption{\label{sokessanknp}「総決算する」の語義の解析結果と獲得される言い換え先候補}\end{figure}\subsection{語の構成に基づく意味推定と意味因子}\label{seusec:meaningfactor}前節で収集した言い換え先候補から,言い換えとして意味的に過不足のない言い換え元の同等句を選び出す.そのためには,どの候補が最も適切な言い換えであるか,その指標を定めなければならない.例として,言い換え元「点火する」に対して,「灯す」「火を灯す」「物に火を灯す」という三つの言い換え先候補がある場合を考える.これらの中で言い換え元の同等句として相応しいのは,「火を灯す」である.日本語の単語の意味は,そこに含まれる部品の意味から構成されている場合が多い.「点火する」の例では,漢字``点''の意味「点ける」と,漢字``火''の意味「火」から「火を灯す」という語義が構成されているといえる.このように,その単語の意味を構成している意味の部品とも言うべきものを,本研究では{\bf意味因子}と呼ぶ.本研究では,{\bf[漢字]},{\bf[部分]},{\bf[全体]}の3種類の意味因子を定義し,言い換え元となる単語の意味は,この意味因子のいくつかの組み合わせで表現されていると考える.各意味因子の具体的な定義は以下の通りである.\begin{description}\item[漢字]言い換え元を構成している漢字一字ごとの意味漢字は表音文字であると同時に表意文字であるから,漢字によって構成された単語は,その漢字と関係のある語義を内包していると考えられる.先に例に挙げた「点火する」の意味は,漢字``点''の意味と漢字``火''の意味の合成によるもの考えられ,これらを最小の意味因子としてみることができる.\item[部分]言い換え元の意味のある部分例えば,「一括払い」という語は,「一括」と「払い」の二つの単語からその意味が構成されており,そうした言い換え元の一部が意味因子となる場合もある.\item[全体]言い換え元そのもの言い換え元全体で,その意味を表す場合がある.例えば,「右往左往する」という単語は,単純な漢字の語義の組み合わせで語義が構成されているのではなく,組み合わせたことによって,新たに「混乱する」といった意味が生まれたと考えられ,これ全体が意味因子である.\end{description}実際には,言い換え元がどの意味因子から構成されているかを求める必要がある.そのため,あらかじめ意味因子の候補を可能なだけ集め,言い換え先候補と比較することで意味因子を決定する.その際,[部分]と[全体]については,EDR日本語単語辞書\cite{edrdic}を引き,そこに記載されている概念識別子を各意味因子候補の概念識別子とする.多義語の場合には,複数の概念識別子が存在するが,そのすべてを利用する.そして,3.6節でこの概念識別子を利用して類似度を計算し,言い換え元がどの意味因子から構成されているかを決定する.なお,意味因子[部分]の場合,例えば「一括払い」における「括払」のように,EDR日本語単語辞書に掲載されていないものは意味因子の候補とはならない.また,EDR日本語単語辞書において名詞とサ変動詞(例えば「決算」と「決算する」)が区別されているため,意味因子候補として両方を考える.さらに,意味因子[漢字]の概念識別子は,次節で説明する漢字意味辞書に基づいて決定する.同様に,言い換え先に含まれる各自立語についてもEDR日本語単語辞書を引き,その概念識別子を求めておく.図\ref{paraph}に,言い換え元「総決算する」に対する意味因子の候補と,その言い換え先候補「一定期間の収支をすべて決算する」に含まれる自立語の概念識別子を示す.なお,これ以降,言い換え元と言い換え先のペア,例えば「総決算する→一定期間の収支をすべて決算する」を{\bf言い換え対}と呼ぶ.この例では,実際に意味因子となるのは,「決算する[部分]」と,「総[漢字]」である.その求め方については,3.6節以降で説明する.\begin{figure}[t]\begin{center}\begin{tabular}{c|l|l}\hline観点&\multicolumn{1}{c|}{語}&\multicolumn{1}{c}{概念識別子}\\\hline\multicolumn{3}{c}{{\bf言い換え元}}\\\hline[全体]&総決算する&0fa9e8,0faa02\\\hline[部分]&総&106cb1,3bf848,3cf3a0,0ea7e0,0fa8e0\\\cline{2-3}&決&0ef621,3ce68e,3ce80c,3ce93c,3cf0f2,$\ldots$\\\cline{2-3}&決算&3c3b1d,3c3b1e,3c3b1f,0ef51f,0ef520,$\ldots$\\\cline{2-3}&決算する&0ef51f,0ef520\\\cline{2-3}&算&3cf83a,3cf83a,0f37b0,0f37b1,3ce988,$\ldots$\\\cline{2-3}&算する&3cf060\\\hline[漢字]&総,決,算&---(漢字意味辞書中の語義に従う)\\\hline\hline\multicolumn{3}{c}{{\bf言い換え先候補}}\\\hline言い換え先候補中の&一定期間&1f9de1\\\cline{2-3}自立語&収支&3c4225\\\cline{2-3}&すべて&0e472c,3d04f3\\\cline{2-3}&決算する&3c3b1d,3c3b1e,3c3b1f,0ef51f,0ef520,$\ldots$\\\hline\end{tabular}\end{center}\caption{\label{paraph}「総決算する$\rightarrow$一定期間の収支をすべて決算する」における概念識別子}\end{figure}\subsection{漢字意味辞書}\label{subsec:kanjimeaningdic}前節で述べた意味因子[漢字]を使用するため,漢字の語義を記述した漢字意味辞書を広辞苑第四版(CD-ROM版)\cite{kojien}から以下の手順で構築した.\begin{enumerate}\item漢字一文字ごとに,その読みを区別せずに語義文を取り出す.\item意味番号,出典,用例など,辞書特有の付記情報を削除する.\item句点「.」ごとに語義文を分解し,ぞれぞれを一つの語義とする.例えば,語義文に「思慮.おもわく.」とあれば,「思慮」と「おもわく」を語義とする.\item辞書特有の表現である文末の「さま」,「こと」を削除する.\item「もの」,「人」及び,それに係る語を削除する.これは,これらの語が一般的であり,また,説明を補足するために用いられることが多いからである.\item削除した結果,文として不自然になったものを人手によって修正する.その際,語義に関する部分には手を加えず,あくまで不自然な部分の修正に留めた.\itemそれぞれの語義を,JUMANとKNPを利用して係り受け解析する.\item語義を構成する各自立語について,EDR日本語単語辞書\cite{edrdic}に示された概念識別子を意味因子[漢字]の概念識別子とする.\end{enumerate}なお,意味因子[全体]および[部分]の場合と同様に,多義語には複数の概念識別子が存在するが,それらをすべて利用する.本来ならば,類似度を求める際にその単語がどのような概念で使われているかを定め,それに基づいて計算する必要がある.しかし,こうした概念の特定は煩雑でコストがかかることから,本研究では,そうした特定も次の選抜段階で行うこととし,意味因子の候補を挙げる際には,すべてを列挙した.以上の作業によって作成した漢字意味辞書の一部を表\ref{kanwa}に示す.ここで,漢字に複数の語義があれば,それぞれについて項目を用意する.また,「総」に対する「糸/束ねる」や「決」に対する「可否/定める」のように,一つの語義が複数の自立語から構成される場合もある.\begin{table}[tb]\begin{center}\caption{\label{kanwa}漢字意味辞書の一例}\begin{tabular}{c|lcl}\hline漢字見出し&\multicolumn{1}{c}{語義}&語義品詞&\multicolumn{1}{c}{概念識別子}\\\hline&総&名詞&106cb1,3bf848,3cf3a0\\\cline{2-4}&糸&名詞&0e4dd9,0e4ddc,0e4ddd,$\ldots$\\総&束ねる&動詞&0fc4e7,3ce6ce,3ce7de,$\ldots$\\\cline{2-4}&\multicolumn{3}{|c}{$\vdots$}\\\hline&決める&動詞&0ec4a7,0ec4a9,0ef563,$\ldots$\\\cline{2-4}&思い切る&動詞&0e80d8,0ef623\\\cline{2-4}決&可否&名詞&0ea373,0ea374,0ea375\\&定める&動詞&0e7749,0ec249,0ef563,$\ldots$\\\cline{2-4}&\multicolumn{3}{|c}{$\vdots$}\\\hline&数&名詞&0e998b,0e998f,0f87d9,$\ldots$\\\cline{2-4}&勘定&サ変名詞&0eaeed,0eaeed,0eaeef,3cee38\\\cline{2-4}算&数&名詞&0e998b,0e998f,0f87d9,$\ldots$\\&数える&動詞&0e9ae2,3cf060\\\cline{2-4}&\multicolumn{3}{|c}{$\vdots$}\\\hline\end{tabular}\end{center}\end{table}\subsection{意味因子候補と言い換え先候補の類似度}\ref{seusec:meaningfactor}節で述べた意味因子の候補と,言い換え先候補に含まれる自立語との間の類似度を,単語間の類似度に基づいて計算する.ここで単語間の類似度は,その単語がもつ概念間の距離に基づいて計算する.具体的には,シソーラスの一種であるEDR概念体系辞書\cite{edrdic}を用いて,対象となる単語が持つ概念間距離を長尾\cite{nagao}によって紹介された以下の式(\ref{cpt_org})をベースにして計算する.\begin{eqnarray}\label{cpt_org}\frac{2\times\mbox{depth}(\mbox{csc}(c_{1},c_{2}))}{\mbox{depth}(c_{1})+\mbox{depth}(c_{2})}\end{eqnarray}ここで,$\mbox{csc}(c_{1},c_{2})$は,二つの概念$c_1$と$c_2$のシソーラスにおける共通上位概念を,depth$(c_1)$は概念$c_1$の根からの深さを示す.なお,根の深さを0とするため,この式における最小値,すなわち,まったく関係のない概念間の類似度は0になる.木構造をしているシソーラスの場合,共通上位概念および,そこへの経路が一つに定まるが,EDR概念体系辞書は多重継承を許し,一つの概念に二つ以上の上位概念が存在するため,共通上位概念とそこへの経路が複数考えられる.その場合には,類似度が最も高くなる共通上位概念と経路を定め,そのときの値を採用する.またEDR日本語辞書においては,多義語には複数の概念が付与されているが,その場合にも値が最大になる概念を選ぶ.よって,単語$w_1,w_{2}$が,それぞれ複数の概念$c_{11},\cdots,c_{1i},\cdots\,$および$c_{21},\cdots,c_{2j},\cdots\,$をもつ場合,その類似度$SIM(w_{1},w_{2})$は以下の式(\ref{cpt1})のように計算される.ただし,csc$_k(c_i,c_j)$は概念$c_{i},c_{j}$の複数ある共通上位概念の一つを示すものとする.\begin{eqnarray}\label{cpt1}SIM(w_{1},w_{2})&=&\max_{i,j,k}\frac{2\times\mbox{depth}(\mbox{csc}_k(c_{1i},c_{2j}))}{\mbox{depth}(c_{1i})+\mbox{depth}(c_{2j})}\end{eqnarray}ここで意味因子[全体]と[部分]は,1単語で表現されるから,各意味因子$m_i$と言い換え先$p$に含まれる自立語$p_j$と間の類似度が上記の$SIM(m_i,p_j)$で計算できる.しかし,意味因子[漢字]については,前節で述べたように,漢字意味辞書において語義が複数の自立語からなる場合があり,その場合には,類似度を直接計算することができない.そこで,意味因子$m_i$が$n$個の自立語$m_{i1},\cdots,m_{in}$から構成される場合は,意味因子$m_i$と言い換え先候補に含まれる自立語$p_j$との類似度を以下のように計算する.\begin{eqnarray}\label{gm}SIM'(m_i,p_j)=\left\{\begin{array}{ll}0,&{\displaystyle\sum_{k}SIM(m_{ik},p_j)=0}のとき\\{\displaystyle\sqrt[n]{\prod_{k}^{n}\max_{j}SIM(m_{ik},p_{j})}},&それ以外\\\end{array}\right.\end{eqnarray}すなわち,意味因子$m_i$を構成するすべての単語$m_{ik}$に対して$SIM(m_{ik},p_j)=0$となる場合には類似度を0とし,そうでない場合には,各$m_{ik}$に対して$SIM(m_{ik},p_j)$が最大になる場合を求め,その相乗平均を類似度とする.なお,この式においては,すべての$m_{ik}$について$SIM(m_{ik},p_j)=0$になる場合以外は,どの$p_j$に対しても,類似度$SIM'(m_i,p_j)$は同じ値となる.\begin{table}[tb]\begin{center}\caption{\label{itotaba}意味因子「糸/束ねる[漢字``総'']」に対する類似度}\begin{tabular}{l|r|r|r|r}\hline漢字``総''の語義に&\multicolumn{4}{|c}{言い換え先の自立語}\\\cline{2-5}含まれる自立語&一定期間&収支&すべて&決算する\\\hline\multicolumn{1}{l|}{糸}&0&0.29&0.18&0\\束ねる&0&0&0&0.43\\\hline\end{tabular}\end{center}\end{table}例えば,意味因子「糸/束ねる[漢字``総'']」の場合を考えると,この意味因子は,二つは自立語から構成されている.まず,意味因子[漢字]を構成する各自立語と,言い換え先の各自立語との間の類似度$SIM$を計算すると,表\ref{itotaba}のようになる.ここで,$SIM(\mbox{糸},p_j)$と$SIM(\mbox{束ねる},p_j)$の最大値は,それぞれ$SIM(\mbox{糸},\mbox{収支})=0.29$,$SIM(\mbox{束ねる},\mbox{決算する})=0.43$となり,この相乗平均$\sqrt{0.29\times0.43}=0.35$が$SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{収支})$の値となる.同様に$SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{すべて})=SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{すべて})=0.35$となる.ただし,$SIM(\mbox{糸},\mbox{一定期間})=SIM(\mbox{束ねる},\mbox{一定期間})=0$のため,$SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{一定期間})$の値だけは0になる.以上の方法に基づいて,言い換え元「総決算する」における類似度を計算したものを表\ref{sokessangm}に示す.ここで類似度とは,意味因子が1単語で構成される場合は$SIM$,2単語以上で構成される場合は$SIM'$の値である.\footnotesize\begin{table}[tb]\begin{center}\caption{\label{sokessangm}「総決算する」における類似度計算}\begin{tabular}{l|r|r|r|r}\hline&\multicolumn{4}{|c}{言い換え先の自立語}\\\cline{2-5}意味因子候補&一定期間&収支&すべて&決算する\\\hline総決算する[全体]&0&0&0&0.2\\決算する[部分]&0&0&0&1.00\\決算[部分]&0&0.88&0&0\\算する[部分]&0&0&0&0.66\\\multicolumn{1}{c|}{$\vdots$}&\multicolumn{1}{|c|}{$\vdots$}&\multicolumn{1}{|c|}{$\vdots$}&\multicolumn{1}{|c|}{$\vdots$}&\multicolumn{1}{|c}{$\vdots$}\\すべて[漢字``総'']&0&0&1.00&0\\糸/束ねる[漢字``総'']&0&0.35&0.35&0.35\\\hline\end{tabular}\end{center}\end{table}\normalsize\subsection{言い換え先の選抜}\label{subsec:screen}前節で定義した類似度を用いて,言い換え元における意味因子の決定と,言い換え先の選抜を行う.なお,本手法では,前節の類似度$SIM'$の計算や,これ以降の計算においても,平均を求める際には相加平均ではなく相乗平均を用いる.これは,類似度を用いる目的が選抜であり,不適切な候補をできるだけ篩い落とすことに主眼を置いているからである.よって,平均を計算する対象中に,値の低いものがあると平均値がより低くなる相乗平均を用いた.\subsubsection{意味因子の決定}言い換え先の各自立語に対して,類似度が最大となるものを,それぞれ意味因子とする.よって表\ref{sokessangm}の例では,「収支」に対して「決算[部分]」(類似度0.88),「すべて」に対して「総[漢字]」(類似度1.00),「決算する」に対して「決算する[部分]」(類似度1.00),がそれぞれ対応する意味因子となる.なお,「一定期間」は,すべての意味因子候補との類似度が0なので,対応する意味因子が存在しないとする.ただし,以下の計算において「一定期間」と意味因子候補との間の類似度が必要になった場合には,その値を0と見做す.\subsubsection{言い換えの効率性}言い換え先の選抜基準を考えると,まず言い換え元の語をなるべく少ない単語数で表現し,冗長な表現を含まないものが望ましい.これを{\bf言い換えの効率性}と定義する.本手法の枠組では,言い換え元に含まれる意味因子を表すのに必要のない単語が含まれていないものが良い言い換え先となる.この効率性を計算するために,言い換え元の意味因子との類似度を,言い換え先候補に含まれる各自立語の{\bf有用度}と考え,その相乗平均を言い換え先候補全体の{\bf効率}$Eff$とする.例えば,$Eff(収支をすべて決算する)=\sqrt[3]{0.88\times1.00\times1.00}=0.96$となるが,$Eff(一定期間の収支をすべて決算する)$の場合は,有用度(類似度)が0となる自立語「一定期間」を含むため,その値が0となる.すなわち,$Eff$は,言い換え先が有用度の高い語だけで構成されているほど1に近い値を,有用度の低い語を含むほど0に近い値をとる.\subsubsection{言い換えの充足性}効率性とは逆に,言い換え元の意味がすべて言い換え先に含まれているかどうかを判定する,{\bf言い換えの充足性}を考える必要がある.本手法の枠組では,言い換え元の意味は,それを構成している漢字から成ると考えている.よって,漢字一字ごとに,その意味が言い換え先にどの程度反映されているかを示す{\bf反映度}を考える.この反映度は,その漢字を含む意味因子と,対応する言い換え先に含まれる自立語との間の類似度とし,各漢字ごとの反映度の相乗平均を言い換え先の{\bf充足率}$Suf$とする.例えば,$Suf(すべて決算する)$は,言い換え元「総決算」を構成する各漢字に対し,「総」を含む意味因子「総[漢字]」の反映度1.00,「決」を含む意味因子「決算する[部分]」の反映度1.00,「算」を含む意味因子「決算する[部分]」の反映度1.00の相乗平均として求められ,その値は1.00となる.一方,$Suf(決算する)$の場合は,「総」を含む意味因子に対応する自立語が言い換え先「決算する」に存在しない.この場合,「総」の反映度を0とし,結果,$Suf(決算する)=0$となる.すなわち,言い換え先に言い換え元の意味を表す自立語が抜けていると充足率$Suf$の値は0となる.逆に,言い換え先に余分な自立語がある場合,例えば,$Suf(収支をすべて決算する)$の値は$Suf(すべて決算する)$と同じく1.00となる.\subsubsection{言い換えの妥当性}本手法における,妥当な言い換えとは,言い換えの効率性と言い換えの充足性の両方が満たされているものである.よって,効率$Eff$と充足率$Suf$の二つの値の相乗平均を,{\bf言い換えの妥当性}$V$とする.言い換え元「総決算する」に対する例では,$V(収支をすべて決算する)=\sqrt{0.96\times1.00}=0.98$,$V(すべて決算する)=\sqrt{1.00\times1.00}=1.00$となり,「すべて決算する」が最も妥当な言い換えといえる. \section{日本語--ウイグル語対訳辞書拡充実験} \subsection{日本語--ウイグル語機械翻訳}日本語とウイグル語は共に膠着言語であり,語順がほぼ同じであるなど構文的にも類似した点が多い.こうした共通点に着目し,両言語を共に派生文法\cite{kiyose}で記述し,日本語入力文を形態素解析し,その後逐語訳することでウイグル語訳文を生成する方法(図\ref{ujtrance})が\cite{ogawa}において提案されている.この日本語--ウイグル語機械翻訳システムでは,入力された日本語文に対する形態素解析結果を逐語訳することを基本としているが,形態素解析に用いる辞書の登録単語数が約35万語であるのに比べて,対訳辞書に登録されている単語は約3.6万語と少ないため,形態素解析は可能であるが翻訳をすることができない事例が多く見られる.\begin{figure}[tb]\begin{center}\begin{tabular}{lcccccc}入力文:&\multicolumn{6}{c}{肉をたくさん食べた.}\\&\multicolumn{6}{c}{$\Downarrow$}\\形態素解析:&肉&を&たくさん&食べ&た&.\\&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\逐語訳:&Go\c{s}&ni&ji\c{k}&y\'e&di&.\\&\multicolumn{6}{c}{$\Downarrow$}\\翻訳文:&\multicolumn{6}{c}{Go\c{s}niji\c{k}y\'edi.}\\\end{tabular}\end{center}\caption{\label{ujtrance}日本語--ウイグル語機械翻訳}\end{figure}本研究では,第3章で提案した言い換え獲得の枠組みを用い,未登録語を言い換えて,それを翻訳することによって対訳語を自動的に獲得し,辞書拡充を図る実験を行った.具体的には,未登録語の中からコーパスにおいて出現頻度の高い単語を第3章の方法で言い換えて,その獲得された日本語の言い換えを,\cite{ogawa}の日本語--ウイグル語機械翻訳システムを用いて翻訳した.そして,言い換え結果が完全に翻訳できた場合に,言い換え元の訳語として辞書に登録できるかどうかを判定し,言い換え処理が対訳辞書の拡充にどのように寄与するかを検証した.\subsection{言い換え先候補の収集}名詞,動詞,サ変名詞の各品詞ごとに,EDR日本語コーパス\cite{edrdic}における出現頻度が上位1,000位までとなる単語を収集し,そのうち,日本語--ウイグル語辞書に登録されていなかった名詞452個,動詞477個,サ変名詞396個を実験対象とした.ただしEDR日本語単語辞書では,各単語について概念が異なれば別エントリとして登録しているため,言い換え元として考えるときには概念の異なりごとに区別した.また,複数の読み方がある場合や表記が異なる場合にも区別した.結果,名詞473概念,動詞514概念,サ変名詞429概念を実験対象とする言い換え元とした.そして,各言い換え元に対するEDR日本語単語辞書の概念説明を語義文と見做し,\ref{subsec:collection}節で述べた手法により言い換え先候補を収集した.結果,表\ref{cand}に示す言い換え先候補が収集された.\begin{table}[t]\caption{\label{cand}言い換え先候補}\begin{center}\begin{tabular}{c|r|r|r|r|r}\hline品詞&単語数&言い換え元数&言い換え先候補数&最大候補数&最小候補数\\\hline名詞&452&473&2,897&129&1\\動詞&477&514&2,541&82&1\\サ変名詞&396&429&2,087&55&1\\\hline\end{tabular}\end{center}\end{table}\subsection{言い換え先候補の選抜}\label{subsec:screening}前節で収集した言い換えを,\ref{subsec:screen}節に示した類似度ベースの手法で選抜する.その際,\ref{subsec:kanjimeaningdic}節で述べた漢字意味辞書が必要になる.本来はすべての漢字について辞書を作成するのが望ましいが,人手による修正が必要な部分があるため,今回は実験に必要な漢字についてのみ作成した.その結果,漢字605文字に対して,合計10,502個の語義をもつ辞書を作成した.漢字1字あたりに付加された語義の平均は17.3個であり,付加された語義数の最大は113個,最小は1個であった.そして,この漢字意味辞書に基づく意味因子[漢字]と,EDR日本語単語辞書の概念識別子に基づく意味因子[部分],[全体]を\ref{subsec:screen}節に示した手法で選抜した.すなわち,各言い換え元に対して言い換えの妥当性$V$の値が最も高いものを言い換え先とした.ただし,妥当性$V$の値が最大となるものが複数あった場合,言い換えとして同等に適切であると考え,一つの言い換え元に対して複数の言い換え先があるとした.よって,評価する言い換え対(言い換え元と言い換え先のペア)も一つの言い換え元に対して複数存在する場合がある.以上の結果,それぞれの品詞ごとに名詞537個,動詞599個,サ変名詞477個の言い換え対を得た.\subsection{評価}\label{subsec:eval}得られた言い換え対のうち,各品詞300個をランダムに抜き出し,日本語の言い換えとして適切であるかどうかを人手で評価した.その際,以下の観点に基づいて結果を分類した.まず,言い換え成功としたものを,以下の二つに分類した.\begin{description}\item[妥当]適切に言い換えられたもの.\item[文脈依存]言い換えが適切であるかどうかが文脈に依存するもの.例えば,「参画する$\rightarrow$計画に加わる」という言い換えは,「彼も\underline{参画し}ている」という文脈では適切であるが,「経営に\underline{参画し}ている」と文脈では不適切となる.\end{description}\noindent一方で,言い換え失敗としたものを,以下のように分類した.\begin{description}\item[説明過剰]言い換え先が言い換え元の説明になっていて,言い換えとしては記述が過剰であるもの.例えば,「本土$\rightarrow$その国の中心をなす国土」という言い換えが,これに分類される.\item[意味欠落]言い換え元の意味の一部が欠落した言い換え先が得られたもの.例えば,「苦戦する$\rightarrow$戦いをする」という言い換えがこれに当たる.\item[国語辞書の不充分な記述]本実験ではEDR日本語単語辞書の概念説明を語義文として利用したが,この概念説明は,人間が他の概念と区別するためのものであり,単語の説明となっていないものがある.そうした語義文の記述に由来する失敗はこれに分類される.\item[その他]上記以外のもの.この中には選抜手法に原因が求められるものが多く,その点については考察で言及する.\end{description}こうした基準で評価した結果を表\ref{jpresult2}に示す.\begin{table}[tb]\caption{\label{jpresult2}日本語の言い換えとしての評価}\begin{center}\begin{tabular}{c|c|rr|rr|rr}\hline\multicolumn{2}{c|}{評価基準}&\multicolumn{2}{c|}{名詞}&\multicolumn{2}{c|}{動詞}&\multicolumn{2}{c}{サ変名詞}\\\hline言い換え&妥当&80&(26.7\%)&144&(48.0\%)&146&(48.7\%)\\成功&文脈依存&43&(14.3\%)&38&(12.7\%)&47&(15.7\%)\\\hline&説明過剰&23&(7.7\%)&21&(7.0\%)&22&(7.3\%)\\言い換え&意味欠落&37&(12.3\%)&31&(10.3\%)&18&(6.0\%)\\失敗&その他&85&(28.3\%)&29&(9.7\%)&10&(3.3\%)\\&国語辞書&32&(10.7\%)&37&(12.3\%)&57&(19.0\%)\\\hline\multicolumn{2}{c|}{計}&300&(100\%)&300&(100\%)&300&(100\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{日本語の言い換えに関する考察}表\ref{jpresult2}において,言い換えに失敗していると判定されたものについて検討する.まず,国語辞書の記述が不充分であったために誤りとされたものが多い.EDR辞書の概念説明は,一般の国語辞書における語義文とは異なり,人間が概念を区別する際の参考とするためのものであり,概念の説明中で見出し語をそのまま用いている場合がある.例えば,サ変名詞「会話する」の語義文は,そのまま「会話する」となっており,実験では,「会話する$\rightarrow$会話する」という言い換えが得られたが,これは言い換えとしては失敗である.こうした点については,他の辞書の語義文を用いることで改善されると考えられる.次に,各品詞ごとに検討する.まず名詞については,表\ref{jpresult2}に示したように,動詞やサ変名詞に比べて言い換えに成功した割合が低い.これは,名詞に対する国語辞書の語義文は,その見出し語がどのようなものであるかを説明している傾向が強いからである.例えば,「売り場」に対する語義文は,「物を売る一定の場所」となっており,このような語義文からは,言い換えとしての同等句を取り出しにくい.よって,名詞に対しては本手法とは逆に,収集段階で類似度ベースの手法を,選抜段階で語義文ベースの手法を適用することによって,より効果的な言い換えが得られると予想される.一方,用言の言い換えでは,例えば「一体化する」に対して「まとめる」が語義文となっているように,比較的易しい言葉で言い換えられるものが多い.そのことから,今回用いた語義文ベースの収集と,類似度ベースの選抜を組み合わせた手法は,用言向きの手法であるといえる.実際,用言(動詞とサ変名詞)についての結果を見れば,用言の言い換えは,辞書に起因する誤りを除けば,7〜8割の精度で言い換えに成功しており,本手法の有効性を示す結果であるといえる.また,その他に分類した例では,選抜段階での失敗が挙げられる.実験では「落ちつく$\rightarrow$なる」という言い換えが得られたが,これは「落ちつく」の語義文「心が安定した状態になる」から得られたものである.本手法は,言い換え元の意味因子と対応する自立語を,係り受けを保ったまま語義文から切り出す.この例では,「状態」という語と対応する意味因子がなかったために,「安定した」という文節が抜き出せなかったものと考えられる.同様の例として,「書ける$\rightarrow$ことができる」などの可能の意味含む動詞に関しては,ほぼ全ての事例で誤った結果を得ていた.例えば,「書ける」の語義は「書くことができる」であるが,言い換え先としては「できる」が獲得されていた.これは,本手法が元の係り受け関係を保存して言い換え先候補を収集し,選抜することに起因する.この例では,「こと」という単語の有用度が低く計算されたために,これに係る「書く」も削除されてしまったと考えられる.この問題の解決策としては,頻出単語や抽象度の高い単語に関しては類似度計算の対象としない手法が考えられる.\subsection{意味因子[漢字]の有効性に関する実験と考察}ここで,本研究の特徴である意味因子[漢字]の有効性について検討する.そのために,\ref{subsec:eval}節の評価で最も結果の良かったサ変名詞の言い換えに対して,意味因子[漢字]を利用した場合と利用しなかった場合の比較実験を行った.まず,言い換え元となるサ変名詞429概念のそれぞれについて,意味因子[漢字]を利用しない場合をベースとし,意味因子[漢字]を利用することにより,妥当性$V$の値と得られる言い換え先がどのように変化するかを実験で確かめた.その結果を表\ref{kanji_fact2}に示す.ここで,言い換えの品質が「同じ」とあるのは,得られた言い換え先が同じであることを示す.一つの概念から複数の言い換え先が得られる場合は,それぞれが一致したものをこれに分類する.得られた言い換え先が異なった場合は,それが意味因子[漢字]を利用しなかった場合と比べて,向上しているか,同程度であるか,低下しているかで判定した.\begin{table}[tb]\caption{\label{kanji_fact2}意味因子[漢字]の利用による言い換え結果の変化}\begin{center}\begin{tabular}{c|c|rrrr|c}\hline\multicolumn{2}{c|}{}&\multicolumn{4}{|c|}{言い換えの品質}\\\cline{3-6}\multicolumn{2}{c|}{}&向上&同じ&同等&低下&計\\\hline&増加&85&116&36&12&249\\妥当性$V$の値&変化なし&5&169&0&6&180\\&減少&0&0&0&0&0\\\hline\multicolumn{2}{c|}{計}&90&285&36&18&429\\\hline\end{tabular}\end{center}\end{table}妥当性$V$の値が増加し,言い換えの品質が向上した85個の中には,意味因子[漢字]なしの場合には,すべての言い換え先候補について妥当性の値が0となり言い換え先が得られなかったが,意味因子[漢字]を用いることで言い換え先が獲得できたものも含まれている.今回の実験では,そうしたものが16個あった.表\ref{kanji_fact2}をみると,意味因子[漢字]を利用することにより,多くの場合に妥当性$V$の値が増加することが分かる.これは,本手法では,言い換え先の各自立語に対して類似度を最大とするものを意味因子とするからである.つまり,意味因子[漢字]を利用することにより,意味因子候補がその分増えることになる.そうした候補と言い換え先の各自立語との類似度が,他の候補よりも低ければ意味因子として選ばれず,結果は変化しない.しかし,その類似度が高ければ意味因子として選択されることになり,最終的な妥当性$V$の値が向上する.なお,以上の理由により,意味因子[漢字]を利用することによって選択される意味因子が変化しても,妥当性$V$の値が減少することはない.これは実験結果からも確かめられた.さらに,言い換えとしての評価について表\ref{jpresult2}に示したサ変名詞の分と,意味因子[漢字]を利用しなかった場合との結果を合わせて表\ref{no_kanji_fact}に示す.今回は妥当性$V$の値が最大となったものを評価し,最大となるものが複数ある場合は,そのすべてを評価した.ただし,意味因子[漢字]の有無で妥当性の値が変化し,[漢字]なしのとき最大となるものが複数あったが,[漢字]ありの場合には一つになったものがある.そのため,言い換え元のサ変名詞は同じものを利用したが,得られた言い換え先の総数が異なっている.\begin{table}[tb]\caption{\label{no_kanji_fact}サ変名詞の言い換えにおける意味因子[漢字]の有無による比較}\begin{center}\begin{tabular}{c|c|rr|rr}\hline\multicolumn{2}{c|}{評価基準}&\multicolumn{2}{c|}{[漢字]あり}&\multicolumn{2}{c}{[漢字]なし}\\\hline言い換え&妥当&146&(48.7\%)&116&(36.4\%)\\成功&文脈依存&47&(15.7\%)&41&(12.9\%)\\\hline&説明過剰&22&(7.3\%)&18&(5.6\%)\\言い換え&意味欠落&18&(6.0\%)&77&(24.1\%)\\失敗&その他&10&(3.3\%)&13&(4.1\%)\\&国語辞書&57&(19.0\%)&54&(16.9\%)\\\hline\multicolumn{2}{c|}{計}&300&(100\%)&319&(100\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{no_kanji_fact}の結果から,[漢字]ありの場合に比べて,[漢字]なしの場合には,妥当なものが減り,意味欠落と評価されたものが多くなっていることが分かる.これは表\ref{sokessangm}を見ると理由が理解しやすい.表\ref{sokessangm}の例において,意味因子[漢字]を用いなかった場合,その他の意味因子候補と言い換え先の自立語「すべて」との類似度がすべて0になり,自立語「すべて」に対応する意味因子が存在しなくなる.そのため,自立語「すべて」を含む言い換え先の効率$Eff$が下がり,そうした言い換え先が選択されなくなる.そして,結果的に言い換えとして意味が欠落したものが得られることになる.こうした点からも,意味因子[漢字]を利用することの有用性が分かる.また,今回は各言い換え元ごとに妥当性の値が最大となるものを選んだが,特定の閾値を用いて選抜する場合には,妥当性$V$の値がある程度の大きさをもつ必要があり,そうした場合にも意味因子[漢字]の利用は重要となる.\subsection{対訳辞書の拡充}\ref{subsec:eval}節で評価した,各品詞300組の言い換え対について,その言い換え先を日本語--ウイグル語翻訳システム\cite{ogawa}によって翻訳した.翻訳の成否に関する結果を,表\ref{ujresult3}に示す.ここで,翻訳成功としたものは,言い換え先が全てウイグル語に変換されたものであり,翻訳失敗としたものは,言い換え先の単語の中に日本語--ウイグル語翻訳システムで使用した辞書に登録されていない単語が含まれていたものである.解析失敗としたものは,日本語--ウイグル語翻訳システム\cite{ogawa}が入力文の解析に失敗し,出力を得られなかったものである.\begin{table}[tb]\caption{\label{ujresult3}翻訳結果}\begin{center}\begin{tabular}{c|rr|rr|rr}\hline&\multicolumn{2}{c|}{名詞}&\multicolumn{2}{c|}{動詞}&\multicolumn{2}{c}{サ変名詞}\\\hline翻訳成功&245&(81.7\%)&273&(91.0\%)&221&(73.7\%)\\翻訳失敗&48&(16.0\%)&16&(5.3\%)&68&(22.6\%)\\解析失敗&7&(2.3\%)&11&(3.7\%)&11&(3.7\%)\\\hline合計&300&(100\%)&300&(100\%)&300&(100\%)\\\hline\end{tabular}\end{center}\end{table}さらに,言い換え先の翻訳結果が,言い換え元の訳語として適切かどうかをウイグル語ネイティブによって評価した.評価対象は,それぞれの品詞につき翻訳が成功したもののうち,各100単語をランダムに取り出したものである.その結果を表\ref{ujresult4}に示す.表中で,「条件付」としたものは,常にその表現を用いることができるわけではないが,文脈によっては認められると判定されたものである.\begin{table}[tb]\caption{\label{ujresult4}対訳語としての適切さ}\begin{center}\begin{tabular}{c|rr|rr|rr|rr}\hline品詞&\multicolumn{2}{c|}{適切}&\multicolumn{2}{c|}{条件付}&\multicolumn{2}{c|}{不適切}&\multicolumn{2}{c}{合計}\\\hline名詞&37&&26&&37&&100&\\動詞&41&&26&&33&&100&\\サ変名詞&41&&34&&25&&100&\\\hline合計&119&(39.6\%)&86&(28.7\%)&95&(31.7\%)&300&(100\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{辞書拡充に関する考察}\begin{table}[t]\caption{\label{taiou2}日本語言い換えとしての適切さと対訳語としての適切さとの対応}\begin{center}\begin{tabular}{c|c|rrr|rrr|rrr}\hline\multicolumn{2}{c|}{}&\multicolumn{3}{c|}{名詞}&\multicolumn{3}{c|}{動詞}&\multicolumn{3}{c}{サ変名詞}\\\multicolumn{2}{c|}{}&適切&条件付&不適切&適切&条件付&不適切&適切&条件付&不適切\\\hline言い換え&妥当&14&7&6&24&12&9&25&18&14\\\cline{2-11}成功&文脈依存&5&5&3&4&5&4&6&12&2\\\hline&説明過剰&6&1&2&1&1&8&6&2&0\\\cline{2-11}言い換え&意味欠落&2&6&6&9&3&3&2&1&2\\\cline{2-11}失敗&その他&6&6&17&1&1&8&1&0&3\\\cline{2-11}&国語辞書&4&1&3&2&4&1&1&1&4\\\hline\multicolumn{2}{c|}{計}&37&26&37&41&26&33&41&34&25\\\hline\end{tabular}\end{center}\end{table}表\ref{ujresult3}から,言い換えた結果が,おおむね翻訳可能であることが分かる.このことから,未登録語を言い換えることの有効性が示せた.また,表\ref{ujresult4}より,前後の文脈などの条件付きで適切としたものを含めれば,68.3\%が対訳として利用可能なことが分かる.このことから,本手法の利用可能性が確認できた.さらに,日本語での言い換えの成否が,ウイグル語対訳を得る場合にどのように影響しているかを調べた結果を表\ref{taiou2}に示す.この表から,日本語では言い換えに成功したもののうち,翻訳した結果が対訳語として不適切と判定されたものが,各品詞について,名詞22.5\%,動詞22.4\%,サ変名詞20.8\%の割合であったことが分かる.この原因としては,次の二点が挙げられる.一つは,日本語--ウイグル語機械翻訳システムが解析を誤ったために,正しい訳語が付与できなかったものである.例えば,「言い渡す$\rightarrow$命じる」は,日本語の言い換えとしては妥当であると判定した.しかし,翻訳システムが「命」を名詞として解析したために,正しく翻訳することができなかった.二つ目は,ウイグル語における単語の概念が異なるために,正しく翻訳できなかったものである.例えば,「出国する$\rightarrow$国を出る」は,日本語の言い換えとしては妥当である.しかし,「出国する」は,ウイグル語において「国\underline{から}出る」と表現すべき単語であったために,対訳語としては不適切と判定された.こうした問題については,日本語--ウイグル機械翻訳システムの改善によって解決できると考えられる.興味深い点としては,日本語の言い換えの評価としては失敗と判定されたにもかかわらず,そのウイグル語訳が,対訳として適切と判定されたものが少なからず存在したことである.その割合は,条件付き適切とされたものも含めた場合,名詞46.7\%,動詞47.6\%,サ変名詞39.1\%である.例えば,「打ち出す$\rightarrow$出す」という言い換えは,日本語の言い換えとしての評価では,「打ち」の部分の意味が欠落しているため,意味欠落と評価した.しかし,ウイグル語では「打ち出す」に相当するような単語がなく意味的には「出す」を翻訳した``\ckoyma\ck''が該当する.よって,この場合にはウイグル語としては適切な訳語が得られたことになる.また,日本語における言い換え失敗の例として挙げた「書ける」に関しては,日本語では「書く」とは別の単語として辞書に登録されているが,使用した日本語--ウイグル機械翻訳システムでは「書ける」は「書く」に可能を表す接尾辞が接続した形であると解析し,「書ける」が辞書になくても「書く」が辞書にあれば翻訳可能である.今回は,単純に辞書の未登録語をすべて対象としたが,「書ける」のように,未登録語であっても翻訳できる単語があり,こうした単語については今回の実験対象から除くべきであった.こうした点を考慮すると,今回の言い換えにおける選抜段階での評価関数は日本語に注目しただけであったが,ウイグル語へ翻訳することを考慮した関数に変更することも考えらえる. \section{おわりに} 本論文では,言い換え処理を収集段階と選抜段階の二段階に分け,収集段階に語義文ベースの手法を,選抜段階に類似度ベースの手法を適用することによる言い換え方法を提案した.さらに,獲得された言い換えを翻訳することによる日本語--ウイグル語対訳辞書の拡充も提案し,実験によりその利用可能性を確認した.今後の課題としては,以下の項目が挙げられる.まず,日本語--ウイグル語対訳辞書拡充の効果に関する調査が必要である.本論文では,言い換えを用いて対訳辞書に新たな単語を登録したが,最終的な目的は,日本語−ウイグル語機械翻訳システムを用いて翻訳できる文数を増やすことである.よって,実際の文章が与えられたときに翻訳可能な文がどの程度増えるかといった評価や,文中の未登録語を動的に言い換えた場合の評価について調査する必要がある.また,言い換え元に多義性がある場合の評価も必要である.本手法では,言い換え元を概念で区別しており,一つの語に複数の概念がある場合,それぞれについて別々の言い換えを獲得する.そうして得られた言い換えに対する評価と多義性解消への応用についても検討する.さらに,本論文で扱った名詞,動詞,サ変名詞以外の品詞への適用も必要である.加えて,本論文の手法では名詞に関してはあまり結果が良くなかったため,現在,収集段階に類似度ベース,選抜段階に語義文ベースの手法を組み合わせた手法も試みている.また,一度の言い換えでは翻訳できなかった単語については,翻訳できなかった部分を再度言い換えることによって解決できる可能性がある.例えば,「収納する」は「金銭を受納する」と言い換えられたが,「受納する」が翻訳できなかった.しかし,これをさらに言い換えて,「金銭を領収する」のようにすれば翻訳が可能になる.こうした多段階の言い換えについても検討し,その効果を確かめたい.\acknowledgment本研究は,人工知能研究振興財団からの補助を受けて行われています.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{崔\JBA小松\JBA安原}{崔\Jetal}{1993}]{cui}崔進\JBA小松英二\JBA安原宏\BBOP1993\BBCP.\newblock\JBOQEDR電子化辞書を用いた単語類似度計算法\JBCQ\\newblock自然言語処理研究会,情報処理学会.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1996}]{edrdic}日本電子化辞書研究所\BBOP1996\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書}.\newblock日本電子化辞書研究所.\bibitem[\protect\BCAY{藤田\JBA乾\JBA乾}{藤田\Jetal}{2000}]{fuj00}藤田篤\JBA乾健太郎\JBA乾裕子\BBOP2000\BBCP.\newblock\JBOQ名詞言い換えコーパスの作成環境\JBCQ\\newblock電子情報通信学会技術研究報告,情報処理学会.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate-argumentStructure\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheACL},\BPGS\268--275.\bibitem[\protect\BCAY{笠原\JBA松澤\JBA石川}{笠原\Jetal}{1997}]{kasahara}笠原要\JBA松澤和光\JBA石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類別性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),1272--1283.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{kur98}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock\Jem{日本語構文解析システムKNPversion2.0b6使用説明書}.\newblock京都大学大学院情報学研究科,http://www.kc.t.u-tokyo.ac.jp/nl-resource/knp.html.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1999}]{kur99}黒橋禎夫\JBA長尾真\BBOP1999\BBCP.\newblock\Jem{日本語形態素解析システムJUMANversion3.61使用説明書}.\newblock京都大学大学院情報学研究科,http://www.kc.t.u-tokyo.ac.jp/nl-resource/juman.html.\bibitem[\protect\BCAY{ムフタル\JBA小川\JBA杉野\JBA稲垣}{ムフタル\Jetal}{2003}]{muhtar2003}ムフタル・マフスット\JBA小川泰弘\JBA杉野花津江\JBA稲垣康善\BBOP2003\BBCP.\newblock\JBOQ日本語--ウイグル語辞書の半自動作成と評価\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),83--108.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalModelforParaphrasing-UsingTransformationBasedonaDefinedCriteria-\BBCQ\\newblockIn{\BemProceedingsof6thNLPRSWorkshop-AutomaticParaphrasing:TheoriesandApprications-},\BPGS\44--54.\bibitem[\protect\BCAY{小川\JBAムフタル\JBA外山\JBA稲垣}{小川\Jetal}{1999}]{ogawa2}小川泰弘\JBAムフタル・マフスット\JBA外山勝彦\JBA稲垣康善\BBOP1999\BBCP.\newblock\JBOQ派生文法による日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(3),1080--1090.\bibitem[\protect\BCAY{小川\JBAムフタル\JBA杉野\JBA外山\JBA稲垣}{小川\Jetal}{2000}]{ogawa}小川泰弘\JBAムフタル・マフスット\JBA杉野花津江\JBA外山勝彦\JBA稲垣康善\BBOP2000\BBCP.\newblock\JBOQ日本語--ウイグル語機械翻訳における派生文法に基づくウイグル語動詞句の生成\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(3),57--77.\bibitem[\protect\BCAY{清瀬}{清瀬}{1989}]{kiyose}清瀬義三郎則府\BBOP1989\BBCP.\newblock\Jem{日本語文法新論--派生文法序説}.\newblock桜楓社.\bibitem[\protect\BCAY{新村}{新村}{1996}]{kojien}新村出\JED\\BBOP1996\BBCP.\newblock\Jem{広辞苑第四版EPWINGCD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{鍛治\JBA河原\JBA黒橋\JBA佐藤}{鍛治\Jetal}{2002}]{kajichi}鍛治伸裕\JBA河原大輔\JBA黒橋禎夫\JBA佐藤理史\BBOP2002\BBCP.\newblock\JBOQ国語辞書とコーパスを用いた用言の言い換え規則の学習\JBCQ\\newblock\Jem{第8回年次大会発表論文集},\BPGS\331--334.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao}長尾真\JED\\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{釜谷\JBA小川\JBA稲垣}{釜谷\Jetal}{2002}]{ipsj02}釜谷聡史\JBA小川泰弘\JBA稲垣康善\BBOP2002\BBCP.\newblock\JBOQ辞書語義文を利用した対訳辞書の拡充\JBCQ\\newblock\Jem{情報処理学会第64回全国大会講演論文集(分冊2)},\BPGS\91--92.\bibitem[\protect\BCAY{藤田\JBA乾}{藤田\JBA乾}{2001}]{fujita}藤田篤\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した普通名詞の同概念語への言い換え\JBCQ\\newblock\Jem{第7回年次大会発表論文集},\BPGS\331--334.\bibitem[\protect\BCAY{山本}{山本}{2001}]{yama01}山本和英\BBOP2001\BBCP.\newblock\JBOQ換言処理の現状と課題\JBCQ\\newblock\Jem{第7回年次大会ワークショップ論文集},\BPGS\93--96.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同年より,名古屋大学助手.博士(工学).自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{釜谷聡史}{2001年名古屋大学工学部電気電子情報工学科卒業.2003年同大学院工学研究科計算理工学専攻博士課程前期課程修了.現,株式会社東芝.自然言語処理に関する研究に従事.情報処理学会会員.}\bioauthor{ムフタル・マフスット}{1983年新疆大学数系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.2001年より,名古屋大学助手.博士(工学).自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.1997年4月〜2000年3月工学研究科長・工学部長.2003年4月より同大学名誉教授,愛知県立大学情報科学部教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウエア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会(フェロー),電子情報通信学会(フェロー),人工知能学会,日本ソフトウエア科学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V14N01-01
\section{はじめに} 構文解析において,精度と同様,計算効率も,自然言語処理の重要な問題の一つである.構文解析の研究では,精度に議論の重点を置くことが多いが,効率についての研究もまた重要である.特に実用的な自然言語処理のアプリケーションにとっては,そうである.精度を落とすことなく効率を改善することは,とても大きな課題である.本研究の目的は,日本語の係り受け解析(依存構造解析)を行なう効率のよいアルゴリズムを提案し,その効率の良さを理論的,実験的の両面から示すことである.本論文では,日本語係り受け解析の線形時間アルゴリズムを示す.このアルゴリズムの形式的な記述を示し,その時間計算量(timecomplexity)を理論的に論じる.加えて,その効率と精度を京大コーパスVersion2\cite{Kurohashi1998}を使って実験的に評価する.本論文の構成は以下の通りである.第~2節では,日本語の構文的な特徴と典型的な日本語文の解析処理について述べる.第~3節では,英語や日本語の依存構造解析の従来研究について簡単に述べる.その後,第~4節で我々の提案手法を述べる.次に,第~5節で,二つの文節の依存関係を推定するための改良したモデルを述べる.第~6節では実験結果とその考察を記す.最後に,第~7節で本論文での我々の貢献をまとめる. \section{日本語文の解析} 本節では,日本語の構文的特徴と典型的な日本語文の解析の手順について整理する.\subsection{日本語の構文的特徴}\label{sec:prop}日本語は基本的にはSOV言語である.語順は比較的自由である.英語では,文中の語の構文的機能は語順で表される.一方,日本語では,後置詞(postpositions)によって表される.この点では,名詞の後に置かれる日本語の格助詞はドイツ語名詞の格変化と類似の役割を持っている.ドイツ語名詞は格変化することによって,文法的な格を表している.文節の概念\footnote{韓国語の{\emeojeol}も日本語の文節と似た概念である\cite{Yoon1999}.文献\cite{Abney1991}で定義される英語のチャンク(chunk)も文節に近いといえる.}は上記の日本語の性質と親和性があり,日本語文を構文的に分析するときに使われてきた.{\em文節}は,1~個以上の内容語(contentwords)とそれに続く0~個以上の機能語(functionwords)から構成される.文節をこのように定義することによって,ドイツ語のような屈折言語において文中の語の文法的役割を分析するときと似た手法を日本語文を分析するときにも使うことができる.それゆえ,厳密なことを言えば,日本語の場合,語順が自由なのではなく,文節の順序が自由である.ただし,文の主動詞を含む文節は文の末尾に置かれなければならない.例えば,以下の2文は同じ意味を持つ:(1)健が彼女に本をあげた.(2)健が本を彼女にあげた.この2例文で,最も右の文節「あげた」(動詞の語幹と,過去や完了を表すマーカで構成されている)は文の末尾に置かれていることに注意されたい.ここで,上に述べたものも含めて,通常の書き言葉の日本語で仮定される係り受けの制約条件をまとめておく.\begin{description}\item[C1.]最も右の文節を除いて,全ての文節は必ず一つの\TermHead{}を持つ.\item[C2.]\TermHead{}となる文節は,必ず係り元の文節の右側に位置する.\item[C3.]係り関係は交差しない\footnote{「これが僕は正しいと思う」という例文のようにこの制約条件が成立しないこともあるが,書き言葉では殆どの場合成り立つ\cite[187ページ]{Nagao1996}.}.\end{description}これらの特徴は,基本的には韓国語やモンゴル語でも共通である.\subsection{日本語文解析の典型的な手順}日本語には前節のような特徴があるので,日本語文の解析では次のような手順が非常に一般的である:\begin{enumerate}\item文を形態素に分割する(つまり形態素解析する)\itemそれらを文節にまとめ上げる\item文節間の係り関係を解析する\itemそれぞれの係り関係にagent,object,locationなどの意味的役割のラベルを付ける\end{enumerate}我々は(3)における係り受け解析に焦点を置く. \section{関連研究} ここでは,主に時間計算量に重点を置いて関連研究を述べる.日本語はもちろん英語でも依存構造解析(dependencyanalysis)は研究されている\cite{Lafferty1992,Collins1996,Eisner1996}.これらの論文の解析アルゴリズムでは,$O(n^{3})$の時間がかかる.ここで$n$は単語数である\footnote{Nivre\shortcite{Nivre2003}は,projectivedependencyparsingの決定的なアルゴリズムを提案している.このアルゴリズムの時間計算量の上限は$O(n)$である.このアルゴリズムをスウェーデン語のテキストで評価している.}$^{,}$\footnote{Ratnaparkhiは実際の処理時間が$O(n)$となる句構造を返す英語のパーザについて述べている\cite{Ratnaparkhi1997}.これは依存構造解析について述べたものではない.このアルゴリズムでは,解析途中の各ノードに対して,いくつかの手続きを行ない,その中で確率値の高い$K$個の導出(derivation)を残して解析を進める(幅優先探索).そのため,時間計算量の上限は$O(n^2)$と考えられる.}.日本語の係り受け解析では,文中の二つの文節の係り受けの確率を使うことが非常に多かった.Harunoら\shortcite{Haruno1998}は,決定木を用いて係り受けの確率を推定した.FujioとMatsumoto\shortcite{Fujio1998}はCollinsのモデル\cite{Collins1996}の修正版を日本語の係り受け解析に適用した.Harunoらと,FujioとMatsumotoの両グループともCYK法を用いている.これは$O(n^{3})$の時間がかかる.ここで$n$は文の長さ,つまり文節数を表している.Sekineら\shortcite{Sekine2000Backward}は最大エントロピー法(MaximumEntropyModeling;ME)を係り受けの確率の推定に使い,後方ビームサーチ(文末から文頭に向かうビームサーチ)で最もよい解析結果を見つける.このビームサーチのアルゴリズムは$O(n^{2})$の時間がかかる.KudoとMatsumoto\shortcite{Kudo2000Japanese}らも同じ後方ビームサーチをMEではなくサポートベクタマシン(SVMs)とともに用いている\footnote{彼らは,係り先候補間の係りやすさの相対的な大小関係をモデル化する手法も報告している\cite{Kudo2005}.係り受けのモデルは異なるが,同じく後方ビームサーチを用いている.}.二つの文節間の係り受けの確率を使わない統計的手法も少ないながらある.一つはSekineの決定的有限状態変換器を用いる手法\cite{Sekine2000Japanese}である.Sekineは,\TermHead{}の場所の97\%は文中の五つの候補でカバーされると報告している.似た現象はMaruyamaとOgino\cite{Maruyama1992}も観測している.これらの調査にもとづき,Sekineは,決定的有限状態変換器を用いる効率のよい解析アルゴリズムを提案している.このアルゴリズムは,考慮する係り先の文節数を制限することでしらみつぶしに探索することを避け,$O(n)$の時間計算量となっている.しかしながら,彼のパーザは京大コーパスに対して77.97\%の係り受け正解率(定義は第~\ref{subsec:results}節で述べる)しか得られていない.これは,89\%を超える現在の最高精度よりもかなり低い.2文節間の係り受けの確率を用いない別の興味深い手法は,KudoとMatsumoto\shortcite{Kudo2002}によるCascadedChunkingModelである.このモデルは\cite{Abney1991,Ratnaparkhi1997}のアイデアにもとづく.彼らはこのモデルとSVMsを用いて,89.29\%を得ている.彼らの手法では,解析時に評価される係り関係の数はCYK法や後方ビームサーチよりも相当少ないが,それでも時間計算量の上限は$O(n^2)$である.以上見たように,高い精度を保ちつつ線形時間の処理を保証して,どのように日本語係り受け解析を行なうかは,まだ解決されていない問題である.以下に記述するアルゴリズムがこの問題に対する答えとなろう. \section{アルゴリズム} label{sec:algo}本節では,提案アルゴリズムを解析時に使うものと,学習時に使うものとに分けて記す.解析時のアルゴリズム,その時間計算量,学習時のアルゴリズムを順に述べ,最後に提案アルゴリズムの特徴のまとめと関連研究との理論的な比較を述べる.\subsection{文を解析するアルゴリズム}\begin{figure}[t]//入力:N:一文中の文節の数\\//\hspace*{1em}w[]:処理対象の文の文節列を保持する配列\\//出力:outdep[]:解析結果,つまり文節間の係り関係を格納する整数の配列.\\//\hspace*{1em}例えば,j番目の文節の係り先IDは{\rmoutdep[j]}で表現される.\\//\\//stack:係り元文節のIDを保持する.もし空なら,このスタックに対する\\//\hspace*{1em}popメソッドは,{\rmEMPTY}($-1$)を返す.\\//functionestimate\_dependency(j,i,w[]):\\//\hspace*{1em}{\rmj}番目の文節が{\rmi}番目の文節に係ると判断するとき,非ゼロを返す.\\//\hspace*{1em}それ以外のとき,ゼロを返す.\\functionanalyze(w[],N,outdep[])\\stack.push(0);\hspace*{1em}//ID0をスタックに積む.\\for(inti=1;i$<$N;i++)\{\hspace*{1em}//変数iは係り先文節,変数jは係り元文節を指すのに使う.\\\hspace*{1em}intj=stack.pop();\hspace*{1em}//スタックから値を降ろし,変数jにセットする.\\\hspace*{1em}while(j!=EMPTY\&\&(i==N$-$1$||$estimate\_dependency(j,i,w)))\{\\\hspace*{2em}outdep[j]=i;\hspace*{1em}//j番目の文節がi番目の文節に係る.\\\hspace*{2em}j=stack.pop();\hspace*{1em}//次にチェックすべき係り元文節のIDをスタックから降ろす.\\\hspace*{1em}\}\\\hspace*{1em}if(j!=EMPTY)\\\hspace*{2em}stack.push(j);\\\hspace*{1em}stack.push(i);\\\}\par\vspace{8pt}\caption{提案手法の擬似コード(解析時).ここで``i==N-1''はi番目の文節が文末の文節であることを\hspace*{27pt}意味している.}\label{code:analysis}\end{figure}\begin{figure}[t]//indep[]:訓練事例から与えられる正しい係り受け関係を保持する整数の配列.\\//\\//functionestimate\_dependency(j,i,w[],indep[]):\\//\hspace*{1em}indep[j]==iが満たされるとき,非ゼロを返す.それ以外のとき,ゼロを返す.\\//\hspace*{1em}同時に,j番目の文節がi番目の文節に係るか係らないかに応じて,1あるいは-1の\\//\hspace*{1em}ラベル付きで,素性ベクタ(エンコードされた事例)を出力する.\\functiongenerate\_examples(w[],N,indep[])\\stack.push(0);\\for(inti=1;i$<$N;i++)\{\\\hspace*{1em}intj=stack.pop();\\\hspace*{1em}while(j!=EMPTY\&\&(i==N$-$1$||$estimate\_dependency(j,i,w,indep)))\{\\\hspace*{2em}j=stack.pop();\\\hspace*{1em}\}\\\hspace*{1em}if(j!=EMPTY)\\\hspace*{2em}stack.push(j);\\\hspace*{1em}stack.push(i);\\\}\par\vspace{8pt}\caption{訓練事例を作るための擬似コード.変数w[],Nとstackは図~\ref{code:analysis}のものと同じである.}\label{code:generate}\end{figure}我々の提案する係り受け解析のアルゴリズムの擬似コードを図~\ref{code:analysis}に示す.このアルゴリズムは,ある文節が別の文節に係るかどうかを決定する推定器(estimator)とともに用いる.推定器の典型的なものとして,SVMや決定木などの訓練できる分類器が考えられる.ここでは,文中の二つの文節の係り関係を推定できる,つまり係るか否かを決定できる何らかの分類器があり,その分類器の時間計算量は文の長さに影響されないと仮定しておく.係り関係の推定器を別にすれば,このアルゴリズムで使うデータ構造はわずか二つである.一つは入力に関するもので,もう一つは出力に関するものである.前者は,チェックすべき係り元の文節のIDを保持するためのスタックである.後者は,既に解析された係り先文節のIDを保持する整数の配列である.\begin{figure}[t]\begin{center}\begin{tabular}{llllll}&健が&彼女に&あの&本を&あげた.\\文節ID&0&1&2&3&4\\係り先&4&4&3&4&-\end{tabular}\end{center}\vspace{8pt}\caption{例文}\label{sample-parsing}\end{figure}以下では,例を使いながら先に示したアルゴリズムの動作を説明する.図~\ref{code:analysis}の擬似コードに沿って,図~\ref{sample-parsing}にある例文を解析してみよう.説明のため,図~\ref{code:analysis}の{\itestimate\_dependency}()として完璧な分類器があるとする.この分類器は図~\ref{sample-parsing}の例文に対して必ず正しい結果を返すとする.まず始めに0(健が)をスタックに積む.0は文の先頭の文節のIDである.この初期化の後,{\rmfor}ループの各繰り返し(iteration)の中で解析がどのように進むかを見る.最初のiterationでは,0番目の文節と1番目の文節(彼女に)の係り関係をチェックする.0番目の文節は1番目の文節に係らないから,0をスタックに積み,次に1を積む.ここで,スタックの底は0であって1ではないことに注意されたい.より小さいIDが必ずスタックの底のほうに保持される.この性質のおかげで,非交差の制約(第~\ref{sec:prop}のC3)を破らずに解析を進めることができる.2回目のiterationでは,1をスタックから降ろし,1番目の文節と2番目の文節(あの)の係り関係をチェックする.1番目の文節は2番目には係らないので,再び1と2をスタックに積む.3回目のiterationでは,2をスタックから降ろし,2番目の文節と3番目の文節(本を)の係り関係をチェックする.2番目の文節は3番目に係るので,その関係を{\itoutdep}[]に格納する.{\itoutdep}[$j$]の値は,第~$j$番目の文節の係り先を表す.例えば{\itoutdep}[$2$]$=3$は2番目の文節の係り先は3番目の文節であることを意味している.次に,1をスタックから降ろし,1番目の文節と3番目の文節の係り関係をチェックする.1番目の文節は3番目に係らないので1を再びスタックに積む.その後,3をスタックに積む.この段階で,スタックには頭から底に向けて3,1,0が格納されている.3回目のiterationでは,3をスタックから降ろす.3番目の文節と4番目の係り関係はチェックする必要がない.4番目の文節は文中の最も末尾の文節であり,3番目の文節は必ず4番目にかかるからである.そこで{\itoutdep}[$3$]$=4$とする.次に1をスタックから降ろす.この場合も,1番目の文節と4番目との係り関係のチェックはする必要がない.同様に,0番目の文節も4番目に係る.結果として{\itoutdep}[$1$]$=4$と{\itoutdep}[$0$]$=4$となる.この時点でスタックは空となり,この解析の関数{\itanalyze}()は終了する.解析結果である係り受け関係は,配列\linebreak{\itoutdep}[]に得られている.\subsection{時間計算量}\label{subsec:time}一見したところ,提案したアルゴリズムの時間計算量の上限は,2重ループを含むため$O(n^{2})$と思える.しかしそうではない.時間計算量の上限が$O(n)$であることを,図~\ref{code:analysis}における{\rmwhile}ループの条件部が何回実行されるかを考えることによって示す.条件部が失敗する回数と成功する回数とに分けて考える.{\rmwhile}ループの条件部は$N-2$回失敗する.何故なら外側の{\rmfor}ループが1から$N-1$へ,つまり$N-2$回実行されるからである.もちろん,{\rmwhile}ループが無限ループになることはない.{\rmwhile}ループの内部でstackに値を新たに積むことなく降ろしているので,いつか$j=={\rmEMPTY}$になる.つまり$j\!={\rmEMPTY}$を満たさず,{\rmwhile}ループを抜けることになる.一方,この条件部は$N-1$回成功する.何故なら{\itoutdep}[$j$]$=i$が$N-1$回実行されるからである.文節$j$それぞれについて,{\itoutdep}[$j$]$=i$は必ず一度だけ実行される.{\itj=stack.pop}()を実行すると,$j$に格納されている値は失われ,その値は二度と再びスタックに積まれることはないからである.つまり,{\rmwhile}ループは,高々$N-1$回実行される.これは末尾の文節を除く文節数に等しい.結局,{\rmwhile}ループの条件部の実行回数は,失敗回数$N-2$と成功回数$N-1$を合計し$2N-3$となる.これは時間計算量の上限が$O(n)$となることを意味している.\subsection{訓練事例を作り出すアルゴリズム}前節のアルゴリズムで用いる分類器のための訓練事例を作り出すには,図~\ref{code:generate}に示すアルゴリズムを使う.図~\ref{code:analysis}にある解析用のアルゴリズムと殆ど同じである.違いは,{\itindep}[]を使って{\itestimate\_dependency}()が正しい係り関係の判定を返す点と,{\itoutdep}[]に係り先のIDを格納する必要がない点である.\subsection{特徴のまとめと関連研究との理論的な比較}\label{comp:theory}我々の提案アルゴリズムは次のような特徴を持つ:\begin{itemize}\item[F1.]特定の機械学習の方法に依存しない.訓練できる分類器ならどれでも使える.\item[F2.]左から右へ文を一度だけスキャンする.\item[F3.]時間計算量の上限は$O(n)$である.アルゴリズム中,最も時間を消費する部分である分類器の呼び出しの回数は,高々$2N-3$回である.\item[F4.]アルゴリズムの流れとデータ構造は非常に簡単である.そのため,実装も易しい.\end{itemize}我々のアルゴリズムと最も関連が深いモデルの一つは,\cite{Kudo2002}の\linebreakCascadedChunkingModelである.彼らのモデルと我々のアルゴリズムはF1を始め多くの共通点がある\footnote{文献\cite{Uchimoto1999}に代表される2文節間の係り受け確率を考える確率モデルと,CascadedChunkingModelとの比較は文献\cite{Kudo2002}で詳細になされている.ほぼ全ての議論が確率モデルと我々の提案手法との比較にも当てはまる.}.彼らのモデルと我々のアルゴリズムの大きな違いは,入力文を何回スキャンするかにある(F2).彼らのモデルでは,入力文を何回かスキャンする必要があり,これは計算上の非効率につながっている.最悪の場合では$O(n^{2})$の計算が必要になる.我々の解析アルゴリズムは,左から右に一度だけしかスキャンせず,実時間の音声認識などのような実用的なアプリケーションに対しても,より好適であろう.それに加えて,アルゴリズムの流れと利用するデータ構造は,CascadedChunkingModelで使われるものよりもずっと簡単である(F4).彼らのモデルでは,チャンクタグを保持する配列が必要となり,入力文を何度もスキャンする間,この配列は正しく更新されなければならない.NivreによるProjectiveDependencyParsingの手法\cite{Nivre2003}も,我々のアルゴリズムと深い関係がある\footnote{Nivreのいう``projective''とは,依存関係(係り関係)が交差しないことと同じである.}.彼のアルゴリズムも,スタックを用いており,時間計算量の上限も$O(n)$である.ただし,我々のアルゴリズムが日本語を対象とし,係り先が必ず右にあることを前提にしているのに対し,Nivreのアルゴリズムは依存関係の向きはどちらでもよい.その点では,彼のアルゴリズムは我々の手法をより一般的にしたものと考えることができる.一方,\cite{Nivre2003}では,単語間の依存関係を決めるルールを用意しておき,ある一定の優先度で選ぶとしている\footnote{スウェーデン語を対象に126のルールを人手で記述している.ルールを,「右向きに係る」「左向きに係る」「対象語をスタックから降ろす」「対象語をスタックに積む」の四つのタイプに分け(詳細はここでは略す),タイプ間の優先度は,事前に人手で決める場合のみ実験で検証されている.ここでいう対象語とは,アルゴリズム中で係り関係をチェックする対象となっている語を指す.}.我々は,依存関係が一方向である日本語に対して,機械学習を用いる方法を提示し,実際に検証している.我々の解析アルゴリズムは,shift-reduce法の最も簡単な形の一つと考えられる.典型的なshift-reduce法との違いは,アクションの型を複数持つ必要がなく,スタックの先頭のみ調べればよいという点である.これらの簡潔さの理由は,日本語が制約C2(第~\ref{sec:prop}節参照)を仮定できること,文脈自由文法の解析ではなく,係り受け関係のみの解析であることの二つによる. \section{係り関係を推定するためのモデル} label{sec:models}2文節間の係り関係を推定するために,2文節に関係する形態的,文法的情報を素性のベクタとして表現し,それを入力として分類器に係るか否かを判断させる.その分類器として,サポートベクタマシン(SVMs)\cite{Vapnik1995}を用いた.SVMsは優れた特徴を持っている.その一つは,多項式カーネルを用いると,ある事例の持つ素性の組合せが自動的に考慮される点である.現在まで多数の分類タスクに対して,非常に優れた性能が報告されている.SVMsの形式的な記述については,文献\cite{Vapnik1995}を参照されたい.素性として,第~\ref{subsec:stfe}節以降で述べるものを用いた.実際には2文節間の係り関係の推定の処理は,図~\ref{code:analysis}の{\itestimate\_dependency}()の中で行なう.推定しようとする2文節の形態的,文法的情報を素性のベクタとして表現し,SVMsに係るか否かを判定させることになる.以下では,まず基本となる標準素性を述べ,次にそれに追加して用いる付加的な素性について述べる.\subsection{標準素性}\label{subsec:stfe}ここで「標準素性」といっているものは,\cite{Uchimoto1999,Sekine2000Backward,Kudo2000Japanese,Kudo2002}でほぼ共通に使われている素性セットを指す.それぞれの文節について以下の素性を使った:\begin{enumerate}\item主辞品詞,主辞品詞細分類,主辞活用型,主辞活用形,主辞表層形\item語形品詞,語形品詞細分類,語形活用型,語形活用形,語形表層形\item句読点\item開き括弧,閉じ括弧\item位置—文の先頭か文の末尾か\end{enumerate}ここで主辞とは,概ね文節内の最も右の内容語に相当する.品詞が特殊,助詞,接尾辞を除き,最も文末に近い形態素を指す.語形とは,概ね文節内の最も右の機能語に相当する.品詞が特殊となるものを除き,最も文末に近い形態素を指す.これらに加えて,2文節間のギャップに関する素性も用いた.距離(1,2--5,6以上)と,助詞,括弧,句読点である.\subsection{注目文節の前後の文節}\label{subsec:loc}注目している係り元文節,係り先文節の前後の文節も有用である.それらが固定的な表現や格フレーム,その他の連語を表すことがあるからである.第~$j$番目の文節が係り元文節で,第~$i$番目の文節が係り先文節の候補だとする.$j$番目の文節と$i$番目の文節の前後にある文節のうち,次の三つを素性として考慮する:$j-1$番目の文節($j$に係るときのみ)と,$i-1$番目の文節,$i+1$番目の文節の三つである.我々のアルゴリズムでは,$j<i-1$を満たし$j$番目の文節が$i$番目の文節に係るかチェックしているとき,$i-1$番目の文節は必ず$i$番目の文節に係っていることに注意されたい.提案手法におけるデータ構造を簡単にしておくために,$j$番目,$i$番目の文節からさらに遠い文節については考慮しなかった.なお,$j-1$番目の文節が$j$番目の文節に係るかどうかは{\itoutdep}[]を見れば簡単にチェックできる.注目している文節の前後を使うのは,\cite{Kudo2002}における動的素性\footnote{Kudoらのモデルは,以下の三つから動的素性を作る:$j$番目の文節に係るもの(タイプB),$i$番目の文節に係るもの(タイプA),$i$番目の文節の係り先(タイプC).我々の提案手法では解析が左から右に進むので,タイプCの素性を取り入れるためには,スタッキング\cite{Wolpert1992}やその他の手法を用いる必要がある.}と似ている.\subsection{文節内の追加素性}「標準素性」では,文節内に二つ以上の機能語を含むとき格助詞の情報を見落とすことがある.ある文節が格助詞と提題助詞\footnote{提題助詞とは,主題を提示する助詞である\cite[page50]{Masuoka1992}.代表的な提題助詞は「は」である.}を持つとする.このとき格助詞の後ろに提題助詞が来る.それゆえ,格助詞の情報を見落としてしまう.「標準素性」では文節内の最も右の機能語しか素性として扱われないからである\footnote{例えば,係り元文節が「本-に-は」の場合,第~\ref{subsec:stfe}の語形の素性として「は」に関する素性が採用される.「に」に関する素性は使われない.}.こういった情報を見落とさないように,文節内の全ての格助詞を素性として扱う.「標準素性」で見落とされる重要な情報は他にもある.それは,係り先候補の文節の最も左の語の情報である.この語は係り元の文節の最も右の語と慣用表現のような強い相関関係を持つことも多い.これに加えて,係り先候補文節の直後の文節の表層形も素性として使う.これは,第~\ref{subsec:loc}節の素性とともに用いる.\subsection{並列句のための素性}並列構造を正しく認識することは,長い文を正しく解析する際に最も難しいことの一つである.KurohashiとNagaoは,二つの文節列の類似度を計算することによって並列句を認識する手法を提案している\cite{Kurohashi1994}.現在までのところ,機械学習を使うシステムの中で並列構造を認識するための素性はあまり研究されていない.我々は最初のステップとして,並列構造を認識するための基本的な二つの素性を試した.注目している文節が{\emキー文節}({\itdistinctivekeybunsetsu})\cite[page510]{Kurohashi1994}であるとき,この二つの素性は使われる.一つ目の素性は,係り元文節がキー文節であるときアクティブになるものである.もう一つの素性は,係り元文節がキー文節で,その係り元文節と係り先候補の文節の主辞表層形が一致していればアクティブになるものである.単純さを保つため,対象とする主辞品詞は名詞のみとした. \section{実験と考察} 提案アルゴリズムを利用したパーザをC++で実装し,その時間計算量の振る舞いや解析精度を実験的に評価した.\subsection{コーパス}提案アルゴリズムを評価するために,京大コーパスVersion2\cite{Kurohashi1998}を使った.新聞記事の1月1日から1月8日分(7,958文)を訓練事例とし,1月9日分(1,246文)をテスト事例とした.1月10日分を開発用に用いた.これらの記事の使い方は\cite{Uchimoto1999,Sekine2000Backward,Kudo2002}と同じである.\subsection{SVMの設定}独自にC++で実装したSVMsのツールを用いた.カーネルとして,3次の多項式カーネルを用いた.特に記述がない限り誤分類のコストは1に設定した.\subsection{実験結果}\label{subsec:results}\begin{table}[b]\caption{テスト事例に対する精度}\label{tbl:acc}\begin{center}\begin{tabular}{lcc}\hline\hline&係り受け正解率(\%)&文正解率(\%)\\\hline標準素性&88.72&45.88\\全て&89.56&48.35\\前後文節素性(5.2~節)なし&88.91&46.33\\文節内追加素性(5.3~節)なし&89.19&47.05\\並列句素性(5.4~節)なし&89.41&47.86\\\hline\end{tabular}\end{center}\end{table}{\bf解析精度}\hspace{0.4em}テスト事例に対する我々のパーザの性能を表~\ref{tbl:acc}に示す.従来研究との比較のために,性能評価には京大コーパスで標準的に使われる尺度である係り受け正解率と文正解率の二つを用いる.係り受け正解率とは,正しく解析された係り受けの割合であり(他の多くの文献と同様,文末の一文節を除く),文正解率とは,全ての係り関係が正しく解析された文の割合である.「標準素性」を用いた場合の精度は比較的よい.実際,この係り受け正解率は動的素性を用いないときのCascadedChunkingModel\cite{Kudo2002}とほぼ同じである.第~\ref{sec:models}節で述べた全ての素性を用いた場合,我々のパーザは89.56\%の係り受け正解率を得た.これは京大コーパスVersion2に対して公表されている精度の中で最もよいものである.\begin{figure}[t]\begin{center}\includegraphics[scale=1.2]{speed-j02.eps}\end{center}\caption{一文あたりの処理時間}\label{speed}\end{figure}{\bf時間計算量の漸近的な振る舞い}\hspace{0.4em}図~\ref{speed}に,我々のパーザのテスト事例に対する実行時間を示す.これはワークステーション(UltraSPARCII450MHz,1GBメモリ)を用いて計測した.図~\ref{speed}より実行時間の上限が文の長さに比例しているのが分かる.これは,第~\ref{subsec:time}節で行なった理論的な分析と一致している.この実験結果を見て,確かに従来研究よりも時間計算量の上限は低く抑えられているが,我々のパーザの実際の処理時間はそれほど速くないと思われるかもしれない.パーザのこの遅さの主たる原因は,SVMsにおけるカーネル評価での膨大な計算のせいである.我々の実験では,SVMの分類器は4万個以上のサポートベクタを持っている.それゆえ,係り関係を判定するたびに膨大な内積計算が必要となる.幸い,この問題に対する解決策は既にKudoとMatsumoto\shortcite{Kudo2003}によって与えられている.彼らは高次の多項式カーネルを線形カーネルに変換する手法を提案し,変換された線形カーネルでは,精度を保ったまま元の多項式カーネルよりもおよそ30から300倍高速だったと報告している.彼らの手法を我々のパーザに適用すれば,処理時間も十分高速化されるだろう.彼らの手法を用いればどのくらい我々のパーザの速度が改善されるか粗く見積もるために,線形カーネルを用い,同じテスト事例に対してパーザを走らせてみた.図~\ref{speed:lin}に,線形カーネルを用いたパーザの処理時間を示す.なお計測には多項式カーネルを用いた場合と同じマシンを使った.3次の多項式カーネルを使う場合に比べて相当に高速である.非常に長い文であっても0.02秒以内で解析が行なえている.加えて,このパーザのスピードばかりでなく精度も我々が期待した以上だった.係り受け正解率は87.36\%,文正解率は40.60\%に達した.これらの精度は,素性の組合せを人手で選択して追加しているパーザ\cite{Uchimoto1999}よりもわずかに良い.\begin{figure}[t]\begin{center}\includegraphics[scale=1.2]{speed-lin-j02.eps}\end{center}\caption{線形カーネルを使った場合の一文あたりの処理時間.誤分類のコストは0.0056.}\label{speed:lin}\end{figure}\subsection{関連研究との比較}\label{sec:relatedwork}我々のパーザと関連研究におけるパーザとを時間計算量と精度の点から比較する.比較のサマリを表~\ref{tbl:comp}に示す.我々のアルゴリズムとSVMsと組み合わせたものが時間計算量の点から優れた性質を持ち,加えてトップレベルの精度が得られている.\begin{table}[t]\caption{関連研究との性能の比較.KM02=KudoandMatsumoto2002,KM00=KudoandMatsumoto\hspace*{27pt}2000,USI99=Uchimotoetal.1999,andSeki00=Sekine2000.提案アルゴリズムをStack\hspace*{27pt}DependencyAnalysisと記述.}\label{tbl:comp}\begin{center}\begin{tabular}{l|l|c|c}\hline\hline&アルゴリズム/モデル&\multicolumn{1}{c|}{時間計算量}&係り受け正解率(\%)\\\hline本論文&StackDependencyAnalysis(SVMs)&$n$&89.56\\&StackDependencyAnalysis(linearSVMs)&$n$&87.36\\\hlineKM02&CascadedChunkingModel(SVMs)&$n^2$&89.29\\KM00&後方ビームサーチ(SVMs)&$n^2$&89.09\\USI99&後方ビームサーチ(ME)&$n^2$&87.14\\Seki00&決定的有限状態変換器&$n$&77.97\\\hline\end{tabular}\end{center}\end{table}文献\cite{Kudo2002}との比較は,第~\ref{comp:theory}の記述にゆずる.Uchimotoら\shortcite{Uchimoto1999}は最大エントロピー法と後方ビームサーチを用いている.文献\cite{Sekine2000Backward}によれば,解析時間は$n^{2}$に比例するとのことである.これに対し,我々のパーザは線形時間で文を解析し,精度もよい.工藤と松本\cite{Kudo2005}の「相対モデル」のパーザ\footnote{京大コーパスVersion2に対する精度が不明なため,表~\ref{tbl:comp}にはあげていない.}も,後方ビームサーチを用いているので,時間計算量という点ではUchimotoらのパーザと同様である.文献\cite{Kudo2005}では,「相対モデル」のパーザは,京大コーパスVersion3.0に対して,係り受け正解率91.37\%を得,CascadedChunkingModelは91.23\%を得たと報告されている.我々のパーザは,京大コーパスVersion2において,CascadedChunkingModelの精度を0.27ポイント上回っていることを考えると,我々のパーザと「相対モデル」パーザとの差も大きなものではないと判断できる\footnote{「相対モデル」がCascadedChunkingModelよりも,長距離の文節間の係り受けF値が上回っている\cite{Kudo2005}ことは注目に値する.我々の提案手法もCascadedChunkingModelと同様,直後に係りやすいという性質を利用しているため,「相対モデル」のほうが提案手法よりも長距離の文節間の係り受けF値がよい可能性が高い.}.また,我々と同様Sekine\shortcite{Sekine2000Japanese}も線形時間で処理が進む非常に高速なパーザを提案している.彼の手法は,後方から係り先を決定していく.係り元の文節の語形の情報と,係り先候補(5つまで)の主辞の情報から,係り先を一つに決める決定的有限状態変換器を用いている.係り元の語形や5つの係り先候補の主辞の情報を細かく区別すると,状態(state)の数が多くなりすぎ,大量のメモリを消費するため,係り元の語形の状態を40に,係り先の主辞の状態を18に限定している.品詞や活用形の情報のみ利用している.このため,精度が大きく犠牲になっている. \section{おわりに} 我々は線形時間で処理を行なう日本語係り受け解析のアルゴリズムを提案した.京大コーパスVersion2に対して実験を行ない,時間計算量と解析精度を調べた.時間計算量の上限は$O(n)$であることが確認でき,解析精度も従来報告されているものを上回った.精度の差は従来研究で報告されているものと大きくないため,精度面からの優位性は結論できないが,本研究で(1)提案アルゴリズムが理論的にも実験的にも時間計算量の上限が$O(n)$で抑えられていることと,(2)時間計算量を抑え,左から右へ一度しかスキャンしないにも関わらずトップレベルの精度が得られることの二つを示せた意義は大きいと考える.後方の文節を直接考慮しない提案アルゴリズムに一定の限界があることは明らかであるが,係り先として考慮する文節の数を増やしても精度が向上するとは限らず,その解決は単純ではない.我々はスタッキングにより精度が向上しないか検討したいと考えている.また,並列構造の認識についてもよりよいモデルを提案したい.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{1991}]{Abney1991}Abney,S.~P.\BBOP1991\BBCP.\newblock\BBOQParsingbyChunks\BBCQ\\newblockInBerwick,R.~C.,Abney,S.~P.,\BBA\Tenny,C.\BEDS,{\BemPrinciple-BasedParsing:ComputationandPsycholinguistics},\mbox{\BPGS\257--278}.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Collins}{Collins}{1996}]{Collins1996}Collins,M.\BBOP1996\BBCP.\newblock\BBOQANewStatisticalParserBasedonBigramLexicalDependencies\BBCQ\\newblockIn{\BemProc.ofACL-96},\mbox{\BPGS\184--191}.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{Eisner1996}Eisner,J.~M.\BBOP1996\BBCP.\newblock\BBOQThreeNewProbabilisticModelsforDependencyParsing:AnExploration\BBCQ\\newblockIn{\BemProc.ofCOLING-96},\mbox{\BPGS\340--345}.\bibitem[\protect\BCAY{Fujio\BBA\Matsumoto}{Fujio\BBA\Matsumoto}{1998}]{Fujio1998}Fujio,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1998\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisbasedonLexicalizedStatistics\BBCQ\\newblockIn{\BemProc.ofEMNLP-1998},\mbox{\BPGS\88--96}.\bibitem[\protect\BCAY{Haruno,Shirai,\BBA\Ooyama}{Harunoet~al.}{1998}]{Haruno1998}Haruno,M.,Shirai,S.,\BBA\Ooyama,Y.\BBOP1998\BBCP.\newblock\BBOQUsingDecisionTreestoConstructaPracticalParser\BBCQ\\newblockIn{\BemProc.ofCOLING/ACL-98},\mbox{\BPGS\505--511}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2000}]{Kudo2000Japanese}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2000\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisBasedonSupportVectorMachines\BBCQ\\newblockIn{\BemProc.ofEMNLP/VLC2000},\mbox{\BPGS\18--25}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking\BBCQ\\newblockIn{\BemProc.ofCoNLL-2002},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2003}]{Kudo2003}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQFastMethodsforKernel-basedTextAnalysis\BBCQ\\newblockIn{\BemProc.ofACL-03},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2005}]{Kudo2005}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ相対的な係りやすさを考慮した日本語係り受け解析モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(4),\mbox{\BPGS\1082--1092}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi1994}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLong{J}apaneseSentencesBasedontheDetectionofConjunctiveStructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),\mbox{\BPGS\507--534}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1998}]{Kurohashi1998}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1998\BBCP.\newblock\BBOQBuildinga{J}apaneseParsedCorpuswhileImprovingtheParsingSystem\BBCQ\\newblockIn{\BemProc.ofthe1stLREC},\mbox{\BPGS\719--724}.\bibitem[\protect\BCAY{Lafferty,Sleator,\BBA\Temperley}{Laffertyet~al.}{1992}]{Lafferty1992}Lafferty,J.,Sleator,D.,\BBA\Temperley,D.\BBOP1992\BBCP.\newblock\BBOQGrammaticalTrigrams:AProbabilisticModelofLinkGrammar\BBCQ\\newblockIn{\BemProc.oftheAAAIFallSymp.onProbabilisticApproachestoNaturalLanguage},\mbox{\BPGS\89--97}.\bibitem[\protect\BCAY{Maruyama\BBA\Ogino}{Maruyama\BBA\Ogino}{1992}]{Maruyama1992}Maruyama,H.\BBACOMMA\\BBA\Ogino,S.\BBOP1992\BBCP.\newblock\BBOQAStatisticalPropertyof{J}apanesePhrase-to-PhraseModifications\BBCQ\\newblock{\BemMathematicalLinguistics},{\Bbf18}(7),\mbox{\BPGS\348--352}.\bibitem[\protect\BCAY{益岡隆志\JBA田窪行則}{益岡隆志\JBA田窪行則}{1992}]{Masuoka1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法---改訂版---}.\newblockくろしお出版.\bibitem[\protect\BCAY{長尾真\JBA佐藤理史\JBA黒橋禎夫\JBA角田達彦}{長尾真\Jetal}{1996}]{Nagao1996}長尾真\JBA佐藤理史\JBA黒橋禎夫\JBA角田達彦\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre2003}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQAnEfficientAlgorithmforProjectiveDependencyParsing\BBCQ\\newblockIn{\BemProc.ofIWPT-03},\mbox{\BPGS\149--160}.\bibitem[\protect\BCAY{Ratnaparkhi}{Ratnaparkhi}{1997}]{Ratnaparkhi1997}Ratnaparkhi,A.\BBOP1997\BBCP.\newblock\BBOQALinearObservedTimeStatisticalParserBasedonMaximumEntropyModels\BBCQ\\newblockIn{\BemProc.ofEMNLP-1997},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Sekine}{Sekine}{2000}]{Sekine2000Japanese}Sekine,S.\BBOP2000\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingaDeterministicFiniteStateTransducer\BBCQ\\newblockIn{\BemProc.ofCOLING-00},\mbox{\BPGS\761--767}.\bibitem[\protect\BCAY{Sekine,Uchimoto,\BBA\Isahara}{Sekineet~al.}{2000}]{Sekine2000Backward}Sekine,S.,Uchimoto,K.,\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQBackwardBeamSearchAlgorithmforDependencyAnalysisof{J}apanese\BBCQ\\newblockIn{\BemProc.ofCOLING-00},\mbox{\BPGS\754--760}.\bibitem[\protect\BCAY{Uchimoto,Sekine,\BBA\Isahara}{Uchimotoet~al.}{1999}]{Uchimoto1999}Uchimoto,K.,Sekine,S.,\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisBasedonMaximumEntropyModels\BBCQ\\newblockIn{\BemProc.ofEACL-99},\mbox{\BPGS\196--203}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik1995}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Wolpert}{Wolpert}{1992}]{Wolpert1992}Wolpert,D.~H.\BBOP1992\BBCP.\newblock\BBOQStackedGeneralization\BBCQ\\newblock{\BemNeuralNetworks},{\Bbf5},\mbox{\BPGS\241--259}.\bibitem[\protect\BCAY{Yoon,Choi,\BBA\Song}{Yoonet~al.}{1999}]{Yoon1999}Yoon,J.,Choi,K.,\BBA\Song,M.\BBOP1999\BBCP.\newblock\BBOQThreeTypesofChunkingin{K}oreanandDependencyAnalysisBasedonLexicalAssociation\BBCQ\\newblockIn{\BemProc.ofthe18thInt.Conf.onComputerProcessingofOrientalLanguages},\mbox{\BPGS\59--65}.\end{thebibliography}\begin{biography}\bioauthor{颯々野学}{1991年京都大学工学部電気工学第二学科卒業.同年より富士通研究所研究員.1999年9月より1年間,米国ジョンズ・ホプキンス大学客員研究員.2006年3月よりヤフー株式会社勤務.自然言語処理の研究に従事.2006年10月より京都大学大学院情報学研究科知能情報学専攻博士後期課程在学.言語処理学会,情報処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V29N01-05
\section{はじめに} 対話において人間はしばしば自身の要求や意図を直接的に言及せず,間接発話行為と呼ばれる,言外に意図を含んだ間接的な発話によって表現することがある\cite{searle}.人間は対話相手から間接的な応答を受け取ったとき,これまでの対話履歴などの文脈に基づいて言外の意図を推測できる.図~\ref{figure:example}に,レストランの予約に関する対話における間接的な応答と直接的な応答の例を示す.この例ではオペレータの「Aレストランを予約しますか?」という質問に対してユーザは「予算が少ないのですが」と応答している(図中の「間接的な応答」).この応答は字義通りの意味だけを考慮するとオペレータの質問への直接的な回答にはなっていない.しかし,オペレータは対話履歴を考慮してユーザがAレストランよりも安いレストランを探していると推論し,新たにAレストランよりも安いBレストランを提案している.対話におけるユーザの間接的な発話とそれに示唆された意図(直接的な発話)の関係は,語用論的言い換えの一種である\cite{Fujita-paraphrase}.人間と自然なコミュニケーションを行う対話システムの実現のためには,ユーザの間接的な発話に暗示された意図を推定する語用論的言い換え技術の実現が重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f1.pdf}\end{center}\hangcaption{対話における間接的応答と直接的応答の例.これらの応答は字義通りに解釈すると異なる意味を持つが,この対話履歴上においては言い換え可能な関係にある.}\label{figure:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%大規模な対話コーパス\cite{li-etal-2017-dailydialog,MultiWoZ2.0,MultiWoZ2.1}と深層学習技術により,近年では対話応答生成\cite{zhao-etal-2020-learning-simple,zhang-etal-2020-dialogpt}や対話状態追跡\cite{SimpleTOD,minTL}など様々なタスクにおいて高い性能を誇るモデルや手法が提案されている.また,最近では語用論的言い換えに関するコーパスもいくつか存在する\cite{Pragst,Louis}.しかし,\citeA{Pragst}らは人工的に生成したコーパスを用いており,多様性や自然さに欠ける.また,\citeA{Louis}の構築したコーパスではYes/No型かつ一問一答型の質問応答対のみを扱うため,それ以外の間接的発話には対応できない.対話応答生成等の対話システム関連技術の分野においては,ユーザの間接的応答に着目した研究は未だに行われていない.語用論的言い換え技術の対話システムへの適用のためには,より複雑かつ自然な語用論的言い換えを含む対話コーパスの構築が必要である.本研究ではより高度な語用論的言い換え技術の開発のために,$71,498$の間接的な応答と直接的な応答の対からなる,対話履歴付きの英語言い換えコーパスDIRECT(DirectandIndirectREsponsesinConversationalText)\footnote{\url{https://github.com/junya-takayama/DIRECT/}}を構築する.間接的な応答は対話履歴のような文脈を伴うことで初めてその意図が解釈できるような応答である.そこで本コーパスは既存のマルチドメイン・マルチターンのタスク指向対話コーパスMultiWoZ\cite{MultiWoZ2.1}を拡張して作成した.我々はMultiWoZの各ユーザ発話に対してクラウドソーシングを用いて「ユーザ発話をより間接的に言い換えた発話」と「ユーザ発話をより直接的に言い換えた発話」の対を収集する.そのため,DIRECTコーパスには元の発話・間接的な発話・直接的な発話の$3$つ組が収録される.本研究ではDIRECTコーパスを用いて,語用論的言い換えの生成・認識能力を評価するための$3$つのベンチマークタスクを設計する.ベースラインとして,最先端の事前学習済み言語モデルであるBERT\cite{BERT}とBART\cite{BART}を用いた性能調査も行う.また,言い換え生成モデルを用いてユーザの入力発話を事前により直接的に言い換えることで,MultiWoZコーパスにおいて対話応答生成の性能が向上することを確認する.本稿の構成を記す.第~\ref{section:related}~章では本研究の関連研究を紹介する.第~\ref{section:direct_corpus}~章ではDIRECTコーパスの構築方法について述べたのち,データ例や統計的な分析結果を基にコーパスの特徴について説明する.第~\ref{section:benchmark}~章ではDIRECTコーパスを用いた$3$つのベンチマークタスクを導入する.第~\ref{section:response_generation}~章では,語用論的言い換えを考慮した対話応答生成モデルを構築し,その性能を評価する.最後に,本研究のまとめを第~\ref{section:conclusion}~章にて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{section:related}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{間接的な応答に関する研究}本研究において扱う「間接的な応答」は,間接発話行為\cite{searle}を純粋なテキストベースの人間--システム間対話で起こりうる範囲の問題に限定したものとして位置づけられる.間接発話行為とは,字義通りの解釈とは異なる効力を持つ発話のことである.例えばある駅においてAがBに対し「出口はどちらかわかりますか?」と尋ねたとする.これは字義通りに解釈すれば「わかるかどうか」を問うだけの疑問文であるが,Bとしてはその発話が「出口の場所を教えてほしい」という要請を伝えるものだと判断するのが自然である.間接発話行為とは逆に,発話の字義通りの解釈がそのまま効力を成す発話を直接発話行為と呼ぶ.間接発話行為は対話システム分野においても従来より重要な課題として取り組まれてきた\cite{perrault-1980-plan,4059159,roque-etal-2020-developing}が,直接性の異なる応答(発話)間の言い換え関係を直接的に扱ったコーパスの構築に取り組んだのは本研究が初めてである.相手への要求を間接的に表現することは,対話において互いの立場や心的距離を損なわないようにするためのポライトネス戦略の一つである\cite{brown-and-levinson}.対話システム分野においてもポライトネスは重要な観点であり,ポライトな振る舞いをする対話システムの実現に向けて多くの研究が多くなされている\cite{gupta-etal-2008-polly,niu-bansal-2018-polite,firdaus-etal-2020-incorporating}.本研究はポライトネスを直接扱うものではないが,DIRECTコーパスはポライトネス研究においても活用が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話における語用論的言い換えに関する研究}本研究では対話における語用論的言い換えに着目したコーパスを構築する.そこで本節では,対話システム分野において言い換えや間接的応答と直接的応答の関係性を扱った関連研究を紹介する.対話における発話の言い換えを扱った事例としては\citeA{hou-etal-2018-sequence,PARG}が挙げられる.これらの研究では言い換え生成技術を用いて発話の言い換えを生成することでデータ拡張を行い,応答生成の性能向上を達成している.しかし,発話の言い換えにおいては字義的な意味のみを考慮しており,語用論的な言い換えには対応していない.\citeA{Pragst}は間接的な発話と直接的な発話からなる言い換え対が含まれた対話コーパスをルールベースで自動構築する手法を提案している.また,再帰的ニューラルネットを用いた発話選択器を用いることで,対話中の間接的な発話をその発話と同じ意図を持つ直接的な発話に置き換えられることを示している.しかし,ルールベースであるために自動生成可能な対話データのパターンは限られており,多様性に欠けるコーパスとなっている.\citeA{Louis}は,Yes/No型の質問と,それに対する間接的な応答の対$34,268$件からなるコーパスを構築している.各質問応答対に対しては,応答が質問に対して肯定と否定のどちらの意図を示すものであるかがアノテーションされている.コーパス構築にあたってはまず著者らが事前に用意した$10$パターンの対話シナリオのいずれかに基づく質問をクラウドソーシングを用いて収集しており,質問数は合計で$3,431$件である.また,それぞれの質問に対して最大で$10$件の応答をクラウドソーシングを用いて収集している.そのため,人間らしくかつ多様な質問応答対からなるコーパスとなっている.しかし,一問一答型かつYes/No型の質問応答対に限定されており,Yes/Noで言い換えられないような間接的応答には対応していない.本研究ではこれらの既存研究とは異なり,人手で作成された対話履歴に対して人手で間接的応答・直接的応答の言い換え対を作成する.そのためDIRECTコーパスは人間らしく多様な応答が含まれ,かつ複雑な間接的応答を扱う最初の対話コーパスである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言い換えに関する言語資源}\label{subsection:paraphrase_corpus}言い換えに関連する既存のコーパスを紹介し,本研究で扱う語用論的言い換えの位置付けを示す.これまでに多くの言い換えコーパス\cite{dolan-brockett-2005-automatically,lan-etal-2017-continuously}が提供されている.\citeA{dolan-brockett-2005-automatically}は,Webニュース上から単語の一致率などに基づくヒューリスティックな手法によって言い換え候補の文対を抽出し,それらの文対が言い換えになっているかどうかを人手でラベル付けすることで,$5,801$件の言い換えコーパスを構築している(うち$3,900$件が言い換え対と判定されている).\citeA{lan-etal-2017-continuously}はTwitter\footnote{\url{https://twitter.com}}上から同じURLを参照するツイートの対を言い換え候補対として収集し,それらのツイート対が言い換えになっているかどうかを人手でラベル付けしており,$51,534$件の言い換えコーパスを構築している(うち$12,988$件が言い換え対と判定されている).これらの言い換えコーパスは全て対話履歴等の文脈を伴わないものであり,語用論的言い換えに着目したコーパスは存在しない.含意関係認識タスクに関するコーパス\cite{giampiccolo-etal-2007-third,marelli-etal-2014-semeval,bowman-etal-2015-large}も本研究との関連が深い.含意関係とは,ある$2$文$t_1$と$t_2$があったとき,$t_1$が真であればそのことから$t_2$も真であることが推論できるような関係のことを言う.含意関係認識コーパスには字義通りの意味だけではなく世界知識や語彙の上位下位関係なども考慮しなければ解けない問題も含まれている.対話における含意関係を扱ったコーパスとしては\citeA{welleck-etal-2019-dialogue}がある.このコーパスはシステムの持つペルソナとシステムが生成した発話との間の意味的な一貫性の向上を目的として構築されたものであり,ペルソナ情報と各発話との間での含意関係が付与されている.既存のコーパスにおいては,文同士が言い換え関係にあるかや文が仮説を含意するかどうかは,その文が用いられる文脈等を考慮せずとも世界知識や文の明示的な意味のみに依存して判断可能である.これに対し本研究で扱う語用論的言い換えでは,発話同士が言い換え関係にあるかどうかを判断するためには対話履歴等の文脈が重要な要素となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{DIRECTコーパス} \label{section:direct_corpus}語用論的言い換えとは,\pagebreakある文脈において使用されたときに同等の結果をもたらす発話対であり,主に対話において頻繁に生じるものである.よって語用論的言い換えを含むコーパスを構築するためには,まず対話履歴を作成する必要がある.本研究ではデータ作成コストを低減するため,既存の対話コーパスを拡張する形で言い換え対を収集する.また,トピックが限定されない雑談対話コーパスでは,作業者のトピックに関する知識に言い換え文が依存しやすく,品質のコントロールが難しい.そこで本研究では言い換え対の作成にあたって特別な知識を要しないと期待されるタスク指向対話コーパスを用いる.具体的にはMultiWoZ$2.1$(以降はMultiWoZと表記する)\cite{MultiWoZ2.0,MultiWoZ2.1}コーパスを基に,クラウドソーシングを用いて発話対を収集する.本章ではまず言い換え対の収集方法と得られたデータ例について\ref{subsection:collect}~節で説明する.また,収集したデータの品質評価を\ref{subsection:assess}~節にて行う.構築したDIRECTコーパスの特徴や性質について,\ref{subsection:statistcs}~節では統計的な観点から,\ref{subsection:qualitive}~節では定性的な観点からそれぞれ分析する.\ref{subsection:modelbased_analysis}~節においては,既存の言い換え認識モデルを用いて,DIRECTと既存の言い換えコーパスの比較分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{間接的な応答と直接的な応答の対の収集}\label{subsection:collect}MultiWoZは$10,438$対話からなるマルチドメインかつマルチターンの英語タスク指向対話コーパスであり,対話行為や対話状態など豊富なアノテーションが付属している.各対話はユーザとシステムの二者が交互に発話する形式であり,ユーザ発話は合計で$71,524$件存在する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}\caption{間接的応答と直接的応答の収集のための指示書}\label{table:instruction_collectiontask}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究ではクラウドソーシングサービスのAmazonMechanicalTurk\footnote{\url{https://www.mturk.com/}}を用いて,MultiWoZを拡張する形で語用論的言い換え対を収集する.作業者にはまず表~\ref{table:instruction_collectiontask}の指示書と作業例を提示する.また,図~\ref{figure:hit_collectiontask}のように,各作業者の作業画面上にはMultiWoZから抜粋された対話履歴が表示される\footnote{元々のMultiWoZデータはシステム(system)役とユーザ(user)役による二者間対話からなる.しかし本研究においては,人間同士の対話において自然に発生するような間接的な応答を収集するために,システム役の発話を``operator''による発話として表現し,人工的に生成されたものだと認識されないようにする.}.表示された対話履歴に基づいて,各作業者は指定されたユーザ応答(図~\ref{figure:hit_collectiontask}中の赤字の応答)を間接的な応答と直接的な応答のそれぞれに言い換え,入力フォームに入力する.なお,対話履歴のみでは話者の意図を十分に理解できない場合に備え,「Hints」ボタンを押すことでMultiWoZから抜粋したその対話の対話目標を表示できる機能を作業画面上に実装する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-1ia4f2.pdf}\end{center}\caption{クラウドソーシングを用いた間接的な応答と直接的な応答の対の収集に用いる作業画面例}\label{figure:hit_collectiontask}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{作業者の選定}数単語の置き換えや入れ替えなどのように語用論的な言い換えとは言えないものや,言い換えにもなっていないようなデータの収集を防ぐため,本番の収集タスクに登用する作業者を事前に選定した.具体的には,$2$回のパイロットタスクを実施した.なお,$2$回目のタスクにおいては$1$回目のタスクにおいて作業者から受けた質問や得られたデータの品質などを基に指示書を部分的に修正し,本番のタスクにおいて使用したものと同一の指示書を使用した.本番タスクにおいては,間接的な応答と直接的な応答の間の単語レベルのJaccard係数が$0.75$以上のデータを自動的に不採択にした.また,得られたデータの抜き打ち検査も実施した.最終的には,これらの手動評価と自動評価に合格した$655$人中の$536$人の作業者によってデータが作成された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{応答対の収集}$1$件あたりの作業にかかる平均時間を$1$分と見積もり,平均報酬は$1$件あたり$0.12$米ドル($1$時間あたりでは$7.2$米ドル.$2021$年$6$月$23$日現在のレートで日本円換算すると約$799$円)とした.最終的には$71,498$件\footnote{自然言語文として成り立っていない$26$件のデータを除外した.}の間接的な応答と直接的な応答の対を収集できた.得られたデータは,MultiWoZと同じ設定で訓練データと評価データに分割した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{04table02.tex}\hangcaption{DIRECTコーパスのデータ例.``USER(間接的)''と``USER(直接的)''はそれぞれ本研究においてクラウドソーシングによって収集した間接的応答と直接的応答で,``USER(オリジナル)''はMultiWoZから抽出したオリジナルの応答である.}\label{table:examples_collecteddata}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データ例}収集した言い換えの例を表~\ref{table:examples_collecteddata}に示す.上段の例におけるオリジナルのユーザ応答(MultiWoZに元々収録されている応答)を見ると,ユーザは中間的な価格帯のレストランを希望していることがわかる.この応答を間接的に言い換えたものとして``Idon'twanttooverspendbutrememberitsalsovacation''(あまり使いすぎたくはないけれど,休暇でもあるということを忘れないで)という発話が得られた.この例では``itsalsovacation''というフレーズが直接的な応答における``nottoocheap''(安すぎない)に対応している.下段の例では,間接的な応答の中に``Doyouknowofanyintown?''というフレーズがある.対話履歴を考慮すれば,これは単に「何か街にあるもの」を知っているかどうかを問うための発話ではなく,直接的な応答における``Canyoufindmeaguesthouse...?''のように「ゲストハウスを探してほしい」という要求を伝えるための発話であることが汲み取れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f3.pdf}\end{center}\caption{クラウドソーシングを用いたコーパスの品質評価に用いる作業画面例}\label{figure:hit_assessmenttask}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{品質評価}\label{subsection:assess}言い換え収集の実施後,最終的な成果物の品質評価を実施した.具体的には評価セットに含まれる$7,372$件分のユーザ応答に対し,得られた語用論的言い換え対の品質をクラウドソーシングを用いて評価した.品質評価において作業者に提示した作業画面の例を図~\ref{figure:hit_assessmenttask}に示す.作業者には評価対象となる言い換え対とその対話履歴を提示した.その際,言い換え対には``Response-A'',``Response-B''のラベルをランダムに割り当て,どちらが間接的(あるいは直接的)な応答として収集されたデータかわからないようにした.作業者にはまず,言い換え対が実際にMultiWoZのオリジナルの応答と同じ意図を表現できているかどうかを``Yes'',``No''の二値で評価してもらった.次に,Response-AとResponse-Bのどちらがより直接的かについても評価してもらった.なお,判断に迷った場合のみ``nodifference''を選ぶことを許容した.$1$件あたりの作業にかかる平均時間を$30$秒と見積もり,平均報酬は$1$件あたり$0.06$米ドル($1$時間あたりでは$7.2$米ドル.$2021$年$6$月$23$日現在のレートで日本円換算すると約$799$円)とした.各言い換え対に対して$5$人の作業者による評価を収集した.最終的な評価値はその多数決によって決定した.なお,評価タスクにおいては,収集タスクに参加した作業者が自分が作成したデータを自己評価することがないように作業者の割り当てを行った.評価結果を表~\ref{table:results_qualityassessment}に示す.Intention-accuracyは収集した言い換えのうち,オリジナルの応答と同じ意図を表現していると判断されたものの割合である.間接的な応答への言い換えでは$95.0\%$,直接的な応答への言い換えでは$99.7\%$と高い割合のデータがオリジナルと同じ意図を持っていることがわかる.間接的な応答のIntention-accuracyが直接的な応答の場合より$4.7\%$低い結果となった.これは,ユーザの意図を間接的に表現しているために,人間の評価者にとっても解釈が困難な曖昧な表現が多少含まれているためであると考えられる.Directness-accuracyは,Response-AとResponse-Bのどちらがより直接的かとの問いに対し,直接的な応答として収集された方の応答が正しく選ばれた割合である.``Exact''は``nodifference''と判断されたデータを許容しない設定,``Relaxed''は許容した設定でのDirectness-accuracyであり,それぞれ$81.4\%$,$89.4\%$と高い割合となった.DIRECTコーパスにおいては,これらの評価ラベルも提供する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3and4\begin{table}[b]\begin{minipage}[c]{0.49\hsize}\input{04table03.tex}\caption{評価データの品質評価結果}\label{table:results_qualityassessment}\end{minipage}\begin{minipage}[c]{0.49\hsize}\input{04table04.tex}\caption{収集した言い換え対の統計情報}\label{table:stats}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計的分析}\label{subsection:statistcs}DIRECTコーパスにおける語用論的言い換えの特徴を明らかにするために,まずトークン単位での統計的分析を行う.表~\ref{table:stats}に単語レベルでの統計情報を示す.なお,単語分割にはnltk\footnote{\url{https://www.nltk.org/}}ライブラリの`word\_punct\_tokenize()'メソッドを用いた.また,大文字小文字は区別していない.まず,語彙サイズについては,間接的な応答の方が直接的な応答よりも$1.3$倍程度大きいことがわかる.これは,同じ意図を持った発話であっても,直接的に表現した場合よりも間接的に表現した場合の方がより多様な表現を取り得ることを示唆している.また,文長(応答に含まれる平均単語数)に関しては,間接的な応答では$15.59$,直接的な応答では$12.38$で,間接的な応答の方が長い.平均文長についてWilcoxonの検定\cite{10.2307/3001968}を実施したところ,$0.1\%$有意水準で有意であった.図~\ref{figure:histogram_diff}に,対応する間接的な応答と直接的な応答の文長の差のヒストグラムを示す.図を見ると,文長の差はやや正の側に偏りつつも,負の側にも多く分布していることが読み取れる.このことから,平均文長に有意差はあれど,発話をより直接的に言い換える際に単に文長を短くすることが必ずしも有効というわけではないことが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f4.pdf}\end{center}\caption{間接的応答と直接的応答それぞれの文長の分布}\label{figure:histogram_diff}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{04table05.tex}\caption{頻度上位$20$件のtri-gram}\label{table:trigram}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,間接的な応答と直接的な応答において使用されるフレーズの違いを調査する.表~\ref{table:trigram}に,それぞれにおける単語tri-gramの頻度上位$20$件を掲載する.表を見ると,直接的な応答のtri-gramには``book''や``find''などユーザがオペレータにして欲しいことを直接的に伝える動詞や,``thereferencenumber''のように特定のオブジェクトを指すフレーズが頻繁に含まれていることがわかる(表中太字で表記).一方,間接的な応答のtri-gramには,直接的な応答では頻出でない``isthereany''や``Ithinkthat''などのフレーズが含まれている.以上のことから,間接的な応答と直接的な応答では,それぞれ頻出するフレーズに違いがあることが読み取れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性的分析}\label{subsection:qualitive}DIRECTコーパスにおいて,直接的応答と比較して間接的応答にはどのような特徴があるかを調査するため,訓練データから無作為に抽出した$300$件の応答対について類型化を試みる.第一著者による分析の結果,応答対は以下の$5$つの類型に大別できた.以下に各類型の割合とその説明を記す.なお,複数の類型に該当する応答もあったため,割合の和は$100\%$に一致しない.\begin{description}\item[要求や行為の曖昧化$(54.0\%)$]直接的応答では明示的に言及されている要求や行為について,間接的応答ではより曖昧になっているもの.\\\textbf{例$1$}:(ユーザがレストランを探している文脈で)\\直接的応答:Findmeagoodgastropubintown.\\間接的応答:Itwouldbeidealifthereweregoodgastropubsintown.(「探して」という要求が明示されていない)\\\textbf{例$2$}:(システムの「PizzaHutCherryHintonservesItalianfoodonthesouthpartoftown.Wouldyouliketheirphonenumber?」という発話に対して)\\直接的応答:Yes,youcangetmethephonenumber.\\間接的応答:Iwillwanttocallthem.(「(電話番号を)提供してほしい」という要求が明示されていない)\item[対象の曖昧化$(18.3\%)$]直接的応答では明示的に言及されている物体や概念について,間接的応答ではより曖昧になっているもの.\\\textbf{例}:(映画館の予約が済んだ後で)\\直接的応答:Yes,Ialsoneedtheaddressofthe\textbf{theatre}?\\間接的応答:I'veneverbeenthere.I'llneedhelpfindingit.(theatreがthere,itによって参照されている)\item[世界知識に依存する言い換え$(10.3\%)$]直接的応答におけるある表現が,対話状況に依存しない形でより間接的な表現に言い換えられているもの.\\\textbf{例}:(システムがユーザに立地の希望を聞いた文脈で)\\直接的応答:Yeathe\textbf{north}soundslikeitwouldworkoutforme.\\間接的応答:Iamjusthopingtobe\textbf{asfarfromthesouthsideaspossible}.(対話状況によらず,「north」と「asfarfromthesouthsideaspossible」は言い換え可能)\item[丁寧さ・モダリティの調整$(41.3\%)$]間接的応答において,直接的応答に比べてより丁寧な言い回し(``Couldyou…''や``Wouldyou…''など)や断定を避けるようなモダリティ表現(``Ithink…''や``maybe''など)が付与されているもの.\\\textbf{例}:\\直接的応答:Pleasebookfor4peopleonTuesdayat12:00\\間接的応答:Canyoumakeareservationfor4peopleat12:00?\item[自己開示の追加$(7.0\%)$]発話意図を間接的に伝えるために,自己に関する何らかの情報を追加しているもの.\\\textbf{例}:\\直接的応答:Yeacanyoufindmeaplacetoeatthatisintheexpensivecategory.\\間接的応答:\textbf{Iwanttotakemygirl}tothenicestplacetoeatintown.\end{description}このうち,「要求や行為の曖昧化」と「対象の曖昧化」については間接的応答の意図の解釈が対話履歴に依存して変わりうるもの(対話履歴に依存した言い換え)であると言える.これら二つの類型の少なくともどちらか一方に属するデータの割合は$60.3\%$であった.よって,DIRECTコーパスのうち$6$割程度は対話履歴に依存した言い換えが行われていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{04table06.tex}\caption{言い換えかどうかの判定に対話履歴の有無が与える影響の調査結果}\label{table:effectiveness_history}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,応答の意図を人間が解釈する際に,対話履歴の有無がどの程度影響を与えるかを調査する.検証データから無作為に抽出した$500$件の応答対について,AmazonMechanicalTurkを用いて,それらがオリジナルの応答と言い換え関係にあるかどうかを,対話履歴を提示した場合と提示しない場合のそれぞれについて判定してもらった.各応答につき$5$人の作業者による判定を行ったのち,多数決によって最終的なラベルを決定した.表~\ref{table:effectiveness_history}に言い換えと判定された割合を示す.対話履歴を提示した場合,間接的・直接的応答はともにほぼ全ての応答がオリジナル応答と同義だと判定されていることがわかる.一方で対話履歴を提示しない場合は,提示した場合に比べて間接的応答では言い換えと判定された割合が$12.3\%$低い.このことから,DIRECTコーパスには対話履歴の情報が重要な言い換え対が少なくとも$12\%$程度は含まれていると推定される.しかし,この値は先の類型化において「対話履歴に依存する言い換え」としたデータの割合である$60.3\%$よりはるかに小さい.これは,``I'mlookingforward…''と``Findme…''のように必ずではないがほとんどの状況において慣習的に同じ意図で用いられるような応答対が,対話履歴を提示しなかった場合でも言い換え関係として判定されてしまったことが原因だと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデルを用いた分析}\label{subsection:modelbased_analysis}本節では,最先端の文符号化器や言い換え認識モデルを用いて,DIRECTコーパスと既存の言い換えコーパスの比較調査を行う.まず,DIRECTコーパス,MRPC\cite{dolan-brockett-2005-automatically},TwitterURLParaphraseコーパス\cite{lan-etal-2017-continuously}のそれぞれの言い換え対(DIRECTコーパスにおいては間接的応答と直接的応答の対)全てについて,文符号化器Sentence-BERT\footnote{\url{https://www.sbert.net/}にて公開されている`stsb-roberta-base'モデルを用いた.}\cite{reimers-gurevych-2019-sentence}を用いてその文間のコサイン類似度を計算する.図~\ref{fig:histogram_sbert}に示す類似度のヒストグラムを見ると,DIRECTは他の既存のコーパスに比べて類似度が低い言い換え対が多いことがわかる.Sentence-BERTは,文間の類似度を推定するタスクであるSTSBenchmark\cite{cer-etal-2017-semeval}を用いて事前訓練されたモデルであり,文脈を考慮しないレベルでの文の意味的類似度を扱うモデルとなっている.DIRECTではコサイン類似度が低い言い換え対が大量に存在することから,文脈を考慮しなければ言い換えだと判断できないような言い換え対が多く含まれていることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f5.pdf}\end{center}\caption{Sentence-BERTを用いて算出した言い換え対のコサイン類似度の分布}\label{fig:histogram_sbert}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,既存の言い換えコーパスを用いて訓練された言い換え認識モデルをDIRECTコーパスや既存のコーパスに適用して比較分析を行う.具体的には,BERT\footnote{実装にはtransformerライブラリ\url{https://huggingface.co/transformers/}のversion$3.5.1$を用いた.また,事前訓練済みモデルとしては``bert-base-cased''を用いた.}\cite{BERT}を既存の言い換え認識用コーパスでファインチューニングした言い換え認識モデルが,実際に言い換えだと認識できた言い換え対の割合を計算する.また,特性の異なる言い換え認識モデルでの挙動の違いを分析するため,MRPCとTwitterURLParaphraseコーパスで訓練したモデルに加え,ParaphraseAdversariesfromWordScrambling(PAWS)\cite{PAWS}で訓練したモデルについても分析を行う.PAWSコーパスは単語の重複度が高い言い換え対を扱うコーパスで,MRPCやTwitterコーパスに比べて構文レベルでの判断が必要なコーパスとなっている.図~\ref{fig:histogram_bert_twitter}にMRPCとTwitterURLParaphraseを用いてファインチューニングした場合の結果を,図~\ref{fig:histogram_bert_paws}にPAWSを用いてファインチューニングした場合の結果を掲載する.図~\ref{fig:histogram_bert_twitter},\ref{fig:histogram_bert_paws}を見ると,DIRECTコーパスはどちらのモデルにおいても言い換えと認識される対の割合がそれぞれ$64.9\%$,$35.3\%$と最も低いことが読み取れる.このことから,既存の語彙や構文レベルでの言い換えに着目したモデルでは,DIRECTに含まれる語用論的言い換えは十分に扱えないことが示される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6and7\begin{figure}[t]\setlength{\captionwidth}{198pt}\begin{minipage}[t]{200pt}\includegraphics{29-1ia4f6.pdf}\hangcaption{MRPC,TwitterURLparaphraseコーパスでファインチューニングしたBERTによって言い換えだと認識された言い換え対の割合}\label{fig:histogram_bert_twitter}\end{minipage}\hfill\begin{minipage}[t]{200pt}\includegraphics{29-1ia4f7.pdf}\hangcaption{PAWSコーパスでファインチューニングしたBERTによって言い換えだと認識された言い換え対の割合}\label{fig:histogram_bert_paws}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ベンチマークタスク} \label{section:benchmark}語用論的な言い換えを処理する能力を評価するための$3$つのベンチマークタスクを,DIRECTコーパスを用いて設計する.具体的には,間接的な応答を直接的に言い換えるIndirect-to-Directタスク(\ref{subsection:indirect2direct}~節),直接的な応答を間接的に言い換えるDirect-to-Indirectタスク(\ref{subsection:direct2indirect}~節),発話の直接性を推定する直接性推定タスク(\ref{subsection:classification}~節)を設計する.また,各タスクにおいて,ベースラインとして最先端の事前学習済み言語モデルであるBART\cite{BART}とBERT\cite{BERT}を用いて性能調査を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Indirect-to-Directタスク}\label{subsection:indirect2direct}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{タスクの概要と動機}Indirect-to-Directは,対話履歴を用いて,間接的な応答をその意図を保ったまま直接的な応答に変換するタスクである.本タスクの応用例としては,タスク指向対話システムのための発話の前編集などが考えられる.ユーザが入力した間接的な発話をモデルに入力する際に事前に解釈しやすい直接的な発話に変換することで,応答生成の品質が向上することが期待される.評価尺度としてはBLEU\cite{BLEU}とPerplexityを用いる.なお,Indirect-to-Directモデルの対話応答生成への適用実験を第~\ref{section:response_generation}章にて行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}\label{subsubsection:baseline_for_indirect2direct}本タスクは入力された発話を意図を保持したままより直接的なスタイルに置き換えるスタイル変換タスクであると言える.そこで,文平易化\cite{martin2021muss}やフォーマル性変換\cite{chawla-yang-2020-semi}などのスタイル変換タスクにおいて高い性能を記録しているBART\cite{BART}をこのタスクのベースラインとして用いる.ベースラインモデルのアーキテクチャを図~\ref{figure:model_architectures}(a)に示す.特殊トークンとして``\verb|<|user\verb|>|'',``\verb|<|system\verb|>|'',``\verb|<|query\verb|>|''を追加する.``\verb|<|user\verb|>|''トークン,``\verb|<|system\verb|>|''トークンをそれぞれ対話履歴中のユーザ発話の直前,システム発話の直前に付与することで,モデルがそれぞれの発話の話者を区別しやすいようにする.また,変換対象である間接的な応答の直前には``\verb|<|query\verb|>|''トークンを付与する.対話履歴中の発話と変換対象の応答を時系列順に連結し,BARTのエンコーダに入力する.なお,入力データのトークン数が$512$を超えた場合は末尾から$512$トークン目までのみを入力する.モデルのファインチューニングはクロスエントロピー損失を用いて行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f8.pdf}\end{center}\caption{ベンチマークタスクにおけるベースラインモデルのモデルアーキテクチャ}\label{figure:model_architectures}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実装にはtransformers\cite{wolf-etal-2020-transformers}ライブラリを使用した.また,事前学習済みモデルとして``facebook/bart-base''\footnote{\url{https://huggingface.co/facebook/bart-base}}を用いた.オプティマイザとしてAdamW\cite{loshchilov2018decoupled}を用い,学習率は$2\mathrm{e}-5$\footnote{検証データにおいて最も損失が小さくなるように選んだ.}とした.バッチサイズはGPUメモリ容量上の上限となる$8$を採用した\footnote{使用したGPUはGeForceRTX2080Ti,11GBMemory.}.訓練データのうちランダムに$2,000$件をハイパーパラメータチューニング用の検証データとして抽出し,残りを訓練に用いた.$30$エポックの学習を経て,最も検証データでの損失が小さいモデルを評価データでの評価に用いた.また,対話履歴の影響を調査するために,対話履歴を入力しないモデル(BARTw/o対話履歴)も構築した.事前学習の効果を検証するために,事前学習されていないTransformerモデルをDIRECTコーパスのみを用いて訓練したモデルについても評価を行った.なお,Transformerモデルについてはエンコーダ・デコーダ共に層数や中間層の出力次元数などの各種ハイパーパラメータをBARTと同一の値に設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{実験結果と考察}表~\ref{table:results_indirect2direct}に各モデルの評価データにおけるBLEUとPerplexityを示す.BARTを用いたモデルでは,対話履歴を考慮するモデルの方がBLEUスコアが高い.これは,語用論的な言い換えは対話履歴などの文脈に依存しており,文脈を考慮しなければ正確に意図を反映した言い換えができないことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{04table07.tex}\caption{Indirect-to-Directタスクの実験結果}\label{table:results_indirect2direct}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%BARTとTransformerについてはBARTの方がBLEU,Perplexity共に大きく上回っていることがわかる.この結果から,他の多くのタスクと同様に語用論的言い換えに対しても事前学習によって得られる知識が効果的に作用することがわかる.表~\ref{table:examples_indirect2direct}に生成された直接的な応答の例を示す.上段の例では,BARTモデルは間接的な応答の``thebestplace''というフレーズを価格帯に関する表現だと解釈できていることがわかるが,一方でTransformerモデルはこの解釈に失敗している.下段の例は文脈の考慮が特に重要な例である.対話履歴を利用しないBART(BARTw/o対話履歴)では,参照文とは逆の意図を持つ文を生成してしまっている.一方,対話履歴を利用する$2$つのモデルは共に参照文と同じ意図の文を生成できている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{04table08.tex}\caption{Indirect-to-Directタスクにおける直接的応答の生成例}\label{table:examples_indirect2direct}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Direct-to-Indirectタスク}\label{subsection:direct2indirect}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{タスク概要と動機}Direct-to-Indirectタスクでは先のタスクとは逆に,文脈のもとで意図を保ったまま直接的な応答を間接的な応答に変換することを目的とする.対話システムのユーザの中には,間接的な応答を返すシステムを好む人と直接的な応答を返すシステムを好む人がほぼ同数ずついることが\citeA{miehle}によって報告されている.したがって,対話システムが人間と円滑なコミュニケーションを行うためには,直接的な応答を間接的に言い換える技術の実現も重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}Indirect-to-Directタスクでの設定と同様,ベースラインとしては対話履歴を入力とするBARTモデルを用いる.図~\ref{figure:model_architectures}(b)にモデルアーキテクチャを示す.対話履歴と言い換え対象の直接的応答を\ref{subsubsection:baseline_for_indirect2direct}~節で述べたのと同様の方法でBARTエンコーダに入力する.また,対話履歴を無視したBARTモデルや,事前訓練を行わずに訓練したTransformerモデルとの比較も行う.ハイパーパラメータやその他の学習設定についてもIndirect-to-Directタスクと同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{04table09.tex}\caption{Direct-to-Indirectタスクの実験結果}\label{table:results_direct2indirect}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{実験結果と考察}表~\ref{table:results_direct2indirect}に各モデルの評価データにおけるBLEUとPerplexityを示す.BARTをファインチューニングしたモデルが,事前訓練を行わないTransformerモデルに比べて高いBLEUスコアと低いPerplexityを達成しており,事前学習がこのタスクにおいても有効であることが確認できる.全体的に,Direct-to-Indirectタスクに比べてBLEUとPerplexityは共に悪化した.また,対話履歴を用いてもBLEU,Perplexity共に改善が見られなかった.これらの結果から,Direct-to-Indirectタスクの方がIndirect-to-Directタスクよりも難易度の高いタスクであることが示唆される.実際,\ref{subsection:statistcs}~節における統計的な分析でも述べたように,間接的な応答には直接的な応答よりも豊富な語彙が用いられている上に,平均文長も長い.そのため,対話履歴の有無に関わらず,直接的な応答を間接的な応答に適切に変換する能力を獲得できていないのではないかと推測できる.表~\ref{table:examples_direct2indirect}の生成例から見て取れるように,全てのモデルにおいて生成された応答は入力された直接的な応答の意図を保持できていない.直接的な応答から間接的な応答への変換のためにはより高度なモデルが必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{04table10.tex}\caption{Direct-to-Indirectタスクにおける間接的応答の生成例}\label{table:examples_direct2indirect}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{直接性推定タスク}\label{subsection:classification}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{タスク概要と動機}直接性推定タスクでは,発話の直接性の度合いを推定することを目的とする.この技術を用いることで,ユーザの入力発話が間接的かどうかを事前に判定し,もし間接的であった場合にその意図を聞き直したり,あるいは間接的な発話を直接的に言い換えたりすることができる.DIRECTコーパスには,それぞれの対話履歴に対してMultiWoZのオリジナルの応答,間接的な応答,直接的な応答の$3$つの応答が付与されている.これらの応答は直接性が高い順に並べると直接的な応答,オリジナルの応答,間接的な応答の順になる.このタスクでは,モデルが推定した入力発話の直接性スコアを用いて$3$つの応答を降順に並び替えたときに,それが実際の直接性の順番通りに並んでいるかどうかを基に評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}本タスクのベースラインとしては,対話行為推定\cite{yu-yu-2021-midas}や対話状態追跡\cite{wu-etal-2020-tod}などの対話データに対する分類タスクにおいて高性能を誇るBERTを用いる.モデルアーキテクチャを図~\ref{figure:model_architectures}(c)に示す.先の$2$つのタスクと同様に,まず直接性の推定対象である応答と対話履歴を特殊トークンを挟んで連結してBERTエンコーダに入力する.``[CLS]''トークンに対応する最終層の出力を線形層に入力してスカラー値に変換し,sigmoid関数を通して$\left(0,1\right)$の範囲のスカラー値を得る.最終的な出力を入力された応答の直接性を示すスコアとみなす.モデルの学習には,ランキング学習\cite{mitra2018an}タスクでよく用いられるPointwise損失とPairwise損失を用いる.Pointwise損失では,推定値と正解の直接性スコアの間の平均二乗誤差を最小化する.なお,今回は擬似的な正解値として,間接的な応答に$0.0$,オリジナルの応答に$0.5$,直接的な応答に$1.0$のスコアを割り振る.Pairwise損失は,より直接的な応答の推定スコアが他方の応答よりも大きくなるような損失関数である.例えば,直接的な応答$A$と間接的な応答$B$があって,その推定スコアを$s_A$,$s_B$としたとき,Pairwise損失は以下で定義される:\[-\log{\frac{1}{1+e^{-\left(s_A-s_B\right)}}}\]評価尺度としては,推定スコアに基いたランキングと正解のランキングに対して,それらが完全一致する割合(Exactmatch)とそれらの間のKendall'stauを用いる.モデルの実装にはtransformersライブラリを用いた.また,事前学習済みモデルとして``bert-base-cased''を使用した.また,比較のために対話履歴を入力しないモデルも構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{実験結果と考察}表~\ref{table:results_classification}に実験結果を示す.なお,太字は$t$検定の結果$1\%$水準で他の群との有意差が認められたものを示す.太字で示された$2$モデル間では有意差を認められなかった.Exact-matchとKendall'stauの両方において,対話履歴を利用しないモデルと利用するモデルではほぼ変わらない値となっていることがわかる.\ref{subsection:statistcs}~節にて述べたように,間接的な応答と直接的な応答の間には使用される語彙やフレーズに大きな違いがあることがわかっている.このことから,直接性については対話履歴を用いずともフレーズや単語のみをする手がかりとしてある程度予測可能なのではないかと考えられる.しかし,Exact-matchは$0.813$にとどまっており,更なる性能向上のためには対話履歴の利用方法の改良を含め,より高度なモデルの構築が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{04table11.tex}\caption{直接性推定タスクの評価結果}\label{table:results_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{対話応答生成への語用論的言い換えの適用} \label{section:response_generation}ユーザ応答が直接的であるほど対話応答生成の性能は向上するという仮定に基づき,語用論的言い換えを考慮した対話応答生成モデルの構築と評価を行う.具体的には,最先端の対話応答生成モデルであるUBAR\cite{yang2021ubar}に対し,入力発話に加えてそれをより直接的に言い換えたものも考慮するようにモデルを改良する.本章ではモデルの構築に先あたって,ユーザ応答の直接性が対話応答生成に与える影響を\ref{subsection:effect_indirectresponses}~節で調査し,仮定の妥当性を検証する.\ref{subsection:ubar}~節では,語用論的言い換えを考慮した対話応答生成モデルの構築方法について説明する.\ref{subsection:responsegeneration_result}~節にて,応答生成実験の結果と考察を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話システムにおける間接的発話の影響調査}\label{subsection:effect_indirectresponses}\ref{subsection:classification}~節で構築した直接性推定モデルを用いて,ユーザ応答の直接性がシステム応答の生成に与える影響を調査する.まず,表~\ref{table:results_classification}で最も高性能であったBERTw/ohistoryのPairwise損失モデルを用いて,MultiWoZの評価データのユーザ応答を間接的・直接的のいずれかに振り分ける.ここで,振り分けの閾値は$0.5$に設定し,それより高いものは直接的,それ以下のものを間接的とする.次に,間接的なユーザ応答群と直接的なユーザ応答群のそれぞれに対して最先端のEnd-to-Endタスク指向対話モデルであるUBAR\cite{yang2021ubar}を用いてシステム応答を生成する.なお,実装には著者らが公開しているスクリプトを用いた\footnote{\url{https://github.com/TonyNemo/UBAR-MultiWOZ}}.それぞれのユーザ応答群に対するシステム応答のBLEUを計算したところ,間接的な応答群に対しては$10.25$,直接的な応答群に対しては$14.09$となった.この結果から,対話システムにとっては直接的なユーザ応答の方が間接的なユーザ応答に比べてよりシステム応答を生成しやすいという仮定は妥当であると言える.よって,ユーザ応答を予めより直接的に言い換えて応答生成モデルに入力することで,対話応答生成の性能は改善できると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語用論的言い換えを考慮した対話応答生成器の構築}\label{subsection:ubar}本実験においては最先端のタスク指向対話応答生成モデルであるUBAR\cite{yang2021ubar}に対し,語用論的言い換えを考慮するように改良を加える.UBARは事前学習済みのテキスト生成モデルであるGPT-2\cite{radford2019language}を基にして構築されたEnd-to-End型のタスク指向対話応答生成モデルであり,MultiWoZデータにおける応答生成において高い性能を記録している.UBARのモデルアーキテクチャを図~\ref{figure:ubar}(a)に示す.UBARではGPT-2に対して対話履歴中の最初のユーザ発話を入力し,その入力を基に,ユーザが何を求めていて何が解決されていないか等,現状の対話状態を予測する.予測された対話状態を基にホテルやレストランの空き情報等が登録されたデータベースを検索し,条件に合致したレコードをGPT-2に入力する(図中「DB」).その後,次にどのような応答を生成するべきかを示す対話行為を推定し,最後にシステム応答を生成する.次のユーザ発話が入力された後も同様の処理を繰り返すことで,対話履歴を考慮しながら応答を生成していくようなモデルとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{29-1ia4f9.pdf}\end{center}\caption{応答生成モデルのモデルアーキテクチャ}\label{figure:ubar}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本実験ではUBARへの入力ユーザ発話に対して,それをより直接的に言い換えたものを図~\ref{figure:ubar}(b)のように連結して入力することで,入力発話を直接的に言い換えた場合の応答生成性能を検証する.なお,予測対象の応答の直前の発話のみを言い換え対象としている.訓練時には直接的な応答として参照文(DIRECTコーパスに収録されている直接的な応答)を用いる.評価時には第~\ref{subsection:indirect2direct}~節で構築したIndirect-to-Directモデルを用いて生成した直接的な応答を用いる.また,言い換えによる性能向上の上限を調査するため,参考として評価時に直接的応答として参照文を用いた場合の性能についても報告する.訓練設定やパラメータについては全てのモデルについて\citeA{yang2021ubar}での設定に準拠した.実装は著者らが公開しているスクリプトを用いた.実験データとしては引き続きMultiWoZを使用しており,訓練データと評価データへの分割方法もベンチマークタスクや\citeA{yang2021ubar}での設定と同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果と考察}\label{subsection:responsegeneration_result}評価データにおける評価結果を表~\ref{table:results_responsegeneration}に示す.なお,評価尺度はBLEU,INFORM,SUCCESS,COMBINEDの$4$種類である.このうちINFORM,SUCCESS,COMBINEDはMultiWoZ\cite{MultiWoZ2.0}等のタスク指向対話データセットを用いた応答生成実験において代表的に利用されている評価尺度である.INFORMは対話全体を通して提示したエンティティ(ホテル名やレストラン名など)が正解と一致した割合であり,ユーザのニーズに合致した場所を案内できたかどうかを図る尺度である.SUCCESSは要求された属性値(住所や予約番号,列車番号など)を正確に出力できた割合であり,予約等の成功率を図る尺度である.COMBINEDはこれら$3$つの尺度を統合したもので,$\text{COMBINED}=\text{BLEU}+0.5\cdot(\text{INFORM}+\text{SUCCESS})$で計算される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{04table12.tex}\caption{対話応答生成の評価結果}\label{table:results_responsegeneration}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表より,全ての尺度において直接的な応答への言い換えを考慮したモデルがUBARのスコアを上回っていることがわかる.特に,SUCCESSにおいては生成された言い換えを用いた場合で$1.0$ポイント,参照文を用いた場合で$1.6$ポイント上昇している.よって,ユーザ発話の直接的な発話への言い換えは対話応答生成の性能向上に寄与することがわかった.また,生成文と参照文を比較した場合,BLEU以外の全ての尺度で参照文の場合の方が性能が高いことが読み取れる.このことから,より正確な語用論的言い換えモデルを構築することで,さらなる応答生成性能の向上が見込める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{section:conclusion}本研究では$71,498$対の間接的応答と直接的応答の語用論的言い換え対を含むタスク指向対話コーパスを,既存のマルチターンタスク指向対話コーパスであるMultiWoZを拡張する形で構築した.また,$3$つのベンチマークタスクを提案し,最先端の事前学習済み言語モデルの語用論的言い換えに対する処理能力を調査した.さらに,DIRECTコーパスでの実験において,入力発話をより直接的に言い換えることで応答生成の性能が向上することを確認した.今後はより性能の高い語用論的言い換え生成・認識モデルの構築に取り組む.本研究ではタスク指向対話コーパスであるMultiWoZを対象として語用論的言い換えコーパスを構築したが,雑談対話においてはそのドメインの広さや発話の多様さから,より複雑な語用論的言い換えが発生すると考えられる.雑談対話における語用論的言い換えコーパスの構築や言い換えモデルの構築も将来的な課題として挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP18K11435および公益財団法人木下記念事業団の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{高山隼矢}{2017年豊田工業大学工学部先端工学基礎学科卒業.2019年大阪大学大学院情報科学研究科博士前期課程修了.同年同研究科博士後期課程に進学.現在に至る.自然言語生成,対話システムに興味を持つ.修士(情報科学).言語処理学会,ACL各学生会員.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,言語教育支援,対話システムに興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V02N01-03
\section{はじめに} 本論文では日本語の論説文を対象にした要約文章作成実験システム\G\footnote{\slGeneratorofREcapiturationsofEditorialsandNoticesの略.}(以下\Gと呼ぶ)について述べる.一般に,質の良い文章要約を行うためには,照応,省略,接続的語句,語彙による結束性,主題・話題,焦点など多くの談話現象の処理が必要であり,これらの談話現象は互いに複雑に影響しあっているので,これらの談話現象の一部のみの処理を行って要約を試みても,質の高い要約が得られる可能性は低い.本研究の目的は,以上の見地から現状で解析可能な談話要素をできるだけ多く取り込み,実際に計算機上で動作する実験的な要約作成システムを試作してその効果を検討することである.文章要約については,日本語学あるいは日本語教育の分野でも,現状では定義や手法が確立していない\cite{要約本}.本論文では,文章要約とは,重要度が相対的に低い部分を削除することであるとみなす.一般には,文章中のある部分の「重要度」は文章の種類によって異なるので,要約の方法は,文章の種類によって異なったアプローチを取る必要があると考えられる.本研究では,新聞社説などの,筆者が読者に対して何らかの主張や見解を示す文章(以下,論説文章と呼ぶ)を要約の対象にする.田村ら\cite{田村}は,文章の構造および話題の連鎖を表現する修辞構造ネットワークおよび話題構造を作成することによる要約方式を提案しているが,思考実験に留まっており,その実現には,一般的知識に関するシソーラスの構築や,修辞構造ネットワークの自動作成手法などの困難な問題が残されている.また間瀬らは,「重要文に比較的よく出現する表層的特徴を多種類含んでいる文が真の重要文である」という仮定に基づき,題名語,高頻度名詞,主題(助詞「は」)などのパラメータを総和することによって重要語を決定し,要約文を選択するという統計的手法に基づく要約法を提案している\cite{杉江}.本研究では,要約中で原文章の文をそのまま使用するのではなく,文内で比較的重要度が低いと考えられる連体修飾要素の削減も行った.一方,本手法は文章内の談話構造の利用による文章要約を試みたものであり,\cite{杉江}などの従来の抄録作成に使用されてきた語の頻度に関する情報は,使用しなかった.また,前述の両論文でも使用している文章のタイトル(題名)の情報も,タイトルはそもそも文章の「究極的な要約」であるという立場から,要約処理への使用は循環論的であると考えられるので,本手法では利用しなかった.以下,\ref{システム}節で,\Gのシステム構成を述べる.\ref{要約文選択}節から\ref{段落分け}節で,要約文の選択,一文内で修飾語を削減することによる文長の短縮法,要約文章の段落分け,のシステム各部の詳細を述べる.\ref{評価}節では,アンケート調査に基づき\Gを評価する.\ref{議論}節では,大量の要約文生成で明らかになった問題点や,得られた知見を紹介する.本論文では要約実験対象として日本経済新聞の社説を用いた.論文中の例文,要約例は,[例文\ref{作例から}]〜[例文\ref{作例まで}]を除いてすべて1990年9月と1990年11月の同社説から引用したものである. \section{システム構成} label{システム}要約システム\GはSunSPARCStationI上で,Perl言語を使用して作成されている.システムは,以下の五つの部分からなる.以下では要約文として使用することを「採用する」と表現する.\begin{description}\item[形態素解析部]解析方法は,文節数最小法を基本として,いくつかのヒューリスティックスを取り入れている.文献\cite{手がかり語}で使用したLisp版の形態素解析部を移植して,改良を加えたものである.辞書は角川類語新辞典\cite{角川類語}に,固有名詞及び機能語を追加したものである.形態素解析を行うと同時に,各語について同辞典の分類番号を調べておく.\item[要約文選択部]すでに採用した文の文長の合計と,あらかじめ設定した目標要約率とを比較しながら,新たに採用する要約文を選択していく.要約文として採用された文に対して,手がかり語による結束処理,及び省略処理を行い,条件に該当する場合,その前文も要約文として採用する.\item[文要約解析部]要約文として採用された文に対して,修飾句を削減することにより文レベルの圧縮を行う.\item[段落分け解析部]文献\cite{手がかり語}で述べた方法を用いて,原文の意味段落にそって段落分けを行い,要約文章を生成する.\end{description} \section{要約文選択} label{要約文選択}\subsection{見解文と現象文}論説文章中の文は,著者の主張,意見,希望などを述べた文と,その主張,意見,希望などを述べるために必要な出来事,事実,現象を述べた文の二種類に大別することができる.例えば,以下の[例文\ref{one}]は現在の状況を事実として述べた文,[例文\ref{two}]は筆者の意見を述べた文である.\begin{sample}\item地球温暖化の防止を目指してジュネーブで開かれていた第二回地球気候会議が終わった。[13/Nov/1990]\label{one}\item今回の会議は、来年二月から始まる温暖化防止のための条約作りの基礎になるだけに、目標が不明確のままに終わったのは残念である。[13/Nov/1990]\label{two}\end{sample}以下では,著者の主張,意見,希望などを述べた文を「見解文」,出来事,事実,現象を述べた文を「現象文」と呼ぶ.文章中のすべての文は,見解文か現象文のどちらかに属すると仮定する.\subsection{見解文の抽出}日本語の文章から見解文を抽出するためには,文末表現に注目することが有効である.例えば,「〜が必要である」「〜すべきである」などは見解文に特徴的な文末表現である.\Gでは,あらかじめ作成した見解文の文末の典型的パターンとのマッチングを行うことにより,近似的に見解文を抽出する.\begin{center}\begin{tabular}{|l|l|}\hline文末表現&「〜求められる」「言うまでもない」\\&「〜と思われる」「〜だろう(か)」\\&「〜と言える」「〜のではないか」\\&「〜したい」「ほしい」「〜と考える」\\&「なければならない」「〜ずにはおかない」\\&「気になる」\\\hline単語&「大切」「必要」「期待」「残念」「はず」\\&「注目」「べき」「歓迎」「課題」「危険」\\\hline\end{tabular}\caption{見解文の文末パターンの例}\end{center}\subsection{冒頭文と最終文}文章の冒頭文は,前提を全く持っていない読者(聴者)に,はじめて著者(話者)の持つ情報を伝達して,話題に関する情報を共有するという重要な役割を果たす文であり,文章要約においても原文章の冒頭文は重要な役割を果たすと考えられる.また文章の最終文は,著者が話を締めくくる必要があるため,文章の他の部分と異なった,何らかの特別な意図を持って書かれた文と考えることができる.このため,冒頭文と同様に重要であり,要約作成時にも欠かせない重要な文と考えられる.文献\cite{要約本}にも,「要約文の作成では,一般的に原文の冒頭文と最終文の重要性が高く,その中間文において思いきった圧縮が行われることが多い」(p.138)と述べられており,本研究での考察と一致する.本論文の要約システムでは,文章の冒頭文および最終文を重要視する.\subsection{文章の総括方式と見解文の位置}一般に文章の統括形式は,以下の4つに分類できる\cite{市川}.\begin{enumerate}\item冒頭で統括するもの(頭括式)\item結尾で統括するもの(尾括式)\item冒頭と結尾で統括するもの(双括式)\item中ほどで統括するもの(中括式)\end{enumerate}実際の新聞社説の観察では,中括式や純粋な頭括式はまれであることから,文章の最終部分では,文章の主要な結論が述べられていることが多いといえる.これらの考察に基づき,冒頭,および最終の見解文を除いた中間の部分に存在する見解文では,主要な結論が述べられる最終の見解文と距離的に近いところにある,より文章の後半部に出現する見解文の方が相対的に重要であると仮定し,要約文選択のヒューリスティックスとして採用した.\subsection{段落内構造}段落内構造に関しても,基本的には文章の構造と同じモデルを考える.つまり,各段落の冒頭文は,新しい主題に関する前提を持っていない読者に,著者の持つ情報を初めて伝達する役割を持つので,その段落を代表する文である場合が多いと考えられる.\subsection{結束性解析}\label{結束性解析}\Gでは,以前に行った研究\cite{手がかり語}での考察などに基づき,近似的な結束性の処理を行い,要約文選択に用いている.\subsubsection{手がかり語による結束性}\label{anaphora}文献\cite{手がかり語}では,文頭に出現する指示語(これ,その,など)や接続詞(そして,しかし,など)などの語句を「手がかり語」と定義し,これらの語が文頭に出現した場合に,前文との強い結束性を示す場合が多いことを示した.このことから,文頭にこれらの語が出現した文は,要約文中には単独で出現せず,必ず前文を伴って出現すると考え,要約文として選択する際にはこれら二文のどちらも採用することにする.また,前文の文頭にも「手がかり語」を含んでいる場合には再帰的にさらに前文を要約文として採用する.\begin{sample}\item夏場以降は一転して中東情勢に関心が移っている。しかし、構造協議で示された課題はイラク問題の発生で後退したわけではない。[9/Sep/1990]\item課徴金の引き上げについては具体化を約し、独禁法改正法案を次期通常国会に提出することになっている。その措置が形式的なものに終らぬように、議論を広めるべきだ。[9/Sep/1990]\end{sample}\subsubsection{省略による結束性}文の要素の省略は,照応よりも扱いが難しい.そこで,\Gでは広義の主語(主格を表す格助詞,またはとりたて詞(例えば,は,こそ,さえ)が後接している句)が省略されている文は,その文単独で要約文中に採用されても意味の把握が難しいと判断し,前文も採用する\footnote{照応の場合と同様に,前文にも主語が存在しない場合は再帰的にさらにその前文を採用するが,実際にはこのような場合はほとんどない.}.以下の2例文では,それぞれ「政府,与野党が」(主格),「約二十六億円を投じて地方公共団体に電気自動車を普及させようという政策は」(とりたて詞の後接する句)が省略されているので,2文目が採用される時には,1文目も採用される.\begin{sample}\item放置しておけば大きなツケが残るのは目に見えている。一刻も早い対応を望む。[20/Sep/1990]\item日本全国で走っている自動車の数を考えると、大気汚染を防止する直接的な効果は皆無である。この点、割箸と非常に似ている。[8/Sep/1990]\end{sample}\subsection{要約文選択アルゴリズム}以上の要因を組み込んだ\Gでの要約文選択アルゴリズムを以下に示す.また,主要語,要約率は以下のように定義する.\vspace{5mmplus5mm}\begin{定義}「主要語」とは,角川類語新辞典\cite{角川類語}に掲載されている語のうち,大分類の番号が\{0,5,7,8,9\}である語,及び固有名詞である\footnote{実際にはさらに一部の小分類に属する語,及び一部の語を除いてある.}.複数の意味分類に含まれる多義性のある語については,その一つが前述の大分類に含まれていれば,主要語とする.\end{定義}\begin{equation}\mbox{要約率(\%)}=\frac{\mbox{要約文長}}{\mbox{原文章の(原文のままの)文字長}}\times100\end{equation}\begin{equation}\mbox{要約文長}=\sum_{\mbox{採用した文}}\mbox{単文要約処理後の文字長}\end{equation}\vspace{10mmplus10mm}\noindent\underline{要約文選択のアルゴリズム:}\begin{description}\item[Step0.]文章の冒頭文,及び最終文を採用する.\item[Step1.1.]各段落冒頭文に対して手がかり語の検査・省略の検査を行い(詳細は\ref{段落分け}節を参照),原文の段落を意味段落に再構成する.\item[Step1.2.]第一意味段落の全文と各段落の冒頭文の中で,文章冒頭文に含まれる主要語が主語になっている文を採用する.\item[Step1.3.]最終意味段落の全文と各段落の冒頭文の中で,文章最終文に含まれる主要語が主語になっている文を採用する.\item[Step2.]Step1が終了した時点で,要約率が$(\alpha+\delta)\%$以上ならば,冒頭文,最終文以外の採用\\した文すべてを未採用にする.ここで,$\alpha$は要約率の目標,$\delta$は許容範囲パラメータである.\item[Step3.1.]まだ採用されてない見解文のうち,文章の最も後ろにある文を採用する.\item[Step3.2.]手がかり語による結束性の解析を行い,要約文の文頭に手がかり語が出現する場合は,その前文を要約文に採用する.\item[Step3.3.]要約文に対する省略解析を行い,広義の主語(主格を表す格助詞,またはとりたて詞が後接している語)が省略されている要約文に対しては,その前文も要約文として採用する.\item[Step4.]要約率が$\alpha\%$未満ならば,Step3.1へ.$\alpha\%$以上ならば,採用した文を意味段落に沿って出力,終了.\eos\vspace*{-0.2mm}\end{description} \section{文要約解析} label{文要約}文中の修飾句を削減することにより,一文内での要約を行う.文の中心内容は,文中の修飾句の削減による影響を受けない.\vspace*{-0.2mm}本研究では,(1)二重修飾・多重修飾,(2)固有名詞への修飾,(3)例示の三通りの場合に,連体修飾句を削除する.\vspace*{-0.2mm}\subsection{二重修飾・多重修飾}ある名詞を修飾する連体修飾句には,表\ref{kindof}に示す種類が考えられる\cite{国研文法下}\footnote{ただし,文献とは一部の品詞名を変更している.}.そこで,実際の文によく見られる「二重修飾」及びそれを一般化した「多重修飾」を,以下のように定義する.\begin{table}[htbp]\begin{center}\begin{tabular}{|l|l|}\hline文法的性質&例\\\hlineこそあど詞連体形&この話\\連体詞&ある話\\形容詞の現在形・過去形&おもしろい話\\形容動詞の連体形・過去形&変な話\\名詞+連体助詞「の」&昔の話\\名詞+格助詞+「の」&昔からの話\\名詞+取り立て詞+「の」&ここだけの話\\副詞+「の」&突然の話\\節(被修飾名詞が修飾節の格要素)&私が聞いた話\\節(被修飾名詞が修飾節の格要素でない)&子狸が少年と仲良くなる話\\\hline\end{tabular}\vspace{3mm}\caption{連体修飾の種類}\label{kindof}\end{center}\end{table}\begin{定義}一つの名詞に対して,上の例に示したような要素が二つ以上修飾している状態を「多重修飾」と呼ぶ.特に,二つの要素が修飾している状態を「二重修飾」と呼ぶ.複合名詞(地域紛争など)は,名詞が名詞を修飾しているとみなす.\end{定義}本研究では,名詞の二重修飾があった場合,前方の修飾要素を省略しても意味は大きく変化しないことが多いと考え,要約文生成の際には前方の修飾要素を省略する.同様に,多重修飾の場合には,最終の修飾要素を残して,残りを省略する.例として,「おもしろい昔の話」は「昔の話」に,「突然のうれしい話」は「うれしい話」に,「私が聞いた変なおもしろい話」は「おもしろい話」のように省略を行う.ただし,後半の修飾要素が,名詞(+格助詞または取り立て詞)+「の」である場合には,意味的なあいまいさが生じる.\begin{sample}\item私が聞いた作家の話$\cdots$\label{作例から}\end{sample}\begin{sample}\item私がインタビューした作家の話$\cdots$\label{作例まで}\end{sample}上の二つの例では,形態上は同一であるが,前者は「私が聞いた」が「話」に,後者は「私がインタビューした」が「作家」に,それぞれかかる.しかし,以上のことを形態情報だけで判断することは不可能である.ここで,被修飾名詞「話」を基本に考えると,前者の例は「私が聞いた」「作家の」の二つが「話」にかかり,後者の例は,「作家の」だけが「話」にかかって「私がインタビューした」は「作家」にかかる.ここで,両者に共通するのは,「作家の」は「話」にかかる,という点である.以上より,例えば「私が$V$した作家の話」(「$V$した」は任意の動詞)という表現を短縮する場合,\begin{enumerate}\item修飾要素をすべて取り除いた「話」だけでは漠然としすぎて一般に意味がつかめない.\item「私が$V$した」は「作家」と「話」のどちらにかかるか不明.\item「作家の」は必ず「話」にかかる.\end{enumerate}\noindentという理由から,「私が$V$した」を削除し,「作家の話」としている.また一般に,修飾節のほう\\が名詞+「の」よりも文字数が多く,このため修飾節を削除することによる要約の効果が高いことも,修飾節削除の理由となっている.実際に出現した例文を以下に示す.ただし,文中の[$\cdots$]の部分は計算機が削除可能と判断した修飾要素である.\begin{sample}\item要綱素案で目につくのは、[海部首相の要請にこたえて去る四月末、選挙制度審議会がまとめた]衆院選改革の答申と大きく異なることだ。[14/Nov/1990]\item統一を実現するうえで最大の難関は、米英仏とともに[[統一問題やベルリンの地位変更に関する]国際法上の権限を留保している]ソ連の承認をどう取りつけるかだった。[14/Sep/1990]\label{double}\end{sample}[例文\ref{double}]のように,該当する削除可能候補が複数ある場合は,削除文字列の長い方を採用する.\subsection{固有名詞への修飾}修飾の用法は,一般に限定修飾と,非限定的修飾に分類することができる\cite{寺村}.個々の修飾語句がこのどちらで使用されているかの判断は,必ずしも容易ではないが,本研究では,非限定に用法が限られる固有名詞への修飾を扱う.ここでいう固有名詞とは,一般的な意味の固有名詞の他,固有物を示す一般名詞(例えば,わが国)も含めて考える.\Gでは,固有名詞にかかる連体修飾節は限定機能を果たさないので削減可能と判断し,単文要約処理の際,削除する.\begin{sample}\item{[絵の具に油を混ぜ表面をニスで覆う]西欧絵画に比べ、[ニカワが下に沈んで絵の具がむき出しになる]日本の絵は、長期的に照明下に置くことはできないのである。[16/Sep/1990]}\label{proper1}\item{[消費と設備投資をけん引車とする内需と、堅調な輸出に支えられて順調な拡大を続けてきた]日本経済に、二つの警戒信号がついた。[3/Sep/1990]}\label{proper2}\item{[党より人で投票する傾向の強い]日本の選挙の実情からすると、候補者への投票がそのまま政党への投票とみなされる一票制による小選挙区比例代表制は、[地域密着型の選挙を得意とする]自民党候補に有利と考えられる。[14/Nov/1990]}\label{proper3}\end{sample}[例文\ref{proper1}]〜[例文\ref{proper3}]に示す例は,いずれも固有名詞を直接修飾していない.すなわち,固有名詞の前方にある修飾要素(例えば,[例文\ref{proper2}]では「消費と$\cdots$続けてきた」)が,固有名詞(日本)を修飾しているのではなく,その後方の複合名詞(日本経済)を修飾している.\Gでは,その後方の複合名詞(日本経済)に固有名詞が含まれていることを利用して,その名詞(日本経済)も固有名詞に準ずる取り扱いを行い,その前方の修飾要素の削除を行う.\subsection{例示}「$\cdots$などの」「$\cdots$といった」のような例示も,広い意味の修飾語と考えることができる.修飾としての例示は,そのほとんどが非限定的修飾用法と考えられ,削除しても意味的に変化が生じないと近似的に仮定し,これらの語句が文内に出現した場合に,その例示部分を削除する.\begin{sample}\item警視庁では、[[最高時には三万七千人という]空前の警備体制を決めるなど、]過激派の動きに対応してきた。[3/Nov/1990]\label{重複}\item百二十ヶ国の政府代表が閣僚宣言を採択したが、[焦点の二酸化炭素など]温室効果ガスの排出量を規制する具体的な目標値を設定することはできなかった。[13/Nov/1990]\end{sample}[例文\ref{重複}]では,二重修飾の削除対象(「最高時$\cdots$という」)と,例示の削除対象(「最高時$\cdots$など,」)が重複している.この場合,より広い範囲を対象とした例示部分を削除対象とする.現在のシステムで,例示の対象としている語句は「など」「などの」「といった」「のような」「のように」の五つである. \section{段落分け解析} label{段落分け}\Gでは,原文の段落をそのまま意味的な段落,つまり「一つの主題を持つ文の集合」と考えるのではなく,前述した結束性に関する処理を行うことによって意味段落を再構成している.意味段落は,以下の手順によって原文章の一つ以上の段落の集まりで構成される.すなわち,原文の段落の冒頭文について,手がかり語の検査(冒頭に「手がかり語」を含むかどうか)及び省略の検査(主語が省略されていないかどうか)を行い,少なくとも一方が該当する場合,その段落はその前の段落とつながっている(一つの意味段落を構成している)とする.この処理を第2段落以降の全段落の冒頭について行い,最終的にできた意味段落を対象にして,その後の様々な処理を行っている.以下の例では,原文中の手がかり語(「こう(した)」)を検知し,原文にある直前の改行を削除して,要約文章を作成する.\begin{sample}\item$\cdots$一般市民にも危険が迫ったことをうかがわせる。(改行)こうした過激派のゲリラ活動は、かねて十分予想されていたことであった。$\cdots$[3/Nov/1990]\end{sample} \section{評価} label{評価}要約システム\Gの有効性を評価するために,被験者18名に対して要約文章の評価に関するアンケート調査を行った.調査はそれぞれの被験者に対し,各5編の社説と\Gによる要約結果(ただし,目標要約率$\alpha=25\%$,および$\delta=5\%$に設定して出力した.調査対象要約文章を末尾に示す.)を提示し,\\以下に示す3項目について,それぞれ0〜5までの数字(整数に限らず,小数を含んだ数も許す)で回答してもらう,という形式で行った.\begin{enumerate}\item(社説の原文を読まずに)各要約文章のみを独立した文章として読んだ時に,自然かどうか\item社説本文,及びそのタイトルと比較した時に,原文で重要と考えられる部分を抽出しているか\item文内で修飾語を省略している部分について,それが適切な省略かどうか\end{enumerate}以下では,この3つの質問とその回答結果について述べる.\subsection{要約文の自然さ}要約文章は文章全体としてまとまりのあるものでなければならない.そこで最初の質問では,要約文章を独立した文章と考えた時の自然さを被験者に判断してもらった.なお,被験者が評価する際の判断基準を以下のように設定し,被験者に提示した.\begin{description}\item[5点]ほぼ自然である.つまり,このような文章を書く人間もいると考えられる.\item[0点]非常に不自然である.つまり,文章全体としてのまとまりがなく,文章として何を意味するのかほとんど理解できない.\end{description}表\ref{表:自然さ}に調査結果の平均と,満点(5点)の評価をつけた人数を示す.全体の平均点は,3.78という比較的良好な評価が得られている.特に文章Aについて高い評価点が得られた.質問項目とは別に被験者に感想を求めたところ,今回の要約率が25\%となっていることに関連して,要約文の中に多くの内容を盛り込み過ぎて,その結果として内容にまとまりを欠いている点を指摘する声があった.また,要約された文章の段落間,及び文間に接続詞がないために読みやすさに欠けるという意見が多かった.この事実から,日本語では文章の結束性を維持するために接続詞が重要な役割をしていることを再確認するとともに,\vspace*{-0.1mm}要約文章は相対的に文章の情報量が減少しているため,その質を高めるためには,\vspace*{-0.1mm}接続詞などを加えることで文章全体の結束性を補う必要のあることを示唆しているものと考えられる.\vspace*{-0.1mm}\begin{center}\begin{tabular}{|c||c|c|c|c|c||c|}\hline文章&A&B&C&D&E&平均\\\hline評価&4.05&3.45&3.96&3.81&3.62&3.78\\満点&5&0&2&3&0&\\\hline\end{tabular}\caption{要約文章の自然さの評価}\label{表:自然さ}\vspace*{-0.2mm}\end{center}\subsection{要約内容の適切さ}要約文章は,それ自身にまとまりがなければならないと同時に,原文で重要と考えられる情報を適切に抽出しなければならない.そこで,被験者を対象に,原文で重要と考えられる部分を\Gで抽出しているかどうかを尋ねた.評価基準及び調査結果を以下に示す.\vspace*{-0.1mm}\begin{description}\item[5点]このような抽出を行う人間もいると考えられる.\vspace*{-0.1mm}\item[0点]全くatrandomに抽出したものとそう大きな差はない.\vspace*{-0.1mm}\end{description}\begin{center}\begin{tabular}{|c||c|c|c|c|c||c|}\hline文章&A&B&C&D&E&平均\\\hline評価&3.81&3.39&3.89&3.61&3.78&3.70\\満点&2&0&2&2&1&\\\hline\end{tabular}\caption{要約内容の適切さの評価}\vspace*{-0.2mm}\end{center}この調査では,他と比較して文章Bの評価値が低かったが,全文書の平均では評価値3.70という比較的良好な値が得られた.\Gの行った文書Bの要約では,その第3段落で日本の行動計画を全文引用しているが,これについて,要約に全文引用することの必要性に疑問を持った被験者がいた.また,要約では第2段落に米ソの話題を採用しているが,これよりも,目標値の設定がなぜ重要なのかという理由を採用すべきであるという指摘など,目標値に関する話題を採用すべきだという意見が多かった(要約例参照).また,\Gの要約では原文の後半に要約の重点がおかれ過ぎている傾向があるという意見もいくつか聞かれた.このことから,\Gでは見解文を必要以上に抽出した場合に,近似的に文章の後半部分の見解文を採用するようにしているが,この近似方法をさらに検討する必要性が明らかになった.\subsection{修飾句省略}\Gでは,単文単位での修飾句の省略も試みている.この点についても,被験者にその適切さを判断してもらった.判断基準は以下の通りとした.\begin{description}\item[5点]ほぼ適当である.つまり,省略された部分は,原文の中では重要性の低い部分であり,このような省略を行うことは妥当だと考えられる.\item[0点]ほぼ不適当である.つまり,全くatrandomに省略したものと大差はない.\end{description}\begin{center}\begin{tabular}{|c||c|c|c|c||c|}\hline文章&B&C&D&E&平均\\\hline評価&3.28&4.02&3.02&3.72&3.64\\満点&0&4&1&1&\\\hline\end{tabular}\caption{修飾語省略の適切さの評価}\end{center}被験者の判断した4文書\footnote{文書Aでは修飾句省略の処理が行われなかったため,評価の対象から外している.}のうち,特に文書Cで高い評価が得られた.ただ,\Gで使った修飾語省略のヒューリスティックスの適切さに関しては,今後の課題として検討すべきであるとの意見がいくつか出された.文中で,構文解析を行わずに修飾・非修飾の関係,あるいは主述関係を完全に特定することは不可能である.現在のシステムはこの処理を近似的に行っているため,以下の例のような連体修飾節の認定に問題が生じる場合がある.\begin{sample}\itemだが、各国の意見が割れたまま会議を開くのは[危険だとする]スペインの主張はうなずける。[11/Sep/1990]\end{sample}また,文法的には正しいが,連体修飾節が限定用法を示す場合,削除すると意味的におかしくなる.\begin{sample}\itemインドシナ難民の受け入れが十二万人を超し米、加に次ぎ、[人口比でみた]日本語学習者数が韓国に次いで多いという事実はそうした方向の反映だろう。[21/Sep/1990]\end{sample}\subsection{主語のない文}文章では,さまざまな談話メカニズムにより結束性が保たれている.その結果主語などの省略は自然に行われているが,[例文\ref{主語なし}]のような主語のない文を要約文章として抽出してしまうと,要約文章の結束性は原文のそれよりも弱いために人間は主語のない文にとまどいを感じ,また場合によっては文の意味が理解できなくなってしまう.今回のアンケート調査でも,主語のない文に不自然さを感じた被験者が何人かいた.要約文章作成では,接続詞などを補うことと同様に,主語などの省略語を補うことも検討する必要がある.\begin{sample}\item経済のメカニズムを働かせる試みで、うまく機能するかどうか注目したい。[16/Nov/1990]\label{主語なし}\end{sample} \section{議論} label{議論}ここでは,機械処理した大量の要約結果の考察から得られた知見や明らかになった問題点などを述べる.\begin{itemize}\item本研究では,原文の結束性のまとまりをくずすことなく,そのまま要約文にも反映させることで,要約文の読みやすさの維持に努めた.その結果,文を芋蔓式に採用してしまい,文数の短縮にならない例が見られた.\item例えば文章の冒頭文に,より抽象的で,その結果文章中に多用される語(例えば「経済」「事件」)が含まれている場合,有効な要約文抽出が出来ないことがあった.またこのことは,高頻度の語が(文章の分野特定には有効でも)必ずしも要約で重要な語にはならないことも示している.\item文章の冒頭文が例えば「文化の日.([3/Nov/1990])」のように,極端に短い場合,あるいは,文章冒頭文が極端に長い場合,何らかの比喩から文章が始まっている場合などは,本手法が有効に機能しない.\item比較的短い文で構成されている文章に対して,本手法が特に有効であることが観察された.この理由としては,文が短いと,要約率の微調整が容易になること,重要文の抽出の精度が上がることが考えられる.このことより,要約の前処理として,文の短文への分割,あるいは文のパラフレーズを行うことが有効であると考えられる.\item論説文中にある現象文は,以降の記述内容の特定のために周知の事実を述べる場合と,未知の事実そのものを紹介するために事実を述べる場合とに分けられる.このうち,前者の要約文としての重要性は低いが後者のそれは高い.これの判別は,構文や修辞関係の情報を使用しただけでは不可能なことから,現実世界の一般的な知識が必要と考えられる.\end{itemize} \section{おわりに} label{まとめ}本論文では日本語の論説文を対象にした要約文章作成実験システム\Gを紹介した.\Gは現在論説文だけを対象としているが,見解文抽出に関連する処理以外の処理は,他の種類の文章の要約にも十分に利用できるものである.\Gの要約文の品質の評価をアンケート調査により行ったが,アンケート結果の中には,出力された文章に最小限の後編集をすることによって,人間が行った要約と変わらない程度の質の高い文章となる要約文が多い,という意見があった.このことから,\Gでは論説文からの重要な情報の抽出は比較的うまくいっているが,より「まとまりのある文章」,つまり,結束性と首尾一貫性をより強く持った文章にするための編集機能を強化することが\Gの今後の課題であると考えられる.ただしこのために必要な処理である,接続詞や主語の補完の実現には,より高度な文章の解析が必要であり,困難な問題が多く存在する.\section*{謝辞}本研究で,シソーラスに使用した「角川類語新辞典」\cite{角川類語}を機械可読辞書の形で提供いただき,その使用許可をいただいた(株)角川書店に深謝する.\bibliographystyle{jtheapa}\bibliography{yamamoto}\newpage\section*{付録:要約例}以下に,\Gで出力した要約のうち,本文のアンケート調査に使用した要約例を示す.要約目標は25%とした.なお,文章中で[$\cdots$]があるものは,文レベルの圧縮処理で削除された部分を示し,その部分は出力された要約には含まれないが,便宜的にその部分も示す.\subsection*{文章A{\rm([8/Nov/1990],要約率:30.6%)}}\centerline{\large「再検討が必要な政令恩赦」}政府は天皇陛下の即位の礼に伴い、恩赦(政令恩赦と特別恩赦)を実施する方針だ。救済の対象はおおむね狭まっており、戦前のように殺人犯まで釈放してしまうようなことはなくなった。その代わりに復権という形で救済措置が取られるようになり、その結果として選挙違反者の公民権回復が目立つようになった。道路交通法違反者の免許取得などの権利を回復する件数が数百万に上るようだが、だからといって選挙違反者を含めていいという説明にはならない。こうしたことが繰り返されるようでは、政治への信頼は損なわれるばかりだ。政府部内には「ずっと続いてきたものを、今やめることも難しい」との意見もある。しかし、国民に影響を与えることを惰性で続けるのはおかしい。広く意見を聞きながら、恩赦を改めて考え直すべき時期に来ている。\subsection*{文章B{\rm([13/Nov/1990],要約率:27.9%)}}\centerline{\large「環境保全は目標値が必要」}地球温暖化の防止を目指してジュネーブで開かれていた第二回世界気候会議が終わった。[米ソの緊張緩和が進み、世界に対する]米ソ両国の影響力が減少したといわれる。両国共に厳しい国内事情があるとはいえ、地球環境問題でもその指導的役割を自覚して欲しいものである。わが国が先に決めた「国民一人あたりの二酸化炭素排出量を二〇〇〇年に一九九〇年の水準で安定化する、日本の総排出量を二〇〇〇年以降一九九〇年の水準で安定化するよう努力する」という地球温暖化防止行動計画は、会議の席上でも高く評価され、日本の指導力にも期待が寄せられている。日本は、この行動計画に向けて最大限の努力を払うと共に、条約交渉に当たって米ソ両国に対し目標を設定すべく強く働きかける必要がある。\subsection*{文章C{\rm([17/Nov/1990],要約率:27.0%)}}\centerline{\large「全欧安保会議に期待する」}[東西冷戦後の欧州新秩序を討議する]全欧安保協力会議(CSCE)の首脳会議が十九日、パリで開幕する。CSCEは来るべき統合欧州の「屋根」としての役割を担い、世界各地域の安全保障体制のあり方にも示唆を与える。東側が西側の価値観を受け入れ、協調しながら欧州統合を目指そうとしているのが今の局面と見ていいだろう。ECの果たす役割は一段と大きくなるが、その中軸である統一ドイツとソ連の接近で、欧州の重心は東の方に移動するだろう。欧州にとって当面の最大の課題は、どうすればソ連・東欧の市場経済化に成功するか、にある。経済改革には十年単位の時間が必要だ。欧州の統合が進めば、米国のプレゼンスは確実に小さくなっていく。米側の対欧州戦略にも注目したい。\subsection*{文章D{\rm([23/Nov/1990],要約率:25.9%)}}\centerline{\large「突然終わった『サッチャーの時代』」}サッチャー英首相は二十二日辞意を表明、一九七九年五月以来の長期政権に終止符を打った。[レーガン前大統領との親密な関係とこれを背景にした]欧州外交の展開には見るべきものがあった。サッチャー首相は、閣内の統一に厳しく、批判閣僚を容赦なく解任した。だが、政権誕生以来首相の股肱の臣だったハウ副首相の辞任は、さすがに首相にこたえたようである。ハウ氏は辞任のあいさつで「過去への感傷にとらわれてはならない」と批判した。サッチャー退陣は、英国の国内政策ばかりでなく、対外政策に大きな影響を及ぼそう。特に、サッチャー首相はブッシュ米大統領の強力な支持者であっただけに、湾岸危機への西側の対応で変化が生じかねない。また、ゴルバチョフ大統領は良き理解者を失うことになり、ソ連の欧州政策にも微妙な影響が出よう。\subsection*{文章E{\rm([25/Nov/1990]要約率:25.8%)}}\centerline{\large「国連の武力行使決議案と日本の選択」}国連安全保障理事会は[イラクのクウェート撤退を求めた]国連諸決議の実効をあげるため、対イラク武力行使を認める新たな決議案の協議に入る。米国や英国政府内部には、[国連憲章で集団的自衛権が認められており、安保理決議がなくともクウェート、サウジなど]紛争関係国の要請と合意に基づく対イラク武力行使はできるという見解がある。国連の重要メンバーであることを自認してはいるが、[いま常任理事国でも理事国でもない]わが国として、どうこの国連外交の重大局面に対処するのか。軍事力行使による解決策に反対するのならば、代替案を明確に表明しなければならないし、そのための外交努力を一段と強化する必要がある。例えば[現実問題として、イラクに撤退決意を促すためにも、米軍など]多国籍軍の増強が必要とみられるが、[戦わず存在し続けるだけでも意義のある]「国際警察軍」の維持費をだれが、どう負担すべきかについて明確にしなければならない。そうした対応を欠けば、湾岸危機は欧米のニッポンただ乗り論の火に油を注ぐ結果になりかねない。\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1969年生.1991年豊橋技術科学大学知識情報工学課程卒業.1993年同大学院修士課程修了.現在同大学院博士後期課程システム情報工学専攻在学中.自然言語処理,特に談話処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{増山繁}{1952年生.1977年京都大学数理工学科卒業.1983年同博士後期課程修了.1982年日本学術振興会奨励研究員.1984年京都大学工学部助手.1989年豊橋技術科学大学知識情報工学系講師.1990年同助教授,現在に至る.グラフ・ネットワークのアルゴリズム,組合せ最適化,並列アルゴリズム,自然言語処理等の研究に従事.工学博士.日本オペレーションズ・リサーチ学会,電子情報通信学会,情報処理学会,ACL等会員.}\bioauthor{内藤昭三}{1955年生.1979年京都大学工学部数理工学専攻修士課程修了.同年NTT入社.現在NTTソフトウェア研究所広域コンピューティング研究部所属.自然言語処理,要求仕様獲得の研究開発に従事.電子情報通信学会,情報処理学会,人工知能学会,ACL,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V27N04-06
\section{はじめに} \label{sec:intro}Yahoo!知恵袋に代表されるコミュニティQA(CQA)には日々多くの質問が投稿される.スマートフォンに送信されるプッシュ通知や質問の検索結果画面に表示される見出しは,ユーザが投稿の全文を読むか否かを決定する手がかりとなる.多くのCQAでは,見出しとして質問の先頭部分を表示する.しかし,\Fig{fig:chiebukuro}に例示するように重要箇所は必ずしも質問の先頭に現れるとは限らない.ユーザの的確な判断を助けるためには,質問の重要箇所を見出しに含めることが重要である.そこで,本研究では質問に対する要約課題に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-4ia5f1.eps}\end{center}\caption{コミュニティQAへの投稿される質問と回答の例}\label{fig:chiebukuro}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿では質問要約課題を抽出型単一文書要約として定式化する.抽出型要約は原文書中の文もしくは単語列をそのまま取り出し要約として提示する手法である.原文書に現れる表現の言い換えを許容する生成型要約とは異なり,非文の出力を比較的抑えられるという観点から安全性が高い.実サービスへの適用を指向し,本研究では質問からもっとも重要な単一文を選択し要約とする設定を扱う.抽出型要約自体は,自然言語処理の分野において長く取り組まれている課題の一つである.古くは単語出現頻度\cite{luhn1958ibm}を用いる文の重要度計算の研究から始まり,グラフに基づく手法\cite{Mihalcea04},トピックに基づく手法\cite{Gong01},素性ベースの機械学習による手法\cite{Naik17},組み合わせ最適化問題として定式化する手法\cite{li2013acl,kikuchi-hirao-takamura-okumura:2014:acl}など多くの手法が提案されている.2016年以降は大規模データを用いたニューラルネットワークに基づく手法が積極的に研究されている\cite{Cheng:2016:ACL,nallapati-EtAl:2017:AAAI}.ニューラルネットワークを用いた要約モデルの学習に必要となる大規模なラベル付きデータは,人手作成するコストが大きい.また,CQAなどにユーザが自由に投稿するテキストに対しては良質なラベルの自動付与が難しい.このようなデータ獲得の問題を軽減するため,本稿ではラベル付きデータに加え質問-回答ペアも用いて学習する半教師あり学習に基づく抽出型質問要約モデルを提案する.\Fig{fig:chiebukuro}の右側に示す回答には,「iPhone」や「WiFi」といった質問中の重要と思われる単語が含まれている.本研究では回答情報が質問中の重要箇所を同定するための手がかりになると考える.人手によるラベルの大規模な獲得は難しいが,質問-回答ペアはCQAから大規模に獲得可能である.提案モデルは文抽出器と回答生成器の2つの部品から構成され,前者はラベル付きデータ,後者はペアデータを用いて学習される.それぞれの部品が質問中の文に対し重要度を出力し,2つの重要度を組み合わせ最終的な文の重要度を得る.提案モデルの設定は従来の半教師あり学習とは異なり,大規模データ側が質問-回答というペア構造を持つ点に特徴がある.このような設定において,どのような学習手法が有効であるかは必ずしも明らかではない.そこで,本研究ではペア構造を持つデータを用いてニューラルネットワークを事前学習する手法,文抽出器および回答生成器をそれぞれ別に学習しスコアを統合する手法,文抽出器および回答生成器を同時学習する手法を提案し比較する.また,人手ラベル付きデータとペアデータのサイズが大きく異なる点も問題となる.これに対処するために,小規模データのオーバーサンプリング,大規模データのアンダーサンプリングおよびDistantSupervisionによる疑似ラベルの大規模データへの付与など,データ不均衡問題を解消する手法も提案する.実験より,(a)文抽出器と回答生成器を同時学習する手法が有効であるが,データ不均衡問題に対処するための適切なサンプリング法が必要となる,(b)ラベル付きコーパスが小規模な場合に,DistantSupervisionに基づく手法を用いた疑似ラベルを用いて学習することで,より良い性能が得られるという2つの知見が得られた.本稿の貢献を以下にまとめる.\begin{itemize}\setlength{\leftskip}{0.2cm}\item質問-回答ペアを活用する半教師あり学習モデルおよびその学習法を提案する.事前学習手法,文抽出器および回答生成器をそれぞれ別に学習し結合する手法,同時学習する手法を提案し,その効果を実験的に検証する.\itemデータサイズの不均衡問題を解消するための手法としてサンプリング手法およびDistantSupervisionによる疑似ラベルの活用による手法を提案し,その有効性を確認する.\item半教師あり学習による質問要約モデルの学習および性能評価に利用可能な4つのデータセットを作成する.具体的には.質問に対し要約に含めるべき文を人手ラベル付けした小規模(775事例)および中規模(12,406事例)データ,100,000件の質問-回答ペアを格納した大規模データ,DistantSupervisionに基づく提案手法により疑似ラベルを付与したデータを作成する.\item実験に用いたデータは公開する\footnote{\url{http://lr-www.pi.titech.ac.jp/~ishigaki/chiebukuro/}}.\end{itemize}以後,本稿では\Sec{sec:frame}で提案モデルについて定式化し,\Sec{sec:data}で実験に用いるデータについて述べる.特に,人手ラベル付きデータのクラウドソーシング(\Sec{sec:pair})やDistantSupervisionによる疑似ラベルを自動付与する提案手法(\Sec{sec:data:distant})について詳述する.\Sec{sec:exp}では実験に用いる比較手法として,提案モデルの学習法(\Sec{sec:exp:proposed}),サンプリング法(\Sec{sec:exp:sampling})および疑似ラベルの活用(\Sec{sec:exp:dist})によるデータ不均衡問題の解消について述べ,\Sec{sec:result}で結果をまとめる.\Sec{sec:related}で他の研究との関連について述べ,最後に\Sec{sec:conc}で今後の方向性として,他の自然言語処理課題への応用可能性について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案モデル} \label{sec:frame}本節では我々の提案する半教師あり質問要約モデルについて述べる.\Fig{fig:model:apx}に全体像を示す.本モデルは文抽出器と回答生成器の2つの部品からなる.\Fig{fig:model:apx}の太枠部分が文抽出器,破線部分が回答生成器である.文抽出器はラベル付きデータから学習されるニューラルネットワークを用いて,質問中の文の重要度を計算する.一方,回答生成器は質問-回答ペアから学習される注意機構付きエンコーダ・デコーダ\cite{Luong:2015:EMNLP}を用いて,回答単語列生成を行う.単語列生成時に計算する質問中の文に対する注意重みを重要度とみなす.半教師あり学習の観点からは,文抽出器が主となるタスクであり,回答生成器が補助的なタスクを解くモデルとみなすことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-4ia5f2.eps}\end{center}\caption{回答情報を活用する半教師あり質問要約器}\label{fig:model:apx}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これら2つの部品はエンコーダを共有する.まず,エンコーダは単語をLongShort-termMemory(LSTM)\cite{lstm}による文エンコーダで読み込み,文表現ベクトルを出力する.その後,別のLSTMで構築される文書エンコーダで文表現ベクトルを逐次読み込み,文脈を考慮したベクトル表現を得る.文書エンコーダの出力するベクトル表現はその後,文抽出器および回答生成器による重要度計算に用いられる.文抽出器および回答生成器の処理が完了した段階で2つの重要度が得られることになる.これら2つの重要度を統合することで,最終的な文の重要度を得る.重要度が最大となる文をシステムの出力要約とする.以下にエンコーダ,文抽出器,回答生成器,2つの重要度の統合,学習に用いる損失関数について順に定式化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エンコーダ}本モデルでは文エンコーダおよび文書エンコーダという2つのエンコーダが階層に接続される.入力質問は文系列$d=(s_1,s_2,\dots,s_m)$とし,文は単語列$s_i=(w_{i,1},w_{i,2},\dots,w_{i,|s_{i}|})$で表現する.文エンコーダは各文に含まれる単語をLSTMで読み込み単語表現系列$(h_{i,1},\dots,h_{i,|s_{i}|})$を得る.文書エンコーダは文エンコーダの最終状態$h_{i,|s_{i}|}$を各文に対し逐次読み込み,文脈を考慮した文表現ベクトル系列$(h_1,\dots,h_m)$を出力する.この系列は文抽出器および回答生成器に渡され,それぞれの重要度計算に用いられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文抽出器による重要度計算}文抽出器による重要度計算について述べる.文抽出器は質問中の文がもっとも重要な文であるか否かを分類する二値分類問題を解く.エンコーダの出力ベクトル$(h_1,\dots,h_m)$は,それぞれ2次元ベクトルに線形変換され,ソフトマックス関数で重要文であるか否かを表現する二値確率分布に変換される:\begin{equation}p(s_i)={\rmsoftmax}(W_{\text{ext}}h_i).\end{equation}ここで,$W_{\text{ext}}$は線形変換するための重み行列である.文抽出器はラベル付きデータから学習される.学習時の損失関数には交差エントロピーを用いる:\begin{equation}\LossExt=-\sum_{i=1}^{m}\{(1-t_i)\log(1-p(s_i))+t_i\logp(s_i)\},\end{equation}ここで,$t_i$は$s_i$がもっとも重要な文である場合に1をとり,それ以外では0をとる二値変数である.文抽出器のみを学習する実験設定においては,この損失関数のみを用い学習を行い,回答生成器と同時学習をする設定においては後述するように回答生成器側の損失関数と統合して用いる.このニューラルネットワークの計算する確率値$p(s_i)$を文$s_{i}$の重要度と考える:\begin{equation}\ScoreExt(s_i)=p(s_i).\end{equation}この重要度は,後述する回答生成器の出力する重要度と統合されることで,最終的な文の重要度の計算に用いられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{回答生成器による重要度計算}次に,回答生成器による重要度計算について述べる.回答生成器は回答単語列$(y_1,y_2,\dots,y_k)$を注意機構付きエンコーダ・デコーダを用いて出力する.回答生成時に注意機構が計算する注意重みを文の重要度とみなす.デコーダのLSTMは以下のように時刻$j$における隠れ状態ベクトル$h'_j$を計算する:\begin{equation}h'_j={\rmLSTM}(h'_{j-1},\texttt{emb}(y_{j-1})).\end{equation}\texttt{emb()}は引数の単語埋め込み表現を表す.なお,$t=0$における隠れ状態ベクトル$h'_0$はエンコーダLSTMの最終状態で初期化する.それぞれの時刻において,単語生起確率分布を隠れ状態$h'_j$を用いて以下のように計算する:\begin{equation}p(y_j\midy_{<j},d)={\rmsoftmax}(W_{\text{gen}}h'_j).\label{eq:decode}\end{equation}ここで,$W_\text{gen}$は重みベクトル,$y_{<j}$はこれまでに生成した単語列$y_{<j}=(y_1,\dots,y_{j-1})$を表す.デコーダは確率値が最大となる単語を貪欲に出力する.単語系列の出力時には注意機構\cite{Luong:2015:EMNLP}を用いる.注意機構はデコーダの隠れ状態ベクトルを用いて,質問中の文を重み付ける.時刻$j$における注意機構による文脈ベクトル$c_j$は以下のように注意重みを用いてエンコーダ側の文ベクトルを加重平均することで得る:\begin{equation}c_{j}=\sum_{i=1}^{m}\alpha_{j}(i)h_i.\label{eq:context}\end{equation}ここで,時刻$j$におけるエンコーダ側の文ベクトル$h_i$への注意重み$\alpha_j(i)$は以下のように計算する:\begin{equation}\alpha_{j}(i)=\frac{\exp(h'_{j}\cdoth_i)}{\sum_{i'=1}^{m}\exp(h'_{j}\cdoth_{i'})}.\label{eq:weight}\end{equation}\Eq{eq:decode}の$h'_{j}$を文脈ベクトル$c_{j}$を考慮するよう,以下の$\hat{h}$で置き換える:\begin{equation}\hat{h}=W_c[h'_{j};c_{j}].\end{equation}同様に$W_c$は重み行列で,$[h'_{j};c_{j}]$は$h'_{j}$と$c_{j}$の結合ベクトルを表す.重要度計算の際には,回答生成の際に大きな注意重みが与えられた文は要約に含めるべき重要な文であると考える.すなわち,回答生成器の注意機構が計算した注意重みを文$s_{i}$の重要度計算に以下のように用いる:\begin{equation}\ScoreGen(s_i)=\frac{\sum_{j=1}^{J}\alpha_{j}(i)}{J}.\end{equation}ここで,$J$は回答生成のデコードが完了するまでのタイムステップ数である.$J$には回答生成時に終了を表す特別なトークンEODが出力されるまでのタイムステップ数が設定される.50ステップを超えた場合には$J=50$とする.この注意重みを回答生成器による文の重要度とし,文抽出器による重要度と統合し最終的な文の重要度を得る.学習時の損失関数には負の対数尤度を用いる:\begin{equation}\LossGen=-\sum_{(d,y)\inD}\logp(y\midd).\end{equation}ここで,$D$は質問-回答ペアデータに含まれる事例集合を表す.回答生成器のみを学習する実験設定においては,この損失関数のみを用い学習を行い,文抽出器と同時学習をする設定においては後述するように文生成器側の損失関数と統合して用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{重要度の統合}文抽出器と回答文生成器による重要度を統合する手法について述べる.$\ScoreExt$と$\ScoreGen$は最終的に以下のように重み付き和として統合し,最終的な文の重要度スコア$f(s_i)$を得る:\begin{equation}f(s_i)=\ParamEval\ScoreExt(s_i)+(1-\ParamEval)\ScoreGen(s_i).\label{eq:score}\end{equation}$\ParamEval$は文抽出器および回答生成器が出力する重要度を重み付けるハイパーパラメータである.$\ParamEval$の値は実験設定により,$0$,$1$,または開発セットで調整した値を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{損失関数の統合}また,文抽出器と回答生成器を同時学習する場合には前述した2つのモデルの損失関数を統合する必要がある.以下のように2つの損失関数をハイパーパラメータ$\ParamTrain$を用いて重み付け和として統合する:\begin{equation}L=\ParamTrain\LossExt+(1-\ParamTrain)\LossGen.\end{equation}\Sec{Sec:Proosed_models}において述べるように,$\ParamTrain$の値を制御することで,事前学習,同時学習などの学習手法を切り替える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット作成} \label{sec:data}実験に用いる4つのデータセット($\LabelData$,$\LabelDataM$,$\PairData$,$\PseudoData$)について述べる.$\LabelData$および$\LabelDataM$はクラウドソーシングにより,要約に含めるべき文を人手でラベル付与した小規模および中規模のデータセットである.一方,$\PairData$は質問-回答ペアを格納した大規模データセットであり,ラベルはない.$\PseudoData$は後述するDistantSupervisionに基づく提案ラベル付与手法を用いて,ラベルを持たない$\PairData$に対し,疑似的なラベルを自動付与したデータセットである.自動付与した疑似ラベルのためノイズを含むが,大量のラベル付き学習データを獲得できる利点があり,データ不均衡問題の解消に役立つと考えられる.なお,これらのデータセットはYahoo!知恵袋コーパス\cite{yjchie_data}を基に作成する.以下にそれぞれのデータセットの作成法について詳述する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手ラベル付けしたデータ($\LabelData$,$\LabelDataM$)}\label{sec:pair}人手で質問をラベル付けしたデータとして,小規模な$\LabelData$および中規模な$\LabelDataM$を構築する.$\LabelData$は775質問を格納した人手ラベル付きデータセットである.Yahoo!知恵袋コーパスから3,000質問を抽出し,クラウドソーシングにより人手ラベルを付与した.5人の作業者のうち4人以上が同じ文を重要と判定した775質問を$\LabelData$に含めた.775質問すべてに対し要約に含めるべきもっとも重要な1文を正例としてラベル付けし,それ以外は負例とラベル付けした.$\LabelDataM$は12,406事例からなる中規模データセットである.$\LabelData$と同様にクラウドソーシングを用いて,Yahoo!知恵袋コーパスから抽出した30,000質問に対し,5人の作業者が重要文を判定し,4人以上の作業者が同じ文を重要と判定した質問を含めた.クラウドソーシングに依頼した質問の選定法および作業者への指示について詳細を述べる.Yahoo!知恵袋コーパス内には2文程度の短い質問もあれば長い質問も存在する.$\LabelData$および$\LabelDataM$は実験において,評価用データとしても用いる.そのため,長さの定義を質問に含まれる文数としたとき,文数に対するデータセット中の質問数の頻度分布が,Yahoo!知恵袋コーパスの分布と異なると正しい評価ができない.そこで,Yahoo!知恵袋コーパス内の文数ごとの質問数の頻度分布と$\LabelData$および$\LabelDataM$内の分布ができる限り近くになるよう層化抽出した.2つのデータセットに含まれる質問の文数に対する質問数の頻度分布を\Tab{graph:bunsu}に示す.この表において,例えば文数が2文である質問は$\LabelData$中に461事例含まれていることを示す.クラウドソーシングにはLancers\footnote{https://lancers.com}を用い,作業者には以下の指示を与えた.\begin{enumerate}\setlength{\leftskip}{0.4cm}\item質問全体を良く読み質問内容を理解する.\itemもっとも重要な文を1文選択する.\item1文では要約できない場合には``要約できない''を選択する.\end{enumerate}4人以上の作業者のアノテーションが同じ文をもっとも重要と判定した事例を$\LabelData$および$\LabelDataM$として採用し,775事例および12,406事例をそれぞれ獲得した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{$\PairData$の質問の文数ごとの質問数頻度}\label{graph:bunsu}\input{05table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問-回答データ($\PairData$)}$\PairData$は10万事例の質問-回答ペアからなるデータセットである.Yahoo!知恵袋コーパスに含まれる質問のうちランダムに10万事例を抽出した.なお,以下の条件を満たすようコーパスをフィルタリングした上で抽出した.\begin{enumerate}\setlength{\leftskip}{0.4cm}\itemベストアンサー\footnote{ベストアンサーは質問投稿者がもっとも的確な回答を選択したものである.}を伴う質問.\item2文以上9文以下の質問.\item極端に長い文(50単語以上の文)を含まない質問.\end{enumerate}回答生成器の学習にはできる限り良質な回答を用いたい.そこで,1つ目の規則を用いて良質な回答に限定した.なお,後者2つの制約は1)ノイズとなる質問を除外するため,2)モデル学習の計算コストを削減するため,という2つの理由から設定した.10文以上からなる質問投稿はデータセット全体の5\%以下である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似ラベルを自動付与したデータ($\PseudoData$)}\label{sec:data:distant}$\PairData$中の質問にはラベルがない.これにより,ラベル付きデータ($\LabelData$および\linebreak$\LabelDataM$)とのデータサイズの不均衡が発生する.そこで,$\PairData$に含まれる質問に要約に含めるべき文に関する二値ラベルを自動付与する手法を新たに提案する.以下に我々の自動ラベル付与手法および,構築した疑似ラベル付きのデータセット$\PseudoData$について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{質問要約のためのDistantSupervision}はじめに,我々の提案するラベルの自動付与手法の基本的な考え方を説明する.この自動付与手法はDistantSupervisionの考えに基づく.DistantSupervisionは,ヒューリスティックや規則,外部データなどを用いて,コストをかけずに大量の疑似ラベル付きデータを生成し学習する手法である.この考え方は知識ベースに格納された知識を手がかりに関係抽出課題のための疑似的な学習データを作成する手法\cite{mintz2009acl}に最初に適用されて以降,絵文字を手がかりに極性分類課題のための学習データを作成する手法\cite{go2009}など直接的なラベル付きデータの獲得が難しい課題に適用されている.要約研究では新聞記事に付与された3行程度の人手による生成型要約を手がかりに,抽出型要約モデルを学習するためのラベルを自動付与する手法\cite{nallapati-EtAl:2017:AAAI}が提案されている.本研究で対象とするYahoo!知恵袋コーパスには質問本文のみが含まれ\footnote{Yahoo!知恵袋ではユーザの負荷を軽減するためにタイトルを入力するフィールドがそもそも用意されていない.},タイトルや人手による要約を含まないためこの手法は直接適用できない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{単一文質問と複数文質問の例}\label{single_multiple_questions}\input{05table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%自動ラベル付けを行うために,我々はYahoo!知恵袋に単一文で投稿される質問の特徴が,要約に含めたい文と似ていることに着目した.Yahoo!知恵袋に投稿される質問は単一文質問と2文以上からなる複数文質問に大別できる.\Tab{single_multiple_questions}に例を示す.質問要約において,出力要約文は単体で理解できる質問であることが望ましい.例えば,\Tab{single_multiple_questions}に例示するように,「ヤフーオークションのプレミアムアカウントはどうやったら取れますか」という単一文で投稿される質問には,「ヤフーオークション」や「プレミアムアカウント」といった,質問内容を理解するために必要な情報があらかじめ埋め込まれている.そのため,質問内容を理解するために他の文の情報を必要としない.このように,単一文質問は単体で理解できる質問であることから,要約に含めたい文と似た特徴を持つと考えられる.一方,例えば10文以上で構成されるなどの長い質問に含まれる個別文に着目すると,「こんにちは.」や「オークションについての質問です.」といった挨拶や背景情報を説明する文も含まれる.このような文の多くは,質問文ではなかったり,「これはどうやったら取れますか?」のように質問文であるものの,他の文への照応を含むことが多い.このような文は,単体で理解できる質問ではなく要約に含めたい文とは異なる特徴を持つと考えられる.Yahoo!知恵袋コーパスを用いた予備分析では,無作為に抽出した100の単一文質問のうち98\%はその文単体で理解できる質問であった.残りの2\%は挨拶や主張のみが記述される投稿であった.一方で,10文以上で構成される長い質問に含まれる文を人手で分析すると,わずか7\%がその文単体で質問内容が理解できる文であった.このような分析から,CQAに投稿される単一文質問のほとんどは,その文のみで内容が理解できる質問であり,要約に含めたい文と似た特徴を持っていることがわかった.一方,長い質問の個別文は質問でなかったり,質問文であっても単体で理解できない事例が多く,要約に含めたい文とは異なる特徴を持つことがわかった.そこで,図~\ref{fig:model:dist}に示すように,1)単一文質問を正例とし,長い質問中の個別文を負例としたデータをYahoo!知恵袋コーパスから抽出し,2)二値分類器を学習し,さらに3)$\PairData$に含まれる質問中の文に分類器を用いてラベル付与することで,$\PairData$に疑似的なラベルを付与し,データサイズ不均衡を解消できると考えた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-4ia5f3.eps}\end{center}\caption{疑似ラベル付与のための提案手法概要}\label{fig:model:dist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{DistantSupervisionによる自動ラベル付与手順}具体的なラベル付与手順を説明する.この枠組みでは,まずYahoo!知恵袋コーパスから単一文質問および,10文以上で構成される質問を抽出する(手順1).次に,単一文質問を正例,10文以上で構成される質問中の文を負例として,分類器を学習する(手順2).最後に,この分類器の出力する確信度を文の重要度とみなし,この重要度スコアが最大となる文を正例とラベル付与する(手順3).手順1ではYahoo!知恵袋コーパスから,単一文質問を8,000文,10文以上から構成される複数文質問中の文を1,700,000文,無作為に抽出する\footnote{$\LabelData$および$\LabelDataM$は2文から9文の質問からなるため,$\PseudoData$とは重複しない.また,$\PairData$とは独立にサンプルしたため重複しない.}.抽出文のうち,単一文質問を正例,10文以上から構成される複数文質問中の文を負例と自動でラベル付与し,分類器の学習に用いる.なお,疑似ラベルを付与するための分類器の学習に10文以上の質問を用いるが,提案要約モデル(\Sec{sec:frame})は10文以上の入力も受け付ける.手順2の分類器にはLSTMを用いた単純な分類器を用いる.文をLSTMで読み込み,その隠れ層を全結合層により2次元に圧縮したのちソフトマックス関数を用いて確率分布に変換する.この分類器の出力する確率値は,文の単一文質問らしさを表現するものであるが,我々の枠組みではこれを文の疑似的な重要度と考える.手順3では,分類器の出力確率を手がかりに正例および負例の二値ラベルを質問中の文に付与する.入力質問には複数のフォーカスが含まれる場合がある.例えば,アメリカの大統領の名前を尋ねたあとに大統領の出身地を尋ねる場合を想定する.そのような場合には,どちらのフォーカスがより重要であるか判定するのは難しい.本研究では,入力質問が複数のフォーカスを持つ場合には,より前に出現するフォーカスを正解として扱う.そのため,分類器の出力確率が閾値以上の文が複数存在する場合には,入力に複数のフォーカスが存在するとみなし,より先頭に近い位置に出現する文を正例としてラベル付与する.それ以外の場合には確率が最大となる文を正例としてラベル付与する.なお,閾値は$\LabelData$の正例を正しく当てられるよう調整し,実際には0.7に設定された.上記の手順により,$\PairData$の質問側に対し疑似ラベルを自動付与したデータ$\PseudoData$を獲得した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:exp}本節では提案モデルを様々な学習手法を用いて構築する.また,教師なしおよび教師あり学習に基づくベースライン手法と性能を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案モデルに基づく手法}\label{Sec:Proosed_models}\Sec{sec:frame}にて述べた2つのパラメータ$\ParamTrain$および$\ParamEval$を変更することにより様々なモデルを作成した.なお,$\ParamTrain$は文抽出器と回答生成器から計算される2つの損失関数を重み付けるパラメータで,$\ParamEval$は2つの部品が計算する文の重要度を重み付けるパラメータである.さらに,ラベル付きデータ($\LabelData$および$\LabelDataM$)と$\PairData$のデータサイズが不均衡となる問題を解決するため,サンプリング法やDistantSupervisionによる疑似ラベルを組み合わせた学習手法も提案する.以下に各手法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{損失関数の制御パラメータ$\ParamTrain$および出力スコアの制御パラメータ$\ParamEval$を変化させたモデル}\label{sec:exp:proposed}\begin{itemize}\setlength{\leftskip}{0.2cm}\item\ExtOnly:文抽出器のみ用いるモデル($\ParamTrain=1$,\!$\ParamEval=1$).\item\GenOnly:回答生成器のみ用いるモデル($\ParamTrain=0$,\!$\ParamEval=0$).\item\SepTrain:文抽出器をラベル付きデータ($\LabelData$もしくは$\LabelDataM$)を用いて学習し($\ParamTrain=1$),さらに回答生成器を$\PairData$を用いて別に学習($\ParamTrain=0$)する.文の重要度スコアを計算する際に2つのモデルからのスコアを統合する.なお,ハイパーパラメータ$\ParamEval$は開発セットで調整する.\item\PreTrain:はじめに回答生成器のみを$\PairData$を用いて事前学習する($\ParamTrain=0$).その後,学習されたエンコーダの重みを保存し,文抽出器の学習を行い追加学習($\ParamTrain=1$)する.文のスコアリング時には文抽出器からのスコアのみ用いる($\ParamEval=1$).\item\MultiTrain:文抽出器と回答生成器を同時学習する.ミニバッチはデータセットごとに作成し,損失関数はそれぞれ計算する.$\PairData$には人手アノテーションによる正解ラベルが付与されていないので,このデータからミニバッチを作成する際には,文抽出器から計算される損失$\LossExt$を0にする.ハイパーパラメータ$\ParamTrain$および$\ParamEval$は開発セットで調整する.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{オーバーサンプリング/アンダーサンプリングを用いるモデル}\label{sec:exp:sampling}$\PairData$とラベル付きデータ($\LabelData$および$\LabelDataM$)のデータサイズは大きく異なる.今回の設定ではメインの処理となる文抽出器の学習に用いるラベル付きデータよりも,補助的なタスクである回答生成に用いる$\PairData$のサイズが大幅に大きい.このデータサイズの不均衡を改善することで,性能が向上すると考えた.そこで,$\MultiTrain$の亜種として以下の2つのモデルを提案する.\begin{itemize}\setlength{\leftskip}{0.2cm}\item\MultiOver:ラベル付きデータ($\LabelData$または$\LabelDataM$)をオーバーサンプリングし,データサイズを$\PairData$と同様にし$\MultiTrain$を学習する.\item\MultiUnder:$\PairData$をアンダーサンプリングし,データサイズをラベル付きデータ($\LabelData$または$\LabelDataM$)と同様にし$\MultiTrain$を学習する.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{DistantSupervisionによるデータ拡張と組み合わせるモデル}\label{sec:exp:dist}さらに,$\PseudoData$を用いることでデータ不均衡問題を解決することができると考えた.$\PseudoData$を用いて学習する以下のモデルを提案する.\begin{itemize}\setlength{\leftskip}{0.2cm}\item\MultiDist:ラベル付きデータ($\LabelData$または$\LabelDataM$)および$\PseudoData$を用いて$\MultiTrain$を学習する.\item\ExtDist/\SepDist/\PreDist:\ExtOnly/\SepTrain/$\PreTrain$をそれぞれ$\PseudoData$を用いて学習する.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師なしおよび教師あり学習に基づくベースラインモデル}教師なしおよび教師あり学習に基づくベースラインとしては,以下の5モデルを採用する.\begin{itemize}\setlength{\leftskip}{0.2cm}\item\Lead:先頭文を選択する.\item\TfIdf:tf-idf値が最大となる文を要約文として選択する.idfはYahoo!知恵袋コーパス全体から事前に計算した.\item\SimEmb:入力質問と要約文の意味的な類似度が最大になる文を選択する.意味的類似度の計算にはWordMovers'Distance\cite{kusner:2015:ICML}を用いた.\item\LexRank:抽出型要約において代表的なグラフベース手法であるLexRank\cite{Erkan-Radev:2004:JAIR}による重要度スコアが最大となる文を選択する.エッジの重みはYahoo!知恵袋コーパスの質問全体での単語共起頻度を計算した.\item\RegQ:質問文らしさを同定するロジスティック回帰モデルをラベル付きデータから学習し,スコアが最大となる文を要約文として選択する.質問文らしさを捉える素性として文末表現,疑問詞の有無および文長の3種類を用いた.文末表現素性は文末のuni-gram,bi-gram,tri-gramを二値素性として表現した.疑問詞素性は「いつ」「誰」「だれ」「どこ」「何」「なに」を手がかり語としてそれぞれを二値素性として表現した.文長素性は文に含まれる単語数を0--5単語,6--10単語,11--15単語,16--20単語,21--25単語,それ以上に分けそれぞれを二値素性として表現した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}モデルの評価には以下の式で計算される,正解率を用いる:\begin{equation}正解率=\frac{最重要文を正しく予測できた質問数}{評価セット中の質問数}.\end{equation}要約モデルの評価にはしばしばROUGE\cite{rouge2004aclworkshop},再現率,精度などが用いられる.これらの評価指標は要約長制約がバイト数や文字数で与えられる設定において,重要な単語をどの程度含められたか評価する.本研究は単一文を抽出する設定であり,重要な文が選択できたか否かが重要である.よって,正解率を採用する.実験時にはラベル付きデータ($\LabelData$または$\LabelDataM$)を3:1:1に5分割し,それぞれ学習セット,開発セット,評価セットに用いる5分割交差検定を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{前処理と実験パラメータ}前処理としてすべてのデータセットに含まれる質問と回答は句点,改行記号,感嘆符,疑問符の連続を手がかりに文分割し,MeCab\footnote{http://taku910.github.io/mecab/}を用いて形態素に分割した.質問中の文は形態素系列として表現されエンコーダに渡され,回答を用いる提案手法は形態素系列を出力する.入力および出力単語の辞書次元は30,000に設定した.単語埋め込み層,LSTMの隠れ層の次元はそれぞれ256に設定し,単語埋め込み層はYahoo!知恵袋コーパスを用いてword2vecを事前学習\footnote{Pythonのライブラリgensimを用いた.}した.最適化器にはAdam\cite{adam}($\alpha=0.001$,$\beta_1=0.9$,$\beta_2=0.999$,$\epsilon=1\text{e-}8$),勾配のクリッピングは5.0とし,ドロップアウトの割合は0.2を用いた.学習時のミニバッチサイズは50に設定した.同時学習時には,それぞれのデータセットから別のバッチを生成し,バッチ内で事例をランダムに並べ替えた上で学習し,損失関数の値はミニバッチごとに計算した.学習時は10エポック分行い,評価時には開発セットでの正解率がもっとも高いモデルを用いた.ハイパーパラメータの$\ParamTrain$は0.0から1.0の間で0.1刻みに変更し開発セットの正解率を最大にするよう調整した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果} \label{sec:result}本節では各手法の性能について述べる.\Tab{graph:result}に各モデルから得られた正解率を示す.もっとも左のカラムに示す手法名は4つのグループに分けられている.上のグループから順に教師なし学習に基づくベースライン,半教師あり学習に基づく提案モデル,提案モデルのうち同時学習によるモデル,DistantSupervisionによる疑似ラベルを用いるモデルである.4つの区分に分けられているカラムのうち,左から2番目のカラムに示すチェックマーク($\checkmark$)は学習に用いたデータセットを示す.左から3番目,4番目の区分に$\LabelData$と$\LabelDataM$を評価セットとした場合の正解率をそれぞれ示す.なお,教師あり学習に基づくモデルの正解率は5分割交差検定を用いて計算した正解率である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\caption{各手法の正解率}\label{graph:result}\input{05table03.tex}\par\vspace{4pt}\small``\checkmark''は学習に用いたデータセットを示す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{小規模ラベル付きデータ($\LabelData$)での正解率}はじめに,$\LabelData$を評価セットとして用いた場合の正解率について述べる.教師なし学習に基づく手法は,$\Lead$(.813)がもっとも高い正解率を得た.それに対し,他の教師なし学習に基づく手法($\TfIdf$(.556),$\SimEmb$(.640),$\LexRank$(.779))の正解率は$\Lead$よりも低い.従来の新聞記事等を基にしたデータセットでは比較的良い性能を示すモデルであっても,質問要約課題においてはその限りではないことがわかる.質問を同定する教師あり学習に基づくモデル$\RegQ$(.608)も$\Lead$の性能には及ばない.データセット中の要約文とアノテーションされた文は実際にはすべて質問文であったが,複数の質問文を含む入力などでは,質問文同定課題を解くだけでは要約として適切な文を選択できない場合がある.例えば,「水泳に詳しい人はいませんか?クロールの最適な息継ぎのタイミングを教えて下さい.3回に1回ですか?すぐに息が上がってしまいますが,2回に1回だと多すぎですか?」といった入力は$\RegQ$によってすべての文に高いスコアが与えられ,重要文を正しく選択できない.これらの結果は,質問要約課題が質問文同定と重要文同定を同時に解く必要がある課題であることを示唆しており,質問要約課題のタスク自体の難しさを示すものといえる.3つ目のグループでは,$\MultiTrain$(.770)よりも$\MultiUnder$(.857)が良い性能を示しており,サンプリング法によるデータ不均衡問題の軽減が重要であることがわかる.サンプリング法を用いない$\MultiTrain$(.770)は$\ExtOnly$(.813)よりも性能が低い.よって,単純に同時学習するだけでは不十分であり,適切なサンプリング法と組み合わせデータ不均衡問題を軽減する必要がある.サンプリングを用いる2手法($\MultiOver$と$\MultiUnder$)は近い正解率を得たが,$\MultiUnder$の正解率がやや高い.これは,775事例という小規模データである$\LabelData$をオーバーサンプリングすることにより,同一の事例が何回も学習データ内に存在することになり,$\LabelData$に含まれる事例に対し過学習を引き起こしたものと思われる.4つ目のグループでは,$\MultiDist$(.875)がもっとも良い性能を示し,疑似ラベルによるデータ不均衡問題の軽減も有効であることがわかる.$\MultiDist$と他の手法との性能差は,符号検定により統計的に有意であることを確かめた($p<0.05$).DistantSupervisionによる疑似ラベル付きデータそのものを文抽出器の学習に活用する$\ExtDist$(.838)も,疑似ラベルを用いない$\ExtOnly$(.813)よりも性能が高い.つまり,ノイズが含まれる疑似ラベルであっても,小規模な人手ラベル付きデータを用いるよりも良い性能が得られる.同時学習を用いる$\MultiDist$(.875)はさらに性能を向上させた.同時学習を用いる提案手法は従来の要約研究において強いベースラインとして知られている$\Lead$よりも良い性能を示した.新聞記事などを対象とした従来の研究に比較し,$\Lead$が質問要約において良い性能を示さない理由については,\Sec{sec:actual_out}で出力例を示し,議論する.その他の手法については,$\SepTrain$(.828)が良い性能を示した.これは,$\ExtOnly$による文抽出器からのスコアと$\GenOnly$による回答生成器からのスコアがうまくアンサンブルされた結果と考えられる.一方,$\GenOnly$(.659)のみを用いる場合には人手付与されたラベル付きのデータを一切使わないため性能が低く,回答生成という補助的なタスクのみで重要文を同定することは,難しい.この点からも,小規模な人手ラベル付きのデータと大規模な質問-回答ペアを組み合わせた半教師あり学習モデルは有効であることがわかる.$\PreTrain$(.788)は予想に反し$\ExtOnly$(.813)よりも性能が低い.これは775事例という小さな事例数が事前学習したモデルの追加学習には不十分であったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{中規模ラベル付きデータ($\LabelDataM$)での正解率}次に人手によるラベル付きデータのサイズが,正解率に及ぼす影響について議論する.\linebreak$\LabelDataM$での正解率を\Tab{graph:result}のもっとも右のカラムに示す.$\LabelData$が775事例であったのに対し,$\LabelDataM$は12,406事例と中規模のデータセットである.$\LabelDataM$を用いた場合には正解率がほぼ全ての提案モデルで,$\LabelData$を用いた場合と比較し,向上した.これは,人手によるラベル付きデータが大きくなり,データ不均衡問題が緩和されることが要因であると考えられる.$\LabelData$を用いた実験では適切なサンプリングや疑似ラベルの利用がない場合に,同時学習手法(\MultiTrain)の性能が低かった.一方,$\LabelDataM$での実験において$\MultiTrain$(.894)の正解率はサンプリング法を用いないにも関わらず,$\ExtOnly$(.886)よりも高い.さらに適切なサンプリング法($\MultiUnder$および$\MultiOver$)と組み合わせることで,性能がさらに向上(それぞれ.913と.917)する.$\MultiOver$(.917)と$\MultiUnder$(.913)との性能差はごく僅かになった.$\LabelData$を用いた実験ではアンダーサンプリングの正解率がオーバーサンプリングよりも高かった.これは,$\LabelDataM$を用いた場合には,人手ラベル付きデータのサイズが大きいため,オーバーサンプリング時に同一の質問が学習事例に含まれる回数が減り,$\MultiOver$の過学習が軽減されたためと考えられる.一方,疑似ラベルを学習に活用する$\MultiDist$(.908)は$\MultiUnder$(.913)よりもわずかに低い性能を示し,その効果がみられなかった.小規模データ$\LabelData$での実験ではDistantSupervisionによる疑似ラベル付きデータとの組み合わせた$\MultiDist$(.875)は,$\MultiUnder$(.857)よりも良い性能を示していた.これは,$\LabelDataM$では人手でラベル付与されたデータが増えたことにより,DistantSupervisionによる疑似ラベルはむしろノイズとして働いたためと考えられる.なお,$\SepTrain$の性能はハイパーパラメータ$\ParamEval$によって正解率の揺れが大きく調整が難しい.$\SepTrain$の$\LabelDataM$での正解率が$\LabelData$での正解率よりも低くなるのは,開発セットにより調整された$\ParamEval$であっても評価セットでの正解率が揺れることが原因である可能性が考えられる.$\SepTrain$は同時学習とサンプリングやDistantSupervisionと組み合わせる提案モデルの正解率よりも低い値を示すため,ハイパーパラメータ$\ParamEval$による性能変化の詳細な分析は今後の課題とする.以上の考察から,とくに人手による良質なラベル付きデータが小規模な場合に,半教師あり学習による提案手法およびサンプリングや疑似ラベルの利用といった学習法は有効であることが分かった.また,人手によるラベル付きデータが中規模に獲得できる状況でも,同時学習やサンプリング法の併用によって性能を向上できる.DistantSupervisionによる疑似ラベルの活用は良質な人手によるラベル付きデータが多く獲得できる場合にはノイズとして働き,効果的に作用しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力の定性的分析}\label{sec:actual_out}最後に出力の定性的な分析を行う.分析対象の手法($\Lead$,$\ExtOnly$,$\MultiUnder$,$\MultiDist$)は\Tab{graph:result}に挙げた手法の4つの区分から,代表的な手法を1つずつ選択した.$\LabelData$を用いた実験での出力例を\Tab{tab:actual_out}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{$\LabelData$を用いた実験での出力例}\label{tab:actual_out}\input{05table04.tex}\par\vspace{4pt}\small$\checkmark$は各手法の選択した文を示す.質問中の太字の文は正解要約文である.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\Tab{tab:actual_out}の最初の例は$\Lead$が正しい要約文を選択できない事例を示す.$\Lead$が正しく重要文を選択できない理由として,質問では核となる文が必ずしも先頭に現れるとは限らない点が挙げられる.データセット内の質問の持つ談話構造には少なくとも以下の2種類が存在する.\begin{enumerate}%%%%\setlength{\leftskip}{0.4cm}\item背景となる情報を提示した後,核となる質問文に続く.\item核となる質問文を提示した後,背景となる情報を補足する.\end{enumerate}$\Lead$は前者に対応できないため,提案手法よりも性能が低いものと考えられる.\Tab{tab:actual_out}の例では,アボカドに関する背景となる情報を提示した後,「アボカドを上手に熟れさせる方法」という核となる質問を行う.既存の要約研究では新聞記事や科学論文をもとにしたデータセットで性能評価されることが多い.既存データでは結論を先に記述する談話構造が多く用いられるため,$\Lead$は強いベースラインとして知られている.本研究で扱うCQAへの投稿は新聞記事とは異なり,書き手が専門家ではない質問であり,新聞記事とは談話構造が異なる事例が相対的に多い.よって,$\Lead$は本課題に対して良い性能を示さない.2つ目の例は$\ExtOnly$のエラーが$\MultiUnder$や$\MultiDist$で解消された例を示す.$\ExtOnly$は学習データの不足から「教えてください。」などの表現を含む文に非常に高いスコアを与えるよう過学習している.回答生成との同時学習や疑似ラベルを活用することで,データ不足を補い,より正しく重要文を同定できたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related}半教師あり学習を用いた文書要約に関する研究\cite{amini-EtAl:2002:SIGIR,wong-wu-li:2008:COLING,li-li:2014:COLING}はこれまでにも取り組まれている.小規模なラベル付きデータと大規模なラベルなしデータを用いる手法が一般的である.本稿で着目する設定では大規模データ側が質問-回答というペア構造を持つ点が既存研究と異なる.同時学習の研究についても翻訳,対話,関係抽出に関するサーベイ論文\cite{ruder:2017:CoRR}が発表されるなど,近年活発に研究されている.要約課題向けの同時学習手法としては,Guoら\cite{guo-pasunuru-bansal:2018:ACL}は生成型文書要約器を文のアラインメントや質問生成タスクと同時学習する手法を提案した.また,文圧縮と依存構造解析\cite{kamigaito-hayashi-hirao-nagata:2018:naacl},抽出型文書要約と修辞構造理論に基づく談話構造解析\cite{mann-thompson:1988:discourse,ishigaki-etal-2019-discourse}など,要約とテキストの構造解析を同時学習する手法についても取り組まれている.これらはメインのタスクとなる要約については,大規模なラベル付きデータを使用している.我々は,ラベル付きデータが大規模に獲得できない状況を想定するため,設定が異なる.Isonumaら\cite{isonuma-EtAl:2017:EMNLP}の抽出型要約とテキスト分類を同時学習する手法は,テキストに付与されたカテゴリ情報を自動獲得し活用する点が我々の手法に近いが,我々の想定するユーザが自由に投稿できるCQAでは良質なメタデータの獲得が難しい.Angeldisら\cite{angelidis-lapata:2018:EMNLP}によるAmazonレビューを対象とした意見要約とAspectExtractionや極性判定との同時学習も本研究に関連する.この課題はユーザ投稿型のテキストデータを対象とする点で我々の設定と近いが,補助的なタスクとして用いているAspectExtractionや極性判定はニューラルネットワーク以前の意見要約研究\cite{hu-min:kdd2004}において要約モデルのサブタスクとして取り組まれている.そのため,これらの同時学習はその有効性は比較的明らかであるが,我々の提案する回答生成との同時学習は従来似たような設定に取り組まれたことはなく,必ずしもその有効性が明らかではない.要約研究とペア構造を組み合わせる研究も存在する.Chenら\cite{chen-EtAl:2018:AAAI}は質問応答システムの質問-応答ペアを要約の評価に用いた.我々の研究では質問-回答ペアを学習時に用いることから設定が異なる.ArumaeとLiu\cite{arumae-liu:2018:ACL2018-SRW}は強化学習モデルの学習時に用いる報酬を質問-応答対を手がかりに設計した.穴埋め形式の質問を用いることから本研究にはそのまま適用できない.Gaoら\cite{gao-EtAl:2019:AAAI}は記事とそれに対するユーザのコメントを入力とする要約モデルを提案した.記事-コメントというペア構造を考慮する点が我々の設定と近いが,同時学習する我々のモデルとは異なり,Gaoらのモデルは記事-コメントペアを入力とするマルチモーダル要約設定である.なお,我々のモデルは質問-回答ペアを学習時にのみ用い,評価時には用いない.よって,原文書に加え,補助的な入力を想定するマルチモーダルな設定とは異なる.質問を入力とする要約モデルという観点からは,本研究はクエリ指向要約\cite{liu-EtAl:2008:COLING,morita-sakai-okumura:2011:ACL,chan-EtAl:2012:ACL,ishigaki-etal:ecir2020:query-biased}とも関連する.この設定においては,原文書に加え単語列もしくは質問文をクエリとして与え,要約器はその答えをより含めるような要約を出力する.質問応答システムとは異なり,要約モデルは必ずしもクエリに対し回答する必要はなく,あくまで原文書から得られる情報のみを用いて要約を出力する.クエリ指向要約も原文書に加え,補助的な入力を想定するマルチモーダル要約の一種と考えられ,原文書のみを入力とする本研究の設定とは異なる.CQAから抽出したデータを用いる研究も多く存在する.例えば,質問応答システム\cite{surdeanu-ciaramita-zaragoza:2008:ACL,celikyilmaz-thint-huang:2009:ACLIJCNLP,bhaskar:2013:RANLPStudent},類似質問検索\cite{lei-EtAl:2016:NAACL,romeo-EtAl:2016:COLING,nakov-EtAl:2017:SemEval}や質問生成\cite{heilman-smith:2010:NAACLHLT}がある.CQAから抽出したデータを用いた要約研究として,Tamuraら\cite{tamura-takamura-okumura:2005:IJCNLP}は複数文質問を受け付ける質問応答システムの性能を向上させるために,もっとも核となる文を抽出する手法を提案した.Higurashiら\cite{higurashi-EtAl:2018:COLING}は``learning-to-rank''により質問から重要な部分文字列を抽出する手法を提案した.これらの手法は質問要約課題に取り組んでいるが,人手作成されたアノテーションデータのみを用いる点で我々の設定と異なる.また,Ishigakiら\cite{ishigaki-takamura-okumura:2017:IJCNLP}はCQAに投稿される長文質問を対象とし,抽出型および生成型のモデルを比較した.この研究ではユーザが質問に対し見出しを付与することを想定しており,本研究が見出しを含まない設定を想定する点で異なる.DistantSupervisionの研究も多く存在する.Mintzら\cite{mintz2009acl}はFreeBase\linebreak\cite{bollacker2008sigmod}に格納されたエンティティの情報を用いて,テキストに関係抽出課題向けの情報を自動的にアノテーションする手法を提案した.その他にも,顔文字を極性分類問題向けのデータ作成に活用する手法\cite{go2009},Wikipediaに付与されたトピックラベルを用いてブログに対し分類ラベルを付与する手法\cite{husby2012topic}など多く存在する.要約研究向けには,Nallapatiら\cite{nallapati-EtAl:2017:AAAI}やChenとLapata\cite{Cheng:2016:ACL}がCNN/DailyMailデータセットに含まれるハイライト(記者が記述した箇条書きの要約)を手がかりに,要約に含めるべき文を自動アノテーションした.我々の設定ではハイライトや見出しなど人手作成された要約がなく,これらの手法を直接適用することはできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conc}本研究では抽出型質問要約課題に対し,質問-回答ペアを活用する半教師あり学習の枠組みを新たに提案した.また,サンプリング法およびDistantSupervisionに基づく疑似ラベルを利用した学習法も提案した.実験より,文抽出器と回答生成器を同時学習するモデルを適切なサンプリング法やDistantSupervisionによる疑似ラベル付与手法と併せて用いることで,特に人手によるラベル付きデータが小規模な場合に良い性能を示すことが確かめられた.本研究は半教師あり学習に基づく自然言語処理モデルに対し,ペア構造を活用する枠組みを新たに提案したものと捉えることができる.今後の方向として,例えば,記事-コメント対,発話-応答対など,ペア構造を持ったデータに幅広く応用できる可能性がある.さらに,関係抽出課題などで成果を上げているDistantSupervisionによるデータ作成手法を要約研究に新たに応用し有効性を示した.単一文を選択するタスクに対し,抽出したい文と類似する事例を大量に獲得する情報源を考えることで,他の言語処理タスクにも幅広く応用できる可能性がある.例えば,有害な情報を含む文を選択する課題に対し,検出したい文と類似する特徴を持つ文をウェブ上から大量に獲得するなどの方針が考えられる.このように,ラベル付きデータの獲得が困難な多くの言語処理課題に対し,疑似ラベルを活用することで大規模な機械学習モデルの適用範囲を広げられる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本稿はECIR2020に採録済みの2論文\cite{Ishigaki_en20,machida-etal:ecir2020:semi-supervised},情報処理学会自然言語処理研究会および言語処理学会全国大会にて発表済みの2論文\cite{Ishigaki_ja18,machida_ja19}を基にしたものです.最後に,査読者様およびご担当編集委員様の丁寧な御査読と有益なコメントに感謝申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{05refs.bib}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石垣達也}{%2014年東京工業大学総合理工学研究科博士前期課程修了.同年,同大学博士後期課程(2018年9月から3ヶ月間は国立台湾大学にて研究).2019年,同大学科学技術創成研究院研究員.同年9月,博士(工学)学位取得.2020年4月より産総研特別研究員,現在に至る.専門は自然言語処理.言語処理学会,情報処理学会各会員.}\bioauthor{町田和哉}{%2017年群馬大学理工学部情報理工学科卒業.2019年東京工業大学大学院情報通信系情報通信コース修了.2019年から株式会社リクルートホールディングスにてデータ分析業務に従事.}\bioauthor{小林隼人}{%2010年東北大学大学院情報科学研究科博士後期課程修了.同年より2013年まで株式会社東芝研究開発センター勤務.2013年よりヤフー株式会社Yahoo!JAPAN研究所勤務,2017年より理化学研究所AIPセンター勤務(部分出向・客員研究員),現在に至る.専門は自然言語処理・機械学習.博士(情報科学).}\bioauthor{高村大也}{%1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{%1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在は,科学技術創成研究院教授.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V10N03-01
\section{はじめに} \label{sec:intro}語義曖昧性解消(WordSenseDisambiguation,以下WSD)は機械翻訳,情報検索など,自然言語処理の多くの場面で必要となる基礎技術である\cite{ide:98:a}.SENSEVALはWSDのコンテストであり,WSDの共通の評価データを作成し,その上で様々なシステム・手法を比較することによってWSDの研究・技術を向上させることを目的としている.SENSEVALは過去2回行われている.第1回のSENSEVAL~\cite{kilgarriff:00:a}は1998年夏に,第2回のSENSEVAL-2~\cite{senseval2:00:a}は2001年春に行われた.SENSEVAL-2では,9言語を対象に37研究グループが参加した.日本語を対象としたタスクとしては,辞書タスクと翻訳タスクの2つが行われた.辞書タスクでは語の意味の区別(曖昧性)を国語辞典によって定義し,翻訳タスクではこれを訳語選択によって定義した.本論文は,SENSEVAL-2の日本語辞書タスクについて,タスクの概要,データ,コンテストの結果について報告する.まず,日本語辞書タスクの概要について述べる.SENSEVAL-2では,タスクをlexicalsampletaskとallwordstaskに大別している.lexicalsampletaskは特定(数十〜数百)の単語だけをWSDの対象とし,allwordstaskでは評価テキスト中のすべての単語を対象とする.日本語辞書タスクはlexicalsampletaskである.以下,本論文では,評価の対象として選ばれた単語を評価単語と呼び,評価単語の評価データ中での実際の出現を評価インスタンス,または単にインスタンスと呼ぶ.辞書タスクでは,単語の語義を岩波国語辞典~\cite{nisio:94:a}の語義立てによって定義した.参加者は,テキスト中の評価インスタンスに対して,該当する語義を岩波国語辞典の語釈の中から選択し,その語釈に対応したID(以下,語義ID)を提出する.評価テキストは毎日新聞の1994年の新聞記事を用いた.語義を決定する評価単語の数は100と設定した.また,評価単語のそれぞれについて100インスタンスずつ語義を決めるとした.すなわち,評価インスタンスの総数は10,000である.本タスクには3団体,7システムが参加した.本論文の構成は以下の通りである.\ref{sec:data}節では,辞書タスクで用いたデータの概要を述べる.\ref{sec:goldstandard}節では,正解データの作成手順について述べる.また,正解データを作成する際,1つの評価インスタンスに対して二人の作業者が独立に正しい語義を選択したが,そのときの語義の一致率などについても報告する.\ref{sec:contest}節では,参加者のシステムの概要やスコアなどについて述べ,コンテストの結果に関する簡単な考察を行う.最後に\ref{sec:conclusion}節では,本論文のまとめを行う. \section{データ} \label{sec:data}本節では,辞書タスクで用いられた3つのデータ,岩波国語辞典,訓練データ,評価データについて述べる.\subsection{岩波国語辞典}\label{sec:iwanami}\ref{sec:intro}節で述べたように,辞書タスクでは,岩波国語辞典によって語義を定義する.岩波国語辞典の見出しの数は60,321,語義の総数は85,870であり,一見出し当たりの平均語義数は1.42である.岩波国語辞典の語釈文の例を図~\ref{fig:dic-MURI}に示す.また,岩波国語辞典では,語義は階層構造を持つ.例えば,図~\ref{fig:dic-MURI}では,「理を欠くこと」という語義が\MARU{ア},\MARU{イ}の語義の上位にある.階層構造の最大の深さは3である.辞書タスクでは,語義の定義として,形態素解析された岩波国語辞典の語釈文と,それに対応する語義IDが参加者に配布された.なお,語釈文の形態素解析結果は人手修正されている.\begin{figure}[btp]\begin{center}\noindent\Ovalbox{\begin{tabular}{@{\hspace*{5mm}}l@{}p{0.7\textwidth}@{\hspace*{5mm}}}\\[-4mm]\multicolumn{2}{l}{むり【無理】}\\[1mm]\multicolumn{2}{l}{((名・ダナ))理を欠くこと。}\\\hspace*{1.5zw}\MARU{ア}&道理に反すること。「—が通れば道理が引っ込む」「君が怒るのは—もない(=もっともだ)」。理由が立たないこと。「—な願い」\\\hspace*{1.5zw}\MARU{イ}&行いにくいのに、押してすること。「—をして出掛ける」「仕事の—で病気になる」\\[1mm]\end{tabular}}\end{center}\caption{岩波国語辞典の「無理」の語釈文}\label{fig:dic-MURI}\bigskip\end{figure}\subsection{訓練データ}\label{sec:traindata}訓練データは,毎日新聞の1994年の3,000記事を解析したコーパスである.このコーパスに付与されている情報を以下にまとめる.\begin{itemize}\item形態素情報(分かち書き,品詞,読み,基本形)コーパスに含まれる形態素数は880,000である.これらは人手修正されている.\itemUDCコード各記事には,テキストの分類カテゴリを表わす指標として,国際十進分類法(UniversalDecimalClassification,UDC)によるコード番号~\cite{infosta:94:a}が人手によって付与されている.\item語義情報各単語には,その単語の意味に該当する語義IDが付与されている.但し,語義IDはコーパスの全ての単語ではなく,以下の条件を満たす単語のみに付与されている.\begin{itemize}\item名詞,動詞,形容詞のいずれかである\item岩波国語辞典に見出しがある\item多義である\end{itemize}語義が付与されている形態素の総数は148,558である.語義IDは全て人手によって付与された.また,1つの単語に語義IDを付与した人は1人である.複数の人が同じ単語に語義IDを付与し,それらを照合するといった作業は行われていない.\end{itemize}\subsection{評価データ}\label{sec:evaldata}評価データは,評価インスタンスとその正解となる語義IDを含むテキストである.評価テキストとして毎日新聞の1994年の記事を用いた.これらは訓練データの記事とは異なる.評価データに付与されている情報は以下の通りである.\begin{itemize}\item形態素情報(分かち書き,品詞)これらは自動解析されたものである.訓練データとは異なり,人手による修正はされていない.したがって,訓練データで学習したWSDシステムを評価データに適用した際,訓練データと評価データにおける分かち書きや品詞付けの違いによって誤りが生じる可能性がある.本来は評価データの形態素情報も人手修正するべきであったが,今回は準備期間が短かったために断念した.\itemUDCコード訓練データにおけるUDCコードと同じ.\item語義情報(正解データ)評価インスタンスには正解となる語義IDが付与されている.また,訓練データとは異なり,1つのインスタンスに対して最低2人の人が語義IDを付与している(詳細は\ref{sec:goldstandard}節を参照).もちろん,この情報はコンテストの際には参加者に配布されない.\end{itemize}\subsection{付加情報}本節で述べた岩波国語辞典,訓練データ,評価データの付加情報のほとんどは,RWCPによって作成され,1997年から既に公開されているデータである.訓練データの語義情報については\cite{sirai:01:b},それ以外の情報については\cite{hasida:98:a}を参照していただきたい.これに対し,評価データの語義情報,すなわち正解となる語義IDのデータは,今回のコンテストのために新たに作成した.\ref{sec:goldstandard}節では,正解データの作成過程ならびにその概要について述べる. \section{正解データの作成} \label{sec:goldstandard}正解データの作成は以下のように行った.まず評価単語を100語選定した.次に,各評価単語毎に100,合計10,000の評価インスタンスを選定した.さらに,各評価インスタンスに対し,のべ二人の作業者が語義IDを付与した.本節では,正解データ作成の過程,ならびに二者の語義IDの一致度などについて報告する.\subsection{評価単語,評価インスタンスの選定}\label{sec:dic-target-word-selection}評価単語を選定する際には,以下の点を考慮した.\begin{itemize}\item評価単語の品詞は名詞または動詞とした.\item訓練データにおける出現頻度が50以上の単語を評価単語とした.\item訓練データにおける語義の頻度分布のエントロピー$E(w)$を考慮した.$E(w)$の定義を式~(\ref{eq:dic-entropy})に示す.\begin{equation}\label{eq:dic-entropy}E(w)=-\sum_ip(s_i|w)\logp(s_i|w)\end{equation}式(\ref{eq:dic-entropy})において,$P(s_i|w)$は単語$w$の語義が$s_i$となる確率を表わす.$E(w)$の値が大きい単語は,語義の頻度分布が一様であり,語義を決定することが比較的難しい単語であると考えられる.一方,$E(w)$の値が小さい単語は,1つの語義が集中して現われる傾向が強く,語義の決定も比較的易しいと考えられる.評価単語の選定の際には,$E(w)$をWSDの難易度の目安とした.具体的には,以下の3つの難易度クラスを設定し,それぞれのクラスから評価単語をまんべんなく選ぶようにした.\begin{enumerate}\item高難易度の単語クラス\clA($E(w)\ge1$)\item中難易度の単語クラス\clB($0.5\leE(w)<1$)\item低難易度の単語クラス\clC($E(w)<0.5$)\end{enumerate}\end{itemize}品詞別,難易度クラス別の評価単語数の内訳を表~\ref{tab:targetwords}に示す.また,評価単語の一覧を付録\ref{sec:targetwordlist}に示す.表~\ref{tab:targetwords}において,「語義数」は評価単語の岩波国語辞典における語義の数の平均を,「$E(w)$」は評価単語毎に求めた訓練データにおけるエントロピーの平均を表わす.\begin{table}[tbp]{\normalsize\begin{center}\caption{評価単語数の内訳}\label{tab:targetwords}\smallskip\begin{tabular}[t]{|c|l|ccc||c|}\hline\multicolumn{2}{|c|}{}&\makebox[12mm]{\clA}&\makebox[12mm]{\clB}&\makebox[12mm]{\clC}&\makebox[12mm]{計}\\\hline&単語数&{\bf10}&{\bf20}&{\bf20}&{\bf50}\\名詞&語義数&9.1&3.7&3.3&4.6\\&$E(w)$&1.19&0.723&0.248&0.627\\\hline&単語数&{\bf10}&{\bf20}&{\bf20}&{\bf50}\\動詞&語義数&18&6.7&5.2&8.3\\&$E(w)$&1.77&0.728&0.244&0.743\\\hline\hline&単語数&{\bf20}&{\bf40}&{\bf40}&{\bf100}\\計&語義数&14&5.2&4.2&6.4\\&$E(w)$&1.48&0.725&0.246&0.685\\\hline\end{tabular}\end{center}}\end{table}次に,評価テキストである1994年の毎日新聞の記事中から評価インスタンスを選択した.これらの記事には,RWCPによって,形態素情報とUDCコードが付加情報として与えられている.各評価単語毎に,日付の古い記事から順に100語を選択し,それらを評価インタンスとした.ただし,訓練データの記事やUDCコードが付与されていない記事は対象外とした.評価単語は100語であるので,評価インタンスの総数は10,000である.また,評価インスタンスが選ばれた記事の総数は2,130となった.\subsection{語義IDの付与}\label{sec:dic-annotating}10,000語の評価インスタンスに対して,その単語の意味に該当する語義IDを人手で付与した.語義IDを付与した作業者は6名で,言語学や辞書編纂の知識をある程度持っている人達である.また,本タスクの訓練データはRWCPが作成したコーパスを利用しているが,今回の作業者の中には訓練データへ語義IDを付与した人も含まれる.その手順を以下にまとめる.\begin{enumerate}\item二人の作業者が独立に語義IDを付与する.その際の大まかな指針は以下の通りである.\begin{itemize}\item1つの語義IDを選択する.複数の語義IDは選択しない.\itemどの階層の語義IDを選んでもよい.\item岩波国語辞典の語釈の中に該当するものがなければ,UNASSIGNABLE(該当無し)とする.ただし,なるべくUNASSIGNABLEとすることは避け,岩波国語辞典の語釈の中から語義IDを選択する.\end{itemize}\item二者が選んだ語義IDが一致していれば,それを正解の語義IDとする.\item二者が選んだ語義IDが一致していなければ,第三者がその中から正しいと思われるものを選択する.ただし,第三者が,二者が選んだ語義ID以外の語義IDが正しいと判断した場合には,三者が選んだ3つの語義IDの全てを正解とする.\end{enumerate}語義IDを選択する際,どの階層の語義IDを選んでもよいとしたが,階層構造の末端以外の語義IDが選択されたインスタンスの数は94であり,階層の上の語義IDはあまり選ばれなかった.また,二者の語義IDが一致せず,第三者も違う語義IDを選んだインスタンスの数は28であり,その全体に対する割合は0.3\,\%と非常に少なかった.表~\ref{tab:dic-agreeement}は,作業者二人が最初に選んだ語義IDの一致率を示したものである.評価インスタンス全体における一致率は86.3\,\%であった.名詞と動詞とで一致率を比較すると,それほど差が見られないことがわかる.また,名詞,動詞ともに,難易度の高いクラスの単語ほど一致率が低くなるが,その傾向は名詞よりも動詞の方が強いことがわかる.一方,表~\ref{tab:kappa}は評価単語毎に計算したCohenの$\kappa$~\cite{bakeman:97:a}の平均を示したものである.$\kappa$とは二系列のデータがどの程度一致しているかを測るためによく用いられる統計的尺度であり,式(\ref{eq:kappa})で与えられる.\begin{eqnarray}\label{eq:kappa}\kappa&=&\frac{P_o-P_e}{1-P_e}\\[2mm]\label{eq:p_o}P_o&=&\frac{\sum_ix_{ii}}{n}\\[2mm]\label{eq:p_e}P_e&=&\frac{\sum_{i=1}^kx_{+i}x_{i+}}{n^2}\end{eqnarray}\noindent式(\ref{eq:p_o})と(\ref{eq:p_e})において,$n$はインスタンスの総数を,$x_{ij}$は作業者Aが語義$i$,作業者Bが語義$j$を与えたインスタンスの数を,$x_{i+},x_{+i}$はそれぞれ作業者A,Bが語義$i$を与えたインスタンスの数を表わす.$P_o$は二人の作業者が同じ語義を付与した実際の確率であり,$P_e$は二人の作業者の語義付与が独立であるときに同じ語義を付与する期待値である.$\kappa$は両者の比から計算され,その値が大きいほど,二者の語義付与が一致していることを示す.その最大値は1である.評価単語100語の$\kappa$の平均は0.657であり,決して大きいとは言えない.このことは,岩波国語辞典の語釈の中から正しい語義を選択する作業は人間でも難しく,付与される語義が人によって揺れやすいことを示唆している.また,表~\ref{tab:kappa}を見ると,表~\ref{tab:dic-agreeement}の一致率とは異なり,名詞で難易度クラスが\clBのときの$\kappa$の値が不自然に低いことがわかる.これは,一致率と$\kappa$が作業者間の語義の一致度に関して必ずしも同じ傾向を示すわけではないためと考えられる.例えば,100個の評価インスタンスに対して,作業者Aが語義~$\!{}_1$を100回付与し,作業者Bが語義~$\!{}_1$を99,語義~$\!{}_2$を1回付与したとする.このとき,一致率は0.99と高いのに対し,$\kappa$は0となる.直観的には,$\kappa$の値はもっと大きいと考えられるが,これは統計的に信頼できる$\kappa$を求めるのに十分な量のサンプルがなかったためかもしれない.今回の作業では,1つの評価単語のインスタンスの数は100なので,$\kappa$を求める際のサンプル数$n$も100である.\begin{table}[tbp]{\normalsize\begin{center}\caption{作業者の語義IDの一致率}\label{tab:dic-agreeement}\medskip\begin{tabular}{|c|ccc|c|}\hline&\clA&\clB&\clC&計\\\hline名詞&0.809&0.786&0.957&0.859\\動詞&0.699&0.896&0.922&0.867\\\hline計&0.754&0.841&0.939&0.863\\\hline\end{tabular}\bigskip\caption{$\kappa$の平均}\label{tab:kappa}\medskip\begin{tabular}{|c|ccc|c|}\hline&\clA&\clB&\clC&計\\\hline名詞&0.713&0.526&0.655&0.616\\動詞&0.605&0.723&0.722&0.698\\\hline計&0.659&0.627&0.687&0.657\\\hline\end{tabular}\end{center}}\end{table} \section{コンテスト} \label{sec:contest}\subsection{参加団体}\label{sec:participants}辞書タスクには3団体7システムが参加した.参加団体とそのシステムの特徴は以下の通りである.いずれのシステムも訓練データを利用した教師あり学習を行っている.\begin{itemize}\item通信総研(CRL)以下の4つのシステムによって回答を提出した.システム名とその概要は以下の通りである~\cite{murata:01:a}.\begin{itemize}\itemCRL1\\分類器としてサポートベクトルマシンを使用したシステム.学習に用いる素性としては,対象語及びその周辺にある単語の表記,品詞,構文情報,意味クラスやUDCコードなどを用いている.\itemCRL2\\分類器としてシンプルベイズを使用したシステム.学習に用いる素性はCRL1と同じ.\itemCRL3\\シンプルベイズとサポートベクトルマシンの混合モデル.個々の対象単語毎に,それぞれの分類器の精度を学習データを用いたクロスバリデーションによって評価し,精度の高い分類器を選択している.\itemCRL4\\CRL3と同じような混合モデル.CRL1と同じ素性を用いたシンプルベイズとサポートベクトルマシン,CRL1の素性のうち構文素性を使わないシンプルベイズとサポートベクトルマシンの4つの分類器を使用している.\end{itemize}\item奈良先端科学技術大学院大学(NAIST)以下の1つのシステムによって回答を提出した.その概要は以下の通りである~\cite{takamura:01:a}.\begin{itemize}\itemNAIST\\分類器としてサポートベクトルマシンを用いている.学習に用いる素性は,対象語及びその周辺にある単語の表記や品詞の情報などである.さらに,独立成分分析(IndependentComponentAnalysis,ICA)や主成分分析(PrincipleComponentAnalysis,PCA)といった手法を用いて,素性空間の再構築を行っている.また,複数の素性空間によって学習された分類器を混合している\footnote{SENSEVAL-2の参加システムは文献~\cite{takamura:01:a}のシステムと厳密に同じではない.両者の違いは,複数の分類器を混合する際に,前者ではクロスバリデーションによって最も良いと思われる分類器を選択しているのに対し,後者では重み付き多数決によって複数の分類器を混合している.}.\end{itemize}\item東京工業大学(TITECH)以下の2つのシステムによって回答を提出した.システム名とその概要は以下の通りである~\cite{yagi:01:a}.\begin{itemize}\itemTITECH1\\分類器として決定リストを用いている.学習に用いる素性は,対象語及びその周辺にある単語の表記,品詞やUDCコードである.また,訓練データの他に,岩波国語辞典の語釈文中の例文からも決定リストの規則を学習している.\itemTITECH2\\TITECH1とほぼ同じであるが,評価データに付与された形態素情報の誤りを自動修正することを試みている.\end{itemize}\end{itemize}\subsection{評価基準}\label{sec:scoring}SENSEVAL-2では,全ての言語のタスクにおける共通の評価基準として,以下に述べる3つの評価基準がある.辞書タスクでも,この評価基準に従ってシステムの評価を行った.\begin{itemize}\itemfine-grainedscoring正解の語義IDとシステムの語義IDが完全に一致していれば正解とする.\itemcoarse-grainedscoring正解の語義IDとシステムの語義IDが,語義の階層構造の一番上の層で一致していれば正解とする.\itemmixed-grainedscoring正解の語義IDとシステムの語義IDが完全に一致していなくても,語義の階層構造に従って部分的にスコアを与える方式で,fine-grainedとcoarse-grainedの中間にあたる.語義の階層構造において,正解の語義IDがシステムが出力する語義IDの親であるなら正解とみなす(図~\ref{fig:mixed-grained}(a)).逆に,システムの語義IDが正解の語義IDの親であるなら,\begin{equation}\label{eq:mixed-grained}\frac{1}{システムの語義\rm{ID}の子の数}\end{equation}といった部分的なスコアを与える(図~\ref{fig:mixed-grained}(b)).\end{itemize}\noindent参加者は,1つの評価インスタンスに対して複数の語義IDを返してもよい.また,インスタンスの意味がその語義IDである確率をつけて返してもよい.確率をつけずに複数の語義IDを回答した場合には,全ての語義IDの確率が等しいとして取り扱われる.複数の語義IDが提出されたときには,各語義IDの確率に従ってスコアの重み付き平均をとる.また,正解の語義IDが複数ある場合は,正解の語義ID毎にスコアを計算し,その和を全体のスコアとする.\begin{figure}[tbp]\begin{center}\epsfile{file=scoring.eps,scale=0.72}\caption{評価基準(mixed-grainedscoring)}\label{fig:mixed-grained}\end{center}\end{figure}\subsection{評価結果と考察}\label{sec:results}\begin{figure}[tbp]\begin{center}\epsfile{file=res2.eps,scale=0.45}\caption{辞書タスクの結果}\label{fig:res}\end{center}\end{figure}本項では,コンテストの結果とそれに関する考察について述べる.まず,システムの評価結果を図~\ref{fig:res}に示す.図~\ref{fig:res}において,``Baseline''は訓練データにおける最頻出語義を選択したときのスコアを,``Agree''は2人の作業者の語義IDが一致した割合を示している.参加システムの中で一番スコアが良かったのはCRL4である.しかし,どのシステムもベースラインを上回り,お互いのスコアの差も3\,\%程度で,それほど大きな差は見られなかった.3つの評価基準によるスコアのうち,coarse-grainedscoreはBaselineも含めてほとんど差はない.また,mixed-grainedとfine-grainedでは,システム間の差に見られる傾向はほとんど同じである.そのため,以後の考察はfine-grainedscoreについてのみ行う.\subsubsection{品詞別に見た評価結果}\label{sec:results-pos}\begin{figure}[tbp]\begin{center}\epsfile{file=res-pos-fine.eps,scale=0.4}\caption{品詞別スコア(fine-grained)}\label{fig:res-pos}\end{center}\end{figure}図\ref{fig:res-pos}は,品詞別に見た各システムのスコア(fine-grained)を示したグラフである.ベースラインを比べると,動詞の方が名詞よりも平均エントロピーが大きい(表~\ref{tab:targetwords})にも関わらず,約3\,\%ほどスコアが高い.これは,特にエントロピーの高い評価単語が動詞にいくつかあり,それらが動詞の平均エントロピーを大きくしているためと考えられる.参加者のシステムを比べると,名詞のスコアは比較的差が小さいが,動詞のスコアは差が大きい.特に通信総研のシステムは動詞に対するスコアが高く,このことが全体の評価においても他のシステムよりもスコアが高い要因となっている.この原因を明らかにするために,CRL1が正解しNAISTとTITECH2が不正解であった動詞のインスタンス(139事例)を抜き出し,どのような動詞に対してCRLのシステムが正しく語義を決めることができるのかについて調査した.通信総研の4つのシステムの中からCRL1を選択したのは,CRL1が学習アルゴリズムとしてサポートベクトルマシンを採用したシステムであり,同じくサポートベクトルマシンを用いたNAISTと比較するためである.また,東工大の2つのシステムの中からTITECH1を選択したのは,TITECH1の方がTITECH2に比べて若干スコアが高いためである.\begin{figure}[tbp]\begin{center}(a)\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「えがく」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{絵や図をかく。「弧を—いて飛ぶ」}&20&&&○\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{様子を写し出す。表現する。描写する。「情景を—」「勝利を胸に—」}&&20&20&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{そのわきで、歴代王たちの肖像を\head{描い}た百メートルにも及ぶ美しい壁画が風雨にさらされている。}}\\\hline\end{tabular}}\bigskip(b)\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「とう」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0pt}{[一]}&\tume{【問う】((五他))}&&&&\\\sensesymbol{0.75zw}{\MARU{1}}&\tume{わからない事、はっきりしない事を、知らせ(教え)てくれるように求める。問題として出す。「年齢を—わず(=問題とせず。それで差別しないで)出願できる」}&14&&&○\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{物事の原因、責任の所在、罪を犯した事実などを取り立てて、明らかにするためにただす。「事故の原因を—」「責任を—」}&&14&14&\\\sensesymbol{0pt}{[二]}&\tume{【訪う】((五他))他人の家や特定の場所を訪問する。おとずれる。たずねる。「恩師を—」「名所旧跡を—」}&&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{交換できる本は汚れのひどくないもので、引き取り価格は一律定価の一〇%。分野は\head{問わ}ず漫画も可。}}\\\hline\end{tabular}}\medskip\begin{minipage}{0.75\textwidth}\smallC,N,Tの欄はそれぞれ通信総研,奈良先端大,東工大のシステムが該当する語義を出力した頻度を表わす.語釈文の下は,対象インスタンスとそれが現われる新聞記事の例である.対象インスタンスは\head{~~}でマークされている.\end{minipage}\caption{CRL1が正解する動詞の例}\label{fig:verbc+n-t-}\end{center}\end{figure}調査の結果,「描く」「問う」などの動詞について,CRL1は他のシステムよりも正解率が高いことがわかった.これらの動詞の岩波国語辞典の語釈文と,各システムが出力した語義の頻度を図~\ref{fig:verbc+n-t-}に示す.しかし,これらの例を見ただけでは,CRL1がNAISTやTITECH1に比べて動詞のスコアが高い原因はわからない.原因のひとつとして考えられるのは,CRL1がNAISTやTITECH1と比べて,より多くの素性を用いていることである(\ref{sec:participants}項参照).但し,この推察を裏付けるためには,各システムが個々のインスタンスに対して語義を決める際に手がかりとした素性を明らかにする必要がある.例えば,図~\ref{fig:verbc+n-t-}に示したインスタンスに対して,CRL1がNAISTやTITECH2が考慮していない構文素性などの素性を特に手がかりとしていることが明らかになれば,それらの素性が動詞の語義曖昧性解消に有効であると結論できる.但し,著者は,各システムが語義を決定する際に一番有力な手がかりとした素性に関する情報を持っていないため,上記の考察を具体的に検証することはできなかった.しかし,このように複数のWSDシステムの出力を詳細に比較することは,WSDに有効な素性を明らかにし,今後のWSDシステムの精度向上につながる可能性がある.\subsubsection{難易度別に見た評価結果}\label{sec:results-dif}\begin{figure}[tbp]\begin{center}\epsfile{file=res-dif-fine.eps,scale=0.4}\caption{難易度別スコア(fine-grained)}\label{fig:res-dif}\end{center}\end{figure}図~\ref{fig:res-dif}は,難易度別に見た各システムのスコア(fine-grained)を示したグラフである.クラス\clCの単語については,ベースラインや作業者の一致率も含めて,各システムのスコアにほとんど差がない.これは,クラス\clCの単語の語義を決定するタスクが比較的容易であったためと考えられる.これに対し,難易度の高い\clAや\clBの単語では,システム間の相違は全体での評価(図~\ref{fig:res})とほぼ同じである.\subsubsection{参加システムの比較}\label{sec:comparingsystems}\begin{table}[tbp]{\normalsize\begin{center}\caption{個々のインスタンスに対する参加システムの比較}\label{tab:comparingsystems}\medskip\begin{tabular}{|c||c|ccc|ccc|c|}\hline&\multicolumn{1}{c|}{(a)}&\multicolumn{3}{c|}{(b)}&\multicolumn{3}{c|}{(c)}&\multicolumn{1}{c|}{(d)}\\\hlineCRL4&○&○&×&×&×&○&○&×\\[-1mm]NAIST&○&×&○&×&○&×&○&×\\[-1mm]TITECH1&○&×&×&○&○&○&×&×\\\hline&6558&~345&~283&~280&~308&~501&~383&1342\\\hline\end{tabular}\end{center}}\end{table}表~\ref{tab:comparingsystems}は,10,000語の対象インスタンスを(a)3つの参加者の全てのシステムが正解,(b)1システムだけが正解,(c)1システムだけが不正解,(d)全てのシステムが不正解,の4つに分類し,その内訳を調べたものである.通信総研と東工大のシステムとしては一番スコアの良いCRL4とTITECH1を選択し,比較の対象とした.また,NAISTは複数の語義を確率付きで回答するシステムであったが,出力された複数の語義の中に正解が含まれていればそのインスタンスに対して正解したとみなすと,NAISTのシステムのパフォーマンスが過大に評価され,システムの公平な比較ができない.そこで,確率の一番大きい語義のみを出力したとみなして他のシステムと比較することにした.ちなみに,確率の一番大きい語義のみを出力したときのNAISTのfine-grainedスコアは0.753である.表~\ref{tab:comparingsystems}(b),(c)から,参加者のシステムの回答が完全に一致していない事例の数は2,100であることがわかる.これらの事例から,それぞれのWSDシステムの特徴を考察することができる.例えば,表~\ref{tab:comparingsystems}(c)の事例は,他のシステムは正しい語義を出力したのに対し,あるシステムだけが正しい語義を出力できなかったことを表わす.付録\ref{sec:example:onlyonesystemfailure}に具体的な事例をいくつか紹介する.これらの事例を調べれば,現在のWSDシステムがうまく語義を決定することができない要因を探ることができる.但し,\ref{sec:results-pos}の考察で述べたように,各システムが個々のインスタンスに対して語義を決定する際に一番有力な手がかりとした素性に関する情報が必要である.また,自然言語処理における様々なタスクにおいて,votingと呼ばれる技術に関する研究が近年盛んに行われている.votingとは,複数のシステムの結果を混合することによりパフォーマンスを向上させる技術で,WSDに応用した研究もいくつか報告されている~\cite{pedersen:00:a,agirre:00:a,takamura:01:a}.表~\ref{tab:comparingsystems}から,3つのシステムのいずれかに正解が含まれるインスタンスの割合は0.865であることがわかる.これは,3つのシステムの出力を組み合わせたときに得られるスコアの上限であり,単独のシステムよりも8\,\%程度精度が向上することを意味する.したがって,日本語のWSDにおいても,votingは精度を向上させる技術として有望であろう.\subsubsection{未知の語義}\label{sec:unknown-word-sense}\begin{table}[tbp]{\normalsize\begin{center}\caption{未知の語義に対するスコア(fine-grained)}\label{tab:unknown-word-sense}\medskip\begin{tabular}{|ccccccc|}\hline\makebox[14mm]{CRL1}&\makebox[14mm]{CRL2}&\makebox[14mm]{CRL3}&\makebox[14mm]{CRL4}&\makebox[14mm]{NAIST}&\makebox[14mm]{TITECH1}&\makebox[14mm]{TITECH2}\\\hline0&0&0&0&0.01&0.648&0.657\\\hline\end{tabular}\end{center}}\end{table}未知の語義とは,ここでは訓練データに1回も現われない語義を指す.今回のコンテストでは,未知の語義を正解とするインスタンスの数は108であった.未知の語義に対する各システムのスコアを表~\ref{tab:unknown-word-sense}に示す.各システムは訓練データを用いた機械学習を行っているため,未知の語義に対するスコアは全体のスコアに比べて著しく劣る.また,参加者のシステムを比較すると,東工大のシステムのスコアが特に高いことがわかる.東工大システムのみが正解した例を図~\ref{fig:unk-ws-system}に示す.\begin{figure}[tbp]\begin{center}\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「め」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0pt}{[一]}&\tume{((名))}&&&&\\\sensesymbol{0.75zw}{\MARU{1}}&\tume{生物の、物を見る働きをする器官。また、その様子・働き。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{眼球・視神経から成る器官。}&32&49&&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{目\MARU{1}\MARU{ア}の様子。目つき。}&&&&\\\sensesymbol{1.5zw}{\MARU{ウ}}&\tume{見ること。見えること。また、視力。更に、注意(力)。}&37&20&&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{目\MARU{1}\MARU{ア}に見える姿・様子。}&&&&\\\sensesymbol{0.75zw}{\MARU{3}}&\tume{ある物事に出会うこと。経験。体験。また、局面。}&&&&\\\sensesymbol{0.75zw}{\MARU{4}}&\tume{形が目\MARU{1}\MARU{ア}に似ているもの。「台風の—」}&&&&\\\multicolumn{2}{|c|}{$\vdots$}&&&&\\\sensesymbol{0pt}{[二]}&\tume{((接尾))}&&&&\\\sensesymbol{1zw}{\MARU{1}}&\tume{順序を表す時に添える語。「三番—の問題」}&&&69&☆\\\multicolumn{2}{|c|}{$\vdots$}&&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{2年連続13回\head{目}の優勝を狙う早大を中心に、山梨学院大、中大が追う展開になりそうだ。}}\\\hline\end{tabular}\medskipC=CRL4,~~~N=NAIST,~~~T=TITECH1\end{center}\caption{未知の語義に対するシステムの出力例}\label{fig:unk-ws-system}\end{figure}図~\ref{fig:unk-ws-system}に示したように,[二]\MARU{1}が正解となるインスタンスに対して,TITECH1は正解と同じ語義を出力するのに対し,CRL4,NAISTは訓練データの頻出語義である[一]\MARU{1}\MARU{ア}や[一]\MARU{1}\MARU{ウ}を出力することがわかった.東工大のシステムが訓練データにない語義を正確に返すのは,語釈文中の例文からも決定リストの規則を学習しているためである.東工大システムの開発者に,「目」の語義を[二]\MARU{1}に決めた決定リストの規則を問い合わせたところ,式(\ref{eq:decisionruleforME})の規則であることがわかった.\newpage\begin{equation}\label{eq:decisionruleforME}\begin{array}[c]{p{0.8\textwidth}}\setlength{\baselineskip}{0.8\normalbaselineskip}対象インスタンスの1つ前の単語の品詞が``名詞接尾助数詞''かつ2つ前の単語の品詞が``名詞数''なら,語義を[二]\MARU{1}にせよ.\end{array}\end{equation}式(\ref{eq:decisionruleforME})の規則は,訓練データの例文ではなく,語義[二]\MARU{1}の語釈文中の例文「三番—の問題」から学習されたものである.このように,WSDシステムを構築する際に複数の知識源を利用すること---東工大システムの場合は訓練データ(語義タグ付きコーパス)と辞書の語釈文---は,WSDの精度向上に有効な手段であると考えられる.なお,訓練データ中に[二]\MARU{1}の語義が現われなかった理由は以下の通りである.訓練データにおいては,図~\ref{fig:unk-ws-system}のような「目」の品詞は``名詞接尾''になっている.訓練データに語義を付与する際に,接尾語は対象外としたため,これらの単語には語義が付与されていない.ところが,評価データにおいては,RWCの品詞体系の大分類が``名詞''または``動詞''の単語を対象インスタンスとしたため,品詞が``名詞接尾''の単語も語義を決める対象となっている.このため,学習データに含まれない,接尾語としての意味[二]\MARU{1}を正解とするインスタンスが評価データに頻出した.このような状況は明らかにタスクの設定として不適切である.これは主催者側の過失であり,反省点としたい.\subsubsection{作業者の一致率とシステムのスコア}\label{sec:agreement-and-score}図~\ref{fig:annotator-system}は,作業者が付与した語義の一致率を横軸,参加者の7システムの平均スコアを縦軸とし,100個の評価単語の結果をプロットしたグラフである.この図から,作業者の一致率とシステムの平均スコアには正の相関関係があることが読みとれる.しかし,評価単語の中には,作業者の一致率が高いのにも関わらず,システムの平均スコアが低い単語がある.具体的には「開発」「核」「精神」「乗る」「生まれる」「かかる」などである.これらの一部の単語の語義と,参加システムが出力した語義の頻度を付録~\ref{sec:example:agr+sys-}に示す.このような単語は,人間にとっては正しい語義を選択するのは易しいが,現状のWSDシステムではうまく語義を決めることができない単語である.したがって,特にこれらの単語について,システムが語義の選択を誤る原因を考察すれば,システムの性能を向上させることができると期待される.\begin{figure}[tbp]\begin{center}\epsfile{file=plot-all.eps,scale=0.4}\caption{作業者の語義の一致率とシステムの平均スコア(fine-grained)}\label{fig:annotator-system}\end{center}\end{figure} \section{おわりに} \label{sec:conclusion}本論文では,SENSEVAL-2の日本語辞書タスクの概要について報告した.辞書タスクは,タスク設定自体はオーソドックスなものであるが,日本語を対象とした語義曖昧性解消に関するコンテストとしては始めての試みである.本タスクで用いられた正解データや参加者のシステムの結果は,SENSEVAL-2のウェブサイト\footnote{{\tthttp://www.senseval.org/}}で公開されている.これらのデータが今後の語義曖昧性解消の研究に貢献することを願う.\bigskip\acknowledgment辞書タスクでは,評価テキストとして毎日新聞の新聞記事を利用させていただきました.新聞記事の利用に御協力いただきました毎日新聞社に感謝いたします.また,辞書タスクの運営に数々の助言をいただいた東京工業大学の徳永健伸助教授,東京大学の黒橋禎夫助教授,ならびに正解データを作成して下さった作業者の皆様に深く感謝いたします.査読者の方には,コンテストの結果の考察に関して示唆に富む数多くの御意見をいただきました.厚く御礼申し上げます.\bibliographystyle{jnlpbbl}\bibliography{paper}\appendix \section{評価単語} \label{sec:targetwordlist}辞書タスクの評価単語の一覧を以下に示す.また,日本語タスクには辞書タスクと翻訳タスクの2つがあるが,両タスクの評価単語は同じものを使用した.ただし,翻訳タスクの評価単語の数は40である.下表で*のついた単語は,翻訳タスクの評価単語でもある.\begin{center}\begin{tabular}{|m{2zw}|m{10zw}|m{10zw}|m{10zw}|}\hline&\multicolumn{1}{c|}{\clA}&\multicolumn{1}{c|}{\clB}&\multicolumn{1}{c|}{\clC}\\\hline名詞&間,頭,一般*,意味*,姿*,近く*,手,胸*,目,もの&一方*,今*,開発,関係,気持ち,記録*,国内*,言葉*,子供,午後,市場,市民*,時間,事業*,時代*,情報,地方,同日,場合*,前*&疑い,男,核*,技術,現在,交渉,社会,少年,自分,精神,対象,代表,中心*,程度,電話,花*,反対*,民間,娘,問題*\\\hline動詞&与える*,受ける*,かかる,聞く*,進む,出す,出る*,取る,入る,持つ*&言う*,訴える,生まれる,描く*,書く*,決まる,来る,超える*,使う*,作る*,伝える*,出来る,問う,残す,乗る*,開く,待つ*,まとめる,守る*,見る&思う,買う*,変わる,考える,決める,加える,知る,進める,違う,狙う,図る*,話す,含む,見せる*,認める*,迎える,求める*,読む,よる,分かる\\\hline\end{tabular}\end{center} \section{1つのシステムだけが不正解となる事例} \label{sec:example:onlyonesystemfailure}CRL4,NAIST,TITECH1のうち,1つのシステムだけが不正解となった事例を紹介する.\begin{itemize}\itemCRL4のみが不正解となる事例\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\hline\multicolumn{2}{|l|}{「じょうほう」の語義}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{ある物事の事情についての知らせ。「海外—」「—を流す」}&&19&19&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{それを通して何らかの知識が得られるようなもの。▽informationの訳語。「データ」が表現の形の面を言うのに対し、内容面を言うことが多い。}&19&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{「お天気\head{情報}の大切さを一般の人に理解していただくことが、僕の使命と思っています。...}}\\\hline\end{tabular}}\medskip\begin{itemize}\itemNAISTのみが不正解となる事例\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「こども」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{幼い子。児童。}&22&&22&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{自分のもうけた子。むすこ、むすめ。子。}&&22&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{\head{子供}のころ、牛肉のすきやきは月に一度ありつけるかどうかのごちそうだった。}}\\\hline\end{tabular}}\medskip\newpage\begin{itemize}\itemTITECH1のみが不正解となる事例\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「むね」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{動物の、(体の前面で)首と腹との間の部分。「—を張る」}&12&12&&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{胸\MARU{1}の内側に収まっている(と考える)もの。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{肺。「—をわずらう」}&&&&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{胃。「—が焼ける」}&&&&\\\sensesymbol{1.5zw}{\MARU{ウ}}&\tume{心臓。「—がどきどきする」}&&&&\\\sensesymbol{1.5zw}{\MARU{エ}}&\tume{心。「—に迫る」「—に秘める」}&&&12&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{同乗の兵庫県西宮市鷲林寺南町、無職、大園輝樹さん(21)が\head{胸}などを強く打って間もなく死亡。}}\\\hline\end{tabular}}\vspace*{1cm} \section{一致率が高くシステムのスコアが低い単語の例} \label{sec:example:agr+sys-}2人の作業者の一致率が高いのにも関わらず,7つの参加システムの平均スコア(fine-grained)が低い単語の例を以下に示す.以下の表は,作業者の語義付けが一致したインスタンスに対する参加システムの出力語義の頻度分布である.CはCRL4,NはNAIST,TはTITECH1を表わす.\begin{itemize}\item「開発」(一致率0.93,参加システムの平均スコア0.493)2人の作業者がともに正解を\MARU{1}\MARU{ア}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「かいはつ」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{開きおこすこと。}&4&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{(天然資源などを)人間生活に役立たせること。「電源—」}&7&2&5&☆\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{現実化すること。実用化すること。「新製品の—」「研究—」}&35&44&41&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{教育で、問答などを使って自発的にわからせる方法。}&&&&\\\hline\multicolumn{6}{|p{128mm}|}{\tume{「試掘で百本のうち三本も当たれば十分」とされる石油\head{開発}が、なぜ今になって盛り上がってきたのか——。}}\\\hline\end{tabular}}\medskip\newpage\begin{itemize}\item「核」(一致率0.97,参加システムのスコアの平均0.721)2人の作業者がともに正解を\MARU{1}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「かく」の語義}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{物事の中心(となるもの)。かなめ。「核になる」}&1&&&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{物の中心の部分。「地核・痔核(じかく)」}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{細胞核。「核膜・核分裂」}&21&22&22&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{原子核。また、核兵器。「核の持込み」}&&&&\\\sensesymbol{0.75zw}{\MARU{3}}&\tume{草や木の芽ばえるたね。内果皮の硬化したもの。「核果」}&&&&\\\hline\multicolumn{6}{|p{128mm}|}{\tume{とはいえ、このままボスニア情勢を座視していれば、国連を\head{核}とした地域紛争の管理システムの信頼性が決定的打撃を受けかねない。}}\\\hline\end{tabular}}\medskip\begin{itemize}\item「乗る」(一致率0.91,参加システムのスコアの平均0.567)2人の作業者がともに正解を\MARU{3}\MARU{ア}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「のる」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{運送用の物の上や内部に移る。「馬に—」}&19&11&20&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{(持ち上げられて)物の上に移る。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{物に上がる。「台の上に—」}&&5&&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{上に置かれる。載「机に—っている本」}&&&&\\\sensesymbol{0.75zw}{\MARU{3}}&\tume{動き・調子によく合う。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{勢いがついて物事が進む状態にある。「仕事に気が—らない」}&2&4&1&☆\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{他のものの調子にうまく合う。「リズムに—って踊る」}&&&&\\\sensesymbol{1.5zw}{\MARU{ウ}}&\tume{十分によくつく。「あぶらの—った肉」}&&&&\\\sensesymbol{1.5zw}{\MARU{エ}}&\tume{物事をする仲間・相手になる。「相談に—」}&&&&\\\sensesymbol{1.5zw}{\MARU{オ}}&\tume{他からのたくらみにまんまと引き込まれる。「計略に—」}&&1&&\\\sensesymbol{0.75zw}{\MARU{4}}&\tume{伝える手段に託せられる。「電波に—って広まる」。特に、新聞・雑誌・書物に記される。「社会面に—った記事」}&&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{株式会社にして資金を集めブームに\head{乗っ}て事業拡大し、資産を公開して大企業になり結局だれのものだかわからなくなってしまう。}}\\\hline\end{tabular}}\newpage\begin{itemize}\item「生まれる」(一致率1,参加システムのスコアの平均0.719)2人の作業者がともに正解を\MARU{2}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「うまれる」の語義}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{母体から子や卵が、その時期が来て、出る。また、卵からかえる。出生する。誕生する。}&11&22&20&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{今までなかったものが出来上がる。}&33&22&24&☆\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{料理は産物で支配され、結果、その国、その土地の伝統的料理が\head{生まれ}、育ちました。}}\\\hline\end{tabular}}\medskip\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士後期課程修了.同年同大学院情報理工学研究科計算工学専攻助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.博士(工学).統計的自然言語処理に関する研究に従事.情報処理学会,人工知能学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V14N03-01
\section{まえがき} 「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,言語の研究においてしばしば自明視され,議論の前提とされる.たとえば「あのー,あなたは失格,なんです」という発言は,単に聞き手の失格(命題情報)を告げるだけのものではない.「失格は,聞き手にとってよくないことだ」という話し手の評価や,「聞き手にとってよくないことを聞き手に告げるのはイヤだ,ためらわれる」といった話し手の感情・態度をこの発言から読みとることは,多くの場合,難しくない.また,このような話し手の評価や感情・態度を早い段階(たとえば冒頭部「あのー」の段階)で読みとることによって,聞き手は,その後に続く,つらい知らせを受け入れる(つまり迅速で正確な情報伝達を実現させる)ための心の準備ができる.さらに「話し手が発話をためらっているのは,自分に気を遣ってのことだ」と意識することは,話し手との人間関係にとってもプラスに働くだろう.これらの観察からすれば,「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,疑問の生じる余地のない,この上なく正しい考えにも見える.だが,本当にそうだろうか?本稿は,話し手の言語行動に関するこの一見常識的な考え(便宜上「『表す』構図」と呼ぶ)が,日常の音声コミュニケーションにおける話し手の実態をうまくとらえられない場合があることを示し,それに代わる新しい構図(『する』構図)を提案するものである.データとして用いるのは,現代日本語の日常会話の音声の記録(謝辞欄に記した3つのプロジェクトによるもの)と,現代日本語の母語話者の内観である.コントロールされていない日常会話の記録をデータとしてとりあげるのは伝統的な言語学者や多くの情報処理研究者にはなじみにくいことかもしれないし,内観の利用も情報処理研究者や会話分析者には奇異に映るかもしれないが,最善のデータをめぐる議論はかんたんには決着がつかない.\pagebreakここでは,両者をデータとして併用している研究は他にも見られる(たとえばChafe1992:234を参照)とだけ述べておく. \section{「表す」構図の問題点} もっともらしい印象とは異なり,「表す」構図は,日常の音声コミュニケーションにおける話し手の言語行動の実態に合わないことがある.この節ではかんたんな事例と内観を適宜用いながら,この構図がはらむ3つの問題点を洗い出し,それに代わる新しい構図として「する」構図を提案したい.\subsection{目的論とソバ屋の出前持ち}「表す」構図の第1の問題点は,「表す」構図の目的論的性格である.「迅速で正確な情報伝達や,円滑な人間関係構築その他の目的を果たすために」という部分に見られるとおり,「表す」構図は「話し手の発言は何らかの目的の達成に向けられているはず」という目的論を前提としている.だが,この前提は常に妥当するわけではない.たとえば次のような,ソバ屋の出前持ちの事例を考えてみよう.これから出前に行くソバ屋の出前持ちが,うず高く積まれたソバざるをかつぐ際に「よっ」と言ったとする.続いて,そのソバざるをかついだまま自転車に乗って進み,よろけてバランスをとる際に「おっ」と言ったとする.さらにバランスをとりきれず,倒れていくソバざるを見ながら「あーっ」と言ったとする.このような出前持ちの「よっ」「おっ」「あーっ」発言は,別段,不自然なものではないだろう.これらの「よっ」「おっ」「あーっ」発言が,目的を達成するためになされたものとして絶対に説明できないというわけではない.たとえば,出前持ちがソバざるをかつぐ際に「よっ」と言ったのは「自分自身を鼓舞するため」であり,ソバざると自転車のバランスをとる際に「おっ」と言ったのは「きもちを引き締めるため」である.倒れていくソバざるを見ながら「あーっ」と言ったのは「自分のきもちを表現するため」である,という具合である.だが,そのような説明は,我々の日常感覚とはまったくかけ離れたものと言わざるを得ない.たとえば,ソバざると自転車のバランスをとるだけで無我夢中のはずの出前持ちが,その瞬間にも心内では「きもちの引き締め」といった目的の達成を意図している,という説明がリアルなものとは考えにくい.そもそも,出前という任務に集中しているはずの出前持ちが,ソバざるが倒れていく最後の一瞬まで「自分のきもちの表現」という内職に余念がないとは,おかしな考えではないだろうか.むしろ,出前持ちの発言「よっ」「おっ」「あーっ」は,目的意識を必ずしも伴わない,行動そのものの一部として考える方が実態に合っているのではないか.出前という一大任務を前にして若干の高揚状態に至った出前持ちは,出前の行動を言語も含めた全チャンネルでおこなった.「よっ」と言うのはソバざるをかつぐ行動の一部であり,「おっ」はバランスをとる行動の一部である.そして「あーっ」は倒れていくソバざるを見守る行動の一部である,と考えることが,上の「内職」問題などを生じさせないためには,必要なのではないか.話し手の言語行動を「表す」構図ではなく「する」構図でとらえるとは,このような考えを指す.\subsection{外部観察と狩人の知恵}「表す」構図がはらむ第2の問題点は,「表す」構図が当該のコミュニケーションの内部ではなく,外部からの観察に基づいているという点である.このことを具体的に示すために,クマを追う狩人の事例を取りあげてみよう.「このクマの足跡は,このクマがいま最高にうまいことを表している」という発言は,地面に残ったクマの足跡と,クマの肉の味の間に結びつきを見いだした狩人の発言としてなら,十分あり得る.だが,それはクマの外部に身を置く観察者の発言でしかない.狩人が語る,クマの足跡と肉の味との結びつきがたとえ正しいとしても,当のクマはそんなことは知らずに生きている可能性が高い.その場合,クマの足跡と肉の味との結びつきは,狩人の知恵ではあるが,クマ社会の日常を生きるクマのきもちを知ろうとする者にとっては真に重要な情報ではない.「このクマはこの足跡で,自分がいま最高にうまいことを表している」という発言についても,基本的に同じことが言える.先の発言と比べると,この発言は「このクマ」を主語に据えており,クマの意図を強く含意するのでそれだけ不自然だが,「このクマは(自分では気づかないうちに)この足跡で,自分がいま最高にうまいことを表している」のように意図性排除の語句(「自分では気づかないうちに」)を補ってやれば自然さは向上する.だが,そうした語句を補っても,この発言は狩人の発言として自然であるにすぎず,クマのきもちを述べた発言としては成り立たない.「表す」構図には「話し手は言語で,自分のきもち(感情・評価・態度)を表す」という考えが含まれている.発言の根底に話し手の意図を常に想定する目的論についてはすでに2.1節で問題点を指摘したが,より意図性を含意しない「話し手の言語は,話し手のきもち(感情・評価・態度)を表す」という形に置き換えてもやはり問題は残る.「このクマの足跡は,このクマがいま最高にうまいことを表している」という発言が狩人の知恵でしかないように,「話し手の言語は,話し手のきもちを表す」という考えは,本来,内部から論じなければならないきもちの問題に,外部の視点を持ち込んでいるのではないか(定延2005b).話し手の内部に視点を置いて,話し手のきもちを考えようとする時,言語はきもちを本当に「表して」いると言えるのか.むしろ,言語は「相手の目の前でやってみせる」行動ではないだろうか.\subsection{モノ的な言語観}「する」構図が,言語を行動とみなしていることは言うまでもない.それに対して「表す」構図は,「話し手の感情・評価・態度を表すために,話し手に使われる」モノ,つまり記号としての言語観を内包している.{\renewcommand{\baselinestretch}{}\selectfont記号としての言語観が,これまでに莫大な有益な研究成果を生みだしてきたことは否定し難い.だが,日常の音声コミュニケーションにおける言語の姿が本格的に追求され始めるにつれ,この言語観がさまざまな立場から問題視されていることも事実である.「言語行動を理解する上で言語能力と言語運用の区別はさほど重要ではない」,「言語とは動的なプロセスである」=C「言語を記号としてとらえ,意味と形式の対応を前提とする考えでは,談話における主語や目的語の分析に困難が生じてしまう」(DuBois2003:特に51,80)等々,モノ的な言語観から離れ,行動としての言語観に向かおうとする研究は枚挙にいとまがない.(記号的な言語観が,日常の音声コミュニケーションを離れたところでも根本的な問題をはらんでいることについてはたとえば定延2000を参照されたい.)そもそもコミュニケーションの中で「表される」モノであるはずのきもちが,実は「表情を帯びた身振り」(菅原2002)それじたいであるとしたら,我々がモノ的な言語観にこの上さらにとどまらなければならない根拠はどこにあるだろうか.記号的な言語観を疑問視するという点に関しては,本稿が提案する「する」構図は,いま挙げたフィルモア,チェイフ,デュ・ボワらの考え,あるいは多くの機能言語学者の考えと変わるものではないし,少なくとも現状において大きな意味を持つのは,これらの考えとの違いよりも共通性の方だと思われるが,違いがまったくないわけではない.「ハサミの機能は?」という質問には,「紙や布を切ること」などと,たやすく答えることができる.だが,「秋の日」や「山肌」「14才」の機能は答えにくい,あるいは答えられない.機能という概念は,いつでも無条件に設定できるわけではなく,基本的には,人間が何らかの目的を果たすために用いる道具にしか設定できない.「花びらの機能」が「ハサミの機能」よりも難しく,しかし少し考えれば「虫を惹きつけること」「おしべやめしべを守ること」などと答えられるのは,「植物は子孫繁栄という目的を持つ」「植物はこの目的を果たすために,自らの身体の一部である花びらを道具として用いる」ということが,事実ではないが,1つの見立てとして成り立つからだろう.}このような意味で,「言語の機能」というきわめてありふれたフレーズは,言語を目的論でとらえようとするものである.(定延2005a)Dそして,話し手自身の目ではなく,外部観察者の目からすれば,話し手の発話には,たいてい何らかのそれらしい目的を想定してしまえる以上,このような目的論の妥当性は,外部観察からすれば揺るぎないものに見える.本稿の「する」構図は,「言語の機能」概念の導入には慎重である.つまり,目的論の導入に対する慎重な姿勢,内部からの観察にこだわろうとする姿勢を鮮明にする点は,「する」構図の特徴と言ってよいだろう. \section{あからさまに儀礼的なフィラー} 以上で洗い出した「表す」構図の問題点を,日常的な音声コミュニケーションに見られる現象の観察を通して,具体的に示してみよう.最初に取りあげるのは,筆者が「あからさまに儀礼的なフィラー」と呼ぶ一群のフィラーである(定延2002).「あ,すいません,このあたりに交番ありませんか?」とxに道を聞かれて,Yが「さー」と言ったとする.この直後に続くYの発話として「交番はあそこです」「ちょっとわかりません」「このへん交番はないですねー」のどれが自然か,という質問を,100名を超える大学生や大学教員におこなったところ,1名を除いて残り全員が「交番はあそこです」は不自然で,「ちょっとわかりません」「このへん交番はないですねー」だけが自然と回答した.(「さー,あっ,交番はあそこです」のように,驚きの「あっ」の挿入で「意外な展開」が演出された発話はこの質問の対象外であることに注意されたい.)また,実際の会話記録を調べても,「さー,交番はあそこです」に相当すると思えるデータはなかなか出てこない一方で,「さー,ちょっとわかりません」「さー,このへん交番はないですねー」に相当すると思えるデータは容易に見つかる.以上の観察は,「さー」というフィラーがどんな検討の場合にも現れるわけではなく,検討しても答が出ない場合(「さー,ちょっとわかりません」型の場合)や,検討の結果,望ましくない答が出てくる場合(「さー,このへん交番はないですねー」型の場合)にかぎって現れることを示している.つまり,「さー」は,検討してもダメな場合専用のフィラーである.「あからさまに儀礼的なフィラー」とは,このようなフィラーを指す.したがって,これから「さー」と言おうと口を開き舌を動かし始める段階で話し手はすでに,自分がこれからおこなう検討が,見込みのない検討だと知っている,ということになる.検討しても見込みがないと知っていることを「さー」で示しつつ,わざわざ検討することは,単純に考えれば時間の浪費か,相手に対する愚弄行為でしかないはずだが(実際,他言語を母語とする日本語学習者の中にはそのように感じる者もいる),日本語コミュニケーションの中でフィラー「さー」は丁寧な印象と結びついており,むしろ「さー」のない「ちょっとわかりません」「このへん交番はないですねー」の方がつっけんどんな印象を与えがちである.このことを理解するには,「さー」と言いつつ交番のありかを検討することは,「私がいまやっている検討は,やってもうまい結果が出る見込みのない検討です」と言いつつ交番のありかを検討することは違う,と考える必要がある.日本語社会において丁寧と位置づけられているのは,他人から「このあたりの交番を教えてほしい」などと頼み事をされたら,たとえ見込みがないと思っても,相手の目の前でダメもとでがんばってみせるという行動であり,「さー」はその行動の一部である.「さー」の検討が見込みのない検討であることを,話し手は「表し」てなどいない.それは外部から見た,狩人の知恵である. \section{つっかえ} 単語をしゃべっている最中につっかえてしまうということはどんな言語の話者にもある.だが,そのつっかえ方が日本語には豊富にあり,つっかえ方によって態度が違う(定延,中川2005;定延2005c).たとえば,「最近テレビではやっているマンガあるでしょ,ほら」に続けて「どくろ仮面」と言おうとしたもののうまく思い出せずつっかえる場合なら,「ど,どくろ仮面?」(とぎれ型・語頭戻り方式),「ど,くろ仮面?」(とぎれ型・続行方式),「どーどくろ仮面?」(延伸型・語頭戻り方式),「どーくろ仮面?」(延伸型・続行方式)など,どれも自然で特に制限はない.だが,「これで街は壊滅じゃ.うわっはっはっ……」と悪の首領が笑っているところへ「そうはさせん!」とどくろ仮面の声が聞こえてきた場合,あわてふためく悪の首領が「その声は」に続けて言うセリフとしては,「ど,どくろ仮面!」(とぎれ型・語頭戻り方式)だけが自然で,「ど,くろ仮面!」「どーどくろ仮面!」「どーくろ仮面!」は自然ではない.より現実的な例を挙げれば,相手の子供が海外(たとえばカリフォルニア)に留学すると聞いて,それはまた大変な,すばらしいところへと儀礼的に驚いてみせる場合,「カ,カリフォルニアですか!」(とぎれ型・語頭戻り方式)は自然だが,「カ,リフォルニアですか!」(とぎれ型・続行方式),「カーカリフォルニアですか!」(延伸型・語頭戻り方式),「カーリフォルニアですか!」(延伸型・続行方式)は自然ではない.これらの例が示すように,驚いてモノの名を叫ぶ際のつっかえ方は,厳しく制限されている.また,店員が商品の在庫状況を考え考え客に語る際,「ざい,こ,は…」のようなとぎれ型は余裕のない新米店員風,「ざいーこーは…」のような延伸型は余裕があるベテラン店員風という具合に,つっかえ方は話し手の発話キャラクタの違いにも結びついている.「構造改革,うーを,進めるに,いーおいてですね」のような,とぎれ延伸型のつっかえ方も,「知識人」のキャラクタと結びついている.このように,一見したところでは単なる非流ちょうなまちがいに過ぎないつっかえには実はさまざまな型や方式があり,それらは話し手の態度や発話キャラクタと結びついている.このことじたいはもちろん興味深いことで,今後さらに調べていく必要があるが,ここで強調しておきたいのは,この結びつきがあくまで狩人の知恵だということである.話し手がこの狩人の知恵を利用して自己を演出する場合は多いかもしれないが,いつも必ずそうだというわけではない.「話し手はつっかえ方を選ぶことによって,自分の態度や発話キャラクタを見事に表している」という考え方は常には妥当しない.たとえば,どくろ仮面の出現に驚いたからといって,悪の首領が「ど,どくろかめん!」で驚きを表すという想定は自然なものとは思えない.首領にとっては,どくろ仮面の登場に自分が動揺し,驚いていることは,何よりも隠しておきたいことのはずである.「新米店員がつっかえ方を選ぶことで,自分は新米で余裕がないと表す」という想定にも同様の不自然さがつきまとう.高度な知識を客に問われて返答に窮するという失態は何としてもさらしたくないから,自分が頼りない店員だと積極的ににおわせて,ベテラン店員に乗り換えてもらう,といった場合はもちろんあるかもしれないが,いつも必ずそうだというわけではないだろう.単語を発音している最中につっかえてしまう多くの場合,話し手は,その単語をうまく最後まで発音したいと,それなりに一所懸命になっている.よりによってその局面で,話し手が「自分の態度や発話キャラクタの表現」という別の仕事に余念がないという想定が自然なものとは思われない.つっかえる話し手は多くの場合,つっかえたくてつっかえているのではない.話し手にとって,つっかえは「ヘタ」な「失敗」だということをはっきりさせておく必要がある.発話キャラクタや態度は,われわれがつっかえ方で「表す」ものではない.これらは我々が否応なしに日々「実践する」ものである.「言語にはスキル(うまい〜ヘタ)という概念が不可欠で,この概念を含まない言語モデルは破綻する」というデュリーの言葉の意味を(Durie1995:304,注3),我々は考えてみる必要があるのではないか. \section{りきみ} これまでの「感情音声」研究では,音声の高低・長短・強弱ばかりが取りあげられ,他の側面はほとんど注目されてこなかった.しかし,言語によっては声質(せいしつ,voicequality)の違いが音素なみに単語の識別に貢献する(したがって声質を特異なものと見るのは偏見に過ぎない)という認識が広まり(たとえばGordonandLadefoged2001:383),声質を処理する技術の開発と相俟って(CampbellandMokhtari2003),近年では声質と感情・態度の結びつきも積極的に考察され始めている.ここでは「りきみ」と呼ばれる(郡1989),日本語の声質の一つに目を向けてみよう.りきみは一般には強調表現と理解されているようだが,実例を見るとそれは必ずしも当たっていない.たとえば次の例では,下線を付けた,上司の提案に対する否定的な評価の部分がりきんで発せられている.\vspace{\baselineskip}なかなかでもほんとにたしかにーあの,意見を言うのは(笑),むずかしいですよねそのー上司とかがー,いてて・\underline{「いやーこれは,ちょっとやっぱりー良くないと思います」}ってのは,すごくー勇気がー要ります(笑).\vspace{\baselineskip}もしもりきみが強調を表すなら,下線部は上司の提案に対する強い否定になり,それだけ失礼な物言いになるはずだが,この録音を聞かせた10人の日本語話者は全員,このりきみに丁寧な印象を受けるとアンケート調査で回答している.このことからすれば,りきみは強調ではなく,恐縮(という一種の苦しみ)と結びついているということになる—だが,もっと重要なことは,上のりきみ発言が,「恐縮ですが」と前置きして上司の提案を朗々と批判することよりもはるかに丁寧だということである.もしもりきみが恐縮を「表す」なら,この違いは説明できない.りきみは恐縮を「表す」のではなく,恐縮という行動それじたいの一部である.りきみが単なる強調表現と考えられないことを示す例の中には,りきみが「体験者」の特権的行動であることをよく見せてくれるものがある.たとえば次のようなものである.\vspace{\baselineskip}でもそのあの脳ミソの構造ってどいなってんのやろなーあの忘れていくのんでも,\underline{私あれ恐}\linebreak\underline{怖やわー}\vspace{\baselineskip}このデータはなごやかな談笑会話の断片ではあるが,下線を付けた最後の部分「私あれ恐怖やわー」で話し手(Aとする)は,脳の老化に対する恐怖を吐露しており,この部分がりきんで発せられている.たとえば久しぶりに再会した恩師のボケぶりに愕然としたこと,入院している母親に「どちらさまですか?」と言われてしまったこと,自分の血筋が代々ボケる血筋で,あと十年もしたら自分もどうなっているかと折に触れ感じていること等々,これまでの人生で感じてきた,脳の老化に対する数々の恐怖が,一つ一つ具体的に語られてこそいないが,Aの心内ではここで改めて呼び起こされていると言ってよいだろう.ここで重要なことは,この発話を聞いた相手(B)が後日,別のところで第三者(C)を相手に話しても,同じところでりきめないということである.「ほら,年とってだんだん物忘れが激しくなって,ボケるってのあるじゃない.Aさんあれすごい恐怖だって」などと,BはCに対して「すごい」という語句を使って強調してしゃべることはできるが,Bは「Aさんあれ恐怖だって」をりきんで発することはできない.BはAと異なり,いま語られている恐怖の体験の当事者ではないからである(Sadanobu2004).では,過去の体験を語る時,体験者だけがなぜりきめるのか?この問題の解答は,「人は体験を語ることで,それをもう一度体験する」というラボフの言葉(Labov1972:354)で尽きているというのが筆者の考えである.過去の体験を語る話し手は,体験を「表す」わけではない.「表す」ことなら誰にでもできるはずである.体験者は過去の体験を「表す」のではなく,体験を(もちろん脚色・演出も含めて)「もう一度相手の前でやってみせる」.過去の苦しい体験(恐怖の体験もその一種である)を語るとは,たとえ全体としてはなごやかな談笑であっても,相手の前でもう一度苦しんでみせるということである.体験者だけがりきめるのは,りきみが苦しみ行動それじたいの一部だからである.なお,りきみは苦しみだけでなく,感心と結びつくこともある.「カール・パーキンズのレコードって集めるの大変なんだけど,これがまたいいんだよねー」という1つの文をしゃべる話し手の声が,「集めるの大変なんだけど」の部分で苦しくりきまれ,「これがまたいいんだよんねー」の部分で明るくりきまれる,といったことは日常めずらしくない.話し手はこの声で何を表しているのか?いままで述べてきたことが正しければ,話し手はこの声で何も「表し」てはおらず,もう一度体験をしてみせている.「集めるの大変なんだけど」の部分ではレコード収集の苦しい体験をしてみせており,「これがまたいいんだよんねー」の部分では鑑賞の嬉しい感心体験をしてみせている.これらのりきみは,それぞれの体験の一部である. \section{むすび〜個人と共同体の間} 「ちょっとわかりません」の前の「さー」のように,フィラーがある方が発話が丁寧で,フィラーがない方がつっけんどんで印象が悪いという場合がある(第3節).つっかえ方にもいろいろな型や方式あり,たとえば驚いてモノの名前を叫ぶ場合はとぎれ型・語頭戻り方式という具合に,それぞれの態度によってつっかえ方が決まっている(第4節).声質も同様で,「普通」の声質よりもりきんだ声質の方が恐縮という態度と結びつき,発話が丁寧になる場合がある\linebreak(第5節).これらの観察はともすれば,「話し手は自分のきもちに応じて,フィラー・つっかえ方・声質を使い分けている」という考えを正しく見せる.だが,本稿がこの考えに満足するものではないということも,これまで述べてきたことから明らかだろう.フィラーやつっかえ,声質は,行動それじたいであって,「使い分け」の対象になるようなモノではない.そもそも,「使い分け」という目的論的な行動は外部者の見立てであって,話し手が常にそのようなふるまいに出るわけではない.たとえば,どくろ仮面の思わぬ登場に動揺した悪の首領が,自らの動揺を表すために,専用のつっかえ方を選ぶといった想定は不自然である.それはちょうど,「カメレオンの祖先は,体表を周囲の色と同化させる,保護色という進化の道を選んだ」という生物学的なレトリックを,「カメレオンの祖先の一匹一匹が進化という概念を理解しており,自分たちにどういう進化の選択肢があるかを把握した上で,その中から保護色という進化の道を『選んだ』」と受け取ることが不自然であるのと同じことである.言語共同体レベルで,きもちと,フィラー・つっかえ方・声質の間に結びつきが観察されたとしても,それを個々の状況における個々の話し手の「使い分け」と考えてよいわけではない.しかしながら,言語共同体レベルで観察されるそれらの結びつきが,話し手一人一人の個別的行動と無関係に存在するはずもない.そして,これまでの多くの言語研究が,言語共同体レベルの結びつきばかりを重視し,個人の個別的行動を軽視〜無視する傾向にあったということは否めない(定延,中川2005).では,言語共同体レベルのそれらの結びつきと,個人の個別的行動とは,どのようにつながっているのだろうか?この問題を考える上で,ギヴォンやホッパーらの談話語用論(DiscoursePragmatics)と呼ばれる学派の考えは,きもちと,フィラー・つっかえ方・声質との結びつきに特化したものではないが,有益なものである.筆者の理解によれば,談話語用論は,個人の個別的行動こそ言語共同体における言語慣習(文法)の源だと考えている.数限りない個別の日常的談話の中で,繰り返し生じる単語列のパターンが,やがて文型になり,文法として立ち上がる(つまり「文法化する」).個別的な談話で話し手が何事かを1回しゃべるたびに,発せられた語列が文法へと近づく,という形で,談話語用論は文法を談話からとらえ直そうとしている.「文法というものはない.あるのは文法化だけだ」というホッパーの発言は(Hopper1987),このことをよく表している.但し,個々の談話から,どのように言語慣習が立ち上がるかについて,これまで提出されているアイデアは「頻度」1つしかない.つまり,個別的な談話において何度も繰り返し生じる言い方が共同体の言語慣習となり,あまり生じない言い方は言語慣習とならないという考えである.この考えは不自然なものではないと思うが,考えるべきことは頻度以外にもあるのではないか.たとえば,終助詞「わ」の女性専用の用法は,実際の会話ではほとんど観察されなくなってきている(尾崎1999を参照).だが,女性専用の「わ」がドラマや映画,小説の言語に現れることは今でも珍しくない.女性専用の「わ」でかもしだされるキャラクタが(たとえば,あまりに女性らしさを強調しているなどの理由で)魅力あるものに映らなければ,「わ」に頻繁にさらされても使わないという女性話者の「選り好み」がここには見て取れる.個人の個別的行動と言語共同体レベルの言語慣習をつなぐには,出現頻度だけでなく,たとえば「かっこよく/強そうに/かわいく/セクシーに/知的に/まじめにふるまいたい」,逆に「かっこわるく/弱々しく/醜く/野暮ったく/馬鹿者として/不誠実にふるまいたくない」といった,日々のコミュニケーションを生きる個々人の欲(思い,思惑,打算など)と発話キャラクタ(定延2006)に着目する必要があるのではないだろうか.\acknowledgment本稿は,言語処理学会第12回年次大会併設ワークショップ(W1)「感情・評価・態度と言語」(2006年3月17日,於慶應義塾大学)での招待講演をもとにしている.講演のために金田純平氏・中川明子氏(ともに神戸大学大学院総合人間科学研究科)の技術的協力を得たこと,講演後,会場内外で多くの方から有益なコメントを頂いたことを記して謝意を表したい.なお本稿は,日本学術振興会の科学研究費補助金による基盤研究(A)「日本語・英語・中国語の対照にもとづく,日本語の音声言語の教育に役立つ基礎資料の作成」(課題番号:16202006,研究代表者:定延利之),総務省の戦略的情報通信研究開発推進制度(SCOPE,課題番号:041307003,研究代表者:ニック・キャンベル),科学技術振興機構(JST)による戦略的創造研究推進事業(CREST),「表現豊かな発話音声のコンピュータ処理システム」(研究代表者:ニック・キャンベル)の成果の一部である.\nocite{*}\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Campbell\BBA\Mokhtari}{Campbell\BBA\Mokhtari}{2003}]{Nick2003}Campbell,N.\BBACOMMA\\BBA\Mokhtari,P.\BBOP2003\BBCP.\newblock\BBOQVoicequality:the4thprosodicdimension\BBCQ\\newblock{\BemProceedingsofthe15thInternationalCongressofPhoneticSciences'03},\mbox{\BPGS\2417--2420}.\bibitem[\protect\BCAY{Chafe}{Chafe}{1992}]{Wallace1992}Chafe,W.\BBOP1992\BBCP.\newblock\BBOQImmediacyanddisplacementinconsciousnessandlanguage\BBCQ\\newblock{\BemInStein,Dieter(ed.),CooperatingwithWrittenTexts:ThePragmaticsandComprehensionofWrittenTexts,Berlin;NewYork:MoutondeGruyter},\mbox{\BPGS\231--255}.\bibitem[\protect\BCAY{Chafe}{Chafe}{2001}]{Wallace2001}Chafe,W.\BBOP2001\BBCP.\newblock\BBOQTheanalysisofdiscourseflow\BBCQ\\newblock{\BemInSchiffrin,Deborah,Tannen,Deborah,andHamilton,HeidiEhernberger(eds.),TheHandbookofDiscourseAnalysis,Blackwell},\mbox{\BPGS\673--687}.\bibitem[\protect\BCAY{{DuBois}}{{DuBois}}{2003}]{DuBois2003}{DuBois},J.~W.\BBOP2003\BBCP.\newblock\BBOQDiscourseandgrammar\BBCQ\\newblock{\BemInTomasello,Michael(ed.),TheNewPsychologyofLanguage:CognitiveandFunctionalApproachestoLanguageStructure,Mahwah,NewJersey:LawrenceErlbaum},{\Bbf2},\mbox{\BPGS\47--87}.\bibitem[\protect\BCAY{Durie}{Durie}{1995}]{Mark1995}Durie,M.\BBOP1995\BBCP.\newblock\BBOQTowardsanunderstandingoflinguisticevolutionandthenotion``XhasafunctionY''\BBCQ\\newblock{\BemAmraham,Werner,Giv\'on,Talmy,andThompson,SandraA.(eds.),DiscourseGrammarandTypology:PapersinHonorofJohnW.M.Verhaar,Amsterdam/Philadelphia:JohnBenjamins},\mbox{\BPGS\275--308}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1978}]{Charles1978}Fillmore,C.~J.\BBOP1978\BBCP.\newblock\BBOQOnfluency\BBCQ\\newblock{\BemFillmore,CharlesJ,Daniel,KemplerandWilliamS-Y.Wang(eds.),IndividualDifferencesinLanguageAbilityandLanguageBehavior,NewYork:AcademicPress},\mbox{\BPGS\85--101}.\bibitem[\protect\BCAY{Gordon\BBA\Ladefoged}{Gordon\BBA\Ladefoged}{2001}]{Matthew2001}Gordon,M.\BBACOMMA\\BBA\Ladefoged,P.\BBOP2001\BBCP.\newblock\BBOQPhonationtypes:across-linguisticoverview\BBCQ\\newblock{\BemJournalofPhonetics},{\Bbf29},\mbox{\BPGS\383--406}.\bibitem[\protect\BCAY{Hopper}{Hopper}{1987}]{PaulJHopper1987}Hopper,P.~J.\BBOP1987\BBCP.\newblock\BBOQEmergentgrammar\BBCQ\\newblock{\BemBLS13},\mbox{\BPGS\139--157}.\bibitem[\protect\BCAY{Labov}{Labov}{1972}]{William1972}Labov,W.\BBOP1972\BBCP.\newblock{\BemLanguageintheInnerCity:StudiesintheBlackEnglishVernacular}.\newblockPhiladelphia:UniversityofPennsylvaniaPress.\bibitem[\protect\BCAY{Sadanobu}{Sadanobu}{2004}]{Sadanobu2004}Sadanobu,T.\BBOP2004\BBCP.\newblock\BBOQAnaturalhistoryofJapanesepressedvoice\BBCQ\\newblock{\BemJournalofthePhoneticSocietyofJapan(OnseiKenkyu)},{\Bbf8}(1),\mbox{\BPGS\29--44}.\bibitem[\protect\BCAY{郡史郎}{郡史郎}{1989}]{郡1989}郡史郎\BBOP1989\BBCP.\newblock\JBOQ強調とイントネーション\JBCQ\\newblock\Jem{杉藤美代子(編),『日本語の音韻・音声(上)』,明治書院},\mbox{\BPGS\316--342}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2000}]{定延2000}定延利之\BBOP2000\BBCP.\newblock\Jem{認知言語論}.\newblock大修館書店.\bibitem[\protect\BCAY{定延利之}{定延利之}{2005a}]{定延2005b}定延利之\BBOP2005a\BBCP.\newblock\JBOQ「表す」感動詞から「する」感動詞へ\JBCQ\\newblock\Jem{『言語』{\unskip}},{\Bbf34}(11),\mbox{\BPGS\33--39}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2005b}]{定延2005c}定延利之\BBOP2005b\BBCP.\newblock\Jem{ささやく恋人,りきむレポーター—口の中の文化—}.\newblock岩波書店.\bibitem[\protect\BCAY{定延利之}{定延利之}{2006}]{定延2006}定延利之\BBOP2006\BBCP.\newblock\JBOQことばと発話キャラクタ\JBCQ\\newblock\Jem{『文学』,岩波書店},{\Bbf7}(6),\mbox{\BPGS\117--129}.\bibitem[\protect\BCAY{定延利之\JBA中川明子}{定延利之\JBA中川明子}{2006}]{定延・中川2006}定延利之\JBA中川明子\BBOP2006\BBCP.\newblock\JBOQ非流ちょう性への言語学的アプローチ:発音の延伸・とぎれを中心に\JBCQ\\newblock\Jem{串田秀也・定延利之・伝康晴(編),『文と発話1:活動としての文と発話』,ひつじ書房},\mbox{\BPGS\209--228}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2002}]{定延2002}定延利之\BBOP2002\BBCP.\newblock\JBOQ「うん」と「そう」に意味はあるか\JBCQ\\newblock\Jem{定延利之(編),『「うん」と「そう」の言語学』,ひつじ書房},\mbox{\BPGS\75--112}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2005}]{定延2005a}定延利之\BBOP2005\BBCP.\newblock\JBOQ「雑音」の意義\JBCQ\\newblock\Jem{『言語』{\unskip}},{\Bbf34}(1),\mbox{\BPGS\30--37}.\bibitem[\protect\BCAY{菅原和孝}{菅原和孝}{2002}]{菅原2002}菅原和孝\BBOP2002\BBCP.\newblock\Jem{感情の猿=人}.\newblock弘文社.\bibitem[\protect\BCAY{尾崎喜光}{尾崎喜光}{1999}]{尾崎1999}尾崎喜光\BBOP1999\BBCP.\newblock\JBOQ女性専用の文末形式のいま\JBCQ\\newblock\Jem{現代日本語研究会(編),『女性のことば・職場編』,ひつじ書房},\mbox{\BPGS\33--58}.\end{thebibliography}\begin{biography}\bioauthor{定延利之(非会員){\unskip}}{1962年生.85年京都大学法学部,87年文学部文学科卒.98年同大学大学院文学研究科博士課程修了.博士(文学).神戸大学大学院国際文化学研究科教授.言語とコミュニケーションの研究に従事.}\end{biography}\biodate\end{document}
V28N04-10
\section{はじめに} 近年,ニューラルネットワークを活用した機械翻訳(ニューラル機械翻訳)\cite{Vaswani:17,Bahdanau:15,Sutskever:14}は著しい精度の向上を実現している.ニューラル機械翻訳は通常,原言語一文を入力して目的言語への翻訳結果を出力するが,さらに翻訳精度を上げるため,翻訳対象の周辺の文を文脈情報として活用する手法が提案されている\cite{Maruf:19,Voita:19,Agrawal:18,Bawden:18,Kuang:18,Laubli:18,Miculicich:18,Tiedemann:17,Wang:17}.本稿では,特に目的言語側の前文を活用したニューラル機械翻訳の改善手法を提案する.文脈情報を用いる手法には原言語側や目的言語側の周辺の文を用いる手法があるが,文脈情報に目的言語側の周辺の文を用いる手法は翻訳精度が下がることが報告されている\cite{Bawden:18}.この翻訳精度の低下は,翻訳モデルの学習時と翻訳時で用いる周辺の文の特徴の異なり(ギャップ)が原因の1つと考えられる.従来研究では,学習時は目的言語側の周辺の文の参照訳を使用し,翻訳時は翻訳モデルによって生成された機械翻訳結果を用いているが,機械翻訳結果には,参照訳には含まれない訳抜け,過剰訳,誤訳などの機械翻訳特有の誤り(機械翻訳誤り)が含まれる可能性がある.また,機械翻訳誤りが無い場合でも,機械翻訳結果は,Translationese(翻訳調)と呼ばれる偏りのある文となっている.\citeA{Toral:19}は,機械翻訳結果が人手翻訳で作られた翻訳文と比較して単純で標準的な翻訳になる傾向があることを示している.学習時と翻訳時でギャップのあるデータを用いることで生じるモデルの偏りは,exposure~biasと呼ばれており\cite{Ranzato:16},翻訳品質の低下に繋がることが報告されている\cite{Zhang:19}.目的言語側の周辺の文の利用において,学習時に参照訳を用い,翻訳時に機械翻訳誤りを含み,翻訳調の特徴を有する機械翻訳結果を用いることは,exposure~biasによる翻訳低下を引き起こすと考えられる.下記は,IWSLT2017で提供されている日英対訳データセット\cite{Cettolo:12}から抽出した例であり,翻訳対象の原言語文,翻訳対象の参照訳,翻訳対象の機械翻訳結果を示している.さらに,文脈情報として,前文の参照訳と機械翻訳結果を示している.機械翻訳結果は,日英対訳データセットをTransformerモデル\cite{Vaswani:17}で学習した機械翻訳器を用いて翻訳した.\begin{description}\setlength{\itemsep}{0pt}\setlength{\parskip}{0pt}\setlength{\itemindent}{-20pt}\setlength{\labelsep}{0pt}\item{\bf前文の参照訳:}{\bfShe}layseggs,{\bfshe}feedsthelarvae--soanantstartsasanegg,thenit'salarva.\item{\bf前文の機械翻訳結果:}Andwhentheygettheireggs,theygettheireggs,andthe{\bfqueen}isthere.\item{\bf翻訳対象の原言語文:}脂肪を吐き出して幼虫を育てます\item{\bf翻訳対象の参照訳:}{\bfShe}feedsthelarvaebyregurgitatingfromherfatreserves.\item{\bf翻訳対象の機械翻訳結果:}{\bfThey}takefatandtheyraisethelarvaeoftheirlarvae.\end{description}翻訳対象の原言語文では主語が省略されており,この文のみで主語を推定することができず参照訳を生成することは困難である.しかし,前文の参照訳,または機械翻訳結果には主語を推定する情報(参照訳には``she'',機械翻訳結果には``queen'')が含まれており,目的言語側の前文を使うことで正しい翻訳ができる可能性がある.一方で,前文の参照訳と機械翻訳結果を比較すると機械翻訳結果には誤訳が含まれており,参照訳と機械翻訳結果との間にギャップがあることが分かる.誤訳のない参照訳のみを文脈情報として学習した翻訳モデルは文脈に含まれる誤訳に頑健でないと考えられ,参照訳と機械翻訳を学習時と翻訳時で別々に用いる手法はexposure~biasによる翻訳精度低下を引き起こす可能性がある.本稿では,スケジュールドサンプリング法\cite{Bengio:15}を参考にして,学習時と翻訳時の目的言語側の前文の特徴のギャップを緩和するための学習データ制御手法を提案する.具体的には,初期の学習では従来手法と同様に文脈情報として目的言語側の前文に参照訳のみを用い,学習が進行するにつれて,段階的に参照訳から機械翻訳結果へ切り替えていく.この処理により,翻訳モデルが機械翻訳誤りに頑健になり,翻訳調の特徴に対応できるようになると期待できる.機械翻訳結果は,対訳データをTransformerモデルで学習した機械翻訳器で生成する.実験では,提案手法を結合ベース文脈考慮型ニューラル機械翻訳\cite{Bawden:18,Tiedemann:17}とマルチエンコーダ文脈考慮型ニューラル機械翻訳\cite{Kim:19,Bawden:18}で実装し,ニュースコーパス\cite{Tanaka:21}を用いた英日・日英機械翻訳タスク,およびIWSLT2017データセット\cite{Cettolo:12}を用いた英日・日英,および英独・独英機械翻訳タスクで評価した.その結果,提案手法が従来手法と比較してBLEUスコア\cite{Papineni:02}により翻訳精度が改善していることを確認した.本稿の構成は以下の通りである.まず,2章で提案手法が前提とする文脈考慮型ニューラル機械翻訳について述べ,3章で提案手法を説明する.4章で提案手法の効果を確認するための翻訳実験の詳細を示し,5章で翻訳実験の結果を示して提案手法の効果を分析する.6章で関連研究について述べ,最後に7章で本稿をまとめる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{文脈考慮型ニューラル機械翻訳} 本節では,文脈考慮型ニューラル機械翻訳モデルの従来手法である,結合ベース文脈考慮型ニューラル機械翻訳と,マルチエンコーダ文脈考慮型ニューラル機械翻訳を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結合ベース文脈考慮型ニューラル機械翻訳}結合ベース文脈考慮型ニューラル機械翻訳\cite{Tiedemann:17,Bawden:18}は,ニューラル機械翻訳モデルの構造を変えずに,翻訳対象の文と文脈情報との間に特殊なトークン({\it\_BREAK\_})を挿入して結合してエンコーダに入力する.翻訳時に,翻訳対象の文の翻訳結果のみを出力するモデルを2-to-1モデル,翻訳対象の文に加えて文脈情報を併せて翻訳するモデルを2-to-2モデル\footnote{2-to-1は片言語の文脈があれば適用可能であるのに対し,2-to-2は対訳の文脈が必要となり,適用範囲が異なる.}と呼ぶ.2-to-2モデルでは,翻訳対象の文の翻訳結果と文脈情報の翻訳結果の間に特殊なトークンを併せて出力させることで,出力から翻訳対象の文の翻訳結果のみを抽出できるようにする.\citeA{Li:19}は,新聞データを用いた日英・英日機械翻訳実験で2-to-2モデルと2-to-1モデルの比較を行い,2-to-1モデルの方が翻訳精度が向上したことを報告しており,本稿でも事前実験の結果も踏まえて2-to-1モデルを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチエンコーダ文脈考慮型ニューラル機械翻訳}マルチエンコーダ文脈考慮型ニューラル機械翻訳\cite{Bawden:18,Kim:19}は,翻訳対象の文を入力とするエンコーダと,文脈情報を入力とするエンコーダを持つ.複数のエンコーダの出力ベクトルは結合する必要があり,複数の出力ベクトルを「どこで結合させるか」と,「どのように結合させるか」の違いでいくつかのバリエーションがある.「どこで結合させるか」は,エンコーダの出力ベクトルをデコーダの内側と外側のどちらで結合するかを表す.\citeA{Kim:19}は,エンコーダの出力ベクトルをデコーダの内側で結合したモデルの方が翻訳精度が高いことを示しており,本稿でもデコーダの内側で結合する手法を用いた.「どのように結合させるか」は,連結(attentionconcatination),重み付き和(attentiongate),階層(hierarchicalattention)の3種類がある\cite{Bawden:18}.本稿では,事前実験でBLEUスコアの高かった重み付き和を用いた.重み付き和は,翻訳対象のベクトル${\bfc_{s}}$と文脈のベクトル${\bfc_{r}}$を用いて下記の式によりベクトル${\bfc}$を得る\cite{Bawden:18}.\begin{gather}{\bfg}=\tanh(W_{r}{\bfc_{r}}+W_{s}{\bfc_{s}})+{\bfb},\\{\bfc}={\bfg}\odot(W_{t}{\bfc_{r}})+({\vec1}-{\bfg})\odot(W_{u}{\bfc_{s}}),\end{gather}${\bfg}$はgating~activationと呼ばれる,各ベクトルの要素の重要度の違いを表すベクトルである.${\bfb}$はバイアスベクトル,$W_{r},W_{s},W_{t},W_{u}$は重み行列である.$\odot$はアダマール積を計算する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本節では,\pagebreak文脈を考慮した機械翻訳手法の一手法である目的言語側の文脈を考慮する機械翻訳における,学習時と翻訳時に用いる目的言語側の文脈情報のギャップを低減することを目的としたサンプリング手法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-4ia9f1.pdf}\end{center}\hangcaption{(a)結合ベース文脈考慮型ニューラル機械翻訳,(b)マルチエンコーダ文脈考慮型ニューラル機械翻訳}\label{models}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{利用する文脈情報}学習時にニューラル機械翻訳のエンコーダに入力する目的言語側の文脈情報として,前文の参照訳と機械翻訳結果の両方を用い,前節で示した2種類のアーキテクチャに適用する.翻訳対象が文書の先頭のときは,前文の情報がないため,特殊なトークン(${\it\_BOS\_}$)を文脈情報として用いる.図~\ref{models}(a)は結合ベース文脈考慮型ニューラル機械翻訳に適用したモデルを示し,図~\ref{models}(b)はマルチエンコーダ文脈考慮型ニューラル機械翻訳に適用したモデルを示している.翻訳対象である,文書中の$j$番目の原文のトークン列は$X^{j}$で表す.文脈情報として用いる,文書中の$j-1$番目の参照訳のトークン列は$\hat{Y}^{j-1}$で表し,$j-1$番目の機械翻訳結果のトークン列は$\bar{Y}^{j-1}$で表す.文脈情報として用いる機械翻訳結果は,学習時と翻訳時ともに文脈を考慮しないニューラル機械翻訳で生成する.図~\ref{models}の$p$は1エポックの学習データに含まれる参照訳の割合を示し,$1-p$が機械翻訳結果が含まれる割合となる.$p=0$の場合は入力される文脈情報データの全てが機械翻訳,$p=1$の場合は文脈情報データの全てが参照訳で学習されることになる.翻訳時は$p=0$,すなわち常に機械翻訳結果が文脈情報として用いられる.結合ベース文脈考慮型ニューラル機械翻訳(図~\ref{models}(a))では,エンコーダが出力したベクトルがデコーダに入力される.マルチエンコーダ文脈考慮型ニューラル機械翻訳(図~\ref{models}(b))では,原文エンコーダと文脈エンコーダが出力した2つのベクトルを1つのベクトルに変換してからデコーダに入力し,デコーダを通して目的言語側の文のトークン列$Y^{j}$を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{サンプリング制御}学習データ内の目的言語側の文脈情報として,参照訳と機械翻訳結果のどちらを用いるかをサンプリングレート$p$により制御するが,タスクや学習時の翻訳モデルの性能によって適切なサンプリングレートは異なる.学習時において,目的言語側の文脈情報に機械翻訳結果を使う場合ではエンコードされた文脈情報ベクトルは訳抜け,過剰訳,誤訳など機械翻訳特有の誤り(機械翻訳誤り)を含み,翻訳モデルはこれらの機械翻訳誤りを考慮して学習される.一方,参照訳のみを使う場合では機械翻訳誤りがないので,文脈情報を効果的に利用するように翻訳モデルが学習されることが期待できる.翻訳時において,目的言語側の文脈情報に機械翻訳誤りのない参照訳を使うことができる場合では,学習時も同様に参照訳を使うことが望ましい.しかし,翻訳時には参照訳ではなく機械翻訳結果を用いるため,翻訳モデルは訳抜け,過剰訳,誤訳などが含まれた文脈を利用して翻訳することになる.さらに,機械翻訳結果は,機械翻訳誤りがない場合でも,Translationese(翻訳調)と呼ばれる偏りのある文であることが知られている.Toral\cite{Toral:19}は,機械翻訳は人手翻訳よりもシンプルかつ標準化された結果になる傾向にあると示しており,参照訳と機械翻訳結果は多様性の側面からも異なる特徴を有していると考えられる.翻訳時と同じ特徴を有する目的言語側の文脈情報を使うという観点では機械翻訳結果を用いることが好ましいが,効果的な文脈の利用という観点では参照訳を用いることが好ましい.そこで,双方の利点を活かすために,特徴の異なる参照訳と機械翻訳結果の両方を用いて学習することを提案する.提案手法は,カリキュラム学習\cite{Bengio:09}とスケジュールドサンプリング\cite{Bengio:15}のアプローチを参考にしてサンプリングを制御する.\citeA{Bengio:15}は,学習時に,Recurrent~neural~networkに入力する直前のトークンとしてモデルの出力と正解のどちらを用いるかをサンプリング制御したのに対し,本稿ではこの手法を,目的言語側の文脈情報として機械翻訳の出力と正解のどちらを用いるかのサンプリング制御に応用する.この手法は,下記の手順により学習エポックごとに,入力に用いる文脈情報を変更することで,翻訳モデルを段階的に機械翻訳誤り,および翻訳調に対応させる.学習エポック数$l$に対応したサンプリングレートを$p_{l}$とする.\begin{enumerate}\item1エポック目($l=1$)の学習はサンプリングレートを$p_{1}=1$とし,目的言語側の文脈情報には全て参照訳を用いる.\item2エポック目($l\geq2$)以降の学習はサンプリングレート$p_{l}$を下記の逆シグモイド関数により減少させる.\begin{equation}p_{l}=\frac{k}{k+\exp({l-2}/k)},\label{decay}\end{equation}\end{enumerate}$k(\geq1)$は$p$の減少スピードを制御するハイパーパラメータである.1エポック終了時の翻訳モデルの性能が高いのであれば$k$の値を$1$に近づけ,2エポック目以降の学習データ内の機械翻訳の割合を増やす.上記の手順により,翻訳誤りに頑健で翻訳調の特徴に対応した翻訳モデルの学習を実現する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} 本節では,提案手法の効果を確認するための機械翻訳実験について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ}実験では,下記の2種類のコーパスを用いる.表~\ref{corpus}に各データセットのデータ数と記事数を示す.\begin{description}\item{ニュースコーパス}\mbox{}\\時事通信社のニュース記事を利用して開発された日英ニュース対訳コーパス\cite{Tanaka:21}の一部を用いた.このコーパスは日本語のニュース記事の一部を文単位で人手翻訳している.本実験では,ニュースタイトルを除きニュース本文を利用した.コーパス中の1記事あたりの平均文数は$8$文であった.\item{TEDトークコーパス}\mbox{}\\IWSLT2017\cite{Cettolo:12}で公開されているTEDの字幕対訳コーパスを用いた.開発データセットは``dev2010''を用いた.テストセットは英日・日英機械翻訳タスクについては``tst2014''を用い,英独・独英機械翻訳タスクについては``tst2015''を用いた.コーパス中の1記事あたりの平均文数は$119$文であった.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{09table01.tex}\caption{コーパスの統計情報.}\label{corpus}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈の利用}2章で述べた結合ベース文脈考慮型ニューラル機械翻訳(図~\ref{models}(a))とマルチエンコーダ文脈考慮型ニューラル機械翻訳(図~\ref{models}(b))の2種類の文脈考慮型ニューラル機械翻訳を用いた.目的言語側の文脈情報には翻訳対象の文の1つ前の文を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{詳細設定}英語とドイツ語のデータのクリーニング,および単語分割にはMosestoolkit\footnote{\url{https://github.com/moses-smt/mosesdecoder}}の\pagebreakclean-corpus-n.perl\footnote{\url{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/training/clean-corpus-n.perl}},tokenizer.perl\footnote{\url{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl}}を用いた.日本語の形態素解析には,KyTea\cite{Neubig:11}を利用した.各タスクで語彙数を制限するため,バイトペア符号化(bytepairencoding)を用いたサブワード\cite{Sennrich:16B}を用いた.語彙数は48,000とし,頻度が35以下の語彙はサブワードに分割した.データ内の長大語は特別な処理を行わなかった\footnote{頻度などの設定条件に従い,バイトペア符号化によりサブワード分割される.}.結合ベース文脈考慮型ニューラル機械翻訳には,Transformerモデル\cite{Vaswani:17}のエンコーダとデコーダを用いた.Transformerモデルは,レイヤを複数層スタックしたモデルであり,multi-headattention層とposition-wisefeed-forward層のサブレイヤを有する.原言語文と目的言語側の文脈情報が結合された単語列をエンコーダが中間表現であるベクトルに変換し,デコーダがそのベクトルを用いて翻訳結果となる目的言語文を生成する.マルチエンコーダ文脈考慮型ニューラル機械翻訳についても,Transformerモデルを用い,\citeA{Littell:19}のアーキテクチャを基に実装した.結合ベース文脈考慮型ニューラル機械翻訳とマルチエンコーダ文脈考慮型ニューラル機械翻訳のいずれもSockeye~toolkit\cite{Hieber:18}を用いて実装した.本稿のモデルの学習にはAdam\cite{Kingma:15}をoptimizerとして用い,学習率は$0.0002$とした.バッチ内のデータは5,000トークン以内になるように構築した.学習時の各エンコーダへの入力の最大長は,結合ベース文脈考慮型ニューラル機械翻訳では200トークン,マルチエンコーダ文脈考慮型ニューラル機械翻訳では原文エンコーダ,文脈エンコーダともに100トークンに制限した\footnote{結合ベース文脈考慮型ニューラル機械翻訳は,原文と文脈の合計が200トークン以内であれば学習データとして用いるため,マルチエンコーダ文脈考慮型ニューラル機械翻訳よりも学習データの数は6~153データ多くなった.}.翻訳時の各エンコーダへの入力の最大長は設定しなかった.その他のハイパーパラメータの設定はSockeyetoolkitのデフォルト値に従った.Earlystoppingを設定し,patienceの値を32とした.翻訳時は,ビームサーチを用い,ビーム幅を5とした.式~\ref{decay}のハイパーパラメータ$k$は2とした.学習,翻訳ともに,NvidiaP100TeslaGPUを用いて計算を行った.翻訳性能の比較には,ランダムシードの異なる5つのモデルを学習してそれぞれのモデルが出力した翻訳結果のBLEUスコア\cite{Papineni:02}の中央値を用いた.BLEUスコアには,case-insensitiveBLEU-4を用い,multi-bleu.perl\footnote{\url{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/generic/multi-bleu-detok.perl}}で計算した.また,サンプル数を10,000に設定したpaired-bootstrap.py\footnote{\url{https://github.com/neubig/util-scripts/blob/master/paired-bootstrap.py}}を用い,BLEUスコアにおける提案手法と他手法との有意差を調べた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{09table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}提案手法との比較を行うために本稿で用いた比較手法(表~\ref{baseline})を説明する.\begin{description}\item{文レベル機械翻訳(Single-Sentence)}\mbox{}\\文脈として目的言語側の前文を考慮することによる効果を知るために,文脈を考慮しない機械翻訳手法を比較手法とした.翻訳対象のみをエンコーダに入力してデコーダが翻訳結果を出力する.Transformerモデルのニューラル機械翻訳を用いた.\end{description}\begin{description}\item{文脈考慮型機械翻訳(Src-Context,Trg-Context)}\mbox{}\\文脈を考慮する機械翻訳手法として,原言語側の情報を用いる手法\cite{Agrawal:18,Bawden:18}と目的言語側の情報を用いる手法\cite{Bawden:18}がある.両方の情報を併用することもできるが,本稿ではどちらの情報が有効であるかを比較するために,原言語側の情報を用いた場合(Src-Context)と目的言語側の情報を用いた場合(Trg-Context)のそれぞれを比較手法とした.目的言語側の情報を用いる手法では,参照訳と機械翻訳結果のいずれかを用いることができるため,それぞれを用いた手法(Trg-ContextGT,Trg-ContextPred.)を比較した.文脈情報は,提案手法と同様に翻訳対象の文の1つ前の文を利用した.Src-Context,Trg-ContextGT,Trg-ContextPred.ともに,結合ベース文脈考慮型ニューラル機械翻訳とマルチエンコーダ文脈考慮型ニューラル機械翻訳の2種類のシステムに適用した.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} ニュースコーパスを用いた英日・日英機械翻訳実験の結果,およびTEDトークコーパスを用いた英日・日英,英独・独英機械翻訳実験の結果を表~\ref{bleu}に示す.文脈を用いない手法(Single-Sentence),原言語側の前文を用いた手法(Src-Context),目的言語側の前文として,参照訳を用いて学習した手法(Trg-ContextGT),機械翻訳結果を用いて学習した手法(Trg-ContextPred.),参照訳と機械翻訳結果の両方を用いて学習した提案手法,それぞれのBLEUスコアを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{09table03.tex}\hangcaption{原言語側,または目的言語側の文脈情報を用いた,ニュースコーパスの英日・日英機械翻訳(EN-JA,JA-EN)の実験結果(上部),およびTEDトークコーパスの英日・日英機械翻訳(EN-JA,JA-EN),英独・独英機械翻訳(EN-DE,DE-EN)の実験結果(下部).vanillaは文脈を用いないニューラル機械翻訳,concat.は結合ベース文脈考慮型ニューラル機械翻訳,multi-enc.はマルチエンコーダ文脈考慮型ニューラル機械翻訳を表している.Src,Trg~GT,Trg~MTは,学習時に用いた文脈情報として,原言語側の前文,目的言語側の参照訳,目的言語側の機械翻訳結果を用いたことを表している.値はBLEUスコアを表している.$\dag$,$\ddag$,$\diamond$,$\star$は,提案手法がSingle-Sentence,Src-Context,Trg-Context~GT,Trg-Context~Pred.と比較して有意にBLEUスコアが高いことを示している(有意水準$\alpha=0.05$).Src-Context,Trg-Context~GT,Trg-Context~Predについては同じシステム内(concat.またはmulti-enc.)での比較とした.}\label{bleu}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法の有効性の検証}提案手法と,文脈を考慮しないニューラル機械翻訳,目的言語側の前文を用いた手法,および原言語側の前文を用いた手法とを比較することで提案手法の有効性を検証する.先ず,提案手法と,文脈を用いないニューラル機械翻訳(Single-Sentence)とを比較する.表~\ref{bleu}より,結合ベース文脈考慮型ニューラル機械翻訳(concat.)を用いた場合は,ニュースコーパス日英機械翻訳とTEDトークコーパス英日・日英機械翻訳以外のタスクにおいて提案手法のBLEUスコアが有意に高かった.マルチエンコーダ文脈考慮型ニューラル機械翻訳(multi-enc.)を用いた場合は,全てのタスクにおいて提案手法のBLEUスコアが有意に高かった.次に,目的言語側の前文を用いた手法間の比較として,提案手法と,参照訳のみを用いて学習した手法(Trg-ContextGT),および機械翻訳結果のみを用いて学習した手法(Trg-ContextPred.)とを比較する.表~\ref{bleu}より,結合ベース文脈考慮型ニューラル機械翻訳(concat.)を用いた場合は,TEDトークコーパスの英独機械翻訳のTrg-ContextGTとの比較では同じBLEUスコアだったが,それ以外では提案手法のBLEUスコアが高く,一部のタスクでは有意に高かった.マルチエンコーダ文脈考慮型ニューラル機械翻訳(multi-enc.)を用いた場合は,全タスクにおいて提案手法のBLEUスコアが高く,一部のタスクでは有意に高かった.最後に,提案手法と,原言語側の前文を用いた手法(Src-Context)とを比較する.表~\ref{bleu}より,マルチエンコーダ文脈考慮型ニューラル機械翻訳(multi-enc.)を用いた場合は,全タスクにおいて提案手法のBLEUスコアの方が高く,TEDトークコーパスの英日,独英機械翻訳タスクでは有意に高かった.先行研究では目的言語側の文脈の利用により翻訳精度が低下することが報告されていたが\cite{Bawden:18},multi-enc.を用いた提案手法では,文脈を用いていない手法と比較して有意にBLEUスコアが高かっただけでなく,Src-Contextと比較しても全タスクでBLEUスコアが高くなっており,Src-Contextと同等以上の効果が得られた.原言語側の前文を用いる手法と目的言語側の前文を用いる手法は異なる情報を用いており,競合するものではなく,条件によって一方のみが利用可能である場合や,併用が可能である場合が考えられる.上記の比較により,提案手法の有効性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{目的言語側の前文に機械翻訳結果のみを用いる影響の考察}表~\ref{bleu}より,目的言語側の前文に機械翻訳結果のみを用いた手法(Trg-ContextPred.)のBLEUスコアは,提案手法よりも低かっただけでなく,結合ベース文脈考慮型ニューラル機械翻訳(concat.)を用いたニュースコーパスの日英機械翻訳タスクとTEDトークコーパスの英日・日英,英独機械翻訳タスクでは,文脈を考慮しないTransformerモデル(Single-Sentence)よりも低かった.Trg-ContextPred.は,学習時,翻訳時ともに機械翻訳結果を用いておりexposure~biasによる影響を回避できているが,BLEUスコアが低かった理由について考察する.表~\ref{bleu}の参照訳のみを用いて学習した手法(Trg-ContextGT)は,学習時に参照訳,翻訳時に機械翻訳結果を用いているが,Trg-ContextGTの翻訳時に参照訳を用いることで,Trg-ContextPred.と同様にexposure~biasによる影響を回避することができる.Trg-ContextGTの翻訳時に目的言語側の前文として参照訳を用いた結果は,後で説明する「exposure~biasの影響の考察」(表~\ref{ana-hyp}の一番下の行)で示しており,Trg-ContextPred.の結果と比較してBLEUスコアが高い.両者の違いは,翻訳時に目的言語側の前文として機械翻訳結果を用いたか,参照訳を用いたかの違いであり,これらの訳質の違いであるといえる.以上より,Trg-ContextPred.のBLEUスコアが低かった理由は,文脈として利用している目的言語側の前文の機械翻訳結果の訳質が低いために,文脈情報を効果的に利用するように学習することが困難であったためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{09table04.tex}\hangcaption{学習時と翻訳時両方ともに目的言語側の前文の参照訳を用いた実験結果(BLEUスコア)との比較.マルチエンコーダ文脈考慮型ニューラル機械翻訳を用いた.目的言語側の前文の機械翻訳の出力にはSingle-Sentenceの出力を用いた.$\dag$はSingle-Sentenceと比較して有意にBLEUスコアが高いことを示している(有意水準$\alpha=0.05$).}\label{ana-hyp}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法は,学習の初期に訳質の高い参照訳を用いて文脈情報を効果的に利用する方法を学習した上で,段階的に機械翻訳の出力に置き換えることで,文脈情報の効果的な利用とexposure~biasの影響の回避を両立したと考えられる.提案手法の学習終了時の学習データ内に含まれる参照訳の割合は$9\%$(学習終了時のエポック数が$8$の場合),または$6\%$(学習終了時のエポック数が$9$の場合)であり\footnote{ニュースコーパスの英日・日英機械翻訳タスクとTEDトークコーパスの英日機械翻訳タスクの学習終了時のエポック数は$8$であり,TEDトークコーパスの日英,英独・独英機械翻訳タスクの学習終了時のエポック数は$9$であった.},学習終了時にはexposure~biasの影響がほぼ無い学習を行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Exposure~biasの影響の考察}提案手法はexposure~biasの問題を緩和するための手法であるが,仮に,学習時,翻訳時ともに目的言語側の文脈に参照訳を用いた場合も,exposure~biasの問題は起こらないといえる.そこで,exposure~biasの影響を考察するために,翻訳時に目的言語側の前文として,exposure~biasの影響がない参照訳を用いた場合の結果を表~\ref{ana-hyp}に示す.機械翻訳器は,マルチエンコーダ文脈考慮型ニューラル機械翻訳を用いた.翻訳時の文脈情報に参照訳を用いたTrg-ContextGTは,exposure~biasの問題が起こると考えられる機械翻訳の出力(Single-Sentenceの出力)を用いたTrg-ContextGTと比較して,全てのタスクでBLEUスコアが高かった.また,Single-Sentenceとの比較では,翻訳時の文脈情報に機械翻訳結果を用いたTrg-ContextGTはニュースコーパスの日英機械翻訳タスクとTEDトークコーパスの英独・独英機械翻訳タスクのみで有意にBLEUスコアが高かったが,参照訳を用いたTrg-ContextGTは全てのタスクで有意にBLEUスコアが高いことを確認できた.以上の結果より,翻訳時に目的言語側の前文として利用した機械翻訳結果と参照訳の違いが翻訳精度に影響していると言え,これがexposure~biasの影響と考えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{翻訳時に自身の機械翻訳結果を用いた場合の効果の考察}提案手法は,exposure~biasの影響の緩和を目的とし,学習時の目的言語側の前文として参照訳と事前に用意した機械翻訳の出力(Single-Sentenceの出力)をサンプリング制御しながら用い,翻訳時の目的言語側の前文としても同様のSingle-Sentenceの出力を用いることを前提とした.目的言語側の前文には,他の選択肢として,学習時と翻訳時ともにSingle-Sentenceの出力の代わりに自身の機械翻訳結果を用いることも考えられる.自身の出力を用いる場合には,文書単位で1文ずつ順番に機械翻訳する必要があり,文書内の文を並列に翻訳できないという問題がある.さらに,学習時にはモデルの更新ごとに機械翻訳する必要がある.一方で,「目的言語側の前文に機械翻訳結果のみを用いる影響の考察」で示したように文脈情報として用いる機械翻訳結果の訳質も翻訳精度に影響することから,目的言語側の前文として,Single-Sentenceの出力の代わりに,訳質の高い自身の出力を用いることで,翻訳精度の向上が期待できる.学習時の自身の出力の利用は困難であるが,翻訳時であれば自身の出力を用いることが可能である.そこで,Trg-ContextPred.の翻訳時には目的言語側の前文としてTrg-ContextPred.の出力を用い,提案手法の翻訳時には目的言語側の前文として提案手法の出力を用いた場合の結果を表~\ref{ana-pred}に示す.機械翻訳器は,マルチエンコーダ文脈考慮型ニューラル機械翻訳を用いた.Trg-ContextPred.,および提案手法のいずれにおいても,自身の前文出力を利用することで,一部のタスクで有意にBLEUスコアが高く,かつBLEUスコアが低下したタスクはなく,これらは訳質の向上によるものと考えられる.以上の結果より,翻訳速度を優先する場合はSingle-Sentenceの出力を用い,翻訳品質を優先する場合は自身の出力を用いればよい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{09table05.tex}\hangcaption{目的言語側の前文の自身の機械翻訳結果を用いた実験結果(BLEUスコア)との比較.マルチエンコーダ文脈考慮型ニューラル機械翻訳を用いた.$\dag$は翻訳時に目的言語側の前文としてSingle-Sentenceの出力を用いた場合と比較して有意にBLEUスコアが高いことを示している(有意水準$\alpha=0.05$)}\label{ana-pred}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\input{09table06.tex}\hangcaption{TEDトークコーパスを用いた日英機械翻訳実験の翻訳結果例(上段:入力と参照訳,下段:各手法の結果).}\label{ex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事例を用いた考察}表~\ref{ex}に,TEDトークコーパスを用いた日英タスクの出力例を示す.上段(点線の上)には,目的言語側の前文の参照訳と機械翻訳結果(MT-OUT),翻訳対象の日本語文と参照訳を示し,下段(点線の下)には,各手法による翻訳結果を示す.機械翻訳器は,マルチエンコーダ文脈考慮型ニューラル機械翻訳を用いた.例文の翻訳対象の日本語文には,ゼロ代名詞が含まれ,かつ,目的言語側の文から代名詞を推定できると考えられるものを選んだ.最初の例(\#1)は,同じ文(``Wechoosetogotothemoon.'')が2度続くケースであり,代名詞(``We=私たち'')が省略されている.翻訳対象文では,文の主語である``We=私たち''が省略されており,文脈を考慮しない機械翻訳(Single-Sentence)は主語を誤って翻訳した.一方,文脈を考慮した機械翻訳では4つとも主語を適切に補完して翻訳した.2番目の例(\#2)は,前文が長文の例であり,代名詞(``him=彼'')が省略されている.文脈を考慮しない機械翻訳では代名詞を補完せずに翻訳した.文脈考慮型機械翻訳では,原言語側の前文を用いた手法(Src-Context)と提案手法は代名詞を正しく補完して翻訳しているが,目的言語側の前文を用いたその他の手法(Trg-ContextGT,Trg-ContextPred.)では,誤った代名詞を補完して翻訳した.前文が長文になるとエンコーダが目的言語側の文脈を適切に処理することが困難となる.この例は,Trg-ContextGT,Trg-ContextPred.において,エンコーダが適切に処理できなかった例であると考えられる.3番目の例(\#3)は,代名詞(``his=彼'')が省略されている.提案手法のみが代名詞を適切に補完して翻訳している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 機械翻訳において文脈の情報は,語彙,時制,指示詞,省略などの文間の表現の一貫性を保持する上で重要である\cite{Bawden:18,Laubli:18,Muller:18,Voita:18}.加えて,翻訳する上で対応する必要が出てくるゼロ照応解析\cite{Okumura:96,Iida:16}や語義曖昧性の解消などにも文脈は有効な情報となる.多くの文脈考慮型のニューラル機械翻訳は,翻訳対象の文だけでなく,原言語側の文脈,目的言語側の文脈,またはその両方を入力できるようなモデルとなっている\cite{Tiedemann:17,Agrawal:18,Bawden:18,Kim:19}.\citeA{Bawden:18}は,原言語側,および目的言語側の前文を文脈情報として用いた手法を提案し,それぞれの効果を比較した.\citeA{Agrawal:18}は,原言語側,および目的言語側の複数の前文,および後文を文脈情報として用いる手法を提案した.\citeA{Bawden:18}は,目的言語側の前文を用いる手法では,学習時に前文の参照訳を,翻訳時には機械翻訳結果を用いて実験を行い,目的言語側の文脈情報の効果が低かったことを報告している.\citeA{Agrawal:18}は,目的言語側の文脈を使うと誤差が伝搬することで性能が劣化することを報告している.また,複数の文脈情報を使うことで翻訳品質が向上する場合があるが,膨大なメモリと計算量が必要となる傾向があることを報告している.本稿では,先行研究で指摘された目的言語側の文脈を用いることで性能が劣化した原因を推定し,その問題を低減する手法を提案している.文脈考慮型ニューラル機械翻訳の実装方法には,結合ベース文脈考慮型ニューラル機械翻訳\cite{Tiedemann:17,Bawden:18}とマルチエンコーダ文脈考慮型ニューラル機械翻訳\cite{Bawden:18,Kim:19}がある.\citeA{Tiedemann:17}は,前文と翻訳対象の原文の間に特殊なトークン({\it\_BREAK\_})を挿入して結合して単体のエンコーダに入力することを提案した.\citeA{Bawden:18}は,マルチエンコーダNMT\cite{Zoph:16,Libovicky:17,Wang:17}を拡張し,原言語側の前文と翻訳対象の文とを別々のエンコーダに入力することを提案した.マルチエンコーダ文脈考慮型ニューラル機械翻訳は,各エンコーダの出力ベクトルを連結(attention~concatination),重み付き和(attention~gate),階層(hierarchical~attention)のいずれかにより結合する.\citeA{Kim:19}は,各エンコーダの出力ベクトルの結合をデコーダの前段,またはデコーダ内で行うことができることを示し,その違いを調査した.本稿では,先行研究と同様に結合ベース文脈考慮型ニューラル機械翻訳とマルチエンコーダ文脈考慮型ニューラル機械翻訳を用いているが,先行研究は目的言語側の文脈として参照訳を用いているのに対して,本稿では機械翻訳結果を用いてexposure~biasを低減している点において異なる.本稿の提案手法はスケジュールドサンプリング法\cite{Bengio:15}を参考にしている.Bengioらは,イメージキャプショニング,構文解析,音声認識のタスクに対して,自己回帰型の言語モデルの最尤推定学習時と推論時との間のギャップの問題を解決するためにスケジュールドサンプリング法を提案した.\citeA{Ranzato:16}は,このギャップをexposure~biasと呼び,文書要約,機械翻訳,イメージキャプショニングのタスクに対して,exposure~biasの問題を解決するために評価尺度を報酬として用いる強化学習の手法を提案した.\citeA{Zhang:19}は,リカレントニューラルネットワーク(RNN)ベースのニューラル機械翻訳におけるexposure~biasの問題を解決するために減衰を用いたサンプリング法を提案し,参照訳のトークンと予測トークンのいずれかを確率的にサンプリングして用いることで学習時と翻訳時のギャップを効果的に削減することを示した.\citeA{Ranzato:16}と\citeA{Zhang:19}は,文脈を考慮しない機械翻訳においてスケジュールドサンプリング法を学習時に用いて直前の履歴のトークンの選択に利用している.これに対して,本稿では,文脈を考慮する機械翻訳において,スケジュールドサンプリング法を学習時に文脈として用いる文の選択に利用している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本稿では,文脈考慮型ニューラル機械翻訳において,目的言語側の文脈を効果的に利用する手法を提案した.提案手法では,学習時と翻訳時の間にある目的言語側の前文のギャップ(exposure~bias)の問題の解消を目的とし,目的言語側の参照訳と機械翻訳結果の両方を用いて,スケジュールドサンプリング法で学習データを制御した.結合ベース文脈考慮型ニューラル機械翻訳とマルチエンコーダ文脈考慮型ニューラル機械翻訳を用いて提案手法を実装し,英日・日英,および英独・独英の機械翻訳タスクで評価した.実験により,BLEUスコアにおいて提案手法の有効性を確認した.今後の課題として,提案手法の各タスクにおける最適なハイパーパラメーター値の調査と,目的言語側と原言語側の周辺の複数文を併用した手法に取り組む予定である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本稿は国際会議The28thInternationalConferenceonComputationalLinguistics(COLING2020)で発表した論文\cite{Mino:20}に基づいて日本語で書き直し,説明を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構(NICT)の委託研究「多言語音声翻訳高度化のためのディープラーニング技術の研究開発」により得られたものである.ここに謝意を表する.また,有意義なコメントを頂いた査読者のみなさま,日頃熱心にご討論頂いているNHK放送技術研究所スマートプロダクション研究部のみなさま,特に本稿をまとめるにあたり多くのコメントを頂いた衣川和尭氏に感謝を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{09refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{美野秀弥}{2002年東京工業大学情報理工学部計算工学科卒業.2004年同大学院情報理工学研究科修士課程修了.同年NHK入局,北見放送局,(独)NICT出向を経て,現在,放送技術研究所スマートプロダクション研究部研究員.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{伊藤均}{2010年神戸大学工学部電気電子工学科卒業.2012年京都大学大学院情報学研究科修士課程修了.同年NHK入局.山口放送局を経て,現在,放送技術研究所スマートプロダクション研究部研究員.自然言語処理の研究に従事.音響学会,言語処理学会各会員.}\bioauthor{後藤功雄}{1995年早稲田大学理工学部電気工学科卒業.1997年同大学院理工学研究科修士課程修了.2014年京都大学大学院情報学研究科博士課程修了.博士(情報学).1997年NHK入局,(株)ATRおよび(独)NICT出向を経て,現在,放送技術研究所スマートプロダクション研究部にて自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{山田一郎}{1991年,名古屋大学工学部情報工学科卒業.1993年,同大学大学院修士課程修了.博士(情報科学).同年,NHK入局.スタンフォード大学訪問研究員,(独)NICT専門研究員を経て,現在,放送技術研究所スマートプロダクション研究部にて機械翻訳,ビッグデータ解析の研究に従事.言語処理学会,映像情報メディア学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V30N02-20
\section{はじめに} 固有表現は情報抽出技術の進展に伴った概念の形成以降,定義および抽出技術の確立が進んできた.現在,一般ドメインにおける人名,地名,組織名などについては,大量のトレーニングデータが用意されていれば,深層学習を活用した技術により,かなり高い精度での抽出が可能となっている(岩倉2015).一般ドメインだけでなく,本論文で紹介する化学,医療・薬事,企業情報・金融,機械加工・交通・文学(小説)・食・土産品などの幅広いドメインにおいて固有表現抽出技術の応用が強く求められている.本論文では,このようにドメインに依存した固有表現の定義や抽出技術についての研究動向を調査し,実際に特定ドメインにおける固有表現抽出を試みる技術者の一助となることを目的に現状をまとめた.その際,各研究で使われている技術や手法の詳細を分析するのではなく,どのドメインでどのような対象の抽出が何のために試みられているのかといった,技術応用のあり方を探ることに重点を置いた.現状を調査するにあたり,以下4つの学会大会誌および3つの学会論文誌での発表論文を参照し,その中からドメイン依存の固有表現抽出をテーマとしたものを抽出した.該当したのは,総論文数数千件のうち52件であった.・言語処理学会年次大会(2019年~2022年)・「自然言語処理」(2018年1月~2021年12月)・情報処理学会NL研究会(2018年5月~2021年9月)・情報処理学会論文誌(2018年1月~2021年12月)・人工知能学会全国大会(2018年~2021年)・人工知能学会論文誌(2018年1月~2021年12月)・電子情報通信学会テキストアナリティクス・シンポジウム(2011年7月~2021年11月)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2 \section{ドメインごとの状況} 上記のようにドメイン依存の固有表現抽出をテーマとする論文を調査し,内容をドメインごとに分類した.その結果,化学ドメインの論文が最多の25件であり,その後医療・薬事ドメインと企業情報・金融ドメインが同数の各5件であった.また「ドメイン」としては1~3件程度の研究でも,それらを合計すると17件となった.それぞれのドメインの特徴と,代表的な研究例を以下に紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.1\subsection{化学ドメイン}過去3年間で固有表現抽出の応用研究がもっとも活発に行われているのは化学ドメインであり,全体の52件中25件が該当した.中でも化学物質名やそれらの関係抽出タスクが多い.化学物質名は2015年時点で2分30秒に1件新たにCAS(ChemicalAbstractsService)に登録されているとされ(岩倉・吉川2020),人手での処理が困難であり,機械で自動的にリスト化したいというニーズが高い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\begin{tabular}{l|p{38zw}}\hline\multicolumn{1}{c|}{種類}&\multicolumn{1}{c}{概要}\\\hlineデータセット&CHEMDNER:化学分野の文献10,000件に対し化学用語のタグを付与したコーパス.\\&CHEMPROT:化学物質・タンパク質間の相互作用の関係200万件以上について,複数のデータベースを統合したもの.\\&ChEMU:特許文書180件から1,500カ所を抜粋したものに対し,化学用語のタグを付与したコーパス.\\\hlineBERTモデル&BioBERT:生物医学分野の論文コーパスで事前学習させたBERTモデル.\\&SciBERT:計算機科学分野・生物医学分野の論文コーパスで事前学習させたBERTモデル.\\\hline知識&PubChem:アメリカ国立衛星研究所が管理する世界最大級の化学物質名などのデータベース(https://pubchem.ncbi.nlm.nih.gov/).\\&ChEBI:化学種のデータベース/オントロジー(https://www.ebi.ac.uk/chebi/).\\&CAS(ChemicalAbstractsService):アメリカ化学会文献抄録サービス.登録件数約2億件の化学物質レジストリを運営(https://www.cas.org/).\\&日本化学物質辞書:科学技術振興機構が作成する有機化合物データベース(https://jglobal.jst.go.jp/info/nikkaji).\\\hline\end{tabular}\caption{化学ドメインの固有表現抽出タスクで利用可能な資源}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ニーズの高さや事例の多さを反映し,化学ドメインに依存したデータセットなどの資源が複数公開されている.固有表現抽出を含めた情報抽出タスクのデータセットとしては,CHEMDNER(Krallingeretal.2015),CHEMPROT(Krallingeretal.2017),ChEMU(Heetal.2020)などがあり,固有表現抽出にも活用可能なBERTモデルとしては,化学関連の文献から事前学習したBioBERT(Leeetal.2019)やSciBERT(Beltagyetal.2019)といったものがある.化学物質データベースとしてはPubChem(Kimetal.2016)やChEBI(Degtyarenkoetal.2008)などが広く利用可能であり,固有表現抽出のための知識として活用されている.化学ドメインにおいては,化学物質の種類が多いため,ひとつひとつの出現頻度が低いことが課題のひとつである.学習データ中の出現頻度が低い,または存在しない化学物質名が大量に存在するため,固有表現抽出の再現率が下がるといった影響を受けやすくなっている.そのため何らかの辞書を利用または新たに構築することで精度低下を防ぐ試みがおこなわれている.たとえば,深層学習(BiLSTM+CRFモデル)に外部知識源(WikiData,PubChem,ChEBI)から作成した化合物辞書と日本化学物質辞書を組み合わせることで,原材料と製造方法の抽出精度を高めた手法がある(邊土名他2019).これは日本語版Wikipediaの化合物記事から,化合物の原材料・製造方法を抽出する手法を検討したものである.化合物の原材料・製造方法は,化合物の6属性(原材料・製造方法・種類・別名・用途・特性)の中でもパターンでの抽出がほぼ不可能で,文脈を考慮する必要もあるため,抽出が難しいとされている.だが本手法では,辞書の利用により適合率を2~10ポイント,再現率を8~26ポイント向上させることができた.現在広く使われている手法をベースに,その欠点を補完する研究も行われている.新城ら(2021)は化学論文から化学物質間の相互作用等の関係を自動抽出する手法として,BioBERTを基礎としてその精度を高める方法を検討した.BioBERTは大量のラベル付きデータを必要とするが,ラベル付けに専門知識が必要となるため,コーパスの構築にコストがかかる.また関係抽出タスクでは構文情報が手がかりになると期待されるが,BERTはそれを利用しておらず,しかも単に構文解析結果を利用するだけでは処理効率が下がる懸念がある.そのため新城らは,CHEMPROTなどのラベル付きデータおよびPubMedにラベルを付与したデータで固有表現抽出器・関係抽出器の学習を行った.また,PubMedに構文情報が反映される形でラベルを付与したため,大幅に効率を高められる.評価の結果,この手法ではBioBERTより高い精度が得られ,また構文解析結果を用いる手法より最大29倍高速に処理できることが示された.学習データ確保に対するアプローチとして,DistantSupervision(DS)によるタグ付与の自動化が注目されている(Yangetal.2018).化学物質名の固有表現認識においては,何らかの辞書データとテキストを照合させることで,辞書に登録された化学物質名部分を正解とする学習データを作成できる.辰巳ら(2019)はさらに,そのようなDSを用いた固有表現抽出手法の主な課題は(1)化学辞書には「water」のような一般用語が多く混在するため抽出時にノイズが多くなる,(2)化学ドメインには略称や表記揺れが多いため学習データの再現率が低くなる,の二つであるとし,その解決手法を提案した.手法には3つのサブタスクがあり,すなわち(1)DSデータ作成,(2)ノイズ除去,(3)コーパス拡張である.(1)では化学物質名辞書をCTD(ComparativeToxicogenomicsDatabase),MeSH(MedicalSubjectHeadings),PubChem,一般用語集であるGoogle10,000Englishの複数の組み合わせで作成した結果,PubChemからGoogle10,000Englishを取り除いた単語集合で最も高い適合率を得る一方,PubChemとMeSH,CTDの組み合わせにより最も高い再現率を得た.またDSデータ作成において対象文献の出版年度とカテゴリを評価データであるChemdNERとそろえることでさらにF1値を向上させた.(2)ではNERの予測モデルに基づくノイズ除去を行い,適合率,再現率,F1値を向上させた.(3)ではDSデータの特定単語を辞書単語と入れ替えたデータを追加することでコーパス拡張を行い,文数を約3~7倍(条件により変化)程度に増加させた.深層学習モデルが必ずしも高精度な結果を出すわけではない.牧野ら(2020)による,無機材料文献から材料合成プロセスを抽出する研究では,深層学習モデル(BERT)とデータセット観察により得たルールモデルを比較している.性能評価実験の結果,マクロF値の比較で前者が0.546\textpm0.006,後者が0.888と,より高精度な結果を出した.ただし前者が正しく抽出した関係で後者が誤っている例もあり,両方を組み合わせる方法を検討する必要があるとされている.化学ドメインの中でも,抽出したい化合物の内容はさまざまである.山口ら(2021)は超電導材料に関する情報を文献抄録から効率よく抽出するシステム構築を目指し,固有表現・関係・イベントを抽出するモデル(DyGIE$++$)と,主題材料分類モデル(Longformer),およびこれらを統合しスロット抽出するルールベースモジュールを作成した.その結果,固有表現・関係・イベント抽出モデルはF値が72.9から96.7と高い性能を示し,主題材料分類モデルでもF値は平均83.9となった.スロット抽出モジュールも併せたシステム全体としてはF値は64.7を実現した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.2\subsection{医療・薬事ドメイン}化学ドメインに次いで事例が多かったのは医療・薬事ドメインと金融・企業情報ドメインで,いずれも調査対象の論文中5件が該当した.本項ではまず医療・薬事ドメインについて述べる.このドメインにおける固有表現抽出の応用先は,電子カルテの分析や,薬剤情報抽出,SNSからの障害情報抽出などがあり,抽出元テキストや抽出した情報の利用目的・利用者が化学分野より多様である.電子カルテ分析に関しては2件の研究があり,1件は分析技術開発の基盤となるコーパス構築をテーマとしたもの,1件は臨床現場で医師をサポートするためのシステムをテーマとしたものであった.前者は約45,000の症例報告文書の中で,病名および症状が記述された部分を人手で抽出しタグを付与したものである(荒牧他2018).コーパス自体だけでなく,その過程で議論された病名・症状の定義やタグの付与指針,コーパスを使って開発した病名抽出器も公開されている.電子カルテ分析に関するもう1件の研究は,電子カルテの自由記述部分から医師の判断のサポートに役立つ情報の抽出を試みたものである(加藤他2019).電子カルテは近年多くの医療現場で導入され,数値データや画像データを対象とした研究例は多いが,自然言語による自由記述部分は解析が難しく,研究が少ないのが現状である.患者のプライバシー保護のため,電子カルテの実データを研究で利用するにも制限がある.そこで加藤らは,抗がん剤の副作用として皮膚障害を持つ患者の模擬電子カルテを作成し,その自由記述部分から抽出する「\textlessbodyregion\textgreater手指\textless/bodyregion\textgreaterに\textlesssymptoms\textgreater亀裂\textless/symptoms\textgreaterが出来ます」のような表現に基づいて皮膚障害の重症度を判定する手法を提案した.キーワードと辞書(医療参考書等を元にした550語)を利用した機械学習(SVM)の手法に加え,ルールベースの手法も構築し,性能を比較した.評価の結果,疾患の種類によって機械学習の方が正確度が高い場合とルールベースの方が高い場合があったが,いずれも正確度7割前後と人間と同程度の性能を実現できた.なお生命科学関連では英語の論文抄録を対象にしたGENIAコーパス(Kimetal.2003,2008)がよく利用されており,BioNLPやBioCreativeといった国際ワークショップ等での固有表現抽出やイベント抽出タスクでも活用されている.薬事関係では,新規薬剤開発コスト低減のために医薬品添付文書の活用を目指す研究が見られた(小島他2020).新規商品開発の参考とすることを意図した固有表現抽出の応用例は化学ドメインでもよく見られるが,本研究は医薬品添付文書に着目した点が特徴的である.医薬品添付文書には製薬の参考にできる詳細な情報が記述されていることが多く,PDF形式ながら公開されているため,構造化して利用できる状態になれば有用と考えられる.ただ自然言語で書かれておりほとんどタグ付けされていないため,活用が進んでいない.小島らは医薬品添付文書にはテキストを含むPDFと付随するSGMLの形で構造化されたデータがある点に注目した.SGMLのデータからは,「有効成分」「禁忌」「臨床成績の表」といったクエリと,それとペアで抽出すべきテキスト(たとえば「有効成分」に対しては「リセドロン酸ナトリウム水和物86.1mg」)のようなタグの代替データが抽出できる.小島らはそのデータとPDFから抽出したテキストをマッチングさせることでデータセットを構築した.この方法によって構築した2018年分のデータを使ってBiLSTMを含むネットワークでの学習を行い,2019年分データでモデルを検証した.その結果,クエリと回答の厳密一致でも正答率0.56という性能を実現した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.3\subsection{企業情報・金融ドメイン}前述の通り,企業情報・金融ドメインでも,調査対象中5件の論文が該当した.投資家やそれを顧客とする金融機関にとって,各企業が発表する決算資料等の文書や新聞記事等の分析は,文書量が膨大であることから大きな負担となっている.また投資家に限らず,たとえば得意先・取引先の状況を把握するために,新聞記事等を元に企業情報を効率よく理解したいというニーズは高い.それらの作業を効率化するべく,決算資料や新聞記事からの情報抽出の試みが多く見られている(坂地他2020).該当の5件中2件は,名刺管理サービス「Sansan」に付帯するニュース配信の中での固有表現抽出を目的とするものだった.そのうち1件はニュース記事から「企業活動の中で生まれたモノやサービスを表す名称」(たとえば商品名,サービス名,運営する施設名,キャンペーン名など)を抽出する手法を検討したものである(奥田・高橋2020).その手法では,ニュース記事のタイトルと本文から鉤括弧(「」および『』)内の文字列を抽出し,それが抽出目的の企業キーワードであるかの判定を,BiLSTM-CRFにContextualStringEmbeddings(CSE)を組み合わせて行った.実験の結果,ふたつのベースライン手法(1.すべての鉤括弧内文字列をキーワードとした場合,2.鉤括弧前後10単語のBag-of-Words表現を用いたSVMによる二値分類の場合)と比べて適合率・再現率ともに高く,F値は0.83となり,提案手法の効果を確認できた.柳井ら(2020)は有価証券報告書や有価証券届出書等の金融分野の開示文書から「売上高」・「自己資本比率」等の経営指標の表現を抽出する手法を提案した.これらの文書では「〇〇を運用上のベンチマークとして」「〇〇を対象指数として」など一定パターンの記述が多用されるため,構文木の木構造のパターンマッチを行うStruAP(Structure-basedAbstractPattern)を提案し,木構造パターンを62件定義することで,目的とする経営指標の抽出を試みた.30社の有価証券報告書から経営指標を抽出したところ,文書単位での再現率80{\%},適合率93.7{\%}という結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.4\subsection{その他}本稿の調査対象の中では,上記の分野以外に,食ドメインで3件,機械加工・交通・文学(小説)・土産品といったドメインで各2件ずつ論文が発表されていた.他にも,会議録からの法律名抽出や将棋解説文からの固有表現抽出,陸上競技ブログからの活動記録抽出など,「ドメイン」として分類すれば各1件となるものの,特色ある研究テーマが発表されている.食ドメインでは,消費者がインターネットに書き込むレストランレビューをマーケティングに利用することの実現可能性を探るべく,レビュー上の食べ物・飲み物表現を抽出する試みがあった(新堂他2018).「どのような食べ物・飲み物がトレンドであるかを把握するタスク」を仮定し,個々の食べ物・飲み物とその性質(味,香り,形状等)を詳細に描写する表現(例:「香り高くのど越し抜群のおいしい十割そば」)の抽出を目指した.食べログのレビューデータから,店舗ジャンルごとに同数のレビューを抽出し,食べ物・飲み物表現に対し人手でタグ付けし,ナイーブなCRFベースのモデルとBiLSTM-CNNs-CRFベースのモデルを作り比較した.結果として,前者のモデルでは再現率が低くなる傾向があり,後者では再現率が改善したが適合率が若干低下するといった知見が得られ,今後のマーケティング利用に向けた基礎を作ることができた.同じく食ドメインで,レシピからの固有表現抽出に必要な教師データを低コストに補完する方法の検討もなされた(平松他2018;原島2019).そのような手法としては既存の辞書などの言語資源が使われることが多いが,単に解析対象のテキストと辞書内の表現をマッチングするような手法では辞書に含まれる表現しかカバーできない.そこで,レシピ内の表現を既存の料理オントロジーの属性ラベル(「材料-魚介」「調味料」など)に分類し,その結果を固有表現抽出器に入力することとした.これによって直接辞書に含まれない表現まで分類ができ,その後の固有表現抽出の性能をさらに高められる.固有表現抽出にBiLSTM-CRFを用い,上記の単語分類器を組み合わせた提案手法と固有表現抽出器のみの手法などを比較した結果,提案手法の性能が他の手法を上回った.ほかにもレシピ関係では,「風邪に効く食材を使った料理」のレシピを紹介するシステムを作るために,掲示板のテキストから食材と効能の対を抽出する手法を使った研究も見られた(角谷他2019).機械加工ドメインでは,技術文書内に記述される機械加工因子とそれら同士の関係(Aが増すとBも増すなど)を抽出する手法が提案された(稲熊他2021).機械加工分野では高齢化により技術継承が急がれており,中でも熟練を要する工程策定業務の継承が課題となっている.工程策定には,「切削速度が増加すると切削速度が増す」といった機械加工因子(切削速度・切削温度など)間の関係の知見が必要となる.機械加工因子用語は,たとえば「切削加工」に「切削」と「加工」が含まれ,「切削加工」は「切削」という過程における「加工」という方法である,といった入れ子構造がある.また機械加工因子用語の間に,「切削速度が増加すると切削温度が増す」といった関係が記述されている場合があり,そこには「増加する」「増す」のように「トリガワード(「物理量を示す二用語間の変化を表す単語」と定義)がよく使われている.そこでこの研究では,用語の入れ子構造およびトリガワードを考慮しながら,用語と関係の同時抽出を行っている.その結果,用語抽出と関係抽出を別々に行うよりもマルチタスク学習モデルの方が高精度を得ることができた.文学ドメインにおいては,ライトノベルのような創作テキストを「銀髪赤目の少年」や「長身のメイド」といった登場人物の特徴に踏み込んで探索できる機能へのニーズがあるとして,小説から人物情報を抽出する手法の提案があった(岡・安藤2021).小説本文内で,登場人物の名前や性別,年齢や容姿といった表現にタグ付けし,BiLSTM-CRFをベースとした複数のモデルで学習を行い性能を評価した.性能が最良となったモデル(BiLSTM-CRF)では,性別や年齢などの表現で高いF1値(それぞれ95.95,92.62)となっただけでなく,人物関係(例:兄,相棒)や職業・立場(例:竜飼い,最高権限者)といったより多様な表現でも80以上の高いF1値を達成できた.土産品ドメインでは「現地でしか購入できない土産」の情報をWebから収集するシステムの構築を目指し,ブログから土産名・店名を抽出するモデルが提案された(池田・安藤2019).具体的には,Yahoo!ブログの菓子・デザートカテゴリを土産名で検索し,ヒットした記事に対し人手でタグ付けしたうえで,深層学習モデル(BiLSTM-CRFやChar-BiLSTM-CRFなど)とCRFモデルを用いて固有表現抽出を行った.その結果,前者は学習データに含まれる固有表現に対し,後者は学習データに出現しない固有表現に対し,それぞれ有効であることが確認できた.法律ドメインでは,会議録中の法律名をWikipediaの項目に結びつける試みがあった(桧森他2020).法律名には「特定複合観光施設区域の整備の推進に関する法律」を「カジノ解禁法」「IR推進法」と呼ぶなど,人手でも判断が難しい表記揺れがありうる.そのため,表記揺れも含めてあらゆるメンションを「法律名を表す語句」と定義し,言及抽出及び曖昧性解消の両方を同時に行うこととした.国会・地方議会会議録10日分に対し人手でタグ付けし,BERTで固有表現抽出モデルを作成してメンションを抽出,それをWikipedia記事に結びつけることで曖昧性解消を行っている.小売ドメインにおいては,ECサイトの商品タイトルから商品名を抽出する手法が提案された(張2019).ECサイトでは,各小売店が自社の取り扱い商品を検索結果の上位に表示させるため,商品名に加えて「純正品」「送料無料」といった文言や商品の品番などの情報が付加されることが多く,ユーザーやサイト運営者にとってはわかりにくいことがある.そういった付加情報は多くが名詞や名詞句の羅列であり,一般的な文章とは構造が異なる.そこで当該研究では,TF-IDFやCRF,BiLSTM-CRFといった手法で商品タイトルから商品名を抽出し,その精度を比較している.科学ドメインの論文から,数値表現を通じて技術トレンドを抽出しようとする試みもあった(黒土他2020).本研究では「半導体の集積度は18カ月ごとに2倍になる」とした「ムーアの法則」に見られるように,技術的な傾向を数値表現から読み取れる可能性に着目した.数値表現の抽出にはルールベースのStruAP(Structure-basedAbstractPattern)というツールを用い,「dialecticconstant」と「10.2」のような,項目名と数値表現のペアを抽出した.\newline%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3 \section{考察} 以上を踏まえ,国内におけるドメイン依存の固有表現抽出の全体的な傾向を2点述べる.ひとつは固有表現抽出を行う目的の類型であり,もうひとつは技術的な傾向である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1\subsection{固有表現抽出を行う目的の類型}上に取り上げた事例において,文書からの固有表現抽出を行う目的はさまざまだが,大別すれば(1)多様な固有表現そのものをより網羅的にまたは大量に獲得しようとするものと,(2)抽出した固有表現を通じて何らかの知見を得ようとするものに分けられる.以下にそれぞれの傾向を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1.1\subsubsection{多様な固有表現そのものを網羅的/大量に獲得しようとする研究}本稿で対象とした論文では,化学分野の固有表現抽出の多くがこれにあたる.化学分野では,日々大量に追加される化合物名を自動的に知識として蓄積して新薬開発に活用するといったことへのニーズが高く,そのための研究が数多く行われている.また企業情報ドメインではニュース記事から新たなモノやサービスの名称を抽出する研究を行ったが,これも発生する固有表現そのものの把握を目的とする研究だと言えるだろう.この類型では,目的とする固有表現が含まれるようなテキスト集合をいかに確保し,それをいかに効率よく,精度高く処理するかが課題となる場合が多い.その際,作成した知識を整理するためにも,知識作成に使うモデルの精度を高めるためにも,同義語や表記揺れの取り扱いが重要となる.また抽出したい固有表現はどのようなものなのか,抽出後にどのように使うのかといった細かな定義も必要である.固有表現定義の例は,上記の医療テキストコーパス構築の研究で詳細に見ることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1.2\subsubsection{抽出した固有表現を通じて何らかの知見を得ようとする研究}固有表現抽出タスクにプラスして,固有表現同士の関係を抽出しようとする研究もよく見られる.本稿の中では,化学物質の相互作用関係抽出や,機械加工因子の関係抽出がそれにあたる.ここでも,抽出したい関係の定義や,それらを含む文書の確保などが課題となる.大量の文書を効率よく理解するために,文書の要点として固有表現を抽出しようとする研究も複数見られた.たとえばカルテにおける疾患の重症度,金融文書における経営指標,小説における登場人物の属性といったものである.この類型では多くの場合,抽出元の文書群は企業内などに蓄積されていて新たに入手する必要はないため,課題としては「要点」となる情報がどのようなものかといった定義や,その抽出処理の具体化,効率化が挙げられる.抽出した固有表現から,企業・組織のマーケティング活動に活用できるような社会的傾向を読み取ろうとする方向も検討されている.たとえば新堂らによる食べ物・飲み物表現の抽出の研究では,レストラン・レビューのテキストデータを分析してマーケティングに活用することを目指している.このようなシステムでは,抽出した情報を見たユーザーの何らかの意志決定(たとえば,「香り高い十割そば」が話題だから,レストランのメニューに入れる,またはWebサイトで取り上げる,など)に役立つことが求められる.抽出した表現を企業の意志決定の根拠とするためには,抽出元文書が適切かどうかの評価や,文書の出現時期や地域などテキスト外の情報を含めた分析,可視化の方法など,システム全体としての設計に工夫が求められるだろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2\subsection{固有表現抽出の技術}はじめにで述べたとおり,技術の詳細な分析は本論文の主眼ではないが,この調査で分かった技術的な特徴をここで紹介する.固有表現抽出タスクの技術的手法としては,機械学習を使うものが主流となり,本稿の調査対象期間ではとくにBiLSTMの出力をCRFで処理した,BiLSTM-CRFが使われることが多かった.BiLSTM-CRFでは,まず入力単語を事前学習した単語ベクトルに変換する.次にBiLSTMが,そのベクトル列を入力として各単語に対し,固有表現らしさの点数からなるベクトルを出力する.最後にCRFがそのベクトル群を入力とし,ラベル間の依存性を考慮し,最適な固有表現のラベルを予測する.その精度をさらに高めるため,あるいはBiLSTM-CRFで必要な学習データの作成コストを下げるために,辞書等の言語資源を使うなど,さまざまな手法が組み合わされている.またBERTを使う手法も本稿で数件紹介しているが,直近の研究ではさらに大勢を占めるようになっている.ただし機械学習を使わなければ固有表現抽出ができないわけではなく,学習データが少ない場合や定形表現が多い場合などは,パターンマッチのようなルールベースの手法で課題解決できる場合もある.本稿の中でも,たとえば加藤らの電子カルテからの皮膚障害重症度判定の研究では,疾患の種類によってはルールベースの方が機械学習より高精度な結果となることがあった.また柳井らの金融文書からの経営指標抽出では,定形表現が多用されるドメインであるため,構文木のパターンマッチが有効であった.こうした技術的な詳細については,文献(岩倉・関根2020)を参照されたい.また実際に利用できるツールが,Githubなどの技術共有サイトでダウンロード可能になっていることが多いため,誰でも既存の研究を基盤としながら各自の課題に合ったシステムを作っていくことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\section*{まとめ}本論文では,過去数年の国内におけるドメイン依存の固有表現抽出技術の研究動向を調査し,各ドメインにおける応用のあり方を概観した.とくに研究が活発な化学ドメインでは,新規材料開発などを目的とする化学物質名抽出タスク,またはそれらの関係抽出タスクが多く見られ,研究を効率よく進められるようなデータベース,モデル等の資源も整備されている.医療・薬事ドメインでは,医療者支援や薬剤開発の効率化など,より多様な目的での固有表現抽出が確認され,企業情報・金融ドメインでは,膨大な企業情報を効率良く理解するための応用が見られた.その他,機械加工・交通・文学・食といった多様なドメインでの技術応用を俯瞰し,固有表現抽出の幅広く深い展開が確認できた.抽出した固有表現の使い方としても,固有表現そのものをリスト化するだけでなく,固有表現間の関係を捉えたり,傾向を分析したりといった多様な方向性が確認できた.技術面では,本論文での調査対象期間はBiLSTM-CRFとBERTが主流となっていたが,今後も各タスクに合わせたさらなる精緻化が期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begin{thebibliography}{}\item荒牧英治,若宮翔子,矢野憲,永井宥之,岡久太郎,伊藤薫(2018).病名アノテーションが付与された医療テキスト・コーパスの構築.自然言語処理,2018,\textbf{25}(1),pp.119--152.[E.Aramakietal.(2018).DevelopmentoftheClinicalCorpuswithDiseaseNameAnnotation.JournalofNaturalLanguageProcessing,25(1),pp.119--152.]\itemBeltagy,I.,Lo,K.,andCohan,A.(2019).``SciBERT:APretrainedLanguageModelforScientificText.''In\textit{Proceedingsofthe2019ConferenceonEmpiricalMethodsinNaturalLanguageProcessingandthe9thInternationalJointConferenceonNaturalLanguageProcessing},pp.3615--3620.\itemDegtyarenko,K.,deMatos,P.,Ennis,M.,Hastings,J.,Zbinden,M.,McNaught,A.,Alc\'{a}ntara,R.,Darsow,M.,Guedj,M.,andAshburner,M.(2008).``ChEBI:ADatabaseandOntologyforChemicalEntitiesofBiologicalInterest.''\textit{NucleicAcidsResearch},2008,\textbf{36}(Databaseissue),D344--D350.\item原島純(2019).レシピサービスと情報処理.人工知能,\textbf{34}(1),pp.3--8.[J.Harashima(2019).RecipeServiceandInformationProcessing.JournaloftheJapaneseSocietyforArtificialIntelligence,34(1),pp.3--8.]\itemHe,J.,Nguyen,D.Q.,Akhondi,S.A.,Druckenbrodt,C.,Thorne,C.,Hoessel,R.,Afzal,Z.,Zhai,Z.,Fang,B.,Yoshikawa,H.,Albahem,A.,Cavedon,L.,Cohn,T.,Baldwin,T.,andVerspoor,K.(2020).``OverviewofChEMU2020:NamedEntityRecognitionandEventExtractionofChemicalReactionsfromPatents.''In\textit{ExperimentalIRMeetsMultilinguality,Multimodality,andInteraction.Proceedingsofthe11thInternationalConferenceoftheCLEFAssociation},Vol.12260.LectureNotesinComputerScience.\item邊土名朝飛,野中尋史,小林暁雄,関根聡(2019).外部知識源を使用したWikipediaからの化合物情報抽出.言語処理学会第25回年次大会発表論文集,pp.791--794.[A.Hentonaetal.(2019).GaibuChishikigenwoShiyoshitaWikipediakaranoKagobutsuJohoChushutsu.Proceedingsofthe25thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.791--794.]\item桧森拓真,木村泰知,荒木健治(2020).会議録に含まれる法律名を対象としたEnd-to-Endのエンティティリンキングの性能評価.言語処理学会第26回年次大会発表論文集,pp.367--370.[T.Himorietal.KaigirokuniFukumareruHoritsumeiwoTaishotoshitaEnd-to-EndnoEntitirinkingunoSeinoHyoka.Proceedingsofthe26thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.367--370.]\item平松淳,若林啓,原島純(2018).文字分散表現に基づく単語分類情報を用いたレシピ固有表現抽出.研究報告自然言語処理(NL),\textbf{2018-NL-237}(7),pp.1--6.[M.Hiramatsuetal.(2018).RecipeNamedEntityRecognitionbasedonWordClassificationResultsusingCharacter-basedDistributedRepresentations.IPSJSIGTechnicalReports,2018-NL-237(7),pp.1--6.]\item池田流弥,安藤一秋(2019).固有表現抽出によるブログテキストからの品名・店名抽出.研究報告自然言語処理(NL),\textbf{2019-NL-243}(5),pp.1--8.[R.IkedaandK.Ando(2019).ExtractionofFoodProductandShopNamesfromBlogTextusingNamedEntityRecognition.IPSJSIGTechnicalReports,2019-NL-243(5),pp.1--8.]\item稲熊陸,小島大,東孝幸,三輪誠,古谷克司,佐々木裕(2021).機械加工文書における用語入れ子構造とトリガワードを考慮した用語関係同時抽出.言語処理学会第27回年次大会発表論文集,pp.396--399.[R.Inagumaetal.(2021).KikaiKakoBunshoniokeruYogoIrekoKozotoTorigawadowoKoryoshitaYogoKankeiDojiChushutsu.Proceedingsofthe27thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.396--399.]\item岩倉友哉(2015).固有表現抽出におけるエラー分析.言語処理学会年次大会第21回年次大会ワークショップ:自然言語処理におけるエラー分析.[T.Iwakura(2015).KoyuHyogenChushutsuniokeruEraBunseki.TheWorkshopatthe21stAnnualMeetingoftheAssociationforNaturalLanguageProcessing.]\item岩倉友哉,関根聡(2020).情報抽出・固有表現抽出のための基礎知識.近代科学社.[T.IwakuraandS.Sekine(2020).JohoChushutsu・KoyuHyogenChushutsunotamenoKisochishiki.KindaiKagakusha.]\item岩倉友哉,吉川和(2020).化学分野への言語処理の応用.自然言語処理,\textbf{27}(4),pp.969--973.[T.IwakuraandH.Yoshikawa(2020).NaturalLanguageProcessingApplicationtotheChemicalDomain.JournalofNaturalLanguageProcessing,27(4),pp.969--973.]\item加藤由美,平川聡史,梶山晃平,堀口裕正,狩野芳伸(2019).電子カルテ自由記述部分からの皮膚疾患における重症度抽出.言語処理学会第25回年次大会発表論文集,pp.280--283.[Y.Katoetal.(2019).DenshiKaruteJiyuKijutsuBubunkaranoHifuShikkanniokeruJushodoChushutsu.Proceedingsofthe25thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.280--283.]\itemKim,J.D.,Ohta,T.,Tateisi,Y.,andTsujii,J.(2003).``GENIACorpus---SemanticallyAnnotatedCorpusforBio-textmining.''\textit{Bioinformatics},\textbf{19}(Suppl1),i180--i182.\itemKim,J.D.,Ohta,T.,andTsujii,J.(2008).``CorpusAnnotationforMiningBiomedicalEventsfromLiterature.''\textit{BMCBioinformatics},\textbf{9},10.\itemKim,S.,Thiessen,P.A.,Bolton,E.E.,Chen,J.,Fu,G.,Gindulyte,A.,Han,L.,He,J.,He,S.,Shoemaker,B.A.,andWang,J.,Yu,B.,Zhang,J.,andBryant,S.H.(2016).``PubChemSubstanceandCompounddatabases.''\textit{NucleicAcidsResearch},\textbf{44}(D1),D1202--D1213.\item小島諒介,岩田浩明,中津井雅彦,奥野恭史(2020).医薬品添付文書からの薬剤情報抽出システム.言語処理学会第26回年次大会発表論文集,pp.1057--1060.[R.Kojimaetal.(2020).IyakuhinTempuBunshokaranoYakuzaiJohoChushutsuShisutemu.Proceedingsofthe26thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.1057--1060.]\itemKrallinger,M.,Rabal,O.,Akhondi,S.,P\'{e}rez,M.,Santamar\'{\i}a,J.,Rodr\'{\i}guez,GaelP\'{e}rez,Tsatsaronis,G.,Intxaurrondo,A.,Lopez,J.A.,Nandal,U.,Buel,E.V.,Chandrasekhar,A.,Rodenburg,M.,L{\ae}greid,A.,Doornenbal,M.A.,Oyarz\'{a}bal,J.,Louren\c{c}o,A.,andValencia,A.(2017).``OverviewoftheBiocreativeVIChemical-ProteinInteractionTrack.''In\textit{Proceedingsofthe6thBioCreativeChallengeEvaluationWorkshop},Vol.1,pp.141--146.\itemKrallinger,M.,Rabal,O.,Leitner,F.,V\'{a}zquez,M.,Salgado,D.,Lu,Z.,Leaman,R.,Lu,Y.,Ji,D.,Lowe,D.M.,Sayle,R.A.,Batista-Navarro,R.T.,Rak,R.,Huber,T.,Rockt{\"{a}}schel,T.,Matos,S.,Campos,D.,Tang,B.,Xu,H.,Munkhdalai,T.,Ryu,K.H.,Ramanan,S.V.,Nathan,S.,\v{Z}itnik,S.,Bajec,M.,Weber,L.,Irmer,M.,Akhondi,S.A.,Kors,J.A.,Xu,S.,An,X.,KumarSikdar,U.,Ekbal,A.,Yoshioka,M.,Dieb,T.M.,Choi,M.,Verspoor,K.,Khabsa,M.,LeeGiles,C.,Liu,H.,Ravikumar,K.E.,Lamurias,A.,Coute,F.M.,Dai,H.J.,Tzong-HanTsai,R.,Ata,C.,Can,T.,Usi\'{e}Chimenos,A.,Alves,R.,Segura-Bedmar,I.,Mart\'{\i}nez,P.,Oyarzabal,J.,andValencia,A.(2015).``TheChemdnerCorpusofChemicalsandDrugsandItsAnnotationPrinciples.''\textit{JournalofCheminformatics},\textbf{7}(Suppl1),S2.\item黒土健三,森本康嗣,佐藤美沙,柳井孝介(2020).構文解析情報を用いたテキストからの数値情報の抽出.人工知能学会第34回全国大会論文集,1E4-GS-9-02.[K.Kurotsuchietal.(2020).DevelopmentforExtractingNumericalInformationUsingParsingInformation.Proceedingsofthe34thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence,1E4-GS-9-02.]\itemLee,J.,Yoon,W.,Kim,S.,Kim,D.,Kim,S.,So,C.H.,andKang,J.(2019).``BioBERT:APre-trainedBiomedicalLanguageRepresentationModelforBiomedicalTextMining.''\textit{Bioinformatics},\textbf{36}(4),pp.1234--1240.\item牧野晃平,國吉房貴,小澤順,三輪誠(2020).無機材料文献からの合成プロセス抽出のための関係抽出.言語処理学会第26回年次大会発表論文集,pp.1045--1048.[K.Makinoetal.(2020).MukiZairyoBunkenkaranoGoseiPurosesuChushutsunotamenoKankeiChushutsu.Proceedingsofthe26thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.1045--1048.]\item岡裕二,安藤一秋(2021).小説あらすじを用いて学習した系列ラベリングモデルによる小説本文からの人物情報抽出の性能検証.言語処理学会第27回年次大会発表論文集,pp.1634--1638.[Y.OkaandK.Ando(2021).ShosetsuArasujiwoMochiiteGakushushitaKeiretsuRaberinguModeruniyoruShosetsuHombunKaranoJimbutsuJohoChushutsunoSeinoKensho.Proceedingsofthe27thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.1634--1638.]\item奥田裕樹,高橋寛治(2020).ニュース記事からの企業キーワード抽出.言語処理学会第26回年次大会発表論文集,pp.193--196.[Y.OkudaandK.Takahashi(2020).CompanyKeywordExtractionfromNewsArticles.Proceedingsofthe26thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.193--196.]\item坂地泰紀,和泉潔,酒井浩之(2020).金融・経済ドメインを対象とした言語処理.自然言語処理,\textbf{27}(4),pp.951--955.[H.Sakajietal.(2020).LanguageProcessingforFinanceandEconomics.JournalofNaturalLanguageProcessing,27,pp.951--955.]\item新堂安孝,友利涼,富田紘平,兼村厚範,森信介(2018).レストラン・レビューにおける食べ物・飲み物表現の抽出.信学技報,\textbf{118}(210),pp.97--102.[Y.Shindohetal.(2018).DetectionofFoodandDrinkExpressionsinRestaurantReviewServices.IEICETechnicalReport,118(210),pp.97--102.]\item新城大希,徳永健伸,牧野拓哉,岩倉友哉(2021).構文情報とラベルなしデータを用いた化学分野の関係抽出.言語処理学会第27回年次大会発表論文集,pp.890--894.[T.Shinjoetal.(2021).KobunJohotoRaberuNashiDetawoMochiitaKagakuBunyanoKankeiChushutsu.Proceedingsofthe27thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.890--894.]\item角谷和俊,難波英嗣,牛尼剛聡,若宮翔子,王元元,河合由起子(2019).料理レシピデータのメディア特性分析と利活用.人工知能,\textbf{34}(1),pp.32--40.[K.Sumiyaetal.(2019).MediaCharacteristicAnalysisandItsApplicationsforCookingRecipes.JournalofJapaneseSocietyforArtificialIntelligence,34(1),pp.32--40.]\item辰巳守祐,後藤啓介,進藤裕之,松本裕治(2019).辞書を用いたコーパス拡張による化学ドメインのDistantlySupervised固有表現認識.研究報告自然言語処理(NL),\textbf{2019-NL-241}(7),pp.1--7.[S.Tatsumietal.(2019).DataAugmentedDistantlySupervisedNamedEntityRecognitioninChemicalDomain.IPSJSIGTechnicalReports,2019-NL-241(7),pp.1--7.]\item山口京佑,旭良司,佐々木裕(2021).文献抄録中の主題材料に着目した超伝導材料に関する情報抽出.言語処理学会第27回年次大会発表論文集,pp.1809--1814.[K.Yamaguchietal.(2021).BunkenShorokuchunoShudaiZairyoniChakumokushitaChodendoZairyoniKansuruJohoChushutsu.Proceedingsofthe27thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.1809--1814.]\item柳井孝介,佐藤美沙,十河泰弘,山脇功一,渋谷淳(2020).StruAPを用いた金融分野の開示文書からの情報抽出.言語処理学会第26回年次大会発表論文集,pp.311--314.[K.Yanaietal.(2020).StruAPwoMochiitaKinyuBunyanoKaijiBunshokaranoJohoChushutsu.Proceedingsofthe26thAnnualMeetingoftheAssociationforNaturalLanguageProcessing,pp.311--314.]\itemYang,Y.,Chen,W.,Li,Z.,He,Z.,andZhang,M.(2018).``DistantlySupervisedNERwithPartialAnnotationLearningandReinforcementLearning.''In\textit{Proceedingsofthe27thInternationalConferenceonComputationalLinguistics},pp.2159--2169.\item張培楠(2019),ECサイトにおける商品タイトルからの商品名抽出.人工知能学会第33回全国大会論文集,4Rin1-23.[P.Zhang(2019).ProductNameExtractionfromProductEntriesonElectronicCommercePages.Proceedingsofthe33rdAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence,4Rin1-23.]\end{thebibliography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%付録\appendix本論文執筆のために洗い出したドメイン依存の固有表現抽出に関連する論文は,論文内で紹介したもの以外も含めると52件あった.それらの論文について,課題設定・着眼点や手法,抽出する対象等をまとめたリストを,以下に公開する.\texttt{https://github.com/mihonti/NESurvey2023/blob/983245d36de3e03dd4f270da590eb5a66{\linebreak}bdc5d2c/NEpapers\_2023.pdf}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{福田美穂}{%1997年東京大学文学部卒業.ニフティ株式会社にて自然言語処理技術を使ったクチコミ分析サービスの企画・運営に携わる.同社を退職後,フリーランスとして主に情報技術関連ニュース記事等を翻訳,執筆.}\bioauthor{関根聡}{%1992年英国マンチェスター大学計算言語学部修士号.1998年ニューヨーク大学コンピューターサイエンス学部博士号.その後,ニューヨーク大学研究准教授に就任.松下電業産業株式会社(現パナソニック),SONYCSL,マイクロソフトリサーチ,楽天技術研究所ニューヨークなどでの研究職を歴任.専門は自然言語処理.特に情報抽出,固有表現抽出,質問応答,情報アクセス,知識構築の研究に従事.情報処理学会自然言語処理研究会主査,その他役職多数.複数の企業の技術顧問なども兼任.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V26N02-08
\section{本研究の位置付け} \label{sec:introduction}述語項構造解析は,様々な自然言語処理アプリケーションの土台となる技術である.本研究が対象とする日本語のような談話指向言語では,文から項が省略されることが多い\cite{kayama2013}.これらの省略された項は,ゼロ代名詞とみなされる.項は述語との係り受け関係があるか否かにより,係り受け関係有りかゼロ照応かに分けられる.ゼロ照応は,項がテキスト中に現れるか否かにより,文脈照応か,外界照応かに分けられる.文脈照応は,項が述語と同一文内に出現するか否かにより,文内照応か,文間照応に更に分けられる.\vspace{0.5\Cvs}{\small例1.1)\メールを\書いて$_{v_1}$\送ったよ$_{v_2}$.\quad読んでね$_{v_3}$.}\vspace{0.5\Cvs}例えば,例~(1.1)は,3つの述語($v_1$,$v_2$,$v_3$)と1つの明示的な項候補(メール)を含んだテキストである.例~(1.1)を述語項構造解析した結果は表~\ref{tab:pasa-result}のようになる.ここで,角括弧で囲まれた要素は外界照応,丸括弧は文内照応,二重丸括弧は文間照応である.$v_1$のヲ格の項である「メール」は,格標識「を」によって明示的に示されており,$v_1$との係り受け関係を持っている.このような名詞は,括弧をつけないで示している.また,ラベル\noneは,述語がその格に対して,項を取らないことを示している.\begin{table}[b]\caption{例(1.1)の述語項構造解析結果}\label{tab:pasa-result}\input{08table01.tex}\end{table}日本語述語項構造解析は,意味役割付与\cite{Zhou-End-2015,He-Deep-2017}タスクと類似しているが,ゼロ代名詞の照応解析と,表~\ref{tab:pasa-result}において角括弧で示されている外界照応の同定まで行う点において異なる.日本語述語項構造解析は,単語が省略されうるという点において,中国語やトルコ語,またロマンス語であるスペイン語,ポルトガル語のようなnull-subject言語におけるゼロ照応解析と類似している\cite{Iida-A-2011,Rello-Elliphant-2012,Chen-Chinese-2016,Yin-Chinese-2017}.過去の日本語述語項構造解析の研究では,形態素及び,構文解析から得られた様々な特徴を利用している\cite{Matsubayashi-Revisiting-2017,Hayashibe-Japanese-2011,Imamura-Predicate-2014,Shibata-Neural-2016,Ouchi-Joint-2015,Yoshikawa-Jointly-2013,Taira-A-2008}.近年のアプローチでは,中間解析を必要としないend-to-endの手法による解析もある\cite{Ouchi-Neural-2017,Matsubayashi-Distance-2018}.本論文は,日本語の文内述語項構造解析を対象とし,以下の2つの貢献をした.第一に,文内述語項構造解析において,外界照応の一部を取り入れるように問題を整理した点である.そのために,本研究では,外界照応を3つのサブカテゴリ,つまり,書き手である外界一人称(\exow),読み手である外界二人称(\exor),その他の外界三人称\footnote{今回使用したコーパスでは「外界一般」とされているが,本論文では,外界一人称,外界二人称と対比させ,外界三人称と呼ぶこととする.}(\exox)に分類する.日本語のような談話指向言語では,2者間で行われる会話の際,外界一人称,外界二人称が省略されることが多い.そのため,文内述語項構造解析においても外界一人称,外界二人称まで解析することは必要であると我々は考えている.例~(1.2)は,サブカテゴリ化の必要性を示している.\vspace{0.5\Cvs}{\small例1.2)\サンドイッチ\食べる$_{v}$}{\small\phantom{例1.2)}\(私は)サンドイッチを食べる./(あなたは)サンドイッチを食べる?}\vspace{0.5\Cvs}外界照応の書き手(\exow)と読み手(\exor)の両方が,動詞「食べる」の項候補であり,どちらを取るかにより文の意味が変わってくる.これら,2つの意味を区別するために外界照応のサブカテゴリ化が必要である.第二に,日本語述語項構造解析に分野適応の技術を導入する.\citeA{Surdeanu-The-2008}と,\citeA{Hajic-The-2009}は訓練データとテストデータの分野(メディア)が異なると,意味役割付与の性能が低下することを報告している.\citeA{Yang-Domain-2015}は,深層学習手法に分野適応を導入することでこの問題に対して取り組んだ.\citeA{Imamura-Predicate-2014}を除いて,日本語述語項構造解析の過去の研究のほとんどが,新聞記事という単一の種類のテキストのみを対象としていたため,分野依存性は問題ではなかった.対話文を解析するために\citeA{Imamura-Predicate-2014}は新聞記事を使って述語項構造解析器を訓練している.また,\citeA{Taira-Business-2014}は,ビジネスメール文を解析するために,新聞記事を使って述語項構造解析器を訓練している.その結果,係り受け関係にある述語項や,同一文内にある述語項の場合は,学習済みモデルを比較的流用できる可能性があるが,外界照応については訓練データが足りず解析精度が低いためモデルを作り直す必要があることを述べている.しかし,その他の種類のメディアのテキストについて,述語項構造解析を行った研究はこれまで行われていない.我々は様々な種類のメディアのテキストを日本語述語項構造解析の対象とするために,現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://pj.ninjal.ac.jp/corpus\_center/bccwj/en/}\cite{Maekawa-2014aa}を使用した.BCCWJには,紙媒体として,新聞記事,書籍,雑誌,白書といったメディアのテキスト,電子媒体として,インターネット上のQAテキスト,ブログテキストといった様々な種類のメディアから集められたテキストを含んでいる.我々は,約200万の単語から構成され,共参照と述語項関係が注釈付けされたBCCWJのコアデータセット(BCCWJ-PAS)を使用した.次章で詳述するが,外界照応の出現分布はメディアによって大きく異なるため,そのテキストのソースメディアを考慮する必要がある.本研究では,リカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)ベースのベースモデルから始め,以下の5種類の分野適応手法を導入し,各手法の有効性を評価\linebreakする.\begin{enumerate}\itemFine-tuning({\ttFT})手法では,まず,訓練データ全体を用いてモデルを学習させる.学習されたパラメータを初期値とし,ターゲット領域のメディアの訓練データを用いて第2段階の学習を行う.\itemFeatureaugmentation({\ttFA})手法では,全体で共有されるネットワークと分野固有のネットワークを同時に訓練する\cite{Kim-Frustratingly-2016}.分野共通の知識は共有のネットワークで,分野固有の知識は分野固有のネットワークで学習されることを期待している.\itemClassprobabilityshift({\ttCPS})手法では,項の種類毎に,項の出現確率の事前分布が分野によって異なることを考慮し,ネットワークが出力する確率にバイアスをかける.\itemVoting({\ttVOT})手法では,上記3つの手法による多数決をとり,出力を決定する.\itemMixture({\ttMIX})手法では,上記(1)から(3)の3つの手法を単一のネットワークに組み合わせる.\end{enumerate}各手法の詳細は,\ref{sec:domain-adaptation}節にて説明する.\subsection{本論文の構成}本論文は次のように構成されている.第~\ref{sec:problem-setting}章では,日本語述語項構造解析における既存研究と本研究の位置付け,コーパスを分析して得られた述語項構造解析の分野依存性について述べる.第~\ref{sec:deep-reccurent-model}章では,本研究において使用するリカレントニューラルネットワークベースのモデルについて詳述する.第~\ref{sec:domain-adaptation}章では,第~\ref{sec:deep-reccurent-model}章で提案したベースラインモデルに対して導入する5種の分野適応手法について詳述する.第~\ref{sec:experiment}章では第~\ref{sec:deep-reccurent-model}章,及び,第~\ref{sec:domain-adaptation}章で説明したベースラインと分野適応を行ったモデルに対しての評価実験結果とその考察を述べる.第~\ref{sec:conclusion}章では,評価実験・考察を踏まえ,今後の方向性を示し結論とする. \section{述語項構造解析} \label{sec:problem-setting}本稿では,文内述語項構造解析を対象とする.ただし,外界一人称,外界二人称を文内にある仮想的な項として扱い,一般的な文内照応に加えてこれらの一部の外界照応も解析対象とする.過去の述語項構造解析の関連研究,及び,その関連研究が対象としてきた項種別について,概説する.\begin{table}[b]\caption{先行研究が対象としている項種別}\label{tab:comparison}\input{08table02.tex}\end{table}\subsection{関連研究}日本語述語項構造解析に関する先行研究では様々な種類の項(項種別)を対象としてきた.表~\ref{tab:comparison}は,先行研究が解析の対象としている項を項種別にまとめたものである.表の列は,言語学的観点から項の種類を分類している.項は述語との係り受け関係があるか否かにより,係り受け関係有り({\dom{intra(dep)}})かゼロ照応かに分けられる.ゼロ照応は,項がテキスト中に現れるか否かにより,文脈照応か,外界照応かに分けられる.文脈照応は,項が述語と同一文内に出現するか否かにより,文内照応({\dom{intra(zero)}})か,文間照応({\dom{inter}})に更に分けられる.{\dom{intra(dep)}}と,{\dom{intra(zero)}}はどちらも項が述語と同一文内に出現する.外界照応には,様々な分け方が存在する.NAISTTextCorpus1.5~{\cite{Iida-Naist-2007}}と,それに基づいた{\citeA{Imamura-Predicate-2014}}では,外界照応を外界一人称(\exow),外界二人称(\exor),その他の外界照応(\exox)の3種類に分類している.また,{\fullciteA{Hangyo-Japanese-2013}}は,外界照応をauthor(外界一人称と同じ),reader(外界二人称と同じ),US:person(外界の人),US:matter(外界のコト),US:situation(外界の状況)の5つに分類している.ラベル\noneは,述語がその格に対して,項を取らないことを示す.例えば,自動詞はヲ格をとらない.したがって自動詞のヲ格は\noneとなる.\citeA{Taira-A-2008},\fullciteA{Imamura-Discriminative-2009},\citeA{Sasano-A-2011},\citeA{Hayashibe-Japanese-2011}は,外界照応と,\noneを区別していない.これらは,表~\ref{tab:comparison}では,$\triangle$として示している.\subsection{本研究の問題設定}本論文では解析対象のコーパスであるBCCWJ-PASに習い,外界照応を3つのサブカテゴリ,書き手を示す外界一人称(\exow),読み手を示す外界二人称(\exor),及びその他の外界三人称(\exox)に分けた.ただし,外界一人称(\exow),外界二人称(\exor)はともに単数のみを扱う.以下では,項種別を示すために表{~\ref{tab:comparison}}に示すラベルを使用する.表~\ref{tab:comparison}から,文間照応よりも,文内照応が盛んに研究されていることがわかる.文間照応の解析は,文内照応と比較して,より広い空間を探索することが必要になるため,より困難な問題といえる.外界照応\exowと\exorの項の解析は,文間照応と異なり,探索空間を大幅に増加させない.次節で詳述するとおり,様々なメディアのテキストに対して,文内述語項構造解析をする際,書き手である\exow,読み手である\exorまで含めて解析することは重要である.本研究では,文内述語項構造解析に加え,外界一人称,外界二人称を解析対象とする.\exoxと\dom{inter}は,解析対象の述語は,実際に項を取るが,文内には項が現れていないという点において同じであるため,文内述語項構造解析で解析器が\exoxと\dom{inter}を区別することはできない.そのため,今回は\unknownというラベルを付け,一纏めにして扱った.これが我々の研究で,\exoxが$\triangle$となっている理由である.まとめると,本研究では,\dom{intra(dep)},\dom{intra(zero)},\exow,\exor,\none,そして\exoxと\dom{inter}をまとめた\unknownを扱う.解析の対象とする述語は,BCCWJ-PASにおいて,述語と示されているもののうち,動詞と,事態性名詞とする.\subsection{項種別毎の分布による分野依存性}日本語述語項構造解析に関する先行研究では,単一「メディア」のテキストを扱っており,その多くは新聞記事からなるNAISTTextCorpus1.5を使用していた.本研究の提案手法の評価にはBCCWJ-PASを用い,BCCWJ-PASにより定義されているQAテキスト(Yahoo!知恵袋),ブログテキスト(Yahoo!ブログ),白書,書籍,雑誌,新聞の6種のメディアを用いた.メディアによりテキストの特性が異なる可能性があるため,述語項構造解析の性能はメディアの特性の影響を受ける可能性がある.本研究の目的の1つは,メディア固有の特性を考慮するために分野適応の技術を導入し,それが日本語述語項構造解析に有効であることを確認することである.表~\ref{tab:sentence-length}は,BCCWJ-PASで定義されている各メディアのテキストの平均文長を示したものである.インターネットコンテンツであるQAとブログのテキストは,他のテキストに比べ短い傾向がある.文の長さは,文内述語項構造解析において,項の候補数や,述語と項の距離に影響する.\begin{table}[t]\caption{BCCWJ-PASにおける各メディアのテキストの平均文長(形態素数)}\label{tab:sentence-length}\input{08table03.tex}\end{table}\begin{table}[t]\caption{BCCWJ-PASにおけるメディア毎の,格毎の項種別の出現分布(\%)}\label{tab:across-media}\input{08table04.tex}\end{table}表~\ref{tab:across-media}は,6つのメディアに対して格毎に項種別毎の分布の割合を示したものである.白書は,他のメディアとは異なり,いずれの格も文内ゼロ照応よりも文間ゼロ照応のほうが明らかに少ない.これは,文内に照応先の項が明示されているケースが多いためであると考えられる.これは,表~{\ref{tab:sentence-length}}の白書の平均文長が長くなっていることからも示唆される.ガ格の\exowと\exorの外界照応の分布(影付きの行)は,メディア全体を通して顕著に異なっている.QAの\exowと\exorは他のメディアと比較して,かなり高い数値を示している.これは,QAは,対話掲示板形式のQAテキストであるため,質問者や回答者としての書き手(\exow)と読み手(\exor)がテキスト中で明示的に言及されないためである.ブログも\exowと\exorが高い数値となっているが,これは,QAとは異なり,ブログテキストは,ブログ著者としての書き手(\exow)が話題の中心となることが多いためであると考えられる.白書は,他のメディアとは異なり,外界三人称(\exox)の出現頻度が高い.これは,白書という性質上,組織・集団・団体に対して言及した記述が多く,逆に書き手(\exow)や読み手(\exor)を意識した記述は少ないためであると考えられる.また,白書のヲ格も他のメディアとは異なる分布となっている.白書のテキストを見たところ,白書特有の事態性名詞(開発,活用,利用,報告など)が繰り返し多様されており,これらはヲ格を取るため,\noneは少なくなり,その分{\textsf{intra(dep)}}が多くなっている.出版物(書籍,雑誌,新聞)は,社会的に関心が高く,客観性のある話題が中心となり,テキスト中に情報が欠損してないことが求められるため,外界照応が出現することは少ない.出版物の中では,雑誌の書き手(\exow)と読み手(\exor)の出現頻度が比較的高い.これは,今回対象とした出版物の中では,雑誌が最も著者,読者を意識した記述が多いためであると考えられる. \section{深層リカレントモデル} \label{sec:deep-reccurent-model}我々は,以下の3つの層からなるリカレントニューラルネットワーク(RNN)モデルを用いて,日本語述語項構造解析を実現する.\begin{description}\item[入力層]単語を特徴ベクトルに変換する.\item[隠れ層]bi-directionalRNN層と全結合層.\item[出力層]ソフトマックス関数により,2値分類を行う.\end{description}我々のモデルは,1文を入力とし,文内の述語ごとに解析を行う.文内の解析対象の述語に対する項になりやすさを表す尤度を,入力文の各単語それぞれについて算出する.そして,全単語を比較して最尤単語を項として選択する.本研究では,過去の日本語述語項構造解析に習い,主要な3つの格であるガ格,ヲ格,ニ格を解析対象とするため,格ごとに3つのモデルを使用する.3つのモデルはそれぞれ独立なので,同一の単語が複数の格の項と解析される場合があるが,その場合の対処については何も行っていない.これは,今回使用したBCCWJ-PASコーパスでは,項が含まれている文節の主辞に項のアノテーションが付与されているため,同一の単語が,複数の格の項としてアノテーションされていることがあるためである.1文には複数の述語が含まれる場合があるが,その場合は,素性として入力する解析対象の述語の位置を変えた同一文を複数回入力することで,それぞれの述語について解析を行う.\subsection{モデルの概要}我々のモデルは,各単語にバイナリラベルを出力する.その単語がターゲットの述語に対する解析対象の格の項であるか否かを示すため,それぞれの格に対して別々にモデルを用意する必要がある.図\ref{image2}に,モデルの概要を示す.これは,次のように形式的に表せる.\begin{align}\bm{\overline{x}}&=\bm{w}_{a}\oplus\bm{w}_{f}\oplus\bm{b}_{f}\\\bm{h}^1&=\bilstm(\bm{\overline{x}})\\\bm{h}^2&=\linear(\bm{h}^{1})\\p&=\softmax(\bm{h}^{2})\end{align}\begin{figure}[t]\begin{center}\includegraphics{26-2ia8f1.eps}\end{center}\caption{日本語述語項構造解析のための深層リカレントモデル}\label{image2}\end{figure}我々のモデルは,1文ずつ入力文を受け取る.モデルは,入力文中の単語$\{w_t\}_{0}^T$を,対応する単語の特徴ベクトル$\{{\bm{\overline{x}}}_t\}_0^T$に変換する.単語の特徴ベクトル$\bm{\overline{x}}$は,単語埋め込みベクトル$\bm{w}_{a}$,品詞埋め込みベクトル$\bm{w}_{f}$,及び,構文的特徴ベクトル$\bm{b}_{f}$を連結したベクトルとして表現される.特徴ベクトル$\bm{\overline{x}}$は,1層以上の双方向型のLongshort-termmemoryrecurrentneuralnetwork(BiLSTM)に入力される\cite{Schuster-Bidirectional-1997,Graves-Bidirectional-2005}.そして,$\bilstm(\cdot)$は,各単語に対して,ベクトル$\bm{h}^{1}$を計算し出力する.$\linear(\cdot)$関数は,$\bm{h}^{1}$を受け取り,$\bm{h}^{2}=(h^2_{0},h^2_{1})$を出力する.{$h^2_0$}は単語が述語の項となる程度を表わす値であり,{$h^2_1$}は単語が述語の項にならない程度を表わす値である.最後に$\softmax(\cdot)$関数は,$\bm{h}^2$を受け取り確率$p$を出力する.\paragraph{仮想項}本研究のモデルでは,\none,\exow,\exor,そして\unknownという4つのラベルを出力するために,文の先頭の単語の前にそれらを示す仮想項を追加した.これらの仮想項を以下のように割り当てる.\begin{description}\item[\none]\noneに対してはゼロベクトルを割り当てる.\item[\exow]「僕」の単語ベクトルを割り当てる.これは,日本語で一般的な一人称代名詞の一つである.\item[\exor]「おまえ」の単語ベクトルを割り当てる.これは,日本語で一般的な二人称代名詞の一つである.\item[\unknown]「これ」の単語ベクトルを割り当てる.これは,日本語で一般的な三人称代名詞の一つである.\end{description}日本語には一般的な一人称代名詞,二人称代名詞が複数存在する.今回使用した単語埋め込みベクトルは,その性質上,一人称代名詞と二人称代名詞のコサイン類似度が高く,「私」と「あなた」のコサイン類似度は,それぞれ語彙集合の中で最も高い.そのため,「私」と「あなた」を\exow,\exorの仮想項として採用してしまうと,\exowと\exorをうまく区別できない可能性がある.「僕」は一般的な一人称代名詞の中心に近く,また,二人称代名詞からは比較的遠い.「おまえ」も同様に,一般的な二人称代名詞の中心に近く,また,一人称代名詞からは比較的遠い.そのため,今回は,仮想項の\exow,\exorにそれぞれ「僕」,「おまえ」を採用する.\subsection{入力層}単語埋め込み,品詞埋め込み,および構文的特徴の3つの特徴を定義する.\paragraph{単語埋め込み}我々は,\citeA{Suzuki-Neural-2016}\footnote{JapaneseWikipediaEntityVectorhttp://www.cl.ecei.tohoku.ac.jp/{\textasciitilde}m-suzuki/jawiki\_vector/}によって日本語Wikipediaから作成された単語埋め込みを使用する.今回使用した単語埋め込みの語彙サイズ(形態素数)が{$1,015,474$},今回使用した述語項構造のアノテーションがされた現代日本語書き言葉均衡コーパス(BCCWJ-PAS)に対しての未知語の割合は{$4.69\%$}であった.未知語はいずれも同一のUNKとして扱い,UNKにはランダムに初期化したベクトルをセットした.\paragraph{品詞埋め込み}各単語には,CaboCha\footnote{CaboCha/南瓜:YetAnotherJapaneseDependencyStructureAnalyzerhttp://taku910.github.io/cabocha/}と同じ品詞タグが人手で付与されている.本研究では,品詞埋め込みとして,単語の品詞タグ,及び,3種類の品詞細分類タグ,活用型,活用形の6種類のタグそれぞれに対して,5次元のランダムベクトルを割り当てる.したがって品詞埋め込みは,6層のベクトルを連結することによって作る30次元のベクトルによって表す.欠落している層は,ゼロベクトルで埋める.\paragraph{構文的特徴}構文的特徴ベクトルには,以下の4種類の特徴が含まれている.\begin{enumerate}\itemコーパスに注釈付けられている文節に基づく単語が各文節において主辞か否かを示す二値ベクトル.\itemコーパスに注釈付けられている文節に基づく文頭からの文節距離を示す整数値の特徴ベクトル(入力文の最初の文節の単語は,この値がゼロとなる).\item解析されるターゲットの述語からの距離を示す整数値の特徴ベクトル.\itemその単語が解析対象の述語であるか否かを示す二値ベクトル\end{enumerate}\subsection{隠れ層}隠れ層では,各時刻$t$に,特徴ベクトル${\bm{\overline{x}}}_t$と${\bmh}_{t-1}^{f}$を前向き$\lstm$($\lstm^{f}$)に入力し${\bmh}_{t}^{f}$を計算する.逆に,各時刻$t$に,特徴ベクトル${\bm{\overline{x}}}_t$と${\bmh}_{t+1}^{b}$を後ろ向き$\lstm$($\lstm^{b}$)に入力し${\bmh}_{t}^{b}$を計算する.$\bilstm$は,各時刻$t$で${\bmh}_{t}^{f}$と${\bmh}_{t}^{b}$を連結し,${\bmh}_{t}^{1}$を出力する.\begin{align}{\bmh}_{t}^{1}&=\bilstm({\bm{\overline{x}}}_t)\nonumber\\&=\mathop{\rmLSTM^{\itf}}({\bm{\overline{x}}}_t,{\bmh}_{t-1}^f)\oplus\mathop{\rmLSTM^{\itb}}({\bm{\overline{x}}}_t,{\bmh}_{t+1}^b)\end{align}{\citeA{Matsubayashi-Distance-2018}}は,任意の{$k$}層の双方向型の{$\gru$}({$\bigru$})を用いている.本モデルもこれに習い,{$\bilstm$}には,任意の{$k$}層の{$\bilstm$}を利用する.次に,2次元ベクトル${\bmh}_{t}^{2}$を得るために,$\linear(\cdot)$関数に${\bmh}_{t}^{1}$を入力する.\begin{equation}{\bmh}_t^2=\linear({\bmh}_t^1)\end{equation}\subsection{出力層}出力層では,単語が対象とする述語の項であるか否かを判断する.$\softmax(\cdot)$関数は,2次元ベクトル${\bmh}_t^2$を単語がどの程度対象とする述語の項としてふさわしいかを示す確率値に変換する.\begin{equation}p_t=\softmax({\bmh}_t^2)\end{equation}$p_t$は時刻$t$の単語が項である確率を示す.我々のモデルは,最も高い確率$p_y$を持つ単語を項として選択する.\begin{equation}y=\argmax_{0\leqt\leqT}(p_t)\end{equation} \section{分野適応} \label{sec:domain-adaptation}\subsection{ベースライン}分野適応に対するベースラインには,以下の5つのベースラインモデルを用意した.\begin{enumerate}\item{\ttEach-D}モデルは,単一のメディアのみのデータを使い訓練したモデルである.\item{\ttAll}モデルは,すべてのメディアのデータを使って訓練したモデルである.\item{\ttSmall}モデルは,各メディアの訓練データを75\%に減らし,訓練データのデータサイズを小さくしたモデルである.\item{\ttOut-D}モデルは,アウトドメインのデータのみを使い訓練したモデルである.\item{\ttOne-H}モデルは,すべてのメディアを使って訓練したモデルであるが,{\ttAll}モデルとの違いとして,各メディアを示すための6次元のone-hotベクトルが入力層に追加されている.このモデルは,分野適応のベースラインとして用いる.\end{enumerate}これらのベースラインモデルに対して,以下の5種類の分野適応手法を使ったモデルを用意した.\subsection{Fine-tuning({\ttFT})}1つ目の手法は再学習を行う手法である.すべてのメディアのデータを使ってモデルを訓練し,{\ttAll}モデルを構築する.次に,初期パラメータを{\tt\smallAll}モデルのパラメータにし,ターゲットのメディアのデータのみを使って,訓練することで,各メディアに特化したモデルを構築する.\subsection{Featureaugmentation({\ttFA})}2番目の手法は,すべてのメディアで共通するネットワーク$\bilstm^{c}$に加え,各メディア$m$に対して固有の$\bilstm^{m}$を用意する手法であ~る\cite{Kim-Frustratingly-2016}.このモデルの概要は以下のようになる.\begin{align}{\bm{\overline{x}}}&={\bmw}_a\oplus{\bmw}_f\oplus{\bmb}_f\\{\bmh}^1&=\mathop{\rmBiLSTM^{\itm}}({\bm{\overline{x}}})\oplus\mathop{\rmBiLSTM^{\itc}}({\bm{\overline{x}}})\\{\bmh}^2&=\mathop{\rmlinear^{\itm}}({\bmh}^1)\\p&=\softmax({\bmh}^2)\end{align}メディア毎に固有の$\bilstm^m$は,そのメディアが固有に持っている特性を学習し,共通の$\bilstm^c$は述語項構造解析の一般的な特性を学習することを狙っている.すべてのメディアから無作為に選択したバッチ毎にこのモデルを訓練する.\subsection{Classprobabilityshift({\ttCPS})}3つ目の手法は,各格について,メディア毎の項種別毎の出現分布の違いを反映させる.第~{\ref{sec:problem-setting}}章の表~{\ref{tab:across-media}}から,メディア毎の項種別毎に出現分布に違いがあることが分かった.そこで,モデルの出力に対して,項の種類毎に解析対象のメディアに応じた出現分布で重み付けを行うことで,出現分布の違いを反映させる.訓練データ中で,あるメディア$m$において,解析対象の格として,項種別$tp$が出現する確率を$p_{tp}^{m}$とする.項種別の分布は解析対象のメディアによって異なるため,この分布の差を以下のように利用し,重み付けする.重み付けには,まず,各メディア$m$に対して,2つの関数$f^m(h)$と$g^m(h)$を次のように定義する.\begin{align}f^m(h)&=\frac{p_{tp}^{m}}{p_{tp}^{\rm{All}}}\cdoth\\g^m(h)&=(1-\frac{p_{tp}^{m}}{p_{tp}^{\rm{All}}})\cdoth\end{align}$tp$は,\none,\exow,\exor,\unknown,\dom{intra}のいずれかとなる.ただし,\dom{intra}ラベルは,文内照応の係り受け有り(\dom{intra(dep)})と文内ゼロ照応(\dom{intra(zero)})の両方を含む.2次元ベクトル{${\bmh}^2=(h^2_{0},h^2_{1})$}の{$h^2_0$}は単語が述語の項となる程度を表わす値であり,{$h^2_1$}は単語が述語の項とならない程度を表わす値である.\begin{align}{\bm{\overline{x}}}&={\bmw}_a\oplus{\bmw}_f\oplus{\bmb}_f\\{\bmh}^1&=\bilstm({\bm{\overline{x}}})\\{\bmh}^2&=\linear({\bmh}^1)\\{\bmh}^3&=(f^m(h^2_0),g^m(h^2_1))\label{eq:shift}\\p&=\softmax(\mbox{\boldmath{$h^3$}})\end{align}式~(\ref{eq:shift})は,メディア間の項種別の分布を調整することで,出力を重みづけする.\subsection{Voting({\ttVOT})}~この手法は,上記3つの手法の出力の多数決を取る.もし,3つの手法の出力がすべて異なる場合は,最も確率の高い出力を採用する.\subsection{Mixture({\ttMIX})}最後の手法は,上記3つのFine-tuning,Featureaugmentation,Classprobabilityshiftを1つのモデルとして組み合わせたものである.モデルのネットワークは以下の式のようにFeatureaugmentation,Classprobabilityshiftを1つに組み合わせる.\begin{align}{\bm{\overline{x}}}&={\bmw}_a\oplus{\bmw}_f\oplus{\bmb}_f\\{\bmh}^1&=\mathop{\rmBiLSTM^{\itm}}({\bm{\overline{x}}})\oplus\mathop{\rmBiLSTM^{\itc}}({\bm{\overline{x}}})\\{\bmh}^2&=\mathop{\rmlinear^{\itm}}({\bmh}^1)\\{\bmh}^3&=(f^m(h^2_0),g^m(h^2_1))\\p&=\softmax(\mbox{\boldmath{$h^3$}})\end{align}このネットワークを使って,Fine-tuningと同じように,すべてのメディアのデータを使ってモデルを訓練し,次に,ターゲットのメディアのデータのみを使って,訓練する. \section{実験} \label{sec:experiment}\subsection{実験設定}現代日本語書き言葉均衡コーパスの述語項構造がアノテーションされたコアデータ・セット(BCCWJ-PAS)を使い評価を行う.評価値として,システムが出力した項の位置がBCCWJ-PASで正解の項を表現している位置と一致すれば正解とし,しなければ不正解とする.ただし,共参照関係がある項については,いずれの項を出力しても正解とする.各メディア毎にデータを訓練用に$70\%$,開発用に$10\%$,テスト用に$20\%$に分け使用した.各モデルを最大10エポック訓練し,開発用データにおいて最もF1値が高いモデルを使用した.\paragraph{ハイパーパラメータ}単語埋め込みと品詞埋め込みの次元数は,それぞれ$200$と$30$,各ハイパーパラメータは,ベースラインの1つである{\ttAll}モデルに対して,開発データでのF1値の全メディアの平均値が最大となるように値を定め,それをすべてのモデルで使用した.多層{$\bilstm$}の層の深さ{$k$}に{$\{1,2,3\}$}から{$3$}を,{$\bilstm$}のドロップアウト率に{$\{0.0,0.1,0.2,0.3\}$}から{$0.2$}を,学習時のバッチサイズに{$\{16,32,64\}$}から{$64$}とした.本研究のモデルは,weightdecayは{$0$}とし,Adam~{\cite{Kingma-Adam-2014}}を使い,{$\alpha$}には,{$\{0.01,0.001,0.0001,0.00001\}$}から{$0.001$},{$\beta=0.9$}として最適化する.Fine-tuningについては,weightdecayのみ$0.0001$とした.\begin{table}[b]\caption{ガ格のベースライン実験結果(F1値)}\label{tb:NOM-base-f1}\input{08table05.tex}\end{table}\subsection{ベースライン実験結果}表~\ref{tb:NOM-base-f1},表~\ref{tb:ACC-base-f1},表~\ref{tb:DAT-base-f1}は,それぞれガ格,ヲ格,ニ格の各ベースラインモデルの実験結果を示している.それぞれ,行見出しがターゲットのメディアを,列見出しが各モデルを示している.また行見出しの隣にテストデータの項数(テスト項数)を,列見出しの下に訓練データの項数(訓練項数)を示している.セルの各スコアはテストデータに対するF1値である.なお,{\tt\smallSmall},{\tt\smallOut-D},{\tt\smallOne-H}モデルは,{\tt\smallAll}モデルに対してMcNemar検定を行い得られたP値の有意水準が{$0.05$}以下の場合{$\dagger$}を,{$0.01$}以下の場合{$\ddagger$}を,それぞれ右肩に示している.\begin{table}[t]\caption{ヲ格のベースライン実験結果(F1値)}\label{tb:ACC-base-f1}\input{08table06.tex}\end{table}\begin{table}[t]\caption{ニ格のベースライン実験結果(F1値)}\label{tb:DAT-base-f1}\input{08table07.tex}\end{table}{\tt\smallEach-D}モデルは,訓練データのメディアが解析対象のメディアのF1値に与える影響を確認するために用意したモデルである.ガ格,ヲ格,ニ格ともに,訓練データのデータ量がメディアによっては大きく違うにもかかわらず,全体的に,訓練データとテストデータが同じ(インドメイン)メディアの場合,モデルのF1値が高い.ただし,解析対象がブログテキストの場合,訓練データが同じメディアであるブログテキストよりも,新聞の方がF1値が高い結果となっている.これは,ブログテキストの訓練データのデータ量が新聞のテキストに比べ圧倒的に少ないためであると考えられる.{\tt\smallEach-D}モデルの結果から,ほとんどのメディアにおいては,解析対象のメディアで訓練させたほうがF1値が高く分野依存性があることがわかる.ガ格,ヲ格,ニ格ともに,{\tt\smallAll}モデルは,{\tt\smallSmall}モデルよりもF1値が高い.これは,訓練データの量が多い方がF1値が向上することを示している.これらの実験結果から,訓練データの量と,データのメディアの両方を考慮することが必要であるといえる.ガ格,ヲ格,ニ格ともに,{\tt\smallAll}モデルは,すべてのメディアにおいて,{\tt\smallEach-D}モデルよりもF1値が高い.これは,インドメインのデータの他に,アウトドメインの訓練データも学習データとして有効に機能することを示している.ただし,訓練データからインドメインのデータを削除すると,データ量の効果が期待できず性能が低下する.{\tt\smallOut-D}モデルは,ターゲットメディアが新聞である場合\footnote{新聞の{\tt\smallOut-D}モデルの訓練データは,$123,559-33,326=90,233$である.}を除いて,{\tt\smallSmall}モデルよりも訓練データのデータ量が多い.にもかかわらず,ガ格では,解析対象が雑誌の場合を除いて,{\tt\smallSmall}モデルよりもF1値が低い.ヲ格においても,解析対象が白書の際は{$0.037$},新聞の際は{$0.024$},{\ttOut-D}モデルのほうが低い.ヲ格の解析対象がその他のメディア,及び,ニ格については,{\ttSmall}モデルと,{\ttOut-D}モデルとであまり大きな差は見られないが,{\ttOut-D}モデルのほうが優位に働くということはない.つまり,訓練データがターゲットメディアのデータを含んでいない場合,データサイズは必ずしも訓練データとテストデータ間でのメディアの不一致を補うとは限らない.性能を上げるためには,訓練データにターゲットのメディアのデータが含まれていることが重要であり,インドメイン,アウトドメイン両方のデータをうまく工夫して使う必要がある.{\tt\smallAll}モデルと{\tt\smallOne-H}モデルを比較すると,必ずしも{\tt\smallOne-H}モデルのF1値が高いというわけでない.ガ格では,解析対象がブログテキストの場合を除いて{\ttAll}モデルのほうが性能が高い.つまり,入力データのメディアを判別するための素性をone-hotベクトルのような形で与えても,うまくメディアの違いを考慮できないことがわかる.\begin{table}[b]\vspace*{-0.2\Cvs}\caption{ガ格の分野適応実験結果(F1値)}\label{tb:NOM-adapt-f1}\input{08table08.tex}\vspace*{-0.25\Cvs}\end{table}\subsection{分野適応}表~{\ref{tb:NOM-adapt-f1}},表~{\ref{tb:ACC-adapt-f1}},表~{\ref{tb:DAT-adapt-f1}}は,それぞれガ格,ヲ格,ニ格の各分野適応のモデルの結果を示している.左から順にそれぞれ,Fine-tuning({\ttFT}),Featureaugmentation({\ttFA}),Classprobabilityshift({\ttCPS}),Voting({\ttVOT}),Mixture({\ttMIX})の結果を示している.なお,分野適応の各モデルに対しても同様に,{\tt\smallAll}モデルに対してMcNemar検定より得られたP値の有意水準が{$0.05$}以下の場合{$\dagger$}を,{$0.01$}以下の場合{$\ddagger$}を,それぞれ右肩に示している.また,比較として,左側にベースラインの{\tt\smallAll}モデルの結果を示している.表~{\ref{tb:NOM-adapt-f1}}のガ格,及び,表~{\ref{tb:ACC-adapt-f1}}のヲ格に対する実験結果をみると,{\tt\smallVOT}モデルは,すべてのメディアにおいて,ベースラインと分野適応の中で最もF1値が高い.ベースラインの{\ttAll}モデルと比較し,ガ格においては,QAテキストで最大{$0.030$},ヲ格においては,ブログテキストで{$0.013$}向上している.他の分野適応モデルをみてみると,{\ttFT},{\ttFA},{\ttCPS}モデルのいずれも,全てのテキストメディアを通じてベースラインよりもF1値が高いモデルは無く,解析対象のメディアによって,効果がある分野適応手法にはばらつきがある.一方,表~{\ref{tb:DAT-adapt-f1}}のニ格に対する実験結果を見ると,分野適応により一部F1値の向上が見られるものの,解析対象のメディアによっては,{\ttAll}モデルや{\ttOne-H}モデルのF1値が最も高い場合もある.ベースラインモデルによる実験結果では,ガ格ほど顕著ではないものの,ヲ格,ニ格も,メディア依存性が見られた.だが,今回使用した分野適応手法はニ格では,うまく働かない場合もある.\begin{table}[t]\caption{ヲ格の分野適応実験結果(F1値)}\label{tb:ACC-adapt-f1}\input{08table09.tex}\end{table}\begin{table}[t]\caption{ニ格の分野適応実験結果(F1値)}\label{tb:DAT-adapt-f1}\input{08table10.tex}\end{table}表~\ref{tb:nom-details},表~\ref{tb:acc-details},表~\ref{tb:dat-details}は,ガ格,ヲ格,ニ格それぞれの各メディアにおける項種別毎のF1値を示している.表~\ref{tab:across-media}によると,ガ格が,QAテキストでは\exowと\exorが,ブログテキストでは\exowが比較的頻出する.そのため,これらの外界照応のF1値を個別に分析することは,正しくそのメディアに適応できたかを考える上で重要である.\begin{table}[p]\caption{ガ格の実験結果詳細(F1値)}\label{tb:nom-details}\input{08table11.tex}\end{table}\begin{table}[p]\caption{ヲ格の実験結果詳細(F1値)}\label{tb:acc-details}\input{08table12.tex}\end{table}\begin{table}[p]\caption{ニ格の実験結果詳細(F1値)}\label{tb:dat-details}\input{08table13.tex}\end{table}表~\ref{tb:nom-details}では.QAテキストの\exowと\exor,ブログテキストの\exowの箇所(影付きの行)を見ると,一部,例外はあるものの{\ttAll}モデルと比べ,分野適応モデルのF1値が向上している.そのため,分野適応を導入することで,これらの外界照応が出現する際の偏りを解決できたといえる.また,ベースラインの{\ttAll}モデルと,分野適応手法において,最も解析精度の高かった{\ttVOT}モデルを比較すると,ニ格のブログテキストの{\textsf{intra(dep)}}を除き,{\textsf{intra(dep)}},{\textsf{intra(zero)}}ともに,すべて解析精度が高くなっている.そのため,直接係り受け,及び文内ゼロ照応にも分野依存性があり,それらが分野適応の導入によって解消されたといえる.\begin{table}[b]\caption{分野適応により正解となった例(ガ格)}\label{tab:become_correct}\input{08table14.tex}\end{table}表~\ref{tab:become_correct}は,{\tt\smallAll}モデルでは正しく解析されなかったが,{\tt\smallVOT}モデルにより正しく解析されるようになったガ格の例を示している.ターゲットの述語は太字で示している.QAテキストには,対話文が含まれているので,最初の例にあるように,読み手(\exor)は「やめた」のような述語のガ格に当てはまる傾向が高い.ブログテキストには,書き手が自分の経験や意見を書く事が多い.そういった場合,表~{\ref{tab:become_correct}}の2番目の例にあるようにガ格には,書き手(\exow)が埋まる傾向がある.白書は,その性質上,照応先候補として組織・集団・団体が埋まりやすく,それらは外界三人称となることが多い.そのため,今回の実験設定では,\unknownが埋まる傾向がある.書籍では,小説のような物語文の場合,照応先候補として物語の登場人物が埋まりやすい.逆に照応先として書き手(\exow)や読み手(\exor)が出てくることは稀である.例では,文中に,述語のガ格となる,物語の登場人物が出てきていないため,今回の実験設定では,\unknownが正解となる.雑誌では,読み手が存在することが想定される.そのため,例のように読み手に訴えかける場合,その述語のガ格には読み手(\exor)が埋まる傾向がある.新聞の例は,新聞記事のタイトルの見出しテキストである.見出しテキストでは,最初の句がガ格を埋める場合などにおいては,その格助詞は省略されることがある.表~\ref{tab:become_correct}の例は,いずれも,文単体のみを見れば,{\tt\smallAll}モデルの出力も一見間違いではなさそうである.だが,上記のようにそれぞれのメディアの特性を考えると,間違いであることがわかる.我々の分野適応モデルは,多数の例を観察した結果,これらの例に示されているような項の曖昧性が高い文においてメディア別の傾向をうまくとらえていることが確認できた. \section{結論} \label{sec:conclusion}本稿では,日本語の文内述語項構造解析において,外界照応まで扱うために新たな問題設定を定義し,外界一人称(書き手),外界二人称(読み手),外界三人称(その他)として区別して扱うための仮想項の導入,及び,効果的な分野適応手法を提案した.そして,我々は,RNNベースのモデルと3種類の異なる分野適応技術とその組み合わせを導入し,計5つの分野適応方法を提案した.現代日本語書き言葉均衡コーパスの述語項構造がアノテーションされたコアデータ・セット(BCCWJ-PAS)を用いて,6種のメディアに対してコーパスを分析した結果,様々なメディアのテキストを述語項構造解析する際は,外界一人称,外界二人称まで含めて解析する必要があることを示し,分野により項の種類毎に出現数が違うことを示した.また,評価実験によって,述語項構造解析の分野依存性があることを示した.特にガ格,ヲ格の解析では,分野適応の導入によって,性能を改善できることを確認した.解析対象のメディアによって幅はあるものの,ベースラインと比較し,ガ格では,{$1.6$}ポイント〜最大{$3.0$}ポイント,ヲ格では{$0.6〜0.9$}ポイント上昇している.本研究の提案した,仮想項,及び,分野適応手法は,今回提案したRNNベースモデル以外にも様々なニューラルネットモデルに対して導入可能である.\acknowledgment問題設定に関する議論について,松林優一郎博士と笹野遼平博士にご意見をいただきました.厚く御礼申し上げます.また,本稿を執筆するにあたり,Enago(www.enago.jp)に英文校正をしていただきました.ありがとうございます.本論文の内容の一部は,The32ndPacificAsiaConferenceonLanguage,InformationandComputation,第5回自然言語処理シンポジウム(第238回自然言語処理研究発表会)で報告したものである\cite{Mizuki-Effectiveness-2018,Mizuki-Exophora-2018}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen\BBA\Ng}{Chen\BBA\Ng}{2016}]{Chen-Chinese-2016}Chen,C.\BBACOMMA\\BBA\Ng,V.\BBOP2016\BBCP.\newblock\BBOQChineseZeroPronounResolutionwithDeepNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\778--788}.\bibitem[\protect\BCAY{Graves,Fern{\'{a}}ndez,\BBA\Schmidhuber}{Graveset~al.}{2005}]{Graves-Bidirectional-2005}Graves,A.,Fern{\'{a}}ndez,S.,\BBA\Schmidhuber,J.\BBOP2005\BBCP.\newblock\BBOQBidirectionalLSTMNetworksforImprovedPhonemeClassificationandRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalConferenceonArtificialNeuralNetworks:FormalModelsandTheirApplications-VolumePartII},ICANN'05,\mbox{\BPGS\799--804},Berlin,Heidelberg.Springer-Verlag.\bibitem[\protect\BCAY{Haji{\v{c}},Ciaramita,Johansson,Kawahara,Mart{\'{\i}},M{\`{a}}rquez,Meyers,Nivre,Pad{\'{o}},{\v{S}}t{\v{e}}p{\'{a}}nek,Stra{\v{n}}{\'{a}k},Surdeanu,Xue,\BBA\Zhang}{Haji{\v{c}}et~al.}{2009}]{Hajic-The-2009}Haji{\v{c}},J.,Ciaramita,M.,Johansson,R.,Kawahara,D.,Mart{\'{\i}},M.~A.,M{\`{a}}rquez,L.,Meyers,A.,Nivre,J.,Pad{\'{o}},S.,{\v{S}}t{\v{e}}p{\'{a}}nek,J.,Stra{\v{n}}{\'{a}k},P.,Surdeanu,M.,Xue,N.,\BBA\Zhang,Y.\BBOP2009\BBCP.\newblock\BBOQTheCoNLL-2009SharedTask:SyntacticandSemanticDependenciesinMultipleLanguages.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceonComputationalNaturalLanguageLearning:SharedTask},CoNLL'09,\mbox{\BPGS\1--18},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hangyo,Kawahara,\BBA\Kurohashi}{Hangyoet~al.}{2013}]{Hangyo-Japanese-2013}Hangyo,M.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2013\BBCP.\newblock\BBOQJapaneseZeroReferenceResolutionConsideringExophoraandAuthor/ReaderMentions.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\924--934}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hayashibe,Komachi,\BBA\Matsumoto}{Hayashibeet~al.}{2011}]{Hayashibe-Japanese-2011}Hayashibe,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQJapanesePredicateArgumentStructureAnalysisExploitingArgumentPositionandType.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\201--209}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{He,Lee,Lewis,\BBA\Zettlemoyer}{Heet~al.}{2017}]{He-Deep-2017}He,L.,Lee,K.,Lewis,M.,\BBA\Zettlemoyer,L.\BBOP2017\BBCP.\newblock\BBOQDeepSemanticRoleLabeling:WhatWorksandWhat'sNext.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\473--483}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2007}]{Iida-Naist-2007}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblockNAISTテキストコーパス:述語項構造と共参照関係のアノテーション.\\newblock\Jem{情報処理学会研究報告自然言語処理(NL)},{\Bbf2007}(7),\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{Iida-A-2011}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\804--813}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Higashinaka,\BBA\Izumi}{Imamuraet~al.}{2014}]{Imamura-Predicate-2014}Imamura,K.,Higashinaka,R.,\BBA\Izumi,T.\BBOP2014\BBCP.\newblock\BBOQPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolutionforDialogueSystems.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\806--815},Dublin,Ireland.DublinCityUniversityandAssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{Imamura-Discriminative-2009}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-argumentStructureAnalysiswithZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},ACLShort'09,\mbox{\BPGS\85--88},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kayama}{Kayama}{2003}]{kayama2013}Kayama,Y.\BBOP2003\BBCP.\newblock\BBOQL1AquisitionofJapaneseZeroPronouns:TheEffectofDiscourseFactors.\BBCQ\\newblockIn{\BemProceedingsofthe2003AnnualConferenceoftheCanadianLinguisticAssociation},\mbox{\BPGS\109--120}.\bibitem[\protect\BCAY{Kim,Stratos,\BBA\Sarikaya}{Kimet~al.}{2016}]{Kim-Frustratingly-2016}Kim,Y.-B.,Stratos,K.,\BBA\Sarikaya,R.\BBOP2016\BBCP.\newblock\BBOQFrustratinglyEasyNeuralDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofCOLING2016,the26thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\387--396}.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{Kingma-Adam-2014}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1412.6980}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014aa}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsubayashi\BBA\Inui}{Matsubayashi\BBA\Inui}{2017}]{Matsubayashi-Revisiting-2017}Matsubayashi,Y.\BBACOMMA\\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQRevisitingtheDesignIssuesofLocalModelsforJapanesePredicate-ArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\128--133}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Matsubayashi\BBA\Inui}{Matsubayashi\BBA\Inui}{2018}]{Matsubayashi-Distance-2018}Matsubayashi,Y.\BBACOMMA\\BBA\Inui,K.\BBOP2018\BBCP.\newblock\BBOQDistance-FreeModelingofMulti-PredicateInteractionsinEnd-to-EndJapanesePredicate-ArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\94--106}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ouchi,Shindo,Duh,\BBA\Matsumoto}{Ouchiet~al.}{2015}]{Ouchi-Joint-2015}Ouchi,H.,Shindo,H.,Duh,K.,\BBA\Matsumoto,Y.\BBOP2015\BBCP.\newblock\BBOQJointCaseArgumentIdentificationforJapanesePredicateArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\961--970}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ouchi,Shindo,\BBA\Matsumoto}{Ouchiet~al.}{2017}]{Ouchi-Neural-2017}Ouchi,H.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQNeuralModelingofMulti-PredicateInteractionsforJapanesePredicateArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1591--1600}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Rello,Baeza-Yates,\BBA\Mitkov}{Relloet~al.}{2012}]{Rello-Elliphant-2012}Rello,L.,Baeza-Yates,R.,\BBA\Mitkov,R.\BBOP2012\BBCP.\newblock\BBOQElliphant:ImprovedAutomaticDetectionofZeroSubjectsandImpersonalConstructionsinSpanish.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},EACL'12,\mbox{\BPGS\706--715},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{珊瑚\JBA西川\JBA徳永}{珊瑚\Jetal}{2018}]{Mizuki-Exophora-2018}珊瑚彩主紀\JBA西川仁\JBA徳永健伸\BBOP2018\BBCP.\newblock外界一人称と二人称を考慮する日本語述語項構造解析の分野適応.\\newblock\Jem{情報処理学会第238回自然言語処理研究会NL-238-13},\mbox{\BPGS\1--13}.\bibitem[\protect\BCAY{Sango,Nishikawa,\BBA\Tokunaga}{Sangoet~al.}{2018}]{Mizuki-Effectiveness-2018}Sango,M.,Nishikawa,H.,\BBA\Tokunaga,T.\BBOP2018\BBCP.\newblock\BBOQEffectivenessofDomainAdaptationinJapanesePredicate-ArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemPacificAsiaConferenceonLanguage,InformationandComputation}.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{Sasano-A-2011}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemIJCNLP},\mbox{\BPGS\758--766}.\bibitem[\protect\BCAY{Schuster\BBA\Paliwal}{Schuster\BBA\Paliwal}{1997}]{Schuster-Bidirectional-1997}Schuster,M.\BBACOMMA\\BBA\Paliwal,K.~K.\BBOP1997\BBCP.\newblock\BBOQBidirectionalrecurrentneuralnetworks.\BBCQ\\newblock{\BemIEEETransactionsonSignalProcessing},{\Bbf45},\mbox{\BPGS\2673--2681}.\bibitem[\protect\BCAY{Shibata,Kawahara,\BBA\Kurohashi}{Shibataet~al.}{2016}]{Shibata-Neural-2016}Shibata,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016\BBCP.\newblock\BBOQNeuralNetwork-BasedModelforJapanesePredicateArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1235--1244}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Surdeanu,Johansson,Meyers,M{\`{a}}rquez,\BBA\Nivre}{Surdeanuet~al.}{2008}]{Surdeanu-The-2008}Surdeanu,M.,Johansson,R.,Meyers,A.,M{\`{a}}rquez,L.,\BBA\Nivre,J.\BBOP2008\BBCP.\newblock\BBOQTheCoNLL-2008SharedTaskonJointParsingofSyntacticandSemanticDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthConferenceonComputationalNaturalLanguageLearning},CoNLL'08,\mbox{\BPGS\159--177},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Suzuki,Matsuda,Sekine,Okazaki,\BBA\Inui}{Suzukiet~al.}{2016}]{Suzuki-Neural-2016}Suzuki,M.,Matsuda,K.,Sekine,S.,Okazaki,N.,\BBA\Inui,K.\BBOP2016\BBCP.\newblock\BBOQNeuralJointLearningforClassifyingWikipediaArticlesintoFine-grainedNamedEntityTypes.\BBCQ\\newblockIn{\BemProceedingsofthe30thPacificAsiaConferenceonLanguage,InformationandComputation:Posters},\mbox{\BPGS\535--544}.\bibitem[\protect\BCAY{平\JBA田中\JBA藤田\JBA永田}{平\Jetal}{2014}]{Taira-Business-2014}平博順\JBA田中貴秋\JBA藤田早苗\JBA永田昌明\BBOP2014\BBCP.\newblockビジネスメール文に対する日本語述語項構造解析の検討.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\1019--1022}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{Taira-A-2008}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisUsingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'08,\mbox{\BPGS\523--532},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yang,Zhuang,\BBA\Zong}{Yanget~al.}{2015}]{Yang-Domain-2015}Yang,H.,Zhuang,T.,\BBA\Zong,C.\BBOP2015\BBCP.\newblock\BBOQDomainAdaptationforSyntacticandSemanticDependencyParsingUsingDeepBeliefNetworks.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\271--282}.\bibitem[\protect\BCAY{Yin,Zhang,Zhang,\BBA\Liu}{Yinet~al.}{2017}]{Yin-Chinese-2017}Yin,Q.,Zhang,Y.,Zhang,W.,\BBA\Liu,T.\BBOP2017\BBCP.\newblock\BBOQChineseZeroPronounResolutionwithDeepMemoryNetwork.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1309--1318}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yoshikawa,Asahara,\BBA\Matsumoto}{Yoshikawaet~al.}{2013}]{Yoshikawa-Jointly-2013}Yoshikawa,K.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQJointlyExtractingJapanesePredicate-ArgumentRelationwithMarkovLogic.\BBCQ\\newblock{\BemJournalofNaturalLanguageProcessing},{\Bbf20}(2),\mbox{\BPGS\251--271}.\bibitem[\protect\BCAY{Zhou\BBA\Xu}{Zhou\BBA\Xu}{2015}]{Zhou-End-2015}Zhou,J.\BBACOMMA\\BBA\Xu,W.\BBOP2015\BBCP.\newblock\BBOQEnd-to-endLearningofSemanticRoleLabelingusingRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemACL(1)},\mbox{\BPGS\1127--1137}.TheAssociationforComputerLinguistics.\end{thebibliography}\begin{biography}\bioauthor{珊瑚彩主紀}{2017年東北大学工学部情報知能システム総合学科卒業.2019年東京工業大学情報理工学院情報工学系終了.同年,株式会社メルカリ入社.修士(工学).自然言語処理,特に述語項構造解析の研究に従事.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年,日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学情報理工学院助教.2017年IE経営大学院修士課程修了.博士(工学).自然言語処理,特に自動要約,自然言語生成の研究に従事.TheAssociationforComputationalLinguistics,言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\end{biography}\biodate\end{document}
V03N04-01
\section{まえがき} \label{sec:1shou}最近,国文学の分野においても,文学作品のテキストをコンピュータに入力し,研究に活用しようとする動きが盛んである~\cite{dbwest:95}.これは日本語処理可能なパソコンなどの普及により,国文学の研究者が,自分の手でデータを作成する環境が整ってきたことによる.すでに,多くの文学作品が電子化テキストとして作成され,蓄積され,流通され始めてきている.例えば,村上ら~\cite{murakami:89}による語彙索引作成を目的とした幸若舞の研究は,最も初期のものである.これは田島ら~\cite{tazima:82}により,万葉集を始めとする多くの文学作品の電子化テキスト作成の試みに引き継がれている.最近では,内田ら~\cite{utida:92}は情報処理語学文学研究会の活動を通じて,パソコン通信などにより電子化テキストの交換を行っている.また,伊井,伊藤ら~\cite{ii:93,ito:92}による国文学データベースの作成と電子出版活動も注目されている.とくに,源氏物語諸本の8本集成データベースや国文学総合索引の研究成果がある.一方,長瀬~\cite{nagase:90}は源氏物語の和英平行電子化テキストを作成し,オックスフォード大学に登録し公開した.また,出版社による電子化テキストの提供サービスも始まっている~\cite{benseisha:93,iwanami:95}.しかしながら,大きな問題がある.一般に,研究者は自分のためのデータを作っている.そのため,システム,文字コ−ド,外字処理,データの形式や構造などに関しての仕様が,研究者個人に依存している.さらに,蓄積した情報資源の流通をあまり意識していない.すなわち,苦労して蓄積したデータが活用されにくく,また同じ作品の重複入力の問題などが指摘されている.したがって,データ入力の共通基盤の確立と適切な標準化が必要である.とくに,文学作品の電子化テキストを作るためのデータ記述ルールが必要である.現在,人文科学のための定まったデータ記述のルールは無い.SGML:StandardGeneralizedMarkupLanguage~\cite{JIS:94}に基礎をおくTEI:TextEncodingInitiativeなどの活動~\cite{burnard:94}があるが,その成果は未だ実用化に至っていない.とりわけ,人文科学領域の日本語テキストへの適用は,国文学における数例~\cite{hara:95}を除けばほとんど無い.国文学研究資料館において,電子化テキストのデータ記述についての試みがなされてきている~\cite{yasunaga:92,yasunaga:94,yasunaga:95b,kokubun:92}.例えば,日本古典文学大系(岩波書店),噺本大系(東京堂出版)などの全作品の全文データベースの開発が進められている.また,最近では正保版本歌集「二十一代集」を直接翻刻~\footnote{国文学の用語はまとめて,付録\ref{sec:furoku1}で解説している.なお,国文学ではテキストを本文(ホンモン)と言う.以下では本文を用いる.}しながら,データベースに構築している.これらはテキストのデータベース化を指向したものであるが,テキストデータの記述のための基準文法が定められている.この基準文法をKOKIN(KOKubungakuINformation)ルールと呼んでいる.KOKINルールは国文学作品を対象とする電子化テキスト記述用のマークアップ文法である.本稿は,国文学作品テキストのデータ記述文法について述べている.第2章では,電子化テキストの目的と研究対象をまとめ,データ記述の考察上不可欠と考えられる本とテキストの情報構造を分析し,まとめている.第3章では,データ記述のルール化のための基本原則を考察している.作品とテキストの構造記述が必要なこと,及びテキスト表記の記述が必要なことなどをまとめている.第4章では,KOKINルールを3つの基本ルールに分けて定義し,それぞれについて考察している.第5章では,実際のデータ作成とそれに基づくデータベース作成の事例などから,KOKINルールを評価している.研究成果としては,すでに国文学研究資料館において,本文データベースとして試験運用が開始されている.研究者による利用結果からは,文学研究に有用であるとの評価を得,概して評判がよい.最後に,問題点などを整理している. \section{電子化本文作成のための条件整理} \label{sec:2shou}\subsection{電子化本文の目標}\label{sec:2.1setu}電子化本文の作成は研究の効率化をはかることが目的であるが,新しい研究テーマへの展開やデータベースとしての発見的利用も期待されている.例えば,大量の資料,情報を扱った考察が可能になり,自説の組立や確認の度合いが飛躍的に高まる.単語や語形の検索はもとより,単語が現れる環境の調査が可能になる.組版などの印刷物では表せないことが可能になる.さらに,作品に記載されていないことの発見的検索が可能になる~\cite{kondou:91}.国文学の研究対象は,上代の神話から現代の作品まで全ての時代に渡り,地域的にも歴史上のわが国全土を網羅する.また,古典文学は千数百年に渡る歴史を持ち,ジャンルも多様である.表1に,散文,韻文,戯曲のカテゴリに大別し,その代表的ジャンルの例を示す.しかし,絵詞\yougoのようにこの分類に馴染まないものも多い.\vspace*{-2mm}\begin{table}[htbp]\begin{center}\leavevmode\caption{国文学作品のジャンル区分}\label{tab:hyou1}\def\arraystretch{}\begin{tabular}{c|l}\hlineカテゴリ&\multicolumn{1}{c}{ジャンル}\\\hline散文&神話,伝承,風土記,縁起,史書,軍記,物語,\\[-1mm]&説話,論評,随筆,日記,紀行\\\hline韻文&歌謡,和歌,連歌,俳諧,漢詩,和讃,今様\\\hline演劇&能,狂言,歌舞伎,浄瑠璃,催馬楽\\\hlineその他&祝詞,声明,宣命,談義,絵詞,絵解き\\\hline\end{tabular}\end{center}\end{table}\vspace*{-2mm}このような様々な作品を統一的に電子化することは不可能である.そこで,次のような段階を経ながら,電子化の経験を積むこととした.\begin{description}\item[第1段階:]時代,ジャンルを網羅するような基準本文を作る.\item[第2段階:]個別のジャンルまたは作品の深化を行う.\end{description}これは,まず国文学作品の全般的な様相を知り,次いで個別の作品の伝本の全ての本文校訂に進むことを可能とするプロセスを考えるためである.したがって,第1段階での網羅性は文学作品の本文の全体的な様相を把握し,その上で電子化の方策を考えることが可能な程度の作品の種類と量を必要とする.また,これには実際にデータを作成し,その過程から知識を得て行くことが不可欠である.また,写本や刊本\yougoから直接電子化本文を作ることはかなり難しい.規範的な標本があれば,あるいは典拠と言って良いが,作業効率は格段に高まる.研究者が最も望むものは,第2段階の専門領域の電子化本文である.基準本文は第2段階の電子化本文作成にとって,重要な要件と考えられる.何を基準とするかの問題がある.国文学や歴史学では古記録,古文書,古典籍などの研究対象資料(文献資料と言う)を翻刻する場合に,校訂作業が不可欠である.作品の多くの伝本\yougoを比較参照し,書写文字などによる本文の意味や用法を考察し,作品の本文を定める(定本と言う).すなわち,校訂本が作られる.このことから,基準本文には定本としての校訂本を基礎とすべきである.現在までに研究対象とした作品の一覧を,表2に示す.これらは二十一代集を除き,校訂本からのデータ作成である.第1段階として,時代及びジャンルを網羅した規範的な校訂本のデータベースを準備することを目標にして,選定している.\begin{table}[htbp]\begin{center}\leavevmode\caption{本文データベースの研究対象作品}\label{tab:hyou2}\def\arraystretch{}\begin{tabular}{c|c|c|c|c}\hline&日本古典文学大系&噺本大系&假名草子集成&正保版本歌集*\\[-4mm]校訂本&&&&\\[-4mm]&岩波書店&東京堂出版&東京堂出版&二十一代集\\\hline&全100巻&全20巻&全12巻&\\[-2mm]作品数&約560作品&380作品&70作品&全21作品\\[-2mm]&&約2万噺&約1千話&\\\hline文字数&約3千万字&約700万字&約400万字&約150万字\\\hline&約3千字\hspace*{3.4mm}&無し&約100字&無し\\[-4mm]外字数&&&&\\[-4mm]&約600字**&{\footnotesize(絵文字などを除く)}&{\footnotesize(絵文字などを除く)}&\\\hline\begin{minipage}[t]{15mm}\vspace*{5mm}\begin{center}備考\end{center}\end{minipage}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&校訂本\\[-1.5mm]・&時代,ジャンルを網羅する規範的本文\\[-1.5mm]\end{tabular}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&校訂本\\[-1.5mm]・&江戸前期,中期の小話集\\[-1.5mm]・&小噺の類型化などに最適\\\end{tabular}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&校訂本\\[-1.5mm]・&室町期,江戸前期の説話集\\[-1.5mm]\end{tabular}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&版本である\\[-1.5mm]・&翻刻と同時に,データベース化\\[-1.5mm]\end{tabular}\\\hline\end{tabular}\bigskip{\small\begin{tabular}{cl@{~}l}〈注〉&*&校訂本ではなく,版本である.\\[-2mm]&**&国文学研究資料館作成JIS外字を除く,作成すべき外字の概数.\\[-2mm]&&なお,文字数は概数で示す.\\[-2mm]\end{tabular}}\end{center}\end{table}\subsection{電子化本文の情報構造}\label{sec:2.2setu}\subsubsection{本文と本の情報構造}\label{sec:2.2.1setu}電子化本文を作成するに当たって,まず取り扱う情報の種類と性質を整理する必要がある.本文は校訂本から選んだ.このとき,この本文は校訂という枠組の中で成立する.すなわち,電子化本文は純粋な本文データの他に,校訂に関する情報を持つ必要がある.本文データが単独で利用されることはない.本文とその本に関する情報は不可分である.図1に,このような情報を階層的に構造化して示す.これは本と作品,本文の情報構造を明確化し,その上で本の論理構造を定義するものである.国文学におけるこのような整理はなく,図1はやゝ常識的ではあるが,現在有用であるとされている.ここで,本と作品の物理構造を考えておく.本は作品を記載する.この関係は通常は1対1であるが,古典籍では多対1あるいは逆に1対多も多い.多対1は作品が分冊される形態であり,1対多は複数の作品がまとめられる場合である.これは伝本の形態によって異なる.このような情報構造は図1によって記述できる.さらに,よく和歌集などに見られる合綴本などの構造記述も可能である.なお,本文が文献資料から直接選ばれる場合も,実質的に翻刻,校訂作業を経るから,図1の情報構造が適応できる.\begin{figure}[htbp]\begin{center}\leavevmode\vspace*{-2mm}\epsfile{file=1-1.eps,width=118mm}\vspace*{5mm}\caption{電子化本文の情報構造の解析と定義}\label{fig:1}\end{center}\end{figure}\subsubsection{本の情報構造}\label{sec:2.2.2setu}図1(a)は,本の構造を示す.本の構造は本の物理的なモノとしての種類と形態を表す.本は伝来されたものである.これを本の系譜構造として把握する.また,本の情報とは本に関わる情報,言わば属性情報であり,階層化して定義する.本の情報構造は3レベルの階層で定義する.図において,本の情報は文献資料情報と校訂本情報とから成る.文献資料情報は底本\yougo,諸本(または異本\yougoとも言う),それらの系譜に関わる情報から成る.また,底本情報は書誌,所蔵,及び成立に関する情報から成り,諸本情報も同様である.書誌,所蔵に関わる情報は図書館などで一般に用いられている情報に加え,古典籍特有の情報項目を持つ.成立情報は底本及び諸本の本文の成立に関わる情報である.通常,校訂は底本を基軸とし他の伝本を参照しながら行われる.すなわち,底本は諸本の中で位置付けられる.位置付けに関わる情報は本の成立に関わる構造の把握と考えられる.一方,校訂本情報は本としての構造を持ち,書誌情報などによって同定される.校訂本には成立に関する情報は無いと考えられるが,ここでは一般化して考える.同一の作品には複数の校訂本があるが,校訂本としての性格から独立して扱うことは可能である.ただし,文献資料情報と同様に諸校訂本との関連を参照する必要がある場合には,諸校訂本情報として記述する~\footnote{以下,底本に関する用語には“元”を付し,校訂本に関する用語には“原”を付して,混乱を避ける.例えば,底本ではその本文を元・本文とし,校訂本はその本文を原・本文とする.また,校訂本を原本と呼び,その行を原行,語を原語などと呼ぶ.}.\subsubsection{本文の情報構造}\label{sec:2.2.3setu}図1(b)は,本文に関する情報の構造である.本文情報は元・本文情報,原・本文情報,及び校訂情報から成る.本文情報はその出典により,2種類に大別される.両者は全く異なるものである.元・本文情報とは底本に記載されている本文と,それへの種々の書き込みなどの情報である.書肆的な情報なども含む.校訂により,元・本文情報は校訂本文である原・本文情報に変換される.原・本文情報は本文と傍記の形式で表記される.ここで,本文とは主たるテキストを指す.傍記は本文を構成する文,語,字などへ直接付加されたテキストである.例えば,校異\yougo,振り仮名や振り漢字などがある.また,校訂本には作品の本文の他に校訂に関わる様々な情報を伴う.例えば,解題\yougo,解説,頭註\yougoまたは脚註,凡例などである.これらを校訂情報と呼ぶが,単なる註ではなく校訂本のテキストの形態の1つである.ところで,校訂情報は狭義の校訂情報と校註情報と呼ぶ2つの情報から成る.狭義の校訂情報は解題などのように作品全体に関わる情報であり,テキスト形態の1つである.校註情報は頭註など本文の語彙などに関わる情報である.上述の傍記とは異なるものである.さらに,校註情報は校訂註と解説註に分けて考える.校訂註は本文の異同に関する校訂者の見解や従来の考え方などの参照である.校異に関する註記であるので,校訂上とくに重要な情報と考えられる.解説註は主に本文中の様々な事項に関する解説である.例えば,人物,儀式,官位,あるいはテキストの解釈などである.いずれもテキスト形態の1つと考えられる.\subsubsection{電子化本文の論理構造}\label{sec:2.2.4setu}図1(c)に示すように,論理的な原本の構造を定義する.電子化の直接的な対象は原本すなわち校訂本である.原本はその版面情報を保存することを原則とする.理由は電子化本文の根拠を原本において,データの信頼度を保証する必要があるためである.すなわち,原本通りのデータがデータベースに写像されていなければならない.そこで,原本を論理化して考える.論理原本は論理ファイルから成る.すなわち,原本の各ページを論理ファイルとして定義する.論理ファイルは原本のそのページに限定された原文の集まりである.通常,ページや原行の始端または終端では文の中断が起こり得る.これを認識したり,また意味のある文の単位を確定したりすることは結構難しい.文の単位を形式的に定義する.原文は形式的に原行の集合から構成されるから,論理ファイルは原行から構成するものとする.すなわち,文を行によって形式的に定義する.これを論理レコードと呼ぶ.論理レコードはまた原語及び原字から構成される.論理ファイル中の論理レコードは順序性を保存し,かつ論理ファイル自体も順序性を持つ~\footnote{校訂本では文の区切りは存在する.文を記述の単位とすることは常識であろうが,ここでは原本での文(論理レコード)の位置付けを重視した.文,あるいは語などへの分かち書きは,第1,第2段階では意識しないで,利用者によるものとしている.}.以上のことから,電子化本文のデータ記述においては,本の構造,作品の構造,本への作品の位置付けなどを考慮しなければならないことが分かった.また,本文を構成する文,語,字などの要素に対応する傍記と呼ぶテキスト形態の1つを,本文記述としてルール化しなければならない.\subsection{本文のデータベース化指向}\label{sec:2.3setu}文学研究には本文とそれに関わる諸情報が,同時に参照,処理できなければならない.これは,全文をコンピュータに単に蓄積しただけでは進められない.本文情報のデータベース化を指向する必要がある.全文と様々な属性情報から成る総合的なデータベースを,校訂本文データベースと呼ぶ.電子化本文は本文と傍記から成るが,これは並列的なテキストである.また,校訂情報や校註情報などが加わり,マルチテキストである.とくに,本文は諸本の系譜の中で位置づけられ,諸本の本文比較などが可能でなければならない.本文の氏素性の関連と同定に関する多種多様な情報を組織化し,活用しなければならない.すなわち,このような多重構造を持ったデータの世界は,データベースとして構築することが適当と考えられる.さらに,研究者の研究目的,方法,対象によって自由な活用ができることが不可欠である.例えば,ハイパーテキストなどのユーザインタフェースにより,柔軟かつ高次の活用に応える必要がある.このことから,まず大型コンピュータのデータベース機能を活用し,本文データベース化の基本的開発研究を行うこととした.この成果に基づき,次いでパーソナルデータベース化を進める.パーソナルデータベースではデータの流通を考慮して,例えばCD-ROMなどのパッケージ型の自立型テキストを考慮する.なお,データ記述のルールにはデータベース化を指向した機能を考慮する必要がある. \section{データ記述のための基本原則} \label{sec:3shou}\subsection{本文の構造}\label{sec:3.1setu}\subsubsection{作品の構造}\label{sec:3.1.1setu}文学作品の構造を定義しなければならない.通常,SGMLでは文書型定義(DTD:DocumentTypeDefinition)と呼ばれるもので,ここではこれを作品型定義(TTD:Text-dataTypeDefinition)と呼ぶ.一般に,TTDは全てに共通するような標準型が定義できるわけではない.韻文,散文,戯曲の文体毎に,さらに細かいジャンル対応にTTDを定義する必要がある.すなわち,作品毎にTTDを置く.なお,現在一般に定まった本文DTDまたはTTDは無い.本文研究では,作品の掲載されている原本の体裁などの情報が必要とされる.例えば,原本の何ページの何行目の文という同定が必要である.これは,諸本の本文の様々な差異の対比において必要とされる.通常,SGMLでは文書の構造を論理的なものとして本の体裁,すなわちフォーマットを分離して考える.しかし,古典テキストの研究では,本の物理的な構造と論理的な構造を一体化した考え方をとることが要求される.すなわち,本文の位置情報が必要である.ある本におけるその文の現れる位置の同定である.原本に記載されている底本の位置情報も不可欠な情報である.例えば,表2の噺本大系では原・本文中に「(十五ウ)」などと表記されているが,これは「この位置までが底本の15枚目の裏であること」を意味する.ところで,底本の文,語,字などと校訂本の文,語,字などとの対応は,研究上不可欠な情報として同定されなければならない.換言すれば,写本のテキストと活字本のテキストの文の対応,同定である.しかしながら,このデータ作成は専門家によるかなり高度な作業を必要とする.しかも,作業の負荷がたいへんに重い.そのため,この課題は将来課題とせざるを得ない.以下の考察のために,図2に,表2の東京堂出版「噺本大系」の第五巻「軽口大わらひ」の版面コピーを示す.また,図3に噺本大系の作品構造を5レベルの階層構造で定義する例を示す.なお,記号などは後述する.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-2.eps,width=124mm}\caption{「噺本大系」第五巻「軽口大わらひ」の版面例}\label{fig:2}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-3.eps,width=85mm}\vspace*{5mm}\caption{噺本大系の作品構造の階層性}\label{fig:3}\end{center}\end{figure}\subsubsection{本文の構造}\label{sec:3.1.2setu}次に,本文の構造を把握しなければならない.いわゆる文体である.当然,本文の構造はジャンルにより異なり,同じジャンルでも時代や本の体裁により異なる.原・本文は多くの文から構成されている.文には多くの種類がある.データ記述に当たって,文を1つの単位とすることが望まれるが,意味のある文の確定は困難である.そこで,前述のようにデータ記述の基本的単位を論理レコードとした.論理レコードの識別のための記述子をタグと呼ぶ.論理レコードは原本上の位置を保存し,かつ種別についてタグによりマークアップされる.タグには原本の構造を定義するタグと,原・本文の構造を定義するタグがある.論理レコードの順序性はタグにより保持する.意味のある論理レコードの集まりを定義する.論理レコード集と呼ぶ.例えば,和歌集の中の1つの歌の範囲を決める論理レコードの集まり,すなわち作者,題,詞書き,歌などのまとまりである.あるいは,図3に示すような小噺の1つの単位などである.論理ファイルは形式的な論理レコードの集まりとして取り扱う.一方,論理レコード集は上例のように意味のある構造を抽出する場合に用いる.\newpage\subsection{本文表記の構造}\label{sec:3.2setu}\subsubsection{表記の様相}\label{sec:3.2.1setu}現代文,古文を問わず日本語には欧米文と異った特有の表現がある.文は分かち書きの無い文であり,とくに古文では句読点も無い.文は縦書きであり,割書\yougo,虫喰い\yougo,囲み\yougoがあり,読み,振り,訓点\yougo,ヲコト点\yougo,各種註記などの多様な傍記を持っている.さらに,任意の位置に参照や書込みがあり,挿し絵,解題,頭註または脚註があり,系図があり,「何々を見よ」などの引用や遷移もある.すなわち,作品は本文と各種情報が混在したハイパーテキスト的である(図2の版面参照).\subsubsection{フラグ方式}\label{sec:3.2.2setu}原・本文は本文と傍記によって表現される.本文の記述には文字セットを除き特段のルールは必要ではない.傍記の記述にはルールが必要である.一般に,傍記はその文の要素への指示として表される.文の要素を本文素と呼ぶ.本文素とは意味のある語や字を単位とする概念ではなく,傍記の対象となる語や字などの論理的な単位である.傍記は必ずしも意味のある語に指示されるわけではなく,例えばその語にとって意味的に不可分の下位構成語や字に指示されることも多い.傍記の表記は本文素に対する並列的なまた補足的な文や記号から成る.これを傍記素と呼ぶ.したがって,本文素に対する傍記の位置付けが決まればその記述が可能である.この位置付けの記述子はフラグと呼ばれる.フラグは本文素並びに本文素の間に対する傍記の位置を示すために使用する.本文素の間とは字間や語間などであり,傍記はこれらの間にも指示される.これにより,傍記を論理レコード中に埋め込み記述することができる.一方,特殊な構造を持つ文の表記形式については,フラグを構造的に定義する制御記号を定め,その変換規則を定める.これらには虫喰いとその各種変形,図式的なテキスト表現(系図など),割書,2重傍記,版本における書誌的事項などが定義されている.\subsubsection{文字セット}\label{sec:3.2.3setu}文字種が多い.本文は書写による時代による複雑な変遷,伝搬過程がある.電子化本文の文字セットを閉じることは不可能である.文字セットには梵字\yougoなどの各国語文字,踊り字\yougo,謡印\yougo,音曲記号,注記記号などの他,絵文字に代表されるような特殊な文字や記号もある.原文に使われている文字セットは原則として保存する.ただし,踊り字,謡印などのような特殊な文字や記号は,適切な文字や記号に置換する.例として,日本古典文学大系を見てみる.これは旧漢字,旧仮名使いで表記されている.現在のJISコ−ド表(JIS78を用いている)では漢字字体についての規則性はなく,旧字体と新字体が混在している.そのため,JISコ−ド表に定義している旧漢字はそのまま使う.JIS外の旧漢字でその新字体がJIS内にある場合はこの新字体を用いる.その新字体がJIS外であればその文字を作成する.JIS外字の内,新字体を持たない旧字体の漢字は作成する.国文学研究資料館が定義するJIS外字(約2600字)は基本文字として使う.このような簡単な規則を定めて電子化した場合に,日本古典文学大系には約3千種のJIS外字がある.この内の約600種は作成すべき文字と認識されている.ただし,データ流通を考える場合にはあまりJIS外字を増やすべきではない.なお,噺本大系はJIS内字に拠っているので,JIS外字はないが,この場合には絵文字などの特殊文字が多い.使用する文字セットはその型をTTDの先頭で定義する.\subsection{付加価値づけ}\label{sec:3.3setu}国文学の電子化本文に要求される機能に,まず語彙索引の作成がある.日本語による文は語単位の分かち書きの無い文からなる.そこで,日本語の全文データベースを作成する場合は,その文を分かち書きしなければならない.さらに,その単位毎に表記,読み,品詞などの属性情報を付加する必要がある.しかし,分かち書きを行うことは一般に容易ではない.次のような問題がある.作品は時代,ジャンルの範囲が広範である.また,作品は個々に文体が異なるために,語彙索引の作成,管理,利用の取扱いが異なる.最も重要な点は,研究者によって語単位の確定やその属性に対する認識が異なることである.したがって,第1段階では分かち書きをしたデータ作成は行わない.利用する研究者が行うものとする.そのための分かち書きと属性付加に関するルールのみを定める. \section{データ記述文法---KOKINルール} \label{sec:4shou}\subsection{前提}\label{sec:4.1setu}上記の問題を全て解決できているわけではない.電子化本文の対象は前述の校訂本,版本であるから,符号化の規則はこの範囲を原則としている.KOKINルールと呼ぶデータ記述文法を定め,データ作成に当った.これは自立型のデータファイルとして流通できること,並びに本文データベースに登録できることを条件にしている.KOKINルールは3種の規則から成る.なお,この規則は研究者が日常的に使用できることを前提に作られており,単純ではあるが機能は充足していなければならない.以下に,ルールの基本構造をまとめる.文献\cite{yasunaga:95a}による噺本大系を具体例に用いる.\subsection{KOKINルール#1}\label{sec:4.2setu}KOKINルール#1は作品のTTDを定義する.TTDは論理ファイルの順序並びである.論理ファイルは論理レコードの順序並びである.論理レコードはその型と性質がタグにより定義される.したがって,TTDの定義はタグリストで表すことができる.なお,タグを持たない論理レコードはない.図4に,論理レコードの基本形を多少説明を省くがBNFで定義したものを示す.論理レコードの基本形はタグと情報部から構成される.情報部は原文の本文データの本体部分であり,算用数字または日本語文字列で表現される.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-4.eps,width=108mm}\vspace*{5mm}\caption{論理レコードの基本形(BNFによる)--KOKINルール#1}\label{fig:4}\end{center}\end{figure}表3に,タグの種類と定義の抜粋例を示す.また,表4にタグの書式と文法の定義例を示す.タグは英字により定義し,属性は算用数字(いずれも全角文字),または日本語文字列による.\begin{table}[htbp]\begin{center}\leavevmode\caption{噺本大系のタグ(論理コード)の一覧}\label{tab:hyou3}\bigskip\begin{minipage}{95mm}(1)原本の構造を定義するタグ\\[2mm]\begin{tabular}{l|l}\hline\multicolumn{1}{c|}{\makebox[18mm]{タグ}}&\multicolumn{1}{c}{\makebox[65mm]{役割,備考}}\\\hlineU&原本名称\\Pn&論理ファイル名称\\Ln,Mn&論理ファイルを構成する原行論理レコード.\\&本来は,原本文の構造を定義するタグであるが,\\&原本の構造を決める基本的単位である.\\\hline\end{tabular}\bigskip(2)原本文の構造を定義するタグ(抜粋)\\[2mm]\begin{tabular}{l|l}\hline\multicolumn{1}{c|}{\makebox[18mm]{タグ}}&\multicolumn{1}{c}{\makebox[65mm]{役割,備考}}\\\hlineT&作品名称\\T1&子作品名称\\T2&噺名称\\X&小噺名称,小噺の題名\\Nn&小噺の順序番号\\J&小噺のキイワード\\Y&作品の書誌的事項\\Y1&小作品の書誌的事項\\Q&作品の奥書事項\\Q1&小作品の奥書事項\\G&挿し絵の名称,挿し絵の位置を同定する.\\g&原文中の挿し絵の名称,挿し絵の位置\\gn&挿し絵中の本文\\H&表形式の図表の名称,図表の位置\\h&原文中の表の名称,表の位置\\hn&表中の本文\\A&噺,小噺の作者名\\B&噺,小噺の出典などの補足事項\\Ln&原行論理レコード.原本の2段組版の上段\\Mn&原行論理レコード.同上の下段\\\hline\multicolumn{2}{c}{~}\\[-2mm]\multicolumn{2}{c}{〈注〉nは,タグの属性値.算用数字列で順序性を持つ.}\\\end{tabular}\end{minipage}\end{center}\end{table}\begin{table}[htbp]\begin{center}\leavevmode\caption{タグの書式と文法の定義(抜粋例)}\label{tab:hyou4}\bigskip\begin{minipage}{125mm}\begin{tabular}{l|l}\hline&\\[-2mm](1)文法名&\makebox[100mm][l]{【】内にタグの文法名を定義する.}\\(2)書式&タグが定義する論理レコードの書式を示す.\\&[]は省略が可能である.\\(3)名称&論理レコードの名称である.\\(4)定義&論理レコードの定義である.及び注意事項を含む.\\(5)タグ&タグの表記形式である.\\(6)情報部&情報部の定義,書式である.情報部にはタグの属性記述を含む.ここで,\\&``p''は日本語文字列である.\\&``n''は算用数字である.ただし,全角文字である.\\&``k''はキーワードである.日本語文字列である.繰返しがある.\\&``a''は人物名である.編著などの役割表示を持つ場合がある.\\&~~日本語文字列である.繰返しがある.\\&``b''は典拠などを表わす.日本語文字列である.繰返しがある.\\&``;''は繰返し記号である.\\(7)範囲&タグの有効範囲,及ぼす影響範囲を定義する.\\&一般に,タグの有効範囲は次の同レベル,あるいは上位レベルの\\&タグが現れるまでとする.\\&``|''は``または''を意味する.\\&``,''は``かつ''を意味する.\\&<>はそのタグ内で完結することを意味する.\\(8)備考&その論理レコードの使用上の注意事項などである.\\&記述例を示す.\\[2mm]\hline\end{tabular}\bigskip<抜粋例>\\[1mm]\begin{tabular}{l|l}\hline&\\[-2mm](1)文法名&\makebox[100mm][l]{【S.1】}\\(2)書式&Up\\(3)名称&原本名\\(4)定義&作品が含まれている原本の識別子である.作品の先頭に置き,\\&作品の開始を表す.論理ファイルと対等のレベルに置く.\\&``T''と共にデータベース名を与える.\\(5)タグ&U\\(6)情報部&``p''は原本名称である.噺本大系と巻号を表す.\\(7)範囲&U\\(8)備考&データベースの識別子である.\\\phantom{(8)}例&U噺本大系△第五巻\\[2mm]\hline&\\[-2mm](1)文法名&【T.4】\\(2)書式&X[p]\\(3)名称&小噺名\\(4)定義&小噺名の識別子である.T2の次のレベルに置く.\\(5)タグ&X\\(6)情報部&``p''は小噺名称(題)である.省略することがある.\\(7)範囲&X|T2|T1|T|Y1|Q1|Y|Q|U\\(8)備考&噺は複数の小噺から成る.\\\phantom{(8)}例&X親の心子しらす\\&X\qquad$\cdots\cdots$\qquad\quad小噺に題が無い場合\\[2mm]\hline\end{tabular}\end{minipage}\end{center}\end{table}原則として,論理レコードは開始記号“¥”で始まり,タグを定義し,必要な情報部による本文データが続き,終結記号“★”で終了する.自明の開始記号は省略可とする.これらの記号に特段の意味はなく,利用者の見た目の分かり易さを重視した.なお,作品毎に独自に定義するタグがある.これをローカルルールと呼ぶ.噺本大系に関する作品構造(TTD)の定義例を,付録\ref{sec:furoku2}に示す.また,そのデータ記述例(初期データ入力例)を,噺本大系第五巻「軽口大わらひ」について,付録\ref{sec:furoku3}に示す.\subsection{KOKINルール#2}\label{sec:4.3setu}KOKINルール#2は,日本語の特有な表記のためのデータ記述のルールである.主として傍記記述の文法である.傍記はテキストであるが,本文に対する付随的な情報と考え,意味を考えない.例えば,読み,振り漢字,校異註,参照などの区別をしない.すなわち,本文に対する傍記の位置付けである論理関係を定義する.この記述子がフラグである.図5に,BNFによりフラグ文法を定義した抜粋例を示す.また,下記で用いる例を図中にまとめる.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-5.eps,width=126mm}\vspace*{5mm}\caption{フラグの基本形(BNFによる)--KOKINルール#2}\label{fig:5}\end{center}\end{figure}フラグは,本文素への傍記の位置の開始及び終結を指示しなければならない.これらを開始フラグ及び終結フラグと呼ぶ.終結フラグに続いて開始フラグが現れる場合は,終結フラグを省略することができる(フラグの縮約と言う).とくに,字間,語間などの間の位置を示すフラグは開始と終結を同時に兼ねる.これを間フラグと呼ぶ.なお,間フラグに続いて開始フラグが現れる場合(傍記が独立している)は,フラグの省略は無い.特殊な傍記などの記述のための制御記述子を定義する.以下に代表例(記述例は図5)を示す.縦書である本文素の左右の傍記を左右傍記と呼ぶ.左右傍記制御記述子“|”により,右傍記と左傍記を識別する.記述順序は右傍記優先である.2重傍記は2重傍記制御記述子“#”により識別する.記述順序は右側傍記優先である.文の特殊な表記の記述規則も定める.例えば,虫喰いは様々な表記形式がある.個別の虫喰いは原則として文字“□”に置き換える.四角で囲った虫喰い文字列は,推量された文字列を補ったものである.虫喰い領域記述子“◇”により記述する.同様に,領域を指定する記述子はそれぞれの性質毎に定める.例えば,割書は領域記述子“@”により識別する.傍記データの記述規則を定める.傍記データは原文のままとする.傍記には,元来底本に表記されている振り仮名や漢字などがあり,また原本の校異などに関する種々の校訂註がある.データ記述においては傍記の種類の区別はしない.すなわち,傍記の属性情報は定義しない.特殊文字の置換規則を定める.例えば,古文でよく使われる2字以上の踊り字“\odorizi”は,清音,半濁音,濁音別に定める繰返し記号により置換する.例えば,n字の清音の踊り字はnを繰返し音字数とし,“+n”と記述する.\subsection{KOKINルール#3}\label{sec:4.4setu}分かち書きを行い,品詞情報や各種属性情報を付加するための規則である.付加価値付けと呼んでいる.ルール化の基礎を語彙索引の作成に置く.すなわち,文を語あるいは接辞などの造語成分に区切り(語単位),これに対する読みを付して,読みによる50音順に配列する.同一語を一ヶ所に集めるために,活用語は終止形を基本とする読みを与える.さらに,同音異義語を区別するため漢字を与える.掛詞\yougoなどの両用語の掲出を考慮する.品詞情報を付加する.とくに,名詞では人物名,官職と人物の同定,地名の同定を考慮する.一方では,原文の誤字,脱字などや特殊語彙の注記の表現なども必要である.図6に,ルールの典型例を示す.KOKINルール#2と同様の書式であるが,フラグ記号に空白を用いて語単位(または形態,形態素など)を確定し,()内に属性情報を付す.属性情報は語単位に対して,種別を[]などで括り与える.属性情報の記述は傍記と同じ形式である.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-6.eps,width=112mm}\vspace*{5mm}\caption{付加価値付けの基本形(BNFによる)--KOKINルール#3}\label{fig:6}\end{center}\end{figure}語単位の確定や属性情報の種類と目的などは,研究者の研究目的によって異なるから,これら全てについて前もって定義することはできない.このような背景から,ルール#3は現在未完成である.また,先に述べたように,第1段階では分かち書きは行わない. \section{評価} \label{sec:5shou}KOKINルールに基づいて,表2に示す作品のデータ記述を行い,データ作成を行った.これらのデータ構文の正当性の検証は,専用のパーサシステムを作り確認した.詳細は割愛するが,KOKINルール自体に特段の問題はない.このシステムはむしろデータ作成上のエラーチェックに有効であった.また,ルール化されたデータから元のデータを再現する検証を行い,確認した.これは印刷組版までの再現ではなく,原本の形式上の再現として行った.次に,KOKINルールで作成したデータは,研究者が研究現場で実際に使えるかということの評価が必要である.すなわち,ルール化されたデータの有用性,有効性の検証である.そこで,次のような課題について実証実験を行った.\subsection{校訂本文データベース}\label{sec:5.1setu}KOKINルールで記述したデータは,校訂本文データベースとして定義可能でかつ実装できなければならない.とくに,作品の本文をどのようにデータベースに定義するかの問題がある.本文の連続性を保存し,文体の構造を規定し,文や語や字の検索,研究を可能としなければならない.校訂本文データベースは本文,書誌,注釈,ユーティリティという4つの実体とそれらの関連により,概念モデルが定義されている\cite{yasunaga:94}.すなわち,図1に示した電子化本文の情報構造を定義するモデルとして実現されている.本文実体は,本文情報すなわち本文と傍記のデータベースである.作品単位でその本文情報を蓄積するが,KOKINルール#1で規定した論理レコードを定義域とする.KOKINルール#2は論理レコードを構成するデータとして取り扱う.書誌実体は本の構造を含む本情報である.校訂本情報と文献資料情報のデータベースである.また,TTDのデータベースでもあり,校訂本の目次構成や文書構造及び文体などの属性情報を持つ.注釈実体は校註情報の内,解説註のデータベースである.ユーティリティ実体は校註情報の内,校訂註を蓄積し,また校訂本作成時の凡例に関する情報やシステム及び作品の利用案内情報を持つ.実現の詳細は割愛するが,フルテキストを定義するデータモデルはないので,関係モデルをベースに開発した.実装はHITACM860/60上に,DBMSに関係モデルであるXDM(日立製作所製)を用いた.本文の入れ子または階層構造や連続性は全て正規形に変換している.したがって,各関係表は多くのポインタ属性を持たざるを得ない.また,標準のSQLでは構造を持つ文書に対して,例えば繰返し,入れ子などに関しての検索機能が不足である.そのため,文書の論理構造を定義するDQL:DocumentQueryLanguage\cite{hara:94}を考慮している.まず,案内的なディレクトリサービスを考えている.機能的にはダウンロードを可能とし,文字列に基づくKWIC索引作成などを行う.現在,国文学研究資料館において表2のデータベースの試行運用が行われている.\subsection{CD-ROMの作成}\label{sec:5.2setu}データ流通を一歩進めるものとして,KOKINルール記述のデータのCD-ROM化,並びに検索サーバとしてCD-ROM上の必要な文字列を検索する機能システムについて検討した.CD-ROM検索サーバはソニー株式会社との共同研究により,同社のCD-ROMハンドラであるMediaFinderをベースとした検索サーバと,その利用システムを開発した.検索サーバにワークステーション(NEWS)を用いて,CSSとして実装している.一方,MS-WINDOWSの下でのパソコン版システムとして,サーバとユーザ機能を一体化したMediaFinder(同一名称である)を開発している.CD-ROMの作成ではMediaFinderのデータ構造に,KOKINルールによる噺本大系の本文データを変換する必要がある.データ構造は単純化し,2階層とした.1枚のCD-ROMには複数のMediaFinder型データベースが定義できる.また,データベースは項目と呼ぶ単位に分類する.一般に,データベース中の項目数の制限はないが,多い場合は当然検索性能に関わる.MediaFinderの設計思想は,項目単位で情報を高速に検索することに置かれている.MediaFinderはハイパーリンクに基づいた検索システムを持っており,噺本大系では2種類の結合を生成している.1つは本文データの構造を定義するタグを指標として,ハイパーリンクを構成したものである.これにより,本文の構成要素(全文,噺,注釈など)を単位とした文字列検索が可能となる.他の1つは,論理ファイル単位(タグPによる領域)を検索対象とするものである.これにより,校訂本の本文の表記を忠実に再現する.ただし,本文表記の再現であり,ページ像は再現しない.検索機能としては,次の機能を実装している.\smallskip\begin{description}\item[\MARU{1}]目次検索:関連する文章を辿りながら,ブラウジングする機能\item[\MARU{2}]文字または単語検索:必要な語彙単位から情報を探す機能\item[\MARU{3}]項目検索:項目名から必要な情報を検索する機能\item[\MARU{4}]しおり:参照した項目に印を付け,後からそれを呼び出す機能\end{description}\smallskipその他にも,印刷や自前のファイルに取り込むこと,関連する語彙から探すこと,絵や表を取り扱うことも可能としている.このようなシステムを実装し,実験環境に供している.概して評判がよい.\subsection{SGML化}\label{sec:5.3setu}KOKINルールは研究者が憶えやすく,使い易い規則として開発されているが,SGMLと互換性を持っている.SGMLによる古典本文や目録の構造記述はデータの標準化を一層推進する.噺本大系,正保版本歌集二十一代集などのデータ記述をSGMLで行った.噺本大系はKOKINルールで記述した本文データから,SGMLへの変換を行った.正保版本歌集は独自仕様で記述された本文データから,SGML変換を行った.いずれも,SGML仕様に基づいたDTDを定義し,Mark-it(SemaSoftwareTechnology社製)と言うSGMLパーサにかけ,自動変換した.DTDを如何にうまく定義するかがポイントである.KOKINルール#1の変換は比較的簡単である.KOKINルール#2の変換は日本語の表記構造の認識にあるため,困難な場合が多い.例えば,傍記の泣き別れである(図5参照).また,論理レコードの順序性の保持は,SGMLでの記述は難しい.現在,技術検討を行っている.なお,SGML化の詳細は別途報告の予定である(例えば,\cite{hara:95}).変換されたSGMLデータは,例えばMark-itでTex形式のデータに変換し,印刷版面に近い版下出力などが可能である.SGMLからTexへの自動変換も行った.また,Open-Text(Open-Text社製)と言うフルテキストデータベース検索システムを用いれば,DTDで定義された要素を指定する語彙検索が可能である.これらは,現在試行実験を行っている. \section{あとがき} \label{sec:6shou}国文学作品のテキストデータ記述文法について述べた.全ての時代,ジャンルに渡る本文を,ここで述べたデータ記述文法で記述できるわけではない.作品毎に細部の機能拡張が必要である.ただし,この骨格は有効であると考えている.国文学では,作品の本文を同定すること,すなわち定本を確定することが極めて重要とされる.ある作品の本は書写などによる永い伝搬過程を持っているから,本文それ自体に多くの異動が発生している.諸本の系譜を知らなくては,本文の確立あるいは解釈は成立しない.このことを前提として,KOKINルールは作られている.また,KOKINルールでは校訂本を記述できる.KOKINルールは国文学者にとって取り扱いが容易な文法である.データ記述において,ユーザ定義が容易であるため自由度が高く,機能拡張性に富む.すでに,データ作成も始められている.本文データベースの目的は,既定の活字本をコンピュータに写し取るのではなく,また本を作ることでもない.本文がコンピュータに入力されたとき,研究の多様な展開に寄与できることを目的としている.したがって,利用者が個人的に自由に活用できるデータベースでなければならない.そのための試みとして,大型コンピュータによるデータベースサービスの他に,CD-ROM化についての検討も行っている.なお,データ流通について,とくにJIS外字の取り扱いは,現在有効適切な対策は立てられていない.大きな将来課題である.データ作成作業は多くの人手と時間と費用を要す.とくに,異なる多量な作品を対象としているから,深く広い専門的知識と有効適切なかつ総合的な作業管理を必要としている.とりわけ,データの信頼性確保のための校正には多大の労力を強いられている.最近,欧米を中心にフルテキストの標準化計画(TEI)が進められている.これは,現在のところ英字を中心とするSGMLに基礎を置く多様なドキュメント類のデータ流通,蓄積を目的としているが,これへの日本語としての対応が求められている.本稿でのデータ記述文法は独自なものであるが,基本的考え方は共通である.また,一部の作品については機能互換性を検証している.ただし,国文学作品の全般に渡る標準化は極めて困難なことと考えている.本研究がその一助となれば幸いである.\acknowledgment本研究では,日頃ご指導いただく国文学研究資料館の佐竹昭廣館長,藤原鎮男教授,立川美彦教授に御礼申し上げる.また,同館岡雅彦教授,中村康夫助教授には,有益な助言と批評などをいただいた.とくに,原正一郎助教授,情報処理係野村龍氏をはじめ,係員諸氏には,システム開発,実験などの協力をいただいた.また,ソニー株式会社三原節生氏,日本科学技術振興財団小島哲郎氏始め,多くの方々に,システム開発などに協力をいただいた.合わせて深謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\appendix \section{国文学の用語} \label{sec:furoku1}主として,広辞苑(1983,岩波書店,第三版)により,読みのABC順で示す.\begin{center}\begin{tabular}{l@{~}c@{~}l}梵字{\small(ボンジ)}&:&梵語すなわちサンスクリットを記載するのに用いる文字.\\伝本{\small(デンポン)}&:&ある文献の写本または版本として世に伝存するもの.\\絵詞{\small(エコトバ)}&:&絵を説明した詞.絵巻物の詞書き.絵解きの詞.\\翻刻{\small(ホンコク)}&:&手書き文字,木版文字などを活字に置き換えること.\\&&翻刻本とは,写本,刊本を底本として,木版または活版で刊行した本.\\異本{\small(イホン)}&:&同一の書物であるが,文字,語句,順序に異同があるもの.別本.\\解題{\small(カイダイ)}&:&書物や作品の著作者,著作の由来,内容,出版の年月などの解説.\\掛詞{\small(カケコトバ)}&:&同音異義を用いて,1語に2つ以上の意味を持たせたもの.\\囲み{\small(カコミ)}&:&紙面の一部を枠で囲んだ部分.虫喰いの痕など.\\刊本{\small(カンポン)}&:&狭義には主として江戸時代の木活字本,銅活字本,整版本などの称.\\&&版本.\\校異{\small(コウイ)}&:&文章の文字,語句を比べ合わせ,調べること.またその結果.\\訓点{\small(クンテン)}&:&漢文を訓読するために原文に書き加えた文字,符号の称.\\虫喰い{\small(ムシクイ)}&:&紙魚などによる食害.\\踊り字{\small(オドリジ)}&:&熟語で同一の漢字または仮名を重ねることを表す符号.重ね字.\\底本{\small(テイホン)}&:&翻訳,校訂などに当たって主な拠り所とした本.そこほん.\\頭註{\small(トウチュウ)}&:&本文の上方に註を付すこと.また,その註.脚註もある.\\謡印{\small(ウタイジルシ)}&:&謡曲の謡の印.\\割書{\small(ワリガキ)}&:&本文の途中に2行以上に小さく注などを書き入れること.\\ヲコト点&:&漢文訓読で漢字の読みを示すため,文字の隅などに付けた点や線の符\\&&号.その位置と形で読みが決まる.広く,訓点の1種と考えられる.\\\end{tabular}\end{center}\newpage \section{噺本大系の作品構造(TTDの例)} \label{sec:furoku2}\begin{center}\epsfile{file=1-7.eps,width=125mm}\end{center} \section{噺本大系第5巻「軽口大わらひ」のデータ記述例} \label{sec:furoku3}\begin{center}\epsfile{file=1-8.eps,height=186mm}\end{center}\begin{biography}\biotitle{略歴}\bioauthor{安永尚志}{1966年電気通信大学電気通信学部卒業.同年電気通信大学助手,東京大学大型計算機センター助手,同地震研究所講師,文部省大学共同利用機関国文学研究資料館助教授を経て,1986年より同館教授.工学博士.情報通信ネットワークに興味を持っている.現在人文科学へのコンピュータ応用に従事.とくに,国文学の情報構造解析,モデル化,データベースなどに関する研究と応用システム開発を行っている.最近では,テキストデータベースの開発研究に従事.電子情報通信学会,情報知識学会,情報処理学会,言語処理学会,ALLC,ACHなど会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N03-06
\section{はじめに} \label{sec:intro}意味が近似的に等価な言語表現の異形を\textbf{言い換え}と言う.言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つという問題と同様,自然言語処理における重要な問題である.言い換えの自動生成に関する工学的研究には,言い換えを同一言語間の翻訳とみなし,異言語間機械翻訳(以下,単に機械翻訳)で培われてきた技術を応用する試みが多い.たとえば,構造変換方式による言い換え生成\cite{lavoie:00,takahashi:01:c},コーパスからの同義表現対や変換パターン(以下,合わせて言い換え知識と呼ぶ)獲得\cite{shinyama:03,quirk:04,bannard:05}の諸手法は,機械翻訳向けの手法と本質的にはそれほど違わない.ただし,言い換えは入出力が同一言語であるため,機械翻訳とは異なる性質も備えている.たとえば,平易な文章に変換する,音声合成の前処理として聴き取りやすいように変換するなど,ミドルウェアとしての応用可能性が高いことがあげられる.すなわち,言い換えを生成する過程のどこかに,応用タスクに合わせた言い換え知識の使い分け,および目的適合性を評価する処理が必要になる\cite{inui:04:a}.事例集の位置付けも異なる.翻訳文書は日々生産・蓄積されており,大規模な対訳コーパスが比較的容易に利用可能である.これらは主に,翻訳知識の収集源あるいは統計モデルの学習用データとして用いられている.一方,言い換え関係にある文または文書の対が明示的かつ大規模に蓄えられることはほとんどない.\sec{previous}で述べるように,言い換えの関係にある文の対を収集して\textbf{言い換えコーパス}を構築する試みはいくらか見られるが,我々が知る限り,現在無償で公開されている言い換えコーパスはDolanら\cite{dolan:05}が開発したものしかない\footnote{Web上のニュース記事から抽出した5,801文対に対して2名の評価者が言い換えか否かのラベルを付与したコーパス.\\\uri{http://research.microsoft.com/research/nlp/msr\_paraphrase.htm}}.さらに,言い換え知識の収集源として用いられるようなコーパスはあっても,言い換えと呼べる現象の類型化,個々の種類の言い換えの特性の分析,言い換え生成技術の開発段階における性能評価などの基礎研究への用途を意図して構築された言い換えコーパスはない.我々は,言い換えの実現に必要な情報を実例に基づいて明らかにするため,また言い換え生成技術の定量的評価を主たる目的として言い換えコーパスを構築している.本論文では,このような用途を想定して,\begin{itemize}\itemどのような種類の言い換えを集めるか\itemどのようにしてコーパスのカバレージと質を保証するか\itemどのようにしてコーパス構築にかかる人的コストを減らすか\item言い換え事例をどのように注釈付けて蓄えるか\end{itemize}などの課題について議論する.そして,コーパス構築の方法論,およびこれまでの予備試行において経験的に得られた知見について述べる.以下,\sec{previous}では言い換えコーパス構築の先行研究について述べる.次に,我々が構築している言い換えコーパスの仕様について\sec{aim}で,事例収集手法の詳細を\sec{method}で述べる.予備試行の設定を\sec{trial}で述べ,構築したコーパスの性質について\sec{discussion}で議論する.最後に\sec{conclusion}でまとめる. \section{先行研究} \label{sec:previous}言い換えコーパスの構築に関する先行研究は,内省に基づく生成,コーパスからの自動獲得の2種類に大別できる.いずれにおいても,コーパスを構成する個々の事例は,言い換えの関係にある文対である.\subsection{内省に基づく言い換え生成}\label{ssec:manual}同じ原文に対して複数の翻訳がある場合,それらは言い換えとみなすことができる.機械翻訳では,システムの評価方法として1つの原文に対して複数の正解翻訳例を用意することが一般的になってきており,そうした複数の翻訳例を含む対訳コーパスもいくつか整備されつつある\cite{shirai:01:a,shirai:01:b,zhang:01,kinjo:03,shimohata:03:b}.人間が内省に基づいて言い換えを記述するアプローチは大きな人的コストを要する.それにも関わらず,上述の先行研究では,どのような種類の言い換えを集めるのか,その範囲の言い換えをどのようにして網羅するのかという課題に対する解は示されていない.先行研究の多くが,言い換えそのものへの関心よりもむしろ,機械翻訳の被覆率・訳質の改善を主たる目的としているためであろう.たとえば,\cite{shirai:01:a,shirai:01:b}は機械翻訳の被覆率向上を目的として低頻度語や語のあらゆる語義を網羅するため例文収集方法を提案している.しかしながら,語や語義ごとの例文を得るための手段として言い換えを用いているに過ぎず,様々な種類の言い換えを網羅する,あるいは所与の例文に対して十分多様な言い換えの例を収集することについては焦点を当てていない.\subsection{コーパスからの自動獲得}\label{ssec:automatic}近年,同義表現対や変換パターンなどの言い換え知識を獲得するために,言い換え関係にある文対を自動的に収集する試みが報告されるようになってきた.とくにここ数年は,同じ出来事を報道している複数の新聞社の記事を対応付ける試みが多い\cite{barzilay:03:a,shinyama:03,quirk:04,dolan:04,dolan:05,brockett:05}.このアプローチでは,異なるコーパス中の文と文を,内容語や固有表現の重なり具合,構文構造の類似度,文の抽出元の記事の日付や記事中の文の位置などのメタ情報に基づいて照合し,言い換えらしい文対を得る.言い換え文対の自動獲得手法には人的コストを必要としないという利点がある.収集された個々の言い換え文対には多くのノイズが含まれるが,これを人手で除外するにしても,内省に基づいて事例を記述する手法に比べてコストは低い.また,未知の種類の言い換えを発見できる可能性も秘めている.しかしながら,収集可能な言い換え事例の種類は文の照合における制約によって擬似的に限定されるため,コーパス中に出現している言い換えを網羅的には収集できない.また,制約を特に設けずに言い換えらしい文対を集めるとしても,類似する文対を漠然と集めているに過ぎず,複数の言い換えが組み合わさった複雑な言い換え事例が含まれてしまう可能性がある.このような事例を現象解明に向けた分析に利用するには,人手による言い換えの分解・分類を要する. \section{対象とねらい} \label{sec:aim}言い換えと呼べる現象は多岐にわたる.その中には談話の状況に関する高度な推論を要するものもあり\cite{inui:04:a},現在の技術ですべてを実現することは難しい.そこで,まずはどのような種類の言い換えの事例を集めるかについて議論する.言い換えに関する工学的研究のほとんどが,語あるいは言語表現の内包的意味が等価であるような現象を対象としている.そのような現象は,主として語と語の意味の同一性や自他の構文交替,態交替などの構文的な変形に基づいて実現されるため,\textbf{語彙・構文的言い換え}と呼ばれる.本論文で扱う対象もこの例に洩れない.語彙・構文的言い換えに限っても,純粋に統語論で扱えそうな言い換えから語の詳細な意味に立ち入る必要のある言い換えまで多岐にわたるが,実現に必要な知識の観点から以下のように4種類に分けて考えることができる.\begin{description}\item[統語的言い換え:]個別の語の意味に立ち入らなくても,統語論の記述レベルで概ね説明できる言い換え\end{description}\numexs{1}{\item[]最初に合格した\textbf{のは}高橋さん\textbf{だ}{\Lra}高橋さん\textbf{が}最初に合格した}\begin{description}\item[語彙的言い換え:]語の同義性だけで概ね説明できる,統語操作を伴わない局所的言い換え\footnote{言い換えの実現に必要な知識という観点では,慣用表現から文字通りの意味を持つ表現への言い換えもこの分類に入る.たとえば「手を上げる」という表現を言い換える場合,表現全体を「降参する」または「殴る」に言い換えるべきか,「手」や「上げる」と言う構成語のみを言い換えるべきかという曖昧性がある.ただし,言い換え前の表現が構成的か非構成的かを見分けることも広く語義曖昧性解消の課題と位置付ければ,言い換えそのものは,語を別の語に置き換える場合と同様,局所的に同義の表現対の知識を用いて実現できる.}\end{description}\numexs{2}{\item[]一層の\textbf{苦境}に陥いる\textbf{恐れ}がある{\Lra}一層の\textbf{窮地}に陥いる\textbf{可能性}がある}\begin{description}\item[語彙構成的言い換え:]言語の統語的特性と意味的特性に基づいて構成的に説明できると考えられる規則性の高い言い換え\end{description}\numexs{3}{\item[]2位\textbf{が}先頭\textbf{との}距離\textbf{を}\textbf{縮めた}{\Lra}2位\textbf{と}先頭\textbf{の}距離\textbf{が}\textbf{縮まった}}\begin{description}\item[推論的言い換え:]世界知識や社会慣習に根ざし,統語論,語彙意味論のような言語に関する知識だけでは説明が難しい言い換え\footnote{比喩表現や間接発語行為から文字通りの意味を持つ表現への言い換えなども含む.}\end{description}\numexs{4}{\item[]財政再建\textbf{が急務の課題だ}{\Lra}\textbf{緊急に}財政再建\textbf{する必要がある}}言い換えの計算モデルが実用規模で機能するためには,大規模な言い換え知識が必要となるので,その開発および保守を効率化するための方法論が重要な研究課題になる.知識開発に関しては,人手で作成された既存の語彙資源を利用するアプローチと\ssec{automatic}で述べたような手法で得た言い換えコーパスから言い換え知識を自動獲得するアプローチがある.言い換え知識の自動獲得に関する研究動向についての詳細は\citeA{inui:04:a}の解説に譲るが,既存の語彙資源から抽出できるのは限定的な種類の言い換え知識だけであり,またコーパスから力任せに自動獲得する方法もこれまでのところ実用に耐える成果を挙げられていないのが現状である.さて,語彙・構文的言い換えの中には,次に示す一連の例のように,構成的に計算できる可能性が高い,上で語彙構成的言い換えと呼んだ現象も少なくない.\numexs{alternation}{\item[{\quad}\textbf{動詞交替}]\item洗濯物\textbf{が}風\textbf{に}\textbf{揺れる}{\Lra}風\textbf{が}洗濯物\textbf{を}\textbf{揺らす}\hfill(自他交替)\item円\textbf{の}レート\textbf{が}\textbf{下がった}{\Lra}円\textbf{が}レート\textbf{を}\textbf{下げた}\hfill(自他交替・再帰)\item先輩\textbf{が}後輩\textbf{に}合格の秘訣を\textbf{教える}{\Lra}後輩\textbf{が}先輩\textbf{から}合格の秘訣を\textbf{教わる}\\\hfill(授受の動詞交替)\item多くの地域\textbf{が}暴風雨\textbf{に}\textbf{見舞われた}{\Lra}暴風雨\textbf{が}多くの地域\textbf{を}\textbf{見舞った}\hfill(直接受身)\item翔一\textbf{が}誰か\textbf{に}自転車を\textbf{盗まれた}{\Lra}誰か\textbf{が}翔一\textbf{の}自転車を\textbf{盗んだ}\hfill(間接受身)\item通り\textbf{が}群衆\textbf{で}あふれた{\Lra}群衆\textbf{が}通り\textbf{に}あふれた\hfill(場所格交替)\item柳\textbf{が}芽\textbf{を}ふく{\Lra}柳\textbf{に}芽\textbf{が}ふく\hfill(湧出動詞の交替)\item太郎\textbf{が}犯人\textbf{であると}認める{\Lra}太郎\textbf{を}犯人\textbf{と}認める\hfill(補文構文)}\numexs{category-shift}{\item[{\quad}\textbf{範疇交替(品詞交替)}]\item息子が友人の活躍に\textbf{刺激を受ける}{\Lra}息子が友人の活躍に\textbf{刺激される}\\\hfill(機能動詞構文(格+動詞){\Lra}動詞)\item部屋は十分\textbf{暖まっている}{\Lra}部屋は十分\textbf{暖かい}\hfill(動詞{\Lra}形容詞)\item彼女は頬を\textbf{赤らめて}うなずいた{\Lra}彼女は頬を\textbf{赤くして}うなずいた\\\hfill(動詞{\Lra}形容詞+する/なる)\item身体\textbf{の}\textbf{だるさを}感じる{\Lra}身体\textbf{が}\textbf{だるいと}感じる\hfill(名詞(句){\Lra}形容詞(節))\item水がとても\textbf{清らかだ}{\Lra}水がとても\textbf{清い}\hfill(ナ形容詞+だ{\Lra}イ形容詞)}\numexs{syntactic-deformation}{\item[{\quad}\textbf{その他の構文的な交替}]\item彼の言葉\textbf{に}\textbf{温かみ}を感じた{\Lra}彼の言葉\textbf{の}\textbf{温かさ}を感じた\hfill(係り先の交替(格))\item\textbf{厳密に}審査基準を定める{\Lra}\textbf{厳密な}審査基準を定める\hfill(係り先の交替(修飾語))\item彼\textbf{の}顔が真っ赤だ{\Lra}彼\textbf{は}顔が真っ赤だ\hfill(係り先の交替(主題化))\item目的地は\textbf{赤い屋根の}建物だ{\Lra}目的地は\textbf{屋根が赤い}建物だ\hfill(主辞交替(名詞句{\Lra}節))\item\textbf{リサイクルの効率化}が求められる{\Lra}\textbf{効率的なリサイクル}が求められる\\\hfill(主辞交替(名詞句{\Lra}名詞句))\item\textbf{財政再建}が課題だ{\Lra}\textbf{財政を再建すること}が課題だ\hfill(複合名詞の分解・構成)\item夕飯を\textbf{食べ過ぎた}{\Lra}夕飯を\textbf{必要以上に食べた}\hfill(複合動詞の分解・構成)\item新しい機材\textbf{の必要性}を議論する{\Lra}新しい機材\textbf{が必要かどうか}を議論する\\\hfill(名詞接尾辞の着脱)}これらの例はそれぞれ異なる形態・構文的パターンによって特徴付けられる.このパターンに基づいて一括りにできる言い換え現象を,本論文では\textbf{言い換えクラス}と呼ぶ.言い換えクラスの実在性は言語学的な分析\cite{melcuk:87,jackendoff:90,levin:93,kageyama:01}においても示されており,場所格交替や自他交替の構成性を言語学的に説明する試みもある.これをふまえると,語彙構成的言い換えについては,個別の語の統語・意味的特性に関する知識と一般性の高い原理的な変換規則によって実現することが望ましい.語彙構成的言い換えが構成要素の語彙的知識から組み合わせ的に計算できるとすれば,少なくともそのクラスの言い換えについては,人手で開発・保守できる規模の語彙資源で実現することができる.我々の言い換えコーパス構築の動機は,これら語彙構成的言い換えに関わる語の統語・意味的な特性を明らかにすること,その過程で言い換え生成に関する仮説を定量的に評価することにある.そこで,次に示すような要求仕様を念頭におき,個々の言い換えクラスごとに言い換えコーパスを構成する.\begin{itemize}\item言い換えコーパスは言い換えクラスごとのサブコーパス群からなる.\item各サブコーパスは所与の言い換えクラスに属する言い換え関係にある文対の集合からなる.\item各サブコーパス中の言い換え事例は実世界における表現の分布(密度,多様性)を反映している.\end{itemize} \section{形態・構文パターンを用いた言い換え事例の半自動収集} \label{sec:method}\sec{aim}の議論をふまえ,所与の言い換えクラス$\mathcal{C}$に属する言い換え事例を,文集合$\mathcal{S}$から\textbf{(i)できるだけ網羅的に},\textbf{(ii)できるだけ少ない人的コストで}収集するという目標を設定する.当然,各事例の言い換えとしての適否の判定の\textbf{(iii)信頼性をできるだけ高く}保たねばならない.まずは,どのような方法論でどのような言い換えクラスの言い換え事例を収集できるかを経験的に調査する必要がある.その試みの一つとして,本論文では,次の3ステップからなる半自動的な事例収集手法について検討する.\begin{description}\item[ステップ1.]所与の言い換えクラス$\mathcal{C}$について,形態・構文的変換パターン集合と辞書的な知識を記述する.\item[ステップ2.]既存の言い換え生成システムを用いて,所与の文集合$\mathcal{S}$に変換パターンを適用し,言い換え事例の候補集合を生成する.\item[ステップ3.]言い換えクラスごとに\textbf{適否判定ガイドライン}を用意し,それに基づいて個々の言い換え候補を適格,不適格に分類する.\end{description}この手法は\sec{previous}で述べた2種類のアプローチの中間に位置付けられる.すなわち,言い換え生成システムの利用により,(i)言い換え事例収集における人的コストを低減すると同時に,(ii)所与の言い換えクラスに対するカバレージ,および(iii)適否判定の質を保証することをねらいとしている.この手法では,ステップ1と3に人手を要する.まず,ステップ1において,所与の言い換えクラス$\mathcal{C}$を定義するための形態・構文的パターンを記述する必要がある.これは,文献\cite{dras:99:a}における文法開発と同様に,少数の典型的な言い換え事例に基づいて帰納的に作成する.たとえば,例\refexs{category-shift}{a}から,機能動詞構文の言い換えに関する\refex{lvcinst}のようなパターン\footnote{s.,t.は各々言い換え前後の文あるいはパターンを表す.言い換え後の文が文法的・意味的に不適格な場合は記号``$\ast$''を,文法的・意味的に適格でも言い換えとして適切でない場合は記号``$\neq$''を記す.また,言い換えの適否に関する作業者の判定結果が分かれた事例については記号``?''を記す.}を記述する.\numexs{lvcinst}{\item[s.]$N$を$\phdep{V}${\quad}$V$\item[t.]$v(N)$}ここで,$N$,$V$は各々名詞,動詞を表す変数,$v(N)$は$N$の動詞形を表す.係り受け関係に関する条件を右下に添えた矢印で表す.上の例では「$N$を」が「$V$」に係ることを条件としている.\begin{figure*}[t]\leavevmode\begin{center}\includegraphics*[scale=.37,keepaspectratio]{annotation-ppt.eps}\caption{自動生成した事例の適否を判定するための作業環境}\label{fig:annotation}\end{center}\end{figure*}所与の文集合$\mathcal{S}$に含まれる言い換え可能な文を網羅的に収集するために,形態・構文的パターンには過剰な制約を記述しないように配慮する.逆に,不適格な例を大量に生成してステップ3のコストを増やしてしまわないように,言い換えのクラスごとに語彙的な資源を用意する.たとえば,パターン\refex{lvcinst}においては,$N$と$v(N)$を動作性名詞とその動詞形に限定する.形態素解析や係り受け解析の精度が十分実用的な精度であるため,形態・構文パターンと語彙的制約に基づいて言い換えクラスを定義するアプローチは現実的であると考える.ステップ3では自動生成された言い換え候補の適否判定に人手を要する.ここでは言い換えクラスごとにどのような種類の誤りが生じるかをある程度予測できるという仮説に基づき,言い換えクラスごとに適否判定ガイドラインを作成しておく.このガイドラインは,文献\cite{fujita:03:c}が示す言い換え誤りの分類に基づき,あらかじめいくらかの作例に基づいて予測できる範囲で誤りの種類を列挙したものである.言い換え候補の適否を判定する作業の過程で未知の誤りが出現した場合や作業者間で判定結果が分かれた場合は,いくらか事例が溜まった時点で議論し,このガイドラインを更新する.作業者は\fig{annotation}に示す作業環境で個々の言い換え候補の適否を判定する.(a)言い換え前の文と(b)自動生成した言い換え候補が与えられたときに,作業者は,(c)その言い換え候補の適否,(d)もしも不適格であればその原因の分類情報,(e)修正することで言い換え可能,あるいは複数の言い換えが可能ならばそれらを記述する.判定に迷った候補については,(f)議論用に自由形式でコメントを記述する. \section{言い換えコーパス構築の予備試行} \label{sec:trial}言い換えコーパス構築における種々の課題に対し,前節で述べた言い換え事例の収集方法がどれだけ有効であるかを検証するため,事例分析および言い換え生成実験の評価に利用できる規模のサブコーパスを構築した.今回は,機能動詞構文の言い換え,および動詞の自他交替の2つの言い換えクラスを取り上げた.この節では,共通の設定について述べた後,各言い換えクラスを対象としたサブコーパス構築の詳細について述べる.\subsection{共通の設定}\label{ssec:setting}我々の手法では,形態・構文的パターンと対象文との照合のためにいくつかのソフトウェアを必要とする.今回は,形態素解析器『茶筌』\footnote{\uri{http://chasen.naist.jp/}},係り受け解析器『南瓜』\footnote{\uri{http://chasen.org/\~{}taku/software/cabocha/}},言い換え生成システム『{\KURA}』\footnote{\uri{http://cl.naist.jp/kura/doc/}}を用いた.言い換え候補を収集する文のドメインは新聞記事中の文とした.具体的には日本経済新聞\footnote{\uri{http://sub.nikkeish.co.jp/gengo/zenbun.htm}}(2000年,一文あたり平均25.3形態素)を用いた.茶筌,南瓜が新聞記事中の文を学習に用いているため,また,非常に稀なクラスの言い換え事例を集める場合でも十分大規模な文集合を用意できるためである.言い換え候補の適否判定は,日本語母語話者であり大学卒業程度の教養を備えている2名の作業者が実施した.今回は作業コストをできるだけ削減するというねらいから,2名が完全に独立に言い換え候補の適否を判定するのではなく,\fig{judgement}に示す3ステップの手順で判定した.以下,各ステップについて述べる.\begin{description}\item[ステップ1.]第1作業者は自動生成した言い換え候補の各々の適否を判定する.\item[ステップ2.]第2作業者は,第1作業者が『適格』とした言い換え候補をすべて判定する.また,第1作業者の判定が過度に『適格』,『不適格』に偏っていないかを確認するため,第1作業者が『不適格』とした言い換え候補をサンプリングして判定する.\item[ステップ3.]2名の判定結果が分かれた候補について,数日に一度作業者間で議論する.また,適否判定のガイドラインを更新し,一貫性を保つためにステップ1に戻って再度判定する.議論を経ても適否判定が一致しなかった場合は『保留』とする.\end{description}\subsection{機能動詞構文の言い換え(LVC)}\label{ssec:lvc}機能動詞構文とは,動詞が動作性名詞を格要素に持つときに,実質的な意味を失い,単に動詞としてのみ機能するような構文である.ここで例\refexs{category-shift}{a}を再掲して説明しよう.\numexs{lvc}{\item[s.]息子が友人の活躍に\textbf{刺激を受ける}.\item[t.]息子が友人の活躍に\textbf{刺激される}.}例文\refexs{lvc}{s}では,動作性名詞「刺激」が実質的な動作内容を表しており,動詞「受ける」は動作の方向を表しているに過ぎない.今回は,\refexs{lvc}{s}を\refexs{lvc}{t}に言い換えるように,機能動詞構文の動詞を取り除き,動作性名詞の動詞形を主辞に据えるような言い換えを扱う.例文\refexs{lvc}{s}では動作性名詞は対格に現れているが,例\refex{lvc1},\refex{lvc2}のように,動作性名詞が主格,与格になる場合でも機能動詞構文が形成されうる.\numexs{lvc1}{\item[s.]彼女に対する気持ちに\textbf{変化が起こった}.\item[t.]彼女に対する気持ちが\textbf{変化した}.}\numexs{lvc2}{\item[s.]日本の住宅事情を\textbf{考慮に入れる}.\item[t.]日本の住宅事情を\textbf{考慮する}.}また,和語動詞,サ変名詞は形態的には異なるが同じように動作性名詞として機能動詞構文を形成する.これらを考慮し,\refex{pattern:lvc}のようなパターンを4種類記述した.\numexs{pattern:lvc}{\item[s.]$N$\{が,を,に\}$\phdep{V}${\quad}$V$\item[t.]$v(N)$}ここで,$N$,$V$,$v(N)$は\refex{lvcinst}と同様,各々名詞,動詞を表す変数,$N$の動詞形を表す関数である.格助詞の部分の``\{'',``\}''は選言を表す.次に,\longbracket{間違い,間違う},\longbracket{考慮,考慮する}のような動作性名詞と動作性名詞の動詞形の組を用意した.具体的には,茶筌が用いる日本語形態素解析用辞書『IPADIC』からサ変名詞,和語動詞の連用形とそれらの動詞形の組を20,155組抽出した.この集合を$N$と$v(N)$に関する語彙的制約とする.他方,機能動詞構文を形成しうる動詞については,文献\cite{muraki:91}に約60語例示されているものの網羅的とはいえない.このため,$V$についてはとくに制約を設けなかった.\begin{figure}[t]\leavevmode\vspace{-\baselineskip}\begin{center}\includegraphics*[scale=.37,keepaspectratio]{judgement-ppt.eps}\caption{事例ごとの適否判定の確定までの流れ}\label{fig:judgement}\end{center}\end{figure}形態・構文的パターンは{\KURA}によって自動的に係り受け構造の対に変換され,所与の文集合に網羅的に適用される.10,000文を入力したときに自動生成された言い換え候補は2,566件であった.個々の言い換え候補の適否判定にあたり,可能ならば作業者が言い換え候補を修正する.形態・構文的な情報のみでは言い換え先の表現を一意に決められない場合や{\KURA}に実装されている誤り修正機構が不適切な修正を施してしまう場合があるためである.機能動詞構文の言い換えについては,(i)活用形の変更,(ii)格助詞の変更,(iii)副詞の挿入,(iv)ヴォイス表現,アスペクト表現,ムード表現などの動詞性接尾辞の追加,の4種類の修正処理を許可した.たとえば,\refex{pattern:lvc}に示したパターンを例文\refexs{lvc}{s}に適用した場合は,正しい言い換え文\refexs{lvc}{t}を得るために受動態を表すヴォイス表現「られる」を後続する.一方,例文\refexs{aspect}{s}に同じパターンを適用した場合は,始動相を表すアスペクト表現「しだす」を後続するとともに格助詞「の」を「を」に置き換える.\numexs{aspect}{\item[s.]コンサートのチケット\textbf{の}\textbf{販売を始めた}.\item[t.]コンサートのチケット\textbf{を}\textbf{販売しだした}.}現在までに,最初の4,500文に対する言い換え候補983件の判定を終えている.また,残りの5,500文に対する言い換え候補から無作為に選んだ131件のみ判定を終えている.内訳は,判定結果が『適格』であった候補が547件,『不適格』であった候補が520件,『保留』であった候補が47件であった.ある文が異なる形に言い換えられる場合は作業者の内省に基づいて思い付くだけ例を記述しており,547件の言い換え候補に対して591件の言い換え事例を得ている.参考までに,『不適格』,『保留』とされた言い換え候補の例を各々例\refex{lvc:bad},\refex{lvc:deferred}に示す.\numexs{lvc:bad}{\item[s.]憲政擁護をさけぶ民衆の\textbf{デモに包囲された}.\item[t.]{\neqex}憲政擁護をさけぶ民衆に\textbf{デモされた}.}\numexs{lvc:deferred}{\item[s.]「存続は不可能」と\textbf{区切りをつけ}たがっている感じもしないではなかった.\item[t.]{\hatenaex}「存続は不可能」と\textbf{区切り}たがっている感じもしないではなかった.}例文\refexs{lvc:bad}{s}における「包囲する」はヴォイスあるいはアスペクトなどの機能を持っておらず「対象を取り囲む」という意味を持っている.これを取り除くように言い換えると意味が変化してしまうため,不適格とした.一方,例\refex{lvc:deferred}では,「区切りをつける」を一つの慣用句とみなし「終わらせる」というべきか,「(仕事を)区切る」とすべきかで意見が分かれた.また,自動生成した言い換え候補の中には,例\refex{lvc:out1},\refex{lvc:out2}のように,収集しようとしたのとは異なるクラスの言い換えもあった.このような候補についても可能ならば言い換え例を記述したが,適否については『不適格』とした.\numexs{lvc:out1}{\item[s.]\textbf{帰りに立ち寄る}温泉も大きな楽しみだ.\item[t.]\textbf{帰りの}温泉も大きな楽しみだ.\hfill(動詞省略による換喩化)}\numexs{lvc:out2}{\item[s.]\textbf{調査によると},仕事でのパソコン利用率は八六・一%.\item[t.]\textbf{調査の結果},仕事でのパソコン利用率は八六・一%.\hfill(複合辞の言い換え)}\subsection{動詞の自他交替(TransAlt)}\label{ssec:transalt}例\refexs{alternation}{a}のような動詞の自他交替を実現するためには\longbracket{揺れる,揺らす}のような自動詞と他動詞の組に関する知識が必要である.しかし,語彙調査の過程で作られた辞書や自他交替を扱う言語学の文献に断片的には記述されているものの,網羅性の高い資源はない.そこで,少なくとも収集源からは言い換え候補をもれなく収集できるように,自動詞と他動詞の組を人手で記述する.まず,次の\refex{pattern:transalt0}のような動詞の抽出パターンを記述した.このパターンは,形式的には言い換え候補の自動生成のための形態・構文的パターンと等しいが,言い換え後の表現を与えていない点のみ異なる.\numexs{pattern:transalt0}{\item[s.]$N_{1}$が$\phdep{V}${\quad}$N_{2}$\{に,から,で\}$\phdep{V}${\quad}$V$\item[t.]変形なし.}ここで,$N_{1}$,$N_{2}$は名詞を表す変数,$V$は動詞を表す変数である.なお,2つの格要素が動詞に係ることを条件としているが,これらの順序は問わない.言い換え候補を1,000件程度生成することにし,LVCとのおおまかな頻度の比較から言い換え候補の収集源として25,000文を用いることにした.この文集合に\refex{pattern:transalt0}などのパターン群を適用したところ,$V$に対応する動詞800語が取り出された.そして,各動詞に対して人手で自動詞,他動詞を付与を記述したところ,自動詞と他動詞の組を212組収集できた.次に,言い換え候補の自動生成のために,\refex{pattern:transalt1}のようなパターンを記述した.\numexs{pattern:transalt1}{\item[s.]$N_{1}$が$\phdep{V_{i}}${\quad}$N_{2}$に$\phdep{V_{i}}${\quad}$V_{i}$\item[t.]$N_{2}$が$\phdep{v_{t}(V_{i})}${\quad}$N_{1}$を$\phdep{v_{t}(V_{i})}${\quad}$v_{t}(V_{i})$}$N_{1}$,$N_{2}$はここでも名詞を表す変数である.一方,$V_{i}$,$v_{t}(V_{i})$は自動詞とそれに対応する他動詞を表しており,上の212組を用いて実現する.動詞の自他交替には例\refex{transalt1},\refex{transalt2}のように様々な助詞が関わるが,どの要素を主格に据えるべきかは文脈に依存するため,すべての候補を別々に生成する.また,例\refex{reciprocal}のように他動詞文を自動詞文に言い換える例も同時に収集するため,合計8種類のパターンを記述した.\numexs{transalt1}{\item[s.]与党の法案\textbf{に}野党\textbf{から}反対意見\textbf{が}\textbf{出る}.\item[t.]与党の法案\textbf{に}野党\textbf{が}反対意見\textbf{を}\textbf{出す}.}\numexs{transalt2}{\item[s.]戦火や迫害\textbf{で}難民\textbf{が}\textbf{生まれる}.\item[t.]戦火や迫害\textbf{が}難民\textbf{を}\textbf{生む}.}\numexs{reciprocal}{\item[s.]2位\textbf{が}先頭\textbf{との}距離\textbf{を}\textbf{縮めた}.\item[t.]2位\textbf{と}先頭\textbf{の}距離\textbf{が}\textbf{縮まった}.}動詞の自他交替についても適否を判定するためのガイドラインを作成し,修正の例を掲載した.具体的には,(i)活用形の変更,(ii)格助詞の変更,(iii)ヴォイス表現の変更,の3種類の修正処理を許可した.たとえば,例文\refexs{reciprocal}{s}のように他動詞を自動詞に置き換える場合,「2位が」や「先頭との」をどのように残すべきかは形態・構文的な情報のみでは特定できない.ゆえに,非決定のまま生成した候補を人手で修正する.自動詞と他動詞の組を得る際に用いた25,000文に上述のパターン群を適用した結果,985件の言い換え候補が生成された.これまでにこれらすべての判定を終えており,その内訳は『適格』が461件,『不適格』が503件,『保留』が21件であった.LVCの場合と同様,ある文が異なる形に言い換えられる場合があったため,461件の言い換え候補に対して484件の言い換え事例を得ている.参考までに,『不適格』,『保留』とされた言い換え候補の例を各々例\refex{transalt:bad},\refex{transalt:deferred}に示す.\numexs{transalt:bad}{\item[s.]議会の多数党\textbf{が}政権の座\textbf{に}\textbf{ついた}.\item[t.]{\neqex}議会の多数党\textbf{を}政権の座\textbf{に}\textbf{つけた}.}\numexs{transalt:deferred}{\item[s.]ビスマルクの左CK\textbf{を}熊谷\textbf{が}頭\textbf{で}\textbf{決めた}.\item[t.]{\hatenaex}ビスマルクの左CK\textbf{が}熊谷\textbf{の}頭\textbf{で}\textbf{決まった}.}例\refex{transalt:bad}は2名の作業者が同じ理由で『不適格』とした.言い換え前の文が自然発生的な出来事を指すにも関わらず,言い換えた後の文においては,それが何らかの主体の行為によってなされたという含みを持ってしまうためである.一方,例\refex{transalt:deferred}は,言い換えることによって「(ゴールを)決める」が表していた行為の動作主性が損なわれると考えるか否かで意見が分かれたため『保留』とした.また,LVCの場合と同様に,収集しようとしたのとは異なるクラスの言い換えもいくらか出現したが『不適格』とした.例を\refex{transalt:out1}に示す.\numexs{transalt:out1}{\item[s.]北朝鮮側の提案\textbf{が}米側の希望\textbf{を}十分に\textbf{満たし}ていなかった.\item[t.]北朝鮮側の提案\textbf{で}米側の希望\textbf{が}十分に\textbf{満たされ}ていなかった.\hfill(直接受身)} \section{議論} \label{sec:discussion}前節で述べた2つの言い換えサブコーパスの仕様を\tab{stats}に示す.また,\fig{lvc},\ref{fig:transalt}に適否の判定結果が確定した言い換え候補の数を示す.図中の横軸は2名の作業時間の合計であり,言い換え候補の判定時間,作業者間の議論の時間,適否判定ガイドラインの更新後に各候補の適否を再度判定する時間を含む.以下,(i)事例収集効率,(ii)収集した事例の網羅性,(iii)判定結果の信頼性について述べ,(iv)言い換えクラスの定義について議論する.\begin{table}[t]\leavevmode\begin{center}\footnotesize\caption{構築した言い換えサブコーパスの仕様}\label{tab:stats}\begin{tabular}{ll||c|c}\hline\hline\multicolumn{2}{l||}{言い換えクラス}&LVC&TransAlt\\\hline\multicolumn{2}{l||}{言い換え候補の収集源の文数}&10,000&25,000\\\multicolumn{2}{l||}{言い換えパターンの数}&4&8\\\multicolumn{2}{l||}{語彙知識の種類}&\bracket{$n$,$v_{n}$}&\bracket{$v_{i}$,$v_{t}$}\\\multicolumn{2}{l||}{語彙知識の規模}&20,155&212\\\hline\multicolumn{2}{l||}{言い換え候補の数}&2,566&985\\\hline\multicolumn{2}{l||}{作業者が適否を判定した言い換え候補の数(Judged)}&1,114&985\\&判定結果:『適格』(Correct)&547&461\\&判定結果:『不適格』(Incorrect)&520&503\\&判定結果:『保留』(Deferred)&47&21\\\hline\multicolumn{2}{l||}{収集した言い換え事例の数}&591&484\\\multicolumn{2}{l||}{作業時間(人時間)}&118&169.5\\\hline\end{tabular}\end{center}\end{table}\subsection{事例収集効率}\label{ssec:efficiency}現在までに2,031件の言い換え候補の判定結果が確定(\ssec{setting}で述べた通り不適格な候補の大半は1名のみの判定結果)しており,1,075件の言い換え事例が収集できた.\fig{lvc},\ref{fig:transalt}が示すように判定の速度は比較的安定していた.一人時間あたりでは,7.1件の言い換え候補の適否を確定,3.7件の言い換え事例を収集できている.先行研究では事例収集効率を定量的に評価していないため,我々の手法がどれほど効率的であるかを比較によって示すことはできない.ただし,同じ作業者が判定結果を見直すための時間,作業者間の議論の時間も計上していることを考慮すれば,妥当な速度といえよう\footnote{文献\cite{brockett:05,dolan:05}では,Web上のニュース記事から抽出した10,000文対を2名の作業者が独立に言い換えか否かに分類している.ChrisBrockett氏とのパーソナルコミュニケーションによると2〜3日(4〜6人日)で作業を終えたとのことであるが,この試みでは,(i)言い換えのクラスを限定せず,(ii)適否に関する厳密なガイドラインなしに節の重複の度合いと作業者の直感に基づいて判定し,(iii)判定結果が分かれた場合は議論なしに不適格としているためである.すなわち,本論文のような言い換えの適否に関する議論はない.}.さらなる事例収集効率の向上のためには,どの作業に最も時間を要しているかの分析が必要である.今回は各作業の時間を計測していなかったため,作業者のヒアリングに基づいて次の2つの原因を取り上げる.第一に,言い換え候補を不適格とした場合にどのような誤りが原因で不適格としたかの記述(\fig{annotation}の(d))に時間を要していた.誤り分類の体系は形態素情報や品詞体系,係り受け構造の情報に基づいているため,馴染みのない作業者には分類が難しかったようである.第二に,言語テストの難しさが作業効率を低下させる原因となっていた.これは,TransAltにおいてLVCよりも顕著に(1.75倍)作業効率が悪かったことにも現れている.本論文で用いたクラス指向の言い換え事例収集手法の効率は,用いている言語テストにも影響される.これについては\ssec{definition}で詳述する.ある程度の時間をかけても適否が判定できなかった場合に判定を保留することにすれば,さらなる効率化は実現できる.ただしこれは,次に述べる言い換え事例の網羅性という指標とのトレードオフになる.\begin{figure*}[t]\parbox[t]{.5\textwidth}{\leavevmode\begin{center}\includegraphics*[width=\linewidth,keepaspectratio]{13-3ia6f3.eps}\caption{適否を判定した言い換え候補の数および\\その判定結果の内訳(LVC)\\各線の意味は\tab{stats}を参照されたい.}\label{fig:lvc}\end{center}}\parbox[t]{.5\textwidth}{\leavevmode\begin{center}\includegraphics*[width=\linewidth,keepaspectratio]{13-3ia6f4.eps}\caption{適否を判定した言い換え候補の数および\\その判定結果の内訳(TransAlt)\\各線の意味は\tab{stats}を参照されたい.}\label{fig:transalt}\end{center}}\end{figure*}\subsection{網羅性}\label{ssec:exhaustiveness}どれだけ網羅的に言い換え事例を収集できているかを見積もるために,LVCで用いた文集合から無作為に750文取り出し,人手で同じクラスの言い換えを試行した.作成された206事例のうち獲得済みの事例は158事例であり,カバレージは約77\%(158\,/\,206)となった\footnote{TransAltの場合は格が省略されている文を抽出していないため,LVCよりもカバレージが低いと予想される.}.形態・構文的パターンでは収集できなかった48事例のうち,解析誤りによるものは1件のみであった.ゆえに,形態・構文的パターンを用いた候補生成は現実的なアプローチであると言える.34件は形態・構文的パターンをいくつか追加することで自動的に収集できる.たとえば,\refex{lvcka:pat1}のようなパターンを追加すれば,\refex{lvcka:ex1}のような事例も収集できるようになる.\numexs{lvcka:pat1}{\item[s.]$N\textrm{化}$\{が,を,に\}$_{(\RightarrowV)}${\quad}$V$\item[t.]$v(N\textrm{化})$}\numexs{lvcka:ex1}{\item[s.]これは市場\textbf{の}\textbf{活性化にむけた}規制緩和策だ.\item[t.]これは市場\textbf{を}\textbf{活性化する}規制緩和策だ.}残りの13件の取りこぼしは,\longbracket{ズレ,ズレる},\longbracket{伸び,伸びる}のような動詞形を持つ語の品詞がIPADICにおいて一般名詞となっていたことに起因する.これらをあらかじめ辞書に記述しておくことはパターンの記述に比べると難しいが,形態素辞書の整備が進めばカバレージを上げられると期待できる.手持ちのパターンおよび語彙資源がどれだけのカバレージを持っているか,制約としてどれだけ適切であるかを,言い換え生成および人手による適否判定の前に知ることはできない.ゆえに,上のような人手による分析は,我々がある言い換えクラスに対して持っている直感的な定義と自動的に収集できる範囲との違いを見極めるために欠かせない作業である.\subsection{判定結果の信頼性}\label{ssec:reliability}判定結果の信頼性を保証するには,より多くの作業者を用いる必要がある.ただしそれは人的コストとのトレードオフになる.そこで我々は,作業者間の判定結果に揺れが生じないように言い換えクラスごとに適否判定ガイドラインを設け,適格な言い換え候補についてのみ多重判定を施した(\fig{judgement}).また,判定に悩んだ場合は何日か後に見直す,作業者間で判定結果が分かれた場合は議論を通じて適否判定ガイドラインを更新するなどの工夫を施した.適格と判定された言い換え候補に関する作業者間の一致率は,作業への習熟,および適否判定ガイドラインの更新に伴って上昇した.たとえば,LVCの場合の作業者間一致率は,74\%(3日目),77\%(6日目),88\%(9日目),93\%(11日目)であった.このことは,作業者間の議論によって判断に悩むような言い換え候補や作業者間で判定結果が分かれるような言い換え候補に関する情報が整理され,ガイドラインが洗練されてきていることを示唆している.\fig{judgement}の判定手順がもたらす判定結果の信頼性をより正確に見積もるため,今後は第1,第2作業者とは独立に言い換え候補の適否を判定する第3作業者を立てる予定である.\subsection{言い換えクラスの定義に関する議論}\label{ssec:definition}特定の言い換えクラスのみを考えるならば言い換えの適否の判定基準を明確に定義できると期待していた.しかし,LVCとTransAltの作業効率の比較から,必ずしもその期待は満たされないことが明らかになった.TransAltでは他動詞を自動詞に言い換える際に格要素が欠落することをどこまで認めるかが議論になり,我々は,言い換えによって生成された自動詞文の主格要素が意志性(あるいは内在的コントロール\cite{kageyama:96})を持つか否かに着目した.すなわち,自動詞文に「自ら」,「勝手に」などの副詞を挿入した場合に文として成り立つ場合には,言い換え前の他動詞文の主格が自動詞文では含意されないため不適格とした.この言語テストに照らすと,例\refex{detrans1}は適格,\refex{detrans2}は不適格と判定される.\numexs{detrans1}{\item[s.]彼がスープ\textbf{を}\textbf{温めた}.\item[t.]スープ\textbf{が}\textbf{温まった}({\bad}勝手に).}\numexs{detrans2}{\item[s.]彼が氷\textbf{を}\textbf{溶かした}.\item[t.]{\neqex}氷\textbf{が}\textbf{溶けた}(勝手に).}ただし,言い換え前の文の主格が言い換えによって欠けるため,両例とも不適格だとする考え方もある.今回の試みによって蓄えられた多くの言い換え事例と適否判定ガイドラインには,今後このような問題を議論するための素材としての用途もある. \section{おわりに} \label{sec:conclusion}言い換えという現象を工学的・言語学的側面の両方から解明するためには,様々な言い換えを漠然と扱うだけでなく,特定の言い換えクラスに焦点をしぼった事例研究が欠かせない.本論文では,このような基礎研究の基盤となる言い換えコーパスを構築するため,言い換え前後の表現の形態・構文的パターンと既存の言い換え生成システムを用いる半自動的な事例収集手法について検討した.また,2つの言い換えクラスを取り上げた予備試行を通じ,この手法が比較的頑健に作用することを示した.言い換えコーパスに求められる仕様はその用途によって異なると予測される.たとえば,言い換え技術の性能評価用のコーパスは実際に用いられる表現の分布を反映する必要があるが,言い換えの構成性を裏付ける語の統語・意味的な特性を特定するためには,特定の構成要素ごとに偏りのないコーパスが求められる.ゆえに今後は,実際の言い換えコーパスの構築を通じてこれらの仕様の整理とそれを実現する技術の開発に取り組みたい.そして,事例収集効率と適否判定の信頼性の改善をはかりながら,\sec{aim}で示したような語彙構成的言い換えのそれぞれについてコーパスを構築していきたい.\bibliographystyle{jnlpbbl}\newcommand{\noopsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bannard\BBA\Callison-Burch}{Bannard\BBA\Callison-Burch}{2005}]{bannard:05}Bannard,C.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2005\BBCP.\newblock\BBOQParaphrasingwithbilingualparallelcorpora\BBCQ\\newblockIn{\BemProceedingsofthe43thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\597--604.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2003}]{barzilay:03:a}Barzilay,R.\BBACOMMA\\BBA\Lee,L.\BBOP2003\BBCP.\newblock\BBOQLearningtoparaphrase:anunsupervisedapproachusingmultiple-sequencealignment\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceandtheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\16--23.\bibitem[\protect\BCAY{Brockett\BBA\Dolan}{Brockett\BBA\Dolan}{2005}]{brockett:05}Brockett,C.\BBACOMMA\\BBA\Dolan,W.~B.\BBOP2005\BBCP.\newblock\BBOQSupport{Vector}{Machines}forparaphraseidentificationandcorpusconstruction\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalWorkshoponParaphrasing{\rm(}IWP\/{\rm)}},\BPGS\1--8.\bibitem[\protect\BCAY{Dolan,Quirk,\BBA\Brockett}{Dolanet~al.}{2004}]{dolan:04}Dolan,B.,Quirk,C.,\BBA\Brockett,C.\BBOP2004\BBCP.\newblock\BBOQUnsupervisedconstructionoflargeparaphrasecorpora:exploitingmassivelyparallelnewssources\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\350--356.\bibitem[\protect\BCAY{Dolan\BBA\Brockett}{Dolan\BBA\Brockett}{2005}]{dolan:05}Dolan,W.~B.\BBACOMMA\\BBA\Brockett,C.\BBOP2005\BBCP.\newblock\BBOQAutomaticallyconstructingacorpusofsententialparaphrases\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalWorkshoponParaphrasing{\rm(}IWP\/{\rm)}},\BPGS\9--16.\bibitem[\protect\BCAY{Dras}{Dras}{1999}]{dras:99:a}Dras,M.\BBOP1999\BBCP.\newblock{\BemTreeadjoininggrammarandthereluctantparaphrasingoftext}.\newblockPh.D.\thesis,DivisionofInformationandCommunicationScience,MacquarieUniversity.\bibitem[\protect\BCAY{藤田乾}{藤田\JBA乾}{2003}]{fujita:03:c}藤田篤,乾健太郎\BBOP2003\BBCP.\newblock\JBOQ語彙・構文的言い換えにおける変換誤りの分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11),pp.~2826--2838.\bibitem[\protect\BCAY{乾藤田}{乾\JBA藤田}{2004}]{inui:04:a}乾健太郎,藤田篤\BBOP2004\BBCP.\newblock\JBOQ言い換え技術に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(5),pp.~151--198.\bibitem[\protect\BCAY{Jackendoff}{Jackendoff}{1990}]{jackendoff:90}Jackendoff,R.\BBOP1990\BBCP.\newblock{\BemSemanticstructures}.\newblockTheMITPress.\bibitem[\protect\BCAY{影山}{影山}{1996}]{kageyama:96}影山太郎\BBOP1996\BBCP.\newblock\Jem{動詞意味論---言語と認知の接点}.\newblockくろしお出版.\bibitem[\protect\BCAY{影山}{影山}{2001}]{kageyama:01}影山太郎\JED\\BBOP2001\BBCP.\newblock\Jem{日英対照動詞の意味と構文}.\newblock大修館書店.\bibitem[\protect\BCAY{金城,青野,安田,竹澤,菊井}{金城\Jetal}{2003}]{kinjo:03}金城由美子,青野邦夫,安田圭志,竹澤寿幸,菊井玄一郎\BBOP2003\BBCP.\newblock\JBOQ旅行会話基本表現に対する日本語パラフレーズデータの収集\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\101--104.\bibitem[\protect\BCAY{Lavoie,Kittredge,Korelsky,\BBA\Rambow}{Lavoieet~al.}{2000}]{lavoie:00}Lavoie,B.,Kittredge,R.,Korelsky,T.,\BBA\Rambow,O.\BBOP2000\BBCP.\newblock\BBOQAframeworkfor{MT}andmultilingual{NLG}systemsbasedonuniformlexico-structuralprocessing\BBCQ\\newblockIn{\BemProceedingsofthe6thAppliedNaturalLanguageProcessingConferenceandthe1stMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}ANLP-NAACL\/{\rm)}},\BPGS\60--67.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin:93}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishverbclassesandalternations:apreliminaryinvestigation}.\newblockChicagoPress.\bibitem[\protect\BCAY{Mel'\v{c}uk\BBA\Polgu\`{e}re}{Mel'\v{c}uk\BBA\Polgu\`{e}re}{1987}]{melcuk:87}Mel'\v{c}uk,I.\BBACOMMA\\BBA\Polgu\`{e}re,A.\BBOP1987\BBCP.\newblock\BBOQAformallexiconinmeaning-texttheory(orhowtodolexicawithwords)\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13}(3-4),pp.~261--275.\bibitem[\protect\BCAY{村木}{村木}{1991}]{muraki:91}村木新次郎\BBOP1991\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{Quirk,Brockett,\BBA\Dolan}{Quirket~al.}{2004}]{quirk:04}Quirk,C.,Brockett,C.,\BBA\Dolan,W.\BBOP2004\BBCP.\newblock\BBOQMonolingualmachinetranslationforparaphrasegeneration\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing{\rm(}EMNLP\/{\rm)}},\BPGS\142--149.\bibitem[\protect\BCAY{下畑,竹澤,菊井}{下畑\Jetal}{2003}]{shimohata:03:b}下畑光夫,竹澤寿幸,菊井玄一郎\BBOP2003\BBCP.\newblock\JBOQ旅行会話における英語の同義表現コーパスの作成と分析\JBCQ\\newblock\Jem{情報科学技術レターズ},\BPGS\83--85.\bibitem[\protect\BCAY{Shinyama\BBA\Sekine}{Shinyama\BBA\Sekine}{2003}]{shinyama:03}Shinyama,Y.\BBACOMMA\\BBA\Sekine,S.\BBOP2003\BBCP.\newblock\BBOQParaphraseacquisitionforinformationextraction\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\65--71.\bibitem[\protect\BCAY{白井山本}{白井\JBA山本}{2001a}]{shirai:01:a}白井諭,山本和英\BBOP2001a\BBCP.\newblock\JBOQ換言事例の収集---日英基本構文を対象として\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\401--404.\bibitem[\protect\BCAY{白井山本}{白井\JBA山本}{2001b}]{shirai:01:b}白井諭,山本和英\BBOP2001b\BBCP.\newblock\JBOQ換言事例の収集---機械翻訳における多様性確保の観点から\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\3--8.\bibitem[\protect\BCAY{Takahashi,Iwakura,Iida,Fujita,\BBA\Inui}{Takahashiet~al.}{2001}]{takahashi:01:c}Takahashi,T.,Iwakura,T.,Iida,R.,Fujita,A.,\BBA\Inui,K.\BBOP2001\BBCP.\newblock\BBOQ{\scKura}:atransfer-basedlexico-structuralparaphrasingengine\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\37--46.\bibitem[\protect\BCAY{Zhang,Yamamoto,\BBA\Sakamoto}{Zhanget~al.}{2001}]{zhang:01}Zhang,Y.,Yamamoto,K.,\BBA\Sakamoto,M.\BBOP2001\BBCP.\newblock\BBOQParaphrasingutterancesbyreorderingwordsusingsemi-automaticallyacquiredpatterns\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}},\BPGS\195--202.\end{thebibliography}\newcommand{\email}[1]{}\begin{biography}\biotitle{略歴}\bioauthor{藤田篤(正会員)}{2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2006年より名古屋大学大学院工学研究科助手.現在に至る.博士(工学).自然言語処理,特にテキストの自動言い換えの研究に従事.情報処理学会,ACL各会員.}\bioauthor{乾健太郎(正会員)}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授.2004年文部科学省長期在外研究員として英国サセックス大学に滞在.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N05-04
\section{序論} 文法誤り訂正(GrammaticalErrorCorrection:GEC)は,言語学習者の書いた文の文法的な誤りを訂正するタスクである.GECは本質的には機械翻訳や自動要約などと同様に生成タスクであるため,与えられた入力に対する出力の正解が1つだけとは限らずその自動評価は難しい.そのため,GECの自動評価は重要な課題であり自動評価尺度に関する研究が多く行われてきた.GECシステムの性能評価には,システムの出力を正解データ(参照文)と比較することにより評価する手法(参照有り手法)が一般的に用いられている.この参照有り手法では,訂正が正しくても参照文に無ければ減点されるため,正確な評価のためには可能な訂正を網羅する必要がある.しかし参照文の作成は人手で行う必要があるためコストが高く,可能な訂正を全て網羅することは現実的ではない.この問題に対処するため,\citeA{Napoles2016}は参照文を使わず訂正文の文法性に基づき訂正を評価する手法を提案した.しかし参照有り手法であるGLEU\cite{Sakaguchi2016}を上回る性能での評価は実現できなかった.そこで本論文では\citeA{Napoles2016}の参照無し手法を拡張し,その評価性能を調べる.具体的には,\citeA{Napoles2016}が用いた文法性の観点に加え,流暢性と意味保存性の3観点を考慮する組み合わせ手法を提案する.流暢性はGECシステムの出力が英文としてどの程度自然であるかという観点であり,意味保存性は訂正前後で文意がどの程度保たれているかという観点である.各評価手法により訂正システムの性能の評価を行ったところ,提案手法が参照有り手法であるGLEUよりも人手評価と高い相関を示した.これに加えて,各自動評価尺度の文単位での評価性能を調べる実験も行った.文単位での評価が適切にできれば,GECシステムの人手による誤り分析に有用であるが文法誤り訂正の自動評価において文単位の性能を調べた研究はこれまでない.そこで,文単位評価の性能を調べる実験を行ったところ,提案した参照無し手法が参照有り手法より高い性能を示した.この結果を受けて,参照無し手法のもうの可能性も調査した.参照無し手法は正解を使わずに与えられた文を評価できるため,複数の訂正候補の中から最も良い訂正文を選択するために本手法が使えると考えられる.このことを実験的に確かめるために複数のGECシステムの出力を参照無しで評価し,最も良いものを採用するアンサンブル手法の誤り訂正性能を調べたところ,アンサンブル前のシステムの性能を上回った. \section{自動評価尺度の評価方法} \label{sec:eval4metrics}自動評価尺度に求められる性質のうち最も重要なものは,人手評価との相関が高いことであるとされている\cite{banerjee-lavie:2005:MTSumm}.このため,評価尺度の良さは人手との相関係数で評価されるのが一般的である.機械翻訳の評価尺度のsharedtaskであるWMT2017MetricsSharedTask\cite{bojar-graham-kamran:2017:WMT}においても自動評価尺度は人手評価との相関によって比較されている.このタスクにおいて評価尺度のメタ評価には,翻訳システム単位と文単位で評価が行われている.システム単位のメタ評価では,人手評価によるシステムに対する評価と自動評価尺度によるシステムに対する評価を比べることで評価する.文単位のメタ評価では,システムの翻訳ごとに人手で優劣が付けられており,自動評価尺度によってその優劣を識別できるかで評価する.システム単位の評価尺度に対してはピアソンの相関係数やスピアマンの順位相関係数,文単位の評価尺度に対してはケンドールの順位相関係数\footnote{WMT2017MetricsSharedTaskでは人手評価で同順とされた文対を除外する計算法が使用された.}が用いられた.文法誤り訂正の分野においても自動評価尺度の性能は,訂正システムに対する人手評価スコアと自動評価スコアの相関によって検証されてきた\cite{Grundkiewicz2015,Sakaguchi2016,Napoles2016}.一方で,我々の知る限り,自動評価尺度の文単位での性能は検証されていない.そこで本研究では,提案手法と従来手法の自動評価尺度を先行研究に従ってシステム単位で比較するとともに,機械翻訳タスクで行われているように各評価尺度の文単位評価における性能も調査する.システム単位評価,文単位評価に関しては\ref{sec:exp1_setting}節,\ref{subsubsec:meta_eval4sent}節でそれぞれ詳述する. \section{既存の評価尺度} \label{sec:pre_eval_metircs}機械翻訳の分野では,BLEU\cite{papineni-EtAl:2002:ACL}などの自動評価尺度によって翻訳システムが比較できるようになり,研究が発展してきた.文法誤り訂正の分野においても自動評価尺度は重要である.これまでの文法誤り訂正の研究では,機械翻訳と同様に参照有り手法による自動評価が用いられてきた.そこで本節では参照有り評価尺度の代表的な手法について述べ,その後参照無し評価尺度の手法について述べる.\subsection{参照有り手法}\label{subsec:refbase}訂正システムの評価では,学習者の書いた文に対する訂正の正解データ(参照文)を使うことが一般的である.この参照有り評価はM$^2$\cite{Dahlmeier:12:NAACL},I-measure\cite{Felice2015},GLEU\cite{Napoles:15:ACL,Sakaguchi2016}が考案されている.参照有り手法では正確な評価のために,各入力文に対する参照文を1個だけでなく複数個用いることができる.参照文を複数用いる場合,各文の評価はM$^2$およびI-measureでは最大値が採用され,GLEUは平均値が採用される.\begin{description}\item[M$^2$]文法誤り訂正の初期の研究では,訂正システムが行った編集操作がどの程度正解の編集と一致しているかをF値で評価していた\cite{dale-kilgarriff:2011:ENLG,dale-anisimoff-narroway:2012:BEA}.しかし,長いフレーズの編集が必要な場合などに訂正システムを過小評価してしまうという問題があった.この問題を解決するためにM$^2$は``editlattice''を用いることにより,システムが行った編集操作を正解と最大一致するように同定する.M$^2$によって算出されたF$_{0.5}$値がCoNLL2014SharedTaskonGECで採用されて以降,文法誤り訂正の評価尺度として最も用いられている.\item[I-measure]上述のM$^2$の問題点として,訂正を全く行わないシステムと誤った訂正をしたシステムに対するスコアがどちらも0となる点が挙げられる.そこで,入力文が改善されれば正の値,悪化すれば負の値をとる尺度であるI-measureが提案された.I-measureは入力文,訂正文,参照文に対してトークンレベルでアライメントを行い,精度(accuracy)に基づきスコアを計算する.\item[GLEU]機械翻訳の標準的な評価尺度であるBLEU\cite{papineni-EtAl:2002:ACL}をGECのために改善した評価尺度である.GLEUは訂正文($H$)と参照文($R$)で一致するn-gram数から,原文($S$)に現れるが参照文に現れないn-gram数を減算することによって計算される.形式的には次式で表される.\begin{gather}{\rmGLEU+}={\rmBP}\cdot\exp\left(\sum_{n=1}^{4}\frac{1}{n}\log(p_n\prime)\right)\\p_n\prime=\frac{N(H,R)-[N(H,S)-N(H,S,R)]}{N(H)}\end{gather}ただし,$N(A,B,C,\ldots)$は集合間でのn-gram重なり数を表し,BPはBLEUと同様のbravepenaltyを表す.bravepenaltyは入力文に対して出力文が短い場合にn-gram適合率を減点する項である.これまでに提案された参照有り手法の中では最も人手評価との相関が高い\cite{Napoles2016}.\end{description}\subsection{参照無し手法}機械翻訳の分野では,参照文を用いずに翻訳の品質を評価する品質推定(QualityEstimation)と呼ばれるタスクも行われており,近年はsharedtaskも開催されている\cite{bojar-EtAl:2016:WMT1,bojar-EtAl:2017:WMT1}.機械翻訳の品質推定タスクでは,翻訳システムの出力の良さを測るために,Human-targetdTranslationErrorRate(HTER)\cite{hter}と呼ばれる,人間の翻訳とシステムの翻訳の編集距離がどの程度近いかを計算する指標が用いられる.機械翻訳の品質推定の手法では,各システムの出力に対してHTERが付与された大量のデータを用いてシステムを学習する.文法誤り訂正の参照無し評価用のデータセットには,一部の少量の文に対してのみ人手の評価が付与されているため,品質推定の手法を文法誤り訂正の参照無し評価に応用することは難しい.文法誤り訂正の分野では,参照文を用いずに訂正の品質を評価する手法を\citeA{Napoles2016}が初めて提案した.文法誤り訂正では訂正システムの入出力文に対して訂正の品質が付与されたデータが十分にないため,訳文品質推定の標準的な手法を用いることができない.そこで\citeA{Napoles2016}は,訂正システムの出力文の文法性を評価する3つの手法を提案した.1つ目はe-rater${}^\text{\textregistered}$による文法誤り検出数に基づく評価,2つ目はLanguageTool\cite{Milkowski:10:SPE}による文法誤り検出数に基づく評価,3つ目は\citeA{Heilman2014}の言語学的な素性に基づく文法性予測モデルを用いた評価である.実験の結果,e-rater${}^\text{\textregistered}$を用いる手法が最も優れており,参照有り手法であるGLEUと同等の性能であることが示された.しかし,e-rater${}^\text{\textregistered}$は通常,自然言語処理の研究目的でオープンに利用することはできない\footnote{e-rater${}^\text{\textregistered}$はEnglishTestingService(ETS)の作文評価サービスCriterionの1機能として提供されており,Criterionは教育機関向けの有償サービスであるため.}.そこで,本研究ではe-rater${}^\text{\textregistered}$を用いず,LanguageToolおよび\citeA{Heilman2014}のモデルなどを組み合わせることで性能向上を図る. \section{提案手法} \label{subsec:refless}人手評価に近い参照無し評価を実現するために,\citeA{Napoles2016}の文法性に基づく参照無し評価を拡張する.人手による訂正の傾向を捉えるために,文法性,流暢性,意味保存性の3つの観点を考慮した参照無し評価手法(各観点,意味保存性(Meaningpreservation),流暢性(Fluency),文法性(Grammaticality)の頭文字を取って\textbf{MFG}と呼ぶ.)を提案する.\citeA{Napoles2017}が参照文作成の際に用いたガイドラインでは,自然な文にすること,文法的な誤りは訂正すること,文意は保存することが指示されており,人手による訂正では一般的にこのような観点に基づいて訂正されることが多い.文法性は,GECシステムの出力に標準英語上の文法誤りがあるかどうかという観点であり,先行研究でも用いられた\cite{Napoles2016}.流暢性は,GECシステムの出力がどの程度自然な英文であるかという観点である.この観点は先行研究\cite{Sakaguchi2016}において文法性と区別され,重要性が示された.意味保存性は,訂正の前後で文意が変わっていないかという観点である.提案手法は,参照文を使わずにこれら3つの観点に基づきGECシステムを評価する.本稿では,ある入力文$s$に対する訂正文が$h$であったとき($s,h$)に対するスコアを,文法性のスコア$S_G$,流暢性のスコア$S_F$,意味保存性のスコア$S_M$の重み付き和によって求める.\begin{equation}\mathrm{Score}(h,s)=\alpha\mathrm{S}_\mathrm{G}(h)+\beta\mathrm{S}_\mathrm{F}(h)+\gamma\mathrm{S}_\mathrm{M}(h,s),\label{eq:score}\end{equation}ただし${\rmS_G}$,${\rmS_F}$,${\rmS_M}$の値域は[0,1]であり,$\alpha+\beta+\gamma=1$である.システムのスコアは各$\rm{Score(h,s)}$の平均を用いる.各観点は参照文を用いずに以下の手法によりモデル化する.\subsection{文法性}\citeA{Napoles2016}が参照無し評価に用いたモデルのうち,\citeA{Heilman2014}の言語学的な素性に基いたモデルを行う手法をベースに用いる.具体的には,文法性のスコア${\rmS_G}(h)$は言語学的な素性に基づくロジスティック回帰により求める.素性については,\citeA{Heilman2014}が用いたスペルミス数,n-gram言語モデルスコア,out-of-vocabulary数,PCFGおよびリンク文法に基づく素性に加え,依存構造解析に基づく数の不一致素性とLanguageTool\footnote{https://languagetool.org}による誤り検出数を素性として用いた.モデルの学習はGUGデータセット\cite{Heilman2014}に対して\citeA{Napoles2016}の実装\footnote{https://github.com/cnap/grammaticality-metrics/tree/master/heilman-et-al}を用いた.さらに,言語モデルの学習のためにGigaword\cite{GIGAWORD}とTOEFL11\cite{TOEFL}を用いた.GUGデータセットのテストセットにおいて文法性2値予測タスクを行ったところ,元々の\citeA{Napoles2016}実装の正解率が77.2\%だったのに対し,我々が修正を加えたモデルの正解率は78.9\%であった.\subsection{流暢性}文法誤り訂正における流暢性の重要性は\cite{Sakaguchi2016,Napoles2017}において示されたが,流暢性を考慮する参照無し評価手法はこれまでに提案されていない.流暢性は言語モデルによってとらえることができる\cite{Lau2015}.具体的には,訂正文$h$に対し,流暢性${\rmS_F}(h)$を次のように求める\footnote{$S_N$は多くの場合0以上1未満であるが,0未満のとき$S_N=0$,1以上のとき$S_N=1$とする}.\begin{equation}{\rmS_F}(h)=\frac{\logP_m(h)-\logP_n(h)}{\lverth\rvert}\end{equation}$\lverth\rvert$は文長,$P_m$は言語モデルによる生成確率,$P_n$はユニグラム生成確率である.本研究では,言語モデルにはRecurrentNeuralNetwork(RNN)言語モデル\cite{mikolov2012statistical}を採用し,実装はfaster-rnnlm\footnote{https://github.com/yandex/faster-rnnlm}を用いた.学習にはBritishNationalCorpus\cite{BNcorpus}およびWikipediaの1,000万文を用いた.作成したモデルは\citeA{Lau2015}のテストデータにおいて,人間の容認性判断に対するピアソンの相関係数が0.395であった.\subsection{意味保存性}文法誤り訂正においては原文の意味が訂正後も保存されていることは重要である.例えば,以下の文(\ref{mean:origin})が文(\ref{mean:wrong})に訂正される事例を考える.\eenumsentence{\item\textit{Itisunfairtoreleasealawonlypointtothegeneticdisorder.}(original)\label{mean:origin}\item\textit{Itisunfairtopassalaw.}(revised)\label{mean:wrong}}文(\ref{mean:wrong})は文法的であるが,文(\ref{mean:origin})の意味が保存されていないため,文(\ref{mean:wrong})は不適切な訂正である.意味がどの程度保存されているかを測る単純な方法は,原文の単語が訂正後の文でも出現する割合を計算する方法である.このような目的のために機械翻訳の評価尺度を用いる方法が考えられる.本研究では,METEOR\cite{Denkowski2014}を訂正前後の文に適用することで,どの程度文意が保存されているかを評価する.METEORはBLEUなどの評価尺度と比べて意味的な類似度を重視した評価尺度である.本稿では入力文$s$と訂正文$h$に対する意味保存性のスコア${\rmS_M}(h,s)$を次式により求める.\begin{align}P&=\frac{m(h_c)}{\lverth_c\rvert}\\R&=\frac{m(s_c)}{\lverts_c\rvert}\\\rm{S_M}(h,s)&=\frac{P\cdotR}{t\cdotP+(1-t)\cdotR}\end{align}$h_c$はGECシステムの出力中の内容語,$s_c$は原文中の内容語である.$m(h_c)$は出力中の内容語のうちマッチングされた単語数,$m(s_c)$は原文中の内容語でマッチングされた単語数を表す.$t$の値はデフォルト値である$0.85$を用いた.METEORの単語マッチングでは表層だけでなく,活用形,類義語,パラフレーズも考慮される.これに加え,本稿ではスペルミスが訂正されてもマッチングされるよう,スペルチェッカを用いてMETEORを拡張した. \section{実験} \ref{sec:eval4metrics}節で述べたように,本研究ではシステム単位と文単位で評価尺度のメタ評価を行うことで参照無し評価の有効性を確かめる.\subsection{自動評価尺度による訂正システム単位評価}\label{subsec:correlation}本節では,提案手法および従来手法による自動評価がシステム単位の評価でどの程度人間に近いかを調べるための実験について述べる.\subsubsection{実験設定}\label{sec:exp1_setting}\citeA{Napoles2016}と同様に,各自動評価手法で訂正システムの出力文を評価し,各文に対するスコアの平均を訂正システムに対するスコアとし,図\ref{fig:system_eval}のように人手評価と比較することで評価尺度のよさを調査した.人手評価との近さを測るためにピアソンの相関係数とスピアマンの順位相関係数を用いた.各相関係数は\cite{Grundkiewicz2015}のTable3cの人手評価を用いて計算した.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f1.eps}\end{center}\caption{自動評価尺度のシステム単位評価}\label{fig:system_eval}\end{figure}この実験では,CoNLL2014SharedTask\cite{Ng:14:CoNLL}のデータセット,およびそれに対して\citeA{Grundkiewicz2015}が作成した人手評価を用いた.このデータセットは,テストデータ1,312文と,それに対する参加12システムの訂正結果を含む.このデータに対し,\citeA{Grundkiewicz2015}は人手で文ごとに評価した少量のデータを使い,レーティングアルゴリズムであるTrueSkill\cite{NIPS2006_3079}を用いて訂正システム単位の人手評価スコアを算出した.また,このテストデータに対しては多くの参照文が作成されている.公式の参照文が2個,\citeA{Bryant2015}による参照文が8個,\citeA{Sakaguchi2016}による参照文が8個作成されている.本実験では,従来の参照有り手法の性能を最大にするためにこれら18個全ての参照文を用いた.提案手法であるMFGの重み$\alpha,\beta,\gamma$の選択はJFLEGデータセットを用いて行った.これはCoNLLデータセットをdevデータとtestデータに分割することができないためである.また,実際にMFGを使ってシステムを評価する際にも,全く同じシステムの集合に対して人手順位評価がついているデータセットが事前に手に入ることは期待できないため,システム単位の評価ではdevデータとtestデータに分割して重みを決めることは適切ではない.GECの評価尺度の性能評価に使えるデータセットは現在CoNLLとJFLEGの2つしかないため,本研究ではJFLEGデータセットで重みを調整した.ただし,このデータセットはCoNLLデータセットとは次の2点において性質が大きく異なる.(1)訂正システムの数が異なる.CoNLLデータセットには12システムが含まれているのに対し,JFLEGデータセットには4システムしか含まれていない.(2)各システムの編集率の分散が小さい.CoNLLデータセットにおいて各システムが訂正した文の割合は3.7\%〜77\%なのに対し,JFLEGでは56\%〜74\%である.このように性質の大きく異なるデータセットを使った場合にも一方で調整した$\alpha,\beta,\gamma$が他方でもうまく働くとすれば,将来においても$\alpha,\beta,\gamma$の調整はそれほど困難にならない可能性がでてくると考えられる.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f2.eps}\end{center}\hangcaption{JFLEGデータセットとCoNLLデータセットにおけるピアソン相関係数.$x$軸は$\gamma$,$y$軸は$\beta$,$z$軸はピアソンの相関係数を表す.}\label{fig:jfleg_conll_pearson}\end{figure}そこで,性質の大きく異なるデータセットで重みの調整が可能かを調査するために,実際に,CoNLLとJFLEGの2つのデータセットにおいて重みの値を0.01刻みでグリッドサーチし,ピアソンの相関係数を計算し各データセットの傾向を調査した.図\ref{fig:jfleg_conll_pearson}に結果を示す.どちらのデータセットにおいても概ね同じ傾向が見られた.いずれのデータセットにおいても,$\alpha,\beta,\gamma$の値の広い領域で安定的に高い性能を示しており,またその領域は2つのデータセットで概ね一致している.このことは,一方のデータセットで調整した$\alpha,\beta,\gamma$がもう一方のデータセットでも有効に働くことを意味している.そこで,JFLEGデータセットを使って適当な$\alpha,\beta,\gamma$を選択し,その重みがCoNLLデータセットにおいても有効であるかを実験する.具体的には,JFLEGデータセットにおいて相関が0.9以上となっている$\alpha,\beta,\gamma$の領域(図\ref{fig:jfleg_conll_pearson}をz軸から見た図\ref{fig:jfleg_pearson_from_above})の中心の点の重み,およびその周辺4点の重みを用いた.中心の重みは$(\alpha,\beta,\gamma)=(0.35,0.35,0.3)$,周辺の4点の重みはそれぞれ$(\alpha,\beta,\gamma)=(0.25,0.35,0.4),(0.25,0.45,0.3),(0.45,0.25,0.3),(0.45,0.35,0.2)$を使用した.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f3.eps}\end{center}\caption{図\ref{fig:jfleg_conll_pearson}左をz軸方向から見た図}\label{fig:jfleg_pearson_from_above}\end{figure}\begin{table}[b]\caption{自動評価による訂正システムのランキングと人手評価間の相関係数}\label{tbl:exp}\input{04table01.tex}\end{table}\subsubsection{実験結果}表\ref{tbl:exp}に各手法の人手との相関を示す.3つの観点を用いる提案手法は,中心点の重みを使った場合とその周辺の点4つの内,最も高い相関だった点と最も低い相関だった点の結果を示す.文法性のみ,流暢性のみの評価尺度ではM$^2$を上回ったがGLEUには及ばなかった.意味保存性のみの評価は人手評価との相関が弱いという結果になった.しかし,意味保存性に流暢性を組み合わせることにより性能が改善し,GLEUを上回った.意味保存性,すなわちMETEORは,表層の類似度に基づく評価となっているため,あまり訂正を行わないシステムに対し高い評価を与えてしまう.それにもかかわらず,流暢性と組み合わせたときに重要な役割を果たしていると考えられる.また,3観点を全て組み合わせるとさらに性能が向上($\rho=0.885$)した.この結果の意義は,参照無しでも参照有り手法であるGLEUよりも人手に近い評価ができる可能性を初めて示したことである.また,我々の知る限りこの値は参照無し手法の最高性能である.また,中心点の周辺の点の重みで実験した結果,相関が最も高い点では$\rho=0.912$となり,相関が最も低い点で$\rho=0.851$となった.相関が最も低い点でもGLEUとほぼ同等の性能であり,ピアソンの相関係数ではGLEUを上回った.この結果は特定の2つのデータセットから得られた結果であり,全く新しいデータセットに必ずしも一般化して適応できるわけではないが,性質の異なるデータセットを開発データとして用いたとしても,参照無し手法で参照有り手法を越える可能性があることを実験的に明らかにしたことに意義がある.一方,本実験では文法性の必要性は示されなかった.本実験では3観点から文法性を除いたときの方が高性能($\rho=0.929$)となったことからも,文法性は$\alpha,\beta,\gamma$の調整次第ではかえって悪影響を与える場合があるといえる.本実験で流暢性モデルとして用いたRNN言語モデルでは文構造を完全には捉えられないと言われているが\cite{TACL972},学習者の文の大半は単純な構造であることと,一般に流暢な文は文法的であることが多いことから,流暢性モデルが文法性モデルを包含している部分があり,文法性モデルを用いなくても十分正確な評価ができたと考えられる.流暢性を除いた場合の相関が$\rho=0.786$,意味保存性をのぞいた場合の相関が$\rho=0.863$となり,3つの観点を使った場合よりも低い相関になっていることから,流暢性・意味保存性は参照無し評価において重要であると言える.\subsection{文単位評価の性能調査}\label{sec:sent-level}\ref{subsec:correlation}節の実験で,GLEUおよび提案手法はシステム単位では人手評価と強く相関していることを示した.しかし,システム単位評価が適切であるからといって,それぞれの文に対して正しくスコアがつけられているとは限らない.例えば,図~\ref{fig:yans}のような例を考える.この例の人手評価では,システムAがBよりもよいと判断している.システム単位の評価を見ると,自動評価尺度もAに対して0.8,Bに対して0.6をつけている.これは人手評価と同じ結果であり,システム単位では正しく評価ができている.文単位で見ると3文中2つがシステムAがよいと言っているが,自動評価尺度の結果は真逆になっている(図~\ref{fig:yans}の右).このように文単位のスコアを見たとき,自動評価による優劣判定が人手評価と異なっている文があれば,その自動評価尺度は文単位では訂正文を正しく評価できていないことになる.そこで本研究では,これまで提案された自動評価尺度であるM$^2$,I-measure,GLEUおよび参照無し評価尺度が文単位でどの程度正確に評価できるかを調査する.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f4.eps}\end{center}\caption{文単位評価が不適切な例}\label{fig:yans}\end{figure}\subsubsection{文単位評価の実験設定}文単位評価の性能調査のためには,訂正システムの出力それぞれに対して人手評価が付与されているデータが必要である.本研究では前節で用いたデータ,すなわち\citeA{Grundkiewicz2015}によって作られたデータを使用する.このデータはシステム単位の人手評価のために作られたものではあるが,訂正システムの各出力に対して人手評価が付与されているため,その情報を用いる.具体的には表~\ref{tbl:evaluation}のように,1つの入力文に対して複数システムの出力が与えられており,それらに対して人手評価が5段階の相対評価で与えられている.\begin{table}[b]\caption{入力文$s$に対する複数の訂正システムの出力$h$と人手評価}\label{tbl:evaluation}\input{04table02.tex}\end{table}文単位評価の場合,あるテストセットに対する複数システムの出力が得られた時,そのごく一部を人手で評価し,残りを自動評価尺度で評価することは,必ずしも不自然な設定ではない.そこで,本実験ではCoNLLデータセットをdevデータとtestデータに分割することで提案手法であるMFGの重み$\alpha,\beta,\gamma$を調整した.今回はCoNLLデータセットをおよそ1:9の割合でdevセットとtestセットに分割し,devセット上で後述の正解率が最大となる重みを0.01刻みのグリッドサーチにより調整した.調整の結果,$(\alpha,\beta,\gamma)=(0.03,0.51,0.46)$の重みとなった.\subsubsection{文単位評価のメタ評価方法}\label{subsubsec:meta_eval4sent}文法誤り訂正の評価尺度のシステム単位での性能を検証する場合には相関係数を用いた.しかしながら通常の相関係数は複数システムの出力に対する人手評価が全て同じ,もしくは自動評価が全て同じ値の場合に定義することができない.文単位の場合,自動評価尺度によっては訂正が異なっていても全て同じスコアになる場合があるため,相関係数では適切に評価できない.また,人手評価が同じ訂正に関しては自動評価尺度で近いスコアが付くことが望ましいと考えられる.そこで,本研究では任意の2つの訂正に対する人手評価が異なる場合と同じ場合に分けて評価した.人手評価が異なるペアに対しては,自動評価尺度が人手評価で優れている方に高いスコアが与えられていれば正答とみなし,正解率(Accuracy)により評価した.\begin{equation}Accuracy=\frac{\mbox{大小関係を適切に評価できたペア数}}{\mbox{人手評価の順位が異なるペア数}}\end{equation}例えば,表\ref{tbl:evaluation}の例では,$(h_1,h_2)$,$(h_1,h_3)$,$(h_1,h_4)$,$(h_2,h_3)$,$(h_2,h_4)$の5つの組み合わせが人手評価の異なるペアである.自動評価尺度がこのうち2つのペアの大小関係を適切に評価できた場合,$Accuracy=2/5$になる.また,\ref{sec:eval4metrics}節で述べた,WMT17MetricsSharedTaskで使用されたケンドールの順位相関係数$\tau$による評価も行った.\begin{equation}\tau=\frac{\mbox{大小関係を適切に評価できたペア数}-\mbox{大小関係を逆順に評価したペア数}}{\mbox{人手評価の順位が異なるペア数}}\end{equation}この$\tau$は,Accuracyと比べると,人手評価の順位が異なっているにもかかわらず,自動評価で同じ値がつく事例を軽視している.この評価を優劣判定調査と呼ぶ.人手評価が同じペアは自動評価スコアもできるだけ近い値になるのが望ましい.そのため自動評価スコア同士の平均絶対誤差(MeanAbsoluteError:MAE)で評価した.\begin{equation}MAE=\frac{\sum{\lvertscore_1-score_2\rvert}}{\mbox{人手評価が同順のペア数}}\end{equation}例えば表\ref{tbl:evaluation}における$(h_3,h_4)$は人手評価が同じペアであり,この2つに対して自動評価尺度で付けたスコアからMAEを計算する.ただし,もともとスコアの分散が小さい評価尺度が有利になるのを防ぐため,各評価尺度のスコアは平均が0,分散が1になるよう標準化した.この評価を類似性判定調査と呼ぶ.テストデータとして用いる\citeA{Grundkiewicz2015}の人手評価は,8人の評価者がそれぞれCoNLL2014SharedTaskのデータからサンプリングされた入力文および訂正文に対してランキングを付与することによって作成された.このため,一部の(入力文,訂正文)の組については複数人のランキングが付与されているが,本実験ではそれらを別インスタンスと見なして評価した.テストデータにおいて,優劣判定調査の対象は14,822組,類似性判定調査の対象は5,964組存在した.\subsubsection{結果}\label{subsec:res}\noindent\textbf{優劣判定調査の結果}人手評価が異なる2文に対する優劣判定の性能を表\ref{tbl:accuracy}に示す.提案手法であるMFGは参照有り手法と比べて高い正解率を示した.参照有り手法の中ではGLEUがM$^2$やI-measureよりも正解率が高かった.MFGとGLEUの正解率の差についてマクネマー検定を行ったところ,5\%水準で統計的に有意であった.ケンドールの順位相関係数においても提案手法は参照有り手法よりも高い性能を示した.参照有り手法の中ではI-measureが最も高い$\tau$値を示した.提案手法とI-measureの$\tau$値の差についてブートストラップ検定を行ったところ,5\%水準で統計的に有意であった.\begin{table}[b]\caption{人手評価が異なる2文に対する優劣判定の性能}\label{tbl:accuracy}\input{04table03.tex}\end{table}\noindent\textbf{類似性判定調査の結果}人手評価が同じ2文に対するスコアの平均絶対誤差を表\ref{tbl:mae}に示す.MFGの平均絶対誤差が小さく,人手評価が同じ2文に対して最も近いスコアを与えることができている.参照有り評価手法の中では,GLEUが最も良い結果となっており,優劣判定調査・類似性判定調査の両方で優れている.\begin{table}[b]\caption{人手評価が同じ2文に対するスコアの平均絶対誤差}\label{tbl:mae}\input{04table04.tex}\end{table}システム単位評価の結果と文単位評価の結果を比較すると,各評価尺度の性能の序列は文単位でも同じとなっている.しかし,システム単位評価ではI-measureとGLEUの間に差があるが,優劣判定能力においては差は認められない.一方,類似性判定調査の結果ではGLEUがI-measureを上回っている.これらの結果からI-measureは優劣判定はできるが,その評価スコア自体は適切につけられていないことが示唆される.\subsubsection{事例分析}参照無し手法が人手評価の異なる訂正を適切に評価できていた例を示す.表\ref{tbl:exp1_example}の例で訂正Aは文法的であるが訂正Bは主語と述語の数が一致していないため文法的ではない.この例で参照無し手法はAの方を高く評価できたが,参照有り手法はBの方を高く評価した.これは訂正Bの表層が参照文と似ているからであるが,参照有り手法は訂正と参照文が異なっている箇所の重大性を考慮せずに評価するからであると考えられる.\begin{table}[b]\caption{リファレンスベース手法の優劣判定の誤り例}\label{tbl:exp1_example}\input{04table05.tex}\end{table}\begin{table}[b]\caption{リファレンスレス手法の優劣判定の誤り例}\label{tbl:exp1_example2}\input{04table06.tex}\end{table}一方,参照無し手法は失敗したが従来手法は正答できたものとしては,冠詞だけが異なっている事例が多く見られた.例えば,表~\ref{tbl:exp1_example2}における訂正Aには冠詞誤りが2箇所存在しており,参照無し評価尺度では人手評価が高い方に低いスコアをつけてしまっている.これは適切な冠詞選択のためには文脈情報が必要なことが多く,参照無し手法は文脈情報を一切用いないのに対し,従来手法は文脈を考慮して作成された参照文と訂正を比較しているからであると考えられる.人手評価が同じ訂正に対し,参照有り手法の絶対誤差が大きかった例を表~\ref{tbl:exp2_example}に示す.訂正AとBは人手評価に影響を与えるほどの差異は無い.しかし訂正Aは参照文に無く,訂正Bは参照文と完全に一致している.このためM$^2$およびI-measureは人手評価が同じにも関わらず大きく異なる評価を行っている.GLEUは比較的近い値をつけている.理由としては,GLEUはn-gram適合率に基づく評価である点や,参照文が複数あるときにその平均値を採用している点が考えられる.しかし,標準化を行うとその差は0.674となる.一方,参照無し手法は標準化を行ってもその差は0.109に収まっており,人間に近い評価ができている.\begin{table}[t]\caption{人手評価が同じ文に対するリファレンスベース手法の誤り例}\label{tbl:exp2_example}\input{04table07.tex}\end{table}\subsection{参照無し評価の文法誤り訂正への応用可能性の調査}\ref{sec:sent-level}節の実験より,提案手法が文単位においても参照有り手法を上回る可能性があることが明らかになった.それを受け,本節では参照無し評価尺度のもうの可能性を調査する.参照無し評価尺度は正解データを必要としないため,正解データのない文に対しても評価スコアを与えることができる.つまり,参照無し評価尺度を使えば,GECシステムの出力した訂正文の候補の中から最もよい訂正文を選択することで誤り訂正の精度を改善できる可能性がある.そこで本節では,複数の訂正候補から最もよい訂正を選択する訂正システムを想定したときに実際に訂正性能が向上するかどうかを調べた.以下,この手法をアンサンブルシステムと呼ぶ.\subsubsection{実験設定}図~\ref{fig:ensemble}のように,各入力文に対する複数のGEC訂正システムの出力を参照無し手法で評価し,最もスコアの高い訂正を選択するシステムを構築した.評価用のデータとしてCoNLL2014SharedTaskonGECのテストセットを使用した.アンサンブルするシステムとしては,CoNLL2014SharedTaskonGEC参加12システムの訂正結果を使用する\footnote{http://www.comp.nus.edu.sg/{\textasciitilde}nlp/conll14st/official\_submissions.tar.gz}.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f5.eps}\end{center}\hangcaption{アンサンブルシステムの概要.各システムの訂正を参照無し手法によって評価し,最善の文を出力する.}\label{fig:ensemble}\end{figure}\subsubsection{評価方法}アンサンブルによりGECシステムの性能が向上するかどうかを調べるために,\citeA{Grundkiewicz2015}や\citeA{Napoles2017}がシステム単位の人手評価値を求めるために使った方法を使用する.彼らと同様に,システム単位の人手評価をGrundkiewiczらのデータセットを用いて各システムに対する人手評価をTrueSkill\cite{NIPS2006_3079}により再計算することにより求めた.ただし,人手評価は一部の入力文(1,312文中663文)に対する一部の訂正にしか与えられていないため,人手評価が与えられている文のみを使用した.また,全入力文に対する訂正を評価するために,参照有り手法による評価も行った.評価尺度としてはM$^2$とGLEUを用いた.GECの先行研究と直接比較することができるようにM$^2$は,GECシステムの評価で最も一般的な方法に従い計算した.\ref{subsec:correlation}節,\ref{sec:sent-level}節で用いたM$^2$と異なるのは,参照文には公式の2セットのみを用いる点,システム単位のスコアがmacro-F$_{0.5}$値によって算出される点である.GLEUについては\ref{subsec:correlation}節,\ref{sec:sent-level}節と同様,正確な評価のために参照文に18セット全てを用い,システム単位のスコアは文単位のスコアの平均によって算出した.\subsubsection{結果}アンサンブルシステムによる文法誤り訂正の実験結果を表\ref{tbl:ensemble}に示す.いずれの評価尺度でも参照無し手法で訂正を選択することにより訂正性能が向上した.TrueSkillのスコアが約2倍になっていることは訂正が2倍改善したことを意味するものでは無いが,明らかな性能向上を示している.M$^2$スコアやGLEU+についても性能が改善することが確かめられた.\begin{table}[t]\caption{訂正システムに対するスコア}\label{tbl:ensemble}\input{04table08.tex}\vspace{4pt}\smallトップシステムはCoNLL2014参加システムで各スコアが最良のシステムを意味し,括弧内にシステム名を示した.\par\end{table}この実験結果から参照無し評価手法は,文法誤り訂正の性能向上に有用であると言える.また,本研究で行ったアンサンブル手法ではなく,参照無し評価手法のコンポーネントである文法性,流暢性,意味保存性の尺度を直接GECシステムの中に取り込んだモデルを作ることも考えることができる.アンサンブル手法は従来モデルの訂正候補から最良のものを選択するのに対し,そうしたモデルは3観点を考慮した訂正を出力できるため,さらなる性能向上が期待できる. \section{結論} 本研究では,GECシステムを自動で評価するための参照無し手法を提案し,文法性,流暢性,意味保存性の観点を組み合わせることにより,GECシステムの自動評価を従来手法よりも正確に行える可能性があることを実験的に示した.また,文単位での評価性能を調べる実験を行ったところ,提案した参照無し手法が従来手法より高い性能を示した.さらに,参照無し評価を使ったアンサンブル手法による誤り訂正の性能を調査し,参照無し評価尺度を使うことで文法誤り訂正の性能を向上させることができることを明らかにした.今後の展望としては,大量のデータを活用し,各観点の評価方法をより精緻な手法にすることで性能の向上を図ることが考えられる.例えば,誤り訂正の対訳コーパスから,ニューラルネットワークを用いて文法性を学習する手法が考えられる.また,3観点の組み合わせ方を線形和ではなく,意味保存性のスコアが減点項として働くような組み合わせ方に変更することが考えられる.\acknowledgment本論文の査読にあたり,著者の不十分な記述などに対してご意見・ご指摘をくださった査読者の方々へ感謝します.本論文の内容の一部は,情報処理学会第4回自然言語処理シンポジウム・第234回自然言語処理研究会\cite{weko_185026_1}およびThe8thInternationalJointConferenceonNaturalLanguageProcessing\cite{asano-mizumoto-inui:2017:I17-2}で発表したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asano,Mizumoto,\BBA\Inui}{Asanoet~al.}{2017}]{asano-mizumoto-inui:2017:I17-2}Asano,H.,Mizumoto,T.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQReference-basedMetricscanbeReplacedwithReference-lessMetricsinEvaluatingGrammaticalErrorCorrectionSystems.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\343--348}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{浅野\JBA水本\JBA松林\JBA乾}{浅野\Jetal}{2017}]{weko_185026_1}浅野広樹\JBA水本智也\JBA松林優一郎\JBA乾健太郎\BBOP2017\BBCP.\newblock文法誤り訂正の文単位評価におけるリファレンスレス手法の評価性能.\\newblock\Jem{情報処理学会第4回自然言語処理シンポジウム・第234回自然言語処理研究会}.\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{banerjee-lavie:2005:MTSumm}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQMETEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments.\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationand/orSummarization},\mbox{\BPGS\65--72}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Blanchard,Tetreault,Higgins,Cahill,\BBA\Chodorow}{Blanchardet~al.}{2013}]{TOEFL}Blanchard,D.,Tetreault,J.,Higgins,D.,Cahill,A.,\BBA\Chodorow,M.\BBOP2013\BBCP.\newblock{\BemTOEFL11:ACorpusofNon-NativeEnglish}.\newblockTechnicalreport,EducationalTestingService.\bibitem[\protect\BCAY{{BNCConsortium}}{{BNCConsortium}}{2007}]{BNcorpus}{BNCConsortium}\BBOP2007\BBCP.\newblock{\BemTheBritishNationalCorpus}.\newblockversion3(BNCXMLEdition).DistributedbyOxfordUniversityComputingServicesonbehalfoftheBNCConsortium.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},\mbox{Federmann},Graham,Haddow,Huang,Huck,Koehn,Liu,Logacheva,Monz,\mbox{Negri},Post,Rubino,Specia,\BBA\Turchi}{Bojaret~al.}{2017}]{bojar-EtAl:2017:WMT1}Bojar,O.,\mbox{Chatterjee},R.,\mbox{Federmann},C.,Graham,Y.,Haddow,B.,Huang,S.,Huck,M.,Koehn,P.,Liu,Q.,Logacheva,V.,Monz,C.,\mbox{Negri},M.,Post,M.,Rubino,R.,Specia,L.,\BBA\Turchi,M.\BBOP2017\BBCP.\newblock\BBOQFindingsofthe2017ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\169--214}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},\mbox{Federmann},Graham,Haddow,Huck,Jimeno~Yepes,Koehn,Logacheva,Monz,Negri,Neveol,Neves,Popel,Post,Rubino,Scarton,Specia,Turchi,Verspoor,\BBA\Zampieri}{Bojaret~al.}{2016}]{bojar-EtAl:2016:WMT1}Bojar,O.,\mbox{Chatterjee},R.,\mbox{Federmann},C.,Graham,Y.,Haddow,B.,Huck,M.,Jimeno~Yepes,A.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Neveol,A.,Neves,M.,Popel,M.,Post,M.,Rubino,R.,Scarton,C.,Specia,L.,Turchi,M.,Verspoor,K.,\BBA\Zampieri,M.\BBOP2016\BBCP.\newblock\BBOQFindingsofthe2016ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\131--198}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bojar,\mbox{Graham},\BBA\Kamran}{Bojaret~al.}{2017}]{bojar-graham-kamran:2017:WMT}Bojar,O.,\mbox{Graham},Y.,\BBA\Kamran,A.\BBOP2017\BBCP.\newblock\BBOQResultsoftheWMT17MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\489--513}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bryant\BBA\Ng}{Bryant\BBA\Ng}{2015}]{Bryant2015}Bryant,C.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2015\BBCP.\newblock\BBOQHowFarareWefromFullyAutomaticHighQualityGrammaticalErrorCorrection?\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\697--707}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dahlmeier\BBA\Ng}{Dahlmeier\BBA\Ng}{2012}]{Dahlmeier:12:NAACL}Dahlmeier,D.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2012\BBCP.\newblock\BBOQBetterEvaluationforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\568--572}.\bibitem[\protect\BCAY{Dale,Anisimoff,\BBA\Narroway}{Daleet~al.}{2012}]{dale-anisimoff-narroway:2012:BEA}Dale,R.,Anisimoff,I.,\BBA\Narroway,G.\BBOP2012\BBCP.\newblock\BBOQHOO2012:AReportonthePrepositionandDeterminerErrorCorrectionSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe7thWorkshoponBuildingEducationalApplicationsUsingNLP},\mbox{\BPGS\54--62}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dale\BBA\Kilgarriff}{Dale\BBA\Kilgarriff}{2011}]{dale-kilgarriff:2011:ENLG}Dale,R.\BBACOMMA\\BBA\Kilgarriff,A.\BBOP2011\BBCP.\newblock\BBOQHelpingOurOwn:TheHOO2011PilotSharedTask.\BBCQ\\newblockIn{\BemProceedingsoftheGenerationChallengesSessionatthe13thEuropeanWorkshoponNaturalLanguageGeneration},\mbox{\BPGS\242--249}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2014}]{Denkowski2014}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2014\BBCP.\newblock\BBOQMeteorUniversal:LanguageSpecificTranslationEvaluationforAnyTargetLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\376--380}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Felice\BBA\Briscoe}{Felice\BBA\Briscoe}{2015}]{Felice2015}Felice,M.\BBACOMMA\\BBA\Briscoe,T.\BBOP2015\BBCP.\newblock\BBOQTowardsaStandardEvaluationMethodforGrammaticalErrorDetectionandCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\578--587}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Grundkiewicz,Junczys-Dowmunt,\BBA\Gillian}{Grundkiewiczet~al.}{2015}]{Grundkiewicz2015}Grundkiewicz,R.,Junczys-Dowmunt,M.,\BBA\Gillian,E.\BBOP2015\BBCP.\newblock\BBOQHumanEvaluationofGrammaticalErrorCorrectionSystems.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\461--470}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Heilman,Cahill,Madnani,Lopez,Mulholland,\BBA\Tetreault}{Heilmanet~al.}{2014}]{Heilman2014}Heilman,M.,Cahill,A.,Madnani,N.,Lopez,M.,Mulholland,M.,\BBA\Tetreault,J.\BBOP2014\BBCP.\newblock\BBOQPredictingGrammaticalityonanOrdinalScale.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\174--180}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Herbrich,Minka,\BBA\Graepel}{Herbrichet~al.}{2007}]{NIPS2006_3079}Herbrich,R.,Minka,T.,\BBA\Graepel,T.\BBOP2007\BBCP.\newblock\BBOQTrueSkill\texttrademark:ABayesianSkillRatingSystem.\BBCQ\\newblockInSch{\"{o}}lkopf,B.,Platt,J.~C.,\BBA\Hoffman,T.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems19},\mbox{\BPGS\569--576}.MITPress.\bibitem[\protect\BCAY{Lau,Clark,\BBA\Lappin}{Lauet~al.}{2015}]{Lau2015}Lau,J.~H.,Clark,A.,\BBA\Lappin,S.\BBOP2015\BBCP.\newblock\BBOQUnsupervisedPredictionofAcceptabilityJudgements.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1618--1628}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Linzen,Dupoux,\BBA\Goldberg}{Linzenet~al.}{2016}]{TACL972}Linzen,T.,Dupoux,E.,\BBA\Goldberg,Y.\BBOP2016\BBCP.\newblock\BBOQAssessingtheAbilityofLSTMstoLearnSyntax-SensitiveDependencies.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\521--535}.\bibitem[\protect\BCAY{Mikolov}{Mikolov}{2012}]{mikolov2012statistical}Mikolov,T.\BBOP2012\BBCP.\newblock\BBOQStatisticalLanguageModelsBasedonNeuralNetworks.\BBCQ\\newblock{\BemPresentationatGoogle,MountainView,2ndApril}.\bibitem[\protect\BCAY{Mi{\l}kowski}{Mi{\l}kowski}{2010}]{Milkowski:10:SPE}Mi{\l}kowski,M.\BBOP2010\BBCP.\newblock\BBOQDevelopinganOpen-source,Rule-basedProofreadingTool.\BBCQ\\newblock{\BemSoftware:PracticeandExperience},{\Bbf40}(7),\mbox{\BPGS\543--566}.\bibitem[\protect\BCAY{Napoles,Sakaguchi,Post,\BBA\Tetreault}{Napoleset~al.}{2015}]{Napoles:15:ACL}Napoles,C.,Sakaguchi,K.,Post,M.,\BBA\Tetreault,J.\BBOP2015\BBCP.\newblock\BBOQGroundTruthforGrammaticalErrorCorrectionMetrics.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\588--593}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Napoles,Sakaguchi,\BBA\Tetreault}{Napoleset~al.}{2016}]{Napoles2016}Napoles,C.,Sakaguchi,K.,\BBA\Tetreault,J.\BBOP2016\BBCP.\newblock\BBOQThere'sNoComparison:Reference-lessEvaluationMetricsinGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2109--2115}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Napoles,Sakaguchi,\BBA\Tetreault}{Napoleset~al.}{2017}]{Napoles2017}Napoles,C.,Sakaguchi,K.,\BBA\Tetreault,J.\BBOP2017\BBCP.\newblock\BBOQJFLEG:AFluencyCorpusandBenchmarkforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics:Volume2,ShortPapers},\mbox{\BPGS\229--234}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ng,Wu,Briscoe,Hadiwinoto,Susanto,\BBA\Bryant}{Nget~al.}{2014}]{Ng:14:CoNLL}Ng,H.~T.,Wu,S.~M.,Briscoe,T.,Hadiwinoto,C.,Susanto,R.~H.,\BBA\Bryant,C.\BBOP2014\BBCP.\newblock\BBOQTheCoNLL-2014SharedTaskonGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe18thConferenceonComputationalNaturalLanguageLearning:SharedTask},\mbox{\BPGS\1--14}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Parker,Graff,Kong,Chen,\BBA\Maeda}{Parkeret~al.}{2011}]{GIGAWORD}Parker,R.,Graff,D.,Kong,J.,Chen,K.,\BBA\Maeda,K.\BBOP2011\BBCP.\newblock{\BemEnglishGigaword5thEditionLDC2011T07}.\newblockPhiladelphia:LinguisticDataConsortium.\bibitem[\protect\BCAY{Sakaguchi,Napoles,Post,\BBA\Tetreault}{Sakaguchiet~al.}{2016}]{Sakaguchi2016}Sakaguchi,K.,Napoles,C.,Post,M.,\BBA\Tetreault,J.\BBOP2016\BBCP.\newblock\BBOQReassessingtheGoalsofGrammaticalErrorCorrection:FluencyInsteadofGrammaticality.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\169--182}.\bibitem[\protect\BCAY{Snover,Dorr,Schwartz,Micciulla,\BBA\Makhoul}{Snoveret~al.}{2006}]{hter}Snover,M.,Dorr,B.,Schwartz,R.,Micciulla,L.,\BBA\Makhoul,J.\BBOP2006\BBCP.\newblock\BBOQAstudyoftranslationeditratewithtargetedhumanannotation.\BBCQ\\newblockIn{\BemProceedingsofAssociationforMachineTranslationintheAmericas},\mbox{\BPGS\223--231}.\end{thebibliography}\begin{biography}\bioauthor{浅野広樹}{1993年生.2017年東北大学工学部情報科学研究科卒業.同年,同大学大学院情報科学研究科修士課程システム情報科学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{水本智也}{2015年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年より東北大学情報科学研究科特任助教を経て2017年より理化学研究所革新知能統合研究センター特別研究員.文法誤り訂正や記述式答案の自動採点など自然言語処理による言語学習/教育支援に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.情報処理学会論文誌編集委員長,同会自然言語処理研究会主査等を歴任,2018年より言語処理学会論文誌編集委員長.}\end{biography}\biodate\end{document}
V05N01-06
\section{はじめに} \label{sec:introduction}文書検索では,検索対象の文書集合が大きくなるにつれ,高速/高精度な検索が困難になる.例えば,AltaVista~\footnote{{\tthttp://altavista.digital.com}}に代表されるインターネット上のキーワード検索エンジンでは,検索時に入力されるキーワード数が極端に少ないため~\footnote{AltaVistaでは平均2個弱のキーワードしか入力されない},1)望んた文書が検索されない(再現率の問題),2)望まない文書が大量に検索される(適合率の問題),といった問題が生じている.そのため,要求拡張(queryexpansion)~\cite{smeaton:83:a,peat:91:a,schatz:96:a,niwa:97:a},関連度フィードバック(relevancefeedback)~\cite{salton:83:a,salton:90:a}などの手法が提案されてきた.これらの手法はいずれも,要求となるキーワード集合を拡張したり洗練したりすることで,ユーザの検索意図を明確かつ正確なものに導いていく.これに対し,検索時にキーワード集合ではなく文書それ自身を入力し,入力文書と類似する文書を検索する方法が考えられる~\cite{wilbur:94:a}.この検索方法を{\gt文書連想検索}と呼ぶ.文書連想検索が有効なのは,検索要求と関連する文書を我々が既に持っているという状況や,キーワード検索の途中で関連する文書を一つでも見つけたという状況である.また,論文,特許など,我々自身が書いた文書もそのまま検索入力として利用できる.文書連想検索を使うことにより,適切なキーワード集合を選択することなしに,関連する文書を見つけることができる.文書連想検索を実現する際の問題点は,類似文書の検索に時間がかかることである.単純な網羅検索では,検索対象の大きさ$N$に比例した$O(N)$の時間を要する.そこで本論文では,{\gtクラスタ検索}~\cite{salton:83:a}と呼ばれる検索方法を用いる.クラスタ検索では,通常,クラスタリングによりクラスタの二分木をあらかじめ構築しておき~\footnote{クラスタリングにも,対象データ集合を平坦なクラスタ集合に分割する方法(非階層的クラスタリング)もあるが~\cite{anderberg:73:a},本論文では,クラスタの階層的な木構造を構築する方法(階層的クラスタリング)に限る.また,クラスタ木も相互背反な二分木に限る.},その上でトップダウンに二分木検索を行う.よって,検索時間は平均$O(\log_2N)$に抑えられる.ところが,クラスタ検索に関する従来の研究~\cite{croft:80:a,willett:88:a}では,単純な二分木検索では十分な検索精度が得られないという問題があった.その理由の一つは,クラスタリング時と検索時に異なる距離尺度を用いていたことである.ほとんどの研究では,クラスタリングの手法として単一リンク法,Ward法などを用いていたが,これらの手法は,後の検索で使われる尺度(例えば,TF$\cdot$IDF法や確率)とは直接関係のない尺度でクラスタの二分木を構築していく.これに対し本論文では,クラスタリングの対象文書それぞれを自己検索した際の精度を最大化していく確率的クラスタリングを提案する.よって本クラスタリング法は,検索に適した手法であると言える.実際に,クラスタ検索に本クラスタリング法を用いた場合,単純な二分木検索でも十分な検索精度を得ることができる.検索速度が速い点に加え,クラスタ検索には幾つかの利点がある.クラスタ検索が提案されたそもそもの理由は,「密接に関連した文書群は,同じ検索要求に対する関連性も同等に高い」という{\gtクラスタ仮説}~\cite{van-rijsbergen:74:a}である.通常のキーワード検索では,検索要求と単一文書を厳密なキーワード符合に基づいて比較するため,キーワードの表記の異なりにより関連する文書をとり逃すこともあるが,クラスタ検索では,検索要求を意味的にまとまった文書集合(クラスタ仮説で言うところの「密接に関連した文書群」)と比較するため,この問題も起りにくくなる.クラスタ仮説は,特に検索精度の向上という点において実験的に検証されていない仮説であったが,近年,Hearst等により,キーワード検索で検索した文書集合を絞りこむという状況で,その有効性が実証されている~\cite{hearst:96:a}.本論文では,クラスタ検索が検索対象に含まれているノイズの影響を受けにくいこと(ノイズ頑健性)に注目し,本論文で提案するクラスタ検索が網羅検索に比べ優れていることを実証する.以下,\ref{sec:cluster_based_search}~節では,クラスタ検索について説明する.\ref{sec:hbc}~節では,本論文で提案する確率的クラスタリングについて説明する.\ref{sec:experiment}~節では,本論文で提案したクラスタ検索の有効性を調べるために行なった幾つかの実験について述べる. \section{クラスタ検索} \label{sec:cluster_based_search}クラスタ検索に限らず,文書対文書の比較を行うには,まず文書間の距離を定義する必要がある.本論文では,条件付き確率$P(C|d)$を用い,文書$d$から文書集合$C$への方向性のある類似性を定義する.ある文書集合を検索する際は,$d$が入力文書(検索要求)となり,$C$がこれから検索しようとする文書集合の部分集合となる.最も極端な例が網羅検索であり,$C$は文書集合の各文書それ自身になる(図~\ref{fig:search_strategies}~(a)参照).一方,クラスタ検索では,$C$は何らかの指針により自動/人手で作られたクラスタである.$P(C|d)$を推定する方法は幾つか提案されているが~\cite{robertson:76:a,fuhr:89:a,kwok:90:a},本論文ではIwayama等の推定法~\cite{iwayama:94:b}を用いることにする.付録~\ref{app:SVMV}に$P(C|d)$の推定法を記す.図~\ref{fig:search_strategies}~(b)が典型的なクラスタ検索を図式化したものである.本論文で扱うクラスタ検索では,文書集合を二分木として自動的に構成し(このステップを{\gtクラスタリング}または{\gt訓練}と呼ぶ),検索要求を各クラスタ(ノード)と比較することによって,検索要求と類似する文書を指定した数だけとりだす(このステップを{\gt検索}または{\gtテスト}と呼ぶ).最も単純な検索法は{\gt二分木検索}であり(図~\ref{fig:search_strategies}~(b)参照),クラスタ木の根からトップダウンに木をたどり,指定した数の文書を含むクラスタを探す.木をたどる際は,各ノードでそれぞれの子ノードについて$P(C|d)$を計算し,どちらに進むかを決定する.二分木検索は,平均$O(\log_2N)$の検索時間しか必要とせず,網羅検索($O(N)$)に比べ高速な検索が可能である.一般に,網羅検索はその検索コストのため大規模な文書集合の検索/ランキングには適用しづらい.事実,現実に運用されている検索システムのほとんどは,ランク付きの検索出力が提供されていないか,提供されていても近似計算~\cite{cutting:97:a}である場合が多い.連想検索のように検索要求が長い場合は,ランク付けの計算に検索要求の全情報を使わないこともある~\cite{frakes:92:a}.検索コストを軽減する効果的な方法は,キーワードから文書への逆インデクス(invertedfile)~\cite{salton:83:a}を使い,検索要求に含まれているキーワードを全く含まない文書を検索対象から除外することである~\cite{perry:83:a}.残った文書集合を網羅検索することで計算量も幾分軽減できる.しかし,逆インデクスの導入は問題の本質的解決ではなく,原理的には依然として$O(N)$の検索コストが必要である.\begin{figure*}\begin{center}\epsfile{file=iwayama1.eps,width=0.9\textwidth}\end{center}\caption{連想検索における文書検索法:網羅検索とクラスタ検索}\label{fig:search_strategies}\vspace{-2mm}\end{figure*}クラスタ木上をトップダウンに二分木検索する方法とは逆に,葉からボトムアップにクラスタ木を検索する方法もある.この検索法は{\gtボトムアップクラスタ検索}と呼ばれ,二分木検索よりも精度的に有効であることが実証されている~\cite{croft:80:a,willett:88:a}.ところが,ボトムアップクラスタ検索では,まず検索の出発点となる葉ノードを決める必要がある.既に何らかの方法で出発点がわかっている場合はよいが,そうでない場合はゼロからこのノードを見つけるため,網羅検索に近い計算量が必要となる.本論文では,その簡素さと高速性のため,トップダウンな二分木検索を使うことにする.また,二分木検索にも,ビーム幅内を並行して検索する,検索の出発ノードを葉に近いノードにするなど様々な拡張が考えられるが,本論文では,断わりのない限り単純な二分木検索に限ることにする. \section{確率的クラスタリング(HBC)} \label{sec:hbc}クラスタ検索におけるクラスタリングの目的は,検索を行った際に高い精度を与えるようなクラスタ木を構築することである.不適切なクラスタ木は,検索要求に対して関連の低い文書を出力してしまう.特に,クラスタ木の根に近い部分は,与えられたほとんどの文書集合を含むため漠然性が高く,二分木検索もこの部分での比較で誤りを起しやすい.従来のクラスタ検索において二分木検索の精度が悪かったのは主にこの理由である.以下では,二分木検索でも高い精度を与えるような確率的クラスタリングを提案する.核となるアイデアは,クラスタリング(訓練)にも検索(テスト)にも前節で説明した確率$P(C|d)$を用いることである.まず,クラスタリングで使う尺度として{\gt\bf自己再現率(selfrecall)}を定義する.あるクラスタ$C$に関する自己再現率$SR(C)$を以下のように定義する.\begin{equation}SR(C)=\prod_{d\inC}P(C|d).\end{equation}自己再現率は,クラスタ内の各文書が自分自身を含むクラスタを見つけることができる確率,と解釈することができる.あるクラスタ$C$にとって,$SR(C)$の値が大きいということは,$C$内の各文書を検索入力とした時,それらが$C$を見つける確率が高いということである.文書集合${\calD}$がクラスタの集合$\{C_1,C_2,\ldots\}$に分割されているとすると,その文書集合${\calD}$に対する自己再現率は以下のように定義できる.\begin{equation}SR({\calD})=\prod_{C\in{\calD}}SR(C)=\prod_{C\in{\calD}}\prod_{d\inC}P(C|d).\end{equation}これは,文書集合全体に関する自己検索の精度に関連する.ここまでで,クラスタリングの目的は「文書集合${\calD}$が与えられた時,$SR({\calD})$が最大となる分割を見付けること」と詳細化できる.ただし,通常は山登り法になどにより局所的な最大分割を求めることが多い.例えば,$SR({\calD})$を評価関数として非階層的クラスタリングアルゴリズム~\cite{anderberg:73:a}を適用すると,文書集合を平坦なグループに分割することができる.また,文書集合${\calD}$に対して階層的な二分クラスタ木を構築するには,以下に示す凝集型アルゴリズムを適用すればよい.\begin{enumerate}\item初期クラスタ集合を,${\calD}$内の各文書それ自身のみからなるクラスタの集合とする.\itemマージにより$SR({\calD})$の増分が最大になるようなクラスタのペアを見つけ実際にマージする.\item残りのクラスタの数が1でなければステップ2に戻る.\end{enumerate}以上のアルゴリズムを{\gt\bf階層的ベイズクラスタリング(HBC:HierarchicalBayesianClustering)}と呼ぶ.HBCの詳細については,\cite{iwayama:95:b,iwayama:95:a}を参照されたい.そこでは,HBCと従来のクラスタリング手法との比較実験も行われている.また,付録~\ref{app:hbc}にHBCの形式的な記述を示す.従来のクラスタ検索における実験では,二分木検索に関して否定的な結果がでていた.考えられる理由は,クラスタリング(訓練)と検索(テスト)で異なった尺度(原理)を用いていたことである.従来の実験では,単一リンク法やWard法をクラスタリングの方法として用いていたが,これらの方法は,検索に使う尺度とは直接関係のない尺度を使いクラスタ木を構築している.例えば単一リンク法では,二つのクラスタ間の距離として,それらのクラスタを構成する要素(文書)間の最も近い距離を使う.よって,クラスタ内の他の構成要素の情報は無視されてしまう.また,構成要素(文書)とクラスタ全体との関係が考慮されていない.検索で用いるのは文書とクラスタとの距離である.これらの欠点は,完全リンク法や平均リンク法にもあてはまる.Ward法は,群内誤差の平方和によりクラスタ間の距離を計算するため,上記の欠点はない.しかし,群内誤差の平方和は,検索時に用いる距離尺度とは直接関係がない.それに対しHBCは,文書集合が与えられると,それらを自己検索した時の精度(具体的には自己再現率)を最大化するようなクラスタ木を構築する.つまり,訓練例に対する検索精度の最大化を行っているため,クラスタ検索という用途に直接関連した手法である.次節では,HBCをクラスタ検索に用いた場合の有効性を実験により検証する.なお,単一リンク法やWard法も統計解析という元々の用途には有効な手法である. \section{実験} \label{sec:experiment}\subsection{実験方式とデータについて}実験では,連想検索の精度を評価するために{\gtトピック割り付け}を行った.トピック割り付けとは,あらかじめ定義されたトピックの中から1個以上のトピックを文書に割り付けるタスクである.例えば,ある文書に$\{x,y,z\}$という3個のトピックが付いているとする.これらの正解トピックは,通常,専門家によって割り付けられる.そして,自動的な方法により,同じ文書に$\{x,w\}$という2個のトピックが割り付けられたとする.ここで,$x$という1つのトピックのみが3個の正解トピックから再現されたという意味で,{\gt\bf再現率(recall)}は$1/3$となる.また,$x$という1つのトピックのみが,自動的に割り付けられた2個のトピックのなかで正解であったという意味で,{\gt\bf適合率(precision)}は$1/2$となる.自動的なトピック割り付け法としては,$k$-NN法($k$-NearestNeighborclassifiers)~\cite{weiss:90:a,masand:92:a,mouri/97/a}を用いた.$k$-NN法では,ある文書$d$にトピックを割り付ける際,あらかじめ専門家によりトピックが割り付けられている文書集合(訓練データ)の中から$d$に近いものを$k$個検索する.この検索法に,文書連想検索の手法(網羅検索,クラスタ検索)を用い比較した.検索した$k$個の訓練データには既にトピックが付いているため,それぞれのトピックを重み付きで集計し,あるしきい値以上になるトピックを$d$に割り付ける.重みとしては,$d$と各々の訓練データとの距離(条件付き確率)を用いた.ここで,$d$に割り付けられるべき正解トピックが既にわかっているため,再現率/適合率が計算できる.また,自動割り付けにおけるしきい値を変化させることで,再現率/適合率のトレードオフ曲線が描ける.実験データには,「現代用語の基礎知識(92年版)~\cite{gk/92/a}(GK)」と「WallStreetJournal~\cite{liberman:91:a}(WSJ)」を用いた.それぞれの特徴は以下のとおりである.\begin{description}\item[{\gt\bf現代用語の基礎知識(GK)}]\strut\\日本語の辞書データ.$18,476$個の辞書見出しを持ち,それぞれ$149$の小カテゴリいずれかに分類されている.この小カテゴリをトピックとして用いた.つまり,各辞書見出しは単一の正解トピックを持っていることになる.各辞書見出しの説明文は,$13$から$1,938$,平均$287$の文字長を持つ.短い説明文の影響を除くため,説明文中に名詞,未知語(抽出法については後述)を$100$個以下しか含まない辞書見出しを除去した.また,辞書見出しを少数しか持たないカテゴリの影響を除くため,辞書見出しを$20$個以下しか含まないカテゴリを除去した.この結果,残った辞書見出し数は$1,072$,カテゴリ数は$39$となった.\item[{\gt\bfWallStreetJournal(WSJ)}]\strut\\英語の新聞記事データ.'89/7/25から'89/11/2までの$8,907$記事を使った.各記事には,$78$個のトピックの中から複数のトピックが割り付けられている.一つもトピックを持たない記事は取り除いた.記事に割り付けられている平均トピック数は$1.94$個である.\end{description}これら二つのデータセットには,日本語と英語という大きな相違点の他に,以下の特筆すべき相違点がある.\begin{itemize}\itemGKの各文書が単一のトピックしか持たないのに対し,WSJは複数(平均$1.94$個)のトピックを持つ.\itemGKは,文書長,および各トピックが持つ文書数が比較的均一なデータセットであるのに対し,WSJは非均一なデータセットである.GKには各トピックを担当する編集者が存在し,その編集者が担当トピックの辞書見出しを管理しているからである.それに加え,GKでは,短い辞書見出し,辞書見出し数が少ないトピックを上記の方法により強制的に除去している.よって,WSJに比べ,GKはよりノイズの少ないデータセットであると言える.逆の視点から見ると,WSJはより現実データに近いと言える.\end{itemize}実験の前処理として,まず,文書表現として用いるタームを抽出する必要がある.両データセットとも,名詞と未知語をタームとして用いた.タガーとして,GKではJUMAN~\cite{juman/94/a}を,WSJではXeroxPart-of-SpeechTagger~\cite{cutting:93:a}を用いた.WSJに関しては,ispell~\cite{ispell}を用いて語尾処理を行ない,単語の原形のみ用いた.また,トピック割り付けを行うには,データセットを訓練データとテストデータに分割する必要がある.GKは文書数が少ないため,4分割のクロスバリデーションを行った.WSJでは,'89/7/25から'89/9/29までの$5,820$記事を訓練データとして,'89/10/2から'89/11/2までの$3,087$記事をテストデータとして使った.\subsection{従来のクラスタ検索との比較}まず,比較的ノイズの少ないGKを用いて,HBCを用いたクラスタ検索と従来から行われていたクラスタ検索を比較する.従来法としては,クラスタリングにWard法~\cite{anderberg:73:a}を,検索に確率モデルを用いた.よって,両者はクラスタリングの手法のみが異なる.また,比較対象として,網羅検索による実験も行った.網羅検索における文書間の距離尺度には,クラスタ検索と同じ確率モデルを用いた.以上は$k$-NN法によるトピック割り付けであるが,この他にトピック割り付けの代表的な方法(以下,{\gtトピック検索法}と呼ぶ)も比較対象として実験に用いた.トピック検索法では,まず,各トピック毎にそのトピックが割り付けられている文書を集め,トピックを表現する文書集合とする.次に,トピックを割り当てようとする文書と,各トピックを表現している文書集合との間の距離を計算して,距離が近いトピックを文書に割り当てる.距離尺度としては,上記手法と同じ確率モデルを用いた.GKでは,割り当てられるべきトピックが一つであるため,実験に用いた手法でも,上位1位のトピックを割り付け,それが正解となっている割合で精度を測定した.実験結果を図~\ref{fig:gk}に示す.図中,X軸は,$k$-NN法でいうところの$k$,つまり,判定に用いた訓練データ数である.\begin{figure}\begin{center}\epsfile{file=iwayama2.eps,width=0.9\textwidth}\end{center}\vspace{-2mm}\caption{トピック割り付けにおける連想検索の比較(GK)}\label{fig:gk}\vspace{-2mm}\end{figure}図~\ref{fig:gk}から,$k$が極端に小さくない場合,網羅検索の精度が最も良いことがわかる.また,HBCを用いたクラスタ検索も,網羅検索の精度曲線を良く近似している.このことから,検索に要する速度などを考えると,HBCを用いたクラスタ検索は速度/精度の点でバランスの取れた手法であると言える.逆に,Ward法を用いたクラスタ検索が与える精度曲線は,網羅検索の精度曲線とは極端に異なり,特に$k$が$300$以下での精度が非常に悪くなっている.興味深いのは,網羅検索,二つのクラスタ検索共に,$k$が大きくなるにつれトピック検索法が与える精度に収束していく点である.ただし,HBCを用いたクラスタ検索,網羅検索が,$k$を適当に設定するとトピック検索法を上回るのに対し,Ward法を用いたクラスタ検索は,常にトピック検索法を下回る.以上の実験結果から,HBCを用いたクラスタ検索法は,従来のクラスタ検索よりも有効であることが確認できた.次節では,ノイズを含むより実データに近いWSJを用いて,HBCを用いたクラスタ検索と網羅検索との違いを詳しく調べる.\subsection{クラスタ検索のノイズ頑健性}クラスタ検索は,網羅検索と比べると汎化能力という点で優れている.クラスタ検索は訓練データを一般化したクラスタ集合を扱うためである.網羅検索は訓練データそれ自体を扱うため,訓練データ中に存在するノイズの影響を受けやすい.前節のGKによる実験では,この点が確かめられなかったが,これはGKがノイズの少ない均一なデータセットであることによる.本節では,WSJを使って,データセット中に存在するノイズがトピック割り付け(すなわち連想検索)に及ぼす影響を調べる.WSJの各文書には複数のトピックが割り付けられているため,前述の再現率/適合率で評価を行った.トピック割り付け戦略としては以下の3種類を用い比較した.\begin{description}\item[{\gt\bf定数割り付け(k-per-doc)}]\strut\\各テストデータに,均一に$k$個づつトピックを割り当てる.ここでは$k$の値を変化させて再現率/適合率曲線を描く.\item[{\gt\bf確率的割り付け(probabilitythreshold)}]\strut\\各テストデータに割り付けられるトピックには,確率から重みが計算できる.よって,あるしきい値以上の重みを持つトピックを各テストデータに割り付ける.ここでは割り付けのしきい値を変化させて再現率/適合率曲線を描く.\item[{\gt\bf比例配分割り付け(propotionalassignment)~\cite{lewis:92:a}}]\strut\\各トピック毎にテストデータを重みの順にソートしておき,訓練データ中でそのトピックが占める割合に比例した数のテストデータにそのトピックを割り付ける.例えば,訓練データ中で$2\%$の文書に割り付けられているトピックは,比例配分の定数を$0.1$とすると,テストデータ中の$0.2\%$の文書に割り付けられる.比例配分の定数を$5$とすると,テストデータ中の$10\%$の文書に割り付けられる.ここでは,比例配分の定数を変化させて再現率/適合率曲線を描く.\end{description}従来行なわれた実験~\cite{lewis:92:a,iwayama:94:b,nishino/95/a}では,比例配分割り付けの優位性が確認されている.しかし,比例配分割り付けを行うには,あらかじめ十分な数のテストデータがそろっている必要がある.よって,比例配分割り付けは,バッチ的な割り付け処理の局面では有効であるが,オンライン(リアルタイム)で割り付けを行なうような状況に適用することはできない.\begin{figure}\begin{center}\epsfile{file=iwayama3.eps,width=0.9\textwidth}\end{center}\vspace{-1.5mm}\caption{トピック割り付けにおける連想検索の比較(WSJ,定数割り付け)}\label{fig:wsj-kdoc}\vspace{-1.5mm}\end{figure}\begin{figure}\begin{center}\epsfile{file=iwayama4.eps,width=0.9\textwidth}\end{center}\vspace{-1.5mm}\caption{トピック割り付けにおける連想検索の比較(WSJ,確率的割り付け)}\label{fig:wsj-thresh}\vspace{-1.5mm}\end{figure}\begin{figure}\begin{center}\epsfile{file=iwayama5.eps,width=0.9\textwidth}\end{center}\vspace{-1.5mm}\caption{トピック割り付けにおける連想検索の比較(WSJ,比例配分割り付け)}\label{fig:wsj-prop}\vspace{-1.5mm}\end{figure}図~\ref{fig:wsj-kdoc}~$\sim$~\ref{fig:wsj-prop}にそれぞれの割り付け戦略による実験結果を示す.ここでは,HBCによるクラスタ検索と網羅検索を比較している.また,ベースラインとして,トピック検索法による結果も示した.Y軸のbreakevenとは,再現率/適合率トレードオフ曲線において,再現率と適合率が等しくなる点の値である.X軸は,前節と同じく$k$-NN法における$k$の値である.図~\ref{fig:wsj-kdoc}~$\sim$~\ref{fig:wsj-prop}から,まず,他の二つの割り付け戦略に比べ,比例配分割り付けが優れていることがわかる.また,比例配分割り付けでは,網羅検索,クラスタ検索共に,トピック検索と同程度の精度である.更に,両者共に$k$-NN法の$k$による影響をあまり強く受けていない.よって,比例配分割り付けは,検索の手法に対して安定した割り付け戦略であると言える.ところが,前述したように,比例配分割り付けはバッチ処理に限られるという制限がある.定数割り付け,確率的割り付けでは,網羅検索,クラスタ検索共に,ベースラインのトピック検索を大きく上回っている.これは,$k$-NN法の優位性を示している.ここで注目して欲しいのは,$k$-NN法でも,網羅検索の精度曲線が$k$の値に大きく影響を受けている点である.特に,最大breakevenを与える$k$の範囲が非常に狭く,それより$k$の値が大きくなると,breakevenが急激に低下している.これは,訓練データ中に存在するノイズの影響を強く受けていることを意味している.一方,クラスタ検索の精度曲線は$k$に依存せず安定している.つまり,最大breakevenを与える$k$の範囲が広いため,微妙なパラメータ($k$)設定を行う必要がない.これは,クラスタリングという汎化操作により,訓練データ中のノイズの影響があらわれにくくなっていることを意味している.以上から,HBCを用いたクラスタ検索は,網羅検索に比べノイズ頑健性に優れていると言える. \section{おわりに} 本論文では,文書連想検索のための新しいクラスタ検索法を提案した.提案したクラスタ検索では,与えられた文書集合を自己検索した時の精度を最大化する確率的クラスタリングを用いている.よって,本クラスタリング手法は,従来のクラスタ検索で用いられていたクラスタリング手法に比べると,検索に密接に関連した手法であると言える.「現代用語の基礎知識」「WallStreetJournal」を用いた実験の結果,従来のクラスタ検索に対する本手法の優位性が確認できた.また,網羅検索に対しては,本手法がノイズ頑健性という点で優れていることが確認できた.以下,問題点と今後の課題を挙げる.\begin{description}\item[{\gtクラスタリングの高速化}]\strut\\本論文で提案したクラスタリングに限らず,通常の階層的クラスタリングは,サイズ$N$の文書集合をクラスタリングするのに$O(N^2)$の空間的/時間的計算資源を要する.今後は,特に大規模文書集合の文書連想検索に対処するために,クラスタリングに要する計算量を抑える必要がある.この問題に関して近年,文書表現として用いる単語の次元数を減らす~\cite{schutze:97:a},クラスタ間の距離を計算せず単語分布を調べる~\cite{tanaka/97/a}などの方法が提案されている.我々は,HBCの近似アルゴリズムによりこの問題を解決することを考えており,既に幾つかの手法を提案し,予備的な実験で有望な結果を得ている~\cite{iwayama/97/a}.今後は,大規模データに適用してその有効性を実証する必要がある.\item[{\gt多重分類}]\strut\\現状のクラスタ木は単純な二分木であるため,同一文書が複数の観点から分類されるといった多重分類を扱えない.この問題については,クラスタ生成時に同一文書が複数のクラスタに分類されることを許す,あるいは検索時に複数の検索パスを探索するなどの手法が考えられる.前者の手法については,既に提案したHBCの近似アルゴリズム~\cite{iwayama/97/a}が有望である.また,後者の手法については,シソーラス構築というタスクで有効な結果を得ている~\cite{tokunaga:97:a}.\item[{\gt動的な文書集合への対応}]\strut\\通常のクラスタリングでは,対象となる文書集合が文書の追加/削除などにより変化すると,一からクラスタリングを実行し直さなければならない.クラスタリングの高速化により再計算の時間が軽減されるとはいえ,大規模な文書集合を変化の都度再クラスタリングするのは非現実的である.この問題については,ほとんど研究がなされていない~\cite{crouch:75:a,can:89:a}.我々は,HBCの近似アルゴリズム~\cite{iwayama/97/a}の一種がインクリメンタルに動作することに着目し,動的な文書集合に対応することを考えている.\end{description}\vspace{-2mm}\bibliographystyle{jnlpbbl}\bibliography{IFIR,jIFIR}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{岩山真}{1987年東京工業大学工学部情報工学科卒業.1992年同大学院理工学研究科博士後期課程修了.同年(株)日立製作所基礎研究所入所.博士(工学).自然言語処理,情報検索の研究に従事.情報処理学会,人工知能学会,AAAI,ACMSIGIR各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\vspace{-3mm}\appendix \section{$P(C|d)$の推定法} \label{app:SVMV}まず,「存在する全てのターム~\footnote{本研究ではタームとして名詞および未知語を用いた.}から一つを乱数抽出したとき,それが$t$と等しい」という事象を``$T=t$''とする.$P(C|d)$を可能な全ての``$T=t$''で条件付けすると\begin{eqnarray}P(C|d)&=&\sum_{t}P(C|d,T=t)P(t|d)\nonumber\\&\approx&\sum_{T=t}P(C|T=t)P(T=t|d).\label{eq:svmv1}\end{eqnarray}となる.ここでの近似は,$T=t$が与えられたという条件下での$C$と$d$の条件付き独立性の仮定による~\footnote{詳しくは$P(C|d,T=t)=P(C|T=t)$.この式は,もし$T=t$を知れば,$C$に関する情報と$d$に関する情報は独立であることを示している.これは強い仮定であるが,$T=t$が$d$の特殊化された表現だと考えると妥当である.}.ベイズの定理を用いると,(\ref{eq:svmv1})は以下のようになる.\begin{equation}P(C|d)=P(C)\sum_{T=t}\frac{P(T=t|C)P(T=t|d)}{P(T=t)}.\label{eq:svmv2}\end{equation}ここで,各々の要素確率を以下のように推定する.\begin{itemize}\item$P(T=t|C)$:$C$における$t$の相対頻度.\item$P(T=t|d)$:$d$における$t$の相対頻度.\item$P(T=t)$:与えられた文書集合全体における$t$の相対頻度.\item$P(C)$:本論文では定数として扱った.\end{itemize} \section{階層的ベイズクラスタリング(HierarchicalBayesianClustering)} \label{app:hbc}\fbox{\begin{minipage}{100mm}\baselineskip=12pt\sfcode`;=3000\def\q{}{\bfInput}:\\\q${\calD}=\{d_{1},d_{2},\ldots,d_{N}\}$:asetof$N$documents;\\\q\\{\bfInitialize}:\\\q$M_0=\{C_1,C_2,\ldots,C_N\}$:asetofclusters;\\\q$C_i=\{d_{i}\}$for$1\lei\leN$\\\qcalculate$SR(C_i)$for$1\lei\leN$\\\qcalculate$SR(C_i\cupC_j)$for$1\lei<j\leN$\\\q\\{\bffor}$k=1${\bfto}$N-1${\bfdo}\\\q$(C_x,C_y)=\arg\max_{C_x,C_y}\frac{SR(C_x\cupC_y)}{SR(C_x)SR(C_y)}$\\\q$M_k=M_{k-1}-\{C_x,C_y\}+\{C_x\cupC_y\}$\\\qcalculate$SR(C_x\cupC_z)$forall$C_z\inM_k$where$z\nex$\\\q\\{\bfFunction}$SR(C)$\\\q{\bfreturn}$\prod_{d\inC}P(C|d)$\end{minipage}}\end{document}
V06N01-02
\section{はじめに} 一つ一つの単語はしばしば複数の品詞(即ち,品詞の曖昧性)を持ち得る.しかしながら,その単語が一旦文に組み込まれば,持ち得る品詞はその前後の品詞によって唯一に決まる場合が多い.品詞のタグづけはこのような曖昧性を文脈を用いることによって除去することである.品詞タグづけの研究は,特に英語や日本語などにおいて多数行なわれてきた.これらの研究を通じ,これまで主に四つのアプローチ,即ち,ルールベースによるもの~\cite{garside,hindle,brill},HMMやn-gramを用いた確率モデルに基づいたもの~\cite{church,derose,cutting,weischedel,merialdo,schutze},メモリベースのもの~\cite{daelemans:96,marquez},そしてニューラルネットを用いたもの~\cite{nakamura,schmid,ma}が提案された.これらの研究では,大量の訓練データ(例えば\cite{schmid}においては1,000,000個のデータ)を用いれば,そのいずれの手法を用いても,未訓練データへのタグづけを95\%以上の正解率で行なえることを示した.しかしながら,実際,英語や日本語などを除いた数多くの言語(例えば本稿で取り上げたタイ語)に関しては,コーパス自体もまだ整備段階にあるのが現状で,予め大量の訓練データを得るのが困難である.従って,これらの言語にとっては,如何に少ない訓練データで十分実用的で高い正解率の品詞タグづけシステムを構築するかが重要な課題となる.これまで提案された確率モデルやニューラルネットモデルのほとんどはタグづけに長さが固定の文脈を用いるものであり(HMMモデルにおいても状態遷移を定義するのに固定されたn-gramベースのモデルを用いる),入力の各構成部分は同一の影響度を持つものとされていた.しかし,訓練データが少ない場合,タグづけ結果の確信度を高めるために,まずできるだけ長い文脈を用い,訓練データの不足から確定的な答えが出ない場合に順次文脈を短くするといったようにフレキシブルにタグづけすることが必要とされよう.そして,客観的な基準で入力の各構成部分の品詞タグづけへの影響度を計り,その影響度に応じた重みをそれぞれの構成部分に与えればより望ましいであろう.そこで,シンプルで効果的と思われる解決法はマルチモジュールモデルを導入することである.マルチモジュールモデルとは,複数のそれぞれ異なった長さの文脈を入力としたモジュールとそれらの出力を選別するセレクターから構成されるシステムのことである.しかし,このようなシステムを例えば確率モデルやメモリベースモデルで実現しようとすると,それぞれ以下に述べる不具合が生じる.確率モデルは,比較的短い文脈を用いる場合には,必要とされるパラメターの数はそれほど多くならない.しかし,ここで提案しているような複数のモジュールを場合に応じて使い分けるようなシステムでは,ある程度の長さの文脈を用いることが必要となり,確率モデルのパラメターの数が膨大になる.例えば,品詞が50種類ある言語を左右最大三つの単語の情報を文脈としてタグづけを行なう場合,その最長文脈を入力としたn-gramベース確率モデルにおいては,サイズが$50^7=7.8\times10^{11}$のn-gramテーブルを用意しなければならない.一方,IGTreeのようなメモリベースモデル\cite{daelemans:96}においては,品詞タグづけに実際に用いる特徴の数はそのツリーを張るノード(特徴)の範囲内で可変であり,各特徴のタグづけへの影響度もそれらを選択する優先順位で反映される.しかしながら,特徴の数を大きく取った場合,この手法によるタグづけの計算コストが非常にかかってしまうケースが生じる.実際,Daelmansらのモデル~\cite{daelemans:96}においてはノードの数は僅か4に設定されており,実質的に固定長さの文脈を用いていると見てもよい.本稿では,複数のニューラルネットで構成されるマルチニューロタガーを提案する.品詞のタグづけは,長さが固定の文脈を用いるのではなく,最長文脈優先でフレキシブルに行なわれる.個々のニューラルネットの訓練はそれぞれ独立に行なわれるのではなく,短い文脈での訓練結果(訓練で獲得した重み)を長い文脈での訓練の初期値として使う.その結果,訓練時間が大幅に短縮でき,複数のニューラルネットを用いても訓練時間はほとんど変わらない.タグづけにおいては,目標単語自身の影響が最も強く,前後の単語もそれぞれの位置に応じた影響度を持つことを反映させるために,入力の各構成部分は情報量最大を考慮して訓練データから得られるインフォメーションゲイン(略してIGと呼ぶ)を影響度として重み付けられる,その結果,訓練時間が更に大幅に短縮され,タグづけの性能も僅かながら改善される.計算機実験の結果,マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,どの固定長さの文脈を入力としたシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.以下,2章では品詞タグづけ問題の定式化,3章ではインフォメーションゲイン(IG)の求め方,4章ではマルチニューロタガーのアーキテクチャ,そして5章では計算機実験の結果について順に述べていく. \section{品詞タグづけ問題} 表1は品詞をタグづけされたタイ語コーパスの例を示す.記号`@'や`/'で区分されている記号列(例えばNCMNやPPRS)はその前にある単語が持ち得る品詞を表し,記号`@'の直後の記号列はその文において唯一に決まった品詞を表している.本稿で用いるタイ語の単語カテゴリの分類法に47種類の品詞が定義されている~\cite{charoenporn}.\begin{table*}\begin{center}表1品詞をタグづけされたタイ語コーパスの例\\[2mm]\smallskip\epsfile{file=32.eps,width=14.3cm}\end{center}\end{table*}入力されるタイ語テキストは電子辞書を用いて単語に分割され,各単語の持ち得る品詞もリストアップされるため,品詞のタグづけ問題は以下に示すような文脈を用いた品詞の曖昧性除去あるいは一種のクラス分け問題と見なせる.\begin{equation}IPT:(ipt\_l_{l},\cdots,ipt\_l_{1},ipt\_t,ipt\_r_{1},\cdots,ipt\_r_{r})\RightarrowOPT:POS\_t\end{equation}ここで,$ipt\_x$($x=l_{i},t,r_{j}$,$i=1,\cdots,l$,$j=1,\cdots,r$)を入力$IPT$の構成部分と呼ぶ.具体的には,$ipt\_t$は目標単語の取りうる品詞に関するもの,$ipt\_l_{i}$と$ipt\_r_{j}$はそれぞれ目標単語から左へ$i$番目と右へ$j$番目の単語の取りうる品詞(文脈)に関するもの,そして,$POS\_t$は目標単語がその文脈で取る正しい品詞を表すものである. \section{インフォメーションゲイン(IG)} インフォメーションゲイン(IG)は,特徴ベクトルで定義されるデータセットの情報量がある特定の特徴の値を知ることによってどれだけ増えるかを表す量である~\cite{daelemans:92,quinlan}.より具体的に言えば,ある特徴のIGとはその特徴がデータのクラス同定にどれだけ重要かを反映する量である.ここで,特徴を入力の構成部分,特徴の値をその構成部分の取りうる品詞,データの属するクラスを目標単語の取りうる品詞にそれぞれ置き換えてやれば,各構成部分のIGはその構成部分の品詞タグづけへの影響度として考えることができる.従って,(1)における入力の各構成部分$ipt\_x$($x=l_{i},t,\\mbox{or}\r_{j}$)はそれぞれタグづけへの影響度に応じた重み$w\_x$を持つと仮定すれば,その重みは以下のように求められる.ここで訓練データセットを$S$,$i$番目のクラス,あるいは$i$番目の品詞($i=1,\cdots,n$,但し,$n$は品詞の数)を$C_{i}$で表す.セット$S$のエントロピー,即ち,$S$の中の一つのデータのクラス(品詞)を同定するのに必要とされる情報の平均量は\begin{equation}info(S)=-\sum_{i=1}^{n}\frac{freq(C_{i},S)}{|S|}\timesln(\frac{freq(C_{i},S)}{|S|})\end{equation}である.但し,$|S|$は$S$の中のデータの数,$freq(C_{i},S)$はそのうちクラス$C_{i}$に属するデータの数である.セット$S$が構成部分$ipt\_x$の持ちうる品詞によって$h$個のサブセット$S_{i}$($i=1,\cdots,h$)に分割されたとき,新しいエントロピーはこれらのサブセットのエントロピーの重みつき総和で求められる.即ち,\begin{equation}info_{x}(S)=\sum_{i=1}^{h}\frac{|S_{i}|}{|S|}\timesinfo(S_{i})\end{equation}この分割(即ち,構成部分$ipt\_x$の品詞を知ること)による情報の増益(IG)は以下になる.\begin{equation}gain(x)=info(S)-info_{x}(S)\end{equation}従って,構成部分$ipt\_x$のタグづけへの影響度に応じた重みは以下のように設定できる.\begin{equation}w\_x=gain(x)\end{equation} \section{マルチニューロタガー} \subsection{シングルニューロタガー}\begin{center}\begin{minipage}[t]{8cm}\epsfile{file=33.eps,width=12cm}\bigskip\end{minipage}\\図1シングルニューロタガー(SNT)\end{center}図1は固定長さの文脈を用いて品詞タグづけをするニューラルネット(シングルニューロタガー,略してSNTと呼ぶ)を示す.単語$x$が入力の位置$y$($y=t$,$l_{i}$,or$r_{j}$)に与えられた時,入力$IPT$の構成部分$ipt\_y$は以下のように重み付けされたパターンで定義される.\begin{equation}ipt\_y=w\_y\cdot(e_{x1},e_{x2},\cdots,e_{xn})=(I_{x1},I_{x2},\cdots,I_{xn})\end{equation}但し,$w\_y$は(5)で求められた重み,$n$はタイ語に定義された品詞の数,$I_{xi}=w\_y\cdote_{xi}$($i=1,\cdots,n$)である.もし単語$x$が既知のもの,即ち,訓練データに出現するならば,各ビット$e_{xi}$は以下のように得られる.\begin{equation}e_{xi}=Prob(POS_{i}|x)\end{equation}ここで,$Prob(POS_{i}|x)$は単語$x$の品詞が$POS_{i}$である確率で,訓練データから以下のように推定される.\begin{equation}Prob(POS_{i}|x)=\frac{|POS_{i},x|}{|x|}\end{equation}ここで,$|POS_{i},x|$は全訓練データを通じ,$x$が品詞$POS_{i}$を取る回数で,$|x|$は$x$が出現する回数である.一方,もし単語$x$が未知のもの,即ち,訓練データに出現しないならば,各ビット$e_{xi}$は以下のように得られる.\begin{equation}e_{xi}=\left\{\begin{array}{ll}\frac{1}{n_{x}}&\mbox{$POS_{i}$が$x$の取りうる品詞の場合}\\0&\mbox{その他}\end{array}\right.\end{equation}ここで,$n_{x}$は単語$x$が持ちうる品詞の数である.出力$OPT$は以下のように定義されるパターンである.\begin{equation}OPT=(O_{1},O_{2},\cdots,O_{n})\end{equation}$OPT$はデコードされ,目標単語の品詞として最終結果$RST$が得られる:\begin{equation}RST=\left\{\begin{array}{ll}POS_{i}&\mbox{$O_{i}=1$,すべての$O_{j}=0$($j\neqi$)の場合}\\Unknown&\mbox{その他}\end{array}\right.\end{equation}文の各単語を左から右へ順にタグづけしていくとき,左側の単語はつねにタグづけ済みと考えられるため,それらの単語に関する入力を構成するとき,より多くの情報が活用できる.具体的には,(6)-(9)を用いる代わりに,入力は次のように構成される.\begin{equation}ipt\_l_{i}(t)=w\_l_{i}\cdotOPT(t-i)\end{equation}ここで,$t$は目標単語の文における位置であり,$i=1,2,\cdots,l$for$t-i>0$.しかしながら,訓練過程においてはタガーの出力はまだ正確ではないため,それらを直接入力にフィードバックして使うことができない.そのために,訓練過程における入力は以下のように実際の出力と目標出力の重みづき平均を用いて構成する.\begin{equation}ipt\_l_{i}(t)=w\_l_{i}\cdot(w_{OPT}\cdotOPT(t-i)+w_{DES}\cdotDES)\end{equation}ここで,$DES$は目標出力で,$w_{OPT}$と$w_{DES}$はそれぞれ次のように定義される.\begin{equation}w_{OPT}=\frac{E_{OBJ}}{E_{ACT}}\end{equation}\begin{equation}w_{DES}=1-w_{OPT}\end{equation}ここで,$E_{OBJ}$と$E_{ACT}$はそれぞれ目標誤差と実際の誤差を表す(それらの詳細は4.3節で述べる).従って,訓練の始めの入力構成では目標出力の比重が大きく,時間が立つにつれゼロへ減っていく.逆に,実際の出力の比重は最初小さく,時間が立つにつれて大きくなっていく.\subsection{マルチニューロタガー}図2に示すように,マルチニューロタガーはエンコーダー/デコーダー,複数のシングルニューロタガーSNT$_{i}$($i=1,\cdots,m$),そして最大文脈優先セレクターで構成される.SNT$_{i}$は入力$IPT_{i}$を持つ.入力$IPT_{i}$の長さ(即ち,構成部分の数:$l+1+r$)$l(IPT_{i})$は次の関係を持つ:$l(IPT_{i})<l(IPT_{j})$for$i<j$.\begin{center}\epsfile{file=35.eps,width=12cm}\\図2マルチニューロタガー\end{center}\vspace{3mm}目標単語$word\_t$を中心とした,最大長さ$l(IPT_{m})$の単語列($word\_l_{l}$,$\cdots$,$word\_l_{1}$,$word\_t$,$\cdots$,$word\_r_{r}$)がマルチニューロタガーに与えられた時,それぞれ同じく単語$word\_t$を中心とした長さ$l(IPT_{i})$の部分単語列が前節に述べた方法で$IPT_{i}$に符号化され,個々のシングルニューロタガーSNT$_{i}$($i=1,\cdots,m$)に入力される.それらの入力に対し,個々のSNT$_{i}$はそれぞれ独立に品詞タグづけを行ない,出力$OPT_{i}$を得る.出力$OPT_{i}$は前節に述べた方法で$RST_{i}$にデコードされる.$RST_{i}$は更に最大文脈優先セレクターに入力され,最終結果は次のように得られる.\begin{equation}POS\_t=\left\{\begin{array}{ll}RST_{i}&\mbox{\hspace{-5.9cm}$RST_{i}$が$Unknown$でなく,すべての}\\\mbox{\hspace{2.68cm}$RST_{j}$($j>i$)が$Unknown$である場合}\\Unknown&\mbox{\hspace{-5.9cm}その他}\end{array}\right.\end{equation}この式は,タグづけの最終結果はできるだけ長い文脈で得られた出力を優先的に用いることを意味する.\subsection{三層パーセプトロン}図1に示すように,シングルニューロタガーは三層パーセプトロン(詳細は\cite{haykin}を参照)で構成される.三層パーセプトロンは誤差逆伝播学習アルゴリズム~\cite{rumelhart}を用いて品詞のタグづけ済みの訓練用データを学習することによって品詞タグづけ能力を学習できる.訓練段階においては,各訓練データーのペア$(IPT^{(b)},DES^{(b)})$は順番にネットワークに与えられる.但し,上つき記号$b$はデータの番号を表し,$b$=$1,\cdots,P$,$P$は訓練データの数である.$b$番目の訓練データ$IPT^{(b)}$と$DES^{(b)}$は次のようなパターンとされる.\[IPT^{(b)}=(ipt\_l_{l}^{(b)},\cdots,ipt\_l_{1}^{(b)},ipt\_t^{(b)},ipt\_r_{1}^{(b)},\cdots,ipt\_r_{r}^{(b)})\]\begin{equation}=(I^{(b)}_{1},\cdots,I^{(b)}_{p})\end{equation}\begin{equation}DES^{(b)}=(D^{(b)}_{1},\cdots,D^{(b)}_{n})\end{equation}但し,$p=(l+1+r)\cdotn$である.$IPT^{(b)}$の各ビット$I^{(b)}_{i}$は(6)-(9)或は(12)-(15)を用いて得られる.$DES^{(b)}$の各ビット$D^{(b)}_{i}$は次のように与えられる.\begin{equation}D^{(b)}_{i}=\left\{\begin{array}{ll}1&\mbox{$POS_{i}$が正解の場合}\\0&\mbox{その他}\end{array}\right.\end{equation}訓練は全訓練データに対し平均出力誤差が目標値以下になるまで繰り返して行なわれる.ここで$k$回目の繰り返し訓練において$b$番目の訓練データのペアが提示されたとする.その時,ネットワークは,入力層に与えられた入力パターン$IPT^{(b)}$を以下の(20)-(24)を用いて出力層へ前向きに伝播しながら変換する.入力層はまず以下のようにセットされる.\begin{equation}y_{i}(k)=I^{(b)}_{i}\\mbox{and}\y_{0}(k)=1\end{equation}但し,$i=1,\cdots,p$,$y_{i}(k)$は入力層のユニット$i$の出力,$i=0$はバイアスユニットを表す.ここで,次の層(中間層或は出力層)のユニット$j$の出力は次のように得られる.\begin{equation}y_{j}(k)=\phi(v_{j}(k))\end{equation}但し,$v_{j}(k)$はユニット$j$の内部活動度と呼ばれるもので次のように得られる.\begin{equation}v_{j}(k)=\sum_{i=0}^{q}w_{ji}(k)y_{i}(k)\end{equation}ここで,$y_{i}(k)$と$q$はそれぞれ前の層のユニット$i$の出力とユニットの総数である(入力層においては$q=p$).また,$\phi(\cdot)$は次のように定義される.\begin{equation}\phi(x)=\frac{1}{(1+exp(-x))}\end{equation}出力層のユニット$j$の出力には別な記号$O^{b}_{j}$を用いる,即ち,\begin{equation}O^{(b)}_{j}(k)=y_{j}(k)\end{equation}出力$O^{(b)}_{j}(k)$が得られた後,その出力と目標出力間の二乗誤差$E^{(b)}$は次のように計算される.\begin{equation}E^{(b)}(k)=\frac{1}{2}\sum_{j=1}^{n}(D^{(b)}_{j}-O^{(b)}_{j}(k))^2\end{equation}そこで,その誤差を出力から入力へ逆伝播して誤差を減らすようにネットワークの重みを次のように修正する.\begin{equation}w_{ji}(k+1)=w_{ji}(k)+\eta\Deltaw_{ji}(k)+\alpha\Deltaw_{ji}(k-1)\end{equation}但し,$\eta$は重みの更新量を決める学習率で,$\alpha$は慣性率である.$\Deltaw_{ji}(k)$は最急降下法で次のように計算される.\begin{equation}\Deltaw_{ji}(k)=-\frac{\partialE^{(b)}(k)}{\partialw_{ji}(k)}\end{equation}このように(20)-(27)を通じて$k$回目の繰り返し訓練においての$b$番目のデータの処理が終る.訓練は,下の条件が満足されるまで,即ち,各訓練データと各出力ユニットに対する平均誤差$E_{ACT}(k)$が目標誤差$E_{OBJ}$以下になるまで,全訓練データを通じて繰り返して行なわれる:\begin{equation}E_{ACT}(k)=\frac{\sum_{b=1}^{P}\sum_{j=1}^{n}|D^{(b)}_{j}-O^{(b)}_{j}(k)|}{nP}\leqE_{OBJ}\end{equation}品詞タグづけ段階においては,入力$IPT=(I_{1},\cdots,I_{p})$が与えられた時,ネットワークはその入力パターンを(20)-(24)を用いて入力層から出力層へ前向きに伝播しながら変換する.ここで$k$は1にセットされ,上つき記号$b$が取り除かれる.最終的に,出力$OPT=(O_{1},\cdots,O_{n})$が(24)の代わりに次のように得られる.\begin{equation}O_{j}=1(y_{j}(1)-\theta)\end{equation}ここで$\theta$は出力の閾値で,$1(\cdot)$は以下のように定義される.\begin{equation}1(x)=\left\{\begin{array}{ll}1&\mbox{$x>0$の場合}\\0&\mbox{その他}\end{array}\right.\end{equation}\subsection{訓練}品詞タグづけにニューラルネットモデルを用いる主な欠点は訓練コストが高い(即ち,訓練に時間がかかる)ことである.この欠点は複数のニューラルネットの導入によって更に強調されてしまう.しかしながら,実際,もし短い入力のSNT$_{i}$の訓練結果(訓練で獲得した重み)を長い入力のSNT$_{i+1}$($i=1,\cdots,m-1$)にコピーして初期値として使えば,SNT$_{i+1}$($i=1,\cdots,m-1$)の訓練時間を大幅に短縮できる.従って,この方法を用いればマルチニューロタガーをシングルニューロタガーとほとんど変わらないコストで訓練することができる.図3にSNT$_{1}$(入力の長さ3)とSNT$_{2}$(入力の長さ4)の場合の例を示す.この図では実線部分でSNT$_{1}$を示し,点線部分を含む全体でSNT$_{2}$を示している.図に示しているように,SNT$_{1}$が訓練された後,その重み$w_{1}$と$w_{2}$はSNT$_{2}$の対応するところにコピーされ,SNT$_{2}$の初期値として使われている.\begin{center}\begin{minipage}[t]{8cm}\epsfile{file=38.eps,width=9cm}\\\end{minipage}\\図3シングルニューロタガーSNT$_{2}$の訓練\end{center}\subsection{特徴}例えば品詞が50種類ある言語を左右それぞれ三つの単語の情報を文脈としてタグづけを行なう場合,n-gramベースの確率モデルは$50^{7}=7.8\times10^{11}$個のn-gram(パラメータ)を推定しなければならない.それに対し,例えば中間層のユニット数が入力層の半分であるような三層パーセプトロンを用いたニューロタガーの場合,必要とされるパラメータ(ユニット間の結合)の数は僅か$n_{ipt}\cdotn_{hid}+n_{hid}\cdotn_{opt}$$=$$350\times175+175\times50=70,000$である.ここで,$n_{ipt}$,$n_{hid}$,と$n_{opt}$はそれぞれ入力層,中間層,及び出力層のユニットの数で,$n_{hid}=\frac{n_{ipt}}{2}$である.一般的に,システムに必要とされるパラメータの数が少なければ,それらを正しく同定するのに必要な訓練データの数も少なくてよい.そのために,ニューラルネットモデルのタグづけ性能は確率モデルのそれに比べ訓練データの数の少なさに影響されにくい~\cite{schmid}.また,他モデルに比べ,ニューラルネットモデルは訓練時間がかかる一方,タグづけ速度が非常に速いことも特徴の一つである.\vspace*{-3.5mm} \section{実験結果} \vspace*{-2.5mm}実験用データはすでに品詞のタグづけされたタイ語コーパスから得られた10,452の文であった.それを無作為に8,322文と2,130文に分けてそれぞれ訓練とテストに使った.訓練文においては22,311個の単語が複数の品詞を持ち,テスト文においては6,717個の単語が複数の品詞を持ちえた.タイ語には47種類の品詞が定義されているため,式(6),(10),(18)の中の$n$は47となる.マルチニューロタガーは五つの(入力に用いられる左右の単語の数がそれぞれ$(l,r)=(1,1),(2,1),(2,2),(3,2),(3,3)$の)シングルニューロタガーSNT$_{i}$から構成された.個々のタガーSNT$_{i}$は入力長さ$l(IPT_{i})$($=l+1+r$)で入力層$-$中間層$-$出力層に$p-\frac{p}{2}-n$個のユニットを持つ三層パーセプトロンであった.但し,$p=n\cdotl(IPT_{i})=n\cdot(l+1+r)$である.SNT$_{i}$の出力の閾値$\theta$[式(29)]は0.5に設定された.また,重みの更新量を決める学習率$\eta$と慣性率$\alpha$[式(26)]はそれぞれ0.1と0.9に,訓練を止める基準である目標誤差$E_{OBJ}$[式(28)]は0.005に設定された.訓練セットから得られた各入力部分の重み[式(5)]は($w\_l_{3}$,$w\_l_{2}$,$w\_l_{1}$,$w\_t$,$w\_r_{1}$,$w\_r_{2}$,$w\_r_{3}$)=(0.575,0.524,0.749,2.667,0.801,0.575,0.649)であった.表2はテストデータへの品詞タグづけ結果を示す.マルチニューロタガーはIGの有無とは関係なく,その正解率はどのシングルニューロタガーのそれよりも高かった.従って,マルチニューロタガーを用いることによって,文脈の長さを事前に経験的に選ぶ必要がなく,いつも状況に応じて適切な長さの文脈を自動的に選んでいると言える.IGを用いる場合,タグづけの正解率は短い文脈を用いた場合では下がり,長い文脈(入力長さが5以上)を用いた場合では上がった.この表は更にシングルニューロタガーだけを用いてもかなり高い正解率でタグづけすることができることを示した.実際,\cite{schmid}によれば,英語タガーを10,000オーダーのデータを用いて訓練させた場合,タグづけの正解率は僅か85\%程度であった.両者の違いはそもそもタイ語のタグづけ問題が英語のそれより容易であることにあるかもしれない.しかしながら,少なくとも訓練そのものに関してはタイ語のほうが英語より難しいと考えられる.なぜならば,英語の場合は線形分離可能な問題しか解決できない二層パーセプトロンでタグづけ問題を学習できたのに対し,タイ語の場合は三層以上でなければ学習が正しくできなかった.\begin{center}表2テストデータへの品詞タグづけ結果\bigskip\begin{tabular}{lcccccccc}\hline&\multicolumn{5}{c}{シングルタガー}&\multicolumn{1}{c}{マルチタガー}\\\hline$l(IPT_{i})$\hspace{0.0cm}&3\hspace{0.0cm}&4\hspace{0.0cm}&5\hspace{0.0cm}&6\hspace{0.0cm}&7\hspace{0.0cm}\\\hlineIGあり\hspace{0.0cm}&0.915\hspace{0.0cm}&0.920\hspace{0.0cm}&0.929\hspace{0.0cm}&0.930\hspace{0.0cm}&0.933\hspace{0.0cm}&0.943\\\hlineIGなし\hspace{0.0cm}&0.924\hspace{0.0cm}&0.927\hspace{0.0cm}&0.922\hspace{0.0cm}&0.926\hspace{0.0cm}&0.926\hspace{0.0cm}&0.941\\\hline\end{tabular}\end{center}\vspace*{4mm}一般的に,訓練データの数が十分でない場合,タグづけの正解率は用いる文脈が長くなるにつれて確定的な答えが少なくなるために落ちていく.しかしながら,本実験ではこのような現象が現れなかった.その理由は新しい訓練方法,即ち,長い入力のタガーの訓練は短いタガーの訓練結果に依存すること,にあると考えられる.これを確かめるために,$l(IPT_{i})=6$でIGなしのシングルニューロタガーSNT$_{4}$を改めて前の結果を利用せずに訓練し直した.その結果,SNT$_{4}$のタグづけの正解率は91.1\%まで下がった.これは短い入力のシングルニューロタガーSNT$_{i}$($i=1,2,3$)のいずれよりも低い数字であった.\begin{center}\epsfile{file=40.eps,width=11cm}\\図4SNT$_{4}$の異なる条件での訓練曲線\end{center}図4は異なる条件でのSNT$_{4}$の訓練曲線を示す.太い実線,細い実線,そして点線はそれぞれSNT$_{3}$の訓練結果を利用した場合,SNT$_{3}$の訓練結果を利用しない場合,そしてSNT$_{3}$の訓練結果を利用せず,IGも用いない場合である.この図は,訓練時間の大幅な短縮には前の訓練結果の利用だけでなくIGの利用も効果的であることを示している.\vspace*{-3.5mm} \section{結び} \vspace*{-2.5mm}情報量最大を考慮し最長文脈優先に基づいて長さ可変文脈で品詞タグづけを行うマルチニューロタガーを提案した.マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,どのシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.効率的な訓練方法,即ち,短い文脈での訓練結果を長い文脈での初期値として使うこと,を用いることにより,マルチニューロタガーをシングルニューロタガーとほとんど変わらないコストで訓練することができた.インフォメーションゲイン(IG)を導入することにより,訓練時間は更に大幅に短縮され,タグづけの性能も僅かながら改善された.\begin{thebibliography}{99}\bibitem[\protect\BCAY{Brill}{Brill}{1992}]{brill}Brill,E.(1992).``Asimplerule-basedpart-of-speechtagger.''{\itProc.3rdACLAppliedNLP},Trento,Italy,pp.152-155.\bibitem[\protect\BCAY{Charoenporn,Sornlertlamvanich,\BBA\Isahara}{Charoenpornet~al.}{1997}]{charoenporn}Charoenporn,T.,Sornlertlamvanich,V.,andIsahara,H.(1997)``BuildingalargeThaitextcorpus-partofspeechtaggedcorpus:ORCHID.''{\itProc.NaturalLanguageProcessingPacificRimSymposium1997},Phuket,Thailand.\bibitem[\protect\BCAY{Church}{Church}{1988}]{church}Church,K.(1988).``Astochasticpartsprogramandnounphraseparserforunrestrictedtext.''{\itProc.2ndACLAppliedNLP},Austin,Texas,pp.136-143.\bibitem[\protect\BCAY{Cutting,Kupiec,Pederson,\BBA\Sibun}{Cuttinget~al.}{1992}]{cutting}Cutting,D.,Kupiec,J.,Pederson,J.,andSibun,P.(1992).``Apracticalpartofspeechtagger.''{\itProc.3rdACLAppliedNLP},Trento,Italy,pp.133-140.\bibitem[\protect\BCAY{Daelemans\BBA\Van~den~Bosch}{Daelemans\BBA\Van~den~Bosch}{1992}]{daelemans:92}Daelemans,W.andVandenBosch,A.(1992).``Generalisationperformanceofbackpropagationlearningonasyllabificationtask.''InM.Drossaers\&A.Nijholt(Eds.),{\emTWLT3:ConnectionismandNaturalLanguageProcessing}.Enschede:TwenteUniversity,pp.27-38.\bibitem[\protect\BCAY{Daelemans,Zavrel,Berck\BBA\Gillis}{Daelemanset~al.}{1996}]{daelemans:96}Daelemans,W.,Zavrel,J.,Berck,P.,andGillis,S.(1996).``MBT:Amemory-basedpartofspeechtagger-generator.''{\itProc.4thWorkshoponVeryLargeCorpora},Copenhagen,Denmark.\bibitem[\protect\BCAY{DeRose}{DeRose}{1988}]{derose}DeRose,S.(1988).``Grammaticalcategorydisambiguationbystatisticaloptimization.''{\itComputationalLinguistics},Vol.14,No.1,pp.31-39.\bibitem[\protect\BCAY{Garside,Leech\BBA\Sampson}{Garsideet~al.}{1987}]{garside}Garside,R.,Leech,G.,andSampson,G.(1987).{\itThecomputationalanalysisofEnglish:Acorpus-basedapproach},London:Longman.\bibitem[\protect\BCAY{Haykin}{Haykin}{1994}]{haykin}Haykin,S.(1994).{\itNeuralNetworks},MacmillanCollegePublishingCompany,Inc.\bibitem[\protect\BCAY{Hindle}{Hindle}{1989}]{hindle}Hindle,D.(1989).``Acquiringdisambiguationrulesfromtext.''{\itProc.ACL'89},VancouverBC,pp.118-125.\bibitem[\protect\BCAY{Ma,Isahara,\BBA\Ozaku}{Maet~al.}{1996}]{ma}Ma,Q.,Isahara,H.,andOzaku,R.(1996).``Automaticpart-of-speechtaggingofThaicorpususingneuralnetworks,{\itProc.Intel.Conf.ArtificialNeuralNetworks(ICANN'96)},LectureNotesinComputerScience1112,Springer,pp.275-280.\bibitem[\protect\BCAY{MarquezandPadro}{MarquezandPadro}{1997}]{marquez}Marquez,L.andPadro,L.(1997).``AflexiblePOStaggerusinganautomaticallyacquiredlanguagemodel.''{\itProc.ACL-EACL'97},Madrid,Spain,pp.238-252.\bibitem[\protect\BCAY{Merialdo}{Merialdo}{1994}]{merialdo}Merialdo,B.(1994).``TaggingEnglishtextwithaprobabilisticmodel.''{\emComputationalLinguistics},Vol.20,No.2,pp.155-171.\bibitem[\protect\BCAY{Nakamura,Maruyama,Kawabata,\BBA\Shikano}{Nakamuraet~al.}{1990}]{nakamura}Nakamura,M.,Maruyama,K.,Kawabata,T.,andShikano,K.(1990).``NeuralnetworkapproachtowordcategorypredictionforEnglishtexts.''{\itProc.COLING'90},HelsinkiUniversity,pp.213-218.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{quinlan}Quinlan,J.(1993).{\itC4.5:ProgramsforMachineLearning},SanMateo,CA:MorganKaufmann.\bibitem[\protect\BCAY{Rumelhart,McClelland,\BBA\PDP~Research~Group}{Rumelhartet~al.}{1984}]{rumelhart}Rumelhart,D.E.,McClelland,J.L,andthePDPResearchGroup(1984).{\itParallelDistributedProcessing},theMITPress.\bibitem[\protect\BCAY{Schmid}{Schmid}{1994}]{schmid}Schmid,H.(1994).``Part-of-speechtaggingwithneuralnetworks.''{\itProc.COLING'94},Japan,pp.172-176.\bibitem[\protect\BCAY{SchutzeandSinger}{SchutzeandSinger}{1994}]{schutze}Schutze,H.andSinger,Y.(1994).``Part-of-speechtaggingusingavariablememorymarkovmodel.''{\itProc.ACL'94},LasCruces,NewMexico,pp.181-187.\bibitem[\protect\BCAY{Weischedel,Metter,Schwartz,Ramshaw,\BBA\Palmucci}{Weischedelet~al.}{1993}]{weischedel}Weischedel,R.,Metter,M.,Schwartz,R.,Ramshaw,L.,andPalmucci,J.(1993).``Copingwithambiguityandunknownwordsthroughprobabilisticmodels.''{\itComputationalLinguistics},Vol.19,No.2,pp.359-382.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.神経回路モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.工学博士.同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.情報処理学会,言語処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V16N05-01
\section{はじめに} 一般的な分野において精度の高い単語分割済みコーパスが利用可能になってきた現在,言語モデルの課題は,言語モデルを利用する分野への適応,すなわち,適応対象分野に特有の単語や表現の統計的振る舞いを的確に捉えることに移ってきている.この際の標準的な方法では,適応対象のコーパスを自動的に単語分割し,単語$n$-gram頻度などが計数される.この際に用いられる自動単語分割器は,一般分野の単語分割済みコーパスから構築されており,分割誤りの混入が避けられない.特に,適切に単語分割される必要がある適応対象分野に特有の単語や表現やその近辺において誤る傾向があり,単語$n$-gram頻度などの信頼性を著しく損なう結果となる.上述の単語分割誤りの問題に対処するため,確率的単語分割コーパスという概念が提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この枠組では,適応対象の生コーパスは,各文字の間に単語境界が存在する確率が付与された確率的単語分割コーパスとみなされ,単語$n$-gram確率が計算される.従来の決定的に自動単語分割された結果を用いるより予測力の高い言語モデルが構築できることが確認されている.また,仮名漢字変換\cite{無限語彙の仮名漢字変換}や音声認識\cite{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}においても,従来手法に対する優位性が示されている.確率的単語分割コーパスの初期の論文では,単語境界確率は,自動分割により単語境界と推定された箇所で単語分割の精度$\alpha$(例えば0.95)とし,そうでない箇所で$1-\alpha$とする単純な方法により与えられている\footnote{前後の文字種(漢字,平仮名,片仮名,記号,アラビア数字,西洋文字)によって場合分けし,単語境界確率を学習コーパスから最尤推定しておく方法\cite{生コーパスからの単語N-gram確率の推定}も提案されているが,構築されるモデルの予測力は単語分割の精度を用いる場合よりも有意に低い.後述する実験条件では,文字種を用いる方法によって構築されたモデルと単語分割の精度を用いる方法によって構築されたモデルによるエントロピーはそれぞれ4.723[bit]と3.986[bit]であった.}.実際には,単語境界が存在すると推定される確率は,文脈に応じて幅広い値を取ると考えられる.例えば,学習コーパスからはどちらとも判断できない箇所では1/2に近い値となるべきであるが,既存手法では1に近い$\alpha$か,0に近い$1-\alpha$とする他ない.この問題に加えて,既存の決定的に単語分割する手法よりも計算コスト(計算時間,記憶領域)が高いことが挙げられる.その要因は2つある.1つ目は,期待頻度の計算に要する演算の種類と回数である.通常の手法では,学習コーパスは単語に分割されており,これを先頭から単語毎に順に読み込んで単語辞書を検索して番号に変換し,対応する単語$n$-gram頻度をインクリメントする.単語辞書の検索は,辞書をオートマトンにしておくことで,コーパスの読み込みと比較して僅かなオーバーヘッドで行える\cite{DFAによる形態素解析の高速辞書検索}.これに対して,確率的単語分割コーパスにおいては,全ての連続する$n$個の部分文字列($L$文字)に対して,$L+1$回の浮動小数点数の積を実行して期待頻度を計算し,さらに1回の加算を実行する必要がある(\subref{subsection:EF}参照).2つ目の要因は,学習コーパスのほとんど全ての部分文字列が単語候補になるため,語彙サイズが非常に大きくなることである.この結果,単語$n$-gramの頻度や確率の記憶領域が膨大となり,個人向けの計算機では動作しなくなるなどの重大な制限が発生する.例えば,本論文で実験に用いた44,915文の学習コーパスに出現する句読点を含まない16文字以下の部分文字列は9,379,799種類あった.このうち,期待頻度が0より大きい部分文字列と既存の語彙を加えて重複を除いた結果を語彙とすると,そのサイズは9,383,985語となり,この語彙に対する単語2-gram頻度のハッシュによる記憶容量は10.0~GBとなった.このような時間的あるいは空間的な計算コストにより,確率的単語分割コーパスからの言語モデル構築は実用性が高いとは言えない.このことに加えて,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などのすでに提案されている様々な言語モデルの改良を試みることが困難になっている.本論文では,まず,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案する.さらに,確率的単語分割コーパスを通常の決定的に単語に分割されたコーパスにより模擬する方法を提案する.最後に,実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが大幅に削減可能であることを示す.これにより,高い性能の言語モデルを基礎として,既存の言語モデルの改良法を試みることが容易になる. \section{確率的単語分割コーパスからの言語モデルの推定} \label{section:raw}確率的言語モデルを新たな分野に適応する一般的な方法は,適応分野のコーパスを用意し,それを自動的に単語分割し,単語の頻度統計を計算することである.この方法では,単語分割誤りにより適応分野のコーパスにのみ出現する単語が適切に扱えないという問題が起こる.この解決方法として,適応分野のコーパスを確率的単語分割コーパスとして用いることが提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この節では,確率的単語分割コーパスからの確率的言語モデルの推定方法について概説する.\subsection{確率的単語分割コーパス}\label{subsection:EM}確率的単語分割コーパスは,生コーパス$C_{r}$(以下,文字列$\Bdma{x}_1^{n_{r}}$として参照)とその連続する各2文字$x_{i},x_{i+1}$の間に単語境界が存在する確率$P_{i}$の組として定義される.最初の文字の前と最後の文字の後には単語境界が存在するとみなせるので,$i=0,\;i=n_{r}$の時は便宜的に$P_{i}=1$とされる.確率変数$X_{i}$を\[X_{i}=\left\{\begin{array}{rl}1&\mbox{$x_{i},x_{i+1}$の間に単語境界が存在する場合}\\0&\mbox{$x_{i},x_{i+1}$が同じ単語に属する場合}\end{array}\right.\]とし($P(X_{i}=1)=P_{i},\;P(X_{i}=0)=1-P_{i}$),各$X_0,X_1,$$\dots,X_{n_r}$は独立であることが仮定される.文献\cite{確率的単語分割コーパスからの単語N-gram確率の計算}の実験で用いられている単語境界確率の推定方法は次の通りである.まず,単語に分割されたコーパスに対して自動単語分割システムの境界推定精度$\alpha$を計算しておく.次に,適応分野のコーパスを自動単語分割し,その出力において単語境界であると判定された点では$P_{i}=\alpha$とし,単語境界でないと判定された点では$P_{i}=1-\alpha$とする.後述する実験の従来手法としてこの方法を採用した.\subsection{単語$n$-gram頻度}\label{subsection:EF}確率的単語分割コーパスに対して単語$n$-gram頻度が以下のように定義される.\begin{description}\item[単語0-gram頻度]確率的単語分割コーパスの期待単語数として以下のように定義される.\begin{equation}\label{equation:0-gram}f(\cdot)=1+\sum_{i=1}^{n_{r}-1}P_{i}\end{equation}\item[単語1-gram頻度]確率的単語分割コーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が$l=k-i$文字からなる単語$w=\Bdma{x'}_{1}^{l}$である必要十分条件は以下の4つである.\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語$w$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が文字列中にない.\item文字$x_{k}$の直後に単語境界がある.\end{enumerate}したがって,確率的単語分割コーパスの単語1-gram頻度$f_{r}$は,単語$w$の表記の全ての出現$O_{1}=\{(i,k)\,|$$\Bdma{x}_{i+1}^{k}=w\}$に対する期待頻度の和として以下のように定義される.\begin{equation}\label{eqnarray:1-gram}f_{r}(w)=\sum_{(i,k)\inO_{1}}P_{i}\left[\prod_{j=i+1}^{k-1}(1-P_{j})\right]P_{k}\end{equation}\item[単語$n$-gram頻度($\Bdma{n\geq2}$)]$L$文字からなる単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$の確率的単語分割コーパス$\Bdma{x}_{1}^{n_{r}}$における頻度,すなわち単語$n$-gram頻度について考える.このような単語列に相当する文字列が確率的単語分割コーパスの$(i+1)$文字目から始まり$k=i+L$文字目で終る文字列と等しく($\Bdma{x}_{i+1}^{k}=\Bdma{x'}_{1}^{L}$),単語列に含まれる各単語$w_{m}$に相当する文字列が確率的単語分割コーパスの$b_{m}$文字目から始まり$e_{m}$文字目で終る文字列と等しい($\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},\;1\leq\forallm\leqn$;$e_{m}+1=b_{m+1},\;1\leq\forallm\leqn-1$;$b_{1}=i+1$;$e_{n}=k$)状況を考える(\figref{figure:SSC}参照).確率的単語分割コーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$である必要十分条件は以下の4つである.\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が各単語に対応する文字列中にない.\item単語境界が各単語に対応する文字列の後にある.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{16-4ia6f1.eps}\end{center}\caption{確率的単語分割コーパスにおける単語$n$-gram頻度}\label{figure:SSC}\end{figure}確率的単語分割コーパスにおける単語$n$-gram頻度は以下のように定義される.\begin{equation}\label{eqnarray:n-gram}f_{r}(\Bdma{w}_{1}^{n})=\sum_{(i,e_{1}^{n})\inO_{n}}P_{i}\left[\prod_{m=1}^{n}\left\{\prod_{j=b_{m}}^{e_{m}-1}(1-P_{j})\right\}P_{e_{m}}\right]\end{equation}ここで\begin{align*}e_{1}^{n}&=(e_{1},e_{2},\cdots,e_{n})\\O_{n}&=\{(i,e_{1}^{n})|\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},1\leqm\leqn\}\end{align*}である.\end{description}\subsection{単語$n$-gram確率}確率的単語分割コーパスにおける単語$n$-gram確率は,単語$n$-gram頻度の相対値として計算される.\begin{description}\item[単語1-gram確率]以下のように単語1-gram頻度を単語0-gram頻度で除することで計算される.\begin{equation}\label{equation:1-gram}P_r(w)=\frac{f_r(w)}{f_r(\cdot)}\end{equation}\item[単語$n$-gram確率($\Bdma{n\geq2}$)]以下のように単語$n$-gram頻度を単語$(n-1)$-gram頻度で除することで計算される.\begin{equation}\label{equation:n-gram}P_r(w_{n}|\Bdma{w}_{1}^{n-1})=\frac{f_r(\Bdma{w}_{1}^{n})}{f_r(\Bdma{w}_{1}^{n-1})}\end{equation}\end{description}\subsection{単語$n$-gram頻度の計算コスト}ある単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$($n\geq1$)のある1箇所の出現位置に対する期待頻度の計算に必要な演算は,\equref{eqnarray:1-gram}や\equref{eqnarray:n-gram}から明かなように,$L-n$回の浮動小数点に対する減算と$L+1$回の浮動小数点に対する乗算である.動的に単語$n$-gram確率を計算する方法では,この演算が文字列$\Bdma{x'}_{1}^{L}$の出現回数だけ繰り返される.通常の決定的単語分割コーパスの場合には,単語列の出現回数がそのまま頻度となるので,上述の浮動小数点に対する演算が全て付加的な計算コストであり,言語モデルの応用の実行速度を大きく損ねる.あらかじめ単語$n$-gram確率を計算しておく場合は,ある文(文字数$h$)に出現する全ての$n$個の連続する部分文字列に対して行う必要がある.上述の減算や乗算が重複して行われるのを避けるために,まず文の両端を除く全ての位置に対して$1-P_{i}$を計算($h-1$回の減算)し,さらにこれら$h-1$個の$1-P_{i}$のうちの任意個の連続する位置に対する積$\prod_{j=b}^{e}(1-P_{j})$($b<e$)を計算($\sum_{i=1}^{h-2}=(h-1)(h-2)/2$回の乗算)しておく.ある単語$n$-gramの出現位置は,文に$n+1$個の単語境界を置くことで決るので,$h$文字の文には重複を含め${}_{h-1}C_{n+1}$個の単語$n$-gramが含まれる.このそれぞれの期待頻度は,左端の$P_{i}$に$n$個の$\prod_{j=e_{k-1}+1}^{e_{k}}(1-P_{j})$と$n$個の$P_{e_{k}}$の積($2n$回の乗算)として得られる.この場合に必要な計算コストも,決定的単語分割コーパスの場合の単語数と同じ回数のインクリメントに比べて非常に大きい\footnote{後述の実験での条件では,自動分割結果(決定的単語分割)からの頻度計算におけるインクリメントは1,377,062回で,確率的単語分割に対する$n=2$の乗算回数の理論値は20,181,679,570となる.浮動小数点数に対する乗算とインクリメントでは,計算のコストが異なるが,回数を単純に比較しても実に14,656倍となる.実際の計算時間には,さらに,入力文の読み込みや文字列(単語表記)から語彙番号への変換が含まれるので,この比率にはならない.}.このように,確率的単語分割コーパスに対する単語$n$-gram頻度の計算のコストは,従来の決定的単語分割コーパスに対する計算コストに比べて非常に大きくなる.文の長さの分布を無視すれば,計算回数はコーパスの文数に対しては比例する.文毎に独立なので複数の計算機による分散計算も可能であるが,ある程度の大きさのコーパスからモデルを作成する場合にはこの計算コストは問題になる.また,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などの様々な言語モデルの改良においては,最適化の過程において言語モデルを何度も構築する.確率的単語分割コーパスにおける単語$n$-gram頻度の計算のコストによって,これらの改良を試みることが困難になっている. \section{最大エントロピー法による単語境界確率の推定} この節では,最大エントロピー法による単語分割器を単語境界確率の推定に用いる方法について述べる.\subsection{単語境界確率の推定}\label{subsection:ME}日本語の単語分割の問題は,入力文の各文字間に単語境界が発生するか否かを予測する問題とみなせる\cite{教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル,Training.Conditional.Random.Fields.Using.Incomplete.Annotations}.つまり,文$\Bdma{x}=\Conc{x}{m}$に対して,$x_{i}x_{i+1}$の間が単語境界であるか否かを表すタグ$t_{i}$を付与する問題とみなす.付与するタグは,単語境界であることを表すタグ{\bfE}と,非単語境界であることを表すタグ{\bfN}の2つのタグからなる.各文字間のタグがこのいずれかであるかは,単語境界が明示されたコーパスから学習された点推定の最大エントロピーモデル(MEmodel;maximumentropymodel)により推定する\footnote{文献\cite{Training.Conditional.Random.Fields.Using.Incomplete.Annotations}のようにCRF(ConditionalRandomFields)により推定することもできるが,計算コストと記憶領域が大きくなる.これらの差は,スパースな部分的アノテーションコーパスからの学習において顕著となる.つまり,CRFのように系列としてモデル化する方法では,アノテーションのない部分も考慮する必要があるのに対して,点推定の最大エントロピーモデルでは,アノテーションのある部分のみを考慮すればよい.このような考察から,本論文では計算コストの少ない最大エントロピーモデルを用いる.}.その結果,より高い確率を与えられたタグをその文字間のタグとし,単語境界を決定する.すなわち,以下の式が示すように,最大エントロピーモデルにより,単語境界と推定される確率が非単語境界と推定される確率より高い文字間を単語境界とする.\[t_{i}=\left\{\begin{array}{ll}\mbox{\bfE}&\mbox{if}\;P_{ME}(t_{i}={\bfE}|\Bdma{x})>P_{ME}(t_{i}={\bfN}|\Bdma{x})\\\mbox{\bfN}&\mbox{otherwise}\end{array}\right.\]これにより,入力文を単語に分割することができる.本論文では,以下のように,タグ$t_{i}$の出現確率を確率的単語分割コーパスにおける単語境界確率$P_{i}$として用いることを提案する.\begin{displaymath}P_{i}=P_{ME}(t_{i}={\bfE}|\Bdma{x})\end{displaymath}これにより,注目する文字の周辺のさまざまな素性を参照し,単語境界確率を適切に推定することが可能になる.\subsection{参照する素性}後述する実験においては,$x_{i}x_{i+1}$の間に注目する際の最大エントロピーモデルの素性としては,$x_{i-1}^{i+2}$の範囲の文字$n$-gramおよび字種$n$-gram($n=1,2,3$)をすべて用いた\footnote{字種は,漢字,ひらがな,カタカナ,アルファベット,数字,記号の6つとした.}.ただし,以下の点を考慮している.\begin{itemize}\item素性として利用する$n$-gramは,先頭文字の字種がその前の文字の字種と同じか否か,および,末尾文字の字種がその次の文字の字種と同じか否かの情報を付加して参照する\footnote{パラメータ数の急激な増加を抑えつつ素性の情報量を増加させる.これにより,参照範囲を前後1文字拡張して$x_{i-2}^{i+3}$の範囲の$n$-gram($n=3,4,5$)を参照する.}.\item素性には注目する文字間の位置情報を付加する.\end{itemize}たとえば,文字列「文字列を単語に分割する」の「語」「に」の文字間の素性は,\{$-$単$+|$,$+$語$|-$,$-|$に$-$,$|-$分$+$,$-$単語$|-$,$+$語$|$に$-$,$-|$に分$+$,$-$単語$|$に$-$,$+$語$|$に分$+$,$-$K$+|$,$+$K$|-$,$-|$H$-$,$|-$K$+$,$-$KK$|-$,$+$K$|$H$-$,$-|$HK$+$,$-$KK$|$H$-$,$+$K$|$HK$+$,\}となる.「$|$」は注目する文字間を表す補助記号であり,「$+$」と「$-$」は前後の文字が同じ字種である($+$)か否($-$)かを表す補助記号である.「H」と「K」は字種の平仮名と漢字を表している.なお,実験においては,パラメータ数を減らすために,学習データで2回以上出現する素性のみを用いた.また,最大エントロピーモデルのパラメータ推定には,GISアルゴリズム\cite{Generalized.Iterative.Scaling.For.Log-Linear.Models}を使用した. \section{疑似確率的単語分割コーパス} 確率的単語分割コーパスに対する単語$n$-gram頻度は,高いコストの計算を要する.また,確率的単語分割コーパスは,頻度計算の対象となる単語や単語断片(候補)を多数含む.ある単語$n$-gramの頻度の計算に際しては,その単語の文字列としてのすべての出現に対して,頻度のインクリメントではなく,複数回の浮動小数点演算を実行しなければならない.この計算コストにより,より長い履歴を参照する単語$n$-gramモデルや単語クラスタリングなどの言語モデルの改良が困難になっている.上述の困難を回避する方法として,単語分割済みコーパスで確率的単語分割コーパスを近似する方法を提案する.具体的には,確率的単語分割コーパスに対して以下の処理を最初の文字から最後の文字まで($1\leqi\leqn_{r}$)行なう.\begin{enumerate}\item文字$x_{i}$を出力する.\item0以上1未満の乱数$r_{i}$を発生させ$P_{i}$と比較する.$r_{i}<P_{i}$の場合には単語境界記号を出力し,そうでない場合には何も出力しない.\end{enumerate}これにより,確率的単語分割コーパスに近い単語分割済みコーパスを得ることができる.これを疑似確率的単語分割コーパスと呼ぶ.上記の方法では,文字列としての出現頻度が低い単語$n$-gramの頻度が確率的単語分割コーパスと疑似確率的単語分割コーパスにおいて大きく異なる可能性がある.そもそも,出現頻度が低い単語$n$-gramの場合,単語分割が正しいとしても,その統計的振る舞いを適切に捉えるのは困難であるが,近似によって誤差が増大することは好ましくない.従って,この影響を軽減するために,上記の手続きを$N$回行ない,その結果得られる$N$倍の単語分割済みコーパスを単語$n$-gram頻度の計数の対象とすることとする.このときの$N$を本論文では倍率と呼ぶこととする.疑似確率的単語分割コーパスは,一種のモンテカルロ法となっている.モンテカルロ法による$d$次元の単位立方体上$[0,d]^{d}$上の定積分$I=\int_{[0,1]^{d}}f(x)dx$の数値計算法では,単位立方体$[0,d]^{d}$上の一様乱数$\Stri{x}{N}$を発生させて$I_{N}=\sum_{i=1}^{N}f(x_{i})$とする.このとき,誤差$|I_{N}-I|$は次元$d$によらずに$1/\sqrt{N}$に比例する程度の速さで減少することが知られている.疑似確率的単語分割コーパスにおける単語$n$-gram頻度の計算はこの特殊な場合であり,$n$の値や文字数によらずに$1/\sqrt{FN}$に比例する程度の速さで減少する.ここで$F$は単語$n$-gramの文字列としての頻度である. \section{評価} 単語境界確率の推定方法の評価として,言語モデルの適応の実験を行なった.まず,適応対象文野の大きな生コーパスに既存手法と提案手法のそれぞれで単語境界確率を付与した.次に,その結果得られる確率的単語分割コーパスから単語2-gramモデルを推定し,これを一般分野の単語分割済みコーパスから推定された単語2-gramモデルと補間した.最後に,適応分野のテストコーパスに対して,予測力と仮名漢字変換\cite{無限語彙の仮名漢字変換}の精度の評価を行なった.後者は,理想的な音響モデルを用いた場合の音声認識と考えることも可能である.この節では,実験の結果を提示し,評価を行なう.\subsection{実験の条件}実験に用いたコーパスは,「現代日本語書き言葉均衡コーパス」モニター公開データ(2008年度版)中の人手による単語分割の修正がなされている文(一般コーパス)と医療文書からなる適応対象のコーパスである.一般コーパスの各文は正しく単語に分割され,各単語に入力記号列(読み)が付与されている.これを10個に分割し,この内の9個を学習コーパスとし,残りの1個をテストコーパスとした(\tabref{table:corpus}参照).自動単語分割器や単語境界確率の推定のための最大エントロピーモデルはこの学習コーパスから構築される.一方,適応対象のコーパスは大量にあるが,単語境界情報を持たない.この内の7,000文に入力記号列(読み)を付与しテストコーパスとし,残りを確率的単語分割コーパスとして言語モデルの学習に用いた(\tabref{table:raw-corpus}参照).テストコーパスの内の1,000文には,単語境界情報も付与し,言語モデルの予測力の評価に用いた.\subsection{評価基準}確率的言語モデルの予測力の評価に用いた基準は,テストコーパスにおける単語あたりのパープレキシティである.まず,テストコーパス$C_{t}$に対して未知語の予測も含む文字単位のエントロピー$H$を以下の式で計算する\cite{日本語の情報量の上限の推定}.\begin{displaymath}H=-\frac{1}{|C_{t}|}\log_{2}\prod_{\Bdma{w}\inC_{t}}M_{w,n}(\Bdma{w})\end{displaymath}ここで,$M_{w,n}(\Bdma{w})$は単語$n$-gramモデルによる単語列$\Bdma{w}$の生成確率を,$|C_{t}|$はテストコーパス$C_{t}$の文字数を表す.次に,単語単位のパープレキシティを以下の式で計算する.\begin{displaymath}PP=2^{H\times\overline{|\Bdma{w}|}}\end{displaymath}ここで$\overline{|\Bdma{w}|}$は平均単語長(文字数)である.これらの計算に際しては,単語境界情報が付与された1,000文を用いた\footnote{本論文での言語モデルの予測力の評価は,文字列の予測のみならず,人手で付与された単語境界の予測も含まれている.これは,言語モデルの応用を考慮してのことである.純粋に予測力が高いモデルが必要な場合は,既存の単語単位を用いず,文字単位でモデル化する方がよいと考えられる\cite{予測単位の変更によるn-gramモデルの改善,ベイズ階層言語モデルによる教師なし形態素解析}.}.\begin{table}[t]\begin{minipage}[t]{0.47\textwidth}\caption{一般コーパス(単語分割済み)}\label{table:corpus}\input{03table01.txt}\end{minipage}\hfill\begin{minipage}[t]{0.47\textwidth}\caption{適応対象コーパス(単語境界情報なし)}\input{03table02.txt}\label{table:raw-corpus}\end{minipage}\end{table}仮名漢字変換の評価基準は,文字誤り率である.文字誤り率は$\mbox{CER}=1-N_{LCS}/N_{COR}$と定義される.ここで,$N_{COR}$は正解に含まれる文字数であり,$N_{LCS}$は各文を一括変換することで得られる最尤解と正解との最長共通部分列(LCS;LongestCommonSubsequence)\cite{文字列中のパターン照合のためのアルゴリズム}の文字数である.\subsection{単語境界確率の推定方法の評価}単語境界確率の推定方法の差異を調べるために,以下の2つの確率的単語分割コーパスを作成しそれらから推定された単語2-gramモデルの能力を調べた.\begin{itemize}\item[\bfBL:]\従来手法\\各単語境界確率は,単語2-gramモデルに基づく自動単語分割器の判断に応じて$\alpha$又は$1-\alpha$とする.ここで,$\alpha=67372/68039$は一般分野のテストコーパスにおける単語境界推定精度である(\subref{subsection:EM}参照).\item[\bfME:]\提案手法\\各単語境界確率は,最大エントロピーモデルを用いて文脈に応じて推定される(\subref{subsection:ME}参照).\end{itemize}適応対象分野のテストコーパスにおける予測力と文字誤り率を\tabref{table:result1}に示す.この結果から,本論文で提案する最大エントロピー法による単語境界確率の推定方法により約11\%のパープレキシティの削減が実現されている.この結果から,最大エントロピー法により推定された単語境界確率を持つ確率的単語分割コーパスを用いることで適応対象分野における単語2-gram確率がより正確に推定されていることがわかる.応用の仮名漢字変換においても,文字正解率の比較から,提案手法により,従来手法の文字誤りの約3.1\%が削減さた.検定の結果,有意水準5\%で有意差があるとの結果であった.この点からも言語モデルが改善されていることが確認される.従来手法の文字正解率は97.51\%と高いので,提案手法により実現された誤りの削減は十分有意義であろう.\begin{table}[t]\caption{単語境界確率の推定方法と言語モデルの能力の関係}\input{03table03.txt}\label{table:result1}\end{table}\begin{table}[t]\caption{1/1のサイズの疑似確率的単語分割コーパスから推定された言語モデルの能力}\input{03table04.txt}\label{table:result2}\end{table}\subsection{疑似確率的単語分割コーパスの評価}本論文のもう一つの論点は,単語分割済みコーパスによる確率的単語分割コーパスの近似である.この評価として,3種類の大きさ(1/1,1/2,1/4)の適応分野の疑似確率的単語分割コーパスから推定した言語モデルのテストコーパスに対するパープレキシティと文字正解率を複数の倍率($N=1,2,4,\cdots,256$)に対して計算した.\tabref{table:result2}〜\tabref{table:result4}はその結果である.まず,自動分割の結果を決定的単語分割コーパスとして用いる場合についてである.これと,確率的単語分割コーパスとして用いる場合との比較では,文献\cite{確率的単語分割コーパスからの単語N-gram確率の計算}の報告と同じように確率的単語分割により予測力が向上し,文献\cite{無限語彙の仮名漢字変換}の報告と同じように仮名漢字変換の文字正解率も向上している.さらに,本論文で提案する倍率が1の疑似確率的単語分割は,決定的単語分割に対して,予測力と文字正解率の双方において優れていることが分る.倍率が1の疑似確率的単語分割と決定的単語分割の唯一の違いは,自動単語分割の際に単語境界確率を0.5と比較するか,0から1の乱数と比較するかであり,モデル構築の計算コストはほとんど同じである.にもかかわらず,予測力と文字正解率の双方が向上している点は注目に値するであろう.次に,確率的単語分割と疑似確率的単語分割の比較について述べる.倍率が1の場合は,予測力や文字正解率は,確率的単語分割コーパスから推定された言語モデルに対して少し低く,倍率を上げることによりこれらは確率的単語分割コーパスによる結果に近づいていくことがわかる.これは,疑似確率的単語分割がモンテカルロ法による数値演算の一種になっていることを考えれば当然の結果である.このことから,ある程度の倍率の疑似確率的単語分割コーパスは,確率的単語分割コーパスのよい近似となっているといえる.適応分野のコーパスの大きさに係わらず,倍率が256の場合の疑似確率的単語分割による結果は,確率的単語分割の結果とほぼ同じといえる.\begin{table}[t]\caption{1/2のサイズの疑似確率的単語分割コーパスから推定された言語モデルの能力}\input{03table05.txt}\label{table:result3}\end{table}\begin{table}[t]\caption{1/4のサイズの疑似確率的単語分割コーパスから推定された言語モデルの能力}\input{03table06.txt}\label{table:result4}\end{table}最後に,確率的単語分割と疑似確率的単語分割の計算コストの比較について述べる.確率的単語分割の語彙サイズは,適応対象の学習コーパスにおける期待頻度が0より大きい16文字以下の部分文字列と一般コーパスの語彙の合計9,383,985語であった.この語彙に対する単語2-gram頻度をハッシュ(BerkeleyDB4.6.21)を用いてファイルに出力すると10.0~GBとなった.これをRAMディスク上で計算するのに61147.45秒(約17時間)を要した\footnote{この計算に用いた計算機の中央演算装置はIntelCore2Duo3.91~GHzであり,主記憶は4~GBである.}.同じ計算機で,16倍の疑似確率的単語分割コーパスから単語2-gram頻度をRAMディスク上で計算すると,語彙サイズが46,777語であり,単語2-gram頻度のファイルサイズは9.98~MBであり,計算時間は1009.95秒(約17分)と約61分の1となった.疑似確率的単語分割コーパスを用いた場合には,倍率が256の場合でも20.2~MBと,ファイルサイズが大きくないので,現在の多くの計算機で主記憶上で計算が可能である(主記憶上での計算時間は303.29秒).これに対して,確率的単語分割コーパスからの推定では,一部の計算機においてのみ主記憶上での計算が可能である.さらに,実験で用いた適応対象の分野のコーパスは44,915文と決して大きくはなく,適応分野によっては1桁か2桁ほど大きい学習コーパスが利用できることも十分考えられる.この場合には,確率的単語分割では2次記憶(RAMディスクかハードディスク)上での計算が避けられず,モデル作成にかかる計算時間の違いは非常に大きくなる.したがって,本論文で提案する疑似確率的単語分割は,この点から有用であると考えられる.疑似確率的単語分割において,どの程度の倍率がよいかは要求する精度と利用可能な計算機資源との兼ね合いである.例えば倍率が16の場合は,単語に分割された718,640文から言語モデルを推定することになる.モデル構築に要する計算時間は,決定的単語分割の場合の16倍程度であり,現在の計算機はこの大きさのコーパスを処理する能力が十分ある.したがって,疑似確率的単語分割により,単語3-gramモデルや可変長記憶マルコフモデル,あるいは言語モデルのための単語クラスタリングなどさらなる言語モデルの改善を容易に試みることが可能となる. \section{おわりに} 本論文では,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案した.実験の結果,提案手法により約11\%のパープレキシティの減少と約3.1\%の文字誤りの削減が確認された.さらに,確率的単語分割コーパスを通常の決定的単語分割コーパスにより模擬する方法を提案した.実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが削減可能であることを示した.\acknowledgment査読者から有意義なコメントを頂きました.心より感謝致します.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aho}{Aho}{1990}]{文字列中のパターン照合のためのアルゴリズム}Aho,A.~V.\BBOP1990\BBCP.\newblock\JBOQ文字列中のパターン照合のためのアルゴリズム\JBCQ\\newblock\Jem{コンピュータ基礎理論ハンドブック},I:形式的モデルと意味論\JVOL,\BPGS\263--304.ElseveirSciencePublishers.\bibitem[\protect\BCAY{Brown,Pietra,deSouza,Lai,\BBA\Mercer}{Brownet~al.}{1992}]{Class-Based.n-gram.Models.of.Natural.Language}Brown,P.~F.,Pietra,V.J.~D.,deSouza,P.~V.,Lai,J.~C.,\BBA\Mercer,R.~L.\BBOP1992\BBCP.\newblock\BBOQClass-Based$n$-gramModelsofNaturalLanguage\BBCQ\\newblock{\BemComputationalLinguistics},\textbf{18}(4),pp.~467--479.\bibitem[\protect\BCAY{Darroch\BBA\Ratcliff}{Darroch\BBA\Ratcliff}{1972}]{Generalized.Iterative.Scaling.For.Log-Linear.Models}Darroch,J.\BBACOMMA\\BBA\Ratcliff,D.\BBOP1972\BBCP.\newblock\BBOQGeneralizedIterativeScalingForLog-LinearModels\BBCQ\\newblock{\BemTheannualsofMathematicalStatistics},\textbf{43}(5),pp.~1479--1480.\bibitem[\protect\BCAY{風間,宮尾,辻井}{風間\Jetal}{2004}]{教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル}風間淳一,宮尾祐介,辻井潤一\BBOP2004\BBCP.\newblock\JBOQ教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル\JBCQ\\newblock\Jem{自然言語処理},\textbf{11}(4),pp.~3--24.\bibitem[\protect\BCAY{Kurata,Mori,\BBA\Nishimura}{Kurataet~al.}{2006}]{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}Kurata,G.,Mori,S.,\BBA\Nishimura,M.\BBOP2006\BBCP.\newblock\BBOQUnsupervisedAdaptationofaStochasticLanguageModelUsingaJapaneseRawCorpus\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonAcoustics,Speech,andSignalProcessing}.\bibitem[\protect\BCAY{森}{森}{1997}]{DFAによる形態素解析の高速辞書検索}森信介\BBOP1997\BBCP.\newblock\JBOQDFAによる形態素解析の高速辞書検索\JBCQ\\newblock\Jem{EDR電子化辞書利用シンポジウム}.\bibitem[\protect\BCAY{森}{森}{2007}]{無限語彙の仮名漢字変換}森信介\BBOP2007\BBCP.\newblock\JBOQ無限語彙の仮名漢字変換\JBCQ\\newblock\Jem{情報処理学会論文誌},\textbf{48},pp.~3532--3540.\bibitem[\protect\BCAY{森\JBA山地}{森\JBA山地}{1997}]{日本語の情報量の上限の推定}森信介,山地治\BBOP1997\BBCP.\newblock\JBOQ日本語の情報量の上限の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},\textbf{38}(11),pp.~2191--2199.\bibitem[\protect\BCAY{森,山地,長尾}{森\Jetal}{1997}]{予測単位の変更によるn-gramモデルの改善}森信介,山地治,長尾真\BBOP1997\BBCP.\newblock\JBOQ予測単位の変更による$n$-gramモデルの改善\JBCQ\\newblock\Jem{情報処理学会研究報告},SLP19\JVOL,\BPGS\87--94.\bibitem[\protect\BCAY{森\JBA宅間}{森\JBA宅間}{2004}]{生コーパスからの単語N-gram確率の推定}森信介,宅間大介\BBOP2004\BBCP.\newblock\JBOQ生コーパスからの単語N-gram確率の推定\JBCQ\\newblock\Jem{情報処理学会研究報告},NL162\JVOL.\bibitem[\protect\BCAY{森,宅間,倉田}{森\Jetal}{2007}]{確率的単語分割コーパスからの単語N-gram確率の計算}森信介,宅間大介,倉田岳人\BBOP2007\BBCP.\newblock\JBOQ確率的単語分割コーパスからの単語N-gram確率の計算\JBCQ\\newblock\Jem{情報処理学会論文誌},\textbf{48},pp.~892--899.\bibitem[\protect\BCAY{持橋,山田,上田}{持橋\Jetal}{2009}]{ベイズ階層言語モデルによる教師なし形態素解析}持橋大地,山田武士,上田修功\BBOP2009\BBCP.\newblock\JBOQベイズ階層言語モデルによる教師なし形態素解析\JBCQ\\newblock\Jem{情報処理学会研究報告},NL190\JVOL.\bibitem[\protect\BCAY{Ron,Singer,\BBA\Tishby}{Ronet~al.}{1996}]{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}Ron,D.,Singer,Y.,\BBA\Tishby,N.\BBOP1996\BBCP.\newblock\BBOQThePowerofAmnesia:LearningProbabilisticAutomatawithVariableMemoryLength\BBCQ\\newblock{\BemMachineLearning},\textbf{25},pp.~117--149.\bibitem[\protect\BCAY{Tsuboi,Kashima,Mori,Oda,\BBA\Matsumoto}{Tsuboiet~al.}{2008}]{Training.Conditional.Random.Fields.Using.Incomplete.Annotations}Tsuboi,Y.,Kashima,H.,Mori,S.,Oda,H.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQTrainingConditionalRandomFieldsUsingIncompleteAnnotations\BBCQ\\newblockIn{\BemProceedingsofthe22thInternationalConferenceonComputationalLinguistics}.\end{thebibliography}\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.工学博士.同年日本アイ・ビー・エム(株)入社.2007年5月より京都大学学術情報メディアセンター准教授.1997年情報処理学会山下記念研究賞受賞.情報処理学会会員.}\bioauthor{小田裕樹}{1999年徳島大学大学院工学研究科博士前期課程知能情報工学専攻修了.工学博士.同年NTTソフトウェア(株)入社.言語処理・情報検索システム等の開発,コンサルティング業務に従事.確率・統計的自然言語処理およびその応用に興味を持つ.情報処理学会会員.}\end{biography}\biodate\end{document}
V17N05-01
\section{はじめに} label{Chapter:introduction}近年,Webを介したユーザの情報流通が盛んになっている.それに伴い,CGM(ConsumerGeneratedMedia)が広く利用されるようになってきている.CGMのひとつである口コミサイトには個人のユーザから寄せられた大量のレビューが蓄積されている.その中には製品の仕様や数値情報等の客観的な情報に加え,組織や個人に対する評判や,製品またはサービスに関する評判等のレビューの著者による主観的な見解が多く含まれている.また,WeblogもCGMのひとつである.Weblogにはその時々に書き手が関心を持っている事柄についての記述が存在し,その中には評判情報も多数存在している.これらのWeb上の情報源から,評判情報を抽出し,収集することができれば,ユーザはある対象に関する特徴や評価を容易に知ることができ,商品の購入を検討する際などに意思決定支援が可能になる.また,製品を販売する企業にとっても商品開発や企業活動などに消費者の生の声を反映させることができ,消費者・企業の双方にとって,有益であると考えられる.そのため,この考えに沿って,文書中から筆者の主観的な記述を抽出し,解析する試みが行われている.本研究の目的は評判情報抽出タスクに関する研究を推進するにあたって,必要不可欠と考えられる評判情報コーパスを効率的に,かつ精度良く作成すると共に,テキストに現れる評判情報をより精密に捉えることにある.既存研究においても,機械学習手法における学習データや評価データに評判情報コーパスが利用されているが,そのほとんどが独自に作成された物であるために共有されることがなく,コーパスの質に言及しているものは少ない.また,コーパスの作成過程においても評価表現辞書を作成支援に用いるなど,あらかじめ用意された知識を用いているものが多い.本研究においては「注釈者への指示が十分であれば注釈付けについて高い一致が見られる」という仮説が最初に存在した.その仮説を検証するため,注釈者へ作業前の指示を行った場合の注釈揺れの分析と注釈揺れの調査を行う.\ref{sec:予備実験1の結果}節で述べるように,注釈者間の注釈付けの一致率が十分では無いと判断されたが,注釈揺れの主要な原因の一つとして省略された要素の存在があることがわかった.そのため,省略されている要素を注釈者が補完しながら注釈付けを行うことで注釈付けの一致率を向上できるという仮説を立てた.\ref{sec:予備実験2の結果}節で述べるように,この仮説を検証するために行った実験から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえないという結果が得られた.そこで,たくさんの注釈事例の中から,当該文と類似する事例を検索し提示することが,注釈揺れの削減に効果があるのではないかという仮説を立てた.この仮説に基づき,注釈事例の参照を行いながら注釈付けが可能なツールを試作した.ツールを用いて,注釈事例を参照した場合には,注釈事例を参照しない場合に比べて,高い一致率で注釈付けを行うことが出来ると期待される.また,評判情報のモデルについて,既存研究においては製品の様態と評価を混在した状態で扱っており,評価対象—属性—評価値の3つ組等で評判情報を捉えていた.本研究では,同一の様態に対してレビュアーにより評価が異なる場合にも評判情報を正確に捉えるために,製品の様態と評価を分離して扱うことを考える.そのために,項目—属性—属性値—評価の4つの構成要素からなる評判情報モデルを提案する.なお,本研究で作成する評判情報コーパスの利用目的は次の3つである.\begin{itemize}\item評判情報を構成要素に分けて考え,機械学習手法にて自動抽出するための学習データを作成する\item属性—属性値を表す様態と,その評価の出現を統計的に調査する\item将来的には抽出した評判情報の構成要素の組において,必ずしも評価が明示されていない場合にも,評価極性の自動推定を目指す\end{itemize}上記の手法により10名の注釈者が作成した1万文のコーパスについて,注釈付けされた部分を統計的に分析し,提案した評判情報モデルの特徴について実例により確認する.また,提案モデルを用いることでより正確に評判を捉えられることを示す. \section{関連研究} \label{sec:関連研究}乾ら\shortcite{Inui06}は「評価を記述するもの」や「賛否の表明」は意見の下位分類に含まれるとしている.本研究でも,意見の一部として評判が存在すると考える.意見は主に主観的言明全般を指しているが,物事に対する肯定や否定を表明する評判はその中の一部と考えるからである.評判情報に関連する研究は,レビュー中の意見記述部分や評判情報記述部分を特定する問題を扱う研究と,記述されている評判が肯定的か否定的かの極性を判断する問題を扱う研究の二つに大きく分かれる.評判情報記述部分を特定する問題に関連する研究の一つに,文書中のある程度まとまった範囲での意見性を判定するものと,文単位での意見性判定を行うものがある.それとは別に,評判情報記述部分を特定する問題に対するアプローチの中には,評判情報の構成要素を定義し,各構成要素組を抽出しようとするものがある.文単位での意見性判定においてはYuelal.\shortcite{Yu03}やPanget~al.\shortcite{Pang04}が評価文書中の事実文と意見文を分け,意見文を抽出している.峠ら\shortcite{Touge05}においても文単位で意見性の判定を行っている.この研究では,文中に現れる単語が意見文になりやすい単語であるか否かを学習しWeb掲示板から意見文の抽出を行っている.さらに,日本語における評判情報抽出に関する先駆けの研究でもある立石ら\shortcite{Tateishi01}の研究は,あらかじめ用意された評価表現辞書を用いて,対象物と評価表現を含む一定の範囲を,意見として抽出している.評判情報の構成要素を定義し,各構成要素組を抽出しようとする研究においては,村野ら\shortcite{Nomura03}が評価文の文型パターンを整理し,その構成要素を``対象''``比較対象''``評価''``項目''``様態''としている.また,各構成要素毎に辞書を用意することで抽出を行っている.Kobayashiet~al.\shortcite{Kobayashi07}では評判情報を``Opinionholder'',``Subject'',``Part'',``Attribute'',``Evaluation'',``Condition'',``Support''からなるものとし,対象とその属性・評価の関係を抽出している.また,構成要素組の同定に着目した研究として,飯田ら(飯田\他\2005)\nocite{Iida05}は評判情報における属性—属性値の組同定問題を,照応解析における照応詞—先行詞の組同定問題に類似した問題と捉え,トーナメント手法を用いて属性—属性値対を同定している.次に,記述されている意見の極性を判断する研究について述べる.極性を判断する単位についても文書単位,文単位など様々な範囲を対象とした研究が行われている.Turney\shortcite{Turney02}は文書中に含まれる評価表現の出現比率から評価文書全体の評価極性を求めている.Panget~al.\shortcite{Pang02}も文書単位での極性判断を行っており,これには機械学習手法を用いている.文単位の極性判断としてはYuelal.\shortcite{Yu03}が,Turney\shortcite{Turney02}と同様の手法で評価文を肯定,否定,中立に分類している.上記の研究に関連して,評判情報に関するコーパスの必要性に着目した研究も行われている.日本語の評判情報コーパスに関係する研究としては,小林ら\shortcite{kobayashi06}が,あらかじめ辞書引きにより評価値候補を与えた上での意見タグ付きコーパスの作成を行っている.この研究では,評価値候補に対する注釈者の判断はある程度一致したが,関係や根拠に対する判断の揺れは無視できるものではないことを報告している.また,Kajiet~al.\shortcite{Kaji06}では箇条書き,表,定型文などを用いてHTML文書から評価文コーパスの自動構築を行っている.また,意見分析に関するコーパス研究においてはWiebeet~al.\shortcite{Wiebe02}がMPQAコーパスを作成している.これは,新聞記事に対して,主観的な表現とその意見主が注釈付けされた大規模なコーパスである.Sekiet~al.\shortcite{Seki07}は日本語,中国語,英語の新聞記事に対し,文単位で意見文かどうかを注釈付けしている.また,意見文に対してその極性や意見主を注釈付けしている.既存研究のコーパスと本研究で作成するコーパスの違いについて述べる.MPQAコーパス\shortcite{Wiebe02}においては,主観表現に対して注釈付けを行っており,この点が本研究で作成するコーパスと関連がある.評判情報を正確に捉えるには対象の項目がどのような様態かを表している表層表現に対して主観表現であることに限らず注釈付けを行う必要があるが,MPQAコーパスでは対応していない.一方で,本研究で作成したコーパスでは客観的表現にも注釈付けを行っている.次にSekiら\shortcite{Seki07}のコーパスとの比較だが,このコーパスでは文単位で意見性の有無を注釈付けしている.評判情報の構成要素の抽出を行うためには文単位ではなく構成要素単位での注釈付けが必要であるが,これには対応していない.一方で,本研究で作成しているコーパスでは対応している.また,Kajiら\shortcite{Kaji06}のコーパスは文書源としてWebデータを用いている点では,本研究で作成したコーパスと同じだが,注釈付けの単位は文単位であり,評判情報の構成要素の単位で注釈付けはされていない.小林ら\shortcite{kobayashi06}のコーパスも文書源はWebデータである.しかし,同論文に公表されている情報によれば注釈付けされている評価値は一語単位である.また,評価値として主観的な表現のみを注釈付けしており,客観的な値は評価値として扱っておらず,評価値に付随する根拠として扱っている.本稿では主観的な値に加え,客観的な値も属性値の一部として扱っている.小林ら\shortcite{kobayashi06}では客観的な値には注釈付けがされているわけではないため,この点が異なる.さらに,様態を表す表現も全て評価値として扱われている上,評価対象間の階層構造の注釈付けは必要性を認めながらも扱っていない.これに対して,本研究のコーパスでは様態を表す属性値と評価を分離している.さらに,評価対象間の関係についてはオントロジー情報として記述を行う.加えて,本研究のコーパスでは,長い表現や客観的な表現に対しても注釈付けを行っている.製品の評価に対して一語単位でのみ注釈付けを行うと,「好き」「嫌い」「良い」「悪い」などの特定の表現のみに注釈付けが行われてしまう.しかし,レビュアーがレビューを記述する際には様々な表現を用いて肯定否定を明示している.また,製品の様態についても,レビュアーは様々な様態に着目してレビューを記述している.このため,一語単位でのみ注釈を行う場合,レビュアーが着目した製品の様態を誤って注釈付けしたり,注釈付けを落としてしまうことがあると考えられる.さらに,これらの長い表現は,表現の一部の語のみに注釈付けを行っても正しい注釈にならないため,長い表現を注釈付けする必要性があると考えた.長い表現に注釈付けを行う必要性がある例を図\ref{fig:注釈付け対象となる長い表層表現の例}に示す.\begin{figure}[t]\input{02fig01.txt}\caption{注釈付け対象となる長い表層表現の例}\label{fig:注釈付け対象となる長い表層表現の例}\end{figure}図\ref{fig:注釈付け対象となる長い表層表現の例}の例における下線部は一語だけに注釈付けを行うことはできないが,これらは製品の様態を表す値段や,評価であり評判情報の一部となる.注釈付け支援に関する研究では,野口ら(野口\他\2008)\nocite{Noguchi08}がセグメント間の関係を注釈付けするためのアノテーションツールSLATを作成している.また,洪ら\shortcite{Kou05}は対話コーパス作成の際に,事例参照を注釈付け作業の支援として用いており,有効性を報告している.他にも,翻訳の分野においては翻訳メモリと呼ばれる原文と訳文のデータベースを用いた翻訳支援が行われている.これも,ある種の事例参照と言える.本研究では,Kajiら\cite{Kaji06}や小林ら\cite{kobayashi06}のコーパスのように注釈を自動的に付与せずに,注釈事例の参照を用いた評判情報コーパスの作成を行う.注釈者が注釈付けを行う際に,あらかじめ注釈付けがなされている状態で対象の文を見てもらうと,あらかじめ付与された注釈が判断の前提となってしまうことが予想される.あらかじめ付与された注釈が注釈者の判断に与える影響に関する実験については今後の課題とし本稿では行わない.本研究では注釈者が判断に迷う場合に,事例を参照しつつも独自の判断の下で注釈付けを行ってもらうというアプローチを採用した.また,評判情報のモデル化についても,従来研究においては製品の様態と評価が混在するモデルがその多くであった.本研究では,様態に対する評価がレビュアーによって異なる場合を正確に表現するために,これを分離するモデルを提案する.本研究では製品全体やその部分について以下の2種類を様態として扱う.\begin{itemize}\item具体的な値\\例:30~cm,2~G\item他の製品との比較から得られる値など主観的であっても,特にその表層表現のみからでは肯定的や否定的といった評価が一意に決まらないもの\\例:速い,静か,明るい\end{itemize}一方,以下に示す例のように,肯定や否定といった極性が陽に記述されている部分を評価として扱う.\begin{itemize}\item陽に記述されている極性表現\\例:大満足である,いいです,ちょっと不満\end{itemize} \section{評判情報の提案モデル} \label{sec:評判情報の提案モデル}\subsection{4つ組による評判情報モデル}\label{sec:4つ組による評判情報モデル}本節では,本研究で提案する評判情報モデルについて説明する.提案モデルでは,評判情報は製品やサービスに対する個人の見解やその製品がどのようなものであるかが述べられたものであるとし,4つの構成要素から成るものとする.構成要素の各項を以下に示す.\begin{description}\item[項目]製品やサービスを構成する要素を意味する概念クラスやそのインスタンス\item[属性]項目の様態を表す観点\item[属性値]属性に対する様態の内容\item[評価]項目に対する極性を明示している主観的見解\end{description}提案モデルに沿った評判情報の解析例を例文1に示す.\vspace*{0.5\baselineskip}例文1:\underline{この製品}$_{項目}$は\underline{価格}$_{属性}$が\underline{安い}$_{属性値}$のが\underline{魅力です}$_{評価}$。\vspace*{0.5\baselineskip}提案モデルでは(属性,属性値)の組で表現される項目の様態が属する層と,評価の属する層との2層構造とすることで,従来の研究\shortcite{Kobayashi05-1}では混同されることが多かった対象となる項目の様態と話者の評価を分離することができる.これにより,例文2,例文3のように同一の様態に対して異なる極性の評価が記されている場合にも,評判情報を正確に捉えることが出来るようになる.\vspace*{0.5\baselineskip}例文2:\underline{このフィギュア}$_{項目}$は\underline{フォルム}$_{属性}$を\underline{忠実に再現している}$_{属性値}$のが\mbox{\underline{お気に入りです}$_{評価}$。}例文3:\underline{この製品}$_{項目}$は\underline{フォルム}$_{属性}$を\underline{忠実に再現している}$_{属性値}$ために\underline{魅力が薄い}$_{評価}$。\vspace*{0.5\baselineskip}本研究で提案するモデルにおける評価は,主観的な表現の中でもその表現のみでいかなる文脈でも変わらない極性を示す表現である.文脈に依存して異なる極性を暗示する表現は評価としない.提案モデルの構造を図\ref{fig:評判情報モデル概要}に示す.図\ref{fig:評判情報モデル概要}では製品の部分全体関係とその様態を表す層と,製品やその部分に関する評価の属する層を示している.この2層の関係は,様態を表す層に属する属性—属性値の組を評価の属する層にある評価の理由とし,様態を表す層に属する製品やその部分を対象に評価が記述することで表される.このように,製品の様態と評価を分離した2層構造にすることで,同一の属性—属性値の組からレビュアーにより異なる評価が与えられている場合には異なる評価への関連付けが可能となっている.提案モデルでは,肯定・否定は評価によってのみ決定され,属性—属性値の組についてはそれが主観性を含むものであっても,製品の様態のみを表し,評価は含まれていないとして扱う.\begin{figure}[t]\includegraphics{17-5ia2f2.eps}\caption{評判情報モデル概要}\label{fig:評判情報モデル概要}\end{figure}また,様態を表す層では,製品の項目が部分—全体関係や上位—下位関係のような階層構造を持ち,それぞれが属性,属性値を持つことを表している.これは必ずしも階層構造の葉の部分のみが属性,属性値を持つわけではなく,上位の項目の属性—属性値の組について記述されている場合もある.さらに,下位の階層の項目が持つ属性—属性値の組を理由に上位の階層の項目を評価する場合もありえる.項目が指示するモノが属する概念クラスは全体—部分関係や上位—下位関係といった階層構造を有する.この情報はいわゆるオントロジー(の一部)であり,必ずしも文書中に陽に現れるものではない.しかし,製品への評価を考えた場合に,その部分の属性や評価が全体の評価の理由になっている場合が考えられる.そのため,次の2点を目的としてオントロジーに関する情報を注釈者に記述してもらう.\begin{itemize}\item注釈者が項目間の関係をどのように捉えたかを,コーパス利用者が特定できるようにする\item注釈者が製品をどのように捉えたかについての構造を残すことで,コーパス利用者が項目と属性の切り分けを確認できるようにする\end{itemize}なお,オントロジーに関する情報は文中に付与するタグとは別に記述する方法を提案する.記述されたオントロジー情報の例を図\ref{fig:オントロジー情報の記述例}に示す.\begin{figure}[t]\input{02fig03.txt}\caption{オントロジー情報の記述例}\label{fig:オントロジー情報の記述例}\end{figure}オントロジー情報はオントロジーの木構造に現れる各ノードを先順で記述してあり,行頭にある\verb|+|は深さを,その後ろの\verb|[]|の中が各階層の概念番号を表している.この概念番号はitemタグを注釈付けする際のclass属性の値と対応している.\verb|<>|の中は表層表現であり,同一概念や指示物を表す表層表現は同一の概念番号を付与している.なお,提案モデル中ではレビューで着目している製品に対応する概念が起点になっており,それより上の側には概念の上位—下位関係が,そしてそれよりも下側には概念の全体—部分関係が記されている.図\ref{fig:オントロジー情報の記述例}の例では「この圧力鍋」が起点となっている.この方法により注釈者毎にオントロジー情報を作成してもらうことを想定している.また,各注釈者が作成したオントロジー情報を1つに統合することは想定していない.また,このモデルにおいては評価の理由となるのが属性—属性値の組であると考える.先行研究のモデルの多くでは,評価と属性値とが区別無く扱われていた.本研究ではこれらを別々に扱う.また,一般的には主観的な表層表現と評価には密接な関係がある.しかし,主観的な表層表現が必ずしも極性を一意に決定するわけではない.つまり,評価ではない.提案モデルでは肯定・否定・中立の判断にかかわる表層表現を評価と呼び,主観的な表現であっても評価の理由となる様態を表現しているものを属性—属性値と呼ぶ.例を以下に示す.\vspace*{0.5\baselineskip}例文4:\underline{ディスプレイ}$_{項目}$の\underline{画質}$_{属性}$も\underline{きれい}$_{属性値}$で\underline{いいです}$_{評価}$ね。\vspace*{0.5\baselineskip}なお,構成要素の各項は表層表現が文中で省略されている場合がある.特に,属性—属性値の組については片方が省略されている場合が多く存在する.例文を次に示す.\vspace*{0.5\baselineskip}例文5:\underline{このカメラ}$_{項目}$は\underline{小さく}$_{属性値}$て\underline{気に入っています}$_{評価}$。\vspace*{0.5\baselineskip}例文5では属性値「小さい」が単独で出現している.これは本来ならば属性として現れるべき「大きさ」や「サイズ」といった表現が省略されているものと解釈する.\subsection{評判情報を注釈付けするためのタグセット}\label{sec:評判情報を注釈付けするためのタグセット}\begin{figure}[b]\input{02fig04.txt}\caption{評判情報構成要素のタグセット}\label{fig:評判情報構成要素のタグセット}\end{figure}本研究では,前節で述べたモデルの項目をitem,属性をattribute,属性値をvalue,評価をevaluationとしてXMLのタグセットを作成した.作成したタグセットを図\ref{fig:評判情報構成要素のタグセット}に示す.itemタグは対象となる製品やその部分を表す表層表現に付与する.同様にattributeタグ,valueタグ,evaluationタグはそれぞれ,属性,属性値,評価を表す表層表現に付与する.図\ref{fig:評判情報構成要素のタグセット}には注釈付与のためのXMLタグの要素名と属性情報を示してある.なお,各タグにはそれぞれ一意に決まる識別子をid属性として付与する.attributeタグとvalueタグは片方が省略されている場合を考え,組ごとに一意に決まる識別子をそれぞれのpair属性の値として付与する.evaluationタグにはその評価の理由となるattribute-valueのpair属性の値をreason属性として付与する.また,評価の極性をpositive,neutral,negativeの3値でorientation属性として付与する. \section{予備実験} \label{sec:予備実験}本節では予備実験の内容について述べる.本研究の目的は人手による評判情報コーパスの作成である.大規模なコーパスの作成,将来におけるコーパスの拡張を考えた場合に,複数注釈者による注釈付け作業の並列化が不可欠であると考えた.複数注釈者による注釈付け作業を行う際には,注釈揺れが問題となる.本研究では,\ref{sec:関連研究}章で述べたように注釈付け対象となる文書に対して,事前に機械的に注釈付けすることを想定していない.注釈者に先入観を与えずに判断をしてもらう必要があると考えたためである.さらに,あらかじめ用意された辞書等の知識を注釈付けに用いるのならば,その知識を直接抽出に用いればいいと考えたためである.本研究では,特定の表現にとらわれず,注釈者には様々な表層表現に対して注釈付けを行ってもらう.ここで本稿では,注釈者には事前に指示を行い,それが十分ならば複数の注釈者が独立して注釈付けを行っても,注釈付けにおいて高い一致が見られるという,以下の仮説1を立てた.\vspace*{0.5\baselineskip}\begin{quote}仮説1:注釈者への事前の指示が十分ならば,複数の注釈者が独立して注釈付けを行っても注釈付けの高い一致が見られる.\end{quote}\vspace*{0.5\baselineskip}上記の仮説1が成立するなら,コーパスを作成するために複数の注釈者に個別に仕事を割り振り,並列作業を行うだけで十分であると言える.仮説1を確認するため,予備実験として複数注釈者による注釈付け作業を行い,注釈者間の注釈付けの一致率を調査した.\subsection{予備実験1の方法}\label{sec:予備実験1の方法}本稿では注釈付けの対象としてAmazon\footnote{http://www.amazon.co.jp}からレビュー文書を収集した.本稿の前提としては,あらゆる製品に対してレビューがあればその全てに注釈付けを行いたいと考えている.そのため,Amazonのトップページの製品分類を元に,なるべくそれらを網羅することを考えた.コーパスに用いるテキストをAmazonから収集した時点\footnote{2007年2月}ではAmazonのトップページにある製品分類は「本,ミュージック,DVD」「家電,エレクトロニクス」「コンピュータ,ソフトウェア」「ホーム\&キッチン」「おもちゃ,ゲーム,キッズ」「スポーツ,アウトドア」「ヘルス,ビューティー」の7種類であった.これらに属する製品は,製品の主要部分が有形物であるものと,無形物であるものに分類できるが,これら二つに分類される製品は互いに構造が異なるため,レビューに表れる表現が異なる.有形物のレビューにおいては,物理的な特徴に関する記述が多くなると考えられる.一方,無形物に対してはその機能や物語に対する特徴が記述される場合が多い.これに関連して,Turneyら\shortcite{Turney02}は,映画のレビュー分析において,映画は「出来事や俳優といった映画の要素」と,「様式や美術といった映画の形態」という二つの様相を持つ特徴があるため,自動車などのレビューと異なる特徴があると述べている.Amazonの製品分類において我々が有形物と分類したものは「家電,エレクトロニクス」「ホーム\&キッチン」「おもちゃ,キッズ」「スポーツ,アウトドア」「ヘルス,ビューティー」「コンピュータ」である.また,「本,ミュージック,DVD」「ソフトウェア」「ゲーム」は無形物とした.「ゲーム」を無形物としたのは,レビューの対象がボードゲームのように形を持つものではなくゲームソフトだったためである.次に,有形物の中から,複数の機能を有しそれを実現するために自動的に動作することが多い電化製品と,自ら動作することはなく人間に道具として使われる非電化製品の2つのジャンルにさらに分類した.Amazonの製品分類の中では「家電,エレクトロニクス」に加えて「コンピュータ,ソフトウェア」の中の「コンピュータ」を電化製品として分類した.残りの「ホーム\&キッチン」「おもちゃ,キッズ」「スポーツ,アウトドア」「ヘルス,ビューティー」を非電化製品とした.本稿ではこれら非電化製品の中から「ホーム\&キッチン」「おもちゃ,キッズ」を注釈付けの対象とした.無形物に対しては,ユーザが視聴,閲覧といった受動的な関わり方をするだけの映像・音楽と,操作等の能動的な関わり方をするソフトウェアの2つのジャンルにさらに分類した.実際の製品分類の中からは,「ミュージック,DVD」を映像・音楽として分類した.また,「コンピュータ,ソフトウェア」の中の「ソフトウェア」と「おもちゃ,ゲーム,キッズ」の中の「ゲーム」をソフトウェアとして分類した.「本」に関しては,事前の調査において,レビュー文章中に本の中の記述が引用されている場合が存在することが確認された.こうしたレビューについて,本の引用部分は評判情報の注釈付けの対象外であるので,引用部分に引用であることを示す別の注釈づけを行い,レビューの本文と分離して管理をする必要がある.しかし,本稿の目的はレビュー文に対する注釈付けであり,引用については本稿の目的の範囲外であると考え除外した.上記の各ジャンルについて50文,計200文を実験毎に用意し,条件を変えて次に示す予備実験1を行った.なおitemに関しては,製品名やその部分の呼称,照応表現などに限られているため,あらかじめ別の注釈者により注釈付けを行った状態で,それ以外のタグの注釈作業を行ってもらった.同時に,item間の関係を参照できるようにitemタグを注釈付けした際に作成されたオントロジー情報を各注釈者に配布した.\begin{description}\item[予備実験1]itemタグが既に付与されている文書に対して,評判情報の構成要素(すなわち,attribute,value,evaluation)を注釈者に注釈付けしてもらった.また,注釈付けの対象となるレビュー文書はあらかじめ文単位に分けてXMLファイル化し,注釈付けを行ってもらった.オントロジー情報は各注釈者が同じものを参照している.注釈付けの際に特別なツールは利用せず,テキストエディタのみを使用してもらった.注釈を行った被験者は情報工学を専攻する学生5名であり,2名は本研究との直接の関係を持つ.\end{description}また,予備実験1の際に注釈者に行った作業指示を付録\ref{sec:予備実験1における注釈者への作業指示}に示す.\subsection{予備実験1の結果}\label{sec:予備実験1の結果}予備実験において,attribute,value,evaluationの3要素について注釈者間の注釈付けの一致率を調べた.次に示す3つの場合を,注釈者間の注釈付けが一致したものと判定した.\begin{itemize}\item完全一致\item部分文字列一致\item一方ではattributeとvalueを分けているが,他方では両方を一つのvalueとしている場合\end{itemize}最初に,完全一致である.これは同一箇所の全く同一の文字列に対して同一のタグが付与されている場合である.次に,部分文字列一致である.これは完全一致ではないが,タグが付与されている両文字列に共通部分が存在する場合である.予備実験では,形態素区切りや文節区切りを明確にして注釈付けを行ったわけではないために,タグの範囲についてはわずかに異なってしまう場合がある.このような状況を許容して一致とみなすものである.\begin{figure}[b]\input{02fig05.txt}\caption{完全一致と部分文字列一致の例}\label{fig:完全一致と部分文字列一致の例}\end{figure}完全一致と部分文字列一致の例を図\ref{fig:完全一致と部分文字列一致の例}に示す.図\ref{fig:完全一致と部分文字列一致の例}における部分文字列一致の例では,「強さ」のattributeに対するvalueが「頑強」であるという点ではどちらの注釈者も注釈付けが一致している.しかし,程度を表す表現「それなりに」の部分をタグに含めているかどうかという点が異なっている.最後に,一方ではattributeとvalueを分けているが,他方では両方を一つのvalueとしている場合がある.図\ref{fig:valueの中にattributeを含んでしまっている例}に示すように,attributeタグを付与するかどうかが異なっているがvalueタグを付与した表層表現は部分一致している.これは,valueタグの注釈付け範囲の細かさの違いから起こるものである.例を図\ref{fig:valueの中にattributeを含んでしまっている例}に示す.図\ref{fig:valueの中にattributeを含んでしまっている例}の場合,注釈者Aの注釈付けが,我々が意図していた注釈付けである.この例について考えると,注釈者Bが省略されていると考えたattributeは「操作のしやすさ」である.また,注釈者Aは「操作」の表層部分が「操作しやすさ」を意味するattributeであると認識している.この点を考えると,図\ref{fig:valueの中にattributeを含んでしまっている例}の場合は2人の注釈者が「しやすい」という点では同じ認識をしていると考えられる.また,図\ref{fig:valueの中にattributeを含んでしまっている例}の揺れは「サ変名詞+する」の組み合わせである点が揺れの理由として挙げられる.その間を区切るかどうかが注釈者によって分かれている.しかし,注釈揺れに対する注釈事例参照の効果の確認実験ではこの点については注釈者に指示をしていなかった.本稿では,このような場合はvalueについて部分一致しているものとして扱った.また,一致率の評価尺度には$\kappa$値を用いた.$\kappa$値は主観が入る判定が偶然に拠らず一致する割合であり,0.41から0.60の間ならば中程度の一致,0.80を超えるとほぼ完璧な一致と考えられる.\begin{equation}\kappa値=\frac{(二人の注釈者が同じ判断をしている割合)-(偶然に一致すると期待される割合)}{(1-偶然に一致すると期待される割合)}\end{equation}\begin{figure}[b]\input{02fig06.txt}\caption{valueの中にattributeを含んでしまっている例}\label{fig:valueの中にattributeを含んでしまっている例}\end{figure}\begin{table}[b]\caption{予備実験1の注釈付けの一致率($\kappa$値)}\label{tab:予備実験1の注釈付けの一致率}\input{02table01.txt}\end{table}予備実験1における注釈付けの一致率を調べた結果を表\ref{tab:予備実験1の注釈付けの一致率}に示す.表\ref{tab:予備実験1の注釈付けの一致率}において注釈者2名の組(注釈者は全部で4名なので全6組)の中で最も高い$\kappa$値(上段)と低い$\kappa$値(下段)を示してある.一致度の高い注釈者の組では$\kappa$値で0.6以上の値となっている部分も多数あり,ある程度の一致率となっていると考えられる.しかし,一致率の低い注釈者間では$\kappa$値は0.3以下となってしまっている.これは仮説1が成り立たなかった事を意味する.次に,予備実験1で明らかになった注釈付けの揺れについて,それらが生じる場合にどのようなものがあるのかをその数とともに調査した.まず,予備実験1において注釈付けを行った200文の内,5人の注釈者全員の注釈付けが一致した文は42文,4人の注釈者のみ一致して1人一致しなかった文は42文であった.以上についてはほぼ一致していると考え,残りの116文中に存在した注釈揺れについて調査した.同一箇所の同一文字列に対する注釈揺れに注目すると,a)注釈者により同一箇所の同一文字列対する注釈付けの有無が異なる注釈揺れが存在する文が91文,b)同一箇所の同一文字列に対して異なるタグを付与されているために注釈揺れが存在する文が52文存在した.この52文の内,一方の注釈者がvalueタグを付与している箇所について,別の注釈者はevaluationタグを付与している文が47文存在した.また,注釈付けを行う範囲が異なり,場合によってはタグも異なるために注釈揺れとなっている文が17文存在した.この17文の内,c)注釈付けされた文字列の最後の文節については同じ注釈付けがなされているものが9文,d)注釈者により注釈付けの粒度が異なるために揺れが複数タグにまたがるものが8文であった.加えて,e)一方の注釈者がevaluationタグを付与している箇所について,別の注釈者はこれを二つわけてattributeとvalueの組として捉え,attributeタグならびにvalueタグを付与しているために注釈揺れとなっている文が4文存在した.なお,同一文中に複数の揺れがあり得るので,合計数は注釈付けが一致していないとした116文を超えている.それぞれの注釈揺れの例を図\ref{fig:予備実験1の結果における注釈揺れ}に示す.なお,我々のモデルでは図\ref{fig:予備実験1の結果における注釈揺れ}においては,注釈者Aのように注釈付けすることを意図している.図\ref{fig:予備実験1の結果における注釈揺れ}の「a)同一箇所の同一文字列に対する注釈付けの有無が異なる揺れの例」について述べる.この例において,本来ならば「声」にattributeを注釈付けし,「機械的」にvalueを注釈付けするのが正しいが,注釈者Bは注釈付けを行っていない.注釈者が注釈付けを行う部分が存在すると判断するかどうかが揺れている.次に,「b)同一箇所の同一文字列に対する注釈が異なる揺れの例」について述べる.ここでは,同一箇所の同一文字列に対してvalueとevaluationという異なるタグが付与されることで注釈が揺れている.この場合には本来ならば,「可愛い」という表現は必ずしも肯定的に使われるとは限らないので,valueタグを注釈付けするのが正しいが,注釈者Bはevaluationタグを付与している.「c)末尾部分が同じ注釈付けをされている例」の場合には,注釈者Aと注釈者Bは共に「すばらしい」の部分は評価であると認識している.一方で,「その日の気分によって聞ける」の部分をvalueとするか,evaluationの一部とするかが異なっている.この揺れは,注釈者により注釈付けの粒度が異なるために発生すると考えられる.「d)複数タグにまたがる注釈揺れの例」の場合,valueタグのみに注目すると部分文字列一致となっている.しかし,前のattributeタグを見ると「踊っている」をどちらのタグに含めるかが異なっている.つまり,区切りが揺れている.\begin{figure}[t]\input{02fig07.txt}\caption{予備実験1の結果における注釈揺れ}\label{fig:予備実験1の結果における注釈揺れ}\end{figure}「e)attribute-value組とevaluationの注釈付けが異なる例」の場合,極性を持たないvalueがattributeと組になることで,注釈者が極性を持つと判断し,evaluationとしてしまった事が原因となる揺れと考えられる.上記の内a),b)が最も多い.これらの注釈揺れの原因として,省略された要素の存在があるのではないかと考えた.省略された要素が注釈揺れの原因となっているのならば,注釈者が注釈を行う際に,省略されている要素を補完した上で注釈付けを行うことで,注釈付けを行おうとしている表現に対して,4つ構成要素の内のどれに当たるかを判断する際の注釈揺れを削減することが期待できる.例えば,図\ref{fig:予備実験1の結果における注釈揺れ}のb)の例では,attributeが省略されている.この例に対して「外観」をattributeとして補うことで「可愛い」がその属性値として認識されやすくなると期待される.そこで次の仮説2を立てた.\vspace{0.5\baselineskip}\begin{quote}仮説2:省略されている要素を注釈者が補完しながら注釈付けを行うことで複数注釈者間の注釈付けの一致率を向上できる.\end{quote}\vspace{0.5\baselineskip}この仮説を検証するために行った実験が予備実験2である.\subsection{予備実験2の方法}予備実験1と同様にAmazonから収集したレビュー文200文を,itemタグが付与された状態で注釈者に配布した.以下に示す条件で予備実験2を行った.\begin{description}\item[予備実験2]itemタグが既に付与されている文書に対して,attribute-valueの組については片方の要素が省略されている場合にはその要素を補完しながら注釈付けを行ってもらった.補完作業は注釈者が想像するだけでなく,実際に省略されている要素の内容がどのようなものになるかを記述してもらった.記述の方法は\ref{sec:評判情報を注釈付けするためのタグセット}節のattributeとvalueの注釈付け規則に,省略であることを明示する属性を追加し,attributeが省略されていると注釈者が判断した場合には,attributeが省略されていると思われるvalueタグの直前にattributeタグを記述し,タグの要素として省略されていると思われる表現を注釈者に記述してもらった.同様にvalueタグが省略されていると思われる場合にはvalueが省略されていたattributeタグの直後に同様に注釈者に省略されていると思われる表層表現を記述してもらった.用いた文書は予備実験1とは異なる.予備実験1と同様特別なツールは利用せず,テキストエディタのみを使用してもらった.注釈を行った被験者は本研究と直接の関係がある情報工学を専攻する学生2名であり,予備実験1に参加している.\end{description}予備実験2で作成した,省略されていた要素を補完した注釈付けの例を図\ref{fig:省略されていた要素を補完して注釈付けを行った例}に示す.また,予備実験2で利用した作業指示を付録\ref{sec:予備実験2における注釈者への作業指示}に示す.\begin{figure}[b]\vspace{-1\baselineskip}\input{02fig08.txt}\caption{省略されていた要素を補完して注釈付けを行った例(下線部が省略を補完した部分)}\label{fig:省略されていた要素を補完して注釈付けを行った例}\end{figure}\subsection{予備実験2の結果}\label{sec:予備実験2の結果}\begin{table}[b]\caption{予備実験2の注釈付けの一致率($\kappa$値)}\label{tab:予備実験2の注釈付けの一致率}\input{02table02.txt}\end{table}予備実験2を行った結果を表\ref{tab:予備実験2の注釈付けの一致率}に示す.予備実験2は注釈者が2名だったため,2名の間の$\kappa$値のみを記してある.なお,一致の評価については予備実験1と同じ方法を用いている.結果を見ると,多くの場合で$\kappa$値が0.4を超えている.このことから,中程度の一致はしていると言える.しかし,予備実験1の最低値と比較すれば一致率は良いが,最高値と比べると一致率が安定しているとはいえず,十分であるとは言えない.この結果から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえない.このため仮説2自身は成立すると思われるが,その適用範囲が限定的であると考えられる.予備実験1,2においては,各注釈者は注釈付けを行う際に,他の注釈者と相談等による情報共有をせず,それぞれが独自に注釈付けを行っている.しかし,各注釈者が独自に注釈付けを行った場合に,省略された要素の補完を各注釈者が行っても,一致率は十分とは言えなかった.さらなる注釈揺れの削減のためには,注釈者が完全に独立して注釈付けを行うのではなく,注釈付けを行う個別の場合について,注釈付けの判断に関する情報を共有した状態で注釈付けを行う必要があると考えられる.そこで以下の仮説を立てる.\vspace{0.5\baselineskip}\begin{quote}仮説3:注釈者が完全に独立して注釈付けを行うのではなく,注釈付けの判断に関する情報共有をすることで注釈付けの一致率を向上させることができる.\end{quote}\vspace{0.5\baselineskip}仮説3を実験するための具体的な方法として,次章で注釈事例の参照について述べる. \section{注釈事例を用いた評判情報の注釈付け} \label{sec:注釈事例を用いた評判情報の注釈付け}本章では注釈者が独立に注釈付けを行いつつも,判断に関する情報共有を行える手法を提案する.\ref{sec:予備実験}章の予備実験において一致率が十分ではなかったため,仮説3を立てた.この仮説3における注釈付けの判断に関する共有を,どのように行うかを検討した.まず,注釈者間の話し合いを定期的に設けて,注釈揺れについて議論を行う手法を検討した.しかし,主に時間的な側面からコーパス作成作業のコストが膨大になってしまう点が問題となった.そこで,本稿では過去の注釈事例を参照しながら注釈付けを行う手法を提案する.そして,仮説3を検証するために,具体的な方法として次の仮説3$'$の検証を行うこととする.\vspace{0.5\baselineskip}\begin{quote}仮説3$'$:複数注釈者間で注釈事例を共有し,これを参照しながら注釈付けを行うことで注釈揺れを減らすことが出来る.\end{quote}\vspace{0.5\baselineskip}話し合い等により注釈者間の判断を共有しない場合には,複数の注釈者間で共有する判断材料としては注釈者に対する指示が基本となる.あらゆる状況を網羅して想定した上で個別事例に対する指示を用意することが理想であるが,それは現実的ではない.そこで,個別事例に対する指示を用意するかわりに,過去の注釈事例の中から注釈付け対象となる文に「似た」事例を探し出し,文単位で提示する手法を提案する.さらに事例の中には,注釈付け作業の発注者が注釈付けを行った事例も含めることが出来るので,発注者の要求を事例として含めることも出来る.このため,個別事例に対する指示を用意するのと同様の効果が得られるのではないかと考えた.図\ref{fig:予備実験1の結果における注釈揺れ}に示される注釈揺れについて,注釈事例の参照を用いることによる注釈揺れの削減効果について考えてみる.注釈付け対象となる表現については,表層表現が一致した事例を提示することが出来れば,これは当然注釈揺れの削減に繋がると考えられる.例えば図\ref{fig:予備実験1の結果における注釈揺れ}のb)における「可愛い」やe)における「あります」などは,レビュー文に出現しやすそうな表現であるが,こういった表現に対する注釈事例を提示できれば,注釈揺れが減らせる.また,注釈付け対象となる表層表現が必ずしも完全に一致しなくても,類似した表現を事例で提示出来れば注釈者の判断の支援になると考えられる.図\ref{fig:予備実験1の結果における注釈揺れ}のa)における「機械的」やd)における「目に見える」などは類似した表現が存在する可能性が高いと思われる.さらに,注釈付けを行う対象として注目している表現の周囲の表現について見てみると,文単位で事例を提示することで,注釈付けの判断対象となる表現の周囲の表現も注釈者は参照可能となる.この周辺の表現が事例により参照可能になることで,どこまで注釈付けの範囲とするかの揺れの削減に効果があるのではないかと考える.例えば図\ref{fig:予備実験1の結果における注釈揺れ}のc)における注釈揺れにおいては,両方の注釈者が「すばらしい」の部分はevaluationだと判断しているが,その前の部分のどこまでが注釈付けの範囲となるかを判断する際の支援が可能になると思われる.また,図\ref{fig:予備実験1の結果における注釈揺れ}の例にはないが,注釈付けされたコーパスの中にある,注釈付けを含まない文も事例として登録しておき,参照できるようにしておくことにより,注釈者が注釈付けを行わないという判断を支援できると考える.すなわち,注釈者が注釈付けを行おうとしている文がそのような事例に類似しているときには,それを提示することにより注釈付けが行われていないこと注釈者が確認できるので,注釈者はあえて注釈付けを行わないという判断を下すことができる.上記のいずれの場合においても,注釈付けを行おうとしている文に対して,複数の事例を提示する事ができる.これにより,図\ref{fig:予備実験1の結果における注釈揺れ}のb)のような場合,レビュアーが記述した主観的な表現にどのような注釈付けがされているか示す過去の注釈事例を複数提示することで,valueとevaluationのどちらを注釈付けすればよいかの判断を支援する事が出来るのではないかと考えた.これは,複数注釈者間で判断を緩やかに共有することを目的とするものである.注釈事例の参照により,注釈者間の話し合いに時間をかけずに,注釈揺れを減らすことが期待される.ここでも,\ref{sec:予備実験}章冒頭で説明したように,前もって機械的な注釈付けを行うことはせず,注釈者が判断に悩む時に,事例を参照してもらうというアプローチを用いた.一方で,注釈事例の参照の利用は,注釈者が,すでに付与されている一つの注釈可能性をみるだけでなく,複数の注釈可能性が存在しうることがわかるという効果も考えられる.この点は,事例となる文の選択が適切に働けば,注釈付けの際に有効だと思われる.\subsection{注釈事例の提示機能を有する注釈付けツール}\label{sec:注釈事例の提示機能を有する注釈付けツール}本稿で我々が提案する手法は,評判情報コーパス作成に従事する注釈者へ注釈事例の提示を行うことにより,注釈揺れを削減しながら複数注釈者による注釈付けができるようにする方法である.既存のエディタや注釈付けツール(野口他2008)\nocite{Noguchi08}では事例の提示が行えないため,新たに注釈付けツールを試作した.図\ref{fig:注釈付けツールの画面}に作成した注釈付けツールの画面例を示す.\begin{figure}[b]\includegraphics{17-5ia2f9.eps}\caption{注釈付けツールの画面}\label{fig:注釈付けツールの画面}\end{figure}上段部には注釈付け対象となる文とその前後の文を表示している.注釈者は注釈付け対象となる文を順に見ていく.文中の範囲を指定し,中段部にあるタグ付与のためのボタンで注釈付けを行う.この際,下段部には編集中の文に類似した注釈付け済みの文を例示しているので,どのようなタグを注釈付けすると良さそうかを下段部の事例を参照して判断することが出来る.さらに,XMLタグの属性情報の入力を行うことにより,組となる要素の指定などを行う.試作した注釈付けツールの特徴は,注釈付けを行おうとしている文に似た過去の事例を提示することにより,注釈者が注釈付けを行う際に参考に出来る点である.これを実現するためには,注釈付け対象文に類似した注釈事例を事例集の中から検索する必要がある.事例の提示においては,注釈付け対象となっている文において,注釈付けが必要となりそうな部分と類似した表現をなるべく多く含む事例を提示することが望ましい.そのために,注釈付けが必要となる部分と同一の表層表現に対して過去に注釈付けされた例の提示を行う.本稿では類似度計算に文字bigramの一致の度合いとして定義される次式を用いた.\begin{equation}類似度=\frac{両文での文字bigramの一致数}{対象文の長さ+事例文の長さ}\end{equation}上記の式は単純なものだが,簡単な事例提示を行うだけで注釈付けの一致率が向上するのならば,事例提示の有効性が示せると考えられる.また,本稿で用いた提示事例の類似度計算においては,事例中の各文と注釈対象文との一致を文字bigramで計算しており,既に付与されたタグの有無は考慮しない.タグを付与するべきではない文を明示的に扱ってはいないが,事例中の類似度が高い文においてタグが付与されていないものが提示されれば,間接的に「現在の対象文に対してはタグを付与するべきではない」ということが例示により示せる.今後さらなる注釈付けの一致率向上を考えた際には,表層表現の一致だけではなく,意味的に類似した注釈事例の提示を行う等の,異なる文間の類似度を用いることが必要になると思われる.また,本実験で使用した事例集合では確認できなかったが,事例中に非常に似かよった文が存在する場合には,簡単な類似度計算のみでは提示される注釈事例が類似した文で埋め尽くされてしまう可能性がある.今後コーパスサイズを拡大する際には,MMR\shortcite{Carbonell98}のような手法を用いて,提示事例中の類似文を除去する必要がある.なお,現在の設定では,新たな注釈付け対象文が読み込まれる度に,事例集として指定されたファイルに含まれる文の中から注釈付け対象文との類似度が高い,上位5文を検索し表示する.また,注釈事例の提示に併せて,注釈付け対象文に注釈付けがされていた文字列が存在する場合には,強調表示するようにした.これは注釈付けの見落としを少なくするためである.現在の版のツールでは,提示事例中で注釈付けがなされている文字列と,注釈対象文の文字列との間で文字bigramが2つ以上連続して一致した部分については,注釈対象文中の文字を太字で強調表示している.上記に加え,注釈者の作業を軽減するため,タグの付与作業の支援と,各タグのid属性値の自動入力が行えるように実装した. \section{注釈揺れに対する注釈事例参照の効果の確認実験} \label{sec:注釈揺れに対する注釈事例参照の効果の確認実験}本節では\ref{sec:注釈事例を用いた評判情報の注釈付け}章で述べた注釈事例の参照と注釈付けツールの有効性について検証するための実験について述べる.注釈付けツールを用いない場合と用いた場合,注釈事例の参照を行った場合と行わない場合の注釈付けの一致率の変化と,予備実験1で発見された注釈揺れが,注釈事例を参照することでどのように減少するかを調査することで仮説3$'$を確認する.\subsection{注釈揺れに対する注釈事例参照の効果の確認実験の方法}\label{sec:注釈揺れに対する注釈事例参照の効果の確認実験の方法}予備実験1と同様にAmazonから収集したレビュー文書,4ジャンル200文について注釈者が注釈付けを行った.予備実験1と同様に製品についての部分—全体関係を記述したオントロジー情報があらかじめ作成してあり,itemタグがあらかじめ付与されている文書を使用した.本節で行う注釈揺れに対する注釈事例参照の効果の確認実験では,次の三つの条件で注釈者に注釈付けを行ってもらった.\begin{description}\item[条件1]ツール無し:注釈付けツールを使用しない.注釈事例の提示も行わない.\item[条件2]事例無し:注釈付けツールを使用する.しかし,注釈事例の提示は行わない.\item[条件3]事例有り:注釈付けツールを使用する.注釈事例の提示を行う.\end{description}3つの条件下での注釈付けの比較を行うため,6人の注釈者を2名ずつ3つのグループに分けて各文書について条件を変えて3回注釈付けを行ってもらった.注釈者のグループ分けと注釈付けの順番を表\ref{tab:注釈付けツールを用いた実験の手順}に示す.また,注釈揺れに対する注釈事例参照の効果の確認実験で注釈事例として使用した文書は,予備実験の過程で注釈付けされた文書の中の一人分(200文)である.\begin{table}[b]\caption{注釈付けツールを用いた実験の手順}\label{tab:注釈付けツールを用いた実験の手順}\input{02table03.txt}\end{table}表\ref{tab:注釈付けツールを用いた実験の手順}のように,注釈者1から注釈者4までには「事例有り」を最後に行ってもらい,注釈者5・6には「事例有り」を最初に行ってもらった.また,注釈揺れに対する注釈事例参照の効果の確認実験で注釈を行った被験者は情報工学を専攻する学生6名である.2名(注釈者3と注釈者4)は本研究との直接の関係を持ち,すべての予備実験に参加している.他の4名は本研究と直接の関係を持たず,その内の2名(注釈者1と注釈者2)は予備実験に参加していない.残りの2名(注釈者5と6)は予備実験に参加している.本章の実験,すなわち「注釈揺れに対する注釈事例参照の効果の確認実験」で用いた作業指示は予備実験1の指示に加えて\ref{sec:注釈事例の提示機能を有する注釈付けツール}節で紹介した注釈付けツールの使用説明書と,上述の実験の手順である.ここで,予備実験2に際して,追記された作業指示(補完に関するもの)は破棄していることに注意されたい.これは,予備実験2の結果,仮説2は成立するが,効果が少なかったためである.\subsection{注釈事例の効果に関する確認の実験結果}\label{sec:注釈事例の効果に関する確認実験の結果}本節では,評判情報の注釈付けにおいて事例参照を用いた場合と用いなかった場合を比較した時の,複数注釈者間における一致率の変化,図\ref{fig:予備実験1の結果における注釈揺れ}における注釈揺れの変化について述べる.\subsubsection{注釈者間の一致率}\label{sec:注釈者間の一致率}本節では,注釈揺れに対する注釈事例参照の効果の確認実験の結果の内,同じ条件の2名の注釈者が注釈付けした文書断片の数と,注釈付けの一致率について述べる.最初に,各注釈者が注釈付けをした文書断片の数,すなわち,付与したタグの数を調べた.結果を表\ref{tab:各注釈者が付与したタグの数}に示す.表\ref{tab:各注釈者が付与したタグの数}を見ると,注釈者1と2,注釈者3と4は,attributeタグとvalueタグについては3回目の注釈付けで最も多くの部分に注釈付けを行っている.このことから,注釈付けのために付与したタグの数については注釈者の学習による影響が懸念される.しかし,注釈者5・6が注釈のために付与されたvalueタグの数を見ると,3回目に行った「ツール無し」の場合が2回目に行った「事例無し」の場合に比べて減っている.この点から考えると,注釈者の学習による影響が全ての要因であるとは言えない.何回目に注釈付けを行ったかに関わらず,事例有りの多くの場合が注釈付けされたタグの数が最多である.このように注釈付けされた順序だけに因らないことを考慮すると,注釈事例の提示による注釈付け支援により,注釈者がより細かく注釈付けを行うことができたと推測される.\begin{table}[b]\vspace{-1\baselineskip}\caption{各注釈者が付与したタグの数}\label{tab:各注釈者が付与したタグの数}\input{02table04.txt}\end{table}次に,注釈者間の注釈付けの一致について調べた.注釈揺れに対する注釈事例参照の効果の確認実験では\ref{sec:予備実験1の結果}節と同様に次に示す3つの場合を,注釈者間の注釈付けが一致したものと判定した.\begin{itemize}\item完全一致\item部分文字列一致\item一方ではattributeとvalueを分けているが,他方では両方を一つのvalueとしている場合\end{itemize}上記の一致に関する判断基準に基づき,各被験者の組における注釈付けの一致率($\kappa$値)をタグの種類ごとに調べた.表\ref{tab:注釈付けの一致率}に結果を示す.\begin{table}[b]\caption{注釈付けの一致率($\kappa$値)}\label{tab:注釈付けの一致率}\input{02table05.txt}\end{table}注釈揺れに対する注釈事例参照の効果の確認実験の結果では,多くの場合で「事例有り」の場合に$\kappa$値が高かった.注釈者5と6におけるvalueにおいてのみ「事例無し」の結果の方がよくなっているが,これは「事例有り」の場合から先に実験を行ったグループでのことなので,注釈者が学習をしてしまった結果とも考えられる.しかし,「事例有り」から注釈付け作業を開始した注釈者の組と,「事例無し」から注釈付け作業を開始した注釈者の組の一致率に大きな違いが無い.さらに,過去に1度も予備実験に参加していない注釈者の組(注釈者1・2)を見ると,回数を重ねた2回目においても1回目と比べて安定した一致率が得られているとはいえない.しかし,注釈事例を参照した3回目においては他の組と同程度の安定した一致率が得られている.これより,注釈者が注釈付け作業を経験し学習してしまった効果よりも,事例提示を行った効果の方が大きいと考えられる.また,事例参照の有効性については,「事例有り」から注釈付け作業を開始した注釈者の組の結果に注目したい.同じデータに対して3回の注釈付け作業を行っていながら,注釈事例の参照を行わなくなることで一致率が低下している.これは,注釈者の学習効果により一致率が高まるよりも,事例を参照しなくなったことにより注釈者が独自の判断で注釈付けを行ってしまい,一致率が低くなってしまうためと考えられる.このことからも,注釈事例の参照は一致率を安定させるために有効であると言える.この結果,仮説3$'$は正しかったといえる.なお,本稿で用いた事例集合が十分に参考になる情報を提示しているかということを確認するためには本来ならば,個々の注釈付けにおいて,その都度表示された事例が有効であったかという検証を行いながら,事例集合の量と質を検証することが必要である.しかし,本稿では,相対的な結果として,本稿で用いた事例集合であっても注釈揺れの削減に効果があったという提示のみとなっている.本稿で用いた事例の量が十分であるかどうかはわからないため,事例集合の量と質の検討が今後の課題として挙げられる.\subsubsection{注釈揺れの分析}\label{sec:注釈揺れの分析}本節では注釈揺れについて,細かく分析を行う.まずは,注釈付けが一致した部分がどのように変化したかを調べるために,典型的な例である,二人の注釈者が注釈付けした結果の中で,両方の注釈者が同一の文に対して完全に一致した注釈付けを行っている場合の数を調べた.ここで,「完全に一致した注釈付け」とは文中に注釈付けがなされた箇所が存在し,複数の注釈付けがあったときにはその全てが可不足なく一致している場合である.二人の注釈者が共に注釈付けを全く行わなかった文については調査外としている.表\ref{tab:完全に一致した注釈付けが行われた文数}に結果を示す.\begin{table}[b]\caption{完全に一致した注釈付けが行われた文数}\label{tab:完全に一致した注釈付けが行われた文数}\input{02table06.txt}\end{table}表\ref{tab:完全に一致した注釈付けが行われた文数}においては,注釈事例を参照した場合が,注釈者間で完全に注釈付けが一致した文の数が最も多く,最も良い結果となっている.また注釈者がどのような順番で注釈付け作業を行った場合でも,「事例有り」の時に一致した文が増えたということは仮説3$'$を裏付けるものである.さらに,表\ref{tab:完全に一致した注釈付けが行われた文数}において,注釈者の各組について,注釈付けが完全に一致した文について分析した結果を表\ref{tab:完全に一致した注釈付けが行われた文数の変化}に示す.表\ref{tab:完全に一致した注釈付けが行われた文数の変化}の結果を見ると注釈付けが揺れていた部分については,事例の参照を行うことで注釈揺れが改善した.なお,表\ref{tab:完全に一致した注釈付けが行われた文数の変化}中の「ツール無し」の場合に一致していなかった文の内,「事例有り」で一致した文については,同一文中にて複数種類の改善が行われたために注釈付けが一致するようになった文が存在する.このため,改善の種類の内訳について文数を合計すると,一致するようになった文数よりも多くなっている場合がある.また,注釈事例の参照を行ったために新たに注釈付けが揺れるようになった文を見ても,注釈付けの範囲が変わったため一致しなくなった文については,完全一致だったものが部分一致になるという揺れであった.部分一致を正解とする判定においては,この揺れは一致率に影響を与えない.以上の各点より,全体で見ると注釈事例の参照により注釈付けの一致率の向上が見られる.次に,図\ref{fig:予備実験1の結果における注釈揺れ}に示したa)〜e)の注釈揺れが注釈事例の参照を用いることでどのように変化したかについて述べる.まず最初に,予備実験1における図\ref{fig:予備実験1の結果における注釈揺れ}の「a)注釈付けを行うかどうかが異なる揺れ」がどのように変化したかを調べるために,一方の注釈者のみがタグを付与した部分の数をタグごとに調べた数を表\ref{tab:一方の注釈者のみが注釈付けしたタグの数}に示す.\begin{table}[t]\caption{完全に一致した注釈付けが行われた文数の変化}\label{tab:完全に一致した注釈付けが行われた文数の変化}\input{02table07.txt}\end{table}この表によると,実験の順番や,ツールの有無,注釈事例の有無の各条件と,一方の注釈者のみが注釈のために付与したタグの数の間には相関が見られない.しかし,表\ref{tab:各注釈者が付与したタグの数}と比較してみても,付与されたタグの数が増えた場合に一方のみが注釈付けしたタグの数が増えているというわけではないため,注釈事例の提示による悪影響は考えられない.次に予備実験1で確認した図\ref{fig:予備実験1の結果における注釈揺れ}の「b)valueとevaluationの注釈が異なる揺れ」の変化を調べる.「b)valueとevaluationの注釈が異なる揺れ」は同一箇所の同一文字列に対して異なるタグが付与された注釈揺れの一つである.表\ref{tab:同一箇所の同一文字列に異なるタグが付与された数}に本章の実験,すなわち「注釈揺れに対する注釈事例参照の効果の確認実験」において同一箇所の同一文字列に対して異なるタグが付与された時のタグの違い方とその数を示す.\begin{table}[t]\caption{一方の注釈者のみが注釈付けしたタグの数}\label{tab:一方の注釈者のみが注釈付けしたタグの数}\input{02table08.txt}\end{table}\begin{table}[t]\caption{同一箇所の同一文字列に異なるタグが付与された数}\label{tab:同一箇所の同一文字列に異なるタグが付与された数}\input{02table09.txt}\end{table}表\ref{tab:同一箇所の同一文字列に異なるタグが付与された数}を見ると,valueタグとevaluationタグの揺れが最も多かった.これは予備実験1の結果と同じである.注釈揺れに対する注釈事例参照の効果の確認実験によると,この問題点についても必ずしも「事例有り」の場合に揺れが減っているとは言えない.しかし,これについても表\ref{tab:各注釈者が付与したタグの数}と比較して,「事例有り」で注釈付けされたタグ数が増えた場合に注釈揺れが増えているわけではない.続いて,予備実験1で確認した残りの注釈揺れの事例についても調査した.図\ref{fig:予備実験1の結果における注釈揺れ}で述べた「c)末尾部分が同じ注釈付けをされている注釈揺れ」,「d)複数タグにまたがる注釈揺れ」,「e)attribute-value組とevaluationの注釈付けが異なる揺れ」のそれぞれの数を表\ref{tab:事例を参照した場合のc),d),e)の注釈揺れの変化}に示す.表\ref{tab:事例を参照した場合のc),d),e)の注釈揺れの変化}を見ると,予備実験1でもそうであったように,この3種類の注釈揺れは図\ref{fig:予備実験1の結果における注釈揺れ}のa),b)の揺れに比べて少ない.しかし,注釈者1と注釈者2の結果を見ると事例の参照の効果がうかがえる.最後に,注釈揺れに対する注釈事例参照の効果の確認実験において問題となった注釈揺れをまとめると以下のようになる.\begin{table}[t]\caption{事例を参照した場合の図\ref{fig:予備実験1の結果における注釈揺れ}におけるc),d),e)の注釈揺れの変化}\label{tab:事例を参照した場合のc),d),e)の注釈揺れの変化}\input{02table10.txt}\end{table}\begin{description}\item[1)]{同一箇所の同一文字列に注釈を付与するかどうかの揺れ}これについては注釈者に因るところが大きく,完全に無くすことは不可能と考える.揺れを減らすために各注釈者に,なるべく細かく注釈付けを行うように依頼することとする.なお,現在行っている事例の提示は注釈付けがなされた表層表現に注目しているが,注釈付けがなされなかった表層表現にも注目して事例の提示を行うことが今後の課題として考えられる.\item[2)]{同一箇所の同一文字列に異なるタグが付与されている揺れ}特にvalueタグとevaluationタグの違いが多かった.これについては,注釈事例を増やすことで注釈揺れを減らすことが出来ると予想される.注釈事例を増やした場合の効果として,類似した表層表現を検索・提示する際のヒット率が上がる事が考えられる.また,注釈付けの判断対象となる周囲の表現についても,事例を増やすことで事例中に表示することが可能になると予想される.このような表現は注釈者間の判断を揺れなくす材料になると考えられる.\item[3)]{注釈付けの範囲が異なる}注釈付けの範囲については,表現を注釈付けに含めるか含めないかの判断が揺れている.そのため,どの場合に含め,どの場合に含めないかを示すため,注釈付け対象となる表現の周囲の文脈を提供することで,注釈揺れの削減が期待できる.しかし,十分な量の注釈事例が無く,事例の探索についても簡単な方法を用いている現在では,注釈付けの範囲についての規則を追加することが揺れを減らすために効果的と考える.\end{description}またさらに注釈揺れを減らす方法として,提案した評判情報モデルを実例に適応する際の判断の基準を洗練する等が考えられる.これは,注釈者のモデルに対する理解度の差による揺れを解消しようとするものである.これについては,注釈者の判断を確認するテスト等を行うなどの方法を今後検討する必要がある. \section{評判情報コーパスの作成実験} \label{sec:評判情報コーパスの作成実験}本章では試作した注釈付けツールを用いた,評判情報コーパスの作成実験について述べる.\subsection{評判情報コーパスの作成実験の方法}\label{sec:評判情報コーパスの作成実験の方法}最初に,各注釈者へ事前説明を行った.注釈者には\ref{sec:予備実験}章や\ref{sec:注釈揺れに対する注釈事例参照の効果の確認実験}章の実験と同じく\ref{sec:4つ組による評判情報モデル}節で述べた評判情報モデルについての解説をし,過去の実験で得られた注釈事例から「注釈揺れが起きた実例」と「判断が難しかった実例」を示しながら事前説明を行った.\ref{sec:注釈揺れの分析}節の分析から,注釈付けの量については,注釈付けが必要かどうか判断に迷った場合には,その部分にはなるべく注釈付けを行うように依頼した.同様に,\ref{sec:注釈揺れの分析}節において分析した注釈付けされた文字列の最後の文節における注釈揺れ,複数タグにまたがる注釈揺れの2点に関しても,注釈付けの粒度をなるべく細かくすることを注釈者に注意した.なお,これらの説明を行う際にも,\ref{sec:注釈揺れに対する注釈事例参照の効果の確認実験}章の実験で得られた注釈事例から実例を提示して説明を行った.また,当初から評判情報の構成要素が省略される場合としては,attributeが省略されvalueやevaluationが現れる場合か,attributeが記述されているがvalueが省略されevaluationが現れる場合か,もしくはattributeとvalueの両方が省略されevaluationのみが現れる場合が想定されていた.しかし予備実験1の結果attributeが記述されているにもかかわらず,valueもevaluationも記述されない場合が発見された.以下に例を示す.\vspace*{0.5\baselineskip}例文6:この製品は値段が…\vspace*{0.5\baselineskip}例文6のような場合は,文として不完全である.また,評判情報という性質上,``どのような製品であるかという記述'',``レビュアーの評価''のどちらも記述されていない部分については注釈を付与する必要性が無いと考えられる.このため,本章の実験では,最初にvalueタグもしくはevaluationタグを注釈付けする部分を探しながら注釈付けを行うように,各注釈者に指示した.また,その際にvalueとevaluationに該当する文字列がどちらも存在せずにitemやattributeのみが現れた場合には注釈付けを行わなくてもよい旨を説明した.さらに,\ref{sec:注釈揺れの分析}節で述べた注釈揺れ3)のような注釈揺れや,\ref{sec:注釈揺れに対する注釈事例参照の効果の確認実験}章の結果では部分文字列の一致に基づく一致として扱った事例を減らすために注釈付けの規則を追加した.これは\ref{sec:注釈者間の一致率}節の分析結果等から追加したものである.この規則には,本稿で提案した評判情報のモデルで意図した注釈付けを行ってもらうための規則と,注釈の範囲に関する注釈揺れを減らすための規則がある.前者について追加した規則と追加した理由を図\ref{fig:意図した注釈付けを行ってもらうために追加した規則}に示す.図\ref{fig:意図した注釈付けを行ってもらうために追加した規則}は,一方の注釈者が我々が意図しない注釈付けを行ってしまったために注釈付けの範囲が揺れている例であり,実例を示しながら注釈者への指示を指示書に追加した.\begin{figure}[b]\input{02fig10.txt}\caption{意図した注釈付けを行ってもらうために追加した規則}\label{fig:意図した注釈付けを行ってもらうために追加した規則}\end{figure}また,後者について追加した規則を図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}に示す.図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}の例は,評判情報の注釈付けという本来の目的においては,どちらでもよい.一方で,注釈付けの一貫性を保つためには,注釈付けの発注者が指示を与えて,一方の注釈付けに合わせる必要がある.図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}の規則はそのためのものである.加えてモダリティに関して追加した規則を図\ref{fig:モダリティ部分に関する規則}に示す.図\ref{fig:モダリティ部分に関する規則}の規則はモダリティを除いた命題部分のみに注釈付けしてもらうために追加した規則である.疑問については,その命題についてレビュアーが直接言及していないので除外した.上記の説明を行った後に,コーパス作成に利用するレビューとは別に,次に述べる各製品ジャンルから40文ずつ,計200文のレビューをAmazonから収集し,コーパス作成に参加する注釈者に注釈付けの練習を行ってもらった.また練習の後,注釈間違いや注釈揺れについては筆者を中心とし注釈者間で指摘をし合い,注釈者間で話し合いを行い,判断の統一を試みた.\begin{figure}[t]\input{02fig11.txt}\caption{注釈の範囲に関する注釈揺れを削減するために追加した規則}\label{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}\end{figure}\begin{figure}[t]\input{02fig12.txt}\caption{モダリティ部分に関する規則}\label{fig:モダリティ部分に関する規則}\end{figure}次に,注釈付けに用いた文書について述べる.注釈付けに用いた文書は,Amazonから収集したレビュー1万文である.使用した製品のジャンルは基本的に予備実験と同様であるが,非電化製品をAmazonの製品ジャンルを基に「ホーム・キッチン」,「ホビー・おもちゃ」の二つに分けて,電化製品,ホーム・キッチン,映像・音楽,ソフトウェア,ホビー・おもちゃの5ジャンルとした.それぞれのジャンルから2,000文ずつを収集した.さらに,1万文の内の1,000文(5ジャンルから200文ずつ)は事前に第一著者が注釈付けを行い,事例用コーパスとして用いた.注釈者は情報工学を専攻する学生10名である.注釈付けは9,000文を200文程度に分割し,作業時間に余裕がある人に順次配布していく形で行った.作業量は注釈者により2,000文から200文まで様々である.なお,過去の実験の知見を元に,本章の実験すなわち「評判情報コーパスの作成実験」における注釈者への作業指示を付録\ref{sec:評判情報コーパスの作成実験における注釈者への作業指示}に示す.\subsection{コーパス作成実験結果}\label{sec:コーパス作成実験結果}\subsubsection{コーパス修正作業}\label{sec:コーパス修正作業}10名の注釈者によるコーパス作成を行った後,注釈者の入力ミス,同一文字列に対する注釈揺れ等の明らかに分かる誤りに関しては筆者が修正作業を行った.最初に注釈者の入力ミス,入力忘れが判明した部分を修正した.入力ミスが確認されたタグは全部で705個,コーパス作成作業で注釈付けされた全タグの内の4.42\%であった.入力ミスの内容としては,「タグに付与する属性情報の入力忘れ」,「入力する属性項目が入れ替わってしまっている」,「注釈付けツール使用時にマウスの操作を誤ったために注釈範囲が誤っている」等が主なものであった.以上の入力ミスは注釈付けツールのインターフェースに起因すると思われるものもあり,注釈付け作業者の使い勝手という面から注釈付けツールの改良を検討する必要性がある.次に,同一表層表現に対し,異なるタグが注釈付けされている部分について,修正を行った.具体的には,同一表層表現に対し,異なるタグが注釈付けされている部分を確認し,正しいと考えられる注釈付けへと統一した.表\ref{tab:同一文字列の同一範囲に対する注釈揺れ}に注釈揺れの種類と数を示す.\begin{table}[b]\caption{同一文字列の同一範囲に対する注釈揺れ}\label{tab:同一文字列の同一範囲に対する注釈揺れ}\input{02table11.txt}\end{table}さらに,各注釈付けを確認し,事前説明に沿わない部分,明らかに一部の注釈者のみが異なるタグを付与している部分については修正をし,正しいと考えられる注釈付けに揃えた.次に,同一文字列に対する異なるタグの中で,上記の方法によっても一方のタグに統一することができなかった部分について述べる.itemに関連する部分では,製品の特徴を表現し得る語句が名称の一部に用いられている場合が12個で最も多かった.例を以下に示す.\vspace*{0.5\baselineskip}例文7:少なくとも観た事のあるシリーズの中では\verb|<evaluation>|ベスト\verb|</evaluation>|です.例文8:注目を集めた—彼女—の\verb|<item>|ベスト\verb|</item>|も初回盤で\verb|<value>|5040円\verb|</value>|.例文9:決して寄せ集めではない\verb|<item>|ベストアルバム\verb|</item>|.\vspace*{0.5\baselineskip}例えば,「ベスト」は一般的には評価を表す表現と考えられ,その事例は例文7のようなものである.一方で,例文8における「ベスト」という表層表現は評価を表す「ベスト」ではなく,「ベストアルバム」という商品を指し示すため用いられている.つまり,例文9と同じ商品を指して入る.この場合,例文7のように評価を示す「ベスト」にはevaluationタグを,例文8のように商品の指し示す「ベスト」にはitemタグを付与した状態を正しいものとした.同様の例として「コンパクト」,「ブラック」等が挙げられる.また,今注目しているitemが別のitemと関係をもって記述されるときにはattributeとして扱われる場合がある.その場合においては,一方のタグに統一することができないものが6個あった.同様の理由でitemとvalueが同じ表層表現になっているものが4個あった.このような問題は表現が指し示す概念が多義であるために起こると考えられる.例を図\ref{fig:視点となるitemに起因する揺れの例文}に示す.\begin{figure}[b]\input{02fig13.txt}\caption{視点となるitemに起因する揺れの例文}\label{fig:視点となるitemに起因する揺れの例文}\end{figure}\begin{figure}[b]\input{02fig14.txt}\caption{サ変動詞の省略が行われているために表層表現が同じになっている例}\label{fig:サ変動詞の省略が行われているために表層表現が同じになっている例}\end{figure}attributeとvalueについて,一方のタグに統一することが出来ずに残ったものに,サ変動詞の省略が行われているために表層表現が同じになっているものがあった.例を図\ref{fig:サ変動詞の省略が行われているために表層表現が同じになっている例}に示す.他に,動詞や形容動詞が活用形により名詞と同じ表層表現になってしまったもの,「〜的」という表現等,同音異義語,言葉の意味自体がよく分からないために修正すべきではないとした部分がある.最後に,さらに追加で行った修正について述べる.我々は作成したコーパスを教師情報とした学習型の抽出手法を用いた評判情報の構成要素の抽出を検討している.文字を単位としたチャンク同定手法を用いて,評判情報の構成要素の抽出予備実験を行ったところ,itemの抽出精度が著しく低い結果となった.評判情報コーパスの作成実験におけるコーパス作成では,「valueもevaluationも無い文には注釈付けを行わなくてもよい」と注釈者に説明したため,ある場所ではitemタグが付与されているが,別の個所に現れる同一の表層表現には付与されていない場合がった.このために学習がうまく進まなかったと考えられたため,itemに関しては全文を第一著者が見直し,追加で注釈付けを行った.修正前と修正後のitemタグの数と抽出精度を表\ref{tab:itemタグの修正前後の比較}に示す.抽出には固有表現抽出に用いられるチャンク同定手法を用いた.表に示す抽出精度は,ジャンルごとにitemの自動抽出を行った際のF値の平均である.\begin{table}[b]\caption{itemタグの修正前後の比較}\label{tab:itemタグの修正前後の比較}\input{02table12.txt}\end{table}\subsubsection{基礎統計}\label{sec:基礎統計}本節では,コーパス作成実験の結果得られたコーパスの全体的な傾向を把握するための基礎的な分析を行う.最終結果として得られた,1万文のコーパスに注釈付けされた表現の数を表\ref{tab:注釈付けされたタグ数}に示す.\begin{table}[b]\caption{注釈付けされた表現の数}\label{tab:注釈付けされたタグ数}\input{02table13.txt}\end{table}表\ref{tab:注釈付けされたタグ数}をみると,ジャンルごとに注釈のために付与されたタグの数に多少の違いがある.製品のジャンルごとの特徴を見てみると,映像・音楽におけるattributeタグを付与した回数が他ジャンルに比べてわずかに少ない.一方で,valueタグについてはソフトウェアや,ホーム・キッチンよりも多くなっている.映像・音楽については製品の性質上,製品の部分の性能について細かく説明するよりも,その製品についてどう思うかという感想が述べられやすいという特徴が注釈付けの量にも現れていると考える.\begin{table}[b]\caption{4つ組における各要素の省略}\label{tab:4つ組における各要素の省略}\input{02table14.txt}\end{table}次に,評判情報の構成要素の組について,ある要素が省略されている場合について考察する.提案モデルでは要素の省略を認めている.各要素が省略されていた場合の組数を表\ref{tab:4つ組における各要素の省略}に示す.なお,提案モデルでは要素の1対多関係も認めており,要素の組の数を延べ数で調べた結果は9,287組であった.表中の$\phi$が省略されていた要素である.実験では注釈者に,まずはvalueとevaluationのどちらかを探してから注釈付けを行うように依頼した.そのため,本来ならば,item-attribute-$\phi$-$\phi$という組は存在しないはずである.しかし,注釈者が作業中に覚書として注釈付けをした部分の消し忘れ,コーパス全体の修正作業をした際に誤って注釈付けされていたvalueを削除した際の残りである.これらについては,itemとの組は正しいので付与した情報を削除せずに残してある.その他に,製品の様態のみを記述し,評価について言及していない部分が多数存在した.これにより,コーパス全体としてvalueタグが非常に多くなる一方で,evaluationは少ない結果となった.これはレビューを書く際にはっきりと評価を書くことを避ける傾向があるためと考えられる.\begin{table}[t]\caption{attribute,value,evaluationの頻出表層表現上位10個}\label{tab:attribute,value,evaluationの頻出表層表現上位10個}\input{02table15.txt}\end{table}次に,出現回数の多い表層表現に着目する.attribute,value,evaluationの各タグに頻出した表層表現の上位10位を表\ref{tab:attribute,value,evaluationの頻出表層表現上位10個}に示す.また,各製品ジャンルごとの各タグに頻出した表層表現の上位5位を表\ref{tab:各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}に示す.各ジャンルごとに頻出している表層表現を見ると,その製品ジャンルに特徴のある表現が上位にきている.しかし,表\ref{tab:各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}で示した全コーパス中で出現回数の多い表現の中には,複数の製品ジャンルにおいて出現頻度の高い表現が多く存在する.特に,attributeに注目して見ると,「音」や「値段」のように,製品のジャンルに関わらずレビュアーがよく言及してる表現が存在していると考えられる.evaluationについては,頻出表層表現を見ても,肯定的な意見がコーパス中に多く存在しているように見える.そこで,evaluationタグのorientation属性について,値として現れるpositive,negative,neutralの個数を調べてみた.orientation属性には,対応する評判が肯定なのか否定なのかを表す値が与えられている.結果を表\ref{tab:evaluationの極性}に示す.表\ref{tab:evaluationの極性}を見ると,positiveが圧倒的に多くなっている.この理由の1つとしては,製品レビューという情報源そのものの特徴が挙げられる.すなわち,レビューを書く動機が,「この製品を他の人に紹介したい」や「この製品を他の人に勧めたい」といった,肯定的なものであることが多いからではないかと考えられる.itemについても頻出する表層表現を調査した.\ref{sec:コーパス修正作業}節で述べた修正作業により注釈付けされた部分が増え,総数としてはvalueタグに次いで多くなっている.しかし,一方でレビュアーが製品名を連呼することで頻度が上がってしまうような例もあり,統計的な傾向が記述形式に拠るところが大きい.\begin{table}[p]\caption{各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}\label{tab:各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}\input{02table16.txt}\end{table}\begin{table}[p]\caption{evaluationの極性}\label{tab:evaluationの極性}\input{02table17.txt}\end{table}最後に,同じvalueに対して異なる極性のevlauationが記述されている部分について調べた.\ref{sec:4つ組による評判情報モデル}節で述べた提案モデルでは,製品の同一の様態に対して評価が異なる場合を考慮し,valueとevaluationを分離している.同じ表層表現のvalueに対して極性の異なるevaluationが組になっている部分がコーパス中に存在する事を確認する.valueとevaluationを分離した提案モデルを用いたことにより,より正確に評判を捉えられた部分であり,提案モデルの有効性が示されている.この場合のvalueとevaluationの組を表\ref{tab:同一の様態に対する異なる極性のevaluation}に示す.\begin{table}[t]\caption{同一の様態に対する異なる極性のevaluation}\label{tab:同一の様態に対する異なる極性のevaluation}\input{02table18.txt}\end{table}評判情報コーパスの作成実験で作成したコーパス中にも,同じvalueに対して極性の異なるevaluationが組となっている部分が存在した.上記の「高い」などはattributeが「値段」と「コストパフォーマンス」の場合であり,attributeが異なるために極性が異なっている場合もある.これは組となるattributeを考慮することで極性の違いを捉えることが出来る.一方で,同種の製品の同一valueに対して異なる極性のevalutionが付与されている場合もある.例を図\ref{fig:同種の製品の同一valueに対して異なる極性が付与されている例文}に示す.このような場合には特に,製品の様態と評価を分離する提案モデルにより評判情報をより正確に捉えることができると考えられる.\begin{figure}[t]\input{02fig15.txt}\caption{同種の製品の同一valueに対して異なる極性が付与されている例文}\label{fig:同種の製品の同一valueに対して異なる極性が付与されている例文}\vspace{-1\baselineskip}\end{figure} \section{おわりに} \label{sec:おわりに}本稿では,製品の様態と評価を分離した評判情報のモデルを提案し,同様の様態に対する評価がレビュアーにより異なる場合にも対応可能とした.注釈付けについては,注釈事例を用いた複数注釈者の人手による評判情報コーパス作成手法を提案した.また,提案手法を用いてコーパス作成を行った.コーパス作成おける複数注釈者間の注釈揺れについては,注釈者に指示を与えるだけでは一致率が十分ではないということがわかった.省略されている要素の補完を行いながら注釈付けを行うことで一致率の向上は見られたが,十分とは言えなかった.しかし,注釈事例の参照という注釈者間の緩やかな知識共有を行うことにより注釈付けの一致率が向上することが分かった.作成したコーパスについて特徴を統計的な面から調査し,作成されたコーパス中にも,提案モデルが想定していた様態と評価の分離が必要な記述が存在したことが確認され,提案モデルにより評判情報をより正確に捉えることができた.今後は,評判情報の抽出システム等でコーパスを利用することを考えている.コーパスを教師データとする機械学習手法による評判情報の抽出において,1万文というコーパスサイズが十分なものであるかの確認を行う必要がある.さらに,本コーパスの公開についても検討している.これについては,Web上の文書を元データとする際の2次配布方法について,さらなる検討が必要と考えられる.\vspace{-0.5\baselineskip}\acknowledgment\vspace{-0.5\baselineskip}本研究の一部は,(独)独立行政法人情報通信研究機構の委託研究「電気通信サービスにおける情報信憑性検証技術に関する研究開発」プロジェクトの成果である.また,本研究の一部は横浜国立大学環境情報研究院共同研究プロジェクトの援助により行った。\vspace{-0.5\baselineskip}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carbonell\BBA\Goldstein}{Carbonell\BBA\Goldstein}{1998}]{Carbonell98}Carbonell,J.\BBACOMMA\\BBA\Goldstein,J.\BBOP1998\BBCP.\newblock\BBOQTheUseofMMR,Diversity-BasedRerankingforReorderingDocumentsandProducingSummaries.\BBCQ\\newblockIn{\BemProceedingsofthe21stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\335--336}.\bibitem[\protect\BCAY{飯田\JBA小林\JBA乾\JBA松本\JBA立石\JBA福島}{飯田\Jetal}{2005}]{Iida05}飯田龍\JBA小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出を目的とした機械学習による属性—評価値同定.\\newblock自然言語処理研究会報告\2005-NL-165-4,情報処理学会.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{Inui06}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{Kaji\BBA\Kitsuregawa}{Kaji\BBA\Kitsuregawa}{2006}]{Kaji06}Kaji,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2006\BBCP.\newblock\BBOQAutomaticConstructionofPolarity-taggedCorpusfromHTMLDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguistics(COLING/ACL2006)},\mbox{\BPGS\452--459}.\bibitem[\protect\BCAY{洪\JBA白井}{洪\JBA白井}{2005}]{Kou05}洪陽杓\JBA白井清昭\BBOP2005\BBCP.\newblock対話行為タグ付きコーパスの作成支援.\\newblock\Jem{言語処理学会第11会年次大会発表論文集},\mbox{\BPGS\815--818}.言語処理学会.\bibitem[\protect\BCAY{Kobayashi,Inui,\BBA\Matsumoto}{Kobayashiet~al.}{2007}]{Kobayashi07}Kobayashi,N.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQOpinionminingfromwebdocuments:extractionandstructurization.\BBCQ\\newblock\Jem{人工知能学会論文誌},\mbox{\BPGS\227--238}.人工知能学会.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{kobayashi06}小林のぞみ\JBA乾健太郎\JBA松本裕二\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク使用に関する考察.\\newblock自然言語処理研究会報告\2006-NL-171-18,情報処理学会.\bibitem[\protect\BCAY{小林\JBA飯田\JBA乾\JBA松本}{小林\Jetal}{2005}]{Kobayashi05-1}小林のぞみ\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2005\BBCP.\newblock照応解析手法を利用した属性-評価値対および意見性情報の抽出.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\436--439}.言語処理学会.\bibitem[\protect\BCAY{村野\JBA佐藤}{村野\JBA佐藤}{2003}]{Nomura03}村野誠治\JBA佐藤理史\BBOP2003\BBCP.\newblock文型パターンを用いた主観的評価文の自動抽出.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\67--70}.言語処理学会.\bibitem[\protect\BCAY{野口\JBA三好\JBA徳永\JBA飯田\JBA小町\JBA乾}{野口\Jetal}{2008}]{Noguchi08}野口正樹\JBA三好健太\JBA徳永健伸\JBA飯田龍\JBA小町守\JBA乾健太郎\BBOP2008\BBCP.\newblock汎用アノテーションツールSLAT.\\newblock\Jem{言語処理学会第14会年次大会発表論文集},\mbox{\BPGS\269--272}.言語処理学会.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2004}]{Pang04}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2004\BBCP.\newblock\BBOQASentimentalEducation:SentimentAnalysisUsingSubjectivitySummarizationBasedonMinimumCuts.\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\271--278}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{Pang02}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Seki,Evans,Ku,Chan,Kando,\BBA\Lin}{Sekiet~al.}{2007}]{Seki07}Seki,Y.,Evans,D.~K.,Ku,L.-W.,Chan,H.-H.,Kando,N.,\BBA\Lin,C.-Y.\BBOP2007\BBCP.\newblock\BBOQOverviewofOpinionAnalysisPilotTaskatNTCIR-6.\BBCQ\\newblockIn{\BemProceedingsof6thNTCIRWorkshop},\mbox{\BPGS\265--278}.NII.\bibitem[\protect\BCAY{立石\JBA石黒\JBA福島}{立石\Jetal}{2001}]{Tateishi01}立石健二\JBA石黒義英\JBA福島俊一\BBOP2001\BBCP.\newblockインターネットからの評判情報検索.\\newblock自然言語処理研究会報告\2001-NL-144-11,情報処理学会.\bibitem[\protect\BCAY{峠\JBA大橋\JBA山本}{峠\Jetal}{2005}]{Touge05}峠泰成\JBA大橋一輝\JBA山本和英\BBOP2005\BBCP.\newblockドメイン特徴語の自動取得によるWeb掲示板からの意見文抽出.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\672--675}.言語処理学会.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney02}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsUporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Wiebe,Breck,Buckley,Cardie,Davis,Fraser,Litman,Pierce,Riloff,\BBA\Wilson}{Wiebeet~al.}{2002}]{Wiebe02}Wiebe,J.,Breck,E.,Buckley,C.,Cardie,C.,Davis,P.,Fraser,B.,Litman,D.,Pierce,D.,Riloff,E.,\BBA\Wilson,T.\BBOP2002\BBCP.\newblock\BBOQFinalReport---MPQA:Multi-PerspectiveQuestionAnswering.\BBCQ\\newblockIn{\BemNRRCSummerWorkshoponMulti-PerspectiveQuestionAnsweringFinalReport}.NRRC.\bibitem[\protect\BCAY{Yu\BBA\Hatzivassiloglou}{Yu\BBA\Hatzivassiloglou}{2003}]{Yu03}Yu,H.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2003\BBCP.\newblock\BBOQTowardsansweringopinionquestions:SeparatingFactsfromOpinionsandIdentifyingthePolarityofOpinionSentences.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\129--136}.\end{thebibliography}\appendix \section{予備実験1における注釈者への作業指示} \label{sec:予備実験1における注釈者への作業指示}作業指示中にて四角で囲われている部分は,実際に注釈者への作業指示へ記述した文ではなく,本稿の他の部分に記述されている文言を挿入した部分である.\begin{screen}目的\begin{quote}Web上にある,製品レビューに対して,評判情報のモデル化に必要な要素に注釈(タグ)を付与し,コーパスの試作を行う.\\今回の作業は,注釈者間におけるタグの付与の違いを調べることが目的である.\end{quote}結果\begin{quote}・タグ付けが行われたテキストデータ\\・1ファイルごとの作業時間\\・気になる点などがあったら記録しておく\end{quote}注意点\begin{quote}・タグの付与に迷いが生じたときに,他の人に相談をしない\\・ファイルの中を一回見たら,途中でやめないでタグ付けを行う\\・配布したテキストエディタを用いて注釈付けの作業を行う\end{quote}評判情報のモデルの説明\begin{quote}\fbox{\begin{minipage}{0.9\linewidth}\ref{sec:評判情報の提案モデル}章と同一の評判情報モデルの解説\end{minipage}}\end{quote}\end{screen}次ページに続く\begin{screen}評判情報コーパスの作成手順\begin{quote}対象にはあらかじめitemタグが付与してあります.また,対象の階層構造を示したデータも一緒に用意してあります.\\\end{quote}*注意点\\itemタグが付与されるべきであろう場所にitemタグが付与されていないために,作業に支障をきたすような場合.\begin{quote}A:階層構造はすでに存在する場合→itemタグを追加してしまってかまいません.\\B:階層構造にも存在しない場合→その度,質問をしてください.\end{quote}評判情報の構成要素がテキスト中に存在する場合には,下記の注釈付けを行ってください.\begin{quote}1〜3の数字は注釈付けの順番を意味するものではありません.\end{quote}1:属性にタグを付与\begin{verbatim}<attributeid="a01"pair="p01"target="c01">属性</attribute>\end{verbatim}id:a01,a02…のようにidをつける.\\pair:p01,p02…のように属性—属性値組を示すための番号をつける.組になる属性値にも同じ番号をつける.\\target:属性を有する\verb|<item>|のclassを指定.複数指定の場合はスペースで区切って列挙.\\\\2:属性値にタグを付与\begin{verbatim}<valueid="v01"pair="p01"target="c01">属性値</value>\end{verbatim}id:v01,v02…のようにidをつける.\\pair:\verb|<attribute>|のpairを参照.\\target:\verb|<attribute>|のtargetを参照.\\3:評価にタグを付与\begin{verbatim}<evaluationid="e01"target="c01"reason="p01"orientation="positive">評価</evaluation>\end{verbatim}id:e01,e02…のようにidをつける.\\target:\verb|<evaluation>|が評価している\verb|<item>|のclassを指定する.\\reason:\verb|<evaluation>|の理由となる\verb|<attribute>-<value>|のpairの値を指定する.複数指定する場合にはスペースで区切って列挙.\end{screen} \section{予備実験2における注釈者への作業指示} \label{sec:予備実験2における注釈者への作業指示}予備実験2で利用した作業指示は付録\ref{sec:予備実験1における注釈者への作業指示}に以下の各項目を作業指示の末尾に追加したものである.\begin{screen}attribute-valueの組については片方の要素が省略されている場合にはその要素を補完する\begin{quote}省略されている要素の内容がどのようなものになるかを以下の方法で記述する\\attributeが省略されている場合にはattributeが省略されていると思われるvalueタグの直前にattributeタグを記述する\\valueタグが省略されている場合にはvalueが省略されていると思われるattributeタグの直後にvalueタグを記述する\\\end{quote}省略されていた要素を補完して注釈付けを行った例(下線部が省略を補完した部分)\\\verb|<itemid="i11"class="c2">|このソフト\verb|</item>|は\underline{{\ttfamily\symbol{"3C}attributeid="a101"pair="p101"}}\linebreak\underline{\mbox{\ttfamilytarget="c2"abbr="1"\symbol{"3E}重さ\symbol{"3C}/attribute\symbol{"3E}}}\verb|<valueid="v101"pair="p101"target=|\linebreak\verb|"c2">|軽く\verb|</value>|て\verb|<evaluationid="e101"target="c2"readon="p101">|気に入っている\verb|</evaluation>|.\end{screen} \section{評判情報コーパスの作成実験における注釈者への作業指示} \label{sec:評判情報コーパスの作成実験における注釈者への作業指示}評判情報コーパスの作成実験における注釈者の作業指示は付録\ref{sec:予備実験1における注釈者への作業指示}に以下の変更と追加を行ったものである.作業指示中にて四角で囲われている部分は,実際に注釈者への作業指示に記述した文ではなく,本稿の他の部分に記述されている文言を挿入した部分である.・予備実験1の作業指示から変更した点\begin{screen}目的\begin{quote}今回の作業は,今後利用する本コーパスの作成である.\\注釈揺れの分析を行うための作業ではない\end{quote}\end{screen}次ページに続く\begin{screen}注意点\begin{quote}タグの付与に迷いが生じたときに,注釈者間のみで相談して判断を決めずに,第一著者へ訪ねること.\\注釈付けツールを用いて注釈付けを行うこと.\\注釈付けの粒度をなるべく細かくすること.とくにattributeとvalueの粒度に注意すること.\\\fbox{\begin{minipage}{0.9\linewidth}図\ref{fig:valueの中にattributeを含んでしまっている例}をここに挿入\end{minipage}}\end{quote}注釈付け対象データの配布について\\200文の注釈付けが終わった注釈者へ次の200文を配布する.\end{screen}上述の注意点について補足説明をする.注釈揺れの分析を目的とした実験ではないので,作業者からから発注者へ質問があった場合は,発注者が質問とその回答を全注釈者へ連絡している.\\・予備実験1の作業指示から追加した点\begin{screen}注釈付けの際の規則の追加\begin{quote}\fbox{\begin{minipage}{0.9\linewidth}図\ref{fig:意図した注釈付けを行ってもらうために追加した規則},図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}と図\ref{fig:モダリティ部分に関する規則}をここに挿入\end{minipage}}\end{quote}注釈付けの順番について\begin{quote}最初にvalueタグ,もしくはevaluationタグを注釈付けする部分を探しながら注釈付けを行う.\\value,evaluationに該当する文字列がどちらも存在せずに,itemやattributeのみが現れた場合には注釈付けを行わなくてもよい.\end{quote}注釈揺れの事例の提示\begin{quote}\begin{verbatim}注釈付けが必要な場所には忘れずに注釈付けを行ってください例のような場合には注釈付けを行ってください例:○:<value>機械的</value>な<attribute>声</attribute>です×:機械的な声です\end{verbatim}\end{quote}\end{screen}次ページへ続く\begin{screen}\begin{quote}評価はその表現のみで肯定否定がいかなる場合でも決定できる表現です\\例のようなvalueだけでは肯定否定は決定できません\begin{verbatim}例:○:届いたときは<value>可愛い</value>と思わずつぶやきました×届いたときは<evaluation>可愛い</evaluation>と思わずつぶやきました○:<item>画面</item>の<attribute>色</attribute>は<value>きれい</value>×:<item>画面</item>の<attribute>色</attribute>は<evaluation>きれい</evaluation>○:<attribute>色</attribute>が<value>はっきり出て</value>いて<value>見やすい</value>×:<attribute>色</attribute>が<value>はっきり出て</value>いて<evaluation>見やすい</evaluation>○:<value>使いやすい</value>です。×:<evaluation>使いやすい</evaluation>です。\end{verbatim}\vspace{2\baselineskip}例のようなevaluationはその表現のみで肯定否定が決定できるので評価として扱い\linebreakます\begin{verbatim}例:○:<item>シール</item>の<attribute>品質</attribute>は<evaluation>かなり悪い</evaluation>×:<item>シール</item>の<attribute>品質</attribute>は<value>かなり悪い</value>○:<attribute>内容</attribute>は<evaluation>良い</evaluation>だけに<evaluation>残念</evaluation>×:<attribute>内容</attribute>は<value>良い</value>だけに<evaluation>残念</evaluation>\end{verbatim}\end{quote}\end{screen}次ページへ続く\begin{screen}\setlength{\baselineskip}{16pt}\begin{quote}様態を表す値が属性値で観点しか述べていない部分は属性です\\例の場合はattributeとして注釈付けしてください\begin{verbatim}例:○:購入の決め手としては<attribute>大きさ</attribute>と<attribute>デザイン</attribute>が挙げられます。×:購入の決め手としては<value>大きさ</value>と<attribute>デザイン</attribute>が挙げられます。○:その<attribute>シンプルさ</attribute>に<evaluation>感心してしまいます</evaluation>。×:その<value>シンプルさ</value>に<evaluation>感心してしまいます</evaluation>。注釈付けはなるべく細かく行ってください例:○:<value>その日の気分によって聞ける</value>のが<evaluation>すばらしい</evaluation>×:<evaluation>その日の気分によって聞けるのがすばらしい</evaluation>○:<value>熱を持ってしまい</value>とてもではないですが<value>手では持てなくなる</value>×:<value>熱を持ってしまい、とてもではないですが手では持てなくなる</value>属性値は様態の内容なので,観点は属性に含めてください.例:○:<attribute>茶葉が踊っている</attribute>のが<value>目に見える</value>×:<attribute>茶葉</attribute>が<value>踊っているのが目に見える</value>○:<attribute>操作が慣れるまで</attribute><value>ほんの少しかかった</value>×:<attribute>操作</attribute><value>慣れるまでほんの少しかかった</value>\end{verbatim}\end{quote}\end{screen}次ページへ続く\clearpage\begin{screen}\begin{quote}attribute-value組はそのものがどのようなモノであるかを表すだけであり,その組に対する肯定・否定は人によって異なります\begin{verbatim}例:○:<attribute>落ち着き</attribute>が<value>あります</value>×:<evaluation>落ち着きがあります</evaluation>○:<item>このディスプレイ</item>は<attribute>解像度</attribute>が<value>高い</value>×:<item>このディスプレイ</item>は<evaluation>解像度が高い</evaluation>特に属性は省略されている場合があります。省略を想定しながら注釈付けしてください例の場合は「サイズ」という属性が省略していると考えられます例:○:<item>画面</item><value>大きい</value>×:<attribute>画面</attribute><value>大きい</value>\end{verbatim}\end{quote}\end{screen}上記の作業指示に加えて,別紙にて注釈付けツールの使用説明書を配布.\begin{biography}\bioauthor{宮崎林太郎}{2002年神奈川大学理学部情報科学科卒業.2004年同大学大学院理学研究科情報科学専攻博士課程前期修了.現在,横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期在学中.自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
V24N03-06
\section{はじめに} 近年,インターネットなどからテキストとそれに紐づけられた非テキスト情報を大量に得ることができ,画像とそのキャプションや経済の解説記事とその株価チャートなどはwebなどから比較的容易に入手することができる.しかし,テキストと非テキスト情報を対応させる研究の多くは,画像から自然言語を出力する手法\cite{Farhadi:2010:PTS:1888089.1888092,Yang:2011:CSG:2145432.2145484,rohrbach13iccv}のように非テキスト情報から自然言語を出力することを目的としている.Kirosらは非テキスト情報を用いることにより言語モデルの性能向上を示した\cite{icml2014c2_kiros14}.本稿では,非テキスト情報を用いた自動単語分割について述べる.本稿では,日本語の単語分割を題材とする.単語分割は単語の境界が曖昧な言語においてよく用いられる最初の処理であり,英語では品詞推定と同等に重要な処理である.情報源として非テキスト情報とテキストが対応したデータが大量に必要になるため,本研究では将棋のプロの試合から作られた将棋の局面と将棋解説文がペアになったデータ\cite{A.Japanese.Chess.Commentary.Corpus}を用いて実験を行う.似た局面からは類似した解説文が生成されると仮定し,非テキスト情報である将棋の局面からその局面に対応した解説文の部分文字列をニューラルネットワークモデルを用いて予測し,その局面から生成されやすい単語を列挙する.列挙された単語を辞書に追加することで単語分割の精度を向上させる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia6f1.eps}\end{center}\caption{提案手法の概観}\label{fig-overview}\end{figure}本手法は3つのステップから構成される(図\ref{fig-overview}).まず,将棋の局面と単語候補を対応させるために生テキストから単語候補を生成する.単語候補は将棋解説文を擬似確率的分割コーパスを用いて部分単語列に分割することで得られる.次に,生成した単語候補と将棋の局面をニューラルネットワークを用いて対応させることでシンボルグラウンディングを行う.最後にシンボルグラウンディングの結果を用いて将棋解説文専用の辞書を生成し,自動単語分割の手法に取り入れる.本稿の構成は以下の通りである.まず2章で単語の候補を取り出すために確率的単語分割コーパスを用いる手法について述べる.3章で将棋解説文と局面が対応しているデータセットのゲーム解説コーパスについて触れ,シンボルグラウンディングとして単語候補と将棋局面を対応させる手法の説明を行う.4章ではベースラインとなる自動単語分割器について述べたあと,非テキスト情報を用いた単語分割として,シンボルグラウンディングの結果を用いて辞書を生成し,単語分割器を構築する手法を述べる.5章で実験設定と実験結果の評価と考察を行い,6章で本手法と他の単語分割の手法を比較する.最後に7章で本稿をまとめる. \section{確率的単語分割コーパス} 本研究では将棋の局面とその言語表現をシンボルグラウンディングの対象とし,将棋解説文専用の辞書を獲得する.本章では,辞書獲得のために用いる確率的単語分割コーパス\cite{DBLP:conf/interspeech/MoriT04}について説明する.確率的単語分割コーパスは文字列の分割境界が確率的に与えられたコーパスであり,確率的単語分割コーパスを用いることでコーパスに出現する各単語の期待頻度を計算することができる.しかし,辞書に追加するための単語候補を確率的単語分割コーパスから選択するためには,コーパスに出現するほとんどすべての文字列を単語候補として期待頻度を計算する必要があり,語彙サイズが非常に大きくなり,高い計算コストを要する.そのため,本研究では擬似的な確率的単語分割コーパス\cite{stocha_seg_corpus}を用いる.\subsection{確率的単語分割コーパス}確率的単語分割コーパスは生テキストコーパス$C_r$(以下,文字列$x^{n_r}_1$として表す)と境界の分割確率$P_i$の組み合わせで定義される.ここで$P_i$はある文字$x_i$と$x_{i+1}$の間に分割境界が存在する確率である.この分割確率は$x_i$と$x_{i+1}$の周辺の文字列を参照したロジスティック回帰モデル\cite{Fan:2008:LLL:1390681.1442794}により推定される.ただし,ここで用いるロジスティック回帰モデルは人手で単語分割したコーパスを用いて学習される.コーパスの最初の文字の前と最後の文字の後は分割確率を1とする($P_0=P_{n_r}=1$).確率的単語分割コーパスで推定される単語の期待頻度$f_r(\mbox{\boldmath$w$})$は以下で計算される.\begin{align}f_r(\mbox{\boldmath$w$})&=\sum_{i\inO}{P_i\left\{\prod^{k-1}_{j=1}{(1-P_{i+j})}\right\}P_{i+k}}\\O&=\{i\|\x^{i+k}_{i+1}=\mbox{\boldmath$w$}\}\nonumber\end{align}ここで,$O$はテキストの単語候補となりうる部分文字列$x^{i+k}_{i+1}$における$i$の集合である.\subsection{擬似確率的単語分割コーパス}確率的単語分割コーパスを用いた単語の期待頻度の推定は非常に高い時間的・空間的計算コストを要する.そのため,本研究では,確率的単語分割コーパスから直接単語の期待頻度を推定するのではなく,擬似確率的単語分割コーパス\cite{stocha_seg_corpus}と呼ばれる具体的に単語分割が付与されたコーパスを用いて単語の期待頻度を推定する.疑似確率的単語分割コーパスは,確率的単語分割コーパスにより定義される確率分布に従って単語分割を行うことにより得られる.具体的には,確率的単語分割コーパスの各文に対し,その文に与えられた確率分布に従って単語分割を行うことで,単語分割文の生成を行う.ただし,同じ文に対して1度だけ単語分割文を生成するのではなく,複数回単語分割を行い,複数の単語分割文を生成する.この手法はサンプリングの一種であり,より多くの単語分割文を生成することで,より良く確率的単語分割コーパスを近似する.生成された疑似確率的単語分割コーパスは陽に単語分割がされているため容易に各単語の期待頻度を推定することができる.次の手続きは,確率的単語分割コーパスから擬似確率的単語分割コーパスを生成する具体的な手続きを表す.\begin{itemize}\itemFor$i$=1to$n_r-1$\begin{enumerate}\item$x_i$を出力\item$0<p<1$となる$p$をランダムに生成\itemif$p<P_i$:単語境界を出力\\otherwise:何も出力しない\end{enumerate}\end{itemize}上記のプロセスを$m$回繰り返し,$x_i$と$x_{i+1}$の分割境界の数を$m$で割ることで$P_i$の推定値を得ることができる.ここで$m\to\infty$とすると,大数の法則より$P_i$と$P_i$の推定値の誤差が0になることが保証される. \section{シンボルグラウンディング} 本稿では,将棋の局面とその言語表現をシンボルグラウンディングの対象とする.後述する実験では,ゲーム解説コーパス\cite{A.Japanese.Chess.Commentary.Corpus}を用いる.本研究の手法は素性設計を除いて分野特有ではないので,画像とその説明文の組み合わせ\cite{regneri13tacl}など他の種類のデータにも適用可能である.\subsection{ゲーム解説コーパス}将棋は2人で行うボードゲームで,お互いに自分の駒を動かしながら相手の玉の駒を取ることを目的とする.将棋の大きな特徴として,取った相手の駒は自分の持ち駒として使うことができることや一部の駒は相手の敵陣に入るなど特定の条件を満たした場合に駒を裏返して別の動きに変えることができることが挙げられる.多くのプロ棋士間での対局は,他のプロ棋士により指し手の評価やその局面の状況,次の指し手の予想などが解説されている.ゲーム解説コーパスの各解説文には,対象とする局面が対応しており,ほとんどの解説文は局面に対するコメントをしているが局面に関係のないコメント(対局者に関する情報など)が少量含まれる.\subsection{グラウンディング}将棋局面$S_i$$(i=1,\ldots,n)$とその解説文$C_i$の大量のペアを学習セットとし,将棋局面$S_i$は素性ベクトル$f(S_i)$に変換して用いる.ここで$n$は学習セットに含まれる局面の数である.まず,$C_i$から擬似確率的単語分割コーパス$C'_i$を生成する.$C'_i$は$m$個のコーパス$C'_{ij}$$(j=1,\ldots,m)$を含んでおり,それぞれのコーパスは同じ解説文から成るが,異なる単語分割が与えられている(本実験では$m=4$とした).次に将棋局面の素性ベクトル$f(S_i)$を入力として用いて$C'_{i}$の単語を予測するモデルを3層のフィードフォワードニューラルネットワークで構築する.隠れ層の次元数は100とし,活性化関数には標準シグモイド関数を用いる.出力は$d$次元の実数値ベクトル($d$は単語候補の総数)であり,実数値ベクトルのそれぞれの要素はある特定の単語候補に対応しており,解説文にその単語候補が含まれている確率を出力する.学習の際には解説文にその単語候補が含まれていれば$1$,含まれていなければ$0$とし,損失関数として2乗誤差を用いる.つまり,将棋局面からその解説文の単語候補のBag-of-Wordsを3層のニューラルネットワーク用いて予測することでグラウンディングを行う.将棋局面の素性はコンピュータ将棋プログラムの激指\cite{Tsuruoka02game-treesearch}によるゲーム木探索の素性や結果,評価の一部を用いた.本実験では以下の素性を用いた.\begin{description}\item[\a:]将棋の駒の位置\item[\b:]持ち駒\item[\c:]{\bfa}と{\bfb}の組み合わせ\item[\d:]その他ヒューリスティックな素性\end{description}{\bfc}は,2駒関係(ある2つの駒の位置関係)や3駒関係などであり,{\bfd}のヒューリスティックな素性の例として,駒の価値に関する素性や玉の危険度に関する素性などがある.将棋局面の素性の多くは{\bfa},{\bfb},{\bfc}であり,次元数では$94.7\%$,発火数では$87.9\%$を占めている.一般のシンボルグラウンディングとは違い,解説文から作られた擬似確率的単語分割コーパスに出現する単語の候補は,正しい単語文字列と正しく分割されていない文字列が含まれる.それらの正しく分割されていない文字列は正しい単語文字列よりも出現する確率が低いと推測できる.似た局面からは同じ文字列が出現しやすいと仮定すると,ニューラルネットワークを用いたモデルでは,それらの局面と正しく分割されていない文字列は強い関係を結ぶことができず,出力する値は正しい単語文字列よりも小さくなると推測される. \section{シンボルグラウンディングの結果を用いた単語分割} \label{sec:WS_SG}この章ではベースラインとなる自動単語分割とシンボルグラウンディングの結果を用いた単語分割について述べる.\subsection{ベースラインとなる単語分割}さまざまな日本語の単語分割手法や形態素解析手法があるが,品詞情報なしで新しい単語を追加することができる唯一の単語分割手法である点予測に基づく手法\cite{Neubig:2011:PPR:2002736.2002841}を採用する.点予測による単語分割の入力は分割されてない文字列$x=x_1,\ldots,x_{n_r}$である.この単語分割器はサポートベクターマシン\cite{Fan:2008:LLL:1390681.1442794}を用いて単語境界があれば$P_i=1$なければ$P_i=0$として境界を推定する.このときの素性は周辺の6文字から文字$n$-gramと文字種$n$-gram($n=1,2,3$)を用いる.また,もし周辺の文字$n$-gramが辞書の文字列と一致した場合にはそれも素性として用いる.\subsection{非テキスト情報を用いた自動単語分割器の学習}非テキスト情報を自動単語分割に用いる最初の試みとして,非テキスト情報と関連性の高い単語候補を加えた辞書を生成する手法を提案する.非テキスト情報から単語候補を予測するニューラルネットワークを構築することでシンボルグラウンディングを行う.構築されたニューラルネットワークを用いることで非テキスト情報と関連する単語候補を取得できる.例えば将棋の場合,局面と局面から生成される解説文の単語は強い関連があり,似た局面からは同じ単語が生成される可能性が高いと考える.つまり,非テキスト情報と強い関連の単語候補を選ぶことで良い辞書を作ることができる.辞書生成のために,シンボルグラウンディングの結果として将棋局面$S_i$から$d$次元の実数値ベクトルを計算し単語候補のスコアを得る.本稿では,単語候補のスコアから以下の3つの方法で辞書を生成する.\begin{description}\item[sum]すべての局面の$d$次元の実数値ベクトルの和をとり,上位$R\%$の単語を辞書に追加する.\item[max]すべての局面の$d$次元の実数値ベクトルの要素の最大値を取り,上位$R\%$の単語を辞書に追加する.\item[each]各局面の$d$次元の実数値ベクトルの上位$R\%$の単語を辞書に追加する.\end{description}例えば,以下のように局面$S_1,S_2$から計算される単語候補[四間,間,間飛,飛,飛車]の$5$次元の実数値ベクトルがあり,その上位$40\%$の単語候補を辞書に加えるとする.\begin{itemize}\item$S_1$から計算される単語候補のベクトル$[1.4,1.5,0.2,0.5,3.8]$\item$S_2$から計算される単語候補のベクトル$[4.9,0.8,0.1,0.9,3.2]$\end{itemize}{\bfsum}では$S_1,S_2$から計算される単語候補のベクトルの要素を足しあわせた$[6.3,2.3,0.3,1.4,7.0]$について上位$40\%$の単語候補である「四間」と「飛車」を辞書に加える.{\bfmax}ではそれぞれの要素の最大値からなるベクトル$[4.9,1.5,0.2,0.9,3.8]$から「四間」と「飛車」を辞書に加える.{\bfeach}では$[1.4,1.5,0.2,0.5,3.8]$と$[4.9,0.8,0.1,0.9,3.2]$のそれぞれの上位$40\%$の単語候補「間」「飛車」と「四間」「飛車」を辞書に追加する.この時すでに辞書に登録されている単語候補(この場合は「飛車」)は二重に登録しない.最後に,それぞれの方法で生成された辞書を用いて自動単語分割器の再学習を行う. \section{評価} \ref{sec:WS_SG}章で述べた提案手法の効果を検証するために自動単語分割の実験を行った.提案手法の効果を検証するために,シンボルグラウンディングにより獲得された辞書を用いる場合(提案手法)と用いない場合を比較した.\subsection{コーパス}\begin{table}[b]\caption{コーパスの概要}\label{tab_Corpus}\input{06table01.txt}\end{table}表\ref{tab_Corpus}は今回の実験で用いたコーパスの詳細を示している.コーパスは,シンボルグラウンディングのためのコーパス(シンボルグラウンディング用コーパス)と自動単語分割のための訓練/開発/テストコーパスから成る.シンボルグラウンディング用コーパスは,33,151組の将棋局面と将棋解説文から成る.ただし,シンボルグラウンディング用コーパスの将棋解説文には単語分割が付与されていない.この将棋解説文から疑似確率的単語分割コーパスを生成し,シンボルグラウンディングの学習(ニューラルネットワークの学習)を行った.自動単語分割のための訓練コーパスには,現代日本語書き言葉均衡コーパス(BCCWJ)\cite{Balanced.corpus.of.contemporary.written.Japanese}と,日経新聞(1990--2000)の一部からなる新聞記事のコーパス,英語表現辞典からなる日常会話文のコーパスを用いた.BCCWJの一部は学習には用いず,テストコーパスとして用いた.将棋解説文からランダムに抽出した5,041文を人手で単語分割し,これを開発コーパス(253文),局面なしテストコーパス(3,000文),局面ありテストコーパス(1,788文)の3つに分けた\footnote{シンボルグラウンディング用コーパスと自動単語分割のための開発/テストコーパスはそれぞれ異なる将棋解説文から抽出して作成した.}.将棋解説文のための辞書は,局面ありテストコーパスに対し提案手法を適用することで獲得する.局面なしテストコーパスは局面の情報を持たない将棋解説文だけから成るコーパスであり,局面ありテストコーパスから得られた辞書の汎用性を評価するために用意した.実験では,局面ありテストコーパスから得られた辞書を用いて,局面なしテストコーパスの単語分割精度を評価した.\subsection{単語分割システム}本実験では以下の2つの単語分割モデルを用いてその精度を評価した.\begin{description}\item[ベースライン:]単語分割のための訓練コーパスとUniDic(234,652単語)\footnote{http://pj.ninjal.ac.jp/corpus\_center/unidic/}を用いて学習されたモデル.\item[+擬似確率的単語分割辞書:]ベースラインで用いた言語資源に加え,擬似確率的単語コーパスから出現頻度の高い単語候補を加えた辞書を用いて学習されたモデル.\item[+シンボルグラウンディング:]ベースラインで用いた言語資源に加え,シンボルグラウンディングにより獲得された辞書を用いて学習されたモデル.\end{description}ベースラインおよび提案手法のいずれにおいてもUniDicを辞書として用いた.提案手法ではUniDicに加えて,シンボルグラウンディング用コーパスから獲得される辞書を用いる.ベースラインの単語分割モデル構築と辞書獲得のために必要となる擬似確率的単語分割コーパスの生成にはロジスティック回帰を用いており,表\ref{tab_Corpus}に示した自動単語分割のための訓練コーパスを学習用に用いた.ロジスティック回帰は単語境界の確率値$P_i$を出力し,ベースラインではこの$P_i$が0.5以上なら分割境界があるとし,擬似確率的単語分割コーパスには$P_i$の出力値をそのまま用いて生成した.このとき$m=4$とし,擬似確率的単語分割コーパスを$4$つ生成した.シンボルグラウンディングの手法を評価するために,擬似確率単語分割コーパスの単語を頻度順に並べ,その上位$R'\%$を追加した辞書を生成し,モデルを構築した.辞書獲得において,シンボルグラウンディングの辞書生成の手法({\bfsum},{\bfmax},{\bfeach})と$R'$,$R$の値には開発セットの単語分割精度(F値)を用いて最も高くなるパラメータを採用した.擬似確率的単語分割辞書では$R'=0.074$のときに最も精度が高くなり,辞書には110単語が追加された.提案手法では,手法{\bfeach}で$R=0.074$のときに最も精度が高くなり,辞書には110単語が追加された.\subsection{結果と考察}単語分割精度の評価尺度には以下で表される,適合率と再現率,F値を用いた.\begin{align*}適合率&=\frac{正解単語数}{システムの出力文の単語数}\\[1zh]再現率&=\frac{正解数単語数}{正解文の単語数}\\[1zh]{\rmF}値&=\frac{2\cdot適合率\cdot再現率}{適合率+再現率}\end{align*}表\ref{tab_result_BCCWJ}はBCCWJに対する単語分割の精度を示しており,表\ref{tab_result_Shogi}は局面なしの将棋解説文に対する単語分割精度と局面ありの将棋解説文に対する単語分割の精度を示している.このときの辞書は局面ありの解説文のみを用いて生成された.BCCWJに対する単語分割精度(表\ref{tab_result_BCCWJ})と将棋解説文に対するの単語分割精度(表\ref{tab_result_Shogi})を比較すると,将棋解説文の単語分割は一般ドメインの単語分割より難しいことが分かる.将棋解説文には将棋特有の単語や表現が大量に含まれるため単語分割の精度が低くなったことが考えられる.\begin{table}[b]\caption{BCCWJ(6,025文)の単語分割結果}\label{tab_result_BCCWJ}\input{06table02.txt}\end{table}\begin{table}[b]\caption{将棋解説文(4,788文)の単語分割結果}\label{tab_result_Shogi}\input{06table03.txt}\end{table}表\ref{tab_result_Shogi}において,提案手法はベースラインや擬似確率的単語辞書を追加した手法に比べて精度が向上しており,再現率についてはマクネマー検定で$1\%$の統計的有意差があった.本手法における辞書獲得は教師なし学習にもかかわらず自然注釈による手法\cite{liu-EtAl:2014:EMNLP}と同程度のエラー削減率を実現できた.この結果よりシンボルグラウンディングによる単語分割は注釈付けと同様に有用であると言える.表\ref{tab_result_Shogi}において,ベースラインと辞書を追加した手法の適合率と再現率を詳しくみると,再現率は適合率よりも大きく向上していることが分かる.この結果より,正しい単語と少量の間違った単語を学習していることが分かる.実際に,擬似確率的単語分割辞書とシンボルグラウンディングによる辞書の両方には「飛車」や「同歩」,「先手」などの将棋解説文に出現する頻度が高い単語が登録されていた.シンボルグラウンディングによる辞書には「休憩」や「成」など擬似確率的単語分割辞書には無い単語が追加されており,擬似確率的単語分割辞書には「.」や「・」などのシンボルグラウンディングによる辞書には存在しなかった単語が追加されていた.また,表\ref{tab_result_BCCWJ}より本手法は一般のドメインに深刻な精度低下をもたらさないことが分かる.表\ref{tab_result_Shogi_NoState}と表\ref{tab_result_Shogi_State}は局面なしの将棋解説文と局面ありの将棋解説文の単語分割精度を示している.表\ref{tab_result_Shogi_NoState}より,辞書を追加する2つの手法において,局面なしの将棋解説文の単語分割の精度が向上しており,生成された辞書が将棋解説文の分野に対して有効であることがわかる.この精度向上は高頻度で出現する将棋用語によるものと考えられる.局面なしの将棋解説文では,擬似確率的単語分割辞書を追加する手法が最も精度が高かった.しかし,局面ありの将棋解説文において,シンボルグラウンディングによる辞書を追加した手法が最も精度が高かった(表\ref{tab_result_Shogi_State}).また,局面なしの将棋解説文よりも局面ありの将棋解説文の方が精度向上の割合が大きい.以上より,本稿で提案する手法は局面に対応した単語を効果的に学習できていると結論できる.\begin{table}[b]\caption{局面なしの将棋解説文(3,000文)の単語分割結果}\label{tab_result_Shogi_NoState}\input{06table04.txt}\end{table}\begin{table}[b]\caption{局面ありの将棋解説文(1,788文)の単語分割結果}\label{tab_result_Shogi_State}\input{06table05.txt}\end{table}最後に,ニューラルネットワークを用いて将棋局面と解説文をグラウンディングする際のデータサイズを変更し,その学習曲線を図\ref{fig-curve}に示す.横軸が学習に用いる局面数であり,縦軸が将棋解説文(4,788文)における単語分割の精度(F値)を表している.局面数が12,000程度で学習が収束している.\begin{figure}[t]\begin{center}\includegraphics{24-3ia6f2.eps}\end{center}\caption{学習のデータサイズを変更したときの学習曲線}\label{fig-curve}\end{figure} \section{関連研究} 本稿では日本語の単語分割を行った.単語分割の代表的な手法は隠れマルコフモデル\cite{Nagata:1994:SJM:991886.991920}である.また,Sproatらは類似した手法で中国語の単語分割を行った\cite{Sproat:1996:SFW:239895.239900}.これらの手法は単語をモデルの単位として扱っている.近年,Neubigらはそれぞれの文字の間に単語分割があるかどうかを点予測によって判定する手法\cite{Neubig:2011:PPR:2002736.2002841}を提案しており,タグの制約のない,文字へのBIタグのタグ付けとして解くことができる.中国語の単語分割ではBIESタグをタグ付けし系列ラベリング問題\cite{xue2003}として解く手法がある.BIESはそれぞれ単語の始まり,その続き,単語の終わり,1文字の単語を表している.我々の予備的な実験で日本語の単語分割ではBIタグを用いたサポートベクターマシンはBIESタグを用いたCRFよりもわずかに精度が高かった.これが本稿で点予測を用いた理由の1つである.しかし,本手法はBIESタグとCRFの単語分割にも適用可能である.本稿で述べた提案手法は教師なし学習でハイパーパラメーターを調整するための少量の注釈付きデータを必要とした.この観点では,この手法は自然注釈\cite{yang-vozila:2014:EMNLP2014,jiang-EtAl:2013:ACL2013,liu-EtAl:2014:EMNLP}に類似している.しかし,これらの研究ではハイパーテキストのタグは部分的な注釈と見なし,部分的な注釈を含むデータを用いて学習されたCRFで単語分割の性能を向上させた.また,Tsuboiらは大量の生のテキストから新しい単語を抽出する手法を提案し\cite{tsuboi-EtAl:2008:PAPERS},Moriらは類似した設定でのオンライン手法を提案した\cite{Mori96wordextraction}.グラウンディングに基づく教師なし単語分割には\cite{Roy2002113,Nguyen:2010:NWS:1873781.1873873}がある.Royらは音声情報と画像情報をグラウンディングすることにより,音声情報から単語を獲得する手法を提案した.これは,音声信号と画像の物体の類似性を用いて,物体とその名前を連続音声から獲得する.Nguyenらは機械翻訳のための教師なし単語分割を提案した.分かち書きされている翻訳先の言語の単語と対応するように翻訳元の言語をノンパラメトリックな手法で単語分割した.これらの研究に対して,本稿では言語以外のモダリティを扱い,単一言語内でテキストの単語分割を行う最初の試みとして将棋局面を用いた. \section{終わりに} 本稿では非テキスト情報を用いた教師なし学習により辞書を生成し,それを用いることによる自動単語分割の精度向上について述べた.単語候補を生テキストから取り出すために,まず確率的に文を分割し,単語の候補と元の解説文に対応する将棋局面をニューラルネットワークを用いて結びつけてシンボルグラウンディングを行った.最後にシンボルグラウンディングの結果を参照しスコアの高い単語の候補を辞書に追加した.実験結果より非テキスト情報を用いた手法はテキスト情報のみを用いた手法よりも精度が高く,非テキスト情報を用いる手法の有効性が確認できた.今後は,この手法を他の深層学習のモデルに適用することやシンボルグラウンディングの結果を分散表現として単語分割の手法\cite{Ma2015AccurateLC}に適用,及び画像などの他の非テキスト情報を用いることが課題としてあげられる.\acknowledgment本研究はJSPS科研費26540190及び16K00293,25280084の助成を受けたものである.ここに敬意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{Fan:2008:LLL:1390681.1442794}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Farhadi,Hejrati,Sadeghi,Young,Rashtchian,Hockenmaier,\BBA\Forsyth}{Farhadiet~al.}{2010}]{Farhadi:2010:PTS:1888089.1888092}Farhadi,A.,Hejrati,M.,Sadeghi,M.~A.,Young,P.,Rashtchian,C.,Hockenmaier,J.,\BBA\Forsyth,D.\BBOP2010\BBCP.\newblock\BBOQEveryPictureTellsaStory:GeneratingSentencesfromImages.\BBCQ\\newblockIn{\BemProceedingsofthe11thEuropeanConferenceonComputerVision},\mbox{\BPGS\15--29}.\bibitem[\protect\BCAY{Jiang,Sun,L{\"{u}},Yang,\BBA\Liu}{Jianget~al.}{2013}]{jiang-EtAl:2013:ACL2013}Jiang,W.,Sun,M.,L{\"{u}},Y.,Yang,Y.,\BBA\Liu,Q.\BBOP2013\BBCP.\newblock\BBOQDiscriminativeLearningwithNaturalAnnotations:WordSegmentationasaCaseStudy.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\761--769}.\bibitem[\protect\BCAY{Kiros,Salakhutdinov,\BBA\Zemel}{Kiroset~al.}{2014}]{icml2014c2_kiros14}Kiros,R.,Salakhutdinov,R.,\BBA\Zemel,R.\BBOP2014\BBCP.\newblock\BBOQMultimodalNeuralLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe31stInternationalConferenceonMachineLearning},\mbox{\BPGS\595--603}.\bibitem[\protect\BCAY{Liu,Zhang,Che,Liu,\BBA\Wu}{Liuet~al.}{2014}]{liu-EtAl:2014:EMNLP}Liu,Y.,Zhang,Y.,Che,W.,Liu,T.,\BBA\Wu,F.\BBOP2014\BBCP.\newblock\BBOQDomainAdaptationforCRF-basedChineseWordSegmentationusingFreeAnnotations.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\864--874}.\bibitem[\protect\BCAY{Ma\BBA\Hinrichs}{Ma\BBA\Hinrichs}{2015}]{Ma2015AccurateLC}Ma,J.\BBACOMMA\\BBA\Hinrichs,E.~W.\BBOP2015\BBCP.\newblock\BBOQAccurateLinear-TimeChineseWordSegmentationviaEmbeddingMatching.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1733--1743}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Balanced.corpus.of.contemporary.written.Japanese}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2009}]{stocha_seg_corpus}森信介\JBA小田裕樹\BBOP2009\BBCP.\newblock擬似確率的単語分割コーパスによる言語モデルの改良.\\newblock\Jem{自然言語処理},{\Bbf16}(5),\mbox{\BPGS\7--21}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Mori96wordextraction}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{Mori,Richardson,Ushiku,Sasada,Kameko,\BBA\Tsuruoka}{Moriet~al.}{2016}]{A.Japanese.Chess.Commentary.Corpus}Mori,S.,Richardson,J.,Ushiku,A.,Sasada,T.,Kameko,H.,\BBA\Tsuruoka,Y.\BBOP2016\BBCP.\newblock\BBOQAJapaneseChessCommentaryCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1415--1420}.\bibitem[\protect\BCAY{Mori\BBA\Takuma}{Mori\BBA\Takuma}{2004}]{DBLP:conf/interspeech/MoriT04}Mori,S.\BBACOMMA\\BBA\Takuma,D.\BBOP2004\BBCP.\newblock\BBOQWordn-gramprobabilityestimationfromaJapaneserawcorpus.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonSpeechandLanguageProcessing},\mbox{\BPGS\1037--1040}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{Nagata:1994:SJM:991886.991920}Nagata,M.\BBOP1994\BBCP.\newblock\BBOQAStochasticJapaneseMorphologicalAnalyzerUsingaforward-DPbackward-A*N-bestSearchAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceonComputationalLinguistics},\mbox{\BPGS\201--207}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{Neubig:2011:PPR:2002736.2002841}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Nguyen,Vogel,\BBA\Smith}{Nguyenet~al.}{2010}]{Nguyen:2010:NWS:1873781.1873873}Nguyen,T.,Vogel,S.,\BBA\Smith,N.~A.\BBOP2010\BBCP.\newblock\BBOQNonparametricWordSegmentationforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\815--823}.\bibitem[\protect\BCAY{Regneri,Rohrbach,Wetzel,Thater,Schiele,\BBA\Pinkal}{Regneriet~al.}{2013}]{regneri13tacl}Regneri,M.,Rohrbach,M.,Wetzel,D.,Thater,S.,Schiele,B.,\BBA\Pinkal,M.\BBOP2013\BBCP.\newblock\BBOQGroundingActionDescriptionsinVideos.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf1}(Mar),\mbox{\BPGS\25--36}.\bibitem[\protect\BCAY{Rohrbach,Qiu,Titov,Thater,Pinkal,\BBA\Schiele}{Rohrbachet~al.}{2013}]{rohrbach13iccv}Rohrbach,M.,Qiu,W.,Titov,I.,Thater,S.,Pinkal,M.,\BBA\Schiele,B.\BBOP2013\BBCP.\newblock\BBOQTranslatingVideoContenttoNaturalLanguageDescriptions.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputerVision},\mbox{\BPGS\433--440}.\bibitem[\protect\BCAY{Roy\BBA\Pentland}{Roy\BBA\Pentland}{2002}]{Roy2002113}Roy,D.~K.\BBACOMMA\\BBA\Pentland,A.~P.\BBOP2002\BBCP.\newblock\BBOQLearningWordsfromSightsandSounds:AComputationalModel.\BBCQ\\newblock{\BemCognitiveScience},{\Bbf26}(1),\mbox{\BPGS\113--146}.\bibitem[\protect\BCAY{Sproat,Gale,Shih,\BBA\Chang}{Sproatet~al.}{1996}]{Sproat:1996:SFW:239895.239900}Sproat,R.,Gale,W.,Shih,C.,\BBA\Chang,N.\BBOP1996\BBCP.\newblock\BBOQAStochasticFinite-stateWord-segmentationAlgorithmforChinese.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(3),\mbox{\BPGS\377--404}.\bibitem[\protect\BCAY{Tsuboi,Kashima,Mori,Oda,\BBA\Matsumoto}{Tsuboiet~al.}{2008}]{tsuboi-EtAl:2008:PAPERS}Tsuboi,Y.,Kashima,H.,Mori,S.,Oda,H.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQTrainingConditionalRandomFieldsUsingIncompleteAnnotations.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\897--904}.\bibitem[\protect\BCAY{Tsuruoka,Yokoyama,\BBA\Chikayama}{Tsuruokaet~al.}{2002}]{Tsuruoka02game-treesearch}Tsuruoka,Y.,Yokoyama,D.,\BBA\Chikayama,T.\BBOP2002\BBCP.\newblock\BBOQGame-TreeSearchAlgorithmBasedOnRealizationProbability.\BBCQ\\newblock{\BemJournaloftheInternationalComputerGamesAssociation},{\Bbf25},\mbox{\BPG\2002}.\bibitem[\protect\BCAY{Xue}{Xue}{2003}]{xue2003}Xue,N.\BBOP2003\BBCP.\newblock\BBOQChineseWordSegmentationasCharacterTagging.\BBCQ\\newblock{\BemTheAssociationforComputationalLinguisticsandChineseLanguageProcessing},{\Bbf8},\mbox{\BPGS\29--48}.\bibitem[\protect\BCAY{Yang\BBA\Vozila}{Yang\BBA\Vozila}{2014}]{yang-vozila:2014:EMNLP2014}Yang,F.\BBACOMMA\\BBA\Vozila,P.\BBOP2014\BBCP.\newblock\BBOQSemi-SupervisedChineseWordSegmentationUsingPartial-LabelLearningWithConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\90--98}.\bibitem[\protect\BCAY{Yang,Teo,Daum{\'{e}},\BBA\Aloimonos}{Yanget~al.}{2011}]{Yang:2011:CSG:2145432.2145484}Yang,Y.,Teo,C.~L.,Daum{\'{e}},III,H.,\BBA\Aloimonos,Y.\BBOP2011\BBCP.\newblock\BBOQCorpus-guidedSentenceGenerationofNaturalImages.\BBCQ\\newblockIn{\BemProceedingsof2011theConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\444--454}.\end{thebibliography}\begin{biography}\bioauthor{友利涼}{2016年愛媛大学工学部卒業.同年より京都大学大学院情報学研究科修士課程在学.}\bioauthor{亀甲博貴}{2015年東京大学大学院工学系研究科修士課程卒業.同年より同大学院博士課程在学.}\bioauthor{二宮崇}{2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL,ACM各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年,日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授,2016年同教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞受賞.言語処理学会,情報処理学会,日本データベース学会,ACL各会員.}\bioauthor{鶴岡慶雅}{2002年東京大学大学院工学系研究科博士課程修了.同年より科学技術振興事業団研究員.2005年マンチェスター大学研究員.2009年北陸先端科学技術大学院大学准教授.2011年より東京大学大学院准教授.東京大学博士(工学).言語処理学会,情報処理学会,人工知能学会,各会員.}\end{biography}\biodate\end{document}
V18N04-02
\section{はじめに} \label{sec:1}\modified{言語解析器の作成時,タグ付きコーパスを用いて構造推定のための機械学習器を訓練する.しかし,そのコーパスはどのくらい一貫性をもってタグ付けられるものだろうか.一貫性のないコーパスを用いて評価を行うとその評価は信頼できないものとなる.また,一貫性のないコーパスから訓練すると,頑健な学習モデルを利用していたとしても解析器の性能は悪くなる.}本稿では,人間による日本語係り受け関係タグ付け作業に関して,\modified{どのくらい一貫性をもって正しくタグ付け可能かを評価する}新しいゲームアプリケーション``shWiiFitReduceDependencyParsing''(図\ref{fig:swfrdp})を提案する.ゲームのプレーヤーはWiiバランスボードの上に立ち,係り受け解析対象の文を読み,画面中央の文節対に対して\mmodified{2}種類の判断「係らない(SHIFT)」もしくは「係る(REDUCE)」の判断を選択し,体重を左右のどちらかに加重する.\modified{係り受け構造のタグ付けにおける非一貫性は次の3つに由来すると考える.1つ目は,係り受け構造が一意に決まるが,作業者が誤るもの.2つ目は,複数の可能な正しい構造に対して,基準により一意に決めているが,作業者が基準を踏襲できなかったもの.3つめは,複数の可能な正しい構造に対して,基準などが決められていないもの.}\begin{figure}[b]\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f1.eps}\caption{shWiiFitReduceDependencyParsing}\label{fig:swfrdp}\end{minipage}\hfill\raisebox{26pt}[0pt][0pt]{\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f2.eps}\caption{ExampleSentences}\label{fig:examplesentences}\end{minipage}}\end{figure}\modified{ここでは,1つめの非一貫性つまりタグ付けの正確性について検討する.}このゲームアプリケーションを用いて,埋め込み構造に基づくガーデンパス文(図\ref{fig:examplesentences})のタグ付け困難性を評価する心理言語実験を行う.対象となる文は統語的制約のみによりその係り受け構造が一意に決定できる.しかしながら,被験者は動詞の選択選好性によるバイアスにより係り受け構造付与を誤ってしまう傾向があり,本稿ではその傾向を定量的に調査する.また,同じガーデンパス文を,各種係り受け解析器で解析し,現在の係り受け解析モデルの弱点について分析する.人間の統語解析処理については,自己ペースリーディング法・質問法・視線検出法などの手法により心理言語学の分野で調査されてきた\cite{Mazuka1997a,Tokimoto04}.しかしながら,これらの心理言語学で用いられてきた手法は,読む速度を計測したり,文の意味を質問により事後確認したりする手法であり,コーパスに対する係り受けのタグ付けに直接寄与しない.一方,提案する手法では人間の係り受け判断をより直接的に評価し,また\modified{体重加重分布}に基づいて解析速度を追跡することができる.以下,\ref{sec:2}節では日本語係り受け解析手法について概説する.\ref{sec:3}節では用いたガーデンパス文について説明する.\ref{sec:4}節では人間による係り受け解析の調査に用いたゲームについて紹介する.\ref{sec:5}節では実験結果と考察を示し,\ref{sec:6}節にまとめと今後の展開について示す. \section{日本語係り受け解析} \label{sec:2}日本語の係り受け解析器は京大コーパス由来のものが多い.コーパスの基準により,係り受け関係は文節単位に付与され,係り受け関係は交差することがほとんどなく(projective),常に主辞が右にくる性質を持つ(strictlyhead-final).また文節を単位とした場合,動詞は格フレームを持つがその格要素は頻繁に省略される(productiveusageofemptycategory),主辞に対する従属要素間の語順は比較的自由である(presenceofscrambling)といった特性がある.このような特性により,他言語と比して係り受け解析手法を単純化することができる.オープンソースの日本語係り受け解析器が2つある.1つは京都大学で開発されたKNPであり,入力として規則に基づく形態素解析器JUMANの出力を用いる.KNPは同表記異義語の曖昧性解消・文節まとめあげ・並列構造解析・係り受け解析・格解析を行うことができ,文節まとめあげは規則に基づき,以降の処理は規則と生成モデルの混合手法に基づく.もう1つは工藤拓氏によるCaboChaで,条件付確率場に基づく形態素解析器MeCabの出力を用いる.CaboChaは文節まとめあげ・係り受け解析を行うことができ,それぞれ条件付確率場・サポートベクトルマシンといった識別モデルに基づく.日本語の係り受け解析手法は決定的な状態遷移アルゴリズムに基づくものが多く提案されている.長さ$N$の文に対し,時間計算量$O(N^2)$のCascadedChunking法~\cite{Kudo02}・$O(N)$のShiftReduce法~\cite{Sassano04}・$O(N^2)$のTournament法~\cite{Iwatate08}などが提案されている.他言語では様々な係り受け解析手法が提案されており\cite{CoNLL06,CoNLL07},グラフに基づく方法\cite{Eisner00,McDonald05,Carreras07,Koo10}が決定的な状態遷移アルゴリズム\cite{Nivre03,Nivre04}とともに高精度を達成している.2手法が得意とする言語現象が異なるため,両者の組み合わせ手法\cite{Nivre08}が提案されている.しかしながら,日本語の係り受け解析において,グラフに基づく手法が高精度を達成されたという報告はない. \section{日本語ガーデンパス文} \label{sec:3}ガーデンパス文とは,途中まで文字列を読んで一旦理解されやすい解釈が誤っており,最後まで読んで初めて正しい解釈ができるような構造を持つ文のことをいう.本稿では係り受け構造同定を誤りやすい文として,Tokimoto\cite{Tokimoto04}の実験で用いられた埋め込み構造に基づく日本語ガーデンパス文を用いる.利用する例文は以下の形式の6文節からなる:\begin{center}\begin{tabular}{p{2cm}p{2cm}p{2cm}p{2cm}p{2cm}p{2cm}}$NP_{1}^{NOM}$&$NP_{2}^{ACC}$&$V_{3}^{PAST}$&$NP_{4}^{DAT}$&$X_{5}$&$V_{6}^{PAST}$\\\end{tabular}\end{center}下添え字は文節の順番を表す便宜上の数字である.$NP$は格助詞を持つ名詞句を表し,$NP^{NOM}$はガ格を持つ名詞句・$NP^{ACC}$はヲ格を持つ名詞句・$NP^{DAT}$はニ格を持つ名詞句を表す.$V^{PAST}$はタ形の動詞を表す.5番目の文節$X$に何が割り当てられるかによって異なる3種類の係り受け構造を持つ.1つ目はガ格を持つ名詞句$NP_{5}^{NOM}$を割り当てたものでControl(CTRL)文と呼ぶ.2つ目はヲ格を持つ名詞句$NP_{5}^{ACC}$を割り当てたものでEarlyBoundary(EB)文と呼ぶ.3つ目はそれ以外の句を割り当てたものでLateBoundary(LB)文と呼ぶ.3種類の係り受け構造を図\ref{fig:examplesentences}に示す.CTRL文の場合,並列構造などの例外を除いて1つの動詞が2つ以上のガ格を持たないため,最初の$NP_{1}^{NOM}$が$V_{3}^{PAST}$のガ格,$NP_{5}^{NOM}$が$V_{6}^{PAST}$のガ格となる.非交差条件と常に主辞が右に来る制約により$NP_{2}^{ACC}$が$V_{3}^{PAST}$に,$NP_{4}^{DAT}$が$V_{6}^{PAST}$に係る.尚,$V_{3}^{PAST}$が$NP_{4}^{DAT}$に連体節外の関係\cite{Teramura1981}で係る.EB文の場合,並列構造などの例外を除いて1つの動詞が2つ以上のヲ格を持たないため,最初の$NP_{2}^{ACC}$が$V_{3}^{PAST}$のヲ格,$NP_{5}^{ACC}$が$V_{6}^{PAST}$のヲ格となる.準備した文は全て$NP_{4}^{DAT}$が$V_{3}^{PAST}$を連体節内の関係で受け,意味的には$V_{3}^{PAST}$のガ格に相当する.このため$NP_{1}^{NOM}$が$V_{6}^{PAST}$のガ格になる.LB文の場合,準備した文は全て$NP_{4}^{DAT}$が$V_{3}^{PAST}$を連体節内の関係で受け,意味的には$V_{3}^{PAST}$のヲ格に相当する.このため$NP_{2}^{ACC}$が$V_{6}^{PAST}$のヲ格になる.非交差条件と常に主辞が右に来る制約により$NP_{1}^{NOM}$が$V_{6}^{PAST}$に係る. \section{ゲーム:shWiiFitReduceDependencyParsing} \label{sec:4}本節では人間の係り受け解析判定を調査するために開発したゲーム``shWiiFitReduceDependencyParsing''について説明する.図\ref{fig:swfrdp}にゲーム画面を示す.ゲームはNivreらのshiftreduce法\cite{Nivre03,Nivre04}の日本語対応版であるSassanoのアルゴリズムを元にしている(Algorithm\ref{alg:sr}).4種類のアクション``defaultreduce''・``defaultshift''・``REDUCE''・``SHIFT''のうち``REDUCE''・``SHIFT''を人間が判断する.文節数$N$の1文を,高々$2N$回のアクションを決定することにより係り受け解析ができる.以下アルゴリズムについて詳しく説明する:\begin{algorithm}[tb]\caption{Shiftreduce法に基づく日本語係り受け解析\label{alg:sr}}\small\begin{algorithmic}\STATE$\langleS,Q,A\rangle=\langlenil,W,\phi\rangle$\%Initialization\REPEAT\IF{$S!=nil$and$|Q|==1$}\STATE$\langles|S,q,A\rangle\Rightarrow\langleS,q,A\cup\langles,q\rangle\rangle$\%``defaultreduce''\ELSIF{$S==nil$and$|Q|>1$}\STATE$\langlenil,q|Q,A\rangle\Rightarrow\langleq,Q,A\rangle$\%``defaultshift''\ELSE\IF{$s$and$q$hasadependencyrelation}\STATE$\langles|S,q|Q,A\rangle\Rightarrow\langleS,q|Q,A\cup\langles,q\rangle\rangle$\%``REDUCE''\ELSE\STATE$\langles|S,q|Q,A\rangle\Rightarrow\langleq|s|S,Q,A\rangle$\%``SHIFT''\ENDIF\ENDIF\UNTIL{$S==nil$\AND$|Q|==1$}\RETURN$A$\end{algorithmic}\end{algorithm}スタック$S$・キュー$Q$・解析済み係り受け関係を格納する$A$の3つ組を定義する.それぞれ,空スタック$nil$・入力文節列$W$・空集合$\phi$で初期化する.係り受け解析はこの3つ組の状態遷移により進められる.状態遷移は以下の条件分岐により行う:\begin{itemize}\item``defaultreduce'':スタック$S$が空ではなくかつキュー$Q$が単一文節$q$のみの場合,システムが自動的に$S$の先頭要素$s$が$q$に係る関係を解析済み係り受け関係集合$A$に追加し$S$から$s$をpopする.\item``defaultshift'':$S$が空でありかつ$Q$が複数文節からなる場合,システムが自動的に$Q$の先頭要素$q$をpopし,$S$に$q$をpushする.\item``REDUCE'':人間が$S$の先頭要素$s$と$Q$の先頭要素$q$の間の係り受け関係を判断し係り受け関係がある場合,$S$の先頭要素$s$が$q$に係る関係を$A$に追加し$S$から$s$をpopする.\item``SHIFT'':人間が$S$の先頭要素$s$と$Q$の先頭要素$q$の間の係り受け関係を判断し係り受け関係がない場合,$Q$の先頭要素$q$をpopし,$S$に$q$をpushする.\end{itemize}以下,アクションをどのようにプレーヤーが入力するかを説明する.ゲームのプレーヤーには図\ref{fig:swfrdp}のようなスクリーンが提示される.解析すべき文がスクリーンの上部に示される.ゲーム開始時には顔アイコンがスクリーン下部中央に示される.その左上にあるトレイがスタック$S$に相当し,右上にあるトレイがキュー$Q$に相当する.左トレイ$S$には何も載っていない状態で,右トレイ$Q$には文の先頭3文節が載っている状態で初期化される.ゲームの間左トレイ$S$・右トレイ$Q$ともに画面中央を先頭として高々3文節がプレーヤーに提示される.プレーヤーはNintendoバランスWiiボード上に乗り,体重移動により顔アイコンを移動させ左右の壁に移動させることにより注目する2文節間の係り受け関係の有無を入力する.もし左トレイ$S$の先頭要素$s$と右トレイ$Q$の先頭要素$q$が係り受け関係にある場合,プレーヤーは右方向に体重移動することにより顔アイコンを画面下部右の``REDUCE''という壁に移動させる.係り受け関係にない場合,左方向に体重移動することにより顔アイコンを画面下部左の``SHIFT''という壁に移動させる.壁に顔アイコンが触れた時点で入力と見なされ,ゲームは820--860~msec.のアニメーションとともに,対応するアクションを実行する.この間プレーヤーが体重を左右に加重していない状態であれば,自動的にアイコンは中央に戻る.アクションが一意に決まる場合,つまり``defaultreduce''・``defaultshift''相当の場合,同様に820--860~msec.のアニメーションが提示する.1文解析後プレーヤーには解析結果が正しかったかどうかが提示される.プレーヤーはジャンプすることにより次の文の解析に進むことができる.ゲームの間ソフトウェアは各アクションの反応時間を計測する.今回の実験では,入力デバイスとして,バランスWiiボードを用いたが,ソフトウェアはキーボード上のカーソルキー・ジョイスティック・ゲームパッド(NintendoWiiリモコンの各種センサを含む)でも動かすことができる.入力デバイスとしてバランスWiiボードを用いた理由は,判断に迷った際にある程度プレーヤーに対して負荷を与えることができる点がある.プレーヤーが判断に迷った場合,キーボード上のカーソルキー・ゲームパッドを用いた場合にはプレーヤーは何もしなくてもよいが,バランスWiiボードを用いた場合にはプレーヤーは体重を中心に保つ努力をしなければならない.この負荷の有無については,4人に対する小規模の対照実験においてバランスWiiボードの方が反応時間差が出やすいことを確認している. \section{実験\label{sec:5}} \subsection{人間の係り受け解析判断\label{subsec:5.1}}\subsubsection{実験設定}\ref{sec:4}節に示したゲームを用いて,心理言語実験を行う.ここでは\ref{sec:3}節に示した埋め込み構造に基づくガーデンパス文に対する係り受け解析の精度と反応時間について評価する.21--27歳の日本語を母語とする\mmodified{大学生・大学院生13}人を対象とし,被験者には謝金を支払う.ゲームの利用方法を教示するため,被験者は6ページのマニュアルを5分間読む.その後,係り受け関係の教示のために,文の構造を解説している小学校4年生の国語の教科書2ページを読む.\modified{教示時には速度と正解率の両方を計測していることを被験者に伝え,速く・正確に解析を行うことを依頼する.ゲーム中は各文が正解しているか否かのみを提示する.}練習として被験者は3--6文節により構成される10文1セットを対象に実験を行う.被験者の希望により,同じ文を3セットまで練習することができる.練習に利用した平均文数は\mmodified{16.9}文で5--12分要する.練習に用いた文の正しい係り受け構造は図入りのマニュアルに全て示されている.尚,\mmodified{13}人の被験者のうちNintendoWiiFitおよび関連ゲームを高頻度で遊んだことのあるものは1人のみ.本実験において60文を解析用データとして準備した.\ref{sec:3}節に示した\modified{判定対象となる3種類の例文(CTRL・EB・LB)10文ずつ計30文}とフィラー30文からなる.判定対象となる文は全て6文節だが,フィラー文は6--7文節.判定対象となる文はTokimotoの実験で利用されたものと同一であり,フィラー文はTokimotoが行ったように文中に出現する語彙は10年分の新聞記事頻度とNTT語彙特性\cite{Goitokusei}の語彙親密度により統制する.各被験者は1回の本実験で40文を解析する.文は以下の順で提示する:最初の5文はフィラー文・次の30文はフィラー15文+CTRL文5文+EB文5文+LB文5文をランダム順処理したもの・最後5文はフィラー文.被験者毎に異なるデータセットを作成する.1人の被験者に対して同じ文を2度提示しない.図\ref{fig:room}に実験環境を示す.42インチのディスプレイ上には1024$\times$768解像度で表示したうちの800$\times$600ピクセルの部分がゲーム画面である.実験に利用した部屋は防音室ではないが,可能な限り静音化した.バランスボードと画面の距離は230~cm.\modified{図中ホワイトボードの後ろに教示者がおり,練習時には操作方法の指示を行う.}\begin{figure}[t]\begin{center}\includegraphics{18-4ia920f3.eps}\end{center}\caption{実験環境}\label{fig:room}\end{figure}\subsubsection{実験結果}表\ref{table:result:pacc}に文型毎の文正解率と文単位の反応時間の標準残差(内的にスチューデント化した残差)の平均と標準偏差を示す.標準残差の計算時は正しく解析した際の時間を以下のパラメータで線形回帰する\footnote{\modified{線形回帰は文の処理時間を正規化するために行う.回帰による予測値と実測値の乖離を検討し,所要時間の文型間の差異を評価する.}}:(a)モーラ数・(b)文字数・(c)文節数・(d)文の提示順・(e)``defaultreduce''の数・(f)``defaultshift''の数・(g)``REDUCE''の数・(h)``SHIFT''の数・(i)隣接する2アクションで``SHIFT''/``REDUCE''が交替した回数(逆順も含む).文正解率より,ガ格は文末の動詞に係け,ヲ格は近い動詞に係けるEB文の構造をより正解できる傾向が見られる.京大コーパスのマニュアルには,格要素が両方に係る場合,ガ格は最右要素,ヲ格は最左要素に係けるとある.その点について被験者については教示していない.ゲームがshiftreduce法に基づくために全ての要素をより近い要素に係ける傾向があると予測したが,CTRL文がEB文に比べてより誤ることから必ずしも近い要素に係ける傾向があるとはいえない.\begin{table}[b]\caption{文正解率と文単位の反応時間(人間の係り受け解析判断)}\label{table:result:pacc}\input{02table01.txt}\end{table}\begin{table}[b]\caption{アクション単位の反応時間(人間の係り受け解析判断)}\label{table:result:ptime}\input{02table02.txt}\end{table}文単位の反応時間より,LB文は他の文に比べて解析に時間がかかることがわかった(調整化残差の分析より5\%水準で有意差あり).CTRL文とEB文については統計的な有意差は見られなかった.表\ref{table:result:ptime}にアクション毎の反応時間を示す.表の先頭行にアクションのインデックスを示す.対象となる文は全て6文節からなり,解析に必要なアクションの数は10であり,表中の列はこれに対応する.このうちほぼ半分のアクションは``defaultreduce''・``defaultshift''である.表中には,各3文型(CTRL・EB・LB)毎の結果を4行で示し,1行目は正しく解析するのに必要なアクション・2行目は反応時間(アクション間の実時間差からアニメーション提示時間を引いたもの)標準残差の平均・3行目は反応時間標準残差の標準偏差・4行目はアクション間の実時間差の平均を示す.1行目のアクションの略号はそれぞれ:``r''は``defaultreduce''・``s''は``defaultshift''・``R''は``REDUCE''・``S''は``SHIFT''を表す.2行目と3行目の標準残差は正しく解析できた文についてアクション毎の反応時間を(a)モーラ数・(b)文字数・(d)文の提示順で線形回帰をしたものである.尚,文の反応時間のときに考慮した(c)および(e)--(i)は,各文型集合毎で全く一致するので考慮しない.全ての文型について人間が反応可能な最初もしくは2番目のアクションで時間を要している.このことから,被験者は正しく解析するために,逐次的に解析するわけではなく,最初に全文を読んでから解析(の入力)をしていると考える.\subsubsection{関連研究}Mazukaらは様々な心理言語実験手法について紹介している\cite{Mazuka1997a}.ここでは各実験手法との対比を行う.視線検出法では,被験者が文を読む際にどのくらい早く読むかを計測する.1回目の走査の時間・読み直しを行うかどうか・2回目の走査にかかる時間を計測する.この方法は文を読む速度を自然な方法で計測可能だが,視線検出システムは大変高価である.自己ペースリーディング法は被験者の意思に基づいて文節(もしくは句)を逐次的に提示しながら,文を読む速度を計測する.文節を逐次的に提示するために,被験者は近い文節に係けるバイアスを持ち,ガーデンパス文を読む際には再解析(reanalysissteps)を強いることになる.実験では,再解析コストを\modified{誤り率と}文を読む速度により評価を行うことを目的とする.質問法は被験者に対して文を理解しているか否かを直接聞く方法である.目的に応じて質問は統制される.{\itWho-did-what}質問文では被験者が各文の意味を理解しているかどうかを評価する.{\itDifficultyrating}質問文では被験者が各文を理解するのにどのくらい簡単もしくは困難だったかを評価する.{\itMisleadingnessrating}質問文では被験者が各文に対してどのくらい誤解しやすいかを評価する.\modified{質問法は読む速度が得られる手法との組み合わせて行われることが多い.}Tokimotoは図\ref{fig:examplesentences}に示す文を自己ペースリーディング法による読む速度の残差および{\itWho-did-what}質問法による誤り率で評価した.彼の実験では,各文型の再解析コストはCTRL$<$EB$<$LBの順であった.我々の結果を誤り率に変換するとEB$<$(フィラー$<$)CTRL$<$LBとなり結果が異なる.ガーデンパス効果はLB文にのみ認められた.{\modifiedこの違いは手法と目的の違いに由来する.Tokimotoは文節を逐次的に提示し,人間が文の意味を正しく理解しているか否かを調査することを目的とする.対照的に我々の実験では被験者は実験中常に文全体を見ることができ,係り受け解析が正しく行えるかを調査することを目的とする.}最後に,我々の実験設定において係り受け解析をshiftreduce法に基づいて解析することが適切かどうか考察する.ゲームで提示されるトレイ(スタックおよびキュー)は文脈情報として,それぞれ3文節ずつの窓幅の情報を与える.1文節目と3文節目($\langle$$NP^{NOM}_1$,$V^{PAST}_3\rangle$)および2文節目と3文節目($\langle$$NP^{ACC}_2$,$V^{PAST}_3\rangle$)の係り受け関係を判断する際に6文節目の動詞$V^{PAST}_6$の情報はトレイには表示されない.しかしながら画面の上部には常に文の全体を表示しており,このshiftreduce法に由来するバイアスを低減している.尚,文全体を表示しない(つまり文末の文節を見せない)設定で実験を行った場合,全てCTRL文の構造に割り当てTokimotoらの方法と同じく再解析に陥ることが,被験者5人による事前実験によりわかっている.\subsection{人間と係り受け解析器の比較}\subsubsection{実験設定}\modified{\ref{subsec:5.1}節の心理言語実験で用いた60文を各種係り受け解析器で解析することにより,人間による結果と6種類の係り受け解析器の結果とを比較する.}KNP-3.01は形態素解析器JUMAN-6.0の出力を元とし,CaboCha-0.60pre4は形態素解析器MeCab-0.98+IPADIC-2.7.0の出力を元とする.この2つの解析器についてはデフォールトのパラメータ設定を用いる.さらに,ShiftReduce法\cite{Sassano04}に基づく実装を京大コーパス約8,000文で訓練したもの(ShiftReduce8K)と約34,000文で訓練したもの(ShiftReduce34K)の2つと,Tournament法\cite{Iwatate08}に基づく実装を約8,000文で訓練したもの(Tournament8K)と約34,000文で訓練したもの(Tournament34K)の2つを用いる.この4つの解析器では形態素解析器の出力としてJUMAN-6.0を,さらに正しい文節区切りを与え,機械学習器としてサポートベクトルマシンを用いる.学習器に与える素性については元の論文に可能な限り合わせた.\subsubsection{実験結果}表\ref{table:result:vsnlp}に人間の判断と6種類の解析器の判断に基づく文正解率を示す.表中[J]はJuman-6.0の出力を,[M]はMeCab-0.98+IPADIC-2.7.0の出力を用いていることを意味し,[GB]は正しい文節区切りを与えていることを意味する.フィラー列は一般的な文に対する性能を表す.全ての解析器はCTRL文において性能が良くLB文においては性能が悪かった.この結果より,解析器はCTRL文中の文節$NP^{NOM}_1$・$NP^{ACC}_2$・$NP^{DAT}_4$に対して正しい最も近い右要素$V^{PAST}_*$に係けることができているといえる.KNP-3.01のCTRL文に対する誤りは文節区切りの誤りであった.CaboCha-0.60pre4を含むshiftreduce法は近い係り受け関係を選好する傾向がある.実際,$\langle$$NP^{NOM}_1$,$V^{PAST}_3\rangle$もしくは$\langle$$NP^{ACC}_2$,$V^{PAST}_3\rangle$の係り受け関係を判断する際に,6番目の文節$V^{PAST}_6$は機械学習器の素性の窓幅の外側にあり評価されない.ゆえにこれらの解析器はEB文とLB文を全く解析できない.\begin{table}[t]\caption{文正解率(\%)(人間と解析器の係り受け解析判断)}\label{table:result:vsnlp}\input{02table03.txt}\end{table}Tournament法は長い距離で係る係り受け関係をステップラダートーナメントにより考慮することができるため,いくつかのEB文を解析できている.訓練データ量8,000文と34,000文との結果の差異は,係り受け関係$\langle$$NP^{NOM}_1$,$V^{PAST}_3\rangle$が8,000文データには出現しないが34,000文データには出現することによると考える.LB文については,京都大学テキストコーパスのタグ付け基準「格要素が両方に係る場合,主格以外は近い方に係ける」が影響していると考える.KNP-3.01がEB・LB文に関して最良の結果を達成している.KNP-3.01は格解析モデル\cite{Kawahara06}を含んでおり,EB・LB文の統語的意味的曖昧性をある程度解消できたのではないかと考える.EB・LB文を正しく解析するためには,共起の情報\cite{Abekawa06}・格フレーム情報\cite{Kawahara06}・格フレーム間遷移情報\cite{Kawahara09}を用いる手法が考えられる.特にLB文には次節で示すように生成モデルによる選択選好性のみでは解決できない文が含まれており,正しい解析のためには選択選好性と格要素の重複性排除の両方を同時推論する方策が必要であろう.\subsubsection{関連研究}Abekawaらは今回対象とした現象に似た関係節内の関係・外の関係の識別を行った\cite{Abekawa05}.本研究で扱ったCTRL文は外の関係に対応し,EB・LB文は内の関係に対応する.彼らは決定木モデルを用いて,共起情報・格フレーム情報・外の関係になる度合いを用いて,この2種類を識別する手法を提案した.\subsection{LateBoundary各文の分析}ここでは人間にも解析器にも解析が困難であったLateBoundary(LB)文について,統語的制約と選択選好性の観点から分析する.LB文は主節の動詞\modified{$V_{6}$}がガ格ヲ格ニ格の三項を取り,関係節内の動詞\modified{$V_{3}$}がガ格ヲ格の\modified{二項}を取る.関係節内の動詞\modified{$V_{3}$}が後置する係り先の\modified{$NP_{4}$}をヲ格として取るために二重ヲ格違反と常に左に係る統語的制約により一意に構造が決まる.これに対し「より近い要素に係ける」という選好性と,主節の動詞\modified{$V_{6}$}・関係節内の動詞\modified{$V_{3}$}間の選択選好性の強弱関係により,制約を無視してしまい誤るという傾向がある.より詳細に分析するためにLB文10文について,人の文正解率・KNPの結果・京都大学格フレームの頻度の大小関係・Googleのヒット件数に基づく正規化頻度の大小関係を表\ref{table:result:LB}に示す.\modified{京都大学格フレームの頻度について,$NP_{2}$vs$NP_{4}$は$NP_{2}^{ACC}V_{3}$と$NP_{4}^{ACC}V_{3}$で,$V_{3}$vs$V_{6}$は$NP_{2}^{ACC}V_{3}$と$NP_{2}^{ACC}V_{6}$で,それぞれどちらの頻度が高いかを表す.}尚,0は両方の組み合わせが京都大学格フレームに登録されていなかったことを表す.Googleの正規化頻度は,前者を$NP_{2}^{ACC}$と$NP_{4}^{ACC}$の件数で,後者を$V_{3}$と$V_{6}$の件数で正規化を行う.\modified{例文は人の文正解率の良い順に並べられ,下線は選択選好性が例文を正しく解析するために良い影響を与えるものを表す.}\begin{table}[b]\caption{LB文の実験結果と選択選好性}\label{table:result:LB}\input{02table04.txt}\end{table}KNPが正解している文は人間にとっても解析が容易で,LB文の人正解率が高い傾向にある.京都大学格フレームが例文の係り受け全てを被覆していないが,人と誤り傾向の相関があることがわかる.Googleの正規化頻度は全例文を被覆しているが,係り受け関係ではなく\modified{連続文字列}によるものなので,\modified{人間の誤り傾向とGoogleのヒット件数による選択選好性の間に矛盾があるところがいくつかある.}実際,3つの項をとる述語に対してガ格・ヲ格・ニ格の順に述語から遠く置かれる傾向にあることを考えると直接比較できるものではない.しかしながら,$NP_{2}$と$NP_{4}$のどちらが$V_{3}$に係るかを評価した際に京都大学格フレームだけでなく,Googleヒット件数でも$NP_{2}$の方が強い場合には,人も間違える傾向にあることがわかる.このことから選択選好性の強弱関係が統語的に制約に反している場合には人は係り受け構造同定を誤りやすいことがわかる. \section{おわりに} \label{sec:6}本稿では係り受けタグ付けにおける人間の誤り傾向を調査する新しい方法を提案した.作成したゲームではNintendoバランスWiiボードを入力デバイスとして,ShiftReduce法に基づき,被験者がどのように係り受け解析を行うかを記録することができる.実験対象として埋め込み文に基づくガーデンバス文を用いて格要素の係り先の誤り傾向を観察した.また,同じ文を,6種類の係り受け解析器で解析を行い,誤り傾向を比較した.さらに京都大学格フレームおよびGoogleのヒット件数に基づく選択選好性と誤り傾向の相関について調査した.調査結果より統語的制約のみで一意に文の係り受け構造が決まる場合においても,格構造の選択選好性の強弱関係により誤った係り受け構造を認識することがわかった.またその誤り傾向は従来の心理言語実験で行われている文の内容認識結果とは異なり,ヲ格を文末の述語に係ける文だけでなく,ガ格を関係節内の述語に係ける文でも係り受け構造同定をよく誤ることがわかった.本研究の今後の展開として真に統語的制約によって決まらない曖昧な構造の選択選好性の定量化がある.例えば図\ref{fig:juudouka}のような本質的に係り受け構造が曖昧な文を考える:関係節内の動詞「勝った」はガ格とニ格を,主節の動詞「紹介した」はガ格とヲ格とニ格を取りうる項構造を持つ.「「紹介した」が3つの項全てを埋める選好性」(図\ref{fig:juudouka}左)と「「勝った」のニ格が省略されない選好性」(図\ref{fig:juudouka}右)とで,どちらを優先するかにより本質的に曖昧である.統語的制約によって決まらない構造を,選好性に基づき決定する過程は人によって揺れる.この本質的に曖昧な構造に対して,複数人の判定がどのように揺れるかを定量的に評価することにより,係り受けアノテーション情報の重層化を目指したい.\modified{アノテーションスキーマとして一致率を上げる展開とは別に,}複数人のタグ付けが一致しない場合のその情報の保存という展開が考えられるのではないだろうか.\begin{figure}[t]\begin{center}\includegraphics{18-4ia920f4.eps}\end{center}\caption{本質的に係り受け構造が曖昧な文}\label{fig:juudouka}\end{figure}\acknowledgment本研究の遂行にあたり千葉大学伝康晴氏と奈良先端科学技術大学院大学情報科学研究科自然言語処理学講座の諸氏より助言をいただきました.ここに謝意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2005}]{Abekawa05}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQ{Corpus-basedAnalysisofJapaneseRelativeClauseConstructions}.\BBCQ\\newblockIn{\BemProc.ofthe2ndInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-05)},\mbox{\BPGS\46--57}.\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2006}]{Abekawa06}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2006\BBCP.\newblock\BBOQ{JapaneseDependencyParsingUsingCo-OccurenceInformationaCombinationofCaseElements}.\BBCQ\\newblockIn{\BemProc.ofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL-2006)},\mbox{\BPGS\833--840}.\bibitem[\protect\BCAY{Buchholz\BBA\Marsi}{Buchholz\BBA\Marsi}{2006}]{CoNLL06}Buchholz,S.\BBACOMMA\\BBA\Marsi,E.\BBOP2006\BBCP.\newblock\BBOQ{CoNLL-XSharedTaskonMultilingualDependencyParsing}.\BBCQ\\newblockIn{\BemProc.ofthe10thConferenceonComputationalNaturalLanguageLearning(CoNLL-X)},\mbox{\BPGS\149--165}.\bibitem[\protect\BCAY{Carreras}{Carreras}{2007}]{Carreras07}Carreras,X.\BBOP2007\BBCP.\newblock\BBOQ{ExperimentswithaHigher-orderProjectiveDependencyParser}.\BBCQ\\newblockIn{\BemProc.ofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL-2007)},\mbox{\BPGS\957--961}.\bibitem[\protect\BCAY{Eisner}{Eisner}{2000}]{Eisner00}Eisner,J.~M.\BBOP2000\BBCP.\newblock{\Bem{AdvancesinProbabilisticandOtherParsingTechnologies}},\BCH\{1.Bilexicalgrammarsandtheircubic-timeparsingalgorithms}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Iwatate,Asahara,\BBA\Matsumoto}{Iwatateet~al.}{2008}]{Iwatate08}Iwatate,M.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQ{JapaneseDependencyParsingUsingaTournamentModel}.\BBCQ\\newblockIn{\BemProc.ofthe22ndInternationalConferenceonComputationalLinguistics(COLING-2008)},\mbox{\BPGS\361--368}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara06}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{AFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis}.\BBCQ\\newblockIn{\BemProc.oftheHumanLanguageTechnologyConferenceoftheNorthAmaricanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL-2006)},\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2009}]{Kawahara09}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2009\BBCP.\newblock\BBOQ{CapturingConsistencybetweenIntra-clauseandInter-clauseRelationsinKnowledge-richDependencyandCaseStructureAnalysis}.\BBCQ\\newblockIn{\BemProc.ofthe11thInternationalConferenceonParsingTechnology(IWPT-2009)},\mbox{\BPGS\108--116}.\bibitem[\protect\BCAY{Koo\BBA\Collins}{Koo\BBA\Collins}{2010}]{Koo10}Koo,T.\BBACOMMA\\BBA\Collins,M.\BBOP2010\BBCP.\newblock\BBOQEfficientThird-OrderDependencyParsers.\BBCQ\\newblockIn{\BemProc.ofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1--11},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo02}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalyisisusingCascadedChunking.\BBCQ\\newblockIn{\BemProc.ofthe6thConferenceonNaturalLanguageLearning(CoNLL-2002)},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Mazuka,Itoh,\BBA\Kondo}{Mazukaet~al.}{1997}]{Mazuka1997a}Mazuka,R.,Itoh,K.,\BBA\Kondo,T.\BBOP1997\BBCP.\newblock\BBOQ{ProcessingdownthegardenpathinJapanese:processingofsentenceswithlexicalhomonyms}.\BBCQ\\newblock{\BemJournalofPsycholinguisticResearch},{\Bbf26}(2),\mbox{\BPGS\207--228}.\bibitem[\protect\BCAY{McDonald,Pereira,Ribarov,\BBA\Haji\v{c}}{McDonaldet~al.}{2005}]{McDonald05}McDonald,R.,Pereira,F.,Ribarov,K.,\BBA\Haji\v{c},J.\BBOP2005\BBCP.\newblock\BBOQ{Non-ProjectiveDependencyParsingusingSpanningTreeAlgorithms}.\BBCQ\\newblockIn{\BemProc.oftheConferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLangaugeProcessing(HLT-EMNLP-2005)},\mbox{\BPGS\523--530}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre03}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQ{AnEfficientAlgorithmforProjectiveDependencyParsing}.\BBCQ\\newblockIn{\BemProc.ofthe8thInternationalWorkshoponParsingTechnologies(IWPT03)},\mbox{\BPGS\149--160}.\bibitem[\protect\BCAY{Nivre,Hall,McDonald,Nilsson,Riedel,\BBA\Yuret}{Nivreet~al.}{2007}]{CoNLL07}Nivre,J.,Hall,J.,McDonald,S.K.~R.,Nilsson,J.,Riedel,S.,\BBA\Yuret,D.\BBOP2007\BBCP.\newblock\BBOQ{TheCoNLL2007SharedTaskonDependencyParsing}.\BBCQ\\newblockIn{\BemProc.ofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL-2007)},\mbox{\BPGS\915--932}.\bibitem[\protect\BCAY{Nivre\BBA\McDonald}{Nivre\BBA\McDonald}{2008}]{Nivre08}Nivre,J.\BBACOMMA\\BBA\McDonald,R.\BBOP2008\BBCP.\newblock\BBOQ{IntegratingGraph-BasedandTransition-BasedDependencyParsers}.\BBCQ\\newblockIn{\BemProc.ofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(HLT-ACL-2008)},\mbox{\BPGS\950--958}.\bibitem[\protect\BCAY{Nivre\BBA\Scholz}{Nivre\BBA\Scholz}{2004}]{Nivre04}Nivre,J.\BBACOMMA\\BBA\Scholz,M.\BBOP2004\BBCP.\newblock\BBOQ{DeterministicDependencyParsingofEnglishText}.\BBCQ\\newblockIn{\BemProc.ofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)},\mbox{\BPGS\64--70}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2004}]{Sassano04}Sassano,M.\BBOP2004\BBCP.\newblock\BBOQ{Linear-TimeDependencyAnalysisforJapanese}.\BBCQ\\newblockIn{\BemProc.ofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)},\mbox{\BPGS\8--14}.\bibitem[\protect\BCAY{Tokimoto}{Tokimoto}{2004}]{Tokimoto04}Tokimoto,S.\BBOP2004\BBCP.\newblock\BBOQ{ReanalysisCostsinProcessingJapaneseSentenceswithComplexNPStructuresandHomonyms:IndividualDifferencesandVerbalWorkingMemoryConstraints}.\BBCQ\\newblock\BTR\JCSS-TR-53,JapaneseCognitiveScienceSociety.\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1999}]{Goitokusei}天野成昭\JBA近藤公久\BBOP1999\BBCP.\newblock\Jem{{日本語の語彙特性第1期}}.\newblock三省堂.\bibitem[\protect\BCAY{寺村}{寺村}{1981}]{Teramura1981}寺村秀夫\BBOP1981\BBCP.\newblock\Jem{日本語の文法(下){\kern-0.5zw}}.\newblock国立国語研究所.\end{thebibliography}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年同大学助手,現在に至る.博士(工学).}\end{biography}\biodate\end{document}
V06N04-06
\section{はじめに} 我々が日常行っているような自由な対話では,人はどのようにして対話を進めているのだろうか.人に物を尋ねる,仕事を依頼するなどの明確な目標がある場合には,対話の方針(対話戦略)は比較的たてやすいと思われる.しかしながら,職場や学校での食事やお茶の時間,家庭での団らんの時などのおしゃべり,また様々な相談(合意形成,説得から悩みごと相談まで)では,どのようなが対話戦略が可能なのだろうか.そもそも,そのような対話に「対話戦略」と呼べるようなものは存在し得るのだろうか.このような対話では,個々の参加者が対話の流れを意図的に制御しようとしても,なかなかうまく行かないことが多い.むしろ我々は,対話の流れの中で次々と心に浮かんでくる言葉の断片を発話により共有化して,参加者全員で対話を作り上げているように見える.一見,成り行きに任せてしまっているようにみえるこの特徴こそが,実は対話の本質ではないだろうか.我々は,以下の二つの特徴を対話の見逃してはならない重要な側面と考える.\begin{description}\item[対話の即興性]対話は,相手とのインタラクションの場の中で生まれる営みであり,それぞれの場で要求される行動を採りつつ,自己の目的を実現するという高度の戦略が必要とされる.単純に予め立てておいたプランに従って進行させようとしても,対話は決してうまくいかない.\item[対話の創造性]お互いの持っている情報を交換するだけでは,対話の本来の価値は発揮できない.対話をすることで,1+1から2以上のものを生み出すこと,相手の発話に触発されて新しい考えが浮かび上がり,またそれを相手に伝えることで,今度は相手の思考を触発すること,このような正のフィードバックが重要である.\end{description}\hspace*{-0.5cm}我々は,対話のこの二つの側面,「即興性」と「創造性」をあわせて,{\bf対話の創発性}と呼ぶことにする.一見効率がよいように思えるパック旅行では新しい経験は生まれない.きちっとした計画のない自由な旅行でこそ,新しい経験が生まれ,新しい世界が見えてくるといわれる.対話においても,明確な対話戦略のあるようなタスクでは,なかなか対話の創発性は現れてこないものである.そこで,我々は対話の創発性が観測されるような対話を収集することを狙いとして,単純な対話戦略ではうまく機能しない状況を設定して,そこで行われる対話を調べてみることとした.以下2章では,これまでに作られてきた対話コーパスとの比較で,我々の目的としている対話の特徴を述べる.3章では,我々が行った協調作業実験の詳細を述べる.4章では収録対話のデータ構造と基礎的統計データについて述べる.5章では収録されたデータの予備的な分析として,共話と同意表現の使われ方について述べる.最後に,6章で考察を行う.\vspace{-10mm}\newpage \section{従来研究との比較} 発話音声を記録し分析することは,音声情報処理や自然言語処理の分野では以前から様々な機関で行われている\cite{TakezawaAndSuematsu1995}.課題遂行を目的として教示した状況での対話データの収集に関しては,地図課題\cite[など]{Anderson.etal.1991,Koiso.etal.1996a},ポンプ組み立て課題\cite{Grosz1977,Chapanis.etal.1977,Cohen1984},分割クロスワード問題\cite{Nakazato.etal.1995}など様々な研究が行われており,それぞれの課題の分類が\cite{Ishizaki.etal.1995}らによって試みられている.\cite{Ishizaki.etal.1995}にも記述されているように,従来の対話収集に用いられた課題では,\begin{itemize}\item環境C\item環境を認識する能力R\item環境を評価する能力E\item実行可能な行為A\end{itemize}の4点のうち,少なくとも1点以上の差が生じるよう実験の設定がなされている.また,それぞれの差が課題を遂行する上での発話の動機を与え,自然な役割分担を規定している.地図課題では,二人の話者がそれぞれ異なる地図を持ち,それぞれに情報提供者と情報追随者の役割が与えられる.ここでの課題は,情報提供者は自分の地図に記入されたルートを情報追随者に伝達し,相手の地図上のルートとして再現することである.この課題では,与えられた地図が異なっているという環境の違いから,両者に認識の差が生じている.また,情報追随者は再現したルートの正しさを評価できず,情報提供者は相手の地図に直接ルートを再現することができない.両者はこれらの差を,対話により解消しようと努力する.一方,「専門家」「初心者」二人の対面で行われるポンプ組み立て課題では,話者に与える作業環境,話者の認識能力は等しく,両者の間に差はない.しかしながら,この課題では,組み立てが適切に行われているかどうかという作業目標に対する評価は「専門家」の方のみが,また実際の組み立て作業は「初心者」の方のみが行い,対話はこの不均衡により誘発されることになる.また,分割クロスワード問題では,作業目標に対する評価,作業目標を達成するための行為は両者とも行うことができる.しかし,この課題では,クロスワード表は共通であるが,それを解くためのキー情報が分割されている.そこで,与えられた環境の差から,それぞれのキー情報の交換のための会話が行われる.以上のように従来の対話収集用課題では,対話を引き出すためにそれぞれの話者間に何らかの非対称的な制約を意図的に埋め込むことで,話者間に知識の差を生じさせている.このような状況では,被験者は実験者によって予め期待されている知識の差異に起因する対話を行うことになる.したがって,被験者には対話の戦略を選択するという余地はあまりなく,多くの発話は必然的に質疑応答形式や教示助言形式になってしまう.もちろん,このことが対話コーパスの均質性を保証し,制限された条件での対話モデルの構築を容易にする.しかしながら,1.で述べたようなもう少し自由な対話,我々が日常行っている対話の創発的側面を調べてみようとすると,これまでのような対話ではうまく行かない.そこで,単純な対話戦略ではうまく解決できないような課題を用いて,そこで行われる対話を収集する対話収録実験を行った\cite{YanoAndIto1996a,YanoAndIto1996b,YanoAndIto1996c}.これまでの検討から明らかなように,環境や,能力が非対称な場合,知識の差異が生じ,それを元にして自然な役割分担が決まり,また対話戦略もそれに応じて決まってしまうことが予想される.従って,我々は二人の参加者に知識の差異を生じさせる要素を持ち込まずに,対等な立場で対話を行えるような状況を設定した.また,解くべき課題についても,もし単純な解法が容易に見い出されるような課題であれば,それに従った対話となってしまうことが予想される(例えば\cite{Sato1996}).そこで我々が採用した課題は,単純な解法が存在せず,ある意味ではいくら考えても正解が出るとは思えないような心理的な問題を,参加者二人が相談して解き,一つの回答を行うというものであった.このような状況では,参加者は与えられた問題を解くことと並行して,うまく相手の意見を聞出し,相手と合意形成をしていく必要がある.そのためには,相手の立場を尊重した発話を行い,相手発話を直接否定したり,一方的に自分の意見を表明したりするような表現は避けること,一方では適切な表現を用いて自分の意見を表明し,相手の反応をもとにその評価を知ることなど,高度な戦略が観測されるのではないかと予想される.以下では,このような予想のもとに行った協調作業対話の収集実験と,そこで取得された対話コーパスの特徴を報告する. \section{協調作業対話実験の方法} 対話コーパス構築のための協調作業対話実験の方法について述べる.我々の目的は,協調的,創発的な対話の特徴は何か,また人はそのような対話を実現するためにどのような対話戦略をとっているのか,を調べることである.したがって,様々な実験条件の選択は,その目的に沿うように選択された.\subsection{被験者}\begin{itemize}\item被験者としては,お互いに初対面の女子大学生と,30歳〜50歳の主婦とを一組として行う\end{itemize}我々は,良く知っている相手との意思疏通に比べて,あまり良く知らない相手との意思疏通に困難を感じることが多い.よく知っている者同士では,互いに事前に持っている相手のモデルを利用することで,相手の発話や非言語情報から,それなりに相手の意図を推測することができる.これに対して,あまりよく知らない相手の場合には,相手の言動から相手のモデルを作ることと,それを用いて相手の意図を推測することを並行して行わなければならない.しかしながら,これでは相手の意図を推測するためには相手モデルが必要であり,相手モデルを推測するためには相手の発話の意図を正しく理解する必要があるという,鶏と卵のジレンマに陥ってしまう.例えば,良く知っている対話相手が「そうですねえ」という発話をした場合,それが単なる相槌なのか,またそれが同意の表現だとしてどのくらいの強さの同意なのかを知るためには,自分の持っている相手のモデルが極めて有用である.しかしながら,適切なモデルが欠如している良く知らない相手の場合には,そのような相手モデルは利用できず,相手の意図を正しく推測するためにも,また自分の言動が誤解されないようにする為にも,様々な対話戦略が必要であると思われる.我々は,良く知っている相手同士の組よりもそうでない組の方が,相手のモデル作りのために行う様々な対話戦略を明示的に実行するはずだと考えた.というのも,非明示的な対話戦略は,良く知らない相手に対しては,それ自体が誤解を引き起す恐れがあるからである.従って,初対面の組合わせを採用することにより,様々な対話戦略が観察されると考えた.以上のことから,我々の実験では,まったくの初対面同士を被験者の組とすることにした.また,たとえ被験者が初対面であっても,同世代の相手に対してはある程度のモデルをもっていることが予想される.ペアを構成する被験者を女子大学生と30歳〜50歳の主婦とすることで,モデル作りに努力がいる環境を設定した.被験者は38組76人(2人で1組)で重複はなく,実験後にお互いに知り合いでないことを確認した.\subsection{協調作業課題}協調作業課題は,二人で相談して一つの問題を解くことである.我々は,以下の性質に留意して問題を選択した.\begin{itemize}\item正解に導く手順,正解かどうかを判定する手順が存在しない問題であること\end{itemize}地図課題のように正解に導く手順が比較的容易に見い出せる問題では,どちらか一方が主導権を取り,その手順を実行するのが効率の良い戦略となる.またそうでなくてもパズルのように一旦正解が見つかれば容易にその正しさが合意できる問題では,正解を発見した被験者が相手の被験者に説明を行えばよい.このときの対話は,正解を発見した側が対話の主導権を取る教示形式となりやすく,情報も主として一方向に流れていくことが多い.このような一方向の情報の流れでは,それほど複雑な相手モデルを必要とする対話は生じないと思われる.なぜなら,発話者の目的が自分の方からの情報伝達だけであれば,相手が誤解しないような十分な情報を提供することで,自分だけで問題を解決できるからである.\begin{itemize}\item協調の効果が現れやすい問題とすること\end{itemize}二人で問題を解くという課題では,それぞれが個別に考えて見つけ出した回答から,どちらか1つの正解を選ぶという戦略と,最初から協調して正解を考えていくという戦略との二つが考えられる.もし,協調の効果が現れにくい問題を採用すると,発話に際して心的障壁の大きい初対面の相手に対しては,なるべく発話量の少なくなるような戦略,すなわち個別に見つけ出した正解からその1つを選ぶ戦略をとる可能性が高くなる.そこで本実験では,被験者間で協調的対話を奨励するために,協調の効果が表れやすい問題を選んだ.以上の2つの性質を考慮して,本実験では,「ボディーランゲージ解読法\cite{Archer1980}」の中から適当に選んだ問題10問を二人で協力して解くことを課題とした.これらは,写真中の人物の表情や仕草から正解を推測する問題である.問題に対する着眼点は写真中にいくつか存在し,被験者はこれらの着眼点を議論する形で対話を進めていくと考えられる.図1に我々の実験で用いた問題の一つ(第8問)の写真と問題文,回答選択肢を示す.\begin{figure}\epsfile{file=Q27h.eps,width=140mm}\begin{quote}\hspace{2.5cm}二枚の写真の右側の男性は,誰の父親だろうか\\\hspace*{3.5cm}a.少女の父親である.\\\hspace*{3.5cm}b.少年の父親である.\end{quote}\caption{第8問の写真と問題文\cite{Archer1980}}\end{figure}実際に図1の写真からも,「子供の抱き方」,「子供の表情」,「子供と顔が似ているか」などの着眼点を注意深い読者は発見できるであろう.正解は2択または3択の回答群から選ぶが,図1の回答選択肢からも解るように,いくら考えても回答を一意に絞り込むことは不可能である.しかし,着眼点の発見とその情報を交換することで,お互いに不明確・不確実だった状況が少しづつ明確になり,多様な視点から問題をとらえることができるようになる.このように,本問題は協力してじっくり考えれば正解率があがる問題であると考えられる.\subsection{実験環境}一般に,人と人との対面対話では様々なチャネルを通して膨大な量の言語,非言語情報が相互に一度に流れている.したがって,対面対話環境で収録された対話データの分析には相当の困難が伴う.そこで我々は,計算機を通した対話環境で実験を行うことで,情報の流れを制限することとした.実験では,被験者はお互いに相手に会わないようにして別々の部屋に入り,それぞれの部屋の計算機(SunSS5)を通して相手の被験者と対話を行う.協調作業時の対話環境を図2に示す.計算機のディスプレイには相手の顔画像,自分の顔画像,問題の写真,問題文,回答選択肢が表示される.被験者の顔画像は計算機の上に置いたビデオカメラにより撮影され,LANを介して相手の計算機ディスプレイ上に表示される.それぞれの顔画像の表示サイズは,横約6.5cm×縦約4.5cm(240dots×180dots),表示速度は約6フレーム/秒である.対話中の計算機画面の例を図3に示す.なお本実験では,ビデオカメラの位置と相手の顔画像表示の位置がずれているため,被験者同士で視線の一致をとることは出来ない.図3から分るように,ディスプレイ上には相手の顔画像だけでなく,被験者自身の顔画像も表示することとした.これは,自分自身の顔画像をみることで,\begin{itemize}\item自分が相手にどのように見えているかがわかり,安心して自然に発話できる\item自分の画像が常に見られていることを意識させることで,「対面」感を生み出す\end{itemize}ことができると考えたからである.また,被験者同士の顔画像表示場所と,問題の写真,問題文の表示場所がディスプレイ上で対角側に位置し,かなり離されている.これは,この2つを離すことで,被験者の顔画像,問題間の視線の移動を検知し易くするためである.顔画像はデータ圧縮の後,FDDI-LANを介して相手側計算機に伝送される.一方音声は,マイクロフォンで収集され直接(計算機を経由しない形で)相手側のイヤフォンに伝送される.\begin{figure}\vspace{-4.5mm}\begin{center}\epsfile{file=Fig2.eps,width=120mm}\end{center}\vspace{-5mm}\caption{協調作業時の対話環境}\end{figure}なお,対話環境の違いによる対話の比較を行うために,与えられた環境すべてを使う「画像と音声を用いた対話」条件と,自分と相手の顔画像が表示されない「音声だけの対話」条件の2つの条件で実験は行われた.実験は38組中29組が「画像と音声を用いた対話」条件,9組が「音声だけの対話」条件である.この環境で被験者達の発話および動作をビデオ(Hi8)に収録した.また,実験を行っている二人の被験者を同時にTVモニターに表示し,その画面と音声をS-VHSビデオテープに記録した.\subsection{実験手順}実験は1995年の2ヶ月間にわたって,郵政省通信総合研究所関西支所内の実験室で行われた.被験者二人の実験室は隔離されており,お互いの声はマイクロフォンを通してしか聞こえない構造になっている.同じ組の二人の被験者はそれぞれ別々の場所に集合し,オペレータに引率されてそれぞれの実験室に入る.被験者は互いに顔を合わせることが無いように配慮されている.被験者は,それぞれの実験室内で実験説明用ビデオにより実験内容を知らされる.ビデオは「画像と音声を用いた対話」用(約7分),「音声だけの対話」用(約5分)の2種類あり,「音声だけの対話」用は「画像と音声を用いた対話」用から互いの顔画像を見て対話できるという部分の説明を削除したものである.説明ビデオにおいて,この実験の目的は「計算機に相手の顔画像を表示した対話システムの有効性を調べるもの」であること,課題遂行にあたって「二人で十分に議論し協力して正解を見つけ,一致した回答を返すこと」と教示している.実験説明用ビデオによる説明終了後,実験オペレータが「二人で十分に議論し協力して正解を見つけ,一致した回答を返すこと」を再度確認した.最後に,被験者に互いにイヤフォンを着けてもらい,互いの音声が聞こえることを確認した後で,実験を開始した.各被験者は,10問の問題を1問づつ相談しながら解いていく.1問を解き終わり,各自が回答用紙に回答を記述する度に,回答への各自の自信度(0〜100\%)を,各自が独立に(相手に相談することなく)回答用紙に記入する.被験者の対話はオペレータにより常にモニタリングされており,被験者間で一致した回答が得られた段階で,次の問題が画面上に表示される.被験者はやり直したくても,問題を後戻りさせることはできない.被験者は協力して10問すべて解き終わった後に,本実験の本当の目的を告げられ,収録データの書き起しと,その学術目的での利用の許可の確認がとられた.その後,同じ文献から選ばれた別の10問の問題を,それぞれ別々の実験室で単独に回答した.このときも協調作業時と同様に,各自の回答への自信度を記述した.以下単独で解いた10問を問題群1,協調で解いた10問を問題群2と呼ぶ.なお,38組すべての対話実験終了後,単独で解いた問題群1と協調して解いた問題群2の成績の相関と問題の難易度を調べるために,上記対話収録実験を行っていない30〜50歳の主婦14人に対して,単独で2つの問題群を回答する実験を行った.以後これを比較実験と呼ぶ.\begin{figure}\begin{center}\epsfile{file=Fig3.eps,width=120mm}\end{center}\caption{対話中の計算機画面}\end{figure} \section{収録データ} \subsection{収録データの形式}対話データの書き起しは,実験終了後に被験者ペアの一方である女子大学生により,自分達の行った対話を書き起こすという形で行なわれた.その後,被験者となった女子大学生のうち3人により,すべての書き起こし文のチェックが行われた.さらにその後,実験に参加していない主婦により再度のチェックが行われた.書き起された対話データは,漢字仮名混じり文である.S-VHSテープに収録された音声データは16kHzでサンプリングされて,Unix上のraw形式の音声データファイルとして保存されている.また,収録対話について発話音声波形と書き起こしテキストを対応付ける作業を行い,得られたテキスト付き音声波形データを用いて対話を解析するツールとして,音声対話解析用ブラウザが整備された.図4に音声対話解析用ブラウザの表示画面と,割り付けられた書き起こしテキストの書式を示す.この音声対話解析用ブラウザでは,被験者A,Bの音声波形が別々のウィンドウに表示され,視覚的インターフェースで書き起こしテキストを音声波形に対応づけていくことができる.その結果は,時間情報付きの書き起こしテキストとして保存され,対話コーパスの一部を構成する.時間情報付きの書き起こしテキストのフォーマットは以下のようである.\\\hspace*{1.0cm}(発話開始時間\hspace{0.75cm}発話終了時間\hspace{0.75cm}発話片)\\\hspace*{1.0cm}(pause開始時間\hspace{0.5cm}pause終了時間\hspace{0.5cm}pause)\\一つの発話片が文以上の長さになった場合には,発話の弱くなっているところで10msecのpause区間を入れて文を強制的に分割する.また,二人の発話片が同じ意味を持ち,かつ時間的に重複している場合には,先行発話者の発話重複部分の先頭に強制的に5msecのpause区間を挿入して,重複部分の重なりを調べやすくしている.現段階では,うなずきや笑いなどの非言語情報,韻律情報を表示するためのタグ付けは行っていない.しかし,現在\cite{Araki.1997}にならってこれらのタグ付けを行うことを検討している.また,将来音声対話解析用ブラウザを含めて本対話デーベースの書き起し文,音声データを公開する予定である.\vspace{-3mm}\subsection{基礎的統計データ}本実験により,38組,約11時間の対話データが収集された.そのうち,「画像と音声を用いた対話」(以下「画像音声対話」)は29組約9時間,「音声だけの対話」(以下「音声対話」)は9組約2時間である.収録された対話コーパスの課題達成時間と総発話文字数を表1に示す.各組が協力して解いた問題群2の平均課題達成時間は,「画像音声対話」1144.3秒,「音声対話」739.7秒であり,画像音声対話の方が1.5倍長い.標準偏差は,「画像音声対話」は601.6秒とかなりばらつきが大きいのに対して,「音声対話」は154.7秒と小さい.同様に,被験者ペア毎の平均総発話文字数は「画像音声対話」が3989.3文字,「音声対話」2426.8文字と,「画像音声対話」のほうが「音声対話」に比べて1.6倍大きい.標準偏差もやはり「画像音声対話」の方が大きい.また,本実験では主婦の方が学生よりも発話量が多いことがわかる.なお,この総発話文字数は,書き起した漢字仮名混じり文をすべて仮名書きに直したものをカウントしている.\begin{figure}\begin{center}\epsfile{file=Fig5.eps,width=120mm}\end{center}\vspace{-1mm}\caption{収録対話のデータ構造}\end{figure}\begin{table}\vspace{3mm}\epsfile{file=Table1.eps}\caption{収録対話での課題達成時間と総発話文字数}\end{table}「画像音声対話」,「音声対話」の二つの協調作業実験と,比較実験での成績(正解数)と自信度を表2に示す.問題群2の成績に関しては,「音声対話」(平均5.5点),単独で解いた比較実験(平均5.5点)と比べて,「画像音声対話」(平均6.2点)の方が少し上昇している.標準偏差は「画像音声対話」の方が,「音声対話」,比較実験と比べて小さくなっている.また,問題群1\begin{minipage}{\textwidth}と2の成績に弱い相関がみられる.自信度については,単独で解いた比較実験(51.7\%)と比べて,協調した場合は「画像音声対話」(主婦76.2\%,学生76.4\%),「音声対話」(主婦75.7\%,学生76.8\%)と,共にかなり高くなっている.「画像音声対話」,「音声対話」の間,また学生と主婦の間での自信度の平均の差はほとんど無いが,標準偏差は成績と同様に,「画像音声対話」の方が,他と比べて学生,主婦共に小さくなっている.\end{minipage}\clearpage \section{収録対話の特徴} \vspace{-1mm}\subsection{共話}\vspace{-2mm}水谷によれば\cite{Mizutani1984,Mizutani1988},日本人の対話には,対話参加者が共同で一つの文,一つの話を作っていく{\bf共話}という現象がよく観測されるという.共話では,対話者は明確な発話権の交替の手続きにしたがって整然と対話を進めていくのとは違って,相手の発話に自分の発話を重ねる,合いの手として頻繁に相槌を挿入する,一つの文の途中で発話権を譲り渡すなど,これまでの対話管理モデルでは捉えきれないものを含んでいる.水谷も「話し手の自己主張よりも話し手と聞き手の良き人間関係を重んじるという立場に立てば,相槌は重要かつ不可欠のものとなる」\cite{Mizutani1988}と述べているように,共話は話し手と聞き手の良き関係を維持する機能を持っているようである.\begin{table}\epsfile{file=Table2.eps}\caption{収録対話での成績と自信度}\end{table}これまでの対話研究でこのような共話が見逃されてきたのは,「目的指向対話」では「相手との良き人間関係」などに配慮しなくとも,それなりの対話の目的が達成できると考えられてきたからであった.しかしながら,我々が対象としている創発的対話では,参加者皆が積極的に対話に参加するという雰囲気が重要であり,そのためには「相手との良き人間関係」への配慮は不可欠である.そこで,我々の実験ではこのような共話現象が多く観測されると期待されるが,実験の結果はそのような予測を裏付けるものであった.対話1では,発話者Bの発話「おとこのこ」に見られるように,相手の発話を単語レベルで反復することで,相手発話の確認をおこなっている発話を観察することができる.\hspace*{-0.5cm}{\bf対話1}\hspace{0.33cm}単語の反復(音声対話38-8)\footnote[1]{各対話には対話1の(音声対話33-8)のように番号がつけられている,ハイフンの前の数字は組番号(画像音声対話では1〜29,音声対話では31〜39)ハイフンの後の数字は問題番号(1〜10)を表す.},\footnote[2]{各対話はA,Bの2行1組で各行左から右へ時間が経過しており,空白部分(対話1ではAが「うーんおとこのこ」と言っている間のB)は発話していないことを表す.}\\A:うーん\underline{おとこのこ}\\B:\hspace{2.9cm}\underline{おとこのこ}\\\hspace*{-0.5cm}しかし,対話2,3のように,重複する部分が単なる単語ではなく,句になる場合がある.\hspace*{-0.5cm}{\bf対話2}\hspace{0.33cm}同一句の反復(画像音声対話23-8)\\A:なんかしょうねんとのほうが\underline{しぜんなかんじが}おちついているっていうか\\B:\hspace{4.6cm}\underline{しぜんなかんじが}しますね\\\hspace*{-0.5cm}{\bf対話3}\hspace{0.33cm}同意味句の反復(画像音声対話22-1)\\A:かなりなんか\hspace{0.18cm}\underline{としくって\hspace{0.18cm}そーーーーーーですよねー}\\B:\hspace{3.6cm}\underline{ねんぱいみたいですよねーーー}\\\vspace{-3mm}これらの2つの対話では,後発の発話者BはAの発話権を奪って発話しようとする意図をもっていない.BはAの発話を聞いて,創発してきたものを発話した結果として,相手発話に自分の発話が重なってしまったのである.この発話の重複で,後発発話者は相手への確認と同時に,相手への同意を表しており,先発発話者は,これにより相手が自分に同意していることを確認することができる.対話2,3のように同じ内容を表す二人の発話が重なる共話現象を{\bf合話}\cite{Ito1996}と呼ぶ.対話2では自然に二人の発話が重なっているのに対して,対話3では互いに長音を入れて調整することで発話の終了を合わせようとしていることがわかる.合話では,この様に「同じことを同期して発話する」ことが意図されているようである.対話4のように,Aの発話「なれてないかんじが」が,100msec程でBの発話「しますね」に滑らかにつながっていく共話現象である{\bf連話}\cite{Ito1996}も観察された.\hspace*{-0.5cm}{\bf対話4}\hspace{0.33cm}連話(画像音声対話23-8)\\A:なんてゆうか\hspace{2.7cm}\underline{なれてないかんじが}\hspace{1.3cm}するんでうーん\\B:\hspace{1.0cm}ひとのこやからだいじに\hspace{3.0cm}\underline{しますね}\\この対話では,Aが「なれてないかんじが」を発話した後に,Bに発話権を委譲し,Bが「しますね」と発話をつないで文を完結させており,これは共話の1つである.このように,連話では一方の話者が発話を完結せず,相手に発話権を委譲し,相手側が発話を完結する形で対話が進行する.本実験での課題のように,正解が明確でなく解き方も良くわからない問題では,発話者は自分の発話内容に自信がもてない場合がある.この時には,発話者は自分の意見を明言することを避け,相手に発話を委ねることができる.そして,相手の発話内容によって,相手の意見が自分の意見に合致しているかを判断できる.また,相手側は発話権をもらってその後を続けることで,単に自分だけで完全な文を発話するよりも,自分の意見の主張という色彩が弱まる.対話5のように連話をつくって相手と同意見を主張しようとしていたのに,結果的に相手の意見が自分と違っていて,連話が失敗した発話も観察された.\hspace*{-0.5cm}{\bf対話5}\hspace{0.33cm}連話の失敗例(画像音声対話21-5)\\A:おたがいをよくりしあっているという\hspace{0.17cm}\underline{そういうーーーーー}ふ\hspace{0.17cm}ふんいきは\hspace{0.17cm}うん\\B:\hspace{3.7cm}は\hspace{0.17cm}い\hspace{1.33cm}はい\hspace{0.83cm}\underline{ふんいきはしますよー}\hspace{0.17cm}ねぇー\\\vspace{-0.3cm}\\A:あっ\hspace{0.17cm}そうですか\hspace{0.33cm}\underline{あんまりしないなぁとおもって}\hspace{0.33cm}ははは\\B:\hspace{4.0cm}はぁ\hspace{1.33cm}あっ\hspace{0.75cm}そやちょっと\hspace{0.17cm}うーんなんか\\Aが「おたがいをよくしりあっているという」と発話した後で,Bは問題の中の人物が良く知り合っていると思い,またAも同じ意見を持っているだろうと思い,「ふんいきはしますよー」と連話の形で発話した.しかしながら,AはBと反対の意見を持っており「あんまりしないなー」とBの意見に同意をしておらず,ここで,AとBの同期が一時的に崩れている.このように,発話のタイミングとしては二人で一つの対話を作っているにもかかわらず,BがAの心を読み誤ることによって連話は失敗している.しかしながら,この一連の対話により,AはBの考えを引き出していることは重要である.Aが完全な文を発話することでBの反対意見を封じる可能性と比べて,この「失敗した連話」により良い関係が維持できたのではないかと思われる.このように共話は微妙な同期を必要とする.しかしながら,音声対話ではこのような同期が「画像音声対話」に比べて難しいようであった.たとえば,対話6の「でこの...」,「おとこ」に見られるように,二人の発話の開始が同時になり一方が中断することも観察された.これは,相手の顔画像が見えないために発話の同期がとりにくいことが原因であると思われる.\hspace*{-0.5cm}{\bf対話6}\hspace{0.33cm}発話の衝突(音声対話38-8)\\A:あにてるかもしれない\hspace{1.9cm}\underline{でこの}おとこのこはひだりのひとのこども\\B:\hspace{3.4cm}うんうん\hspace{0.6cm}\underline{おとこ}\\また,対話7のAの発話「どうどうですか」に見られるように,相手に発話権を陽に委譲して,直前の自分の発話(この例では「なんとなくおんなのこいやがってそうでしょ」)に対しての相手意見の確認をするための発話が観察された.\hspace*{-0.5cm}{\bf対話7}\hspace{0.33cm}相手への確認要求(音声対話38-8)\\A:おとこのこ\hspace{1.9cm}なんとなくおんなのこいやがってそうでしょ\\B:\hspace{1.6cm}おとこのこ\hspace{6.8cm}ふふ\\\vspace{-0.3cm}\\A:\underline{どう\hspace{0.3cm}どうですか}\\B:\hspace{2.9cm}おとこのこ\\これは,相手の顔画像を見ることができる画像音声対話では,自分の発話に対する相手の反応を見ることができるのに対し,音声対話ではそれができないためであろう.この対話についても,BがAの「いやがってそうでしょ」の部分に対して合話,連話などを用いて適切に対話を継続していれば,次のAの「どうどうですか」は出てこなかったと思われる.\subsection{同意表現}本実験では,相手と合意形成をしながら課題を遂行しなければならないために,対話中には相手への同意・不同意を表す様々な表現が観測される.そのなかで,主に使われているのは,相槌を用いるもの(対話8),相手発話を反復して合話の形で同意を表す同意共話\cite{YanoAndIto1997}(対話9)である.\hspace*{-0.5cm}{\bf対話8}\hspace{0.33cm}相槌での同意(画像音声対話22-8)\\A:ひだりがわのおとこのひとのようにみえますねえ\\B:\hspace{7.4cm}\underline{はい}\\\hspace*{-0.5cm}{\bf対話9}\hspace{0.33cm}同意共話(画像音声対話12-8)\\A:\hspace{1.65cm}\underline{おんなのこのほうがにてる}\\B:\underline{おんなのこのほうがにてるわねー}\\相槌や同意共話には,同意以外にも確認などの意味を持たせることができる.また,これらは韻律を変えることでその意図の強さだけでなく,複数の意図を含ませることができる.本実験では,初対面の相手との関係を課題遂行中にうまく保っていくために,相槌や同意共話が使われたと考えられる.一方,通常は同意に解釈される言葉でも,暗に不同意を表していると思われる例も観察された.「なんとなく」(対話10),「そうか」(対話11),「そうですねえ」(対話12)などは,同意と解釈することも可能であるが,表層データだけでは本当に同意しているのかどうか分らない.発話者はこれを逆に利用して,表層では同意を表すが,韻律を操作することで,自分の意図が不同意であることを暗に伝えることができる.\hspace*{-0.5cm}{\bf対話10}\hspace{0.33cm}同意にも不同意にも解釈できる「なんとなく」(画像音声対話10-8)\\A:\\B:かおもおんなのこだっこしてるときのほうが\\\vspace{-0.3cm}\\A:ああ\hspace{0.17cm}\underline{なんとなく}\hspace{0.83cm}うーーーん\\B:\hspace{1.66cm}なんとなくやわらかいかんじがするんですけどー\\\hspace*{-0.5cm}{\bf対話11}\hspace{0.33cm}曖昧な同意を表す「そうか」(画像音声対話2-3)\\A:\hspace{2.7cm}はは\hspace{4.05cm}ははっ\\B:こんどはぜんぜんたにんどうしかなとおもうんですけど\\\vspace{-0.3cm}\\A:あぁそっ\hspace{0.66cm}\underline{そうか}\hspace{0.17cm}でもすっ\hspace{0.17cm}\underline{そうか}\hspace{0.17cm}たにん\\B:\hspace{1.82cm}はーあ\\\vspace{-0.3cm}\\A:\hspace{1.83cm}ともだちっぽいかなとおもったんですけど\\B:っとうーん\hspace{4.53cm}うーんうんうん\\\hspace*{-0.5cm}{\bf対話12}\hspace{0.33cm}「そうですねえ」での検討中(画像音声対話1-8)\\A:なんか\hspace{0.33cm}だかれてりらっくすしてるかんじもせん\hspace{0.17cm}でもないかなっ\hspace{0.17cm}ていう\\B:\hspace{7.23cm}うーん\hspace{1.0cm}うんうんうん\\\vspace{-0.3cm}\\A:きも\hspace{4.66cm}どうだろう\\B:\hspace{0.66cm}\underline{そうですねえ}\hspace{1.0cm}うーん\hspace{1.33cm}どうかなあむずかしいなあ\\相手の発話に同意できない,またはしたくない場合に,この方法で発話すれば,「私はそうは思いません」や「それはちがうと思います」の様な明確に不同意を表す発話よりも,相手との関係を上手く保つことができる.また,「そうですねえ」,「そうだなあ」を用いた場合は,同意だけでなく自分の意見がまとまってなく,検討中であることを表すこともできる. \section{考察} \subsection{顔画像の有効性}協調作業実験では「画像音声対話」,「音声対話」の二つの条件で実験を行ったが,図3に示されているように表示される互いの顔画像が小さいため,当初は「画像音声対話」と「音声対話」では成績,自信度ともにほとんど差がでないのではないかと心配していた.しかしながら,被験者の自主申告した自信度はそれほど変わらないものの,成績は「画像音声対話」の方が,「音声対話」条件や単独回答条件よりも高いという結果になった.このことから,本タスクではうまく協調すれば成績は上がり得ること,また協調のために顔画像が一定の役割を果たしていることが分かった.一方,課題達成時間と発話文字数は共に「画像音声対話」の方がかなり大きくなり,著者の予想に反した.これは,被験者が実験終了後のアンケートで「画面が小さく相手の表情がわからない」,「相手と目線を合わせられない」と述べている程度の顔画像でも,被験者の対話行動にそれなりの影響を与えていることが分かる.対話時間,発話量が顔画像があると大きくなることは一見不思議に見えるが,これについては他の対話実験でも観測されており,普遍的な現象のようである\cite{Young1994}.これは,おそらく顔画像の存在により対話に対する精神的プレッシャーが少なくなり,対話が長続きするのではないかと思われる.また,顔画像表示画面が小さかったことも「画像音声対話」の発話の促進に良い影響を与えたと思われる.我々が対面対話をするときには相手を見ながら話すが,必ずしも常に相手の顔や目を見ながら話しているわけではない.自分の意見や重要な事を話すときには相手を見ながら話すが,それ以外の時にはそれほど相手のことを直接見ることはない.実際に互いに相手をずっと見ながら対話をすることは,心理的に非常に疲れる行為である.これは,相手からの視線をずっと意識することでうっとうしくなり,対話を継続しようとする意識が希薄になるからだと考えられる.我々の実験では,顔画像が小さかったことと,問題表示部分と顔画像表示部分が離れていることで,対話参加者が必要なときには相手を見ることができ,そうでないときには視線をはずして問題を見ることで,対面対話に近い対話が実現されたと思う.これは,今後のテレビ電話の利用方法に一つのヒントを与えてくれるものと思われる.\subsection{共話}従来の対話収録実験では,話者の目的は与えられた課題を協力して遂行することであり,その時に話者に必要なことは「自分に必要な情報を適切に相手から得て,相手に必要な情報を適切に与える」ことであると考えられてきた.したがって,この課題遂行中の話者の間には,話題展開のための情報の提供が互いに行われている.喜多はこれを「{\bf本質的に非対称的な行動の流れ}\cite{Kita1996}」と呼んだ.これに対して,喜多は日本人の対面コミュニケーション中には,話者間に良い関係を作っていくための{\bf本質的に対称的な行動の流れ}が存在し,それは言語のチャンネルにおいて主に交代のリズムとして現れるとも述べている.解き方が良く分からず,互いに意見を出し合いながら課題を遂行する場合には,情報の提供,取得という本質的に非対称的な行動だけでは,心を持たない機械同士の対話のようになってしまう恐れがあり,互いに協調しようとする気持を殺いでしまうことにもなりかねない.うまく作業を進めるためには,本質的に対称な行動である交代のリズム作りをうまく行い,相手との良い協調関係を作っていくことが不可欠である.創発的対話における共話は,この様な交代のリズムを作るための道具であり,良い関係を作っていくために有効である.実際に,対話4では話者は意図的に細切れに発話することで,発話途中にポーズが入り交代のリズムを作っている.また,対話3,5では発話の最後を長音化することで相手に発話のタイミングを与え,交代のリズムを作りやすくしている.これらの方法を用いて対話のリズムを話者が互いにうまく作ることで,互いの良い関係を維持していると思われる.また,このような形で,同期の取れた対話ができた時には,互いにうまく合意できたという一体感も得られるものと思われる.\subsection{同意表現にあらわれる相手への配慮}地図課題対話では小磯等が重複発話の中で日本語の対話に特有に現れるものを2つに分類して,相手の発話に同調しているかのように発話を重ねる{\bf同調型}と,相手の発話を繰り返す{\bf反復型}があることを述べている\cite{Koiso.etal.1996b}.そこでは,これらの発話を{\bf確認行為}として位置づけている.本実験でも,対話1の話者Bの発話「おとこのこ」に見られるように,相手の発話を単語レベルで反復することで,相手発話の確認をおこなっている発話を観察することができる.しかし,「画像音声対話」では対話2〜4,9のように合話や連話を使って,相手発話への同意を行っており,重複発話も単なる確認行為以上の役割を果たしている.目的指向の対話では,課題遂行のために明確な同意表現が使われ,発話相手にもそれが要求される.しかし,本実験のように相手と良い関係を作って合意形成を行わなければならない課題では,明確かつ断定的な同意表現の多用は,独断的で協調して問題を一緒に解いていこうとする意思が弱いと判断される.例えば,対話2でBがAの発話後に「私もそう思います」と言い切ってしまった場合には,その時点で「少年との方が自然である」ことに関する話題は終わってしまう.このとき,Aがそのことを確信して発話したのであれば,ここで話題が終わってしまってもAにとっては何の問題も生じない.しかし,Aは「少年との方が自然」かもしれないが自信はなく,Bと相談をしようとして発話した場合には,Aはその目的を達成できず,AB間の良い関係を維持することができない.そこで,Bは合話の形でAへの同意を表したと考えられる.また,対話4ではBが連話の形で同意を表すことで,共話の持つ交代のリズムをうまく作り,相手との良い関係を作ろうとしている.一方,対話8では相槌を使って同意を表している.このときの相槌「はい」は,相手への同意を表す以外にも,交代のリズムを作ることで相手への発話の継続を促しているとも考えられる.相槌も同意共話と同様に,同意を表すことに加えて,交代のリズムを作り出すことで相手との良い関係を作り出すことができると考えることができる.したがって,収録対話中に被験者たちは相手との良い関係を崩すこと無く同意を表すために,相槌と同意共話を使ったと考えられる. \section{おわりに} 我々は,対話における重要な2つの側面「即興性」「創造性」に注目し,その2つが満たされている,創発的な対話の収録を行った.対話の創発性が観測されるように,事前に正解を導く手順が存在しない問題を初対面同士で解くという,対話戦略を立てるのが困難な状況を設定し,そこでの協調作業実験対話を収録した.また,収録対話を収録音声波形と対応付け,対話分析用のコーパスとして整備した.得られた対話コーパスでは,発話権を上手く操作することで二人で一つの発話文を完成させる共話,合話・連話,相手への同意を表すための相槌,同意共話など,相手との良い関係を維持するための行為が観察された.これらの行為の特徴をさらに分析し,対話システムに実装することで,合意形成のように話者間の良い関係を必要とする対話が,システムと人との間で可能になるだろう.今回の対話収録実験では被験者を年齢層の異なる初対面の女性同士に限定した.合意形成においては互いの年齢層の違い,親密度等により発話形態がかなり変わってくると考えられ,異った条件での対話の収録とその分析も興味ある課題である.\bibliographystyle{jnlpbbl}\bibliography{v06n4_06}\begin{biography}\biotitle{略歴}\bioauthor{矢野博之}{1986年東北大学工学部通信工学科卒業.1992年同大学院工学研究科博士課程単位取得退学.同年,郵政省通信総合研究所入所,現在,同所関西支所知識処理研究室主任研究官.博士(工学).発話の認知モデル,自然言語処理の研究に興味を持つ.日本認知科学会,人工知能学会等の各会員.}\bioauthor{伊藤昭}{1972年京都大学理学部物理学科卒業.1979年同大学院理学研究科博士課程終了.理学博士.同年,郵政省電波研究所(現通信総合研究所)入所,同関西支所知識処理研究室長,研究調整官をへて,現在山形大学工学部電子情報工学科教授.知識処理,対話システム,ヒューマン・インターフェース,エージェントモデル,コミュニケーションの認知機構などの研究に従事.人工知能学会,電子情報通信学会,情報処理学会,日本ソフトウェア科学会,ACM,AAAI各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V04N04-03
\section{はじめに} アスペクトとは,動きの時間的な局面を問題にして,どの局面をどのように(動きとして,あるいは状態として)とらえるか,ということを表すカテゴリーである.『国語学大辞典』\cite{Kokugo93}で「アスペクト」の項をひくと,\begin{quotation}動詞のあらわす動作が一定時点においてどの過程の部分にあるかをあらわす,動詞の形態論的なカテゴリー.たとえば,「よみはじめる」はよむ動作がはじまることを,「よんでいる」は進行の途中にあることを,「よんでしまう」は動作がおわりまでおこなわれることを,「よんである」は,動作終了後に一定の結果がのこっていることをあらわす.アスペクトは,時間にかかわるカテゴリーであるが,テンスとちがって,はなしの時点との関係は問題にしない.(後略)\end{quotation}とされている.当然のことながら,動詞句の実現するアスペクト的な意味は,動詞の性格と密接に関係する.金田一は,動詞を継続動詞と瞬間動詞にわけ,継続動詞が「している」になると進行態(進行中の意味)となり,瞬間動詞は既然態(結果の状態の意味)になるとした\cite{Kindaiti76}.このほか,結果動詞と非結果動詞,さらに,変化動詞,出現動詞,消滅動詞,設置動詞などと,さまざまな分類がなされてきた.英語においても,Vendlerによるactivities,achievements,accomplishments,statesというような分類\cite{Vendler57},あるいはComrieによるactions,states,processes,eventsのような分類がある\cite{Comrie76}.しかし,近年の研究は,動詞句の分類とそれぞれの意味を記述していく段階から,副詞的成分などの関わりを含め,アスペクト的な意味の決まり方のプロセスを整理する方向へと発展してきている.たとえば,森山は,「結婚している」という句が,通常,結果の状態をあらわすのに対し,「多くの友達が次々と結婚している」といった場合には,繰り返しとしての進行中と解釈されるなどの例を挙げ,最終的なアスペクトの意味が,格成分,副詞などを含めた包括的なレベル(森山氏はこれをアスペクトプロポジションAPと呼んでいる)において決められることを指摘している\cite{森山83,森山88}.本稿では,アスペクト形式\footnote{派生的にとらえられる文法的な形態素を形式と呼ぶ.本稿では,「シ始メル」などの複合動詞も含め,動詞に後続する要素をアスペクト形式とよぶ.}や副詞句の意味を時間軸におけるズーミングや焦点化といった認知的プロセスを表示するものとしてとらえ,動詞句の意味に対する動的な操作であると考える.次節では,これらの概念について,一般的な説明を与える.第3節では,動詞句の意味を素性によって表現し,それに対してアスペクト形式や副詞句が具体的にどのような操作をするかを明らかにする.第4節では,動詞句の意味をコーパスに現れた表層表現から推定し,6種類のクラスに分類する実験の方法と結果および評価を述べる.実験結果の評価は,最も基本的なアスペクトの形態である「シテイル」形の意味を自動的に決定する処理によって行なった.動詞句の分類自体は,客観的に評価することが難しいからである. \section{ズーミングと焦点化} ここでは,次節で述べるアスペクト形式や副詞の行なう操作的な作用の基礎となる概念である{\bfズーミング}と{\bf焦点化}について説明する\footnote{本稿は,これらの操作に対して,形式的な表現を与えるものではない.形式化によって,一般的な適用可能性と柔軟性が失われるおそれがあるからである.時間表現の形式的表現については,\cite{原88},\cite{郡司94},\cite{金子95}など参照.}.ズーミングとは,テレビカメラが行なうように,対象をアップで撮るか,ロングで撮るかを自由に変えることをいう.前者をズームイン,後者をズームアウトと呼ぶ.人間は,同一の客観的事象に対して,異なる表現をすることができる.たとえば,人が死んだのを見て,他殺であっても加害者を明示せず,自動詞を用いて「死んだ」といえるし,自殺や病死であっても,「社会(病気)が人を殺した」と他動的表現をすることができる.ある事態を叙述するためには,その事態に関与する人および物の中から,表現する範囲を限定し,枠組を設定しなければならない.この枠組のことを「認知のスコープ」と呼び,それを変更すること,すなわち,新たな枠組を設定することをズーミングと呼ぶ.他方,焦点化とは,レンズの焦点を絞るように,ある対象に注目して事態を叙述することをいう.「地震が家を倒す」のと,「家が地震で倒れる」のとで,実際の地震に区別はない.ただ,人間が地震を主にして考えるか,家を主にするかの違いである.どの概念に焦点をあてるかによって,動詞句の構造は大きく変わることになる.ズーミングや焦点化という用語は,カメラのメタファーを用いているために,視覚的操作であるかのような印象を与えるかもしれない.実際,人間は視覚器の水晶体や虹彩を使って,これらの処理を行なっている.しかし,ここでいうズーミングや焦点化は,感覚器の行なう処理ではない.われわれの眼が言語表現を決定するわけではない.知覚系を通過して脳に入ってくる情報を処理する形式そのものとして,これらの概念を想定しているのである.したがって,これらの処理を視覚系に限定する必要はない.本稿では,これを時間軸上に適用する.人間は,存在を三次元空間と時間とを用いて認識している.そして,時間軸は空間の軸とは独立なものとして取り扱い,それを当然のことだと思っている.それで,ズーミングや焦点化といった空間のメタファーをアスペクトのような時間に関わる概念に対して適用すると,奇異な感じをもたれるかもしれない.しかし,時間と空間とは,いつも相関関係をもっている\cite{本川92}.空間と時間,構造と機能などの二分法をもたらすものは何か.それは,視覚と聴覚という二つの認識系であると考える.視覚の特質は,時間という要素が抜け落ちていることである.写真は瞬間の像である.一方,音は,画像とは違って,時間軸の上を単線で進む.ところで,言語には視覚によるものと聴覚によるものがある.われわれは両方を言語と呼ぶ.視覚と聴覚の一次中枢からの情報に,順次,高次の処理を重ねてゆく.すると,いつのまにか視覚と聴覚の情報が体系的に一致し,ある程度交換可能になる.ここに言語が成立する.刺激の種類も時間に関わる性質も全く異なる二つの感覚を「言語」として統一する\footnote{この考え方は,\cite{養老89,養老96}による.}.その統一の具体的な過程のなかに,ここでズーミングと焦点化と呼ぶ機能が含まれていると考えるのである.ごく単純化していえば,焦点化とは,入力に対する「重みづけ」である.人間が知覚に基づいて世界像を形成する際に,われわれはその入力に対して適当に重みづけをすることができる.最も重みづけされた入力の部分,それが焦点化された部分である.入力に対する重みづけに関して,ある閾値を設定する.この閾値を越えた部分だけが意識にのぼり,認知のスコープを形成する.さらに,重みづけの順位により,ある種の構造が創出される.すなわち,ズーミングとは,入力に対する重みづけの変更に他ならない.さて,上述のように,視覚には時間の要素が抜けている.一方,聴覚・運動系では時間は流れる.両者の連合を可能にするためには,単位的な時間が必要である.これをわれわれは瞬間という.ユークリッド幾何学では直線を点の集合とみなす.視覚の生理学は,視覚系におけるニューロンの直線状の受容野は,同心円状の受容野をもつ複数の下位のニューロンからの入力であることを示した\cite{養老89}.早い話が,そこでは,直線は点の集合なのである.同様の処理が時間という仮想的な次元で行なわれていると考える.瞬間の集合が時間軸を構成する.具体的には,映画のフィルムのコマ送りを思い浮かべればよい.それぞれのコマの集合に重みをつけることによって,ズーミングや焦点化という概念を時間軸上に適用することができる.時間を基礎的に特徴づけるものは変化である.変化がなければ時間はない.それが絵や写真である.しかし,変化のみであれば,ふたたび時間はないであろう.そこでは,時間は変化と同義になってしまう.そこに持続が必要となる.変化と持続の繰り返しのパターンが,動詞のアスペクトの類型を与える.本稿では,その類型を素性によって表現する.また,変化は時間軸をいくつかの部分に分割する.この時間的な断層によって,焦点化の単位が発生する.ある種の格成分は,その内在的な特性によって,この断層をもたらすことができる.「パンを食べ」てしまえば,それ以上「食べる」ことはできない.「学校に」着いてしまえば,同じ「学校に行く」ことはできない.ある種の副詞は,この分割された時間軸の一部分を修飾する.修飾するとは,より詳しく述べることである.詳しく述べるためには,ピントが合っていなければならない.これを焦点化というのである.さらに,アスペクト形式は,動詞語幹によって叙述されるコト的意味(プロポジション)に新たな枠組を押しつける.多くの形式が与える枠組は,時間軸上で分割された部分あるいは分割点の内の一つである.もとの動詞のアスペクトから見れば,枠が縮小されることになる.これをズームインというのである.副詞による焦点化も形式によるズームインも,もとの動詞のアスペクトと整合していなければならない.この制約を用いて動詞のアスペクトの類型を推定することが,本稿の目的の一つである. \section{アスペクト決定の過程} \subsection{素性による動詞句分類}本節では,動詞句の最終的なアスペクトの意味の決まり方を前節に述べた操作に基づいて記述するのであるが,その前に,操作が適用されるべき動詞のアスペクト的な意味を考えておく必要がある.ここでは,森山1983で抽出された素性に基づいて,動詞を六つのカテゴリーに分類する.森山は,動詞のアスペクチュアルな素性として,持続性,過程性,終結性,進展性の四つを挙げている.ただし,対象とされているのはアスペクトの対立のある動詞(「スル」形と「シテイル」形が意味的に異なる動詞)であるので,これらを状態性の動詞(「ある」,「いる」など)から区別するための素性として,動作性を追加する.なお,このうち,動作性(dynamic),一点性(atomic)\footnote{atomicとは,動きが点的であることを表し,持続性と対立する概念である.したがって,持続性のあるものは,$-$atomicである.},終結性(telic)については,\cite{Bennett90}や\cite{Dorr93}などでも用いられている.{\bf動作性(dynamicity)}とは,述語が動きを表す(+d)か,状態を表すか($-$d)を区別するための素性である.一般に,日本語の動詞は無標では動きを表し,「テイル」をつけて状態化するのが普通であるが\cite{Talmy85},状態的な動詞は「スル」形で状態を表す.動きを表す動詞の「スル」形は一般に未来を表すのに対し,状態的な動詞の「スル」形は現在を表す.この違いは,意味的なものであり,単に「テイル」がつくつかないという違いではない.{\bf持続性(durationality---non-atomicity)}とは,動詞の表す動きや,それによって生ずる事態に,何らかの持続的な期間が存在することを表す素性である.持続性があれば($-$a),「シ続ケル」「シナガラ」などの形式が承接し,単純な期間成分(「〜間」,「暫く」など)が共起しうる.持続性には,動きそのものが展開する持続(「勉強し続ける」)と,動きの結果を維持する持続(「下を向き続ける」)の二種類がある.前者を{\bf過程持続},後者を{\bf結果持続}とよぶ.{\bf過程性(process)}とは,上述した過程持続に関する素性であり,動きが展開する持続があるかどうかを区別するものである.過程性があれば(+p),「シテイル」形が進行中の意味で承接しうるし,「シ始メル」,「シ出ス」,「シカカル」,「シカケル」などの始動を表す形式が承接する.ただし,「シカカル」,「シカケル」は,動きの前段階をあらわすこともあるので,純粋に始動を表すとはいえない.{\bf終結性(telicity)}とは,動きに終わりの点があるということを表す素性である.もちろん,過程性を前提とする.終結性があれば(+t),「シ終ワル」,「シ終エル」など,終結点を取り出す形式が承接するほか,「〜間カカッテ」という稼働期間を表す成分と共起しうる.{\bf進展性(graduality)}とは,動きの中に何らかの変化が内在していて,時とともにその程度が深化進展するという素性である.進展性があれば(+g),「シテイク」,「シテクル」,「シツツアル」などの形式が承接する(これらは,進展性以外の用法もある)ほか,「次第に」,「徐々に」などの副詞が共起しうる.以上の五つの素性の組合せにより,動詞を分類することができる.各素性には依存性がある(過程性がなければ終結性はないなど)ので,6種類のカテゴリーが考えられる(表\,\ref{tab:category}).ここでは,わかりやすさのために各素性を``+'',``$-$''によって二分したが,各素性には段階性があり,明確な境界が存在するわけではない.形式の承接についての容認性にも,言いやすいものと言いにくいものなどの段階性があろう.したがって,それによって定義されるカテゴリーもプロトタイプ性を含んだものとなる.すなわち,そのメンバーには典型的なものと周辺的なものが存在し,カテゴリーの間に明確な境界は存在しない.\begin{table}[h]\caption{素性による動詞分類}\label{tab:category}\centering\begin{tabular}{|l|l|l|}\hlineカテゴリー&素性表現&動詞の例\\\hline\hline1.状態的&[$-$d]&ある,いる,そびえる\\\hline2.一点的&[+d,+a]&ひらめく,見かける,飽きる\\\hline3.変化+結果持続&[+d,$-$a,$-$p]&座る,立つ,ぶらさがる\\\hline4.過程+結果持続&[+d,$-$a,+p,+t]&殺す,着る,開ける\\\hline5.非進展的過程&[+d,$-$a,+p,$-$t,$-$g]&歩く,言う,歌う\\\hline6.進展的過程&[+d,$-$a,+p,$-$t,+g]&腐る,高まる,近付く\\\hline\end{tabular}\end{table}\vspace*{-2mm}表\,\ref{tab:category}において,{\bf1.状態的動詞}とは,動作性のない動詞($-$d)である.動作性がないとは,動きのあり方に質的な断層を前提しないということであり,その動詞の表す状態が時間的に連続的なものとして取り上げられる(後述).状態的な動詞には,存在を表すものと,性質を表すものがある.{\bf2.一点的動詞}とは,一時点的な動きを表す動詞である.これには,「ひらめく」,「命中する」など無変化で一時点的な動きの他に,「死ぬ」のように,永続的な変化を表すものが含まれる.永続的な変化は,結果が非可逆的であるので,結果の持続を取り上げることができない.そこで,「*死に続けた」,「*しばらく死んだ」などが言えないとともに,「シテイル」形が,変化の結果のありさまを述べる意味と,かつてその動きがあったということを表す経歴の意味と中和的になる(後述).{\bf3.変化+結果持続動詞}とは,変化によってある状態が成立し,その結果が持続されるという意味の動詞である.ただし,過程性がないので,動きの展開や変化の過程が取り上げられることはなく,「シテイル」形は進行中の意味にならない.主に姿勢や態勢を表す動詞が多い.{\bf4.過程+結果持続動詞}とは,過程によって主体あるいは客体に変化が生じ,その結果が持続されるという動詞である.「窓を開け続ける」,「窓を開けている」のように,「シテイル」,「シ続ケル」の意味は,進行中の意味と結果の持続の意味の二つがありうる.{\bf5.非進展的過程動詞}とは,動きの展開する過程のみを有するものであり,変化を表さない.動詞だけを取り上げれば終結性はないが,対象にくるものの性質や明示的に終点を表す格成分によって終結点が設定されうる.また,動きの全体量を規定することによっても終結性を持ちうる(後述).{\bf6.進展的過程動詞}とは,進展性を持つ動詞であって,変化をもたらす過程の部分が漸次変化を表すものである.進展的な場合は終結点が設定されないのが普通であるが,副詞等によって,終結点が設定される場合がある(後述).Vendlerの分類では,1がstates,2,3がachievements,4,6がaccomplishments,5がactivitiesとなる.それぞれのカテゴリーは,変化があればその変化が主体の変化か客体の変化か,結果の持続があればその持続が主体的(意志的)になされるか否かによって,さらに細分することができるが,副次的なものであると考える.\subsection{アスペクトに関わる領域}動詞句全体のアスペクトは,{\bf動詞$\rightarrow$格成分$\rightarrow$副詞$\rightarrow$形式}の順序で未分化な状態から分化したものへと変わってゆく.その際,動詞に固有に備わっている素性によって制約を受ける.ここでは,上に述べた動詞のアスペクトに対して,これらの要素がどのように働きかけるかという点について述べる.\subsubsection{格成分}動詞句の意味を考えるうえで,最も重要なものは格成分である.Tennyは,``mesuringout''および``terminus''という概念を導入して,動詞のとる項(argument)とアスペクトの関係を詳細に記述している\cite{Tenny94}.``mesuringout''とは,動きの全体量を規定することであり,これによって終結性のない動詞に終結性を付加することがある.この役割は,internaldirectargument(概略,他動詞目的語および非対格動詞(unaccusative)の主語に相当する)のみが担うことができる.例として,Tennyは,incrementalthemeverbs(`eatanapple',`buildahouse'など),change-of-stateverbs(`ripenthefruit'など),pathobjectsofrouteverbs(`climedtheladder',`playasonata'など)の三種類を挙げている.``terminus''とは,動きの終点を設定するものであり,これも動詞に終結性を付加する.この役割を担うのは,internalindirectargument(英語では前置詞``to'',日本語では「に」格または「まで」格)である.このように,格成分とアスペクトは密接に関連している.ただし,すべての格成分がアスペクトに関わるわけではなく,あくまで,特定の動詞クラスにおいて,特定の格が特定の役割を担うことがありうるということである.Tennyは,同じ動詞が異なる構文に入ることによって,そのアスペクチュアルな意味が転移するということも述べているが,日本語では,以下で述べる副詞やアスペクト形式によって表現されるものが多い.日本語において格成分が関与する例としては,移動の動詞が,終点を表す「に」格または「まで」格をとって,終結性を獲得すること(「学校まで走る」),非能格動詞(unergative)が同族目的語をとって,全体量が設定されること(「短い一生を生きる」)などがある.これらは,焦点をあてるべき動きの全体枠を設定する.\subsubsection{副詞}\label{fukushi}一般に,副詞は動きのある部分に焦点をあて,その部分をより詳細に述べる働きをする.その焦点をあてる部分によって,以下のように分類される\cite{森山88}.{\bf過程修飾副詞(Processmodifiers)}は,過程性のある動詞を修飾する.「がさがさ」,「ばたばた」,「すいすい」,「せっせと」,「ぶつぶつ」,「がらがら」のような畳語オノマトペや,「ゆっくり」,「手早く」,「足早に」などの速度を表す副詞がある.これらは,動きの展開過程に焦点をあてる働きをする.{\bf進展的副詞(Gradualchangeindicators)}とは,「段々」,「すこしずつ」,「徐々に」,「ぐんぐん」,「しだいに」などのように,変化の進展を表す副詞である.過程のある主体変化の動詞句は,「熱が下がっている」のように,それだけなら「シテイル」形では結果の状態の読みが優先されるのに対し,「熱が次第に下がっている」のように,この種の副詞の修飾を受けると,過程の部分に焦点があてられ,進行中の意味に読まれる.{\bf持続副詞(Continuousadverbs)}とは,「ずっと」「いつまでも」のように,過程,結果持続のどちらも修飾しうるものである.どちらに焦点があてられるかは,動詞の意味による(後述).いずれにしろ,持続性がなければならず,「一時間」などの期間を表す成分と同じ共起属性を持つ.また,場所を示す「で」などの成分も,過程と結果の両方を修飾することができるが,持続性は関与しない.{\bf一時点化副詞(Atomicadverbs)}とは,動きを一点的なものとしてとらえる副詞である.持続的な動きでも,特にある一点だけを取り出して修飾するものである.「さっと」,「ぽんと」,「がたっと」,「ぽたりと」,「瞬間」,「一瞬」,「あっというまに」などがある.これらが共起すれば,動きが一時点的なものとして把握されることになる.ただし,動詞が一時点的であるとは限らない.あくまで,とらえ方の問題である.{\bf量規定副詞(Quantityregulators)}とは,「五キロ歩く」のように,動きの全体量を規定する副詞である.量を規定する副詞なら何でもよく,時間,距離,内容の量などがある.{\bf結果修飾副詞(Endstatemodifiers)}は,特に変化の結末を表す副詞であり,「まっぷたつに」,「こなごなに」,「ぺちゃんこに」,「ばらばらに」などがある.この副詞は,変化の最終的な様子を修飾するものである.以上述べたのは,一回的な動きのレベルであるが,繰り返しは,さらにこれらの動きの全体的なあり方を規定する.繰り返しによって,動きが固有に持っている素性とは無関係に繰り返しとしての過程が問題にされる.{\bf繰り返しの規定(Repetitionadverbs)}には,「三回」,「何度も」,「いくたびか」のように,繰り返しの全体量を規定するものと,「いつも」,「しょっちゅう」,「つねづね」のように,習慣的な繰り返しを規定するものがある.いずれも,主体と動きの関与(事態)が複数である.最後に,{\bf過去の副詞(Timeinthepastadverbs)}についても述べておく.「私はかつて留学している」のように,「シテイル」という現在・未来形と,「かつて」,「昔」,「以前」のような過去の副詞が共起することがある.これは,動きを表すというよりも,経歴を述べる場合であるが,このような過去の副詞は,それ事態でテンス相関的な時制構造を決めてしまう.「シテイル」の意味については,次節で述べる.\subsubsection{アスペクト形式}アスペクト形式には,「始メル」,「続ケル」,「終ワル」,「カケル」のような統語的複合動詞,「テイル」,「テクル」,「テアル」のように「テ」形に接続する補助動詞,「ママダ」,「バカリダ」,「トコロダ」などの形式名詞などがある.ここでは,次節の実験で用いたものについてのみ,簡単に述べる.「シヨウトスル」,「シカケル」は,出来事の発生だけを問題にする形式である.それで,アスペクトの対立がありさえすれば(+d),これらの形式が共起することができる.「シテシマウ」も,モダリティー的な意味があるので,原則的には,出来事が発生しさえすれば共起する.ただ,「料理を全部食べてしまう」のように,終結性がある場合には,その終結点を取り出す意味になる.「シ続ケル」は,持続性がある($-$a)動詞に承接する.先に述べたように,動きの展開する過程と結果の持続の両方を取り上げることができる.「シ始メル」は,過程性のある(+p)動詞に承接し,その過程の始まりを取り上げる.これに対し,「シ終ワル」,「シ終エル」は,過程の終結を取り上げる.したがって,終結性を持つ(+t)動詞に承接する.ただし,これらが動詞が固有に持っている素性と関わるのは,一回的な動きのレベルであり,繰り返しによって複数の事態が過程化される場合には,動詞の素性とは無関係に,状態的動詞以外のあらゆる動詞に承接することが可能である(「多くの人々が,戦争で死に続けている」等).「シツツアル」,「シテイク」,「シテクル」は,変化の進展的過程を取り上げる.進展しつつある変化を状態として取り上げるのが「シツツアル」であり,変化の元の様子に視点を置いたのが「シテイク」,変化の行く先に視点を置いたのが「シテクル」である.ただし,「シテイク」,「シテクル」には単に方向的な移動を表す用法(「持っていく」等)の他,以前から,または,以後への継続を表す用法がある(「昔から,村の人々はここで祭りを行なってきた」等). \section{動詞の分類実験} ここでは,コーパスに現れた表層表現から,動詞のアスペクチュアルな素性を獲得する,すなわち,表\,\ref{tab:category}の六つのカテゴリーに動詞を分類する実験について述べる.動詞の分類が得られれば,それに前節で述べた他の要素による操作を順に適用することによって,動詞句全体のアスペクト属性を推定することが可能となる.\begin{figure}\begin{center}\leavevmode\includegraphics[width=70mm,clip]{category.eps}\end{center}\caption{動詞の分類と素性間の関係}\label{fig:category}\end{figure}図\,\ref{fig:category}に示すように,それぞれのカテゴリーは,アスペクト形式と動詞の共起制限に基づいて決定されるものである.しかも,これらの形式は動詞に直接後続するものであるから,構文解析をするまでもなく,形態素解析だけで容易にデータを収集することができる.しかし,図\,\ref{fig:category}において,形式の表示していない枝は,相対する枝に表示してある形式に対する負例を表すものである.我々は,負例を用いることができない.コーパス中に見つからなかったといって,絶対に言えないとは限らないからである.したがって,負例を用いずに,正例のみで知識を獲得する何らかの手法を確立する必要がある.また,先に述べたように,持続性を表す($-$a)とされる「シ続ケル」などの形式は,事態全体の繰り返しによって,あらゆる動詞に承接する可能性がある.さらに,「テイク」,「テクル」,「ナガラ」などは,アスペクト以外の意味でも用いられる場合もある.\subsection{アルゴリズム}これまでの考察に基づいて,動詞を分類するためのアルゴリズムを以下に示す.なお,実験には「EDR日本語コーパス」(約21万文)および「EDR日本語共起辞書」\cite{EDR95aj}を利用した.\begin{description}\item[STEP:1データの抽出]EDR日本語共起辞書から,係り側単語の品詞が副詞で,受け側単語の品詞が動詞であるデータを抽出し,共起頻度とともに,配列PAIR(表\,\ref{tab:pair})に登録する.\item[STEP:2副詞の分類]配列PAIRに含まれる副詞を,\ref{fukushi}節で述べた基準によって分類し,分類ラベル(英語の頭文字)を与え,配列ADVERBに登録する(表\,\ref{tab:adverb0},\ref{tab:adverb1}参照).\item[STEP:3対象動詞の決定]配列PAIRから,配列ADVERBに登録されている副詞を含むものを抽出し,動詞をキーとして,副詞との共起頻度を集計する.共起頻度が5以上の動詞を実験対象とし,リストVERBに登録する.\item[STEP:4形式・副詞の獲得]EDR日本語コーパス(解析済)の全文に対して,動詞を発見し,それがリストVERBに存在すれば,\begin{description}\item[STEP:4-1形式の獲得]動詞に直接後続している形式が,あらかじめ用意してあるリスト(表\,\ref{tab:form1})に存在すれば,配列FORMを更新する(当該形式のカラムを1とする.表\,\ref{tab:form2}参照).ただし,クラスRの副詞(繰り返しの規定)に修飾されている場合は登録しない.「テクル」,「テイク」は,クラスGの副詞(進展的副詞)に修飾されている場合のみ登録する.\item[STEP:4-2副詞の獲得]動詞を修飾している副詞が,配列ADVERBに存在すれば,その分類ラベルを参照し,配列MODIFIEDを更新する(当該副詞クラスの頻度に1加算する.表\,\ref{tab:modified}参照).ただし,副詞クラスがCの場合(持続副詞),後続形式が「テイル」を含んでいる場合(C1)と,それ以外の場合(C2)を分けて登録する.また,「ナイ」,「ズ」などの否定を表す形式\footnote{「*しばらく爆発する」$\rightarrow$「しばらく爆発しない」のように,否定することによって,一時点的なものも,その動きがないという持続を持ちうる.}や,「レル」,「サレル」,「セル」,「サセル」など,ボイスに変更をもたらす形式\footnote{「太郎がロープを切っている」$\rightarrow$「ロープが切られている」のように,能動,受動の対立が,動作継続か結果継続というアスペクト的な対立と結び付いている.}が承接している場合は登録しない.\end{description}\item[STEP:5動詞カテゴリーの決定]リストVERBに存在するすべての動詞に対して,\begin{description}\item[STEP:5-1形式による絞り込み]配列FORMに基づき,表\,\ref{tab:form1}にしたがって,可能な動詞カテゴリーを絞り込む.\item[STEP:5-2副詞による決定]STEP:5-1で動詞のカテゴリーが一意に決定できない場合(カテゴリー6以外のとき),配列MODIFIEDを用いて,以下のように動詞カテゴリーを決定する.\[\cases{{\rm進展的副詞(G)に修飾されている場合}\cr\hfill\Rightarrowカテゴリー6\cr{\rm過程修飾(P)があり,結果修飾(E)がない場合}\cr\hfill\Rightarrowカテゴリー5\cr{\rm過程修飾(P)があり,結果修飾(E)がある場合}\cr\hfill\Rightarrowカテゴリー4\cr{\rm過程修飾(P)がなく,結果修飾(E)がある場合}\cr\hfill\Rightarrowカテゴリー3\cr{\rm一時点化副詞(A)のみに修飾されている場合}\cr\hfill\Rightarrowカテゴリー2\cr{\rm持続副詞の原形(スル形)修飾(C2)があり,}\cr{\rm過程修飾(P),進展的(G),結果修飾(E)の副}\cr{\rm詞に修飾されていない場合}\cr\hfill\Rightarrowカテゴリー1\cr{\rm上記以外のとき,}\hfill\Rightarrowあいまいなまま出力\cr}\]\end{description}\end{description}\begin{table}[htb]\begin{minipage}[t]{80mm}\caption{配列PAIR(一部)}\label{tab:pair}\begin{tabular}{|l|l|r|}\hline副詞&動詞&共起頻度\\\hline\hlineああ&いう&1\\\hlineああ&する&1\\\hlineああ&なる&1\\\hline相&会う&1\\\hlineあいかわらず&いる&1\\\hlineあいかわらず&落ち着く&1\\\hlineあいかわらず&加える&1\\\hline\end{tabular}\end{minipage}\hspace{1mm}\begin{minipage}[t]{80mm}\caption{配列ADVERB(一部)}\label{tab:adverb0}\begin{tabular}{|l|l|}\hline副詞&ラベル\\\hline\hlineあいかわらず&C\\\hlineあえぎあえぎ&P\\\hlineあかあかと&P\\\hlineあくせく&P\\\hlineあたふた&P\\\hlineあたふたと&P\\\hlineあっという間&A\\\hline\end{tabular}\end{minipage}\end{table}\begin{table}[htb]\caption{副詞の分類結果}\label{tab:adverb1}\centering\begin{tabular}{|l|r|l|}\hlineラベル&種類数&例\\\hline\hline過程修飾副詞{\sfP}&470&ゆっくりがさがさばたばた...\\\hline進展的副詞{\sfG}&52&次第にますます徐々に...\\\hline持続副詞{\sfC}&78&そのままずっといつまでも...\\\hline一時点化副詞{\sfA}&294&さっとぽんとがたっと...\\\hline量規定副詞{\sfQ}&12&180度一杯一歩一時間...\\\hline結果修飾副詞{\sfE}&86&まっぷたつにこなごなに...\\\hline繰り返しの規定{\sfR}&122&何度もいつもしょっちゅう...\\\hline過去の副詞{\sfT}&11&かつてむかし以前...\\\hline\end{tabular}\end{table}\vspace*{20mm}\begin{table}[htb]\caption{実験に用いたアスペクト形式}\label{tab:form1}\centering\begin{tabular}{|l|l|}\hline形式&共起可能な動詞カテゴリー\\\hline\hlineヨウトスル,カケル&2,3,4,5,6\\\hline続ケル&3,4,5,6\\\hline始メル&4,5,6\\\hline終ワル,終エル&4,5,6\\\hlineツツアル,テクル,テイク&6\\\hline\end{tabular}\end{table}\vspace*{50mm}\begin{table}[hbt]\caption{配列FORM(一部)}\label{tab:form2}\centering\begin{tabular}{|l|r|r|r|r|r|}\hline動詞&\multicolumn{5}{|c|}{形式}\\\hline&カケル&続ケル&始メル&終ワル&テクル\\\hline\hline悪化する&0&0&1&0&1\\\hline握る&1&1&0&0&0\\\hline安定する&0&0&1&0&1\\\hline意識する&0&0&1&0&1\\\hline異なる&0&0&0&0&0\\\hline移動する&0&0&1&0&0\\\hline維持する&0&1&0&0&0\\\hline違う&0&0&0&0&0\\\hline育つ&0&0&0&0&1\\\hline育てる&0&0&0&0&1\\\hline一致する&0&0&1&0&0\\\hline\end{tabular}\end{table}\clearpage\begin{table}[htb]\caption{配列MODIFIED(一部)}\label{tab:modified}\centering\begin{tabular}{|l|r|r|r|r|r|r|r|}\hline動詞&\multicolumn{7}{|c|}{副詞クラス}\\\hline&{\sfP}&{\sfG}&{\sfC1}&{\sfC2}&{\sfA}&{\sfQ}&{\sfE}\\\hline\hline悪化する&0&5&0&0&1&0&0\\\hline握る&0&1&0&1&0&0&1\\\hline安定する&0&1&1&1&0&0&1\\\hline意識する&0&1&0&1&0&0&0\\\hline異なる&0&1&0&0&0&0&1\\\hline移動する&1&1&0&1&1&0&0\\\hline維持する&0&0&0&4&0&0&0\\\hline違う&0&1&0&0&1&0&0\\\hline育つ&5&3&0&0&0&1&1\\\hline育てる&3&1&0&1&0&0&0\\\hline一致する&0&0&0&0&3&0&2\\\hline\end{tabular}\end{table}\begin{table}[htb]\caption{副詞クラスと共起可能な動詞カテゴリー}\label{tab:adverb2}\centering\begin{tabular}{|l|l|}\hline副詞クラス&動詞カテゴリー\\\hline\hline過程修飾副詞{\sfP}&4,5,6\\\hline進展的副詞{\sfG}&6\\\hline持続副詞{\sfC}&1,3,4,5,6\\\hline一時点化副詞{\sfA}&2,3,4,5,6\\\hline量規定副詞{\sfQ}&1,3,4,5,6\\\hline結果修飾副詞{\sfE}&3,4,6\\\hline\end{tabular}\end{table}STEP:1〜3は,実験対象とする動詞を決定するための処理である.STEP:2は,前節で述べた副詞の分類を与える処理である.この処理は手作業で行なったが,副詞は,動詞よりも少数であり(EDR共起辞書に存在する副詞は2,563件,動詞は12,766件である),イコン性(形式と意味の同型性)が高いので\footnote{「がらがら」,「ころころ」,「ゆらゆら」など,反復型の語は,反復継続する状態を描写するのに用いられ,「どっと」「ガラッと」「デンと」など,一音節で促音や撥音を含む語の後に「と」が付いたものは,一回限りの,動きの激しい状態を描写するすることが多い.また,母音の組み合わせ方には,変化の状態が反映される\cite{大坪82}.},分類は比較的容易である.また,この結果は,動詞のカテゴリー決定のみではなく,以下で述べる「シテイル」形の意味の推定においても重要な役割を果たす.これらの副詞と5回以上共起している動詞は,431個あり,これを実験対象とした.STEP:4は,動詞のカテゴリー決定に使用するアスペクト形式および副詞を,動詞ごとに登録する処理であり,この処理で得られたデータを用いて,STEP:5で動詞のカテゴリーを決定した.先に述べたように,形式のみでは動詞のカテゴリーを一意に決定することはできない.そこで,共起する副詞の情報を用いて,カテゴリーを推定した.表\,\ref{tab:adverb2}に示したように,副詞は,クラスごとに,共起できる動詞のカテゴリーが制限されるからである.\subsection{評価}実験対象とした431個の動詞のうち,375個は一意にカテゴリーが得られた.残りの56個のうち,37個はSTEP:5-1で絞り込まれたカテゴリーと,STEP:5-2で決定されたカテゴリーが矛盾するものである.これは,STEP:5-1で形式を獲得する際に,繰り返しの規定を発見できなかったものと思われるので,STEP:5-2で決定したカテゴリーを優先した.結果を表\,\ref{tab:result}に示す.\begin{table}[h]\caption{実験で得られた動詞分類}\label{tab:result}\centering\begin{tabular}{|l|r|l|}\hlineカテゴリー&件数&動詞の例\\\hline\hline1.状態的&30&見つめる維持する住む存在する\\&&眺める黙る繰り返す使える...\\\hline2.一点的&19&投げるはね上がる気づく見かける\\&&合意する切れる踏み切る...\\\hline3.変化+結果持続&29&ぬれるつまるつながる合う座る\\&&暮れるたたむ当てはまる...\\\hline4.過程+結果持続&30&たてる立てる並ぶのばすまとめる\\&&包む交わる散る取り囲む...\\\hline5.非進展的過程&94&飲む運ぶ楽しむ観察する震える\\&&響く飛び回る過ごす食べる...\\\hline6.進展的過程&210&悪化する強まる強める高まる高める\\&&深刻化する活発化する成長する...\\\hline一意に決まらな&19&加わるつとめる伴う訪ねる来日する\\かったもの&&つきまとう果たす誇る上回る...\\\hline\end{tabular}\end{table}約80\%以上の動詞については,正しいカテゴリーに分類されていると思われるが,この判断は主観的なものである.そこで,これを客観的に評価するために,「シテイル」形の意味を,先の実験によって得られた動詞のカテゴリーおよび副詞の分類を用いて,自動的に推定するための実験を行なった.\begin{figure}\begin{center}\leavevmode\includegraphics[width=100mm,clip]{timeline.eps}\end{center}\caption{動詞カテゴリーの時間軸による表現}\label{fig:timeline}\end{figure}「シテイル」形は,動きを状態的に取り上げるものである.状態的に取り上げるとは,あり方に質的な断層を前提しないということであり,この断層の欠如によって,時間的に連続するものとしてとらえることが可能となる.すなわち,「スル」対「シテイル」のアスペクト的な対立とは,閉的区間と開的区間の違いである\cite{森山84}.図\,\ref{fig:timeline}に,それぞれのカテゴリーの時間軸による表現を示す.図\,\ref{fig:timeline}において,太線で示したところが動詞の表示する動きや状態であり,破線は,時間的に続くこと,つまり,開的区間を示している.また,丸印は,動きの始まりや終結点を表しており,この点によって,時間的な断層,つまり,閉的区間を表したものである.「テイル」は,動きを状態的に取り上げるものであるから,この点を含むことはできない.したがって,「シテイル」形の意味は,時間軸の下に示した区間のどれかでなければならない.(1)は,状態述語の状態を取り上げるものであり,この場合,特に現前の状態を述べる意味になる.金田一以来,「シテイル」形の意味は,「動作,作用が進行中であること」,「動作,作用が終わって,その結果が残存していること」,「単なる状態」の三つの類型が考えられているが,三番目の,「単なる状態」が,これにあたる.また,(4),(7)が,「結果の状態」に,(6),(9),(11)が「進行中」の意味にそれぞれ相当する.図\,\ref{fig:timeline}には記載していないが,5.非進展的過程,6.進展的過程の動詞でも,明示的に終結点が設定されれば,「結果の状態」が取り上げられる.工藤は,さらに,「進行中」,「結果の状態」に,基本的な意味と,派生的な意味があることを指摘して,次のような位置づけをしている\cite{工藤82}.\begin{itemize}\item[(i)]「進行中」の基本的な意味「動きの継続」\item[(ii)]「進行中」の派生的な意味「反復」\item[(iii)]「結果の状態」の基本的な意味「変化の結果の継続」\item[(iv)]「結果の状態」の派生的な意味「現在有効な過去の運動の実現」\end{itemize}(ii)は,先に述べた繰り返しとしての過程を問題にするものであり,いわば,「点の集合としての線」として,複数の事態をとらえるものである.(iv)は,いわゆる「経歴」を表すものであり,図\,\ref{fig:timeline}の(2),(3),(5),(8),(10),(12)に相当する.これらの派生的なものは,派生的であるがゆえに,構文的,あるいは,文脈的に条件づけられている.すなわち,副詞等で明示的に派生的な意味であることが表現されることが多い.その一方,動詞の語彙的な意味からは解放されている.すなわち,ほぼあらゆる動詞がこれらの意味をあらわすことができ,動詞のカテゴリーと直接関係しない.以上の考察に基づいて,(i)から(iv)に(v)「単なる状態」を加えた五つの意味を表層表現によって区別する実験を行なった.以下に手順を示す.\begin{itemize}\item[1.]繰り返しを規定する副詞(R)が含まれているとき\\$\Rightarrow$(ii)「反復」\item[2.]過去の副詞(T)が共起しているか,動詞のカテゴリーが2(一点的)のとき\\$\Rightarrow$(iv)「経歴」\item[3.]動詞のカテゴリーが1(状態的)のとき\\$\Rightarrow$(v)「単なる状態」\item[4.]動詞のカテゴリーが3(変化+結果持続)のとき\\$\Rightarrow$(iii)「結果の継続」\item[5.]上記以外のとき\begin{itemize}\item[5-1.]過程修飾副詞(P)または進展的副詞(G)が共起しているとき\\$\Rightarrow$(i)「進行中」\item[5-2.]終結点が設定されているとき(結果修飾副詞(E),量規定副詞(Q),「に」格,「まで」格の共起)\\$\Rightarrow$(iii)「結果の継続」\item[5-3.]過程が取り上げられない条件があるとき(一時点化副詞(A),「すでに」,「もう」などの共起)\\$\Rightarrow$(iii)「結果の継続」\item[5-4.]上記のいずれにもあてはまらないとき\begin{itemize}\item[5-4-1.]動詞カテゴリーが5(非進展的過程)または6(進展的過程)のとき\\$\Rightarrow$(i)「進行中」\item[5-4-2.]動詞カテゴリーが4(過程+結果持続)のとき\\$\Rightarrow$(i)「進行中」or(iii)「結果の継続」であいまい\end{itemize}\end{itemize}\end{itemize}実験は,EDR日本語コーパスから,文末に「テイル」を含んでいる200文をランダムに抽出して行なった.結果を表\,\ref{tab:evaluation}に示す.\begin{table}[htb]\caption{評価実験の分析結果}\label{tab:evaluation}\centering\begin{tabular}{|l|r|r|r|r|r|}\hline「シテイル」形&人間による&プログラム&判断が一致&再現率(\%)&正解率(\%)\\の意味&判断(a)&の出力(b)&したもの(c)&c/a×100&c/b×100\\\hline\hline(i)動きの継続&95&137&88&93&64\\\hline(ii)反復&4&2&2&50&100\\\hline(iii)結果の継続&29&15&14&48&93\\\hline(iv)経歴&39&15&14&36&93\\\hline(v)単なる状態&19&19&15&79&79\\\hlineあいまいなもの&14&12&9&64&75\\\hline合計&200&200&142&71&71\\\hline\end{tabular}\end{table}\vspace*{-2mm}表\,\ref{tab:evaluation}によると,全体の正解率は71\%であるが,(i)「動きの継続」は再現率が高く,正解率が低い.一方,(iii)「結果の継続」と(iv)「経歴」は,逆に正解率は高いが再現率が低いことがわかる.これは,本来,(iii)「結果の継続」または(iv)「経歴」とすべきものを,(i)「進行中」としているものが多いことを示している.この原因は,テストセンテンスの中に,「主張する」,「説明する」,「表明する」のように,引用の「と」格をとる動詞を含んでいるものが多かったことによる.これらは,カテゴリーが5(非進展的過程)として分類されているので,上記の手順5-4-1により,(i)「進行中」の意味と決定されたが,この場合,発話内容を表す「と」格が動きの全体量を規定しており,これが終結点を設定していると考えられるので,(iii)「結果の継続」または(iv)「経歴」の読みが優先されるものである.また,これ以外の原因としては,「かかる」,「あたる」のような多義的な動詞が挙げられる.これらの動詞は,格成分によって,そのアスペクト的な意味が変わってくる.たとえば,\begin{itemize}\item[]今,彼は,コップの水をビーカーに移している.(進行中)\item[]今,彼は,住民表を生駒市に移している.(結果の状態)\end{itemize}のように,格成分が変わることによって,同じ動詞でもその解釈は異なってくるのである.どのような名詞句が,どのような動詞と組合わさって,アスペクトの解釈にどのような影響を与えるかは,複雑かつ微妙な問題であり,現在のところ,我々は,根本的な解決には至っていない.今後の課題である. \section{おわりに} 本稿では,コーパスに現れた表層表現に基づいて,動詞を六つのカテゴリーに分類し,この結果をもとに,「シテイル」形の意味を推定する手法について述べた.動詞句のアスペクトは,出来事の時間的様態を表すだけではなく,出来事間の時間関係を考えるための基礎となるものである.さらに,時間関係抜きの因果関係はありえず,また,時間関係をとらえるとすれば,そこに暗示的に因果関係が含み込まれてくる\cite{工藤95}.また,動詞の語彙的アスペクトは,表層格とは直接的で有意味な関係を持たないが,動詞の意味のタイプと直接的関係を持つ.この意味のタイプは,動詞とその補語構造と関係するので,この点において,いわゆる深層格と有意味な関係を持つ\cite{金子95}.したがって,表層格と語彙的アスペクトを組み合わせることによって,動詞の意味のタイプを細かく分類することができる\cite{Oishi96ae}.このように,ここで得られた動詞のアスペクト情報は,文章理解や機械翻訳などの分野で用いるべき意味的な情報の一部として利用可能であると考える.\bibliographystyle{jnlpbbl}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bennett,Herlick,Hoyt,Liro,\BBA\Santisteban}{Bennettet~al.}{1990}]{Bennett90}Bennett,S.~W.,Herlick,T.,Hoyt,K.,Liro,J.,\BBA\Santisteban,A.\BBOP1990\BBCP.\newblock\BBOQAComputationalModelofAspectandVerbSemantics\BBCQ\\newblock{\BemMashineTranslation},{\Bbf4}(4),247--280.\bibitem[\protect\BCAY{Comrie}{Comrie}{1976}]{Comrie76}Comrie,B.\BBOP1976\BBCP.\newblock{\BemAspect}.\newblockCambridgeTextbooksinLinguistics.CambridgeUniversityPress.\bibitem[\protect\BCAY{Dorr}{Dorr}{1993}]{Dorr93}Dorr,B.~J.\BBOP1993\BBCP.\newblock{\BemMachineTranslation---AViewfromtheLexicon}.\newblockTheMITPress.\bibitem[\protect\BCAY{Gunji}{Gunji}{1994}]{郡司94}Gunji,T.\BBOP1994\BBCP.\newblock\BBOQAProto-lexicalAnalysisofTemporalPropertiesofJapaneseVerbs\BBCQ\\newblock\Jem{日本語句構造文法に基づく効率的な構文解析の研究平成5年度科学研究費補助金研究成果報告書(03452169)},pp.65--75.\bibitem[\protect\BCAY{Oishi\BBA\Matsumoto}{Oishi\BBA\Matsumoto}{1996}]{Oishi96ae}Oishi,A.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1996\BBCP.\newblock\BBOQDetectingtheOrganizationofSemanticSubclassesofJapaneseVerbs\BBCQ\\newblock\BTR\NAIST-IS-TR96019,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{Talmy}{Talmy}{1985}]{Talmy85}Talmy,L.\BBOP1985\BBCP.\newblock{\BemLexicalizationpatterns:semanticstructureinlexicalforms},\lowercase{\BVOL}~3of{\BemLanguageTypologyandSyntacticDescription},\BCH~2,\BPGS\57--308.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Tenny}{Tenny}{1994}]{Tenny94}Tenny,C.~L.\BBOP1994\BBCP.\newblock{\BemAspectualRolesandtheSyntax-SemanticsInterface},\lowercase{\BVOL}~52of{\BemStudiesinLinguisticsandPhilosophy(SLAP)}.\newblockKluwerAcademic.\bibitem[\protect\BCAY{Vendler}{Vendler}{1957}]{Vendler57}Vendler,Z.\BBOP1957\BBCP.\newblock\BBOQVerbsandtimes\BBCQ\\newblock{\BemPhilosophicalReview},{\Bbf66},pp.143--160.\bibitem[\protect\BCAY{(株)日本電子化辞書研究所}{(株)日本電子化辞書研究所}{1995}]{EDR95aj}(株)日本電子化辞書研究所\BBOP1995\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書(第2版)}.\bibitem[\protect\BCAY{金子}{金子}{1995}]{金子95}金子亨\BBOP1995\BBCP.\newblock\Jem{言語の時間表現}.\newblockひつじ研究叢書(言語編)第7巻.ひつじ書房.\bibitem[\protect\BCAY{国語学会編}{国語学会編}{1993}]{Kokugo93}国語学会編\BBOP1993\BBCP.\newblock\Jem{国語学大辞典(第8版)}.\newblock東京堂出版.\bibitem[\protect\BCAY{金田一}{金田一}{1976}]{Kindaiti76}金田一春彦\BBOP1976\BBCP.\newblock\Jem{日本語動詞のアスペクト}.\newblockむぎ書房.\bibitem[\protect\BCAY{工藤}{工藤}{1982}]{工藤82}工藤真由美\BBOP1982\BBCP.\newblock\JBOQシテイル形式の意味記述\JBCQ\\newblock\Jem{武蔵大学人文学会雑誌},{\Bbf13}(4).\bibitem[\protect\BCAY{工藤}{工藤}{1995}]{工藤95}工藤真由美\BBOP1995\BBCP.\newblock\Jem{アスペクト・テンス体系とテクスト現代日本語の時間の表現}.\newblock日本語研究叢書.ひつじ書房.\bibitem[\protect\BCAY{森山}{森山}{1983}]{森山83}森山卓郎\BBOP1983\BBCP.\newblock\JBOQ動詞のアスペクチュアルな素性について\JBCQ\\newblock\Jem{待兼山論叢},17\JVOL,\BPGS\1--22.大阪大学国文学研究室.\bibitem[\protect\BCAY{森山}{森山}{1984}]{森山84}森山卓郎\BBOP1984\BBCP.\newblock\JBOQテンス、アスペクトの意味組織についての試論\JBCQ\\newblock\Jem{語文},44\JVOL,\BPGS\1--14.大阪大学国文学研究室.\bibitem[\protect\BCAY{森山}{森山}{1988}]{森山88}森山卓郎\BBOP1988\BBCP.\newblock\Jem{日本語動詞述語文の研究}.\newblock明治書院.\bibitem[\protect\BCAY{本川}{本川}{1992}]{本川92}本川達雄\BBOP1992\BBCP.\newblock\Jem{ゾウの時間ネズミの時間}.\newblock中公新書.中央公論社.\bibitem[\protect\BCAY{大坪}{大坪}{1982}]{大坪82}大坪併治\BBOP1982\BBCP.\newblock\JBOQ象徴語彙の歴史\JBCQ\\newblock森岡健二,宮地裕,寺村秀夫,川端善明\JEDS,\Jem{語彙史},\Jem{講座日本語学},4\JVOL,\BPGS\228--250.明治書院.\bibitem[\protect\BCAY{養老}{養老}{1989}]{養老89}養老孟司\BBOP1989\BBCP.\newblock\Jem{唯脳論}.\newblock青土社.\bibitem[\protect\BCAY{養老}{養老}{1996}]{養老96}養老孟司\BBOP1996\BBCP.\newblock\Jem{考えるヒト}.\newblockちくまプリマーブックス.筑摩書房.\bibitem[\protect\BCAY{原,北上,中島}{原\Jetal}{1988}]{原88}原裕貴,北上始,中島淳\BBOP1988\BBCP.\newblock\JBOQ時間概念の表現とデフォルト推論\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf3}(2),pp.216--223.\end{thebibliography}\newpage\begin{biography}\biotitle{略歴}\bioauthor{大石亨}{昭和37年生.昭和59年大阪大学文学部文学科卒業.同年奈良県庁入庁.平成7年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院博士後期課程在学中.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{松本裕治}{昭和30年生.昭和52年京都大学工学部情報工学科卒.昭和54年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.昭和59〜60年英国インペリアルカレッジ客員研究員.昭和60〜62年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,平成5年より奈良先端科学技術大学院大学教授,現在に至る.専門は自然言語処理.人工知能学会,日本ソフトウェア科学会,情報処理学会,AAAI,ACL,ACM各会員.}\end{biography}\end{document}
V15N02-02
\section{はじめに} 企業内には,計算機で処理できる形での文書が大量に蓄えられている.情報検索,テキストマイニング,情報抽出などのテキスト処理を計算機で行う場合,文書内には,同じ意味の語句(同義語)が多く含まれているので,その処理が必要となる.例えば,日本語の航空分野では,「鳥衝突」を含む文書を検索したい場合,「鳥衝突」とその同義語である「BirdStrike」が同定できなければ,検索語として「鳥衝突」を指定しただけでは,「BirdStrike」を含み「鳥衝突」を含まない文書は検索できない.したがって,同義語の同定を行わないと,処理能力が低下してしまう.特定分野における文書には,専門の表現が多く用いられており,その表現は一般的な文書での表現とは異なっている場合が多い.その中には,分野独特の同義語が多量に含まれている.これらの多くは汎用の辞書に登録されていないので,汎用の辞書を使用することによる同義語の処理は難しい.したがって,その分野の同義語辞書を作成する必要がある.本論文では,このような特定分野における同義語辞書作成支援ツールについて述べる.本論文では,特定分野のひとつとして航空分野を対象とするが,航空分野のマニュアル,補足情報,業務報告書等に使用される名詞に限っても,漢字・ひらがなだけでなく,カタカナ,アルファベットおよびそれらの略語が使用されている.例えば,飛行機のマニュアルの場合,「Flap」を日本語の「高揚力装置」と表現しないで「Flap」と表現し,用語の使用がマニュアルよりも自由なマニュアル以外の文書では,「Flap」や「フラップ」と表現している.また,略語も頻繁に使用され,「滑走路」を「RWY」,「R/W」と表現している.そして,これらの表現が混在している.その理由は,海外から輸入された語句は,漢字で表現するとイメージがつかみ難いものがあるためであり,そのような語句は,英語表現や英語のカタカナ表現が使用される.「Aileron」を「補助翼」というよりは,「Aileron」や「エルロン」と通常表現している.マニュアルの場合は,ある程度,使用語が統一されているが,マニュアル以外のテキストは,語句の使用がより自由で,同義語の種類・数も多くなっている.そして,分野の異なる人間や計算機にとって理解し難いものとなっている.このようなテキストを計算機で処理する場合には,同義語辞書が必要であるが,これらの語句は,前述したように汎用の辞書に載っていない場合が多い.さらに,語句の使用は統制されているものではなく,また,常に新しい語が使用されるので,一度,分野の辞書を作成しても,それを定期的にメンテナンスする必要がある.これを人手だけで行うのは大変な作業である.我々は,同義語の類似度をその周辺に出現する語句の文脈情報により計算することにより同義語辞書を半自動的に作成するツールを開発している~\cite{terada06,terada07}.本論文では,上記の支援ツールを基礎にした計算機支援による同義語辞書作成ツールを提案する.その動作・仕組みは以下の通りである.計算機は,与えられたクエリに対して,意味的に同じ語句(同義語)の候補を提示する.辞書作成者は,クエリをシステムに与えることにより,同義語の候補語をシステムから提示され,その中から同義語を選択して,辞書登録をすることができる.システムは,これまで蓄えられた大量のテキスト情報を参照し,与えられたクエリの文脈と類似する文脈を持つ語句を同義語候補語とする.文脈は,クエリ・同義語の候補語の周辺に出現する語句を使用している.既知の同義語が存在する場合には,これらの同義語を使用して文脈語を同定することにより,システムの精度向上を行った.提案手法は,語句を認識できればよいので,分野・言語を問わないものである.実験は,日本語の航空分野のレポートを使用した.このコーパスには,上述したように多数の同義語が存在し,その多くは汎用の辞書に載っていないものである.評価は,回答の中で正解が上位にある程,評価値が高くなる平均精度を用いて行い,他の手法と比較して満足できる結果が得られた.論文構成は,第2節では関連研究について述べる.第3節では類似度と平均精度について述べるが,その中で文脈情報,類似度,平均精度の定義について説明する.第4節では提案方式の詳細と実験について述べる.コーパス,評価用辞書,特徴ベクトルの定義について説明し,文脈語の種類・頻度,window幅による精度比較について述べる.第5節では,第4節の結果をもとにして,詳細な議論を行う.クエリ・同義語候補語の種類による精度の比較,大域的文脈情報との比較,文脈語の正規化,特異値分解,関連語について述べる.第6節では複合名詞の処理を述べる.複合名詞については,専門用語自動抽出システム~\cite{termextract}が抽出した複合名詞を使用することにより単名詞と同様の処理を行った.第7節では同義語辞書の作成について考察する.第8節では結論と今後の研究課題について述べる. \section{関連研究} \label{sec:関連研究}同義語を自動的に計算する研究は,これまで数多く行われてきた.その種類としては,カタカナと英語の対応,英語とその略語の対応,日本語とその略語の対応などがある.略語処理では,略語の近傍に括弧書きで略語の定義がされている場合の研究がある~\cite{schwartz03},\cite{pustejovsky01}.この手法は,略語の定義が略語の近傍でされているものについては有効であるが,文書の中で必ずしも略語の定義がされているとは限らない.本論文で扱う文書では略語の定義はされていないので,この手法は適用できない.カタカナとアルファベット(英語)の対応では,Knightらは,カタカナとアルファベット(英語)の対応を発音記号から対応付けしている~\cite{knight98}.阿玉らは,カタカナのローマ字表記とアルファベットとの対応付けをしている~\cite{adama04}.Teradaらは,英語における原型語とその略語の対応を両者に含まれる文字及びその順序などの情報を使用することで同定している~\cite{terada04}.この研究も本論文と同じく,航空分野という特定分野を対象としているが,対象とする言語が英語であり,略語をその原型語に復元するタスクを目的としている.同義語の類似度の計算は,文脈情報から余弦を用いて計算するものが多い.文脈情報として,語句の前後の局所的なものを用いるもの~\cite{terada04},文書全体から抽出して用いるものがある~\cite{sakai05}.Ohtakeらは,カタカナの変形を探すのに,エディット距離で候補を絞った後に,文脈情報を用いているが,その際,カタカナが用いられている構文を解析して,動詞,名詞,助詞を使用している~\cite{ohtake04}.Masuyamaらは,カタカナ処理でWEBデータから英語に対応するカタカナのエディット情報を取得している~\cite{masuyama05}.文脈情報を用いる場合には,全ての種類の語句を用いるのでなく,内容語を用いるものが多い.計算量の削減及び精度の向上のために,文脈情報だけではなく,文字情報を用いて,対応関係を絞り込む,または,決定する研究が多い.本論文では,日本語を対象とし,漢字,ひらがな,カタカナ,アルファベット,およびそれらの略語の類似度を同時に計算するために,文字情報による絞り込みは行わず,文脈情報のみでどの程度の精度が得られるかを実験した.Teradaらは,英語を対象として,略語とその原型語の対応を文脈情報および文字情報を使用して行っているが~\cite{terada04},略語とその原型語のみならず,その他の同義語においても文脈情報を使用することにより,クエリに対する同義語が得られると考えた.したがって,提案手法は,Teradaらの手法を応用し,言語を日本語に適応し,対象を略語から同義語に拡張し,文脈情報の使用に工夫を加えたものである.また,Teradaらは,略語復元の精度を向上させるために,略語の多いコーパスと略語の少ないコーパスを使用しているが,提案手法では,同義語が同一のコーパスに含まれている場合は,コーパスは1つでよいと考え,1種類のコーパスのみを使用した.文脈情報のみを使用しているが,同義語の日本語の文字種(漢字,ひらがな,カタカナ,アルファベット)について,種類の組み合わせにより精度が異なるかを調べ,今後の精緻なシステム構築の参考となるようにした.さらに,文脈情報のみでは,十分な精度が得られない場合があるので,既知の同義語を知識として使用することにより,精度の向上を図った. \section{類似度と平均精度} システムは,クエリに対して同義語候補語を順位付けして出力する.そのためには,クエリに対する同義語候補語の類似度を計算できなければならない.本節では,同義語候補語,文脈情報を定義し,提案手法での類似度について説明する.本節では,単名詞の処理について述べ,複合名詞の処理については,第6節で述べる.\subsection{同義語候補語}単名詞の同義語候補語は,テキストを形態素解析し,形態素解析器が出力した名詞である,漢字・ひらがな,カタカナ,アルファベットとした.形態素解析器は茶筅\footnote{http://chasen.naist.jp/hiki/ChaSen/}を使用し,その中で出現頻度が100以上のものを使用した.\subsection{文脈情報}「同義語は,同じような文脈で使用される」という仮定から,語句の類似度を文脈の類似性から計算できると考えた.これは,人間が語の意味を理解するのにその語句が出現する前後の文脈から類推しているというアイデアからである.文脈は,同義語の近傍の語句(局所的文脈)とした.人間は,前後の語句の中で,場面に応じて文脈語を選別をしていると考えられるが,計算機で実現するのは不可能であるので,場面に応じた選別については,この研究では考慮しないことにした.クエリを$q$とし,その前後の語句の並びを,$x_{\alpha}\ldotsx_{2}\x_{1}\q\y_{1}\y_{2}\ldotsy_{\beta}$とする.ここで,前後の語句は,形態素解析器が出力した単語とする.対象とするクエリの文脈語をクエリの前で$x_{\alpha}\ldotsx_{1}$,クエリの後ろで$y_{1}\ldotsy_{\beta}$とすると,window幅は$\alpha$,$\beta$であり,これ以降window~[$\alpha,\beta$]と表現することとする.同義語候補語のwindow幅についても,同様とする.window幅は,クエリ,同義語候補語を含む1文の範囲内だけを考慮した.どのような文脈語を選択するかについては,第4.3節で述べる.\subsection{類似度}クエリ(query)の文脈情報を$\boldsymbol{c_{q}}$,同義語候補語(synonym)の文脈情報を$\boldsymbol{c_{s}}$とする.$\boldsymbol{c_{q}}$と$\boldsymbol{c_{s}}$をベクトル空間モデルで表し,その類似度をベクトルの余弦で表すと,クエリと同義語候補語の類似度($sim$)は,次式で計算される.\begin{equation}sim(query,synonym)=\mathbf{\frac{c_{q}\cdotc_{s}}{|c_{q}|\cdot|c_{s}|}}\end{equation}\subsection{平均精度}情報検索の性能評価として精度と再現率がよく用いられるが,これらは,与えられたクエリに対する検索結果全体に対する性能を表すものである.同義語の検索結果から辞書作成者が辞書登録することを考えると,検索結果の順位における精度が重要である.つまり,上位の検索結果ほど評価値は高い必要がある.このような評価尺度を表すものとして平均精度(averageprecision)を用いた.N個のクエリの評価をする場合,$i$番目のクエリに対する平均精度は次式で表される:\begin{equation}\mathit{AveragePrecision}[i]=\frac{1}{R[i]}\sum_{j=1}^{N_{s}[i]}(rel[j]\cdot\sum_{k=1}^{j}rel[k]/j)\end{equation}\begin{quote}ここで,\\$N_{s}[i]$:$i$番目のクエリの同義語の候補数.\\$R[i]$:$i$番目のクエリの同義語数.\\$rel[k]$:システムが順序付けした回答の中で,$k$番目の回答が正解であれば1,そうでなければ0.\end{quote}$i$番目のクエリに対する平均精度は,検索結果の各順位での精度$\sum_{k=1}^{j}rel[k]/j$の同義語$i$番目全体に対する和を同義語数$R[i]$で割ったものである.$N$個のクエリ全体の平均精度は,次式のように個々のクエリに対する平均精度の平均として定義する:\begin{equation}\mathit{AveragePrecision}=\frac{1}{N}\sum_{i=1}^{N}\mathit{AveragePrecision}[i]\end{equation} \section{提案方式の詳細と実験} 第4.1節では,実験に使用したコーパスの説明をする.第4.2節では,評価用に人手で作成した辞書について述べ,第4.3節では,提案手法で用いる特徴ベクトルについて述べる.第4.4節では,window幅等による比較についての実験結果を示す.\subsection{コーパス}コーパスとして,日本語の航空分野のレポートを使用した.個人情報保護の観点から,事前に名前等の個人情報は削除し,個人を特定できないような処理を行った.レポートの内容には,出発地・到着地などの定型情報とテキストで自由に記述された表題,本文が含まれているが,本文を対象とした.1992年から2003年までのレポートを使用した結果,6,427件のレポートが対象となり,そのサイズは,約6.9~Mバイトであった.同義語候補語は,第3.1節で述べたように名詞を対象とし,その中には,漢字・ひらがな,カタカナ,アルファベット,およびそれらの略語があるが,その頻度が100以上のものを対象とした.その結果,同義語候補語の数は,1,343になった.同義語抽出のタスクは,クエリに対する同義語をこれらの同義語候補語の中から選択するものである.\subsection{評価用辞書}今回の実験評価のために,4.1節と同じ条件で出現頻度が100以上の候補語の中から,人手で選んだ406個の単語に対する同義語を求めることにより同義語辞書を作成した.単語には,同義な語句が複数存在する場合があるので,406個のクエリに対する同義語数は777になり,平均同義語数は1.91であった.同義語の中には,「Service」,「SVC」,「サービス」のようにアルファベット(英語)とその略語およびそのカタカナ表現のほか,「Traffic」,「相手機」のようにドメイン特有のものも含まれる.\subsection{特徴ベクトルの定義}\label{subsec:文脈語の重み付けによる比較}文脈情報を特徴ベクトルとして表すが,類似度計算に使用する特徴ベクトルの定義には,様々な方法がある.本節では,特徴ベクトルの定義が精度にどのような影響を及ぼすかを調査した.クエリと同義語候補語の文脈語としてそれぞれの前後に出現する語句を用いるが,本節では,名詞(漢字・ひらがな,カタカナ,アルファベット),動詞,形容詞という内容語を使用した.クエリ・同義語候補語の文脈情報は,コーパス全体の中でクエリ・同義語候補語のwindow内に出現する文脈語を取得し,その頻度ベクトルとした.\begin{table}[b]\begin{center}\caption{文脈語の頻度の対数による補正の比較}\label{tblf}\input{02table01.txt}\end{center}\end{table}類似度は,3.3節で述べたように余弦で計算する.クエリの文脈ベクトルを$\boldsymbol{c_{q}}=(q_{1},\ldots,q_{N_{c}})$,同義語候補語\footnote{今後,同義語候補語を候補語と呼ぶこととする.}の文脈ベクトルを$\boldsymbol{c_{s}}=(s_{1},\ldots,s_{N_{c}})$とすると,類似度(sim)は次式で表される($N_{c}$:文脈語の異なり数):\begin{equation}\mathit{sim}(\mathit{query,synonym})=\mathbf{\frac{c_{q}\cdotc_{s}}{|c_{q}|\cdot|c_{s}|}}=\frac{\sum_{i=1}^{N_{c}}q_{i}s_{i}}{\sqrt{\sum_{i=1}^{N_{c}}q_{i}^2\sum_{i=1}^{N_{c}}s_{i}^2}}\end{equation}ここで,文脈ベクトルの各要素($q_{i}$又は$s_{i}$)は,文脈語の頻度を対数で補正したものを表す.表~\ref{tblf}は,頻度の対数による補正の有無の比較を示すが,対数による補正が精度に与える影響が大きいことが分かる.文脈語として,名詞(漢字・ひらがな,カタカナ,アルファベット),動詞,形容詞を選択した場合とそれ以外の文脈語を選択した場合の比較を表~\ref{tblc}に示す.\begin{table}[t]\begin{center}\caption{文脈語の種類による比較(window~[2,2])}\label{tblc}\input{02table02.txt}\end{center}\end{table}\begin{figure}[t]\begin{minipage}{0.48\textwidth}\begin{center}\includegraphics{15-2ia2f1.eps}\caption{文脈語の最小頻度による平均精度への影響}\label{fig:minfreq}\end{center}\end{minipage}\hfill\begin{minipage}{0.48\textwidth}\begin{center}\includegraphics{15-2ia2f2.eps}\caption{文脈語の最大頻度による平均精度への影響}\label{fig:maxfreq}\end{center}\end{minipage}\end{figure}文脈語の頻度については,高頻度の文脈語は,一般的であり同義語の判別に役立たず,一方,低頻度の文脈語は,特殊すぎてノイズとなることが考えられる.したがって,中程度の頻度の文脈語を採用するのがよいと考えられるので,最小頻度50,最大頻度600を使用するものとする(図~\ref{fig:minfreq},\ref{fig:maxfreq}参照).\subsection{window幅による比較}\label{subsec:window幅による比較}window幅をどのように設定すれば,平均精度が最適になるかを調査した.window幅を大きくすれば,候補語に対する文脈語を多く得られる反面,候補語から遠い文脈語は,候補語と関連性が薄くなり,ノイズとして悪影響を及ぼすので同義語の判別能力が弱くなり,また逆に,window幅を小さくすれば,候補語に対して得られる文脈語が少なくなり,判別に使用する情報が少なくなると考えられる.window幅を同義語候補語の前(FWD)に0〜4語,後(AFT)に0〜4語,変化させて実験した結果を表~\ref{window}に示す.平均精度は,window~[2,2]が43.1\%で最も高かった.同義語候補語の前後のwindowの比較では,window~[2,0]では35.5\%,window~[0,2]では37.8\%であった.例えば,「Boarding」というクエリに対する正解は「搭乗」であるが,window~[2,0]では「搭乗」が1位になるが,window~[0,2]では8位になる.理由としては,window~[2,0]では「Boarding」と「搭乗」の前に共通の語である「お客様」が多く出現するが,window~[0,2]では「Boarding」と「搭乗」の後に共通の文字列(例:「を開始」など)の出現が少ないためであると考えられる.つまりwindow~[2,2]では,window~[2,0]の影響を受けて1位になっているといえる.「CAT\footnote{CATは,ClearAirTurbulenceを表す.}」というクエリに対する正解は「TURB」と「揺れ」であるが,window~[2,0]では「TURB」が2位,「揺れ」が9位になる.共通に出現する代表的な言葉は「突然の」であるが,その数がそれ程多くないためだと考えられる.window~[0,2]では「TURB」が1位,「揺れ」が2位になる.その理由として,後に「に遭遇」という表現が多く出現しているからだと考えられる.window~[2,2]では,window~[0,2]の影響を受けて「TURB」が1位,「揺れ」が2位になっている.\begin{table}[t]\begin{center}\caption{window幅による平均精度(\%)の比較}\label{window}\input{02table03.txt}\end{center}\end{table}各同義語によりバラツキはあるものの,全体を通して,window~[2,2]では,同義語の前2語のwindow~[2,0]と同義語の後2語のwindow~[0,2]が補完しあって,よい結果になっているものと考えられる.クエリ・候補語のwindow幅内の前と後とでどちらが精度に貢献しているかについては,顕著な差は認められなかった. \section{議論} 第4節での実験結果をもとにして,以下のような考察を行った.第5.1節ではクエリ・候補語の種類による精度の違いを調査した.第5.2節では,文脈情報の正規化による精度変化について述べる.第5.3節では,本手法がクエリ・候補語の近傍の文脈情報を使用しているのに対して,文書からの大域的情報を用いる手法との精度の比較を行った.第5.4節では関連語の検索について述べる.\subsection{クエリ・候補語の種類による精度の違い}本節では,クエリと候補語の種類による精度の違いについて調べる.同義語の種類として,「Dispatch」と「DISP」のようなアルファベット同士,「ベルト」と「Belt」のようなカタカナとアルファベット,「座席」と「席」のような漢字同士,「Check」と「検査」のようなそれ以外のものに分類して,表~\ref{classification}のような基準で平均精度を調べた.一般に,候補語の頻度が高いほど文脈情報が豊富となり,平均精度も高くなる傾向にあるため,候補語の頻度に対する閾値を増加させることで平均精度を上げることができる.このようにして平均精度を上げることで50\%を超えることができた場合,基準3に該当する.また,10\%以上50\%未満のときを基準4,10\%未満のときを基準5として分類した.また,閾値の頻度100未満でも50\%を超えることができた場合を基準2,頻度50未満でも50\%を超えることが出来た場合を基準1とした.\begin{table}[b]\begin{center}\caption{同義語候補語の頻度による精度の高低の分類基準}\label{classification}\input{02table04.txt}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{同義語候補語の種類による平均精度(\%)の比較}\label{variation}\input{02table05.txt}\end{center}\end{table}表~\ref{variation}にその結果を示すが,横軸の基準の数字は,各分類毎の基準1〜5での比率を示す.各分類の括弧の中の数字は,各分類の全体での比率を示す.アルファベット同士は,基準1と基準2の合計で81\%以上の平均精度が得られた.カタカナとアルファベットでは,基準1から基準3までの合計でも平均精度は15\%程度であった.この理由としては,カタカナとアルファベットでは,ごく近傍に出現する語の種類(カタカナではカタカナが多く,アルファベットではアルファベットが多い)が異なるためである.漢字同士の場合には,基準1から基準3までの合計で平均精度は約63\%得られた.それ以外の場合は,全体の76\%を占めるが,基準1から基準3までの合計で平均精度は約27\%であった.この結果から,カタカナとアルファベット及びそれ以外の分類のものの精度が低いことが分かった.それに対して,アルファベット同士,漢字同士の同義語の場合には,高い確度でユーザに同義語を提示できる.\subsection{文脈語の正規化}\label{subsec:文脈語の正規化}第5.1節でカタカナとアルファベット及びそれ以外の分類のものの精度が低いことが分かったが,その解決法を考える.その方法として,文脈語に出現する同義語を同定することを考え,それによる精度変化を調べた.同義語同士の周辺に出現する文脈語を観察すると,文脈語の中にも同義語\footnote{今後,文脈同義語と呼ぶこととする.}が多く存在する.例えば,「Cargo」と「貨物」という同義語には,「CargoLoading」と「貨物搭載」というように「Loading」と「搭載」という文脈同義語が出現する.しかしながら,「Cargo搭載」,「貨物Loading」という使用は,ほとんどされないので,「Cargo」と「貨物」の文脈語の中で「Loading」と「搭載」の分布は偏っている.したがって,特徴ベクトルにおいて別の要素である「Loading」と「搭載」は,「Cargo」と「貨物」の類似度の向上にあまり寄与しない.そこで,これらの文脈同義語を正規化\footnote{ここで正規化とは,文脈語を既知の同義語に置換することをいう.例では,「搭載」を「Loading」に置換することである.}することにより平均精度の向上が期待できる.実験として,筆者の1人が選択した25対の同義語(表~\ref{syn1}参照)について,41個の文脈同義語(表~\ref{syn}参照)の正規化を行い,個々の同義語の精度変化および評価辞書全体への影響を調査した.25対の同義語の平均精度は,9.6\%で,評価辞書全体の精度43.1\%と比較して難易度の高いものである.文脈同義語は,各同義語について特徴的なものを,筆者の1人が,PortableKiwi~\cite{pkiwi}を使用して1〜4個選択した.PortableKiwiは,対象としているコーパスに対して,ある言語表現を入力すると,その前後に現れる適当な長さの文字列~\cite{kiwi}のうち,頻度の高いものから順に表示する用例検索システムである.\begin{table}[b]\begin{center}\hangcaption{文脈語の正規化に使用した同義語対(括弧内の数字は,正規化に使用された文脈同義語の表~\ref{syn}の番号を示す.最初の括弧は文脈語の頻度制限をしたもの,2番目の括弧は頻度制限をしないもの.)}\label{syn1}\input{02table06.txt}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{正規化に使用した文脈同義語(矢印(⇒)は,⇒の左の語句から右の語句に置換したことを示す.)}\label{syn}\input{02table07.txt}\end{center}\end{table}最初に文脈語の頻度をこれまで通り50から600のものに制限すると,表~\ref{syn}の41個の文脈同義語の内,使用されたものは21個で,表~\ref{syn1}の25対の同義語の中で文脈同義語が使用されたものは,15対であった.ただし,15対の同義語は,想定していた文脈同義語が1個でも使用されたもので,想定していた文脈同義語が全て使用されていないものを含む.15対の同義語について,平均精度の変化を調べたところ,正規化しない場合の8.4\%から,正規化した場合は43.0\%に上昇した.その内容は,平均精度が上昇したものが28個,精度の低下したものが2個であった\footnote{1つの同義語対について,左辺から右辺と右辺から左辺で精度が異なるため,15対の同義語では30個の精度計算が必要である.}.精度の低下した例は,クエリ「Final」に対する「最終」とクエリ「最終」に対する「Final」である.両例とも精度の低下した理由は同様なので,クエリ「Final」に対する「最終」の例を見てみると,正規化しない場合の順位203位から,正規化した場合は355位に落ちていた.理由としては,文脈同義語が想定していた3個の内,「搭載」⇒「Load」という1個しか使用されず,その文脈同義語も「Final」と「最終」を同義語として認識させ,他の候補語の順位は上昇させないようなものではなかったからであると推定される.次に,文脈同義語のみ,文脈語の頻度制限(50〜600)を外して実験を行った.その結果,想定していた全ての文脈同義語が使用され,25対の同義語について平均精度が上昇したものが46個,低下したものが2個,変化しないものが2個であった.25対の同義語について平均精度の変化を調べたところ,正規化しない場合の9.6\%から,正規化した場合は42.9\%に上昇した.精度の低下した同義語の1つの例は,クエリ「GRP」に対する「グループ」である.類似度の値は,正規化しない場合の0.24から,正規化した場合の0.32に上昇していたが,他の候補語,例えば,「同行」の類似度が0.21から0.39のようにより上昇したために順位が低下したものである(「同行」は不正解である).もう1つの低下した例は,クエリ「手順」に対する「PROC」であるが,その理由も同様である.精度の変化しなかった同義語の1つ例は,クエリ「PROC」に対する「手順」である.正規化しない場合の「手順」の順位は2位で,1位は「PROC」の同義語の「Procedure」であったが,正規化により双方の類似度が上昇し,結果として「手順」の順位は2位のままであった.もう1つの精度の変化しなかった例は,クエリ「DEP」に対する「出発」であるが,正規化しない場合の順位が2位はあり,その類似度は0.42であった.「遅延」⇒「Delay」という文脈同義語により正規化すると,「出発」の類似度は,0.48に上昇したが,1位であった「ARR」も同様に0.48から0.57に上昇した(「ARR」は不正解である).これは,文脈同義語「遅延」⇒「Delay」が「出発」にも「ARR」にも関係しているためである.したがって,正解にのみ関係する文脈同義語を選択できれば,正解のみ精度を向上させることが期待できるが,どのように選択すればよいかは今後の課題である.15対の同義語の文脈語を正規化した場合の評価用辞書全体での平均精度は45.7\%であり,文脈語の正規化を行う前の43.1\%よりも向上していた.その理由の1つは,15対の同義語の精度が上がり,その結果として平均精度を向上させたもの(その効果は,1.3\%),もう1つの理由は,それ以外の同義語も文脈語の正規化により若干精度が向上したためである.文脈同義語の頻度制限を外した25対の同義語の文脈語を正規化した場合の評価用辞書全体での平均精度は46.8\%であり,文脈語の正規化を行う前の43.1\%よりも向上していた.25対の同義語の精度向上による効果は,2.1\%であった.結論として,文脈同義語は,第4.3節で述べたような高頻度と低頻度の文脈語の制限を外した方がよい結果となった.尚,頻度制限を外した場合,高頻度側で使用可能となった文脈同義語は20個,低頻度側で使用可能となった文脈同義語は1個であった.高頻度の文脈同義語が圧倒的に多かった.したがって,高頻度の同義語が既知である場合には,同義語の文字種に拘わらず,正規化することによりシステムの精度を向上できることが分かった.\subsection{大域的文脈情報との比較}酒井らは,日本語の略語からその原型語との対応関係を取得するのに以下のような手法を用いている~\cite{sakai05}.略語候補とそれに対応する原型語の候補を,それを構成している文字情報から獲得する.略語候補と原型語の候補の類似度を計算して,対応関係を取得する.文脈情報の類似度について第3節で提案した手法との比較を行った.彼らは,漢字・ひらがなの名詞の略語を対象としたが,それをカタカナ,アルファベットに拡張して提案手法との比較を行った.彼らの類似度の計算は,コーパス中の略語候補語を含んでいる文書における略語候補語の出現頻度,全ての名詞の総出現頻度,文の数,略語候補語が最初に出現する文番号の情報を用いて重みを付与して順位付けを行い,その上位$N_{n}$文書を取り出して,略語候補の関連文書としている.次に,その関連文書に含まれる各名詞に対して出現頻度,文書頻度などの情報を用いて重みを付与して順位付けを行い,上位$N_{m}$個の名詞を取り出し,名詞の重みを付与したベクトルを生成している.原型語候補に対しても同様のベクトルを生成する.そして,その余弦により類似度を計算している.本論文でも酒井ら~\cite{sakai05}と同様に,$N_{n}=20$,$N_{m}=200$として実験した.\begin{table}[t]\begin{center}\caption{大域的文脈情報と局所的文脈情報の比較}\label{tbl1}\input{02table08.txt}\end{center}\end{table}結果は,表~\ref{tbl1}にあるように,提案手法よりも,かなり低い値となった.その原因として,略語とその原型語の対応関係を求めるのに,関連文書全体から代表的な名詞を抽出して類似度を計算している(大域的文脈情報)が,必ずしも,略語に関連する文書があるとは限らないと考えられる.我々は,局所的な文脈語から類似計算を行っている(局所的文脈情報)が,この手法の優秀性が証明された.\subsection{関連語の検索}語句には,同義であるもの以外に関連性のあるものが存在する.このような語句の分類も,テキスト処理においては重要である.例えば,「引き返し」という語句の関連語として「GTB(GroundTurnBack:地上引き返し)」,「ATB(AirTurnBack:空中引き返し)」,「RTO(RejectedTakeoff:離陸中止)」,「トラブル」などがある.「トラブル」は,「GTB」,「ATB」,「RTO」の上位概念あり,「GTB」,「ATB」,「RTO」は類義語である.これらの語句にも,「HYDFailureによるGTB」,「HYDFailureによるATB」のように同じような文脈が現れる場合が多い.したがって,提案手法で関連語の検索も可能と考えられる.表~\ref{rel}に,いくつかのクエリに対する回答の中での関連語を示す.\begin{table}[t]\begin{center}\hangcaption{関連語の検索:番号は検索された番号,括弧内の「同」は同義語,「原」は原因を表す関連語,「結」は結果を表す関連語,括弧無しは類義語を示す.}\label{rel}\input{02table09.txt}\end{center}\end{table}事実「RTO」について調べたところ,クエリに対する50位までの回答で類義語が2つ,原因を表す関連語が5つ,結果を表す関連語が1つ含まれていた.同じような文脈で使用される関連語は,本手法で検索できることが分かる.関連語によりどのように文脈が違うかについては.今後の研究課題である.本論文では,精度は計算していないが,関連語の検索にも本手法が適用できると考えられる. \section{複合名詞の処理} 複合名詞の処理については,全ての連接する単名詞の組み合わせを調べると,その数が多くなり非効率である.したがって,最初に複合名詞を抽出して,それを単名詞と同様に扱うことで,これまで述べた処理と同じ手法を用いることとした.複合名詞の抽出については,専門用語抽出システム~\cite{termextract}を使用し,それが抽出したものの中で,重要度評価値が3,000以上の用語の中の複合名詞を使用した.専門用語抽出システムは,単名詞の左右に出現する単名詞の連接種類数と連接頻度および候補語の出現頻度から専門用語を抽出するものである.上記の条件で,350の複合名詞が得られた.人手で複合名詞に対して同義語辞書を作成した結果,辞書の登録数73で,平均同義語数は2.00であった.複合名詞の同義語の中には,複合名詞と単名詞が含まれる.この複合名詞350と単名詞1,343に対してwindow~[2,2]で文脈語の最小頻度50,最大頻度600で文脈情報を取得した.実験の結果,平均精度は,44.3\%であった.辞書登録数が少ないので単純には比較できないものの単名詞と同等の精度が得られた.\subsection{複合名詞と単名詞の関係}複合名詞と単名詞について以下のような関係があることが分かった.\begin{enumerate}\item複合名詞の同義語が単名詞の同義語の組み合わせでできているもの:\\例:\ul{出発}~\ul{遅れ}‐\ul{出発}~\ul{遅延}\item複合名詞の基底名詞\footnote{複合名詞を単名詞に分解した時に,複合名詞の最後に現れる単名詞.例の場合は,「券」.}と単名詞が同義なもの:\\例:搭乗~\ul{券}‐\ul{券}\item複合名詞の基底名詞以外の語同士が同義なもの:\\例:\ul{整備}~点検‐\ul{整備}\item複合名詞の中で一部の名詞に省略があるもの:\\例:搭乗~\ul{旅客}~数‐搭乗~数\item単名詞同士では,同義でなかったものが複合名詞では同義になるもの:\\例:\ul{搭乗}~\ul{口}‐\ul{ゲート},\ul{到着}~地‐\ul{目的}~地\\\end{enumerate}以下では,複合名詞を最初に抽出した利点に着目して述べる.(1)については,複合名詞の処理を行わなくても,単名詞の同義語を置き換えることにより複合名詞の同義語を得ることが可能であるが,その場合には,「DEP遅延」のようにあまり使用されない複合名詞の同義語が得られてしまい,単名詞の同義語を置き換えだけでは複合名詞の同義語を絞り込むことができない.したがって,複合名詞抽出の前処理を行うのが効率的である.(2)と(3)については,複合名詞を構成する名詞の中でより一般的で省略しても意味が変化しないものが省略されている.(4)の日本語の略語ついては,第6.2節で述べる.(5)の関係は,上記4種類と異なり,単純に省略や単名詞の置き換え,単名詞の同義語の組み合わせだけでは扱えないもので,複合名詞の前処理を行わないと同義語が得られないものである.\subsection{日本語の略語}\label{subsec:日本語の略語}日本語の略語の平均精度について調査した.日本語の略語とは,例えば,「整備作業」と「整備」のようなものであり,略語が原型語に完全に包含されるものである.したがって,「整備作業」と「整備点検」のようなものは含まれない.単名詞と複合名詞を合わせた同義語候補語1,693個について日本語の省略語の辞書を人手で作成したところ,エントリー数:92,項目数:123,平均項目数:1.34であった.この辞書を使用して実験したところ,平均精度で52.3\%という高い精度が得られた.これは,日本語の原型語と一部省略されている略語では,その周辺には同じような文脈語が出現しやすいと考えられ,本手法の得意な分野だといえる. \section{同義語辞書作成} 同義語辞書は,表~\ref{dic}のように見出し語に対して1語以上の同義語が辞書項目として登録される.情報検索やテキストマイニングでは,同じ概念をグループ化し精度を向上させるために見出し語に対して1対1で同義語を対応させる必要がある場合がある.例えば,表~\ref{dic}に対して,同義語リストは表~\ref{list}のようになる.表~\ref{list}では,「APP」が「進入」に,「Approach」が「進入」に,「CRZ」が「巡航」に変換されることを示す.「進入」,「巡航」は,変換されないでそのまま使用される.複数の同義語の中からどの語を変換語に選択するかは,専門用語抽出システムの重要度評価値の最も大きなものを用いた.つまり,同義語同士の中で最も重要度の高い語に変換するものである.また,「CRZ」⇒「巡航」と「巡航」⇒「CRZ」の場合には,「CRZ」と「巡航」の重要度評価値の大きな方に変換した.この例では,「巡航」の方が重要度評価値が大きく「CRZ」⇒「巡航」という云い換えになる.もちろん多義性のある語では,一意に同義語を決定できないのでこのようなリストは使用できない.この場合には,個々の語が出ている文脈から判断する必要があるが,これは今後の課題である.\begin{table}[t]\begin{minipage}{0.45\textwidth}\begin{center}\caption{同義語辞書}\label{dic}\input{02table10.txt}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\caption{同義語リスト}\label{list}\input{02table11.txt}\end{center}\end{minipage}\end{table}次に同義語辞書を作成する際に一度に全て作成するのではなく,以下に示すように同義語辞書を一部作成した段階で同義語リストを文脈情報の正規化に使用するために文脈同義語としてシステムに与えることにより,残りの辞書作成の精度(平均精度)が向上するかを検証した.例えば,「PAX」を「旅客」に変換することにより,「PAXBoarding」と「旅客搭乗」の例では,「Boarding」と「搭乗」という同義語の文脈語が同一になる.第~\ref{subsec:文脈語の正規化}節では,筆者の一人が選択した同義語対について,頻出する1〜4個の文脈同義語を選択して使用したが,今回は出現頻度順に自動的にシステムに付与した.文脈同義語は,第~\ref{subsec:文脈語の正規化}節の文脈語の正規化で頻度制限をしない方が精度が良かったので,本節でも頻度制限を行わなかった.出現頻度が500以上の同義語リストを作成したところ,41個の同義語リストが得られた.これを文脈同義語とし,正規化したものとしないものについて平均精度を比較したところ,それぞれ平均精度は43.3\%,41.1\%であり,正規化したものの方が約2.2\%精度が向上した(文脈同義語リストに含まれる同義語は評価から除外した).同様に出現頻度が300以上,1,000以上のものについて比較したところ,正規化したものの平均精度がそれぞれ約2.2\%,1.8\%精度が向上した.出現頻度が100〜300,300〜500のものについては,平均精度の変化はなかった.以上の結果から,同義語の中で頻度の高いものを文脈同義語としてシステムに付与すると,若干平均精度が向上することが分かった. \section{結論および今後の課題} 本論文では,特定分野における同義語辞書作成支援システムを提案した.提案手法は,語句の境界が認識できればよいので,深い言語処理技術は必要とせず,分野・言語を問わないものである.クエリ・候補語の前後に出現する語句の文脈情報のみを使用したが,人間の辞書支援システムとしては,十分に機能することを実験の結果確認した.文字種が異なり精度の低い同義語については,文脈語を正規化することにより,精度を向上できる事を確認した.実験の結果,以下の知見が得られた:\begin{itemize}\itemwindow幅による精度の比較では,Teradaら~\cite{terada04}の英文の略語を対象としたものではwindow~[3,3]が最も精度が良かったと報告されているが,本論文で使用した日本語のコーパスでは,window~[2,2]が最も精度がよかった.日本語の漢字1文字の持つ情報量は,明らかに英語1文字の情報量よりも多いので,漢字を含む日本語のコーパスの方が英文のコーパスよりもwindow幅が小さい場合に精度がよい事が,文脈情報という形で確認できた.\item同義語の字種別での平均精度は,アルファベット同士が最も高く,カタカナとアルファベットの平均精度は,最も低かったが,その原因は周辺の文脈情報の文字種が異なる場合が多いからである.\item文脈語の正規化について,以下の2点で,その有効性を確認できた.1番目は,いくつかの同義語対について文脈同義語をシステムに与えることにより,その同義語対の精度をかなり向上させることができた.その理由は,文脈語の正規化をすることにより,異なる文字種の同義語の周辺に出現する異なる文字種の文脈同義語が同定されるためである.また,PortableKiwiを用いることにより,対象とする同義語の周辺に頻出する文脈語を簡単に選択できることが分かった.2番目は,同義語辞書の作成途中で,出現頻度の高い同義語をシステムに与えることにより,システムの精度が向上した.したがって,同義語辞書を出現頻度の高いものから作成し,作成した同義語を知識としてシステムに与えることにより,それ以降の同義語抽出の精度を向上できることが分かった.\end{itemize}今後の課題としては,以下が挙げられる:\begin{itemize}\item文脈同義語として,PortableKiwiを用いて候補語に特徴的な語句を選択して,本システムとハイブリッドに使用できるようにすると,精度を向上できる可能性がある.\item航空分野だけでなく他の分野の同義語でも本手法をテストして有効性を確認する必要がある.\item多義語の処理については,クエリに対する典型的な文脈(ベクトル)情報が得られていれば,そのクエリが出現する文脈から多義性を解消できる可能性がある.例えば,「Noiseについて\ul{Cabin}に問い合わせたところ,\ul{Cabin}でのNoiseは,Door近くからであることが判明した」という文の1番目のCabinは,客室乗務員のことであり,2番目のCabinは,客室のことである.\item同義語の辞書作成というテーマで議論したが,語の意味的な関係は複雑であり,同義語の中にはある場面では同義語であるが,別の面では上位—下位概念として扱わないといけないものがある.例えば,「引き返し」と「ATB(空中引き返し)」,「GTB(地上引き返し)」において,「引き返し」は「ATB」,「GTB」の上位概念である.「引き返し」に関する事例を収集したい場合には,「引き返し」を「ATB」,「GTB」と同義で扱ってよいが,更に詳細に分類したい場合には,上位—下位概念として扱わなければならない.したがって,今後オントロジーを構築する手法についても研究する必要がある.\end{itemize}\acknowledgment専門用語自動抽出システムは,東京大学中川研究室・横浜国立大学森研究室で開発された用語抽出システムを使用させて頂きました.ここに感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Knight\BBA\Graehl}{Knight\BBA\Graehl}{1998}]{knight98}Knight,K.\BBACOMMA\\BBA\Graehl,J.\BBOP1998\BBCP.\newblock\BBOQMachineTransliteration\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(4),\mbox{\BPGS\599--612}.\bibitem[\protect\BCAY{Masuyama\BBA\Nakagawa}{Masuyama\BBA\Nakagawa}{2005}]{masuyama05}Masuyama,T.\BBACOMMA\\BBA\Nakagawa,H.\BBOP2005\BBCP.\newblock\BBOQWeb-basedaquisitionofJapanesekatakanavariants\BBCQ\\newblockIn{\BemSIGIR'05:Proceedingsofthe28thannualinternationalACMSIGIRconference},\mbox{\BPGS\338--344}.\bibitem[\protect\BCAY{Ohtake\BBA\Sekiguchi}{Ohtake\BBA\Sekiguchi}{2004}]{ohtake04}Ohtake,K.\BBACOMMA\\BBA\Sekiguchi,Y.\BBOP2004\BBCP.\newblock\BBOQDetectingTransliteratedOrthographicVariantsviaTwoSimilarityMetrics\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\709--715}.\bibitem[\protect\BCAY{Pustejovsky,Castao,Cochran,Kotecki,Morrell,\BBA\Rumshisky}{Pustejovskyet~al.}{2001}]{pustejovsky01}Pustejovsky,J.,Castao,J.,Cochran,B.,Kotecki,M.,Morrell,M.,\BBA\Rumshisky,A.\BBOP2001\BBCP.\newblock\BBOQExtractionandDisambiguationofAcronym-MeaningPairsin{Medline},unpublishedmanuscript\BBCQ.\bibitem[\protect\BCAY{Schwartz\BBA\Hearst}{Schwartz\BBA\Hearst}{2003}]{schwartz03}Schwartz,A.~S.\BBACOMMA\\BBA\Hearst,M.~A.\BBOP2003\BBCP.\newblock\BBOQASimpleAlgorithmforIdentifyingAbbreviationDefinitionsinBiomedicalText\BBCQ\\newblockIn{\BemPacificSymposiumonBiocomputing},\mbox{\BPGS\8:451--462}.\bibitem[\protect\BCAY{Tanaka-Ishii\BBA\Nakagawa}{Tanaka-Ishii\BBA\Nakagawa}{2005}]{kiwi}Tanaka-Ishii,K.\BBACOMMA\\BBA\Nakagawa,H.\BBOP2005\BBCP.\newblock\BBOQAMultilingualUsageConsultationToolbasedonInternetSearching---Morethansearchengine,LessthanQA\BBCQ\\newblockIn{\BemThe14thInternationalWorldWideWebConference(WWW2005)},\mbox{\BPGS\363--371}.\bibitem[\protect\BCAY{Terada,Tokunaga,\BBA\Tanaka}{Teradaet~al.}{2004}]{terada04}Terada,A.,Tokunaga,T.,\BBA\Tanaka,H.\BBOP2004\BBCP.\newblock\BBOQAutomaticexpansionofabbreviationsbyusingcontextandcharacterinformation\BBCQ\\newblock{\BemInf.Process.Manage.},{\Bbf40}(1),\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{阿玉\JBA橋本\JBA徳永\JBA田中}{阿玉\Jetal}{2004}]{adama04}阿玉泰宗\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2004\BBCP.\newblock\JBOQ日英言語横断情報検索のための翻訳知識の獲得\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG10),\mbox{\BPGS\37--48}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2005}]{sakai05}酒井浩之\JBA増山繁\BBOP2005\BBCP.\newblock\JBOQ略語とその原型語との対応関係のコーパスからの自動獲得手法の改良\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\207--231}.\bibitem[\protect\BCAY{寺田\JBA吉田\JBA中川}{寺田\Jetal}{2006}]{terada06}寺田昭\JBA吉田稔\JBA中川裕志\BBOP2006\BBCP.\newblock\JBOQ文脈情報による同義語辞書作成支援ツール\JBCQ\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\87--94}.\bibitem[\protect\BCAY{寺田\JBA吉田\JBA中川}{寺田\Jetal}{2007}]{terada07}寺田昭\JBA吉田稔\JBA中川裕志\BBOP2007\BBCP.\newblock\JBOQ同義語の類似度に関する考察\JBCQ\\newblock\Jem{言語処理学会第13回年次大会},\mbox{\BPGS\1097--1100}.\bibitem[\protect\BCAY{中川\JBA森\JBA湯本}{中川\Jetal}{2003}]{termextract}中川裕志\JBA森辰則\JBA湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\bibitem[\protect\BCAY{藤本\JBA吉田\JBA中川}{藤本\Jetal}{2005}]{pkiwi}藤本宏凉\JBA吉田稔\JBA中川裕志\BBOP2005\BBCP.\newblock\JBOQローカルコーパスからのテキストマイニングツール:PortableKiwi\JBCQ\\newblock\Jem{言語処理学会第11回年次大会},\mbox{\BPGS\97--100}.\end{thebibliography}\begin{biography}\bioauthor{寺田昭}{1976年京都大学工学部電気工学第二学科卒業.1978年同大学大学院工学研究科修士課程電気工学第二専攻修了.2003年東京工業大学大学院情報理工学研究科後期博士課程修了.博士(工学).現在,(株)日本航空インターナショナル勤務.自然言語処理,テキストマイニング,航空安全に興味を持つ.言語処理学会会員.}\bioauthor{吉田稔}{1998年東京大学理学部情報科学科卒業.2003年東京大学大学院理学系研究科情報科学専攻博士課程修了.博士(理学).2003年より東京大学情報基盤センター図書館電子化研究部門助手.2007年より同助教.自然言語処理,Web文書解析の研究に従事.}\bioauthor{中川裕志}{1975年東京大学工学部卒業.1980年東京大学大学院工理学系研究科修了.工学博士.同年より横浜国立大学工学部勤務.1999年より東京大学情報基盤センター教授.現在に至る.2000年から2002年言語処理学会編集長,2002年から2004年言語処理学会総編集長,2004年から2006年言語処理学会会長,2006年より情報処理学会自然言語処理研究会主査.自然言語処理,機械学習,WWWの研究に従事.}\end{biography}\biodate\end{document}
V20N02-04
\section{はじめに} 文書分類においてNaiveBayes(NB)を利用するのは極めて一般的である.しかし,多項モデルを用いたNB分類器では,クラス間の文書数に大きなばらつきがある場合に,大きく性能が下がるという欠点があった.そのため,\citeA{Rennie}は「クラスに属する文書」ではなく「クラスに属さない文書」,つまり「補集合」を用いることによりNBの欠点を緩和したComplementNaiveBayes(CNB)を提唱した.しかし,CNBはNBと同じ式,つまり事後確率最大化の式から導くことができない.そこで我々は,事後確率最大化の式から導くことのできるNegationNaiveBayes(NNB)を提案し,その性質を他のBayesianアプローチと比較した.その結果,クラスごとの単語数(トークン数)が少なく,なおかつクラス間の文書数に大きなばらつきがある場合には分類正解率がNB,CNBをカイ二乗検定で有意に上回ること,また,これらの条件が特に十分に当てはまる場合には,事前確率を無視したCNBも同検定で有意に上回ることを示す.また,NNBは,Bayes手法以外の手法であるサポートベクターマシン(SVM)よりも,時に優れた結果を示した.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節でBayes手法のテキスト分類の関連研究について紹介する.\ref{Sec:NegationNaiveBayesの導出}節では提案手法であるNNBの導出について述べる.\ref{Sec:実験}節では本研究で用いたデータと実験方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる. \section{関連研究} \label{Sec:関連研究}これまでに数多くの文書分類に関する研究がなされており,これらの中でも,Bayesの手法はよく用いられている\cite{持橋}.\citeA{井筒}はhtmlファイルの自動分類でNBを使用し,ルールベースの手法や判別分析に比べて,プログラム開発者にかかる負担の低さとスケーラビリティの高さを指摘している.\citeA{Andrew}はNBを適用してテキスト分類を行う際に使用する事象モデルとして,多項モデルと多変量ベルヌーイモデルの違いを述べ,分類結果から多項モデルの優位性を示している.\citeA{Lewis}は,文書分類問題において単語と句,単語と句のクラスタ化の有無,全ての索引語を用いるか一部を用いるかの違いについて,分類精度の比較を行った.\citeA{花井}は,NBが前提とする単語間の独立が成り立たないとし,依存性の強い2単語の組が同時に生起する確率をNBに適用することによって分類精度の向上を図った.Church(2000)は,単語の重み付け方法としてIDF値のかわりに``Adaptation''という概念を用い,文書に含まれていないが内容に関連している単語を``Neighbor''として定義して,テキスト内の特徴的な単語の抽出を行った.さらに\citeA{持橋06}は,NBにおけるクラス$c$を未知として拡張したDM(DirichletMixtures)やInfiniteDMを提案し,高村,Roth(2007)\nocite{高村}は,予測的尤度を用いて超変数を設定することなく,加算スムージングのパラメータを求めた.NBを発展させた研究として,補集合を用いて学習を行うCNBが有名である\cite{Rennie}.CNBは,「クラスに属する文書」ではなく「クラスに属さない文書」,つまり「補集合」を用いることによりNBの欠点を緩和した手法である.本研究では,多項モデルを用いたNBとCNBに注目し,その分類における特徴を考慮して,Bayesのアプローチを用いた新しい分類手法NNBを提案する. \section{NegationNaiveBayesの導出} \label{Sec:NegationNaiveBayesの導出}NNBはCNBと同様に補集合を利用して文書分類を行うが,CNBと異なってNBと同じ事後確率最大化の式から導出が可能である.その結果,事前確率を数学的に正しく考慮することで,クラスごとの文書数が異なっているときにもより正確な文書分類を行えるようにした.本節ではNBの導出と,CNBの概念について触れた後,提案手法であるNNBの導出について述べる.\subsection{NaiveBayes分類器}\label{Sec:NaiveBayes分類器}一般に確率モデルによる文書分類では,分類対象となる文書を$d$,ある一つのクラスを$c$としたとき,事後確率$P(c|d)$を最大化するクラス$\hat{c}$を求める\cite{Zhang}.NB分類器を用いた文書分類では,事後確率にBayesの定理を適用する.文書の取り出される確率$P(d)$はすべてのクラスについて一定であることを考慮すると,事後確率が最大のクラスを推定することは,クラスの出現確率$P(c)$と各クラスでの文書の出現確率$P(d|c)$の積を最大化するクラスを推定することと等しくなる.\begin{equation}\begin{aligned}[b]\hat{c}&=\argmax_{c}P(c|d)\\&=\argmax_{c}\frac{P(c)P(d|c)}{P(d)}\\&=\argmax_{c}P(c)P(d|c)\end{aligned}\label{eq:bayes}\end{equation}式(\ref{eq:bayes})において,$P(c)$は全文書中でクラス$c$に属する文書の割合を用いて容易に推定ができるが,$P(d|c)$を直接推定するのは難しい.そこで,まず文書$d$を単語列$w_1,w_2,\ldots,w_n$で近似する.\begin{equation}P(d|c)\approxP(w_1,w_2,\ldots,w_n|c)\label{eq:bayes2}\end{equation}次に,各クラスで単語が独立に生起すると仮定すると,式(\ref{eq:bayes2})は\begin{equation}P(w_1,w_2,\ldots,w_n|c)\approx\prod_{i=1}^{n}P(w_i|c)\label{eq:bayes3}\end{equation}と近似される.したがって,$d$の属するクラス$\hat{c}$は最終的に以下の式で求められる.\begin{equation}\hat{c}=\argmax_{c}P(c)\prod_{i=1}^{n}P(w_i|c)\label{eq:rnb}\end{equation}\subsection{ComplementNaiveBayes分類器}\label{Sec:ComplementNaiveBayes分類器}多項モデルを用いたNB分類器では,クラス間の文書数に大きなばらつきがある場合に,文書数の小さいクラスで$P(w_i|c)$が大きくなる傾向がある.$P(w_i|c)$は「そのクラス中に出てきたそのトークン$w_i$の数/そのクラス中に出てきたそのトークンの総数」であるため,訓練事例の単語トークン数に大きな差ができた結果,大きいクラスの$P(w_i|c)$は比較的小さく,小さいクラスの$P(w_i|c)$はかなり大きくなることが予想できる.その結果,小さいクラスに出現した単語を含む文書が出現した場合,その文書は,その単語をもつ小さなクラスに割り当てられることになる.また,文書数の少ないクラスでは,新規文書に出現した単語がそのクラスに含まれていない割合が多くなり,データがスパースになりやすい.そこで,学習する文書数のばらつきを抑え,スパースネス問題を緩和するようNBを改良したのが\citeA{Rennie}のCNBである.具体的には,「クラス$c$に属す訓練事例」ではなく「クラス$c$に属さない訓練事例」すなわち「$\bar{c}$に属する訓練事例(補集合)」を用いて学習を行う\footnote{Rennieらは文献の中でCNBのほかに5種類のヒューリスティックを導入しているが,本研究では純粋に式の変更による違いを見るため,ヒューリスティックは使用しなかった.}.\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f1.eps}\end{center}\caption{NBとCNBでの学習に用いる文書数の違い}\label{Fig:コンプ文書数変化}\end{figure}図\ref{Fig:コンプ文書数変化}は,NBとCNBでの学習に用いる文書数の違いを表している.文書数10,10,20,40の4つのクラスがある場合,NBではこの文書数を自身のクラスの学習に使う.そのため,文書数が最も少ないクラスと最も多いクラスでは学習に使用する文書数に4倍の差がある.一方,CNBでは自身のクラスに属する文書以外の文書から学習を行うため,学習に用いる文書数は最小のもので40,最大のもので70となり,NBに比べてばらつきが小さくなる.CNBは,文書内にある単語の出現確率の積から尤度を計算し,分類するクラスを決めるという点ではNBと同じである.つまり,式(\ref{eq:rnb})を用いて文書$d$の属するクラス$\hat{c}$を推定する.しかし,CNBでは$P(w_i|c)$を最尤推定で求めるのではなく,$c$以外のクラス$\bar{c}$の尤度の積から推定する.つまり,$d$の属するクラス$\hat{c}$は最終的に以下の式で求められる.\begin{equation}\hat{c}=\argmax_{c}P(c)\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}\label{eq:cnb}\end{equation}\subsection{NegationNaiveBayes分類器}\label{Sec:NegationNaiveBayes分類器}前節で説明したCNBは,NBの持つ「クラス間の文書数のばらつきによって分類結果が偏る」という特徴を緩和する手法である.しかし,CNBはヒューリスティックによる解決法であって,事後確率最大化の式から導出することはできない.そこで本研究では,事後確率最大化の式から導出でき,かつ,CNBの「訓練にクラスの補集合を利用する」という長所をもつ分類器を作成する.以下でNBと同様の,事後確率最大化の式(式(\ref{eq:bayes}))からの式の変形について述べる.まず,事後確率$P(c|d)$を最大化するクラス$\hat{c}$を求める式を補集合を利用するように変形する.\begin{equation}\begin{aligned}[b]\hat{c}&=\argmax_{c}P(c|d)\\&=\argmax_{c}(1-P(\bar{c}|d))\\&=\argmin_{c}P(\bar{c}|d)\end{aligned}\label{eq:eqnnb1}\end{equation}次に,Bayesの定理を用いて式(\ref{eq:eqnnb1})を変形する.\begin{equation}\begin{aligned}[b]\hat{c}&=\argmin_{c}\frac{P(\bar{c})P(d|\bar{c})}{P(d)}\\&=\argmin_{c}P(\bar{c})P(d|\bar{c})\end{aligned}\label{eq:eqnnb2}\end{equation}そして,式(\ref{eq:eqnnb2})を近似する.$P(d|\bar{c})$は式(\ref{eq:bayes2}),(\ref{eq:bayes3})と同様に\begin{equation}P(d|\bar{c})\approx\prod_{i=1}^{n}P(w_i|\bar{c})\label{eq:eqnnb3}\end{equation}と近似される.したがって,文書$d$の属するクラス$\hat{c}$を以下の式で推定する.\begin{equation}\hat{c}=\argmin_{c}P(\bar{c})\prod_{i=1}^{n}P(w_i|\bar{c})\label{eq:nnb}\end{equation}なお,$P(\bar{c})=1-P(c)$であり,CNBと同じく最大化で表現すると以下の式になる.\begin{equation}\hat{c}=\argmax_{c}\frac{1}{1-P(c)}\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}\label{eq:nnb2}\end{equation}式(\ref{eq:cnb})と比較すると,$\frac{1}{1-P(c)}$の最大化の部分,つまり事前確率$P(c)$の部分が異なっていることが分かる.式(\ref{eq:nnb2})は事後確率最大化の式から求められたため,事前確率を数学的に正しく考慮した式となっている.なお,Rennieらの研究では,式(\ref{eq:cnb})において事前確率の扱いについてあまり注意を払っていないが,我々はクラスごとに単語数の偏りが大きいデータセットについて分類を行う場合には,$P(c)$を利用するか$\frac{1}{1-P(c)}$を利用するかの影響は必ずしも無視して良いとは言えないと考える.また,Rennieらの研究では,$P(c)$は$P(w_i|\bar{c})$に比べて分類結果への影響が小さいと判断し,事前確率は計算してもしなくても結果は同じと考え,実際の分類には$P(c)$を無視して$P(w_i|\bar{c})$のみを計算しているため,P(c)なしのCNBについても参考として実験を行う. \section{実験} \label{Sec:実験}NNBの性能を測りその特色を調べるため,ふたつのコーパスを用いた実験を行った.一つ目はオークションの商品分類の実験であり,二つ目はニュースグループの文書分類の実験である.これらの二つの実験において,形態素解析により得た表層形のbag-of-wordsを用いてNB,CNB,NNBの文書分類の性能を比較した.また,NBBとCNBの差は事前確率$P(c)$と$\frac{1}{1-P(c)}$の部分であるため,CNBとNNBから第一項を省略した形の式($P(c)$なしのCNB)でも実験を行った.なお,形態素解析ソフトにはMeCab\footnote{http://mecab.sourceforge.net/}を利用した.また,スムージング手法としては,予備実験によりラプラススムージング\cite{ラプラス,ラプラス2}とJeffreysPerks法\cite{JeffreysPerks}を試し,JeffreysPerks法の方が結果がよかったため,これを採用した.さらに,Bayesではない手法の比較対象として,SVMについても実験を行った.この際,分類器としてはマルチクラス対応のSVM(libsvm\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/})を使用した.カーネルは予備実験の結果,線形カーネルが最も高い正解率を示したため,これを採用した.また,学習の素性はBayesの手法とそろえ,表層形のbag-of-wordsの頻度ベクトルを使用した.すべての実験には五分割交差検定を用いた.\subsection{オークションの商品分類の実験}\label{Sec:オークションの商品分類の実験}オークションの商品分類の実験は,Yahoo!オークション\footnote{http://auctions.yahoo.co.jp/}の商品タイトルを商品カテゴリに分類する実験である.詳細は\citeA{佐藤}にならった.本実験では,「デスクトップ」「記念切手」「赤ちゃん用の玩具」の三つのジャンルカテゴリ\footnote{オークション$>$コンピュータ$>$パソコン$>$Windows$>$デスクトップの例では,「デスクトップ」だけでなく,「コンピュータ」や「パソコン」,「Windows」もジャンルカテゴリであるが,本実験ではデータサイズの観点から「デスクトップ」を対象として実験を行った.}に含まれる商品を対象に実験を行った.これらのジャンルカテゴリは,以下のようにトップカテゴリ(オークション)から絞り込むことができる.\begin{itemize}\itemオークション$>$コンピュータ$>$パソコン$>$Windows$>$デスクトップ\itemオークション$>$アンティーク,コレクション$>$切手,官製はがき$>$日本$>$特殊切手,記念切手\itemオークション$>$おもちゃ,ゲーム$>$ベビー用\end{itemize}ここで,$>$の左が親カテゴリ,右が子カテゴリを示す.「デスクトップ」と「記念切手」は2012年6月26日に,「赤ちゃん用の玩具」は2012年6月29日に取得したデータである.ひとつの商品はひとつの葉カテゴリにのみ属しているものとし,出品者によって登録されたカテゴリを正しいカテゴリとして実験を行った.なお,例えばジャンルカテゴリが「デスクトップ」の場合,「ASUSの1,000円〜1,099円」や「IBMパソコン単体31,000円〜34,999円」といったものが葉カテゴリである.また,\citeA{佐藤}にならい,出品者個人による商品情報表記の癖などの偏りをなくすため,各カテゴリにつき1人の出品者の商品は1つしか使用しないものとし,商品タイトルの全単語を利用した実験と名詞のみを使用した二つの実験を行った.\begin{table}[b]\hangcaption{それぞれのジャンルカテゴリ中の葉カテゴリ数,同じ出品者による商品をひとつにする前と後の商品数}\label{Tab:同じ出品者による商品をひとつにする前と後の商品数}\input{04table01.txt}\end{table}\tabref{Tab:同じ出品者による商品をひとつにする前と後の商品数}にそれぞれのジャンルカテゴリ中の葉カテゴリ数,同じ出品者による商品をひとつにする前と後の商品数を示す.ここで,商品数(処理前),商品数(処理後)はそれぞれ,同じ出品者による商品をひとつにする前と後の商品数である.なお,「赤ちゃん用の玩具」の商品数(処理後)には8205,8204と二つ数字があるが,8205は全ての品詞の分類,8204は名詞のみの分類による商品数を示している.「赤ちゃん用の玩具」のデータには,形態素解析の結果,全ての形態素が名詞以外の品詞に割りつけられた商品が1件あったため,このような結果になっている.\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f2.eps}\end{center}\caption{「デスクトップ」のカテゴリごとの文書数,単語トークン数,名詞のトークン数}\label{Fig:pc}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f3.eps}\end{center}\caption{「記念切手」のカテゴリごとの文書数,単語トークン数,名詞のトークン数}\label{Fig:stamp}\end{figure}また,\figref{Fig:pc},\figref{Fig:stamp},\figref{Fig:toy}にそれぞれ「デスクトップ」,「記念切手」,「赤ちゃん用の玩具」のカテゴリごとの文書数,単語トークン数,名詞のトークン数を折れ線グラフにしたものを示す.横軸のカテゴリindexは,カテゴリを文書数で並べ替えたときに降順につけたものである.これらの図から,カテゴリの分類実験において,カテゴリごとに文書数,トークン数が非常に偏っていることが分かる.特に,「記念切手」が最も偏っていることが読みとれる.\begin{figure}[t]\begin{center}\includegraphics{20-2ia4f4.eps}\end{center}\caption{「赤ちゃん用の玩具」のカテゴリごとの文書数,単語トークン数,名詞のトークン数}\label{Fig:toy}\end{figure}\begin{table}[t]\hangcaption{オークションのカテゴリ分類実験の訓練事例中の商品数の標準偏差,標準偏差/平均,トークン数,1商品当たりの平均単語数}\label{Tab:オークションのカテゴリ分類実験のデータ}\input{04table02.txt}\end{table}また,\tabref{Tab:オークションのカテゴリ分類実験のデータ}にオークションのカテゴリ分類実験の訓練事例中の商品数の標準偏差,訓練事例中の文書数の標準偏差を訓練事例中の総文書数の平均で割った値(以降,標準偏差/平均と表記),トークン数,1商品当たりの平均単語数を示す.標準偏差/平均は,カテゴリ(またはクラス)ごとの商品数(または文書数)のばらつきを見るために示した.ばらつきを測るのには標準偏差を用いるのが一般的であるが,本実験のように全商品数(または文書数)が異なる実験設定同士を比べる際には,全商品数(文書数)の絶対値が大きくなるにつれて標準偏差も大きくなるという問題があったためである\footnote{例えば,1,2,3,4,5の五つの値の標準偏差は約1.58になるが,0.1,0.2,0.3,0.4,0.5の五つの値の標準偏差は約0.158になる.}.標準偏差を平均で割ることによって,全商品数(文書数)のスケールに左右されないデータのばらつきを測った.\tabref{Tab:オークションのカテゴリ分類実験のデータ}のこの「訓練事例中の商品数の標準偏差/平均」を見てみると,「記念切手」の値が「デスクトップ」や「赤ちゃん用の玩具」より高いことから,\figref{Fig:pc}〜\figref{Fig:toy}から読みとったように,「記念切手」が最も偏っていることが読みとれる.\subsection{ニュースグループの文書分類の実験}\label{Sec:ニュースグループの文書分類の実験}ニュースグループの文書分類の実験のコーパスには20Newsgroups\footnote{http://people.csail.mit.edu/jrennie/20Newsgroups/}を利用した.20Newsgroupsは,全20クラス,18774件のニュース記事からコーパスが構成されており,文書数はどのクラスもおよそ1000件である(cf.~\tabref{Tab:クラスごとの文書数を不均一にした実験のクラスごとの文書数}).\begin{table}[b]\caption{クラスごとの文書数を不均一にした実験のクラスごとの文書数}\label{Tab:クラスごとの文書数を不均一にした実験のクラスごとの文書数}\input{04table03.txt}\end{table}\subsubsection{一文書あたりの単語数を減らした実験}CNBとNNBの式,式(\ref{eq:cnb})と式(\ref{eq:nnb2})を比較してみると,事前確率$P(c)$と$\frac{1}{1-P(c)}$の部分が異なっていることが分かる.残りの$\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}$については等しい.しかし,単語数が少ない文書を分類する際には,単語数が多い文書を分類する際よりも,相対的に事前確率の影響が大きくなることが予想される.そのため,一文書あたりの単語数を減らして実験を行い,その分類正解率を比較する.この際,一文書あたりの単語数を$n$とし,パラメータを$x$とすると,一文書あたりの単語数を$n/2^{x}$(ただし割り切れない場合には1を加算する)として実験した.パラメータ$x$は,0〜4を試した.$x$が0のときには,オリジナルの20Newsgroupsと等しい.ニュースグループの分類実験において一文書あたりの単語数を減らした実験の訓練事例中の単語数,1文書当たりの平均の単語トークン数を\tabref{Tab:一文書あたりの単語数を減らした実験のデータ}に示す.なお,このとき訓練事例中の総文書数はすべて18,774であり,訓練事例中の文書数の標準偏差はすべて95.95である.また,訓練事例中の文書数の標準偏差/平均は0.10になる.\subsubsection{クラスごとの文書数を不均一にした実験}NNBは事前確率を数学的に正しく考慮しているため,文書分類ではクラスごとの文書数が不均一である際に効果を発揮すると考えられる.そのため,20Newsgroupsにおいて,クラスごとに文書を間引きすることによって,クラスごとの文書数を不均一にして実験を行い,比較する.この際,クラスのインデックスを$i=1...20$,パラメータを$y$とすると,$i=1$だけは常にオリジナルの文書数を保ったままとし,$i=2$から文書数を$1/((i-1)y)$に減らして実験を行った.例えば,$y=1$のときには,$i=2,3,4$の時にはそれぞれ$1/1,1/2,1/3$となり,$y=2$のときには,$i=2,3,4$の時にはそれぞれ$1/2,1/4,1/6$となる.パラメータ$y$は,1〜4を試した.\begin{table}[b]\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の訓練事例中の単語トークン数,1文書当たりの平均の単語トークン数}\label{Tab:一文書あたりの単語数を減らした実験のデータ}\input{04table04.txt}\end{table}\begin{table}[b]\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の訓練事例中の総文書数,文書数の標準偏差,標準偏差/平均,単語トークン数,1文書当たりの平均の単語トークン数}\label{Tab:クラスごとの文書数を不均一にした実験のデータ}\input{04table05.txt}\end{table}\tabref{Tab:クラスごとの文書数を不均一にした実験のクラスごとの文書数}に,クラスごとの文書数を不均一にした実験のクラスごとの文書数を示す.また,\tabref{Tab:一文書あたりの単語数を減らした実験のデータ}にニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の訓練事例中の総文書数,文書数の標準偏差,標準偏差/平均,単語トークン数,1文書当たりの平均の単語トークン数を示す.また,ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の訓練事例中の総文書数,文書数の標準偏差,標準偏差/平均,単語トークン数,1文書当たりの平均の単語トークン数を\tabref{Tab:クラスごとの文書数を不均一にした実験のデータ}に示す. \section{結果} \label{Sec:結果}\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}と\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}に全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示し,\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}に名詞だけを使用したオークションのカテゴリ分類実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示す.また,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率}と\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}にニュースグループの分類実験において,一文書あたりの単語数を減らした実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示し,\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率}と\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}に同分類実験において,クラスごとの文書数を不均一にした実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示す.なお,正解率は,(分類に成功したもの)/(実験データ数)として求めた.同じ文書集合の実験で,NB,CNB,NNBのうちで最も良かった正解率を太字で示した.さらに,次に良かった正解率との差がカイ二乗検定で有意だったものに関しては下線を引いた.また,$P(c)$なしのCNBとSVMに関しては,上記の三手法のうち最も良かった手法と同じか,それよりも良いものは太字で示し,その優劣にかかわらず,差がカイ二乗検定で有意だったものに関しては下線を引いた.さらに,参考として最頻出カテゴリ(クラス)を答えた場合の正解率も併記した.\begin{table}[b]\caption{全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マイクロ平均)}\label{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}\input{04table06.txt}\end{table}\begin{table}[b]\caption{全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ平均)}\label{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}\input{04table07.txt}\end{table}\begin{table}[p]\caption{名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マイクロ平均)}\label{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率}\input{04table08.txt}\end{table}\begin{table}[p]\caption{名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ平均)}\label{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}\input{04table09.txt}\end{table}\begin{table}[p]\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の分類正解率{\break}(マイクロ平均)}\label{Tab:一文書あたりの単語数を減らした実験の分類正解率}\begin{center}\input{04table10.txt}\end{table}\begin{table}[p]\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の分類正解率{\break}(マクロ平均)}\label{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}\input{04table11.txt}\end{table}\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率}から,オークションのカテゴリ分類実験において,マイクロ平均を比較した際,NNBが常にNBとCNBを有意に上回っていることが分かる.また同じ二つの表から,NNBが$P(c)$なしのCNBよりも大抵(名詞だけの実験の「デスクトップ」が例外である)上回っていることが分かる.このうち,「記念切手」の実験では,全単語使用した場合,名詞だけを使用した場合に拘わらず,カイ二乗検定によりその差が有意であった.しかし,これらの実験において最も良い結果なのはSVMであり,NNBを有意に上回っている.\begin{table}[t]\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の分類正解率{\break}(マイクロ平均)}\label{Tab:クラスごとの文書数を不均一にした実験の分類正解率}\input{04table12.txt}\end{table}\begin{table}[t]\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の分類正解率{\break}(マクロ平均)}\label{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}\input{04table13.txt}\end{table}また,\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}から,オークションのカテゴリ分類実験において,マクロ平均においても,有意ではないながら,NNBが常にNBとCNBを上回っていることが分かる.また同じ二つの表から,$P(c)$なしのCNBが有意ではないものの,NNBを上回っていることが分かる.さらに,SVMは「デスクトップ」と「記念切手」においては有意に,「赤ちゃん用の玩具」では有意ではないものの,NNBを上回った.また,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率}と\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率}から,ニュースグループの分類実験においても,マイクロ平均で比較した場合,常にNBBがNBとCNBを上回ることが分かる.ただし,その差が有意なのは,クラスごとの文書数を不均一にした実験(\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率})のパラメータが1のときと3のときだけである.また,これらの実験において,$P(c)$なしのCNBはしばしばNNBを上回っているが,有意に上回っていることは一度もなかった.さらに\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率}の一文書あたりの単語数を減らした実験では,パラメータ0,1,2のとき,NNBの分類正解率がSVMを有意に上回っている.しかし,パラメータ3,4のときはSVMが最高であり,NNBと比較してその差は有意であった.一方,\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率}から,クラスごとの文書数を不均一にした実験では,全ての実験設定のときにNNBがSVMを上回っている.この差はカイ二乗検定により有意であった.これに対し,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}と\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}から,ニュースグループの分類実験において,マクロ平均においても,NNBが常にNBとCNBを上回っていることが分かる.また同じ二つの表から,$P(c)$なしのCNBがNNBを上回っていることが分かるが,これらの差はいずれも有意ではない.さらに,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}の一文書あたりの単語数を減らした実験では,常に有意でないながらもNNBの分類正解率がSVMを上回っている.しかし,パラメータ3,4のときは,マイクロ平均と同様にSVMが最高であり,NNBと比較してその差は有意であった.一方,\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}から,クラスごとの文書数を不均一にした実験では,全ての実験設定のときにNNBがSVMを上回っている.この差はパラメータ0と1のとき,カイ二乗検定により有意であった. \section{考察} \label{Sec:考察}オークションのカテゴリ分類実験の結果とニュースグループの分類実験の結果を総合してNNBの特色について考察する.まず,\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}〜\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}から,全ての実験を通して,NNBはNBとCNBを上回っていること,また$P(c)$なしのCNBに有意に勝っていることはあっても有意に負けていることはないことが読みとれる\footnote{ただし,有意ではないものの,\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}では常に$P(c)$なしのCNBがNNBを上回っている.$P(c)$は事前確率であるため,カテゴリ間のデータ数に偏りがあり,なおかつ単語トークン数が少ない場合には,NNBは大きなカテゴリに分類されやすいことが予想できる.そのため,マイクロ平均は$P(c)$なしのCNBを有意に上回ったが,マクロ平均は$P(c)$なしのCNBが高くなる傾向がある可能性がある.}.このことから,NNBは他のBayesの定理を利用した文書分類手法に比較しても引けを取らない文書分類手法であると言える.特にNBと比較したときには,マイクロ平均では常に有意に,マクロ平均ではオークションのカテゴリ実験において「デスクトップ」と「記念切手」の全品詞を使った分類実験以外の実験で有意に勝っていた.なお,マクロ平均ではサンプル数の減少から,NNBと比較した際,SVMとNBだけにしか有意差が認められなかったため,今後は主にマイクロ平均について考察する.オークションのカテゴリ分類実験とニュースグループの分類実験の実験設定の違いのうち,NNBの式に大きく関わりそうな点は二点あるだろう.一つ目は第一項の事前確率に関わる,クラスごとの文書数(またはカテゴリごとの商品数)のばらつき,二つ目はそれ以外の部分に関わる,一文書ごとの単語トークン数である.\ref{Sec:ニュースグループの文書分類の実験}節でも述べたように,CNBとNNBの式,式(\ref{eq:cnb})と式(\ref{eq:nnb2})を比較してみると,事前確率$P(c)$と$\frac{1}{1-P(c)}$の部分が異なっており,残りの$\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}$については等しい.NNBは事前確率を数学的に正しく考慮しているため,文書分類ではクラスごとの文書数が不均一である際に効果を発揮すると考えられる.また,単語数が少ない文書を分類する際には,単語数が多い文書を分類する際よりも,相対的に事前確率の影響が大きくなることが予想される.クラスごとの文書数のばらつきを見るために,\figref{Fig:標準偏差/平均}に同実験においてクラスごとの文書数を不均一にした実験の,クラスごとの文書数の標準偏差/平均を横軸とした分類正解率の散布図を示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f5.eps}\end{center}\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の,クラスごとの文書数の標準偏差/平均を横軸とした分類正解率の散布図}\label{Fig:標準偏差/平均}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f6.eps}\end{center}\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の,一文書あたりの単語トークン数を横軸とした分類正解率の散布図}\label{Fig:1文書ごとに平均した単語数}\end{figure}また,単語トークン数の影響を見るために,\figref{Fig:1文書ごとに平均した単語数}にニュースグループの分類実験において一文書あたりの単語数を減らした実験の,一文書あたりの単語トークン数を横軸とした分類正解率の散布図を示す.その上でNNBの特徴をNB,CNB($P(c)$のないものを含む),SVMの順で比較しつつ考察する.\figref{Fig:標準偏差/平均}から,NBはクラスごとの文書数のばらつきが多い際にその分類正解率が著しく低下することが分かる.また,商品のカテゴリ分類実験において,NBの分類正解率がとても低いのも同じ原因によるものであることがうかがえる.商品のカテゴリ分類実験において,標準偏\linebreak差/平均は「デスクトップ」,「記念切手」,「赤ちゃん用の玩具」がそれぞれ1.44,2.84,1.33と高く,カテゴリごとの商品数のばらつきが大きいからである.この原因として,クラスごとの$P(w_i|c)$のデータスパースネスの差が考えられる.ここでNBの式を再掲する.\begin{equation}\hat{c}=\argmax_{c}P(c)\prod_{i=1}^{n}P(w_i|c)\label{eq:rnb2}\end{equation}NBではクラスごとの文書数のばらつきが大きい際には,クラスによって訓練事例の単語トークン数に大きな差ができる.例えば最も大きなクラスでは,その訓練事例となるトークン数が一万となり,小さなクラスでは10トークンといった具合である.その結果,小さなクラスではデータがスパースになり,より頻繁にスムージングが行われる.そのため,NBでは,個々の分類問題と相性の良いスムージング手法を用いることが求められるが,今回のジェフリー・パークス法はラプラス法よりは良いとはいえ,まだ実際よりも大きな値を小さなクラスに与えていたと思われる\footnote{\citeA{佐藤}のスムージング(頻度0の時には0.1/Nを用いる.このNは訓練事例中の全単語トークン数.)を用いるとNBだけ飛躍的に正解率が上昇した.ただし,本論文の主張との矛盾はない結果であった.}.このように,NBではデータスパースネスによって誤分類が起きて分類正解率が著しく下がることがあるが,この問題を補集合を用いることで解決したのがCNBであり,この点についてNNBはCNBと全く同じ特色を持っている.次に,NNBとCNBの差について考察する.\figref{Fig:標準偏差/平均}を見てみると,$P(c)$を考慮しないCNBとNNBの差はあまりないが,NNBはCNBより若干良いことが分かる.これは,クラスごとの文書数に偏りが出てくると,CNBとNNBの違いである事前確率が異なってくるため,その分類正解率に差がつくからであると考えられる.次に\figref{Fig:1文書ごとに平均した単語数}を見てみると,一文書当たりの平均の単語数が減ると,どの手法を用いても全体的に分類正解率が低下することが分かる.これは,単語数が減ることで,統計の材料となる$w_i$が減っているためであると考えられる.これに対し,一文書当たりの単語数を変化させても,CNBとNNBの差が大きくなることはなかった.これは,ニュースグループのオリジナルのコーパスでは,そもそもクラスごとの文書数に偏りがあまり見られないため,事前確率に偏りがなく,CNBとNNBがそう違わない結果になったためであると考えられる.ここで,オークションのカテゴリ分類実験の実験設定も共に比較してみる.\figref{Fig:CNBとNNB}に縦軸を標準偏差/平均,横軸をクラスごとの単語数にした,実験設定ごとのCNBとNNBの差の散布図を示す.左の図が事前確率を考慮したCNBとNNBの差が有意であるかを表しており,右の図が事前確率を考慮しないCNBとNNBの差が有意であるかを表している.なお,両方の図において,縦軸の値が0.10である五つの点が,ニュースグループの一文書当たりの単語数を減らした一連の実験であり,横軸の値が128.71である五つの点が,ニュースグループのクラスごとの文書数を不均一にした一連の実験である.オークションのカテゴリ分類実験の実験設定では,ニュースグループの実験よりも,ひとつの文書(商品)ごとのトークン数が少なく(一文書当たりの単語数を最も減らした実験と同じくらいである),なおかつクラス(カテゴリ)ごとの文書数(商品数)の偏りが,クラスごとの文書数を不均一にしたニュースグループの実験と同じくらい,またはそれ以上に偏っていることが分かる.\begin{figure}[t]\begin{center}\includegraphics{20-2ia4f7.eps}\end{center}\hangcaption{横軸を標準偏差/平均,縦軸をクラスごとの単語数にした,実験設定ごとのCNBとNNBの差の散布図}\label{Fig:CNBとNNB}\end{figure}\figref{Fig:CNBとNNB}により,標準偏差/平均が小さい時にはCNBとNNBの差はほとんどないこと,また,標準偏差/平均が大きくなるにつれてNNBが有意にCNBを上回るようになる傾向がうかがえる.また,一文書あたりの単語数が少ない時に,なおかつ標準偏差/平均が大きければ,NNBが有意に事前確率を考慮しないCNBに対しても有意に上回ることが分かる.オークションのカテゴリ分類実験の「記念切手」(左上の二点)のときには,両方の条件が共に十分当てはまったため,NNBの分類正解率が,CNBにも事前確率を考慮しないCNBにも有意に上回ったものと思われる.次に,SVMとの比較を行う.残念ながら,NNBの分類正解率が,CNBにも事前確率を考慮しないCNBにも有意に上回った「記念切手」の実験設定を含む,オークションのカテゴリ分類実験では,SVMの分類正解率がいつも他手法を有意に上回った.しかし,ニュースグループの文書分類実験では,一文書あたりの文書数を減らした場合のパラメータが3と4の実験を除き,NNBがSVMを有意に上回った.上述したように,$w_i$の数が減ってしまうと,Bayesianアプローチの正解率は下がることが一文書当たりの単語数が減った際にSVMを有利にしたと考えられる.しかし,ニュースグループのオリジナルのコーパスの実験では,CNBとの差は有意ではないながらも,NNBが全ての分類器の中で最も高い分類正解率となっている.このことから,NNBは時にはSVMを有意に上回り,他手法と比較しても最も良い分類正解率を示しうる手法であることが分かる\footnote{\citeA{Gabrilovich}では,ニュースグループの分類実験において素性選択をする前でも76.9\%,素性選択後は85.3\%という正解率を報告している.また,\citeA{Siolas}では,同実験において素性選択を行うと86.44\%となっている.このように,SVMは素性選択などによってもっと性能をあげることが可能であるため,それらの手法を用いればSVMの方が性能が良くなる可能性が高い.また,五分割交差検定の分割法を変えて実験してみると,SVMの正解率が75.79\%となったことから,SVMの性能は,選択されるテストセットの選び方によって変化することが分かった.NNBなどのベイズの手法の正解率も,五分割交差検定の分割法により変化することが予想される.}.\begin{table}[t]\caption{ニュースグループの分類実験にかかった時間}\label{Tab:ニュースグループの分類実験にかかった時間}\input{04table14.txt}\end{table}また,最後に,提案手法の速度についての目安を知るために,最も実行時間がかかるオリジナルのニュースグループの分類実験において,それぞれの手法の実行時間を測った.\tabref{Tab:ニュースグループの分類実験にかかった時間}にその結果を示す.SVMはC言語により実装されたツールによるものであり,それ以外のBayesianアプローチはPerlにより個人的に実装したものであるため,一概に比較は難しいが,NNBがCNBとほぼ同じ速度で実行されることが分かる. \section{まとめ} \label{Sec:まとめ}本稿では,文書分類のための新手法として,NegationNaiveBayes(NNB)を提案し,その性質を他のBayesianアプローチであるNaiveBayes(NB),ComplementNaiveBayes(CNB)と比較した.NNBは,CNBと同様にクラスの補集合を用いるが,NBと同じ事後確率最大化の式から導出されるため,事前確率を数学的に正しく考慮している点で異なっている.NNBの性質を見るために,ふたつのコーパスを用いた実験を行った.一つ目はオークションの商品分類の実験であり,二つ目はニュースグループの文書分類の実験である.このうち,ニュースグループの文書分類の実験では,一文書あたりの単語数を減らした実験と,クラスごとの文書数を不均一にした実験を行い,オリジナルの文書集合の実験に加え,それぞれパラメータを変えて四通りを試した.その結果,すべての実験においてNNBとCNBがNBの分類性能を上回ること,また,一文書当たりの単語数が減り,クラスごとの文書数が偏るときにマイクロ平均でNNBはCNBを上回ることが分かった.事前確率を無視したCNBと比較しても,これらの条件が共に当てはまる際には,NNBがCNBを有意に上回った.これは,CNBとNNBの違いは事前確率にあるため,クラスごとの文書数が偏るときにその影響が見られ,なおかつ一文書当たりの単語数が減る際には相対的に事前確率の影響が大きくなるためであると考えられる.また,CNBまたは事前確率を無視したCNBがNNBを有意に上回ることはなかった.さらに,ニュースグループの分類実験においては,その際のCNBとの差は微小ながら,参考として比較したサポートベクターマシン(SVM)をカイ二乗検定で有意に上回り,比較手法中で最も良い分類正解率を示す結果も見られた.これらのことから,特に一文書当たりの単語数が減り,クラスごとの文書数が偏る場合において,NNBが他のBayesianアプローチより勝る手法であること,また,時にはSVMを有意に上回り,比較手法中で最も良い分類正解率を示す手法であることが分かった.\acknowledgment本研究の一部は,文部科学省科学研究費補助金[若手B(No:24700138)]の助成により行われた.ここに,謹んで御礼申し上げる.また,本論文の内容の一部は,RecentAdvancesinNaturalLanguageProcessing2011で発表したものである\cite{Komiya}.\nocite{Kenneth}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Box\BBA\Tiao}{Box\BBA\Tiao}{1973}]{JeffreysPerks}Box,G.E.~P.\BBACOMMA\\BBA\Tiao,G.~C.\BBOP1973\BBCP.\newblock{\BemBayesianInferenceinStatisticalAnalysis}.\newblockReading,MA:Addison-Wesley.\bibitem[\protect\BCAY{Church}{Church}{2000}]{Kenneth}Church,K.~W.\BBOP2000\BBCP.\newblock\BBOQEmpiricalEstimatesofAdaptation:ThechanceofTwoNoriegasiscloserto$p/2$than$p^2$.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING'00},\mbox{\BPGS\182--191}.\bibitem[\protect\BCAY{Gabrilovich\BBA\Markovitch}{Gabrilovich\BBA\Markovitch}{2004}]{Gabrilovich}Gabrilovich,E.\BBACOMMA\\BBA\Markovitch,S.\BBOP2004\BBCP.\newblock\BBOQTextCategorizationwithManyRedundantFeatures:UsingAggressiveFeatureSelectiontoMakeSVMsCompetitivewithC4.5.\BBCQ\\newblockIn{\BemProceedingsoftheTheTwenty-FirstInternationalConferenceonMachineLearning},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{花井\JBA山村}{花井\JBA山村}{2005}]{花井}花井拓也\JBA山村毅\BBOP2005\BBCP.\newblock単語間の依存性を考慮したナイーブベイズ法によるテキスト分類(類似性の発見).\\newblock\Jem{情報処理学会研究報告自然言語処理研究会報告,2005(22)},\mbox{\BPGS\101--106}.\bibitem[\protect\BCAY{井筒\JBA横澤\JBA篠原}{井筒\Jetal}{2005}]{井筒}井筒清史\JBA横澤誠\JBA篠原健\BBOP2005\BBCP.\newblockWeb文書タイプ自動分類手法の比較評価と適用.\\newblockIn{\BemIPSJSIGNotes2005(32)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Komiya,Sato,Fujimoto,\BBA\Kotani}{Komiyaet~al.}{2011}]{Komiya}Komiya,K.,Sato,N.,Fujimoto,K.,\BBA\Kotani,Y.\BBOP2011\BBCP.\newblock\BBOQNegationNaiveBayesforCategorizationofProductPagesontheWeb.\BBCQ\\newblockIn{\BemProceedingsoftheRANLP2011},\mbox{\BPGS\586--591}.\bibitem[\protect\BCAY{Lewis}{Lewis}{1992}]{Lewis}Lewis,D.~D.\BBOP1992\BBCP.\newblock\BBOQAnEvaluationofPhrasalandClusteredRepresentationsonaTextCategorizationTask.\BBCQ\\newblockIn{\BemProceedingsofthe15thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\37--50}.\bibitem[\protect\BCAY{marquis~deLaplace}{marquis~deLaplace}{1814}]{ラプラス}marquis~deLaplace,P.~S.\BBOP1814\BBCP.\newblock{\BemEsseiphilosophiquesurlesprobabilites}.\newblockParis:Mme.Ve.Courcier.\bibitem[\protect\BCAY{marquis~deLaplace}{marquis~deLaplace}{1995}]{ラプラス2}marquis~deLaplace,P.~S.\BBOP1995\BBCP.\newblock{\BemPhilosophicalEssayOnProbabilities}.\newblockNewYork:Springer-Verlag.\bibitem[\protect\BCAY{McCallum\BBA\Nigam}{McCallum\BBA\Nigam}{1998}]{Andrew}McCallum,A.\BBACOMMA\\BBA\Nigam,K.\BBOP1998\BBCP.\newblock\BBOQAComparisonofEventModelsforNaiveBayesTextClassification.\BBCQ\\newblockIn{\BemProceedingsoftheAAAI/ICML-98WorkshoponLearningforTextCategorization},\mbox{\BPGS\41--48}.\bibitem[\protect\BCAY{持橋}{持橋}{2006}]{持橋}持橋大地\BBOP2006\BBCP.\newblock自然言語処理におけるベイズ統計.\\newblock\Jem{電子情報通信学会技術研究報告NC,ニューロコンピューティング},\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{持橋\JBA菊井}{持橋\JBA菊井}{2006}]{持橋06}持橋大地\JBA菊井玄一郎\BBOP2006\BBCP.\newblock無限混合ディリクレ文書モデル.\\newblock\Jem{自然言語処理研究会報告2006-NL-172},\mbox{\BPGS\47--53}.\bibitem[\protect\BCAY{Rennie,Shih,Teevan,\BBA\Karger}{Rennieet~al.}{2003}]{Rennie}Rennie,J.D.~M.,Shih,L.,Teevan,J.,\BBA\Karger,D.~R.\BBOP2003\BBCP.\newblock\BBOQTacklingthePoorAssumptionsofNaiveBayesTextClassifiers.\BBCQ\\newblockIn{\BemProceedingsoftheICML2003},\mbox{\BPGS\616--623}.\bibitem[\protect\BCAY{佐藤\JBA藤本\JBA小谷}{佐藤\Jetal}{2010}]{佐藤}佐藤直人\JBA藤本浩司\JBA小谷善行\BBOP2010\BBCP.\newblockウェブ上の商品情報を利用した商品のカテゴリ分類.\\newblock\Jem{人工知能学会第87回知識ベースシステム研究会},\mbox{\BPGS\7--10}.\bibitem[\protect\BCAY{Siolas\BBA\d'Alch\'{e}{-}Buc}{Siolas\BBA\d'Alch\'{e}{-}Buc}{2000}]{Siolas}Siolas,G.\BBACOMMA\\BBA\d'Alch\'{e}{-}Buc,F.\BBOP2000\BBCP.\newblock\BBOQSupportVectorMachinesbasedonaSemanticKernelforTextCategorization.\BBCQ\\newblockIn{\BemProceedingsofthenternationalJointconferenceonNeuralNetworks},\mbox{\BPGS\205--209}.\bibitem[\protect\BCAY{高村\JBA{Roth,D.}}{高村\JBA{Roth,D.}}{2007}]{高村}高村大也\JBA{Roth,D.}\BBOP2007\BBCP.\newblockPredictiveNaiveBayesClassifierの提案と言語処理への適用.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\546--549}.\bibitem[\protect\BCAY{Zhang}{Zhang}{2004}]{Zhang}Zhang,H.\BBOP2004\BBCP.\newblock\BBOQTheOptimalityofNaiveBayes.\BBCQ\\newblockIn{\BemProceedingsofthethe17thInternationalFLAIRSconference(FLAIRS2004)},\mbox{\BPGS\562--567}.\end{thebibliography}\begin{biography}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{伊藤裕佑}{2012年東京農工大学工学部情報工学科卒.在学中に自然言語処理の研究に従事.}\bioauthor{佐藤直人}{2009年東京農工大学工学部情報工学科卒.2011年同大大学院博士前期課程情報工学科修了.在学中にゲーム研究と自然言語処理の研究に従事.}\bioauthor{小谷善行}{東京農工大学大学院教授.工学研究院先端情報科学部門・情報工学科.人工知能,知識処理,ゲームシステム,ソフトウェア工学,教育工学の研究に従事.情報処理学会,電子情報通信学会,人工知能学会等会員.コンピュータ将棋協会副会長.最近では,多量データからの知識獲得に興味を持っている.}\end{biography}\biodate\end{document}
V06N05-03
\section{はじめに} 近年,研究者数の増加,学問分野の専門分化と共に学術情報量が爆発的に増加している.また,研究者が入手できる文献の量も増える一方であり,人間の処理能力の限界から,入手した文献全てに目を通し利用することが益々困難になってきている.このような状況で必要とされるのは,特定の研究分野に関連した情報が整理,統合された文書,すなわちサーベイ論文(レビュー)や専門図書である.サーベイ論文や専門図書を利用することで,特定分野の研究動向を短時間で把握することが可能になる.しかし,論文全体に対するサーベイ論文の占める割合が極端に少ないという指摘がある\cite{Garvey79}.その理由の一つとして,サーベイ論文を作成するという作業がサーベイ論文の作者にとって,時間的にも労力的にも非常にコストを要することが挙げられる.しかし,今後の学術情報量の増加を考えれば,このようなサーベイ論文の需要は益々高まっていくものと思われる.我々はサーベイ論文を複数論文の要約と捉えており,サーベイ論文の自動作成の研究を行っている.本来サーベイ論文とは,多くの論文に提示されている事実や発見を総合化,また問題点を明らかにし,今後更に研究を要する部分を提示したものであると考えられる\cite{Garvey79}.しかし現在の自動要約の技術\footnote{近年の自動要約技術の動向に関しては\cite{奥村98}を参照されたい.}から考えると,このようなサーベイ論文の自動作成は,非常に困難であると思われる.そこで関連する複数の論文中から各論文の重要箇所,論文間の相違点が明示されている箇所を抽出し,それらを部分的に言い替えて読みやすく直した後,並べた文書をサーベイ論文と考え,そのような文書の自動作成を試みる.本稿では,その第1歩として,サーベイ論文作成を支援するシステムを示す.本研究では,サーベイ論文作成支援の際,論文間の{\bf参照情報}に着目する.一般に,ある論文は他の複数の論文と参照関係にあり,また論文中に参照先論文の重要箇所や,参照先論文との関係を記述した箇所(以後,{\bf参照箇所})がある.この参照箇所を読むことで,著者がどのような目的で論文を参照したのか(以後,{\bf参照タイプ})や参照/被参照論文間の相違点が理解できる.論文の参照情報とは,このように論文間の参照・被参照関係だけでなく,参照箇所や参照タイプといった情報まで含めた物を指す.参照情報は特定分野の論文の自動収集や論文間の関係の分析に利用できると考えられる.本稿の構成は以下の通りである.2章では,複数テキスト要約におけるポイントとサーベイ論文作成におけるポイントについて述べ,また関連研究を紹介する.3章では参照箇所と参照タイプについて説明する.また,参照箇所,参照タイプがサーベイ論文作成においてどのように利用できるかについて述べる.4章では,3章で述べた考え方を基にしたサーベイ論文作成支援システムの実現方法について説明する.また,参照箇所の抽出手法,参照タイプの決定手法について述べる.5章ではそれらの手法を用いた実験結果を示す.6章では,作成したサーベイ論文作成支援システムの動作例を示す. \section{サーベイ論文作成} \subsection{サーベイ論文作成のポイント}これまで,単一論文の要約に関して,論文中の重要箇所を抽出する数多くの手法が提案されてきた(例えば\cite{Edmundson69,Kupiec95,Teufel97,Mani98}).しかし,要約対象が複数論文の場合,単一論文の要約とは別に考慮すべき点が出てくる.まず,要約対象となる複数の論文をどのように収集するのか.また,収集してきたテキスト間で内容が重複する場合,従来の単一論文要約の手法を個々の論文に適用し並べただけでは,個々の要約の記述が重複する可能性があり,冗長で要約として適切ではない.そのため,冗長な箇所(論文間の共通箇所)をどのように検出し削除するかが問題となる.一方,冗長な箇所を削除しても複数論文の要約文書としてはまだ十分であるとは言えない.複数論文を要約するとは,それらの論文を比較し要点をまとめることであり,そのためには論文間の共通点だけでなく相違点も明らかにすることが必要であると考えられる.さらに,要約文書を作成するためには,検出された論文間の共通点や相違点を並べ,使用する単語の統一,接続詞の付与,``we'',``they'',``inthispaper''といった照応詞の著者名への置換等,readabilityを上げるための処理が必要となる.従って,複数論文要約のポイントは図\ref{fig:multi-paper-sum}のようにまとめることができる.\vspace{-0.3cm}\begin{figure}[h]\[\left\{\begin{array}{lll}(a)&関連論文の自動収集&\\(b)&関連する複数論文からの情報の抽出&\left\{\begin{array}{ll}(b)-1&重要箇所の抽出\\(b)-2&論文間の共通点の検出\\(b)-3&論文間の相違点の検出\\\end{array}\right.\\(c)&論文の著者毎の文体の違い等を考慮した&\\&要約文書の生成&\\\end{array}\right.\]\caption{複数論文要約のポイント\label{fig:multi-paper-sum}}\end{figure}\vspace{-0.3cm}\subsection{関連研究}神門は,手がかり語を用いて論文中の各文に構成要素カテゴリの自動付与を行い,そのカテゴリを論文検索に応用している\cite{Kando97}(a).このようにして収集された特定分野の論文集合の「既存の研究」や「既存の研究の不完全さ」カテゴリの文を抽出し,それらを並べて表示することで,その分野の基本的な動向を把握するのに有用であると述べている(b).神門は,このようなカテゴリの文が「当該論文の著者の判断を通してみた,その課題に関する現状や背景を示している」と考えている.本研究でもこのような著者の主観的な判断をサーベイ論文作成の際に利用している.対象テキストが学術論文とは異なるが,Yamamotoら\cite{Yamamoto95},船坂ら\cite{船坂96},稲垣ら\cite{稲垣98},柴田ら\cite{柴田97},McKeownら\cite{McKeown95},Maniら\cite{Mani97}はいずれも,複数の新聞記事を対象に複数記事要約を試みている\footnote{これらの論文のサーベイについては,\cite{奥村98}の5章を参照されたい}.要約対象が新聞記事の場合,次のような特徴がある.\vspace{0.3cm}\begin{itemize}\item新聞記事は,記事中の事実文が重要であると考えられることが多い.従って,客観的な正解データが作成しやすいと思われる.\item図\ref{fig:multi-paper-sum},(c)に関して,新聞記事では文体がある程度統一されているため,記事間の文体の違いをあまり意識する必要がない.\end{itemize}一般に,論文には著者毎の文体の違いが存在し,しかも新聞記事を要約対象とした場合と比べてその違いが大きいため,論文間の共通点の検出には新聞記事の場合のような各文中の個々の形態素の比較といった手法が適用しにくい.また,論文は著者毎に異なる観点で書かれているため,複数論文をまとめるにはどのような観点でまとめるのかが重要なポイントとなる.本研究では,このような著者毎の観点の違いに着目している. \section{サーベイ論文作成における参照情報の利用} \subsection{参照箇所と参照タイプ}図\ref{fig:reference_area}の5文は\cite{Bond96a}中で\cite{Murata93}を参照している文の前後数文を抜粋したものである\cite{Bond96a},\cite{Murata93}は共に,機械翻訳に関する論文で,特に数詞表現について取り扱っている.文(2)では,参照先論文\cite{Murata93}について,どのような問題を取り扱った論文であるかについて述べられている.文(3)では,参照先論文の問題点の指摘がなされている.そして文(4)では,参照元論文\cite{Bond96a}がその問題点を考慮した論文であると述べている.\begin{figure}[t]\begin{center}\small\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}\flushleft{in\cite{Bond96a}\vspace{0.2cm}\begin{quote}(1)Inaddition,whenJapaneseintranslatedintoEnglish,theselectionofappropriatedeterminersisproblematic.\\{\bf(2)Varioussolutionstotheproblemsofgeneratingarticlesandpossessivepronounsanddeterminingcountabilityandnumberhavebeenproposed\cite{Murata93}.\\(3)ThedifferencesbetweenthewaynumericalexpressionsarerealizedinJapaneseandEnglishhasbeenlessstudied.\\(4)InthispaperweproposeananalysisofclassifiersbasedonpropertiesofbothJapaneseandEnglish.\\}(5)OurcategoryofclassifierincludesbothJapanesejos\=ushi`numeralclassifiers'andEnglishpartitivenouns.\end{quote}\begin{center}\begin{center}参照箇所文(2)〜(4)\end{center}\end{center}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{typeCの参照箇所\label{fig:reference_area}}\end{figure}\normalsizeここで,参照元論文\cite{Bond96a}と参照先論文\cite{Murata93}の関係は文(2)〜(4)を読めばわかる.このように参照元/参照先論文の関係が明示されている箇所を{\bf参照箇所}と呼ぶ.参照箇所を読むことで参照元論文の参照の理由({\bf参照タイプ})や,参照元/参照先論文の関係が容易に理解できる.我々は,Weinstockの15種類の参照の理由\cite{Weinstock71}の分類を基に,参照タイプを次に示す3種類に分類する.\vspace{0.3cm}\begin{itemize}\item{\bftypeB(論説根拠型)}\\新しい理論を提唱したり,システムを構築する場合,他の研究者の研究の成果を利用する場合がある.例えば,他の研究者が提唱する理論や手法を用いて新しい理論を提唱する場合などである.このような参照タイプを{\bftypeB(論説根拠型)}と呼ぶ.\item{\bftypeC(問題点指摘型)}\\新しく提案した理論や,構築したシステムの新規性について述べる場合,関連研究との比較,あるいは既存研究の問題点の指摘を行う場合がある.このような目的の参照タイプを{\bftypeC(問題点指摘型)}と呼ぶ.\item{\bftypeO(その他型)}\\typeBにもtypeCにも当てはまらない参照を{\bftypeO(その他型)}とする.\end{itemize}\vspace{0.3cm}我々は,3つの参照タイプの中でtypeCが最も重要であると考えている.typeCの参照箇所からは,図\ref{fig:C-type_refer}のような情報が得られる.図\ref{fig:reference_area}の例の場合,文(2)が($\alpha$)に,文(3)が($\beta$)に,文(4)が($\gamma$)にそれぞれ対応する.ここで,($\alpha$)は参照元論文の著者の観点から見た参照先論文の一種の要約であると考えられ,同時に参照元/参照先論文がどのような観点で共通点があるのかを示している箇所であると捉えることもできる.文(2)では,参照元/参照先論文の両方が,冠詞,所有代名詞,可算・不可算,数詞等の生成を問題にしている論文であると述べている.一方,既存研究の問題点と著者の研究の目的が文(3),(4)に書かれており,これが論文間の相違点と考えられる.このように,typeCの参照箇所には論文間の共通点や相違点に関する事項が書かれているため,サーベイ論文作成に有用であると思われる.\begin{figure}[t]\[\left\{\begin{array}{ll}(\alpha)&既存研究の紹介\\(\beta)&既存研究の問題点\\(\gamma)&参照元論文の研究の目的\\\end{array}\right.\]\caption{typeCの参照箇所中の記述\label{fig:C-type_refer}}\end{figure}\subsection{サーベイ論文作成における参照情報の利用}\subsubsection{関連論文の自動収集}本研究では関連論文の自動収集に,論文間の参照関係を利用する.論文間の参照関係を単純に辿ることで,ある程度自動的に関連論文を収集することが可能であると考えられる.しかし,そのようにして得られた論文集合は複数分野の論文が混在してしまう可能性があり,サーベイ論文作成上望ましくない.そこで,必要な参照関係のみを辿って論文を収集する手法が必要とされる.そのために,参照タイプを考慮した論文収集の手法が考えられる.我々は,typeCの参照関係が論文収集に有効であると考えている.それは,「typeCの参照箇所中の``既存研究の紹介''の記述が参照元/参照先論文共通の問題点である」という仮定に基づいている.この仮定がどの程度正しいか,次章で説明する論文データベースを用いて調べた.その結果,論文データベース中でtypeCの参照関係で結ばれる参照元/参照先論文31組のうち,29組は参照元/参照先共に同じ分野の論文であることが確認された.図\ref{fig:graph}は,被要約対象論文の集合を示している(図中の楕円内の論文集合を以後,{\bf参照グラフ}と呼ぶ)\begin{figure}[t]\centering\epsfile{file=Images/s-sim-def.eps,scale=0.6}\caption{論文間の共通点と相違点\label{fig:graph}}\end{figure}\subsubsection{論文間の共通点,相違点の検出}typeCの参照箇所から得られる情報(図\ref{fig:C-type_refer})と,複数論文要約のポイント(図\ref{fig:multi-paper-sum})との関係について,$(\alpha)$は(b)-1,2に,$(\beta)$と$(\gamma)$は(b)-3にそれぞれ対応している.従って,参照箇所を抽出し提示することで,サーベイ論文作成支援が可能になると考えられる.さて,ひとつの論文を他の複数の論文が参照する場合,著者の観点毎に参照の仕方も異なる可能性がある.図\ref{fig:reference_area}には,\cite{Bond96a}の\cite{Murata93}に関する参照箇所を示したが,図\ref{fig:reference_area2}に,\cite{Murata93}に関する\cite{Bond94}と\cite{Takeda94}の参照箇所を示す.\cite{Bond96a}中の文(1)は図\ref{fig:multi-paper-sum}の$(\alpha)(\beta)$に,文(2)は$(\gamma)$にそれぞれ対応する.また\cite{Takeda94}中の文(1)(2)が$(\alpha)$に,文(3)が$(\beta)(\gamma)$に対応する.2つの論文の$(\alpha)(\beta)(\gamma)$同士を比較すれば,同じ\cite{Murata93}に関しても著者毎に参照の仕方が様々であることがわかる.このように,ひとつの論文を参照する複数の論文中の参照箇所(著者の観点の違い)を比較することはサーベイ論文作成の上で有用であると考えられる.\begin{figure}[t]\begin{center}\vspace{0.1cm}\small\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{in\cite{Bond94}\vspace{0.5cm}\begin{quote}(1)Recently,\cite{Murata93}haveproposedamethodofdeterminingthereferentialitypropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglish,buttheresearchhasnotyetbeenextendedtoincludetheactualEnglishgeneration.\\(2)ThispaperdescribesamethodthatextractsinformationrelevanttocountabilityandnumberfromtheJapanesetextandcombinesitwithknowledgeaboutcountabilityandnumberinEnglish.\end{quote}\vspace{0.5cm}}}\end{minipage}\\\hline\end{tabular}\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{in\cite{Takeda94}\vspace{0.5cm}\begin{quote}(1)Anotherexampleistheproblemofidentifying{\itnumber}and{\itdeterminer}inJapanese-to-Englishtranslation.\\(2)ThistypeofinformationisrarelyavailablefromasyntacticrepresentationofaJapanesenounphrase,andasetofheuristicrules\cite{Murata93}istheonlyknownbasisformakingareasonableguess.\\(3)Evenifsuchcontextualprocessingcouldbeintegratedintoalogicalinferencesystem,theobtainedinformationshouldbedefeasible,andhenceshouldberepresentedbygreennodesandarcsintheTDAGs.\end{quote}\vspace{0.5cm}}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{\cite{Murata93}に関するtypeCの参照箇所\label{fig:reference_area2}}\end{figure}\normalsize \section{サーベイ論文作成支援システム} 前章で,ひとつの論文を他の複数の論文が参照する場合は,著者の観点毎にまとめる必要があることについて述べた.しかし同じ事項を述べる場合でも,論文の著者毎に用いる単語や文体等が異なるため,形態素同士の比較といった単純な手法では著者毎の観点の同一性は明らかにできない.また,著者の使用する単語や文体等の違いは,著者の観点の分類だけでなく,サーベイ論文生成時にも問題がある.論文間の共通点や相違点を検出して並べただけではreadabilityに欠けるため,ひとつのサーベイ論文として非常に読みづらくなると思われる.readabilityを向上するためには使用する単語や文体の統一といった処理を必要とするが,それには高度な言い替えの処理技術が必要になると考えられる.そこで,本稿ではサーベイ論文の自動作成ではなく,サーベイ論文作成システム実現の第1歩として,関連論文を自動収集し,関連論文間の相違点や各論文のABSTRACTが表示できるサーベイ論文作成支援システム作成を試みた.\subsection{論文間の参照・被参照関係の解析}サーベイ論文作成の対象としてe-Printarchive\footnote{http://xxx.lanl.gov/cmp-lg/}という論文データベースの``TheComputationandLanguage''の分野の論文の\TeXソース約450本を用いる.論文間の参照情報を利用して要約を作成するには,まず要約対象となる論文データベース中の論文間の参照・被参照の関係を解析する必要がある.\TeXには参考文献を記述するためのコマンドbibliographyがあり,これを解析することで自動的に450本の\TeXソース間の参照関係が明らかにできる.図\ref{fig:biblio}は,\TeXファイル\cite{Bond96a}(cmp-lg/9608014)の参考文献の記述の一部を抜粋したものである.\cite{Bond96a}は論文中で\cite{Murata93}を参照している.一方,e-Printarchiveの論文リストファイルをftpサイトより入手することができる.図\ref{fig:e-list}はそのリストの一部を抜粋したものである.\cite{Bond96a}(cmp-lg/9608014)が\cite{Murata93}(cmp-lg/9405019)を参照しているという情報を得るには,図\ref{fig:biblio}と図\ref{fig:e-list}の論文が同一であることを判断する必要がある.そこで,bibliography中の論文のタイトルや著者名の記述のありそうな箇所から単語(キーワード)を切り出し,切り出された全ての単語を含むような書誌情報を持つものを論文リストから検索する,という手法で論文間の参照・被参照関係の解析を行う.どのようにしてbibliographyから検索に有用なキーワードを切り出すかが問題となるが,参考文献の記述形式に着目する.齊藤ら\cite{齊藤93}によれば,参考文献の記述形式は多くの場合,最初に著者名,次に文献名が記述される.場合によっては著者名の後に発行日が記述されるケースもある.そこで,図\ref{fig:biblio}のような個々のbibitemの先頭3行以内に含まれる単語からアルファベット以外のデータはすべて除去し,残ったものをキーワードとして利用する.図\ref{fig:biblio}の場合以下の語がキーワードとなる.\begin{quote}``Murata'',``Masaki'',``Makoto'',``Nagao'',``Determination'',``of'',``referential'',``property'',``and'',``number'',``of'',``nouns'',``in''\end{quote}\begin{flushleft}そして,これらのキーワードを用いてe-Printarchiveの論文リストに対してand検索をかけ,論文間の参照・被参照関係の解析を試みた結果,94\%の精度が得られた.\end{flushleft}\begin{figure}[t]\begin{center}\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{\vspace{0.3cm}\begin{quote}{\footnotesize\begin{verbatim}\bibitem[\protect\citename{MurataandNagao}1993]{Murata:1993a}Murata,MasakiandMakotoNagao.\newblock1993.\newblockDeterminationofreferentialpropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglish.\newblockIn{\emProceedingsoftheFifthInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI~'93)},pages218--25,July.\end{verbatim}}\end{quote}}}\vspace{0.3cm}\end{minipage}\\\hline\end{tabular}\end{center}\caption{\TeXファイル中のbibliographyコマンドの使用例\label{fig:biblio}}\end{figure}\vspace{-0.5cm}\normalsize\begin{figure}[t]\begin{center}\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{\vspace{0.3cm}\begin{quote}{\footnotesize\begin{verbatim}\\Paper:cmp-lg/9405019Title:DeterminationofreferentialpropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglishAuthor:MasakiMurata,MakotoNagaoComments:8pages,TMI-93\\\end{verbatim}}\end{quote}}}\vspace{0.3cm}\end{minipage}\\\hline\end{tabular}\end{center}\caption{e-Printarchive論文リスト中の書誌情報の一例\label{fig:e-list}}\end{figure}\normalsize\subsection{参照箇所の抽出}参照箇所の抽出とは,citationの出現する段落において,citationのある文と文間のつながりが強いと考えられる文を,citationの前後の文から抽出する処理と考えることができる.このような文間のつながりは大まかに(1)照応詞(2)接続詞(3)1人称代名詞(4)3人称代名詞(5)副詞,(6)その他の6つの種類に分類される語により示されていると我々は考え,これらの6つの分類を考慮し,cuewordを用いて参照箇所の抽出を試みた.cuewordとしてどのような語を用いるかは,人間が主観的に決める方法もあるが,本研究では,参照箇所コーパスのn$-$wordgram統計をとり半自動的にcuewordを得ることを試みた.n$-$wordgram統計の結果を分類し整理することで,最終的に86個のcuewordを得た.なお,n$-$wordgram統計をとる際,大文字,小文字の区別をしている.表\ref{table:ra_cue}にcuewordの例を示す.\begin{table}[t]\caption{参照箇所抽出用cuewordの例\label{table:ra_cue}}\begin{center}\begin{tabular}{|l|l|}\hline{\bf(1)照応詞}&Inthis,Onthis,Such\\\hline{\bf(2)接続詞}&But,However,Although\\\hline{\bf(3)1人称}&We,we,Our,our,us,I\\\hline{\bf(4)3人称}&They,they,Their,their,them\\\hline{\bf(5)副詞}&Furthermore,Additionally,Still\\\hline{\bf(6)その他}&Inparticular,follow,Forexample\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\vspace{-0.8cm}\centering\epsfile{file=Images/flow_ra.eps,scale=0.6}\caption{参照箇所抽出の手順\label{fig:ext_ra}}\end{figure}{\small\begin{figure}[t]\centering\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}\vspace{0.5cm}\begin{quote}\begin{verbatim}#cuewordの設定@this_cue=('Forthis','Forthese','Onthis','Onthese','Inthis','Inthese','This','These');@however_cue=('However','however','But','Inspiteof','inspiteof'…);#照応詞に関する参照箇所抽出ルールforeach$cue(@this_cue){#ルール1if($paragraph[$first_sentence]=~/$cue/){$first_sentence--}}#接続詞に関する参照箇所抽出ルールforeach$cue(@however_cue){#ルール2if($paragraph[$first_sentence]=~/$cue/){$first_sentence--}}foreach$cue(@however_cue){#ルール3if($paragraph[$last_sentence]=~/$cue/){$last_sentence++}}…\end{verbatim}\end{quote}\vspace{0.5cm}\end{minipage}\\\hline\end{tabular}\caption{参照箇所抽出ルールの例\label{fig:ext_rule}}\end{figure}}次に,cuewordを用いた参照箇所抽出の手順を図\ref{fig:ext_ra}に示す.入力は,予めcitationの含まれる段落を1行1文の形に直し,配列(paragraph)に入れておき,ルールを用いて参照箇所抽出を行う.参照箇所抽出ルールとは,「参照箇所候補となる文の前後の文にcuewordが出現すれば,その文も参照箇所候補に含める」といったものである.参照箇所抽出ルールの例を図\ref{fig:ext_rule}に示す.図\ref{fig:ext_rule}において,変数\$first\_sentenceとは参照箇所候補の最初の一文の文番号,\$last\_sentenceは最後の一文の文番号を意味する.図\ref{fig:ext_rule}に示すようなルールを11種類作成し,抽出を試みた.一方,これらの11種類のルールの中には参照箇所抽出精度低下の原因となるルールも含まれる可能性が考えられる.従って,11種類のルールの組み合わせ$2^{11}$通りの中で最も精度が高くなる場合が,ルールの最適な組み合わせであると考えられる.調査の結果,11種類のうちで10種類のルールを組み合わせた場合,参照箇所抽出精度が最も高くなり,この組み合わせで参照箇所抽出を行うことにした.\subsection{参照タイプの決定}参照箇所中で,例えばcitationの後の文が``However''で始まるような場合,参照元論文の著者は参照先論文の何らかの問題点を指摘している(typeC)と考えられる.また,citationの前に``Weuse''や``Weadopt''といった語が出現する場合,参照元論文は参照先論文の理論や手法等をベースにしている(typeB)と思われる.従って,参照タイプ決定には,まず``However''や``Weadopt''といった,参照タイプ決定のためのcuewordlistを作成し,次にcuewordとcitationの出現順序を考慮したルールを作成することが必要であると考えられる.まず,cuewordの抽出方法について述べる.学術論文には,論文特有の構造がある.Biberらは,医学論文において``Introduction'',``Methods'',``Discussion'',``Results''の4つのsectionで使われる言語の特徴を調査し,4つのsection間の言語的な特徴の違いを明らかにしている\cite{Biber94}.本研究では参照タイプ毎にこのようなsectionに注目した.typeCの場合,論文中の``Introduction'',``RelatedWork'',``Discussion''に注目した.また,Btypeについては,``Introduction'',``Experiment''のsectionに注目した.e-Printarchiveの論文約450本からsection毎にn$-$wordgramをとり,次にcostcriteria\cite{Kita94}を利用することでcuewordの候補のリストを自動的に作成した.n$-$wordgram統計をとる際,大文字と小文字の区別を行った.また,カンマやピリオドも一語として取り扱った.こうして得られたリストから,参照タイプ決定に有用であると思われるものを,typeC用に76個,typeB用に84個を,cuewordとして選びだした.cuewordの一部を表\ref{table:cue1},表\ref{table:cue2}に示す.\begin{table}[t]\caption{typeC決定用cuewordの例\label{table:cue1}}\begin{center}\begin{tabular}{|c|c|c|}\hlineAlthough,&Though,&,although\\\hlineHowever,&however,their&however,the\\\hlinebutthe&butit&Butthey\\\hlineInspiteof&Insteadof&Butinstead\\\hlinedoesnot&didnot&wasnot\\\hlineshouldnot&hasnot&werenot\\\hlinenotrequire&notineffect&notprovide\\\hlinedifficultto&moredifficult&adifficult\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{typeB決定用cuewordの例\label{table:cue2}}\begin{center}\begin{tabular}{|c|c|c|}\hlinebasedmainlyon&basis&isbasedon\\\hlinethebasic&usedin&uses?of\\\hlineusedby&tousea&canuse\\\hlinethatcan&Wecan&Weuse\\\hlinewhichcanbe&follow&usefulfor\\\hlineavailablein&availablefor&appliedto\\\hlinetheapplicationof&applicationto&Weadopted\\\hlineextendthe&extendedto&Forthis\\\hline\end{tabular}\end{center}\end{table}次に参照タイプ決定ルールについて説明する.参照タイプ決定は,表\ref{table:cue1},表\ref{table:cue2}に示すcuewordを用いてルールを作成した.参照タイプ決定には,本節の始めでも述べたようなcitationとcuewordの出現順序を考慮することが有用であると考えられ,この情報を用いたルールを作成した.ルールは大きく2種類に分けることができる.ひとつはtypeCに決定するためのルール,もうひとつはtypeBに決定するためのルールである.そして,B,Cいずれのタイプも割り振られなかった参照箇所をtypeOとする.ルールは各cueword毎に作成されているため,typeC決定用ルールは76個,typeB決定用ルールは84個ある.これらのルールの適用順序について説明する.typeC決定用ルールは76個の順序を入れ換えても参照タイプ決定精度には影響がない.typeB用ルール84個についても同様である.そこで,typeC用ルール,typeB用ルールの順に適用した後にtypeOを割り振った場合と,typeB用ルール,typeC用ルールの順に適用した後にtypeOを割り振った場合について調べた.その結果,先にtypeC用ルールを用いた方が解析精度が高くなったので,typeC用,typeB用ルールの順に適用した後,参照タイプがどちらにも割り振られなかったものをtypeOとした.参照タイプ決定ルーチンの一部を図\ref{fig:type_decision}に示す.参照タイプ決定ルーチンでは,1行1文に整形された参照箇所を配列として,また配列中のcitationの位置を入力値として受け取り,参照タイプB,C,Oを値として返す.{\small\begin{figure}[t]\centering\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}\vspace{0.3cm}\begin{quote}\begin{verbatim}subreference_type_decision($@){#参照タイプ決定ルーチン($citeline,@ra)=@_;#$citeline:citationの位置#@ra:参照箇所,1行1文のリスト#typeC決定用ルールfor($i=1;$i<=3;$i++){if($ra[$citeline+$i]=~/However/]){return(C)}}for($i=0;$i<=2;$i++){if($ra[$citeline+$i]=~/lessstudied/]){return(C)}}for($i=0;$i<=2;$i++){if($ra[$citeline+$i]=~/Inspiteof/]){return(C)}}…#typeB決定用ルールfor($i=-2;$i<=0;$i++){if($ra[$citeline+$i]=~/basedmainlyon/]){return(B)}}for($i=-3;$i<=0;$i++){if($ra[$citeline+$i]=~/applyto/]){return(B)}}for($i=-2;$i<=0;$i++){if($ra[$citeline+$i]=~/Usingthe/]){return(B)}}…#B,Cに割り振られなかったものはtypeOreturn(O);}\end{verbatim}\end{quote}\end{minipage}\\\hline\end{tabular}\caption{参照タイプ決定ルーチンの一部\label{fig:type_decision}}\end{figure}} \section{実験} \subsection{参照箇所の抽出}前章で述べた手法の有効性を評価するため,参照箇所抽出実験を行った.評価は式(\ref{f-measure})(b=1)に示すF-measure\cite{rijsbergen79}を用いて行う.\begin{equation}\label{f-measure}F(F-measure)=\frac{(1+b^2)PR}{b^2P+R}\end{equation}ここで,P,Rは以下により計算される.\begin{equation}R(Recall)=\frac{抽出された文のうち正解のものの数}{参照箇所コーパスの抽出すべき文の総数}\end{equation}\begin{equation}P(Precision)=\frac{抽出された文のうち正解のものの数}{\left(\begin{array}{l}参照箇所抽出ルールにより\\抽出された文の総数\end{array}\right)}\end{equation}実験用データとして,citationの含まれる段落を1行1文に整形したものと,段落中の何文目から何文目までが参照箇所かを記したものを150個用意した.段落の切れ目は話題の切れ目と考え,参照箇所は最大でもcitationの含まれる段落全体までとした.そのうちルール作成用を100個,評価用を50個とした.ルールについては4.2節で述べた通りである.また,ルール作成用データを用いて,参照箇所抽出用の11種類のルールの最適な組み合わせを得た.この組み合わせで評価用データに対して実験を行った.結果を表\ref{table:5_3}に示す.\begin{table}[t]\caption{参照箇所抽出精度\label{table:5_3}}\begin{center}\begin{tabular}{|c|c|c||c|}\hline&Recall(\%)&Precision(\%)&F-measure\\\hline\hline本手法&&&\\(ルール作成用)&90.9&76.9&0.833\\本手法&&&\\(評価用)&79.6&76.3&0.779\\ベースライン1&40.4&100.0&0.575\\ベースライン2&100.0&36.4&0.534\\\hline\end{tabular}\end{center}\end{table}本手法の有効性を示すために,2つのベースラインを考慮した.citationの含まれる文のみを参照箇所として抽出した場合,その文は必ず参照箇所である.この時F-measureは0.575(Recall/Precision:40.4/100.0\%)であった.一方,citationのある段落全体を参照箇所として抽出した場合,参照箇所として抽出されうる文はすべて含まれてしまう.この時F-measureは0.534(Recall/Precision:100.0/36.4\%)であった.表\ref{table:5_3}に示すように,本手法のF-measure値は2つのベースラインの値を上回っており,従って参照箇所抽出手法の有用性が示されたと言える.\subsection{参照タイプの決定}参照タイプ決定実験の評価方法も参照箇所抽出と同様,Recall,Precisionを用いた.式(4)(5)はtypeCのタイプ決定精度の評価方法である.\begin{equation}Recall=\frac{\left(\begin{array}{l}ルールを用いてtypeCに決定された\\参照箇所のうち正解の数\end{array}\right)}{参照箇所コーパス中のtypeC参照の数}\end{equation}\begin{equation}Precision=\frac{\left(\begin{array}{l}ルールを用いてtypeCに決定された\\参照箇所のうち正解の数\end{array}\right)}{ルールを用いてtypeCに決定された参照箇所の数}\end{equation}\vspace{0.5cm}実験用データとして,参照箇所とそのタイプを人手で決定したものを382個用意し,そのうち282個をルール作成用,残り100個を評価用とした.ルール作成用データにおけるタイプ決定精度を表\ref{table:training}に,評価用データにおける精度を表\ref{table:evaluation}に示す.\begin{table}[t]\caption{ルール作成用データを用いた参照タイプ決定精度(282)\label{table:training}}\begin{center}\begin{tabular}{|c|c||r|r|r||r|}\hline\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{ルールで決定}&{タイプ毎の}\\%\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{されたタイプ}&{精度(\%)}\\\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{1}{c|}C&\multicolumn{1}{c|}B&\multicolumn{1}{c||}O&\\\hline\hline{正解の}&C&{\bf46}&2&1&93.9\\\cline{2-6}&B&1&{\bf105}&13&88.2\\\cline{2-6}{タイプ}&O&3&8&{\bf103}&90.3\\\hline\multicolumn{6}{c}{}\\\multicolumn{6}{c}{\bf\large\underline{参照タイプ決定精度90.1(\%)}}\\\end{tabular}\end{center}\end{table}\normalsize\begin{table}[t]\caption{評価用データを用いた参照タイプ決定精度(100)\label{table:evaluation}}\begin{center}\begin{tabular}{|c|c||r|r|r||r|}\hline\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{ルールで決定}&{タイプ毎の}\\%\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{されたタイプ}&{精度(\%)}\\\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{1}{c|}C&\multicolumn{1}{c|}B&\multicolumn{1}{c||}O&\\\hline\hline{正解の}&C&{\bf12}&0&4&75.0\\\cline{2-6}&B&2&{\bf25}&5&78.1\\\cline{2-6}{タイプ}&O&1&5&{\bf46}&88.5\\\hline\multicolumn{6}{c}{}\\\multicolumn{6}{c}{\bf\large\underline{参照タイプ決定精度83.0(\%)}}\\\end{tabular}\end{center}\end{table}タイプ決定精度について考察する.過去の研究\cite{難波98}ではcuewordとしてuni-gramを多く用いていたが,今回はcueword選定の際,極力排除した.それはuni-gramが参照タイプ決定の精度を低下させる要因になっていたためである.例えばこれまでは``not''や``but''といった語をcuewordとして用いていたが,``notonly〜butalso''のように``not''や``but''が明らかに否定以外の目的で使われているものもある.今回は例えば``not''に関するcuewordでは,``cannot'',``couldnot'',``mightnot''といったbi-gramをタイプ決定に利用している.これにより,以前の解析精度(約66\%)を大幅に改善することができた.一方で,cuewordのような表層的な情報のみを用いたタイプ決定方法は精度的にほぼ限界に達していると思われ,これ以上の精度向上には意味処理等を行う必要があると考えられる. \section{サーベイ論文作成支援システムの構築} 4章に基づき,サーベイ論文作成支援システムを作成した.サーベイ論文作成支援の流れを図\ref{fig:system}に示す.サーベイ論文作成を支援する過程は大きく2つに分けられる.ひとつは論文検索過程である.以前の研究\cite{難波98}で作成した論文検索システムPRESRI({\bfP}aper{\bfRE}trieval{\bfS}ystemusing{\bfR}eference{\bfI}nformation)\footnote{http://galaga.jaist.ac.jp:8000/pub/tools/sum}を利用して論文検索を行う.この検索システムには2種類の検索機能がある.ひとつはキーワード検索機能で,論文のタイトル中の語や著者名をキーワードとして論文を検索できる.検索結果はリスト表示される.このリスト中の個々の論文について,e-Printarchiveのデータベース中に参照・被参照関係の論文がある場合,論文間の参照・被参照関係のグラフを表示することができる.このグラフを辿ることで,論文間の参照・被参照関係を用いた検索が可能になる.\begin{figure}[t]\centering\epsfile{file=Images/system.eps,scale=0.7}\caption{サーベイ論文作成支援の流れ\label{fig:system}}\end{figure}次にサーベイ論文作成支援過程について説明する.この過程では,関連論文の収集,関連論文の参照箇所やABSTRACTの表示を行うことでサーベイ作成の支援を行う.このような機能を提供するために,前章の参照箇所抽出や参照タイプ決定といった処理が必要とされる.3章で論文間の参照・被参照関係でtypeCのものだけを辿ることで関連論文の自動収集に近いことができることを示した.これは,論文検索過程で示された論文間の参照・被参照関係を示したグラフを利用し,グラフ中でtypeCの参照・被参照関係だけを表示することで,実現可能であると考えられる.図\ref{fig:sss}は,サーベイ論文作成支援システムの実行画面で,左側のウィンドウは[Murata93](9405019)という論文に関する論文間の参照・被参照関係を示したグラフである.このグラフから4本の論文が[Murata93]を参照していることがわかる.この4本の論文のうち[Bond96](9601008)が黒く表示されている.これは,[Bond96](9601008)がMurata93(9405019)をtypeC以外のタイプで参照しているためである.他の3つの論文に関しては[Murata93](9405019)をtypeCで参照している.typeCの参照・被参照関係の論文は関連分野の論文であると考えられ,グラフ中の``ABSTRACT''や``REFERENCEAREA''(参照箇所)の箇所をクリックすることで,個々の論文のABSTRACTや参照箇所を閲覧することが可能になる.図\ref{fig:sss}の右側のウィンドウは3本の論文[Takeda94](9407008),[Bond94](9511001),[Bond96](9608014)の[Murata93](9405019)に関する参照箇所を示しており,左側ウィンドウのグラフ中の``REFERENCEAREA''の箇所をクリックした結果である\footnote{図中に``REFERENCEAREA''が3箇所あるが,いずれの箇所をクリックしても右側ウィンドウの表示になる}.このように,ひとつの論文を参照している複数の論文の参照箇所を並べて表示することで,ひとつの論文に関する複数の著者の観点を直接比較することが可能となり,サーベイ論文作成において有用であると考えられる.尚,このシステムはPerlで実装し,またCGIを用いることでWorldWideWeb上からの利用が可能となっている.\begin{figure}[t]\centering\epsfile{file=Images/PRESRI.eps,scale=0.85}\caption{サーベイ論文作成支援システム\label{fig:sss}}\end{figure} \section{おわりに} 本研究では,関連する論文集合からのサーベイ論文自動作成を目指し,その第1歩としてサーベイ論文作成支援システムを構築した.本研究では,複数の論文間の共通点,相違点を検出するために,論文間の参照情報に着目した.ある論文中の他の論文について記述してある箇所(参照箇所)を論文中から自動的に抽出し,その箇所を解析することで,論文の参照の目的(参照タイプ)が明らかにされる.参照箇所の抽出と参照タイプの決定には,cuewordを利用した.cuewordの選定には\cite{Kita94}らの提唱するcostcriteriaという手法を利用し,得られたcuewordを用いて参照箇所抽出ルールと参照タイプ決定ルールを作成した.その結果,参照箇所抽出精度はRecall,Precision共に80\%弱,参照タイプ決定は83\%の精度が得られた.また,サーベイ論文作成支援をするシステムを作成した.このシステムでは論文データベース中から特定分野の論文を自動収集し,関連論文間の相違点や個々の論文のABSTRACTが閲覧可能である.ひとつの論文を参照する複数の論文の参照箇所を並べて表示することで,著者間の参照が直接比較できるため,サーベイ論文作成の際に有用であると考えられる.\bigskip\acknowledgment本研究にあたり,御指導を賜わりました学術情報センターの神門典子助教授に心から感謝致します.また,論文データの提供および論文検索システムPRESRIの公開を快く承諾して下さったe-Printarchiveadministratorの方々に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v06n5_03}\begin{biography}\biotitle{略歴}\bioauthor{難波英嗣(学生会員)}{1972年生.1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.同年同大学院博士後期課程,現在に至る.自然言語処理,特にテキスト自動要約に関する研究に従事.情報処理学会,人工知能学会各学生会員.}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,語彙的知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V27N02-08
\section{はじめに} \label{sec:intro}金融や医療,情報通信などの多くの分野において,様々な形式のデータを取り扱う機会が増えてきている.しかし,大規模で複雑なデータを専門知識のない人が見て解釈することは容易ではなく,専門家であったとしても大規模なデータから重要な情報を読み取るためには時間がかかる.そのため,データの概要を説明する概況テキストを自動的に生成するData-to-Text技術の関心が高まっている\cite{Gatt:2018:SSA:3241691.3241693}.本稿では,日経平均株価の市況コメントを生成するタスクを例として,時系列数値データから多様な特徴を抽出し,データの概要をテキスト化する手法を提案する.本研究では,日経平均株価の市況コメントの自動生成を,時系列株価データから単語系列を生成する系列生成タスクとして考え,機械翻訳や文書要約などの系列生成タスクで広く用いられているエンコーダ・デコーダモデル\cite{sutskever2014sequence}を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia7f1.eps}\end{center}\caption{日経平均株価と市況コメント}\label{fig:news_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:news_example}に日経平均株価の時系列株価データと市況コメントの例を示す.この例のように,株価の市況コメントなどの時系列数値データの概況テキストでは,「上がる」,「下がる」といった単純な特徴だけが表出されるわけではない.過去のデータの履歴や,テキストが書かれる時間帯によって言及すべき内容は様々である.また,数値の時系列データの場合,時系列中の数値や,過去との差分を計算した値が言及されることが多々ある.例えば,図\ref{fig:news_example}の市況コメントでは,「続落」,「反発」のように価格の履歴を参照する表現(1,3,6),「上げに転じる」のように時系列データの変化を示す表現(2),「始まる」,「前引け」,「午後」,「大引け」などテキストが書かれる時間帯に依存する表現(1,3,4,6)が見られる.また,数値に言及する場合は,価格が直接言及される(3,6)こともあれば,履歴からの差分(3,6)や,切り上げ・切り捨てした値(5)が用いられることもある.本研究では,株価の市況コメントにおけるこれらの特性を踏まえ,データから多様な特徴を自動抽出し,テキスト化するためのエンコード/デコード手法を提案する.まず,「続落」,「上げに転じる」といった時系列株価データの過去の履歴や変化を捉えるために,株価の短期的および長期的な時系列データを使用する.次に,「前引け」,「大引け」といった市況コメントが記述される時間帯に依存する表現を生成するために,デコード時に時刻情報を導入する.加えて,「19,386円」,「100円」といった株価の終値や前日からの変動幅などの数値を市況コメントで言及するために,入力である時系列株価データ中から適切な数値を出力するための演算操作を推定し,計算することで数値の出力を行う.実験では,日経平均株価の時系列株価データと人手で書かれた市況コメントを用いて提案手法の評価を行った.自動評価では,実際の市況コメントと生成テキストの一致度合いを評価するためのBLEU,および,「続落」,「前引け」などの表現を正しく出力できているかを評価するためのF値を使用し,提案手法がベースライン手法に比べて大幅に性能が向上することを確認した.さらに,人手評価では,テキストの流暢性と情報性の観点において,提案手法により株価の市況コメントにおける上記のような多様な特徴を捉えた質の高いテキストを生成できることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related_work}時系列データや構造化データの概要を人間にとって分かりやすく伝えるために,データから概況テキストを自動生成するData-to-Text技術に関して様々な研究が行われている\cite{Gatt:2018:SSA:3241691.3241693}.例えば,時系列の気象情報から天気予報の概況を説明するテキストを自動生成する研究\cite{belz2007probabilistic,angeli-liang-klein:2010:EMNLP},医師や看護師の意思決定補助を目的に臨床データから概況テキストを生成する研究\cite{portet2009automatic,banaee2013towards},スポーツの試合におけるplay-by-playデータやスコア情報から試合の概況テキストを生成する研究\cite{liang-jordan-klein:2009:ACLIJCNLP,tagawa2018,taniguchi2019generating},一定期間毎の学習態度を記録した時系列データから学生へのフィードバックのテキストを自動生成する研究\cite{gkatzia-hastie-lemon:2014:P14-1}などが行われている.Data-to-Textの研究では,従来,人手で作成したルールによりテキスト生成を行うルールベース手法が主流であった\cite{goldberg1994using,dale2003coral,reiter2005choosing}.一方,近年では,情報通信技術の発展により様々な形式の大規模データが容易に入手できるようになったことで,データとテキストの大規模なペアデータから学習した対応関係を基に生成を行う機械学習ベースの手法への関心が高まっている\cite{LiuWSCS18,iso-etal-2019-learning}.例えば,画像データからその説明文を生成する画像キャプション生成タスク\cite{vinyals2015show}や構造化された気象データから天気予報テキストを生成するタスク\cite{mei-bansal-walter:2016:N16-1}などの様々なData-to-Textタスクにおいて機械学習を用いた手法の研究が行われている.本研究では,これらの研究と同様に,機械学習を用いて時系列株価データと人手で書かれた株価の市況コメントのペアデータから対応関係を学習し,これらに基づいてテキスト生成を行う手法を提案する.Data-to-Textタスクは,一般的に,生成テキストで言及する内容を選択するコンテンツ選択タスク(\emph{contentselection})と選択したコンテンツを基に実際にテキスト生成を行う生成タスク(\emph{surfacerealization})の2つのサブタスクに分けられる.従来,これらのサブタスクは個々に取り組まれてきた\cite{barzilay2005collective,wong-mooney:2007:main,lu-ng-lee:2009:EMNLP}.一方,近年では,1つのフレームワークでこれらのサブタスクを同時に取り組む手法が提案されている\cite{chen2008learning,kim2010generative,angeli-liang-klein:2010:EMNLP,konstas2012unsupervised,konstas-lapata:2013:EMNLP}.特に最近では,時系列データや構造化データから概況テキストを生成するために,機械翻訳で注目されているエンコーダ・デコーダモデル\cite{sutskever2014sequence,cho-EtAl:2014:EMNLP2014}を用いて,Data-to-Textタスクにおける個々のサブタスクを同時に取り組む研究が積極的に行われており,その有用性が示されている\cite{mei-bansal-walter:2016:N16-1,lebret-grangier-auli:2016:EMNLP2016,ShaMLPLCS18}.しかしながら,エンコーダ・デコーダモデルを用いたData-to-Textタスクにおいて,解決すべき課題がいくつか残っている.例えば,図\ref{fig:news_example}の株価の市況コメントのように,テキストが書かれる時間帯に依存する表現(1,3,4,6)や株価の終値や増減幅などの数値に言及する表現(3,5,6)が用いられる特徴があり,これらの特徴を捉えてテキスト化するためのエンコード/デコード手法が必要となる.時間帯に依存する表現を生成するための方法として,時系列株価データの時刻情報をモデルへ組み込むことなどが考えられる.例えば,\citeA{li-EtAl:2016:P16-13}は,エンコーダ・デコーダモデルを用いた対話モデルの研究において,個人の人格情報をデコーダに導入することで,個人の特徴を捉えた単語列を生成できることを報告している.これらを踏まえ本研究では,時間帯に依存する表現を生成するために,追加情報として時刻情報をデコーダに組み込む方法を提案する.また,数値に言及する表現を生成するための方法として,機械翻訳分野で提案されている,入力に含まれる単語を出力に含めやすくするためのコピー機構付きエンコーダ・デコーダモデル\cite{gu-EtAl:2016:P16-1,gulcehre-EtAl:2016:P16-1}などが考えられる.しかし,時系列数値データのData-to-Textタスクでは,コピー機構だけでは解決できない課題がある.例えば,株価の市況コメントでは,図\ref{fig:news_example}のように,履歴からの差分(3,6)や,切り上げ・切り捨てした値(5)が用いられることもあり,入力に含まれる要素をそのまま出力することを目的としたコピー機構では,差分や切り上げ・切り捨てした値のように演算操作を必要とする数値を出力することができない.そのため,入力の数値データに対して言及をする場合,入力からコピーを行うだけでなく,数値に対して何らかの演算操作を行い,計算結果を出力する機構が必要であると考えられる.本研究では,これらの課題を解決するために,言及する数値に応じて入力データから数値をコピーまたは演算操作を行い計算結果を生成するための機構を導入したエンコーダ・デコーダモデルを提案する.株価の市況コメントの生成を目的とした既存研究は多く存在する.まず,図\ref{fig:news_example}に示すような株価の値動きや過去の価格との比較,数値表現などの特徴を持った市況コメントの自動生成に取り組む研究の先駆けとして,\citeA{kukich:1983:ACL}は,日足の株価データベースから市況コメントを生成するための複数のルールを組み合わせた手法を提案した.具体的には,まず,入力である日足の株価データベースの中から120個のルールに基づいて言及するべき値動きや価格等のコンテンツ選択を行い,次に16個のルールに基づいて言及するコンテンツの順番の並び替えを行う.そして,選択したコンテンツおよび109個のルールとフレーズ辞書に基づいて,使用するフレーズや述語句の統語形式,主語の照応関係等の選択を行うことで市況コメントの生成を行っている.このように,\citeA{kukich:1983:ACL}の研究では,人手で数多くのルールを記述する必要がある.一方,我々が提案するエンコーダ・デコーダを用いた手法では,実際の時系列株価データと人手で書かれた市況コメントのペアデータから対応関係を学習し,これらに基づいて,言及するべき値動きや価格等のコンテンツ選択および使用するフレーズ(単語列)の選択等を行うため,数多くのルールは不要である.同様に,\citeA{aoki2016linguistic}は,日経平均株価を対象に,株価の値動きを説明するテキストの生成に取り組んでいる.本研究と同様に,この研究では,時系列株価データと市況コメントのペアデータから学習した対応関係を基にテキスト生成を行う機械学習ベースの手法を提案している.具体的には,クラスタリング手法により算出した時系列株価データの類似度を基に,重み付けされたbi-gram言語モデルを生成し,その言語モデルを用いてテキスト自動生成を行う.また,\citeA{aoki2016linguistic}の研究では,時系列株価データの類似度に基づいて言及する値動きを選択するタスク(コンテンツ選択タスク)および言語モデルを用いたテキスト生成タスクの2つを個々に取り組んでいる.一方,本研究ではエンコーダ・デコーダモデルによりこれらのサブタスクを同時に取り組むことが可能となる.加えて,この研究では,図\ref{fig:news_example}(3),(5)のような終値や値上げ幅などの数値への言及を行う取り組みが行われていない.これに対し本研究では,数値の変動を概況するだけでなく,入力の時系列数値データを参照した上で,実際の数値へ言及を行うテキストを生成する手法を提案する.また,\citeA{aoki-etal-2018-generating}は,市況コメントにおいてしばしば言及される株価の変化要因の生成に取り組んでいる.ここで変化要因とは,「日経平均、反落で始まる下げ幅100円超、\underline{欧米株安・円上昇で}」のように,市況コメントの主な記述対象である株価データ(日経平均株価)の値動きに影響したとされる外国株式や原油価格などの情報のことを指している.\citeA{aoki-etal-2019-controlling}は,時系列株価データに加えて,市況コメントの生成内容を表すトピックを入力として与えることで,市況コメント生成タスクにおける生成文の内容制御に取り組んでいる.さらに,\citeA{zhang2018TACL1399}は,人手で書かれた文章のように自然で多様なテキストの生成を目的に,株価の値動きの方向(値上がり,値下がり)やその変動幅を表すための動詞を適切に選択するための研究に取り組んでいる.これらの研究では,市況コメント生成タスクにおける,変化要因の記述\cite{aoki-etal-2018-generating}や生成文の内容制御\cite{aoki-etal-2019-controlling},多様な表現を用いたテキスト生成\cite{zhang2018TACL1399}を行うことを目的としている.一方,本研究では市況コメントにおける価格の履歴を参照する表現や時間帯に依存する表現,株価の数値表現などの様々な特性を表出するテキストの生成に取り組んでおり,これらの研究とは目的が異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:our_model}近年,機械翻訳\cite{cho-EtAl:2014:EMNLP2014}や文書要約\cite{rush-chopra-weston:2015:EMNLP}などの様々な系列生成タスクにおいて,エンコーダ・デコーダモデル\cite{sutskever2014sequence}を用いた手法が提案され,有用性が示されている.本研究では,時系列株価データに対する市況コメントの生成を,時系列株価データから単語系列を生成する系列生成タスクとして考え,エンコーダ・デコーダモデルを用いた手法を提案する.本研究では,エンコーダとして一般的に利用されている多層パーセプトロン(Multi-LayerPerceptron:MLP),畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork:CNN),再帰的ニューラルネットワーク(RecurrentNeuralNetwork:RNN)のうちいずれかを採用し,それぞれの性能の比較を行う.また,デコーダには,テキスト生成タスクにおいて広く使われている再帰的ニューラルネットワーク言語モデル(RecurrentNeuralNetworkLanguageModel:RNNLM)を利用する.時系列株価データの市況コメントを記述する際には,モデルでは,時系列データの絶対的・相対的な変化や最大値・最小値といった特徴を,異なるタイムスケールで捉える必要がある.また,市況コメントでは,「前引け」,「大引け」などのテキストが書かれる時間に依存する表現が用いられることや,株価の終値や変動幅などの数値について言及されることがある.本研究では,このような時系列株価データの多様な特徴を自動抽出してテキスト化するために,標準的なエンコーダ・デコーダモデルに対して3つの手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-2ia7f2.eps}\end{center}\caption{提案モデルの概要\label{fig:model_overview}}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究で提案するモデルの概要を図\ref{fig:model_overview}に示す.提案モデルでは,時系列データの様々な変化を異なるタイムスケールで捉えるために,短期的な時系列データ$\x_\subshort$および長期的な時系列データ$\x_\sublong$を入力として利用する.また,テキストが書かれる時間に依存する表現を生成するために,デコード時にテキストを記述する時間帯の情報($\vec{T}$)を利用する.加えて,市況コメントの生成時に株価の終値や変動幅などの実際の数値に言及する際には,入力した時系列データ中から正しい数値を出力するための演算操作($<$OP2$>$等)を推定し,計算することで数値の出力を行う.以降では,(1)時系列株価データのエンコード手法,(2)テキスト生成時の時間帯の考慮,(3)数値の演算操作の推定について詳細を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{時系列株価データのエンコード手法}\label{sec:encoding_method}本研究では,時系列株価データとして,日経平均株価を使用する.株価の短期的または長期的な数値の変動を捉えるために,短期的な時系列データとして,$N$タイムステップからなる1日分の株価データ$\x_\subshort=\parentheses{x_{\text{short,\,}i}}_{\ind=0}^{N-1}$,長期的な株価データとして,過去$M$営業日分の終値$\x_\sublong=\parentheses{x_{\text{long,\,}i}}_{\ind=0}^{M-1}$,を入力として利用する.画像処理分野\cite{Cun:1990:HDR:109230.109279}や自然言語処理分野\cite{vijayarani2015preprocessing}などの様々な分野において,機械学習モデルの汎化性能やデータに含まれるノイズを除去するために,データに対して前処理を行うことが一般的である\cite{zhang2005neural,banaee2013framework}.本研究でも同様に,数値データである時系列株価データに対して,前処理を行う.数値データの前処理手法として,標準化(\emph{standardization})と前日との差分(\emph{movingreference})\cite{freitas2009prediction}を使用する.使用する前処理手法の式を以下に示す:\begin{align}x^{\text{std}}_{i}&=\frac{x_i-\mu}{\sigma},\label{eq:std}\\x^{\text{move}}_{i}&=x_i-r_{i}\label{eq:move},\end{align}ここで,$x_i$は数値データである株価を表す.式(\ref{eq:std})では,学習に使用する全株価データ$\x$の平均値$\mu$,標準偏差$\sigma$を用いて標準化を行う.式(\ref{eq:move})では,前日の終値からの価格の変動を捉えるために,前日の終値$r_{i}$から各タイムステップの価格$x_i$の差分を計算する.次に,時系列株価データの前処理とエンコードの手順について説明する.まず,前処理は,1日分の株価データ$\x_\subshort$,$M$営業日分の終値データ$\x_\sublong$に対して行い,数値ベクトル$\vec{\varl}_\subshort$,$\vec{\varl}_\sublong$をそれぞれ作成する.次に,作成した数値ベクトルをそれぞれエンコーダへ入力し,エンコーダの出力状態ベクトル$\vec{h}_\subshort$,$\vec{h}_\sublong$を獲得する.続いて,前処理により作成した数値ベクトルとエンコーダの出力状態ベクトルを結合し,\emph{multi-levelrepresentation}ベクトル\cite{mei2016navigational}を作成する.このmulti-levelrepresentationについて,\citeA{mei2016navigational}は,入力データの高レベルな表現($\vec{h}_\subshort$,$\vec{h}_\sublong$)と低レベルな表現($\vec{\varl}_\subshort$,$\vec{\varl}_\sublong$)を同時にモデルで考慮することで,モデルが入力データ中の重要な情報を選択する性能が向上したことを報告している.株価の市況コメントの記述においても,入力データである短期的および長期的な時系列株価データ中の重要な値動きを捉えることが必要とされる.そのため,本研究でも同様に,multi-levelrepresentationを採用し,デコーダであるRNNLMの初期状態$\vec{s}_0$を次のように設定する:\begin{equation}\vec{s}_{0}=\vec{\varl}_\subshort\oplus\vec{\varl}_\sublong\oplus\vec{h}_\subshort\oplus\vec{h}_\sublong.\end{equation}ここで,$\oplus$は連結演算子を表している.2つの前処理手法を用いる場合,短期的及び長期的な時系列株価データ$\x_\subshort$,$\x_\sublong$に対してそれぞれの前処理を適用し,4つの数値ベクトル$\vec{\varl}_\subshort^\supmove$,$\vec{\varl}_\subshort^\supstd$,$\vec{\varl}_\sublong^\supmove$,$\vec{\varl}_\sublong^\supstd$.を作成する.次に,それぞれの数値ベクトルに対して独立のエンコーダを使用し,計4つのエンコーダの出力状態ベクトルを獲得する.この時,デコーダであるRNNLMの初期状態$\vec{s}_0$は次のように設定する:\begin{equation}\vec{s}_0=\vec{\varl}_\subshort^\supmove\oplus\vec{\varl}_\subshort^\supstd\oplus\vec{\varl}_\sublong^\supmove\oplus\vec{\varl}_\sublong^\supstd\oplus\vec{h}_\subshort^\supmove\oplus\vec{h}_\subshort^\supstd\oplus\vec{h}_\sublong^\supmove\oplus\vec{h}_\sublong^\supstd.\label{eq:concat-all}\end{equation}また,時系列株価データのような時系列数値データから,数値の変動等の特徴を抽出するためのエンコード手法として,いくつかの方法が考えられる.本研究ではエンコーダとして,MLP,CNN,RNNのいずれかを用いる.本研究では,実験において,時系列数値データの特徴抽出手法として有用なエンコード手法を比較検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト生成時の時間帯の考慮}\label{sec:time-embedding}時系列データの概況テキストは,テキストが書かれる時間帯に依って言及すべき内容は様々である.例えば株価の市況コメントの場合,一般的に,図\ref{fig:news_example}中の(1),(6)のように,取引が始まる時間帯には「前日から価格がどのように変動したか」,取引が終了する時間帯には「値上げ幅と終値はいくらか」等が言及される.\citeA{li-EtAl:2016:P16-13}が行ったエンコーダ・デコーダモデルを用いた対話モデルの研究では,デコード時にある個人の人格情報を追加的に入力することで,その人の話し方や背景などの特徴を捉えた単語列を生成できることが報告されている.これらを踏まえ本研究では,デコード時の各タイムステップの状態$\vec{s}_j$に時間帯情報$\vec{T}$の付与を行い,時間帯を考慮したテキストの生成を行う.具体的には,市況コメントが配信される時間帯(9時,15時等)を入力として時間帯情報埋め込みベクトル$\vec{T}$を作成し,デコード時の各タイムステップの隠れ状態ベクトル$\vec{s}_j$に時間帯情報埋め込みベクトル$\vec{T}$を加算する\footnote{\citeA{li-EtAl:2016:P16-13}の研究では埋め込みベクトルを連結しているが,予備検証において加算の場合でも連結の場合と同様に出力が変化することが明らかになったため,今回は加算を採用した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数値の演算操作の推定}\label{sec:arithmetic_operation}RNNLMなどの言語モデルを用いたテキスト生成において,一定の出現頻度よりも少ない単語は未知語(out-of-vocabulary:OOV)として,$<$unk$>$などの特殊トークンに置き換えられることが一般的である\cite{sutskever2014sequence}.特に,固有名詞や数値などのバリエーションが多い単語は出現頻度が少なくなる傾向があるため,OOVとして扱われてしまうことがある.また,これらの単語がOOVとして扱われなかった場合であっても,その単語と類似した別の単語を誤って生成してしまうことがある.機械翻訳の分野では,OOV問題の対策として,出現頻度が少なくなりやすい固有名詞などを入力テキストからコピーを行い,これらの単語を出力するための機構が提案されている\cite{luong-etal-2015-addressing,gulcehre-EtAl:2016:P16-1}.入力の数値データに言及するテキストでは,図\ref{fig:news_example}中の(3,6)のように,入力データに含まれる数値について直接言及することが多い.しかし,それだけではなく,履歴からの差分(3,6)や,切り上げ・切り捨てした値(5)が用いられることもある.そのため,入力データから数値をコピーするだけでなく,「差分の計算」等の数値の演算操作が必要となる.しかしながら,通常のモデルでは,このような演算操作を必要とする数値を直接的に生成することができない.そこで本研究では,演算した数値を間接的に生成するために,12種類の演算トークンを導入する.具体的には,モデルにおいて株価の数値箇所を直接的に予測する代わりに,12種類の演算トークンのいずれかを推定し,予め定義した各演算トークンに対応する演算操作のルールに基づいて価格の計算を行い,計算結果の価格で演算トークンを置換する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{定義した演算トークンと演算操作}\label{table:operation}\input{07table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本手法では,前処理として,学習データのテキスト中の価格箇所を$<$OP1$>$や$<$OP2$>$等の演算トークンに置換する.使用する演算トークンは,言及する価格の性質に依って異なる.表\ref{table:operation}に事前に定義した演算トークンと対応する演算操作の内容を示す.ここで,次の市況コメントを例として,学習データのテキストの前処理方法について説明する.\begin{exe}\centering\ex日経平均、反発午前終値は227円高の16,610円\label{sen:original}\end{exe}前処理では,まず始めに,表\ref{table:operation}中の全ての演算操作(12種類)を行い,各演算トークンに対応する数値を計算する.例えば,ここで,前日の終値$x_{\text{long,\,}M-1}$を「16,383」,最後のタイムステップの価格$x_{\text{short,\,}N-1}$を「16,610」とした場合,演算トークン$<$OP1$>$に対応する数値は「227」となる.次に,各演算トークンに対応する数値「227」等とテキスト(\ref{sen:original})中の数値「227」,「16,610」を比較し,正解の数値「227」,「16,610」のそれぞれに最も近い数値を計算した演算操作およびその演算トークンを求める.最後に,導出した演算トークンを,正解の数値「227」,「16,610」に対する最適な演算トークンとして見做し,正解の数値と演算トークンを置換することで,以下の前処理済みテキスト(\ref{sen:preprocessed})を獲得する.\begin{exe}\centering\ex日経平均、反発午前終値は$<$OP1$>$円高の$<$OP6$>$円\label{sen:preprocessed}\end{exe}上記の例では,テキスト(\ref{sen:original})中の「227」は,前日の終値$x_{\text{long,\,}M-1}$である「16,383」と最後のタイムステップの価格$x_{\text{short,\,}N-1}$である「16,610」の差を表すため,演算トークン$<$OP1$>$に置換し,「16,610」は,最後のタイムステップの価格$x_{\text{short,\,}N-1}$である「16,610」を表すため,演算トークン$<$OP6$>$に置換している.次に,テスト時における数値の導出方法について説明する.入力として,前日の終値$x_{\text{long,\,}M-1}$が14,612円で最後のタイムステップの価格$x_{\text{short,\,}N-1}$が14,508円の時系列株価データをモデルへ与え,テキスト(\ref{sen:inference})を生成した場合を考える.\begin{exe}\centering\ex日経平均、反落で始まる下げ幅$<$OP2$>$円超、$<$OP7$>$円台\label{sen:inference}\end{exe}まず,$<$OP2$>$を,前日の終値$x_{\text{long,\,}M-1}$と最後のタイムステップの価格$x_{\text{short,\,}N-1}$の差を10の位で切り捨てた価格である「100」へ置換する.次に,$<$OP7$>$を,最後のタイムステップの価格$x_{\text{short,\,}N-1}$を100の位で切り捨てた価格である「14,500」へ置換する.以上により,テキスト(\ref{sen:output})が得られ,これを出力テキストとする.\begin{exe}\centering\ex日経平均、反落で始まる下げ幅100円超、14,500円台\label{sen:output}\end{exe}このように,株価データと市況コメントのペアデータから対応関係を学習するエンコーダ・デコーダモデルと本課題に対する少量のルールを組み合わせることにより,従来のルールに基づくテキスト生成手法\cite{kukich:1983:ACL}と比べて,より少ないルールによって株価の価格や上げ幅等の数値表現を含む市況コメントの生成が可能となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}実験には,時系列株価データとしてIBI-SquareStocks\footnote{http://www.ibi-square.jp/index.htm}から収集した2013年3月から2016年10月までの5分足の日経平均株価,市況コメントとして日経QUICKニュース社が提供する日経平均株価ニュースのヘッドラインテキスト,計7,351件を利用した.市況コメントの内,2013年3月から2016年1月までの市況コメントである5,880件を学習データ,2016年2月から同年10月までの730件,741件をそれぞれ開発データ,評価データとして利用した.市況コメントの形態素解析にはMeCab\footnote{http://taku910.github.io/mecab/}(IPA辞書)を使用し,各形態素を1つの語彙とした.また,学習データの市況コメントにおいて,出現回数が1回以下の形態素は未知語として扱い,特殊トークン$<$unk$>$へ置換を行った.その結果,学習データにおける語彙サイズは691,平均文長(1文あたりの平均語数)は12.5となった.人手評価用の評価データとして,上記評価データからランダムに抽出した100件の市況コメントおよび株価データを使用した.実験では,短期的な時系列株価データである1日分の株価データのタイムステップ数$N$を62,長期的な時系列株価データである過去$M$営業日分の終値のタイムステップ数$M$を7とした.本研究では,時系列株価データとして5分足の日経平均株価を用いている.従って,市況コメントが書かれる直近の時間帯から62タイムステップ前までの株価を1日分の時系列株価データとして設定している.学習時には,全62タイムステップから成る1日分の株価データ$\x_\subshort$,全7タイムステップから成る過去7営業日分の終値データ$\x_\sublong$と市況コメントのペアを使用する.テスト時には,株価データのみを用いて市況コメントを生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハイパーパラメータ}エンコーダ・デコーダモデルの学習において,単語埋め込みベクトルの次元は128,時間帯情報埋め込みベクトルの次元は64,エンコーダの隠れ状態の次元は256とした.エンコーダにCNNを用いる場合,畳み込み層は1層とし,入力チャネル数は1,出力チャネル数は16,フィルタサイズは3,活性化関数にはReLU\cite{pmlr-v15-glorot11a}を使用した.同様に,MLPを用いる場合,隠れ層は3層とし,活性化関数にはTanhを用いた.また,RNNを用いる場合,1層のLong-ShortTermMemory(LSTM)\cite{hochreiter1997long}を使用し,活性化関数にはTanhを用いた.デコーダには,テキスト生成タスクで広く用いられているRNNLMを用いた.RNNには,LSTMを使用し,レイヤ数は1層とした.活性化関数にはTanhを使用した.デコーダの隠れ状態の次元数は,使用する前処理手法の数やmulti-levelrepresentationの有無によって変化する.例えば,式(\ref{eq:concat-all})のように,前処理手法として標準化および前日の差分の2手法を用い,さらにmulti-levelrepresentationを導入する場合,デコーダの隠れ状態は$1,162$次元となる\footnote{$62\times2+7\times2+256\times2+256\times2=1,162$より,2つの前処理手法およびmulti-levelrepresentationを導入する場合のデコーダの隠れ層は$1,162$次元となる.}.ここで,数値ベクトル$\vec{\varl}_\subshort^\supmove$,$\vec{\varl}_\subshort^\supstd$の次元数は62,$\vec{\varl}_\sublong^\supmove$,$\vec{\varl}_\sublong^\supstd$は7,エンコーダの出力状態ベクトル$\vec{h}_\subshort^\supmove$,$\vec{h}_\subshort^\supstd$,$\vec{h}_\sublong^\supmove$,$\vec{h}_\sublong^\supstd$の次元数は256である.モデルの学習時には,デコーダの各タイムステップの入力として,学習データの市況コメントの単語系列をそのまま用いるTeacherForcingにより学習を行った.また,本研究で使用する市況コメントのデータセットは,機械翻訳等の一般的なテキスト生成タスクと比べてデータ規模が小さいことから,事前学習済み言語モデルなどの事前学習の枠組みを導入することによる性能向上が期待できる\cite{song2019mass,devlin-etal-2019-bert,radford2019gpt2}.しかし,本研究で使用する市況コメントデータの予備検証において,事前学習を導入しない場合であっても,一定の学習効果が得られることが明らかになったため,単語埋め込みベクトルやエンコーダ・デコーダモデルにおける重みパラメータの事前学習,および,事前学習済み言語モデルの導入は行っていない.ミニバッチのサイズは100,損失関数には交差エントロピー,モデルパラメータの最適化手法にはAdam\cite{DBLP:journals/corr/KingmaB14}($\alpha=0.001$,$\beta_1=0.9$,$\beta_2=0.999$,$\epsilon=10^{-8}$)を使用した.学習時のエポック数は30に設定した.実験結果では,学習における全30エポックの内,開発データに対するBLEUが最も高いエポック時のモデルを評価対象とし,自動評価および人手評価の結果を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価指標}実験では,2つの自動評価指標と人手評価により生成テキストの評価を行った.1つ目の自動評価指標として,実際の株価の市況コメントと生成されたテキストの一致度合いを測る目的としてBLEU\cite{papineni-EtAl:2002:ACL}を使用した.BLEUの計測にはMTEvaltoolkit\footnote{https://github.com/odashi/mteval}を使用した.スコアの計算においては,4-gramまでを考慮し,大文字・小文字は区別している.また,ブートストラップ・リサンプリング法\cite{koehn:2004:EMNLP}により統計的有意差の検定を行った.有意水準は5\%とした.2つ目の自動評価指標として,「続落,反発,上げに転じる」といった短期的・長期的な時系列株価データの変動を説明する表現や「始まる,前引け」などの時間帯に依存する表現を評価データの正解テキストと比較して正しく出力できているかを評価するために,F値を用いて評価を行った.表\ref{table:phrases}にF値による評価で用いる表現を示す.ここで表\ref{table:phrases}において,各データにおける出現件数は,5,880件の学習データ,730件の開発データ,741件の評価データのそれぞれにおける各表現の出現件数を表している.F値による評価で用いる表現の選定においては,学習データの市況コメントにおける株価の変動を説明する表現および時間帯に依存する表現のうち,比較的に出現回数が多い13種類の表現を選定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{F値による評価に用いた表現および各データにおける出現件数}\label{table:phrases}\input{07table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価では,生成テキストの情報性と流暢性について評価するために,金融工学の専門家の1人に評価を依頼した.また,提案手法及び人手により生成した市況コメントの品質の違いを評価するために,システム名を伏せて,両者の生成テキストおよび対応する短期的・長期的な時系列株価データ$\x_\subshort$,$\x_\sublong$を評価者に提示した.人手評価では,情報性と流暢性の2つの観点について,0または1の2段階のスコア付けを行った.ここで,1は情報性または流暢性が高いことを表す.情報性の評価では,評価者は生成テキスト及び対応する時系列株価データを参照し評価を行った.具体的には,時系列株価データの重要な値動きや値動きの概況について適切に述べている生成テキストを情報性が高いテキストとして定義した.流暢性の評価では,評価者は生成テキストのみを与え,テキストの可読性の観点で評価を行う.すなわち,株価の値動きについて生成テキストで述べられている内容の正しさにかかわらず評価を行う.また,数値の演算操作の推定を行わない場合,生成テキストにおける数値箇所が未知語($<$unk$>$)として出力されることで,流暢性の評価に影響する恐れがある.そのため本研究では,生成テキストにおける$<$unk$>$には適切な数値や文字列が入っているものとして評価を行うよう評価者に説明した.また,人手で書かれた市況コメントでは,本研究で使用する時系列株価データには含まれてない情報について記述することがある.例えば,人手で書かれた市況コメントである「日経平均、反落して始まる米株安や円高で、下げ幅100円超える」には,「米株安や円高で」といった外部情報が含まれる.システムへの入力として与える時系列株価データからこのような外部情報を予測することは不可能であることから,人手評価では,生成テキストに含まれる外部情報を無視して評価するように評価者へ依頼した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較モデル}表\ref{table:proposed_model},表\ref{table:comparison_model}に提案モデルおよび比較モデルの一覧を示す.実験では,まず,エンコード手法の検討として,MLP,CNN,RNNのそれぞれをエンコーダとしたモデル(\emph{mlp-enc},\emph{cnn-enc},\emph{rnn-enc})の比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{実験で使用した提案モデルの概要}\label{table:proposed_model}\input{07table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\caption{実験で使用した比較モデルの概要}\label{table:comparison_model}\input{07table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,入力の時系列データから短期的及び長期的な変化を捉える能力があるかを確認するために,短期的な株価データ$\x_\subshort$または長期的な終値データ$\x_\sublong$を使用しないモデル(\emph{-short},\emph{-long})の比較を行う.また,数値データの表現手法の有用性を確かめるために,\emph{mlp-enc}モデルをベースとして,各前処理手法(標準化,前日との差分),multi-levelrepresentationを使用しない各モデル(\emph{-std},\emph{-move},\emph{-multi})の評価を行う.最後に,数値の演算操作の推定手法,および,時間帯情報の入力手法の有用性を確かめるために,各手法を使用しないモデル(\emph{-num},\emph{-time})の評価を行う.ベースラインとして,1日分の株価データのみを入力として,エンコーダにMLP,前処理手法に標準化と前日との差分を使用するモデル(\emph{baseline})を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} BLEU,F値による評価の実験結果を表\ref{table:bleu},表\ref{table:f_measure}にそれぞれ示す.また,各モデルの出力例と人手で書かれた市況コメント(\emph{Human})を図\ref{fig:output_example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\caption{各モデルの評価データに対するBLEUスコア}\label{table:bleu}\input{07table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\caption{各表現に対するF値}\label{table:f_measure}\input{07table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-2ia7f3.eps}\end{center}\caption{短期的・長期的な時系列株価データおよび各モデルの生成テキスト}\label{fig:output_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{時系列株価データのエンコードおよび表現手法の効果}まず,時系列株価データのエンコード手法の検討として,MLP,CNN,RNNのそれぞれをエンコーダとしたモデル(\emph{mlp-enc},\emph{cnn-enc},\emph{rnn-enc})の比較を行う.BLEUによる自動評価では,MLPをエンコーダとした提案手法(\emph{mlp-enc})がベースラインを含めたその他全てのモデル(\emph{baseline},\emph{cnn-enc},\emph{rnn-enc}等)と比較して,有意水準5\%で統計的有意にBLEUスコアが高かった.また,表\ref{table:f_measure}の各表現に対するF値を比較すると,MLP,CNN,RNNのそれぞれをエンコーダとした3モデルにおいて,MLPをエンコーダとした\emph{mlp-enc}がより多くの表現を正しく出力できている.特に,\emph{mlp-enc}は,「日経平均、反発で始まる\underline{上げ幅}100円超」や「日経平均、一時\underline{下げ幅}100円超える」のように,短期的な株価の変動を説明する際に用いられることが多い表現である「上げ幅」,「下げ幅」に対するF値が他の2つのモデル(\emph{cnn-enc},\emph{rnn-enc})に対して大きく上回っていた.これらの結果から,単語の一致率を基にした評価指標であるBLEUにおいて,MLPをエンコーダとした\emph{mlp-enc}がCNN,RNNのそれぞれをエンコーダとした\emph{cnn-enc},\emph{rnn-enc}よりもBLEUスコアが向上したことが推察できる.次に,時系列株価データの表現手法の検討として,数値データの前処理手法として使用した標準化および前日との差分の比較を行う.表\ref{table:bleu}のBLEUスコアによる自動評価では,標準化と前日との差分の両方を前処理手法として用いる\emph{mlp-enc}がいずれかの前処理を用いないモデル(\emph{-std},\emph{-move})よりもBLEUが高いことが分かった.表\ref{table:f_measure}のF値による評価においては,両者の前処理手法を用いる\emph{mlp-enc}は「上げに転じる」,「下げに転じる」等の株価の値動きに言及する表現について,その他の2つのモデル(\emph{-move},\emph{-std})よりも適切に出力できることが分かった.また,各前処理手法の有用性を検証するために,両方の前処理手法を用いる\emph{mlp-enc}といずれかの前処理を用いない\emph{-std}および\emph{-move}のBLEUスコアに着目すると,\emph{-move}によって生成した市況コメントは\emph{-std}と比べて,\emph{mlp-enc}よりも大幅にBLEUスコアが低下している.同様に,表\ref{table:f_measure}のF値による評価において,\emph{-move}は\emph{-std}と比べて,\emph{mlp-enc}よりも「続落」,「反発」等の株価の変動を説明する表現に対するF値が大幅に低下している.以上のことから,数値データの前処理手法である前日との差分は,標準化よりも時系列株価データの変動を捉えて株価の値動きを説明する表現を生成する精度に大きく貢献していることが考えられる.続いて,入力の時系列株価データの表現方法として用いたmulti-levelrepresentationの効果について比較する.\ref{sec:encoding_method}節で述べたとおり,multi-levelrepresentationは,エンコーダの出力ベクトルである高レベルな表現($\vec{h}_\subshort^\supmove$,$\vec{h}_\subshort^\supstd$等)と前処理手法により作成した数値ベクトルである低レベルな表現($\vec{\varl}_\subshort^\supmove$$\vec{h}_\subshort^\supstd$等)を同時に考慮することで,入力データ中の重要な情報を選択する性能が向上することを期待して導入したベクトル表現手法である.表\ref{table:bleu}のBLEUスコアによる自動評価では,multi-levelrepresentationを用いないモデル(\emph{-multi})のBLEUスコアが\emph{mlp-enc}よりも低下することを確認した.また,表\ref{table:f_measure}のF値による評価では,\emph{-multi}は\emph{mlp-enc}と比べて,「続落」,「反落」,「下げに転じる」等の株価の値動きを説明する表現に対するF値が低下することが分かった.以上のことから,multi-levelrepresentationベクトルを導入することで,モデルが時系列株価データ中の重要な変動を捉える性能が向上し,自動評価指標であるBLEUやF値の改善に寄与したことが考えられる.さらに,入力データとして短期的及び長期的な時系列株価データを用いることでモデルが株価の様々な変化を異なるタイムスケールで捉えることができているかを検証するために,短期的及び長期的な時系列株価データ$\x_\subshort$,$\x_\sublong$を両方用いたモデル(\emph{mlp-enc},\emph{rnn-enc}等)とそれぞれ用いないモデル(\emph{-short},\emph{-long})の比較を行う.まず,表\ref{table:bleu}のBLEUによる自動評価では,両方のデータを用いた\emph{mlp-enc}は,いずれかを用いない\emph{-short}および\emph{-long}と比べてBLEUスコアが有意に向上することを確認した.特に,短期的な時系列株価データ$\x_\subshort$を入力に与えないモデル(\emph{-short})では,BLEUスコアが著しく低下した.また,表\ref{table:f_measure}の各表現に対するF値の評価では,両方の時系列株価データを用いたモデル(\emph{mlp-enc},\emph{rnn-enc}等)は,\emph{-short}及び\emph{-long}と比較して「続落,反発,上げに転じる」等の短期的及び長期的な株価の変化を説明する表現を正しく出力できることが分かった.これらの結果より,入力データとして短期的及び長期的な時系列株価データを与えることで,モデルが株価の様々な変化を捉える性能が向上し,値動きを説明する表現を適切に生成する精度の改善に寄与したことが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{時間帯の考慮手法の効果}次に,モデルが市況コメントが書かれる時間帯に依存する表現を用いて株価の値動きを適切に説明する性能が向上することを期待して導入した時間帯情報埋め込みベクトル$\vec{T}$の効果について検証を行う.具体的には,時間帯情報を用いたモデル(\emph{mlp-enc})とそれを用いないモデル(\emph{-time})の比較を行う.まず,表\ref{table:bleu}のBLEUによる自動評価では,デコード時のデコーダの状態に時間帯情報を付与していない\emph{-time}モデルは,\emph{mlp-enc}と比べてBLEUが有意に低下することを確認した.次に,表\ref{table:f_measure}において,時間帯情報を考慮するモデル(\emph{rnn-enc},\emph{-num}等)と時間帯情報を考慮しないモデル(\emph{-time})を比較すると,\emph{-time}は「始まる,前引け,大引け」といった時間帯に関して言及を行う表現を正しく出力できていないことが分かる.また,表\ref{table:f_measure}より,時間帯情報を考慮しない\emph{-time}は時間帯情報を考慮する\emph{mlp-enc}と比べて,時間帯に依存する表現だけでなく,「X円高の」,「X円安の」等の株価の変動幅に言及する表現の予測精度も低下することが分かった.これは,「日経平均、大幅続伸\underline{前引け}は\underline{251円高の}12,219円」のように,株価の市況コメントにおいて,「前引け」,「大引け」は,前日の終値からの変動幅について言及する際の「X円高の」,「X円安の」といった表現とともに用いられる傾向が強いためであると考えられる.つまり,時間帯情報を与えないことで,モデルが「前引け」,「大引け」について言及する性能が低下し,同様に「X円高の」,「X円安の」といった表現の予測性能が低下したことが推察できる.以上のことから,モデルへ時間帯情報を導入することにより,時間帯に依存する表現を適切に用いつつ株価の値動きを説明する性能の改善に貢献することが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数値の演算操作の推定手法の効果}\label{sec:result_operation}モデルが生成した株価の市況コメントにおいて,株価の終値や変動幅などの数値を適切に出力できているかを検証するために,数値の演算操作の推定手法を導入したモデル(\emph{mlp-enc})と導入していないモデル(\emph{-num})の比較を行う.各モデル(\emph{mlp-enc},\emph{-num})による市況コメントの生成例および人手で書かれた正解テキスト(\emph{Human})を表\ref{table:example_-num_output}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\caption{-numおよびmlp-encモデルによる市況コメントの生成例}\label{table:example_-num_output}\input{07table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,表\ref{table:bleu}のBLEUによる自動評価では,演算操作の推定手法を導入していない\emph{-num}は,本手法を導入した\emph{mlp-enc}と比べてBLEUスコアが大きく低下することが分かった.ここで,\emph{-num}と\emph{mlp-enc}の差分は,数値の演算操作の推定手法のみであることに注意されたい(表\ref{table:proposed_model},表\ref{table:comparison_model}).本手法を導入した\emph{mlp-enc}では,株価等の数値について言及する際,予測した演算操作に基づいて実際の値を計算し出力する.一方,本手法を導入していない\emph{-num}や\emph{baseline}等では,数値の演算操作の推定を行わず,デコーダであるRNN言語モデルから数値を``単語''として出力する.そのため表\ref{table:example_-num_output}のように,演算操作の推定を導入していない\emph{-num}によって生成した市況コメントでは,数値として言及すべき箇所において$<$unk$>$や適切ではない数値(126円)が出力される事例が多く,単語の一致率を基にしたBLEUによる自動評価において,\emph{mlp-enc}よりも低いスコアとなったことが考えられる.次に,数値の演算操作によってどの程度の株価の数値表現を正しく出力できているかについて分析を行う.表\ref{table:num_of_correct_number}に評価データ中の各数値表現を各モデル(\emph{mlp-enc},\emph{-num})が正しく出力できた数,できなかった数を算出した結果を示す.表\ref{table:num_of_correct_number}の算出において,「日経平均前引け、\underline{97円}安の\underline{17,137円}」のように1件の市況コメントに複数の数値表現が含まれている場合は,各数値表現に対して正しい数値を出力できている数を算出した.全741件の評価データにおいて,株価の数値表現は合計で863事例含まれていた.このうち,数値の演算操作の推定手法を導入した\emph{mlp-enc}では,640事例の数値表現を正解テキストと比較して正しく出力できていた.一方,本手法を導入していない\emph{-num}では,92事例の数値表現を正しく出力できていたが,その他の771事例において数値表現が誤っていた.以上により,数値の演算操作の推定を行うことにより,多くの事例で株価の数値表現を正しく出力できていることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\caption{評価データにおける数値表現の正解・不正解数}\label{table:num_of_correct_number}\input{07table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%加えて,表\ref{table:num_of_correct_number}における\emph{mlp-enc}の数値表現の誤り223事例について分析を行った.具体的には,正解の演算操作とテキスト,および,推定した演算操作と生成テキストの四つ組を参照し,人手による分析を行った.その結果,\emph{mlp-enc}の数値表現の誤りである223事例のうち81事例は,数値表現の切り上げ・切り捨て操作($<$OP3$>$,$<$OP5$>$等)の推定誤りが起因していることが分かった.例えば,正解テキストでは演算トークンが$<$OP5$>$である数値表現について$<$OP3$>$と推定した事例が37事例と一番目に多く,正解テキストでは演算トークンが$<$OP4$>$である数値表現について$<$OP3$>$と推定した事例が26事例と2番目に多いことが分かった.また,その他の142事例については,正解テキストと生成テキストにおけるコンテンツ選択の異なりに起因していることが分かった.具体例として,正解テキストでは「日経平均、反落で始まる下げ幅は\underline{100円}超える」のように株価の下げ幅について言及しているのに対し,生成テキストでは「日経平均、反落で始まる\underline{17600円}台」のように株価自体が何円台になったかについて言及している事例などが挙げられる.この事例の場合,正解テキストに含まれる数値(100円)と生成テキストの数値(17600円)は異なるため,表\ref{table:num_of_correct_number}において不正解として算出されていることに注意されたい.また,本研究では,市況コメントで用いられる価格の差分や切り上げ・切り捨てした値などの数値表現を生成するために,12種類の演算トークン(表\ref{table:operation})を導入している.しかし,市況コメントの生成時に正解の数値表現に対応する演算トークンが無い場合,数値表現の誤りが発生することが懸念される.そこで,本研究で提案する12種類の演算トークンの網羅性について調査を行った.具体的には,実験で使用した評価データにおける株価の数値表現である全863事例において,定義した演算トークンに該当しない数値表現の事例を人手によって確認した.その結果,定義した演算トークンに該当しない事例が2つあることが分かった.表\ref{table:no_rule_cases}にそれらの事例を示す.例えば,事例(a)における「200円」は,週の初めから現在までに株価がどの程度の範囲で値動きしたかを表す値幅であり,表\ref{table:operation}の演算トークンに該当するものは存在しない.また,事例(b)における「2448円」は,該当年度において株価がどの程度下落したかを表す年度ベースの下げ幅であり,こちらも同様に表\ref{table:operation}に該当するものは存在しない.これらの数値表現を算出するためには,対応する演算トークンを導入する必要があることに注意されたい.以上の調査の結果,実験で使用した評価データにおいて定義した演算トークンに該当しない事例は2件であり,演算トークンの網羅性が起因となる数値表現の誤り発生は少ないことが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\caption{定義した演算トークンに該当しない事例}\label{table:no_rule_cases}\input{07table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価結果}表\ref{table:human_eval}に提案手法(\emph{mlp-enc}),ベースライン手法(\emph{baseline})で生成した市況コメントおよび人手で書かれた市況コメント(\emph{Human})に対する人手評価の結果を示す.ここで表\ref{table:human_eval}において,情報性および流暢性は,0または1の2段階評価においてスコアが1であった事例数,外部情報は生成テキストに外部情報を含む事例数を表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\caption{人手評価の結果}\label{table:human_eval}\input{07table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価の結果,人手で書かれた市況コメントよりもやや劣るものの,提案手法により情報性および流暢性に関して質の高い市況コメントを生成できることが分かった.また,提案手法とベースライン手法の人手評価結果の比較では,情報性について,提案手法がベースライン手法を大幅に上回る結果となった.しかし,流暢性の観点においては,ベースライン手法が提案手法を上回っていた.情報性に関する人手評価において提案手法がベースライン手法よりも大幅に上回っていた理由として,図\ref{fig:output_example}のように,提案手法はベースライン手法と比べて生成テキスト中の株価の数値表現の誤りが少ないことが主な要因として考えられる.また,ベースライン手法は数値の演算操作の推定手法を使用していないため,\ref{sec:result_operation}節の\emph{-num}のように多くの事例において,数値表現の誤りが含まれていることが推察できる.これらの結果から,時系列株価データの値動きを適切に述べているかに基づいた情報性の評価において,評価者が提案手法の生成テキストの情報性が高いと判定したことが考えられる.加えて,生成テキストの流暢性に関する人手評価においてベースライン手法が提案手法を上回っていた理由として,提案手法における演算操作の推定誤りによって,提案手法が「日経平均、上げ幅0円超える」といったテキストを生成していたことが原因として考えられる.「0円超える」といった表現は市況コメントにおいて通常使われず不自然であり,株価の値動きについても述べられていないため,評価者がこのような表現を含む生成テキストを流暢性および情報性が低い市況コメントと判定したことが考えられる.実際に,各評価事例に対する人手評価結果を集計したところ,評価者が流暢性に0を付けた7件の提案手法の生成テキストのうち,6件において「0円」という表現が含まれていることが分かった.また,「0円」という表現は通常の市況コメントでは用いられないため,価格を``単語''として予測するベースライン手法の語彙には含まれていない.そのため,ベースライン手法では上記のような「0円超える」といった表現を含む不自然なテキストを生成しない.このことから,評価者はベースライン手法で生成された全ての市況コメントについて流暢性が高いと判定したことが考えられる.また,人手で書かれた市況コメント(\emph{Human})のうち,5件の流暢性が低いと判定された理由について確認を行った.その結果,5件の市況コメントのいずれにおいても「日経平均、反発して始まる\underline{42円高、短期的な戻りを期待}」といった,価格の言及方法について独特の略し方が用いられていることが分かった.その要因として,本実験では日経平均株価ニュースのヘッドラインテキストを市況コメントとして使用しており,文字数やスペース等の制約が存在することが関係していると考えられる.このような略した表現は,ほかの多くの市況コメントでは用いられないことから流暢性が低いと判定されたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{各学習データサイズのモデル精度への影響}学習データサイズを変化させた場合のモデル精度への影響について分析を行った.図\ref{fig:bleu_datasetsize_graph}に各学習データサイズにおける各モデルのBLEUスコアの比較を示す.分析では,開発データセットに対するBLEUスコアを算出した.実験結果より,学習データサイズを3,000事例にした時に,ほとんどのモデルにおいてBLEUスコアが飽和していることが分かった.また,各モデル間でスコアの収束の早さに大きな違いは無かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{27-2ia7f4.eps}\end{center}\caption{各学習データサイズにおけるBLEUスコアの比較}\label{fig:bleu_datasetsize_graph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,日経平均株価を例として,時系列株価データから株価の値動きを概況する市況コメントを自動生成するためのエンコーダ・デコーダモデルを提案した.時系列株価データを概況する市況コメントには,時系列データ中の数値への言及,過去の価格の変動との比較,テキストが書かれる時間帯によって言及する内容が異なる,などの特徴があり,本研究では大きく分けて3つの手法を提案し,有用性を示した.今後の課題として2点を挙げる.まず,1点目の課題として,時系列株価データのエンコード手法のさらなる検討のために,近年さまざまな言語処理タスクで有用性が示されているSelf-AttentionNetwork(SAN)をエンコーダとして利用することが挙げられる.SANの利点の1つとして,RNNなどの再帰構造のネットワークと比べて,時系列データにおける各タイムステップ間の依存関係をより短い距離で考慮できることが挙げられる\cite{vaswani2017transformer,shen2018bisan}.これにより,全62タイムステップからなる1日分の時系列株価データといった長い系列長の時系列データにおける長距離の依存関係をモデル化する能力が向上し,短期的及び長期的な株価の変化を捉える性能が改善することが期待できる.2点目の課題として,いつからいつまでの株価の値動きや上げ幅について言及するべきかモデルに考慮させることが考えられる.例えば,実際の日経平均株価の上げ幅が300円だったにも拘わらず,現在のモデルでは「日経平均、上げ幅200円超える」といった市況コメントを生成することがある.このような生成テキストは,誤りではないが正確な市況コメントとは言えない.この問題を解決するために,モデルが市況コメントを生成する際に,生成テキストで言及する時系列株価データの期間を選択するための機構が必要であると考えられる.また,今後の展望として,天気予報やスポーツなどの様々なドメインにおける時系列データの概況テキストの生成や,株式市場全体の個別銘柄などの複数の時系列株価データを考慮した市況コメントの生成などが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は筆者らが国立研究開発法人産業技術総合研究所に在籍中の研究成果をまとめたものです.また,本論文の一部は,The55thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2017)で発表したものです\cite{murakami-etal-2017-learning}.この成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の委託業務の結果得られたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{村上聡一朗}{2015年熊本高等専門学校専攻科電子情報システム工学専攻修了.2017年東京工業大学大学院博士前期課程修了.同年,株式会社NTTドコモに入社.2019年より,東京工業大学工学院博士後期課程に在籍.自然言語処理,特に自然言語生成,機械翻訳に関する研究開発に従事.ACL,言語処理学会,各会員.}\bioauthor{渡邉亮彦}{2012年群馬工業高等専門学校専攻科生産システム工学専攻修了.2014年東京工業大学大学院総合理工学研究科博士前期課程修了.同年,同研究科博士後期課程に進学.2018年より,株式会社EduLabにて機械学習を活用したプロダクトの研究開発に従事.}\bioauthor{宮澤彬}{2012年早稲田大学政治経済学部経済学科卒業.2014年より総合研究大学院大学複合科学研究科情報学専攻博士課程に在籍.自然言語処理、特にメタファーへの計算的アプローチに関心を持つ。}\bioauthor{五島圭一}{2012年慶應義塾大学経済学部卒業.2014年慶應義塾大学大学院経営管理研究科修士課程修了.2017年東京工業大学大学院総合理工学研究科知能システム科学専攻博士後期課程修了.博士(工学).日本銀行金融研究所を経て,2019年より早稲田大学商学部講師.}\bioauthor{柳瀬利彦}{2005年東京大学工学部電子情報工学科卒業.2007年東京大学大学院新領域創成科学研究科基盤情報学専攻修士課程修了.2010年同大学大学院にて博士後期課程を修了.博士(科学).株式会社日立製作所を経て,2018年より株式会社PreferredNetworksにて機械学習及びブラックボックス最適化に関する研究開発に従事.人工知能学会,AssociationforComputingMachineryの会員.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{宮尾祐介}{2000年東京大学大学院理学系研究科修士課程修了.2001年より同大学にて助手,2007年より助教.2006年同大学大学院にて博士号(情報理工学)取得.2010年より国立情報学研究所准教授,2018年より東京大学教授.構文解析,意味解析などの自然言語処理基盤技術とその応用の研究に従事.人工知能学会,情報処理学会,言語処理学会,AssociationforComputationalLinguistics各会員.}\end{biography}\biodate\end{document}
V23N01-01
\section{はじめに} 自動要約の入出力は特徴的である.多くの場合,自動要約の入出力はいずれも,自然言語で書かれた,複数の文からなる文章である.自動要約と同様に入出力がともに自然言語である自然言語処理課題として機械翻訳や対話,質問応答が挙げられる.機械翻訳や対話の入出力が基本的にはいずれも文であるのに対して,自動要約や一部の質問応答は基本的には入出力がいずれも文章である点が特徴的である.また形態素解析や係り受け解析などの自然言語解析課題においては,入力は文であるが,これらの出力は品詞列や係り受け構造などの中間表現であり,自然言語ではない.談話構造解析は文章を入力として想定するものの,やはり出力は自然言語ではない.この特徴的な入出力が原因となり,自動要約の誤り分析は容易ではない.自動要約研究の題材として広く用いられるコーパスの多くは数十から数百の入力文書と参照要約\footnote{本稿では,ある文書に対する正しい要約を「参照要約」と呼ぶ.}の組からなるが,入出力が文章であるがために,詳しくは\ref{sc:誤り分析の枠組み}節で述べるが,自動要約の誤りの分析においては考慮しなければならない要素が多い.そのため,数十の入力文書と参照要約の組といった入出力の規模でも,分析には多大な時間を要することになる.人手による詳細な分析を必要としない簡便な自動要約の評価方法としてROUGE\cite{lin04}があるが,ROUGEによる評価では取りこぼされる現象が自動要約課題に存在することも事実であり,詳細な分析が十分になされているとはいいがたい.そのため,何らかの誤りを含むと思われる要約をどのように分析すればよいのかという体系的な方法論は存在せず,したがって自動要約分野の研究者が各々の方法論をもって分析を行っているのが現状と思われる.この状況を鑑み,本稿では,自動要約における誤り分析の枠組みを提案する.まず,要約システムが作成する要約が満たすべき3つの要件を提案する.また,要約システムがこれらの要件を満たせない原因を5つ提案する.3つの要件と5つの原因から,15種類の具体的な誤りが定義され,本稿では,自動要約における誤りはこれらのいずれかに分類される.本稿の構成は以下の通りである.\ref{sc:基本的な前提}節では本稿が置く基本的な前提について説明し,本稿での議論の範囲を明らかにする.\ref{sc:誤り分析の枠組み}節では誤り分析の枠組みを提案し,自動要約の誤りが提案する15種類の誤りのいずれかに分類できることを示す.\ref{sc:分析の実践}節では実際の要約例に含まれる誤りを提案した枠組みに基づいて分析した結果を示す.\ref{sc:分析に基づく要約システムの改良}節では\ref{sc:分析の実践}節で得られた分析の結果に基づいて要約システムを改良し,要約の品質が改善することを示す.\ref{sc:関連研究}節では関連研究について述べる.\ref{sc:おわりに}節では本稿をまとめ,今後の展望について述べる. \section{基本的な前提} \label{sc:基本的な前提}一般に,誤りといえば,本来得られるべき何らかの正しい結果があるものの,それとは異なる,すなわち正しくない別の結果が得られた際にそれを指していうものである.文書分類であれば与えられた文書を正しい分類先に分類できなかった際にそれを誤りということができる.そのため,何らかの正しい結果,すなわち正解が定まらなければ誤りも定めることができない.自動要約においては,この正解,すなわち参照要約\footnote{なお,詳しくは\ref{sc:自動要約の誤りの種類}節で述べるが,本稿の提案する要約の誤り分析の枠組みにおいて,参照要約が必要となるのは\ref{sc:自動要約の誤りの種類}節で述べる「重要部同定の失敗」を評価するときのみである.}をいささか一意に定めづらい\footnote{正解が一意に定まらないという問題は,自動要約に限らず,自然言語生成を目標とする課題に共通して存在する.}.自動要約課題において,複数の作業者に参照要約の作成を依頼したとき,作業者に与える指示にもよるものの,まったく同一の参照要約が作成されるということはまずない.そのため,ある参照要約を基準とした際には誤りとなる要約が,別の要約を基準とした際には誤りとならないことがある.本稿では,この問題は脇に置く.すなわち,ある1つの参照要約が存在するとき,それと要約システムが作成した要約(以下,便宜的にこれをシステム要約と呼ぶ)とを比較し,その差分を誤りとする.すなわち,何か差分があれば誤りを含むし,そうでなければ誤りを含まない.誤りについては次節にて述べる.この単純化は以下の理由に基づく:\begin{itemize}\item単一の参照要約の誤り分析の枠組みが存在しない状況において,複数の参照要約の誤り分析の枠組みを設定するのは困難であること.\item単一の参照要約の誤り分析の枠組みを設定できれば,それに基づいて複数の参照要約が存在する場合を検討することができること.\end{itemize}これらの点から,本稿でのこの単純化は,問題の過度な単純化ではなく,合理的な問題の分割であると考える.また,自動要約課題には,入力文書が単一である場合と複数である場合,要約システムが特に焦点を当てて出力するべき情報がクエリなどを通じて与えられる場合と与えられない場合などの下位分類が存在する.また,テキスト以外にも映像などの自動要約を考えることもできる.本稿では,対象はテキストに限定することとし,また自動要約課題の最も単純な形態である,単一文書が入力として与えられ,特にクエリなどは別途与えられない状況を仮定することとする.さらに,要約の対象となるテキストの種類についても新聞記事\cite{luhn58,aone99},技術文献\cite{luhn58,edmundson69,pollock75},メール\cite{muresan01,sandu10},マイクロブログ\cite{sharifi10,takamura11}など様々なテキストを考えることができるが,本稿ではこれまで単一文書要約課題において広く研究されてきた新聞記事を特に分析の対象として扱う.参照要約に関する仮定とそれに伴う単純化と同様に,本稿では,まず自動要約課題の最も単純な形態の誤り分析を扱うことによって,自動要約の基本的な誤り分析の枠組みを検討する.より複雑な自動要約課題の誤り分析については将来の課題とする.これらの点を踏まえて,本稿が示す自動要約の誤り分析の枠組みの限界を述べておく.\begin{itemize}\item上で述べたように,本稿が提案する自動要約の誤り分析の枠組みは多くの仮定に基づいており,それらの仮定が成り立たない状況においては必ずしも有効に働くものではない.\itemまた,提案する誤り分析の枠組みに基づいて,本稿において行われる分析は,ある単一の要約システムを利用し,またある単一の入力文書を用いて行われるため,その結果が一般的なものであるとは必ずしもいうことはできない.\item本稿で示す分析の枠組みに基づいて行われた分析は,枠組みを提案した著者による分析であり,そのため複数の異なる分析者間での結果の一致については議論されていない.\end{itemize}上に示すように,本稿で示す自動要約の誤り分析の枠組みは完全なものでは決してない.本稿の目的は,あくまで,自動要約の基本的な誤り分析の枠組みを提案することにあり,より広範な自動要約課題への適用や,異なる複数の分析者による分析結果の一致に関する議論などは将来の課題である. \section{誤り分析の枠組み} \label{sc:誤り分析の枠組み}ここではまず,自動要約が最低限満たすべき原則を3つ述べ,それが満たされないときに誤りが生じることを説明する.次に,誤りの原因を5つ取り上げる.最後に,これらの組み合わせから要約の誤りが15種類に分類されることをみる.\subsection{自動要約の誤りの種類}\label{sc:自動要約の誤りの種類}本稿で扱う自動要約課題は入力および出力がいずれもテキストである.また,少なくとも人間がそのテキストを読解することを想定している\footnote{人間の読解が必要でなく,単に情報をより少ない容量で保管しようとするのであれば,それはいわゆるデータ圧縮であると思われる.}.そのため,要約システムが出力するテキスト,すなわち要約は,まず何よりも人間が読解可能である必要があろう.すなわち,想定される読者が読み取れるような言語で記述されていることや,非文法的な文などが含まれていないことが必要であろう.次に,要約は,入力されたテキストから読み取れる情報のうちのいずれかのみを選択して出力するものである.そのため,当然のこととして,要約システムは入力されたテキストから読み取れることのみが含まれる要約を出力する必要がある.すなわち,入力されたテキストと矛盾する内容や,入力されたテキストが含意しない内容を含む要約を出力することは許されないであろう.最後に,要約は,字義通り,入力されたテキストから読み取れる情報のうち,重要だと思われる情報のみを含んでいる必要がある.これらの点をまとめると,要約システムによって生成される要約は,以下の3つの原則を満たすべきと考えられる:\begin{enumerate}\item出力から情報を読み取れること.情報を読み取れないような文章が出力されていないこと.情報を読み取れないような文が出力された場合には,以下の3つのケースが考えられる.\begin{enumerate}\item要約がユーザの要求とは異なる言語で出力されている場合や,要約システムがその内部処理において利用している制御記号などが出力されており,要約から文意を読み取れない場合.何らかの理由により要約が出力されない場合も含む.\item文法的でない文(非文)が要約を構成しており,要約の文意が取れない場合.\item個別の文は文法的であるが,要約を構成する文同士の論理関係などが明らかでなく,全体として文意が取れない文章が要約となっている場合.\end{enumerate}本稿ではこれら3点をまとめて,内容を適切に読み取ることのできない要約を便宜的に「非文章」と呼ぶ.\item読み取れる情報が,入力と矛盾せず,入力が出力を含意すること.読み手が入力を読んだ際と出力を読んだ際に異なる結論に至らないこと.\item出力から読み取れる情報が,入力および読み手の希望を鑑みて,重要であると思われること.重要でない,枝葉末節の情報が出力に含まれないこと.\end{enumerate}これらの原則が満たされない場合を誤りとして,自動要約の誤りの分析における3つの観点が導出できる:\begin{enumerate}\item{\bf非文章の出力}:要約システムが出力した文章から文意が読み取れない場合,それは誤りとなる.この観点は自動要約の言語的品質の評価\cite{nist07,nenkova11}と概ね対応する.この観点の誤りはシステム要約のみで検出することができる.\item{\bf文意の歪曲}:要約から読み取れる情報が,入力文書に記載されている情報と矛盾する場合,それは誤りとなる.この観点を評価するためには入力文書とシステム要約が必要となる.この観点はこれまで自動要約において大きく取り上げられてこなかった.これには2つの理由が考えられる.第1に,現時点では,この観点に関してシステム要約を評価するためには人手での丁寧な読解が不可欠であり,そのため非常に費用がかかり実施しづらいということが挙げられる.上で述べた(1)については出力されたシステム要約のみを人手で確認すればよく,また次に述べる(3)については参照要約とシステム要約の機械的な比較によって人手をかけずに一定の評価が可能である.これらに対して,(2)を評価するためには入力文書とシステム要約の両方を評価者が読解した上で,内容の無矛盾を確認しなければならず,その費用は多大なものとなる.第2に,文の書き換えなどを行わずに単に重要文を選択するだけの手法などで要約を作成した場合,文意の歪曲はさほど頻繁には生じず\footnote{なお,本節にて示す例のように,重要文抽出に基づく抽出型の要約においても文意の歪曲は生じうる.},そのため誤りとしてこれまで重要視されてこなかったということも考えられる.文意の歪曲の例を表\ref{tb:文書番号981225042のシステム要約}および表\ref{tb:文書番号981225042のテキスト}に示す.表\ref{tb:文書番号981225042のシステム要約}はTSC-2のデータ\footnote{本稿で分析の対象として用いるデータについては\ref{sc:データ}節で述べる.}に含まれる文書番号981225042のテキストから要約システム\footnote{利用した要約システムについては\ref{sc:要約システム}節で述べる.}によって作成されたシステム要約であり,\mbox{表\ref{tb:文書番号981225042のテキスト}}は元のテキストである.表\ref{tb:文書番号981225042のシステム要約}に示すシステム要約の4文めの冒頭には,「このため」とあり,「輸出に過度に依存しない国内生産体制が急務」である原因が前の文で述べられていることが示唆されている.システム要約を読むと,「トヨタ自動車が検討し始めた生産能力の削減」およびそれに伴う「雇用や地域経済への影響」がこの原因であるように読解できる.一方,表\ref{tb:文書番号981225042のテキスト}に示す元の入力文書を読むと,11文めの「輸出に過度に依存しない国内生産体制が急務」の原因は,「国内販売は、保有期間の長期化もあり新車需要の大きな伸びは期待できない」であることがわかる.この例では,システム要約と入力文書とで,読解した際に別の読みが可能になっており,そのためシステム要約が,入力文書で述べられている本来の文意を歪曲している.\item{\bf重要部同定の失敗}:要約から読み取れる情報の中に入力文書および読み手の希望を鑑みて重要でないものが混ざっているとき,それは誤りとなる.同様に,入力文書および読み手の希望を鑑みて重要であると思われる情報が要約に含まれていない場合もそれは誤りとなる.この観点は内容性の評価に概ね対応する\cite{nenkova11}.この観点を評価するためには参照要約とシステム要約が必要となる.\end{enumerate}\begin{table}[b]\caption{文書番号981225042のシステム要約}\label{tb:文書番号981225042のシステム要約}\input{01table01.txt}\end{table}\begin{table}[t]\caption{文書番号981225042のテキスト}\label{tb:文書番号981225042のテキスト}\input{01table02.txt}\end{table}この3つの観点が,要約システムの誤りを考える際に,最初の分類としてあらわれるものと思われる.\subsection{要約システムの誤りの原因}\label{要約システムの誤りの原因}近年の要約システムの多くはMulti-CandidateReductionFramework\cite{zajic07,jurafsky08}に従っているとみなせる.これは,入力された文書を,文分割などによって文\footnote{ここでの「文」は,厳密には文に相当するような言語単位であり,通常の文とは限らない.節などより細かい言語単位を考えることもできる.本稿では読みやすさのため「文」の語を用いることにする.}に分割する機構\cite{gillick09a},得られた文を文短縮\cite{jing00,knight02}などによって別の表現に書き換え元の入力のある種の亜種を生成する機構,そののちにそれらの中から要約長などの要件を満たすものを選択し要約を生成する機構からなる\cite{filatova04,mcdonald07}.最後の要約を生成する機構はさらに,文の組み合わせの中から要約として適切なものに高いスコアを与える機構と高いスコアを持つものを探索する機構に分割できる.さらに,文の組み合わせの中から要約として適切なものに高いスコアを与える際には,典型的には機械学習が用いられるため,学習が正しくなされているか否かと,適切な特徴量が設定されているかの2点を考慮する必要がある.これらのことから,文分割に関する問題は要約以前の前処理の問題として脇に置くと,近年の要約システムは以下の構成要素からなる.\begin{enumerate}\item入力された文などの言語単位を別の表現に書き換える機構.\item要約としてふさわしい文などの単位に高いスコアを与えるための機械学習に関する機構.\item文などの単位に特徴量を与える機構.\item要約としてふさわしい文などを探索する機構.\end{enumerate}典型的な要約システムを構成する上述の要素を踏まえると,要約システムが前節の原則を満たせず,誤りを生じさせる原因には以下の観点が考えられる:\begin{enumerate}\item{\bf操作の不足}:要約システムが,人間の作業者がテキストに対して施す操作と同等の機構を保持してないことに伴って生じる誤り.言い換えなどの操作ができないために入力された文を短縮することができず,人間と同等の情報量を要約に含めることができない場合や,要約システムが入力された文において省略されているゼロ代名詞を復元できず,要約の文意を損なう場合が含まれる.\item{\bf特徴量の不足}:特徴量が不足している場合.この場合は2つにわけることができる.\begin{enumerate}\item{\bf特徴量の設定不足}:要約システムにおいて設定されていない特徴量が要約の作成において重要な役割を果たすと思われる場合.段落に関する情報を入力文書から得ることができ,かつその情報が要約の作成において重要な役割を果たすと目されるのにもかかわらず,要約システムはそれを特徴量として認識できない場合など.\item{\bf言語解析の失敗}:解析器が誤り,特徴量として設定されている情報が正しく取得できなかった場合.固有表現認識器が固有表現を認識し損ね,要約システムがそれを特徴量として利用できなかった場合など.\end{enumerate}\item{\bfパラメタの誤り}:訓練事例の不足,不適切な学習手法の利用などによって,推定されたパラメタが精度よく推定されていない場合.\item{\bf探索の誤り}:探索誤りのために誤った要約を生成した場合.重要文集合の選択において,本来はより良好な文の組み合わせがあるにもかかわらず,探索誤りによって不適切な文の集合を出力として選択した場合など.\item{\bf情報の不足}:そもそも要約システムに対して入力された情報だけでは参照要約まで到達できない場合.人間の要約作成者が入力以外の情報源を利用して要約を作成した場合など.\end{enumerate}\ref{sc:関連研究}節で述べるが,これらの誤りの原因はより詳細化することが可能である.一方,自動要約には単一文書要約と複数文書要約といういささか風合いの異なる2つの下位課題が存在し,また文短縮なども独立した課題として扱いうる.そのため,個々の要約システムの設計の詳細は様々であり,誤りの原因の詳細は分析の対象とする要約システムの設計の詳細に依存する.このことを鑑み,本稿ではより詳細な誤りの原因には踏み込まず,多くの要約システムにおいて共通する機構に基づき,誤りの原因として上の5種類の原因を定義する\footnote{なお,これら以外にも,要約システムに含まれる実装上のバグ,要約システムが動作する計算機の不具合,要約システムの使用法の誤り,またユーザが要約システムに誤った文書を入力したことによって意図しないシステム要約が出力された場合など,要約プログラムの実装や運用が原因となって誤ったシステム要約が出力される場合を考えることができる.本稿ではこれら実装や運用が原因となって誤った要約が出力されている場合は考慮せず,あくまで要約システムの設計上の問題が原因となってシステム要約に誤りが含まれる場合のみを想定する.}.\subsection{自動要約の誤り分析の枠組み}\ref{sc:自動要約の誤りの種類}節で述べた3種類の誤りの種類と,\ref{要約システムの誤りの原因}節で述べた5種類の誤りの原因から,自動要約における誤りは15種類のいずれかに分類できると期待できる.これをまとめたものを表\ref{tb:error_framework}に示す.なお,これらとは別に,参照要約作成者の読みが誤っていると思われる場合など,そもそも参照要約が信頼できないと思われる場合がありうるが,ここではそれは除外し,あくまで参照要約が正しく,機械はそれを模倣することのみを考えればよいという場合を想定した.次に,分析の枠組みを自動要約の結果に適用する際の具体的な方法を表\ref{tb:error_analysis_implementation}に示す.表\ref{tb:error_analysis_implementation}は,ある誤りの種類がある誤りの原因によって生じる際に,どのようにそれを同定できるかをまとめたものである.\begin{table}[p]\caption{自動要約の誤り分析の枠組み}\label{tb:error_framework}\addtolength{\normalbaselineskip}{-1pt}\input{01table03.txt}\end{table}\begin{table}[t]\caption{自動要約の誤り分析の枠組みの適用方法}\label{tb:error_analysis_implementation}\input{01table04.txt}\end{table}\subsection{誤り分析の手続き}\label{sc:誤り分析の手続き}本稿で提案する枠組みに基づく誤りの分析は,一例として,以下の手続きで行うことができる.\begin{enumerate}\item{\bf非文章の出力}:まず,要約システムが出力したシステム要約を読解し,非文章が出力されていないか確認する.主語や述語などが存在しない非文が存在しないか,また談話構造が不明瞭で文章全体から意味が取れなくなっていないかを確認する.非文章が生じていた場合は,その原因を特定する.例えば,主語が存在しない文が存在し,文脈からもその主語を読み取ることができず,そのためその文の文意を正しくとることができない場合,そのような文が生じた原因を特定する.このとき,入力文書とシステム要約でその文が異なる場合,すなわちその文をシステムが書き換えたか否かを確認する必要がある.仮に書き換えたのであれば,なぜその書き換えが発生したかを特定する.\item{\bf文意の歪曲}:次に,入力文書の文意がシステム要約において歪曲されていないかを確認する.この作業には,入力文書の読解と,システム要約の読解の両方が必要である.システム要約から,入力文書に含まれていない情報や,あるいは入力文書と矛盾する情報が読み取れる場合は,要約システムによって入力文書の文意が歪曲されていることになる.文意が歪曲されている場合は,なぜ歪曲が生じたのか確認する.抽出型の要約システムにおいてこの誤りが生じる状況の1つは,主語が省略されている文がシステム要約において誤った文脈におかれることで,読者が,入力文書での本来の主語とは異なる主語を文にあてはめてしまい,その結果として誤った解釈に至る状況である.他にも,談話標識が入力文書と異なる文脈におかれることで,前後の文から異なる解釈を得ることできる場合もある.\ref{sc:自動要約の誤りの種類}節で示した例はこの場合である.書き換えまで行う要約システムであれば,入力文書と異なる表現が用いられることで文意が変化していないか確認する.このような文意の歪曲が生じている場合は,どのような修正をシステム要約に加えることで,正しい文意を得ることができるか確認する.上の例では,省略された主語を復元する機構の追加,談話標識を除去,あるいは修正する機構の追加などが考えられ,これらを要約システムが備えていないために誤りが生じたと考えられる場合は「操作の不足」が原因となろう.一方,これらの機構が存在しているにもかかわらず文意の歪曲が生じた場合は,パラメタの誤りや特徴量の不足を調査する必要がある.\item{\bf重要部同定の失敗}:最後に,参照要約とシステム要約を比較し,参照要約に含まれているがシステム要約には含まれていない情報がないか確認する.この確認にはROUGE\cite{lin04},BasicElement\cite{hovy06}などを援用することが可能であろう.参照要約に含まれている重要な情報がシステム要約に含まれていない場合には,その情報がシステム要約に含まれなかった理由を調査する.特に,パラメタが正しく学習されているか,またそのような情報を重要な情報であると特定するための特徴量が設定されているかを確認する必要があろう.\end{enumerate} \section{分析の実践} \label{sc:分析の実践}本節では前節で提示した分析の枠組みを,本稿で分析の対象とした文書に対して適用する.まず,分析の枠組みを適用するシステム要約を作成する.次に,それらに対して人手による分析を行い,その後分析の結果を提案した分析の枠組みに基づいて整理する.\subsection{実験設定}\label{sc:実験設定}\subsubsection{データ}\label{sc:データ}実験には,自動要約の評価型プロジェクトであるTSC-2\footnote{http://lr-www.pi.titech.ac.jp/tsc/tsc2.html}のデータを用いた.TSC-2のデータは60記事からなり,各文書に対して3人の作業者が参照要約を付与している.また,各文書に対して長い参照要約と短い参照要約の2種類が付与されている.今回は特に分析の対象として文書番号990305053のテキストを用いた.参照要約には,作成者1による長い参照要約を用いた.文書番号990305053のテキストの長い参照要約の長さは495文字であり,要約システムを動作させる際には495文字以内の要約を作成するようにした.\subsubsection{要約システム}\label{sc:要約システム}要約システムについては,西川らによる単一文書要約システム\cite{nishikawa14b}を利用した.西川らの要約システムは,入力として単一文書を想定しており,特に単一の新聞記事を入力として想定している.また,クエリの入力は想定していない.要約の手法はMulti-CandidateReductionFramework\cite{zajic07,jurafsky08}に基づいており,まず入力された各文の亜種を文短縮を利用して生成し,その後に元の文とそれらの文の亜種からなる文の集合の中で,文の重要度と文間の結束性が最も高くなる文の系列のうち,要約長の制限を満たすものを選び出すものである.文短縮を利用することもできるものの,西川らの要約システムは文短縮が行われた文が要約に選択されることがあまり多くないため,今回は文短縮を用いずに要約を出力させた.\subsection{結果}表\ref{tb:input_document}に入力文書(文書番号990305053)を示す.太字は入力文書と参照要約とで文アライメントを取り,対応づけが取れた文同士において共通の単語である.下線は要約システムによって重要文と認定された文である.表\ref{tb:reference}に参照要約を示す.分析の対象となると思われる点については下線を加え,どのような現象が生じているか下線の後に上付き文字で示した.表\ref{tb:summary}にシステム要約を示す.太字は参照要約とシステム要約とで文アライメントを取り,対応づけが取れた文同士において共通の単語である.表\ref{tb:reference}と同様に分析の対象となると思われる点について下線を加え,どのような現象が生じているか下線で示された部分の後に加筆した.表\ref{tb:statistics}に入力文書および参照要約,システム要約の統計量を示しておく.\begin{table}[b]\caption{入力文書および参照要約,システム要約の統計量.}\label{tb:statistics}\input{01table05.txt}\end{table}\begin{table}[p]\caption{文書番号990305053のテキスト}\label{tb:input_document}\input{01table06.txt}\end{table}\begin{table}[p]\caption{文書番号990305053の参照要約}\label{tb:reference}\input{01table07.txt}\end{table}\begin{table}[p]\caption{文書番号990305053のシステム要約}\label{tb:summary}\input{01table08.txt}\end{table}\subsection{誤り分析}\label{sc:誤り分析}\subsubsection{重要部の同定の失敗}\label{sc:重要部の同定の失敗}まず,ROUGE-1\cite{lin04}の値は0.385であった\footnote{ROUGE-1は抽出的な要約手法に基づく要約システムを評価する際に広く用いられている指標であり,また新聞記事においては人手による評価と強い相関があることが知られている\cite{lin04}.そのため,まずこれを用いて,要約システムが出力した要約の品質を大まかに把握することにした.}.文単位でみると,システム要約に含まれる文のうち,完全に参照要約に含まれない文は2文めと11文のみであり,11文中2文にとどまっている.このことから,要約システムの精度(適合率)は$\frac{9}{11}$に達しており,要約システムは高精度に重要文を同定していることがわかる.一方,再現率の観点から見ると,参照要約は入力文書33文のうち15文を要約として採用しており\footnote{2つの文を1つの文としてまとめているケースがあり,そのため参照要約は13文から構成されている.詳しくは文融合の節にて詳述.},再現率は$\frac{9}{15}$に留まっている.再現率はまだ大きく改善の余地が残されているため,文と単語という差異はあるが,同様に再現率を評価するROUGE-1の値についても改善の余地があると思われる.次に,重要部同定の失敗の原因を探る.表\ref{tb:input_document}を見ると,要約システムは特に後半の文を選択できていない.これは,要約システムが入力文書における話題の遷移を捕捉できていないためであると思われる.入力文書において,どのように話題が遷移しているかを表\ref{tb:入力文書に含まれる話題の遷移}に示す.全人代が開催されるということ(話題1)と中国の改革とその行く末が危ぶまれるということ(話題2--4)と,その具体的な例(話題5--6)が並び,最後の文は入力文書のまとめとなっている.参照要約を見ると,参照要約の作成者はできる限りこれらの情報を網羅的に要約に含めることを狙っていることが読み取れる.要約システムが後半の文を選択できなかったのはこのような話題の構造を理解することができなかったためで,この構造を要約システムに理解させることは重要部の同定に決定的に重要である\footnote{西川らの要約システムはこのような話題の遷移を文書中の段落情報を通じて認識できるが,今回はこれを利用しなかった.TSC-2のデータは毎日新聞コーパスに付与されているタグの一種であるT2を段落とみなしているものの,毎日新聞コーパスの仕様においては,T2を,西川らの要約システムが想定する段落と同じものとは必ずしもみなすことができないためである.なお,\ref{sc:分析に基づく要約システムの改良}節では,入力文書に対して人手で段落情報を付与し,この効果をみる.}.\begin{table}[b]\caption{入力文書に含まれる話題の遷移}\label{tb:入力文書に含まれる話題の遷移}\input{01table09.txt}\end{table}\subsubsection{括弧の除去}表\ref{tb:input_document}の例において頻繁に行われている操作の1つは括弧の除去である.括弧を通じて提供されている補足的な情報は全て要約から除去されていることがわかる.これによって文を短くし文字数を減らすことができるため,要約システムもこの操作を実行できるようにする必要がある.\subsubsection{文短縮・言い換え}表\ref{tb:input_document}を見ると,文書全体にわたって文の書き換えが行われていることがわかる.不要な修飾節などを除去し文を短く書き換える操作は文短縮あるいは文圧縮と呼ばれており\cite{nenkova11},この表\ref{tb:input_document}の例でも文1,文10などで典型的に行われている.文短縮は,典型的には係り受け木の枝刈りを通じて行われるが,参照要約に含まれる文のうち係り受け木の枝刈りによって実現できるものは少数であり,参照要約作成者はより洗練された,言い換えなどの操作を通じて参照要約を作成していることがわかる.\subsubsection{文融合}異なる複数の文から1つの文を作成することは文融合と呼ばれている\cite{barzilay05b}.参照要約を見ると,この文融合が行われていることがわかる.表\ref{tb:文融合の例1}から\ref{tb:文融合の例4}にその例を示す.参照要約の中では4回この操作が行われており,入力文書における表現と比べ情報量を維持したまま文字数の削減が行われている.これらの操作によって削減された文字数を利用して参照要約作成者はさらに情報を要約に詰め込んでおり,この操作を行う機構を持たない要約システムは再現率において劣後せざるを得ない.\begin{table}[b]\caption{文融合の例1}\label{tb:文融合の例1}\input{01table10.txt}\end{table}\begin{table}[b]\caption{文融合の例2}\label{tb:文融合の例2}\input{01table11.txt}\end{table}\begin{table}[b]\caption{文融合の例3}\label{tb:文融合の例3}\input{01table12.txt}\end{table}\subsubsection{省略}便宜的に「省略」としたが,「この」や「など」の表現を用いて,入力文書における情報を除去している箇所がある.表\ref{tb:省略の例1}に示す参照要約の文3では,朱首相の「三つの実行」のうち金融機構改革が失われており,これが「など」として表現されている.また表\ref{tb:省略の例2}に示す参照要約の文6では,「改革と安定追求のジレンマ」を「この」で表現しており,同様に文字数を節約している.\begin{table}[b]\vspace{-0.3\Cvs}\caption{文融合の例4}\label{tb:文融合の例4}\input{01table13.txt}\end{table}\begin{table}[b]\vspace{-0.3\Cvs}\caption{省略の例1}\label{tb:省略の例1}\input{01table14.txt}\end{table}\begin{table}[b]\vspace{-0.3\Cvs}\caption{省略の例2}\label{tb:省略の例2}\input{01table15.txt}\end{table}\subsubsection{参照要約の信頼性}一方,参照要約の品質が疑われる部分もある.入力文書の文14と文15とは並列の関係にはないと思われるため,参照要約の文9先頭の接続詞「また」は要約作成者の読みの誤りを示唆している.\subsection{誤り分析の枠組みの適用}ここまでの分析を,本稿で提案した誤り分析の枠組みに適用した結果を表\ref{tb:自動要約の誤り分析の一例}に示す.表\ref{tb:自動要約の誤り分析の一例}に示されているように,今回は文短縮などの書き換え機構を利用していないため,非文が出力されることはなかった.一方で,文を短く書き換える操作を行えないため,情報の被覆において参照要約に大きく劣後しており,これが低い再現率の直接の原因となっている.\begin{table}[t]\caption{自動要約の誤り分析の一例.}\label{tb:自動要約の誤り分析の一例}\input{01table16.txt}\end{table} \section{分析に基づく要約システムの改良} \label{sc:分析に基づく要約システムの改良}本節では,\ref{sc:分析の実践}節で述べた分析に基づいて実際に要約システムを改良した結果について述べる.\ref{sc:文の書き換え操作の追加}節では要約システムに文の書き換え操作を追加する.\ref{sc:特徴量の追加}節では要約システムに特徴量を追加する.\ref{sc:パラメタの調整}節ではパラメタの調整を行う.\ref{sc:結果と考察}節ではこれらの改良によってなされた要約の改善について議論する.\ref{sc:他の文書に対する適用}節では,改良したシステムを文書番号990305053以外のテキストに適用し,本節で行った改良の効果をみる.なお,本節での改良が要約システムを真に改良としたと言うことは難しい.要約システムが真に改良されたと言うためには,少なくとも,ある特定の分野における複数の異なる入力文書を用意し,これらから生成される要約の品質が,改良前の要約システムのそれと比べて改善されていることを検証する必要がある.この点を踏まえ,本稿における本節の意義は以下の2点にある:\begin{itemize}\item\ref{sc:分析の実践}節で述べた分析に基づいて行うことができる要約システムの改良方法について具体的に述べること.\item本稿で提案している分析が,少なくとも,ある入力文書の要約システムによる要約結果を人手で分析し,それに基づいて要約システムの改良を行うことによって,その入力文書を要約する限りにおいては,よりよい要約を出力するために役立つということを示すこと.\end{itemize}\subsection{文の書き換え操作の追加}\label{sc:文の書き換え操作の追加}表\ref{tb:自動要約の誤り分析の一例}に示したように,今回の事例において操作の不足は深刻な問題である.そのため,参照要約において行われている書き換え操作の一部を要約システムも行えるようにした.\subsubsection{括弧の除去}西川らの要約システムは括弧を除去する機能を持つ\footnote{正確には,文選択の際に,入力文書に含まれる元の文とは別に,括弧を除去した新しい文を生成し,それも選択の候補に含められるようになっている.}ため,この機能を動作させるようにした.\subsubsection{文短縮}同様に,文短縮機能も動作させるようにした.\subsubsection{文融合}西川らの要約システムは文融合の機能を持たないため,表\ref{tb:文融合の例1}から\ref{tb:文融合の例4}に示した文融合が行われた文を人手で作成し,要約システムが選択可能な文集合に加えた.\subsubsection{省略}文融合と同様に,省略が行われている文についても人手で参照要約と同様の文を作成し,それを要約システムが選択可能な文集合に加えた.具体的には,表\ref{tb:省略の例1}および\ref{tb:省略の例2}の参照要約の文を入力文書の文の書き換え後の文として要約システムに追加した.\subsection{特徴量の追加}\label{sc:特徴量の追加}表\ref{tb:自動要約の誤り分析の一例}に示したように,一部の特徴量を要約システムが認識できないことは要約の作成に悪影響を与えている.そのため,分析の結果として重要と思われた特徴量を追加した.\subsubsection{段落情報に関する特徴量}\label{段落情報に関する特徴量}\ref{sc:重要部の同定の失敗}節で述べたように,重要文の同定に失敗した主因の1つは入力文書の話題の遷移を捉えることができないためであった.西川らの要約システムは段落に関する情報を特徴量として利用することができるため,入力文書に表\ref{tb:入力文書に含まれる話題の遷移}に基づいて段落情報を付与した.具体的には,同一の話題番号に属する文は同一の段落に属するものとした.西川らの要約システムは段落の先頭の文を重要文として選択する傾向があるため,これによって各話題の先頭の文を重要文として選択できると期待できる.\subsubsection{最後の文に関する特徴量}\label{最後の文に関する特徴量}表\ref{tb:reference}の参照要約を見ると,入力文書の最後の文を入力文書におけるある種のまとめとして重要文とみなしていることがわかる.この点を鑑み,最後の文にはその文が最後の文であるとわかる特徴量を追加した.\subsection{パラメタの調整}\label{sc:パラメタの調整}最後に,パラメタの調整を人手で行った.パラメタの調整は,調整後に要約システムが生成する要約が参照要約に近づくように人手で各特徴量の重みを調整することで行った.具体的に行ったのは以下の調整である:\begin{itemize}\item括弧が含まれる文の重要度を下げるようにした.参照要約においては入力文書に含まれる括弧は全て除去されているため,これが除去されるようにした.\item冒頭の段落に含まれる文の重要度を下げるようにした.通常,新聞記事は逆三角形と呼ばれる構造をなしており\cite{kyodo10},冒頭の段落がほぼ当該記事の要約をなしている.そのため,西川らの要約システムは冒頭の段落に含まれる文に大きな重みを与えている.しかし,今回分析の対象とした入力文書はいささか散文的であり,その点を鑑みてか参照要約の作成者は記事の冒頭以外からも多く文を選択している.このことから,冒頭の段落に含まれる文の重みを小さくし,文書全体から文が選ばれるようにした.\item長い文が選ばれづらくなるようにした.参照要約は長い文をあまり含んでおらず,文短縮や文融合,省略が施された短い文を含んでいる.そのため,それらの文が選ばれやすくなるように文の長さに対して負の重みを与えた.\item百分率の固有表現を含む文が選ばれやすくした.参照要約には中国の経済成長に関する具体的な百分率が含まれており,これらの情報が要約に含まれるように百分率の固有表現の重みを大きくした.\item類似する文が選ばれづらくした.西川らの要約システムは文同士の類似度を特徴量として設定しており,類似した文が要約に選択されやすくなっている.しかし,今回分析の対象とした入力文書の参照要約を見る限り,参照要約の作成者はできるだけ幅広い話題を入力文書において網羅しようとしているように観察される.そのため,むしろ類似する文は要約に含まれないようにした方がよいと思われたため,類似する文が選ばれづらくなるようにした.\item段落の先頭の文の重みを大きくした.\ref{段落情報に関する特徴量}節で述べたように,参照要約の作成者は入力文書に含まれる様々な話題を網羅するように要約を作成したように思われる.特に,各話題に関する段落の先頭の文を参照要約の作成者は参照要約に含ませているように観察されるため,これらが要約に含まれやすくなるようにした.\item最後の文の重みに大きな値を与えた.\ref{最後の文に関する特徴量}節で述べた特徴量は新しく追加したものであるため,当該特徴量に対する重みがパラメタ集合内には存在しない.そのため,最後の文が選ばれるように最後の文であることを示す特徴量に大きな重みを与えた.\end{itemize}\subsection{結果と考察}\label{sc:結果と考察}書き換え操作を追加したのちのシステム要約を表\ref{tb:書き換え操作を追加したのちの文書番号990305053のシステム要約}に示す.書き換え操作および特徴量を追加したのちのシステム要約を表\ref{tb:書き換え操作および特徴量を追加したのちの文書番号990305053のシステム要約}に示す.書き換え操作,特徴量およびパラメタ調整を追加したのちのシステム要約を表\ref{tb:書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}に示す.これらの要約システムの改良によるROUGEの変化を表\ref{tb:要約システムの改良によるROUGEの変化}に示す.Rwは書き換え操作が追加された要約の評価,$\text{Rw}+\text{Ft}$は書き換え操作および特徴量が追加された要約の評価,$\text{Rw}+\text{Ft}+\text{Pm}$は書き換え操作,特徴量,およびパラメタ調整が追加された要約の評価である.$\Delta$で示した数値はある改良によってどの程度ROUGE-1の値が改善したかを示す.なお,本節の目的は,書き換え操作の追加,特徴量の追加,パラメタ調整それぞれのROUGEへの影響を見ることそのものにはなく,各改良によってどのような変化がシステム要約に生じるかを見ることにある.また,これらの改良は,後で述べるように3つ全てを合わせたときにこそ大きく要約に影響を及ぼすものであるため,個別の改良の影響に必ずしも注目するものではないことに注意されたい.\begin{table}[p]\caption{書き換え操作を追加したのちの文書番号990305053のシステム要約}\label{tb:書き換え操作を追加したのちの文書番号990305053のシステム要約}\input{01table17.txt}\end{table}\begin{table}[p]\caption{書き換え操作および特徴量を追加したのちの文書番号990305053のシステム要約}\label{tb:書き換え操作および特徴量を追加したのちの文書番号990305053のシステム要約}\input{01table18.txt}\end{table}\begin{table}[t]\caption{書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}\label{tb:書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}\input{01table19.txt}\end{table}\begin{table}[t]\caption{要約システムの改良によるROUGEの変化}\label{tb:要約システムの改良によるROUGEの変化}\input{01table20.txt}\end{table}書き換え操作の追加によっていくらかROUGEが改善されたものの,表\ref{tb:書き換え操作を追加したのちの文書番号990305053のシステム要約}が示すように,書き換え後の文の一部は要約システムによって選択されておらず,その効果が十分に発揮されていない.そのため,ROUGEの改善も必ずしも大きなものではない.このことから,単に書き換え操作を追加するだけではなく,書き換え後の文が重要文として選択されるように特徴量およびパラメタを調整しないといけないことがわかる.次に,特徴量の追加による影響についてみる.表\ref{tb:要約システムの改良によるROUGEの変化}が示すように,特徴量の追加により,大きくROUGEが改善されていることがわかる.これは全て段落情報に関する特徴量の影響である.最後の文に関する特徴量は新しく追加したものであるため,この時点では生成される要約に対して影響を与えない.参照要約の作成者は入力文書に含まれる各話題からそれらに対応する文を選択しているため,段落情報を通じてこの情報を要約システムが利用できるようになった影響は大きい.最後に,パラメタの調整による影響をみる.表\ref{tb:要約システムの改良によるROUGEの変化}が示すように,パラメタの調整によりROUGEが劇的に改善されていることがわかる.表\ref{tb:書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}に示す要約には参照要約に含まれていない文が1つだけ含まれているものの(文12),参照要約にかなり類似した要約を生成することに成功している.このことから,適切な書き換え操作と特徴量を追加した上で適切なパラメタを得ることができれば,参照要約に近い要約を生成できることがわかる.ROUGEとは別に,表\ref{tb:システム要約から読み取ることができる参照要約中の言明}に各システム要約から読み取れる参照要約中に含まれる言明を示す.参照要約は20の言明からなる.パラメタの調整まで加えた最良のものでも16個の言明を含むに留まっており,4個の言明を取りこぼしている.特に13番目の言明についてはいずれのシステム要約も選択することができておらず,これを選択するためにはより詳細な特徴量を設定するなどの工夫が必要であろう.\begin{table}[b]\caption{システム要約から読み取ることができる参照要約中の言明}\label{tb:システム要約から読み取ることができる参照要約中の言明}\input{01table21.txt}\end{table}\subsection{他の文書に対する適用}\label{sc:他の文書に対する適用}最後に,改良前の要約システムによるシステム要約と,改良を加えた要約システムによるシステム要約を比較した.TSC-2のデータに含まれる残りの59文書を入力とし,改良前後の要約システムで要約を作成した.\ref{sc:分析の実践}節と同様に,長い方の参照要約を参照要約とし,要約システムが各文書の要約を作成する際には参照要約の長さ以内の要約を作成するようにした.ROUGE-1で評価を行った結果を表\ref{tb:文書番号990305053以外の文書を入力とした場合のROUGEによる評価結果}に示す.\begin{table}[t]\caption{文書番号990305053以外の文書を入力とした場合のROUGEによる評価結果}\label{tb:文書番号990305053以外の文書を入力とした場合のROUGEによる評価結果}\input{01table22.txt}\end{table}有意水準$\alpha$は0.05としてウィルコクソンの符号順位検定\cite{wilcoxon45}を用いて検定を行ったところ,改良前後でのROUGE-1の変化は有意であった.要約システムに加えた改良はあくまで文書番号990305053に特化したものとなっているため,改善は大きくないものの,文書番号990305053に基づいて行った改良が他の文書に対しても有効に働いたことがわかる.ある特定の文書ではなく,あるコーパスを構成する全ての文書に対するシステム要約の品質を全体的に向上させようとする際には,例えば,そのコーパスを構成する文書の中から代表性を持つ文書を特定し,そのような文書を集中的に分析し要約システムを改良するといった手段が考えられる. \section{関連研究} \label{sc:関連研究}\subsection{自動要約の誤り分析}要約システムから出力された要約を評価する方法は大きく2つにわけられる\cite{sparck-jones07}.1つは内的な評価で,要約そのものの品質を評価するものである.もう1つは外的な評価で,要約の品質を他の課題を通じて評価するものである.後者は,例えば,異なる要約システムから出力された要約を用いて同一の情報検索課題を解き,より良好な検索結果が得られた要約システムをよい要約システムとするものである\cite{nomoto97}.本稿は特に要約そのものの品質を扱うため,ここでは前者に焦点を当てる.要約そのものの品質は2つの観点から評価されてきた\cite{nenkova11}.1つは要約の内容性であり,入力文書に含まれる重要な情報がシステム要約にも含まれているか評価するものである.もう1つは要約の言語的品質であり,システム要約が読みやすいものになっているかを評価するものである.これらはそれぞれ,前者については本稿における「重要部同定の失敗」,後者については「非文章の出力」と対応している.要約の内容性については,人間の作業者が重要文として認定した文を要約システムが重要文として認定できた割合に基づいて評価するもの\cite{okumura05},システム要約と参照要約の,n-gram頻度分布の類似度に基づいて評価するもの\cite{lin04},人手によって複数の参照要約に頻繁に出現する情報を特定し,それが要約に含まれる数に基づいて評価するもの\cite{nenkova07}などの評価方法がある.要約の内容性を改善するための網羅的な分析として,Paiceによる分析がある\cite{paice90}.Paiceは,文を選択する際の特徴量である,手がかり語の有無や文の位置,入力文書のタイトルに含まれる語の有無などの効果を論じた.Paiceのこの分析は,「重要部同定の失敗」に関する「特徴量の設定不足」に該当する分析といえる.Hiraoらは,機械学習を用いて重要文同定を行った際のパラメタについて分析している\cite{hirao02}.機械学習を通じて得られたパラメタの傾向を観察することで,有効に働く特徴量を簡便に分析することができる.Hiraoらのこの分析は,Paiceの分析と同様に,「重要部同定の失敗」に関する「特徴量の設定不足」に該当する分析といえる.要約の言語的品質については,一般に,要約の言語的品質を測定するためのテスト\cite{nist07}を通じて評価される.言語的品質に関する分析としては,Vanderwendeらが文の書き換えが引き起こす問題を\cite{vanderwende07},Nenkovaが照応詞が引き起こす問題を指摘している\cite{nenkova08}.Vanderwendeらは,要約の内容性を改善するために,入力文書に含まれる不要な節や句を除去することを提案した\cite{vanderwende07}.この方法によってより要約の内容性が改善されることをVanderwendeらは示したが,その一方で文の書き換えによって非文法的な文が生成され,これが要約に含まれることで要約の言語的品質が低下することも指摘した.特に,文の書き換えの結果,コンマ,ピリオドが誤った位置に置かれることが頻繁に問題となることを示した.Vanderwendeらのこの分析は,「操作の不足」が「非文章の出力」を招くことを指摘するものといえる.Nenkovaは,要約に含まれる照応詞が問題を引き起こすことを指摘した\cite{nenkova08}.特に,言語的品質の観点において,先行詞が不明瞭な照応詞が出現することで,要約の品質が低下することを指摘した.Nenkovaは実際に,要約を構成する文の名詞句を書き換える要約システムと,単に文を選択するだけの要約システムの,それぞれから出力された要約の言語的品質を比較した.Nenkovaは,前者が出力した要約は,書き換えに伴い統語的に正しくない文が生成されることがあること,また同一の名詞句が過剰に繰り返されることがあることから,後者に比べて著しくその言語的品質が悪化することを報告している.Nenkovaのこの分析は,Vanderwendeらと同様に,「操作の不足」が「非文章の出力」を招くことを指摘するものといえる.照応詞の問題はPaice\cite{paice90}やNanbaら\cite{nanba00}も指摘している.Paice\cite{paice90}とNenkova\cite{nenkova08}の研究の間には約20年の時間の経過があるが,依然として照応詞の問題は自動要約における難題である.最後に,上で述べた,これまで自動要約において行われてきた分析と,本稿で提案する分析の枠組みを比較しておく.まず,「文意の歪曲」という観点がこれまでの自動要約研究では指摘されてこなかった.この点については,\ref{sc:自動要約の誤りの種類}節で述べたように,分析に要する費用の大きさが原因となって,あまり指摘されてこなかったものと思われる.加えて,これまで行われてきた分析は,本稿におけるある特定の観点の誤りがある特定の原因によってもたらされるといった,いわば局所的なものであったのに対して,本稿で提案する誤り分析の枠組みは,これまで行われてきた分析を系統的に包含する点に特徴がある.\subsection{他の自然言語処理課題における誤り分析}ここでは,自動要約と同様に自然言語を生成する課題として機械翻訳を,また自動要約とは異なり自然言語を解析する課題として語義曖昧性解消を取り上げ,それぞれ本稿で取り扱った自動要約の誤り分析と比較する.まず,赤部らによる機械翻訳の誤り分析(赤部,Neubig,工藤,Richardson,中澤,星野2015)を取り上げる.\nocite{akabe15}機械翻訳は自動要約と同様にテキストを入力としてテキストを出力する課題であり,誤り分析の形態も似通ったものになると考えられる.赤部らは誤り分析を2種類に分類している\footnote{この分類は機械翻訳の分野において広く知られている(Olive,Christianson,andMcCary2011;渡辺,今村,賀沢,Graham,中澤2014).\nocite{olive11,watanabe14}}.1つはブラックボックス分析であり,システムの出力にのみ着目して誤りを分析するものである.もう1つはグラスボックス分析であり,システム内部の性質に着目して誤りを分析するものである.本稿で扱った誤り分析は要約システム内部の構成要素に着目しているため,グラスボックス分析に相当する.本稿の\ref{sc:自動要約の誤りの種類}節で提案した誤りの種類のみに注目して誤り分析を行うのであればこれはブラックボックス分析になる.赤部らの提案しているブラックボックス分析の誤り体系は,出力のみを分析するものであり,その点において本稿の\ref{sc:自動要約の誤りの種類}節と概ね対応している.本稿の提案した要約の誤りの種類は赤部らのブラックボックス分析の誤り体系を抽象化したものになっている.例えば,自動要約の誤りの種類の2つめ「入力が出力を含意しない」の原因の1つとして赤部らのブラックボックス分析の誤り体系の「モダリティ」を考えることができる.自動要約の満たすべき要件を敷衍し機械翻訳の誤りを考えると,「出力から(目標言語で)情報が読み取れること」「(言語は異なるものの)入出力が意味的に等価であること」の2点を要件として考えることができ,その点において赤部らの提案したブラックボックス分析の誤り体系の一部は自動要約の誤り分析のより具体的な誤りの分類として考えることもできよう.本稿の提案した要約の誤りの種類と赤部らのブラックボックス分析の誤りの体系を比較すると,自動要約と機械翻訳には2つの違いがあることがわかる.1つは非文章の存在である.自動要約の出力は多くの場合,文ではなくて文章であるため,文としては解釈できても文章としては適切に解釈できない場合が生じる.一方,現在の機械翻訳は基本的には文単位の処理を行っている\footnote{もちろん,文を越えた単位での翻訳の試みも存在する\cite{christian12,xiong13}.}.もう1つは,自動要約の満たすべき要件の3つめ「入力および読み手の希望を鑑みて重要な情報のみが出力に含まれること」という点である.自動要約はその名の通り,重要な情報のみを読み手に提示することが目標であるが,機械翻訳は入力を目標の言語に入力と意味的に等価に変換することが目標であり,重要な情報を選別するという要件が存在しない.\begin{table}[b]\caption{自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}\label{tb:自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}\input{01table23.txt}\end{table}赤部らが提案したもう1つの誤り体系である,グラスボックス分析の誤り体系は本稿の\ref{要約システムの誤りの原因}節で提案した要約の誤りの原因にほぼ直接対応している.対応を表\ref{tb:自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}に示す.表\ref{tb:自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}に示すように,自動要約の誤りの原因と赤部らのグラスボックス分析の誤り体系はほぼ直接対応している.これは,現在の自動要約システムも機械翻訳システムも,自然言語の入力に形態素解析器などの基本的な解析器を用いて適切な解析を加える機構,入力を入力とは異なる表現に変換する機構,変換された表現の中で正しいと思われるものに高いスコアを与える機構,高いスコアが与えられる表現を探索する機構の4点をその基盤としているためである.次に,自然言語の解析を目的とする課題として語義曖昧性解消課題の誤り解析を取り上げる.新納らは7名の分析者による誤り分析の結果を統合し,語義曖昧性解消課題において生じる誤りの原因を9種類に分類している\cite{shinnou15}.語義曖昧性課題における誤りは正しい語義に単語を分類することができないがために生じるものであり,その点において本稿で提案した自動要約の誤りの種類や赤部らのブラックボックス分析の誤りの体系のように複数の誤りの種類は存在せず,単に誤分類のみが誤りとなっている.\begin{table}[t]\caption{自動要約の誤りの原因と語義曖昧性解消の誤りの原因の対応}\label{tb:自動要約の誤りの原因と語義曖昧性解消の誤りの原因との対応}\input{01table24.txt}\end{table}新納らの提案した9種類の誤り原因は,本稿で提案した5種類の誤りの原因の一部を詳細化したものとみなせる.対応を表\ref{tb:自動要約の誤りの原因と語義曖昧性解消の誤りの原因との対応}に示す.語義曖昧性解消課題は自然言語の生成を行わないため,当然,書き換え操作の不足に対応する誤りは存在しない.\pagebreak同様に,候補となる語義のいずれかに単語を分類する問題であるため,複雑な探索も行う必要がなく,そのため探索の誤りも存在しない. \section{おわりに} \label{sc:おわりに}本稿では,自動要約の誤り分析を扱った.自動要約の誤りの分類を提案し,それを利用して1つの文書の分析結果を分類した.また,どのような誤りが生じているかを調査するための具体的な方法についても提案した.それらを用いて,ある文書をある要約システムを用いて要約したとき,内部でどのような誤りが生じているか分析した.さらに,分析の結果を踏まえて要約システムに改良を施し,その結果を報告した.本稿で提案した枠組みについては,今後,提案した分類をより精緻化し,個別の分析事例を蓄積していく予定である.特に,今後,重要となるであろう分析は「操作の不足」と「文意の歪曲」の点にあると思われる.「文意の歪曲」についてはこれまで十分にその問題点が指摘されていないが,要約システムが出力する要約を,入力文書と矛盾したものにしてしまうという点において,要約システムの致命的な問題になりうる.そのため,このような問題のあるシステム要約を少ない費用で検出する仕組みが必要になるだろう.また,「文意の歪曲」を防ぐには洗練された書き換え操作が必要であり,「文意の歪曲」を防ぐ機構の分析も重要である.\acknowledgment本稿は自然言語処理における誤り分析プロジェクトProjectNext\footnote{https://sites.google.com/site/projectnextnlp/}の一環として行われた研究に基づくものである.その過程において,国立国語研究所浅原正幸准教授,東京工業大学奥村学教授,東京工業大学菊池悠太氏,早稲田大学酒井哲也教授,九州工業大学嶋田和孝准教授,ニューヨーク大学関根聡研究准教授,東京工業大学高村大也准教授,日本電信電話株式会社平尾努研究主任,および京都大学森田一研究員よりご助言を頂戴した.記して感謝する.また,論文の採録に際しては担当編集委員および2名の査読者の方々より様々なご助言を頂戴した.記して感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{赤部\JBA{Neubig~Graham}\JBA工藤\JBA{Richardson~John}\JBA中澤\JBA星野}{赤部\Jetal}{2015}]{akabe15}赤部晃一\JBA{Neubig~Graham}\JBA工藤拓\JBA{Richardson~John}\JBA中澤敏明\JBA星野翔\BBOP2015\BBCP.\newblockProjectNextにおける機械翻訳の誤り分析.\\newblock\Jem{言語処理学会第19回年次大会ワークショップ「自然言語処理におけるエラー分析」発表論文集}.\bibitem[\protect\BCAY{Aone,Okurowski,Gorlinsky,\BBA\Larsen}{Aoneet~al.}{1999}]{aone99}Aone,C.,Okurowski,M.~E.,Gorlinsky,J.,\BBA\Larsen,B.\BBOP1999\BBCP.\newblock\BBOQATrainableSummarizerwithKnowledgeAcquiredfromRobustNLPTechniques.\BBCQ\\newblockInMani,I.\BBACOMMA\\BBA\Maybury,M.~T.\BEDS,{\BemAdvancesinAutomaticTextSummarization},\mbox{\BPGS\71--80}.MITPress.\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2005}]{barzilay05b}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2005\BBCP.\newblock\BBOQSentenceFusionforMultidocumentNewsSummarization.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(3),\mbox{\BPGS\297--328}.\bibitem[\protect\BCAY{Edmundson}{Edmundson}{1969}]{edmundson69}Edmundson,H.~P.\BBOP1969\BBCP.\newblock\BBOQNewMethodsinAutomaticExtracting.\BBCQ\\newblock{\BemJournalofACM},{\Bbf16}(2),\mbox{\BPGS\264--285}.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{filatova04}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Gillick}{Gillick}{2009}]{gillick09a}Gillick,D.\BBOP2009\BBCP.\newblock\BBOQSentenceBoundaryDetectionandtheProblemwiththeU.S.\BBCQ\\newblockIn{\BemProceedingsofNAACLHLT2009:ShortPapers},\mbox{\BPGS\241--244}.\bibitem[\protect\BCAY{Hardmeier,Nivre,\BBA\Tiedemann}{Hardmeieret~al.}{2012}]{christian12}Hardmeier,C.,Nivre,J.,\BBA\Tiedemann,J.\BBOP2012\BBCP.\newblock\BBOQDocument-WideDecodingforPhrase-BasedStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\1179--1190}.\bibitem[\protect\BCAY{Hirao,Isozaki,Maeda,\BBA\Matsumoto}{Hiraoet~al.}{2002}]{hirao02}Hirao,T.,Isozaki,H.,Maeda,E.,\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQExtractingImportantSentenceswithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\342--348}.\bibitem[\protect\BCAY{Hovy,Lin,Zhou,\BBA\Fukumoto}{Hovyet~al.}{2006}]{hovy06}Hovy,E.,Lin,C.-Y.,Zhou,L.,\BBA\Fukumoto,J.\BBOP2006\BBCP.\newblock\BBOQAutomatedSummarizationEvaluationwithBasicElements.\BBCQ\\newblockIn{\BemProceedingsofthe5thConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\604--611}.\bibitem[\protect\BCAY{Jing}{Jing}{2000}]{jing00}Jing,H.\BBOP2000\BBCP.\newblock\BBOQSentenceReductionforAutomaticTextSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonAppliedNaturalLanguageProcessing(ANLP)},\mbox{\BPGS\310--315}.\bibitem[\protect\BCAY{Jurafsky\BBA\Martin}{Jurafsky\BBA\Martin}{2008}]{jurafsky08}Jurafsky,D.\BBACOMMA\\BBA\Martin,J.~H.\BBOP2008\BBCP.\newblock{\BemSpeechandLanguageProcessing(2ndEdition)}.\newblockPrenticeHall.\bibitem[\protect\BCAY{Knight\BBA\Marcu}{Knight\BBA\Marcu}{2002}]{knight02}Knight,K.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQSummarizationbeyondSentenceExtraction:AProbabilisticApproachtoSentenceCompression.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf1}(139),\mbox{\BPGS\91--107}.\bibitem[\protect\BCAY{一般社団法人共同通信社}{一般社団法人共同通信社}{2010}]{kyodo10}一般社団法人共同通信社\BBOP2010\BBCP.\newblock\Jem{記者ハンドブック新聞用字用語集}(第12\JEd).\newblock共同通信社.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin04}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshopTextSummarizationBranchesOut},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1958}]{luhn58}Luhn,H.~P.\BBOP1958\BBCP.\newblock\BBOQTheAutomaticCreationofLiteratureAbstracts.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf22}(2),\mbox{\BPGS\159--165}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{mcdonald07}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe29thEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{Muresan,Tzoukermann,\BBA\Klavans}{Muresanet~al.}{2001}]{muresan01}Muresan,S.,Tzoukermann,E.,\BBA\Klavans,J.\BBOP2001\BBCP.\newblock\BBOQCombiningLinguisticandMachineLearningTechniquesforEmailSummarization.\BBCQ\\newblockIn{\BemProceedingsofCoNLL2001WorkshopatACL/EACL2001Conference},\mbox{\BPGS\152--159}.\bibitem[\protect\BCAY{Nanba\BBA\Okumura}{Nanba\BBA\Okumura}{2000}]{nanba00}Nanba,H.\BBACOMMA\\BBA\Okumura,M.\BBOP2000\BBCP.\newblock\BBOQProducingMoreReadableExtractsbyRevisingThem.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\1071--1075}.\bibitem[\protect\BCAY{{NationalInstituteofStandardsandTechnology}}{{NationalInstituteofStandardsandTechnology}}{2007}]{nist07}{NationalInstituteofStandardsandTechnology}\BBOP2007\BBCP.\newblock\BBOQTheLinguisticQualityQuestions.\BBCQ\\url{http://www-nlpir.nist.gov/projects/duc/duc2007/quality-questions.txt}.\bibitem[\protect\BCAY{Nenkova}{Nenkova}{2008}]{nenkova08}Nenkova,A.\BBOP2008\BBCP.\newblock\BBOQEntity-drivenRewriteforMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonNaturalLanguageProcessing(IJNLP)},\mbox{\BPGS\118--125}.\bibitem[\protect\BCAY{Nenkova\BBA\McKeown}{Nenkova\BBA\McKeown}{2011}]{nenkova11}Nenkova,A.\BBACOMMA\\BBA\McKeown,K.\BBOP2011\BBCP.\newblock{\BemAutomaticSummarization}.\newblockNowPublishers.\bibitem[\protect\BCAY{Nenkova,Passonneau,\BBA\McKeown}{Nenkovaet~al.}{2007}]{nenkova07}Nenkova,A.,Passonneau,R.,\BBA\McKeown,K.\BBOP2007\BBCP.\newblock\BBOQThePyramidMethod:IncorporatingHumanContentSelectionVariationinSummarizationEvaluation.\BBCQ\\newblock{\BemACMTransactionsonSpeechandLanguageProcessing},{\Bbf4}(2),\mbox{\BPGS\1--23}.\bibitem[\protect\BCAY{Nishikawa,Arita,Tanaka,Hirao,Makino,\BBA\Matsuo}{Nishikawaet~al.}{2014}]{nishikawa14b}Nishikawa,H.,Arita,K.,Tanaka,K.,Hirao,T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQLearningtoGenerateCoherentSummarywithDiscriminativeHiddenSemi-MarkovModel.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\1648--1659}.\bibitem[\protect\BCAY{Nomoto\BBA\Matsumoto}{Nomoto\BBA\Matsumoto}{1997}]{nomoto97}Nomoto,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1997\BBCP.\newblock\BBOQANewApproachtoUnsupervisedTextSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe24thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\26--34}.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{okumura05}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{Olive,Christianson,\BBA\McCary}{Oliveet~al.}{2011}]{olive11}Olive,J.,Christianson,C.,\BBA\McCary,J.\BEDS\\BBOP2011\BBCP.\newblock{\BemHandbookofNaturalLanguageProcessingandMachineTranslation}.\newblockSpringerNewYork.\bibitem[\protect\BCAY{Paice}{Paice}{1990}]{paice90}Paice,C.~D.\BBOP1990\BBCP.\newblock\BBOQConstructingLiteratureAbstractsbyComputer:TechniquesandProspects.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf26}(1),\mbox{\BPGS\171--186}.\bibitem[\protect\BCAY{Pollock\BBA\Zamora}{Pollock\BBA\Zamora}{1975}]{pollock75}Pollock,J.~J.\BBACOMMA\\BBA\Zamora,A.\BBOP1975\BBCP.\newblock\BBOQAutomaticAbstractingResearchatChemicalAbstractsService.\BBCQ\\newblock{\BemJournalofChemicalInformationandComputerSciences},{\Bbf15}(4),\mbox{\BPGS\226--232}.\bibitem[\protect\BCAY{Sandu,Carenini,Murray,\BBA\Ng}{Sanduet~al.}{2010}]{sandu10}Sandu,O.,Carenini,G.,Murray,G.,\BBA\Ng,R.\BBOP2010\BBCP.\newblock\BBOQDomainAdaptationtoSummarizeHumanConversations.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshoponDomainAdaptationinNLP},\mbox{\BPGS\16--22}.\bibitem[\protect\BCAY{Sharifi,Hutton,\BBA\Kalita}{Sharifiet~al.}{2010}]{sharifi10}Sharifi,B.,Hutton,M.-A.,\BBA\Kalita,J.\BBOP2010\BBCP.\newblock\BBOQSummarizingMicroblogsAutomatically.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\685--688}.\bibitem[\protect\BCAY{新納\JBA白井\JBA村田\JBA福本\JBA藤田\JBA佐々木\JBA古宮\JBA乾}{新納\Jetal}{2015}]{shinnou15}新納浩幸\JBA白井清昭\JBA村田真樹\JBA福本文代\JBA藤田早苗\JBA佐々木稔\JBA古宮嘉那子\JBA乾孝司\BBOP2015\BBCP.\newblock語義曖昧性解消の誤り分析.\\newblock\Jem{言語処理学会第19回年次大会ワークショップ「自然言語処理におけるエラー分析」発表論文集}.\bibitem[\protect\BCAY{Sp{\"a}rck~Jones}{Sp{\"a}rck~Jones}{2007}]{sparck-jones07}Sp{\"a}rck~Jones,K.\BBOP2007\BBCP.\newblock\BBOQAutomaticSummarising:TheStateoftheArt.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf43},\mbox{\BPGS\1449--1481}.\bibitem[\protect\BCAY{Takamura,Yokono,\BBA\Okumura}{Takamuraet~al.}{2011}]{takamura11}Takamura,H.,Yokono,H.,\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQSummarizingaDocumentStream.\BBCQ\\newblockIn{\BemProceedingsofthe33rdEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\177--188}.\bibitem[\protect\BCAY{Vanderwende,Suzuki,Brockett,\BBA\Nenkova}{Vanderwendeet~al.}{2007}]{vanderwende07}Vanderwende,L.,Suzuki,H.,Brockett,C.,\BBA\Nenkova,A.\BBOP2007\BBCP.\newblock\BBOQBeyondSumBasic:Task-focusedSummarizationwithSentenceSimplificationandLexicalExpansion.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf43}(6),\mbox{\BPGS\1606--1618}.\bibitem[\protect\BCAY{渡辺\JBA今村\JBA賀沢\JBA{Neubig~Graham}\JBA中澤}{渡辺\Jetal}{2014}]{watanabe14}渡辺太郎\JBA今村賢治\JBA賀沢秀人\JBA{Neubig~Graham}\JBA中澤敏明\BBOP2014\BBCP.\newblock\Jem{機械翻訳}.\newblockコロナ社.\bibitem[\protect\BCAY{Wilcoxon}{Wilcoxon}{1945}]{wilcoxon45}Wilcoxon,F.\BBOP1945\BBCP.\newblock\BBOQIndividualComparisonsbyRankingMethods.\BBCQ\\newblock{\BemBiometricsBulletin},{\Bbf1}(6),\mbox{\BPGS\80--83}.\bibitem[\protect\BCAY{Xiong,Ding,Zhang,\BBA\Tan}{Xionget~al.}{2013}]{xiong13}Xiong,D.,Ding,Y.,Zhang,M.,\BBA\Tan,L.~C.\BBOP2013\BBCP.\newblock\BBOQLexicalChainBasedCohesionModelsforDocument-LevelStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1563--1573}.\bibitem[\protect\BCAY{Zajic,Dorr,Lin,\BBA\Richard}{Zajicet~al.}{2007}]{zajic07}Zajic,D.~M.,Dorr,B.~J.,Lin,J.,\BBA\Richard,S.\BBOP2007\BBCP.\newblock\BBOQMulti-CandidateReduction:SentenceCompressionasaToolforDocumentSummarizationTasks.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf43},\mbox{\BPGS\1549--1570}.\end{thebibliography}\begin{biography}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学大学院情報理工学研究科計算工学専攻助教.自然言語処理,特に自動要約の研究に従事.TheAssociationforComputationalLinguistics,人工知能学会,情報処理学会,各会員.}\end{biography}\biodate\end{document}
V23N04-02
\section{はじめに} \label{sec:introduction}統計的機械翻訳(StatisticalMachineTranslation,SMT)では,翻訳モデルを用いてフレーズ単位で翻訳を行い,並べ替えモデルを用いてそれらを正しい語順に並べ替えるフレーズベース翻訳(PhraseBasedMachineTranslation)\cite{koehn03phrasebased},構文木の部分木を翻訳に利用する統語ベース翻訳\cite{yamada01syntaxmt}などの翻訳手法が提案されている.一般的に,フレーズベース翻訳は英仏間のような語順が近い言語間では高い翻訳精度を達成できるものの,日英間のような語順が大きく異なる言語間では翻訳精度は十分でない.このような語順が大きく異なる言語対においては,統語ベース翻訳の方がフレーズベース翻訳と比べて高い翻訳精度を達成できることが多い.統語ベース翻訳の中でも,原言語側の構文情報を用いるTree-to-String(T2S)翻訳\cite{liu06treetostring}は,高い翻訳精度と高速な翻訳速度を両立できる手法として知られている.ただし,T2S翻訳は翻訳に際して原言語の構文解析結果を利用するため,翻訳精度は構文解析器の精度に大きく依存する\cite{neubig14acl}.この問題を改善する手法の一つとして,複数の構文木候補の集合である構文森をデコード時に利用するForest-to-String(F2S)翻訳\cite{mi08forestrule}が挙げられる.しかし,F2S翻訳も翻訳精度は構文森を作成した構文解析器の精度に大きく依存し,構文解析器の精度向上が課題となる\cite{neubig14acl}.構文解析器の精度を向上させる手法の一つとして,構文解析器の自己学習が提案されている\cite{mcclosky2006effective}.自己学習では,アノテーションされていない文を既存のモデルを使って構文解析し,自動生成された構文木を学習データとして利用する.これにより,構文解析器は自己学習に使われたデータに対して自動的に適応し,語彙や文法構造の対応範囲が広がり,解析精度が向上する.しかし,自動生成された構文木は多くの誤りを含み,それらが学習データのノイズとなることで自己学習の効果を低減させてしまうという問題が存在する.Katz-Brownら\cite{katzbrown11targetedselftraining}は構文解析器の自己学習をフレーズベース翻訳のための事前並べ替えに適用する手法を提案している.フレーズベース翻訳のための事前並べ替えとは,原言語文の単語を目的言語の語順に近くなるように並べ替えることによって,機械翻訳の精度を向上させる手法である.この手法では,構文解析器を用いて複数の構文木候補を出力し,この構文木候補を用いて事前並べ替えを行う.その後,並べ替え結果を人手で作成された正解並べ替えデータと比較することによって,各出力にスコアを割り振る.これらの並べ替え結果のスコアを基に,構文木候補の中から最も高いスコアを獲得した構文木を選択し,この構文木を自己学習に使用する.このように,学習に用いるデータを選択し,自己学習を行う手法を標的自己学習(TargetedSelf-Training)という.Katz-Brownらの手法では,正解並べ替えデータを用いて,自己学習に使用する構文木を選択することで,誤った並べ替えを行う構文木を取り除くことができ,学習データのノイズを減らすことができる.また,Liuら\cite{liu12emnlp}は,単語アライメントを利用して構文解析器の標的自己学習を行う手法を提案している.一般に,構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い.そのため,この一貫性を基準として構文木を選択し,それらを用いて構文解析器を学習することでより精度が向上することが考えられる.以上の先行研究を基に,本論文では,機械翻訳の自動評価尺度を用いた統語ベース翻訳のための構文解析器の標的自己学習手法を提案する.提案手法は,構文解析器が出力した構文木を基に統語ベース翻訳を行い,その翻訳結果を機械翻訳の自動評価尺度を用いて評価し,この評価値を基にデータを選択し構文解析器の自己学習を行う.統語ベース翻訳では,誤った構文木が与えられた場合,翻訳結果も誤りとなる可能性が高く,翻訳結果を評価することで間接的に構文木の精度を評価することができる.以上に加え,提案手法は大量の対訳コーパスから自己学習に適した文のみを選択し学習を行うことで,自己学習時のノイズを減らす効果がある.Katz-Brownらの手法と比較して,提案手法は事前並べ替えだけでなく統語ベース翻訳にも使用可能なほか,機械翻訳の自動評価尺度に基づいてデータの選択を行うため,対訳以外の人手で作成された正解データを必要としないという利点がある.これにより,既存の対訳コーパスが構文解析器の標的自己学習用学習データとして使用可能になり,構文解析器の精度やF2S翻訳の精度を幅広い分野で向上させることができる.また,既に多く存在する無償で利用可能な対訳コーパスを使用した場合,本手法におけるデータ作成コストはかからない.さらに,Liuらの手法とは異なり,翻訳器を直接利用することができる利点もある.このため,アライメント情報を通して間接的に翻訳結果への影響を計測するLiuらの手法に比べて,直接的に翻訳結果への影響を構文木選択の段階で考慮できる.実験により,提案手法で学習した構文解析器を用いることで,F2S翻訳システムの精度向上と,構文解析器自体の精度向上が確認できた\footnote{本論文では,\textit{IWSLT2015:InternationalWorkshoponSpokenLanguageTranslation}で発表した内容\cite{morishita15iwslt}に加え,翻訳システムの人手評価を実施した結果をまとめた.}. \section{Tree-to-String翻訳} \label{sec:t2s_mt}SMTでは,原言語文$\bm{f}$が与えられた時に,目的言語文$\bm{e}$へと翻訳される確率$Pr(\bm{e}|\bm{f})$を最大化する$\hat{\bm{e}}$を推定する問題を考える.\begin{equation}\hat{\bm{e}}\coloneqq\argmax_{\bm{e}}Pr(\bm{e}|\bm{f})\end{equation}様々な手法が提案されているSMTの中でも,T2S翻訳は原言語文の構文木$T_{\bm{f}}$を使用することで,原言語文に対する解釈の曖昧さを低減し,原言語と目的言語の文法上の関係をルールとして表現することで,より精度の高い翻訳を実現する.T2S翻訳は下記のように定式化される.\begin{align}\hat{\bm{e}}&\coloneqq\argmax_{\bm{e}}Pr(\bm{e}|\bm{f})\\&=\argmax_{\bm{e}}\sum_{T_{\bm{f}}}Pr(\bm{e}|\bm{f},T_{\bm{f}})Pr(T_{\bm{f}}|\bm{f})\\&\simeq\argmax_{\bm{e}}\sum_{T_{\bm{f}}}Pr(\bm{e}|T_{\bm{f}})Pr(T_{\bm{f}}|\bm{f})\\&\simeq\argmax_{\bm{e}}Pr(\bm{e}|\hat{T}_{\bm{f}})\end{align}ただし,$\hat{T}_{\bm{f}}$は構文木の候補の中で,最も確率が高い構文木であり,下記の式で表される.\begin{equation}\label{eq:best_tree}\hat{T}_{\bm{f}}=\argmax_{T_{\bm{f}}}Pr(T_{\bm{f}}|\bm{f})\end{equation}\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f1.eps}\end{center}\caption{日英T2S翻訳における翻訳ルールの例}\label{fig:t2s_example}\vspace{-1\Cvs}\end{figure}図\ref{fig:t2s_example}に示すように,T2S翻訳\footnote{具体的には,木トランスデューサ(TreeTransducers)を用いたT2S翻訳.}で用いられる翻訳ルールは,置き換え可能な変数を含む原言語文構文木の部分木と,目的言語文単語列の組で構成される.図\ref{fig:t2s_example}の例では,$x_{0}$,$x_{1}$が置き換え可能な変数である.これらの変数には,他のルールを適用することにより翻訳結果が挿入され,変数を含まない出力文となる.訳出の際は,翻訳ルール自体の適用確率や言語モデル,その他の特徴などを考慮して最も事後確率が高い翻訳結果を求める.また,ビーム探索などを用いることで確率の高い$n$個の翻訳結果を出力することが可能であり,これを$n$-best訳という.T2S翻訳では,原言語文の構文木を考慮することで,語順が大きく異なる言語対の翻訳がフレーズベース翻訳と比べて正確になる場合が多い.しかし,T2S翻訳は翻訳精度が構文解析器の精度に大きく依存するという欠点がある.この欠点を改善するために,複数の構文木を構文森と呼ばれる超グラフ(Hyper-Graph)の構造で保持し,複数の構文木を同時に翻訳に使用するF2S翻訳\cite{mi08forestrule}が提案されている.この場合,翻訳器は複数ある構文木の候補から構文木を選択することができ,翻訳精度の改善が期待できる\cite{zhang12helporhurt}.F2S翻訳は$\bm{e}$と$T_{\bm{f}}$の同時確率の最大化として下記のように定式化される.\begin{align}\label{eq:forest_to_string}\langle\hat{\bm{e}},\hat{T}_{\bm{f}}\rangle&\coloneqq\argmax_{\langle\bm{e},T_{\bm{f}}\rangle}Pr(\bm{e},T_{\bm{f}}|\bm{f})\\&\simeq\argmax_{\langle\bm{e},T_{\bm{f}}\rangle}Pr(\bm{e}|T_{\bm{f}})Pr(T_{\bm{f}}|\bm{f})\end{align}しかし,\ref{sec:introduction}節で述べたとおりF2S翻訳であっても翻訳精度は構文森を生成する構文解析器の精度に大きく依存する.そこで,この問題を解決するため,自己学習によって構文解析器の精度を向上する手法について説明する. \section{構文解析の自己学習} \subsection{自己学習の概要}構文解析器の自己学習とは,既存のモデルで学習した構文解析器が解析・生成した構文木を学習データとして用いることで,構文解析器を再学習する手法である.言い換えると,自己学習対象の各文に対して,式(\ref{eq:best_tree})に基づいて確率が最も高い構文木$\hat{T_{\bm{f}}}$を求め,この構文木を構文解析器の再学習に用いる.この手法は追加のアノテーションを必要としないため,構文解析器の学習データ量が大幅に増え,解析精度が向上する.Charniakは,WallStreetJournal(WSJ)コーパス\cite{marcus93penntreebank}によって学習された確率文脈自由文法(ProbabilisticContext-FreeGrammar,PCFG)モデルを用いた構文解析器では,自己学習の効果は得られなかったと報告している\cite{Charniak97}.一方で,潜在クラスを用いることで構文解析の精度を向上させたPCFG-LA(PCFGwithLatentAnnotations)モデルは自己学習により大幅に解析精度が向上することが知られている\cite{huang2009self}.これは,PCFG-LAモデルを用いることで自動生成された構文木の精度が比較的高くなることに加え,PCFG-LAモデルが通常のPCFGモデルと比べて多くのパラメータを持つので,学習データが増加する恩恵が大きいことが理由として挙げられる.これらの先行研究を基にして,本論文ではPCFG-LAモデルを用いた構文解析器の自己学習を考える.\subsection{機械翻訳における構文解析器の自己学習と効果}\subsubsection{事前並べ替えのための標的自己学習}\label{sec:mt_selftrain}\ref{sec:introduction}節でも述べたように,構文解析器の自己学習により機械翻訳精度を改善した研究が存在する.Katz-Brownらは,自己学習に使用する構文木を外部評価指標を用いて選択する手法を提案し,これにより翻訳精度自体も向上したと報告している\cite{katzbrown11targetedselftraining}.この手法の概要を図\ref{fig:katz-brown}に示す.この研究では,構文解析器により複数の構文木候補を自動生成し,これらの候補を基にした事前並べ替えの結果が人手で作成した正解並べ替えデータに最も近いものを選択し,自己学習に使用する.これにより,構文木の候補からより正しい構文木を選択することができるため,自己学習の効果が増すと報告されている.このように一定の基準を基に学習データを選択し,自己学習を行う手法を標的自己学習(TargetedSelf-Training)という.\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f2.eps}\end{center}\caption{事前並べ替えのための標的自己学習手法}\label{fig:katz-brown}\end{figure}事前並べ替えでは,構文木$T_{\bm{f}}$に基づいて,並べ替えられた原言語文$\bm{f}'$を生成する並べ替え関数$\text{reord}(T_{\bm{f}})$を定義し,システムによる並べ替えを正解並べ替え$\bm{f}'^{*}$と比較するスコア関数$\text{score}(\bm{f}'^{*},\bm{f}')$で評価する.学習に使われる構文木$\bar{T}_{\bm{f}}$は,構文木の候補$\bm{T_f}$から以下の式によって選択される.\begin{equation}\bar{T}_{\bm{f}}=\argmax_{T_{\bm{f}}\in{\bm{T}_{\bm{f}}}}{\rmscore}(\bm{f}'^{*},\text{reord}(T_{\bm{f}}))\end{equation}本論文ではこれらの先行研究を基に,統語ベース翻訳のための構文解析器の標的自己学習手法を提案する.\ref{sec:proposed_method}節以降において,提案手法の詳細を示し,実験により提案手法の効果を検証する.\subsubsection{フロンティアノードを利用した構文解析器の標的自己学習}\label{sec:frontier_node}統語ベース翻訳を利用して構文解析器の標的自己学習を行う手法として,フロンティアノード(FrontierNode)を利用する手法が提案されている\cite{liu12emnlp}.\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f3.eps}\end{center}\caption{5つのフロンティアノードを含む構文木の例}\label{fig:frontier_node_tree}\end{figure}一般に,構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い.この一貫性を評価する指標として,フロンティアノードの数が挙げられる.フロンティアノードとは,対象ノードから翻訳ルールを抽出できるノードのことを指す.例として,5つのフロンティアノードを持つ構文木を図\ref{fig:frontier_node_tree}に示す.図中の灰色で示されたノードがフロンティアノードである.各ノード中の数字は上から順にスパン(span),補完スパン(complementspan)を示している\footnote{スパンおよび補完スパンは,文献によってはアライメントスパン(alignmentspan),補完アライメントスパン(complementalignmentspan)とも称される.}.ノードNのスパンとは,ノードNから到達可能な全ての目的言語単語の最小連続単語インデックスの集合であり,ノードNの補完スパンとは,NおよびNの子孫ノード以外のノードに対応する,目的言語単語インデックスの和集合とする\footnote{フロンティアノードについての詳細は\cite{galley06syntaxmt}を参照.}.フロンティアノードは,スパンと補完スパンが重複しておらず,かつスパンがnullでないという条件を満たすノードのことを指す\cite{galley06syntaxmt}.フロンティアノードの数が多いほど,構文木と単語アライメントの一貫性が取れているといえる.例えば,「助詞のP」のスパンは3-5であり,``ofthisrestaurant''に対応する.また,補完スパンは1-2,4であり,``thespeciality'',``this''に対応する.この場合,3-5のスパンと,4の補完スパンが部分的に重複しているためフロンティアノードではない.Liuらの手法では,構文解析結果の5-bestの中からフロンティアノードの数が最も多くなる構文木を選択し,選ばれた構文木を自己学習に使用する.これにより,5-best中で最も精度が高いと考えられる構文木を選択することができ,従来の自己学習手法よりも効果が高くなる.この手法で自己学習した構文解析器により,統語ベース翻訳の翻訳精度が有意に改善されたと報告されている.本論文では,Liuらの手法も比較対象として実験を行う\footnote{Liuらは翻訳器が強制的に参照訳を出力するforceddecodingを用いる手法も提案しているが,これを実現するために特殊なデコーダが必要であり,翻訳に用いるデコーダ自体に大幅な変更を加える必要がある.そのため,フロンティアノードに基づく手法や本研究の提案法に比べて実装が困難である.ゆえに,本論文ではフロンティアノードに基づく手法のみを比較対象とした.}. \section{統語ベース翻訳のための構文解析器の標的自己学習} \label{sec:proposed_method}標的自己学習において,どのように自己学習用のデータを選択するかは最も重要な点である.本論文ではF2S翻訳の精度を向上させるために,自己学習に使用する構文木および文の選択法をいくつか提案する.構文木の選択法を用いることで,一つの文の構文木候補から精度向上につながる構文木を選択し,文の選択法を用いることで,コーパス全体から精度向上に有効な文のみを選択する.以降ではそれぞれの手法について説明する.\subsection{構文木の選択法}\label{sec:tree_selection}\ref{sec:mt_selftrain}節で述べたように,Katz-Brownらによって提案された標的自己学習手法\cite{katzbrown11targetedselftraining}では,自動生成された構文木と人手で作成した正解並べ替えデータを比較することにより,$n$-best候補の中から最も評価値の高い構文木を選択する.しかし,人手で正解並べ替えデータを作成するには大きなコストがかかるため,この手法のために大規模なデータセットを作成することは現実的でない.一方で,統計的機械翻訳は対訳コーパスの存在を前提としており,対訳データは容易に入手できることが多い.そこで,この問題を解決するために,対訳コーパスのみを使用して構文木を選択する方法を2つ提案する.一つは,翻訳器によって選択された1-best訳に使われた構文木を自己学習に使用する手法である(翻訳器1-best).もう一つは,$n$-best訳の中から,最も参照訳に近い訳(Oracle訳)を自動評価尺度により選択し,Oracle訳に使われた構文木を自己学習に使用する手法である(自動評価尺度1-best).\subsubsection{翻訳器1-best}\label{sec:mt_1best}\ref{sec:t2s_mt}節でも述べたように,F2S翻訳では,構文森から翻訳確率が高くなる構文木を翻訳器が選択する.先行研究では,翻訳ルールや言語モデルの確率を使用することで,F2S翻訳器は構文森から正しい構文木を選択する能力があることが報告されている\cite{zhang12helporhurt}.翻訳器の事後確率を用いることで,構文解析器だけでは考慮できない特徴を使用して構文木を選択するため,F2S翻訳器が出力した1-best訳に使われた構文木は,構文解析器が出力した1-best構文木よりも自己学習に効果的だと考えられる.この際の自己学習に使われる構文木は式(\ref{eq:forest_to_string})の$\hat{T}_{\bm{f}}$となる.\subsubsection{自動評価尺度1-best}\label{sec:bleu_1best}翻訳の際,翻訳器は複数の翻訳候補の中から,最も翻訳確率が高い訳を1-best訳として出力する.しかし,実際には翻訳候補である$n$-best訳の方が,翻訳器が出力した1-best訳よりも翻訳精度が高いと考えられる場合が存在する.そこで本論文では,翻訳候補の集合$\bm{E}$の中から最も参照訳$\bm{e}^*$に近い訳をOracle訳$\bar{\bm{e}}$と定義し,$\bar{\bm{e}}$に使われた構文木を自己学習に使用する.翻訳候補$\bm{e}$と参照訳$\bm{e}^*$の類似度を表す評価関数$\rm{score}(\cdot)$を用いて,Oracle訳$\bar{\bm{e}}$は下記の通り表される.\begin{equation}\bar{\bm{e}}=\argmax_{\bm{e}\in\bm{E}}{\rmscore}(\bm{e}^*,\bm{e})\end{equation}\subsection{文の選択法}\label{sec:sentence_selection}\ref{sec:tree_selection}節では,1つの対訳文の$n$-best訳から学習に有用だと考えられる構文木を選択する方法について述べた.しかし,正しい訳が$n$-best訳の中に含まれていない場合もあり,これらの例を学習に用いること自体が構文解析器の精度低下を招く可能性がある.そのため,$n$-best訳の中に良い訳が含まれていない場合その文を削除するように,学習データ全体から自己学習に用いる文を選択する手法を提案する.具体的には,翻訳文の自動評価値が一定の閾値を超えた文のみを学習に使用する(自動評価値の閾値).また,学習データ全体から翻訳精度を改善すると考えられる構文木を選択する手法も提案する.具体的には,翻訳器1-best訳とOracle訳の自動評価値の差が大きい文のみを使用する(自動評価値の差).従来の標的自己学習手法では,構文木の選択手法は提案されていたものの,文の選択手法については検討されていなかった.本論文では,この文の選択手法についても検討を進める.文の選択法を使用する場合は,構文木の選択法として,自動評価尺度1-bestを使用する.自動評価尺度1-bestを用いて構文木を選択する手法と,文の選択法を組み合わせた提案手法を図にすると,図\ref{fig:proposed_method}のようになる.図のように原言語文を構文解析器に入力し,出力された構文森を翻訳器に入力する.これにより$n$-best訳と,翻訳に使われた構文木のペアが出力される.その後,参照訳を基に自動評価尺度を用いて$n$-best訳をリスコアリングする.これを基に学習データを選択し,自己学習を行う.\begin{figure}[t]\begin{center}\includegraphics{23-4ia2f4.eps}\end{center}\caption{提案手法の概要}\label{fig:proposed_method}\end{figure}\subsubsection{自動評価値の閾値}\label{sec:bleu_threshold}本節では,学習のノイズとなる誤った構文木を極力除外するために,自動評価値を基にデータを選択する手法を提案する.コーパスの中には,翻訳器が正しく翻訳することができず,自動評価値が低くなってしまう文が存在する.自動評価値が低くなる原因としては以下のような理由が考えられる.\begin{itemize}\item誤った構文木が翻訳に使用された.\item翻訳モデルが原言語文の語彙やフレーズに対応できていない.\item自動評価値を計算する際に用いられる参照訳が,意訳となっていたり,誤っていたりするため,翻訳器が参照訳に近い訳を出力することができない.\end{itemize}このような場合は,たとえOracle訳であっても自動評価値は低くなってしまうことがある.これらのデータは,F2S翻訳器が正しい構文木を選択することができていない場合や,自動評価尺度が実際の翻訳品質との相関が低い場合があるため,Oracle訳で使われた構文木であっても誤った構文情報を持つ可能性がある.そのため,これらのデータを学習データから取り除くことで,学習データ中のノイズが減ると考えられる.そこで,より正確な構文木のみを使用するために,Oracle訳の自動評価値が一定の閾値を超えた文のみ学習に使用する手法を提案する.自己学習に使用される構文木$T_{f^{(i)}}$の集合は下記の式のように定義される.ここで,$t$は閾値,$\bm{e}^{*(i)}$は文$i$の参照訳,$\bar{\bm{e}}^{(i)}$は文$i$のOracle訳,$\bar{\bm{E}}$はOracle訳全体の集合,$\text{score}(e)$は訳の自動評価関数を示す.\begin{equation}\label{eq:oracle}\{T_{f^{(i)}}\|\\text{score}(\bm{e}^{*(i)},\bar{\bm{e}}^{(i)})\get,\\bar{\bm{e}}^{(i)}\in\bar{\bm{E}}\}\end{equation}\subsubsection{自動評価値の差}\label{sec:bleu_diff}本節では,翻訳結果を大きく改善すると考えられる構文木を中心に選択する手法を提案する.この際に着目した指標は,翻訳器1-best訳とOracle訳の自動評価値の差である.構文解析器により誤った構文木が高い確率を持った構文森が出力された場合,翻訳器は誤った構文木を選択し,誤った翻訳を1-best訳として出力することが多い.一方,Oracle訳では構文森の中から正しい構文木が使われた可能性が高い.そのため,翻訳器1-best訳とOracle訳の自動評価値の差が大きい場合,Oracle訳に使われた構文木を学習データとして使用することで,構文解析器が出力する確率が正しい値へ改善される可能性がある.これにより,自己学習した構文解析器を用いた翻訳システムは正しい訳を1-best訳として出力するようになり,翻訳精度が向上すると考えられる.文を選択するために,翻訳器1-best訳$\hat{\bm{e}}^{(i)}$とOracle訳$\bar{\bm{e}}^{(i)}$の自動評価値の差を表す関数$\text{gain}(\bar{\bm{e}}^{(i)},\hat{\bm{e}}^{(i)})$を定義し,式(\ref{eq:oracle})と同様に,自動評価値の差が大きい文の構文木を選択する.自動評価値の差を表す関数$\text{gain}(\bar{\bm{e}}^{(i)},\hat{\bm{e}}^{(i)})$は下記のように定義される.\begin{equation}\text{gain}(\bar{\bm{e}}^{(i)},\hat{\bm{e}}^{(i)})=\text{score}(\bm{e}^{*(i)},\bar{\bm{e}}^{(i)})-\text{score}(\bm{e}^{*(i)},\hat{\bm{e}}^{(i)})\end{equation}本手法ではこれに加えて,学習に用いる文の長さの分布をコーパス全体と同様に保つため,Gasc{\'o}ら\cite{gasco2012does}によって提案された下記の式を用いて,文の長さに応じて選択数を調節する\footnote{自動評価値の差を基準に文を選択する手法では,文の長さの分布を考慮しない場合,短い文のみを選択する傾向があり,自己学習が正しく行えないことを予備実験で確認した.これは,短い文の場合,文が少し変わっただけでも自動評価値が大幅に上昇してしまうことが原因である.}.以下の式では,$|\bm{e}|$は目的言語文$\bm{e}$の長さ,$|\bm{f}|$は原言語文$\bm{f}$の長さ,$N_{c}(|\bm{e}|+|\bm{f}|)$はコーパス全体で目的言語文,原言語文の長さの和が$|\bm{e}|+|\bm{f}|$となる文の数,$N_{c}$はコーパス全体の文数を表す.\begin{equation}\label{eq:length_1}p(|\bm{e}|+|\bm{f}|)=\frac{N_{c}(|\bm{e}|+|\bm{f}|)}{N_{c}}.\end{equation}$N_{t}$を自己学習データ全体の文数とすると,自己学習データの内,目的言語文,原言語文の長さの和が$|\bm{e}|+|\bm{f}|$となる文数$N_{t}(|\bm{e}|+|\bm{f}|)$は下記の式で表される.\begin{equation}\label{eq:length_2}N_{t}(|\bm{e}|+|\bm{f}|)=p(|\bm{e}|+|\bm{f}|)N_{t}.\end{equation} \section{評価} \subsection{実験設定}\label{sec:experimental_setup}本論文では,\pagebreak日本語の構文解析器を用いる日英・日中翻訳(それぞれJa-En,Ja-Zhと略す)を対象に実験を行った.翻訳データとして,科学論文を抜粋した対訳コーパスであるASPEC\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC}を用いた.ASPECに含まれる対訳文数を表\ref{tab:ASPEC}に示す\footnote{実際はASPECのJa-EnTrainセットは300万文存在する.しかし,このデータは自動的に文対応が取られたため,対応が誤っている文がある.そのため,信頼できる上位200万文のみ使用し,学習データの質を確保した.}.自己学習の効果を検証するためのベースラインシステムとして,アジア言語間での翻訳ワークショップWorkshoponAsianTranslation2014(WAT2014)\cite{nakazawa14wat}において高い精度を示した,Neubigのシステムを用いた\cite{neubig14wat}\footnote{http://github.com/neubig/wat2014}.デコーダにはTravatar\cite{neubig13travatar}を用い,F2S翻訳を行った.構文解析器には\cite{neubig14acl}で最も高い日英翻訳精度を実現したPCFG-LAモデルに基づくEgret\footnote{http://code.google.com/p/egret-parser}を用い,日本語係り受けコーパス(JDC)\cite{mori14jtb}(約7,000文)に対してTravatarの主辞ルールで係り受け構造を句構造に変換\footnote{https://github.com/neubig/travatar/blob/master/script/tree/ja-adjust-dep.pl\\https://github.com/neubig/travatar/blob/master/script/tree/ja-dep2cfg.pl}したものを用いて学習したモデルを,ベースラインの構文解析器として使用した.構文森は100-best構文木に存在するhyper-edgeのみで構成し,その他については枝刈りした\footnote{Egretは極希に構文解析に失敗し,構文木を出力しない場合がある.そのため,構文解析に失敗した文は学習データから取り除いた.}.機械翻訳の精度はBLEU\cite{papineni02bleu}とRIBES\cite{isozaki10ribes}の2つの自動評価尺度,Acceptability\cite{goto11ntcir}という人手評価尺度を用いて評価した.また,文単位の機械翻訳精度はBLEU+1\cite{lin04orange}を用いて評価した.自己学習に用いるデータは既存のモデルで使用しているJDCに加え,ASPECのトレーニングデータの中から選択されたものとした.自己学習したモデルは,テスト時にDevセット,Testセットを構文解析する際のみに使用し,TrainセットについてはJDCで学習した既存のモデルで行った.Trainセットについても自己学習したモデルで構文解析することにより,さらなる精度向上の可能性はあるが,翻訳器を学習し直すには多くの計算量が必要になってしまう.そのため,本実験ではDevセット,Testセットについてのみ自己学習したモデルで構文解析を行った.実験で得られた結果は,ブートストラップ・リサンプリング法\cite{koehn04sigtest}により統計的有意差を検証した.次節では,下記の手法を比較評価する.\begin{table}[b]\caption{ASPECに含まれる対訳文数}\label{tab:ASPEC}\input{02table01.txt}\end{table}\begin{description}\item[構文木の選択法]\mbox{}\begin{description}\item[Parser1-best]\mbox{}\\式(\ref{eq:best_tree})のように,構文解析器が出力した1-best構文木を自己学習に用いる.\item[FrontierNode1-best]\mbox{}\\\ref{sec:frontier_node}節のように,既存の構文解析器が出力した5-best構文木の中から,フロンティアノードの数が最も多くなる構文木を学習に使用する.\item[MT1-best]\mbox{}\\\ref{sec:mt_1best}節のように,構文森を翻訳器に入力し,1-best訳に使われた構文木を自己学習に使用する.\item[BLEU+11-best]\mbox{}\\\ref{sec:bleu_1best}節のように,構文森を翻訳器に入力し,翻訳器が出力した500-best訳の中から,最もBLEU+1スコアが高い訳に使われた構文木を選択し,自己学習に用いる.この際,出力される$n$-best訳は全て重複が無い文となるようにする.\end{description}\item[文の選択法]\mbox{}\begin{description}\item[Random]\mbox{}\\全トレーニングデータからランダムに文を選択する.この際ランダムに選択される文は手法毎に異ならず,同一になるようにする\footnote{大規模なコーパス全てを用いて構文解析器を学習するには多くの計算量が必要になるため,今回はランダムに抽出した文のみを使用する.}.\item[BLEU+1$\geqt$]\mbox{}\\\ref{sec:bleu_threshold}節のように,Oracle訳とその構文木の中でも,訳のBLEU+1スコアが閾値$t$を超えた文のみを自己学習に使用する.\item[BLEU+1Gain]\mbox{}\\\ref{sec:bleu_diff}節のように,Oracle訳とその構文木の中でも,翻訳器1-best訳とOracle訳のBLEU+1スコアの差が大きい文のみを自己学習に使用する.この手法では,文の長さの分布を式(\ref{eq:length_1}),(\ref{eq:length_2})に従って調節する.\end{description}\end{description}なお文をランダムに抽出する場合は,日英翻訳では全トレーニングデータの$1/20$,日中翻訳では$1/10$を抽出した.また,他の手法とほぼ同様の文数となるように,BLEU+1Gainに関しては上位10万文を抽出した.以下,\ref{sec:mt_eval}節では,自己学習した構文解析モデルを使用して翻訳を行った際の翻訳器の精度評価,\ref{sec:parser_eval}節では,構文解析器の精度評価を行う.\subsection{翻訳器の精度評価}\label{sec:mt_eval}各手法で自己学習した構文解析器を用いて,翻訳精度の変化を確認する.\ref{sec:automatic_eval}節では自動評価尺度を用いた評価結果を示し,\ref{sec:human_eval}節で人手評価による評価結果を示す.また,\ref{sec:ex_improve}節では提案手法により改善された翻訳例を示し,どのような場合に提案手法が有効かを検討する.\subsubsection{自動評価尺度による翻訳精度の評価}\label{sec:automatic_eval}日英・日中翻訳の実験結果を表\ref{tab:result}に示す.表中の短剣符は,提案手法の翻訳精度がベースラインシステムと比較して統計的に有意に高いことを示す($\dag:p<0.05,\\ddag:p<0.01$).また,表中の星印は,提案手法の翻訳精度がLiuらの手法(手法(c))と比較して統計的に有意に高いことを示す($\star:p<0.05,\\star\star:p<0.01$).表\ref{tab:result}中の(b),(c),(d),(e)の手法で自己学習に使用している文は,Egretが構文解析に失敗した場合を除いて同一である\footnote{手法(d),(e)ではEgretが解析に失敗した場合,代替の構文解析器としてJDCで学習したCkylark\cite{oda15naacldemo}を用いた.}.なお,表中の``文数''は自己学習に使用した文数を示し,既存モデルで使用しているJDCの文数は含まない.本実験では,BLEU+1を文や構文木選択を行う際の指標としたため,以降では,主にBLEUスコアに着目して分析を行う.\begin{table}[b]\caption{日英・日中翻訳の実験結果}\label{tab:result}\input{02table02.txt}\end{table}実験により,以下の3つの仮説について検証を行った.\begin{itemize}\item構文木の選択法を用いた標的自己学習(\ref{sec:tree_selection}節)は翻訳精度向上に効果があるのか\item文の選択法(\ref{sec:sentence_selection}節)は学習データ中のノイズを減らし,精度を向上させる効果があるのか\item標的自己学習したモデルは目的言語に依存するのか,多言語に渡って使用できるのか\end{itemize}\textbf{構文木の選択法による効果:}Parser1-bestの構文木を自己学習に使用する手法では,日英,日中翻訳ともにBLEUスコアの向上は見られなかった(表\ref{tab:result}(b)).FrontierNode1-bestを用いた場合,Parser1-bestを用いた手法と比較して多少の精度向上は見られたものの,ベースラインとの有意な差は見られなかった(表\ref{tab:result}(c)).また,日英翻訳でMT1-bestを自己学習に用いた手法では,Parser1-bestを用いた手法と比較すると精度は向上したもののベースラインシステムと比較すると精度は向上しなかった(表\ref{tab:result}(d)).日中翻訳では,MT1-bestを使用した手法はParser1-bestを用いた手法とほぼ同じ結果となった(表\ref{tab:result}(d)).この際に自己学習に用いられた構文木を確認したところ,正しい構文木もあるが誤った構文木も散見され,精度向上が確認できなかったのは誤った構文木が学習の妨げになったからだと考えられる.次にBLEU+11-bestを用いた手法では,Oracle訳に使われた構文木が選択されることにより,BLEUスコアが日英,日中翻訳ともに向上していることがわかる(表\ref{tab:result}(e)).特に,日中翻訳についてはベースラインより有意に精度が向上している.図\ref{fig:oracle_bleu}に,この手法で自己学習に使われたOracle訳のBLEU+1スコア分布を示す.横軸の値$x$は,$x$以上$x+0.1$未満のBLEU+1を持つ文を表しており,縦軸が該当する文の数である.この図からもわかるように,Oracle訳であってもBLEU+1スコアが低い文は多く存在する.このため,\ref{sec:sentence_selection}節の文選択を実施した.\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f5.eps}\end{center}\caption{表\ref{tab:result}手法(e)のBLEU+1スコア分布}\label{fig:oracle_bleu}\end{figure}\textbf{文の選択法による効果:}次に,BLEU+1スコアの閾値を用いた文選択手法の効果を確認する.結果から,日英翻訳,日中翻訳ともに,この手法は効果的であることがわかった(表\ref{tab:result}(f),(g),(h)).Liuらの手法(表\ref{tab:result}(c))と比較を行った場合でも,提案手法の一部では有意に高い精度が得られている.この結果から,自己学習を行う際には,精度が低いと思われる構文木を極力取り除き,精度が高いと思われる構文木のみを学習データとして使用することが重要であると言える.さらに,翻訳器1-best訳とOracle訳でBLEU+1スコアの差が大きい文のみを使用する手法でも,BLEU+1スコアの閾値を用いた手法と同程度の精度向上を達成することができた(表\ref{tab:result}(i)).\textbf{目的言語への依存性:}最後に,日英対訳文で自己学習し,日英翻訳の精度改善に貢献した構文解析器のモデルを,他の言語対である日中翻訳に使用した場合の翻訳精度の変化を検証した.興味深いことに,この場合でも直接日中対訳文で自己学習したモデルとほぼ同程度の翻訳精度の改善が見られた(表\ref{tab:result}(j)).これにより,学習されたモデルの目的言語に対する依存性はさほど強くなく複数の目的言語のデータを合わせて学習データとすることで,さらに効果的な自己学習が行える可能性があることが示唆された.\subsubsection{人手による翻訳精度の評価}\label{sec:human_eval}提案手法によりBLEUスコアは改善されたが,自動評価尺度は完璧ではなく,実際にどの程度の質で翻訳できたか明確に判断することは難しい.そのため,人手評価による翻訳精度の評価を行い,実際にどの程度翻訳の質が改善されたかを確認した.評価基準は,意味伝達と訳の自然性を両方加味するAcceptability\cite{goto11ntcir}とした.本研究と関わりが無いプロの翻訳者に各翻訳文に対し評価基準を基に5段階のスコアをつけてもらい,これらの平均を評価値とする.評価は日英翻訳システムを対象とし,Testセットからランダムで抽出した200文について評価を行った.各システムの評価結果を表\ref{tab:human_eval_result}に示す.既存の自己学習手法で学習したモデルでは,ベースラインシステムと比較して有意な翻訳精度向上は確認できなかった(表\ref{tab:human_eval_result}(b)).一方,提案手法で自己学習したモデルでは,ベースラインシステムより有意に良い翻訳精度が実現できており,かつ既存の自己学習手法と比較しても$p<0.1$水準ではあるが精度が向上している(表\ref{tab:human_eval_result}(c)).このように,自動評価尺度だけでなく,人手評価でも提案手法で自己学習したモデルを用いることにより,有意に翻訳精度が向上することが確認できた.\begin{table}[b]\caption{人手による日英翻訳精度の評価}\label{tab:human_eval_result}\input{02table03.txt}\end{table}\subsubsection{自己学習による訳出改善の例}\label{sec:ex_improve}構文解析器の自己学習によって改善された日英訳の例を表\ref{tab:ex_better_trans}に示す.また,表\ref{tab:ex_better_trans}の訳出の際に使用された構文木を図\ref{fig:selftrain_tree}に示す.この文では,「C投与群」と「Rの活動」という名詞句が含まれている.ベースラインシステムの構文木は,これらの名詞句を正しく解析できておらず,この構文解析誤りが翻訳結果にも悪影響を与えてしまっている.一方,提案手法で自己学習したシステムでは,これらの名詞句を正しく解析できており,翻訳も正しく行われている.これはMcCloskyら\cite{mcclosky08coling}が報告していたように,既存モデルで使用しているJDCで既知の単語が,ASPECで異なる文脈で現れた際に解析精度が向上した結果であると考えられる.\begin{table}[t]\caption{日英翻訳における訳出改善例}\label{tab:ex_better_trans}\input{02table04.txt}\vspace{0.5\Cvs}\end{table}\begin{figure}[t]\begin{center}\includegraphics{23-4ia2f6.eps}\end{center}\caption{自己学習により構文解析の精度が改善した例}\label{fig:selftrain_tree}\end{figure}\subsection{構文解析器の精度評価}\label{sec:parser_eval}次に,提案手法により自己学習した構文解析器自体の精度を測定した.ASPECに含まれる日英対訳データの内,Testセット中の100文を人手でアノテーションを行い,正解構文木を作成した.その後,各構文解析器の精度をEvalb\footnote{http://nlp.cs.nyu.edu/evalb}を用いて測定した.評価には,再現率,適合率,およびそれぞれの調和平均であるF値を用いる.表\ref{tab:parser_result}に構文解析器の精度評価結果を示す.\begin{table}[t]\caption{自己学習した日本語構文解析器の精度}\label{tab:parser_result}\input{02table05.txt}\end{table}表からもわかるように,Parser1-bestを用いて自己学習したモデルはベースラインシステムと比較して$p<0.05$水準で有意に精度が向上している.これに加えて,FrontierNode1-bestを用いた手法や提案手法で自己学習したモデルは$p<0.01$水準で有意に精度が向上している.これらの結果から,提案手法は機械翻訳の精度だけでなく,構文解析器自体の精度もより向上させることがわかった.よって,本手法は構文解析器を分野適応させる場合においても有効であるといえる.\subsection{翻訳器の精度が低い場合の自己学習効果}提案手法では,翻訳結果を用いて間接的に構文木を評価し構文解析器を改良する.そのため,使用する翻訳器の精度によっては十分な学習効果が得られない可能性がある.本節では,精度が低い翻訳器を使用し構文解析器の自己学習を行い,翻訳精度と自己学習効果の依存性について検討する.なお本実験では日英翻訳のみを対象として実験を行った.\subsubsection{実験設定}200万文使用していた学習データを25万文に制限し,低精度の翻訳器を新たに作成した.使用した対訳文数,および翻訳精度を表\ref{tab:low_accuracy_decoder}に示す.学習データが減ったことにより,以前のシステムと比較してBLEU,RIBESともに低下している.これ以外の条件は全て\ref{sec:experimental_setup}節と同一である.なお,\ref{sec:mt_eval}節の実験結果との比較のために,自己学習後の翻訳精度評価には200万文を使用して学習したシステムを用いる.\begin{table}[t]\caption{使用した対訳文数と翻訳精度}\label{tab:low_accuracy_decoder}\input{02table06.txt}\end{table}\subsubsection{実験結果,考察}低精度翻訳器を自己学習時に使用し,自己学習した構文解析器を用いて翻訳器を構築しその精度を測定した.この実験結果を表\ref{tab:result_low_accuracy}に示す.また,構文解析器自体の精度も\ref{sec:parser_eval}節と同様に測定した.測定結果を表\ref{tab:parser_result_low_accuracy}に示す.\begin{table}[t]\caption{日英翻訳の実験結果(低精度の翻訳器を用いて自己学習を行った場合)}\label{tab:result_low_accuracy}\input{02table07.txt}\end{table}\begin{table}[t]\caption{自己学習した日本語構文解析器の精度(低精度の翻訳器を用いて自己学習を行った場合)}\label{tab:parser_result_low_accuracy}\input{02table08.txt}\end{table}結果は,低精度翻訳器を使用した場合でも,以前の高精度翻訳器を使用して自己学習を行った場合(表\ref{tab:result_low_accuracy}(b))と遜色ない自己学習効果が得られた.構文解析器の精度自体も,高精度翻訳器を用いた場合(表\ref{tab:parser_result_low_accuracy}(b))と大きな差は無いことがわかった.これらの結果から,提案手法は既存翻訳器の翻訳精度に依存しないことが示された.これは,翻訳器が出した500-bestの中からOracle訳を選択しており,翻訳器が低精度の場合でも500-bestの中にはある程度誤りが少ない訳が含まれているため,比較的正確な構文木が選択できたからだと考えられる.そのため,$n$-bestの$n$を変えるとこの結果は多少変化する可能性がある.\subsection{自己学習を繰り返し行った場合の効果}構文解析器の自己学習では,1回自己学習を行った構文解析器をベースラインとして使用し2回目の自己学習を行うことで,さらなる精度向上が期待できる.本節では,自己学習を繰り返し行うことで,翻訳精度および構文解析精度にどのような影響が及ぶかを検証する.なお本実験では日英翻訳のみを対象として実験を行った.本実験では,1回自己学習を行ったものの構文解析モデルとして,表\ref{tab:result}中の(g)のモデルを用いる.その他の実験設定は\ref{sec:experimental_setup}節と同一である.自己学習を2回行った構文解析モデルを使用して翻訳精度を測定した結果を表\ref{tab:result_iterate_accuracy}に示す.また,構文解析器の精度自体も\ref{sec:parser_eval}節と同様に測定した.測定結果を表\ref{tab:parser_result_iterate_accuracy}に示す.\begin{table}[t]\caption{日英翻訳の実験結果(2回の繰り返し学習)}\label{tab:result_iterate_accuracy}\input{02table09.txt}\end{table}\begin{table}[t]\caption{自己学習した日本語構文解析器の精度(2回の繰り返し学習)}\label{tab:parser_result_iterate_accuracy}\input{02table10.txt}\end{table}実験より,2回の繰り返し学習を行っても,1度のみの場合と比較して翻訳精度,構文解析精度ともに向上は見られなかった.これは,学習時に500-bestの中からOracle訳を選択しているため,1度目でも既にある程度精度の高い構文木が選ばれていたことが原因として考えられる.また,スコアを基に学習データを制限しているため,2度目の学習時に改善された構文木であっても,翻訳結果がスコアの制限を満たさず学習データとして使われなかった可能性がある.そのため,本手法では繰り返し学習の効果は薄いと考えられる. \section{おわりに} 本論文では,統語ベース翻訳で用いられる構文解析器の標的自己学習手法を提案し,これによりF2S翻訳および構文解析の精度が向上することを検証した.具体的には,日英,日中翻訳を対象に実験を行い,本手法で標的自己学習した構文解析器を用いることで,ベースラインシステムと比較して有意に高精度な翻訳結果を得られるようになったことが確認できた.また,日英で自己学習した構文解析器のモデルを,日中の翻訳の際に用いても同様に精度が向上することが確認できた.日英翻訳については訳の人手評価も実施し,人手評価においても有意に翻訳精度の改善が見られた.さらに,提案手法では翻訳精度だけでなく,構文解析の精度自体も向上することを実験により検証した.また,既存翻訳器の精度が十分でない場合でもこの手法は適用可能であることを確認した.本手法の繰り返し適用に関する検討も行ったが,本手法では繰り返し学習の効果は薄いと考えられる.今後の課題としては,さらに多くの言語対で提案手法が適用可能であることを確認することが挙げられる.また,自己学習による効果は目的言語によらないという可能性が示唆されたため,実際に多言語で学習データを集めて適用することで,より翻訳精度および構文解析精度を向上させることが期待される.さらに,対訳コーパスに対して他の複数の構文解析器を用いて解析し,それらの解析結果が一致している文を正解とみなして構文解析器の学習に使用するtri-trainingとの比較についても検討を行いたいと考えている.\acknowledgment本論文の一部は,JSPS科研費25730136および24240032の助成を受け実施したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Charniak}{Charniak}{1997}]{Charniak97}Charniak,E.\BBOP1997\BBCP.\newblock\BBOQStatisticalParsingwithaContext-FreeGrammarandWordStatistics.\BBCQ\\newblockIn{\BemProceedingsofAAAI},\mbox{\BPGS\598--603}.\bibitem[\protect\BCAY{Galley,Graehl,Knight,Marcu,DeNeefe,Wang,\BBA\Thayer}{Galleyet~al.}{2006}]{galley06syntaxmt}Galley,M.,Graehl,J.,Knight,K.,Marcu,D.,DeNeefe,S.,Wang,W.,\BBA\Thayer,I.\BBOP2006\BBCP.\newblock\BBOQScalableInferenceandTrainingofContext-RichSyntacticTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\961--968}.\bibitem[\protect\BCAY{Gasc{\'{o}},Rocha,Sanchis-Trilles,Andr{\'{e}}s-Ferrer,\BBA\Casacuberta}{Gasc{\'{o}}et~al.}{2012}]{gasco2012does}Gasc{\'{o}},G.,Rocha,M.-A.,Sanchis-Trilles,G.,Andr{\'{e}}s-Ferrer,J.,\BBA\Casacuberta,F.\BBOP2012\BBCP.\newblock\BBOQDoesMoreDataAlwaysYieldBetterTranslations?\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\152--161}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{goto11ntcir}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR},\lowercase{\BVOL}~9,\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Huang\BBA\Harper}{Huang\BBA\Harper}{2009}]{huang2009self}Huang,Z.\BBACOMMA\\BBA\Harper,M.\BBOP2009\BBCP.\newblock\BBOQSelf-TrainingPCFGGrammarswithLatentAnnotationsAcrossLanguages.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\832--841}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{isozaki10ribes}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\944--952}.\bibitem[\protect\BCAY{Katz-Brown,Petrov,McDonald,Och,Talbot,Ichikawa,Seno,\BBA\Kazawa}{Katz-Brownet~al.}{2011}]{katzbrown11targetedselftraining}Katz-Brown,J.,Petrov,S.,McDonald,R.,Och,F.,Talbot,D.,Ichikawa,H.,Seno,M.,\BBA\Kazawa,H.\BBOP2011\BBCP.\newblock\BBOQTrainingaParserforMachineTranslationReordering.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\183--192}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04sigtest}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03phrasebased}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsofHLT},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{lin04orange}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQOrange:AMethodforEvaluatingAutomaticEvaluationMetricsforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\501--507}.\bibitem[\protect\BCAY{Liu,Li,Li,\BBA\Zhou}{Liuet~al.}{2012}]{liu12emnlp}Liu,S.,Li,C.-H.,Li,M.,\BBA\Zhou,M.\BBOP2012\BBCP.\newblock\BBOQRe-trainingMonolingualParserBilinguallyforSyntacticSMT.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\854--862}.\bibitem[\protect\BCAY{Liu,Liu,\BBA\Lin}{Liuet~al.}{2006}]{liu06treetostring}Liu,Y.,Liu,Q.,\BBA\Lin,S.\BBOP2006\BBCP.\newblock\BBOQTree-to-StringAlignmentTemplateforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Marcus,Marcinkiewicz,\BBA\Santorini}{Marcuset~al.}{1993}]{marcus93penntreebank}Marcus,M.~P.,Marcinkiewicz,M.~A.,\BBA\Santorini,B.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofEnglish:ThePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2006}]{mcclosky2006effective}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2006\BBCP.\newblock\BBOQEffectiveSelf-trainingforParsing.\BBCQ\\newblockIn{\BemProceedingsofHLT},\mbox{\BPGS\152--159}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2008}]{mcclosky08coling}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2008\BBCP.\newblock\BBOQWhenisSelf-trainingEffectiveforParsing?\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\561--568}.\bibitem[\protect\BCAY{Mi\BBA\Huang}{Mi\BBA\Huang}{2008}]{mi08forestrule}Mi,H.\BBACOMMA\\BBA\Huang,L.\BBOP2008\BBCP.\newblock\BBOQForest-basedTranslationRuleExtraction.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\206--214}.\bibitem[\protect\BCAY{Mori,Ogura,\BBA\Sasada}{Moriet~al.}{2014}]{mori14jtb}Mori,S.,Ogura,H.,\BBA\Sasada,T.\BBOP2014\BBCP.\newblock\BBOQAJapaneseWordDependencyCorpus.\BBCQ\\newblockIn{\BemProceedingsofLREC},\mbox{\BPGS\753--758}.\bibitem[\protect\BCAY{Morishita,Akabe,Hatakoshi,Neubig,Yoshino,\BBA\Nakamura}{Morishitaet~al.}{2015}]{morishita15iwslt}Morishita,M.,Akabe,K.,Hatakoshi,Y.,Neubig,G.,Yoshino,K.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQParserSelf-TrainingforSyntax-BasedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofIWSLT},\mbox{\BPGS\232--239}.\bibitem[\protect\BCAY{Nakazawa,Mino,Goto,Kurohashi,\BBA\Sumita}{Nakazawaet~al.}{2014}]{nakazawa14wat}Nakazawa,T.,Mino,H.,Goto,I.,Kurohashi,S.,\BBA\Sumita,E.\BBOP2014\BBCP.\newblock\BBOQOverviewofthe1stWorkshoponAsianTranslation.\BBCQ\\newblockIn{\BemProceedingsofWAT},\mbox{\BPGS\1--19}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsofACLDemoTrack},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2014}]{neubig14wat}Neubig,G.\BBOP2014\BBCP.\newblock\BBOQForest-to-StringSMTforAsianLanguageTranslation:NAISTatWAT2014.\BBCQ\\newblockIn{\BemProceedingsofWAT},\mbox{\BPGS\20--25}.\bibitem[\protect\BCAY{Neubig\BBA\Duh}{Neubig\BBA\Duh}{2014}]{neubig14acl}Neubig,G.\BBACOMMA\\BBA\Duh,K.\BBOP2014\BBCP.\newblock\BBOQOntheElementsofanAccurateTree-to-StringMachineTranslationSystem.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\143--149}.\bibitem[\protect\BCAY{Oda,Neubig,Sakti,Toda,\BBA\Nakamura}{Odaet~al.}{2015}]{oda15naacldemo}Oda,Y.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQCkylark:AMoreRobustPCFG-LAParser.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\41--45}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Yamada\BBA\Knight}{Yamada\BBA\Knight}{2001}]{yamada01syntaxmt}Yamada,K.\BBACOMMA\\BBA\Knight,K.\BBOP2001\BBCP.\newblock\BBOQASyntax-basedStatisticalTranslationModel.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\523--530}.\bibitem[\protect\BCAY{Zhang\BBA\Chiang}{Zhang\BBA\Chiang}{2012}]{zhang12helporhurt}Zhang,H.\BBACOMMA\\BBA\Chiang,D.\BBOP2012\BBCP.\newblock\BBOQAnExplorationofForest-to-StringTranslation:DoesTranslationHelporHurtParsing?\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\317--321}.\end{thebibliography}\begin{biography}\bioauthor{森下睦}{2015年同志社大学理工学部インテリジェント情報工学科中途退学(大学院への飛び入学のため).現在,奈良先端科学技術大学院大学情報科学研究科博士前期課程在籍.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{赤部晃一}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{波多腰優斗}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,セイコーエプソン株式会社にて勤務.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同博士後期課程修了.同年日本学術振興会特別研究員(PD).2015年より奈良先端科学技術大学院大学情報科学研究科特任助教.京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞受賞.IEEE,ACL,情報処理学会,言語処理学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学電子卒.京都大学博士(工学).シャープ株式会社.奈良先端大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.ISCA理事,IEEESLTC委員,IEEEフェロー.}\end{biography}\biodate\end{document}
V08N01-04
\section{はじめに} 情報検索の分野は,欧米において過去数十年の間に,英語を中心とした文書を対象に研究が盛んに進められ,高速な文字列検索アルゴリズムや自動索引づけなどに多くの成果が得られた.これらの技術が基礎となり,大規模な文書集合に対する検索技術,新しい評価技術の向上を目的として,TREC(TextREtrievalConference)\footnote{TRECワークショップホームページ:http://trec.nist.gov}などのコンテストが開催され,新しい技術の開発やこれまでの技術の改良などが活発に行われている.日本においても,情報抽出,検索技術に関する研究が盛んに行われ,数多くの優れた日本語情報検索システムが提案されている.このようなシステムを評価するための日本語テストコレクションの整備も進み\cite{kitani},個々の検索システムを容易に評価できるようになった.さらに,共通のデータベース,プラットフォームにおけるシステム評価の場として,IREX(InformationRetrievalandExtractionExercise)ワークショップ\footnote{IREXワークショップホームページ:http://cs.nyu.edu/cs/projects/proteus/irex/}が開催された.このワークショップには,情報検索(IR)と情報抽出(NE)の各課題に対して数多くのシステムが参加し,全体的な評価を通して様々な議論が行われた.IREXの目標のひとつとして,共通の基準における各検索システムの評価を基にした問題点の共有と,それによるこの分野の飛躍的な進歩,発展がある\cite{sekine99}.一般的に,情報検索システムの性能評価をする際には,提案された手法を利用したシステムと利用していないシステムとの比較を行う.比較する際,一つのシステムからみると,参加した数多くのシステムにおける評価結果の違いから,研究の新しい方向性や発展性が発見できる.しかし,IREXでは,数多くのシステムが参加しているため,ふたつのシステム間の比較実験では実験回数が莫大となり,共通点,相違点の整理が複雑になってしまう.また,他の比較手法として,使用されたシステムとは別の基準システムを作り,比較を行う手法も提案されている\cite{Hull93}.しかし,その場合,システム間の相違点が多くなり,直接的に何が精度向上の原因であるのかをとらえることが難しくなる.したがって,すべての検索システムを対象として,システムの構成要素を評価すると同時に,全体的なシステムの検索精度を評価するようなシステム指向の評価方法が必要となる.このような全体的な評価は,問題点を発見,解決するための議論を進める上で重要な課題であると考えられ,TRECやIREXでは様々な評価が行われている\cite{Lagergren98}\cite{Voorhees98SIGIR}\cite{Matuo99}.本論文では,IREXにおけるIR課題の本試験の結果,および参加した各システムについての,参加者が回答したアンケート結果を参考にして,IR課題におけるシステムの特徴と精度の関連性を独自の統計的な手法を用いて分析する.これまでは,手法を利用したシステムと利用していないシステムとの実験結果を比較することによって,その手法の有効性が評価されていた.これに対し,我々の提案する評価手法は,数多くのシステムにおける検索結果を基にして,システムに用いられた手法との関連性を客観的な相関係数として表し,検索システムに対し有効な手法を明確にしている.このような検索システムに対し有効な手法を示す評価は,これまでTREC7においても行われているが,比較に用いられたすべてのシステムで再現率・適合率曲線の違いがほとんど無い条件の下で行われている\cite{Voorhees98}.この条件において,比較に用いたシステムが利用した手法が示されているが,客観的にその手法が有効かどうかの判断は難しい.その点で,我々の評価手法はどのような再現率・適合率曲線に対しても客観的に有効な手法を示すことができる.さらに,我々の評価手法は,検索結果でのランクの上位に,関連のある文書を数多く検索するための有効な手法を示すことができる.この分析においては,IRシステムのアンケートの中でシステムの性能に大きく影響する次の3点\begin{itemize}\item索引づけ,索引構造\item検索式の生成\item検索モデル,ランクづけ\end{itemize}に注目して,これらの要素を実現するために用いられた手法が検索精度とどの程度関連があるのかを調査する.IREXでは,検索課題\footnote{検索課題の例としては,以下のようなものがある.\\$<$TOPIC$>$\\$<$TOPIC-ID$>$1001$<$/TOPIC-ID$>$\\$<$DESCRIPTION$>$企業合併$<$/DESCRIPTION$>$\\$<$NARRATIVE$>$記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。$<$/NARRATIVE$>$\\$<$/TOPIC$>$}に,検索要求を簡潔に表現したDESCRIPTIONタグと,人間が判断可能な程度の詳細な検索要求の記述をしたNARRATIVEタグが用いられている.通常,WWWサイトなどに存在する検索エンジンに入力される索引語の数は2,3語と少ないために,DESCRIPTIONタグのみを検索実験に考慮する方が実用的である.しかし,DESCRIPTIONタグのみを利用した場合には曖昧さが生じてしまい,人間が可能な限り正確に検索できるという点においては,詳細に書かれているNARRATIVEタグの方が重要な情報であるといえる.実際,TRECなどにおいても,このような検索要求の長さに対する精度への影響が議論され,NARRATIVEタグの使用による精度の違いが分析されている\cite{Voorhees97}\cite{Voorhees98}\cite{Hull96}.このようなことから,IREXにおいても,検索式を作成する際のNARRATIVEタグの使用有無により,検索システムに与える影響が変化するものと考えられる.このことを明らかにするため,検索システムにおけるNARRATIVEタグの利用有無によりshortとlongに分け,それぞれの平均適合率と相関の高いシステムの特徴を調べる.再現率・適合率曲線に対し単回帰分析を行い直線として近似した場合,その切片が大きい時,ランクの上位に適合する文書を検索できる確率が高いと考えられる.また,傾きが平行に近いほど,システムは再現率の増加とともに起こる適合率の減少を抑えることができると考えられる.そこで,検索結果を平均して得られた再現率・適合率曲線に単回帰分析を行い直線として近似し,その切片と傾きがさまざまな手法のなかでどの手法に関連性が強いのかを調べる.また,同様に,shortとlongにおける切片と傾きとの相関が高いシステムの特徴を調べる.これらを分析することにより,本試験に参加したすべてのシステムで,検索質問をshortとlongに分けたそれぞれの場合に対して,傾き,切片から総合的に,どの手法と関連性が強いかを考察する.\vspace*{-0.3cm} \section{再現率と適合率の関係} IRシステムの評価には,一般的に適合率(Precision)と再現率(Recall)が使用される\cite{lewis2}\cite{Witten}.適合率は,システムが検索した文書に対する,検索した正解文書数の割合であり,検索の能力を表している.再現率は,全正解文書数に対するシステムが検索した正解文書数の割合であり,システムがすべての適合する文書のうちどの程度実際に検索可能かという検索の幅を表している.再現率と適合率はそれぞれ個別に用いてもシステムの評価を行うことができるが,ランクづけを行う検索システムでは,一般的に再現率・適合率曲線が用いられている.\begin{figure}[t]\begin{center}\atari(110,76)\end{center}\caption{A判定のみの再現率・適合率曲線}\label{re_pre}\end{figure}IREXワークショップにおけるIR課題は,2年分の新聞記事から検索課題に書かれた検索要求に関連する文書を検索するもので,予備試験と本試験が行われた.予備試験は課題数が6課題あり,評価結果は非公開で,本試験は課題数が30課題あり,評価結果は実際の団体名が分からないように各団体をシステムIDにより表し,公開している.検索結果の判定基準にはA,B,Cの3種類あり,A判定は記事の主題が検索課題に関連している場合,B判定はA判定のように記事の主題には関連性がないが,記事の一部が関連している場合,C判定は何も関連していない場合という判断基準になっている.そのIRの本試験に参加したすべてのシステムにおける,A判定のみを正解とした検索結果を図\ref{re_pre}に示す.このグラフにおいて,一つの曲線を示す`1103a'などの文字列はシステムIDを表している.このグラフから分かるように,再現率と適合率の関係は大きく分けて2種類あると考えられる.一つ目は,適合率が再現率の増加に対し,直線的に減少する関係である.これは,ほとんどのシステムに当てはまる傾向で,特に再現率が0.0での適合率の値が高いシステムがこのようなグラフになっている.もう一つはグラフが下に凸の曲線を描くように適合率が減少する関係である.このような曲線は,検索の結果上位にランクされている文書に適合する文書が少ないため,再現率が少ない値において適合率の変動が激しくなっていると考えられる.システムについてのアンケートから,この曲線になる直接的な原因を調査したが,特にシステムに共通して用いられている手法は存在しなかった.また,多くのシステムが再現率0.0における適合率が0.7を超えており,ランク上位に適合する文書が検索される確率が高くなっている.再現率0.0における適合率の値はランク上位に適合する文書を検索できるのかを表す尺度で,高い値をもつシステムほどユーザの探している情報が検索されていると考えることができる.ランクの1位で検索された文書が適合する文書であると,その時点で再現率0.0での適合率は1.0となる.適合しない文書の場合には適合率は1.0にはならず,以降の検索結果のランクに従って適合率に大きな変動が生じる.変動の大きさはあるものの,その後適合する文書が適合しない文書に比べ数多く検索されると,適合率は高い値となる.しかし,再現率0.0での適合率の大きさには関係なく,再現率・適合率曲線のグラフは必ず単調に減少する特徴を持っている.ランクに関係なく適合する文書が連続して検索される,または適合する文書の割合が適合しない文書に比べ大きい場合には,再現率の増加に対する適合率の減少量が少なくなる.ランクの上位にいくらか適合しない文書を検索していたとしても,途中で適合する文書を連続して検索し,適合しない文書の数に比べて多くなることで,適合率の減少が少なくなり,傾きの最大値である0に近くなる.これより,適合する文書を効率良く検索するためには,グラフの減少量を少なくする必要があり,これはシステムを評価する上で重要な尺度であると考えられる.\clearpage \section{評価実験} IREXワークショップにおける,IR本試験の結果を公表する方法については,団体名を実名で公表するのではなく,各団体に割り当てられたID番号で結果を公表する方法がとられた.このため,検索結果に対してどのような手法が用いられているのか,研究的な内容を対応づけることが難しくなっている.システムの詳細を知る手段として,検索結果と同時に提出したIRシステムアンケートがある.このアンケートにより,各システムがどのような手法を利用したかが理解できるようになっている.IRシステムアンケートは,各システムについてどのような手法を用いて本試験の検索結果を出したのかを回答したものであり,主に次の項目がある.\begin{itemize}\item索引づけとそのデータ構造\item検索式の作成\item検索を実行する環境\item検索モデル\itemその他\end{itemize}これらの項目の回答を集計して,システムが用いた手法の内,主要な55個の手法に注目した.これらの手法を平均適合率などの数値と比較するために,手法の使用の有無により数値を割り当てる.本実験では,各システムが用いた手法には1を,用いていない手法については0を割り当て,数値データに変換した.このときアンケートの中で「はい」,「いいえ」で答えられない質問項目については,システムにただひとつしか用いられていない手法でもひとつの手法として数値を割り当て,システムの違いを明確に定めることにした.このように変換をしたデータに平均適合率を付け足してひとつの行列にして,用いられた手法と平均適合率との相関係数を求めた.相関とは,変数$x$,$y$において一方の変化が他方の変化にある傾向を伴うとき,$x$と$y$の間に相関関係があるという.相関には次の3種類がある.\begin{itemize}\item[]正の相関:一方の値が大きくなると,他方の値も大きくなる.\item[]負の相関:一方の値が小さくなると,他方の値も小さくなる.\item[]無相関:2つの値に明白な関係がみられない.\end{itemize}この相関を数値的に表したものに相関係数があり,2つの変数の相互関係の程度を表したものである.本実験では,相関の有無を明確にするために,相関係数の絶対値が0.5を超える手法は相関が認められるとして,システムが用いた手法に対して評価を行った.\subsection{平均適合率とシステムの関連}平均適合率とシステムとの相関係数を求めた結果,相関係数の高かった主なシステムの特徴を表\ref{pre_sys}に示す.相関係数の高い手法は,全体的に正の相関を持っているが,すべての手法に対し,相関係数の絶対値が0.5を下回っている.表\ref{pre_sys}において,相関係数の絶対値の高いLSI(LatentSemanticIndexing)やIDF(InverseDocumentFrequency)については,若干の相関は見られるものの,0.5に満たしていないため,平均適合率との間に明確な相関を認めることができなかった.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{平均適合率と相関の高い主なシステムの特徴}\centering\small\label{pre_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineLSI&0.04545&-0.49600\\IDF&0.86364&0.49341\\レレバンスフィードバック&0.22727&0.45499\\名詞&0.45455&-0.42376\\フレーズ&0.31818&0.41665\\NEGタグ&0.36364&0.40655\\ロバートソン法&0.09091&0.40427\\文書の長さ&0.45455&0.38297\\名詞以外の品詞&0.40909&-0.38053\\シソーラス&0.13636&0.33728\\DESCRIPTOINタグ&0.90909&-0.33728\\文字列形態素インデクス&0.09091&0.32822\\BM25&0.09091&0.32822\\\hline\end{tabular}\end{table}また,この表\ref{pre_sys}を見ると,DESCRIPTOINタグから索引語を抽出する手法とNEGタグなどのようにNARRATIVEタグを利用した手法が混在していることが分かる.実際に,NARRATIVEタグ自体を利用することについては,平均適合率との相関係数が$-0.03864$と低く,NARRATIVEタグは他の2つのタグに比べ,適合率との関連性が少ない結果となった.これは,NARRATIVEタグの中には比較的長い文章が存在し,検索に重要な索引語が存在するのと同時に,一般的に広い分野で使われる索引語も比較的多く存在しているため,このタグを使う際には注意が必要であると考えられる.このようなことから,IREXワークショップに参加したシステムを検索課題を簡潔に表現したDESCRIPTOINタグのみを用いたシステムと比較的長い文章が存在し,NEGタグ\footnote{NARRATIVEタグ中において,「〜を除く」などの否定的な表現を示すもの}が存在するNARRATIVEタグを同時に用いたシステムに分けて評価を行う.これにより,相関の認められる手法がより顕著に現れ,より有効な評価をすることができると考えられる.\clearpage\subsection{shortおよびlongでの平均適合率とシステムの関連}\label{slheikin}DESCRIPTIONタグのみを用い,NARRATIVEタグを利用しない場合をshort,検索課題をすべて使用した場合をlongとして,それぞれを用いたシステムにおける平均適合率と利用した手法との関連性を比較する.そのために,short,longそれぞれにおける平均適合率とシステムが用いた手法との相関係数を求め,NARRATIVEタグを利用しない場合にはどのような手法が有効であるか,また,NARRATIVEタグを利用した場合についても同様に有効な手法にどのようなものがあるかを調査する.その結果,shortを用いたシステム,longを用いたシステムの平均適合率との相関係数が高かった主なシステムの特徴を,それぞれ表\ref{sho_sys}と表\ref{lon_sys}に示す.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{shortの平均適合率と相関の高い主なシステムの特徴}\centering\small\label{sho_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineIDF&0.88888&0.64416\\LSI&0.11111&-0.64416\\フレーズ&0.55555&0.61796\\レレバンスフィードバック&0.33333&0.57326\\確率と情報量&0.33333&0.56095\\名詞&0.66667&-0.54080\\名詞以外の品詞&0.66667&-0.54080\\構文解析&0.22222&-0.43654\\NEGタグ&0.22222&0.42834\\シソーラス&0.22222&0.42834\\単語&0.77778&-0.42834\\\hline\end{tabular}\end{table}\begin{table}[t]\renewcommand{\arraystretch}{}\caption{longの平均適合率と相関の高い主なシステムの特徴}\centering\small\label{lon_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hline固有名詞&0.15385&0.74158\\ロバートソン法&0.15385&0.74158\\構文的な手がかり&0.15385&0.74158\\文書の長さ&0.46154&0.68955\\NEGタグ&0.46154&0.48372\\名詞&0.30769&-0.41387\\面の情報&0.15385&-0.41384\\IDF&0.84615&0.39269\\単語&0.61538&0.37213\\形態素解析&0.15385&-0.36284\\\hline\end{tabular}\end{table}表\ref{sho_sys}と表\ref{lon_sys}から共通して言えることは,shortとlongに分ける前の表\ref{pre_sys}と比較すると相関係数が全体的に高くなっているということである.すなわち,shortとlongに分けることによって,それぞれの検索システムに対して,平均適合率により関係深いシステムの特徴が顕著になっている.shortで平均適合率と相関が最も高かったのは,LSIとIDFである.LSIは負の相関を持ち,検索精度を下げる傾向があるため,今回の本試験での結果においては,LSIの利用や索引づけに改良が必要であった.平均適合率と直接関連のある手法に,文書の重みづけとしてはIDF,索引語には意味を限定しやすいフレーズが,共に正の相関を持ち検索精度を上げる傾向がある.フレーズを用いるとき,索引語が数多く存在しない場合があるため,レレバンスフィードバックを用いて検索式を拡張させることで,性能の良いシステムが構築できると考えられる.名詞や名詞以外という品詞情報を用いて索引づけを行う方法は,どちらも負の相関が高くなった.これは,元々索引語の数などのように情報量が少ない上に,一般的な単語まで取り出していたために,検索精度が下がる傾向があると考えられる.longで平均適合率と相関が最も高かったのは,固有名詞である.これは,NARRATIVEタグにある文章が比較的長いめ,索引づけの手法の中でも特定分野にしか出現しない語を抽出できる固有名詞の相関が高くなったと考えられる.また,ロバートソン法や構文的な手がかり,文書の長さといった文書そのものの違いや特徴を明確にする重みづけの手法も相関が高かった.shortでは平均適合率に関連性があったIDFは,longの場合,これらの手法より相関が低かった.このことより,索引語に対する重みづけ手法は関連性が低いと考えられる.表\ref{sho_sys}に見られる手法と表\ref{pre_sys}に見られる手法を比較すると,同じような手法が全体に見受けられた.すなわち,shortの場合は,一般的な検索システムの平均適合率に関連性のある手法がそのまま関連性があるということができる.longの場合は,表\ref{lon_sys}に示した相関と全体の結果とを比較すると,全体的に正の相関を持つものが多かったが,表\ref{pre_sys}では見られなかった手法が多く現れた.これらの結果から,NARRATIVEタグの使用有無によって検索システムの平均適合率に関連性のある手法が変化することが分かった.したがって,NARRATIVEタグを用いる際には,平均適合率に関連性のある,適した手法を選択する必要があると考えられる.\subsection{回帰式とシステムの関連}検索結果を平均して得られた,再現率と適合率の関係のデータを単回帰分析を用いて直線近似を行う.計算の結果,傾き(回帰係数)や切片(定数項)に対して相関の高かった手法を,それぞれ表\ref{coe_sys}と表\ref{con_sys}に示す.直線回帰を行ったときの決定係数は最大で0.99446,最小で0.69193となり,22個のシステムにおける平均が0.942と高い値となり,再現率・適合率曲線を直線で近似することが妥当であることを表している.\begin{table}[htb]\renewcommand{\arraystretch}{}\caption{回帰係数と相関の高い主なシステムの特徴}\centering\small\label{coe_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hline文書の長さ&0.45455&-0.60396\\構文解析&0.04545&-0.49385\\IDF&0.86364&-0.44741\\固有名詞(索引)&0.22727&-0.43614\\固有名詞(検索式)&0.22727&-0.36891\\単語&0.68182&-0.30771\\面の情報&0.09091&0.30267\\LSI&0.04545&0.30140\\\hline\end{tabular}\end{table}\begin{table}[htb]\renewcommand{\arraystretch}{}\caption{回帰直線の定数項と相関の高い主なシステムの特徴}\centering\small\label{con_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineIDF&0.86364&0.60051\\文書の長さ&0.45455&0.55917\\LSI&0.04545&-0.55286\\ロバートソン法&0.09091&0.44812\\NEGタグ&0.36364&0.42826\\フレーズ&0.31818&0.39632\\固有名詞(検索式)&0.22727&0.39059\\レレバンスフィードバック&0.22727&0.37556\\面の情報&0.09091&-0.36234\\照合文字列長&0.33400&-0.34285\\\hline\end{tabular}\end{table}傾きと最も相関係数の高いものは文書の長さで,相関係数が$-0.60396$と相関の認められる数値で,傾きを下げる傾向がある.これは,検索した文書数が増えるにつれて,適合する文書を検索する割合が少なくなることを表している.特に,傾き,切片共に関連が大きいIDFと文書の長さは重みづけ手法であり,文書間での違いや特徴を明確にしているため,検索システムの構築において,重みづけ手法が特に重要であると考えることができる.切片と最も相関係数の高いものはIDFで,次いで,文書の長さ,LSIとなっている.全体的に正の相関を持つ手法が多く,切片を上げる傾向がある.しかし,これらの手法には,傾きにおいて負の相関の高い手法と共通するものが多く存在している.これより,これらの手法に対して,切片の大きさと傾きの大きさにはトレードオフの関係が存在していることが分かる.\clearpage\subsection{shortおよびlongでの回帰式とシステムの関連}NARRATIVEタグの有効性,有効な利用方法について考えるため,\ref{slheikin}節と同様にshortとlongに分割し,評価を行った.傾きや切片に対して相関の高かった手法を,shortの場合をそれぞれ表\ref{coe_s_sys},表\ref{con_s_sys}に,longの場合をそれぞれ表\ref{coe_l_sys},表\ref{con_l_sys}に示す.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{shortの回帰係数と相関の高い主なシステムの特徴}\centering\small\label{coe_s_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineシソーラス&0.12500&0.75160\\LSI&0.12500&0.75160\\自動検索質問拡張&0.12500&0.75160\\IDF&0.75000&-0.74788\\フレーズ&0.37500&-0.57108\\文字列形態素インデクス&0.25000&-0.51490\\確率と情報量&0.25000&-0.51490\\BM25&0.25000&-0.51490\\\hline\end{tabular}\end{table}\begin{table}[t]\renewcommand{\arraystretch}{}\caption{shortの回帰直線の定数項と相関の高い主なシステムの特徴}\centering\small\label{con_s_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineIDF&0.75000&0.60051\\シソーラス&0.12500&0.55917\\LSI&0.12500&-0.55286\\自動検索質問拡張&0.12500&0.44812\\文字列形態素インデクス&0.25000&0.42826\\確率と情報量&0.25000&0.39632\\BM25&0.25000&0.39059\\\hline\end{tabular}\end{table}\subsubsection*{shortにおける関連性}shortの場合,傾きと最も相関係数の高い手法は,シソーラス,LSI,自動検索質問拡張で,これら3つは等しい値で,正の高い相関を持つ.しかし,全体的には負の相関を持つ手法が多く,傾きを下げる傾向がある.shortでは情報が少ないために,索引づけされた語をあらかじめ準備した知識集合であるシソーラスで拡張することにより,傾きを上げる高い正の相関が得られたものと考えられる.さらに,LSI,フレーズ,自動検索質問拡張,文字列形態素インデクスもシソーラスと同様に索引づけの手法で,相関係数は比較的高い値になっている.このことから,検索に有効な索引語の選択やLSIによる意味的な表現形式を得る手法が,傾きに深く関わっているといえる.また,切片と最も相関係数の高い手法はIDFで,次いで,シソーラス,LSIとなっている.こちらは,全体的に正の相関を持つものが多く,切片を上げる傾向がある.傾きとの相関の高い手法と共通するものが多く,切片でも索引づけの手法が深く関連しているといえる.シソーラスや自動検索質問拡張は傾き,切片ともに正の相関係数を持ち,shortの場合,シソーラスが切片と傾きに最も関連の深い手法だと考えられる.しかし,LSI,IDFなどは,傾きでは正の相関,切片では負の相関を持っているために,ここでも傾きと切片の間にトレードオフの関係が存在することが分かる.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{longの回帰係数と相関の高い主なシステムの特徴}\centering\small\label{coe_l_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineベクトル&0.14285&-0.60621\\文書の長さ&0.14285&-0.60621\\索引語の長さ&0.14285&0.59558\\IDF&0.42857&-0.58837\\フレーズ&0.28571&-0.47094\\インデクス(ベクトル)&0.92857&0.38171\\TF&0.07142&-0.38171\\構文的な手がかり&0.07142&-0.38171\\\hline\end{tabular}\end{table}\begin{table}[t]\renewcommand{\arraystretch}{}\caption{longの回帰直線の定数項と相関の高い主なシステムの特徴}\centering\small\label{con_l_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineフレーズ&0.28571&0.75913\\ベクトル&0.14285&0.62619\\文書の長さ&0.14285&0.62619\\索引語の長さ&0.14285&-0.60014\\NEGタグ&0.57142&0.52856\\IDF&0.42857&0.49117\\名詞&0.28571&-0.46559\\n-gram&0.28571&0.36211\\\hline\end{tabular}\end{table}\subsubsection*{longにおける関連性}longの場合,傾きと最も相関係数の高い手法は,ベクトル,文書の長さで,次いで索引語の長さとなる.shortと同様に,全体的に負の相関を持つ手法が多く,ベクトルなどは傾きを下げる傾向がある.また,検索要求全体における傾き,切片と同様に,文書の長さ,索引語の長さ,IDFなどの重みづけ手法が深く関わっていることが分かる.さらに,ベクトルは文書または検索要求全体を用いた手法であるため,longを扱う際の索引語の増加に従って,関連性がより顕著に現れたと考えられる.切片と最も相関係数の高い手法はフレーズで,次いで,ベクトルと文書の長さが高い相関を持っている.short同様,正の相関を持つものが多く,切片を上げる傾向がみられるが,これらのほとんどは重みづけの手法である.しかし,これらの手法は,傾きと負の相関の高い手法と多数共通しているため,longにおいてもトレードオフの関係が存在していることが明らかになった.また,検索要求の長いlongの場合,正の相関が高いNEGタグは,傾きとの相関係数が低く,切片との相関係数は高い.したがって,NEGタグの利用は,ランクの上位に適合する文書を検索する有効な手段であると考えることができる. \section{まとめ} 本論文では,IREXワークショップにおけるIRの本試験の結果,および,参加したすべてのIRシステムについてのアンケートを基に,平均適合率,再現率・適合率曲線を直線回帰させた傾きと切片がIRシステムに用いられた手法とどのような相関関係をもっているのかを調査し,それぞれの手法がシステムの性能に与える影響の大きさを示した.その結果,名詞や名詞以外の品詞単語を用いる以上にフレーズが性能向上に関係あり,複数の単語を組み合わせることで意味が限定され,精度に良い影響を与えることを確認することができた.また,再現率・適合率曲線の切片と傾きにトレードオフの関係が多くの手法に見られ,検索システムに用いる手法の選択の難しさが現れる結果となった.さらに,NARRATIVEタグの使用有無によりshortとlongに分け,平均適合率との相関関係,また,再現率・適合率曲線を直線回帰させた傾きと切片にそれぞれどのような相関関係があるかを調査し,システムの性能に与える影響の大きさを示した.その結果,分ける前と比較して,全体的に相関が高くなり,関連が大きいシステムの特徴が顕著に現れるようになった.また,NARRATIVEタグを利用する場合,それに適した有効な手法を選択することが重要であることが分かった.shortでは,分ける前と比較して,索引語そのものに対する索引づけの手法への関連性がより顕著に現れた.その中でも,シソーラスや自動検索質問拡張は検索性能を上げる関連の深い手法であった.一方,longでは文書全体に対する重みづけの手法が性能向上に関係があった.形態素解析やそれにより抽出される名詞単語を用いるよりも,フレーズや固有名詞などを用いる方が性能向上に関連が深く,より要求する意味が明確になっている.このことは形態素解析により索引語を選択する難しさを表現し,形態素から索引語をより有効的に選択する手法が必要であることを示している.最後に,情報検索システムの用いる手法の選択の難しさを克服するため,本論文におけるデータが今後の研究開発で広く利用され,情報検索システムの分野の進歩と発展につながることを期待したい.\subsection*{謝辞}本論文をまとめる機会を与えてくださり,有用なデータを提供して下さったIREX実行委員の方々,及び,IREX-IRの本試験に参加した方々と判定者の方々に心から感謝したい.\bibliographystyle{jnlpbbl}\bibliography{sankou}\begin{biography}\biotitle{略歴}\bioauthor{佐々木稔}{1973年生.1996年徳島大学工学部知能情報工学科卒業.1998年徳島大学大学院博士前期課程修了.同年,徳島大学大学院博士後期課程入学,現在に至る.機械学習,情報検索等の研究に従事.情報処理学会会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同教授.工学博士.確率・統計的自然言語処理,情報検索等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N02-02
\section{はじめに} アンケート調査は,さまざまな社会的問題を解決するために,問題解決に関連する人々あるいは組織に対して同じ質問を行い,質問に対する回答としてデータを収集・解析することによって,問題解決に役立つ情報を引き出していくという一連のプロセスである\cite{arima:87}.質問に対する回答には選択型と自由記述型があるが,一般には回答収集後の解析のコストを避けるために,選択型のアンケートを行うことが多い.したがって,従来は選択型アンケートを行うための予備調査として小規模に実施する,あるいは選択型アンケートの中で調査者が想定できなかった選択項目,例えば選択肢以外の「その他」に相当する回答と位置付けられていた.しかし,近年,インターネットの普及やパブリック・インボルブメントに対する関心の高まりから,想定できる意見を選んでもらうのではなく,回答者の自由な個々の意見を聞くことが重視されている.その結果,自由回答が選択型アンケートと同様に大規模に実施されるようになってきている\cite{voice_report:96}.また,狭義にはアンケート調査によって得られる自由回答とは異なるが,企業のホームページの掲示板やコールセンターなどに寄せられる消費者のメールや意見,地方自治体や政府のホームページに集まる住民からのメールは,自由回答同様に意見集約の対象とみなすことができる\cite{nasukawa:01,yanase:02}.われわれは,これらの意見も自由回答と同様に扱えると考えている.アンケートの自由回答は,このように交通計画や都市計画の分野をはじめ\cite{suga:97,matsuda:98,takata:00},テレビ番組に対する視聴者の印象\cite{hitachi:00}などマーケティング・リサーチ対象としても注目されている.自由回答の解析は,回答の内容にしたがった人手による分類作業(コーディング)と因子分析などによる解析を軸に行われる.コーディングの際に広く一般的に用いられるKJ法は,回答を一件ずつ読んで類似する内容の回答ごとにグルーピングするため,大量のアンケート結果に対しては多大なコストがかかる.作業コストの大きさに加え分類時の判断の主観性についても懸念されている.また,回答を回収しても,解析されないまま終わることが多いことも指摘されている\cite{arima:87}.本研究のねらいは,これらのコーディングの過程にテキスト処理の技術を取り入れることにより,人手作業のコストを軽減し,意見集約の対象データとして,自由回答に記述された意見を活用することである.テキストからの情報抽出や,要約・自動分類などの要素技術が蓄積されてきている言語処理技術を用いれば上記の問題を解決できる可能性がある.テキスト分類は,分類カテゴリを検索質問とみなした場合,情報検索と同じ問題と考えることができる.したがって,テキストと分類カテゴリの類似度計算,テキストに対してもっとも類似しているカテゴリの付与といった自動分類の基本的な手続きにおいて,ベクトル空間モデルを用いた場合\cite{salton:88},確率モデルを用いた場合\cite{robertson:76,iwayama:94},規則に基づくモデルを用いた場合\cite{apte:94}など情報検索の基礎技術を利用できる.言語処理におけるテキスト分類では,新聞記事テキストが対象になることが多い.新聞を対象とする分類の場合,多岐に渡る内容を類似する記事ごとにまとめることが目的となる.新聞記事全体を対象にする場合には経済・社会・政治・スポーツなどの分野に,それらの各分野を対象とする場合には,さらに詳細化した内容に分類される.アンケート調査の自由回答テキストは一般に,上記に挙げた新聞の分野に基づく分類項目よりも,さらに分野に特化したテーマにおいて,そのテーマに対する様々な意見や提案が述べられている\cite{voice_report:96}.同じ設問に対する回答であっても,内容語が必ずしも一定でなく,また,先に述べたとおり設問に対して回答者がどのような意見を持っているのかといった回答者の意図が重要になってくる.しかし,従来の自由回答テキストの処理では,分析・分類対象を表す特徴的キーワードによる研究が主である\cite{suga:97,oosumi:97,li:01}.尚,「意図」という用語については,さまざまな分野で異なった定義がなされている.言語行為論のように発話(回答)の意味を聞き手に対して命令や謝罪といった意図を話者が伝えようとする行為と捉える立場もある\cite{searle:69}.統語論では「表現意図を言語主体が文全体にこめるところの,いわゆる命令・質問・叙述・応答などの内容のこと」と定義され,文の表現形式と対応させている\cite{kokken:60}.また,人工知能や言語処理において対話理解の手法であるプラン認識では,意図は信念と同様話者の心的状態であり,信念と欲求から作られる,「何かをするつもりである」ものとする.このように「意図」の定義はさまざまであるが,本論文での意図は,統語論における意図の考え方に近く「表層の情報から得られる調査者の回答者に対する態度」とする.意図を判定する手がかりになる表現形式があると考え,表層的な情報から意図の抽出および分類が行えると考えている.近年,自然言語処理の分野においても,アンケートの設問に対してどのようなことが回答されているかという観点から,すなわち回答者が何を答えているかという観点から自由回答をデータとして言語処理を行う際の問題点が議論され始めている\cite{lebart:98}.この流れは,従来のような高頻度語や内容語を分析の手がかりとする分類手法では不十分であり,内容だけでなく内容に対して「どのように捉えているか」「どのように考えているか」といった回答者の意図を把握するための分類を行う必要があることを示している.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip001.eps,width=\columnwidth}\caption{自由回答アンケートからの意図抽出処理アプローチ}\label{fig:figure1}\end{center}\end{figure}以上を踏まえ,本研究では\fig{figure1}に示したように,内容を表す名詞だけでなく,自由回答に現れた文末表現や接続表現に着目し,分析的に研究を進めている\cite{inui:98:a,inui:01:a,inui:01:b}.\cite{inui:01:a}では,文末表現の類型を意味の違いと単純に結びつけずに,回答に対して「てほしい」という表現を加えた文に言い換えることができるかどうかによる判定を導入することによって表層の表現にこだわらず,回答者の要求意図を特定する方法を提案している.また,\cite{inui:01:b}では,人の推論プロセスを規則化することにより,要求意図が明示されていない意見から要求意図を取り出す方法について提案している.同時に,学習を用いた自動分類の可能性についても研究を進めている\cite{inui:98:b,inui:01:c}.このように本研究では,人手による分析・規則作成の手法と統計的手法を並行して進めながら自由回答から回答者の意図を抽出する手法について,より適切な処理を目指している.また,\fig{figure1}の曲線矢印に示すように,それぞれの作業プロセスの結果をフィードバックしている.本論文では回答者の意図を考慮した統計的手法による自動分類についての実験とその結果の考察について報告する.自由回答テキスト約1000文に対し,タグ付与実験によって決めた賛成,反対,要望・提案,事実といった,回答が意図するタグ(以下「意図タグ」と呼ぶ)を各回答文に付与する.これらのデータに対し表層表現の類似性に着目することによって,最大エントロピー法(ME法)を用いた分類実験を行う.分類結果をもとに,自由回答テキストから回答者の意図を抽出し分類するための手がかりとなる表現,および表現間の関係について考察する. \section{自由回答とは} \label{sec:enquete}本章では,アンケート調査および自由回答,自由回答に関する研究ならびに自由回答の分類・分析に関する社会的ニーズについて述べる.\subsection{アンケート調査の方法と自由回答}冒頭にも述べたように,アンケート調査はさまざまな社会的問題を解決するための手段である.アンケート調査を実施する際には,調査目的をはじめとするさまざまな制約に照らし合わせ,下記の要素を選択することが必要である.\begin{itemize}\itemアンケート調査の目的\item調査の内容(意識調査,行動調査)\item調査対象(個人,世帯,法人)\item調査の実施方法(面接調査,郵送調査,電話調査)\item回答の形式(選択型,自由回答型)\end{itemize}調査の目的すなわち問題解決の種類からアンケートを分類すると,\tab{enquete_type}に示した7タイプを挙げることができ\cite{arima:87},これは,調査の実施方法や回答の形式を決定する際にも大きく影響する.実施方法については,面接調査・郵送調査・電話調査の三種がおもに行なわれている.これらの調査に関する回答や観察結果を記録するのが調査票であり,調査票における回答様式の一形態が自由回答である.回答様式には,回答の自由な形式と限定される形式がある.限定される形式ではyes-no質問型に代表される2項選択型や,複数の選択肢を用意した多肢選択法・分類法・一対比較法・SD法などがある.\begin{table}[t]\begin{center}\leavevmode\caption{アンケート調査のタイプ\cite{arima:87}}\label{tab:enquete_type}\begin{tabular}{|l|l|l|}\hline&\multicolumn{1}{c|}{アンケート調査の目的}&\multicolumn{1}{c|}{調査例}\\\hline\hline\cir{1}&基礎的な統計資料を得るため&国勢調査,官公庁の事業所統計\\\hline\cir{2}&問題発見のため&ブランドリサーチなどの市場調査\\\hline\cir{3}&問題の原因や構造を解明するため&さまざまな意識調査\\\hline\cir{4}&問題の解決策を探るため&製品・サービスの開発戦略のための消費者調査\\\hline\cir{5}&問題の解決策を選択するため&広告コピー決定のための広告調査\\\hline\cir{6}&問題の解決策の実行可能性を探るため&新商品の試用テスト,嗜好テスト\\\hline\cir{7}&予測のため&選挙の結果予測,商品の需要予測\\\hline\end{tabular}\end{center}\end{table}回答の自由な形式には,言語連想法・文章完成法の形式とともに自由回答法がある\cite{tsuzuki:75}.一般に,回答が限定される方式では,回答のしやすさ,質問の意味の通じやすさ,データ解析の容易さにおいて利点がある.したがって,\tab{enquete_type}の\cir{1}に示した基礎的な統計資料を得るために行うアンケートをはじめとして,多くのアンケート調査は選択型回答が採用される.自由回答では回答の特徴が選択型回答と逆に現れるので,欠点として,回答しにくいために無回答が増える,的外れの回答がある,コーディングに時間がかかるといった問題が挙げられる\cite{tsuzuki:75,asai:87,arima:87}.また,自由回答のコーディングは,人手作業の手間の問題だけでなく,結果の解釈に関する調査者の主観についても指摘されている\cite{tsuzuki:75}.このため,自由回答は選択型アンケート調査の予備調査としてか,あるいは,\tab{enquete_type}の\cir{2}や\cir{4}に示したような問題発見に多く利用されてきた.\subsection{自由回答のコーディング}アンケートのコーディングは次の三段階の作業過程から成り立っている\cite{tsuzuki:75}.\begin{enumerate}\item回答に対する分類カテゴリの決定\item各分類カテゴリに対する記号の決定とコード表の作成\item集計カード・コーディング表の作成と回答の記号化作業\end{enumerate}分類カテゴリ上記のコーディング過程のうち,もっとも重要なのは(1)の分類カテゴリの決定と言われており,とくに自由記述形式の分類では,分類カテゴリを発見,構成すること自体が研究目的となることもある.分類カテゴリの決定において,分類を行う目的となるのは原則的に,i)自由記述形式のアンケート,ii)探索的研究(\tab{enquete_type}の\cir{4}\cir{6})のアンケートの二点と言われている\cite{tsuzuki:75}.前者では回答から「典型」を抽出・発見し,出現頻度に関係のないカテゴリの型を区別すること,すなわち分類カテゴリの樹立そのものが重要である.後者では出現頻度とも関連させた「意味のある傾向」を得ること,すなわちデータマイニングから特定の分類カテゴリを得ることが重要である.分類カテゴリを作成するにあたっては,その作成過程において仮説検証的な作業を繰り返す.すなわち,機能的分類と演繹的分類を繰り返し行うことにより調査目的に適った分類カテゴリを作成していく.一般に,探索的研究においては自由記述形式のアンケートを行うことが多いが,この対応は必然ではなく,むしろコーディング過程では区別すべき点である.自由回答のコーディングはこれら一連の作業過程に大きなコストがかかるため,先に述べたとおり,本研究ではコーディング支援のための分類を目標としている.また,分類カテゴリの決定については,あくまで原則であり,調査の目的およびデータの性質などに依存するため,唯一決定的なものが存在するわけではないことも言及されている\cite{tsuzuki:75}.\subsection{自由回答に関する研究}\label{ssec:related_work}研究の手法として社会調査が盛んである社会科学系の研究分野および心理学系の研究分野では,自由回答は重視されてこなかった.しかし,すでに述べたように,自由記述型アンケートの回答を意見集約や問題解決の材料とするニーズは高まってきており,近年,自由回答の分析方法に対する自動・半自動処理の検討も盛んになってきた\cite{oosumi:97,hitachi:00,takahashi:00}.従来の自由回答に関する研究は,分析の対象が自由回答であっても,分類・分析の手法は手作業が中心であったり\cite{suga:97},回答の内容語を手がかりに半自動的に行われたりするものである\cite{oosumi:97}.これらの研究はキーワードに着目した内容分類,すなわち従来のテキスト分類に近い.社会学分野において自動分類を目指した研究に,言語処理技術を用いて格フレームを利用した職業コード自動分類システムの開発がある\cite{takahashi:00}.ここで対象とする自由回答は一語もしくは比較的単純な構造の一文であり,取り出す情報は名詞を中心としている.また,言語処理分野においては統計的学習手法を用いてテキストマイニングを行っている研究がある\cite{li:01}.本研究では,回答者の意図を分類することを目的としているのに対し,李らの研究では,ある回答の記述対象に対する特徴表現を取り出すことを目的としている.回答の対象(例えば「車」)についての自由回答に現れた頻度の高い単語と,その回答が属するカテゴリ(例えば「ブランド」)との相関関係から分類ルールと相関ルールという二種類の規則を学習する.この学習は,分類ルールとして取り出されたキーワードとその特徴的な強さ,および頻度という構造をもった確率分布のクラスから統計的モデル選択を行うことに相当する.これにより,頻出単語でなく,ある分析対象の特徴イメージを取り出している.先に述べたように,現在進められている自由回答の自動分類に関する研究は萌芽的なものであるが,自由回答に関する分類・分析手法への期待は近年高まってきている.例えば,都市計画や交通計画において計画主体側が住民の意見を広く収集するような場合である.このように計画主体側が住民側に働きかけて,計画の策定に関与してもらうプロセスをパブリック・インボルブメント(PI)という.本研究で対象にした自由回答テキストもPI方式によるアンケート調査の回答である.計画の初期に市民に関心を持ってもらう,また計画の実現段階で市民の意見を計画に反映させるなどの目的でさまざまなパブリック・インボルブメント手法が提案・検討されており,そのひとつに意識調査がある.この意識調査は,標本抽出などを行わないインフォーマルな形式でのアンケートとして実現されることもある\cite{saishu:98}.現在のところパブリック・インボルブメントの方法および効果と,アンケートの方法・形式との関係はまだ十分議論されていない.自由記述型アンケートの設計方法やその回答テキストを効率的に処理する方法は,今後この分野において議論が高まると考えられる.\subsection{本研究で用いた自由回答テキスト}本研究で対象とした自由回答テキストについて説明する.われわれが使用したボイス・レポートとは,道路審議会基本政策部会「21世紀の道を考える委員会」が平成8年5月から7月に実施したアンケート調査の自由回答である.将来的な道路計画に市民の声を活かす目的で行われた調査で,回答人数35,674人,回答数(意見数)113,316件の大規模調査である.意見は,ハガキ,封書,FAX,電子メールによる回答の他,ホームページへの書き込みによって集められている.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip002.eps,width=.6\columnwidth}\caption{対象としたアンケート調査の質問形式}\label{fig:figure2}\end{center}\end{figure}質問形式は\fig{figure2}に示したように,あらかじめ設定された12個の交通に関連するテーマから回答者が関心の高いものを選択し回答する.回答形式は120字程度の文字を記入できる回答欄に自由に意見を書くことができ,書ききれない場合は別紙に記入できる自由記述形式である.しかし,\fig{figure2}の下部に示したように,各テーマに対して4〜5個の参考意見およびグラフや図などの参考資料が提示されているため,選択型設問形式の性質も帯びている.例えば,「Aさんに賛成」「Bさんの意見に同感」といった選択型回答に近い回答例があり,これらは全体の1\,\%程度を占めている. \section{意図タグの作成} ここでは,本研究における自由回答テキストの分類手法について述べる.本論文の冒頭で述べたように,自由回答テキストの分類では賛成,反対,提案といった回答ごとの意図によって分類することが重要である.そこで,分類タグを定義し,そのタグをテキストに自動付与することにより意図に基づく回答の分類を行う.次節では,まず,分類タグの決定および決定のための試行実験について述べる.ここで決定されたタグを意図タグ,また意図タグの付与されたデータを意図タグつき正解データと呼ぶ.\ssec{answer}では意図タグつき正解データについて説明する.\subsection{意図タグ決定のプロセス}\label{ssec:process}意図タグを決定するにあたり,まず,1)どのようなタグを用意するのか,また,2)どのような単位に対して付与するのか,などの検討が必要である.しかし,先に述べたように自由回答をどのように分類すべきかに関する十分な知見がまだない.また,自由回答の分類にあたっては,調査者が必要とする分類カテゴリを作成することが重要と考える.したがって,本研究では,アンケートの実施側になりうる都市計画・交通計画の研究者へのヒアリングをもとに,アンケート分類の初期段階として,少なくとも「賛成」「反対」「提案」の区別を可能にすることを目標とした.そして,タグ付与実験を行い,その結果から試験的に意図タグを決定した.\begin{table}[t]\begin{center}\leavevmode\caption{タグ付与例}\label{tab:tagging_example}\begin{tabular}{|l|c|l|l|l|}\hline\multicolumn{1}{|c|}{例文}&\multicolumn{1}{c|}{作業者}&\multicolumn{1}{c|}{タグ1}&\multicolumn{1}{c|}{タグ2}&\multicolumn{1}{c|}{タグ3}\\\hline\hlineたとえば,見通しの良い道路空間,&\multicolumn{1}{c|}{A}&{\bf提案}&具体案&例示\\\cline{2-5}曲線が緩やかな道路線形,トンネル&\multicolumn{1}{c|}{B}&意思表示&方策の{\bf提案}&具体案の{\bf提案}\\\cline{2-5}内の照明をもっと明るく,幅員も余&\multicolumn{1}{c|}{C}&予定&要望&新規{\bf提案}\\\cline{2-5}裕あるものとする.&\multicolumn{1}{c|}{D}&例示&主張&{\bf提案}:主張:具体:直接\\\hline\end{tabular}\end{center}\end{table}タグ付与実験では\tab{tagging_example}に示すように,100文のテストデータを対象に,筆者ら4人が作業者A〜Dとして個別に,「賛成」「反対」「提案」以外のタグの種類は固定せず自由に意図タグ付与の試行実験を行った.また,回答の表現に左右されずに回答者の意図をタグとして表現するよう留意した.タグを付与する範囲は,一回答中に複数の文が含まれていれば,それぞれの文に意図タグを付けた.意図タグを一回答ごとではなく回答中の一文ごとに付与したのは,あるテーマに対する一つの自由回答にも賛成意見や部分的な反対意見,また提案など複数の意図が含まれているためである.また,本論文では,回答中の談話構造を考慮していないため回答文ごとに付与した.さらに,意図のタグを各文一つに決定するのではなく,観点が異なる場合を考慮して3個までつけられるようにした.3個の区別は,作業者それぞれによって異なり,a)文の表層的な意味と回答者の意図,b)意図の詳細化,c)異なる観点による意図,など違いがあった.この試行実験のタグ付与テキストを各作業者が持ち寄り,検討した結果,\tab{tagging_example}のボールド体で示されるように共通して記述された意図を意図タグとした.例えば,\tab{tagging_example}に見られるように,同じ例文に対して作業者全員が共通して記述した「提案」をこの例文の意図タグとした.この検討によって,6個の意図タグと下位分類タグを用意することにした.\tab{intention_tag}に意図タグの種類と各タグの説明を記述する.\begin{table}[t]\begin{center}\leavevmode\caption{意図タグ}\label{tab:intention_tag}\begin{tabular}{|ll|l|}\hline\multicolumn{2}{|c|}{意図タグおよび下位タグ}&\multicolumn{1}{|c|}{タグの説明}\\\hline\hlineメタ&&アンケート自体に言及したもの\\\hline\multicolumn{2}{|l|}{賛成}&賛意を示したもの\\\cline{3-3}&個人&Aさん,Bさんなど参照意見に対する賛意\\\cline{3-3}&政策&政策一般に対する賛意\\\hline\multicolumn{2}{|l|}{反対}&反意を示したもの\\\cline{3-3}&個人&Aさん,Bさんなど参照意見に対する賛意\\\cline{3-3}&政策&政策一般に対する賛意\\\hline\multicolumn{2}{|l|}{要望・提案}&なんらかの要求があるもの.また,なんらかの案を示したもの\\\cline{3-3}&具体&要望や提案が具体的なもの\\\cline{3-3}&抽象&要望や提案が抽象的なもの\\\hline\multicolumn{2}{|l|}{事実}&事実あるいは事実の認識を述べたもの\\\cline{3-3}&ポジティブ&捉え方が肯定的なもの\\\cline{3-3}&ネガティブ&捉え方が否定的なもの\\\cline{3-3}&中立&捉え方が中立的なもの\\\cline{3-3}&主張&意見の個人性が強いもの\\\hline\multicolumn{2}{|l|}{疑問}&表層的に疑問文であるもの\\\hline\end{tabular}\end{center}\end{table}\sec{enquete}で述べたように,自由回答の分類では,分類カテゴリ自体をどのように作成するかが重要であり,仮説検証的な分類を繰り返し行う.したがって,実験的に作成した\tab{intention_tag}のカテゴリは最終的な分類結果ではない.しかし,ここでは,1)調査者側の立場からのヒアリング,および2)複数の作業者による実験的作業によって決定されたタグであることから,これらを採用し意図タグとする.また,ME法を用いたことにより,これらのカテゴリの元で分類された実験結果からカテゴリと回答の表現との対応を分析したうえで,分類カテゴリを再定義することができる点は自由回答のコーディング支援に適しているといえる.\begin{table}[t]\begin{center}\leavevmode\caption{意図タグ付き正解データ}\label{tab:data_collection}\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c|}{意図タグ}&\multicolumn{1}{c|}{下位タグ}&\multicolumn{1}{c|}{タグが付与されるテキスト事例}\\\hline\hlineメタ&&テーマ番号2以降の内容と重複するので回答が難しい.\\\cline{3-3}&&もう一つ,自動返信メールの記載例から罫線は削除してください.\\\cline{3-3}&&この設問は生活道路についての質問と理解する.\\\hline賛成&個人&BさんとCさんの意見に賛成です.\\\cline{3-3}&&A,Dに同意.\\\cline{2-3}&政策&さらに,今21世紀のみちを考える委員会が実施しているやり方に非\\&&常に共鳴できます.\\\hline反対&個人&Bさんの意見に異論.\\\cline{3-3}&&レポートにあるCの意見は傲慢です.\\\cline{2-3}&政策&道路の景観について,国ベースで考え方を規制する考え方には賛成\\&&できない.\\\hline要望・提案&抽象&高齢者の運転機会が増大するため,高齢者の運動能力を考慮しきび\\&&しい運転環境を改善する.\\\cline{3-3}&&そろそろ車から人に道路を取り戻しませんか.\\\cline{2-3}&具体&お互いのマナーの向上ももちろんですが,通学路など特に自転車も\\&&歩行者も多いようなところには歩道の脇に自転車専用の道を設けて\\&&いただければと思います.\\\cline{3-3}&&徹底的に違法駐車の取り締まりを行うべき.\\\hline事実&ネガティブ&信号さえも車中心で道路を渡るのに何分も待たされる.\\\cline{2-3}&ポジティブ&そしてPARIS内のそれぞれの方向を示す標識があり,その掲示板,\\&&文字の大きさ共非常に大きく判りやすい.\\\cline{2-3}&中立&横断歩道用信号の時間は,高齢者には短過ぎ,青になった直後に渡\\&&り始めても到着できないことがあります.\\\cline{2-3}&主張&夜間は昼間より見通しが悪いのですから,少なくとも昼間と同じス\\&&ピードでなければならないのに,空いているからとスピード違反を\\&&する車が大半です.\\\hline疑問&&交通渋滞等を把握するシステムは完備しているが,信号の管理シス\\&&テムはもう一つ未解決のところがあるのでは?\\\cline{3-3}&&アメリカのようにプロジェクトチームを作り,期限を決めた上で成\\&&果を出すというスタイルは出来ないのか?\\\hline\end{tabular}\end{center}\end{table}\subsection{意図タグ付き正解データの作成}\label{ssec:answer}912文の自由回答テキストに対して,\ssec{process}で定めた意図タグを付与した.これを意図タグ付き正解データと呼ぶ.\tab{data_collection}に各タグに対するテキスト事例を示す.\tab{data_collection}に示した「Bさんに異論.」を例に,意図タグの付与について述べる.「Xに異論」の「X」を回答内容,「に異論」の部分を回答者の態度とみなした場合,本論文では「に異論」といった回答者の態度に基づいてタグを付与している.したがって,回答文「Xに異論」には「反対」のタグが付与される.本論文では,タグ付与によって「X」に該当する回答内容を明らかにすることは対象としていないが,手法としてはタグを再定義することにより可能である. \section{最大エントロピー法(ME法)を用いた学習および分類実験} テキストの自動分類には,1)テキストの表層的な統計情報を用いた手法と,2)シソーラスや辞書など人手で作成された言語知識の意味体系を用いた手法がある.上述のとおり,現在のところ,回答の意図を知るための,意図と表現形式を結びつけるような意味体系は存在しない.したがって,本研究では\fig{figure3}に示したように,表層的な統計情報を用いて,前章で決定した意図タグを自由回答テキストの分類先とする分類実験を行う.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip003.eps,width=.6\columnwidth}\caption{自由回答の自動分類に関するシステム設計}\label{fig:figure3}\end{center}\end{figure}本章では,意図タグ付き正解データから各意図タグの特徴表現である素性としてのN-gramを自動抽出し,さらに意図タグ付き正解データから,素性を付与した訓練データを自動的に作成する方法について説明する.訓練データから統計情報を学習する際には,最大エントロピー法を用いる.学習によるテキスト分類の研究には,決定木を使ったものもあるが\cite{nakano:98},本研究では,高い精度を安定して出せることが期待できる最大エントロピー法を使っている.しかし,今回,学習アルゴリズムを替えての精度比較は行っていない.自由回答テキストの自動分類の可能性を確認する目的で利用している.以下,\fig{figure3}の流れに従って,学習と分類実験について述べる.\subsection{素性の抽出と訓練データの作成}\label{ssec:data_preparation}\ssec{answer}で説明した意図タグ付き正解データからN-gram抽出によって素性を取り出す.後で詳しく述べるが,素性はME法によって学習される意図タグ付き正解データにおいて,各意図タグを付与された回答文の特徴にあたる.素性として,1〜15文字までの任意の連続文字列(N-gram)を使い,意図分類のキーになるような表現を学習によって取り出している.例えば,「要望・提案」という意図タグのついた「徹底的に違法駐車の取り締まりを行うべき」という例文では,「徹/徹底/徹底的/.../底/底的/.../うべき/べ/べき/き」などが素性として自動的に取り出される.また,文末情報は重要であると判断し,文末に「\$」を挿入している.つまり文末の文字列は,文中の文字列と区別してとらえることができる(例「のでは\$」).また,文末の句点の有無は回答によって異なるので,書式を統一させるために省いている.実際には,912文の意図タグ付き正解データに現れた,5回以上出現のすべてのN-gramを素性として約300種類(平均282個)を用意した.対象とした学習データのデータ量が少ないため,5回以上出現の素性に絞っている.ME法を用いた学習部への入力データとなる訓練データは,意図タグつき正解データに対して,ここで抽出された素性が各文に出現しているかどうかを自動的に調べその結果を表としたものである.\tab{training_data}に示すように,人手で付与されたタグが1または0の値で表されている.回答テキストの事例に対して該当する意図タグが1,そうでないタグは0である.意図タグは一回答文に対して一つ付与されているため,1の値が複数与えられることはない.右側の項目列はN-gram抽出によって取り出された素性で,事例の中に現れていれば1,そうでなければ0が与えられる.\begin{table}[t]\begin{center}\leavevmode\caption{訓練データ例}\label{tab:training_data}\begin{tabular}{l|c@{}c@{}c@{}c@{}c@{}c|c@{}c@{}c@{}c@{}c@{}c@{}c@{}c}\multicolumn{1}{c|}{事例}&\multicolumn{6}{c|}{意図タグ}&\multicolumn{8}{c}{素性}\\&メ,&賛,&反,&要,&事,&疑&Cさん,&に賛成\$,&賛,&べき\$,&締,&の,&です,&ていま\\\hline\hlineAさんに賛成です.&0&1&0&0&0&0&0&1&1&0&0&0&1&0\\\hlineCさんの意見に賛成.&0&1&0&0&0&0&1&1&1&0&0&1&0&0\\\hline違法駐車の取り締まりを行うべき.&0&0&0&1&0&0&0&0&0&1&1&1&0&0\\\hlineドイツの厳格さを見習うべきである.&0&0&0&1&0&0&0&0&0&1&0&1&0&0\\\hline事故が増えています.&0&0&0&0&1&0&0&0&0&0&0&0&0&1\\\multicolumn{15}{c}{:}\end{tabular}\end{center}\end{table}素性としてN-gramを抽出した理由は,新聞記事と異なり自由回答テキストには表現形式に個人差や表現のゆれなどが現れやすいためである.例えば「〜しなければならない」という表現に対して,等価の意味の「しなくてはならない」だけでなく,自由回答テキストでは「しなくちゃならない」「しなきゃならない」「しなくては」「しなきゃ」「しなければ」など様々な表現のバリエーションが回答に現れるため,あらかじめ形態素辞書などに登録しておくことが難しい.なお,N-gramを用いたテキスト分類には,Eメールの分類を目的にした研究がある\cite{cavnar:94}.メールにおけるスペルミスや文法誤り,またOCRでテキストを読み込む際の認識誤りなどに対処するためにN-gramが利用されている.\subsection{ME法による学習}\label{ssec:learning}この節では自由記述テキストの各回答文(事例)に付与するべき意図タグの尤もらしさを計算するモデルについて述べる.われわれはこのモデルをMEモデルとして実装した.MEモデルでは,確率分布の式は以下のように求められる.文脈の集合を$B$,出力値の集合を$A$とするとき,文脈$b(\inB)$で出力値$a(\inA)$となる事象$(a,b)$の確率分布$p(a,b)$をMEにより推定することを考える.出力値$a$は$n$個の出力値$a_{i}~(1\lei\len)$のいずれかであるとし,文脈$b$は$k$個の素性$f_{j}~(1\lej\lek)$の集合で表す.そして,文脈$b$において,素性$f_{j}$が観測されかつ出力値$a$が$a_{i}$となるときに1を返す以下のような関数を定義する.\begin{eqnarray*}g_{i,j}(a,b)&=&\left\{\begin{array}{ll}1&({\rmif}~exist(b,f_{j})=1~~\&~~a=a_{i})\\0&(それ以外)\\\end{array}\right.\end{eqnarray*}これを素性関数と呼ぶ.ここで,$exist(b,f_{j})$は,文脈$b$において素性$f_{j}$が観測される場合に1を返す関数とする.われわれの場合,素性としては文を構成するN-gramを用いる.例えば,素性関数として次のようなものを用いる.詳しくは次節で述べる.\begin{eqnarray*}g_{i,j}&=&\left\{\begin{array}{ll}1&({\rmif}~exist(b,f_{j})=1,~f=$``さんに賛成''$~~\&~~a=$``賛成''$)\cr0&(それ以外)\\\end{array}\right.\end{eqnarray*}次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a,b)$による素性$f_{j}$の期待値と,既知データにおける経験確率分布$\tilde{p}(a,b)$による素性$f_{j}$の期待値が等しいと仮定する.これは以下の制約式で表せる.\begin{eqnarray*}\sum_{a\inA,b\inB}p(a,b)\,g_{i,j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)\,g_{i,j}(a,b)~~~for~~\foralli\forallj\end{eqnarray*}この式で,$p(a,b)=p(b)\,p(a|b)=\tilde{p}(b)\,p(a|b)$という近似を行い以下の式を得る.\begin{eqnarray}\sum_{a\inA,b\inB}\tilde{p}(b)\,p(a|b)\,g_{i,j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)\,g_{i,j}(a,b)~~~for~~\foralli\forallj\label{eq:eq4}\end{eqnarray}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$の出現頻度,出力値$a$と事象$b$の共起頻度として以下のように推定する.\begin{eqnarray*}\tilde{p}(b)&=&\frac{freq(b)}{\sum_{b\inB}freq(b)}\end{eqnarray*}\begin{eqnarray*}\tilde{p}(a,b)&=&\frac{freq(a,b)}{\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray*}次に,\eq{eq4}の制約を満たす確率分布$p(a,b)$のうち,エントロピー\begin{eqnarray*}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)\,p(a|b)\,\log(p(a,b))\end{eqnarray*}を最大にする確率分布を推定するべき確率分布とする.これは,\eq{eq4}の制約を満たす確率分布のうちで最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{\ast}$として記述される.\begin{eqnarray}p^{\ast}(a|b)=\frac{\prod_{i,j}\alpha_{i,j}^{g_{i,j}(a,b)}}{Z_{\alpha}(b)}~~~(0<\alpha_{i,j}\le\infty)\label{eq:eq8}\end{eqnarray}\begin{eqnarray*}Z_{\alpha}(b)&=&\sum_{a}\prod_{i,j}\alpha_{i,j}^{g_{i,j}(a,b)}\end{eqnarray*}ただし,\begin{eqnarray*}\alpha_{i,j}&=&e^{\lambda_{i,j}}\end{eqnarray*}であり,$\lambda_{i,j}$は素性関数$g_{i,j}(a,b)$の重みである.この重みは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,$\lambda_{i,j}$の推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra:95}が用いられる.ここでは,\eq{eq8}の導出については文献\cite{berger:96,jaynes:59,jaynes:79}などを参照されたい.\subsection{実験方法}ここでは,実験の概要について説明する.\ssec{data_preparation}で説明した訓練データを入力として,ME法を用い,任意の入力に対して各意図タグが分類先となる確率を学習する.分類実験では,912文の実験データに対してN-gram抽出を行い,抽出したN-gramを素性として利用する.意図タグが分類先となる確率の学習結果を用いて,その確率値がもっとも大きい意図タグを解とする.分類先の決定方法について述べる.着目する回答文にどの意図タグが付与されるべきかについては,あらかじめ設定された閾値$\alpha$よりも解の確信度が高いか等しい場合に,着目する意図タグを分類先とする.閾値は,0から1までの値をとる.解の確信度は,ME法で分類先を決定する際に算出される確率$\beta$とする.すなわち,分類を決めるための判定条件は$\beta\ge\alpha$であり,この条件を満たす場合に解とする.解析結果のうち,もっとも確率の値が大きい分類を解とする.\\データ量が十分でないため,10分割のクロスバリデーションによる評価を行っている.\subsection{実験結果}前節で述べたとおり,意図タグ付き正解データを訓練データとした学習結果を用いて意図タグの分類実験を行った.結果は\tab{result}に示すとおりである.\tab{result}は,実験方法を説明する際に述べた閾値が0の結果である.最左列には分類先の意図タグが記されており,各意図タグに対する適合率および再現率が示されている.タグ名の「要提」は「要望・提案」の略記である.意図タグ全体に対するタグ付与結果は,再現率・適合率ともに76\,\%の精度が得られた.再現率は実験結果の正解数を意図タグ付き正解データのデータ数で割ったもの,適合率は実験結果の正解数をシステムが出力したデータ数で割ったものを示している.ここで,意図タグのうち,もっとも頻度の高い事実タグの正解データ数420件をデータ総数912件で割った値,すなわちすべてに事実というタグを付与した際の正解の割合をベースラインとみなす.この場合,ベースラインの精度は46\,\%となる.われわれの手法の精度は76\,\%であったので,この手法はベースラインより精度が高いことがわかる.疑問タグは適合率が81.3\,\%と比較的高い値が出ているのに対し,再現率は55.3\,\%とやや低い.また,事実タグでは再現率に高い値が見られる.これらについては後で考察する.四列目からは各意図タグの分類先の個数が示されている.同じ意図タグの行と列が交差するセルに正しく分類された個数が示されている.この誤りの傾向については,\sec{consideration}で考察する.\begin{table}[t]\begin{center}\leavevmode\caption{実験結果}\label{tab:result}\begin{tabular}{|l|r|r||r|r|r|r|r|r||r|}\hline&\multicolumn{1}{c|}{再現率(\%)}&\multicolumn{1}{c||}{適合率(\%)}&\multicolumn{1}{c|}{メタ}&\multicolumn{1}{c|}{賛成}&\multicolumn{1}{c|}{反対}&\multicolumn{1}{c|}{要提}&\multicolumn{1}{c|}{疑問}&\multicolumn{1}{c||}{事実}&\multicolumn{1}{c|}{正解データ}\\\hline\hlineメタ&0&0&0&1&0&6&0&9&16\\\hline賛成&83.3&83.3&0&40&0&4&0&4&48\\\hline反対&0&0&0&4&0&2&0&7&13\\\hline要提&77.7&76.3&0&2&1&286&4&75&368\\\hline疑問&55.3&81.3&0&0&0&7&26&14&47\\\hline事実&81.9&75.9&3&1&0&70&2&344&420\\\hline\hline総数&76.3&76.3&3&48&1&375&32&453&912\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip004.eps,width=.6\columnwidth}\caption{実験結果の再現率と適合率}\label{fig:figure4}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip005.eps,width=.6\columnwidth}\caption{下位分類タグの分類結果}\label{fig:figure5}\end{center}\end{figure}\fig{figure4}のグラフは,閾値を0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.95,0.98,0.99とした場合の再現率と適合率を示している.閾値を上げることにより,再現率が下がり適合率は上がっている.また,\fig{figure5}に示すように,意図タグの下位分類については賛成および反対が誰に対するものかを区分した「個人」「政策」のうち,閾値が0の際の再現率および適合率が96.7\,\%(\fig{figure5}のC1),要望・提案の具体性・抽象性を区分した「具体」「抽象」の再現率および適合率が70.7\,\%(\fig{figure5}のC2),事実の捉え方を区分した「ネガティブ」「ポジティブ」「中立」の再現率および適合率が64.5\,\%(\fig{figure5}のC3),また,事実が事実的認識を述べたものか,回答者の主張であるかを区別した「事実」「事実(主張)」の再現率および適合率が57.9\,\%(\fig{figure5}のC4)であった. \section{考察} \label{sec:consideration}ここでは,自動的に意図タグ付与を正しく行った例(正解例)と誤った例(誤り例)を比較分析することにより,今後,分類結果の精度を向上させるための手がかりをさぐる.意図タグ付与の正誤例を示した\tab{example}をもとに考察を進める.考察にあたり,まず,\tab{example}の説明をする.事例を説明する際には,事例の番号として表の最左列の番号を用いる.隣接する「出力」の列は,分類実験で付与された意図タグである.このタグが正解であれば,「正誤」の列に「○」が付いている.なお,\tab{example}でも「要望・提案」を「要提」と省略する.四列目の「正解」には,タグが正しく付与された場合に「出力」と同じ値が,誤っている場合に意図タグつき正解データの値が示されている.「素性」の列には,システムの出力に大きく影響した素性が記述されている.ここに示した素性とは,\ssec{learning}の\eq{eq8}で,$a,b$がシステムの出力および文脈のとき,$g_{i,j}$が1である素性$f_{j}$のうち$\alpha_{i,j}$の値の順で上位5個のものである.$\alpha_{i,j}$の大きさは素性の影響力を意味し,この値が大きい素性を取り出している.「回答文」は実験対象の事例である.\tab{effective_feat}は,システムが正しい解として出力した事例から,\tab{example}に挙げた上位5個の素性の頻度統計を求めたもので,意図タグ,頻度,素性の三項目を三列並べている.例えば,一列目最初の「事実,36,は」は,システムの出力および付与した正解の意図タグがともに「事実」であった事例のうち,36個の事例で素性「は」が$\alpha$の値の順で上位5個以内にあったことを意味している.\tab{effective_feat}は,このような正解の出力に大きく影響を与えた素性のうち,上位36個の頻度の高かった素性を示したものである.\begin{table}[t]\begin{center}\leavevmode\caption{実験結果の正誤例}\label{tab:example}\begin{tabular}{|@{}c@{}|@{~}c@{~}|@{~}c@{~}|@{~}c@{~}|l|l|}\hlineNo.&出力&正解&正誤&\multicolumn{1}{@{~}c@{~}|}{素性}&\multicolumn{1}{@{~}c@{~}|}{回答文}\\\hline\hline1&疑問&疑問&○&か\$,うか\$,るの,うか,る&歩道は,障害物がなくて初めて安全な道となる\\&&&&のでは&のではないでしょうか.\\\hline2&疑問&疑問&○&か\$,うか\$,うか,では,&地域地域の特性によるのではないでしょうか.\\&&&&ょうか\$&\\\hline3&疑問&疑問&○&C,Cさんの,B,賛成です\$,&BさんとCさんの意見に賛成です.\\&&&&成です\$&\\\hline4&賛成&賛成&○&同,A,D,意&A,Dに同意\\\hline5&事実&事実&○&月,いる\$,ている\$,と言,&ドイツ,ミュンヘンでの新空港建設には,多く\\&&&&経&の年月,裁判等を経てきたと言われている.\\\hline6&事実&事実&○&のは,るのは,です\$,多く,&これから高齢者の割合が多くなるのは明らかで\\&&&&す\$&す.\\\hline7&事実&事実&○&やす,も,ありません\$,&せっかくある歩道も,乳母車やホイールチェア\\&&&&ません\$,せん\$&で使用しやすい状況ではありません.\\\hline8&要提&要提&○&街,べきであ,きであ,べき,&また,細街路での違法駐車を制限すべきであろ\\&&&&制&う.\\\hline9&要提&要提&○&する\$,関,しては,違反,&駐車違反に関しては民間に委託する.\\&&&&民&\\\hline10&要提&要提&○&必要\$,要\$,の道,も必要,&過疎対策の道作りも必要.\\&&&&策&\\\hline11&要提&要提&○&流通,通を,化,する\$,&流通を鉄道と協同化するとか,不必要な車を使\\&&&&にする&わないようにする.\\\hline12&要提&要提&○&度の,構,造,化,構造&生活道路の速度規制および速度の出せない構造\\&&&&&化.\\\hline13&要提&要提&○&を図る\$,図る\$,を図る,&)(自動車および交通側からみた意見)○自動\\&&&&を図,図る&車自体の改善を図る.\\\hline\hline14&疑問&要提&×&か\$,のでは,いの,では,&揮発油税の一部を情報ハイウエーの構築に役立\\&&&&いので&ててもいいのではないでしょうか.\\\hline15&賛成&反対&×&Bさん,Bさ,B,さん,さ&Bさんの意見に異論.\\\hline16&事実&要提&×&前,の手,前に,ません\$,&21世紀の道作りに取り掛かる前に,まず,今\\&&&&せん\$&すぐ出来ること,横断歩道の手前に段差をつけ\\&&&&&ることに取り組んでいただきたいと願ってや\\&&&&&みません.\\\hline17&事実&要提&×&くす,電,なる\$,ラ,なる&終電を遅くすれば,朝ラッシュの道路負荷は少\\&&&&&し軽くなる.\\\hline18&要提&事実&×&考えられ,考えら,する\$,&○人が集中すると中心部で働いて郊外に住むよ\\&&&&化,集&うになると考えられ,住環境が悪化する.\\\hline19&要提&事実&×&する\$,れが,を,く,道&それが,道路負荷を軽くする.\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\leavevmode\caption{正解の出力に寄与した素性のうち高頻度のもの}\label{tab:effective_feat}\begin{tabular}{|c|c|l||c|c|l||c|c|l|}\hline意図&頻&\multicolumn{1}{c||}{素性}&意図&頻&\multicolumn{1}{c||}{素性}&意図&頻&\multicolumn{1}{c|}{素性}\\タグ&度&&タグ&度&&タグ&度&\\\hline\hline事実&36&は&事実&15&タ&賛成&15&D\\\cline{2-3}\cline{5-9}&31&です\$&&15&的&要提&26&する\$\\\cline{2-3}\cline{5-6}\cline{8-9}&28&のは&&13&いる\$&&20&べき\\\cline{2-3}\cline{5-6}\cline{8-9}&26&た\$&&13&ています\$&&17&化\\\cline{2-3}\cline{5-6}\cline{8-9}&25&無&&13&ている\$&&15&き\$\\\cline{2-3}\cline{5-6}\cline{8-9}&20&日&&13&とい&&15&べき\$\\\cline{2-6}\cline{8-9}&18&不&疑問&15&?&&15&構\\\cline{2-3}\cline{5-6}\cline{8-9}&17&す\$&&14&?\$&&15&特\\\cline{2-3}\cline{5-6}\cline{8-9}&17&せん\$&&11&か&&14&るべき\\\cline{2-6}\cline{8-9}&16&ません\$&賛成&24&さん&&13&特に\\\cline{2-3}\cline{5-6}\cline{8-9}&15&う\$&&17&さ&&12&の道\\\cline{2-3}\cline{5-6}\cline{8-9}&15&しか&&15&C&&12&必要\$\\\hline\end{tabular}\end{center}\end{table}事実タグでは係助詞の「は」,文末に現れた断定の助動詞「です」,同じく文末の否定形「せん」「ません」,アスペクト表現の「ている」「ています」などが頻出している.疑問タグでは疑問符「?」が文中,文末のいずれに現れた場合でも高頻度の素性として取り出されている.賛成タグに「さん」「C」「D」といった表現が現れているのは,\ssec{related_work}で述べたように「Aさんに賛成」「Bさんの意見は一理ある」といった回答が記述される場合があることによる.要望・提案タグでは,文末に現れた「する」が高頻度素性として取り出されている.これはアンケートの回答では「渋滞を解消する」と書けば「渋滞を解消してほしい」「渋滞を解消すべき」と同義になるためであり,アンケート回答に特徴的な表現と言える.\tab{effective_feat}の素性を参照しながら,\tab{example}について以下詳述する.疑問タグでは,文中および文末の終助詞「か」(例1,2),賛成タグであれば「A」「D」「Cさん」や「同」や「賛成です」といった文末表現(例3,4)が特徴的であることがわかる.また,事実タグでは,文末のアスペクト表現「ている」や丁寧の助動詞「ます」の否定形(例5〜7),要望・提案タグでは文末に現れる補助動詞「する」,助動詞「べきだ」,動詞「図る」,提案内容を示す表現「共同化」「構造化」などに現れる「〜化」(例8〜13)が特徴的な表現として観察できる.「ません\$」「せん\$」「しか」および「ている\$」「ています\$」「いる\$」などが事実タグを出力とする素性として高頻度である理由は,これらが要望・提案などの背景や要望の根拠を示す表現に関連するためである.「ません\$」「せん\$」「しか」などの否定的意味を含意する表現は,現状の設備や制度の不備に対する不満として回答文に現れる(例7).また,「ている\$」「ています\$」「いる\$」は,要望や提案の根拠として現状説明をする際に現れる(例5).上述した事実タグを出力する素性によって,例16に与えられた分類タグも「事実」となっている.ここでは「〜ていただきたいと願ってやみません」という要望・提案表現の一部として,否定的表現「ません」が現れている.したがって,これらを正解とするためには,「ません」で文が終わっていても,「ていただく」「願って」などが素性として出現していれば「事実」でなく「要望・提案」になると学習される必要がある.そのためには,学習コーパスを増やすことが必要であろう.学習コーパスを増やすことは,「Aさん」「Bさん」などの表現が強力な素性となっている賛成タグや反対タグが分類される際にも必要であり,これは例15に見られる.ここでは,「Bさん」だけでなく反対の意味を示す「異論」という表現が素性として学習される必要がある.本研究で対象としたアンケートの中では,反対を明示的に表明した回答文は少数であったため,反対タグを付与されるべき回答の特徴が十分に学習されなかった.また,例17に見られるように「終電を遅くすれば,朝ラッシュの道路負荷は少し軽くなる」を「終電を遅くして,朝ラッシュの道路負荷を軽くしてほしい」と言い換えられる表現がある.このとき,「れば〜なる」は「てほしい」という要望・提案表現に対応する表現とみなすことができる.このため「れば〜なる」も素性として利用すると例17も正しく分類できると期待される.しかし,このように離れた位置に表れる文字列はN-gramでは抽出できないため,「れば〜なる」を「れば」と「なる」の二つの素性の組み合わせで表すなど素性の組み合わせを一つの素性として利用する必要がある.このように素性のバリエーションを増やすことによって精度を高められる可能性もある.また,例18では「住環境が悪化する\$」のように,要望・提案の高頻度素性である「する\$」が現れているが,これは要望・提案ではない.「する\$」を要望・提案の手がかりとしてよいのは,「渋滞を解消する」のように「渋滞を解消」といった要望内容になりうる事柄,すなわちポジティブな表現の場合である.「悪化する\$」のように,ネガティブな表現の場合は直接的には要望・提案とは考えにくい.したがって,これらの表現に対しては,ポジティブ表現かネガティブ表現かを推定するなどにより精度が高まる可能性がある.さらに,この推定ができた場合,前後の文との関係に考慮が必要な場合もある.例19「道路負荷を軽く」がポジティブな表現であることがわかった場合,要望内容であると推察できる「それ」で示されている事柄があり,「道路負荷を軽く」が「それ」の効果および要望理由であると考えられる際には「それが,道路負荷を軽くする」という事例自体は事実を示していると解釈するほうが妥当である.先に述べたように,本研究では回答内の談話的構造については考慮していないため,これについても今後の課題と考える.最後に,考察結果から今後の課題を下記にまとめておく.\begin{itemize}\item学習コーパスを増やす\item「れば〜なる」といった呼応表現のように,N-gramで抽出できない表現にたいしては素性の組み合わせを導入する\item表現の意味がポジティブであるかネガティブであるかを推定する\item回答における文間の談話的構造を考慮する\item意図タグの種類や付与基準を見直す\end{itemize} \section{おわりに} 本研究では,言語処理の要素技術であるテキスト分類の技術を取り入れアンケート回答の自動分類を行うことで,その結果を自由回答のコーディングに活用するためのコーディング支援を行った.回答者の意図を反映した意図タグを決定するために,100文の回答テキストへのタグ付与実験を行い,4人の作業者の作業結果に基づいて,メタ,賛成,反対,要望・提案,事実,疑問といった意図タグを作成した.この意図タグを付与した意図タグ付き正解データを作成し,各意図の特徴的な表現を素性として取り出すため,N-gram抽出を行った.これにより取り出された素性の出現有無の情報を,意図タグ付き正解データに加えて学習のための訓練データを作成した.この訓練データを入力とし,ME法を用いて意図タグが分類先となる確率を学習し,その確率値がもっとも大きい意図タグを解とする実験を行った結果,約8割弱の精度が得られた.本研究により,自由回答テキストに対して回答者の意図を反映した分類を行うことができた.また,辞書を用いる形態素解析を使わずに,ME法による素性と意図タグの学習を行うことで,「です」「ません」「べき」「必要」「図る」「化」など断片的な情報が意図タグ付与に効果的であることが明らかになった.さらに「図る」という動詞や「〜化」といった接尾辞が要望・提案の回答を分類する上で意図を示す重要な表現であるといった発見もあった.今後は,学習コーパスを増やすことを中心に,考察の結果,明らかになった問題を解決する手法について検討する.\acknowledgment研究データとして道路審議会基本政策部会「21世紀の道を考える委員会」が実施されたボイス・レポートについて研究利用を快諾してくださった(財)国土技術研究センター調査第二部の前田様,川原様のご厚意に深謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{乾裕子}{1991年東京女子大学文理学部卒業.同年から(財)計量計画研究所言語情報研究室勤務.2001年5月から通信総合研究所特別研究員.同年10月神戸大学大学院自然科学研究科入学.自然言語処理,計量国語学の研究に従事.言語処理学会,人工知能学会,計量国語学会,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所主任研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V14N04-04
\section{はじめに} 近年,構文解析は高い精度で行うことができるようになった.構文解析手法は,ルールベースのもの(e.g.,\cite{Kurohashi1994}),統計ベースのもの(e.g.,\cite{Kudo2002})に大別することができるが,どちらの手法も基本的には,形態素の品詞・活用,読点や機能語の情報に基づいて高精度を実現している.例えば,\begin{lingexample}\single{弁当を食べて出発した}{Example::Simple}\end{lingexample}\noindentという文は,「弁当を$\rightarrow$食べて」のように正しく解析できる.これは,「〜を」はほとんどの場合もっとも近い用言に係るという傾向を考慮しているからである.このような品詞や機能語などの情報に基づく係り受け制約・選好を,ルールベースの手法は人手で記述し,統計ベースの手法はタグ付きコーパスから学習している.しかし,どちらの手法も語彙的な選好に関してはほとんど扱うことができない.\begin{lingexample}\label{Example::Undoable1}\head{弁当を出発する前に食べた}\sent{弁当は食べて出発した}\end{lingexample}(2a)では,「弁当を」が\ref{Example::Simple}と同じように扱われ,「弁当を$\rightarrow$出発する」のように誤って解析される.(2b)においては,「〜は」が文末など遠くの文節に係りやすいという傾向に影響されて,やはり「弁当は$\rightarrow$出発した」のように誤って解析されてしまう.これらの場合,「弁当を食べる」のような語彙的選好が学習されていれば正しく解析できると思われる.統計的構文解析器においては多くの場合,語彙情報が素性として考慮されているが,それらが用いている数万文程度の学習コーパスからでは,データスパースネスの影響を顕著に受け,語彙的選好をほとんど学習することができない.さらに,2項関係の語彙的選好が十分に学習されたとしても,次のような例を解析することは難しい.\begin{lingexample}\single{太郎が食べた花子の弁当}{Example::1}\end{lingexample}\noindent「弁当を食べる」「花子が食べる」という語彙的選好を両方とも学習しているとすると,「食べた」の係り先はこれらの情報からでは決定することができない.この例文を正しく解析するには,「食べた」は「太郎が」というガ格をもっており,ヲ格の格要素は被連体修飾詞「弁当」であると認識する必要がある.このように,語彙的選好を述語項構造としてきちんと考慮できれば構文解析のさらなる精度向上が期待できる.述語項構造を明らかにする格解析を実用的に行うためには,語と語の関係を記述した格フレームが不可欠であり,それもカバレージの大きいものが要求される.そのような格フレームとして,大規模ウェブテキストから自動的に構築したものを利用することができる\cite{Kawahara2006}.本稿では,この大規模格フレームに基づく構文・格解析の統合的確率モデルを提案する.本モデルは,格解析を生成的確率モデルで行い,格解析の確率値の高い構文構造を選択するということを行う.構文解析手法として,語彙的選好を明示的に扱うものはこれまでにいくつか提案されてきた.白井らと藤尾らは,数十〜数百万文のコーパスから語の共起確率を推定し利用している\cite{Shirai1998,Fujio1999}.本研究にもっとも関連している研究として,阿辺川らによる構文解析手法がある\cite{Abekawa2006}.阿辺川らは,同じ用言を係り先とする格要素間の従属関係と,格要素・用言間の共起関係を利用した構文解析手法を提案している.これら2つの関係を新聞記事30年分から収集し,PLSIを用いて確率推定を行っている.既存の構文解析器の出力するn-bestの構文木候補に対して,確率モデルに基づくリランキングを適用し,もっとも確率値の高い構文木を選択している.この手法は,PLSIを用いることによって潜在的な意味クラスを導入し,確率を中規模のコーパスから推定している.本研究は,これらの研究に対して次の点で異なる.\begin{itemize}\item明示的に意味,用法が分類された格フレームを用いている.解析時に格フレームを選択することにより,用言の意味的曖昧性を解消し,その意味,用法下において正確な格解析を行うことができる.\item非常に大規模なコーパスから構築された格フレームを用いることによって,用例の出現を汎化せずに用いている.\item阿辺川らの手法のようにn-best解をリランキングするのではなく,構文,格構造を生成する生成モデルを定義している.\end{itemize} \section{ウェブから獲得した大規模格フレーム} \label{Section::格フレーム辞書の自動構築}格フレームは,ウェブから収集した大規模コーパスを用いて,\cite{Kawahara2006}の手法により自動構築を行う.本節では,格フレーム構築手法の概要を述べる.人間のもつ常識的知識の重要な部分である格フレームは,様々な言語現象をカバーすることが望ましい.そのような格フレームを構築するために,大規模コーパスから漸進的に確からしい情報を抽出する.\begin{table}[b]\input{table1.txt}\end{table}まず最初に,大規模コーパスを構文解析し,その解析結果から第1段階の格フレームを構築する.格フレームを構築する際の最大の問題は,用言の用法の曖昧性である.つまり,同じ表記の用言でも複数の意味,用法をもち,とりうる格や用例が異なる.例えば,以下の2つの例は,用言は「積む」で同じであるが用法が異なっている.\begin{lingexample}\head{トラックに荷物を積む}\sent{経験を積む}\end{lingexample}\noindent用法が異なる格フレームを別々につくるために,我々は,格フレーム収集の単位を用言とその直前の格要素の組とした.「積む」の例では,「荷物を積む」「経験を積む」を単位として格フレームを収集する.さらに,「荷物を積む」「物資を積む」などかなり類似している格フレームをマージするためにクラスタリングを行う.上記の第1段階の構築手法では構文解析を用いているために,基本的に格助詞の付属している格要素を収集している.このため,得られる格フレームは,二重主語構文,外の関係,格変化のような複雑な言語現象には対処できないという問題がある.この問題に対処するために,上記で得られた格フレームを用いて再度テキストを解析し,新たな情報を格フレームに与える.新たに得られる情報は,1回目の格フレーム構築では扱うことができなかった係助詞句(「〜は」や「〜も」)や被連体修飾詞に関する関係である.\begin{lingexample}\single{この車はエンジンが良い}{ガ21}\end{lingexample}例えば,上例において,構文解析の段階では「車は」は解釈できなかったが,格解析では「{エンジン}がよい」という格フレームを用いることによって,格フレームにガ格以外の格がないことから「車は」は2つ目のガ格であり,「{エンジン}がよい」は二重主語構文をとることがわかる.\begin{lingexample}\single{その問題は彼が図書館で調べている}{ガ22}\end{lingexample}この例文の「問題は」は,すでに得られている格フレーム「{問題,課題}を{図書館}で調べる」のヲ格の用例群に合致するため,格解析ではヲ格と解析されるだけで,新しい情報は得られない.同様に,被連体修飾詞は構文解析では扱われないが,格解析では,格フレームのガ格,ヲ格などの用例と類似しているかどうか調べることによって解釈される.例えば,「業務を営む免許」の「免許」は,格フレーム「{銀行,会社}が{業務,ビジネス}を営む」のどの格の用例とも類似せず,外の関係と呼ばれる関係をもっていると判定され,この情報が格フレームに加えられる.上記の手法を用いて,ウェブから収集した約5億日本語文から格フレームを構築した.約350CPUの計算機グリッドを用いてこの処理を行い,約1週間で格フレームを構築することができた.この格フレームは約90,000用言からなる.その一部を表\ref{例::格フレーム}に示す. \section{構文・格解析の統合的確率モデル} 本論文で提案する構文・格解析統合モデルは,入力文がとりうるすべての構文構造に対して確率的格解析を行い,もっとも確率値の高い格解析結果をもつ構文構造を出力する.すなわち,入力文$S$が与えられたときの構文構造$T$と述語項構造$L$の同時確率$P(T,L|S)$を最大にするような構文構造$T_{best}$と述語項構造$L_{best}$を出力する.次のように,$P(S)$は一定であるので,本モデルは$P(T,L,S)$を最大にすることを考える.\begin{align}(T_{best},L_{best})&=\argmax{(T,L)}{P(T,L|S)}\nonumber\\&=\argmax{(T,L)}{\frac{P(T,L,S)}{P(S)}}\nonumber\\&=\argmax{(T,L)}{P(T,L,S)}\end{align}\subsection{構文・格解析の統合的確率モデルの概略}本論文では,依存構造に基づく確率的生成モデルを提案する.本モデルは「節」を基本単位とし,主節(文末の節)から順次生成していく.「節」とは,用言1つと,それと関係をもつ格要素群を意味する.$P(T,L,S)$は,文に含まれる節$c_i$を生成する確率の積として次のように定義する.\begin{equation}\label{Formula::Division}P(T,L,S)=\prod_{c_i\inS}P(c_i|b_{h})\end{equation}$n$は文$S$中に存在する節の数(=用言数)であり,ここで$b_{h}$は節$c_i$の係り先文節である.主節は係り先をもたないが,仮想的な係り先を$\mbox{EOS}$とする.従来研究のほとんどは,文生成の確率を,2文節間の係り受け確率の積としていたが,本研究では式(\ref{Formula::Division})のように,節,つまり用言と格要素群を単位として生成するモデルとしている.そのため,複数の格要素を考慮して係り受けを決定することができ,例(3)のような文も正しく解析できるようなモデルとなっている.例えば「弁当は食べて目的地に出発した.」という文を考える.「弁当は」が「食べて」に係る場合には,2つの節「弁当は食べて」「目的地に出発した.」があり,次の確率を考える.\[P(\mbox{目的地に出発した.}|\mbox{EOS})\timesP(\mbox{弁当は食べて}|\mbox{出発した.})\]「弁当は」が「出発した.」に係る場合には,2つの節「食べて」「弁当は目的地に出発した.」があり,次の確率を考える.\[P(\mbox{弁当は目的地に出発した.}|\mbox{EOS})\timesP(\mbox{食べて}|\mbox{出発した.})\]本モデルは,これらのうちもっとも確率の高い構造を採用する.節$c_i$は,述語項構造$\mathit{CS}_i$と用言タイプ$f_i$に分解して考える.用言タイプとは,用言の活用や付属語列を意味する.そのため,述語項構造$\mathit{CS}_i$に含まれる用言は原型である.係り先の文節$b_{h}$も同様に,語$w_{h}$とタイプ$f_{h}$に分けて考える.\begin{align}P(c_i|b_{h})&=P(\mathit{CS}_i,f_i|w_{h},f_{h})\nonumber\\&=P(\mathit{CS}_i|f_i,w_{h},f_{h})\timesP(f_i|w_{h},f_{h})\nonumber\\&\approxP(\mathit{CS}_i|f_i,w_{h})\timesP(f_i|f_{h})\label{Formula::FirstDecomposition}\end{align}この近似は,用言は係り先文節のタイプには依存しない,また用言タイプは係り先の語には依存しないと考えられるからである.例えば,$P(\mbox{弁当は食べて}|\mbox{出発した.})$は次のようになる.\[P(\mathit{CS}(\mbox{弁当は食べる})|\mbox{テ形},\mbox{出発する})\timesP(\mbox{テ形}|\mbox{タ形.})\]ただし,本モデルにおいて,副詞,連体詞,および連体修飾句は述語項構造に入れず,考慮しない.これらは用言に対して格関係を持たないので,用言格フレームにおいて扱うことができず,生成することができないためである.これらの係り先は,読点がなければ直近の係りうる文節とするなどといったルールに基づいて決定する\cite{Kurohashi1994}.式(\ref{Formula::FirstDecomposition})の$P(\mathit{CS}_i|f_i,w_{h})$を述語項構造生成確率,$P(f_i|f_{h})$を用言タイプ生成確率と呼び,これらについて次の2つの節で説明する.\subsection{述語項構造生成確率}\label{Section::述語項構造生成確率}述語項構造の生成モデルは,その述語項構造にマッチする格フレームの選択と,入力側の各格要素の格フレームへの対応付けを同時に行うモデルである.述語項構造$\mathit{CS}_i$は,述語$v_i$,格フレーム$\mathit{CF}_l$,格の対応関係$\mathit{CA}_k$の3つからなると考える.格の対応関係$\mathit{CA}_k$とは,図\ref{Figure::Correspondence}に示すように,入力側の格要素と格フレームの格との対応付け全体を表す.対応関係は図示のもの以外にも,「弁当は」をガ格に対応付ける可能性がある.述語項構造生成確率$P(\mathit{CS}_i|f_i,w_{h})$は次のようになる.\begin{align}P(\mathit{CS}_i|f_i,w_{h})&=P(v_i,\mathit{CF}_l,\mathit{CA}_k|f_i,w_{h})\nonumber\\&=P(v_i|f_i,w_{h})\nonumber\\&\timesP(\mathit{CF}_l|f_i,w_{h},v_i)\nonumber\\&\timesP(\mathit{CA}_k|f_i,w_{h},v_i,\mathit{CF}_l)\nonumber\\&\hboxto105pt{$\approxP(v_i|w_{h})$\hfill}\mbox{(用言生成確率)}\label{Formula::PA}\\&\hboxto105pt{$\quad{}\timesP(\mathit{CF}_l|v_i)$\hfill}\mbox{(格フレーム生成確率)}\nonumber\\&\hboxto105pt{$\quad{}\timesP(\mathit{CA}_k|\mathit{CF}_l,f_i)$\hfill}\mbox{(格の対応関係生成確率)}\nonumber\end{align}この近似は,述語$v_i$はその係り先の語$w_{h}$のみに,格フレーム$\mathit{CF}_l$は述語$v_i$のみに,格の対応関係$\mathit{CA}_k$は格フレーム$\mathit{CF}_l$と付属語列$f_i$に依存すると考えられることによる.\begin{figure}[b]\begin{center}\includegraphics{14-4ia4f1.eps}\caption{格の対応関係$\mathit{CA}_k$の例}\label{Figure::Correspondence}\end{center}\end{figure}用言生成確率と格フレーム生成確率は大規模コーパスの格解析結果から推定する.\unskip$P(\mathit{CA}_k|\mathit{CF}_l,f_i)$は,格の対応関係生成確率と呼び,以下で詳説する.\subsubsection{格の対応関係生成確率}格の対応関係$\mathit{CA}_k$を,格フレームの格スロット$s_j$ごとに考える.格スロット$s_j$に入力側の格要素(体言$n_j$,格要素タイプ$f_j$)が対応付けられているかどうかで場合分けすると,次のように書き換えることができる.\begin{equation}\begin{aligned}[b]P(\mathit{CA}_k|\mathit{CF}_l,f_i)&=\prod_{s_j:A(s_j)=1}P(A(s_j)=1,n_j,f_j|\mathit{CF}_l,f_i,s_j)\\&\times\prod_{s_j:A(s_j)=0}P(A(s_j)=0|\mathit{CF}_l,f_i,s_j)\end{aligned}\label{Formula::CCExample}\end{equation}ただし,$A(s_j)$は,格スロット$s_j$に入力側格要素が対応付けられていれば$1$,そうでなければ$0$をとる関数である.式(\ref{Formula::CCExample})右辺第1項の各確率は次のように分解できる.\begin{equation}\begin{aligned}[b]P(A(s_j)&=1,n_j,f_j|\mathit{CF}_l,f_i,s_j)\\&=P(A(s_j)=1|\mathit{CF}_l,f_i,s_j)\timesP(n_j,f_j|\mathit{CF}_l,f_i,A(s_j)=1,s_j)\end{aligned}\label{Formula::CaseAndExample}\end{equation}この式の第1項と式(\ref{Formula::CCExample})第2項の各確率は,$f_i$には依存しないと考えられるので,それぞれ$P(A(s_j)=1|\mathit{CF}_l,s_j)$,$P(A(s_j)=0|\mathit{CF}_l,s_j)$となる.これらは格スロット生成確率と呼び,大規模コーパスの格解析結果から推定する.$P(n_j,f_j|\mathit{CF}_l,f_i,A(s_j)=1,s_j)$は格要素生成確率と呼ぶ.例えば,$P(CS(\mbox{弁当は食べる})|\mbox{テ形},\mbox{出発する})$について考える.「食べる」のある格フレーム$CF_{\mathrm{食べる1}}$がガ格とヲ格をもっているならば,この格フレームを用いたときの述語項構造生成確率としては,「弁当は」をガ格またはヲ格に対応付けるときの2つを考えることになる.以下に「弁当は」をヲ格に対応付けるときの確率を示す.\begin{align*}P(CS(\mbox{弁当は食べる})|\mbox{テ形},\mbox{出発する})&=P(\mathrm{食べる|出発する})\\&\timesP(CF_{\mathrm{食べる1}}|\mathrm{食べる})\\&\timesP(A(\mathrm{を})=1|CF_{\mathrm{食べる1}},\mbox{を})\\&\timesP(A(\mathrm{が})=0|CF_{\mathrm{食べる1}},\mbox{が})\\&\timesP(\mathrm{弁当},\mathrm{は}|CF_{\mathrm{食べる1}},\mbox{テ形},A(\mathrm{を})=1,\mbox{を})\end{align*}\subsubsection{格要素生成確率}\label{Section::用例生成確率}格要素の体言$n_j$と格要素タイプ$f_j$を生成する確率は独立であり,表層格の解釈は格フレームに依存しないと考え,格要素生成確率は以下のように近似する.\begin{equation}P(n_j,f_j|\mathit{CF}_l,f_i,A(s_j)=1,s_j)\approxP(n_j|\mathit{CF}_l,A(s_j)=1,s_j)\timesP(f_j|s_j,f_i)\label{Prob::CaseComponent}\end{equation}$P(n_j|\mathit{CF}_l,A(s_j)=1,s_j)$は用例生成確率と呼び,格フレーム自体から推定する.格要素タイプ$f_j$としては,表層格$c_j$,読点の有無$p_j$,提題助詞「は」の有無$t_j$の3つを考慮する.\begin{align}P(f_j|s_j,f_i)&=P(c_j,t_j,p_j|s_j,f_i)\nonumber\\&=P(c_j|s_j,f_i)\nonumber\\&\timesP(p_j|s_j,f_i,c_j)\nonumber\\&\timesP(t_j|s_j,f_i,c_j,p_j)\nonumber\\&\hboxto84pt{$\approxP(c_j|s_j)$\hfill}\mbox{(表層格生成確率)}\\&\hboxto84pt{$\quad{}\timesP(p_j|f_i)$\hfill}\mbox{(読点生成確率)}\nonumber\\&\hboxto84pt{$\quad{}\timesP(t_j|f_i,p_j)$\hfill}\mbox{(提題助詞生成確率)}\nonumber\end{align}この近似は,$c_j$は$s_j$のみに,$p_j$は$f_i$のみに,$t_j$は$f_i$と$p_j$に依存すると考えられるためである.表層格生成確率は,表層格を解釈した格をタグ付けした京都テキストコーパス\cite{Kawahara2002j}を用いて推定する.日本語では,読点や提題助詞はそれらの属する文節が遠くに係る場合に用いられやすいという傾向がある.このような傾向を考慮して,読点生成確率$P(p_j|f_i)$と提題助詞生成確率$P(t_j|f_i,p_j)$を以下のように定義する.\begin{align}P(p_j|f_i)&=P(p_j|o_i,u_i)\\P(t_j|f_i,p_j)&=P(t_j|o_i,u_i,p_j)\end{align}$o_{i}$は,対象格要素がほかの係り先候補を越えて$v_i$に係る場合に$1$をとり,それ以外では$0$となる.$u_i$は,節の区切れとしての強さであり,強い節ほど読点や提題助詞をもつ句を受けやすい.節の強さとしては,南による節の分類\cite{Minami1993}を参考にして設定した5段階を考える.\subsection{用言タイプ生成確率}\label{Section::付属語列生成確率}用言タイプ生成確率$P(f_i|f_{h})$は,文節$b_{h}$のタイプを条件にしたときに,それに係っている節$c_i$の用言タイプを生成する確率である.この確率は,節$c_i$が連用節であるか連体節であるかで次のように異なる.節$c_i$が連用節の場合は,節間の係り受けに大きな影響を及ぼすと考えられる読点の有無と連用節のタイプ(強さ)を考慮する.これに加えて,$c_i$がほかの係り先候補を越えて$b_{h}$に係るかどうかを考慮する.\begin{equation}P_{\mathit{VBmod}}(f_i|f_{h})=P_{\mathit{VBmod}}(p_i,u_i|p_{h},u_{h},o_{h})\end{equation}節$c_i$が連体節である場合は,受側すなわち体言のタイプには依存しないと考え,次のように定義する.\begin{equation}P_{\mathit{NBmod}}(f_i|f_{h})=P_{\mathit{NBmod}}(p_i|o_{h})\end{equation} \section{実験} 提案手法によって解析した構文・述語項構造の評価実験を行った.各パラメータは表\ref{Table::ParameterEstimation}のリソースから最尤推定によって計算した.これらのリソースは一度の処理で得られたものではなく,構文解析,格フレーム構築,格解析という順番で処理を行い,得られたものである.ここにおける格解析は,シソーラスに基づく類似度を用いた格解析\cite{Kawahara2005}である.格フレームはウェブテキスト約5億文から自動構築したものを用い,格解析済みデータはウェブテキスト約600万文を格解析することによって得たものを用いた.構文構造の候補としては,ルールベースの構文解析器KNPが出力するすべての候補を用いた.\begin{table}[b]\input{table2.txt}\end{table}\subsection{構文解析実験}構文解析実験は,ウェブテキスト675文\footnote{これらの文は格フレーム構築とモデル学習には用いていない.}を形態素解析器JUMANに通した結果を提案システムに入力することによって行う.その675文には,京都テキストコーパスと同じ基準で係り受けのタグ付けを行い,これを用いて係り受けの評価を行った.文末から2つ目までの文節以外の係り受けを評価し,その評価結果を表\ref{Table::Accuracy}に示す.表において,「CaboCha」とは,SVMに基づく統計的構文解析器CaboCha\footnote{http://chasen.org/{\textasciitilde}taku/software/cabocha/(形態素解析器JUMANの結果を入力できる最後のバージョンであるCaboCha0.36を用いた.)}を表し,「KNP」とは,構文解析器KNPを表しており,いずれのシステムにも同じ形態素解析結果を入力している.係り受けの精度比較のため,「CaboCha」には「KNP」による文節区切りの結果を入力し,文節区切りも一致させている.\begin{table}[b]\input{table3.txt}\end{table}\begin{table}[b]\input{table4.txt}\end{table}表\ref{Table::Accuracy}より,提案手法は「CaboCha」や「KNP」より精度がよいことがわかる.マクネマー検定を行った結果,提案手法の精度は「CaboCha」と「KNP」より有意($p<0.05$)に上回っていることがわかった.また,表には,係り受けのタイプごとの精度も併せて示してある.述語項構造と密接に関係しているのは,「体言$\rightarrow$用言」の係り受けであり,その中で中心的なのは「係助詞句以外」である.その精度は「KNP」と比べて1.6\%向上しており,エラー率は10.9\%減少している.これより提案手法が,述語項構造に関係する係り受けの解析に有効であることがわかる.表\ref{Table::GoodExamples}に,「KNP」では誤りになるが,提案手法によって正解になった例を挙げる.四角形で囲まれた文節の係り先が×下線部から○下線部に変化したことを示している.また,以下に提案手法の主な誤り原因を挙げる.\subsubsection*{係り受けの正解基準からのずれ}提案モデルは,語彙的な選好を強く考慮して係り受けを決定する.しかし,解析結果が,係り受けの正解基準とずれるために,誤りとなる場合がある.\begin{itemize}\item\fbox{行政相談委員は,}~いつでも自宅でみなさんからのご相談に\qline{応じていますが,}{×}この期間中は次のところで行政相談所を\qline{開きます.}{○}\end{itemize}この文において,「行政相談委員は,」の正解係り先は「開きます.」であるが,提案手法は係り先を「応じていますが,」と解析し,誤りとなる.「開きます.」,「応じていますが,」のどちらも意味的には係り先として正しいと考えられるが,基準としては文末の「開きます.」であるのでずれが生じる.このような問題を解決するには,省略関係の正解を考慮しながら評価を行う必要がある.\subsubsection*{係り受けの制約}KNPが出力している構文構造の候補中に,正解の構造が含まれていないことがある.\begin{itemize}\item本当に,美味い~\fbox{コーヒーを}~\qline{お探しの}{○}方にオススメの\qline{サイトです.}{×}\end{itemize}この文において,「コーヒーを」の正解係り先は「お探しの」であるが,「お探しの」は「コーヒーを」の係り先候補にはなっていないために解析が誤る.「お探しの」のような体言の文節は,通常,連体修飾しか受けないためこのような扱いになっているが,この問題を解決するためにはこのような制約を緩める,より多くの候補を探索する必要がある.\subsubsection*{各確率の重み付け}提案モデルにおいて,各確率を重み付けすることは行っていない.実際には,読点を考慮する確率と用例を生成する確率のどちらかを強く考慮するかの重みを最適化した方がよい場合があり,機械学習手法を用いてそのような最適化を行うことが考えられる.\subsection{格解析実験}述語項構造が正しく認識されているかを評価するために,係助詞句と被連体修飾詞の格が正しく認識できているかどうかを調べた.ウェブテキスト215文に対して京都コーパスと同様の基準で関係タグを付与し,それと自動解析結果を比較した.精度を表\ref{Table::CaseAccuracy}に示す.ベースラインとは,類似度に基づく格解析手法\cite{Kawahara2005}である.この表より,ベースラインから大幅に改善しており,提案手法が有効であることがわかる.\begin{table}[b]\input{table5.txt}\end{table}\subsection{格フレームのカバレージ}解析における格フレームのカバレージを調べるために,格要素がその係り先用言の格フレームの用例になっているかどうかを調べた.正しい係り受けのみを評価したところ,60.7\%の格要素が格フレームの用例となっていた.比較のため,新聞記事26年分の2,600万文から構築した格フレームで同様の実験を行ったところ,35.1\%であった.これより,ウェブテキスト5億文から構築した格フレームは高いカバレージをもっていることが確認された.また,英語の統計的構文解析器において,テスト文中の2項間の依存関係が学習コーパス中に存在する割合が約1.5\%であるという報告がある\cite{Bikel2004}.言語・リソースの違いがあるので直接の比較はできないが,格フレームのカバレージは非常に高いと思われる. \section{関連研究} これまでに,語彙的選好を明示的に扱う構文解析手法がいくつか提案されてきた.白井らは,PGLRの枠組みに基づく統計的構文解析手法を提案している\cite{Shirai1998}.語彙的選好として,例えば$P(パイ|を,食べる)$のような確率を新聞記事5年分から学習している.しかし,本研究で用いたような格フレームは導入しておらず,用言の意味的曖昧性を区別せずに確率推定を行っている.京都テキストコーパス中の比較的短い500文を用いて評価を行い,84.34\%の解析精度であったと報告している.藤尾らは,語の共起確率に基づく構文解析手法を提案している\cite{Fujio1999}.2つの語が係り受けをもつ確率と距離確率の積で定義した確率モデルを用いており,それらの確率はEDRコーパスから学習している.EDRコーパス1万文を用いて評価を行い,86.89\%であったと報告している\footnote{文末から2つ目の文節も評価に入れている.}.阿辺川らは,同じ用言を係り先とする格要素間の従属関係と,格要素・用言間の共起関係を利用した構文解析手法を提案している\cite{Abekawa2006}.これら2つの関係を新聞記事30年分から収集し確率モデルを学習している.既存の構文解析器の出力するn-bestの構文木候補に対して,確率モデルに基づくリランキングを適用し,もっとも確率値の高い構文木を選択している.京都テキストコーパス中の約9,000文を用いて評価を行い,既存の構文解析器よりも0.26\%高い91.21\%の精度を実現している\kern0pt$^{3}$.さらに,阿辺川らの被連体修飾詞の解析\cite{Abekawa2005}を統合することによって,0.04\%高い91.25\%の精度を得ている.一方,語彙情報を素性として用いている様々な機械学習手法が提案されている.その中でもっとも良い精度を実現しているのは,工藤らが提案している統計的構文解析手法である\cite{Kudo2002}.この手法は,SVMに基いてチャンキングを段階的に適応していくモデルであり,京都テキストコーパスから学習している.同コーパス(約40,000文)を用いて2分割交差検定により評価を行い,90.46\%の精度を実現している\kern0pt$^{3}$.しかし,数万文程度のタグ付きコーパスからでは,係り先候補間の語彙的選好を十分学習するのはほとんど困難であると思われる.なお,本論文の実験で比較対象とした「CaboCha」は,本手法を実装した解析器である.\vspace{-0.5\baselineskip} \section{おわりに} 本論文では,ウェブから獲得した格フレームに基づく構文・格解析の統合的確率モデルを提案した.このモデルによって,構文解析の精度が向上することを確認した.今後は,省略・照応解析を統合することによって,格フレームに基づく構文・格・省略・照応解析の統合的確率モデルを構築する予定である.\vspace{-0.5\baselineskip}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bikel}{Bikel}{2004}]{Bikel2004}Bikel,D.~M.\BBOP2004\BBCP.\newblock\BBOQIntricaciesof{C}ollins'ParsingModel\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(4),\mbox{\BPGS\479--511}.\bibitem[\protect\BCAY{藤尾\JBA松本}{藤尾\JBA松本}{1999}]{Fujio1999}藤尾正和\JBA松本裕治\BBOP1999\BBCP.\newblock\JBOQ語の共起確率に基づく係り受け解析とその評価\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(12),\mbox{\BPGS\4201--4212}.\bibitem[\protect\BCAY{白井\JBA乾\JBA徳永\JBA田中}{白井\Jetal}{1998}]{Shirai1998}白井清昭\JBA乾健太郎\JBA徳永健伸\JBA田中穂積\BBOP1998\BBCP.\newblock\JBOQ統計的構文解析における構文的統計情報と語彙的統計情報の統合について\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(3),\mbox{\BPGS\85--106}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--132}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2006}]{Kawahara2006}河原大輔\JBA黒橋禎夫\BBOP2006\BBCP.\newblock\JBOQ高性能計算環境を用いた{W}ebからの大規模格フレーム構築\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2006-NL-171},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara2002j}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock\JBOQ「関係」タグ付きコーパスの作成\JBCQ\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{Kudo2002}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1994}]{Kurohashi1994}黒橋禎夫\JBA長尾眞\BBOP1994\BBCP.\newblock\JBOQ並列構造の検出に基づく長い日本語文の構文解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),\mbox{\BPGS\35--57}.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami1993}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{阿辺川\JBA奥村}{阿辺川\JBA奥村}{2005}]{Abekawa2005}阿辺川武\JBA奥村学\BBOP2005\BBCP.\newblock\JBOQ日本語連体修飾節と被修飾名詞間の関係の解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\107--123}.\bibitem[\protect\BCAY{阿辺川\JBA奥村}{阿辺川\JBA奥村}{2006}]{Abekawa2006}阿辺川武\JBA奥村学\BBOP2006\BBCP.\newblock\JBOQ共起情報及び複数格の組み合わせを考慮した係り受け解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\43--62}.\end{thebibliography}\begin{biography}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員を経て,2006年独立行政法人情報通信研究機構研究員,現在に至る.構文解析,省略解析,知識獲得の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
V15N04-04
\section{はじめに} 計算機科学でいう「オントロジー」とは,ある行為者や行為者のコミュニティーに対して存在しうる概念と関係の記述であり「概念」というのは,何らかの目的のために表現したいと思う抽象的で単純化した世界観である(Gruber1992).認知科学では,「概念」について外延的意味(事例集合で定義された意味)と内包的意味(属性の集合から定義された意味)の見方があるとする\cite{Book_02}.我々の認知活動の中で,概念化は,語,文,文脈,動作の仕方,事柄,場面など,様々なレベルで行われている.では,なぜ対象の概念化が必要かというと,河原では,MedinandGoldstone\nocite{book_24}を引用して「概念」の機能を次のように述べている(MedinandGoldstone1990;河原2001)「現在の経験を,あるカテゴリの成員とみなす(分類)ことで,その経験を意味のあるまとまりとして解釈し(理解と説明),そこから将来に何がおきるか(予測)や関連する別の知識(推論)を引き出すことが可能になる(コミュニケーション).その他,複数の概念を表す語を組み合わせて新たな概念を生成したり,新たな概念の記述を生成してから,その記述にあう事例を検索することもできる」.つまり,人間や計算機が効率的に柔軟な活動をするために,概念と,(言語化する・しないにかかわらず)概念の具体化された表現(あるいは事例)の総体である「オントロジー」は重要な役割を担っているといえる.我々が対象とする言語的オントロジー,特に,語彙の概念を体系化したオントロジーは,概念体系や意味体系と呼ばれ10年以上前から人手で構築されてきた(EDR電子化辞書(日本電子化辞書研究所1995)や分類語彙表\cite{book_16}など).その目的は,ある特定のアプリケーションでの利用ではなく,我々の言語知識を体系化することであり,その知識体系を利用して計算機に予測・推論・事例の検索・新たな概念の理解など,深い意味処理をさせることを目的としている.本研究がめざす「形容詞のオントロジー」の目的も,従来の語彙的なオントロジーの目的と同様に,計算機や人間が,形容詞を使って表現する知識の体系化をはかるものである.ここで本研究の「形容詞」とは,形容詞と形容動詞を含むものとする.従来のものと異なる点は,実データからの獲得を図るため,運用の実態を反映したオントロジーを得ようとすることである.人間の内省による分析の場合,概念記述を行う個々人の言語的経験から,概念体系の粒度や概念記述に差異がでてくる.心理実験のように,複数の人が同じタスクをすれば共通の傾向もとれるが,通常のプロジェクトでは同じ個所に多くの人を投入することは不可能である.自動獲得の目的は,できるだけ実際の言語データから言語事実を反映した結果を得ることである.一つ一つのテキストは個々人の記述だが,それを量的に集めれば,複数の人のバリエーションを拾うことができ,結果的に多くの人の言語運用の実態をとることができる.言語データから意味関係を反映した概念体系を捉えられれば,人間の内省によって作られたオントロジーや言語学的知見,意味分類などと比較することは意義があるのではないかと考える.ところで,コーパスからの語彙のクラスタリングや上位下位関係の自動構築などについては,Webの自動アノテーションやインデックス,情報検索など,その目的は様々であるが,そのほとんどが,名詞や動詞を対象にした分類や関係抽出である.形容詞や副詞に関する研究はまだ少ない.しかし,形容詞や副詞が語彙のオントロジーにとって重要でないわけではなく,たとえば,WordNetで形容詞の意味情報が手薄であることを指摘し,イタリア語形容詞の意味情報を導入することで,ヨーロッパの複数言語で共同開発しているEuroWordNetの抽象レベルの高い概念体系(EuroWordNetTopOntology)に変更を加えることを試みている研究がある\cite{Inproc_01}.オントロジーの主要な関係の一つに,類義関係と階層関係がある.形容詞概念を表すような抽象的な名詞の類義関係については,馬らなどの研究がある\cite{Article_21}.しかし,形容詞概念の階層関係については,まだ研究が進んでいない.本研究では,形容詞概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べる.本研究で扱う概念数は約365概念であり,それに対しEDR電子化辞書の形容詞の概念数が約2000概念ほどと考えると取り扱うべき概念はさらに増える可能性があるが,本研究は,現時点よりも多くの概念数を扱うために,まず,現段階での概念数で,階層構築とその評価方法について実験および考察を行ったものである.我々は,第2節でオントロジーのタイプの中で本研究がめざすオントロジーについて述べ,第3節で先行研究の言語学的考察から,形容詞の概念を語彙化したような表現があることを述べ,形容詞の概念をコーパスから抽出する.第4節では第3節で抽出したデータをもとに複数の尺度での階層構築と,得られた階層のうち,妥当そうな階層を判別するための条件を述べ,第5節で心理実験によってEDRの形容詞概念階層と比較評価を行う.第6節でオントロジー構築に向けての今後の展望をのべ,第7節でまとめを行う. \section{オントロジーのタイプ} 「オントロジー」という用語が喚起する定義や種類,目的などは多様化しているため,本研究がどのようなオントロジーで,何を目的として作るのかを明らかにする必要がある.Sowaは,主なオントロジーのタイプとして,terminologicalontology,prototype-basedontology,formalontologyなどをあげている(Sowa2003).Terminologicalontologyは,概念の上位下位関係や部分全体関係などの関係が特定され,他の概念との相対的な関係が決められているタイプのものである.このタイプのオントロジーは概念を完全に定義するものではない.意味公理や論理的な定義よりも,プロトタイプや事例によって弁別されるオントロジーが,prototype-basedontologyである.つまりプロトタイプ集合や事例集合が相対的な関係をもって分類されているタイプのものである.また,論理形式で書かれる意味公理や定義によって概念が弁別されるオントロジーがformalontologyである.論理の複雑さの制限はない.一般的なterminologicalontologyとformalontologyの違いは,種類というより,概念間の関係の深さが異なり,formalontologyは規模が概して小さいが,深い記述がされるため推論をサポートするのに用いられる.Biemannはそれぞれのタイプを図示し(図1),長所と短所を述べている\cite{Article_03}.このうち,formalontologyは直接推論に使えるものの,コード化に労力がかかり,大規模になると不整合もおきる危険性がある.一方,terminologicalontologyやprototype-basedontologyは自動化がしやすく作りやすい.しかし,prototype-basedontologyは,概念ラベルがないので,QAシステムなどには使いにくい.このオントロジーは語のクラスタリングによってすぐに導出されるのでterminologicalontologyより構築しやすいが,利用しにくい.その他の種類として,シソーラスがあげられる.シソーラスは関連語のまとまりをもち,prototype-basedontologyに似ている.しかし,関連語などの中には互いに異なった関係も含まれている場合がある.テキストからオントロジーを学習するのに利用できる手法として,分布特性によるクラスタリングをはじめ,表層的な統語情報や特定の言語表現パタンなどを利用して,階層関係や部分全体関係などの単語間の関係を獲得する研究などがある\cite{Inproc_10,Inproc_09,Inproc_05,Inproc_04}.これらの研究と関係が深いが,Semanticlexiconの構築としてのオントロジーの学習という観点もある.Semanticlexiconは,カテゴリと事例のセットという形であるが,オントロジーのように内部的に構造化されていない.そのアルゴリズムのほとんどがbootstrappingのアプローチである\cite{Inproc_29,Inproc_36,Inproc_18,Inproc_27}.\begin{figure}[t]\begin{center}\includegraphics{15-4ia4f1.eps}\caption{菜食主義用食物と非菜食主義用食物を区別する食物オントロジー}(Biemann2005\nocite{Article_03}p.79からの引用)\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{15-4ia4f2.eps}\end{center}\caption{Semanticlexicon}\end{figure}以上,Sowa,Biemann\nocite{Article_03}に従ってオントロジーのタイプを概観したが,我々が目的とする形容詞のオントロジーは,形容詞が事例となり,その事例が共通してもつ概念がラベルとなり,その概念ラベルが構造化されたオントロジーという形である.上記でいえば,Semanticlexiconのように形容詞の事例とそれらが共通にもつ概念を一つのユニットとして,それが,ラベルつきprototype-basedontologyのように構造化されたものである.これは,EDR電子化辞書や分類語彙表などの語彙の概念体系/意味体系と同様の形である.ただし,概念名については,EDR電子化辞書は説明的記述を使い,『分類語彙表』の項目では抽象的な語句あるいは代表的な形容詞を使っているが,本研究では,概念ラベルを抽象的な名詞で表現している.オントロジーは柔軟に概念と表現を結びつける必要があるので,概念間の関係は一種類ではなく複数想定され,木構造よりネットワーク的な形態の可能性もある.しかしまずは,概念の類義関係と階層関係をとらえていきたいと考える.本稿では,その一環として,特に,形容詞の概念の上位・下位関係について焦点をあてる. \section{言語表現に現れる「概念とその具体事例」という関係} \subsection{言語現象}日本語では,高橋が,以下のような例を言語学的に観察している\cite{Article_34}.(1)やぎは\underline{性質}がおとなしい\par(2)ぞうは\underline{鼻}が長い(1)の「性質」は,主体「やぎ」からみると主体のある一面を表すので「側面語」であり,(2)は,主体「ぞう」からみると身体の一部であるので「部分語」と呼び分けて,統語的には同じ構造でも,語の文中での役割の違いを指摘した.そして,側面語については,主語が示すものの側面を表すとともに,述語が示す属性の類概念(上位概念)を表す単語であると考察している.また根本は,「色が白い」「速さがはやい」「年が若い」「背が高い」などは,同義反復的な性格が強いと述べている\cite{Book_26}.このように,我々の言語活動の中でも,形容詞の上位概念を語彙化した表現がみられる.本研究では,(1)の「性質—おとなしい」や「色—白い」「速さ—はやい」などの関係を,「概念とその具体事例」という関係と捉え,このような抽象的な名詞と形容詞の共起をコーパスから抽出する.本稿では,このような抽象的な名詞を「概念」とよび,共起する形容詞を「事例」と考える.\subsection{コーパスからの抽出方法}次に抽出方法であるが,上記の例のような「NはXがAdj」というパタンは今回は利用していない.この構文のNとX,Adjの意味関係は様々である.それは,3.1節の(1)と(2)が構文上同じ形をしているにもかかわらず,NやAdjに対するXの意味関係が違っていることからもわかる.従って,コーパスから「NはXがAdj」の文型を集めると,量は多いが,「概念とその具体事例」という関係を雑多な関係の中から取捨選択することが難しい.これにはなんらかの基準が必要である.(なるべくある程度のノイズがあっても自動化したり,あるいは人間が簡単に判別できる基準を求める必要があろうが,それは今後の課題とする.)\begin{description}\item[1]抽出方法は,毎日新聞94年,95年の2年分のデータから,「XトイウY」の句を抽出することからスタートする.「トイウ」の直前に現れる表現は,内容節(あるいは内容語)である.寺村,益岡は連体修飾表現を分析しているが,特に益岡では「トイウ」内容節をとる場合は,YがXの属する範疇だとしている\cite{Book_35,Book_19}.たとえば,「質実剛健という気風」の例では,「気風」(Yに相当)は「質実剛健」(Xに相当)の属する範疇ということである.そこで,何かを範疇化する可能性をもつ「Y」の収集を目的として,「XトイウY」を使って「Y」をコーパスから自動的に抽出した.このプロセスは,具体事例によって説明される被修飾名詞の収集を意図している.具体的には,コーパスを形態素解析(JUMANを使用)したあと,「トイウ」の前後の単語を抽出した.最終的にYにくる被修飾名詞は15,391語となった.\item[2]次に,「トイウ」を介在して内容語を取るYを集めた後,Yと共起する形容詞をコーパスから抽出する.たとえば,「温和な性格」とは表現しても,「トイウ」を介在させた「温和という性格」のような表現はあまり見られない.そこで,単にYと共起する形容詞を取り出すことにした.使用したデータは,毎日新聞11年分,日本経済新聞10年分,日経産業金融流通新聞7年分,読売新聞14年分である.また,新聞以外でも形容詞とY(名詞)の共起をとるため,新潮文庫100選,新書100冊についても使用例を人手によって調べ追加した.このように取り出した共起関係には,雑多な共起関係が含まれているので,本研究で対象とした,Xが具体事例でYがそれを範疇化した語という共起対(「赤い」と「色」のような共起対)を,最終的に人手で整理した.人手によるデータ整理は,一人の作業者が行った.判定基準は,神崎,神崎・井佐原で記述されている,連体用法にみられる形容詞と名詞の統語的・意味的関係の中から,以下の関係を採用した\cite{Article_12,Article_13}.\end{description}\begin{description}\item[I]Adj(形容詞)+X(名詞)⇒XがAdj\\Xを限定する表現(そのX,「NはXが〜」など)をとらなくても「XがAdj」に変換可能なもの.\\被修飾名詞が属性を表現するタイプ.(例)ゆるやかな傾斜\item[II]主語述語関係に変換ができない\begin{description}\item[II-1]形容詞は,被修飾名詞の意味を構成する一部の意味だけにかかり,類似した意味を重ねて強調する働き(例)古い昔\item[II-2]被修飾名詞の指示対象の内容を表す(例)悲しい思い\end{description}\end{description}I)は直接的な属性—属性値の関係であり,II-1)は被修飾名詞の意味の一部を形容詞で顕在化し重ねることで強調する関係,II-2)は被修飾名詞の指示対象の内容を具体化する関係となっている.どれも被修飾名詞の意味を含意しつつ形容詞表現で具体化する関係であるため,これら3つのパタンを採用した.以上のように,上記プロセスの2のステップでは,最終的に人間の内省で取捨選択しており,やはり労力がかかるが,1のステップで,被修飾名詞を「何かを範疇化する可能性のある語」に限定することで,抽出対象とする形容詞と概念の共起対を多く含んだデータを得ようとした.人間の取捨選択で得られた形容詞とY(名詞)共起対の総数は36,023共起対,異なりが10,524共起対である.概念数は365で,最大共起形容詞数は,「こと」の1,594語である.出現する共起形容詞数に対する各概念の例は以下のようになる.\pagebreak\begin{table}[h]\caption{形容詞の共起数ごとの概念例}\begin{center}\input{04table01.txt}\end{center}\end{table}そして,抽出した概念と形容詞グループを最終的に以下のようなリストにまとめた.\begin{table}[h]\caption{抽出した概念と形容詞グループ}\begin{center}\includegraphics{15-4ia4t2.eps}\end{center}\end{table}概念名となる抽象名詞と形容詞集合のリストを作る際,同じ抽象名詞であっても,明らかに指示対象が異なる場合は,番号をつけて区別した.たとえば,物理的な「形」(たとえば「丸い形」)と,形式的な意味の「形」(たとえば「おだやかな形で〜」)では,「形」の指すものが異なるので,「形1」「形2」のように区別し,形容詞集合をわけた.一方,形容詞についてはどのような名詞と共起しているか,だけをみており,ここで形容詞の多義は区別していない. \section{概念の階層関係の構築—階層構築の手法と閾値の選定基準—} 本節では,包含関係を求める尺度を使い,第3節で抽出した形容詞の概念の階層構築を行う.概念間の包含関係を求める尺度として,HagitaandSawakiが開発し山本・梅村が言語データへ応用した補完類似度(ComplementarySimilarityMeasure,CSM)と,頻度を考慮したCSM(Freq),そして,CSM以外の尺度としてオーバーラップ相関係数(OverlapCoefficient,Ovlp)を使う\cite{Inproc_08,Article_37,Book_22}.2つの概念間の包含関係を計算したのち階層構築を行うが,予備実験を行った結果,全ての包含関係の概念ペアを使うと明らかにランダムな長い階層ができた.そこで,包含関係が希薄な概念ペアが階層関係の精度を低くすることを阻止するため,包含関係の値に閾値を設定することにした.しかし,閾値設定の問題点として,ゴールドスタンダードがないこのタスクで,複数の尺度や閾値の組み合わせから構築された階層の明らかな差異を,一見して判定できない場合,どのように妥当そうな階層を特定したらよいのだろうか.第5節では心理実験によって階層評価を行うが,事前に明らかに不適当な尺度と閾値の組み合わせを除外するために,緩やかな階層の評価方法が必要になる.本節では,包含関係の尺度を用いて階層構築を述べた後,包含関係の尺度と閾値の組み合わせの妥当性をいくつかの観点から眺め,妥当そうな類似尺度と閾値をある程度特定する方法を述べる.\subsection{包含関係の尺度}包含関係の尺度として,3種類の方法を用いた.まず,補完類似度(CSM)について述べる.補完類似度は一対多関係を推定する尺度として提案されたが,事象間の一対多関係は,包含関係(あるいは上位下位関係)を表すので,包含関係を推定する尺度とも考えられる.山本,梅村では,{沖縄県,那覇市}のような一対多関係を推定するタスクを行っており,そのタスクでは,コーパスからの関係抽出に用いられた他の類似尺度や連想規則の抽出に用いられる類似尺度など(たとえば相互情報量,コサイン関数,ダイス相関係数など)よりもよい結果を示したことが報告されている\cite{Article_37}.この補完類似度を用いて,対象としている概念の包含関係,つまり上位下位関係を推定する.補完類似度は以下のようになる.今,共起形容詞のセットで定義した抽象名詞$F$と$T$があるとする.我々のデータでは,FとTの特徴ベクトルは,双方の共起形容詞の出現状況を0または1で表現したものに相当する.それを以下のように表す.\begin{align*}&\overrightarrow{F}=(f_{1},f_{2},...,f_{i},...,f_{n})\quad(f_{i}=0または1)\\&\overrightarrow{T}=(t_{1},t_{2},...,t_{i},...,t_{n})\quad(t_{i}=0または1)\end{align*}そして,補完類似度の式は以下のようになる.\begin{gather}CSM(F,T)=\frac{ad-bc}{\sqrt{(a+c)(b+d)}}\\\begin{aligned}&a=\sum_{i=1}^nf_i\cdott_i,&&b=\sum_{i=1}^nf_i\cdot(1-t_i),\\&c=\sum_{i=1}^n(1-f_i)\cdott_i,&&d=\sum_{i=1}^n(1-f_i)\cdot(1-t_i),\\&n=a+b+c+d&&\end{aligned}\nonumber\end{gather}``$a$''はFとTで共通する共起形容詞の数である.\\``$b$''はFとは共起するがTとは共起しない形容詞の数である.\\``$c$''はFとは共起しないがTとは共起する形容詞の数である.\\``$d$''はFともTとも共起しない形容詞の数である.\\``$n$''は,ベクトルの次元数となる.\vspace{\baselineskip}FがTを完全に包含する場合,$c=0$となり,TがFを包含する場合,$b=0$となるため,$bc=0$となる.補完類似度では,一致情報(ad)と不一致情報(bc)の差分をとるので,包含関係にある二語間の類似度は高くなる.さらに,補完類似度はFからTの類似度とTからFの類似度が非対称であることも特徴の一つである.FからTをみた補完類似度では,$b$はFだけに出現する形容詞の数,$c$はTだけに出現する形容詞の数である.逆に,TからFをみた補完類似度では,$b$はTだけに出現する形容詞の数となり,$c$はFだけに出現する形容詞の数となる.計算式の分母をみると,FとTがどちらの方向の類似度を計算するかで,$b$と$c$に代入される数値の大小が逆転し,それに伴って,類似度も非対称になる.次にCSMと比較する手法として,オーバーラップ相関係数(Ovlp)と頻度つきCSM(Freq)の階層を用いる.オーバーラップ相関係数について,ManningandSh\"{u}tzeは包含関係を求める尺度として述べている\cite{Book_22}.これは,二値ベクトル間の類似尺度で,計算式は以下のようになる.{\allowdisplaybreaks\begin{gather}\begin{aligned}&\overrightarrow{F}=(f_{1},f_{2},...,f_{i},...,f_{n})\qquad&(f_{i}=0または1)\\&\overrightarrow{T}=(t_{1},t_{2},...,t_{i},...,t_{n})&(t_{i}=0または1)\end{aligned}\nonumber\\\begin{aligned}[b]\mathit{Ovlp}(F,T)&=\frac{|F\capT|}{\mathit{min}(|F|,|T|)}\\&=\frac{a}{\mathit{min}(a+b,a+c)}\end{aligned}\\\begin{aligned}&a=\sum_{i=1}^nf_i\cdott_i,&b=\sum_{i=1}^nf_i\cdot(1-t_i),\\&c=\sum_{i=1}^n(1-f_i)\cdott_i&\end{aligned}\nonumber\end{gather}}$a$,$b$,$c$などのパラメータは,CSMでの定義と同様である.次に頻度を考慮した補完類似度について計算式を示す.これは,Sawaki,Hagiga,andIshiiが二値画像のための補完類似度を,多値画像解析のために拡張したものである\cite{Inproc_31}.Yamamoto,Kanzaki,andIsaharaではこれを言語データに応用している\cite{Inproc_39}.これは,多値ベクトル間の類似尺度で,計算式は以下のようになる.\begin{gather}\begin{aligned}&\overrightarrow{F}_g=(f_{g1},f_{g2},...,f_{gi},...,f_{gn})\qquad&(0\leqf_{gi}<1)\\&\overrightarrow{T}_g=(t_{g1},t_{g2},...,t_{gi},...,t_{gn})&(0\leqt_{gi}<1)\end{aligned}\nonumber\\CSM_{g}(F_{g},T_{g})=\frac{a_{g}d_{g}-b_{g}c_{g}}{\sqrt{nT_{g2}-T_{g}^{2}}}\\\begin{aligned}&a_{g}=\sum_{i=1}^nf_{gi}\cdott_{gi},&&b_{g}=\sum_{i=1}^nf_{gi}\cdot(1-t_{gi}),\\&c_{g}=\sum_{i=1}^n(1-f_{gi})\cdott_{gi},&&d_{g}=\sum_{i=1}^n(1-f_{gi})\cdot(1-t_{gi}),\\&T_{g}=\sum_{i=1}^nT_{gi},&&T_{g2}=\sum_{i=1}^nt_{gi}^2\\\end{aligned}\nonumber\end{gather}この定義式において,各要素は,には,抽象名詞(概念に相当)がi番目の形容詞と頻繁に共起するかどうかの状況を表す,共起頻度に基づく重みを用いる.重みは以下のように求める.\begin{gather}\mathit{Weight}(\mathit{noun},\mathit{adj})=\frac{\mathit{Freq}(\mathit{noun},\mathit{adj})}{\mathit{Freq}(\mathit{noun},\mathit{adj})+1}\\\text{重みの値域は$0\leq\mathit{Weight}(\mathit{noun},\mathit{adj})<1$である.}\nonumber\end{gather}ベクトル$\overrightarrow{F}_g$を持つ抽象名詞を$\mathit{noun}_F$と$\overrightarrow{T}_g$を持つ抽象名詞を$\mathit{noun}_T$とし,上式の重みで$f_{gi}とt_{gi}$を表すと,ベクトルは以下のように表される.\begin{align}\overrightarrow{F}_g&=(f_{gi},f_{g2},...,f_{gn})\nonumber\\&=(\mathit{Weight}(\mathit{noun}_F,\mathit{adj}_1),\mathit{Weight}(\mathit{noun}_F,\mathit{adj}_2),\dots,\mathit{Weight}(\mathit{noun}_F.\mathit{adj}_n))\nonumber\\\overrightarrow{T}_g&=(t_{gi},t_{g2},\dots,t_{gn})\nonumber\\&=(\mathit{Weight}(\mathit{noun}_T,\mathit{adj}_1),\mathit{Weight}(\mathit{noun}_T,\mathit{adj}_2),\dots,\mathit{Weight}(\mathit{noun}_T.\mathit{adj}_n))\end{align}\subsection{概念階層の構築方法}CSMなどによって包含関係を計算し,値を正規化して得られたリストの一部を示すと以下のようになる.\vspace{-1\baselineskip}\begin{table}[h]\caption{CSMによって推定された包含関係}\begin{center}\includegraphics{15-4ia4t3.eps}\end{center}\vspace{-2\baselineskip}\end{table}単語Aから単語Bを見たときのCSM値が,単語Bから単語Aを見たときのCSM値より大きければ,単語Aが上位語,単語Bが下位語となる.たとえば,本稿では概念とは第3節で抽出した抽象的な名詞で定義しており,上記の概念の並びは,左の概念からみた右の概念の包含関係を表している.たとえば,左の概念が「印象」で右の概念が「感じ」の場合は,「印象」からみた「感じ」を示し,上記ではCSM値は0.936となる.逆に,方向が逆転し,左の概念が「感じ」で右の概念が「印象」の場合は,「感じ」からみた「印象」の包含関係を表し,0.778となる.この場合「印象」から「感じ」を見るほうが,CSM値が高いので,「印象」は「感じ」の上位概念となる.ただし,この場合は両方向からのCSM値が高いので,かなり事例に重なりがあると考えられる.上記のような二単語間の包含関係を求めた後,これを利用して階層を構築する.階層構築方法は次のようになる.\begin{itemize}\item[(0)]初期階層として,CSM値の高い順に二単語をつなげる.\\ここでは,仮に単語Aが上位語,単語Bが下位語という関係とする.\\階層(0):A-B(``-''は上位下位関係を示す記号とする)\item[(1)]まず,階層(0):A-Bの下位語を探索する.\\二単語間のCSM値のリストから,単語Bを上位語として,Bの下位語として最大値をとる単語Xを探して,単語Bの後ろに連結し,次に,その単語Xを上位語として,Xの下位語として最大値をとる単語Yを探して,単語Xの後ろに連結する.この操作を下位語がなくなるまで繰り返す.これによって以下のような階層ができる.\\階層(1):A-B-X-Y\item[(2)]次に,\pagebreak階層(0):A-Bの上位語を探索する.\\二単語間のCSM値のリストから,単語Aを下位語として,Aの上位語として最大値をとる単語Wを探して,単語Aの前に連結し,次に,その単語Wを下位語として,Wの上位語として最大値をとる単語Vを探す.この操作を上位語がなくなるまで繰り返す.階層(1)と連結することで以下のような階層ができる.\\階層(2):V-W-A-B-X-Y\\ただし,上位下位関係は必ず保存する.もし上位下位関係が逆転した場合はその関係は連結しない.\item[(3)]長い階層に完全に含まれる短い階層はマージし,二つの階層のうち一単語ずつ異なる場合は,各階層の差異となる二単語の補完類似度の値を測り,上位下位関係があれば結合した.\begin{itemize}\item[例1)]A-B-C-D-EとA-B-Dという階層があるとき\\A-B-Dは,順序を保存した状態で長い階層に完全に含まれるのでマージし,短い階層は削除する.\\A-B-C-D-E\item[例2)]A-B-C-D-EとA-B-X-D-Eがあるとき\\CとXの補完類似度の値を求め,CとXに上位下位関係があれば結合した.\\A-B-C-X-D-E\end{itemize}\item[(4)]最後に各階層のトップに「こと」を結合する.「こと」は全ての形容詞と共起するとして,計算時間の便宜上,「こと」は最後に各階層のトップに結合させることとした.\\最終階層:こと-V-W-A-B-X-Y\end{itemize}\subsection{妥当そうな手法と閾値の選定}4.2節で求めた概念間の包含関係を全て使って階層を構築すると,冗長な意味のない概念階層(つまり単語の羅列)になり,閾値があまりに高いと,概念階層は非常に短くなる(つまり,連結される名詞があまりにも少なくなる).そこで,包含関係が希薄な概念ペアが階層関係構築時に悪影響を及ぼすことを阻止するため,包含関係の値に閾値を設定することにした.CSMについては0.3と0.2,Ovlpについては0.3と0.2,Freqについては0.2と0.1の閾値を設定し,その閾値以上の概念間の包含関係を用いて階層を構築した.これらの閾値による階層は,概念を連結したある程度の長さの階層であり,かつ,明らかにおかしい概念の羅列ではない.この閾値以上でも以下でも,前述の弊害が出る.逆にいえば,前述の閾値からできた階層は,一見して妥当なのか,妥当ではないのか,すぐにはわからないともいえる.手法ごとに多くの階層が生成され,閾値をいくつか設定すれば,その分だけ,また階層が増えるので,心理実験などで既存辞書との比較評価を行おうと思えば,妥当そうな階層を事前に選定した方が効率的である.そこで,次のような観点から,階層を分析した.\begin{itemize}\item[(1)]形容詞の階層としてできた階層の割合\\第2節で述べたprototype-basedontologyで構造化された事例集合(図1)をみるとわかるように,最下位レベルで出現している「チーズ」は,最上位レベルの事例集合にも出現している.通常,上位概念の特徴は下位概念の特徴に「継承」される.概念の特徴を定義するのが事例集合である場合,下位レベルで出現する事例は,上位レベルの概念の事例にもなる(「すずめ」は,鳥の事例でもあり,動物の事例でもあり,生物の事例である).この認知科学的ルールから,自動構築した階層の,最下位概念の事例集合(形容詞の集合)が,最上位概念までの各概念の事例集合に含まれているかを調べ,連続して出現していれば,その階層は,当該形容詞の階層と考える.本稿のデータで考えると,「形容詞の階層としてできた階層」とは,ある形容詞が,最下位から最上位に位置するすべての概念の形容詞集合に出現している場合,その階層を「形容詞の階層としてできた階層」と呼ぶ.もし,ある形容詞が,階層のどこかの概念の形容詞集合の成員でなければ,形容詞の階層とはよばず,手法によって得られた「階層」とよぶ.この考えに則って,手法ごとに,得られた階層の中で,形容詞の階層として得られた階層が何割あるか,計算した.分母は,ある手法に基づいて構築された全階層であり,分子は「形容詞の階層としてできた階層」である.\\\begin{equation}形容詞の階層として得られた階層の割合=\frac{形容詞の階層としてできた階層数}{ある手法に基づいて構築された階層の総数}\end{equation}\item[(2)]事例としてコーパスから抽出された全形容詞のうち,何語の形容詞に「形容詞の階層」が得られたか.\item[(3)]階層を構成する概念の割合\\概念としてコーパスから抽出した抽象名詞は全部で365語あるが,そのうち何割が階層を構成しているか.階層を構成する概念の割合は次のように計算した.\begin{equation}階層を構成する概念の割合=\frac{階層を構成する概念の異なり数}{抽出した全概念数(365語)}\end{equation}\end{itemize}上記3つの観点から各手法の結果を求めると,表4のようになる.表中で,高い数値の第一位から第三位に「○」,そのうち極端に数値が高い場合は「◎」を数字の前に付与した.また,極端に数値が低いものには「*」を付与した.表1から,総合的にみるとCSM0.2とOvlp0.3が,形容詞の階層としてできた階層の割合も,階層ができた形容詞数や365の概念のうちで階層を構成する概念の割合もよいとわかる.CSM0.3は,6種類の階層の中で形容詞の階層を最も多く作っているが,階層を構成している概念の数が最も低い.これは同じ階層をもつ形容詞のグループが,未分化である可能性がある.また,Ovlp0.2の階層は,形容詞の階層はあまり作られていないが,対象にしている365の概念をほとんど使って,階層を作っている.これは,冗長に階層を作っている可能性がある.程度の差こそあれ同様の傾向がみられるのはFreq0.1である.形容詞をカバーする階層は少ないが,階層を構成している概念が多いことがわかる.Freq0.2は,形容詞をカバーする階層は多めであるが,それより顕著な特徴は,階層を構成する概念の種類が少ないことである.程度の差こそあれ,その点では,CSM0.3に似た傾向がみられる.\begin{table}[t]\caption{階層の作られ方からみた手法別の階層の特徴}\input{04table04.txt}\end{table}上記の結果より,CSM0.2とOvlp0.3は,外見的に妥当そうな階層となっているので,EDRと比較する階層としてこの二者を選択する.また,頻度を考慮したCSM(Freq)については,両者の閾値とも外見上それほど適当ではないが,異なる種類を比較するということで,形容詞の階層が比較的得られているFreq0.2を,EDRとの比較実験に加えることとする. \section{自動構築の階層とEDR辞書の概念階層との比較評価} 本節では,本研究の提案手法によって自動構築した階層と,EDR階層の優劣を心理実験によって定量的に比較する.EDR電子化辞書は,10年ほどの年月をかけ,言語学者や辞書編纂者などが携わった大規模な計算機用辞書である.この電子化辞書は概念体系をもち,各語彙は概念IDによって概念体系とリンクしており,概念IDから上位概念や下位概念などを辿ることができる.EDRの概念体系には局所的な不整合性や冗長性などの問題はあるものの,概念分類と概念間の関係を細かく記述した全品詞にわたる大規模シソーラスである.本研究が対象とする形容詞概念についても,EDRは広範囲にカバーしているため,本実験ではEDRを比較対象とした.EDRの概念記述は単語で定義されている場合もあれば,文で説明していることもある.たとえば,EDRの「肯定的な」という形容詞の概念階層の例を示すと次のようになる.\begin{description}\item[EDR階層:「肯定的な」]\mbox{}\\概念(3aa966)→事象(30f7e4)→移動(30f801)→情報の移動(30f832)→情報の受信(3f96e7)→知る(30f876)→認知主体と認知対象との認知的距離減少(3f972c)→(意見などに)同意しているさま(0f0ae2)\end{description}一方,自動生成の階層は,各ノードの概念が抽象名詞で表現されている.たとえば以下のような階層である.階層中,「面1」のような名詞の横の番号は,「面」の意味を区別した際に付与した番号である.(ここでは,「やさしい面がある」のような形式的な意味の「面」と「丸い面」のような物理的な面とを区別し,前者の形式的な意味の「面」を「面1」とした.)\begin{description}\item[自動生成の階層:「肯定的な」]\mbox{}\\こと→面1→傾向→見方→評価\end{description}二つの異なる形式の階層比較をした研究としては,概念記述間の単語の一致度によって表層的に評価した研究がある\cite{Article_38}.しかし上記の通り,本研究で自動抽出された階層とEDR階層の構造は異なり,また概念の比較評価という抽象的な対象を扱うタスクであるため,我々は,表層的な比較ではなく,心理実験による優劣の比較を行った.4.3節(1)でも触れたが,階層関係が成立する重要な条件として,\begin{itemize}\item[1)]上位概念の下位概念への継承性\item[2)]事例(本稿では形容詞)が,事例集合の成員として最下位概念から最上位概念まで出現する連続性\end{itemize}という二つの条件がある.本実験の目的は,上記二つの観点から,自動構築の階層とEDR階層の優劣の程度に関する人間の判断を数値化することにより,これら二つの階層間の優劣を統計的に比較することである.数値化手法としてはScheffeの一対比較法を用いた\cite{Article_32}.Scheffeの一対比較法で得られる値は相対的な値であるため,各々の階層の絶対的な優劣の程度は数値化できないが,異なる階層間の優劣の相対的な程度を数値化することができる.そしてこのような数値化によって,階層間の優劣の判断に関する被験者間のばらつきを考慮した上で,階層間の優劣を統計的に検定することができる.なお,言語データの評価にScheffeの一対比較法を用いた他の研究として,丸元らの研究があるが,この研究は敬語表現の丁寧さの程度の数値化にScheffe法を用いたものである\cite{Article_23}.\subsection{実験データについて}実験には,下記に示す三種類のデータを用いた.\begin{itemize}\item[1)]30語の形容詞に対して,CSM0.2,Ovlp0.3,Freq0.2の三手法の全て,あるいは,三手法のうち少なくともいずれか二手法で共通して生成された階層(以下,COMMONと呼ぶ)と,EDRの階層のペア.(COMMON-EDR)\item[2)]10語の形容詞に対して,CSM0.2だけで生成された階層とEDRの階層のペア.(CSM-EDR)\item[3)]10語の形容詞に対して,Ovlp0.3だけで生成された階層とEDRの階層のペア.(Ovlp-EDR)\end{itemize}Freq0.2の階層はCSM0.2の階層と殆ど同じであったので,本実験では,Freq0.2の手法だけで生成された階層は対象外にし,CSM0.2の階層のみをとりあげた.1)(COMMON-EDR)で対象となる30語の形容詞のリスト,2)(CSM0.2-EDR)で対象となる10語の形容詞のリスト,3)(Ovlp0.3-EDR)で対象となる10語の形容詞のリストをそれぞれ表5,表6,表7に示す.\setcounter{table}{4}\begin{table}[t]\caption{COMMON-EDRで対象となる形容詞(30語)}\input{04table05.txt}\end{table}\begin{table}[t]\begin{minipage}{200pt}\caption{CSM-EDRで対象となる形容詞(10語)}\input{04table06.txt}\end{minipage}\hfill\begin{minipage}{200pt}\caption{Ovlp-EDRで対象となる形容詞(10語)}\begin{center}\input{04table07.txt}\end{minipage}\end{table}\subsection{被験者}言語学者,辞書編集者,自然言語処理に関係する人,合計20人が被験者として参加した.\subsection{実験方法}各々の被験者には,各々の形容詞に対する自動構築の階層とEDRの階層のペアが各行に記された回答用紙が示された.この例を図3に示す.各行の左側には自動構築による階層(図中,A-B-C),右にEDR階層(図中,P-Q-R)が記される.ただし左が自動構築の階層で,右がEDRの階層であることは,被験者には知らせていない.被験者は,各行に記された2つの階層の妥当性を比較し,“左が妥当”/“どちらかといえば左が妥当”/“どちらともいえない”/“どちらかといえば右が妥当”/“右が妥当”のいずれかを回答するよう求められた.階層の判定基準として,被験者には概念の階層関係のルールを示した.これは第4節で述べた概念と事例の関係と同様の考え方である.\noindent[被験者に示したルール]\begin{itemize}\item[1)]事例の成員としての連続性:もし概念が階層関係であるならば,最下位概念の成員となる事例(本実験では形容詞)は最上位概念まで一貫して成員として出現している.\item[2)]概念の継承性:もし概念が階層関係であるならば,下位概念は上位概念から特徴を「継承」しており,下位概念は一方向的に上位概念の特徴を含意している.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{15-4ia4f3.eps}\end{center}\caption{被験者に提示した刺激と回答フォーム}\end{figure}ルール2は,以下の考察に基づいて設定した.即ちCruseでは次の様に述べている\cite{book_06}.もし,「Aはf(X)」であれば,「Aはf(Y)」が成り立つが,その逆の,「Aはf(Y)」であっても,「Aはf(X)」が必ずしも成り立たない場合には,XがYの下位語で,YはXの上位語であるといえる.たとえば,「太郎は犬です」が成り立てば必然的に「太郎は動物です」が成り立つが,「太郎は動物です」が成り立つ場合に,必ずしも「太郎は犬です」が成立するとは限らない.上位から下位へ概念が並んでいるためには,上位から下位への一方向的な概念継承がみられる必要がある.ルール1および2によって,下位から上位への事例(共起形容詞)の出現状況と,上位から下位への概念の継承性とを考慮して,階層の妥当性を判定してもらったのである.階層の妥当性に関し,Scheffe法によって数値化された値に基づき,自動生成で得られた階層とEDRの階層の間の平均値の有意差を,下記に示す検定量Tを用いて検定した.\begin{equation}T=\frac{\overline{x_1}-\overline{x_2}}{\sqrt{\frac{s_1^2}{N}+\frac{s_2^2}{N}}}\end{equation}Nは対象とする形容詞の数である,とはMethod1(自動構築)で得られた階層に対して各被験者について得られた数値の全被験者(20人)にわたる平均と不偏分散である.とはMethod2(EDR)で得られた数値の全被験者にわたる平均と不偏分散である.\subsection{実験結果}図4に,$\overline{x_{1}}$(“◆”で示す),$\overline{x_{2}}$(“■”で示す)を標準誤差とともに示す.図中の横軸は形容詞ID,縦軸は計量化した値を表す.縦軸の値が大きいほど,“より妥当である”ことを意味する.エラーバーはそれぞれの標準誤差を示す.エラーバーが長いほど被験者間のばらつきが大きいことを意味する.\begin{figure}[b]\begin{center}\includegraphics{15-4ia4f4.eps}\end{center}\caption{COMMONとEDRの階層の全被験者にわたる平均値と標準誤差}\end{figure}\subsubsection{30形容詞に対するCOMMON-EDR階層ペア}\noindent[検定結果]\begin{description}\item[有意にCOMMON$>$EDR]\mbox{}\\形容詞ID:22,26(30個中2個)\item[有意にCOMMON$<$EDR]\mbox{}\\形容詞ID:1,2,4,7,8,9,11,16,19,20,21,23,24,25,27,29,30(30個中17個)\item[両Method間に有意差なし(ただしCOMMON$>$EDR)]\mbox{}\\形容詞ID:3,13,14,18,28(30個中5個)\item[両Method間に有意差なし(ただしCOMMON$<$EDR)]\mbox{}\\形容詞ID:5,6,10,12,15,17(30個中6個)\end{description}\noindent[COMMON-EDR階層比較の考察]本提案手法で自動生成(COMMON)された階層がEDR階層より有意に良かった形容詞は2個であった.一方,自動生成の階層よりもEDR階層の方が有意に良かった形容詞は17個であった.また,両者の間に有意差がなかった形容詞は11個であった.例として形容詞IDを挙げるが,その形容詞IDに対する階層については付録に載せる.本提案手法で得られた階層の方がEDR階層より良かった形容詞は,例えば,ID-22の「肯定的な」に対する階層である.本提案手法で得られた階層よりEDR階層の方が優位に良かった形容詞は,例えば,ID-7の「早い」に対する階層である.両方に有意差がなかった形容詞はたとえば,ID-17の「甘美な」に対する階層である.以上から,COMMONに関しては,本研究で提案した手法は,43\%(30個中13個)の形容詞に関しEDRと同程度あるいはEDRより人間の直感にあう階層が生成できたことが示唆された.\subsubsection{10形容詞に対するCSM-EDR階層比較}\begin{figure}[b]\begin{center}\includegraphics{15-4ia4f5.eps}\end{center}\caption{CSMとEDRの階層の全被験者にわたる平均値と標準誤差}\end{figure}\noindent[検定結果]\begin{description}\item[有意にCSM$>$EDR]\mbox{}\\形容詞ID:無し(10個中0個)\item[有意にCSM$<$EDR]\mbox{}\\形容詞ID:1,5,6,9,10(10個中5個)\item[両Method間に有意差なし(ただしCSM$>$EDR)]\mbox{}\\形容詞ID:3,4(10個中2個)\item[両Method間に有意差なし(ただしCSM$<$EDR)]\mbox{}\\形容詞ID:2,7,8(10個中3個)\end{description}\noindent[CSM-EDR階層比較の考察]CSMでのみ作られた階層では,EDR階層の方が有意によいと判定された形容詞は5個(10個中50\%)であり,CSMの階層の方が有意によいと判定された形容詞は0個であった.また,CSM階層とEDR階層で有意差がないと判定された形容詞は5個(10個中50\%)であった.EDR階層の方が有意によいと判定された階層は,ID-1,5,6,9,10の形容詞であったが,特に,ID-5,10は,明確な有意差がみられる.たとえば,ID-5の「狭い」の階層を付録に示す.また,両手法間で有意差がなかった形容詞のうち,ID-4「開放的な」を付録に示す.以上から,CSMに関しては,本研究で提案した手法は,50\%(10個中5個)の形容詞に関しEDRと有意差がない階層を生成したことが示唆された.\subsubsection{10形容詞に対するOvlp-EDR階層比較}\begin{figure}[b]\begin{center}\includegraphics{15-4ia4f6.eps}\end{center}\caption{OvlpとEDRの階層の全被験者にわたる平均値と標準誤差}\end{figure}\noindent[検定結果]\begin{description}\item[有意にOvlp$>$EDR]\mbox{}\\形容詞ID:無し(10個中0個)\item[有意にOvlp$<$EDR]\mbox{}\\形容詞ID:1,2,3,4,5,6,7,8,10(10個中9個)\item[両Method間に有意差なし(ただしOvlp$>$EDR)]\mbox{}\\形容詞ID:無し(10個中0個)\item[両Method間に有意差なし(ただしOvlp$<$EDR)]\mbox{}\\形容詞ID:9(10個中1個)\end{description}\noindent[Ovlp-EDR階層比較の考察]Ovlp-EDRの階層比較では,EDR階層の方が有意によいと判定された形容詞が10個中9個あった.それに対し,Ovlpの階層とEDRの階層とで有意差がないと判定された形容詞は,ID-9のわずか1個だけであった.Ovlpの階層よりEDRの階層の方があきらかに有意によい階層としては,たとえば,ID-4「果敢な」に対する階層がある.階層例は付録に付す.両手法間で有意差のない階層(一つのみ)はID-9「不公平な」に対する階層である.階層例は付録に付す.以上から,Ovlpに関しては,本研究で提案した手法は,10\%(10個中1個)の形容詞に関しEDRと同程度の階層を生成したことが示唆された.\subsection{考察}本実験では,概念階層関係が成立するための重要な条件である「事例の成員としての連続性」と「概念の継承性」の点から,提案手法の階層とEDR階層の優劣の程度に関して,人間の判断を数値化することにより,統計的に検定した.その結果,EDRの階層の方が,「事例の成員としての連続性」と「概念の継承性」の観点で,COMMON,CSM,Ovlp,のどの手法による階層よりも,概ね良いことがわかったが,COMMONとCSMの階層においては,半分ほどはEDRの階層と同程度くらいであった.特にOvlpの評価は,全体の90\%ほどもEDRの方が有意に良いという判定となり,かなり悪かった.しかし,表1(第4節)で表層的な特徴からみると,CSM手法による階層と比較して悪い結果ではなかった.ここで実験した自動構築手法の階層に共通して言えることであるが,特にOvlpで顕著にみられた原因があった.では,その原因は何か.それを探るため,被験者のコメントを参考に分析した.被験者は概して最下位概念と最上位概念との間に中間的な概念がないと,妥当性が低いと判断した.つまり,ルールで提示した継承性が失われていると判定した.表1の「階層の長さ」をみるとわかるように,Ovlpはノードの深さが9と短い.逆にCSMは,ノードの深さが13あり,これはほぼEDRのノードの深さと同じくらいである.短い階層を作るOvlpは,中間的なノードが作られていないと判断されたのである.CSM階層をEDR階層と比較する場合にも,多かれ少なかれ,この判断が反映されていた.上記の概念の継承性の問題で考えられるのは,概念数の不足があげられる.第4節の表1で示したように,CSM0.2は階層を構成している抽象名詞(本稿では概念に相当)は,365語中325語で約90\%,Ovlp0.3は,365語中317語で86\%となっており,閾値設定によって,抽象名詞が大幅に削られているわけでない.では,そもそも365語の名詞が不足なのかどうかについてであるが,365語の名詞は,新聞2年分から第3節で述べたパタン(「XというY」など)を使い特定の意味関係(「具体事例とそれが属する概念」という意味関係)を抽出したものであり,データスパースネスの問題も考えられる.また,一つの目安としてEDRの形容詞の概念数を調べると約2000強ほどある.365概念ではまだ不足していると考えられる.今後さらに抽出方法も含めデータを精査していきたい.また,我々の手法で取り出した365語の抽象名詞は,質的に,形容詞の概念のラベルとして適当かどうかという問題もある.この問題については,試験的に,我々が抽出した抽象的な名詞(本稿で概念と呼んでいるもの)とその形容詞集合の組をランダムサンプリングして18組用意し,5人の被験者に,同じ形容詞集合に対するEDRの概念と比較評価してもらった.この小規模な実験では,提示した形容詞集合に対してEDRの概念より我々が抽出した概念の方が適当という回答が多くみられ(全90問(18組×5人)中57問,63\%),18組での小規模な実験の範囲ではよい感触を得ているが,さらに実験方法とその結果も含めさらに精査していきたいと考えている.その他,人手でデータを取捨選択した際に,「具体事例とそれが属する概念」という関係以外の関係も含まれている可能性もあり,データを見直し対象外のものを除く必要があろう.次に,継承性が低いと評価された階層について考察すると,形容詞の多義性と事例数の関係が問題として考えられる.EDRに比べ明確に有意に悪い形容詞は,COMMONのID-1「ユニークな」ID-4「古い」,ID-7「早い」,ID-9「遅い」,ID-16「鋭い」ID-23「高い」である.どれも基本的な抽象度の高い形容詞である.提案手法での自動階層では,多義的な語についてうまく階層を構築できていない可能性がある.原因として考えられるのは,一つはそもそも多義の場合の概念をすべてコーパスから抽出しきれていない可能性である.もう一つは,階層構築で考えられる問題点である.ある概念の事例集合に多義的な形容詞が1語しかない,つまり他に手がかりとなる事例がない場合,概念間の包含関係の質的な判断を必要とする.たとえば,[背丈]にも[金額]にも「高い」「低い」だけが事例として出現している場合,[背丈]と[金額]の「高い」を区別する必要がある.しかし,階層をみると,現状では,最上位レベルの概念と直接結合したり,多義の別の概念と結びついたり(たとえば,「高い」に対して[背丈]と[金額]が結びつく),概念の継承性の評価が低いようである.今後の課題として,各概念の事例としての形容詞の網羅性と,事例が少ない概念間の関係(特に事例が多義的な場合の概念間の関係)についての対応について考える必要がある.自動抽出した語彙の評価方法には,他にも語義のあいまい性解消,情報検索などへの応用によって評価を行うことも考えられる.それらの多角的な観点も含め,概念階層の評価方法についても今後,さらに検討していきたいと考える. \section{今後の展望—類義関係と階層関係をとらえるために—} 第3節で取り出した言語データから形容詞概念を体系的にとらえるためには,階層関係と同時に類義関係も考慮する必要がある.これまでに,形容詞と抽象的な名詞を類義関係によって自動分類する研究として,Kohonenの自己組織化神経回路網モデル(Self-Organizingmap,SOM)を用いた研究がある\cite{Article_28,Article_21}.Kohonenの自己組織化神経回路網モデルは,高次元入力をもつ2次元配列のノード(ニューロン)で構成され,自己組織化によって高次元データを2次元空間に,その特徴を反映するように,非線形的に射影する.特徴は,得られる分布が可視的でまた連続的であるということである.特に,連続的な分布という性質は,言葉の意味の連続性を反映できると考えられ,馬らの研究に用いられている.出力される2次元平面は,意味的に類似性の高い名詞どうしが近くに配置され,意味的に類似性の低い名詞どうしが遠くに配置されるような,意味的類似性を距離とする2次元表現である.馬らは出力される2次元平面をマップと呼んでいる.馬らの研究では,SOMの分類能力を多変量解析や階層型クラスタリング手法等と比較実験し,その結果,他手法より劣らない,あるいは彼らのタスクに関してはむしろよい結果を得たと報告している.しかし,提案されたSOMによる分類では,類義関係以外の意味関係は求めることができなかった.Kanzakiet~al.では,上位下位関係(包含関係)をSOMに導入する実験を行っている\cite{Inproc_14}.この実験でSOMの入力データとなる単語の特徴ベクトルは,当該単語に対する全対象単語との包含関係値を多次元ベクトルにしたものである.つまり,この特徴ベクトルをSOMの入力とすることにより,類似した包含関係をもつ単語どうしが類義関係をもつことになる.SOMは通常,類義関係を可視化するので,SOMに包含関係を導入した場合,出力されるマップは,上位下位関係が反映された方向性ある分布になるか,あるいは方向性の全くみられない分布になるかの可能性が考えられる.包含関係を導入したSOMの分布は,評価方法が提案されていないためさらに検討する必要があるものの,抽象度が高い名詞から抽象度の低い名詞へと方向性ある分布を示唆したものとなった.SOMによるマップに,概念の階層関係が反映されれば,同じような上位下位関係をもつ概念が類義関係となって近くに分布することになり,階層関係と類義関係を同時に反映した分類をえられる可能性がある.結果は,既存のシソーラスなどと比較して差異を考察すると共に,形容詞側から,得られた概念体系に従って形容詞表現の様相をとらえていきたい. \section{まとめ} 本研究では,将来的に実データに基づいた形容詞の観点からみた上位下位関係と類義関係をとらえるため,その一環として形容詞の概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べたものである.階層の評価は,事例(形容詞)の各概念の成員としての連続性と概念の継承関係という観点から評価し,まず,収集した形容詞の出現状況や構築された概念の表層的な面からと,心理実験でEDRとの比較を行う質的な面から評価した.表層的な観点からの評価で,CSM,Ovlp,Freqの三つの手法と複数の閾値を組み合わせた階層の中で,CSMの手法で閾値0.2以上を使った階層と,Ovlpの手法で閾値0.3以上を使った階層を外見的に妥当そうな階層として絞った.そして次のステップの心理実験で,EDR概念階層との比較評価の対象として採用した.心理実験によるEDR概念階層との比較評価では,「概念の継承性」と「事例の成員としての連続性」という観点で,自動構築とEDRとで概念階層の優劣を判定してもらい統計的に数値化した.その結果上記二つの観点からの評価では,EDRの階層の方が,COMMON(Ovlp,CSM,Freq共通),CSM,Ovlpのどの手法による階層よりも,概ね,有意に良いことがわかったが,COMMONとCSMの階層においては,半分ほどはEDRの階層と同程度くらいであった.自動生成の階層が既存辞書の階層に対して,その結果の半分弱の階層で問題を提起するという意味で,ベースラインとなる数値と考える.自動階層の評価が低かった主な要因は,最下位概念と最上位概念との間に中間的な概念がないと,妥当性が低いと判断されたことであった.原因としては,概念数の不足,形容詞の概念ラベルの妥当性,形容詞の多義性などが考えられる.これらの点をさらに精査し,今後,SOMによる概念分布に対応させ,類義関係とあわせタクソノミー的な構造として,形容詞の概念体系をとらえていきたい.オントロジーは必ずしも木構造ではないかもしれないが,階層関係と類義関係については,それを計算する尺度が利用できることもあり,最初にこれらの関係を明らかにしていきたいと考える.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alonge,Bertagna,Calzolari,Roventini,\BBA\Zampolli}{Alongeet~al.}{2000}]{Inproc_01}Alonge,A.,Bertagna,F.,Calzolari,N.,Roventini,A.,\BBA\Zampolli,A.\BBOP2000\BBCP.\newblock\BBOQEncodinginformationonadjectivesinalexical-semanticnetforcomputationalapplications\BBCQ\\newblockIn{\Bemthe1stConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{安西}{安西}{1989}]{Book_02}安西祐一郎\BBOP1989\BBCP.\newblock\Jem{岩波講座ソフトウエア科学認識と学習,第16巻}.\newblock岩波書店.\bibitem[\protect\BCAY{Berland\BBA\Charniak}{Berland\BBA\Charniak}{2000}]{Inproc_04}Berland,M.\BBACOMMA\\BBA\Charniak,E.\BBOP2000\BBCP.\newblock\BBOQFindingPartsinVeryLargeCorpora\BBCQ\\newblockIn{\Bem38thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{Biemann}{Biemann}{2005}]{Article_03}Biemann,C.\BBOP2005\BBCP.\newblock\BBOQOntologyLearningfromText:ASurveyofMethods\BBCQ\\newblock{\BemLDV-Forum},{\Bbf20}(2),\mbox{\BPGS\75--93}.\bibitem[\protect\BCAY{Caraballo}{Caraballo}{1999}]{Inproc_05}Caraballo,A.~S.\BBOP1999\BBCP.\newblock\BBOQAutomaticAcquisitionofaHypernym-LabeledNounHierarchyfromText\BBCQ\\newblockIn{\Bem37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{Cruse}{Cruse}{1986}]{book_06}Cruse,D.~A.\BBOP1986\BBCP.\newblock{\BemLexicalSemantics}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Hagita\BBA\Sawaki}{Hagita\BBA\Sawaki}{1995}]{Inproc_08}Hagita,N.\BBACOMMA\\BBA\Sawaki,M.\BBOP1995\BBCP.\newblock\BBOQRobustRecognitionofDegradedMachine-PrintedCharactersusingComplimentarySimilarityMeasureandError-CorrectionLearning\BBCQ\\newblockIn{\BemtheSPIE---TheInternationalSocietyforOpticalEngineering,2442}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Inproc_09}Hearst,A.~M.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora\BBCQ\\newblockIn{\Bemthe14thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{Inproc_10}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationFromPredicate-ArgumentStructures\BBCQ\\newblockIn{\Bemthe28thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{Kanzaki,Ma,Yamamoto,\BBA\Isahara}{Kanzakiet~al.}{2004}]{Inproc_14}Kanzaki,K.,Ma,Q.,Yamamoto,E.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQConstructionofanObjectiveHierarchyofAbstractConceptsviaDirectionalSimilarity\BBCQ\\newblockIn{\Bem21stInternationalConferenceonComputationalLinguistics(COLING)}.\bibitem[\protect\BCAY{神崎}{神崎}{1997}]{Article_12}神崎享子\BBOP1997\BBCP.\newblock\JBOQ連体修飾関係を結ぶ形容詞類と名詞\JBCQ\\newblock\Jem{計量国語学},{\Bbf21}(2),\mbox{\BPGS\53--68}.\bibitem[\protect\BCAY{神崎\JBA井佐原}{神崎\JBA井佐原}{1999}]{Article_13}神崎享子\JBA井佐原均\BBOP1999\BBCP.\newblock\JBOQ形容詞類の連体用法にみられる連用的な意味\JBCQ\\newblock\Jem{計量国語学},{\Bbf22}(2),\mbox{\BPGS\51--65}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{book_16}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2002}]{Inproc_18}Lin,D.\BBACOMMA\\BBA\Pantel,P.\BBOP2002\BBCP.\newblock\BBOQConceptDiscoveryfromText\BBCQ\\newblockIn{\Bemthe19thInternationalConferenceonComputationalLinguistics(COLING)}.\bibitem[\protect\BCAY{馬\JBA神崎\JBA村田\JBA内元\JBA井佐原}{馬\Jetal}{2001}]{Article_21}馬青\JBA神崎享子\JBA村田真樹\JBA内元清貴\JBA井佐原均\BBOP2001\BBCP.\newblock\JBOQ日本語名詞の意味マップの自己組織化\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(10),\mbox{\BPGS\2379--2391}.\bibitem[\protect\BCAY{Manning\BBA\Sh{\"u}tze}{Manning\BBA\Sh{\"u}tze}{1999}]{Book_22}Manning,C.~D.\BBACOMMA\\BBA\Sh{\"u}tze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturallanguageProcessing}.\newblockTheMITPress.\newblockpp.~298--303.\bibitem[\protect\BCAY{丸元\JBA白土\JBA井佐原}{丸元\Jetal}{2005}]{Article_23}丸元聡子\JBA白土保\JBA井佐原均\BBOP2005\BBCP.\newblock\JBOQ動詞待遇表現に対する丁寧さの印象に関する定量的分析—接頭辞オを用いた表現と接頭辞ゴを用いた表現との比較—\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\71--90}.\bibitem[\protect\BCAY{益岡}{益岡}{1994}]{Book_19}益岡隆志\BBOP1994\BBCP.\newblock\Jem{名詞修飾節の接続形式—内容節を中心に—.田窪行則編『日本語の名詞修飾表現』}.\newblockくろしお出版.\newblockpp.~5--27.\bibitem[\protect\BCAY{Medin\BBA\Goldstone}{Medin\BBA\Goldstone}{1990}]{book_24}Medin,D.~L.\BBACOMMA\\BBA\Goldstone,R.~L.\BBOP1990\BBCP.\newblock{\BemConceptinEysenck,M.W.Ed.,TheBlackwellDictionaryofCognitivepsychology,\textup{Cambridge,MA:BasicBlackwellInc}}.\bibitem[\protect\BCAY{根本}{根本}{1969}]{Book_26}根本今朝男\BBOP1969\BBCP.\newblock\JBOQ「が格」の名詞と形容詞とのくみあわせ\JBCQ\\newblock\Jem{国立国語研究所報告書,電子計算機のための国語研究II}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{Inproc_27}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses\BBCQ\\newblockIn{\BemHumanLanguageTechnology/NorthAmericanAssociationforComputationalLinguistics(HLT/NAACL)}.\bibitem[\protect\BCAY{Riloff\BBA\Shepherd}{Riloff\BBA\Shepherd}{1997}]{Inproc_29}Riloff,E.\BBACOMMA\\BBA\Shepherd,J.\BBOP1997\BBCP.\newblock\BBOQAcorpusbasedapproachforbuildingsemanticlexicons\BBCQ\\newblockIn{\BemtheSecondConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Ritter\BBA\Kohonen}{Ritter\BBA\Kohonen}{1989}]{Article_28}Ritter,H.\BBACOMMA\\BBA\Kohonen,T.\BBOP1989\BBCP.\newblock\BBOQSelf-OrganizingSemanticMaps\BBCQ\\newblock{\BemBiologicalCybernetics},{\Bbf61},\mbox{\BPGS\241--254}.\bibitem[\protect\BCAY{Sawaki,Hagiga,\BBA\Ishii}{Sawakiet~al.}{1997}]{Inproc_31}Sawaki,M.,Hagiga,N.,\BBA\Ishii,K.\BBOP1997\BBCP.\newblock\BBOQRobustCharacterRecognitionofGray-ScaledImageswithGraphicalDesignsandNoise\BBCQ\\newblockIn{\BemtheInternationalConferenceonDocumentAnalysisandRecognition.IEEE.ComputerSciety}.\bibitem[\protect\BCAY{Scheffe}{Scheffe}{1952}]{Article_32}Scheffe,H.\BBOP1952\BBCP.\newblock\BBOQAnanalysisofvarianceforpairedcomparison\BBCQ\\newblock{\BemJournaloftheAmericanStatisticalAssociation},{\Bbf47},\mbox{\BPGS\381--400}.\bibitem[\protect\BCAY{高橋}{高橋}{1975}]{Article_34}高橋太郎\BBOP1975\BBCP.\newblock\JBOQ文中にあらわれる所属関係の種々相\JBCQ\\newblock\Jem{国語学},{\Bbf103},\mbox{\BPGS\1--16}.\bibitem[\protect\BCAY{寺村}{寺村}{1991}]{Book_35}寺村秀夫\BBOP1991\BBCP.\newblock\Jem{日本語のシンタクスと意味III}.\newblockくろしお出版.\bibitem[\protect\BCAY{Thelen\BBA\Riloff}{Thelen\BBA\Riloff}{2002}]{Inproc_36}Thelen,M.\BBACOMMA\\BBA\Riloff,E.\BBOP2002\BBCP.\newblock\BBOQABootstrappingMethodforLearningSemanticLexiconsusingExtractionPatternContexts\BBCQ\\newblockIn{\Bemthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Yamamoto,Kanzaki,\BBA\Isahara}{Yamamotoet~al.}{2005}]{Inproc_39}Yamamoto,E.,Kanzaki,K.,\BBA\Isahara,H.\BBOP2005\BBCP.\newblock\BBOQExtractionofHierarchiesBasedonInclusionofCo-occurringWordswithFrequencyInformation\BBCQ\\newblockIn{\Bem19thInternationalJointConferenceonArtificialIntelligence(IJCAI)}.\bibitem[\protect\BCAY{山本\JBA神崎\JBA井佐原}{山本\Jetal}{2006}]{Article_38}山本英子\JBA神崎享子\JBA井佐原均\BBOP2006\BBCP.\newblock\JBOQ出現状況の包含関係による語彙の階層構造の構築\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1872--1883}.\bibitem[\protect\BCAY{山本\JBA梅村}{山本\JBA梅村}{2002}]{Article_37}山本英子\JBA梅村恭司\BBOP2002\BBCP.\newblock\JBOQコーパス中の一対多関係を推定する問題における類似尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(2),\mbox{\BPGS\46--75}.\end{thebibliography}\appendix\noindent5.4.1.30形容詞に対するCOMMON-EDR階層ペア\\5.4.2.10形容詞に対するCSM-EDR階層比較\\5.4.3.10形容詞に対するOvlp-EDR階層比較上記3節に挙げた形容詞の階層を以下に示す. \section{5.4.1.30形容詞に対するCOMMON-EDR階層ペア} \noindent[自動階層の方がEDR階層より良いと判定された形容詞の階層]\noindentID-22肯定的な\begin{description}\item[自動階層:]\mbox{}\\こと→面1→傾向→見方→評価\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→行為(30f83e)→対象行為(444dd)→ものを対象とする行為(444dd9)→情報の移動(30f832)→情報の受信(3f96e7)→知る(30f876)→認知主体と認知対象との認知的距離減少(3f972c)\end{description}\noindent[EDR階層の方が有意に良いと判定された形容詞の階層]\noindentID-7早い\begin{description}\item[自動階層:]\mbox{}\\こと→時→速度→時刻\item[EDR階層:]\mbox{}\\概念(3aa966)→時(30f776)→時間点(3f9882)→基準時点の前後の時(444da3)→ある時間点よりも前の時点(444cc3)→基準になる時刻や時期より前であること(3cf6d9)\end{description}\noindent[両方に有意差がなかった形容詞の階層]\noindentID-17甘美な\begin{description}\item[自動階層:]\mbox{}\\こと→面1→イメージ→感覚→雰囲気→空気→気配→魅惑\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→性状(444e60)→人のありさま(444db3)→人の気持ち(30f7b7)→人の気持ちの様子(3f98bd)→自分自身の感情や心境(444ded)→愉快・不愉快(30f961)→良い気持(0e89db)→心地よい(3cf426)\end{description} \section{5.4.2.10形容詞に対するCSM-EDR階層比較} \noindent[EDR階層の方が有意によいと判定された形容詞の階層]\noindentID-5狭い\begin{description}\item[自動階層:]\mbox{}\\こと→方→空間→面積\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→事物の属性(444db1)→具体物の属性(3aa962)→具体物の空間的属性(444ce7)→形の値(444ce8)→形の広狭(3f9876)→空間的に小さいさま(1e88a8)\end{description}\noindent[両手法間で有意差がなかった形容詞の階層]\noindentID-4開放的な\begin{description}\item[自動階層:]\mbox{}\\こと→面1→イメージ→印象→態度→人柄→気質→気風→気性\item[EDR階層:]\mbox{}\\概念(3aa966)→*事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→事物の属性(444db1)→人間の属性(3aa961)→人の性格や態度(3f98c9)→態度や性格の値(444ce3)→善良(30f96d)→かくしだてをせず,あけっぴろげであること(3cf4b7)→かくしだてをすることなく,あけっぴろげであるさま(3ce57e)\end{description} \section{5.4.3.10形容詞に対するOvlp-EDR階層比較} \noindent[EDR階層の方が有意によいと判定された形容詞の階層]\noindent\ID-4果敢な\begin{description}\item[自動階層:]\mbox{}\\こと→性格→勇気\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→事物の属性(444db1)→人間の属性(3aa961)→人の性格や態度(3f98c9)→態度や性格の値(444ce3)→豪胆・臆病(30f96f)→勇敢(30f96b)→思い切ったことをすること(3cefc5)\end{description}\noindent[両手法間で有意差がなかった形容詞の階層]\noindentID-9不公平な\begin{description}\item[自動階層:]\mbox{}\\こと→関係→差別\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→さまざまな属性(444d17)→いろいろな抽象物の属性(444d27)→かたよりがあって平等でないようす(3cfcd6)\end{description}\begin{biography}\bioauthor{神崎享子}{1994年早稲田大学大学院文学研究科日本語日本文化専攻修士課程修了.1998年同大学院文学研究科日本語日本文化専攻博士課程単位取得後満期退学.2001年神戸大学大学院自然科学研究科修了.博士(学術).1998年〜2005年郵政省通信総合研究所.2005年〜独立行政法人情報通信研究機構.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理,言語学の研究に従事.言語処理学会,計量国語学会,日本言語学会,日本語学会,会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学科卒業.1987年筑波大学大学院修士課程理工学研究科修了.1990年同大学院博士課程工学研究科修了工学博士.1990--19931年株式会社小野測器勤務.1993年郵政省通信総合研究所入所.1994年同所主任研究官.2003年龍谷大学理工学部教授.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本神経回路学会,各会員}\bioauthor{山本英子}{1998年豊橋技術科学大学大学院工学研究科情報工学専攻修士課程修了.2002年同大学大学院工学研究科電子・情報工学専攻博士後期課程修了.博士(工学).2002年--2007年10月独立行政法人情報通信研究機構専攻研究員.現在,神戸大学工学研究科プロジェクト奨励研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{白土保}{1999年電気通信大学博士(工学).情報通信研究機構知識創成コミュニケーション研究センター推進室研究マネージャ.専門分野は,言語心理,音楽音響,感性情報処理.言語処理学会,電子情報通信学会,日本音響学会各会員.}\bioauthor{井佐原均}{1980年京都大学大学院工学研究科電気工学専攻修士課程修了.博士(工学).1980年通商産業省工業技術院電子技術総合研究所入所.1995年郵政省通信総合研究所知的機能研究室長.現在,独立行政法人情報通信研究機構上席研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,日本認知科学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
V14N02-01
\section{はじめに} シソーラスは,機械翻訳や情報検索のクエリー拡張,語の曖昧性の解消など,言語処理のさまざまな場面で用いられる.シソーラスは,WordNet\cite{Miller90}やEDR電子化辞書\cite{EDR},日本語語彙大系\cite{goitaikei}など,人手で長い年月をかけて作られたものがよく用いられている\footnote{2003年からはWordNetだけに焦点を当てたInternationalWordNetconferenceも開催されている.}.しかし,こういったシソーラスを作成するのは手間がかかり,また日々現れる新しい語に対応するのも大変である.一方で,シソーラスを自動的に構築する研究が以前から行われている\cite{Crouch92,Grefenstette94}.Webページをはじめとする大規模で多様な文書を扱うには,シソーラスを自動で構築する,もしくは既存のシソーラスを自動で追加修正する手段が有効である.シソーラスの自動構築は,語の関連度の算出と,その関連度を使った関連語の同定という段階に分けられる\cite{Curran02-2}.2語の関連度は,コーパス中の共起頻度を用いて求めることができる\cite{Church90}.これまでの研究では,コーパスとして新聞記事や学術文書が用いられることが多かった.それに対し,近年ではWebをコーパスとして用いる手法が提案されている.Kilgarriffらは,Webをコーパスとして用いるための手法やそれに当たっての調査を詳細に行っている\cite{Kilgarriff03}.佐々木らはWebを用いた関連度の指標を提案している\cite{Sasaki05}.Webには,新聞記事や論文といった従来からある整形された文書のみならず,日記や掲示板,ブログなど,よりユーザの日常生活に関連したテキストも数多く存在している.世界全体で80億ページを超えるWebは,間違いなく現時点で手に入る最大のコーパスであり,今後も増え続けるだろう.Kilgarriffらが議論しているように,Webの文書が代表性を持つのかといった議論はこれからも重要になるが,Webはコーパスとしての大きな可能性を秘めていると著者らは考えている.Webをコーパスとして扱う際にひとつの重要な手段になるのが,検索エンジンである.これまでに多くの研究が検索エンジンを用いて,Web上の文書を収集したり,Webにおける語の頻度情報を得ている\cite{Turney01,Heylighen01}.しかし検索エンジンを用いる手法とコーパスを直接解析する手法には違いがあるため,従来使われてきた計算指標がそのまま有効に働くとは限らない.本論文では,Webを対象とし,検索エンジンを用いて関連語のシソーラスを構築する手法を提案する.特に,検索エンジンを大量に使用すること,統計的な処理を行うこと,スケーラブルなクラスタリング手法を用いていることが特徴である.ただし,類義・同義語に加え,上位・下位語や連想語など,より広い意味である語に関連した語を関連語とする.まず,2章で関連研究について述べる.そして,3章で検索エンジンを用いた関連度の指標を提案し,さらに4章では関連語ネットワークをクラスタリングする手法について紹介する.そして,5章では評価実験を行い,この手法の効果について議論を行う. \section{関連研究} 語の関連性を自動的に得る方法は,これまでにさまざまな研究が行われている.コーパス中での語の共起情報をもとに語の関連度を測る指標として,様々なものが提案され用いられており\cite{Church90,Wettler93,Croft99,Curran02-2},それらは大きく2つに分けられる.1つは単語ベクトルを用いたベクトル空間手法である.これは,単語を多次元ベクトル空間の単語ベクトルで表現し,それぞれの単語ベクトルを比較することで関連度を測る手法である.ベクトル空間手法では,表\ref{CompareMethod}のようにベクトルの内積をもとにした計算指標が用いられている.表\ref{CompareMethod}において,$x_i,y_i$はそれぞれ単語ベクトル$\vec{x},\vec{y}$の$i$番目の要素を表す.なお,overlap係数はバイナリベクトルにしか用いることはできない.単語ベクトルの要素の取り方は研究によって様々であり,各文書への出現頻度を要素とするベクトルや各単語との共起頻度を要素とするベクトルなどが考えられる.ただし,独立な事象の確率は足し合わせることができないため,内積を用いる関連度では,語の出現確率を単語ベクトルの要素とすることは不適切と考えられる.もう1つはコーパス中での確率を用いる確率手法である.この手法では,2語がコーパス中で共起する確率をもとに関連度を算出している.確率手法で用いられている計算指標を表\ref{CompareMethod}に示す.表\ref{CompareMethod}において,$p(w\capw')$は語$w,w'$の共起確率を表し,$p(w\cupw')$は語$w,w'$のどちらかが出現する確率を表す.また$f$は\cite{Lin98a}で定義されている関数であり,$f(w,r,w')$は語$w,w'$が$r$の関係を持って出現する頻度を,$f(*,r,w')$は語$w'$がいずれかの語と$r$の関係を持って出現する頻度を表す.これらの計算指標は,ベクトル空間手法で用いられている指標を書き換えたものが多い.また,単語同士の共起確率ではなく,各単語が他の語と共起する確率の確率分布関数の類似性を用いて関連度を算出する研究も数多く行われている\cite{Brown92,Baker98,Slonim00}.確率分布関数を用いた類似度は,確率分布類似度(DistributionalSimilarity)と呼ばれる.類似した名詞は共通した動詞と共起すると仮定し,動詞との共起分布の類似性から関連度を算出している.\begin{table}[b]\begin{center}\caption{類似度の計算指標}\label{CompareMethod}\begin{tabular}{|c|c|c|c|}\hline\multicolumn{2}{|c|}{ベクトル空間手法}&\multicolumn{2}{|c|}{確率手法}\\\hlinecosine&$\frac{\vec{x}\cdot\vec{y}}{\sqrt{|\vec{x}||\vec{y}|}}$&相互情報量&$\log\left(\frac{p(w\capw')}{p(w)p(w')}\right)$\\\hlinedice&$\frac{2(\vec{x}\cdot\vec{y})}{\sum(x_i+y_i)}$&dice&$\frac{2p(w\capw')}{p(w\cupw')}$\\\hlineJaccard&$\frac{\vec{x}\cdot\vec{y}}{\sum(x_i+y_i)}$&Jaccard&$\frac{p(w\capw')}{p(w\cupw')}$\\\hlineoverlap&$\frac{|\vec{x}\cap\vec{y}|}{min(|\vec{x}|,|\vec{y}|)}$&T検定&$\frac{p(w\capw')-p(w')p(w)}{\sqrt{p(w')p(w)}}$\\\hlineLin$^{*1}$&$\frac{\sum(x_i+y_i)}{|\vec{x}|+|\vec{y}|}$&Lin98A$^{*2}$\footnotemark&$\log\left(\frac{f(w,r,w')f(*,r,*)}{f(*,r,w')f(w,r,*)}\right)$\\\hline\multicolumn{4}{l}{$^{*1}$\cite{Lin98a}で提案されている手法.}\\\multicolumn{4}{l}{$^{*2}$\cite{Lin98a}で提案されている手法.}\end{tabular}\end{center}\end{table}語の関連度が得られれば,関連度に基づいて語をクラスタリングすることで関連語が得られる.実際には,同じクラスタに分類された語同士を関連語や同義語であるとしている.語のクラスタリングには分布クラスタリング(DistributionalClustering)が用いられることが多い.分布クラスタリングとは,類似した名詞は共通した動詞と共起すると仮定し,各語の動詞との確率分布の類似度に基づいて,データを結合もしくは分割していくクラスタリング手法である\cite{Pereira93,HangLi98,Dhillon02}.これらコーパスから関連度を自動的に算出する手法では,コーパス内に出現する語しか扱えないという欠点がある.そのため,広範囲の語をカバーするためには,広範囲の内容をカバーするコーパスが必要となる.近年では,より広範囲の語をカバーするためにWebをコーパスとして用いることが提案されている.しかしWeb上の文書は莫大であり,直接収集し,解析するためには非常に大きな時間コストと設備コストがかかる.そのため,Web全体での語の出現頻度や2語の共起頻度を獲得するためには従来のコーパスを用いたシソーラス構築とは異なる工夫が必要である.そのような工夫の一つとしてKilgarriffらは検索エンジンを用いた手法を紹介している\cite{Kilgarriff03}.「語$w_a$」をクエリーとして検索エンジンを利用すると,語$w_a$のWeb上でのヒット件数が得られる.検索エンジンは非常に多くのページをクローリングしているため,このヒット件数を語$w_a$のWeb全体での出現頻度と近似できる.同様にして,「語$w_a$and語$w_b$」をクエリーとすれば,Web上での語$w_a$と語$w_b$の共起頻度を獲得することができる.検索エンジンから獲得できる頻度情報を用いて関連度を算出する手法としては,次のようなものがある.Heylighenは検索エンジンのヒット件数を用いた語の関連度の尺度により,語の分類や語の曖昧性解消,より優れた検索エンジンの開発の可能性を示唆している\cite{Heylighen01}.BaroniやTuerneyは,類義語を同定するために,検索エンジンを用いた語の関連性の尺度を提案している\cite{Baroni04,Turney01}.Turneyはその結果を用いることでTOEFLのシソーラスの問題で平均的な学生よりもよい得点を挙げたことを報告している.佐々木らは検索エンジンの上位ページとヒット件数を利用した専門用語集の自動構築を行っている\cite{Sasaki05}.Szpektorは名詞ではなく動詞の関連度を検索エンジンを用いて定義している\cite{Szpektor04}.これら検索エンジンを用いて関連度の計算を行っている研究では,条件付き確率や表\ref{CompareMethod}の確率手法で定義されているような相互情報量,Jaccard係数が計算指標として用いられている. \section{検索エンジンを用いた関連性の測定} 本章では,Web上の情報を用いて語の関連度を測る手法を提案する.\subsection{検索エンジンのヒット件数の利用と従来手法の問題点}検索エンジンのヒット件数を用いて2語の関連度を計算する手法について説明する.ここでは,従来研究で用いられている相互情報量を計算指標として関連度を算出する.そして,その関連度を検証し,従来手法の問題点について述べる.具体的な例を使って説明しよう.ここで用いられている手法は,\cite{Baroni04}のものと同一である\footnote{ただし,Baroniらは検索エンジンとしてAltavistaを用いているが,Altavistaは日本語に正式に対応していないため,検索エンジンはGoogleを用いた.}.関連度を測りたい語を,例えば「インク」「インターレーザー」「プリンタ」「印刷」「液晶」「Aquos」「テレビ」「Sharp」の8語とする.これらの語群は,Epsonのプリンタであるインターレーザーに関する語と,Sharpの液晶TVであるAquosに関する語であり,各語の関連度を得ることで,2つのグループを適切に分けたいと仮定する.表\ref{singlehit}に示しているのは,語群の各語に対して,検索エンジンによって得られたヒット件数である.表\ref{cooccur-list}には,語群中の2語を検索エンジンのクエリーとしたときのヒット件数を行列形式にしたものを示す.例えば,「インク」と「プリンタ」であれば,\begin{center}``インク''\\\``プリンタ''\end{center}をクエリーとして検索エンジンに入力し,そのヒット件数を調べる\footnote{ダブルクオーテーションで囲んでいるのは,2単語以上からなるフレーズに対しても適切に処理するためである.}.8語に対してこの行列を得るには,$_8C_2=28$回のクエリーが必要となる.\begin{table}[b]\begin{center}\caption{語単独でのヒット件数}\label{singlehit}\begin{tabular}{c|c|c|c|c|c|c|c}プリンタ&印刷&\hspace{-0.5zw}{\footnotesizeインターレーザー}\hspace{-0.5zw}&インク&液晶&テレビ&Aquos&Sharp\\\hline17000000&103000000&215&18900000&69100000&192000000&2510000&186000000\\\end{tabular}\end{center}\vspace{\baselineskip}\caption{2語でのヒット件数の行列}\label{cooccur-list}\setlength{\tabcolsep}{2.5pt}\begin{tabular}{c|cccccccc|c}語/語&プリンタ&印刷&\hspace{-1.3zw}\scalebox{0.6}[1]{インターレーザー}\hspace{-1.3zw}&インク&液晶&テレビ&Aquos&Sharp&合計\\\hlineプリンタ&0&4780000&273&4720000&4820000&5090000&201000&990000&20601273\\印刷&4780000&0&183&4800000&6520000&11200000&86400&1390000&28776583\\\hspace{-1.3zw}\scalebox{0.6}[1]{インターレーザー}\hspace{-0.3zw}&273&183&0&116&176&91&0&0&839\\インク&4720000&4800000&116&0&3230000&4950000&144000&656000&18500116\\液晶&4820000&6520000&176&3230000&0&18400000&903000&4880000&38753176\\テレビ&5090000&11200000&91&4950000&18400000&0&840000&2830000&43310091\\Aquos&201000&86400&0&144000&903000&840000&0&1790000&3964400\\Sharp&990000&1390000&0&656000&4880000&2830000&1790000&0&12536000\\\hline合計&20601273&28776583&839&18500116&38753176&43310091&3964400&12536000&166442478\\\end{tabular}\end{table}Baroniらは,この2つの情報を使って求めた相互情報量の値が,語の関連度を示すよい指標になると述べている.相互情報量は,語$w_a$の出現確率を$p(w_a)$,語$w_b$の出現確率を$p(w_b)$,語$w_a$と語$w_b$の同時出現確率を$p(w_a\capw_b)$とすると,\pagebreak\begin{align}\label{MI}MI(w_a,w_b)&=\log\frac{p(w_a\capw_b)}{p(w_a)p(w_b)}\\\nonumber&=\log\frac{Nn(w_a,w_b)}{n(w_a)n(w_b)}\end{align}と表される.ここで$n(w_a)$は語$w_a$をクエリーとしたときのヒット数,$n(w_a,w_b)$は「語$w_a$語$w_b$」をクエリーとしたときのヒット数であり,また,$N$は検索エンジンのクロールした全ページ数である.Baroniらは$N$を3億5千万ページとしているが,2006年末現在では,Googleは約150億ページ,AltaVistaは約120億のページである.ここでは$N=100\times10^8$とした.表\ref{mutual}に相互情報量を示す.「液晶」の行に注目すると,「液晶」と関連が強いとあらかじめ想定している語は「テレビ」「Aquos」「Sharp」であるが,「プリンタ」や「インターレーザー」との相互情報量が大きく,「テレビ」や「Sharp」との値は小さくなっており,適切な関連度が算出されていない.\begin{table}[b]\begin{center}\caption{相互情報量行列}\label{mutual}\begin{tabular}{c|cccccccc}語/語&プリンタ&印刷&\scalebox{0.8}[1]{インターレーザー}&インク&液晶&テレビ&Aquos&Sharp\\\hlineプリンタ&0&4.195&7.504&5.878&4.602&3.635&4.740&2.029\\印刷&4.195&0&5.302&4.093&3.103&2.622&2.094&0.567\\\scalebox{0.8}[1]{インターレーザー}&7.504&5.302&0&6.542&5.663&3.981&0.000&0.000\\インク&5.878&4.093&6.542&0&4.096&3.501&4.301&1.512\\液晶&4.602&3.103&5.663&4.096&0&3.518&4.840&2.222\\テレビ&3.635&2.622&3.981&3.501&3.518&0&3.746&0.655\\Aquos&4.740&2.094&0.000&4.301&4.840&3.746&0&4.534\\Sharp&2.029&0.567&0.000&1.512&2.222&0.655&4.534&0\\\hline\end{tabular}\end{center}\end{table}この原因は,相互情報量が「出現確率の影響を受ける」という特徴を持つためである.この特徴は式(\ref{MI})を次式のように書き換えるとわかりやすい.\begin{equation}MI(w_a,w_b)=\logp(w_a|w_b)-\logp(w_a)\end{equation}$p(w_a|w_b)$は語$w_b$が出現するときに語$w_a$と語$w_b$が共起する条件付き確率を表す.$p(w_a|w_b)$が等しい場合は,$p(w_a)$の出現確率が小さいほど相互情報量は大きい値になる.この特徴自体は「共起する確率が同じなら,出現確率の低い語と共起する方が関連性が強い」と考えられるので,問題がない.しかし,検索エンジンにおいては語によって出現頻度に大きなばらつきがあり,また全事象を表す$N$が非常に大きいために出現確率の違いによる影響が大きくなり過ぎてしまう.例えば,「テレビ」のように出現確率の極端に大きい語と他の語の相互情報量が小さくなる.表\ref{mutual}の「テレビ」の列に注目すると,いずれの語においても「テレビ」との相互情報量が小さくなっていることが分かる.実際に表\ref{singlehit}の語のヒット件数と表\ref{mutual}の各行との相関係数(式\ref{correlation})は$-0.35$となり,相互情報量と語の出現確率にやや強い負の相関があることが分かる.それに対し,表\ref{cooccur-list}の共起ヒット件数と表\ref{mutual}の相互情報量のとの相関係数は$0.06$となり,ほとんど相関がないことが分かる.\begin{equation}\label{correlation}r=\frac{\sum_{i=1}^n(x_i-\bar{x})(y_i-\bar{y})}{\sqrt{\sum_{i=1}^n{(x_i-\bar{x})^2}}{\sqrt{\sum_{i=1}^n{(x_i-\bar{x})^2}}}}\left(\bar{x}:x_iの平均値\right)\end{equation}このように,従来用いられてきた相互情報量は語の出現確率に影響を受けるため,関連度を測る際に各語の出現確率に数千倍,数万倍といった開きがある場合,値の信頼性は低くなるという問題がある.これは,Jaccard係数やdice係数など他の類似度の指標についても当てはまる.\subsection{$\chi^2$値を用いた関連度の指標}本論文では,$\chi^2$値を使った関連度の指標を用いる.$\chi^2$値は,あるデータ集合内での統計的な偏りを表す指標であり,機械翻訳やコロケーション処理など,多くの手法で用いられている.語の関連度としてはCurranらが用いている\cite{Curran02-2}.$\chi^2$値を関連度に用いるのは,語の出現頻度のばらつきによる影響を排除するためである.相互情報量やJaccard係数を関連度に用いる場合の問題点は,語の出現確率に大きな影響を受ける点である.この問題の解決策として,出現確率を適切に正規化するというアプローチが考えられる.$\chi^2$値では,語群を構成する語の出現頻度を正規化要素とし,値の正規化を行ったうえで,共起の偏りを算出するので,出現確率のばらつきによる影響を抑えることができる\cite{Yang97}.このため,値のばらつきが大きい検索エンジンのヒット件数を用いて関連度を算出する場合,$\chi^2$値を計算指標として用いることが適切であると考えられる.対象とする語群の中で,共起の偏りを統計的に調べるために,1つ1つの語について,語群内の他の語との共起頻度を標本値とし,「$w_i,w_j\inG$が共起する確率は,語$w_i$と語群$G$内の語が共起する確率と等しい」という帰無仮説をおいて検定を行う.語$w_i$と語$w_j$の実際の共起頻度を$n(w_i,w_j)$,語$w_i$と語群Gの語との共起頻度の和を$\displaystyleS_{w_i}=\sum_{k}n(w_i,w_k)$,全ての共起頻度の和を$\displaystyleS_G=\sum_{w_i\inG}S_{w_i}$とするとき,語$w_i$と語$w_j$に関する$\chi^2$値は次式で表される.\begin{align}\chi^2(w_i,w_j)&=\frac{n(w_i,w_j)-E(w_i,w_j)}{E(w_i,w_j)}\nonumber\\E(w_i,w_j)&=S_{w_i}\times\frac{S_{w_j}}{S_G}\label{chi}\end{align}$E(w_i,w_j)$は語$w_i,w_j$の共起頻度の期待値を表している.例えば,語$w_i$を「プリンタ」,語$w_j$を「インターレーザー」とすると,$n(w_i,w_j)$は$273$,$S_{w_i}=20601273$,${S_{w_j}}/{S_G}=839/166552478$となる.表\ref{chilist}は,表\ref{cooccur-list}から計算された$\chi^2$値行列である.表\ref{chilist}では,「プリンタ」は「印刷」や「インク」と偏って共起している.また,「インターレーザー」は「プリンタ」との共起が,「Aquos」は「Sharp」との共起が強いなど,良好な結果となっている.また,表\ref{chilist2}のような,「プリンタ」「液晶」との関連が低いと考えられる4語と「プリンタ」「液晶」の2語で構成される計6語の語群を与えた場合を考える.この語群では,表\ref{singlehit}の語群と違い,「プリンタ」と「液晶」の関連性が強いと考えられる.「プリンタ」の行に注目すると,確かに「プリンタ」と「液晶」の$\chi^2$値が大きくなっており,語群に基づいた適切な結果が得られている.\begin{table}[tb]\caption{$\chi^2$行列}\label{chilist}\begin{tabular}{c|cccccccc}語/語&プリンタ&印刷&\hspace{-1.3zw}\scalebox{0.8}[1]{インターレーザー}\hspace{-1.3zw}&インク&液晶&テレビ&Aquos&Sharp\\\hlineプリンタ&0.000&416649&275.5&2579092&113.8&0.000&0.000&0.000\\印刷&416649&0.000&9.925&801848&0.000&1840173&0.000&0.000\\\hspace{-1.3zw}\scalebox{0.8}[1]{インターレーザー}\hspace{-0.3zw}&275.5&9.925&0.000&5.548&0.000&0.000&0.000&0.000\\インク&2579092&801848&5.548&0.000&0.000&3846&0.000&0.000\\液晶&113.8&0.000&0.000&0.000&0.000&6858012&0.000&1317796\\テレビ&0.000&1840173&0.000&3846&6858012&0.000&0.000&0.000\\Aquos&0.000&0.000&0.000&0.000&0.000&0.000&0.000&7449430\\Sharp&0.000&0.000&0.000&0.000&1317796&0.000&7449430&0.000\\\hline\end{tabular}\end{table}\begin{table}[tb]\begin{center}\caption{$\chi^2$行列-2}\label{chilist2}\begin{tabular}{c|cccccc}語/語&プリンタ&小説&液晶&紅茶&バイオリン&化粧品\\\hlineプリンタ&0.000&0.000&2402760&0.000&0.000&0.000\\小説&0.000&0.000&0.000&277513&712208&19024\\液晶&2402760&0.000&0.000&0.000&0.000&116983\\紅茶&0.000&277513&0.000&0.000&11149&597032\\バイオリン&0.000&712208&0.000&11149&0.000&0.000\\化粧品&0.000&19024&116983&597032&0.000&0.000\\\hline\end{tabular}\end{center}\end{table} \section{関連度を用いたネットワークに基づくクラスタリング} 従来は,確率分布の類似度に基づいた分布クラスタリングの方法を用いて,関連語をクラスタに分けることが多かった.本研究では,語の関連度からネットワークを構築し,ネットワークに基づく新しいクラスタリングの方法を適用する.関連語ネットワーク上でNewman法によりクラスタリングを行い,その結果,同じクラスタに分類されたもの同士を関連語として取り出す.このクラスタリング法は,語の数が大規模になったときにでも適用でき,対象によってはよいクラスタを生成するので近年注目を集めている.\subsection{関連語ネットワークの構築}まず,語の関連性を用いて,語のネットワークを構築する.ノードが語,エッジが強い関連を表す.本論文では,これを関連語ネットワークと呼ぶ.関連語ネットワークは次のように構成される.\begin{figure}[b]\begin{center}\includegraphics[width=120mm,clip]{network.eps}\caption{関連語ネットワーク}\label{related-network}\end{center}\end{figure}\begin{enumerate}\item語群$G$を与える.\item次式により2語$w_i,w_j\inG$の関連度$\chi^2_{w_i,w_j}$を計算する.\begin{align}\label{chi2}\chi^2_{w_i,w_j}&=\frac{n(w_i,w_j)-E(w_i,w_j)}{E(w_i,w_j)}\nonumber\\E(w_i,w_j)&=S_{w_i}\times\frac{S_{w_j}}{S_G}\\S_{w_i}&=\sum_{k}n(w_i,w_k)\nonumber\\S_G&=\sum_{w_i\inG}S_{w_i}\nonumber\end{align}\item各語$w_i\inG$をノードとして配置する.\item$\chi^2_{w_i,w_j}>0$のとき,ノード$w_i$,$w_j$間にエッジを張る.\end{enumerate}例を図\ref{related-network}に示す.これは,Webから獲得したコーパス中に高頻度に出現する計90語をこのネットワークの構成語として用い,ヒット件数を得る検索エンジンとしてGoogleを用いた関連語ネットワークである.この関連語ネットワーク上では,関連の強い語同士が近く配置されている.例えば,図\ref{related-network}の左下には「疾患」「患者」などの医学関連の語が密集している.また,上部では「アプリケーション」「ファイル」などのコンピュータ関連の語が密集している.このように関連語ネットワーク上では,関連の強い語同士が密集して存在している.\subsection{ネットワークに基づくクラスタリング}従来のシソーラス構築における語のクラスタリングには確率分布を用いた分布クラスタリング手法が一般的に用いられている.\cite{Pereira93,Dhillon02}.また情報検索の分野では,語を属性とする高次元のベクトルを用いた語のクラスタリング手法も多く,LSAやrandomprojectionといった次元を圧縮する手法も有効である\cite{Deerwester90,papadim98}.一方で,近年ではデータをネットワークとして表した上で,それを分析する手法が提案され,着目を集めており,語の関係性の分析にも用いられている\cite{Widdows02,motter02,Palla05}.SigmanはWordNetがネットワーク構造としての性質を持っていることを示し,WordNetにネットワーク分析の手法を適用できることを示している\cite{sigman02}.\begin{table}[b]\begin{center}\caption{階層的クラスタリングで用いられる距離関数$D(c_i,c_j)$}\label{Hierarchical}\begin{tabular}{|c|c|c|c|}\hline手法&最大距離法&最小距離法&群平均法\\\hline$D(c_i,c_j)$&$\displaystyle\max_{w_k\inc_i,w_l\inc_j}Sim(w_k,w_l)$&$\displaystyle\min_{w_k\inc_i,w_l\inc_j}Sim(w_k,w_l)$&$\frac{1}{n_in_j}\displaystyle\sum_{w_k\inc_i}\sum_{w_l\inc_j}Sim(w_k,w_l)$\\\hline\end{tabular}\end{center}\end{table}ネットワークのクラスタリングには,従来,表\ref{Hierarchical}のように距離関数$D(c_i,c_j)$を定義し($n_i$はクラスタ$c_i$に含まれる語の数,$Sim(w_k,w_l)$は$語w_k,w_l$の類似度を表す),距離の近い順に各クラスタをマージしていく階層的クラスタリング手法や,EMアルゴリズム,NaiveBayesといった機械学習の手法を用いたクラスタリング手法が一般的に用いられてきた.しかし,ここ数年で新たなクラスタリング手法がいくつも提案されている.代表例としては,betweennessクラスタリングがあげられる.betweennessクラスタリングは,グラフ\footnote{ネットワークは,エッジに重みや長さなどの数値が付加されているのに対し,グラフはエッジに数値の付加されていない,接続関係だけを表すものである.}のbetweennessというエッジの媒介性を表す指標(あるエッジが他のエッジの最短パスにどの程度の割合で含まれているか)に注目し,できるだけ部分グラフをつなぐようなbetweennessの高いエッジを削除していくことにより,密度の濃いサブグラフを同定する手法である\cite{Newman02}.これらの手法は高次元のベクトルに対しても有効であり,以前の手法と比べて高い精度で現実のクラスタ構造を再現することができる.その反面,時間計算量が大きく,大規模なネットワークに適用することは難しい.例えば,ネットワークのノード数を$n$,エッジ数を$m$とするとき,betweennessクラスタリングの時間計算量は$O(n^3)$または$O(m^2n)$であり,ノード数が多いネットワーク上でbetweennessクラスタリングを行うことは困難である.そこで,本研究では大規模なネットワークにも適用可能なクラスタリング手法であるNewman法を用いる.Newman法は,階層的クラスタリング手法の一つであるが,クラスタリングを評価関数$Q$の最大値導出問題に置き換えた手法である\cite{Newman04}.評価関数$Q$とは,各クラスタの結合度を表す関数であり,$Q$が大きいほど各クラスタ内の結合が強いことを表している.Newman法では,$Q$の高い状態がより適切にクラスタリングされた状態であると定義している.そして,$Q$の最大値を求めることで,そのネットワークに最適なクラスタリング結果を得ることを目標としている.評価関数$Q$は次式で表される.\begin{equation}\label{newman}Q=\frac{1}{2m}\left[\left(\sum_{v,w}A_{vw}\delta(c_v,c_w)\right)-\left(\sum_{v,w}\frac{k_vk_w}{2m}\delta(c_v,c_w)\right)\right]\end{equation}$k_v$は頂点vが持っているエッジの本数,$m$は全エッジ本数の合計,$c_v$は頂点$v$が属しているクラスタを表している.$\delta(c_v,c_w)$はクロネッカーの$\delta$である.式(\ref{newman})の第1項において,$A_{vw}$は頂点$v,w$間のエッジの有無を表しており,また頂点$v,w$が同じクラスタのときのみ,$\delta(c_v,c_w)=1$となる.つまり,第1項は各クラスタ内に含まれるエッジの本数の合計を表している.同様に第2項においては,$\frac{k_vk_w}{2m}$は頂点$v,w$間にエッジが引かれる確率を表しているため,第2項は,各クラスタ内に含まれるエッジの本数の合計の期待値を表している.すなわち,評価関数$Q$とは,クラスター内に存在するエッジの本数の合計が期待値からどの程度ずれているかを相対的に表した値である.クラスター内のエッジ本数の和が期待値と同じなら$Q=0$,それより強いクラスターなら$Q>0$であり,弱いクラスターなら$Q<0$となる.$Q$が最大であるとき,各クラスター内での結合度が最大であるので,ネットワーク全体として最も良くクラスタリングされた状態であると考えられる.しかし$Q$の最大値を求める場合,エッジ数$m$,ノード数$n$のとき,計算量が$O(n^3)$もしくは$O(m^2n)$となり,大きくなってしまう.そこでNewman法ではGreedyアルゴリズムを用いて$Q$の値が極大値をとるようにクラスタリングを行う.Greedyアルゴリズムなので,「$Q$の変化量$\DeltaQ$が最大になるようにクラスタ,もしくはノードをマージする」という手順を繰り返していく.そして「$\DeltaQの最大値<0$」となった時点でクラスタリングを終了とする.このようにして$Q$の極大値を求めている.この際,常に「$\DeltaQ$が最大になるような2つのクラスタを選んでマージ」するため,クラスタがマージされていく順序は一意であり,初期条件によってクラスタリングの結果は変化しない.また,クラスタ数を任意に制御したい場合は,終了条件を$\DeltaQ<0$ではなくクラスタ数にすることも可能である.Newman法とbetweennessクラスタリングを比較すると,NewmanらによりNewman法はbetweennessクラスタリングとほぼ同じ精度のクラスタリング結果が得られることが示されている.また,Newman法の時間計算量は$O((m+n)n)$もしくは$O(n^2)$であり,時間計算量が$O(m^2n)$あるいは$O(n^3)$であるbetweennessクラスタリングと比べ,計算量が少なく,高速な手法となっている.そのため,Newman法はノード数やエッジ数が大きい大規模ネットワークに適用可能である.\subsection{Newman法による関連語の獲得}語群$G$を用いてシソーラスを構築する場合,Newman法を用いて関連語を同定する手順は次のようになる.\begin{enumerate}\item検索エンジンのヒット件数と$\chi^2$値を用いて語群$G$の語の関連度を算出する.\item関連度をもとに語群$G$を構成語とする関連語ネットワークを構築する.\item1つの語を1つのクラスタとする.\itemある2つのクラスタが1つのクラスタになったと仮定して,$Q$の変化量$\DeltaQ$(式\ref{deltaq})を計算する.\item(4)を全てのクラスタの組み合わせについて行う.\item$\DeltaQ$が最大となるような2つのクラスタをマージし,1つのクラスタとする.ただし,最大の$\DeltaQ<0$なら(8)へ.\itemマージしたクラスタの$e_{ij},a_i$を再計算し,(4)に戻る.\item同じクラスタに属している語を関連語とみなす.\end{enumerate}\begin{align}\label{deltaq}\DeltaQ_{ij}&=2(e_{ij}-a_ia_j)\nonumber\\e_{ij}&=クラスタi,j間のエッジの本数(割合)\\a_i&=\sum_{i}e_{ii}\nonumber\end{align} \section{評価} \subsection{評価実験の概要と正解セットの作成}シソーラスを評価する手法として,WordNetやEDRなど人手で構築された既存のシソーラスと比較する方法\cite{Jarmasz03,Curran02},綿密に作られたアンケートや語の分類タスクを人が行い,その結果と比較することでシソーラスの適切さを評価する方法\cite{Croft99,Hodge02}がある.前者の手法はWordNetに出現する語しか評価できないため語の範囲が限られてしまい,後者はコストがかかるのが問題である.本研究では,提案手法で構築されたシソーラスと,2種類のシソーラスを比較することで,提案手法の評価を行う.1つ目はWebより収集したコーパスから作成したシソーラスであり,これを関連語の正解セット作成用のデータとして用いることで提案手法と従来のコーパスを用いた手法との比較を行う.2つ目は既存のシソーラスであり,これから作成した関連語の正解セットを用いて,人手によって構築されたシソーラスと提案手法との比較を行う.また,1つ目の正解セットにはWebに特徴的な語が多く含まれるのに対し,2つ目の正解セットでは,既存のシソーラスに含まれるような,いわゆる汎用的な語が多く含まれる.そのため,それぞれの正解セットを評価実験に用いることで,Webに特徴的な語に対する提案手法の有効性,汎用的な語に対する提案手法の有効性を検証することにもなる.\subsubsection{OpenDirectoryを用いた正解セットの作成}シソーラスを作成するコーパスとしてOpenDirectory\footnote{http://dmoz.org/World/Japanese/}を用い,あらかじめ各カテゴリに特徴的な語を抽出することで,正解となるシソーラスを模擬的に作成する.OpenDirectoryは,ボランティア方式で運営される世界最大のウェブディレクトリであり,各カテゴリは,担当のエディタによって管理されている.Webディレクトリの中では,カテゴリ分類の信頼性が高いもののひとつである.各カテゴリに特徴的に出現する語は互いに関連しているという仮定のもとで,提案手法および比較手法による語の関連性の適切さを評価する.OpenDirectoryの14個のカテゴリの中から,「アート」,「スポーツ」,「コンピュータ」,「ゲーム」,「社会」,「家族」,「科学」,「健康」,「レクリエーション」の9つのカテゴリを用い\linebreakた\footnote{なお,「ニュース」,「キッズ&ティーンズ」,「ビジネス」,「オンラインショップ」,「各種資料」は,他のカテゴリとの重複が大きいため除いた.}.各カテゴリ内に含まれるWebページを用い,次のようにカテゴリに特徴的な語を抽出する.\begin{enumerate}\item各カテゴリ$C_i(i=1...9)$ごとに登録順に1000ページの文書を取得する.\item全ての文書に形態素解析\footnote{茶筌.http://chasen.aist-nara.ac.jp/.}を行う.そして連接する名詞5-gramまでを単語として取り出す\cite{Manning99}.\itemカテゴリ$C_i$内で,単語$w_a$が含まれる文書の数を$f^i_{w_a}$とする.また,全てのカテゴリで語$w_a$が含まれる文書数を$f^{all}_{w_a}$とする.\itemカテゴリ$C_i$における語$w_a$の重みを次のように計算する.\begin{equation}score^i_{w_a}=f^i_{w_a}\times\log(N/f^{all}_{w_a})\label{tfidf}\end{equation}ただし,$N$は全文書数である.\itemカテゴリ$C_i$ごとにscoreの高い語$w_a$を取り出し,それらをそのカテゴリに特徴的な語群$R_{C_i}$とする.すなわち,$R_{C_i}=\{w_k|rank_i(w_k)\leq10\}$である($rank_i(w_k)は,カテゴリC_i内での語w_kのscoreの順位を表す$).また,$A=\{w|w\inR_{C_i},i=1...9\}$とする.\end{enumerate}ここでは,各カテゴリごとに特徴的に現れる語を,tfidfの考え方を用いて重み付けしている.また上記説明の(1)において「登録順に」とあるが,これはOpenDirectoryのサイトから文書データを収集する際に,データが得られる順番を意味している.この順番は,文書の内容に関係なく無作為に並んでおり,特定のルールはないと考えられるため,ランダムな順番と考えても問題ないと言える.\begin{table}[b]\caption{OpenDirectoryから取り出した関連語群}\label{wordlist}\begin{center}\begin{tabular}{ll}\hlineカテゴリー&関連語群\\\hlineアート&画廊,作品,劇場,サックス,短歌,ライブ,ギター,披露,バレエ,個展\\コンピュータ&掲示板,ソースコード,無料レンタル,アクセス数,文字コード,初期値,拡張子\\科学&情報処理,実証,方法論,社会科学,研究対象,格差,研究員,専門,専攻,討論\\\hline\end{tabular}\end{center}\end{table}得られた語の一部を表\ref{wordlist}に示す.例えば「アート」カテゴリから取り出された語に注目すれば,「画廊」「作品」「個展」は絵画関連の語,「サックス」「ライブ」「ギター」は音楽関連の語,「バレエ」「披露」「劇場」はパフォーミングアート関連の語,「短歌」は文芸関連の語となっており,いずれも「アート」に関連した語が取り出されている.こうして得られたカテゴリごとの特徴的な語を用いて,\begin{itemize}\itemある2語が同一カテゴリ内に含まれれば,関連している\itemある2語が異なるカテゴリであれば,関連していない\end{itemize}と見なす.ここでの評価法は,カテゴリごとの特徴語の抽出に基づいている.各カテゴリに特徴的に現れる語を重み付けする方法は,\cite{Nagao76}や\cite{Xu02}で用いられている.後者では,各カテゴリに特徴的な語をtfidfで重み付けし,tfidf値の高い語をカテゴリに特徴的な語として抽出している.さらに\cite{Chang05}では,OpenDirectoryのカテゴリ分類を用いて各カテゴリに特徴的な語を取得し,その結果,人手による評価で平均65\%,最大で81\%の正解率を得ている.もちろん,ここでの関連語の正解セットは完全ではなく,異なるカテゴリに含まれていても関連している場合もあるかもしれないし,同一カテゴリ内であっても,その関連の度合いは程度の差が大きいかもしれない.しかし,本研究では,このデータを手法の比較を行うための目安として用いており,比較手法の優劣を示すには十分であると考えている.\begin{figure}[b]\begin{center}\includegraphics[width=8cm,clip]{evaluate.eps}\end{center}\caption{評価実験の概略図}\label{evaluate}\end{figure}図\ref{evaluate}に全体の概要を図示する.OpenDirectoryから獲得したカテゴリ分類されたコーパスを用いて関連語の正解セットを作成する.その正解セットの語を用いて提案手法および比較手法によって関連語を出力する.その際,比較手法はコーパス内の共起情報を用いて関連度の算出を行う.そして出力結果と正解セットを比較し,手法の評価を行う.図\ref{evaluate}に示すとおり,本評価実験では正解セット作成用コーパス,比較手法で用いる関連度学習用コーパスの2種類のコーパスが必要となる.そこで,全部で各カテゴリから5000ページずつ計4万5千ページの文書をコーパスとして用意し,$1/5$を正解セット作成用に,$4/5$を関連度の学習用に用いて5分割交差検定を行った\footnote{ただし,関連度の学習を行う際はコーパスの持つカテゴリ分類は無視し,flatなコーパスとして扱った.}.正解セット作成用のコーパスを変えたそれぞれの正解セットを$Ao_i(i=1,2,3,4,5)$とする.関連度の評価は,適合率,再現率,InverseRankScoreによって測る.InverseRankScoreとは正解とマッチした語の順位の逆数の合計値であり,正解となる語が上位にランクされる程大きい値となる.この値を用いることで,順位を考慮した比較を行うことができる.\begin{table}[t]\caption{評価実験の例(ヴァイオリン)}\label{ex-experiment}\begin{center}\begin{tabular}{l|c|c|c|c}&関連語&適合率&再現率&InvR\\\hline正解セット&ビオラ,チェロ,笛,ギター&&&\\\hline手法1&1位:ビオラ2位:チェロ3位:ビール4位:ピック&0.5&0.5&1.50\\\hline手法2&1位:ピック2位:ビール3位:ビオラ4位:チェロ5位:ギター&0.6&0.75&0.78\\\hline\end{tabular}\end{center}\end{table}簡単な算出例を表\ref{ex-experiment}に示す.この場合,手法1による出力は4語中2語が正解であるので$適合率=\frac{2}{4}=0.50$,正解セット4語のうち2語が手法1により出力に含まれているので,$再現率=\frac{2}{4}=0.50$となる.同様に手法2では$適合率=\frac{3}{5}=0.60$,$再現率=\frac{3}{4}=0.75$となり,手法2の方が優位となる.しかし,正解の語が上位にランクされている手法1の方が手法としての実用性が高い,とも考えられる.このような場合に各手法のInverseRankScoreを求めると手法1では,$\frac{1}{1}+\frac{1}{2}=1.50$,手法2では$\frac{1}{3}+\frac{1}{4}+\frac{1}{5}=0.78$となり,手法1の方が優位となる.このように適合率,再現率に加え,InverseRankScoreを用いることで,順位を加味した評価を行うことができる.\cite{Widdows02,Curran02}.\subsubsection{既存シソーラスを用いた正解セットの作成}本論文では,Curranら\cite{Curran02}の手法を元にして,提案手法と既存のシソーラスを比較を行う.そのために,正解セット作成用シソーラスと比較用シソーラス,2種類のシソーラスを用意する.まず,正解セット作成用シソーラスから関連語を取り出し,正解セットを作成する.この正解セットの語群に対して提案手法と比較用シソーラスを適用して関連語の分類を行う.その結果,どの程度正しく語群が関連語群に分類されるかによって提案手法と既存シソーラスとの比較を行う.本論文では,Curranらが用いたRoget'sThesaurusの最新版であるRoget'sMilleniumThesaurus~\cite{RogetMillenium}を正解セット作成用のシソーラスとして用い,WordNet及びMobyThesaurus~\cite{MobyThesaurus}を比較用のシソーラスとして用いる.Roget'sMilleniumThesaurusは見出語を持ち,その見出語がそれぞれ関連語群を持つ,という2層構造をしたシソーラスである.本実験においては,1つの見出語から取り出される関連語群をそのまま正解の関連語群とした.ただし,比較用シソーラスに含まれない語は除くものとする.関連語の例は表\ref{WordNetExample}のようになる.今回,見出語としてはTOEIC最頻出英単語リスト\footnote{http://www.linkage-club.co.jp/ExamInfo\&Data/toeic.htm}に含まれる名詞の計220語を用いる.これらの見出語から無作為に10語選び,その10語からそれぞれ関連語群を取り出し,1組の関連語正解セットとする.本実験では,計10組の正解セット$Aw_i(i=1,2,...,10)$を作成した.また比較用のシソーラスを用いた関連語群の分類では,算出した関連度に基づいて行うのではなく,各2語が比較用シソーラスで関連語とされているか,いないかの2値的な判定によって行うものとする\footnote{WordNetを用いて2語の関連度を算出する方法もあるが,予備実験により関連語の分類には適さないことが判明したので,本論文では採用しなかった.}.この際,どの2語を関連語とみなすかは,シソーラスの構造によって違う方法を用いた.Roget'sThesaurusと同様に見出語と関連語群の2層構造を持つMobyThesaurusにおいては,見出語とその関連語群同士,及び同じ見出語を持つ語同士を関連語とみなす.木構造を持つWordNetにおいては,見出語とHyponyms(下位語),見出語とHypernyms(上位語)及び見出語とCoordinateTerms(共通の上位語を持つ語)同士を関連語とみなす.関連度の評価指標としては,OpenDirectoryを用いる場合と同様に,適合率とInverseRankScoreを用いる.\begin{table}[t]\caption{正解用シソーラスから取り出した関連語群}\label{WordNetExample}\begin{center}\begin{tabular}{ll}\hline見出語&関連語群\\\hlineaccess&admission,contact,door,entrance,entree,\\&ingress,introduction,opendoor,road,route,\\election&acclamation,appointment,by-election,referendum\\&polls,primary,selection,voting\\pollution&abuse,contamination,corruption,decomposition,uncleanness\\&dirtying,impurity,infection,rottenness,spoliation\\agriculture&agronomy,culture,horticulture,tillage,husbandry\\\hline\end{tabular}\end{center}\end{table}\subsection{関連度の指標の評価}関連度の指標に関する評価を行う.提案手法では,関連度の計算に$\chi^2$値を用いているが,この有効性を示すため,相互情報量,Jaccard係数を用いた関連度と比較する.検索エンジンを利用する際,日本語のみを扱うOpenDirectoryによる正解セットでは,検索時のオプションとして「日本語のページを検索」を選択した値を用い,英語のみを扱う既存のシソーラスによる正解セットでは検索時のオプションとして「ウェブ全体から検索」を選択した値を用いる\footnote{Googleではオプションによって検索するページの対象範囲をコントロールできる.}.また,コーパスを用いて学習する手法との比較も行う.コーパスを用いる手法では,tfidf値を要素とする単語ベクトルを用い,計算指標としてはcosineを用いた.実験の手順を以下に示す.\begin{enumerate}\item正解セット$A_i$に含まれる全ての語について,各指標ごとに2語の関連度を計算する(比較用シソーラスを用いる際はこの手順は省略).\item各指標ごとに語$w_i$と関連度の高い上位9語を$A_i$から選び,それを語$w$の関連語群$G_{w}$とする(比較用のシソーラスを用いる場合は,比較用シソーラスにおいて語$w_i$の関連語とされる語を全て取り出し,$G_{w}$とする).$G_{w}$と正解セットを比較し,適合率を計算する.\item(2)を語$w_i\inA_i$全てについて行い,指標ごとに適合率の平均値を算出する.\item(1)から(3)を正解セット$A_i(i=1〜n)$について行う.\end{enumerate}OpenDirectoryから作成した正解セットの適合率の平均値を表\ref{result-word}に,InverseRankScoreの平均値を表\ref{result-word-inv}に示す.\begin{table}[b]\begin{center}\caption{OpenDirectoryを用いた正解セットでの適合率}\label{result-word}\begin{tabular}{c|c|c|c|c}正解セット/指標&cosine&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Ao_1$&0.557&0.447&0.424&0.567\\セット$Ao_2$&0.513&0.406&0.389&0.493\\セット$Ao_3$&0.519&0.396&0.376&0.539\\セット$Ao_4$&0.561&0.404&0.417&0.569\\セット$Ao_5$&0.529&0.421&0.404&0.519\\\hline平均&0.535&0.415&0.402&0.538\\\end{tabular}\vspace{\baselineskip}\caption{OpenDirectoryを用いた正解セットでのInverseRank}\label{result-word-inv}\begin{tabular}{c|c|c|c|c}正解セット/指標&cosine&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Ao_1$&2.42&1.58&1.63&2.36\\セット$Ao_2$&2.41&1.90&1.43&2.75\\セット$Ao_3$&1.97&1.09&1.02&1.64\\セット$Ao_4$&2.29&2.04&1.84&2.52\\セット$Ao_5$&1.70&2.17&1.83&2.20\\\hline平均&2.16&1.76&1.55&2.29\\\end{tabular}\end{center}\end{table}まず,検索エンジンを用いた手法同士で比較すると,どの正解セットにおいても$\chi^2$値が他の2つの計算指標よりもよい適合率,InverseRankScoreを示している.これより,$\chi^2$値が検索エンジンを用いる手法の関連度の指標として有効であることが分かる.また,コーパスを用いて学習した手法であるcosineと検索エンジンを用いた手法を比較するとJaccard係数,相互情報量はcosineよりも低い適合率,InverseRankScoreである.cosineと$\chi^2$値を比較すると正解セットによって2つの評価指標の優劣が変化している.しかし,平均ではほとんど差がないことから,$\chi^2$値とcosineはほぼ同じ適合率であると考えられる.ただし,コーパスから学習する手法ではコーパス中に出現する語しか扱えないという欠点を持つのに対し,検索エンジンを用いる手法ではWeb上に出現するほとんどの語を扱うことができる.そのため同じ適合率ならば,$\chi^2$値を計算指標として検索エンジンを用いる手法の方が優れていると言える.また,表\ref{result-word},\ref{result-word-inv}において,5つの正解セットにおける標準偏差(式\ref{hensa})を求める.\begin{equation}\label{hensa}\sigma^2=\frac{1}{n}\sum_{i=1}^{n}\left(x_i-\bar{x}\right)\left(\bar{x}:x_iの平均値\right)\end{equation}すると適合率の標準偏差は0.014,InverseRankScoreの標準偏差は0.12であり,いずれも標準偏差は10\%以内に収まっている.このことから,正解セットによるばらつきによる影響はあまり大きくないと考えられる.次にRoget'sThesaurusから作成した正解セットを用いた既存シソーラスと提案手法の比較実験の結果を表\ref{result-wordnet}と\ref{result-wordnet-inv}に示す.ただし,比較用シソーラスにおいては,全ての関連語が等価に扱われており順位が存在しないため,InverseRankScoreの算出は省略する.\begin{table}[b]\begin{center}\caption{既存シソーラスを用いた正解セットでの適合率}\label{result-wordnet}\begin{tabular}{c|c|c|c|c}正解セット/指標&シソーラス&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Aw_1$&0.385&0.324&0.374&0.405\\セット$Aw_2$&0.375&0.322&0.311&0.353\\セット$Aw_3$&0.342&0.365&0.402&0.411\\セット$Aw_4$&0.370&0.291&0.295&0.320\\セット$Aw_5$&0.438&0.459&0.487&0.515\\セット$Aw_6$&0.339&0.390&0.369&0.374\\セット$Aw_7$&0.391&0.287&0.335&0.345\\セット$Aw_8$&0.290&0.337&0.330&0.339\\セット$Aw_9$&0.468&0.295&0.279&0.316\\セット$Aw_{10}$&0.444&0.375&0.368&0.390\\\hline平均&0.392&0.345&0.349&0.369\\\end{tabular}\vspace{\baselineskip}\caption{既存シソーラスを用いた正解セットでのInverseRank}\label{result-wordnet-inv}\begin{tabular}{c|c|c|c}正解セット/指標&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Aw_1$&1.260&1.277&1.441\\セット$Aw_2$&1.145&1.263&1.290\\セット$Aw_3$&1.329&1.390&1.477\\セット$Aw_4$&1.184&1.006&1.144\\セット$Aw_5$&1.526&1.453&1.572\\セット$Aw_6$&1.498&1.273&1.241\\セット$Aw_7$&1.250&1.183&1.255\\セット$Aw_8$&1.337&1.354&1.432\\セット$Aw_9$&1.033&1.101&1.298\\セット$Aw_{10}$&1.320&1.313&1.301\\\hline平均&1.288&1.255&1.3321\\\end{tabular}\end{center}\end{table}まず,Webを用いる手法同士を比較すると,OpenDirectoryを用いた正解セットと比べて適合率の差が小さくなってはいるが,シソーラスを用いた正解セットにおいても,$\chi^2$値が他の計算指標よりよい数値を示している.これより,提案手法の優位性は小さくなるものの,Web上での出現頻度にばらつきの少ない汎用的な語に対しても,提案手法が有効であることがわかる.次に$\chi^2$値と既存のシソーラスを比較すると,既存のシソーラスの精度の方が若干高い数値を出してはいるものの,ほぼ同程度の精度・適合率が得られている.これより,関連語を同定するタスクにおいて,提案手法を用いることで既存シソーラスと同程度の効果が得られると言える.以上より,提案手法を用いることで,検索エンジンを用いた既存手法やコーパスから学習する手法よりも適切に関連度を算出することができていると考えられる.ただし,コーパスから学習する手法ではcosine以外の計算指標を用いた手法があるため,今後それらの指標とも比較する必要がある.\subsection{クラスタリングの評価}次に,クラスタリングの評価を行う.提案手法ではNewton法を用いているが,比較手法としては,群平均法を距離関数とする階層的クラスタリングを用いる.クラスタリング手法の評価手法を以下に示す.\begin{enumerate}\item正解セット$A_i$に含まれる全ての語について,2語の関連度を計算する.\item関連度をもとに関連語ネットワークを構築する.その際,ネットワークの密度が$0.3$\footnote{$\chi^2$値による関連度を用いた関連語ネットワークの密度の平均値が約$0.3$であるため.}になるように関連度の低いエッジを切る.ネットワークの密度とは,エッジ数を存在し得る最大のエッジ数(ノード数を$n$とすると$_nC_2$)で割ったものである\cite{Scott00}.\item提案手法及び比較手法により,クラスタリングを行う.今回は,使用したカテゴリ数が$9$であるため,群平均法はクラスタ数が$9$になった時点でクラスタリングを終了とする.また,本実験では条件を均一化するためにNewman法においても終了条件を$\DeltaQ<0$ではなくクラスタ数9とする.\item同一クラスタに属する2語は関連語,異なるクラスタに属する2語は非関連語とする.この結果を正解セットと比較し,適合率・再現率・F値を求める.\item(1)から(4)を正解セット$A_i(i=1〜n)$について行う.\end{enumerate}\begin{table}[b]\begin{center}\caption{関連語抽出実験結果(上段:適合率\中段:再現率\下段:F値)OpenDirectory使用}\label{result-cluster}\begin{tabular}{c|c|cccc}クラスタリング&&cosine&相互情報量&Jaccard係数&$\chi^2$値\\\hline群平均法&適合率&0.772&0.864&0.848&0.812\\&再現率&0.209&0.222&0.208&0.221\\&F値&0.328&0.353&0.333&0.347\\\hlineNewman法&適合率&0.815&0.792&0.797&0.738\\&再現率&0.344&0.332&0.346&0.631\\&F値&0.483&0.465&0.482&0.680\\\hline\end{tabular}\vspace{\baselineskip}\caption{関連語抽出実験結果(上段:適合率\中段:再現率\下段:F値)Roget'sThesaurus使用}\label{result-cluster-wordnet}\begin{tabular}{c|c|ccc}クラスタリング&&相互情報量&Jaccard係数&$\chi^2$値\\\hline群平均法&適合率&0.887&0.861&0.852\\&再現率&0.174&0.186&0.184\\&F値&0.291&0.305&0.302\\\hlineNewman法&適合率&0.688&0.705&0.598\\&再現率&0.329&0.302&0.411\\&F値&0.440&0.419&0.485\\\hline\end{tabular}\end{center}\end{table}OpenDirectoryによる正解セットを用いた評価結果を表\ref{result-cluster}に,Roget'sThesaurusによる正解セットを用いた評価結果を表\ref{result-cluster-wordnet}に示す.示されている値はそれぞれ,5個のOpenDirectory正解セット$Ao_i(i=1〜5)$と10個のRoget'sThesaurus正解セット$Aw_i(i=1〜10)$について実験を行った結果の平均値である.各計算指標の群平均法とNewman法の結果を比較すると,いずれも群平均法では適合率が高く,再現率が低い.クラスタリングの評価では一般的なことであるが,これは1つのクラスタにほとんどの語が含まれ,残り8つのクラスタにそれぞれ1〜3語程度の語が含まれている状態と考えられる.例えば,極端な例ではクラスタ内の語数が1であれば適合率が$\frac{1}{1}=1.0$になる.そのため,含まれている語数の少ないクラスタが多数できる手法の方が精度が上がりやすい.しかし,再現率やF値で見ると,各クラスタに含まれる語数が均等に近くなるようなクラスタリング手法の評価が高くなる.表\ref{result-cluster},表\ref{result-cluster-wordnet}から群平均法の代わりにNewman法を用いることで,いずれの指標においてもF値が高くなっている.このことから,提案手法を用いることでより適切に語がクラスタリングされていると言える.ただし,群平均法がこの実験に適していない可能性も考えられるので,今後他の手法との比較を行う必要がある.Newman法を用いた場合の各指標を比較すると,表\ref{result-cluster},表\ref{result-cluster-wordnet}いずれにおいても,$\chi^2$値が最も良いF値を示している.これより,語のクラスタリングを行う関連語ネットワークの構築には$\chi^2$値による関連度を用いることが適切であると言える.次に評価手法(3)におけるNewman法の終了条件を「クラスタ数9」とした場合と「$\DeltaQ<0$」とした場合の評価実験結果を表\ref{final-condition}に示す.またその際の正解セットごとのクラスタ数のグラフを図\ref{cluster-num}に示す.\begin{table}[b]\begin{center}\caption{終了条件による比較($\chi^2$)(上段:適合率\中段:再現率\下段:F値)}\label{final-condition}\begin{tabular}{c|cc|cc}&\multicolumn{2}{c|}{OpenDirectory}&\multicolumn{2}{c}{WordNet}\\\hline&クラスタ数指定&自動終了($\DeltaQ<0$)&クラスタ数指定&自動終了($\DeltaQ<0$)\\\hline適合率&0.738&0.601&0.598&0.470\\再現率&0.631&0.911&0.411&0.591\\F値&0.680&0.722&0.485&0.520\\\hline\end{tabular}\end{center}\end{table}表\ref{final-condition}より,終了条件を「$\DeltaQ<0$」とした方が「クラスタ数指定」とした場合よりも高いF値を示している.しかし,その差は4ポイント程度であり,精度に大きな違いはないといえる.これより,提案手法においては,条件としてクラスタ数を与えない場合でも,与えた場合とほぼ同程度の精度で関連語のクラスタリングを行うことができることがわかる.\begin{figure}[b]\begin{center}\includegraphics[width=8cm,clip]{cluster.eps}\end{center}\caption{クラスタ数横軸:正解セット縦軸:クラスタ数}\label{cluster-num}\end{figure}\begin{table}[b]\caption{クラスタリング結果の具体例}\label{cluster-example}\begin{center}\begin{tabular}{l|c|c}終了条件&クラスタ名&\\\hlineクラスタ数指定&クラスタ$A_1$&情報処理,方法論,実証,ソースコード,文字コード,初期値\\\cline{2-3}&クラスタ$A_2$&無料レンタル,掲示板,アクセス数\\\hline$\DeltaQ<0$&クラスタ$B$&情報処理,方法論,実証,ソースコード,文字コード\\&&初期値,無料レンタル,掲示板,アクセス\\\hline\end{tabular}\end{center}\end{table}ただし,今回の実験ではそれぞれの終了条件によって違う傾向を持っている.「クラスタ数指定」では,$適合率>再現率$となっているが,「$\DeltaQ<0$」では,$適合率<再現率$となっている.これは,終了条件によるクラスタ数の違いとWebを用いて関連度を算出する際に必ずしも目的とする語の関連性が得られないためである,これに関して,クラスタリング結果の具体例を表\ref{cluster-example}に示す.ここに用いられている語は表\ref{ex-experiment}に示されている語である.本実験では,表\ref{ex-experiment}より,表\ref{cluster-example}の正解セットでは「科学」及び「コンピュータ」という関連性によってクラスタリングされることが想定されている.しかし,実際には「クラスタ数指定」のクラスタ$A_1$に含まれる語は,「情報科学」及び「プログラミング」という共通の関連性を持っていると考えられる.クラスタ$A_2$に含まれる語は「Web掲示板」という共通の関連性を持っていると考えられる.また「$\DeltaQ<0$」では,クラスタ$A_1,A_2$が1つにマージされ$クラスタB$を構成している.このように提案手法では,正解セットで目的としている関連性とは異なる関連性に基づいてクラスタリングされる場合が多い.これはクラスタリング手法によるものではなく,主に算出された関連度によるものである.実際には,クラスタ$A_1$のように2つ以上のカテゴリの語で構成されるクラスタやクラスタ$A_2$のように1つのカテゴリの語の一部のみで構成されるクラスタなど,正解セットのカテゴリ分けとは異なるクラスタができてしまっている.今回の実験においては,「クラスタ数指定」ではクラスタ$A_2$のようなクラスタが多かったために$適合率>再現率$となっている.また,クラスタ数の少なかった「$\DeltaQ<0$」ではクラスタ$B$のようなクラスタが多かったために$適合率<再現率$となっている.以上より,提案手法の精度を高めていくためには,目的にあわせた関連度を取得する手法とより適切にクラスタ数を自動取得する手法が必要となってくる.また,ネットワークのノード数とクラスタリングの実行時間の関係を図\ref{scalable}に示す\footnote{実行環境CPU:Pentium43.0Ghzメモリ:1GB}.基準線は,$x$をノード数,$z$をエッジ数とするとき,式$y=1.8\times10^{-8}x(z+x)$のあらわす曲線である($1.8\times10^{-8}は比例定数)$.図\ref{scalable}で実測値と基準線を比較するとほぼ一致しており,確かにNewman法の計算量が$O(n(m+n))$に比例している.そして,$n=4029$,$m=7146169$のとき実行時間は$532$秒であり,$n,m$が大きい大規模ネットワークにも提案手法が適用可能であると考えられる.\begin{figure}[t]\begin{center}\includegraphics[width=8cm,clip]{scale.eps}\end{center}\caption{ノード数と実行時間横軸:ノード数縦軸:実行時間(秒)}\label{scalable}\end{figure}以上の評価実験の結果より,提案手法について以下の3点を述べることができる.\begin{itemize}\item既存手法よりも適切に関連語のクラスタリングを行うことができる\itemクラスタ数が未知の場合でも,クラスタ数が既知の場合と同程度の精度で関連語のクラスタリングを行うことができる\item大規模なネットワークにも適用可能である\end{itemize} \section{議論} 語の関連は,相対的なものである.候補となる語群によって,あるときは関連した語同士でも,他の場合には関連していないこともあり得る.ある語群において全ての語同士の関連度が分かっているとき,どの語とどの語を関連語と見なすかは,関連度によって規定される語の関係性によると考えられる.語の関連性を図\ref{ex-clustering}のようなネットワーク図(ノード間の距離を(1/語の関連度)とおく)で可視化すると,図\ref{ex-clustering}-aのような時は部分集合A,B,Cそれぞれが,関連語の集まった関連語群であると言える.同様に図\ref{ex-clustering}-bであれば,部分集合A,B,C,Dそれぞれが関連語群であると言える.このように語のネットワーク上で周囲と比べて密度が高くなっている部分を抽出することで,各語の関連語を同定することができる.\begin{figure}[b]\begin{center}\includegraphics[width=8cm,clip]{ex-clustering.eps}\end{center}\caption{クラスタリングによる関連語の同定}\label{ex-clustering}\end{figure}Webは非常に多様性に富んだテキストから構成されている.したがって,目的に合わせた語の関連性を得るには,Webから適切な文書集合を切り出した上で,その文書集合内での関連度を求めるという方法が考えられる.これには,検索クエリーに特定の検索語(keywordspice)を加える方法が有効であろう\cite{Oyama04}.本論文では,関連語ネットワーク上のエッジには重みを与えていないが,語の関連性が多値的であることを考えると,重みを考慮する必要がある.ただし,既存のNewman法は重みのあるネットワークに対応していない.そこで,重みを扱えるようにNewman法を改良することで,重みつきのネットワーク上でクラスタリングを行うことが考えられる.語の関連性を「関連がある,ない」の2値ではなく,重みという多値で扱うことで,クラスタ数の自動取得も含めて,より適切なクラスタリング結果が得られることが予想される.加えて,Newman法では1語が1つのクラスタリングにしか所属できないハードクラスタリングであるため,語の持つ多義性を解消することができない,という問題点がある.しかし,Newman法をもとにしたソフトクラスタリングの手法も提案されており\cite{Reichard04},この手法を関連語ネットワークに適用することで語の多義性を解消できると考えられる.また本研究では,同義・類義,上位語・下位語,連想語をすべて関連語としたが,こういった語を関係性を分類していくことも重要であろう.こういった研究には,前置詞を手がかりとして語の関係性を同定する\cite{Litkowski02}の手法があるが,これを検索エンジンを利用していかに効率的に行うかは今後の検討課題のひとつである. \section{結論} 本論文では,自動的に関連語のシソーラスを構築する手法について提案した.提案手法では,検索エンジンを利用し,Webをコーパスとして用いる.Newman法をクラスタリング法として用いる部分が大きな特徴のひとつである.検索エンジンを用いて語の関連度を取得する研究においては,コーパスを直接解析する手法と比べ,共起頻度以外の文法的な情報が得られないため,クラスタリングによって関連語を同定し,高い精度を得られている研究はなかった.本論文では,共起頻度のみを用いたクラスタリングで精度の高い関連語の同定に成功しており,そのような点で非常に有意義な研究だと考えられる.また,語の関係の相対性に着目し,相対性を考慮した手法を用いた.$\chi^2値$は語群内での相対的な偏りを示す統計的指標であり,またNewman法はネットワーク全体で相対的に結合度の強いノードをマージするクラスタリング手法である.これらの手法を用いることにより,より適合率が高く,適用範囲の広いシソーラスの構築手法を提案することができた.Webは重要な言語資源であり,その利用のためには検索エンジンの利用や大規模な処理への対応など,Webならではのアルゴリズムの工夫が必要になる.今後,検索エンジンを利用した言語処理の可能性をさらに追求していきたい.\acknowledgment株式会社社長ホットリンク下大園貞寛氏,国立情報学研究所大向一輝氏をはじめ,本研究にアドバイスをくださった全ての方に感謝いたします.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker\BBA\McCallum}{Baker\BBA\McCallum}{1998}]{Baker98}Baker,D.\BBACOMMA\\BBA\McCallum,A.\BBOP1998\BBCP.\newblock\BBOQDistributionalClusteringforTextClassification\BBCQ\\newblockIn{\BemProceedingsofSIGIR-98,21stACMInternationalConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{BarbaraAnn~Kipfer}{BarbaraAnn~Kipfer}{2006}]{RogetMillenium}BarbaraAnn~Kipfer,P.\BED\\BBOP2006\BBCP.\newblock\Jem{Roget'sNewMillenniumThesaurus,FirstEdition}.\newblockLexicoPublishingGroup.\bibitem[\protect\BCAY{Baroni\BBA\Bisi}{Baroni\BBA\Bisi}{2004}]{Baroni04}Baroni,M.\BBACOMMA\\BBA\Bisi,S.\BBOP2004\BBCP.\newblock\BBOQUsingcooccurrencestatisticsandthewebtodiscoversynonymsinatechnicallanguage\BBCQ\\newblockIn{\BemInProceedingsofLREC2004},\mbox{\BPGS\26--28}.\bibitem[\protect\BCAY{Brown,Pietra,deSouza,Lai,\BBA\Mercer}{Brownet~al.}{1992}]{Brown92}Brown,P.,Pietra,V.,deSouza,P.,Lai,J.,\BBA\Mercer,R.\BBOP1992\BBCP.\newblock\BBOQClass-basedn-grammodelofnaturallanguage\BBCQ\\newblock{\BemComput.Linguist.},{\Bbf18}(4),\mbox{\BPGS\467--479}.\bibitem[\protect\BCAY{Chang}{Chang}{2005}]{Chang05}Chang,J.\BBOP2005\BBCP.\newblock\BBOQDomainSpecificWordExtractionfromHierarchicalWebDocuments:AFirstStepTowardBuildingLexiconTreesfromWebCorpora\BBCQ\\newblockIn{\BemProceedingsoftheFourthSIGHANWorkshoponChineseLanguageProcessing},\mbox{\BPGS\64--71}.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1990}]{Church90}Church,W.\BBACOMMA\\BBA\Hanks,P.\BBOP1990\BBCP.\newblock\BBOQWordassociationnorms,mutualinformation,andlexicography\BBCQ\\newblock{\BemComput.Linguist.},{\Bbf16}(1).\bibitem[\protect\BCAY{Crouch\BBA\Yang}{Crouch\BBA\Yang}{1992}]{Crouch92}Crouch,C.~J.\BBACOMMA\\BBA\Yang,B.\BBOP1992\BBCP.\newblock\BBOQExperimentsinautomaticstatisticalthesaurusconstruction\BBCQ\\newblockIn{\BemSIGIR'92:Proceedingsofthe15thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},\mbox{\BPGS\77--88}.\bibitem[\protect\BCAY{Curran}{Curran}{2002}]{Curran02}Curran,J.\BBOP2002\BBCP.\newblock\BBOQEnsembleMethodsforAutomaticThesaurusExtraction\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNLP},\mbox{\BPGS\222--229}.\bibitem[\protect\BCAY{Curran\BBA\Moens}{Curran\BBA\Moens}{2002}]{Curran02-2}Curran,J.\BBACOMMA\\BBA\Moens,M.\BBOP2002\BBCP.\newblock\BBOQImprovementsinAutomaticThesaurusExtraction\BBCQ\\newblockIn{\BemProceedingsoftheWorkshopoftheACLSIGLEX},\mbox{\BPGS\59--66}.\bibitem[\protect\BCAY{Deerwester,Dumais,Landauer,Furnas,\BBA\Harshman}{Deerwesteret~al.}{1990}]{Deerwester90}Deerwester,S.,Dumais,S.,Landauer,T.,Furnas,G.,\BBA\Harshman,R.\BBOP1990\BBCP.\newblock\BBOQIndexingbyLatentSemanticAnalysis\BBCQ\\newblock{\BemJournaloftheAmericanSocietyofInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Dhillon}{Dhillon}{2002}]{Dhillon02}Dhillon,S.\BBOP2002\BBCP.\newblock\BBOQEnhancedWordClusteringforHierarchicalTextClassification\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDD},\mbox{\BPGS\191--200}.\bibitem[\protect\BCAY{Girvan\BBA\Newman}{Girvan\BBA\Newman}{2002}]{Newman02}Girvan,M.\BBACOMMA\\BBA\Newman,M.\BBOP2002\BBCP.\newblock\BBOQCommunitystructureinsocialandbiologicalnetworks\BBCQ\\newblockIn{\BemProceedingsofNationalAcademicScience},\mbox{\BPGS\7821--7826}.\bibitem[\protect\BCAY{Grefenstette}{Grefenstette}{1994}]{Grefenstette94}Grefenstette,G.\BBOP1994\BBCP.\newblock{\BemExplorationsinAutomaticThesaurusDiscovery}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Heylighen}{Heylighen}{2001}]{Heylighen01}Heylighen,F.\BBOP2001\BBCP.\newblock\BBOQMiningAssociativeMeaningsfromtheWeb:fromworddisambiguationtotheglobalbrain\BBCQ\\newblockIn{\BemProceedingsoftheInternationalColloquium:TrendsinSpecialLanguage\&LanguageTechnology,R.Temmerman\&M.Lutjeharms},\mbox{\BPGS\15--44}.\bibitem[\protect\BCAY{Hodge\BBA\Austin}{Hodge\BBA\Austin}{2002}]{Hodge02}Hodge,V.\BBACOMMA\\BBA\Austin,J.\BBOP2002\BBCP.\newblock\BBOQ{Hierarchicalwordclustering---automaticthesaurusgeneration}\BBCQ\\newblock{\BemNeurocomputing},{\Bbf48},\mbox{\BPGS\819--846}.\bibitem[\protect\BCAY{Jarmasz\BBA\Szpakowicz}{Jarmasz\BBA\Szpakowicz}{2003}]{Jarmasz03}Jarmasz,M.\BBACOMMA\\BBA\Szpakowicz,S.\BBOP2003\BBCP.\newblock\BBOQRoget'sThesaurusandSemanticSimilarity\BBCQ\\newblockIn{\BemProceedingsofConferenceRecnetAdvancesinNLP},\mbox{\BPGS\212--219}.\bibitem[\protect\BCAY{Kilgarriff\BBA\Grefenstette}{Kilgarriff\BBA\Grefenstette}{2003}]{Kilgarriff03}Kilgarriff,A.\BBACOMMA\\BBA\Grefenstette,G.\BBOP2003\BBCP.\newblock\BBOQWebasCorpus\BBCQ\\newblockIn{\BemInProceedings.oftheACLWorkshoponIntellignentScalableTextSummarization}.\bibitem[\protect\BCAY{Li\BBA\Abe}{Li\BBA\Abe}{1998}]{HangLi98}Li,H.\BBACOMMA\\BBA\Abe,N.\BBOP1998\BBCP.\newblock\BBOQWordclusteringanddisambiguationbasedonco-occurrencedata\BBCQ\\newblockIn{\BemProceedingsofthe17thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\749--755}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{Lin98a}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticretrievalandclusteringofsimilarwords\BBCQ\\newblockIn{\BemProceedingsofthe17thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\768--774}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Litkowski}{Litkowski}{2002}]{Litkowski02}Litkowski,C.\BBOP2002\BBCP.\newblock\BBOQDigraphAnalysisofDictionaryPrepositiondefinition\BBCQ\\newblockIn{\BemProceedingsoftheSIGLEX/SENSEVALWorkshoponWordSenseDisambiguation:RecentSuccessesandFutureDirections},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Manning\BBA\Schutze}{Manning\BBA\Schutze}{1999}]{Manning99}Manning,C.\BBACOMMA\\BBA\Schutze,H.\BBOP1999\BBCP.\newblock\BBOQFoundationsofstatisticalnaturallanguageprocessing\BBCQ\\newblockIn{\BemMITPress}.\bibitem[\protect\BCAY{Miller}{Miller}{1990}]{Miller90}Miller,G.\BBOP1990\BBCP.\newblock\BBOQWordNet:anon-linelexicaldatabase\BBCQ\\newblockIn{\BemInternationalBooktitleofLexicography}.\bibitem[\protect\BCAY{Motter,Moura,Lai,\BBA\Dasgupta}{Motteret~al.}{2002}]{motter02}Motter,A.,Moura,A.,Lai,Y.,\BBA\Dasgupta,P.\BBOP2002\BBCP.\newblock\BBOQTopologyoftheconceptualnetworkoflanguage\BBCQ\\newblock{\BemPhysicalReviewE},{\Bbf65}(065102).\bibitem[\protect\BCAY{長尾\JBA水谷\JBA池田}{長尾\Jetal}{1976}]{Nagao76}長尾真\JBA水谷幹男\JBA池田浩之\BBOP1976\BBCP.\newblock\JBOQ日本語文献における重要語の自動抽出\JBCQ\\newblock\Jem{情報処理},{\Bbf17}(2),\mbox{\BPGS\pp.110--117}.\bibitem[\protect\BCAY{Newman}{Newman}{2004}]{Newman04}Newman,M.\BBOP2004\BBCP.\newblock\BBOQFastalgorithmfordetectingcommunitystructureinnetworks\BBCQ\\newblockIn{\BemPhys.Rev.E69,2004}.\bibitem[\protect\BCAY{Oyama,Kokubo,\BBA\Ishida}{Oyamaet~al.}{2004}]{Oyama04}Oyama,S.,Kokubo,T.,\BBA\Ishida,T.\BBOP2004\BBCP.\newblock\BBOQDomain-SpecificWebSearchwithKeywordSpices\BBCQ\\newblock{\BemIEEETransactionsonKnowledgeandDataEngineering(TKDE)},{\Bbf16}(1),\mbox{\BPGS\17--27}.\bibitem[\protect\BCAY{Palla,Der{\'e}nyi,Farkas,\BBA\Vicsek}{Pallaet~al.}{2005}]{Palla05}Palla,G.,Der{\'e}nyi,I.,Farkas,I.,\BBA\Vicsek,T.\BBOP2005\BBCP.\newblock\BBOQ{Uncoveringtheoverlappingcommunitystructureofcomplexnetworksinnatureandsociety}\BBCQ\\newblock{\BemNature},{\Bbf435},\mbox{\BPGS\814--818}.\bibitem[\protect\BCAY{Papadimitriou,Tamaki,Raghavan,\BBA\Vempala}{Papadimitriouet~al.}{1998}]{papadim98}Papadimitriou,C.,Tamaki,H.,Raghavan,P.,\BBA\Vempala,S.\BBOP1998\BBCP.\newblock\BBOQLatentSemanticIndexing:AProbabilisticAnalysis\BBCQ.\bibitem[\protect\BCAY{Pereira,Tishby,\BBA\Lee}{Pereiraet~al.}{1993}]{Pereira93}Pereira,F.,Tishby,N.,\BBA\Lee,L.\BBOP1993\BBCP.\newblock\BBOQDistributionalClusteringofEnglishwords\BBCQ\\newblockIn{\BemProceedingsofthe31stannualmeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\183--190}.\bibitem[\protect\BCAY{Reichardt\BBA\Bornholdt}{Reichardt\BBA\Bornholdt}{2004}]{Reichard04}Reichardt,J.\BBACOMMA\\BBA\Bornholdt,S.\BBOP2004\BBCP.\newblock\BBOQDetectingFuzzyCommunityStructuresinComplexNetworkswithaPottsModel\BBCQ\\newblock{\BemPhysicalReviewLetters},{\Bbf93}.\bibitem[\protect\BCAY{Sanderson\BBA\Croft}{Sanderson\BBA\Croft}{1999}]{Croft99}Sanderson,M.\BBACOMMA\\BBA\Croft,B.\BBOP1999\BBCP.\newblock\BBOQDerivingconcepthierarchiesfromtext\BBCQ\\newblockIn{\BemSIGIR'99:Proceedingsofthe22ndannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},\mbox{\BPGS\206--213}.ACMPress.\bibitem[\protect\BCAY{Scott}{Scott}{2000}]{Scott00}Scott,J.\BBOP2000\BBCP.\newblock{\BemSocialNetworkAnalysis:AHandbook}.\newblock{SAGEPublications}.\bibitem[\protect\BCAY{Sigman\BBA\Cecchi}{Sigman\BBA\Cecchi}{2002}]{sigman02}Sigman,M.\BBACOMMA\\BBA\Cecchi,G.\BBOP2002\BBCP.\newblock\BBOQGlobalorganizationoftheWordnetlexicon\BBCQ\\newblock{\BemPNAS},{\Bbf99}(3),\mbox{\BPGS\1742--1747}.\bibitem[\protect\BCAY{Slonim\BBA\Tishby}{Slonim\BBA\Tishby}{2000}]{Slonim00}Slonim,N.\BBACOMMA\\BBA\Tishby,N.\BBOP2000\BBCP.\newblock\BBOQDocumentClustringusingWordClusterviatheInformationBottleneckMethod\BBCQ\\newblockIn{\BemResearchandDevelopmentInformationRetrieval},\mbox{\BPGS\208--215}.\bibitem[\protect\BCAY{Szpektor,Tanev,Dagan,\BBA\Coppola}{Szpektoret~al.}{2004}]{Szpektor04}Szpektor,I.,Tanev,H.,Dagan,I.,\BBA\Coppola,B.\BBOP2004\BBCP.\newblock\BBOQScalingWeb-basedAcquisitionofEntailmentRelations\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\41--48}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Turney}{Turney}{2001}]{Turney01}Turney,P.\BBOP2001\BBCP.\newblock\BBOQMiningthewebforsynonyms:PMI-IRversusLSAonTOEFL\BBCQ\\newblockIn{\BemEMCL'01:Proceedingsofthe12thEuropeanConferenceonMachineLearning},\mbox{\BPGS\491--502}.\bibitem[\protect\BCAY{Ward}{Ward}{1996}]{MobyThesaurus}Ward,G.\BED\\BBOP1996\BBCP.\newblock{\BemMobyThesaurus}.\newblockMobyProject.\bibitem[\protect\BCAY{Wettler\BBA\Rapp}{Wettler\BBA\Rapp}{1993}]{Wettler93}Wettler,M.\BBACOMMA\\BBA\Rapp,R.\BBOP1993\BBCP.\newblock\BBOQComputationofwordassociationsbasedontheco-occurrencesofwordsinlargecorpora\BBCQ\\newblockIn{\BemInProceedingsofthe1stWorkshoponVeryLargeCorpora:AcademicandIndustrialPerspectives},\mbox{\BPGS\84--93}.\bibitem[\protect\BCAY{Widdows\BBA\Dorow}{Widdows\BBA\Dorow}{2002}]{Widdows02}Widdows,D.\BBACOMMA\\BBA\Dorow,B.\BBOP2002\BBCP.\newblock\BBOQAGraphModelforUnsupervisedLexicalAcquisition\BBCQ\\newblockIn{\BemCOLING2002,19thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Xu,Kurz,Piskorski,\BBA\Schmeier}{Xuet~al.}{2002}]{Xu02}Xu,F.,Kurz,D.,Piskorski,J.,\BBA\Schmeier,S.\BBOP2002\BBCP.\newblock\BBOQADomainAdaptiveApproachtoAutomaticAcquisitionofDomainRelevantTermsandtheirRelationswithBootstrapping\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesanEvaluation(LREC'02),May29-31}.\bibitem[\protect\BCAY{Yang\BBA\Pedersen}{Yang\BBA\Pedersen}{1997}]{Yang97}Yang,Y.\BBACOMMA\\BBA\Pedersen,J.\BBOP1997\BBCP.\newblock\BBOQAComparativeStudyonFeatureSelectioninTextCategorization\BBCQ\\newblockIn{\BemICML'97:ProceedingsoftheFourteenthInternationalConferenceonMachineLearning},\mbox{\BPGS\412--420}.MorganKaufmannPublishersInc.\bibitem[\protect\BCAY{佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁}{佐々木靖弘\Jetal}{2005}]{Sasaki05}佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQウェブを利用した専門用語集の自動編集\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\895--898}.\bibitem[\protect\BCAY{池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦}{池原悟\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1996}]{EDR}日本電子化辞書研究所\JED\\BBOP1996\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書}.\newblock日本電子化辞書研究所.\end{thebibliography}\begin{biography}\bioauthor{榊剛史}{2000年東京大学工学部電子情報工学科卒業.2006年同大学院情報理工学系研究科修士課程修了.研究分野はWebマインニング,言語処理.}\bioauthor{松尾豊}{1997年東京大学工学部電子情報工学科卒業.2002年同大学院博士課程修了.同年より産業技術総合研究所に勤務.現在同研究所情報技術研究部門勤務,スタンフォード大学客員研究員.高次Webマインニングに興味がある.人工知能学会,情報処理学会,AAAI,各会員.}\bioauthor{内山幸樹}{株式会社ホットリンク代表取締役社長.1995年,東京大学大学院在学中にマジックマウスの設立に加わり,日本最初期のサーチエンジンの開発に携わる.97年マジックマウス入社.98年デジット常務.2000年6月,技術とアイディアで世界に勝負するためホットリンクを設立する.近年では,HottoLaboやてくてく.jpなど研究者・技術者の交流支援事業などを立ち上げている.}\bioauthor{石塚満}{1971年東京大学工学部電子卒.1976年同大学院博士課程修了.NTT,東大大学院生産技術研究所・助教授,同大学工学部電子情報・教授を経て,現在は2005年より同大学院情報理工学系研究科創造情報学専攻・教授.研究分野は人工知能,Webインテリジェンス,次世代Web情報基盤,マルチモーダルエージェント.人工知能学会(会長),IEEE,AAAI,情報処理学会,電子情報通信学会の会員.}\end{biography}\biodate\end{document}
V31N04-06
\section{はじめに} マイクロブログの一種であるX\footnote{\url{https://x.com/}}では,多くのユーザによって日々の生活や世の中の出来事などについてポストと呼ばれるテキストベースの投稿が行われている.テレビやインターネットで中継されるスポーツの試合は,多くのユーザがXにコメントを投稿する出来事の一つであり,試合の状況やプレーへの感情に関するコメントがリアルタイムに投稿される.特に,特定のチームや選手に関する投稿についてはハッシュタグと呼ばれるキーワードと共に投稿されることが多く,Xのユーザーはこのハッシュタグを利用して気になる試合やチーム,選手の情報を収集することができる.しかし,投稿の目的は様々であり,試合に関する投稿の内容は,図\ref{fig:tweet}の左に示すような試合内容の情報を多く含むものから,図\ref{fig:tweet}の右に示すような個人の感情を表しただけのものまで多岐にわたり,これらの投稿から試合経過を瞬時に把握することは容易ではない.そこで,本研究ではサッカーの試合を対象に,試合経過を瞬時に把握することが可能となるよう,試合に関する投稿から試合の速報を生成するシステムの構築に取り組む.\renewcommand{\thefootnote}{}\footnote[2]{\llap{$^{2}$~}\texttt{https://x.com/pbw\_u1tksr/status/1595428151911280640},\\\texttt{https://x.com/dragonbluejays/status/1595428049998483456}}\renewcommand{\thefootnote}{\arabic{footnote}}\addtocounter{footnote}{1}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia5f1.eps}\end{center}\caption{Xに投稿されたサッカーの試合に関する投稿例$^{2}$.}\label{fig:tweet}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,事前学習済み言語モデルをベースとした速報生成システムを提案する.図\ref{fig:exam}に提案システムの概要を示す.このシステムは,特定のサッカーの試合に関係する投稿集合を入力とし,事前学習済みの言語モデルText-to-TextTransferTransformer(T5)\cite{T5}を用いてその試合の速報を生成する.この際,速報は1分ごとに生成し,重要なイベントがなかった時刻については``NaN''を出力するものとする.しかし,単純にモデルを適用するだけでは出現確率の高い``NaN''を適切な頻度よりも多く出力するという問題と同じイベントを指す速報文が複数生成される冗長性の問題という二つの問題が生じる.そこで,速報の生成数を制御するために各時刻において速報を生成するべきかしないべきかを決定する二値分類器,および,冗長性を削減するために直前の速報を活用する機構を導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-4ia5f2.pdf}\end{center}\hangcaption{速報生成システムの概要図.図中の「投稿データ」は\#WorldCupや\#Jリーグのようなハッシュタグが含まれていた投稿のテキストを示す.ただし,ハッシュタグは速報生成モデルへの入力前に削除されるため,投稿データに含まれていない.}\label{fig:exam}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{複数文書要約と時系列要約}本研究で取り組む課題はタイムラインに流れる複数の投稿を要約し速報として生成することから,複数文書要約\cite{MDS}や時系列要約\cite{trec}の一種と考えられる.複数文書要約の研究には文書の階層的な構造を捉えることによって高品質な要約を生成することを目的とした研究が存在する\cite{fabbri,jin}.しかし,Xへの投稿はそれぞれが独立したものであり,階層構造を考慮する必要はない.また,Xへの投稿は時系列データであるため時系列を考慮していない複数文書要約の手法を本タスクにそのまま適用することはできない.近年の時系列要約に対する代表的な手法として入力文書からグラフを作成し要約を生成する手法\cite{li,you}や,クラスタリングを行いイベントごとに文書をまとめた後に要約を生成する手法\cite{lee,steen}が挙げられる.また,時系列要約において冗長性を考慮した手法としてMaximalMarginalRelevance(MMR)を応用した手法が存在している.MMRは情報検索の分野で提案された手法であり,与えられた文書集合をクエリとの関連性と新規性をもとに順位付けを行う手法である.Boudinら\cite{boudin}はMMRを時系列要約に応用させ,ある時刻の入力文書を文ごとにそれまでに生成した要約との関連性および新規性をもとに順位付けを行い,スコアの高い文を要約として抽出する手法を提案した.しかし,Boudinらの手法は抽出型の要約において利用が可能な手法であるが,本研究で扱う抽象型の要約では利用できない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{時系列を考慮した速報生成}時系列要約の中でも特に速報生成は現在進行形のイベントについてリアルタイムに速報を生成するタスクであり,速報生成は速報を生成するタイミングによって二つのアプローチに分けることができる.一つ目のアプローチは単位時間あたりの投稿数によって速報の生成タイミングを決定するアプローチである.Nicholsら\cite{Nichols}は,分単位で計測した投稿数が前後と比べ増加した時刻をイベント発生区間とした上で,イベント発生区間内の投稿からフレーズグラフを構築し,単語の出現頻度に基づくスコアが高い投稿を,イベントを表す単語が重複しないように選ぶことで速報を生成する手法を提案している.Kuboら\cite{kubo2013}は,人名やサッカーのプレーに関する単語を多く含むような情報量の多い投稿を行うユーザをまず抽出した上で,試合中の投稿数が急激に増加した時刻に,その時刻における代表的な投稿を,抽出したユーザの投稿集合から抽出することで速報を生成する手法を提案している.Tagawaら\cite{tagawa}は不要な情報を含まない速報が生成できるよう,抽象型要約を用いた手法を提案した.イベントが発生した時刻を投稿数の変動をもとに決定した後,イベント発生区間内の投稿を係り受け解析することで『堂安』と『ゴール』のような『動作主』と『動作』という関係性を複数取得し,これらの関係性をイベント発生区間内で連結することで,対象となるイベントに関して言及した速報を生成する手法を提案した.しかし,これらのような投稿数の推移を元に速報生成の時刻を決定する手法では,イベントに言及する投稿数が少ないような重要度が相対的に低いイベントに関しては速報に含められない傾向がある.二つ目のアプローチは一定の間隔で速報を生成するアプローチである.Edouardら\cite{edouard}は一定区間内の投稿から固有表現抽出結果をもとにグラフを生成し,グラフからサブイベントの検出を行うことでタイムラインを生成する手法を提案している.Dusartら\cite{dusart}は一定区間内の投稿の重要度を計算し,重要度の最も高い投稿を抽出して速報として出力する手法を提案した.しかし,抽出型要約を用いた手法は,試合情報のみに言及した適切な投稿が存在しなかった場合,個人の感想なども含む速報が生成されてしまう.また,同一のイベントに言及した投稿が異なる時刻に存在した場合,同じイベントの速報が重複して生成され冗長性が生じるという問題がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案モデル} 本研究では,一定時間内に投稿された特定のハッシュタグが付与されたXへの投稿を入力とし,T5を用いて試合の速報を毎分生成するモデルを基本とする.これは,速報を生成するタイミングを投稿数の増加によって検出する予備実験を行ったところ,ゴールや交代といったイベントの検出および速報が可能であった一方で,惜しいシュートやディフェンスの好プレーなどのイベントが検出されないことが確認されたためである.具体的には,毎分速報を生成し,速報を生成するべきでないと判断した時刻においては``NaN''を出力するモデルの構築を目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-4ia5f3.pdf}\end{center}\caption{ベースラインモデルおよび提案モデルの概略図.}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:model}(a)に提案モデルのベースとするモデル$\mathcal{M}_\mathrm{base}$の概要を示す.$\mathcal{M}_\mathrm{base}$は各時刻において投稿データから速報または``NaN''のどちらかを出力するモデルである.しかし,$\mathcal{M}_\mathrm{base}$では,各時刻における速報は,直前に生成された速報とは独立に生成されるため,ゴールシーンなどのように長時間に渡って言及されるイベントが存在した場合,同一のイベントに関する速報が複数出力され,冗長な速報となる可能性が考えられる.また,$\mathcal{M}_\mathrm{base}$は速報を生成すべきイベントが存在する時刻と存在しない時刻の速報生成を一つのモデルで行う.このため,速報を生成する際に高い確率となるような生成候補がない場合,出現頻度の高い``NaN''を適切な頻度よりも多く出力してしまうことが考えられる.本研究ではこれらの問題を解決するため,速報生成の前に``NaN''を出力するか,速報を生成するか否かを判定する機構,および,速報生成モデルに直前の速報を入力することで冗長性を軽減する機構をベースラインモデルに追加したモデルを提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生成判定}速報を生成するべきかしないべきかの判定精度の向上を目的とし,図\ref{fig:model}(b)に示すように,``NaN''を出力するかの判定を速報生成モデルと分離する$\mathcal{M}_\mathrm{+clf}$を導入する.具体的には,本手法は速報を生成する前に投稿データから速報を生成するか否かの二値分類を行い,速報を生成すると判定した場合は速報生成モデルにより速報を生成し,それ以外の場合は``NaN''を出力する.ここで,生成判定器と速報生成器の重みは共有しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{直前速報の考慮}すでに出力された速報と重複した速報の生成を防ぐために,\pagebreak図\ref{fig:model}(c)のように投稿データ集合に加え,直前に生成された速報を文脈情報として入力する機構を導入する($\mathcal{M}_\mathrm{+cxt}$).入力テキストと関連するテキストを結合して学習や推論を行うことで自然言語処理タスクのスコアが向上することが確認されており\cite{liu,liu-g,reina},本手法においても直前の速報を利用することで直前の速報内容を考慮した速報が生成されることを期待する.これら直前の速報はT5の特殊トークン$\texttt{<extra\_id\_0>}$を利用して投稿データと結合し,``[投稿データ]\texttt{<extra\_id\_0>}[直前速報]''の形式でモデルに入力する.また,複数の直前速報を結合する際は,各速報間に\texttt{<extra\_id\_1>},\texttt{<extra\_id\_2>},\texttt{<extra\_id\_3>}などの特殊トークンを結合して入力する.生成判定器と直前速報の考慮はそれぞれ独立した機構であり,図\ref{fig:model}(d)のように組み合わせて使用することが可能であることから,これらの機構を組み合わせたモデル$\mathcal{M}_\mathrm{+clf+cxt}$も構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Fine-tuning設定}生成判定器と速報生成器は共に事前学習済みのT5をfine-tuningすることで構築する\footnote{BERT\cite{BERT}やRoBERTa\cite{RoBERTa}といったTransformerエンコーダーモデルに基づく事前学習済みモデルを利用することも可能であるが,T5のみを利用してモデルを構築できる点から生成判定器においてもT5を利用する.}.$\mathcal{M}_\mathrm{base}$と$\mathcal{M}_\mathrm{+cxt}$で用いる速報生成器は速報または``NaN''を生成するようにfine-tuningする.また,$\mathcal{M}_\mathrm{+clf}$で用いる生成判定器は投稿データを,$\mathcal{M}_\mathrm{+clf+cxt}$で用いる生成判定器は投稿データと直前速報を入力することで``Yes''または``No''を出力するようにfine-tuningを行う.この際,$\mathcal{M}_\mathrm{+clf}$と$\mathcal{M}_\mathrm{+clf+cxt}$で用いる速報生成器は訓練データのうち,正解速報が存在している時刻のみを利用してfine-tuningすることで必ず速報を生成するように構築する.$\mathcal{M}_\mathrm{+cxt}$と$\mathcal{M}_\mathrm{+clf+cxt}$で用いる直前速報はfine-tuning時には訓練データ内の速報を利用し,生成時にはモデルが生成した速報を入力する.投稿データは複数の投稿を投稿された順に一つのテキストに結合して与える.この際,個々の文を分けるためによく用いられる\texttt{<sep>}のような特殊トークンは利用せずに一つのテキストに結合する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 本研究で提案した生成判定機構と直前速報を考慮する機構の有効性を検証するため,ベースラインモデル,三つの提案モデル,二つのオラクルモデルの性能を比較した.また,本手法で採用した毎分速報を生成する設定の有効性を検証するために投稿数の増加で生成判定を行うモデルとの比較も行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}2021年と2022年に行われた日本のプロサッカーリーグであるJリーグの68節分,\pagebreak全612試合のデータを収集し実験に使用した.投稿の収集にはTwitterAPI\footnote{\url{https://developer.x.com/ja}}を用いた.Jリーグの公式ホームページ\footnote{\url{https://www.jleague.jp}}より試合時刻と対戦チームの情報を取得し,これらをもとに試合ごとに収集対象とする時間\footnote{試合中および前後1時間を収集対象とした.}とハッシュタグが格納されたクエリを作成し収集を行った.また,投稿内のURLやハッシュタグは速報生成に不要な情報であると考えたため,これらを削除する前処理を収集した投稿に対して行い,さらに,非公式の配信サイトへのリンクが含まれるような投稿は文字列の一致をもとに削除した.投稿の収集には21チーム分,計39個のハッシュタグを利用した\footnote{実際に利用したハッシュタグの一覧と収集した投稿の試合ごとの平均数を付録\ref{sec:a1}に示す.}.正解速報にはJリーグの公式ホームページが公開しているテキスト速報を利用した.このテキスト速報は試合中にリアルタイムに作成されたものであり,データセット構築時にホームページから収集した.この際,一部の速報には,前節の試合内容やこれまでの経歴に関する情報が含まれていた.これらの多くは,試合開始時または得点時に,試合内容の速報に後続する形で記載されていた.そこで,試合内容の速報となっていないこれらの記載が正解速報に含まれないように,試合開始時刻と得点時刻の速報については先頭の一つ以外を削除した.データセット構築に利用した投稿のデータはGithubにて公開している\footnote{\url{https://github.com/masashi-o-8/live_update_generation}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}%\caption{データセットの統計.}\label{tb:data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験には収集対象の時間内の投稿として,3,200以上の投稿が収集できた83試合を使用した.これらの試合に関して収集された速報数の合計は8,502,投稿数の合計は324,835であった.試合を単位として5分割し,3つを訓練セット,1つを検証セット,1つをテストセットとする5分割交差検証を行った.訓練セットはモデルのfine-tuningに,テストセットはモデルの評価に利用した.fine-tuning時のステップ数については,20,000ステップまで2,000ステップごとにモデルを保存し,各モデルで速報生成を行い,検証セットにおいて最も評価の高かったステップ数のモデルを評価に利用した.表\ref{tb:data}に実験に用いたデータセットの統計を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較モデル}本研究で提案したそれぞれの機構の有効性を検証するために$\mathcal{M}_\mathrm{+clf}$,$\mathcal{M}_\mathrm{+cxt}$,$\mathcal{M}_\mathrm{+clf+cxt}$の三つの提案モデルに加え,二つのオラクルモデル\textsc{Orcl}$_\mathrm{extr}$,\textsc{Orcl}$_\mathrm{+clf+cxt}$,および投稿数の増加で生成タイミングを判定するモデル$\mathcal{M}_\mathrm{burst}$を構築した.\textsc{Orcl}$_\mathrm{extr}$はDussartら\cite{dusart}のオラクルモデルと見なすことができ,抽出型の手法の上限を検証するために利用する.このモデルは各正解速報から3分後までの全ての投稿データに対して,正解速報との単語の重なりをもとにした類似度を計算し,最も類似度の高かった投稿を速報とする抽出型モデルである.そのため,このモデルは正解速報が存在する時刻でのみ速報を生成するモデルとなる.\textsc{Orcl}$_\mathrm{+clf+cxt}$は我々の提案モデルのオラクルモデルとみなすことができ,提案モデルの上限を検証するために利用する.このモデルは,$\mathcal{M}_\mathrm{+clf+cxt}$において,生成判定器の出力として正解を与え,かつ,直前速報として直前4分間の正解速報を与えるモデルである.$\mathcal{M}_\mathrm{burst}$は投稿数の増加によって速報を生成するかどうかの判定を行うモデルであり,投稿数の増加によるイベント検出の性能について検証する.本研究では1分間の投稿数が直前の1分間よりも多ければ速報を生成する設定で実験を行った.また,速報生成には$\mathcal{M}_\mathrm{+clf}$で構築した速報生成器を利用して生成を行った.直前速報を利用する$\mathcal{M}_\mathrm{+cxt}$および$\mathcal{M}_\mathrm{+clf+cxt}$では直前速報として各時刻から4分前までの速報を利用した.全ての手法において投稿データは各時刻から3分後までの投稿を利用した.この際,投稿データの平均投稿数は75件であった.また,本研究ではT5のトークン数を512に設定しており,これを超えた新しい投稿は入力時に削除される.また,事前学習済みモデルとしてHuggingFaceが公開しているライブラリであるTranformersから日本語事前学習済みT5\footnote{\url{https://huggingface.co/megagonlabs/t5-base-japanese-web}}を利用した.全てのモデルは三つの異なるランダムシードを利用してモデルを構築し,各モデルのスコアの平均値を最終的なスコアとして利用した.また,ハイパーパラメータはバッチサイズを8,学習率を1e-5としてfine-tuningを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価方法}評価は正解速報と自動生成された速報を比較することで行った.試合中には類似したイベントが複数回発生する場合があることから,速報全体で文字列の一致度を評価した場合,異なるイベントに関する速報が類似していると,不当に高く評価してしまう可能性が考えられる.そこで,正解速報と生成速報を時系列順に対応付けた上で文字列の一致度を評価した.テキスト生成の評価指標にはROUGE\cite{rouge}が広く用いられており,ROUGEを時系列要約の評価指標として発展させたAlignment-basedROUGE\cite{rouge-tls}が知られている.Alignment-basedROUGEでは要約が生成された時間のずれに対して重み付けを行い,生成文に対して正解速報との類似度および生成された時間の二つの観点から評価を与える.しかし,本タスクで時間のずれに重み付けを行った場合,異なる時刻に生成された正しい速報よりも同時刻に生成された誤った速報と対応付いてしまう可能性がある.そのため,時間のずれに対して重み付けはせず,正解速報と生成速報の共通するn-gram数または最長共通部分列(LCS)に基づき評価を行った.単語の分割にはMeCabを利用し,形態素辞書としてはIPA辞書\footnote{mecab-ipadic-2.7.0-20070801}を利用した.図\ref{fig:eval}は評価方法を図示したものであり,評価の手順は次の通りである.この際,各手法の精度は,試合ごとに計算されたスコアのマクロ平均をとることで算出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{31-4ia5f4.pdf}\end{center}\hangcaption{unigramベースの評価の手順.行列は$g_i$と$r_j$の共通するunigram数を格納している.動的計画法を適用した後に対応付いた正解速報と生成速報に青い丸がつけられ,それらの経路が矢印で結ばれている.右側は正解速報と生成速報の例が示されており,対応付いた速報が線で結ばれている.}\label{fig:eval}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item自動生成された速報を格納する配列$\boldsymbol{g}$,正解速報を格納する配列$\boldsymbol{r}$,および,各速報同士の対応付けスコアを格納する行列$S=[s_{ij}]$を用意する.\item$s_{ij}$に生成速報$g_i$と正解速報$r_j$で共通するn-gram数またはLCSを代入する.ただし,配列の添字$i$,$j$はそれぞれ分単位の試合時刻を表すものとし,時間が大きくずれた速報同士が対応付かないようにするため,$|i-j|>1$(2分以上のずれ)の場合は0を代入する.\item$S$に対し動的計画法を適用し,一つの生成速報はたかだか一つの正解速報としか対応付けないという制約のもと,試合全体で共通するn-gram数の合計またはLCSの合計が最大となるように,生成速報と正解速報を対応付ける.以下では,共通するn-gram数の合計の最大値を\textbf{対応付いたn-gram数},LCSの合計の最大値を\textbf{対応付いたLCS}と呼ぶ.\item\textbf{対応付いたn-gram数}または\textbf{対応付いたLCS}に対して式(\ref{eq:re}),式(\ref{eq:pr}),式(\ref{eq:f})で定義される再現率,適合率,F値の三つの指標を用いてモデルの評価を行う.\end{enumerate}\begin{gather}再現率=\frac{\text{対応付いたn-gram数またはLCS}}{\text{正解速報に含まれるn-gram数}}\tag{I}\label{eq:re}\\[0.5ex]適合率=\frac{{\mbox{対応付いたn-gram数またはLCS}}}{\mbox{生成速報に含まれるn-gram数}}\tag{II}\label{eq:pr}\\[0.5ex]\mbox{F}値=\frac{2*適合率*再現率}{適合率+再現率}\tag{III}\label{eq:f}\end{gather}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{05table02.tex}%\caption{評価時にunigramを用いた場合の実験結果.}\label{tb:res}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{05table03.tex}%\caption{評価時にbigramを用いた場合の実験結果.}\label{tb:res2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{05table04.tex}%\caption{評価時にLCSを用いた場合の実験結果.}\label{tb:rougel}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}評価にunigram,bigramおよびLCSを用いた場合の実験結果をそれぞれ表\ref{tb:res},表\ref{tb:res2},表\ref{tb:rougel}に示す.$\mathcal{M}_\mathrm{base}$は生成したn-gram数が正解のn-gram数より大幅に少なく,多くの``NaN''が出力されたことがわかる.一方,$\mathcal{M}_\mathrm{+clf}$では生成されたNaNの数が正解速報と近い値になっており,生成速報のn-gram数も増加しているため,生成判定器を導入することで速報を生成するかどうかの判断がより適切になっていることがわかる.続いて$\mathcal{M}_\mathrm{base}$と$\mathcal{M}_\mathrm{+cxt}$を比較すると,unigramおよびLCSを用いた評価時には適合率が同等に保たれたまま,再現率が大幅に向上していることが分かる.この結果から,直前の文脈を考慮することで冗長な速報の生成を抑えたまま生成速報の数をある程度制御することが可能であると言える.続いて$\mathcal{M}_\mathrm{+cxt}$と$\mathcal{M}_\mathrm{+clf+cxt}$を比較すると,再現率はほぼ同等である一方で,適合率は大幅に低下しており,結果としてF値が低下している.これは生成判定器を利用することで速報の頻度も考慮され,結果として投稿データ集合から適切な速報を生成するのが難しい時刻であっても,生成判定器が``Yes''と出力し,正解と大きく異なる速報が生成された結果であると考えられる.全体として$\mathcal{M}_\mathrm{+cxt}$が提案モデルの中で最も高いスコアを示した.$\mathcal{M}_\mathrm{+cxt}$とその他の提案モデルについて有意水準0.001で,試合を単位とする並べ替え検定\footnote{多重検定の補正のためボンフェローニ法を用いた補正を行った.}を行った結果,bigramの評価における$\mathcal{M}_\mathrm{+cxt}$と$\mathcal{M}_\mathrm{+clf}$との比較では有意であることが確認できなかったが,その他の評価においては,$\mathcal{M}_\mathrm{+cxt}$とそれ以外のモデルのF値の差は統計的に有意であることが確認できた.次に,$\mathcal{M}_\mathrm{burst}$は適合率は比較的高い値となるものの,再現率,F値では提案モデルよりも低い値となっており,NaNの数が正解速報よりも大きくなっていることが確認できる.この結果は,投稿数の増加によって生成判定を行う手法では検出できていないイベントが存在しているためであると考えられる.最後に二つのオラクルモデルと提案モデルの比較を行う.全ての提案モデルは\textsc{Orcl}$_\mathrm{extr}$よりも高い性能を示した.これは抽出型の手法をこのタスクに適用するには明確な上限が存在することを示し,Xへの投稿からスポーツの速報を生成するには抽象型の手法が適しているということを示している.また,\textsc{Orcl}$_\mathrm{+clf+cxt}$は$\mathcal{M}_\mathrm{+cxt}$に比べ適合率を保ったまま高い再現率を示し,最も高いF値を記録した.再現率については0.03から0.06ポイントの向上が確認できたものの,適合率については大きな変化は確認できなかった.このことは,正解速報が存在している時刻においても,リアルタイムのXへの投稿だけからでは生成が難しい場合が存在していることを示唆していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} 各モデルで生成された速報の性質を明らかにするため,より詳細な比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実際の速報生成例}図\ref{fig:generate}に正解速報,$\mathcal{M}_\mathrm{base}$および最も性能の良かった$\mathcal{M}_\mathrm{+cxt}$が生成した速報の例を示す.$\mathcal{M}_\mathrm{base}$は異なる時刻において同一の速報を生成しているのに対し,$\mathcal{M}_\mathrm{+cxt}$では冗長な速報が削減されていることが確認できる.ただし,$\mathcal{M}_\mathrm{+cxt}$においても生成速報全体で確認した場合,冗長な速報は完全に削除されているとは言えず,冗長性のさらなる改善は今後の課題である.続いて正解速報と$\mathcal{M}_\mathrm{+cxt}$の生成速報を比べると同一のイベントに言及した速報が1分ずれて生成されていることが分かる.本研究では各時刻から3分後までの投稿を利用して速報生成をしていることから,ある時刻よりも後に発生したイベントについて言及する速報が生成されることがあり,このことが原因となり,生成時間にずれが生じる.このような生成時間のずれは試合の概要を把握するという目的を考えると大きな問題ではないことから,1分の時間のずれを許容する評価手法は妥当であると言える.また,正解速報ではハーフタイムに行われた選手交代について言及されているが,$\mathcal{M}_\mathrm{+cxt}$では選手交代についての言及ができていないことが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{31-4ia5f5.pdf}\end{center}\hangcaption{実際の生成例.対応付いた速報が線で結んであり,下の行列は速報をunigram分割をした際の対応付けのスコアを示す.また,$r$,$g$,$g'$の添字は時刻(分)を表す.}\label{fig:generate}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{重要なイベントに関する人手評価}\label{subsec:human}試合中の主要なイベントをそれぞれのモデルがどのくらい正確に検出できているか人手で評価した.具体的には,ゴール,選手交代,カード提示の三つのイベントについて,``ゆるい''評価と``厳しい''評価の2種類の基準で評価を行った.``ゆるい''評価ではそれぞれのイベントが正解要約から誤差2分以内に同一のイベントを含んだ速報が生成されていれば正しく検出できたとして,適合率,再現率,F値の三つの指標を用いて評価する.``厳しい''評価ではそれぞれのイベントに加えイベントに含まれる要素が正しい場合にのみ正しく検出できたとして評価を行う.イベントに含まれる要素とは,ゴールの場合には得点を決めた選手名,選手交代の場合では交代した2人の選手名,カード提示ではカードの種類および提示された選手名のこととする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}%\caption{人手評価を行った際の実験結果.それぞれのセルは``ゆるい''/``厳しい''評価の結果を示す.}\label{tb:human}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価は無作為に抽出した10試合について著者のうち1名が行った.表\ref{tb:human}に人手評価の結果を示す.全体として\textsc{Orcl}$_\mathrm{extr}$が高い性能を示しているが,このモデルは正解要約との単語の一致度を利用しているため高い性能となっていると考えられる.オラクルモデルを除くと$\mathcal{M}_\mathrm{+cxt}$と$\mathcal{M}_\mathrm{+clf+cxt}$が比較的高い性能となった.文脈情報を考慮することで冗長な速報の生成が削減され,結果として重要なイベント検出の精度が向上したと考えられる.``ゆるい''評価において,ゴールについては$\mathcal{M}_\mathrm{+cxt}$は\textsc{Orcl}$_\mathrm{extr}$に匹敵する性能を示しており,ゴールイベントの検出自体には高い精度で成功していること言える.一方で,選手交代に関しては提案モデルは抽出型の手法に大きく劣っていることが確認できる.これは,交代に関与した選手名が検出できていても交代とは異なるイベントとして速報が生成されている例が多く存在することが原因の一つであると考えられる.カード提示については提案モデルは\textsc{Orcl}$_\mathrm{extr}$よりも高いF値を達成した.この要因として\textsc{Orcl}$_\mathrm{extr}$は単語の一致度を元に投稿を抽出しているため,イベントに言及した投稿以外に単語の一致度が大きい投稿が存在した場合にイベントに言及した投稿が選ばれなかったことが考えられる.``厳しい''評価についても``ゆるい''評価と同様の傾向が確認できるが,全ての提案モデルにおいて大幅に低いスコアとなった.特に,ゴールや選手交代については\textsc{Orcl}$_\mathrm{extr}$とのスコア差が``ゆるい''評価時よりも大きくなっている.本実験に利用した正解速報では,得点を決めた選手以外にも得点の流れに関与した選手名が速報内に記載される.提案モデルにより生成された速報ではこれらの実際にはゴールを決めていない選手が得点者として扱われているような誤った速報が生成されるケースが存在した.また,選手交代では交代に関わる選手のうち一人は正確に捉えられているが,もう一人が誤っているケースや,同時に複数の交替が実施された場合に,誤った組み合わせの速報が生成されてしまうケースが存在した.これらの誤りには.入力投稿データ内に含まれない選手名が生成されていることがあり,ハルシネーションが発生していると考えられる.表\ref{tb:generate_error}に実際に生成に失敗している例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{05table06.tex}%\hangcaption{$\mathcal{M}_\mathrm{+cxt}$モデルにおいて,誤りを含む内容が生成された場合の正解速報と生成速報の例.得点速報内の\textbf{下線}は選手名を示している.}\label{tb:generate_error}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本論文ではXへの投稿からのサッカーの試合速報生成に取り組んだ.速報が存在しない時刻の出力も含めすべてを一つのT5に基づく要約として扱うモデルをベースに,生成する速報の数を制御するために生成判定機構,速報の冗長性を軽減するために直前の速報を考慮する機構を提案し,それらの有効性を検証した.実験の結果,直前の速報を考慮する機構により冗長な速報の生成を抑制できることを確認した.また,ベースラインモデルに生成判定機構を導入することで,速報の生成数を制御できることを確認した.一方で,生成判定機構と直前速報を考慮する機構を組み合わせた場合にはほとんど効果がないことを確認した.今後の課題として以下二つが挙げられる.一つ目は,より頑健な冗長性抑制手法の開発である.本研究で提案した機構では冗長な速報の生成は完全には抑制されていなかった.より正確な速報生成システムの構築にはより頑健な冗長性抑制手法の開発が必要である.二つ目は,イベントの要素の正確な同定である.生成例の分析においてイベントの発生を捉えることができていてもその要素の同定に失敗している例が多くあることが確認できた.そこでイベントの要素の同定をより正確にすることで提案システムの精度が向上すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begingroup\addtolength{\baselineskip}{-1pt}\bibliography{05refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}%\caption{収集対象のチーム名と実際に使用したハッシュタグ,試合ごとの平均投稿数の一覧.}\label{tb:hass}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix\vspace{-0.5\Cvs} \section{利用したハッシュタグ} label{sec:a1}表\ref{tb:hass}に実験に利用した21チーム分,合計39個のハッシュタグとハッシュタグを利用して収集できた投稿の試合ごとの平均投稿数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大鹿雅史}{%2023年名古屋大学情報学部コンピュータ科学科卒業.同大学院情報学研究科知能システム学専攻博士前期課程在学中.}\bioauthor{山田康輔}{%2024年名古屋大学情報学研究科博士後期課程を修了.同年より株式会社サイバーエージェントAILabリサーチサイエンティスト,名古屋大学大学院情報学研究科協力研究員.博士(情報学).}\bioauthor{笹野遼平}{%2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.2019年より理化学研究所AIPセンター客員研究員を兼任.博士(情報理工学).}\bioauthor{武田浩一}{%1983年京都大学大学院工学研究科情報工学専攻修士課程修了.同年日本アイ・ビー・エム株式会社に入社.2017年より名古屋大学教授.2024年より国立情報学研究所特任教授.博士(情報学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V20N03-02
\section{はじめに} \begin{figure}[b]\begin{center}\includegraphics{20-3ia2f1.eps}\end{center}\caption{情報抽出器作成までの流れ}\end{figure}震災時にツイッターではどのようなことがつぶやかれるのか,どのように用いられるのか,また震災時にツイッターはどのように役立つ可能性があるのか.震災当日から1週間分で1.7億にのぼるツイートに対し,短時間で概観を把握し,今後の震災に活用するためにはどうすればよいかを考えた.全体像を得た上で,将来震災が発生した際に,ツイッターなどのSNSを利用し,いち早く災害の状況把握を行うための,情報(を含むツイート)抽出器を作成することを最終目標とし,その方法を探った.この最終目標に至るまでの流れと,各局面における課題および採用した解決策を図1に示した.図1に課題として箇条書きしたものは,そのまま第3章以降の節見出しとなっている.信号処理や統計学の分野において多用される特異値分解は,例えばベクトルで表現される空間を寄与度の高い軸に回転する数学的な処理であり,値の大きな特異値に対応する軸を選択的に用いる方法は,次元圧縮の一手法としてよく知られている.機械学習において,教師データから特徴量の重みを学習することが可能な場合には,その学習によって重みの最適値が求められるが,教師なしのクラスタリングではこの学習過程が存在しないため,特徴量の重みづけに他の方法が必要となることが予想される.筆者らは,本研究の過程に現れるクラスタリングと分類において,古典的な類義語処理および次元圧縮のひとつとしての文書‐単語行列の特異値分解に加え,特異値の大きさを,特徴量に対する重みとして積極的に用いることを試した.現実のデータに対し,現象の分析や,知見を得るに耐えるクラスタリングを行うには,最終的に``確認・修正''という人手の介在を許さざるを得ない.この過程で,従来からのクラスタリング指標であるエントロピーや純度とは別の観点からも,文書‐単語行列に対して特異値分解や特異値による重みづけをすることに一定の効果があることを筆者らは感じた.クラスタリングに多かれ少なかれ見られるチェイニング現象(3.1.3節で詳細を述べる)を激しく伴うクラスタリング結果は,人手による確認・修正作業に多大な負担をもたらすのだが,このチェイニング現象は特異値分解に加えて特異値で重みづけを行うことで緩和される傾向にあることがわかったのである.そこで本研究では,人手による作業の負担を考慮した作業容易度(Easiness)というクラスタリング指標を提案し,人手による作業にとって好ましいクラスタリング結果とはどういうものか探究しつつ,文書‐単語行列の特異値分解と,特異値分解に加えて特異値で重みづけする提案手法の効果,および,従来の指標には表れない要素を数値化した提案指標の妥当性を検証することとする.以下,第2章では,テキストマイニングにおけるクラスタリング,分類,情報抽出の関連研究を述べる.第3章では,情報抽出器作成までの手順の詳細を,途中に現れた課題とそれに対する解決策とともに述べる.第4章ではクラスタリングの新しい指標として作業容易度(Easiness)を提案し,それを用いて,クラスタリングや分類を行う際に,特異値分解あるいは特異値分解に加えて特異値で特徴量の重みづけを行うことの有効性を検証する.第5章では,「拡散希望」ツイートの1\%サンプリングを全分類して得られた社会現象としての知見と,情報抽出器の抽出精度を上げるために行った試行の詳細およびそれに対する考察を述べる.尚,本論文の新規性は,タイトルにあるように「文書‐単語行列の特異値分解と特異値による重み付けの有効性」を示すことであり,関連する記述は3.1.3節および第4章で行っている.ただし,東日本大震災ビッグデータワークショップに参加して実際の震災時のツイートを解析したこと,すなわち研究用データセットではなく,事後ではあるが,現実のデータを現実の要請に従って解析したこと,によって得られた知見を残すことも本稿執筆の目的の一つであるため,情報抽出器作成の過程全てを記してある. \section{関連研究} テキストマイニングにおいて,クラスタリング,分類,情報抽出の研究は多数存在する(Berry2004,2008).文書の数学的表現としては,ベクトル空間法(VectorSpaceModel)が広く用いられている.多次元空間のベクトルを特徴量に用いるというもので,その歴史は古く(Salton1975)で提案されている.クラスタリングに用いられる文書‐単語行列は,その自然な拡張である.単語の表層文字列を素性として扱うような多次元空間では,個々の単語の出現頻度が低く,疎性(Sparseness)の問題を引き起こす.この問題に対処するために,類義語処理の研究が多数存在しており,次元圧縮としてのLSI法(Deerwester1990),トピックモデルとしてのpLSI法(Hofmann1999),ベイズ推定を用いたLatentDirchletAllocation法(Blei2003)が代表的である.クラスタリングに特異値分解や主成分分析を用いる場合の心得は,(Kobayashi2004)に詳しい.LSI法の数学的な基礎付けとなる特異値分解は,反復法による数値計算で行われる.大規模な疎行例のための実装には,(Dongarra1978)や(Anderson1999)がある.分類問題に対する機械学習の方法としては,線形判別分析(Fisher1936),サポートベクターマシン(Cortes1995)が代表的である.本研究では,統計処理言語Rによる実装(Karatzoglou2004)でのサポートベクターマシンを用いる.抽出器の作成には,多クラス分類器(Crammer2000;Karatzoglou2006)を用いて,2つの手法を比較する.1つは,サポートベクターマシンの事後確率を計算する方法(Platt2000;Lin2007;Karatzoglou2006)で,閾値を超える事後確率を持つクラスが存在する場合に抽出する(Manning2008).もう1つは,1-クラス分類(Sch\"{o}lkopf1999;Tax1999;Karatzoglou2006)である.言語処理学会2012年度全国大会では,災害時における言語情報処理というテーマセッションで11件の発表があった.そこには,効率的な情報抽出という観点から,(Neubig2012)や(岡崎2012)の研究がある.本研究は,クラスタリングによって分類カテゴリの決定をするところから始めるという点で,特定の種別の情報を抽出するこれらの研究とは異なる.東日本大震災時にSNSが果たした役割については(小林2011),(立入2011)が刊行されている.(片瀬2012),(遠藤2012)でも指摘されているように,今後の震災時にSNSが取材情報源として担う役割は大きいものと思われる.なお,当時のメディアについては,(片瀬2012),(稲泉2012),(遠藤2012),(福田2012),(徳田2011)に詳しい. \section{情報抽出器作成までの手順} 情報抽出器を作成するまでには,第1章の図1にあるように,全体把握,抽出対象データの策定・特徴把握,情報抽出というおおまかに3つの段階を経た.以下,それぞれについて詳しく述べる.\subsection{震災ツイートの全体把握}本研究の最終目標は,所望する情報を含むターゲットツイートを抽出する情報抽出器を作成することであるが,そのためには,そのターゲットツイートの持つ特徴をつかむことが必要である.その作業は,そもそもどのような種類のツイートが存在するかを知り,たとえ望ましいまとまりではなかったとしても,実際に形成されたツイート群を見てみることから始まる.つまり,ターゲットデータの抽出のためには,それに先立ち全体傾向を把握すること,すなわちクラスタリングが非常に重要なのである.\subsubsection{大規模データに対するアプローチ(「拡散希望」ツイート)}近年,SNSというメディアの急速な発展に伴って,そこでの発言の解析に関する研究もにわかに脚光を浴びてきている.書き言葉の解析が従来の言語処理のメインターゲットであったのに対し,話し言葉に近いSNSでの発言を解析することは,新たな研究課題を含んでいるからである.今回はそのような言語処理の課題に加え,1.7億というボリュームゆえの大規模データ処理としての課題も顕在化した.大規模なデータを扱う場合,特定の観点を定めて,それに特化した分析を行うという方法もあるが,我々は始めから特定の観点に限定せずに分析を行いたかったため,ランダムサンプリングを行って全体を把握することにした.サンプリングを行うことで,核心的な個々のツイートを見逃す可能性もあるが,全体を把握する場合は,出現頻度の多いものからとりかかり,その後細部に踏み込んでいくという過程をたどるため,ランダムサンプリングを行うことが自然,かつ効果的である.また,本来“つぶやき”であるものの中から,震災時の状況把握に意味のあるツイートに効率的に接触することを目指し,“拡散させることを目的としている”すなわち“伝える意思が明確である”「拡散希望」ツイートに着目した\footnote{「拡散希望」に限定しない場合,3月11日〜14日の総ツイート数は1.02憶ツイートであり,3月11日〜17日の全「拡散希望」ツイートは約385万ツイートであった}.実際のところ,キーフレーズ検出\footnote{n-gramとそれを構成する各単語1-gramが個別に出現する頻度の積からなる$t$統計量を算出している(Manning1999).ここでは,単語5〜100gramに対して,$t$統計量が$2\sigma$より大きいものをキーフレーズとした.名詞句など特定の品詞列に限定することはしていない.他のキーフレーズ検出アルゴリズムとして(Witten2005)が有名だが,事前の学習が必要である.}を行って検出されたものの中に多数の「拡散希望」ツイートが見られ,震災時に「拡散希望」ツイートが多く出回っていたことも確認されている.1\%ランダムサンプリングを行った上で「拡散希望」ツイートに限定した\footnote{「拡散希望」に限定したものの中から1\%ランダムサンプリングを行うことと等価である}とはいえ,震災対応初動期間の72時間を含む11〜14日に限定しても,分析対象のツイートは3万件以上あり,全て人手で分類するには30人日程度かかることが見積もられた\footnote{筆頭著者の長年にわたる経験では,1人が1日で処理できる自由記述文は1,000件程度である}.このため,何らかの自動処理が必要となったのであるが,この時点ではまだどのような分類項目が存在するかもわからず,加えて時間の経過とともに分類項目が変わっていくことが予想されたため,1日分ずつ分析対象のツイートのクラスタリングを行うことにした.\noindent\textbf{3.1.1.1「拡散希望」ツイートの特徴}「拡散希望」ツイートには次に挙げる2つの特徴があり,結果的に「拡散希望」に限定したサンプルツイートは,震災時の膨大なツイートの概観を得るのに非常に有効であった.\hangafter=1\hangindent=4zw\noindent\hboxto4zw{特徴~1:\hss}基本的には転送を利用して拡散させるため,元ツイートの完全なコピー(公式リツイート)あるいはコピーにオリジナルのコメントを加えたもの(非公式リツイート)が多い\hangafter=1\hangindent=4zw\noindent\hboxto4zw{特徴~2:\hss}``拡散させたい=人々にきちんと伝えたい''という意識で書かれているため,一般的なツイートよりも``書き言葉''寄りで書かれており,スラングや未知語,単語の省略などが比較的少ない.よって,形態素解析における未知語,形態素区切り誤り,品詞誤りも少ない特徴1に関して,今回はリツイートを予め除外しておくことを敢えて行わなかった.リツイートの大きさも一つの情報であり,一つの作業で量と内容を合わせて概観を得るには前もってリツイートのまとめあげを行わない方が適切であると考えたからである.特徴2に関して,3月11日の地震発生後からランダムサンプリングした,「拡散希望」だけからなるツイート100件と「拡散希望」を含まないツイート100件を調べたところ,前者では全6,909形態素中,区切り誤りが13件,品詞誤りが22件あり,後者では全3,673形態素中,区切り誤りが27件,品詞誤りが33件見つかった.\subsubsection{文書‐単語行列作成}本研究では一貫して文書‐単語行列が用いられる.この文書‐単語行列は,文書(ツイート群)に対しMeCabによって形態素解析を行った後,各文書における単語1-gramの出現頻度をベクトル空間表現に基づいて作成したものである.続いてこの特徴量ベクトルに対し,キーワードらしさの重みづけに用いられるtf-idfの指標への変換,特異値分解などの処理を行う.これらの文書‐単語行列に対して行う工夫については,第4章においてもう一度説明する.大規模なデータから作成された文書‐単語行列は,一般的に大規模疎行列になる傾向があるが,本研究では,大規模疎行列に特化したアルゴリズムを用いることなく,一般的な特異値分解のアルゴリズムで事足りた.本研究では,解析および実験を,統計処理言語Rの標準または一般に入手可能なパッケージに含まれる関数によって行った.表1に,本研究で使用したRのパッケージ名,関数,オプションの一覧を,表2に,用いた計算環境を示す.\begin{table}[b]\caption{統計処理言語R使用パッケージ名,関数,オプション等一覧}\input{02table01.txt}\end{table}\begin{table}[b]\caption{計算環境}\input{02table02.txt}\end{table}\subsubsection{階層クラスタリングのチェイニング現象}\begin{figure}[b]\includegraphics{20-3ia2f2.eps}\caption{階層クラスタリングのデンドログラム(樹形図)とチェイニング現象}\end{figure}クラスタの粒度を任意に設定できる階層型クラスタリングは樹形図(デンドログラム)を用いて視覚的に表現される.根元(図2の最上部分)には全てのデータが含まれ,次第に分かれて末端は全てのデータが自分自身のクラスタを形成する.適当な高さ(図2破線)で枝刈りをすることで,切断された枝の切断部分より末端に連なるデータがまとまって1つのクラスタを形成すると解釈する(図2の●または○).本研究ではユークリッド距離とウォード法を用いてクラスタリングを行った.枝刈りは,クラスタ数が文書数の1/2乗になる場所で行うように設計した.ウォード法を用いると比較的チェイニング現象が起きにくいとされているが,著者の経験では,どのような距離関数やクラスタの組み上げ法を採用しても,多かれ少なかれチェイニング現象に遭遇することとなる.チェイニング現象とは,根元から見て,その後更に分かれることの無い比較的小さいクラスタが次々と分離していき,枝刈りを行った際に,ボリュームが大きく特徴を見出しにくいクラスタ(図2の○印)が残る現象である.東日本大震災の「拡散希望」ツイートをクラスタリングして顕著だったのは,分離したクラスタのうち,クラスタ内が同じツイートを元とするリツイート群となっているものが多かったことである\footnote{ただし,必ずリツイート群が1つのクラスタにおさまることや,1つのクラスタが1つのリツイート群だけで占められることが保証されるわけではない.似ている複数のリツイート群が1つのクラスタに入ることもあり,純粋なクラスタリングの目的からすれば,そのようなクラスタの生成こそ理想的である.}.リツイート群は出現単語とその頻度が非常に似ており文書ベクトルの距離が近いため,先に分離してクラスタを形成するためと思われるが,逆にこのリツイート群が取得できたことで,人手による分類の確認・修正を行う際,人が見るべきツイートが減ること,また,あるツイートに対する非公式リツイート\footnote{非公式リツイートとは,元のツイートに数文字かそれ以上の追加と削除を加えてツイートしたもので,公式リツイートとは異なり元ツイートにリンクされていないため,機械的なカウントは出来ない(何らかの言語処理が必要).多くは引用する直前に``RT''の文字を書き加えてある.}を含むリツイートの大きさを把握することが可能となること,という2つのメリットがもたらされた.リツイートの多さがチェイニング現象の原因であることも考えられたため,図2に示している3月11日の「拡散希望」ツイート1\%サンプリング10,494件のうち全くリツイートを含まない(ツイート本文中に文字列``RT''を含まない)ツイート667件に対し,同じ手順で階層クラスタリングを行った.その結果,最も大きなクラスタに542ツイート(全体の81\%)が集まるという同様の現象が認められた.リツイートを除かない場合は10,494件中3.275件(31\%)が最大クラスタに集まっている.クラスタリングにおいてチェイニングが起きる理由は必ずしも明確ではない(Jain1999)が,特徴量の設計が不適切で,分類を行う際に弁別能力を持つように文書間の距離を決めらなかった,あるいは階層クラスタリングを行う際の探索アルゴリズムにおいて,得られた解が局所最適解であった,などが原因として考えられる.本研究では,探索アルゴリズムの設計には踏み込まず,統計処理言語Rに用意されている既存のボトムアップ型クラスタリングの関数を利用し,特徴量の設計または用いる距離関数の選択を上手に行い,精度のよいクラスタリング結果を得ることを目指した.\noindent\textbf{3.1.3.1階層クラスタリングの繰り返し}「拡散希望」ツイート1\%サンプリングの全分類を目標とし,自立語に限定した単語1-gramを特徴量とする文書‐単語行列を作成,クラスタリングを行った.クラスタリングにはベクトル空間表現におけるユークリッド距離を採用し,クラスタ間距離の計算にはウォード法を,クラスタリングアルゴリズムはボトムアップ型(組み上げ法)の階層クラスタリングを採用した.その後,所属文書数が少ない,または文章が短く語彙が少ないクラスタについて,中身を1ツイートずつ確認し,ラベルを付与した上で,目視による確認・修正(ラベル付与)が困難なクラスタを集めて再度クラスタリングを行った\footnote{以降,本稿では特に断らない限り,人手が介在する際の作業は筆頭著者が1人で行ったことを意味する.}.これを繰り返せば,全てのツイートにラベルを付与することが出来るが,繰り返しの手間がかかることはもとより,生成されるクラスタの数が増え続けて全体把握がかえって困難になるのを避けるため,出来上がったクラスタを内容に応じてさらにまとめ上げることが必要となる.また,ボリュームの大きいリツイート群は1回目でほぼ出尽くすため,メリットの1つであったリツイート群を把握する効果も薄れてくる.そこで,何度もクラスタリングを繰り返すのではなく,2回クラスタリングを行った後は,それまでに作られたラベルを分類項目として残りをそのいずれかに落とし込むという分類問題に切り替えた.\noindent\textbf{3.1.3.2多クラス自動分類の繰り返し}クラスタリングでラベルが付与されたデータを学習データとし,その時点までに作られたラベルを分類項目として,ラベル未定義のデータを対象に,機械学習による多クラス自動分類の識別を行った.興味深いことに,クラスタリング同様半数近くが特定の分類項目に分類されており,そのような項目は所属ツイートが多く,目視で確認・修正作業(ラベル付与作業)を継続することが困難であった.そこで,目視での確認・修正が容易な,ツイート数または語彙が少ない項目に含まれ,確認・修正(ラベル付与)作業が済んだツイートを識別対象から学習データに回し,残りのラベル未定義のツイートに対し,繰り返し機械学習による自動分類を行った.これを2回繰り返したところで,各日9割の分類が終了した.この際に文書‐単語行列に対して行った工夫の詳細については第4章4.3節の評価実験2で述べる.分類は,マージン最大化学習であるサポートベクターマシンを採用し,カーネルにはガウシアンカーネルを採用した多クラス分類器を用いた.\subsection{情報抽出器において抽出するべき対象の策定と特徴把握}3.1.3節においてクラスタリングの確認・修正(ラベル付与)作業を行う過程で,震災時ツイートの分析では``誰が''``誰に''向かって発言しているか,がより重要な分類軸になることが分かった.もともとソーシャルメディアにおいては,誰もが発信者にも受信者にもなり得,そこで飛び交う情報は,内容も方向も多種多様であるが,特に震災時においては,発信者と受信者の関係性によって情報の担う役割が異なってくるからである.例えば``被害''に関する話題は,情報の方向を軸に見ると,被災者や被災者から事情を聞いた人が被災地外に向かって被害の状況を説明する``被害実態'',逆に被災地外の人が,テレビが見られない状況にある被災者または被災地周辺に向けて余震や津波の警報を伝える``関連災害予報'',さらに,被災地外から被災者に向けて発せられた,停電時のろうそく使用による二次火災の発生を注意するなどの``二次災害注意喚起''に大別される.同様に,``支援''に関する話題(救出に関するものは別項目)では,発信者と受信者が被災者/非被災者(支援者)のどちらであるかによって``支援を求める声''``支援を申し出る声''``企業や政府に支援を呼びかける声''``支援に関するノウハウを伝える声''などに分けられる.例えばマスメディアであれば,取材地候補を``被害実態''の中から探し,``支援(物資)を求める声''を人々に伝えるためにツイートを見る.被災者であれば,``支援申し出''の中に,自分が必要としているものが挙がっていないか調べる.これはツイート文中に出現する,個々の被害名称``地震''``津波''``火災''や物資名の``衣類''``食糧''``粉ミルク''``紙おむつ''といった単語での分類では不十分である.情報の方向の他に考えられる軸としては,何次の情報であるか(1次=本人,2次=本人から伝聞,3次=間に1人介して伝聞)などもあるが,震災時においては情報の方向性がより優先すると筆者らは考えた.そこでクラスタリングによって得られた分類項目(後述になるが第5章の表13の項目)を整理し,表3のように分類項目を再設定した.\begin{table}[b]\caption{メッセージの方向性を第1軸に再設定した分類項目の模式図}\input{02table03.txt}\end{table}今回は特にマスコミが重視する*印の分類項目に注目した.「安否確認」については,マスコミが個々の氏名をツイッターから拾うことはおそらくないものの,連絡不能すなわち通信不能な情報空白地域を特定するために利用することが可能であることから,*印の分類項目とした.以下に単語による分類から情報の方向性を加味した分類へ分類軸を変更した例を示す.\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例1:}「被害」\\旧分類項目地震,津波,火災等その他災害,停電,電話・メール等通信状況……\\新分類項目被害実態,関連災害予報,二次災害注意喚起\\(地震,津波,火災,停電,通信状況等は新分類項目の細分項目へ)\pagebreak\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例2:}「支援」\\旧分類項目給水,炊き出し,募金,献血……\\新分類項目支援物資要請,支援申し出,支援呼びかけ,支援方法・注意点\\(給水,炊き出し,募金,献血等は新分類項目の細分項目へ)\subsubsection{単語1-gramのみでは弁別不十分なカテゴリ作成のための素性の追加}クラスタリングは似たもの同士をまとめ上げる機構ではあるが,それがデータ解析に都合のよいまとめ方をしてくれるとは限らない.震災ツイートにおいては,前節で述べたように,単語1-gramによってまとめただけでは情報活用には不十分であった.筆者らは,単語1-gramのみによって得られるものとは異なる分離境界を定めての,必要な情報を含むターゲットツイートを抽出する方法を模索した.クラスタリングでは,個々のデータの些末な部分の違いを吸収し,同義語をまとめ上げる必要があるが,このターゲットデータ抽出の段階においては,出現する単語が同じであっても機能や時制や情報の方向性を弁別することが必要となる.そこで,次節に述べるように正規表現を用いて単語1-gramより長いフレーズの正規表現ルールを書き,目的とする情報を含むツイートを得ることを試みた\footnote{単語1-gram以外の新たな素性(例えば,隣接や共起の2-gram)の投入を試すよりも先に,出現する単語1-gramに多少の情報を付加して弁別することを試みた.他の素性に関しては5.2節に詳述してある.}.\subsubsection{正規表現ルールによるターゲットツイート抽出}クラスタリングによってある程度まとまったツイート群を見渡し,分類項目ごとに単語1-gramを含む特徴的なフレーズを見出し,人手による正規表現ルールを作成した.先に述べたように,震災時のツイートでは情報の方向を考えてツイートを抽出することがキーポイントになってくるのだが,発信者や受信者が具体的に明記されているツイートは少ない.そこで,情報の方向を暗示する部分(機能表現,時制,共起語)をルールに書き加えることで,収集したいツイートのみが集まるよう工夫した.また今回の災害に限定されないよう,固有名詞や物資の名前等個別具体的な名詞はルールに書き込まないようにした.\settensen\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例1:\hss}``\underline{{\bfseries火災}が起きています}''(被害状況リポート:被災地から周辺へ)\\``\textbf{火災}が\unc{起きないように}ブレーカーを落としてから非難を''\\(二次災害への注意喚起:周辺から被災地へ)\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例2:\hss}``\textbf{粉ミルク}が\underline{足りません}''(支援物資要請:被災地から周辺へ)\\``\textbf{衣類}を被災地に\unc{送るように}企業を動かそう''(支援呼びかけ:周辺から周辺へ){\setlength{\leftskip}{2zw}\noindent※ルール化および抽出したのは実線部分のみ.点線部分は特にルール化も抽出も行ってはいないが負例として掲載.\par}表4は,「拡散希望」に限定しない全ツイートからランダムサンプリングで抽出した3月11日分1,000件と3月13日分996件に対し,両日の代表的な(特にマスコミにとって重要な)分類項目について正解付けを行った後,上記正規表現の抽出率(再現性と適合性)を測定したものである.\begin{table}[t]\caption{正規表現によるターゲットツイート抽出率}\input{02table04.txt}\end{table}\subsubsection{機械学習の必要性}表4の結果をみてわかるように,正規表現ルールを作成する際は,過検出を防ぐため,適合率重視になりがちである.しかし,人間が発見できない潜在的なルールやうまく書き下すことが困難なルールも存在することは十分予想される.また震災時には素早く情報をつかまなければならないことから,抽出結果の適合率が悪いことは望ましくないが,再現率が悪く,情報にたどりつけないことはそれ以上に大きな問題である.そこで,機械学習を行って再現率の向上を図る必要があるという認識に至った.\subsubsection{学習データ収集の工夫}機械学習には相当数の正解事例が必要である.時間制約のある中で,十分な数の正解事例を一から人手で集めるのは非常に困難である.例えばマスコミが強く関心を持つ``メディア取上げ要望''は,その重要さに相反して人手で精査した「拡散希望」ツイート約3万件中には150件程度しかなく(後述5.1節表13参照),それだけでは学習データとしてはかなり少ない.そこで,全ツイートに上記正規表現ルールを適用して集めたツイート群を正解事例として,機械学習を行うことを試みた.このようにして集めたツイート群の中には,実際には抽出対象ツイートでないもの(不純物)も含まれているが,不純物が混入することよりも,学習事例を多く集めることを優先した.こうして集められた正解事例からは,当然ルールに書いた特徴が再び学習されることにはなるが,集められた正解事例に共通する特徴の中には,人間が認識しておらず,明示的にルールに書かれていなかったものも存在するであろう.よって結果的に再現率が向上することをも期待した.\subsection{全ツイートからのターゲットツイート抽出}抽出すべきターゲットツイートとその特徴,および抽出するにあたり注意すべき点を把握したところで,抽出元の範囲を「拡散希望」ツイートから全ツイートに広げた\footnote{先行して行われた3.2.2節の正規表現による識別実験も全ツイートからの抽出であった.}.抽出元の範囲を全ツイートに広げた際に,最も問題となったのは,複数存在する抽出目標のどれにも該当しない``その他''ツイートの存在の多さである.また忘れてはならないのは,災害時に役立つシステムであるためには,情報抽出器は常時稼働,リアルタイム(非バッチ処理),無人で運用されることが想定され,複数種類の抽出を同時に行えるようなシステムにしなければならないということである.\subsubsection{``その他''クラスの扱い}震災後3日目になると,震災には無関係なツイートの割合も増えてくる.また,震災に関連してはいても,被災者から発せられている情報のみに注目することにすると,ほとんどが標的外ツイートとなり,``その他''クラスが存在しない一般的な機械学習による分類は困難になる.このタスクは,分類と言うよりはむしろ``その他''の中から目的の情報を抜き出す``抽出''のイメージに近くなる.初め筆者らは,``その他''をホワイトノイズ的に扱うことを試み,全く脈絡のないツイート群を``その他''クラスの学習データとして与えた.しかし人間には特徴が見出せなくても,機械的に学習される特徴が存在し,それに近い特徴を持つツイートが集められたため,この方法は失敗に終わった.次に,注目する集合に属するかそうでないかを判定するone-class分類を複数組み合わせることで複数のターゲットツイート群を同時に抽出することを考え,統計処理言語Rのkernlabパッケージの中のサポートベクターマシン関数ksvmに用意されたtype=``one-svc''オプションで実験した.実験対象データは3.2.2節で行った実験のうち3月13日分(全ツイートからのランダムサンプリング996件)である.type=``one-svc''オプションでは,ある一つの集合に所属するかどうかが判定されるため,複数の集合のうち,ある一つの集合(仮にクラスAとする)にのみ属し,他の集合には全て``属さない''という結果が得られた場合のみ,そのツイートがクラスAに所属する,という方針で実験を行ったところ,再現率27.8\%,適合率15.9\%,F値で20.2\%となるなど,結果は芳しくなかった.明確な理由は不明ながら,負例を与えることができないことが一因であることが考えられる.そこで,関数ksvmのオプションtype=``probabilities''を指定し,予測結果を確率値で出力させ,算出された各クラスタに所属する確率が閾値以上であればそれぞれのクラスタに属するとみなし,どのクラスタに対しても閾値以下である場合はどこにも属さないとする,という定義のもと,所属するクラスタを判定する方法(Manning2008)を採用した.表5にその例を示す.閾値は各実験において,90\%から95\%まで1\%刻みで6種類計算し,F値が最良となるものを都度採用した.閾値を高くすると,クラスに所属すると認定されるツイートが少なくなるため再現率が下がり,閾値を低くすると,クラスに所属すると認定されるツイートが増えるため適合率が下がることが定性的に理解され,また閾値の策定自体も研究課題の一つではあるが、本研究では,どのような文書‐単語行列が最も識別率を上げるかを問題にしており,それぞれの文書‐単語行列で最もよい識別率を出す閾値を採用することとした結果,いずれの実験においても閾値95\%が採用された.\begin{table}[t]\caption{ツイート所属クラスの判定例}\input{02table05.txt}\end{table}\subsubsection{複数種類同時に行う「ターゲットツイート抽出」の精度を高める試み}情報の方向を考慮しつつ行うターゲットツイート抽出を複数種類同時に行う,というタスクの精度向上のため,文書‐単語行列に,単語1-gram素性以外にも様々な素性を投入してみた.詳細は5.2節において考察とともに述べる. \section{文書‐単語行列の効果的な変換} 3.1.3.1節,3.1.3.2節および3.2--3.3節において,クラスタリング,自動分類および複数同時抽出には全て文書‐単語行列が用いられている.自動分類と複数同時抽出はいずれも学習データを用いた機械学習であり,その違いは,選択された分類項目名を出力するのか,全ての分類項目候補に対してそれぞれの確率値を出力するのか,という点だけある.厳密には,そのことに加え,3.1.3.2節の自動分類は人手によって正確にラベル付与された文書を学習事例としているのに対し,3.2--3.3節の複数同時抽出では,正規表現でかき集めたことにより混入した``意味内容は該当しない''事例(不純物)を含む文書を学習事例としている事実がある.ただし,本稿の主旨はこの正解事例の収集方法を比較することではなく,クラスタリング,自動分類,複数同時抽出の各局面において行われた,文書‐単語行列の変換処理の有効性を示すことである.そこで,この3つの局面における変換処理(第1章の図1に示した\ding{"AC}tf-idf値に変換,\ding{"AD}tf-idf値に変換した後,特異値分解を行う,\ding{"AE}特異値分解を行った後,特異地で重みづけを行う,の3段階の処理.第3段階が本研究の提案手法)の評価実験を行った\footnote{第1段階のtf-idf値への変換は全ての場合において行うこととし,評価実験は特に行っていない.}.\subsection{文書‐単語行列の特異値分解(LSI)と重みづけ}この節に続く4.2節,4.3節4.4節は,それぞれクラスタリング,自動分類,複数同時抽出に対して行われた評価実験について詳しく述べたものであるが,ここでは全ての評価実験に共通する,文書‐単語行列に対して行った3段階の処理について説明する.第1段階で行ったのは,作成した文書‐単語行列をtf-idf値に変換すること,すなわち文書‐\linebreak単語行列にキーワードらしさで重みづけをすることである.これにより,特徴を担う素性の影響力が強化され,出現頻度は高くても,ほとんど全ての文書に登場するような,特徴を担わない素性の影響力を弱められる.このtf-idf値に変換した行列を$X$とする.第2段階では$X$に対して特異値分解を行い,意味軸へのマッピングを行う(式1).\begin{equation}X=U\SigmaV^{T}\end{equation}ここで$U$,$V$は直交行列,$\Sigma$は対角行列となる.特異値分解で文書‐単語行列は左右の特異値ベクトル(直交行列)と寄与度を表す特異値(対角行列:統計処理言語Rの標準パッケージにあるsvd関数の出力では,値の大きいものから順に並んでいる)の積となっているため,式変形を行うと,すでに重みづけがなされているようにも見える(式2).\begin{equation}XV=U\Sigma\end{equation}ただし$U=[u_{1},\cdots,u_{n}],\quad\Sigma=\begin{bmatrix}\sigma_{1}&\cdots&0\\\vdots&\ddots&\vdots\\0&\cdots&\sigma_{n}\end{bmatrix}$\quad$(\sigma_{1}>\cdots>\sigma_{n})$である.\vspace{0.5\Cvs}しかし,この段階ではtf-idf値をかけた文書‐単語行列$X$に直交行列$V$をかけて単語の軸を意味軸へ変換し,同じ概念を持つ異なる単語を統一的に扱えるようにした\footnote{この効果をもって,LSIは類義語処理を行っているとも解釈される.また,これは文書と意味軸の関係であるが,同じ行列を転置させた方向から見れば,単語と意味軸の関係が得られ,単語間類似度を算出することもできる.}に過ぎず,文書間の距離も不変であるため,クラスタリングには何ら影響を与えない.この後,$XV$のある列より右側をカットした行列,すなわち意味軸へ射影した特徴量のうち寄与度が低い部分を除く``次元縮約''を行った行列を用いてクラスタリングを行うことで,効果的なまとめ上げが可能になる.ただし,カットオフを行うことは,寄与度に閾値$\sigma$cutoffを設け,閾値以上の特徴量を採択し,閾値以下の特徴量を棄却することでしかなく,寄与度の大きさに応じた重みづけはなされていない.第3段階では,特異値分解を行った(=単語軸から意味軸へ射影した)文書‐単語行列に,さらに特異値で重みづけを行う.ここで初めて特徴量に重みづけがなされる(式3,4).なお,第3段階で特異値分解の後,特異値で重みづけを行う場合は,特異値分解の後すぐにカットオフを行ってから重み付けを行っても,特異値分解の後,重み付けを行ってからカットオフを行っても同じことであるが,後述するようにカットオフ値が重要なパラメタとなるため,本研究では特異値分解の後,重み付けをしてから最後にカットオフを行っている.4.2節以降,``特異値で重みづけ''は\begin{equation}XV\Sigma=U\Sigma^{2}\end{equation}``特異値の2乗で重みづけ''は\begin{equation}XV\Sigma^{2}=U\Sigma^{3}\end{equation}とすることに相当する.カットオフ$\sigma$cutoffをどの位置におくか,言い換えると文書‐単語行列を特異値分解したものについて,寄与度の大きい方から何列目までを残すかで,その後のクラスタリングや分類の精度が大きく変わることが次節以降の評価実験で明らかになる.詳細はそれぞれ4.2,4.3,4.4節で述べる.(Kobayashi2004)では,数百単語より大きな規模の問題ではLSIの適用が困難とある.しかし,本研究に用いた32~GByteのRAMを搭載した計算機では,数千単語規模の行列にLSIを適用することに困難はなかった.\subsection{クラスタリングにおける文書‐単語行列の変換}2種類の指標によりクラスタリング結果の評価を行う.1つは従来から用いられているエントロピーと純度によるものである.これらの指標は,計算機による処理のみを行うことを前提としており人手の介在を伴う作業の場合には必ずしも適切な指標ではないと筆者らは感じた.そこで,人手の負担を考慮した評価指標を導入し,人手が介在する場合の機械の処理について検討した.\subsubsection{チェイニング現象の緩和}文書‐単語行列に対し,特異値分解と,それに加えて特異値による重みづけを行うことで表れる最も顕著な変化はチェイニング現象の緩和である.図3を第3章3.1.2節の図2と比較すると,全体の形状からも,枝刈をした時の``残り物''クラスタ(所属文書数最大のクラスタ:図2では3,275ツイート,図3では1,890ツイート,いずれも《1》番クラスタ)の大きさからも,特異値分解に加えて特異値で重みづけをすることがチェイニング現象の緩和に役立つことがわかる.\begin{figure}[b]\begin{center}\includegraphics{20-3ia2f3.eps}\end{center}\caption{特異値分解と特異値による重みづけによるチェイニング現象の緩和(1)}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia2f4.eps}\end{center}\caption{特異値分解と特異値による重みづけによるチェイニング現象の緩和(2)}\end{figure}図4は,3月11日の「拡散希望」ツイート1\%サンプリング10,949件に対し,特異値分解なし,特異値分解のみ,特異値分解に加えて特異値の2乗および4乗で重みづけ,の各場合の,所属ツイート数の多い順に並べた上位20クラスタに含まれるツイート数を示したものである.カットオフは後述4.2.3節の表6に示す,クラスタリングにおける従来指標(エントロピー,純度)が最良となる値(160列目,寄与度3.4\%)を用いた.カットオフ前の文書‐単語行列の列数は9,013列であった.特異値分解や,特異値分解に加えて重みづけをすると,重みづけの乗数に応じて各クラスタに所属するツイート数がならされていく様子がわかる.特異値分解を行っただけで重みづけをしていない場合は,特異値分解をしない場合とほとんど差がない.\begin{table}[t]\caption{特異値分解の有無と重みづけの乗数別クラスタリングの評価(3月11日分10,494件)}\input{02table06.txt}\vspace{0.5zw}\small*特異値分解なし:文書‐単語行列の全ての行を用いる(カットオフなし)\par\end{table}\subsubsection{エントロピーと純度による評価}クラスタリングをする際,文書‐単語行列に対して行った特異値分解と重みづけに対し,一般的なクラスタリングの評価指標であるエントロピーと純度を算出した.エントロピーおよび純度は,クラスタリング結果と正解のコンフュージョン・マトリクスを作成して比較し,どの程度正解に近い分け方が出来たかを示す指標であり,算出にあたっては,正解が分かっていることが前提となる.結論から言うと,表6にあるように,カットオフを適正に定めた場合は,エントロピーと純度から,特異値分解をすること,また特異値分解に加えて重みづけを行うことが有効であることがわかった.\noindentエントロピー:\begin{gather*}\mathit{Entropy}=\sum_{C_{i}}\frac{n_{{}_{C_{i}}}}{N}\mathit{entropy}(C_{i})\\\mathit{entropy}(C_{i})=-\sum_{h}P(A_{h}|C_{i})\logP(A_{h}|C_{i})\\P(A_{h}|C_{i})=\frac{x_{ih}}{\sum_{j}x_{ij}}\end{gather*}\noindent\textit{Entropy}:総合エントロピー(各クラスのエントロピーを加重平均)\noindent$\mathit{entropy}(C_{i})$:クラス$C_{i}$のエントロピー(``正解クラス''の散らばり度)\noindent$n_{{}_{C_{i}}}$:クラス$C_{i}$に属する文書の数\noindent$N$:全文書数\noindent$P(A_{h}|C_{i})$:クラス$C_{i}$と正解クラス$A_{h}$の一致度\\\phantom{$P(A_{h}|C_{i})$:}(クラス$C_{i}$に所属する文書のうち正解クラス$A_{h}$に分類された文書の割合)\noindent$x_{ij}$:confusionmatrix($C_{i}\timesA_{j}$)の$i$行$j$列成分\noindent純度:\begin{gather*}\mathit{Purity}=\sum_{C_{i}}\frac{n_{{}_{C_{i}}}}{N}\mathit{Purity}(C_{i})\\\mathit{purity}(C_{i})=\frac{\max(A_{h}\capC_{i})}{n_{C_{i}}}\end{gather*}\noindent\textit{Purity}:総合純度(各クラスの純度を加重平均)\noindent$\mathit{purity}(C_{i})$:クラス$C_{i}$の純度\noindent$n_{{}_{C_{i}}}$:クラス$C_{i}$に属する文書の数\noindent$N$:全文書数\subsubsection{人手による作業の負担を考慮した評価}\textit{Easiness}(作業容易度):・人手による作業の効率を考慮した新しい指標\hangafter=1\hangindent=2zw・「クラスタリングの確認・修正作業の難易度は,クラスタの質(不純物や語彙の少なさ)だけではなく,クラスタに所属する文書の量にもよる」ことを数値化・正解データなしでの算出が可能現在の自然言語処理技術では,精度の良い分類が求められている場合は,少なからず人手の介在(クラスタリング結果の確認・修正すなわちラベル付与作業)が必要である.しかし,人が集中力を途切れさせずにチェック出来るデータ数には限りがあり,せいぜい100〜200件程度である.例えば,1,000件の文書をチェックするのに,1,000件まとめて一度に作業するよりは,200件に小分けされたものを5回に分けて作業する方が,心理的負担は少ない.ただし,小分けされていさえすればよいということではなく,クラスタ内は適度に純度が高いことが必要である.クラスタのボリュームの他に,クラスタ内の文章の見た目(出現単語)が似ているかどうかも作業時のストレスに大きく影響する.自然言語処理における一般的なクラスタリングの精度を表す指標,例えばエントロピーや純度では,上記のような作業効率が考慮されていない.また,エントロピーも純度も,正解付けが行われた後で初めて算出が可能なものであり,人手によるラベル付与作業に入る前に,そのクラスタの出来上がり具合(不純物の多少)を概観することはできない.クラスタの出来上がり具合を知る必要がある理由は,チェイニング現象が激しい場合,所属文書数が多く,従って不純物の多い``残り物''クラスタに対しては,確認・修正のラベル付与作業を行うよりも,そのクラスタだけを取り出してもう一度クラスタリングを行う方が適切であるため,ラベル付与作業を行うかどうか事前に判断しなければならないからである.以上の経験に基づく考察のもと,作業のしやすさを次の式で与えることとする.\begin{gather*}\mathit{Easiness}=\sum_{C_{i}}\mathit{easiness}(C_{i})\\\mathit{easiness}(C_{i})=\left(\frac{n_{{}_{C_{i}}}}{N}\right)\timesH_{C_{i}}\\H_{C_{i}}=\sum_{W_{j}}P_{W_{j}}{}^{(C_{i})}\logP_{W_{j}}^{(C_{i})}\\P_{W_{j}}^{(C_{i})}=\frac{n_{{}_{W_{j}}}{}^{(C_{i})}}{\sum\limits_{W_{j}}n_{W_{j}}{}^{C_{i}}}\end{gather*}\noindent\textit{Easiness}:総合作業容易度(各クラスの作業容易度の和)\noindent$\mathit{easiness}(C_{i})$:クラス$C_{i}$の作業容易度\noindent$H_{C_{i}}$:クラス$C_{i}$に属する単語のエントロピー(単語で見た場合の乱雑さ)\noindent$n_{{}_{C_{i}}}$:クラス$C_{i}$に属する文書の数\noindent$N$:全文書数\noindent$P_{W_{j}}{}^{(C_{i})}$:クラス$C_{i}$内での単語$W_{j}$の出現頻度\noindent$n_{W_{c_{i}}}{}^{(C_{i})}$:クラス$C_{i}$に存在する単語$W_{j}$の総出現数単語$W_{i}$についての和は,クラス$C_{i}$に出現するクラスについてのものである.各クラスごとの作業容易度$\mathit{easiness}(C_{i})$はそのクラスの所属文書数(を全体の文書数で規格化したもの)と単語エントロピーの積で定義する.値が小さい方が作業が容易である.ここで用いる単語エントロピー$H_{Ci}$とは,クラスタリングのエントロピー$\mathit{entropy}(Ci)$とは異なることに注意したい.この指標の本質は,「クラスタリングの確認・修正作業の難易度は,形成されたクラスタの質(不純物や語彙の少なさ)だけではなく,クラスタに所属する文書の量にもよる」ことを数値化していることである.またこの指標はエントロピーや純度とは異なり,文書‐単語行列が作られてさえあれば,クラスタリングが終わった段階で,正解ラベルの付与を行わずとも,そのクラスタまたは全体について算出することができる.中規模のクラスタの確認・修正作業に取り組んではみたものの,実は選り分けが困難なクラスタであったため,半分ほど作業を進めたところで諦め,クラスタリングをやり直さざるを得なくなる,などのような事態を防ぐことが期待される.表6にあるように,次元圧縮のカットオフ$\sigma$cutoffが適切な値であれば,特異値分解すること,また特異値分解に加えて特異値で重みづけをすることは,エントロピーや純度の改善に有効であることがわかる.$\sigma$cutoffとこれらの指標の関係については今後の研究課題として興味深いところであるが,$\sigma$cutoffが適切な値であれば,人手による作業を考慮した提案指標「作業容易度」で見た場合でも,特異値分解に加えて特異値で重みづけをすることが有効であるように見受けられる.4.2.1節で触れたように,特異値分解後にさらに重みづけを行うこととチェイニング現象の緩和には何らかの相関があることが示唆されているため,この結果は「``チェイニングの度合いが少ない,すなわち枝刈りをした際のクラスタ間の大きさのバランスが取れている''ことが実現されているクラスタリングが,人手による確認・修正作業の作業効率を大きく左右する」ことをも示唆させる.そこで次節では,``人手による確認・修正作業''の評価実験を行った.\noindent\textbf{4.2.3.1``人手による作業''の評価評価実験1}前節で述べた「クラスタリングに人手が介在する場合は,作業にかかるコストの観点から,“特異値分解”と“特異値分解に加えて特異値で重みづけすること”が有効である」ことを検証するため,3つのテストセットを用意し,3人の被験者にクラスタリングの結果を整理してラベルを付与する作業を行ってもらった.各テストセットは,それぞれ3月11日地震発生以降の「拡散希望」ツイート約105万件からランダムサンプリングした1,000件のツイート3セットで,被験者は各ツイートセットに対して特異値分解をしない文書‐単語行列でのクラスタリング,特異値分解(意味軸へのマッピング)のみを行った文書‐単語行列でのクラスタリング,特異値分解を行った上でさらに特異値の2乗で重みづけをした文書‐単語行列でのクラスタリング,のいずれかについて,クラスタリング結果を確認しながらラベルを付与する作業を行った.本研究では,特異値に重みづけをすることの効果を調べることを目的としており,``重みづけ''の代表値として,最良のエントロピーと純度を与えるカットオフ値での,最良の作業容易度を与える``2乗''を選択した.各被験者はどのテストセットも1回ずつ接触し,どのクラスタリング方法も1度ずつ経験するようにした.また,各テストセットとクラスタリング方法の組み合わせは$3\times3=9$通りあるが,全ての場合の実験が行われるように実験計画を行った.作業慣れの効果をなるべく減らすため,3人が経験するクラスタリングの順番はそれぞれ異なっており,作業に伴って現れる疲労の影響を抑えるために,各人実験作業は1日に1つのみ行うこととした.各クラスタリング法から見ると,3種類のテストセットと,3人の被験者による重複のない9種類の実験が行われたことになり,これらを平均することによって,テストセットの内容と被験者の作業能力の差異を吸収させた.また,各被験者が行うクラスタリング法の順が異なるように実験を行い,その結果を平均することで,作業慣れの効果を可能な限り排除した.以上の原則に基づいて割り当てられた3人の被験者の実験スケジュールについて表7にまとめた.\begin{table}[b]\caption{文書‐単語行列の特異値分解・重みづけ有無別作業効率に関する評価実験実験スケジュール}\input{02table07.txt}\end{table}\begin{table}[b]\caption{文書‐単語行列の特異値分解・重みづけ有無別作業効率に関する評価実験実験結果}\input{02table08.txt}\end{table}テストセット1,000件にラベルを付与するのにかかった分数と,最初の60分でラベルを付与した数を表8にまとめた.さらに,それぞれのテストセットに対して3者が付与したラベルの一致数と,その割合を表9に掲載した.付与すべきラベル数が35種類(最初に「拡散希望」ツイートの1\%サンプリングをクラスタリングした際に得られた分類項目の数)とかなり多かったにもかかわらず,平均すると84\%のツイートは3人の被験者によって同じラベルが付与されていることがわかる.これにより,必ずしも速度優先で確認・修正作業を行っていたわけではないことが示される.\begin{table}[t]\caption{各テストセット中,被験者3人の付与したラベルの一致数と割合}\input{02table09.txt}\end{table}表9から,(1)特定数のツイートの確認・修正作業にかかる時間で評価しても,(2)特定の時間内に確認・修正できたツイートの数で評価しても,特異値分解に加えて特異値の2乗で重みづけを行った文書‐単語行列でクラスタリングを行ったものがクラスタリングの確認・修正作業を容易にしており,それにはチェイニングの緩和現象が大きく関わっていることがわかる\footnote{(1),(2)それぞれにおいて,(a)特異値分解なし,(b)特異値分解のみ,(c)特異値分解+重みづけの3つの手法ごとにまとめた実験結果に対し,平均値の差の検定を行った.具体的には,被験者やテストセットが共通しており,また事前に行った分散の等質性の検定により等分散の仮定が妥当であると判定されたため,``対応のあるt検定(自由度2)''を行った.(1)においては,(a)と(b)の差のp値は0.8164,(a)と(c)の差のp値は0.07284,(b)と(c)の差のp値は0.2999であり,(2)においては,(a)と(b)の差のp値は0.9691,(a)と(c)の差のp値は0.06231,(b)と(c)の差のp値は0.3207であった.(1),(2)いずれにおいても,有意水準をどこに置くかにかかわらず,(a)と(b)には有意な差があるとは認められない.つまり,特異値分解を行っただけでは確認・修正作業の効率に差は生じない.一方,(a)と(c)は,最も広く用いられる有意水準5\%を採用した場合は有意差なしと判定されてしまうものの,社会科学等で用いられる有意水準10\%を採用した場合は有意差ありと判定される.主観評価実験であることから,社会科学寄りの基準を用いてもよいとするのであれば,有意差があると判断しても良い.また,今回の評価実験においては,被験者3人のうち1人のみがラベル付与作業に精通しており,他の被験者に対する実験後のヒアリングでは,「35種類ものラベルを付与することに戸惑ったが,回数を重ねるごとに慣れてきて作業が容易に行えるようになった」という回答も見られた.実験計画法に基き「慣れ」の影響を排除するよう努めてはいたが,予想以上にこの効果が強かったことが,有意差が微妙であったことの最大の原因と考えられる.実験数を増やした上で最初の数回分の実験データは対象外とする,という方法を取る必要があった.}.チェイニング現象の緩和がクラスタリングの確認・修正作業を容易にする一例を挙げると,テストセットBで特異値分解をしない文書‐単語行列でクラスタリングを行った場合,あるクラスタに分類された津波に関する19ツイートは,特異値分解の後重みづけをすると,11ツイートと8ツイートに分離される.8ツイートは,全て``停電で宮城の人は大津波警報知らないそうです''というツイートのリツイートになっており,よりクラスタリングが細分化されたことになる.一方,特異値分解をしない文書‐単語行列でクラスタリングを行った場合に生成された``公衆電話が無料になりました!携帯電話使えない方ぜひ利用して!''というツイートのリツイートが集まっていたクラスタに,特異値分解の後重みづけを行った文書‐単語行列で再度クラスタリングを行うと,``携帯電話よりも公衆電話の方が繋がります''``現在公衆電話が国内通話無料解放中です.回線が優先的に繋がるようになっているので付近の方は公衆電話を利用しましょう''という2ツイートがそのクラスタに合流した.これにより,このクラスタは1つのリツイートの集合ではなくなったが,ツイートの内容は殆ど同じである.このように,特異値分解や重みづけを行うと,クラスタの分離と統合両方が生じるが,重要なことは,分離・統合を経てもクラスタの内容の均一性が保持されるということである.以上により,今回提案した人手による作業の負担を考慮した評価指標Easinessが作業効率と同じ傾向を持つことが示され,同時に,正確さを確保しながら(すなわち人手による確認・修正を加えながら)素早く分類を行う必要がある場合には,チェイニング現象を抑えておくことが有効であること,また,特異値分解に加えて特異値で重みづけした文書‐単語行列でクラスタリングすることで,自動生成されるクラスタの質をそれほど損なわずにそのことを実現出来る,ということも示された.\subsection{自動分類における文書‐単語行列の変換評価実験2}クラスタリングを数回行った後,``残り物''クラスタに含まれる文書数がまだ多く,かつ人手で振られるラベルの種類が限定されてきた段階では,クラスタリングの確認・修正作業で整えられたクラスタのラベルを分類項目として,ラベル未定義の文書をそのいずれかに振り分ける自動分類を行うことで,効率的に分析対象のツイートを全分類することが出来る.評価実験2では,3月11日分の「拡散希望」ツイートの1\%サンプリングのうち,2回クラスタリングを行い,2回自動分類を行ってなおラベルが定義されなかった1,141件のツイートに対して分類項目の識別実験を行った(表10).分類項目が35と多かったためか,既に自動分類を2回行った後の残りのツイートに対する分類問題であったからか,全体的に識別率はそれほどよくない.表10を見る限り,4.1節で述べたカットオフ値(特異値分解,重みづけを行った文書‐単語行列の何列目までを用いるか)を適切に選ばない限り,分類問題に対しては特異値分解を行うことは識別率の改善にはつながらない.また,特異値分解のみと特異値分解に加えて重みづけをすることに,それほど差はない.\begin{table}[b]\caption{文書‐単語行列の特異値分解・重みづけ有無別35項目の自動分類の識別率}\input{02table10.txt}\vspace{0.5zw}\small*特異値分解なし:文書‐単語行列の全ての行を用いる(カットオフなし)\par\end{table}\subsection{複数同時抽出における文書‐単語行列の変換評価実験3}情報抽出器において複数同時抽出を行う際にも,文書‐単語行列に対し特異値分解と特異値による重みづけが有効かどうかを調べた.3.2.2節で用いたのと同じ,全ツイートからランダムにサンプリングして正解付けを行った3月11日分1,000件と3月13日分996件に対し,両日の代表的な(特にマスコミにとって重要な)分類すべき項目について,複数種類の同時ターゲットツイート抽出実験を行った.クラスタリングと同様,tf-idf値に変換した文書‐単語行列,それに加え特異値分解を行い,意味軸へのマッピングを行ったもの,さらに特異値で重み付けを加えたもので抽出率を比較した.特異値分解,および特異値分解の後重みづけを行った文書‐単語行列に対しては,寄与度2\%以下の列を削除する次元圧縮を行った.単語1-gram素性には,自立語のほか,助動詞,副詞,連体詞,接続詞,接頭詞,感動詞を用い,助詞と記号以外のほとんどを用いることとした.クラスタリングとは異なり,情報の方向性を,自立語以外のさまざまな部分から得られる手がかりで弁別する必要性があったからである.素性に単語1-gram以外のものを追加した試みの詳細については5.2節で述べる.実験の結果,ターゲットツイートの抽出に対し,特異値分解に加えて重みづけを行うことが有効なことがわかった(表11,表12).第1章で述べたように,そもそも学習を行うと,特徴量には最適な重みづけが行われるため,特異値分解に加えて重みづけすることの効果はあったとしても薄れるはずである.しかし,実験の結果から,特異値分解に加えて重みづけをすることの効果がないわけではないことが見てとれる.F値で見る限り,重みづけの乗数は2乗付近がピークになっており,クラスタリングの実験結果と合わせ,特異値による重みづけは2乗程度が適当であると考えられる.11日の方が再現率が低いのは,“被害実態”という多種多様なツイートが所属しうる分類項目に対しての抽出実験であったため,各項目ごとの学習事例数をそろえて抽出を行った今回は,“被害実態”の細分項目1つあたりの学習事例数が相対的に少なくなってしまったことや,特異値分解の効果を大きく左右するカットオフの設定が適切ではなかったことが原因と思われる.\begin{table}[t]\caption{特異値分解の有無と重みづけの乗数別ターゲットツイートの抽出率(3月11日分1,000件)}\input{02table11.txt}\end{table}\begin{table}[t]\caption{特異値分解の有無と重みづけの乗数別ターゲットツイートの抽出率(3月13日分996件)}\input{02table12.txt}\end{table}なお,表11,表12,表14はいずれも所属クラス判定の閾値は全て95\%となっているが,これは各文書‐単語行列に対する実験で,その都度最良のF値を与える閾値を採択した結果である. \section{情報抽出器作成の過程で得られた知見と残された課題} 本研究の最終目的は,災害発生時に役立つ情報抽出器を作成することであったが,それに先立つ全体把握のためのクラスタリングを完遂したところで見えてきたこと,抽出器の抽出精度を挙げる段階で課題として残ったものがあるため,ここに記しておく.\subsection{「拡散希望」ツイートの分類によって得られた社会現象としての知見}「拡散希望」ツイートの1\%サンプリング11〜14日分3万件の9割を分類してみて最も驚いたのは,そこに人間の善性が表れていたことである.「ケガ人の手当ての仕方」「救出を待つ間にするべきこと」「被災生活のサバイバルノウハウ」など,マスメディアによる報道には取上げられることの少ない,口コミ系メディア特有のツイートが数多く存在した.また,マスメディアが取り上げきれない地域の細かい情報をまとめ,ウェブ上に掲載する人が少なからずいる一方,散在するそれらの情報を必要としている人に届けようと,かなりの人が進んで仲介の役割を担ったことがうかがえる.直接的に「生きろ!」と叫ぶ声,被災・非被災にかかわらず,全ての人に「元気を出そう」と励ます声も,情報的な価値と関係無く「拡散希望」の対象となった.「企業に働きかけて,被災地に支援物資を送らせよう」という運動さえ起こっていた.そこには情報収集のツールを使い回す人々の姿よりも,本心から被災者を思いやり,助けようとする人間的な温かさを持った人々の姿のイメージがあった.表13は「拡散希望」ツイートの1\%サンプリング11〜14日分3万件の全分類結果(各日1割程度が未分類)である.表13の分類項目は,クラスタリングの結果をもとにしており,情報の方向については特に考慮していない.\begin{table}[p]\caption{「拡散希望」ツイート(1\%サンプリング)全分類}\input{02table13.txt}\end{table}\subsection{災害用情報抽出器における,文書‐単語行列の素性についての考察}災害発生時における,放送等マスメディアにとって有用な情報収集のためには,情報の方向で抽出目標のツイートを弁別することが大切であることは3.2節で特に詳しく述べた.このため,単語1-gram素性に加え,\ding{"AC}機能表現,\ding{"AD}動詞文節(連続する動詞と助動詞はひとまとまりにする),\ding{"AE}個別正規表現(分類項目ごとの正規表現集が全体として当たったかどうかではなく,正規表現集の個々の表現に対する合致/非合致),\ding{"AF}正規表現で集めたツイート群に含まれる5-gram前後のキーフレーズ,\ding{"B0}隣接単語2-gram,\ding{"B1}自立語に限定した共起2-gram,\ding{"B2}正規表現ルールに含まれる単語とそれを特異値分解にかけて得られた類義語による限定共起2-gram,を文書‐単語行列に追加し,それぞれの効果を調べた(表14).\begin{table}[t]\caption{素性別抽出分類問題の精度(3月13日分996件)}\input{02table14.txt}\end{table}予想では,多義を持つ素性である単語は再現率が高く,逆に時制や意思を表す機能表現や,文脈を形成する共起語などは,意味解釈を限定していく作用があるため適合率が高くなると思われたが,一見するとそのような効果は見られなかった.しかし結果をよく見ると,一つの傾向が見えてくる.限定共起語は正規表現集にある単語の中から単語リストが作られており,キーフレーズは,最初に正規表現で集めたツイート群から抽出しているため,本質的には正規表現で集めていることと変わらない.いずれも,学習データの特徴を文書‐単語行列に反映させるために追加した素性ではあるが,その種となっているのは正規表現ルールである.ただし,限定共起語は特異値分解により人間が気付かなかった単語も素性に組み込むことが出来,キーフレーズに関しては,正規表現により集めたツイートの中から,人間が気付かずルールに書きこまなかったフレーズをも特徴量として素性に追加することが可能になった.これらのことから,この2つのみがF値で単語1-gramよりもよい結果をもたらしたと考えることができる.キーフレーズと個別正規表現は重なるものも多いが,キーフレーズの方が個別の正規表現を包含している関係にあるため,個別正規表現よりも再現率が高くなっていると解釈できる.情報の方向性を担っている(「〜ている」のような現在形が,被害実態と未来の予測や注意喚起を分けている)ように見える「時制」などを扱うために,動詞文節を試したり,副詞や助動詞を含めた隣接バイグラムを扱うなどを試みてみたが,どのような素性がそのような効果を直接的に担っているかについては,結果を出すまでには至らなかった. \section{おわりに} 震災対応に有用なツイートを抽出する情報抽出器を作成した.抽出器作成にあたり,震災時ツイートを初めて扱うことになった今回は,抽出対象の策定や特徴把握のため,震災時ツイートの全貌を明らかにする必要があったが,それを行う過程で効率的なクラスタリングを行うための手法と指標を提案し,それにより,震災時のツイートの俯瞰を得ることができた.機械学習によるターゲットツイートの複数種類同時抽出では,人手で作成した正規表現ルールを元に得られる素性を追加することの有効性が示唆されたものの,情報の方向を弁別できる決定的な素性またはその組み合わせの探査および検証は,引き続き今後の課題に据え置かれた.一方,従来から次元圧縮や類義語処理,文書分類の観点で有効性が指摘されていた文書‐単語行列の特異値分解は,特異値による重みづけを行うことで,さらに効果的な利用が行えることが示された.特異値分解後の重みづけの効果が最も顕著であったのは,クラスタリングにおけるチェイニング現象の緩和であった.このとき,特異値による重みづけは,クラスタリングの従来指標であるエントロピーや純度を必ず改善するわけではないが,自動クラスタリングの後に人手による修正作業が行われる際には重要な役割を果たすことがわかった.また,本研究において提案した,人手によるクラスタリング修正作業の負担を考慮した評価指標(Easiness)についても,評価実験において実作業に要した時間との比較からその妥当性が示された.しかし特異値分解または特異値分解後に重みづけをすることが有効なのは,それらの行列に適切なカットオフを施した場合のみであり,適切な値の範囲はそれほど広くない.どのような値が適切であるかを定性的に説明するのは今後の課題である.\acknowledgment本稿執筆の機会を与えて下さったNHK放送技術研究所の柴田部長および田中主任研究員,評価実験を手伝っていただいた同僚の木下奈々恵氏に心より感謝申し上げます.また,大変に有意義なコメントをいただきました査読者の方々,および何往復もやりとりいただいた事務局の方々にも同様に深く感謝いたします.\begin{thebibliography}{}\itemAnderson,E.,Bai,Z.,Bischof,C.,Blackford,S.,Demmel,J.,Dongarra,J.,DuCroz,J.,Greenbaum,A.,Hammarling,S.,McKenney,A.,andSorensen,D.(1999).``LAPACKUsers'Guide.''3rdedition.SIAM.\itemBerry,M.~W.ed.(2004)``SurveyofTextMining.''Springer.\itemBerry,M.~W.ed.(2008)``SurveyofTextMiningII.''Springer.\itemBlei,D.~M.andNg,A.~Y.(2003)``LatentDirichletAllocation.''\textit{JournalofMachineLearningResearch},\textbf{3}(Jan),pp.993--1022.\itemCortes,C.andVapnik,V.(1995).``Support-VectorNetworks.''\textit{MachineLearning},\textbf{20}(3),pp.273--297.\itemCrammer,K.andSinger,Y.(2000).``OntheLearnabilityandDesignofOutputCodesforMulticlassProblems.''\textit{ComputationalLearningTheory},pp.35--46.\itemDeerwester,S.,Dumais,S.,Furnas,G.~W.,Landauer,T.~K.,andHarshman,R.(1990).``IndexingbyLatentSemanticAnalysis.''\textit{JournaloftheAmericanSocietyforInformationScience},\textbf{41}(6),pp.391--407.\itemDongarra,J.~J.,Bunch,J.~R.,Moler,C.~B.,andStewart,G.~W.(1978).LINPACKUsersGuide,Philadelphia:SIAMpublications.\item遠藤薫(2012).メディアは大震災・原発事故をどう語ったか.東京電機大学出版局.\itemFisher,R.~A.,Sc.D.,andF.~R.~S.(1936).``TheUseofMultipleMeasurementsinTaxonomicProblems.''\textit{AnnalsofEugenics},7,pp.179--188.\item福田充(2012).大震災とメディア.北樹出版.\item稲泉連(2012).IBCラジオの108時間.荒蝦夷(編).その時,ラジオだけが聴こえていた.竹書房.\itemHofmann,T.(1999)``ProbabilisticLatentSemanticindexing.''InProceedingsofthe22thAnnualInternationalonSIGIRConferenceonResearchanddevelopmentininformationretrieval(SIGIR-99),pp.~50--57.\itemJain,A.~K.,Murty,M.~N.,andFlynn,P.~J.(1999).``DataClustering:AReview,''\textit{JournalofACMComputingSurveys}(CSUR),\textbf{31}(3),pp.~264--323.\itemKaratzoglou,A.,Smola,A.,Hornik,K.andAchim,Z.(2004).``kernlab---AnS4PackageforKernelMethodsinR.''\textit{JournalofStatisticalSoftware},\textbf{11}(9),pp.1--20.\itemKaratzoglou,A.,Meyer,D.,andHornik,K.(2006).``SupportVectorMachinesinR.''\textit{JournalofStatisticalSoftware},\textbf{15}(9),pp.1--28.\item片瀬京子(2012).ラジオ福島の300日.毎日新聞社.\itemKobayashi,M.andAono,M.(2004).``VectorSpaceModelsforSearchandClusterMining.''Chapter5inbook``SurveyofTextMining'',Springer.\item小林啓倫(2011).災害とソーシャルメディア.マイコミ新書.\itemLin,H.~T.,Lin,C.~J.,andWeng,R.~C.(2007)``ANoteonPlatt'sProbabilisticOutputsforSupportVectorMachines.''\textit{MachineLearning},\textbf{68}(3),pp.267--276.\itemManning,C.~D.andSch\"{u}tze,H.(1999).``FoundationsofStatisticalNaturalLanguageProcessing.''Section5.3.1The$t$testofHypothesisTesinginCollocations,TheMITPressCambridge,MassachusettsLondon,England.\itemManning,C.~D.,Raghavan,P.,andSchutz,H.(2008).\textit{IntroductiontoInformationRetrieval},CambridgeUniv.Press.\itemNeubig,G.,森信介(2012).能動学習による効率的な情報フィルタリング.言語処理学会第18回年次大会発表論文集,pp.887--890.\item岡崎直観,成澤克麻,乾健太郎(2012).Web文書からの人の安全・危険に関わる情報の抽出.言語処理学会第18回年次大会発表論文集,pp.895--898.\itemPlatt,J.~C.(2000).``ProbabilisticOutputsforSupportVectorMachinesandComparisontoRegularizedLikelihoodMethods.''InSmola,A.,Bartlett,P.,Sch\"{o}lkopf,B.,andSchuurmans,D.eds.``AdvancesinLargeMarginClassifiers,''MITPress,Cambridge,MA.\itemSalton,G.,Wong,A.,andYang,C.~S.(1975).``AVectorSpaceModelforAutomaticIndexing.''\textit{CommunicationsoftheACM},\textbf{18}(11)pp.613--620.\itemSch\"{o}lkopf,B.,Platt,J.,Shawe-Taylor,J.,Smola,A.~J.,andWilliamson,R.~C.(1999).``EstimatingtheSupportofaHigh-DimensonalDistribution.''\texttt{http://\linebreak[2]research.\linebreak[2]microsoft.\linebreak[2]com/\linebreak[2]research/\linebreak[2]pubs/\linebreak[2]view.\linebreak[2]aspx?msr\_tr\_id=\linebreak[2]MSR-TR-99-87}.\item立入勝義(2011).検証東日本大震災そのときソーシャルメディアは何を伝えたか?ディスカヴァー携書066.\itemTax,D.~M.~J.andDuin,R.~P.~W.(1999).``SupportVectorDomainDescription.''\textit{PatternRecognitionLetters},20,pp.1191--1199.\item徳田雄洋(2011).震災と情報.岩波新書.\itemWittenI.~H.,PaynterG.~W.,FrankE.,GutwinC.andNveill-ManningC.~G.(2005).``Kea:Practicalautomatickeyphraseextraction''.InY.-LThengandS.Foo,editors,DesignandUsabilityofDigitalLibraries:CaseStudiesintheAsiaPacific,pp.129--152,InformationSciencePublishing,London.\end{thebibliography}\begin{biography}\bioauthor{平野真理子}{2002年慶應義塾大学大学院理工学研究科前期博士課程修了(工学修士).在学時の研究テーマは核融合プラズマのシミュレーション.卒業後,アンケートや世論調査の設計および分析補助業務を経て,「顧客の声」等の自由記述文を定量的に扱い可視化する業務(メインは100\%人手による分類作業)に従事.現在は,分析の各種作業工程をより多く自動化することを目指し,研究を行っている.時折ソプラノ歌手として活動(東京二期会準会員).}\bioauthor{小早川健}{1993年東北大学理学部物理学科卒業.1995年東京大学理学系研究科物理学専攻修了.同年4月から日本アイ・ビー・エム株式会社.1999年から日本放送協会.音声認識の研究を経て,現在は評判分析の研究に従事.}\end{biography}\biodate\end{document}
V21N01-01
\section{はじめに} \label{intro}\emph{述語項構造解析}の目的は,述語とそれらの項を文の意味的な構成単位として,文章から「誰が何をどうした」という意味的な関係を抽出することである.これは,機械翻訳や自動要約などの自然言語処理の応用において重要なタスクの1つである\cite{Surdeanu:2003:ACL,Wu:EAMT:2009}.\emph{述語}は文の主要部で,他の要素とともに文を構成する\cite{ModernJapaneseGrammar1}.日本語では,述語は品詞によって,形容詞述語・動詞述語・名詞述語の3種類に分けられる.述語が意味をなすためには,補語(主語を含む)が必要であり,それらは\emph{項}と呼ばれる.また,述語と項の意味的関係を表すラベルを\emph{格}と呼ぶ.項は前後文脈から推測できるとき省略\footnote{本稿では,省略を項が述語と直接係り受け関係にないことと定義する.}されることがあり,省略された項を\emph{ゼロ代名詞},ゼロ代名詞が指示する要素を\emph{先行詞}と呼ぶ.この言語現象は\emph{ゼロ照応}と呼ばれ,日本語では項の省略がたびたび起きることから,述語項構造解析はゼロ照応解析としても扱われてきた\cite{Kawahara:2004:JNLP,Sasano:IPSJ:2011}.本稿では,項と述語の\textbf{位置関係}の種類を次の4種類に分類する.述語と同一文内にあり係り受け関係にある項\footnote{ここでの関係は向きを持たない.複数の項が同一の述語と関係を持つこともありうる.},(ゼロ代名詞の先行詞として同一文中に存在する)文内ゼロ,(ゼロ代名詞の先行詞として述語とは異なる文中に存在する)文間ゼロ,および(文章中には存在しない)外界項である.本稿では,それぞれ\emph{INTRA\_D,INTRA\_Z},\emph{INTER},\emph{EXO}と呼ぶ.ある述語がある格にて項を持たないときは,その述語の項は\emph{\rm{ARG}$_{\rm{NULL}}$}だとし,その述語と\emph{\rm{ARG}$_{\rm{NULL}}$}は\emph{NULL}という位置関係にあるとして考える.本稿では,EXOとNULLを総称してNO-ARGと呼ぶ.例えば,\exref{exs-atype}において,「受け取った」と「食べた」のヲ格項「コロッケ」はそれぞれINTRA\_D・INTRA\_Z,「飲んだ」のガ格項「彼女」はINTERで,ニ格項は\emph{\rm{ARG}$_{\rm{NULL}}$}である.\enumsentence{コロッケを受け取った彼女は,急いで食べた.\\($\phi$が)ジュースも飲んだ.}{exs-atype}一般に,項は述語に近いところにあるという特性(近距離特性)を持つ.そのため,これまでの述語項構造解析の研究では,この特性の利用を様々な形で試みてきた.\newcite{Kawahara:2004:JNLP}や\fullciteA{Taira:2008:EMNLP}は項候補と述語の係り受け関係の種類ごとに項へのなりやすさの順序を定義し,その順序に従って項の探索を行った.また,\fullciteA{Iida:2007:TALIP}は述語と同一文内の候補を優先的に探索した.これらの先行研究ではあらかじめ定めておいた項の位置関係に基づく順序に従った探索を行い,項らしいものが見つかれば以降の探索はしない.そのため,異なる位置関係にある候補との「どちらがより項らしいか」という相対的な比較は行えず,述語と項候補の情報から「どのくらい項としてふさわしいか」という絶対的な判断を行わなければならないという問題点がある.そこで,本稿では,項の位置関係ごとに独立に最尤候補を選出した後,それらの中から最尤候補を1つ選出するというモデルを提案する.位置関係ごとに解析モデルを分けることで,柔軟に素性やモデルを設計できるようになる.また,位置関係の優先順序だけでなく,その他の情報(素性)も用いて総合的にどちらがより``項らしい''かが判断できるようになる.本稿の実験では,まず,全ての候補を参照してから解析するモデルと,特定の候補を優先して探索するモデルを比較して,決定的な解析の良し悪しを分析する.また,陽に項の位置関係ごとの比較を行わないモデルや,優先順序に則った決定的な解析モデルと提案モデルを比較して,ガ格・ヲ格ではより高い性能を達成できたことも示す.本稿の構成は以下のようになっている.まず2章で述語項構造解析の先行研究での位置関係と項へのなりやすさの優先順序の扱いについて紹介する.3章では提案手法について詳述し,4章では評価実験の設定について述べる.5章・6章では実験結果の分析を行い,7章でまとめを行う. \section{関連研究} ここでは,述語項構造解析の先行研究における,位置関係と項へのなりやすさの優先順序の扱いについて紹介する.先行研究と提案手法の概要を\tblref{tbl:rwork}にまとめた.\subsection{決定的な解析を行う方法}\subsubsection{優先順序を統計的に求める方法}\begin{savenotes}\begin{table}[b]\caption{先行研究と提案手法の概要}\label{tbl:rwork}\input{01table01.tex}\end{table}\end{savenotes}\newcite{Kawahara:2004:JNLP}は,解析をゼロ代名詞検出と先行詞同定の2段階に分け,統計的に求めた優先順序を先行詞同定の際に用いた.彼らの手法では,まず,格フレーム辞書に基づく格解析によって,ゼロ代名詞の検出を行う.そして,項が存在すると判断された場合は,あらかじめ求めておいた優先順序に従って候補を探索し,候補と格フレーム用例の類似度が閾値以上かつ分類器でも正例と分類される候補を先行詞として同定する.分類器は項の位置関係に関わらず,共通のものを作成した.素性には,格フレームとの類似度や品詞などを用いた.彼らは,従属節,主節,埋め込み文などといった文・文章中の構造をもとに,項の位置関係(彼らは「位置カテゴリ」と呼んだ)を20種類に分類した.彼らは,位置カテゴリごとに,先行詞の取りやすさを\begin{equation}\frac{先行詞がその位置カテゴリにある回数}{その位置カテゴリにある先行詞候補の数}\label{a}\end{equation}でスコア化した.そして,位置カテゴリごとに,京都大学テキストコーパス\cite{Kawahara:2002:LREC}からスコアを算出し,得られたスコアを降順にソートしてそれぞれの格について優先順序を得た.\subsubsection{文内候補を優先的に探索する方法}\label{iida-bact}\newcite{Iida:2007:TALIP}は,先行詞候補とゼロ代名詞の統語的関係をパターン化するために,木を分類するブースティングアルゴリズムBACT\cite{Kudo:2004:IPSJ}を用いた.BACTは木構造データを入力とし,全ての部分木の中から分類に寄与する部分木に対して大きな重みをつける.彼らは,先行詞候補とゼロ代名詞間の係り受け木や,関係を表す素性を,根ノードに子としてつなげてBACTの入力とした.文間先行詞の同定には係り受け関係を利用できないため,彼らは先行詞の同定モデルを文内と文間に分け,文内候補を優先的に探索する以下の方法をとった.\begin{enumerate}\item最尤先行詞同定モデル$M_{10}$で,文内最尤先行詞$C_1^*$を求める\item照応性判定モデル$M_{11}$で,$C_1^*$の先行詞らしさのスコア$p_1$を求める.あらかじめ定めておいた閾値$\theta_{\rmintra}$に対して,$p_1\geq\theta_{\rmintra}$であれば,$C_1^*$を先行詞として決定する.そうでなければ(\ref{iida-inter})に進む.\item最尤先行詞同定モデル$M_{20}$で,文間最尤先行詞$C_2^*$を求める\label{iida-inter}\item照応性判定モデル$M_{21}$で,$C_2^*$の先行詞らしさのスコア$p_2$を求める.あらかじめ定めておいた閾値$\theta_{\rminter}$に対して,$p_2\geq\theta_{\rminter}$であれば,$C_2^*$を先行詞として決定する.そうでなければ,先行詞なしとする.\end{enumerate}$M_{10}\cdotsM_{21}$はそれぞれBACTを使って学習・分類し,パラメータ$\theta_{\rmintra}$と$\theta_{\rminter}$は,開発データを用いて最適なものを求める.この手法では,文内の最尤先行詞同定や照応性判定には文間の候補の情報は参照せずに,決定的に解析している.\subsubsection{優先順位を経験的に決める方法}\newcite{Taira:2008:EMNLP}は,決定リストを用いて全ての格の解析を同時に行う方法を提案した.決定リストは規則の集合に適用順位を付けたものであり,機械学習の結果を人が分析しやすいという特長がある.彼らは項の位置関係やヴォイス・機能語に加えて,単語の出現形・日本語語彙大系\cite{goitaikei}から得られる意味カテゴリ・品詞のいずれか1つを加えたものを組として扱い,それぞれの組を1つの素性とした.そして,述語ごとにSupportVectorMachineの学習で素性の重みを得て,素性を重みでソートしたものを決定リストとした.すなわち,1つの素性を1つの決定リストのルールとして扱った.彼らは項の単位を単語とし,項の位置関係を係り受け関係に基づいて次の7種類に定義している.なお,fwとbwは追加的な種類で,その他の種類と兼ねることができる.\begin{itemize}\itemIncomingConnectionType(ic):項を含む文節が述語を含む文節に係っている\\日米\underline{交渉}$_{ガ:進展}$が\underline{進展}した\itemOutgoingConnectionType(oc):述語を含む文節が項を含む文節に係っている\\衝動\underline{買い}した新刊\underline{本}$_{ガ:買い}$\itemWithintheSamePhraseType(sc):項が述語と同じ文節内にある\\\underline{日}米\underline{交渉}$_{ガ:日}$が\itemConnectionintoOtherCaseroleTypes(ga\_c,wo\_c,ni\_c):項を含む文節が述語を含む文節に,他の格の項を介して係っている\\\underline{トム}$_{ヲ:説得,ga\_c}$への友人$_{ガ:説得}$による\underline{説得}\itemNon-connectionType(nc):項が述語とは異なる文にある\itemForwardType(fw):文章内にて,項が述語の前方にある\itemBackwardType(bw):文章内にて,項が述語の後方にある\end{itemize}実際の解析は,各述語について次の手順で行った.\begin{enumerate}\itemic,oc,ga\_c,wo\_c,ni\_cについて,決定リストを用いて項を決定する\label{firststep}\item(\ref{firststep})で決まらなかった格について,scの決定リストを用いて項を決定する\item対象の述語が項を持つ確率が50\%以上であれば(\ref{laststep})に進む\itemnc,fw,bwに関する決定リストを用いて項を決定する\label{laststep}\end{enumerate}この手法は経験的に,優先順序を\\\hspace{2zw}ic,oc,ga\_c,wo\_c,ni\_c$>$sc$>>$nc,fw,bw\\のように定めたといえる.ic,oc,ga\_c,wo\_c,ni\_c間での,探索の優先関係はない.この方法は,格と項の位置関係を考慮しつつ,項になりやすいものから決めていくのが特徴である.ただし,着目している候補と述語の情報のみを用いて項らしいかどうかを判断していくため,必ずしも全ての候補を参照してから最終的な出力を決定するわけではなく,候補間でどれが項らしいかの相対的な判断は行われない.\subsubsection{述語と係り受け関係にある候補を優先的に項であるとみなす方法}\newcite{Sasano:IPSJ:2011}は,解析対象述語の格フレーム候補それぞれに対して,次の手順で格フレームと談話要素の対応付け候補を生成した.\begin{itemize}\item解析対象述語と直接係り受け関係にある談話要素を,選ばれた格フレームの格スロットと対応付ける.談話要素が係助詞をともなって出現した場合や,被連体修飾節に出現した場合など,複数の格スロットとの対応付けが考えられる場合は,考えうるすべての対応付けを生成する.\item上記の処理で生成された対応付け候補に対し,対応付けられなかったガ格・ヲ格・ニ格と,解析対象述語と係り受け関係にない談話要素の対応付けを行う.\end{itemize}そして,対数線形モデルにて最も確率的評価が高い対応付けを解析結果として出力した.素性には,意味クラスや固有表現情報の他に,出現格と出現位置に関する85個の2値素性も用いた.この手法では,格ごとに独立に解析を行なっているのではなく,同時に解析を行なう.しかし,述語と係り受け関係にある候補を優先的に項であるとみなすため,係り受け関係にある候補と,係り受け関係にない候補または他の文にある候補との比較は行えない.\subsection{優先順序を素性として表現する方法}位置関係と項へのなりやすさの関係を優先順序として利用し決定的な解析を行うのではなく,素性として利用した研究もある.\subsubsection{最大エントロピー法を用いる方法}\newcite{Imamura:2009:ACL}は,最大エントロピー法に基づく識別的モデルを用いた.彼らは,位置関係ごとにモデルを分けるのではなく,素性として,述語と候補の位置関係,係り受け関係を用いた.そして候補集合に,項を持たないことを示す特別な名詞句NULLを加え,その中から最尤候補を同定するというモデル化を行った.なお,候補数削減のため,文間項候補は述語を含む文の直前の文に出現したものと,これまでの解析ですでに項として同定されたものに限定している.この方法では格ごとにモデルは1つだけ学習すればよい.ただし,この手法では,候補間の関係を素性として用いることはできない.\subsubsection{MarkovLogicを用いる方法}\newcite{Yoshikawa:2013:JNLP}は,MarkovLogicを利用して,文内の複数の述語の項構造解析を同時に行う手法を提案した.MarkovLogicは一階述語論理とMarkovNetworksを組み合わせたもので,一階述語論理式の矛盾をある程度のペナルティの上で認めることができる統計的関係学習の枠組みである.彼らは項同定・項候補削減・格ラベル付与を同時に行うモデルを提案した.彼らは,文間の項候補を加えるのは計算量の問題から困難だとしている.素性(観測述語)は述語と候補の係り受け関係などを用いた. \section{述語と項の位置関係ごとの候補比較による日本語述語項構造解析} \label{sec:sca}先行研究では,優先順位の低い位置関係にある候補は参照されずに,解析が行われていた.この方法は,優先順位の高い位置関係にある項の同定の性能は上げることができるが,優先順位の低い位置関係にある候補の再現率は下げてしまうという問題点がある.また,優先順位の低い位置関係にある候補も参照してから最終的な決定を行った方が,全体的な解析性能が向上すると考える.そこで我々は,\emph{探索}と\emph{トーナメント}の2つのフェーズからなる,位置関係ごとに最尤候補を求めてから最終的な出力を決めるモデルを提案する.これは,「探索」・「分類」という2つのフェーズを持つ探索先行分類型モデル\cite{Iida:2005:TALIP}に着想を得て,後半の分類フェーズをトーナメント式に置き換えたものである.なお,このモデルは格ごとに解析器を学習・使用する.\subsection{項構造解析における探索先行トーナメントモデル}\subsubsection{探索}はじめのフェーズでは任意の項同定モデルを用いてINTRA\_D,INTRA\_Z,INTERの最尤候補を選出する.それぞれ異なる素性やモデルを用いてもよい.モデルには,述語と探索対象の候補を入力として与え,探索対象の候補の中の1つを出力させる.\subsubsection{トーナメント}次のフェーズでは探索フェーズで得られた3つの最尤候補を入力とし,そのうちの1つか``NO-ARG''を出力する.これにより,最尤候補のうちどれが正解項であるか,もしくは項を持たないかを判断する.このフェーズは\figref{fig:anap-tournament-model}に示したように(a)から(c)の3つの2値分類モデルで構成される.なお,予備実験にて異なる順序を試したが,文内最尤候補同士を(a)にて直接比較できるこの順序の性能が最も高かった.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item[(a)]INTRA\_DとINTRA\_Zを比較して,よりその述語の項らしい方を選ぶ\item[(b)]INTERと(a)で選出された候補を比較して,よりその述語の項らしい方を選ぶ\item[(c)](b)で選出された候補と``NO-ARG''を比較して,よりその述語の項らしい方を選ぶ\end{itemize}(a)から(c)の分類器の学習事例には,Algorithm\ref{alg:train}で示すように探索フェーズで得られた最尤候補を用いる.\begin{figure}[t]\begin{center}\includegraphics{21-1ia1f1.eps}\end{center}\caption{トーナメントフェーズでの,位置関係が異なる候補からの項の同定}\label{fig:anap-tournament-model}\end{figure}\subsection{提案手法の関連研究}提案手法は2つのモデルを参考にしている.1つ目は名詞句の照応解析における\emph{探索先行分類型モデル(selection-then-classificationmodel)}\cite{Iida:2005:TALIP}である.このモデルは最初に,最尤先行詞を求める(彼らはこれを``探索''と呼んだ).次に,その最尤先行詞を用いて,名詞句が実際に照応詞であるかどうかを判定する(彼らはこれを``分類''と呼んだ).このモデルの利点は,照応性を持たない名詞句も学習事例の生成に使えることである.彼らは実験で,最尤先行詞を用いて照応性判定を行ったほうが,最尤先行詞を用いない場合よりも高い性能が出ること確かめた.提案手法も,位置関係ごとに最尤候補を求めた後,どの候補が実際に項であるのかを判定する.最尤候補の探索を先に行なうことで,位置関係ごとの最尤候補を学習事例の生成に用いることができる.2つ目はゼロ照応解析における\emph{トーナメントモデル}\cite{Iida:2004:IPSJ}である.そのモデルは,全ての先行詞候補(実際には先行する全ての名詞句)のペアに対して,どちらがより先行詞らしいかの2値分類を繰り返す.トーナメントモデルの利点は候補間の関係性の素性を使うことができる点である.提案手法のトーナメントフェーズでも同様に,トーナメントモデルを用いて,位置関係ごとに選出された最尤候補のペアからどちらが正解項らしいかの2値分類を繰り返し,候補間の比較を行うことができる.\begin{algorithm}[p]\caption{分類器(a)classifier\_a,(b)classifier\_b,(c)classifier\_cの学習事例の作成アルゴリズム}\label{alg:train}\begin{algorithmic}\Procedure{train}{predicate,gold\_argument,candidates}\Stategold\_argument\_type$\leftarrow$getArgumentType(predicate,gold\_argument)\\\Comment{正解項の位置関係を取得する}\\\State\Comment{位置関係ごとに最尤候補を取得する}\Statemost\_likely\_candidate\_INTRA\_D$\leftarrow$getMostLikelyCandidate(predicate,candidates,INTRA\_D)\Statemost\_likely\_candidate\_INTRA\_Z$\leftarrow$getMostLikelyCandidate(predicate,candidates,INTRA\_Z)\Statemost\_likely\_candidate\_INTER$\leftarrow$getMostLikelyCandidate(predicate,candidates,INTER)\\\If{gold\_argument\_type=NO\_ARG}\StateMakeExample(classifier\_c,NO\_ARG,predicate,most\_likely\_candidate\_INTRA\_D)\StateMakeExample(classifier\_c,NO\_ARG,predicate,most\_likely\_candidate\_INTRA\_Z)\StateMakeExample(classifier\_c,NO\_ARG,predicate,most\_likely\_candidate\_INTER)\State\textbf{return}\EndIf\\\StateMakeExample(classifier\_c,HAVE\_ARG,predicate,gold\_argument)\If{gold\_argument\_type=INTRA\_D}\StateMakeExample(classifier\_a,INTRA\_D,predicate,gold\_argument,\\\hspace*{88pt}most\_likely\_candidate\_INTRA\_Z)\StateMakeExample(classifier\_b,INTRA,predicate,gold\_argument,most\_likely\_candidate\_INTER)\ElsIf{gold\_argument\_type=INTRA\_Z}\StateMakeExample(classifier\_a,INTRA\_Z,predicate,gold\_argument,\\\hspace*{88pt}most\_likely\_candidate\_INTRA\_D)\StateMakeExample(classifier\_b,INTRA,predicate,gold\_argument,most\_likely\_candidate\_INTER)\ElsIf{gold\_argument\_type=INTER}\StateMakeExample(classifier\_b,INTER,predicate,gold\_argument,most\_likely\_candidate\_INTRA\_D)\StateMakeExample(classifier\_b,INTER,predicate,gold\_argument,most\_likely\_candidate\_INTRA\_Z)\EndIf\State\textbf{return}\EndProcedure\\\Procedure{MakeExample}{classifier,label,predicate,candidate1,candidate2}\\\Comment{candidate2は省略できる}\State項候補candidate1,candidate2が照応関係にあれば事例は作成しない.\State述語predicateと項候補candidate1,candidate2に対して,素性集合$F$を取得する.\State学習器classifierに対して,$F$を用いて,labelをラベルとする学習事例を1つ作成する.\EndProcedure\end{algorithmic}\end{algorithm} \section{評価実験} \label{experiment}\subsection{実験データセット}評価実験にはNAISTテキストコーパス1.4$\beta$\cite{Iida:2010:JNLP}を用いた.これは京都大学テキストコーパス3.0\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus3.0.tar.gz}}を基にしており,述語項構造,事態性名詞の項構造,共参照に関する情報が約40,000文の新聞記事にわたって付与されている.なお,アノテーションの誤りのため6記事\footnote{除外した文書ID:951230038,951225057,950106156,950106034,951221047,950106211}を除外した.このコーパスの記事を\tblref{tbl:corpus-statics}で示すように学習・開発(パラメータチューニング)・評価のために3分割した.これは,\newcite{Taira:2008:EMNLP}や\newcite{Yoshikawa:2013:JNLP}と同じ分割方法である.\tblref{tbl:corpus-arg-dist}に項の分布の統計情報を示す\footnote{SAME\_BSは項と述語が同一文節であることを示す.}.\begin{table}[b]\caption{NAISTテキストコーパスの統計情報}\label{tbl:corpus-statics}\input{01table02.tex}\end{table}\begin{table}[b]\caption{NAISTテキストコーパスにおける項の分布}\label{tbl:corpus-arg-dist}\input{01table03.tex}\end{table}\subsection{実験設定}実験では,MeCab0.996・IPADIC-2.7.0-20070801で解析して得られた形態素情報,京都大学テキストコーパス3.0で付与されている文節情報,CaboCha0.66で解析して得られた係り受け関係を用いた.項の候補は文節単位で抽出した.解析は文頭から文末の順で行い,述語を含む文以降からは項候補を抽出しない.なお,ある述語の格についての解析結果は同じ述語の他の格についての解析に影響を及ぼさない.本稿では項同定に焦点を絞るため,述語同定タスクには取り組まない.言い換えると,どれが述語であるかはあらかじめシステムに与えておく.述語には軽動詞「する」や複合動詞も含む.最尤候補同定には,トーナメントモデル\cite{Iida:2004:IPSJ}を用いた.その際,最尤候補の探索範囲ごとに異なるモデルを作成し,モデルの学習方法も\cite{Iida:2004:IPSJ}に従った.例えば,提案手法は探索フェーズではINTRA\_D,INTRA\_Z,INTERの最尤候補を同定するが,それぞれ異なる合計3つの解析モデルを最尤候補同定に用いる.\subsection{分類器と素性}\label{sec:feature}探索フェーズ・トーナメントフェーズで用いる分類器には,SupportVectorMachine\cite{Cortes:1995:ML}を線形カーネルで用いた.具体的にはLIBLINEAR1.93\footnote{\url{http://www.csie.ntu.edu.tw/~cjlin/liblinear/}}の実装を用い,開発データを用いたパラメータチューニングを行った.素性には\citeA{Imamura:2009:ACL}で用いられたものとほぼ同一の素性を用いた.\begin{itemize}\item述語・項候補の主辞・機能語・その他の語の出現形・形態素情報\item述語が受け身の助動詞を含むときはその原形\item係り受け木上の述語と項候補の関係\footnote{\citeA{Imamura:2009:ACL}では,どのような素性表現に落とし込んだかは詳述されていない.}\\係り受け木上の項候補ノード$N_a$と述語ノード$N_p$からそれぞれROOT方向に辿っていくときに初めて交叉するノードを$N_c$とし,$N_a$から$N_c$までの道のりに含むノード列を$A_{a\cdotsc}$,$N_p$から$N_c$までの道のりに含むノード列を$A_{p\cdotsc}$とする.また,$N_c$から木のROOTまでの道のりに含むノード列を$A_{c_1,c_2,\cdotsc_r}$とする.本実験では,ノード列の文字列表現として,\begin{itemize}\item主辞の原形\item主辞の品詞\item機能語の原形\item機能語の品詞\item機能語の原形$+$機能語の品詞\end{itemize}の5通りを用いた.$A_{a\cdotsc}$の文字列表現を$S_{a\cdotsc}$,$A_{p\cdotsc}$の文字列表現を$S_{p\cdotsc}$とし,それらの連結を$S_{a\cdotsc}+S_{p\cdotsc}$とする.素性には,$S_{a\cdotsc}+S_{p\cdotsc}$,$S_{a\cdotsc}+S_{p\cdotsc}+S_{c_1}$,$S_{a\cdotsc}+S_{p\cdotsc}+S_{c_1,c_2}$,$\cdots$$S_{a\cdotsc}+S_{p\cdotsc}+S_{c_1,c_2,\cdots,c_r}$の$r+1$個の文字列を用いた.つまり.述語と項候補の関係を$5(r+1)$個の文字列で表現した.\item係り受け木上の2つの項候補の関係\\上と同様の素性表現を行った.\item述語と項候補・2つの項候補間の距離(文節単位・文単位ともに)\item「述語・項候補の主辞・助詞」のコーパス中の共起スコア\footnote{\citeA{Imamura:2009:ACL}では,これに相当するものとして,GoodTuringスムージングを施した共起確率を用いている.計算はNAISTテキストコーパス相当部分を除いた1991〜2002年の毎日新聞を用いた.}\\動詞と項の共起のモデル化は\cite{Fujita:2004:IPSJ}に従った.名詞$n$が格助詞$c$を介して動詞$v$に係っているときの共起確率$P(\langlev,c,n\rangle)$を推定するため,$\langlev,c,n\rangle$を$\langlev,c\rangle$と$n$の共起とみなす.共起尺度には自己相互情報量\cite{Hindle:1990:ACL}を用いた.\[PMI(\langlev,c\rangle,n)=\log\frac{P(\langlev,c,n\rangle)}{P(\langlev,c\rangle)P(n)}\]なお,スムージングは行わなかった.自己相互情報量の算出には次の2つのコーパスを用い,2つの値をそれぞれ二値素性として\footnote{値が$x$以下のときのみ発火する素性.実際には,$x$を$-4$から$4$まで$0.1$刻みで変化させた素性を用いた.}用いた.\\[0.5\Cvs]\textbf{NEWS:}1995年を除く1991年から2003年までの毎日新聞約1,800万文.MeCab0.98\footnote{\url{https://code.google.com/p/mecab/}}で形態素解析を行いCaboCha0.60pre4\footnote{\url{https://code.google.com/p/cabocha/}}で係り受け解析を行った.辞書はNAISTJapaneseDictionary0.6.3\footnote{\url{http://sourceforge.jp/projects/naist-jdic/}}を用いた.約2,700万対の$\langle$動詞,格助詞,名詞$\rangle$の組を抽出した\footnote{動詞が約3万種,名詞が約32万種で,ユニーク数は約700万組.}.\\[0.5\Cvs]\textbf{WEB:}\newcite{Kawahara:2006:LREC}がウェブから収集した日本語約5億文.JUMAN\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}}で形態素解析を行い,KNP\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}}で係り受け解析を行なっている.KNPの項構造解析結果から約53億対の$\langle$述語,格助詞,項$\rangle$の組を抽出した\footnote{動詞が約8億種,項が約2.8億種で,ユニーク数は約1.6億組.}.\item項候補が以前の項構造解析で項となったか否かを示す2値情報\item項候補の主辞のSalientReferenceList\cite{Nariyama:2002:TMI}における順位\end{itemize}\subsection{比較対象}先行研究では,我々のものと異なる素性や機械学習の手法を使っており実験設定が異なる.そのため,ベースラインモデルとしてIIDA2005,比較対象モデルとしてIIDA2007・IIDA2007$+$・PPR$-$を実装し,位置関係ごとに最尤候補を求めてから最終的な出力を決める提案モデルPPR(PreferencesbasedonPositionalRelations)と比較する.\subsubsection{IIDA2005}位置関係に関わらずに,全ての候補の中から最尤の候補を探索フェーズで1つ選出した後,トーナメントフェーズでそれが項としてふさわしいか否かを判断するモデル.\cite{Iida:2005:TALIP}の探索先行分類型モデルである.全ての候補の中から1つを選ぶという点で\cite{Imamura:2009:ACL}とほぼ同等のモデルである.彼らのモデルと異なる主な点は,最尤候補同定と照応性判定を異なるモデルで行う点と,最尤候補同定時に2候補間の関係性も素性として用いる点である.このベースラインモデルとその他のモデルと比較することで,項の位置関係によって探索の優先順序をつけることの効果や,位置関係ごとに最尤候補同定モデルを作り最尤候補同士の比較を陽に行う効果を調べる.\subsubsection{IIDA2007}文内最尤候補を選出した後,分類器が項としてふさわしいと判断すればそれを項として出力し,そうでなければ同様に文間候補の探索を行うモデル.\secref{iida-bact}で述べた\cite{Iida:2007:TALIP}の文内候補を優先的に探索するモデルである.彼らのモデルと異なる主な点は,最尤候補同定や候補の適格性判定を行う分類器にBACTではなくSVMを用いる点である.IIDA2005と比較することで,文内候補を優先的に探索することの効果を調べる.\subsubsection{IIDA2007$+$}INTRA\_Dの探索後,最尤候補が項としてふさわしいかどうかの判断(適格性判定)を行う.適格であればそれを出力し終了する.非適格であればINTRA\_Zの探索を行い,同様に適格性判定を行う.それも非適格であればINTERの探索を行い,適格であればそれを出力し,非適格であれば項は無いと判断する.IIDA2005とIIDA2007の自然な拡張で,述語から統語的な距離の近いものを優先的に探索する.IIDA2007と比較することで,文内候補を細かくINTRA\_DとINTRA\_Zに分けて優先順序をつけることの効果を調べる.\subsubsection{PPR$-$}このモデルは,提案モデルとほぼ同じモデルであるが,INTRA\_DとINTRA\_Zを区別せずに,位置関係がINTRAとINTERの2グループであると仮定する.\figref{fig:anap-tournament-model}の(b)と(c)で示すようにトーナメントフェーズは2つの2値分類モデルからなる.分類器(c)はINTRAとINTERの候補のどちらが最尤候補であるかを判断する.PPRと比較することで,文内の項の位置関係を細かくINTRA\_DとINTRA\_Zに分けて最尤候補同定モデルを作り,最尤候補同士の比較を行うことの効果を調べる.\subsubsection{比較対象とする先行研究}NAISTテキストコーパスを使い,全ての項の位置関係で実験を行なっている\cite{Taira:2008:EMNLP}と\cite{Imamura:2009:ACL}との比較も行う.ただし,本実験とは微妙に実験設定が異なるため,厳密な比較はできないことに注意してほしい.\citeA{Taira:2008:EMNLP}の実験では19,501個の述語をテストに,49,527個を学習に,11,023個を開発に使っている.また学習では京都大学テキストコーパス4.0で付与されている係り受け情報と形態素情報を用いていているが,テストでは独自の係り受け解析器を用いている.\citeA{Imamura:2009:ACL}の実験では,25,500個の述語をテストに,67,145個を学習に,13,594個を開発に使っている.我々は京都大学テキストコーパス3.0を用いたが,\citeA{Imamura:2009:ACL}は京都大学テキストコーパス4.0で付与されている係り受け情報と形態素情報を学習とテストに用いている.\subsubsection{その他の先行研究}\citeA{Sasano:IPSJ:2011}は,提案システムは表層格の解析を行うことから,受け身・使役形である述語は評価から除外しており,本稿では比較対象としない.\citeA{Yoshikawa:2013:JNLP}は,文間項は解析対象としていないため,本稿では比較対象としない.\cite{Watanabe:JSAI:2010}は述語語義と項の意味役割の依存関係を考慮しながら,双方を同時に学習,解析を行う構造予測モデルを提案している.しかし,本稿とは異なるデータセットを用いていることから,比較対象とはしない.\subsection{評価尺度}Precision,Recall,F値で位置関係ごとに評価を行う.システムが出力した位置関係が$T$であるもののうち,正しく同定できているものの数を$tp_{(T)}$,できていないものの数を$fp_{(T)}$,システムに同定されなかった項のうち位置関係が$T$であるものの数を$fn_{(T)}$とすると,\[Precision=\frac{tp_{(T)}}{tp_{(T)}+fp_{(T)}},\quadRecall=\frac{tp_{(T)}}{tp_{(T)}+fn_{(T)}},\quadF=\frac{2\cdotPrecision\cdotRecall}{Precision+Recall}\label{as}\]と定義できる.また,システム全体(ALL)の$tp,fp,fn$とPrecision,Recall,F値も,同様に定義できる. \section{議論} \tblref{tbl:result-ga},\ref{tbl:result-wo},\ref{tbl:result-ni}にガ格・ヲ格・ニ格の実験結果を示す.$P$,$R$,$F$,$A_M$はそれぞれPrecision,Recall,F値,F値のマクロ平均(INTRA\_D,INTRA\_Z,INTERのF値の算術平均)を示す.\begin{table}[tb]\caption{ガ格の述語項構造解析の比較}\label{tbl:result-ga}\input{01table04.tex}\end{table}\begin{table}[tb]\caption{ヲ格の述語項構造解析の比較}\label{tbl:result-wo}\input{01table05.tex}\end{table}\begin{table}[tb]\caption{ニ格の述語項構造解析の比較}\label{tbl:result-ni}\input{01table06.tex}\end{table}ALLのF値に関して,PPR$-$とPPRがIIDA2007と比較して有意差があるかどうかの検定をTakamuraによるスクリプト\footnote{\url{http://www.lr.pi.titech.ac.jp/~takamura/pubs/randtest_fm.pl}}を用いてApproximateRandomizationTest\cite{Chinchor:1993:CL}を行った\footnote{このTestを行うためにはシステムの出力によらずに事例の正解ラベルを定める必要があるため,「項あり」のときにシステムが誤った出力した場合は,$fp$ではなく,$fn$として扱った.}.0.05水準で有意であったものに,記号$^{*}$を付記した.\subsection{決定的に項を同定していくモデルの比較}\label{sec:discussion-determin}IIDA2005,IIDA2007,IIDA2007+のALLのF値を比較することで,システム全体の性能について論じる.\subsubsection{ガ格の性能}ALLの性能を比較すると,ガ格の性能はIIDA2007$>$IIDA2005$>$IIDA2007+である.IIDA2007とIIDA2005の性能を比較すると,PrecisionはIIDA2007の方が高く,RecallはIIDA2005の方が高い.探索範囲を文内に限定することで,Precisionが上がることが分かる.IIDA2007のINTERのRecallは減少しているが,文間項よりも文内項の方が3倍以上多いため,システム全体の性能としては向上することが分かる.IIDA2005とIIDA2007+の性能を比較すると,INTRA\_Dを優先的に探索することで,INTRA\_DのPrecisionが上昇し,F値も上昇することが分かる.INTRA\_ZのPrecisionも上昇するが,Recallは悪化し,INTRA\_Zの分量が相当数あるため,全体としては性能が悪化することが分かる.\subsubsection{ヲ格の性能}ガ格と同様であるが,INTRA\_Zの数は比較的少ないためINTRA\_Dを優先的に探索しても,精度はガ格ほど悪化しない.\subsubsection{ニ格の性能}ニ格の性能はガ格・ヲ格とは異なり,IIDA2007+$\simeq$IIDA2007$>$IIDA2005である.この傾向は項の分布が影響している.ニ格は\tblref{tbl:corpus-arg-dist}によると全ての項のうち,全体の90\%以上がINTRA\_Dである.このため,INTRA\_Dの探索を優先し,INTRA\_DのRecallを上昇させることで,全体としての性能を上昇させることができる.\subsection{提案手法の効果}決定的な解析では優先度の低い位置関係にある候補の再現率とF値が低下するため,優先順序をつけるほどマクロ平均は下がっていく.しかし,提案手法は全ての位置関係について最尤候補を比較するので,マクロ平均を大きく下げずにマイクロ平均(ALLのF値)も向上させることができている.PPRとPPR$-$のいずれも,IIDA2005・IIDA2007・IIDA2007$+$より性能が向上している.そのため,トーナメントフェーズで最尤候補を陽に比較する提案モデルは,決定的に項を同定していくモデルよりも効果があるといえる.また,PPRはPPR$-$と比較して,ガ格・ニ格では性能はほとんど変わないが,ヲ格ではINTRA\_DのPrecisionが向上したため,全体の性能も向上していることが分かる.そのため,文内項もINTRA\_DとINTRA\_Zで,最尤候補の同定モデルを分けて陽に比較することで,さらに性能を向上することがあると分かる.\subsection{先行研究との比較}\label{result:prevwork}ガ格において,提案手法は\citeA{Taira:2008:EMNLP}と\citeA{Imamura:2009:ACL}の性能を上回っている.\citeA{Imamura:2009:ACL}は候補同士の比較をせず,\citeA{Taira:2008:EMNLP}は優先順序を用いた決定的な解析を行なっており,それらが,提案手法と比べて性能が低い原因であると考える.ヲ格では,提案手法は\citeA{Taira:2008:EMNLP}の性能を上回っており,\citeA{Imamura:2009:ACL}とも同程度の性能を達成している.しかしながら,ニ格では,\citeA{Taira:2008:EMNLP}が最も性能が高い.\citeA{Imamura:2009:ACL}も,ガ格・ヲ格では\citeA{Taira:2008:EMNLP}を上回る性能を発揮しているのにも関わらず,ニ格では\citeA{Taira:2008:EMNLP}よりも性能が低い.この理由として,ニ格はINTRA\_Dが最も多く,他の格の解析結果に依存することが挙げられる.一般に,1つの述語に対して異なる格で項を共有することはない.しかし,提案手法も\citeA{Imamura:2009:ACL}も各格で独立に解析を行なっており,他の格の解析結果の利用ができない.一方,\citeA{Taira:2008:EMNLP}は「項を含む文節が述語を含む文節に,他の格の項を介して係っている」という関係をモデル化(ga\_c,wo\_c,ni\_c)し,他の格の解析結果を利用して同時に解析を行なっている.そのため,INTRA\_Dの解析性能が高いと考えられる. \section{事例分析} \subsection{成功事例}\subsubsection{特定の位置関係を優先する決定的な解析モデル(IIDA)では解析できず,提案モデル(PPR)で解析できた事例}\begin{table}[b]\caption{IIDA2007(各セル左側)・PPR$-$(同中央)・PPR(同右側)のガ格の誤り事例のConfusionMatrix}\label{tbl:confusion-matrix-ga}\input{01table07.tex}\end{table}位置関係の優先順序を用いる決定的な解析モデルの中で,全体的な性能が最も高いIIDA2007と,優先順位を持たない提案モデル(PPR$-$・PPR)を比較すると,INTERのPrecisionが少し低下しているが,Recallは上昇し,F値も上昇している.ガ格の解析にて,IIDA2007・PPR$-$・PPRが解析に誤った事例の内訳を\tblref{tbl:confusion-matrix-ga}にConfusionMatrixで示した.PPR$-$やPPRでは,誤ってINTERを出力した事例が増えており(3列目を参照),一方で,誤って「項なし」と判断した事例が減っていることが分かる(4列目を参照).IIDA2007は文間の候補を参照せずに,文内最尤候補が項らしいか否かを判定しなければならないが,PPR$-$やPPRは文内最尤候補と文間最尤候補を比較した上で,項として何が適切かを判断できるため,INTERのRecallを上昇させることができたと考える.そして,これが全体の性能に影響している.\subsubsection{2種類の最尤候補を用いるモデル(PPR$-$)では解析できず,3種類の最尤候補を用いる提案モデル(PPR)で解析できた事例}PPR$-$とPPRを比較すると,ガ格はINTRA\_DとINTRA\_ZのPrecisionとF値が上昇しており,ヲ格はINTRA\_DのPrecisionとF値が,上昇している.PPRはINTRA\_Dの最尤候補同定モデルとINTRA\_Zの最尤候補同定モデルの2つの異なるモデルでINTRA\_DとINTRA\_Zの最尤候補を選んでから,陽にINTRA\_DのINTRA\_Zのどちらが項らしいかを比較することで,正解項を同定しやすくなっていると考えられる.これは,特に(候補数が増加する)長い文の中にある文内項の同定に効果があった.\enumsentence{一九五二年以来の不平等が続いている「日米航空協定」の平等化を実現するため、\underline{「政府}$_{ガ}$が米側に、米航空会社の新規路線開設を今後\underline{認め}ない強硬\underline{方針}を通告していたことが、十三日明らかになった。}{ex-ok2}「認める」のガ格に対して,PPR$-$では誤って「方針」を項として出力したが,PPRは正しく「政府」を出力した.\subsection{誤り分析}項構造解析に失敗した事例を分析したところ,誤り理由の上位3つは次のものであった.1つ目は,談話の理解が必要な場合である.以下の文で,「絡みつく」のニ格は「ユリカモメ」である.しかし,システムはニ格は項なしと判断してしまった.\enumsentence{東京・上野の不忍池で、無残な姿の鳥が目立つ。片足が切れたユリカモメ。釣り糸を引っ掛けて取れなくなって、そのうちに足を切断してしまうケースが多い。竹ぐしが右の首に突き刺さった\underline{ユリカモメ}$_{ニ}$も。くしが十センチほど体の外にのぞく。水面に浮かんだ\underline{ゴム}$_{ガ}$が\underline{絡み付き}、もがくうちに首まで入ってしまったらしい。}{error-1}「ユリカモメ」が話題の中心であることが捉えられなかったことが解析に失敗した理由として考えられる.今回の実験で,談話を捉えるために,SalientReferenceListを用いたが,「絡み付く」の解析時に「ユリカモメ」はListには無いため,うまくいかない.これを解析するためには,「ユリカモメは負傷している」「絡み付くは負傷に関する述語である」という知識のもとで,「ユリカモメが絡み付くのニ格である」という推論が必要となる.その知識を本文中から取得するには,「鳥」や2回出てくる「ユリカモメ」が照応関係にあるという知識も必要となることから,固有表現解析や共参照解析などと推論を用いた述語項構造解析を同時に行うことで互いに精度を高めあうことができると考える.2つ目は,格フレームなどの情報を使った格の同時解析が必要な場合である.次の文の「書く」のニ格は「日記」・ヲ格は「矛盾」とアノテートされているが,システムはニ格は「項なし」・ヲ格は「日記」と判断した.\enumsentence{\underline{日記}$_{ニ}$には、小説の読後感や将来への夢、希望などをつづるようになり、高校生になると、大学受験のこと、沖縄における政治の\underline{矛盾}$_{ヲ}$なども\underline{書く}ようになった。}{error-2}一般に,「書く」のニ格に「日記」が来ることは少ない.しかし,京都大学格フレーム\cite{Kawahara:2005:NLP}\footnote{\url{http://www.gsk.or.jp/catalog/GSK2008-B/catalog.html}}のような格フレーム辞書を用いれば,「書く」は「日記」をニ格にとりうることがわかる.\tblref{tbl:kaku-case}に京都大学格フレームにおける「書く」の第1格フレームと第3格フレームを示した.この表は,それぞれの格フレームを構成する格がどのような項をどのくらい取るのかを,WEBコーパス内の頻度付きで表している.\tblref{tbl:kaku-case}より,ヲ格に``補文''(ここでは「沖縄における政治の矛盾」)をとれば,「問い」をニ格にとりうる,とわかる.\begin{table}[b]\caption{京都大学格フレームにおける「書く」の第1・第3格フレーム}\label{tbl:kaku-case}\input{01table08.tex}\end{table}3つ目は,一般の述語とは異なる扱いをすべき述語の場合である.NAISTテキストコーパスでは名詞述語『名詞句$+$コピュラ「だ」』も述語としてアノテーションされている.\enumsentence{\underline{欧州連合}$_{ガ}$が十五カ国に拡大して初の交渉となる。昨年は欧州市場での乗用車の売れ行き回復を受け、規制枠を若干上方修正したが、今年については「昨年の新車登録台数集計を踏まえて対応したい」と\underline{慎重姿勢だ}。}{ex-c}しかしながら,名詞述語の振る舞いは他の述語とは明らかに異なり,同一の素性・モデルで項を同定するのは難しい.そのため,他の述語の解析モデルと分けるべきであると考える.実際に,PPRを,名詞述語とそれ以外の述語で単純に解析モデルを分けて学習・テストしたところ,\tblref{tbl:result-copula-ga}に示したように\footnote{「全ての述語」は「名詞述語」と「その他の述語」からなる.}ガ格のALLのF値が77.59から77.75と0.16ポイント上昇した.大きな上昇がみられなかったのは,項と名詞述語の意味的関係を既存の素性ではうまく捉えられないためだと考える.名詞述語文の働きは様々で,「ラッセルは哲学者だ」のようにある事物がどのような範疇に属するのかを述べたり,「この部屋の温度は19度だ」のように記述を満たす値がどれなのかを述べたりする\cite{Imada:2010:DThesis}.このような関係は\secref{sec:feature}での素性では捉えられない.そのため,京都大学名詞格フレーム\cite{Sasano:2005:JNLP}や日本語語彙大系\cite{goitaikei}などの名詞間の関係を捉える知識を用いる必要があると考える.\begin{table}[t]\caption{名詞述語とそれ以外の述語とでモデルを分けた場合のガ格の性能の比較}\label{tbl:result-copula-ga}\input{01table09.tex}\end{table}また,動詞にも一般動詞とは異なる振る舞いをする動詞「なる」の解析誤りも多かった.\enumsentence{山花氏らにとっては、社会党が離脱を認めるか\underline{どうか}$_{ガ}$が、最初の\underline{関門}$_{ニ}$と\underline{なる}。}{error-naru1}\enumsentence{\underline{長さ}$_{ガ}$\underline{\mbox{40メートル}}$_{ニ}$にも\underline{なる}3両編成の大型トラック、ロードトレインに便乗して大乾燥地帯を行く蛭子。}{error-naru2}\enumsentence{福井市の中心から足羽川を上流へ十キロたどると、\underline{そこ}$_{ガ}$はもうひなびた農村の\underline{たたずまい}$_{ニ}$と\underline{なる}。}{error-naru3}これらの事例の「なる」自体には意味はあまり持たず,ニ格が名詞述語相当の意味を持っているとも言える.そのため,名詞述語同様,解析モデルを分けるべきであると考える. \section{おわりに} 本稿では,位置関係ごとに最尤候補同定モデルを作成し,実際の解析時には,各位置関係の最尤候補の中から最終的な出力を選ぶモデルを提案した.従来の研究では位置関係ごとに優先順位をつけ,決定的な解析を行ってきたが,それよりも提案手法が精度良く解析できることを確かめた.今後の課題は,複数の格の解析を同時に行う手法と,本手法を統合させることを考えている.これまでに,同時解析を行うモデルは\newcite{Taira:2008:EMNLP}や\newcite{Sasano:IPSJ:2011}によって提案されてきたが\footnote{\newcite{Yoshikawa:2013:JNLP}を文間候補を考慮するように発展させるのは計算量の問題から困難だと考える.},いずれも,特定の位置関係を優先的に決定する手法である.それらの手法を,異なる位置関係の候補を参照するように発展させることを考えている.また,名詞述語などの特殊な述語については,一般の述語とは解析モデルを分けることで,精度向上を目指すことも考えている.これらは名詞間の意味的知識がなければ解析が難しいことが分かったので,日本語語彙大系などのシソーラスを活用することを考えている.\acknowledgmentウェブから収集した日本語文データを使用させてくださった河原大輔氏に感謝いたします.また,\citeA{Taira:2008:EMNLP}の詳細なアルゴリズムを教えてくださった平博順氏にお礼申し上げます.そして,多数の有益なコメントをくださった匿名の3名の査読者に深謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chinchor,Hirschman,\BBA\Lewis}{Chinchoret~al.}{1993}]{Chinchor:1993:CL}Chinchor,N.,Hirschman,L.,\BBA\Lewis,D.~D.\BBOP1993\BBCP.\newblock\BBOQ{EvaluatingMessageUnderstandingSystems:AnAnalysisoftheThirdMessageUnderstandingConference(MUG-3)}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(3),\mbox{\BPGS\409--449}.\bibitem[\protect\BCAY{Cortes\BBA\Vapnik}{Cortes\BBA\Vapnik}{1995}]{Cortes:1995:ML}Cortes,C.\BBACOMMA\\BBA\Vapnik,V.\BBOP1995\BBCP.\newblock\BBOQ{Support-VectorNetworks}.\BBCQ\\newblock{\BemMachinelearning},{\Bbf20}(3),\mbox{\BPGS\273--297}.\bibitem[\protect\BCAY{藤田\JBA乾\JBA松本}{藤田\Jetal}{2004}]{Fujita:2004:IPSJ}藤田篤\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock自動生成された言い換え文における不適格な動詞格構造の検出.\newblock\Jem{情報処理学会論文誌},{\Bbf45}(4),\mbox{\BPGS\1176--1187}.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{Hindle:1990:ACL}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQ{NounClassificationfromPredicate-ArgumentStructures}.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\268--275}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{飯田\JBA乾\JBA松本}{飯田\Jetal}{2004}]{Iida:2004:IPSJ}飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock文脈的手がかりを考慮した機械学習による日本語ゼロ代名詞の先行詞同定.\newblock\Jem{情報処理学会論文誌},{\Bbf45}(3),\mbox{\BPGS\906--918}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{Iida:2010:JNLP}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock{述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から}.\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2005}]{Iida:2005:TALIP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2005\BBCP.\newblock\BBOQ{AnaphoraResolutionbyAntecedentIdentificationFollowedbyAnaphoricityDetermination}.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf4}(4),\mbox{\BPGS\417--434}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{Iida:2007:TALIP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQ{Zero-anaphoraResolutionbyLearningRichSyntacticPatternFeatures}.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf6}(4),\mbox{\BPGS\1:1--1:22}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{今田}{今田}{2010}]{Imada:2010:DThesis}今田水穂\BBOP2010\BBCP.\newblock\Jem{日本語名詞述語文の意味論的・機能論的分析}.\newblock博士(言語学)学位論文,筑波大学.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{Imamura:2009:ACL}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQ{DiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution}.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing},\mbox{\BPGS\85--88}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2004}]{Kawahara:2004:JNLP}河原大輔\JBA黒橋禎夫\BBOP2004\BBCP.\newblock自動構築した格フレーム辞書と先行詞の位置選好順序を用いた省略解析.\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara:2005:NLP}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara:2006:LREC}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{CaseFrameCompilationfromtheWebusingHigh-PerformanceComputing}.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{Kawahara:2002:LREC}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQ{ConstructionofaJapaneseRelevance-taggedCorpus}.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2008--2013}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2004}]{Kudo:2004:IPSJ}工藤拓\JBA松本裕治\BBOP2004\BBCP.\newblock半構造化テキストの分類のためのブースティングアルゴリズム.\newblock\Jem{情報処理学会論文誌},{\Bbf45}(9),\mbox{\BPGS\2146--2156}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{Nariyama:2002:TMI}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQ{GrammarforEllipsisResolutioninJapanese}.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation},\mbox{\BPGS\135--145}.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2010}]{ModernJapaneseGrammar1}日本語記述文法研究会\BBOP2010\BBCP.\newblock\Jem{現代日本語文法1}.\newblockくろしお出版.\bibitem[\protect\BCAY{笹野\JBA河原\JBA黒橋}{笹野\Jetal}{2005}]{Sasano:2005:JNLP}笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock名詞格フレーム辞書の自動構築とそれを用いた名詞句の関係解析.\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\129--144}.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2011}]{Sasano:IPSJ:2011}笹野遼平\JBA黒橋禎夫\BBOP2011\BBCP.\newblock大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析.\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3328--3337}.\bibitem[\protect\BCAY{Surdeanu,Harabagiu,Williams,\BBA\Aarseth}{Surdeanuet~al.}{2003}]{Surdeanu:2003:ACL}Surdeanu,M.,Harabagiu,S.,Williams,J.,\BBA\Aarseth,P.\BBOP2003\BBCP.\newblock\BBOQ{UsingPredicate-ArgumentStructuresforInformationExtraction}.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\lowercase{\BVOL}~1,\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{Taira:2008:EMNLP}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQ{AJapanesePredicateArgumentStructureAnalysisUsingDecisionLists}.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{渡邉\JBA浅原\JBA松本}{渡邉\Jetal}{2010}]{Watanabe:JSAI:2010}渡邉陽太郎\JBA浅原正幸\JBA松本裕治\BBOP2010\BBCP.\newblock述語語義と意味役割の結合学習のための構造予測モデル.\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\252--261}.\bibitem[\protect\BCAY{Wu\BBA\Fung}{Wu\BBA\Fung}{2009}]{Wu:EAMT:2009}Wu,D.\BBACOMMA\\BBA\Fung,P.\BBOP2009\BBCP.\newblock\BBOQ{CanSemanticRoleLabelingImproveSMT?}\BBCQ\\newblockIn{\BemProceedingsofthe13thAnnualConferenceoftheEuropeanAssociationforMachineTranslation},\mbox{\BPGS\218--225}.\bibitem[\protect\BCAY{吉川\JBA浅原\JBA松本}{吉川\Jetal}{2013}]{Yoshikawa:2013:JNLP}吉川克正\JBA浅原正幸\JBA松本裕治\BBOP2013\BBCP.\newblockMarkovLogicによる日本語述語項構造解析.\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\251--271}.\end{thebibliography}\begin{biography}\bioauthor{林部祐太}{2009年大阪大学基礎工学部情報科学科中途退学.2011年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同研究科博士後期課程在籍.修士(工学).意味解析とその応用に興味をもつ.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2010年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授,現在に至る.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜1985年英国インペリアルカレッジ客員研究員.1985〜1987年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.言語処理学会,情報処理学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.情報処理学会フェロー,ACLFellow.}\end{biography}\biodate\end{document}
V26N03-02
\section{序論} 世界的に高齢化が進む中,高齢者の社会からの孤立は特に深刻な課題である.内閣府の調査では,65歳以上の高齢者のうち夫婦または単身で生活している高齢者の割合は56.9\%で,子ども世代と同居している高齢者の割合の39\%に比べて高くなっている\cite{naikakufu1}.また,60歳以上を対象にした「対面だけではなくメールや電話も含めてどのぐらいの頻度で他者と対話するか」という調査では,一人暮らしの高齢者のうち男性では7.5\%,女性では4.9\%が週に1度以下しか他人と会話しないという結果が出ている\cite{naikakufu2}.このような社会的な背景から,高齢者の話し相手となる対話システムの研究が盛んにおこなわれており,高齢者の話を聴く傾聴対話システム\cite{lala2017attentive,sitaoka2017}や,高齢者の孤独を和らげるシステム\cite{sidner2013always}など,話題を限定せずに高齢者と自然に対話できるシステムが提案されている.このような対話システムが人の代わりに高齢者と対話することで,高齢者の孤独を紛らわせることができるかもしれないが,高齢者と他者とのコミュニケーションが不足しているという本質的な課題は解決できない.一方,老年学や老年医学では,高齢者の健康状態の理解やケアのあるべき姿が研究されており,QualityofLife(QOL)という概念が注目されている.QOLとは,高齢者の健康状態を肉体的・精神的・社会的な側面から多面的に評価するための尺度である.高齢者の健康状態をQOLでとらえることにより,肉体的な状態だけでなく高齢者の感情や状況などを評価することで,高齢者に合ったケアが実現できると報告されている\cite{Marja2009QOL,Ylva2001QOL}.また,ICTを活用して高齢者の心身状況を家族や介護士などと共有する仕組みに関する実証も進められている\cite{uchiyama2006}.この研究の中で,内山らは,介護における関係者間のコミュニケーションモデルのあり方について「関係者間にヒエラルキがあると,気後れや遠慮などのために自由な意思に基づくコミュニケーションが阻害される.医療における医者−患者モデルはその典型とされているが,介護にもコンシューマ(利用者)−サービス提供者間,また家庭内でも家族−本人間で必ずしも対等でない関係が存在し,さらに立場の相違からくる見解の相違が存在する.そうした中で納得や信頼を醸成するには,立場の上下のない,水平型のコミュニケーションが必要となる.」と述べている.このことから,高齢者と家族とができるだけ対等な立場で高齢者のQOLを共有することは重要な要素である.高齢者のQOLを共有する方法として,家族から高齢者に対しQOLに関する質問を投げかけるという方法も考えられるが,家族の質問の仕方によっては内山らの指摘する「上下関係」を発生させる可能性がある.そこで我々は,高齢者と離れて住む家族との日常的なコミュニケーションを通じて自然に高齢者のQOLを家族へ伝えることで,高齢者と家族とのコミュニケーションの質の向上と,活性化を実現するようなシステムの構築をすすめている\cite{tokuhisa}.図\ref{dialog1}に,我々が目標とする高齢者と家族との対話例を示す.図\ref{dialog1}(A)の「かわいいね.」は応答としては適切であるが,高齢者のQOLは娘へ伝わらない.一方で図\ref{dialog1}(B)の「でも私は最近肩こりで頭痛がするから無理だわ.」は高齢者のQOLを表出する応答であり,これにより高齢者のQOL(ここでは健康状態が良くないこと)が娘に伝わったことで「大丈夫?連休には帰るから肩もみするね.」というQOLに配慮した娘の発話が誘発されている.\begin{figure}[b]\begin{center}\includegraphics[scale=1.1]{26-3ia2f1.eps}\end{center}\caption{(A)通常の対話と(B)本研究の目標の対話}\label{dialog1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f2.eps}\end{center}\hangcaption{QOL表出発話を誘発するための返信補助システム.「返信候補」から返信を選択すると,「返信メッセージ」に選択した内容が入力される.返信候補の中に高齢者の所望する候補がない場合は,高齢者が自分で返信を記述したり,返信候補を編集することもできる.上記は「かわいいね.」と「折り紙を見つけたら買って送るね.」という返信候補が選択された様子を示している.}\label{system}\end{figure}我々は以前の研究で,家族と高齢者とのメールのやりとりを対象として,\begin{enumerate}\itemQOL表出発話(高齢者のQOLを推定するのに有用な手がかりを含んだ発話)とはどのような特徴を持つ発話か\itemシステムの支援のない状態でQOL表出発話がどのようにやりとりされていて,システムはどんな支援をすべきか\end{enumerate}を分析した\cite{tokuhisa}.その結果,上記の(1)については,高齢者が主体となり高齢者の行動や状態を表す発話が高齢者のQOL表出発話になりやすいことが明らかとなった.また,上記の(2)については,家族からのメールに対する高齢者の返信のうち85.7\%(3,574発話中3,064発話)が家族が主体となる発話(e.g.かわいいね.)で,高齢者が主体となる発話(e.g.私は最近肩こりで頭痛がするから無理だわ.)はわずか6.4\%(3,574発話中229発話)であることが明らかとなった\footnote{なお,家族と高齢者の両方が主体となる発話(e.g.今度一緒にやろう)は3,574発話中69発話であった.本論文では「家族と高齢者の両方が主体となる発話」は,「家族が主体となる発話」や「高齢者が主体となる発話」には含まずに割合を算出している.}.この結果を受けて,高齢者が主体となり自らのQOLを伝達するような返信を生成することを,システムにより補助することを考える.具体的には,図\ref{system}のように,「私もやってみようかな.」「折り紙を見つけたら買って送るね.」「でも私は最近肩こりで頭痛がするから無理だわ.」といった高齢者が主体となるQOL表出発話を応答のヒントとして高齢者に提示することで,高齢者を刺激し,システムの支援のない状態では記述されない高齢者のQOL表出発話を誘発するような返信補助システムを目指している.本システムは,高齢者と家族との過去のコミュニケーションで家族に伝達されていないQOLカテゴリおよび家族が特に知りたがっているQOLカテゴリに関するQOL表出発話を優先的に返信候補として提示することで,高齢者のQOLを家族への伝達を補助する役割を果たすものと想定している.たとえば,過去のコミュニケーションで経済的な情報がやりとりされていない場合は高齢者の経済的な余裕の有無がわかるようなQOL表出発話を返信候補として提示し,家族が高齢者の健康状態を知りたがっている場合には健康状態に関するQOL表出発話を提示する.できるだけ文脈にあった候補を提示することは,システムの支援がない状態では家族に伝えられない高齢者のQOL表出発話を誘発できる可能性が高くなると考える.本研究では,このようなシステムの構築に向けて,QOL表出発話候補の生成を試みる.本論文で述べる貢献は以下の2点である.\begin{enumerate}\item大規模なQOLラベルつき対話コーパスの構築に向けて,高齢者が主体となる高齢者のQOL表出発話を大規模に収集するためのコーパス収集方法を提案する.提案するコーパス収集に関してふたつの予備実験を実施し,a)本論文で提案するコーパス収集の方法の有用性を示すとともに,b)本論文で提案するコーパス収集の方法でも40代・50代のクラウドワーカから模擬的に高齢者の発話を収集できることを示す.\item構築したQOLラベルつき対話コーパスを用いて,QOLラベルにより特定のQOL情報を伝達するように制御しながら,高齢者のQOLを伝達する応答を生成する.これにより,近年提案されている条件付き文生成技術がどの程度適切なQOL表出発話が生成できるか,また返信補助システムの実現に向けて残る技術的な課題は何か,を明らかにする.\end{enumerate} \section{QOLラベルつき対話コーパスの構築} \label{sec:corpusconst}\subsection{QOLラベルつき対話コーパス構築のための予備実験}\label{sec:pre-exp}\subsubsection{予備実験1:高齢者が主体となるQOL表出発話の収集}\label{subsubsec:pre-exp1}図\ref{system}のようなシステムにおいてQOL表出発話の候補を生成するために,まずはじめに高齢者の返信として想定する高齢者が主体となるQOL発話からなるコーパスを構築したい.このとき,構築するコーパスはできるだけ規模が大きく質が高いことが望ましい.しかし,前述した通り,家族からのメールに対する高齢者の返信は,特別なコントロールのない状態では家族が主体となる発話が85.7\%で,高齢者が主体となる発話はわずか6.4\%であることが以前の分析から明らかとなっている\cite{tokuhisa}.したがって,高齢者が主体となるQOL表出発話を大規模に収集するためには適切な教示が必要と考えられる.そこで,本論文では,図\ref{yobi1:kyouji}に示す設問\footnote{教示の際の注意事項は4点である.注意事項1は高齢者が主体となるQOL表出発話を記述させるための教示で,注意事項2はやりとりとして適切な応答を記述させるための教示である.また,注意事項3は40代・50代のクラウドワーカに高齢者の立場になって回答してもらうための教示で,注意事項4はポジティブな応答とネガティブな応答の両方を記述させるための教示である.予備調査の結果,注意事項2がない場合はQOL表出発話ではあるものの応答としては適切でない応答が記述されたり,注意事項4がない場合はポジティブな応答ばかりが記述されたりしたことから,このような教示を設計した.}と,図\ref{yobi1:kyouji2}に示すチェック設問\footnote{チェック設問とは,あらかじめ正解が定められた設問のことである.チェック設問に正しく回答できたクラウドワーカのみを採用することができる.}とを用いた教示を提案する.図\ref{yobi1:kyouji}の『注意事項1:「私は」「おじいちゃんは」などを主語にして,「高齢者の行動や状態や感情を表す返信」を1文で書いてください.』は,高齢者が主体となるQOL表出発話を記述させるための教示である.この教示は,以前の我々の分析\cite{tokuhisa}で,QOL表出発話である発話には高齢者の行動や状態を表す発話が多いという特徴が明らかになったことから設計した.さらに,図\ref{yobi1:kyouji2}に示すチェック設問を用いて,クラウドワーカが教示内容を理解しているかどうかを確認する.チェック設問を活用してタスクを教示することで,タスクを正しく理解したクラウドワーカの回答のみを採用することができる.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f3.eps}\end{center}\caption{高齢者が主体となるQOL表出発話を収集するための設問}\label{yobi1:kyouji}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f4.eps}\end{center}\caption{高齢者が主体となるQOL表出発話を収集するためのチェック設問}\label{yobi1:kyouji2}\end{figure}本論文で我々が提案したコーパス収集方法の有用性を評価するため,提案方法により実際に高齢者が主体となるQOL表出発話が収集できるかどうかを確かめる.具体的には,以前の分析\cite{tokuhisa}で用いたメールと同じ6通のメール(表\ref{tab:familymail})を用いて,図\ref{yobi1:kyouji}および図\ref{yobi1:kyouji2}に示す方法で発話を収集する.クラウドワーカは40代・50代382名(男性187名,女性195名)\footnote{発話収集自体は合計400名(男性200名,女性200名)で実施したが,18名(男性13名,女性5名;全体の4.5\%)は倫理的に不適切な内容を記載していたことから,分析対象から除外した.}である.なお,クラウドワーカの年齢は,クラウドソーシング\footnote{Yahoo!クラウドソーシング(https://crowdsourcing.yahoo.co.jp/)を用いた.}のプロフィールにより確認した.収集された発話に対してアノテータ\footnote{以前の分析の際に,2名のアノテータによりタグ付与作業の信頼性を評価した結果,主体タグについては$\kappa=0.94$でほぼ完全な一致であった.本研究では,以前の分析でも主体タグの付与を行ったアノテータAが一名でタグを付与する.}が表\ref{tab:syutaitag}に示す主体タグを付与した.また,ひとつの応答に複数の発話が含まれる場合は,それぞれの発話に対して主体タグを付与した\footnote{応答は1文で記載するよう教示したが,回答の中には複数文で回答された事例もあったため,ひとつの応答に複数の発話が含まれる場合はそれぞれの発話に主体タグを付与した.}.結果を図\ref{yobi1:result}に示す.図\ref{yobi1:result}の「コントロールなし」は以前の我々の分析結果で,図\ref{yobi1:result}の「提案手法によるコーパス収集」は本論文で提案したコーパス収集方法(図\ref{yobi1:kyouji}および図\ref{yobi1:kyouji2})により発話を収集した結果である.図\ref{yobi1:result}が示す通り,以前の我々の分析では高齢者が主体となる発話は6.4\%(3,574発話中229発話)であったのに対し,本論文で提案したコーパス収集方法を適応した場合には89.2\%(4,717発話中4,207発話)まで増加した.このことから,本論文で提案した教示を用いたコーパス収集は,高齢者が主体となり高齢者の行動や状態を表す発話が収集に効果的であることが示された.\begin{table}[p]\caption{予備実験に用いた家族からのメール}\label{tab:familymail}\input{02table01.tex}\end{table}\begin{table}[p]\caption{主体タグの定義}\label{tab:syutaitag}\input{02table02.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-3ia2f5.eps}\end{center}\caption{予備実験1:収集した発話の主体タグの割合}\label{yobi1:result}\end{figure}\subsubsection{予備実験2:実際の高齢者の発話と高齢者を模擬した40代・50代の発話の比較}大量の発話データを収集する方法として,クラウドソーシングを用いる方法が多くの研究で採用されている\cite{crowd2015}.しかし,高齢のクラウドワーカが十分に存在しないことから,クラウドソーシングで高齢者の発話データを大量に収集することは容易ではない.我々は,以前の研究で65歳以上のクラウドワーカから収集した発話と40代・50代\footnote{両親が65歳以上の可能性が高い年代として40代・50代のクラウドワーカを選んだ.}のクラウドワーカから収集した発話を比較し,第三者がこれらの発話を識別することが困難であることを示した\cite{tokuhisa}.この結果は,高齢者の代わりに高齢者を模擬した40代・50代のクラウドワーカを用いることで,大規模なコーパスが収集できる可能性が示唆している.しかし,図\ref{yobi1:kyouji}のように教示が複雑になった場合でも,65歳以上の高齢者から収集した発話と40代・50代から収集した発話が類似するかどうかは明らかではない.特に,高齢者の行動や状態や感情を記述するという指示について,40代・50代が高齢者のことを十分模擬して発話を記述できるかどうかは明らかでない.そこで我々は,これらを明らかにするため,以下のふたつのグループに対して予備的な発話収集を行い,両者の違いについて分析する.\begin{table}[b]\caption{GroupA(一般の65歳以上の男女10名)の年齢と性別}\label{yobi2:age}\input{02table03.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f6.eps}\end{center}\hangcaption{GroupAの発話収集の実施風景.左の写真は67歳女性と72歳男性,右の写真は71歳女性と71歳男性である.実験に参加した10名のうち,最年少は65歳女性,最高齢は89歳男性であった.}\label{jikkenpic}\end{figure}\begin{description}\item[GroupA:]一般の65歳以上の男女10名(男性3名,女性7名)を対象に発話を収集する.発話収集に参加した高齢者の年齢と性別を表\ref{yobi2:age}に,実施風景を図~\ref{jikkenpic}に示す.収集は高齢者の自宅で実施し,年齢は本人に直接対面して確認した.なお,キーボードが利用できない高齢者がいたことと,オペレータを介さずご自身の言葉で回答していただくため,設問を紙に印刷して収集を行う.また,夫婦で回答する場合は,お互いに話し合わずに独立に発話を記述するよう指示した.発話収集に参加した高齢者は,図\ref{yobi1:kyouji}に示すように,ひとつのメールに対してポジティブとネガティブの返信を記述する.表\ref{tab:familymail}に示す6通のメールに対する返信を図\ref{yobi1:kyouji}の設問を用いて,高齢者ひとりあたり12個の応答,10名で合計120個の応答を収集した.\item[GroupB:]2.1.1項の予備実験1を実施した40代・50代のクラウドワーカ382名から,男女10名(男性3名,女性7名)を無作為に選んで40代・50代のクラウドワーカの発話として利用する.男女の比率はGroupAにそろえた.表1に示す6通のメールに対する返信を図\ref{yobi1:kyouji}の設問を用いて,各クラウドワーカあたり12個の応答,10名で合計120個の応答を収集した.\end{description}\begin{table}[b]\caption{メール1に対するGroupAとGroupBの返信の一部}\label{tab:uttexample1}\input{02table04.tex}\end{table}GroupAとGroupBから収集した発話の一部を表\ref{tab:uttexample1}と表\ref{tab:uttexample2}に示す.表\ref{tab:uttexample1}は表\ref{tab:familymail}のメール1に対する返信で,表\ref{tab:uttexample2}は表\ref{tab:familymail}のメール2に対する返信である.\begin{table}[p]\caption{メール2に対するGroupAとGroupBの返信の一部}\label{tab:uttexample2}\input{02table05.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-3ia2f7.eps}\end{center}\hangcaption{一対比較の画面の例.返信Aと返信Bのどちらに実際の高齢者の発話を対応させるかはランダムとした.上記の例では,返信AはGroupA(65歳以上の実際の高齢者)が書いた発話で返信BはGroupB(40代・50代のクラウドワーカが高齢者を模擬して書いた発話)である.}\label{fig_ittui2}\end{figure}収集したこれらの発話を一対比較にし,発話収集に参加したクラウドワーカとは別のクラウドワーカが「実際の高齢者が書いた発話」を正しく識別できるかどうかを調べた.図~\ref{fig_ittui2}に一対比較の画面を示す.返信Aと返信Bのどちらに「実際の高齢者の発話」を対応させるかはランダムとし,各設問に対して3名のクラウドワーカが独立に評価した.結果を図~\ref{fig_ittuig}に示す.図~\ref{fig_ittuig}の「正解」は返信Aと返信Bのどちらが実際の高齢者の発話かを正しく判断できたクラウドワーカの数を,「不正解」は正しく判断できなかったクラウドワーカの数を,「わからない」は図~\ref{fig_ittui2}の一対比較で選択肢「実際の高齢者が書いた返信は,返信Aと返信Bのどちらか分からない」を選択したクラウドワーカの数を示す.実際の高齢者の発話を正しく回答できたのは39.2\%(3,600発話中1,411発話)であり,不正解の回答数と大きな差がないことから,「実際の高齢者が書いた発話」と「40代・50代のクラウドワーカが高齢者を模擬して書いた発話」の識別は困難であったと考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f8.eps}\end{center}\hangcaption{実際の高齢者の発話と40代・50代のクラウドワーカが高齢者を模擬して書いた発話の一対比較による識別の評価結果}\label{fig_ittuig}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f9.eps}\end{center}\caption{65歳以上の高齢者の返信と40代・50代のクラウドワーカが高齢者を模擬した返信の内容の比較}\label{fig_eyuttanalysis}\end{figure}また,高齢者の行動や状態や感情を記述するという指示について両者が記述した内容に違いがあるかどうかを調べるため,GroupAとGroupBの発話を行動・状態・感情とに分類した.ひとつの応答に複数の発話が含まれる場合は,それぞれの発話を行動・状態・感情に分類した.また,ひとつの発話に複数の内容が含まれる場合は,「行動+感情」のように複数のタグを付与した.結果を図\ref{fig_eyuttanalysis}に示す.図\ref{fig_eyuttanalysis}が示す通り,行動・状態・感情の割合に顕著な差は確認されなかった.これらの結果から,本論文で提案したコーパス収集方法は,65歳以上の高齢者の発話と類似の発話が40代・50代のクラウドワーカから収集できることが示唆された.40代および50代のクラウドワーカであれば十分な数が存在するため,40代および50代のクラウドワーカから疑似的に高齢者の発話を収集することにより,クラウドソーシングを用いて65歳以上の高齢者の発話を大規模に収集できると考えられる.次節では,本節で得られた知見を用いた大規模なQOLラベルつき対話コーパスの構築について論じる.\subsection{QOLラベルつき対話コーパスの構築}\label{sec.corpus_construction}\ref{sec:pre-exp}節では,QOLラベルつき対話コーパス構築における高齢者の発話収集について述べた.本節では,QOLラベルつき対話コーパスの構築の全体の手順について説明する.我々の提案するQOLラベルつき対話コーパスの構築手順を以下に示す.\begin{description}\item[手順1.家族の発話収集:]両親と離れて住む40代および50代のクラウドワーカから家族の発話を収集する.クラウドワーカには,自分の両親にメールを書くつもりで2〜3文で発話を書くよう教示した.なお,予備調査の際,クラウドソーシングを実施する時期と収集される発話の話題に偏りが見られたため,さまざまな話題に関する発話を収集することを目的として「子どもの学芸会について,日常の家事について,花見について,紅葉狩りについて」など,さまざまな季節や場面をこちらから指定し,クラウドワーカは指定された話題のメールを記述した.\item[手順2.高齢者の発話収集:]手順1で収集したさまざまな話題の家族からのメールを1文ずつに分割した上で,\ref{sec:pre-exp}節で述べた方法で40代および50代のクラウドワーカから高齢者の発話を模擬的に収集する.図\ref{yobi1:kyouji}に示す通り,クラウドワーカは各メールに対してポジティブな返信とネガティブな返信を記述する.クラウドワーカへの教示は以下の4点である.\begin{enumerate}\item「私は」「おじいちゃんは」「おばあちゃんは」など\footnote{メールを受け取った高齢者が,メールを書いた家族の父親であるか母親であるかについてはランダムとし,記述される発話の話者の性別が偏らないようにした.}を主語にして,「高齢者の行動や状態や感情を表す返信」を1文で書く.\item「家族からのメール」の指定された発話の内容にあった返信を書く.\itemあなたの父親もしくは母親がこのメールを受け取った設定で,あなたの父親もしくは母親のつもりで返信を書く.\itemポジティブとネガティブを間違えないようにする.\end{enumerate}\ref{subsubsec:pre-exp1}項で述べた通り,上記の4点の教示はタスク実施時(図\ref{yobi1:kyouji})と,チェック設問(図\ref{yobi1:kyouji2})でクラウドワーカに提示する.チェック設問を用いてタスクの内容を説明することで,タスクを正しく理解できたクラウドワーカのみを採用できると考えられる.なお,図\ref{yobi1:kyouji2}に示すようなチェック設問を複数用意し,クラウドワーカひとりあたり3問のチェック設問を提示した.\item[手順3.QOLラベル付与:]手順2で収集した高齢者の発話に対して,3名のクラウドワーカが独立に表\ref{tab:qollabel}に示すQOLラベルを付与した\footnote{予備調査の結果,手順2の注意事項4がない場合はポジティブな応答ばかり記述されたことから注意事項4を追加し,ポジティブとネガティブの応答が均等に収集されるようにした.手順3ではポジティブとネガティブのどちらの欄に記述された応答であるかに関わらず,表\ref{tab:qollabel}の12種類から適切なQOLラベルを付与する.}.これらのラベルは太田らのQOLの6項目の尺度(生活活動力,健康満足感,人的サポート満足感,経済的ゆとり満足感,精神的健康,精神的活力)をもとに定義したものである\cite{oota2001}.太田らは,65歳以上の2,944名を用いてQOLの尺度の構成要素の妥当性を評価した結果,高齢者のQOL評価に必要な基本的な要素が備えられていることが確認されたと報告している.高齢者のQOLを家族に伝達する場合に,どのような粒度のQOLを伝達すべきかは議論の余地があるが,本研究では太田らが定義したQOLの尺度を参考にしてQOLラベルを定義した.なお,ひとつの発話に複数のQOLラベルが付与できる場合はすべてのQOLラベルを付与した.\item[手順4.QOLラベルの選定:]手順3で付与したQOLラベルのうち,2名以上が付与したQOLラベルを当該発話のQOLラベルとして採用する.収集した高齢者の発話のうち,2名以上が一致したQOLラベルがない発話はQOLラベルつき対話コーパスには登録しない.その結果,52,079発話に対して81,228個(1発話あたり1.6個)のQOLラベルが付与されたQOLラベルつき対話コーパスが構築された.\end{description}\begin{table}[t]\caption{QOLラベルと定義}\label{tab:qollabel}\input{02table06.tex}\vspace*{-0.5\Cvs}\end{table}表\ref{qolexample}にQOLラベルつき対話コーパスの例を示す.表\ref{qolexample}の「家族の発話」は手順1で収集した家族の発話を,表\ref{qolexample}の「高齢者の発話」は手順2で収集した高齢者の発話を,表\ref{qolexample}の「QOLラベル」は手順3および手順4で3名中2名のクラウドワーカが付与したQOLラベルを示す.\begin{table}[t]\caption{QOLラベルつき対話コーパスの例}\label{qolexample}\input{02table07.tex}\end{table} \section{QOLラベルつき対話コーパスを用いたQOL表出発話の生成} 本章では,\ref{sec:corpusconst}章で構築したQOLラベルつき対話コーパスを用いてQOL表出発話の生成実験をおこない,その結果を報告する.ここで生成するQOL表出発話は,図\ref{system}に示す高齢者向け返信補助システムで高齢者に提示される返信候補としての利用を想定している.図\ref{system}のシステムで提示する返信候補には,その候補を目にすることがきっかけで,高齢者が自身のQOL状態を顧みること,該当するQOL状態に気づくこと,高齢者が自身のQOL状態を相手に伝えようと思うことを補助する役割を期待している.そのため,ここで生成する応答は,高齢者が応答として適切と感じて自然に選択したくなるような発話であり,かつそこから特定のQOLが読み取れるような発話であることが望ましい.本章では,我々の目的に合致するいくつかの既存手法により応答生成実験をおこない,生成結果を評価する.生成した応答が先行発話に対して適切であるか,および特定のQOLを表出するかを人手評価により確かめる.\subsection{条件付き対話応答生成実験}本論文では,特定のQOL情報を伝達するように制御しながら高齢者のQOLを伝達する方法として,生成ベースと用例ベースの二通りの方法を用いて応答生成をおこなった.それぞれの手法について,詳細を以下で述べる.\subsubsection*{生成ベース応答生成}近年の機械学習ベースの対話応答生成システムでは,高性能な応答生成モデルとしてsequencetosequence(seq2seq)\cite{seq2seq2014nips,vinyals2015conv}が注目されている.Seq2seqをベースとした方法により生成される応答は,入力発話に対して流暢かつ適切な内容であることが多数報告されている\cite{sordoni2015conv,li2016persona,akama2017gen,emnlp2017att,wu2018neural,nlp2018sato}.Liらはseq2seqをベースに,学習時および応答生成時に話者情報の埋め込み表現をデコーダへ合わせて入力することで生成を制御し,話者に条件付けられた内容を含んだ応答を生成する方法を提案している\cite{li2016persona}.我々はLiらの手法を参考に,図\ref{fig:structure}に示す方法でQOLに関する制御をおこない,特定のQOLを表出する発話を生成する.図\ref{fig:structure}のモデルは,入力発話を$X=(x_1,\dots,x_T)$,生成応答を$Y=(y_1,\dots,y_{T'})$として,次のように定式化される:\begin{align}\label{eq:prob}p(Y|X,q)=\prod_{t=1}^{T'}p(y_t|X,y_{<t},q)\end{align}ここで,$T,T'$はそれぞれ入力発話および生成応答の文字列長である.デコーダの各時刻では,前時刻までの出力$y_{<t}$およびQOLラベル$q$を用いて次の単語$y_t$の予測をおこなう.応答生成時には,入力発話$X$および表出させたいQOLのラベル$q$をモデルに与えることで,特定のQOL情報を伝達する応答$Y$が生成されることを期待する.この方法を\texttt{S2S-QOL}と表記する.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f10.eps}\end{center}\caption{QOLラベルを用いた条件付き対話応答生成.デコーダの各時刻でQOL情報(青色)を入力する.}\label{fig:structure}\end{figure}\subsubsection*{用例ベース応答生成}本研究のように高品質かつ比較的データ数の少ないデータを扱う応答生成手法として,用例ベースの手法も考えられる\cite{isbell2000aaai,ritter2011emnlp,sordoni2015conv}.用例ベースの応答生成は,与えられた発話$X$に対して,用例データベース$\mathcal{D}$から最も適切な応答$\widetilde{Y}$を選択する問題である.$\widetilde{Y}$の選択方法は複数あるが,本研究では$X$と$\widetilde{X}$の類似度を算出し,最も類似する$\widetilde{X}$を含む$(\widetilde{X},\widetilde{Y})\in\mathcal{D}_q$の$\widetilde{Y}$を発話$X$に対する応答$Y$として獲得するシンプルな方法を採用する:\begin{equation}\widetilde{Y}=\argmax_{(\widetilde{X},\widetilde{Y})\in\mathcal{D}_q}sim(X,\widetilde{X})\end{equation}ここで,$\mathcal{D}_q$は特定のQOLラベル$q$が付与されたペアのみからなる用例データベースであり,QOLラベルごとに全12種類の用例データベースを保持しておく.生成時に任意のQOLラベル$q$を指定すると,指定されたQOLラベルの用例ベース$\mathcal{D}_q$からのみ応答を選択する.また,$sim(・)$は2つの文の類似度を返す関数で,ここではコサイン類似度を用いた.文のベクトル表現の獲得には,一般的に広く利用される埋め込み手法のひとつであるword2vec\cite{mikolov13iclr}と,前後の文脈をよく捉えた埋め込み表現を与えるELMo\cite{peters2018naacl}の二通りの方法を用いた.これら二通りの方法をそれぞれ\texttt{W2V-QOL},\texttt{ELMo-QOL}と表記する.\subsection{実験}\label{sec:experiment}構築したQOLラベルつき対話コーパスを用いて,応答生成実験をおこなった.生成した応答について定性的な分析と人手による主観評価をおこない,生成をQOLラベルで条件付けできているか(特定のQOLを表出する発話が生成できているか)を確かめる.コーパス全体の95\%を訓練データ,5\%をテストデータとして用いた.\subsubsection*{\texttt{S2S-QOL}モデルの設定}12種類のQOLラベルは固定12次元の$\{0,1\}$バイナリベクトルで表現し,これをデコーダへの入力に用いた.エンコーダおよびデコーダを隠れ層512次元の2層LSTM\cite{hochreiter1997lstm},単語ベクトルを512次元とし,訓練データを最大100周学習した.パラメータ最適化にはAdam\cite{kingma2015adam}を用いた.\ref{sec:vannila_seq2seq}節で用いる純粋なseq2seqモデル\cite{seq2seq2014nips}(\texttt{S2S})の学習にも同様のモデルパラメータおよび学習方法を用いた.\subsubsection*{\texttt{W2V-QOL},\texttt{ELMo-QOL}モデルの設定}\texttt{W2V-QOL}は,配布されている学習済みword2vecモデル\footnote{https://github.com/Kyubyong/wordvectors.Wikipediaから抽出したデータで学習済み.}を利用した.単語ベクトルの次元数は300であった.ある文に含まれるすべての単語に対応する単語ベクトルの平均を文ベクトル(300次元)とし,これを類似度の算出に用いた.\texttt{ELMo-QOL}は,wikipediaから抽出したデータでモデルを学習し,512次元の単語ベクトルを獲得した.\texttt{W2V-QOL}と同様の方法で文ベクトル(512次元)を構築し,これを類似度の算出に用いた.それぞれのQOLラベルに対応する12種類の用例データベースは,訓練データから作成した(各QOLラベルに対応する用例データベースのサイズについては付録Aを参照されたい).\subsubsection*{テストセットの用意}応答生成に用いるテストセットとして,2種類のデータを用意した.ひとつは,$\mathcal{S}_{10-l12}$である.まず構築したコーパスのテストデータから,家族の発話(QOL表出発話の先行発話)を無作為に10発話抽出した.たとえば,「着くとすぐに本を読んでいるよ」「今日は,1日かけて角煮を作りましたがとっても美味しくできました.」「私はウオーキングにハマっています.」などの家族の発話が得られた.これらの発話に対して表\ref{tab:qollabel}で定義した12種類のQOLラベルで条件づけを行い(家族の発話,\textbf{QOLラベル})の組を作成した.10発話それぞれに12種類のQOLラベルを対応させ,最終的に合計120の組を$\mathcal{S}_{10-l12}$として獲得した.ひとつの発話に対して12種類のQOLラベル通りの応答が生成できるかを評価する目的で$\mathcal{S}_{10-l12}$を使用する.上述の$\mathcal{S}_{10-l12}$では,家族の発話各々について,12種類すべてのQOLラベルに相当する応答を無理に生成するタスクになっている.しかし,これは必ずしも自然な設定ではない.たとえば,家族の発話「私はウオーキングにハマっています.」に対してQOL状態《経済的ゆとり満足感(positive)》を表出するような自然な応答を思い浮かべるのは簡単ではなく,実際,\ref{sec:corpusconst}章で述べたクラウドソーシングではこのラベルに対応する応答例は得られていない.そこで,上述のテストデータから(家族の発話,高齢者の発話,QOLラベル)の三つ組を無作為に100組抽出した集合をもうひとつのテストセットとし,これを$\mathcal{S}_{100}$とする.$\mathcal{S}_{100}$では,$\mathcal{S}_{10-l12}$とは異なり,与えられた家族の発話に対して指定のQOLラベルに対応する応答を人間(クラウドワーカ)が生成できていることが保証されており,応用の観点からより自然な条件での応答性能を評価することができる.\begin{table}[p]\caption{異なるQOLラベルを指定したときの生成結果}\label{output3}\input{02table08.tex}\par\vspace{4pt}\small左部:モデルが生成した応答(\ref{sec:genresp}節),右部:各応答についての人手評価結果(\ref{sec:humaneval}節).表中の値は評価者5名のうち正解と判定した人数を表す.\end{table}\subsection{生成された応答の例}\label{sec:genresp}表\ref{output3}左部に,テストセット$\mathcal{S}_{10-l12}$を用いて生成した応答の一例を示す\footnote{表\ref{output3}右部の数値については\ref{sec:humaneval}節で説明する.}.表\ref{output3}は「着くとすぐに本を読んでるよ」という家族の発話に対して3種類の生成モデル\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}がQOLラベルごとにどのような内容の応答を生成したかを示している.たとえば,QOLラベル《経済的ゆとり満足感(positive)》が与えられた場合,応答として\texttt{S2S-QOL}では「今度本を買ってそちらに行くよ」が,\texttt{W2V-QOL}および\texttt{ELMo-QOL}では「今度本を買って持っていくよ.」が生成されており,これらの応答からは,少なくとも本を購入してそれを発話者のもとへ届けに行くだけの``経済的ゆとりがある''という高齢者のQOL状態が読み取れる.また,QOLラベル《精神的活力(negative)》の場合の\texttt{S2S-QOL}の応答「私には興味がないな」,\texttt{W2V-QOL}の応答「本にはわしは興味ないからなあ.」,\texttt{ELMo-QOL}の応答「私は外に出かけることも少なくなったよ.」のいずれの応答にも無関心さや無気力さが表れており,これらからは高齢者の``活力がない''様子が読み取れる.このような先行発話に対する応答として適切かつ高齢者のQOL状態を十分に表出する応答は,返信補助システムにおける返信候補として我々が想定している通りのものである.すべての種類のQOLラベルで,《*(positive)》には「今度」「〜する」「〜してあげる」というこれからのことについての前向きな表現が多く見られ,反対に《*(negative)》には「億劫」「面倒」「無駄」など後ろ向きな表現が多く見られた.全体として,与えられたQOLラベルに応じた内容の応答が概ね生成されていることが確認された.\subsection{人手評価}\label{sec:humaneval}生成した応答について,指定したQOLが表出された応答の生成制御できていることを確かめるために,クラウドソーシング\footnote{Yahoo!クラウドソーシング(https://crowdsourcing.yahoo.co.jp/)を用いた.}を利用して人手評価を実施した.\subsubsection*{評価設定}生成された応答を,次の3つの観点について人手で評価した.\begin{itemize}\item観点(1):指定したQOLラベル通りのQOL状態が生成した応答に表出していること\item観点(2):指定したQOLラベルの特にポジティブ・ネガティブの状態の一致\item観点(3):先行発話に対する応答としての適切さ\end{itemize}観点(1)では,生成した応答とそれに先行する発話を評価者に与え,「応答から最も読み取ることができるQOL状態」と「応答から二番目に読み取ることができるQOL状態」を,表\ref{tab:qollabel}で定義した12種類のQOL状態に「わからない・該当なし」を加えた13種類から選択するよう指示した.なお,応答に表出しているQOL状態がひとつのみであると評価者が考える場合は,「応答から二番目に読み取ることができるQOL状態」では「わからない・該当なし」を選択するよう指示した.ひとつの応答につき5人の評価者が評価した.観点(2)と(3)では,生成した応答とそれに先行する発話を評価者に与え,「応答の内容がどちらの状態を表しているか」という問いに対し選択肢\{ポジティブ,ネガティブ,わからない\}からひとつを,「与えられた発話と応答は対話として適切か」という問いに対し選択肢\{適切である,適切でない,わからない\}からひとつをそれぞれ選択するよう指示した.ここでの「対話として適切」とは,先行発話に対する返答として自然に繋がっていること,文法的に正しいことを指す.なお,本タスクは上述のQOL表出に関する評価とは独立に実施した.本タスクもひとつの応答につき5人の評価者が評価した.\subsubsection*{結果}表\ref{tab:humaneval3shu}にQOL表出および応答の適切さに関する人手評価結果を示す.表\ref{tab:humaneval3shu}の(1)(2)(3)について,以下にそれぞれ説明する.\begin{table}[t]\caption{QOL表出および応答の適切さに関する人手評価結果}\label{tab:humaneval3shu}\input{02table09.tex}\vspace{4pt}\small(1)の@1は評価者の「応答から最も読み取ることができるQOL状態」が生成時に指定したQOLラベルと一致している割合を,@2は評価者の「応答から最も読み取ることができるQOL状態」もしくは「応答から二番目に読み取ることができるQOL状態」が指定したQOLラベルと一致している割合を表す.(2)の\checkmark・$\times$は生成時に指定したQOLラベルのボジ・ネガと評価者の判断が一致している・一致してない割合をそれぞれ表す.(3)の\checkmark・$\times$は応答として適切である・適切でないと評価者に判断された割合をそれぞれ表す.()内の数字は人数を表す.\end{table}まず,表\ref{tab:humaneval3shu}「(1)QOL表出」列は上述の観点(1)の評価結果である.@1は評価者の「応答から最も読み取ることができるQOL状態」が生成時に指定したQOLラベルと一致している割合を,@2は評価者の「応答から最も読み取ることができるQOL状態」もしくは「応答から二番目に読み取ることができるQOL状態」が指定したQOLラベルと一致している割合を表す.表\ref{tab:humaneval3shu}に示すように,テストセット$\mathcal{S}_{10-l12}$では@1は0.31〜0.38,@2は0.43〜0.51程度,$\mathcal{S}_{100}$では@1は0.61〜0.62,@2は0.70〜0.72程度であった.文脈的に無理がある場合でも必ず12種類すべてのQOLラベルについて生成する条件($\mathcal{S}_{10-l12}$)では,指定されたQOLの表出に成功するケースは高々半数に留まったが,クラウドワーカが実際に適当な応答を作ることができた条件($\mathcal{S}_{100}$)では比較的高い割合でQOLの表出に成功している.また,生成時に指定したQOLラベルと生成応答に表出しているQOLとの相関を確かめるためCramerの連関係数\cite{math1946cramer}を算出したところ,$\mathcal{S}_{10-l12}$上で\texttt{S2S-QOL}は0.32,\texttt{W2V-QOL}は0.38,\texttt{ELMo-QOL}は0.38となり\footnote{生成時に指定したQOLラベルと,\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答に表出するQOLに関する人手評価(@1)の詳細を付録Bの図\ref{fig:human_vari12total},図\ref{fig:human_vari12total_w2v},図\ref{fig:human_vari12total_elmo}にそれぞれ示しており,連関係数の算出にはこれらを用いた.},生成時に指定したQOLラベルと人手評価により表出が認められたQOLとの間には中程度の相関が認められる結果となった.次に,表\ref{tab:humaneval3shu}の「(2)ポジ・ネガ一致」の列および付録Cに上述の観点(2)の結果を示す.これは,生成時に指定したポジティブまたはネガティブ(《*(positive)》または《*(negative)》)と,評価者が読み取ったポジティブまたはネガティブの極性が一致するかどうかを評価した結果である.表\ref{tab:humaneval3shu}より,すべてのモデルで生成時に指定したQOLラベルと生成応答で表出が認められたQOLラベルとのポジティブ・ネガティブの極性は,全体として90\%前後で一致した.表\ref{tab:humaneval3shu}の「(3)応答の適切さ」の列および付録Dには,観点(3)の結果を示す.これは,生成した応答がどの程度先行発話に対する応答として適切であるかを人手評価により評価した結果である.\texttt{S2S-QOL}および\texttt{ELMo-QOL}では,全体として60\%以上の応答が適切であると評価された.\texttt{W2V-QOL}は適切と評価された応答の割合は60\%未満で,他の2つの生成モデルよりも低かった.具体的な事例に対する評価例として,表\ref{output3}の右部にそれぞれの応答に対する上述の3つの観点での人手評価の結果を示す.たとえば,「着くとすぐに本を読んでいるよ」という先行発話に対して\texttt{S2S-QOL}が生成した応答「今度わしが見に行くよ」について,(1)の@1では評価者5名のうち1名が生成応答から《生活活動力(positive)》を読み取り,@2では評価者5名のうち3名が《生活活動力(positive)》を読み取っている.(2)については評価者全員が生成応答から高齢者の状態がポジティブであることを読み取り,(3)について評価者5名のうち3名が生成応答は先行発話に対する応答として適切であると判断している.以上をまとめると,まず,本研究で生成した応答は,QOL状態のポジティブ・ネガティブの極性については生成時に指定した通りの状態が高精度で表出していることがわかる.また,12種類のQOLラベルについても,$\mathcal{S}_{100}$での評価からわかるように,人間が適切な応答を生成できるような条件下ではモデルも60\%から70\%の精度で指定のQOL状態を表出する発話を生成できている.図\ref{system}のようなQOL表出発話を誘発するための返信補助システムへの応用を考えた場合,本研究で構築した生成モデルは,特定のQOLをある程度制御可能であるという点で,QOL伝達補助の実証実験に利用可能な水準に達していると考えられる.一方で,現状,QOL表出発話の生成時に高齢者個人の特性や状態を考慮していないため,たとえば「今度本を買ってそちらに行くよ」という返信候補を生成しても高齢者自身の実際の日常生活の活動力や経済的なゆとりの状況と合っていない可能性もある.図\ref{system}に示す通り,我々の提案システムは高齢者自身が返信する内容を編集できるインタフェースを想定しているものの,高齢者の特性や状態にできるだけ合った返信候補を生成することが望ましい.高齢者個人の特性や状況を加味したQOL表出発話の生成モデルの構築に関しては今後検討していきたい.\subsection{QOL制御の影響:応答の適切さに関する調査}\label{sec:vannila_seq2seq}構築した対話コーパスはQOLを制御しない単純な対話応答生成のための学習データとしても利用することができる.本研究ではQOL表出発話の生成を目的としてQOLラベルを用いた条件付き対話応答生成の枠組みで特定のQOL情報を表出するような制御をしながら応答を生成することを主目的としたが,本節では同じコーパスを用いてQOL制御をすることなく対話応答生成をおこなうことで,QOL制御が生成にもたらす影響を調査し報告する.具体的には,生成応答の定性的分析と人手評価により,QOL制御の有無による生成された応答の「対話としての適切さ」を比較調査した.QOLを制御しない応答生成の枠組みとして,構造はシンプルながらも流暢かつ適切な内容の応答を生成するとの報告が多数なされている純粋なseq2seqモデル(\texttt{S2S}と表記)を用いた.\texttt{S2S}の学習設定は,前述の\ref{sec:experiment}節「\texttt{S2S-QOL}モデルの設定」に示した通りである.さらに,QOLを制御しない用例ベースの応答生成手法として\texttt{W2V}および\texttt{ELMo}モデルを用いた.\texttt{W2V},\texttt{ELMo}では,用例データベースとしてすべての訓練データを用いた.\begin{table}[b]\hangcaption{QOLを制御したモデル\texttt{S2S-QOL,W2V-QOL,ELMo-QOL}と制御しないモデル\texttt{S2S,W2V,ELMo}の応答例}\label{output}\input{02table10.tex}\end{table}\subsubsection*{定性的分析}表\ref{output}に,QOLを制御した3種のモデルおよびQOLを制御しない3種のモデルが生成した応答の例を示す.生成時の入力には,$\mathcal{S}_{100}$を用いた.表\ref{output}中のQOLラベルは,生成時にQOLを制御するモデルでのみ用いた.表\ref{output}の結果から,\texttt{S2S-QOL}では与えられたQOLラベルに応じた応答はある程度生成できているが,\texttt{S2S}と比較して応答の自然性に欠ける例も観察された.具体的には,表\ref{output}の2つ目の入力に示す「昨日の日曜日,小学校の運動会だったの」という発話に対して,\texttt{S2S}では「言ってくれれば行ったのに」という発話に対する応答として自然な応答が得られているが,一方で\texttt{S2S-QOL}では「私は趣味の散歩ですら最近は億劫なのに」と《健康満足感(negative)》がQOL状態として読み取れる内容ではあるものの,先行発話との繋がりは不自然で,対話としては許容し難い応答が生成されている様子が確認された.用例ベースのモデルについても,同様の様子が確認された.\subsubsection*{人手評価}QOL制御の影響を調査するために,クラウドソーシング\footnote{Yahoo!クラウドソーシング(https://crowdsourcing.yahoo.co.jp/)を用いた}による人手評価を実施した.生成時の入力には$\mathcal{S}_{100}$を用い,QOLを制御した3種のモデルおよびQOLを制御しない3種のモデルによりそれぞれ生成した合計600の応答を評価対象とした.評価者は,生成した応答とそれに先行する発話を与えられ,「与えられた発話と応答は対話として適切か」という問いに対し選択肢\{適切である,適切でない,わからない\}からひとつを選択した.ここでの「対話として適切」とは,先行発話に対する返答として自然に繋がっていること,統語的および文法的に正しいことを指す.ひとつの応答につき,5人の評価者が評価をおこなった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f11.eps}\end{center}\caption{応答の適切さに関する人手評価結果}\label{fig:human_vsbase}\vspace*{-0.5\Cvs}\end{figure}人手評価の結果を図\ref{fig:human_vsbase}に示す.生成応答のうち対話として適切と評価された生成応答の割合は,\texttt{S2S}では約70\%であったのに対し,\texttt{S2S-QOL}ではそれよりも約10\%ほど低い約60\%という結果であった.\texttt{W2V-QOL}と\texttt{W2V},\texttt{ELMo-QOL}と\texttt{ELMo}についても同様で,QOLを制御したモデルは制御しないモデルよりも対話としての適切さが低下した.QOLを制御することよってそれぞれのモデルに生じた約10--15\%の低下は,Mann-WhitneyのU検定\cite{mann1947utest}により\texttt{S2S-QOL}および\texttt{W2V-QOL}では$p<0.01$,\texttt{ELMo-QOL}では$p<0.05$の有意が認められるものであった.生成応答の質を損なわないQOL制御の実現は,今後の課題である.また,\texttt{S2S}が生成した応答の約70\%が人手評価により応答として適切であると評価されたことから,今回構築した数万規模のコーパスがニューラル対話応答生成の学習データとして機能し得るということが示唆された.一般的にseq2seqを始めとするニューラル生成モデルの学習には数百万オーダーの学習データが必要とされているが\cite{vinyals2015conv,sordoni2015conv,emnlp2017att,wu2018neural},今回のようにドメインが限定的であることやデータの質が高い(たとえば,統語的および文法的に正しい,内容が明確に記述されている)などの条件下では,より少量のデータでもニューラル生成モデルの学習が可能であることがわかった. \section{結論} 我々は,高齢者のQOLを家族に伝えることで,高齢者と離れて住む家族とのコミュニケーションの質を向上させるシステムの構築を進めている.本研究では,QOL情報の伝達補助を目的としたQOL表出発話の生成に取り組んだ.具体的には,大規模なQOLラベルつき対話コーパスの構築に向けて,高齢者が主体となる高齢者のQOL表出発話を大規模に収集するためのコーパス収集方法を提案した.提案するコーパス収集に関してふたつの予備実験を実施し,a)本論文で提案するコーパス収集の方法で高齢者が主体となり高齢者の行動や状態を表すQOL表出発話が収集できていることを示すとともに,b)対面で収集した高齢者の発話と40代・50代が高齢者を模擬した発話とを比較し,本論文で提案するコーパス収集の方法でも40代・50代のクラウドワーカから模擬的に高齢者の発話を収集できることを示した.さらに,52,079発話のQOLラベルつき対話コーパスを構築した上で,QOLラベルにより特定のQOL情報を伝達するよう制御しながら,高齢者のQOLを表出する応答を生成する実験を行った.人手による評価の結果,与えられたQOLラベルに応じた応答が生成できているかという観点については,本研究で用いた生成ベースおよび用例ベースのいずれの手法でも,生成応答からは概ね指定通りのQOLが表出できているという評価を得た.特に,QOL状態のポジティブ・ネガティブの極性については生成時に指定した通りの状態が高精度で表出していることがわかった.また,12種類のQOLラベルについても,人間が適切な応答を生成できるような条件に関しては生成モデルでは60\%から70\%の精度で指定のQOL状態を表出する発話を生成することがわかった.また,応答の適切さに関しては生成した応答のうち60\%以上が適切と評価された.これらの結果から,本研究の応答生成モデルは,高齢者のQOL伝達補助の実証実験ができる水準に達していると考えられる.一方で,返信候補として提示する応答におけるQOLの表出と応答としての自然性の両立,および,高齢者の個人の特性や状態に合わせたQOL表出発話の生成に関しては,QOL表出発話の生成モデルの改良も含めて今後取り組む必要があることも明らかとなった.なお,図~\ref{system}のシステムでは「かわいいね.」「上手だね.」なども返信候補として生成しているが,本研究の応答生成実験ではQOL表出発話の生成のみを対象とした.これらのQOL表出発話以外の応答生成,および図~\ref{system}のシステムの実装については,実証実験に向けて今後取り組む予定である.また,高齢者のQOLを家族に伝えるシステムとしては,図~\ref{system}で提案したシステムの他にも,高齢者とチャットボットとの対話から高齢者のQOLを推定して家族に伝えるシステムや,家族が高齢者のQOLについて質問することを支援するシステムなど,さまざまなシステムが考えられる.本論文で提案したシステムの有効性の評価,他のシステムも含めてどのようなシステムが有効かについては,今後実証実験を通じて明らかにしていきたい.また,どのような粒度でQOLを伝達すると実際にコミュニケーションの質が向上するかについても,今後,実証的に検証していきたい.\acknowledgment本論文の査読にあたり,ご意見・ご指摘をくださった査読者の方々へ深く感謝いたします.本論文の内容の一部は,第84回人工知能学会言語・音声理解と対話処理研究会で発表したものです\cite{slud2018akama}.\begin{thebibliography}{}\bibitem[\protect\BCAY{赤間\JBA徳久\JBA乾}{赤間\Jetal}{2018}]{slud2018akama}赤間怜奈\JBA徳久良子\JBA乾健太郎\BBOP2018\BBCP.\newblockQualityofLife情報の伝達補助を目的とする対話応答生成.\\newblock{\BemSIG-SLUD},{\BbfB5}(02),\mbox{\BPGS\23--26}.\bibitem[\protect\BCAY{Akama,Inada,Inoue,Kobayashi,\BBA\Inui}{Akamaet~al.}{2017}]{akama2017gen}Akama,R.,Inada,K.,Inoue,N.,Kobayashi,S.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQGeneratingStylisticallyConsistentDialogResponseswithTransferLearning.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP)},\mbox{\BPGS\408--412}.\bibitem[\protect\BCAY{Callison-Burch,Ungar,\BBA\Pavlick}{Callison-Burchet~al.}{2015}]{crowd2015}Callison-Burch,C.,Ungar,L.,\BBA\Pavlick,E.\BBOP2015\BBCP.\newblock\BBOQCrowdsourcingforNLP.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL):TutorialAbstracts},\mbox{\BPGS\2--3}.\bibitem[\protect\BCAY{Cramer}{Cramer}{1946}]{math1946cramer}Cramer,H.\BBOP1946\BBCP.\newblock{\BemMathematicalMethodsofStatistics}.\newblockPrincetonUniversityPressPrinceton.\bibitem[\protect\BCAY{Hellst{\"{o}}rm\BBA\Hallberg}{Hellst{\"{o}}rm\BBA\Hallberg}{2001}]{Ylva2001QOL}Hellst{\"{o}}rm,Y.\BBACOMMA\\BBA\Hallberg,I.~R.\BBOP2001\BBCP.\newblock\BBOQPerspectivesofelderlypeoplereceivinghomehelponhealthcareandqualityoflife.\BBCQ\\newblockIn{\BemHealthandSocialCareintheCommunity},\mbox{\BPGS\61--71}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter1997lstm}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Isbell,Kearns,Kormann,Singh,\BBA\Stone}{Isbellet~al.}{2000}]{isbell2000aaai}Isbell,C.~L.,Kearns,M.,Kormann,D.,Singh,S.,\BBA\Stone,P.\BBOP2000\BBCP.\newblock\BBOQCobotinLambdaMOO:ASocialStatisticsAgent.\BBCQ\\newblockIn{\BemProceedingsofthe17thNationalConferenceonArtificialIntelligenceand12thConferenceonInnovativeApplicationsofArtificialIntelligence(AAAI)},\mbox{\BPGS\36--41}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{kingma2015adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemThe3rdInternationalConferenceonLearningRepresentations(ICLR)}.\bibitem[\protect\BCAY{Lala,Milhorat,Inoue,Ishida,Takanashi,\BBA\Kawahara}{Lalaet~al.}{2017}]{lala2017attentive}Lala,D.,Milhorat,P.,Inoue,K.,Ishida,M.,Takanashi,K.,\BBA\Kawahara,T.\BBOP2017\BBCP.\newblock\BBOQAttentiveListeningSystemwithBackchanneling,ResponseGenerationandFlexibleTurn-Taking.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\127--136}.\bibitem[\protect\BCAY{Li,Galley,Brockett,Spithourakis,Gao,\BBA\Dolan}{Liet~al.}{2016}]{li2016persona}Li,J.,Galley,M.,Brockett,C.,Spithourakis,G.,Gao,J.,\BBA\Dolan,B.\BBOP2016\BBCP.\newblock\BBOQAPersona-BasedNeuralConversationModel.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\994--1003}.\bibitem[\protect\BCAY{Mann\BBA\Whitney}{Mann\BBA\Whitney}{1947}]{mann1947utest}Mann,H.~B.\BBACOMMA\\BBA\Whitney,D.~R.\BBOP1947\BBCP.\newblock\BBOQOnaTestofWhetherOneofTwoRandomVariablesisStochasticallyLargerthantheOther.\BBCQ\\newblock{\BemTheAnnalsofMathematicalStatistics},{\Bbf18}(1),\mbox{\BPGS\50--60}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov13iclr}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemInternationalConferenceonLearningRepresentations(ICLR)Workshop}.\bibitem[\protect\BCAY{内閣府}{内閣府}{2015}]{naikakufu2}内閣府\BBOP2015\BBCP.\newblock平成27年度版高齢社会白書(全体版).\\newblockhttp://www8.cao.go.jp/\linebreak[2]kourei/\linebreak[2]whitepaper/\linebreak[2]w-2015/\linebreak[2]html/s1\_2\_6.html.\bibitem[\protect\BCAY{内閣府}{内閣府}{2017}]{naikakufu1}内閣府\BBOP2017\BBCP.\newblock平成29年度版高齢社会白書(全体版).\\newblockhttp://www8.cao.go.jp/\linebreak[2]kourei/\linebreak[2]whitepaper/\linebreak[2]w-2017/\linebreak[2]html/zenbun/s1\_2\_1.html.\bibitem[\protect\BCAY{太田\JBA芳賀\JBA長田\JBA田中\JBA前田\JBA嶽崎\JBA関\JBA大山\JBA中西\JBA石川}{太田\Jetal}{2001}]{oota2001}太田壽城\JBA芳賀博\JBA長田久雄\JBA田中喜代次\JBA前田清\JBA嶽崎俊郎\JBA関奈緒\JBA大山泰緒\JBA中西好子\JBA石川和子\BBOP2001\BBCP.\newblock地域高齢者のためのQOL質問表の開発と評価.\\newblock\Jem{日本公衆衛生雑誌},\mbox{\BPGS\258--267}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{peters2018naacl}Peters,M.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL-HLT)},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Ritter,Cherry,\BBA\Dolan}{Ritteret~al.}{2011}]{ritter2011emnlp}Ritter,A.,Cherry,C.,\BBA\Dolan,W.~B.\BBOP2011\BBCP.\newblock\BBOQData-DrivenResponseGenerationinSocialMedia.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\583--593}.\bibitem[\protect\BCAY{Shao,Gouws,Britz,Goldie,Strope,\BBA\Kurzweil}{Shaoet~al.}{2017}]{emnlp2017att}Shao,Y.,Gouws,S.,Britz,D.,Goldie,A.,Strope,B.,\BBA\Kurzweil,R.\BBOP2017\BBCP.\newblock\BBOQGeneratingHigh-QualityandInformativeConversationResponseswithSequence-to-SequenceModels.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\2210--2219}.\bibitem[\protect\BCAY{下岡\JBA徳久\JBA吉村\JBA星野\JBA渡部}{下岡\Jetal}{2017}]{sitaoka2017}下岡和也\JBA徳久良子\JBA吉村貴克\JBA星野博之\JBA渡部生聖\BBOP2017\BBCP.\newblock音声対話ロボットのための傾聴対話システムの開発.\\newblock\Jem{自然言語処理},{\Bbf24}(1),\mbox{\BPGS\3--47}.\bibitem[\protect\BCAY{佐藤\JBA乾}{佐藤\JBA乾}{2018}]{nlp2018sato}佐藤祥多\JBA乾健太郎\BBOP2018\BBCP.\newblock因果関係に基づくデータサンプリングを利用した雑談応答学習.\\newblock\Jem{言語処理学会第24回年次大会},\mbox{\BPGS\1219--1222}.\bibitem[\protect\BCAY{Sidner,Bickmore,Rich,Barry,Ring,Behrooz,\BBA\Shayganfar}{Sidneret~al.}{2013}]{sidner2013always}Sidner,C.,Bickmore,T.,Rich,C.,Barry,B.,Ring,L.,Behrooz,M.,\BBA\Shayganfar,M.\BBOP2013\BBCP.\newblock\BBOQDemonstrationofanAlways-OnCompanionforIslatedOlderAdults.\BBCQ\\newblockIn{\BemProceedingsofthe14thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\148--150}.\bibitem[\protect\BCAY{Sordoni,Galley,Auli,Brockett,Ji,Mitchell,Nie,Gao,\BBA\Dolan}{Sordoniet~al.}{2015}]{sordoni2015conv}Sordoni,A.,Galley,M.,Auli,M.,Brockett,C.,Ji,Y.,Mitchell,M.,Nie,J.-Y.,Gao,J.,\BBA\Dolan,B.\BBOP2015\BBCP.\newblock\BBOQANeuralNetworkApproachtoContext-SensitiveGenerationofConversationalResponses.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL-HLT)},\mbox{\BPGS\196--205}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{seq2seq2014nips}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetwork.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonNeuralInformationProcessingSystems(NIPS)},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{徳久\JBA寺嶌\JBA乾}{徳久\Jetal}{2019}]{tokuhisa}徳久良子\JBA寺嶌立太\JBA乾健太郎\BBOP2019\BBCP.\newblock高齢者と家族とのコミュニケーションの質の向上に向けて:高齢者のQualityofLife表出発話の分析.\\newblock\Jem{情報処理学会論文誌},{\Bbf60}(2),\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{内山\JBA宮川}{内山\JBA宮川}{2006}]{uchiyama2006}内山映子\JBA宮川祥子\BBOP2006\BBCP.\newblock在宅介護を前提とした小規模コミュニティにおける情報流通と管理.\\newblockIn{\BemKeioSFCJournal},\mbox{\BPGS\30--53}.\bibitem[\protect\BCAY{Vaarama}{Vaarama}{2009}]{Marja2009QOL}Vaarama,M.\BBOP2009\BBCP.\newblock\BBOQCare-relatedQualityofLifeinOldAge.\BBCQ\\newblockIn{\BemEuropeanJournalofAging},\mbox{\BPGS\113--125}.\bibitem[\protect\BCAY{Vinyals\BBA\Le}{Vinyals\BBA\Le}{2015}]{vinyals2015conv}Vinyals,O.\BBACOMMA\\BBA\Le,Q.\BBOP2015\BBCP.\newblock\BBOQANeuralConversationalModel.\BBCQ\\newblockIn{\BemInternationalConferenceonMachineLearning(ICML)DeepLearningWorkshop}.\bibitem[\protect\BCAY{Wu,Wu,Yang,Xu,\BBA\Li}{Wuet~al.}{2018}]{wu2018neural}Wu,Y.,Wu,W.,Yang,D.,Xu,C.,\BBA\Li,Z.\BBOP2018\BBCP.\newblock\BBOQNeuralResponseGenerationwithDynamicVocabularies.\BBCQ\\newblockIn{\Bem32ndAAAIConferenceonArtificialIntelligence(AAAI)},\mbox{\BPGS\5594--5601}.\end{thebibliography}\bibliographystyle{jnlpbbl_1.5}\vspace*{1\Cvs}\appendix \section{用例データベースの規模} 表\ref{tab:numofexample}に,実験で用いる各QOLラベルに対応するそれぞれの用例データベースの規模を示す.複数のQOLラベル$q_i,q_j$が付与されているようなペア$(\widetilde{X},\widetilde{Y})$については,付与されているすべてのラベルに対応する用例データベースにそれぞれ用例として含まれる:$(\widetilde{X},\widetilde{Y})\in\mathcal{D}_{q_i},(\widetilde{X},\widetilde{Y})\in\mathcal{D}_{q_j}$.\begin{table}[h]\caption{各QOLラベルに対応する用例データベースの規模}\label{tab:numofexample}\input{02table11.tex}\end{table}\vspace*{-1\Cvs} \section{生成応答に表出するQOL状態に関する人手評価結果の詳細} \texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答について,生成応答に表出するQOL状態を人手により評価した結果を,図\ref{fig:human_vari12total},図\ref{fig:human_vari12total_w2v},図\ref{fig:human_vari12total_elmo}にそれぞれ示す.評価方法の詳細は,本文中の\ref{sec:humaneval}節「評価設定」を参照されたい.図の各行は生成時に指定したQOLラベル,各列は評価者によって生成された応答に表出していると判断されたQOLラベルである.図中の灰色のセルは,生成時に指定したラベルと生成応答のQOL状態の表出に関する評価者の判断が一致している(指定した通りのQOL状態が表出している)ことを示している.たとえば,図\ref{fig:human_vari12total}より,生成時に《生活活動力(positive)》を指定して\texttt{S2S-QOL}により生成した100個の応答(1行目)のうち,指定した通りのQOLが表出したと判断された応答の数は13(1列目)で,最も多く表出していると判断されたQOL状態は《精神的活力(positive)》の18(11行目)であった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f12.eps}\end{center}\caption{\texttt{S2S-QOL}により生成した応答に表出するQOL状態に関する人手評価結果}\label{fig:human_vari12total}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f13.eps}\end{center}\caption{\texttt{W2V-QOL}により生成した応答に表出するQOL状態に関する人手評価結果}\label{fig:human_vari12total_w2v}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f14.eps}\end{center}\caption{\texttt{ELMo-QOL}により生成した応答に表出するQOL状態に関する人手評価結果}\label{fig:human_vari12total_elmo}\end{figure}図\ref{fig:human_vari12total},図\ref{fig:human_vari12total_w2v},図\ref{fig:human_vari12total_elmo}より,いずれのモデルでも,程度に差はあるものの指定したQOLラベルに概ね評価が集まっていることから,指定した通りのQOL状態を表出する応答の生成にある程度成功していると考えられる.また,モデル間で大きな傾向の差は見られなかった.具体的には,たとえば《健康的満足感(negative)》や《経済的ゆとり満足感(negative)》を生成時に指定した場合,いずれのモデルでも評価の約40\%以上がそれぞれのQOL状態を生成応答から読み取ることに成功しており,生成応答におけるQOL状態の表出が特に顕著という結果となった,一方で,《生活活動力(positive)》や《健康的満足感(positive)》を生成時に指定した場合,いずれのモデルでも評価者が生成応答から最も読み取れると判断したQOL状態は《精神的活力(positive)》であった.これは,「生活活動力」,「健康的満足感」および「精神的活力」といったQOLが,実際は互いに強く関連し合う概念であるため,それらを明確に識別することが困難であることが原因のひとつと考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f15.eps}\end{center}\caption{\texttt{S2S-QOL}により生成した応答のポジティブまたはネガティブの表出に関する各ラベルごとの評価}\label{fig:human_posneg}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f16.eps}\end{center}\caption{\texttt{W2V-QOL}により生成した応答のポジティブまたはネガティブの表出に関する各ラベルごとの評価}\label{fig:human_posneg_w2v}\end{figure} \section{QOL状態のポジティブ・ネガティブに関する人手評価結果の詳細} \texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答について,生成時に指定したQOLラベルの特にポジティブまたはネガティブの状態が生成応答に表出するポジティブまたはネガティブと一致するかを人手により評価した結果を,図\ref{fig:human_posneg},図\ref{fig:human_posneg_w2v},図\ref{fig:human_posneg_elmo}にそれぞれ示す.評価方法の詳細は,本文中の\ref{sec:humaneval}節「評価設定」を参照されたい.たとえば,図\ref{fig:human_posneg}より,生成時にQOLラベル《生活活動力(positive)》を指定して生成した応答に関する評価(全体数は50)のうち,応答の内容はポジティブな状態を表していると評価したもの,すなわち生成時に指定された状態と一致したものが35(全体の70\%に相当)で,ネガティブな状態を表していると評価したものが6(全体の12\%)であった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f17.eps}\end{center}\caption{\texttt{ELMo-QOL}により生成した応答のポジティブまたはネガティブの表出に関する各ラベルごとの評価}\label{fig:human_posneg_elmo}\end{figure}いずれのモデルでも,生成応答に表出するポジティブまたはネガティブの状態が生成時に指定されたものと一致する割合はQOLラベルによって差があり,小さいものでは70\%から,大きいものでは100\%まであった.また,いずれのモデルでも《経済的ゆとり満足感(negative)》は一致する割合が大きく,一方で《精神的健康(negative)》は一致する割合が小さい傾向にあった.実際の生成応答例を見ると,たとえば本文の表\ref{output3}の\#8,QOLラベル《経済的ゆとり満足感(negative)》のもとで\texttt{ELMo-QOL}が生成した応答「おばあちゃんあちこち痛いけど湿布買うお金無いわ.」は「お金がない」ということばで経済的ゆとりがない様子が直接的に表現されているが,一方で表\ref{output3}の\#10,QOLラベル《精神的健康(negative)》のもとで\texttt{ELMo-QOL}が生成した応答「俺が一緒に読んでやれたらいいんだけどな.」は精神の健康状態が良くない様子の直接的な表現が含まれておらず,そのため状態がネガティブであるとの判断が比較的困難となったことで,一致する割合が小さくなったと考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f18.eps}\end{center}\caption{\texttt{S2S-QOL}により生成した応答の応答としての適切さに関する各ラベルごとの評価}\label{fig:human_rep}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f19.eps}\end{center}\caption{\texttt{W2V-QOL}により生成した応答の応答としての適切さに関する各ラベルごとの評価}\label{fig:human_rep_w2v}\end{figure} \section{生成応答の適切さに関する人手評価結果の詳細} \texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答について,生成時に指定したQOLラベルの特にポジティブまたはネガティブの状態が生成応答に表出するポジティブまたはネガティブと一致するかを人手により評価した結果を,図\ref{fig:human_rep},図\ref{fig:human_rep_w2v},図\ref{fig:human_rep_elmo}にそれぞれ示す.評価方法の詳細は,本文中の\ref{sec:humaneval}節「評価設定」を参照されたい.たとえば,図\ref{fig:human_rep}より,生成時にQOLラベル《生活活動力(positive)》を指定して生成した応答に関する評価(全体数は50)のうち,生成応答の内容が先行発話に対して適切と判断されたものが31(全体の61\%に相当)で,不適切と判断されたものが18(全体の36\%)であった.それぞれのモデルで傾向は異なり,たとえば,《精神的活力(positive)》で適切と判断された応答の割合は,\texttt{S2S-QOL}では同モデルの平均程度の60\%であるが,\texttt{W2V-QOL}では同モデルのなかでは比較的大きい66\%で,\texttt{ELMo-QOL}では同モデルのなかで最も大きい78\%であった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f20.eps}\end{center}\caption{\texttt{ELMo-QOL}により生成した応答の応答としての適切さに関する各ラベルごとの評価}\label{fig:human_rep_elmo}\end{figure}\begin{biography}\bioauthor{赤間怜奈}{2017年東北大学工学部卒業.2018年東北大学大学院情報科学研究科博士前期課程修了.現在,同研究科博士後期課程在学中.自然言語処理に関する研究に従事.人工知能学会,ACL各学生会員.}\bioauthor{徳久良子}{2001年九工大大学院修士課程修了.同年(株)豊田中研入社.2009年奈良先端大学情報工学研究科博士課程修了.感情や対話に関する研究に従事.博士(工学).人工知能学会,言語処理学会,IEEE各会員.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}\biodate\end{document}
V09N04-01
\section{はじめに} 近年,Internet上の検索エンジンなど,情報検索システムが広く利用されるようになってきた.システムが提示する検索結果には,文書の表題やURIだけではなく,対応する文書の内容を示す短い要約文書が併せて提示されていることが多い.これは,利用者に対して要約文書を提示することが,原文書が実際に利用者の欲するものかを判断する際に有力な手掛かりとなるためである.この際,情報検索結果文書に対する要約の質の良さは,要約文書-検索質問間の関連性判定と原文書-検索質問間の関連性判定の一致の良さで測ることができよう.しかしながら,現在実用に供されている多くの検索エンジンでは,原文書の最初の数バイトを出力したり,検索要求文に含まれる語の周囲を提示するといった単純な方法が採用されている.このような単純な戦略により生成された要約の品質は関連性判定の観点からみると,十分な品質であるとは言い難い.そのため,多くの場合,利用者はシステムの提示した検索結果が適切なものであるかどうかを原文書を見て判断せざるを得ない.このような状況を改善するためには,関連性判定を重視した,より質の高い自動要約技術が必要となる.自動要約の手法としては,Luhn\cite{Luhn:TheAutomaticCreationOfLiteratureAbstracts}の研究に端を発する重要文抽出法が基本かつ主要な技術であり,依然として様々なシステムで利用されている.これは,文書の中から重要な文を,所望の要約文書の長さになるまで順に選び,それら抽出された文を文書中での出現順に並べて出力することで,要約とする手法である.このとき,文の重要度は,語の重要度,文書中での位置,タイトルや手がかり表現などに基づいて計算している\cite{奥村:テキスト自動要約に関する研究動向,奥村:テキスト自動要約に関する最近の話題}.その中でも,重要文は主要キーワードを多く含むという経験則により,語の重要度に基づく重要文抽出が最も基本的な手法となっている.特に,語の出現頻度は,簡単に求められ,語の重要性と比較的高い相関にあるために語の重みとして広く利用されている.語の出現頻度は個別文書によって決まる性質であるが,一方で,検索文書の要約においては,原文書が検索要求の結果として得られた複数の文書であることを考慮することが要約の品質向上につながる.例えば従来提案されている基本的な考え方として,検索要求中の語の重要度を高くするという「検索質問によるバイアス方式」がある\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}.この手法は直観的であり,かつ,比較的良好に機能するが,検索された文書自身の情報を考慮しないなど幾つかの欠点が存在する.以上の点を踏まえて,本稿では,検索文書集合から得られる情報を語の重みづけに利用し,検索文書の要約に役立てる新しい手法を提案する.検索質問によるバイアス方式とは異なり,我々の手法では語の重みづけにおいて検索質問の情報を陽に利用しない.その代わりに,複数の検索文書の間に存在する類似性の構造を階層的クラスタリングにより抽出し,その構造を適切に説明するか否かに応じて語に重みをつける.文書間の類似性構造を語の重みに写像する方法として,我々は,各クラスタ内での語の確率分布に注目し,情報利得比(InformationGainRatio,IGR)\cite{C4.5-E}と呼ばれる尺度を用いる.そして,この重みと従来提案されている他の重みづけを組み合わせることにより,最終的な語の重みとし,これを用いて各文の重要度を計算する.特に,情報利得比に基づく語の重みづけについては,次のように考えることができる.あるクラスタにおける語の情報量に注目した場合,そのクラスタを部分クラスタに分割した後のその語の持つ情報量の増分(情報利得)が,クラスタの分割自身により得られる情報量に比して大きければ,その語は部分クラスタの構造を決定する際に役立っていると考えられる.その度合を定量化した値が情報利得比である.情報利得比自身は機械学習において属性の品質の尺度として,すでに提案されているものである.また,種々のクラスタリングアルゴリズムの過程からすれば,文書のクラスタ構造の決定に際して,各々の語の確率分布が部分的な要因となっていることは自明である.しかしながら,あるクラスタ構造が確定した時に,ある語がそのクラスタ構造の決定に際して最終的に寄与したか否かに注目し,定量化するという研究は,我々の知る限り従来存在しない.そして,本稿は,その定量化において,情報利得比が利用できることを示すものである. \section{検索文書集合中の語に対する情報利得比に基づく重みづけ} \label{Sec:検索文書集合中の語に対する情報利得比に基づく重みづけ}\subsection{検索文書要約の特質}\label{Sec:検索文書要約の特質}検索文書の要約は,以下の点で通常の文書要約と異なる.\begin{itemize}\item検索質問文が与えられている.\item複数の要約文書が同時に得られている.そして,ある一度の検索の結果という点において文書間に類似性が認められる.\end{itemize}いずれの情報も,検索文書の要約においては有効な手がかりと考えられる.ここでは,これらの手掛かりを語の重みづけに用いることを考察する.まず初めに考えられる手法は,Tombrosら\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}が提案するように,検索質問中の語を重要語として考え,他の語よりも重みを高する方法である.これは,検索質問中の語や句は利用者の情報要求を端的に示すので,要約文書にもその語や句が含まれるべきであるという直観に基づくもので,「検索質問バイアス方式に基づく要約(Query-biasedSummarization)」と呼ばれる.この方法は,検索質問を考慮するだけであるので,実装が簡単であり,ある程度の効果が報告されているが,次の欠点が存在する.\begin{itemize}\item検索質問中の表現をそのまま用いるために,検索エンジンにおける工夫が要約文書に反映されない.例えば,各種フィードバックや検索質問の拡張などは,検索質問を修正/更新することによって検索効率を上げている\footnote{ここでは,既存の情報検索システムに対するバックエンドとして要約生成システムを利用する場合を想定している.この場合,情報検索システムを運用している組織と要約サービスを提供している組織が必ずしも一致しない.この状況においては,情報検索システムが行なっている工夫に関する情報が利用できない.一方,もしも情報検索システムの行なうフィードバックや検索質問拡張の情報が利用できるのであれば,更新後の検索要求に基づき,検索質問によるバイアス手法を適用することも可能である.}.\item検索エンジンは検索質問文に関連する文書ばかりではなく,関連性の低い文書も結果として返すことがある.検索質問との関連性が低い文書に対しては,検索質問バイアス方式は通常の文書要約になってしまう.\end{itemize}そこで,我々は二番目の選択肢である,検索質問文を使わずに,検索文書集合のみを用いて重みづけることを考える.検索結果の質が非常に悪くない限り,検索文書集合には検索質問に関する情報が暗に含まれていると期待できるので,その情報を引き出すのである.しかし,各文書に共通する語を抽出するといった単純な方法では精度が良くないことは容易に想像される.なぜならば,検索結果の文書集合には,もちろん検索質問との関連性が高い文書も含まれるが,関連性の低い文書も含まれるからである.しかも,その度合は検索エンジンの精度に依存してしまう.よって,単純に文書に共通する語などを取り出すだけでは達成できない.我々は以上の点を踏まえて次節に示す枠組を提案する.\subsection{提案手法の概略}我々の提案手法の概略を図\ref{Fig:Overview}に示す.これは,次の2つの指針の組み合わせたものである.\begin{enumerate}\item検索文書集合に対し階層的クラスタリングを行ない,文書間の類似性の構造を抽出する.\label{step:clustering}\item文書間の類似性の構造と語の確率分布に基づいて各語の重み付けを行なう.\label{step:weighting}\end{enumerate}\begin{figure}[htbp]\begin{center}\epsfile{file=overview.eps,scale=0.6}\end{center}\caption{提案手法の枠組}\label{Fig:Overview}\end{figure}ステップ\ref{step:clustering}においては,検索質問に関連する文書とそうでない文書がクラスタ構造の中で分離されることが期待され,なおかつ,それらの文書部分集合においても類似性に基づく細分類がなされると考えられる.我々の手法では,語を次元とする文書ベクトルの類似度による階層的クラスタリングを用い,クラスタリングアルゴリズムとしては最大距離アルゴリズムを採用した.ここで注意すべきことは,検索されなかった文書,すなわち,文書データベース中の残りの文書の存在を類似性構造の中に組み込む必要があることである.なぜならば,クラスタ構造において,一番上位のクラスタは与えられた構造として扱う以外になく,類似性の解析の対象とならないからである.検索文書全体の類似性構造は,検索されなかった文書集合との対比によって,初めて明らかになる.この類似性構造は,全文書集合と検索質問との間の類似性を反映するので,非常に重要なものである.このため,図\ref{Fig:SuperCluster}に示すように検索文書集合から得られたクラスタ構造の根の上にもう一つ仮想的なクラスタを設ける.そのクラスタには,検索文書の属する部分クラスタとそれ以外の文書が属する部分クラスタが存在する.ここで,我々の方法では,検索文書の属する部分クラスタだけが,クラスタリングアルゴリズムにる部分クラスタ解析の対象となる(図\ref{Fig:SuperCluster}の左部分木)のに対し,検索されなかった文書の属するクラスタ(図\ref{Fig:SuperCluster}の右部分木)についてはそれ以上の解析が不要である点に注意されたい.後に述べる情報利得比の計算においては,検索されなかった文書の属するクラスタについては,その中に存在する語の頻度だけが分かればよい.これは,あらかじめ求めておいた文書データベース中の語の頻度より,簡単に求めることができる.よって,我々の手法において実際に文書クラスタリングが行なわれるのは,検索結果として利用者に提示する文書に限定される.これは通常数十文書程度であるから,文書クラスタリングにおける計算量はあまり問題とならない.\begin{figure}[htbp]\begin{center}\epsfile{file=highest_cluster_en.eps,scale=0.5}\end{center}\caption{検索文書に対するクラスタ構造}\label{Fig:SuperCluster}\end{figure}このようにして求められた類似性構造は文書を一つの単位とする巨視的な情報であるので,要約のためには,これを文や句,単語を単位とするより微視的な情報に還元する必要がある.これがステップ\ref{step:weighting}である.このステップにおいては,各クラスタが部分クラスタに分割されるにあたって,句や単語などより微視的な単位がどれ位寄与しているかを表す指標を定め,これをその語句の重要度とする.我々はその指標として情報利得比を用いる.このようにして求められた情報利得比を,既存の方法でも用いられている重みである,語の文書内頻度(termfrequency,TF),文書頻度の逆数(inversedocumentfrequency,IDF)\cite{Salton:TermWeightingApproachesInAutomaticTextRetrieval,Baeza-Yates:ModernInformationRetrieval}と組み合わせることにより,総合的な語の重要度をとする.これら三種類の重みは,以下の通り,異なる文書情報から得られるものであることに注意されたい.よって,これらの組み合わせにより,検索文書の要約に適した総合的な重みが得られると期待できる.\begin{itemize}\item語の文書内頻度個別の文書における各語の分布より決まる重要度で,ある文書中でのその語の重要度を表す.\itemクラスタ分割に対する語の出現確率に関する情報利得比検索文書の類似性構造であるクラスタの分割により決まる重要度で,そのクラスタ構造におけるその語の重要度を表す.\item文書頻度の逆数検索対象の全文書により決まる重要度で,全検索対象文書集合におけるその語の重要度を表す.\end{itemize}\subsection{最大距離アルゴリズムによる階層的クラスタリング}検索された文書集合の類似性の解析には,文書間の距離の定義とその距離に基づく文書集合の構造化が必要となる.これには様々な方法が考えられるが,本稿では文書間の距離として,様々な場面で利用され,かつ,簡便なTF・IDF法ならびにベクトル空間法に基づく方法を採用する\cite{Baeza-Yates:ModernInformationRetrieval}.また,文書集合の類似性に関する解析には,階層的クラスタリングを用いる.階層的クラスタリングアルゴリズムには,併合法などが良く用いられる\cite{Frakes:InformationRetrieval}.しかし,この種の方法はクラスタ構造を無理に二分木に当てはめるため,文書間距離の順序関係は構造に反映されるものの,その絶対値については捨象されてしまう.ここでは,文書の類似度に応じて多分岐構造を生成でき,文書間距離の絶対値情報がなるべく保存されるアルゴリズムが望ましい.そのようなアルゴリズムとして,我々は最大距離アルゴリズム\cite{長尾:パターン情報処理}を採用した.この最大距離アルゴリズムは,本来,非階層的なクラスタを生成するものであるが,これを分割の結果得られた部分クラスタに再帰的に適用することにより階層構造を得る.この方法では,各クラスタが3以上のクラスタに分割されることもある.\subsubsection{文書間距離}\label{Sec:文書間距離}ベクトル空間モデルに基づき,各文書$D_i$をn次元空間上の点$(weight_{i1},weight_{i2},\ldots,weight_{in})$により表現する.$weight_{ik}$は文書$D_i$において語$w_k$に割り当てられた重みである.重み$weight_{ik}$としては語$w_k$のTF・IDF値とする.このとき,文書$D_i$と文書$D_j$の距離dを文書ベクトル間のユークリッド距離を用いて,次のように定義する.\begin{eqnarray}d(D_i,D_j)&=&\sqrt{\sum_{k}(weight_{ik}-weight_{jk})^2},\\weight_{ik}&=&tf(D_i,w_k)idf(w_k),\nonumber\\tf(D_i,w_k)&=&\frac{freq(D_i,w_k)}{|D_i|},\nonumber\\idf(w_k)&=&1+\log_2\frac{N}{df(w_k)},\nonumber\end{eqnarray}ただし,\begin{quote}\begin{tabular}{ll}$freq(D_i,w_k)$:&文書$D_i$での語$w_k$の出現頻度\\$|D_i|$:&文書$D_i$中の形態素数\\$df(w_k)$:&検索対象の全文書集合における語$w_k$を含む文書数\\$N$:&検索対象の全文書の数\end{tabular}\end{quote}である.\comment{後に述べる実験においては,語として,名詞のみを扱った.文書からの名詞抽出には形態素解析器JUMAN3.61\cite{juman3.61}を用いた\footnote{品詞細分類において,普通名詞,サ変名詞,固有名詞,地名,人名,組織名,数詞,名詞接尾辞,未定義語-その他,未定義語-カタカナ,未定義語-アルファベットをもつ形態素を取り出した.また,これらが連続した場合には,その形態素列を複合語として認定し,一単語としても取り出した.よって,複合語については,複合語自身とその構成素となった形態素の両者が文書ベクトルの成分として考慮されている}.また,$df(w_k)$,$N$は検索対象である毎日新聞94年,95年,97年,98年のすべての記事から求めた.}\subsubsection{最大距離アルゴリズム}最大距離アルゴリズムにおいては,まず文書集合から2個以上のクラスタ中心を選択し,次に,残りの文書を最近のクラスタ中心と同じクラスタに配置する.その主要部分はクラスタ中心を求める部分であり,以下の手続きからなる.\begin{enumerate}\item文書集合$DS$から距離の最も大きい二文書を取り出し,これらを要素とする集合を作成する.これを初期のクラスタ中心の集合$C$とする.\itemクラスタ中心集合$C$において,クラスタ中心間での最大距離を求める.これを,$d_{max}$とする.\item$DS$中の各文書$D_i$について,すべてのクラスタ中心との距離を求め,その最小値を既存クラスタ中心からの距離$d(D_i,C)$とする.既存クラスタ中心からの距離が最も大きい文書$D_d$を$DS$から取り出す.\itemもし,$d(D_d,C)\ge\alpha\cdotd_{max}$ならば,その文書をクラスタ中心集合$C$に追加する.そうでなければ,終了.\end{enumerate}なお,$\alpha$は$0.5\leq\alpha<1.0$なる定数であり,値が大きいほどクラスタの分割数が少なくなる.一般には$0.5$とすることが多い.以上のアルゴリズムは,単一の文書集合を文書間距離にしたがって複数個の部分クラスタに分割する非階層的なアルゴリズムである.これを各部分クラスタに対して再帰的に適用することにより,階層的なクラスタ構造を生成する.\subsection{情報利得比に基づく語の重要度}クラスタの木における各接点(内点)は,あるクラスタとそれを分割して得られた互いに素な部分クラスタの関係,すなわち,クラスタの分割の仕方を表現している.この分割の仕方はクラスタ内の文書の類似度に従って決定されるので,これを文書内の語の重みに反映させることができれば,複数文書間の類似性という巨視的な情報を,文書内の語の重みという微視的な情報に還元できると考えられる.我々は,この考え方に基づき,次の2つの段階から構成される方法を提案する.\begin{enumerate}\item各クラスタについて,その部分クラスタの構造から,各語の重みを決定する.\label{Step:IGR}\item一つの文書は,クラスタの木の根接点から対応する葉接点に至るクラスタ分割の系列によって指し示される.よって,各文書における語の重みは,各分割で得られた語の重みを統合して得る.\label{Step:IGRintegrate}\end{enumerate}このうち,特に重要なのは\ref{Step:IGR}である.その基本的な考え方は,クラスタの分割構造を決定することに寄与する語に高い重みを与えるというものである.例として,図\ref{Fig:PartitionWordDist}のように,あるクラスタ$C_0$が3つの部分クラスタ($C_1$,$C_2$,$C_3$)に分割されている場合を考える.図中,記号$A$,$B$,$D$〜$G$は各々単語に対応するとする.さて,語$A$はクラスタ$C_0$における頻度が最も高いので,このクラスタの特徴を表す語と考えることができる.しかし,各部分クラスタに注目すると,いずれも均等に出現しているため,部分クラスタの選択においては役立たないことがわかる.一方,語$F$はクラスタ$C_0$において頻度はさほど高くはないが,部分クラスタ$C_3$に集中して登場している.この場合,語$F$が出現しているか否かを調べることによって,部分クラスタを言い当てることができるので,クラスタの分割構造に対する寄与度は,語$F$は語$A$よりも高いと考えられる.我々はこの寄与度を適切に表す尺度として,次に述べる情報利得比を用いる.\begin{figure}[htbp]\begin{center}\epsfile{file=term_dist_ex.eps,scale=0.8}\end{center}\caption{語の出現分布とクラスタの分割}\label{Fig:PartitionWordDist}\end{figure}\subsubsection{情報利得比}情報利得比は,決定木学習システムC4.5において属性選択を行なうために導入された\cite{C4.5-E,Mitchell:MachineLearning}.C4.5においては,ある属性を決定木の分岐におけるテストとしたときに,その属性がどれくらい適切にクラスの出現を予測できるかを表す尺度として用いられている.我々は,表\ref{Table:OurMethod_VS_C4.5}に示す対応の下,クラスタの構造を決定木の構造と見なすことにより,情報利得比を用いる.\begin{table}[htbp]\caption{提案手法とC4.5における計算方法の対応}\label{Table:OurMethod_VS_C4.5}\begin{center}\begin{tabular}{|l|l|}\hline提案手法&C4.5\\\hlineクラスタの分割構造&属性によるテスト\\単語の出現確率&クラスの出現確率\\\hline\end{tabular}\end{center}\end{table}C4.5においては属性の評価値として情報利得比を用いていたが,我々の方法においては,属性ではなくクラスに対応する単語に対する評価値として情報利得比を用いる.クラスタ$C$における単語$w$の情報利得比$gain\_r(w,C)$は次の様に求められる.\begin{eqnarray}gain\_r(w,C)&=&\frac{gain(w,C)}{split\_info(C)}\label{Eq:IGR}\\gain(w,C)&=&entropy(w,C)-entropy_{p}(w,C)\nonumber\\entropy(w,C)&=&-p(w|C)\log_2p(w|C)\nonumber\\&&-(1-p(w|C))\log_2(1-p(w|C))\nonumber\\p(w|C)&=&freq(w,C)/|C|\nonumber\\entropy_{p}(w,C)&=&\sum_{i}\frac{|C_i|}{|C|}entropy(w,C_i)\nonumber\\split\_info(C)&=&-\sum_{i}\frac{|C_i|}{|C|}\log\frac{|C_i|}{|C|}\nonumber\\freq(w,C)&:&\mbox{クラスタ$C$中の語$w$の頻度}\nonumber\\C_i&:&\mbox{$C$における$i$番目の部分クラスタ}\nonumber\\|C_i|&:&\mbox{クラスタ$C_i$中の総形態素数}\nonumber\end{eqnarray}情報利得$gain(w,C)$は,クラスタ$C$の分割の前後における,語$w$の確率分布に関するエントロピーの減少量を表す.$split\_info(C)$は,クラスタ$C$の分割に関するエントロピーである.情報利得比$gain\_r(w,C)$は,これらの比として定義される.例として,図\ref{Fig:PartitionWordDist}における各語について,上述の方法により情報利得比を計算してみると次の通りとなる.{\small\[gain\_r(\mbox{B},C_0)\simeqgain\_r(\mbox{F},C_0)>gain\_r(\mbox{E},C_0)=gain\_r(\mbox{G},C_0)>gain\_r(\mbox{D},C_0)>gain\_r(\mbox{A},C_0)\]\[gain\_r(\mbox{A},C_0)=0.000,gain\_r(\mbox{B},C_0)=0.161,gain\_r(\mbox{D},C_0)=0.031,\]\[gain\_r(\mbox{E},C_0)=0.080,gain\_r(\mbox{F},C_0)=0.157,gain\_r(\mbox{G},C_0)=0.080\]}$B$や$F$のようにクラスタ構造に沿って現れる語は値が大きく,語$A$のように網羅的に分布する場合には値が小さいことは既に述べたとおりである.一方,語$D$のように一部のクラスタに集中してはいるものの,他のクラスタにも低い確率ではあるが出現する場合には,値が低くなることがみてとれる.さらに,語$F$とほぼ同じく偏りがあるが出現確率が低い語$E$については,その値が相対的に低くなる.\subsubsection{情報利得比に基づく語の重要度}式(\ref{Eq:IGR})に示される情報利得比は,各クラスタの分割毎に得られる.これらを,ある文書中のある語の重みとして利用する方法には,利用者向けインタフェースの設計に応じて,いくつか考えられる.例えば,クラスタ構造を利用者に提示しながら,部分クラスタを順次利用者に選択してもらうような対話的インタフェースにおいては,各選択点において利用者が注目しているクラスタにおける情報利得比を利用し,語の重みを求めることが考えられる.また,すべての検索文書を同時に要約し,一覧形式で利用者に提示するというインタフェースにおいては,クラスタの木の根接点からその文書に対応する葉接点に至るすべての分割で得られたの情報利得比を何らかの形で統合し,これを語の重みとすることが考えられる.この時,統合の方法には様々な方法が考えられ得る.例えば,ある階層の値を採用する,最大値を採る,すべての値を和もしくは積により統合する,などである.本稿では,すべての検索文書を同時に要約し,一覧形式で利用者に提示するという最も基本的なインタフェースを想定し,図\ref{Fig:IGRSum}ならびに式(\ref{Eq:IGRsum})に示す情報利得比の重みなしの和を採用する.この方法では,すべてのクラスタ分割における情報利得比を等しく考慮することになる.\begin{eqnarray}igr(w,D)&=&\sum_{C\inCset(D)}gain\_r(w,C)\label{Eq:IGRsum}\\Cset(D)&:&\mbox{文書$D$の属するすべてのクラスタの集合}\nonumber\end{eqnarray}\begin{figure}[htbp]\begin{center}\epsfile{file=add_igr_en.eps,scale=0.4}\end{center}\caption{情報利得比による各文書中の語の重みづけ}\label{Fig:IGRSum}\end{figure}以上で定義された情報利得比$igr(w,D)$に基づく重みにより,文書$D$中の語$w$の重要度$weight(w,D)$を定義する.以前述べたように,語の重要度にはTF,IDF,IGRの各値の組み合わせを考えるが,各値が独立に重要度に寄与するものとし,組み合わせ方法として積を用いる.\begin{eqnarray}weight(w,D)&=&igr(w,D)\cdottf(w,D)\cdotidf(w)\end{eqnarray}なお,上記の重みを求めるにあたって,変更可能なパラメタを導入し,訓練事例などを用いて,これを適切な値に設定する(チューニングする)ことも考えられる.例えば,情報利得比の統合を,各階層の情報利得比の重み付き和により実現し,その重みをパラメタとすることが考えられる.また,上述の$weight(w,D)$の式を積ではなく,重み付き和として定義し,重みをパラメタとすることも一案である.しかし,本稿では以下に述べる理由によりパラメタのチューニングが難しいと判断したために素朴な統合方式を採用した.情報検索タスクにおける要約では外的な評価(特定タスクの遂行精度により行なう要約手法の評価)によっているために,評価結果を再利用して,このタスクに適合したより良いパラメタ値を求めるといった方向に発展させることがし難い.例えば,節\ref{Sec:評価}で述べる評価に用いたTSCTaskBでは,生成された要約文章に対して被験者による適合性評価が行なわれるものの,適合性判定を適切に行なうことができる要約文章を人間に生成してもらうという段階はないために,いわゆる「正解要約」がない.また,仮にそのような「正解要約」を作成したとしても,適合性判定を正しく行なうことができる要約には様々な亜種が考えられるので,「正解要約」と同じ要約を作成することがこのタスクの本質的であるかという疑問が残る.もちろん,評価・パラメタ再設定・再評価といったチューニングのためのループに被験者の評価を組み入れることも不可能ではないが,膨大な人的資源を必要とするために,我々はこの手法を採用しなかった. \section{重要文抽出に基づく要約文書生成} 語の重みは要約生成における基本要素であるから,ほとんどの要約手法に我々の手法を組み込むことができると考えられる.しかし,我々の目的は,前節で述べた語の重みづけが検索文書要約において有効であることを示すことである.そこで,次に示す,語の重要度だけによる最も基本的な要約手法を以降の評価実験で用いる.\begin{enumerate}\item文書$D$中の文$s$の重要度は次式の通り,文中のキーワードの重みの和を文の長さで正規化したものとする.\begin{eqnarray}s\_imp(s,D)&=&\frac{\displaystyle\sum_{w\inkeyw(s)}weight(w,D)}{|s|}\\keyw(s)&:&\mbox{文$s$中のキーワードのリスト}\nonumber\\|s|&:&\mbox{文$s$の総形態素数}\nonumber\end{eqnarray}\itemある決められた要約の長さに達するまで,原文書から重要度の高い順に文を取り出していく.\item取り出した文を原文書における出現順に並べ変えて要約文書を得る.\end{enumerate} \section{評価} \label{Sec:評価}本節では,我々の要約方式について,二通りの視点から評価を行なう.まずは,検索タスクの精度・効率の良さと言う観点から,評価型情報検索ワークショップであるNTCIR2\cite{NTCIR}におけるTSC(TextSummarizationChallenge)における「課題BIRタスク用要約」(以下,TSCTaskBと呼ぶ)に基づいて評価を行なう\cite{TSC_new_J,難波:第2回NTCIRワークショップ自動要約タスクの結果および評価法の分析}.つぎに,幾つかの例により,我々の方式が各語に与える重要度を,検索質問を考慮しない語の重みづけ手法(TF値,TF・IDF値)と比較することにより,我々の重要度計算手法の特徴を定性的に評価する.なお,我々の評価実験においては,要約生成の手順に以下の条件を加えた.\begin{itemize}\item記事の表題(見出し文.Headline)と本文を区別せずに要約の入力とする.\item名詞をキーワードとする.文書からの名詞抽出には形態素解析器JUMAN3.61\cite{juman3.61}を用いた\footnote{品詞細分類において,普通名詞,サ変名詞,固有名詞,地名,人名,組織名,数詞,名詞接尾辞,未定義語-その他,未定義語-カタカナ,未定義語-アルファベットをもつ形態素を取り出した.また,これらが連続した場合には,その形態素列を複合語として認定し,一単語としても取り出した.クラスタリングにおいて,複合語については,複合語自身とその構成素となった形態素の両者が文書ベクトルの成分として考慮されている.一方,各文の重要度計算においては,複合語を構成せず,各形態素の重みのみを利用している.}.\itemIDF値等の計算においては,当初TSC実行委員会から発表された使用新聞記事データである毎日新聞1994年,1995年,1998年に加えて,手元にあった1997年を全文書集合とした.\item最大距離アルゴリズムにおけるパラメタ$\alpha$は0.5とする.\item要約を一覧形式で提示することを想定すると,要約文書の長さが統一されているほうが,見やすい.そのため,要約文書の長さは要約率ではなく,絶対的な長さにより決定する.具体的には,150形態素をしきい値とする.\item文書の総形態素数が150より短い場合には要約をせずに原文書を提示する.\item要約生成に当たって,原文書の文が省略されている箇所には「…」を加え,原文書の段落箇所には改行を加える.\end{itemize}\subsection{情報検索タスクにおける要約品質の評価実験の概要}図\ref{Fig:SummaryInIR}に情報検索タスクにおける要約品質の評価実験の概要を示す.TSCTaskBにおいては,TSC実行委員会より配布されたデータセットに,12のトピックがあり,それぞれ,検索要求1,検索文書50文書から構成されている.検索文書は1998年の毎日新聞の記事集合から検索されたものである.TSCへの参加者は各自のシステムを用いて,これらの文書を要約し,実行委員会に提出する.提出された要約文書に対して,TSC実行委員会による被験者を用いた評価が行なわれた.被験者は学生36名で,各検索要求につき,3人が割り当てられている.被験者は各要約を読むことによって,それが検索要求に適合しているか否かの判断を行う.その判断と,あらかじめ原文書に対して付与されている関連性評価\footnote{当然,参加者には,当初,非公開である.}(以下,関連度ともいう)を比較することにより,要約の品質が評価される.すなわち,両者が一致する度合が高いシステムほど有効な要約を生成すると考えることができる.原文書に付与されている関連性評価はA,B,Cの三段階である.ここで,Aはその文書が検索要求に適合すること,Bは関係のある文書であること,Cは関係のない文書であることを表す.これに対して,被験者らには関連性の有無(YES/NO)という二段階で提示してもらう.よって,両者の一致の判定においては,A判定の文書だけを関連文書とする場合(AnswerLevelA)と,A判定に加えてB判定の文書も関連文書とする場合(AnswerLevelB)が考えられる.\begin{figure}[htbp]\begin{center}\epsfile{file=eval-based-on-irtask-mori-en.eps,scale=0.8}\end{center}\caption{情報検索タスクにおける要約品質の評価}\label{Fig:SummaryInIR}\end{figure}\subsection{総合評価}表\ref{Table:EvaluationResultAll}に個別の評価尺度についての結果を他の参加システム(8システム)ならびにTSC実行委員会が準備したベースラインシステム(3システム)と比較して示す.ベースラインシステムは,「全文提示(Fulltext)」(要約率100\%),「質問バイアス付きTFに基づく方式(TFwithQB)」(要約率20\%),「文書の先頭を採るリード方式(Lead)」(要約率20\%)である.質問バイアス付きTF法は,TFを語の重みとして重要文抽出を行なうものであるが,この時に,検索質問に現れる語について2倍の重みを与えている.これらのシステムの概略については,付録\ref{Appendix:NTCIR2TSCTaskBに参加した他システムの概要}を参照されたい.評価尺度には以下のものを用いた.いずれの値も,全てのトピックを通じて集計したものである.\begin{itemize}\item被験者が1検索要求に関するタスク(50文書)に要した時間(TIME)\itemタスクをどの程度適切に行なえたかを示す指標.すなわち,再現率(Recall),適合率(Precision),F値(F-measure)\footnote{$\mbox{再現率(Recall)}=\frac{\mbox{被験者が正しく適合と判断した文書数}}{\mbox{実際の適合文書の総数}}$,\\$\mbox{適合率(Precision)}=\frac{\mbox{被験者が正しく適合と判断した文書数}}{\mbox{被験者が適合と判断した文書の総数}}$,\\$\mbox{F値(F-measure)}=\frac{2\cdotRecall\cdotPrecision}{Recall+Precision}$.}.\item要約文書の長さ(1文書あたりの平均文字数,LENGTH)\end{itemize}\begin{table}[htbp]\caption{総合評価一覧}\label{Table:EvaluationResultAll}\footnotesize\begin{center}\comment{\begin{tabular}{|l*{9}{c}|ccc|}\hline&\shortstack[c]{Proposed}&Sys1&Sys2&Sys3&Sys4&Sys6&Sys7&Sys8&Sys9&Fulltext&\shortstack{TF\\withQB}&Lead\\\hline\shortstack[l]{Recall\\(Ans.A)}&{\bf0.907}&0.833&0.899&0.793&0.818&0.858&0.831&0.824&0.849&0.843&0.798&0.740\\\shortstack[l]{Precision\\(Ans.A)}&0.751&0.728&0.717&0.685&0.674&0.718&0.739&0.738&0.741&0.711&0.724&{\bf0.766}\\\shortstack[l]{F-Measure\\(Ans.A)}&{\bf0.808}&0.761&0.785&0.715&0.718&0.763&0.766&0.749&0.768&0.751&0.738&0.731\\\shortstack[l]{Recall\\(Ans.B)}&0.754&0.741&{\bf0.793}&0.715&0.737&0.745&0.719&0.719&0.752&0.736&0.700&0.625\\\shortstack[l]{Precision\\(Ans.B)}&0.897&0.921&0.904&0.898&0.875&0.892&0.908&0.913&{\bf0.923}&0.888&0.913&0.921\\\shortstack[l]{F-Measure\\(Ans.B)}&0.797&0.808&{\bf0.828}&0.776&0.773&0.785&0.779&0.775&0.805&0.773&0.776&0.712\\TIME&8:33&9:41&12:48&{\bf6:25}&6:44&9:01&10:16&9:16&9:31&13:46&8:44&7:32\\LENGTH&234.4&297.8&585.7&{\bf89.5}&136.4&288.4&292.9&266.1&262.5&819.4&253.6&174.5\\\hline\end{tabular}}\begin{tabular}{|l*{9}{@{\hspace{0.8em}}c}|*{3}{@{\hspace{0.2em}}c}|}\hline&Proposed&Sys1&Sys2&Sys3&Sys4&Sys6&Sys7&Sys8&Sys9&Fulltext&\shortstack{TF\\withQB}&Lead\\\hline\shortstack[l]{Recall\\(Ans.A)}&{\bf0.907}&0.833&0.899&0.793&0.818&0.858&0.831&0.824&0.849&0.843&0.798&0.740\\\shortstack[l]{Precision\\(Ans.A)}&0.751&0.728&0.717&0.685&0.674&0.718&0.739&0.738&0.741&0.711&0.724&{\bf0.766}\\\shortstack[l]{F-Measure\\(Ans.A)}&{\bf0.808}&0.761&0.785&0.715&0.718&0.763&0.766&0.749&0.768&0.751&0.738&0.731\\\shortstack[l]{Recall\\(Ans.B)}&0.754&0.741&{\bf0.793}&0.715&0.737&0.745&0.719&0.719&0.752&0.736&0.700&0.625\\\shortstack[l]{Precision\\(Ans.B)}&0.897&0.921&0.904&0.898&0.875&0.892&0.908&0.913&{\bf0.923}&0.888&0.913&0.921\\\shortstack[l]{F-Measure\\(Ans.B)}&0.797&0.808&{\bf0.828}&0.776&0.773&0.785&0.779&0.775&0.805&0.773&0.776&0.712\\TIME&8:33&9:41&12:48&{\bf6:25}&6:44&9:01&10:16&9:16&9:31&13:46&8:44&7:32\\LENGTH&234.4&297.8&585.7&{\bf89.5}&136.4&288.4&292.9&266.1&262.5&819.4&253.6&174.5\\\hline\end{tabular}\begin{tabular}{ll}Sys1〜9:&TSC参加の他システム(付録\ref{Appendix:NTCIR2TSCTaskBに参加した他システムの概要}参照)\\Ans.A,Ans.B:&AnswerLevelA,AnswerLevelBにそれぞれ対応\\Fulltext:&原文書\\TFwithQB:&ベースラインその1.質問バイアス付きTFによる重要文抽出手法.\\&検索要求中の単語に2倍の重み.要約率20\%(文ベース)\\Lead:&ベースラインその2.先頭から20\%の文を抽出する手法.タイトルは出力しない.\end{tabular}\end{center}\end{table}\subsection{適合性判断のための所要時間とその精度に関する評価}情報検索の結果の文書に対する要約においては,利用者が行なう適合性判断のための時間の短さと,適合性判断の正確さが共に達成されることが必要である.一方で,両者はトレードオフの関係にある.例えば,長い要約文書を提示すれば,タスク遂行の時間が長くなるが,一方で,精度は概ね向上すると考えられる.よって,両者を同時に評価する尺度が必要とされるが,未だ良いものが提案されていない.そこで,我々のシステムを含む各システムの再現率,適合率,F値について,適合性判断のための所要時間との関係をプロットした.AnswerLevelA,Bの場合を図\ref{Fig:Time-RPF}にぞれぞれ示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{ccc}\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=L_A-Time-Recall.eps,scale=0.5}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=L_A-Time-Precision.eps,scale=0.5}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=L_A-Time-F.eps,scale=0.5}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(A)AnswerLevelA}\\\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=L_B-Time-Recall.eps,scale=0.5}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=L_B-Time-Precision.eps,scale=0.5}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=L_B-Time-F.eps,scale=0.5}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(B)AnswerLevelB}\\\multicolumn{3}{c}{\vspace{-5mm}}\\\multicolumn{3}{c}{Proposed:我々の手法,Fulltext:原文書,TFwithQB:質問バイアス付き}\\\multicolumn{3}{c}{TFによる重要文抽出手法,Lead:先頭から20\%の文を抽出する手法,}\\\multicolumn{3}{c}{無印:他の参加システム}\\\end{tabular}\caption{判定時間と再現率,適合率,F値の関係}\label{Fig:Time-RPF}\end{center}\end{figure}また,判定時間と要約文書の平均文字数の間の関係を図\ref{Fig:Time-Length}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=Time-Length.eps,scale=0.5}\end{center}\caption{判定時間と要約文書の平均長(文字単位)の関係}\label{Fig:Time-Length}\end{figure}\subsection{トピック毎の適合性判断の精度に関する評価}これまで示した結果では,全てのトピックに亙る平均値を用いてタスクの遂行精度を議論してきたが,当然,トピックによって各システムの精度が異なるはずである.そこで,我々の手法と各ベースライン手法による要約において,トピック毎のタスク遂行精度をプロットした.AnswerLevelA,Bの場合をそれぞれ図\ref{Fig:Topic-RPF}に示す.なお,図中`Ave.'は全トピックに亙る平均値である.\begin{figure}[htbp]\begin{center}\begin{tabular}{ccc}\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=Topic_L_A_recall.eps,scale=0.33}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=Topic_L_A_precision.eps,scale=0.33}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=Topic_L_A_F.eps,scale=0.33}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(A)AnswerLevelA}\\\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=Topic_L_B_recall.eps,scale=0.33}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=Topic_L_B_precision.eps,scale=0.33}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=Topic_L_B_F.eps,scale=0.33}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(B)AnswerLevelB}\\\end{tabular}\caption{トピック毎の再現率,適合率,F値}\label{Fig:Topic-RPF}\end{center}\end{figure}\subsection{適合と判断した被験者の数による要約の質の定量的評価}要約文書の質を今少し詳細に検討するために,各々の文書に対して,関連性有り(YES)と答えた被験者の人数を調べる.この人数はトピックに対する生成された要約文書の関連度の高さを表す尺度と考えられる.そこで,原文書を関連性判定(A,B,C)によって分類し,その要約に対してYESと判定した人数毎に文書頻度を集計し,プロットした.結果を図\ref{Fig:Rel-Judge}に示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{ccc}\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=YES_A.eps,scale=0.33}\\(A)原文書関連度A\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=YES_B.eps,scale=0.33}\\(B)原文書関連度B\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=YES_C.eps,scale=0.33}\\(C)原文書関連度C\\\end{center}\end{minipage}\\\end{tabular}\end{center}\caption{原文書の関連度と要約文書に対する適合性判断の関係}\label{Fig:Rel-Judge}\end{figure}\subsection{語の重み付けに対する評価}語の重みづけについては正解というものがないので,定量的にその評価をすることが難しい.ここでは,最も基本的な重みづけである,TF値,TF・IDF値による重みと,本手法の重みづけを実例により比較し,定性的に我々の語の重要度決定手法の特徴を検討する.ここでは,典型的な語の重みがどの様になっているかを調べることが主眼であるので,我々のシステムで最もF値の高かったトピック1027に注目した.このトピックの内容を表\ref{Table:Topic1027}に示す.\begin{table}[htbp]\caption{TSCTaskBのトピック1027}\label{Table:Topic1027}\begin{tabular}{|lp{100mm}|}\hline{\scdescription}フィールド:&ハイビジョンテレビ\\\hline{\scnarrative}フィールド:&ハイビジョンテレビ(高精細度テレビ、HDTV)に関する政治、企業、ユーザーなどからの情報を含む記事。ハイビジョンの標準化、実験、放送やハイビジョンの売れ行き、国内外の動向、各種論議も含む。\\\hline\end{tabular}\end{table}このトピックについて,原文書の関連度がそれぞれ,A,B,Cであるものを一つずつ選択し,各種の語の重みけを行なった結果について,上位10位までを求めた.表\ref{Table:weight1027A},\ref{Table:weight1027B},\ref{Table:weight1027C}にその結果を示す.表においてIGRsumは式(\ref{Eq:IGRsum})に示される情報利得比の和であり,TFIDFIGRsumはTF・IDF値にIGRsumを乗じた値である.\begin{table}[htbp]\caption{文書に対する語の重みの例(Topic1027,記事番号980822075,関連度A)}\label{Table:weight1027A}\footnotesize\begin{center}\begin{tabular}{|r|ll|ll|ll|ll|}\hline\hspace{-1mm}順位\hspace{-1mm}&\multicolumn{2}{c|}{TF}&\multicolumn{2}{c|}{TF・IDF}&\multicolumn{2}{c|}{IGRsum}&\multicolumn{2}{c|}{TFIDFIGRsum}\\\hline&&&&&&&&\\[-8pt]1&放送&\hspace{-2mm}8\hspace{-1.0mm}&放送&\hspace{-2mm}$1.14\times10^{-4}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.52\times10^{-3}$\hspace{-1.5mm}&放送&\hspace{-2mm}$1.09\times10^{-6}$\hspace{-1.5mm}\\2&申請&\hspace{-2mm}6\hspace{-1.0mm}&BS&\hspace{-2mm}$9.68\times10^{-5}$\hspace{-1.5mm}&デジタル&\hspace{-2mm}$3.10\times10^{-3}$\hspace{-1.5mm}&BS&\hspace{-2mm}$2.54\times10^{-7}$\hspace{-1.5mm}\\3&番組&\hspace{-2mm}5\hspace{-1.0mm}&申請&\hspace{-2mm}$9.41\times10^{-5}$\hspace{-1.5mm}&BS&\hspace{-2mm}$2.63\times10^{-3}$\hspace{-1.5mm}&番組&\hspace{-2mm}$1.87\times10^{-7}$\hspace{-1.5mm}\\4&BS&\hspace{-2mm}4\hspace{-1.0mm}&SDTV&\hspace{-2mm}$8.23\times10^{-5}$\hspace{-1.5mm}&番組&\hspace{-2mm}$2.38\times10^{-3}$\hspace{-1.5mm}&デジタル&\hspace{-2mm}$1.22\times10^{-7}$\hspace{-1.5mm}\\5&衛星&\hspace{-2mm}3\hspace{-1.0mm}&番組&\hspace{-2mm}$7.86\times10^{-5}$\hspace{-1.5mm}&テレビ&\hspace{-2mm}$2.20\times10^{-3}$\hspace{-1.5mm}&HDTV&\hspace{-2mm}$1.10\times10^{-7}$\hspace{-1.5mm}\\6&1番組&\hspace{-2mm}2\hspace{-1.0mm}&1番組&\hspace{-2mm}$7.66\times10^{-5}$\hspace{-1.5mm}&ハイビジョン&\hspace{-2mm}$2.13\times10^{-3}$\hspace{-1.5mm}&申請&\hspace{-2mm}$8.37\times10^{-8}$\hspace{-1.5mm}\\7&HDTV&\hspace{-2mm}2\hspace{-1.0mm}&HDTV&\hspace{-2mm}$6.44\times10^{-5}$\hspace{-1.5mm}&HDTV&\hspace{-2mm}$1.70\times10^{-3}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$7.95\times10^{-8}$\hspace{-1.5mm}\\8&SDTV&\hspace{-2mm}2\hspace{-1.0mm}&衛星&\hspace{-2mm}$5.42\times10^{-5}$\hspace{-1.5mm}&郵政省&\hspace{-2mm}$1.66\times10^{-3}$\hspace{-1.5mm}&郵政省&\hspace{-2mm}$6.20\times10^{-8}$\hspace{-1.5mm}\\9&テレビ&\hspace{-2mm}2\hspace{-1.0mm}&各3番組&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$1.47\times10^{-3}$\hspace{-1.5mm}&テレビ&\hspace{-2mm}$5.55\times10^{-8}$\hspace{-1.5mm}\\10&デジタル&\hspace{-2mm}2\hspace{-1.0mm}&計22番組&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&デジタル放送&\hspace{-2mm}$1.37\times10^{-3}$\hspace{-1.5mm}&ハイビジョン&\hspace{-2mm}$5.44\times10^{-8}$\hspace{-1.5mm}\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{文書に対する語の重みの例(Topic1027,記事番号981215216,関連度B)}\label{Table:weight1027B}\footnotesize\begin{center}\begin{tabular}{|r|ll|ll|ll|ll|}\hline\hspace{-1mm}順位\hspace{-1mm}&\multicolumn{2}{c|}{TF}&\multicolumn{2}{c|}{TF・IDF}&\multicolumn{2}{c|}{IGRsum}&\multicolumn{2}{c|}{TFIDFIGRsum}\\\hline&&&&&&&&\\[-8pt]1&関西&\hspace{-2mm}8\hspace{-1.0mm}&関西&\hspace{-2mm}$1.08\times10^{-4}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.52\times10^{-3}$\hspace{-1.5mm}&放送&\hspace{-2mm}$8.14\times10^{-7}$\hspace{-1.5mm}\\2&放送&\hspace{-2mm}6\hspace{-1.0mm}&放送&\hspace{-2mm}$8.55\times10^{-5}$\hspace{-1.5mm}&企業&\hspace{-2mm}$3.15\times10^{-3}$\hspace{-1.5mm}&BS&\hspace{-2mm}$1.27\times10^{-7}$\hspace{-1.5mm}\\3&情報&\hspace{-2mm}4\hspace{-1.0mm}&CS&\hspace{-2mm}$7.17\times10^{-5}$\hspace{-1.5mm}&情報&\hspace{-2mm}$2.95\times10^{-3}$\hspace{-1.5mm}&CS&\hspace{-2mm}$1.20\times10^{-7}$\hspace{-1.5mm}\\4&CS&\hspace{-2mm}3\hspace{-1.0mm}&番組制作会社&\hspace{-2mm}$6.59\times10^{-5}$\hspace{-1.5mm}&BS&\hspace{-2mm}$2.63\times10^{-3}$\hspace{-1.5mm}&関西&\hspace{-2mm}$1.20\times10^{-7}$\hspace{-1.5mm}\\5&衛星&\hspace{-2mm}3\hspace{-1.0mm}&発信&\hspace{-2mm}$5.77\times10^{-5}$\hspace{-1.5mm}&番組&\hspace{-2mm}$2.38\times10^{-3}$\hspace{-1.5mm}&情報&\hspace{-2mm}$1.19\times10^{-7}$\hspace{-1.5mm}\\6&発信&\hspace{-2mm}3\hspace{-1.0mm}&衛星&\hspace{-2mm}$5.42\times10^{-5}$\hspace{-1.5mm}&チャンネル&\hspace{-2mm}$1.72\times10^{-3}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$7.95\times10^{-8}$\hspace{-1.5mm}\\7&1程度&\hspace{-2mm}2\hspace{-1.0mm}&1程度&\hspace{-2mm}$5.33\times10^{-5}$\hspace{-1.5mm}&CS&\hspace{-2mm}$1.68\times10^{-3}$\hspace{-1.5mm}&番組&\hspace{-2mm}$7.48\times10^{-8}$\hspace{-1.5mm}\\8&BS&\hspace{-2mm}2\hspace{-1.0mm}&BS&\hspace{-2mm}$4.84\times10^{-5}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$1.47\times10^{-3}$\hspace{-1.5mm}&企業&\hspace{-2mm}$7.19\times10^{-8}$\hspace{-1.5mm}\\9&会社&\hspace{-2mm}2\hspace{-1.0mm}&関西電力&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&通信&\hspace{-2mm}$1.40\times10^{-3}$\hspace{-1.5mm}&発信&\hspace{-2mm}$3.83\times10^{-8}$\hspace{-1.5mm}\\10&関西電力&\hspace{-2mm}2\hspace{-1.0mm}&関西チャンネル&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&関西&\hspace{-2mm}$1.11\times10^{-3}$\hspace{-1.5mm}&チャンネル&\hspace{-2mm}$3.69\times10^{-8}$\hspace{-1.5mm}\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{文書に対する語の重みの例(Topic1027,記事番号981108028,関連度C)}\label{Table:weight1027C}\footnotesize\begin{center}{\footnotesize\begin{tabular}{|r|ll|ll|ll|ll|}\hline\hspace{-1mm}順位\hspace{-1mm}&\multicolumn{2}{c|}{TF}&\multicolumn{2}{c|}{TF・IDF}&\multicolumn{2}{c|}{IGRsum}&\multicolumn{2}{c|}{TFIDFIGRsum}\\\hline&&&&&&&&\\[-8pt]1&放送&\hspace{-2mm}7\hspace{-1.0mm}&自由ヨーロッパ&\hspace{-2mm}$1.30\times10^{-4}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.52\times10^{-3}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.50\times10^{-7}$\hspace{-1.5mm}\\2&チェコ&\hspace{-2mm}6\hspace{-1.0mm}&チェコ&\hspace{-2mm}$1.26\times10^{-4}$\hspace{-1.5mm}&企業&\hspace{-2mm}$3.15\times10^{-3}$\hspace{-1.5mm}&番組&\hspace{-2mm}$1.12\times10^{-7}$\hspace{-1.5mm}\\3&自由&\hspace{-2mm}5\hspace{-1.0mm}&放送&\hspace{-2mm}$9.98\times10^{-5}$\hspace{-1.5mm}&情報&\hspace{-2mm}$2.95\times10^{-3}$\hspace{-1.5mm}&チェコ&\hspace{-2mm}$1.09\times10^{-7}$\hspace{-1.5mm}\\4&イラク&\hspace{-2mm}4\hspace{-1.0mm}&プラハ&\hspace{-2mm}$7.95\times10^{-5}$\hspace{-1.5mm}&番組&\hspace{-2mm}$2.38\times10^{-3}$\hspace{-1.5mm}&自由ヨーロッパ&\hspace{-2mm}$7.03\times10^{-8}$\hspace{-1.5mm}\\5&イラン&\hspace{-2mm}4\hspace{-1.0mm}&イラン&\hspace{-2mm}$7.64\times10^{-5}$\hspace{-1.5mm}&局&\hspace{-2mm}$1.21\times10^{-3}$\hspace{-1.5mm}&自由&\hspace{-2mm}$5.01\times10^{-8}$\hspace{-1.5mm}\\6&ヨーロッパ&\hspace{-2mm}4\hspace{-1.0mm}&ヨーロッパ&\hspace{-2mm}$7.32\times10^{-5}$\hspace{-1.5mm}&開始&\hspace{-2mm}$9.89\times10^{-4}\hspace{-1.5mm}$&ヨーロッパ&\hspace{-2mm}$4.24\times10^{-8}$\hspace{-1.5mm}\\7&政府&\hspace{-2mm}4\hspace{-1.0mm}&自由&\hspace{-2mm}$7.32\times10^{-5}$\hspace{-1.5mm}&チェコ&\hspace{-2mm}$8.70\times10^{-4}$\hspace{-1.5mm}&イラク&\hspace{-2mm}$4.23\times10^{-8}$\hspace{-1.5mm}\\8&プラハ&\hspace{-2mm}3\hspace{-1.0mm}&イラク&\hspace{-2mm}$7.29\times10^{-5}$\hspace{-1.5mm}&政府&\hspace{-2mm}$8.05\times10^{-4}$\hspace{-1.5mm}&イラン&\hspace{-2mm}$4.22\times10^{-8}$\hspace{-1.5mm}\\9&自由ヨーロッパ&\hspace{-2mm}3\hspace{-1.0mm}&チェコ政府&\hspace{-2mm}$7.10\times10^{-5}$\hspace{-1.5mm}&米国&\hspace{-2mm}$7.58\times10^{-4}$\hspace{-1.5mm}&プラハ&\hspace{-2mm}$3.62\times10^{-8}$\hspace{-1.5mm}\\10&番組&\hspace{-2mm}3\hspace{-1.0mm}&召&\hspace{-2mm}$5.29\times10^{-5}$\hspace{-1.5mm}&自由&\hspace{-2mm}$6.84\times10^{-4}$\hspace{-1.5mm}&企業&\hspace{-2mm}$3.59\times10^{-8}$\hspace{-1.5mm}\\\hline\end{tabular}}\end{center}\end{table} \section{考察} \subsection{タスク遂行の精度}TSCTaskBは,利用者(被験者)が要約文書を読むことにより,原文書のトピックに対する関連度を推定するタスクであった.よって,この場合の要約は報知的(informative)である必要はなく,指示的(indicative)でありさえすれば良い.このような要約においては,原文書に関する細かいニュアンスが伝達されるエレガントな要約文書が生成される必要はなく,適切なキーワードの選択とそのキーワードがどのような文脈で現れているかを説明する文書部分の抽出が適切にできればよいと考えられる.この考え方に従えば,キーワードの抽出の精度が高ければ,我々が用いた程度の文抽出による要約機構でもタスクを十分遂行できる要約文書が得られるはずである.以下ではAnswerLevelA,Bに分けて,上記の観点からタスク遂行の精度を考察する.\subsubsection{AnswerLevelA}\label{Sec:AnswerLevelA}本節では検索質問に対して適合文書(A判定)のみを正解とした評価(AnswerLevelA)について考察を行なう.表\ref{Table:EvaluationResultAll}によると,我々の手法は,再現率,適合率,F値すべてにおいて,他のすべての参加システムよりも高い値を示している.ベースラインシステムとの比較においては,我々のシステムの適合率はLead手法よりも1.5ポイント低い値を示しているものの,それ以外は勝っている.Lead手法は,再現率が他の手法に比べて一番低いため総合指標であるF値においてはさほど高くなく,我々のシステムよりも7.7ポイント低い.すなわち,Lead手法は適合率重視の手法と見なすことができる.質問バイアス付きTF法と比較してみると,再現率において10.9ポイント,適合率において2.7ポイント,F値において7.0ポイント勝っている.このことは,検索文書の要約においては,必ずしも検索要求を直接使用しなくても,検索文書群だけで同等以上の質を持つ要約が可能であることを示している.次に,適合性判断の所要時間とタスク遂行の精度について考える.まず,表\ref{Table:EvaluationResultAll}によると,所要時間単独についていえば,我々のシステムが生成した要約に対し,被験者が適合性判定に要した時間は,1トピック(50文書)あたり8分33秒であった.これは,TSCに参加した9システム中,3番めに短いものであった.また,すべての参加システムの平均タスク時間は1トピック当たり9分8秒であり,我々の要約の適合性判定に要する時間はこれよりも短い.そして,所要時間と各種評価値の関係を示す図\ref{Fig:Time-RPF}(A)においては,概ね,左上に位置するシステムの性能が良いと考えられるので,我々のシステムは他のシステムに勝っていると言えよう.特に,再現率は適合率に比べてシステム間での格差が大きく,我々のシステムの再現率の高さが見てとれる.図\ref{Fig:Topic-RPF}(A)によれば,他のベースラインシステムはトピックによって,再現率が大きく変動しているが,我々のシステムはトピックにあまり依存せず安定して高い再現率を示している.これは,被験者が,関連文書(関連度A)の要約に対して適合すると概ね正しく判断したことを示す.一方,適合率についていえば,他のベースラインシステムとほぼ同様の傾向で,我々のシステムもトピックによってその精度が大きく変動している.これは,トピックによっては,我々のシステムが,非関連文書(関連度B,C)に対して一見すると関連性があると見誤る文を抽出し,要約の一部として提示していることを表す.以上をまとめると,まず,我々の手法は,トピックに関連する文を原文書から積極的に抽出していることがわかる.一方,そのような文の周囲の文脈については,抽出を促す戦略を採っていないことから,それらの抽出洩れにより,非関連文書に対して関連性があると見誤るような要約を生成する可能性もあることがわかる.なお,図\ref{Fig:Time-Length}をみると,要約文書長と適合性判定の所要時間は一定時間のオフセット(5分52秒)がついているものの,システムの違いによらず,ほぼ,比例関係となっている.一方,各システムの出力する要約文書については,適合性判定の精度にばらつきが見られる.よって,要約文書の適合性判定時間は適合性判定の結果によらず,要約文書の長さのみに依存していると考えられる.\subsubsection{AnswerLevelB}\label{Sec:AnswerLevelB}本節ではB判定まで含めた評価(AnswerLevelB)について考察を行なう.他のシステムと比較して,再現率が第2位と高いものの,適合率は第7位,F値は第4位と相対順位が低くなった.AnswerLevelBの評価においては,AnswerLevelAよりも正解の数が多くなるので,一般に,AnswerLevelAに比べて,再現率が下降し,適合率が高くなる.再現率についていえば,AnswerLevelAにおいて,高い適合率となったシステムほど減少が激しくなる.一方,適合率については,B判定のものがAnswerLevelAでの誤判定となっているのであれば,その値の上昇が著しい.我々のシステムの場合,再現率が0.907から0.754へと激しく低下しており,図\ref{Fig:Topic-RPF}(B)に示される通り,トピック毎の変動が大きくなっている.しかし,その順位について言えば,2位であるので相対的には他のシステムよりも高いことがわかる.つまり,関連文書(評価A,B)に対して正しく関連性の判定が行なわれた要約文書の数は他のシステムよりも多い.一方で,適合率の上昇は他のシステムより低いので,被験者が関連度評価Cの文書の要約に対しても適合であると判定を下した数が多かったことになる.これは,AnswerLevelAの考察で述べたことを裏付けており,トピックに関連する文の抽出は成功しているものの,その文脈が脱落する場合も少なからずあることを示している.ただし,図\ref{Fig:Time-RPF}(B)や図\ref{Fig:Topic-RPF}(B)が示すとおり,適合率のシステム間の差異は再現率ほど大きくなく,また,AnswerLevelAの適合率に比べてもシステム間の格差が小さくなっている.\subsubsection{提案手法とベースラインとの差異に関する検定}前節までに述べたタスクの遂行精度において,提案手法と他の手法の間に有意な差があるか否かを検証するためには,統計検定を行なう必要がある.しかし,TSC実行委員会が提供する結果情報において,トピック毎の個別の評価が得られるのは自システムならびにベースライン三種のみだけである.そこで,ここでは,提案手法がベースライン三種との間に有意な差があるかを検証する.総合性能を表すF値についてトピック毎の値の差に基づきWilcoxonの符号順位検定を行なった.提案手法と各ベースラインを比較した時に「F値に差が無い」という帰無仮説に対する有意確率pを表\ref{Table:Wilcoxon}に示す.\begin{table}[htbp]\caption{本手法とベースラインとの間の差異に関するWilcoxon符号順位検定の結果}\label{Table:Wilcoxon}\begin{center}\begin{tabular}{|l|l|l|l|}\hline&対TFwithQB&対Lead&対Fulltext\\\hlineAnswerLevelA&$\bf{p=0.0161<0.05}$&$\bf{p=0.0400<0.05}$&$p=0.0522>0.05$\\\hlineAnswerLevelB&$p=0.4238>0.05$&$\bf{p=0.0332<0.05}$&$p=0.9097>0.05$\\\hline\end{tabular}\\\vspace*{5pt}太字は有意水準5\%の下で差があることが示されたもの.\end{center}\end{table}この表によると,AnswerLevelAにおいては,提案手法がベースラインTFwithQBならびにLeadに対して,有意水準5\%の下で,差を持つことが示されている.Fulltextとの比較については,有意水準5\%の下での差異を示すことができなかったが,帰無仮説を採択する確率が5.2\%程度で同有意水準との差は僅差である.一方,AnswerLevelBにおいては,ベースラインとの差がAnswerLevelAほど顕著ではない.有意水準5\%の下で差がある事が示されたのはLead手法との対比だけであった.\subsection{適合と判断した被験者の数による要約の質の定量的評価}図\ref{Fig:Rel-Judge}(A)についてみると,トピックに対する原文書の関連度がAの場合には,いずれのシステムにおいても,当然ながら,3人が一致してYESとする場合が最も多く,2人,1人,0人と順に頻度が低くなっていく.我々の手法についてみると,他のベースライン手法に比べて,3人が一致してYESと答えた頻度が高くなっており,一方,1人,2人がYESと答えた頻度が低くなっている.すなわち,関連性のある文書については,他の手法より質の高い要約が生成されていたと考えられる.また,Lead手法については,3人が一致してNOとつけた件数が他のベースラインよりも多くなっている.つまり,関連判定に重要な部分は必ずしも文頭にあるわけではなく,一般的な新聞記事の要約で良い戦略の一つとされるLead手法が情報検索タスクにおいては,必ずしも有効ではないことがわかる.一方,関連度Bが与えられている原文書についていえば,本来はNOであるべきであるから,YESとした人数が0の場合の頻度が大きく,3人の場合の頻度が少なくなる傾向にあるはずである.ただし,関連性が一部認められる記事の要約に対する評価であるから,要約の仕方によっては1〜2人程度の人がYESと判定する頻度も(C)の場合に比べて多くなることが予想される.図\ref{Fig:Rel-Judge}(B)をみると,TF手法を除いて,この傾向がみられ,特にLead手法において顕著である.TF手法においては,0人の頻度が少なく,被験者3人のうち1人以上が関連性があると判定していることがわかる.そして,図\ref{Fig:Rel-Judge}(C)についてみると,概ね,0人,1人,2人,3人と順に頻度が低くなっていく.誤った判定の箇所,すなわち1人,2人,3人の箇所をみると,ベースライン手法よりも我々の手法のほうが上方にグラフが描かれている.すなわち,他のベースライン手法よりも関連度Cの文書に対して誤って関連性があると判断した被験者が多かったことを示している.これは,節\ref{Sec:AnswerLevelA}ならびに節\ref{Sec:AnswerLevelB}で考察したことを再確認するものである.\subsection{語の重み付けに関する考察}我々の提案する語の重みづけについてその特徴を実例(検索トピック1027,「ハイビジョンテレビ」)により考察する.表\ref{Table:weight1027A}において,我々が最終的に用いる語の重みであるTFIDFIGRsumの列に示されるように,関連度Aの文書においては,検索トピックに陽に示されている語はもちろんのこと,「BS」,「番組」,「デジタル」,「申請」,「衛星」,「郵政省」など,そのトピックに関連する語も上位に重み付けられていることが分かる.その一方で,TF・IDF値では上位にあった非関連語「SDTV」(標準テレビ)については,上位10位から姿を消している.これらの効果は,TF・IDFの列とIGRsumの列を比較すれば分かるが,IGRsumの成分が主に寄与している.そして,このような重みづけは質問バイアス付きTF手法では,質問拡張\cite{Baeza-Yates:ModernInformationRetrieval,Salton:ImprovingRetrievalPerformanceByRelevanceFeedback}などを別途行なわない限り実現できないものである.関連度BやCの文書についても,表\ref{Table:weight1027B},\ref{Table:weight1027C}に示されるとおり,トピックに関連の深い語が上位に重み付けられていることが見てとれる.また,関連度Cの例では,IGRsumの値が低いものも上位に見られるが,いずれもトピックとは関係の薄い語である.\subsection{語の重みづけの品質と検索文書の数ならびに品質に関する考察}\label{Sec:語の重みづけの品質と検索文書の数ならびに品質に関する考察}本手法による重みづけは,クラスタリングの対象となる文書の件数ならびに検索結果の質と密接な関係にある.本来ならば,TSCTaskBと同一条件の下で,要約の対象となる文書数ならびに検索結果の質を変化させての追加検証が必要であるが,TSCTaskBと同一被験者による再実験が困難であるため,ここでは,定性的な考察を行なう.定量的な考察は今後の課題としたい.さて,本手法で語の重みに用いている情報利得比の和は,クラスタ構造に則した分布をしている語に高い重みを与えるものであるから,検索文書をクラスタリングした結果,どのようなクラスタ構造が形成されるかによって,各語の重みが決まる.クラスタ構造は対象となる文書間の類似性により求めるので,検索文書のうち,クラスタリングの対象となる文書群(以下,単に検索文書群と呼ぶ)について,その数と文書間の類似度に密接な関係がある.さらに,本手法では,図\ref{Fig:SuperCluster}に示すように文書データベース中の全文書が所属するクラスタを最上位に考え,検索文書群とそれ以外の文書群の間の差異についても重みに反映しているので,全体のクラスタ構造は情報検索の精度とも関係がある.そこで,以下では,上記二点について個別に考察を行なう.\subsubsection{語の重みづけの品質と検索文書数に関する考察}\label{Sec:語の重みづけの品質と検索文書数に関する考察}採用する文書が少ない場合と多い場合について考察する.まず,採用する文書数が少ない場合について,検索文書群と残りの文書群との対比から得られる重み,ならびに,検索文書群をクラスタリングした結果から得られる重みがどのようになるかを考える.最終的な語の重みはこれらの和である.文書数が少ない場合には,文書集合中の総単語数ならびに個々の単語の頻度も小さくなるので,平滑化(smoothing)をせずに単語頻度から語の出現確率を直接推定すると,語の頻度の小さな差異が語の出現確率の大きな変化となることがある.この時,残りの文書群における単語の出現確率との差が大きくなれば,その語の重みが不当に高くなる可能性がある.本稿では用いてはいないが,単語出現確率の推定においては平滑化を考慮すべきであろう.検索文書のクラスタリングについては,クラスタ中の文書数ならびにクラスタ構造の枝分かれが少なくなるので,各文書間の類似性関係がクラスタ構造に大きな影響を与える.そして,情報利得比の計算においては,語の重要度が個別文書における語の現れ方に敏感になる.一方,採用する文書数が大きい場合には,個々の単語の出現頻度が相対的に大きくなることと,個々の文書間の類似度がクラスタ構造に与える効果が分散・平滑化されることにより,上記と逆の傾向があると考えられる.ただし,検索質問との関連性が低い文書が数多くなってくると,検索質問に述べられたトピックとは関連性の低い語がクラスタ形成の際に支配的になる事も有り得る.この場合は,本来のトピックに関連する語には相対的に低い重みしか与えられない.これは,検索文章群において,より重要な項目を強調するという点では正しい重みの付き方ではあるが,本来のトピックとの関連性判定という観点からは,誤らせる方向にバイアスがかかってしまう.このような場合にはTombrosら\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}の提案するような検索質問によるバイアス方式の方が適切な結果を与えるので,両者を併用する方法も検討すべきであろう.\subsubsection{語の重みづけの品質と情報検索の品質に関する考察}検索結果の質も,検索文書群と残りの文書群との対比から得られる語の重み,ならびに,検索文書群をクラスタリングした結果から得られる語の重みの両者に影響を与える.まず,検索文書群と残りの文書群との対比から得られる語の重みについて考える.この段階で検索質問に関連する語に比重がおかれた適切な重みづけがなされるためには,残りの文書集合と比較して検索文書集合側に関連文書が多く存在し,それに伴い関連する語の出現確率が偏る必要がある.情報検索の質が非常に悪く,文書集合からほぼランダムに検索文書が取り出されるのであれば,検索文書集合とそれ以外の文書集合の間で各語の出現確率に見られる差異は小さく,対比によって得られる語の重みはいずれも小さな値に留まる.一方,検索エンジンが,検索質問に従って,ある程度分布の偏った文書集合を返すとすれば,その度合に応じて,検索質問に関連する語の重みも高くなる.次に検索文書群をクラスタリングした結果から得られる語の重みについて考える.節\ref{Sec:語の重みづけの品質と検索文書数に関する考察}でも述べた通り,検索質問との関連性が低い文書が多くなると,検索質問に述べられたトピックとは関連性の低い語が,クラスタ形成の際に支配的になる事も有り得る.この場合は,本来のトピックに関連する語とは別の語に高い重みが与えられる.この時には,検索質問によるバイアス方式の方が性能が良いと考えられる.前項とともに以上をまとめると,我々の重み付け方式が十分な効果を発揮するためには,\begin{description}\item[条件1]情報検索エンジンの精度が悪くない事\item[条件2]検索質問に関連する文書が検索結果中にある程度存在する事\end{description}の二点を満足することが必要であると考えられる.また,これらの条件を満足しない場合,特に,条件2を満たさない場合にも対応できるためには,検索質問によるバイアス方式との併用を検討することも重要であろう.本節の定量的な評価とともに今後の課題としたい. \section{関連研究} \label{Sec:関連研究}節\ref{Sec:検索文書要約の特質}でも述べたように,検索結果の文書要約は,通常の文書要約とは次の点で異なる.\begin{enumerate}\item検索要求文が与えられている.\label{step:query}\item複数の文書が同時に得られている.そして,ある一度の検索の結果という点において文書間に類似性が認められる.\label{step:doc}\end{enumerate}本研究においては(\ref{step:doc})の情報を用いたが,(\ref{step:query})の情報を利用した手法もある.Tombrosら\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}は,文書中のタイトル情報,文書中での位置情報,文書中での単語の出現頻度に基づいた,従来通りの文の重要度に,検索要求文中の単語が文中に出現する頻度に応じたスコアを加味することで,検索要求文に依存した重要文抽出を実現している.塩見ら\cite{塩見:視点を考慮した文書要約手法の提案}も,文書中の単語の出現頻度に基づいた文の重要度に,検索要求中の単語が文中に出現する頻度に応じたスコアを加味する手法を提案している.しかし,これらの手法は,スコアの制御が難しいことが問題点である.また,節\ref{Sec:検索文書要約の特質}で述べた通り,各種フィードバック,検索要求中の単語のシソーラスによる拡張などといった情報検索システムにおける工夫が反映されないという問題点がある.また,(\ref{step:doc})の情報を利用するという点では,Eguchiら\cite{Eguchi:AdaptiveQueryExpansionBasedOnClusteringSearchResults},Fukuharaら\cite{Fukuhara:Multiple-textSummarizationForCollectiveKnowledgeFormation},Radevら\cite{Radev:Centroid-basedSummarizationOfMultipleDocuments,Radev:Centroid-basedSummarizationOfMultipleDocuments}の手法が関連する.Eguchiらは,適合性フィードバックに基づく検索システムを構築している.このシステムでは,検索結果を文書間の類似度に基づいてクラスタリングし,各クラスタごとにクラスタに多く含まれる語と,そのクラスタを代表する文書のタイトルを,そのクラスタの要約として出力する.ユーザに,出力されたクラスタの中から選択してもらい,そのクラスタに含まれる文書を用いて適合性フィードバックを行なっている.FukuharaらやRadevらも,Eguchiらと同様に検索結果を文書間の類似度に基づいてクラスタリングし,各クラスタごとに要約を出力している.Fukuharaらの手法では,まず,文書中の単語の出現頻度を考慮し,クラスタごとのトピックを表す語を抽出する.そして,それらトピックを含む文を抽出し,焦点−主題連鎖を考慮して並べ替え,各クラスタの要約としている.Radevらの手法では,各クラスタについて,その重心ベクトルをTF・IDF値を用いて計算し,その重心における各語の成分を語の重みの主要な成分としている.これらの手法では,クラスタリングを文書のグループ分けのみに利用しており,グループ化された後では,各クラスタにおける語の分布だけを用いて重みを計算している.また,語の重要度としては単純にクラスタ内のTFやIDFを用いているだけである.直接の比較は今後の課題とするが,我々の手法においては,文書間の類似性構造の情報も取り入れて重みづけしているので,より高い分解能ならびに精度が得られていることが期待される.TSCTaskBにおける評価では,検索文書集合が与えられてはいるものの,最終的には個別文書の要約になっていた.一方,\cite{Mani:SummarizingSimilaritiesAndDifferencesAmongRelatedDocuments,McKeown:GeneratingSummariesOfMultipleNewsArticles}に代表されるように,複数文書から一つの要約文書を生成するという研究も近年注目を集めている.特にCarbonellら\cite{Carbonell:TheUseOfMMR:Diversity-BasedRerankingforReorderingDocumentsAndProducingSummaries}は,極大限界適合度(MaximalMarginalRelevance,MMR)という概念を導入し,検索質問と検索文書の類似度ならびに,ある文書とそれよりも上位の文書との間の冗長性に基づいて,検索文書の再順位づけを行なうとともに,これを,パッセージ検索に利用することによって要約生成を行なう手法を提案している.我々の重み付け手法は複数文書を一つの要約にする場合にでも,効果を発揮することが期待されるが,文書間の融合過程においては,冗長性の制御を陽に行なうMMRのような手法との組み合わせも必要になってくるであろう. \section{おわりに} 本稿では,複数の検索文書の間に存在する類似性の構造を階層的クラスタリングにより抽出し,その構造を適切に説明するか否かに応じて情報利得比に基づき語に重みをつける手法を提案した.TSCでの実験の結果,この方法に基づく重要文抽出型の要約手法は,検索文書の要約において,非常に有効であることが示された.今後の課題としては,節\ref{Sec:語の重みづけの品質と検索文書の数ならびに品質に関する考察}に述べたように本手法と検索文書の数ならびに品質の間の定量的な関係を明らかにすることが挙げられる.また,情報利得比に基づく語の重みを,対話型の情報検索インタフェース中で利用することを検討することも課題である.本稿では,クラスタ構造の全部分を均一に語の重みに反映させて要約を作成した.一方で,対話型のインタフェースとしては,利用者が部分クラスタを選択しながら,目的の情報に辿りつくというものも考えられる.この場合,提示された箇所のクラスタ構造のみを考慮して,要約を生成することができると考えられる.さらに,複数文書の要約において我々の枠組がどの様に役立つのかも検討したい.\acknowledgment本研究を進めるにあたり,本学大学院生であった菊池美和さん(現在,(株)NTTデータ)ならびに吉田和史さん(現在,三菱電機(株))に多大なる御協力を頂きました.ここに感謝いたします.また,国立情報学研究所主催のNTCIRならびにTSC1を企画・運営し,評価用データを作成していただいた皆様に感謝致します.なお,本研究を遂行するにあたって,CD-毎日新聞94年版,95年版,97年版,98年版を利用させていただきました.使用許諾をしていただいた毎日新聞社,ならびに,同データの研究利用に対して御尽力いただいた皆様に感謝致します.最後になりましたが,数多くの有益なコメントを頂いた査読者の方に感謝いたします.本研究の一部は文部科学省科学研究費特定領域研究「ITの深化の基盤を拓く情報学研究」(課題番号13224041,14019041)により支援を受けております.\bibliographystyle{jnlpbbl}\bibliography{summarization,InformationRetrieval,learning,algorithms,manual}\appendix \section{NTCIR2TSCTaskBに参加した他システムの概要} \label{Appendix:NTCIR2TSCTaskBに参加した他システムの概要}NTCIR2TSCTaskBに参加した他システムについて,NTCIR2Workshop論文集に基づきその概略を述べる\cite{Nobata:SentenceExtractionSystemAssemblingMultipleEvidence,Nakao:HowSmallADistinctionAmongSummariesCanTheEvaluationMethodIdentify,Hirao:TextSummarizationBasedOnHanningWindowAndDependencyStructureAnalysis,Oka:PhraseRepresentationSummarizationMethodAndItsEvaluation}.なお,システムSys7については,その詳細は不明である.\subsection{ベースラインTFwithQB}TSC実行委員会が提供するベースラインの一つで,文抽出型でスコアの上位の文から指定の要約率になるまで抽出.要約率は20\%(文を単位とする).各文のスコアは,内容語(名詞,動詞,形容詞,未定義語)のTFの和であるが,検索トピック中の語にはバイアスが与えられ,2倍の重みとする.この「2倍」という定数がどのように決定されたか,例えば,何らかのチューニングが施されているかなどは不明である.\subsection{ベースラインLead}TSC実行委員会が提供するベースラインの一つで,文抽出型で本文の先頭から指定の要約率になるまで抽出.要約率は20\%(文を単位とする).\subsection{ベースラインFulltext}TSC実行委員会が提供するベースラインの一つで,原文書のうち,表題(見出し文)ならびに本文をそのまま返すもの.要約率は100\%(文を単位とする).\subsection{システムSys1,Sys2}\comment{CRL+NYUグループ}文抽出型でスコアの上位の文から指定の要約率になるまで抽出.要約率は10\%(Sys1)ならびに50\%(Sys2).文のスコアは,次の3つの値を重み付きで加算したものである.(1)文書中の文の位置に基づくスコアで,文書の先頭ならびに文末に高い重みを付与する.(2)文長に基づくスコアで長いものに高い重みをつける.(3)名詞のTF・IDF値の和をスコアとしたもの.ただし,見出しに含まれる名詞ならびに固有表現(NamedEntity)については,そのTF・IDF値を加算し,トピック中のDESCRIPTIONおよびNARRATIVEフィールドの名詞に対しては,さらに,TF・IDF値を2倍にする.\subsection{システムSys3,Sys4}\comment{富士Xerox}語と語の間の重要な関係を見つけ出し,それを元に要約を句レベルで生成する.その関係の重みは各語の重みの和に関係の重みを乗じたものである.各語の重みはTF・IDF値で求めるが,トピック中の語については高い重みを与える(詳細は不明).語の間の関係については,格による依存関係には高い値を,等位接続などには低い値を与える.要約文書の長さは文字数で与えられ,100文字以内(Sys3)もしくは150文字以内(Sys4)である.\subsection{システムSys6}\comment{NTT通信研}文抽出型で,ハニング関数を用いた窓により各パッセージの重要度を計算し,その中から重要文を抽出する.パッセージの重要度計算においてはトピック内の語のみに注目する.また,文書の先頭部分は無条件に加える.要約率は明示されていないが,35\%程度である.\subsection{システムSys8,Sys9}\comment{富士通研グループ}文抽出型で,与えられたキーワードを網羅する文を優先しつつ,全てのキーワードが要約文書に出現するまで文を抽出する.キーワードは,文書タイトル,文書の先頭段落(Sys8のみ),話題構造の境界にある文中の語(Sys9のみ),トピック中のDESCRIPTIONならびにNARRATIVEから,それぞれ,名詞,動詞,形容詞を取り出したものである.\begin{biography}\biotitle{略歴}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師を経て現在,同大学大学院環境情報研究院助教授.この間,1998年2月より11月までStanford大学客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本認知科学会,ACM,AAAI各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V19N02-01
\section{はじめに} \subsection{片仮名語と複合名詞分割}外国語からの借用(borrowing)は,日本語における代表的な語形成の1つとして知られている\cite{Tsujimura06}.特に英語からの借用によって,新造語や専門用語など,多くの言葉が日々日本語に取り込まれている.そうした借用語は,主に片仮名を使って表記されることから片仮名語とも呼ばれる.日本語におけるもう1つの代表的な語形成として,単語の複合(compounding)を挙げることができる\cite{Tsujimura06}.日本語は複合語が豊富な言語として知られており,とりわけ複合名詞にその数が多い.これら2つの語形成は,日本語における片仮名複合語を非常に生産性の高いものとしている.日本語を含めたアジアおよびヨーロッパ系言語においては,複合語を分かち書きせずに表記するものが多数存在する(ドイツ語,オランダ語,韓国語など).そのような言語で記述されたテキストを処理対象とする場合,複合語を単語に分割する処理は,統計的機械翻訳,情報検索,略語認識などを実現する上で重要な基礎技術となる.例えば,統計的機械翻訳システムにおいては,複合語が構成語に分割されていれば,その複合語自体が翻訳表に登録されていなかったとしても,逐語的に翻訳を生成することが可能となる\cite{Koehn03}.情報検索においては,複合語を適切に分割することによって検索精度が向上することがBraschlerらの実験によって示されている\cite{Braschler04}.また,複合語内部の単語境界の情報は,その複合語の省略表現を生成または認識するための手がかりとして広く用いられている\cite{Schwartz03,Okazaki08}.高い精度での複合語分割処理を実現するためには,言語資源を有効的に活用することが重要となる.例えば,Alfonsecaら\citeyear{AlfonsecaCICLing08}は単語辞書を学習器の素性として利用しているが,これが分割精度の向上に寄与することは直感的に明白である.これに加えて,対訳コーパスや対訳辞書といった対訳資源の有用性も,これまでの研究において指摘されている\cite{Brown02,Koehn03,Nakazawa05}.英語表記において複合語は分かち書きされるため,複合語に対応する英訳表現を対訳資源から発見することができれば,その対応関係に基づいて複合語の分割規則を学習することが可能になる.複合語分割処理の精度低下を引き起こす大きな要因は,言語資源に登録されていない未知語の存在である.特に日本語の場合においては,片仮名語が未知語の中の大きな割合を占めていることが,これまでにも多くの研究者によって指摘されている\cite{Brill01,Nakazawa05,Breen09}.冒頭でも述べたように,片仮名語は生産性が非常に高いため,既存の言語資源に登録されていないものが多い.例えばBreen\citeyear{Breen09}らによると,新聞記事から抽出した片仮名語のうち,およそ20\%は既存の言語資源に登録されていなかったことが報告されている.こうした片仮名語から構成される複合名詞は,分割処理を行うことがとりわけ困難となっている\cite{Nakazawa05}.分割が難しい片仮名複合名詞として,例えば「モンスターペアレント」がある.この複合名詞を「モンスター」と「ペアレント」に分割することは一見容易なタスクに見えるが,一般的な形態素解析辞書\footnote{ここではJUMAN辞書ver.~6.0とNAIST-jdicver.~0.6.0を調べた.}には「ペアレント」が登録されていないことから,既存の形態素解析器にとっては困難な処理となっている.実際に,MeCabver.~0.98を用いて解析を行ったところ(解析辞書はNAIST-jdicver.~0.6.0を用いた),正しく分割することはできなかった.\subsection{言い換えと逆翻字の利用}こうした未知語の問題に対処するため,本論文では,大規模なラベルなしテキストを用いることによって,片仮名複合名詞の分割精度を向上させる方法を提案する.近年では特にウェブの発達によって,極めて大量のラベルなしテキストが容易に入手可能となっている.そうしたラベルなしテキストを有効活用することが可能になれば,辞書や対訳コーパスなどの高価で小規模な言語資源に依存した手法と比べ,未知語の問題が大幅に緩和されることが期待できる.これまでにも,ラベルなしテキストを複合名詞分割のために利用する方法はいくつか提案されているが,いずれも十分な精度は実現されていない.こうした関連研究については\ref{sec:prev}節において改めて議論を行う.提案手法の基本的な考え方は,片仮名複合名詞の言い換えを利用するというものである.一般的に,複合名詞は様々な形態・統語構造へと言い換えることが可能であるが,それらの中には,元の複合名詞内の単語境界の場所を強く示唆するものが存在する.そのため,そうした言い換え表現をラベルなしテキストから抽出し,その情報を機械学習の素性として利用することによって,分割精度の向上が可能となる.これと同様のことは,片仮名語から英語への言い換え,すなわち逆翻字に対しても言うことができる.基本的に片仮名語は英語を翻字したものであるため,単語境界が自明な元の英語表現を復元することができれば,その情報を分割処理に利用することが可能となる.提案手法の有効性を検証するための実験を行ったところ,言い換えと逆翻字のいずれを用いた場合においても,それらを用いなかった場合と比較して,F値において統計的に有意な改善が見られた.また,これまでに提案されている複合語分割手法との比較を行ったところ,提案手法の精度はそれらを大幅に上回っていることも確認することができた.これらの実験結果から,片仮名複合名詞の分割処理における,言い換えと逆翻字の有効性を実証的に確認することができた.本論文の構成は以下の通りである.まず\ref{sec:prev}節において,複合名詞分割に関する従来研究,およびその周辺分野における研究状況を概観する.次に\ref{sec:approach}節では,教師あり学習を用いて片仮名複合名詞の分割処理を行う枠組みを説明する.続いて\ref{sec:para}節と\ref{sec:trans}節においては,言い換えと逆翻字を学習素性として使う手法について説明する.\ref{sec:exp}節では分割実験の結果を報告し,それに関する議論を行う.最後に\ref{sec:conclude}節においてまとめを行う. \section{関連研究} \label{sec:prev}\subsection{複合語分割}\label{sec:prev_comp}これまでにも,ラベルなしテキストを用いた複合語分割手法はいくつか提案されている.それらはいずれも,複合語の構成語の頻度をラベルなしテキストから推定し,その頻度情報に基づいて分割候補を順位付けするものとなっている\cite{Koehn03,Ando03,Schiller05,Nakazawa05,Holz08}.とりわけ本研究と関連が深いのは\cite{Nakazawa05}であり,彼らもまた片仮名複合名詞を対象としている.しかし,こうした単語頻度に基づく手法は,対訳資源を用いた手法と比較して,十分な分割精度が得られないという問題が指摘されている\cite{Koehn03,Nakazawa05}.実際,我々の実験においても,これら単語頻度に基づく手法と提案手法との比較を行ったが,提案手法の方が大幅に高い分割精度を実現可能であることを確認した.一方,Alfonsecaら\citeyear{AlfonsecaCICLing08}は,ラベルなしテキストではなくクエリログを複合語分割に利用することを提案している\footnote{彼らはウェブテキストのアンカーテキストを用いることも提案しているが,精度の向上は実現されていない.}.しかし彼らの実験報告によると,クエリログを用いなかった場合の精度が90.45\%であるのに対して,クエリログを用いた場合の精度は90.55\%であり,その改善幅は極めて小さい.一方,本研究の実験(\ref{sec:exp}節)では,提案手法の導入によって精度は83.4\%から87.6\%へと大きく向上し,なおかつ,その差は統計的に有意であることが確認された.また,クエリログは一部の組織以外では入手が困難であるのに対し,提案手法に必要なラベルなしテキストは容易に入手することが可能である.HolzとBiemann\citeyear{Holz08}は独語の複合語に対する分割手法と言い換え手法を提案しており,本研究との関連性が高い.しかし,彼らが提案しているアルゴリズムは,複合語の分割と言い換えをパイプライン的に行うものであるため,提案手法とは異なり,言い換えに関する情報は分割時に用いられない.\subsection{その他の関連研究}片仮名複合名詞の分割処理は単語分割の部分問題であると考えることができる.そのため,既存の単語分割器を用いて片仮名複合名詞の分割処理を行うことも可能であるが,実際問題として,それでは十分な分割精度を得ることは難しい(\ref{sec:exp}節の実験結果を参照).この原因として,既存の単語分割器は辞書に強く依存した設計となっており,未知語が多い片仮名語の解析に失敗しやすいことが挙げられる.これに関する議論は\cite{Nakazawa05}が詳しい.単語分割の視点から見た本研究は,片仮名複合名詞という特に解析が困難な言語表現に焦点をあてた試みであると言える.\ref{sec:trans}節において我々は,片仮名複合名詞の分割のために逆翻字を利用する手法を提案する.提案手法は,技術的な観点から見ると,ウェブから片仮名語の逆翻字を自動抽出する既存手法\cite{Brill01,Cao07,Oh08,Wu09}と関連が深い.しかしながら,そうした関連研究は翻字辞書や翻字生成システムを構築することを目的としており,自動抽出した逆翻字を複合語の分割処理に利用する試みは本研究が初めてである. \section{教師あり学習に基づく手法} \label{sec:approach}本論文では,片仮名複合名詞$x$が入力として与えられたとき,それを構成語列$\y=(y_1,y_2\dotsy_{|\y|})$へと分割する問題を取り扱う.ここでは,出力$\y$が1語(すなわち$|\y|=1$)である場合もありうることに注意をされたい.1節においても議論したように,片仮名名詞は英語の翻字が多く,提案する素性の1つもその性質を利用したものとなっているため,以下では入力される片仮名語は英語の翻字であると仮定する.この仮定が実テキストにおいてどの程度成立しているのかを検証することは難しいが,例えばウェブ検索エンジンのクエリにおいては,片仮名のクエリの約87\%は翻字であることが報告されている\cite{Brill01}.このデータから上記の仮定にはある程度の妥当性があることが推測され,実テキストを処理する際にも提案手法の効果を期待することができる.\begin{table}[b]\caption{実験で使用した素性テンプレート}\label{tab:feature}\input{02table01.txt}\vspace{-0.5\Cvs}\end{table}我々は片仮名複合名詞の分割処理を「片仮名複合名詞$x$に対する構成語列$\y$を予測する構造予測問題」と捉えて,これを以下のような線形モデルを用いて解く.\[\y^{*}=\argmax_{\y\in\mathcal{Y}(x)}\w\cdot{\bm\phi}(\y)\]ここで$\mathcal{Y}(x)$は入力$x$に対する全分割候補の集合を表す.${\bm\phi}(\y)$は分割候補$\y$の素性ベクトル表現,$\w$は訓練事例から推定される重みベクトルである.表\ref{tab:feature}に我々が実験で用いた素性テンプレートを示す.テンプレート1からは,ある構成語$1$-gramが出現したか否かを示す2値素性が,訓練事例に出現した全ての構成語$1$-gramについて生成される.テンプレート2は同様の$2$-gram素性である.テンプレート3からは,構成語の文字数(1,2,3,4,$\geq$5)を示す2値素性が5種類生成される.テンプレート4は構成語$y$が外部辞書\footnote{外部辞書としてはNAIST-jdicver.~0.6.0を用いた.}に登録されているか否かを表す2値素性であり,構成語$y$が外部辞書に登録されていれば1を返す2値素性が1つ生成される.テンプレート5から7は,片仮名複合名詞の言い換えと逆翻字を用いたものであり,\ref{sec:para}節と\ref{sec:trans}節において詳しく説明する.以下の議論では,テンプレート1から4によって生成される素性を基本素性,テンプレート5から生成される素性を言い換え素性,テンプレート6と7から生成される素性を逆翻字素性と呼んで互いに区別をする.重みベクトル$\w$は任意の学習アルゴリズムを用いて最適化することが可能であるが,ここでは計算効率を考慮して平均化パーセプトロン\cite{Freund99}を用いた.平均化パーセプトロンはオンライン学習アルゴリズムの一種であり,高速に学習を行うことができると同時に,多くのタスクにおいてSVMなどのバッチ学習アルゴリズムと比較しても遜色のない精度を達成できることが知られている.パーセプトロンの訓練時およびテスト時には$\y^{*}$を求める操作が必要となるが,セミマルコフモデルにおいて用いられるのと同様の動的計画法によって効率的に実行可能である. \section{言い換え素性} \label{sec:para}本節では,片仮名複合名詞の言い換え表現を,教師あり学習の素性として使う方法について述べる(表\ref{tab:feature}におけるテンプレート5に対応する).\subsection{複合名詞の言い換え}一般的に,複合名詞は様々な形へと言い換えることが可能であるが,そうした言い換え表現の中には,元の複合名詞の単語境界を認識する手がかりとなるものが存在する.以下に具体例を示す.\begin{lingexample}\head{アンチョビパスタ}{ex:anchovy}\sent{アンチョビ・パスタ\\[3pt]}\sent{アンチョビのパスタ}\end{lingexample}\noindent(\ref{ex:anchovy}b)は,複合名詞(\ref{ex:anchovy}a)の構成語間に中黒を挿入することによって生成された言い換え表現である.同様に(\ref{ex:anchovy}c)は助詞「の」を挿入することによって生成された言い換え表現である.もしラベルなしテキストにおいて(\ref{ex:anchovy}b)や(\ref{ex:anchovy}c)のような言い換え表現を観測することができれば,このことは複合名詞(\ref{ex:anchovy}a)を「アンチョビ」と「パスタ」に正しく分割するための手がかりとなることが考えられる.\subsection{言い換え規則}このような言い換えを利用して片仮名複合名詞の分割処理を行うため,複合名詞の言い換え規則を7つ作成した(表\ref{tab:para}).言い換え規則の作成にあたっては,Kageuraら\citeyear{Kageura04}の研究を参考にしながら,分割処理に有用と思われるものを人手で選定した.作成した言い換え規則は全て$X_1X_2\rightarrowX_1MX_2$という形式をしており($X_1$と$X_2$は名詞,$M$は助詞などの機能語),左辺が言い換え前の複合名詞,右辺が言い換え後の表現に対応している.\begin{table}[b]\caption{作成した言い換え規則の一覧とその適用例.$X_1$と$X_2$は名詞を表す}\label{tab:para}\input{02table02.txt}\end{table}\subsection{言い換え頻度に基づく素性}これらの規則を用いて,次のように新しい素性を定義する.まず前処理として,以下のような正規表現を用いることにより,片仮名複合名詞の言い換え表現の出現頻度をラベルなしテキストから求める.\begin{quote}(katakana)+\;・\;(katakana)+\\(katakana)+\;の\;(katakana)+\\(katakana)+\;する\;(katakana)+\\(katakana)+\;した\;(katakana)+\\(katakana)+\;な\;(katakana)+\\(katakana)+\;的\;(katakana)+\\(katakana)+\;的な\;(katakana)+\end{quote}ただし(katakana)は片仮名1文字にマッチする特殊文字である.また$+$は文字の繰り返しを表す量指定子であり,最長一致が適用されるものとする.このような正規表現を用いることによって,単語分割処理を行わずに言い換え表現を抽出することができるのは,表\ref{tab:para}のような片仮名複合語の言い換え表現に対象を限定しているためである.上記の正規表現にマッチするテキストは,必ず前後が片仮名以外の文字(漢字や平仮名)に囲まれていることになる.そのような文字種の変わり目には,単語境界が存在する場合が多いため,このような単純な文字列処理であっても言い換え表現を抽出することが可能になっている.分割処理時に分割候補$\y$が提示された際には,構成語2-gramに対する言い換え素性{\scPara}($y_{i-1}$,$y_{i}$)の値を次のように定義する.まず$X_1=y_{i-1}$,$X_2=y_i$と代入することにより,表\ref{tab:para}の規則から言い換え表現を生成する.そして,生成された7つの言い換え表現の頻度の和を$F$としたとき,その対数$\log(F+1)$を素性値として用いる.ここでは素性値の計算に非常に単純な方法を用いているため,$X_1$や$X_2$に名詞ではなく,名詞連続が代入された場合であっても,素性が発火してしまうということがある.また逆に,正解となる構成語よりも小さな単位の文字列が代入された場合であっても,同様に素性が発火してしまうことがあり,精度に悪影響を及ぼす可能性がある.しかし,このような手法であっても実験において分割精度の向上を十分確認することができたため,シンプルさを重視して現在のような手法とした.素性値として頻度ではなく対数頻度を用いているのはスケーリングのためである.予備的な実験においては,頻度をそのまま素性値として用いることも行ったが,対数頻度を用いた場合の方が高い精度が得られた.なお,$\logF$ではなく$\log(F+1)$としているのは,$F$=1であった場合に素性値が0となるのを防ぐためである. \section{逆翻字素性} \label{sec:trans}\begin{table}[b]\caption{単語対応付き翻字対の例.下線部に付与された数字は単語の対応を表す}\label{tab:trans}\input{02table03.txt}\end{table}片仮名語の多くは英語を翻字したものであり,元となる英語表現が存在する.以下では,そのような英語表現のことを{\bf原語}と呼び,片仮名語と原語の対のことを{\bf翻字対}と呼ぶこととする.我々は,片仮名語が原語の発音情報をおおよそ保持しているという特性を利用することによって,単語単位での対応関係が付与された翻字対({\bf単語対応付き翻字対})をラベルなしテキストから自動抽出する(表\ref{tab:trans}).そして,得られた単語対応付き翻字対に基づいて,分割結果$\y$に出現する単語$n$-gramが,英単語$n$-gramと対応付け可能であるかを示す2値素性を用いる(表\ref{tab:feature}におけるテンプレート6と7に対応する).以下本節では,テキストから単語対応付き翻字対を自動抽出する方法について説明する.\subsection{括弧表現}日本語においては,括弧表現を使って片仮名語の原語がテキスト中に挿入される場合がある.\begin{lingexample}\head{アメリカで\underline{ジャンクフード}(junkfood)と言えば...}{ex:junk}\sent{トラックバック\underline{スパム}(spam)を撃退するため...}{}\end{lingexample}\noindentいずれの例文においても,下線を引いた片仮名語に対して,その原語が括弧を使って併記されている.我々はこのような括弧表現を利用することにより,単語対応付き翻字対の自動抽出を行う.こうした括弧表現から単語対応付き翻字対の抽出を行うためには,少なくとも以下の3つのことが技術的な問題となる\begin{description}\item[問題A]片仮名語の直後に出現する括弧表現が必ずしもその原語であるとは限らないため,原語が記述されている括弧表現とそうでない括弧表現を区別する必要がある.\item[問題B]翻字対の関係にある片仮名語の開始位置を決定しなくてはならない.例えば(\ref{ex:junk}b)においては,原語「spam」の翻字は「トラックバックスパム」ではなく「スパム」である.\item[問題C]片仮名語と原語の単語対応を求めるためには,片仮名語を分かち書きしなくてはならない.例えば(\ref{ex:junk}a)から表\ref{tab:trans}のような単語対応付き翻字対を獲得するためには,片仮名列「ジャンクフード」を「ジャンク」と「フード」に分割することが必要である.\end{description}\subsection{発音の類似性の利用}これまでにも,前述のような括弧表現から翻字対を自動抽出する研究は数多く存在するが,問題Cに対する本質的な解決策はいまだ提案されていない.これまでの研究においては,基本的に既存の単語分割器を用いることによって片仮名語の分割が行われている\cite{Cao07,Wu09}.しかし,\ref{sec:prev}節において議論を行ったように,片仮名語の分かち書きを行うことは現在のところ技術的に困難であり,このようなアプローチは望ましくない.我々は上記の3つの問題を解決するため,片仮名語と原語の発音の類似性を利用することを提案する.以下の議論では,説明のために,まず問題Cだけを議論の対象とする.具体例として,片仮名語「ジャンクフード」と原語「junkfood」に対して,それらの発音の類似性に基づき以下のような部分文字列の対応関係が得られたとする.\begin{lingexample}\head{[ジャン]$_1$[ク]$_2$[フー]$_3$[ド]$_4$}{ex:junk2}\sent{[jun]$_1$[k]$_2$[foo]$_3$[d]$_4$}\end{lingexample}\noindentここでは,括弧で囲まれて同じ番号を添えられている部分文字列が,互いに対応関係にあるものとする.括弧表現内の英語は空白を使って分かち書きされているため,上記のような部分文字列の対応関係を利用すれば,片仮名語と英単語が1対1に対応するように片仮名列を分かち書きすることができる.また,その過程において,単語間の対応関係も明らかにすることができる.残る問題Aおよび問題Bに対しても,発音の類似性に基づいて同様に解決を図ることが可能である.以下の例において,下線が引かれた片仮名語と括弧内の英語表現が翻字対であるか否かを判定することを考える.\begin{lingexample}\head{検索\underline{エンジン}(Google)を使って...}{ex:google}\sent{\underline{トラックバックスパム}(spam)を撃退する...}{}\end{lingexample}\noindentこのように,括弧内に原語ではない表現が出現したり,片仮名語の開始位置が正しく認識されなかった場合には,片仮名列とアルファベット列の発音の類似度が低くなることが期待できるため,フィルタリングできると考えられる.単語対応付き翻字対の具体的な抽出手順については,\ref{sec:extraction}節において説明を行う.\subsection{発音モデル}\label{sec:phonetic_model}片仮名語と原語における部分文字列の対応関係の発見には,Jiampojamarnら\citeyear{Jiampojamarn07}が提案した生成モデルを用いる.$f$と$e$をそれぞれ片仮名列とアルファベット列とし,これらの間の対応関係を見つけることを考える.ただし,原語には空白が存在する可能性があるが,空白に対応する片仮名文字列は存在しないことから,部分文字列の対応を求めるときにはアルファベット列から空白を取り除いておく.例えば「ジャンクフード」と「junkfood」の部分文字列対応を求める場合には「$f=\text{ジャンクフード}$」「$e=\text{junkfood}$」とする.ここで,$\mathcal{A}$をそれらの間の部分文字列の対応とする.具体的には,$\mathcal{A}$は対応付けられている部分文字列の組($f_i$,$e_i$)の集合であり,$f=f_1f_2\dotsf_{|\mathcal{A}|}$および$e=e_1e_2\dotse_{|\mathcal{A}|}$となる.この部分文字列対応$\mathcal{A}$の確率を以下のように定義する.\[\logp(f,e,\mathcal{A})=\sum_{(f_i,e_i)\in\mathcal{A}}\logp(f_{i},e_{i})\]一般に$\mathcal{A}$は観測することができないため隠れ変数として扱い,モデルのパラメータは翻字対$(f,e)$の集合からEMアルゴリズムを用いて推定する.詳細は文献\cite{Jiampojamarn07}を参照されたい.表\ref{tab:alignment}に「ジャンクフード」と「junkfood」に対する部分文字列対応$\mathcal{A}$の具体例,および実験において計算された確率値を示す.この確率モデルを用いて,与えられた$(f,e)$に対する部分文字列の対応を次のように決定する.\[\mathcal{A}^{*}=\argmax_{\mathcal{A}}\logp(f,e,\mathcal{A})\]このとき$\mathcal{A}^{*}$の中の部分文字列$e_i$が空白をまたいでしまうと(ジャンクフードの例であれば$e_i=\text{kfoo}$などとなった場合),$\mathcal{A}^{*}$を使って片仮名列$f$を分かち書きすることができなくなってしまう.そこで,アルファベット列$e$が空白を含んでいた場合は,前述のとおり空白を取り除いて確率値の計算を行うが,空白の存在した箇所は記憶しておき,部分文字列$e_i$が空白をまたがないという制約を加えて$\argmax$の計算を行う.\begin{table}[t]\hangcaption{片仮名列「$f=\text{ジャンクフード}$」とアルファベット列「$e=\text{junkfood}$」に対する部分文字列対応$\mathcal{A}$の具体例($|\mathcal{A}|=4$)}\label{tab:alignment}\input{02table04.txt}\end{table}\subsection{単語対応付き翻字対の抽出}\label{sec:extraction}この発音モデルを用いて,以下のような手順で単語対応付き翻字対の抽出を行う.\begin{description}\item[手順1]括弧内に出現するアルファベット列$e$と,その直前に出現する片仮名列$f$を抽出し,それらの組$(f,e)$を翻字対の候補とする.ただしアルファベット列は全て小文字に正規化する.\item[手順2]翻字対候補$(f,e)$に対するスコアを以下のように定義し,それが閾値$\theta$を越えたものを正しい翻字対と判定する.\[\frac{1}{N}\logp(f,e,\mathcal{A}^{*})\]式中の$N$は$e$に含まれる単語数であり,$\frac{1}{N}$という項は単語数が多い場合にスコアが過剰に小さくなるのを防ぐために導入している.ここでスコアが閾値を下回っていた場合には,片仮名語の開始位置を正しく判定できていない可能性がある.そこで,片仮名列$f$の最左文字を1文字ずつ削除していき,閾値を上回るものが見つかればそれを翻字対と判定し,次の翻字対候補の処理に移る.\item[手順3]得られた翻字対$(f,e)$に対して,部分文字列対応$\mathcal{A}^{*}$に基づいて片仮名列$f$を分かち書きし,単語の対応関係を求める.これにより,単語対応付き翻字対のリストを得ることができる.\end{description}\noindentただし,手順2においては,表記揺れやタイポなどの要因により,1つの片仮名列に対して複数の逆翻字が見つかる可能性がある.その場合は,各片仮名列$f$に対して,最もスコアの高い翻字対$(f,e)$のみを保持して,それ以外のものは使用しない. \section{実験と議論} \label{sec:exp}本節では,提案する2つの素性(言い換え素性と翻字素性)が片仮名複合名詞の分割処理の精度に与える効果について報告を行う.\begin{table}[b]\caption{表\ref{tab:para}の規則をもとに抽出された言い換え表現(の候補).括弧内の数字は頻度を表す}\label{fig:extract-para}\input{02table05.txt}\end{table}\subsection{実験設定}\label{sec:setting}発音モデルのパラメータ推定に必要な翻字対のデータは,外国人の名前を日本語で表記するときにはほぼ常に翻字が行われることに着目し,Wikipedia\footnote{http://ja.wikipedia.org/}を用いて自動的に構築した.構築手順としては,まず「存命人物」のカテゴリに所属するWikipeida記事のタイトルを抽出することにより,片仮名表記の人名リストを作成した.そして次に,Wikipediaの言語間リンクを利用し,各人名に対する原語を抽出した.これにより17,509の翻字対を収集することができた.このように自動収集したデータの中には翻字対として不適切なものも含まれている可能性があるが,大量のデータを手軽に用意できるという利点を重視して,この方法を採用している.実際,このようにパラメータ推定のためのデータを大量に生成するアプローチは,翻字生成において有効であることが報告されている\cite{Cherry09}.パラメータ推定時には,EMアルゴリズムの初期値を無作為に10回変化させ,尤度が最大となったモデルを以降の実験で用いた.\begin{table}[t]\hangcaption{単語対応付き翻字対の例.スラッシュは抽出時に検出された片仮名語の単語境界を示す.単語間の対応関係は自明なので省略する}\label{fig:extract-backtrans}\input{02table06.txt}\end{table}平均化パープトロンの学習に必要なラベル付きデータは,日英対訳辞書EDICT\footnote{http://www.csse.monash.edu.au/\~{}jwb/edict\_doc.html}を利用して手作業で作成した.具体的には,まず,EDICTの見出し語から,翻字である片仮名(複合)名詞を無作為に抽出した.そして,EDICTに記載されている英訳に基づき,単語境界のラベルを付与した.この結果,5286の片仮名語データを得た.このデータにおける構成語数の分布を調べたところ,構成語が1語のものが3041,2語のものが2081,3語以上のものが164となっていた($3041+2081+164=5286$).また,複合名詞1つあたりの平均文字数および平均構成語数は6.60および1.46であった.以下本節において報告する実験結果は,このラベル付きデータを用いて2分割交差検定を行ったものである.言い換え及び逆翻字を抽出するためのテキストには,ウェブから収集した17億文のブログ記事を用いた.このテキストを用いることによって14,966,205の言い換え表現と,116,027の単語対応付き翻字対を抽出することができた.表\ref{fig:extract-para}と\ref{fig:extract-backtrans}に,実際に抽出された言い換え表現(の候補)と単語対応付き翻字対の具体例を示す.単語対応付き翻字対の抽出を行う際には閾値$\theta$を設定する必要がある.$\theta$は確率の対数に対する閾値であるため,0より小さな任意の値を設定することが可能であるが,ここでは$\{-10,-20,\dots\linebreak-150\}$の範囲で値を変化させ,実験において最も高いF値が得られた値($\theta=-80$)を採用した.\subsection{ベースライン手法}\label{sec:baseline}実験では,3つの教師なし学習手法(Unigram,GMF,GMF2),2つの教師あり学習手法(AP,AP$+$GMF2),3つの単語分割器(JUMAN,MeCab,KyTea)との比較を行った.以下ではこれらベースライン手法について簡単に説明を行う.\begin{description}\item[教師なし学習]\begin{description}\item[Unigram]分割結果$\y$に対する$1$-gram言語モデルの尤度$p(\y)$が最も大きくなる分割を選択する手法\cite{Schiller05,AlfonsecaCICLing08}:\[\y^{*}=\argmax_{\y\in\mathcal{Y}(x)}p(\y)=\argmax_{\y\in\mathcal{Y}(x)}\prod_{i}p(y_i)\]ここで$p(y_i)$は構成語$y_i$の出現確率であり,\ref{sec:setting}節で述べたウェブテキストから推定をした値を用いた.\item[GMF]構成語$y_i$の頻度の幾何平均\mbox{GMF}$(\y)$が最大となる分割$\y$を選択する手法\cite{Koehn03}:\[\y^{*}=\argmax_{\y\in\mathcal{Y}(x)}\mbox{GMF}(\y)=\argmax_{\y\in\mathcal{Y}(x)}\Bigl\{\prod_{i}f(y_i)\Bigr\}^{1/|\y|}\]ここで$f(y_i)$は構成語$y_i$の出現頻度であり,$p(y_i)$と同様にウェブテキストから推定した値を用いた.\item[GMF2]頻度の幾何平均に構成語の長さに基づく補正を導入したスコアを用いる手法\cite{Nakazawa05}:\pagebreak\[\mbox{GMF2}(\y)=\begin{cases}\mbox{GMF}(\y)&(|\y|=1)\\[10pt]\frac{\mbox{GMF}(\y)}{\frac{C}{N^l}+\alpha}&(|\y|\geq2),\end{cases}\]ここで$C$,$N$,$\alpha$は超パラメータ,$l$は構成語の平均文字数を表す.本実験ではNakazawaら\citeyear{Nakazawa05}と同じく$C$=2500,$N$=4,$\alpha$=0.7とした.\end{description}\item[教師あり学習]\begin{description}\item[AP]基本素性(\ref{sec:approach}節参照)のみを用いた平均化パーセプトロン.\item[AP$+$GMF2]基本素性に加えて{\scGmf2}の処理結果を素性として用いた平均化パーセプトロン.Alfonsecaら\citeyear{AlfonsecaCICLing08}に従って,(i)GMF2$(\y)$の値が全分割候補中で最大であるか否かを表す2値素性,(ii)分割を行わない候補(i.e.,$|\y|=1$となる候補)よりもGMF2の値が大きくなるか否かを表す2値素性を追加した.\end{description}\item[単語分割器]\begin{description}\item[JUMAN]ルールベースの単語分割器\footnote{正確には形態素解析器であるが,本実験では品詞タグ付与の議論は行わないのでこう呼ぶ.}\JUMANver.~6.0\cite{Kurohashi94}.\item[MeCab]対数線形モデルに基づく単語分割器MeCabver.~0.98\cite{Kudo04}.解析辞書にはNAIST-jdicver.~0.6.0を用いた.\item[KyTea]点推定モデルに基づく単語分割器KyTeaver.~0.3.1\cite{Neubig11}.\end{description}\end{description}\subsection{ベースライン手法との比較}\label{sec:compare}\begin{table}[b]\hangcaption{ベースライン手法との比較.表中のP,R,F$_1$は,認識された単語境界の適合率,再現率,F値を示す.またAccは分割精度,すなわち正しく分割された片仮名複合名詞の割合を示す}\label{tab:comparison_result}\input{02table07.txt}\vspace{-0.5\Cvs}\end{table}表\ref{tab:comparison_result}に提案手法(Proposed)とベースライン手法との比較結果を示す.この表の結果から以下のようなことが分かる.まず,ProposedとAPの結果の比較から,言い換え素性と逆翻字素性を導入することにより,分割精度が大きく向上したことが分かる.マクネマー検定を行ったところ,この精度変化は統計的に有意なものであることが確認された($p<0.01$).この結果は,提案する2つの素性の有効性を示すものである.次に,提案手法の精度は,全ての教師なし学習ベースライン(Unigram,GMF,GMF2)及びAP$+$GMF2の精度を上回っていることが確認できる.これらの結果は,複合名詞の言い換えや逆翻字の情報が,構成語の頻度情報よりも効果的であることを示唆している.なお,マクネマー検定を行ったところ,これらの精度向上も全て統計的に有意であることが確認できた($p<0.01$).単語分割器(JUMAN,MeCab,KyTea)の結果は,これまでに単語分割タスクにおいて報告されている精度\cite{Kudo04,Neubig11}を大きく下回っている.このことから,一般的な単語分割と比較して,片仮名複合語の分割処理が困難なタスクであることが分かる.さらに,提案手法の精度は,単語分割器の精度を大きく上回っており,提案手法が既存の単語分割器の弱点補強に有用であることが示唆されている.例えば,既存の単語分割器によって「片仮名表記の名詞の連続」と解析された部分を,提案手法を用いて再分割することにより,解析結果の改善を期待することができる.\begin{table}[b]\caption{MeCabとProposedの出力比較.スラッシュはシステムに認識された単語境界を表す}\label{tab:example}\input{02table08.txt}\end{table}表\ref{tab:example}に,MeCabでは分割に失敗したが,Proposedでは正しく分割することができた例を示す.まず最初の例では,片仮名語「ディクショナリー」がNAIST-jdicに登録されていなかったため,MeCabは分割に失敗している.一方,Proposedにおいては,以下のような単語対応付き翻字対が学習されており,これに基づいて発火した逆翻字素性(1-gram)が有効に働いた結果,正しく分割することに成功している.\begin{quote}\underline{オックスフォード}$_1$\underline{ディクショナリー}$_2$\\\\\underline{oxford}$_1$\underline{\mbox{dictionary}}$_2$\end{quote}\noindent次の例では「メイン」と「タイトル」が両方ともNAIST-jdicに登録されているにも関わらず,MeCabは分割に失敗している.これは,MeCabの未知語処理に起因する誤りであると考えられる.その一方でProposedが分割に成功しているのは,例えば「メインのタイトル」といった言い換え表現に基づく素性など,分割を示唆する素性がより多く発火しているためだと推測できる.最後の例では,NAIST-jdicに人名「トミー」が登録されているため,MeCabは過分割を行ってしまっているが,Proposedでは「アナトミー」に対する逆翻字素性が適切に発火しており,過分割を防ぐことに成功している.本論文の趣旨からは外れるが,3つの単語分割器のなかではKyTeaの精度が他の2つを大きく引き離している点は非常に興味深い.これは,JUMANやMeCabの解析アルゴリズムが,辞書引きによる候補選択に強く依存しているのに対して,KyTeaはそのような候補選択を行っていないことが要因と考えられる.\subsection{未知語に関する考察}実験に使用した5286の片仮名複合名詞のうち,2542は少なくとも1つの未知語を構成語に含んでいた.ただし,ここで言う未知語とは,訓練データに出現せず,なおかつ外部辞書NAIST-jdicにも登録されていない単語のことを指す.未知語が分割精度に与える影響について考察するため,提案手法を含む3つの教師あり学習手法(AP,AP$+$GMF2,Proposed)と単語分割器MeCabの分類結果を,1つ以上の未知語を含む2542の片仮名複合名詞と残る2744の片仮名複合名詞に分けて集計した(表\ref{tab:oov}).以下では,前者のサブセットをw/OOVデータ,後者をw/oOOVデータと呼ぶ.\begin{table}[b]\hangcaption{未知語を含む片仮名複合名詞(w/OOV)とそれ以外の片仮名複合名詞(w/oOOV)に対する分割結果の比較}\label{tab:oov}\input{02table09.txt}\end{table}この表から,3つの教師あり学習手法については,w/oOOVデータに対しては90\%を越える高い精度が達成されているのに対して,w/OOVデータの精度は大きく低下していることが確認できる.同様の傾向はMeCabの結果においても見られる.MeCabは汎用的な単語分割器であるため,複合名詞分割というタスクに特化して学習された提案手法(Proposed)やその他の教師あり学習手法(APやAP$+$GMF2)と比べると,精度自体はどちらのデータにおいても大きく低下している.しかし,w/OOVデータよりもw/oOOVデータのほうが精度が高くなるという傾向は,依然として確認することができる.これらの結果は,片仮名複合名詞の分割処理を困難にしている要因は未知語であるという我々の主張を支持するものである.3つの教師あり学習手法は,w/oOOVデータについてはほぼ同じ精度を達成していることが分かる.これは,既知語に対しては,基本素性だけを使ってすでに高い分類精度が達成されているため,これ以上の精度向上が困難であるからだと考えられる.一方,精度向上の余地が残されているw/OOVデータについては,3つのシステムの間に大きな精度の差を見てとることができる.そのため,表\ref{tab:comparison_result}の結果よりも,言い換え素性と翻字素性を導入する効果をより直接的に確認することができる.\subsection{言い換え素性と翻字素性の効果}\label{sec:effect}言い換え素性と翻字素性の有効性について詳細に検証するため,異なる4つの素性集合を用いたときの平均化パーセプトロンの分割結果の比較を行った(表\ref{tab:comparison}).表の1行目は使用した素性集合を表す.{\scBasic}は基本素性,{\scPara}と{\scTrans}はそれぞれ言い換え素性と翻字素性,{\scAll}は全ての素性集合を表す.この表より,言い換え素性と翻字素性の両方ともが分割精度向上に大きく貢献していることを確認することができた.いずれの場合においても,基本素性だけを使った場合と比較して,精度の向上は統計的に有意であった($p<0.01$,マクネマー検定).\begin{table}[b]\hangcaption{言い換え素性と逆翻字素性の効果.表中の{\scBasic},{\scPara},{\scBackTrans}は,それぞれ基本素性,言い換え素性,逆翻字素性を示す.また{\scAll}はそれら全ての素性を示す}\label{tab:comparison}\input{02table10.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{19-2ia927f1.eps}\end{center}\hangcaption{言い換えと単語対応付き翻字対の抽出に用いたブログデータのサイズ(横軸)と各素性の発火率(縦軸)の関係}\label{fig:feature-coverage}\end{figure}次に,各素性の発火率について調査を行った.実験で用いたラベル付きデータには7709の構成語が含まれており,そのうち64.0\%(4937/7709)は外部辞書に登録されていた.これに対して,単語対応付き翻字対に出現していた構成語の割合は64.0\%(4935/7709),外部辞書か単語対応付き翻字対のいずれかに出現していたものの割合は77.1\%(5941/7709)であった.これにより,翻字素性を導入することによって,未知語の数が大幅に減少していることが確認された.一方,ラベル付きデータに含まれる構成語$2$-gramの数は2423であったが,それらに対して発火していた言い換え素性と翻字素性の割合は,それぞれ79.5\%(1926/2423)と12.8\%(331/2423)であった.これらの結果から,提案素性はいずれも精度向上に寄与しているものの,カバレージにはまだ改善の余地があることが分かった.続いて,素性の発火率と収集元であるブログデータの大きさの関係を調査した(図\ref{fig:feature-coverage}).ここではブログデータの大きさとして,収集したブログ記事(UTF8エンコーディング)をgzipで圧縮したデータのサイズをギガバイト単位で表示している.この図から,大量のブログデータを使うことによって,高い発火率を実現できていることが確認できる.しかし,その一方で,データが増えるにつれて,発火率の向上の度合いは鈍りつつある.このことから,データを単純に増加させるだけでは,ここからの大幅な発火率の改善を期待することは難しく,言い換え規則の拡張などの方法も併せて検討していくことが今後重要になると考えられる.\subsection{パラメータ$\theta$}\label{sec:threshold}\begin{figure}[b]\begin{center}\includegraphics[clip]{19-2ia927f2.eps}\end{center}\caption{パラメータ$\theta$(横軸)と抽出された単語対応付き翻字対の数(縦軸)}\label{fig:size}\end{figure}最後に,パラメータ$\theta$の値を変化させたときの影響について調査を行った(図\ref{fig:size}--\ref{fig:threshold}).図\ref{fig:size}と\ref{fig:fire}は,様々な値の$\theta$に対する,単語対応付き翻字対の抽出数および逆翻字素性の発火した割合(\ref{sec:effect}節において議論したもの)を示している.これらの図から,$\theta$の値をある程度小さく設定すれば,十分な数の翻字対が抽出され,その結果として多くの事例において素性が発火するようになることが分かる.図\ref{fig:threshold}は$\theta$とF値の関係を示している.さきほどの2つの図との比較すると,翻字対の抽出数と素性の発火数の増加が,F値の向上に直接結びついていることが分かる.パラメータの値が極端に大きい場合(e.g.,$-20$)においては,F値が低下する傾向が見られたものの,パラメータによらずF値はおおよそ一定であった.この結果から,提案手法の精度はパラメータ設定に敏感ではなく,パラメータ調整は難しい作業ではないことが示唆される.また,少なくとも実験において調べた範囲では,提案手法はパラメータ値によらず,基本素性のみを用いた場合よりも高いF値を達成することができた.そのため,パラメータの微調整が提案手法の性能に与える影響は小さいと言うことができる.\begin{figure}[t]\begin{center}\includegraphics[clip]{19-2ia927f3.eps}\end{center}\hangcaption{パラメータ$\theta$(横軸)と逆翻字素性の発火率(縦軸).グラフ中の三角と四角は,それぞれ構成語1-gramと2-gramに対する発火率を表す}\label{fig:fire}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[clip]{19-2ia927f4.eps}\end{center}\hangcaption{パラメータ$\theta$(横軸)とF値(縦軸)の関係.グラフ中の三角と四角は,それぞれ全素性を使った場合と,基本素性のみを使った場合に相当する}\label{fig:threshold}\end{figure}\subsection{誤りの分析}\label{subsec:error}提案手法が分割を誤った事例を調べたところ,「アップロード」を「アップ」と「ロード」,「トランスフォーマー」を「トランス」と「フォーマー」に分割するなど,単語を過分割している事例が見られた.ここでの「アップ」や「トランス」は接頭辞であると考えられるため,これらの分割結果は形態論的分割(morphologicalsegmentation)としては正しいものであるかもしれないが,単語分割としては不適切であると考えられる.こうした過分割が発生する要因として,接辞と単語の曖昧性を指摘することができる.例えば「アップ」は,確かに接頭辞の1つであるが,文脈によっては「給料がアップする」のように独立した名詞として使われる場合もある.同じく「トランス」に対しても「トランス状態」のような名詞用法を考えることができる.このような曖昧性によって引き起こされる最も顕著な問題は,辞書素性(表\ref{tab:feature}におけるテンプレートID4)が過剰に発火することである.前述の過分割の事例においては,NAIST-jdicに「アップ」と「トランス」がともに名詞として登録されていたため,本来不適切な分割結果であるにも関わらず辞書素性が発火していた.これと同様の問題は,辞書素性だけでなく,逆翻字素性においても発生しうる.\ref{sec:trans}節で説明した単語対応付き翻字対の抽出手法は,原語が正しく分かち書きされていることを前提としていた.しかしながら,実際には接頭辞や接尾辞の前後に空白区切りを挿入しているテキストも存在するため,不適切な対応関係が学習されてしまう場合がある.表\ref{tab:error}は上記の過分割結果に影響を与えたと思われる単語対応付き翻字対の一部である.この表から,「アップロード」と「トランスフォーマー」については,それぞれ原語との対応関係が適切に学習されていることが確認できる.しかしながら「アップローダー」と「トランスフォーム」については,原語が接頭辞の直後で分かち書きされていたため,不適切な単語対応が学習されていることが分かる.こうした対応付け結果から導出された逆翻字素性(この例では特に1-gram)は分割に悪影響を与えている可能性がある.翻字抽出の手法を改善することにより,こうした誤りを減少させることは,今後の課題の一つであると考えている.\begin{table}[t]\caption{過分割結果に影響を与えたと思われる単語対応付き翻字対の一部}\label{tab:error}\input{02table11.txt}\end{table}過分割が多くみられた別要因としてデータの偏りを考えることもできる.今回使用したデータの半数以上は構成語数が1つであったため,そもそも過分割が発生しやすい設定の実験になっていた可能性がある(\ref{sec:setting}節を参照).現在のところ,当該タスクに対する別のデータセットを用意することは難しいため,この点をすぐに調査することはできないが,今後の研究の中で議論を深めていくべきであると考えられる. \section{おわりに} \label{sec:conclude}本論文では,言い換えと逆翻字を用いて,片仮名複合語の分割処理の精度を向上させる方法を提案した.提案手法により,大規模なラベルなしテキストを分割処理に利用することが可能となり,分割精度の低下の要因となる未知語の影響を軽減させることが可能となる.実験においては,8つのベースライン手法との比較を通じて,提案手法の有効性を実証的に示した.今後の課題としては,提案手法と既存の単語分割手法を融合した解析モデルの構築に取り組みたい.\ref{sec:compare}節においては,提案手法を後処理に利用可能であることについて言及したが,そうしたアドホックな方法は,学術的立場からは必ずしも満足のいくものではないと考えている.提案手法と既存の単語分割を組み合わせる方法としては,今回提案した素性を統計的な単語分割器に追加することなどが考えられるが,現時点ではその有効性について十分な検証を行うことができておらず,今後調査すべき課題であろう.また,近年では,教師なし学習による単語分割手法も盛んに研究されているが,そうした手法に言い換えや翻字の情報を取り入れることも興味深い問題である\cite{Mochihashi09}.これに加えて,本論文の中で提案したアイデアを一般化していくことも,今後重要な研究課題になると考えている.本論文では議論の対象を英語由来の片仮名複合名詞に限定していたが,同様の手法は,その他の片仮名語に対しても有効である可能性が高い.例えば,翻字素性は,英語以外の言語からの借用語に対しても有効に働くことが期待できる.また,言い換え素性は,和語や漢語の片仮名表記に対しても有効である可能性が高い(例えば「トンコツラーメン」に対する「トンコツのラーメン」などの言い換え).さらに,言い換えを単語境界の認識に利用するという考え方は,複合名詞に限らず,単語分割処理一般に対しても適用できる可能性がある.今後はこうした方向についても研究を進めていきたい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alfonseca,Bilac,\BBA\Pharies}{Alfonsecaet~al.}{2008}]{AlfonsecaCICLing08}Alfonseca,E.,Bilac,S.,\BBA\Pharies,S.\BBOP2008\BBCP.\newblock\BBOQGermanDecompoundinginaDifficultCorpus.\BBCQ\\newblockIn{\BemProceedingsofCICLing},\mbox{\BPGS\128--139}.\bibitem[\protect\BCAY{Ando\BBA\Lee}{Ando\BBA\Lee}{2003}]{Ando03}Ando,R.~K.\BBACOMMA\\BBA\Lee,L.\BBOP2003\BBCP.\newblock\BBOQMostly-unsupervisedstatisticalsegmentationof{J}apanesekanjisequences.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf9}(2),\mbox{\BPGS\127--149}.\bibitem[\protect\BCAY{Braschler\BBA\Ripplinger}{Braschler\BBA\Ripplinger}{2004}]{Braschler04}Braschler,M.\BBACOMMA\\BBA\Ripplinger,B.\BBOP2004\BBCP.\newblock\BBOQHoweffectiveisstemminganddecompoundingfor{G}ermantextretrieval?\BBCQ\\newblock{\BemInformationRetrieval},{\Bbf7},\mbox{\BPGS\291--316}.\bibitem[\protect\BCAY{Breen}{Breen}{2009}]{Breen09}Breen,J.\BBOP2009\BBCP.\newblock\BBOQIdentificationofNeologismsin{J}apanesebyCorpusAnalysis.\BBCQ\\newblockIn{\BemProceedingsofeLexicographyinthe21stcentryconference},\mbox{\BPGS\13--22}.\bibitem[\protect\BCAY{Brill,Kacmarcik,\BBA\Brockett}{Brillet~al.}{2001}]{Brill01}Brill,E.,Kacmarcik,G.,\BBA\Brockett,C.\BBOP2001\BBCP.\newblock\BBOQAutomaticallyHarvestingKatakana-{E}nglishTermPairsfromSearchEngineQueryLogs.\BBCQ\\newblockIn{\BemProceedingsofNLPRS},\mbox{\BPGS\393--399}.\bibitem[\protect\BCAY{Brown}{Brown}{2002}]{Brown02}Brown,R.~D.\BBOP2002\BBCP.\newblock\BBOQCorpus-DrivenSplittingofCompoundWords.\BBCQ\\newblockIn{\BemProceedingsofTMI}.\bibitem[\protect\BCAY{Cao,Gao,\BBA\Nie}{Caoet~al.}{2007}]{Cao07}Cao,G.,Gao,J.,\BBA\Nie,J.-Y.\BBOP2007\BBCP.\newblock\BBOQASystemtoMineLarge-ScaleBilingualDictionariesfromMonolingual{W}ebPages.\BBCQ\\newblockIn{\BemProceedingsofMTSummit},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Cherry\BBA\Suzuki}{Cherry\BBA\Suzuki}{2009}]{Cherry09}Cherry,C.\BBACOMMA\\BBA\Suzuki,H.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeSubstringDecodingforTransliteration.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1066--1075}.\bibitem[\protect\BCAY{Freund\BBA\Schapire}{Freund\BBA\Schapire}{1999}]{Freund99}Freund,Y.\BBACOMMA\\BBA\Schapire,R.~E.\BBOP1999\BBCP.\newblock\BBOQLargemarginclassificationusingtheperceptronalgorithm.\BBCQ\\newblock{\BemMachineLearning},{\Bbf37}(3),\mbox{\BPGS\277--296}.\bibitem[\protect\BCAY{Holz\BBA\Biemann}{Holz\BBA\Biemann}{2008}]{Holz08}Holz,F.\BBACOMMA\\BBA\Biemann,C.\BBOP2008\BBCP.\newblock\BBOQUnsupervisedandKnowledge-FreeLearningofCompoundSplitsandPeriphrases.\BBCQ\\newblockIn{\BemProceedingsofCICLing},\mbox{\BPGS\117--127}.\bibitem[\protect\BCAY{Jiampojamarn,Kondrak,\BBA\Sherif}{Jiampojamarnet~al.}{2007}]{Jiampojamarn07}Jiampojamarn,S.,Kondrak,G.,\BBA\Sherif,T.\BBOP2007\BBCP.\newblock\BBOQApplyingMany-to-manyAlignmentandHidden{M}arkovModelstoLetter-to-phonemeConversion.\BBCQ\\newblockIn{\BemHLT-NAACL},\mbox{\BPGS\372--379}.\bibitem[\protect\BCAY{Kageura,Yoshikane,\BBA\Nozawa}{Kageuraet~al.}{2004}]{Kageura04}Kageura,K.,Yoshikane,F.,\BBA\Nozawa,T.\BBOP2004\BBCP.\newblock\BBOQParallelBilingualParaphraseRulesforNounCompounds:ConceptsandRulesforExploring{W}ebLanguageResources.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponAsianLanguageResources},\mbox{\BPGS\54--61}.\bibitem[\protect\BCAY{Koehn\BBA\Knight}{Koehn\BBA\Knight}{2003}]{Koehn03}Koehn,P.\BBACOMMA\\BBA\Knight,K.\BBOP2003\BBCP.\newblock\BBOQEmpiricalMethodsforCompoundSplitting.\BBCQ\\newblockIn{\BemProceedingsofEACL},\mbox{\BPGS\187--193}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo04}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{J}apaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\22--38}.\bibitem[\protect\BCAY{Mochihashi,Yamada,Naonori,\BBA\Ueda}{Mochihashiet~al.}{2009}]{Mochihashi09}Mochihashi,D.,Yamada,T.,Naonori,\BBA\Ueda\BBOP2009\BBCP.\newblock\BBOQBayesianUnsupervisedWordSegmentationwithNested{P}itman-{Y}orLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\100--108}.\bibitem[\protect\BCAY{Nakazawa,Kawahara,\BBA\Kurohashi}{Nakazawaet~al.}{2005}]{Nakazawa05}Nakazawa,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2005\BBCP.\newblock\BBOQAutomaticAcquisitionofBasic{K}atakanaLexiconfromaGivenCorpus.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP},\mbox{\BPGS\682--693}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{Neubig11}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,Adaptable{J}apaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Oh\BBA\Isahara}{Oh\BBA\Isahara}{2008}]{Oh08}Oh,J.-H.\BBACOMMA\\BBA\Isahara,H.\BBOP2008\BBCP.\newblock\BBOQHypothesisSelectioninMachineTransliteration:A{W}ebMiningApproach.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{Okazaki,Ananiadou,\BBA\Tsujii}{Okazakiet~al.}{2008}]{Okazaki08}Okazaki,N.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQADiscriminativeAlignmentModelforAbbreviationRecognition.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\657--664}.\bibitem[\protect\BCAY{Schiller}{Schiller}{2005}]{Schiller05}Schiller,A.\BBOP2005\BBCP.\newblock\BBOQGermanCompoundAnalysiswithwfsc.\BBCQ\\newblockIn{\BemProceedingsofFiniteStateMethodsandNaturalLanguageProcessing},\mbox{\BPGS\239--246}.\bibitem[\protect\BCAY{Schwartz\BBA\Hearst}{Schwartz\BBA\Hearst}{2003}]{Schwartz03}Schwartz,A.~S.\BBACOMMA\\BBA\Hearst,M.~A.\BBOP2003\BBCP.\newblock\BBOQAsimplealgorithmforidentifyingabbreviationdefinitionsinbiomedicaltext.\BBCQ\\newblockIn{\BemProceedingsofPSB},\mbox{\BPGS\451--462}.\bibitem[\protect\BCAY{Tsujimura}{Tsujimura}{2006}]{Tsujimura06}Tsujimura,N.\BBOP2006\BBCP.\newblock{\BemAnIntroductionto{J}apaneseLinguistics}.\newblockWiley-Blackwell.\bibitem[\protect\BCAY{Wu,Okazaki,\BBA\Tsujii}{Wuet~al.}{2009}]{Wu09}Wu,X.,Okazaki,N.,\BBA\Tsujii,J.\BBOP2009\BBCP.\newblock\BBOQSemi-supervisedLexiconMiningfromParentheticalExpressionsinMonolingual{W}ebPages.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\424--432}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{鍜治伸裕}{2005年東京大学大学院情報理工学系研究科博士課程修了.情報理工学博士.東京大学生産技術研究所産学官連携研究員および特任助教を経て,現在,同特任准教授.CGMテキストの解析を中心とした自然言語処理の研究に興味を持つ.}\bioauthor{喜連川優}{1983年東京大学工学系研究科情報工学専攻博士課程修了.工学博士.東京大学生産技術研究所講師.助教授を経て,現在,同教授.東京大学地球観測データ統融合連携研究機構長.東京大学生産技術研究所戦略情報融合国際研究センター長.文部科学官.2005年から2010年まで文部科学省「情報爆発」特定研究領域代表,2007年から2009年まで経済産業省「情報大航海プロジェクト」戦略会議委員長,情報処理学会フェロー,2008年から2009年まで副会長,データベース工学の研究に従事.}\end{biography}\biodate\end{document}
V02N04-03
\section{まえがき} 形態素解析処理は自然言語処理の基本技術の一つであり,日本語の形態素解析システムも数多く報告されている\cite{yosimura83}\cite{hisamitu90}\cite{nakamura}\cite{miyazaki}\cite{kitani}\cite{hisamitu94a}\cite{maruyama94}\cite{juman}\cite{nagata}.しかし,使用している形態素文法について詳しく説明している文献は少ない.文献\cite{miyazaki}では三浦文法\cite{miura}に基づいた日本語形態素処理用文法を提案しているが,品詞の体系化と品詞間の接続ルールの記述形式の提案のみに留まり,具体的な文法記述や実際の解析システムへの適用にまでは至っていない.公開されている形態素解析システムJUMAN\cite{juman}では,形態素文法は文献\cite{masuoka}に基づくものであった.その他の文献は解析のアルゴリズムや,固有名詞や未知語の特定機能に関する報告で,使用された形態素文法については述べられていない.言語学の分野で提案されている文法を形態素解析に適用する場合の問題点は,品詞分類が細か過ぎる点と,ほとんどの場合,動詞の語尾の変化について全ての体系が与えられていない点である.言語学の分野では文の過剰な受理を避けるように文法を構築することによって,日本語の詳細な文法体系を解明しようとするので,品詞分類が細かくなるのは当然である.しかし,そのために,文法規則も非常に細かくなり,形態素の統一的な扱いも難しくなる.そこで,本文法では,「形態素解析上差し支えない」ことを品詞の選定基準とする.つまり,ある品詞を設定しないが為に,ある文節に関して構文上の性質に曖昧性が生じる場合に,その品詞を設定する.そして,過剰な受理を許容することと引き替えに,できる限り形態素を統一的に扱う.従来の多くの文法では活用という考え方で動詞の語尾変化を説明するが,それらの活用形についての規則は,個々の接尾辞について接尾可能な活用形を列挙するという形になっている.例えばいわゆる学校文法では,「書か」はカ行五段活用動詞「書く」の未然形であり,否定の接尾辞の「ない」や使役の接尾辞の「せる」が接尾する等の規則が与えられる.さらに一段活用動詞には「せる」ではなく「させる」が接尾する等の規則があり,規則が複雑になっている.そのため,それらの複雑な規則を吸収するために活用形を拡張し,「書こう」を意志形としたり,「書いた」を完了形とするような工夫がなされる.しかし,このように場当たり的に活用形を拡張すると活用形の種類が非常に多くなり,整合性を保つための労力が大きくなる.日本語形態素処理における動詞の活用の処理については文献\cite{hisamitu94b,hisamitu94c}に詳しい.そこでは,音韻論的手法\cite{bloch,teramura},活用形展開方式,活用語尾分離方式が紹介され,新たに活用語尾展開方式\footnote{文献\cite{hisamitu94b,hisamitu94c}では,提案方式と呼ばれている.}が提案されている.音韻論的手法は,子音動詞の語幹と屈折接辞を音韻単位に分解し,屈折接辞の音韻変化の規則を用いて,活用を単なる動詞語幹と屈折接辞の接続として捕らえる.しかし,これまでの音韻論的手法では,子音動詞についての知見しか得られていなかったために,子音動詞に接尾する接尾辞と母音動詞に接尾する接尾辞を別々に扱わなければならなかった.また,音韻単位で処理する必要があると考えられているため,文献\cite{hisamitu94b,hisamitu94c}でも,処理の効率が落ちるとされている.一方,活用形展開方式,活用語尾分離方式,活用語尾展開方式は何れも伝統的な学校文法に基づいている.活用形展開方式は,各動詞についてその活用形を全て展開して辞書に登録し,それぞれ接尾辞との接続規則を与えるもので,処理速度の点で有利であるが,登録語数が非常に多くなる上に,接続規則の与え方によっては効率の点でも不利になる可能性がある.活用語尾分離方式は,活用語尾を別の形態素とし,動詞語幹と活用語尾の接続規則および活用語尾と接尾辞の接続規則を与えるもので,動詞の屈折形の解析の際に分割数が多くなり,効率の点で不利である.また,接続規則が非常に複雑になる.活用語尾展開方式は,活用語尾と接尾辞の組み合わせを形態素とし,これらと動詞語幹との接続規則だけを与えるもので,活用語尾分離方式よりも分割数が少なくなり,効率的に有利であるとされている.しかし,活用形展開方式,活用語尾分離方式,活用語尾展開方式の共通の問題点は,活用語尾と接尾辞の接続規則が体系的でない点である.特に活用語尾展開方式では,新しい接尾辞を追加する度に10以上ある動詞の活用の型それぞれに対する形態素の展開形を追加しなければならない.また,「られ」「させ」といったいわゆる派生的な接尾辞に対してはさらに多くの展開形を別々の形態素として登録する必要があるはずである\footnote{この点については文献中には触れられていない.}.そこで本文法では,動詞の語尾変化について体系的に扱うことに成功している派生文法\cite{kiyose}を基にした\footnote{派生文法を基にしたシステムとしては,文献\cite{nisino}で,何らかの方法で分解した動詞の語尾の構造を派生文法に基づいて解析するシステムについて報告されているが,形態素解析システムへの適用は報告されていない.}.派生文法も音韻論的アプローチの文法であるが,従来のものに対して,連続母音と連続子音の縮退,および内的連声\footnote{上記の屈折接辞の音韻変化と同じもの}という考え方を用いて,母音動詞も子音動詞も同様に扱うことができる.しかし,派生文法は音韻論的手法であるため,形態素解析に適用するには,処理を音韻単位で行う必要があるという問題がある.日本語のテキストを処理するような形態素解析システムでは,文字を子音と母音に分けずに日本語の文字でそのまま処理できた方が都合がよい.本研究では,派生文法における動詞語尾の扱いを日本語の文字単位で処理できるように変更する方法を見い出すことができた.すると図らずも従来の活用という考え方に適合する形になることが判明し\footnote{派生文法では日本語における活用の考え方を完全に否定している.},これによって,活用の考えを用いて作られている既存の形態素解析システムに適用することができた.しかも語尾変化についての完全な体系を背後に持つため,新たに認識された語尾変化に対しても活用形を順次増やす必要がなく,対応する形態素を一つだけ辞書に登録すれば済むようになった.事実,「食べれる」といったいわゆる「ら抜き表現」や,「書かす」といった口語的な使役表現などもそれぞれ一つの形態素を追加することで対応できている.このように新しい語尾を簡単に追加できることから,口語的な語尾の形態素を充実させることができ,口語的な文章に対しても高い精度で解析できるようになった.また,「食べさせられますまい」といった複雑な語尾変化も正確に解析できる.本研究で開発された形態素解析文法は,文字表記された日本語のテキストから言語データを抽出することを主な目的として開発されたものである.従って,日本語の漢字仮名混じりの正しい文\footnote{一般の日本人が許容できる範囲で正しいという意味で,正式な日本語という意味ではない.}を文節に区切り,その文節の係り受けの性質を識別することを最優先した解析用の文法となっている.また,形態素の意味的な面を捨象し,過剰な受理を許容することで,形態素の統一的な扱いをすることに重点を置いている.これはあくまで計算機上へのシステムの構築を容易にするためであり,なんらかの言語学的な主張をする意図はない.さらに過剰な受理を許容する意味で,この文法は解析用の文法といえる.生成等に利用するにはこの過剰な受理が障害になる可能性がある.また,誤りを含む文の識別に用いるのにも問題がある.本形態素文法はあくまで正しい文の解析に特化した文法として位置付ける必要がある.本稿では\ref{system}節で形態素の種類とそれらが満たすべき制約の体系を説明し,\ref{verb}節で動詞の語尾の扱いについて述べる.\ref{apply}節では,それを日本語文字単位の形態素解析向きに変更する方法を示す.さらに,\ref{detail}節では個別の問題がある語尾について述べ,最後にこの形態素文法を形態素解析プログラムJUMANに適用した場合の解析性能を評価する.なお,われわれが作成した形態素文法の形態素解析プログラムJUMANへの適用事例は,以下のanonymousftpで入手可能である.但し,評価の際に使用した辞書の一部について配布に制限のあるものは含まれていない.\\camille.is.s.u-tokyo.ac.jp/pub/member/fuchi/juman-fuchi \section{形態素の体系} \label{system}本稿では,形態素文法を品詞間の隣接可能性を示す形で与える.文献\cite{maruyama94}にあるように,形態素文法も正規文法等で記述した方がより細かい記述ができるが,処理効率や形態素解析システムへの適用の関係でこの形に落ちついた.\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline属性名&属性値\\\hline主属性&無$|$動$|$形$|$名$|$数$|$時$|$格$|$尾\\係属性&無$|$連体$|$連用$|$終止\\左隣接属性&無$|$動$|$形$|$名$|$数$|$時$|$接続$|$連体$|$連用\\右隣接属性&無$|$動$|$形$|$名$|$数$|$時$|$接続$|$尾\\\hline\end{tabular}\end{center}\caption{形態素の属性}\label{attribute}\end{table}本文法では形態素に対して表\ref{attribute}に示す属性を設定する.逆にこのような属性を付加できるような文字の最小の連鎖を形態素と呼ぶ.また,形態素をその性質によって分類したものを品詞と呼ぶ.但し,システムの解析精度を上げるために,「かどうか」のように幾つかの形態素から合成され,厳密には形態素と言えないものを,一つの形態素として扱う場合がある.形態素の属性は以下のリストで表記する.\\[主属性,係属性,左隣接属性,右隣接属性]\\主属性は形態素の基本的な性質による分類であり,その形態素を含む文節がどのような「受け」を構成するかを示す.係属性はその形態素で終わる文節がどのような「係り」を構成するかを示す.文節の「係り」の種類としては「連体」と「連用」を設定する.「連体」は主属性が「名」「数」「時」の形態素に対して係り,「連用」は「述語\footnote{「述語」は名詞+名詞接尾辞,動詞語幹+動詞語尾,形容詞語幹+形容詞語尾,名詞+句読点,数詞+句読点および時詞+句読点によって構成される.}」に対して係る.そして,「連用」の「係り」となる文節の末尾に位置する形態素の係属性の値を「連用」とし,そのような形態素を「連用形」と呼ぶ.同様に「連体」の「係り」となる文節の末尾に位置する形態素の係属性の値を「連体」とし,そのような形態素を「連体形」と呼ぶ.さらに,「係り」を構成しない文節の末尾に位置する形態素の係属性の値は「終止」とし,そのような形態素を「終止形」と呼ぶ.左右の隣接属性は隣接する二つの形態素が満たすべき制約を表している.文を左から右に記述した場合に,隣接している形態素の内,左にある形態素の属性が[X1,Y1,L1,R1]であり,右にある形態素の属性が[X2,Y2,L2,R2]であったならば,以下が成り立つ必要がある.\\R1$\in$X2$\cup$Y2$\cup$L2かつL2$\in$X1$\cup$Y1$\cup$R1.\\大まかには,左にある形態素の右隣接属性は,その値がすぐ右の形態素の主属性,係属性,左隣接属性のいずれかの値と同じである場合に,それらの形態素が隣接可能であることを示す.また,右にある形態素の左隣接属性は,その値がすぐ左の形態素の主属性,係属性,右隣接属性のいずれかの値と同じである場合に,それらの形態素が隣接可能であることを示す.また,右隣接属性が「接続」である形態素を「接続形」と呼ぶ.これらの属性は,その取りうる値の組合せの内,一部は実在しない.表\ref{meisi-list}から表\ref{sonota-list}に実在する品詞を示す.以下で,それぞれの品詞について説明する.なお,それぞれの品詞名は,なるべく統語的な性質を反映した名前になるように本研究で独自に与えたものである.また,表中の補足の欄で与える例の内,アルファベットで表記してあるものは,\ref{verb}節で説明する連続母音縮退,連則子音の縮退,および内的連声との関連で,そのままでは日本語文字表記にならないものである.\subsection{名詞,連用名詞,補助名詞,時詞,数詞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[名,無,無,無]&名詞&名&人名,地名,物名\\&&&動作名ex.跳躍\\&&&形状名ex.静か\\[名,連用,無,無]&連用名詞&名/連用&ex.道中,半分,反面\\[名,連用,連体,無]&補助名詞&補名&ex.の,ん,際\\[(名,時),連用,無,無]&時詞&時&時の名称ex.今日,夏\\[(名,数),無,無,無]&数詞&数&数字ex.1,一,壱\\\hline\end{tabular}\end{center}\caption{名詞,数詞,時詞,補助名詞}\label{meisi-list}\end{table*}表\ref{meisi-list}に名詞関連の形態素を示す.名詞の属性は[名,無,無,無]である.主属性が「名」である事は,連体の係りを受けることを意味する.また,隣接属性が左右とも「無」であることは,名詞が単独で文節を構成可能であることを示す.係属性が「無」であることは,名詞自身では係りの種類を指定しないことを示す.特に,直後に名詞がくる場合には,複合して一つの名詞を形成する.名詞はさらに細かく「動作名詞」や「形状名詞」などへの分類が可能である.これらの細分類には「する」が接尾可能であるとか,「な」が接尾可能であるなどの統語的な振る舞いの違いが見られる.しかし,基本的にはこれらの細分類は意味的なものを反映している.従って,発話者がある単語にどのような意味を込めるかによって変動しうるものである.聞き手の立場からは逆にそのような使われ方から発話者が込めた意味を読みとる必要がある.従って,解析の場合には,解析の際に不都合がない限り,このような細分類は必要でないと考える.特に一般的に形容動詞といわれるものも,文献\cite{tokieda}と同様に,形容的な意味合いが強い名詞として,名詞に含める.連用名詞は属性が[名,連用,無,無]の品詞で,係りの種類を「連用」に指定する名詞の一種である.「半分冗談で言った」の例のように,直後に名詞が来ても複合名詞を形成せず,連用の文節を形成する.但し「冗談半分で言った」のように連用名詞が名詞の後に来る場合には複合名詞を形成する.補助名詞は述語の連体形の直後のみに現れる\footnote{従って,左隣接属性が「連体」になる.}という性質以外は連用名詞と同様な振る舞いをする.代表的な補助名詞は「の」で,属性は[名,連用,連体,無]である.「の」と「ん」は,実際には述語の連体形の直後にしか現れ得ないなど,さらに細かい制約があるが,本文法ではそれらの制約を表していない.時詞は連用名詞の一種であるが,「昨年夏に」などのように時詞が連続した場合には複合すると考え,別に設定した.属性は[(名,時),連用,無,無]である.主属性が(名,時)となっているのは,両方の属性を持つことを表す.数詞は名詞の一種とも見なせるが,数詞のみに接尾する接尾辞が存在し,これを区別しないと曖昧性が生ずる場合がある.そこで,属性を[(名,数),無,無,無]として名詞とは別に数詞を設定した.\subsection{格接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[格,連用,名,無]&格接尾辞/連用形&格尾/連用&格助詞ex.が,を,に,で\\[格,連体,名,無]&格接尾辞/連体形&格尾/連体&属格,助詞ex.の,や,か,と\\\hline\end{tabular}\end{center}\caption{格接尾辞}\label{kakusetsubi-list}\end{table*}表\ref{kakusetsubi-list}に格接尾辞を示す.格接尾辞は名詞に接尾して連用または連体の文節を形成する.格接尾辞が次節の名詞接尾辞と異なる点は,述語を形成しない点である.終止形は述語を形成してしまうため,この品詞には終止形が存在しない.文節に区切る目的からは格接尾辞と名詞接尾辞を区別する必然性はないが,構文解析での利用を考慮してこのように設定した.しかし「で」などは格接尾辞と名詞接尾辞の両方に所属すると考えられ,しかも形態素レベルで区別する方法がない.また「と」に関しては,連用と連体の両方の用法があると考えられ,これも形態素レベルでは区別ができない.これらについてはその取り扱いを\ref{detail}節で改めて述べる.\subsection{名詞接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[尾,終止,名,無]&名詞接尾辞/終止形&名尾/終止&ex.だ,です,でしょう,だろ\\[尾,連用,名,無]&名詞接尾辞/連用形&名尾/連用&ex.で,でして\\[尾,連体,名,無]&名詞接尾辞/連体形&名尾/連体&ex.{\dgな},だった\\[尾,無,名,接続]&名詞接尾辞/接続形&名尾/接続&ex.だ,です,でしょう\\\hline\end{tabular}\end{center}\caption{名詞接尾辞}\label{meisisetsubi-list}\end{table*}表\ref{meisisetsubi-list}に名詞接尾辞を示す.名詞接尾辞は名詞に接尾して述語の文節を形成する.従って「連用」の係りを受ける.本文法で名詞接尾辞の連体形としている\hspace{-0.3mm}「な」\hspace{-0.3mm}については,\hspace{-1mm}「学生\hspace{-0.5mm}\underline{な}ので」\hspace{-0.5mm}と\hspace{-0.5mm}「健康\hspace{-0.1mm}\underline{な}\hspace{-0.2mm}人」では意味的に異なるものと考えられるが,前者の「の」を補助名詞と考えると,両者とも統語的には同一に扱える.さらに本文法では「な」は話し手が形容的な意味合いを付加したあらゆる名詞に接尾可能であると考える.また,「体が健康な人」の例を考えると「名詞+な」で述語を形成していることが分かる.従って,「な」は格接尾辞連体形ではなく,名詞接尾辞連体形とする.接続形の形態素は全て連体形や終止形の形態素と表記が同じであるが,接続形では必ず接続接尾辞が接尾し,逆に連体形や終止形には接続接尾辞が接尾しないので,両者は区別可能である.このことは動詞接尾辞や形容詞接尾辞の接続形についても同じである.\subsection{動詞語幹,動詞接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[動,無,無,尾]&動詞語幹&動&ex.食べ,歩k,走r,思w\\\hline[尾,終止,動,無]&動詞接尾辞/終止形&動尾/終止&ex.ru,ita,you,ina\\[尾,連用,動,無]&動詞接尾辞/連用形&動尾/連用&ex.i,ite,eba\\[尾,連体,動,無]&動詞接尾辞/連体形&動尾/連体&ex.ru,ita\\[尾,無,動,接続]&動詞接尾辞/接続形&動尾/接続&ex.ru,ita\\\hline\end{tabular}\end{center}\caption{動詞語幹,動詞接尾辞}\label{dousi-list}\end{table*}表\ref{dousi-list}に動詞関連の形態素を示す.動詞語幹の属性は[動,無,無,尾]であり,右隣接属性が「尾」なので,「尾」の属性を持つものが接尾しなければならない.実際に接尾できるのは動詞接尾辞もしくは派生接尾辞の一部である.動詞語幹は動詞接尾辞を伴って動詞を形成する.動詞語幹には子音で終わるものと母音で終わるものがある.例えば「書く」の語幹は「kak」であり,「食べる」の語幹は「tabe」である.実際に存在する動詞語幹の末尾の子音は,K,G,S,T,N,B,M,R,Wの九個である.動詞接尾辞は動詞語幹または「動」の属性値を持つ派生接尾辞に接尾して,述語を形成する.動詞接尾辞には子音で始まるものと,母音で始まるものがある.例えば「書く」の動詞接尾辞は後述するように「ru」であると見なせ,「書きます」の動詞接尾辞は「imasu」であると見なせる.実際に存在する動詞接尾辞の先頭は,A,I,U,E,YO,RUである.さらに動詞語幹に接尾する派生接尾辞にはRA,SA,REで始まるものがある.これらの語幹に接尾辞が接尾する場合には,連続母音縮退,連続子音縮退,内的連声という規則的な変換がおこる.その詳細については\ref{verb}節で述べる.\subsection{形容詞語幹,形容詞接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[形,無,無,尾]&形容詞語幹&形&ex.美し,高\\\hline[尾,終止,形,無]&形容詞接尾辞/終止形&形尾/終止&ex.い,かった,かれ\\[尾,連用,形,無]&形容詞接尾辞/連用形&形尾/連用&ex.く,くて,ければ\\[尾,連体,形,無]&形容詞接尾辞/連体形&形尾/連体&ex.い,かった\\[尾,無,形,接続]&形容詞接尾辞/接続形&形尾/接続&ex.い,かった\\\hline\end{tabular}\end{center}\caption{形容詞語幹,形容詞接尾辞}\label{keiyousi-list}\end{table*}表\ref{keiyousi-list}に形容詞関連の形態素を示す.形容詞語幹の属性は[形,無,無,尾]であり,右隣接属性が「尾」なので,「尾」の属性を持つものが接尾しなければならない.実際に接尾できるのは形容詞接尾辞もしくは派生接尾辞の一部である.形容詞語幹は形容詞接尾辞を伴って形容詞を形成する.形容詞接尾辞は形容詞語幹または「形」の属性値を持つ派生接尾辞に接尾する.基本的には形容詞接尾辞は動詞接尾辞のような語形の変化はなく,そのままの形で形容詞語幹に接尾する.しかし,形動派生接尾辞「ござr」が形容詞語幹に接尾する場合にのみ内的連声と呼ばれる語形変化があり,表\ref{adj_onbin}のようになる.例えば,「たか(高)」という形容詞語幹に「ござる」が接続する場合には「taka$\rightarrow$takou」と変形され,「たこうござる」となる.\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline内的連声&具体例\\\hline-a$\rightarrow$-ou&たこうござる\\-i$\rightarrow$-yuu&うつくしゅうござる\\-u$\rightarrow$-ou&さもうござる\\-o$\rightarrow$-ou&ほそうござる\\\hline\end{tabular}\end{center}\caption{形容詞の内的連声}\label{adj_onbin}\end{table}\subsection{連体詞,連用詞,連文詞,終止詞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[無,連体,無,無]&連体詞&連体&指示語ex.その\\[名,連用,無,無]&連用詞&連用&副詞ex.ゆっくり,とても\\[無,連用,無,無]&連文詞&連文&接続詞ex.しかし,ところで\\[無,終止,無,無]&終止詞&終止&感動詞,感嘆詞ex.おはよう,おや\\\hline\end{tabular}\end{center}\caption{連体詞,連用詞,連文詞,終止詞}\label{rentaisi-list}\end{table*}連体詞は属性が[無,連体,無,無]で,それだけで連体形の文節を構成する形態素である.代表的なものは「その」などの指示を表す形態素である.連体詞はどのような係りも受けない.連用詞は一般的には副詞と言われるもので,属性が[名,連用,無,無]で,それだけで連用形の文節を構成する形態素である.これには「彼ののんびりにはいらいらさせられる」などに見られる名詞的な用法があるため,主属性を「名」とした.そのため,属性としては連用名詞と同じであるが,名詞の直後に来ても複合名詞を形成しない点が連用名詞とは異なる.例えば「車ゆっくり走らせて下さい」という文では「車ゆっくり」という名詞であるとは受け取られない.その他に,「とてもゆっくり走らせた」の例では「とても」が「ゆっくり」に係ると考えられるが,本文法では「とても」は「走らせた」に係ると考えることにして,連用詞に係る連用詞を設定していない.これに関しては\ref{detail}節でも触れる.連文詞は一般的には接続詞と言われるもので,文と文をつなぐ働きをする.属性は[無,連用,無,無]で連用詞と似ているが,名詞的な用法がない.また,普通は文頭に現れる.終止詞は一般的には感動詞や感嘆詞と言われるもので,単独で文を形成し,係り受けを形成しない.\subsection{接頭辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[無,無,無,名]&名詞接頭辞&頭名&ex.お,ご,前,元\\[無,無,無,時]&時詞接頭辞&頭時&ex.翌,昨,来\\[無,無,無,数]&数詞接頭辞&頭数&ex.第,約,計\\[無,無,無,動]&動詞接頭辞&頭動&ex.お,ぶち\\[無,無,無,形]&形容詞接頭辞&頭形&ex.お,うすら\\\hline\end{tabular}\end{center}\caption{接頭辞}\label{settouji-list}\end{table*}表\ref{settouji-list}に接頭辞を示す.接頭辞は,ある形態素に接頭する形態素で,文節全体の係り受けの性質には影響を与えない.本文法では,名詞,時詞,数詞,動詞,形容詞に接頭する接頭辞を設定する.\subsection{派生接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[名,無,名,無]&名名派生接尾辞&名名&ex.さん,製,的\\[動,無,名,尾]&名動派生接尾辞&名動&ex.する,できr,ぶr\\[形,無,名,尾]&名形派生接尾辞&名形&ex.らし,くさ\\\hline[名,連用,時,無]&時名派生接尾辞&時名&ex.前,中,下旬\\[名,無,数,無]&数名派生接尾辞&数名&ex.人,個,姉妹\\[時,連用,数,無]&数時派生接尾辞&数時&ex.年,日,秒\\[数,無,数,無]&数数派生接尾辞&数数&ex.万,億,兆\\\hline[(尾,名),連用,動,無]&動名派生接尾辞&動名&ex.i手,aなさそう\\[(尾,動),無,動,尾]&動動派生接尾辞&動動&ex.sase,rare,imakur\\[(尾,形),無,動,尾]&動形派生接尾辞&動形&ex.aな,iた,iにく\\\hline[(尾,名),連用,形,無]&形名派生接尾辞&形名&ex.そう\\[(尾,動),無,形,尾]&形動派生接尾辞&形動&ex.がr\\[(尾,形),無,形,尾]&形形派生接尾辞&形形&ex.かな\\\hline[(尾,名),連用,接続,無]&接名派生接尾辞&接名&ex.か,かどうか\\[(尾,動),無,接続,尾]&接動派生接尾辞&接動&ex.にすぎ\\[(尾,形),無,接続,尾]&接形派生接尾辞&接形&ex.らし\\\hline\end{tabular}\end{center}\caption{派生接尾辞}\label{hasei-list}\end{table*}表\ref{hasei-list}に派生接尾辞の一覧を示す.派生接尾辞は,名詞や動詞語幹,形容詞語幹または接続形に接尾して,品詞を変換し,新たに語幹を形成する接尾辞である.これらの派生接尾辞は派生文法\cite{kiyose}を参考に,本研究で整理,拡充したものである.品詞の名称から個々の派生接尾辞の働きは明らかなので,以下では幾つか注意を要するものについてのみ説明する.名動派生接尾辞は,名詞に接尾して動詞語幹を形成する接尾辞である.代表的なものが「する」で,これは普通は動作を表す名詞に接尾するが,本文法では発話者が単語に込める意味によって全ての名詞に接尾可能であるとしている.動名派生接尾辞は,動詞語幹に接尾して名詞を形成する.これは\ref{verb}節で説明する動詞接尾辞の基本接続規則のみに従い,内的連声には従わない.この点は動形派生接尾辞や動動派生接尾辞も同様である.動動派生接尾辞は,動詞語幹に接尾してまた動詞語幹を形成する.代表的なものは使役の「sase」や受身・尊敬・自発・可能の「rare」である.この動動派生接尾辞は動詞の語幹に次々に接尾して動詞語幹を派生する.例えば「書かせられますまい」という表現は,後述する連続母音縮退や連続子音縮退に注意すれば,「書k/sase/rare/imas/umai」である.その他に,口語的な表現では「食べさせる」「書かせる」を「食べさす」「書かす」などともいうが,これは「sas」という形態素で説明できる.さらに,可能の意味での「食べれる」「書ける」という表現は「re」という形態素で説明できる.このように最近になって新しく使われるようになったと考えられる表現でも本文法に沿っていることが分かる.このような派生接尾辞は,個々の形態素の意味に応じて,接尾可能でない場合がある.特に動動派生接尾辞では,その順番に明らかに制約が存在する.しかし,本文法では文法の簡潔性を優先し,それらの制約を反映していない.これらは文生成においては解明すべき重要な問題である.\subsection{接続接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,終止,接続,無]&接続接尾辞終止形&接尾/終止&ex.ぜ,もん,の,か\\[尾,連用,接続,無]&接続接尾辞連用形&接尾/連用&ex.し,が,ので,のに\\[尾,連体,接続,無]&接続接尾辞連体形&接尾/連体&ex.だろう,でしょう\\[尾,無,接続,接続]&接続接尾辞接続形&接尾/接続&ex.だろう,でしょう\\\hline\end{tabular}\end{center}\caption{接続接尾辞}\label{setsuzoku-list}\end{table*}表\ref{setsuzoku-list}に接続接尾辞を示す.接続接尾辞は名詞接尾辞や動詞接尾辞,形容詞接尾辞の接続形に接尾して連用形,連体形,終止形,接続形を形成する.これには例えば「かのような」のように幾つかの形態素から成り立っているみなせるものも含まれている.このようなものは,成り立ちは確かに幾つかの形態素の組合せと考えられるが,使用上は一つの接尾辞として振舞うので,まとめて一つの形態素として扱う.名詞接尾辞の「だ」に関連して,この品詞の隣接規則には例外があり,接続接尾辞の連用形と終止形の一部のみが「だ」に接尾可能である.さらに「ので」「のに」に関して個別の例外があり,これは\ref{detail}節で検討する.\subsection{末尾接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,終止,終止,無]&末尾接尾辞&尾尾&ex.よ,ね,さ,か\\[尾,終止,連用,無]&&&\\[尾,終止,名,無]&&&\\\hline\end{tabular}\end{center}\caption{末尾接尾辞}\label{matsubi-list}\end{table*}表\ref{matsubi-list}に末尾接尾辞を示す.末尾接尾辞は文の末尾に用いられる接尾辞で,基本的には終止形に接尾し,属性は[尾,終止,終止,無]である.しかし,連用形や名詞に対しても接尾が可能であり,[尾,終止,連用,無],[尾,終止,名,無]の属性も持つと考えられる.いずれにしても終止形を構成する.末尾接尾辞にさらに末尾接尾辞が接尾することは可能であるが,全ての組合せが見られるわけではない.これは形態素の隣接規則とは別の意味的な制約によるものと考えられるが,解析の立場からは可能な組合せを洗い出す必要はないと考え,全ての末尾接尾辞が隣接可能であるとしている.また,頻出する末尾接尾辞の連続に対しては,一つの形態素として辞書に登録している.\subsection{引用接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,連用,終止,無]&引用接尾辞連用形&引用/連用&ex.と\\[尾,連用,連用,無]&&&\\[尾,連用,名,無]&&&\\\hline[尾,連体,終止,無]&引用接尾辞連体形&引用/連体&ex.との\\[尾,連体,連用,無]&&&\\[尾,連体,名,無]&&&\\\hline\end{tabular}\end{center}\caption{引用接尾辞}\label{in'you-list}\end{table*}表\ref{in'you-list}に引用接尾辞を示す.引用接尾辞の基本的な属性は[尾,連用,終止,無]である.これは終止形に接尾して連用形を構成することを意味する.しかし,連用形や名詞に対しても接尾が可能であるため,[尾,連用,連用,無],[尾,連用,名,無]という属性も持つ.また「首相が辞任したとのニュース」の例のように連体形も存在する.\subsection{連用接尾辞}表\ref{ren'you-list}に連用接尾辞を示す.連用接尾辞連用形の属性は[尾,連用,連用,無]であり,その代表的なものは「は」「も」「すら」「さえ」「だけ」「まで」等である.これらは連用形の形態素に接尾して再び連用形を形成する接尾辞である.これらはさらに名詞にも接尾するので,[尾,連用,名,無]でもある.また隣接規則に例外があり,接続接尾辞連用形には接尾しない.さらに連用接尾辞の隣接可能な組み合わせは全てのものが存在するわけではなく,何らかの意味的な制約によって制限されていると思われるが,本文法では,その制約を追求することはしていない.連用接尾辞連体形は用いられることは希であるが存在し,属性は[尾,連用,連用,無],[尾,連用,名,無]である.\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,連用,連用,無]&連用接尾辞連用形&用尾/連用&ex.は,も,すら,まで\\[尾,連用,名,無]&&&\\\hline[尾,連体,連用,無]&連用接尾辞連体形&用尾/連体&ex.すらの,までの\\[尾,連体,名,無]&&&\\\hline\end{tabular}\end{center}\caption{連用接尾辞}\label{ren'you-list}\end{table*}\subsection{間投辞,句読点,括弧}その他の品詞を表\ref{sonota-list}に挙げる.その中に,文節の切れ目にのみ置くことができる間投辞がある.これに属する代表的な形態素は「ね」である.また句読点や括弧なども間投詞と形態素としての性質は同じで,これらの品詞の属性は全て[無,無,無,無]である.\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[無,無,無,無]&間投辞&間投&ex.ね,さ,よ\\[無,無,無,無]&読点&読点&ex.,\\[無,無,無,無]&句点&句点&ex..?!\\[無,無,無,無]&括弧&括弧&ex.「」{}\\\hline\end{tabular}\end{center}\caption{間投辞,句読点,括弧}\label{sonota-list}\end{table*}\subsection{隣接規則の例外}隣接規則の例外は特殊な用法から生まれている.一つは「彼の飛びは最高だった.」のように「動詞語幹+i」を名詞として扱うものである.これを動名詞と呼ぶ.今一つは,連用形を終止形とみなす用法で,何らかの述語を省略して連用形で文を終わらせてしまう用法である.この場合,本来終止形に接尾するものが連用形に接尾することになる.本研究で使用した形態素解析プログラムJUMANでは隣接規則が自由に記述できるようになっているので,これらの例外的隣接規則も,基本的な隣接規則と同様に記述できた. \section{派生文法による動詞の語尾変化} \label{verb}本節では,派生文法に則して,動詞語幹と動詞接尾辞もしくは派生接尾辞との接続規則を記述する.これを日本語の文字単位で処理するのに適する形に変更する方法については,次節で述べる.派生文法では,動詞の語幹と接尾辞との接続規則を連続母音の縮退と連続子音の縮退で説明する.連続子音の縮退は従来から指摘されていたものであるが,これに連続母音の縮退という考え方を導入することにより,活用という考え方を用いずとも体系的に現代日本語の動詞の語尾変化を説明できる.具体的には「kak」に「ru」が接尾すると「kak/ru」となるが,「k/r」の部分が連続子音となり,後ろの「r」が縮退し,「kaku」となる.これが連続子音の縮退である.一方「tabe」に「imasu」が接尾すると「tabe/imasu」となるが,「e/i」の部分が連続母音となって後ろの「i」が縮退し,「tabemasu」になる.これが連続母音の縮退である.その他の組み合わせ,「kak」と「imasu」,「tabe」と「ru」の場合はそれぞれ「kak/imasu」,「tabe/ru」となり,子音も母音も連続しないので,縮退せず「kakimasu」,「taberu」になる.以上の接続規則を基本接続規則と呼ぶことにする.この基本接続規則に加えて,表\ref{onbin}に示すような内的連声がある.表中の具体例は完了の接尾辞「ita」との組み合わせで示す.\begin{table*}\begin{center}\begin{tabular}{|l|l|}\hline音便&具体例\\\hlinek/it$\rightarrow$it&書くkak/ita$\rightarrow$kaita書いた\\g/it$\rightarrow$id&嗅ぐkag/ita$\rightarrow$kaida嗅いだ\\t/it$\rightarrow$tt&待つmat/ita$\rightarrow$matta待った\\n/it$\rightarrow$n'd&死ぬsin/ita$\rightarrow$sin'da死んだ\\b/it$\rightarrow$n'd&飛ぶtob/ita$\rightarrow$ton'da飛んだ\\m/it$\rightarrow$n'd&噛むkam/ita$\rightarrow$kan'da噛んだ\\r/it$\rightarrow$tt&掘るhor/ita$\rightarrow$hotta掘った\\w/it$\rightarrow$tt&買うkaw/ita$\rightarrow$katta買った\\(k/it$\rightarrow$tt)&(例外)行くik/ita$\rightarrow$itta行った\\\hline\end{tabular}\end{center}\centering{(具体例は完了の接尾辞「ita」との組み合わせで示している)}\caption{内的連声}\label{onbin}\end{table*}例えば「書く」であれば「kak」に「ita」が接尾するとまず「kak/ita」となり,この「k/it」の部分が内的連声により「it」となるから,最終的には「kaita」となる.この内的連声の唯一の例外が「行く」で,「ik/ita」が「iita」とならずに「itta」となる.注意すべきはこの内的連声は動詞接尾辞が接尾する場合にのみ適用されることで,例えば願望を表す動形派生接尾辞の「iた(い)」では連声しない.派生文法における動詞の語形変化の扱いの例外が「する」と「くる」の二つの動詞と,これらを使って作られる動詞,さらに「感じる」など「する」が濁音化して変化したと思われる一群の動詞である.「する」「じる」「くる」の語幹変化を表\ref{henka}に示す.これらには同一の接尾辞に対して複数の語幹変化があるものがある.\begin{table}\begin{minipage}[t]{5cm}\begin{tabular}{|l|l|}\hline語幹&接尾辞の始まりの部分\\\hlines&i-,u-,e-,sa-,ra-\\si&anai,yo-\\se&a-\\sur&u-,e-,re-,ru-\\\hline\multicolumn{2}{c}{「する」}\\\end{tabular}\end{minipage}\hspace{-3mm}\begin{minipage}[t]{5cm}\begin{tabular}{|l|l|}\hline語幹&接尾辞の始まりの部分\\\hlinezi&a-,i-,u-,e-,yo-,\\&sa-,ra-,ru-,re-\\zur&e-,ru-,re-\\\hline\multicolumn{2}{c}{「じる」}\\\end{tabular}\end{minipage}\hspace{-3mm}\begin{minipage}[t]{5cm}\begin{tabular}{|l|l|}\hline語幹&接尾辞の始まりの部分\\\hlinek&i-,u-,e-\\ko&a-,yo-,sa-,ra-,ru-\\kur&re-\\\hline\multicolumn{2}{c}{「くる」}\\\end{tabular}\end{minipage}\caption{「する」「じる」「くる」の語幹変化}\label{henka}\end{table}また,「おっしゃる」「いらっしゃる」「なさる」「下さる」の四つの動詞は,基本的には語幹が「r」で終わるものと同じであるが,幾つかの語幹の変化がある.それを表\ref{nasaru}に示す.注意すべきは,内的連声が適用される場合は,内的連声が語幹変化よりも優先されることである.\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline語幹&接尾辞\\\hline-r&a-,i-,u-,e-,yo-,sa-,ra-,ru-,re-\\-&i,i-\\\hline\end{tabular}\end{center}\caption{「おっしゃる」「いらっしゃる」「なさる」「下さる」の語幹変化}\label{nasaru}\end{table}最後に命令の動詞接尾辞に例外がある.動詞接尾辞「ro」「yo」は母音で終わる動詞語幹にのみ接尾し,「e」は子音で終わる動詞語幹にのみ接尾する.また,語幹が変化する不規則な動詞に関しては命令の形も不規則なものとなる.動詞の形成における語形の変化は以上の規則で全て説明できるが,このままでは日本語の文字単位で解析するのには向かない.そこでこれらを基礎にして,日本語文字単位の解析向きに変更する方法について次の節で述べる. \section{形態素解析システムへの適用} \label{apply}前節で説明したような形態素を設定すれば,現代日本語の文を構成する形態素を説明できるが,このままでは形態素解析には向かない.なぜならば日本語の文は漢字や平仮名などで記述されているので,特に動詞に関しては一旦文字を子音と母音に分解しなければ解析できないからである.そこで子音や母音に分解せず日本語の文字の単位で解析できるように工夫することを考えた.すると,従来用いられていた活用という考え方に近づき,そのことによって,従来の活用という考え方に沿って作られた形態素解析プログラムに,本稿で示した形態素文法を処理させることができるようになった.\subsection{動詞に関する修正}まず,動詞語幹に接尾する接尾辞の始まりの部分が数種類しかない.さらに動詞語幹の末尾の子音もいくつかの種類に限定されている.そこで,これらの組み合わせを動詞の活用語尾とし,動詞の語幹から末尾の子音を除いた部分を新たに動詞語幹とする.各接尾辞については先頭の部分を隣接型とし,その部分を除いた残りの文字列を新たにその形態素の表記とする.そして,それらの新たな接続規則を設定する.\begin{table*}\begin{center}\begin{tabular}{|rl|ccccccccccc|}\hline&\hspace{-5mm}{\tiny活用形}&A&I&U&E&YO&T&D&RA&RU&RE&SA\\{\tiny活用型}&&&&&&&&&&&&\\\hlineA&&*&*&*&*&よ&*&--&ら&る&れ&さ\\K&&か&き&く&け&こ&い&--&か&く&け&か\\G&&が&ぎ&ぐ&げ&ご&--&い&が&ぐ&げ&が\\S&&さ&し&す&せ&そ&し&--&さ&す&せ&さ\\T&&た&ち&つ&て&と&っ&--&た&つ&て&た\\N&&な&に&ぬ&ね&の&--&ん&な&ぬ&ね&な\\B&&ば&び&ぶ&べ&ぼ&--&ん&ば&ぶ&べ&ば\\M&&ま&み&む&め&も&--&ん&ま&む&め&ま\\R&&ら&り&る&れ&ろ&っ&--&ら&る&れ&ら\\W&&わ&い&う&え&お&っ&--&わ&う&え&わ\\SX&&し&し&する&すれ&しよ&し&--&さ&する&--&さ\\ZX&&じ&じ&じる&じれ&じよ&じ&--&じら&じる&じれ&じさ\\&&&&ずる&ずれ&&&--&&ずる&&\\KX&&こ&き&くる&くれ&こよ&き&--&こら&くる&これ&こさ\\KKX&&来&来&来る&来れ&来よ&来&--&来ら&来る&来れ&来さ\\RX&&ら&り&る&れ&ろ&っ&--&ら&る&れ&ら\\&&&い&&&&&&&&&\\IKU&&か&き&く&け&こ&っ&--&か&く&け&か\\\hline\end{tabular}\end{center}\centering{(``*''は語尾の表記文字がないことを表し,``--''はその活用形自体がないことを表す)}\caption{活用型と活用形}\label{katuyou1}\end{table*}具体的に,動詞語幹に接尾する接尾辞の始まりはA,I,U,E,YO,T,D,RA,RU,RE,SAの11種類である.ここで,TとDは内的連声を形成するit-という接尾辞の始まりをi-と区別したもので,さらにTは清音の内的連声に対応し,Dは濁音の内的連声に対応する.そこで個々の動詞語幹に対して,この11の活用形を設定することになる.この活用形のパターンは動詞語幹の末尾に応じて決まるが,末尾が母音で終わる場合をAと表記することにすると末尾の種類はA,K,G,S,T,N,B,M,R,Wの10種類であるから,それに応じた10種類の活用型があることになる.さらに例外の活用型をSX,ZX,KX,KKX,RX,IKUで表すことにすると,活用型と活用形の組み合わせは表\ref{katuyou1}のようになる.個々の動詞に関しては,語幹の末尾の子音を除いた文字列を「語幹」とし,「食べ」のように語幹が母音で終わる場合にはAを,「書k」のように語幹が子音で終わるものは子音そのものを活用型とする.例えば,「食べ」の場合は「食べ」が語幹で活用型がA,「書k」の場合は「書」が語幹で活用型がK,「嗅g」の場合は「嗅」が語幹で活用型がG,「思w」の場合は語幹が「思」で活用型がWとなる.動詞語幹に接尾するのは接尾辞は動名派生接尾辞,動形派生接尾辞,動動派生接尾辞,そして動詞接尾辞である.これらについて例を挙げると,動名派生接尾辞の「iそう」は隣接型がI型で表記文字は「そう」となり,動形派生接尾辞の「aな」は隣接型がA型で表記文字は「な」,動動派生接尾辞の「rare」は隣接型がRA型,活用型がA型,表記文字が「れ」となる.接尾辞は例えば「iます」は隣接型がI型で,表記文字が「ます」になる.連声するような接尾辞,例えば「itarou」では,隣接型がT型で表記文字が「たろう」の形態素と,隣接型がD型で表記文字が「だろう」の形態素の二つに分ける.これらの隣接規則は「動詞語幹の活用形名と,接尾辞の隣接型名が一致するものが隣接可能である」ということになる.例えば「書か」は動詞語幹「書」の活用形Aの形態であるから,隣接型がAの動形派生接尾辞「な」と隣接可能である.\subsection{活用形に対する追加}上記のような修正を語幹に対して行う場合,連体形,終止形,接続形の動詞接尾辞「ru」,連用形の動詞接尾辞「i」,さらに可能の動動派生接尾辞「re」は,動詞語幹の活用形として先頭の文字が吸収されてしまうと形態素としての表記文字が残らないという問題が起こる.また,命令の動詞接尾辞の「ro」「e」には,動詞語幹の末尾が母音か子音かによって接続規則が異なるという問題がある.そこで動詞接尾辞の「ru」「i」「ro」「e」に関してはそれぞれ活用形としてしまう.そのため,表\ref{katuyou1}に表\ref{katuyou2}を加える.新たに加わったものは動詞語幹と動詞接尾辞が合成されたものであるので,属性も合成されたものになる.それを表\ref{gousei}に示す.可能の動動派生接尾辞「re」は,さらに後ろに動詞接尾辞などが来るため,活用形として加えられない.そこで,全ての活用型に対して語幹自体を活用形Xとして設定し,個々の子音との組み合わせによる「re」の変化を別々の形態素とした.そして,これらについて活用形Xに対する隣接規則をそれぞれ作ることで解決した.このように,修正された接尾辞の扱いでは,一文字で構成される動詞接尾辞や派生接尾辞を新たに加えようとすると新たな活用形を作り出さなければならないが,一文字で構成されるという制約があるため,これ以上追加する必要が生ずる可能性は低い.\begin{table*}\begin{center}\begin{tabular}{|rl|cccccc|}\hline&\hspace{-5mm}{\tiny活用形}&X&連用形&連体形&終止形&接続形&命令形\\{\tiny活用型}&&&&&&&\\\hlineA&&*&る&る&る&る&ろ,よ\\K&&*&き&く&く&く&け\\G&&*&ぎ&ぐ&ぐ&ぐ&げ\\S&&*&し&す&す&す&せ\\T&&*&ち&つ&つ&つ&て\\N&&*&に&ぬ&ぬ&ぬ&ね\\B&&*&び&ぶ&ぶ&ぶ&べ\\M&&*&み&む&む&む&め\\R&&*&り&る&る&る&れ\\W&&*&い&う&う&う&え\\SX&&--&し&する&する&する&しろ,せよ\\ZX&&じ&じ&じる&じる&じる&じろ\\&&&&ずる&ずる&ずる&ぜよ\\KX&&こ&き&くる&くる&くる&こい\\KKX&&来&来&来る&来る&来る&来い\\RX&&*&り&る&る&る&れ,い\\IKU&&*&き&く&く&く&け\\\hline\end{tabular}\end{center}\caption{活用形の追加}\label{katuyou2}\end{table*}\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline活用形&属性\\\hline連用形&[動,連用,無,無]\\連体形&[動,連体,無,無]\\終止形&[動,終止,無,無]\\接続形&[動,無,無,接続]\\命令形&[動,終止,無,無]\\\hline\end{tabular}\end{center}\caption{合成された属性}\label{gousei}\end{table}\subsection{形容詞に関する修正}前述したように形容詞の語幹は,形動派生接尾辞「ござr」が接尾する場合には連声する.しかし,これは非常に限られた現象で,しかもこれを本研究で使用した形態素解析プログラムの形態素文法に反映させると非常に煩雑になるので,実際にはこれを正確に実装はせずに「うござr」「ゅうござr」という形動派生接尾辞を辞書に登録した.こうすると「高ゅうござる」などを過剰に受理してしまい,また「たこうござる」のような平仮名表記の場合には解析ができない.過剰な受理に関しては,解析に対してなんらかの悪影響を及ぼさない限り許容する.実際,今までのところ,解析に関してはこのための悪影響は確認されていない.また,平仮名表記の場合は解析が不可能であるが,そのような事例は皆無に近いと考え,対処しないことにした. \section{問題点の検討} \label{detail}この節では以下に関する問題点について検討する.\begin{itemize}\item複数の品詞に属する形態素\item動名詞\item連用詞に係る連用詞\item複合名詞\item複数解に対する優先度付け\end{itemize}複数の品詞に属する形態素の内,幾つかは形態素レベルの情報では識別できない.そのような形態素が現れる文は本来複数の解釈が存在し,これを完全に一つの解釈に決めるためには文脈を参照する必要がある.本研究での形態素解析システムでは,このような識別は形態素解析システムの範囲を超えるものと見なしている.以下でそのような形態素のついて述べるが,他の形態素解析システムとの性能の比較を容易にするために,新聞記事1万文中\footnote{形態素数約20万,文節数約8万5千}の出現頻度についても述べ,正しい品詞を選ぶ確率が高くなるような規則を付す.\subsection{「名詞+と」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline&格接尾辞連体形&格接尾辞連用形&引用接尾辞連用形&合計\\\hline名詞+と&465(37.8\%)&211(17.2\%)&553(45.0\%)&1229(100\%)\\名詞+と+名詞&436(35.4\%)&102(8.3\%)&8(0.7\%)&546(44.4\%)\\名詞+と+動詞&0(0\%)&93(7.6\%)&519(42.2\%)&612(49.8\%)\\名詞+と+引用性動詞&0(0\%)&0(0\%)&511(41.6\%)&511(41.6\%)\\名詞+と+読点&20(1.6\%)&4(0.3\%)&4(0.4\%)&28(2.2\%)\\\hline\end{tabular}\end{center}\caption{「名詞+と」の用法の分布}\label{to}\end{table}「名詞+と」には,格接尾辞連体形(名詞を並列に並べる用法)と,格接尾辞連用形(共同作業者を示す用法)と,引用接尾辞連用形の三つがある.この内,最初の用法は連体であり,その他の用法は連用である.また,引用接尾辞の場合は述語を形成する.形態素レベルではこれらの用法を識別できない.表\ref{to}に「名詞+と」の用法の分布を示す.なお,引用性動詞とは「なる」「する」「いう」「みる」「みなす」「思う」などあらかじめ選ばれた動詞である.この表によると,次の規則により,1060/1229(86.2\%)の場合で正しい品詞を得られる.\begin{itemize}\item「名詞+と+名詞」の場合は格接尾辞連体形\item「名詞+と+引用性動詞」の場合は引用接尾辞連用形\item「名詞+と+引用性動詞以外の動詞」の場合は格接尾辞連用形\item「名詞+と+読点」の場合は格接尾辞連体形\end{itemize}\subsection{「名詞+との」}「名詞+との」にも,格接尾辞連体形(共同作業者を示す用法)と引用接尾辞連体形があり,前者は述語を形成しないが,後者は述語を形成する.この場合も,名詞に「との」が接尾しているものは,識別できない.「名詞+との」は評価に用いた文中では130箇所に現れ,その内123箇所(94.6\%)が格接尾辞連体形であった.引用接尾辞連体形の場合は7箇所で,その係先は「認識」「見方」「情報」「主張」「理由」「考え」であり,逆にこれらの名詞に係る場合で格接尾辞であるものはなかった.\subsection{「名詞+とも」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline&名名派生接尾辞&引用接尾辞&格接尾辞&合計\\\hline名詞+とも&46(63.9\%)&18(25.0\%)&8(11.1\%)&72(100\%)\\名詞+とも+引用性動詞&0(0.0\%)&18(25.0\%)&0(0.0\%)&18(25.0\%)\\文頭+名詞+とも&18(25.0\%)&1(1.4\%)&0(0.0\%)&19(26.4\%)\\読点+名詞+とも&18(25.0\%)&0(0.0\%)&3(4.2\%)&21(29.2\%)\\連用形+名詞+とも&7(9.7\%)&5(6.9\%)&0(0.0\%)&12(16.7\%)\\連体形+名詞+とも&3(4.2\%)&12(16.7\%)&5(6.9\%)&20(27.8\%)\\\hline\end{tabular}\end{center}\caption{「名詞+とも」の用法の分布}\label{tomo}\end{table}「名詞+とも」は名名派生接尾辞,引用接尾辞+連用接尾辞,格接尾辞+連用接尾辞の三つの可能性がある.評価文中では名名派生接尾辞が46箇所,引用接尾辞+連用接尾辞が18箇所,格接尾辞+連用接尾辞が8箇所であった.表\ref{tomo}に「名詞+とも」の用法の分布を示す.以下の規則により,66/72(91.7\%)の場合で正しい品詞が得られる.\begin{itemize}\item「名詞+とも+引用性動詞」の場合は,引用接尾辞.\item「連体形+名詞+とも+引用性動詞以外」の場合は,格接尾辞.\item上記以外は,名名派生接尾辞.\end{itemize}\subsection{「名詞+で」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&格接尾辞連用形&名詞接尾辞連用形&合計\\\hline名詞+で&2124(64.5\%)&1171(35.3\%)&3295(100\%)\\名詞+で+ある/ない&0(0.0\%)&461(14.0\%)&461(14.0\%)\\名詞+で+は/も+ある/ない&0(0.0\%)&134(4.1\%)&134(4.1\%)\\名詞+で+は/も+(ある/ない)以外&476(14.4\%)&10(0.3\%)&486(14.7\%)\\名詞+で+(ある/ない/読点)以外&1373(41.7\%)&347(10.5\%)&1720(52.2\%)\\連用形+名詞+で+読点&256(7.8\%)&129(3.9\%)&385(11.7\%)\\連用形以外+名詞+で+読点&19(0.6\%)&90(2.7\%)&109(3.3\%)\\\hline\end{tabular}\end{center}\caption{「名詞+で」の用法の分布}\label{de}\end{table}「で」には,格接尾辞連用形(場所や道具を示す用法)と名詞接尾辞連用形がある.前者は述語を形成せず,後者は述語を形成する.これらは形態素レベルの情報では識別できない.「名詞+で」の用法の分布を表\ref{de}に示す.これによると以下の規則で2790/3295(84.7\%)の場合で正しい品詞が得られる.\begin{itemize}\item「名詞+で+ある/ない」の場合は,名詞接尾辞連用形\item「名詞+で+は/も+ある/ない」の場合は,名詞接尾辞連用形\item「名詞+で+は/も+(ある/ない)以外」の場合は,格接尾辞連用形\item「名詞+で+(ある/ない/読点)以外」の場合は,格接尾辞連用形\item「連用形+名詞+で+読点」の場合は,名詞接尾辞連用形\item「連用形以外+名詞+で+読点」の場合は,格接尾辞連用形\end{itemize}\subsection{「名詞+か」}「か」には,格接尾辞連体形,名詞接尾辞連用形,接名派生接尾辞,接続接尾辞終止形がある.この内,「名詞+か」では格接尾辞連体形と名詞接尾辞連用形が形態素レベルの情報では識別できない.ただし,本研究では例えば「太郎か次郎か分からない.」という文の場合,両方の「か」は名詞接尾辞連用形であると考えている.「名詞+か」は評価の文中の84箇所に現れ,その内,10箇所(11.9\%)が格接尾辞連体形,74箇所(88.1\%)が名詞接尾辞連用形であった.また,評価文中では以下の規則で全ての場合を正しく識別できた.\begin{itemize}\item「名詞+か+名詞」の場合は,格接尾辞連体形\item「名詞+か+名詞以外」の場合は,名詞接尾辞連用形\end{itemize}\subsection{「述語+ので」}「述語+ので」については,「の(補助名詞)+で(格接尾辞)」,「ので(接続接尾辞連用形)」の二通りの解釈がある.例えば,「大きいので壊した.」という文では,「大きい物で壊した」のか「大きいから壊した」のかの区別ができない.しかし,前者の解釈は口語的なので,評価に用いた新聞記事では1万文の中に現れた50箇所全てが後者の用法であった.\subsection{「述語+のに」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&補助名詞+格接尾辞&接続接尾辞連用形&合計\\\hlineのに&25(53.2\%)&22(46.8\%)&47(100\%)\\のに+読点&1(2.1\%)&14(29.8\%)&15(31.9\%)\\のに+名詞&15(31.9\%)&5(10.6\%)&20(42.6\%)\\のに+述語&9(21.3\%)&1(2.1\%)&10(21.3\%)\\\hline\end{tabular}\end{center}\caption{「述語+のに」の用法の分布}\label{noni}\end{table}「述語+のに」については,「の(補助名詞)+に(格接尾辞)」,「のに(接続接尾辞連用形)」の二通りの解釈がある.例えば,「高いのに乗った.」では,「高いにも関わらず乗った」のか「高いものに乗った」のか識別できない.「述語+のに」の用法の分布を表\ref{noni}に示す.これによると,以下の規則で38/47(80.9\%)の場合に正しい品詞を得られる.\begin{itemize}\item「のに+読点」の場合は,接続接尾辞連用形\item「のに+名詞」の場合は,補助名詞+格接尾辞\item「のに+述語」の場合は,接続接尾辞連用形\end{itemize}\subsection{「そう」}「そう」には,動名派生接尾辞,形名派生接尾辞,名名派生接尾辞,接名派生接尾辞があり,ほとんどの場合はこれらは形態素レベルの情報で識別できる.しかし,「動詞語幹(活用型A)+そう」の場合には識別できない二つの解釈がある.例えば「食べたそうだ.」という文では「食べ(動詞語幹)た(動形派生接尾辞[欲求])そう(形名派生接尾辞[様態])だ(名詞接尾辞終止形)」と「食べ(動詞語幹)た(動詞接尾辞接続形[完了])そう(接名派生接尾辞[伝聞])だ(名詞接尾辞終止形)」を形態素レベルで識別できない.評価に用いた文中ではこのような「そう」は11箇所に現れ,その全てが後者の用法であった.これは評価に用いた文が新聞記事であるためと考えられる.\subsection{「動詞語幹+i+に」}「動詞語幹+i+に」には二つの解釈がある.例えば「話しに花を添える.」「話しに行く.」では「話し」は前者では「動名詞+格接尾辞``に''」であり,後者では「動詞語幹+動詞接尾辞``ini''」である.これらは形態素レベルの情報では区別できない.これは評価文中では168箇所で現れた.その内150箇所が動名詞であり,18箇所が動詞であった.動詞の18箇所の内,「動詞+に+行く」が5箇所であり,「動詞+に+来る」が8箇所,その他,「入る」「通う」「向かう」「寄る」が直後に来るものがそれぞれ1箇所ずつあった.逆にこれらの動詞が直後に来る場合で動名詞であったものはなかった.従って,以下の規則で167/168(99.4\%)が正しく識別できる.\begin{itemize}\item「来る」「行く」などの特定の動詞が直後に来る場合は「動詞語幹+動詞接尾辞``ini''」.\item上記以外の場合は「動名詞+格接尾辞``に''」.\end{itemize}\subsection{「動詞語幹+i」}「動詞語幹+i」には,動詞の連用形である場合と,動名詞である場合がある.「動詞語幹+i+名詞接尾辞」「動詞語幹+i+格接尾辞」「動詞語幹+i+連用接尾辞」の場合は動名詞であると識別することができる.また「動詞語幹+i+読点」は動詞の連用形と識別できる.文節に区切る際に最も問題になるのは「動詞語幹+i+名詞」の場合である.「動詞語幹+i」を動詞の連用形と見なす場合にはそこで文節が区切れるが,「動詞語幹+i」を動名詞と見なす場合には複合名詞になるので文節が区切れない.このような「動詞語幹+i+名詞」のパターンは評価文中の129箇所に現れ,動名詞であったのが79箇所であり,動詞であったのが50箇所であった.これらは形態素レベルの情報では区別できない.しかし,評価文中では表\ref{doumeisi}のような用法の分布があった.従って,下記の規則で127/129(98.4\%)の場合で正しく識別できる.\begin{itemize}\item「連用接尾辞``は''+動詞語幹+i+名詞」の場合は,動名詞.\item「連用接尾辞``は''以外の連用形+動詞語幹+i+名詞」の場合は,動詞.\item上記以外は動名詞.\end{itemize}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&動名詞&動詞&合計\\\hline動詞語幹+i+名詞&79(60.5\%)&50(39.5\%)&129(100\%)\\読点+動詞語幹+i+名詞&13(10.0\%)&0(0.0\%)&13(10.0\%)\\名詞+動詞語幹+i+名詞&25(19.4\%)&0(0.0\%)&25(19.4\%)\\文頭+動詞語幹+i+名詞&6(4.7\%)&0(0.0\%)&6(4.7\%)\\連体形+動詞語幹+i+名詞&26(20.2\%)&0(0.0\%)&26(20.2\%)\\連用形+動詞語幹+i+名詞&9(7.0\%)&50(39.5\%)&59(45.7\%)\\は+動詞語幹+i+名詞&7(5.4\%)&0(0.0\%)&7(5.4\%)\\\hline\end{tabular}\end{center}\caption{「動詞語幹+i+名詞」の用法の分布}\label{doumeisi}\end{table}\subsection{「いく」と「いう」}「いった」「いって」などは「言った」「言って」なのか「行った」「行って」なのか分からない.評価の文中には77箇所でこのような表現が現れたが,動詞の連用形の直後に来るものは全て「行く」であり,それ以外はすべて「言う」であった.これは,評価に用いた文が校正済みの新聞記事であるためと考えられる.\subsection{「ある」}「ある」には,連体詞と動詞の可能性がある.これは評価文中に260箇所に現れ,24箇所が連体詞,236箇所が動詞であった.この内,「読点+ある」は8箇所で,全て連体詞であった.その他の連体詞の「ある」は16箇所全てが「名詞+の+ある」の形で現れたが,動詞の「ある」が「名詞+の+ある」の形で現れたのが29箇所であった.従って,以下の規則で,244/260(93.8\%)が正しく認識される.\begin{itemize}\item「連用形+ある」の場合は,動詞.\item「名詞+の+ある」の場合は,動詞.\item上記以外の「連体形+ある」の場合は,連体詞.\item「読点+ある」の場合は,連体詞.\end{itemize}\subsection{連用詞に係る連用詞}連用詞の中には他の連用詞を修飾していると考えられるものがある.例えば「非常にゆっくり歩いた.」という文で,「非常に」は「ゆっくり」の様態を表していると考えられる.一つの解決法は連用詞は他の連用詞に係ることができるとしてしまうことであるが,全ての連用詞が他の連用詞に係るわけではないので,連用詞に係ることができる連用詞として別の品詞を設定する必要が出てくる.別の解決法は,先ほどの例で言えば,「非常に」が「ゆっくり」ではなく「歩いた」に係ると見なすことにしてしまう方法である.その場合は,「非常に」と「ゆっくり」の関係を「歩いた」を仲介して算出する仕組みを別に用意しなければならない.しかし,この利点は,「非常に私はゆっくり歩いた.」という文でも係り受けの非交差の原則が守られていると見なせる点である\footnote{同様な現象は「は」にも見られ,例えば「この料理は私は彼女が作ったと思う.」という文で「料理は」が「作った」に係るとすると非交差の原則が破られるが,これも「料理は」は「思う」に係ると見なして,別の仕組みによって,「料理」と「作った」の関係を算出すると考えれば,非交差の原則が守られていると見なせる.}.また連用詞の変種を作る必要もないので,本研究では後者の解決法を取っている.\subsection{複合名詞}本研究における形態素解析システムは,その目的から,複合名詞をさらに細かく区切ることを重要視していない.つまり,文節の区切りの精度を測定する場合に「名詞+名詞\footnote{「連用名詞+名詞」は複合名詞にならない.}」の並びを複合した結果が名詞として正解であればよしとしている.従って,複合した状態では正解であっても,それをさらに細かく分解した状態では間違っている場合がある.評価文中では11845箇所に複合名詞の分割が現れた\footnote{この中には辞書に一つの名詞として登録されている複合名詞は含まれない.そのような複合名詞は1302箇所に現れた.}.この内,492箇所(4.2\%)が誤って分割されていた.誤りの内,221箇所(1.9\%)が固有名詞に起因するものであった.\subsection{複数解に対する優先度付け}本稿では述べていないが,実際の形態素解析処理における重要な要素に複数解に対する優先度付けの問題がある.例えば,「太郎が帰ってきたとき,犬が吠えた.」という文には,本稿で示した形態素文法だけでは,「とき」の部分に曖昧性が生じる.一つの解釈は明らかなように「とき(時)」という名詞である.今一つの解釈は,「と(引用)」「き(``来る''の連用形)」である.ここでは明らかに前者の解釈を取らなければならない.その他にも,単語の平仮名表記を含めれば多くの曖昧性がある.そこで,実際の形態素文法の定義では,品詞や品詞の隣接規則に重み付けをし,優先度の計算を行っている.しかし,この重み付けはまったくアドホックなものであり,実際,多くの例文を処理させた結果を分析して,優先度の計算がうまく人間の解釈と適合するように調整する事によって作成した.実際のシステムへの適用にあたってはこの部分が最も時間がかかった部分であり,さらなる精度向上に対する障害の一つである. \section{性能評価} label{eval2}本稿で提案した形態素文法を形態素解析プログラムJUMAN\cite{juman}\footnote{JUMANは品詞や形態素文法を再定義できる公開された形態素解析システムである.}に適用し,形態素解析の精度を測定した.本来のJUMANは接続コストによって枝狩りした解に対して後方最長一致の解を出力するもの\footnote{オプションによってただ一つの解を出力するように指定した場合}であるが,本研究ではこれを接続コストが最小になる解\cite{hisamitu90}を出力するように改造して使用した.利用した辞書は異なり語数35万程度であり,これらの内,動詞語幹,形容詞語幹,名詞,連用詞,連体詞,名名派生接尾辞,数名派生接尾辞については日本電子化辞書研究所の日本語辞書の他,いくつかの仮名漢字変換プログラム用辞書や機械可読な人間用の辞書から抽出したものを用いた.また,漢字表記の語については,その平仮名表記も辞書に登録し,全体で50万語程度となっている.ただし,単語の中で漢字の一部だけを平仮名に変えたものは辞書に登録していない.評価には日本電子化辞書研究所から提供されたコーパス\footnote{このコーパスには主に朝日新聞社の記事から収集した文が集められている.}の内,1万文を使用した.これらの文に対して形態素解析システムに{\dgただ一つ}の解を出力させ,これとコーパスに付けられている人手による解析結果とを比較した.ただし,日本電子化辞書研究所における品詞の分類と本論文での品詞の分類が異なっているため,文節単位にまで形態素をまとめたものを比較した.結果を表\ref{error}に示す.但し,「区切り誤り」は\ref{detail}節で与えた規則によって品詞が間違う場合の数である.\begin{table}\begin{center}\begin{minipage}[t]{6cm}\begin{tabular}{|l|r|}\hline文数&10000\\文節数&84841\\形態素数&207547\\\hline文節区切り位置の誤り数&445\\\hline分割誤り複合名詞数&221\\\hline\multicolumn{2}{c}{区切り誤り}\end{tabular}\end{minipage}\begin{minipage}[t]{5cm}\begin{tabular}{|l|r|r|}\hline&頻度&誤り数\\\hline名詞+と&1229&169\\名詞+との&130&0\\名詞+とも&72&6\\名詞+で&3295&505\\名詞+か&84&0\\述語+ので&50&0\\述語+のに&47&9\\動詞語幹(A)+そう&11&0\\動詞語幹+i+に&168&1\\動詞語幹+i+名詞&129&2\\ある&260&16\\\hline\multicolumn{3}{c}{品詞付け誤り}\end{tabular}\end{minipage}\end{center}\caption{誤り数}\label{error}\end{table}文節の区切り位置を誤っていたのは445箇所であった.区切り位置を誤ると,その前後の文節が共に誤りとなるので,誤りの文節が含まれる率は,全形態素数に対して,\[445\times2\div207547\times100=0.43\%\]である.これは全文節数に対しては1.05\%である.また,1文中に複数の区切り誤りがあったものはなかったので,文節区切りが失敗した文は全文数に対して4.45\%である.文献\cite{maruyama94}では,分割誤りとして複合名詞の分割誤りを含めて,形態素数に対して分割誤り率は1.25\%と報告されている.本稿のシステムを同様に評価すると,\[(445+221)\times2\div207547\times100=0.64\%\]の分割誤り率である.さらに文献\cite{maruyama94}では品詞誤りを含めた全体的な誤り率を2.36\%と報告している.文献\cite{maruyama94}では本稿で与えた形態素文法よりも細かい品詞分類を行っているので,同様に比較できないが,表\ref{error}に挙げたものを形態素に対する品詞付けの誤りとすると,\[((445+221)\times2+169+6+505+9+1+2+16)\div207547\times100=0.98\%\]である.文節の区切りに関する誤りは,8箇所が複数解の優先度付けの誤りによるものであり,残りの437箇所は対応する形態素を辞書に登録することによって解決できるものであった.従って,辞書を整備することで文節区切りの性能はさらに向上させることができると期待できる.辞書の整備に関して,語の中の一部の漢字が平仮名表記されるものについては,自動的に漢字の一部を平仮名に置き換えたものを登録することが可能である.しかし,その場合,登録語数がほぼ4倍になる.実際にはこれらの内ほとんどのものは用いられない上,解析速度にも悪影響を与えるので,コーパスの分析結果などから必要な表記のみを登録するのが望ましい.複合名詞の区切り誤りについては本形態素文法では対処できない.しかし,複合名詞としてまとまった形で認識する精度は高い.複数の品詞に属する形態素に関しては,新聞記事に対しては有効性の高い識別規則を与えたが,これらはあくまで確率的なものであり,根本的な解決にはならない.動詞の語尾変化は全て正しく解析され,派生文法における動詞の取り扱い方法の優秀さが実証された.口語的な表現に対しても,JUNETの生活関連のニュースグループの記事の内,明らかな間違いを除いた500文を解析させたところ,動詞語の語尾変化に対しては全て正しく解析されていた. \section{まとめ} 本稿では形態素解析に的を絞った日本語形態素文法を提案した.この形態素文法における動詞語尾の扱いは,派生文法を拡充整備し,日本語の文字単位で扱えるように修正したものである.その結果,実存する形態素解析プログラムJUMANに適用できるようになり,実際に適用して実用的な解析性能を得ることができた.辞書を整備することでさらなる精度の向上が期待できる.しかし,形態素の隣接規則間の優先度を決める重みの決定は,手作業による微妙な調整によるものであり,何らかの自動的な学習の仕組みが必要である.\acknowledgment形態素解析プログラムJUMANを提供して下さった奈良先端科学技術大学院大学の松本裕治先生,および辞書を提供して下さった日本電子化辞書研究所の方々に感謝します.\begin{thebibliography}{}\bibitem[\protect\BCAY{Bloch}{Bloch}{1946}]{bloch}Bloch,B.\BBOP1946\BBCP.\newblock\BBOQ{S}tudiesin{C}olloquial{J}apanese,{P}art{I},{I}nflection\BBCQ\\newblock{\BemJournaloftheAmericanOrientalSociety},{\Bbf66}.\bibitem[\protect\BCAY{Hisamitu\BBA\Nitta}{Hisamitu\BBA\Nitta}{1994}]{hisamitu94b}Hisamitu,T.\BBACOMMA\\BBA\Nitta,Y.\BBOP1994\BBCP.\newblock\BBOQ{A}n{E}fficient{T}reatmentof{J}apanese{V}erb{I}nflectionfor{M}orphological{A}nalysis\BBCQ\\newblockIn{\BemColing94},\lowercase{\BVOL}~I.\bibitem[\protect\BCAY{久光\JBA新田}{久光\JBA新田}{1990}]{hisamitu90}久光徹,新田義彦\BBOP1990\BBCP.\newblock\JBOQ接続コスト最小法による日本語形態素解析の提案と計算量の評価について\JBCQ\\newblock言語理解とコミニュケーション\90-8,電子情報通信学会.\bibitem[\protect\BCAY{久光\JBA新田}{久光\JBA新田}{1994a}]{hisamitu94a}久光徹,新田義彦\BBOP1994a\BBCP.\newblock\JBOQゆう度付き形態素解析用の汎用アルゴリズムとそれを利用したゆう度基準の比較.\JBCQ\\newblock\Jem{電子情報通信学会論文誌D-II},{\BbfJ77}(5).\bibitem[\protect\BCAY{久光\JBA新田}{久光\JBA新田}{1994b}]{hisamitu94c}久光徹,新田義彦\BBOP1994b\BBCP.\newblock\JBOQ日本語形態素解析における効率的な動詞活用処理\JBCQ\\newblock自然言語処理研究会\103-1,情報処理学会.\bibitem[\protect\BCAY{木谷}{木谷}{1992}]{kitani}木谷強\BBOP1992\BBCP.\newblock\JBOQ固有名詞の特定機能を有する形態素解析処理\JBCQ\\newblock自然言語処理研究会\90-10,情報処理学会.\bibitem[\protect\BCAY{清瀬}{清瀬}{1989}]{kiyose}清瀬~義三郎則府\BBOP1989\BBCP.\newblock\Jem{日本語文法新論--派生文法序説--}.\newblock桜楓社.\bibitem[\protect\BCAY{丸山\JBA荻野}{丸山\JBA荻野}{1994}]{maruyama94}丸山宏,荻野紫穂\BBOP1994\BBCP.\newblock\JBOQ正規文法に基づく日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(7).\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{masuoka}益岡隆志,田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法--改訂版--}.\newblockくろしお出版.\bibitem[\protect\BCAY{松本,黒橋,宇津呂,妙木,長尾}{松本\Jetal}{1994}]{juman}松本裕治,黒橋禎夫,宇津呂武仁,妙木裕,長尾真\BBOP1994\BBCP.\newblock\JBOQ日本語形態素解析システム{JUMAN}使用説明書version2.0\JBCQ\\newblock\JTR,奈良先端科学技術大学院大学.\bibitem[\protect\BCAY{三浦}{三浦}{1975}]{miura}三浦つとむ\BBOP1975\BBCP.\newblock\Jem{日本語の文法}.\newblock勁草書房.\bibitem[\protect\BCAY{宮崎\JBA高橋}{宮崎\JBA高橋}{1992}]{miyazaki}宮崎正弘,高橋大和\BBOP1992\BBCP.\newblock\JBOQ三浦文法に基づく日本語形態素処理用文法の構築\JBCQ\\newblock自然言語処理研究会\90-1,情報処理学会.\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{nagata}Nagata,M.\BBOP1994\BBCP.\newblock\BBOQ{A}{S}tochastic{J}apanese{M}orphological{A}nalyzer{U}singa{F}orward-{D}{P}{B}ackward-{A}*{N}-{B}est{S}earch{A}lgorithm\BBCQ\\newblockIn{\BemColing94},\lowercase{\BVOL}~I.\bibitem[\protect\BCAY{中村,吉田,今永}{中村\Jetal}{1991}]{nakamura}中村順一,吉田将,今永一弘\BBOP1991\BBCP.\newblock\JBOQ接続コスト最小法による日本語形態素解析の評価実験\JBCQ\\newblock言語理解とコミニュケーション\91-1,電子情報通信学会.\bibitem[\protect\BCAY{西野,鷲北,石井}{西野\Jetal}{1992}]{nisino}西野博二,鷲北賢,石井直子\BBOP1992\BBCP.\newblock\JBOQ派生文法による日本語構文解析\JBCQ\\newblock自然言語処理研究会\87-6,情報処理学会.\bibitem[\protect\BCAY{寺村}{寺村}{1984}]{teramura}寺村秀夫\BBOP1984\BBCP.\newblock\Jem{日本語のシンタクスと意味II}.\newblockくろしお出版.\bibitem[\protect\BCAY{時枝}{時枝}{1950}]{tokieda}時枝誠記\BBOP1950\BBCP.\newblock\Jem{日本語文法口語篇}.\newblock岩波書店.\bibitem[\protect\BCAY{吉村,日高,吉田}{吉村\Jetal}{1983}]{yosimura83}吉村賢治,日高達,吉田将\BBOP1983\BBCP.\newblock\JBOQ文節数最小法を用いたべた書き日本語の形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf24}(1).\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{渕武志}{1965年生.1988年東京大学理学部情報科学科卒業.1991年慶応大学大学院修士課程終了.1995年東京大学大学院博士課程修了.理学博士.同年,NTTに入社,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{米澤明憲}{1947年生.1977年Ph.D.inComputerScience(MIT).1989年より東京大学理学部情報科学科教授.超並列ソフトウエアアーキテクチャ,ソフトウエア基礎論,人工知能基礎論などに興味を持つ.著書「算法表現論」,「モデルと表現」(岩波書店),編著書「ABCL:AnObject-OrientedConcurrentSystem」,「ResearchDirectionsinConcurrentObject-OrientedComputing」(MITPress)等.現在IEEEParallelandDistributedTechnology編集委員.1992年よりドイツ国立情報処理研究所(GMD)科学顧問.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V12N05-07
\section{はじめに} \label{sec:hajime}最近、種々の応用を睨んで言い換えの研究がさかんになっている\cite{inui02,acl03}。例えば、語彙的言い換えの研究\cite{yamamoto02}は種々の応用に役立つ。また、機械翻訳の前処理や評価\cite{kanayama03}、情報検索、質問応答、情報抽出の柔軟性を上げること\cite{Fabio03,Shinyama03}、年少者や初心者向けの教科書やマニュアルを読みやすくする、などは直接的に役立つ応用である。似た研究としては聾唖者に理解し易いテキスト言い換えもある\cite{inui-acl03}。また、非母国語話者が理解しやすいように簡易な言い方に言い換えることも有意義である。こういった目的のためには、国語辞典を用いた用言の言い換え\cite{kaji03}や普通名詞の言い換え\cite{fujita00}などが役立つ。一方、要約も言い換えの応用分野として有力である。従来の文書要約は重要文の抽出が主体であった\cite{mani01}。しかし、抽出した文をさらに短縮することを目指す場合には言い換えが役立つ。例えば、\begin{description}\item[例文1:]\hspace{2em}本法案が衆議院本会議で審議が始まった。\\を\item[例文2:]\hspace{2em}本法案、衆議院本会議で審議。\end{description}というような言い換えが考えられる。実際にこの例文2のような短縮された表現はテレビの字幕あるいは列車の字幕ニュースなどでよく見かける。このような応用は文書表示を行う端末の多様化からみても有用さが増してくる。Webページは従来からパソコンの大画面への表示を想定して作られていた。しかし、携帯電話やPDAの普及により100文字程度の小画面への表示を念頭におくテキストも増加している。このような画面へ表示するコンパクトなテキストは多くの場合短縮された表現である。このような短縮を自動的に行うために言い換え表現を収集することは意義深い。新聞記事の場合、重要な文は記事の先頭に現れることが多いという性質を利用して抽出できるが、画面が小さく表示文字数に限りがあること、短い時間で読むことができることなどを考慮すると、さらに縮約が要請される。後に詳しく述べるが、よく使われるのは、上記の例文2に見られる体言止めのような文末の短縮表現である。また、「国会で審議へ」という文末の助詞止めも多く使われる。このような縮約した文末表現は従来から字幕放送で用いられている。しかし、通常の書き言葉の文末である終止形を体言止めや助詞止めに変換する規則は、これまでほとんど手作りであった\cite{ando01}。このような文短縮を目的とした言い換え表現を言語の実際の使用例から自動収集するための言語資源としてWebに配信されている新聞記事と、これに対応した内容を携帯電話向けに発信している新聞記事に注目する。これらは毎日数十記事発信され、長期間にわたって蓄積すれば大量の言語資源となる。すなわち、同じ内容が数十文字程度で構成された携帯端末向けの新聞記事と数百文字程度で構成されているWeb新聞記事が対応付けられれば、ある言語表現とその短縮表現の対応データとして使える。この対応付けコーパスを用いれば、多様な文末表現の縮約のための言い換え表現を機械的な手法で抽出することが可能になる。ここで留意しなければならないのは、この研究で目的としている言い換えは「Web記事の文$\rightarrow$携帯端末向け記事の文」という方向性を持つ点である。実際には、書き手がこの方向で作業しているかどうかは不明である。しかし、縮約のような言い換えによって短縮された記事を作ることは技術的に可能であっても、その逆方向の言い換えは困難である。よって、この方向性を前提として研究を進める。なお、以下では必要に応じて、言い換え操作の対象になるWeb記事の文からの抽出表現を「言い換え元表現」、対応する携帯端末向け記事の文からの抽出表現を「言い換え先表現」と呼ぶ。さて\cite{inui02}は言い換えの研究にいくつかの問題を提起している。それらに対して、この研究ではいかなる解決策を採っているかをまとめることによって、本論文の構成を述べる。\\\noindent\textbf{言い換え事例をどのように集めるか}\\この問題に対しては、1)Web上から得られる言い換え表現獲得のための言語資源としてWeb新聞記事と携帯端末向けの新聞記事を用いること、2)この両記事コーパスを文単位で対応付ける方法の提案と実験的評価、を行って対処している。具体的には\ref{sec:taiou}節において、研究で使用した記事データについて、およびWeb記事と携帯記事の対応付け、さらにそこから文単位での対応付けを行う方法について述べる。このような対応付けコーパスを用いる言い換え事例収集は多くの研究\cite{braz01,sekine01}があるが、本研究での新規性のひとつは対象としている言語資源にある。\\\noindent\textbf{どの表現を言い換えるか}\\この問題は、これまでの言い換え研究の中心課題のひとつであった。特に類似した表現の対をコーパスから探し出すことは重要なテーマで、多くの研究\cite{murata01,torisawa01,terada01}がなされた。我々の場合、\ref{sec:chushutu}節において述べるように、対応付けられた文からなるコーパスを利用してWeb記事文の文末を縮約する携帯端末向け文の文末の言い換え表現を獲得することに的を絞っている。よって、言い換えるべき場所はWeb記事文の文末のうち、本論文で述べる方法で抽出した言い換えにおける言い換え元の表現が出現した場合と限定できる。\\\noindent\textbf{可能な言い換えの網羅的生成と、生成された候補の評価}\\\cite{inui02}では、この問題は上の問題の一部と位置付けられているが、本研究では網羅性の確保はその困難さから諦めた。代わりに文末表現に限定し、どのような範囲の形態素列を切り出せば正しい言い換え表現を抽出できるかという問題に絞って扱う。\ref{sub:webbunmatsu}節で言い換え表現の抽出について説明し、その抽出結果に\ref{sub:junni}節で説明する得点付けを行うことによって正しい言い換え表現を取得する。\ref{sub:filter}節では、その結果の言い換え表現のうち必要な名詞を削りすぎた不適切な言い換えを除去するフィルタリングについて述べる。これらの\ref{sec:chushutu}節に提案する手法の実験評価を\ref{sec:hyouka}節で述べる。\\\noindent\textbf{意味の差、およびその計算法}\\この問題はこの論文では人手での評価に頼った。今後の課題である。\\\noindent\textbf{言い換え知識の共有}\\本論文で述べた言い換え知識は文末表現の縮約に役立つが、これを大きくの研究者、技術者に共有する枠組みについても今後の課題である。 \section{対象とする新聞記事データとその対応付け} \label{sec:taiou}\subsection{対応付けの概要}文縮約のための言い換え規則を機械的に取り出すためには同一内容の長短2文が大量に必要となる。そこで本研究では、\cite{oomori03}の手法を利用してWebから長期にわたって収集したコーパスを用いる。このコーパスは、インターネット上に配信されていて、パソコンでの閲覧用に作成されている新聞記事(以下、Web記事と呼ぶ)と携帯端末向けに作成されている新聞記事(以下、携帯記事と呼ぶ)の間で同じ内容のものを自動的に対応付けたものである。さらに言い換え表現抽出のために、その携帯記事中の文(以下、携帯文と呼ぶ)に対しそれに対応付けられた新聞記事中から同一内容を持った文(以下、Web文と呼ぶ)を対応付ける\cite{sato04}。本節以下の実験では2001年4月26日から2003年11月30日までに収集したWeb記事と携帯記事から得た48075組の記事から抽出した合計72203組の対応文を用いた。Web記事は通常、数百文字で構成されているのに対して、携帯記事は50文字程度で構成されている。また携帯記事は体言止めや文末が助詞で終わる文が多いのが特徴として挙げられる。携帯記事の文末品詞の割合を表\ref{bunsu}に示す。\begin{table}[htbp]\begin{center}\caption{携帯記事の文末品詞の割合}\label{bunsu}\begin{tabular}{|r|r|r|r|}\hline\multicolumn{2}{|r|}{品詞}&頻度[個]&頻度\slash合計[\%]\\\hline\hline名詞&サ変接続&28687&39.7\\\cline{2-4}&その他&11796&16.3\\\hline\multicolumn{2}{|r|}{助詞}&13397&18.6\\\hline\multicolumn{2}{|r|}{動詞}&11988&16.6\\\hline\multicolumn{2}{|r|}{助動詞}&5589&7.7\\\hline\multicolumn{2}{|r|}{その他}&746&1.1\\\hline\hline\multicolumn{2}{|r|}{合計}&72203&100.00\\\hline\end{tabular}\end{center}\end{table}\subsection{記事単位での対応付け}\label{sub:kiji-taiou}新聞記事の対応付けの方法は以下のようになる。収集した記事群で1日単位にWeb記事と携帯記事の対応付けを行う。まず、両記事群を「茶筅」\cite{chasen}で形態素解析する。この結果に対して、携帯記事$i$中の名詞とWeb記事$j$中の名詞を調べ、次式のようにこの両者の記事の類似度$Sim(i,j)$を計算する。ここで$M(i)$は携帯記事$i$中の名詞の集合、$Wt(j)$をWeb記事$j$の見出し中の名詞の集合、$Wb(j)$をWeb記事の本文中の名詞集合とする。なお、携帯記事には見出しは付いていない。\begin{eqnarray}Sim(i,j)=3\times|\mbox{$Wt(j)\capM(i)$}|+|\mbox{$Wb(j)\capM(i)$}|\end{eqnarray}2001年5月10日から同8月10日まで毎月10日と20日に収集した605記事について$Sim$の値と人手でつけた対応付けの正解率の関係を図\ref{art-align}に示した。\begin{figure}[htb]\begin{center}\includegraphics[width=90mm]{img/art-align.eps}\caption{$Sim$の値と記事単位の対応付けの精度}\label{art-align}\end{center}\end{figure}この図より、$Sim$の値が35以上の場合を正しく対応が付いたとすることにより、現在までの実験で481記事が正しく対応した。すなわち、約80\%の携帯記事を100\%の精度で対応付けができた。そこで、この方法、すなわち$Sim\geqq35$の条件を満たす記事対を取り出すことにより、約3年分の記事対応付けコーパスを作成した。\subsection{文単位での対応付け}\label{sub:bun-taiou}記事単位で対応付けられたコーパスにおいて携帯記事を基準としてWeb記事から対応文の抽出を行う。これも以下に示すように対応した記事対において共起した名詞の頻度によって行った。具体的アルゴリズムを以下に示す。\\\noindent\textbf{文対応付けアルゴリズム}\\\begin{description}\item[Step:1]$i=1$\\携帯記事の第$i$文を形態素解析し、第$i$文に含まれる全名詞を抽出し、この集合を$Ms(i)$とする。\item[Step:2]$j=1$\item[Step:3]Web記事の第$j$文を形態素解析し、第$j$文に含まれる全名詞を抽出し、この集合を$Ws(j)$とする。\\$S(j)$=\textbar\mbox{$Ms(i)\capWs(j)$}\textbar\\を求める。\item[Step:4]$j=j+1$\\Web記事の最後の文になるまでStep:3、Step:4を繰り返す。\item[Step:5]$S(j)$がもっとも高いWeb記事の文を携帯記事第$i$文の対応文とする。なお、一致した名詞の数が同数の文が複数あった場合は、記事の先頭に近いものを対応文として選ぶ。\item[Step:6]$i=i+1$\\携帯記事に残った文があればStep:1に戻る\\\end{description}\textbf{Step:5}で名詞一致数が同数の場合に記事先頭に近いものを選ぶのは、新聞記事の場合は先頭に近い文が重要な情報を担うからである。つまり、携帯文に対応する文のうち、より重要な情報を含む文を選択しようという指針を採った。以上の方法で抽出した対応文対のうち、以後、携帯記事から抽出した文を携帯文、Web記事から抽出した文をWeb文と呼ぶ。ここまでに述べた方法で抽出したデータのうち、2001年の約一年分の対応記事コーパスの43171組の対応文についての詳細を表\ref{kousei}に示す。携帯記事のほとんどが二文で構成されていることから、使用した対応付けコーパスの記事数の約二倍の対応文が抽出される。また携帯文は一文が数十文字程度であるのに対して、Web文はそれよりも長い構成になっているので、二文の携帯文に対して、Web文が一文で抽出される場合もある。これは携帯記事が二文で構成されているときのみ現れる。\begin{table*}[htb]\caption{記事の構成文数と対応文の抽出状況}\label{kousei}\begin{center}\begin{tabular}{|r|r|r|}\hline携帯記事&抽出した時&抽出した\\の構成&の状態&対応文\\&(携帯文対Web文)&\\\hline\hline1文&1対1&1801\\\hline2文&2対1&9606\\\cline{2-3}&1対1&29732\\\hline3文&1対1&2028\\\hline4文&1対1&4\\\hline\hline\multicolumn{2}{|c|}{合計}&43171\\\hline\end{tabular}\end{center}\end{table*}次に今回、抽出した対応文からランダムで500組を抽出し対応付けの精度を求めた。\begin{eqnarray}\mbox{精度}=\frac{\mbox{抽出した対応付け正解文数}}{\mbox{抽出した全文数}}\end{eqnarray}対応付けの正解・不正解は人手で行っており、対応付けられている場合は正解、対応付けられていない場合は不正解として2人で行った。2人の判断が異なった場合には3人目が判断して、多数決で正解・不正解を判断する。この方法により評価を行った精度は92.8\%であった。この精度は対応付けそのものとしては必ずしも十分ではないが、次節で述べる言い換え表現抽出では、さらに頻度などに基づく言い換え表現の重み付けなども行っているため、100\%の精度は必須とは言えない。よって、この方法によって得られた対応文のデータによって、言い換え元表現と言い換え先表現抽出の実験を進めることにした。 \section{言い換え表現の抽出} label{sec:chushutu}\subsection{言い換え抽出の枠組}本節では、\ref{sub:bun-taiou}節で述べた方法で抽出した携帯文とWeb文を用いて、言い換え先表現と言い換え元表現の対を抽出する方法について述べる。例えば、\\\begin{description}\item[携帯文:]コンピュータウィルス感染防止に有力な方法が\underline{判明}。\item[Web文:]コンピュータウィルス感染防止に有力な方法があることが、研究所の調査で\underline{分かった}。\\\end{description}という対応文があったとする。このとき文末に注目すると携帯文では\underline{判明}で終わっているのに対して、Web文では\underline{分かった}で文が終わっている。文の内容から要約の際は\underline{判明}を言い換え先表現に、\underline{分かった}を言い換え元表現に使えることが、人間が見れば容易に判断できる。このような携帯文の文末にある言い換え先表現に対する言い換え元表現をWeb文から自動的に抽出するのは、概略、以下のような方法になる。\\\begin{description}\item[Step:1]\ref{sub:bun-taiou}節で作成された対応文から同じ言い換え先表現を文末に持つ携帯文とWeb文の関連付けする。この詳細は\ref{sub:kouho}節で述べる。\item[Step:2]Step:1で関連付けられたWeb文から言い換え元表現の候補を抽出する。この詳細は\ref{sub:webbunmatsu}節で述べる。\item[Step:3]抽出された言い換え先表現の候補それぞれに対し、語彙の分岐数、出現頻度、文字列長から正しい言い換え元表現が高得点になるような得点付けを行い、順位付けする。この詳細は\ref{sub:junni}節で述べる。\item[Step:4]Step:3の結果に対して、精度の向上を図るため、言い換え元表現として不適切な表現を削除する。この詳細は\ref{sub:filter}節で述べる。\\\end{description}すなわち、この処理では、\textbf{言い換え先である携帯文文末の表現をまず決め、それに対応する複数のWeb文の言い換え元表現を推定する}という問題を解くことになる。\subsection{言い換え先表現および対応するWeb文集合の抽出}\label{sub:kouho}まず言い換え先表現の抽出方法について説明する。言い換え先表現の抽出のために携帯文を形態素解析し、文末にある1形態素を取り出す。これによりサ変接続の名詞であれば「会談」や「表明」といった表現が抽出される。しかし、これだけでは助詞や助動詞、動詞の場合は「も」や「た」、「示す」といった言い換え表現として使用が難しい表現や、意味の範囲が広すぎるために言い換え表現の抽出が困難な表現が抽出されてしまう。その問題はさらに文頭方向にある形態素を続けて抽出することにより解消できる。その結果、「可能性も」や「述べた」、「認識示す」といった言い換え先表現が取り出され、言い換え元表現の抽出も容易になる。次に図\ref{buntaiou}に抽出した言い換え先表現に対する対応文集合を作成する流れを示す。まず図の左側の枠内にあるように、抽出した言い換え先表現に対しその言い換え先表現を文末に持つ携帯文を集める。そして図の右側の枠内にあるように、集めた携帯文に対応するWeb文を集め、それをWeb文集合とする。そのときのWeb文集合の要素数を以下「対応文数」と呼ぶ。\ref{sub:webbunmatsu}節以降で説明する言い換え元表現の抽出は、ここで作成されたWeb文集合の文末から抽出することになる。\begin{figure}[htb]\begin{center}\includegraphics[width=110mm]{img/buntaiou.eps}\caption{言い換え先表現の抽出と対応文集合}\label{buntaiou}\end{center}\end{figure}この方法により、言い換え先表現として4617表現を抽出した。抽出した言い換え先表現のうち頻度が上位30位までの表現を表\ref{kouho_space}に示す。動詞終止形、助詞、形容詞語幹(「高」「安」)、など様々だが、一番多いのはサ変接続名詞であり60\%を占める18個である。文末のサ変名詞はいわゆる体言止めであり、この表にも示されるように頻度が高く、結果として適用される頻度も高いと推測される。\begin{table}[htb]\caption{言い換え先表現の例}\label{kouho_space}\begin{center}\begin{tabular}{|r|r||r|r||r|r|}\hline抽出表現&対応文数&抽出表現&対応文数&抽出表現&対応文数\\\hline\hline高&1780&ている&505&協議&315\\\hline安&1668&判明&422&可能性も&310\\\hline発表&1118&方針&408&要請&292\\\hline逮捕&967&見通し&402&れた&286\\\hline」と&933&ため&399&発言&282\\\hline会談&788&強調&378&指摘&270\\\hline表明&735&合意&341&」&264\\\hline死亡&629&開始&329&確認&261\\\hline決定&538&検討&328&予定&254\\\hlineいた&513&批判&317&みられる&247\\\hline\end{tabular}\end{center}\end{table}ここで頻度が高かった「高」と「安」であるが、これはほぼ全てが経済の記事からであり、「円高」「円安」などが元となっている。さらに対応するWeb文では「円高・ドル安となった」「円安・ドル高となった」という表現が固定的に用いられている。その特殊性から正解となる言い換え元表現が少なく、例を挙げての説明が困難となるため、以下の説明の際は頻度が次に多い「発表」を用いる。\subsection{言い換え元表現候補の抽出}\label{sub:webbunmatsu}\ref{sub:kouho}節で作成されたデータを用い、言い換え先表現に対応する言い換え元表現をWeb文集合の各文の文末から抽出する。言い換え元表現の抽出にはWeb文を形態素解析し、文末から文頭方向に向かって1形態素ずつ増やしながら表現を抽出する。言い換え元表現が含まれる長さとして十分な15形態素までを使用する。ここでは単純に形態素区切りで表現を取り出すため、言い換え元表現に適さない表現も数多く抽出されるが、\ref{sub:junni}節で述べる得点付けや\ref{sub:filter}節で述べるフィルタリングによって排除を試みる。この時点で抽出された言い換え表現の例を表\ref{iikae-chushutu}に示す。\begin{table}[htb]\caption{言い換え先表現が「発表」時の言い換え元表現の候補の例}\label{iikae-chushutu}\begin{center}\begin{tabular}{|r|r|}\hlineた&れた\\\hlineした&された\\\hline発表した&指定された\\\hlineを発表した&が指定された\\\hline結果を発表した&公表された\\\hline調査結果を発表した&から公表された\\\hlineの調査結果を発表した&発表された\\\hline費の調査結果を発表した&日発表された\\\hline医療費の調査結果を発表した&が発表された\\\hline\end{tabular}\end{center}\end{table}\subsection{分岐数、頻度、文字列長に基づく言い換え元候補の順位付け}\label{sub:junni}\ref{sub:webbunmatsu}節で抽出された言い換え元表現には言い換えとして適切な表現と言い換えとして不適切な表現が含まれていることになる。そこで、抽出された表現に対して正解が上位に集中することを目的とした順位付けを行う。順位付けを行うにあたってまず、ある言い換え先表現に対応するWeb文集合において、集合全体としてWeb文の文末が持つ特徴を説明する。図\ref{rev-bunki}にWeb文集合中のWeb文の文末から文頭方向への語の分岐の様子の例を示す。図から前方に向かって形態素が分岐していることが分かる。まず、一番右側にWeb文の一番文末の形態素となる「た」や「する」がくる。さらに1つ前方にある形態素を繋げると「した」や「だった」や「発表する」が抽出できる。例えば、「を発表した」に続く形態素は「結果」「表明」「コメント」など111種類ある。ここで、ある表現から1つ前方の形態素の種類数をその形態素の分岐数と呼ぶ。さらに図\ref{happyo-bunki}に図\ref{rev-bunki}で示した内容の一部分の分岐数と頻度の関係を示した。このグラフからは「発表した」までは分岐数が小さく、「を発表した」で分岐数が大きく、さらに「結果を発表した」となるとまた小さくなることが分かる。これは、(a)固定された表現の内部では部分形態素列を長く与えれば与えるほど、直前あるいは直後の形態素が絞り込まれること、(b)ひとたび固定的な表現が終わると、その前後にはいかなる表現も現れることができるようになること、に対応している。よって分岐数が大きい形態素までの形態素列がよい言い換え元の候補であると考えることができる。さらに良く使われる表現ほどその表現は固定的な言い回しで、言い換え先表現と深くかかわっている可能性が高いと考えられる。\begin{figure}[htb]\begin{center}\includegraphics{img/back.eps}\caption{言い換え先表現が「発表」時のWeb文を文末からみた様子}\label{rev-bunki}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\includegraphics[width=100mm]{img/happyo-bunki.eps}\caption{言い換え先表現が「発表」時のWeb文を文末からみた分岐数と頻度の関係}\label{happyo-bunki}\end{center}\end{figure}以上の特徴を踏まえ、言い換えのよさを示す評価関数の構成要素として以下を用いる。\begin{description}\item[分岐数:]分岐数の大小が言い換え表現句としての切れ目の可能性の大小を表すと考えられるので評価関数の構成要素として用いる。\item[頻度:]良く使われる表現は安定していることを示すので、他の要因と組み合わせて用いることは有益である。\item[文字列長:]ここでいう文字列長は形態素数ではなく文字数である。言い換え元表現は短過ぎるならば言い回しにならず、長過ぎるならば文脈に依存した表現になってしまう。長過ぎもせず、短すぎもせず、適度な長さの表現を抽出したい。そのため評価関数ではlog(文字列長$-$1)を用いる。$\log$により長い文字列に対して得点の抑制を、文字列長$-$1により1〜2文字の表現の排除をする効果がある。さて、長さに形態素数を使うという選択肢もある。しかし、もし形態素数を文字列長の代わりに使うと、十分に長くて意味のある形態素(例えば固有表現)が長さ=1で排除されてしまいかねない。これを避けるために文字数を用いた。\end{description}\noindent上記の各要素を\\$a=$分岐数\\$b=$頻度\\$c=\log($文字列長$-1)$\\\\と定義し、評価関数を$a,b,c,a\timesb,a\timesc,b\timesc,a\timesb\timesc$の7種類を用いて比較実験を行った。対応文数の多かった100位までの言い換え元表現の候補のスコアが1位の表現を人手で評価し、評価関数の違いによる正しい表現の割合を表\ref{score7}に示す。この結果から、評価関数$a\timesb\timesc$を用いた方法が最も精度が高いことがわかる。よって、評価関数$a\timesb\timesc$を用いた得点付けのデータを用いる。\begin{table}[htb]\caption{計算手法の違いによる精度の違い}\label{score7}\begin{center}\begin{tabular}{|r||r|r|r|r|r|r|r|}\hline評価関数&$a$&$b$&$c$&$a\timesb$&$a\timesc$&$b\timesc$&$a\timesb\timesc$\\\hline\hline正解の割合&18\%&5\%&0\%&12\%&46\%&65\%&71\%\\\hline\end{tabular}\end{center}\end{table}さらに言い換え元表現として正しい表現が得点が高くなり、高順位になることを示すために、図\ref{happyo-bunpu}に言い換え先が「発表」の場合に$a\timesb\timesc$の方法で得点付けをした場合の言い換え元の正しい表現の分布グラフを示す。このグラフから、多くの正しい言い換え元表現が高順位に集中していることがわかる。低い順位にいくつか正しい言い換え元表現がきているが、これは表現の頻度が少なかったために得点が低くなったことが原因である。\begin{figure}[htb]\begin{center}\includegraphics[width=100mm]{img/happyo-bunpu.eps}\caption{言い換え先表現が「発表」の場合の正しい表現の分布}\label{happyo-bunpu}\end{center}\end{figure}\subsection{フィルタリングによる不適切な言い換え元表現の削除}\label{sub:filter}言い換え元表現として抽出した表現の中には文の意味として欠落してはならない語を含んでいることがあるため、その語を言い換えによって削除してしまうと意味が通らない文になってしまう可能性がある。このような不適切な言い換え元表現は前節の得点付けによって順位が下位になる場合は採用されないが、収集した記事中でよく使われる表現であれば言い換え元表現として不適切な表現も上位になってしまう。そのような言い換え元表現を削除するためのフィルタリングを行う。そのアルゴリズムは次のようになる。\\\noindent\textbf{フィルタリングアルゴリズム}\\\noindent$n$を言い換え元表現の数とし、言い換え元表現の集合を$\{x_1,x_2,$…$,x_n\}$,言い換え元表現を$x_i=S_{1}S_{2}$…$S_{m}$($S_{k}$は形態素),言い換え先表現を$y$,携帯文を$M_{1}$…$M_{j}\/y$($M_{l}$は形態素,\/$y$は言い換え先表現),$C$を名詞とすると、\\for($i$=1,$n$)\{\\\hspace{2em}if($C\in\{M_{1},$…$,M_{j}\}\wedgeC\in\{S_{1},$…$,S_{m}\}\wedgeC\notiny$)\\\hspace{2em}$then$$x_i$を言い換え元表現集合から除く\\\indent\}\\なぜなら名詞$C$は携帯文に含まれるが、言い換え先表現$y$には含まれない。つまり$C$は携帯文にとって必須の意味を担う。よって$C$を含む言い換え元表現$x_i$を$C$を含まない言い換え先表現$y$に省略することはできない。具体例を図\ref{filter-img}に示す。ここで$C$は「声明」となり、削除対象となる言い換え元表現$x_i$は「声明を発表した」となる。なお、$y$は「発表」である。Web文にも携帯文にも「声明」という語が含まれ、文の内容として必須の語であることがわかる。よって「声明」という意味を削除する「声明を発表した」は「発表」の言い換え元表現として正しくないと考えられるため、言い換え元表現の候補から削除する。\begin{figure}[htb]\begin{center}\includegraphics[width=110mm]{img/filter-img.eps}\caption{フィルタリング処理の具体例}\label{filter-img}\end{center}\end{figure}フィルタリングによって\ref{sub:junni}節で得られたデータがどのように変化するかを表\ref{filter-henka}に示す。表中でアンダーラインが引かれているものがフィルタリングによって削除された表現である。この表から、言い換え元表現として用いるには不適切な表現が削除できていることが分かる。\begin{table}[htb]\caption{フィルタリングによる言い換え元表現の削除の例\\(言い換え先:「発表」)}\label{filter-henka}\begin{center}\begin{tabular}{|r|r|}\hlineを発表した&を明らかにした\\\hlineと発表した&\underline{ことを明らかにした}\\\hline発表した&\underline{たことを明らかにした}\\\hlineすると発表した&\underline{調査結果を発表した}\\\hlineたと発表した&明らかにした\\\hlineしたと発表した&\underline{策を発表した}\\\hline\underline{結果を発表した}&となった\\\hline\underline{声明を発表した}&したことを明らかにした\\\hline\underline{計画を発表した}&\underline{する声明を発表した}\\\hline\end{tabular}\end{center}\end{table} \section{抽出された言い換え元表現の評価} label{sec:hyouka}提案した手法で抽出した言い換えの全体に対しての数量的評価を\ref{subsec:suuryou}節で述べる。\ref{subsec:rei}節では抽出した言い換えの典型例についての考察を行う。\subsection{数量的評価}\label{subsec:suuryou}まず言い換え元表現と言い換え先表現の長さについて述べる。\ref{sub:kouho}節で述べた方法で抽出した言い換え先表現4617個を対象にしたときの言い換え先表現の平均文字数は2.6文字、標準偏差は1.1で、正しい言い換え元表現の平均文字列長は5.7文字、標準偏差は3.2であった。さらに言い換え表現先と言い換え元表現の文字列長の差の平均は3.0文字で標準偏差は2.2であった。また、表\ref{hyougen-rei}に言い換え先表現の品詞ごとに抽出例をあげる。「ている」や「している」といった言い換え元表現として用いることができない表現が出現しているが、この様な表現を削除することは今後の課題である。\begin{table}[htb]\caption{言い換え元表現の抽出例}\label{hyougen-rei}\begin{center}\begin{tabular}{|r|r|r|r|}\hline会談(名詞)&可能性も(助詞)&と語る(動詞)&述べた(助動詞)\\\hline\hlineと会談した&ている&を示した&と述べた\\\hline会談した&可能性がある&と語った&述べた\\\hlineで会談した&可能性もある&と述べた&を示した\\\hlineについて意見交換した&している&語った&を述べた\\\hlineと相次いで会談した&可能性が出てきた&考えを示した&を明らかにした\\\hline\end{tabular}\end{center}\end{table}次に言い換え元表現の抽出精度について示す。まず精度の評価方法について説明する。精度は人手により評価を行っている。3人が言い換え元表現について、新聞記事のニュースであることは勘案せずに正否を判定し、2名以上が正しいと判断した場合を正解、それ以外は不正解としている。なお、グラフはそのままのデータでは見難いため10〜50件で平均をとって表示している。図\ref{1-all}は全品詞を対応文数の多い順に並べ、それぞれの言い換え元表現の得点付け順位が1位になった表現について人手で評価を行ったものである。なお、全体の傾向を把握するために、縦軸の精度を対数とした場合のデータへの当てはめ近似曲線を実線で示した。図\ref{hikaku-all}には\ref{sub:filter}節で行ったフィルタリングの有効性についての評価を示す。図\ref{hikaku-all}は全品詞でフィルタリング前後の精度の対数曲線での近似のみを示したものである。全体では精度が12\%向上し、特に対応文数が少ない部分ではかなりの精度向上が見られる。\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-all.eps}\end{center}\caption{全品詞のフィルタリング前の精度}\label{1-all}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/hikaku-all.eps}\end{center}\caption{全品詞のフィルタリング前後の精度の比較}\label{hikaku-all}\end{minipage}\end{figure}上記評価方法とは別に以下に述べる評価方法を用いた場合におけるフィルタリング前後の評価を図\ref{1-3-all}から図\ref{1-3-filter-jodoushi}に示す。この評価方法は各言い換え先表現のWeb文集合における対応文数が10件になるまでの部分で、言い換え元表現の得点付けによる順位が3位までの正否を判定し、全品詞を対象にした場合、名詞、助詞、動詞、助動詞を別々に対象にした場合について、その平均をとったものである。この図からは、フィルタリングが品詞にかかわらず精度の向上に効果があることがわかる。対応文数が10件までということもあり比較的正解となる言い換え元表現が抽出されているため前の全品詞の得点付けが1位の場合のデータ程ではないが、フィルタリングにより全品詞において4\%程度の精度が向上がみられる。今回用いた言い換え元表現の抽出方法では携帯文の文末にくる表現とWeb文の文末にくる表現が同一内容である必要がある。携帯文の文末が名詞の場合は、抽出した言い換え先表現と言い換え元表現が同一内容の表現がくることが多いため図\ref{1-3-filter-meishi}のように高い精度を得られたが、携帯文の文末が助詞や助動詞の場合では言い換え先表現と同一内容の抽出すべき言い換え元表現は文末よりかなり前にあることが多いという特徴がある。そのため、図\ref{1-3-filter-joshi}や図\ref{1-3-filter-jodoushi}のようにどのような順位でも精度が低いという結果が得られた。この問題の解決は今後の課題となる。\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-all.eps}\end{center}\caption{全品詞のフィルタリング前の精度}\label{1-3-all}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-all.eps}\end{center}\caption{全品詞のフィルタリング後の精度}\label{1-3-filter-all}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-meishi.eps}\end{center}\caption{名詞のフィルタリング前の精度}\label{1-3-meishi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-meishi.eps}\end{center}\caption{名詞のフィルタリング後の精度}\label{1-3-filter-meishi}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-joshi.eps}\end{center}\caption{助詞のフィルタリング前の精度}\label{1-3-joshi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-joshi.eps}\end{center}\caption{助詞のフィルタリング後の精度}\label{1-3-filter-joshi}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-doushi.eps}\end{center}\caption{動詞のフィルタリング前の精度}\label{1-3-doushi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-doushi.eps}\end{center}\caption{動詞のフィルタリング後の精度}\label{1-3-filter-doushi}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-jodoushi.eps}\end{center}\caption{助動詞のフィルタリング前の精度}\label{1-3-jodoushi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-jodoushi.eps}\end{center}\caption{助動詞のフィルタリング後の精度}\label{1-3-filter-jodoushi}\end{minipage}\end{figure}最後に「精度」と「対応文数」の関係について図\ref{hindo-seido}に示す。用いるデータは図\ref{1-all}と同じ全品詞を対応文数の多い順に並べ、それぞれの言い換え元表現の得点付け順位が1位になった表現について人手で評価したものである。この図からは、言い換え先表現に対する対応文数が少ないと精度が低く、対応文数が増えるにつれ対数関数的に精度が向上していくことが分かる。つまり、この手法で正解となる表現のより高い抽出精度を求めるならば、精度は対応文数に対し指数関数的な数のコーパスを集めなければならないということであり、これには相当な困難が伴う。よって、今後は構文構造や意味内容を利用する精密な手法を用いることによる言い換え表現抽出を行う必要がある。\begin{figure}[htbp]\begin{center}\includegraphics[width=70mm]{img/hindo-seido2.eps}\end{center}\caption{対応文数と精度の関連}\label{hindo-seido}\end{figure}\subsection{言い換え例についての考察}\label{subsec:rei}言い換え先表現の各々に対応する言い換え先表現についての言語学的考察は興味深いものである。しかし、\ref{sub:kouho}節で述べた方法で抽出した言い換え先表現4617個全体を対象にすると、各言い換え先表現に対して多い場合は100種以上、少ない場合でも10種近い言い換え元表現が抽出されているため膨大な労力が必要である。よって相当に長期にわたる研究が必要であるので、別の機会に譲りたい。しかし、典型的な例について言語学的な考察をしておくことは、抽出された言い換え先、言い換え元の性質を窺う上で意味がある。よって、この節では、抽出した全言い換えのうちの相当数を観察した結果、筆者が得た典型的な言い換えパターンについての例示と考察を行うことにする。なお、以下の例では「言い換え先表現$\leftarrow$言い換え元表現(言い換え先表現に対する表\ref{score7}の$a\timesb\timesc$による順位)」という形式で言い換えを記述する。\subsubsection*{(1)文末用言の省略による体言止め、など}以下に例を示す。\\\begin{tabular}{llcl}(1-a)&発表&$\leftarrow$&発表した(3位)\\(1-b)&見通し&$\leftarrow$&見通しだ(1位)\\(1-c)&見通し&$\leftarrow$&見通しを明らかにした(6位)\\(1-d)&見通し&$\leftarrow$&見通しを示した(17位)\\(1-e)&高&$\leftarrow$&高で取引を終了した(18位)\\(1-f)&事故&$\leftarrow$&事故となった(3位)\\\end{tabular}\\文末用言の省略の結果、体言止めになる場合では、(1-a)に見られる「した」(=「する」の過去形)を省略してサ変名詞のみを残して体言止めにする場合が多い。(1-b)の場合は「である」の言い切りの形である「だ」の省略だが、これも同じようなタイプである。(1-c)(1-d)は形式的用言である「する」や「だ」のような機能語的な用言の省略ではなく、内容語を伴う用言句「明らかにした」「示した」の省略である。これは形式的には導けない言い換えであり、今回のようなコーパスからの抽出データを用いて明らかになった言い換えである。ニュースの文の言い換えとしては普遍性を持つと予想できるが、その適用範囲についてはより深い考察を必要とする。(1-e)はニュース特有の言い換えで、株価や為替レートについての報告となる。これは、株価、為替などの分野でしか成立しない言い換えである。(1-f)はサ変ではない名詞「事故」の場合である。この場合はこの例に見られる「となる」のほかに「になる」などいくつかの典型的用言が省略候補になると予想されるが、それを網羅的に調べることは大規模データを用いての実験となるため今後の課題である。文末の用言句が省略されても体言止めになるとは限らない。例えば次のような例がある。\\\begin{tabular}{llcl}(1-g)&盗まれる&$\leftarrow$&が盗まれていた(1位)\\(1-i)&盗まれる&$\leftarrow$&が盗まれていたことが分かった(2位)\end{tabular}\\(1-g)は「いた」という完了を表す動詞接尾辞の省略であり、これは文法的には大きな変化だが、大方の意味は保存されている。(1-i)は「いたことが分かった」という部分の省略である。この部分は「こと」で体言化し、それによって客観化(言語学的には命題化)を行った後、記者ないし記者が直接取材した人の判断である「分かった」が連接している。文を日本語学で使われる$\mbox{命題}+\mbox{モダリティ}$という構造で捉えると、命題の部分だけを単独で取り出すという言い換えである。ニュース記事が少ない文字数で事実、すなわち言語学的には命題、を伝えるものと考えれば、その言い換えの構造は理解しやすいものであろうし、ニュース記事の言い換えとしては普遍性を持つ。この問題については、後に助詞止めのところでもう一度議論する。\subsubsection*{(2)引用の「」と」の言い換え}文末用言の省略の結果、体言止めになる場合は、引用を表す「」と」で終わる例が多数観察された。以下に例を示す。\\\begin{tabular}{llcl}(2-a)&」と&$\leftarrow$&と述べた(1位)\\(2-b)&」と&$\leftarrow$&との認識を示した(3位)\\(2-c)&」と&$\leftarrow$&と語った(4位)\\(2-d)&」と&$\leftarrow$&と報じた(34位)\\(2-e)&」と&$\leftarrow$&という(8位)\end{tabular}\\引用や報告を表すこれらの言い換えが組織的に抽出できたことは、本論文で説明したコーパスの効果である。ただし、(2-e)の「という」は今日では実際上「と言う」ではなく固定した表現のように扱われることが多く、必ずしも「いう」の省略でなく、語彙的な言い換えとみなすべきかもしれない。これらはニュース記事であれば正しい縮約と考えられるが、(2-a)から(2-d)については、もう少し深い言語学的考察を(5)で述べる。\subsubsection*{(3)助詞の省略など文法構造上の言い換え}文末用言に加え、用言の左方の助詞を省略する場合もある。以下に例を示す。\\\begin{tabular}{llcl}(3-a)&発表&$\leftarrow$&を発表した(1位)\\(3-b)&発表&$\leftarrow$&に発表した(7位)\end{tabular}\\用言の直前の助詞を省略した場合もある。具体的には(3-a)だと「移転計画を発表した」を「移転計画発表」、(3-b)だと「午後に発表した」を「午後発表」という言い換えになる。しかし、この言い換えは不自然な言い換えになることがある。例えば。「XX誌に発表した」を「XX誌発表」というのは不自然である。このような例は正解としなかった。さらに\\\begin{tabular}{llcl}(3-c)&発表&$\leftarrow$&と発表した(2位)\end{tabular}\\という「と」を省略する場合は特に不自然さが大きい。例えば、「移転すると発表した」を言い換えた「移転する発表」は非文である。ただし、「移転計画と発表した」を「移転計画発表」とする言い換えは若干不自然な程度である。現象的にはかなり複雑だけに、厳密な言語学的分析は今後の研究を待たなければならない。\subsubsection*{(4)意味の類似した語彙ないし言い回しでの言い換え}言い換えの研究でしばしば対象になるものに語彙的な言い換えがある。この範疇に入る言い換えとしては、まず同じ意味を持つ単語への言い換えがある。次に用言の言い換えの例を示す。ただしこの例では、一つの言い換え先「発表」に対する複数の言い換え元をまとめて$\leftarrow$の右側に「、」で区切って示す。\\\begin{tabular}{llcl}(4-a)&発表&$\leftarrow$&公表した(10位)、分かった(16位)、まとめた(24位)、\\&&&示した(43位)、述べた(58位)、表明した(60位)\\\end{tabular}\\このような同じ意味を持つ表現がコーパスから機械的に得られ、本提案の言い換え抽出の有効性を示している。しかし、このような言い換えは多数得られているわけではない。というのは、文末に使われる用言の種類は相当に限定されているからである。上記のような同義あるいは類義の用言を網羅的に求めるためには、文末以外の部分からの言い換え抽出が必要であるが、これは本論文の範囲を超える研究テーマである。また、サ変名詞以外の体言は、そもそも文末に出現することが少なく、ほとんど言い換えは得られていない。本研究の方法論的限界といえる。一方、ニュース記事の言い換えという点で特徴的な例を示そう。(1-e)の例で示した株価、為替のニュースに現れる「高」あるいは「安」であるが、以下のような言い換え元表現が求まっている。\\\begin{tabular}{llcl}(4-b)&高&$\leftarrow$&高で取引を終了した(18位)\\(4-c)&高&$\leftarrow$&で取引を終えた(2位)\\(4-d)&高&$\leftarrow$&高・ドル安となった(5位)\\(4-e)&高&$\leftarrow$&高の8424円51銭で取引を終えた(43位)\\(4-f)&高&$\leftarrow$&反発して取引を終えた(24位)\\(4-g)&高&$\leftarrow$&続伸して取引を終えた(25位)\\(4-h)&安&$\leftarrow$&安・ドル高となった(7位)\\(4-i)&安&$\leftarrow$&割り込んで取引を終えた(34位)\\(4-j)&安&$\leftarrow$&反落して取引を終えた(43位)\end{tabular}\\(4-b)は言い換え元の「で取引を終了した」が省略されているが、これを省略してもよいのは、為替、株価のニュースという背景が読み手にも分かっているからである。(4-c)は、言い換え元が「高で取引を終えた」か「安で取引を終えた」であるのかという情報を無視して「高」とするため誤った言い換えである。このような言い換えも候補に出てきてしまうのが、提案手法の限界である。(4-d)は興味深い。原文では「円高・ドル安となった」なのだが「円高・ドル安」が為替としては同じ情報の繰り返しであるが慣用化している。ところが、短縮すると「円高」にだけ焦点を当て、「高」と言い換えられる。これは、「円」を通常使用する日本人を対象にした文章だからであろう。(4-h)の「円安・ドル高」についての言い換えも同様である。このように言い換えは、前後の文章という狭義の文脈だけではなく、文化、国家などを含んで考えなければならないため、扱いが難しいことがわかる。(4-e)は、言い換え元では「XX円YY銭高の8424円51銭で取引を終えた」という構造なので(4-e)で言い換えれば「XX円YY銭高」となり新聞記事としては許容できるが、明らかに情報は欠落している。よって、一般的な言い換えとしては不適切である。今後、言い換え先、元ともに数値まで含めた言い換え抽出の方法を検討する必要があることが分かった。(4-f)、(4-g)、(4-i)、(4-j)は、深い意味解釈をした上での言い換えである。このような言い換えが抽出できたのは、ここで使っている携帯記事とWeb記事のコーパスが言い換え対象以外の部分を用いて対応付けされていること、対象の言い換えを文末に限定したことの2点によって、抽出が可能になったと考えられる。しかし、これらもまた新聞記事ニュースでだけ成立する言い換えである。上記の「高」「安」は典型的な意味的言い換えが行われていたが、それ以外でも、内容を解釈した上で言い換える例がある。例えば次のようなものである。\\\begin{tabular}{llcl}(4-k)&事故&$\leftarrow$&行方不明になっている(17位)\\(4-l)&事故&$\leftarrow$&で止まっていた大型トレーラーに追突(28位)\\(4-m)&盗まれる&$\leftarrow$&窃盗事件として捜査を始めた(92位)\end{tabular}\\このような言い換えも普遍的に正しいものではないが、高い圧縮率の要約とみなすことはできる。実際、抽出された言い換え元表現のうち、この例のような長めの表現のうち正しいと判断できるものは、相当な情報の損失を伴う高い圧縮率の要約という性格を持つ。\subsubsection*{(5)助詞止め}言い換え先が「焦点に」のような助詞止めの場合は、言語的には複雑である。まず典型的な例を示そう。「」と」についての要約は既に一部述べたが、言い換え元表現に存在した認識や引用という記者あるいは記者が直接取材した人の持った事実認識を表すモダリティの表現が省略されたものが多い。この言い換えは新聞ニュース記事であれば成立する言い換えである。以下はそのような例である。「認識を示した」「報じた」は少々長い表現であるが、判断や伝聞のモダリティを表すと考えられる。\\\begin{tabular}{llcl}(5-a)&」と&$\leftarrow$&との認識を示した(3位)\\(5-b)&」と&$\leftarrow$&と報じた(34位)\end{tabular}\\一方、記者らの事実認識を示すモダリティではなく、記者の取材した事実関係そのものの中で、登場人物が行った言語行動を省略した以下のような例もある。\\\begin{tabular}{llcl}(5-c)&」と&$\leftarrow$&を言い渡した(10位)\\(5-d)&」と&$\leftarrow$&求めた(21位)\\(5-e)&」と&$\leftarrow$&をけん制した(39位)\end{tabular}\\これらは引用符の前に書かれた内容から、「言い渡す」「求める」「けん制する」という言語行動が十分に予想できるからこその省略である。その意味では普遍性のある言い換えではない。\\\begin{tabular}{llcl}(5-f)&会談へ&$\leftarrow$&と会談することが決まった(4位)\\(5-g)&焦点に&$\leftarrow$&焦点となる(1位)\end{tabular}\\これらの例は、「へ」や「に」のような方向性を表す助詞は、確定的になった将来の事柄を表す例である。より詳しく調査分析すれば、言語学的には興味深い観察が得られるが、この論文の範囲を越える研究テーマと考える。さて、終助詞「か」は元来が疑問などのモダリティを意味するだけに言い換え元に興味深いものが多い。\\\begin{tabular}{llcl}(5-h)&狙いか&$\leftarrow$&狙いがあるとみられる(2位)\\(5-i)&原因か&$\leftarrow$&が原因とみられる(2位)\\(5-j)&犯行か&$\leftarrow$&の犯行とみている(3位)\end{tabular}\\(5-h)と(5-i)は言い換え元表現に記者自身の判断が記載されているが、それが「か」という終助詞に凝縮していると考えられる。また、(5-j)は、言い換え元表現において記者ではなく警察などの判断を表している。しかし、警察の判断まで含めたモダリティも「犯行」という事実があれば、「か」という終助詞に凝縮することができることを示している。よって、これらの言い換えもまたニュースであることに依存して成立するタイプであるといえよう。このような、命題にモダリティが後接する日本語の基本構造に基づく助詞への言い換えは、言語学の課題としては興味深いし、大きなテーマであるが、詳細に踏み込むことは、この論文の範囲を越えると考える。以上、本論文で述べた携帯記事とWeb記事の対応付けコーパスを用いて抽出された言い換え先と言い換え元表現のうち筆者が典型例と考えるものについて若干の分析を試みてきた。しかし、この分析自体は、大きなテーマであり、本格的な分析は、本論文で述べたような言い換え抽出結果を用いて言語学的に精密に行うことが望まれる。さらに、ここまで述べてきた分析において問題になったのは、言い換えが新聞記事ニュースとしてなら許容されるが、一般的ではないという場合が多数抽出されたことである。このような場合は、既に述べたように、言い換えよりは、要約あるいは縮約という性質を持つ。要約や縮約の正しさは、informative、indicativeの区別に見られるように、目的依存性があるため、正解の決め方が難しい。この論文では、普遍性のある言い換えを正解と考えているが、要約あるいは縮約としての評価も必要であることが明らかになってきている。しかし、そのことは大きな研究テーマであるため、今後の課題としたい。 \section{おわりに} 本論文では携帯端末向け新聞記事とWeb新聞記事の対応付けコーパスから文末表現に関する言い換え表現の抽出方法を示した。まず、記事対応になっているデータから文単位での対応付けを行った。そしてそこから言い換え元表現の抽出を形態素単位で行い、それに対して分岐数、頻度、文字列長による得点付けし、さらに言い換え表現を要約に適用した時に必要な意味が削除されることを防ぐためのフィルタリングを行うことにより言い換え表現抽出の精度向上を行った。今回作成した携帯端末向け新聞記事とWeb新聞記事の対応付けコーパスを用いることを想定すると、以下のような課題が残っている。\subsubsection*{(1)抽出された言い換え表現を用いた文縮約を試みることおよびその評価}言い換え元表現と言い換え先表現の組から機械的に言い換えを生成することができる。文字列の単純マッチングを用いて、「〜を明らかにした。」を「〜表明。」へ、「〜を決めた。」を「〜決定。」へと言い換えることができる。実際、我々はこのようなシステムを試作したが、この方法から分かるように予測された結果以上のものは得られない。したがって、抽出した言い換えを言語的に分析して一般化したルールを作成することができれば、「を$M($名詞サ変接続)する方針。$=>M$へ。」というルールで、「〜審議経過を開示する方針。」を「〜審議経過開示へ。」という適用範囲の広い言い換えが可能になると予想される。しかし、言語的分析は、人間が行うにしても、機械学習を利用するにしても、それ自体が大きなテーマであるため、今後の課題としたい。\subsubsection*{(2)名詞以外での言い換え表現の精度の向上}\subsubsection*{(3)精度向上を目的としたフィルタリング規則の追加}\subsubsection*{(4)文末以外に現れる表現の言い換え抽出の検討}通常、言い換え抽出においては、\cite{inui02}で述べられ、また本論文第\ref{sec:hajime}節でも述べたように、言い換え候補をコーパスから網羅性良く抽出することが大きな課題である。提案手法の場合は、携帯端末向け新聞記事とWeb新聞記事の対応付けコーパス双方の文末表現に限定したことによって、この問題を回避した。しかし、文末以外に現れる表現の言い換えを抽出しようとした場合は、たちどころにこの網羅性の良い言い換え候補抽出を解決しなければならない。これに関しては多くの研究成果があるが、文末言い換えに限定して機能する本論文での提案とは根本的に異なる方法論が必要となる。したがって、本論文で紹介したコーパスを用いるにしても、新たな研究テーマとして検討する必要があるため、将来的な研究課題となる。\\\acknowledgment本研究の初期の段階で尽力いただいた佐藤大君(東京電機大学大学院、現在、富士電機情報サービス株式会社勤務)に深く感謝いたします。なお、本研究の一部は、科学研究費補助金特定領域研究「情報学」、課題番号16016215の補助を受けて行われました。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brazilay\BBA\McKeown}{Brazilay\BBA\McKeown}{2001}]{braz01}Brazilay,R.\BBACOMMA\\BBA\McKeown,K.\BBOP2001\BBCP.\newblock\BBOQExtractingparaphrasesfromaparallelcorpus\BBCQ\\newblock{\BemProceedingsofACL-EACL2001},50--57.\bibitem[\protect\BCAY{Inui\BBA\Hermjakob}{Inui\BBA\Hermjakob}{2003}]{acl03}Inui,K.\BBACOMMA\\BBA\Hermjakob,U.\BEDS\\BBOP2003\BBCP.\newblock{\BemProceedingsoftheSecondInternationalWorkhoponParaphrasing}.ACL2003.\bibitem[\protect\BCAY{Inui,Fujita,Takahashi,Iida,\BBA\Iwakura}{Inuiet~al.}{2003}]{inui-acl03}Inui,K.,Fujita,A.,Takahashi,T.,Iida,R.,\BBA\Iwakura,T.\BBOP2003\BBCP.\newblock\BBOQTextSimplificationforReadingAssistance:AProjectNote\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},9--16.\bibitem[\protect\BCAY{Kanayama}{Kanayama}{2003}]{kanayama03}Kanayama,H.\BBOP2003\BBCP.\newblock\BBOQParaphrasingRulesforAutomaticEvaluationofTranslationintoJapanese\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},88--93.\bibitem[\protect\BCAY{Mani}{Mani}{2001}]{mani01}Mani,I.\BBOP2001\BBCP.\newblock\BBOQAutomaticSummarization\BBCQ\\newblock{\BemJohnBenjamins}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata01}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalmodelforparaphrasing-usingtransformationbasedonadefinedcriteria\BBCQ\\newblock{\BemProceedingsofWorkshoponAutomaticParaphrasing:TheoriesandApplications,NLPRS2001},47--54.\bibitem[\protect\BCAY{Rinaldi,Dowdall,Kaljurand,Hess,\BBA\Molla}{Rinaldiet~al.}{2003}]{Fabio03}Rinaldi,F.,Dowdall,J.,Kaljurand,K.,Hess,M.,\BBA\Molla,D.\BBOP2003\BBCP.\newblock\BBOQExploitingParaphrasesinaQuestionAnsweringSystem\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},25--32.\bibitem[\protect\BCAY{Shinyama\BBA\Sekine}{Shinyama\BBA\Sekine}{2003}]{Shinyama03}Shinyama,Y.\BBACOMMA\\BBA\Sekine,S.\BBOP2003\BBCP.\newblock\BBOQParaphraseAcquistionforInformationExtraction\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},65--71.\bibitem[\protect\BCAY{Terada\BBA\Tokunaga}{Terada\BBA\Tokunaga}{2001}]{terada01}Terada,T.\BBACOMMA\\BBA\Tokunaga,T.\BBOP2001\BBCP.\newblock\BBOQAutomaticdisabbreviationbyusingcontextinformation\BBCQ\\newblock{\BemProceedingsofWorkshoponAutomaticParaphrasing:TheoriesandApplications,NLPRS2001},21--28.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2001}]{torisawa01}Torisawa,K.\BBOP2001\BBCP.\newblock\BBOQAnearlyunsupervisedlearningmethodforautomaticparaphrasingofJapanesenounphrases\BBCQ\\newblock{\BemProceedingsofWorkshoponAutomaticParaphrasing:TheoriesandApplications,NLPRS2001},63--72.\bibitem[\protect\BCAY{Yamamoto}{Yamamoto}{2002}]{yamamoto02}Yamamoto,K.\BBOP2002\BBCP.\newblock\BBOQAcquisitionofLexicalParaphrasesfromTexts\BBCQ\\newblock{\BemProceedingsofComputerm2WorkshopofCOLING2002},22--28.\bibitem[\protect\BCAY{安藤彰男今井亨ほか}{安藤彰男\JBA今井亨ほか}{2001}]{ando01}安藤彰男\BBACOMMA\今井亨ほか\BBOP2001\BBCP.\newblock\JBOQ音声認識を利用した放送用ニュース字幕制作システム\JBCQ\\newblock\Jem{電子情報通信学会論文誌},\Bbf{84-D-II},877--887.\bibitem[\protect\BCAY{乾健太郎}{乾健太郎}{2002}]{inui02}乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言語表現を言い換える技術\JBCQ\\newblock\Jem{言語処理学会第8回年次大会チュートリアル},1--22.\bibitem[\protect\BCAY{関根聡}{関根聡}{2001}]{sekine01}関根聡\BBOP2001\BBCP.\newblock\JBOQ複数の新聞を使用した言い換え表現の自動抽出\JBCQ\\newblock\Jem{言語処理学会第7回大会ワークショップ「言い換え/パラフレーズの自動化」}.\bibitem[\protect\BCAY{佐藤大,岩越守孝,増田英孝,中川裕志}{佐藤大\Jetal}{2004}]{sato04}佐藤大,岩越守孝,増田英孝,中川裕志\BBOP2004\BBCP.\newblock\JBOQWebと携帯端末向けの新聞記事の対応コーパスからの言い換え抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},\Bbf{159},193--200.\bibitem[\protect\BCAY{松本裕治,北内啓,平野善隆,松田寛}{松本裕治\Jetal}{2002}]{chasen}松本裕治,北内啓,平野善隆,松田寛\BBOP2002\BBCP.\newblock\JBOQ形態素解析システム「茶筌」version2.2.9使用説明書\JBCQ\\newblock\Jem{奈良先端科学技術大学院大学松本研究室}.\bibitem[\protect\BCAY{大森岳史,増田英孝,中川裕志}{大森岳史\Jetal}{2003}]{oomori03}大森岳史,増田英孝,中川裕志\BBOP2003\BBCP.\newblock\JBOQWeb新聞記事の要約とその携帯端末向け記事による評価\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},\Bbf{153},1--8.\bibitem[\protect\BCAY{鍛冶伸裕,川原大輔,黒橋禎夫,佐藤理史}{鍛冶伸裕\Jetal}{2003}]{kaji03}鍛冶伸裕,川原大輔,黒橋禎夫,佐藤理史\BBOP2003\BBCP.\newblock\JBOQ格フレームに基づく用言の言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),64--81.\bibitem[\protect\BCAY{藤田篤,乾健太郎,乾裕子}{藤田篤\Jetal}{2000}]{fujita00}藤田篤,乾健太郎,乾裕子\BBOP2000\BBCP.\newblock\JBOQ名詞言い換えコーパスの作成環境\JBCQ\\newblock\Jem{電子情報通信学会思考と言語研究会予稿集},53--60.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{岩越守孝}{2003年東京電機大学工学部電気工学科卒業.2005年同大学院工学研究科情報通信工学専攻修士課程修了.現在、キヤノン株式会社に勤務.本論文は在学中の成果をまとめたものである.}\bioauthor{増田英孝}{1995年東京電機大学大学院博士後期課程修了.博士(工学).東京電機大学工学部助手,講師を経て,同助教授.Web情報検索、Webマイニングなどの研究に従事.}\bioauthor{中川裕志}{1975年東京大学工学部卒業.1980年同大学院博士課程修了.工学博士.横浜国立大学工学部講師,助教授,教授を経て,1999年より東京大学情報基盤センター教授.言語処理学会長(2004.6-現在),ACLExecutiveCommittee(2002-2004).計算言語学、Webテキストマイニング、情報検索、情報抽出などの研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N01-03
\section{はじめに} label{sec:Intro}近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.しかし,話し言葉の特徴である,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.我々は,適格文と不適格文を統一的に扱う{\bf統一モデル}\,(uniformmodel)に基づく話し言葉の解析手法を提案した\cite{伝:言処-投稿中}.そこでは,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べた.統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.我々の手法においては,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理がいずれも,最も{\bf優先度}\,(preference)の大きい依存関係解釈を求めるという形で実現される.そこで,不適格性による依存関係まで考慮した優先度の計算方法を開発することがキーとなる.本稿では,この統一モデルに基づく話し言葉の解析手法で用いるための優先度計算法について述べる.優先度の概念は,これまでにも,適格文の曖昧性を解消し最適な解釈を求める手法の中に取り入れられている.これらは以下の3つのアプローチに大別できる.\begin{description}\item[心理言語学的な知見に基づく手法]人間の構文・意味解析において観察される優先度決定の偏向を利用する.{\bf右結合原理}\cite{Kimball:Cog-2-1-15},{\bf最小結合原理}\cite{Frazier:Cog-6-291},{\bf語彙的選好}\cite{Ford:MRO-82-727}などが利用されている.\item[意味知識・世界知識に基づく手法]意味知識や世界知識を利用する.知識を人手で構築するもの\cite{Wilks:AI-6-53,Hirst:SIA-87,Hobbs:AI-63-69}と既存の辞書などを知識源とするもの\cite{Jensen:CL-13-3-251}がある.\item[コーパスに基づく(corpus-based)手法]優先度計算に必要な情報をコーパスから獲得する.{\bf統計}に基づく手法\cite{Jelinek:IBM-RC16374,Pereira:ACL92-128,Hindle:CL-19-1-103,Resnik:ARPA93}や{\bf用例}に基づく手法\cite{佐藤:人知-6-4-592,Sumita:IEICE-E75-D-4-585,Furuse:COLING92-645}がある.\end{description}本稿では,以下にあげる理由により,コーパスに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item心理言語学的な知見として得られているのは,構造的な選好など一部のものに限られ,特に,話し言葉の不適格性に関しては,ヒューリスティクスとして利用できる知見は得られていない.\item広範囲な意味知識や世界知識を人手で構築するのは困難である.また,世界知識の利用は構文・意味解析の範囲を越える.\itemこれに対し,コーパスからの優先度情報の獲得は,加工されたコーパスからであれば,容易に行なえ,かつ,情報の種類も限定されない.コーパスの加工を自ら行なう必要がある場合でも,知識自身を人手で構築するよりは負担が少ない.\end{enumerate}コーパスに基づく我々の優先度計算法では,依存関係解釈の優先度は,その解釈が学習データ中でどのくらいの頻度で生じているかに応じて与えられる.この際,学習データの希薄性(data-sparseness)の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮される.類似性を適当に定義することにより,適格な文法・意味関係の優先度だけでなく,不適格性による依存関係の優先度も,同じ方法で計算できる.以下,まず\ref{sec:Uniform}\,節では,統一モデルに基づく話し言葉の解析手法の概略を説明する.次に\ref{sec:Corpus-based}\,節で,本稿で提案するコーパスに基づく優先度計算法を説明する.\ref{sec:Evaluation}\,節では,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を検討する.最後に,\ref{sec:Conclude}\,節でまとめを述べる. \section{統一モデルに基づく話し言葉の解析} label{sec:Uniform}\subsection{話し言葉の解析}\label{sec:Uniform:Spoken}日本語の話し言葉では,言い淀み,言い直し,省略などのさまざまな不適格性が生じる.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}我々が提案した話し言葉の解析手法は,適格文と不適格文を統一的に扱う統一モデルに基づいている.不適格文を扱う手法としては,従来,{\bf二段階モデル}\,(two-stagemodel)に基づいたものが多かった\cite{Jensen:CL-9-3-147,Weischedel:CL-9-3-161,Mellish:ACL89-102}.これは,まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する,というものである.しかし,統一モデルは,以下の点において二段階モデルに優る.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文とが曖昧な場合がある\cite{佐川:IPSJ-NL-94-100-73}((\ref{eq:Sentence1})の「ほん」は「本」と同じ字面なので「本(に)翻訳(を)入れます」のような適格文としての解釈が可能).適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できないが,統一モデルでは漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間がしばしば文の途中で不適格性に気づくことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}以下では,この統一モデルに基づく話し言葉の解析手法の概略を説明する.\subsection{解析手法の概要}\label{sec:Uniform:Overview}本手法は,基本的には,係り受け解析の拡張である.入力文の依存構造を生成するために,各語(文節)の間の依存関係を調べる.例えば,(\ref{eq:Sentence2})に対する依存構造と各文節の間の文法・意味関係は(\ref{eq:Depend1})のようになる.\enumsentence{\label{eq:Sentence2}会議では翻訳も入れます.}\enumsentence{\label{eq:Depend1}[\DP{loct\&de}会議では\Q[\DP{obje\&accAct}翻訳も\Q入れます]]}ここで,\Rel{loct},\Rel{obje}は意味関係(それぞれ「場所」「対象」)を表し,\Rel{de},\Rel{accAct}は文法関係(それぞれ「デ格」「目的格・能動態」)を表す.依存構造の決定と文法・意味関係の付与は,係り文節と受け文節の間の意味的な結合の強さや文法関係の実現のしやすさ(例えば「も」は「主格」になりやすいか「目的格」になりやすいか)などを考慮して,さまざまな候補に優先度を与え,最終的に最も優先度の高い組合せを見つけることによって行なう.本手法では,通常の係り受け解析を拡張し,言い淀み,言い直しなども語と語(文節と文節)の間の依存関係ととらえる.例えば,言い直しを含む文(\ref{eq:Sentence3})の依存構造は(\ref{eq:Depend2})のようになる.\enumsentence{\label{eq:Sentence3}ほん,翻訳入れます.}\enumsentence{\label{eq:Depend2}[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}ここで,\Rel{phonRepair}は「ほん」と「翻訳」の間に音韻的な原因による言い直し(以下「音韻的言い直し」)によって依存関係が生じていることを表す.このように,不適格性を扱えるよう係り受け解析を拡張することによって,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理が同じ道具だてで実現できるだけでなく,適格文と不適格文との間の曖昧性にも対処できる.\subsection{構文・意味解析の過程}\label{sec:Uniform:Process}本手法による構文・意味解析の過程を簡単な例題を用いて説明する.図\,\ref{fig:Process}\,は(\ref{eq:Sentence3})の解析過程である.この文は,言い直しと助詞省略の2つの不適格性を含む.さらに,言い直しは適格文との間で曖昧である(「ほん」は「本」と同じ字面).\begin{figure}\begin{center}\mbox{{\bfA:}\quadほん\Q翻訳\Q入れます}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{文節解析}}\\[\medskipamount]\mbox{\makebox(0,0)[lb]{\raisebox{1.6\baselineskip}{\bfB:}}\begin{footnotesize}\Feature{\Slot{phon}&\Value{ほん}\\\Slot{syn}&\Pair{\footnotesize\Value{本},\Value{普通名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{本},\Value{書物}}}\Feature{\Slot{phon}&\Value{ほんやく}\\\Slot{syn}&\Pair{\footnotesize\Value{翻訳},\Value{サ変名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{翻訳},\Value{翻訳}}}\Feature{\Slot{phon}&\Value{いれます}\\\Slot{syn}&\Pair{\footnotesize\Value{入れる},\Value{がを動詞},\Value{基本},\Value{能動}}\\\Slot{sem}&\Pair{\footnotesize\Value{入れる},\Value{授受}}}\end{footnotesize}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存構造解析}}\\[\medskipamount]\mbox{{\bfC:}\quad[\DP{?}[\DP{?}ほん\Q翻訳]\Q入れます]\qquad{\bfOR}\qquad[\DP{?}ほん\Q[\DP{?}翻訳\Q入れます]]}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存関係解析}}\\[\medskipamount]\mbox{\raisebox{1.2\baselineskip}{\bfD:}\DependTable{\Pair{ほん,\,翻訳}}{\Rel{of\&gen}&0.0002\\\underline{\Rel{phonRepair}}&\underline{0.0053}}\DependTable{\Pair{翻訳,\,入れます}}{\underline{\Rel{obje\&accAct}}&\underline{0.0134}\\\Rel{inst\&de}&0.0031}\DependTable{\Pair{ほん,\,入れます}}{\Rel{obje\&accAct}&0.0004\\\Rel{loct\&ni}&0.0029}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{最適解選択}}\\[\smallskipamount]\mbox{{\bfE:}\quad[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}\end{center}\caption{構文・意味解析の過程}\label{fig:Process}\end{figure}解析過程は以下の4つのステップからなる.\begin{description}\item[文節解析]入力文{\bfA}を素性構造で表現された文節の列{\bfB}に変換する.各素性構造は,音韻情報(よみ),統語情報(語彙,範疇,形,態),意味情報(概念,属性)を持つ\footnote{統語範疇には,「連体詞」「副詞」「普通名詞」「固有名詞」「が動詞」「がを動詞」「が形容詞」などがある.形は,名詞文節の格や動詞文節の活用形であり,名詞文節が助詞省略を含む場合は「無」で表す.また,動詞文節以外の態は`\Value{$-$}'で表す.意味属性には,角川類語新辞典\cite{大野:角類新-81}の小分類を使用している.}.\item[依存構造解析]文節の列{\bfB}から可能な依存構造の集合{\bfC}を生成する.\item[依存関係解析]依存構造の集合{\bfC}に含まれる各依存関係に対して,依存関係解釈の候補{\bfD}を生成する.解釈の候補のおのおのには,$[0,1]$間の実数値で表される優先度を与える.\item[最適解選択]最も優先度の大きい解釈({\bfD}の下線部分)を選択し,文全体の依存構造と依存関係解釈{\bfE}を出力する.\end{description}この例では,{\bfB}の文節列に対して,{\bfC}の2つの依存構造が可能であり,その中に3つの依存関係が含まれる.それぞれの依存関係に対する解釈の候補は{\bfD}のようになり,下線を引いたものが最も優先度の大きい組合せとして選択される.この過程において,助詞省略は「目的格」に解釈され,言い直しと適格文(「本(に)入れます」)との曖昧性も解消されている. \section{コーパスに基づく優先度計算法} label{sec:Corpus-based}\subsection{本手法の概要}\label{sec:Corpus-based:Overview}係り受け解析を基本とする我々の構文・意味解析手法においては,依存関係解釈の候補のおのおのに$[0,1]$間の実数値で表される優先度が与えられる.以下では,優先度の計算法を説明する.我々の優先度計算法は,コーパスに基づく手法である.優先度は,その依存関係解釈が学習データ中でどのくらいの頻度で生じているかに応じて与える.すなわち,係り文節$\alpha$と受け文節$\beta$の間の依存関係解釈$\pi$の優先度$P(\pi,\alpha,\beta)$は,次式で与えられる(係り文節$\alpha$と受け文節$\beta$の間に依存関係解釈$\pi$が成り立つことを\Formula{$\pi$}{\alpha,\beta}で表す).\begin{equation}\label{eq:Preference1}P(\pi,\alpha,\beta)=\frac{\mbox{\Formula{$\pi$}{\alpha,\beta}の頻度}}{\sum_{p,x,y}\mbox{\Formula{$p$}{x,y}の頻度}}\end{equation}分子は依存関係解釈\Formula{$\pi$}{\alpha,\beta}の事例の頻度であり,分母は学習データ中のすべての事例の頻度の総和である.しかし,このままでは学習データの希薄性の問題を避けられないので,分子の\Formula{$\pi$}{\alpha,\beta}の頻度を計算する際に,完全に一致する事例だけでなく類似した事例の頻度も考慮する.例えば,\Formula{\Rel{obje}}{翻訳,入れる}の頻度を計算する際に,これと類似した事例\Formula{\Rel{obje}}{通訳,行なう}が学習データ中にあれば,その頻度を考慮に入れるという具合である.これを{\bf類似性に基づくスムージング}\,(similarity-basedsmoothing)とよぶ.同じ方法が言い直しなどの不適格な依存関係の解釈の優先度計算においても利用できる.例えば,音韻的言い直しのパターン「ほん」$\to$「翻訳」は別のパターン「どうじ」$\to$「同時通訳」に似ているので,前者の頻度を計算する際に,後者の頻度も考慮する.このように,さまざまな類似性を考えることによって,適格な文法・意味関係の優先度だけでなく,不適格性による依存関係の優先度も,同じ方法で計算できる.\subsection{依存関係解釈の事例}\label{sec:Corpus-based:Instance}依存関係解釈の頻度情報を獲得するために,学習データに対し人手で依存構造を付与し,そこから依存関係解釈の事例を抽出する.これらの事例は表\,\ref{tab:Instance}\,のような表の形で書ける.例えば,表の1行めは,「通訳」と「行なう」の間の依存関係を「対象」に解釈する事例が学習データ中に3例あったことを表す.\begin{table}\caption{依存関係解釈の事例}\label{tab:Instance}\centering\begin{tabular}[b]{|c|c|c|r|}\hline解釈&係り文節&受け文節&頻度\hfil\\\hline\hline\Rel{obje}&\Pair{\Value{通訳},\Value{翻訳}}&\Pair{\Value{行なう},\Value{実行}}&3\\\Rel{obje}&\Pair{\Value{論文},\Value{文章}}&\Pair{\Value{受け取る},\Value{授受}}&5\\\Rel{agen}&\Pair{\Value{学生},\Value{教育者}}&\Pair{\Value{参加},\Value{加入}}&2\\\Rel{loct}&\Pair{\Value{京都},\Value{都道府県}}&\Pair{\Value{開催},\Value{実行}}&1\\\hline\Rel{accAct}&\Pair{\Value{通訳},\Value{サ変名詞},\Value{を},\Value{$-$}}&\Pair{\Value{行なう},\Value{がを動詞},\Value{基本},\Value{能動}}&2\\\Rel{accAct}&\Pair{\Value{通訳},\Value{サ変名詞},\Value{も},\Value{$-$}}&\Pair{\Value{行なう},\Value{がを動詞},\Value{基本},\Value{能動}}&1\\\Rel{accAct}&\Pair{\Value{論文},\Value{普通名詞},\Value{無},\Value{$-$}}&\Pair{\Value{受け取る},\Value{がを動詞},\Value{基本},\Value{能動}}&2\\\Rel{datCaus}&\Pair{\Value{学生},\Value{普通名詞},\Value{に},\Value{$-$}}&\Pair{\Value{参加},\Value{がに動詞},\Value{基本},\Value{使役}}&1\\\hline\Rel{phonRepair}&\Value{どおじ}&\Value{どおじつうやく}&1\\\Rel{synRepair}&\Pair{\Value{クレジットカード},\Value{普通名詞},\Value{を},\Value{$-$}}&\Pair{\Value{クレジットカード},\Value{普通名詞},\Value{の},\Value{$-$}}&1\\\Rel{semRepair}&\Pair{\Value{通訳},\Value{翻訳}}&\Pair{\Value{翻訳},\Value{翻訳}}&2\\\hline\end{tabular}\end{table}表中の係り文節,受け文節の欄には,解釈候補と事例との類似度を計算する際に参照される情報が書かれている.これらは,(a)\,意味関係(表の第1群)では意味情報(概念,属性),(b)\,文法関係(表の第2群)では統語情報(語彙,範疇,形,態)であり,(c)\,言い直しの関係(表の第3群)では言い直しの種類(音韻的,統語的,意味的)に応じて異なる.\subsection{優先度}\label{sec:Corpus-based:Preference}係り文節$\alpha$と受け文節$\beta$の間の依存関係解釈$\pi$の優先度$P(\pi,\alpha,\beta)$は,類似性に基づくスムージングを用いると,次式のようになる.\begin{equation}\label{eq:Preference2}P(\pi,\alpha,\beta)=\frac{\sum_{x,y}w_{\pi}(S_{\pi}(x,y,\alpha,\beta))\times\mbox{\Formula{$\pi$}{x,y}の頻度}}{\sum_{p,x,y}\mbox{\Formula{$p$}{x,y}の頻度}}\end{equation}ここで,$S_{\pi}(x,y,\alpha,\beta)$は解釈候補\Formula{$\pi$}{\alpha,\beta}と事例\Formula{$\pi$}{x,y}の{\bf類似度}\,(similarity)であり,$w_{\pi}(s)$は解釈候補に対して類似度$s$を持つ事例の貢献度を決める{\bf重みづけ関数}\,(weightingfunction)である.類似度と重みづけ関数の定義はいずれも,解釈$\pi$に依存して与える.(\ref{eq:Preference2})より,依存関係解釈の優先度はその解釈が学習データ中で生じる頻度確率によって与えられ,この際,解釈の頻度はそれと似た事例の頻度を(類似度に応じて重みづけして)足し合わせることによって得られる(図\,\ref{fig:Preference}).これは,クラスに基づくスムージング(class-basedsmoothing)\cite{Resnik:ARPA93}の一般化になっている\footnote{クラスに基づくスムージングでは,(\ref{eq:Preference2})の分子は$\alpha$,$\beta$と同じクラスに属する語$x$,$y$に関する事例\Formula{$\pi$}{x,y}の頻度の和によって与えられる.我々の類似性に基づくスムージングでは,クラスへの帰属性を類似度によって連続的に表現している.}.\begin{figure}\centering\setlength{\unitlength}{1mm}\newcommand{\ArrowHeadSize}{}\begin{picture}(105,45)\put(10,40){\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{l}{\bf解釈候補}\\\hline\Rel{obje}&\Pair{\Value{翻訳},\Value{翻訳}}&\Pair{\Value{入れます},\Value{授受}}\\\hline\end{tabular}}\put(10,0){\begin{tabular}[b]{|c|c|c|c|c@{}c}\multicolumn{4}{l}{\bf事例}\\\cline{1-4}\Rel{obje}&\Pair{\Value{通訳},\Value{翻訳}}&\Pair{\Value{行なう},\Value{実行}}&3&$\to$&$w(S_1)\times3$\\\Rel{obje}&\Pair{\Value{論文},\Value{文章}}&\Pair{\Value{受け取る},\Value{授受}}&5&$\to$&$w(S_2)\times5$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&&$\vdots$\\\cline{1-4}\cline{6-6}\multicolumn{4}{l}{}&&(\ref{eq:Preference2})の分子\end{tabular}}\put(-4,30){\bf類似度}\put(8,27.5){$S_1$}\put(1,25){$S_2$}\bezier{75}(10,35)(5,27.5)(10,20)\ArrowHead(5,27.5)(10,20)\bezier{100}(10,35)(0,25)(10,15)\ArrowHead(0,25)(10,15)\end{picture}\caption{優先度の計算}\label{fig:Preference}\end{figure}\subsection{類似度}\label{sec:Corpus-based:Similarity}解釈候補\Formula{$\pi$}{\alpha,\beta}と事例\Formula{$\pi$}{x,y}の類似度$S_{\pi}(x,y,\alpha,\beta)$は,解釈$\pi$の種類に応じて以下のように定義される.\begin{description}\item[$\pi$が意味関係の場合]$x$と$\alpha$および$y$と$\beta$のそれぞれについて,意味情報に関する類似度を求めたものの相乗平均.すなわち,\begin{equation}\label{eq:Sem}S_{\pi}(x,y,\alpha,\beta)=\sqrt{\strutS_{sem}(x,\alpha)\timesS_{sem}(y,\beta)}\end{equation}ここで,$x$と$\alpha$(および$y$と$\beta$)の意味的類似度$S_{sem}$は,意味シソーラス上の距離に基づいて計算する\cite{Sumita:IEICE-E75-D-4-585}.意味シソーラスは角川類語新辞典\cite{大野:角類新-81}のものを用いている.\item[$\pi$が文法関係の場合]$x$と$\alpha$および$y$と$\beta$のそれぞれについて,統語情報に関する類似度を求めたものの相乗平均.すなわち,\begin{equation}\label{eq:Syn}S_{\pi}(x,y,\alpha,\beta)=\sqrt{\strutS_{syn}(x,\alpha)\timesS_{syn}(y,\beta)}\end{equation}ここで,$x$と$\alpha$(および$y$と$\beta$)の統語的類似度$S_{syn}$は,統語範疇の階層上の距離に基づ\\いて計算する.統語範疇の階層は意味シソーラスを模して作成した.\item[$\pi$が言い直しの関係の場合]$x$と$y$および$\alpha$と$\beta$のそれぞれの類似度を求め,その差を1から引いたもの.すなわち,\begin{equation}\label{eq:Repair}S_{\pi}(x,y,\alpha,\beta)=1-|\,S(x,y)-S(\alpha,\beta)\,|\end{equation}ここで,$x$と$y$(および$\alpha$と$\beta$)の類似度$S$は,言い直しの種類(音韻的,統語的,意味的)に応じて,$S_{phon}$,$S_{syn}$,$S_{sem}$を用いる\footnote{$S_{phon}(x,y)$は$x$と$y$の音韻情報に関する類似度であり,$x$,$y$のよみの長さをそれぞれ$L_{x}$,$L_{y}$,また,それらの共通部\\分の長さを$L_{xy}$とすると,$S_{phon}(x,y)=2\timesL_{xy}/(L_{x}+L_{y})$で与えられる.}.\end{description}解釈$\pi$が意味関係もしくは文法関係の場合には,候補と事例に関して,係り文節同士,受け文節同士のそれぞれについて類似度を求め,その相乗平均をとる\footnote{用例に基づく手法では,相乗平均の代わりに,相加平均や加重和を用いることが多い.本手法では,(用例に基づく手法のように)最も似ている事例の類似度そのものを優先度とするのではなく,すべての事例に関して類似度で重みづけた頻度の和をとっているので,類似度そのものがあまり大きくならないように,相乗平均を採用している.}.しかし,$\pi$が言い直しの関係の場合には同じ方法は使えない.例えば,音韻的言い直しのパターン「ほん」$\to$「翻訳」と別のパターン「どうじ」$\to$「同時通訳」は,直観的に似ていると感じるが,係り文節同士(「ほん」と「どうじ」)は似ていない.この場合,係り文節同士,受け文節同士の類似性を独立に調べるのは適当でない.むしろ,言い直しパターン全体としての類似性を調べる必要がある.そのために,まず,言い直しパターンを数値によってコード化する.言い直しでは通常,係り文節(修復対象)と受け文節(訂正部分)が何らかの点において類似している.ここで,「何らかの点」とは言い直しの種類に依存して決まる(例えば「音韻的言い直し」では音韻情報に関して類似している).したがって,修復対象と訂正部分の類似度によって,その言い直しのパターンをコード化することができる.修復対象と訂正部分の類似性が大きい(あるいは小さい)言い直し同士は互いに似ていると考えることにすると,2つの言い直しパターンのコードの差によってそれらの間の類似度を定義することができる\footnote{(\ref{eq:Repair})では,言い直しパターンのコードの差を類似度に反映させる際に,非常に単純な関数を用いたが,この点は検討の余地があろう.}.例えば,上記の2つの音韻的言い直しのパターンでは,$S_{phon}(ほん,ほんやく)=2/3\(=2\times2/(2+4))$および$S_{phon}(どおじ,どおじつうやく)=3/5\(=2\times3/(3+7))$より,両者の類似度は$0.933\(=1-|\,2/3-3/5\,|)$となる.\subsection{重みづけ関数}\label{sec:Corpus-based:Weight}解釈候補に対して類似度$s$を持つ事例の貢献度を決める重みづけ関数$w_{\pi}(s)$は以下の3条件を満たすべきである.(i)\,貢献度は0以上1以下であり($w_{\pi}$の値域は$[0,1]$),(ii)\,類似度が1の事例の貢献度は最大値1をとり($w_{\pi}(1)=1$),(iii)\,類似度が大きい事例ほど貢献度も大きい($w_{\pi}$は\\単調増加関数).おのおのの解釈$\pi$ごとに,この3条件を満たす重みづけ関数$w_{\pi}(s)$を,次のような単純な多項式形式で与える\footnote{重みづけ関数のよりよい定義の仕方には検討の余地があろう.}.\begin{equation}\label{eq:Weight}w_{\pi}(s)=\sum_{k=0}^{N}a_{\pi,k}\,s^{k}\end{equation}ここで,$N$はある正の定数であり\footnote{実験システムでは$N=3$を用いている.},係数$a_{\pi,k}$は次式を満たす.\begin{equation}\label{eq:Coefficient}a_{\pi,k}\ge0\quadかつ\quad\sum_{k=0}^{N}a_{\pi,k}=1\end{equation}係数$a_{\pi,k}$は以下のようにして決める.類似性に基づくスムージングは,別の見方をすると,学\hspace{0.1mm}習データによって部\hspace{0.1mm}分\hspace{0.1mm}的に与えられた事\hspace{0.1mm}例の分\hspace{0.1mm}布から真の分\hspace{0.1mm}布を推\hspace{0.1mm}定しているとみることが\\できる.\hspace{-0.3mm}いま,\hspace{-0.3mm}事例\Formula{$\pi$}{\alpha,\beta}の真の頻度を$\hat{f}(\pi,\alpha,\beta)$,\hspace{-0.3mm}推定された頻度を$\tilde{f}(\pi,\alpha,\beta)$とすると,\hspace{-0.3mm}類\\似性に基づくスムージングによる推定では,$\tilde{f}(\pi,\alpha,\beta)$は(\ref{eq:Preference2})の分子で与えられる.したがって,推定値の二乗誤差$|\,\tilde{f}(\pi,\alpha,\beta)-\hat{f}(\pi,\alpha,\beta)\,|^2$のすべての事例\Formula{$\pi$}{\alpha,\beta}にわたる和を最小にするよ\\うに,重みづけ関数の係数を決めればよい.これを行なうためには,すべての事例の真の頻度がわかっている必要がある.ここでは,これを近似的に行なうために,学習データ中の各事例の頻度そのものが真の頻度を与えていると考え,その代わりに,各事例の推定頻度は学習データ中でその事例を除いた残りの部分から類似性に基づくスムージングによって与えられると考える(ジャックナイフ式の推定).簡単な計算により,この二乗誤差最小化の問題は二次計画問題に帰着できることがわかり,したがって解析的に解ける.\subsection{文法関係解釈の優先度}\label{sec:Corpus-based:Syntactic}最後に,文法関係の解釈の優先度について注意を述べる.(\ref{eq:Depend1}),(\ref{eq:Depend2})に見られるように,適格な依存関係は意味関係と文法関係の両面から解釈される.一般に,両者の解釈は独立ではない.すなわち,どの意味関係解釈が選択されたかに依存して,可能な文法関係の解釈の範囲が異なる.したがって,文法関係の優先度は{\bf条件つき}\,(conditional)の形で与えなければならない.係り文節$\alpha$と受け文節$\beta$の間の依存関係を意味関係$\pi$と文法関係$\sigma$に解釈する際の優先度は,確率論にしたがうと,次式のようになる.\begin{equation}\label{eq:Well-formed}P(\pi\&\sigma,\alpha,\beta)=P(\pi,\alpha,\beta)\timesP(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)\end{equation}ここで,文法関係解釈の優先度$P(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)$は条件つきの形で与えられており,条件は意味関係解釈$\pi$と係り文節$\alpha^*$,受け文節$\beta^*$によって課される.ただし,意味関係解釈は統語情報のうち形と態は制限しない(意味関係が「対象」であっても係り文節の形は「を」「も」「無」のいずれでもあり得る)ので,$\alpha^*$,$\beta^*$ではこれらの情報が「関知せず(don'tcare)」になっている.類似性に基づくスムージングを用いた条件つき優先度は,次式で与えられる.\begin{equation}\label{eq:Conditional1}\begin{array}[t]{@{}l@{}}P(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)=\displaystyle\frac{\sum_{x,y}w_{\sigma}(S_{\sigma}(x,y,\alpha,\beta))\times\mbox{\Formula{$\sigma$}{x,y}の頻度}}{\sum_{s}\mbox{\Formula{$s$}{\alpha^*,\beta^*}の頻度}}\end{array}\end{equation}ただし,分子の\Formula{$\sigma$}{x,y}と分母の\Formula{$s$}{\alpha^*,\beta^*}はいずれも意味関係解釈$\pi$と共起するものだけを対象とする.しかし,(\ref{eq:Conditional1})では,今度は,分母に関して学習データの希薄性が問題になる.そこで,分母に対しても類似性に基づくスムージングを用いる.その結果,優先度は次式のようになる.\begin{equation}\label{eq:Conditional2}\begin{array}[t]{@{}l@{}}P(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)=\displaystyle\frac{\sum_{x,y}w_{\sigma}(S_{\sigma}(x,y,\alpha,\beta))\times\mbox{\Formula{$\sigma$}{x,y}の頻度}}{\sum_{s,x,y}w_{s}(S_{s}(x,y,\alpha^*,\beta^*))\times\mbox{\Formula{$s$}{x,y}の頻度}}\end{array}\end{equation}(\ref{eq:Conditional2})がどのように働くかを簡単な例で説明する.助詞省略を含む依存関係[\DP{obje\&accAct}翻訳入れます]において,文法関係解釈\Rel{accAct}の優先度を計算することを考える(図\,\ref{fig:Conditional}).分子は,解釈候補\Formula{\Rel{accAct}}{翻訳,入れます}と似た事例の頻度の加重和によって与えられる.ここで,統\\語情報の類似度は形が一致するときのみ非ゼロの値をとる(図\,\ref{fig:Conditional}\,で$S_1$はゼロ,\hspace{-0.5mm}$S_2$は非ゼロ)よう\\に定義されており,よって,係り文節の形が「無」のもの(つまり助詞省略を含むもの)だけが分子の計算に貢献する.一方,分母は,係り文節と受け文節がそれぞれ「サ変名詞」「がを動詞」に類似したすべての事例の頻度の加重和である.したがって,この文法関係解釈の優先度は,概言すると,「係り文節と受け文節がそれぞれ「サ変名詞」「がを動詞」に似ている事例において,目的格の助詞が省略される確率」によって与えられる.\begin{figure}\centering\small\setlength{\unitlength}{1mm}\newcommand{\ArrowHeadSize}{}\begin{picture}(140,70)\put(10,65){\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{l}{\bf解釈候補}\\\hline\Rel{accAct}&\Pair{\small\Value{翻訳},\Value{サ変名詞},\Value{無},\Value{$-$}}&\Pair{\small\Value{入れます},\Value{がを動詞},\Value{基本},\Value{能動}}\\\hline\end{tabular}}\put(85,55){\makebox[0pt][r]{\begin{tabular}[t]{|c|c|}\multicolumn{1}{l}{\bf$係り文節^*$}&\multicolumn{1}{l}{\bf$受け文節^*$}\\\hline\Pair{\small\Value{翻訳},\Value{サ変名詞},\Value{*},\Value{*}}&\Pair{\small\Value{入れます},\Value{がを動詞},\Value{*},\Value{*}}\\\hline\end{tabular}}}\put(10,0){\begin{tabular}[b]{|c|c|c|@{\hspace{3em}}c|c@{}c@{}c}\multicolumn{4}{l}{\bf事例}\\\cline{1-4}\Rel{accAct}&\SS{\small$\langle$\Value{通訳},\Value{サ変名詞},\\\hfill\Value{を},\Value{$-$}$\rangle$}&\SS{\small$\langle$\Value{行なう},\Value{がを動詞},\\\hfill\Value{基本},\Value{能動}$\rangle$}&2&$\to$&$w(S_1)\times2$&$w(S^{\prime}_1)\times2$\\\Rel{accAct}&\SS{\small$\langle$\Value{論文},\Value{普通名詞},\\\hfill\Value{無},\Value{$-$}$\rangle$}&\SS{\small$\langle$\Value{受け取る},\Value{がを動詞},\\\hfill\Value{基本},\Value{能動}$\rangle$}&2&$\to$&$w(S_2)\times2$&$w(S^{\prime}_2)\times2$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&&$\vdots$&$\vdots$\\\Rel{datCaus}&\SS{\small$\langle$\Value{学生},\Value{普通名詞},\\\hfill\Value{に},\Value{$-$}$\rangle$}&\SS{\small$\langle$\Value{参加},\Value{がに動詞},\\\hfill\Value{基本},\Value{使役}$\rangle$}&1&$\to$&&$w(S^{\prime}_3)\times1$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&&&$\vdots$\\\cline{1-4}\cline{6-7}\multicolumn{4}{l}{}&&(\ref{eq:Conditional2})の分子&(\ref{eq:Conditional2})の分母\end{tabular}}\put(-3,52){\bf類似度}\put(8,44){$S_1$}\put(1,40){$S_2$}\put(91,44){\bf類似度}\put(83,40){$S^{\prime}_1$}\put(86,31){$S^{\prime}_2$}\put(86,20){$S^{\prime}_3$}\bezier{125}(10,62)(5,48)(10,34)\ArrowHead(5,48)(10,34)\bezier{150}(10,62)(0,44)(10,26)\ArrowHead(0,44)(10,26)\bezier{75}(85,52)(90,42)(85,32)\ArrowHead(90,42)(85,32)\bezier{100}(85,52)(95,38)(85,24)\ArrowHead(95,38)(85,24)\bezier{150}(85,52)(100,32)(85,12)\ArrowHead(100,32)(85,12)\end{picture}\caption{文法関係解釈の優先度の計算}\label{fig:Conditional}\end{figure} \section{評価} label{sec:Evaluation}\subsection{実験}\label{sec:Evaluation:Experiment}統一モデルに基づく話し言葉の構文・意味解析システムに本稿で提案した優先度計算法を実装し,その性能を評価した.学習・試験データにはATR対話データベース(ADD)\,\cite{江原:ATR-TR-I-0186}の10対話(662文,2913依存関係,平均文長5.4文節,平均文字数26.4文字)を用いた.実験は次の2つの場合を調べた.\begin{description}\item[クローズ試験]10対話すべてを学習データとし,そのうちの1対話を試験データとする.試験データを変えてこの試行を10回繰り返し,平均をとる.\item[オープン試験]1対話を試験データとし,残りの9対話を学習データとする.試験データを変えてこの試行を10回繰り返し,平均をとる(交差検定).\end{description}依存関係と文全体の解析の正解率を表\,\ref{tab:Accuracy1}\,に示す(あらかじめ人手で付与したものと完全に一致したときのみ正解).オープン試験での構造解析の正解率は依存関係ごとで78\%,文全体で67\%であり,関係解釈の正解率は依存関係ごとで66\%,文全体で49\%である.日本語において,依存関係解釈(深層格解釈)の性能を実例に対する実験で評価した研究はほとんど見られず,ましてや,話し言葉を対象としたものは皆無である.したがって,本実験結果を他の研究のものと比較するのは難しいが,\citeA{黒橋:言処-1-1-35}が技術文書を対象として行なった係り受け解析実験の比較的短い文(平均文字数30〜50文字)に対する文全体の構造正解率が78\%であることを考えると,決してよい成績とはいえない\footnote{ただし,\citeA{黒橋:言処-1-1-35}では,出力結果を人間が見て正否を判断しており,本研究の正否判断より甘い.}.しかし,本研究が対象としている文には,さまざまな不適格性が含まれており,また,構造解析が最終的な目的ではなく依存関係解釈が目的であるから,構造正解率の10\%あまりの劣りはそれほど大きいとは思わない.いずれにせよ,日本語の話し言葉を対象とした依存関係解釈の実験結果を初めて提供できたことは非常に意義深い.次に,依存関係ごとの関係解釈の再現率(recall)と適合率(precision)を表\,\ref{tab:Recall1}\,に示す.「適格な依存関係(等位)」は等位構造をなす文法・意味関係解釈の総計であり,「適格な依存関係(従属)」は等位以外の文法・意味関係解釈の総計である.言い直しに注目すると,統語的言い直し(\Rel{synRepair})では再現率90\%,適合率47\%であり,意味的言い直し(\Rel{semRepair})では再現率88\%,適合率32\%である(オープン試験)\footnote{音韻的言い直しでは,修復対象と適正な語との曖昧性が生じなかったために,再現率,適合率ともに100\%であった.}.再現率は十分に高いが,適合率はかなり低い.これは,適格な依存関係がしばしば言い直しとして誤って解釈されたことを意味する.実際,適格な依存関係(等位)の再現率の低さは,言い直しが等位構造と間違われやすいことを示している.これは,適格文と不適格文を統一的に扱う統一モデルの欠点のようにみえる.この点について議論する前に,まず,誤りの実例を見る.\begin{table}\caption{依存関係と文全体の解析の正解率}\label{tab:Accuracy1}\centering\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{2}{|c|}{依存関係}&\multicolumn{2}{c|}{文全体}\\\cline{2-5}&構造\hfil\null&解釈\hfil\null&構造\hfil\null&解釈\hfil\null\\\hline\hlineクローズ試験&89.3\%&86.3\%&76.5\%&68.1\%\\\hlineオープン試験&78.4\%&66.1\%&66.8\%&49.0\%\\\hline\end{tabular}\end{table}\begin{table}\caption{依存関係解釈の再現率と適合率(一部)}\label{tab:Recall1}\centering\begin{tabular}{|l||c|r|r|}\hline&解釈&再現率\hfil\null&適合率\hfil\null\\\hline\hline&適格な依存関係(従属)&84.7\%&88.2\%\\\cline{2-4}クローズ試験&適格な依存関係(等位)&57.4\%&83.0\%\\\cline{2-4}&\Rel{synRepair}&80.0\%&38.1\%\\\cline{2-4}&\Rel{semRepair}&94.3\%&33.0\%\\\hline\hline&適格な依存関係(従属)&63.2\%&65.9\%\\\cline{2-4}オープン試験&適格な依存関係(等位)&59.3\%&85.4\%\\\cline{2-4}&\Rel{synRepair}&90.0\%&47.4\%\\\cline{2-4}&\Rel{semRepair}&88.2\%&31.6\%\\\hline\end{tabular}\end{table}\subsection{誤りの例}\label{sec:Evaluation:Error}解析誤りは,(i)\,構造解析の誤りと(ii)\,関係解釈の誤りの2つのタイプに分類できる.\subsubsection*{構造解析の誤り}言い直しの解析において,訂正部分に係るべき文節が誤って修復対象に係るように解析されると,修復対象の範囲の同定に失敗する.例えば,(\ref{eq:Error1})では,「今回の会議の」が「テーマ」ではなく「主旨」に係るように誤って解析され,その結果,修復対象の範囲に含まれてしまう.\enumsentence{\label{eq:Error1}今回の会議の主旨といいますか,テーマといったようなもの\\($\times$[今回の会議の\Q主旨]\quad$\bigcirc$[今回の会議の\Qテーマ])}この種の誤りは,心理言語学などで研究されてきた構造的な選好\cite{Kimball:Cog-2-1-15,Hobbs:COLING90-162}を利用すれば,なくすことができると思われる.\subsubsection*{関係解釈の誤り}表\,\ref{tab:Recall1}\,が示しているように,言い直しは等位構造と間違われやすい.例えば,(\ref{eq:Error2})では,「オーバーヘッドプロジェクタ」と「スライド」の間の依存関係が,順接関係(\Rel{conj\&to})ではなく意味的言い直し(\Rel{semRepair})として誤って解釈される.\enumsentence{\label{eq:Error2}オーバーヘッドプロジェクタと二インチ×二インチのスライドと\\($\times$\Rel{semRepair}\quad$\bigcirc$\Rel{conj\&to})}この種の誤りは一般に,適格な依存関係解釈同士の間でも生じる(例えば\Rel{obje}と\Rel{agen}を間違う)が,上記のような言い直しが関与する誤りはより深刻である.なぜなら,これは統一モデルの妥当性に直接関係するからである.すなわち,通常の適格文の解析が失敗した時だけ言い直しの解析を起動する二段階モデルであれば,この種の誤りは生じない.そこで,次に,我々の優先度計算法を二段階モデルに組み込んで,その性能を統一モデルの場合と比較する.\subsection{二段階モデルとの比較}\label{sec:Evaluation:Two-stage}言い直しの解析の適合率の低さが統一モデルに起因するものかどうか調べるために,我々の優先度計算法を二段階モデルに組み込んで比較した.すなわち,言い直しに対する解釈規則を除いた規則群で第一段階の解析を行ない,それが失敗した場合に,言い直しに対する解釈規則を加えて再解析を行なう.依存関係解釈の再現率と適合率を表\,\ref{tab:Recall2}\,に示す.適合率は,統語的言い直しでは47\%から75\%と大きく改善されたが,意味的言い直しでは32\%から33\%に改善されたに過ぎなかった.逆に,再現率はそれぞれ,90\%,88\%から30\%,12\%と大きく低下した(オープン試験).これは,統一モデルとは逆に,二段階モデルでは言い直しの多くが適格文として誤って解析されたことを意味する.実際,適格な依存関係(従属,等位とも)の解釈の適合率が二段階モデルでは低下している.これは,\citeA{佐川:IPSJ-NL-94-100-73}が観察した不適格文と適格文との曖昧性が二段階モデルでは大きな問題となることを示している.これに対し,統一モデルでは,音響的・韻律的情報を用いることによって,誤って言い直しと判断される例を除去できる可能性がある\cite{O'Shaughnessy:ICSLP92-931,Nakatani:ACL93-46}.最後に,二段階モデルにおける依存関係と文全体の解析の解釈正解率(表\,\ref{tab:Accuracy2})は,オープン試験でそれぞれ65.5\%,48\%であり,いずれも統一モデルのものを下回る.結論として,二段階モデルによって言い直しの解析の精度が改善されることはなく(適合率は一部よくなるが再現率が悪くなる),構文・意味解析の総合性能においても統一モデルが二段階モデルに優る. \section{おわりに} label{sec:Conclude}本稿では,我々が提案した統一モデルに基づく話し言葉の解析手法で用いるための優先度計算法について述べた.本手法は,コーパスに基づく手法であり,解釈の優先度はその解釈が学習データ中でどのくらいの頻度で生じているかに応じて与えられる.この際,学習データの希薄性の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮される.本稿では,まず,統一モデルに基づく話し言葉の解析手法の概略を説明し,次に,本手法の詳細を説明した後,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を示した.その結果,オープン試験で,約半数の文に完全に正しい依存構造が与えられることが示された.また,言い直しの解析の精度は若干悪いが,これは二段階モデルによっては改善できず,結論として,構文・意味解析の総合性能においては統一モデルが二段階モデルに優ることが示された.今後の課題としては,構造的な選好の利用ならびに音響的・韻律的情報を用いた不適格性の解析の高精度化があげられる.\begin{table}[tbp]\caption{依存関係解釈の再現率と適合率(一部)(二段階モデル)}\label{tab:Recall2}\centering\begin{tabular}{|l||c|r|r|}\hline&解釈&再現率\hfil\null&適合率\hfil\null\\\hline\hline&適格な依存関係(従属)&86.7\%&86.3\%\\\cline{2-4}クローズ試験&適格な依存関係(等位)&79.4\%&53.5\%\\\cline{2-4}&\Rel{synRepair}&40.0\%&80.0\%\\\cline{2-4}&\Rel{semRepair}&11.4\%&40.0\%\\\hline\hline&適格な依存関係(従属)&64.9\%&64.8\%\\\cline{2-4}オープン試験&適格な依存関係(等位)&81.4\%&50.5\%\\\cline{2-4}&\Rel{synRepair}&30.0\%&75.0\%\\\cline{2-4}&\Rel{semRepair}&11.8\%&33.3\%\\\hline\end{tabular}\end{table}\begin{table}[tbp]\caption{依存関係と文全体の解析の正解率(二段階モデル)}\label{tab:Accuracy2}\centering\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{2}{|c|}{依存関係}&\multicolumn{2}{c|}{文全体}\\\cline{2-5}&構造\hfil\null&解釈\hfil\null&構造\hfil\null&解釈\hfil\null\\\hline\hlineクローズ試験&84.9\%&85.9\%&74.5\%&66.8\%\\\hlineオープン試験&74.7\%&65.5\%&66.4\%&48.0\%\\\hline\end{tabular}\end{table}\bigskip\acknowledgment依存関係解釈の事例の作成に協力していただいた神戸大学大学院文化学研究科の高木一広,金城由美子の両氏に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{伝康晴}{1988年京都大学工学部電気工学第二学科卒業.1993年同大学大学院博士後期課程研究指導認定退学.京都大学博士(工学).1991年より2年間ATR自動翻訳電話研究所滞在研究員.1993年国際電気通信基礎技術研究所入社,ATR音声翻訳通信研究所研究員.1996年10月より奈良先端科学技術大学院大学情報科学研究科助教授,現在に至る.計算言語学,認知科学の研究に従事.日本認知科学会,日本ソフトウェア科学会,人工知能学会,情報処理学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N04-09
\section{はじめに} %%%%%%%%%%%%%%%%%%%%%%%近年,雑談対話システムの需要は,研究および商業の両分野で高まっている\cite{onishi2014casual,adiwardana2020towards,shuster2022blenderbot}.雑談対話システムはその場限りの話し相手になるだけでなく,ユーザに合わせてパーソナライズしていくことで長期的なパートナーとしての役割も期待されている.さらに,長期的に利用される雑談対話システムは,体調管理\cite{bickmore2005establishing}や認知症検出\cite{luz2018method},カウンセリング\cite{chawla2023social}など継続的な利用が必要なシステムやサービスにも活用できる可能性が高い.ユーザに長く利用される雑談対話システムを構築するためには,ユーザとシステムの良好な関係を築くことが重要である\cite{bickmore2005establishing,richards2014forgetmenot}.人間同士の対話では,対話相手との過去の対話,特に相手から開示された嗜好や経験などの情報を記憶し,対話に活用することが良好かつ親密な関係構築に有効である\cite{hall2019how}.このことから,ユーザとシステムの対話では,ユーザの発話に含まれるユーザ自身に関する情報(\textbf{ユーザ情報}と呼ぶ)をシステムが記憶し,対話に活用する手法がいくつか提案されている.\citeA{tsunomori2019chat}は,過去の対話から得られたユーザ情報を記憶し対話に活用する雑談対話システムを構築した.システム発話にユーザ情報を組み込むことで,ユーザの雑談対話システムへの親しみやすさが向上することを長期的な実験において確認した.しかしながら,この手法では固定的なテンプレートにユーザ情報を埋め込むことでシステム発話を生成しているため,文脈に対して不適切な発話がしばしば生じていた.\citeA{xu2022long}は,より自然な応答を生成するために,対話文脈とユーザ情報を入力とするニューラルベースの発話生成モデルを提案した.この手法では,対話文脈のトピックがユーザ情報と近い(類似している)場合において,ユーザ情報を発話に取り入れる.しかしながら,実世界で利用する上では現在のトピックに近いユーザ情報が常に利用可能であるとは限らないため,システムがユーザ情報を利用できる機会が制限されてしまうという問題がある.我々は,現在の対話文脈との近さに関係なく任意のユーザ情報を自然に対話に活用することで,ユーザと良好な関係を構築するパーソナライズ可能な雑談対話システムの実現を目指す.図\ref{fig:dialogue_sample}は,我々が目指す雑談対話システムの対話例である.システムはユーザとの過去の対話から抽出した任意のユーザ情報を参照し,ユーザ情報とは異なるトピックの対話文脈において自然に発話に取り込んでいる.これを実現するためには,対話文脈との近さが多様なユーザ情報を踏まえた発話からなるコーパスが必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-4ia8f1.pdf}\end{center}\caption{任意のユーザ情報と対話文脈を踏まえたシステム発話の例.}\label{fig:dialogue_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,パーソナライズ可能な雑談対話システムの実現に向けて,任意のユーザ情報と対話文脈を踏まえた発話からなるSUIコーパス(\textbf{S}ystemutterancebasedon\textbf{U}ser\textbf{I}nformationcorpus)を構築する.SUIコーパスは,$\langle$ユーザ情報,対話文脈,ユーザ情報と対話文脈を踏まえたシステム発話(\textbf{拡張システム発話}と呼ぶ)$\rangle$の三つ組からなる.SUIコーパスを用いて事前学習済み発話生成モデルをFine-tuningすることでベースラインモデルを構築し,任意のユーザ情報と対話文脈を踏まえたシステム発話を生成できるかどうかを評価する.さらに,SUIコーパスを使用して汎用的な大規模言語モデル(LLM)にIn-ContextLearning(文脈内学習;ICL)を行い,ICLにおけるSUIコーパスの有用性を評価する.最後に,発話生成ベースラインモデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブな対話における任意のユーザ情報と対話文脈を踏まえた発話の有用性を評価する.本研究の主な貢献を以下に列挙する.\begin{itemize}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item現在の対話文脈に関係なく,任意のユーザ情報を踏まえたシステム発話からなるSUIコーパスを構築した.本コーパスはGitHub上で公開している\footnote{\Turl{https://github.com/nu-dialogue/sui-corpus}}.\itemSUIコーパスを用いて(a)事前学習済み発話生成モデルに対するFine-tuning,(b)LLMに対するICLを行った.主観評価の結果,SUIコーパスを用いることで,モデルが現在のトピックに関係なく文脈への適切性を保持したまま任意のユーザ情報をシステム発話に取り込むことができることを確認した.\item発話生成ベースラインモデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブな対話における任意のユーザ情報と対話文脈を踏まえた発話の有用性を実験により確認した.\end{itemize}本稿の構成は以下の通りである.\ref{sec:related_work}章では関連研究を紹介する.\ref{sec:sui_corpus}章では,SUIコーパスの構築方法について述べたのち,品質評価や分析結果をもとにコーパスの特徴について述べる.\ref{sec:utterance_generation}章では,SUIコーパスを用いた発話生成ベースラインモデルの構築および評価を行う.\ref{sec:apply_llm}章では,SUIコーパスを用いたICLによるLLMの学習および評価を行う.\ref{sec:dialogue_system}章では,発話生成ベースラインモデルを用いた雑談対話システムの構築および評価を行う.最後に,本研究のまとめと今後の課題を\ref{sec:conclusion}章にて述べる.%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related_work}%%%%%%%%%%%%%%%%%%%%%%%雑談対話システムにおいて,対話から抽出したユーザ情報をシステムの発話に利用するテンプレートベースの手法が提案されている\cite{weizenbaum1966eliza,wallace2009anatomy}.\citeA{sugo2014a}は,$\langle$ユーザ名,トピック,述語$\rangle$の形式で抽出したユーザ情報をシステム発話に利用することでシステムがユーザを記憶していることをユーザに示し,ユーザ満足度が向上することを確認した.\citeA{tsunomori2019chat}は,\citeA{hirano2015user}が提案した$\langle$述語項構造,焦点,人物属性,トピック$\rangle$の形式でユーザ情報を記憶し,ユーザ情報をシステム発話に利用する雑談対話システムを構築した.長期的な実験において,システムの使用日数が経過するにつれてユーザのシステムへの親しみやすさが向上することを確認した.これらの研究では,抽出したユーザ情報の一部を固定的な発話テンプレートに埋め込むことでシステム発話を生成している.しかしながら,固定的な発話テンプレートは対話文脈を考慮していないため,文脈に対して不自然なシステム発話がしばしば生じていた.近年では,ユーザ情報を利用したニューラルベースの発話生成モデルが提案されている.これらの手法では,対話文脈を考慮することで,より自然な発話を生成することができる.\citeA{xu2022beyond}は,対話文脈から作成したユーザ情報の要約を発話生成に利用するモデルを構築した.しかしながら,この研究では任意のユーザ情報をシステム発話に組み込むことは行っていない.\citeA{xu2022long}は,現在の対話文脈のトピックに近いユーザ情報をユーザ情報が蓄積されたデータベースから選択し,対話文脈とユーザ情報を入力としてシステム発話を生成するモデルを構築した.現在の対話文脈のトピックに類似しているユーザ情報のみを発話生成に利用することは合理的である.しかしながら,実世界で利用する上ではそのようなユーザ情報が常に利用可能であるとは限らないため,システムがユーザ情報を利用する機会が著しく制限されると考えられる.また,\citeA{xu2022long}はユーザシミュレータを用いた評価を行っているため,構築した発話生成モデルが実際のユーザとの対話で有効に機能するかどうかも明確ではない.本研究では現在のトピックに関係なく,任意のユーザ情報を利用した発話生成に焦点を当てる.さらに,構築した発話生成モデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブ対話評価によりその有効性を検証する.その他,ユーザ情報を発話に利用する手法として,In-ContextLearning(文脈内学習;ICL)を実施した汎用的な大規模言語モデル(LLM)による発話生成が考えられる.ICLとは,プロンプト中に与えられた少数の\red{S}hotなどから,LLMがパラメータを更新することなくタスクを学習する手法である\cite{dong2022survey}.ICLでは,プロンプトにおいて対象となるタスクの詳細な説明や入出力例を与えることで,LLMが高品質で適切な応答を生成するように誘導する.ICLを行うことで,システムのペルソナ情報の利用\cite{kasahara2022building,lee2022personachatgen}や外部情報の利用\cite{liu2022multi},キャラクタの再現\cite{han2022meet}などを目的とした対話において,LLMが与えられた情報を考慮しつつ自然な発話を生成することが確認されている.このことから,ICLによりSUIコーパスをLLMに適用することで,LLMは任意のユーザ情報を取り込みながらより自然な発話を生成できると考えられる.本研究では,事前学習済みLLMにSUIコーパスを用いてICLを行い,LLMが任意のユーザ情報を取り込んだ自然な発話生成ができるかどうかを主観評価により検証する.%%%%%%%%%%%%%%%%%%%%%%% \section{SUIコーパス} \label{sec:sui_corpus}%%%%%%%%%%%%%%%%%%%%%%%対話文脈への自然性を保持しつつ任意のユーザ情報を取り込んだ発話生成を実現するために,対話文脈とユーザ情報を踏まえた拡張システム発話からなるSUIコーパスを構築した.拡張システム発話を収集するためには,まずユーザ情報と対話文脈を用意する必要がある.本研究では,データ作成コストを低減するため,既存の対話コーパスを拡張することでコーパスを構築した.使用する既存の対話コーパスは,トピックが限定されず,ユーザ情報が表出した対話で構成されている必要がある.本研究ではそれらの条件を満たす既存の対話コーパスとして,大阪大学マルチモーダル対話コーパスHazumi\cite{Komatani2019multimodal}を用いた.Hazumiからユーザ情報と対話文脈を抽出し,それらを踏まえた拡張システム発話をクラウドソーシングで収集した.%%%%%%%%%%%\subsection{大阪大学マルチモーダル対話コーパスHazumi}%%%%%%%%%%%Hazumiは,Wizard-of-Oz(WoZ)方式で動作するシステムとユーザとの音声対話からなる日本語のマルチモーダルコーパスである.ユーザとシステムがいくつかのトピックについて雑談する様子が,1名あたり15分程度の対話として収録されている.WoZ方式では,人間(Wizard)がシステムのふりをしてユーザと対話する.Hazumiでは,Wizardは別室から専用インターフェースを通じてシステムの応答を選択するが,ユーザの興味に応じてトピックを適宜変更する.なお,各対話においてWizardは同じトピックを繰り返さない.このことから,Hazumiは多様なトピックを扱い,ユーザの興味に関連したトピックについて話す対話で構成されているため,ユーザ情報が多く含まれていると考えられる.よって,Hazumiは本研究に好適だと考え,既存の対話コーパスとして用いた.本研究では,バージョンHazumi1911\footnote{\Turl{https://github.com/ouktlab/Hazumi1911/}}の音声書き起こしを使用した.Hazumi1911は,20代~70代の男女30名のユーザによる30対話(合計2,859ターン)から構成されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-4ia8f2.pdf}\end{center}\caption{SUIコーパスの構築フロー.}\label{fig:corpus_overflow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{構築方法}%%%%%%%%%%%図\ref{fig:corpus_overflow}に,SUIコーパスの構築フローを示す.まず,Hazumi1911の各対話をトピックごとに複数のセグメント(\textbf{トピックセグメント}と呼ぶ)に分割し,トピックセグメントから2つの対話を抽出することで\textbf{対話1}と\textbf{対話2}のペア(\textbf{対話1--対話2ペア}と呼ぶ)を作成した.つまり,対話1--対話2ペアは,同一ユーザが異なるトピックについて話している対話のペアである.次に,クラウドソーシングで以下の2つのタスクを実施することにより,対話1--対話2ペアをもとに拡張システム発話を収集した.\begin{enumerate}\setlength{\leftskip}{1.3cm}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item[タスク(1)]対話1からユーザ情報を抽出する.\item[タスク(2)]抽出したユーザ情報を踏まえて,対話2の後に続く拡張システム発話を作成する.\end{enumerate}以下では,対話1--対話2ペアの作成方法と,拡張システム発話収集の2つのタスクの詳細について述べる.%%%%%%%%%%%\subsubsection{対話1--対話2ペアの作成}%%%%%%%%%%%Hazumi1911の各対話をトピックごとに分割し,トピックセグメントを作成した.まず,Hazumi1911の書き起こしから,人手で作成したルールによってフィラーや言い間違いを除去した.次に,Wizardがトピックを変えるときに用いていた固定発話(以下)をトリガーとして対話をトピックごとに分割することで,トピックセグメントを作成した.\begin{itemize}\setlength{\itemsep}{-0.1mm}%項目の隙間\setlength{\parskip}{-0.1mm}%段落の隙間\item~について話しましょう\itemそれではつぎの話題にうつりたいとおもいます\itemそれでは最後の質問です\end{itemize}その結果,1対話あたり平均して約5個のトピックセグメントを得た.発話数が15発話未満の短いトピックセグメントは削除し,合計で152個のトピックセグメントを作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-4ia8f3.pdf}\end{center}\caption{対話1--対話2ペアの作成フロー.}\label{fig:csdata_overflow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:csdata_overflow}に,対話1--対話2ペアの作成フローを示す.具体的には,以下の手順により対話1--対話2ペアを作成する.\begin{enumerate}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item同一話者のトピックセグメントから2つの対話を選択する.時系列順に,先に行われた方を対話1,後に行われた方を\textbf{対話2ソース}とする.\item対話2ソースを分割し,対話2を作成する.具体的には,対話2ソースの6発話目以降で最初に現れるユーザ発話を$U^{\text{user}}_1$とする.$U^{\text{user}}_1$から発話を遡ってのべ6発話分を抽出し,これを対話2とする.これを$U^{\text{user}}_N$に達するまで繰り返す.なお,ここで$N$は対話2ソースの最後のユーザ発話のインデックスである.\item同一話者による全てのトピックセグメントに対して,(1)--(2)を繰り返す.\end{enumerate}以上の手順を全話者のデータに対して行った結果,合計1,594組の対話1--対話2ペアが作成された.なお,対話2と対話2ソースは異なる点に注意されたい.対話2ソースは,Hazumi1911の対話をトピックごとに分割したトピックセグメントのことを表し,対話2は対話2ソースを6発話ずつのグループに分割した対話のことを表す.%%%%%%%%%%%\subsubsection{拡張システム発話収集タスク}\label{sssec:collect_expanded_utt}%%%%%%%%%%%クラウドソーシングサービスであるランサーズ\footnote{\Turl{https://www.lancers.jp/}}を利用し,拡張システム発話を収集した.\red{作業者は,日本語を母語とすることを必須として募集した.その他の事前スクリーニング等は実施しなかった.}以下の手順で,作業者は各対話1--対話2ペアに対して7つの発話を作成した.なお,7つとしたのは,作業者の負荷を考慮してのことである.\begin{enumerate}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item対話1から,ユーザ情報として自己開示を含むユーザ発話をすべて抽出する.自己開示を含む発話とは,ユーザが自身の好み・経験・事実・プロフィールについて話している発話のことを指す.ユーザ発話だけでは情報が不足すると考えられる場合は,直前のシステム発話もユーザ情報の一部として抽出する.例えば,システムが「好きな食べ物は何ですか?」と尋ね,ユーザが「リンゴ」と答えた場合,ユーザ発話だけでは情報が不十分であるため,直前のシステム発話も併せて抽出する.\item抽出されたユーザ情報の中から7つを選択する.ユーザ情報が7つ未満の場合は,発話に含めやすいと感じるユーザ情報を重複してのべ7つ選択する.\item(2)で選択した7つのユーザ情報ごとに,ユーザ情報を考慮しつつ対話2(対話文脈)の後に続くシステム発話を拡張システム発話として作成する.なお,同じユーザ情報を使用する場合は,異なる拡張システム発話を作成する.また,「ところで」や「そういえば」などの表現を用いて,強制的にユーザ情報を取り込んだ発話を作成することはできない.\end{enumerate}合計で34名の作業者により,10,801個の拡張システム発話が作成された.%%%%%%%%%%%\subsection{分析}%%%%%%%%%%%表\ref{table:corpus_sample}にSUIコーパスの発話例を示す.ユーザとシステムが,ユーザ情報の対話では「お酒を飲むこと」について話し,対話文脈の対話では「クラシック音楽を聴くこと」について話している.拡張システム発話である「お好きなクラシックとお酒を、一緒に楽しまれることも多いんですか?」は,「クラシック音楽を聴くこと」と「お酒を飲むこと」を自然に関連付けた発話なっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{08table01.tex}%\caption{SUIコーパスの例.SとUはそれぞれシステムとユーザの発話を表す.}\label{table:corpus_sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:corpus_freq}に,SUIコーパスのシステム発話あたりの文字数や単語数の統計量を示す.単語分割にはMeCab\footnote{\Turl{https://taku910.github.io/mecab/}}を用いた.Hazumi1911のシステム発話と比較すると,拡張システム発話の文字数および単語数は多くなっている.拡張システム発話にはユーザ情報が取り込まれているため,発話長が長くなっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{08table02.tex}%\caption{SUIコーパスのシステム発話あたりの文字数や単語数の統計量.}\label{table:corpus_freq}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%任意のユーザ情報と対話文脈を踏まえた発話を生成できるようにするためには,コーパスに含まれる対話文脈とユーザ情報との近さが多様である必要がある.SUIコーパスがこの要件を満たしているかどうかを確認するために,コーパス中のユーザ情報と対話文脈間のトピックの類似度を調査した.具体的には,ユーザ情報を抽出する対話(対話1)と対話文脈(対話2)のトピックのコサイン類似度を計算した.トピックはWizardの発話「~について話しましょう」から~の部分を抽出した.Wikipediaで学習されたFastText\footnote{\Turl{https://github.com/Hironsan/awesome-embedding-models}}\cite{bojanowski2017enriching}を用いてトピックの単語ベクトルを獲得し,それらのコサイン類似度を計算した.その結果,コサイン類似度が0.20--0.30の範囲である対話1--対話2ペアの頻度が最も高かった.最も高いコサイン類似度は0.48(「映画」と「音楽」)で,最も低いコサイン類似度は0.09(「スポーツ」と「本」)であった.参考のため,日本語の類義語のコサイン類似度を計算した.日本語WordNet(バージョン1.1)\footnote{\Turl{https://bond-lab.github.io/wnja/}}\cite{bond2012japanese}を使用し,同じsynsetに属する類義語を抽出した.各synsetに含まれる全単語ペア間のコサイン類似度を計算したところ,平均スコアは0.40であった.様々なトピック類似度の対話1--対話2ペアが作成されていることから,対話1--対話2ペアをもとに作成される拡張システム発話は,対話文脈との近さが多様なユーザ情報を組み込んでいることがわかる.%%%%%%%%%%%\subsection{品質評価}\label{subsec:quality}%%%%%%%%%%%クラウドソーシングサービスであるクラウドワークス\footnote{\Turl{https://crowdworks.jp}}を利用し,SUIコーパスの品質評価を実施した.SUIコーパスから1,000個の拡張システム発話をランダムに抽出し,各発話を3名の作業者が評価した.各作業者には,ユーザ情報,対話文脈,拡張システム発話を提示し,各拡張システム発話について,以下の3つの項目それぞれを``Yes''または``No''の二値で評価してもらった.\begin{itemize}\setlength{\itemsep}{0mm}%項目の隙間\setlength{\parskip}{0mm}%段落の隙間\item\textbf{対話文脈反映}:対象システム発話は,対話文脈を踏まえた発話になっているか.\item\textbf{ユーザ情報反映}:対象システム発話は,ユーザ情報の内容を踏まえた発話になっているか.\item\textbf{自然性}:対象システム発話は,自然な発話だと感じるか.\end{itemize}なお,二値の評価としたのは,事前調査から対話文脈やユーザ情報が発話に含まれている度合いの判断は難しいという結果を得たためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{08table03.tex}%\hangcaption{拡張システム発話の品質評価結果.スコアは各項目の``Yes''の割合を示す.\textbf{太字}はトップスコアを表す.}\label{table:corpus_evaluation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:corpus_evaluation}に,品質評価の結果を示す.アノテーションの一致に関する統計量(Fleissの$\kappa$)を見ると,対話文脈反映とユーザ情報反映では一致率が0.5を超えており,Moderateagreementであった.一方で,自然性の一致率が低く(Pooragreement),自然性の判断は主観に依るところが大きいことが示された.これは,対話における主観的な発話評価では,一致率が低い傾向にあることを示した先行研究と一致する\cite{higashinaka2015fatal,ghandeharioun2019approximating}.対話文脈反映スコアとユーザ情報反映スコアは,ともに0.7以上であった.これは,拡張システム発話の多くが,対話文脈反映とユーザ情報の両方を踏まえていることを示している.一方で,自然性スコアは0.6より低く,人間であってもユーザ情報をスムーズに発話に取り込むことが難しい可能性を示唆している.\red{対話文脈とユーザ情報の近さによって作成された発話の品質が異なるかどうかを調べるために,対話文脈とユーザ情報のコサイン類似度と主観評価の自然性スコアの関係を分析した.Sentence-BERT\cite{reimers2019sentence}}\footnote{\texttt{stsb-xlm-r-multilingual}モデルを使用した.}\red{を用いて対話文脈とユーザ情報をそれぞれ文ベクトル化し,それらのコサイン類似度を計算した.表\ref{table:result_sui_sim_eval}に,対話文脈とユーザ情報の間のコサイン類似度と,拡張システム発話に対する3名の作業者による自然性スコアの平均値の関係を示す.結果として,コサイン類似度が高くなるにつれて自然性スコアもやや高くなる傾向が見られたが,大きくは変わらなかった.この結果から,作成された発話の品質はユーザ情報と対話文脈の近さに大きく依存しないことがわかった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{08table04.tex}%\hangcaption{対話文脈とユーザ情報の間のコサイン類似度と,拡張システム発話に対する作業者による自然性スコアの平均値の関係.}\label{table:result_sui_sim_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%拡張システム発話の自然性の品質についてより深く調査するために,追加評価を行った.拡張システム発話が非常に自然でなくても,発話生成モデルを学習するための十分な学習データとなり得るかどうかを検証するためである.具体的には,対話破綻アノテーションを行い,SUIコーパスの自然性が元のコーパス(Hazumi1911)と比較して許容できるかどうかを比較調査した.対話破綻は,対話の中でユーザが対話を進められない状況を意味する\cite{martinovsky2006error}.以下の3つの破綻ラベル\cite{higashinaka2016dialogue}を用いて,各拡張システム発話に破綻ラベルのアノテーションを実施した.\begin{itemize}\setlength{\itemsep}{0mm}%項目の隙間\setlength{\parskip}{0mm}%段落の隙間\item\textbf{NB(Notabreakdown)}:破綻ではない.当該システム発話のあと対話を問題無く継続できる.\item\textbf{PB(Possiblebreakdown)}:破綻と言い切れないが,違和感を感じる発話.当該システム発話のあと対話をスムーズに継続することが困難.\item\textbf{B(Breakdown)}:あきらかにおかしいと思う発話,破綻.当該システム発話のあと対話を継続することが困難.\end{itemize}破綻ラベルは,当該拡張システム発話後の対話継続のしやすさ/しにくさを示す.ランサーズを利用し,3名の作業者が各発話について評価した.作業者は,ランダムに選択された100個の拡張システム発話と,Hazumi1911からランダムに選択された100個のオリジナルシステム発話の合計200個の発話を主観的に評価した.表\ref{table:breakdown_annotation}に,対話破綻アノテーションの結果を示す.Hazumi1911と比較すると,SUIコーパスではNBの割合が低く,PBの割合が高い.Bの割合は若干増加しており,現在とは異なるトピックのユーザ情報を強制的に利用することで,不自然な発話がある程度増加することが示された.しかしながら,$85\%$の発話において対話破綻は生じていない($0.47+0.38=0.85$)ことから,SUIコーパスは発話生成モデルを学習するための十分な質を有する学習データとなると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{08table05.tex}%\caption{各コーパスの対話破綻アノテーションの結果.}\label{table:breakdown_annotation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Fine-tuningによる発話生成ベースラインモデルの構築と評価} \label{sec:utterance_generation}%%%%%%%%%%%%%%%%%%%%%%%SUIコーパスを用いて事前学習済み発話生成モデルをFine-tuningすることでベースラインモデルを構築し,任意のユーザ情報と対話文脈を踏まえたシステム発話を生成できるかどうかを評価した.発話生成モデルの性能を検証するためにBLEU\cite{papineni2002bleu}などの自動評価尺度が一般的に用いられている\cite{liu2016how,zhang2020dialogpt}が,自動評価尺度による自動評価は主観評価との相関が低いことが報告されている\cite{liu2016how}.そのため,本研究では自動評価に加えて主観評価を実施することで発話生成モデルを評価した.なお,本実験の目的は高性能な発話生成モデルを構築することではなく,SUIコーパスでFine-tuingすることで既存モデルが任意のユーザ情報を踏まえたシステム発話を生成できるようになるかどうかを確認することである.%%%%%%%%%%%\subsection{実験設定}\label{ssec:utterance_generation_experiment_setting}%%%%%%%%%%%SUIコーパスを用いて,既存の事前学習済みモデルをFine-tuningした.事前学習モデルとして,Transformerに基づくEncoder-Decoderモデル\cite{adiwardana2020towards,roller2020recipes}を使用した.具体的には,Twitterのツイートリプライペアと日本語PersonaChatコーパスを用いて学習された日本語TransformerEncoder-decoder対話モデル\cite{sugiyama2023empirical}を事前学習済みモデルとして用いた.日本語TransformerEncoder-decoder対話モデルのパラメータ数は1.6Bである.表\ref{tbl:yperparameters}に,Fine-tuningにおけるハイパーパラメータ等の設定を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{08table06.tex}%\caption{Fine-tuningにおけるハイパーパラメータ等の設定.}\label{tbl:yperparameters}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%学習と評価データセット間で文脈やユーザ情報の重複を避けるため,Hazumi1911の同一話者による対話から作成したデータが重複しないように,30対話を$\text{\red{T}rain}\colon\text{\red{D}ev}\colon\text{\red{T}est}=24\colon3\colon3$に分割した.トークン化にはSentencePiece\cite{kudo2018sentencepiece}を使用した.%%%%%%%%%%%\subsection{評価設定}%%%%%%%%%%%以下の2つの発話生成モデルの比較評価を実施した.いずれのモデルも,出力として対話文脈に続くシステム発話を生成する.%%%%\begin{description}[leftmargin=*]\begin{description}%%%%\setlength{\itemsep}{1mm}%項目の隙間%%%%\setlength{\parskip}{1mm}%段落の隙間%%%%\item[\textbf{Vanilla}]\item[Vanilla](SUIコーパスでFine-tuningしていない)日本語TransformerEncoder-decoder対話モデル.対話文脈のみを入力とする.入力形式は“トークン化された対話文脈”である.%%%%\item[\textbf{Fine-tuned(Ours)}]\item[Fine-tuned(Ours)]SUIコーパスを用いてVanillaをFine-tuningしたモデル.対話文脈とユーザ情報を入力とする.入力形式は“トークン化されたユーザ情報[SEP]トークン化された対話文脈”である.なお,Fine-tuning時に各エポックにおいて\red{D}evデータセットでモデルを評価し,最も\red{L}ossが小さいモデルを評価に使用する.\end{description}\ref{ssec:utterance_generation_experiment_setting}節でSUIコーパスを分割して作成された\red{T}estデータセットから,ランダムに100個の入力を抽出した.抽出した入力に対して,2つのモデルがそれぞれ発話を生成し,合計200発話を評価対象として作成した.自動評価尺度として,Perplexityと以下の2種類のBLEUを計算した.\begin{itemize}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item\textbf{BLEU(Gold)}:生成されたシステム発話とSUIコーパスの拡張システム発話(Gold)を比較して計算する.\item\textbf{BLEU(UInfo)}:生成されたシステム発話と入力のユーザ情報(UInfo)を比較して計算する.生成されたシステム発話がどの程度ユーザ情報を考慮できているかを検証するために追加する.\end{itemize}主観評価ではランサーズを利用し,3名の作業者が生成された各システム発話について評価した.図\ref{fig:utterance_evaluation_interface}に,作業者に提示した画面を示す.評価項目などの評価設定は,\ref{subsec:quality}節の品質評価と同じとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{31-4ia8f4.pdf}\end{center}\caption{作業者に提示した発話評価用の画面.}\label{fig:utterance_evaluation_interface}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{08table07.tex}%\caption{自動評価結果.\textbf{太字}は各尺度のトップスコアを表す.}\label{table:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{08table08.tex}%\hangcaption{主観的評価結果.各項目の``Yes''の割合を示す.数字の横の上付き文字a--bは,その値が上付き文字で示されるモデルの値よりも統計的に優れていることを示す($p<.01$).平均は3つの値の平均を意味する.\textbf{太字}は各評価項目におけるトップスコアを示す.}\label{table:utt_generation_user_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価結果}\label{ssec:utt_generation_subjective_eval}%%%%%%%%%%%%%%%%%%%%%%\paragraph{自動評価結果}表\ref{table:result}に,各モデルのPerplexityとBLEUの結果を示す.PerplexityおよびBLEUの両方において,Fine-tunedがVanillaを大きく上回ることを確認した.このことは,SUIコーパスを用いて学習することで,発話生成モデルは対話文脈と任意のユーザ情報の両方を考慮した発話を生成できることを示している.%%%%%%%%%%%%%%%%%%%%\paragraph{主観評価結果}表\ref{table:utt_generation_user_result}に,主観評価結果を示す.統計検定にはWilcoxonの符号順位検定\cite{wilcoxon1992individual}を用いた.Fine-tunedはVanillaよりも平均スコアが高く,特にユーザ情報反映スコアが高かった.これらの結果は,Fine-tunedがユーザ情報と対話文脈に基づいて効果的に発話を生成できることを示している.Vanillaは対話文脈に基づいてのみ発話を生成しているため,自然で流暢な発話を生成できていた.Fine-tunedの自然性スコアはVanillaよりもやや低かったが,これはモデルが新しい情報を取り込こんだことによる影響だと考えている.SUIコーパスのサイズはそれほど大きくないが,SUIコーパスを用いて発話生成モデルをFine-tuningすることで,モデルは妥当な発話を生成できていた.人手で作成した拡張システム発話(Gold)と比較すると,Fine-tunedの自然性スコアは0.71,Goldは0.56(表\ref{table:corpus_evaluation})であった.自然性のみを見た場合,一般に発話生成モデルは流暢な発話を生成することに重点を置いているため,Fine-tunedが人間の性能を上回ったと考えられる.%%%%%%%%%%%\subsection{分析}\label{ssec:utterance_generation_analysis}%%%%%%%%%%%表\ref{table:result_statistics}に,各モデルによって生成されたシステム発話の統計量を示す.Fine-tunedによって生成されたシステム発話は,拡張システム発話(Gold)とほぼ同じ長さであることがわかった.Fine-tunedはVanillaより文字数と単語数が多いことから,発話により多くの情報を取り込んでいることが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{08table09.tex}%\hangcaption{各モデルによって生成されたシステム発話の統計量.Goldは拡張システム発話(人手で作成)を表す.}\label{table:result_statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{08table10.tex}%\caption{各モデルが生成した発話の例.}\label{table:generate_sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:generate_sample}に,各モデルが生成したシステム発話の例を示す.Vanillaでは対話文脈に沿った発話が生成されている.Fine-tunedとGoldでは,対話文脈から「ドラマ」,ユーザ情報から「ケーキ」または「スイーツ」が発話に用いられている.このことから,Fine-tunedがユーザ情報と対話文脈を踏まえて発話を生成できていることがわかる.対話文脈とユーザ情報の近さによって生成される発話の品質が異なるかどうかを調べるために,\red{\ref{subsec:quality}節と同様の方法で,}対話文脈とユーザ情報のコサイン類似度と主観評価の自然性スコアの関係を分析した.表\ref{table:result_sim_eval}に,対話文脈とユーザ情報の間のコサイン類似度と,Fine-tunedが生成した発話に対する3名の作業者による自然性スコアの平均値の関係を示す.結果として,自然性スコアとコサイン類似度間にはほとんど関連性がないことがわかった.この結果は,生成された発話の品質は,対話文脈とユーザ情報間の類似度に依存しないことを示している.対話文脈とユーザ情報のトピックが近い場合にのみユーザ情報を発話生成に用いるXuらの手法\cite{xu2022long}とは対照的に,SUIコーパスを用いることで対話文脈とユーザ情報の近さに関係なく,\red{モデルは}任意のユーザ情報をシステム発話に取り込むことができることが確認された.\red{なお,[0.4,0.6)では自然性スコアが多少低くなっているが,モデルが人間に沿った学習をしているとすると,モデルにおいても人間と同様の傾向(表\ref{table:result_sui_sim_eval}参照)になると考えられる.人間では1,000発話に対して評価を行っていたが,モデルでは100発話に対して実施しており,我々は,このスコアの低下はサンプル数が少ないことが原因と考えている.このことを厳密に検証するには,さらなる実験が必要だと考えている.こちらについては今後の課題としたい.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{08table11.tex}%\hangcaption{\red{対話文脈とユーザ情報の間のコサイン類似度と,Fine-tunedが生成した発話に対する作業者による自然性スコアの平均値の関係.}}\label{table:result_sim_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ICLによるLLMへの適用と評価} \label{sec:apply_llm}%%%%%%%%%%%%%%%%%%%%%%%SUIコーパスを用いて汎用的な大規模言語モデル(LLM)にIn-ContextLearning(文脈内学習;ICL)を行うことで,LLMが任意のユーザ情報と対話文脈を踏まえたシステム発話を生成できるかどうかを評価した.%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%現時点で最先端のLLMであるGPT-4\cite{openai2023gpt4}に対して,SUIコーパスを用いてICLを行った.GPT-4は,GPT-3.5を拡張した大規模マルチモーダルモデルであり,様々なタスクで人間レベルの性能を示している\footnote{\Turl{https://openai.com/research/gpt-4}}.本実験では,対話タスクに特化したGPT-4の\verb|gpt-4-0613|モデル\footnote{本実験を実施した時点で利用可能であった最新モデルである.}をAPI経由で利用した.プロンプトに含める例示(\red{S}hot)を変化させて複数のICLを行ったGPT-4の生成発話について,比較評価を実施した.具体的には,以下の2つの観点を踏まえて5種類の\red{S}hotのバリエーション(\red{Z}ero-shot,\red{R}andom-one-shot,\red{R}andom-five-shot,\red{S}imilarity-one-shot,\red{S}imilarity-five-shot)を用意した.\begin{itemize}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item\textbf{Shot数}:Zero-shot(プロンプトに\red{S}hotを含めない)をベースラインとする.Few-shotとして,\red{O}ne-shot(プロンプトに\red{S}hotを1つを含める)と\red{F}ive-shot(プロンプトに\red{S}hotを5つを含める)を用意する.\item\textbf{Shotの選択方法}:SUIコーパスからランダムに\red{S}hotを選択する方法(ランダム\red{S}hot選択)に加え,入力との類似度に基づいて\red{S}hotを選択する方法(類似\red{S}hot選択)を実施する.旅行案内の対話において,類似\red{S}hot選択によりICLを行うことで,良好な結果が得られることが確認されている\cite{hudecek2023large}.本実験でも同様に,発話生成の入力である対話文脈とユーザ情報の類似度に基づきSUIコーパスから\red{S}hotを選択する.具体的には,入力として与えられるユーザ情報と対話文脈を連結した文を\red{\ref{subsec:quality}}節と同様の方法で文ベクトル化し,SUIコーパスの\red{T}rainデータセットの全データと類似度を計算する.そして,類似度が高い順に\red{S}hotとして採用する.\end{itemize}表~\ref{table:prompt_template}に,GPT-4に発話を生成させるために\red{O}ne-shotのランダム\red{S}hot選択で使用したプロンプトの例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{08table12.tex}%\hangcaption{One-shotのランダム\red{S}hot選択(Random-one-shot)で発話生成に使用したプロンプト.\textbf{太字}は\red{S}hotを示す.過去の対話がユーザ情報,現在の対話が対話文脈にそれぞれ相当する.}\label{table:prompt_template}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価設定}%%%%%%%%%%%SUIコーパスの\red{T}estデータセットから,ランダムに100個の入力を抽出した.\pagebreak各入力に対して前述の5種類のプロンプトによりGPT-4にシステム発話を生成させ,合計500発話を評価対象とした.ランサーズを利用し,3名の作業者が生成された各システム発話について評価した.評価項目などの評価設定は,\ref{subsec:quality}節の品質評価と同じとした.%%%%%%%%%%%\subsection{評価結果と分析}%%%%%%%%%%%表\ref{table:user_result}に,評価結果を示す.統計検定にはSteel-Dwassの多重比較検定\cite{dwass1960some}を用いた.文脈反映スコアおよび自然性スコアは,\red{Z}ero-shotが最も高かった.一方で,\red{Z}ero-shotはユーザ情報反映スコアは低いことから,ユーザ情報を踏まえた発話生成ができていないことが示された.このことから,プロンプトにSUIコーパスから抽出した\red{S}hotを含まない場合,任意のユーザ情報を踏まえた発話生成は難しいことがわかった.また,\ref{ssec:utt_generation_subjective_eval}節の結果と同様に,ユーザ情報を踏まえず生成された発話の方が文脈反映スコアおよび自然性スコアが高いことがわかった.One-shotと\red{F}ive-shotの比較により,\red{S}hot数を増やすことでユーザ情報反映スコアが向上することがわかった.このことから,任意のユーザ情報を踏まえた発話生成において,SUIコーパスはLLMに対しても有用であることが示された.しかしながら,ユーザ情報反映スコアが最も高いSimilarity-five-shotは0.69であり,Fine-tunedモデルの0.87(表\ref{table:utt_generation_user_result})と比較すると低い結果となった.Shot数をさらに増やしたり,LLMをFine-tuningしたりすることで,ユーザ情報反映スコアが向上する可能性がある.ただし,\red{S}hot数を増やすと自然性スコアはやや低下することも示された.\ref{ssec:utt_generation_subjective_eval}節や\red{Z}ero-shotの結果と同様に,発話生成において任意のユーザ情報を踏まえることと自然性を保つことはトレードオフの関係にあると考えられる.ランダム\red{S}hot選択と比較して,類似\red{S}hot選択の方がユーザ情報反映スコアが向上することがわかった.一方で,自然性スコアはランダム\red{S}hot選択の方が高いことがわかった.入力に近い\red{S}hotのみを用いた場合,タスクの学習に用いるデータの多様性が低下し,生成発話の自然性を低下させてしまった可能性が高い.雑談対話において,自然性を保ちつつユーザ情報を踏まえた発話を生成するためには,多様な\red{S}hotを含めることが有効であると示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{08table13.tex}%\hangcaption{主観的評価結果.各項目の``Yes''の割合を示す.数字の横の上付き文字a--eは,その値が上付き文字で示されるモデルの値よりも統計的に優れていることを示す($p<.01$).平均は3つの値の平均を意味する.\textbf{太字}は各評価項目におけるトップスコアを示す.Randomはランダム\red{S}hot選択,Similarityは類似\red{S}hot選択をそれぞれ示す.}\label{table:user_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:result_statistics_gpt}に,各プロンプトによって生成されたシステム発話の統計量を示す.ランダム\red{S}hot選択と類似\red{S}hot選択を比較すると,類似\red{S}hot選択の方が発話長が短い傾向にあることがわかった.また,Shot数が少ない方が,生成発話の文字数および単語数が多い.GPT-4は長い発話を生成する傾向にあるため,\red{S}hot数を増やすことで,SUIコーパスの拡張システム発話の発話長に近づけられることが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\input{08table14.tex}%\caption{Shotバリエーションが異なる5種類のプロンプトによって生成された各システム発話の統計量.}\label{table:result_statistics_gpt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[b]\input{08table15.tex}%\caption{各モデルが生成した発話の例.}\label{table:generate_sample_gpt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:generate_sample_gpt}に,各モデルが生成したシステム発話の例を示す.Zero-shotはユーザ情報を踏まえておらず,対話文脈の「イタリア」のみを踏まえた発話を生成している.\red{O}ne-shotと\red{F}ive-shotでは\red{S}hotを含めることで,対話文脈に加えてユーザ情報の「平井堅」も踏まえた発話を生成している.また,類似\red{S}hot選択と比べて,ランダム\red{S}hot選択の方が一発話中に含まれる文数が多い傾向があった.%%%%%%%%%%%%%%%%%%%%%%% \section{対話システムの構築と評価} \label{sec:dialogue_system}%%%%%%%%%%%%%%%%%%%%%%%\ref{sec:utterance_generation}章および\ref{sec:apply_llm}章では,学習にSUIコーパスを用いることで,モデルが任意のユーザ情報と対話文脈を踏まえた発話を生成できることがわかった.しかしながら,実際のユーザとの対話において,任意のユーザ情報と対話文脈を踏まえた発話の有用性は不明確である.そこで本章では,\ref{sec:utterance_generation}章で学習した発話生成ベースラインモデルを用いて,ユーザとのインタラクティブ対話を通してその有用性を評価した.\ref{sec:utterance_generation}章で学習した発話生成ベースラインモデルを使用した理由は,発話生成ベースラインモデルの方が\ref{sec:apply_llm}章で学習したLLMよりもユーザ情報反映度が高い発話を生成できていたためである.%%%%%%%%%%%\subsection{比較システム}%%%%%%%%%%%以下の3つの雑談対話システムを構築した.VanillaとUInfoRuleの2つはベースラインシステムであり,1つはSUIコーパスを用いてFine-tuningした発話生成モデル(\ref{sec:utterance_generation}章のFine-tunedモデル)を組み込んだシステムである.%%%%\begin{description}[leftmargin=*]\begin{description}%%%%\setlength{\itemsep}{1mm}%項目の隙間%%%%\setlength{\parskip}{1mm}%段落の隙間%%%%\item[\textbf{Vanilla(Baseline)}]\item[Vanilla(Baseline)]このシステムは,発話生成にユーザ情報を使用しない.システム発話は日本語TransformerEncoder-decoder対話モデル(Vanillaモデル)により生成される.\ref{sec:utterance_generation}章ではVanillaモデルとして日本語PersonaChatコーパスにより学習されたモデルを用いたが,本章では日本語EmpatheticDialoguesコーパスで学習されたモデルを用いた.このモデルを用いた理由は,予備実験の結果,EmpatheticDialoguesで学習されたモデルの方が対話全体としての首尾一貫性が高かったためである.%%%%\item[\textbf{UInfoRule(Baseline)}]\item[UInfoRule(Baseline)]このシステムは,\citeA{tsunomori2019chat}のシステムを再現したものである.システム発話は,$30\%$の確率で人手で作成したルールによって生成され,$70\%$の確率でVanillaモデルによって生成される.この割合は\citeA{tsunomori2019chat}と同様に設定した.人手で作成したルールは「そうなんですね。そういえば、[\underline{単語}]について話しましたよね。」というような発話テンプレートに,ユーザ情報から抽出した単語を埋め込むことで発話を生成する.例えば,「コンサートに行く」というユーザ情報があった場合,「そうなんですね。そういえば、[\underline{コンサート}]について話しましたよね。詳しく教えてください。」という発話が生成される.テンプレートに埋め込む単語は予めユーザ情報から人手で抽出する.%%%%\item[\textbf{UInfoGen(Ours)}]\item[UInfoGen(Ours)]このシステムは,\ref{sec:utterance_generation}章で学習したFine-tunedモデルをもとに構築する.システム発話は,$30\%$の確率でFine-tunedモデルによって生成され,$70\%$の確率でVanillaモデルによって生成される.使用するユーザ情報は予め与えられたユーザ情報セットから1つランダムに決定されるため,UInfoGenは対話文脈とユーザ情報の類似度は考慮せずに発話を生成するが,その類似度が高い場合は\citeA{xu2022long}のシステムの動作に近くなる.なお,Fine-tunedモデルとVanillaモデルのどちらで発話生成を行うかをランダムに決定する理由は,(a)Fine-tunedモデルは対話中の任意のタイミングで適用できることを確認するため,(b)ベースラインのルールベースシステム\cite{tsunomori2019chat}と同じ設定にするため,(c)ユーザ情報を使用するタイミングを決定する最適な戦略が確立されていないためである.\end{description}%%%%%%%%%%%\subsection{評価設定}%%%%%%%%%%%クラウドワークスを通して募集した50名の作業者が,テキストチャットのインターフェース上で3つのシステムとそれぞれ対話を行った.図\ref{fig:user_interface}に,使用したテキストチャットのインターフェースを示す.具体的には,作業者は以下の手順でシステムと対話および評価を行った.\begin{enumerate}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\itemチャットインターフェースに表示された対話を,自分自身とシステムが過去に対話した内容として認識する.なお,SUIコーパス(\ref{ssec:utterance_generation_experiment_setting}節の\red{T}estデータセット)からランダムに選択された5セットのユーザ情報が過去の対話として表示される.このユーザ情報セットは,システムにも予め与えられる.\itemシステムと15ターン(計30発話)の対話を行う.ここでは,対話するシステムはランダムに決定される.\item対話終了後,後述する8つの質問項目に対して7段階のリッカート尺度を用いてシステムの評価を行う.1が「全くそう思わない」,7が「とてもそう思う」を表す.\itemすべてのシステムとの対話が完了するまで(1)--(3)を繰り返す.\end{enumerate}(3)で用いた8つの質問項目は以下の通りである.なお,この項目は\citeA{tsunomori2019chat}のルールベースシステムの評価で用いられた質問項目をもとに作成した.本研究では,システムがユーザ情報を記憶し,発話に利用する能力に関する質問を追加した.\begin{itemize}\setlength{\itemsep}{0mm}%項目の隙間\setlength{\parskip}{0mm}%段落の隙間\itemQ1:この対話システムの発話はわかりやすい.\itemQ2:この対話システムの発話内容は豊かだ.\itemQ3:この対話システムは親しみやすい.\itemQ4:この対話システムは過去の対話の内容を覚えている.\itemQ5:この対話システムは過去の対話の内容を適切に活用している.\itemQ6:この対話システムの発話は自然だ.\itemQ7:この対話システムとまた対話してみたい.\itemQ8:今の対話に満足している.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{31-4ia8f5.pdf}\end{center}\hangcaption{テキストチャットインターフェース.ユーザは下部のボックスに発話を入力する.上部にはユーザとシステムの過去の対話が表示されている.}\label{fig:user_interface}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{主観評価結果}%%%%%%%%%%%表\ref{table:interactive_result}に,評価結果を示す.統計検定にはSteel-Dwassの多重比較検定\cite{dwass1960some}を用いた.UInfoGenは全体的にスコアが高いが,VanillaはQ4(記憶)とQ5(過去の対話の利用)を除いて高く,UInfoRuleはQ4のみで高かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[t]\input{08table16.tex}%\hangcaption{対話評価の結果(7が最も良い).数字の横の上付き文字a--cは,その値が上付き文字で示されるシステムの値よりも統計的に優れていることを示す.二重文字(aaなど)は$p<.01$,それ以外は$p<.05$を意味する.}\label{table:interactive_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%UInfoGenとUInfoRuleを比較すると,どちらもQ4(記憶)のスコアが高い.これは,UInfoRuleとUInfoGenが,システムから記憶されているとユーザに感じさせたことを示している.しかしながら,UInfoRuleはQ5(過去の対話の利用)のスコアが低く,過去の対話を適切に利用できていないことがわかった.さらに,UInfoRuleはUInfoGenと比較して,Q1(理解度)とQ4を除くすべての項目で有意に低いスコアを示した.これらのことから,対話の文脈を考慮せずに単純なテンプレートを用いてユーザ情報を発話に取り込むと,対話全体のスコアが低下することがわかった.UInfoGenとVanillaを比較すると,両者のスコアは同等に高く,Q4(記憶)とQ5(過去の対話の利用)を除くすべての項目において有意差は見られなかった.Q4とQ5については,UInfoGenが有意に優れていた.これは,SUIコーパスによって学習された発話生成モデルは対話システムが任意のユーザ情報を利用することを可能にし,ユーザとの対話においても有効に機能したことを示している.また,UInfoGenはQ2(内容の豊かさ)においてもVanillaより優れていた.これは,UInfoGenはユーザ情報を活用することで,より多くの情報を発話に取り込むことに成功したことを示している.%%%%%%%%%%%\subsection{分析}%%%%%%%%%%%表\ref{table:live_dialogue_example}に,各対話システムによる対話例を示す.Vanillaは自然かつ流暢な発話を生成したが,無難な発話が多く生成されていた.UInfoRuleは,直前のユーザ発話を無視し,強制的にユーザ情報を用いてトピックを変えることが多かった.UInfoGenは,文脈への適合性を保ちつつ,他のトピックに関するユーザ情報を取り入れた自然な発話を生成していた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\input{08table17.tex}%\hangcaption{各対話システムとの対話例.SとUはそれぞれシステムとユーザの発話を表す.\textbf{太字}はユーザ情報を含む発話を示す.括弧内は発話生成に利用したユーザ情報を示す.\underline{下線}は発話テンプレートを示す.}\label{table:live_dialogue_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[t]\input{08table18.tex}%\caption{UInfoGenにおける対話破綻とエラータイプアノテーションの結果.}\label{table:statistics_error}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table19\begin{table}[t]\input{08table19.tex}%\caption{エラータイプが付与されたシステム発話の例.\textbf{太字}はエラーを含むシステム発話を示す.}\label{table:error_utt_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%UInfoGenは概ね適切に対話していたが,しばしば不適切な発話を引き起こすことがあった.どのようなエラーが発生したかを調査するために,雑談対話システムにおける対話破綻類型におけるエラータイプ\cite{higashinaka2015fatal}をシステム発話にアノテーションし,エラー分析を行った.アノテーションは著者の1名が実施した.まず,UInfoGenの8対話(120システム発話)をランダムに抽出し,\ref{subsec:quality}節と同様の対話破綻アノテーションを実施した.次に,Bラベルが付与された発話に対して,17種類のエラータイプ\cite{higashinaka2015fatal}アノテーションを実施した.表\ref{table:statistics_error}に,アノテーション結果を示す.その結果,大部分の発話は破綻ではなかったが,約$25\%$の発話が対話破綻を引き起こしていた.エラータイプとしては,質問無視,繰り返しの順に多かった.表\ref{table:error_utt_example}に,エラータイプが付与されたシステム発話の例を示す.UInfoRuleと同様に,UInfoGenでもユーザ情報をシステム発話に取り込むためにユーザの質問を無視することがあった.また,UInfoGenは似たような発話を複数回生成する傾向があった.これは,ユーザ情報を踏まえた自身の発話を対話文脈の一部として発話を生成しているためだと考えられる.UInfoGenがユーザ情報を用いた発話を生成したタイミングにおいて,対話文脈と保持していたユーザ情報の近さを分析した.具体的には,\red{\ref{subsec:quality}}節の分析方法と同様に,直前3ターンまでの対話文脈とチャットインターフェースに提示された各ユーザ情報とのコサイン類似度を計算した.その結果,コサイン類似度の平均は0.29であった.\citeA{xu2022long}ではユーザ情報と対話文脈の類似度が一定値以上の場合に発話生成にユーザ情報を使用しており,その閾値は0.7であった.しかしながら,今回の実験では0.7以上のコサイン類似度の割合は2\%,0.5以上のコサイン類似度の割合は10\%であり,システム発話に任意のユーザ情報を取り込むことの重要性が確認できた.なお,\citeA{xu2022long}は文ベクトルを得るためにSentence-BERTではなくERNIE\cite{sun2020ernie}を用いているが,値の範囲は大きく異ならないと考えている.%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}%%%%%%%%%%%%%%%%%%%%%%%本研究では,パーソナライズ可能な雑談対話システムの実現に向けて,任意のユーザ情報を自然に活用したシステム発話からなるSUIコーパス(\textbf{S}ystemutterancebasedon\textbf{U}ser\textbf{I}nformationcorpus)を構築および公開した.SUIコーパスを用いて事前学習済み発話生成モデルをFine-tuningすることで,モデルが対話文脈への適切性を保持したまま現在のトピックに関係なく任意のユーザ情報を取り込んだシステム発話を生成できることを確認した.さらに,SUIコーパスを用いて汎用的な大規模言語モデル(LLM)にIn-ContextLearning(文脈内学習;ICL)を行うことで,LLMが任意のユーザ情報と対話文脈を踏まえたシステム発話を生成できることを確認した.最後に,構築した発話生成モデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブ対話において,任意のユーザ情報と対話文脈を踏まえた発話の有用性を確認した.今後は,より高品質なユーザ情報を踏まえた発話生成モデルおよび雑談対話システムの構築に取り組む.特に,発話生成モデルを対話システムに組み込む方法には改善の余地がある.本研究ではユーザ情報を用いた発話生成のタイミングをランダムに決定したが,効果的に対話にユーザ情報を取り込むタイミングを分析したい.%%%%%%%%%%%%%%%%%%%%%%%%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,科研費「モジュール連動に基づく対話システム基盤技術の構築」\pagebreak(課題番号19H05692)の支援を受けたものです.また,実験においては,名古屋大学情報基盤センタのスーパーコンピュータ「Flow」の計算資源を利用しました.本論文の一部は,2022年度人工知能学会全国大会\cite{角森2022ユーザ}およびThe2024JointInternationalConferenceonComputationalLinguistics,LanguageResourcesandEvaluation(LREC-COLING2024)で発表済みのものです\cite{tsunomori2024i}.%%%%%%%%%%%%%%%%%%%%%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{08refs}%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{角森唯子}{%2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2015年株式会社NTTドコモ入社.2022年日本電信電話株式会社転籍,NTTコミュニケーション科学基礎研究所勤務.現在,名古屋大学大学院情報学研究科博士後期課程在学.対話システムの研究開発に従事.人工知能学会,ACL各会員.}\bioauthor{東中竜一郎}{%2001年慶應義塾大学大学院政策・メディア研究科博士前期課程,2008年博士後期課程修了.2001年日本電信電話株式会社入社.2020年より,名古屋大学大学院情報学研究科教授.NTT人間情報研究所客員上席特別研究員.慶應義塾大学環境情報学部特別招聘教授.2004年から2006年まで英国シェフィールド大学客員研究員.質問応答システム・対話システムの研究に従事.人工知能学会,言語処理学会,情報処理学会,電子情報通学会各会員.博士(学術).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V30N02-10
\section{はじめに\label{sect:intro}} 固有表現抽出(NamedEntityRecognition;NER)は,テキストから固有表現(NamedEntity;NE)や専門用語を抽出する自然言語処理技術の一つであり,様々な場面で用いられている.たとえば,新材料や新薬の開発,材料を用いた製品開発には化学物質に関する知識が必要不可欠であり,NERは,論文や特許で日々報告される化学物質間の相互関係や化学物質の物性値といった情報を構造化し蓄積するための要素技術の一つとして用いられている.NERに関する研究は古くから盛んに行われている.近年では,ニューラルネットワーク(NeuralNetwork;NN)による手法が主流となっており,再帰的ニューラルネットワーク(RecurrentNeuralNetwork;RNN)と条件付確率場(ConditionalRandomFields;CRF)を組み合わせたBidirectionalLSTM-CRFモデル(BiLSTM-CRFモデル)による手法\cite{huang2015bidirectional}やTransformerによる手法\cite{10.1093/bioinformatics/btz682}が,NERにおいて高い性能を実現している.また,近年では,対象タスクの教師データ(メイン教師データ)とは別の教師データも用いるマルチタスク学習により,複数の教師データから特徴量を同時に学習することでモデルの性能が改善することが報告されている\cite{wang2019multitask,crichton2017neural,khan2020mt,mehmood2020combining,wang2019cross}.特に,バイオ分野のNER(BioNER)においては,複数のタスクを同時に学習する{\multitask}と比較し,対象タスク以外のタスクを補助タスクとして用いる{\auxlearning}を行うことで対象タスクにおいて高い性能を示すことが報告されている\cite{wang2019multitask}.{\auxlearning}では,対象タスクから作成したメインバッチとそれ以外の教師データから作成した補助バッチを用いて学習を行う.学習時に補助バッチでパラメータを更新し,その後メインバッチでパラメータを更新する.この操作を対象タスクのデータに対する損失が収束するまで繰り返し行う.本研究では,先行研究の{\auxlearning}が1種類の補助教師データしか用いなかったのに対し,複数の教師データを補助教師データとして用いる手法({\itM}ultiple{\itU}tilizationof{\itN}ER{\itC}orpora{\itH}elpfulfor{\itA}uxiliary{\itBLES}sing;{\bf{\proposed}})を提案する.提案手法では,複数の補助教師データを用いることで,より多くの単語や文のパタンを学習する.また,複数の補助教師データを扱う際の学習方法や,補助教師データの組み合わせ,学習順について,性能向上の観点で検討する.具体的には,補助教師データ毎の補助学習を順次行うことで,対象タスクのモデルを補助教師データの種類の数だけ再学習する方法({\proposed}-スタック手法)と,全種類の補助教師データを一つの補助学習で用いる方法の2種類の学習手法を提案する.後者の学習方法としては,補助教師データを全て結合させた教師データからランダムにデータ選択して作成したバッチに基づき学習を行う方法({\proposed}-結合手法)と,エポック毎に補助教師データの種類を変えて学習を行う方法({\proposed}-反復手法)を提案する.本研究では,提案手法によるモデルの有効性を計8種類の化学/バイオ/科学技術分野のNERタスクで評価した.評価実験より,各タスクにおいて7種類の補助教師データを用いる提案手法によるモデルは従来手法によるモデルと比べて,F1値の平均が向上することを確認した.そして,提案手法によるモ出るは,従来手法と比較して最も高いF1値を達成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{従来手法} \label{sect:previous}本節では,対象タスクの教師データ以外の教師データも用いる従来のマルチタスク学習手法と補助学習を説明する.\ref{sect:single-task}節では,まず本研究のベースモデルとして用いるNERモデルを概説する.そして,\ref{sect:multi-task}節では,そのNERモデルを複数のタスクで同時に学習するマルチタスク学習に拡張したモデルについて述べる.このマルチタスク学習では,対象タスクとその他のタスクは同等に扱われる.\ref{sect:auxiliary}節では,対象タスクの性能を上げるために,対象タスクではないタスクの教師データを補助教師データとして用いる補助学習を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{シングルタスク学習}\label{sect:single-task}本研究では,Huangら\shortcite{huang2015bidirectional}により提案されたBiLSTM-CRFモデルをNERモデルとして使用する.BiLSTM-CRFモデルは,双方向LSTMとCRFを用いた系列ラベリングモデルである.BiLSTM-CRFモデルは,まず,双方向LSTMにより,入力文中の各単語の中間表現を算出する.入力文を${\bfw}=w_{1},w_{2},\cdots,w_{N}$,各単語$w_{i}$を埋め込み層でベクトル化した結果を${\bfx}={\bfx}_{1},{\bfx}_{2},\cdots,{\bfx}_{N}$とすると,単語$w_{i}$の中間表現${\bfe}_{i}$を以下のように算出する.\begin{gather}\overrightarrow{\mathbf{h}_{i}}=LSTM^{(f)}(\mathbf{x}_{i},\overrightarrow{\mathbf{h}_{i-1}})\label{eqn:forward_lstm}\\\overleftarrow{\mathbf{h}_{i}}=LSTM^{(b)}(\mathbf{x}_{i},\overleftarrow{\mathbf{h}_{i+1}})\label{eqn:backward_lstm}\\\mathbf{h}_{i}=[\overrightarrow{\mathbf{h}_{i}};\overleftarrow{\mathbf{h}_{i}}]\\\mathbf{e}_{i}=\mathbf{W^{(e)}}\mathbf{h}_{i}\end{gather}ここで,\begin{math}\rightarrow\end{math}と\begin{math}\leftarrow\end{math}は,それぞれ,順方向と逆方向を表し,\begin{math}LSTM^{(f)}\end{math}と\begin{math}LSTM^{(b)}\end{math}は,それぞれ,順方向と逆方向のLSTMを表す.また,$[\cdot;\cdot]$はベクトルの結合を表す.${\bfW^{(e)}}\inR^{k\timesd}$は重み行列であり,$d$は隠れ状態ベクトル${\bfh}_{i}$の次元数,$k$は識別対象のラベルの数である.その後,双方向LSTMにより算出された中間表現${\bfe}$をCRFに入力し,ラベル系列を求める.ラベル系列$\mathbf{y}=(y_1,y_2,\cdots,y_N)$に対するスコア関数は,双方向LSTMの出力系列$\mathbf{e}=(\mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_N)$をスコア行列に変換した${\bfP}=({\bfe}_{1},{\bfe}_{2},\cdots{\bfe}_{N})^{T}$と遷移スコア行列${\bfA}$を用いて次のように定義する.\begin{equation}{\rms}(\mathbf{e},\mathbf{y})=\sum^{N}_{i=0}A_{y_{i},y_{i+1}}+\sum^{N}_{i=1}P_{i,y_i}\end{equation}ここで,$A_{i,j}$は$i$番目のラベルから$j$番目のラベルに遷移するスコアを表す.また,$P_{i,j}$は$i$番目の単語に対応するタグ$j$のスコアである.このスコア関数を用いてラベル系列$\mathbf{y}$の出力確率を次のようにsoftmax関数により計算する.\begin{equation}p(\mathbf{y}|\mathbf{w})=\frac{{\rmexp}({\rms}(\mathbf{e},\mathbf{y}))}{\sum_{\tilde{\mathbf{y}}\in\mathbf{Y}_\mathbf{w}}{\rmexp}({\rms}(\mathbf{e},\mathbf{\tilde{y}}))}\end{equation}ここで,$\mathbf{Y}_\mathbf{w}$は入力文$\mathbf{w}$に対するすべての可能なラベル系列である.このように,BiLSTM-CRFモデルは,ラベリング問題を各単語に対して独立にモデル化するのではなく,系列全体で同時にモデル化する.学習時には正解ラベル系列を用いて次式の損失関数を最小化するパラメータを求める.\begin{equation}L=-\sum_{(\mathbf{w},\mathbf{\hat{y}})\inD}\log(p(\mathbf{\hat{y}}|\mathbf{w}))\label{eqn:loss}\end{equation}ここで,$D$は教師データである.予測時は,次式のようにスコアを最大化する${\bfy}$を求めることで出力ラベル系列$\mathbf{y}^*$を獲得する.\begin{equation}\mathbf{y}^*=\argmax_{\tilde{\mathbf{y}}\in\mathbf{Y}_\mathbf{w}}{\rms}(\mathbf{e},\tilde{\mathbf{y}})\end{equation}BiLSTM-CRFモデルでは,言語モデルを活用することで性能が改善されている.BiLSTM-CRFモデルに言語モデルを用いる手法としては,ContextualStringEmbeddings(CSE)\cite{akbik2018contextual}がある.CSEは,大規模なテキストを用いて,文字レベルのBiLSTMを事前学習したものである.CSEで学習されたベクトルは,式(\ref{eqn:forward_lstm})と式(\ref{eqn:backward_lstm})の${\bfx}_i$の一部に用いられる.提案手法の{\proposed}では,CSEを用いたBiLSTM-CRFモデルを拡張する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチタスク学習}\label{sect:multi-task}図\ref{fig:multimodel}にマルチタスク学習用に拡張したBiLSTM-CRFモデルを示す.このマルチタスク学習では,単語埋め込み層とBiLSTM層は全ての教師データで共有し,共通の重みを用いる.一方で,CRF層はタスクごとに用意し,CRF層の重みは共有しない.各タスクのCRF層における損失を\begin{math}L_{i}\(i=1,2,\cdotsM)\end{math}とすると,このマルチタスク学習の目的関数は次式のように定義される.\begin{equation}Loss=\frac{1}{M}\sum_{i=1}^ML_{i}\end{equation}$M$は教師データの種類数であり,各$L_{i}$は式(\ref{eqn:loss})のように算出される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia9f1.pdf}\end{center}\caption{シングルタスク学習,マルチタスク学習と補助学習の概要図}\label{fig:multimodel}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このマルチタスク学習手法の学習では,対象タスクとそれ以外のタスクを同等に扱うことで,全てのタスクで共通の一つのモデルを学習する.学習の収束判定は,対象タスクの損失のみで行わず,全てのタスクの損失を用いて行う.推論時には,学習したモデルにおいて目的のタスクに該当するCRF層を用いてNERを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{補助学習}\label{sect:auxiliary}Wangら\shortcite{wang2019multitask}は,対象タスクの教師データとそれ以外の教師データ(補助教師データ)を区別する補助学習を行うことで,対象タスクに対するNERの性能改善を行った.この補助学習手法の概要を図\ref{fig:multimodel},\ref{fig:aux}に示す.補助学習手法では,メイン教師データから作成したメインバッチと補助教師データから作成した補助バッチを用いて学習を行う.イテレーション毎に,補助バッチでモデルのパラメータを更新し,その後でメインバッチでモデルのパラメータを更新する.このメイン教師データと補助教師データの交互の学習を,メイン教師データに対する損失が収束するまで繰り返す.図\ref{fig:aux}において,メインのボックスがメイン教師データを表し,補助のボックスが補助教師データを表す.この2種類の教師データを区別して切り替えながら学習する手法が補助学習手法である.\ref{sect:multi-task}節のマルチタスク学習手法では対象タスクとそれ以外の教師データを区別せずに同時に学習する点が異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-2ia9f2.pdf}\end{center}\caption{従来の補助学習の概要図}\label{fig:aux}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{algorithm}[b]\caption{従来の補助学習手法のアルゴリズム}\label{alg:aux}\DontPrintSemicolon\KwData{メイン教師データ$D_{main}$,補助教師データ$D_{aux}$}\nl\Begin{\nl\For{$i=1,2,\cdots,EPOCH$}{\nl\For{$j=1,2,\cdots,ITERATION$}{\nl$Batch_{main}=extract(D_{main},BATCHSIZE)$\;\nl$Batch_{aux}=extract(D_{aux},BATCHSIZE)$\;\nl$train(Model,Batch_{aux})$\;\nl$train(Model,Batch_{main})$\;}\nl$is\_converge(Model,D_{main})$\;}}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%補助学習のアルゴリズムをAlgorithm\ref{alg:aux}に示す.Algorithm\ref{alg:aux}において,添え字は対象タスク($main$)と補助タスク($aux$)を表す.$EPOCH$,$ITERATION$は,それぞれ,メイン教師データに対するエポック数とイテレーション数であり,$BATCHSIZE$はバッチサイズを表す.各エポックのイテレーション回数は,メイン教師データの総数をバッチサイズで割った値である($ITERATION=|D_{main}|/BATCHSIZE$).4行目と5行目の$extract$は教師データからバッチサイズの数だけデータを抽出することでバッチを作成する関数であり,6行目と7行目の$train$はバッチデータに基づきNERモデル$Model$のパラメータを更新する関数である.また,8行目の$is\_converge$は対象タスク$D_{main}$に対する損失に基づき学習の終了判定を行う関数である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法\proposed:複数の補助教師データを用いる補助学習} \label{sect:proposed}\ref{sect:auxiliary}節で説明したWangら\shortcite{wang2019multitask}の補助学習では,補助教師データとして1種類の教師データしか用いていない.本節では,複数種類の教師データを補助教師データとして活用する手法を提案する\footnote{Wangら\cite{Wang2018}は複数種類のデータをマルチタスク学習で用いているが,提案手法はメイン教師データと複数の補助教師データを用いる補助学習である.}.\ref{sect:concat}節と\ref{sect:epoch}節では複数の補助教師データを一つの補助学習で用いる手法(\proposed-結合手法と\proposed-反復手法)を提案し,\ref{sect:stack}節では,補助教師データの種類の数だけ補助教師データ毎の補助学習を順次行いBiLSTM-CRFのパラメータを再学習して更新する手法(\proposed-スタック手法)を提案する.{\proposed}手法では,\ref{sect:single-task}節で述べた通り,CSEの出力をLSTM-CRFの入力として用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-2ia9f3.pdf}\end{center}\caption{\proposed-結合手法の概要図}\label{fig:concataux}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\proposed-結合手法}\label{sect:concat}\proposed-結合手法は,複数の補助教師データを結合した教師データを一つの補助教師データとみなし,\ref{sect:auxiliary}節で説明した補助学習を行う手法である.\proposed-結合手法の概要を図\ref{fig:concataux},アルゴリズムをAlgorithm\ref{alg:concat}に示す.図\ref{fig:concataux}において,メインのボックスはメイン教師データを示し,補助のボックスは補助教師データを示している.図\ref{fig:concataux}の通り,{\proposed-結合手法}は,補助1,補助2,$\cdots$,補助Mの複数の補助教師データをまとめたデータを一つの補助教師データとして用いる.\proposed-結合手法は,\ref{sect:auxiliary}節の補助学習手法と同様,メイン教師データから作成したメインバッチと補助教師データから作成した補助バッチを用意する.そして,メイン教師データに対する損失が収束するまで,補助バッチを用いた学習とメインバッチを用いた学習を交互に繰り返す.従来の補助学習手法との違いは,複数の補助教師データを結合した教師データからデータを抽出することで補助バッチを作成する点である.一つの補助バッチには複数種類の補助教師データが混在し得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.2\begin{algorithm}[b]\caption{\proposed-結合手法のアルゴリズム}\label{alg:concat}\DontPrintSemicolon\KwData{メイン教師データ$D_{main}$,$M$種類の補助教師データ$D^{(1)}_{aux},D^{(2)}_{aux},\cdots,D^{(M)}_{aux}$}%頭に\lnをつけるとその行に番号がつく\nl\Begin{\nl$D_{aux}=[D^{(1)}_{aux};D^{(2)}_{aux};\cdots;D^{(M)}_{aux}]$\;\nl\For{$i=1,2,\cdots,EPOCH$}{\nl\For{$j=1,2,\cdots,ITERATION$}{\nl$Batch_{main}=extract(D_{main},BATCHSIZE)$\;\nl$Batch_{aux}=extract(D_{aux},BATCHSIZE)$\;\nl$train(Model,Batch_{aux})$\;\nl$train(Model,Batch_{main})$\;}\nl$is\_converge(Model,D_{main})$\;}}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{30-2ia9f4.pdf}\end{center}\caption{\proposed-反復手法の概要図}\label{fig:epoch}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.3\begin{algorithm}[t]\caption{\proposed-反復手法のアルゴリズム}\label{alg:epoch}\DontPrintSemicolon\KwData{メイン教師データ$D_{main}$,$M$種類の補助教師データ$D^{(1)}_{aux},D^{(2)}_{aux},\cdots,D^{(M)}_{aux}$}%頭に\lnをつけるとその行に番号がつく\nl\Begin{\nl\For{$i=1,2,\cdots,EPOCH$}{\nl\For{$k=1,2,\cdots,M$}{\nl\For{$j=1,2,\cdots,ITERATION$}{\nl$Batch_{main}=extract(D_{main},BATCHSIZE)$\;\nl$Batch_{aux}=extract(D^{(k)}_{aux},BATCHSIZE)$\;\nl$train(Model,Batch_{aux})$\;\nl$train(Model,Batch_{main})$\;}}\nl$is\_converge(Model,D_{main})$\;}}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\proposed-反復手法}\label{sect:epoch}\proposed-反復手法は,エポック毎に補助教師データとして使用する教師データの種類を変える補助学習である.\proposed-反復手法の概要を図\ref{fig:epoch},アルゴリズムをAlgorithm\ref{alg:epoch}に示す.\proposed-反復手法においても,メイン教師データから作成したメインバッチを用いた学習と補助教師データから作成した補助バッチを用いた学習を,メイン教師データに対する損失が収束するまで交互に繰り返す.\proposed-結合手法との違いは,補助バッチは特定の補助教師データから作成し,補助バッチの作成元とする補助教師データはエポック単位で切り替える点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-2ia9f5.pdf}\end{center}\caption{\proposed-スタック手法の概要図}\label{fig:stack}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.4\begin{algorithm}[t]\caption{\proposed-スタック手法のアルゴリズム}\label{alg:stack}\DontPrintSemicolon\KwData{メイン教師データ$D_{main}$,$M$種類の補助教師データ$D^{(1)}_{aux},D^{(2)}_{aux},\cdots,D^{(M)}_{aux}$}%頭に\lnをつけるとその行に番号がつく\nl\Begin{\nl\For{$k=1,2,\cdots,M$}{\nl\For{$i=1,2,\cdots,EPOCH$}{\nl\For{$j=1,2,\cdots,ITERATION$}{\nl$Batch_{main}=extract(D_{main},BATCHSIZE)$\;\nl$Batch_{aux}=extract(D^{(k)}_{aux},BATCHSIZE)$\;\nl$train(Model,Batch_{aux})$\;\nl$train(Model,Batch_{main})$\;}\nl$is\_converge(Model,D_{main})$\;}}}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\proposed-スタック手法}\label{sect:stack}\proposed-スタック手法は,補助教師データ毎の補助学習を順次行うことでBiLSTMのパラメータを学習する.この手法では,補助教師データの種類の数だけメイン教師データを用いてメインモデルの再学習を行う.\proposed-スタック手法の概要を図\ref{fig:stack},アルゴリズムをAlgorithm\ref{alg:stack}に示す.\proposed-スタック手法では,特定の補助教師データを用いた補助学習を行う.そして,メイン教師データに対する損失が収束したときに,新しい補助教師データに切り替え,新しい補助教師データを用いて,メインモデルの再学習を行う.\proposed-結合手法と\proposed-反復手法では,メインモデルの収束判定は一度だけだが,\proposed-スタック手法では,各補助教師データごとに,1エポックごとの学習終了時に収束判定を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{09table01.tex}%\caption{データセット}\label{tab:aux-data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sect:setting}本研究では,\pagebreak8個の化学/バイオ/科学技術分野のNERタスクで提案手法によるモデルの評価を行う.表\ref{tab:aux-data}に各NERタスクのデータセットを示す.JNLPBAでは,複数のNEの種類が定義されているが,BioBERT\cite{10.1093/bioinformatics/btz682}の実験設定にならい,Gene/ProteinのNEのみを使用した.本実験では,\ref{sect:proposed}節で説明した3つの提案手法によるモデル(\proposed-結合手法による\textit{\proposedSM-Conc},\proposed-反復手法による\textit{\proposedSM-Iter},\proposed-スタック手法による\textit{\proposedSM-Stack})の性能を,\ref{sect:previous}節で説明した3つの従来手法により学習したモデル(シングルタスク学習による\textit{SingleTask},標準的なマルチタスク学習による\textit{MultiTask},従来の補助学習による\textit{SingleAux})の性能と比較することで,提案手法の有効性を検証する.\textit{singleAux}を学習する際に用いる1種類の補助教師データは,対象タスクの開発データに対する性能に基づき選択した.具体的には,対象タスク以外の7種類の教師データをそれぞれ補助教師データとして用いたモデルの中で,開発データで最も性能(F1値)が高かったモデルを評価データで評価した.従来モデルの\textit{MultiTask}及び提案モデルは8種類全ての教師データを学習で用いる.ただし,提案モデルは,対象タスク以外の7種類の教師データは補助教師データとして用いる.\textit{\proposedSM-Iter}及び\textit{\proposedSM-Stack}の補助教師データは,固有表現の種類が同じ補助教師データが連続しないように7種類の補助教師データをランダムに並び替えて用いた.補助教師データの入力順に関する考察は\ref{sect:discussion}節で行う.各NERモデルはオープンフレームワークFLAIR\cite{akbik2019flair}を拡張して実装した.BiLSTMへの入力である単語埋め込みは,FLAIRで提供されているCSE\cite{akbik2018contextual}とFastText\cite{bojanowski2017enriching}を使用した.CSEとFastTextの各モデルはともに,PubMedのウェブサイトの医学文献コーパスMEDLINEの要旨より学習したモデルを使用した.MEDLINEの要旨は,約45億の単語を含む.BiLSTM層の次元数は256とした.オプティマイザーはSGDを使用し,スケジューリングにより学習率を調整した.具体的には,エポックごとの損失が4回連続してこれまで損失の最低値より小さくならなかったときに,学習率を2分の1倍にした.そして,学習率が1e-4以下になったときに学習を終了した.評価時は,学習を終えたときのモデルを使用した.ハイパーパラメータのチューニングでは,学習率の初期値として0.1,0.05の2通り,バッチサイズとして16,32の2通りを試した.これらの学習率とバッチサイズを組み合わせた4つのモデルを開発データで評価し,一番性能が良いハイパーパラメータの組み合わせを選択した.モデルを評価する際は,教師データと開発データを合わせたデータからモデルを学習し,テストデータに対する性能を比較,評価した.NERの評価指標は以下のRrecision,Recall,F1値を用いた.\begin{align}Precison&=\frac{TP}{TP+FP}\\[1ex]Recall&=\frac{TP}{TP+FN}\\[1ex]F1\mathchar`-score&=\frac{2\timesPrecision\timesRecall}{Precision+Recall}\end{align}TP,FP,FNはそれぞれTruePositive,FalsePositive,FalseNegativeを表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sect:result}実験結果を表\ref{tab:result}に示す.表\ref{tab:result}の結果は,初期値を変えて各モデルの実験を3回行った平均値である.表\ref{tab:result}において,「MA.AVG.」と「MI.AVG.」はそれぞれF1値のマクロ平均とマイクロ平均を表す.また,太字は各タスクにおいて最も性能が高い値を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{09table02.tex}%\hangcaption{実験結果(各データセットのPrecision,Recall,F1値およびF1値のマクロ平均とマイクロ平均(\%).F1値の括弧内の数字は標準偏差.)}\label{tab:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:result}より,\textit{SingleAux}は\textit{SingleTask}や\textit{MultiTask}よりもF1値のマイクロ平均とマクロ平均が高いことが確認できる.これは,従来研究で報告されている通り,対象タスクに着目した補助学習の方が全てのタスクの教師データを同等に扱うマルチタスク学習よりも性能改善に寄与することを示している.また,表\ref{tab:result}より,\textit{\proposedSM-Stack}と\textit{\proposedSM-Iter}は\textit{SingleAux}よりもF1値のマクロ平均とマイクロ平均が共に高いことが確認できる.これらの結果より,教師データが複数ある場合,提案手法のように補助学習において複数の補助教師データを用いることでNER性能が改善できることが分かり,提案手法の有効性を実験的に確認できる.また,ベースラインモデルである\textit{MultiTask}と\textit{SingleAux}と,提案手法によるモデル\textit{\proposedSM-Conc},\textit{\proposedSM-Iter},\textit{\proposedSM-Stack}の比較を行った.表\ref{tab:mcnemar}に提案手法によるモデルとベースラインモデルのF1値の差を示す.そして,検定として,単語に割り当てられたラベルの一致および不一致に基づくマクネマー検定を行った\cite{Sha:2003:SPC:1073445.1073473}.この検定は,各モデルにおいてF1値が最大となった実験結果に対して行った.表\ref{tab:mcnemar}内で太字で表しているものは,マクネマー検定の結果,提案手法によるモデルの結果がベースラインモデルの結果と比較して,$p<0.05$で有意であるものである.ベースラインモデルとのF1値の差が大きい,BC5CDR-DiseaseやBC5CDR-Chemといったデータセットでは有意差があった.BC5CDR-DiseaseやBC5CDR-Chemといった対象タスクのアノテーション数が少ない場合,複数の補助教師データを使用することで性能の改善を行うことができる.提案手法によるモデルとベースラインモデルとの間でF1値の差が小さいJNLPBAでは,どの提案手法のモデルでも有意差は確認できなかった.JNLPBAは,本実験において最も学習データのアノテーション数が多いデータセットであるため,対象タスクのデータが十分である場合,提案手法の効果は小さいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{09table03.tex}%\hangcaption{提案手法によるモデルとベースラインモデルのF値の差.太字は,マクネマー検定を行った結果,提案手法によるモデルがベースラインモデルより,$p<0.05$で有意であるものを示している.}\label{tab:mcnemar}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{補助教師データの入力順に関する考察}\label{sect:discussion}\textit{\proposedSM-Iter}と\textit{\proposedSM-Stack}の性能は,補助教師データの使用順(Algorithm\ref{alg:epoch}や\ref{alg:stack}の「$D^{(1)}_{aux},$$D^{(2)}_{aux},\cdots$」)に影響を受ける可能性がある.本節では補助教師データの使用順がNER性能に与える影響を考察する.\ref{sect:result}節の実験では,\textit{\proposedSM-Iter}及び\textit{\proposedSM-Stack}の補助教師データは,固有表現の種類が同じ補助教師データが連続しないようにランダムに並び替えた.しかし,\textit{\proposedSM-Iter}および\textit{\proposedSM-Stack}では,メインモデルの学習終了時点に近い補助教師データほど大きな影響を持つ可能性がある.そこで,\textit{\proposedSM-Iter}や\textit{\proposedSM-Stack}において,対象タスクの性能改善に寄与する度合いの小さい順に補助教師データを並べて用いた場合の性能を評価する.以降では,それらのモデルを\textit{\proposedSM-Iter~(sort)}と\textit{\proposedSM-Stack~(sort)}と表記する.具体的には,\textit{\proposedSM-Iter~(sort)}と\textit{\proposedSM-Stack~(sort)}では,まず,各補助教師データ単体で従来の補助学習を行ったモデルの開発データに対する性能を評価する.そして,その性能の昇順で補助教師データをソートし,Algorithm\ref{alg:epoch}や\ref{alg:stack}の「$D^{(1)}_{aux},D^{(2)}_{aux},\cdots$」として用いる.例として,CHEMDNERタスクにおける\textit{\proposedSM-Iter~(sort)}と\textit{\proposedSM-Stack~(sort)}の補助教師データの並び順の決め方について説明する.表\ref{tab:aux-r}に,各NERタスクの教師データを用いた場合の\textit{SingleAux}のCHEMDNER開発データにおける性能を示す.ハイパーパラメータは全ての組み合わせで評価する.この\textit{SingleAux}の性能に基づき,ハイパーパラメータの各組み合わせで\textit{\proposedSM-Iter~(sort)}と\textit{\proposedSM-Stack~(sort)}のCHEMDNER開発データにおける性能を評価する.具体的には,同じハイパーパラメータの設定で,\textit{SingleAux}の性能が低い順に補助教師データを用いて\textit{\proposedSM-Iter~(sort)}や\textit{\proposedSM-Stack~(sort)}を評価する.その結果,表\ref{tab:aux-r}より,\textit{\proposedSM-Iter~(sort)}ではバッチサイズが32,学習率が0.1,補助教師データの使用順は「JNLPBA$\rightarrow$BC2GM$\rightarrow$BC5CDR-Disease$\rightarrow$s800$\rightarrow$BC5CDR-Chem$\rightarrow$LINNAEUS$\rightarrow$NCBI-Disease」となる.また,\textit{\proposedSM-Iter~(sort)}ではバッチサイズが16,学習率が0.05,補助教師データの使用順は「s800$\rightarrow$JNLPBA$\rightarrow$BC5CDR-Disease$\rightarrow$BC2GM$\rightarrow$NCBI-Disease$\rightarrow$LINNAEUS$\rightarrow$BC5CDR-Chem」となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{09table04.tex}%\hangcaption{CHEMDNERタスクにおける\textit{\proposedSM-Iter(sort)}と\textit{\proposedSM-Stack(sort)}の補助教師データの使用順及びハイパーパラメータのチューニング(CHEMDNER開発データにおけるF1値(\%))}\label{tab:aux-r}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各テストデータにおける\textit{\proposedSM-Iter},\textit{\proposedSM-Iter~(sort)},\textit{\proposedSM-Stack},\textit{\proposedSM-Stack(sort)}の性能を表\ref{tab:sort}に示す.表\ref{tab:sort}より,\textit{\proposedSM-Iter~(sort)}のF1値のマクロ平均と\textit{\proposedSM-Stack~(sort)}のF1値のマイクロ平均及びマクロ平均はそれぞれ\textit{\proposedSM-Iter}と\textit{\proposedSM-Stack}より低いが,\textit{\proposedSM-Iter~(sort)}は\textit{\proposedSM-Iter}よりも高いF1値のマイクロ平均を獲得できたことが分かる.この結果より,\textit{{\proposedSM}-Iter}と\textit{{\proposedSM}-Stack}の性能は補助教師データの使用順序に影響を受け,対象タスクの開発データにおける\textit{SingleAux}の性能の昇順で補助教師データを使うことで,いくつかのNERタスクでは性能改善できることが分かった.しかし,補助教師データをソートすることにより性能を改善できないNERタスクも多い.これは,開発データとテストデータの傾向の違いが原因の一つであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{09table05.tex}%\caption{補助教師データの順序の違いによる性能差}\label{tab:sort}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:word}に対象タスクの教師データと補助教師データとの単語の一致率を示す.これは,対象タスクの教師データに出現する単語が,補助教師データ内に出現する割合を表している.JNLPBA,LINNAEUS,s800,NCBI-diseaseは,対象タスクの教師データ中の単語が補助教師データ内に出現する割合が高いデータセットである.このうちNCBI-diseaseを除いたデータセットでは,補助教師データをソートしない手法によるモデルが補助教師データをソートする手法によるモデルよりF1値が高い.一方,BC4CHEMDやBC2GMは,対象タスクの教師データ中の単語が,補助教師データ内に出現する割合が低いデータセットである.これらのデータセットでは,補助教師データをソートする手法によるモデルが高性能である.これらのことから,補助教師データと対象タスクの教師データの一致率が低いものは,対象タスクの性能改善に寄与する度合いの小さい順に補助教師データを並べることで,性能が高くなる傾向があることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{09table06.tex}%\hangcaption{対象タスクの教師データと補助教師データとの単語の一致率(BC5CDR-ChemとBC5CDR-Diseaseは同じテキストに対してラベル付けを行ったものであるため省略した.)}\label{tab:word}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来研究の結果との比較}本節では,提案の{\proposed}手法によるモデルの性能と従来研究で報告されている性能を比較する\footnote{従来研究で様々なパラメータでの性能が報告されている場合,F1値のマクロ平均が最も高いモデルの性能と比較する.}.表\ref{tab:previousresult}に比較結果を示す.また,表\ref{tab:previousresultSummary}に比較結果の概要として,本研究の評価実験で用いたNERタスクと従来研究で用いられているNERタスクで共通するタスクに対するF1値のマクロ平均を示す.表\ref{tab:previousresultSummary}の太字は提案手法によるモデルのF1値が従来手法の結果よりも高いことを示す.表\ref{tab:previousresult}と表\ref{tab:previousresultSummary}より,提案の{\proposed}手法によるモデルは全体的に従来の結果と同等かよりよいNER性能を達成できていることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{09table07.tex}%\caption{従来研究の結果との比較(F1値(\%))}\label{tab:previousresult}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{09table08.tex}%\caption{従来研究の結果との比較の概要(F1値のマクロ平均(\%).共通タスクを対象.)}\label{tab:previousresultSummary}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%HanPaNEと{\proposed}がLSTMであるのに対し,他の手法はTransformerに基づく事前学習を用いている.表\ref{tab:result}の\textit{SingleTask}(F1値のマクロ平均85.64)と表\ref{tab:previousresultSummary}のBioBERT(F1値のマクロ平均85.99)との比較から,今回の評価で用いたデータセットでは,Transformerに基づく事前学習モデルを用いる方が全般的に高い性能を示すことが確認できる.しかしながら,{\proposed}によって,LSTMに基づくモデルであっても,今回の評価データにおいて,高いF1値が得られる場合があることがわかる.なお,{\proposed}は従来研究と組み合わせることが可能であり,また,今後提案される事前学習モデルに適用することで,更なる性能改善が期待できる.以降,各手法との比較を述べる.\begin{itemize}\itemBioBERT\cite{10.1093/bioinformatics/btz682}はバイオ分野のテキストで事前学習したBERTに基づくモデルである.本研究では,PubMedとPMCから事前学習したBioBERTv1.0と提案モデルを比較した.BioBERTのF1値のマクロ平均は85.99なのに対して,提案の{\it{\proposedSM}-Iter}のF1値のマクロ平均は86.16,{\it{\proposedSM}-Stack}のF1値のマクロ平均は85.96であり,{\it{\proposedSM}-Iter}はBioBERTよりも高い性能を実現できた.\itemHanPaNE\cite{watanabe-etal-2019-multi}は,マルチタスク学習により,LSTMに基づく化合物名の言い換えモデルと同時学習するBiLSTM-CRFNERモデルである.HanPaNEはCHEMDNERタスクでしか評価されていないが,CHEMDNERタスクでは最高性能である92.57のF1値を達成している.{\it{\proposedSM}-Stack}及び{\it{\proposedSM}-Iter}はHanPaNEよりも性能が低い.しかし,提案手法とHanPaNEのマルチタスク学習の枠組みは相補的であるため,組み合わせることでより高い性能を達成できる可能性がある.\itemSciBERT\cite{beltagy-etal-2019-scibert}は科学技術分野のテキストで事前学習したBERTに基づくモデルである.SciBERTはNCBI-DiseasesとJNLPBAタスクで評価されており,それらのF1値のマクロ平均は82.93である.{\it{\proposedSM}-Iter}はそれら2つのタスクでSciBERTより高いF1値のマクロ平均(83.19)を達成している.\itemBioMegatron\cite{shin-etal-2020-biomegatron}はMegatron-LM\cite{shoeybi2020megatronlm}と呼ばれるTransformerに基づく言語モデルをバイオ分野に適応したモデルである.BioMegatronはNCBI-Disease,BC5CDRDisease,BC5CDRChemの3つのNERタスクで評価されており,50kのバイオ分野の語彙と345mのパラメータを用いたBioMegatronのF1値のマクロ平均は89.33である.一方,{\it{\proposedSM}-Iter}と{\it{\proposedSM}-Stack}のF1値のマクロ平均はそれぞれ89.91と89.59であり,BioMegatronよりも高い値を実現した.\itemSciFive\cite{DBLP:journals/corr/abs-2106-03598}は大規模なバイオ医療分野のコーパスから事前学習したText-to-TextTransferTransformer(T5)\cite{2020t5}に基づくモデルである.SciFiveは本研究で用いた8つのタスクの内,LINNAEUSを除いた7つのタスクで評価されており,NERタスクのF1値のマクロ平均が最も良いPMCから事前学習したSciFive(PMC)Largeのマクロ平均F1値は85.67である.一方,{\it{\proposedSM}-Iter}のF1値のマクロ平均は85.76であり,SciFiveより高い性能を実現した.\item%$\color{red}PubMedBERT\cite{PubMedBERT}は,バイオ分野のテキストだけを用いて一から事前学習したBERTモデルである.PubMedBERT(PubMed)はPubMedだけ,PubMedBERT(+PMC)はPubMedに加えてPMCを事前学習に用いている.これらの事前学習を基にNCBI-Disease,BC5CDRDisease,BC5CDRChem,BC2GM,JNLPBAの固有表現抽出タスクで評価を行っている.PubMedBERT(PubMed)に基づく固有表現抽出器のF1値のマクロ平均は86.08,PubMedBERT(+PMC)に関しては,86.13と報告されている.{\it{\proposedSM}-Stack}は,PubMedBERT(PubMed)に基づく固有表現抽出器と同等の性能を示している.また,{\it{\proposedSM}-Iter}は,PubMedBERT(+PMC)より高い性能を示している.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチタスク学習}マルチタスク学習は,NERを含めて様々な自然言語処理タスクの性能を向上させるために利用されている\cite{liu-multi,luong-multi,dong-multi,hashimoto-multi,AAAI1817123}.Rei\shortcite{P17-1194}は言語モデルを用いた系列ラベリングのマルチタスク学習手法を提案した.Aguilarら\shortcite{Aguilar2018}やCaoら\shortcite{Cao2018}はNERと単語分割のマルチタスク学習を提案した.Clarkら\shortcite{Clark18}は品詞付与や構文解析などのいくつかの自然言語処理タスクとNERのマルチタスク学習を提案した.Crichtonら\shortcite{crichton2017neural}やWangら\shortcite{Wang2018}は化学医療のいくつかの自然言語処理タスクとのマルチタスク学習によりNERの性能を改善した.Watanabeら\shortcite{watanabe-etal-2019-multi}は化合物名の言い換えとNERのマルチタスク学習を提案した.また,マルチタスクのためのサンプリング手法も提案されている.Guoら\cite{guo-etal-2019-autosem}は,Beta-Bernoullimulti-armedbanditwithThompsonSamplingに基づいて最も有効と判断される補助タスクを選択する.Kungら\cite{kung-etal-2021-efficient}は,対象タスクとの類似度に基づいて,補助タスクを選択する手法を提案している.これらの手法は,異なるタスクを用いてマルチタスク学習を行っているが,{\proposed}では,同じタスクの異なる教師データを用いて補助学習を行う点が異なる.また,Daume\cite{daume-iii-2007-frustratingly},Pengら\cite{peng-dredze-2017-multi},Yangら\cite{YangSC17}のように同じタスクで分野が異なるデータを用いて学習を行う分野適応がある.{\proposed}は,複数の補助教師データを切り替えながら学習する点がこれらの手法とは異なる.これにより,補助教師データの入力順を変更することができ,補助教師データと教師データの単語の一致率が低いものは,図\ref{tab:sort}のように性能改善を行うことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,複数の補助教師データを活用するNERの補助学習手法{\proposed}を提案した.学習方法として,(i)複数の補助教師データを結合したデータを一つの補助教師データとみなして補助学習を行う{\proposed}-結合モデル,(ii)エポックごとに補助教師データを変えて補助学習を行う{\proposed}-反復モデル,(iii)補助教師データ毎の補助学習を順次行い補助教師データの種類の数だけメインモデルの再学習を行う{\proposed}-スタックモデルを提案した.化学/バイオ/科学技術分野のデータセットを用いた評価実験を通じて,提案手法で学習したモデルは従来のマルチタスク学習手法によるモデルや一つの補助教師データしか用いない従来の補助学習手法によるモデルよりも高い平均F1値を実現できることを確認し,s800のデータセットにおいて最も高いF1値を達成した.今後の課題として,他のデータセットや,Transfomerに基づく事前学習を用いた評価,NER以外の自然言語処理タスクでの提案手法の有効性の確認が挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begingroup\addtolength{\baselineskip}{0.25pt}\bibliography{09refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{渡邊大貴}{%2017年愛媛大学工学部情報工学科卒業.2019年同大学院理工学研究科修士課程修了.2022年より同志社大学大学院理工学研究科博士課程に在学.2019年(株)富士通研究所入社.現在,富士通株式会社に在籍.}\bioauthor{市川智也}{%2021年同志社大学理工学部インテリジェント情報工学科卒業.2023年同大学院理工学研究科修士課程修了.同年より楽天グループ株式会社入社.}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教.2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).情報処理学会,言語処理学会,人工知能学会,ACL各会員.}\bioauthor{岩倉友哉}{2003年株式会社富士通研究所入社.2011年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了.博士(工学).自然言語処理の研究開発に従事.現在,富士通株式会社シニアリサーチマネージャー,奈良先端科学技術大学院大学客員教授.情報処理学会,言語処理学会各会員.}\bioauthor{馬春鵬}{ChunpengMaiscurrentlyaresearcherinMegagonLabs,Tokyo.HereceivedhisB.E.,M.E.,Ph.DfromHarbinInstituteofTechnologyin2010,2014,2020,respectively.Since2020,hehasbeenworkingasaresearcherinFujitsuLaboratory,Japan.Hisresearchinterestsincludemachinetranslation,syntacticparsing,dialoguegeneration,andmultimodalartificialintelligence.HeisamemberoftheAssociationforNaturalLanguageProcessinginJapan.}\bioauthor{加藤恒夫}{1994年東京大学工学部電子工学科卒業.1996年同大学工学系大学院電子工学専攻博士前期課程修了.同年,国際電信電話株式会社入社.KDD研究所,KDDI研究所を経て,2015年より同志社大学理工学部.現在同志社大学理工学部教授.博士(情報理工学).言語処理学会,情報処理学会,電子情報通信学会,日本音響学会,日本音声学会,ヒューマンインターフェース学会,ACM,IEEE各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V12N01-04
\section{はじめに} 省略補完や代用表現の解釈といった対話理解のための対話構造のモデル化と解析は,音声対話を対象にした機械翻訳の分野で特に重要とされている.これに対し,チャット対話を対象とした対話構造のモデル化と解析は,情報抽出やコミュニケーション支援といったチャット対話を言語資源として利用する研究分野においても重要とされている\cite{Khan:02,Kurabayashi:02,Ogura:03}.このような分野では,「現在話されている話題は何か」「誰がどの話題について情報をもっているか」といった情報を獲得することが必要であり,各発言の相互の関係を示す対話構造を同定する必要がある.チャット対話では,表\ref{tbl:chat}のようにメッセージを送受信することで対話が進む.対話は文字データとして記録されるため,そのまま言語資源として利用できる.しかし,チャット対話はその独特の特徴のため,音声対話を対象とした既存の対話構造モデルをそのまま適用することは難しい.まず,表\ref{tbl:chat}の25と27の発言のように,質問と応答のような意味的につながりを持つ発言が隣接しない場合がある.また,質問や応答を構成する発言自体も31と32,33の発言のように区切って送信({\bf区切り送信})される場合がある\cite{Werry:96}.このように,チャット対話の基本単位は音声対話のそれとは異なる.本論文の目的は,チャット対話の発言間の二項関係である継続関係と応答関係を同定する処理を自動化して対話構造を解析する手法を提案し,その実現可能性について論じることである.2節で詳述するように同一話者による発言のまとまりを{\bfムーブ}と呼ぶ.このとき,チャット対話の対話構造を解析する作業は,次の2つの処理に分解できる.\begin{description}\item{\boldmath$継続関係の同定:$}\.同\.一\.話\.者の発言間の継続関係を同定することによってそれらをムーブにまとめる処理.\item{\boldmath$応答関係の同定:$}質問と応答のような\.異\.な\.る\.話\.者のムーブ間の応答関係を同定し,チャット対話全体の対話構造を抽出する処理.\end{description}具体的には,表\ref{tbl:chat}の発言31から33までからなるムーブを構成する発言間の二項関係(例えば,発言31と32及び発言32と33)を継続関係,質問と応答のような異なる話者のムーブ間の二項関係(例えば,発言31から33までからなるムーブと発言34からなるムーブ)を応答関係と定義し,これらの関係に基づいて,発言をまとめあげることで対話構造を解析する.本研究では,この問題をある発言とそれに先行する発言との間に継続関係があるか否か,または応答関係があるか否かの2値分類問題に分解し,コーパスベースの教師あり機械学習を試みた.解析対象はオフラインのチャット対話ログである. \section{対話構造のモデル} \begin{table}[tbt]\begin{center}\caption{チャット対話例}\label{tbl:chat}\begin{tabular}{cccl}\hline\hline発言ID&受信時刻&送信者名&\multicolumn{1}{c}{送信内容(発言)}\\\hline...&...&...&...\\24&23:01&A&もう少し早くやるべきだったのでは\\25&23:01&B&仕事ですか?\\26&23:01&C&すみませぬm(\_\_)m\\27&23:02&A&いえ\\28&23:02&A&ファンハール解任の話です\\29&23:02&C&インテル戦前にですか?\\30&23:02&A&いよいよ解任されそうって話です\\31&23:03&B&ファンファールのサッカーを\\32&23:03&B&出来る面子じゃありませんよ\\33&23:03&B&バルセロナは\\34&23:03&C&確かに\\...&...&...&...\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tbt]\centerline{\includegraphics{fig/chat_layeredstructure2relateness.eps}}\caption{チャット対話の対話構造モデル}\label{fig:chat_layeredstructure2relateness}\end{figure}我々は,Sinclairらの対話構造モデル\cite{Sinclair:92}を拡張し,チャット対話に適用した.表\ref{tbl:chat}のチャット対話例にこのモデルを適用した結果を図\ref{fig:chat_layeredstructure2relateness}に示す.Sinclairらは対話構造を,複数の階層から構成される対話のやりとりの構造としてモデル化している.まず,対話中の発言を相互行為上の機能(真偽を確かめる質問や確認など)によって定義される単位である{\bfアクト}と見なす.次に,\.同\.一\.話\.者による複数のアクトを,質問や応答などの対話の局所構造の中での機能を表現する{\bfムーブ}にまとめる.さらに,\.異\.な\.る\.話\.者によるムーブの間の関係(例えば,話者Aの質問に対する話者Bの応答)を考え,こうした関係にある複数のムーブのまとまりを{\bfエクスチェンジ}とする.Sinclairらのモデルは,対話の発言間の関係を捉える道具立てとしてチャット対話の構造解析にも有用であると考えられる.しかし,チャット対話にこのモデルをそのまま適用することは2つの理由で難しい.1つ目の理由は,処理の基本単位の違いである.Sinclairらの対話構造モデルでは,区切り送信によって生じた表\ref{tbl:chat}の31のような未完結な発言を想定しておらず,そうした発言の扱いが明らかでない.2つ目の理由は,ムーブ間の応答関係の交差の問題である.チャット対話では,表1の対話例の発言24と26のように,応答関係にあるムーブ同士が必ずしも隣接しない.Sinclairらのモデルはこの例のようにムーブ間の応答関係が交差する可能性を想定していない.我々は,Sinclairらのモデルを以下のように拡張する.区切り送信は発言権を相手に渡さないために起こるとされている\cite{Hosoma:00}.我々は,このような発言を発言権の保持を意図するアクトと見なし,モデルの基本単位を区切り送信によって区切られた個々の発言に変更する.また,ムーブ間の応答関係が交差する現象を表現できるよう,交差を許すモデルに拡張する.これらの拡張により,チャット対話特有の現象を含めて対話構造を表現することができるようになり,対話構造解析アルゴリズムの議論が可能になる.また,Sinclairらのモデルは,どのような発言(アクト)同士が継続関係をなしてムーブを構成するか,あるいはどのようなムーブ同士が応答関係をなしてエクスチェンジを構成するかに関する具体的な規定が示されておらず,この点も問題である.4節に詳述するように,本論文で提案する解析手法には,教師データとして対話構造を付与した信頼性の高いコーパスが必要である.このため,対話構造モデルをチャット対話データに適用するための具体的な指針が必要である.以下2.1節及び2.2節では,発言間の継続関係およびムーブ間の応答関係を新しく規定し,指針を示す.この結果,3節で述べるように,タグ付け作業者間の判断のゆれが少ない,信頼性の高い注釈つきコーパスを構築することができた.\subsection{継続関係の定義}ムーブを構成する同一話者による発言(アクト)間の関係を継続関係と呼ぶ.表\ref{tbl:chat}の例で言うと,発言31から33までの同一話者による一連の発言のまとまりがムーブであり,発言31と32の関係及び32と33の関係をそれぞれ継続関係と言う.一方,発言28と30は同一話者による発言であるが,それぞれ異なるムーブの構成素であり,この発言間には継続関係はないと考える.上で論じたように,本モデルでは区切り送信で区切られた発言を基本単位に変更したので,どのような発言同士が継続関係をなしてムーブを構成するかを新しく規定する必要がある.以下,継続関係にある発言(例えば発言27と28)において,前の発言(例えば発言27)を先行発言,後の発言(例えば発言28)を後続発言と呼ぶ.継続関係の定義は,人間が判断しやすいもので,かつ同定の自動化も容易なものでなければならない.本論文では新たに,統語的手がかりに基づいて,継続関係を助詞類型,接続詞類型,特殊表記型,名詞類型,倒置型,挿入節型の6つの型に分けて定義する.以下に示す継続関係の例では,統語的手がかりに下線をひく.\begin{description}\item{\boldmath$助詞類型:$}先行発言(a)の末尾表現が格助詞または接続助詞,読点であるといった局所的な情報から,先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を助詞類型を呼ぶ.\eenumsentence{\item[a)]Aさん:Bさん\underline{は}\item[b)]Aさん:技術がないからダメ.}\eenumsentence{\item[a)]Aさん:一生懸命やってるのですが\underline{、}\item[b)]Aさん:報われません}\item{\boldmath$接続詞類型:$}先行発言(a)の末尾表現が発言のはじまりを示す合図表現または接続詞,フィラー,感動詞,接続表現であるといった局所的な情報から,先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を接続詞類型と呼ぶ.\eenumsentence{\item[a)]Aさん:\underline{あのー、で}\item[b)]Aさん:Xって会社名、聞いたことある?}\item{\boldmath$特殊表記型:$}先行発言(a)の末尾表現が終助詞または助動詞などの文末表現であり,後続発言(b)の先頭表現がエモーティコンや引用記号を使った引用表現であるといった局所的な情報から,先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を特殊表記型と呼ぶ.\eenumsentence{\item[a)]Aさん:で,実際やめたけど\underline{ね}\item[b)]Aさん:\underline{(笑)}}\item{\boldmath$名詞型:$}先行発言(a)の末尾の形態素が名詞であり,名詞が数詞又は名詞の後に助詞が省略されていると判断でき先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を名詞型と呼ぶ.下の例では,先行発言(a)の名詞「S選手」の後に助詞が省略されていると判断できる.\eenumsentence{\item[a)]Aさん:\underline{S選手}\item[b)]Aさん:エースですよ}\item{\boldmath$倒置型:$}後続発言(b)の一部が先行発言(a)の一部に係ると判断できる場合を倒置型と呼ぶ.\eenumsentence{\item[a)]Aさん:エースですよ\item[b)]Aさん:\underline{マンチェスターでも}}\item{\boldmath$挿入節型:$}後続発言(b)が先行発言(a)に対しての言い換えや言い直し等の挿入節と判断できる場合を挿入節型と呼ぶ.下の例では,発言(a)から(c)にかけての同一話者による一連の発言が同一ムーブである.挿入型に限り,発言(a)と(b)及び発言(a)と(c)がそれぞれ継続関係にあるとする.つまり,継続関係が枝分かれすることになる.発言(b)と(c)の間には何ら統語的関係は認められないので,枝分かれ構造を仮定するのは自然である.また,厳密には挿入節とは言えないが,自分の発言に対する付加的発言,いわゆる自己レスも挿入型とする.自己レスは,例えば下の例の発言(a)と(b)のように,挿入型と同様の出現形態と判断できるからである.\eenumsentence{\item[a)]Aさん:勘違いしていると思いますが\item[b)]Aさん:\underline{変な文章だな(´Д`;)}\item[c)]Aさん:北の某大学は俺にとっちゃアントラーズみたいなもんです}\end{description}\subsection{応答関係の定義}エクスチェンジを構成する異なる話者によるムーブ間の関係を応答関係と呼ぶ.表\ref{tbl:chat}の例で言うと,発言31から33までのムーブAとそれと異なる話者による発言34からなるムーブBが応答関係にある.一方,発言30からなるムーブCとムーブAは発話者は異なるが,応答関係にはなく,異なるエクスチェンジに属する.本論文では,エクスチェンジの一般形\cite{Sinclair:92,Ishizaki:01}にしたがってムーブの機能を{\bf働きかけ},{\bf応答},{\bf補足},{\bf応答/働きかけ}の4つに分類し,ムーブ間の応答関係を規定する.エクスチェンジの構成規則は以下のように一般化されている\cite{Ishizaki:01}.*は0回以上の繰り返しを表す.\begin{description}\item{\boldmath$エクスチェンジの一般形:$}\begin{eqnarray*}[働きかけ]+([応答/働きかけ])+[応答]+[補足]*\end{eqnarray*}\end{description}この構成規則から,応答関係にあるムーブの機能の組合せとしては,[働きかけ]→[応答],[応答]→[補足],[補足]→[補足]の3通りが可能である.さらに我々は以下に述べるように,各ムーブを構成する発言の種類に基づいて,ムーブ間の応答関係をより詳細に制限する.まず,発言をアクトと呼ばれる下位分類に分類する.アクトの分類方法についてはすでにいくつかの提案がある.本研究では発話行為タグ\cite{Araki:99}を参考に表\ref{tbl:acts}に示す20種類のアクトを定義した.ただし,アクトが区切り送信によって複数の発言に分割されている場合は,それら複数の発言をまとめたものにアクトを与える.次に,どのようなムーブ同士が応答関係を構成し得るかに関する制約をムーブに含まれるアクトに基づいて表\ref{tbl:crp}のように与える.例(8)は,発言(a)と(b)からなるムーブAと発言(c)と(d)からなるムーブBとの応答関係である.発言(a)と(b)のアクトは区切り送信によって複数の発言に分割された真偽情報要求アクトである.一方,発言(c)は否定・拒否アクト,発言(d)は情報伝達アクトであり,ムーブBは2つのアクトからなる.表\ref{tbl:crp}から,真偽情報要求アクトを含むムーブと応答関係を構成し得るのは,肯定アクトあるいは否定・拒否アクト,不明な応答アクトを含むムーブである.\eenumsentence{\item[a)]Aさん:ベロンって[真偽情報要求]\item[b)]Aさん:まだラツィオにいるんだっけ?[(区切り送信)]\item[c)]Bさん:いや[否定・拒否]\item[d)]Bさん:彼はマンチェスターにいます。[情報伝達]}\begin{table}[tbt]\begin{center}\caption{ムーブの機能に対応する発言のアクト}\label{tbl:acts}\begin{tabular}{|c|c|l|}\hline\multicolumn{1}{|c|}{機能}&\multicolumn{1}{|c|}{アクト}&\multicolumn{1}{|c|}{定義}\\\hline\hline働きかけ&示唆&聞き手に対する行為の要求で,聞き手が諾否または何らかの応答を\\&&返す必要が必ずしもないもの\\&依頼&聞き手に対する行為の要求で,聞き手が諾否または何らかの応答を\\&&返す必要のあるもの\\&提案&両者で行う行為の提案で,聞き手が諾否または何らかの応答を返す\\&&必要が必ずしもないもの\\&勧誘&両者で行う行為の提案で,聞き手が諾否または何らかの応答を返す\\&&必要のあるもの\\&確認&話し手が文脈または何らかの知識から聞き手の応答に対して予測を\\&&持って発する質問\\&真偽情報要求&話し手が聞き手の応答に対する予測をもっていない質問で,「はい」\\&&または「いいえ」で答えられるもの\\&未知情報要求&話し手が聞き手の応答に対する予測をもっていない質問で,なんら\\&&かの値または表現を応答として要求するもの\\&約束・申し出&話し手の行為の提案\\&希望&話し手が目標とする状態を述べるもの\\&情報伝達&話し手の知識や意見,または話し手が事実と思っていることを述べ\\&&るもの\\&その他の言明&感謝・謝意の表明など\\&その他の働きかけ&対話の調整など\\&不明な働きかけ&働き掛けを意味する発言ではあるが,上記の分類には含まれない\\&&もの\\\hline応答&肯定・受諾&真偽情報要求に対してその命題内容を肯定する際の返答,および依\\&&頼や勧誘に対してその要求を受け入れることを示す際の返答\\&否定・拒否&真偽情報要求に対してその命題内容を否定する際の返答,および依\\&&頼や勧誘に対してその要求を受け入れないことを示す際の返答\\&未知情報応答&未知情報要求に対して,その値を与える発言\\&あいづち&相手の発言をうながす発言\\&不明な応答&応答を意図する発言ではあるが,上記の分類には含まれないもの\\\hline補足&了解&応答の後に続き,やりとりの目的が達成されたことを伝えるもの\\&不明な補足&補足の機能をもつが,上記の分類には含まれないもの\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\begin{center}\caption{応答関係にあるムーブの対応表}\label{tbl:crp}\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c|}{先行ムーブの機能}&\multicolumn{1}{|c|}{先行ムーブに含まれるアクト}&\multicolumn{1}{|c|}{後続ムーブに含まれるアクト}\\\hline\hline働きかけ&示唆&肯定・受諾,否定・拒否,不明な応答\\&依頼&肯定・受諾,否定・拒否,不明な応答\\&提案&肯定・受諾,否定・拒否,不明な応答\\&勧誘&肯定・受諾,否定・拒否,不明な応答\\&確認&肯定・受諾,否定・拒否,不明な応答\\&真偽情報要求&肯定・受諾,否定・拒否,不明な応答\\&未知情報要求&未知情報応答,不明な応答\\&約束・申し出&肯定・受諾,否定・拒否,不明な応答\\&希望&あいづち,不明な応答\\&情報伝達&肯定・受諾,否定・拒否,あいづち\\&&不明な応答\\&その他の言明&不明な応答\\&その他の働きかけ&不明な応答\\&不明な働きかけ&肯定・受諾,否定・拒否,未知情報応答\\&&あいづち,不明な応答\\\hline応答&肯定・受諾&了解,不明な補足\\&否定・拒否&了解,不明な補足\\&未知情報応答&了解,不明な補足\\&あいづち&了解,不明な補足\\&不明な応答&了解,不明な補足\\\hline補足&了解&了解,不明な補足\\&不明な補足&了解,不明な補足\\\hline\end{tabular}\end{center}\end{table} \section{実験用コーパス} 本研究では,教師付き機械学習を利用し,チャット対話の対話構造解析を行なう.そのために,訓練データとして対話構造を付与したコーパスが必要になる.しかし,これまでの研究では主に人手で作った規則を用いて解析する手法をとっていたため,訓練データとして使える大規模な対話構造付きコーパスは存在しない.そこで我々は,対話構造を付与したコーパスを作成した.\subsection{コーパスの元にしたデータ}本研究で使用するコーパスは,IRC(InternetRelayChat)で公開されているチャット対話データを独自に収集し,それを元に作成したものである.使用したチャットシステムは,CHOCOA\footnote{http://www.labs.fujitsu.com/freesoft/chocoa/}である.CHOCOAでは,分単位の受信時刻,送信者名,送信内容の3つ組が一度に送受信できる.本研究では,これを入力対話の基本単位とした.対話参加者の入退出の通知などチャットシステム自体が通知する発言は分析対象から除外した.収集した対話データは,2人対話34対話(5769発言中システム発言を除外した5180発言)と3人対話35対話(7439発言中システム発言を除外した6725発言)の合計69対話(13208発言中システム発言を除外した11905発言)である.発言者の異なりは27名であり,多くの話題は進路,サッカー,テレビゲームについてである.収録期間は約4カ月である.全発言に占める関係先を持つ発言数は表\ref{tbl:relrate4.1}の通りである.\begin{table}[tbt]\begin{center}\caption{全発言に占める関係先を持つ発言数}\label{tbl:relrate4.1}\begin{tabular}{|l|r|r|}\hline&2人対話&3人対話\\\hline継続関係先をもつ発言数&1635&1599\\\hline応答関係先をもつ発言数&500&589\\\hline総発言数&5180&6725\\\hline\end{tabular}\end{center}\end{table}\subsection{対話構造の表現方法}2節で提示した対話構造モデルをチャット対話データに付与したコーパスの一部を表\ref{tbl:exp4.1}に示す.コーパスの各項目について説明する.発言IDは各発言固有のIDである.関係先は,発言と関係を持つ発言のIDである.関係先の発言が複数考えられる場合(例えば,発言45,46,47のように,2つの質問発言に対して1発言で答えるもの)は両方の発言を関係先とする.関係名は,継続関係,応答関係のいずれかであり,関係先を持たない場合は空欄にする.継続型は2.1節の継続関係のタイプ,アクトは2.2節の表\ref{tbl:acts}で示したアクトを表す.発言31,32,33のように,区切り送信によって一つのアクトが複数の発言に分割されたと考えられる場合は,先頭の発言(例えば,発言31)にアクトを付与する.受信時刻は発言を受信した時間,送信者は発言者名,送信内容は発言内容を指す.\begin{table}[tbt]\footnotesize\begin{center}\caption{チャット対話の対話構造を付与したコーパス}\label{tbl:exp4.1}\begin{tabular}{cccccccl}\hline\hline発言ID&関係先&関係&継続型&アクト&受信時刻&送信者&\multicolumn{1}{c}{送信内容}\\\hline...&...&...&...&...&...&...&...\\24&-&-&-&真偽情報要求&23:01&A&もう少し早くやるべきだったのでは\\25&-&-&-&真偽情報要求&23:01&B&仕事ですか?\\26&24&応答&-&真偽情報応答&23:01&C&すみませぬm(\_\_)m\\27&25&応答&-&真偽情報応答&23:02&A&いえ\\28&27&継続&接続詞類型&情報伝達&23:02&A&ファンハール解任の話です\\29&-&-&-&真偽情報要求&23:02&C&インテル戦前にですか?\\30&29&応答&-&真偽情報応答&23:02&A&いよいよ解任されそうって話です\\31&-&-&-&情報伝達&23:03&B&ファンファールのサッカーを\\32&31&継続&助詞類型&(区切り送信)&23:03&B&出来る面子じゃありませんよ\\33&32&継続&倒置型&(区切り送信)&23:03&B&バルセロナは\\34&31&応答&-&あいづち&23:03&C&確かに\\...&...&...&...&...&...&...&...\\45&-&-&-&真偽情報要求&23:15&A&Cさんいたりしない?\\46&-&-&-&真偽情報要求&23:16&A&Dさんとか?\\47&45,46&応答&-&真偽情報応答&23:16&B&さあ\\...&...&...&...&...&...&...&...\\\hline\end{tabular}\end{center}\end{table}コーパスの信頼性をタグ(関係先ID及び関係名)の一致率で評価した.評価尺度としてκ値(KappaStatistics)を採用した.コーパスから取り出した3人対話837発言について2人の作業者がそれぞれタグを付与し,κ値を求めた結果は\boldmath{$0.762$}であった.この結果から,2節で論じた継続関係,応答関係の基準によって,比較的信頼性の高い注釈付きコーパスが構築できたと言える.得られたデータは提案手法の評価対象としても信頼に足るものであると判断した. \section{提案手法} \subsection{対話構造解析アルゴリズム}入力対話に対し,対話の先頭の発言から最末の発言にかけて順番に解析する.提案した対話構造の階層モデルに従い,まず継続関係の同定を入力対話全てに対して試み,発言をムーブにまとめあげる.その後,ムーブ間の応答関係を同定し,ムーブをエクスチェンジにまとめあげる.本手法では,ムーブ間の応答関係を同定する際には,ムーブを構成する全ての発言を素性の抽出対象とするため,ボトムアップに対話構造を解析する手法を用いた.\begin{figure}[tbt]\centerline{\includegraphics{fig/identify_relateness3.eps}}\caption{継続先発言の同定手順}\label{fig:identify_relateness3}\end{figure}\subsubsection{継続関係の同定}入力対話に対し,対話の先頭の発言から最末の発言までを走査しながら,その位置での発言(以下,{\bf対象発言}と呼ぶ)ごとに次のステップに従って処理を進める.\begin{description}\item{\bfステップ1:継続先発言候補の抽出}継続関係にある発言が対象発言に隣接しているとは限らないため,対象発言から$n$発言前までの対象発言と同一話者の発言とのペアを全て抽出する.一つの対象発言に対する$n$個の異なる先行発言とのペアの集合を候補ペア集合とする.\item{\bfステップ2:継続先発言の決定}分類器は,表\ref{tbl:features}に示す素性集合を利用して,候補ペア集合に含まれるすべてのペアに対して継続関係があるか否かを分類する.複数のペアが関係ありと分類された場合は,分類器の出力するスコア(確信度)の一番高いペアに一意に決定する.候補のペア全てが関係なしと分類された場合,対象発言には継続関係にある先行発言が存在しないとする.つまり,対象発言はムーブを構成する先頭の発言と同定される.表\ref{tbl:features}については4.3節で詳述する.\end{description}表\ref{tbl:chat}の対話を例に継続関係の同定手順を図\ref{fig:identify_relateness3}に示す.図は対象発言が28,先行発言の参照数$n$が4の場合を表している.まず,対象発言と同一話者による発言である24と27の発言とのペアを候補ペアとして抽出し,分類する.分類後,発言24と28及び27と28のペアと複数のペアが関係ありと分類されるが,スコアを比較した結果,27と28のペアが継続関係となる.\begin{figure}[tbt]\centerline{\includegraphics{fig/identify_OTOrelateness.eps}}\caption{応答先ムーブの同定手順}\label{fig:identify_OTOrelateness}\end{figure}\subsubsection{応答関係の同定}入力対話に対し,対話の先頭のムーブから最末のムーブまでを走査しながら,その位置でのムーブ(以下,{\bf対象ムーブ}と呼ぶ)ごとに次のステップに従って処理が進む.\begin{description}\item{\bfステップ1:応答先ムーブ候補の抽出}応答関係にあるムーブが対象ムーブに隣接しているとは限らないため,対象ムーブから$n$ムーブ前までの対象ムーブと異なる話者のムーブとのペアをすべて抽出する.一つの対象ムーブに対する$n$個の異なる先行ムーブとのペアの集合を,候補ペア集合とする.\item{\bfステップ2:応答先ムーブの決定}分類器は,表\ref{tbl:features}に示す素性集合を利用して,候補ペア集合に含まれるすべてのペアに対して応答関係があるか否かを分類する.複数のペアが関係ありと分類された場合は,分類器が出力するスコア(確信度)の一番高いペアに一意に決定する.候補のペア全てが関係なしと分類された場合,対象ムーブには応答関係にある先行ムーブが存在しないとする.つまり,対象ムーブがエクスチェンジを構成する先頭のムーブと同定される.\end{description}表\ref{tbl:chat}の対話を例に応答関係の同定手順を図\ref{fig:identify_OTOrelateness}に示す.図は対象ムーブが34(この事例では,発言34のみがムーブを構成する発言),先行発言の参照数$n$が7の場合を表している.対象ムーブと異なる話者によるムーブ(27,30,31の発言が各ムーブを構成する発言の中で,先頭の発言)のペアを候補ペアとして抽出し,分類する.結果,31と34の発言を含むムーブのペアが応答関係となる.\subsection{分類器}本手法では,素性として複数の発言の形態素情報の2つ組の組合せを全て考えるため,素性の異なりは数万となり分類器への入力ベクトルは高次元になる.そこで,分類器には,素性集合の冗長性に対して比較的頑健な性質を持つサポートベクタマシン\cite{Vapnik1995a}を利用した.スコア(確信度)としては分離平面からの距離を用いた.訓練時には,継続関係及び応答関係の同定処理のステップ1と同じ処理を行ない獲得した各ペアから表\ref{tbl:features}に示す素性集合を抽出し,各訓練事例とする.素性集合は継続関係及び応答関係で異なる.\subsection{素性}表\ref{tbl:features}に示す素性について説明する.表中及び文中の略表記はそれぞれ,CRRuは対象発言.CRRmは対象ムーブ.PREuは先行発言.PREmは先行ムーブ.NANu\_sは対象発言と先行発言の間にある対象発言に最寄りの同一話者の発言.NANm\_sは対象ムーブと先行ムーブの間にある対象ムーブに最寄り同一話者のムーブ.NANm\_dは対象ムーブと先行ムーブの間にある最寄りの対象ムーブと異なる話者のムーブ.NBNu\_sは対象発言の発言時間から1分以内に発言された最寄りの対象発言と同一話者の発言.を表す.\begin{description}\item{\bf発言に含まれる形態素情報:crr\_o,pre\_o,nan\_o,nbn\_o}発言CRRu,NBNu\_sの先頭の一形態素情報と発言CRRu,PREu,NANu\_sの末尾の一形態素情報をそれぞれ素性とする.形態素の異なりの数だけ素性がある.\item{\bf発言の末尾の表層表現:lw}発言CRRu,PREuの末尾の表層表現が句点または読点,クエスチョンマークであるか否かの2値を素性とする.\item{\bf発言間の発言時刻の差:time}CRRuとPREu間の発言時刻の差が2分以上離れているか否かの2値を素性とする.\item{\bf発言間の結束度:coh}本研究で言う結束度は,発言同士のムーブ単位へのまとまりやすさを表す.CRRuとPREu間及びCRRuとNBNu\_s間の結束度を計り,どちらのペアの結束度が強いかの2値を素性とする.強さが同じであった場合は,CRRuとPREu間の結束度が強いとする.結束度の強さは,個々のペアの$\langlen(名詞),rel(助詞),v(動詞)\rangle$の共起確率$P(\langlen,rel,v\rangle)$の大きさで計る.共起確率の求め方の詳細については付録を参照されたい.\item{\bfムーブに含まれるアクト:crr\_a,pre\_a,nans\_a,nand\_a}素性の抽出対象となる各発言が表\ref{tbl:acts}に示したアクトを含むか否かを表すバイナリベクタ.アクトは,あらかじめ定義した表層表現パタンとの対応を示すテーブルを用いて推定し,20種のアクトラベルを用いて表現する.このテーブルは,作成したコーパスの837事例を観察し,ムーブに含まれるアクトとムーブの表層表現を元に作成した.このテーブルをアクト辞書と呼び,内容の一部を表\ref{tbl:dic1}に示す.実験に用いたアクト辞書は,108個の表層表現パタンを持つ.複数のアクトラベルが記述されているものは,行為の多義があることを示す.\begin{table}[tbt]\begin{center}\caption{素性と抽出対象}\begin{tabular}{|c|l|l|l|}\hline&抽出対象&\multicolumn{2}{|l|}{CRRu,PREu,NANu\_s,NBNu\_s}\\\cline{2-2}\cline{3-3}\cline{4-4}継続&素性&単体&発言CRRuの先頭と末尾の形態素情報:crr\_o\\&&&発言PREuの末尾の形態素情報:pre\_o\\&&&発言NANu\_sの先頭と末尾の形態素情報:nan\_o\\&&&発言NBNu\_sの先頭の形態素情報:nbn\_o\\&&&発言CRRu,PREuの末尾の表層表現:lw\\\cline{3-4}&&二項間&発言間の結束度:coh\\&&&CRRu,PREu間の発言時刻の差:time\\\hline&抽出対象&\multicolumn{2}{|l|}{CRRm,PREm,NANm\_s,NANm\_d}\\\cline{2-2}\cline{3-3}\cline{4-4}応答&素性&単体&ムーブCRRmに含まれるアクト:crr\_a\\&&&ムーブPREmに含まれるアクト:pre\_a\\&&&ムーブNANm\_sに含まれるアクト:nans\_a\\&&&ムーブNANm\_dに含まれるアクト:nand\_a\\&&&ムーブCRRm,PREmの末尾の表層表現:lw\\\cline{3-4}&&二項間&CRRm,PREm間の名詞または動詞,形容詞いずれかの一致:match\\&&&CRRm,PREm間の発言時刻の差:time\\\hline\end{tabular}\label{tbl:features}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{アクト辞書}\label{tbl:dic1}\begin{tabular}{l|l}\hline表層表現パタン&\multicolumn{1}{c}{アクトラベル}\\\hlineはい&[肯定・許諾][あいづち]\\ほう&[あいづち]\\できるの&[真偽情報要求]\\だよね&[確認]\\したい&[希望]\\...&...\\\hline\end{tabular}\end{center}\end{table}\item{\bfムーブの末尾の表層表現:lw}ムーブCRRm,PREmを構成する発言の中で一番最後の発言の末尾の表層表現がクエスチョンマークであるか否かの2値を素性とする.\item{\bfムーブ間の名詞または動詞,形容詞いずれかの一致:match}ムーブCRRm,PREmに含まれる名詞,動詞または形容詞のいずれかが一致するか否かの2値を素性とする.\item{\bfムーブ間の発言時刻の差:time}ムーブCRRm,PREmを構成する先頭の発言の発言時刻の差が5分以上離れているか否かの2値を素性とする.\end{description} \section{評価実験} \subsection{実験環境}実験には,本研究で作成したチャット対話コーパス(2節で述べた対話構造モデル及び指針作成,アクト辞書作成で分析対象とした837事例を除いた計11028事例)を用いた.事前にすべての発言に対して茶筌\cite{Matsumoto:02}を利用し形態素解析を行なった.結果の妥当性・再現性を高めるために5分割交差検定を行なった.素性の組合せも同定規則として採り入れるため,分類器(サポートベクタマシン)のカーネル関数として2次の多項式カーネルを用いた.参照する先行発言数は解析時及び訓練時共に,継続関係で7,応答関係で8発言とした.これはコーパスにある発言から最も遠い関係先までの発言数である.解析時に対象発言からいくつ先の発言までとのペアを考えるかという参照先数のパラメタ最適化の問題があるが,今回は扱わなかった.\subsection{調査項目}本手法及びベースラインの手法による対話構造の解析精度について調査した.2.1節及び2.2節で詳述した継続型や,ムーブに含まれるアクトまでは同定しない.この分類は,3節で詳述したコーパス作成の指針,4.3節で詳述したアクト辞書の作成時,および実験結果の分析作業で利用した.ベースラインの手法では,入力対話の先頭から最末の発言までを走査しながら,(ステップ1)対象発言と対象発言に最寄りの同一話者による先行発言が継続関係にあるとみなし,(ステップ2)正しい継続関係先を与えた状態で,対象ムーブとそれに最寄りの異なる話者の先行ムーブが応答関係にあるとみなし,対話構造を解析する.継続関係と応答関係の同定実験の結果は,精度及び再現率,F値で評価した.対話構造全体の解析結果は一致率で評価した.関係先が複数ある発言では,いずれかひとつと一致した場合を正解とした.\vspace{-0.4cm}\begin{eqnarray*}精度&=&\frac{\mbox{\small解析器が関係同定に成功した事例数}}{\mbox{\small解析器が関係を持つと判断した事例数}}\end{eqnarray*}\vspace{-0.9cm}\begin{eqnarray*}再現率&=&\frac{\mbox{\small解析器が関係同定に成功した事例数}}{\mbox{\small実際に関係を持つ事例数}}\end{eqnarray*}\vspace{-0.9cm}\begin{eqnarray*}一致率&=&\frac{\mbox{\small解析器が特定した関係先がコーパスの正解タグと一致した発言の総数}}{\mbox{\smallコーパス中の発言の総数}}\end{eqnarray*}\subsection{実験結果}本手法とベースラインの手法による対話構造の解析結果を比較することにより,本手法の有効性を評価した.対話構造全体の解析結果を表\ref{tbl:tree5.1}に示す.BL2p及びBL3pは2人対話及び3人対話データにベースラインの手法を適用した結果,提案2p及び提案3pは2人対話及び3人対話データに本手法を適用した結果である.一致率は,2人対話及び3人対話それぞれにおいて,本手法がベースラインの手法を上回っている.継続関係及び応答関係の同定結果を表\ref{tbl:result2}に示す.継続関係にある発言の多くは隣接しているため,BL2p,BL3pの再現率は高い.しかし,互いに隣接する発言でも実際には継続関係を持たない場合もあるため,精度は低い.これに対し本手法では,継続関係を持たない発言間の関係も同定しているため,精度も高くなっている.応答関係の同定における再現率は,継続関係のものと比べて低い.5.4節で詳述するように,特に情報伝達や真偽情報要求,未知情報要求アクトを含むムーブとの応答関係同定の失敗が再現率を大きく下げる原因となっている.しかしながら,精度については,BL2p,BL3pに比べ本手法が大きく上回った.アクト辞書を用いてムーブに含まれるアクトを推定することで,適切な応答関係を同定できたと言える.アクト辞書によるアクト推定を行なわなかった場合の精度,再現率,F値はそれぞれ2人対話で0.633,0.169,0.266,3人対話で0.690,0.117,0.200であった.ここで,2人対話と3人対話それぞれの同定精度がほぼ同程度であったことは興味深い.この理由としては,3人対話において2人の情報交換が支配的であったことが関係していると考えられる.このような現象は音声対話においても報告されている\cite{Ishizaki:99}.以上の結果から,本タスクは単純な方法で解けるほど簡単な問題ではないが,アルゴリズムを工夫すれば自動化の実現性が十分にある問題であることが分かる.こうした問題に取り組みその実現可能性を実証した例は我々の知る限り過去にない.\subsection{結果に対する考察}\subsubsection{継続関係の同定性能}\begin{table}[tbt]\small\begin{center}\caption{対話構造の一致率}\label{tbl:tree5.1}\begin{tabular}{|l|c|c||c|c|}\hline&BL2p&提案2p&BL3p&提案3p\\\hline一致率&.334&\boldmath{$.874$}&.265&\boldmath{$.846$}\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[tbt]\small\begin{center}\caption{継続関係及び応答関係の同定結果}\label{tbl:result2}\begin{tabular}{cc}継続関係の同定結果&応答関係の同定結果\\\begin{tabular}{|l|c|c||c|c|}\hline&BL2p&提案2p&BL3p&提案3p\\\hline精度&.381&\boldmath{$.914$}&.348&\boldmath{$.927$}\\再現率&\boldmath{$.985$}&.909&\boldmath{$.986$}&.881\\F値&.549&\boldmath{$.912$}&.515&\boldmath{$.903$}\\\hline\end{tabular}&\begin{tabular}{|l|c|c||c|c|}\hline&BL2p&提案2p&BL3p&提案3p\\\hline精度&.098&\boldmath{$.743$}&.131&\boldmath{$.743$}\\再現率&\boldmath{$.613$}&.418&\boldmath{$.682$}&.361\\F値&.169&\boldmath{$.535$}&.220&\boldmath{$.486$}\\\hline\end{tabular}\\\end{tabular}\end{center}\end{table*}継続関係の同定における継続型毎の再現率を表\ref{tbl:cont_2_inve5.2}に示す.今回の実験では,継続型までは同定していないため,精度,及びF値を求めることはできなかった.表\ref{tbl:cont_2_inve5.2}に示すとおり,特殊表記型と倒置型,挿入型の再現率が他の型に比べて低い.このうち,倒置型と挿入型の誤りは頻度も少なくなく,無視できない.\begin{description}\item{\boldmath$倒置型:$}187件のうち,約3割を再現できなかった.このうち12件は,事例(9)のように,$\langlen,rel,v\rangle$の3つ組(4.3節「発言間の結束度」の項を参照)だけでは発言間の結束度を判断しにくい場合であった.このため,発言bと発言cが継続関係にあるという間違った判断をした事例も多く観察された.これは,共起確率モデルに取り入れる事例を拡張することで改善できると考えられる.$\langlen,rel,v\rangle$の3つ組だけではなく,$\langleポジションチェンジ,オーバーラップ\rangle$といった$\langlen(名詞),n(名詞)\rangle$等の共起確率も考慮する.また,助詞「は」の二重使用はペナルティを与えるといった文法上の制約を取り入れることも考えられる.\eenumsentence{\item[a)]Aさん:ポジションチェンジなんですよね\item[b)]Aさん:\underline{向こうのオーバーラップは}[関係先:(a),関係名:継続(倒置型)]\item[c)]Aさん:攻めきれない時はどうするんだろ}\item{\boldmath$挿入型:$}87件のうち,約3割を再現できなかった.このうち11件は,事例(10)のように,表層表現からは判断しにくい場合であった.文末表現(例えば,「〜ですか?」や「〜か」)をもつ発言間には継続関係がない場合が本コーパス中には多い.このため,訓練事例中に正例と負例が混在し,関係同定に教師あり学習器を利用した本手法ではうまく扱えなかった.このような事例を扱える素性を考える必要がある.\eenumsentence{\item[a)]Aさん:受けた仕事はどうするん\underline{ですか?}\item[b)]Aさん:まだ受けてなかった\underline{か}[関係先:(a),関係名:継続(挿入型)]}また,事例(11)のような,誤字の修正を意図した発言との同定を誤る場合も少なくなかった.このような事例では,発言a,b間における文節(例えば,「服にしですが」と「福西ですが」)を同定し,文字列間の類似度を利用することが考えられる.\eenumsentence{\item[a)]Aさん:個人的には\underline{服にしですが}\item[b)]Aさん:\underline{福西ですが}[関係先:(a),関係名:継続(挿入型)]}\end{description}\begin{table}[tbt]\small\begin{center}\caption{継続型毎の継続関係の再現率}\label{tbl:cont_2_inve5.2}\begin{tabular}{|l|c|r||c|r|}\hline\multicolumn{1}{|c|}{継続型}&提案2p&発言数&提案3p&発言数\\\hline助詞類型&.948&1021&.921&937\\接続詞類型&.851&215&.822&191\\特殊表記型&.833&6&.857&7\\名詞型&.903&62&.791&86\\倒置型&.735&102&.698&86\\挿入型&.755&49&.789&38\\\hline\end{tabular}\end{center}\end{table}\subsubsection{応答関係の同定性能}応答関係については,再現率,精度とも継続関係に比べて劣っている.これについては,まずタスク自身の難しさが理由の一つとして考えられる.3.2節で述べたように,本研究ではコーパスに付与したタグの信頼性を2人の作業者の一致率で評価したが,もう少し詳しく見ると,継続関係のκ値0.825に対し,応答関係のκ値は0.634であり,継続関係と比べると応答関係の同定は人間にとっても難しい作業であることがわかる.つぎに,ムーブに含まれるアクト毎の応答関係の再現率を表\ref{tbl:res5.2.1},表\ref{tbl:res5.2.2}に示す.横軸はデータセットを表し,縦軸はムーブに含まれるアクト毎の応答関係を表す.縦軸で,ブラケットで囲まれた2つの部分のうち,左の部分は,先行ムーブに含まれるアクトであり,右は後続ムーブに含まれるアクトである.表\ref{tbl:res5.2.1}のブラケットの中の”$all$”は,表\ref{tbl:acts}で示した全てのアクトを意味する.表\ref{tbl:res5.2.2}は,表\ref{tbl:res5.2.1}のうち事例の多かった情報伝達および真偽情報要求,未知情報要求アクトを先行ムーブに含む場合の再現率をさらに詳しく分析したものである.ムーブに複数のアクトが含まれる場合は,ムーブを構成する先頭の発言のアクトのみをカウントした.表\ref{tbl:res5.2.1},表\ref{tbl:res5.2.2}に示すとおり,全体的な再現率は高くはない.このうち,情報伝達と真偽情報要求,未知情報要求アクトを先行ムーブに含む応答関係は頻度も少なくなく,無視できない.\begin{table}[tbt]\small\begin{center}\caption{アクト毎の応答関係の再現率}\label{tbl:res5.2.1}\begin{tabular}{|l|c|r||c|r|}\hline\multicolumn{1}{|c|}{アクト}&提案2p&関係数&提案3p&関係数\\\hline$[勧誘][all]$&.500&2&-&0\\$[依頼][all]$&.167&6&.000&1\\$[確認][all]$&.333&24&.360&25\\$[示唆][all]$&.200&5&.000&4\\$[提案][all]$&.000&1&1&1\\$[情報伝達][all]$&.432&185&.330&270\\$[肯定・受諾][all]$&.100&10&.000&8\\$[否定・拒否][all]$&.143&7&.231&13\\$[不明な応答][all]$&.500&5&.333&12\\$[真偽情報要求][all]$&.544&79&.547&75\\$[未知情報応答][all]$&.500&6&.333&12\\$[未知情報要求][all]$&.460&50&.442&52\\$[約束・申し出][all]$&.000&1&.000&1\\$[その他の言明][all]$&.000&3&-&0\\$[その他の働き掛け][all]$&.000&3&.500&10\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{アクト毎の応答関係の再現率(一部)}\label{tbl:res5.2.2}\begin{tabular}{|l|c|r||c|r|}\hline\multicolumn{1}{|c|}{アクト}&提案2p&関係数&提案3p&関係数\\\hline$[情報伝達][あいづち]$&.491&114&.345&168\\$[情報伝達][肯定・受諾]$&.667&36&.267&60\\$[情報伝達][否定・拒否]$&.167&12&.179&28\\$[情報伝達][不明な応答]$&.900&20&.714&14\\$[真偽情報要求][あいづち]$&.000&1&-&0\\$[真偽情報要求][肯定・受諾]$&.667&33&.500&36\\$[真偽情報要求][否定・拒否]$&.385&26&.583&24\\$[真偽情報要求][不明な応答]$&.500&19&.583&12\\$[未知情報要求][あいづち]$&-&0&.000&1\\$[未知情報要求][不明な応答]$&.667&3&.600&5\\$[未知情報要求][未知情報応答]$&.447&47&.444&45\\\hline\end{tabular}\end{center}\end{table}\begin{description}\item{\boldmath$情報伝達:$}情報伝達アクトを先行ムーブに含む応答関係455件のうち,約6割を再現できなかった.事例の多くは,例(12)のような後続ムーブを構成する発言のアクトがあいづちであるムーブとの応答関係であった.実験では,4.3節で述べたようにアクト辞書を人手で作成しているため,例(12)のような表記のゆれには対応仕切れない.文字列毎の一致から類似度を計り,表記の揺れを吸収するといった拡張が必要である.\eenumsentence{\item[a)]Aさん:狭いスペースでやらないと駄目なんすよ[情報伝達]\item[b)]Bさん:なるほろ[関係先:(a),関係名:応答(あいづち)]}\item{\boldmath$真偽情報要求:$}真偽情報要求アクトを先行ムーブに含む応答関係154件のうち,約5割を再現できなかった.多くは,肯定・承諾や否定・拒否を明示する表現(「はい」や「いいえ」など)が使われていないムーブであり,アクト辞書だけではアクトを推定できない事例であった.このため,再現率が低くなったと考える.例(13)のように,否定・拒否を意図する表現が明示的されていない場合がある.発言者Aの「オフシーズンはあるのか?」という真偽情報要求に対して,発言者Bは「正月もイベントです」と答えている.このムーブは,「多くの人が休むであろう正月にもイベントをやるのだから,オフシーズンはない」という否定・拒否を暗示している.\eenumsentence{\item[a)]Aさん:オフシーズンってのがあるんですか?[真偽情報要求]\item[b)]Bさん:正月もイベント参加です[関係先:(a),関係名:応答(否定・拒否)]}こうした事例に対応するには,常識的知識と複雑な推論が必要であると考えられる.表層的な手がかりを使った統計的学習によるアプローチの限界を示すものと言えるかもしれない.\item{\boldmath$未知情報要求:$}未知情報要求アクトを先行ムーブに含む応答関係102件のうち,約5割を再現できなかった.しかし我々は,再現率の低さはもっと深刻になると予想していた.本手法では,アクト辞書を用いて各ムーブに含まれるアクトを推定し素性とすることは可能であるが,未知情報応答発言におけるいわゆる5W1Hを推定することはできない.にも関わらず,このような再現率及び精度が得られたことは興味深い.本手法では,例(14)の発言(ムーブ)(b),(d)間のような未知情報要求アクトを含むムーブと未知情報応答アクトを含むムーブ間の応答関係を同定するための特別な処理は行なっていない(「誰が来たの?」という発言が人の情報を要求していることを推定していない).応答関係にあるムーブ同士の近接性や,ムーブ間の動詞が一致していることが同定に役立ったと考えられる.\eenumsentence{\item[a)]Aさん:\underline{うちの大学は}\item[b)]Bさん:\underline{K大から誰が来たの?}[未知情報要求]\item[c)]Aさん:\underline{大丈夫らしいです}[関係先:(a),関係名:継続(助詞型)]\item[d)]Aさん:\underline{凄く優秀な助手が来ました}[関係先:(b),関係名:応答(未知情報応答)]}\end{description}\subsection{各素性の有効性について}4.3節で詳述した素性全てを使用して作成した解析器を用いた同定結果と1つの素性を省いた残りの素性を用いた同定結果とを比較し,省いた素性が関係同定にどの程度有効かを考察する.表\ref{tbl:featureAnalysys_cont}は,解析器作成で使用した素性の組み合わせ毎の継続関係の同定精度,再現率,F値を表している.素性を削除して精度等が下がる場合は,削除した素性は関係同定に有効であると考えられる.表中の略表記の意味は4.3節及び表\ref{tbl:features}を参照されたい.precは精度.recは再現率.fはF値を表す.なお,全ての素性の組み合わせc0は,本手法で使用した素性の組み合わせである.\begin{table}[tbt]\footnotesize\begin{center}\caption{素性の組み合わせと継続関係の同定性能}\label{tbl:featureAnalysys_cont}\begin{tabular}{|c|ccccccc|rrr|rrr|}\hline\multicolumn{1}{|c|}{}&\multicolumn{7}{|c|}{素性の組み合わせ}&\multicolumn{3}{|c|}{2人対話}&\multicolumn{3}{|c|}{3人対話}\\\hline&crr\_o&pre\_o&nan\_o&nbn\_o&lw&coh&time&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}\\\hlinec0&○&○&○&○&○&○&○&\boldmath{$.914$}&\boldmath{$.909$}&\boldmath{$.912$}&.926&\boldmath{$.882$}&\boldmath{$.903$}\\c1&×&○&○&○&○&○&○&.845&.759&.800&.876&.729&.796\\c2&○&×&○&○&○&○&○&.779&.839&.808&.817&.758&.786\\c3&○&○&×&○&○&○&○&.911&.905&.908&.924&.878&.900\\c4&○&○&○&×&○&○&○&.895&.874&.884&.905&.828&.864\\c5&○&○&○&○&×&○&○&.907&.902&.904&\boldmath{$.928$}&.869&.898\\c6&○&○&○&○&○&×&○&.912&\boldmath{$.909$}&.911&.925&.880&.902\\c7&○&○&○&○&○&○&×&.908&.903&.905&.918&.867&.892\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{素性の組み合わせと継続型毎の再現率(2人対話)}\label{tbl:cont-featureByType-2}\begin{tabular}{|l|cccccccc|}\hline\multicolumn{1}{|c|}{継続型}&c0&c1&c2&c3&c4&c5&c6&c7\\\hline助詞類型&.948&.860&.868&.946&.921&.948&.950&.949\\接続詞類型&.851&.716&.786&.847&.833&.833&.851&.847\\特殊表記型&.833&.167&.667&.667&.667&.667&.833&.667\\名詞型&.903&.565&.758&.903&.823&.871&.903&.823\\倒置型&.735&.206&.794&.725&.608&.725&.725&.696\\挿入節型&.755&.306&.714&.735&.735&.755&.755&.755\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:featureAnalysys_cont}から,全ての素性を用いた組み合わせc0を用いた場合のF値が2人対話,3人対話共に一番高いことがわかる.また,ほぼ素性crr\_o,pre\_o,nbn\_oの順に関係同定に寄与していることがわかる.表\ref{tbl:cont-featureByType-2}からは,各素性がどの種類の関係同定に寄与しているかを見ることができる.なお,3人対話の結果は,2人対話と傾向が似ていたため割愛する.crr\_oは,特殊表記型,倒置型および挿入節型で特に効果がある.2.1節の事例からもわかるように,対象発言の先頭と末尾の形態素情報といった統語的手がかりが関係同定に有用であったと考えられる.pre\_oは助詞類型,接続詞類型で特に効果がある.2.1節の事例からもわかるように,先行発言の末尾の形態素情報といった統語的手がかりが関係同定に有用であったと考えられる.しかし一方で,倒置型の同定には悪影響を及ぼしている.例(15),(16)のように,先行発言の末尾の形態素情報が同じ発言でも継続関係を持つ場合と持たない場合が本コーパス中には多い.このため,訓練事例中に正例と負例が混在し,関係同定に教師あり学習器を利用した本手法ではうまく扱えず,再現率を下げたと考えられる.\eenumsentence{\item[a)]Aさん:出来る面子じゃありませんよ\item[b)]Aさん:バルセロナ\underline{は}[関係先:(a),関係名:継続(倒置型)]}\eenumsentence{\item[a)]Aさん:そうは思いません\item[b)]Aさん:ベッカム\underline{は}\item[c)]Aさん:移籍しますよ[関係先:(b),関係名:継続(助詞型)]}nbn\_oは倒置型の同定に効果がある.例(17)のようにNBNu\_sの先頭の形態素がムーブの先頭を表す接続詞類と考えられるものであった場合,対象発言と先行発言が継続関係にあるという判断に効果があったと考えられる.\eenumsentence{\item[a)]Aさん:ポジションチェンジなんですよね\item[b)]Aさん:向こうのオーバーラップは[関係先:(a),関係名:継続(倒置型)]\item[c)]Aさん:\underline{ところで}、}次に,応答関係の場合について述べる.表\ref{tbl:featureAnalysys_res}は,解析器作成で使用した素性の組み合わせ毎の応答関係の同定精度,再現率,F値を表している.表中の略表記の意味は4.3節及び表\ref{tbl:features}を参照されたい.なお,全ての素性の組み合わせr0は,本手法で使用した素性の組み合わせである.\begin{table}[tbt]\footnotesize\begin{center}\caption{素性の組み合わせと応答関係の同定性能}\label{tbl:featureAnalysys_res}\begin{tabular}{|c|ccccccc|rrr|rrr|}\hline\multicolumn{1}{|c|}{}&\multicolumn{7}{|c|}{素性の組み合わせ}&\multicolumn{3}{|c|}{2人対話}&\multicolumn{3}{|c|}{3人対話}\\\hline&crr\_a&pre\_a&nans\_a&nand\_a&lw&match&time&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}\\\hliner0&○&○&○&○&○&○&○&.743&.418&.535&.743&\boldmath{$.361$}&\boldmath{$.486$}\\r1&×&○&○&○&○&○&○&.672&.191&.297&.705&.159&.260\\r2&○&×&○&○&○&○&○&.729&.389&.507&.707&.327&.447\\r3&○&○&×&○&○&○&○&.727&.411&.525&.741&.357&.482\\r4&○&○&○&×&○&○&○&.738&.421&.536&\boldmath{$.764$}&.353&.483\\r5&○&○&○&○&×&○&○&\boldmath{$.816$}&.281&.418&.746&.254&.379\\r6&○&○&○&○&○&×&○&.746&.423&\boldmath{$.540$}&.712&.349&.468\\r7&○&○&○&○&○&○&×&.724&\boldmath{$.430$}&\boldmath{$.540$}&.750&.357&.484\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{アクト毎の応答関係の再現率2人対話}\label{tbl:res-featureByType-2}\begin{tabular}{|l|cccccccc|}\hline\multicolumn{1}{|c|}{アクト}&r0&r1&r2&r3&r4&r5&r6&r7\\\hline$[勧誘][all]$&.500&.500&.000&.000&.500&.500&.000&.500\\$[依頼][all]$&.167&.167&.000&.167&.167&.167&.000&.167\\$[確認][all]$&.333&.125&.167&.333&.333&.167&.292&.333\\$[示唆][all]$&.200&.000&.200&.200&.200&.200&.200&.200\\$[提案][all]$&.000&.000&.000&.000&.000&.000&.000&.000\\$[情報伝達][all]$&.432&.027&.405&.405&.422&.427&.438&.432\\$[肯定・受諾][all]$&.100&.100&.100&.100&.100&.000&.100&.100\\$[否定・拒否][all]$&.143&.000&.143&.143&.143&.143&.143&.143\\$[不明な応答][all]$&.500&.000&.500&.500&.500&.500&.500&.500\\$[真偽情報要求][all]$&.544&.494&.519&.557&.570&.165&.582&.570\\$[未知情報応答][all]$&.500&.167&.500&.500&.500&.333&.500&.500\\$[未知情報要求][all]$&.460&.500&.500&.500&.500&.060&.500&.500\\$[約束・申し出][all]$&.000&.000&.000&.000&.000&.000&.000&.000\\$[その他の言明][all]$&.000&.333&.000&.333&.333&.333&.000&.333\\$[その他の働き掛け][all]$&.000&.000&.000&.000&.000&.000&.000&.000\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:featureAnalysys_res}から,全ての素性を用いた組み合わせr0を用いた場合のF値が3人対話で一番高いが,2人対話では,r6およびr7の素性の組み合わせを用いたF値がr0よりも若干高く,一番高い.また,素性crr\_aおよび素性lwが他の素性に比べて大きく関係同定に寄与していることがわかる.表\ref{tbl:res-featureByType-2}からは,各素性がどの種類の応答関係同定に寄与しているかを見ることができる.なお,3人対話の結果は,2人対話と傾向が似ていたため割愛する.crr\_aは,確認アクトおよび情報伝達アクトを含むムーブとの関係同定で特に効果がある.これは,対象ムーブのアクトを推定することで表\ref{tbl:crp}で示した制約が利用できたためと考えられる.lwは真偽情報要求アクトおよび未知情報要求アクトを含むムーブとの関係同定で特に効果がある.これらのアクトを含むムーブの多くは末尾にクエスチョンマークを持つため,末尾の表層表現がクエスチョンマークであるか否かという情報が関係同定に有用であったと考えられる. \section{関連研究} \subsection{チャット対話を対象とした対話構造解析研究との関係}Khanらは,チャット対話から話題や参加者の興味等を抽出することを目的として,本論文で言う応答関係の同定を試みた\cite{Khan:02}.具体的には,質問とそれに対する応答のまとまりからなるスレッドという単位を定義し,スレッドの始まりの発言を同定する実験を行なった.スレッドの始まりとそうではない発言の特徴を分析し,人手でルールを作成した.ルールは表層表現と発言内の単語数の組合せである.実験対象は,チャットアプリケーションAOLInstantMessenger(AIM)\footnote{http://www.jp.aol.com/aim/}を利用して収集した約1500発言で,対話の参加人数の異なりは12名である.小倉らは,本論文で言う応答関係の同定を目的とし,チャット対話特有の表現等を手がかりとした同定実験を行なった\cite{Ogura:03}.具体的には,引用記号を使用した次話者の指定表現「>Aさん」や,関連する発言を明示する表現「ほんとに?>りんごと蜂蜜」等の表層表現だけで判断できる5種類の同定要素を組合せたルールを用いて,関係同定のためのにどのような表層表現が有効かを調査した.実験対象は,独自に作成したチャット対話データであり,参加者の異なりは16名,2人対話と3人対話合わせて870発言である.これらの先行研究は,本論文では応答関係と定義した関係の同定に必要な手がかりに焦点を当てたものであり,対話構造の解析及び継続関係の同定には踏み込んでいない.ルールベースの関係同定手法は,チャット特有の言語表現が発言中に存在するもののみを主な対象としたものであり,定量的な性能比較は難しい.しかし,我々のアプローチには,こうした既知の知見を素性としてモデルに組み込める柔軟性を持っているという利点がある.実際,小倉らの知見は,4.3節で述べたムーブの末尾の表層表現などの素性としてモデルに反映させてある.小林は,多人数が参加するチャット会議のログからの議事録自動生成を目的とし,本論文で言う継続関係及び応答関係の同定を試みた\cite{Kobayashi:03}.発話文という単位を処理の基本単位とし,それらの間の関係を同定した.具体的には,基点となる発話文の前後の発話文を探索し関係先候補を複数抽出する.その後,発話文内の表層情報と品詞情報を手がかりとして関係先を決定する.発話文を可能な限りつなげていくことで,ある話題に対する継続した対話部分を抽出する.関係先の決定には,関係先の候補発話文にヒューリスティックを用いてポイントを与える.ポイントの計算は指定した表層表現や品詞の有無で加算される.実験対象は,会議の進行役のいるチャット会議ログであり,関係先を同定するためのヒューリスティクスもこの対話スタイルに特化したものになっている.彼らは,ある発話文と二項関係にある発話文を特定する際に,その2つの発話文の素性のみを利用している.本手法では,発言間の二項関係同定のために,関係を同定したい発言とそのまわりの発言の素性も利用した.継続関係について触れられているが,その同定方法については説明されていない.このため,本論文の解析手法と比較することはできなかった.\subsection{音声対話を対象とした対話構造解析研究との関係}質問とそれに対する応答のような対話構造をある種の文法規則によって捉えようとする考えとして談話分析がある.Groszらは,談話中の発話の処理を記述するための枠組となる理論を提示している\cite{Grosz:86}.この理論では,談話の構造は,相互に関係する3種の要素,言語構造(linguisticstructure),意図構造(intentionalstructure),注視状況(attentionalstructure)から構成される.この理論に基づく談話単位は,一貫したゴールを持つ部分を1つの単位としている.しかし,本研究で求めようとしている対話構造の単位は,質問と応答のようなまとまりからなる単位であり,より小さな単位となる.Sinclairらは,より局所的な視点から対話構造の階層モデル提案している\cite{Sinclair:92}.これは,Hallidayのランク尺度の考え方\cite{Halliday:61}に基づいている.彼らは,談話に対して相互作用,交渉,エクスチェンジ,ムーブ,アクトの5つのランクからなるランク尺度を定義し,それに基づいた対話構造のモデルを提案している.本研究で対象としたチャット対話は,質問とそれに対する応答のような意味的につながりを持つ発言が必ずしも隣接しない.また,質問とそれに対する応答を構成する発言自体も区切り送信される場合があり,対話構造を構成する基本単位が異なる.このような特徴ため,既存の対話構造モデルをそのままチャット対話に適用することはできない.我々は,対話構造の基本単位をチャット対話の基本単位に変更し,意味的につながりを持つ発言が隣接しない現象を表現できるよう,交差を許すモデルに拡張した.厳寺らは,Sinclairらのモデル\cite{Sinclair:92}を参考にして対話構造の形成を試みた\cite{Iwadera:98}.彼らは,2人対話を対象とし,発言がなされる毎に漸次的に対話構造を認識する手法を提案している.具体的には,文末表現等から構成される表層表現パタンと対話特有の現象である話者交替に関する情報を用い,現在処理している発言のアクトを同定する.アクト情報を基に,直前の発言との関係を同定し,ムーブ,エクスチェンジまで発言をまとめあげて対話構造を構築する.彼らは,音声対話の書き起こしテキストを実験対象とし,対話構造の同定の際に現在処理している発言とその直前の発言との関係だけを利用した.高梨らは,独話を対象に話し言葉の処理の基本単位を節と定義し,節の同定を試みた\cite{Takanashi:03}.節の同定には,発言に含まれる形態素といった局所的な情報を利用している.局所的な情報だけでは節の同定が難しい倒置のような表現は同定対象としていない.本研究では,意味的につながりを持つ発言が必ずしも隣接しないという特徴を持つチャット対話を対象としている.このため,現在処理している発言の直前の発言だけでなく,それよりも前の発言との関連も調べる解析手法を提案した.また,倒置等の局所的な情報だけでは判断できない関係の同定も対象とした. \section{おわりに} 本研究では,チャット対話を対象として対話構造解析を行なった.本研究の成果は以下の通りである.\paragraph{既存の対話構造モデルの拡張とコーパス構築における指針の提案:}対話構造解析アルゴリズムの適用を可能とするため,Sinclairらの対話構造モデル\cite{Sinclair:92}をチャット対話に適用できるよう拡張したモデルを提示した.このモデルは,継続関係と応答関係という発言間の二項関係から成る.さらに,どのような発言(アクト)同士が継続関係をなしてムーブを構成するか,あるいはどのようなムーブ同士が応答関係をなしてエクスチェンジを構成するかを新しく規定し,分析作業及び教師あり機械学習に利用できる大規模なコーパス作成のための指針を提案した.この指針に基づく対話構造を付与したコーパスを作成し,2人の作業者同士のタグ付けの一致度を調査したところ,κ値0.762という結果が得られた.この結果から,提案したタグ付けの指針が人間の判断のゆれに比較的強い基準になっていることが経験的に確かめられた.\paragraph{チャット対話の対話構造解析:}対話構造全体の一致率は2人対話87.4\%,3人対話84.6\%であり,ベースラインの手法を上回っている.この結果は,発言間の二項関係を同定する計算モデルが,少なくとも教師データがあれば,教師あり機械学習によって構築可能であることを経験的に示した.本タスクは単純な方法で解けるほど簡単な問題ではないが,アルゴリズムを工夫すれば自動化の実現性が十分にある問題であることが分かる.こうした問題に取り組みその実現可能性を実証した例は過去にない.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた奈良先端大松本研究室の皆様に深く感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒木,伊藤,熊谷,石崎}{荒木ら}{1999}]{Araki:99}荒木雅弘,伊藤敏彦,熊谷智子,石崎雅人.(1999).\newblock発話行為タグ標準化案の作成.\newblock人工知能学会誌,Vol.14,No.2,pp.53--62.\bibitem[\protect\BCAY{Grosz\BBA\Sidner}{Groszet~al.}{1986}]{Grosz:86}Grosz,B.J.andSidner,C.L.(1986).\newblockAttention,intentionandthestructureofdiscourse.\newblockIn{\emConputationalLinguistics,Vol12,No.3},pp.175--204.\bibitem[\protect\BCAY{Halliday}{Halliday}{1961}]{Halliday:61}Halliday,M.A.K.(1961).\newblockCategoriesofthetheoryofgrammar.\newblockIn{\emWord,17},pp.241--292.\bibitem[\protect\BCAY{細馬}{細馬}{2000}]{Hosoma:00}細馬宏通.(2000).\newblockチャットは何を前提としているか-チャットの時間構造と音声会話の時間構造-.\newblock「身体性とコンピュータ」:bit別冊,共立出版.\bibitem[\protect\BCAY{石崎,加藤}{石崎ら}{1999}]{Ishizaki:99}石崎雅人,加藤恒昭.(1999).\newblock多人数対話の特徴分析.\newblock人工知能学会{\emSIG-SLUD-9901-3}.\bibitem[\protect\BCAY{石崎,伝}{石崎ら}{2001}]{Ishizaki:01}石崎雅人,伝康晴.(2001).\newblock談話と対話言語と計算-3,6章.\newblock東京大学出版会.\bibitem[\protect\BCAY{巌寺,石崎,森元}{巌寺ら}{1998}]{Iwadera:98}巌寺俊哲,石崎雅人,森元逞.(1998).\newblock表層表現パターンを用いた対話構造の認識.\newblock情報処理学会論文誌,Vol.39,No.8,pp.2452--2465.\bibitem[\protect\BCAY{Khan,Fisher,Shuler,Wu\BBA\Pottenger}{Khanet~al.}{2002}]{Khan:02}FaisalM.Khan,ToddA.Fisher,LoriShuler,TianhaoWu,WilliamM.Pottenger.(2002).\newblockMiningChat-roomConversationsforSocialandSemanticInteractions.\bibitem[\protect\BCAY{小林}{小林}{2003}]{Kobayashi:03}小林竜己.(2003).\newblock談話の局所・中位構造を利用したチャット会議ログからの議事録自動生成.\newblock人工知能学会{\emSIG-SLUD-A203-05},pp.29--34.\bibitem[\protect\BCAY{倉林,山崎,湯淺,蓮池}{倉林ら}{2002}]{Kurabayashi:02}倉林則之,山崎達也,湯淺太一,蓮池和夫.(2002).\newblockネットワークコミュニティにおける関心の類似性に基いた知識共有の促進.\newblock情報処理学会論文誌,vol.43,No.12.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本ら}{2002}]{Matsumoto:02}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸.\newblock日本語形態素解析システム『茶筌』version2.2.9使用説明書.(2002).\bibitem[\protect\BCAY{小倉,石崎}{小倉ら}{2003}]{Ogura:03}小倉加奈代,石崎雅人.(2003).\newblockチャット対話における関連発言同定のための表層情報の分析.\newblock人工知能学会{\emSIG-SLUD-A203-P05}.\bibitem[\protect\BCAY{Pereira,Tishby\BBA\Lee}{Pereiraet~al.}{1993}]{pereira93distributional}FernandoPereira,NaftaliTishby,andLillianLee.(1993).\newblockDistributionalclusteringof{E}nglishwords.\newblockIn{\emProceedingsofthe31stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},pp.183--190.\bibitem[\protect\BCAY{Sinclair\BBA\Coulthard}{Sinclairet~al.}{1992}]{Sinclair:92}Sinclair,J.McH,Coulthard,R.M.(1992).\newblockTowardsananalysisofdiscourse.\newblockIn{\emAdvancesinspokendiscourseanalysis},Routledge.\bibitem[\protect\BCAY{高梨,丸山,内元,井佐原}{高梨ら}{2003}]{Takanashi:03}高梨克也,丸山岳彦,内元清貴,井佐原均.(2003).\newblock話し言葉の文境界-CSJコーパスにおける文境界の定義と半自動認定-.\newblock言語処理学会第9回年次大会.\bibitem[\protect\BCAY{Hofmann}{Hofmann}{1999}]{th:plsi}ThomasHofmann.(1999).\newblockProbabilisticlatentsemanticindexing.\newblockIn{\emProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR)},pp.50--57.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik1995a}V.~N.Vapnik.(1995).\newblock{\emTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{Werry}{Werry}{1996}]{Werry:96}Werry,C.C.(1996).\newblockLinguisticandinteractionalfeaturesofInternetRelayChat.\newblockIn{\emS.C.Herring(Ed.)Computer-mediatedcommunication:Linguistic,socialandcross-culturalperspectives},pp.47--63.\end{thebibliography}\appendix \section{発言間の結束度} 本研究で言う結束度は,発言同士のムーブ単位へのまとまりやすさを表す.対象発言(以下CRRu)と先行発言(以下PREu)間及びCRRuとCRRuの発言時刻から1分以内に発言された最寄りのCRRuと同一話者の発言(以下NBNu\_s)間の結束度を計り,どちらのペアの結束度が強いかの2値を素性とする.なお今回は,動詞を持たないCRRuに対象を制限した.結束度の強さは,PREu及びNBNu\_sに出現する全ての動詞及びCRRuに出現する全ての名詞と名詞に連接する助詞を組合せた3つ組$\langlen(名詞),rel(助詞),v(動詞)\rangle$の共起確率$P(\langlen,rel,v\rangle)$を求め,3つ組の数で正規化することで計る.例(11)の発言(a)がPREuで(b)がCRRu,(c)がNBNu\_sである場合,$P(\langle宛,で,来る\rangle)$と$P(\langle宛,で,直す\rangle)$を比較する.\eenumsentence{\item[a)]Aさん:メール\underline{来ちゃった}\item[b)]Aさん:個人\underline{宛で}\item[c)]Aさん:前の文章を\underline{直す}}$P(\langlen,rel,v\rangle)$を推定する手法としては,単語の共起を潜在的な意味からの同時発生とみなすProbabilisticLatentSemanticIndexing(PLSI)\cite{th:plsi}を使用し,共起確率モデルを作成した.発言間の共起確率モデルは任意の入力$\langlen,rel,v\rangle$に対して,共起確率を出力する.$\langlen,rel,v\rangle$を$\langlerel,v\rangle$と$n$の共起とみなすと,PLSIにおける共起確率$P(\langlen,rel,v\rangle)$は次式で与えられる.\begin{eqnarray*}P(\langlen,rel,v\rangle)&=&\sum_{z\inZ}P(\langlerel,v\rangle|z)P(n|z)P(z).\end{eqnarray*}ここで,zは共起の潜在的な意味クラス(隠れクラス)を指す.式中の確率的パラメタ$P(\langlerel,v\rangle|z)$,$p(n|z)$,$p(z)$は,EMアルゴリズムによって推定できる\cite{th:plsi}.モデルの訓練の手順を以下に示す.\begin{enumerate}\item新聞記事19年分(毎日新聞9年分,日経新聞10年分)のべ25,061,504文をCaboCha\footnote{http://chasen.org/\~{}taku/software/cabocha/}で係り受け解析し,動詞とそれに係かる名詞と助詞の3つ組$\langlen,rel,v\rangle$を抽出した.モデルの訓練事例として,チャット対話コーパスではなく新聞記事コーパスを利用した.これは,新聞記事コーパスから獲得できる共起用例は大規模であることと,チャット対話コーパスは,関連する発言が必ずしも隣接しないという特徴のため正しい共起用例を自動的に抽出することが難しいことがその理由である.\item今回は,のべ2回以上出現した名詞,動詞を採用した.助詞は,格助詞は``が'',``を'',``に'',``で'',``へ'',``から'',``より''の7つに``は'',``も''を加えた9つとした.\item2.で得た3つ組をPLSI学習パッケージ\footnote{http://chasen.org/\~{}taku/software/plsi/}に入力し,確率的パラメタを推定した.隠れ変数の個数$|Z|$は1000とした.\end{enumerate}\begin{biography}\biotitle{略歴}\bioauthor{徳永泰浩}{1979年生.2002年九州工業大学情報工学部卒業.2004年奈良先端科学技術大学院大学情報科学研究科博士前期過程修了.同年任天堂(株)入社,現在に至る.}\bioauthor{乾健太郎}{1967年生.1995年東京工業大学大学院情報理工学研究科博士課程終了.同年同研究科助手.1998年九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{松本裕治(正会員)}{1955年生.1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V03N04-05
\section{まえがき} 自然言語処理のための言語リソースとして語彙辞書が最も基本となるが,構文構造の基本となる構成要素は,2文節間あるいは2単語間の係り受け構造である.係り受け関係は,CFG規則の最も単純な形式であるチョムスキ標準形と見なすことができる.通常この関係は共起関係と呼ばれている.本論文は,文法規則というよりは言語データの一種と見なせる共起関係を用いて日本語の係り受け解析を行い,かつ更新,学習機能を取り入れることにより,カナ漢字変換に見られるような操作性の良さを有する簡便な日本語係り受け解析エンジンを提示することを目的とする.これまで共起関係による自然言語解析には,\cite[など]{Yoshida1972,Shirai1986,TsutsumiAndTsutsumi1988,Matsumoto1992}の研究がある.\cite{Yoshida1972}は本論文に最も関係するもので係り受けによる日本語解析の基礎を与えるものである.\cite{Shirai1986}は日本語の共起関係の記述単位として品詞と個別単語との中間に位置すると見なせるクラスター分類で与えるとともに半自動的にインクリメンタルに共起辞書を拡大することを述べている.\cite{TsutsumiAndTsutsumi1988}は英語に関して動詞の格ペアーとして共起関係を捉えている.\cite{Matsumoto1992}は英語構文解析の規則に共起関係を抽出する補強項を付け加へ,2項以上の多項関係を解析時に自動的に抽出している.しかし,いずれのシステムも共起関係だけから実用規模の係り受け解析を構築したものはない.一般に共起関係は\cite{Yoshida1972}を除き係り側の自立語と付属語(機能語)列および受け側の自立語(終止形)で論じられることが多い.その際,係り側の付属語は両方の自立語の表層格(関係子)として考えられている.\cite{Yoshida1972}は二文節間の関係に着目して受け側も自立語と付属語列として考察した.さらに機械処理の観点から,付属語・補助用言・副詞などの語は個々の単語で記述し,他の語は品詞水準で扱った.これを準品詞水準と称している.本論文では,副詞も含めてすべて自立語は品詞で記述し,付属語列はリテラルで表現することにする.品詞に縮退させているためこれを縮退型共起関係あるいは省略して単に共起関係と呼ぶ.本論文では,実際の文章から機械的に抽出した係り受け関係を共起データとし,いわゆる文法規則の類を一切使用せずに係り受け解析システムを構築する.その際,共起関係の構文情報の中に連続性の概念を導入して,これまで文法的には曖昧であるとされていた構造も本質的に曖昧性が解消出来ているのではないが,実際の文章では出現頻度が少ないとか,分野を限定すれば同一文体が続く傾向があるために係り受けパターンを絞り込めるのではないかと予想して開発した.これは最近研究の盛んなコーパスに基づく統計的言語処理の一つの試みにもなる.また単純な形式の共起関係のみを用いて解析を行うため,日本語の係り受け解析で一文ごとに規則に相当する共起関係を学習する機能を持たせることができ,共起関係の更新機能と併用することで従来のものと比較して,柔軟性,拡張性に富んだシステムが得られる.以下,\ref{data-str}章では,構文構造と共起関係のデータ構造を定義する.\ref{new-ana}章では本共起関係を用いた学習機能付き日本語係り受け解析システムを説明する.\ref{eval}章では解析システムの実験結果を示し,評価を行う. \section{データ構造} \label{data-str}構文解析で使用する言語リソースのデータ構造についてその定義を与える.第1は,係り受け関係の表現ための構文木,第2は,係り受け関係の基本データ構造である縮退型共起関係である.\subsection{構文木}日本語の係り受けを解析することをここでは構文解析ともいう.解析結果を与える構文は,工学的観点にたって見やすく工夫している.図\ref{構文解析結果の表示例}にその例を示す.各文節は順序番号を付与して係り先の文節番号と係り受け関係を明示しグラフで表示している.文節は長い文節にも対応できるように縦に配置している.文節の先頭の品詞も明示している.詳細は省くが,このグラフ表示に対して形態素,構文レベルの修正が可能である.修正機能は100%正解が困難な現状の自然言語処理にとって有用な支援機能である.グラフの上段は形態素解析の結果を示している.\begin{figure}[htb]\begin{center}\epsfile{file=fig1.eps,width=119mm}\caption{構文解析結果の表示例}\label{構文解析結果の表示例}\end{center}\end{figure}\subsection{係り受けの連続性}文中で連続した文節が係り受けの関係になっている場合,その係り受けの2文節は「連続」あるいは「連続句」であるという.文中で離れた文節間で係り受け関係があれば「不連続」という.日本語においては特定の係り受け関係は連続して生ずるケースが見られ,これに注目するため連続,不連続を区別している.連続,不連続を付与した係り受け関係においては,連続して用いられる度合の強い係り受け関係は解析において単語に次ぐ重要な言語リソースで,辞書の見出しを単語から句に拡大するとき最初にエントリの候補となるものである.\subsection{縮退型共起関係}縮退型共起関係では,文節の自立語列はヘッドとなる最終の自立語の品詞で,付属語列はリテラルとしてそのままの文字列で表現される.句読点も付属語列に含める.係り受け関係は例えば\cite{YamagamiAndYasuhara1993}に示したような係り受け関係名で記述する.単に係り受けの関係だけを解析するのであれば関係名は係り側の付属語列で代用するか,あるいはまったく無視しても本処理系には影響を与えない.図\ref{データ構造}に縮退型共起関係のデータ構造とその例を示す.\vspace*{5mm}\begin{figure}[htb]\begin{center}\epsfile{file=fig2.eps,width=131mm}\caption{縮退型共起関係のデータ構造とその例}\label{データ構造}\end{center}\end{figure}大文字A,Bは自立語品詞,Fは付属語品詞列,小文字a,bは自立語リテラル,fは付属語列のリテラルを表わすとすると,一般に共起関係を構文規則として見て,抽象化の強いものから並べると次の4種類に分類される.1)AFBF型,2)AfBf型,3)Afbf型あるいはafBf型,4)afbf型である.2),3),4)のように具体的に記述するにしたがって共起関係の数は増大する.通常の構文規則は1)のレベルで記述するのが一般的である.縮退型共起関係は2)の型に属し,その特徴は文節の自立語を品詞で代用していることと受け側の付属語も添付していることである.付属語は付属語相当語を含めて現在650語を用いているがオーダ的には組み合わせや句読点を考慮して1000程度であり,リテラルとした.自立語は10万のオーダになりそれらをすべて記憶しておくことは2項関係としては動詞が1万とすると名詞と動詞の組み合わせだけでギガのオーダであり,付属語パターンも含めると現状の機械処理の立場からは困難である.これは\cite{Yoshida1972}でも示された考え方であった.本論文では,付属語列の末尾に句読点情報も付与している.なぜなら,現実の文章においては,句読点が係り受け関係の決定に意味を持っているからである.これの有効性は従属節の述語間の係り受けに対して\cite{Shirai1995}でも示されている.係り受け関係で受け側の付属語列を伴ったAfBf型が重要なことは,AfBでは次にどのような付属語列が来るかはBのみの品詞情報で決定され,文節Aの付属語列は関与しないことによる.しかし文法的には等価であるが慣用的な用法が多い自然言語では,特定の付属語を好む場合がある.例えば,文「\underline{欧米においては}電車で寝ているような光景は決して\underline{見られないが,}」で,「欧米においては」は動詞に係るというだけの情報では,この文の場合「寝ている」に係るとしてしまうことになる.AfBf型にするとBに付属語「〜ないが,」が付くパターンを優先して使用することができる.もっと単純な場合では,「N(名詞)はA(形容詞)」の規則で,「彼は若い.」と「彼は長い(トンネルを)」を同じと見てしまう.しかしBにfを付与すると「.」が効力を持つ.もちろん組み合わせの数はAfBf型がAfB型より3桁多くなるが,係り受けの絞り込みは良くなる.付属語列をリテラルにしておくメリットは,「男は車に\underline{近づいた.}」の縮退型共起関係である「NはV\underline{た.}」\hspace*{-1mm}により「男は近づいた車を見た.」\hspace*{-1mm}の文で「男は」\hspace*{-1mm}は\hspace*{-1mm}「近づい\underline{た}」\hspace*{-1mm}ではなく\hspace*{-1mm}「見\underline{た.}」\\に係る.また「女は赤い服を着た.」で,「女は」は「赤い」に係らないで「着た.」に係っている.「N\underline{助詞}A」といったAFB型の共起記述では「女は」は「赤い」に係ってしまう.もちろん自立語で品詞を使用することによって「髪が長い少女に会った.」の類に関しては「NがA」の規則が生まれて上記の文の解析を誤らしめて良くないがこれは頻度情報や後述する学習機能によって避けられると考えている.別の解決法は名詞の品詞を細分類したり,\cite{Shirai1986}のようにクラスター分割することが一つの解決策であるが,本論文では単純な方法を採用した.縮退型共起関係と連続句の概念によって解析の曖昧性は次のように解消できる.\cite{Yoshida1972}では,「彼は山に登って景色を見た.」に対して3つの解析例があるとしているが,連続句を優先すれば「山に」は「登って」に係り,縮退型共起関係「NはVて」が無いか,あるいは在っても「NはVた.」に比較して頻度が少なければ「彼は」は「見た.」に係かる.\subsection{共起データベース}共起データベースCOODBとは,係り受け解析の出力から得られる縮退型共起関係を蓄積したデータベースである.但し,頻度は1であるので記憶していない.各レコードは,縮退型共起関係からなっている.それらを文に対応させて記憶することにより,任意の縮退型共起関係から逆にそれが使用された原文を参照することが可能になる.これにより与えられた縮退型共起関係が正しいかどうかの判断を実例文で確認することができる.図\ref{COODBの例}に共起データベースの例を示す.共起データベース中の縮退型共起関係をソートして頻度を付与したものをソート済み共起データベースSTCDBと呼ぶ.\vspace*{3mm}\begin{figure}[htb]\begin{center}\epsfile{file=fig3.eps,width=101mm}\caption{縮退型共起関係データベースCOODBの例}\label{COODBの例}\end{center}\end{figure} \section{新解析系} \label{new-ana}\subsection{係り受け文法の定式化}AfBf型の係り受け関係を形式化するとCFGと等価なことが分かる.さらに図\ref{データ構造}でも示したように係り受け関係には頻度や確率が付与されるため確率付きCFGと見なすことも可能である.文節の文法カテゴリをγBf,δBf等で表わすと一般の係り受け関係は,\begin{eqnarray}δBg=γBfγBg\label{cc}\\δBg=δBfγBg\label{dc}\\δBg=γBfδBg\label{cd}\\δBg=δBfδBg\label{dd}\end{eqnarray}で表現することが出来る.ここで,γは規則が最初に適用される文節カテゴリに付与しており,δは1度以上規則を適用してできたカテゴリである.カテゴリの添え字γ,δは,意味的には連続,不連続と関係させたものである.連続のものは規則が適用されると文節間にギャップができるため左辺のカテゴリにはγは現われない.またBは品詞,fは付属語リテラルに相当する.~(\ref{cc})の右辺の”γBfγBg”は文節カテゴリγBfがγBgに連続して係ることを示す.(例.机を=>運ぶ.)~(\ref{dc})の意味はδBfがγBgに連続して係ることを表わしている.(例.(大きな=>)少年の=>頭には)~(\ref{cd})はγBfが不連続にδBgに係る.(例.少年が〜>(机を=>)運ぶ)~(\ref{dd})はδBfが不連続にδBgに係ることを示している.(例.(大きな=>)少年が〜>(机を=>)運ぶ.)ここで=>は連続した係り受け関係を表わし,〜>は不連続の係り受け関係を意味している.以上の~(\ref{cc}),~(\ref{dc})の規則は連続フラグが立っている縮退型共起関係から生成され,~(\ref{cd}),~(\ref{dd})は不連続な縮退型共起関係から生成したものである.もう少し緩い規則として連続,不連続のいずれも上記4つの規則に展開しておくことを考えてもよい.なぜなら,一般に日本語においては連続した共起関係は不連続でも発生し得るし,逆も可能であるからである.いずれにしてもSTCDBをチョムスキー標準形のCFG規則に変換することが出来る.しかしこれは従来のCFGの規則数と比較してオーダの違った規則群になる.解析するのは原理的にCYK法のようなボトムアップ解析によれば可能である.その場合,係り受けの交差も自動的に回避できる.ここでは全解パージングではなくコスト等を導入して最尤解を求めるために\ref{ana-sys}に述べるような独自な系を作成した.\subsection{解析系}\label{ana-sys}以下で縮退型共起関係を用いた解析系を記述する.\begin{itemize}\item[(1)]システム構成縮退型共起関係を用いた解析システムの構成を図\ref{システム構成}に示す.\begin{figure}[htb]\begin{center}\epsfile{file=fig4.eps,width=113mm}\caption{係り受け解析システム構成}\label{システム構成}\end{center}\end{figure}本システムで使用する特徴的な言語リソースを以下に示す.いわゆる解析規則はなく,共起関係データベースがその代りになっている.共起関係データベースはフィードバック系になっている.\clearpage\begin{itemize}\item[(a)]係り受けマトリックス\begin{figure}[htb]\begin{center}\epsfile{file=fig5.eps,width=106mm}\caption{係り受けマトリックス}\label{マトリックス}\end{center}\end{figure}\vspace*{-2mm}これは,\cite{Yoshida1972}でも与えられているが,本論文では図\ref{マトリックス}に示すように行列要素の値を係り受けの可否ではなくコストで与える点とさらにそれらの関係名を記述する点で相違する.\item[(b)]ソート済み縮退型共起関係データベースの作成COODB,STCDBともに初期状態は空である.先ず実際の文章からCOODBを収集し,ソートして重複頻度付きの形式でSTCDBを作成する.係り受け解析の結果は共起関係で表現できるから,先ず何らかの手段で解析データを収集する.人手でやるのも可能だが量的に限界がある.解析の結果に対して機械的に収集すればよい.すなわち解析そのものに共起関係を利用することが最終目標であるが,そのためのデータ収集は,人手で解析されたデータや別の解析ツールを使用することができる.これによって本解析エンジンで最低限度の解析ができる程度の容量になるまで蓄積する.今回は,本解析方式(図\ref{システム構成}中の日本語係り受け解析2)とは別の解析システム(日本語係り受け解析1)を用いてCOODBの自動抽出ツールを作成した.STCDBのデータ構造はB木や配列として記憶しておく.解析エンジンが始動してそこからデータを収集すればブートストラップになる.\end{itemize}\item[(2)]解析ステップ以下,解析のステップを順に述べる.先ず,システムは形態素解析を行い,文節に区切られた結果を構文解析に渡す.構文解析では係り受けマトリックスをSTCDBを用いて作成する.その後,文頭の文節から順にその係り先を係り受けマトリックスを用いて非交差条件を守りながらコストの低いものを優先して決定する.したがって係り先の文節はコストが同じなら距離が近いものほど優先することになる.連続する共起関係は,学習で選んだものを除いて最もコストを低くしている.最終的に最小コストの係り受け関係を一つだけ出力する.コストを例えば1から6に設定すると,1は最小コストで6が最大コストになる.後述する学習した共起関係のコストは1とし,連続する共起関係は2,不連続は頻度によって3から5とし,疑わしい共起関係は6とする.データ量が多くなり飽和してくれば頻度の代りに確率を使うことも考えられるが,現状は1文づつの更新で常時頻度が変化しているため確率や頻度計算をすることは避け,連続,不連続だけで選択している.\item[(3)]更新機能および学習機能本方式による係り受け解析は100%の正確さではない.従ってユーザには,失敗に対して,係り先や係り受け関係を修正する機能が提供されている.\ref{data-str}章で述べたように係り受け解析の結果はグラフ表示が出来るためユーザは任意の係り受け関係を画面上で係り元,係り先および関係名を番号で指示することにより修正することができる.係り受け関係を修正すると,縮退型共起関係の4種類の更新機能を聞いてくる.ユーザはいずれかを選択する.具体的には,1)何もしない.2)現在の共起関係自身が間違っている疑いがある.3)修正結果は新規の共起関係としてSTCDBに登録する.および4)学習機能である.2)の場合は直接削除することはやめて,疑問符を付けておき,コストも最大にする.後日,COODB等を用いて適否を検討するようにしている.4)の学習機能は係り先を変更したり,古い係り受け関係を新しい関係で置き換えることによって起動し,古い関係はコストを高めることにより優先度を下げ,当該共起関係の選択を抑止するようにする.同時に新しく指定した共起関係に対しては~図\ref{データ構造}(a)に示した学習フラグをセットして最小のコストを付与する.頻度を高めていく方法もあるが,学習効果を即時に得るためこの方法を採用した.1文の解析が終了するとこの文で指示されたSTCDBに対する上述の共起関係の追加,修正および学習が実行される.以上のステップから,更新機能によってインクリメンタルにSTCDBが拡大していくとともに学習機能によって優先順位が更新され最近の選択結果を優先することが可能になる.同じ構文をこの後に実行すると優先順位に逆転が起こり,正しい係り受け解析が得られる.\begin{figure}[htb]\begin{center}\epsfile{file=fig6.eps,width=137mm,height=90.5mm}\caption{学習の例}\label{学習}\end{center}\end{figure}図\ref{学習}に学習例を示す.構文解析が学習によって適応規則を変更していくため,インタラクティブな環境ではワープロのカナ漢字変換に似た学習効果が得られる.学習・更新効果の評価は別の機会にゆずるが,一般的に述べると本方式の特徴は付属語リテラルのパターンを用いることにある.「ですます調」とか「だ文」とかの文体あるいは「〜ですか」のような会話文独特の表現はいずれも付属語が文体を代表しており効果が現われやすい.\end{itemize} \section{解析実験と評価} \label{eval}\subsection{共起データの統計的情報}縮退型の共起関係が係り受け解析にどの程度有効かを調査するために,先ず一つの文章を順に110文だけ解析した.これは本解析エンジンとは別の解析を用いた.1つの文章から順々に文を解析しているから言い回しが似ていて共起関係が重複して出現することが期待できる.110文を10文ずつに分割して解析し,その中に重複して含まれる共起関係を抽出した.その結果を表\ref{10sent}に示す.\begin{table}[htb]\caption{10文毎の共起関係の重複度}\label{10sent}\begin{center}\begin{tabular}{|l|l|l|l|l|l|l|l|l|l|l|l|}\hline&000&010&020&030&040&050&060&070&080&090&100\\文番号&-&-&-&-&-&-&-&-&-&-&-\\&009&019&029&039&049&059&069&079&089&099&109\\\hline共起デ&&&&&&&&&&&\\ータ数&79&89&86&67&78&67&90&79&71&28&69\\\hlineソート&&&&&&&&&&&\\共起デ&76&76&75&60&68&59&81&66&70&16&65\\ータ数&&&&&&&&&&&\\\hline重複数&3&13&11&7&10&8&9&13&1&12&4\\重複率&4\%&15\%&13\%&10\%&13\%&12\%&10\%&16\%&1\%&43\%&6\%\\\hline累積重複&&24&24&28&24&23&24&25&10&20&13\\(重複率)&&27\%&28\%&42\%&31\%&34\%&27\%&32\%&14\%&71\%&19\%\\\hline累積数&79&168&254&321&399&466&556&635&706&734&803\\ソート&76&141&203&242&296&340&406&460&521&529&585\\収縮率&96\%&84\%&80\%&75\%&74\%&72\%&73\%&72\%&74\%&72\%&73\%\\\hline\end{tabular}\end{center}\end{table}共起データ数は文の文節数によって変化するが,これらを累積すると次第にそれ以前に解析した共起関係と重複することが多くなる.10文毎の重複率は10文内限定とそれ以前のものも利用するのとでは平均約2倍に高まっている.重複したものを一つにカウントしたソート共起データ数と重複を別々にカウントした出現個数の比を収縮率と呼ぶと,文数が増大すると収縮の度合が拡大する傾向が出ている.すなわち収縮率が小さいことは,新規の共起関係の出現率が少ないことを示す.文数をさらに3000文にまで増大した例が表\ref{3000sent}である.100文では70%前半であった収縮率は,1000文では50%,3000文では40%前半になった.\begin{table}[htb]\caption{3千文による共起関係の収縮率の変化}\label{3000sent}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&1000文&1000文&1000文\\\hline共起データ数&3467&6900&6453\\ソート数&1878&3241&3335\\収縮率&54\%&47\%&52\%\\\hline累積共起データ数&3467&10367&16820\\累積ソート数&1878&4588&7190\\収縮率&54\%&44\%&43\%\\\hline\end{tabular}\end{center}\end{table}表\ref{freq}はSTCDB中の8413種類の共起関係の頻度別の分布を示したものである.1回しか出現しない共起関係が80%を占めており,これは,まだ共起関係が収束していないことを意味している.この程度ではまだ共起パターンが拡散するのであろう.ちなみに最高出現頻度509回のものから順に上位7つを示すと,「NのNを」(509回),「NをV(連体形)」(291回),「NのNが」(231回),「NのNの」(230回),「NはV.」(223回),「NをV.」(220回),「NのNは」(195回)である.\begin{table}[htb]\caption{頻度別の共起関係の要素数}\label{freq}\begin{center}\begin{tabular}{|r|r||r|r||r|r||r|r||r|r||r|r|}\hline頻度&要素数&頻度&要素数&頻度&要素数&頻度&要素数&頻度&要素数&頻度&要素数\\\hline\hline1&6671&2&805&3&298&4&153&5&93&6&61\\\hline7&52&8&38&9&29&10&22&11&19&12&11\\\hline13&8&14&11&15&7&16&11&17&9&18&11\\\hline19&11&20&6&21&3&22&5&23&4&24&2\\\hline25&1&26&4&27&6&28&2&29&1&30&2\\\hline31&3&32&1&34&1&36&5&38&1&39&4\\\hline40&2&42&3&44&2&46&2&47&1&49&3\\\hline50&2&55&1&56&1&58&1&60&1&62&1\\\hline78&1&82&2&85&1&87&1&89&1&90&1\\\hline91&1&96&1&101&1&102&1&119&1&121&1\\\hline124&1&152&1&195&1&220&1&223&1&230&1\\\hline231&1&291&1&509&1&&&&&合計&8413\\\hline\end{tabular}\end{center}\end{table}\subsection{解析実験}本方式をWS上にインプリメントした.実験で使用したSTCDBのレコード数は上記の共起関係の収集で使用した約4000文から得られた約8000種である.この程度の蓄積では必ずしも日本語の共起関係をカバーしていないことは,~表\ref{3000sent}で示したように収縮率が4割程度であることからも明らかである.つまり6つの文節からなる文では5つの係り受け関係が生じるのであるが,その内2つ程度を新規に追加していく必要が残っていることになる.収縮率を裏返せば成功率は60%以下ということになる.具体的な実験で説明すると,本システムを利用して新たに新聞社説から100文を入力し,係り受け解析を行った.その結果を~表\ref{100sent}及び~表\ref{50sent}に示す.~表\ref{50sent}の50文は,~表\ref{100sent}の100文中で形態素分割が正しく出力されているものに限定して選択した.構文規則が全く白紙の状態から,4000文の共起関係を記憶することにより未登録の係り受けを除けば新聞社説の50文に対して係り受けは成功率79%である.未登録を失敗とすれば59%の成功率になる.\begin{table}[htb]\caption{100文の係り受け解析実験結果}\label{100sent}\begin{center}\begin{tabular}{|c|c|c|}\hline係り受け総数&1文当り平均係受数&未登録共起関係数\\\hline853&8.53&276(32\%)\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\caption{50文に対する係り受け成功率}\label{50sent}\begin{center}\begin{tabular}{|c|c|c||c|c|}\hline係り受け総数&平均文節数&未登録共起関係数&係り受け成功数&係り受け失敗数\\\hline389&8.73&100(26\%)&228(79\%)&61(21\%)\\\hline\end{tabular}\end{center}\end{table}共起関係を大規模に収集すれば,収縮率が漸近的に小さくなっていくことは上記のデータからも予想できるが,収縮率が10%を切る(すなわち成功率が90%を超える)にはどの程度の共起関係を収集すればよいかは現時点のデータでは不十分である.成功率は文の長さにも依存する.5文節程度の短い文に限れば成功率を90%以上にすることは不可能ではない.上記の実験データは,一般文章の係り受けを解析した場合であった.もし解析範囲をデータベースのフロントエンドや質問応答システム等の自然言語インタフェースあるいは天気予報といった特定分野に限定すると,文節数は少なくなり,使用するパターンも制限されたものが使われるものと思われ,本方式の特徴である規則作成の容易性及びインタラクティブな学習更新機能が即効的に作用することが期待できる.例えば天気予報文でよく出現する「Na(日中)はNb(南)のNc(風)で,」や「Na(明日)はNb(冬型)のNc(気圧配置)で,」といった表現では「Naは〜>Ncで,」の係り受け規則が適用できる.ところが一般の文章では「Na(最近)はNb(計算機)のNc(おかげ)で,」や「Na(大統領)はNb(ボストン)のNc(ホテル)で,」のように「Naは〜>Ncで,」の係り受け規則を適用できないものもある.係り受けの曖昧性の解消が分野を限定すればどの程度の効果を持つかは今後実験を重ねて行く必要がある.\subsection{課題}評価実験の解析失敗事例からいくつかの課題が出てきた.以下それらを列挙する.共通事項として,品詞を細分類することや意味情報を用いることが課題解決に必要である.\begin{itemize}\item[(1)]品詞の見直し「この」「あの」と「小さな」は品詞としてはどちらも連体詞であるが,次のように異なる構文役割を持っている.これは品詞体系の課題である.「身体(が|の)=>小さな人」は良いが,「N(が|の)=>(この|あの)」は成立しない.「一番=>大きな」は良いが,「ADV=>(この|あの)」は成立しない.\item[(2)]「NをNに」型「産業を中心に」,「技術等を対象に」,「今春を目標に」等がこのタイプになるが,受け側の語彙をサブの品詞カテゴリによって何らかの形でグループ化することが必要である.\item[(3)]並列句並列句は構文情報だけでは解釈困難であるから本方式の限界でもある.\hspace*{-1mm}「私は新聞\underline{と}本\underline{を}読む.」\hspace*{-2mm}と\hspace*{-1mm}「私は弟\underline{と}本\underline{を}読む.」\hspace*{-2mm}の区別には意味情報が必要となる.並列構造の解析を\cite{nagao1994}のように形態素解析と係り受け解析の間に挟むのが妥当であろう.\item[(4)]省略(文脈)「私は(t)赤いのがよい.」(t)には文脈によって「服は」,「車は」,「ワインは」などが入る.これは一文だけでは「本は面白いのがよい.」のと品詞レベルでは区別不可能で,係り受けが曖昧になる.これも意味情報あるいは品詞細分類が必要である.\end{itemize} \section{むすび} 2文節間の係り受け解析において,共起関係を実際のテキストから抽出し,頻度情報を付与したり,学習機能を利用すれば,構文解析規則に代わる言語リソースに成り得ることを示した.これは規則駆動による解析から事例駆動,データ駆動による解析への一つの例になる.共起関係は見方を変えれば,文脈自由文法になるが,共起関係は文法規則と言うよりはどちらかといえば共起辞書に近い.その理由は,形式が単純であり個数が10万や百万のオーダになるからである.現在,8500程度の共起関係で解析システムが動作しているが,これほど単純な規則を用いて一定水準の動作確認が出来たことは自然言語インタフェース等への応用の可能性を示唆している.また,法律,経済,医学等の個別分野における共起関係の分布パターンを特徴抽出することも興味ある研究課題である.解析性能の向上には,本論文で述べた原理的な方法以外に,AfBfCf等の3文節以上の多文節間の係り受け関係の導入,並列句を含めた係り受けの曖昧性解消策として従来から研究が進んでいる意味情報の利用,afbf,Afbf等の自立語も含めた文節リテラルによる例外規則としての付与,規則利用による冗長な付属語列を持つ共起関係のコンパクト化など様々な付加手続きを利用して,データ収集と性能評価を行う必要がある.縮退型共起関係を用いた構文解析が実際の自然言語処理の場で使用されるようにするには,たとえばタスクを限定して共起関係の登録数を増大させ新規の縮退型共起関係の登録回数を減らすことが第一の目標になる.もちろん量の増大に伴う副作用も検討していかなければならない.係り受け解析が,2項関係あるいはチョムスキ標準形のような単純なデータ構造を基本として,そのデータ上でのいくつかの条件付与で可能であるとすると,係り受け解析が複雑で抽象的な句構造規則を指向したものではなく,語彙辞書と単純なパターンである縮退型共起関係といったデータ指向の延長線上でかつ推論規則よりも単純なパターンマッチングによって実現可能になることが期待できることから本方式は人間の言語習得に関する研究においても検討材料を提供する可能性があるものと考えられる.\bibliographystyle{jnlpbbl}\bibliography{coop}\begin{biography}\biotitle{略歴}\bioauthor{安原宏}{1969年京都大学理学部卒業.1972年同大学院修士課程修了.同年,沖電気工業株式会社入社.1982年〜1992年第五世代コンピュータプロジェクトに従事.1986年〜1995年(株)日本電子化辞書研究所.1987年〜1995年(財)国際情報化協力センター機械翻訳システム研究所.1996年〜(財)イメージ情報科学研究所勤務.自然言語処理、概念をベースとした情報処理に興味を持っている.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-11
\section{はじめに} 現在,ニューラルネットワークを用いた機械翻訳(ニューラル機械翻訳)が機械翻訳の主流となっている.注意機構を用いた再帰型ニューラルネットワーク(RecurrentNeuralNetwork;RNN)に基づくニューラル機械翻訳モデルは初期のころから広く使用されてきたモデルであり,原言語文内の単語と目的言語文内の単語間の関係を捉える言語間注意機構を用いることで,従来のRNNベースのニューラル機械翻訳よりも高い精度を実現した\cite{Bahdanau-attention,luong-attention}.また,従来の言語間注意機構に加えて,同じ文中の単語間の関係を捉える自己注意機構を導入したTransformerモデル\cite{transformer}が提案され,RNNや畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)を用いた手法と比べて高い精度を実現することから,近年注目されている.ニューラル機械翻訳の性能を改善する手法については様々な研究がなされているが,その内の一つに,上述の言語間注意機構に制約を与える研究がある\cite{supervised-attention,mi-etal-2016-supervised,garg-jointly}.これらの研究では,アライメントツールを用いて原言語文と目的言語文間の単語の対応関係を予め取得し,その対応関係を教師データとして与えて言語間注意機構を学習させることで翻訳性能の向上を実現している.機械翻訳手法の一つとして,原言語文とそれに対応する内容の画像を入力することで翻訳性能の改善を目指すマルチモーダルニューラル機械翻訳\cite{multimodal-shared-task}が提案されている.翻訳時に与えられる画像は,翻訳の曖昧性解消や省略補完の手がかりとして役立つと考えられ,画像を参照することでより質の高い翻訳が実現されることが期待されている.マルチモーダルニューラル機械翻訳のモデルとして,Helclら\cite{helcl-cuni-system}は,CNNによって抽出した画像の特徴量を翻訳に活用するために,文中の単語と画像の領域との対応関係を捉える視覚的注意機構をTransformerモデルのデコーダ内に導入したモデルを提案している.また,Delbrouckら\cite{enc-visual-attention}は,RNNベースのマルチモーダルニューラル機械翻訳モデルのエンコーダに視覚的注意機構を導入したモデルを提案している.しかし,これらの視覚的注意機構は,マルチモーダルニューラル機械翻訳の訓練時に教師なしで自動的に学習が行われている.そのため,本来捉えるべき対応関係を常に捉えられているとは限らない.本稿では,マルチモーダルニューラル機械翻訳の性能改善のために,人手により与えられた文中の単語と画像領域との対応関係に基づいて教師付き学習を行う制約付き視覚的注意機構を提案する.具体的には,原言語文中の単語と画像内のオブジェクトとの対応関係が付与されたデータを教師データとして用いることで,Transformerモデルエンコーダ内の視覚的注意機構を直接学習させることを行う.Multi30kデータセット\cite{multi30k}を用いた英独翻訳および独英翻訳とFlickr30kEntitiesJPデータセット\cite{nakayama-tamura-ninomiya:2020:LREC}を用いた英日翻訳および日英翻訳の評価実験を行い,提案する教師付き視覚的注意機構によってTransformerベースのマルチモーダル機械翻訳モデルの翻訳性能が改善することが確認できた.また,教師付きの言語間注意機構と組み合わせることにより,さらに翻訳性能が改善されることを確認した.本稿の構成は以下の通りである.\ref{sect:Background}節で本研究の背景について述べ,\ref{sect:proposal_method}節で提案手法について説明する.\ref{sect:exp}節では実験について述べ,\ref{sect:analysis}節で実験結果の考察を行う.\ref{sect:related_work}節で関連研究について述べ,最後に\ref{sect:Conclusion}節でまとめと今後の課題について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Transformerベースのニューラル機械翻訳} \label{sect:Background}本節では,本研究で提案するマルチモーダル機械翻訳モデルの基礎となるTransformerベースのニューラル機械翻訳を説明する.まず最初にTransformerモデルの概要を述べる.次に,Transformerモデルにおける教師付き言語間注意機構について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Transformerモデルの概要}Transformerモデルは,原言語文を受け取って中間表現に変換するエンコーダと,その中間表現を受け取って目的言語文を生成するデコーダから構成されている.エンコーダとデコーダはそれぞれエンコーダレイヤとデコーダレイヤを複数スタックした構成となっている.各エンコーダレイヤは自己注意機構と位置毎の全結合レイヤの2つのサブレイヤを持っている.また,各デコーダレイヤは上記の2つのサブレイヤの間に,言語間注意機構を加えた3つのサブレイヤから構成されている.これらのサブレイヤ間では,残差接続\cite{resnet}とレイヤの正規化\cite{layer-normalization}が用いられる.自己注意機構と言語間注意機構(Att)は以下の式で表される.\begin{align}\label{equ:att}{\rmAtt}(Q,K,V)&=AV\\A&={\rmsoftmax}(\frac{QK^\top}{\sqrt{d_k}})\label{equ:attmat}\end{align}ここで,$A$は注意行列と呼ばれる.また,$Q,K,V$はエンコーダ及びデコーダにおける隠れ状態を表し,$d_k$は$Q,K,V$の次元数を表す.自己注意機構では,上式の$Q,K,V$として直前のサブレイヤの出力を用いる.また,言語間注意機構では,$Q$としてデコーダ内の直前のサブレイヤの出力,$K$と$V$としてエンコーダの出力を用いる.自己注意機構では同一文中の単語間の関係を計算することができる.また,言語間注意機構では原言語文内の単語と目的言語文内の単語間の関係を計算することができる.Transformerの特徴として,隠れ状態を部分空間に分割し,各部分空間において様々な情報を表現することを可能にするマルチヘッド注意機構がある.$h$個のヘッドからなるマルチヘッド注意機構(MHA)は以下のように表される.\begin{align}{\rmMHA}(Q,K,V)&=[head_1;\dots;head_h]W^O\label{equ:MHA}\\head_i&={\rmAtt}(QW^Q_i,KW^K_i,VW^V_i)\label{equ:head_i}\end{align}ここで,$[$$]$はベクトルを結合することを表している.$W^Q_i,W^K_i,W^V_i\in\mathbb{R}^{d_{model}\timesd_k}$はそれぞれヘッド毎に定義されるパラメータ行列であり,$d_{model}$次元ベクトルを線形変換により$d_k$次元に縮退させる.この$d_k$次元ベクトルが各ヘッドに渡される.$W^O\in\mathbb{R}^{hd_{k}\timesd_{model}}$はパラメータ行列であり,各ヘッドの出力を結合したベクトルに対し線形変換を行う.なお,$d_{model}$は埋め込み次元数を表しており,$d_k=d_{model}/h$である.単語位置毎の全結合レイヤ(FFN)における計算は,以下の式で表される.\begin{equation}\label{equ:FFN}FFN(x)=\max(0,xW_1+b_1)W_2+b_2\end{equation}ここで,$W_1\in\mathbb{R}^{d_{model}\timesd_{ff}}$,$W_2\in\mathbb{R}^{d_{ff}\timesd_{model}}$はパラメータ行列,$b_1\in\mathbb{R}^{d_{ff}}$,$b_2\in\mathbb{R}^{d_{model}}$はバイアス項である.また,全結合レイヤへの入力と出力の次元数は$d_{model}$,中間レイヤの次元数は$d_{ff}$である.Transformerでは語順の情報を組み込むために以下で表される位置エンコーディングが導入されている.\begin{align}\label{equ:PE}PE_{(pos,2i)}&=\sin(pos/10000^{2i/d_{model}})\\PE_{(pos,2i+1)}&=\cos(pos/10000^{2i/d_{model}})\end{align}ここで,$pos$は単語の位置,$i$は各成分の次元を表す.この位置エンコーディングを単語の埋め込み表現に加えることで,単語の語順の情報を付与することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師付き言語間注意機構}\label{sect:supervised_cross-attention}Gargら\cite{garg-jointly}は,Transformerモデルの言語間注意機構に原言語と目的言語間の単語の対応関係を教師データとして与えて学習を行う手法を提案している.アライメントツールを用いて言語間の対応関係を取得し,マルチヘッド言語間注意機構のある1つのヘッドとの間で計算される誤差を最小化することによって注意機構の学習を行う.誤差は以下の交差エントロピーによって計算される.\begin{equation}\label{CE_src_tgt}\mathcal{L}_a(A)=-\frac{1}{M}\sum_{m=1}^M\sum_{n=1}^NG_{m,n}\times\log(A_{m,n})\end{equation}ここで,$M$は目的言語文の文長,$N$は原言語文の文長,$A$は式(\ref{equ:head_i})によって計算される言語間注意機構の注意行列,$G$は教師データとなる単語の対応関係を表した行列である.なお,$n$番目の原言語文の単語と$m$番目の目的言語文の単語が対応関係にある場合は,$G_{m,n}$は1となり,それ以外は0となる.この機械翻訳モデルの目的関数$\mathcal{L}$としては,上述の$\mathcal{L}_a(A)$を翻訳の誤差$\mathcal{L}_t$に加えた以下の損失関数を用いる.\begin{equation}\label{total_loss}\mathcal{L}=\mathcal{L}_t+\lambda\mathcal{L}_a(A),\end{equation}ここで,$\lambda$はハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-2ia10f1.pdf}\end{center}%%%%\label{fig:visual_attention_orig}%%%%\label{fig:visual_attention_crane}\caption{視覚的注意機構の例}\label{fig:visual_attention_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Transformerベースのマルチモーダルニューラル機械翻訳に関する研究}マルチモーダルニューラル機械翻訳モデルとして様々なネットワーク構造のモデルが提案されているが,近年は,Transformerモデルベースのモデルが盛んに研究されている.例えば,Takushimaら\cite{takushima_cicling}はCNNとTransformerエンコーダからなる画像エンコーダをTransformerモデルに導入したマルチモーダルニューラル機械翻訳モデルを提案している.彼らのモデルでは,まず,画像エンコーダで入力画像に対してCNNを適用し,入力画像の特徴量を獲得する.その後,獲得した特徴量をTransformerモデルのエンコーダに入力し,自己注意機構によって画像の領域間の関係を考慮したエンコードを行う.画像のエンコードと並行してTransformerエンコーダにより原言語文をエンコードし,画像と原言語文のエンコード結果を結合した中間表現からTransformerモデルのデコーダにより目的言語文を生成する.また,Helclら\cite{helcl-cuni-system}は,Transformerデコーダの内部で言語間注意機構の出力とCNNの出力を用いた視覚的注意機構によって画像情報を活用するモデルを提案している.図\ref{fig:visual_attention_sample}に視覚的注意機構の例を示す.図において,原画像がより鮮明に見えている部分に強く注意が向けられていることを表している.入力された画像は,CNNによって高次元の目の粗い格子状の特徴量へと変換される.特徴量中の各領域は,元の画像の領域に対応しており,高次元の特徴量を持っている.%%%%例えば,図\ref{fig:visual_attention_sample}(\subref{fig:visual_attention_crane})は$4\times4$の領域に変換されていて,例えば,図\ref{fig:visual_attention_sample}(b)は$4\times4$の領域に変換されていて,各領域が2,048次元の特徴量を保有している.視覚的注意機構では,各単語はこれらの画像特徴量の領域に対して注意が向けられる.このため,視覚的注意は,領域のヒートマップとして可視化することが出来る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{教師付き視覚的注意機構を用いたマルチモーダルニューラル機械翻訳} \label{sect:proposal_method}本節では,教師付き視覚的注意機構を用いたマルチモーダルニューラル機械翻訳を提案する.まず,ベースラインとして用いるTransformerベースのマルチモーダルニューラル機械翻訳モデルを説明する.その後,マルチモーダルニューラル機械翻訳の翻訳性能を向上させるための教師付き視覚的注意機構を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-2ia10f2.pdf}\end{center}\caption{マルチモーダルニューラル機械翻訳モデル}\label{fig:MNMT}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Transformerベースのマルチモーダルニューラル機械翻訳モデル}図\ref{fig:MNMT}に本研究で用いるTransformerベースのマルチモーダルニューラル機械翻訳モデルの概要図を示す.本モデルは,原言語文エンコーダとデコーダに加えて,画像エンコーダを持つ.画像エンコーダでは,まず,入力した画像に対してCNNを適用し,画像の特徴量を得る.次に,CNNの出力に対して自己注意機構を適用する.この自己注意機構によって画像の領域間の関係性が計算される.最後に,自己注意機構の出力に対して位置毎の全結合レイヤを適用したものが画像エンコーダ全体の出力となる.本モデルでは,従来のモデルとは異なり,原言語文エンコーダの内部において原言語文に対する自己注意機構の出力と画像エンコーダの出力を用いて,注意機構の一種である視覚的注意機構\cite{libovicky-etal-2018-input}により,原言語文の単語と画像の領域との関係性を計算する.視覚的注意機構では,式(\ref{equ:att})において,$Q$として原言語文エンコーダの自己注意機構の出力,$K$と$V$として画像エンコーダの出力を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師付き視覚的注意機構}\label{sect:supervised_visual-attention}提案する教師付き視覚的注意機構は,原言語文の単語と画像内のオブジェクトとの対応関係を人手で付けたものを教師データとして与えて視覚的注意機構を学習する.具体的には,画像エンコーダの出力と原言語文エンコーダ内の自己注意機構の出力との間の視覚的注意機構が教師データに近づくような制約を与える.視覚的注意機構に対する制約は,教師となる対応関係を示した行列と,式(\ref{equ:attmat})で計算される注意行列との間の誤差が最小となるように適用される.誤差は以下の交差エントロピーによって計算される.\begin{equation}\label{CE_img_src}\mathcal{L}_{img\_src}(A)=-\frac{1}{M}\sum_{m=1}^M\sum_{n=1}^NG_{m,n}\times\log(A_{m,n})\end{equation}ここで,$M$は原言語文の文長を,$N$はCNNによって畳み込まれた画像の領域数を表す.また,$A$は注意行列を,$G$は教師データとなる原言語文内の単語と画像内のオブジェクトの対応関係を示した行列を表す.原言語文内の$m$番目の単語が画像の$n$番目の領域に対応しているとき,$G_{m,n}$は1となり,それ以外の時は0となる.本研究では,Flickr30kEntitiesデータセット\cite{flickr30k-entities}を用いて視覚的注意機構に対する教師データを作成した.このデータセットはFlickr30kデータセット\cite{flickr30k}から作られたデータセットである.一つの画像に対して5つのキャプション文がつけられており,各キャプション文中の単語が画像内のオブジェクトと関係がある場合,図\ref{fig:annotation_sample}のようにその単語が画像内のどの領域と関係があるかが示されたデータセットとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{28-2ia10f3.pdf}\end{center}\caption{Flickr30kEntitiesの例}\label{fig:annotation_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-2ia10f4.pdf}\end{center}%%%%\label{fig:gold_sample}%%%%\label{fig:1-dim_sample}\caption{教師付き視覚的注意機構に対する教師データの作成例}\label{fig:i_s_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%今回はこのデータセットから原言語文内の単語と画像内のオブジェクトとの対応関係を抽出し,教師データを作成する.まず,Flickr30kEntitiesデータセットに付与されている単語とオブジェクト間の対応関係をCNNで畳み込んだ際の領域にスケールさせる.例えば,画像エンコーダに用いるCNNによって画像を$4\times4$に畳み込んだ場合,画像内の各オブジェクトと16個の領域との対応関係を求める.複数の領域に対応する場合は,各領域に等しく対応が張られるように値を平均化する.%%%%すなわち,値を「1/対応付いた領域数」とする(図\ref{fig:i_s_sample}(\subref{fig:gold_sample})).すなわち,値を「1/対応付いた領域数」とする(図\ref{fig:i_s_sample}(a)).%%%%その後,2次元の領域を1次元に線形化する(図\ref{fig:i_s_sample}(\subref{fig:1-dim_sample})).その後,2次元の領域を1次元に線形化する(図\ref{fig:i_s_sample}(b)).この手続きを原言語文のすべての単語に対して行う.画像内のオブジェクトと対応がない単語については,Liuら\cite{supervised-attention}やMiら\cite{mi-etal-2016-supervised}に倣い,特殊トークンを用いて処理を行った.LiuらやMiらは教師付き言語間注意機構を学習する際に特殊トークンを導入している.%%%%本手法では,図\ref{fig:i_s_sample}(\subref{fig:1-dim_sample})に示した行列の先頭に特殊トークンを付与し,本手法では,図\ref{fig:i_s_sample}(b)に示した行列の先頭に特殊トークンを付与し,画像内のどのオブジェクトとも対応関係にない単語は特殊トークンに対応付ける.教師付き視覚的注意機構を用いたマルチモーダルニューラル機械翻訳モデルの目的関数$\mathcal{L}$は以下のように表される.\begin{equation}\label{equ:img_src_loss_func}\mathcal{L}=\mathcal{L}_T+\lambda_1\mathcal{L}_{img\_src}\end{equation}ここで,$\mathcal{L}_T$はマルチモーダルニューラル機械翻訳モデルの損失関数,$\mathcal{L}_{img\_src}$は視覚的注意機構における注意行列と教師データとなる行列との損失関数を表している.また,$\lambda_1$は翻訳誤差$\mathcal{L}_T$と教師付き視覚的注意機構に関する誤差$\mathcal{L}_{img\_src}$の重みを制御するためのハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia10f5.pdf}\end{center}\caption{言語間注意機構に対する教師データの例}\label{fig:s_t_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師付き視覚的注意機構と教師付き言語間注意機構の組み合わせ}\label{sect:cross_attn}本研究では,教師付き視覚的注意機構に加えて,\ref{sect:supervised_cross-attention}節で説明した教師付き言語間注意機構を我々のマルチモーダルニューラル機械翻訳モデルに導入し,翻訳性能の改善を図る.教師付き言語間注意機構を学習するためには,原言語文内の単語と目的言語文内の単語との対応関係を取得する必要がある.本研究では,Liuら\cite{supervised-attention}やGargら\cite{garg-jointly}のように,アライメントツールを用いて単語間の対応関係を取得した.アライメントツールとしては,GIZA++\cite{giza++}をマルチスレッドで動作させることを可能としたMGIZA\cite{mgiza}を用いた.目的言語文内のある1単語が複数の原言語文内の単語と対応関係にある場合,等しく対応が張られるように値を平均化する.すなわち,値を「1/対応付いた単語数」とする.また,\ref{sect:supervised_visual-attention}節のように,どの単語とも対応関係がない単語については,特殊トークンを用いて処理を行った.具体的には,図\ref{fig:s_t_sample}に示すように原言語文の先頭に特殊トークンを設置し,原言語文内のどの単語とも対応関係を持たない目的言語文の単語はこの特殊トークンに対応が張られるようにする.教師付き視覚的注意機構と教師付き言語間注意機構の両方を用いるマルチモーダルニューラル機械翻訳モデルの目的関数$\mathcal{L}$は次式のように表される.\begin{equation}\label{equ:both_loss_func}\mathcal{L}=\mathcal{L}_T+\lambda_1\mathcal{L}_{img\_src}+\lambda_2\mathcal{L}_{src\_tgt},\end{equation}ここで,$\mathcal{L}_{src\_tgt}$は言語間注意機構における注意行列と教師データとの損失関数を表している.また,$\lambda_1$は,翻訳誤差$\mathcal{L}_T$と視覚的注意機構に関する誤差$\mathcal{L}_{img\_src}$との重みを制御するハイパーパラメータであり,$\lambda_2$は,翻訳誤差$\mathcal{L}_T$と言語間注意機構に関する誤差$\mathcal{L}_{src\_tgt}$との重みを制御するハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sect:exp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}本研究では,英独翻訳,独英翻訳,英日翻訳,日英翻訳の4つの実験を行った.英独翻訳および独英翻訳では,Multi30kデータセット\cite{multi30k}を用いた.このデータセットは,画像とその説明文が対になったもので,訓練データは29,000文対,開発データは1,014文対である.また,テストデータとしてはtest2016(1,000文対)を用いた.英日翻訳および日英翻訳では,Flickr30kEntitiesJPデータセット\cite{nakayama-tamura-ninomiya:2020:LREC}を用いた.Multi30kデータセットのテキストの前処理に倣い,英文には小文字化,句読点の正規化,Mosesのトークナイザ\cite{moses}を施している.日本語文についてはKyTea\cite{kytea}を用いて単語分割を行った.また,訓練データには日英共に100単語以下の対訳文のみを用いた.訓練データは59,516文対,開発データは2,027文対,テストデータは2,000文対である.画像に対する前処理として,画像サイズを$256\times256$になるようにリサイズした後,$224\times224$となるように中央部にクロップ処理を施した.画像エンコーダにおいて使用するCNNはResNet50\cite{resnet}を用いた.なお,ResNet50から取得する画像特徴量は最終の畳み込みレイヤの出力を用いた.したがって,抽出される画像特徴量のサイズは$7\times7\times2048$である.また,学習時にCNNのfine-tuningは行わない.画像エンコーダ,原言語文エンコーダおよびデコーダレイヤはそれぞれ6レイヤから成る.マルチヘッド注意機構におけるヘッド数は8,埋め込み次元数は512とした.また,単語位置毎の全結合レイヤの中間レイヤの次元数は2,048とした.モデルの学習時にはミニバッチサイズを128とし,40エポックの学習を行った.最適化手法にはAdam\cite{Adam-optimizer}を用いた.英独および独英実験ではBPE\cite{bpe}を適用した.英側の単語と独側の単語を合わせてBPEを学習し,マージのオペレーション数は6,000とした.推論時には目的言語文の生成を貪欲法により行った.実験では機械学習ライブラリであるPyTorchのバージョン1.1.0を用いて実装したモデルを使用した.翻訳性能はBLEU\cite{bleu}とMETEOR\cite{meteor}を用いて評価した.テスト時には開発データに対するBLEU値が最も高かったエポックのモデルを選択し,テストデータに対する性能を評価した.また,ブートストラップ・リサンプリング法\cite{koehn-2004-statistical}により統計的有意差の検定を行った.BLEUの検定にはpaired\_bootstrap\_v13a\footnote{%\url{http://www.cs.cmu.edu/~ark/MT/paired_bootstrap_v13a.tar.gz}}を,METEORの検定にはjhclark/multeval\footnote{%\url{https://github.com/jhclark/multeval}}をforkしたozancaglayan/multeval\footnote{%\url{https://github.com/ozancaglayan/multeval}}を用いた.実験では,画像無しのTransformerモデル(NMT),画像無しのTransformerモデルに教師付き言語間注意機構を適用したモデル(NMT+SCA),教師付き注意機構を用いないマルチモーダルTransformerモデル(MNMT),教師付き視覚的注意機構のみを用いるモデル(MNMT+SVA),教師付き言語間注意機構のみ用いるモデル(MNMT+SCA),教師付き視覚的注意機構と教師付き言語間注意機構の両方を用いるモデル(MNMT+SVA+SCA)を比較した.また,教師付き視覚的注意機構及び教師付き言語間注意機構では,6レイヤスタックされた原言語文エンコーダレイヤおよびデコーダレイヤの内,最終の6レイヤ目の注意機構の一つのヘッドに対して制約を与えて教師付き学習を行った.なお,\ref{sect:cross_attn}節で説明した目的関数$\mathcal{L}$におけるハイパーパラメータはGargらに倣い,$\lambda_1=0.05$,$\lambda_2=0.05$とした.また,教師付き視覚的注意機構のみを用いるモデルのハイパーパラメータは$\lambda_1=0.05$とした.本実験で利用したデータセットには,単語と画像内のオブジェクトとの対応は英語のキャプション文にのみ与えられている.英独翻訳と英日翻訳については,人手によって付けられた,英語のキャプション文内の単語と画像内のオブジェクトとの対応関係を直接利用して,視覚的注意機構に対する教師データを作成した.独英翻訳と日英翻訳については,初めに人手によって付けられている英語のキャプション文内の単語と画像内のオブジェクトとの対応関係を,MGIZAによって得た言語間の対応関係を用いて独語および日本語の文と画像内のオブジェクトとの対応関係に変換し,視覚的注意機構に対する教師データを作成した.なお,今回英日および日英実験で用いたFlickr30kEntitiesJPデータセットには,原言語文内の単語と目的言語文内の単語との間に人手で対応関係がつけられている.そこで,NMT+SCA,MNMT+SVA,MNMT+SCA,MNMT+SVA+SCAの場合について,この人手での対応関係を用いた実験も行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{10table01.tex}\hangcaption{実験結果.BとMはそれぞれBLEUとMETEORを表す.${\ast}$マークはMNMTと比較して有意水準5\%($p\leq0.05$)で検定を行い,有意と判定されたことを表す.また,${\dag}$マークはMNMT+SVAと比較して有意水準5\%で検定を行い,有意と判定されたことを表す.さらに,${\ddag}$マークはMNMT+SCAと比較して有意水準5\%で検定を行い,有意と判定されたことを表す.}\label{tab:mgiza_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}実験結果を表\ref{tab:mgiza_result}に示す.表を見ると,MNMT+SVAはすべての実験においてMNMTのスコアを上回っており,英独および英日・日英実験については検定によりその有意差が確認できる.また,MNMT+SCAについては,英独および独英実験においてはMNMTのスコアを上回っており,有意差もあることが確認できる.MNMT+SVA+SCAでは,英独実験についてはMNMT+SVAやMNMT+SCAと比較してそれぞれ同程度スコアが向上しており,教師付き視覚的注意機構と教師付き言語間注意機構を組み合わせて利用することの有効性が確認できた.また,英日および日英実験については,MNMT+SCAではMNMTと比較して同程度もしくは下がる結果であるが,教師付き視覚的注意機構と合わせたMNMT+SVA+SCAではMNMT+SVAを上回っており,教師付き言語間注意機構と教師付き視覚的注意機構を組み合わせることの有効性が確認できた.次に,人手による対応関係を用いた実験結果を見ると,NMT+SCA(人手)およびMNMT+SCA(人手)ではMGIZAによって対応関係を取得したNMT+SCAおよびMNMT+SCAと比較して性能が向上していることが確認できた.しかし,MNMT+SVA+SCAとMNMT+SVA+SCA(人手)を比較すると,MNMT+SVA+SCA(人手)のスコアは同程度かもしくは少し下がる結果となった.この結果より,人手で付けられた対応関係を用いて言語間注意機構を教師付き学習する際には,教師付き視覚的注意機構を同時に用いることの相乗効果は見られなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{28-2ia10f6.pdf}\end{center}%%%%\label{fig:gold_man}%%%%\label{fig:orig_man}%%%%\label{fig:super_man}\caption{単語manに対する視覚的注意}\label{fig:man_analysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} \label{sect:analysis}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{視覚的注意の例}図\ref{fig:man_analysis}と図\ref{fig:lamp_analysis}はそれぞれ英日翻訳におけるテストデータ中の単語manと単語lampに対する視覚的注意を表している.これらの図において,より暗くなっている部分はより強く注意が向けられていることを表している.図を見ると,視覚的注意機構に制約を与えない通常の視覚的注意機構では画像全体に等しく注意が向けられている%%%%(図\ref{fig:man_analysis}(\subref{fig:orig_man}),(図\ref{fig:man_analysis}(b),%%%%図\ref{fig:lamp_analysis}(\subref{fig:orig_lamp})).図\ref{fig:lamp_analysis}(b)).これに対し,制約を与えて学習させた教師付き視覚的注意機構では,それぞれ対応する領域に注意が向けられており,視覚的注意が改善する事例があることが確認できた%%%%(図\ref{fig:man_analysis}(\subref{fig:super_man}),(図\ref{fig:man_analysis}(c),%%%%図\ref{fig:lamp_analysis}(\subref{fig:super_lamp})).図\ref{fig:lamp_analysis}(c)).これらの結果より,教師付き視覚的注意機構が,各単語の注意を関連する領域に向けさせた可能性があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{28-2ia10f7.pdf}\end{center}%%%%\label{fig:gold_lamp}%%%%\label{fig:orig_lamp}%%%%\label{fig:super_lamp}\caption{単語lampに対する視覚的注意}\label{fig:lamp_analysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{翻訳例}図\ref{fig:examples}は日英翻訳と独英翻訳のテストデータに対する翻訳結果の例を表している.図を見ると,教師付き注意機構を用いないマルチモーダル機械翻訳モデル(MNMT)によって翻訳された文は,原言語文のいくつかの情報が抜け落ちていることが分かる.%%%%例えば,図\ref{fig:examples}(\subref{fig:example_a})では,例えば,図\ref{fig:examples}(a)では,画像内の男性が持っている「携帯電話」および男性の状態を表す「話しながら」という情報が抜け落ちている.%%%%また,図\ref{fig:examples}(\subref{fig:example_b})では,「ayellowshovel」という情報が,また,図\ref{fig:examples}(b)では,「ayellowshovel」という情報が,%%%%図\ref{fig:examples}(\subref{fig:example_c})では画像内の男性の特徴である「dreadlocks」という情報が抜け落ちている.図\ref{fig:examples}(c)では画像内の男性の特徴である「dreadlocks」という情報が抜け落ちている.これに対し,教師付き視覚的注意機構を用いたモデル(MNMT+SVA)ではこれらの抜け落ちていた情報を正しく翻訳できる事例があることが確認できた.これは,教師付き視覚的注意機構によって原言語文の各単語と画像内の関連する領域が対応付けられた可能性があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{28-2ia10f8.pdf}\end{center}%%%%\label{fig:example_a}%%%%\label{fig:example_b}%%%%\label{fig:example_c}\caption{翻訳例}\label{fig:examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sect:related_work}ニューラル機械翻訳は,原言語の単語と目的言語の単語間での自動もしくは人手による対応関係に基づいて言語間注意機構を訓練することによって,その性能が改善されている.Liuら\cite{supervised-attention}やMiら\cite{mi-etal-2016-supervised}はRNNベースのニューラル機械翻訳モデルに,Gargら\cite{garg-jointly}はTransformerベースのニューラル機械翻訳モデルにおいて制約付き言語間注意機構を提案している.ニューラル機械翻訳の性能改善に画像が有効であることが示されている\cite{elliott-2018-adversarial,caglayan-etal-2019-probing}.マルチモーダルニューラル機械翻訳の研究も盛んに行われ,様々なモデルが提案されている.初期のころは,RNNベースのニューラル機械翻訳\cite{Bahdanau-attention}を拡張させたRNNベースのマルチモーダルニューラル機械翻訳\cite{calixto-etal-2017-doubly,caglayan-etal-2017-lium,enc-visual-attention}が主流であった.近年は,Transformerベースのマルチモーダルニューラル機械翻訳の研究が盛んに行われている\cite{helcl-cuni-system,libovicky-etal-2018-input,gronroos-etal-2018-memad,ive-etal-2019-distilling,zhang2020neural}.ほとんどのマルチモーダルニューラル機械翻訳モデルでは,視覚的注意機構によって画像の特徴を組み込んでいる.原言語文の単語と画像領域との関係を捉えるために視覚的注意機構を利用している研究\cite{enc-visual-attention,zhang2020neural}や,目的言語文の単語と画像領域を捉えるために視覚的注意機構を利用している研究\cite{calixto-etal-2017-doubly,helcl-cuni-system,libovicky-etal-2018-input,ive-etal-2019-distilling,takushima_cicling}がある.なお,これらの研究で利用されている視覚的注意機構は訓練時に自動的に学習が行われており,視覚的注意機構に制約を加えた手法ではない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} \label{sect:Conclusion}本稿では,教師付き視覚的注意機構を用いるマルチモーダルニューラル機械翻訳モデルを提案した.提案手法では,画像領域とその説明文中の単語との間に人手で付けられている対応関係を用いて視覚的注意機構の教師データを作成し,その教師データによってマルチモーダルニューラル機械翻訳モデルのエンコーダ内の視覚的注意機構に制約を与えて学習する.実験では,Multi30kデータセットを用いた英独翻訳および独英翻訳とFlickr30kEntitiesJPデータセットを用いた英日翻訳および日英翻訳を行い,提案手法によってTransformerベースのマルチモーダルニューラル機械翻訳モデルの性能が改善できることを確認した.今後は,本実験で用いたTransformerベースのマルチモーダルニューラル機械翻訳モデル以外のモデルに対しても,提案手法である制約を与えた視覚的注意機構が有効であるかどうかを検証していきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は国際会議The28thInternationalConferenceonComputationalLinguistics(COLING2020)に採択された論文\cite{nishihara-etal-2020-supervised}に基づいて日本語で書き直し,説明や評価を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである.また,本研究の一部はJSPS科研費JP20K19864の助成を受けたものである.ここに謝意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{10refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{西原哲郎}{%2020年愛媛大学工学部情報工学科卒業.2020年より同大学院理工学研究科修士課程に在学.}\bioauthor{田村晃裕}{%2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教,2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{%1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor{表悠太郎}{%2019年愛媛大学工学部情報工学科卒業.2019年より同大学院理工学研究科修士課程に在学.}\bioauthor{中山英樹}{%2006年東京大学工学部機械情報工学科卒業.2011年同大学大学院情報理工学系研究科知能機械情報学専攻博士課程修了.博士(情報理工学).2012年より東京大学大学院情報理工学系研究科創造情報学専攻講師.2018年より同准教授,現在に至る.画像認識,自然言語処理,機械学習の研究に従事.情報処理学会,電子情報通信学会,IEEE,ACM各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V19N05-01
\section{はじめに} オノマトペとは,「ハラハラ」,「ハキハキ」のような擬音語や擬態語の総称である.文章で物事を表現する際に,より印象深く,豊かで臨場感のあるものにするために利用される.日本語特有の表現方法ではなく,様々な言語で同じような表現方法が存在している\addtext{{\cite{Book_03}}}.このようなオノマトペによる表現は,その言語を\addtext{母語}としている人であれば非常に容易に理解することができる.また,オノマトペは音的な情報から印象を伝えるため,ある程度固定した表現もあるが,音の組み合わせにより様々なオノマトペを作ることも可能であり,実際様々なオノマトペが日々創出されている\addtext{{\cite{Book_05,Book_06}}}.そのため,国語辞書などにあえて記載されることは稀なケースであり,また,記載があったとしても,使用されているオノマトペをすべて網羅して記載していることはない\addtext{{\cite{Book_04}}}.そのため,その言語を\addtext{母語}としない人にとっては学習し難い言語表現である.特に,オノマトペを構成する文字が少し異なるだけでまったく異なる印象を与えることも学習・理解の難しさを助長していると考えられる.例えば先の例の「ハラハラ」という危惧を感じる様子を表現するオノマトペの場合,「ハ」を濁音にすると「バラバラ」となり,統一体が部分に分解される様子を表現し,また,半濁音の「パ」にすると「パラパラ」となり,少量しか存在しない様子を表現する.さらに,「ハラハラ」の「ラ」を「キ」にした「ハキハキ」では,物の言い方が明快である様子を表現するオノマトペになる.これらのオノマトペの特徴は,人が学習するときだけでなく,コンピュータで扱う際にも困難を生じさせる.そこで本稿では,オノマトペが表現する印象を推定する手法を提案する.日本語を対象に,オノマトペを構成する文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定する.\addtext{例えば,「チラチラ」というオノマトペの印象を知りたい場合,本手法を用いたシステムに入力すると「少ない」や「軽い」などという形容詞でその印象を表現し出力することができる.}これにより,日本語を\addtext{{母語}}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.また,機械翻訳や情報検索・推薦の分野でも活用することができると考えられる. \section{関連研究と本研究の位置づけ} \addtext{オノマトペは,感覚と強く関連する言葉であることから,心理学や認知科学など幅広い分野で研究対象とされている.例えば,映像などの視覚や音などの聴覚から感じる印象をオノマトペを用いて調査し,人が感じる印象とオノマトペとの関係性を抽出したり}\addtext{{\cite{Article_10,Article_11,Article_12,Article_13}},味覚の官能評価においてその評価項目としてオノマトペが利用され,オノマトペと食品の硬さを示}\addtext{す応力との関連性を評価したりしている{\cite{Article_14,Article_15}}.}本稿で対象とする言語処理の分野におけるオノマトペに関する関連研究として,オノマトペ辞書の構築\cite{Article_01,Article_02}やオノマトペの自動分類手法\cite{Article_03}などが提案されている.前者では,大規模なWebの情報を利用し,主に用例や動詞による同義表現などが調べられるオノマトペ辞書を自動で構築している.高い精度で用例を抽出できているが,新たなオノマトペが日々創出され続け,用法も変化していくため,辞書も構築し続けなければならないという問題はある.また,本稿で対象にしているオノマトペが表現する印象を扱うことはできない.後者では,10種類の意味を動詞で表現し,292語のオノマトペがどの意味であるかを自動分類している.Webの情報から算出した共起頻度と子音と母音の出現頻度を用い,クラスタリングすることで自動分類を実現している.しかし,オノマトペ中のモーラの並びなどオノマトペの構造に深く着目した処理とはなっていない.また,定義している意味や分類するオノマトペの数が少ないという問題がある.本稿では,未知のオノマトペが表現する印象は,類似したオノマトペが表現する印象と似ているという考えに基づき,類似度計算により類似したオノマトペを特定し,そのオノマトペが表現する印象を推定する.しかし,前述したように,オノマトペを構成する文字が少し異なるだけでまったく異なる印象を与えることもオノマトペの特徴である.そこで,既に出版されているオノマトペ辞書\cite{Book_01}に掲載されているオノマトペ1,058語を基に,オノマトペを構成する文字列とその構造を解析し,オノマトペが表現している印象を自動推定できる手法を提案する.具体的には,オノマトペ中のモーラの並びとモーラを構成する各音素が表現する印象をベクトル化した音象徴という2種類の特徴を利用することにより,先の問題を解決できる類似度計算を提案する.これにより,大規模な辞書を作成・利用することなく,新たに創出される未知のオノマトペの印象も推定することができる.また,推定する印象は48種類の形容詞で定義し,より詳細にオノマトペを理解できるようにしている. \section{オノマトペの印象の推定方法} 本論文では,既に出版されているオノマトペ辞書に掲載されているオノマトペにそれらが表現している印象を事前に人手で付与したデータを用い,類似したオノマトペに付与されている印象を推定結果として出力する.ここで重要になるのが,「類似度の計算方法」と「印象語の出力方法」である.以下,順に説明する.\subsection{類似度の計算方法}オノマトペから抱く印象は,主にオノマトペの表記に使用されているモーラ自体やモーラの並び方に影響すると考えられる\cite{Article_05,Article_04}.そこで以下に,4種類の類似度算出手法を提案する.\subsubsection{オノマトペ中のモーラの並びに基づく類似度}オノマトペには,「フワフワ」,「チラチラ」のようにモーラの並び方にいくつかのパターンがあり,そのパターンによって表現する印象が変化する\cite{Article_04}.そこで,モーラの並びのパターンに着目した類似度を以下に2種類定義する.\begin{enumerate}\item\textbf{抽象化した型表現間の類似度}オノマトペの表記をモーラの並びを表す型表現\cite{Article_04}に変換し,その型表現同士のレーベンシュタイン距離を元に類似度を計算する.型表現への変換は,オノマトペ内の1モーラを1つの記号へと変換する.特定のモーラに``X'',``Y''等の記号を割り振るが,一部の特徴的なモーラには特別な記号を付与する.オノマトペの型表現に用いられる記号のリストを表\ref{type-symbol}に,オノマトペの型表現への変換例を表\ref{type-example}に示す.ここで,``t'',``r'',``n''については,オノマトペの表記中で基本とみられる表現(例えば「パチ」)に対して付与されるモーラ(「パチッ」,「パチリ」,「パチン」)に対してのみ用いられ,基本とみられる表現内のモーラ(「キリキリ」内の「リ」等)には用いられない(この場合,通常のモーラと同様,``X''等が用いられる).例えば「フワフワ」「チラチラ」はいずれも``XYXY''と変換される.\begin{table}[b]\hfill\begin{minipage}{189pt}\caption{オノマトペの型表現に用いられる記号}\label{type-symbol}\input{01table01.txt}\end{minipage}\hfill\begin{minipage}{162pt}\caption{オノマトペの型表現への変換例}\label{type-example}\input{01table02.txt}\end{minipage}\hfill\end{table}このように変換された型表現同士のレーベンシュタイン距離を算出し,更に類似度に変換する.本論文では,記号の置換・挿入・脱落をそれぞれ距離1としてレーベンシュタイン距離の計算を行うため,系列長がそれぞれ$l_{x}$,$l_{y}$である2つの系列$x$,$y$のレーベンシュタイン距離の最大値$\hat{d}(x,y)$は,\begin{equation}\hat{d}(x,y)=\max(l_{x},l_{y})\end{equation}となる.そこで,2つの系列$x$,$y$のレーベンシュタイン距離を$d(x,y)$として,2つのオノマトペ間の型表現による類似度$T(x,y)$を\begin{equation}T(x,y)=\frac{\hat{d}(x,y)-d(x,y)}{\hat{d}(x,y)}\label{eq:leven}\end{equation}と定義する.この類似度は,全く同じ系列同士の時に最大値1を,全く異なる系列同士の時に最小値0をとる.\item\textbf{モーラ系列間の類似度}前項ではオノマトペの表記を型表現に変換し,その系列間の類似度を計算していたが,ここでは,より直接的にオノマトペ内のモーラ系列間の類似度を計算する.オノマトペをモーラに分解し,モーラ系列間のレーベンシュタイン距離を算出する.その後,式(\ref{eq:leven})を用いて類似度を計算する.なお,この計算方法は,前項の型表現に使用した記号の代わりにモーラを直接用いる点を除き,その他はまったく同じ計算である.ここで得られる類似度を以降,$H(x,y)$と表記する.前項の型表現間の類似度では「フワフワ」と「チラチラ」はどちらも``XYXY''に変換されるため,類似度は1となるが,本項のモーラ系列間の類似度では0となる.そのため,モーラの並びが持つ印象の違いに加えて,モーラ自体が持つ印象の違いも考慮した類似度であると言える.\end{enumerate}\subsubsection{音象徴に基づく類似度}オノマトペに使用されている様々なモーラを構成する各音素には,その音自体が印象を持っていることが知られている.\addtext{この各音素が表現する印象をベクトルとして表現したものに音象徴{\cite{Article_05}}がある.そこで,音象徴を基に類似度を計算する.なお,音象徴}\addtext{ベクトルは,「強さ」,「硬さ」,「湿度」,「滑らかさ」,「丸さ」,「弾性」,「速さ」,「温かさ」の8次元の属性を有し,各属性に$-2$から2までの5段階の数値を与えることで音素が表現する印象を定義している.}まず,音素ごとに定義された音象徴ベクトルを用い,あるモーラの音象徴ベクトルをそのモーラを構成するすべての音素に対応する音象徴ベクトルの総和として定義する.この時,モーラが表現する印象として,母音と比較して子音の方がより強く影響することが知られている\cite{Article_05}ことから,子音の音象徴ベクトルを$w_{c}$倍してから和をとる.このようにして得られたモーラの音象徴ベクトル$\vec{a}$,$\vec{b}$間の類似度は,以下の式で計算される正規化されたコサイン類似度$c(\vec{a},\vec{b})$により計算する.\begin{equation}c(\vec{a},\vec{b})=\frac{1}{2}\frac{\vec{a}\cdot\vec{b}}{|\vec{a}||\vec{b}|}+\frac{1}{2}\label{eq:cosine}\end{equation}この式では,値域が0〜1になるように通常のコサイン類似度に対して正規化を行っている.本論文では,音象徴ベクトルに基づく類似度として,以下の2種類の類似度算出手法を提案する.\begin{enumerate}\item\textbf{モーラの\addtext{並び順と長さ}を考慮した類似度}\addtext{オノマトペの表記中のモーラの並び順と長さを考慮するため,2つのオノマトペのモーラ系列間の類似度を動的計画法(DP)を用いたDTW(DynamicTimeWarping)で計算する.DTWは2つのシンボル系列において,各シンボル間に定義された類似度をもとに,系列同士の類似度を求める方法である.2つのシンボル系列{$A=a_{1}a_{2}\cdotsa_{I}$}と{$B=b_{1}b_{2}\cdotsb_{J}$}({$I,J$}は各系列の長さ)があった時,あらかじめ各シンボル間の類似度{$d(a_{i},b_{j})$}を定義しておき,シンボルの順序を保存する(シンボル{$a_{i}$}が{$b_{j}$}と対応したとすると,{$a_{i+k}$}({$k>0$})は必ず{$b_{j+m}$}({$m\geq0$})と対応づけがなされる)という制約のもとで,対応するシンボル間の類似度の総和が最大になるような対応づけを求める.この時,{$a_{1}$}は{$b_{1}$}と,{$a_{I}$}は{$b_{J}$}と対応づけを行うこととする.最適な対応づけの探索は動的計画法を用いて効率よく計算され,結果として非線形に伸縮する系列間の類似度を計算することが可能となる.}\addtext{ここでは,各オノマトペをモーラの系列と捉え,2つのモーラ系列間の類似度をDTWで計算する.この時,各モーラ間の類似度は式({\ref{eq:cosine}})で計算される正規化されたコサイン類似度を用いる.こうして得られた類似度の最大値を,{$D(x,y)$}と表記する.}\item\textbf{全体の音象徴ベクトルによる類似度}オノマトペの表記中のモーラの並びを考慮せず,各モーラの音象徴ベクトルをすべて加算することでオノマトペの音象徴ベクトルを計算し,その正規化コサイン類似度を式(\ref{eq:cosine})を用いて計算する.ここで得られた類似度を,$M(x,y)$と表記する.\end{enumerate}\subsubsection{オノマトペ同士の類似度}前節までに定義した4種類の類似度を用い,オノマトペ同士の類似度を計算する.ここでは,4種類の類似度の重み付き和を計算することで,2つのオノマトペ$x$,$y$間の類似度$S(x,y)$を算出する.\begin{equation}S(x,y)=w_{T}T(x,y)+w_{H}H(x,y)+w_{D}D(x,y)+w_{M}M(x,y)\end{equation}ここで,$w_{T}$,$w_{H}$,$w_{D}$,$w_{M}$はそれぞれの類似度に対する重みであり,モーラの音象徴ベクトルを計算する際に子音に与える重み$w_{c}$と合わせて調整可能なパラメータである.\addtext{各類似度はすべて,全く同じもの同士の時が1,全く異なるもの同士の時に0となるように正規化されている.しかし,各類似度がオノマトペの印象を推定する上でどの程度重要であるかはわからないため,各類似度の重要度を変化させるためのパラメータとして重みを用い,実験的に最適な値を探索することとする.}\subsection{印象語の出力}本論文での提案手法の基本的な考え方は,入力されたオノマトペと高い類似度を持つオノマトペを辞書内から検索し,それに付与されている印象語を出力するというものである.しかし,常に最も類似したオノマトペに付与された印象語だけを出力するだけではなく,2位以下のオノマトペに付与されている印象語ついても,その類似度に比例した重みで考慮する必要があると思われる.そこで,以下の手順で検索を行い,最終的な印象語を出力する.\begin{enumerate}\item辞書内のすべてのオノマトペと類似度計算を行い,上位$n$個のオノマトペを抽出する.\item抽出された各オノマトペに付与されているすべての印象語について,類似度に比例した得点を与える.具体的には,最も類似度の高いオノマトペに付与されているすべての印象語に対して,類似度と同じ値の得点をそれぞれ与える.また,2位のオノマトペに付与されているすべての印象語についても同様に得点を与える.この時,1位と2位のオノマトペ双方に同じ印象語が付与されていれば,その印象語には1位の類似度と2位の類似度が加算された得点が与えられることになる.以下同様に,$n$位のオノマトペに付与された印象語まで得点を与えていく.\item得られた印象語を得点の高い順に並べかえ,最も高い得点を$s$とした時,$s\timesr$以上の得点を持つすべての印象語を出力する.\end{enumerate}ここで,$r$は0〜1の値であり,$n$とあわせて実験的に決定するパラメータである. \section{評価と考察} 評価データには,オノマトペ辞書\cite{Book_01}に掲載されているオノマトペ1,058語を用いた.この辞書には,見出し語と共に用例や解説などが記載されている.しかし,本論文で焦点を当てるオノマトペが持っている印象については,明確に定義されていない.そこで,形状,質感,量・感覚的概念,心理的状態を表現する形容詞を24対,計48種類選出し,それらを推定する印象と定義した.選出した形容詞対を表\ref{table01}に示す.\addtext{なお,推定する印象として使用する形容詞は,複数の文献{\cite{Book_02,Article_06}}}\addtext{{\cite{Article_07,Article_08}}}\addtext{{\cite{Article_09}}を参考に,討議の上決定した.}オノマトペが表現していると思われる印象を選出した形容詞対から独自に判断し,すべてのオノマトペに対して人手で印象を付与した.なお,オノマトペは多義であることが多いため,複数の印象を付与することを許容している.\addtext{例えば,「チラチラ」というオノマトペの印象は,「速い」,「小さい」,「少ない」,「軽い」という形容詞の集合で表現される.}\begin{table}[b]\caption{オノマトペの印象を表現する形容詞対}\label{table01}\input{01table03.txt}\end{table}\subsection{人間同士の印象推定結果}\label{re}オノマトペから抱く印象は人によってある程度の範囲でゆれが生じると考えられる.そこで,印象の付与は2名の評価者がそれぞれの感覚で独立に作業を行った.\addtext{なお,表{\ref{table01}}の左上から右下の順に横方向に5対ずつ並べてディスプレイに表示させた形容詞対とオノマトペ辞書の見出し語のみを参照しながら印象の付与作業を行った.}それぞれの評価者が作成した印象ラベル間の一致率を検証するため,一方の評価者が作成した評価データを正解とし,他方の評価者が作成した評価データの適合率と再現率ならびにF値を算出した.結果を表\ref{table02}に示す.なお,印象の平均付与数は評価者Aが3.40語,評価者Bが2.45語となった.\addtext{また,各形容詞ごとに「その形容詞が選択されたか否か」という2カテゴリ選択問題として人間同士の回答のカッパ係数を求めたところ,最大で0.602,最小で$-0.006$であり,48形容詞の平均で0.332であった.}\begin{table}[b]\caption{評価者間におけるオノマトペから抱く印象のゆれの検証結果}\label{table02}\input{01table04.txt}\end{table}この結果から,オノマトペから抱く人の印象にゆれが生じることが確認された.つまり,人間であっても100\%印象を特定することはできないと言える.\addtext{この結果は2名の評価者だけからの結果であるため,あくまでも参考程度の値ではあるが,本論文では,人間同士の一致率にあたるF値0.427を提案方法の性能評価を行う際の目安として用いることとする.}\subsection{提案手法の印象推定結果}前述のオノマトペ1,058語に対し,1語をテストデータ,残りの1,057語を辞書データとして印象語を出力する実験をテストデータを変更しながら行った.各種パラメータについては,$w_{c}$は「1,2,3」の3種類,$w_{T}$,$w_{H}$,$w_{D}$,$w_{M}$は「0,1,2,5,10,20」の6種類,$n$は「1,3,5,10,20」の5種類,$r$は「1,0.8,0.6,0.4,0.2,0」の6種類を設定し,最適なパラメータを探索した.各類似度の有効性を検証するため,それぞれの類似度を用いる場合と用いない場合のそれぞれについて,すべてのパターンで性能を比較した.\addtext{各評価者が付与した印象語を正解とし,それぞれに対するF値を平均した値が最も高くなるように}パラメータを事後的に設定した時の結果を表\ref{results}に示す.ここで,「類似度に対する重み」が``\inzero''であるものは,その類似度を使用しないために強制的に重みを0としたことを,また``0''であるものは,その類似度に対する重みを変化させながら実験した結果,最終的に重みが0(その類似度は使用しない)の時が最も性能が良かったことを示す.なお,各種パラメータについては,最も性能が良かったもののみをその値とともに示している.``\indc''は,そのパラメータが使われなかったことを示す.\begin{table}[t]\caption{提案手法によるオノマトペの印象推定結果}\label{results}\input{01table05.txt}\end{table}\subsection{考察}2名の評価者に対する結果から最適にパラメータ調整すると提案手法のオノマトペの印象推定性能は,F値0.345であった.\addtext{この数値は,{\ref{re}}節で述べた本論文の参考値である人間同士の一致率にあたるF値0.427の8割程度にあたり,有効な手法であるといえる.}詳細に分析すると,モーラ系列間のレーベンシュタイン距離($H(x,y)$)と音象徴ベクトル($M(x,y)$)を用いる場合が最も性能が良く,この場合,子音に重みを与える必要があった.この手法では,モーラ系列間のレーベンシュタイン距離でオノマトペの構造パターンを音象徴ベクトルで音的な特徴をうまく捉えて扱うことができていると思われる.次に良い性能であったのは,モーラ系列間のレーベンシュタイン距離とモーラの並び($D(x,y)$)を用いる手法であった.この手法の場合,印象語を出力する際に上位10位までのオノマトペに付与された印象語を対象にする必要がある.また,3番目に良い性能であった手法は,モーラ系列間のレーベンシュタイン距離のみを用いたもので,この場合,上位20位までの印象語を対象にする必要がある.これは,多くの印象語の候補を扱うことで音的な特徴から推定される印象語を補完しようと働いていると考えられる.\begin{table}[b]\caption{類似度の使用の有無による印象推定性能の違い}\label{karnaugh}\input{01table06.txt}\end{table}さらに,表\ref{results}からF値だけを抜き出し,4種類の類似度を使用するか否かという条件により分類したものを表\ref{karnaugh}に示す.これより,以下のことが分かった.\begin{itemize}\item$H(x,y)$が最も重要であるモーラ系列間のレーベンシュタイン距離に``○''が付いている列は``×''の列より全体的にF値が高くなっていることから,最も重要な考え方であることが分かる.\item$M(x,y)$は$H(x,y)$と組みあわせると性能が向上する音象徴ベクトルは,モーラ系列間のレーベンシュタイン距離と組み合わせた時のみ性能が向上しており,良い補完関係になっているといえる.この2種類を組み合わせた手法が最も良い組み合わせである.\item$D(x,y)$は$H(x,y)$と組みあわせると性能が少しだけ向上する\item$D(x,y)$は$M(x,y)$と組みあわせると性能が向上するが,$H(x,y)$がある場合は不要であるモーラの並びは,モーラ系列間のレーベンシュタイン距離または音象徴ベクトルと組み合わせると少し性能向上に寄与する.しかし,モーラの並びとモーラ系列間のレーベンシュタイン距離は同じような特徴を捉えているため,より性能の良いモーラ系列間のレーベンシュタイン距離を用いる方が効率的である.\item$T(x,y)$は不要であるオノマトペを抽象化した型表現は,用いたとしてもすべての組み合わせで性能が向上しないことから不用であるといえる.型表現では,オノマトペの特徴をうまく捉えることができないためであると思われる.\end{itemize}\addtext{本稿では,日本語を対象にオノマトペの印象推定を行ったが,オノマトペの表記内のモーラ系列間の類似度とオノマトペの表記全体の音象徴ベクトルによる類似度を用いた手法が最も良い推定結果となったことから,他の言語への対応も可能であると考えられる.他の言語では日本語程に多くのオノマトペを頻繁に利用するわけではないが{\cite{Book_03}},例えば,中国語では日本語と良く似た構造のオノマトペが利用されており,また,英語では日本語で多く見られる反復する形ではないオノマトペが利用されているが,実際に聞こえる音をアルファベットの発音に照らし合わせてオノマトペとして表現するため,日本語と同様の関連性を見出すことができると思われる.} \section{おわりに} 本稿では,日本語のオノマトペ辞書を基に,文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定できる手法を提案した.これにより,大規模な辞書を作成・利用することなく,新たに創出される未知のオノマトペの印象も推定することができる.また,日本語を\addtext{母語}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.さらには,機械翻訳や情報検索・推薦の分野でも活用するなどの展開が考えられる.計4種類の類似度計算手法を提案し,7つのパラメータを実験的に調整し最適値を探索した.結果として,オノマトペの表記内のモーラ系列間の類似度とオノマトペの表記全体の音象徴ベクトルによる類似度を用いた手法が最も良い推定結果となり,\addtext{参考値である人間同士の一致率の8割程度にまで近づくことができた.}本稿では,評価者が2名と少数であったことから,今後さらに評価者を増やして辞書構築を行い,ゆれの少ない辞書を構築する必要があると思われる.\acknowledgment本研究の一部は,科学研究費補助金(若手研究(B)24700215)の補助を受けて行った.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅賀\JBA渡辺}{浅賀\JBA渡辺}{2007}]{Article_02}浅賀千里\JBA渡辺知恵美\BBOP2007\BBCP.\newblockWebコーパスを用いたオノマトペ用例辞典の開発.\\newblock\Jem{電子情報通信学会第18回データ工学ワークショップ},{\BbfD9}(2).\bibitem[\protect\BCAY{池田\JBA早川\JBA神山}{池田\Jetal}{2006}]{Article_15}池田岳郎\JBA早川文代\JBA神山かおる\BBOP2006\BBCP.\newblockテクスチャを表現する擬音語・擬態語を用いた食感性解析.\\newblock\Jem{日本食品工学会誌},{\Bbf7}(2),\mbox{\BPGS\119--128}.\bibitem[\protect\BCAY{市岡\JBA福本}{市岡\JBA福本}{2009}]{Article_03}市岡健一\JBA福本文代\BBOP2009\BBCP.\newblockWeb上から取得した共起頻度と音象徴によるオノマトペの自動分類.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ92-D}(3),\mbox{\BPGS\428--438}.\bibitem[\protect\BCAY{芋阪}{芋阪}{1999}]{Book_06}芋阪直行\BBOP1999\BBCP.\newblock\Jem{感性の言葉を研究する—擬音語・擬態語に読む心のありか}.\newblock新曜社.\bibitem[\protect\BCAY{奥村\JBA齋藤\JBA奥村}{奥村\Jetal}{2003}]{Article_01}奥村敦史\JBA齋藤豪\JBA奥村学\BBOP2003\BBCP.\newblockWeb上のテキストコーパスを利用したオノマトペ概念辞書の自動構築.\\newblock\Jem{情報処理学会研究報告自然言語処理研究会報告},{\Bbf23},\mbox{\BPGS\63--70}.\bibitem[\protect\BCAY{加藤\JBA青山\JBA福田}{加藤\Jetal}{2005}]{Article_09}加藤雅士\JBA青山憲之\JBA福田忠彦\BBOP2005\BBCP.\newblock映像視聴時における感情と生体信号の関係の分析.\\newblock\Jem{ヒューマンインタフェースシンポジウム2005},{\Bbf1}(3334),\mbox{\BPGS\885--888}.\bibitem[\protect\BCAY{小松\JBA秋山}{小松\JBA秋山}{2008}]{Article_05}小松孝徳\JBA秋山広美\BBOP2008\BBCP.\newblockユーザの直感的表現を支援するオノマトペ意図理解システム.\\newblock{\BemHuman-AgentInteractionSymposium2008},{\Bbf2A}(4).\bibitem[\protect\BCAY{米谷\JBA渡部\JBA河岡}{米谷\Jetal}{2003}]{Article_07}米谷彩\JBA渡部広一\JBA河岡司\BBOP2003\BBCP.\newblock常識的知覚判断システムの構築.\\newblock\Jem{人工知能学会全国大会},{\Bbf3C1}(7).\bibitem[\protect\BCAY{丹野}{丹野}{2004}]{Article_04}丹野眞智俊\BBOP2004\BBCP.\newblockOnomatopoeia(擬音語・擬態語)に関する音韻分類.\\newblock\Jem{神戸親和女子大学児童教育学研究},{\Bbf23}(1),\mbox{\BPGS\11--26}.\bibitem[\protect\BCAY{土田}{土田}{2005}]{Article_10}土田昌司\BBOP2005\BBCP.\newblockオノマトペによる映像の感性評価—感性検索への応用可能性—.\\newblock\Jem{感性工学研究論文集},{\Bbf5}(4),\mbox{\BPGS\93--98}.\bibitem[\protect\BCAY{得猪}{得猪}{2007}]{Book_03}得猪外明\BBOP2007\BBCP.\newblock\Jem{へんな言葉の通になる—豊かな日本語,オノマトペの世界}.\newblock祥伝社.\bibitem[\protect\BCAY{早川}{早川}{2000}]{Article_14}早川文代\BBOP2000\BBCP.\newblock性別・年齢別にみた食感覚の擬音語・擬態語.\\newblock\Jem{日本家政学会誌},{\Bbf53}(5),\mbox{\BPGS\437--446}.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{2001}]{Book_02}飛田良文\JBA浅田秀子\BBOP2001\BBCP.\newblock\Jem{現代形容詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{2002}]{Book_01}飛田良文\JBA浅田秀子\BBOP2002\BBCP.\newblock\Jem{現代擬音語擬態語用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{前川\JBA吉田}{前川\JBA吉田}{1998}]{Article_08}前川純孝\JBA吉田光雄\BBOP1998\BBCP.\newblockSD法による流行歌の聴取印象評価—探索的・検証的因子分析—.\\newblock\Jem{国際関係学部紀要},{\Bbf1}(23),\mbox{\BPGS\93--108}.\bibitem[\protect\BCAY{村上}{村上}{1980}]{Article_12}村上宣寛\BBOP1980\BBCP.\newblock音象徴仮説の検討:音素,SD法,名詞及び動詞の連想語による成分の抽出と,それらのクラスター化による擬音語・擬態語の分析.\\newblock\Jem{教育心理学研究},{\Bbf28}(3),\mbox{\BPGS\183--191}.\bibitem[\protect\BCAY{山内\JBA岩宮}{山内\JBA岩宮}{2005}]{Article_13}山内勝也\JBA岩宮眞一郎\BBOP2005\BBCP.\newblock周波数変調音の擬音語表現とサイン音としての機能イメージ.\\newblock\Jem{日本生理人類学会誌},{\Bbf10}(3),\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{山口}{山口}{2003}]{Book_04}山口仲美\BBOP2003\BBCP.\newblock\Jem{暮らしのことば—擬音・擬態語辞典}.\newblock講談社.\bibitem[\protect\BCAY{湯澤\JBA松崎}{湯澤\JBA松崎}{2004}]{Book_05}湯澤質幸\JBA松崎寛\BBOP2004\BBCP.\newblock\Jem{音声・音韻探求法}.\newblock朝倉書店.\bibitem[\protect\BCAY{吉村\JBA関口}{吉村\JBA関口}{2006}]{Article_11}吉村浩一\JBA関口洋美\BBOP2006\BBCP.\newblockオノマトペで捉える逆さめがねの世界.\\newblock\Jem{法政大学文学部紀要},{\Bbf54}(1),\mbox{\BPGS\67--76}.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{Article_06}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock常識的感覚判断システムにおける名詞からの感覚想起手法理解システム.\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),\mbox{\BPGS\73--82}.\end{thebibliography}\begin{biography}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.博士(工学).2009年同志社大学理工学部インテリジェント情報工学科助教.2011年同准教授.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,電子情報通信学会各会員.}\bioauthor{鈴木基之}{1993年東北大学工学部情報工学科卒業.1996年同大大学院博士後期課程を退学し,同大大型計算機センター助手.2006年〜2007年英国エジンバラ大学客員研究員.2008年徳島大学大学院ソシオテクノサイエンス研究部准教授,現在に至る.博士(工学).音声認識・理解,音楽情報処理,自然言語処理,感性情報処理等の研究に従事.電子情報通信学会,情報処理学会,日本音響学会,ISCA各会員.}\bioauthor{任福継}{1982年北京郵電大学電信工程学部卒業.1985年同大学大学院計算機応用専攻修士課程修了.1991年北海道大学大学院工学研究科博士後期課程修了.博士(工学).広島市立大学助教授を経て,2001年より徳島大学工学部教授.現在に至る.自然言語処理,感性情報処理,人工知能の研究に従事.情報処理学会,人工知能学会,言語処理学会,電気学会,AAMT,IEEE各会員.日本工学会フェロー.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\end{biography}\biodate\end{document}
V18N02-03
\section{はじめに} 本稿は,文書,あるいはある観点で集められた文書群が与えられたとき,それについて文書量に依存しない定数—これを本稿では文書定数と定義する—を計算する方式に関する報告である.文書定数は,古くは文書の著者判定を主たる目的として探究された.最も古い代表的なものとして,1940年代に提案されたYuleの$K$がある.現在では,著者判定に対しては,言語モデルや機械学習に基づく方法など,代替となる手法が数多く提案されている.このため,何も文書や文書群をあえて定数という一つの数値に還元して判定を行う必要はない.しかし,文書あるいは文書群がある一貫した特質を持つのであれば,その特質を定数に還元しようとすること自体は,工学上の個別の応用を超えて,より広く計算言語学上の興味深いテーマであると筆者らは考える.文書あるいは文書群に通底する一貫性の種類には,内容や,難易度などさまざまなものが考えられ,言語処理分野では文書分類や,難易度判定としてそれを捉える工学的方法が考案されてきた.文書定数の場合には,もともとの研究の発端が著者判定にあったために著者の語彙量,語彙の偏り度合,あるいは個別文書の複雑さなど,語彙の複雑さを計測し数値化する問題として考えられてきた.一般に,文書の大きさが増すほど,文書の複雑さは増大するが,一方で,漱石の「坊っちゃん」の一部分にはその全体にも通底する固有の特質があると捉えることもできよう.これを定数として表そうとすることは,記号列としての文書に一貫する複雑さのある側面を考えることにつながると考えられる.そして,対象としうる文書は個別作品だけではない.特定の内容の文書群や,特定の言語の文書群でこれらの定数を考えることは,自然言語の記号列の有する特質に光を当てることにはならないか.文書定数を考えることは,本稿でも報告するように,易しい問題ではない.その一つの理由は,自然言語の文書においてhapaxlegomena—頻度が1回きりの単語—が語彙に対して占める割合が比較的大きいことにあろう.たとえば,サイコロであれば,各目の出る確率を推定するのに必要な施行回数は推定することができる.一方で,文書の場合には,さまざまな統計的推定には文書量が常に不十分な状態のままである~\cite{kyo,Baayen}.すなわち,文書定数を考えることは,確かな言語モデルが不在のまま,量が常に足りていない状態のままで定数を考える,という問題として位置付けられよう.次節でまとめるが,文書定数に関する研究は,すでにさまざまなものがあり,単語に注目するものと文字列に注目するものに大別される.近年の研究では,それらのほとんどが文書長に応じて単調変化してしまうことが報告され,その中で,文書定数となる指標は,筆者らの知る範囲では,現在のところ2つしかない.この現状の中で,本稿の意義は以下の4点にまとめることができる.第一に,過去の研究で定数とされているものうちの一つが定数ではないと実験的に示したことである.第二に,過去の提案に加え,近年研究されている言語の大域的特性を捉える複雑系ネットワークや言語エントロピーといった数理的枠組みから,文書の特性を大域的に捉える指標を新たに吟味し,これらがやはり文書定数とならないことを示すことである.以上の意味で,本稿では,新しい文書定数を提案するものではなく,文書定数としては依然として,既に提案されていたもののうち2つのみである,という結論となる.第三に,文書定数に関する研究は,英語を中心として展開し,やや広くても印欧語族についてのみの報告しかない.本稿では,日本語や中国語に関しても実験を行い,過去に提案されてきた文書定数が非印欧語族に対しても定数として成り立つかどうかを論じる.第四に,過去の研究の大半では,短い個別文書に関して定数となるかどうかが調べられてきた.本稿では,数百MBにわたる文書群での実験結果も報告する. \section{関連研究} \label{TandB}過去の研究には単語に基づくものと,文字列に基づくものの二種類のものが提案されている.単語ユニグラムに基づく文書定数を得ようとしたもっとも古い学者の一人は前述のようにYuleである~\cite{Yule}.Yuleの目的は,著者判定にあり,単語ユニグラムに基づく指標$K$を提案した.これを受け,Herdanが60年代に独自の式を提案している~\cite{herdan}.その後は,個別の提案が続き,近年,TweedieとBaayenが,単語ユニグラムのみに基づく指標に関し,網羅的な研究を行っている~\cite{BaayenTweedie}.彼らは単語ユニグラムに基づく既存の12の指標に関し,実際に定数となるかどうかを調べた.対象とした文書は,「不思議の国のアリス」など英語の複数の短い個別文書である.彼らの実験では,12の指標が文書中の単語はランダムに発生するという仮定のもとで提案されていることを受け,文書中の単語を出現順にそのまま扱うものではなく,文書全体の単語をランダムに入れ替えてシャッフルすることを行った上で,指標を計測した.その上で,12の指標の中で$K$と$Z$については小規模な英語文書では文長によらず値がほぼ一定となるが,そのほかの指標は一定とはならないことが報告されている.さらに,TweedieとBaayenは,指標が文書の著者判別に用いることができるかを探究した.各文書を$K$-$Z$空間で表し,クラスター分析などの別手法と比較した結果,$K$と$Z$の二つの特徴量だけで著者を表すことができると結論づけた.本稿では,単語ユニグラムに関して,TweedieとBaayenの報告とは異なる見解を実験を根拠に示す.それは指標$K$と$Z$のうち,$Z$は文書定数を構成しないというものである.$Z$は,次節で詳しく説明するが,Zipfの法則を背景とする点で複雑系ネットワークとの関係が深い.この点で,言語の大域的特性を表す言語のべき乗則から単純に考えられる定数$r$を考えることができるが,それも定数とはならないことを合わせて示す.また,TweedieとBaayenは,英語の短い文書のみを対象としたが,本稿では,日本語や中国語も対象とする.文書定数としては,言語エントロピーにまつわる一連の研究を考える必要がある.Shannon\cite{Shannon}によって提案されて以来,言語エントロピーを計算する方法が,文字列に基づく方法,nグラムに基づく方法の両方で考えられてきた~\cite{cover}.言語エントロピーは,文字列の冗長性を特徴付ける以上,文書においてもある下限値に収束する定数として計測されうることが期待される.言語処理の分野でも~\cite{brown}が単語nグラムに基づく言語エントロピーのupperboundを計測する方法を示しているが,データ量に対して,推定量がどのように推移するかについての考察は述べられていない.また,\cite{genzel}がエントロピーレート(一文字あたりのエントロピー)が定数である,という仮説を示している.しかし,論文の内容は,エントロピーレートに関わる計算式のある項が増大することを理由とする間接的なものに基づき,エントロピーレートが本当に定数を為すといえるかは何ともいえない.また,nグラムに基づく方法は,スムージングと関連してパラメータ推定を要する点が文書定数を求める上では,難しい.このような中,筆者らは,文字列に基づくエントロピーの計算方法として,パラメータ推定を要せず,収束性が数学的に示されているFarachらの計算方法~\cite{Farach}を用い$H$を計算し,その文長依存性を本稿では考える.\begin{figure}[b]\begin{center}\includegraphics{18-2ia3f1.eps}\end{center}\caption{各文字がランダムに出現する場合のVM}\label{zu:Golcher}\end{figure}最後に,近年Golcherが文字列の繰り返しに基づく画期的な指標$\mathit{VM}$を提案した~\cite{Golcher}.詳細は後述するが,Golcherは接尾辞木の内部ノード数を文長で割った値が,文書定数であることを示したばかりでなく,20の印欧語族は0.5付近で同じ値となることを示した.またプログラミング言語やランダムテキストについては文長に対して値が変化し,自然言語の場合と変化の様子がかなり異なるという結果が報告されている.たとえば,図\ref{zu:Golcher}は,Golcherの見解に沿って,筆者らが生成した図であるが,$n$文字がランダムに出現する場合の$\mathit{VM}$は,横軸を文字数の対数,縦軸を$\mathit{VM}$として,振動することがわかる.Golcherの実験でもわれわれの結果でも,言語の文書は$\mathit{VM}$は文長に依らず定数となる.Golcherはなぜ$\mathit{VM}$が一定になるのかについての理論的な考察は展開しておらず,それは将来の課題としている.Golcherは印欧語族に対してのみ結果を示しているが,本稿では,日本語や中国語についてもGolcherの値が定数となることを示す. \section{指標} \label{sihyou}前節で説明したように,本稿では単語に基づく指標として,$K$,$Z$,$r$,また,文字列に基づく指標として$\mathit{VM}$と$H$を用いた.以下,各指標を順に説明する.\subsection{単語に基づいた指標}\subsubsection*{Yuleの指標$K$}指標$K$は文書の語彙の豊富さを示す指標として1944年に統計学者のYuleによって提案された~\cite{Yule}.今,文書の総単語数(単語数で計測した際の文書長)を$N$,単語の種類を$V$とし,文書中に$m$回出現する単語の種類を$V(m,N)$とすると,$K$は\begin{equation}K=C\Big[-\frac{1}{N}+{\sum_{m=1}^{m=N}V(m,N)\left(\frac{m}{N}\right)^2}\Big]\label{k}\end{equation}で定義される.ここで$C$は$K$の値が小さくなりすぎないようにするための係数であり,Yuleは$C=10^{4}$とした.この$C$の値に本質的な意味はない.また,Yuleは文書の生成モデルにつぼモデルと呼ばれる文書中の単語はランダムに出現するものとしたモデルを仮定している.このモデルにおいて$N$が十分大きい時には,この$K$の期待値が一定となることを数学的に証明することができる~\cite{Baayen}.$K$が語彙の豊富さを表すことを以下簡単に説明する.今,文書中からランダムに単語を一つ選ぶことを考える.すると式(\ref{k})において$(\frac{m}{N})$は文書中$m$回出現する単語が選択される確率を表す.よって$(\frac{m}{N})^2$はそのような単語が連続で選択される確率である.ここで同じ単語が連続で選択される確率が大きい場合は文書の語彙が乏しい場合,逆に確率が小さい場合は語彙が豊富な場合と見なすことができる.式(\ref{k})より前者の場合は$K$の値は大きくなり,後者の場合は$K$の値は小さくなることがわかる.このように$K$は同じ単語が連続で出現する確率に基づいた語彙の豊富さを表す指標である.\subsubsection*{Zipfの法則に基づいた指標$Z$}\label{zipf}文書中に現れる各単語の出現頻度はZipfの法則に従うということが経験的に知られている~\cite{Zipf}.$Z$はこのZipfの法則に基づいた指標である.今,文書の総単語数(単語数で計測した際の文書長)を$N$,単語の種類を$V_N$とし,$z$を文書中に出現する単語の回数に関して降順に並べた時の順位を表す変数とする.ここで順位が$z$である単語が文書中に出現する回数を$f(z,N)$とすると,$f(z,N)$と$z$の間に\begin{equation}f(z,N)=\frac{C}{z^a}(Cは規格化定数で\sum_{z}f(z,N)=Nを満たすように定める)\label{eqzip}\end{equation}というべき乗則の関係がおおよそ成り立つ.また式(\ref{eqzip})において$a=1,C=V_N$とおくと文書中に$m$回出現する単語の種類$V(m,N)$が\begin{equation}V(m,N)=\frac{V_N}{m(m+1)}\label{eqvmn}\end{equation}と表現されることが導かれる.Orlovらは1983年にZipfの法則を拡張して,総単語数が$N$である文書の単語の種類$V_N$の期待値$E[V_N]$が一つのパラメータ$Z$を用いて\begin{equation}E[V_N]=\frac{Z}{{\rmlog}(pZ)}\frac{N}{N-Z}{\rmlog}\left(\frac{N}{Z}\right)\label{Z}\end{equation}と表すことができることを示した~\cite{Orlov}.ここで$p$は文書中に最も多く出現する単語の相対頻度であり,文書ごとにほぼ一定の定数と見なされる.$Z$は,文書が与えられた際に式(\ref{eqvmn})の関係が最もよく当てはまる単語数である.また式(\ref{Z})において$N$を固定して考えてみると,$Z$の値が大きくなるにつれて文書の単語の種類の期待値である$E[V_N]$の値が大きくなるので,指標$Z$は文書の語彙の豊富さを表す指標だと解釈することができる.最後に$Z$の計算方法について述べる.式(\ref{Z})において単語数が$N$である時の単語の種類の期待値$E[V_N]$を実際の文書の$V_N$で置き換えると\[V_N=\frac{Z}{{\rmlog}(pZ)}\frac{N}{N-Z}{\rmlog}\left(\frac{N}{Z}\right)\]を得る.この式は$Z$について陽に解くことができないので解析的な解を得ることはできない.したがって$Z$を求める際には\[f(Z)=\frac{Z}{{\rmlog}(pZ)}\frac{N}{N-Z}{\rmlog}\left(\frac{N}{Z}\right)-V_N\]とおいて$f(Z)=0$をニュートン法の反復解法を用いて数値的に解く.\subsubsection*{複雑系ネットワークに基づいた指標$r$}指標$r$は,$Z$が複雑系の観点からの指標であることを受け,本研究で新たに試みた関連指標であり,文書の単語のネットワーク構造に着目したものである.まず文書から構成される無向グラフ$\Omega=(W,E)$について説明する.文書中の単語の種類を$V$とすると,$W$は$W=\{w_i\}$$(i=1,\ldots,V)$で定義される各単語を頂点とする頂点集合である.また,$E$は$E=\{(w_i,w_j)\}$で定義される単語間のつながりを表す枝集合であり,2つの単語$w_i$と$w_j$が連続して現れる場合に枝が存在する.つまりここで考えているネットワークは文書中の各単語を頂点として連続して現れる単語間に枝を張ったネットワークである.本稿では文書の単語から構成されるネットワークとして上記のようなものを考える.これ以外にも単語ネットワークの構築方法には構文解析結果を用いるものや,文書の単語間の共起関係に基づいたネットワークなど複数考えることができる.しかし,単語から構成されるどのようなネットワークを考えたとしても,本稿の目的である文書の複雑さといった文書の大域的な特性を考えた場合には,いずれのネットワークにおいても類似した性質が現れると考えられる.実際にいくつかを実験的に試してみたが,文書量に対して一定となるかどうかの観点では,大勢に影響はなかった.ゆえに本稿では,文書の単語から構成されるネットワークとして上記を扱う.さて,ここで得られたネットワークの各頂点の次数分布に着目する.グラフにおいて頂点の次数が$k$である確率を$P(k)$とおく.図\ref{fig:deg}は英語とJavaの場合の次数分布の両対数をとった図である.図の横軸は次数$k$の対数であり,縦軸は$P(k)$の対数である.いずれもある次数まではほぼ直線になっている.このことから単語のネットワークの次数分布はある次数まではベキ分布に従っていると考えられる.このような性質はスケールフリー性~\cite{Barabasi}と呼ばれ,現実のさまざまな複雑系ネットワークで現れる性質である.\begin{figure}[b]\begin{center}\includegraphics{18-2ia3f2.eps}\end{center}\caption{英語とJavaの場合の次数分布}\label{fig:deg}\end{figure}ベキ分布は\begin{equation}P(k)=ck^{-\gamma}\label{beki}\end{equation}という形で表される.ここで$c$は正規化定数であり,$\sum_{k=1}^{\infty}P(k)=1$の条件から定まる.ここで式(\ref{beki})の両辺において対数をとれば\begin{equation}{\rmlog}P(k)=-\gamma{\rmlog}k+{\rmlog}c\label{log}\end{equation}となりベキ分布は両対数グラフにおいて直線になることがわかる.今,式(\ref{log})の両対数グラフ上での傾き$-\gamma$に着目し,指標$r$を\begin{equation}r=-\gamma\label{eqr}\end{equation}で定義する.この指標が一定になるかということに関して特に理論的な背景はないが,$r$は前節までで紹介した$Z$と同様に言語のべき乗則に関する指標で,言語の大域的特性を示すものである以上,文書ごとに文長に依らず一定となることが期待される.最後に$r$の計算方法について述べる.本稿で$r$を求める際には,まず実際に文書の単語から構成されるネットワークをつくり,ネットワークの各頂点の次数を調べ,図\ref{fig:deg}のような次数分布を得る.次に,この次数分布の傾きである$r$を得る際には,次数が2から$\sum_{k=1}^{n}P(k)\geqA$を満たす最小の次数$n$までの範囲で,最小二乗法を用いて傾きを推定した\footnote{実験ではAは0.95とした.}.これは次数が1の場合と次数がある大きさを超えた範囲では,いずれの文書から構成されるネットワークにおいても,図\ref{fig:deg}のように次数分布がべき分布から大きく外れているためである.\subsection{文字列に基づいた指標}\subsubsection*{Golcherの指標$\mathit{VM}$}$\mathit{VM}$は文字列の繰り返しの量を表す指標として近年Golcherによって提案された指標であり,接尾辞木の構造を利用したものである~\cite{Golcher}.接尾辞木とは,文字列が与えられた時の接尾部を木構造で表したデータ構造であり,接尾部に対するパトリシア木である~\cite{Gusfield}.以下与えられた文字列を$S$,その文字列の長さを$T$,$S$の$i$番目の文字を$S[i]$,$S$の$i$番目から$j$番目までの部分文字列を$S[i,j]$$(i,j\in\{1,\ldots,T\},i\leqj)$をとする.文字列$S$の接尾辞木${\calT}$は以下のように定義される~\cite{Ukkonen,Gusfield}.\begin{quote}根から葉へと向かう有向木${\calT}$が次の条件を満たす時,${\calT}$は$S$の接尾辞木であるという.\begin{itemize}\item1から$T$までの整数がラベル付けされたちょうど$T$個の葉が存在する.\item内部節点は少なくとも2つの子をもち,各枝には$S$に含まれる空ではない文字列が対応する.\item同じ節点からの枝のラベルは必ず異なる文字から始まる.\itemすべての葉$i$に対して根から葉$i$までの経路のラベルは$S[i,T]$となる.\end{itemize}\end{quote}Golcherの用いる接尾木辞は,$S$に含まれない文字を終端記号として文字列の最後につけて接尾辞木を構築する.たとえば,図\ref{fig:cocoa}は文字列`cocoa'の接尾辞木である.これを用いて,$\mathit{VM}$の定義,説明を行う.今,与えられた文字列$S$の文字数を$T$,$S$の接尾辞木における内部節点の数を$k$とすると指標$\mathit{VM}$は\begin{equation}VM=\frac{k}{T}\label{eq:v}\end{equation}で定義される.長さ$m$の接尾辞木は$m$個の葉を持つことから,内部節点の数は最大でも$m-2$個である.よって$0\leqk<T-2$であるから$\mathit{VM}$の値の範囲は$0\leqVM<1$となる.ここでUkkonenのアルゴリズムによると,接尾辞木の内部接点はこれまでに現れていない共通部分が新たに現れる場合に増える.したがって$\mathit{VM}$はある種の文字列の繰り返しの量を表していると考えることができる.\begin{figure}[t]\begin{center}\includegraphics{18-2ia3f3.eps}\end{center}\caption{`cocoa'の接尾辞木}\label{fig:cocoa}\end{figure}最後に$\mathit{VM}$の計算方法について述べる.式(\ref{eq:v})で定義される$\mathit{VM}$の値を求めるためには接尾辞木の内部節点の数を求めればよい.最も素朴な方法としては,直接接尾辞木を構成することによって求める方法が考えられる.しかし,一般に接尾辞木の構成に必要な空間領域は,入力の文書の数十倍となり,大規模な文書を扱う場合には直接接尾辞木を構成する方法は現実的ではない.本稿では,より効率的なデータ構造である接尾辞配列と高さ配列を用いて,接尾辞木の擬似巡回を行うことによって内部節点の数を求めた.アルゴリズムは~\cite{Kasai01}に詳しい.\subsubsection*{文書のエントロピー$H$}ここで紹介するエントロピー$H$は情報理論の分野においてShannonによって1948年に導入された~\cite{Shannon}.文書を構成する有限個のアルファベットの集合を$\chi$とし,$X$を$\chi$上の確率変数とする.この時,各アルファベット$x\in\chi$の文書における出現確率を$P_X(x)={\rmPr}(X=x)$とおくとエントロピー$H$は,\begin{equation}H=-\sum_{x\in\chi}P_X(x){\rmlog}P_X(x)\label{entropy}\end{equation}で定義される.文書のエントロピーを求めるためには式(\ref{entropy})より各アルファベット$x$に対し,その出現確率$P_X(x)$を知る必要があるが,文書から得られる出現確率はあくまで真の出現確率の近似であり,文書から直接求めることはできない.言語処理では文章のエントロピーを求める方法についてはさまざまな試みがある~\cite{cover,brown}.本稿では,エントロピーの値の推定方法として,収束性が証明されている一つの方法であることから,Farachらによる手法を用いた~\cite{Farach}.今与えられた文書を一つの文字列と見なしてこれを$S$とし,その長さを$T$,$S$の$i$番目から$j$番目までの部分文字列を$S[i,j]$$(i,j\in\{1,\ldots,T\},i\leqj)$とする.次に$S$の各位置$i$$(1\leqi\leqT)$に対してそれより以前の最大マッチング$L_i$を以下のように定義する.\begin{equation}L_i={\rmmax}\{k:S[j,j+k]=S[i,i+k]\}\quad(j\in\{1,...,i-1\},1\leqj\leqj+k\leqi-1)\label{eqL}\end{equation}つまり$L_i$は$S$の$i$番目から始まる文字列と,1番目から$i-1$番目までの文字列との最大共通部分文字列長である.そしてこれら$L_i$の平均値$\bar{L}$を,\[\bar{L}=\frac{1}{T}\sum_{i=1}^{i=T}L_i\]とする.この時Farachらのエントロピーの推定値$H$は,\begin{equation}H=\frac{{\rmlog}_2T}{\bar{L}}\end{equation}で定義される.今,真のエントロピーの値を$H_t$とすると,この手法によって得られる推定値$H$は,$T\to\infty$の時に$|H_t-H|=O(1)$となることが数学的に示されている. \section{実験} 本研究では個別文書と,数十MB〜200~MBの自然言語やプログラミング言語の文書を用いて\ref{sihyou}章で説明した$K,Z,r,VM,H$の各指標の文長に対する値の変化を調べる実験を行った.以下\ref{env}節で実験データや実行環境を説明した後に,\ref{result_small}節で小規模文書での実験結果,\ref{result_normal}節で大規模文書に対する結果を図とともに述べる.\subsection{実験データおよび実験環境}\label{env}\subsubsection{実験データ}今回の実験で用いた文書は表\ref{tb:manylarge}の通りである.個別文書に関しては,\cite{BaayenTweedie}とは異なり,英語だけではなく,日本語,フランス語,スペイン語の文章も対象とした.用いたデータは表\ref{tb:manylarge}の第一ブロックに示した.\cite{BaayenTweedie}らの研究を概観すると,定数になるかどうかを吟味するには,小規模な個別文書では長さが不十分であることもよくある.そこで,日本語,英語,中国語の新聞コーパスについても定数となるかどうかを調べる.また,得られる定数が言語の特徴量を表すかどうかを吟味するため,比較対象としてプログラミング言語のデータも用いる.このためには,Java,RubyとLispのソースを用いた.ここで日本語と中国語については$\mathit{VM}$と$H$の値を計算する際には日本語(ローマ字),中国語(pinyin)の文書を用いた場合,ならびに,元のテキストを用いた場合の両方を報告する.その他の言語に関してはいずれの指標の場合も表\ref{tb:manylarge}にある各言語の文書を用いて実験を行った.また,プログラミングにおける単語は以下のように定義した.まず,JavaとRubyについてはソースを記号で分割し,分割された各要素を単語とした.例えば`if(i$<$5)break;'であれば`if',`(',`i',`$<$',`5',`)',`break`,`;'の8つの要素が単語である.Lispの場合はこれらの要素から`('と`)'の2つを除いたものを単語とした.\begin{table}[t]\caption{実験で用いた言語データ}\label{tb:manylarge}\input{03table01.txt}\end{table}\subsubsection{実験で用いたプログラム}今回の実験においてはいくつかの外部プログラムを利用した.ここでそれらのプログラムについて記載する.まず単語に基づいた指標$K,Z,r$の値を計算するために文書を単語に分割する必要がある.日本語の場合は形態素解析ソフトMecab\footnote{http://mecab.sourceforge.net/}を,中国語については,ICTCLAS\footnote{http://ictclas.org/}を用いて単語に分割した.文字列に基づいた指標$H,VM$については,日本語,中国語に関しては,ローマ字,pinyin変換したものについても計算した.中国語に関してはあらかじめpinyin表記で書かれた別の文書を用いたが,日本語の場合はKAKASI\footnote{http://kakasi.namazu.org/index.html.ja}を用いてローマ字に変換した.各指標の計算方法は,\ref{sihyou}節で示したとおりである.\subsection{個別文書に対する結果}\label{result_small}\begin{figure}[b]\vspace{-1\baselineskip}\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f4.eps}\end{center}\caption{個別文書に対する$K$}\label{fig:small_k}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f5.eps}\end{center}\caption{個別文書に対する$\mathit{VM}$}\label{fig:small_v}\end{minipage}\end{figure}\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f6.eps}\end{center}\caption{個別文書に対する$Z$}\label{fig:small_z}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f7.eps}\end{center}\caption{個別文書に対する$r$}\label{fig:small_r}\end{minipage}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-2ia3f8.eps}\end{center}\caption{個別文書に対する$H$}\label{fig:small_h}\end{figure}個別文書に関する結果を図\ref{fig:small_k}--\ref{fig:small_h}について示す.英語の文書のみならず,他の印欧語族や日本語といった文書については,$K$,$\mathit{VM}$については一定となる一方で,\pagebreak$Z$,$r$,$H$については大域的には単調変化する結果となった.\cite{BaayenTweedie}の結果では,$Z$が一定となることが示されていた.しかし,実験では一貫して$Z$が一定とはならないことが示されている.同様に,類似の複雑系の指標としての$r$もやはり一定とはならなかった.\subsection{大規模文書に対する結果}\label{result_normal}文長に対する各指標の値と,参考のためにシャッフル後の結果について述べる.ここで文書をシャッフルするとは,各文書ごとに文書中の単語の順番をランダムに入れ替えることを言い,シャッフル後の結果とは,この操作を20回繰り返した際の指標の平均値である.このように単語順序をランダムに入れ替えるのは,もともとTweedieとBaayen~\cite{BaayenTweedie}が行っていた方法で,数式上の仮定を満たすためであり,文書定数を考える上で前処理としての妥当性は疑問である.とはいえ,文書には確かに局所的な揺れやぶれがあるので,大域的特性を概観し,元文書に対する指標の推移を比較検討するために示すものである.このシャッフルは先行研究との対比のため$K$と$Z$の2つの指標に対してのみ結果を示す.以下の図では,横軸は文書の単語数の対数をとったものであり,縦軸は指標の値である.\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f9.eps}\end{center}\caption{各言語の{\itK}}\label{fig:many_k}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f10.eps}\end{center}\caption{各言語の{\itK}(シャッフル後の平均値)}\label{fig:many_sh_k}\end{minipage}\end{figure}図\ref{fig:many_k}は各文書に対する$K$であり,図\ref{fig:many_sh_k}はシャッフル後の結果である.まず$K$については自然言語の場合,いずれの言語においても文書の単語数の対数に対して値はほぼ一定となった.プログラミング言語の場合は自然言語と比べて若干の変化が見られたが,単語数が10万を超えると同様に値はほぼ一定となった.文書中の単語の順番をランダムに入れ替えた場合ではいずれの言語の場合でも文書の単語数の対数に対してほぼ完全に一定となった.シャッフル前と後で$K$の値はほとんど変化していないことから,$K$は文書中の単語がランダムに出現するという仮定が背後にある指標にも拘わらず,ランダム性が崩れた実際の文書においても値がほとんど変わらずほぼ一定となったということが興味深い.また,プログラミング言語の$K$の値は自然言語の値と比べてかなり大きくなり,両言語間の$K$の値に大きな差が出る結果となった.$\mathit{VM}$については日中をアルファベットに変換した場合の結果をまず吟味する.図\ref{fig:many_v}は各文書に対する$\mathit{VM}$であり,図\ref{fig:many_v2}は図\ref{fig:many_v}を拡大したものである.日本語の場合に値が英語,中国語と比較してわずかに大きくなっているが,いずれも文書量の対数に対して値はほぼ一定でおよそ0.5の値をとった.プログラミング言語の場合は自然言語の場合よりも変化が見られるが,単調に変化する傾向はみられない.プログラミング言語に関する$\mathit{VM}$の値は自然言語よりも大きく,およそ0.65の値をとり,両言語間で値に大きな差が表れた.これは,自然言語の冗長性が,プログラミング言語のそれよりも一律に小さいことを示しているだろう.\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f11.eps}\end{center}\caption{各言語の{\itVM}}\label{fig:many_v}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f12.eps}\end{center}\caption{各言語の{\itVM}(図\ref{fig:many_v}の拡大図)}\label{fig:many_v2}\end{minipage}\end{figure}\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f13.eps}\end{center}\caption{日本語と中国語の原文の{\itVM}}\label{fig:raw_v}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f14.eps}\end{center}\caption{日本語と中国語の原文の$\mathit{VM}$(図\ref{fig:raw_v}の拡大図)}\label{fig:raw_v2}\end{minipage}\end{figure}次にアルファベットに変換しない場合の日本語,中国語の文字列をそのまま用いた場合の$\mathit{VM}$の結果を図\ref{fig:raw_v}と図\ref{fig:raw_v2}に示す.これらの図には比較のため,アルファベットに変換した場合の日本語,中国語の結果も含まれている.まず$\mathit{VM}$の値は,アルファベットに変換しない場合の日本語,中国語の文字列をそのまま用いた場合でも,アルファベットに変換した場合と同様に文書量の対数に対して値はほぼ一定となることがわかる.しかし$\mathit{VM}$の値の大きさに注目すると,その値は日本語,中国語のいずれの場合もおよそ0.35であり,アルファベットに変換した場合の0.5という値より小さくなっている.これは日本語,中国語の原文におけるアルファベットサイズが変換後のそれよりも遥かに大きいため,文書中で繰り返し出現する文字列の種類が減少し,接尾辞木の内部節点の数が少なくなったからだと考えられる.\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f15.eps}\end{center}\caption{各言語の{\itZ}}\label{fig:many_z}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f16.eps}\end{center}\caption{各言語の{\itZ}(シャッフル後の平均値)}\label{fig:many_sh_z}\end{minipage}\end{figure}\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f17.eps}\end{center}\caption{各言語の{\itr}}\label{fig:many_r}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f18.eps}\end{center}\caption{各言語の{\itH}}\label{fig:many_h}\end{minipage}\end{figure}その他の3つの指標$Z,r,H$について述べる.図\ref{fig:many_z}--\ref{fig:many_h}はそれぞれ各文書に対する$Z,r,H$の結果である.まず複雑系に関連した指標である$Zとr$は$Z$におけるLispを除いて文長に対して値が単調に増加する結果となった.Lispは$Z$において値が微増するにとどまり,ほぼ一定となった.$Z$や$r$は,言語に内在する大域的な構造を一挙に捉えるものであるが,それは一般的には一定値にはならないということである.また,文字列のエントロピー$H$は文長に対して値が単調に減少する結果となった.なお,ここで示す$H$は日中についてはアルファベット表記に変換した結果である.さらに,$Z$についてはシャッフル後も同様にLispを除いて値が一定とはならなかった.他の言語においては全く一定にならなかった$Z$がLispに限り,値が微増するにとどまったという結果は大変興味深い.以上の実験に加えて$\mathit{VM}$と$H$の2つの指標については,文書の文字列を逆順にしたものに対しても実験を行ったので,その結果を簡単に述べる.これは$\mathit{VM}$と$H$が本研究で検討している指標の中で文字列の順序に依存する指標であるからであり,文書の文字列を逆順にすることによって,文字列の前から後ろへの依存性だけではなく,後ろから前への依存性を調査した.結果としては,文字列を逆順にしても,$\mathit{VM}$と$H$の値は文長が増加するにつれて文字列の順序を変えない場合の値とほぼ同じになった. \section{考察} まず,文長に依存せず指標が一定となるかどうかの観点から考察する.前章での実験の結果から自然言語,プログラミング言語において文長に依らず値がほぼ一定となる指標は本研究の範囲では,$K$と$\mathit{VM}$の2つの指標であることが示された.$\mathit{VM}$については非印欧語族である日本語,中国語においてもアルファベット表記ならば値がおよそ0.5となった.これはアルファベット—あるいは荒い近似としての音—という限られた言語要素を用いて行う言語表現中に内在する冗長性の度合を表しているものと考えられる.また日本語,中国語の本来の表記を用いて同様に$\mathit{VM}$の値を計算すれば,用いる文字の種類がアルファベットの場合より大きいことから文字列の繰り返しは少なくなり,値は0.5より小さくなることが示された.すなわち,用いることができる言語上の要素数が大きくなると,冗長性は小さくて済むことを表している.いずれにせよ,\ref{TandB}節で示したように,要素がランダムに生起する場合には振動する指標が,言語では一定となることは実に興味深い.次に値が一定とならなかった指標について論じる.$Z$はTweedieらの先行研究において小規模な英語文書において値が文長によらず一定となるという結果であったが,個別文書においても,大規模文書においてはLispを除いたいずれの言語においても一定とはならずに文長に対して単調に変化した.ここでLispについては微増との結果となった.このように,過去に提案されてきた指標は,言語によっては一定となる場合もある.本稿では,「さまざまな文書において普遍に一定量となる指標」に焦点を当てているので,$Z$はそれには該当しない.しかし,どの指標がどのような特性を持つ言語に対して一定となるのかについては,今後の課題といえよう.$Z$と同様に複雑系に関連した$r$については$Z$と同じように値が文長に対して変化する結果となった.エントロピー$H$については,厳密な推定が難しい言語の確率モデルに依存しない計算方法を用いても,やはり一定とはならなかった.ここで$H$はnグラムから計算することができ,また$\mathit{VM}$の定義に用いられる接尾辞木は,潜在的なnグラム確率から作られると考えることができる.このことから,$H$と$\mathit{VM}$は値の収束性において同じ性質を持つと予想されたが,本研究の範囲では異なる性質を示した.最後に指標の判別力という観点から考察する.判別は,個別文書(作品別),著者(著者判別),より広くある一定の内容で集められた文書群(新聞の文書分類など),言語(英語が日本語かなど),語族(印欧語族とシナ・チベット語族など),自然言語vs.プログラミング言語など異なる解像度で行うことが考えられる.本研究の結果では,$K$と$\mathit{VM}$は,自然言語とプログラミング言語間において値に有意な差が見られた.この傾向は$K$と$\mathit{VM}$ほどではないが他の指標にも見られた.このことは2つの言語間に本質的な複雑さの差があることを示していると考えられ,特に$K$と$\mathit{VM}$はその差をはっきりと捉えていると考えられる.より高い解像度での判別問題は,語族や言語の判別については,少なくとも$\mathit{VM}$については,表記システムで用いるアルファベットの大きさに依存する.$K$と$Z$で,個別文書の判別が可能であると~\cite{BaayenTweedie}では述べられてはいるが,その問題については,今日ではより高性能な機械学習手法の方が手法として妥当であると考えられる.すなわち,文書定数が自然言語の冗長性を反映していると見られることが,文書定数の計算言語学上の一つの意義であると考えられる. \section{まとめ} 本研究では既存の指標$K$,$Z$,$\mathit{VM}$と新たに試みた指標$r$,$H$の5つの指標に対して自然言語とプログラミング言語の文書を複数用いて文長に依らずにその値が一定になるかを吟味した.Yuleの$K$は文書中の語彙の豊かさを表す古典的な指標であるのに対し,Olrovの$Z$と$r$は複雑系に基づく指標である.$\mathit{VM}$は接尾辞木に基づく文書の繰り返しを表す指標であり,$H$は文書のエントロピーである.文書定数の文脈では$r$と$H$は今回新たに試みた指標である.実験では個別文書,ならびに大規模な自然言語とプログラミング言語の文書を用いて,各指標の文長に対する値の変化の様子を網羅的に調べた.その結果$K$と$\mathit{VM}$の2つの指標のみ文長によらず値がほぼ一定となった.さらにこの2つの指標は自然言語とプログラミング言語間において値に有意な差が見られた.またその他の$Z$,$r$,$H$については文長に対して値が単調に変化する結果となった.以上の結果から,Tweedieらの小規模な英語文書において$K$と$Z$は一定となるという先行研究結果については,$K$に関してはいえるものの,$Z$に関しては大規模文書において一定とならないことがわかった.またGolcherの先行研究結果との対比においては,本研究の結果では,アルファベット表記を用いると,日本語,中国語といった非印欧語族の言語においても$\mathit{VM}$は印欧語族同様,ほぼ一定の0.5の値となることがわかった.\acknowledgment検定に関して有益なコメントを頂いた東京大学大学院情報理工学系研究科の駒木文保教授に感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baayen}{Baayen}{2001}]{Baayen}Baayen,R.~H.\BBOP2001\BBCP.\newblock{\BemWordFrequencyDistributions}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Barab{\'a}si\BBA\Albert}{Barab{\'a}si\BBA\Albert}{1999}]{Barabasi}Barab{\'a}si,A.-L.\BBACOMMA\\BBA\Albert,R.\BBOP1999\BBCP.\newblock\BBOQEmergenceofscalinginrandomnetworks.\BBCQ\\newblock{\BemScience},{\Bbf286},\mbox{\BPGS\509--512}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,Lai,\BBA\Mercer}{Brownet~al.}{1983}]{brown}Brown,P.~F.,Pietra,S.,Pietra,V.J.~D.,Lai,J.~C.,\BBA\Mercer,R.~L.\BBOP1983\BBCP.\newblock\BBOQAnestimateofanupperboundfortheentropyofEnglish.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(1),\mbox{\BPGS\31--40}.\bibitem[\protect\BCAY{Cover\BBA\Thomas}{Cover\BBA\Thomas}{2006}]{cover}Cover,T.~M.\BBACOMMA\\BBA\Thomas,J.~A.\BBOP2006\BBCP.\newblock{\BemElementsofInformationTheory}.\newblockWiley-Interscience.\bibitem[\protect\BCAY{Farach,Noordewier,Savari,Shepp,Wyner,\BBA\Ziv}{Farachet~al.}{1995}]{Farach}Farach,M.,Noordewier,M.,Savari,S.,Shepp,L.,Wyner,A.,\BBA\Ziv,J.\BBOP1995\BBCP.\newblock\BBOQOntheEntropyofDNA:AlgorithmsandMeasurementsBasedonMemoryandRapidConvergence.\BBCQ\\newblockIn{\BemProceedingsofthesixthannualACM-SIAMsymposiumonDiscretealgorithms},\mbox{\BPGS\48--57}.\bibitem[\protect\BCAY{Genzel\BBA\Charniak}{Genzel\BBA\Charniak}{2002}]{genzel}Genzel,D.\BBACOMMA\\BBA\Charniak,E.\BBOP2002\BBCP.\newblock\BBOQEntropyRateConstancyinText.\BBCQ\\newblockIn{\BemAnnualMeetingoftheAssociationfortheACL},\mbox{\BPGS\199--206}.\bibitem[\protect\BCAY{Golcher}{Golcher}{2007}]{Golcher}Golcher,F.\BBOP2007\BBCP.\newblock\BBOQAStableStatisticalConstantSpecificforHumanLanguageTexts.\BBCQ\\newblockIn{\BemRecentAdvancesinNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Gusfield}{Gusfield}{1997}]{Gusfield}Gusfield,D.\BBOP1997\BBCP.\newblock{\BemAlgorithmsonStrings,andSequences:ComputerScienceandComputationalBiology}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Herdan}{Herdan}{1964}]{herdan}Herdan,G.\BBOP1964\BBCP.\newblock{\BemQuantitativeLinguistics}.\newblockButterworths.\bibitem[\protect\BCAY{影浦}{影浦}{2000}]{kyo}影浦峡\BBOP2000\BBCP.\newblock\Jem{計量情報学—図書館/言語研究への応用}.\newblock丸善.\bibitem[\protect\BCAY{Kasai,Lee,Arimura,Arikawa,\BBA\Park}{Kasaiet~al.}{2001}]{Kasai01}Kasai,T.,Lee,G.,Arimura,H.,Arikawa,S.,\BBA\Park,K.\BBOP2001\BBCP.\newblock\BBOQLinear-TimeLongest-Common-prefixComputationinSuffixArraysandItsApplications.\BBCQ\\newblockIn{\BemProceedingsofthe12thAnnualSymposiumonCombinatorialPatternMatching},\mbox{\BPGS\181--192}.Springer-Verlag.\bibitem[\protect\BCAY{Orlov\BBA\Chitashvili}{Orlov\BBA\Chitashvili}{1983}]{Orlov}Orlov,J.~K.\BBACOMMA\\BBA\Chitashvili,R.~Y.\BBOP1983\BBCP.\newblock\BBOQGeneralizedZ-distributiongeneratingthewell-known`rank-distributions'.\BBCQ\\newblock{\BemBulletinoftheAcademyofSciencesofGeorgia},{\Bbf110},\mbox{\BPGS\269--272}.\bibitem[\protect\BCAY{Shannon}{Shannon}{1948}]{Shannon}Shannon,C.\BBOP1948\BBCP.\newblock\BBOQAmathematicaltheoryofcommunication.\BBCQ\\newblock{\BemBellSystemTechnicalJournal},{\Bbf27},\mbox{\BPGS\379--423,623--656}.\bibitem[\protect\BCAY{Tweedie\BBA\Baayen}{Tweedie\BBA\Baayen}{1998}]{BaayenTweedie}Tweedie,F.~J.\BBACOMMA\\BBA\Baayen,R.~H.\BBOP1998\BBCP.\newblock\BBOQHowvariablemayaconstantbe?Measuresoflexicalrichnessinperspective.\BBCQ\\newblock{\BemComputersandtheHumanities},{\Bbf32},\mbox{\BPGS\323--352}.\bibitem[\protect\BCAY{Ukkonen}{Ukkonen}{1995}]{Ukkonen}Ukkonen,E.\BBOP1995\BBCP.\newblock\BBOQOn-lineconstructionofsuffix-trees.\BBCQ\\newblock{\BemAlgorithmica},{\Bbf14},\mbox{\BPGS\249--260}.\bibitem[\protect\BCAY{Yule}{Yule}{1944}]{Yule}Yule,G.~U.\BBOP1944\BBCP.\newblock{\BemTheStatisticalStudyofLiteraryVocabulary}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Zipf}{Zipf}{1949}]{Zipf}Zipf,G.~K.\BBOP1949\BBCP.\newblock{\BemHumanBehaviorsandthePrincipleofLeastEffort:AnIntroductiontoHumanEcology}.\newblockAddison-WesleyPress.\end{thebibliography}\begin{biography}\bioauthor{木村大翼}{2010年東京大学工学部計数工学科卒業.現在,同大学大学院情報理工学系研究科に在学中.構造データを対象とした機械学習に興味をもつ.}\bioauthor{田中久美子}{東京大学大学院情報理工学系研究科准教授.1997年東京大学大学院工学系研究科情報工学専攻博士課程修了,博士(工学).工業技術院電子技術総合研究所,東京大学大学院情報学環講師などを経て2005年より現職.自然言語や記号系に普遍に内在する数理構造に興味を持つ.}\end{biography}\biodate\end{document}
V10N04-02
\section{はじめに} label{sec:INTRO}音声対話は,人間にとって機械との間のインターフェースとして最も望ましいものである.しかし,音声対話システムが日常にありふれた存在となるためには,人間の使用する曖昧で誤りの多い言葉,いわゆる話し言葉に対応できなければいけない.そのためには,繰り返し,言い淀み,言い直し,助詞落ち,倒置などの不適格性とよばれる現象に対処できる必要がある\cite{YM1992,DY1997}.これらの不適格性の中で特に問題となるのは,言い直しあるいは自己修復と呼ばれている現象である.ユーザの発話中に自己修復が存在した場合,システムはその発話の中から不必要な語を取り除き,受理可能な発話を回復する必要がある.この自己修復に関する研究は,英語に関するものでは,\cite{HD1983,BJ1992,OD1992,NC1993,HP1997,CM1999}などがあり,日本語に関するものでは,\cite{SY1994,KG1994,IM1996,DY1997,NM1998,HP1999}などがある.しかしながらこれらの論文で提案されている手法では,自己修復を捉えるモデルに不十分な点があり,ソフトウェアロボットとの疑似対話コーパス\cite{QDC}に見られるような表現をカバーできない.また,自己修復を検出した後の不要語の除去処理に関しても十分な手法を与えていない.本論文では,日本語の不適格性,特に自己修復に対処するための新しい手法を提案する.この手法では,従来の手法では捉えられなかった自己修復を捉える事ができるように自己修復のモデルを拡張する.そして,表層及び意味レベルでのマッチングを用いた自己修復の解消法を提案する.まず,\ref{sec:ILL_FORMEDNESS}節では不適格性とその中での自己修復の位置づけについて述べる.\ref{sec:PARSER}節では,本論文で用いるパーザと文法について述べる.\ref{sec:SC}節では,本論文で提案する自己修復の処理手法について述べる.そして\ref{sec:EVAL}節では,提案手法をコーパスに対して適用した結果に基づいて考察する. \section{不適格性} label{sec:ILL_FORMEDNESS}本論文で扱う不適格性は,助詞落ち,倒置,冗長表現の3つである.このうち,助詞落ちと倒置は,次節で述べる文法記述の方法によって,構文解析の枠組みの中で処理をする.もう一つの不適格性である冗長表現は,同一話者によるものと複数話者によるものに分けられる\cite{KM1996}.本論文では,同一話者による冗長表現のみを考慮する.同一話者による冗長表現を,本論文では図\ref{fig:RD_CLASS}のように分類する.\ref{sec:INTRO}節で言及した自己修復は同一話者による冗長表現の一種となる.自己修復はさらに,繰り返し,言い足し,言い直しに分ける.本論文では,強調を意図した繰り返しについては考慮しない.従って,全ての繰り返し表現は自己修復として扱う.自己修復は,\cite{HD1983}と同様に,パーザに処理機構を埋め込むことで対処する.言い淀みは,話者が単語を最後まで言わなかったために,単語の断片が残る現象である.言い淀みは,自己修復と共に現れる場合が多いため,既存の研究では自己修復の枠組みの中に取り込んでいる.これらの研究では,単語断片が単語断片として正確に認識されることを仮定しているが,現在の音声認識技術では難しい仮定である.そこで本論文では,言い淀みの処理は自己修復とは切り放し,未知語の誤認識を除去するための不要語処理に委ねる.これは,解析の途中で不要語の可能性がある語を読み飛ばすことで行う.ある語が不要語であるかどうかを局所的に見極めることは難しいので,それを不要語と見なした場合と,そうでない場合と,2つの仮説をパーザは保持する.そしてパーザは,できるだけ多くの入力語を用いる仮説を優先することで,不必要に読み飛ばしを行うことを避ける.\begin{figure}\begin{center}\begin{minipage}{.5\linewidth}\small\begin{enumerate}\item繰り返し(強調を意図したもの)\item自己修復\begin{enumerate}\item繰り返し(話者の思考の淀みによるもの)\item言い足し(新しい情報を付け足すもの)\item言い直し(新しい情報で置き換えるもの)\begin{enumerate}\item部分訂正(発話の一部分を訂正するもの)\item全訂正(発話を新しく始めるもの)\end{enumerate}\end{enumerate}\item言い淀み\end{enumerate}\end{minipage}\end{center}\caption{同一話者による冗長表現の分類}\label{fig:RD_CLASS}\end{figure} \section{パーザ} label{sec:PARSER}不適格性を解消するための処理は全て,構文解析と平行してパーザの上で行う.本論文では,音声認識の結果が直接パーザに与えられ,パーザは入力された単語列を不適格性を解消しながら解析し,意味構造に変換して談話処理部に出力することを想定する.発話は,必ずしも音声認識器の出力単位に対応する必要はない.ただし,ここでは,発話の終端はなんらかの手法によって判断できるものと仮定する.以下,本論文で用いるパーザとパーザの使用する辞書について説明する.\subsection{係り受け解析を用いた漸進的な構文解析}\label{subsec:PARSER}構文解析の手法として,文節ベースの係り受け解析を採用した.我々の解析手法では内容語を重視し,機能語は内容語に付属するものと捉える.構文解析はスタックを用いて漸進的に行なう.本論文では詳細は省くが,このパーザの使用は,将来,提案手法を組み込む予定の音声対話システムに,漸進的な処理を行わせることを目的としている.パーザは,解析の途中に生成される複数の構文仮説を,別々のスタックに保持する.スタックの各要素には,依存関係で表現された構文木が納められる(図\ref{fig:STACK}).各スタックの要素である部分構文木のルートになっている語を「ルート語」と呼ぶことにする\footnote{図\ref{fig:STACK}において四角で囲まれた語.}.スタックに新しい単語がプッシュされると解析が行われる.プッシュされた語が機能語であった場合には,単純にスタックの上から2つ目の要素のルート語にその機能語を付属させる.既に機能語が付属している場合には,「に・も」のように連接が可能な場合を除いて,機能語が言い直されたと考えて新しい機能語に置換する.次にプッシュされる予定の語が機能語でなければ,ここで係り受け解析を行う.係り受け解析はスタックトップの要素のルート語($rw_2$)とトップのすぐ下の要素のルート語($rw_1$)の関係を見て行う.すなわち,$rw_1$が$rw_2$に係り得るかどうか(もしくはその逆)を調べる.$rw_1$が$rw_2$に係ることができないならば,スタックは変化しない.しかし,$rw_1$が$rw_2$に係ることができるならばこのスタックをコピーし,片方には$rw_1$が$rw_2$に係る仮説(H1),もう片方には$rw_1$が$rw_2$に係らない仮説(H2)を保持する.仮説H1を保持するスタックでは,一度上2つの要素をスタックから取り出したあとに,新しい係り受け関係を作った要素1つをスタックトップに戻す.仮説H2を保持するスタックは変化しない.また,H1については同様の操作を再帰的に行う.従って,\begin{quote}[(君が)$|$(玉を)$>$\end{quote}という仮説スタック\footnote{``[''がスタックの底,``$|$''が要素間の区切り,``$>$''がスタックのトップ,``()''が係り受け関係を表す.}に「押せ」という単語がプッシュされると,\begin{quote}[(君が)$|$(玉を)$|$(押せ)$>$[(君が)$|$((玉を)押せ)$>$[((君が)(玉を)押せ)$>$\end{quote}という3つの仮説スタックが生成される.このパーザは,\ref{sec:ILL_FORMEDNESS}節に述べたように言い淀みを処理するために読み飛ばしも平行して行うが,本論文では詳細は述べない.\begin{figure}\begin{center}\epsfile{file=fig/stack.eps,width=0.35\linewidth}\caption{「机の上の赤い玉を床」という入力を解析した場合のスタックの一例}\label{fig:STACK}\end{center}\end{figure}\begin{figure}\begin{center}\begin{minipage}{.65\linewidth}\footnotesize\begin{verbatim}押してVERBIMP+PUSH+DEGREE:#STDSPEED:#STD!<OBJECT>1*NOUNは|を|も|-INSTANCE+!<AGENT>1*NOUNは|が|も|-ANIMATE+INSTANCE+<TO>1*NOUNに|へ|-LOCATION+<FROM>1*NOUNからLOCATION+<EXTENT>1*ADV-DEGREE:*<SPEED>1*ADV-SPEED:*\end{verbatim}\end{minipage}\end{center}\caption{命令動詞「押して」の辞書エントリ}\label{fig:DIC_ENTRY}\end{figure}\subsection{文法表現と辞書}本手法では,文節構造以外の文法に相当するものは,全て単語辞書の中に単語毎に用意する.ある内容語$c_1$が別の内容語$c_2$に係る時,$c_1$は$c_2$に対して特定の役割を担っていると考える.「赤い玉」という名詞句であれば,「赤い」は「玉」に対してその色に関する情報を与える役割を持っていると見なす.「馬は前行って」という文であれば,「馬」は「行って」に対して,その動作主を特定する情報を与える役割を持ち,「前」は「行って」に対して,その進行方向を特定する役割を持つと見なす.例えば,「押して」という命令動詞の辞書のエントリは図\ref{fig:DIC_ENTRY}のように記述する\footnote{現在は語彙数が少ないので,活用語は活用形の見出し語として辞書に登録している.}.図\ref{fig:DIC_ENTRY}の第一行目は,「押して」という語が,左から順に,\begin{itemize}\item動詞である\item命令(IMP+)である\itemPUSH+という動作を表す素性を持つ\item指定の無いときの動作の程度は\#STDである\item指定の無いときの動作の速さは\#STDである\end{itemize}ということを表している.第二行目以降は,「押して」に係ることのできる語の制約を役割毎に示している.例えば第二行目の,$<$OBJECT$>$(目的格)という役割は,左から順に,\begin{itemize}\item必須格(!が示す)である\item「押して」に対して1つしか存在しない\item「押して」に係るときは前方依存(F)/後方依存(B)のどちらでも良い(*はワイルドカード)\item名詞しかこの役割は取れない\itemその名詞についている機能語は「は」「を」「も」「-(無標)」のどれか\itemINSTANCE+素性を持っている語でなければならない\end{itemize}という事を表している.\ref{subsec:PARSER}節で述べたパーザは,この辞書を用いて解析を行う.内容語$c_1$が内容語$c_2$に係ることができるかどうかは,$c_1$が$c_2$のエントリに示された役割の内のどれかを満たすことができるかどうかによって決まる.そして解析の段階で,全ての係り受けにその意味役割が割り当てられる.このパーザにより,不適格性の内,助詞落ち,倒置は解決できる.すなわち,助詞落ちは上記の文法での-(無標)の場合として扱い,倒置は前方依存が可能かどうかを辞書に記述することで対処する.またこのように係り受け解析の段階で,語の意味役割を特定することで,後述する自己修復の意味的な修正処理が可能になる. \section{自己修復の処理} label{sec:SC}\subsection{過去の研究の問題点}\label{subsec:PROBLEM}我々の疑似対話コーパスの中に現れる自己修復に過去の研究で提案されていた手法を適用したところ,対処できない例が見られた.対処できない理由は2つある.1つは,自己修復のモデルの問題,もう1つは自己修復を検出した後の修正処理の問題である.まず,自己修復のモデルの問題について説明する.既存の研究では,どれも\cite{NC1993}のRepairIntervalModel(RIM)に類するモデルを用いて自己修復を捉えている.RIMは,入力文の上で,修復を受けるものを含む区間をREPARANDUM(以下RPD),修復するものを含む区間をREPAIR(以下RP)\footnote{\cite{HP1997}ではalternation,\cite{SJ2000}ではreparans.},RPDとRPの間に現れるフィラーや休止,手がかり句(cuephrase)\footnote{自己修復を示す手がかり句は編集表現と呼ぶ.「ごめんなさい」,「じゃない」,「ちがう」等.}を含む区間をDISFLUENCY(以下DF)としたときに,\begin{quote}...RPDDFRP...\end{quote}の関係になるというモデルである.そして,RPDとDFの境界,不適格性が始まる点,を中断点(interruptionsite/point)と呼ぶ.例えば,\begin{quote}「[赤い玉を]$_{RPD}$[えっと]$_{DF}$[青い玉を]$_{RP}$押して」\end{quote}となる.そしてこのモデルでは,手がかり句やフィラー以外の語がRPDにもRPにも含まれずにRPDとRPの間に現れることはないと仮定する.従って,RIMは日本語に現れる次のような自己修復を扱えない.\begin{equation}\mbox{「[赤い玉を]$_{RPD}$前に押して[えっと]$_{DF}$[君の前の玉を]$_{RP}$」}\label{EQ:EXAMPLE1}\end{equation}この例では「前に押して」が,RPDとRPの間に入っており,モデルの前提を破っている.パターンマッチングや統計的言語モデルによる自己修復の検出\footnote{本論文でいう検出とは,自己修復の範囲の同定までを指す.\cite{NC1993,HP1997,SJ2000}などでは,検出(detection)とは中断点の検出のみを指し,範囲の同定は含まない.}\cite{BJ1992,NC1993,HP1997,HP1999,SJ2000}は,人間が`self-monitoring'によって即座にエラーを訂正する\cite{LW1989}ため,自己修復が局所的であり,かつRPDの始端からRPの終端までが3,4語程度の短いものが大多数であると仮定している.従って,パターンマッチングや統計的言語モデルを用いて(\ref{EQ:EXAMPLE1})のような自己修復を検出することは,原理的には可能でも,精度を悪化させることが予想される.またこれらの手法では,DFの始端をRPDの終端として定義し,検出したRPDは単純に削除してしまうので,(\ref{EQ:EXAMPLE1})のような例を正しく修正できない(この場合,「前に押して」まで削除される).\cite{KG1994}は\cite{KS1992}の並列構造推定手法を用いてRPDの始端を推定しており,他のパターンマッチング手法とやや性質を異にするが,仮に正しくRPDの始点を推定できたとしても,RPDの終端はDFの始端に固定されているので,(\ref{EQ:EXAMPLE1})を正しく修正できない点は変わらない.また,中断点の位置が予め適切に与えられること,2つの並列構造が完全に単語列の中に含まれていることなどが要求されるので,漸進的な処理には向かず,実用上も疑問が残る.\cite{SJ2000}も中断点が音響的に検出されることを前提にしているが,その報告では,中断点の音響的な検出の再現率は50\,\%に満たない.\cite{DY1997}は,自己修復をRPDからRPへの係り受け関係として扱うため,(\ref{EQ:EXAMPLE1})に類する自己修復は原理的に扱えない.単一化を基にした句構造規則で自己修復を扱う\cite{NM1998}の場合,現在提案されている規則では(\ref{EQ:EXAMPLE1})のような表現を扱うことはできない.新しい規則を追加すれば扱えるかもしれないが,その場合,条件の判定に必要な仕組みなどを新たにパーザに加える必要があり,規則の追加だけで一般的に解決することはできないだろう.\cite{CM1999}も句構造規則で自己修復を扱うが,検出自体は\cite{HP1997}の手法に頼っており,上のような例は扱えない.\cite{SY1994,IM1996}も,提案手法のままでは(\ref{EQ:EXAMPLE1})のような表現は扱えない.次に,自己修復を検出した後の修正処理の問題について説明する.先にも触れたように,従来の手法では,検出したRPDの部分全体を発話から削除する.実際,英語,日本語に関わらずこの処理が正しく機能する場合は多い.しかし,次のような発話では,この方法は重要な情報を落としてしまう.\begin{quote}「[さっき押した赤い玉を]$_{RPD}$[遠くに押したやつを]$_{RP}$もってきて」\end{quote}この自己修復の処理は単なる削除だけでは不十分で,もっと複雑な処理が必要である.\cite{IM1996}では,動詞句の自己修復の場合に,RPDには含まれるがRPに含まれていない格情報を保存することの必要性について言及しているが,具体的な方法は述べていない.\cite{CM1999}は,RPDを単純に削除してしまうと,RP内の代名詞がRPD内の名詞を参照する場合に問題が起きることを指摘しているが,RPDも意味解析モジュールに渡す必要があるというだけで,意味解析モジュールでの具体的な処理法については言及していない.\subsection{自己修復の再分類}\label{subsec:re-categorize}\begin{figure}\begin{center}\begin{minipage}{.55\linewidth}\newcommand{\basesize}{}\newcommand{\examplesize}{}\basesize\begin{enumerate}\item言い足し(繰り返しも含む)\begin{enumerate}\item構造隣接\examplesize「赤い玉を大きい玉を押して」\basesize\item構造非隣接\examplesize「赤い玉を押して大きい玉を」\basesize\end{enumerate}\item言い直し\begin{enumerate}\item明示的\begin{enumerate}\item構造隣接\examplesize「赤い玉をごめん青い玉を押して」\basesize\item構造非隣接\examplesize「赤い玉を押してごめん青い玉を」\basesize\end{enumerate}\item非明示的\begin{enumerate}\item構造隣接\examplesize「赤い玉を青い玉を押して」\basesize\item構造非隣接\examplesize*「赤い玉を押して青い玉を」\basesize\end{enumerate}\end{enumerate}\itemリスタート\begin{enumerate}\item明示的\examplesize「赤い玉をごめん馬は前に行って」\basesize\item非明示的\examplesize「赤い玉を馬は前に行って」\basesize\end{enumerate}\end{enumerate}\end{minipage}\end{center}\caption{自己修復の処理上の分類}\label{fig:SC_CLASS}\end{figure}図\ref{fig:RD_CLASS}の内,自己修復に関する部分を,実際の処理に合わせて図\ref{fig:SC_CLASS}のように再分類する.この分類の中では,繰り返しを言い足しに含めている.ここで構造隣接という言葉を使っているのは,従来の\cite{KM1996}などの分類で使われている表面的な隣接性を示す言葉と区別するためである\footnote{\cite{KM1996}の分類では,「赤い玉青い玉」という言い直し表現の二つの「玉」は表面的に離れているために非隣接であると分類される.本論文の自己修復処理手法では,この表面的な隣接/非隣接は問題にはならない.}.言い足しは,``addition'',``appropriaterepair'',などと呼ばれているもので,RPDの中に間違った情報は含まれていないものである.図\ref{fig:RD_CLASS}の言い足しと繰り返しに対応する.言い足しの中で,構造隣接に含まれるものが今までのモデルでも扱える部類である.構造非隣接に含まれるものが,\ref{subsec:PROBLEM}節で述べた,今までのモデルでは扱えないものである.この言い足しのRPDとRPの間には次のような制限がある.\begin{equation}\label{addition_constraint}\mbox{RPDとRPは同じ物,同じ様態,同じ動作を示していなければならない.}\end{equation}言い直しは,``repair'',``errorrepair''などと呼ばれるもので,RPDの中に間違った情報が含まれているものである.図\ref{fig:RD_CLASS}の部分訂正に対応する.言い直しは,手がかり句が挿入されている{\bf明示的}な言い直しとそうでない{\bf非明示的}な言い直しとに区別する.これは,非明示的な構造非隣接に分類される類いの発話を人間が通常することはなく,仮に発話されても人間の聞き手ですら混乱し,理解できないと仮定するからである.おそらく,「赤い玉を押して青い玉を」などと指示された場合には,通常の人間であれば発話者に真意を問い質すだろう.リスタートは,``restart'',``freshstart'',``fullsentencerepair''などと呼ばれているもので,これも明示的なものと非明示的なものとに分ける.図\ref{fig:RD_CLASS}の全訂正に対応する.漸進的な処理において,早い段階でリスタートを言い直しと区別することは難しい.RPに連体修飾句が含まれていたりすると,かなり先まで解析が進まないと判別できない場合もある.しかし,日本語においては「名詞句+は」やある種の手がかり句などの検出をすることで,ある程度のリスタートは正しく検出するできる可能性がある.明示的なリスタートの場合には既に訂正を行う意思表示を示す編集表現が与えられているので,この言い直しの手がかり句とその後に現れる情報を組み合わせることで,リスタートの処理を行える.一方,非明示的なリスタートは,ポーズの他にも,アクセントや身ぶりなど,パラリンガルな要素を考慮しないと,有意な検出は難しい.そこで,本論文では明示的なリスタートのみを考慮する.\subsection{自己修復の処理}本手法では\cite{HD1983}と同様に,自己修復個所の検出と修正を,構文解析と平行して行う.ただし,\cite{HD1983}が決定的であるのに対し,本手法では自己修復の処理においても複数の仮説が生成される.複数の仮説が生成される場合,仮説に尤度を与える必要があるが,その方法については本論文では省略する。本手法では,自己修復が検出されるとすぐに修正処理が行われるので,出力を見てもどのような自己修復が存在したのかは判らない.パーザの出力は,修正され冗長性を除去された構文木,もしくは辞書に与えられた役割を基に変換された格フレームの形で出力されるからである.冗長表現はそれ自体が曖昧で,言い直し,リスタート,言い淀みのどれと解釈して処理を行っても得られる結果が同じである場合が多い.結果が同じであるにも関わらず,冗長性の解釈の違いで異なる仮説を保持することは,不必要な曖昧性と計算量の増加を招くだけである.従って本手法では,冗長性の解釈のされかたには関心を持たず,冗長表現の検出と修正処理を同時に行って極力曖昧性を無くす.解析途中で同じ結果をもつ仮説が複数生成された場合は,1つだけ残して残りのものは破棄する.新しい単語が仮説スタックにプッシュされて係り受け解析が行われると,係り受け解析が終わった仮説から順に自己修復の検出・修正処理を受ける.自己修復の検出と修正の処理は,係り受け解析と同様にスタックの上2つの要素を処理することで行う.すなわち,スタックトップの要素の木がRPで,スタックの上から2番目の要素の木がRPDである(あるいはRPDを含んでいる\footnote{構造非隣接の場合,ルート語に係っている部分木のいずれかがRPDである.})と考える.要素を2つ取り出した後の処理は,言い足し及び言い直しとリスタートの2つで別れる.図\ref{fig:SC_CLASS}では,言い足しと言い直しは別に分けたが,実際の処理は似ている部分が多いので1つにまとめて処理をする.\subsubsection{言い足し及び言い直しの処理}\label{subsubsec:processingSC}まず,構造非隣接型の自己修復をどのように捉えるべきかを考える.ここで,コーパスの観察などから,構造非隣接に分類されるタイプの発話は,\begin{quote}...RPD...動詞DFRP...\end{quote}という形しか取らず,RPDは,主格や目的格として必ず動詞に係っていると仮定する.この結果,構造非隣接でRPDとRPになることができる組は,名詞句の組か副詞句の組しか無いことになる.この構造非隣接型の冗長性を解消するための解釈の仕方は2通り考えられる.1つは,RPが動詞に後ろから係ると考える方法(A)である.この時既に動詞に係っているRPDは,後から述べられたRPによって置き換えられると捉える.つまり,この解釈では自己修復が倒置と組み合わさったものと考える.もう1つは,RPの後ろに来るべき動詞が省略されたものと解釈する方法(B)である.つまり,\begin{quote}...RPD...動詞DFRP(動詞)...\end{quote}という解釈をする.この場合,構造非隣接は見かけ上の存在であり,本質的には構造隣接と同じになる.つまり,省略された動詞を補完することで,\begin{quote}...RPDDFRP...\end{quote}という形に還元でき,これは従来のRIMで捉えられるパターンとなる.この解釈の場合,動詞を補完した後の処理は構造隣接の場合の処理とほぼ同じになるために,統一的な解釈ができるという利点がある.しかしながら,(B)の場合,動詞の補完をするまでの処理を特別に用意しなければならず,これは(A)の処理に必要な手続きのほとんどを含む上に更に多くの処理が必要になる.さらに,動詞を補完してしまえば動詞が省略されなかった場合と全く同じように処理してよいのかは疑問である\footnote{「赤い玉を押して青い玉を」は理解しがたいが,「赤い玉を押して青い玉を押して」は多少の戸惑いはあるものの言い直しであるのだろうと解釈できる(もちろん語勢やイントネーションの補助もあってである).}.このような理由に加え,著者の内省では(A)の解釈の方が自然に思えたため,本論文では(A)の解釈を取った.\paragraph{検出処理}\label{para:DETECTION_RP}\begin{figure}\small\begin{enumerate}\itemスタックの上2つの要素を,上から要素2,要素1として取出す.ただし,要素1が編集表現ならば,明示的な自己修復であるというフラグを立てて,要素1の下のスタックの要素を取り出して,それを要素1とする.要素1のルート語が$rw_1$,要素2のルート語が$rw_2$である.\item$rw_1$と$rw_2$の品詞が同じ場合(構造隣接)\begin{enumerate}\item$rw_1$と$rw_2$が置き換え条件を満たせば,$rw_2$は$rw_1$の自己修復である可能性があると返して終了.\end{enumerate}\item$rw_1$と$rw_2$の品詞が異なる場合(構造非隣接)\begin{enumerate}\item$rw_1$が動詞でなければ,自己修復である可能性は無いと返して終了.\item$rw_2$が名詞でも副詞でもなければ,自己修復である可能性は無いと返して終了.\item$rw_1$に係っている内容語の中に$rw_2$と置き換え条件を満たすもの($d_i^{rw_1}$とする)があれば,$rw_2$は$d_i^{rw_1}$の自己修復である可能性があると返して終了.ただしこの時,明示的でないならば$rw_2$と$d_i^{rw_1}$は\ref{subsec:re-categorize}節の(\ref{addition_constraint})の制約を満たさなければならない.\end{enumerate}\end{enumerate}\caption{言い足しと言い直しの検出手順}\label{fig:DETECTION_RP}\end{figure}ある仮説スタックが与えられると,検出は図\ref{fig:DETECTION_RP}の手順で行う.図\ref{fig:DETECTION_RP}の手順の中で使用されている置き換え条件とは,$rw_1$あるいは$d_i^{rw_1}$(図\ref{fig:DETECTION_RP}参照)と$rw_2$がそれぞれに付属している機能語も含めて満たさなければならない条件である.この条件が満たされるとき,$rw_1$(あるいは$d_i^{rw_1}$)は$rw_2$で置き換えられる.この置き換え条件は\cite{NM1998}の分類Aの(I)\footnote{これは,RPDとRPが同じ構文カテゴリの句である場合に,自己修復表現であるならば満たさなければいけな条件を示したものである.名詞句,助詞句,助詞,動詞句,連体詞,副詞の自己修復の場合に分けて述べられている.例えば名詞句の場合,\begin{quote}\begin{quote}\begin{description}\item[(I-1)]同じ名詞句(例:[角][角]ですか)\item[(I-2)]同じ意味カテゴリの名詞句(例:[ここ]あ[受け付け]におりますが)\end{description}\end{quote}\end{quote}と分類されている.}とほぼ同じである\footnote{\cite{NM1998}の分類Aの(I)では形容詞の場合について触れられていない.ただし,形容詞の場合は副詞と同じでよい.}.置き換え条件の一部(名詞に対する条件)を図\ref{fig:REPLACE_COND}に示す\footnote{これは,\cite{NM1998}の分類Aの(I)の名詞句と助詞句に関する条件をまとめたものである.}.名詞$N_1$と名詞$N_2$の組に関して,図\ref{fig:REPLACE_COND}のどれかを満たせば良い.\begin{figure}\small\begin{center}\begin{minipage}{.5\linewidth}\begin{quote}\begin{itemize}\item$P_1$=$P_2$\item$N_1$=$N_2$and$P_2$$\neq$nil\item$N_1$$\sim$$N_2$and$P_1$=nil\end{itemize}\end{quote}$P_1$,$P_2$はそれぞれ名詞$N_1$,$N_2$に付いている機能語である.=は全く同じ語であること,$\sim$は$N_1$と$N_2$が同じ意味クラスに入ることを意味する.$P_1$=nilは,$N_1$には機能語が付いていないことを示す.\end{minipage}\end{center}\caption{名詞の置き換え条件}\label{fig:REPLACE_COND}\end{figure}\paragraph{修正処理}検出した自己修復には,続いて修正処理を行う.既存の研究での修正処理は,単純にRPDを削除することで行われていた.しかし,これではRPDの中には存在するがRPでは省略されてしまった情報まで削除してしまい好ましくない.そこで本手法では,$rw_1$をルートとする部分木($t_1$すなわちRPD)が$rw_2$をルートとする部分木($t_2$すなわちRP)で置き換えられるときに,$t_1$には存在するが$t_2$には存在しない情報を,$t_1$から$t_2$に移し替える処理を行う.これは,具体的には$rw_1$に係っている語の内,$t_2$では省略された語を$rw_2$に付け替えることで行う.ただし,この時$rw_2$に付け替えることで矛盾が起きるような語は付け替えないで捨てる.例えば,\begin{center}\begin{mbox}「[ニワトリの前の赤い玉を]$_{t_1}$[青い玉を]$_{t_2}$\ldots」\\\begin{tabular}{lcccc}$t_1$:&(((ニワトリの)&前の)&(赤い)&玉を)\\&\verb+<GEN>+&\verb+<LOC>+&\verb+<COL>+\\$t_2$:&&&((青い)&玉を)\\&&&\verb+<COL>+\\\end{tabular}\end{mbox}\end{center}という例の場合(\verb+<GEN>+,\verb+<LOC>+,\verb+<COL>+などは,そのすぐ上の語にパーザが与えた役割を示す),$t_2$で省略されている``((ニワトリの)前の)''を,$t_2$の「玉を」に付け替える.その結果$t_2'$は,\begin{center}\begin{tabular}{lcccc}$t_2'$:&(((ニワトリの)&前の)&(青い)&玉を)\\\end{tabular}\end{center}となる.この処理は部分木のルートだけではなく,その中間ノードに対しても再帰的に適用する必要がある.例えば,\begin{center}\begin{mbox}「[馬は前の玉を押して]$_{t_1}$[青い玉を押して]$_{t_2}$」\\\begin{tabular}{lcccc}$t_1$:&((馬は)&((前の)&玉を)&押して)\\&\verb+<AGNT>+&\verb+<LOC>+&\verb+<OBJ>+&\\$t_2$:&&((青い)&玉を)&押して)\\&&\verb+<COL>+&\verb+<OBJ>+&\\\end{tabular}\end{mbox}\end{center}という自己修復で,$t_1$と$t_2$のルートの「押して」に対してのみこの処理を適用した場合$t_2'$は,\begin{center}\begin{tabular}{lcccc}$t_2'$:&((馬は)&((青い)&玉を)&押して)\end{tabular}\end{center}となり「前の」が落ちてしまう.これを防ぐためには,$t_1$の「玉を」と$t_2$の「玉を」を対応づけて,「玉を」に関しても同様に付け替え処理を行う必要がある.語$rw_1$をルートとする部分木$t_1$を,語$rw_2$をルートとする部分木$t_2$で置き換えるとする.この時,$rw_1$に係っている$m$個の語を$d_1^{rw_1},d_2^{rw_1},...,d_m^{rw_1}$とする.$rw_2$に係っている$n$個の語を$d_1^{rw_2},d_2^{rw_2},...,d_n^{rw_2}$とする.この$t_1$と$t_2$に対して,付け替え処理を行う関数$dmerge(rw_1,rw_2)$のアルゴリズムの概要を図\ref{fig:DMERGE}に示す.このアルゴリズムは人間の自己修復の認識に関する下の3つの仮定を満たすようになっている.\begin{itemize}\item[仮定1]$d_1^{rw_1},...,d_m^{rw_1}$の中の任意の語$d_i^{rw_1}$と同じ語は$d_1^{rw_2},...,d_n^{rw_2}$の中にただ1つ$d_j^{rw_2}$しかなく,その逆もまた成り立つ時に限り,$d_i^{rw_1}$と$d_j^{rw_2}$のそれぞれの$rw_1$と$rw_2$に対する役割が例え異なろうとも,$d_i^{rw_1}$は$d_j^{rw_2}$によって置き換えられたと認識できる.\item[仮定2]$d_1^{rw_1},...,d_m^{rw_1}$の中の任意の語$d_i^{rw_1}$と同じ役割を持つ語は$d_1^{rw_2},...,d_n^{rw_2}$の中にただ1つ$d_j^{rw_2}$しかなく,その逆もまた成り立つ時に限り,$d_i^{rw_1}$と$d_j^{rw_2}$が例え異なる語であろうとも,$d_i^{rw_1}$は$d_j^{rw_2}$によって置き換えられたと認識できる.\item[仮定3]上の2つの認識に食い違いがない場合にのみ,$d_i^{rw_1}$は$d_j^{rw_2}$によって置き換えられたと認識できる.\end{itemize}つまり,図\ref{fig:DMERGE}のアルゴリズムは,$d_i^{rw_1}$が語そのものか役割によって$d_j^{rw_2}$と1対1に対応付けが可能な場合で,なおかつ語と役割に関する対応付けに食い違いがない場合のみ,$d_i^{rw_1}$と$d_j^{rw_2}$を対応づけ,$dmerge(d_i^{rw_1},d_j^{rw_2})$を再帰的に実行する.この条件を満たさない$d_i^{rw_1}$と$d_j^{rw_2}$に関しては処理は何も行われずに無視される.これは,RPD($t_1$)とRP($t_2$)の間での対応関係が曖昧な場合には人間も特定の解釈をすることができないと仮定するからである.仮定1によって,\begin{center}\begin{mbox}「[あれを右から押して]$_{t_1}$ごめん[右に押して]$_{t_2}$」\\\begin{tabular}{lccc}$t_1$:&((あれを)&(右から)&押して)\\&\verb+<OBJ>+&\verb+<FROM>+\\$t_2$:&&((右に)&押して)\\&&\verb+<TO>+&\\\end{tabular}\end{mbox}\end{center}という発話から,$t_2''$ではなく$t_2'$を得ることができる.\begin{center}\begin{tabular}{lcccc}$t_2'$:&((あれを)&&(右に)&押して)\\$t_2''$:&((あれを)&(右から)&(右に)&押して)\\\end{tabular}\end{center}同様に仮定2によって,「あれを馬の前に押してごめん後ろに押して」という発話から「あれを馬の後ろに押して」という解釈を得ることができる.このアルゴリズムで,語と語の対応を取るのに役割を使うのは,基本的には助詞が同じかどうかを見ることと同じである.しかしながら,助詞は省略される場合があるので,助詞を見るだけでは解決できない場合がある.例えば,\begin{center}\begin{mbox}「[君赤い玉押して]$_{t_1}$[大きいやつ押して]$_{t_2}$」\\\begin{tabular}{lcccc}$t_1$:&((君)&((赤い)&玉)&押して)\\&\verb+<AGNT>+&\verb+<COL>+&\verb+<OBJ>+&\\$t_2$:&&((大きい)&やつ)&押して)\\&&\verb+<SIZE>+&\verb+<OBJ>+&\\\end{tabular}\end{mbox}\end{center}という例の場合,単語も助詞も異なるため,意味すなわち役割を考えないと「玉」と「やつ」の対応を取ることができない.もともと助詞がない場合(名詞に係る形容詞など)でも,すでに役割のラベルが与えられているので,新たに意味素性などの情報を用いて対応関係を計算する必要がなく,処理が効率的になる.また,対応付けた2つの内容語のうち,より詳細な情報を持つ下位クラスの語を残すことによって,代名詞による繰り返しなどの場合も情報の損失を防げる(図\ref{fig:DMERGE}の3.の後半).上の例の場合,下の$t_2''$ではなく,$t_2'$を得られる.\begin{center}\begin{tabular}{lcccc}$t_2'$:&((君)&((赤い)(大きい)&玉)&押して)\\$t_2''$:&((君)&((赤い)(大きい)&やつ)&押して)\\\end{tabular}\end{center}\begin{figure}\small$dmerge(rw_1,rw_2)$:$rw_1$をルートとする部分木から$rw_2$をルートとする部分木への付け替え処理を行う\begin{enumerate}\item$d_1^{rw_1},...,d_m^{rw_1}$と$d_1^{rw_2},...,d_n^{rw_2}$の間で同じ語であることを基準に対応を取る(対応1).\item$d_1^{rw_1},...,d_m^{rw_1}$と$d_1^{rw_2},...,d_n^{rw_2}$の間で同じ役割を持つことを基準に対応を取る(対応2).\item対応1と対応2それぞれのなかで1対1の対応であり,なおかつ対応1と対応2の間で食い違いがない対応をもつ語のペア$(d_x^{rw1},d_y^{rw2})$を取り出し,$dmerge$を再帰的に適用する.$d_x^{rw1}$が$d_y^{rw2}$よりも下位の意味クラスに属するならば,$d_y^{rw2}$を$d_x^{rw1}$で置き換える.\item$d_1^{rw_1},...,d_m^{rw_1}$の内,対応1・対応2のどちらからも対応づけを与えられなかったものを取り出し,それらをルートとする部分木だけを,$rw_2$にそのまま付け替える.\end{enumerate}\caption{付け替え処理のアルゴリズムの概略}\label{fig:DMERGE}\end{figure}\subsubsection{リスタートの処理}先に述べたように,リスタートに関しては明示的な場合,つまり編集表現が発話された場合しか扱わない.リスタートの場合重要なのは適切な検出のみで,処理に関してはリスタートの発生点より以前の入力を無視すれば良い.リスタートの検出には,2つの特徴を捉えることで対処する.1つは,日本語の特性を利用し,編集表現の後に「名詞+は」が出現するかどうかを調べる.もう1つは,\ref{para:DETECTION_RP}で述べた,置き換え条件を逆に利用する.もし,編集表現の後に出現している部分木のルートが編集表現の直前に出来ていた部分木のルートと置き換え条件を満たさないならば,それは明示的な言い直しではなく,リスタートである可能性が高いと考えられる.この可能性は,編集表現の後に出現している部分木のルートの,編集表現からの形態素列上の距離が離れれば離れるほど高くなる. \section{提案手法の評価と考察} label{sec:EVAL}提案手法を評価するために,提案手法を「ソフトウェアロボットとの疑似対話コーパス\cite{QDC}」(以後,疑似対話コーパス)に人手で適用した.その結果に基づいて,定性的な考察を行う.\subsection{疑似対話コーパスへの提案手法の適用}「ソフトウェアロボットとの疑似対話コーパス」は,全15対話,532発話を含む.疑似対話コーパスは,「仮想世界内にある2体のロボットを操作して,同じく仮想世界内にある4つの球をあらかじめ指定された位置に配置する」という課題で収集された.収集に参加したのは,1対話につき5人である.5人の参加者の内訳は,\begin{itemize}\itemロボットに音声言語で指示を与える者(指示者)\item指示者の指示にしたがってロボットを操作する者(ロボット操作者)\item仮想世界の様子を映すカメラを操作する者(カメラ操作者)\item仮想世界を管理するシステムを担う者(システム管理者)\itemタスクの終了を判断する者(終了判定者)\end{itemize}である.参加者は対話毎に役割を交替した.指示者はモニタに映されるカメラの映像を通して仮想世界内の様子を知り,球を操作する2体のロボットに加えて,カメラの位置も言語によって操作する.また,指示者は自分や球の位置などをシステム管理者に質問することができる.1対話の収集は,ロボットや球がランダムに配置された状態から始まり,指示者が指定された配置を完了したと終了判定者が判断した所で終る.コーパスの収集は,「発話者が指示を与え,それに対してロボットが動作する」といサイクルの繰り返しによって採集された.また,収集経過は市販のビデオカメラで撮影された.このコーパスを調べた結果,今回対象とした不適格性の内,助詞落ち以外のものは99個所あった.この内,単純な倒置15個を除いた84個所が冗長表現で,14個所の言い淀みを除く70個所が,単語断片ではないはっきりとした単語で構成される自己修復であった.70個の自己修復を図\ref{fig:SC_CLASS}の分類に従って分類した結果は以下の通りである.\begin{center}\begin{tabular}{ll}言い足し:&構造隣接37個(52.9\,\%),構造非隣接16個(22.9\,\%)\\言い直し:&明示的構造隣接1個(1.4\,\%),明示的構造非隣接0個(0\,\%)\\&非明示的構造隣接10個(14.3\,\%),非明示的構造非隣接0個(0\,\%)\\リスタート:&明示的0個(0\,\%),非明示的1個(2.9\,\%)\\分類不能:&5個(5.7\,\%)\\\end{tabular}\end{center}RPが文頭から始まっていて,言い足し/言い直しともリスタートとも解釈できる場合には,言い足し/言い直しとした.分類不能の5個は後で説明する挿入表現に該当する.提案手法をこれらの自己修復に適用した場合,提案手法で解決できるものが53個,解決できないものが17個であった.疑似対話コーパスの調査,及び手法の適用に際しては,「ねえ」,「ですねえ」,「さあ」,「下さい」等の,間投詞的あるいは定型的な接尾表現は無視した.コーパスの規模が小さいことと,人手での作業であることから,本論文ではこれ以上の定量的な評価は行わない.かわりにこのコーパスを用いて定性的な考察を行う.\subsection{考察}図\ref{fig:successful}に,今回使用した疑似対話コーパス中のデータで,提案手法が有効に動作する例を示す.今回使用した疑似対話コーパスに現れた自己修復を含む発話には,図\ref{fig:successful}の例(I)のような単純なものから,例(VI),(VII)のような複数の自己修復を含むものまであった.例(V)では構造非隣接の言い足しが起きているが,提案手法により問題なく対処できている.また,例(IV),(V),(VI),(VII)では修正処理によってRPDからRPへ適切に情報が残されている.例(V),(VI)では「その」という連体詞が,RPDにしか現れていない.「その」という連体詞は具体的な情報を与えるものではないが,「その」という語が発話されたということを意味解析以降の処理に伝えることで,対象の特定などにおいてある種の絞り込みを行なうことができる可能性がある.従って,このような語を削除せずに残しておけることにも意義がある.また,本手法は漸進的に処理を行なっていくので,例(VII)のように自己修復が入れ子になっている場合でも問題なく処理できる.\begin{figure}\footnotesize\begin{enumerate}\item[例](I)\begin{enumerate}\item[修正前][もう]$_{RPD}$,[もう]$_{RP}$90度回り込む\item[修正後]もう90度回り込む\end{enumerate}\item[例](II)\begin{enumerate}\item[修正前]そうじゃなくて[反対側で]$_{RPD}$,[反対側に]$_{RP}$できるだけ回り込んで\item[修正後]そうじゃなくて反対側にできるだけ回り込んで\end{enumerate}\item[例](III)\begin{enumerate}\item[修正前][ザクは]$_{RPD}$,[ごめんなさい]$_{DF}$,[カメラは]$_{RP}$斜め45度くらいから映して\item[修正後]カメラは斜め45度くらいから映して\end{enumerate}\item[例](IV)\begin{enumerate}\item[修正前][青い玉の近くまで押して]$_{RPD}$,[まっすぐ押して]$_{RP}$\item[修正後]青い玉の近くまでまっすぐ押して\end{enumerate}\item[例](V)\begin{enumerate}\item[修正前]どっちか手の空いてる方が,[その赤いやつを]$_{RPD}$カメラのすぐ手前あたりまで持ってくる,[カメラのすぐ前の赤いやつを]$_{RP}$\item[修正後]どっちか手の空いている方が,カメラのすぐ前のその赤いやつをカメラのすぐ手前あたりまで持ってくる\end{enumerate}\item[例](VI)\begin{enumerate}\item[修正前]ザクは,[その青いやつを]$_{RPD1}$,[さっきのやつを]$_{RP1}$,[もうちょっとカメラから見て]$_{RPD2}$,[見て]$_{RP2}$右に押す\item[修正後]ザクは,その青いさっきのやつを,もうちょっとカメラから見て右に押す\end{enumerate}\item[例](VII)\begin{enumerate}\item[修正前][[[右の]$_{RPD1}$,[右の]$_{RP1}$青を]$_{RPD2}$,[カメラから見て右の青を]$_{RP2}$,白から見て赤の反対側に置いて]$_{RPD3}$,[押して]$_{RP3}$\item[修正後]カメラから見て右の青を,白から見て赤の反対側に押して\end{enumerate}\end{enumerate}\caption{処理可能な発話の例}\label{fig:successful}\end{figure}次に提案手法では対処できなかった表現をタイプ別に分類し,それぞれに必要な処理について述べる.\paragraph*{$\bullet$挿入表現}このタイプの自己修復は\cite{NM1998}では分類Aの(II)\footnote{\label{NM1998_CAT:A-II}\cite{NM1998}では「X(RPDに相当)の単語列が,Z(RPに相当)の単語列の部分列になっている場合」と定義され(()内は著者の注),「[二十分]$_{X}$[愛甲石田まで二十分もかからない]$_{Z}$から」という例が挙げられている.}に分類され,\cite{TH1999}では挿入と呼ばれている.これには5つ該当する例があった.その内の1つとして,\begin{quote}「{\bf黒の},ガンダムが{\bf黒の}後ろに行って」\end{quote}が挙げられる(ここで,「黒」は「黒いブロック」をさしている).\cite{DY1997}のように係り受け解析を基本とする場合,このタイプのものが解決できないことは\cite{NM1998}で指摘されている.しかし,読み飛ばしや非明示的なリスタートの処理をポーズの情報などを用いて高い確信度で行うことができれば,うまく解決出来る可能性がある.また,構造非隣接の扱いを拡張するか,パターンマッチングによる対応付けを別に導入することによって解決することも可能である.\cite{NM1998}は,\cite{HP1997}の様な手法は漸進的な処理に用いられないと述べているが,その理由は不明である.\cite{NM1998}は音声認識器の出力を解析することを前提にしており,そうであるならばパターンマッチング手法を併用することも(その結果を必ず信用するかどうか,あるいは修正処理までを行わせるかどうかは別として)可能なはずである.\cite{NM1998}の手法自体も,挿入表現を扱う規則の条件から(脚注\ref{NM1998_CAT:A-II}参照),読み飛ばし以上の事はできず,例えば,\begin{quote}「私は[あの分厚い本を]$_{X}$,[図書館からご注文の本を運んできました]$_{Z}$」\end{quote}というような発話は扱えない.\paragraph*{$\bullet$単純な置き換えによる情報の損失}これに含まれるものは1つであった.本手法では,RPDの単純な削除は情報の損失を招くとして,付け替えによる情報の保存を考えた自己修復の処理手法を提案した.しかし,本手法で提案した情報の保存はRPで省略された係り受け関係の移し替えのみを考慮していて,言い直された単語自体は単純に置き換えている.このままでは,次のような例で情報の損失を起こす.\begin{quote}「{\bf青を},その{\bfブロックを}押して」\end{quote}この例では,「青」は青いものを示す代名詞として使われている.この「青」を単純に「ブロック」で置き換えてしまうと,折角話者が提供した「青色」という情報を失い,システムは曖昧性を正しく解決できない恐れがある.これを防ぐためには,単純に表層のシンボルの操作として自己修復を扱うのではなく,本論文で提案した手法よりもより深い意味の操作として自己修復を扱う必要がある.この例であれば,単語間においても単純な置き換えを行うのではなく,意味素性の引き渡しを行わなければならない.\paragraph*{$\bullet$より高度な意味処理が必要な表現}これには9つの例が含まれる.上に述べたタイプも,本手法よりも高度な意味処理を要求するものであるが,上のタイプはまだ比較的簡単な問題である.それよりも,ここに分類されるものは更に複雑な意味処理を要求するものである.提案手法では,情報の保存のために行われるRPDとRPの対応づけが単語のレベルで行われるため,下の例のような場合正しく修正処理を行うことができない.\begin{quote}「それをガンダムの{\bf前に}押して,前の{\bf辺りに}」\end{quote}この例の場合,「前に」は「辺りに」と対応づけられるために,「ガンダムの」は「辺りに」に付け替えられてしまい,``((それを)((ガンダムの)(前の)辺りに)押して)''という結果が生成されてしまう.この例を正しく解釈するためには,「前に」が「前の辺りに」という複合表現と対応していることを理解できる必要がある.また,本手法を含めて,表層のレベルで自己修復を扱う既存の手法はどれも,品詞が異なるために次のような簡単な表現も扱う事ができない.\begin{quote}「{\bf赤い},ごめん,{\bf緑の}玉を押して」\end{quote}当然,\begin{quote}「{\bf白いのが入るぐらいに}映して,{\bf白いのを}映して」\end{quote}のような,表層上はかなり異なるが意味的にはほぼ同じと考えられる表現も扱う事ができない.\paragraph*{$\bullet$主辞の省略}このタイプのものは2つあった.2つとも下の例のように「〜から見て」という句が動詞の後から付け足されている例である.\begin{quote}「{\bf右に}押して,カメラから見て({\bf右に})」\end{quote}「カメラから見て」は「押して」に係るわけではないので,本論文で提案した構造非隣接に対する処理手法では解決できない.これを解決するためには「右に」あるいは「右に押して」までを,何らかの推論によって補完して考える必要がある.あるいは,交差する係り受けも許すような仕組みが必要である.\paragraph*{$\bullet$見かけは普通の言い直しだが,単純な言い直しとしては解決できない表現}このタイプのものは1つ見つかった.\begin{quote}「カメラもうちょっと右から{\bf映してくれる},右に{\bf回り込んでくれる}」\end{quote}この例の場合,一見動詞句の非明示的な言い直しのように見えるが,単純に「映して」を「回り込んで」で置き換えてしまうことはできない.ここでは,話者は「右から映す」ための手段として「右に回り込む」ことを依頼しているのであって,回り込みながら「(何かを)撮影する」ことが重要なのである.このような発話を正しく理解するためには,談話解析までも構文解析と並列化した仕組みが必要である.そして,外界の状況やユーザの意図に応じた処理を行わなければならない. \section{おわりに} 本論文では,自己修復のモデルを拡張し,従来よりも多くの表現を検出する方法を示した.そして,RPDとRPの間で単語間の対応関係を取ることにより,従来の手法では単純に削除されてしまった情報を,自己修復の冗長性を修正した後にも適切に残すことができる手法を提案した.また,本論文で用いたパーザは,単語の役割を認識することで,日本語に見られる不適格性の1つである助詞落ちを回復することができる.そして,自己修復の修正処理は,パーザによって構文木に付与される単語の役割を利用することで,適切かつ効率的に行なうことができる.提案した検出処理は,日本語,及び導入したパーザに依存するため,その他の言語への直接の応用は難しいかも知れない.しかし,修正処理は,日本語やパーザに関係なく応用が可能である.本論文では,小規模のコーパスに人手で適用した結果をもとに定性的な考察を行った.今後の課題の1つとして,実際の音声対話システム上での利用を視野にいれたより定量的な評価を行う必要がある.提案手法では,自己修復の検出に構文的な手がかりのみを用いた.構文的な手がかりを用いれば,ほとんどの自己修復の検出は可能である.しかし,非明示的なリスタートはこの限りではない.また,\ref{sec:ILL_FORMEDNESS}節で述べたように,本手法で用いたパーザは,多くの語を含んでいる仮説を優先する.従って,自己修復の可能性を検出することはできても,そこに自己修復の存在を認めない仮説の方が優先されてしまうことがある.例えば,「馬の右の,馬の左の玉を押して」という発話の場合,「馬の右の」を「馬の左の」で言い直しているとする仮説よりも,「馬の右の」が2番目の「馬」に係るとする仮説が優先される.この問題を解決するためには,\cite{BJ1992,OD1992,NC1993,HP1997,SJ2000}等のように音響/音韻情報を導入して,自己修復として処理する仮説の方が尤度が高くなるような処理が必要になる.検出後の修正処理のために提案したアルゴリズム(図\ref{fig:DMERGE})は,我々のコーパス内の事例と我々が解釈可能であると考え出した例とを満足する.しかしながら,このアルゴリズムが前提としする3つの仮定(\ref{subsubsec:processingSC}節)が,広く一般に成り立つものであるかどうかについては,他の分野のコーパスなどを用いて検証する必要がある.また,本論文では,発話の終端は判るものと仮定して話を進めたが,実際にはこれは大きな問題であり,本論文で用いたパーザが漸進的な構文解析を行うのも,1つにはこの問題を踏まえてのことである.発話が連続する状態では,自己修復として扱うべきか別々の発話として扱うべきかを決定できる枠組みが必要である.そのような枠組みとの連携も今後の課題である.自己修復を検出する手がかりとして,編集表現と呼ばれるキーワードが用いたが,これらの表現は必ずしも自己修復だけに用いられるのではなく,通常の否定表現としても用いられる.自己修復とそれらの表現の区別をつけられる仕組みも必要である.\bibliographystyle{jnlpbbl}\bibliography{JSelfCorrection}\begin{biography}\biotitle{略歴}\bioauthor{船越孝太郎(学生会員)}{2000年東京工業大学工学部情報工学科卒業.2002年同大学院情報理工学研究科計算工学専攻修士課程終了.同年同大学院情報理工学研究科計算工学専攻博士課程進学,在学中.音声対話に関する研究に従事.情報処理学会,人工知能学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{徳永健伸(正会員)}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\bioauthor{田中穂積(正会員)}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程終了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-09
\section{はじめに} 単一言語内フレーズアラインメントは自然言語理解における基礎タスクである.本タスクは,与えられた同一言語の$2$文に含まれる言い換えフレーズについて,それらの対応付けを行うことを目的とする.単一言語内フレーズアラインメントの応用は多岐に渡るが,特に関連の深いタスクは言い換え認識\cite{dolan-2005}や含意関係認識\cite{dagan-2005},意味的類似度推定\cite{agirre-2012}などの文対モデリングタスク\cite{lan-2018}である.先行研究\cite{maccartney-2008,yao-2013-b,maharjan-2016,arase-2017,ouyang-2019}では,大規模な言い換え辞書あるいは高品質な構文解析器やチャンカーを利用できることが前提となっており,英語以外の言語への適用は容易ではない.既存手法であるJacana-phrase\cite{yao-2013-b}やSemAligner\cite{maharjan-2016}はWordNet\cite{miller-1995}やPPDB\cite{ganitkevitch-2013}といった大規模な言い換え辞書を使用して素性を抽出している.また,\citeA{arase-2017}や\citeA{ouyang-2019}は,句構造解析器などの高品質な構文解析器を用いてフレーズの構造を獲得している.一方,統計的機械翻訳の分野で研究されてきた対訳フレーズアラインメント手法\cite{marcu-2002,koehn-2003,deng-2005,bansal-2011}の多くは,パラレルコーパスにのみ依存している.対訳フレーズアラインメントの一般的なアプローチでは,最初に単語アラインメントを獲得し,次にヒューリスティクスに基づいてそれらをフレーズ対へ拡張する.ただし,対訳フレーズアラインメントの主な目的はフレーズベース機械翻訳のためのフレーズテーブルの作成であり,抽出したフレーズ対からどの部分集合をアラインメントとして選択するべきかを推定するのは目的の範囲外である.また,大規模な単一言語のパラレル(言い換え)コーパスが充実している言語は限定されているため,単一言語内フレーズアラインメントへの適用は難しい.本研究では,対訳フレーズアラインメント手法の利点を活用したシンプルな単一言語内フレーズアラインメント手法\footnote{提案手法は単一言語内フレーズアラインメントツールSAPPHIREとして一般公開している.\\\url{https://github.com/m-yoshinaka/sapphire}}を提案する.提案手法では,まず訓練済みの単語分散表現を用いて単語アラインメントを獲得し,続いて対訳フレーズアラインメントのヒューリスティクスに基づき単語アラインメントをフレーズ対へ拡張する.そして,獲得したフレーズアラインメントの候補の中から,入力文対において尤もらしいフレーズアラインメントを探索する.既存手法とは異なり,提案手法が必要とする言語資源は単語分散表現を訓練するための生コーパスのみであり\footnote{日本語や中国語のような単語境界が非自明な言語では単語分割が必要であるが,単言語コーパスのみで訓練可能なSentencePiece\cite{kudo-2018}のようなサブワード分割で構わない.},生コーパスは多くの言語で大規模に利用可能である.英語におけるフレーズアラインメントのベンチマーク\cite{brockett-2007}を用いた実験では,提案手法は既存のフレーズアラインメント手法\cite{ouyang-2019}を上回るF値を達成しており,高精度なフレーズアラインメント手法を実現した.また,日本語のデータセットを構築して行った分析では,英語以外の言語へ容易に適用できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} アラインメントとは,文対や文書対中の意味的に対応する単語対やフレーズ対,文対を認識し,それらを対応付ける技術である.二言語間で行われる対訳アラインメントは,統計的機械翻訳の基盤技術として広く研究されてきた.一方,単一言語の文対に対して行われる単一言語内アラインメントの既存手法は,言い換え認識\cite{dolan-2005}や含意関係認識\cite{dagan-2005},意味的類似度推定\cite{agirre-2012}などの文対モデリングタスク\cite{lan-2018}へ応用されてきた.統計的機械翻訳の分野では,句に基づく統計的機械翻訳\cite{koehn-2003}のための基盤技術として対訳フレーズアラインメントが広く研究されてきた.機械翻訳ツールMoses\cite{koehn-2007}で用いられている一般的な対訳フレーズアラインメントのアプローチでは,最初にGIZA++\cite{och-2003}などを用いて単語アラインメントを獲得し,次にヒューリスティクスにより単語アラインメントをフレーズアラインメントへ拡張する.このアプローチでは,フレーズアラインメントを得るための言語資源として大規模な対訳コーパスのみを使用している.対訳フレーズアラインメントの手法を単一言語内フレーズアラインメントタスクへ応用するとき,単一言語のパラレルコーパス,すなわち言い換えコーパスが必要となる.しかし,言い換えコーパスは対訳コーパスよりも収集が難しく,利用可能な言語は限定されている.また,対訳フレーズアラインメントの主な目的は大量の対訳フレーズ対を獲得することである.そのため,単一言語内フレーズアラインメントの目的である,与えられた文対におけるフレーズ対の適切な部分集合の推定は,対訳フレーズアラインメントの目的の範囲外である.以上の理由により,対訳フレーズアラインメントのアプローチは,パラレルコーパスにのみ依存するという強みを持つが,単一言語内フレーズアラインメントタスクへの応用には適していない.単一言語内フレーズアラインメントタスクでは,与えられた文対に含まれる任意のフレーズ対がどの程度対応し得るかを認識し,フレーズ対の適切な部分集合を推定することを目的としている.このとき,フレーズ対の対応の度合いを認識するために,先行研究は言い換え辞書や構文解析器,単語分散表現などの言語資源から情報を獲得している.単一言語内フレーズアラインメントの既存手法は,アラインメントをとるフレーズの種類によって大きく二つのアプローチに分類できる.一つは文法的な制約が課されていない任意のフレーズを扱うアプローチ,もう一方は特定の文法に基づくフレーズを扱うアプローチである.一つ目のアプローチを用いる既存手法には,MANLI\cite{maccartney-2008}やその派生手法\cite{thadani-2011,Thadani-2012},Jacana-phrase\cite{yao-2013-b}がある.これらのアプローチでは,アラインされるフレーズは単純な単語$n$-gramであり,単語$n$-gramフレーズの素性抽出のために概念辞書であるWordNetや大規模な言い換えデータベースであるPPDBを使用している.一方,二つ目のアプローチを用いる既存手法\cite{sultan-2014,arase-2017,yanaka-2018,ouyang-2019}は,句構造解析器などの高品質な構文解析器を使用してフレーズや文の構造を認識している.既存手法が依存する言語資源である辞書や構文解析器は,高精度なフレーズアラインメントを獲得するための強力な資源である.しかし,英語以外の多くの言語においてそのような言語資源を構築することは容易でない.したがって,どちらの既存アプローチにおいても依存する言語資源の観点から英語以外の言語への適用が容易でないという課題が存在する.対訳フレーズアラインメント手法は,言い換えコーパスへの依存およびタスクの目的の違いから単一言語内フレーズアラインメントタスクへの応用は難しい.既存の単一言語内フレーズアラインメント手法は,依存する言語資源の観点から英語以外の言語へ適用するのは難しい.そこで本研究では,単語分散表現のみを外部知識として用いる単一言語内フレーズアラインメント手法を提案する.単語分散表現を学習するための生コーパスは多くの言語において豊富に存在するため,提案手法は英語以外のより多くの言語へ容易に適用可能であるという強みを持つ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{ch:proposed_method}本章では,最初に提案手法におけるフレーズアラインメント問題を定義した後,提案手法について説明する.なお,提案手法は構文解析器を使わないため,単語$n$-gramのフレーズを対象としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{問題定義}\label{sec:def_alignment}入力となる文対をそれぞれ$|X|$,$|Y|$個の単語から構成される文$X=x_1,\ldots,x_{|X|}$および$Y=y_1,\ldots,y_{|Y|}$とする.また,文$X$中の$p$番目から$q$番目までの連続する単語のフレーズを$x_p^q=x_p,\ldots,x_q$,文$Y$中の$r$番目から$s$番目までの連続する単語のフレーズを$y_r^s=y_r,\ldots,y_s$と表す.このとき,矛盾のないフレーズアラインメントの集合を$A=\{a_k=(x_p^q,y_r^s)|x_p^q\inX,y_r^s\inY\}$とする.ただし,アラインメントを持たない,つまり,他方の文に同義のフレーズを持たないフレーズも存在し得るため,$x_p^q$,$y_r^s$は空($\emptyset$)となり得る.本研究では,単語の重複が存在しない一対一のフレーズアラインメントの組を矛盾のないアラインメント集合と定義する.$A$は$\existsa_k=(x_p^q,y_r^s)\inA$および$\existsa_l=(x_f^g,y_m^n)\inA$($k\neql$)について,($p>g\landr>n$)$\lor$($q<f\lands<m$)を満たす.すなわち,文$X$中で$p$から$q$までの範囲と$f$から$g$までの範囲は重ならず,かつ文$Y$中でも$r$から$s$までの範囲と$m$から$n$までの範囲は重ならない,という制約を満たす.一つの文対の中には矛盾のないフレーズアラインメントの集合が多数存在し得る.その数は文長について指数関数的に大きくなるため,適切なフレーズアラインメントの集合を決定するのは計算コストが非常に高い.そこで,本研究では計算コストを削減した方法で適切なフレーズアラインメントの近似解を求める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法の概要}\label{sec:overview}提案手法では図~\ref{fig:overview}に示す通り,まず入力文対に含まれる全ての単語分散表現間の余弦類似度に基づいて単語アラインメントを得る.次に,対訳フレーズアラインメント手法で用いられるヒューリスティクスを用いて単語アラインメントをフレーズ対に拡張する.最後に,獲得したフレーズアラインメントの候補の組み合わせの中から矛盾のないフレーズアラインメントを探索する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f1.pdf}\end{center}\caption{提案手法の概要}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語アラインメント}\label{sec:word_alignment}提案手法では,単語分散表現間の余弦類似度から単語アラインメントの候補を得る.単語アラインメントを得る手法として,統計的機械翻訳の分野で培われてきたヒューリスティクスであるgrow-diag-final,あるいはコスト割当問題最適化アルゴリズムであるハンガリアン法\cite{munkres-1957}を正方でない行列へ拡張した手法\cite{bourgeois-1971}を用いる.\citeA{song-2015}のように獲得した候補の中から一定以上の余弦類似度を持つもののみを最終的な単語アラインメントとして採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{grow-diag-finalに基づくアラインメント}grow-diag-finalを用いる場合,まず単語分散表現間の余弦類似度に基づいて文$X$から文$Y$,文$Y$から文$X$の両方向のアラインメントを求める.次に,それらにgrow-diag-finalのヒューリスティクスを適用して単語アラインメントを得る.具体的には,まず式(\ref{eq:x_to_y})に示すように文$X$中の単語$x_i$をそれと最も高い余弦類似度を持つ文$Y$中の単語$y_j$に対応付ける.\begin{equation}\{(x_i,y_j)\}=\argmax_{k}\cos(\mathbf{e}_{x_i},\mathbf{e}_{y_k})\label{eq:x_to_y}\end{equation}ここで,$\mathbf{e}_{x_i}$,$\mathbf{e}_{y_j}$はそれぞれ単語$x_i$,$y_j$の分散表現,$\cos$は余弦類似度を求める関数である.余弦類似度は以下の式により得られる.\begin{equation}\cos(\mathbf{a},\mathbf{b})=\frac{\mathbf{a}\cdot\mathbf{b}}{|\mathbf{a}||\mathbf{b}|}\end{equation}ここで,$\mathbf{a}$および$\mathbf{b}$は任意のベクトルである.同様にして,$y_j$を$x_l$と対応付ける.\begin{equation}\{(y_j,x_l)\}=\argmax_{k}\cos(\mathbf{e}_{y_j},\mathbf{e}_{x_k})\label{eq:y_to_x}\end{equation}式(\ref{eq:x_to_y})および(\ref{eq:y_to_x})により得られる両方向からのアラインメントの積集合を単語アラインメントの最初の集合とする.次に,アルゴリズム\ref{alg:grow_diag_final}に示すgrow-diag-finalのヒューリスティクスにより,アラインメントを行列とみなして以下の条件を満たすアラインメントを両方向のアラインメントの和集合から追加する\footnote{アルゴリズム中の集合に対するfor文は,本研究では文の先頭に近い集合の要素から処理する.}.\begin{itemize}\item縦・横・斜めのいずれかの方向に積集合のアラインメントが存在する\item積集合のアラインメントにおいてアラインされていない単語を持つ\end{itemize}\noindent得られた単語アラインメントについて,余弦類似度が$\lambda$以上のものを最終的な単語アラインメントとする.なお,grow-diag-finalにより得られる単語アラインメントは多対多となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{algorithm}[t]\caption{grow-diag-finalによる単語アラインメント}\label{alg:grow_diag_final}\input{08algo01.tex}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ハンガリアン法に基づくアラインメント}ハンガリアン法はコスト割当問題を最適化するアルゴリズムである.全単語対の余弦類似度から計算した行列をコスト行列とし,拡張ハンガリアン法\cite{bourgeois-1971}を用いて一対一の単語アラインメントを得る.単語対$(x_i,y_j)$のコストを以下のように設計する.\begin{equation}\label{eq:cost}\mathrm{cost}(x_i,y_j)=1-\cos(\mathbf{e}_{x_i},\mathbf{e}_{y_j})\end{equation}全単語対のコストを式(\ref{eq:cost})により求め,コスト行列$C$を得る.そしてコスト行列$C$における割当コストをハンガリアン法を用いて最小化する.\pagebreak\begin{equation}\min\sum_i\sum_jC_{i,j}Z_{i,j}\end{equation}ここで,$C_{i,j}$は$x_i$と$y_j$のコスト,$Z$は最終的な単語アラインメントの行列を表す.行$i$と列$j$が割り当てられる,すなわち単語$x_i$と$y_j$がアラインされるとき$Z_{i,j}=1$,そうでないとき$Z_{i,j}=0$となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{フレーズ対への拡張}\label{sec:phrase_extraction}\ref{sec:word_alignment}節で得られた単語アラインメントを,対訳フレーズアラインメントのヒューリスティクスに基づいてフレーズ対へ拡張する.アルゴリズム\ref{alg:phrase_extract}にフレーズ対への拡張のアルゴリズムを示す.最初に$2$つの任意の単語アラインメントを含むようなフレーズ対を抽出し,続いてそれに隣接する単語アラインメントが存在する場合,そのアラインメントを含むようにフレーズ対を拡大させていく.アルゴリズム\ref{alg:phrase_extract}に示すように,提案手法が扱うフレーズは$1$単語から文全体までの単語$n$-gramである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.2\begin{algorithm}[t]\caption{単語アラインメントからフレーズ対への拡張}\label{alg:phrase_extract}\input{08algo02.tex}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%抽出したフレーズ対に対してその対応の度合いを表すスコアを計算する.対訳フレーズアラインメントでは翻訳確率をスコアとするが,提案手法ではフレーズの分散表現に基づいてスコアを設計する.また,全てのフレーズ対のスコアを計算した後,閾値$\delta$以上のスコアを持つフレーズ対のみをフレーズアラインメントの候補として保持する.本研究では,最も簡単なフレーズの分散表現としてフレーズ内の単語分散表現の平均を用い,スコアはフレーズの分散表現間の余弦類似度を用いて計算する.単語分散表現の単純な平均を用いるとき,単語ベクトルの分布によってはフレーズを単語やより短いフレーズへ分割する方がそれぞれの余弦類似度が高くなることがある.その結果,出力されるアラインメントが単語ばかりになることがある.この問題を緩和するため,余弦類似度に加えてフレーズ長を考慮するようなスコア設計を行う.具体的には,フレーズ対($x,y$)のスコアを以下のように設計する.\begin{equation}\label{scoring}\mathrm{score}(x,y)=\cos(\mathbf{f}_{x},\mathbf{f}_{y})-\alpha\cdot\frac{1}{|x|+|y|}\end{equation}ここで,$\mathbf{f}_{x}$,$\mathbf{f}_{y}$はそれぞれフレーズ$x$,$y$中の単語の分散表現を平均したフレーズの分散表現,$|\cdot|$はフレーズ長を計算する関数,$\alpha$はフレーズ長のバイアスの重みを制御するハイパーパラメータである.$\alpha$を操作することで,長いフレーズ対とそれに包含される短いフレーズ対について相対的にスコアを制御できる.例えば,New$\leftrightarrow$NewとYork$\leftrightarrow$Yorkという二つの単語unigramフレーズ対とNewYork$\leftrightarrow$NewYorkという一つの単語bigramフレーズ対が存在するときを考える.$\alpha$を大きくすると,NewYork$\leftrightarrow$NewYorkというフレーズ対が,New$\leftrightarrow$NewとYork$\leftrightarrow$Yorkという二つのフレーズ対のスコアの平均よりも高いスコアを得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{矛盾のないアラインメント集合の探索}\label{sec:phrase_alignment}\ref{sec:phrase_extraction}節で得られたフレーズアラインメント候補の組み合わせの中から,\ref{sec:def_alignment}節で定義した矛盾のないフレーズアラインメント集合を探索する.\ref{sec:def_alignment}節で議論したように,最適解の探索は計算量の観点から現実的ではないため,探索空間を限定することで計算量を削減する.予備実験の結果,あるアラインメントの後ろに続くアラインメントの集合を上位$k$件に限定し,探索空間を文の左から右への方向で走査するような探索では,出力の$90\%$以上が単語アラインメントとなった.そこで,本研究では\ref{sec:phrase_extraction}節で得たフレーズ対のうちアラインメントスコアが最も高いものを含むアラインメント集合のみを探索する.このとき,探索の対象とするアラインメント集合は,矛盾がなく,かつできる限り多くのアラインメントを含むような集合とする.そして,この探索対象の集合の中から最もアラインメントスコアの高いものを選択する.最も高いスコアを持つアラインメントを確定させたときの探索空間は,予備実験の結果から計算量的に全探索が可能であったため,探索時の枝刈りは行わないものとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f2.pdf}\end{center}\caption{フレーズアラインメント候補からのラティス構築}\label{fig:lattice}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法は,図~\ref{fig:lattice}に示すようにラティス構造を用いた探索を行う.提案手法のフレーズアラインメントにおいては,最もスコアが高いフレーズ対のノードから開始し,矛盾のないフレーズアラインメント候補のノードを前後両方向に追加していくことでラティスを構築する.具体的には,アルゴリズム~\ref{alg:search_alignment}に示すように深さ優先探索によりラティス構造を構築しながら動的に探索する.このとき,アルゴリズム~\ref{alg:search_alignment}ではスペースの関係上省略しているが,各経路に含まれるフレーズ対のスコアの平均も動的に計算する.そして,文頭から文末までの経路の中で最も平均スコアが高い経路を最終的なフレーズアラインメントとして出力する.なお,提案手法は上記の探索方法により,互いに交差しないアラインメントのみを出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.3\begin{algorithm}[t]\caption{矛盾のないフレーズアラインメント集合の探索}\label{alg:search_alignment}\input{08algo03.tex}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{英語での評価実験} \label{ch:en_experiment}本章では,\pagebreak英語のフレーズアラインメントの評価のための標準的なデータセットであるMicrosoftResearchRecognizingTextualEntailment(MSRRTE)corpus\cite{brockett-2007}を用いた評価実験を行う.先行研究\cite{ouyang-2019}に従い,MSRRTEcorpusに含まれる単語アラインメントから擬似的にフレーズアラインメントの正解セットを構成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセットと評価指標}MSRRTEcorpusは含意関係認識の評価のために構築されたものであり,$2006$PASCALRTE$2$corpus\cite{dagan-2005,bar-haim-2006}に対して,$3$人のアノテータが文対に単語アラインメントを付与している.本データセットは開発セットとテストセットのそれぞれ$800$文対から構成される.また,付与されている単語アラインメントにはアノテータの確信度に応じてSureまたはPossibleラベルが付与されている.Sureラベルは単語対が一致する,あるいは同義語であるなどアノテータが自信のあるアラインメントであり,PossibleラベルはSureほどの自信はないがおそらく対応しているとみなしたアラインメントである.図~\ref{fig:example_rte}に示すMSRRTEcorpusの例では,meetsとmeetingの間にSureアラインメントが存在し,meetsとholdsの間およびmeetsとaの間にそれぞれPossibleアラインメントが存在する.本研究では先行研究\cite{ouyang-2019}に従い,$3$人のアノテーションに対して多数決をとることで単語アラインメントの正解セットを決定し,その単語アラインメントからフレーズアラインメントの正解セットを構成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f3.pdf}\end{center}\hangcaption{MSRRTEcorpusのアラインメントの例.Sureアラインメントは太字フォントと実線で,Possibleアラインメントは斜体フォントと破線で表している.}\label{fig:example_rte}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{ouyang-2019}はSureラベルおよびPossibleラベルが付与されたアラインメントを用いて,連続する単語アラインメントをマージすることでフレーズアラインメントを構成している.図\ref{fig:example_rte}の例では,InternationalAtomicEnergyAgencymeetsinViennaとInternationalAtomicEnergyAgencyholdsameetinginViennaの間にフレーズアラインメントが作られる.Possibleアラインメントを含めると,図\ref{fig:example_rte}の例のmeetsとholdsameetingのように,$1$単語が複数単語とアラインされる場合がある.また,フレーズの割合を大きくするために少なくとも一つ以上のPossibleアラインメントを含む文対のみに評価対象を限定し,開発セットとテストセットからそれぞれ$487$,$441$文対のみを用いて評価を行う.評価時には,単語レベルのアラインメントを用いてフレーズに関する疑似的な評価を行う.出力のフレーズアラインメントに含まれる全ての単語対間にアラインメントが存在するとし,正解の単語アラインメントに対する適合率($\mathrm{P}$),再現率($\mathrm{R}$),F値($\mathrm{F}_1$)を評価指標としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実装の詳細}提案手法に用いる単語分散表現として,fastText\cite{bojanowski-2017}の学習済みモデル\footnote{wiki-news-300d-1M-subword:\url{https://fasttext.cc/docs/en/english-vectors.html}},およびBERT\cite{devlin-2019}の学習済みモデル\footnote{bert-base-uncased:\url{https://github.com/huggingface/transformers}}の最終層を使用する.BERTを用いる場合,単語の分散表現にはサブワードのベクトルの平均を用いる.表~\ref{tab:hyper_param}に提案手法のハイパーパラメータの一覧を示す.単語アラインメントの余弦類似度の閾値$\lambda$,フレーズアラインメントスコアの閾値$\delta$はそれぞれ$[0.1,1.0)$の範囲から$0.1$刻みで,フレーズ長のバイアスの重み$\alpha$は$[0.01,0.10]$の範囲から$0.01$刻みでグリッドサーチし,MSRRTEcorpusの開発セットにおけるF値が最も高い値を選ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}\caption{ハイパーパラメータの一覧}\label{tab:hyper_param}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}比較手法として,一対多の単語アラインメント手法であるJacana-token\cite{yao-2013-a}およびフレーズアラインメント手法である\citeA{ouyang-2019}を用いる.\citeA{ouyang-2019}は,最先端のフレーズアラインメント手法であり,チャンクの任意の境界で区切ったフレーズに対してLSTM言語モデルによるフレーズの表現を与え,ニューラルネットワークによりアラインメントを学習する.出力は文に近い長さの比較的長いフレーズであるという特徴がある.また,\citeA{ouyang-2019}は,叙述を抽象型要約あるいは抽出型要約した$2$文に対してフレーズアラインメントを付与したデータセット\cite{ouyang-2017}を用いてモデルを学習している\footnote{\citeA{ouyang-2019}の手法を再実装しようと試みたが,論文に書かれた手法およびデータの前処理についての説明に不明な点が多く,再現は困難であった.また,著者への連絡も試みたが手法についての回答は得られなかった.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}表~\ref{tab:RTE_eval2}にテストセットにおける評価の結果を示す.\pagebreak比較手法の評価値のうち,\citeA{ouyang-2019}については論文で報告されているものを使用している.先行研究に倣った評価では,単語レベルの適合率および再現率を計算しているため,単語アラインメント手法であるJacana-tokenでは過剰に高い適合率が得られている.提案手法は\citeA{ouyang-2019}よりも$5.9$ポイント高いF値を獲得しており,特に適合率を大きく改善している.一方\citeA{ouyang-2019}は文に近い長さの長いフレーズをアラインするため,再現率は最も高いが,適合率が低い結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{08table02.tex}\caption{\protect\citeA{ouyang-2019}の設定での実験結果}\label{tab:RTE_eval2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{08table03.tex}\caption{MSRRTE2の開発セットでグリッドサーチして設定した提案手法のハイパーパラメータ}\label{tab:RTE_hyper_params}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%グリッドサーチにより設定された提案手法のハイパーパラメータの値を表~\ref{tab:RTE_hyper_params}に示す.単語アラインメント候補の閾値$\lambda$およびフレーズアラインメント候補の閾値$\delta$はどちらも全体的に高い値に設定されており,類似している単語対およびフレーズ対のみが探索に用いられていることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f4.pdf}\end{center}\hangcaption{MSRRTEのテストセットにおいて提案手法が抽出する全てのフレーズ対および\protect\citeA{ouyang-2019}の正解セットに含まれるフレーズ対の余弦類似度のヒストグラム.ただし,提案手法の単語アラインメントにはgrow-diag-finalを用いている.}\label{fig:phrase_scores}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{考察}提案手法は,単語分散表現としてBERTを用いたときよりもfastTextを用いたときの性能の方が全体的に高くなっている.これは,文脈を考慮した単語分散表現の副作用\cite{ethayarajh-2019}により,意味的に類似した文対内の単語やフレーズの表現が静的な単語分散表現を用いるときよりも類似したものになり,適切なフレーズ対の選択がより難しくなっているためと考えられる.MSRRTEcorpusは含意関係認識のために構築されており,含まれる文対のほとんどは意味的に類似していると言える.図\ref{fig:phrase_scores}に,アルゴリズム\ref{alg:phrase_extract}により抽出される全てのフレーズアラインメント候補および\citeA{ouyang-2019}の正解セットに含まれるフレーズ対のアラインメントスコアの分布を示す.ここで,$\alpha=0.0$とするときのアラインメントスコア,すなわち余弦類似度を示している.BERTを用いる場合,正解セットに含まれるフレーズ対のスコアの分布がfastTextに比べフラットになっており,単純な閾値での判別が適切に機能していないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力例とエラー分析}表\ref{tab:RTE_eval_stas}に提案手法の出力に関する統計を示す.\pagebreakここから,提案手法は\citeA{ouyang-2019}よりも高い適合率を達成しつつも,フレーズアラインメントを出力できていることが分かる.また,使用する単語分散表現について,BERTを用いた場合の方が$4$単語以上の長いフレーズアラインメントの割合が大きくなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{08table04.tex}\caption{提案手法の出力の統計}\label{tab:RTE_eval_stas}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f5.pdf}\end{center}\caption{フレーズアラインメントの例$1$}\label{fig:ex.rte1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f6.pdf}\end{center}\caption{フレーズアラインメントの例$2$}\label{fig:ex.rte2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{28-2ia8f7.pdf}\end{center}\caption{フレーズアラインメントの例$3$}\label{fig:ex.rte3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:ex.rte1}〜\ref{fig:ex.rte3}に\citeA{ouyang-2019}の設定における正解のアラインメントと提案手法の出力を示す.ただし,提案手法は単語分散表現にfastText,単語アラインメントにgrow-diag-finalを用いた場合である.図~\ref{fig:ex.rte1}では正解のアラインメントのうち,Sureアラインメントは適切にアラインできている.正解のアラインメントでは,'sPrimeMinisterとEastTimorの間にPossibleアラインメントが存在するが,提案手法ではアラインできていない.提案手法が抽出した全てのフレーズアラインメント候補には,EastTimor'sPrimeMinistersaysheexpectsとEastTimorexpectsのような,余弦類似度が大きい$2$つのフレーズ対によって内包されるフレーズアラインメント候補は含まれていた.しかし,閾値に基づいてアラインメント候補を限定しており,本実験でグリッドサーチにより設定した閾値では採用されなかった.図~\ref{fig:ex.rte2}でも図~\ref{fig:ex.rte1}と同様に,Sureアラインメントを適切にアラインできている一方で,Possibleアラインメントはアラインできていない.operatedとwasthemanagerofのフレーズ対について,本実験で使用した単語分散表現の単純な平均をフレーズの表現とするとき,二つのベクトルの余弦類似度は約$0.5$であり,比較的に類似したフレーズであると言える.提案手法のハイパーパラメータの決め方によってはアラインできる可能性はあるが,本実験のグリッドサーチで設定されたハイパーパラメータでは,このフレーズ対はフレーズアラインメントの候補にはならなかった.図~\ref{fig:ex.rte3}では,Sureアラインメントであるattack,explosiveとwasbombedをアラインできていない.提案手法は,アラインメントが存在するフレーズの順序が前後しているような文対を与えられたとき,それらを全て内包するような長いフレーズをアラインすることはできるが,それぞれを別々にアラインすることはできないため,この例のような結果となったと言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{日本語での分析} \label{ch:experiment_ja}日本語の単一言語内フレーズアラインメントのためのデータセットはないため,本研究では人手でデータセットを構築し,提案手法の効果を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセットと評価指標}\label{sec:dataset_ja}首都大言い換えコーパス\cite{suzuki-2017}から無作為に抽出した$100$文対に対して,第一著者が形態素単位のアラインメントをアノテーションしたデータセットを構築する.アノテーションは,単語アラインメント用のアノテーションツールであるGoldAlign\footnote{\url{https://github.com/ajdagokcen/goldalign-repo}}を用いて行う.本データセットでは,文対間の単語の重複率が高いため,\citeA{ouyang-2019}の正解フレーズアラインメント構成方法では文単位のアラインメントが構成されてしまう.そこで,チャンキングにより疑似的にフレーズアラインメントを構成する.具体的には,文対中の任意のチャンク対のうち,含まれる単語全てが一対一にアラインされているものをフレーズアラインメントとする.チャンキングにはCaboCha\footnote{\url{https://taku910.github.io/cabocha/}}を用いており,フレーズアラインメントの単位は文節となっている.構成したフレーズアラインメントに含まれるフレーズの形態素数の平均は$2.2\pm1.08$である.英語の実験における\citeA{ouyang-2019}の評価方法と同様に,単語アラインメントの適合率($\mathrm{P}$),再現率($\mathrm{R}$),F値($\mathrm{F}_1$)を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実装の詳細}提案手法に用いる単語分散表現として,fastTextの学習済みモデル\footnote{cc.ja.300:\url{https://fasttext.cc/docs/en/crawl-vectors}}を使用する.また,提案手法のハイパーパラメータは,単語アラインメントの余弦類似度の閾値$\lambda$,フレーズアラインメントスコアの閾値$\delta$はそれぞれ$[0.1,1.0)$の範囲から$0.1$刻みで,フレーズ長のバイアスの重み$\alpha$は$[0.01,0.10]$の範囲から$0.01$刻みでグリッドサーチする.$5$分割交差検証を行い,各分割において訓練データでの完全一致率が最大となるようなハイパーパラメータをそれぞれ選ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースライン}\label{sec:baseline_ja}本章では,日本語においても簡単に実装できるベースラインとして,文字列完全マッチによるフレーズアラインメント手法を用いる.ただし,形態素単位の評価を可能とするために文字単位での完全マッチではなく,形態素単位の完全マッチによるアラインメントを出力する方法とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}表~\ref{tab:tmup_eval}に$5$分割交差検証での平均の結果を示す.提案手法は完全一致率で$16.1\%$,F値で$49.4\%$を達成した.単語アラインメントを得る手法について,grow-diag-finalを用いた場合の方が再現率以外は高くなっている.ただし,どちらの手法を用いても適合率が低く,再現率が高くなっている.ここから,正解セットのアラインメントに含まれるフレーズと比較して,提案手法の出力に含まれるフレーズは長い傾向があると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{08table05.tex}\caption{日本語のデータセットでの提案手法の結果}\label{tab:tmup_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{28-2ia8f8.pdf}\end{center}\caption{フレーズアラインメントの例$1$.アラインメントは色および下線の種類の対応で表している.}\label{fig:ex.ja1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{28-2ia8f9.pdf}\end{center}\caption{フレーズアラインメントの例$2$.アラインメントは色および下線の種類の対応で表している.}\label{fig:ex.ja2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力例とエラー分析}図~\ref{fig:ex.ja1}および図\ref{fig:ex.ja2}に提案手法の出力を示す.ただし,単語アラインメントの手法にgrow-diag-finalを用いた場合である.図\ref{fig:ex.ja1}では,提案手法は正解のアラインメントに対してフレーズの境界に違いはあるものの概ね適切にアラインできていると言える.提案手法の出力は単語$n$-gramのフレーズであるため,文節ごとのアラインメントにはなっていない.また,図\ref{fig:ex.ja2}では提案手法は単語が完全に一致している長いフレーズをアラインしており,文節ごとにアラインされるようなフレーズアラインメントを出力できていない.提案手法では,単語の一致率が高い文対が与えられたとき,図\ref{fig:ex.ja2}の例のように適切にアラインメントを出力できない傾向がある.これは,提案手法のフレーズアラインメントのスコアは,長いフレーズで高くなるようにバイアスが加えられているからである.図\ref{fig:plot_ja}に文対ごとの単語の一致率(Jaccard係数)と提案手法の適合率,再現率,F値についての散布図を示す.また,表\ref{tab:corrcoef_plot}に図\ref{fig:plot_ja}におけるJaccard係数とそれぞれの評価値の相関係数を示す.grow-diag-finalとハンガリアン法を用いたどちらの場合も,適合率について強い負の相関があり,再現率について強い相関がある.ここから,単語の一致率が大きいと提案手法はより長いフレーズをアラインしようとするため,単語レベルの適合率が下がり再現率が上がる傾向があると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{28-2ia8f10.pdf}\end{center}\caption{文対ごとの単語の一致率(Jaccard係数)と提案手法の適合率,再現率,F値}\label{fig:plot_ja}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{08table06.tex}\caption{図\ref{fig:plot_ja}における相関係数}\label{tab:corrcoef_plot}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{ch:conclusion}本研究では,単語分散表現に基づくシンプルな単一言語内フレーズアラインメント手法を提案した.英語のアラインメントデータセットを用いた評価実験では,先行研究に従って構成した正解セットにおいて,フレーズアラインメントの比較手法を上回るF値を達成した.また,人手で単語アラインメントを付与した日本語での分析では,提案手法が容易に英語以外の言語へ適用できることを確認した.エラー分析において,提案手法の出力の傾向を明らかにし,改善すべき課題を確認した.今後は,フレーズ表現を高精度に構成できるような単語分散表現を用いることで,より精度の高いフレーズアラインメントを得るように提案手法を拡張したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment大変有益な助言をいただいた査読者の皆様に感謝の意を表す.本研究は,JST(ACT-I,課題番号:JPMJPR16U2)およびMicrosoftResearchAsiaの支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{08refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{吉仲真人}{%2020年大阪大学工学部電子情報工学科卒業.同年同大学大学院情報科学研究科マルチメディア工学専攻に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{梶原智之}{%愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{%2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,機械翻訳技術,対話システムに興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V25N05-02
\section{はじめに} label{introduction}ニューラル機械翻訳\cite{bahdanau2014neural,sutskever2014sequence,cho2014learning}は,ソース言語を数値ベクトルによる分散表現で表し,それをニューラルネットワークを用いて変換して求めた数値ベクトルからターゲット言語の単語列を求めることで翻訳を行う手法である.従来の統計的機械翻訳\cite{koehn2003statistical}では対訳コーパスから求めた変換規則の確率を用いてソース言語の単語やフレーズをターゲット言語への単語やフレーズに変換していたため,フレーズ同士の長い区間でのつながりが十分に反映されていなかった.これに対して,ニューラル機械翻訳では,リカレントニューラルネットワークおよびLSTM(LongShortTermMemory)の利用により,長い区間での単語のつながりが考慮されている.そのため,ニューラル機械翻訳を用いると従来の統計的機械翻訳と比べて流暢な文を生成できるが,訳抜けや繰り返しがあることや,出力結果に未知語(UNK)が含まれる\cite{luong2015addressing,jean2015using}という問題が指摘されている.未知語が含まれる問題に対処するこれまでに提案されている主な手法には以下のものがある.まず,コーパスに前処理を行う方法としては,コーパス中の未知語をすべて未知語トークンに置き換え,位置情報を付け加えて学習を行うPosUNK\cite{luong2015addressing}がある.通常の手法では,語彙制限のために未知語が生じた場合は,ソース言語およびターゲット言語内の未知語を一律に特殊な未知語トークンUNKで置き換える.一方PosUNKにおいては,ソース言語内の未知語はすべてUNKに置き換えるのは同じだが,ターゲット言語の未知語は位置情報を利用して区別する.具体的には,ソース言語を{$f_1$,\ldots,$f_n$}とし,ターゲット言語を{$e_1$,\ldots,$e_m$}として,ソース言語に未知語{$f_i$}が存在したとする.{$f_i$}に対応する未知語{$e_j$}がターゲット言語内に存在した場合は,相対位置{$d=j-i$}を利用して,{$e_j$}を位置情報付き未知語トークンPosUNK{$_d$}に置き換える.ただし,ソース言語に対応する未知語を持たないターゲット言語の未知語は,空集合{$\phi$}に対応するPosUNK{$_\phi$}に置き換える.これにより学習した翻訳機は,未知語を一律にUNKとしてではなく,PosUNK{$_d$}として相対位置付きで推定するため,dを利用して対応するソース言語内の単語を推定することができる.しかしながら,この手法を日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).この手法は,ターゲット言語とソース言語において,単語間の相対位置は同一であると仮定しているため,日英のような文法構造が大幅に異なる言語間では適用が困難であるためと考えられる.また,コーパス中の単語を分割して全体の単語の種類を少なくするBPE(BytePairEncoding)\cite{sennrich2016neural}がある.BPEは頻度の低い単語を複数の文字列に分割することで,単語の頻度を増やし学習しやすくする方法である.この手法も日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).ヨーロッパ言語などの文字の種類が少なく単語の成り立ちが類似する言語間に比べ,日本語と英語では単語の構成が大きく異なり,日本語は文字の種類が多いことが原因だと考えられる.ニューラル機械翻訳のモデルを変更する方法としては,アテンションの計算で単語翻訳確率を考慮する方法\cite{arthur2016incorporating},coverageを導入する方法\cite{tu2016modeling,tu2017context},統計的機械翻訳で作成したフレーズテーブルを組み入れる方法{\cite{stahlberg2016syntactically,khayrallah2017neural,zhang2018guiding}},入力文中の単語が既知語の場合はそのまま処理し,未知語の場合は単語を文字に分解して処理する方法\cite{luong2016achieving}などがあるが,いずれもニューラルネットワークの性能を改善させることが主眼であり,未知語そのものを完全に消去することを目的としていない.ニューラル機械翻訳の出力結果の単語列を統計的機械翻訳を用いて並べ替える手法\cite{skadina2016towards}もあるが,この手法では単語の辞書を作るためだけにニューラル機械翻訳を使っており,最終的な翻訳は統計的機械翻訳で行っている.よってニューラル機械翻訳の利点である単語間の長区間でのつながりを考慮した流暢性が失われてしまう.以上のように従来の手法の多くは,未知語を減少させることはできているが,日英翻訳では翻訳精度の向上が期待できない.そこで本論文では,ニューラルネットワークのモデルや探索方法を変更することなく未知語を減少させ,かつ翻訳精度を向上させる手法を提案する.そのために,アテンションに基づいたニューラル機械翻訳をソース言語に対して適用することで生成されたアテンションを利用する.アテンションは翻訳におけるソース言語の単語とターゲット言語の単語の対応を数値化したもの{\cite{bahdanau2014neural}}で,統計的機械翻訳における2言語間の単語の対応を表す単語アライメント表\cite{koehn2003statistical}と類似したものである.{\cite{hashimoto2016domain}}及び{\cite{freitag2016fast}}では,この性質を利用し,アテンションを元に対応する未知語を推定する手法を提案している.ともに未知語が対応する単語はアテンションが最も高い値を持つ単語だとしている.しかしながら,類似しているとはいえ,アテンションは単語アライメント表そのものではなく,数値の大小と実際のアライメントが一致しない場合も多い.また,言語学的な性質を満たしているとも限らない.本研究では,隣接関係等の,単語間の対応関係の言語学的性質に関するヒューリスティックを利用して,アテンションから単語アライメント表を推定する手法を提案する.そして,その単語アライメント表を利用して未知語を置き換える.これによりニューラル翻訳の利点を生かしたアテンションと言語学的な性質の双方を組み合わせた未知語問題の解決を行う.本論文はアテンションを用いた未知語解決に関する論文\cite{ibe2018}の内容を発展させたものである.ASPECと{\ntcir}の2つのコーパスに提案手法を適用したところ,未知語を完全に除くことができ,BLEU値も上昇させることができた. \section{背景} \label{background}本章では,ニューラル機械翻訳の手法と統計的機械翻訳の手法の中から本論文で使用している手法の説明を行う.\subsection{フレーズに基づく統計的機械翻訳}本論文では,未知語を置き換える単語を探す時にフレーズベース機械翻訳\cite{koehn2003statistical}で生成されるフレーズテーブルを使うため,フレーズベース機械翻訳について説明する.フレーズベース機械翻訳は,統計的手法を用いて翻訳規則を学習し,翻訳を行う手法である.手順を以下に示す.\begin{enumerate}\item対訳コーパスにアライメントモデルを適用し,単語アライメント表を作成する.単語アライメント表の計算では同時に単語翻訳確率$t(e|f)$も計算される.単語アライメント表をソース言語からターゲット言語,またその逆に対して作成し,grow-diag-final-and(gdfa)などのヒューリスティックを用いて2つの表を重ね合わせたものを最終的な単語アライメント表とする.\item作成した単語アライメント表とソース言語・ターゲット言語をもとに,ソース言語における単語列がターゲット言語におけるどの単語列に翻訳されるかを表す翻訳規則と,フレーズ翻訳確率$P(\bm{e}|\bm{f})$を学習する.規則の抽出は\cite{och2004alignment}などの方法がある.\item翻訳規則を利用して出力候補文をいくつか生成する.各候補文に対し翻訳規則の確率と言語モデルを用いて翻訳確率を計算し,翻訳確率が最も高い候補文を出力結果とする.\end{enumerate}\subsection{アテンションに基づくニューラル機械翻訳}アテンションに基づくニューラル機械翻訳\cite{bahdanau2014neural}は,アテンションを用いて翻訳するソース言語の各単語に異なる重みを与えるニューラル機械翻訳である.入力文$\bm{f}=(f_1,f_2,\ldots,f_J)$とその分散表現$\bm{x}=(x_1,x_2,\ldots,x_J)$,出力文$\bm{e}=(e_1,e_2,\ldots,e_I)$とその分散表現$\bm{y}=(y_1,y_2,\ldots,y_I)$のペアの条件付き確率を最大化するように学習する.\begin{equation}p(\bm{e}|\bm{f})=\prod_{i=1}^{I}p(e_i|e_1,\ldots,e_{i-1},\bm{f})\end{equation}$e_i$の生成確率は以下で与えられる.\begin{equation}p(e_i|e_1,\ldots,e_{i-1},\bm{x})=g(y_{i-1},s_i,c_i)\end{equation}$s_i$は$i$番目の出力単語列の隠れ状態であり,以下の式(3)で計算される.\begin{equation}s_i=f(s_{i-1},y_{i-1},c_i)\end{equation}$c_i$は出力文の$i$番目の単語の文脈ベクトルといい,以下の式(4)で計算される.\begin{equation}c_i=\sum_{j=1}^{J}\alpha_{ij}h_j\end{equation}$\alpha_{ij}$はアテンション値といい,{$y_i$}に関連しているのが{$x_j$}である確率である.式(5)と式(6)に従って計算する.\begin{gather}\alpha_{ij}=\frac{\expe_{ij}}{\sum_{k=1}^{J}\expe_{ik}}\\e_{ij}=a(s_{i-1},h_j)\end{gather}$h_j$は入力文の$j$番目の単語の文脈ベクトルで,式(7)に従って計算する\footnote{双方向RNNの場合は入力文を逆向きに計算した{$h_j'$}を計算し,$h_j$と$h_j'$を連結したベクトルを使うが,ここでは説明は省略する.}.\begin{equation}h_j=h(x_j,h_{j-1})\end{equation}以上の$a(),f(),g(),h()$は入力変数の重み付き線形和を何らかの非線形関数(通常は{$\tanh$}関数)で変換したものである.具体的には,入力変数群を{$v_{1},\ldots,v_{n}$}とすると,{$a(v_{1},\ldots,v_{n})=\tanh(\sum_{i}w_{i}v_{i}+c)$}と表される.{$w_{i}$}は各変数の重みであり,{$c$}は切片である.全てのw{$_{i}$}およびcがパラメータとして,損失関数を最小化するために最適化される.学習では,以下の式(8)で定義されるクロスエントロピーを損失関数として用いる.\begin{equation}L={-{\sum_j{z_j\log{z'}_j}}}\end{equation}{$z_j$}はコーパスにおける{$y_j$}に対応する単語{$e_j$}の出現確率,{$z'_j$}は学習したパラメータを用いて翻訳を行った時に{$y_j$}に対応する単語{$e_j$}が出力される確率である.学習後の翻訳では式(1)を最大化する$\mathbf{e}$をビームサーチなどで求める. \section{手法} \label{proposedmethod}本章ではニューラル機械翻訳を用いてモデル学習し翻訳を行った後,アテンションから単語アライメント表を作成し,作成した単語アライメント表を用いて未知語を適切な単語に置き換える手法を説明する.\ref{alignment-construction}節では,単語アライメント表の作成の方法として,従来手法であるintersectionとgdfaを説明し,提案手法である{gdfa-f}~(gdfafill)を導入する.\ref{replacement-unknowns}節では,生成した単語アライメント表にしたがって未知語に対応する単語を決定する方法を説明する.\subsection{単語アライメント表の作成}\label{alignment-construction}単語アライメント表の作成アルゴリズムのintersectionとgdfaは\cite{koehn2003statistical}で提案されたもので,{gdfa-f}はgdfaを改良した提案手法である.ある$i,j$に対する$a_{ij}$や単語アライメント表の要素をセルと呼ぶ.\begin{description}\item[intersection]ソース言語とターゲット言語どちらから見てもアテンション値が最も高いセルを対応付ける.各セルの値{$b_{ij}$}は以下の式に従って計算する.\[b_{ij}=\begin{cases}1&\mathrm{if}\\i=\argmax_{i'}a_{i'j}\\mathrm{and}\j=\argmax_{j'}a_{ij'}\\0&\mathrm{otherwise}\end{cases}\]\item[gdfa]gdfaでは,intersectionにより作成した{$b_{ij}=1$}となるセルに隣接するセル群をまず候補として抽出する.最初は全ての候補セルの値は0である.ある候補セルのアテンション値が,他のソース単語に対応するアテンション値と比べて大きい場合,そのセルの値を1とする.言い換えれば,そのセルのアテンション値が,その列内で最大値をとる場合,セルの値を1とする.また,ある候補セル内のアテンション値が,他のターゲット単語に対応するアテンション値と比べて大きい場合(すなわち,行内で最大値をとる場合)も,そのセルの値を1とする(厳密な定義は以下の式を参照のこと).これはソース言語の1つの単語がターゲット言語において複数の単語に対応している場合,それらは隣り合うことが多いので,すでに単語アライメント表に入っている単語と隣り合う単語のみを表に追加することを許すという考え方による.gdfaによる単語アライメント表$b_{ij}'$は,{$b_{p,q}$}の(上下左右の)隣接セルの中で1をとるセルの個数を返す関数\[neighbor(b_{pq})=b_{(p-1)q}+b_{(p+1)q}+b_{p(q-1)}+b_{p(q+1)}\]を使って以下のように計算する.\[b_{ij}'=\begin{cases}1&\mathrm{if}\\left(b_{ij}=1\right)\\mathrm{or}\\left(neighbor\left(b_{ij}\right)\ge1\\mathrm{and}\left(i=\argmax_{i'}a_{i'j}\\mathrm{or}\j=\argmax_{j'}a_{ij'}\right)\right)\\0&\mathrm{otherwise}\end{cases}\]\item[{gdfa-f}]gdfaにおいて作成した行列$b_{ij}'$をもとに,ソース言語のそれぞれの単語に対して,対応付けされているターゲット言語の単語がなければ,アテンション値が最も高いセルに対応付ける.ターゲット言語のそれぞれの単語に対しても同様の操作を行う.{gdfa-f}による単語アライメント表$b_{ij}''$は以下の式に従い計算する.\[b_{ij}''=\begin{cases}1&\mathrm{if}\b_{ij}'=1\\mathrm{or}\(j=\argmax_{j'\in\mathcal{J}}a_{ij'}\\mathrm{and}\i\in\mathcal{I})\\mathrm{or}\(i=\argmax_{i'\in\mathcal{I}}a_{i'j}\\mathrm{and}\j\in\mathcal{J})\\0&\mathrm{otherwise}\end{cases}\]ここで$\mathcal{I}$,$\mathcal{J}$はそれぞれ以下の式で定義される.\[\mathcal{I}=\{i\|\\sum_jb_{ij}'=0\}\\mathrm{and}\\mathcal{J}=\{j\|\\sum_ib_{ij}'=0\}\]\end{description}アテンションからintersection,gdfa,{gdfa-f}を求めた例を図\ref{alignment}に示す.図中の各セルはそれぞれ$b_{ij}$,$b_{ij}'$,$b_{ij}''$の値を表し,白は0,灰色は1とした.{gdfa-f}では,出力文中の各単語に対して,少なくとも一つの入力文中の単語が必ず対応する.言い換えれば,gdfa-fにより,出力文中の全ての未知語に対して,既知の入力文中の単語を必ず割り当てることができる.\begin{figure}[t]\begin{center}\includegraphics{25-5ia2f1.eps}\end{center}\caption{intersection,gdfa,{gdfa-f}の例}\label{alignment}\end{figure}\subsection{未知語の置き換え}\label{replacement-unknowns}生成した単語アライメント表を用いて,ニューラル機械翻訳の出力文中の未知語$e_i$を単語に置き換える方法について説明する.まず,$e_i$に対応している入力文中の単語列$\bm{f_i}$を{$\bm{f_i}=\{f_j|b_{ij}=1\}$}とする.次に,$\bm{f_i}$の翻訳となる単語列を決定して未知語$e_i$と置き換える.本論文では$\bm{f_i}$の翻訳となる単語列の決定方法としてIBMとChangePhrase~\cite{koehn2003statistical}とDictを用いた.\begin{description}\item[IBM]単語アライメント表の主な作成法は{\cite{hashimoto2016domain,arthur2016incorporating}}などで用いられているIBMモデルが挙げられる.ここではIBMモデル4を用いた.対訳コーパスにIBMモデル4を適用したときの単語翻訳確率$t(e|f)$を使い,$\bm{f_i}=(f_{i_1},\ldots,f_{i_n})$の要素それぞれにおいて最も確率の高い$e_{best}=\argmax_{e}{t(e|f_i)}$を選択する手法である.\item[ChangePhrase]$\bm{f_i}$の翻訳を統計的機械翻訳で作成したフレーズテーブルから参照し,コーパスから計算したフレーズ翻訳確率$P(\bm{e}|\bm{f})=\frac{c(\bm{e},\bm{f})}{c(\bm{f})}$が最も高いフレーズ$\bm{e_{best}}=\argmax_{\bm{e}}P(\bm{e}|\bm{f_i})$を選択する手法である.$c(\bm{f})$はコーパス中のフレーズ$\bm{f}$の出現回数,$c(\bm{e},\bm{f})$はフレーズ$\bm{e}$と$\bm{f}$の同時出現回数である.フレーズで置き換えるため,未知語を複数単語と置き換えることもある.\item[Dict]外部の辞書から$\bm{f_j}$の各単語の訳を検索した単語を選択する手法である.\end{description}\begin{table}[b]\caption{各コーパスのサイズと全語彙数}\label{corpus}\input{02table01.tex}\end{table} \section{実験} \label{experiment}\subsection{実験データ・方法}対訳コーパスとしてはASPEC\cite{NAKAZAWA16.621},{\ntcir}のpatentMT\cite{goto2013overview}\footnote{日英特許機械翻訳タスクデータ中のNTCIR-7およびNTCIR-8を合わせたものを用いた.}を用いた.コーパスのサイズと単語数を表\ref{corpus}に示す.モデル学習およびデコーダにはnematus\footnote{https://github.com/EdinburghNLP/nematus}を用い,日英および英日の翻訳を行った.隠れ層の数は1,000,単語ベクトルの次元数は512,RNNはGRU,学習アルゴリズムはAdam,学習率は0.0001,バッチサイズは40,dropoutは未使用で学習を行った.英語の構文解析にはStanfordParser\footnote{https://stanfordnlp.github.io/CoreNLP/}を,日本語のトークン化にはKyTea\footnote{http://www.phontron.com/kytea/index-ja.html}を用いた.IBMモデル4の実装としてはGIZA++\footnote{https://github.com/moses-smt/giza-pp}を用いた.フレーズテーブルの抽出はmosesdecoder\footnote{https://github.com/moses-smt/mosesdecoder}を用いた.未知語の置き換えの手法のDictでは外部辞書としてEDict~\cite{breen2000japanese}を用いた.コーパスの前処理としては,\cite{neubig2013travatar}を参考に,単語数51以上の文は学習データから取り除いた.ASPECで語彙数を1万から5万まで1万ずつ変化させた時の翻訳結果のBLEU値を計算した結果を表\ref{vocab}に示す.この結果から,最もBLEU値が高かった語彙数4万を実験で用いた.パラメータを統一するために{\ntcir}でも同じパラメータで実験を行った.語彙数を4万に制限した時の(延べ)全単語数における未知語の割合を表\ref{vocabresult}に示す.\begin{table}[t]\caption{ASPECにおいて語彙数を変化させたときの日英の翻訳結果のBLEU値}\label{vocab}\input{02table02.tex}\end{table}\begin{table}[t]\caption{語彙数を制限した時の未知語の割合}\label{vocabresult}\input{02table03.tex}\end{table}次にニューラル機械翻訳のコーパスからの学習における適切な更新回数を調べるために,更新回数1万から15万まで1万ごとに損失関数の値を計算した.その結果ASPECは10万回,{\ntcir}は12万回以降,損失関数の値が変化しなくなったため,これらを更新回数として設定した.\subsection{評価指標}翻訳精度の評価指標にはBLEU~\cite{papineni2002bleu},METEOR~\cite{banerjee2005meteor}の2つを用いた.またMETEORは日本語の評価には対応していないため日英翻訳の評価のみに用いた.\subsection{実験結果と考察}コーパスとしてASPECを用いた翻訳の結果を表\ref{nresult}に示す.baselineはアテンションベースのニューラル機械翻訳のシステムであるnematusのデフォルトの設定で学習したモデルである.BPEは\cite{sennrich2016neural},PosUNKは\cite{luong2015addressing}を再実装して実験した結果である.語彙数はそれぞれ4万とした.語彙数を変更した実験も行ったが,BLUE値や未知語の割合に大きな変化はなかったため,ここでは提案手法と同様の4万とした.学習の更新回数については,提案手法同様に損失関数の値が最も小さくなった時のBLEU値を採用した.intersection+ChangePhrase以下が提案手法を実装して実験した結果である.これはbaselineであるnematusで求めたアテンションからintersection,gdfa,{gdfa-f}のいずれかを用いて単語アライメント表を作成し,ChangePhrase,IBM,Dictのいずれかを用いて未知語に置き換える単語列を決めたものである.単語アライメント表の作成方法と未知語に置き換える単語列の決め方の$3\times3$通りの全ての組合せを実行した.表\ref{nresult}より,未知語を置き換える手法としてはChangePhraseよりIBMの方が良い結果が出ている.ChangePhraseでは未知語が複数連続している場合にそれらをまとめてフレーズとするため,そのフレーズの訳が見つからなければ置き換えることができないが,IBMでは1単語ずつ未知語を置き換えているので,学習コーパス中にある単語であれば必ず置き換えることができるので,それが原因として考えられる.\begin{table}[b]\caption{ASPECコーパスでの翻訳結果の精度比較結果}\input{02table04.tex}\end{table}単語アライメントを求める方法としては,{gdfa-f}とIBMを組み合わせるとすべての未知語を別の単語で置き換えることができている.またBLEU値もよく使われる手法であるintersectionと比べて大差がなく,同等の結果となっている.一方,既存手法であるBPEとPosUNKでは,未知語の数を大幅に減らすことはできているが,翻訳性能そのものはむしろ悪化している.コーパスとして{\ntcir}を用いて同じ実験を行った結果を表\ref{nresult-ntcir}に示す.{\ntcir}では語彙数を4万に制限した場合に未知語の数自体が少なくBLEU値などに差が少ないが,ASPECと同様に{gdfa-f}+IBMを使うとすべての未知語を別の単語で置き換えることができている.またBLEU値もintersectionと比べて大差がなく,同等の結果となっている.\begin{table}[b]\caption{{\ntcir}コーパスでの翻訳結果の精度比較結果}\label{nresult-ntcir}\input{02table05.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{25-5ia2f2.eps}\end{center}\caption{パラメータ更新回数とBLEU値の関係(日英)}\label{iter-bleu-je-gdfa-f}\end{figure}表\ref{nresult}を見るとMETEORではgdfa-f+IBMが最も高い数値を出している.METEORはBLEUと違い同義語に高いスコアを与える翻訳の評価指標であるため,これはgdfa-fを適用することで意味の近い単語を選択できているということを示唆する.次に,{gdfa-f}+IBMにおいて,パラメータ更新回数とBLEU値およびUNKの出現率の関係をグラフに表したものが図\ref{iter-bleu-je-gdfa-f}および図\ref{iter-bleu-ej-gdfa-f}である.ここからパラメータ更新回数が少ない場合でも{gdfa-f}+IBMを適用することで未知語をなくし,BLEU値も若干あげることができることがわかる.\begin{figure}[t]\begin{center}\includegraphics{25-5ia2f3.eps}\end{center}\caption{パラメータ更新回数とBLEU値の関係(英日)}\label{iter-bleu-ej-gdfa-f}\end{figure} \section{おわりに} \label{conclusion}本論文では,ニューラル機械翻訳により生成されたアテンションをもとに,単語の重複がないように単語アライメント表を作成することで,出力結果における未知語が入力文のどの単語に対応しているかを判別し,統計的機械翻訳でのモデルを用いて未知語を適切な単語に置き換える手法を提案した.その結果,提案手法の{gdfa-f}を用いて単語アライメント表を作ることで未知語をなくすことができ,BLEU値なども向上させることができることがわかった.今後はより大きな外部辞書を活用するなどしてさらに翻訳精度を高めていきたい.また,本論文で提案した手法はターゲット言語における1つの未知語が単語もしくはフレーズに対応しているという仮定に基づいているが,未知語とその周辺の単語またはフレーズが一つの単語に対応している,すなわち置き換えた単語と周辺の単語が重複する状況も考えられる.そのような場合も考慮した手法を検討していきたい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Arthur,Neubig,\BBA\Nakamura}{Arthuret~al.}{2016}]{arthur2016incorporating}Arthur,P.,Neubig,G.,\BBA\Nakamura,S.\BBOP2016\BBCP.\newblock\BBOQIncorporatingDiscreteTranslationLexiconsintoNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1557--1567}.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2014neural}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemarXivpreprintarXiv:1409.0473}.\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{banerjee2005meteor}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQMETEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationAnd/orSummarization},\lowercase{\BVOL}~29,\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Breen}{Breen}{2000}]{breen2000japanese}Breen,J.\BBOP2000\BBCP.\newblock\BBOQAwwwJapaneseDictionary.\BBCQ\\newblock{\BemJapaneseStudies},{\Bbf20}(3),\mbox{\BPGS\313--317}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\Bengio}{Choet~al.}{2014}]{cho2014learning}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRNNEncoder--DecoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1724--1734},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Freitag\BBA\Al-Onaizan}{Freitag\BBA\Al-Onaizan}{2016}]{freitag2016fast}Freitag,M.\BBACOMMA\\BBA\Al-Onaizan,Y.\BBOP2016\BBCP.\newblock\BBOQFastDomainAdaptationforNeuralMachineTranslation.\BBCQ\\newblock{\BemarXivpreprintarXiv:1612.06897}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto2013overview}Goto,I.,Chow,K.-P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemNTCIR}.\bibitem[\protect\BCAY{Hashimoto,Eriguchi,\BBA\Tsuruoka}{Hashimotoet~al.}{2016}]{hashimoto2016domain}Hashimoto,K.,Eriguchi,A.,\BBA\Tsuruoka,Y.\BBOP2016\BBCP.\newblock\BBOQDomainAdaptationandAttention-basedUnknownWordReplacementinChinese-to-JapaneseNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation(WAT2016)},\mbox{\BPGS\75--83}.\bibitem[\protect\BCAY{伊部\JBA松田\JBA山口}{伊部\Jetal}{2018}]{ibe2018}伊部早紀\JBA松田源立\JBA山口和紀\BBOP2018\BBCP.\newblock日英ニューラル機械翻訳における未知語への対応.\\newblock\Jem{言語処理学会第24年次大会発表論文集},\mbox{\BPGS\1046--1049}.\bibitem[\protect\BCAY{Jean,Cho,Memisevic,\BBA\Bengio}{Jeanet~al.}{2015}]{jean2015using}Jean,S.,Cho,K.,Memisevic,R.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQOnUsingVeryLargeTargetVocabularyforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Khayrallah,Kumar,Duh,Post,\BBA\Koehn}{Khayrallahet~al.}{2017}]{khayrallah2017neural}Khayrallah,H.,Kumar,G.,Duh,K.,Post,M.,\BBA\Koehn,P.\BBOP2017\BBCP.\newblock\BBOQNeuralLatticeSearchforDomainAdaptationinMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\lowercase{\BVOL}~2,\mbox{\BPGS\20--25}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn2003statistical}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedTranslation.\BBCQ\\newblockIn{\BemNAACLHLT-Volume1},\mbox{\BPGS\48--54}.ACL.\bibitem[\protect\BCAY{Luong\BBA\Manning}{Luong\BBA\Manning}{2016}]{luong2016achieving}Luong,M.-T.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2016\BBCP.\newblock\BBOQAchievingOpenVocabularyNeuralMachineTranslationwithHybridWord-CharacterModels.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1054--1063}.\bibitem[\protect\BCAY{Luong,Sutskever,Le,Vinyals,\BBA\Zaremba}{Luonget~al.}{2015}]{luong2015addressing}Luong,T.,Sutskever,I.,Le,Q.,Vinyals,O.,\BBA\Zaremba,W.\BBOP2015\BBCP.\newblock\BBOQAddressingtheRareWordProbleminNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\11--19}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16.621}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockInCalzolari,N.,Choukri,K.,Declerck,T.,Grobelnik,M.,Maegaard,B.,Mariani,J.,Moreno,A.,Odijk,J.,\BBA\Piperidis,S.\BEDS,{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\2204--2208},Portoro{\r{A}},Slovenia.ELRA.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig2013travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemACLSystemDemonstrations},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2004}]{och2004alignment}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2004\BBCP.\newblock\BBOQTheAlignmentTemplateApproachtoStatisticalMachineTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(4),\mbox{\BPGS\417--449}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni2002bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\311--318}.ACL.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{sennrich2016neural}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQNeuralMachineTranslationofRareWordswithSubwordUnits.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1715--1725}.\bibitem[\protect\BCAY{Skadina\BBA\Rozis}{Skadina\BBA\Rozis}{2016}]{skadina2016towards}Skadina,I.\BBACOMMA\\BBA\Rozis,R.\BBOP2016\BBCP.\newblock\BBOQTowardsHybridNeuralMachineTranslationforEnglish-Latvian.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies--TheBalticPerspective:ProceedingsoftheSeventhInternationalConferenceBalticHLT2016},\lowercase{\BVOL}\289,\mbox{\BPG~84}.IOSPress.\bibitem[\protect\BCAY{Stahlberg,Hasler,Waite,\BBA\Byrne}{Stahlberget~al.}{2016}]{stahlberg2016syntactically}Stahlberg,F.,Hasler,E.,Waite,A.,\BBA\Byrne,B.\BBOP2016\BBCP.\newblock\BBOQSyntacticallyGuidedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemThe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPG\299}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{sutskever2014sequence}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tu,Liu,Lu,Liu,\BBA\Li}{Tuet~al.}{2017}]{tu2017context}Tu,Z.,Liu,Y.,Lu,Z.,Liu,X.,\BBA\Li,H.\BBOP2017\BBCP.\newblock\BBOQContextGatesforNeuralMachineTranslation.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\87--99}.\bibitem[\protect\BCAY{Tu,Lu,Liu,Liu,\BBA\Li}{Tuet~al.}{2016}]{tu2016modeling}Tu,Z.,Lu,Z.,Liu,Y.,Liu,X.,\BBA\Li,H.\BBOP2016\BBCP.\newblock\BBOQModelingCoverageforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\76--85}.\bibitem[\protect\BCAY{Zhang,Utiyama,Sumita,Neubig,\BBA\Nakamura}{Zhanget~al.}{2018}]{zhang2018guiding}Zhang,J.,Utiyama,M.,Sumita,E.,Neubig,G.,\BBA\Nakamura,S.\BBOP2018\BBCP.\newblock\BBOQGuidingNeuralMachineTranslationwithRetrievedTranslationPieces.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume1(LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1325--1335}.\end{thebibliography}\begin{biography}\bioauthor{伊部早紀}{2017年東京大学教養学部学際科学科卒業.東京大学大学院総合文化研究科広域システム科学専攻修士課程在学中.言語処理に関する研究開発に従事.}\bioauthor{松田源立}{1997年東京大学教養学部卒業.2002年東京大学大学院総合文化研究科博士課程修了.博士(学術).学振特別研究員(PD),青山学院大学理工学部助教を経て,2013年より東京大学大学院総合文化研究科学術研究員.}\bioauthor{山口和紀}{1979年東京大学理学部数学科卒業.1985年理学博士(東京大学).1992年東京大学教養学部助教授.2007年より東京大学大学院総合文化研究科教授.コンピュータのためのモデリング全般に興味を持つ.}\end{biography}\biodate\end{document}
V17N05-02
\section{はじめに} 日常の自然言語文には構成性(compositionality)に基づいて意味を扱う事が難しいイディオムや相当数のイディオム的な複数単語からなる表現,また,語の強い結合によって成り立つ決まり文句や決まり文句的な表現が数多く使われている.しかし,現在の自然言語処理(NaturalLanguageProcessing:NLP)ではこれらには必ずしも十分な対応が出来ていない\footnote{イディオム「目を回す」,「水に流す」,決まり文句的表現「引くに引けない」,「何とは無しに」を市販の良く知られた日英翻訳ソフト2種に翻訳させた結果を以下に示す.結果からいずれもこれらの表現を正しく認識していないことが推定される.\begin{tabbing}\hspace{30pt}\=123456789012345678901234567890\=\kill\>彼はそれを聞いて目を回した\>A社;Heturnedhiseyeshearingit.\\\>\>B社;Hehearditandturnedeyes.\\\>私は過去を水に流す\>A社;Ithrowthepastintowater.\\\>\>B社;Ipassthepastinwater.\\\>彼は引くに引けない\>A社;He..pull..isnotclosed.\\\>\>B社;Hecannotpulltopull.\\\>私は何とは無しにそれを見た\>A社;Iregardeditaswhatnothing.\\\>\>B社;..itwas.wasseenverymuch..me..\\\end{tabbing}}.近年,このような特異性のある複数単語からなる表現を複単語表現(Multi-WordExpression:MWE)と名付け,英語の機械処理の立場からその全体像を俯瞰し,対応を考察した論文(Sagetal.2002)が端緒となって,NLPにおけるMWE処理の重要性が広く認識されるようになった.これを受け,(国際)計算言語学会(AssociationforComputationalLinguistics:ACL)は2003年以降,MWEに関するワークショップをほぼ毎年開催しており,活発な議論が行われている.しかし,これまでの研究にはなお,以下の様な基本的な問題点が残っている.\begin{enumerate}[1.]\item複合名詞(NounCompound:NC),動詞・不変化詞構文(Verb-ParticleConstruction:VPC),動詞・名詞構文(VerbNounConstruction:VNC),イディオム(Idiom)など,限られた構文,意味の表現だけを対象とする研究が多い.\item典型的なイディオム,典型的な決まり文句などを対象とする研究が多く,意味的非構成性や要素語の共起に特異性を持つと認められるそれ以外の表現が顧みられていない.\itemコーパスからMWEを自動抽出する研究において,基準となる表現集合が不備なために再現率を的確に検証することが難しい.\end{enumerate}筆者らは,機械翻訳研究(首藤1973)の経験からフレーズベースの訳出が必要であること,一般のNLPにも複数単語からなる特異的な表現を総括的に資源化しておくことが不可欠であることを認識し,現代日本語におけるそれらの候補を収録した辞書の構築を目指してきた.本論文ではその初版の概要を報告する.以後,この辞書をJDMWE(JapaneseDictionaryofMulti-WordExpressions)と呼ぶ.本辞書は上記の問題を解消し,日本語の特異的複単語表現の基準レキシコンを与えることを目標に,主として人の内省によって編纂されている.編纂においては以下の点に留意した.\begin{enumerate}\itemNLPに有効と思われる,出来るだけ広範なMWE候補を体系的に整理・提示すること\footnote{ただし,固有表現(namedentity),頭字語(acronym),混成語(blend),会話調表現,尊敬・丁寧・謙譲表現には現時点では原則として対応していない.他の辞書類やルールによる自動生成等でカバーされることを想定している.}具体的には,イディオム(慣用句),決まり文句(常套句),慣用的な比喩表現,機能動詞結合(一部),支援動詞構文(一部),クランベリー表現,四字熟語,格言,諺,擬音・擬声・擬態語表現,複合語(一部),呼びかけ表現,応答表現等を対象とする.以後,これらの表現および外国語でこれらに相当する表現をMWE(Multi-WordExpression)と総称する.\item異表記,派生形をできるだけ網羅すること\item各MWEに機能情報のほか,構文構造情報を与えることにより,MWEを単語と見なした処理だけではなく,構文的柔軟性(内部修飾可能性)にも対応できるようにすること\end{enumerate}現在の収録MWEは基本形で約104,000表現,記載した異表記,派生形情報をすべて適用して見出しを生成すれば750,000表現程度をカバーしていることになる.本辞書はMWEごとにスロット付きの依存(木)構造を与えた一種のツリーバンク,あるいは,語の組み合わせに特異性があると同時に纏まった意味・談話上の機能を持つ,構造付きn-グラム$(2\leqq\mathrm{n}\leqq18)$データセット(syntacticallyannotatedn-gramdataset)と見なすことが出来る.以下,2.で関連研究を概観し,本研究の位置付けを明らかにする.3.で本辞書に収録した表現について詳しく述べる.4.で辞書形式を簡単に説明し,辞書内容として異表記に関する情報,機能に関する情報,構造に関する情報について順に述べ,例を用いて構造情報と内部修飾句との関係を説明する.5.では既存の大規模日本語n-グラム頻度データとの比較等によって収録表現の統計的性質に基づいた考察を行う.6.で総括と今後の課題を述べてむすびとする. \section{関連研究} (Gross1986)は,フランス語の複合副詞(compoundadverb),複合動詞(compoundverb)の種類が単独の副詞,動詞の,それぞれ,3.3倍,1.7倍程度存在することを指摘した.また,(Jackendoff1997)は,英語の日常使用者の持つMWEレキシコンは単語レキシコンと同数規模だと推定されること,(Sagetal.2002)はWordNet1.7(Fellbaum1999)のエントリーの41\%がMWEであることを指摘した.日本語でも$[\text{動詞}+\text{動詞}]$型の複合動詞が動詞の種類の44\%を占めることが(Uchiyamaetal.2003)で示されている.この様に日常の自然言語には意外に多種類の複単語表現が使用されており,充実したMWEレキシコンを整備することが重要であることが認識されている.本論文で述べるMWE辞書,JDMWEの基本見出し数は104,000表現であり,(Jackendoff1997)の指摘した英語におけるMWEの分布も日本語における分布と大差ない事が推定される.(Sagetal.2002)は,さらに,英語のMWE全体を俯瞰し,語彙的に纏められる句(lexicalizedphrase)を形態・構文的な柔軟性の度合いによって,固定表現(fixedexpression),半固定表現(semi-fixedexpression),構文的に柔軟な表現(syntacticallyflexibleexpression)に分け,慣習的に使われる句(institutionalizedphrase)と合わせて,それぞれのNLPにおける取り扱い方を論じた.具体的には複合名詞(compoundnominal:CN),固有名詞(propername:PN),動詞・不変化詞構文(verb-particleconstruction:VPC),軽動詞構文(lightverbconstruction:LVC),分解可能イディオム(decomposableidiom),分解不能イディオム(non-decomposableidiom)などの種類ごとに,単語的な扱い(wordswithspacesapproach,holisticapproach)と形態,構文,意味上の構成的な扱い(compositionalapproach)の是非について論じた.(Sagetal.2002)の指摘の本質は,MWE現象が広範に亘る事,MWEを単語として扱うだけでなく,多様な形態・構文的柔軟性に応じた取り扱いをしなければならないという事であり,その後のMWE研究に多くの示唆を与えた.(Sagetal.2002)の枠組みによる日本語MWEに関する考察には(Baldwinetal.2003a)がある.(Villavicencio2004)は(Sagetal.2002)の分類に基づき,英語イディオムと動詞・不変化詞構文を例に,従来の単語辞書をいくつかの表で拡張する形でMWEをデータ化する方法を論じた.本論文のJDMWEも一般の単語辞書や構文解析機との併用を想定しており,内容的に(Villavicencio2004)の要請の多くを満たしているが,対象とする表現がより広範である点,辞書としての独立性がより強い点,意味と細かな形態・構文的変化に関する情報は未記載であるが,各表現に対して内部修飾(internalmodification)の可能性を記載している点,日本語特有の異表記に対応している点などに違いがある\footnote{形態・構文的変化形,例えば,活用,助詞の交替・挿入・脱落,受動態化や語順の入れ替えによる名詞化の可否等の情報記載については(安武他1997)で報告した.}.NLP用のMWE辞書を作成したという報告には限られた形態の表現のみを対象とするものや採録表現数が比較的少ないものが多い.例えば,フランス語の22種の構文構造を持つ動詞型MWE,12,000個を辞書化した(Gross1986),13,000個の英語のイディオムを構文構造付きでデータベース化した(Kuiperetal.2003),ポルトガル語の10種の構文構造を持つ動詞型MWE,3,500個を辞書化した(Baptistaetal.2004),オランダ語の一般的MWE,5,000個に構文構造を与えて辞書化した(Gr\'egoire2007),フランス語の15種の構文構造を持つ副詞性MWE,6,800個を辞書化した(Laporteetal.2008)などが見られる.そのほか,英語とドイツ語のクランベリー表現をそれぞれ77個と444個収集した(Trawi\'nskietal.2008)の報告がある\footnote{例えば,「cranberry」の「cran」,「おだをあげる」の「おだ」の様な不明語(クランベリー語)を含む表現はクランベリー表現(cranberryexpression)と呼ばれる.}.日本語MWEのNLP向け辞書化に関する研究としては,古くは日本語の機能語性MWE,2,500種を組み込んだ文節構造モデルを提唱した(首藤他1979;Shudoetal.1980)や,約20,000個の概念語性MWE集を作成した(首藤1989)がある.また,機能語性MWEの異表記,派生表記を生成する階層的な手法を考案し,これによって16,771表現(341見出し)の辞書を編纂した(松吉他2007)の研究がある.日本語イディオムに関しては,市販の数種の慣用句辞典から3,600個の慣用句を収集してNLPの立場から考察を加えた(佐藤2007)がある.イディオム,準イディオムに対して形態的・構文的変化への制約や格要素等,修飾句への制約がどこまで意味の曖昧さ解消に利用できるかは今後の重要な課題である.この点を考慮して辞書構築を試みる研究に(Hashimotoetal.2006)があり,今後の成果が注目される.本論文の日本語概念語性MWEを対象とするJDMWEは,収録表現の構文・意味機能が26種類にのぼり,上記の各辞書化研究に比べてより広範囲のMWEを対象としていること,特に,イディオム,決まり文句以外に準イディオム,準決まり文句と言える表現候補を多数収録していること,取り扱う構文構造の種類が多彩で,例えば動詞型MWEの場合,80種以上の依存パタンを持つ表現が収録されていること,異表記に対応していることなど,従来の研究に見られない特徴がある.MWE候補をコーパスから自動抽出する研究が近年盛んであり,例えば,日本語,英語のコロケーション検出を統計的手法と一種のコスト評価で試みた(Kitaetal.1994)の研究,中国語複合名詞の抽出を統計的手法で試みた(Panteletal.2001),既存の意味的タグ付けシステムを統計的手法で補強することによって英語のMWE候補抽出を試みた(Piaoetal.2005),形態・構文的柔軟性の少なさを統計的に検出して英語の$[\text{動詞}+\text{名詞}]$型イディオム候補抽出を試みた(Fazlyetal.2006;Bannard2007)の研究など数多い.この種の研究では相互情報量(mutualinformation,pointwisemutualinformation),$\chi^{2}$(chi-squared),対数尤度(loglikelihood),KL情報量(KullbackLeiblerdivergence)などが相関尺度(associationmeasure)としてよく用いられるが,自動抽出における相関尺度とMWEとの適合性を比較検討した研究に(Pecina2008;Hoangetal.2009)がある.MWEとその要素語のコーパス中でのコンテクストの違いを検出してMWEを認定する研究に(Baldwinetal.2003b)がある.また,最近は対訳コーパスを利用してMWE候補を抽出する試み,例えば,英語—ポルトガル語で行った(Caselietal.2009),ドイツ語—英語で行った(Zarre{\ss}etal.2009)などが見られる.一定の概念が言語Aでは単語で表現され,言語Bでは複数単語の列で表現されるということはしばしば起こる.このとき,言語Bの単語列はMWEである可能性がある.この種の現象を対訳コーパスから検出しようというのがこれらの研究の基本的な考えである\footnote{本辞書でも英語への訳出を参考にして選定した表現が多数含まれている.}.コーパス中のMWEデータはスパースな場合が多く,統計的手法によるMWE捕捉では十分な再現率(recall)の達成が難しい.また,基準となる表現集合も明確でないため,MWE自動抽出の再現率評価自体が難しいという問題がある.人の利用を目的としたイディオム辞典類は古くから編纂されてきており,日本語に関しても慣用句を対象とした(白石(編)1977),(宮地裕(編)1982),(米川他(編)2005),故事ことわざ慣用句を対象とした(尾上(監修)1993;田島2002),四字熟語を対象とした(竹田1990),擬声語・擬態語慣用句を対象とした(白石(編)1992)等々,数多くの成果が出版されているが,これらには典型的表現しか収録されていない場合や,表現の機能,内部構造,異表記,変化形,用法に関する体系的な記述が見られない場合が多く,そのままではNLPにおける基準集合とはなりにくい.これらの問題点を緩和するのにJDMWEが役立つことが期待される.NLPにおける言語資源の評価は,応用システムの性能向上にどれだけ貢献したかで行うのが現実的であるが,MWEを対象としてそこまで行った研究はまだ多くないようである.この種の研究には,日本語MWEの主に文字面の情報を使って市販日本語ワープロの仮名漢字変換初回正解率を向上させた(Koyamaetal.1998)の研究,日本語の機能語的MWEを検出して用いれば,より正しい係り受け解析が実現出来ることを示した(注連他2007)の研究などがある.その他の日本語MWE処理に関する近年の研究には,複合動詞の多義選択法を考察した(Uchiyamaetal.2003),複合名詞の機械翻訳方式を考察した(Tanakaetal.2003)などがある. \section{採録表現} 新聞記事,雑誌記事,小説,随筆,事典・辞書類などの広範な文書から,語の共起に何らかの特異性が認められ,構文・意味・談話上の一定の働きを持つMWEを,主として編者の内省によって収集・整理した\footnote{概念語的な働きをする表現を対象とし,「によって」,「かもしれない」などの機能語的働きをするMWEは対象外である.}.共起の特異性は,基本的なものとして次の2種に注目した\footnote{MWEはこれらの特異性の少なくとも一方を持つ3種に分けられるが,辞書中にその種別を明記するには至っていない.特異性の程度は連続的に分布しているため,表現の採否の判断が難しい場合がある.本辞書では,規則・処理系の負担を最小限にするいっぽう,レキシコンを出来るだけ充実させることを念頭に再現率を重視する立場をとった.}.\begin{enumerate}[1.]\item非構成(イディオム)性\item要素語間の強い共起性\end{enumerate}\subsection{非構成性MWE}要素単語の標準的な機能から表現全体の構造・意味を規則で導くことが難しい,即ち形態・構文・意味上の非構成性(non-compositionality)を持つ表現,あるいは構成性は成立しているが適用すると過生成(overgeneration)をもたらすと思われる表現を収録した.細かくは次の様な種類がある\footnote{(1)--(7)は必ずしも互いに排他的な概念ではない.}.\begin{enumerate}\item意味上の非構成性を持つ表現通常,イディオム(慣用句)と呼ばれている表現で,例えば,「赤の他人」,「耳を貸す」,「手を抜く」,「足が出る」,「首が回らない」,「顔を売る」,「気を取り直して」,「気が利く」等々である.これら,典型的表現以外にも非構成性には次のような種々のレベルが存在する.\item形態・構文上の構成性が不備,あるいは不明瞭な表現例えば,文頭で連結詞(文脈接続詞,discourseconnective)として使われる「とはいえ」,「にもかかわらず」,「といった訳で」など,挨拶表現の「ありがとう」,「こんにちは」など,サ変名詞性の「見える化」,形容動詞性の「いわずもがな」,副詞性の「しょっちゅう」,掛け声「どっこいしょ」など,また,動詞性の「身につまされる」,連体詞性の「名うての」のようなクランベリー表現,その他,構成的な扱いが過生成を招く表現には,連体詞性の「確たる」,「切なる」,「良からぬ」などがある.\item一部の支援動詞構文(SupportVerbConstruction:SVC)例えば,「批判を加える」,「磨きを掛ける」,「計画を立てる」,「旅行に行く」,「顔をする」,「思いをする」,「ウロウロする」,「心待ちにする」など\footnote{「研究-する」のように全体の意味が規則で求められると思われる表現は対象外とする.}.\item一部の複合語例えば,「練り歩く」,「打ち拉がれる」,「積み立てる」,「膝小僧」,「袋叩き」など\footnote{「食べ-始める」のように全体の意味が規則で得られると思われる表現は対象外とする.}.\item四字熟語「支離滅裂」,「雲散霧消」,「一心不乱」,「乱離骨灰」,「多事多端」,「危機一髪」,「百鬼夜行」など\footnote{四字熟語の機能・用法を本辞書では4.で述べる枠組みで体系化している.}.\item慣用的な比喩表現例えば,「火ダルマになって」,「命の限り」,「死ぬ程」,「黒山の人だかり」,「血の雨が降る」,「眼を皿にして」,「霧の中にある」など.\itemその他,意味の構成性に問題が有ると思われる表現通常イディオムとは呼ばれないが,機械処理において構成性に問題が生じる可能性のある準イディオムと呼ぶべき表現も日常の文書には頻繁に出現する.これらの候補も出来るだけ収録した.例えば,「伝票を切る」,「辞書を引く」,「要求を呑む」,「大学を出る」,「頭が良い」,「風邪を引く」,「思いが熱い」,「命の洗濯」,「約束を反古にする」,「元気が良い」,「扇風機を回す」,「車を転がす」,「カメラを回す」,「だからといって」,「足が速い」等々である.\end{enumerate}以上のMWEは,纏まった構文・意味・談話における一定の機能を持つ単語列であり,いずれかの要素単語を同意語,類似語あるいは下位概念の語で置き換えたとき,同じ(類似の)意味にならないか,意味をなさなくなるか,あるいは不自然になるという性質を持つ.例えば,「赤の他人」を「真紅の他人」,「耳を貸さない」を「耳を貸与しない」,「手を抜く」を「手を引き抜く」,「一票を投じる」を「一票を投げる」,「要求を呑む」を「要求を飲用する」などと言い換えたとき,少なくとも元の意味は保存されない.表現の採否は基本的にこの性質に準拠している.\subsection{単語間共起性の強いMWE}語の共起性の強い表現は,構文・意味解析において係り先を優先的に決定して解析の曖昧さを低減する処理や語の出現を予測する種々の処理に有効である.ここでの表現には以下のものが含まれる\footnote{(1)--(5)は必ずしも互いに排他的な概念ではない.}.\begin{enumerate}\item共起性の特に強い表現決まり文句的表現で「風前の灯」,「付きっ切り」,「矢継ぎ早」,「禍転じて福となす」,「雲一つ無い」,「時は金なり」,「願ったり叶ったり」,「手をこまぬく」,「程度の差こそ有れ」,「眼にも止まらぬ早技」,「右肩上がりに」,「不倶載天の敵」,「灯火親しむ候」など.\item格言,諺,故事成句の類「急がば回れ」,「一寸の虫にも五分の魂」,「ペンは剣より強し」,「柳に風折れ無し」,「一寸の光陰軽んず可からず」,「初心忘る可からず」,「大海は芥を択ばず」,「石の上にも三年」,「人の振り見て我が振り直せ」,「羹に懲りて鱠を吹く」,「蛍雪の功」など\footnote{(1),(2)は(Sagetal.2002)の分類における固定表現(fixedexpression)に近い.}.\item擬声,擬音,擬態語を伴う表現擬声,擬音,擬態語は共起する用言に強い制約のある場合が多い.例えば,「ノロノロと歩く」,「ユルユルと動く」,「グラグラ揺れる」,「グッスリ眠る」,「クルクル回る」,「ポッカリと空く」など.\itemその他,共起性が比較的強いと思われる表現「肩の荷を下ろす」,「警鐘を鳴らす」,「景気が上向く」,「烙印を押す」,「悪口を言う」,「メリハリの利いた」,「面子の丸潰れ」,「妄想が膨らむ」など.\item概念に固有の固定的言い回し特定概念を表現するとき強い単語間の排他的共起性を持つ表現で「情報検索」,「文句を言う」,「女流作家」,「疑惑を生む」,「機械翻訳」,「静寂を破る」等々である\footnote{(Sagetal.2002)の分類における慣習的に使われる句(institutionalizedphrase)に近い.}.\end{enumerate}(1)--(4)は,纏まった構文・意味・談話上の機能を持つ単語列$w_{1}w_{2}w_{3}\cdotsw_{n}$で,いずれかの要素単語$w_{i}$について,条件付後方出現確率$p_{f}(w_{i}|w_{1}\cdotsw_{i-1})$あるいは条件付前方出現確率$p_{b}(w_{i}|w_{i+1}\cdotsw_{n})$が相対的に高いという確率的な特異性(probabilisticidiosyncrasy)を持つと思われる表現である.例えば,$p_{f}(灯|風前の)$,$p_{f}(無し|柳に風折れ)$,$p_{f}(三年|石の上にも)$,\linebreak$p_{f}(押す|烙印を)$,$p_{f}(言う|悪口を)$,$p_{f}(鳴らす|警鐘を)$,$p_{f}(眠る|グッスリ)$,$p_{b}(手|をこまぬく)$,$p_{b}(時|は金なり)$,$p_{b}(面子|の丸潰れ)$,$p_{b}(初心|忘る可からず)$,$p_{b}(景気|が上向く)$,などは比較的大きいと判断した.(5)は特定概念を表現するという条件のもとで高い単語間共起確率を持つもので,例えば,$p_{b}(女流|作家)$,$p_{f}(生む|疑惑を)$,$p_{f}(破る|静寂を)$は,それぞれ,$p_{b}(女性|作家)$,$p_{f}(起こす|疑惑を)$,$p_{f}(壊す|静寂を)$などよりかなり大きいと想像できる.\subsection{表現の長さ}本辞書に収録した表現のグラム数と収録数の関係を表1に示す.基本的には市販の国語辞典類の単語・接辞を単位としたグラム数である.2〜5グラムの表現が全体の90\%を超える\footnote{1グラムデータは,後述する派生情報によってMWEに変化するため,例外的に見出しに加えた表現である.最長の18グラム表現には「天は人の上に人を創らず人の下に人を創らず」がある.}. \section{記載情報} 本辞書の形式を表2に示す.現在,約104,000行,9列(A欄〜I欄)からなっている.以下,各表現に与えた情報について説明する.\begin{table}[t]\caption{表現の長さと採録表現数の関係}\input{03table01.txt}\end{table}\begin{table}[t]\caption{辞書の形式}\input{03table02.txt}\vspace{1\baselineskip}\end{table}\subsection{表記に関する情報}\subsubsection{平仮名見出し(A欄)}見出しは平仮名の音表記に基づいている.例えば,「良い」は「よい」と「いい」に,「得る」は「える」,「うる」に,「言う」は「いう」,「ゆう」に適宜読み分けて別見出しとする.また,「はんでぃーたいぷ」,「はんでぃたいぷ」など,外来(カタカナ)語の揺れによる異表記も原則として別見出しとする.見出し総数は約104,000件である.\subsubsection{字種,表記の揺れ情報(B,C欄)}B欄のハイフンおよびドットは語境界を示し,C欄は字種情報と表記の揺れ情報を与える.例えば,C欄,「組(み)-合(わ)せ」などの括弧は送り仮名などの文字の任意性を,「(有/在)る」,「(良/好/善)い」などの括弧と斜線の組み合わせは文字の選択肢を与える.B欄,C欄を組み合わせれば,殆ど全ての異表記を簡単に生成できる\footnote{例えば,B欄「き-の-いい-やつ」,C欄「気-の-(良/好/善)い-(奴/ヤツ)」から,次の24種の表記が得られる.「きのいいやつ」,「きのいい奴」,「きのいいヤツ」,「きの良いやつ」,…,「気のいい奴」,「気のいいヤツ」,「気の良いやつ」,「気の良い奴」,「気の良いヤツ」,「気の好いやつ」,「気の好い奴」,「気の好いヤツ」,「気の善いやつ」,「気の善い奴」,「気の善いヤツ」.}.\subsection{機能に関する情報\protect\normalsize{(D欄)}}D欄には表現の文法的機能,あるいは意味的,談話的種別をコード化して記載する.これらの種類とその表現の概数,表現例を表3,表4に示す.コードは各表現の構文木におけるルートノードのラベルに相当する.表3の連結詞性表現(C),副詞性表現(D),連体詞性表現(T)のコードに付した添え字v,a,kは表現がそれぞれ動詞,形容詞,形容動詞を含むことを示す.また,サ変以外の動的名詞性表現(Md)とは,「する」ではなく「をする」が後接して動詞化する表現である.様態名詞性表現(Mk)とは,名詞の性質と物事の広義の様態を表す性質とを併せ持つ形容動詞的な名詞表現である.これに対し,形容動詞,準形容動詞性表現(Yk)は,物事の広義の様態を表すが,名詞性が弱く,格助詞の後接等が出来ない表現である.擬声・擬音・擬態語(Yo)は,主としてG欄でMWEを派生させる目的で便宜上MWEの見出し表現に加えている.格言,諺,故事成句(\_P)は,その構造によってさらに13種に下位分類されているが,煩雑のため,ここでは説明を省く.\_Self,\_Call,\_Grt,\_Resの表現には状況によって意味合いが変わるものがあり,これらのクラスは互いに素ではない.例えば,ねぎらいの呼びかけ表現「お疲れ様です」は,近年,単なる軽い挨拶としてもよく用いられる.\begin{table}[p]\caption{収録表現の文法的機能と表現例}\input{03table03.txt}\end{table}\begin{table}[t]\caption{収録表現の意味的,談話的種別と表現例}\input{03table04.txt}\end{table}\begin{table}[t]\caption{構造パタンと表現の例(Adv:副詞,N:名詞,p:助詞,Y:用言)}\input{03table05.txt}\vspace{-0.5\baselineskip}\end{table}\subsection{構文構造に関する情報}\subsubsection{構成単語間の境界(B欄)}B欄のハイフンおよびドットは語境界を示すが,ドットは,その直後の単語の独立性が比較的強く,内部修飾句(列)を取り得る事を示す.表現の単位切りは基本的には市販の国語辞典類の単語単位とするが,異表記を簡潔に表現するため,字種が変化する可能性のある所には区切りを入れた\footnote{接頭・接尾語,助数詞および造語性の強い使われ方をしている一漢字造語成分は単語と見なして切り離した.\\また,活用語尾は原則として語幹から切り離さないが,形容動詞の連用形語尾「に」,「と」,連体形語尾「な」は格助詞との機能・用法上の類似性から助詞相当と見なして切り離した.形容動詞語幹に続く「だ」,「たり」,「なり」は助動詞扱いとした.}.\subsubsection{述語の支配構造(E欄)}収録表現のうち用言を用いた述語性表現(Yv,Ya,Yk)約57,800とこれらが連体,連用化した様態表現(Tv,Ta,Tk,Dv,Da,Dk)約19,700は表3の例に示した様に格要素等からなる依存構造を備えている場合が多い.E欄はこれらの依存(木)構造,約80パタンをva1,aa5,ve7のように記号化して与える.表5にYv,Ya,Ykの場合の依存(木)構造パタンと表現の例を示す.\clearpage\subsubsection{末尾の構造情報(F欄)}MWEに用言とその支配構造が含まれる場合,F欄には一般形で($\alpha$-)*$\beta$*と正規表現される英字列を記載する.ここで,$\alpha$はE欄に補うべき係り要素がある時にこれを表す.$\beta$は述部が他を修飾していたり,複合動詞であったり,助動詞,助詞等を含んでいることなどの情報を与える.例えば,「目玉が飛び出る程」では,全体として名詞性様態表現であることがD欄でMkと記され,「目玉が飛び出る」の部分の依存(格)構造がE欄でva2,すなわち[[Nが]V]型と与えられ,さらに,「飛び出る程」の構造がF欄で[VV]hodoと与えられる.これらの動詞部を一体化すれば,全体の依存(木)構造が[[[目玉が]飛び出る]程]が得られる.本辞書は対象とする表現の構造が多岐に亘るため,辞書の作成・管理上の便宜性を考慮して,構造を分割して記載するこのような方式を採った.述部が単一の用言の場合は$\beta$*は空とする.MWEが用言を含まない場合や含んでいても支配構造を有しない場合,F欄は,自立語の品詞および接辞を表す大文字と機能語性表現をローマ字表記した小文字列とからなる英字列で構造記述を行う.例えば,「酒は百薬の長」にはMha[MnoM]と記す\footnote{$[\cdots[[A_{1}]A_{2}]\cdotsA_{n}]$型以外の場合のみ括弧[]で句表示を行う.}.品詞記号は,M:名詞,V:動詞,K:形容動詞,D:副詞,T:連体詞,P:接辞とする.\subsubsection{構文的柔軟性(内部修飾可能性)}一般に形態・構文的な柔軟性と意味的非構成性とは相反する関係にあるが,この関係を一律に規定することは難しい.例えば,比較的固いイディオムであっても構文的な柔軟性を持つ場合がある.例を挙げれば,イディオム「油を売る」,「気の置けない」は,それぞれ内部修飾句を取って「油を何時も売る」,「気の全く置けない」と使われることがある.従来のNLPでは,イディオムに対して内部修飾句を許さない取扱いが数多く見られる\footnote{市販の日英翻訳ソフト2種にイディオムを翻訳させた結果を以下に示す.結果(1),(2),(5),(6)から「油を売る」,「気の置けない」はイディオムとして認識されていることが判るが,「油を何時も売る」,「気の全く置けない奴」に対する訳(3),(7),(8)ではこれらのイディオム性が捉えられていない.\begin{tabbing}\hspace{30pt}\=1234567890123456789012345\=123456789012345678901234567890123456789012345\=\kill\>彼は油を売る\>A社;Heloafs.\>(1)\\\>\>B社;Heidlesawayhistime.\>(2)\\\>彼は油を何時も売る\>A社;Healwayssellsoil.\>(3)\\\>\>B社;Healwaysidlesawayhistime.\>(4)\\\>気の置けない奴\>A社;Intimatefellow\>(5)\\\>\>B社;Afelloweasytogetalongwith\>(6)\\\>気の全く置けない奴\>A社;Fellowwhocannotputnatureatall\>(7)\\\>\>B社;Thefellowwhocannotplacemindatall\>(8)\end{tabbing}}.本辞書ではD,E,F欄にMWEの骨格構造を与え,B欄のドットでこの直後の単語が内部修飾を受ける可能性がある事を示す.図1,2,3,4に例を示す.図1は動詞性イディオム「手が回る」の例である.D,E欄の情報,Yv,va2から表現の骨格となる構造が図の太線の如く与えられ,B欄のドットによって「手」,「回る」がそれぞれ修飾句(列)を取り得ることが示されている.このことから「警察の手が回る」,「警察の手が遂に回る」のような変化形への柔軟な対応が可能になる.\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f1.eps}\end{center}\caption{「手が回る」に与えたスロット付き依存(木)構造}\label{fig1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f2.eps}\end{center}\caption{「気の良い奴」に与えたスロット付き依存(木)構造}\label{fig2}\end{figure}図2は名詞性MWE「気のいい奴」の例である.D,E,F欄から太線の骨格が与えられ,B欄から「いい」,「奴」がそれぞれ修飾句(列)を取り得ることがわかる.これらから,「いつも気のとてもいい明るい奴」などの派生的表現にも対応可能となる\footnote{E欄のaa25は,「が格」支配の形容詞句が「の格」支配の連体修飾型に変化していることを表す.}.F欄に記されているAMは表現末尾が形容詞述語による連体修飾構造であることを表し,全体の構造はEの構造をFの構造の形容詞部に埋め込むことで得られる.図3は,副詞(連用修飾)性MWE,「先に述べた様に」に与えられている構文情報である.ここでもB欄のドットによって「先に詳しく述べた様に」,「理由を先に詳しく述べた様に」などへの対応が可能となる.\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f3.eps}\end{center}\caption{「先に述べた様に」に与えたスロット付き依存(木)構造}\label{fig3}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f4.eps}\end{center}\caption{「とは言うものの」に与えた依存(木)構造}\label{fig4}\end{figure}図4は文頭で用いられる連結詞性のMWE「とは言うものの」の例である.この表現は構成語間の結合の特に強い表現であるため,B欄にドットが記されていない.図の(不完全な)依存(木)構造はD,F欄から導くことが出来る.この表現は文頭に位置しなければならないことがH欄に記されている.以上の様に,JDMWEは表現ごとに修飾句スロット付き木構造を明記した表現集となっている.\subsection{派生情報\protect\normalsize{(G欄)}}形容動詞や形容動詞性名詞,副詞,連体詞など,物事の広義の様態を述べる表現をここでは様態表現と総称する.様態表現は連体,連用,動詞化に関しては用法が様々で,十分な整理を行っておく必要がある\footnote{その他の用法は相当品詞単語の用法に準じるものとする.}.本辞書では様態表現(D,Mk,\_P,Yk,Yo)に対してG欄に〈連体修飾形〉,〈連体修飾形〉\<-\<〈連用修飾形〉あるいは〈連体修飾形〉\<-\<〈連用修飾形〉\<-\<〈動詞形〉\noindentの形式で派生の仕方を記載する.例えば,「我関せず」という表現では,「我関せず-の」,「我関せず-という」,「我関せず-といった」で連体修飾,「我関せず-と」,「我関せず-で」と連用修飾句が派生することを〈no,toiu,toitta〉\<-\<〈to,de〉\noindentと記載する.また,「目玉が飛び出る程」では,「目玉が飛び出る程-の」で連体修飾,「目玉が飛び出る程」あるいは「目玉が飛び出る程-に」で連用修飾,「目玉が飛び出る程-になる」と動詞化することを〈no〉\<-\<〈$\varepsilon$,ni〉\<-\<〈ninaru〉\noindentと記す.同様に,擬態語「フラフラ」に対しては,「フラフラ-の」,「フラフラ-した」,「フラフラ-とした」で連体修飾,「フラフラ」,「フラフラ-と」,「フラフラ-して」,「フラフラ-として」で連用修飾,「フラフラ-する」,「フラフラ-とする」と動詞化することを〈no,sita,tosita〉\<-\<〈$\varepsilon$,to,site,tosite〉\<-\<〈suru,tosuru〉\noindentと記す.同じ擬態語でも「グングン」では連用句としての「グングン」,「グングン-と」しか有り得ないので,$\phi$-\<〈to,$\varepsilon$〉\noindentと表わされる\footnote{$\varepsilon$,$\phi$,は,それぞれ,空列,用法なしを意味する.}.これら$\phi$-\<〈to,$\varepsilon$〉などの派生パタンは約300種である.この種の派生形を別見出しとすれば,見出し数は約130,000件程度に膨らむ.\subsection{コンテクスト情報}\subsubsection{文頭側情報(H欄)}表現がMWEとして存立するための制約条件として文頭側コンテクストを指定する.例えば,「顔をする」は単独では用いられず,「嬉しそうな-顔をする」のような連体修飾句が必要であることを〈連体修飾〉と記す.また,「割れになる」は「元本-割れになる」のように,文頭側に連接した名詞による修飾が必要であることを〈名詞連接〉と記す,等々である.この種の条件は約30種定めている.\subsubsection{文末側情報(I欄)}H欄と同様に文末側コンテクストを指定する.\pagebreak例えば,「如何とも」は文末側に「難い」などの困難性を表す表現を要求することを〈困難性〉と記載する.同様に,「どの程度まで」に対しては〈疑問〉と記される,等々である.この種の条件は約70種定めている. \section{考察} 収録表現群の統計的性質の一端を探るため,(工藤2007)のGoogleNグラムデータ(以降,GNGあるいはGNGデータと略記する.)との照合を試みた.これは200億文からなる日本語WEBコーパスにおける単語1〜7グラムの出現頻度を求めた大規模データである.対象とした表現は$[\text{名詞}w_{1}+\text{格助詞}w_{2}+\text{動詞}w_{3}]$型の動詞性表現(Yv)で,格助詞$w_{2}$を「を」,「が」,「に」に,動詞部$w_{3}$を単独の動詞,$[\text{動詞}+\text{動詞}]$型複合動詞,あるいは$[\text{サ変名詞}+\text{する}]$型動詞のそれぞれ終止形に限定した.これらの見出し数は29,389個であり,辞書中のB,C欄の情報で展開した対象表記数は82,125個である.これらの$w_{1}w_{2}$部分の表記数は13,806個で,その内12,120個がGNGにおける2,3グラムデータに一致した\footnote{$w_{1}$が2グラムの場合を含む.}.これらの表記を前部分列とするGNGの3,4,5グラムデータ中で格助詞の直後に上記の種類の動詞(終止形)が出現するものは1,194,293個であった.これらの前部分列$w_{1}w_{2}$ごとに,各動詞の出現頻度をGNGで求めた結果\footnote{GNGデータ上の品詞判定には(浅原2003)のIPADIC動詞辞書(verb.dic)およびサ変名詞辞書(noun.verbal.dic)を用いた.},本辞書データの動詞がGNGで出現頻度第1位である場合が5,787件であり,対象とした前部分列表記$w_{1}w_{2}$の$47.74\%=(5,787/12,120)\times100$に対して3.2で述べた$p_{f}(w_{3}|w_{1}w_{2})$が最大の動詞部$w_{3}$が選ばれていると推定できた.「ちょっかいを出す」,「熱戦を繰り広げる」,「アクションを起こす」などはこれらに該当する.同様に,第2位の場合は1,699件で14.02\%,3位は877件で7.24\%,4位は482件で3.98\%,等々であった.20位までの結果をグラフ化して図5(a)に示す.収録表現は高い条件付き確率のものほど多いというこの結果は3.2で述べたMWE採録の目標から見て妥当なものと思われる.図5(a)を累積の比率に改めたグラフを図5(b)に示す.これから,例えば,本辞書では,対象とする前部分列$w_{1}w_{2}$の約80\%に対して頻度8位までの動詞$w_{3}$が選ばれ,$w_{1}w_{2}$の約86\%に20位までの動詞$w_{3}$が選ばれていることなどが分る.GNGデータで高い頻度順位の動詞であるのに本辞書で選ばれていないのは,動詞の出現確率に偏りが少なく,絞り込みが効果的に行えないと判断されたためと思われる.また,図5(b)を外挿すれば,前部分列の10\%強に対して,後接する動詞がGNGでは同環境に現れていないことが推定できる.例えば,本辞書に在る「才知に長ける」,「轢き逃げを働く」はGNGに存在しない.このことは,200億文規模のWEBコーパスであっても,かなりの表現が捕捉出来ない可能性を示唆しており,Zipfの法則におけるロングテール部に対する表現収集の難しさを示すものと考えられる.\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f5.eps}\end{center}\hangcaption{$[\text{名詞}+\text{格助詞}+\text{動詞}]$型表現のGoogleNグラムにおける動詞の出現頻度順位別の動詞採録率(a)と順位別の動詞採録累積比率(b)(格助詞を「を」,「が」,「に」に限定)}\label{fig5}\vspace{-1\baselineskip}\end{figure}上記1,194,293表現の出現頻度の合計は1,389,568,825であるのに対し,本辞書データ82,125個の出現頻度の合計は374,718,334であり,本辞書の表現はGNGの出現数の26.97\%をカバーしている.いっぽう,動詞のバリエーションはGNGで平均$98.54=1,194,293/12,120$個であるのに対し,本辞書データでは平均$5.95=82,125/13,806$個にすぎない.すなわち,6.04\%というコンパクトな動詞の種類でGNGにおける同環境での出現数の約27\%をカバーしていることが分る.以上の結果は,限られた形式の表現に対する条件付後方出現確率のみに関するものであるが,採録基準は全体に共通しており,条件付前方出現確率に関しても,また,その他の形式の表現に関しても類似した結果が得られるのではないかと推測している.本辞書の収録表現が一般の新聞紙上でどの程度使われているかの調査も随時行ってきた.無作為に取った5日分の日本経済新聞朝刊第1面と最終面における本辞書採録表現の出現比率を表6に示す.新聞の100文当り本辞書の73表現程度が日常的に現れていると推測される.以上のように,日常の文書ではイディオム性あるいは強い共起性を持つ,比較的少ない種類のMWEが相当高頻度で用いられていることが推測される.イディオム性データの再現率は,本辞書を利用するシステムの意味構成ルールが明確でない現時点で正しく検証することは難しいが,本辞書データが市販の慣用句辞典類に収録されている表現をほとんど網羅していることは確認済みであり\footnote{例えば,(佐藤2007)が参考にした(宮地(編)1982),(米川他(編)2005),(金田一他(監修)2005),(金田一(監修)2005)の慣用句は本辞書に網羅されており,それらの異表記,変化形も相当数収録されている.},また,数々の机上実験から弱いイディオム性表現もかなり網羅されていると考えている\footnote{ただし,人の内省によってもこの種の表現集合を完全な形で一挙に提示することは難しい.現在,日刊紙の100文中に1件〜数件程度の新造語その他,登録すべきであろうと判断される表現が出現する.}.\begin{table}[t]\caption{新聞紙上における1文当りの採録表現出現比率(B/A)}\input{03table06.txt}\end{table} \section{おわりに} 本辞書は日本語の日常使用者が持っていると思われる言語モデルを「語の慣用」という視点に絞って提示する試みである.表現の選定等は基本的に編者の内省に基づいているため,ある程度の恣意性が入ることは免れない.しかし,5.で見た様に,確率的側面に関しては,大局的には表現の選定に大きな瑕疵は無いものと考えている.表現の選定に際しては再現率を重視したため,構成性が認められそうな表現や共起の排他性がそれ程高くない表現が採録されている可能性がある.しかし,その様な表現に対しても辞書中に構文構造と内部修飾(分離)可能性を記載しており,それは入力文の通常の構文解析結果を部分的に先取りした情報となっている.この意味で本データは表現レベルの係り受けデータとなっており,これらの表現が機械処理上,障害あるいは無駄になることは少ないと考えている.本辞書の想定する基本的な応用領域はコンピュータによる日本語の構文・意味・文脈解析であるが,日本語学,日本語語彙・語句論,辞書学,日本語教育等の領域にも参考データを提供できる可能性がある.NLPシステムとしては,\begin{enumerate}[1.]\itemフレーズベース仮名漢字変換\itemフレーズベース機械(音声)翻訳\itemフレーズベース音声認識\item日本語による検索エンジン\item日本語による対話システム\item日本語読み上げ,仮名振りシステム\item日本語教育システム\end{enumerate}など,多岐に亘る貢献が期待される.辞書内容の更なる充実策として以下の点が挙げられる.\begin{enumerate}[a.]\item並列,反復,対照など,依存以外の構造記載\item要素語に対する活用形の記載\item形態・構文的変化形,例えば,助詞の交替・挿入・脱落,受動態化や語順の入れ替えによる体言化などへの制約の記載\item格要素等,修飾句への構文的,意味的制約の記載\item意味上の曖昧さの有無情報の記載\item標準的な表現への言い換え情報(含,分解可能性情報)の記載\itemコンテクスト条件として選好(preference)条件の記載\item「です」,「ます」調,会話調表現の充実\item古語,現代語の区別情報の記載\item異表記間の優先度情報の記載\item条件付き確率,条件付きエントロピー推定値の記載\end{enumerate}今後,これらの補強を行って完成度をさらに高めて行く事が望まれる\footnote{本辞書は若干の修正および補強(a,b)の後に日本語のMWE解説書と併せてリリース予定である.}.\nocite{*}\acknowledgment本研究の端緒を与えて下さった故栗原俊彦元九州大学教授,その後,研究上のお世話になった故吉田将元九州芸術工科大学長,長尾真元京都大学総長現国立国会図書館長,ご鞭撻を賜った大野克郎九州大学名誉教授に深甚の謝意を表します.また,有益な助言を頂いた島津明北陸先端科学技術大学院大学教授,翻訳の立場から貴重な意見を頂いた倉骨彰氏,データの収集作業に協力頂いた武内美津乃氏,高丘満佐子氏をはじめとする方々に心から感謝いたします.本論文で検証に用いたIPADIC,GoogleNグラムデータの関係者の皆様にも深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\def\BED{}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2003}]{asahara_matsumoto_IPADIC}浅原正幸\JBA松本裕治\BBOP2003\BBCP.\newblock\Jem{IPADICversion2.7.0ユーザーズマニュアル}.\newblock奈良先端科学技術大学院大学情報科学研究科.\bibitem[\protect\BCAY{Baldwin,Bannard,Tanaka,\BBA\Widdows}{Baldwinet~al.}{2003b}]{baldwin_2003b}Baldwin,T.,Bannard,C.,Tanaka,T.,\BBA\Widdows,D.\BBOP2003b\BBCP.\newblock\BBOQAnEmpiricalModelofMultiwordExpressionDecomposability.\BBCQ\\newblockIn{\BemProceedingsofACL2003WorkshoponMultiwordExpressions:Analysis,AcquisitionandTreatment},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Baldwin\BBA\Bond}{Baldwin\BBA\Bond}{2003a}]{baldwin_2003a}Baldwin,T.\BBACOMMA\\BBA\Bond,F.\BBOP2003a\BBCP.\newblock\BBOQMultiwordExpressions:SomeProblemsforJapaneseNLP.\BBCQ\\newblockIn{\BemProceedingsofthe8thAnnualMeetingoftheAssociationforNaturalLanguageProcessing(Japan)},\mbox{\BPGS\379--382}.\bibitem[\protect\BCAY{Bannard}{Bannard}{2007}]{bannard_2007}Bannard,C.\BBOP2007\BBCP.\newblock\BBOQAMeasureofSyntacticFlexibilityforAutomaticallyIdentifyingMultiwordExpressionsinCorpora.\BBCQ\\newblockIn{\BemProceedingsofABroaderPerspectiveonMultiwordExpressions,WorkshopattheACL2007Conference},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Baptista,Correia,\BBA\Fernandes}{Baptistaet~al.}{2004}]{baptista_2004}Baptista,J.,Correia,A.,\BBA\Fernandes,G.\BBOP2004\BBCP.\newblock\BBOQFrozenSentencesofPortuguese:FormalDescriptionsforNLP.\BBCQ\\newblockIn{\BemProceedingsofACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\72--79}.\bibitem[\protect\BCAY{Caseli,Villavicencio,Machado,\BBA\Finatto}{Caseliet~al.}{2009}]{caseli_2009}Caseli,H.~M.,Villavicencio,A.,Machado,A.,\BBA\Finatto,M.~J.\BBOP2009\BBCP.\newblock\BBOQStatistically-DrivenAlignment-BasedMultiwordExpressionIdentificationforTechnicalDomains.\BBCQ\\newblockIn{\BemProceedingsof2009WorkshoponMultiwordExpressions:Identification,Interpretation,Disambiguation,Applications(ACL-IJCNLP2009)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Fazly\BBA\Stevenson}{Fazly\BBA\Stevenson}{2006}]{fazly_2006}Fazly,A.\BBACOMMA\\BBA\Stevenson,S.\BBOP2006\BBCP.\newblock\BBOQAutomaticallyConstructingaLexiconofVerbPhraseIdiomaticCombinations.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChanpteroftheACL},\mbox{\BPGS\337--344}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1999}]{fellbaum_1999}Fellbaum,C.\BED\\BBOP1999\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockCambridge,MA:MITPress.\bibitem[\protect\BCAY{Gr{\'e}goire}{Gr{\'e}goire}{2007}]{gregoire_2007}Gr{\'e}goire,N.\BBOP2007\BBCP.\newblock\BBOQDesignandImplementationofaLexiconofDutchMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofABroaderPerspectiveonMultiwordExpressions,WorkshopattheACL2007Conference},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Gross}{Gross}{1986}]{gross_1986}Gross,M.\BBOP1986\BBCP.\newblock\BBOQLexicon-Grammar.TheRepresentationofCompoundWords.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonComputationalLinguistics,COLING86},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Hashimoto,Sato,\BBA\Utsuro}{Hashimotoet~al.}{2006}]{hashimoto_2006}Hashimoto,C.,Sato,S.,\BBA\Utsuro,T.\BBOP2006\BBCP.\newblock\BBOQDetectingJapaneseidiomswithalinguisticallyrichdictionary.\BBCQ\\newblockIn{\BemLanguageResourceandEvaluation,40-3},\mbox{\BPGS\243--252}.\bibitem[\protect\BCAY{Hoang,Kim,\BBA\Kan}{Hoanget~al.}{2009}]{hoang_2009}Hoang,H.~H.,Kim,S.~N.,\BBA\Kan,M.\BBOP2009\BBCP.\newblock\BBOQARe-examinationofLexicalAssociationMeasures.\BBCQ\\newblockIn{\BemProceedingsof2009WorkshoponMultiwordExpressions:Identification,Interpretation,Disambiguation,Applications(ACL-IJCNLP2009)},\mbox{\BPGS\31--39}.\bibitem[\protect\BCAY{Jackendoff}{Jackendoff}{1997}]{jackendoff_1997}Jackendoff,R.\BBOP1997\BBCP.\newblock{\BemTheArchitectureofLanguageFaculty}.\newblockCambridge,MA:MITPress.\bibitem[\protect\BCAY{金田一}{金田一}{2005}]{kindaichi_2005a}金田一秀穂(監修)\BBOP2005\BBCP.\newblock\Jem{小学生のまんが慣用句辞典}.\newblock学研.\bibitem[\protect\BCAY{金田一\JBA金田一}{金田一\JBA金田一}{2005}]{kindaichi_2005b}金田一春彦\JBA金田一秀穂(監修)\BBOP2005\BBCP.\newblock\Jem{新レインボー小学国語辞典改訂第3版}.\newblock学研.\bibitem[\protect\BCAY{Kita,Kato,Omoto,\BBA\Yano}{Kitaet~al.}{1994}]{kita_1994}Kita,K.,Kato,Y.,Omoto,T.,\BBA\Yano,Y.\BBOP1994\BBCP.\newblock\BBOQAComparativeStudyofAutomaticExtractionofCollocationsfromCorpora:MutualInformationVS.CostCriteria.\BBCQ\\newblockIn{\BemJournalofNaturalLanguageProcessing,1-1},\mbox{\BPGS\21--33}.\bibitem[\protect\BCAY{Koyama,Yasutake,Yoshimura,\BBA\Shudo}{Koyamaet~al.}{1998}]{koyama_1998}Koyama,Y.,Yasutake,M.,Yoshimura,K.,\BBA\Shudo,K.\BBOP1998\BBCP.\newblock\BBOQLargeScaleCollocationDataandTheirApplicationtoJapaneseWordProcessorTechnology.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonComputationalLinguistics,COLING98},\mbox{\BPGS\694--698}.\bibitem[\protect\BCAY{工藤\JBA賀沢}{工藤\JBA賀沢}{2007}]{kudo_2007}工藤拓\JBA賀沢秀人\BBOP2007\BBCP.\newblock\Jem{Web日本語Nグラム第1版}.\newblock言語資源協会.\bibitem[\protect\BCAY{Kuiper,McCan,Quinn,Aitchison,\BBA\{VanderVeer}}{Kuiperet~al.}{2003}]{kuiper_2003}Kuiper,K.,McCan,H.,Quinn,H.,Aitchison,T.,\BBA\{VanderVeer},K.\BBOP2003\BBCP.\newblock\BBOQSAID:ASyntacticallyAnnotatedIdiomDataset.\BBCQ\{\itshapeLinguisticDataConsortium2003T10}.\bibitem[\protect\BCAY{Laporte\BBA\Voyatzi}{Laporte\BBA\Voyatzi}{2008}]{laporte_2008}Laporte,{\'E}.\BBACOMMA\\BBA\Voyatzi,S.\BBOP2008\BBCP.\newblock\BBOQAnElectronicDictionaryofFrenchMultiwordAdverbs.\BBCQ\\newblockIn{\BemProceedingsoftheLRECWorkshoptowardsaSharedTaskforMultiwordExpressions(MWE2008)},\mbox{\BPGS\31--34}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{matsuyoshi_2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{宮地}{宮地}{1982}]{miyaji_1982}宮地裕(編)\BBOP1982\BBCP.\newblock\Jem{慣用句の意味と用法}.\newblock明治書院.\bibitem[\protect\BCAY{尾上}{尾上}{1993}]{onoue1993}尾上兼英(監修)\BBOP1993\BBCP.\newblock\Jem{成語林—故事ことわざ慣用句}.\newblock旺文社.\bibitem[\protect\BCAY{Pantel\BBA\Lin}{Pantel\BBA\Lin}{2001}]{pantel_2001}Pantel,P.\BBACOMMA\\BBA\Lin,D.\BBOP2001\BBCP.\newblock\BBOQAStatisticalCorpus-BasedTermExtractor.\BBCQ\\newblockIn{\BemProceedingsofthe14thBiennialConferenceoftheCanadianSocietyonComputationalStudiesofIntelligence,Springer-Verlag},\mbox{\BPGS\36--46}.\bibitem[\protect\BCAY{Pecina}{Pecina}{2008}]{pecina_2008}Pecina,P.\BBOP2008\BBCP.\newblock\BBOQAMachineLearningApproachtoMultiwordExpressionExtraction.\BBCQ\\newblockIn{\BemProceedingsoftheLRECWorkshoptowardsaSharedTaskforMultiwordExpressions(MWE2008)},\mbox{\BPGS\54--57}.\bibitem[\protect\BCAY{Piao,Rayson,Archer,\BBA\McEnery}{Piaoet~al.}{2005}]{piao_2005}Piao,S.,Rayson,P.,Archer,D.,\BBA\McEnery,T.\BBOP2005\BBCP.\newblock\BBOQComparingandcombiningasemantictaggerandastatisticaltoolforMWEextraction.\BBCQ\{\itshapeComputerSpeechandLanguage},Elsevier,pp.~378--397.\bibitem[\protect\BCAY{Sag,Baldwin,Bond,Copestake,\BBA\Flickinger}{Saget~al.}{2002}]{sag_2002}Sag,I.~A.,Baldwin,T.,Bond,F.,Copestake,A.,\BBA\Flickinger,D.\BBOP2002\BBCP.\newblock\BBOQMultiwordExpressions:APainintheNeckforNLP.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics,CICLING2002},\mbox{\BPGS\1--15}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2007}]{sato_2007}佐藤理史\BBOP2007\BBCP.\newblock基本慣用句五種対照表の作成.\\newblock\Jem{情報処理学会研究報告,07-NL-178},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{首藤}{首藤}{1973}]{shudo_1973}首藤公昭\BBOP1973\BBCP.\newblock専門分野を対象とした日英機械翻訳について.\\newblock\Jem{情報処理},{\Bbf14}(9),\mbox{\BPGS\661--668}.\bibitem[\protect\BCAY{首藤\JBA楢原\JBA吉田}{首藤\Jetal}{1979}]{shudo_1979}首藤公昭\JBA楢原斗志子\JBA吉田将\BBOP1979\BBCP.\newblock日本語の機械処理のための文節構造モデル.\\newblock\Jem{電子通信学会論文誌,D62-D-12},\mbox{\BPGS\872--879}.\bibitem[\protect\BCAY{Shudo}{Shudo}{1980}]{shudo_1980}Shudo,K.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectofJapaneseLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics,COLING80},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{首藤}{首藤}{1989}]{shudo_1989}首藤公昭\BBOP1989\BBCP.\newblock\Jem{日本語における固定的複合表現}.\newblock昭和63年度文部省科学研究費特定研究(I)「情報ドクメンテーションのための言語の研究」,63101005,報告書.\bibitem[\protect\BCAY{注連\JBA土屋\JBA松吉\JBA宇津呂\JBA佐藤}{注連\Jetal}{2007}]{shime_2007}注連隆夫\JBA土屋雅稔\JBA松吉俊\JBA宇津呂武仁\JBA佐藤理史\BBOP2007\BBCP.\newblock日本語機能表現の自動検出と統計的係り受け解析への応用.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\167--197}.\bibitem[\protect\BCAY{白石}{白石}{1977}]{shiraishi_1977}白石大二(編)\BBOP1977\BBCP.\newblock\Jem{国語慣用句大辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{白石}{白石}{1992}]{shiraishi_1992}白石大二(編)\BBOP1992\BBCP.\newblock\Jem{擬声語擬態語慣用句辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{田島}{田島}{2002}]{tajima_2002}田島諸介\BBOP2002\BBCP.\newblock\Jem{ことわざ故事・成語慣用句辞典}.\newblock梧桐書院.\bibitem[\protect\BCAY{竹田}{竹田}{1990}]{takeda_1990}竹田晃\BBOP1990\BBCP.\newblock\Jem{四字熟語・成句辞典}.\newblock講談社.\bibitem[\protect\BCAY{Tanaka\BBA\Baldwin}{Tanaka\BBA\Baldwin}{2003}]{tanaka_2003}Tanaka,T.\BBACOMMA\\BBA\Baldwin,T.\BBOP2003\BBCP.\newblock\BBOQNoun-NounCompoundMachineTranslation:AFeasibilityStudyonShallowProcessing.\BBCQ\\newblockIn{\BemProceedingsofACL2003WorkshoponMultiwordExpressions:Analysis,AcquisitionandTreatment},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Trawi\'nski,Sailer,Soehn,Lemnitzer,\BBA\Richter}{Trawi\'nskiet~al.}{2008}]{trawinski_2008}Trawi\'nski,B.,Sailer,M.,Soehn,J.,Lemnitzer,L.,\BBA\Richter,F.\BBOP2008\BBCP.\newblock\BBOQCranberryExpressionsinFrenchandinGerman.\BBCQ\\newblockIn{\BemProceedingsoftheLRECWorkshoptowardsaSharedTaskforMultiwordExpressions(MWE2008)},\mbox{\BPGS\35--38}.\bibitem[\protect\BCAY{Uchiyama\BBA\Ishizaki}{Uchiyama\BBA\Ishizaki}{2003}]{uchiyama_2003}Uchiyama,K.\BBACOMMA\\BBA\Ishizaki,S.\BBOP2003\BBCP.\newblock\BBOQADisambiguationMethodforJapaneseCompoundVerbs.\BBCQ\\newblockIn{\BemProceedingsofACL2003WorkshoponMultiwordExpressions:Analysis,AcquisitionandTreatment},\mbox{\BPGS\81--88}.\bibitem[\protect\BCAY{Villavicencio}{Villavicencio}{2004}]{villavicencio_2004}Villavicencio,A.\BBOP2004\BBCP.\newblock\BBOQLexicalEncodingofMWEs.\BBCQ\\newblockIn{\BemProceedingsofACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\80--87}.\bibitem[\protect\BCAY{安武\JBA小山\JBA吉村\JBA首藤}{安武\Jetal}{1997}]{yasutake_1997}安武満佐子\JBA小山泰男\JBA吉村賢治\JBA首藤公昭\BBOP1997\BBCP.\newblock固定的共起表現とその変化形.\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\mbox{\BPGS\449--452}.\bibitem[\protect\BCAY{米川\JBA大谷}{米川\JBA大谷}{2005}]{yonekawa_2005}米川明彦\JBA大谷伊都子(編)\BBOP2005\BBCP.\newblock\Jem{日本語慣用句辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{Zarre{\ss}\BBA\Kuhn}{Zarre{\ss}\BBA\Kuhn}{2009}]{zarres_2009}Zarre{\ss},S.\BBACOMMA\\BBA\Kuhn,J.\BBOP2009\BBCP.\newblock\BBOQExploitingTranslationalCorrespondencesforPattern-IndependentMWEIdentification.\BBCQ\\newblockIn{\BemProceedingsof2009WorkshoponMultiwordExpressions:Identification,Interpretation,Disambiguation,Applications(ACL-IJCNLP2009)},\mbox{\BPGS\23--30}.\end{thebibliography}\begin{biography}\bioauthor{首藤公昭}{1965年九州大学工学部電子工学科卒業.1970年九州大学大学院工学研究科電子工学専攻博士課程満退.工学博士.同年,福岡大学工学部電子工学科講師.現在,同電子情報工学科教授.機械翻訳,自然言語処理,特に日本語処理に関する諸研究に従事.ACL,情報処理学会各会員.}\bioauthor{田辺利文}{1993年九州大学工学部情報工学科卒業.2000年九州大学大学院システム情報科学研究科知能システム学専攻博士課程修了.博士(工学).同年,福岡大学工学部電子情報工学科助手.現在,同学科助教.自然言語処理の研究に従事,人間の気持ちを理解できるシステムをつくることが当面の目標.ACL,情報処理学会,電子情報通信学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
V09N03-01
\section{はじめに} 決定リストとは統計的なクラス分類器である.自然言語処理の多くは,クラス分類問題として捉えることが可能であり,近年,様々な自然言語処理において,決定リストによる手法の有効性が示されている\cite{Yarowsky:unsupervised,新納:日本語形態素解析,宇津呂:コーパス,白木:複数決定リスト}.特に,語義曖昧性解消問題に対しては,語義曖昧性解消システムの性能を競う競技会であるSenseval-1において,決定リストを階層的に拡張した手法が最も良い成績をあげている\cite{Yarowsky:Hierarchical}.クラス分類器としては,分類精度の点だけでいえば,最近ではサポートベクタマシン\cite{vapnik95nature}やアダブースト\cite{freund99short}といった手法が,その性能の高さから注目を集めている\cite{nagata01text}.しかし,それらの手法は,学習結果が人間にとってブラックボックスなのに対して,決定リストによる手法では,作成された分類器がif-then形式のルールの並びであるために,人間が容易に理解可能であるというメリットがある.学習した決定リストに人間の手を入れることで,性能を向上させることができるとの報告もある\cite{Li:Text}.決定リストを作成する上で最も重要な問題は,ルールの信頼度の算出法である.信頼度を計算するためには,限られた事例から,ルールに関する条件付き確率を計算する必要がある.事例の数が多ければ,確率値を最尤推定法によって頻度の比として推定することにほとんど問題はない.しかし,事例の数が少ない場合,最尤推定法による推定値の誤差は非常に大きくなってしまう.このような問題に対し,決定リストを用いた多くの研究では,事例の数が少ないルールを間引いたり,簡単なスムージングを行なうことによって対処している.しかし,ルールを間引く手法では重要なルールを取りこぼしてしまう危険があり,計算式に適当な数値を足してスムージングを行なう手法では加算する値の設定の理論的な指針がないという問題がある.他方,決定リスト手法の改良として,特徴の種類ごとに異なった信頼度の重み付けを与える手法が提案され,日本語の同音異義語解消の実験によってその有効性が示されている\cite{新納:複合語}.このことは,特徴の種類によって,ルールの信頼度に最尤推定法では考慮することのできない違いが存在することを示唆している.そこで本論文では,ルールの確率値の推定にベイズ統計の手法を利用する.ベイズ統計では,確率変数に関する推定を行なう際に,学習者の持っている事前知識を活用することができる.そのため,適切な事前知識を利用することができれば,最尤推定よりも正確な推定を行なうことができる.また,上記の,証拠の種類による信頼度の違いも,事前分布の違いとして自然に導入することができる.本論文では,語義曖昧性解消の問題を例にとり,ベイズ学習による信頼度の算出が,決定リストの性能を向上させることを示す.本論文の構成は以下の通りである.2章で決定リストによるクラス分類の手法を説明する.3章で,ベイズ学習による確率値の算出法を示す.4章で,他のルールの確率値を利用して事前分布を構成する方法を示す.5章で,決定リストを語義曖昧性解消問題に適用した実験結果を示す.6章で,まとめを行なう. \section{決定リスト} 決定リストとは,クラス分類のためのルールを,その信頼度の高い順に並べたものである.それぞれのルールは,「もし(証拠$E_i$)ならば,クラスは$C_j$である」という形式をしている.証拠というのは,判定の手がかりとなる事例の特徴である.例として,英語の多義語{\itplant}(A:植物,B:工場)に関してYarowskyが行なった実験での決定リストを表\ref{tab:ex_dlist}に示す\cite{Yarowsky:Decision}.最上位のルールは,「右隣にlifeという単語があったら,語義はA」という意味,4番目のルールは,「距離2〜10単語以内にmanufacturingという単語があったら,語義はB」という意味である.\begin{table}\caption{決定リストの例}\label{tab:ex_dlist}\begin{center}\begin{tabular}{ccc}\hline\hline信頼度&証拠&語義\\\hline8.10&{\itplant}{\bflife}&A\\7.58&{\bfmanufacturing}{\itplant}&B\\7.39&{\bflife}(within$\pm$2--10words)&A\\7.20&{\bfmanufacturing}(within$\pm$2--10words)&B\\6.27&{\bfanimal}(within$\pm$2--10words)&A\\4.70&{\bfequipment}(within$\pm$2--10words)&B\\4.39&{\bfemployee}(within$\pm$2--10words)&B\\:&:&:\\\hline\end{tabular}\end{center}\end{table}実際にクラスの分類を行なう際には,その事例に対して適用可能なルールのうち,最も上位のルールを用いて分類が行なわれる.例えば入力文が,\begin{center}...dividelifeinto{\itplant}andanimalkingdom...\end{center}\noindentであるとすると,適用可能なルールのうち最上位なのは3番目のルールであるから,{\itplant}の語義はAだと判定されることになる.このように,決定リストによる手法では,他の多くの機械学習手法と異なり,特徴を単独で利用する.単独でしか利用しないのは一見不利なようであるが,語義曖昧性解消などの,文脈の語彙的な特徴を利用する問題に関しては,単独の証拠が分類の決定的な証拠になることが多いため,決定リストによる手法が有効であるといわれている.本論文で提案する決定リストのルール信頼度の推定手法は,特定の自然言語処理に特化したものではないが,本論文では,決定リストの適用例として,上記のような語義曖昧性解消の問題を取り上げる.ここで,本論文で用いる文脈上の特徴を以下に示す.\begin{itemize}\item{Window}ターゲットから,距離10単語以内に出現する単語\item{Adjacent}ターゲットの左隣に出現する単語ターゲットの右隣に出現する単語\item{Pair}ターゲットの左隣にある単語対ターゲットを挟む単語対ターゲットの右隣にある単語対\end{itemize}\vspace{3mm}すなわち,文脈情報としての詳細さが異なる三つのタイプの特徴を利用する.文脈情報として最も詳細なのはPairであり,最も粗いのがWindowである.\subsection{ルールの信頼度}決定リストは,事例とその正解ラベルを含む訓練コーパスから作成される.決定リストの作成において最も重要な問題は,それぞれのルールの信頼度の計算法である.文献\cite{Yarowsky:Decision}では,次の式に従って信頼度を計算している.\begin{equation}\label{eq:yarowsky}(信頼度)=\log\Big(\frac{P(C_A|E_i)}{P(C_B|E_i)}\Big)\end{equation}すなわち,証拠$E_i$のもとでクラス(語義)がAである確率と,同じ証拠$E_i$のもとでクラスがBである確率との比の対数をとったものである.従来の決定リストを用いた自然言語処理の研究では,ルールの信頼度の算出法として,式(\ref{eq:yarowsky}),あるいは,式(\ref{eq:yarowsky})をクラスが3つ以上の場合でも適用できるように変形した次の式,\begin{equation}\label{eq:yarowsky1}(信頼度)=\log\Big(\frac{P(C_A|E_i)}{1-P(C_A|E_i)}\Big)\end{equation}が用いられることが多い\cite{Yarowsky:Decision,Yarowsky:Hierarchical,新納:日本語形態素解析}.また,対数をとらずに,\begin{equation}\label{eq:reliability}(信頼度)=P(C_A|E_i)\end{equation}とする場合もある\cite{白木:複数決定リスト}.ここで,式(\ref{eq:reliability})と式(\ref{eq:yarowsky1})を見比べてみると,式(\ref{eq:yarowsky1})は,式(\ref{eq:reliability})に関して単調増加であり,決定リストでは信頼度の大小関係しか問題にならないのだから,後述するスムージングの問題を考慮しなければ,式(\ref{eq:yarowsky1})を用いた場合と,式(\ref{eq:reliability})を用いた場合では,結果的に作成される決定リストは等価になる.一般にクラス分類器の目標は,分類の正解率を最大にすることであるから,ルールの信頼度としては,そのルールが正解する確率である式(\ref{eq:reliability})を用いるのが自然である.また,クラス分類器が,自然言語処理システムの一部を構成している場合,分類の信頼度は確率として出力された方が扱いやすいことが多い.そこで本論文では,ルールの信頼度として式(\ref{eq:reliability})を用いることにする.式(\ref{eq:reliability})の値は,訓練事例が多ければ,ベルヌーイ試行における最尤推定により,次のように計算することができる.\begin{equation}(信頼度)=P(C_A|E_i)=\frac{f(C_A,E_i)}{f(E_i)}\end{equation}ただし,$f(C_A,E_i)$は,クラスAに属するターゲットと証拠$E_i$が同時に出現した回数.$f(E_i)$は,証拠$E_i$の出現回数である.ところが,通常は出現回数が少ない証拠も多い.例えば,\begin{equation}f(C_A,E_i)=1,\\f(E_i)=1\end{equation}の場合,信頼度は$1/1=1$と計算されるが,たった一つの事例しかないのに,その信頼度は100\%,すなわち最も信頼度の高いルールだとみなされてしまう.このように,出現回数の少ない事例において,そのままでは統計的に信頼性のある確率値が算出できないことをスパースネスの問題という.そこで本論文では,ベイズ学習の手法を用いてこの問題の解決を試みる. \section{ベイズ学習によるルール確率値の推定} いま,求めたいルールの確率値を$\theta$とする.最尤推定の枠組では,確率モデルの尤度が最大となるように$\theta$を決定するが,ベイズ学習の枠組では,$\theta$を確率変数と考えて,その確率分布を求める問題と考える.本論文では,得られた確率分布を決定リストのルールの信頼度として利用したいのだから,その確率分布から$\theta$の期待値を計算して利用すればよい.訓練コーパスにおいて,確率を求めたいルールに関する事例が$n$個あり,そのうちの$k$個において,そのルールが正しいというデータがあるとする.このデータを$y$とすると,データ$y$を観測した後の$\theta$の事後密度は,\begin{eqnarray}p(\theta|y)&=&\frac{p(\theta)p(y|\theta)}{p(y)}\\\label{eq:jigo}&=&\frac{p(\theta)p(y|\theta)}{\int_0^1{p(\theta)p(y|\theta)}d\theta}\end{eqnarray}で与えられる.ここで,事象$y$はベルヌーイ試行と考えられるから,その確率は二項分布により次のように与えられる.\begin{equation}p(y|\theta)={}_nC_k\theta^k(1-\theta)^{n-k}\end{equation}これを式(\ref{eq:jigo})に代入して,\begin{eqnarray}p(\theta|y)&=&\frac{p(\theta){}_nC_k\theta^k(1-\theta)^{n-k}}{\int_0^1{p(\theta){}_nC_k\theta^k(1-\theta)^{n-k}}d\theta}\\&=&\frac{p(\theta)\theta^k(1-\theta)^{n-k}}{\int_0^1{p(\theta)\theta^k(1-\theta)^{n-k}}d\theta}\label{eq:post}\end{eqnarray}を得る.ここで,事前分布$p(\theta)$をどのように設定するのか,という問題が浮上する.事前分布は,$\theta$について学習者が持っている事前知識を表す.ベイズ学習における事前分布の設定方法に関しては,大きく分けて2つのアプローチがある.一つは,できるだけ公平で無知の状態を表すように事前分布を設定する方法である.そのような事前分布としては,一様分布やJeffreysの無情報事前分布などが提案されている\cite{繁桝:ベイズ}.もう一つは,学習者が事前に持っている知識を積極的に表現するような事前分布を設定する方法である.\subsection{一様分布}\vspace{-6pt}まず,無知の状態を表す事前分布として,一様分布を用いた場合について説明する.いま,あるルールの確率に関して,事前知識が全くないものと考えると,すべての確率値の事前確率について同じ値とするのが自然である.$\theta$は[0,1]を定義域とする連続の確率変数であり,$p(\theta)$は密度関数であるから,\begin{equation}p(\theta)=1\end{equation}とすればよい.そうすると,事後分布は次のようになる.\begin{eqnarray}p(\theta|y)&=&\frac{\theta^k(1-\theta)^{n-k}}{\int_0^1{\theta^k(1-\theta)^{n-k}}d\theta}\\&=&\frac{\theta^{(k+1)-1}(1-\theta)^{(n+2)-(k+1)-1}}{\int_0^1{\theta^{(k+1)-1}(1-\theta)^{(n+2)-(k+1)-1}}d\theta}\end{eqnarray}この確率分布は,ベータ分布と呼ばれ,期待値は次式で与えられる\cite{鈴木:ベイズ}.\begin{equation}E[\theta]=\frac{k+1}{n+2}\end{equation}いま,$k$と$n$は,それぞれ,$f(C_A,E_i)$と$f(E_i)$に対応しているのだから,\begin{equation}\label{eq:myreliability}(信頼度)=P(C_A|E_i)=\frac{f(C_A,E_i)+1}{f(E_i)+2}\end{equation}となる.結論は非常にシンプルである.すなわち,頻度$f(C_A,E_i)$と$f(E_i)$をそのまま用いる代わりに,$f(C_A,E_i)+1$と$f(E_i)+2$を用いればよい,ということである. \section{事前分布の利用による確率値の正確な推定} 前章では,ベイズ学習において事前情報が全くないものとし,事前分布を一様分布として事後分布の導出を行なった.しかし,\ref{sc:experiments}章で述べる実験結果から明らかなように,実際の正解率と,ベイズ学習による確率から計算された期待正解率との間には開きがある.これは,推定された確率が真の確率からずれていることを示している.この原因には,以下の3つが考えられる.\begin{itemize}\itemトレーニングデータvs.テストデータもし,学習のためのトレーニングデータと,テストデータの性質が異なっている場合,実際の正解率は低下する.これは,コーパスベースの手法の本質的な問題である.\itemGlobalvs.history-conditional決定リストにおいて,あるルールが適用されるということは,そのルールより上位のルールが,その文脈に適用できなかったことを示している.したがって,確率値はその条件を反映したものでなければならない.ところが,式(\ref{eq:myreliability})では,そのような条件を考慮せず,単に事例全体の中での確率しか考慮していない.そのような条件を考慮した確率値を算出するためには,決定木を構成するように,決定リストにルールを追加するたびに,それに適合する事例を削除していく,というようなことをする必要がある.しかし,そのようにすると,下位にいくにしたがって事例の数が少なくなっていくため,確率値の推定誤差が大きくなってしまうことや,計算量が事例数の2乗に比例するようになってしまうという問題がある.文献\cite{Yarowsky:Hierarchical}では,ルールの確率値を,上記の2つの確率,すなわち事例全体の中での確率と,上位のルールにマッチしなかったという条件付き確率との重み付き平均をとることによって計算している.\item事前分布前章では,事前分布を一様分布と仮定した.しかし,例えば,分類すべきクラスの数が5個あり,学習者が全く情報を持たないとすれば,特定のクラスを出力するルールが正解する確率の事前分布としては0.2を期待値とするような分布であるべきであろう.しかし,一様分布の期待値は0.5である.この例からもわかるように,一様分布はどんな場合でも適切な事前分布というわけではない.\end{itemize}上記の三つの問題に対して,最初の二つの問題については本論文では扱わない.本章では,他のルールの確率値を利用して適切な事前分布を設定する手法を提案する.\vspace{-0.5mm}事前分布とは,$\theta$に関するデータがない段階で仮定される,$\theta$がとる値の確率分布である.いま,$\theta$は,あるルールの確率を表しているが,ここで$\theta$を単独で考えるのではなく,$\theta$は,同じ証拠タイプ内の他の多くのルールの確率値と同じような性質を持っていると考えることにする.つまり,あるルールの事前分布を,他のルールの確率値を利用して構成する\footnote{このような考え方は,経験ベイズと呼ばれることもある\cite{gelman:bayesian}.また,ベイズ統計の枠組を用いてはいないが,単語の出現確率の代表的なディスカウンティング手法であるグッド・チューリング推定法の考え方ともよく似ている\cite{北:確率的}.}まず,ルールの確率値の分布がどのような性格を持っているのかを見るために,実際のルールの確率値の分布の例を図\ref{fig:distribution}に示す.これは,\ref{sc:experiments}章の実験で用いられた多義語accidentにおいて,それぞれの証拠のタイプに属するルールの確率値の,正規化されたヒストグラムを示したものである(グラフ中の曲線については後述する).ただし,各々のルールの確率値は,事前分布を一様分布としたベイズ学習により算出し,出現回数が10回未満のルールは除いている.ここで,ルールの確率値の統計的性質は,そのルールの証拠の事例数に依存しないと仮定すれば,図\ref{fig:distribution}に示したような,事例の数が多いルールの実際の確率値の分布を利用して,事前分布を構成することができる.事前分布の確率分布としては,ベータ分布を採用する.ベータ分布は,ベルヌーイ試行において自然共役事前分布と呼ばれる確率分布であり,事後分布の導出が解析的に可能であることが知られている\cite{繁桝:ベイズ}.ベータ分布は,2つのパラメータによって決定されるが,本論文では最も簡単なパラメータ推定法の一つであるモーメント法によってパラメータを決定する.モーメント法とは,母集団$j$次モーメント\begin{equation}E_{(a,b)}[\theta^j]=\int\theta^jp(\theta)d\theta\end{equation}と,標本$j$次モーメント\begin{equation}\mu_j=\frac{1}{m}\sum_{i=1}^m(\frac{k_i+1}{n_i+2})^j\end{equation}がそれぞれ等しいと置いた連立方程式を得くことでパラメータ$a,b$を計算する方法である.図\ref{fig:distribution}のグラフ中の曲線は,ヒストグラムで示した確率値のデータから,モーメント法によって得たベータ分布を表している.\begin{figure}\begin{center}\epsfile{file=window.eps,width=4.6cm,height=4.6cm}\epsfile{file=adjacent.eps,width=4.6cm,height=4.6cm}\epsfile{file=pair.eps,width=4.6cm,height=4.6cm}\end{center}\caption{ルールの確率値の分布}\label{fig:distribution}\end{figure}以下に事前分布をベータ分布とした場合の,事後分布の導出の過程を示す.まず,ベータ分布は次の式で与えられる.\begin{equation}p(\theta)=\frac{1}{B(a,b)}\theta^{(a-1)}(1-\theta)^{(b-1)}\end{equation}ただし,$B(a,b)$はベータ関数\begin{equation}B(a,b)=\int_0^1{\theta^{(a-1)}(1-\theta)^{(b-1)}}d\theta\end{equation}である.ベータ分布の1次モーメントは,\begin{equation}\frac{a}{a+b}\end{equation}2次モーメントは,\begin{equation}\frac{a+1}{a+b+1}\cdot\frac{a}{a+b}\end{equation}で与えられるから,同じタイプの証拠に属し,出現頻度が閾値(本論文では10とした)以上のルールの確率値の,1次モーメント,2次モーメントをそれぞれ$\mu_1,\mu_2$とすれば,ベータ分布の2つのパラメータは,\begin{eqnarray}a&=&\frac{\mu_1(\mu_1-\mu_2)}{\mu_2-\mu_1^2}\\b&=&\frac{(\mu_1-\mu_2)(1-\mu_1)}{\mu_2-\mu_1^2}\end{eqnarray}と指定すればよい.この事前分布を式(\ref{eq:post})に代入することにより,事後分布は次のようになる.\begin{equation}p(\theta|A)=\frac{1}{B(a+k,b+n-k)}\theta^{(a+k-1)}(1-\theta)^{(b+n-k-1)}\end{equation}事後分布の期待値,すなわちルールの信頼度は次のように得られる.\begin{equation}E[\theta]=\frac{a+k}{a+b+n}\end{equation}このように,信頼度は最終的に加算スムージングのような形式で得られることから,信頼度の計算自体は非常に簡単に行なうことができる.\vspace{-2pt} \section{実験\label{sc:experiments}} 提案手法の有効性を確かめるため,決定リストを用いて,英語の語義曖昧性解消と,日本語の疑似単語判定問題に関して実験を行なった.語義曖昧性解消とは,多義語の語義を文脈から判定する問題で,自然言語処理における典型的なクラス分類問題である.また,疑似単語判定とは,複数の単語をシステムの側からは単一の単語にしか見えないようにしておき,どの単語であるのかを文脈から判定させるという問題である.この問題は,人工的な語義曖昧性解消問題ということができる.実験によって評価すべき点は二つある.一つはもちろん,クラス分類の正解率である.従来手法と比べて,正解率が向上するかどうかを評価する.もう一つは,出力する確率値の正確さである.つまり,ルールの確率値が,どの程度正確に推定できているかということである.それを評価するために,「期待正解率」というものを考える.これは,それぞれの分類に用いられたルールの確率値を平均したものである.もし,確率値の推定が理想的に行なわれたとすれば,実際の正解率と,期待正解率はほぼ等しくなるはずである.すなわち,実際の正解率と期待正解率のずれは,確率値の推定の「悪さ」を表すことになる.比較対象とする従来手法は以下の二つである.\begin{itemize}\item間引き出現回数が閾値未満の証拠のルールは使用しないようにする手法.ルールの確率値は式(\ref{eq:reliability}),すなわち最尤推定により算出する.確率値が等しい場合は,出現回数の多いルールを優先する.\item対数尤度比式(\ref{eq:yarowsky1})を用いる手法.文献\cite{Yarowsky:Decision}\cite{新納:複合語}などで用いられている.この場合,式(\ref{eq:yarowsky1})の分母が0になってしまう可能性があるため,頻度の比の式の分母と分子に小さな値$\alpha$を足す.このようにすることで,分母が0になってしまう問題を防げる.また,同じ確率であれば,頻度の高い証拠のルールを優先することとした.\end{itemize}\subsection{Senseval-1データセットによる実験}英語の語義曖昧性解消については,語義曖昧性解消の競技会であるSenseval-1のデータセットが公開されているので,それを利用して実験を行なった\footnote{http://www.itri.brighton.ac.uk/events/senseval/}.Senseval-1データセットには,訓練データが利用可能な多義語が36個含まれている.表\ref{tab:senseval1}に,それぞれの多義語の語義数,訓練事例数,テスト事例数を示す.\begin{table*}\caption{Senseval-1データセット}\label{tab:senseval1}\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|lcrrr|lcrrr|}\hline&&&訓練~&テスト&&&&訓練~&テスト\\多義語&品詞&語義数&事例数&事例数&多義語&品詞&語義数&事例数&事例数\\\hlineaccident&n&8&1234&267&giant&a&5&315&97\\amaze&v&1&133&70&giant&n&7&342&118\\band&p&32&1326&302&invade&v&6&45&207\\behaviour&n&3&994&279&knee&n&22&417&251\\bet&n&15&106&273&modest&a&9&374&270\\bet&v&9&59&116&onion&n&4&26&214\\bitter&p&17&144&372&promise&n&8&586&113\\bother&v&8&282&209&promise&v&6&1160&224\\brilliant&a&10&440&229&sack&n&11&97&82\\bury&v&14&272&201&sack&v&4&185&178\\calculate&v&5&218&218&sanction&p&10&96&431\\consume&v&6&56&183&scrap&n&14&27&156\\derive&v&6&255&217&scrap&v&3&30&186\\excess&n&8&178&186&seize&v&11&287&259\\float&n&12&61&75&shake&p&39&963&356\\float&v&16&182&229&shirt&n&8&531&184\\floating&a&5&39&47&slight&a&6&380&218\\generous&a&6&307&227&wooden&a&4&361&196\\\hline\end{tabular}\end{center}\vspace{0.5mm}\begin{flushright}(品詞がpとは品詞情報が判定システムに与えられないことを示す)\end{flushright}\end{table*}本実験では,品詞タグ付けなどの前処理は行わず,生のテキストデータを利用して決定リストの学習と評価を行なった.従来手法に関しては,最も良い場合と比較するため,間引きの閾値を変化させて,最も正解率が高くなる値を採用した.本データセットに関しては,最も良い閾値は2であった.また,対数尤度比でのスムージングのパラメータ$\alpha$に関しても0.1きざみで変化させ,最も正解率が高くなる値を採用した.本データセットに関しては,最も良い$\alpha$は0.9であった.表\ref{tab:basic}に結果を示す.表中の数字は正解率を表している.正解率の右側にある括弧内の数字は,先に述べた「期待正解率」との差の絶対値を表している.この値が小さいほど,確率値の推定が正確であることを示している.\begin{table*}\caption{Senseval-1データセットによる評価}\label{tab:basic}\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{l|c|cc|c|cc|cc}\hline&&&&&\multicolumn{2}{c|}{ベイズ}&\multicolumn{2}{c}{ベイズ}\\単語&品詞&\multicolumn{2}{c|}{間引き}&対数尤度比&\multicolumn{2}{c|}{一様分布}&\multicolumn{2}{c}{ベータ分布}\\\hlineaccident&n&85.0\%&(13.6)&85.0\%&83.9\%&(7.8)&89.9\%&(3.2)\\amaze&v&100.0\%&(0.1)&100.0\%&100.0\%&(1.0)&100.0\%&(0.2)\\band&p&86.8\%&(11.4)&84.4\%&84.1\%&(5.9)&87.4\%&(2.6)\\behaviour&n&95.3\%&(4.6)&94.6\%&94.6\%&(2.7)&94.6\%&(3.1)\\bet&n&48.4\%&(30.7)&44.3\%&45.1\%&(27.8)&50.5\%&(9.5)\\bet&v&66.4\%&(26.2)&69.0\%&70.7\%&(10.1)&76.7\%&(2.3)\\bitter&p&44.9\%&(31.9)&49.2\%&49.2\%&(22.2)&51.1\%&(4.0)\\bother&v&76.1\%&(18.8)&78.5\%&78.5\%&(5.5)&78.0\%&(5.1)\\brilliant&a&48.5\%&(33.6)&48.5\%&47.6\%&(24.9)&49.3\%&(11.7)\\bury&v&44.3\%&(34.7)&49.8\%&49.3\%&(22.4)&49.3\%&(10.0)\\calculate&v&88.5\%&(11.0)&86.7\%&86.7\%&(2.6)&86.7\%&(2.8)\\consume&v&43.7\%&(37.1)&42.1\%&42.6\%&(29.1)&42.1\%&(18.3)\\derive&v&55.3\%&(33.1)&53.9\%&54.4\%&(20.8)&64.1\%&(3.5)\\excess&n&79.6\%&(13.8)&81.7\%&81.7\%&(8.9)&81.2\%&(9.7)\\float&n&50.7\%&(38.4)&53.3\%&53.3\%&(21.8)&56.0\%&(5.3)\\float&v&41.5\%&(38.0)&45.4\%&45.0\%&(27.7)&42.8\%&(16.5)\\floating&a&63.8\%&(20.5)&59.6\%&59.6\%&(13.0)&61.7\%&(7.7)\\generous&a&44.1\%&(36.9)&48.9\%&49.3\%&(23.5)&46.7\%&(9.8)\\giant&a&97.9\%&(1.5)&96.9\%&96.9\%&(1.9)&96.9\%&(0.9)\\giant&n&74.6\%&(20.1)&78.8\%&79.7\%&(5.9)&79.7\%&(4.2)\\invade&v&44.4\%&(35.0)&46.4\%&46.9\%&(24.4)&50.2\%&(15.1)\\knee&n&71.3\%&(18.8)&70.5\%&70.9\%&(8.3)&72.9\%&(0.2)\\modest&a&66.7\%&(24.0)&67.0\%&66.3\%&(10.8)&66.3\%&(2.5)\\onion&n&84.6\%&(15.1)&84.6\%&84.6\%&(6.5)&84.6\%&(9.8)\\promise&n&74.3\%&(19.8)&74.3\%&74.3\%&(7.4)&74.3\%&(5.4)\\promise&v&87.5\%&(12.0)&88.4\%&88.4\%&(5.4)&92.9\%&(1.7)\\sack&n&82.9\%&(10.1)&85.4\%&81.7\%&(3.3)&85.4\%&(2.6)\\sack&v&97.8\%&(2.3)&97.8\%&97.8\%&(0.6)&97.8\%&(1.5)\\sanction&p&72.6\%&(21.9)&74.5\%&74.5\%&(7.6)&77.7\%&(2.3)\\scrap&n&42.3\%&(47.6)&41.7\%&41.7\%&(38.7)&45.5\%&(31.8)\\scrap&v&87.6\%&(11.7)&87.6\%&87.6\%&(1.8)&87.6\%&(4.5)\\seize&v&59.5\%&(26.9)&60.6\%&60.2\%&(17.1)&64.5\%&(4.3)\\shake&p&60.1\%&(25.0)&62.1\%&61.2\%&(19.7)&61.2\%&(17.6)\\shirt&n&82.1\%&(13.0)&83.7\%&83.7\%&(3.7)&82.6\%&(2.6)\\slight&a&90.8\%&(8.3)&94.0\%&94.0\%&(0.3)&94.0\%&(0.8)\\wooden&a&93.9\%&(6.1)&93.9\%&93.9\%&(3.1)&93.9\%&(3.9)\\\hline平均&&70.4\%&(20.9)&71.2\%&71.1\%&(12.3)&72.7\%&(6.6)\\\hline\end{tabular}\end{center}\vspace{0.5mm}\begin{flushright}(括弧内の数字は正解率と期待正解率との差)\end{flushright}\end{table*}まず,正解率に関して見ると,間引きの正解率が最も低い.これは,間引きによって重要なルールを捨ててしまっていることが原因だと考えられる.対数尤度比による手法と,事前分布を一様分布としてベイズ学習による手法が,ほぼ同じ正解率である.ただし,ここで注意するべきなのは,対数尤度比による手法では,スムージングのパラメータに関して,正解率が最もよくなるようにチューニングがなされたうえでの結果だということである.事前分布を一様分布としたベイズ学習による手法は,そのようなチューニングを全く必要としないにもかかわらず,それとほぼ同じ正解率を達成している.また,期待正解率と実際の正解率とのずれに関しても,最尤推定(間引き)に比べてかなり小さく,ベイズ学習による推定の有効性を示している.最も正解率が高いのは,他のルールの確率値を利用してベータ分布によって事前分布を構成する手法である\footnote{ただし,本手法で得られた正解率(72.7\%)は,Senseval-1参加システムでの最高正解率(78.9\%)\cite{Yarowsky:Hierarchical}よりも低い.本論文では正解率を追求することが目的ではないため,stemmingや品詞タグ付けなどの前処理を行なっていない.そのような前処理や,\cite{Yarowsky:Hierarchical}のような言語学的知識を利用した決定リストの階層化などを行なえば,正解率を上昇させることは可能だと考えられる.}.これは,適切な事前分布によって,ルールの確率値の推定が正確になり,本当に信頼できるルールが上位に位置するようになったからだと考えられる.そのことを裏付けるように,実際の正解率と期待正解率のずれが,一様分布の場合と比較して半減している.つまり,確率値の推定がそれだけ正確になったということを示している.\subsection{日本語の疑似単語判定の実験}日本語の語義曖昧性解消に関しては,Senseval-1のようなデータセットが公開されていないことから,疑似単語を用いて実験を行なった.疑似単語とは,複数の異なる単語を判定システムの側からは同一の単語にしか見えないようにし,文脈からどの単語であるのかを判定させる手法である.例えば,「銀行」という単語と,「土手」という単語を用いて疑似単語を作ったとすると,判定システムからは,入力文は例えば,\begin{center}...お金をおろしに**へ行く途中...\end{center}\noindentのように見える.**の部分が疑似単語である.そして,文脈から,「銀行」であるのか「土手」であるのかを判定させるというわけである.これは,文脈から多義語の語義の判定を行う多義性解消の問題とかなり似た問題になる.実験に用いる疑似単語に関しては,ベースラインとしての正解率(単純に最も出現頻度の高い単語を選ぶ方法の正解率)が高くならないように,一つの疑似単語を構成する各々の単語の出現頻度がほぼ等しくなるようにして構成した.コーパスとしては,「CD-毎日新聞97年版」をJUMANversion3.6\cite{juman}で形態素解析したものを用いた.事例の数に関しては,各々の疑似単語について,1024の訓練事例,1000のテスト事例を重なりがないようにコーパスからランダムに抽出して,トレーニングとテストを行なった.\begin{table*}\caption{日本語疑似単語による評価}\label{tab:comp}\begin{center}\begin{tabular}{l|c|c|c|c}\hline&&&ベイズ&ベイズ\\疑似単語&間引き&対数尤度比&一様分布&ベータ分布\\\hline政策/テレビ&90.4\%(7.1)&92.4\%&92.0\%(1.5)&92.6\%(2.5)\\大統領/首相&84.9\%(9.9)&90.5\%&88.6\%(0.0)&89.4\%(1.2)\\仕事/言葉/資金/文化&66.2\%(18.8)&72.8\%&71.6\%(9.6)&75.1\%(6.3)\\持つ/含む&83.7\%(13.1)&87.2\%&86.6\%(2.3)&90.3\%(0.9)\\考える/見る/目指す&67.8\%(17.8)&67.6\%&70.5\%(8.4)&73.6\%(2.1)\\入る/示す/開く/進める&73.1\%(15.2)&77.2\%&76.3\%(6.8)&79.3\%(2.8)\\近い/難しい&84.1\%(12.3)&88.5\%&88.6\%(2.0)&90.5\%(0.2)\\新しい/高い/強い&65.7\%(18.2)&68.9\%&68.7\%(10.1)&72.6\%(2.6)\\若い/厳しい/大きい/よい&67.8\%(16.3)&72.8\%&72.0\%(7.8)&77.4\%(1.4)\\\hline平均&76.0\%(14.3)&79.8\%&79.4\%(5.4)&82.3\%(2.2)\\\hline\end{tabular}\end{center}\vspace{0.5mm}\begin{flushright}(括弧内の数字は正解率と期待正解率との差)\end{flushright}\end{table*}\begin{table*}\caption{事前分布の期待値}\label{tab:prior}\begin{center}\begin{tabular}{l|c|c|c}\hline疑似単語&Window&Adjacent&Pair\\\hline政策/テレビ&0.74&0.77&0.82\\大統領/首相&0.67&0.75&0.80\\仕事/言葉/資金/文化&0.54&0.64&0.70\\持つ/含む&0.70&0.82&0.89\\考える/見る/目指す&0.57&0.65&0.68\\入る/示す/開く/進める&0.51&0.54&0.72\\近い/難しい&0.68&0.74&0.85\\新しい/高い/強い&0.54&0.64&0.64\\若い/厳しい/大きい/よい&0.48&0.64&0.71\\\hline\end{tabular}\end{center}\end{table*}従来手法のパラメータに関しては,英語の多義語での実験と同様に,正解率が最も高くなる値を採用した.間引きの閾値に関しては3,対数尤度比のスムージングパラメータ$\alpha$に関しては0.4とした.表\ref{tab:comp}に結果を示す.傾向は,表\ref{tab:basic}に示した英語の多義語での結果とほとんど同じである.最も正解率が悪いのは,間引きによる手法である.一様分布のベイズ学習は,対数尤度比とほぼ同じ正解率を達成している.最も正解率が高いのは,他のルールの確率値を利用してベータ分布によって事前分布を構成する手法である.ここで,事前分布をベータ分布とした場合の,証拠のタイプによる事前分布の違いを見るために,表\ref{tab:prior}に事前分布の期待値を示す.この表からわかるように,事前分布の期待値の傾向は,$Window<Adjacent<Pair$となっている.すなわち,あるルールに関して何もデータがなければ,そのルールがWindowであるよりもAdjacentである方が,さらに,AdjacentであるよりもPairである方が信頼できるということである.これは,より詳細な文脈情報を用いた方が正確な判断ができるという我々の直感とも一致する.また,これらの事前分布に影響によって,最終的な信頼度も全体として,PairやAdjacentのルールが上位に位置することになる.\clearpage \section{おわりに} 本論文では,統計的クラス分類器である決定リストに対して,二つの改善方法を示した.\begin{itemize}\itemベイズ学習によるルール確率値の推定決定リストを作成するにあたって最も重要なことは,ルールの信頼度をどのようにして計算するかということである.本論文では,ベイズ学習の手法を用いることにより,理論的な裏付けのあるスムージングによる計算が可能なことを示した.\item証拠の種類ごとに事前分布を設定することによる精度向上証拠の種類ごとに,他のルールの確率値を利用して事前分布を構成することによって,より正確な確率値の推定ができることを示した.また,その結果,決定リストにおいて,より信頼性の高いルールが上位に位置するようになり,決定リストの分類性能が向上することを示した.\end{itemize}本論文では,ベイズ学習の枠組で証拠の種類ごとに異なった確率値を算出することで,決定リストの性能を向上させることができることを示した.このように,証拠のタイプごとに信頼度の値を変えることで決定リストの性能向上を図った研究として,\cite{新納:複合語}がある.この研究では,決定リストによる同音異義語判別において,複合語からの証拠に重みを付けることで,分類精度の向上を図っている.そこでは,決定リストの信頼度として,式(\ref{eq:yarowsky1})を用い,複合語からの証拠には,信頼度に重み付けのための係数を掛けることで,複合語からの証拠を用いたルールを優先させている.本論文では,証拠の種類ごとに対する異なった重みづけをベイズ推定の枠組における事前分布を使用して行なったと考えることができる.本手法の利点は,どの種類の証拠にどの程度重み付けをするのかを,言語学的な直観に頼ることなく,実際のルールの確率値の分布から事前分布を構成することによって自動的に決定できるという点であるといえる.また,本論文で提案した手法は,決定リストの分類性能を向上させるだけでなく,出力する確率値の推定精度も向上させる.クラス分類器は,大きな自然言語処理システムの構成要素として用いられることも多い.その場合,各構成要素であるクラス分類器の出力は,その後の処理に利用されることになるが,出力された信頼度自体が不正確では,それらを利用する後の処理の性能を低下させる恐れがある.したがって,分類性能だけでなく,分類器の出力確率の精度も向上させる本手法は,そのような場合にさらに有効になる可能性があるだろう.本論文では,似たような性質を持つ他の多くの確率値を利用することで,少ない事例から計算される確率値の精度を高められることを示した.この手法は同様の性質をもつ他の統計的手法に適用できると考えられる.例えば,最大エントロピー法では素性の確率を求める必要がある.最大エントロピー法を利用した多くの研究では,素性の確率値を最尤推定法によって求めているが,その場合,本論文で指摘したような確率値の推定誤差の問題がある.実際には,事例の数が少ない素性を使用しないようにすることが多いためにその問題が顕在化することは少ないが,本論文で示した手法によって,事例の数が少ない素性も利用することで最終的な性能向上につながる可能性もあり,興味深い課題といえる.\bibliographystyle{jnlpbbl}\bibliography{dlbayes}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{鶴岡慶雅(非会員)}{1997年東京大学工学部電気工学科卒業.2002年同大学院博士課程修了.工学博士.同年,科学技術振興事業団研究員,現在に至る.}\bioauthor{近山隆(非会員)}{1977年東京大学工学部計数工学科卒.1982年同大学院工学系研究科情報工学専門課程博士課程修了.工博.(株)富士通,(財)新世代コンピュータ技術開発機構を経て,現在東京大学新領域創成科学研究科基盤情報学専攻教授.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N03-02
\section{はじめに} \label{introduction}ある二つの文について,それぞれの文がどのような意味を持ち,一方の文と他方の文とがどのような意味的関係にあるかという文間の関連性の評価は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.これまでの自然言語処理における文の意味表現の方法は,ベクトル空間モデルが主流である.情報検索においては,単語や文字の出現頻度といった表層的な情報を用いて,統計的機械学習に基づいて文ベクトルを導出する手法が用いられてきた.また,さらに正確な文の意味表現を目指して,単語やフレーズといった構成要素を組み合わせて文の意味を計算するベクトル空間モデル~\cite{Find-similar,mitchell2010composition,DBLP:conf/icml/LeM14}が提案されてきた.近年では,深層学習を用いて高精度で文の意味表現を獲得する手法~\cite{MuellerAAAI2016,hill-cho-korhonen:2016:N16-1}が多く提案されている.これらの手法では,単語ベクトルや文字ベクトルを入力として学習を行い,文ベクトルを獲得しているが,獲得した文ベクトルが否定表現や数量表現などを含む文の意味を正確に表現しているかは自明ではない.たとえば,\textit{Tomdidnotmeetsomeoftheplayers}と\textit{Tomdidnotmeetanyoftheplayers}という文はほとんど単語が共通しており,\textit{some}や\textit{any}といった機能語は通常捨象されるか,ほぼ同じ単語ベクトルとして扱われる.しかし,前者は「\textit{Tom}は選手の何人かとは会わなかった(別の何人かの選手とは会った)」,後者は「\textit{Tom}はどの選手とも会わなかった」という意味を表しており,これらの文の意味の違いを単語や文字からの情報を用いてどのようにして捉えるかが課題となっている.そこで,統語構造を考慮したモデルなど,より高度な意味解析を取り入れたモデルの構築が期待されている.一方で,文の意味を論理式で表現し,論理推論によって高度な意味解析を行う手法~\cite{D16-1242,mineshima2016building,abzianidze:2015:EMNLP,abzianidze:2016:*SEM}は,論理式による意味表現と整合性の高い組合せ範疇文法(CombinatoryCategorialGrammar,CCG)~\cite{Steedman00}による頑健な統語解析の発展に伴い,近年研究が進められている.論理推論を用いた手法は,文ペアに対して一方の文を他方の文が内容的に含意しているかどうかを判定する含意関係認識のタスクで高精度を達成しており,様々な自然言語処理タスクへの応用が期待されている.一方で,論理推論を用いた手法は元来厳密な手法であり,部分的・段階的な含意関係や類似関係を扱うことが困難である.そこで本研究では,機械学習と論理推論とを組み合わせることで,柔軟かつ正確に文の関連性を学習する方法を検討する.具体的には,文の意味を論理式で表現し,2文間の双方向の含意関係について自然演繹による推論を試み,推論の過程と結果を抽出する.このとき,必要に応じて,文間の意味的関係を正しく判定するために必要な語彙知識を公理として追加して推論を試みる.語彙知識の利用によって文間の意味的関係が判定できれば,純粋な論理推論だけでは意味的関係を判定できない文ペアにおいても,部分的な推論過程から文の関連性を示す情報を抽出することが可能となる.抽出した推論の過程と結果に関する情報を用いて,文の関連性を学習する. \section{関連研究} \label{related}文の意味表現を獲得し,文の関連性を学習する手法はこれまでに幅広く研究されている.特に,文の意味は文を構成する部分の意味から合成されるという構成性の原理に基づいて,単語ベクトルの加法と乗法を用いて文の意味を表現する手法~\cite{mitchell-lapata:2008:ACLMain,mitchell2010composition}が提案された.しかし,この手法には,単語の出現順序が捨象されてしまうという問題があった.そこで,述語や機能語を高階テンソル,名詞をベクトルで表現し,縮約を用いて文の意味を計算するCategoricalCompositionalDistributionalSemanticModel~\cite{ClarkCoeckeSadrzadeh2011,grefenstette-sadrzadeh:2011:EMNLP,kartsaklis-kalchbrenner-sadrzadeh:2014:P14-2,kartsaklis-sadrzadeh:2016:COLING}が提案されている.しかし,これらの手法では比較的単純な構造の文のみを対象としており,否定や条件などの機能的な表現をどのように扱いうるかは明らかではない.近年では,深層学習の手法を用いた文の意味表現に関する研究が活発に進められている.文間類似度学習タスクでは,単語ベクトルと類義語ベクトルから双方向型LSTMを用いて文の意味表現を学習するモデル~\cite{MuellerAAAI2016}が提案されており,最高精度を記録している.また,構文木に沿って文の意味表現を再帰的に構築するTree-LSTMを用いたモデル~\cite{tai-socher-manning:2015:ACL-IJCNLP,zhou2016sentpair}や,LSTMを用いて文脈全体の意味を学習したのちに,CNNを用いて各文の局所的な特徴を学習するモデル~\cite{He2016PairwiseWI}など,より文の構造を考慮した深層学習のモデルが提案されている.しかし,深層学習によるアプローチは大量の文を入力としてend-to-endで文の意味表現を学習するため,内容語と機能語の意味をどのように区別して扱っているのかは明らかではない.一方で,論理推論によるアプローチは個々の文について意味解析を行い,直接的に文の意味表現(論理式)を獲得する.ここでの意味解析は理論言語学の知見に基づくものであり,内容語と機能語の意味を区別して扱う.文を論理式に変換し,論理推論を用いて文間の意味的関係を判定する手法には大きく分けて2つの手法が提案されている.1つは,論理推論のみを用いていわゆる教師なし学習で文間の意味的関係を判定する手法である.具体的には,タブローを用いた手法~\cite{abzianidze:2015:EMNLP,abzianidze:2016:*SEM}や,自然演繹を用いた手法~\cite{D16-1242,mineshima2016building}が提案されている.これらの手法は,文を一階述語論理式よりも表現力の高い高階述語論理式で表現し,効率的な自然言語推論を実現することによって,含意関係認識のタスクで高精度を達成している.一方で,文間類似度の計算といった,よりソフトな推論への適用が課題となっている.もう1つの手法は,統計的機械学習と,論理推論とを組み合わせて,教師あり学習で意味的関係を判定する手法である.この手法では,論理推論で得られた結果を機械学習や確率モデルを用いて近似することで,ソフトな推論を実現している.Bjervaらは,分散表現から導出した文中の単語間類似度と,一階述語論理による推論を用いて判定した含意関係とをそれぞれ特徴量に用いて,文間類似度や含意関係を学習する手法を提案している~\cite{bjerva:semeval14}.また,Beltagyらは,ProbabilisticSoftLogicによる類似度学習方法を提案している~\cite{beltagy:semeval14}.ProbabilisticSoftLogicでは,文を一階述語論理式に変換し,含意関係を満たす度合いとして単語の分散表現を用いて一方の文と他方の文との論理式間の重みを計算する.この重みを特徴量として,加法回帰モデルを用いて文間類似度を予測している.これらの先行研究から,推論による文間の含意関係の判定結果や論理式は文の言語的な情報を良質な形式で表現しているため,文間類似度学習に有用な情報であることが示唆されている.しかし,先行研究で学習に利用している推論に関する情報は,推論の判定結果(文間の意味的関係が含意・矛盾・不明のいずれであるか)や,2つの文において共通する論理式の割合にとどまっており,これらは推論から得られる情報のほんの一部でしかない. \section{提案手法} \label{method}\subsection{提案手法の全体像}\label{overall}本研究では文の意味を文間の含意関係に基づいて規定する証明論的意味論(Bekkiand\linebreakMineshima2017)\nocite{BekkiMineshima2016Luo}の観点から,文間の双方向の含意関係の証明を介して文間の関連性を計算する手法を提案する.一方の文と他方の文との関連が低いほど,2文間の含意関係を証明するにはより多くの公理生成や推論規則の適用が必要となり,証明の過程が複雑になる.したがって,証明の結果だけではなく,含意関係を判定するまでの証明の実行過程も,文間の関連性の評価に有用なはずである.一方の文を前提,他方の文を結論とみなして,前提から結論を導く推論の手法である{\bf自然演繹}~\cite{prawitz1965natural}に基づく証明では,証明の実行過程を分析することが可能である.そこで提案手法では,2文間の双方向の含意関係について自然演繹による証明を試み,証明の実行過程から文間の関連性を表現する特徴量を導出する.\begin{figure}[b]\begin{center}\includegraphics{25-3ia2f1.eps}\end{center}\caption{提案手法の全体像}\label{fig:1}\end{figure}提案手法の全体像を図~\ref{fig:1}に示す.提案手法ではまず,自然言語の英文のペア$A,B$を入力として,CCGパーザによる統語解析によって,$A,B$をCCGの導出木に変換する.次に,ラムダ計算に基づく意味合成によって,CCGの導出木から高階述語論理式$A',B'$に変換する.次に,定理証明器を用いて,2つの論理式$A',B'$の双方向の含意関係について,自然演繹による証明を試みる.文から論理式への変換と文間の含意関係の証明には,ccg2lambda~\cite{martinezgomez-EtAl:2016:P16-4}を用いる.ccg2lambdaは,CCGに基づく統語解析の結果を用いて文の意味を高階述語論理式で表現し,文間の含意関係について自動推論を行う統合的システムである.各入力文に対して,CCGの導出木と意味表示を出力し,また,文ペアに対しては含意関係の判定結果を出力する.本研究では文間の含意関係の証明の実行過程を取得できるようにccg2lambdaを改良した\footnote{改良したシステムはhttps://github.com/mynlp/ccg2lambdaにて公開している.}.このccg2lambdaが導出した文間の含意関係の証明の実行過程と判定結果を用いて,文間の関連性に関する特徴量を設計する.最後に,ランダムフォレストを用いて,文間類似度学習では回帰分析,含意関係認識では含意・矛盾・不明の3値分類を行う.次節以降で,各手順の詳細を述べる.\subsection{CCGに基づく意味表現}\label{ccg}まず,CCGパーザによる統語解析によって,英語の自然言語文をCCGの導出木に変換する.CCGは語彙化文法の一つであり,統語構造から合成的に意味表示を導出することに適した文法体系である.CCGでは,基本的な統語範疇として,$N$(普通名詞),$NP$(名詞句),$S$(文)等の基底範疇が定義されている.また,複合範疇は基本範疇と二項演算子$/,\backslash$の組み合わせによって定義される.CCGは語の統語範疇と意味表示を記述する辞書と,語から句や文を構成する際の統語構造と意味合成の計算方法を指定する少数の組合せ規則から成り立つ.図~\ref{fig:2}に提案手法に用いるCCGの代表的な組合せ規則を示す.たとえば,関数適用規則$(>)$を適用することによって,$X/Y$という形の統語範疇および意味$f$をもつ語は,その右側にある$Y$という形の統語範疇および意味$a$をもつ語と結びつき,$X$という統語範疇および意味$fa$をもつ句が形成される.\begin{figure}[b]\begin{center}\includegraphics{25-3ia2f2.eps}\end{center}\hangcaption{CCGの代表的な組合せ規則.関数適用規則($<,>$),関数合成規則($>\mathbf{B},<\mathbf{B}$),交差関数合成規則($>\mathbf{B}_\times,<\mathbf{B}_\times$)}\label{fig:2}\end{figure}CCGの導出木から文の意味表示である高階述語論理式への変換は,ラムダ計算に基づいて行われる.語の意味はラムダ項によって表現され,組合せ規則によってラムダ項の意味合成を行い,文の意味表示となる論理式を導出する.提案手法では,Neo-DavidsonianEventSemantics~\cite{Parsons90}に基づく意味表示を採用する.たとえば,他動詞文(\ref{transitive}a),量化文(\ref{some-ev}a),否定量化文(\ref{no-ev}a)はそれぞれ次のように分析される.\begin{exe}\ex\label{transitive}\begin{xlist}\exBobsurprisedSusan.\ex$\existse(\LF{surprise}(e)\wedge(\LF{subj}(e)=\LF{bob})\wedge(\LF{dobj}(e)=\LF{susan}))$\end{xlist}\ex\label{some-ev}\begin{xlist}\exSomewomenaresingingloudly.\ex$\existsx(\LF{woman}(x)\wedge\existse(\LF{sing}(e)\wedge(\LF{subj}(e)=x)\wedge\LF{loudly}(e)))$\end{xlist}\ex\label{no-ev}\begin{xlist}\exNowomenaresingingloudly.\ex$\neg\existsx(\LF{woman}(x)\wedge\existse(\LF{sing}(e)\wedge(\LF{subj}(e)=x)\wedge\LF{loudly}(e)))$\end{xlist}\end{exe}Neo-DavidsonianEventSemanticsでは,動詞をイベントを項に持つ1項述語として分析し,副詞や前置詞などの修飾表現をイベントを項に持つ述語として扱う.そのため,(\ref{some-ev}a)や(\ref{no-ev}a)の\textit{loudly}のような修飾表現を含む文も統一的に記述できるという利点がある.また,ここで採用する方法では,$x$が表す項がイベント$e$を表す動詞に対して主語の関係にあることを$\LF{subj}(e)=x$,$x$が表す項がイベント$e$を表す動詞に対して直接目的語の関係にあることを$\LF{dobj}(e)=x$のように表すことで,動詞の必須格にイベントを項にとる関数を対応させる.このため,個々の動詞の必須格と非必須格の境界を定める必要がないという点で,従来のDavidsonian形式~\cite{Davidson67}よりも柔軟な意味表現となっている.さらに,動詞をイベントに対する1項述語として統一的に扱うことで,動詞に関する公理もまた統一的に記述することが可能となり,自然言語の推論により適した表現形式となっている.なお,項とイベントとの関係(意味役割)については様々な分類手法が提案されている~\cite{culicover1984,Jackendo1990}が,本稿では英語CCGBank~\cite{ac4bfc92bbc447d9b2382f4513b2520d}に基づくCCGの解析結果から確認できる項とイベントの関係を意味表示に反映する\footnote{一例として,\textit{Atreeiscutbyaman}のような受動態を含む文の場合は,CCGの統語解析の結果から受動態であることを判別できるため,意味解析の結果得られた主語,すなわち,\textit{aman}はcutが表すイベントに対して主語の関係をもつ項とみなされる.}.本論文では,$\LF{subj}(e)=x$,$\LF{dobj}(e)=y$のようなイベントに関する機能的な関係を表す論理式を{\bf機能論理式}と呼び,内容語を担う情報を表す$\LF{sing}(e)$,$\LF{loudly}(e)$のような論理式を{\bf内容論理式}と呼ぶことで区別する.辞書では,統語範疇単位で意味を指定する意味割り当てのテンプレートと,量化や否定表現などの論理語・機能語に対して語単位で意味を指定する語彙項目の2種類を使用する.文の意味表現を合成的に与えるにあたって,イベントの量化をどのようにして正しく扱うかという問題がある.量化名詞句や否定を含む文では,一般的にイベントの存在量化よりも量化名詞句や否定が広いスコープをとることが知られている.そこで本論文では,先行研究~\cite{champ2015,mineshima2016building}に従い,動詞自体をイベントの量化を導入する表現として扱う.また,副詞等の修飾表現は,動詞によって導入された存在量化子のスコープ内に出現しなくてはならない.そこで,動詞の型を繰り上げ,動詞が修飾表現を項にとるように扱う.以上の分析に従ったCCG導出木の具体例として,文(\ref{no-ev}a)のCCG導出木を図~\ref{fig:nowomen}に示す.ここで,$\top$はトートロジーに対応する命題定項であり,$\top$の挿入は意味合成の過程で必要となる操作である~\cite{D16-1242}.最終的に導出された論理式は(\ref{no-ev}b)の論理式と同値である.\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f3.eps}\end{center}\caption{\textit{Nowomenaresingingloudly.}のCCG導出木と意味表示}\label{fig:nowomen}\end{figure}ccg2lambdaの先行研究~\cite{EACL2017}では,複数のCCGパーザを組み合わせて統語解析に用いることによって,構文的曖昧性が解消され,含意関係の推論精度が向上したことが報告されている.提案手法ではC\&C~\cite{clark2007wide},EasyCCG~\cite{Lewis14a*ccg},depccg~\cite{yoshikawa-noji-matsumoto:2017:Long}という3種類のCCGパーザを用いて統語解析を行う.得られた3種類のパーズ結果を用いて意味合成と推論を行い,適切なパーズ結果を選択する.含意関係の正解ラベルが付与されたデータセットによる評価においては,トレーニングデータから特徴量を抽出する際に,含意関係の正解ラベルと同じ結果を導出するパーズ結果を優先して採用する.正解ラベルと同じ結果を導出できたパーズ結果が存在しなければ,統語解析に成功した結果を優先して採用する.含意関係の正解ラベルが存在しないデータセットによる評価では,統語解析に成功した結果を優先して採用する.また,複数のCCGパーザの結果において,含意関係の判定結果(yes,no,unknownのいずれか)が得られた場合は,より正確なパーズ結果を採用するため,パーザの精度が高い順に,depccg,EasyCCG,C\&Cの順に優先してパーズ結果を採用する.\subsection{自然演繹による証明戦略の概要}\label{strategy}本節では,提案手法で用いる自然演繹による証明戦略の概要について述べる.文間の含意関係とは一方の文の情報が他方の文の情報を含むという関係であり,方向性を持った関係であるが,類似関係は方向性を持たない対称的な関係である.よって,「$A$ならば$B$」が成り立つか否かという一方向の含意関係ではなく,「$A$ならば$B$」「$B$ならば$A$」がそれぞれ成り立つか否かという双方向の含意関係の証明を試みることによって,文間の関連性に関してより多くの情報が取得できると考えられる.そこで,本研究では文$A,B$間の双方向の含意関係の証明を介して,文$A,B$間の関連性を表す特徴を獲得する.文間の含意関係の証明には,高階論理・型理論に基づく定理証明器であるCoq~\cite{opac-b1101046}を用いる.Coqは自然演繹に基づいて推論規則を適用し,証明を行う.また,Ltacという記述言語を用いて証明探索の手続きを定義することによって,証明の自動化が可能である.ccg2lambdaはCoqの一階述語論理の部分系に対する自動推論を含む自動証明機能と,高階の公理とを組み合わせることで,自然言語の効率的な推論を可能にしている.提案手法で用いる文間の含意関係の証明の全体的な流れは次の通りである.まず,文$A,B$を論理式$A',B'$に変換し,一方の文を証明に用いる{\bf前提},他方の文を証明対象である{\bf結論}({\bfゴール})とみなして,$A'\RightarrowB'$,$B'\RightarrowA'$の証明を行う.証明に失敗した場合は,結論を否定した$A'\Rightarrow\negB'$,$B'\Rightarrow\negA'$の証明を行う.これは結論の否定が証明可能な場合は,結論も結論の否定も証明不可能な場合と比較して,論理式が共通の部分を多く含み,文間の関連度が高くなることを考慮している.実際に,評価に用いる文の意味的類似度データセットであるSemEval2014Task1のSentencesInvolvingCompositionalKnowledge(SICK)~\cite{MARELLI14.363}では,含意関係の正解ラベルが「矛盾」である文ペアの7割において,正解の類似度スコアが高く設定されている.結論の証明,結論の否定の証明の両方に失敗した場合は,前提のプールにある論理式からは導くことができない論理式({\bfサブゴール})が結論中に残っていることを意味する.そこで次に,前提のプールにある論理式と証明できないと判定されたサブゴールとの述語間の意味的関係について,語彙知識を用いてチェックし,公理の生成を試みる.生成した公理を用いて再度$A'\RightarrowB'$,$B'\RightarrowA'$の証明を試みる.$A'\RightarrowB'$,$B'\RightarrowA'$の証明に失敗した場合は,生成した公理を用いて結論を否定した$A'\Rightarrow\negB'$,$B'\Rightarrow\negA'$の証明を試みる.公理を生成しても,結論と結論の否定の両方の証明に失敗した場合は,$A'\RightarrowB'$,$B'\RightarrowA'$の証明の途中で証明不可能と判定されたサブゴールをスキップして,強制的に証明を終了させる.ここまでの推論における,生成した公理に関する情報や,強制的にスキップしたサブゴールの情報といった推論の情報をCoqの出力結果から抽出し,文間の関連性を表す特徴量として利用する.\subsection{含意関係の証明}\label{entail}含意関係の証明の例として,以下の2つの文$A,B$間の含意関係について,自然演繹による証明を試みる.$A$:\textit{Amanissinginginabar.}$B$:\textit{Amanissinging.}\noindent文$A,B$は統語解析,意味解析を経て,以下のような論理式$A',B'$に変換できる.\begin{align*}&A':\existse_1x_1x_2(\LF{man}(x_1)\wedge\LF{sing}(e_1)\wedge(\LF{subj}(e_1)=x_1)\wedge\\LF{bar}(x_2)\wedge\LF{in}(e_1,x_2))\\&B':\existse_1x_1(\LF{man}(x_1)\wedge\LF{sing}(e_1)\wedge(\LF{subj}(e_1)=x_1))\end{align*}まず,$A'\RightarrowB'$について,自然演繹による証明を試みる.ここで,論理式$A',B'$は推論規則を適用することによって分解することができる.図~\ref{InferenceRules}に本研究で用いる推論規則の例を示す.自然演繹の推論規則には導入規則と除去規則の2つがある.導入規則は結論をどのように証明するかを指定するための規則である.除去規則は前提をどのように証明に利用するかを指定するための規則であるが,主に前提のプールにある論理式をより小さい論理式に分解するために用いられる.\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f4.eps}\end{center}\hangcaption{自然演繹の証明で用いる推論規則の例.$P,P_1,\ldotsP_n$は前提の論理式,$G,G_1,G_2$は結論(ゴール)の論理式を表す.いずれの推論規則においても,規則適用前の論理式は矢印の上部に,規則適用後の論理式は矢印の下部に示す.}\label{InferenceRules}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f5.eps}\end{center}\caption{2文間の含意関係の証明プロセスの例}\label{ProcessEntail}\end{figure}$A'\RightarrowB'$の証明プロセスを図~\ref{ProcessEntail}に示す.図~\ref{ProcessEntail}において,論理式$A'$は前提$P_0$,論理式$B'$は結論$G_0$に配置される.$P_0$と$G_0$は除去規則({\small$\wedge$-\textsc{Elim},$\exists$-\textsc{Elim}})と導入規則({\small$\wedge$-\textsc{Intro},$\exists$-\textsc{Intro}})の適用によって,前提の集合$\mathcal{P}=\setof{P_2,P_3,P_4,P_5,P_6}$とサブゴールの集合$\mathcal{G}=\setof{G_2,G_3,G_4}$に分解される.証明はサブゴール$G_j$と述語と項が一致する前提$P_i$を探索する形で進められ,マッチする前提が見つかればそのサブゴールを解決できる.全てのサブゴールが解決できれば$A'\RightarrowB'$の証明が示せたことになる.この例では,サブゴール$G_2,G_3,G_4$と前提$P_2,P_3,P_4$の述語と項がそれぞれマッチし,全てのサブゴールが解決できるため,公理を生成せずに$A'\RightarrowB'$を示すことができる.次に,図~\ref{ProcessEntail}の前提$P_0$と結論$G_0$を逆転させて,$B'$を証明の前提,$A'$を証明の結論とみなし,$B'\RightarrowA'$の証明を試みる.先ほどと同様に,推論規則の適用によって,前提の集合$\mathcal{P}$とサブゴール$\mathcal{G}$の集合を得ることができる.\begin{align*}\mathcal{P}&=\{P_2:\mathbf{man}(x_1),\,P_3:\mathbf{sing}(e_1),\,P_4:\mathbf{subj}(e_1)=x_1\}\\\mathcal{G}&=\{G_2:\mathbf{man}(x_1),\,G_3:\mathbf{sing}(e_1),\,G_4:\mathbf{subj}(e_1)=x_1,\,G_5:\mathbf{bar}(x_2),\,G_6:\mathbf{in}(e_1,x_2))\}\end{align*}この場合,2つのサブゴール$G_5,G_6$は前提のプールにあるどの論理式ともマッチしないため,解決できずに残り,$B'\RightarrowA'$の証明に失敗する.そこで次に,語彙知識からの公理生成を試みる.しかし,この場合は残っているサブゴールの述語$\LF{bar}(x_2)$の項$x_2$をシェアする述語が前提$\mathcal{P}$中に存在しないため,公理を生成することができない.そのため,このような例からも部分的な証明プロセスの情報をCoqから取得するため,本研究では解決できなかったサブゴール$\LF{bar}(x_2),\LF{in}(e_1,x_2)$をスキップして,強制的に$B'\RightarrowA'$の証明を終了させる.\subsection{矛盾関係の証明}\label{contra}矛盾関係の証明について述べる上で,まず否定の推論規則について説明する.否定の基本的な含意関係は,論理式$A$の否定$\negA$を,命題定項\LF{False}を用いて,$A\to\LF{False}$($A$が偽を含意する)と定義することで捉えることができる.この定義に従って,否定の推論規則は図~\ref{NegationRule}に示す規則を用いる.否定の導入規則($\neg$-\textsc{Intro})は,もしゴールの論理式が$\neg\mathcal{A}$という形であれば,$\mathcal{A}$を新たに前提に加えて,矛盾(\LF{False})の証明を試みるという形をとる.一方,否定の除去規則($\neg$-\textsc{Elim})は,前提に$\neg\mathcal{A}$という形の論理式があり,ゴールが矛盾(\LF{False})であるとき,ゴールを$\mathcal{A}$に更新しこの新たなゴールの証明を試みる,というものである.\begin{figure}[b]\begin{center}\includegraphics{25-3ia2f6.eps}\end{center}\caption{否定の推論規則}\label{NegationRule}\end{figure}矛盾関係の証明の例として,以下の2つの文$A,B$間の矛盾関係について,自然演繹による証明を試みる.$A$:\textit{Nomanissinging.}$B$:\textit{Thereisamansingingloudly.}\noindent図~\ref{ProveContra}に矛盾関係の証明プロセスを示す.文$A,B$は論理式$A',B'$に変換後,前提$P_0,P_1$にそれぞれ配置され,結論$G_0$には\LF{False}が配置される.否定の除去規則$\neg$-\textsc{Elim}を$P_0$に適用することによって,ゴールは$G_1$に更新される.ここで,除去規則を適用することによって,前提$P_1$は前提の集合$P_2,P_3,P_4,P_5$に分解される.同様に,導入規則を適用することで,ゴール$G_1$はサブゴールの集合$G_2,G_3,G_4$に分解される.全てのサブゴールが前提とマッチするため,文$A,B$の矛盾関係,すなわち,$A'\Rightarrow\negB'$を示すことができる.\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f7.eps}\end{center}\caption{\label{ProveContra}2文間の矛盾関係の証明プロセスの例}\end{figure}\subsection{語彙知識を用いた公理の生成}\label{axiom_injection}本節では,自然演繹の推論に用いる公理の具体的な生成手順について述べる.まず,証明の途中で証明不可能と判定されたサブゴールに関して,前提と結論で同じ項をシェアしている述語を生成する公理の候補として絞り込む.さらに,同じ項をシェアしている述語の中でも,項の格が同じである述語について優先して公理を生成する.公理生成を導入した証明の例として,以下の2つの文$A,B$間の含意関係の証明を考える.$A$:\textit{Akittenplaysinahousecoloredingreen.}$B$:\textit{Ayoungcatplaysinagreenhouse.}\noindent文$A,B$は統語解析,意味解析を経て,以下のような論理式$A',B'$に変換できる.\begin{align*}&A':\existse_1e_2x_1x_2x_3(\LF{kitten}(x_1)\wedge\\LF{play}(e_1)\wedge\(\LF{subj}(e_1)=x_1)\\&\qquad\wedge\\LF{house}(x_2)\wedge\\LF{color}(e_2)\wedge\(\LF{dobj}(e_2)=x_2)\wedge\\LF{in}(e_1,x_2)\wedge\\LF{green}(x_3)\wedge\\LF{in}(e_2,x_3))\\&B':\existse_1x_1x_2(\LF{young}(x_1)\wedge\\LF{cat}(x_1)\wedge\\LF{play}(e_1)\wedge\(\LF{subj}(e_1)=x_1)\\&\qquad\wedge\\LF{green}(x_2)\wedge\\LF{house}(x_2)\wedge\\LF{in}(e_1,x_2))\end{align*}これら2つの論理式$A',B'$について,$A'$を証明の前提,$B'$を証明の結論(ゴール)とみなし,公理生成を行わずに$A'\RightarrowB'$の証明を試みる.図~\ref{ProcessEntail}と同様に$A'\RightarrowB'$の含意関係の証明を進めると,下記のような前提の集合$\mathcal{P}$とサブゴール$\mathcal{G}$の集合が得られる.このステップでは,存在量化子が除去され,$A'$,$B'$に共通する述語については,変数の単一化が起こっている.\pagebreak\begin{align*}\mathcal{P}&=\{P_1:\LF{kitten}(x_1),\P_2:\LF{play}(e_1),\P_3:\LF{subj}(e_1)=x_1,\P_4:\LF{house}(x_1),\\&\qquadP_5:\LF{color}(e_2),\P_6:\LF{dobj}(e_2)=x_2,\P_7:\LF{in}(e_1,x_2),\P_8:\LF{green}(x_3),\P_9:\LF{in}(e_2,x_3)\}\\\mathcal{G}&=\{G_1:\LF{young}(x_1),G_2:\LF{cat}(x_1),G_3:\LF{green}(x_2)\}\end{align*}この例では,$\LF{young}(x_1),\LF{cat}(x_1),\LF{green}(x_2)$という3つのサブゴールが残り,証明に失敗する.ここで,前提中の論理式$\LF{kitten}(x_1)$と共通の項$x_1$をシェアしているサブゴール$\LF{young}(x_1),\LF{cat}(x_1)$が生成する公理の候補となる.語彙知識から\textit{youngcat}と\textit{kitten}間の意味的関係が確認できれば,\textit{youngcat}と\textit{kitten}間に関する公理を生成でき,生成した公理を利用することで,これら2つのサブゴールを解決できる.なお,証明に用いた公理の数や確信度はのちに文間の関連性を学習するための特徴量として使用するが,$\forallx.\LF{kitten}(x)\Rightarrow\LF{young}(x)$,$\forallx.\LF{kitten}(x)\Rightarrow\LF{cat}(x)$のように,複数のサブゴールに関して同じ前提から導出した公理については,まとめて1つのフレーズの公理とみなす.また,残りのサブゴール$\LF{green}(x_2)$については,述語の表層形が同一である論理式$\LF{green}(x_3)$が前提中に存在するが,項は一致していない.このように,サブゴールに残っている述語と表層形が完全に一致する述語が前提中に含まれる場合に限り,例外的に,述語の型や項が異なっていても公理を生成して証明に用いる.本研究では公理生成に用いる語彙知識として,WordNet~\cite{Miller:1995:WLD:219717.219748}と,Word2Vec~\cite{NIPS2013_5021}で学習した単語ベクトルを用いる.まず,WordNetを用いて形態変化,派生形,同義語,反意語,上位語,類似性,下位語の順に,前提と結論中の述語間の意味的関係をチェックし,いずれかの関係にマッチした場合は確信度つき公理を生成する.WordNetに述語間の関係が存在しない場合は,Word2Vecで学習した単語ベクトルを用いて前提と結論中の述語間の類似度を計算し,やはり確信度つきの公理を生成する.本研究では,GoogleNewsCorpus(約30億語)で学習済みの200次元の単語ベクトルを語彙知識に用いる.ここで,公理の確信度には,述語間の類似度を採用し,生成された公理の中で確信度が最も高い公理を証明に採用する.また,確信度が閾値よりも低い公理は意味的関係が低い公理であるとみなして採用しない.公理の確信度はいずれも0.0から1.0の範囲の値をとり,本研究では公理の確信度の閾値を0.25とする.WordNetを用いて公理を生成した場合は,述語間に共通する上位概念への最短経路の長さを公理の確信度とし,Word2Vecを用いて公理を生成した場合は,Word2Vecのコサイン類似度を公理の確信度とする.\subsection{証明に基づく特徴量の導出}\label{logic}ここまでの自然演繹の証明の実行過程と結果に関する情報から,計9種類の特徴量を導出する.いずれも0.0から1.0の範囲の値に正規化する.\begin{itemize}\item公理の数と公理の確信度証明に利用した公理の数と確信度をそれぞれ特徴量に用いる.複数の公理を生成した場合は,導入した各公理の確信度の平均を公理の確信度の特徴量として採用する.また,公理を1つも利用しなかった場合は,公理の確信度の特徴量を1.0とする.\item証明可能なサブゴールの数の割合証明可能なサブゴールの数の割合が高いほど文間の関連度が高くなると仮定して,$n/m$($m$:前提のプールに現れる論理式の数,$n$:証明でスキップしなかったサブゴールの数)を特徴量として導出する.ここで,サブゴールとして残る論理式には$\LF{bar}(x_2)$のような内容論理式と,$\LF{subj}(e_1)=x_1$のような機能論理式の2種類がある.そこで,内容論理式と機能論理式のそれぞれについてサブゴールの数の割合を計算し,それぞれ別の特徴量とした.また,公理生成による証明を試みた場合は,証明可能なサブゴールの割合は公理生成の前後によって変わるため,公理生成前と公理生成後のそれぞれについてサブゴールの数の割合を計算し,それぞれ別の特徴量とした.\item証明不可能なサブゴールの項の関係文の主語や目的語が異なると,修飾語が異なる場合よりも文間の関連度が低くなると仮定して,証明不可能と判定されたサブゴールの項とイベントの関係をチェックする.本研究では,内容論理式中の主語($\LF{subj}$),直接目的語($\LF{dobj}$),間接目的語($\LF{iobj}$)をチェック対象とする.証明不可能と判定された全てのサブゴールにおける当該サブゴールの割合を特徴量として導出する.\item証明のステップ数証明が簡潔であるほど文間の関連度が高くなると仮定して,自然演繹の証明図の推論ステップ数を特徴量に用いる.\item推論規則の適用回数証明において推論規則の適用回数が多いほど証明が複雑になり,文間の関連度が低くなると仮定して,全推論規則の適用回数における各推論規則の適用回数の割合を特徴量に用いる.提案手法では図~\ref{InferenceRules}に示した連言の除去規則と導入規則($\wedge$-\textsc{Elim},$\wedge$-\textsc{Intro}),含意の除去規則と導入規則($\to$-\textsc{Elim},$\to$-\textsc{Intro}),存在量化の除去規則と導入規則($\exists$-\textsc{Elim},$\exists$-\textsc{Intro}),等号の除去規則($=$-\textsc{Elim})という計7種類の推論規則を対象とする.\item証明の結果結論が証明可能か,結論の否定が証明可能か,結論も結論の否定も証明不可能かチェックし,それぞれ該当する場合は1.0,該当しない場合は0.0を特徴量とする.\item前提と結論における述語の一致率前提と結論との間で述語が一致しているほど,文間の意味的関係を証明できる可能性が高いことを考慮して,前提と結論で述語が一致している割合を特徴量に用いる.\item前提と結論における型の一致率前提と結論との間で論理式の型が一致しているほど,文間の意味的関係を証明できる可能性が高いことを考慮して,前提と結論で型が一致している割合を特徴量に用いる.\item否定演算子の有無前提と結論のどちらか一方だけに否定演算子($\neg$)が含まれる場合と,両方に含まれる,または,どちらにも含まれない場合とでは,前者の方が文間の関連度が低くなると仮定して,前者の場合は0.0,後者の場合は1.0として特徴量に用いる.\end{itemize}\subsection{表層情報と外部知識から導出した特徴量の設計}\label{nonlogic}提案手法では学習精度を向上させるため,表層情報と外部知識から導出した特徴量を自然演繹の証明に基づく特徴量と組み合わせて用いる.表層情報と外部知識から導出した特徴量は10種類の特徴量を用いる.特徴量はいずれも0.0から1.0の範囲の値に正規化する.\begin{itemize}\item品詞の一致率文中の各単語の品詞(本研究で使用する品詞はPennTreebank品詞体系に準ずる)をC\&CPOStagger~\cite{curran2003investigating}を用いてチェックし,2文間において単語の品詞が一致する割合を特徴量に用いる.\item名詞の一致率文中の名詞をレンマ化し,2文間の名詞が一致する割合を特徴量に用いる.\item動詞の一致率文中の動詞をレンマ化し,2文間の動詞が一致する割合を特徴量に用いる.\item文字列の類似度{\slDifflib}\footnote{\texttt{https://docs.python.org/3.5/library/difflib.html}}を用いて文字列の類似度を計算し,計算結果を特徴量に用いる.\item同義語集合の一致率2文中の全ての単語について,同義語集合をWordNetを用いてチェックし,2文間の同義語集合の一致率を特徴量に用いる.\item概念間の距離一方の文と他方の文の全ての単語間について,単語間類似度をWordNetの概念間の距離を用いて導出し,概念間の距離の平均を特徴量に用いる.\item文の長さ2文間の文字数の差と,2文間の文字数の平均を特徴量に用いる.\itemベクトル空間モデルにおけるコサイン類似度TF/IDFベクトル間のコサイン類似度,latentsemanticanalysis(LSA)~\cite{LSA}ベクトル間のコサイン類似度,latentDirichletallocation(LDA)~\cite{LDA}ベクトル間のコサイン類似度をそれぞれ特徴量に用いる.各ベクトルの次元は200次元とする.\itemCCG導出木のマッピングコスト文ペアの導出木の形が似ていないほど,一般的には文間の関連度が低くなることが見込まれる.そこで,文ペアのCCG導出木の各ノード間の対応度合い(CCG導出木のマッピングコスト)を計算する手法~\cite{martinezgomez-miyao:2016:EMNLP2016}を用いて,マッピングコストを計算する.このマッピングコストを文ペアの導出木のノード数合計で除算した値を特徴量に用いる.\item受動態表現の有無前提と結論のどちらか一方だけに受動態表現が含まれる場合と,両方に含まれる,または,どちらにも含まれない場合とでは,前者の方が類似度が低くなると仮定して,一方の文と他方の文の受動態表現の有無をチェックし,前者の場合は0.0,後者の場合は1.0として特徴量に用いる.\end{itemize}\subsection{文の関連度学習}\label{model}導出した特徴量を用いて,文の意味類似度と含意関係を予測する.本研究では,ロジスティック,SVM,ランダムフォレストという3種類の学習モデルで事前学習を行った結果,文の意味類似度学習はランダムフォレスト回帰,含意関係認識ではランダムフォレスト分類を学習モデルとして採用する.ハイパーパラメータはグリッドサーチを用いて最適化する. \section{実験} \label{experiment}\subsection{データセット}\label{dataset}文の意味的類似度と含意関係認識の評価用データセットであるSemEval2014Task1SICKデータセット~\cite{MARELLI14.363}と,文の意味的類似度の評価用データセットであるSemEval2012MSR-videoデータセット~\cite{semeval2012}の2種類のデータセットを用いて,提案手法の評価を行った.SICKは,2つの文の意味的類似度と含意関係を予測するタスクであり,表~\ref{SICKexample}に示すように,類似度と含意関係(yes,no,unknown)が人手によって付与されている.類似度は1.0から5.0の範囲の値で付与されている.このデータセットには計9,927件の文ペアが含まれており,そのうち訓練データ,開発データ,テストデータはそれぞれ4,500件,500件,4,927件含まれている.MSR-videoは表~\ref{MSRexample}に示すように,含意関係のラベルは付与されておらず,類似度の正解スコアのみが0.0から5.0の範囲の値で付与されており,開発データ,テストデータが750件ずつ含まれている.SICKデータセットに含まれる文ペアの方がMSR-videoデータセットに含まれる文よりも単語数が多くなっており,それぞれのデータセットにおける一文あたりの平均単語数は,SICKデータセットは10単語,MSR-videoデータセットは6単語である.\begin{table}[t]\caption{SICKデータセットに含まれる文ペアの例}\label{SICKexample}\input{02table01.tex}\end{table}\begin{table}[t]\caption{MSR-videoデータセットに含まれる文ペアの例}\label{MSRexample}\input{02table02.tex}\end{table}\subsection{既存手法との比較評価の概観}\label{eval}\subsubsection{文間類似度学習}\label{eval_sts}まず,文間類似度学習の評価を行った.なお,評価指標は,各タスクで標準的に使用されている評価指標に基づいて,SICKデータセットについては,提案手法によって計算された類似度スコアと,データセットに付与された正解スコアとのPearson相関係数$\gamma$,Spearman相関係数$\rho$,平均二乗誤差(MSE)という3種類の指標を,MSR-videoデータセットについてはPearson相関係数$\gamma$のみを用いる.比較対象は,SICKデータセット,MSR-videoデータセットにおける最高精度のモデル~\cite{MuellerAAAI2016,bar:semeval12}と,推論を用いた既存手法として,先行研究で紹介したTheMeaningFactory~\cite{bjerva:semeval14},UTexas~\cite{beltagy:semeval14}とする.表~\ref{SICK-sts}にSICKデータセットにおける提案手法と既存手法との類似度学習の評価結果を示す.提案手法の結果と推論を用いた既存手法の結果とを比較すると,Pearson相関係数とSpearman相関係数に関しては,提案手法は推論を用いた既存手法よりも高精度を達成した.一方で,MSEに関しては,既存手法よりも精度が低かった.この原因としては複数の要因が挙げられるが,大きく分けて統語解析によるエラー,意味表示の誤りによるエラー,語彙知識の不足などに起因する誤った推論によるエラーに分けられる.これらのエラーの詳細は\ref{error}節で述べる.また,文間類似度学習においては,提案手法は深層学習を用いたモデルによる最高精度に達しなかった.この原因を分析するため,テストデータ4,927件の文例に対して,提案手法と最高精度のモデルが予測した類似度スコアの比較を\ref{deep}節で行った.\begin{table}[t]\caption{提案手法と既存手法との類似度学習の評価結果(SICK)}\label{SICK-sts}\input{02table03.tex}\end{table}表~\ref{MSR-sts}にMSR-videoデータセットにおける提案手法と既存手法との類似度学習の評価結果を示す.MSR-videoデータセットにおいても,提案手法は推論を用いた既存手法よりも高精度を達成した.また,公理生成に使用する語彙知識については,SICKではWordNetのみを語彙知識に使用した場合,MSR-videoではWordNetとWord2Vecの両方を語彙知識に使用した場合において最も精度が高かった.この原因はSICKとMSR-videoのデータセットの違いによるものであると考えられる.\ref{dataset}節で述べたように,SICKデータセットに含まれる文ペアの方がMSR-videoデータセットに含まれる文よりも単語数が多く,\textit{burrowahole}と\textit{digtheearth}の言い換えといったフレーズレベルの言い換えが多く含まれていた.そのため,MSR-videoデータセットにおける評価ではWord2Vecを用いて単語間の語彙知識を拡充することによって精度が向上したが,SICKデータセットにおいてはフレーズ間の公理を生成できず,Word2Vecの利用によって誤った公理の過剰生成が起こり,精度が低下したと考えられる.公理の過剰生成に関する具体例については\ref{error}節で紹介する.今後,フレーズレベルの語彙知識の拡充や公理生成の改善を行うことで,更なる精度向上が見込まれる.\begin{table}[t]\caption{提案手法と既存手法との類似度学習の評価結果(MSR-video)}\label{MSR-sts}\input{02table04.tex}\end{table}\subsubsection{含意関係認識}\label{eval_rte}次に,SICKデータセットを用いて含意関係認識の評価を行った.評価指標は,適合率(yes,noと予測した文ペアに対して,正解ラベルと同じ結果だったケースの割合),再現率(正解ラベルがyes,noである文ペアに対して,正解ラベルと予測ラベルが同じ結果だったケースの割合),正答率(yes,no,unknownのすべての文ペアに対して正解ラベルと予測ラベルが同じ結果だったケースの割合)の3種類の指標を用いた.比較対象は,SICKデータセットにおける最高精度のモデル~\cite{yin-schutze:2017:EACLlong}と,推論を用いた既存手法として,先行研究で紹介したTheMeaningFactory~\cite{bjerva:semeval14},UTexas~\cite{beltagy:semeval14},また,改良前のccg2lambda~\cite{EACL2017}の結果とする.表~\ref{SICK-rte}に提案手法と既存手法との含意関係認識の評価結果を示す.語彙知識にWordNetのみ,WordNetとWord2Vecの両方を使用した場合において,提案手法は最高精度を達成した.\begin{table}[b]\caption{提案手法と既存手法との含意関係認識の評価結果(SICK)}\label{SICK-rte}\input{02table05.tex}\end{table}公理生成に使用する語彙知識については,含意関係認識のタスクにおいてもWordNetのみを語彙知識に使用した場合が最も精度が高かった.この原因について,\ref{eval_sts}節で挙げた問題に加えて,Word2Vecを用いた場合は\textit{season}(味付けする)と\textit{pour}(注ぐ)間の意味的関係(Word2Vecにおける単語間類似度は0.07),\textit{draw}と\textit{paint}間の意味的関係(どちらも描くという意味であるが,Word2Vecにおける単語間類似度は0.155)といった,多義語を含む単語間の意味的関係のチェックに失敗し,公理が生成されない傾向が見られた.この結果から,語義曖昧性を考慮して単語間の意味的関係をチェックすることで,公理生成の改善が見込まれることが示唆されたが,これは今後の課題とする.\subsection{特徴量別の評価}\label{feature}\subsubsection{文間類似度学習}\label{feature_sts}SICKデータセットにおける,各特徴量単独で文間類似度を学習した場合のモデルの評価結果を表~\ref{isolation_sts}に示す.この表が示すように,述語の一致率のみを特徴量に用いた場合が最も精度が高かった.この結果は,動詞・名詞の一致率と比較して,論理式による意味表現が文の言語的な情報を良質な形式で表現しているという先行研究の知見と合致している.導出木のマッピングコストのみを使用した場合と受動態の有無のみを使用した場合は,Pearson相関係数がほぼ0の値をとり,ほぼ全ての文ペアで3.5の類似度スコアを予測していた.この結果から,これらの特徴量は単独では予測性能はないと考えられる.しかし,SICKデータセット中の76\%の文ペアに3から5の範囲の正解スコアが付与されているという正解スコアの分布の偏りが原因で,導出木のマッピングコストのみを使用した場合と受動態の有無のみを使用した場合は予測性能がないのにも関わらず,MSEの値は1程度の結果となったと考えられる.\begin{table}[b]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\hangcaption{各特徴量単独で学習した場合の類似度学習の評価結果}\label{isolation_sts}\input{02table06.tex}\end{minipage}\hfill\begin{minipage}[t]{205pt}\caption{類似度学習のアブレーションの評価結果}\label{ablation_sts}\input{02table07.tex}\end{minipage}\end{table}全特徴量から各特徴量を取り除いて学習させた場合のモデルの評価結果を表~\ref{ablation_sts}に示す.各特徴量を単独で取り除いた結果は精度にほとんど変化が見られなかったが,推論由来の特徴量の中では証明の結果を取り除いた場合において,最も性能が低下した.この結果は\ref{strategy}で述べたように,SICKデータセットでは含意関係がyesまたはnoの文例において高い文間類似度が付与されているため,含意関係の証明の結果が文間類似度の予測性能に寄与していると考えられる.また,表層由来の特徴量の中ではベクトル空間モデルを取り除いた場合が最も性能が低下した.この結果は,文間類似度の予測においては表層的な一致率の影響が大きいことを示唆している.推論を用いた特徴量をまとめて取り除いた場合は,推論以外の特徴量をまとめて取り除いた場合と比較して,大きな性能低下が見られた.このことから,推論を用いた特徴量は推論以外の情報を用いた特徴量よりも精度への影響が大きいことが示唆された.また,推論由来の特徴量の中でも,論理式由来の特徴量(述語の一致率,型の一致率,否定表現の有無)をまとめて取り除いた場合よりも,推論の過程由来の特徴量(サブゴール,サブゴールの項の関係,ステップ数,推論規則,公理の確信度)をまとめて取り除いた場合の方が性能低下が見られた.この結果は証明の実行過程が文間の関連性を表す特徴として性能に寄与していることを示唆している.\begin{table}[b]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\hangcaption{各特徴量単独で学習した場合の含意関係認識の評価結果}\label{isolation_rte}\input{02table08.tex}\end{minipage}\hfill\begin{minipage}[t]{205pt}\caption{含意関係認識のアブレーションの評価結果}\label{ablation_rte}\input{02table09.tex}\end{minipage}\end{table}\subsubsection{含意関係認識}\label{feature_rte}SICKデータセットにおける,各特徴量単独で学習した場合の含意関係認識モデルの評価結果を表~\ref{isolation_rte}に示す.含意関係認識においては,証明の結果のみを特徴量に用いた場合が最も精度が高かった.型の一致率,受動態の有無,品詞タグの一致率,文の長さの一致率,導出木のマッピングコストは再現率が0.1以下と著しく低かった.これらの特徴量はほぼすべての文例でunknownを予測(型の一致率はすべてunknownと予測)し,単独では含意関係の予測性能がないことを示唆している.全特徴量から各特徴量を取り除いて学習させた場合の含意関係認識モデルの評価結果を表~\ref{ablation_rte}に示す.含意関係認識においても,各特徴量を単独で取り除いた結果は精度に大きな変動が見られなかったが,推論由来の特徴量は推論以外の情報を用いた特徴量よりも精度への影響が大きいこと,推論由来の特徴量の中でも,推論の過程由来の特徴量(サブゴール,サブゴールの項の関係,ステップ数,推論規則,公理の確信度)の方が論理式由来の特徴量(述語の一致率,型の一致率,否定表現の有無)よりも精度への影響が大きいことが示唆された.また,含意関係認識においては,推論由来の特徴量の中では,証明のステップ数が性能に最も大きく寄与する特徴量であることが示唆された.この結果は,文間類似度の予測では文間の表層的な一致率の影響が大きいのに対して,含意関係の予測では文間の意味的な一致率の影響が大きいという,含意関係認識と文間類似度学習のタスク内容の違いを表していると考えられる.さらに,公理の確信度の特徴量を取り除いた場合は性能が低下するのに対して,概念間の距離や同義語の一致率の特徴量を取り除いた場合,性能が向上した.公理の確信度と概念間の距離・同義語の一致率の特徴量の導出方法の比較からこの結果を考察すると,概念間の距離と同義語の一致率では2文中の全ての単語間について概念間の距離や同義語集合を計算し,その平均を特徴量としているのに対して,公理の確信度では2文間の意味的関係の判断に必要な単語間に限定して類似度を計算し,その平均を特徴量としている.そのため,公理の確信度は概念間の距離・同義語の一致率よりも効率的な特徴量として,含意関係の予測性能に寄与したと考えられる.\subsection{正解ラベル別の評価}\label{label}\subsubsection{文間類似度学習}SICKデータセットにおける,正解スコア別の類似度学習の評価結果を表~\ref{score-STS}に示す.この結果から,提案手法は$4\{\leq}\x<5$の範囲の類似度スコアが付与されている文ペアにおいて最も精度が高いことが確認された.実際に,$4\{\leq}\x<5$の範囲の類似度スコアが付与されている文ペアの8割が含意か矛盾の関係にある文ペアであり,提案手法は特に論理的関係がある文ペアにおいて高精度で類似度を予測することが示唆された.\begin{table}[b]\caption{正解スコア別の類似度学習の評価結果(SICK)}\label{score-STS}\input{02table10.tex}\end{table}\subsubsection{含意関係認識}次に,SICKデータセットにおける,正解ラベル別の含意関係認識の評価結果を表~\ref{score-RTE}に示す.なお,ここではyes,no,unknownの3値分類におけるすべてのラベルに関してスコアを算出し,その重み付け平均によって算出した適合率,再現率,F1値を評価指標に用いた.この結果から,提案手法は特に文間の矛盾関係の判定において高精度を発揮することが確かめられた.SICKデータセットにおいて,矛盾関係にある文ペアの多くは否定表現を含んでいることから,この結果は,提案手法が論理推論を用いて否定表現を含む文の意味を正確に捉えていることを示唆している.\begin{table}[b]\caption{各正解ラベルの含意関係認識の評価結果(SICK)}\label{score-RTE}\input{02table11.tex}\end{table}\subsection{本研究の手法と深層学習による手法との比較}\label{deep}SICKテストデータ4,927件の文例に対して,提案手法の推論由来の特徴量のみを用いて学習したモデルによる予測類似度と,本タスクで最高精度を達成した深層学習のモデル~\cite{MuellerAAAI2016}による予測類似度との比較を行った.その結果,4,927件中2,666件は提案手法の方が正解スコアに近い類似度を予測していた.さらに,この2666件について,特にどのような言語現象を含む文例において推論由来の特徴量が有用であるか,傾向を分析した.テストデータ全体に含まれる否定・量化・等位接続・関係代名詞を含む文例数をそれぞれカウントした結果を表~\ref{phenomena}に示す.\begin{table}[b]\caption{言語現象の例}\label{phenomena}\input{02table12.tex}\end{table}また,これらの文例のうち,提案手法が高精度で予測した文例数とテストデータ中の割合を計算した結果を表~\ref{phenomena_res}に示す.表から,推論由来の特徴量は否定表現や量化表現,等位接続を含む文例において,深層学習のモデルよりも高精度で類似度を予測する傾向が示唆された.\begin{table}[b]\caption{言語現象ごとの分析結果}\label{phenomena_res}\input{02table13.tex}\end{table}\subsection{エラー分析}\label{error}最後に,推論由来の特徴量のみで学習したモデルで予測したスコアが正解スコアと1.5以上離れていた文例119件について,エラー分析を行った.SICKデータセットの類似度・含意関係の評価結果のエラー分析の例を表~\ref{tab:examples_neg}に示す.\begin{table}[b]\caption{エラー分析}\label{tab:examples_neg}\input{02table14.tex}\end{table}1264では,各文中の\textit{onstage}と\textit{onastage}をどちらも副詞として捉えるのが正しい統語解析結果であるが,統語解析のエラーによって\textit{onstage}が\textit{perform}の目的語として捉えられてしまい,統語解析の結果に従って誤った論理式に変換されたため,含意関係を証明できず,予測スコアが正解スコアよりも低くなってしまった例である.このような例では2文間の統語解析の結果の整合性を考慮するなど,統語解析の改善が必要である.6637では,1文目の\textit{leapover}を1つの動詞のイディオムとして論理式に変換する必要があるが,変換に失敗し,予測スコアが正解スコアよりも低くなってしまった例である.このような例では,イディオムに関する外部知識を参照して論理式に変換するといった改善策が考えられる.2831は含意関係がある文ペアであるが,\textit{pencilingoneyeshadow}と\textit{usinganeyepencilonhereyelid}間の公理を生成できなかったため含意関係を証明できず,予測スコアが正解スコアよりも低くなってしまった例である.このような例では,フレーズ間の関係知識を用いて公理を生成する必要がある.1941は含意関係のない文ペアであるが,公理の過剰生成によって含意関係を証明できてしまい,予測スコアが正解スコアよりも高くなってしまった例である.本研究では公理の確信度に単語間類似度を採用し,確信度が閾値以上である場合のみに公理を採用しているが,このような公理の過剰生成を防ぐためには,文脈に合わせて正しく公理の確信度を算出するよう改善する必要がある. \section{まとめ} \label{conclusion}本研究では,文を高階述語論理式に変換し,文間の含意関係を高階論理の推論によって判定するシステムの実行過程に関する情報から,文間の関連性に寄与する特徴を抽出し,文間の関連性を学習する手法を提案した.文間類似度学習と含意関係認識という2つの自然言語処理タスクに関して複数のデータセットを用いて評価を行った結果,推論の過程を特徴量として組み合わせることによって,いずれのタスクにおいても精度が向上した.また,含意関係認識用データセットの一つであるSICKデータセットの評価では最高精度を達成した.今後の展望としては,統語解析,意味合成,論理推論のそれぞれのフェーズにおいて改善策を検討していく.統語解析においては,文ペア間で統語解析結果が異なるために証明に失敗した例が数件見られたため,文ペア中に同じ動詞が含まれていれば,各文の動詞に同じ統語範疇を優先して割り当てるといった改善策が挙げられる.意味合成においては,統語解析の結果に加えて外部知識を利用することで,イディオムなどを含む文についても適切な論理式に変換するといった改善策が挙げられる.論理推論においては,フレーズ間の公理の生成方法の検討,公理の確信度の計算方法の改善などが今後の課題として挙げられる.また,本稿では含意関係認識と文間類似度学習のタスクにおいて提案手法の評価を行ったが,今後,質問応答など他の自然言語処理タスクへの適用が期待される.\acknowledgment本研究は,JST戦略的創造研究推進事業CREST(JPMJCR1301)およびAIPチャレンジの支援を受けて行われた.また,本研究の一部は,the2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2017)で発表したものである(Yanaka,Mineshima,Mart\'{i}nez-G\'{o}mezandBekki,2017).\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abzianidze}{Abzianidze}{2015}]{abzianidze:2015:EMNLP}Abzianidze,L.\BBOP2015\BBCP.\newblock\BBOQATableauProverforNaturalLogicandLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2015)},\mbox{\BPGS\2492--2502}.\bibitem[\protect\BCAY{Abzianidze}{Abzianidze}{2016}]{abzianidze:2016:*SEM}Abzianidze,L.\BBOP2016\BBCP.\newblock\BBOQNaturalSolutiontoFraCaSEntailmentProblems.\BBCQ\\newblockIn{\BemProceedingsofthe5thJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\64--74}.\bibitem[\protect\BCAY{Agirre,Cer,Diab,\BBA\Gonzalez-Agirre}{Agirreet~al.}{2012}]{semeval2012}Agirre,E.,Cer,D.,Diab,M.,\BBA\Gonzalez-Agirre,A.\BBOP2012\BBCP.\newblock\BBOQSemEval-2012Task6:APilotonSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalWorkshoponSemanticEvaluation(SemEval-2012)},\mbox{\BPGS\385--393}.\bibitem[\protect\BCAY{B{\"{a}}r,Biemann,Gurevych,\BBA\Zesch}{B{\"{a}}ret~al.}{2012}]{bar:semeval12}B{\"{a}}r,D.,Biemann,C.,Gurevych,I.,\BBA\Zesch,T.\BBOP2012\BBCP.\newblock\BBOQUKP:ComputingSemanticTextualSimilaritybyCombiningMultipleContentSimilarityMeasures.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalWorkshoponSemanticEvaluation(SemEval-2012)},\mbox{\BPGS\435--440}.\bibitem[\protect\BCAY{Bekki\BBA\Mineshima}{Bekki\BBA\Mineshima}{2017}]{BekkiMineshima2016Luo}Bekki,D.\BBACOMMA\\BBA\Mineshima,K.\BBOP2017\BBCP.\newblock\BBOQContext-PassingandUnderspecificationinDependentTypeSemantics.\BBCQ\\newblockInChatzikyriakidis,S.\BBACOMMA\\BBA\Luo,Z.\BEDS,{\BemModernPerspectivesinTypeTheoreticalSemantics},StudiesofLinguisticsandPhilosophy,\mbox{\BPGS\11--41}.Springer.\bibitem[\protect\BCAY{Beltagy,Roller,Boleda,Erk,\BBA\Mooney}{Beltagyet~al.}{2014}]{beltagy:semeval14}Beltagy,I.,Roller,S.,Boleda,G.,Erk,K.,\BBA\Mooney,R.\BBOP2014\BBCP.\newblock\BBOQUTexas:NaturalLanguageSemanticsusingDistributionalSemanticsandProbabilisticLogic.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSemanticEvaluation(SemEval-2014)},\mbox{\BPGS\796--801}.\bibitem[\protect\BCAY{Bertot\BBA\Castran}{Bertot\BBA\Castran}{2010}]{opac-b1101046}Bertot,Y.\BBACOMMA\\BBA\Castran,P.\BBOP2010\BBCP.\newblock{\BemInteractiveTheoremProvingandProgramDevelopment:Coq'ArtTheCalculusofInductiveConstructions}.\newblockSpringer,NewYork,USA.\bibitem[\protect\BCAY{Bjerva,Bos,van~derGoot,\BBA\Nissim}{Bjervaet~al.}{2014}]{bjerva:semeval14}Bjerva,J.,Bos,J.,van~derGoot,R.,\BBA\Nissim,M.\BBOP2014\BBCP.\newblock\BBOQTheMeaningFactory:FormalSemanticsforRecognizingTextualEntailmentandDeterminingSemanticSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSemanticEvaluation(SemEval-2014)},\mbox{\BPGS\642--646}.\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{LDA}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQLatentDirichletAllocation.\BBCQ\\newblock{\BemJournalofMachineLearning},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Champollion}{Champollion}{2015}]{champ2015}Champollion,L.\BBOP2015\BBCP.\newblock\BBOQTheInteractionofCompositionalSemanticsandEventSemantics.\BBCQ\\newblock{\BemLinguisticsandPhilosophy},{\Bbf38}(1),\mbox{\BPGS\31--66}.\bibitem[\protect\BCAY{Clark,Coecke,\BBA\Sadrzadeh}{Clarket~al.}{2011}]{ClarkCoeckeSadrzadeh2011}Clark,S.,Coecke,B.,\BBA\Sadrzadeh,M.\BBOP2011\BBCP.\newblock\BBOQMathematicalFoundationsforaCompositionalDistributedModelofMeaning.\BBCQ\\newblock{\BemLinguisticAnalysis},{\Bbf36}(1-4),\mbox{\BPGS\345--384}.\bibitem[\protect\BCAY{Clark\BBA\Curran}{Clark\BBA\Curran}{2007}]{clark2007wide}Clark,S.\BBACOMMA\\BBA\Curran,J.~R.\BBOP2007\BBCP.\newblock\BBOQWide-coverageEfficientStatisticalParsingwithCCGandLog-linearModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(4),\mbox{\BPGS\493--552}.\bibitem[\protect\BCAY{Curran\BBA\Clark}{Curran\BBA\Clark}{2003}]{curran2003investigating}Curran,J.~R.\BBACOMMA\\BBA\Clark,S.\BBOP2003\BBCP.\newblock\BBOQInvestigatingGISandSmoothingforMaximumEntropyTaggers.\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2003)},\mbox{\BPGS\91--98}.\bibitem[\protect\BCAY{Davidson}{Davidson}{1967}]{Davidson67}Davidson,D.\BBOP1967\BBCP.\newblock\BBOQTheLogicalFormofActionSentences.\BBCQ\\newblockInRescher,N.\BED,{\BemTheLogicofDecisionandAction},\mbox{\BPGS\81--95}.UniversityofPittsburghPress,Pittsburgh,PA.\newblockReprintedin\cite{Davidson80},pp.~105--148.\bibitem[\protect\BCAY{Davidson}{Davidson}{1980}]{Davidson80}Davidson,D.\BBOP1980\BBCP.\newblock{\BemEssaysonActionsandEvents}.\newblockClarendonPress,Oxford.\bibitem[\protect\BCAY{Deerwester,Dumais,Landauer,\BBA\Harshman}{Deerwesteret~al.}{1990}]{LSA}Deerwester,S.,Dumais,S.~T.,Landauer,T.~K.,\BBA\Harshman,R.\BBOP1990\BBCP.\newblock\BBOQIndexingbyLatentSemanticAnalysis.\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Grefenstette\BBA\Sadrzadeh}{Grefenstette\BBA\Sadrzadeh}{2011}]{grefenstette-sadrzadeh:2011:EMNLP}Grefenstette,E.\BBACOMMA\\BBA\Sadrzadeh,M.\BBOP2011\BBCP.\newblock\BBOQExperimentalSupportforaCategoricalCompositionalDistributionalModelofMeaning.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2011)},\mbox{\BPGS\1394--1404}.\bibitem[\protect\BCAY{He\BBA\Lin}{He\BBA\Lin}{2016}]{He2016PairwiseWI}He,H.\BBACOMMA\\BBA\Lin,J.\BBOP2016\BBCP.\newblock\BBOQPairwiseWordInteractionModelingwithDeepNeuralNetworksforSemanticSimilarityMeasurement.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL/HLT-2016)},\mbox{\BPGS\937--948}.\bibitem[\protect\BCAY{Hill,Cho,\BBA\Korhonen}{Hillet~al.}{2016}]{hill-cho-korhonen:2016:N16-1}Hill,F.,Cho,K.,\BBA\Korhonen,A.\BBOP2016\BBCP.\newblock\BBOQLearningDistributedRepresentationsofSentencesfromUnlabelledData.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL/HLT-2016)},\mbox{\BPGS\1367--1377}.\bibitem[\protect\BCAY{Hockenmaier\BBA\Steedman}{Hockenmaier\BBA\Steedman}{2007}]{ac4bfc92bbc447d9b2382f4513b2520d}Hockenmaier,J.\BBACOMMA\\BBA\Steedman,M.\BBOP2007\BBCP.\newblock\BBOQCCGbank:ACorpusofCCGDerivationsandDependencyStructuresExtractedfromthePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(3),\mbox{\BPGS\355--396}.\bibitem[\protect\BCAY{Kartsaklis,Kalchbrenner,\BBA\Sadrzadeh}{Kartsakliset~al.}{2014}]{kartsaklis-kalchbrenner-sadrzadeh:2014:P14-2}Kartsaklis,D.,Kalchbrenner,N.,\BBA\Sadrzadeh,M.\BBOP2014\BBCP.\newblock\BBOQResolvingLexicalAmbiguityinTensorRegressionModelsofMeaning.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2014)},\mbox{\BPGS\212--217}.\bibitem[\protect\BCAY{Kartsaklis\BBA\Sadrzadeh}{Kartsaklis\BBA\Sadrzadeh}{2016}]{kartsaklis-sadrzadeh:2016:COLING}Kartsaklis,D.\BBACOMMA\\BBA\Sadrzadeh,M.\BBOP2016\BBCP.\newblock\BBOQDistributionalInclusionHypothesisforTensor-basedComposition.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics:TechnicalPapers(COLING-2016)},\mbox{\BPGS\2849--2860}.\bibitem[\protect\BCAY{Le\BBA\Mikolov}{Le\BBA\Mikolov}{2014}]{DBLP:conf/icml/LeM14}Le,Q.~V.\BBACOMMA\\BBA\Mikolov,T.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofSentencesandDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe31thInternationalConferenceonMachineLearning,(ICML-2014)},\mbox{\BPGS\1188--1196}.\bibitem[\protect\BCAY{Lewis\BBA\Steedman}{Lewis\BBA\Steedman}{2014}]{Lewis14a*ccg}Lewis,M.\BBACOMMA\\BBA\Steedman,M.\BBOP2014\BBCP.\newblock\BBOQA*CCGParsingwithaSupertag-factoredModel.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2014)},\mbox{\BPGS\990--1000}.\bibitem[\protect\BCAY{Marelli,Menini,Baroni,Bentivogli,Bernardi,\BBA\Zamparelli}{Marelliet~al.}{2014}]{MARELLI14.363}Marelli,M.,Menini,S.,Baroni,M.,Bentivogli,L.,Bernardi,R.,\BBA\Zamparelli,R.\BBOP2014\BBCP.\newblock\BBOQASICKCureforTheEvaluationofCompositionalDistributionalSemanticModels.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2014)},\mbox{\BPGS\216--223}.\bibitem[\protect\BCAY{Mart{\'{i}}nez-G{\'{o}}mez,Mineshima,Miyao,\BBA\Bekki}{Mart{\'{i}}nez-G{\'{o}}mezet~al.}{2016}]{martinezgomez-EtAl:2016:P16-4}Mart{\'{i}}nez-G{\'{o}}mez,P.,Mineshima,K.,Miyao,Y.,\BBA\Bekki,D.\BBOP2016\BBCP.\newblock\BBOQccg2lambda:ACompositionalSemanticsSystem.\BBCQ\\newblockIn{\BemProceedingsofACL-2016SystemDemonstrations},\mbox{\BPGS\85--90}.\bibitem[\protect\BCAY{Mart{\'{i}}nez-G{\'{o}}mez,Mineshima,Miyao,\BBA\Bekki}{Mart{\'{i}}nez-G{\'{o}}mezet~al.}{2017}]{EACL2017}Mart{\'{i}}nez-G{\'{o}}mez,P.,Mineshima,K.,Miyao,Y.,\BBA\Bekki,D.\BBOP2017\BBCP.\newblock\BBOQOn-demandInjectionofLexicalKnowledgeforRecognisingTextualEntailment.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2017)},\mbox{\BPGS\710--720}.\bibitem[\protect\BCAY{Mart{\'{i}}nez-G{\'{o}}mez\BBA\Miyao}{Mart{\'{i}}nez-G{\'{o}}mez\BBA\Miyao}{2016}]{martinezgomez-miyao:2016:EMNLP2016}Mart{\'{i}}nez-G{\'{o}}mez,P.\BBACOMMA\\BBA\Miyao,Y.\BBOP2016\BBCP.\newblock\BBOQRuleExtractionforTree-to-TreeTransducersbyCostMinimization.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2016)},\mbox{\BPGS\12--22}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{NIPS2013_5021}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockInBurges,C.J.~C.,Bottou,L.,Welling,M.,Ghahramani,Z.,\BBA\Weinberger,K.~Q.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems26},\mbox{\BPGS\3111--3119}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Miller}{Miller}{1995}]{Miller:1995:WLD:219717.219748}Miller,G.~A.\BBOP1995\BBCP.\newblock\BBOQWordNet:ALexicalDatabaseforEnglish.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf38}(11),\mbox{\BPGS\39--41}.\bibitem[\protect\BCAY{Mineshima,Mart{\'{i}}nez-G{\'{o}}mez,Miyao,\BBA\Bekki}{Mineshimaet~al.}{2015}]{D16-1242}Mineshima,K.,Mart{\'{i}}nez-G{\'{o}}mez,P.,Miyao,Y.,\BBA\Bekki,D.\BBOP2015\BBCP.\newblock\BBOQHigher-orderLogicalInferencewithCompositionalSemantics.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2015)},\mbox{\BPGS\2055--2061}.\bibitem[\protect\BCAY{Mineshima,Tanaka,Mart{\'{\i}}nez-G{\'{o}}mez,Miyao,\BBA\Bekki}{Mineshimaet~al.}{2016}]{mineshima2016building}Mineshima,K.,Tanaka,R.,Mart{\'{\i}}nez-G{\'{o}}mez,P.,Miyao,Y.,\BBA\Bekki,D.\BBOP2016\BBCP.\newblock\BBOQBuildingCompositionalSemanticsandHigher-orderInferenceSystemforaWide-coverageJapaneseCCGparser.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2016)},\mbox{\BPGS\2236--2242}.\bibitem[\protect\BCAY{Mitchell\BBA\Lapata}{Mitchell\BBA\Lapata}{2008}]{mitchell-lapata:2008:ACLMain}Mitchell,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQVector-basedModelsofSemanticComposition.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2008)},\mbox{\BPGS\236--244}.\bibitem[\protect\BCAY{Mitchell\BBA\Lapata}{Mitchell\BBA\Lapata}{2010}]{mitchell2010composition}Mitchell,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2010\BBCP.\newblock\BBOQCompositioninDistributionalModelsofSemantics.\BBCQ\\newblock{\BemCognitiveScience},{\Bbf34}(8),\mbox{\BPGS\1388--1429}.\bibitem[\protect\BCAY{Mueller\BBA\Thyagarajan}{Mueller\BBA\Thyagarajan}{2016}]{MuellerAAAI2016}Mueller,J.\BBACOMMA\\BBA\Thyagarajan,A.\BBOP2016\BBCP.\newblock\BBOQSiameseRecurrentArchitecturesforLearningSentenceSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe30thAAAIConferenceonArtificialIntelligence(AAAI-2016)},\mbox{\BPGS\2786--2792}.\bibitem[\protect\BCAY{Parsons}{Parsons}{1990}]{Parsons90}Parsons,T.\BBOP1990\BBCP.\newblock{\BemEventsintheSemanticsofEnglish:AStudyinSubatomicSemantics}.\newblockMITPress,Cambridge,USA.\bibitem[\protect\BCAY{Peter\BBA\Wilkins}{Peter\BBA\Wilkins}{1984}]{culicover1984}Peter,W.~C.\BBACOMMA\\BBA\Wilkins,W.~K.\BBOP1984\BBCP.\newblock{\BemLocalityinLinguisticTheory}.\newblockAcademicPress,Florida,USA.\bibitem[\protect\BCAY{Prawitz}{Prawitz}{1965}]{prawitz1965natural}Prawitz,D.\BBOP1965\BBCP.\newblock{\BemNaturalDeduction---AProof-TheoreticalStudy}.\newblockAlmqvist\&Wiksell,Stockholm,Sweden.\bibitem[\protect\BCAY{Ray}{Ray}{1990}]{Jackendo1990}Ray,J.\BBOP1990\BBCP.\newblock{\BemSemanticStructures}.\newblockMITPress,Cambridge,USA.\bibitem[\protect\BCAY{Steedman}{Steedman}{2000}]{Steedman00}Steedman,M.\BBOP2000\BBCP.\newblock{\BemTheSyntacticProcess}.\newblockMITPress,Cambridge,USA.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{tai-socher-manning:2015:ACL-IJCNLP}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(ACL/IJCNLP-2015)},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Wong\BBA\Raghavan}{Wong\BBA\Raghavan}{1984}]{Find-similar}Wong,S.K.~M.\BBACOMMA\\BBA\Raghavan,V.~V.\BBOP1984\BBCP.\newblock\BBOQVectorSpaceModelofInformationRetrieval:AReevaluation.\BBCQ\\newblockIn{\BemProceedingsofthe7thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\167--185}.\bibitem[\protect\BCAY{Yin\BBA\Sch{\"{u}}tze}{Yin\BBA\Sch{\"{u}}tze}{2017}]{yin-schutze:2017:EACLlong}Yin,W.\BBACOMMA\\BBA\Sch{\"{u}}tze,H.\BBOP2017\BBCP.\newblock\BBOQTask-SpecificAttentivePoolingofPhraseAlignmentsContributestoSentenceMatching.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2017)},\mbox{\BPGS\699--709}.\bibitem[\protect\BCAY{Yoshikawa,Noji,\BBA\Matsumoto}{Yoshikawaet~al.}{2017}]{yoshikawa-noji-matsumoto:2017:Long}Yoshikawa,M.,Noji,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQA*CCGParsingwithaSupertagandDependencyFactoredModel.\BBCQ\\newblockIn{\BemProceedingsofthe55ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2017)},\mbox{\BPGS\277--287}.\bibitem[\protect\BCAY{Zhou,Liu,\BBA\Pan}{Zhouet~al.}{2016}]{zhou2016sentpair}Zhou,Y.,Liu,C.,\BBA\Pan,Y.\BBOP2016\BBCP.\newblock\BBOQModellingSentencePairswithTree-structuredAttentiveEncoder.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics(COLING-2016)},\mbox{\BPGS\2912--2922}.\end{thebibliography}\begin{biography}\bioauthor{谷中瞳}{1989年生.2011年早稲田大学先進理工学部応用化学科卒業.2013年東京大学大学院工学系研究科科学システム工学専攻修士課程修了.同年,株式会社野村総合研究所入社後,2015年東京大学大学院工学系研究科システム創成学専攻博士課程進学.}\bioauthor{峯島宏次}{2013年慶應義塾大学文学研究科博士課程修了.博士(哲学).現在,お茶の水女子大学シミュレーション科学・生命情報学教育研究センター特任准教授.}\bioauthor[:]{PascualMart\'{i}nez-G\'{o}mez}{receivedhisPh.D.degreeinComputerScienceattheUniversityofTokyoin2014forhisresearchoneye-trackingandreadabilitydiagnosis.HeisaresearchscientistattheArtificialIntelligenceResearchCenterintheNationalInstituteofAdvancedIndustrialScienceandTechnology(AIST),Japan.}\bioauthor{戸次大介}{2000年東京大学大学院理学系研究科情報科学専攻博士課程修了.博士(理学).現在,お茶の水女子大学基幹研究院自然科学系准教授.}\end{biography}\biodate\end{document}