id
stringlengths
9
9
text
stringlengths
8.54k
92.7k
title
stringclasses
1 value
V22N01-02
\section{はじめに} 今日までに,人間による言語使用の仕組みを解明する試みが単語・文・発話・文書など様々な単位に注目して行われて来た.特に,これらの種類や相互関係(例えば単語であれば品詞や係り受け関係,文であれば文役割や修辞構造など)にどのようなものがあるか,どのように利用されているかを明らかにする研究が精力的になされて来た.計算機が普及した現代では,これらを数理モデル化して考えることで自動推定を実現する研究も広く行われており,言語学的な有用性にとどまらず様々な工学的応用を可能にしている.例えば,ある一文書内に登場する節という単位に注目すると,主な研究としてMann\&Thompsonによる修辞構造理論(RhetoricalStructureTheory;RST)がある\cite{Mann1987,Mann1992}.修辞構造理論では文書中の各節が核(nucleus)と衛星(satelite)の2種類に分類できるとし,さらに核と衛星の間にみられる関係を21種類に,核と核の間にみられる関係(多核関係)を3種類に分類している.このような分類を用いて,節同士の関係を自動推定する研究も古くから行われている\cite{Marcu1997a,田村直良:1998-01-10}.さらに,推定した関係を別タスクに利用する研究も盛んに行われている\cite{Marcu99discoursetrees,比留間正樹:1999-07-10,Marcu2000,平尾:2013,tu-zhou-zong:2013:Short}.例えば,Marcu\citeyear{Marcu99discoursetrees}・比留間ら\citeyear{比留間正樹:1999-07-10}・平尾ら\citeyear{平尾:2013}は,節の種類や節同士の関係を手がかりに重要と考えられる文のみを選択することで自動要約への応用を示している.また,Marcuら\citeyear{Marcu2000}・Tuら\citeyear{tu-zhou-zong:2013:Short}は,機械翻訳においてこれらの情報を考慮することで性能向上を実現している.一方,我々は従来研究の主な対象であった一文書や対話ではなく,ある文書(往信文書)とそれに呼応して書かれた文書(返信文書)の対を対象とし,往信文書中のある文と返信文書中のある文との間における文レベルでの呼応関係(以下,\textbf{文対応}と呼ぶ)に注目する.このような文書対の例として「電子メールと返信」,「電子掲示板の投稿と返信」,「ブログコメントの投稿と返信」,「質問応答ウェブサイトの質問投稿と応答投稿」,「サービスや商品に対するレビュー投稿とサービス提供者の返答投稿」などがあり,様々な文書対が存在する(なお,本論文において文書対は異なる書き手によって書かれたものとする).具体的に文書対として最も典型的な例であるメール文書と返信文書における実際の文対応の例を図\ref{fig:ex-dependency}に示す.図中の文同士を結ぶ直線が文対応を示しており,例えば返信文「講義を楽しんで頂けて何よりです。」は往信文「本日の講義も楽しく拝聴させて頂きました。」を受けて書かれた文である.同様に,返信文「まず、課題提出日ですが…」と「失礼しました。」はいずれも往信文「また、課題提出日が…」を受けて書かれた文である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f1.eps}\end{center}\caption{メール文書における文対応の例.文同士を結ぶ直線が文対応を示している.}\label{fig:ex-dependency}\vspace{-0.5\Cvs}\end{figure}本論文では,文書レベルで往信・返信の対応が予め分かっている文書対を入力とし,以上に述べたような文対応を自動で推定する課題を新たに提案し,解決方法について検討する.これら文書対における文対応の自動推定が実現すれば,様々な応用が期待できる点で有用である.応用例について,本研究の実験では「サービスに対するレビュー投稿とサービス提供者の返答投稿」を文書対として用いているため,レビュー文書・返答文書対における文対応推定の応用例を中心に説明する.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{文書対群の情報整理}:複数の文書対から,文対応が存在する文対のみを抽出することでこれら文書対の情報整理が可能になる.例えば,「このサービス提供者は(または要望,苦情など)に対してこのように対応しています」といった一覧を提示できる.これを更に応用すれば,将来的にはFAQの(半)自動生成や,要望・苦情への対応率・対応傾向の提示などへ繋げられると考えている.\item\textbf{未対応文の検出による返信文書作成の支援}:往信文書と返信文書を入力して自動で文対応を特定できるということは,逆に考えると往信文書の中で対応が存在しない文が発見できることでもある.この推定結果を利用し,ユーザが返信文書を作成している際に「往信文書中の対応がない文」を提示することで,返信すべき事項に漏れがないかを確認できる文書作成支援システムが実現できる.このシステムは,レビュー文書・返答文書対に適用した場合は顧客への質問・クレームへの対応支援に活用できる他,例えば質問応答サイトのデータに適用した場合は応答作成支援などにも利用できる.\item\textbf{定型的返信文の自動生成}:(2)の考えを更に推し進めると,文対応を大量に収集したデータを用いることで,将来的には定型的な返信文の自動生成が可能になると期待できる.大規模な文対応データを利用した自動生成手法は,例えばRitterら・長谷川らが提案している\cite{Ritter2011,長谷川貴之:2013}が,いずれも文対応が既知のデータ(これらの研究の場合はマイクロブログの投稿と返信)の存在が前提である.しかし,実際には文対応が既知のデータは限られており,未知のデータに対して自動生成が可能となるだけの分量を人手でタグ付けするのは非常に高いコストを要する.これに対し,本研究が完成すればレビュー文書・返答文書対をはじめとした文対応が未知のデータに対しても自動で文対応を付与できるため,先に挙げた様々な文書において往信文からの定型的な返信文の自動生成システムが実現できる.定型的な返信文には,挨拶などに加え,同一の書き手が過去に類似した質問や要望に対して繰り返し同様の返信をしている場合などが含まれる.\item\textbf{非定形的返信文の返答例提示}:(3)の手法の場合,自動生成できるのは定型的な文に限られる.一方,例えば要望や苦情などの個別案件に対する返答文作成の支援は,完全な自動生成の代わりに複数の返答例を提示することで実現できると考えている.これを実現する方法として,現在返答しようとしている往信文に類似した往信文を文書対のデータベースから検索し,類似往信文と対応している返信文を複数提示する手法がある.返信文の書き手は,返答文例の中から書き手の方針と合致したものを利用ないし参考にすることで返信文作成の労力を削減できる.\end{enumerate}一方で,文書対における文対応の自動推定課題は以下のような特徴を持つ.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{対応する文同士は必ずしも類似しない}:例えば図\ref{fig:ex-dependency}の例で,往信文「本日の講義も楽しく拝聴させて頂きました。」と返信文「講義を楽しんで頂けて何よりです。」は「講義」という単語を共有しているが,往信文「また、課題提出日が…」と返信文「失礼しました。」は共有する単語を一つも持たないにも関わらず文対応が存在する.このように,文対応がある文同士は必ずしも類似の表現を用いているとは限らない.そのため,単純な文の類似度によらない推定手法が必要となる.\item\textbf{文の出現順序と文対応の出現位置は必ずしも一致しない}:例えば図\ref{fig:ex-dependency}の例で対応が逆転している(文対応を示す直線が交差している)ように,返信文書の書き手は往信文書の並びと対応させて返信文書を書くとは限らない.そのため,文書中の出現位置に依存しない推定手法が必要となる.\end{enumerate}我々は,以上の特徴を踏まえて文対応の自動推定を実現するために,本課題を文対応の有無を判定する二値分類問題と考える.すなわち,存在しうる全ての文対応(例えば図\ref{fig:ex-dependency}であれば$6\times6=36$通り)のそれぞれについて文対応が存在するかを判定する分類器を作成する.本論文では,最初にQu\&Liuの対話における発話の対応関係を推定する手法\cite{Zhonghua2012}を本課題に適用する.彼らは文種類(対象が質問応答なので「挨拶」「質問」「回答」など)を推定した後に,この文種類推定結果を発話文対応推定の素性として用いることで高い性能で文対応推定が実現したことを報告している.本論文ではこれに倣って文種類の推定結果を利用した文対応の推定を行うが,我々の対象とする文書対とは次のような点で異なっているため文種類・文対応の推定手法に多少の変更を加える.すなわち,彼らが対象とする対話では対応関係が有向性を持つが,我々が対象とする文書対では返信文から往信文へ向かう一方向のみである.また,対話は発話の連鎖で構成されているが,文書対は一組の往信文書・返信文書の対で構成されている点でも異なる.更に,我々は文対応の推定性能をより向上させるために,彼らの手法を発展させた新たな推定モデルを提案する.彼らの手法では,文対応の素性に推定された文種類を利用しているが,文種類推定に誤りが含まれていた場合に文対応推定結果がその誤りに影響されてしまう問題がある.そこで,我々は文種類と文対応を同時に推定するモデルを提案し,より高い性能で文対応の推定が実現できることを示す.本論文の構成は次の通りである.まず,2章で関連研究について概観する.次に,3章で文対応の自動推定を行う提案手法について述べる.4章では評価実験について述べる.5章で本論文のまとめを行う. \section{関連研究} 二文書以上の文書間において,文書を跨いだ文同士の関係に踏み込んだ研究は新聞記事を対象としたものが多い\cite{Radev2000,宮部:2005,宮部:2006,難波:2005}.Radevは新聞記事間に観察できる文間関係を「同等(Equivalence)」「反対(Contradiction)」など24種類に分類するCross-DocumentStructureTheoryを提案した\cite{Radev2000}.これら文間関係のうち,宮部らは「同等」「推移」関係の特定に\cite{宮部:2005,宮部:2006},難波らは「推移」「更新」関係の特定に特化した自動推定手法を提案している\cite{難波:2005}.これらの各研究では「同等」「推移」「更新」関係を特定するために文同士が類似しているなどの特徴を利用している.これらの研究と我々の研究を比較すると,まず,これらの研究が扱う新聞記事間における文対応と我々が扱う往信-返信文書間における文対応は異なった傾向を持っている.すなわち,新聞記事では同じ事象に対して複数の書き手が記事を作成したり,事象の経過により状況が異なったりすることで文書間や文書を跨いだ文間に対応が発生するのに対し,往信-返信文書ではコミュニケーションという目的を達成するために文対応が発生するという違いがある.また,我々が対象としている往信-返信文書対における文対応では,先に見た通り類似しない文同士にも文対応が存在することもあり,対応する文同士が類似していることを前提にせずに推定を行う必要がある.新聞記事以外では,地方自治体間の条例を対象とした研究\cite{竹中要一:2012-09-30},料理レシピと対応するレビュー文書を対象とした研究\cite{Druck2012}がある.竹中・若尾は地方自治体間で異なる条例を条文単位で比較する条文対応表を作成するために,条文間の対応を自動で推定する手法を提案している\cite{竹中要一:2012-09-30}.またDruck\&Pangは,レシピに対応するレビュー文書に含まれる作り方や材料に対する改善提案文の抽出を目的とし,その最終過程で提案文をレシピの手順と対応付ける手法を提案している\cite{Druck2012}.ただし,推定するべき対応が類似していることを前提としている(すなわち,竹中・若尾の場合は同一の事柄に関する条例を対応付ける手法であり,Druck\&Pangの場合はレシピ手順とレビュー文を対応付ける手法である)ため,これらの手法も対応する文の間に同じ単語や表現が出現していることを前提としている.対話を対象とした研究には,Boyerらによる対話における発話対応関係の分析がある\cite{Boyer2009}.彼女らは,対話における隣接対(adjacencypair)構造を隠れマルコフモデル(HiddenMarkovModel;HMM)を用いてモデル化している.ただし,彼女らの分析では,隣接対の場合は多くが位置的に隣接している可能性が高いことを前提としている\footnote{隣接対の多くは位置的に隣接しているが,位置的に隣接していない場合もある.例えば,挿入連鎖(隣接対の間に別の隣接対が挿入されるような構造)の場合は,位置的には離れた隣接対が観察される.}.これに対し,我々の研究の対象である文書対における文対応ではこういった傾向を利用できないという違いがあるため,単純に彼女らの分析手法を我々が対象としている文対応に適用することはできない.我々の研究と最も近い研究として,Qu\&Liuの質問応答ウェブサイトにおける文依存関係(sentencedependency;質問に対する回答,回答に対する解決報告など)を推定する研究がある\cite{Zhonghua2012}.彼らは条件付確率場(ConditionalRandomFields;CRF)\cite{Lafferty2001}による分類器を利用することで,隠れマルコフモデルよりも高い性能で文依存関係を特定できたとしている.ただし,彼らの対象としているウェブサイトは図\ref{fig:ex-dependency-c}に示すように対話に近い形で問題解決を図るという特徴を持っているため,我々の対象とする文書対とは若干の違いがある.そこで,本論文では最初に彼らの手法に変形を加えることで,我々の対象である往信-返信文書間の文対応推定が実現できることを示す.次に,彼らの手法の中心である文種類推定モデルと文対応推定モデルを発展させた文種類・文対応を同時に推定する統合モデルを提案し,文対応推定が更に高い性能で実現できることを示す.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f2.eps}\end{center}\caption{Qu\&Liuが扱う文依存関係の例}\label{fig:ex-dependency-c}\end{figure} \section{提案手法} \subsection{文対応}文対応推定のための提案手法を説明する前に,本論文で扱う文対応について改めて定義する.本研究では,「文書(往信文書)とそれに対する返信文書が与えられた時,ある返信文がある往信文を原因として生起している関係」を\textbf{文対応}と定義し,この関係の有無を推定することを目的とする.なお,文対応は返信文書中の1文から,往信文書中の複数の文へ対応することを許す.また,返信文書中の異なる文から,往信文書中の同一の文への対応も許す.例えば図\ref{fig:ex-dependency}の「講義を楽しんでいただけて何よりです。」という返信文は,「本日の講義も楽しく拝聴させて頂きました。」という往信文を原因として書かれた文であるため,文対応を持つ.同様に,返信文「まず、課題提出日ですが…」「失礼しました。」はいずれも往信文「また、課題提出日が…」を原因として書かれた文であるため,両方の対とも文対応を持つ.なお,我々が扱う文対応関係とQu\&Liu\citeyear{Zhonghua2012}が扱う文依存関係(sentencedependency)とは次の点で異なる.すなわち,我々の扱う文対応は返信文から往信文へ向かう一方向のみであるが,彼らの扱う文依存関係は任意の対話文から対話文への関係を持ちうる\footnote{ただし,ほぼ全ての文依存関係は後に出現する文から前に出現した文へ向かう方向であると予想できる.Qu\&Liuが論文中で示す例に登場する文依存関係も,後の文から前の文へ向かう関係のみであった\cite{Zhonghua2012}.}.以降,本論文ではQu\&Liuが扱う対応関係を\textbf{文依存関係}と呼び,我々が扱う文対応関係と区別する.\subsection{文種類}次に,文対応推定に用いる素性の一つである文種類についても説明する.本研究では,「ある文がどのような目的で書かれているかによる分類」を\textbf{文種類}と定義する.どのような文種類の集合を用いるかは対象とする文書によって異なるが,例えば図\ref{fig:ex-dependency}のようなメール文書対を対象とする場合は「挨拶」「質問」「謝罪」「回答」などが文種類として考えられる.一方,質問応答ウェブサイトを対象としたQu\&Liuは,「質問」「回答」「挨拶」など,13種類の文種類を定義している\cite{Zhonghua2012}.本研究の実験では,対象をレビュー文書とその応答文書としているため,これらの文書における文種類の分類を行っている大沢らの先行研究\cite{大沢:2010}を元にして文種類を定義した.具体的な変更点と文種類については評価実験の章(4章)で議論する.\subsection{因子グラフとCRF}\label{sec:factor-graph}以降の節では,各CRFモデルの説明にKschischangらが提案した因子グラフ(factorgraph)を用いる\cite{Kschischang2001}.そのため,ここで因子グラフについてSutton\&McCallum(2012)の解説を参考にして簡単に説明する.因子グラフは,ある複数の変数に依存する関数を一部の変数のみに依存する複数の関数(因子)の積に分解した際に,どのような分解が行われているかを表現する二部グラフである.因子グラフでは,因子が依存する変数を正方形の因子ノード■からのリンクによって表す.また,変数のうち観測変数と隠れ変数を区別する必要がある場合は,観測変数を灰色(色付き)ノード,隠れ変数を白色(無色)ノードで表す.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f3.eps}\end{center}\hangcaption{因子グラフの例.対数線形モデルにより$P(\bm{y}|\bm{x})$をモデル化した場合のLinear-chainCRFに相当する.}\label{fig:L-CRF}\end{figure}実際の因子グラフの例を図\ref{fig:L-CRF}に示す.図\ref{fig:L-CRF}は,観測変数$\bm{x}$,隠れ変数$\bm{y}$を引数に持つようなある関数$F(\bm{x},\bm{y})$を次のように因数分解することを示している.\begin{equation}F(\bm{x},\bm{y})=\prod_{i=1}^{|\bm{y}|}f_i(\bm{x},y_i)\cdot\prod_{j=1}^{|\bm{y}|-1}g_i(\bm{x},y_{j},y_{j+1})\end{equation}以降,因子グラフを数式で表現するために,因子グラフ$\mathcal{G}$を,変数ノードの集合$\mathcal{V}$・因子ノードの集合$\mathcal{F}$・エッジの集合$\mathcal{E}$の3つを用いて$\mathcal{G}=(\mathcal{V},\mathcal{F},\mathcal{E})$のように表現する.なお,集合の表記を簡便にするため次のような記法を導入する.例えば,$\{y_i\}_{i=1}^{5}$のように書いた場合,これは$\{y_i~|~1\leqi\leq5\wedgei\in\mathbb{N}\}=\{y_1,\dots,y_5\}$を意味する.この記法を用いれば,図\ref{fig:L-CRF}の因子グラフを$\mathcal{G}=(\mathcal{V},\mathcal{F},\mathcal{E})$とすると$\mathcal{V},\mathcal{F},\mathcal{E}$は次のように表現できる.\begin{equation}\begin{split}\mathcal{V}&=\{\bm{x}\}\cup\{y_i\}_{i=1}^{5}\\\mathcal{F}&=\{f_i\}_{i=1}^{5}\cup\{g_j\}_{j=1}^{4}\\\mathcal{E}&=\{(f_i,\bm{x})\}_{i=1}^{5}\cup\{(f_i,y_i)\}_{i=1}^{5}\cup\{(g_j,\bm{x})\}_{j=1}^{4}\cup\{(g_j,y_j)\}_{j=1}^{4}\cup\{(g_j,y_{j+1})\}_{j=1}^{4}\end{split}\end{equation}次に,因子グラフに基づいたCRFモデルを構築する方法について説明する.因子グラフ自体は因子が具体的にどのような関数であるかを規定しないが,関数$F$を対数線形モデルによりモデル化した$P(\bm{y}|\bm{x})$とすると,因子グラフに基づいたCRFモデルが構築できる.具体的に,因子を$\Psi_a$,因子$\Psi_a$が依存する変数を$\bm{x}_a,\bm{y}_a$と置くと$P(\bm{y}|\bm{x})$は次のようにモデル化される.\begin{align}P(\bm{y}|\bm{x};\bm{\theta})&=\frac{1}{Z}\prod_a\Psi_a(\bm{x}_a,\bm{y}_a;\bm{\theta}_a)\\&=\frac{1}{Z}\prod_a\exp\left\{\sum_k\theta_{ak}f_{ak}(\bm{x}_a,\bm{y}_a)\right\}\end{align}ここで$Z$は正規化項,$\theta_{ak}$は素性関数$f_{ak}$に対応した重みとなる.なお,同様のモデル化を図~\ref{fig:L-CRF}に行った場合がLinear-chainCRFに相当する.本論文では,各モデルはCRFによってモデル化されることとする.各モデルの因子と変数間の依存関係については,それぞれ元となる因子グラフによって示す.\subsection{文対応推定手法の概要}本論文で提案する文対応推定手法は,Qu\&Liuが提案した文依存関係推定手法\cite{Zhonghua2012}を我々の課題に併せて変形を加えた手法と,彼らの推定モデルを発展させた新たな推定モデルによる手法の二種類である.ここで最初に,彼らの手法の概要と我々が提案する手法との相違点について説明する.Qu\&Liuの手法では,文依存関係を推定する問題を系列ラベリング問題と考え,Linear-chainCRF又は2DCRFを用いて推定を行う.これは,ある返信文から往信文への依存関係が存在している時,同じ返信文から隣接する往信文へも依存する可能性が高いという傾向,または逆にある往信文へ依存している返信文がある時,隣接する返信文から同じ往信文へも依存する可能性が高いという傾向を活用するためである.また,彼らは特に文依存関係分類器の素性に注目し,文の種類を素性として利用することを提案している.これは,例えば「質問」や「要求」を述べている文は通常「回答」と対応するが「挨拶」とは対応しないなど,文種類が特定できれば文依存関係の推定に有用であるという観察に基づく.ただし,このような文種類が予め分かっている状況は稀であるため,各発話の種類を推定するための分類器を別途作成する.この文種類分類器を利用する手法では,与えられた対話文書に対して事前に文種類分類器を適用して文種類を推定しておき,対話文書と文種類推定結果を文依存関係分類器に入力することで最終的に文依存関係を得る.我々の課題に合わせて彼らの手法を変形する手法では,文対応推定問題を系列ラベリング問題と考える点や文種類を利用する点で同一である.異なるのは,彼らが文種類推定器を一つしか用意せずにどの発話者による発話文に対しても同じ文種類推定器を用いていたのに対し,我々は往信文書・返信文書のそれぞれに対して別の文種類推定器を用意する点である.これは,往信文書・返信文書ではそれぞれに特有な文種類が存在するなどの異なった傾向が存在するという仮定に基づく.また,彼らが提案する文対応推定モデルは,「返信文が同じで往信文が隣接する対応」の連接性を考慮したモデルと「返信文が同じで往信文が隣接する対応」「往信文が同じで返信文が隣接する対応」双方の連接性を考慮したモデルの二種類であったが,我々は「往信文が同じで返信文が隣接する対応」のみの連接性を考慮したモデルについても検討を加える点でも異なる.また,彼らの手法と我々が新たに提案する推定モデルによる手法の違いは,彼らが文種類・文依存関係推定モデルを別々に用意して文種類推定・文依存関係推定の二段階の手順を踏むのに対し,我々は文種類・文対応推定モデルを統合した一つのモデルで一度に推定する点である.以降,\ref{sec:qu-liu}節でQu\&Liuの推定モデルについて説明し,\ref{sec:proposal-simple}節以降で提案手法について順次説明する.\subsection{Qu\&Liuによる文依存関係推定手法の概要}\label{sec:qu-liu}Qu\&Liuが提案した対話文書における文依存関係を推定する手法\cite{Zhonghua2012}では,文種類推定器と文依存関係分類器の二種類を用意する.そこで,最初に文種類推定器について説明し,次に文依存関係分類器について説明する.ここで,説明のために以下の記号を導入する.\vspace{0.25zh}\begin{tabular}{rl}$N$&対話文の文数\\$\bm{x}$&対話文の列$x_1,x_2,\dotsx_N$\\$\bm{t}$&対話文の種類の列$t_1,t_2,\dotst_N$\\$y_{i,j}$&対話文$x_i$から$x_j$への文依存関係の存在有無(二値)\\$\bm{y}$&全ての文依存関係$y_{i,j}$からなる集合$\{y_{i,j}~|~1\leqi\leqN,~1\leqj\leqN\}$\\\end{tabular}\vspace{0.25zh}\noindentここで,$y_{i,j}$は対話文$x_i$から$x_j$の間に文依存関係が存在すれば1,しなければ0の二値を取る変数である\footnote{なお,Qu\&Liuは同じ文への依存関係($i=j$)に関して特に触れていないが\cite{Zhonghua2012},同じ文への依存関係はないものと考えられる.}.各文の種類を推定する問題は,文$\bm{x}$を観測変数,文種類$\bm{t}$を隠れ変数と考えると,系列ラベリング問題とみなすことができる.そこで,彼らはLinear-chainCRF\cite{Lafferty2001}を利用することで文種類推定器を実現する.各文間の文対応を推定する問題も,文$\bm{x}$を観測変数,文依存関係$\bm{y}$を隠れ変数としたラベリング問題と考えることができる.ここで,予め文種類推定器により推定した文種類$\hat{\bm{t}}$を素性の一つに投入することで,文種類を考慮した文依存関係の推定を実現する.ただし,文依存関係$\bm{y}$は文種類系列とは異なり二次元の構造を持つため,このままでは一次元の系列を対象とするLinear-chainCRFを用いることはできない.そこで,彼らは二次元構造の行ごとに順次推定を行うことでLinear-chainCRFを適用する手法と,二次元構造を一度に推定できる2DCRF\cite{Zhu2005}を適用する手法を提案している.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f4.eps}\end{center}\caption{Linear-chainCRFにより文依存関係を推定する手順.kは注目している文の位置を示す.}\label{fig:L-CRFc}\end{figure}Linear-chainCRFを繰り返し適用して文依存関係を推定する過程を図\ref{fig:L-CRFc}に示す.まず最初に注目する文$x_k~(1\leqk\leqN)$を固定し,$x_k$から全ての$x_1,x_2,\dotsx_N$への文依存関係$y_{k,\Circle[f]}~(1\leq\Circle[f]\leqN)$について考える.これにより,$y_{k,\Circle[f]}$は一次元の系列となるため,Linear-chainCRFを適用可能になる.この処理を全ての$x_k$に対して繰り返し適用することで,$\bm{y}$全体の推定が実現する.このLinear-chainCRFにおいては連接確率$P(y_{i,j}|y_{i,j-1},\bm{x})$が考慮されることになる.これにより,依存元が同じで依存先が隣接する$y_{i,j},y_{i,j-1}$の片方が依存関係にあればもう片方にも依存関係が存在することが多い傾向を活用できる\footnote{この場合とは逆に,依存先が同じで依存元が隣接する$y_{i,j},y_{i-1,j}$の連接性についても,Linear-chainCRFを$y_{\Circle[f],j}$に順次適用することで考慮でき結果として全体の推定が実現するが,Qu\&Liuはこの場合については検討を行っていない\cite{Zhonghua2012}.本論文が対象とする文対応推定の際には,この場合に相当する文対応推定器も作成して性能の比較検討を行う.}.これに対し,2DCRFを適用して推定する手法では$\bm{y}$全体を一度に推定できる.ここで2DCRFについて,2DCRFを因子グラフで表現した図\ref{fig:2D-CRFc}を用いて説明する.Linear-chainCRFを繰り返し適用する手法は,図\ref{fig:2D-CRFc}の因子のうち各$y$を横方向$y_{i,j},y_{i,j-1}$を結ぶ因子のみを残した場合に相当し,各行$y_{i,\Circle[f]}$ごとに推定を行う.一方2DCRFでは,各$y$を縦方向$y_{i,j},y_{i-1,j}$に結ぶ因子が加わる.これにより,Linear-chainCRFでは依存元が同じで依存先が隣接する$y_{i,j},y_{i,j-1}$の連接性のみを考慮していたが,依存先が同じで依存元が隣接する$y_{i-1,j},y_{i,j}$についての連接性も同時に考慮されるようになる.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f5.eps}\end{center}\hangcaption{2DCRFの因子グラフ($\bm{y}$が$3\times3$の場合の例.$\bm{x}$からすべての各因子へはリンクが接続されるが,図が煩雑になるため描画を省略した).実線は隣接する$y_{i,j}$同士を結ぶ因子に関わる変数に,点線は一つの$y_{i,j}$を直接結ぶ因子に関わる変数に接続している.}\label{fig:2D-CRFc}\end{figure}Qu\&Liuによると,2DCRFによる文依存推定モデルの方がLinear-chainCRFを繰り返し適用する推定モデルよりも性能が向上したことを報告している.\subsection{文種類・文依存関係推定モデルの本問題への適用}\label{sec:proposal-simple}次に,以上に述べたQu\&Liuによる文依存関係推定モデル\cite{Zhonghua2012}を,本論文の目的である二文書間の文対応推定へ適用する提案手法について説明する.本提案手法も彼らと同じく文種類推定器・文対応推定器の二種類を用意して順次推定する手法であり,以下でそれぞれについて順に説明する.ここで,説明のために以下の記号を改めて導入する.\vspace{0.25zh}\begin{tabular}{rl}$N$&往信文の文数\\$M$&返信文の文数\\$\bm{x}^{\rmorg}$&往信文の列${x^{\rmo}}_1,{x^{\rmo}}_2,\dots,{x^{\rmo}}_N$\\$\bm{x}^{\rmrep}$&返信文の列${x^{\rmr}}_1,{x^{\rmr}}_2,\dots,{x^{\rmr}}_M$\\$\bm{t}^{\rmorg}$&各往信文の種類の列${t^{\rmo}}_1,{t^{\rmo}}_2,\dots,{t^{\rmo}}_N$\\$\bm{t}^{\rmrep}$&各返信文の種類の列${t^{\rmr}}_1,{t^{\rmr}}_2,\dots,{t^{\rmr}}_M$\\$y_{i,j}$&往信文${x^{\rmo}}_i$と返信文${x^{\rmr}}_j$の間における文対応存在の有無(二値)\\$\bm{y}$&全ての文対応$y_{i,j}$からなる集合$\{y_{i,j}~|~1\leqi\leqN,~1\leqj\leqM\}$\\\end{tabular}\vspace{0.25zh}\noindentここで,$y_{i,j}$は往信文${x^{\rmo}}_i$から返信文${x^{\rmr}}_j$の間に文対応関係が存在すれば1,しなければ0の二値を取る変数である.各文の種類を推定する問題は,文$\bm{x}^{\rmorg}$(又は$\bm{x}^{\rmrep}$)を観測変数,文種類$\bm{t}^{\rmorg}$(又は$\bm{t}^{\rmrep}$)を隠れ変数とした系列ラベリング問題と考えることができる.ここで,我々は往信文書・返信文書ではそれぞれに特有な文種類が存在し,それぞれの文書で文種類の連接について異なった傾向があると予想した.例えば,一般に往信文書は人に向けて文書を新たに発信する動機である「質問」や「要望」が含まれる可能性が高いのに対し,返信文書はそれに対する「回答」が含まれる可能性が高い.そこで,我々はQu\&Liuとは異なり,文種類分類器を往信文書用・返信文書用に別々に用意することにした.なお,いずれの分類器についてもLinear-chainCRF\cite{Lafferty2001}を利用する.以降,これらのモデルをそれぞれ往信文種類モデル・返信文種類モデルと呼ぶ.各文間の文対応を推定する問題は,二文書$\bm{x}^{\rmorg},\bm{x}^{\rmrep}$を観測変数,文対応$\bm{y}$を隠れ変数と考えることができる\footnote{ただし,Qu\&Liuが扱う文依存関係とは,往信文同士の間や返信文同士の間についての関係については考えない点,文対応は一方向の関係である点で異なる.前者については,文依存関係に対して「発話者が異なる文間のみ」という制約を陽に加えた場合とみなすこともできる.}.本提案手法でも文種類分類器により推定した$\hat{\bm{t}}^{\rmorg},\hat{\bm{t}}^{\rmrep}$を素性の一つに投入し,文種類を考慮した文対応の推定を実現する.以下,前節と同様にLinear-chainCRFを繰り返し適用する手法と,2DCRFを適用する手法について順次説明する.文対応の推定では,注目する文を固定すればLinear-chainCRFを繰り返し適用することで文対応$\bm{y}$全体の推定が可能である.ここで,往信文${x^{\rmo}}_i$と返信文${x^{\rmr}}_j$のどちらを固定し,どちらの文対応連接性に注目するかで異なった分類器を作成することができる.これに対し,往信文間における対応の連接性を考慮する(返信文を固定し,$y_{\Circle[f],j}$を順次推定する)手法をL-CRF$_{\rm{org}}$,返信文間における対応の連接性を考慮する(往信文を固定し,$y_{i,\Circle[f]}$を順次推定する)手法をL-CRF$_{\rm{rep}}$とする.それぞれの手法の推定過程を図\ref{fig:L-CRFinitproc},\ref{fig:L-CRFrepproc}に示す.なお,Qu\&LiuがLinear-chainCRFを文依存関係推定に用いた場合が,本手法のL-CRF$_{\rm{org}}$と対応している.\begin{figure}[t]\begin{minipage}{0.49\hsize}\begin{center}\includegraphics{22-1ia2f6.eps}\end{center}\caption{L-CRF$_{\rm{org}}$での文対応推定手順}\label{fig:L-CRFinitproc}\end{minipage}\begin{minipage}{0.49\hsize}\begin{center}\includegraphics{22-1ia2f7.eps}\end{center}\caption{L-CRF$_{\rm{rep}}$での文対応推定手順}\label{fig:L-CRFrepproc}\end{minipage}\end{figure}また,2DCRFを用いた文対応の推定も可能である.この場合,Qu\&Liuの場合とほぼ同様に推定が可能である.このモデルは,往信文間・返信文間それぞれにおける対応の連接性を同時に考慮できるという特徴を持っている.\subsection{文種類・文依存関係推定モデルの統合}\label{sec:proposal-combine}以上までに説明した提案手法はQu\&Liuの手法と同様,最初に推定した文種類情報を文対応推定の素性として用いる.しかし,文種類を全て正しく推定することは困難であり,推定した文種類情報にはいくらかの誤りが含まれる可能性が高い.そのため,文種類推定時の誤りはそのまま文対応推定に影響を与える.そこで,我々は文種類と文対応を推定するモデルを統合し,両者を同時に推定することで文対応推定誤りの影響の抑制を狙った統合モデルを提案する.本論文では統合の元となるモデルとして,文種類推定にLinear-chainCRFを用いた往信文種類モデル・返信文種類モデル,文対応推定に2DCRFを用いた文対応モデルを考える.これらのモデルに対し,文種類変数と文対応変数に依存する因子関数を新たに加えることで,統合モデルを実現する.以下,具体的な統合方法について因子グラフを用いながら説明する.まず最初に,統合の元となる各モデルの因子グラフを図\ref{fig:model-before}に示す.ここで,各モデルの因子グラフ構造を\ref{sec:factor-graph}節の記法を用いて記述すると,以下の通りである.\vspace{1\Cvs}\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f8.eps}\end{center}\hangcaption{統合前のモデル(往信文・返信文が共に2文の場合.$\bm{x}$から各因子への接続は省略している).左から順に,往信文種類モデル,文対応モデル(2DCRF),返信文種類モデル.}\label{fig:model-before}\end{figure}\begin{description}\item[往信文種類モデル]\mbox{}\\Linear-chainCRFにより往信文種類を推定する.観測変数は往信文$\bm{x}^{\rmorg}$,隠れ変数は往信文種類$\bm{t}^{\rmorg}$である.観測変数と隠れ変数を結ぶ因子を${f^o}_i$,隠れ変数同士を結ぶ因子を${g^o}_j$とする($1\leqi\leqN,~1\leqj\leqN-1$).モデルの因子グラフを$\mathcal{G}_{\rmotype}=\{\mathcal{V}_{\rmotype},\mathcal{F}_{\rmotype},\mathcal{E}_{\rmotype}\}$とすると,$\mathcal{V}_{\rmotype},\mathcal{F}_{\rmotype},\mathcal{E}_{\rmotype}$はそれぞれ以下の通りである.因子グラフを図\ref{fig:model-before}(左)に示す.\begin{equation}\begin{split}\mathcal{V}_{\rmotype}&=\{\bm{x}^{\rmorg}\}\cup\{{t^o}_i\}_{i=1}^{N}\\\mathcal{F}_{\rmotype}&=\{{f^o}_i\}_{i=1}^{N}\cup\{{g^o}_j\}_{j=1}^{N-1}\\\mathcal{E}_{\rmotype}&=\{({f^o}_i,\bm{x}^{\rmorg})\}_{i=1}^{N}\cup\{({f^o}_i,{t^o}_i)\}_{i=1}^{N}\\&\qquad\cup\{({g^o}_j,{\bm{x}^{\rmorg}})\}_{j=1}^{N-1}\cup\{({g^o}_j,{t^o}_j)\}_{j=1}^{N-1}\cup\{({g^o}_j,{t^o}_{j+1})\}_{j=1}^{N-1}\end{split}\end{equation}\item[返信文種類モデル]\mbox{}\\Linear-chainCRFにより返信文種類を推定する.観測変数は往信文$\bm{x}^{\rmrep}$,隠れ変数は往信文種類$\bm{t}^{\rmrep}$である.観測変数と隠れ変数を結ぶ因子を${f^r}_i$,隠れ変数同士を結ぶ因子を${g^r}_j$とする($1\leqi\leqM,~1\leqj\leqM-1$).モデルの因子グラフを$\mathcal{G}_{\rmrtype}=\{\mathcal{V}_{\rmrtype},\mathcal{F}_{\rmrtype},\mathcal{E}_{\rmrtype}\}$とすると,$\mathcal{V}_{\rmrtype},\mathcal{F}_{\rmrtype},\mathcal{E}_{\rmrtype}$はそれぞれ以下の通りである.因子グラフを図\ref{fig:model-before}(右)に示す.\begin{equation}\begin{split}\mathcal{V}_{\rmrtype}&=\{\bm{x}^{\rmrep}\}\cup\{{t^r}_i\}_{i=1}^{M}\\\mathcal{F}_{\rmrtype}&=\{{f^r}_i\}_{i=1}^{M}\cup\{{g^r}_j\}_{j=1}^{M-1}\\\mathcal{E}_{\rmrtype}&=\{({f^r}_i,\bm{x}^{\rmrep})\}_{i=1}^{M}\cup\{({f^r}_i,{t^r}_i)\}_{i=1}^{M}\\&\qquad\cup\{({g^r}_j,{\bm{x}^{\rmrep}})\}_{j=1}^{M-1}\cup\{({g^r}_j,{t^r}_j)\}_{j=1}^{M-1}\cup\{({g^r}_j,{t^r}_{j+1})\}_{j=1}^{M-1}\end{split}\end{equation}\item[文対応モデル]\mbox{}\\2DCRFにより文対応を推定する.観測変数は往信文$\bm{x}^{\rmorg}$及び返信文$\bm{x}^{\rmrep}$(これらをまとめて$\bm{x}$とする),隠れ変数は文対応$\bm{y}$である.観測変数と隠れ変数を結ぶ因子を$f_{i,j}$,隠れ変数同士を結ぶ因子のうち,往信文を固定して隣接する返信文への対応間を考慮する($y_{i,j}$を横に結ぶ)因子を$g_{k,l}$,返信文を固定して隣接する往信文からの対応間を考慮する($y_{i,j}$を縦に結ぶ)因子を$h_{k,l}$とする($1\leqi\leqN,~1\leqj\leqM,~1\leqk\leqN-1,~1\leql\leqM-1$).因子グラフを図\ref{fig:model-before}(中央)に示す.モデルの因子グラフを$\mathcal{G}_{\rmrelation}=\{\mathcal{V}_{\rmrelation},\mathcal{F}_{\rmrelation},\mathcal{E}_{\rmrelation}\}$とすると,\\$\mathcal{V}_{\rmrelation},\mathcal{F}_{\rmrelation},\mathcal{E}_{\rmrelation}$はそれぞれ以下の通りである.\begin{equation}\begin{split}\mathcal{V}_{\rmrelation}&=\{\bm{x}\}\cup\{{y}_{i,j}\}_{i=1,j=1}^{i=N,j=M}\\\mathcal{F}_{\rmrelation}&=\{{f}_{i,j}\}_{i=1,j=1}^{i=N,j=M}\cup\{{g}_{k,l}\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{{h}_{k,l}\}_{k=1,l=1}^{k=N-1,l=M-1}\\\mathcal{E}_{\rmrelation}&=\{({f}_{i,j},\bm{x})\}_{i=1,j=1}^{i=N,j=M}\cup\{({f}_{i,j},y_{i,j})\}_{i=1,j=1}^{i=N,j=M}\\&\qquad\cup\{({g}_{k,l},\bm{x})\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{({h}_{k,l},\bm{x})\}_{k=1,l=1}^{k=N-1,l=M-1}\\&\qquad\cup\{({g}_{k,l},{y}_{k,l})\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{({g}_{k,l},{y}_{k,l+1})\}_{k=1,l=1}^{k=N-1,l=M-1}\\&\qquad\cup\{({h}_{k,l},{y}_{k,l})\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{({h}_{k,l},{y}_{k+1,l})\}_{k=1,l=1}^{k=N-1,l=M-1}\end{split}\end{equation}\end{description}次に,以上の3モデルを統合した新たな提案モデルについて説明する.このモデルでは,文種類・文対応推定を同一のモデルで扱うために,新たに二文の文種類変数と,それと対応する文対応変数に依存する因子関数$F_{i,j}~(1\leqi\leqN,~1\leqj\leqM)$を新たに加える.これにより,往信文${x^{\rmo}}_{i}$と返信文${x^{\rmr}}_{j}$に対応する往信文種類${t^{\rmo}}_{i}$・返信文種類${t^{\rmr}}_{j}$・文対応$y_{i,j}$が非独立的に扱われるようになり,文種類・文対応を同時に推定を行うことが可能になる.提案手法全体のグラフ構造を図\ref{fig:model-after}に示す.因子グラフ構造を具体的な式で記述すると,以下の通りである.以下,必要に応じて統合したモデルをcombineと呼ぶ.\vspace{1\Cvs}\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f9.eps}\end{center}\hangcaption{統合後のモデル(combine;往信文・返信文が共に2文の場合.$\bm{x}$から各因子への接続は省略している).実線は新たに加えた因子を結ぶリンク.}\label{fig:model-after}\end{figure}\begin{description}\item[統合モデル(combine)]\mbox{}\\観測変数は往信文$\bm{x}^{\rmorg}$及び返信文$\bm{x}^{\rmrep}$(これらをまとめて$\bm{x}$とする),隠れ変数は往信文種類${\bm{t}^{\rmorg}}$・返信文種類${\bm{t}^{\rmrep}}$・文対応$\bm{y}$である.新たに導入する因子を$F_{i,j}$とする($1\leqi\leqN,~1\leqj\leqM$).その他の因子は統合前の各モデルと同様である.モデルの因子グラフを$\mathcal{G}_{\rmcombine}=\{\mathcal{V}_{\rmcombine},\mathcal{F}_{\rmcombine},\mathcal{E}_{\rmcombine}\}$とすると,\\$\mathcal{V}_{\rmcombine},\mathcal{F}_{\rmcombine},\mathcal{E}_{\rmcombine}$はそれぞれ以下の通りである(新たに加わった因子に関わる部分を下線によって強調している).因子グラフを図\ref{fig:model-after}に示す.\begin{equation}\begin{split}\mathcal{V}_{\rmcombine}&=\{\bm{x}\}\cup\{{t^o}_i\}_{i=1}^{N}\cup\{{t^r}_i\}_{j=1}^{M}\cup\{{y}_{i,j}\}_{i=1,j=1}^{i=N,j=M}\\\mathcal{F}_{\rmcombine}&=\mathcal{F}_{\rmotype}\cup\mathcal{F}_{\rmrtype}\cup\mathcal{F}_{\rmrelation}\cup\underline{\{{F}_{i,j}\}_{i=1,j=1}^{i=N,j=M}}\\\mathcal{E}_{\rmcombine}&=\mathcal{E}_{\rmotype}\cup\mathcal{E}_{\rmrtype}\cup\mathcal{E}_{\rmrelation}\\&\qquad\cup\underline{\{({F}_{i,j},\bm{x})\}_{i=1,j=1}^{i=N,j=M}\cup\{({F}_{i,j},{t^{\rmo}}_{i})\}_{i=1,j=1}^{i=N,j=M}\cup\{({F}_{i,j},{t^{\rmo}}_{j})\}_{i=1,j=1}^{i=N,j=M}}\end{split}\end{equation}\end{description}なお,Linear-chainCRFなどでは各隠れ変数の周辺確率$P(y|\mathbf{x})$をForward-Backwardアルゴリズムにより効率的に求めることができるが,統合モデルのように閉路を含む因子グラフ上のCRFには適用することができない.そのため,TreeBasedreParameterization(TRP)\cite{Wainwright2001b}などにより近似的に求める必要がある. \section{評価実験} \subsection{実験条件}実験には「楽天データ公開\footnote{楽天データ公開:http://rit.rakuten.co.jp/rdr/データは2010年時点の公開データを用いた.}」に収録されている楽天トラベル\footnote{楽天トラベル:http://travel.rakuten.co.jp/}のレビューを用いた.楽天トラベルのレビューでは,宿泊施設に対するユーザのレビュー文書に対して宿泊施設提供者が返答することによって文書対が構成されている.典型的な文書対と文対応を示した例を図\ref{fig:dependency-example}に示す.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f10.eps}\end{center}\caption{宿泊予約ウェブサイトのレビュー・応答文書における文対応の例}\label{fig:dependency-example}\end{figure}実際には楽天トラベルのレビュー348,564件のうち,レビュー文書・応答文書の双方が存在する276,562件からランダムサンプリングした1,000文書対を用いた.この各文書を簡易的なヒューリスティックによって文単位に分割し,レビュー文4,813文・応答文6,160文を得た.この1,000文書対に対して5分割交差検定を適用して評価を行う.宿泊予約サイトの文種類の定義は,レビュー文書・応答文書ごとに文種類の分類に詳しい大沢らの先行研究を参考にした\cite{大沢:2010}.大沢らは本実験と同じウェブサイトである楽天トラベルの「クチコミ・お客さまの声」を分析し,レビュー文を8種類,応答文を14種類に分類している.本研究では文種類が特定できれば文対応の特定が容易になるよう,レビュー文を12種類,返答文を20種類に再分類した\footnote{レビュー文書の中には,末尾に「【ご利用の宿泊プラン】」に続いて宿泊プランの名称が書かれている文が存在した.この記述は,おそらく楽天トラベルのレビューを投稿する際に自動で挿入される文であると考えている.}.この分類を表\ref{tb:review-discourse}及び表\ref{tb:reply-discourse}に示す.また,大沢らの分析からの主な変更点とその理由を以下に示す.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{レビュー文種類—<ポジ/ネガ感想>の追加}:一文にポジティブ・ネガティブな感想を双方含むレビュー文は,複数の応答文と対応することがあるため.\item\textbf{応答文種類—<対応明示><検討明示>の具体性による細分化}:具体性のある対応・検討明示文はそれぞれレビュー文で書かれた一つの事情と対応するが,抽象的なものはレビュー文で書かれた複数の事情と対応することがあるため.\end{enumerate}\begin{table}[t]\caption{レビュー文書を構成する文の種類(大沢らによる分類を参考に再構成)}\label{tb:review-discourse}\input{02table01.txt}\end{table}以上の文種類の定義に基づき,人手で文種類及び文対応の有無をタグ付けした.その結果,1,000文書対全体では4,492通りの文対応が得られた.また,文種類について,各文種類の出現数と各文種類ごとに文対応がどの程度存在するかを調査したデータを表\ref{tb:review-dep-exists},\ref{tb:reply-dep-exists}に示す\footnote{なお,「その他」は例えば文書が英語で書かれているため分類が不可能であった文などである.}.表中の「対応(平均数)」は一文から見たときの平均対応文数を示しており,「対応(存在率)」は一つでも対応が存在する割合を示している.表\ref{tb:review-dep-exists},\ref{tb:reply-dep-exists}より,例えばレビュー文種類では<ネガティブ感想>や<要求・要望>が,応答文種類では<お詫び>や<具体的対応明示>などの文種類で対応存在率が高いなど,文種類によって対応の平均数や対応存在率が大きく異なることが分かる.\begin{table}[p]\caption{応答文書を構成する文の種類(大沢らによる分類を参考に再構成)}\label{tb:reply-discourse}\input{02table02.txt}\end{table}次に,文対応が交差する割合を示す.交差割合の計算は,各文書対において「文書対内において交差を持つ文対応の数/文書対内における全ての文対応の数」により求めた.結果,交差割合の平均は0.249であることから,本データにおいても文の出現順序と文対応の出現位置は必ずしも一致しないことが分かる.\begin{table}[t]\begin{minipage}[t]{.49\hsize}\caption{レビュー文の各文ごとの対応数・対応存在率}\label{tb:review-dep-exists}\input{02table03.txt}\end{minipage}\hfill\begin{minipage}[t]{.49\hsize}\caption{応答文の各文ごとの対応数・対応存在率}\label{tb:reply-dep-exists}\input{02table04.txt}\end{center}\end{minipage}\end{table}最後に,文対応の有無別にコサイン類似度の分布を表したヒストグラムを図\ref{fig:cossim-dist-f},\ref{fig:cossim-dist-t}に示す(なお,コサイン類似度が0.3--1.0である文対応の割合は少なかったため省略している).なお,コサイン類似度は,各文におけるstop-wordを除く単語の出現頻度を値に持つベクトルを用いて計算した値である.文対応を持つ文間の方が比較的高いコサイン類似度が高い傾向がある一方,文対応が存在する文対のうち53.56\%はコサイン類似度が0であった.そのため,本データにおいても対応する文同士は必ずしも類似しないことが分かる.実験で比較する手法は次の5つである.まず,\ref{sec:proposal-simple}節で説明したL-CRF$_{\rmorg}$,L-CRF$_{\rmrep}$,2DCRFの3種類を用いる.また,\ref{sec:proposal-combine}節で説明した統合モデルcombineを用いる.加えて,系列ラベリング問題ではなく二値分類問題と考えるモデルとしてロジスティック回帰(Logistic)でも性能を調査する.ロジスティック回帰は,L-CRFや2DCRFにおいて隣接する出力変数間の依存関係を考慮しないモデルに相当する.\begin{figure}[t]\begin{minipage}[b]{0.49\hsize}\begin{center}\includegraphics{22-1ia2f11.eps}\end{center}\caption{コサイン類似度の分布(文対応なし)}\label{fig:cossim-dist-f}\end{minipage}\begin{minipage}[b]{0.49\hsize}\begin{center}\includegraphics{22-1ia2f12.eps}\end{center}\caption{コサイン類似度の分布(文対応あり)}\label{fig:cossim-dist-t}\end{minipage}\end{figure}CRFの各モデルのパラメータ学習・利用にはMALLET2.0.7\cite{McCallumMALLET2002}中のGRMM\cite{GRMM2006}を用いた.GRMMに用いたパラメータはデフォルト(TRPの最大iteration回数1,000回,TRPの収束判定用の値0.01)とし,周辺確率の計算にはTRP\cite{Wainwright2001b}を利用した.なお,GRMMはCRF学習パラメータの正則化にL2正則化\cite{Chen99agaussian}を利用している.また,ロジスティック回帰のパラメータ学習・利用にはscikit-learn0.15.1\cite{scikit-learn}を用い,正則化にはL2正則化を利用した.文種類の推定には,文を構成するunigram(単語の表層形)を素性として用いる.また,文対応の推定,及びcombineモデルにおいて新たに追加した因子には以下の素性を用いる.なお,単語分割にはMeCab0.994\cite{kudo-yamamoto-matsumoto:2004:EMNLP}を利用した.\begin{itemize}\itemレビュー文を構成するunigram\item応答文を構成するunigram\itemレビュー文・応答文のコサイン類似度(0〜1の値)\item予め文種類モデルで推定したレビュー文・応答文の種類(combineモデル以外\footnote{combineモデルの場合は,レビュー文種類・応答文種類は文対応と同時に推定されるため,これらを陽に素性として追加する必要はない.combineモデルにおいては文種類と文対応を同時に考慮する因子が存在するため,文種類を考慮した文対応推定が実現できる.})\end{itemize}また,unigram素性及びコサイン類似度の計算に利用する単語からは予めstop-wordを除去しており\footnote{本実験では,品詞が「助詞」「助動詞」「記号」の単語をstop-wordとした.},1,000文書対全体では9,300種類の単語が存在した.文対応推定性能の評価は,適合率(Precision)・再現率(Recall),及びそれらの調和平均であるF値から行う.すなわち,考えうる全ての文対応の可能性から正しい文対応を探す課題とみなし,次の式で計算する.\pagebreak\begin{align*}\text{Recall}&=\frac{正しく推定できた対応数}{評価データ中に存在する文対応数}\\[0.5zw]\text{Precision}&=\frac{正しく推定できた文対応数}{システムが文対応有りと出力した文対応数}\end{align*}本実験では,以下に説明する手法により適合率・再現率を調整し,これらの性能がどのように変化するかを調査する.具体的には,文同士が対応する確率$P(y_{i,j}=1)$と対応しない確率$P(y_{i,j}=0)$の比率を取り,閾値を与えて閾値以上か否かで文対応の有無の出力を変更する.すなわち,文対応$y_{i,j}$の最終的な出力$\hat{y}_{i,j}$は閾値$\alpha$を用いて次の式(\ref{eq:alpha})のようにする.\begin{equation}\label{eq:alpha}\hat{y_{ij}}=\left\{\begin{array}{cl}1&~~\rm{if}~~\log\frac{P(y_{i,j}=1|\mathbf{x})}{P(y_{i,j}=0|\mathbf{x})}>\alpha\\0&~~\rm{otherwise}\\\end{array}\right.\end{equation}\subsection{実験結果と考察}実験結果を表\ref{tb:result}に示す.各数値は適合率・再現率を調整した際に学習データにおいてF値が最大となる点を用い,5分割交差検定でのマイクロ平均値を計算した数値である.なお,表\ref{tb:result}に示す結果のF値に対してブートストラップ検定で得られたp値をHolm法\cite{Holm1979}によって調整した有意水準と比較することで多重比較を行い,統合モデルcombineは他手法全てに対して統計的有意差があることを確認している(有意水準5\%){\kern-0.5zw}\footnote{ブートストラップ検定におけるブートストラップ回数は1,000回とした.}.併せて,閾値を変化させた際のPrecision-Recall曲線を図\ref{fig:pr}に示す.\begin{table}[b]\caption{実験結果(分割交差検定でのF値最大点におけるマイクロ平均値)}\label{tb:result}\input{02table05.txt}\vspace{-1\Cvs}\end{table}表\ref{tb:result}から,統合モデルcombineは文種類・文対応を別々に推定する各手法よりも高い性能となった.また,図\ref{fig:pr}より中程度の再現率(Recall:0.25〜0.75)でもcombineは概ね他手法よりも高い適合率であり,多くの場合において高い性能であったといえる.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f13.eps}\end{center}\caption{実験結果のPrecision-Recall曲線}\label{fig:pr}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f14.eps}\end{center}\hangcaption{平均コサイン類似度値-Recall曲線.各Recall値において推定された全ての文対応に対しコサイン類似度を計算し,平均を取った値の変化を示す.}\label{fig:recall-vs-avgcossim}\vspace{-0.5\Cvs}\end{figure}一方で,低再現率(Recall:0.0〜0.25)では,中再現率で高い適合率であったcombineよりもロジスティック回帰やL-CRF$_{\rmrep}$の方が高い性能であった.この原因を調べるため,低再現率と中再現率においてどのような文対応が推定できているかをコサイン類似度の観点から調査した.ここで,各Recall値の性能時において推定できた全ての文対応に対しコサイン類似度を計算し,平均を取った値の変化をグラフにした図を図\ref{fig:recall-vs-avgcossim}に示す.図\ref{fig:recall-vs-avgcossim}より,いずれの手法においても低い再現率値においてはコサイン類似度の平均が高く,徐々にコサイン類似度の平均は下がって行くことが分かる.中でもcombineは低再現率においてコサイン類似度の平均が他手法に比較すると特に低いことから,コサイン類似度の重要性を低く見ているために高類似度の文間に見られる文対応を見落としていると考えている\footnote{なお,例えば再現率10\%において推定された文対応のコサイン類似度について,ロジスティック回帰の分散は0.052,combineの分散は0.035であった.特に,コサイン類似度が0であった文対の割合は,ロジスティック回帰の場合は12.3\%であったのに対し,combineの場合は48.8\%と大きな差があった.}.これに対しては,combineでは他の手法よりも単純な単語マッチなどでは推定が困難な文対応もある程度発見できるという特徴を持つことでもあるため,コサイン類似度の値によって推定手法を切り替えるなどで様々な文対にも対応可能になると考えている.すなわち,コサイン類似度が高い文対ではロジスティック回帰やL-CRF$_{\rmrep}$など,低い文対ではcombineを用いることで,より推定性能が向上すると考えている.\begin{table}[b]\begin{minipage}[t]{205pt}\setlength{\captionwidth}{190pt}\hangcaption{提案モデルcombineにおけるレビュー文種類ごとの文対応推定性能(F値最大点)}\label{tb:rvl-pr}\input{02table06.txt}\end{minipage}\begin{minipage}[t]{205pt}\setlength{\captionwidth}{190pt}\hangcaption{提案モデルcombineにおける応答文種類ごとの文対応推定性能(F値最大点)}\label{tb:rpl-pr}\input{02table07.txt}\end{minipage}\end{table}次に,combineモデルにおける文種類ごとの推定性能を表\ref{tb:rvl-pr},\ref{tb:rpl-pr}に示す\footnote{表\ref{tb:rpl-pr}で全ての項目が「---」となっている文種類(<結びでの感謝><署名・フッター>)は今回のデータには該当する文種類に文対応がなかったもの,F値が「---」となっている文種類(<定型的挨拶>)は推定結果が全てfalse-positiveであったものである.}.いずれの文書を基準にしても文種類によって性能に大きな差があるが,この主な理由は学習データ量の差によるものと考えている.すなわち,一部の文種類はほとんど文対応を持たないことや,そもそも当該文種類を持つ文の出現回数が少ないことに起因して学習が難しくなっている.特に前者については,例えばレビュー文種類<感謝・応援><プラン名>や応答文種類<投稿御礼>について表\ref{tb:review-dep-exists},\ref{tb:reply-dep-exists}を見ると,登場する回数は多いものの文対応を持つものは極めて少ないことが分かる.これらの文種類については再現率が高いものの適合率が極めて低いことから,過剰に対応有りと推定してしまっていることが分かる.このように対応する可能性が低い文種類については,推定後に予め人手で作成したルールによりフィルタリングするなどにより解決できると考えている.次に,実際のcombineモデルの出力例を図\ref{fig:result-ex}に示す(表\ref{tb:result}に示すF値最大点における出力結果).図中の実線が推定によって得られた正しい文対応を示し,実線に$\times$記号があるものは対応有りと推定されたが実際には対応していないもの,破線は対応無しと推定されたが実際には対応しているものを示す.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f15.eps}\end{center}\hangcaption{combineモデルによる推定例.実線は対応有りと推定された正しい文対応を示す.実線に$\times$記号があるものは対応有りと推定されたが実際には対応していないもの,破線は対応無しと推定されたが実際には対応しているものを示す.}\label{fig:result-ex}\end{figure}図\ref{fig:result-ex}左側は誤りなく文対応を推定できた例である.例えばレビュー文「フロントの係の方や…」「駅から歩いて5分程…」はいずれも対応先の応答文「また、温かな嬉しいお言葉…」と共通する内容語が存在しないが,正しく文対応が推定できている.これは,それぞれの文種類を<ポジティブ感想><ほめへの感謝>と正しく推定できており,加えて「気持ちよく」「おいしい」「便利」といった語が現れる文と「御礼」といった言葉が現れる文の間には対応する可能性が高いといった傾向をうまく学習できたことによると考えている.また,図\ref{fig:result-ex}右側は誤った推定が含まれている例である.例えばレビュー文「夜遅かったので…」は応答文「また、フロントスタッフに対しても…」と対応していると推定して誤っている.これは逆に,文種類がそれぞれ<ポジティブ感想><ほめへの感謝>であることや,レビュー文中に「チェックアウト」が,応答文中に「フロント」「スタッフ」などの語が出現すると対応しやすいという傾向に影響されているためであると考えている.この場合,それぞれの文で触れられている対象が,チェックアウト時刻そのものなのか,チェックアウト時のスタッフの対応なのかを区別できればより正確な推定が可能になる.同様に,「夜遅かったので…」に対して応答文「当ホテルでは…」「クリスマスシーズン…」の間の文対応を発見することができなかった問題についても,それぞれの文でチェックアウト時刻に触れられていることを特定できれば対応を発見できる可能性が向上すると考えている.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f16.eps}\end{center}\caption{combineモデルと2DCRFモデルの推定例.左がcombine,右が2DCRF.}\label{fig:result-ex-comparison}\end{figure}最後に,combineモデルと2DCRFモデルによる出力の比較例を図\ref{fig:result-ex-comparison}に示す(表\ref{tb:result}に示すF値最大点における出力結果).この例では,2DCRFモデルでは誤って対応ありと出力したペアに対しても,combineモデルでは正しく対応がないと出力できている.2DCRFモデルが誤った理由の一つとして,文対応推定の前提処理である文種類推定の誤りによる影響があると考えている.この例では,応答文「今回はサラダのある…」及び「次回宿泊時には…」に対して文種類<情報追加>が誤って推定されているが(正しくは<お詫び>及び<対話>),\mbox{<情}報追加>は関連した語が登場するレビュー文と対応を持ちやすいという傾向があるため,過剰に対応有りと出力されていると考えている.これに対し,combineモデルでは文種類と文対応を同時に推定するため,事前の文種類推定における誤りに影響されるといったことはないため正しく推定できている. \section{まとめと今後の課題} 本論文では,対応する二文書間において文対応を自動で推定するタスクを提案した.また,対話文書を対象とした従来手法を本タスクに適用すると共に,文種類と文対応を推定するモデルを統合した新しいモデルを提案した.実際に文対応の推定性能について比較実験を行い,中再現率において統合モデルは他モデルよりも高い適合率であること,特にF値最大点では最も高いF値であることを確認した.今後の課題として,以下の項目を考えている.本論文の実験では,文対応推定に利用した素性は適用する文書対の分野に依存しないものに限られていた.そのため,文書対によっては分野に合わせた素性を投入することで性能が向上する可能性がある.特に,宿泊予約サイトのレビュー・応答文書対に合わせた素性を検討することを考えている.また,本研究では二文書の対に限っていたが,メールや掲示板等では「返信の返信」のように三文書以上が関係する場合もある.ここで,往信文書を文書A,文書Aに対する返信文書を文書B,文書Bに対する再返信文書を文書Cとした場合,文書Bでは文書Aに対する返信文に加え,文書Cへの往信文が登場するという性質を持つ.例えば,文書Bにおける回答は文書Aと対応し,文書Bにおける質問は文書Cと対応する.また,文書Bにおける回答文に対して文書Cでフィードバックが行われている場合など,文書Bのある一文が文書A,C双方と関係を持つ場合もある.この場合,文書A-文書B及び文書B-文書Cのそれぞれで本研究での提案手法を繰り返し適用する素朴な方法も考えられる.この際,文書Bの文種類をそれぞれの推定手順で返信文種類集合,往信文種類集合に切り替えて別々に推定するという方法もあるが,新たに往信文書・返信文書のいずれでもあるような文書のための文種類を新たに定義するという方法もある.更に,繰り返し推定するのではなく,文書A,B,Cの文種類・文対応を同時に推定するモデルに拡張するという方法も考えられる.加えて,本研究で扱う文対応の定義からは外れるものの,文書Bを経由せずに文書Aと文書Cで関連しているといった,三文書以上が関わることで初めて観察される関係もある.例えば,文書Aでした質問のいくつかが文書Bで答えられなかった場合に,文書Cで再度質問に触れる場合などがある.今後,三文書以上になることで新たに発生する事象についてはこのような関係も含めて分析を行い,三文書以上における文対応推定に最適な手法を検討したいと考えている.加えて,本論文の冒頭で紹介したような応用についても取り掛かりたいと考えている.今回対象となったデータセットであるレビュー文書・応答文書対についても様々な応用が考えられるため,応答文書の書き手の支援にとどまらず,ウェブサイトの利用者全体にとって有用なアプリケーションも実現したいと考えている.\acknowledgment本論文の実験にあたり,楽天データ公開において公開された楽天トラベル「お客さまの声・クチコミ」データを使用させて頂きました.データを公開して頂きました楽天株式会社に感謝致します.\bibliographystyle{./jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Boyer,Phillips,Ha,Wallis,Vouk,\BBA\Lester}{Boyeret~al.}{2009}]{Boyer2009}Boyer,K.~E.,Phillips,R.,Ha,E.~Y.,Wallis,M.~D.,Vouk,M.~A.,\BBA\Lester,J.~C.\BBOP2009\BBCP.\newblock\BBOQ{ModelingDialogueStructurewithAdjacencyPairAnalysisandHiddenMarkovModels}.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL-HLT-2009)},\mbox{\BPGS\49--52}.\bibitem[\protect\BCAY{Chen\BBA\Rosenfeld}{Chen\BBA\Rosenfeld}{1999}]{Chen99agaussian}Chen,S.~F.\BBACOMMA\\BBA\Rosenfeld,R.\BBOP1999\BBCP.\newblock\BBOQ{AGaussianPriorforSmoothingMaximumEntropyModels}.\BBCQ\\newblock\BTR,CarnegieMellonUniversity.\bibitem[\protect\BCAY{Druck\BBA\Pang}{Druck\BBA\Pang}{2012}]{Druck2012}Druck,G.\BBACOMMA\\BBA\Pang,B.\BBOP2012\BBCP.\newblock\BBOQ{SpiceitUp?:MiningRefinementstoOnlineInstructionsfromUserGeneratedContent}.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2012)},\mbox{\BPGS\545--553}.\bibitem[\protect\BCAY{長谷川\JBA鍜治\JBA吉永\JBA豊田}{長谷川\Jetal}{2013}]{長谷川貴之:2013}長谷川貴之\JBA鍜治伸裕\JBA吉永直樹\JBA豊田正史\BBOP2013\BBCP.\newblock聞き手の感情を喚起する発話応答生成.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\150--153}.\bibitem[\protect\BCAY{平尾\JBA西野\JBA安田\JBA永田}{平尾\Jetal}{2013}]{平尾:2013}平尾努\JBA西野正彬\JBA安田宜仁\JBA永田昌明\BBOP2013\BBCP.\newblock談話構造に基づく単一文書要約.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\492--495}.\bibitem[\protect\BCAY{比留間\JBA山下\JBA奈良\JBA田村}{比留間\Jetal}{1999}]{比留間正樹:1999-07-10}比留間正樹\JBA山下卓規\JBA奈良雅雄\JBA田村直良\BBOP1999\BBCP.\newblock文章の構造化による修辞情報を利用した自動抄録と文章要約.\\newblock\Jem{自然言語処理},{\Bbf6}(6),\mbox{\BPGS\113--129}.\bibitem[\protect\BCAY{Holm}{Holm}{1979}]{Holm1979}Holm,S.\BBOP1979\BBCP.\newblock\BBOQ{ASimpleSequentiallyRejectiveMultipleTestProcedure}.\BBCQ\\newblock{\BemScandinavianJournalofStatistics},{\Bbf6}(2),\mbox{\BPGS\65--70}.\bibitem[\protect\BCAY{Kschischang,Frey,\BBA\Loeliger}{Kschischanget~al.}{2001}]{Kschischang2001}Kschischang,F.~R.,Frey,B.~J.,\BBA\Loeliger,H.~A.\BBOP2001\BBCP.\newblock\BBOQ{FactorGraphsandtheSum-productAlgorithm}.\BBCQ\\newblock{\BemIEEETransactionsonInformationTheory},{\Bbf47}(2),\mbox{\BPGS\498--519}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo-yamamoto-matsumoto:2004:EMNLP}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQ{ApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis}.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQ{ConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData}.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML-2001)},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Mann,Matthiessen,\BBA\Thompson}{Mannet~al.}{1992}]{Mann1992}Mann,W.~C.,Matthiessen,C.~M.,\BBA\Thompson,S.~A.\BBOP1992\BBCP.\newblock\BBOQ{RhetoricalStructureTheoryandTextAnalysis}.\BBCQ\\newblockInMann,W.~C.\BBACOMMA\\BBA\Thompson,S.~A.\BEDS,{\BemDiscourseDescription:DiverseLinguisticAnalysesofaFund-raisingText},\mbox{\BPGS\39--78}.JohnBenjaminsPublishing.\bibitem[\protect\BCAY{Mann\BBA\Thompson}{Mann\BBA\Thompson}{1987}]{Mann1987}Mann,W.~C.\BBACOMMA\\BBA\Thompson,S.~A.\BBOP1987\BBCP.\newblock\BBOQ{RhetoricalStructureTheory:DescriptionandConstructionofTextStructures}.\BBCQ\\newblockInKempen,G.\BED,{\BemNaturalLanguageGeneration},\BCH~7,\mbox{\BPGS\85--95}.SpringerNetherlands.\bibitem[\protect\BCAY{Marcu}{Marcu}{1997}]{Marcu1997a}Marcu,D.\BBOP1997\BBCP.\newblock\BBOQ{TheRhetoricalParsingofNaturalLanguageTexts}.\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-1997)},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{Marcu}{Marcu}{1999}]{Marcu99discoursetrees}Marcu,D.\BBOP1999\BBCP.\newblock\BBOQ{DiscourseTreesAreGoodIndicatorsofImportanceinText}.\BBCQ\\newblockInMani,I.\BBACOMMA\\BBA\Maybury,M.~T.\BEDS,{\BemAdvancesinAutomaticTextSummarization},\mbox{\BPGS\123--136}.TheMITPress.\bibitem[\protect\BCAY{Marcu,Carlson,\BBA\Watanabe}{Marcuet~al.}{2000}]{Marcu2000}Marcu,D.,Carlson,L.,\BBA\Watanabe,M.\BBOP2000\BBCP.\newblock\BBOQ{TheAutomaticTranslationofDiscourseStructures}.\BBCQ\\newblockIn{\BemProceedingsofthe1stNorthAmericanchapteroftheAssociationforComputationalLinguisticsConference(NAACL-2000)},\mbox{\BPGS\9--17}.\bibitem[\protect\BCAY{McCallum}{McCallum}{2002}]{McCallumMALLET2002}McCallum,A.~K.\BBOP2002\BBCP.\newblock\BBOQ{MALLET:AMachineLearningforLanguageToolkit}.\BBCQ\\\newblock\texttt{http://mallet.cs.umass.edu/}.\bibitem[\protect\BCAY{大沢\JBA郷亜\JBA安田}{大沢\Jetal}{2010}]{大沢:2010}大沢裕子\JBA郷亜里沙\JBA安田励子\BBOP2010\BBCP.\newblock{Webサイトにおけるクチコミの苦情と返答—「宿泊予約サイト」を対象に—}.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\322--325}.\bibitem[\protect\BCAY{宮部\JBA高村\JBA奥村}{宮部\Jetal}{2005}]{宮部:2005}宮部泰成\JBA高村大也\JBA奥村学\BBOP2005\BBCP.\newblock異なる文書中の文間関係の特定.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会},{\Bbf2005}(NL-17),\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{宮部\JBA高村\JBA奥村}{宮部\Jetal}{2006}]{宮部:2006}宮部泰成\JBA高村大也\JBA奥村学\BBOP2006\BBCP.\newblock文書横断文間関係の特定.\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\496--499}.\bibitem[\protect\BCAY{難波\JBA国政\JBA福島\JBA相沢\JBA奥村}{難波\Jetal}{2005}]{難波:2005}難波英嗣\JBA国政美伸\JBA福島志穂\JBA相沢輝昭\JBA奥村学\BBOP2005\BBCP.\newblock文書横断文間関係を考慮した動向情報の抽出と可視化.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会},{\Bbf2005}(NL-169),\mbox{\BPGS\67--74}.\bibitem[\protect\BCAY{Pedregosa,Varoquaux,Gramfort,Michel,Thirion,Grisel,Blondel,Prettenhofer,Weiss,Dubourg,Vanderplas,Passos,Cournapeau,Brucher,Perrot,\BBA\Duchesnay}{Pedregosaet~al.}{2011}]{scikit-learn}Pedregosa,F.,Varoquaux,G.,Gramfort,A.,Michel,V.,Thirion,B.,Grisel,O.,Blondel,M.,Prettenhofer,P.,Weiss,R.,Dubourg,V.,Vanderplas,J.,Passos,A.,Cournapeau,D.,Brucher,M.,Perrot,M.,\BBA\Duchesnay,E.\BBOP2011\BBCP.\newblock\BBOQ{Scikit-learn:MachineLearninginPython}.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf12},\mbox{\BPGS\2825--2830}.\bibitem[\protect\BCAY{Qu\BBA\Liu}{Qu\BBA\Liu}{2012}]{Zhonghua2012}Qu,Z.\BBACOMMA\\BBA\Liu,Y.\BBOP2012\BBCP.\newblock\BBOQ{SentenceDependencyTagginginOnlineQuestionAnsweringForums}.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2012)},\mbox{\BPGS\554--562}.\bibitem[\protect\BCAY{Radev}{Radev}{2000}]{Radev2000}Radev,D.~R.\BBOP2000\BBCP.\newblock\BBOQ{ACommonTheoryofInformationFusionfromMultipleTextSourcesStepOne}.\BBCQ\\newblockIn{\BemProceedingsofthe1stSIGdialWorkshoponDiscourseandDialogue},\lowercase{\BVOL}~10,\mbox{\BPGS\74--83}.\bibitem[\protect\BCAY{Ritter,Cherry,\BBA\Dolan}{Ritteret~al.}{2011}]{Ritter2011}Ritter,A.,Cherry,C.,\BBA\Dolan,W.~B.\BBOP2011\BBCP.\newblock\BBOQ{Data-drivenResponseGenerationinSocialMedia}.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2011)},\mbox{\BPGS\583--593}.\bibitem[\protect\BCAY{Sutton}{Sutton}{2006}]{GRMM2006}Sutton,C.\BBOP2006\BBCP.\newblock\BBOQ{GRMM:GRaphicalModelsinMallet}.\BBCQ\\\newblock\texttt{http://mallet.cs.umass.edu/grmm/}.\bibitem[\protect\BCAY{Sutton\BBA\McCallum}{Sutton\BBA\McCallum}{2012}]{Sutton2012}Sutton,C.\BBACOMMA\\BBA\McCallum,A.\BBOP2012\BBCP.\newblock\BBOQ{AnIntroductiontoConditionalRandomFields}.\BBCQ\\newblock{\BemFoundationsandTrendsinMachineLearning},{\Bbf4}(4),\mbox{\BPGS\267--373}.\bibitem[\protect\BCAY{竹中\JBA若尾}{竹中\JBA若尾}{2012}]{竹中要一:2012-09-30}竹中要一\JBA若尾岳志\BBOP2012\BBCP.\newblock地方自治体の例規比較に用いる条文対応表の作成支援.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\193--212}.\bibitem[\protect\BCAY{田村\JBA和田}{田村\JBA和田}{1998}]{田村直良:1998-01-10}田村直良\JBA和田啓二\BBOP1998\BBCP.\newblockセグメントの分割と統合による文章の構造解析.\\newblock\Jem{自然言語処理},{\Bbf5}(1),\mbox{\BPGS\59--78}.\bibitem[\protect\BCAY{Tu,Zhou,\BBA\Zong}{Tuet~al.}{2013}]{tu-zhou-zong:2013:Short}Tu,M.,Zhou,Y.,\BBA\Zong,C.\BBOP2013\BBCP.\newblock\BBOQ{ANovelTranslationFrameworkBasedonRhetoricalStructureTheory}.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2013)},\mbox{\BPGS\370--374}.\bibitem[\protect\BCAY{Wainwright,Jaakkola,\BBA\Willsky}{Wainwrightet~al.}{2001}]{Wainwright2001b}Wainwright,M.,Jaakkola,T.,\BBA\Willsky,A.\BBOP2001\BBCP.\newblock\BBOQ{Tree-basedReparameterizationforApproximateInferenceonLoopyGraphs}.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystem(NIPS-2001)},\mbox{\BPGS\1001--1008}.\bibitem[\protect\BCAY{Zhu,Nie,Wen,Zhang,\BBA\Ma}{Zhuet~al.}{2005}]{Zhu2005}Zhu,J.,Nie,Z.,Wen,J.-R.,Zhang,B.,\BBA\Ma,W.-Y.\BBOP2005\BBCP.\newblock\BBOQ{2DConditionalRandomFieldsforWebInformationExtraction}.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonMachineLearning(ICML-2005)},\mbox{\BPGS\1044--1051}.\end{thebibliography}\begin{biography}\bioauthor{角田孝昭}{2011年筑波大学情報学群情報メディア創成学類卒業.2013年同大学大学院システム情報工学研究科コンピュータサイエンス専攻博士前期課程修了.現在,同大学博士後期課程在学中.修士(工学).自然言語処理の研究に従事.}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教.現在に至る.博士(工学).近年はCGMテキストに対する評判分析に興味をもつ.}\bioauthor{山本幹雄}{1986年豊橋技術科学大学大学院修士課程了.同年株式会社沖テクノシステムズラボラトリ研究開発員.1988年豊橋技術科学大学情報工学系教務職員.1991年同助手.1995年筑波大学電子・情報工学系講師.1998年同助教授.2008年筑波大学システム情報工学研究科教授.博士(工学).自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V05N01-04
\section{はじめに} 本研究では,論説文の文章構造についてモデル化し,それに基づいた文章解析について論じる.近年のインターネットや,電子媒体の発達などにより大量の電子化された文書が個人の周囲にあふれてきており,文書理解,自動要約等,これらを自動的に処理する手法の必要性が増している.文章の構造化はそれらの処理の前提となる過程であるが,人間がその作業を行なう場合を思えば容易に分かるように,元来非常に知的な処理である.しかし,大量の文書を高速に処理するためには,記述されている領域に依存した知識を前提とせず,なるべく深い意味解析に立ち入らない「表層的」な処理により行なうことが求められる.文末表現から文章構造を組み立てる手法,表層的な表現から構造化する手法,また,テキスト・セグメンテーションの手法もいくつか提案されているが,画一的な観点からの文章の構造化では,大域的構造,局所的構造,両者をともに良好に解析する手法は少ない.我々の手法では,トップダウン的解析とボトムアップ的解析の双方の利点を活かし,文章の木構造を根から葉の方向へ,葉から根の方向へと同時に生成していく.これらのアルゴリズムは,相互に再帰的な二つのモジュールにより構成されている.我々の目的は,Shankらに代表されるような「深い意味解析」が必要な談話理解過程を論じるものではない.むしろ,文章における結束関係\cite{Halliday:76}や連接関係の理解過程のモデル化を目標としている.この分野の研究については,たとえば\cite{Abe:94}にサーベイされている.なかでも,目的と手法が似ているものは,\cite{Dahlgren:88,Dahlgren:89}のCRA(coherencerelationassignment)アルゴリズムであろう.しかし,彼女らの手法は局所的構造と大域的構造を別々に作るようである.日本語の文章の連接関係の解析では,\cite{Fukumoto:91,Fukumoto:92}や,\cite{Kurohashi:94}などがあり,文末の表現や表層的な情報により文章の構造化を試みているが,局所的な解析には適した手法だが,大域的には十分な解析精度は得にくいと思われる.以下,第2章では前提となる文章構造のモデルを提案し,第3章ではトップダウン的解析アプローチについて,第4章ではボトムアップ的解析アプローチについて述べ,第5章で両者を融合した解析手法について説明する.最後に第6章で実験結果と本手法についての評価を述べる. \section{文章の論説モデル} \subsection{文末表現と論説文の構造}\subsubsection{文のタイプ}日本語の文は,客体的な出来事や事柄を表す部分と,それに対する筆者/話し手の立場からの把握の仕方(言表事態めあてのモダリティ),発話・伝達的態度の有り方を示す部分(発話・伝達のモダリティ)から成り立っている\cite{Nitta:91}.我々は,モダリティが文末の述語を表層的に分類することによりある程度解析できることに着目し,\cite{Fukumoto:91}に基づいて分類する.文のタイプの分類としては,福本らの分類を小分類として用いるが,さらにこれらを「意見」,「断定」,「叙述」の3つに大分類する.本研究ではこれを利用することにより論説文の構造の解析を行なう.以下に文のタイプを示す.\begin{description}\item[意見]筆者の願望や疑問などの意見が含まれる文\\これらは仁田\cite{Nitta:91}における発話・伝達のモダリティのうち,表出,働き掛け,問い掛けにあたる.\begin{center}\begin{tabular}{lll}意見&問掛&要望\\\end{tabular}\end{center}\item[断定]筆者の判断が含まれる文\\これらは仁田\cite{Nitta:91}における発話・伝達のモダリティのうち述べ立てにあたり,また言表事態めあてのモダリティのうち判断・推量をとる.\begin{center}\begin{tabular}{llll}断定&推量&理由&判断\\\end{tabular}\end{center}\item[叙述]事実を述べている文\\これらは仁田\cite{Nitta:91}における発話・伝達のモダリティのうち,述べ立て(現象描写文)である.\begin{center}\begin{tabular}{lllll}叙述&可能&伝聞&様態&存在\\継続&状態&使役&例示\\\end{tabular}\end{center}\end{description}小分類個々を実際にどう分類するかについては,\cite{Fukumoto:91}を参照されたい.\subsubsection{文のタイプと論説文構造の特性}上記の分類に基づき,文のタイプと文章中の出現位置の関係を調べた.図\ref{bunpu}は文の位置と各文のタイプの出現頻度の関係を,304個の社説\footnote{日本経済新聞94年1月から6月までの社説}について調べた結果である.各文章はそれぞれ文数が異なるので,文の位置は0〜1に規格化してある.\begin{figure}[htbp]\begin{center}\includegraphics{bunpu.ps}\caption{各タイプの文の出現頻度}\label{bunpu}\end{center}\end{figure}「意見」は,文章の$3/4$以降で出現頻度が増加し始めているが,それ以前ではほとんど一定である.「叙述」は,文章の開始部で際だって頻出し,中間部ではほぼ一定,終了部で頻度が低下している.「断定」は,文章全体に現れるが,終了部でわずかに減少する.これによると,論説文(新聞の社説)では,論旨の展開の構造があり,少なくとも3つの部分に分割される.さらに,このうちの中間の部分も構造化されることが予想される.\subsection{論説文の修辞レベル}本研究では,論説文の構成を図\ref{model}のように考える.この階層的な文章構造の構築を目標に,文章の解析手法を考える.文章の修辞レベルとは,以下の通りである.\begin{itemize}\item論証レベル:論説文章の最上位のレベルである.ここのレベルの構造は,固定的に「導入」,「展開」,「結論」をノードとして,これ以下の構造を統括する.\item話題レベル:このレベルでは,名詞の分布,連鎖に着目した話題の構造,および議論の展開構造における一まとまりの話題を扱う.\item思考レベル:\hspace{2mm}\cite{Ono:89}\hspace{2mm}を参考に,思考レベル,言明レベルを導入する.これらの構造は,修辞構造理論\cite{Mann:87:a}に基づいており,言明間の関係,およびそうして関係付けられたものの間の関係を表す.表\ref{rheto}に分類を表す.表中で,n,n1,n2は核(nucleus)を,sは衛星(satellite)を表わす.「n←s」,「s→n」等はそれぞれ前文が核,後文が衛星,あるいは前文が衛星,後文が核であることを表す.\item言明レベル:一つの話題,筆者の一つの言明を表現した構造で,ノードは,一文あるいは言明レベルの修辞関係(表\ref{rheto}参照)に対応する.各文は,命題とモダリティに相当する文末情報からなるとするが,本研究では,命題部分からは名詞の出現を,文末部分からは文のタイプのみを扱う.\end{itemize}\begin{figure}[htbp]\begin{center}\includegraphics[scale=1.0,clip]{ronsi_model.eps}\caption{論説文の修辞レベル}\label{model}\end{center}\end{figure}\begin{table}[htb]\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{5}{|c|}{思考レベル}&言明レベル\\\hline\multicolumn{3}{|c|}{直列型}&並列型&転換型&\\\hlinen1→n2&n←s&s→n&n1→n2&n1→n2&n←s\\\hline順接&添加&条件&並列&転換&説明\\逆接&&結論&選択&&強調\\換言&&一般化&対比&&例示\\&&相反&&&\\&&提起&&&\\&&根拠&&&\\&&因果&&&\\\hline\end{tabular}\end{center}\caption{修辞関係の分類}\label{rheto}\end{table} \section{文章解析のトップダウン的アプローチ} \label{top1}\subsection{文章のセグメンテーションの手法とトップダウン的構造化}\label{top2}望月ら\cite{Mochiduki:96}のテキスト・セグメンテーションの手法は,文章中のすべての文と文の境界について種々の観点から設定したパラメタを観測し,\begin{equation}\hat{y}=a_o+a_1x_1+a_2x_2+\cdots+a_px_p\label{siki}\end{equation}\[(x_i:パラメタiの点数,a_i:パラメタiの重み)\]なる式で,閾値を越えた\hspace{-0.2mm}$\hat{y}$\hspace{-0.2mm}によりテキスト分割の可不可を判定するものである.パラメタとしては,段落をはさんでの出現する傾向が強いもの/性質,あるいは段落をまたいでは出現しそうにないもの/性質などを選ぶ(次節参照).まず,我々は次のように仮定する.\begin{description}\item{\bf仮定}\begin{quote}(\ref{siki})式の評価値は,テキストの「非連続性の強さ」と相関性がある.\end{quote}\end{description}この値の大きさをもとに次のアルゴリズムで文章のトップダウン的構造化を行う.\begin{description}\item{\bf構造化のトップダウン・アルゴリズム}\begin{enumerate}\item文章中のすべての文と文の境界について(\ref{siki})式により評価値を求める.\item評価値の高い順にセグメントの分割を行い,二分木を作る.\end{enumerate}\end{description}\subsection{セグメンテーションのパラメタ}望月ら\cite{Mochiduki:96}をもとに,パラメタを以下のような観点から選択する.パラメタの選択には,有効と思われるものをなるべく多く用意し,訓練データに対する重回帰分析によりパラメタの重みを決める.なお,形式段落であるかどうかは,有力なパラメタの候補であるが,本研究では,訓練の際の正解として用いている.\begin{itemize}\item助詞は「は」と「が」の出現\\着目している境界の前後の文について調べる.これにより主題,主語の存在の影響が判定に反映される.\item接続語句の有無\\接続語句は文間の接続関係を表層的に明示している.これにより文間の接続関係の影響が判定に反映される.\item指示語(こそあど)の有無\\指示語の参照先は同一段落内であることが多い.これにより上記性質が判定に反映される.\item時制の情報\\着目している境界の前後の文の時制の変化について調べる.以前の調査\cite{Isoyama:94}によると,過去形となるのは叙述文のみで,過去形の叙述文は「導入」に用いられる,など段落に影響する場合がある.\item文のタイプの情報\\例えば,段落の末尾で著者は意見や断定を行なう傾向があるかもしれない.このような性質が判定に反映される.\item名詞の連鎖の情報\\文章中で,ある名詞は話題に関連してある段落にかたよって出現するかもしれない.これにより,同義語\footnote{\cite{Hayashi:66}による.}も含めた名詞の連鎖やその切れ目の情報を判定に反映させられる.\end{itemize}パラメタの一覧を表\ref{juu-param}に示す.なお,「重み」欄は,次節で述べる訓練の結果得られたパラメタの重みである.重みから接続語句の展開型,時制,文のタイプの情報(境界の候補の前文が「意見文」であるかどうか)がセグメンテーションに大きく影響していることが分かる.\begin{table}[htb]\begin{center}\begin{tabular}{|c|l|l||r|}\hlineパラメタ&分類&抽出方法&重み($a_i$)\\\hline\hline$x_1$&助詞&前文に「は」が出現なら,1点&-0.078\\$x_2$&&「は」が出現なら,1点&1.867\\$x_3$&&前文に「が」が出現なら,1点&1.151\\$x_4$&&「が」が出現なら,1点&0.334\\\hline$x_5$&接続&文頭に「補足」型が出現なら,1点&-0.437\\$x_6$&語句&文頭に「展開」型が出現なら,1点&-2.039\\$x_7$&(注1)&文頭に「転換」型が出現なら,1点&(注2)\\\hline$x_8$&指示語&後文の文頭に「こそあど」型が出現なら,1点&-0.091\\\hline$x_9$&時制&現在$\rightarrow$現在なら,1点&3.449\\$x_{10}$&&現在$\rightarrow$過去なら,1点&4.604\\$x_{11}$&&過去$\rightarrow$現在なら,1点&1.407\\$x_{12}$&&過去$\rightarrow$過去なら,1点&2.862\\\hline$x_{13}$&文の&叙述$\rightarrow$叙述なら,1点&0.481\\$x_{14}$&タイプ&叙述$\rightarrow$断定なら,1点&0.224\\$x_{15}$&&叙述$\rightarrow$意見なら,1点&1.643\\$x_{16}$&&断定$\rightarrow$叙述なら,1点&-0.519\\$x_{17}$&&断定$\rightarrow$断定なら,1点&0.267\\$x_{18}$&&断定$\rightarrow$意見なら,1点&-0.987\\$x_{19}$&&意見$\rightarrow$叙述なら,1点&2.220\\$x_{20}$&&意見$\rightarrow$断定なら,1点&2.963\\$x_{21}$&&意見$\rightarrow$意見なら,1点&2.250\\\hline$x_{22}$&名詞の&連鎖の開始なら,1点加点&0.236\\$x_{23}$&連鎖&前文で連鎖の終了なら,1点加点&0.400\\$x_{24}$&&前文でギャップの開始なら,1点加点&-0.156\\$x_{25}$&&ギャップの終了なら,1点加点&-0.048\\\hline\hline$a_0$&定数項&&-2.522\\\hline\end{tabular}\end{center}\begin{quote}\hspace*{1mm}(注1)接続語句の分類については付録Iに示す.\\\hspace*{1mm}(注2)実際は出現個数が少なく未使用\\\end{quote}\caption{重回帰分析に使用するパラメタ}\label{juu-param}\end{table}\subsection{パラメタの訓練}まず,パラメタの重みを決定するが,訓練の十分性をみるために,訓練とセグメンテーションの精度の関係を調べる.訓練では,テキスト中のすべての文と文の境界についてパラメタを評価し,正解としてその境界が形式段落と一致するときに$y=10$,しないとき$y=-1$を与える.図\ref{kunren}に訓練データの数と,訓練データとは別な20編の社説に対する段落検出の精度の関係を示す.別の調査\footnote{1993年,1994年の日本経済新聞の社説1227編から,一段落あたりの平均の文の数は$2.69$であることがわかった.}から求めた段落内の文の数の平均をもとに,一定の段落の数だけ,評価値の大きい境界から順に段落として採用する.実験は,訓練データの数を変えていき,訓練データとは別の20編の評価データにより再現率,適合率\footnote{\[\mbox{適合率}=\frac{\mbox{形式段落と一致した境界の数}}{\mbox{プログラムで検出された境界の数}}\]\[\mbox{再現率}=\frac{\mbox{形式段落と一致した境界の数}}{\mbox{形式段落の境界の数}}\]}を求めたものである.以上により訓練は,80編程で十分であることがわかった.\begin{figure}\begin{center}\includegraphics[scale=0.95,clip]{nikkei_2.eps}\caption{訓練データ数と精度}\label{kunren}\end{center}\end{figure} \section{文章解析のボトムアップ的アプローチ} \subsection{セグメント統合のアルゴリズム(ボトムアップ的構造化)}まず,セグメントの統合について述べる.次節以降で述べる「結束性の強さ」に基づいて,セグメントは次のように統合される.\begin{description}\item{\bfセグメント統合のアルゴリズム}\\連続する4個のセグメント\hspace{-0.2mm}$S_1$,$S_2$,$S_3$,$S_4$において,$S_1$と$S_2$,$S_2$と$S_3$,$S_3$と$S_4$\hspace{-0.2mm}の結束性の強さをそれぞれ\hspace{-0.2mm}$R_1$,$R_2$,$R_3$\hspace{-0.2mm}とすると,\[R_1<R_2>R_3\]の場合のみ,セグメント$S_2$と$S_3$を統合して新しいセグメント$S_{23}$を作る(図\ref{bottomup}参照).\end{description}これにより,文章のボトムアップ的構造化のアルゴリズムは次のように表される.\begin{description}\item{\bf構造化のボトムアップ・アルゴリズム}\\文の並びから始めて,「セグメント統合のアルゴリズム」を繰り返し適用し,セグメントを統合していく.\end{description}\begin{figure}[htbp]\begin{center}\includegraphics[scale=0.8,clip]{bottomup.ps}\caption{セグメント統合のアルゴリズム}\label{bottomup}\end{center}\end{figure}\subsection{結束性の良さの指標}\label{tuyosa}結束関係とは,文章を構成する要素間の意味的な関係をいう\cite{Halliday:76}が,本研究の範囲からいえば,二つのセグメント間の意味的な関係ということになる.オリジナルの結束関係では,指示,代用,省略,接続,語彙的結束性があるが,ここでは,修辞関係の観点から見た「接続」のみ扱う.また,以下の規則を1から順に適用することにより,「結束性の強さ」という尺度を導入する.\begin{enumerate}\item形式段落をまたぐ結び付きより形式段落内の結び付きの方が結束性が強い.\item接続表現のあるものの間の結び付きの方がないものの間より結束性が強い.\item思考レベルの修辞関係より言明レベルの修辞関係の方が結束性が強い.\item思考レベルにおいては並列型,直列型,転換型の順で結束性が強い.\item思考レベル,言明レベルにおいて同型同士ならば先の結合の方が結束性が強い.\end{enumerate}\subsection{セグメントの隣接関係}構造化された隣接する二つのセグメント間の修辞関係の同定は,次のような手順で行なう.\begin{enumerate}\item右セグメントの左端が形式段落の切れ目で接続表現があれば,それにより同定する.接続表現からの修辞関係同定は,付録Iによる.\itemセグメントが部分木に統合されている場合,評価は「核優先の仮定」を用いて代表する核同士を比較し,付録IIIの表により同定する(後述).\item接続表現があればそれにより同定する(付録I参照).\item左右のセグメントが両方とも一文であるならば,言明レベルの修辞関係を優先する.\item文のタイプの比較によって同定する(後述).\itemデフォルトは``順接''とする.\end{enumerate}ここで,「核優先の仮定」とは以下である.\begin{description}\item{\bf核優先の仮定}\begin{quote}セグメント間の修辞関係を評価するとき,基本的に核だけでそのセグメントの評価ができる(表\ref{rheto}参照).ただし,前文と後文が両方とも核になる修辞関係では,\begin{itemize}\item前文が主$\cdots$換言・並列・選択・対比\item後文が主$\cdots$順接・逆接・転換\end{itemize}とする.\end{quote}\end{description}「文のタイプの比較」とは,二文(セグメントの場合は代表する文)のタイプを比較することにより修辞関係を同定するもので,詳細を付録IIIに示す.この際,二つのセグメントの境界が形式段落と一致している場合は「形式段落間」,2文とも形式段落内に存在する場合は「形式段落内」の各項目を参照する. \section{トップダウン的アプローチとボトムアップ的アプローチの融合} \subsection{トップダウン(分割)vs.ボトムアップ(統合)}ここで,トップダウン的なアプローチとボトムアップ的なアプローチについて比較する.\begin{description}\item{\bfトップダウン的アプローチ(セグメント列の分割)}\begin{itemize}\itemパラメタにより,(表層的に)明確に指標が現れている箇所ほど早い段階で分割が行われている.\item構造木の葉にあたる下部に近付くにつれ,適当でない分割が行なわれる.これは評価関数による判定では小さいセグメント列をさらに分割するという細かい判定まで正しく評価できないことによる.\end{itemize}\item{\bfボトムアップ的アプローチ(セグメントの統合)}\begin{itemize}\item対象とする構造が小さいほど,結束性の強さや修辞関係は正しく判定される.\item反面,大きい構造(セグメント)同士の修辞関係ほど意味的な影響が強くなり,判定は困難である.\end{itemize}\end{description}\subsection{両者を融合したアルゴリズム}本研究で提案する解析アルゴリズムは,前節で述べたトップダウン解析とボトムアップ解析の良いところのみを採り入れたアルゴリズムで,次の二つの手順からなる.\begin{description}\item{\bftopdown}\begin{enumerate}\item処理範囲が1セグメントなら終了.\item(\ref{siki})式により,セグメント列において最大の分割箇所を求め,二分割する.\itemそれぞれのセグメント列を{\bfbottomup}により構造化する.\end{enumerate}\item{\bfbottomup}\begin{enumerate}\item処理範囲が1セグメントなら終了.\item「セグメント統合のアルゴリズム」に基づき,セグメント列上で統合できるセグメントを検出し,次にそれらを統合する.統合できるセグメントがなければ次のステップへ.\item得られたセグメント列を{\bftopdown}により構造化する.\end{enumerate}\end{description}解析処理の例を,図\ref{tb_model}に摸式的に示す.\begin{figure}\begin{center}\includegraphics[scale=0.9,clip]{tb_model.eps}\caption{分割と統合による構造解析}\label{tb_model}\end{center}\end{figure} \section{解析システムと実験} \subsection{構造木の生成例}本研究のアルゴリズムに基づいて,付録に示す入力データを解析した結果を図\ref{tree_example}に示す.\begin{figure}[htbp]\baselineskip=12pt\begin{verbatim}[]|-[]||-[(1,1),順接,(1,2)]||-順接||-[]||-[(2,1),並列,(2,2)]||-結論||-[[(3,1),転換,(3,2)],逆接,(4,1)]|-転換|-[]|-[]||-[]|||-[]||||-[(5,1),順接,(5,2)]||||-順接||||-[(5,3),並列,(5,4)]|||-順接|||-[(6,1),並列,(6,2)]||-順接||-[]||-[]|||-[(7,1),順接,(7,2)]|||-順接|||-[[(8,1),順接,(8,2)],順接,(8,3)]||-順接||-(9,1)|-転換|-[]|-[[(9,2),対比,(9,3)],順接,(10,1)]|-結論|-[(11,1),転換,(11,2)]\end{verbatim}\caption{構造木の生成例}\label{tree_example}\end{figure}\subsection{解析結果の評価の方針}本研究で提案した手法の評価を試みる.評価では,生成された木構造の正確さを評価するわけだが,正解をどのように設定するのかという点と,正解との多少の構造のずれをどのように評価に加えるのかという問題がある.そこで本研究での評価方法としては,\begin{enumerate}\item根の近辺のみの評価:「構造化のトップダウン・アルゴリズム」と「構造化のボトムアップ・アルゴリズム」について,根の近辺の分割が形式段落と一致しているかで判定し,両者を比較,\item葉の近辺のみの評価:葉の近辺のセグメントの統合が人間の処理と一致しているかで判定.「構造化のトップダウン・アルゴリズム」単独で実行した場合とも比較する,\item全体的評価:個々の木の人間による検査,\end{enumerate}に分けて評価を行なう.\subsection{解析結果の評価(根の近辺)}図\ref{eval1}において再現率(T),適合率(T)は,「構造化のトップダウン・アルゴリズム」(\ref{top2}節)で,次第に分割を進めていった時に段落の境界についての精度を再現率,適合率により表示したものである\footnote{日本経済新聞1994年1月1日から1月14日までの社説20編による.}.これによると,「構造化のトップダウン・アルゴリズム」は,文章全体を5段落に分割するあたりまでは,65%以上の適合率で形式段落と一致している.形式段落と一致することが,かならずしも意味的なセグメンテーションの正確さを意味するものではないが,形式段落は著者が一つの区切りとして加えたものであり,客観的な指標として意味があると考えられる.再現率(B),適合率(B)は,「構造化のボトムアップ・アルゴリズム」のみにより構造化し,根に近い部分から段落分割していったときの精度を示したものである.一方,「構造化のボトムアップ・アルゴリズム」は,結束性の強さの判定に形式段落の情報を用いているので,これを用いてセグメンテーションの精度を議論することには問題がある.そのため,再現率(B*),適合率(B*)は,「構造化のボトムアップ・アルゴリズム」で形式段落の情報を利用する部分を削除したものによる実験結果を示している.再現率(B*)は,0.2近辺の値を示している.適合率(B*)は,初期の数回の分割では正しい(形式段落と一致した)分割を行っているものの,「構造化のボトムアップ・アルゴリズム」による結果(再現率(B),適合率(B))と比べて著しく悪い結果である.つまり,「構造化のボトムアップ・アルゴリズム」のみによる構造化では,形式段落の情報がセグメンテーションに寄与してはいるものの,これを差し引けば文章の全体的な構造化に関しては有意な効果は見られないと言える.なお,形式段落の情報はセグメントの分割を示す情報であり,これが必ずしもセグメントの統合を目的とする「構造化のボトムアップ・アルゴリズム」の動作をコントロールしているとは言えないようである.\begin{figure}\begin{center}\includegraphics[scale=0.95,clip]{nikkei_3V3.eps}\caption{段落の分割数と精度}\label{eval1}\end{center}\end{figure}\subsection{解析結果の評価(葉の近辺)}\label{sec64}解析結果と人間により生成された構造との比較を行なった(表\ref{kabu}).被験者7名\footnote{理系の大学4年生と大学院修士課程1年生だが,自然言語処理に関しては専門的な教育は特に受けていない.}に,文,セグメントの意味的な結び付きに応じて文章を木構造で表現する方法を教え,木の一段目,つまりどの二文が一番最初にまとめられるかと,二段目,つまり一段目を含んでそれらがさらにどのようにまとめられるかについて,提案の手法による解析結果と比較し,再現率,適合率を求めた.使用した文章は,日本経済新聞の社説(1994年1月1日から連続して)35編で,一編につき被験者一名,ひとりの被験者が5編ずつを解析した.表中「人間(a)」とは,35編の社説について隣接する二文(またはセグメント)を被験者が統合した個数の合計を,「計算機(b)」とは,提案の手法により隣接する二文(またはセグメント)が統合された個数の合計を表す.また「一致(c)」とは,被験者の統合と提案の手法による両者が一致した箇所の個数を表す.再現率,適合率は,以下による.\[\mbox{再現率}=\frac{(c)}{(a)},\hspace*{3em}\mbox{適合率}=\frac{(c)}{(b)}\]表中で,「TB」は,提案の方式によるもの,「T」は,「構造化のトップダウン・アルゴリズム」単独で解析したものである.\begin{table}[htb]\begin{center}\begin{tabular}{|c|c|r|r|r|r|r|}\hline&&人間(a)&計算機(b)&一致(c)&再現率(%)&適合率(%)\\\hlineTB&一段目&306&294&160&52.3&54.4\\\cline{2-7}&二段目&198&241&47&23.7&19.5\\\hlineT&一段目&&293&146&47.7&49.8\\\cline{2-7}&二段目&&180&36&18.2&20.0\\\hline\end{tabular}\end{center}\caption{構造木下部についての検討}\label{kabu}\end{table}一段目について再現率,適合率とも50%程度だが,この実験では,被験者に全く自由に構造を描かせ,それを本手法による解析結果と比較したものであるので,評価基準としては厳しいものである.ある程度の許容範囲を設け,結果の特性を含めることができるような評価手法の検討が課題となる.「構造化のトップダウン・アルゴリズム」のみによる解析との比較では,前節の評価結果ほど差がないにせよ,やはり,提案の手法によって精度が向上しているのが分かる.\subsection{解析結果の評価(全体的評価)}提案のアルゴリズムにより30編の社説\footnote{日本経済新聞94年1月の社説からいくつかを使用}(総段落数323,総文数899)を解析し,生成された木構造を人間が評価した.全体的な評価は表\ref{kaiseki_kekka}のようになる.ここで,「解析の誤り」とは,修辞関係の同定誤りとセグメント分割の間違いである.「許容範囲外」とはセグメントの分割誤りが二つ以上あるか,またはセグメントの分割誤りが一つで修辞関係同定誤りが一つ以上あるものとした.人間が見て「誤りがない」とすることができたのは,30編の社説のうちの8編であった.これらの文章はどれも相対的に他の文章より短く,セグメントの分割がより正確だったと考えられる.逆に許容範囲外にあるとするものも11編であった.これらの文章は相対的に文章自体が長く,セグメントの分割誤りが目立った.人間の判断による「解析の誤り」について,木構造が明らかに誤りであるとされたところが合計31箇所あった.そのうち17箇所は修辞関係の同定誤りによるもので,セグメント分割の間違いは14箇所であった.この実験では,計算機が出力した構造と原文とに対して人間が評価を行なっており,\ref{sec64}節の実験のように計算機と人間が独立して解析を行なった後に一致を調べるという手法とは異なる.人間の判断に明確に違反するものを除き,人間は計算機の解析結果を見て,計算機による解析結果を許容する方向に影響され,そのため\ref{sec64}節の実験よりも良好な結果が得られてたものと思われる.本研究の応用を人間に代わって大量の文書処理を行なうことにあるとすると,解析結果を人間が許容できるかどうかは重要であり,表\ref{kaiseki_kekka}の結果についても意味があると考えられる.\begin{table}[htb]\begin{center}\begin{tabular}{|l|r|c|}\hline分類&数&割合(%)\\\hline誤りなし&8編&26.7\\\hline許容範囲内&11編&36.7\\\hline許容範囲外&11編&36.7\\\hline\end{tabular}\end{center}\caption{解析結果の全体評価}\label{kaiseki_kekka}\end{table} \section{まとめ} 本研究では,論説文の構造を階層化した文章モデルを提案し,これに基づき,テキストセグメンテーションの手法を応用したトップダウン構造解析アプローチ,セグメントを統合していくボトムアップ構造解析アプローチを示した.さらに,両者の利点を生かすことができる分割と統合による文章解析手法を提案した.また,実験によりこの手法の有効性を確認した.本手法での構造化は,文末の表層的な情報によるモダリティの解析に依るところが大きい.これを基に文章の論説モデルを定義した.文末に現れるモダリティは,文のタイプとして扱われ,トップダウン構造化にもボトムアップ構造化にも利用されていく.文章解析のトップダウン的アプローチとしては,文章のセグメンテーションの手法を応用し,評価関数の値の大きい箇所から分割していく.文章解析のボトムアップ的アプローチとしては,修辞関係に着目したセグメント統合により隣接していて関係が強いところから統合していく.葉に近い部分をボトムアップ的解析で,根に近い部分をトップダウン的解析で処理することにより,一方の欠点を他方の利点で補う効果的な手法となった.本研究のような対象においては,解析結果を正解と不正解の2値に分けてしまうのでは評価としては不十分であり,正解に近いものはそれなりに評価してやる必要がある.これについて,解析木の根に近い部分は形式段落の位置に基づく客観的評価,葉に近い部分は人間が解析したものとの比較,全体的な構造に対しては個々の解析結果を人間が検討することにより評価を行った.今後の課題としては,本手法の応用と拡張がある.どちらも他方の状況を抜きに考えられないが,本手法の中心的なアルゴリズムは非常に単純であるため,柔軟に拡張が可能と考えられる.\acknowledgment本実験で利用したコーパスは,日本経済新聞CD-ROM'93〜'94版から得ている.同社,および利用に関して尽力された方々に深く感謝します.査読者氏にはいくつかの有益なご指摘をいただきました.またこれらをきっかけに,著者らの気付かなかった解析プログラム中のいくつかのバグが発見されました.ここに感謝します.また,数々の実験のデータの採集を行なってくれた横浜国立大学工学研究科の学生比留間正樹君,奈良雅雄君に感謝します.\nocite{Wada:97}\nocite{Hiruma:97}\nocite{Tamura:97}\bibliographystyle{jnlpbbl}\bibliography{article,tamlab,book,proceedings}\vspace{-8mm}\begin{biography}\biotitle{略歴}\bioauthor{田村直良}{1985年東京工業大学大学院博士課程情報工学専攻修了,工学博士.同年東京工業大学大学工学部助手.1987年横浜国立大学工学部講師,同助教授を経て,1995年米国オレゴン州立大学客員助教授,1997年横浜国立大学教育人間科学部教授,現在に至る.構文解析,文章解析,文章要約などの自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員}\bioauthor{和田啓二}{1995年横浜国立大学工学部電子情報工学科卒業.1997年横浜国立大学大学院工学研究科修了,その間自然言語処理,知識情報処理の研究に従事.同年,日本アイ・ビー・エム入社,現在に至る.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\noindent{\bf\Large付録I(接続表現の分類)}\vspace*{1em}\begin{tabular}{|l|c|l|}\hline接続関係の性質&接続関係&接続表現の例\\\hline\hline補足的なもの&例示&たとえば,今回は\\\cline{2-3}&換言&いわば,つまり,すなわち\\\cline{2-3}&強調&言うまでもなく,まして,なおさら\\&&とくに,さらに,とりわけ\\&&もちろん,ただ\\\cline{2-3}&添加&しかも,それに,おまけに\\&&なお,もっとも,その上\\\cline{2-3}&説明&それは,なぜなら,というのは\\\hline展開を与えるもの&逆接&しかし,残念ながら,だが\\&&でも,ところが,けれども\\\cline{2-3}&並列&また,同時に\\\cline{2-3}&選択&もしくは\\\cline{2-3}&対比&いっぽう,これに対し(て)\\\cline{2-3}&提起&問題は,問題として\\\cline{2-3}&因果&その結果,そのため,このため,これでは\\\cline{2-3}&結論&したがって,だから,結局(は)\\\cline{2-3}&順接&そして,そこで\\\cline{2-3}&相反&それでも,それなのに,それより,むしろ\\\cline{2-3}&一般化&このように\\\cline{2-3}&根拠&だからこそ,これこそ,それこそ\\\cline{2-3}&条件&とすれば\\\hline転換を表すもの&転換&ところで,さて\\\hline\end{tabular}\\\vspace*{2em}\noindent{\bf\Large付録II(原文章)}{\baselineskip=15pt\begin{verbatim}リストラを円滑にする独禁法の運用(日本経済新聞94年1月8日の社説)(1,1):企業が思い切ったリストラクチャリング(事業の再構築)を推進しようという場合に,独占禁止法の運用が硬直的で実態に合っていない,という声が産業界から上がっている.(1,2):企業の合併や,共同投資などを行うときに運用上の規制が細かく,企業の自主性が尊ばれていない,というのである.(2,1):経団連産業政策部はこの問題を取り上げ,独禁法関連の運用面の規制緩和についての要望を会員から聞き始めた.(2,2):また,通産省の産業構造審議会総合部会基本問題小委員会はさきにまとめた中間提言で,企業のリストラを支援する視点から独禁政策の見直しが必要だとしている.(3,1):私たちはかねて不公正な取引やカルテル行為に対して独禁法の厳正な運用を公正取引委員会に強く望んできた.(3,2):これらに向けた運用強化が必要なことは言うまでもない.(途中省略)(10,1):産業界では環境の激変から素材産業を中心に合併のうねりが高まっており,国際化のなかの構造変化への対応策としての合併・事業の再編成は今後も中期的に続きそうである.(11,1):リストラを円滑にし,競争を促進する視点に立った独禁政策が必要だ.(11,2):「規制緩和」というこの国の課題から公取委を外す理由は全くない.\end{verbatim}}\vspace*{2em}\noindent{\bf\Large付録III(二文のタイプからの修辞関係の同定)}\vspace*{1em}\begin{tabular}{|c|c|c||c|c|c|}\hline\multicolumn{2}{|c|}{隣接する文のタイプ}&修辞関係&\multicolumn{2}{|c|}{隣接する文のタイプ}&修辞関係\\\hline\hline形&意見→断定&転換&&叙述→意見&結論\\\cline{2-3}\cline{5-6}&意見→意見&転換&&断定→推量&結論\\\cline{2-3}\cline{5-6}式&意見→推量&転換&形&断定→意見&結論\\\cline{2-3}\cline{5-6}&意見→問掛&転換&&推量→意見&結論\\\cline{2-3}\cline{5-6}段&推量→推量&転換&式&叙述→問掛&結論\\\cline{2-3}\cline{5-6}&推量→問掛&転換&&叙述→推量&結論\\\cline{2-3}\cline{5-6}落&問掛→問掛&転換&段&様態→意見&結論\\\cline{2-3}\cline{5-6}&断定→問掛&転換&&意見→断定&説明\\\cline{2-3}\cline{5-6}間&可能→叙述&転換&落&推量→断定&説明\\\cline{1-3}\cline{5-6}\multicolumn{3}{|c||}{}&&叙述→叙述&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&内&叙述→断定&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&&問掛→断定&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&&問掛→叙述&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&&断定→叙述&強調\\\cline{5-6}\multicolumn{3}{|c||}{}&&断定→伝聞&強調\\\cline{5-6}\multicolumn{3}{|c||}{デフォルトは``順接''}&&意見→伝聞&強調\\\hline\end{tabular}\end{document}
V29N02-16
\section{はじめに} label{sec:intro}%==================================================BLEU\cite{papineni-2002}やMETEOR\cite{banerjee-2005}などの参照文に基づく自動評価指標は,ベンチマーク上での機械翻訳(MT)システムの開発に貢献してきた.しかし,ユーザが実際にMTシステムを使用する際には,事前に参照文を用意できない場合が多いため,これらの自動評価指標を用いてユーザがMTの品質を確認することは難しい.本研究では,参照文を用いない自動評価である品質推定(QualityEstimation,QE)\cite{specia-2018}に取り組む.QEでは,原文とそれに対応するMT出力文を比較することで,MT品質を推定する.人手評価との相関が高いQE手法を開発することにより,MT出力文をそのまま使用するか,手動または自動で後編集するか,他のMTシステムを利用するかというユーザの判断を支援できる.国際会議WMTにおけるQEタスク\cite{specia-2020}を中心に,これまで多くの教師ありQE手法\cite{specia-2013,kim-2017,ranasinghe-2020}が提案されてきた.しかし,これらの教師ありQEモデルの訓練には,「原文・対応するMT出力文・人手評価値」の3つ組が必要である.このようなQE訓練データの構築は,翻訳者などの原言語と目的言語の両方に精通したアノテータによる作業が必要となるため,非常にコストが高い.そのため,WMTのQEタスクに含まれるような,わずかな言語対でしか教師ありQEモデルを得られないのが現状である.この問題を解決するために,教師なしQEが研究されている.教師なしQEの先行研究は多言語MTシステムに基づいており,MTシステムの符号化器のみを用いる手法\cite{artetxe-2019a}およびMTシステムの符号化器と復号器の全体を用いる手法\cite{thompson-2020,fomicheva-2020b}に大別できる.これらの既存手法は,人手評価のアノテーションこそ不要なものの,評価対象の言語対における大規模な対訳コーパスを用いた訓練が必要である.本研究では,大規模な対訳コーパスを用意できない言語対においても翻訳品質を推定できる教師なしQE手法を提案する.\citeA{thompson-2020}と同様に,提案手法は多言語MTシステムに基づき,原文を入力として評価対象のMT出力文をforced-decodingする際の翻訳確率を品質推定に用いる.提案手法では,事前訓練された多言語雑音除去自己符号化器\cite{lewis-2020,liu-2020}を活用することで,少資源,ひいては対訳コーパスが存在しない言語対においてもQEを可能とする.大規模な単言語コーパスによって訓練された多言語雑音除去自己符号化器を再訓練して得られるMTシステムはゼロショット設定の言語対においても機械翻訳が可能となることが示されている\cite{liu-2020}.同様の効果がQEにおいても期待され,一部の言語対における対訳コーパスを用いた再訓練によって他の言語対のQE性能も向上すること,さらには対訳コーパスを用意できない言語対におけるゼロショットQEも実現できると考えられる.WMT20QEタスク\cite{specia-2020}における実験の結果,提案手法は既存の教師なしQE手法よりも高い人手評価との相関を達成した.また,詳細な分析の結果,対象言語対の対訳コーパスを使用しないゼロショットの設定においても提案手法は良好な結果が得られ,教師なしQEにおける単言語コーパスを用いた雑音除去自己符号化器の事前訓練の有効性を確認できた.%================================================== \section{関連研究} label{sec:related_work}%==================================================本節では,QEにおける先行研究を議論する.まず\ref{subsec:qe_supervised}節では,教師ありQEについて代表的な研究を紹介する.続いて\ref{subsec:qe_regression}節では,符号化器のみを用いる教師なしQE手法を紹介する.最後に\ref{subsec:qe_generation}節では,符号化器と復号器の両方を用いる教師なしQE手法を紹介する.なお,本研究の提案手法は,\ref{subsec:qe_generation}節のアプローチの拡張として位置付けられる.%==============================\subsection{教師あり品質推定}\label{subsec:qe_supervised}%==============================多くのQE手法\cite{specia-2013,kim-2017,ranasinghe-2020}は,教師あり学習を採用している.深層学習に基づく強力な教師ありQE手法として知られるPredictor-Estimator\cite{kim-2017}は,対訳コーパス上で目的言語文の各単語を原言語文および目的言語文中の周辺単語から推定するように事前訓練されたPredictorと,Predictorによって得られる特徴表現からQEラベルを推定するEstimatorで構成される.Predictor-Estimatorは,WMT17QEタスク\cite{bojar-2017}で最高性能を達成し,WMT20QEタスク\cite{specia-2020}ではOpenKiwi\cite{kepler-2019b}で実装されたLSTMに基づくPredictor-Estimatorがベースライン手法として用いられている.WMT20のQEタスクにおける上位の手法\cite{ranasinghe-2020,fomicheva-2020a,nakamachi-2020}は,事前訓練された多言語の文符号化器であるmBERT\cite{devlin-2019}やXLM-R\cite{conneau-2019,conneau-2020}に基づく教師ありQE手法である.これらの多言語の文符号化器は,100を超える言語における単言語コーパスを用いてMaskedLanguageModelingの訓練を行った自己注意ネットワーク\cite{vaswani-2017}である.WMT20のQEタスクにおいて最高性能を達成したTransQuest\cite{ranasinghe-2020}や同じく上位のTMUOUシステム\cite{nakamachi-2020}は,原文とそのMT出力文を\texttt{[SEP]}トークンで区切って連結した文対をXLM-Rに入力し,文頭の\texttt{[CLS]}トークンの出力を用いて回帰モデルを訓練する.これらの教師ありQEは人手評価との高い相関を達成できるが,先述の通り人手評価値のアノテーションはコストが高く,多くの言語対においてアノテーションコーパスは利用できない.そこで本研究では,人手評価値のアノテーションを必要としない教師なしQE手法を提案する.%==============================\subsection{EncoderQE:符号化器に基づく教師なし品質推定}\label{subsec:qe_regression}%==============================WMT19のQEタスク\cite{fonseca-2019}では,対訳コーパスを用いて訓練した多言語の文符号化器であるLASER\cite{artetxe-2019a}がベースライン手法として採用されている.LASERは,再帰型ニューラルネットワークに基づく多言語MTシステムの符号化器部分である.このLASERによるQEは教師なし手法であり,原文とそのMT出力文をそれぞれLASERによってベクトル化し,それらの余弦類似度によってMT出力文の品質を推定する.QEタスクでは検証されていないものの,LaBSE\cite{feng-2020}やmSBERT\cite{reimers-2020}などの最先端の多言語文符号化器は,言語をまたいだ文間類似度推定タスク\cite{cer-2017}においてLASERを超える性能を達成している.LaBSEやmSBERTは,mBERTやXLM-Rなどの単言語コーパスで事前訓練された文符号化器を,対訳コーパスを用いて再訓練した多言語の文符号化器である.LaBSEは,mBERTの事前訓練に加えて,TranslationLanguageModelingやTranslationRankingによる再訓練を実施している.mSBERTは,文の類似度推定タスク\cite{cer-2017}に最適化したXLM-Rを用いたMultilingualKnowledgeDistillationによって,多言語の文符号化器を得ている.LASERと同様に,これらの多言語文符号化器も,余弦類似度による教師なしQEに使用できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{15table01.tex}\caption{教師なし品質推定の先行研究と本研究の関係}\label{table:previous_work}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ref{sec:evaluation}章の評価実験において示す通り,符号化器に基づく手法では,各言語の単言語コーパスで事前訓練したモデル(mBERTやXLM-R)よりも対訳コーパスで訓練したモデル(LASER)の方が教師なしQEの性能は高い.さらに,単言語コーパスで事前訓練したモデルを対訳コーパスで再訓練したモデル(LaBSEやmSBERT)は,これらの性能を上回る.つまり,表~\ref{table:previous_work}にまとめた教師なしQEの先行研究のうち,右に位置するアプローチほどQE性能が高い.%==============================\subsection{EncDecQE:符号化器と復号器に基づく教師なし品質推定}\label{subsec:qe_generation}%==============================機械翻訳\cite{thompson-2020}や文書要約\cite{yuan2021bartscore}において近年注目を集めている自動評価手法に,符号化器と復号器からなる雑音除去自己符号化器に基づく手法がある.代表的な手法であるPrism\cite{thompson-2020}は,自己注意ネットワークに基づく系列変換モデル\cite{vaswani-2017}を訓練し,そのモデルで参照文から生成文への系列変換を行う際の文生成確率を用いて生成文の品質を評価する.この系列変換モデルが多言語MTシステムであれば,原文からMT出力文への系列変換を行う際の文生成確率を用いて教師なしQEを実現できる.PrismはWMT19のQEタスク\cite{fonseca-2019}において高い性能を示したが,系列変換モデルの訓練のために大規模な対訳コーパスが必要であるため,少資源言語対や対訳コーパスを用意できないゼロショットの設定では利用できない.Prismの他に,系列変換モデルに基づくQE手法として\citeA{fomicheva-2020b}のD-TPおよびD-Lex-Simがある.D-TPおよびD-Lex-Simはモンテカルロ・ドロップアウト\cite{gal-2016}を用いてMTシステムのパラメータを変化させ,MT出力文の候補を複数生成する.D-TPでは各候補の文生成確率を平均することによって翻訳品質を推定し,D-Lex-Simでは候補間のMETEORスコア\cite{banerjee-2005}によって翻訳品質を推定する.Prismが評価対象のMTシステムとは独立にQE用の系列変換モデルを用意する一方で,D-TPおよびD-Lex-Simは評価対象のMTシステム自身を用いてMT出力文の品質を推定する.D-TPおよびD-Lex-Simは教師なしQEとしての最高性能を達成しているものの,このようなホワイトボックスの設定が利用可能なケースは限定的である.一般的には,MTシステムのユーザはMTシステムの内部パラメータにはアクセスできず,MT出力文のみを得られる.そのため本研究では,\ref{subsec:qe_regression}節の符号化器に基づく手法やPrismのような,ブラックボックス設定における教師なしQEの性能改善を目指す.%================================================== \section{提案手法} label{sec:proposed_method}%==================================================\ref{subsec:qe_regression}節の議論を踏まえると,表~\ref{table:previous_work}にまとめたように,各言語の単言語コーパスで事前訓練した系列変換モデルを対訳コーパスで再訓練することで,より高品質な教師なしQEの実現を期待できる.本研究では,図~\ref{fig:overview}に示すように,系列変換モデルに基づく教師なしQE手法を改良する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia15f1.pdf}\end{center}\caption{提案手法の概要:mBARTに基づく多言語機械翻訳器を用いて翻訳品質を教師なしで推定}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{系列変換モデルによる教師なし品質推定}\label{subsec:prism}%==============================本研究では,Prism\cite{thompson-2020}と同様に,符号化器と復号器からなる系列変換モデルを用いて計算する文の生成確率に基づき,MT出力文の品質を推定する.Prismでは,自己注意ネットワークに基づく一般的な系列変換モデル\cite{vaswani-2017}を用いて文の生成確率を求めるが,復号器において一般的な貪欲法やビームサーチによる復号の代わりに,``forced-decoding''を用いる.つまり,モデルが推定するトークン生成確率によらず,指定されたトークン(QEの場合はMT出力文に含まれるトークン)の出力を強制する.提案手法もPrismに倣い,この``forced-decoding''によって文の生成確率を求める.具体的には,原文$x$とそのMT出力文$y$が与えられたとき,翻訳品質$\hat{Q}(y|x)$を以下のように計算する.\begin{equation}\label{eq:prism}\hat{Q}(y|x)=\frac{1}{|y|}\sum^{|y|}_{t=1}\logp{(y_t|y_{i<t},x)},\end{equation}ここで,$y_{i<t}$はタイムステップ$t$より前の出力トークンである.長文ほど高い対数確率が与えられることを防ぐために,文レベルの対数確率を文長$|y|$で割っていることに注意されたい.Prismおよび提案手法は,訓練の際に真の翻訳品質$Q(y|x)$を用いない教師なしQE手法である.系列変換モデルには,対訳コーパスを用いて訓練された多言語MTシステムを用いる.ただし,Prismではこれを一から訓練するが,提案手法では単言語コーパスを用いて事前訓練された系列変換モデルを対訳コーパス上で再訓練することでより高品質なQEを実現する.%==============================\subsection{多言語機械翻訳器の構築}\label{subsec:pre_training}%==============================大規模な対訳コーパスを用意できない言語対においても翻訳品質を推定できる教師なしQEを実現するために,本研究では単言語コーパスを用いて事前訓練された系列変換モデルを対訳コーパス上で再訓練することによって,QEのための多言語MTシステムを構築する.事前訓練を行わない先行研究\cite{thompson-2020}と比較して,本手法には以下の2つの利点がある.\begin{itemize}\item単言語コーパスは対訳コーパスよりも収集コストが低いため,大規模な単言語コーパスを用いた訓練を実現できる.そのため,モデルはより多様な文に触れることができ,様々な言語的特徴を捉えられる.\item対訳コーパス上での再訓練により,対訳コーパス中の文対数が限られた言語対や対訳コーパスに含まれていない言語対であっても,事前訓練がサポートしている言語であればQE性能を改善できる.\end{itemize}一方,事前訓練なしのPrismは,対象外の言語対に対しては,トークンが語彙に含まれていないことや文法に関する知識を全く持っていないなどの問題のためにQEの実現は期待できない.本研究では,代表的な事前訓練済み系列変換モデルのひとつであるBART\cite{lewis-2020}を利用する.BARTはTransformer符号化器と自己回帰型の復号器によって構成される標準的な系列変換モデル\cite{vaswani-2017}であり,雑音関数によって一部の情報が欠落したテキストから元のテキストを復元する雑音除去自己符号化器として教師なし学習により訓練されている.BARTの事前訓練では,トークンの穴埋めや並び替えの復元を訓練するために,文中の一部を\texttt{[MASK]}トークンに置き換える雑音関数を用いる.BARTの雑音除去自己符号化器を目的タスクの対訳コーパスで再訓練することによって,文書要約や対話応答生成などの多くのテキスト生成タスクの性能改善が報告されている\cite{lewis-2020}.多言語MTシステムへの拡張のために,本研究では多言語版のBART(mBART)を用いる.mBART\cite{liu-2020}は,複数言語のそれぞれで大規模な単言語コーパスを用意し,それらを用いてBART\cite{lewis-2020}の雑音除去自己符号化を訓練した雑音除去自己符号化器である.\citeA{liu-2020}の研究では,事前訓練されたmBARTを対訳コーパス上で再訓練したMTシステムが,特に少資源言語対において優れた翻訳品質を発揮している.また,mBARTを特定の言語対(例えば,韓国語$\rightarrow$英語)における対訳コーパスで再訓練したMTシステムが,他の言語からのMT(例えば,イタリア語$\rightarrow$英語)も実現できることが確認されている.本研究では,mBARTのこれらの特性を活かし,系列変換に基づく高品質な教師なしQEを実現する.提案手法では,事前訓練されたmBARTを複数の対訳コーパス上で再訓練して多言語MTシステムを構築し,これを用いて\ref{subsec:prism}節の方法で翻訳品質を推定する.%================================================== \section{評価実験} label{sec:evaluation}%==================================================WMT20のQEタスク\cite{specia-2020}において提案手法の性能を評価する.%==============================\subsection{実験設定}\label{subsec:setting}%==============================%====================\subsubsection*{タスクの詳細}%====================WMT20のQEタスクには,7つの言語対が含まれる.英語からドイツ語(en-de)および英語から中国語(en-zh)の多資源言語対,ルーマニア語から英語(ro-en)・エストニア語から英語(et-en)・ロシア語から英語(ru-en)の中資源言語対,ネパール語から英語(ne-en)およびシンハラ語から英語(si-en)の少資源言語対である.各言語対において1,000文対の原文およびそのMT出力文が提供され,人手で付与されたQEスコアとモデルが推定したQEスコアの間のピアソン相関係数によってQE性能を評価する.WMT20のQEタスクで翻訳品質の評価対象となるMTシステムは,fairseqツールキット\footnote{\url{https://github.com/pytorch/fairseq}}\cite{ott-2019}を用いて訓練されたTransformerモデル\cite{vaswani-2017}である.%====================\subsubsection*{提案手法の実装}%====================提案手法のQEモデルには,事前訓練されたmBART\footnote{\url{https://huggingface.co/facebook/mbart-large-50}}\cite{liu-2020}を用いた.このmBARTは,50言語の単言語コーパスで事前訓練された雑音除去自己符号化器であり,16種類の自己注意ヘッドを持つ12層1,024次元のTransformerモデル\cite{vaswani-2017}である.mBARTを我々が再訓練した多言語MTシステム(mBART+MT)と,\citeA{tang-2020}によって再訓練された多言語MTシステム(mBART+M2M)の両方を評価した.mBART+MTの再訓練には,表~\ref{table:corpus-qe}に示すように,WMT20のQEタスク\footnote{\url{http://statmt.org/wmt20/quality-estimation-task.html}}で利用可能な対訳コーパスの一部\footnote{\citeA{vaswani-2017}など,MT研究で広く使用されているWMT14en-deタスク(約450万文対)を参考に多資源言語対の文対数を設定した.また,中資源言語対については公開されているet-en言語対の総文対数に合わせてro-en言語対の文対数を,少資源言語対についてはne-en言語対の総文対数に合わせてsi-en言語対の文対数を設定した.}を使用した.なお,ru-en言語対については,WMT20のQEタスクにおいて対訳コーパスが配布されていない.そのため,本稿では提案手法のうちmBART+MTについてはru-enをゼロショット設定の言語対として扱う.これらの対訳コーパスに含まれる全ての文について,mosesdecoderのdetokenizer.perl\footnote{\url{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/detokenizer.perl}}\cite{koehn-2007}を適用した上で,mBARTのトークナイザ\cite{wolf-2020}によるトークン化の前処理を施した.そして,原言語文と目的言語文がそれぞれ100トークン以下の長さである文対のみを再訓練に用いた.最適化にはAdamW\cite{loshchilov-2018}を用い,学習率は$5.0\times10^{-6}$に設定した.バッチサイズは1,000文とし,対訳コーパス上で75,000ステップの交差エントロピー損失最小化の再訓練を実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2and3\begin{table}[t]\noindent\begin{minipage}[b]{0.49\textwidth}\input{15table02.tex}\caption{mBART+MTの訓練用文対数\rule[-13pt]{0pt}{1zw}}\label{table:corpus-qe}\end{minipage}\begin{minipage}[b]{0.49\textwidth}\input{15table03.tex}\caption{mBART+M2Mの訓練用文対数}\label{table:corpus-m2m}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%mBART+M2M\footnote{\url{https://huggingface.co/facebook/mbart-large-50-many-to-many-mmt}}\cite{tang-2020}は,mBARTを表~\ref{table:corpus-m2m}の対訳コーパスを用いて再訓練した多言語MTシステムである.これらの対訳コーパスには,WMTやIWSLTなどのMTコンペティションにおいて公開されている多様なデータが含まれる.mBART+MTモデルが6言語対の合計1,286万文対で訓練されているのに比べて,mBART+M2Mモデルは49言語対の合計2億文対という非常に大規模な対訳コーパスで訓練されていることに注意されたい.%====================\subsubsection*{比較手法}%====================本実験では,\ref{sec:related_work}節で紹介した教師なしQE手法と提案手法を比較する.符号化器に基づく手法(EncoderQE)として,単言語コーパスで訓練されたmBERT\footnote{\url{https://huggingface.co/bert-base-multilingual-cased}}\cite{devlin-2019}およびXLM-R\footnote{\url{https://huggingface.co/xlm-roberta-large}}\cite{conneau-2019,conneau-2020},対訳コーパスで訓練されたLASER\footnote{\url{https://github.com/facebookresearch/LASER}}\cite{artetxe-2019a},単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練されたLaBSE\footnote{\url{https://huggingface.co/sentence-transformers/LaBSE}}\cite{feng-2020}およびmSBERT\footnote{\url{https://huggingface.co/sentence-transformers/stsb-xlm-r-multilingual}}\cite{reimers-2020}と比較する.WMT19のQEタスク\cite{fonseca-2019}におけるLASERによる教師なしQEと同様に,これらの多言語文符号化器を用いて原文とそのMT出力文をそれぞれベクトル化し,それらの余弦類似度によってMT出力文の品質を推定する.各モデルの事前訓練の設定に従い,LASERは双方向LSTMの最終層の最大プーリング,mSBERTは最終層の平均プーリング,その他のモデルは文頭の\texttt{[CLS]}トークンに対する最終層の出力をそれぞれ文ベクトルとして使用する.符号化器と復号器に基づく手法(EncDecQE)として,単言語コーパスで訓練されたmBART\cite{liu-2020}および対訳コーパスで訓練されたPrism\cite{thompson-2020}を,単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された提案手法(mBART+MTおよびmBART+M2M)と比較する.本実験で使用するPrismは,mBARTと同じ構造の系列変換モデルであり,表~\ref{table:corpus-qe}の対訳コーパスを用いて我々が訓練したものである.ただし,ru-en言語対については,先述の通りWMT20のQEタスクにおいて対訳コーパスが配布されていない.そのため,本稿ではPrismについてもru-enをゼロショット設定の言語対として扱う.提案手法とmBARTおよびPrismは,いずれも式~(\ref{eq:prism})によってMT出力文の翻訳品質を推定する.また,参考のために,ホワイトボックス設定の教師なしQE手法であるD-TPおよびD-Lex-Sim\cite{fomicheva-2020b},教師ありQE手法であるPredictor-Estimator\footnote{Predictor-Estimatorモデルの実装にはOpenKiwi(\url{https://github.com/Unbabel/OpenKiwi})\cite{kepler-2019b}を用いた.}\cite{kim-2017}およびTransQuest\footnote{\url{https://github.com/TharinduDR/TransQuest/}}\cite{ranasinghe-2020}も比較する.教師ありQEモデルは,WMT20のQEタスク\cite{specia-2020}において公開されている7,000件ずつの訓練用データおよび1,000件ずつの検証用データを用いて,検証用データのピアソン相関係数を最大化するように訓練した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{15table04.tex}\caption{WMT20のQEタスクにおけるピアソン相関係数.$\dagger$はゼロショット設定を示す.}\label{table:qe}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{実験結果}%==============================表~\ref{table:qe}に実験結果を示す.表~\ref{table:qe}において,上段の1および2は比較対象の教師なしQE手法,下段の3および4はホワイトボックス設定および教師ありのQE手法である.表中のMonoおよびParaの列は,教師なしQEモデルが単言語コーパスを用いて訓練されているか,対訳コーパスを用いて訓練されているかを表す.MonoとParaの両方にチェックが入っている教師なしQEモデルは,単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練されている.なお,ru-en言語対については,PrismおよびmBART+MTはゼロショット設定となっている.全体としては,教師なしQE手法は以下の順番で人手評価との相関が高い.\begin{enumerate}\item単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練されたEncDecQE(提案手法)\item単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練されたEncoderQE\item対訳コーパスで訓練されたEncoderQE\item対訳コーパスで訓練されたEncDecQE\item単言語コーパスで訓練されたEncDecQE\item単言語コーパスで訓練されたEncoderQE\end{enumerate}上段1のEncoderQEについて,単言語コーパスのみで訓練されたmBERTやXLM-Rは,単純な余弦類似度に基づく教師なしQEでは人手評価との相関が見られなかった.mBERTやXLM-Rに比べて,対訳コーパスで訓練されたLASERは人手評価との高い相関を持つことがわかる.単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練されたLaBSEやmSBERTは,さらに高い相関を達成している.特に,LaBSEは少資源言語対,mSBERTは多資源言語対において,特に優れた性能を発揮することがわかる.上段2のEncDecQEについても同様の傾向が見られた.つまり,単言語コーパスで訓練されたmBARTよりも対訳コーパスで訓練されたPrismが人手評価との高い相関を示し,単言語コーパスでの事前訓練に加えて対訳コーパスで再訓練された提案手法(mBART+MTおよびmBART+M2M)がさらに高い相関を達成した.同じく単言語コーパスのみで訓練されたmBERTやXLM-Rが全ての言語対において人手評価との相関を持たない一方で,mBARTは少資源言語対において0.2程度の弱相関を持ち,中資源言語対においては0.4程度の中相関を持っており,EncDecQEの有効性を確認できる.提案手法は,ne-en以外の言語対において,教師なしQEとしての最高性能を達成した.特に,より大規模な対訳コーパスを用いて再訓練したmBART+M2Mが多くの言語対においてより高い人手評価との相関を示している.ゼロショット設定であるru-en言語対については,mBART+MTがmBARTやPrismよりも高い性能を示しており,提案手法の有効性を確認できる.また,ru-enの対訳コーパスを用いて訓練したmBART+M2Mは,さらに大きな性能改善を達成している.次に,具体的な出力をもとに,提案手法の有効性を定性評価する.表~\ref{table:example}に,英日翻訳における品質推定の実例を示す.上の例は,MT出力文が「見つけられるしばしば」のように文法的に不適格な翻訳となっているため,低いQEスコアを出力することが期待される.Prismとは異なり,提案手法のmBART+MTは期待通り低いQEスコアを出力できた.これは,mBART+MTでは事前訓練によって文法構造を捉えられていたために,適切に翻訳品質を推定できたと考えられる.下の例は,MT出力文が適切な翻訳であるため,高いQEスコアが期待される例である.しかし,この例ではPrismとmBART+MTの両方が低いQEスコアを出力した.「ビドルフ」や「チェシャー」のような低頻度語は,その単語の生成確率が低くなるため,本アプローチでは低評価になりやすい傾向があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{15table05.tex}\hangcaption{英日機械翻訳における品質推定の例.モデルごとに0から1までの範囲に正規化したQEスコアを表示している.上段は適切に品質推定できた例であり,下段は誤推定をした例である.\label{table:example}}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{多資源言語対における品質推定と少資源言語対における品質推定}%==============================対訳コーパスを用いて訓練するQE手法においては,より多くの文対から訓練できる多資源言語対におけるQE結果が中資源言語対や少資源言語対に比べて人手評価との相関が高くなると期待される.しかし,表~\ref{table:qe}の実験結果では,アプローチに関わらず,多資源言語対におけるQE性能が中資源言語対や少資源言語対におけるQE性能を下回っている.本節では,この期待が外れる理由を調査する.分析の結果,翻訳品質ラベルの分布の偏りがQE推定結果に影響を与えている可能性があることが明らかとなった.図~\ref{fig:histgram}に,多資源言語対のen-deおよび少資源言語対のsi-enにおける翻訳品質ラベル頻度のヒストグラムを示す.図中の青色の部分はen-deのヒストグラム,赤色の部分はsi-enのヒストグラム,紫色の部分はグラフが重なっている部分を表している.少資源言語対におけるMTシステムの翻訳品質が正規分布に近い分布を示しているのに対して,多資源言語対におけるMTシステムの出力は高品質なものが極端に多い.このような翻訳品質ラベルの偏りがあると,高品質な翻訳の中で優劣をつけることになるため,多資源言語対におけるQEを難しくしている可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{29-2ia15f2.pdf}\end{center}\caption{品質ラベルのヒストグラム}\label{fig:histgram}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{15table06.tex}\caption{EncDecQEのアブレーション分析.$\dagger$はゼロショット設定であることを示す.}\label{table:ana_zeroshot}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%============================== \section{ゼロショット設定での品質推定} %==============================\ref{subsec:pre_training}節で述べたように,mBART\cite{liu-2020}を対訳コーパス上で再訓練して得たMTシステムは,再訓練に使用していない言語対のMT(ゼロショットMT)を実現できることが知られている.本節では,mBARTに基づく教師なしQEが同様の特性を持つか,つまり,再訓練に使用した対訳コーパスに含まれない言語対のQEを実現できるかを検証する.表~\ref{table:ana_zeroshot}に,PrismおよびmBART+MTを多資源および中資源の4言語対の対訳コーパスのみで訓練したアブレーション分析(w/o少資源言語対)の結果を示す.また,他言語のデータとの同時訓練の影響を調べるために,対象言語対のみ,つまり,ne-enまたはsi-enの対訳コーパスのみで訓練したアブレーション分析の結果も示す.これらの実験結果から,対訳コーパスによる再訓練を実施しないmBARTと比べて,mBART+\linebreakMT(w/o少資源言語対)が少資源言語対のQEにおいて,人手評価との相関を大きく改善できることがわかる.ゼロショットMT\cite{liu-2020}と同様に,mBARTに基づくQEモデルがゼロショットQEを実現できることを確認できた.さらに,対象言語対の対訳コーパスを用いた再訓練や対象言語対を含む大規模な対訳コーパスによる再訓練には及ばないものの,mBART+MT(w/o少資源言語対)の少資源言語対における性能は,強力な教師ありベースラインであるPredictor-Estimator\cite{kim-2017}と同等である.QEラベルの収集コストのために教師ありQEが多くの言語対において実現できない現状を考えると,本手法のゼロショット性能は有望である.また,表~\ref{table:ana_zeroshot}のアブレーション分析からは,単言語コーパスにおける事前訓練を実施していないPrismが小規模な対訳コーパスからは充分なQE性能が得られないこと,また他の言語対の大規模な対訳コーパスと同時に訓練しても少資源言語対におけるQE性能が改善しないことが確認できる.一方で,mBART+MT(対象言語対のみ)とmBART+MTの比較から,提案手法は他の言語対の大規模な対訳コーパスとの同時訓練によって,少資源言語対におけるQE性能が改善されることがわかる.%================================================== \section{おわりに} %==================================================本研究では事前訓練された多言語雑音除去自己符号化器を活用した機械翻訳の教師なし品質推定手法を提案した.提案手法は,多言語雑音除去自己符号化器を対訳コーパスにより再訓練することで得た多言語MTシステムにおいて,原文から評価対象のMT出力文をforced-decodingする際の文生成確率によって翻訳品質を推定する.品質推定モデルの事前訓練にはmBART\cite{liu-2020}を用い,50言語に適用可能な教師なし品質推定手法を実現した.6つの言語対における実験の結果,提案手法は多くの言語対において教師なし品質推定の最高性能を達成した.また,再訓練に使用する対訳コーパスに含まれないゼロショット設定での品質推定では,教師ありQE手法と同等の性能を示した.さらに,多資源言語対の対訳コーパスとの同時訓練によって少資源言語対における品質推定の性能が改善され,収集コストが高い翻訳品質ラベルや大規模な対訳コーパスを得られない設定における提案手法の有効性を確認した.今後の課題として,モデルサイズの削減がある.符号化器のみを用いるLaBSE\cite{feng-2020}やmSBERT\cite{reimers-2020}が約2~GBのモデルサイズを持つのに対して,復号器も用いる提案手法は約7~GBの記憶領域を必要とする.主に符号化器において活発に研究されているモデル圧縮の技術を応用し,知識蒸留\cite{sanh-2019}やパラメタ共有\cite{lan-2020}によって多言語雑音除去自己符号化器に基づく品質推定のモデル圧縮を検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費(若手研究,課題番号:JP20K19861)および国立研究開発法人情報通信研究機構の委託研究による助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{15refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{西原哲郎}{2020年愛媛大学工学部情報工学科卒業.2022年同大学大学院理工学研究科電子情報工学専攻修了.自然言語処理の研究に従事.}\bioauthor{岩本裕司}{2020年愛媛大学工学部情報工学科卒業.2022年同大学大学院理工学研究科電子情報工学専攻修了.自然言語処理の研究に従事.}\bioauthor{吉仲真人}{2020年大阪大学工学部電子情報工学科卒業.2022年同大学大学院情報科学研究科マルチメディア工学専攻修了.自然言語処理の研究に従事.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,機械翻訳技術,対話システムに興味を持つ.}\bioauthor{二宮崇}{1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V07N03-05
\section{はじめに} 情報検索における検索語リストや文書に付与されたキーワードリストなど,複数の内容語(熟語も含む)から成るリストのことを本論文では「タームリスト」と呼ぶ.タームリストを別の言語に翻訳する「タームリストの自動翻訳処理」は,単言語用の文書検索と組み合わせてクロスリンガル検索\cite{Oard96}を実現したり,他国語文書のキーワードを利用者の望む言語で翻訳表示する処理\cite{Suzuki97j}に応用できるなど,様々なクロスリンガル処理において重要な要素技術である.本論文ではタームリストの自動翻訳処理のうち,各タームに対して辞書等から与えられた訳語候補の中から最も妥当なものを選択する「翻訳多義解消」に焦点を当てる.内容語に関する翻訳多義解消の研究は従来から文(テキスト)翻訳の分野で行われて来た.80年代には統語的依存構造に着目した意味多義解消規則を用いる方式が研究され,実用システムにも組み込まれた(\cite{Nagao85}など).この方式は翻訳対象語に対して特定の統語関係(例えば,目的語と動詞の関係)にある別の語を手がかりにした訳語選択規則を人手で作成し,これを入力に適用することによって多義解消を行う方式である.従って,この方法は複数語間に統語的関係が存在しないタームリストには適用できない.一方,90年代に入って言語コーパスから統計的に学習した結果に基づいて多義解消を行う研究が活発化している.これらのうち,統語的解析を(明示的には)行わず,翻訳対象語と同一文内,あるいは,近傍で共起する他の単語を手がかりに多義解消を行う手法はタームリストの翻訳にも適用可能であり,すでにいくつかの研究も行われている.これらは利用するコーパスによって大きく2つに分類できる.1つめはパラレルコーパスと呼ばれる対訳関係にあるコーパスを用いるもので,T.Brownらによる文翻訳のための訳語選択手法\cite{Brown91},R.Brownらのタームリスト翻訳手法\cite{Brown97}がある.これらの方法は訳語候補自体もコーパスから抽出するので対訳辞書を別に用意する必要がないという利点があるが,対象分野に関する相当量のパラレルコーパスを学習データとして準備しなければならないという問題がある.2つめは目的言語の単言語コーパスのみを用いるもので,Daganら\cite{Dagan94}\footnote{\cite{Dagan94}の基本的な手法は構文解析された学習コーパス,入力データを前提とするものであるが,考察の章で学習データの不足に対処するために統語的依存関係を無視して単なる共起によって処理する方法が指摘されている.},田中ら\cite{Tanaka96}による文翻訳の多義解消手法,同様の手法をタームリスト翻訳に適用したJangら\cite{Jang99}による研究がある.これらは入力の各単語(内容語)に対する訳語候補の組み合わせのうち目的言語のコーパス中における共起頻度あるいは相互情報量が最大のものを選択するという方法である.たとえば,入力が``suits''と``wear''を含み,前者の訳語候補が``裁判''と``スーツ'',後者の候補が``着用''であったとき,日本語コーパスにおいて``スーツ''と``着用''の共起頻度が``裁判''と``着用''のそれよりも高い場合,``suits''の訳語を``スーツ''に決定するというものである.この方法はパラレルコーパスに比べて大量に入手可能な単言語コーパスを学習データとして用いるという,統計的処理にとって重要な利点を持っている.本論文で提案する手法は,目的言語の単言語コーパスのみを利用する点では上記2つめの手法に分類されるが,訳語候補の組み合わせの妥当性を計算する方法が異なる.本手法では,訳語候補同士の直接的な共起頻度を用いるのではなく,各訳語候補に対して,まず,目的言語コーパスにおける共起パターンをベクトル化した一種の意味表現を求め,この意味表現同士の「近さ」によって計算する.この「意味表現同士の近さ」を以下では\kanrenと呼ぶ.2単語の\kanrenはこれらの単語と共起する単語の頻度分布を元に計算されるため,2単語のみの共起頻度を用いるより精度の高い結果を得ることが期待できる.以下,まず2章で問題設定を行う.次に3章で多義解消モデルとその中心となる複数単語の意味的\kanrenについて定義し,4章では枝刈りによる処理の高速化について説明する.5章では評価実験とその結果について述べ,6章で誤りの原因と先行研究との関連について考察する. \section{タームリスト翻訳における多義解消タスク} $n$個の要素からなる翻訳元言語のタームリストを$S=s_1^n=s_1,s_2,\ldots,s_n(s_i$は一つのターム,$s_i^j$は$s_iからs_j$までの並びを表す)と記す.ここで,タームリスト内の要素の順序には意味がない\footnote{順序を考慮しない複数の語句の集まりは``bagofwords''とも呼ばれる.}.なお,$n$を{\bfタームリストの長さ}と呼ぶ.各タームに対して対訳辞書(bilingualdictionary)などを参照して文脈独立に与えられた訳語の集合を{\bf訳語候補集合}と呼ぶ.なお,訳語は一つの単語であっても複数語から成る熟語であっても良い.入力の各タームに対してその訳語候補を一つずつ選んで並べたものを{\bf翻訳タームリスト候補}と呼び,$T=t_1^n=t_1,t_2,\ldots,t_n(t_iはs_iに対する訳語候補の一つ)$で表す.たとえば,入力がsuitとprosecuteとから成っていて,これらに対する訳語候補がそれぞれ「スーツ」と「裁判」,「遂行」と「起訴」である場合,以下の4つの翻訳タームリスト候補が存在する.\begin{verbatim}(スーツ,遂行),(スーツ,起訴),(裁判,遂行),(裁判,起訴)\end{verbatim}本論文で対象とする翻訳多義解消とは,翻訳タームリスト候補の中から(入力タームリスト全体の与える文脈に照らして)最も適切なものを選ぶことである. \section{翻訳多義解消モデル} 本論文で提案する手法は「翻訳タームリスト候補の中でターム同士の意味的関連性が高い方がそうでないものより妥当である」という仮定に基づいている.ここで,単語同士の意味的関連性の高さはこれらの単語がどの程度類似した文脈で出現しうるかによって定義する.たとえば,2章で挙げたsuitとprosecuteの場合,翻訳タームリスト候補内の意味的関連性が最も高いのは(裁判,起訴)であるからこれを選択する.形式的には,$n$個のタームから成る入力タームリスト$S=s_1^n$に対する最適な翻訳タームリスト$B(s_1^n)=\hat{T}=\hat{t_1^n}=\hat{t_1},\ldots,\hat{t_n}$は次の式で与えられる\vspace{5mm}\renewcommand{\arraystretch}{}\[\begin{array}{cccc}\hat{T}&=&\arg&\hspace{-3mm}\maxrel(T)\nonumber\\&&{\itT}&\nonumber\end{array}\]\renewcommand{\arraystretch}{}ここで,$rel(T)$は翻訳ームリスト候補$T$に対する\ikanrenの値で{\bf\ikd}あるいは単に{\bf\kd}と呼ぶ.本研究では以下で示すように\ikdを{\bf単語空間(WordSpace\cite{Schuetze97})}と呼ばれる多次元ベクトル空間を用いて定義する.\subsection{共起頻度による\ikdの定義}単語空間を使った\ikdの定義を行なう準備として,コーパス中のタームの共起頻度をそのまま使った\ikdを定義する.まず,ターム間の共起頻度を行列で表現する.この行列の行と列はどちらも異なりタームに対応し,$(i,j)$要素は$i$行目のターム$w_i$と$j$列目のターム$w_j$とのコーパスにおける共起頻度である.ここで,2つのタームの共起頻度とはこれらがあらかじめ決められた$p$語以内の近さでテキスト中に表れる頻度である\footnote{slidingwindowによる共起関係の定義}.以下ではこの行列のことを{\bf共起行列}と呼ぶ.表\ref{tab.cooc}に共起行列の例を示す.この例は,たとえば「訴訟」と「法」とがコーパス中で246回共起していることを表している.\begin{table}[htb]\caption{共起行列の例(Anexampleofaco-occurrencematrix).}\label{tab.cooc}\begin{minipage}{\columnwidth}\vspace{3mm}\small\begin{center}\begin{tabular}{l||l|l|l|l|l}&$\ldots$&法(law)&$\ldots$&百貨店(departmentstore)&$\ldots$\\\hline\hline&&&&&\\\hline訴訟(law:suit)&$\ldots$&246&&1&\\\hline&&&&&\\\hlineスーツ(garment:suit)&$\ldots$&9&$\ldots$&88&\\\hline&&&&&\\\hline&&&&&\\\end{tabular}\end{center}\end{minipage}\end{table}この共起行列の$i$行目の行ベクトル(長さを1に正規化したもの)をターム$w_i$に対する{\bf共起ベクトル}と呼び$\vec{w_i'}$で表す.共起ベクトルはそのタームが他のタームとどのような共起関係にあるかを表している.この定義から明らかな通り,2つのタームが他のタームと同じような比率で共起しているならば,これら2つのタームに対応するベクトルは近い方向を向く.そこで,2つのターム$w_i,w_j$の意味的な近さ$prox(w_i,w_j)$をこれらのタームに対応するベクトル$\vec{w_i'},\vec{w_j'}$のなす角の余弦($cos(\vec{w_i'},\vec{w_j'})$)として以下のように定義する\footnote{$\bullet$は二つのベクトルの内積を表す記号}.\begin{eqnarray}prox(w_i,w_j)=cos(\vec{w_i'},\vec{w_j'})\label{f.prox}\\\:where\:\:cos(\vec{a},\vec{b})=\frac{\vec{a}\bullet\vec{b}}{\sqrt{\mid\vec{a}\mid^2\mid\vec{b}\mid^2}}\nonumber\end{eqnarray}この「近さ」の概念を$n$タームに拡張したものが$n$要素から成るタームリストの\ikdの定義である.具体的には,ターム列$w_1^n=w_1,w_2,\ldots,w_n$に関する共起頻度に基づく\ikd$rel'(w_1^n)$を下記のように定式化する.\begin{eqnarray}rel'(w_1^n)&=&\frac{1}{n}\sum_{i=1}^ncos(\vec{w_i'},\vec{c}(w_1^n))\label{f.coh}\\where\:\:\vec{c}(w_1^n)&=&\frac{1}{n}\sum_i^n\vec{w_i'}\end{eqnarray}すなわち,n個のターム$(w_1^n)$に対応するn個のベクトルの重心$\vec{c}(w_1^n)$をまず計算し,この重心からそれぞれのベクトルまでの「近さ(式(\ref{f.prox}))の平均」を共起行列における\ikdとする\footnote{空間上の複数の点の「ちらばりの程度」を表す尺度として一般的に使われるのは平均からの自乗偏差であるが,本研究では点の間の近さを余弦を使って定義したので式(\ref{f.coh})を用いた.}.\subsection{単語空間における\ikd}上記で定義した\kdはコーパス中のターム間の共起頻度をそのまま使っているためデータスパースネスの問題がある.また行列の次元が大きくなりすぎて計算機での扱いが難しいという問題もある.これらの問題を解決するために共起行列に固有値分解(SingularValueDecomposition:SVD)を適用し行列(の階数)を縮退させる(なおSVDによる行列の縮退については付録参照).このようにしてできた行列を{\bf縮退共起行列}と呼ぶ.縮退共起行列には元の共起行列では陽に現れていないターム間の間接的な共起関係が表れることが知られている(higherorderco-occurence)\footnote{文献\cite{Schuetze97}p.91}.すなわち,$w_i$と$w_j$がコーパス中で直接共起していなくても,$w_i$と$w_k$,$w_j$と$w_k$が数多く共起していれば,縮退した行列では$(i,j)$要素の値がある正の値になる.この縮退されたベクトル空間を単語空間(wordspace)と呼ぶ\footnote{「単語空間」はLSI(LatentSemanticIndexing)\cite{Deerwester90}と密接な関係がある.前者はタームとタームの共起行列にSVDを適用したものであり,後者は文書に対する各タームの生起行列にSVDを適用したものである.これらの情報検索における相違点に関しては\cite{Schuetze97b}を参照のこと.}.この縮退共起行列の$i$番目の行ベクトルを$w_i$に対する縮退共起ベクトルと呼び$\vec{w_i}$と表す.単語空間に基づく\ikd$rel(w_1^n)$とは前節の\ikd($rel'(w_1^n)$)の定義において各単語($w_i$)に対する共起ベクトル($\vec{w_i'}$)を縮退共起ベクトル($\vec{w_i}$)に置き換えたものである. \section{アルゴリズム} label{S.Algorithm}3章で述べた\kdの定義には重心(平均)を求める操作が含まれているため,動的計画法などのような部分問題への分割を前提とした効率的なアルゴリズムが適用できない.従って,基本的には各翻訳タームリスト候補に対して総当たり的に\kdを計算する方法によらざるを得ない.この問題に対して本研究では以下に示すような枝刈りを適用して計算量の削減を図った.\subsection{総当たり法(基本アルゴリズム)}根接点を1段目として$i$段目の節点から出るリンクが$i$番目のタームに対する訳語候補に対応するような探索木を考える(図\ref{FigTermList}に例を示す).この木の各葉接点(図の右端の節点)が一つの翻訳タームリスト候補に対応する.\begin{figure}\begin{center}\epsfile{file=Fig1_termlist.eps,width=5cm}\end{center}\caption{翻訳タームリスト候補に対する探索木(Asearchtreeforpossibletranslations).}\label{FigTermList}\end{figure}枝刈りの前提となる{\bf総当たり法}とはこの探索木を深さ優先で辿り,葉節点に到達するたびに\kdを計算することによって\ikdが最大の候補を決定する方法である.\subsection{枝刈り}\subsubsection{準備}入力タームリスト$S=s_1^n$を先頭の$m\:$個$(m<n)$からなる$s_1^m$の部分と残りの$s_{m+1}^n$の部分に分ける.$s_1^n$に対する翻訳タームリスト候補のうち,$s_1^m$に対する訳語を$u_1^m$に固定した時,\kdが最大であるものを$C_m(S,u_1^m)$で表わすと次の不等式が成立する(なお,付録にこの不等式の簡単な証明を示す).\begin{eqnarray}rel(C_m(S,u_1^m))\leq\frac{m*rel(u_1^m)+(n-m)*rel(B(s_{m+1}^n))}{n}\label{bound}\end{eqnarray}ここで,$B(s_{m+1}^n)$は入力が$s_{m+1}^n$の場合の最適な翻訳タームリストである.従って,式(\ref{bound})の右辺は,$u_1^m$に対する\kdの値と$s_{m+1}^n$の部分のみを考えた場合の最適な翻訳タームリスト($B(s_{m+1}^n)$)の\kdの値をそれぞれのタームの個数で重みを付けて平均したものとなる.この不等式は,$s_1^m$の部分に対する訳語を$u_1^m$に固定したとき,$m+1$以降のタームに対する訳語をどのように選んでもタームリスト全体の\kdの値が右辺を越えないこと(上限)を表している.なお,等号が成り立つのは$u_1^m$の重心と$B(s_{m+1}^n)$の重心(の方向)が一致する時である.\subsubsection{枝刈り手法}前記の不等式(\ref{bound})を用いて「総当たり法」に対する次のような枝刈りを行なう.\begin{quote}\begin{description}\item[前処理]まず,タームリストの末端(右端)から$l(l=1,\ldots,k)$個の各部分に対する最適翻訳タームリストの\ikdの値$rel(B(s_{n-l+1}^n))$を計算しておく.これらの値は次に述べる「枝刈り」ステップにおいて利用する.ここで$k$は$n$より小さいある値で「枝刈り判定ターム数」と呼ぶ.なお,この前処理自体に最適な翻訳タームリストを求める処理が入っているが,これは本アルゴリズム全体を再帰的に適用することによって行なう.\item[枝刈り]総当たり法と同様の深さ優先の探索によって,探索木を根(タームリストの左端)から$m+1(但し,n-k\leqm)$番目の深さのある節点(X)まで進んだとする(図\ref{FigStree}の節点X).根節点からXまでの経路に対応する(先頭から$m$個分の)訳語の列を$u_1^m$とし,既に生成された翻訳タームリスト(すでに辿った葉節点)の\ikdの値のうち最大のものをmaxとする(図\ref{FigStree}のmax).この$u_1^m$に対して先の前処理で計算した$rel(B(s_{n-l+1}^n))$を使って式(\ref{bound})の右辺の値(\ikdの上限値)を計算し,この値がmaxより小さいならば,節点X以降のパスの探索(図\ref{FigStree}の斜線部分)を中止する.\end{description}\end{quote}\begin{figure}\begin{center}\epsfile{file=Fig2_Stree.eps,height=4cm}\end{center}\caption{枝刈り(Anexampleofpruning).}\label{FigStree}\end{figure}この枝刈りを含んだアルゴリズム全体の計算量は最悪の場合,すなわち,枝刈りが一回も起こらなかった場合,元の総当たり法の計算量と前処理の計算量の和になるため,元の総当たり法より計算量が増える.しかし,実際には後述するように50\%以上計算時間が短縮される. \section{評価実験} 新聞記事から抽出したタームリストに対して本手法を適用し,多義解消精度,処理効率に関する評価実験を行った.実験手順は次の通りである.\begin{enumerate}\item英語の新聞記事から単語を抽出して入力タームリストを作成する\item作成されたタームリストに対して英和辞書引きを行い訳語候補を得る\item提案手法,および,既存の他の手法によって多義解消を行いこれらの結果を人手で作られた正解と比較する.\end{enumerate}この実験を「翻訳実験」と呼ぶ.翻訳実験は本手法本来の用途に沿ったものであるが,「正解」を人手で作成する必要があるため客観性を保持して大量のデータを用意するのにはコストがかかる.そこで,補助的な実験として,より大量の入力に対して「再翻訳実験」と呼ばれる実験を行った.再翻訳実験とは,上記2で得られた(日本語)訳語候補の各々に対して逆方向の辞書(和英辞書)を引くことによって英語の訳語候補を作り,英語コーパスを使って多義解消を行うものである.この場合,元のタームリストを「正解」とする.以下では,まず実験条件について述べ,次に結果を述べる.\subsection{実験条件}\subsubsection{コーパスと前処理}英語コーパスとして1994年下半期のNewYorkTimes(420MB)\footnote{LinguisticDataConsortium},日本語コーパスとして1994年の毎日新聞(140MB)を利用した.英語コーパスについては,まず,スペース等をデリミタとして単語単位に分割し,次に,log-likelihoodによって隣接共起性の強い2つの単語(たとえばvicepresidentなど)を一つにまとめる処理\cite{Dunning93}を行った.日本語コーパスに関してはJTAG\cite{Fuchi97j}を使って形態素単位に分割し,英語と同様に隣接共起性の強い2単語をまとめたものをタームとした.\subsubsection{入力タームリスト}入力タームリストは次の手順で作成した.\begin{enumerate}\item前述の英語コーパスから400記事をランダムに選ぶ\item各記事について出現するタームの重要度をtf-idf値\footnote{あるテキストにおけるターム$w$に対するtf-idf値は$tf_wlog(\frac{N}{N_w})$で与えられる.ここで$tf_w$は$w$のテキスト中での出現頻度,$N$はテキストの総数$N_w$は$w$を含むテキストの数である.}によって計算し上位から順に20単語抽出する.\end{enumerate}\subsubsection{訳語候補}前述の方法によって作られたタームリストに対して対訳辞書を引いて訳語候補を作成した.対訳辞書としては,入手が容易なことと約77000語という語彙の多さからEDICT\cite{Breen95}を和英辞書として用い,英和辞書はこのEDICTを逆変換して作成した.なお,EDICTの単語1語あたり平均訳語数は1.72である.\begin{itemize}\item翻訳実験用前述の英語タームリストのうちさらにランダムに70個を選び,英和辞書を使って各タームに対する訳語候補を生成した.次に,これらの訳語候補の中から人手で正解(複数可)にマークした.あるタームの訳語候補の中に正解が存在しない場合,精度の判定ができないので,そのターム自体をリストから除いた.そして,最後に残ったものの中から重要度(tf-idf値)の大きい順に10個選んで実験用の入力とした.表\ref{Tab.Tdata}に各タームリストの先頭$n$単語(ターム)を取り出した場合の総語数,平均訳語数,多義語数,平均多義数を示す.ここで平均訳語数とは1語あたりの訳語数を全タームに対してとった平均であり\footnote{辞書全体の平均より若干大きいのは対象語が相対的に多義数の多い頻出語であるためと思われる.},平均多義数とは翻訳多義解消という観点からみたもので,多義性のあるタームのみを対象に訳語候補数を正解数で割ったもの(の平均)である\footnote{なお,多義性のあるタームに対する平均訳語数は4.11.}.表によると平均多義数はおおよそ2.3であり.ランダムに訳語を選んだ場合,多義性のある単語に対する平均正解率は1/2.3=0.43となる.\begin{table}\caption{翻訳実験データ(Testdatafortranslationexperiment).}\label{Tab.Tdata}\begin{center}\begin{tabular}{llllll}\hline$n$&2&4&6&8&10\\\hline総語数&146&292&438&576&669\\平均訳語数&1.99&1.95&2.03&2.13&2.12\\多義語数&71&141&216&285&224\\平均多義数*&2.32&2.29&2.32&2.38&2.38\\\hline\end{tabular}\\$*$:各翻訳多義語に対して訳語候補数を正解訳語数で割った値の平均\end{center}\end{table}なお,正解訳語が存在しないために除かれたタームは全体の10\%あり,そのうち64\%が固有名詞,18\%が複合語,残りが通常の単語であった.固有名詞の大部分は日本語テキストにはあまり出現しない人名や組織名などであり,基本的に訳語が一意に決まるため多義解消の対象にはならない.また,これらの単語は翻訳先言語に殆んど出現しない人名や組織名であるため(提案手法および比較に用いた他の手法において)他の語の多義解消に与える影響も少ない.複合語については個々の単語に分割して辞書引きするという方法もあり得るが,今回は単に辞書項目なしという扱いとした.\item再翻訳実験用再翻訳実験用の訳語候補は前述の400個のタームリスト全てを使い,各タームに対して,まず,英和辞書を引き,次に,得られた訳語の各々に対して和英辞書を引いて,それらの集合和を取り訳語候補とした.正解は元のタームである.なお,英和辞書に掲載されていないタームについては訳語候補を元の単語のみ(多義なし)とした.再翻訳実験用データの平均多義数はタームリスト長$n$に比例して増大する傾向にあり,$n=2$の時4.38,$n=10$の時5.42である.\end{itemize}\subsubsection{多義解消用の共起行列}前述の形態素解析済み日本語コーパスから名詞,動詞などの内容語で頻度が上位から50,000までの語を選び,この中からさらに上位1,000語を選んで,前者を行と後者を列とするような共起行列(50,000$\times$1,000)を作成した.なお,2つの単語がコーパス内で50語以内\footnote{10,30,50,70と変えて実験を行い結果が最も良いものを選択した}に出現している時,これらが共起しているとした.得られた共起行列をSVDPACKC\cite{Berry93}によって50,000x100の行列に変換した.再翻訳実験用の英語共起行列は英語コーパスのうち入力タームリストの作成に使った400記事を除いたものを使い上記と同様にして作成した(英語に関してはあらかじめ作られた「ストップ語リスト」に含まれない単語を内容語とした).\subsubsection{低頻度語の扱い}訳語候補のうち共起行列に存在しないもの(上位50,000語に含まれないもの)に対しては単語ベクトルが未定義となってしまう.これらの単語についてはコーパス中でその前後20語に出現する単語のベクトルを平均した値を近似値として用いた\footnote{LSIを使った情報検索における未知タームの扱い\cite{Dumais94}を参考にした}.なお,コーパス中に一度も出現しない単語については訳語候補から削除した.\subsection{精度比較用アルゴリズム}比較のため二つの多義解消アルゴリズムを用いた.\subsubsection{訳語のユニグラム頻度に基づく方法(ユニグラム法)}一つ目の手法は「あるタームが複数の訳語を持つ場合,目的言語における出現確率(ユニグラム確率)が最大のものを選ぶ」という方式である.これをユニグラム法と呼ぶ.ある単語の目的言語における生起確率の推定値は,単純に,共起行列の作成に用いたコーパスにおけるその単語の出現数をコーパスの総語数で割ったものを用いた.\subsubsection{訳語間の相互情報量に基づく方法(訳語共起法)}二つ目の手法として,目的言語コーパスのみを用いた既存の多義解消手法の代表として訳語同士の共起頻度に基づくアルゴリズム\cite{Tanaka96}を用いた.この手法では,各翻訳タームリスト候補について「共起スコア」を計算しこの値が最大のものを選ぶ.ある翻訳タームリスト候補に対する共起スコアはその翻訳タームリスト内の単語を2つ取り出してできる全ての組み合わせについて,目的言語コーパスから得られる2語共起のスコア(文献\cite{Tanaka96}では相互情報量\footnote{単語Aと単語Bの間の相互情報量は$Nf_{AB}/(f_Af_B)$で与えられる.ここで,$N$は総語数,$f_A,f_B$はそれぞれA,Bの出現頻度を,$f_{AB}$はAとBとが一定の近さで出現する頻度}を利用)を計算し,その総和を取ったものと同等である\footnote{正確な定義は文献\cite{Tanaka96}を参照のこと.}.なお,共起を判定する基準は我々の手法と同じく2つの単語が50語以内に出現することとした.\subsection{実験結果}\subsubsection{日英翻訳における翻訳精度}翻訳実験では各タームリストの先頭から$n$個($n$は2から10)取り出してできるタームリストに対して,4つの手法で多義解消を行ない精度の比較を行った.ここで,4つの手法とは,提案手法,SVDを適用する前の生の共起行列を使うもの,5.2で述べた2つの比較用アルゴリズムである.\begin{figure*}[t]\begin{center}\epsfile{file=Fig3_gra5e.eps,height=7cm}\end{center}\caption{提案手法,ベースライン,訳語候補の共起に基づく手法の翻訳精度(translationresults).}\label{Fig.Trans}\end{figure*}図\ref{Fig.Trans}にその結果を示す.ここで,図の縦軸は多義語1語あたりの翻訳正解率,横軸は入力タームリストの長さ($n$)を表す.なお,「多義語1語あたりの正解率」とは全ての翻訳多義語(不正解訳語を候補として持つターム)の中でシステムの出力が正解だったものの比率である.5.1.3で述べた通り,ランダムに訳語を選択した場合の理論値は0.43となる.図中のProposed,Non-SVD,Unigramはそれぞれ,提案手法,提案手法で縮退共起行列の代わりに(SVDを適用する前の)共起行列を使うもの,ユニグラム法,に対応する.また,MI,MI'はどちらも訳語共起法の結果であるが,前者は適用不可能なもの\footnote{共起度最大のものが一意に定まらなかったもの}(入力の19\%)の正解率を0,後者はこれをランダム選択の場合の値(0.43)とした場合の正解率である.なお,訳語共起法に関する実験値は論文\cite{Tanaka96}の値(MI=0.62,適用率=76\%)とほぼ一致している図より明らかな通り,正解率の高い順にProposed,Non-SVD,Unigramとなり,この3つの中でのSVDを使った提案手法の有効性が検証された.訳語共起法との比較でも提案手法の方が高くなった.提案手法の正解率の最大値はタームリスト長8の時で77.4\%,このときの多義性のない単語を含めた正解率(全体の正解率)は89.4\%である.タームリスト長と正解率の関係であるが,提案手法では長さ$n$が8,MIは5で正解率極大,non-SVDは9でわずかに極大となった.極大点が生じる理由としては,タームリストが長くなるにつれて文脈情報が増加するが,長くなりすぎると(tf-idf値の低い単語[ノイズ単語]が含まれるために)タームリスト中の単語の意味的関連性が下がるため,と考えられる.なお,手法によって極大点が異なるのはこれらタームリスト増加によるメリットとデメリットの影響が手法によって違うためであると考えられる.特に,MIの方が提案手法より小さい$n$で極大となるのは,前者の方法が基本的に2単語間の共起関係を用いてスコアを計算しているので,タームリスト全体でスコアを求める後者の方法より単語増加によるメリットを受けにくいためと推測できる.また,non-SVDにおいてはベクトルの信頼性が低いために少ない個数ではノイズの方が大きいことを示していると思われる.なお,これらの詳しい検証は今後の課題である.\subsubsection{再翻訳実験における翻訳精度}翻訳実験と同様にタームリスト長を変えて多義解消を行いProposed,Non-SVD,Unigramに対して翻訳精度を求めた.その結果を図\ref{Fig.Retrans}に示す.図の見方は前節と同様である.なお,``-normalized''の付いているものは多義語に関する一語あたりの平均多義数が一定になるように正規化したものである.図より値の傾向は翻訳実験と同じであることが分かる.\begin{figure*}[t]\begin{center}\epsfile{file=Fig4_gra3e.eps,height=7cm}\end{center}\caption{再翻訳精度とタームリスト長の関係(Re-translationresults).}\label{Fig.Retrans}\end{figure*}\subsubsection{枝刈りの効果}枝刈りの効果を調べるために,長さ8および10のタームリストに対して再翻訳実験を行ない,処理時間を測定した.縦軸にタームリスト一つあたりの処理時間(秒),横軸に枝刈り判定ターム数(4.2章の「前処理」における$k$の値)を取ったグラフを図\ref{Fig.Pruning}に示す.\begin{figure}\begin{center}\epsfile{file=Fig5_graTe.eps,height=7cm}\end{center}\caption{枝刈りと処理時間の関係(ProcessingTimevs.Pruning.)}\label{Fig.Pruning}\end{figure}この図から明らかな通り,枝刈りによって60\%-70\%の削減となった.また,元のタームリストの長さの半分の長さを使って枝刈りの可否の判定を行なうと計算量はほぼ最小となることが分かった.さらに,ここで注目すべきなのは,判定ターム数が2でも計算時間は半分以下になるということである. \section{考察} \subsection{失敗例の分析}失敗例のうち我々の手法に関係するもの\footnote{その他の失敗原因として,形態素解析誤り,複合語(特に複合固有名詞)の認定誤りなどがあげられる}は次の2種類である.1つ目は多義解消すべき単語の出現する文脈が極めて近いものである.たとえば``share''に対する訳語の「シェア(市場占有率)」と「株」はどちらも会社の業績や将来性に関する文脈で出現するため識別が難しい.文翻訳であれば\cite{Dagan94}のような統語的依存関係を用いてより精密な識別が可能であるが,タームリストの場合は難しい.2つ目は訳語候補が多義性を持つ場合である.ある訳語候補が多義性を持ち,その意味の一つが非常に一般的である(様々な単語と共起する)場合,この一般的な単語が訳語として選択されやすくなる.この理由として,この種の単語のベクトルは各次元に対して「平均的な」値を持つため,ベクトルの方向が他の単語の重心ベクトルの方向に近くなることが考えられる.後者の問題はDaganら\cite{Dagan94}によって既に指摘されており,解決法として1)より大きなコーパスで共起関係を学習する,2)パラレルコーパスを使う,\footnote{目的言語側の共起関係を原言語側の共起関係によって分類し,入力に応じたものを利用する.}という2点が挙げられている.これらに加えて,共起関係を学習する前にあらかじめ単言語の意味多義解消手法\footnote{たとえば\cite{Schuetze97}\cite{Pereira93}など}によってコーパス中の単語の意味多義を解消しておくことが考えられる.\subsection{関連研究}Daganら\cite{Dagan94}はテキスト中で統語的な依存関係(例えば,動詞-目的語,名詞-形容詞など)にある2つの単語を対象に,これらの単語に対する訳語候補の最適な組み合わせを決定する方法を提案した.訳語の組み合わせの妥当性は目的言語コーパス中でのこれらの共起頻度によって評価する.また,田中\cite{Tanaka96}らは同一文に出現する任意個の単語を対象としてやはり目的言語側での共起頻度をもとに最適な訳語の組み合わせを求める手法を提案している.はじめに述べた通り,第一の相違点は彼らの方法がコーパス中の共起情報のうち訳語候補間に関する共起頻度しか利用していないのに対して,我々の方法はコーパス全体の共起情報から計算された高次の情報を使っていることである.第二の相違点は,彼らが目的言語コーパスから得られた共起頻度をそのまま使っているのに対して我々のはSVDによって一種のスムージングを施した値を使っている点である.すなわち,我々の方法はコーパス中の情報をより有効に利用していると考えられ,このことが精度向上の一つの理由だと考えられる. \section{おわりに} 本論文ではタームリスト中の各単語の\ikanrenに着目した翻訳多義解消方式を提案した.本手法は多義語に対して平均77.4\%の正解率を持ち,デフォールトのタームリスト翻訳結果として有用であると考えられる.また,本手法は,単語ごとに分割された目的言語のコーパスのみの教師なし学習に基づいており,入力や学習データに対する統語的解析を要さないという利点を持っている.今後の課題として学習コーパスから共起情報を取り出す際の最適な共起の範囲を自動的に決定すること,また,学習コーパス中の単語に対してあらかじめ多義解消をした場合の効果を評価することがあげられる.クロスランゲージ検索など実際の応用システムに適用した場合,また,通常の文翻訳に適用した場合の性能評価(クロスランゲージ検索の場合は適合率/再現率)も今後の課題である.\acknowledgment本研究は著者がスタンフォード大学言語情報研究センター(CSLI)滞在中に行なったものである.研究内容に関するアドバイスとサポートを頂いた同大学のStanleyPeters教授,および,CSLIInfomapグループのメンバーに感謝する.また,論文全体に関するコメントを頂いたNTTサイバースペース研究所の林良彦氏,アルゴリズムに関するアドバイスを頂いた同研究所の村本達也氏に感謝する.\appendix \section{SVDによる共起行列の縮退} 行列$A$に対するSVDとは次の式を満たす$U_{0},S_{0},V_0^{-1}$を求めることである.\begin{eqnarray*}A&=&U_0S_0V_0^T\end{eqnarray*}ここで,$U_0U_0^T=V_0V_0^T=I(Iは単位行列)$,$S_0$は対角行列$diag(s_0,...,s_n)$で$s_i>s_j>0if(i>j)$を満たす.$S_0$の対角要素のうち$k$より大きいものを全て0と置いたものを$S$とし,$U_0,V_0$の先頭から$k$列目までの部分行列をそれぞれ$U,V$とすると,\begin{eqnarray*}\hat{A}=USV^{T}\end{eqnarray*}は$A$の階数を$k$に落した近似になっている.Aを共起行列と考えると$w_i,w_j$の類似性を表す行列は$AA^{T}$で得られる.$A$の代わりに$\hat{A}$を使うと,\begin{eqnarray*}\hat{A}\hat{A}^{T}=LSR^{T}(LSR^{T})^{T}=LS(LS)^{T}\label{aa}\end{eqnarray*}となり,L,Sという次元の小さい行列によって単語間の類似性が計算できることが分かる.なお,さらに詳しい説明は文献\cite{Deerwester90}\cite{Schuetze97}を参照されたい. \section{不等式(4)の証明} $S=s_1,\ldots,s_n$に対応する任意の翻訳タームリストを$T=t_1,\ldots,t_n$その最初の$m(m\leqn)$個からなるタームリストを$t_1^m$,残りを$t_{m+1}^n$とすると次の式が成立する.\begin{eqnarray}rel(T)\leq\frac{m*rel(t_1^m)+(n-m)*rel(t_{m+1}^n)}{n}\label{f1}\end{eqnarray}\begin{quotation}\noindent[証明]\\\noindent$T$の各タームに対応するベクトル(長さを1に正規化したもの)を$\vec{x_1},\ldots,\vec{x_n}$,ターム集合$T,t_1^m,t_{m+1}^n$それぞれに対するベクトル集合の重心をそれぞれ$\vec{g},\vec{g_1},\vec{g_2}$とすると,式(\ref{f1})の左辺は\begin{eqnarray}rel(T)=\frac{1}{n}\sum_{i=1}^nprox(\vec{x_i},\vec{g})=\frac{1}{n}\sum_{i=1}^n\frac{\vec{x_i}\bullet\vec{g}}{\mid\vec{g}\mid}=\frac{1}{n}\frac{n\vec{g}\bullet\vec{g}}{\mid\vec{g}\mid}=\mid\vec{g}\mid\label{f1.l}\end{eqnarray}\noindentとなる($\mid\vec{g}\mid$は$\vec{g}$の長さを表す).右辺も同様に書き換えると\begin{eqnarray}\frac{m*rel(t_1^m)+(n-m)*rel(t_{m+1}^n)}{n}=\frac{m*\mid\vec{g_1}\mid+(n-m)*\mid\vec{g_2}\mid}{n}\label{f1.r}\end{eqnarray}\noindentのようになる.ここで重心の定義から\begin{eqnarray}n\vec{g}=n*\frac{1}{n}\sum_{i=1}^n\vec{x_i}=\sum_{i=1}^m\vec{x_i}+\sum_{i=m+1}^n\vec{x_i}=m\vec{g_1}+(n-m)\vec{g_2}\end{eqnarray}が成立しているので,(\ref{f1.r})の値は(\ref{f1.l})と同じか大きい.なお,等号が成立するのはベクトル$\vec{g},\vec{g_1},\vec{g_2}$の向きが同じ時である.\begin{flushright}(証明終)\end{flushright}\end{quotation}式(\ref{f1})の$T$の部分に$C_m(S,u_1^m)=u_1,\ldots,u_m,z_{m+1},\ldots,z_n=u_1^m,z_{m+1}^n$を代入すると次の式が得られる.\begin{eqnarray}rel(C_m(S,u_1^m))\leq\frac{m*rel(u_1^m)+(n-m)*rel(z_{m+1}^n)}{n}\label{cent}\end{eqnarray}一方,$B(S)$の定義より\begin{eqnarray}rel(z_{m+1}^n)\leqrel(B(s_{m+1}^n))\label{tcbest}\end{eqnarray}であるから,(\ref{tcbest})と(\ref{cent})を組み合わせれば不等式(\ref{bound})が得られる.\begin{flushright}(証明終)\end{flushright}\bibliographystyle{jnlpbbl}\bibliography{v07n3_05}\begin{biography}\biotitle{略歴}\bioauthor{菊井玄一郎}{1986年京都大学工学部電気工学第二専攻修士課程修了.同年NTTに入社,現在に至る.自然言語処理,特に自動翻訳,多言語情報検索等の研究開発に従事.1990年から1994年までATR自動翻訳電話研究所に出向.1997年7月より1年間Stanford大学CSLI研究員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N04-07
\section{はじめに} \label{sec:intro}word2vec\cite{Mikolov2013}をはじめとする\emph{単語分散表現}やBERT\cite{Devlin2019-ri}に代表される\emph{事前学習済み言語モデル}\footnote{本研究では,BERTのようなマスク型言語モデルも含めて,広義の言語モデルとみなす.}など,大量の学習コーパスを用いて事前学習したニューラルネットワークのモデルの利活用が一般的になっている.研究者や実務者はこのような\emph{事前学習済みモデル}を,各々のタスクに合わせて利用し,必要に応じてファインチューニングする.公開されている事前学習済みモデルやAPIを起点とするのが一般的ではあるが,個別の用途に合わせた独自の事前学習済みモデルを構築することにも大きな利点がある\cite{Zhao2023-hy}.事前学習済み言語モデルに関しては,例えばドメイン特化のSciBERT\cite{Beltagy2019-wt},BioBERT\cite{10.1093/bioinformatics/btz682},FinBERT\cite{araci2019finbert}が提案され,下流のドメイン固有タスクで一般的なBERTに比べ優れた性能を発揮している.単語分散表現でも,独自コーパスでモデルを構築する研究や応用が数多くある\cite{lassner-etal-2023-domain}.独自の事前学習済みモデルを構築・運用する際には,事前学習時に存在しなかった新しいテキストに対する性能劣化に注意しなければならない\cite{ishihara-etal-2022-semantic}.言語は社会的事象の発生などを理由に常に変化し続けている\cite{Traugott2017-ui}.特に単語の通時的な意味変化は\textbf{セマンティックシフト(SemanticShift)}と呼ばれ,事前学習済みモデルの\emph{時系列性能劣化}\footnote{本研究では,事前学習済みモデルの性能が,事前学習時に存在しなかった新しいテキストに対して劣化する現象を時系列性能劣化と呼ぶ.}を引き起こすと指摘されている\cite{Loureiro2022-mj,Mohawesh2021-pc}.時系列性能劣化を計測する最も素朴な方法は,実際に新しいテキストを学習コーパスを加えて事前学習済みモデルを構築し,ファインチューニングをして新しいテキストに対する推論を行い,性能を評価し比較することである(図\ref{fig:project_overview}上).しかし,大規模な事前学習済みモデルの構築・ファインチューニング・推論には膨大な計算量が必要なため,費用や時間の側面が実用上の課題となる.特に事前学習済み言語モデルは,性能に関する経験的なスケーリング則\cite{Kaplan2020-vr}の存在に後押しされて大規模化が加速しており,時系列性能劣化の計測にかかる費用・時間も増大している\footnote{たとえば175億のパラメータサイズを持つGPT-3\cite{NEURIPS2020_1457c0d6}は事前学習に数千petaflop/s-dayの計算資源を消費した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f1.pdf}\end{center}\hangcaption{本研究の問題設定の概要図.学習コーパス内の単語の通時的な意味変化に着目し,事前学習済みモデルの時系列性能劣化を,実際に計測する以前に監査するための手法を開発する.}\label{fig:project_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の目的は,事前学習済みモデルの時系列性能劣化を,事前学習・ファインチューニング・推論を実施することなく監査する枠組みの開発である(図\ref{fig:project_overview}下).我々は事前学習済みモデルの時系列性能劣化は学習コーパス内の単語の通時的な意味変化に起因するという仮説を定め,セマンティックシフトの研究領域の知見を応用した監査指標\emph{SemanticShiftStability}を設計する(\ref{sec:proposed-method}節).この指標は,異なる時間幅の学習コーパスを用いて作成された2つのword2vecモデルを比較することで計算される.word2vecモデルは比較的低コストで作成できる.事前学習済み言語モデルを追加で事前学習・ファインチューニング・推論することなく,時系列性能劣化を推測できれば,優れた監査の仕組みとなる.提案する監査の枠組みの有用性を検証するため,まず予備実験として事前学習済みモデルの時系列性能劣化を観察した(\ref{sec:degradation}節).具体的には,日本語のRoBERTaモデル\cite{Liu2019-vu}と,日本語・英語のword2vecモデルを,学習コーパスの期間を変えてそれぞれ11ずつ作成した.その後,これらのモデルの時系列性能劣化を監査するという設定で,提案する指標を活用する実験を行った(\ref{sec:experiments}節).この実験を通じて,学習用コーパス間の単語の通時的な意味変化も大きい際に,モデルの時系列性能劣化が発生していると分かった.提案する指標の利点を活かし,意味が大きく変化した単語から原因を推察した結果,2016年の米大統領選や2020年の新型コロナウイルス感染症の影響が示唆された.本研究の主要な貢献は,以下の通りである.\begin{enumerate}\setlength{\parskip}{0cm}%\setlength{\itemsep}{0cm}\itemセマンティックシフトの研究領域の新たな応用として,事前学習済みモデルの時系列性能劣化を監査する枠組みを提案した.さらにセマンティックシフトに関する既存研究を拡張し,効率的に計算可能な監査指標SemanticShiftStabilityを設計した.\item学習コーパスの期間が異なる英語と日本語の事前学習済みモデルを作成して,時系列性能劣化の存在を明らかにした上で,設計した監査の枠組みの有用性を検証・議論した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} \label{sec:related}本節では関連研究として,事前学習済みモデルの時系列性能劣化と,セマンティックシフトについて整理する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{事前学習済みモデルの時系列性能劣化}本研究では事前学習済みモデルとして,事前学習済み言語モデルと単語分散表現の2種類を取り扱う.ラベル付けされていない大規模なコーパスからモデルを事前学習するという考え方は,昨今の自然言語処理領域で不可欠な要素となり,事前学習と下流タスクへのファインチューニングから成る新しい枠組みをもたらした\cite{Zhou2023-en,Zhao2023-hy}.この潮流はword2vecのような単語分散表現から始まり,BERTのような高度な事前学習済み言語モデルへと発展してきた.BERTの後続として,GPT-2\cite{Radford2019LanguageMA}やT5\cite{JMLR:v21:20-074}などの異なるアーキテクチャや,{RoBERTa}や{DeBERTa}\cite{he2021deberta}などの事前学習手法の改善が次々と提案されている.{GPT-3}やPaLMなど,より大規模な事前学習済み言語モデルは大規模言語モデルとも呼ばれ,パラメータ更新なしでも多種多様なタスクに対応できる.ChatGPT\footnote{\url{https://openai.com/blog/chatgpt}}の登場を一つの契機に,社会的な認知や実応用の拡大も急速に進んでいる.数多くの事前学習済みモデルやAPIが提供されている中でも,独自の事前学習済みモデルを構築する試みは少なくない\footnote{たとえば,特定のドメインに特化した事前学習済み言語モデルが数多く提案されている(付録\ref{app:domainplm}).}が,運用にはテキストの通時変化に伴う時系列性能劣化に注意が必要である.入出力のデータセットの分布が学習と予測の段階で異なる場合に発生する性能劣化は,機械学習の長年の問題である\cite{Quinonero-Candela2008-ur}.本研究で題材とする時系列性能劣化は,その一種と言える.自然言語処理の文脈でも,機械翻訳\cite{levenberg-etal-2010-stream}・文書分類\cite{huang-paul-2018-examining,huang-paul-2019-neural-temporality}・固有表現認識\cite{rijhwani-preotiuc-pietro-2020-temporally}などで,時系列性能劣化の発生が報告されている.事前学習済み言語モデルに関しては,\citeA{lazaridou2021mind}が包括的な調査で時系列性能劣化の存在を明らかにした.\citeA{Mohawesh2021-pc}も,入出力のデータセットの分布の違いが,偽レビュー検出の性能に悪影響を与えると報告した.ドメイン特化の例では,\citeA{Loureiro2022-mj}が期間が異なる英語のTwitter(現X)\footnote{\url{https://twitter.com/}}コーパスで複数の事前学習済み言語モデルを構築し,時系列性能劣化を観測した.学習方法の工夫や後処理を通じて,事前学習済み言語モデルの時系列性能劣化に対処する研究も存在する\cite{rottger-pierrehumbert-2021-temporal-adaptation,10.1145/3447548.3467162,su-etal-2022-improving}.単語分散表現についても,コーパスを時間軸で分割するのではなく単語を時間の関数として捉えたり\cite{Rosenfeld2018-ps},時系列性に加えて文脈も考慮したり\cite{hofmann2021dcwe}と,意味変化を踏まえた設計が進んでいる.本研究では英語のみならず日本語も対象に,学習コーパスの期間が異なる事前学習済みモデルを作成し,時系列性能劣化の存在と監査の手法について議論する.独自の事前学習済みモデルの構築・運用の需要が増える中で,重要性が高まっていく取り組みであると期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{セマンティックシフト}人間が扱う言語の変化は古くからさまざまな観点で研究され\cite{Bloomfield1933},言語学・社会学・情報科学の観点で幅広く関心が寄せられている\cite{kutuzov-etal-2018-diachronic}.近年は大規模なコーパスを用いて単語の通時的な意味変化,すなわちセマンティックシフトを捉えようとする取り組みが加速した\cite{Traugott2017-ui}.たとえば\citeA{Gulordava2011-on}は,1960年代と1990年代のコーパスにおける分布を比較し\emph{sleep}という単語が睡眠障害に関してより否定的な意味合いになったという文化的な変化を確認した.その他の具体的な手法としては,学習コーパスの期間が異なる単語分散表現の比較や,確率的な統計モデルの利用が挙げられる\cite{inoue-etal-2022-infinite}.前者には語彙全体の意味変化を観察できる利点,後者には特定の単語に対し詳細に分析できる利点がある.本研究にはコーパス全体の単語の通時的な意味変化を捉える狙いがあるため,前者の手法を採用する.単語分散表現からセマンティックシフトを分析する研究は,長期間のコーパスを用いた経緯や理由の言語学的な探究と,比較的短期間のコーパスを用いた社会的事象の検知・分析の2つに大別される\cite{kutuzov-etal-2018-diachronic}.前者には,特定の単語の変化の追跡\cite{10.1145/2736277.2741627,hamilton-etal-2016-inducing,10.1145/3447548.3467162}や意味変化の法則の研究\cite{hamilton-etal-2016-cultural,Hamilton2016-ia},異なる時点で同じ意味を持つ単語の発見\cite{szymanski-2017-temporal},性別・人種・階級に関するバイアスの分析\cite{doi:10.1177/0003122419877135,doi:10.1073/pnas.1720347115}などが挙げられる.後者には,武力紛争の発生の予測\cite{kutuzov-etal-2017-tracing,mueller_rauh_2018}や,中国を恐れる感情の増幅の分析\cite{Shen_He_Backes_Blackburn_Zannettou_Zhang_2022},新型コロナウイルス感染症の影響の分析\cite{takahashi2022,Guo2021-mo,Betancourt2022-wt}などがある.本研究は,単語分散表現を用いたセマンティックシフトの研究領域の新たな応用として,事前学習済みモデルの時系列性能劣化の監査を提示する.具体的には,既存の比較的短期間のコーパスを用いた社会的事象の検知・分析の枠組み\cite{Guo2021-mo}を活用しつつ,事前学習済みモデルの時系列性能劣化の監査に繋がる指標を導出・検証する.セマンティックシフトの応用として時系列性能劣化に着目した類似研究として,我々の初期の取り組み\cite{ishihara-etal-2022-semantic}と同時期に公開されたSuらの研究\cite{su-etal-2022-improving}が存在する.この研究は,時系列性能劣化が単語のセマンティックシフトと密接に関係していると実証的に確認した点で,我々の研究と共通している.しかしSuらの研究の主要な貢献は,セマンティックシフトが発生した単語を含むデータで事前学習済みモデルを追加学習することで時系列性能劣化を効率的に緩和できる手法を開発したことである.一方で我々の研究では,セマンティックシフトに着目して時系列性能劣化を監査する枠組みを設計する.Suらの研究のような手法を事前学習済みモデルに適用する必要があるかを議論できる点で,我々の研究とSuらの研究は競合する存在ではなく,むしろ互いの貢献を増強する補完的な立場である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{SemanticShiftStability:単語の通時的な意味変化の定量化手法} \label{sec:proposed-method}本節では,単語分散表現を用いた言語の通時的な意味変化の定量化手法(図\ref{fig:approach})を説明する.手法は次の3つの手順から成る.以降,各手順を具体的に説明する.\begin{enumerate}\setlength{\parskip}{0cm}\itemword2vecモデルの構築:年ごとの単語分散表現を構築する.\itemベクトル空間のマッピング:Guoらの先行研究\cite{Guo2021-mo}に基づき,2つの単語分散表現を比較することで単語の通時的な意味変化の度合いを計算する.\itemモデル全体の変化度合いの計算:単語の通時的な意味変化の度合いの平均をとることで全体の代表値とする.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f2.pdf}\end{center}\hangcaption{単語分散表現による言語の通時変化の定量化手法.1年ごとの単語分散表現を構築し,頻出する単語を起点に両者のベクトル空間を「マッピング」する.単語$w$の空間内の移動を$\it{stab}(w)$として算出し,全単語の平均を単語分散表現同士の変化度合いとみなす.}\label{fig:approach}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{word2vecモデルの構築}単語分散表現の獲得には,先行研究でも数多く利用されているword2vec\cite{Mikolov2013}を利用する.word2vecモデルの構築には,gensim\cite{rehurek_lrec}のskip-gramを利用する.テキストの前処理としてHTMLタグやURLを削除する.日本語を扱う場合,分かち書きにはMeCab\cite{Kudo2006-lj},辞書にはmecab-ipadic-NEologd\cite{sato2017mecabipadicneologdnlp2017}を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{ベクトル空間のマッピング}最初に,単語の通時的な意味変化を検出するため,学習済みの2つのword2vecモデルのベクトル空間に回転を施し,同一の空間に落とし込む(マッピング).ここでは,意味変化の割合は単語頻度の負の累乗に従うという考え方\cite{Hamilton2016-ia}に基づき,\textit{登場頻度の高い単語の意味は時間の経過とともに変化せず局所的な構造は保存されている}と仮定を置き,\citeA{Guo2021-mo}が提案する手法を利用する.この手法では,学習済みの2つのword2vecモデルを入力とし,回転行列を導出して座標軸を揃える.具体的には,両者に共通する単語を抽出した上で,word2vecモデル$i$で出現頻度が上位1,000件の単語行列$W_i$と,word2vecモデル$j$で同じ1,000個の単語から作った行列$W_j$から,特異値分解の応用で最適化問題を解く.ここで,単語の通時的な意味変化の度合いを計算する素朴な方法として,各モデルにおける単語分散表現のコサイン類似度\cite{Schonemann1966-wu}が挙げられる.しかし片方向のみの変換では類似度は平均して低くなる\cite{AzarbonyadDBAMK17}ため,\citeA{Guo2021-mo}は逆方向に同様の処理を適用し,単語の安定性($stab$)という観点で単語の通時的な意味変化を捉えている.モデル$i$とモデル$j$を比較した単語$w$の$\it{stab}$を次のように定義する.$$\it{stab}(w)=\frac{\it{sim}_{ij}(w)+\it{sim}_{ji}(w)}{2}$$$$\it{sim}_{ij}(w)=\it{cossim}(R^{ji}R^{ij}V^i_w,V^i_w)$$$\it{stab}$が小さいほど2つのword2vecモデルのベクトル空間での違いが大きく,単語の通時的な意味がより大きく変化しているとみなす.ただし,$\it{cossim}$はコサイン類似度,$R^{ji}$はモデル$j$から$i$のマッピングに用いた回転行列,$V^i_w$は単語$w$のモデル$i$での単語分散表現を意味する.なお実装には,\citeA{Hamilton2016-ia}の実装\footnote{\url{https://github.com/williamleif/histwords}}を活用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.3\subsection{モデル全体の変化度合いの計算}本研究では,モデル全体の変化度合いはモデル内の単語の変化度合いと相関しているとみなし,単語の$\it{stab}$の平均値をSemanticShiftStabilityと名付け,代表値として採用する.$W$はword2vecモデル$i$と$j$に共通して含まれる語彙で,$N$は$W$の個数である.この値が小さいほど,モデル全体の変化度合いが大きい.単語ごとの$\it{stab}$を用いることで,特に変化の度合いが大きかった単語を特定し,変化の要因を推察することも可能である.$$\mathrm{Semantic\Shift\Stability}=\displaystyle\frac{1}{N}\sum_{w\inW}\it{stab}(w)$$%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{予備実験:事前学習済みモデルの時系列性能劣化} \label{sec:degradation}本節では,事前学習済みモデルの時系列性能劣化の存在を報告する.具体的には,11年分の日本語と英語の学習コーパスを用意し,学習コーパスの期間が異なる単語分散表現と事前学習済み言語モデルを構築し,新しいテキストに対する性能劣化を確認した.単語分散表現として日本語・英語のword2vecモデル,事前学習済み言語モデルとして日本語のRoBERTaモデルをそれぞれ11ずつ作成・評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{データセット}実験には,日本語と英語のニュース記事コーパスを利用した.日本語としては,株式会社日本経済新聞社が提供するニュース配信サービス「日経電子版」\footnote{\url{https://aws.amazon.com/marketplace/seller-profile?id=c8d5bf8a-8f54-4b64-af39-dbc4aca94384}}(以降,\emph{Nikkei}コーパス)で,2010年10月23日~2021年12月31日に発行された記事を取得した.英語としては,複数の新聞や雑誌媒体のデータを含む「NewsontheWeb」\footnote{\url{https://www.english-corpora.org/now/}}(以降,\emph{NOW}コーパス)の2011年1月1日~2021年12月31日の記事を用いた.NOWコーパスは媒体として\textit{TechCrunch},\textit{ESPN},\textit{ArsTechnica},\textit{Salon},\textit{CNET},\textit{Politico}などを含む.Nikkeiコーパスではサービス開始日の2010年10月23日からの記事が取得できたが,NOWコーパスでは2011年1月1日以降の記事しか取得できなかったため,期間を揃えるため以降の議論では必要に応じてNikkeiコーパスの2010年10月23日~2010年12月31日のデータは除外している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{単語分散表現の時系列性能劣化}\label{subsec:w2v_degradation}単語分散表現として日本語と英語のword2vecモデルを作成し,時系列性能劣化を明らかにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.1\subsubsection{word2vecモデルの構築}NikkeiコーパスとNOWコーパスをそれぞれ発行日で1年ごとに分割し,gensim\cite{rehurek_lrec}を利用してword2vecモデルを作成した.学習アルゴリズムはskip-gram,次元数は300,イテレーション数は15,その他\texttt{window}は5,\texttt{negative}は5,\texttt{min\_count}は3に設定した.日本語のNikkeiコーパスを扱う際,テキストの前処理としてHTMLタグやURLを削除し,分かち書きにはMeCab\cite{Kudo2006-lj},辞書にはmecab-ipadic-NEologdの2020年9月10日時点版を用いた.作成した日本語のword2vecモデルについては,一般公開されているモデルと比較して遜色ない性能を示すことを確認した(付録\ref{app:word2vec}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.2\subsubsection{時系列性能劣化の観測}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[b]\begin{center}\includegraphics{31-4ia6f3.pdf}\end{center}\label{fig:w2v_experiments}\hangcaption{単語分散表現の時系列の性能変化の確認方法.1年ごとのデータでword2vecとLightGBMを学習し,2021年のデータで推論し評価する.「word2vecのみ過去のデータで学習」の設定では,LightGBMは2021年のデータで学習したモデルで固定した.}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2011~2021年のコーパスで構築した日本語と英語それぞれ11個のword2vecモデルを用いて,\citeA{kutuzov-etal-2018-diachronic}と同様に時系列の性能変化を検証した.具体的には,作成したword2vecモデルの妥当性を確認した際の実験と類似の設定で,キーワードを入力としてLightGBMを用いて記事のジャンルを予測した(図3).検証ではLightGBMの学習用にも過去のデータを使うか否かで2つの実験を設定した.「word2vecとLightGBMを学習」の設定では,word2vecモデルとLightGBMを各年のデータで学習し,LightGBMの推論に2021年1月1日~11月30日のデータを用いた.「word2vecのみ過去のデータで学習」の設定では,word2vecモデルのみを各年のデータで学習し,LightGBMは2021年のデータで学習したモデルで固定した.LightGBMの推論には,2021年1月1日~11月30日のデータを利用した.Nikkeiコーパスにおけるジャンルは「経済」「企業」「国際」「政治」「株・金融」「財務」「科学」「くらし」「スポーツ」「社会」「エコ」「健康」「インターネット」「雇用」「教育」の15種類だった.NOWコーパスでは特定のジャンルに特化している媒体の媒体名をジャンルと見做した.具体的には「TechCrunch」「ESPN」「ArsTechnica」「Salon」「CNET」「politico」の6種類だった.表\ref{tab:pre2}に示す通り,いずれの設定・コーパスでも2020年のデータを使った際の性能が最良で,学習期間が過去になるほど性能が劣化する傾向が確認できた.「word2vecのみ過去のデータで学習」と比べ「word2vecとLightGBMを学習」の設定では,LightGBMの学習にも過去のデータを利用している分だけ全体的に性能が劣化している.前年からの性能の差分を「改善幅」として算出したところ,特に2013,2016,2020年で.大きな性能の改善が確認された.このことは,例えば「2015年ではなく2016年のデータで学習したところ,2021年のデータに対する性能が改善する」という解釈につながる.すなわち,モデルの時系列性能劣化を踏まえた再学習の意思決定をするという観点で,図\ref{fig:project_overview}に示したような本研究の問題設定に関連した値であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{06table01.tex}\caption{2021年の記事データに対する性能の変化.緑色の濃淡は値の大きさを示す.}\label{tab:pre2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{事前学習済み言語モデルの時系列性能劣化}事前学習済み言語モデルとして日本語のRoBERTaモデルを作成し,時系列性能劣化を明らかにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3.1\subsubsection{RoBERTaモデルの構築}2010年3月23日~2021年12月31日のNikkeiコーパスを用い,表3に示す通り,学習コーパスの期間が異なる12のRoBERTaモデルを事前学習した.モデルのパラメータサイズは1億2500万に設定した.コーパスは,2010年,2010~2011年,...,2010~2021年の12パターンを用意した.word2vecモデルとコーパスの分割単位を変えたのは,1年ごとに分割したコーパスではRoBERTaモデルの事前学習には不十分であると考えたためである.実際に,表\ref{tab:pretrain}から読み取れる通り,1年分のコーパスでは損失が十分に小さくなっていない.学習コーパスのサイズが大きくなるにつれ,事前学習に必要な時間と計算費用は増加し,損失は減少する傾向が見られた.例えば2010~2021の記事データを用いた事前学習には,約14万秒(39時間)と約1278ドルの費用がかかった.計算資源にはAmazonEC2P4dインスタンス(\texttt{p4d.24xlarge})を使用した.このインスタンスはA100GPUを8基搭載しており,1時間あたりのオンデマンド価格は32.77ドルだった\footnote{\url{https://aws.amazon.com/jp/ec2/instance-types/p4/}}.word2vecモデルの構築を含むSemanticShiftStabilityの算出にはGPUは不要で,かかる時間と計算費用は,事前学習済み言語モデルの構築に比べると圧倒的に小さい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[b]\input{06table02.tex}\hangcaption{学習コーパスごとの事前学習に要した時間,損失,サイズの一覧.2010年から始まり,学習コーパスを1年ごとに追加した.学習コーパスのサイズは,CSVフォーマットで計測した.}\label{tab:pretrain}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%トークナイザは,SentencePiece\cite{Kudo2018-gi}をユニグラム言語モデル\cite{Kudo2018-bj}の設定で学習した.語彙サイズは一般的な値として32,000に設定した\cite{Tao2024-in}.SentencePieceは事前の単語分割を必要とせず生テキストから直接語彙を生成するため,日本語のように単語間に明示的なスペースがない言語のトークナイザとして有用である.図4に,学習コーパスの期間が異なるトークナイザの分割結果を示す.2010年のみの記事データで学習したトークナイザでは「コロナ禍」や「巣ごもり需要」が1,2文字の細かな単位に分割されている.一方でコロナ禍以後を含む2010~2021の記事データで学習したトークナイザは「コロナ禍」と「巣ごもり需要」を一つの語彙として認識した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f4.pdf}\end{center}\label{fig:sentencepiece}\caption{学習コーパスの期間が異なるトークナイザの分割結果.}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%語彙サイズに関しては日本語での大規模言語モデルを対象に,より大きいほど下流タスクで優れた性能を示す傾向があると実証的に報告されている\cite{Takase2024-th}.しかし語彙サイズを大きくした場合も,学習コーパス内に存在しない新語を一つの語彙として扱えるようになるとは期待できない.語彙サイズの大小に関わらず,時系列性能劣化は発生し得ると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3.2\subsubsection{時系列性能劣化の観測}先行研究\cite{Loureiro2022-mj}に従い,{RoBERTa}の時系列性能劣化をPseudo-perplexity(PPPL)\cite{Salazar2020-sj}を用いて測定した.評価セットは,年ごとの学習コーパスから100,000記事ずつ抽出して構築した\footnote{理想的には,評価セットと事前学習に用いたコーパスとの重複を考慮するのが望ましいが,利用可能な全コーパスで事前学習を実施済みのため,重複を許容した設定となった.}.PPPLはパラメータ$\Theta$を持つマスク型言語モデルにおいて,評価セット$\mathbb{W}$内の系列$W_{\backslasht}:=(w_1,\dotsc,w_{t-1},w_{t+1},\dotsc,w_{\abs{W}})$の各トークンを繰り返し穴埋めし,対応する条件付き対数確率$P_{\text{MLM}}(w_t\midW_{\backslasht};\Theta)$を合計するという考えに基づき計算される.PPPLは次の式で表され,値が小さいほど,未知のテキストのトークンを正しく予測できていることを表す.ここで$N$は$\mathbb{W}$内の全てのトークン数を意味する.\begin{align*}\text{PLL}(W)&:=\sum_{t=1}^{\abs{W}}\logP_{\text{MLM}}(w_t\midW_{\backslasht};\Theta)\\\text{PPPL}(\mathbb{W})&:=\exp\left(-\frac{1}{N}\sum_{W\in\mathbb{W}}\text{PLL}(W)\right)\end{align*}本研究では時系列の性能変化を見るために,学習コーパスの期間が異なるRoBERTaモデルと評価セットの組み合わせについて,PPPLを計算した(表\ref{tab:pppl}).全体的な傾向として,表の右側に行くほど値が劣化し,下に行くほど改善した.例えば2010年の記事データで事前学習したRoBERTaモデルを2010年の記事データで評価すると,PPPLは800.57だった.ここで評価セットを2011,2012,$\ldots$,2020年と新しくするにつれ,PPPLの値が劣化していった.2010年の記事データで事前学習したRoBERTaモデルは,2020年の記事データに対してPPPLが1076.00だったが,事前学習に用いる学習コーパスを増やすほどPPPLが改善している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{06table03.tex}\hangcaption{学習コーパスの期間が異なるRoBERTaモデルと評価に用いるコーパスの組み合わせについて計算したPseudo-perplexity(PPPL).PPPLは値が小さいほど,未知のテキストのトークンを正しく予測できていることを表す.斜体は,評価に用いるコーパスが学習コーパスと重複していることを意味する.}\label{tab:pppl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[t]\input{06table04.tex}\hangcaption{評価セットの年ごとの性能劣化幅を明らかにするためのPseudo-perplexity(PPPL)の変換結果.最初に,各RoBERTaモデルについて学習コーパスに含まれる最新年を基準に,性能劣化の割合を算出した.その後,前年との性能劣化幅をそれぞれ算出した.}\label{tab:relative_pppl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の問題設定を模倣するため,表\ref{tab:pppl}を変換した表\ref{tab:relative_pppl}も作成した.表\ref{tab:relative_pppl}では,各RoBERTaモデルについて学習コーパスに含まれる最新年を基準にして,評価セットの年ごとの性能劣化の割合を算出した後,前年との性能劣化幅をそれぞれ算出した.具体的な説明として,2010~2012年の記事データで事前学習したRoBERTaモデルに着目する.学習コーパスに含まれる最新年は2012年であり,63.13のPPPLが基準となる.ここで2013年以降の記事データを用いた評価結果の値を63.13で割ると,性能劣化の割合が計算できる.例えば性能劣化の割合(\%)は2013年で$70.25\div63.13\times100=111.278$,2014年で$73.17\div63.13\times100=115.903$となる.最後に,前年との性能劣化幅を計算すると表\ref{tab:relative_pppl}が完成する.性能劣化幅は2013年で$111.278-100=11.28$,2014年で$115.903-111.278=4.63$となる.評価セットとして2013,2016,2020年の記事データを用いた際に,特に前年からの性能劣化幅が大きい.もしこの大きな性能劣化幅を,実際にPPPLを算出する以前に確認できれば,優れた監査の仕組みとなる.すなわち,モデルの時系列性能劣化を踏まえた再学習の意思決定をするという観点で,図\ref{fig:project_overview}に示したような本研究の問題設定に関連した値であると言える.さらに表\ref{tab:pppl}からは,実際に記事データを追加して再学習した際の性能改善の割合も読み取れる.例えば,2010~2012年の記事データで事前学習したRoBERTaモデルを2013年の記事データで評価した際,PPPLは70.25だった.ここで2010~2013年の記事データで事前学習したRoBERTaモデルを2013年の記事データで評価すると,PPPLは38.62に改善しており,性能改善の割合(\%)は$70.25\div38.62\times100=181.920$となる.同様の考え方で,2011~2020年の記事データを追加して再学習した際の性能改善の割合を計算した結果を表\ref{tab:relative_improvement}に示す.2018年以外は性能が改善しており,評価セットに相当する年の記事データを追加して再学習することが,PPPLの改善に繋がっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{06table05.tex}\caption{2011~2020年の記事データを追加して再学習した際の性能改善の割合.}\label{tab:relative_improvement}{\vskip-5pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{実験:時系列性能劣化とSemanticShiftStability} \label{sec:experiments}本節では,\ref{sec:degradation}節で観測した事前学習済みモデルの時系列性能劣化について,\ref{sec:proposed-method}節で提案したSemanticShiftStabilityとの関係を議論する.最初に各年のSemanticShiftStabilityを計算し,本研究で採用した手法による単語の通時的な意味変化の検出性能を調査すると共に,具体的なケーススタディとしてword2vecモデルとRoBERTaモデルの時系列性能劣化を監査する.最後に,SemanticShiftStabilityの算出方法を部分的に変更し,手法の妥当性を議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{SemanticShiftStabilityの年次推移}\label{subsec:sss}SemanticShiftStabilityの年次推移を図\ref{fig:entire_model_stability}に示す.たとえば2011年と2012年の変化度合いは,学習用のコーパスが2011年と2012年であるword2vecモデルを比較して算出した.図\ref{fig:entire_model_stability}からは,NikkeiコーパスとNOWコーパスの両者で2019年と2020年のSemanticShiftStabilityが最も小さく,すなわち変化度合いが大きいことが読み取れる.NOWコーパスでは2番目に2015年と2016年が,Nikkeiコーパスでは2番目に2011年と2012年,3番目に2015年と2016年が小さい結果となった.NikkeiコーパスとNOWコーパスにおけるPearsonの相関係数は0.66で,言語を超えて通時的な意味変化の傾向が類似している.ただしNOWコーパスはNikkeiコーパスと比べて,全体的に値が小さかった.これはNOWコーパスには複数の媒体が含まれており,Nikkeiコーパスと比べて文章全体が多様性に富むことに由来すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f5.pdf}\end{center}\hangcaption{SemanticShiftStabilityの年次推移.NikkeiコーパスとNOWコーパスの両者で2019年と2020年の値が最も小さく,相関係数0.66と変遷が類似している.}\label{fig:entire_model_stability}{\vskip-5pt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{単語の通時的な意味変化の検出性能}ここでは,2つのword2vecモデルをマッピングした結果得られた単語ごとの$stab$を用いて,本研究で採用した手法による単語の通時的な意味変化の検出性能を定性的に検証する.具体的にはSemanticShiftStabilityが小さく変化の度合いが大きかった2019年と2020年,および2015年と2016年の比較に絞り,$\it{stab}$の小さい・大きい単語を調査する.一部の単語について,word2vecモデルの語彙内でコサイン類似度が高い類義語の遷移も示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2.1\subsubsection{2019年と2020年の違いの分析}2019年と2020年の比較における,NikkeiコーパスとNOWコーパスの$\it{stab}$の頻度分布を,それぞれ図\ref{fig:sss_nikkei_2019_hist}aと図\ref{fig:sss_nikkei_2019_hist}bに示す.共に$\it{stab}$は中央値を軸とした歪んでいない分布である,2019年と2020年の比較における,NikkeiコーパスとNOWコーパスの$stab$と2020年の出現頻度の散布図を図\ref{fig:sss_nikkei_2019_scatter}aと図\ref{fig:sss_nikkei_2019_scatter}bに示す.一般に単語の出現頻度が高いほど意味の変化は小さいという法則が知られている\cite{Hamilton2016-ia}.一方でTwitterを題材に新型コロナウイルス感染症が言語に与える影響を分析した先行研究\cite{Guo2021-mo}は,特定の社会的事象に注目した際には逆の関係性が出現すると報告した.本研究の場合,出現頻度が増加するにつれ$\it{stab}$の最小値が減少していく,すなわち意味の変化が大きくなっていく傾向が観測された.2020年は新型コロナウイルス感染症の流行という社会的事象が発生しており,本研究の結果は先行研究\cite{Guo2021-mo}の発見を再現していると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F6\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f6.pdf}\end{center}\caption{2019年と2020年の比較における$stab$の頻度分布.}\label{fig:sss_nikkei_2019_hist}{\vskip-5pt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F7\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f7.pdf}\end{center}\caption{2019年と2020年の比較における$stab$(縦軸)と2020年の出現頻度(横軸)の散布図.}\label{fig:sss_nikkei_2019_scatter}{\vskip-10pt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2019年と2020年のword2vecモデルをマッピングした際,NikkeiコーパスとNOWコーパスで$stab$が小さかった単語上位10件を以下に示す.共に感染・コロナ・ウイルス(virus)・マスク(masks,mask,wear,wearing)などの新型コロナウイルス感染症関連の単語が上位に登場している.2019年と2020年の単語分散表現の変化の要因が,新型コロナウイルス感染症によると示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itembox}[l]{Nikkeiコーパスで$stab$が小さい単語上位10件}感染,感染拡大,コロナ,ワクチン,ウイルス,マスク,感染者,北朝鮮,接種,流行\end{itembox}\begin{itembox}[l]{NOWコーパスで$stab$が小さい単語上位10件}king,scott,de,virus,masks,wear,mask,pi,q,wearing\end{itembox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%類義語の変遷からは,実際に2019年と2020年の間にこれらの単語で意味変化が生じていると確認できた.Nikkeiコーパスでの「コロナ」の類義語上位3件の変遷を見ると,2020年を境に新型コロナウイルス感染症関連の語が登場している(表\ref{tab:w2v_nikkei_corona}).Nikkeiコーパスでの「ウイルス」の類義語上位3件の変遷(表\ref{tab:w2v_nikkei_virus})やNOWコーパスでの「virus」の類義語上位5件の変遷(表\ref{tab:w2v_now_corona})からも,同様の傾向が確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table*}[b]\input{06table06.tex}\hangcaption{Nikkeiコーパスでの「コロナ」の類義語上位3件の変遷.2020年に新型コロナウイルス感染症関連の単語が登場している.}\label{tab:w2v_nikkei_corona}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table*}[b]\input{06table07.tex}\hangcaption{Nikkeiコーパスでの「ウイルス」の類義語上位3件の変遷.2020年に新型コロナウイルス感染症関連の単語が登場している.}\label{tab:w2v_nikkei_virus}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table*}[t]\input{06table08.tex}\hangcaption{NOWコーパスでの「virus」の類義語上位5件の変遷.2020年に新型コロナウイルス感染症関連の単語が登場している.}\label{tab:w2v_now_corona}{\vskip-10pt}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,NikkeiコーパスとNOWコーパスで$stab$が大きかった単語上位10件を以下に示す.Nikkeiコーパスでは日付や一般的な動詞,NOWコーパスでは数値や曜日など,通時的に意味が変化していないと考えられる単語が導出された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itembox}[l]{Nikkeiコーパスで$stab$が大きい単語上位10件}減少,17日,12日,ない,指摘,述べ,おり,し,た,いる\end{itembox}\begin{itembox}[l]{NOWコーパスで$stab$が大きい単語上位10件}four,thursday,tuesday,really,monday,16,taking,wednesday,took,three\end{itembox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2.2\subsubsection{2015年と2016年の違いの分析}2015年と2016年のword2vecモデルをマッピングした際,NikkeiコーパスとNOWコーパスで$stab$が小さかった単語上位10件を以下に示す.Nikkeiコーパスではトランプ氏とドナルド・トランプという,米大統領選に関する単語が上位に登場している.一方でNOWコーパスでは,米大統領選に直接関連すると考えられる単語は確認できなかった.actorsやhollywoodは,ハリウッド俳優らのドナルド・トランプ氏への批判が関係している可能性もあるが,より詳細な分析が必要である.\begin{itembox}[l]{Nikkeiコーパスで$stab$が小さい単語上位10件}HD,:,雪,うどん,食,トランプ氏,ドナルド・トランプ,北朝鮮,47\%,麺\end{itembox}\begin{itembox}[l]{NOWコーパスで$stab$が小さい単語上位10件}hide,king,caption,actors,toggle,machine,notes,gold,hollywood,editors\end{itembox}Nikkeiコーパスでの「トランプ」の類義語上位3件の変遷を見ると,2016年を境にドナルド・トランプ氏に関連する語が登場しており,単語の意味変化が生じている(表\ref{tab:w2v_nikkei_trump}).NOWコーパスでの「trump」の類義語上位5件の変遷からは,2016年から大統領(president)に関する単語が出現していると確認できた(表\ref{tab:w2v_now_trump}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table*}[t]\input{06table09.tex}\hangcaption{Nikkeiコーパスでの「トランプ」の類義語上位3件の変遷.2016年にドナルド・トランプ氏を指す単語が登場している.}\label{tab:w2v_nikkei_trump}{\vskip-5pt}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table*}[t]\input{06table10.tex}\caption{NOWコーパスでの「trump」の類義語上位5件の変遷.表\ref{tab:w2v_nikkei_trump}ほど,顕著な傾向は確認できなかった.}\label{tab:w2v_now_trump}{\vskip-10pt}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,NikkeiコーパスとNOWコーパスで$stab$が大きかった単語上位10件を以下に示す.2015年と2016年の比較でも,2019年と2020年の比較と同様に,Nikkeiコーパスでは日付や一般的な動詞,NOWコーパスでは数値や曜日など,通時的に意味が変化していないと考えられる単語が導出された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itembox}[l]{Nikkeiコーパスで$stab$が大きい単語上位10件}の,6日,20日,れ,た,語っ,おり,ない,いる,、\end{itembox}\begin{itembox}[l]{NOWコーパスで$stab$が大きい単語上位10件}weeks,four,billion,taking,want,i've,monday,five,took,tuesday\end{itembox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここまで確認した通り,$stab$の大小と単語の意味変化の度合いには,一定の対応関係が存在した.以上の結果から,本研究で採用した手法には,単語の通時的な意味変化を捉える性能があると示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3\subsection{ケーススタディ:単語分散表現}ここでは日本語と英語のword2vecモデルの時系列性能劣化を監査するという想定で,SemanticShiftStabilityの有用性を示す.具体的には,SemanticShiftStabilityが小さく意味変化の度合いが大きい年について,実際にword2vecモデルの性能が大きく変化しているかを確認する.\ref{subsec:sss}節で述べた通り,SemanticShiftStabilityはNikkeiコーパスとNOWコーパスの両者で2019年と2020年が最も小さく,NOWコーパスでは2番目に2015年と2016年が,Nikkeiコーパスでは2番目に2011年と2012年,3番目に2015年と2016年が小さい結果だった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F8\begin{figure}[b]{\vskip-10pt}\begin{center}\includegraphics{31-4ia6f8.pdf}\end{center}\hangcaption{word2vecモデルの性能改善幅(表2,word2vecのみ過去のデータで学習)と,SemanticShiftStabilityの関係.SemanticShiftStabilityが小さい年に,改善幅が大きくなっている.$X-1$年と$X$年の比較で算出されたSemanticShiftStabilityを,横軸の$X$年に配置した.}\label{fig:result_nikkei_w2v}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:result_nikkei_w2v}aおよび図\ref{fig:result_nikkei_w2v}bに示す通り,表\ref{tab:pre2}におけるword2vecのみ過去のデータで学習する設定では,SemanticShiftStabilityが小さい年に性能改善幅が大きくなっていると分かった.赤い波線は,表\ref{tab:pre2}におけるword2vecのみ過去のデータで学習する設定での性能改善幅を示す.青い線が表すSemanticShiftStabilityが小さいときに,赤い波線が大きくなっていると読み取れる.Pearsonの相関係数はそれぞれ$-$0.4855,$-$0.8861だった.このことは,監査指標としてのSemanticShiftStabilityの有用性を示唆している.一方,表\ref{tab:pre2}におけるword2vecとLightGBMを学習する設定では相関係数はそれぞれ$-$0.2611と$-$0.1738で,明確な相関が確認できなかった(図\ref{fig:result_nikkei_w2v_lgbm}a,図\ref{fig:result_nikkei_w2v_lgbm}b).これはLightGBMモデルも過去の記事データで学習したため,word2vecモデル単体の影響が薄れたためだと考えられる.LightGBMモデルの扱いについては本研究の対象外で,今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F9\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f9.eps}\end{center}\hangcaption{word2vecモデルの性能改善幅(表2,word2vecとLightGBMを学習)と,SemanticShiftStabilityの関係.図10のような明確な相関は確認できなかった.$X-1$年と$X$年の比較で算出されたSemanticShiftStabilityを,横軸の$X$年に配置した.}\label{fig:result_nikkei_w2v_lgbm}{\vskip-10pt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[b]{\vskip-5pt}\input{06table11.tex}\hangcaption{それぞれのRoBERTaモデルにおける,時系列性能劣化幅とSemanticShiftStabilityの相関係数.学習コーパスの期間ごとに,評価セットとして利用できる年数が異なる.}\label{tab:sss_corr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.4\subsection{ケーススタディ:事前学習済み言語モデル}ここでは日本語のRoBERTaモデルの時系列性能劣化を監査するという想定で,SemanticShiftStabilityの有用性を確認する.具体的には,SemanticShiftStabilityが小さく意味変化の度合いが大きい年について,実際にRoBERTaモデルの性能が大きく変化しているかを確認する.\ref{subsec:sss}節で述べた通り,NikkeiコーパスでのSemanticShiftStabilityは2019年と2020年が最も小さく,2番目に2011年と2012年,3番目に2015年と2016年が小さい結果だった.表\ref{tab:relative_pppl}から読み取れる通り,SemanticShiftStabilityが小さい2012,2016,2020年の記事データを評価セットとして用いた際,RoBERTaモデルの性能劣化幅が大きかった.それぞれのRoBERTaモデルにおける,時系列性能劣化とSemanticShiftStabilityのPearsonの相関係数を表\ref{tab:sss_corr}に示す.たとえば2010年の記事データで事前学習されたRoBERTaモデルで,時系列性能劣化幅とSemanticShiftStabilityの間に,$-$0.7775と大きな相関関係が確認できた(図\ref{fig:result_roberta2010}a).SemanticShiftStabilityが小さい年に,劣化幅が大きくなっていると分かる.2010--2011年の記事データで事前学習されたRoBERTaモデルでも,同様の傾向が見られた(図\ref{fig:result_roberta2010}b).このことは,監査指標としてのSemanticShiftStabilityの有用性を示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F10\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f10.pdf}\end{center}\hangcaption{記事データで事前学習したRoBERTaモデルの時系列性能劣化幅(表5)と,SemanticShiftStabilityの関係.SemanticShiftStabilityが小さい年に,劣化幅が大きくなっている.}\label{fig:result_roberta2010}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:sss_corr}で留意すべき点として,学習コーパスの期間が長くなるにつれて相関係数の算出に用いられる評価セットの年数が少なくなっている.2010年の記事データで事前学習したRoBERTaモデルに対して10年分の評価セットで算出した相関係数は$-$0.7775だった.しかし,連続する3年分のみを対象に相関係数を計算したところ,抽出した区間ごとに$-$0.9091,$-$0.1645,$-$0.5270,$-$0.4720,$-$0.0627,0.4351,$-$0.9753と大きな分散が見られた.そのため,評価セットの年数が少ない場合の結果には不確実性が大きい.表\ref{tab:sss_corr}ではRoBERTaモデルの学習コーパスの期間が増えるにつれ,相関係数の絶対値が小さくなっている.この現象は,より大規模な学習コーパスで構築したRoBERTaモデルの時系列性能劣化について,本研究で提案する枠組みで監査するのが適切でない可能性を示唆するため,更なる検証が望ましい.2021年以降のコーパスを用いて評価セットの年数を追加することや,必要に応じて相関が高くなる指標の設計を模索することは,今後の展望である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.5\subsection{算出方法を変えた場合のSemanticShiftStability}ここではSemanticShiftStabilityの算出方法を部分的に変更し,\ref{sec:proposed-method}節で説明した手法の妥当性について議論する.具体的には,単語分散表現の学習に用いる期間,頻度の考慮,単語分割の辞書の影響の3つの観点を調査した.Nikkeiコーパスのみを対象としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.5.1\subsubsection{単語分散表現の学習に用いる期間}最初に,単語分散表現の学習コーパスの期間を変えた場合の影響を検証する.ここまでは1年ごとにコーパスを分割し,たとえば2019年と2020年の変化度合いは,学習用のコーパスが2019年と2020年であるword2vecモデルを比較して算出した.ここで,学習コーパスの期間を1年より長くした場合,短くした場合の変化を観察する.まず,学習コーパスの期間を長くした場合,つまり2010--2019年と2010--2020年のように,過去のコーパスも学習に用いて比較した場合の結果を表\ref{tab:sss_comparison}に示す.「過去も用いた分割」の設定では,SemanticShiftStabilityの値がほとんど1となった.この現象は,学習コーパスに共通する部分が大きいことに起因すると考えられる.本研究の目的においては,比較するword2vecモデルが一定程度異なるような設定が望ましく,期間の重なりが少ないコーパスを用いる妥当性が確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table*}[b]\input{06table12.tex}\hangcaption{過去のコーパスも学習に用いた場合のSemanticShiftStability(SSS)と,頻度を考慮した加重平均で導出したWeightedSemanticShiftStability(WSSS).}\label{tab:sss_comparison}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,学習コーパスの期間を短くした場合を考察する.具体的には,最もSemanticShiftStabilityが小さかった期間である2019--2020年に焦点を当て,月単位でword2vecモデルを構築し,隣接するモデル同士をそれぞれ比較することでSemanticShiftStabilityを算出した.図\ref{fig:sss_month}からは,新型コロナウイルス感染症が初めて日本で大きく流行した期間に当たる2020年2--4月にかけて,SemanticShiftStabilityが小さくなっている様子が読み取れる.年よりも小さい月の単位でも,本研究で提案する監査の枠組みが有効である可能性を示唆する結果となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F11\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f11.pdf}\end{center}\hangcaption{2019--2020年のSemanticShiftStabilityの月次推移.月単位でword2vecモデルを構築し,隣接するモデル同士をそれぞれ比較することで算出した.}\label{fig:sss_month}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.5.2\subsubsection{頻度の考慮}\ref{sec:proposed-method}節で述べた手法では,全ての単語の単純平均をSemanticShiftStabilityとして算出する.ここでは,コーパスでの出現頻度に基づく加重平均でWeightedSemanticShiftStabilityを導出し,SemanticShiftStabilityと比較する.加重平均の重み($weight(w)$)としては,比較する2つのコーパス内での各単語の出現回数の和の比率を用いた.$$\mathrm{Weighted\Semantic\Shift\Stability}=\displaystyle\frac{1}{N}\sum_{w\inW}\it{weight}(w)\times\it{stab}(w)$$表\ref{tab:sss_comparison}からは,単純平均と加重平均で全体の傾向に大きな変化はないことが読み取れる.WeightedSemanticShiftStabilityが最も小さいのは,SemanticShiftStability同様,2019年と2020年を比較した場合だった.SemanticShiftStabilityは,2018年と2019年の0.985から,2019年と2020年に0.970まで0.015だけ低下する.一方でWeightedSemanticShiftStabilityでは,2018年と2019年の0.987から,2019年と2020年に0.977と低下幅は0.010だった.2020年には新型コロナウイルス感染症関連の単語の出現数が大きく増加した.そのため,一般に$\it{stab}$が小さい新型コロナウイルス感染症関連の単語に大きな重みを与えるWeightedSemanticShiftStabilityでは,低下幅が軽減されたと考えられる.逆にWeightedSemanticShiftStabilityの数式で$\it{weight}(w)$を$\displaystyle\frac{1}{\it{weight}(w)}$に置き換えると,より変化度合いを強調した指標が設計できる可能性もある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.5.3\subsubsection{単語分割の辞書の影響}本研究では,単語分割の辞書としてmecab-ipadic-NEologdの2020年9月10日時点版を用いた.この辞書の更新時期の影響を評価するため,2020年9月の前後6カ月でword2vecモデルを構築し,本研究と同様の枠組みで単語の意味変化度合いを計算した.辞書より後に出現した新語は細かく分割されるため,$stab$が小さくなり,SemanticShiftStabilityの低下に影響する懸念がある.しかし,実際に$stab$が小さかった単語は次の通りで,新語の一部と見られるものは少なく,単語分割の辞書の更新時期が与える影響が大きいとは言えないと考えられる.\begin{itembox}[l]{$stab$が小さい単語上位10件}監督,候補,短時間,吉村,当選,線,プロ野球,26,選挙,再生\end{itembox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{おわりに} \label{sec:conclusion}本研究では,学習コーパス内の単語の通時的な意味変化に着目した指標としてSemanticShiftStabilityを設計し,事前学習済みモデルの時系列性能劣化を監査する枠組みを提案した.具体的には,SemanticShiftStabilityが小さくなる際に,事前学習済み言語モデルの例として構築した日本語のRoBERTaモデルや,単語分散表現の例として構築した日本語・英語のword2vecモデルの時系列性能劣化が発生していることを観測した.変化の要因として2016年の米大統領選や2020年の新型コロナウイルス感染症の影響も示唆され,事前学習済みモデルの再学習に関する意思決定を支援する上での有用性を確認した.2019--2020年に絞って年ではなく月単位でコーパスを分割した実験では,より細かな粒度で監査する枠組みの可能性が確認できた.SemanticShiftStabilityの算出に必要な時間や計算費用は,事前学習済み言語モデルの構築に比べると小さく,実運用上はコーパスの期間を短縮する利点があると考えている.本研究は,セマンティックシフトの研究領域の応用として事前学習済みモデルの時系列性能劣化の監査を掲げた最初の試みの一つであり,さまざまな今後の展望が存在する.\begin{description}\setlength{\parskip}{0cm}%\setlength{\itemsep}{0cm}\item[指標の改良]本研究では指標の一案としてSemanticShiftStabilityを設計したが,セマンティックシフトに関する先行研究は数多くあり,定量化の手法にも改善の余地がある.単語分散表現の構築では,逐次的にモデルを更新するIncrementalSkip-gram\cite{kaji-kobayashi-2017-incremental}といった選択肢がある.日本語の分割に関しても,新語あるいは死語の存在を考慮して,固有の辞書を用いるのではなくSentencePieceを学習する方法も考えられる.\item[監査の方法論の確立]本研究ではSemanticShiftStabilityと時系列性能劣化の関係について,算出された定量的情報を基に定性的に考察した.今後の研究で,より説得力のある監査の方法論を定式化する必要がある.\item[コーパスやモデルの多様性]本研究ではコーパス(日本語と英語)およびモデル(RoBERTaとword2vec)の多様性をある程度確保しているが,より多様な組み合わせでの検証も望ましい.特にRoBERTaよりも大規模な事前学習済み言語モデルに対して,提案した枠組みが利用可能かを検証したい.\end{description}%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の推進に当たり,日本経済新聞社の多くの方々にご協力を賜りました.特に大村和正さんには,本稿の草稿を丁寧にレビューしていただきました.RoBERTaモデルの事前学習では,AWSJapanによる技術的な支援をいただきました.最後に,数多くの建設的なコメントを頂いた査読者の皆さまにお礼申し上げます.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{ドメイン特化の事前学習済み言語モデル} \label{app:domainplm}ドメイン特化の事前学習済み言語モデルとして,金融\cite{araci2019finbert,Wu2023-mb,SUZUKI2023103194}・医療\cite{shin-etal-2020-biomegatron,10.1093/bioinformatics/btz682,10.1093/bib/bbac409}・学術\cite{Taylor2022-ep}・法律\cite{chalkidis-etal-2020-legal,10.1145/3462757.3466088}・非英語\cite{Zeng2021-il,kim-etal-2021-changes,Su2022-nd,ishihara-etal-2022-semantic}を題材にした研究が存在する.これらは一般的なモデルと比較して,ドメイン固有のタスクで高い性能を報告している.FinBERT\cite{araci2019finbert}は少ない学習コーパスでも,2つの金融センチメント分析タスクで優れた性能を発揮した.500億のパラメータサイズを持つBloombergGPT\cite{Wu2023-mb}は,一般的なタスクで性能を低下させることなく,金融固有のタスクで良好な結果を得た.\cite{SUZUKI2023103194}は様々な設定で金融ニュースのドメインに特化したモデルを構築し,性能改善を観測した. \section{学習した日本語word2vecモデルの性能} \label{app:word2vec}本研究の学習設定の妥当性を調べるため,作成した日本語のword2vecモデルと,一般公開されているモデルの性能を比較したところ,その他のモデルと比較し遜色ない性能を示すと分かった(表13).比較対象のモデルの一覧を以下に示す.\begin{itemize}\item日経:2010年3月23日~2019年10月31日のデータで学習\itemWikiEntVec\cite{Suzuki2018-bl}:日本語Wikipediaで学習\item白ヤギ\footnote{\url{https://github.com/shiroyagicorp/japanese-word2vec-model-builder}}:日本語Wikipediaで学習\itemchiVe\cite{manabe2019chive}:国立国語研究所の日本語ウェブコーパス(NWJC)で学習\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[b]\vspace{-1\Cvs}\input{06table13.tex}%%%%%\tabcolsep3pt\label{tab:word2vec}\caption{word2vecモデルの性能比較.太字は各タスクでの最良の値を示す.}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各モデルの評価には日本語単語類似度データセット「JapaneseWordSimilarityDataset(JWSD)」\cite{Sakaizawa2018-zt}と,日本語類似度・関連度データセット「JWSAN」\cite{Inohara2021-we},および日経電子版の新聞記事データを使った.JWSDは単語の類似度を0~10の値で付与したデータセットで,品詞は形容詞(JWSD-adv)・動詞(JWSD-verb)・名詞(JWSD-noun)・副詞(JWSD-adj)の4種類ある.JWSANは名詞・動詞・形容詞の類似度・関連度のデータセットで,類似度と関連度がそれぞれ1~7の値で付与されている.すべての単語ペア2,145組のデータセット(JWSAN-2145)と,分散表現に適したデータに厳選した1,400組のデータセット(JWSAN-1400)が存在する.評価指標にはスピアマンの順位相関係数\footnote{\url{https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.spearmanr.html}}を用いた.日経電子版の新聞記事データを使った性能比較(NIKKEI)では,記事に含まれるキーワードから記事のジャンルを予測する多クラス分類問題を設定した.キーワードは,記事本文から固有表現抽出した名詞を中心に,記者や編集者が人手で付与している.キーワードそれぞれの単語分散表現の平均\cite{Shen2018-jv}を入力とし,分類器には勾配ブースティング決定木のLightGBM\cite{Ke2017-hv}を用いた.ジャンルは,企業・くらし・国際・スポーツ・マーケット・経済・社会・政治の8種類で,評価指標は正答率を用いた.検証用データセットは,学習コーパスと重複がない2020年1月1日~2021年11月30日のデータを使った.NIKKEIタスクでは,本研究で作成したword2vecモデルが最も高い正答率で,日経電子版の新聞記事データを用いた分析で使うモデルとしての有用性が示唆された.%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石原祥太郎}{%日本経済新聞社日経イノベーション・ラボ上席研究員.2017年東京大学工学部システム創成学科卒業.2017年より日本経済新聞社に入社し,現在は自然言語処理や機械学習の研究開発に従事.}\bioauthor{高橋寛武}{%2021年名古屋大学情報学部自然情報学科卒業.2021年より株式会社リクルートに入社,業務の傍ら独立研究者として自然言語処理に関する研究開発を行っている.}\bioauthor{白井穂乃}{%2017年明治大学理工学部情報科学科卒業.2019年東北大学大学院情報科学研究科博士前期課程修了.修士(情報科学).2020年より日本経済新聞社に入社.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V03N03-03
\section{はじめに} \vspace*{-1mm}機械翻訳システムは,巨大なルールベースシステムであり,NTTにおいて開発を進めている機械翻訳システムALT-J/E~\cite{Ikehara89,Ikehara90}でも,1万ルール以上のパタン対ルール(翻訳ルール)を利用している.他のルールベースシステムと同様,機械翻訳システムにおいても,ルールベースの作成・改良工数は大きな問題であり,特にそのルール数が巨大なだけに,その工数削減が強く望まれている.ルールベースの構築・保守を支援する手法として,近年,事例からの学習を利用する研究が活発となっている.機械翻訳システムにおいても,ルールベース構築への学習技術適用が試みられており,田中は,英日翻訳事例(コーパス)から語彙選択ルールを学習する手法を提案している\cite{Tanaka94}.また,Almuallimも,日英翻訳事例から,英語動詞選択ルール\footnote{パタン対ルールの主要部分である.}を学習している\cite{Almuallim94c}.更に,宇津呂は,日英翻訳事例から格フレームを獲得している\cite{Utsuro93}.これら既存のアプローチでは,ルールが全く存在しない状態からスタートして,事例のみに基づいてルールを作り出している.従って,未知事例に対して高い正解率を持つルールを学習するには,多くの翻訳事例(これを以下,{\bf実事例}と呼ぶ.)を必要とする.しかし,現実には,既存文書における動詞分布の偏り等の理由により,学習に必要な個数の実事例を,全動詞に対して収集する事は,極めて困難である.事例からの学習がルールベース構築に利用されるようになったのは,矛盾の無い完全なルールを生成する事が,人間には困難だからである.しかし,人間は,完全なルールを構成できなくとも,概略的あるいは部分的なルールは生成できる.そこで,人手作成の粗いルールと実事例とを融合してルールを学習できれば,人手作成ルール及び実事例のいずれよりも高い正解率を持つルールが作成でき,実事例のスパース性の問題を回避できる可能性がある.そこで,本論文では,人手作成のルールと実事例を統合して,より精度の高いルールを生成する,修正型の学習方法を提案する.具体的には,まず,人手作成のルールから逆に事例を生成(以下,この生成された事例を{\bf仮事例}と呼ぶ.)する.次に,仮事例と実事例を既存の学習アルゴリズム(これを,以下,{\bf内部学習アルゴリズム}と呼ぶ.)に入力する.内部学習アルゴリズムの出力が,最終的に獲得されたルールである.内部学習アルゴリズムは,属性ベクトル型の事例表現を持つ学習アルゴリズムなら任意の学習アルゴリズムを選択できる.尚,人手作成ルールの表現形式は,その表現能力の高さからHausslerによるIDE形式\cite{Haussler88}とした.提案手法では,仮事例と実事例の重要度を表現するために,重みを各事例に対して与える必要がある.即ち,人手作成のルールが非常に正確であれば,ルールから生成された仮事例に大きな重みを置くべきである.逆に,人手作成のルールが不正確であれば,小さい重みを置くべきである.提案手法では,この最適な重みの決定に,クロスバリデーションによるパラメータチューニングを利用する.本手法の有効性を評価するため,既存のドキュメントから抽出した実事例を用いて,ALT-J/Eの英語動詞選択ルールの獲得実験を行なった.内部学習アルゴリズムとしては,意味カテゴリーシソーラスのエンコーディング手法に特徴を持つAlmuallimによる学習手法\cite{Almuallim94c}を利用した.その結果,本手法により獲得された英語動詞選択ルールは,実事例のみから獲得されたルールや初期投入した人手作成のルールに比べて,高い正解率を示した.以下,第2章では,英語動詞選択ルールを説明する.第3章では,従来のアルゴリズムとその問題を概観する.新しい学習手法を第4章で提案する.第5章では,評価結果を示す.第6章では,他の修正型学習手法との差異について論ずる.第7章は本論文のまとめである. \section{英語動詞選択ルールとその獲得} 本章では,英語動詞選択ルールを説明し,その獲得における問題点について述べる.\subsection{英語動詞選択ルール}NTTの開発しているALT-J/Eでは,日英翻訳のために,1万個を超えるパタン対ルールを利用している.パタン対ルールは,日本文のパターン(単文)に英文のパターンを対応させるマッピングルールである.即ち,左辺に日本文のパターンを,右辺に英文のパターンをもつ.以下に,日本語動詞「焼く」に対するパタン対ルールの例を示す.{\scriptsize\begin{center}\begin{tabular}[t]{llllll}IF&&&THEN&&\\&J-Verb&=``焼く''&&Subj&=$N_1$\\&$N_1$(Subj)&\myinm``人''&&E-Verb&=``bake''\\&$N_2$(Obj)&\myinm``パン''or``菓子''&&Obj&=$N_2$\\\end{tabular}\\\end{center}}\noindent{だだし,これより以下,``\myinm''は,``aninstanceof''を意味するものとする.}本論文における英語動詞選択ルールとは,図~\ref{YakuSelectionRule}のようなルールで,左辺に日本文パターン,右辺に英語動詞を持ち,日本文パターンを英語動詞に対応させる.即ち,英語動詞選択ルールは,パタン対ルールにおいて,英語側パタンを英語動詞のみに限定したものである\footnote{英語パタン自体を学習できる事が望ましいが,本論文では,その第1ステップとして,その主要部である動詞のみを対象とする.}.\begin{figure}[ht]{\scriptsize\begin{center}\begin{tabular}[t]{llllll}IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``人''&&E-Verb&=``bake''\\&$N_2$(目的格)&\myinm``パン''or``菓子''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``人''&&E-Verb&=``roast''\\&$N_2$(目的格)&\myinm``肉''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``人''&&E-Verb&=``broil''\\&$N_2$(目的格)&\myinm``魚''or``魚介類''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``主体''&&E-Verb&=``cremate''\\&$N_2$(目的格)&\myinm``人''or``動物''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``主体''or``機械''&&E-Verb&=``burn''\\&$N_2$(目的格)&\myinm``場所''or``具対物''or&&&\\&&~~~``場''&&&\\\end{tabular}\\\vspace{1em}\vspace{-1mm}\caption{日本語動詞``焼く''に対する英語動詞選択ルール}\label{YakuSelectionRule}\end{center}}\begin{center}\epsfile{file=zu3.eps}\vspace*{-1mm}\caption{ALT-J/Eにおける意味カテゴリーシソーラスの一部}\label{SemanticHierarchy}\end{center}\vspace*{-2mm}\end{figure}図~\ref{YakuSelectionRule}から分かるように,左側の日本文パターンは,一つの日本語動詞と$N_1,N_2$等のパラメータから成る.$N_1,N_2$等は,主格,目的格等の日本文を構成する格である.ALT-J/Eでは,13種類の格を持つ.また,``魚'',``魚介類''等は,意味カテゴリーである.ALT-J/Eの場合,約3千個の意味カテゴリーを持ち,各意味カテゴリーは,12段を持つ意味カテゴリーシソーラス上のノードである.上位ノードと下位ノードは,is-a関係で結ばれている.図\ref{SemanticHierarchy}に,意味カテゴリーシソーラスの一部を示す.ALT-J/Eは,約40万語の名詞意味辞書を持ち,この名詞意味辞書は,日本語名詞を意味カテゴリーに対応させる機能を持つ.例えば,名詞``鶏''は,肉と鳥のインスタンスを持つ.この例からも分かる様に,1個の名詞は,通常,複数の意味カテゴリーを持っている.図~\ref{YakuSelectionRule}において,例えば,英語動詞がbakeとなるのは,(1)~入力された日本文の主格の名詞が,``人''またはその下位の意味カテゴリーを持ち,かつ,(2)~目的格の名詞が,``パン'',``菓子'',またはそれらの下位の意味カテゴリーを持ち,かつ日本語動詞が,``焼く''である時である.\subsection{英語動詞選択ルールを獲得する難しさ}英語動詞選択ルールを獲得する際に,最も困難な作業は,ルール中の各格に対する適切な意味カテゴリーの組合せの選択である.これは,ALT-J/Eにおける約3千の意味カテゴリーの組合せが巨大である点に起因する.従って,ルール中の各格に対して適切な意味カテゴリーの組合せを見い出す事が,学習アルゴリズムに課せられた課題となる. \section{従来手法とその問題点\label{TheFormerWork}} 本章では,従来手法のひとつとしてAlmuallimの手法\cite{Almuallim94c}を例にとり,学習事例収集の困難さについて論ずる.尚,ここで示す問題は他の事例からの翻訳ルール学習手法にも共通していると思われる.Almuallimは,日英翻訳事例から英語動詞選択ルールを学習する2つのアルゴリズム\cite{Almuallim94c}を提案した.このAlmuallimのアプローチでは,学習用の事例(以下これを,``訓練事例''と呼ぶ.)が,以下のようにして作成される.\begin{description}\item[(1)]次のような日本語の単文と適切な英語動詞の対を準備,\\(``コックがアップルパイを焼く''``bake'')\item[(2)]日本語の単文を構文解析,\item[(3)]単文中の主名詞を抽出,\item[(4)]ステップ(3)で抽出した名詞を元に以下のように訓練事例を生成.\\$\langle$N1\myinm``道具'',``人'',or``職業'',N2\myinm``菓子'',``bake''$\rangle$\\\end{description}Almuallimのアプローチで,未知事例に対して高い正解率を示す英語動詞選択ルールを獲得するには,訓練事例を多数必要とする.英語動詞選択ルールを獲得するために,十分な訓練事例が現実に準備できるか否かを検証するため,5万事例規模の対訳コーパスを既存のドキュメントから抽出した\cite{bunka90,Keene91}.この5万文の対訳コーパスには,約5千種類の日本語動詞が含まれていた.Almuallimらの実験によれば,英語動詞選択ルール1個あたり,最低でも20から30の翻訳事例が必要である.仮に日本語動詞に対応する英語動詞が,日本語動詞1個あたり平均4英語動詞だとすると,1日本語動詞につき100事例を,準備する必要がある.5万文の中で,100文以上の日本文で使われている動詞(つまり,訓練事例が100個以上収集できる動詞)は,全体の僅か約1\%にすぎなかった.しかも,現実には,翻訳事例の中には繰り返し出てくるものもあるため,実効的な個数は更に減少する.逆に,上記の5万事例中では,事例数を2まで許容すれば95\%の動詞を包含できた.従って,95\%の動詞を学習するには,5万事例の50倍,250万の単文の対訳が必要になる.この規模の翻訳事例は,収集が極めて困難である.即ち,既存のドキュメントだけから抽出した翻訳事例から学習アルゴリズムにより英語動詞選択ルールを獲得できると結論付けるのは楽観的すぎる.ところで,人間が動詞選択ルールを作成する過程を考えると,(1)頭の中に仮想的な事例を思い浮かべながらざっとしたルールを作成し,(2)この粗いルールを現実の事例と照合させながら修正し,最終的なルールを作成してゆくと考えられる.もし,実事例に加え,頭に思い浮かべた仮想事例をも学習に利用できれば,学習アルゴリズムに入力される訓練事例を増加させることができる.しかし,仮想事例そのものにアクセスすることは一般に出来ない.一方,仮想事例を説明している人手作成の英語動詞選択ルールには,アクセスできる.従って,上記の事例のスパース性を回避する現実的な方法として,最初に人間にルールを作成させ,この人手作成の英語動詞選択ルールと現実の翻訳事例を融合して最終的なルールを形成する方法が考えられる.即ち,少ない実事例と,正解率が十分でない人手作成動詞選択ルールを入力として,十分な正解率を示す英語動詞選択ルールを学習する学習アルゴリズムが望まれる.次章では,上記のアプローチを実現する学習方法を提案する. \section{修正型学習手法} 本章では,英語動詞選択ルールを人手作成ルールと現実の翻訳事例から獲得する修正型学習手法を提案する.まず最初に,学習タスクを明確にする.\subsection{学習タスク\label{LearningTask}}与えられた日本語動詞\myjv{}と可能なその英語訳$\ev_i$に対して,アルゴリズムに与えられた課題は,\myjv{}に$\ev_i$を対応させるために,文脈上,取るべき適切な条件を探す事である.ある日本語動詞(例えば日本語動詞``焼く'')に対する,英語動詞選択ルールを学習するためには,その学習タスクは以下のように記述される.\\【学習タスク】\begin{description}\item[Step-I]図\ref{YakuSelectionRule}に示すような英語動詞選択ルールを人手作成.\item[Step-II]実事例を収集\footnote{収集される実事例は,それらだけから英語動詞選択ルールを獲得するには,少ないものとする.}.\item[Step-III]上記実事例と上記人手作成ルールから最終的なルールを生成.\end{description}\subsection{修正型学習手法の概要\label{Outline}}修正型学習手法は,人手作成の英語動詞選択ルールと実事例から情報を得る.もし,人手作成のルールが,非常に正確であるなら,修正型学習手法は人手作成のルールに重きを置く必要がある.一方,人手作成のルールが余り正確でなければ,それらのルールに対して,小さな重みだけが付加される必要がある.人手作成のルールへの重さの程度と実事例への重さの程度を表現するために,修正型学習手法は,数値を利用する.この数値を以後,``{\bf重み値}''と呼ぶ.修正型学習手法では,この重み値を定めるための情報を,人手作成ルールと実事例以外には持たない.重み値の候補数をNとすれば,修正型学習手法の骨子は以下の通りである.\\【修正型学習手法】\begin{description}\item[Step-i]人手作成の英語動詞選択ルールから仮事例を生成.ここで,生成方法の詳細は,\ref{GenerationMethod}節で述べる.\item[Step-ii]事例集合の族$\{Data_j;j=1\cdotsN\}$を作成.ここで,$Data_j$は,Step-iで生成された仮事例と予め準備した実事例全体からなる集合で,第j番目の重み値候補に従って,仮事例と実事例に重み値が付加されている.尚,重み値候補の集合は,実事例の重み値と仮事例の重み値の対をその要素としている.\item[Step-iii]各$Data_j$に対して,$Data_j$から学習されたルールの未知事例に対する平均正解率$A_j$をクロスバリデーション法により算出.ここで,クロスバリデーション法\footnote{クロスバリデーション法を実行する際には,テスト事例の重み値は,1.0とすべきである.}の詳細は,\ref{CrossValidation}節で述べる.\item[Step-iv]最後に,$A_i~~(i=1\cdotsN)$の中で,最高値をもつルールを出力.\end{description}\bigskip修正型学習手法Step-iで生成される仮事例は,3章で述べた仮想事例に当るものである.仮想事例は人手作成のルールで説明されているので,仮事例の中には仮想事例が含まれている.仮事例の,実事例への混合は,仮想事例をも学習に利用するという狙いの実現である.ただし,仮事例の中には言語的に間違った事例が存在する可能性がある.これを防止するためには,ルール作成者が既存ルールを作成する際に,思い浮かべた具体例を汎化し過ぎないように注意する必要がある.そうすれば,言語的に間違った事例,即ちノイズ事例を最小限に押えられる.ノイズが少なければ,内部学習アルゴリズムとして,C4.5の様にノイズに強い学習アルゴリズムを選択すれば,提案手法で生成される英語動詞選択ルールは,ノイズの影響を殆んど受けない.\subsection{仮事例生成法\label{GenerationMethod}}本節では,\ref{Outline}節のStep-iにおける,仮事例の生成法について説明する.仮事例生成法は以下の通りである.\bigskip\begin{description}\item[Step-A]人手作成の英語動詞選択ルールを単位ルールに分解.ここで,単位ルールとは,以下に示すようなルール\footnote{ルール条件部の否定は,次の形式で表現される.:\\$N_1$$\equiv$not$V_1$.}である.\begin{flushleft}IF($N_1\equivV_1$)\&($N_2\equivV_2$)\&$\cdots$\\THENClass=CV,\\\end{flushleft}ただし,$N_1,N_2$等は格要素,$V_1,V_2$等は意味カテゴリー,CVはある英語動詞である.\item[Step-B]上記単位ルールから,以下に示す形式の仮事例を生成.\begin{flushleft}$\langleN_1\equivv_1,N_2\equivv_2,\cdots,CV\rangle$,\\\end{flushleft}ここで,$N_1,N_2$等は格要素,$v_i$は単位ルール中の意味カテゴリー$V_i$の下位ノード(意味カテゴリーシソーラス上の)からランダムに選択する.\item[Step-C]望まれる個数の仮事例が生成されるまで,Step-Bを反復.\end{description}\bigskip仮事例生成法Step-Bにおけるランダムな事例生成は一様分布に基づいており,日本語の分布とは異なるが,今の所一様分布に従うのが最善の策と考える.本来は,実際に使われる日本語の分布の真の分布に従ってランダム生成するのがいいように思われるが,真の分布は知られておらず,大量の解析済みの日本語コーパスが現在ない以上,真の分布のよい近似を得るのも難しい.この現実を鑑みると,現在我々が拠り所とすべき分布は,統計学的に見て一様分布をおいて他にない.もちろん,将来的に,真の分布を推定するのに,十分な量の解析済み日本語コーパスが準備出来れば,それらを利用して推定した分布に基づきランダムな事例生成を行なうべきであろう.\subsection{クロスバリデーション法\label{CrossValidation}}仮事例/実事例の重み値を決定するためには,与えられた重み値で学習を行なった時の,結果として得られるルールの未知事例に対する性能を推定する必要がある.本論文では,このためにクロスバリデーション法を用いる.以下,\ref{Outline}節のStep-iiiクロスバリデーション法について説明する.クロスバリデーションは,機械学習の分野では良く知られている.クロスバリデーションは,通常はルールの正解率を推定するためにだけに使われる.しかし,本論文では,これを学習段階の重み値調整に利用する.与えられた正整数$m$とデータ集合$D$に対して,クロスバリデーションは以下のようになる\footnote{正確には,mフォールドクロスバリデーションである.}.\begin{description}\item[Step-a]与えられた集合$D$を$m$個の部分集合$S_k~~(k=1\cdotsm)$に分割.但し,各$S_k$は,共通な事例を持たない.\item[Step-b]各差集合$D\setminusS_k~~(k=1\cdotsm)$毎に内部学習アルゴリズムを利用して,ルール$rule_k$を学習.\item[Step-c]各ルール$rule_k~~(k=1\cdotsm)$毎に,残りの集合$S_k$をテスト事例として利用し,正解率$accuracy_k$を計算.\item[Step-d]正解率$accuracy_k~~(k=1\cdotsm)$の平均値を計算.\end{description}\bigskip尚,通常は,ルールの正解率を計算するために,mの値を10または「学習事例の個数」とする. \section{実験結果} 提案手法を実験的に評価した.適用する内部学習アルゴリズムは,学習アルゴリズムID3(C4.5)\cite{Quinlan86,Quinlan92}に基づくAlmuallimの学習手法\cite{Almuallim94c}である.\subsection{実験}以下に示す実験を行なった.\begin{description}\item[\underline{評価データ}]評価に利用した人手作成のルールは,ALT-J/Eの中の英語動詞選択ルールから選択した.実事例は,既存のドキュメント\cite{Horiguchi89}を参考にして作ったものであり,必須格のみで表現されている.対象とした日本語動詞は,``入る'',``見える'',``見る'',及び``取る''である.実事例の個数は,それぞれ,95,33,385そして130事例である.また,仮事例の個数は,それぞれ,92,33,384そして128事例で,実事例とほぼ同数\footnote{各単位ルールからは,同数の仮事例を生成した.各単位ルールから生成した仮事例の数は,生成される仮事例の総数が実事例の個数を越えない最大の整数にした.そのため,実事例の個数と仮事例の個数に,若干差がある.}になるように生成した.ほぼ同数になるようにしたのは,実事例と仮事例に与える重み値が同じ時に,実事例と仮事例が学習アルゴリズムに与える影響を互角にするためである.意味カテゴリーシソーラスは,ALT-J/Eの意味カテゴリーシソーラスを利用し,クロスバリデーションは,10フォールド・クロスバリデーションである.\item[\underline{仮事例中の格要素の値}]普通,ルールは,意味カテゴリーシソーラス上の上層部に位置する意味カテゴリーで記述されている.それに対して,実事例は,意味カテゴリーシソーラス上の下層部に位置する意味カテゴリーで記述されている.従って,ルールから仮事例を生成する際に(\ref{GenerationMethod}節を参照),仮事例を表現する意味カテゴリーとして,次のいずれかを選択し得る.\begin{itemize}\item[(1)]ルール中の意味カテゴリーを先祖に持つ葉(以下の評価結果では,``leaf''と図示する.),\item[(2)]ルール中の意味カテゴリーの任意の下位ノード(以下の評価結果では,``descendant''と図示する.).\end{itemize}これら2つのカテゴリー選択法を用いて評価する.\item[\underline{学習されるルール中の格要素の値}]良く知られているように,ID3は属性選択に``informationgain''を利用している.本論文の場合,属性は格要素である.この場合,``informationgain''値が等しい格要素が複数ある事がしばしば生じる.従って,我々は,``informationgain''値が等しい場合について,次の2種類の学習戦略を比較評価する事とする.\begin{itemize}\item[(1)]意味カテゴリーシソーラス上で上位ノードを優先して選択(以下の評価結果では,``upper''と図示する.),\item[(2)]意味カテゴリーシソーラス上で下位ノードを優先して選択(以下の評価結果では,``lower''と図示する.).\end{itemize}\item[\underline{正解率}]本論文では,正解率として,訓練事例に対する正解率ではなく,未知の事例に対する正解率を利用している.この要件は,4.4節のクロスバリデーションで実現される.但し,4.4節から分かるように,テスト事例は仮事例からも実事例からも採られている.従って,生成されるルールは,いままで正しく翻訳されていた例文に対する性能を極力下げることなく,一方,新しい翻訳文(実事例)に対する翻訳も正しく行なわれる様にチューンされる.\end{description}\subsection{評価結果}\begin{table}\caption{正解率が最大となる重み組み合わせ}\label{最大重み}\begin{center}\begin{tabular}[b]{|c|c|c|c|c|}\hline&\begin{minipage}[c]{3em}\begin{center}\vspace{0.5em}upper\\\vspace{-0.2em}+leaf\vspace{0.5em}\end{center}\end{minipage}&\begin{minipage}[c]{3em}\begin{center}\vspace{0.5em}lower\\\vspace{-0.2em}+leaf\vspace{0.5em}\end{center}\end{minipage}&\begin{minipage}[c]{6em}\begin{center}\vspace{0.5em}upper\\\vspace{-0.2em}+descendant\vspace{0.5em}\end{center}\end{minipage}&\begin{minipage}[c]{6em}\begin{center}\vspace{0.5em}lower\\\vspace{-0.2em}+descendant\vspace{0.5em}\end{center}\end{minipage}\\\hline入る&(5,5)&(4,6),(5,5)&(7,3)&(4,6)\\\hline見える&(4,6)&\begin{minipage}[c]{5em}\vspace{0.5em}(4,6),(5,5),\\(6,4),(7,3),\\(8,2)\vspace{0.5em}\end{minipage}&(9,1)&(5,5),(6,4)\\\hline見る&(5,5)&(7,3),(8,2)&(9,1)&(5,5)\\\hline取る&(9,1)&(7,3)&(1,9)&(2,8),(3,7)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\epsfile{file=zu6.eps}\caption{未知事例に関する正解率(``入る'')}\label{test1}\epsfile{file=zu7.eps}\caption{未知事例に関する正解率(``見える'')}\label{test2}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=zu8.eps}\caption{未知事例に関する正解率(``見る'')}\label{test3}\epsfile{file=zu9.eps}\caption{未知事例に関する正解率(``取る'')}\label{test4}\end{center}\end{figure}実験結果を図3--図6に示す.これらの図中で,realexamplesは,実事例だけから学習したルールの正解率を意味し,artificialexamplesは,仮事例だけから学習されたルールの正解率を意味する.また,mixedexamplesは,実事例と仮事例の双方から学習したルールの正解率である.mixedexamplesの場合,\ref{Outline}節Step-ii中の重み値の候補は,以下に示す候補集合から選んだ.実事例と仮事例それぞれに対する重み値は,その和を10としている.(実事例の重み値,仮事例の重み値)=(0.01,9.99),(0.1,9.9),(1,9),(2,8),(3,7),(4,8),(5,5),(6,4),(7,3),(8,2),(9,1),(9.9,0.1),(9.99,0.01).図3--図6中に示されたmixedexamplesの正解率は,これら重み値候補中で正解率の一番高かったものであり,その時の重み組み合わせは表\ref{最大重み}に示す通りである.これらの図の中で,例えば,{\emUpper+Descendant}は(1)学習されるルール中の格要素の値は,意味カテゴリーシソーラス上で上位の意味カテゴリーを優先して選択し,(2)仮事例生成において,ルール条件に指定された意味カテゴリーの下位にあるノードから,ランダムにノードが選ばれて仮事例生成に利用される,事を意味する.図3--図6に示すように,仮事例生成時の下位ノードの選択方法や,学習時の上位/下位のノード選択方法にかかわらず,提案手法により学習されたルールは,最も高い正解率を持つ.従って,実事例と人手作成のルールを同時に利用する我々のアプローチは,実事例不足を補っていると言えよう.本手法において,一番高い正解率を示す条件は,日本語3動詞``入る'',``見える'',及び``取る''の場合は,``lower+leaf''である.また,日本語動詞``見る''の場合は,``upper+leaf''である.ここに示した動詞のみではなく,一般に事例が多い場合には,``upper''が良く,事例が少ない場合には,``leaf''が良い傾向がある.このような違いを生じる理由は明確ではないが,(1)数多くの実事例を集められるなら,どこまでをカバーして良いかが明確にわかるので,できるだけ,汎化してルールを作成した方が良く,(2)事例が少ない場合には,不用意に,上位のノードとして汎化すると,カバーしてはならない部分までカバーする,ためではないかと推定される.また,動詞``見る''では,正解率が,他の日本語動詞に対する正解率より,大幅に良くなっている.この現象は,人手作成ルールの条件と,実事例が表す条件が良くマッチしていたためと思われる.また,本評価では,実事例の重み値と仮事例の重み値の合計を10とした.直観的に考えれば,実事例の重みを1として,仮事例の重みを変化させれば充分である.しかし,C4.5では,事例の重みが変化すると,プルーニング機能に影響し,未知事例に対する性能が変化する.一般には,事例の重みを増加させた方が,性能が向上する.本論文で,仮/実事例の重み合計を一定としたのは,このC4.5固有の性質を極力排除するためである.他の学習アルゴリズムでは,このような配慮が不要となる場合もあるものと思われる. \section{関連学習手法との比較} 本論文の修正型学習手法の様に,既存のルールと実事例から新たにルールを生成する学習手法としてはTheoryRevisionがあり,既に多くの研究がある\cite{Tangkitvanich93,Raedt92}.しかし,TheoryRevisionでは,新たな事例を許容する様に既存のルールを修正する事に主眼がおかれ,本論文の様に,既存のルールを満たしていた事例の一部が例外として除去されるようなケースは想定していない\cite{Murphy94}.このため,TheoryRevisionは本論文の応用には適用困難である.また,一階述語論理形式の事例表現を用いるTheoryRevision以外にも,本論文で扱った属性型の事例表現を用いるものとして,AQ\cite{AI-jiten2}\footnote{学習アルゴリズムAQは,事例とルールの間で表現形式が同一であり,一種の修正型学習アルゴリズムである.},ID3\cite{Quinlan86}において知識と事例の融合を可能にした手法\cite{Tsujino94}等がある.しかし,TheoryRevisionを含めて,これら従来の手法では,いずれも,既存の学習アルゴリズムを,個別に修正型へ改造している.これに対して,現実の応用においては,対象タスクによって最適な学習アルゴリズムは変化する.即ち,最初に様々の修正型学習アルゴリズムを適用して,その結果,最も正答率のよい学習アルゴリズムを最終的に採用できる事が望ましい.本論文で提案した修正型学習アルゴリズムは,内部学習アルゴリムを自由に選択できる点に大きな特長があり,上記要求を満たすロバストな学習アルゴリズムである.本論文で,複雑な背景知識(意味カテゴリーシソーラス)を前提とした修正型学習が実現できたのもこのロバスト性のひとつの成果である.尚,評価結果にも示した様に,どの様な人手作成ルールを与えても最終的な学習結果が向上するわけではなく,事例のもつ情報と合致/相補する人手作成ルールを与えない限り,最終的な結果の性能向上は望めない.従って,事例の統計的性質に合致したルールをどのようにして人間に生成させるかが,今後の一つの課題となると思われる. \section{むすび} 本論文では,人手作成の英語動詞選択ルールと少ない実事例から高い正解率を示す英語動詞選択ルールを自動獲得する手法を提案した.まず,仮事例を人手作成の英語動詞選択ルールから生成する.次に,上記仮事例と実事例を内部学習アルゴリズムに対する訓練事例として利用する.最後に,内部学習アルゴリズムは,人手作成ルールより高い正解率を示す英語動詞選択ルールを出力する.ここでの課題は,仮事例と実事例の双方に与える重み値の決定である.本論文では,最適重み値をクロスバリデーションにより決定した.提案手法の性能を評価するために,人手作成の英語動詞選択ルールとドキュメントから抽出した現実の事例に適用した.なお,内部学習アルゴリズムには,Almuallimの学習アルゴリズムを利用した.和語動詞4種類に本提案の手法を適用した結果,クロスバリデーションによる重み値決定は正常に動作し,実事例のみから生成されたルールや人手作成ルールと比べて,平均10\%以上の高い正解率をもつルールを獲得できた.尚,本提案の手法の最大の特長は,内部学習アルゴリズムを選ばないロバスト性にある.従って,Almuallimの学習アルゴリズムのみではなく,統計解析的手法を含めた幅広い学習アルゴリズムに本手法を適用できる.\acknowledgment本研究を進めるにあたり,種々の協力・議論を頂いた,NTTコミュニケーション科学研究所・池原悟主幹研究員(現在,鳥取大学工学部教授)を初めとする,池原研究グループ各位に深謝いたします.また,事例データを提供頂いた,NTTコミュニケーション科学研究所・山崎毅文主任研究員に深謝いたします.\bibliographystyle{jnlpbbl}\bibliography{final}\begin{biography}\biotitle{略歴}\bioauthor{秋葉泰弘}{昭和63年早稲田大学教育学部理学科数学専修卒業.平成2年同大大学院理工学研究科数学専攻修士課程修了.同年,日本電信電話株式会社入社.以来,機械学習,知識獲得等の研究に従事.平成7年人工知能学会全国大会優秀論文賞受賞.現在,NTTコミュニケーション科学研究所,研究主任.情報処理学会会員.}\bioauthor{石井恵}{平成1年慶応義塾大学理工学部数理科学科卒業.同年,日本電信電話株式会社入社.以来,エキスパートシステム,機械学習の研究に従事.平成4,7年人工知能学会全国大会優秀論文賞受賞.平成5年情報処理学会・秋期・全国大会奨励賞受賞.現在,NTTコミュニケーション科学研究所,研究主任.情報処理学会,人工知能学会各会員.}\bioauthor{HusseinALMUALLIM}{昭和59年東京工業大学工学部電子物理工学科卒業.昭和61年同大学大学院工学研究科情報工学専攻修士課程修了.平成4年OregonStateUniversity計算機学科博士課程修了.同年,NTT情報通信網研究所にて,ポスドク研究員.現在,サウジアラビア国立石油鉱物大学計算機学科助教授.平成6年NTTコミュニケーション科学研究所招聘教授.Ph.D.inComputerScience.機械学習,文字認識などの研究に従事.平成3年AAAIHonorableMentionAward受賞.平成7年人工知能学会全国大会優秀論文賞受賞.AAAI,人工知能学会各会員.}\bioauthor{金田重郎}{昭和49年京都大学工学部電気第二学科卒業.昭和51年同大学大学院電子工学専攻修士課程修了.同年,日本電信電話公社・武蔵野電気通信研究所入所.以来,誤り訂正符号,フォールトトレラント技術,知識獲得,エキスパートシステム,等の研究に従事.現在,NTTコミュニケーション科学研究所,主幹研究員.工学博士.技術士(情報処理部門).平成4,7年人工知能学会全国大会優秀論文賞受賞.IEEE,電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioreceived{受付}\biorevised{再受付}\再受付{96}{1}{25}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N02-12
\section{はじめに} \label{sec:intro}文法誤り訂正は,文書中の様々な種類の誤りを自動的に訂正する自然言語処理の研究課題であり,言語学習者の作文支援への応用が期待されている.機械翻訳のモデルを用いて,誤りを含む文から正しい文への翻訳を行う手法が効果的であり,特に,近年ではニューラル機械翻訳で用いられる手法を応用する研究が活発になされている.機械翻訳の手法を用いるためには,\citeA{mizumoto-etal-2011-mining}のLang-8コーパスなどの大規模な学習データが必要となる.しかし,\citeA{junczys-dowmunt-etal-2018-approaching}で指摘されているように,高品質なニューラル機械翻訳モデルを学習するためには,依然,学習データの量は不十分である.この問題に対処するため,データ拡張によって大規模な学習データを人工的に生成し,そのデータを用いて事前学習を行ったモデルに対し,文法誤り訂正のデータセットで再学習(ファインチューニング)を行う手法に注目が集まっている\cite{lichtarge-etal-2019-corpora,zhao-etal-2019-improving,grundkiewicz-etal-2019-neural,kiyono-etal-2019-empirical}.文法誤り訂正のデータ拡張では,単言語コーパスの誤りのない文に誤りを生成し,人工データを作成する.最も平易なデータ拡張手法は,ランダムな置き換え・挿入・削除の編集操作によって,誤りを生成するものである\cite{zhao-etal-2019-improving}.このランダムな編集操作は,効果的な事前学習が行えるものの,実際の文書中に出現する誤りを再現するものとはなっていない.そのため,これを改善するための様々な手法が考案されている.例えば,編集操作を行う際に,前置詞や冠詞などの特定の文法カテゴリや,綴り・約物などの表記に対して,誤りを生成するルールを活用することで,人工データの質を改善する手法が提案されている\cite{choe-etal-2019-neural,takahashi-etal-2020-grammatical,flachs-etal-2019-noisy,grundkiewicz-etal-2019-neural}.また,機械翻訳モデルを活用して折り返し翻訳を行う手法や\cite{lichtarge-etal-2019-corpora},逆翻訳を応用した誤り生成\cite{kiyono-etal-2019-empirical,wan-etal-2020-improving}などが提案されている.さらに,データ拡張を行う際に,何が性能向上に寄与するかという点に関して,活発に研究が行われている.本研究では,その中の,特に以下に示す3つの要素に着目し,その妥当性を検証する.本論文では,これらをデータ拡張に重要とされる3つの仮定と呼ぶ.\begin{itemize}\setlength{\itemindent}{3em}\item[仮定(1)]生成される誤りの種類の多様さが,訂正性能に寄与する.\item[仮定(2)]特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する.\item[仮定(3)]データ拡張に用いるデータの規模が,訂正性能に寄与する.\end{itemize}以下に,文法誤り訂正のデータ拡張の研究において,これらの仮定の妥当性を検証する背景と,その意義・貢献について説明する.仮定(1)「生成される誤りの種類の多様さが,訂正性能に寄与する」について説明する.生成される誤りの多様さが重要であるということがデータ拡張を行う際に重要であることは,以前から着目されており,誤り生成モデルに対して,ノイズを加える手法や,複数の候補を用いることで性能の向上が確認されている\cite{ge-etal-2018-fluency,xie-etal-2018-noising}.さらに,誤り種類を分類した誤りタグを用いて,誤り種類ごとに誤り生成を行うことで,高い性能向上が確認されている\cite{wan-etal-2020-improving,stahlberg-kumar-2021-synthetic}.一方で,これらの手法では,誤り種類の多様さを変化させた検証を行っていない.そのため,人工データ中の誤り種類が多様であることが,訂正性能に及ぼす影響を評価できていない.仮定(1)を検証することで,既存の研究で仮定されている,誤り種類に着目し,人工データの誤りの多様さの重要性を再検証し,データ拡張手法を考案する上で考慮すべき性質が何かを明らかにする.仮定(2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」について説明する.誤り種類ごとに性能を評価している既存研究は存在しているが\cite{takahashi-etal-2020-grammatical},生成される誤り種類を変えた評価は行われていない.仮定(2)を検証することで,特定の誤り種類が確実に生成されていることの重要性を再検証する.さらに,様々な種類の誤りに対してデータ拡張を行った場合に,誤り種類ごとに適切に誤りが生成されていることが,重要であることを明らかにする.仮定(3)「データ拡張に用いるデータの規模が,訂正性能に寄与する」について説明する.データ拡張は,数千万文程度の,大規模なコーパスに対して行われる.データの規模を大きくすると,訂正性能が向上することは既存の報告で確認されている\cite{kiyono-etal-2019-empirical,wan-etal-2020-improving}.しかし,単にデータ拡張に用いるデータを大きくするだけでは,事前学習を行ったステップ数や,同じ単言語文から複数の異なる誤り文を生成した場合の影響の有無など,データの規模以外の要因の影響が評価できない.仮定(3)を検証することで,既存の研究で仮定されている,大規模データを用いたデータ拡張の有効性を再検証し,大規模データを用いる際に,実験設定を決定するための根拠を提供できる.本研究では,これらの仮定の妥当性を検証するため,様々な文法カテゴリにおける誤りを生成するルールを作成し,それらを組み合わせることで誤り生成を行う.ルールを活用することで,折り返し翻訳や逆翻訳などのモデルベースの誤り生成手法と比較して,生成される誤りの種類を確実に制御することができる.この手法を用いることで,仮定(1)と仮定(2)に対して,それぞれ次のように検証を行うことができる.\begin{itemize}\item誤り生成に用いるルールの種類を変えることで,データ中の誤り種類を制御することができる.そのため,誤り種類の多様さが訂正性能に与える影響を評価することができる.\item誤り生成に用いるルールの種類を変えることで,どの種類の誤りが事前学習・再学習を行った後の訂正性能に影響を与えるか評価することができる.\end{itemize}さらに,仮定(3)に対しては,事前学習におけるパラメータの更新回数を固定しながら,データ拡張に用いる単言語コーパスの規模を評価し,検証を行うことができる.加えて,以下の3つの実験を行い,提案手法単体の評価を行う.\begin{itemize}\item人手で作成されたデータを用いず,ルールを用いて生成されたデータのみを用いて学習を行い,その性能を評価し,学習者データを用いない教師なし設定の手法としての有効性を確認する.\item折り返し翻訳と逆翻訳によるデータ拡張と,既存のベンチマーク上で比較を行い,ルールによる誤り生成の利点と欠点について分析を行い,その利点と限界について明らかにする.\itemルールによる誤り生成を大規模に行い,学習に用いることで,既存のベンチマーク上で大規模学習データを用いた他の最先端手法と比較を行い,本手法の利点や限界について明らかにする.\end{itemize}本研究の主な貢献は以下の6つである.\begin{itemize}\item編集操作による単純な誤り生成規則を文法カテゴリごとに多数作成し,組み合わせる手法を考案した.\item人工データ中の誤り種類の多様さが性能向上に寄与することを,誤りカテゴリごとでの比較で検証した.\item特定の種類の誤りが生成されていることが,その種類の誤り訂正性能の向上に寄与することを示した.\itemデータ拡張によって性能向上を得るためには,単言語コーパスの規模ではなく,十分なパラメータ更新回数と誤り生成回数が必要であることを示した.\item提案手法が教師なし設定で,既存の手法と比較して高い性能を示すことを確認した.\item折り返し翻訳や逆翻訳でのデータ拡張と,提案手法との比較により,ルールによる誤り生成の性質について分析を行った.\end{itemize}本稿ではまず,\ref{sec:rw}節で文法誤り訂正のデータ拡張に関する関連研究を紹介する.\ref{sec:eg}節では,本研究で用いるデータ拡張手法について説明する.\ref{sec:settings}節では,実験に用いるデータやモデルについて説明する.\ref{sec:expt}節にて,3つの仮定について検証する実験を行い,議論する.\ref{sec:comp}節にて,提案手法と既存の手法との比較を行う.\ref{sec:owari}節にて,本稿のまとめを記す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:rw}ニューラル機械翻訳の手法を文法誤り訂正に応用するための学習データとして,学習者コーパスと呼ばれる,言語学習者の作文に対して注釈を付したデータが広く用いられている.しかし,学習者コーパスの規模は,高性能なニューラル機械翻訳モデルの学習には,依然,不十分であることが指摘されている\cite{junczys-dowmunt-etal-2018-approaching}.学習者コーパスを人手で増やすことは容易ではないため,データ拡張によってデータ不足の問題を補おうという研究が活発に行われている.\citeA{lichtarge-etal-2019-corpora}は,折り返し翻訳とWikipediaの編集履歴を活用して学習データを作成し,ニューラル機械翻訳モデルに対して大規模データで事前学習を行ったのちに,学習者コーパスで再学習を行うという手法が効果的であることを確かめた.データ拡張手法として,最も単純なものは,トークンレベルでの編集操作による誤り生成である.文法誤り検出・訂正の分野では,ニューラル手法が使われるようになる以前から,編集操作による誤り生成が取り組まれている.ニューラル以前の手法では,特定の品詞に限定した誤り生成が行われていることが多い.\citeA{izumi-etal-2003-automatic}は,最初に誤り生成が行われた研究であり,置き換え・削除の操作によって冠詞誤りを生成した.\citeA{brockett-etal-2006-correcting}は,不可算名詞の数に関する誤りを正規表現を用いて生成し,文法誤り訂正を機械翻訳の問題として捉え,初めて統計的機械翻訳の手法を応用した.\citeA{lee-seneff-2008-correcting}は,誤り検出への応用のため,動詞を5変化形の間で変化させることで誤りを生成した.\citeA{rozovskaya-roth-2010-generating,rozovskaya-roth-2010-training}は,学習者コーパスでの誤り傾向を反映し,前置詞誤り・冠詞誤りを生成した.\citeA{cahill-etal-2013-robust}は,Wikipediaの編集履歴から前置詞誤りを抽出し,その分布に従って誤り生成を行った.編集操作による誤り生成は,ニューラル手法が用いられるようになっても,活発に研究されている.\citeA{grundkiewicz-etal-2019-neural}は,スペルチェッカの出力から各単語の誤り候補集合を作成し,それに基づいて単語を置き換えて誤り生成を行った.この手法は,BEA-2019SharedTask\cite{bryant-etal-2019-bea}の3部門中2部門で1位の成績を収めた.\citeA{choe-etal-2019-neural}は,単にランダムな単語の置換を行うだけでなく,学習者コーパス中の誤りパターンや,前置詞の置き換えや名詞・動詞の語形変化などのルールを用いて誤り生成を行った.この手法は,同タスク同部門で2位の成績を収めた.\citeA{flachs-etal-2019-noisy}は,文中のコンマを削除することで,約物の誤りを生成し,ニューラル手法での有効性を検証した.\citeA{xu-etal-2019-erroneous}は,品詞解析の結果に基づき接辞に関する誤り(arrive$\to$arrivalなど)を生成した.逆翻訳は,誤りを生成するモデルを用いて,文法的に正しい文から誤り文を生成するデータ拡張手法である\cite{rei-etal-2017-artificial}.\citeA{xie-etal-2018-noising}は,単に逆翻訳を行うのではなく,逆翻訳のビーム探索においてノイズを加えることで多様な誤り文を生成する手法を提案した.さらに,\citeA{kiyono-etal-2019-empirical}は,\citeauthor{xie-etal-2018-noising}の手法を大規模データで試し,その有効性を示した.\citeA{wan-etal-2020-improving}は,誤り生成モデルを用いてデータ拡張を行う際に,隠れ状態にノイズを加える手法を提案した.\citeA{stahlberg-kumar-2021-synthetic}は,スパン単位の翻訳モデル\cite{stahlberg-kumar-2020-seq2edits}を用い,逆翻訳を行った.この手法では,誤り種類をモデルに与え,生成する誤り種類の制御を行うことで,多様な誤り文を得ている.折り返し翻訳は,機械翻訳によって,文法的に正しい文を異なる言語に翻訳し,再び元の言語へ再翻訳する手法である.\citeA{lichtarge-etal-2019-corpora}は,折り返し翻訳により得られたデータで事前学習を行い,折り返し翻訳の文法誤り訂正での有効性を確かめた.\citeA{lichtarge-etal-2020-data}は,perplexityに基づくカリキュラム学習を行い,折り返し翻訳により得られるデータの性質を調査した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{手法} \label{sec:eg}本節では,まず,\ref{subsec:cat}節で,本研究で用いる5つの誤りカテゴリについて説明する.誤りカテゴリは,誤り生成の効果を検証する実験で用いられる.次に,\ref{subsec:modules}節で誤り生成行うモジュールについて説明し,続いて,\ref{subsec:generation}節でそのモジュールを組み合わせて誤り生成を行う方法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤りカテゴリ}\label{subsec:cat}本研究では,英文中の誤りを機能語,語形変化,語彙選択,語順,表記の5カテゴリに分類する.これらの誤りカテゴリを用いることで,人工データ中の誤りの種類を変える効果を容易に比較することが可能になる.誤りは,トークン単位のものと構文単位のものに分類できる.語順誤りは,構文単位の誤りに属し,語や句の位置に関する誤りを指す.例えば,``I\textit{myflightmissed}($\to$missedmyflight).''の\textit{missed}の位置の誤りは語順誤りである.トークン単位の誤りは,語彙に関するものと表記に関するものに分類できる.表記誤りは,文字による言語の表記方法の規則に関する誤りである.具体的には,句読法,複合語,正書法,縮約,大小文字などに関する誤りである.なお,本研究では,綴り誤りも表記誤りの一部としている.例えば,``Iwent\textit{tu}($\to$to)Tokyo\textit{,}($\to$.)''の\textit{tu}や\textit{,}は表記誤りである.語彙に関する誤りは,機能語誤りと内容語誤りに分類できる.機能語誤りは,前置詞や代名詞などの文法的関係を示す語に関する誤用である.例えば,``Imissedmineflight.''の\textit{mine}は機能語誤りである.内容語誤りは,誤り生成の方法が異なっていることから,さらに,語形変化誤りと語彙選択誤りに分類できる.語形変化誤りは,形容詞・名詞・動詞の語形に関する誤りである.例えば,``I\textit{goed}($\to$went)toTokyo.''の\textit{goed}は語形変化誤りである.語彙選択誤りは,文脈上適切な内容語の選択に関する誤りである.例えば,``I\textit{lost}($\to$missed)myflight.''の\textit{lost}は語彙選択誤りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤り生成モジュール}\label{subsec:modules}人工的な誤り生成をルールで行う場合,品詞などの文法カテゴリや,個別の単語ごとにルールを定める必要がある.本研究では,文法カテゴリや単語ごとに誤り生成を行う単位を誤り生成モジュールと呼ぶ.誤り生成モジュールは,188種類作成した.表\ref{tab:egm}に,誤りカテゴリごとのモジュール数の内訳を記した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{11table01.tex}\caption{誤り生成モジュールの内訳}\label{tab:egm}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%誤り生成モジュールの入力文は予め,SpaCyv2.3\footnote{\url{https://spacy.io/}}を用いてトークン化されている.また,各単語はSpaCyによって,品詞タグ,係り受けタグ,見出し語,固有表現のIOBタグが付される.各誤りモジュールは,誤り生成の際に,これらの情報を利用する.言語的な知識をほとんど伴わない単純な規則として,ランダムに単語または文字をマスクトークンに置き換える,マスクトークン予測の規則と,頻度の高い機能語と記号をそれぞれ削除する削除の規則の2つを用意した.これらを基礎モジュールと呼ぶ.機能語誤りを生成するモジュールは,前置詞・接続詞・代名詞・限定詞・疑問詞を対象とし,置き換える単語の候補など,規則を各単語ごとに定める必要があるため,各単語ごとに作成される.そのため,このカテゴリのモジュール数は,他と比べ多くなっている.これらのモジュールは,各モジュールの持つ条件にしたがって,削除・置き換え・挿入の編集操作を行うことで,誤り生成を実現する.例えば,前置詞\textit{than}に関する規則では,$0.2$の確率で\textit{than}を削除し,それぞれ,$0.4,0.2,0.1,0.1$の確率で,\textit{to},\textit{from},\textit{over},\textit{beyond}に置き換える.トークンを挿入するモジュールもあり,例えば,冠詞と指示代名詞を挿入するモジュールでは,文頭,あるいはある単語間の位置において,左の単語が存在しないか,あるいは左の単語のPennTreebank品詞タグが,\texttt{VB},\texttt{VBD},\texttt{VBG},\texttt{VBN},\texttt{VBP},\texttt{VBZ},\texttt{IN}のいずれかであり,かつ右の単語のPennTreebank品詞タグが,\texttt{NN},\texttt{NNS},\texttt{JJ},\texttt{JJN},\texttt{JJS}のいずれかである場合に,\textit{a},\textit{an},\textit{the},\textit{this},\textit{that},\textit{these},\textit{those}を,それぞれ,$0.3,0.3,0.3,0.025,0.025,0.025,0.025$の確率でサンプルし挿入する.置き換え規則の候補となる単語の集合は,辞書から意味の近い単語を収集し作成した.また,意味が元のものと大きく変わる候補については,サンプルする確率を低くし,調整した.語形変化誤りを生成するモジュールは,形容詞・名詞・動詞の変化に対して,辞書を利用して異なる語形への置き換えを行う.語形変化の辞書としては,\texttt{lemminflect}\footnote{\url{https://github.com/bjascob/LemmInflect}}を用いた.さらに,受動態を導く\textit{be}や不定詞の\textit{to}を削除するモジュールも用意した.語彙選択誤りを生成するモジュールは,接尾辞を置き換えるものと,類義語に置き換えるものを作成した.接尾辞誤りのモジュールは,接尾辞の辞書を用意し,それを置き換えた語が辞書中にあれば置き換える操作を行う.類義語誤りのモジュールは,WordNet\cite{miller1995wordnet}のシソーラスを用い,置き換えを行う.語順誤りのカテゴリは,その性質に基づき,さらに2つのサブカテゴリに分けることができる.1つは,語や句が文中で動くことによる誤りである.もう1つは,句の中で語の並びが変わることによる誤りである.語順誤りを生成するモジュールのうち,前者の誤りに対するものは,モジュールごとに正規分布を設定し,語句の移動距離をサンプルする.語については,副詞と疑問詞の位置を,句については,前置詞句の位置を移動するモジュールを用意した.また,すべての語に対して小さな位置の移動を行うモジュールも用意した.後者のものに対しては,句を検出し,その並びを変えることにより誤りを生成する.形容詞の連接を並び替えるモジュールと,名詞句\textbf{A},\textbf{B}に対して``\textbf{A}of\textbf{B}''を``\textbf{B}of\textbf{A}''にするモジュールを用意した.表記の誤りを生成するモジュールは,誤りの種類ごとに異なる方法で誤り生成を行っている.句読法の誤りでは,約物の削除・置き換え・挿入の操作を行う.大小文字の誤りでは,語頭の大小文字を入れ替える.この操作は,固有表現ではスパン単位で行う.これは,例えば,`LongIsland'の誤り事例として,`longIsland'よりも訂正の難度が高い,`longisland'の事例を多く生成するためである.正書法の誤りでは,ランダムに単語間の空白文字を削除,または単語中に空白文字を挿入する.また,単語中に空白文字を挿入する際は,分割される単語が辞書中に含まれているようにする.これは,例えば,`football'は,`football'よりも`football'と分割されてほしいためである.綴り誤りでは,単語に対し,文字の削除・挿入・置き換え・隣り合う字の入れ替えの操作を行う.操作の回数は幾何分布からサンプルされる.挿入・置き換えされる文字は,対象となる箇所の前2文字$x_{n-2},x_{n-1}$と,後ろ2文字$x_{n+1},x_{n+2}$から,間の文字$x$を予測する確率分布$p(x|x_{n-2},x_{n-1},x_{n+1},x_{n+2})$からサンプルされる.この分布は,順方向ニューラルネットワークを学習し,推論することで得る.すべてのモジュールに対する詳しい説明は,付録に記した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤り生成の仕組み}\label{subsec:generation}本研究では,誤り生成モジュールを組み合わせる手法を考案した.\pagebreak図\ref{fig:aeg}は,提案手法の概要を示している.この手法では,文法的な文を入力として,複数の誤り生成モジュールを順番に適用していき,最終的な誤り文を得ている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia11f1.pdf}\end{center}\caption{誤り生成手法の概要}\label{fig:aeg}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%モジュールを適用する順序は,後に来るモジュールが,先に来るモジュールが生成した誤りを完全に書き換えないように定める.例えば,前置詞誤りを生成するモジュールは,綴り誤りを生成するモジュールより先に来る.これは,前置詞誤り生成モジュールは,誤り生成の過程で元の語を参照して誤り候補を決めるため,綴り誤りを先に生成すると,\mbox{``on$\overset{\text{綴り}}{\rightsquigarrow}$onn$\overset{\text{前置詞}}{\rightsquigarrow}$for''}のようになり,綴り誤りが前置詞誤りによって打ち消されてしまうが,前置詞誤りを先に生成すれば,\mbox{``on$\overset{\text{前置詞}}{\rightsquigarrow}$for$\overset{\text{綴り}}{\rightsquigarrow}$far''}とより訂正が困難な誤りが生成できるためである.より詳細な適用順序は,付録に示した.各誤り生成モジュールは,モジュールの持つ条件を満たす語や区間に対して適用される.各モジュールは,各入力文ごとに,誤り生成を行う確率(誤り生成確率)を変化させる.これは,各誤り文が多様な誤り傾向を持つようにするための工夫である.提案手法では,誤り生成確率の分布にベータ分布を用い,モジュールごとに分布のパラメータを変えることで,各文法カテゴリの誤りの割合を調整している.各モジュールが持つベータ分布のパラメータは,人手で定めた.その具体的な値は,付録に示した.各モジュールは,入力文に対し,まず誤り生成確率をサンプルする.次に,各単語や区間に対して,モジュールの適用の条件を満たすかを検査する.適用可能であれば,一様分布から値をサンプルし,その値が誤り生成確率を下回っていれば,誤り生成を行う.例として,図\ref{fig:aeg}の誤り生成について説明する.文法的な文``IwenttoTokyo.''が入力される.まず,1番目のモジュールとして,前置詞\textit{to}の誤りを生成するモジュールが入力文に適用される.入力文に対して,誤り生成確率$0.2$がサンプルされる.文中の`to'は,このモジュールが適用可能であるため,この単語に対して一様分布から値$0.1$がサンプルされる.この値が誤り生成確率より小さいため,この`to'に対して誤り生成が行われる.`to'は,`for'や`in'などへの置き換えか,削除からランダムに選択される.図の場合は,削除が行われている.次に,2番目のモジュールとして,代名詞\textit{I}の誤りを生成するモジュールが適用される.誤り生成確率$0.05$がサンプルされる.文中の`I'は,このモジュールが適用可能で,一様分布から$0.9$がサンプルされる.この値は誤り生成確率より大きく,誤り生成は行われない.この操作を,すべての誤り生成モジュールで繰り返し,最終的な誤り文を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:settings}本節では,\ref{sec:expt}節と\ref{sec:comp}節の実験に用いるデータセット,モデル,さらに,事前学習・再学習を行う際の設定について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}データ拡張には,WMT2020newstask\footnote{\url{http://www.statmt.org/wmt20/translation-task.html}}の単言語コーパスのうち,NewsCrawl2015--2020,Europarlv10,NewsCommentaryv16を用いた.単言語コーパスは,fastTextの言語判別器\footnote{\url{https://fasttext.cc/docs/en/language-identification.html}}を用い,英語以外の文を取り除き,163,616,582文から成っている.`16M文'など,単言語コーパスの一部を用いる場合は,これらからサンプルした文を用いている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{11table02.tex}\caption{訓練データセットの概要}\label{tab:train_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%学習者コーパスは,BEA-2019SharedTask\footnote{\url{https://www.cl.cam.ac.uk/research/nl/bea2019st/}}\cite{bryant-etal-2019-bea}の訓練データセットを用いる.このデータセットは,4つのコーパスから成っている.それぞれ,FCEコーパス\cite{yannakoudakis-etal-2011-new},NUCLE\cite{dahlmeier-etal-2013-building},Lang-8コーパス\cite{mizumoto-etal-2011-mining,tajiri-etal-2012-tense},Write\&Improve\cite{bryant-etal-2019-bea,Granger1998TheCL}である.それぞれの規模を表\ref{tab:train_dataset}に示す.Lang-8コーパスでは,誤り文と修正文が同一な文対は,単に訂正が行われていない事例もあるという事情から,予め取り除いた.また,Lang-8コーパス以外のコーパスは,比較的規模が小さいが品質は高いという事情から,学習時に標本数を3倍にした.これらの操作を行ったことで,1エポックで学習されるデータは,のべ857,787文対となる\footnote{これらの学習者コーパスに関する設定は,学習者コーパスのみを用いて学習を行う予備実験において最も性能が高くなるものを選択した.}.評価には4種類のデータセットを用いた.それぞれ,BEA-2019SharedTaskの検証/評価データ,CoNLL-2013SharedTask\cite{ng-etal-2013-conll}の評価データ(CoNLL14評価データの検証データとして用いる),CoNLL-2014SharedTask\cite{ng-etal-2014-conll}の評価データ,FCEコーパスの検証/評価データ,JFLEGコーパス\cite{napoles-etal-2017-jfleg}の検証/評価データである.BEA-19,FCEデータセットの評価にはERRANT\cite{bryant-etal-2017-automatic},CoNLL-13/14にはMaxMatch\cite{dahlmeier-ng-2012-better},JFLEGにはGLEU\cite{napoles-etal-2015-ground}を用いた.それぞれの評価尺度,規模を表\ref{tab:eval_dataset}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{11table03.tex}\caption{評価データセットの概要}\label{tab:eval_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%すべてのデータに対して,分解可能文字(\`{a}など)や約物の正規化の前処理を行った.また,語彙サイズ16,000のBPE-dropout\cite{provilkov-etal-2020-bpe}を各エポックで適用した.BPE-dropoutのdropout確率は,学習データの誤り文側で0.1,その他(学習データの修正文側,評価データの誤り文・修正文)で0である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}文法誤り訂正のモデルは,\texttt{fairseq}v0.10.2\footnote{\url{https://github.com/pytorch/fairseq}}で実装されているTransformerBigモデル\cite{NIPS2017_3f5ee243}を用いた.TransformerBigモデルは,16-headのself-attention層があり,隠れベクトルの次元は1,024である.Feed-forward層の次元は4,096であり,活性化関数にはGeLU関数\cite{hendrycks2016gelu}を用いた.さらに,エンコーダの入力,デコーダの入力と出力の単語分散表現のパラメータを共有した\cite{press-wolf-2017-using}.収束の良さの観点から,post-norm設定ではなくpre-norm設定を用いた.推論時には,幅12のビーム探索を行い,罰則0.6の長さ正規化を行った.実験の際には,シード値を変えて5モデルを学習し,各スコアの平均と,アンサンブル生成を行ったときのスコアを報告する.これらの設定は,既存の研究とパラメータ数やモデル構造の条件を一致させた上で,それ以外の点については,学習者コーパスのみを用いて予備実験を行い,最も性能が良くなるものを採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習・再学習}事前学習では,\ref{sec:eg}節の手法で生成したデータを用い,再学習では,学習者データを用いる.誤り生成は,事前学習のエポック毎に行っている.このため,事前学習時の訓練データの誤り文側は,エポック毎に異なっている.再学習は,学習者コーパスを用い,30エポック行う.事前学習のエポック数は実験設定によって異なるため,その都度明記する.事前学習を行わず,学習者データのみで訓練する場合,40エポック学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練設定}損失関数は,$\alpha=0.1$のラベル平滑化を適用した交差エントロピー損失を用い,最適化には,$(\beta_1,\beta_2)=(0.9,0.999)$,L2正則化係数が$0.001$のAdamWアルゴリズム\cite{DBLP:conf/iclr/LoshchilovH19}を用いた.学習率は,事前学習+再学習の実験では$0.001$,学習者コーパスのみの実験では$0.0015$とし,最初の8,000ステップの間,線形にwarm-upを行った後に,逆2乗減衰を行った.訓練事例の最大長は400トークンとした.Transformerモデルのdropout確率は,注意機構と順伝播層で$0.2$,その他で$0.3$とした.勾配クリッピングは,事前学習+再学習の実験では$0.3$,学習者データのみの実験で$1.0$とした.1ミニバッチの最大トークン数は4,000とし,事前学習+再学習の実験では,128ミニバッチ,学習者データのみの実験では,8ミニバッチの勾配を累積する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データ拡張における3つの仮定の検証} \label{sec:expt}本節では,\ref{sec:intro}節で述べた3つの仮定に関して,それぞれ検証を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{(1)誤り種類の多様さの効果}\label{subsec:div}仮定(1)「生成される誤りの種類の多様さが,訂正性能に寄与する」について調査するため,事前学習に用いるデータの誤り生成に用いる規則のカテゴリを変える実験を行った.全モジュールを用いたもの,モジュール数0のもの,基礎モジュールのみのもの,基礎モジュール+1カテゴリ,全モジュール$-$1カテゴリで実験を行った.誤り生成は1,600万文に対して行い,事前学習は10エポック行った.表\ref{tab:abl}に結果を示した.誤り生成を行わずに事前学習を行った場合,すなわち,入力から出力へコピーを行うよう学習した場合,性能は学習者コーパスのみで訓練した場合よりも悪くなっている.なお,誤り生成を行わない設定では,勾配の発散を防ぐため,勾配クリッピングの値を$0.1$としている.この結果は,事前学習を行うためには,単言語コーパスに対して何かしらのデータ拡張を行う必要があることを示している.すべてのモジュールを用いた場合,学習者コーパスのみを用いた結果に対し,BEA-19,CoNLL-14,FCE,JFLEGの4つの評価データセットにおいて,それぞれアンサンブル生成を行った場合で,5.86,5.46,2.33,2.54ポイントの大幅な性能向上が確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{11table04.tex}\caption{誤り種類の多様さの効果(5モデルの平均/アンサンブル).}\label{tab:abl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%基礎モジュールのみを用いた場合でも,4.04,2.88,1.79,0.85ポイントと性能向上が見られる.このことは,トークンの削除とマスクトークン予測という単純な操作が,データ拡張手法として高い有効性があることを示している.一方で,全モジュールから基礎モジュールのみを取り除いてデータ拡張を行った場合,全モジュールを用いた場合と性能差が小さいことが確認できる.このため,基礎モジュールの寄与は,多様な誤り生成を行った場合に打ち消されると言える.次に,基礎モジュールを加えた上で,さらに1カテゴリのモジュールと4カテゴリ・5カテゴリのモジュールを加えた場合で比較を行い,生成される誤りの多様さが及ぼす影響について評価を行う.基礎モジュールに対して,1カテゴリのモジュールを追加することで,基礎モジュールのみを用いてデータ拡張を行う場合と比較して,全体的に性能の向上が確認できる.特に,表記誤りが性能向上に大きく影響していることが確認できる.基礎モジュールと4カテゴリのモジュールを用いる場合,すなわち,全モジュールから1カテゴリのモジュールを取り除いた場合では,全モジュールを用いた時と同程度の性能向上が見られる.表記誤りのモジュールを取り除いた場合,他のカテゴリと比べて性能低下が大きい.このことから,表記誤りは,他のカテゴリと比べて性能への影響が大きいことが示唆される.学習者コーパス中の表記誤りの割合は,機能語や内容語の誤りの割合と比較して特段に多いというわけではない\cite{white-rozovskaya-2020-comparative}.そのため,表記誤りの訂正性能への影響は,このカテゴリ特有の性質によるものと考えられる.また,全モジュールから語順に関するモジュールを除いた場合の性能が他と比べて高くなっている.\ref{subsec:rttbt}節における折り返し翻訳や逆翻訳との提案手法の比較でも述べる通り,本研究で設計したルールによる誤り生成では,語順誤りの訂正性能が低く,良い語順誤りが生成できていない可能性があり,このことが全体の性能低下の要因となっている可能性がある.必ずしもすべてのモジュールを用いたときが最も性能が高いというわけではないが,データ拡張による誤りデータ中の誤り種類が増えることが,一般に文法誤り訂正モデルの訂正性能を向上させること,すなわち,仮定(1)の妥当さを確認することができた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{(2)訂正される誤り種類への影響}\label{subsec:type}仮定(2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」について調査するため,\ref{subsec:div}節でのモデルの出力に対し,ERRANT評価器による誤り種類別自動評価を行った.ERRANT誤り種類は,BEA-19評価データに出現するものから,機能語に関するもので出現頻度が高い3種,\texttt{DET},\texttt{PREP},\texttt{PRON},内容語に関するもので出現頻度が高い3種,\texttt{NOUN:NUM},\texttt{VERB},\texttt{VERB:TENSE},表記に関するもので出現頻度が高い3種,\texttt{ORTH},\texttt{PUNCT},\texttt{SPELL},語順誤りの\texttt{WO}の計10種を対象とした.各誤り種類の名称と,対象とする文法カテゴリ,誤りの例を表\ref{tab:error_types}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{11table05.tex}\caption{10種の誤り種類の一覧(例はERRANTの元論文\protect\cite{bryant-etal-2017-automatic}のものである.)}\label{tab:error_types}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[p]\begin{center}\includegraphics{29-2ia11f2.pdf}\end{center}\caption{BEA-19評価データでの,事前学習のみを行ったモデルの誤り種類別性能(5モデルの平均).}\label{fig:heat1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:heat1}は,事前学習のみを行ったモデルでの誤り種類別評価である.数値は$F_{0.5}$値であり,5モデルの平均の結果を示している.学習者コーパスによる再学習を行っていないため,誤り生成で出現しない種類の誤りは訂正されないと考えられる.図\ref{fig:heat1}の「誤りなし」の場合では,ほとんどすべての誤り種類で,訂正ができていない.\texttt{SPELL}で誤り訂正が行えているのは,サブワードを用いている効果と考えられる.「基礎のみ」の場合では,「誤りなし」と異なり,全体的にある程度の誤り訂正が行えるようになっている.さらに,機能語の誤り生成を追加した場合では,\texttt{DET},\texttt{PREP},\texttt{PRON}の機能語に関する誤り種類で特に性能が向上していることが確認できる.なお,\texttt{WO}の値が$\text{F}_{0.5}=10$となっているが,これは,``Itiscombinationofaphysicalpower.''$\to$``Itisacombinationofphysicalpower.''などの訂正事例をERRANTが誤って分類しているからと考えられ,語順誤りが訂正できていることを意味しない.語形変化の誤り生成・語彙選択の誤り生成を追加した場合では,\texttt{NOUN:NUM},\texttt{VERB:TENSE}の性能向上が大きい.一方,\texttt{VERB}の訂正性能は変化していない.語順の誤り生成を追加した場合では,\texttt{WO}のみで性能向上が確認される.表記誤り生成を追加した場合では,特に\texttt{ORTH},\texttt{PUNCT},\texttt{SPELL}の表記誤りで性能向上が確認できる.また,\texttt{PRON},\texttt{VERB}でも大きな性能向上が確認でき,\texttt{PREP},\texttt{NOUN:NUM}においてもその影響を見ることができる.これは綴り誤りの生成が,間接的に別の種類の誤りを生成したためだと考えられる.以上のことから,事前学習のみを行ったモデルでは,多くの誤り種類で,仮定(2)が適当であることが確認された.図\ref{fig:heat2}は,さらに再学習を行ったモデルでの誤り種類別評価である.「事前学習なし」は,学習者コーパスのみを用いて学習を行った結果である.「事前学習なし」と「基礎のみ」の場合を比較すると,ほとんどすべての誤り種類で事前学習によって大幅な性能向上が見られていることが分かる.さらに,データ拡張を行う誤りカテゴリ別に見ると,「基礎+機能語」で\texttt{DET},\texttt{PREP},\texttt{PRON},「基礎+語順」で\texttt{WO},「基礎+表記」で\texttt{ORTH},\texttt{PUNCT},\texttt{SPELL}の値が,「基礎のみ」や基礎カテゴリに他の1カテゴリを加えた場合と比べて高くなっている.このことから,これらの誤り種類では,再学習後も仮定(2)が適当であることが分かる.一方で,「基礎+語形変化」「基礎+語彙選択」が内容語の誤り訂正に与える効果を明確に確認することはできなかった.このことから,誤り生成を行うカテゴリが,学習者コーパスでの再学習後にも訂正性能に影響を与えるかは,誤りカテゴリごとに異なってくる可能性が示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\scalebox{0.968}{\includegraphics{29-2ia11f3.pdf}}\end{center}\caption{BEA-19評価データでの,再学習まで行ったモデルの誤り種類別性能(5モデルの平均).}\label{fig:heat2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{(3)データの規模の影響}\label{subsec:size}仮定(3)「データ拡張に用いるデータの規模が,訂正性能に寄与する」について調査する.一般に,学習に用いるデータサイズが大きくなれば,性能も向上すると考えられる.\citeA{kiyono-etal-2019-empirical,wan-etal-2020-improving}は,誤りを生成するモデルを用いたデータ拡張を行い,学習データの増加が性能の向上につながることを示した.図\ref{fig:size}の青点線は,事前学習のエポック数を10で固定し,提案手法での誤り生成に用いる単言語コーパスのサイズを変えた結果である.先行研究と同様に,データサイズが性能の向上に寄与するという結果になっている.しかし,この結果からは,性能向上の主な要因が,データ拡張に用いる単言語コーパスの規模が大きくなったことなのか,あるいは,パラメータの更新回数が増えたことなのかがわからない.どちらが性能向上に重要かを確認するため,単言語コーパスの規模を変えた時,事前学習全体でのステップ数が同じになるように学習エポックを変えて実験を行った.具体的には,単言語コーパスの文数と学習エポックの積が1億6,000万となるようにした.図\ref{fig:size}の赤実線が,その結果である.単言語コーパスの文数が100万文であっても,ステップ数を揃えれば,性能の低下は非常に小さいことが確認できる.このことから,単言語コーパスの規模ではなく,ステップ数,言い換えれば,モデルパラメータの更新回数が性能向上の主な要因であることが分かる.このことは,仮定(3)が適当なものではないことを意味する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{29-2ia11f4.pdf}\end{center}\hangcaption{単言語コーパスの規模・訓練エポックを変える効果.スコアは5モデルの平均であり,番号はエポック数を表す.}\label{fig:size}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{29-2ia11f5.pdf}\end{center}\caption{毎エポック誤り生成を行う効果.スコアは5モデルの平均であり,番号はエポック数を表す.}\label{fig:src}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,データ拡張はエポック毎に行っている.そのため,\ref{subsec:size}節の結果は,十分なステップ数で学習を行ったためだけでなく,十分な回数の誤り生成を行ったことも影響している可能性がある.この効果を検証するため,毎エポックでデータ拡張を行う設定と,1度だけデータ拡張を行い,そのデータを繰り返し用いる設定の比較を行う.図\ref{fig:src}の赤実線が毎エポックデータ拡張を行った結果であり,青点線が1度だけ行った結果である.\ref{subsec:size}節の結果に基づき,学習ステップ数は固定とした.毎エポックでデータ拡張を行う場合は,より性能が高いだけでなく,利用する単言語コーパスの規模に性能が大きく影響されないことが確認できる.一方で,1度だけ行う設定では,単言語コーパスの規模が400万文より少なくなると性能が急に低下し始める.これは,1度だけデータ拡張を行う場合では,事前学習で学習される誤り文の種類が,単言語コーパスの規模で決まってしまうためだと考えられる.このことから,誤りデータを毎エポックで生成することは,より多様な誤り文でモデルを学習でき,単言語コーパスの規模によらない性能向上をもたらすことが分かる.このことも,先程と同様に,仮定(3)が適当なものではないことを意味している.一方で,400万文より多い単言語コーパスを用いる場合は,計算リソースの節約のため,1回だけの誤り生成を行うだけでも十分と言うこともできる.そのため,計算リソースの制約がある場合,利用可能な単言語コーパスの規模によって,誤り生成を1回だけ行うか,毎エポック行うかのどちらが良いか,検討すべきである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{他手法との比較} \label{sec:comp}本節では,本手法と他手法に対する既存のベンチマーク上での比較を行い,本手法の有効性や限界について検証を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習者データを用いない手法・最先端手法との比較}本研究で用いた手法と,最先端の手法を比較するため,より大規模なデータを用い,性能向上のための工夫を追加した実験を行った.性能向上のための工夫としては,ドメインを限定した追加再学習,マスク言語モデルによるリランキングを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ドメインを限定した追加再学習}\citeA{choe-etal-2019-neural}では,さらなる性能向上のため,拡張データによる事前学習,学習者データによる再学習を行った後に,再学習に用いるデータセットのうち,テストデータとドメインが近いもののみを用いて追加の再学習を行っている.本研究では,BEA-2019,FCEコーパスのテストセットに対して,それぞれW\&Itrain,FCEtrainをドメインが近い訓練データとして用いる.事前学習を行ったモデルに対し,すべての学習者コーパスで5エポックの再学習を行い,ドメインが近い訓練データでの追加再学習は30エポック行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{マスク言語モデルによるリランキング}\citeA{chollampatt-etal-2019-cross}では,モデルがビーム探索により生成したn-best候補に対し,BERT\cite{devlin-etal-2019-bert}が計算する疑似尤度を用いてリランキングを行っている.疑似尤度の計算方法は,\citeA{salazar-etal-2020-masked}の方法に従い,RoBERTalargeモデル\cite{DBLP:journals/corr/abs-1907-11692}を用いた.表\ref{tab:result1}に,事前学習のみを行った場合の結果を示す.事前学習のみを行った場合は,学習者コーパスを用いない教師なし設定とみなすことができる.さらに,既存の学習者コーパスを用いない教師なし設定の手法より高い性能を示していることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{11table06.tex}\caption{事前学習のみを行った場合の結果.既存研究は学習者コーパスを用いないものである.}\label{tab:result1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:result2}に,再学習・追加の再学習まで行った場合の結果を示す.再学習,追加の再学習を行った場合では,データ拡張に用いている手法・単言語コーパスが既存報告ごとに異なっているため単純な比較はできないが,既存の最先端手法と同程度の性能を示していることが確認できる.また,ドメインを限定した追加の再学習やマスク言語モデルによるリランキングが性能の向上に効果的であることも確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{折り返し翻訳・逆翻訳との比較}\label{subsec:rttbt}\citeA{lichtarge-etal-2019-corpora}は,折り返し翻訳により得られたデータによる事前学習が文法誤り訂正に効果的であることを示した.また,\citeA{xie-etal-2018-noising}は,文法誤り訂正の逆翻訳において効果的にノイズを加える方法を示し,\citeA{kiyono-etal-2019-empirical}は,逆翻訳を大規模なデータで実施し,その有効性を示した.本節では,提案手法を折り返し翻訳,逆翻訳と比較し,ルールによる誤り生成の利点と欠点について分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{11table07.tex}\hangcaption{再学習・追加の再学習まで行った場合の提案手法での結果.既存研究は,学習者コーパスを用いたものである.なお,下線はvalidデータで最も性能が高かった値に付している.}\label{tab:result2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{11table08.tex}\caption{折り返し翻訳モデルのBLEUスコア(SacreBLEU\protect\cite{post-2018-call}を用いた)}\label{tab:bleu}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%折り返し翻訳については,まず,ドイツ語・フィンランド語・フランス語・ラトビア語の機械翻訳モデルをWMTのニュースタスクのデータセットを用いて学習する.翻訳モデルには,Transformerモデルのbase設定を用いた.その結果を表\ref{tab:bleu}に示す.4言語で,1,600万文に対して折り返し翻訳を行い,事前学習のデータとして用い,学習者データで再学習を行った.さらに,学習データ中の事例が多様になるように,各エポックで4言語でのデータから文ごとにランダムに学習事例をサンプルする実験も行った.逆翻訳については,ランダムノイズを加える\citeA{xie-etal-2018-noising}の手法を用い,\citeA{koyama-etal-2021-comparison}で用いられている設定を採用し,Transformerモデルのbase設定の逆翻訳モデルを学習し,$\beta_{\rmrandom}=8$を用いた.結果を表\ref{tab:comparison}に示した.提案手法を用いた結果は,折り返し翻訳によるすべての設定よりも高い性能を示していることが確認できる.一方で,逆翻訳を用いた手法と比較した場合,すべての評価データで性能が劣る結果となった.提案手法には,ルールによって学習データの誤り種類をコントロールできるという利点があるものの,単に誤り訂正の性能を改善したいのであれば,逆翻訳による手法は有力な選択肢と言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{11table09.tex}\caption{提案手法・折り返し翻訳・逆翻訳の比較(5モデルの平均/アンサンブル)}\label{tab:comparison}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで,各手法間のデータ拡張の効率について議論する.本研究では,産総研のAI橋渡しクラウド(ABCI)を利用しており,そこでの費用で比較を行う.折り返し翻訳・逆翻訳によるデータ拡張ではGPUを用いた翻訳に毎時0.3ポイントの費用を消費する\texttt{rt\_G.small}ノードを用い,毎時20万文程度の生成が可能である.そのため,1,600万文のデータ拡張を行うためには,折り返し翻訳で,約96ポイント(約9,600円),逆翻訳で約24ポイント(約4,800円)が必要となる.なお,逆翻訳では,誤り生成モデルを学習するため,さらに約3ポイント消費するため,実際には合計約27ポイント(約5,400円)が必要となる.これに対して,提案手法では,毎時0.6ポイントの費用を消費する\texttt{rt\_C.large}ノードを用いる.毎時150万文でSpaCyによるタグ付け,毎時1,000万文で誤り生成を行うとすると,1,600万文・10エポックのデータ拡張を行うためには,約16ポイント(約3,200円)が必要となる.以上のことから,提案手法は,よりデータ拡張の効率が良い手法であると言える.\ref{subsec:type}節と同様に,再学習後のモデルで誤り種類別評価も行った.結果を図\ref{fig:heat3}に示す.提案手法による結果は,折り返し翻訳のものと比較して,ほとんどの誤り種類で良い結果となっている.特に,\texttt{ORTH},\texttt{PUNCT},\texttt{SPELL}などの表記の誤りや,\texttt{NOUN:NUM}で高い性能を示している.一方で,\texttt{PREP},\texttt{WO}では,折り返し翻訳を用いた方が良い結果を示している.これは,前置詞誤りや語順誤りが,誤りの訂正に広い文脈や深い構文の情報が必要となる種類の誤りであり,ルールによる単語単位の手法では十分な誤り生成が行えていない可能性を示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[p]\begin{center}\scalebox{0.968}{\includegraphics{29-2ia11f6.pdf}}\end{center}\caption{BEA-19評価データでの,折り返し翻訳と提案手法との誤り種類別性能比較(5モデルの平均).}\label{fig:heat3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%逆翻訳のものと比較した場合,ほとんどの誤り種類で,逆翻訳の方が良い結果となっている.特に,\texttt{DET},\texttt{PREP},\texttt{PRON}などの機能語の誤りに関しては,一貫して逆翻訳が良い結果となっている.また,\texttt{WO}の語順誤りにおいても,高い性能を示している.このような誤り種類では,提案手法でのルールによる誤り生成が,十分に行われていない可能性がある.これは,折り返し翻訳での結果と同様に,文脈などの情報を捉えられていないことが原因だと考えられる.一方で,\texttt{ORTH},\texttt{PUNCT}などの表記の誤りでは,ルールによる誤り生成が依然有効であることが分かる.このような種類の誤りでは,学習者コーパスの分布から誤りの分布を逆翻訳で適切に再現できていない可能性がある.以上のように,表記の誤りの中には,ルールによる誤り生成が効率的かつ効果的に生成できる場合がある一方で,機能語や語順の誤りなどでは,ルールによる手法は劣る結果となっている.このことから,ルールによる誤り生成・折り返し翻訳・逆翻訳によるデータ拡張の間には,得意な誤り種類に違いがあることが分かる.今後,これらの手法を適切に組み合わせ,より良い誤り生成手法を探求していきたいと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:owari}本研究では,文法カテゴリごとに誤り生成を行うモジュールを設計し,その組み合わせによって誤りの種類が制御可能な,文法誤り訂正のためのデータ拡張手法を考案した.そして,データ拡張における3つの仮定について検証を行った.データ拡張で用いるモジュールの誤りカテゴリを変え,文法誤り訂正のモデルに事前学習を行い比較を行うことで,仮定(1)「生成される誤りの種類の多様さが,訂正性能に寄与する」については,データ拡張によって生成されるデータ中の誤りの多様さが,性能の向上に寄与することを確認した.また,仮定(2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」については,事前学習のみを行った場合は,多くの誤り種類で妥当であり,再学習を行った場合でも,機能語・語順・表記の誤り種類において妥当であることが明らかになった.仮定(3)「データ拡張に用いるデータの規模が,訂正性能に寄与する」については,十分なステップ数に渡ってモデルのパラメータを更新することと,十分な回数誤り生成を行うことが,訂正性能の向上に寄与する一方で,データ拡張に用いる単言語コーパスの規模は訂正性能の向上に大きな影響を持たないことが判明した.提案手法を用いてより大規模なデータを作成し学習し,性能向上の工夫を行えば,既存の最先端手法と同程度に高性能なモデルを学習できることを確認した.また,事前学習のみを行ったモデルは,既存の学習者コーパスを用いない教師なし設定より高い性能を示した.ルールによる誤り生成の性質を調査するため,折り返し翻訳・逆翻訳でのデータ拡張との比較を行った.その結果,手法ごとに得意な誤り種類に差があることがわかった.また,ルールによる誤り生成は,効率的に実行できることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の査読にあたり,ご意見・ご指摘をくださった査読者の方々へ感謝いたします.本論文の内容の一部は,言語処理学会第27回年次大会\cite{nlp2021-koyama}およびThe35thPacificAsiaConferenceonLanguage,InformationandComputation(PACLIC35)\cite{koyama-etal-2021-various}で発表したものである.本研究成果は,「産総研・東工大実社会ビッグデータ活用オープンイノベーションラボラトリ」により得られたものである.また,産総研のAI橋渡しクラウド(ABCI)を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{11refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\input{11appendix.tex}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{古山翔太}{%2020年東京工業大学情報理工学院情報工学系卒業.2022年同情報理工学院情報工学系知能情報コース修士課程修了.同年,博士後期課程に進学.修士(工学).}\bioauthor{高村大也}{%2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2009年まで東京工業大学精密工学研究所助教.2010年から2016年まで同准教授.2017年から2021年まで同教授.2017年より産業技術総合研究所人工知能研究センター研究チーム長.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V05N04-06
\section{はじめに} バリアフリーというキーワードの下に各種福祉機器の開発やパソコンソフトの開発が企業や大学で進められている.なかでも視覚障害者向けには点字ピンディスプレイや音声合成装置などを用いて,コンピュータによる積極的な情報処理教育,職業訓練が行われている.このためにはコンピュータのマニュアルや教科書等を点字に翻訳する必要があるが,点字翻訳ボランティアの数は少なく,年間,一人のボランティアが翻訳できる専門書は3,4冊程度である.日本語を点字に翻訳するシステムは過去にいくつか提案されており,市販されているものもある.日本アイ・ビー・エムの嘉手川らは約77000語の基本単語辞書を用いて分かち書きと漢字かな変換を行うシステムを開発した\cite{kadekawa}.筑波技術短期大学の河原は市販の点字翻訳プログラムの誤りを解析し,ICOTの形態素解析辞書を用いて点字翻訳結果の改良を行うシステムについて報告している\cite{kawahara}.このような状況のなかで,点字翻訳ボランティアにとって最も時間がかかり,難しいとされている分かち書きを自動的に行い,かつ,誤っている可能性のある箇所を指摘して初級点字翻訳ボランティアの分かち書きを支援する方法について考察し,試作システムを構築したのでそれについて報告する\cite{Suzukietal1997a},\cite{Suzukietal1997b},\cite{Suzukietal1997c}.一方,対話システムとしては,最近,情報機器との自然なコミュニケーションを目指して様々な対話システムやユーザインタフェースの研究が行われている\cite{hatada}.ここでは筆者らの提案する対話型システムに最も類似した機能をもつと考えられる,畑田らのOCRの誤り修正支援システムとの比較検討を行う. \section{分かち書きの規則と問題点} \subsection{点字翻訳のための分かち書き}点字翻訳(以下,本文中では点訳と称する)は一般に図~\ref{fig:a0}に示したような手順で行われる.すなわち,漢字かな混じり文を点字の規則に従って分かち書きを行ったのち,漢字に読みをつけ,読みを表音文字体系に変換し,最後に点字出力形態に合わせて点字を出力する.\begin{figure}[t]\begin{center}\epsfile{file=proc_tenji.ps,scale=0.65}\caption{点訳の手順}\label{fig:a0}\end{center}\end{figure}従来この作業は,点訳ボランティアによりすべて手作業で行われていた.一字一字点筆を用いて打点するため,修正するにはそのページ全体を打ち直す必要があり,非常に時間がかかる.最近,パソコンで動作する点訳プログラムが入手できるようになって点訳の効率は格段に上がった.しかし完全自動化には限界があり,点訳プログラムはあまり利用されていない.その主な原因は,次の2点と考えられる.\vspace{0.3cm}\begin{enumerate}\item通常の自然言語処理における形態素解析や構文解析では点字特有のパターンを全て表現するのは困難であり,文節レベルより細かい区切りが必要とされる.このため,点訳ボランティアは点訳プログラムで区切り処理されたカナあるいは点字の文章全体を再度見直す必要がある.\item日本語の漢字は複数の読みをもつものが多く,読みを一意に決定することは困難である.従って,点訳ボランティアは点訳プログラムが与えた読みについても見直して修正する必要がある.\end{enumerate}\vspace{0.3cm}原因(1)について補足説明する.第一番目の問題として形式名詞の問題がある.形式名詞を要素として含む助動詞「(〜する)ことだ」の場合,一般の形態素解析では直前の文節に続けて一つの文節とされるが,点字の場合は「こと」の前で区切らなければならない.第二番目に複合語の問題がある.「漢語+する」の形のサ変名詞は,「研究する」だと点字の分かち書きでは区切らない.しかし,これが複合語化して「共同研究する」となった場合は,「共同」「研究」「する」と3つに区切らなければならない.日本語のように漢字を組み合わせて容易に新しい単語を作る言語の場合,従来の形態素解析は複合語を構成する基本となる漢字2字熟語,漢字3字熟語を辞書に登録しておくことで処理を行う.しかし,点字の分かち書きの場合,その単語が何文字の熟語から構成されているかが認定されるだけでは正しく分かち書きを行うことができない.いくつの漢字2字熟語,漢字3字熟語が組み合わされているか,という情報が必要になる.日本語文の文節区切りは従来,点訳の分かち書き用としてではなく,機械翻訳,日本語によるデータベース検索,文書校正支援等のための形態素解析として,佐藤\cite{satoh},長尾\cite{nagao}らによって研究されてきた.これらの手法は大規模な文法情報付きの辞書をそれぞれ独自に用意して形態素解析を行うものであった.一方,最近では言語資源の共有やモジュラリティの観点から春野\cite{haruno},颯々野\cite{sassano},松本\cite{matsumoto97}らがより実用的な形態素解析システムについて提案している.これらのシステムは形態素解析結果の曖昧性については考慮しているが,第一候補のみを示す一括処理を基本としている点,文節より細かい分割レベルの解析は行わない点などの理由で,点訳へ直ちに適用するには困難がある.一般の形態素解析では与えられた入力文に対して単語辞書や文法辞書,それにユーザ辞書などを用いて処理が行われ,文節と認定された単位で区切られる.機械翻訳に用いられる場合と音声合成のために用いられる場合とでは,文節の単位が異なり,一意に決定できるものではない.このような形態素解析方式を点訳に適用するには以下のような問題点があると考えられる.\vspace{0.3cm}\begin{enumerate}\item点訳に必要な分かち書きの単位としては,一般の形態素解析によって決定される文節よりもさらに細かく分割する必要がある.\item後に続く処理のフィードバックによって前の処理の誤りが発見,修正される一般の自然言語処理と異なり,形態素解析の誤りをその後の点訳処理で回復することが難しい.\item点訳のための分かち書きでは,「連濁」や複合語化によって区切り方が変わるにもかかわらず,従来の形態素解析ではそのような「読み」や複合情報までの詳しい出力が得られない.複合情報とは,点訳のための分かち書きに必要となる連濁や複合語の語数などを示す情報のことである.\end{enumerate}\subsection{提案するシステムの基本方針}前述のような問題点をふまえ,筆者らは従来より行われてきた形態素解析に用いられるような大規模な辞書と文法規則を用いず,簡便な表層解析のみを行うことによって分かち書きを行い\cite{Suzukietal1997a},対話的に誤りを修正していくことを試みている\cite{Suzukietal1997b},\cite{Suzukietal1997c}.対話機能を導入することにより点訳ボランティアの見直しの手間が軽減され,点訳作業にかかる時間の大幅な短縮が期待される.本システムの基本方針は次の4点である.{\renewcommand{\labelitemi}{}\begin{enumerate}\item{分かち書きの処理を自動分割と対話処理の2段階で行う.}\item{文法情報を含まない単語のみからなる7種類のテーブルを用いて表層解析を行う.}\item{自動分割の際に用いる分かち書きの規則を表層情報に基づく知識に書き換え,知識ベース化する(以下,知識ベースAと称する).}\item{自動分割による分かち書きが疑わしい箇所および,表層情報では一意に決定できない分かち書き箇所を対話処理でユーザに提示するための規則を知識ベース化する(以下,知識ベースBと称する).}\end{enumerate}} \section{システム構成と分かち書き手順} \subsection{システム構成}今回構築した試作システムの構成を図~\ref{fig:c}に示す.本システムは自動分割部と対話処理部の2つから構成される.\begin{figure}[t]\begin{center}\epsfile{file=wakachigaki.ps,scale=0.55}\caption{対話型分かち書き支援システム構成図}\label{fig:c}\end{center}\end{figure}自動分割部では以下のような処理を行う.最初に入力文から,各種テーブルと字種情報を用いて表層情報を抽出する.ここで得られた表層情報を基に,知識ベースAの知識を用いて分かち書き箇所を決定する.分かち書きの知識が競合した場合には,優先点数の高い知識を優先する.自動分割部では熟練ボランティアによって作成された正しく分かち書きされたファイル(以後「正解ファイル」と称する)を用いて知識ベースAの知識をチューニングするための機能をもつ.対話処理部では,自動分割部の処理結果のうち,信頼性が低い箇所を知識ベースBを用いてユーザに示したり,自動分割に用いた知識を表示したりする.ユーザはシステムによって指摘された箇所のみを順にチェックすることにより,容易に分かち書きを行うことができる.それぞれの処理について順に説明する.\vspace*{-1ex}\subsection{自動分割部}\subsubsection{表層解析}本システムが行っている表層解析について説明する.ここで表層解析とは,漢字かな混じりテキストの字面から判別できる字種や,以下に示す表層情報を抽出することである.具体的には,表\ref{bt-tables}に示す7種類のテーブル名が示す情報を表層情報と定義し,文中のどこからどこまでがそれぞれのテーブルの要素と一致したかを調べる.形態素解析では辞書をひいて単語ごとに文法情報を得,文法情報に基づいて単語の連接を詳しく調べていくのに対して,表層解析では,文に出現する文字列の表層情報をテーブルを参照しながらチェックするだけで,前後の語と語の関係については考慮しない.\begin{table}[bt]\begin{center}\small\caption{表層解析で用いるテーブル}\label{bt-tables}\begin{tabular}{|c|c|r|r|l|}\hlineテーブル名&書式&\multicolumn{1}{|c|}{語数}&\multicolumn{1}{|c|}{容量(kbyte)}&\multicolumn{1}{|c|}{例}\\\hline\hlineひらがな書き自立語&単語:区切り方&250&0.3&しかし:前後,はっきり:前\\\hline助詞&単語&25&2.3&と,は\\\hline漢字2字熟語&単語&62,512&312.6&圧力,計算\\\hline漢字3字熟語&単語&24,262&169.3&亜熱帯,委員長\\\hline接頭語&単語&54&0.1&不,副\\\hline接尾語&単語&67&0.2&機,的\\\hline混ぜ書き語&単語&10,826&75.8&引き算,繰り返\\\hline\end{tabular}\end{center}\end{table}\normalsize本システムの表層解析で用いるテーブルはここに示した7つであり,従来の形態素解析辞書のような文法情報は持っていない.ひらがな書きの自立語テーブル以外はすべて単語のみからなる.ひらがな書き自立語テーブルでは,各ひらがな自立語ごとに,その前および後で区切るかどうかの情報を持たせている.ひらがな書き自立語とは「しかし」「はっきり」のようなすべてひらがなで表記される自立語を指す.これらは表層解析の際,分かち書きの重要な目安となる助詞との区別がつきにくいうえ,ひらがな書き自立語どうしが接続した際,分かち書きを誤る可能性が高い.例えば,「しかし」は独立して出現するので「しかし」の前後は分かち書きを行なう,すなわち「前後で区切る」となる(表\ref{bt-tables}の例参照).「はっきり」の場合,「はっきりと」「はっきりした」「はっきり/示す\footnote{`/'は区切りを現す}」というように後続する語によって後ろの分かち書き方が変化する.従って,「はっきり」については「前で区切る」となる(表\ref{bt-tables}の例参照).これらのテーブルはEDR日本電子化辞書研究所の「日本語基本単語辞書」から情報処理関連の単語を抽出し,ひらがな書き自立語については区切り方の情報を人手により入力した.また,接頭語,接尾語については文献\cite{nagao}を参照し,実際のテキストから抽出して作成した.ひらがな書き自立語以外のテーブルは単語のみからなるため,語の追加・削除が容易\newpage\begin{flushleft}である.また,ひらがな書き自立語についてもユーザは容易に修正できる.\end{flushleft}\begin{table}[bt]\caption{知識ベースAの知識一覧}\label{知識ベースAの知識一覧}\hspace*{-3ex}\footnotesize\begin{tabular}{|c|c|p{72ex}|c|}\hline分類&識別番号&\multicolumn{1}{|c|}{知識}&{\small優先点数}\\\hline\hline&知識~1-1&句読点の前で区切らない&9\\\cline{2-4}句読点&知識~1-2&句点の後ろで2回区切る&10\\\cline{2-4}&知識~1-3&読点の後ろで区切る&9\\\hline&知識~2-1&括弧の後ろは区切らない&8\\\cline{2-4}&知識~2-2&括弧閉じの前は区切らない&11\\\cline{2-4}\raisebox{1.5ex}[0pt]{括弧}&知識~2-3&鈎括弧`「'の前で区切る&8\\\cline{2-4}&知識~2-4&括弧閉じ→\{漢字orカタカナ\}間で区切る&1\\\hline&知識~3-1&ひらがな→漢字間で区切る&3\\\cline{2-4}&知識~3-2&ひらがな→カタカナ間で区切る&1\\\cline{2-4}&知識~3-3&カタカナ→漢字間で区切る&1\\\cline{2-4}&知識~3-4&漢字→カタカナ間で区切る&1\\\cline{2-4}字種の&知識~3-5&\{漢字orひらがなorカタカナ\}→アルファベット間で区切る&5\\\cline{2-4}変わり目&知識~3-6&アルファベット→\{漢字orひらがなorカタカナ\}間で区切る&5\\\cline{2-4}&知識~3-7&\{漢字orひらがなorカタカナ\}→数字間で区切る&7\\\cline{2-4}&知識~3-8&\{漢字orひらがなorカタカナ\}→(区切る種類の)記号間で区切る&7\\\cline{2-4}&知識~3-9&(区切る種類の)記号→\{漢字orひらがなorカタカナ\}間で区切る&5\\\cline{2-4}&知識3-10&\{漢字orひらがなorカタカナ\}→(区切らない種類の)記号間で区切る&7\\\cline{2-4}&知識3-11&(区切らない種類の)記号→\{漢字orひらがなorカタカナ\}間で区切る&5\\\hline&知識~4-1&助詞の前であれば区切らない&4\\\cline{2-4}\raisebox{1.5ex}[0pt]{助詞}&知識~4-2&助詞の後ろを区切る&3\\\hline&知識~5-1&\{前後or前\}を区切る種類のひらがな書き自立語の前を区切る&7\\\cline{2-4}自立語&知識~5-2&\{前後or後\}を区切る種類のひらがな書き自立語の後ろを区切る&5\\\cline{2-4}&知識~5-3&ひらがな書き自立語の内部は区切らない&4\\\hline&知識~6-1&混ぜ書き語の前を区切る&5\\\cline{2-4}\raisebox{1.5ex}[0pt]{混ぜ書き語}&知識~6-2&混ぜ書き語の内部は区切らない&6\\\hline&知識~7-1&漢字熟語の前を区切る&5\\\cline{2-4}\raisebox{1.5ex}[0pt]{漢字熟語}&知識~7-2&漢字熟語の後ろが漢字ならば漢字熟語の後ろで区切る&1\\\hline&知識~8-1&接頭語の前を区切る&3\\\cline{2-4}接頭・&知識~8-2&接尾語の前を区切らない&2\\\cline{2-4}接尾語&知識~8-3&接頭語の後ろは区切らない&6\\\cline{2-4}&知識~8-4&接尾語→漢字間で区切る&1\\\hline&知識~9-1&空白の前を区切らない&9\\\cline{2-4}\raisebox{1.5ex}[0pt]{空白}&知識~9-2&空白の後ろで区切らない&8\\\hline&知識10-1&「て,ば」の前に漢字があるなら「て,ば」の後ろで区切らない&4\\\cline{2-4}&知識10-2&\{第or約\}→数字間では区切らない&8\\\cline{2-4}&知識10-3&数式の後ろで2回区切る&8\\\cline{2-4}\raisebox{1.5ex}[0pt]{その他}&知識10-4&促音・拗音・撥音の前は区切らない&9\\\cline{2-4}&知識10-5&「お」→漢字間は区切らない&6\\\cline{2-4}&知識10-6&「各」の後ろで区切る&5\\\hline\end{tabular}\end{table}\normalsize\subsubsection{自動分割のための知識ベース}分かち書きに必要な知識を表\ref{知識ベースAの知識一覧}に示す.ここで表~\ref{知識ベースAの知識一覧}の第3列目に表現されている「知識」内の言葉について説明を加えておく.分かち書きには3種類の区切り方がある.1つ目が語と語の間に1文字分のスペースをあけることで,表中,「区切る」とはスペース(空白)をおくことを意味する.とくに「2回区切る」とは,2つのスペースを連続して置くことで,このようなことは句点の後や倒置文において生じる.3つ目がスペースをあけずに続けて書く場合で,これを「区切らない」と書く.知識の総数は現在のところ39個である.知識は以下の4種に大別できる.\begin{enumerate}\item[(1)]{\bf句点,かっこ,スペースに関する知識}\end{enumerate}\begin{quote}\vspace{0.3cm}\begin{flushleft}点訳のための分かち書きを行う上で,必ず守らなければならない知識を導入した.これらの知識には高い優先点数を与えた.\end{flushleft}\vspace{0.3cm}\end{quote}\begin{enumerate}\item[(2)]{\bf字種の変わり目に関する知識}\end{enumerate}\vspace{0.3cm}\begin{quote}\begin{flushleft}字種の変わり目に着目した知識を導入した.様々な字種の組合せについて11個の知識で対応する.\end{flushleft}\end{quote}\vspace{0.3cm}\begin{enumerate}\item[(3)]{\bf漢字熟語,ひらがな書きの自立語,混ぜ書き語,助詞,接頭語・接尾語に関する知識}\end{enumerate}\vspace{0.3cm}\begin{quote}\begin{flushleft}字種の情報だけでは区切り方の曖昧な箇所について各種テーブルから得られる表層情報を基に区切り方を決定するための知識を導入した.\end{flushleft}\end{quote}\vspace{0.3cm}\begin{enumerate}\item[(4)]{\bfその他に関する知識}\end{enumerate}\vspace{0.3cm}上記(1)〜(3)を用いても区切り方が曖昧な箇所に対して導入した.知識の獲得は,通常のエキスパートシステムにおける知識ベースの構築手順に従って行った.手順としては,「点訳の手引」等に示されている分かち書きの規則のうち,表層情報を用いて記述できるものを知識として知識ベースに加えた.表~\ref{知識ベースAの知識一覧}のうち,句読点の分類の1-1,1-2,1-3,助詞の4-1,4-2がこれにあたる.また,「点訳の手引」では学校文法風に記述されている規則,例えば,「自立語の前を区切る」という規則を表層情報を用いて記述し,知識ベースに加えた.表~\ref{知識ベースAの知識一覧}における字種の変わり目の分類にある,3-1〜3-11,5-1〜5-3,6-1,6-2がこの例である.また,予備実験の結果,表~\ref{知識ベースAの知識一覧}のその他,10-1〜10-6のような知識を知識ベースに加えた.これらは情報処理関連の文献に出現することが多く,表情情報を用いて表現可能な知識である.このようにして知識を記述していくが,表層情報だけでは記述不可能な規則については対話処理で取り扱う.知識同士が競合した場合にどの知識を選択するかを決定するために各知識には優先点数を設定した.例えば,「機械的」のような漢字列について考える.「機械」は漢字2字熟語のため,表~\ref{知識ベースAの知識一覧}の知識7-2により,「械」と「的」の間を区切るという規則が適用される.一方,知識8-2により,接尾語の前は区切らないという規則が適用され,知識が競合する.この際,それぞれの知識に付与されている優先点数をみると,7-2の知識が1点,8-2の知識が2点で,8-2の知識の方が優先度が高いことがわかる.よってこの場合,知識8-2が適用され,「械」と「的」の間は区切らない.これは分かち書きとしては正解となる.知識ベースAのチューニングのため,我々は熟練ボランティアによって正しく分かち書きされた正解ファイルを用意した.正解ファイルを用いることにより,知識ベースAの知識によって正しく区切られる箇所を知ることができ,知識のチューニングを容易に行えるようにした.例えば表\ref{知識ベースAの知識一覧}の知識1-3は以下のように簡潔に表現するようにした.\hspace*{0.1em}\begin{tabular}{cclp{2cm}}{知識1-3}&{\(R_3\)~=~}&{(~~1-3~,~~9~,}\\&&{if~~(~~前の文字~=~読点~~)~,}\\&&{then~~区切り方~=~注目している文字間で区切る~~)}\\\end{tabular}ここで,右辺の第1項が知識の識別番号,第2項が優先点数,第3項が知識適用の条件部,第4項がその知識を適用した場合の区切り方である.第4項については前述のとおり「区切らない」「区切る」「2回区切る」の3通りがある.我々の提案する分かち書き知識は,文字と文字の間に注目して,その文字間を「区切らない」か,「区切る」か「2回区切る」かを順次判断していく.\subsubsection{自動分割部におけるユーザインタフェース}自動分割では,ユーザはツールバーに表示されているボタンをクリックすることにより,あるいはメニューバーからプルダウン式に表示されるメニューを選択することにより,「一段落ごと」あるいは「全文一括」のモードで分かち書きを行うことができる.「全文一括」モードでは,文書の全段落の現在何段落目を処理中であるかがダイアログボックスに表示される.\subsection{対話処理部}\subsubsection{対話処理のための知識ベース}対話処理部における知識の構築の基本方針は次の2つである.\begin{enumerate}\item{分かち書きの規則のうち,表層情報だけでは曖昧で区切り方を一意に決定できない規則を知識とした.}\item{自動分割処理の結果,誤っている可能性が高い区切り箇所の特徴をまとめて知識とした.}\end{enumerate}(1)については例えば,点訳のための分かち書きの規則として,\begin{itemize}\item{助動詞の「ない」の前は区切らない}\item{形容詞の「ない」の前は区切る}\end{itemize}という規則がある.この場合,「ない」の品詞が決定できないと正しく分かち書きが行われない.我々が今回採用している表層解析では「ない」の字種と「ひらがな書き自立語」であるという情報しかもたないため,「ない」の直前の区切りは常に曖昧である.このような分かち書き規則に対し,対話処理で用いる知識ベースBでは「『ない』の直前の区切りは曖昧であるのでユーザに提示する」という結論部によりユーザの指示を待つ.(2)については,「情報通信」のような漢字熟語の場合,正しくは「情報」と「通信」に分かち書きされなければならない.しかし漢字2字熟語,漢字3字熟語の2つの漢字テーブルを検索すると「情報」,「通信」,「情報通」が登録されている.本来ならばここで,「情報」+「通信」で「情報通信」という組合せが尤もらしいと判断されるべきである.しかし,「流体力学」のような漢字熟語の場合,「流体」「体力」「力学」と分割可能で,熟語が長くなればその組合せはさらに増える.ところで,表層解析では語と語の組合せ(前後の語の接続関係や,オーバーラップしているかどうか,熟語のすべての文字列がテーブルによってカバーされているかどうか,等)についてはチェックしない(3.2.1節参照).このために「情報通信」の例では,「情報通」が優先されて「情報通」「信」というように誤って分かち書きされてしまう.今回我々は簡便な前方最長一致の手法を用いることとしたため,漢字熟語の区切りはこのような誤りが多いことから,知識ベースBに「漢字連続部は分かち書きを誤る可能性が高い」ということでユーザに提示する.この漢字熟語分割手法についてはさらに検討を要する.\subsubsection{対話処理部におけるユーザインタフェース}自動分割における分かち書きが終了すると文書には分かち書きの区切りを表す赤いスラッシュと知識ベースBによって指摘された緑の三角と赤い網かけが表示される.図~\ref{実行例}中,スラッシュ2本が連続している箇所は「2回区切る」ことを現している.ユーザはそれぞれの文字間の区切りを見て,分かち書きに疑問がある場合は区切り箇所にマウスカーソルを合わせ,右ボタンをクリックすることにより,自動分割で使用されている分かち書きの知識を知ることができる.区切りを削除したい箇所では,削除したい区切りの上にマウスカーソルを合わせてマウスの左ボタンをクリックするだけでよい.反対に区切りを挿入したい箇所についても,区切りたい文字間にマウスカーソルを合わせて左ボタンをクリックすることによって区切りを挿入できる.図~\ref{実行例}は自動分割処理の後,どのような知識によって区切られているか(いないか)をダイアログボックスを開いて表示している画面である.ユーザはこれを見て,必要に応じて分かち書きの知識の追加,修正,削除を行うこともできる.また実用段階において,もし熟練ボランティアによってあらかじめ正解ファイルが与えられていれば,ユーザが行った区切りと用意された正解の区切りとを比較することによりユーザ自身の見落としやすい箇所や区切り過ぎている箇所を知ることができる.さらに,正解と比較した分かち書きの精度を計算させることも可能である.このような機能は初級点訳ボランティアの教育システムとしての可能性を示しているといえる.\begin{figure}[bht]\begin{center}\epsfile{file=ExecScreen8.epsi,height=88mm}\vspace{3mm}\caption{システムによるダイアログボックス表示画面}\label{実行例}\end{center}\end{figure} \section{実験} \subsection{実験方法}本システムは一般のボランティアが使用することを考慮してVisualC++を用いて開発を行い,Windows95上で動作する対話型システムとした.コンピュータソフトの入門的なテキスト(全4章)を用いて本システムの性能評価実験を行った.このテキストは文章数3463文,文字数にして113884文字であった.このテキスト全4章のうち,前半2章(文章数1226文,66678文字)を用いてそこに出現する語をすべてテーブルに登録し,残りの後半2章については特にテーブルをチューニングせずに,前半・後半それぞれについて正解率を求めた.分かち書きの正解率は次式によって計算した.なお,'空振り'とは必要のない箇所を区切ってしまった間違い,'見逃し'は区切り忘れの間違いとする.\begin{displaymath}{正解率(空振りなし)=(1-\frac{空振りの回数}{正解の区切り数})×100}\\\end{displaymath}\begin{displaymath}{正解率(見逃しなし)=(1-\frac{見逃しの回数}{正解の区切り数})×100}\\\end{displaymath}\subsection{不正解部分に関する考察}本システムで分かち書きが正しく行なわれなかった箇所については,3つのケースに大別される.各ケースの占める割合はほぼ3:1:1である.\begin{enumerate}\item語がテーブルに登録されていないことによる誤り\begin{description}\item[正]偉大と/いえる.\item[誤]偉/大と/いえる.\item[理由]「偉大」が漢字2字熟語に未登録でかつ「大」が接頭語テーブルに登録されているため\end{description}\item分かち書き手法の不備による誤り\begin{description}\item[正]…しか/しない.\item[誤]…しかし/ない.\item[理由]前方最長一致法を用いているため\end{description}\item複合情報の不足による誤り\begin{description}\item[正]コンピュータ会社\item[誤]コンピュータ/会社\item[理由]「コンピュータ会社」という熟語は連濁を生じてしまい,「コンピュータガイシャ」と読まれるため\end{description}\end{enumerate}\subsection{市販の点字翻訳プログラムとの比較結果}市販の点訳プログラム(EXTRAVer.3.0)と本システムの分かち書きの精度の比較を示す.EXTRAが用いている分かち書き方式は公表されていないが,形態素解析を行っているものと思われる.表~\ref{table:d}より,空振りなし正解率,見逃しなし正解率ともにテーブルにすべて語が登録されている第1・2章においてもテーブルについて特にチューニングを行っていない第3・4章においても,本システムはEXTRAと同等程度の精度を得,本システムの有効性を確認できた.テーブルのチューニングでは,ひらがな書き自立語テーブルと接頭語・接尾語テーブルは前半2章に出現する語がすべて含まれるように構築したが,これらのテーブルは語数も少なく,書式も単純なので簡単に更新できる.従って,他の分野のテキストに対しても容易に適用できると考える.処理時間についてはEXTRAは点字表記(あるいはかな表記)までを一括して処理している.一方,本システムでは分かち書きまでしか行っていないため,単純には比較できない.しかし,EXTRAで翻訳した結果を点訳ボランティアが見直すためには膨大な時間が必要になるのに対し,本システムでは誤り箇所を選択的にユーザに指摘することができる.ユーザは指摘された箇所を選択的にチェックすればよいので,全テキストの分かち書き箇所のうち,T\%が指摘できると仮定し,さらにCPU時間は無視できる程度に短いとすると,全体のスループットは$\frac{1}{T}$となる.本システムの分かち書き処理における実験では約T=0.1であった.本システムの漢字かな変換処理部,かな点字変換処理部が,現在の分かち書き処理部と同程度の処理能力をもつと仮定すると,点字を出力するまでの全体のスループットは従来の点訳プログラムを利用した場合に比べて約数分の一から十数分の一程度に短縮されることがみこまれる.これはEXTRAの一括処理はユーザの介入も必要がなく,コンピュータ処理に要する時間は短いが,その後の見直しに非常に時間がかかり,複数のボランティアが何時間もかけて全文を複数回見直さなければならないのに対し,本システムでは対話処理的に作業が行えるために,見直しの作業に時間がかからないためである.また,実際の点訳ボランティアからは,「漢字かな混じり文のままのほうが分かち書きのチェックがしやすい」との意見もあり,本システムを試用した複数の点訳ボランティアから「誤りの箇所が色別に指摘されるので見やすく,作業がはかどりそう」との感想を得ている.{\begin{table}[htb]\caption{他のシステムとの精度の比較}\label{table:d}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{|c|}{EXTRA}&\multicolumn{2}{|c|}{本システム}\\\hline&空振りなし&見逃しなし&空振りなし&見逃しなし\\\hline\hline第1・2章&96.1\%&96.0\%&98.6\%&98.9\%\\\hline第3・4章&96.0\%&94.9\%&97.7\%&98.4\%\\\hline全体&96.0\%&95.4\%&98.2\%&98.7\%\\\hline\end{tabular}\end{center}\end{table}}\subsection{他の対話システムとの比較}畑田らの開発したOCR文書の認識誤りを一つずつダイアログボックスで確認して訂正する対話システムとの比較・検討を行う.このシステムでは誤りを含む単語を一斉に表示して正しい単語が第1候補にある場合,ワンタッチで修正を行うもので,第1候補はそれぞれの単語の行の上に表示されている.第1候補にない場合は,マウスカーソルを誤りを含む単語の所へ移動することにより単語の下にプルダウン式に第1候補から第5候補までが表示され,マウスポインタを移動してダブルクリックすることにより選んだ単語を誤った単語と置き換える.これに対し,本システムでは現在のところ,曖昧な分かち書き結果をユーザに提示するにとどまり,より正しい分かち書き箇所を提示するには至っていない.これは,スペルチェックのように正しい単語が明らかな場合と異なり,分かち書きの場合,前後にくる単語によって区切り方が異なるためである.一方,スペルチェックでは同じ単語に対して毎回同じようにスペルミスをするとは限らないが,分かち書きの場合,ある単語の組合せで一度修正が行われると次回も同じように修正される可能性が高いことから,ユーザの修正を事例として記録しておいて同じ単語の組合せについては一括,あるいは順次訂正のメッセージを表示し,それ以降の曖昧箇所の指摘から除外する,といった機能を追加することが考えられる.さらに,畑田らも用いている2文字,3文字が隣接して生じる文字の共起関係を利用することは分かち書きにおいても有効である.また,市販の点訳システムでも問題となる専門書に出現する数式やプログラム等,通常の文とは分けて特別扱いしなければならない部分についても本来対話的に処理できることが望ましい.本システムにおける分かち書きは段落単位で,あるいは全文書を一括に処理することができ,対話の応答時間はユーザの思考を妨げない程度のものである.現在のところ,知識ベースBによってみつけることのできる誤りは誤り全体の約4分の1程度であり,約5\%については正確に誤り箇所を指摘することができた.今後,この知識ベースBを充実させることにより,さらにボランティアの見直しの手間を軽減することができると考えられる. \section{おわりに} 文法情報を含む大規模な辞書の代わりに小規模なテーブルを用いて日本語の分かち書きを行い,曖昧な区切り箇所についてはユーザに問い合わせる対話型の分かち書き支援システムを構築した.このシステムでは表層情報に基づく分かち書きの規則を知識ベース化し,知識に優先度をつけることにより知識の適用順位を変化させることができる.本システムでは,形態素解析を行わない簡便な表層解析という方式を利用したが,知識の表現方法を表層情報から形態素情報に変えることにより,従来の形態素解析でも同様に知識を独立させ,知識ベース化することが可能である.視覚障害者の職域拡大にはコンピュータの利用技術を身につけることが有効であり,そのためには情報処理関連の専門書の点訳が必須である.しかしながら,一般図書と比べて専門書は市販の点訳プログラムで翻訳すると誤りが多く,点訳ボランティアに利用されていない.このような理由から今回は点訳の対象を情報処理関連の専門書としたが,表層解析用のテーブルを変更することで,他の分野のテキストも容易に分かち書き可能である.現在,対話の有効性を確認するため,本システムの対話処理部で指摘できる誤りの率を上げること,冗長な誤り指摘を減らすことについて検討を進めている.さらに,ユーザの修正に応じてシステムが自動的に誤り箇所を変更・修正したり,以前修正した箇所を覚えておいてユーザに提示するようなシステムの自己学習機能について検討し,対話処理によって分かち書きがどの程度容易になるか,あるいは分かち書き処理の作業時間をどの程度短縮できるか等について調査し,ユーザインタフェースを向上させていきたい.今後は,漢字に読みをつけ,点字のフォーマットにあわせて出力できるようにする予定である.また,ユーザの修正箇所と修正結果を記憶しておいて,次に同等あるいは類似の表現が出現したときにユーザの修正を優先するような学習機構の導入が課題である.\newpage\acknowledgment研究の機会を与えて下さった筑波大学電子・情報工学系西原清一教授に感謝致します.また,本研究を進めるにあたって有意義なコメントを頂いた筑波大学理工学研究科の西森雄一氏,水野一徳氏に感謝致します.点訳の方法をご教示くださり,さらに精度のチェックに御協力頂いた筑波技術短期大学視覚部情報処理学科夏目武先生,長岡英司先生,遠藤純子氏,秘書の辰巳公子氏に深く感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v05n4_06}\begin{biography}\biotitle{略歴}\bioauthor{鈴木恵美子}{1981年筑波大学第三学群情報学類卒業.1983年同大学大学院理工学研究科修士課程修了.同年,日本アイ・ビー・エム(株)入社.同社東京基礎研究所において日本語文書校正支援システム・日英機械翻訳システムに関する研究に従事.1990年より東京家政学院筑波短期大学情報処理科勤務.現在,東京家政学院筑波女子大学短期大学部情報処理科助教授.情報処理学会,電子情報通信学会,科学教育学会,計量国語学会各会員.}\bioauthor{小野智司}{1997年筑波大学第三学群情報学類卒業,現在筑波大学大学院理工学研究科在学中.知識処理,機械学習の研究に従事.情報処理学会会員.}\bioauthor{狩野均}{1978年筑波大学第一学群自然学類卒業.1980年同大学大学院理工学研究科修士課程修了.同年,日立電線(株)入社.同社オプトロシステム研究所において人工知能・神経回路の応用に関する研究に従事.1993年より筑波大学電子情報工学系.現在,同助教授.制約に基づく問題解決,遺伝的アルゴリズムの研究に従事.工学博士.1992年電気学会論文賞受賞.計測自動制御学会,情報処理学会,人工知能学会等各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N04-10
\section{序論} \label{chap:inin}X(旧Twitter\footnote{研究期間中にサービス名称が変更された.以降,本論文ではTwitterの名称で統一表記する.})やFacebookなどのSNSサービスの普及により,日々,多くの人々によって様々な情報がSNS上に投稿,発信されている.その大量の投稿からは,しばしば利用者にとって有益な情報が取得でき,例えば,利用者は検索機能などを通して大量にある投稿の中から特定地域の天候情報や災害状況など所望の情報を得ることができる\cite{kruspe-etal-2021-changes}.以前から,このようなユーザにとって有益な地域情報をあらかじめ地域ごとに自動的にまとめ上げておき,ユーザ要求に応じて提示するサービスが望まれてきたが,その実現のためには,情報源となる各投稿が投稿された場所を特定する必要がある.SNSサービスの中には投稿場所の情報をメタ情報として保持している場合もあるが,例えば,Twitterにおける位置情報付き投稿は全投稿の1\%に満たないことが報告されている\cite{sloan2013knowing}.また,SNS投稿への位置メタ情報の付与は縮小傾向にあるとの報告もあり\cite{kruspe-etal-2021-changes},メタ情報から得られる投稿場所情報には限りがあると言える.そこで近年,SNS投稿文書からそれが投稿された場所(地理的位置)を推定する文書ジオロケーション課題に関する研究が進められている\cite{okajimajapanese,lau2017end,hasni2021word}.文書ジオロケーション課題では,文書内に現れる地名やランドマークへの言及(例えば,「東京」や「東京タワー」)が,投稿がなされた地理的位置を推定する有力な手がかりになることが多い.しかしながら,それらの中には地理的な曖昧性を含んでいる場合もある.例えば,図\ref{fig:document_geolocation}の例では,投稿文書内の「中華街」や「ランタンフェスティバル」という言及が,この投稿文書が投稿された地理的位置の絞り込みには寄与しそうであるが,この情報だけでは特定の一箇所に絞り込むまでには至らない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[b]\begin{center}\includegraphics{31-4ia9f1.pdf}\end{center}\hangcaption{47都道府県レベルでの文書ジオロケーション課題の様子(下線部は手がかりとなりそうであるが,この情報だけでは特定の一箇所に絞り込むには至らない).}\label{fig:document_geolocation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の背景を受けて,本研究では,文書内に出現する地理的位置属性をもつ事物への言及,すなわち,実世界上の地理的位置をあらわす地名や,一定の期間,実世界上のある地理的位置に留まって存在している施設や組織などへの言及に対し,その地理的位置の特定のしやすさを表す指標として,地理的特定性指標を提案する.先程の例で言えば,文書内における「東京」や「東京タワー」という言及は地理的特定性が高く,「中華街」や「ランタンフェスティバル」はそれらに比べると地理的特定性が低くなると考えられるが,本研究では,このような値をデータから客観的に推定する.そして,既存の文書ジオロケーション手法に地理的特定性指標の推定値の情報を取り込んだ文書ジオロケーション実験を実施し,文書ジオロケーション課題における地理的特定性指標の有効性を検証する.なお,本論文では以降で「エンティティ」および「言及」という用語を用いるが,本研究では研究遂行の便宜性から,エンティティリンキング課題の一つの設定であるWikification課題\cite{mihalcea2007wikify}を参考にし,Wikipediaの各エントリページを「エンティティ」と捉え,文書内でそれらエンティティを参照するために使用されている個々の言語表現をエンティティに対応する「言及」と呼ぶ.また,詳細は後述に譲るが,本研究では地理的特定性の値を算出するためにWikipediaページ内にある一部のアンカ文字列に注目する.これらも便宜的に「言及」と呼ぶ.両者の「言及」を図示すると,図\ref{fig:mentions}のようになる.前者(図\ref{fig:mentions}左)の文書内の「言及」はエンティティリンキング課題と同様に文書内の各トークンを指す用語として使われる.一方,後者(図\ref{fig:mentions}右)のアンカ文字列である「言及」は,それぞれのアンカ文字列の文字列の違いを区別する意図で使われており,トークンではなくアンカ文字列のタイプを指している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[b]\begin{center}\includegraphics{31-4ia9f2.pdf}\end{center}\hangcaption{本論文での用語「エンティティ」と「言及」の整理.図左は文書内の言及,図右はWikipedia内アンカ文字列としての言及を示している.}\label{fig:mentions}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{文書ジオロケーション}\label{chap:ref_geolocation}文書ジオロケーションとは,SNS投稿などの文書を入力とし,その入力文書が投稿された地理的位置を推定する課題である.この課題は,SNSサービスの普及に合わせて2010年代から取り組まれており,欧米諸語では,WNUT2016\cite{han2016sharedtask},VarDial2020\cite{gaman-etal-2020-report},VarDial2021\cite{chakravarthi-etal-2021-findings-vardial}によって共有タスクに設定されるなど盛んに議論がなされている.また,類似課題として,あるSNSユーザの複数投稿文書からユーザの所在地を推定するユーザジオロケーション\cite{tien2018a,miyazaki2018geolocation,huang2019a,tian2020a}に関する研究も活発である.初期の文書ジオロケーション手法では,入力文書中の単語に主に注目して,分類に有効な単語の選択処理\cite{han2012geolocation}やフィルタリング処理\cite{morikuni2015a}が提案されている.Twitterデータを対象にする場合は,ハッシュタグを特徴量に利用する研究\cite{chi-etal-2016-geolocation}などもある.深層学習の普及後は,単語埋め込み表現を利用した手法\cite{miura2016simplegeo},CNNに基づく手法\cite{fornaciari2019geolocation},LSTMに基づく手法\cite{mahajan2021a},BERTに基づく手法\cite{scherrer2021a}など,さまざまモデルやネットワークアーキテクチャが本課題に採用されている.さらに,入力文書の情報に加えて分類に有益な追加情報を深層学習ベースのモデルに取り込む研究もある.Lauらが提案したdeepgeoモデル\cite{lau2017end}は,入力となるSNS投稿文書に加え,投稿文書の投稿時間や投稿者プロフィールの居住地情報を利用するLSTM-CNNベースのニューラルモデルである.以上のように,文書ジオロケーション課題に有効なモデルや特徴量を探るさまざまな検討があるが,これまでのところ,本研究で提案する地理的特定性という概念を文書ジオロケーション課題に導入した研究はなされていない.本研究では,後述する文書ジオロケーション実験でのベースラインモデルとしてdeepgeoを採用する.deepgeoの詳細については\ref{chap:deepgeo}節で後述する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{Toponymresolution}Toponymresolutionとは,文書内に含まれる地理的位置属性をもつエンティティへの言及に着目し,その言及が文書内で実際に参照しているエンティティを推定する課題である.先の文書ジオロケーションは文書単位で地理的位置を推定する課題であったが,Toponymresolutionは文書内の言及単位で地理的位置を推定する課題である.例えば,マンチェスターという名前の都市はイギリスにもあるがアメリカ合衆国にも存在する.この時,文書内に現れた「マンチェスター」がどの都市を参照しているかを推定する.Toponymresolutionは,Leidnerら\cite{leidner2007toponym}によって評価用英語データセットが整備されたことにより,活発な研究が進められるようになった.その後,松田ら\cite{ma2017}によって日本語データを対象にした本課題に関連したコーパスが作成されている.地理的特定性の指標値を推定することは,Toponymresolutionを解くことに似ているが,異なる部分も存在する.具体的には,Toponymresolutionでは言及が参照しているエンティティを1つに絞り込むことを目的としているが,本研究における地理的特定性の指標値は,言及が参照しているエンティティが所在する地理的位置に関して,その特定のしやすさを推定していると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.3\subsection{エンティティリンキング}\label{chap:ref_el}エンティティリンキングとは,文書内に含まれる言及に既存知識ベースのエントリを対応付ける課題である\cite{bunescu2006using}.エンティティリンキングでは対応付け先を何らかの既存知識ベースに固定するものの,地理的位置属性の有無に関わらず文書内に含まれる言及を処理の対象としており,Toponymresolutionをより一般化した課題であると言える.特に,知識ベースとしてWikipedia\footnote{\url{https://en.wikipedia.org/}}を採用し,文書内の言及をそれが参照しているWikipediaのエントリページに対応付ける課題をWikificationという\cite{mihalcea2007wikify}.Wikificationでは,ある言及が与えられた時,候補生成とエンティティ同定という2ステップで処理が実行される.候補生成ではWikipediaページに含まれるアンカ文字列とそのリンク先ページを用いた手法によって言及の対応先となるページの候補が決定される.そして,次のエンティティ同定において,候補の中から言及の対応先を1つに特定する.エンティティ同定の代表的な手法の一つにHoffartら\cite{hoffart2011robust}の手法がある.この手法では,Wikipedia内のアンカ文字列からエントリページへのリンク回数に基づいて,ある言及がエントリページを参照する確率(ポピュラリティと呼ばれる)を求め,対応先の特定に用いている.本研究では,地理的特定性の指標値を推定する際に,Wikificationの各ステップの考え方を参考にする.詳細は\ref{chap:ent_geoinfo}節で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3% \section{地理的特定性の定義} \label{chap:geo_spec}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{地理的特定性の構成要素}地理的位置属性をもつエンティティへの文書内での言及に注目し,それぞれの言及に対する地理的位置の特定のしやすさを表す指標として地理的特定性を提案する.言及の地理的特定性を求める際に,エンティティに対する地理的特定性の情報を用いるために,エンティティに対する地理的特定性指標もあわせて検討する.まず,本節において,地理的特定性の構成要素について述べ,続く\ref{chap:ent_geoinfo}節および\ref{chap:mnt_geoinfo}節において,地理的特定性の指標値の具体的な算出方法について述べる.地理的特定性は,エンティティと言及との対応関係,および,それら関係に関する人々の一般的な認知の度合いという少なくとも2種類の要素から影響を受けると考えられる.そこで本研究では,地理的特定性は地理的曖昧性(geographicambiguity)および名称専有性(nameexclusivity)という2種類の指標の対で表されるものとする.ここで,地理的曖昧性はエンティティと言及との対応関係に基づく指標であり,名称専有性はエンティティと言及との対応関係に関する人々の一般的な認知の度合いに基づく指標である.以下でそれぞれについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{地理的曖昧性}\label{chap:amb_desc}例えば,日本には「中央区」という地名がいくつか存在する.これらはエンティティとしては,東京都に所在する中央区や大阪府大阪市に所在する中央区といったように,それぞれ別の地理的位置をもつ地域であるが,名称が同一である.このように複数の地域が同名となっている場合は,その名称単体では地理的位置を特定する程度が弱い,すなわち,このようなエンティティおよびそれらへの言及はそうでない場合に比べて地理的特定性が低いと考えられる.そこで本研究では,エンティティまたは言及が異なる地理的位置属性の地域を同名でもっている程度を地理的曖昧性と定義する.地理的曖昧性が高いほど,地理的特定性は低くなると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.3\subsection{名称専有性}\label{chap:exc_desc}先程の「中央区」と同じように,日本には「横浜」と呼ばれる地域は複数箇所存在する.このように名称に曖昧性がある場合,本研究では先述の通り,そうでない場合に比べて地理的曖昧性は高くなると考える.しかし,一般的な文脈において\footnote{完全な住所表記を伴う場合は,当然ながら,曖昧性は生じないが,文書内での一般的な文脈において,完全な住所表記で地名を表すことは稀である.}「横浜」と言えば,高知県や福岡県に所在する地域である横浜よりも人々の認知度のより高い地域であると考えられる神奈川県横浜市の事であると連想されやすいだろう.このように,複数の地域が同名で呼ばれており地理的曖昧性が高くなるような場合でも,人々の一般的な認知の度合いによって,地理的位置の特定のされやすさは変化する.そこで本研究では,エンティティまたは言及が特定のものとして認知される程度を名称専有性と定義する.先程の地理的曖昧性とは異なり,名称専有性が高いほど,地理的特定性は高くなると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{エンティティに対する地理的特定性の推定} \label{chap:ent_geoinfo}本節では,言及に対する地理的特定性の指標値を推定する準備として,エンティティに対する地理的特定性指標値を推定する具体的な方法について述べる.\ref{chap:ref_el}節で見たように,エンティティリンキングでは,エンティティ同定を行うために,Wikipedia内の個々のエントリページをエンティティ,それらエンティティへのリンクを形成するアンカ文字列を言及と捉え,ある言及からエンティティへリンクする確率(ポピュラリティ)を推定する手法がある\cite{hoffart2011robust}.本研究では,この手法を参考にして,エンティティに対する地理的特定性指標値を推定する.日本語Wikipediaにおいて,地理的特定性を求めたいページ(すなわちエンティティ)を$p_t$としたとき,まず,$p_t$へのリンクを形成するアンカ文字列(すなわち,言及)をすべて抽出する.抽出された言及集合を$M_{p_t}$とし,その要素を$m_i(i=1,2,...,|M_{p_t}|)$とする.次に,$M_{p_t}$の要素である各言及に対して,それがアンカ文字列となってリンクしているすべてのエンティティを抽出する.抽出されたエンティティ集合を$P_{p_t}$とし,その要素を$p_j(j=1,2,...|P_{p_t}|)$とする.このとき,$p_t$の地理的曖昧性$\mathrm{amb}({p_t})$は式(\ref{eq:amb})で表されるとする.すなわち,同じ言及で表される可能性のあるエンティティの数によってエンティティの地理的曖昧性を求める.\begin{eqnarray}\label{eq:amb}\mathrm{amb}({p_t})&=&|P_{p_t}|\end{eqnarray}ここで,$\mathrm{amb}({p_t})\geq1$である.次に,日本語Wikipediaにおいて,ある言及$m_i$が,あるエンティティ$p_j$へリンクを形成している回数を$l^{m_i}_{p_j}$としたとき,このリンク回数がある対象が認知される程度を近似的に表していると考え,$p_t$の名称専有性$\mathrm{exc}({p_t})$は式(\ref{eq:exc})で表されるとする.すなわち,対象とするエンティティへのリンクを形成している言及を含む全エンティティにおいて,そこから各言及を通して別のエンティティへリンクする際の当該エンティティへとリンクする相対頻度によってエンティティの名称専有性を求める.\begin{eqnarray}\label{eq:exc}\mathrm{exc}({p_t})&=&\frac{\displaystyle\sum_{m\inM_{p_t}}l^m_{p_t}}{\displaystyle\sum_{m\inM_{p_t}}\sum_{p\inP_{p_t}}l^m_p}\end{eqnarray}ここで,$0<\mathrm{exc}({p_t})\leq1$である.エンティティ「福岡ソフトバンクホークス\footnote{\url{https://ja.wikipedia.org/wiki/福岡ソフトバンクホークス}}」を例にして,エンティティの地理的特定性指標値の具体的な計算例を示す(図\ref{fig:entity_geoinfo}も参照).この例では,$p_t=$「福岡ソフトバンクホークス」である.まず,$p_t$の地理的曖昧性であるが,「福岡ソフトバンクホークス」へのリンクを形成する言及集合$M_{p_t}$は図\ref{fig:entity_geoinfo}の左側のようになる.そして次に,$M_{p_t}$の要素である各言及からリンクしているすべてのエンティティを抽出することで,図右の抽出されたエンティティ集合$P_{p_t}$を得る.この集合の要素数は96件であるので,$\mathrm{amb}({p_t})=96$となる.次に,$p_t$の名称専有性であるが,これには図中央に示す$M_{p_t}$の各要素から$P_{p_t}$の各要素へ形成されるリンクの回数を用いる.図の例では,例えば言及「ソフトバンク」からエンティティ「福岡ソフトバンクホークス」へのリンクが331回であることが示されている.式(\ref{eq:exc})の分子は「福岡ソフトバンクホークス」へのリンク回数の和であるので$1+331+55+...+l^{m_i}_{p_t}+...$となる.また,分母は全体的な和であるので$527+605+1+331+55+...+l^{m_i}_{p_j}+...+1668$と計算され,(省略部分の和も計算すると)最終的に$\mathrm{exc}({p_t})=0.568$となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure*}[t]\begin{center}\includegraphics{31-4ia9f3.pdf}\end{center}\hangcaption{エンティティ「福岡ソフトバンクホークス」の地理的特定性を計算する過程%.「福岡ソフトバンクホークス」の地理的特定性の計算に関連するメンションの集合を図左の赤色の四角,また,それらと同じ文字列のメンションでリンクされるエンティティページの集合を図右の青色の四角で示している.点線は左のメンションから右のエンティティページへリンクがあることを示す.点線上の数値は当該リンクがWikipedia内に現れる回数である.視認性を意識し,始点が同じメンションの点線と数値は同色で描かれている.%}\label{fig:entity_geoinfo}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{言及に対する地理的特定性の推定} \label{chap:mnt_geoinfo}続いて,言及に対する地理的特定性の指標値を求める具体的な方法について述べる.ある言及が文書中に現れた時,そのことによって地理的位置が特定されるその度合いは,その言及によって表される可能性があるエンティティ候補の地理的特定性に依存すると考えられる.そこで,本節では,前節で述べたエンティティに対する地理的特定性の指標値に基づいて,言及に対する地理的特定性指標値を求める.また,エンティティと違い,言及は文書中の文字列として現れることで文書分類などの応用課題における特徴量などに直接的に利用される.そのため,言及に対する地理的特定性指標の表現方法は,後段の応用課題を考慮して検討することが望ましい.本研究では応用課題として,入力文書をその作成位置(投稿位置)に基づいて47都道府県に分類する文書ジオロケーション課題を想定したうえで言及に対する地理的特定性指標の検討を進める.地理的特定性を求めたい言及を$m_t$としたとき,日本語Wikipediaにおいて,$m_t$がアンカ文字列となってリンクしているすべてのエンティティを抽出し,その集合を$P_{m_t}$とする.この時,Okajimaら\cite{okajimajapanese}の手法に基づき,$P_{m_t}$の各要素となるエンティティ$p_j$に対して,そのページの本文内容に初めて登場する都道府県名の情報をそのページの都道府県要素として記憶する\footnote{実際,ページの都道府県要素を誤りなく決定することは難しく,将来的には本文情報の他にWikidataやWikipediainfoboxの構造化情報を利用することも考えられる.また,エンティティによっては複数箇所に所在する場合もあり,都道府県要素が1つに定められない場合もある.}.次に,この都道府県要素の値に基づいて,$P_{m_t}$を47個の部分集合に分割する.ある都道府県$k$に対応する$P_{m_t}$の部分集合を$P_{m_t}^k$としたとき,$P_{m_t}^k$の要素に従って,都道府県$k$に関する,エンティティの地理的曖昧性の最大値$\mathrm{max\_amb}(m_t,k)$を求める.\begin{eqnarray}\label{eq:ms}\mathrm{max\_amb}(m_t,k)&=&\begin{cases}\max_{p\inP_{m_t}^k}\mathrm{amb}({p})&P_{m_t}^k\ne\phi\\0&otherwise\end{cases}\end{eqnarray}また同様に,都道府県$k$に関する,エンティティの名称専有性の最大値$\mathrm{max\_exc}(m_t,k)$を求める.\begin{eqnarray}\label{eq:ms2}\mathrm{max\_exc}(m_t,k)&=&\begin{cases}\max_{p\inP_{m_t}^k}\mathrm{exc}({p})&P_{m_t}^k\ne\phi\\0&otherwise\end{cases}\end{eqnarray}最後に,以上で求めた47都道府県に対応する$\mathrm{max\_amb}(m_t,k)$を要素とする47次元ベクトルを構成し,これを言及$m_t$に対する地理的曖昧性の値とする.また同様に,$\mathrm{max\_exc}(m_t,k)$を要素とする47次元ベクトルを言及$m_t$に対する名称専有性の値とする.式(\ref{eq:ms}),式(\ref{eq:ms2})において,予備実験では最小値の採用も検討したが,最大値に比べて地理的曖昧性では1付近,名称専有性では0付近に値が過度に集中し,言及間の特徴が捉えづらくなる傾向が観察されたことから今回は最大値を採用することにした.先述の通り,本研究では応用課題として,47都道府県に分類する文書ジオロケーション課題を想定している.この場合は,都道府県ごとの情報が有用であると考えられるため,指標値はスカラー値ではなく,都道府県に対応した47次元ベクトルで表現することにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{評価実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{実験目的}\label{sec:exp_goal}既存の文書ジオロケーション手法に地理的特定性指標の推定値の情報を特徴量として追加することを通して,文書ジオロケーション課題における地理的特定性指標の有効性を検証する.具体的な検証項目は以下である.\begin{enumerate}\item地理的特定性の構成要素である地理的曖昧性と名称専有性のそれぞれが文書ジオロケーション課題において有効であるか\itemこれら両方の構成要素を組み合わせて利用することが文書ジオロケーション課題において有効であるか\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{文書データ}\label{chap:data}実験には,平川ら\cite{hi2020}が作成した観光ドメイン日本語Twitter投稿文書データを用いた.このデータセットは,2014年と2015年に日本国内から投稿された日本語Tweetから構成されている.全ての投稿には,ジオタグ(投稿した場所の緯度経度情報)が付与されている.本実験では,ジオタグから投稿が行われた都道府県を特定し,それを正解ラベルとした.すなわち,本実験の出力クラス数は都道府県47クラスである.また,各投稿にはメタ情報として,文書ジオロケーションモデルへ入力として用いる投稿文書の投稿時間情報,および投稿者プロフィールの居住地情報が付いている.投稿時間情報は全ての投稿に付いているが,居住地情報はユーザの任意登録情報であるため,欠損がある.本データセットは訓練データ200,000件,開発データ4,000件,評価データ7,000件から成る.評価データにおける最頻クラス上位5件の事例数とその割合を確認すると,1位から順に,東京都:1,236件(17.66\%),北海道:661(9.44\%),大阪府:493(7.04\%),愛知県:331(4.73\%),京都府:321(4.59\%)であり,47都道府県での平均事例数は148.9,標準偏差は206であった.全ての評価事例を最頻クラスである「東京都」に分類するベースライン精度を考えると,後述するAccuracyは17.66\%となる.また平川らは,課題の難しさを測る基準のひとつとして,人手で47クラスを分類した場合の精度を求めている.評価データからランダムにサンプリングされた300件に対して人手による分類を行った結果,そのAccuracyは76.7\%であった.この値は本評価実験における参考上限値と見なせる.データセット内の事例の中には,非常に短く手がかり情報がまったく含まれていない事例も無視できない程に存在しており,やや低めの参考上限値となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3\subsection{指標値の推定対象}指標値の推定に用いるWikipediaデータには,2021年5月20日付の日本語Wikipediaダンプデータ\footnote{\url{https://dumps.wikimedia.org/jawiki/}から取得}を用いた.このダンプデータの中から地理的位置属性をもつエンティティのページを処理対象ページとした.あるエンティティが地理的位置属性をもつか否かの判断は森羅プロジェクト\cite{shinra}\footnote{\url{http://2022.shinra-project.info/}}が提供する情報に基づいた.すなわち,森羅プロジェクトによって各エンティティに付与された拡張固有表現ラベル\footnote{\url{http://ene-project.info/}}のうち場所を表す固有表現である組織名,地名,施設名,イベント名のラベルが割り当てられたページを地理的位置属性をもつエンティティのページとした\footnote{「曖昧さ回避」ページは,通常のエントリではないため,事前に除外している.}.そして,これら処理対象ページに対して,WikiExtractor\footnote{\url{https://github.com/attardi/wikiextractor}}を用いて本文を抽出し,その後,本文からBeautifulSoup\footnote{\url{https://www.crummy.com/software/BeautifulSoup/}}を用いてアンカ情報を取得した.ただし,すべてのアンカ文字列を言及として採用するとノイズとなる事例が観測されたことから,今回は,ある言及$m$からあるエンティティ$p$へのリンク情報を取得する際,以下のいずれかの条件に該当するものは削除した.\begin{enumerate}\item言及$m$と,そこからリンクされるエンティティ$p$の(見出しの)名称の間に完全一致関係あるいは包含関係がない.\item言及$m$からエンティティ$p$へのリンク回数が5回未満であり,かつ,$p$へリンクする言及集合の中で$m$のリンク回数が最大でない.\end{enumerate}例えば,条件(1)によって言及「北海道」からエンティティ「東京都」へのリンク情報が削除される.このような事例はWikipedeia編集者の編集誤りであると考えられる.%また,条件(2)で削除される例として参照表現がある.例えば,言及「前回大会」からエンティティ「第94回全国高等学校野球選手権大会」へリンクがある場合である.参照表現は通常の表現よりもさまざまエンティティとリンク可能でノイズとなりやすいため削除した.ただし,このような表現が必ずしもノイズとなるわけではないため,今回は経験的に回数条件を設けた.以上の手続きによって得られた推定対象に対し,\ref{chap:ent_geoinfo}節および\ref{chap:mnt_geoinfo}節で述べた方法によって地理的特定性の値を求めた.この内,先述の観光ドメイン日本語Twitter投稿文書データに出現する12,758件の言及\footnote{参考として,これらの推定には,43,189件のエンティティに対する指標値の推定値が用いられていた.}への推定値を実験に用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[b]\input{09table01.tex}\caption{エンティティの地理的特定性の例(ambは地理的曖昧性,excは名称専有性を示す)}\label{table:geoinfo_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで,推定値の具体例を確認しておく.まず,表\ref{table:geoinfo_example}は,エンティティに対する地理的特定性の例である.ここでは,地理的曖昧性の値の高低と名称専有性の値の高低の組み合わせの例を示している.例えば,八坂神社は全国に数多くあるが,その総本社である京都府京都市に所在する八坂神社はとりわけ認知度が高いと思われる.エンティティ「八坂神社(京都市)」は地理的曖昧性が高く,かつ名称専有性が高くなっており,想定に即した指標値となっている.また,エンティティ「竹下通り(福岡市)」は地理的曖昧性が低く,かつ名称専有性が低い例である.日本語Wikipediaへの登録データとして「竹下通り」という名称をもつ場所は東京都渋谷区と福岡県福岡市の2ヶ所にのみ存在し,地理的曖昧性は低い値となっている.また「竹下通り」という名称からは一般的には渋谷区の竹下通りが連想され,福岡市の竹下通りは名称専有性が低い結果となっている.エンティティ「中央区(大阪市)」およびエンティティ「いろは坂(日光市)」に関しても,\ref{chap:exc_desc}節の定義の際の予想に従った値の高低となっていることが確認できる.次に,言及に対する地理的特定性の例を表\ref{tab:geovec_itsukushima}および表\ref{tab:geovec_chuoku}に示す.表\ref{tab:geovec_itsukushima}は言及「厳島神社」の例である.厳島神社という名称の神社は複数の都道府県に存在するが,一般には広島県に存在するエンティティへの言及であると連想されやすいと思われる.表の値は確かに広島県で大きな値となっていることが確認できる.また,表\ref{tab:geovec_chuoku}は言及「中央区」の例である.中央区も複数の都道府県に存在するが,「中央区」で特に有名な都道府県は存在しないと思われる.表の値もそれを反映しており,「厳島神社」ほどの偏りは見受けらない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[t]\input{09table02.tex}\caption{言及「厳島神社」の地理的特定性}\label{tab:geovec_itsukushima}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{09table03.tex}\caption{言及「中央区」の地理的特定性}\label{tab:geovec_chuoku}{\vskip-5pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4\subsection{文書ジオロケーション手法}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.1\subsubsection{deepgeo}\label{chap:deepgeo}実験に用いるベースラインモデルとして,\ref{chap:ref_geolocation}節で述べたdeepgeo\cite{lau2017end}について説明する.deepgeoは,投稿文書や投稿時間,投稿者プロフィールの居住地情報から地理的位置推定を行うLSTM-CNNベースのニューラルモデルである.deepgeoではTextNetworkというサブネットワークで投稿文書を処理している.TextNetworkは,投稿文書の文字埋め込みベクトルの系列を入力として受け,最終的に投稿文書に対するベクトル表現を得る.入力の$t$番目の文字埋め込みベクトルを$\bm{x_t}(0\leqt\leqT-1)$としたとき,TextNetworkは以下で表される.ここで$T$は投稿文書の文字数である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{eqnarray}\bm{h_t^f},\bm{h_t^b}&=&\mathit{BiLSTM}(\bm{x_t})\label{eq:lstm_input}\\\hat{\bm{x_t}}&=&\bm{h_{t-1}^f}\oplus\bm{x_t}\oplus\bm{h_{t+1}^b}\\\bm{g_t}&=&\mathit{ReLU}(\mathit{Conv}(\hat{\bm{x_t}}))\\\hat{\bm{g_{t'}}}&=&\mathit{max}(\bm{g_t},\bm{g_{t+1}},...,\bm{g_{t+P-1}})\\\alpha_{t'}&=&\bm{v^\top}tanh(W_v\hat{\bm{g_{t'}}})\\a_{t'}&=&\frac{exp(\alpha_{t'})}{\sum^{T-P}_{j=0}exp(\alpha_j)}\label{eq:self_attention}\\\bm{f_{text}}&=&\sum_{j=0}^{T-P}a_j\hat{\bm{g_j}}\end{eqnarray}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで,$\oplus$はベクトルの連結,$\it{Conv}$は畳み込み層の適用,$\it{max}$はmax-over-timepoolingを行う関数であり,$\bm{v},W_v$は学習対象の重みパラメータである.まず,BiLSTMと畳み込み層を用いて文字ごとの中間表現$\bm{g_t}$を得る.その後,$\bm{g_t}$に対して窓幅$P$のmax-over-timepoolingを適用することで,$\hat{\bm{g_{t'}}}(0\leqt'\leqT-P)$を得る.この$\hat{\bm{g_{t'}}}$に対してセルフアテンションを適用し,最終的なテキスト表現ベクトルとして$\bm{f_{text}}$を得る.deepgeoの最終的な予測は,投稿文書を処理するTextNetworkの出力$\bm{f_{text}}$の他に,投稿時間を処理するサブネットワークの出力$\bm{f_{time}}$と,投稿者プロフィールの居住地を処理するサブネットワークの出力$\bm{f_{loc}}$から計算される.具体的な計算方法を以下の式で表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{eqnarray}\hat{\bm{f}}&=&\bm{f_{text}}\oplus\bm{f_{time}}\oplus\bm{f_{loc}}\\\bm{o}&=&tanh(W_o\hat{\bm{f}})\\\bm{y}&=&softmax(\bm{o})\label{eq:deepgeo_last}\end{eqnarray}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで$W_o$は学習対象の重みパラメータである.また,詳細は割愛するが,投稿時間ベクトル$\bm{f_{time}}$は,投稿文書の投稿時間情報からRBFネットワークを介することで得られ\footnote{Lauらの原著では,時間に関する情報として他に,Timezone,UTCOffset,Acc.CreationTimeの3種類を利用するが,本研究ではこれら情報は用いない.},居住地ベクトル$\bm{f_{loc}}$は,投稿者プロフィールの居住地テキストの文字系列から畳み込みネットワークを介することで得られる.式(\ref{eq:deepgeo_last})の$\bm{y}$は47次元のベクトルで,それぞれの要素が各都道府県に対応する.deepgeoの最終的な予測は,$\bm{y}$の最も大きい値を示した要素と対応する都道府県とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.2\subsubsection{deepgeo+MentionVec}Wikipediaベースの既存知識として,日本語Wikipediaエンティティベクトル\footnote{\url{http://www.cl.ecei.tohoku.ac.jp/~m-suzuki/jawiki_vector/}}(以下,エンティティベクトル)がある.エンティティベクトルは,日本語Wikipediaの本文全文から学習した単語とWikipediaページの300次元の分散表現ベクトルである.ここでは,後述する地理的特定性の情報を用いる手法の比較手法として,エンティティベクトルから作成した言及ベクトル(MentionVec)の情報をdeepgeoに加える手法をdeepgeo+MentionVecとする.具体的には,まず,各言及$m$に対して,それがアンカ文字列となってリンクしている日本語Wikipedia内のエンティティをすべて抽出する.そして,それらエンティティに対応するエンティティベクトルの平均ベクトルを言及$m$の言及ベクトルとして準備する.これらを,言及をキー,その言及ベクトルを値とするメンションDBとして保存しておく.そして,このベクトル情報を次のようにしてdeepgeoのTextNetworkに組み込む.\begin{itemize}\itemTextNetworkへの入力において,先頭から$t$番目の文字埋め込みベクトル$\bm{x}_t$に対して,$t$番目の文字が言及ベクトルの付与対象であれば対応する言及ベクトルを,付与対象でなければ言及ベクトルと同じ次元数(300次元)のゼロベクトルを連結してTextNetworkに入力する.\end{itemize}先頭から$t$番目の文字に対応する言及ベクトルを$\bm{m}(\bm{x}_t)$とすると,deepgeo+MentionVecでは,$\bm{x}_t$の替わりに次の$\bm{x'}_t$を式(\ref{eq:lstm_input})で採用する\footnote{この連結操作において,連結される言及が2文字以上で構成される場合,その言及を構成する各文字に対して同じ言及ベクトルが連結されることになる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{equation}\bm{x'}_t=\bm{x}_t\oplus\bm{m}(\bm{x}_t)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ある文字が言及ベクトルの付与対象であるか否かの判定,および付与対象である場合に付与する言及ベクトルの決定方法は以下の通りである.まず,入力文書に対してGiNZA\footnote{\url{https://megagonlabs.github.io/ginza/}}を用いて固有表現抽出を行い,抽出された固有表現のうち,場所(組織名,地名,施設名およびイベント名)を表す固有表現(を構成する各文字)が言及ベクトルの付与対象である.付与する言及ベクトルは,付与対象となる場所を表す固有表現とメンションDBのキーである言及を照合することで決定する.照合処理は,完全一致に加えて部分一致も許可する.固有表現と完全一致する言及はないが,固有表現に包含される言及がある場合は,それらのうち最長のメンションを照合したとして,その言及をキーとする言及ベクトルを付与する.もし,完全一致もしくは部分一致する言及が存在しない場合は,付与対象から外れ,ゼロベクトルが使われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.3\subsubsection{deepgeo+GeoVec}deepgeoのTextNetworkに\ref{chap:mnt_geoinfo}節で述べた言及の地理的特定性の値を取り込む.付与されるベクトル情報が異なることを除けば,ベクトル情報の取り込み方は,前項のdeepgeo+MentionVecと同様である.すなわち,\begin{itemize}\itemTextNetworkへの入力において,先頭から$t$番目の文字埋め込みベクトル$\bm{x}_t$に対して,$t$番目の文字が付与対象であれば対応する言及の地理的特定性ベクトルを,付与対象でなければ地理的特定性ベクトルと同じ次元数($47+47=94$次元)のゼロベクトルを連結してTextNetworkに入力する.\end{itemize}先頭から$t$番目の文字に対応する地理的特定性ベクトルのうち,地理的曖昧性ベクトルを$\bm{av}(\bm{x}_t)$,名称専有性ベクトルを$\bm{ev}(\bm{x}_t)$とすると,deepgeo+GeoVecでは,$\bm{x}_t$の替わりに次の$\bm{x'}_t$を式(\ref{eq:lstm_input})で用いる.\begin{equation}\bm{x'}_t=\bm{x}_t\oplus\bm{av}(\bm{x}_t)\oplus\bm{ev}(\bm{x}_t)\end{equation}さらに,\ref{sec:exp_goal}節の実験目的で述べた事項を検証するために,地理的特定性ベクトルのうち,地理的曖昧性ベクトル$\bm{av}(\bm{x}_t)$のみを連結する手法(deepgeo+GeoVec(曖昧性のみ)),名称専有性ベクトル$\bm{ev}(\bm{x}_t)$のみを連結する手法(deepgeo+GeoVec(専有性のみ))もあわせて検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.3\subsubsection{GeoVec(専有性のみ)}deepgeoを使わない素朴な手法として,入力文書に含まれる言及の名称専有性の値のみを用いて予測を行う.GeoVec(専有性のみ)では,入力文書に含まれる言及の名称専有性ベクトルの各要素の和をとり,その値が最大となる次元に対応する都道府県を出力する.なお,この手法では他の手法とは違い,言及が含まれない場合は何ら出力をおこなわないため,性能評価時においては,このような事例は必ず誤り事例として扱われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[b]\input{09table04.tex}\caption{各手法の文書ジオロケーション実験結果}\label{table:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5\subsection{実験結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5.1\subsubsection{各手法の文書ジオロケーション実験結果}実験の結果を表\ref{table:result}に示す.符号検定の結果,deepgeo+GeoVecと表\ref{table:result}に示した他の手法の間に,有意水準0.01で有意差があった.ここで,Accuracyは式(\ref{eq:accuracy})で定義される.\begin{equation}\label{eq:accuracy}Accuracy=\frac{正しく分類できた文書数}{入力文書数}\end{equation}表から,deepgeoに地理的特定性の値を加えた3つの手法(deepgeo+GeoVec(曖昧性のみ),deepgeo+GeoVec(専有性のみ),deepgeo+GeoVec)はいずれもオリジナルのdeepgeoよりも高い性能であることがわかる.また,deepgeo+GeoVec(専有性のみ)およびdeepgeo+GeoVecの2つの手法はdeepgeo+MentionVecよりも高い性能であることがわかる.MentionVecは日本語Wikipediaエンティティベクトルから作成した300次元のベクトルであり,地理的曖昧性と名称専有性はそれぞれ47次元のベクトルである.地理的特定性のほうが当該言及に対する多様な情報を保持していないにも関わらず,MentionVecよりも文書ジオロケーション課題において高い性能を示していることから,地理的特定性がより地理に特化した情報を保有できていることがわかる.また,地理的曖昧性と名称専有性を単独で追加した手法よりも両方を追加した手法のほうが高い性能となった.この結果から,地理的曖昧性と名称専有性はそれぞれ異なる情報を持つことがわかる.以上の実験結果を受けて,\ref{sec:exp_goal}節で述べた2つの項目に関して整理すると,以下となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item地理的特定性の構成要素である地理的曖昧性と名称専有性のそれぞれが文書ジオロケーション課題において有効である.\itemこれら両方の構成要素を組み合わせて利用することが文書ジオロケーション課題において有効である.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,以上の結果を踏まえながら,関連する周辺的事項について考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5.2\subsubsection{地理的位置を表す言及数ごとの予測結果}\label{chap:multimention}文書ジオロケーション課題において,deepgeo+GeoVec手法で地理的特定性の情報を活用するには,入力文書中に地理的位置を表す言及が存在している必要があり,地理的位置を表す言及が存在していない文書では有効に働かないと予想される.このことを実験的に確認するために,評価データを,その中に含まれる地理的位置を表す言及の数によって5つに分割して再評価した結果を表\ref{table:result_for_mention_num}に示す\footnote{言及数は,6.4.2節で述べた手続きによって言及ベクトルが得られた数を数えている.}.前節までの結果を受けて,ここでは,deepgeoとdeepgeo+GeoVecの結果を比較し,性能の高い方を強調表示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table*}[b]\input{09table05.tex}\caption{文書中に含まれる地理的位置を表す言及数ごとの結果(Accuracy)}\label{table:result_for_mention_num}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:result_for_mention_num}より,文書中に地理的位置を表す言及が全く存在しない場合と比較して,1つ以上の言及が存在する場合のほうが予測性能が高いこと,また,1つ以上の言及が存在する場合は,deepgeoよりもdeepgeo+GeoVecのほうが性能が高くなっていることが確認できる.この結果から,文書中に地理的位置を表す言及が存在する場合は,deepgeo+GeoVecが地理的特定性の情報を効果的に活用できている事がわかる.同時に,地理的位置を表す言及が含まれないときはdeepgeoのほうが性能が高くなっていることから,deepgeo+GeoVecが地理的特定性の情報に依存した予測を行っていることもわかる.言及の数が0個の場合の結果は,今回の課題設定の難しさを探る手助けになると考えられるが,表によると,0個の場合でも40\%程度の事例が正答できていることがわかる.このことから,入力文書内の言及の有無に関わらず,deepgeoが入力文書の文字系列から分類に寄与する特徴量をある程度学習していること,および,投稿者プロフィールの居住地情報が有力な特徴量として寄与していることが推察される.実際,deepgeoの原著\cite{lau2017end}でも,Lauらは投稿者プロフィールの居住地情報の重要性を指摘しており,今回の結果はLauらの結果を支持していると言える\footnote{ただし,投稿者プロフィールの居住地情報は登録がない場合や居住地とは無関係な情報も多く登録されているため,特徴量として決定的なわけではない.}.文書中の地理的位置を表す言及の数が0個から3個にかけては,deepgeoおよびdeepgeo+GeoVecのどちらとも言及数の増加とともに性能が上昇しているが,4個以上の場合は,言及数が3個の場合よりも,性能が下がっている.この原因として,以下の例のように,ひとつの文書に複数の都道府県関連言及が含まれることが考えられる.以前からこのような事例への対応は難しく,文書ジオロケーション課題における改善点のひとつであると指摘されている.今回の結果は,残念ながら地理的特定性を導入してもこの問題の解決には至っていないことが示唆される.\enumsentence[(a)]{...\underline{長野}から\underline{金沢}まで新幹線で\underline{小松}から\underline{福岡}まで飛行機も...(正解は「東京都」)}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5.3\subsubsection{都道府県ごとの予測結果}続いて,47都道府県ごとの性能を確認する.表\ref{table:result_for_pref}に,都道府県ごとの実験結果を示す.表中の$\uparrow$記号は,deepgeoよりもdeepgeo+GeoVecの方が性能が高くなったことを示す.ここでは,クラス別に評価するため,評価指標としてF値を採用する.あるクラス(都道府県)$c$のF値は次の式で定義される.\begin{eqnarray}F&=&2\cdot\frac{Precision\cdotRecall}{Precision+Recall}\end{eqnarray}\begin{eqnarray}Precision&=&\frac{正しくクラスcと予測した数}{クラスcと予測した数}\end{eqnarray}\begin{eqnarray}Recall&=&\frac{正しくクラスcと予測した数}{クラスcのデータ数}\end{eqnarray}表より,ほとんどの都道府県でdeepgeoよりもdeepgeo+GeoVecの方が性能が高いことが確認できる.福井県では,F値が17.0ポイント向上しており,他のいくつかの都道府県でも10ポイント以上の向上があった.それに対して性能低下では,最大で佐賀県の7.3ポイントで,ほとんどが5ポイント未満であることがわかる.ここから地理的特定性は,特定の都道府県で大幅な性能低下を起こさず,全体の性能向上に貢献したといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table*}[t]\input{09table06.tex}\caption{都道府県ごとの予測結果(F値)}\label{table:result_for_pref}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5.4\subsubsection{予測が困難な都道府県に対する地理的特定性の有効性評価}47都道府県のうち,地理的曖昧性が高いエンティティを多くもつ都道府県は,ほかの都道府県に比べて文書ジオロケーションの予測が困難になると予想される.そこで,エンティティの地理的曖昧性に基づいて都道府県のグループを構成し,グループ間で予測性能を比較することを通して,予測が困難な都道府県グループでも地理的特定性が有効であるかを検証する.まず,グループを構成する準備として,エンティティの地理的曖昧性の値を参照し,以下の式(\ref{eq:pref_amb})によって,都道府県$k$の地理的曖昧性$\mathrm{pref\_amb}(k)$を求める.ここで,エンティティの地理的曖昧性は値は式(\ref{eq:amb})で求めるが,都道府県の地理的曖昧性との区別を明瞭にするため,エンティティ$p_j$の地理的曖昧性を$\mathrm{ent\_amp}(p_j)$と表記している.また,$P^k$は都道府県要素が$k$であるエンティティの集合である.\begin{equation}\label{eq:pref_amb}\mathrm{pref\_amb}(k)=\frac{1}{|P^k|}\sum_{p_j\inP^k}\mathrm{ent\_amb}(p_j)\end{equation}計算された47都道府県の地理的曖昧性について,曖昧性の値が高かった上位10件と低かった下位10件を表\ref{table:pref_amb}に示す.この上位10件の都道府県を地理的曖昧性が高いグループ,下位10件の都道府県を地理的曖昧性が低いグループとして検証に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{09table07.tex}\caption{都道府県の地理的曖昧性(上位10件と下位10件)}\label{table:pref_amb}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:result_for_amb_class}に,高曖昧性グループおよび低曖昧性グループそれぞれのマイクロ平均F値を示す.deepgeoおよびdeepgeo+GeoVecのどちらの手法においても,高曖昧性グループの結果は低曖昧性グループよりも低い値となった.ただし,deepgeoとdeepgeo+GeoVecの比較から地理的特定性の情報を加えることによる性能向上は,どちらのクラスでも1ポイント以上見られた.この結果より,地理的特定性を用いた手法は,予測が難しいクラスに対しても有効であったといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{09table08.tex}\caption{地理的曖昧性が高い都道府県クラスと低い都道府県クラスでの予測性能(マイクロ平均F値)}\label{table:result_for_amb_class}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.5.5\subsubsection{事例分析}表\ref{table:result_sample}に,deepgeo+GeoVecの予測が正解した例を示す.表\ref{table:result_sample}の太字は,MentionVecまたはGeoVecが付与された文字列であることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table*}[t]\input{09table09.tex}\caption{deepgeo+GeoVecの予測が正解した例(MV:MentionVec,GV:GeoVec)}\label{table:result_sample}{\vskip-11pt}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%事例$\langle1\rangle$は,deepgeoでは予測を誤り,deepgeo+MentionVecとdeepgeo+GeoVecでは正しい予測ができた例である.deepgeoには投稿者プロフィールに設定されている居住地を処理するサブネットワークが存在する.この投稿をしたユーザの居住地は「東京」と設定されており,それが影響してdeepgeoは「東京都」と出力したと考えられる.一方,deepgeo+MentionVecとdeepgeo+GeoVecでは,文書に含まれる「大宮」という地名からWikipedia情報を取得し,正しい予測に繋げることができている.事例$\langle1\rangle$以外は,deepgeoとdeepgeo+MentionVecでは予測を誤り,deepgeo+GeoVecでは正しい予測ができた例である.まず事例$\langle2\rangle$および事例$\langle3\rangle$の例に注目する.これらを予測するには,事例$\langle2\rangle$ではエンティティ「荒川区役所前停留場」,事例$\langle3\rangle$ではエンティティ「高湯温泉」の都道府県要素をWikipediaページから適切に取り込む必要がある.GeoVecはWikipediaページの本文から直接的な手法で都道府県要素を抽出しており,その情報を用いて正しい予測に繋げることができた.一方,MentionVecは地理的な課題を目的として作成されていないため,この例では都道府県要素を抽出できず,予測を誤った.次に事例$\langle4\rangle$,事例$\langle5\rangle$の例に注目する.deepgeo+GeoVecは,事例$\langle4\rangle$ではエンティティ「ホテルオークラ東京ベイ」,事例$\langle5\rangle$ではエンティティ「千代保稲荷神社」の都道府県要素を正しく取得することができ,正しい予測に繋げた.一方,deepgeoとdeepgeo+MentionVecは,事例$\langle4\rangle$では「東京」,事例$\langle5\rangle$では「串カツ」に注目し予測を誤った.なお,ここでの注目箇所とは,式(\ref{eq:self_attention})のセルフアテンションで得られる重みが大きい範囲のことを表す.最後に事例$\langle6\rangle$の例に注目する.投稿文書には「小浜温泉」と「小浜」という地理的位置を表す言及が含まれる.「小浜」は日本にいくつか存在する地名であるが,一般的な認知としては福井県の地名を指すことが多い.そのため,言及「小浜」の名称専有性ベクトルは福井県と対応する要素が最大値となっている.deepgeo+MentionVecはこの投稿の「\#小浜」の部分に注目し,予測も「福井県」とした.しかし,小浜温泉は長崎県にしか存在せず,長崎県にも小浜という地名は存在する.deepgeo+GeoVecでは,GeoVecからこの情報を適切に取得することができ,正しく「長崎県」と予測したと考える.deepgeo+GeoVecの注目箇所は「小浜温泉」であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{結論} 本研究では,SNS投稿文書内に出現している地理的位置属性をもつ言及に対し,その地理的位置の特定のしやすさを表す指標として,地理的特定性指標を提案した.本指標は,地理的曖昧性および名称専有性の2つの構成要素から成るものとし,日本語Wikipediaデータに基づいて指標値の推定を行った.そして,文書ジオロケーション実験を通して,提案した地理的特定性指標の両指標値が文書ジオロケーション課題において有効であること,また,これら指標値を組み合わせて利用することも有効であることを確認した.本研究を発展させる今後の主な課題としては以下が挙げられる.\begin{itemize}\item本研究では,文書ジオロケーション実験を実施することで地理的特定性指標の有効性を検証した.地理的特定性指標は課題とは独立した概念であり,\ref{chap:ref_geolocation}節で述べたToponymresolutionやエンティティリンキングなど,ほかの課題での有効性も検証したい.\item本研究では,文書ジオロケーション課題として,47都道府県への分類を検討したが,\ref{chap:inin}節で述べたようなサービスでは,分類する地理的粒度が細かい程,サービスの品質向上につながる.そのため,より地理的粒度の細かい分類課題に対する有効性の検証が必要である.本手法では,言及に対する地理的特定性が特定できる地理的粒度は言及ベクトルの次元数を調整することで制御可能であるが,本手法では言及ベクトルの次元数を増やすことはベクトルが疎になる欠点がある.今後は,分類粒度と言及ベクトルの次元数の関係性を調査すると共に,疎ベクトルを回避するための対策が必要である.\item本研究では,地理的特定性の指標値の推定において,言及が現れる文書内での文脈情報を取り込んでいない.今後は,Awamuraら\cite{awamura2015location}のように,文脈情報を考慮した指標値を検討し,文脈情報が指標値に与える影響について考察を進めたい.\item文書ジオロケーション実験の誤り事例の観察から,誤り事例を幾つかのグループに分けることができる.ひとつのグループは,\ref{chap:multimention}節で述べた多くの言及が含まれる事例グループである.その他の事例グループとして,時制の理解が必要な事例グループがあった.通常では手がかり表現になりやすい言及であっても過去の活動(「この時期になると去年の\underline{京都}観光を思い出す」)や未来の活動(「はやく\underline{沖縄}行きたいな♪」)に関する投稿文書の場合は,その限りではない.このような事例グループを正しく分類するには,今回注目した地理的特定性のような概念では限界があり,有効な特徴量を獲得するためには,時制の解析を含むより高度な意味解析処理が必要になる.\end{itemize}%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費21K12137の助成を受けたものです.Wikipediaの全記事に対する拡張固有表現ラベルは,森羅プロジェクトが公開しているデータを使用させて頂きました.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{09refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{\UTF{9682}山宗一}{%%\bioauthor{陰山宗一}{%2021年筑波大学情報学群情報科学類卒業.2023年筑波大学大学院システム情報工学研究群情報理工学位プログラム修士課程修了.現在,LINEヤフー株式会社所属.}\bioauthor{乾孝司}{%2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教,2011年筑波大学システム情報系助教,2015年同准教授,現在に至る.博士(工学).自然言語処理の研究に従事.近年は地理空間情報と自然言語処理の融合分野に興味をもつ.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V12N05-03
\section{はじめに} \label{sc:1}待遇表現は日本語の特徴の一つである.敬語的な表現は他の言語にも見られるが,日本語のように,待遇表現を作るための特別な語彙や形式が体系的に発達している言語はまれである\cite{水谷1995}.日本語の待遇表現は,動詞,形容詞,形容動詞,副詞,名詞,代名詞など,ほぼ全ての品詞に見られる.特に,動詞に関する待遇表現は他の品詞に比べて多様性がある.具体的には,動詞に関する待遇表現は,以下の4つのタイプに大別できる.1)「\underline{お}話しになる」や「\underline{ご}説明する」などのように,接頭辞オもしくは接頭辞ゴと動詞と補助動詞を組み合わせる,2)「おっしゃる」と「申す」(いずれも通常表現\footnote{いわゆる``敬語"は用いず,通常の言葉を用いた表現.}は「言う」)などのように動詞自体を交替させる,3)「話し\underline{て}頂く」「話し\underline{て}下さる」「話し\underline{て}あげる」などのように助詞テを介して補助動詞が繋がる,4)「ます」「れる」「られる」などの助詞・助動詞を動詞と組み合わせる,などがある.これらの中でも1つ目のタイプ(以下,「オ+本動詞+補助動詞」を``オ〜型表現",「ゴ+本動詞+補助動詞」を``ゴ〜型表現"と呼ぶ)は,同じ本動詞を用いた場合でも,補助動詞との組み合わせによって尊敬語になる場合と謙譲語になる場合がある,という複雑な特徴を持つ.ここで,オ〜型表現とゴ〜型表現の違いについては,形式に関しては,原則的に,接頭辞ゴに続く本動詞が漢語動詞であり,接頭辞オに続く本動詞が和語動詞であるということが従来の言語学的研究で指摘されてきた.しかし,その機能に関しては,接頭辞の違いは考慮せずに同じ補助動詞を持つ表現をまとめて扱うことが多く,両者の違いについて言及されることは,これまで殆どなかった.ところが,待遇表現としての自然さの印象に関してオ〜型表現とゴ〜型表現を比較した先行研究において,それが誤用である場合にも,オ〜型表現に比べてゴ〜型表現は,概して,不自然さの印象がより弱いという傾向が見られた.そしてその理由として,待遇表現としての認識に関するオ〜型表現とゴ〜型表現の違いが議論された\cite{白土他2003}.ここでもし,待遇表現としての認識に関して,オ〜型表現とゴ〜型表現の間で本質的な違いがあるとするならば,自然さの印象だけでなく,待遇表現に関する他のさまざまな印象の違いとしても観測できるはずである.そこで,本研究では,待遇表現の最も典型的な属性である丁寧さに注目する.すなわち,本研究は,待遇表現の丁寧さの印象に関するオ〜型表現とゴ〜型表現の違いについて定量的に調べることを目的とする. \section{待遇表現の丁寧さの定量化} \label{sc:2}\subsection{本研究における「待遇表現の丁寧さ」の捉え方}\label{sc:2.1}待遇表現という言語現象は,(I)話し手が,その具体的な人物や場面に関わる社会的・心理的な諸要因を考慮した上で,問題の人物(話題となる人物や聞き手など)に,あるレベルの待遇を与えようとすることと(I\hspace{-.1em}I)ある待遇表現を使うことで,その人物に,あるレベルの待遇を与えることになる(という法則性がある)こと,に分けて考えることができる\cite{菊地2003}.社会言語学的立場から待遇表現を体系的に整理している研究\cite{蒲谷他1991}や,ポライトネスに関する包括的な理論としてよく知られているブラウンとレビンソンの理論\cite{Brown他1987}も同様に,(I)と(I\hspace{-.1em}I)を分けて扱っている.ここで,(I\hspace{-.1em}I)において,問題の人物に対してより高いレベルの待遇を与えるような待遇表現は,概して,人々がより丁寧な印象を持つ表現であると考えられる.本研究でも,(I)と(I\hspace{-.1em}I)を分けて扱うことができるという考えに立ち,(I\hspace{-.1em}I)で用いられる,いろいろな待遇表現の丁寧さを,場面の設定は行わずに定量化する.\subsection{丁寧さの定量化の方法}\label{sc:2.2}荻野はクロス集計表に基づく待遇表現の定量化の研究において,ほとんど全ての待遇表現の丁寧さは,一次元の値として表現出来ることを示した\cite{荻野1986}.また,この仮定に基づいてScheffe法\cite{Scheffe1952}を用いた実証例も報告されている\cite{白土他2002}.本研究では,これらの結果をふまえ,いろいろな待遇表現に対して人々が感じる丁寧さの大きさは,何らかの心理的な空間における一次元上の値として定量化できるものとする.丁寧さの定量化の方法としては,心理学的測定法として代表的な手法の一つであるScheffeの一対比較法の中屋の変法\cite{中屋1970,三浦1973,田中1977}を用いる.以下では,定量化によって得られた,表現の丁寧さを表す値を「待遇値」と呼ぶ.本研究ではScheffe法を用いているため,待遇値は間隔尺度上の値,すなわち待遇表現間の丁寧さの相対値を表す. \section{オ〜型表現とゴ〜型表現の丁寧さに関する実験} \label{sc:3}\subsection{本研究で注目する待遇表現のパタン}\label{sc:3.1}本研究では,表\ref{tbl:table1}に示すオ〜型表現,およびゴ〜型表現の主なパタンに注目する\cite{林他1974,菊地1997,鈴木他1984}.ただし,ここでは,オ〜型表現,およびゴ〜型表現との比較のために通常表現,および丁寧語(ただし,「ます」を用いるパタンのみ)も含めることとした.以下,通常表現,丁寧語,およびオ〜型表現を総称して「和語系表現」と呼び,通常表現,丁寧語,およびゴ〜型表現を総称して「漢語系表現」と呼ぶ.表\ref{tbl:table1}の「〜」の部分は各パタンと組み合わされる本動詞,すなわち,オ〜型のパタンでは和語動詞,ゴ〜型のパタンでは漢語動詞である\footnote{具体的には,\ref{sec:5.3}節で述べるように,オ〜型のパタンでは和語動詞の連用形,ゴ〜型のパタンでは漢語動詞の語幹,丁寧語「〜ます」のパタンでは漢語動詞の語幹,和語動詞の連用形である.}.また丁寧語「〜ます」のパタンでは和語動詞,漢語動詞の両方である.表\ref{tbl:table1}には,主な待遇表現のパタンとして二重敬語:「オ/ゴ〜になられる」も含めた.その理由は,近年では二重敬語に抵抗を感じる人が少なく\cite{文化庁文化部国語課1995},かつ待遇表現としての自然さの印象に関する研究\cite{白土他2003}においても,このパタンの表現に対しては待遇表現としての自然さの印象が強かったためである.\begin{table}[htbp]\begin{center}\caption{本研究で注目する待遇表現のパタン}\label{tbl:table1}\tabcolsep=2em\begin{tabular}{ll}\hline\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{パタン}\\\hline謙譲語&オ/ゴ〜する\\&オ/ゴ〜します\\&オ/ゴ〜できる\\&オ/ゴ〜できます\\&オ/ゴ〜致します\\&オ/ゴ〜申します\\&オ/ゴ〜申し上げます\\&オ/ゴ〜頂く\\&オ/ゴ〜頂きます\\\hline尊敬語&オ/ゴ〜なさる\\&オ/ゴ〜なさいます\\&オ/ゴ〜になる\\&オ/ゴ〜になります\\&オ/ゴ〜下さる\\&オ/ゴ〜下さいます\\&オ/ゴ〜になられる(二重敬語)\\\hline丁寧語&〜ます\\\hline通常表現&〜\\\hline\end{tabular}\end{center}\end{table}\subsection{実験刺激}\label{sc:3.2}本実験では,複数個の発話意図に共通して見られる,オ〜型表現とゴ〜型表現の違いに関する傾向を調べる.具体的な発話意図としては,その発話意図に対応した和語動詞と漢語動詞が両方とも存在し,かつ表\ref{tbl:table1}のパタンと組み合わせることが可能なものを5種類,設定した(表\ref{tbl:table2}).なお,表\ref{tbl:table2}左端には各発話意図にほぼ対応する概念を表す英単語を示した.\begin{table}[htbp]\begin{center}\caption{発話意図とそれに対応する動詞}\label{tbl:table2}\begin{tabular}{cll}\hline発話意図&和語動詞&漢語動詞\\\hline{\itanswer}&答える&回答する\\{\ituse}&使う&使用する\\{\itexplain}&話す&説明する\\{\itinform}&知らせる&連絡する\\{\itinvite}&招く&招待する\\\hline\end{tabular}\end{center}\end{table}実験に用いる表現グループは,謙譲語だけから成る表現グループと尊敬語だけから成る表現グループに分けられる.この理由は,謙譲語と尊敬語では行為主体が異なるので(例えば,謙譲語:「(私が)お答えする」,尊敬語:「(先生が)お答えになる」),両者の対が被験者に呈示された場合,比較が困難になるような状況が生じる可能性が否定できないためである.なお,通常表現および丁寧語は,謙譲語および尊敬語と行為主体が同じであると解釈することが可能であり,また,分析に用いる必要上,両方のグループに入れた.表\ref{tbl:table2}に示した各発話意図における和語動詞,漢語動詞のそれぞれに対して,表\ref{tbl:table1}における謙譲語9パタン+丁寧語1パタン+通常表現1パタン=11パタン,および表\ref{tbl:table1}における尊敬語7パタン+丁寧語1パタン+通常表現1パタン=9パタンを組み合わせて,2つの表現グループを作った(以下,それぞれの表現グループを謙譲語グループ,および尊敬語グループと呼ぶ).発話意図:{\itanswer}に対する表現グループの例を表\ref{tbl:table3.1}(謙譲語),表\ref{tbl:table3.2}(尊敬語)に示す.各行の左右の列には,同じ補助動詞(「する」,「なさる」など)を持つ表現が対として記されている(ただし,通常表現および丁寧語を除く).表の左側の列には和語系表現,右側の列には漢語系表現が記されている.各表におけるNo.は,それぞれの表現グループの中での通し番号である.表\ref{tbl:table3.1}ではNo.1とNo.12が通常表現,No.2とNo.13が丁寧語,No.3〜No.11とNo.14〜No.22が謙譲語であり,表\ref{tbl:table3.2}では,No.1とNo.10が通常表現,No.2とNo.11が丁寧語,No.3〜No.9とNo.12〜No.18が尊敬語である.表\ref{tbl:table3.1},表\ref{tbl:table3.2}と同様に,発話意図:{\ituse},{\itexplain},{\itinform}および{\itinvite}に対して作った表現グループを付表\ref{tbl2:table1.1}〜付表\ref{tbl2:table4.2}に示す.以上のように,本実験では,発話意図:5種類×謙譲語/尊敬語:2種類=計10種類の表現グループを用いた.\makeatletter\renewcommand{\thetable}{}\@addtoreset{table}{section}\makeatother\begin{table}[htbp]\begin{center}\setcounter{table}{0}\caption{発話意図:{\itanswer},謙譲語}\label{tbl:table3.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&答える&12&回答する\\\hline2&答えます&13&回答します\\\hline3&お答えする&14&ご回答する\\\hline4&お答えします&15&ご回答します\\\hline5&お答えできる&16&ご回答できる\\\hline6&お答えできます&17&ご回答できます\\\hline7&お答え致します&18&ご回答致します\\\hline8&お答え申します&19&ご回答申します\\\hline9&お答え申し上げます&20&ご回答申し上げます\\\hline10&お答え頂く&21&ご回答頂く\\\hline11&お答え頂きます&22&ご回答頂きます\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{発話意図:{\itanswer},尊敬語}\label{tbl:table3.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&答える&10&回答する\\\hline2&答えます&11&回答します\\\hline3&お答えなさる&12&ご回答なさる\\\hline4&お答えなさいます&13&ご回答なさいます\\\hline5&お答えになる&14&ご回答になる\\\hline6&お答えになります&15&ご回答になります\\\hline7&お答え下さる&16&ご回答下さる\\\hline8&お答え下さいます&17&ご回答下さいます\\\hline9&お答えになられる&18&ご回答になられる\\\hline\end{tabular}\end{center}\end{table}\subsection{実験手続き}\label{sc:3.3}実験では,上記の10種類の表現グループそれぞれにおいて,グループ内の全ての表現に対する待遇値を求めた.定量化には,前述のようにScheffeの一対比較法の中屋の変法を用いた.実験における回答形式および回答の例を図\ref{fig:figure1}に示す.被験者は関東在住の20代〜50代の男女80人(男女各40人)である.被験者は一対ずつ呈示された表現の間で丁寧さを比較し,図中のケース1〜ケース3のそれぞれに応じて回答用紙の適切な位置に○を付けるよう指示された(ケース1,ケース2と対称的なケースについても同様).ただし,回答が困難なケース(すなわち,ケース4)については×を付けることを認め,このケースについては定量化の計算に加味しないこととした.以上の実験で得られた,各表現グループにおける各表現の待遇値の,全被験者にわたる平均値を$\mu$と記す.ただし表現E$_{i}$に対する$\mu$を特定する場合は,$\mu_{i}$と記す.ここで,$i$は各表現グループの中での通し番号(例えば,表\ref{tbl:table3.1},表\ref{tbl:table3.2}中のNo.)である.\begin{figure}[htbp]\begin{center}\epsffile{./fig1.eps}\caption{回答形式および回答の例}\label{fig:figure1}\end{center}\end{figure} \section{実験結果} \label{sc:4}表\ref{tbl:table3.1}および表\ref{tbl:table3.2}の表現に対して得られた$\mu$を,それぞれ図\ref{fig:figure2.1}および図\ref{fig:figure2.2}に示す\footnote{\ref{sc:2.2}節で述べたように,$\mu$は,表現間の相対値であるので,その符号の正負の間で本質的な違いはない.}.図中の数字は,各表現E$_{i}$の添数$i$の値を表す.同様にして,付表\ref{tbl2:table1.1}〜付表\ref{tbl2:table4.2}の各表現に対して得られた$\mu$を,それぞれ,付図\ref{fig2:figure1.1}〜付図\ref{fig2:figure4.2}に示す.図において,$\mu_{i}$が大きい表現E$_{i}$程,それに対して平均的な被験者が感じる丁寧さの程度が大きいことを表す.本研究で用いた二重敬語(すなわち,「オ/ゴ〜になられる」)の丁寧さについては,他の表現(すなわち,規範的な表現)と同様の傾向が見られた.例えば,図\ref{fig:figure2.2},付図\ref{fig2:figure1.2},\ref{fig2:figure2.2},\ref{fig2:figure3.2},\ref{fig2:figure4.2}の全てにおいて,「オ/ゴ〜になられる」(二重敬語)の待遇値は,「オ/ゴ〜になる」(「オ/ゴ〜になられる」と最も形が似ており,かつモーラ数がより短い規範的な待遇表現)の待遇値より大きかった.これは,規範的な待遇表現に関する特徴:``モーラ数がより長い待遇表現は概して,より丁寧に感じられる"\cite{荻野1980}と一致する.また,被験者が×を付けた表現ペア,すなわち,被験者が待遇表現としての丁寧さの比較が困難と判断したものは,4,279ペアであった.これは,回答全体の2.7\%に相当する.このうち75\%は,特定の10人に偏っていた.ただし,この10人に関して,年齢や性別に関する偏りは見られなかった.さらに,比較が困難とされた表現ペアには特定の表現への偏りは見られなかった.\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig21.eps}\caption{$\mu$(発話意図:{\itanswer},謙譲語)}\label{fig:figure2.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig22.eps}\caption{$\mu$(発話意図:{\itanswer},尊敬語)}\label{fig:figure2.2}\end{center}\end{minipage}\end{tabular}\end{figure} \section{考察} \label{sc:5}\subsection{和語系表現と漢語系表現の比較}\label{sc:5.1}前述の通り,表\ref{tbl:table3.1},表\ref{tbl:table3.2},付表\ref{tbl2:table1.1}〜付表\ref{tbl2:table4.2}の各行には,接頭辞+本動詞,が異なり(左側の列はオ+和語動詞,右側の列はゴ+漢語動詞),補助動詞(「する」,「なさる」など)が同じである表現が対となって記されている.ここでは,このように対となる表現の間で$\mu$の差($d$と記す)を式(\ref{eqn:eqn1})で計算することによって,同じ補助動詞を持つ和語系表現と漢語系表現の間での,平均的な被験者の待遇値の違いを調べる.\begin{eqnarray}d=\mu_{i+n}-\mu_{i}(i=1,...,n)\label{eqn:eqn1}\end{eqnarray}式(\ref{eqn:eqn1})右辺第一項は漢語系表現の$\mu$,第二項は和語系表現の$\mu$である.ここで,$i$は表現E$_{i}$の添数$i$を表し,$n$は謙譲語に対しては11,尊敬語に対しては9である.すなわち,式(\ref{eqn:eqn1})では,表\ref{tbl:table4}に示す計算を行っている.\makeatletter\renewcommand{\thetable}{}\@addtoreset{table}{section}\makeatother\setcounter{table}{3}\begin{table}[htbp]\begin{center}\caption{$d$の計算方法}\label{tbl:table4}\begin{tabular}{ccc}\hlineラベル&謙譲語グループ&尊敬語グループ\\\hlineA&$\mu_{12}-\mu_{1}$&$\mu_{10}-\mu_{1}$\\B&$\mu_{13}-\mu_{2}$&$\mu_{11}-\mu_{2}$\\C&$\mu_{14}-\mu_{3}$&$\mu_{12}-\mu_{3}$\\D&$\mu_{15}-\mu_{4}$&$\mu_{13}-\mu_{4}$\\E&$\mu_{16}-\mu_{5}$&$\mu_{14}-\mu_{5}$\\F&$\mu_{17}-\mu_{6}$&$\mu_{15}-\mu_{6}$\\G&$\mu_{18}-\mu_{7}$&$\mu_{16}-\mu_{7}$\\H&$\mu_{19}-\mu_{8}$&$\mu_{17}-\mu_{8}$\\I&$\mu_{20}-\mu_{9}$&$\mu_{18}-\mu_{9}$\\J&$\mu_{21}-\mu_{10}$&-\\K&$\mu_{22}-\mu_{11}$&-\\\hline\end{tabular}\end{center}\end{table}図\ref{fig:figure2.1},および図\ref{fig:figure2.2}に示した$\mu$に対し,以上の方法で得た$d$を図\ref{fig:figure3.1},および図\ref{fig:figure3.2}に示す.図中の記号(A,B,…,K)は,表\ref{tbl:table4}のラベルに対応する.\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig31.eps}\caption{$d$(発話意図:{\itanswer},謙譲語)}\label{fig:figure3.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig32.eps}\caption{$d$(発話意図:{\itanswer},尊敬語)}\label{fig:figure3.2}\end{center}\end{minipage}\end{tabular}\end{figure}図\ref{fig:figure3.1}および図\ref{fig:figure3.2}のいずれも,A(通常表現)およびB(丁寧語)の$d$が正,すなわち漢語系表現の$\mu$が和語系表現の$\mu$より大きいことを示す.他の全ての表現グループにおいても,これと同様の傾向が見られた(付図\ref{fig2:figure5.1}〜付図\ref{fig2:figure8.2}).[結果(1)]一方,A(通常表現)およびB(丁寧語)以外の語(すなわち,尊敬語や謙譲語)の$d$は,値の正負に関する一貫した傾向はなかった.他の全ての表現グループにおいても,これと同様であった(付図\ref{fig2:figure5.1}〜付図\ref{fig2:figure8.2}).\subsection{通常表現からの変化に関する,オ〜型表現とゴ〜型表現の比較}\label{sc:5.2}前節で述べたように,同じ補助動詞を持つオ〜型表現(「オ+和語動詞+補助動詞」)とゴ〜型表現(「ゴ+漢語動詞+補助動詞」)の間では,通常表現および丁寧語を除き,両者の$\mu$の差,すなわち$d$に関する一貫した傾向は見られなかった.しかし,$d$は「オ+〜+補助動詞」と「ゴ+〜+補助動詞」の違いのみならず,「〜」の部分,すなわち,和語動詞と漢語動詞の違いを反映した指標であるため,ここでは,和語動詞と漢語動詞の違いの影響をできるだけ排除して,オ〜型表現とゴ〜型表現の間で丁寧さの印象に関する特性の違いをさらに調べることとする.このためには,表現全体としての$\mu$ではなく和語動詞単体(通常表現)から「オ+和語動詞+補助動詞」に変化させたことによる$\mu$の変化量,および漢語動詞単体(通常表現)から「ゴ+漢語動詞+補助動詞」に変化させたことによる$\mu$の変化量の間で比較を行えば良い.すなわち,各表現(通常表現を除く)の$\mu$をその通常表現の$\mu$からの変化量として補正した値(これを$\mu'$と記す)に関して,オ〜型表現とゴ〜型表現の差($\delta$と記す)を次式で計算する.\begin{eqnarray}\delta=\mu'_{i+n}-\mu'_{i}(i=2,...,n)\label{eqn:eqn2}\end{eqnarray}ただし,$\mu'_{i+n}=\mu_{i+n}-\mu_{n+1}$(漢語動詞.$\mu_{n+1}$は通常表現の$\mu$),$\mu'_{i}=\mu_{i}-\mu_{1}$(和語動詞.$\mu_{1}$は通常表現の$\mu$),$n$は式(\ref{eqn:eqn1})と同様,謙譲語に対しては11,尊敬語に対しては9である.すなわち,式(\ref{eqn:eqn2})では,表\ref{tbl:table5}に示す計算を行っている.なお,ラベルBの$\delta$は丁寧語であるため接頭辞オ/ゴは含まないが,オ〜型表現,およびゴ〜型表現との比較のため示した.\begin{table}[htbp]\begin{center}\caption{$\delta$の計算方法}\label{tbl:table5}\begin{tabular}{ccc}\hlineラベル&謙譲語グループ&尊敬語グループ\\\hlineB&$(\mu_{13}-\mu_{12})-(\mu_{2}-\mu_{1})$&$(\mu_{11}-\mu_{10})-(\mu_{2}-\mu_{1})$\\C&$(\mu_{14}-\mu_{12})-(\mu_{3}-\mu_{1})$&$(\mu_{12}-\mu_{10})-(\mu_{3}-\mu_{1})$\\D&$(\mu_{15}-\mu_{12})-(\mu_{4}-\mu_{1})$&$(\mu_{13}-\mu_{10})-(\mu_{4}-\mu_{1})$\\E&$(\mu_{16}-\mu_{12})-(\mu_{5}-\mu_{1})$&$(\mu_{14}-\mu_{10})-(\mu_{5}-\mu_{1})$\\F&$(\mu_{17}-\mu_{12})-(\mu_{6}-\mu_{1})$&$(\mu_{15}-\mu_{10})-(\mu_{6}-\mu_{1})$\\G&$(\mu_{18}-\mu_{12})-(\mu_{7}-\mu_{1})$&$(\mu_{16}-\mu_{10})-(\mu_{7}-\mu_{1})$\\H&$(\mu_{19}-\mu_{12})-(\mu_{8}-\mu_{1})$&$(\mu_{17}-\mu_{10})-(\mu_{8}-\mu_{1})$\\I&$(\mu_{20}-\mu_{12})-(\mu_{9}-\mu_{1})$&$(\mu_{18}-\mu_{10})-(\mu_{9}-\mu_{1})$\\J&$(\mu_{21}-\mu_{12})-(\mu_{10}-\mu_{1})$&-\\K&$(\mu_{22}-\mu_{12})-(\mu_{11}-\mu_{1})$&-\\\hline\end{tabular}\end{center}\end{table}図\ref{fig:figure2.1}および図\ref{fig:figure2.2}に示した$\mu$に対し,以上の方法で得た$\delta$を図\ref{fig:figure4.1}および図\ref{fig:figure4.2}に示す.\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig41.eps}\caption{$\delta$(発話意図:{\itanswer},謙譲語)}\label{fig:figure4.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig42.eps}\caption{$\delta$(発話意図:{\itanswer},尊敬語)}\label{fig:figure4.2}\end{center}\end{minipage}\end{tabular}\end{figure}図\ref{fig:figure4.1}および図\ref{fig:figure4.2}を見ると,B(丁寧語)に対する$\delta$を除き,全ての$\delta$の値は負であることが分かる.他の全ての表現グループにおいても,1つの例外(付図\ref{fig2:figure11.2}のC)を除き,全ての$\delta$は負であった(付図\ref{fig2:figure9.1}〜付図\ref{fig2:figure12.2}).そこで,各表現グループにおいて,帰無仮説:$\bar{\delta}=0$の検定\cite{石村1989}を行った(表\ref{tbl:table6}).ここで,$\bar{\delta}$は,各表現グループにおいて,B(丁寧語)を除く全ての表現にわたる$\delta$の平均を表す.表\ref{tbl:table6}は,10種類の表現グループいずれにおいても帰無仮説:$\bar{\delta}=0$が棄却されることを示す(有意水準1\%).かつ,$\bar{\delta}$は負である.従って,$\bar{\delta}$は有意に0より小さい.これは,通常表現からの変化量$\mu'$に関し,ゴ〜型表現の平均的な$\mu'$は,それに対応する(すなわち,同じ補助動詞を持つ)オ〜型表現の平均的な$\mu'$より有意に小さいことを示唆する.[結果(2)]\begin{table}[htbp]\begin{center}\caption{$\bar{\delta}$=0の検定結果}\label{tbl:table6}\begin{tabular}{|c|c|r|r|r|}\hline発話意図&謙譲語/尊敬語&\multicolumn{1}{|c|}{$\bar{\delta}$}&\multicolumn{1}{|c|}{検定量$T$}&\multicolumn{1}{|c|}{自由度}\\\hline\raisebox{-.5zh}[0cm][0cm]{\itanswer}&謙譲語&-0.264&13.4&8\\\cline{2-5}&尊敬語&-0.156&5.8&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\ituse}&謙譲語&-0.194&7.1&8\\\cline{2-5}&尊敬語&-0.220&12.7&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\itexplain}&謙譲語&-0.110&5.9&8\\\cline{2-5}&尊敬語&-0.171&11.5&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\itinform}&謙譲語&-0.103&8.4&8\\\cline{2-5}&尊敬語&-0.114&4.2&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\itinvite}&謙譲語&-0.271&13.3&8\\\cline{2-5}&尊敬語&-0.301&14.8&6\\\hline\end{tabular}\end{center}\end{table}また,図\ref{fig:figure4.1}および図\ref{fig:figure4.2}のいずれも,B(丁寧語)の$\delta$が正であることを示す.図\ref{fig:figure4.1},図\ref{fig:figure4.2},付図\ref{fig2:figure9.1}〜付図\ref{fig2:figure12.2}と合わせ,全部で10個の表現グループのうち,5個(50\%)においてB(丁寧語)の$\delta$が正であった[結果(3)].\subsection{オ〜型表現とゴ〜型表現に差異が生じた理由}\label{sec:5.3}前節の結果(2)に示したように,ゴ〜型表現の平均的な$\mu'$(通常表現の$\mu$からの変化量)は,それに対応する(すなわち,同じ補助動詞を持つ)オ〜表現の平均的な$\mu'$より小さいことが示唆された.以下では,この理由について考察する.\\\\解釈1)一体感の違いに基づく解釈オ〜型表現とゴ〜型表現の丁寧さの印象の差異は,それぞれの本動詞の活用形(和語動詞の場合は和語動詞連用形,漢語動詞の場合は漢語動詞語幹)が動詞転成名詞の語形と一致していることに起因すると考えられる.ここで,動詞転成名詞とは,和語動詞の場合は和語動詞連用形が名詞の性質を持ったものである.漢語動詞の場合は漢語動詞(サ変動詞)語幹が名詞の性質を持ったものであり,いわゆるサ変名詞に相当する.具体的には,ゴ〜型表現は「ゴ回答」「ゴ招待」のように「ゴ+漢語動詞語幹」のみで独立した表現(すなわち,サ変名詞としての用法)として用いられることが多い.このため,「ゴ+漢語動詞語幹」が現れた時に,その表現だけで動詞転成名詞としての待遇表現が成立していると認識し,後続する表現,すなわち補助動詞への意識が低くなっている可能性がある.一方,オ〜型表現の場合,「オ+和語動詞連用形」は動詞転成名詞であり形としては正しいが,「オ使い」「オ招き」のように,「オ+和語動詞連用形」の部分だけでは,動詞転成名詞としては,ゴ〜型表現に比べて,あまり用いられないことが考えられる.このため,「オ+和語動詞連用形」が現れた時に,その表現だけで待遇表現が成立しているとは認識せずに,後続する表現,すなわち補助動詞に意識が及びやすくなっている可能性がある.つまり,オ〜型表現では,接頭辞と本動詞だけでなく,補助動詞まで確認した上で表現としての適切さや丁寧さの程度を判断しようとしていると言える.このことは,接頭辞オと接頭辞ゴの間には,本動詞との一体感の印象に差異がある,すなわち,ゴと漢語動詞の一体感は,オと和語動詞の一体感より強いことを示唆する.ゴ〜型表現の方が接頭辞と本動詞の一体感がより強いため,通常表現に接頭辞が付いて待遇表現になったことへの印象がオ〜型表現に比べて弱かったと考えられる.そしてその結果,通常表現からの待遇値の変化量がより小さくなったと考えられる.しかし,この解釈の他に次の解釈も可能である.\\\\解釈2)ある種の飽和現象の仮定に基づく解釈前述のように結果(2)は,通常表現からの待遇値の変化量$\mu'$に関するオ〜型表現とゴ〜型表現の比較による.このため,ある種の飽和現象:``通常表現の待遇値$\mu$が大きい程,通常表現に接頭辞や語尾(丁寧語の場合は語尾のみ)を付加してモーラ数を長くした時の$\mu$の変化量は小さくなる(変化量が鈍化する)",が存在すると仮定するならば,今回の実験では,全ての表現グループにおいて漢語動詞は和語動詞に比べ通常表現の$\mu$の値が大きかった(結果(1))ため,通常表現の$\mu$がより大きいゴ〜型表現の$\mu'$が,通常表現の$\mu$がより小さいオ〜型表現の$\mu'$より小さくなった,という説明が可能である.しかし,この解釈は結果(3)(10個の表現グループのうち,5個(50\%)においてB(丁寧語)の$\delta$が正であった)とは必ずしも一致しない.すなわち,結果(3)のうち,丁寧語(接頭辞を用いない表現)で$\delta$が正になった(すなわち,漢語系表現の$\mu'$が和語系表現の$\mu'$より大きかった)表現グループ(全体の50\%)に対しては,この解釈では説明できない.以上のことから,解釈1は本実験結果に対するより妥当な解釈であると考えられる.すなわち動詞待遇表現に関しては,後続する本動詞との一体感に関する接頭辞ゴと接頭辞オの違いが,通常表現からの待遇値の変化量に関するオ〜型表現とゴ〜型表現の違いとして現れたと解釈できる.\subsection{同じグループに属する表現間の丁寧さの印象のばらつきに関する,オ〜型表現とゴ〜型表現の比較}\label{sc:5.4}前節に述べた解釈1からは,ゴ〜型表現グループはオ〜型表現グループに比べて,同じ表現グループに属する表現間を区別して認識する度合いがより小さいことが予測される.この時,ゴ〜型表現グループの方がオ〜型表現グループより,同じ表現グループに属する表現間の待遇値$\mu$の違いが小さくなることが予測される.この予測を確かめるため,ここでは,ゴ〜型表現グループとオ〜型表現グループの間で,グループ内の表現の$\mu$に関する不偏分散($s^{2}$と記す)を比較する.この時,$s^{2}$が大きい程,そのグループにおける表現間での$\mu$の違いが大きいことを意味する.従って,オ〜型表現にわたる$s^{2}$とゴ〜型表現にわたる$s^{2}$とを比較することによって,それぞれの表現型に属する表現の間での丁寧さの印象の違いを,オ〜型表現とゴ〜型表現との間で比較することができる.各表現グループにおいて,$\mu$の全てのオ〜型表現にわたる$s^{2}$($s^{2}$(オ)と記す)および,$\mu$の全てのゴ〜型表現にわたる$s^{2}$($s^{2}$(ゴ)と記す)をそれぞれ求めた結果を表\ref{tbl:table7}に示す.\begin{table}[htbp]\begin{center}\caption{オ〜型表現とゴ〜型表現の比較}\label{tbl:table7}\begin{tabular}{|c|c|c|c|}\hline発話意図&謙譲語/尊敬語&オ〜型/ゴ〜型&$s^{2}$(普遍分散)\\\hline\raisebox{-2zh}[0cm][0cm]{\itanswer}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.279\\\cline{3-4}&&ゴ〜型&0.289\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.110\\\cline{3-4}&&ゴ〜型&0.106\\\hline\raisebox{-2zh}[0cm][0cm]{\ituse}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.225\\\cline{3-4}&&ゴ〜型&0.221\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.078\\\cline{3-4}&&ゴ〜型&0.082\\\hline\raisebox{-2zh}[0cm][0cm]{\itexplain}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.353\\\cline{3-4}&&ゴ〜型&0.303\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.130\\\cline{3-4}&&ゴ〜型&0.109\\\hline\raisebox{-2zh}[0cm][0cm]{\itinform}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.328\\\cline{3-4}&&ゴ〜型&0.334\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.118\\\cline{3-4}&&ゴ〜型&0.116\\\hline\raisebox{-2zh}[0cm][0cm]{\itinvite}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.342\\\cline{3-4}&&ゴ〜型&0.332\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.118\\\cline{3-4}&&ゴ〜型&0.103\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:table7}を見ると,10個の表現グループのうち7個の表現グループで,$s^{2}$(オ)>$s^{2}$(ゴ)であることが分かる.この結果は,概して,オ〜型表現に比べてゴ〜型表現は,同じグループに属する表現間の待遇値$\mu$の違いの差が小さいことを示唆する.これは先の予測と一致する.従って,この結果は解釈1の妥当性を支持する.このことから,同じ表現グループに属する表現間での丁寧さの印象(待遇値)に関する比較によっても,オ〜型表現とゴ〜型表現の間には,接頭辞と後続の語との一体感の違いに起因する心理的印象の違いが生じていることが示唆された. \section{おわりに} \label{sc:6}待遇表現に対する丁寧さの印象に関し,オ〜型表現(「オ+和語+補助動詞」)とゴ〜型表現(「ゴ+漢語+補助動詞」)の違いを定量的に調べた.その結果,丁寧さの大きさに関し,オ〜型表現に比べてゴ〜型表現は,\begin{itemize}\item{通常表現からの変化量がより小さいこと}\item{その表現グループに属する表現間の違いがより小さいこと}\end{itemize}が示唆された.その原因として,待遇表現としての認識に関する両者の違いが示唆された.すなわち,従来,同じ補助動詞の場合には,まとめて扱われることの多かったオ〜型表現とゴ〜型表現の間には,接頭辞と後続の語との一体感の違いに起因する心理的印象の違いが生じていることが示唆された.待遇表現の自然さの印象\cite{白土他2003}だけでなく,待遇表現の丁寧さの印象に関しても,オ〜型表現とゴ〜型表現の間に差異が見られたことから,両者の間には,本質的な違いがあると考えられる.これが適切だとすると,待遇表現に関する教育においても,両者に違いがあるということを考慮する必要があるのではないか.すなわち,ゴ〜型表現はオ〜型表現に比べ,表現間の区別のしにくさに起因した誤用が多いことから,オ〜型表現とゴ〜型表現を学習させる場合には,両者を接頭辞だけが異なり,他は等価なものとして教えるのではなく,ゴ〜型表現の方が区別がしにくく間違いやすい,ということを教えた方が良い可能性がある.このように本研究での知見は,教育上の一つの指針になりうる.本研究で対象としたようなオ/ゴ〜型表現は,``〜"の部分に様々な動詞を当てはめることができ,かつ動詞に続く様々な補助動詞と組み合わせることができるため,非常に多くのバリエーションが存在する.今回はオ/ゴ〜型表現のうち,一部の表現のみを対象としたが,本稿で述べた手法を用いて,より多くのオ/ゴ〜型表現,``〜"の部分(動詞)の終止形,および``〜"の動詞を交替した表現(例:「言う」に対する「おっしゃる」)の丁寧さの程度の数値化を行うことにより,多くの表現に関してその表現と丁寧さの程度との対応データが作成できる.このデータは,例えば文生成の研究において,様々な丁寧さを持つ様々な待遇表現を柔軟に生成する際に役に立つと考えられる.この際,本研究で得られた知見に基づくと,例えば,同じ程度の丁寧さを持った表現を数多く生成するためにはゴ〜型表現を優先的に用い,一方,丁寧さの違いが大きい表現を数多く生成するためには,オ〜型表現を優先的に用いる,などのように対処すれば良いと考えられる.待遇表現としての認識は,被験者の年齢や性別などにも依存する可能性がある.従って今後は,これらの被験者属性への依存性について検討する予定である.\newpage\newcounter{appndnum}\def\appndnum{}\setcounter{appndnum}{1}\renewcommand{\figurename}{}\renewcommand{\tablename}{}\makeatletter\renewcommand{\thetable}{}\@addtoreset{table}{section}\makeatother\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\ituse},謙譲語}\label{tbl2:table1.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&使う&12&使用する\\\hline2&使います&13&使用します\\\hline3&お使いする&14&ご使用する\\\hline4&お使いします&15&ご使用します\\\hline5&お使いできる&16&ご使用できる\\\hline6&お使いできます&17&ご使用できます\\\hline7&お使い致します&18&ご使用致します\\\hline8&お使い申します&19&ご使用申します\\\hline9&お使い申し上げます&20&ご使用申し上げます\\\hline10&お使い頂く&21&ご使用頂く\\\hline11&お使い頂きます&22&ご使用頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\ituse},尊敬語}\label{tbl2:table1.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&使う&10&使用する\\\hline2&使います&11&使用します\\\hline3&お使いなさる&12&ご使用なさる\\\hline4&お使いなさいます&13&ご使用なさいます\\\hline5&お使いになる&14&ご使用になる\\\hline6&お使いになります&15&ご使用になります\\\hline7&お使い下さる&16&ご使用下さる\\\hline8&お使い下さいます&17&ご使用下さいます\\\hline9&お使いになられる&18&ご使用になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-2.5\baselineskip}\addtocounter{appndnum}{1}\setcounter{table}{0}\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itexplain},謙譲語}\label{tbl2:table2.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&話す&12&説明する\\\hline2&話します&13&説明します\\\hline3&お話しする&14&ご説明する\\\hline4&お話しします&15&ご説明します\\\hline5&お話しできる&16&ご説明できる\\\hline6&お話しできます&17&ご説明できます\\\hline7&お話し致します&18&ご説明致します\\\hline8&お話し申します&19&ご説明申します\\\hline9&お話し申し上げます&20&ご説明申し上げます\\\hline10&お話し頂く&21&ご説明頂く\\\hline11&お話し頂きます&22&ご説明頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itexplain},尊敬語}\label{tbl2:table2.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&話す&10&説明する\\\hline2&話します&11&説明します\\\hline3&お話しなさる&12&ご説明なさる\\\hline4&お話しなさいます&13&ご説明なさいます\\\hline5&お話しになる&14&ご説明になる\\\hline6&お話しになります&15&ご説明になります\\\hline7&お話し下さる&16&ご説明下さる\\\hline8&お話し下さいます&17&ご説明下さいます\\\hline9&お話しになられる&18&ご説明になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-2.5\baselineskip}\addtocounter{appndnum}{1}\setcounter{table}{0}\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinform},謙譲語}\label{tbl2:table3.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&知らせる&12&連絡する\\\hline2&知らせます&13&連絡します\\\hline3&お知らせする&14&ご連絡する\\\hline4&お知らせします&15&ご連絡します\\\hline5&お知らせできる&16&ご連絡できる\\\hline6&お知らせできます&17&ご連絡できます\\\hline7&お知らせ致します&18&ご連絡致します\\\hline8&お知らせ申します&19&ご連絡申します\\\hline9&お知らせ申し上げます&20&ご連絡申し上げます\\\hline10&お知らせ頂く&21&ご連絡頂く\\\hline11&お知らせ頂きます&22&ご連絡頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinform},尊敬語}\label{tbl2:table3.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&知らせる&10&連絡する\\\hline2&知らせます&11&連絡します\\\hline3&お知らせなさる&12&ご連絡なさる\\\hline4&お知らせなさいます&13&ご連絡なさいます\\\hline5&お知らせになる&14&ご連絡になる\\\hline6&お知らせになります&15&ご連絡になります\\\hline7&お知らせ下さる&16&ご連絡下さる\\\hline8&お知らせ下さいます&17&ご連絡下さいます\\\hline9&お知らせになられる&18&ご連絡になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-2.5\baselineskip}\addtocounter{appndnum}{1}\setcounter{table}{0}\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinvite},謙譲語}\label{tbl2:table4.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&招く&12&招待する\\\hline2&招きます&13&招待します\\\hline3&お招きする&14&ご招待する\\\hline4&お招きします&15&ご招待します\\\hline5&お招きできる&16&ご招待できる\\\hline6&お招きできます&17&ご招待できます\\\hline7&お招き致します&18&ご招待致します\\\hline8&お招き申します&19&ご招待申します\\\hline9&お招き申し上げます&20&ご招待申し上げます\\\hline10&お招き頂く&21&ご招待頂く\\\hline11&お招き頂きます&22&ご招待頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinvite},尊敬語}\label{tbl2:table4.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&招く&10&招待する\\\hline2&招きます&11&招待します\\\hline3&お招きなさる&12&ご招待なさる\\\hline4&お招きなさいます&13&ご招待なさいます\\\hline5&お招きになる&14&ご招待になる\\\hline6&お招きになります&15&ご招待になります\\\hline7&お招き下さる&16&ご招待下さる\\\hline8&お招き下さいます&17&ご招待下さいます\\\hline9&お招きになられる&18&ご招待になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-\baselineskip}\setcounter{appndnum}{0}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa11.eps}\caption{$\mu$(発話意図:{\ituse},謙譲語)}\label{fig2:figure1.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa12.eps}\caption{$\mu$(発話意図:{\ituse},尊敬語)}\label{fig2:figure1.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa21.eps}\caption{$\mu$(発話意図:{\itexplain},謙譲語)}\label{fig2:figure2.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa22.eps}\caption{$\mu$(発話意図:{\itexplain},尊敬語)}\label{fig2:figure2.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa31.eps}\caption{$\mu$(発話意図:{\itinform},謙譲語)}\label{fig2:figure3.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa32.eps}\caption{$\mu$(発話意図:{\itinform},尊敬語)}\label{fig2:figure3.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa41.eps}\caption{$\mu$(発話意図:{\itinvite},謙譲語)}\label{fig2:figure4.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa42.eps}\caption{$\mu$(発話意図:{\itinvite},尊敬語)}\label{fig2:figure4.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa51.eps}\caption{$d$(発話意図:{\ituse},謙譲語)}\label{fig2:figure5.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa52.eps}\caption{$d$(発話意図:{\ituse},尊敬語)}\label{fig2:figure5.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa61.eps}\caption{$d$(発話意図:{\itexplain},謙譲語)}\label{fig2:figure6.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa62.eps}\caption{$d$(発話意図:{\itexplain},尊敬語)}\label{fig2:figure6.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa71.eps}\caption{$d$(発話意図:{\itinform},謙譲語)}\label{fig2:figure7.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa72.eps}\caption{$d$(発話意図:{\itinform},尊敬語)}\label{fig2:figure7.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa81.eps}\caption{$d$(発話意図:{\itinvite},謙譲語)}\label{fig2:figure8.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa82.eps}\caption{$d$(発話意図:{\itinvite},尊敬語)}\label{fig2:figure8.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa91.eps}\caption{$\delta$(発話意図:{\ituse},謙譲語)}\label{fig2:figure9.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa92.eps}\caption{$\delta$(発話意図:{\ituse},尊敬語)}\label{fig2:figure9.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa101.eps}\caption{$\delta$(発話意図:{\itexplain},謙譲語)}\label{fig2:figure10.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa102.eps}\caption{$\delta$(発話意図:{\itexplain},尊敬語)}\label{fig2:figure10.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa111.eps}\caption{$\delta$(発話意図:{\itinform},謙譲語)}\label{fig2:figure11.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa112.eps}\caption{$\delta$(発話意図:{\itinform},尊敬語)}\label{fig2:figure11.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa121.eps}\caption{$\delta$(発話意図:{\itinvite},謙譲語)}\label{fig2:figure12.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa122.eps}\caption{$\delta$(発話意図:{\itinvite},尊敬語)}\label{fig2:figure12.2}\end{center}\end{minipage}\end{tabular}\end{figure}\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown.\BBA\Levinson.}{Brown.\BBA\Levinson.}{1987}]{Brown他1987}Brown.,P.\BBACOMMA\\BBA\Levinson.,S.\BBOP1987\BBCP.\newblock{\BemPoliteness-Someuniversalsoflanguageusage-}.\newblockCambridge.\bibitem[\protect\BCAY{文化庁文化部国語課}{文化庁文化部国語課}{1995}]{文化庁文化部国語課1995}文化庁文化部国語課\BBOP1995\BBCP.\newblock\Jem{国語に関する世論調査平成7年4月調査}.\newblock大蔵省印刷局.\bibitem[\protect\BCAY{林\JBA南}{林\JBA南}{1974}]{林他1974}林四郎\JBA南不二男編集\BBOP1974\BBCP.\newblock\Jem{敬語講座1敬語の体系}.\newblock明治書院.\bibitem[\protect\BCAY{石村}{石村}{1989}]{石村1989}石村貞夫\BBOP1989\BBCP.\newblock\Jem{統計解析のはなし}.\newblock東京図書.\bibitem[\protect\BCAY{蒲谷\JBA川口\JBA坂本}{蒲谷\Jetal}{1991}]{蒲谷他1991}蒲谷宏\JBA川口義一\JBA坂本恵\BBOP1991\BBCP.\newblock\JBOQ待遇表現研究の構想\JBCQ\\newblock\Jem{早稲田大学日本語研究教育センター紀要3},\BPGS\1--22.\bibitem[\protect\BCAY{菊池}{菊池}{1997}]{菊地1997}菊池康人\BBOP1997\BBCP.\newblock\Jem{敬語}.\newblock講談社.\bibitem[\protect\BCAY{菊池}{菊池}{2003}]{菊地2003}菊池康人\BBOP2003\BBCP.\newblock\JBOQ敬語とその主な研究テーマの概観\JBCQ\\newblock\Jem{朝倉日本語講座8敬語}.朝倉書店.\bibitem[\protect\BCAY{三浦}{三浦}{1973}]{三浦1973}三浦新他編\BBOP1973\BBCP.\newblock\Jem{官能検査ハンドブック}.\newblock日科技連.\bibitem[\protect\BCAY{水谷}{水谷}{1995}]{水谷1995}水谷静夫\BBOP1995\BBCP.\newblock\Jem{待遇表現提要}.\newblock計量計画研究所.\bibitem[\protect\BCAY{中屋}{中屋}{1970}]{中屋1970}中屋澄子\BBOP1970\BBCP.\newblock\JBOQScheffeの一対比較法の一変法\JBCQ\\newblock\Jem{第11回官能検査大会報文集}.日本科学技術連盟.\bibitem[\protect\BCAY{荻野}{荻野}{1980}]{荻野1980}荻野綱男\BBOP1980\BBCP.\newblock\JBOQ敬語表現の長さと丁寧さ札幌における敬語調査から(3)\JBCQ\\newblock\Jem{計量国語学},{\Bbf12}(6),264--271.\bibitem[\protect\BCAY{荻野}{荻野}{1986}]{荻野1986}荻野綱男\BBOP1986\BBCP.\newblock\JBOQ待遇表現の社会言語学的研究\JBCQ\\newblock\Jem{日本語学},{\Bbf5}(12),55--63.\bibitem[\protect\BCAY{Scheffe}{Scheffe}{1952}]{Scheffe1952}Scheffe,H.\BBOP1952\BBCP.\newblock\BBOQAnanalysisofvarianceforpairedcomparisons\BBCQ\\newblock{\BemJ.Am.Statist.Assoc.},{\Bbf47},381--400.\bibitem[\protect\BCAY{白土\JBA井佐原}{白土\JBA井佐原}{2002}]{白土他2002}白土保\JBA井佐原均\BBOP2002\BBCP.\newblock\JBOQ待遇表現選択ストラテジの数値モデル\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ85-A}(3),389--397.\bibitem[\protect\BCAY{白土\JBA丸元\JBA井佐原}{白土\Jetal}{2003}]{白土他2003}白土保\JBA丸元聡子\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ敬語に対する認識の混乱に関する定量的分析\JBCQ\\newblock\Jem{計量国語学},{\Bbf24}(2),65--80.\bibitem[\protect\BCAY{鈴木\JBA林}{鈴木\JBA林}{1984}]{鈴木他1984}鈴木一彦\JBA林巨樹編\BBOP1984\BBCP.\newblock\Jem{研究資料日本文法9敬語法編}.\newblock明治書院.\bibitem[\protect\BCAY{田中良久}{田中良久}{1977}]{田中1977}田中良久\BBOP1977\BBCP.\newblock\Jem{心理学的測定第2版}.\newblock東京大学出版会.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{丸元聡子}{1996年東京女子大学文理学部日本文学科卒業.同年,財団法人計量計画研究所入所,2000年--2001年,通信・放送機構/通信総合研究所(現:情報通信研究機構)に出向.現在,財団法人計量計画研究所言語情報研究室研究員.自然言語処理の研究に従事.言語処理学会,計量国語学会,電子情報通信学会,各会員.}\bioauthor{白土保}{電気通信大計算機科学科卒.1986年電波研究所(現NICT)入所.鹿島センター,平磯センター,関西先端研究センター,けいはんなセンター,総務省情報通信政策局勤務を経てけいはんなセンター勤務.主任研究員.専門分野は,言語心理,音楽音響,感性情報処理.日本音響学会,電子情報通信学会,各会員.工学博士.}\bioauthor{井佐原均}{1980年京都大学大学院修士課程修了.博士(工学).同年,通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構けいはんな情報通信融合研究センター自然言語グループリーダーおよびタイ自然言語ラボラトリー長.自然言語処理,語彙意味論の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V08N02-01
\section{はじめに} 本論文では日本語単語分割を分類問題とみなし,決定リストを利用してその問題を解く.このアプローチは文字ベースの手法の一種となり,未知語の問題を受けないという長所がある.また分類問題ととらえることで,ブースティングの手法が適用できる.その結果,単独の決定リストを利用するよりも,さらに精度を向上させることができる.日本語形態素解析は,日本語情報処理において必須の要素技術であり,その重要性は明らかである.日本語形態素解析は単語分割と分割された単語への品詞付与という2つのタスクをもつ.正しい単語分割からは英語の品詞タガーなどの技術を利用して,高精度に品詞付与ができるために,日本語形態素解析の本質的に困難な部分は単語分割である.特に未知語の問題が深刻である.未知語の問題とは,辞書に登録されていない単語の出現によりその単語とその単語の前後での単語分割が誤るという問題である.未知語の問題に対処する一つの方法として,文字ベースの単語分割手法がある.文字ベースの手法とは,辞書を使わずに,各文字間に単語境界が存在するかどうかを判定することで単語分割を行う手法である.従来,文字ベースの手法としては,文字ベースのHMM(HiddenMarkovModel)が提案されている.文字ベースのHMMは,状態として文字間に単語境界が存在する(状態1)としない(状態0)の2つを設定し,状態間を遷移するときに各文字が出力されるモデルである.単語分割は遷移した状態列を推定することで行える.文字ベースのHMMでは状態aから状態bに移るときに文字cを出力する確率を訓練データから得る.本質的にこの確率の精度が単語分割の精度を左右する.通常その確率を計算するためにtri-gramモデルを利用するが,常識的に考えても,前2文字から次の文字を予測することは難しく,文字ベースのHMM単独ではそれほどの精度は期待できない.このため,様々な工夫を付加する必要がある\cite{yamamoto97,tsuji97,oda98}.本論文では単語分割をHMMによりモデル化して解くのではなく,分類問題として定式化して解く.先ほども述べたように,日本語単語分割は,各文字間に単語境界が存在する(クラス\(+1\))か存在しない(クラス\(-1\))かを判定する問題であり,これは分類問題に他ならない.分類問題を解くために設定する属性として,辞書情報を使わないことで,文字ベースの単語分割手法と同様未知語の問題を受けない.また分類問題として見なすことで,n-gramモデルでは利用の困難であった様々な属性を判定の材料として利用可能になる.さらに,分類問題は機械学習や統計学で活発に研究されている問題であり,それらの研究成果を直接利用することができる.本論文では単語分割を分類問題と見なし,分類問題に対する帰納学習手法の一つである決定リスト\cite{Yarowsky1}を用いて,その問題を解く.さらに,近年,機械学習の研究分野では弱学習器を組み合わせて強学習器をつくるブースティングの研究が盛んである.ここではその代表的な手法であるアダブースト\cite{adaboost}を本問題に対して適用する.実験では,タグつきのコーパスである京大コーパス(約4万文)を訓練データとして,決定リストを作成した.その決定リストを利用した単語分割は,同じデータから学習させた文字tri-gramモデルに基づく単語分割法(文字ベースのHMMの一種)よりも高い精度を示した.さらに,アダブーストを利用することで,単独の決定リストよりも高い精度を得ることができた.また本手法の未知語の検出率が高いことも確認した. \section{決定リストによる単語分割} \subsection{単語分割と分類問題}\(n\)文字からなる入力文を\(s=c_1c_2\cdotsc_n\)(各\(c_i\)は文字を表す)とすると,日本語単語分割は文字\(c_{i}\)と\(c_{i+1}\)の間(\(b_{i}\)と名付ける)に単語境界がある(\(+1\))かない(\(-1\))かを与えることによって行える。つまり\(b_{i}\)(\(i=1,2,\cdots,n-1\))に\(+1\)か\(-1\)を与える分類問題としてとらえられる.例えば,「太郎は海でアイスクリームを食べた。」という文に対しては,\mbox{図\ref{zu1}}のように各文字間にクラス\(+1\)あるいは\(-1\)を付与し,\(+1\)の部分を単語境界に置き換えることにより単語分割が行える.\begin{figure*}[htbp]\begin{center}\atari(116.3,42.2)\end{center}\caption{クラスの付与による単語分割}\ecaption{Wordsegmentationbyclassassignment}\label{zu1}\end{figure*}分類問題を解く手法は様々なものがある.どの手法が優れているかは問題に依存するために一概には言えない.本論文では決定リストを利用して上記の分類問題を解く.\subsection{決定リストの構築}決定リストは帰納学習手法の一種であり,正解付きの訓練データから,分類規則を学習する.決定リストの場合,分類規則は証拠とクラスの組の順序付きの表となる.ここで証拠とは属性とその属性の値の組である.実際の分類はリストの上位のものから順に,その証拠があるかどうかを調べ,その証拠があれば,それに対応するクラスを出力する.決定リストの作成は概ね以下の手順による.\begin{description}\item[step1]属性を設定する.例えば\(n\)個の属性を\(att_{1},att_{2},\cdots,att_{n}\)とする。\item[step2]訓練データから証拠とクラスの組の頻度を調べる.訓練データ中のあるデータの属性\(att\)の値が\(a\)であるとし,そのデータのクラスが\(C\)だとする.その場合,\((att,a)\)という証拠とクラス\(C\)の組\(((att,a),C)\)の頻度に1を足す.これを訓練データ中の全データに対する全属性について行う.\item[step3]証拠の判別力と分類クラスを導く.\(((att,a),C)\)の頻度が\(f_{C}\)であった場合,\(f_{C}\)の最大値を与える\(\hat{C}\)が証拠\((att,a)\)に対する分類クラスとなる.またそのときの判別力\(pw(att,a)\)は以下で定義される.\[pw((att,a))=\log\frac{f_{\hat{C}}}{\sum_{C\neq\hat{C}}f_{C}}\]\item[step4]判別力の順に並べる.全ての証拠と分類クラスの組を判別力の大きい順に並べる.これによって作成できた表が決定リストである.\end{description}\subsection{属性の設定}各文字間\(b_i\)がどのクラスに属するかを判断する材料が属性である.本論文では\(b_i\)の属性として,\mbox{表\ref{attribute}}の7種類を用意した.\begin{table}[h]\begin{center}\leavevmode\small\caption{設定した属性}\ecaption{Settingattributes}\label{attribute}\begin{tabular}{|c|cc|}\hline属性&値&\\\hline\(att_{1}\)&文字列&\(c_{i-1}c_{i}c_{i+1}\)\\\hline\(att_{2}\)&文字列&\(c_{i}c_{i+1}c_{i+2}\)\\\hline\(att_{3}\)&文字列&\(c_{i-1}c_{i}\)\\\hline\(att_{4}\)&文字列&\(c_{i}c_{i+1}\)\\\hline\(att_{5}\)&文字列&\(c_{i+1}c_{i+2}\)\\\hline\(att_{6}\)&字種の接続関係1&\(((c_{i}の大分類字種),(c_{i+1}の大分類字種))\)\\\hline\(att_{7}\)&字種の接続関係2&\(((c_{i}の細分類字種),(c_{i+1}の細分類字種))\)\\\hline\end{tabular}\end{center}\end{table}6,7番目の属性として,字種の情報を利用している形になっている.ここでは字種を大分類と細分類の二つの観点から分類した.字種の大分類は6番目の属性,字種の細分類は7番目の属性で利用した.字種の大分類は\mbox{表\ref{dai-bunrui}}に示した9種類である.\newpage\begin{table}[h]\begin{center}\leavevmode\small\caption{大分類字種}\ecaption{Classificationofcharactertypes}\label{dai-bunrui}\begin{tabular}{|c|c|c|}\hline字種&意味&例\\\hline平&平仮名&あ,い,う,…\\\hlineカ&カタカナ&ア,イ,ウ,…\\\hline数&漢数字&一,二,…,百,千,…\\\hline漢&漢字&亜,位,卯,…\\\hlineN&英数字&0,1,2,…\\\hlineア&アルファベット&A,B,C,…\\\hline記&記号&、,。,「,…\\\hline〇&小丸かゼロ&〇\\\hline○&大丸かゼロ&○\\\hline\end{tabular}\end{center}\end{table}字種の細分類は大分類の平仮名の部分をその文字自身にしたものである.また注意として,本論文の決定リストでは\(default\)の証拠を導入していない.決定リストでは通常\(default\)という証拠を設けて,それ以下の判別力の証拠は表には入れない.\(default\)は文脈上の証拠が決定リストに存在しない場合の処理ととらえられるが,ここでは大分類の字種の情報が必ずヒットするので,\(default\)の証拠を含める必要がない.6番目の属性からの証拠の最下位のものが,決定リストの最下位の証拠となる.\subsection{利用例}決定リストの利用例を示す.例えば「太郎は海でアイスクリームを食べた。」という入力文の5番目の文字``で''と6番目の文字``ア''の間,つまり\(b_5\)にクラス\(+1\)あるいは\(-1\)を与えてみる.\(b_5\)の持つ証拠は以下の7種である.\bigskip\begin{center}\((att_{1},"海でア")\),\((att_{2},"でアイ")\),\((att_{3},"海で")\),\\\((att_{4},"でア")\),\((att_{5},"アイ")\),\((att_{6},"平カ")\),\((att_{7},"でカ")\)\end{center}\bigskip後述する実験で得られた決定リストを用いると,各証拠の分類クラスと判別力は以下の通りである.\newpage\begin{table}[h]\begin{center}\leavevmode\small\caption{クラス判別の例}\ecaption{Exampleofclassjudgement}\label{class-hanbetu}\begin{tabular}{|c|cc|}\hline証拠&分類クラス&判別力\\\hline\((att_{1},"海でア")\)&--&--\\\hline\((att_{2},"でアイ")\)&--&--\\\hline\((att_{3},"海で")\)&+1&2.74377\\\hline\((att_{4},"でア")\)&+1&5.83188\\\hline\((att_{5},"アイ")\)&+1&1.64565\\\hline\((att_{6},"平カ")\)&+1&6.33293\\\hline\((att_{7},"でカ")\)&+1&8.64488\\\hline\end{tabular}\end{center}\end{table}表の中で``--''の記号のものは,決定リスト中にその証拠がないことをあらわす.また本来ならば,決定リスト中の順位を求めなければならないが,ここでは相対的な順位関係だけが必要であり,順位の値自体は必要でない.判別力の最も大きなものが最上位の順位になるはずである.この場合,証拠\((att_{7},"でカ")\)が最も大きな判別力を持つので,この証拠の分類クラス+1が判定結果となる.つまり\(b_5\)には単語境界を置くと判定する. \section{アダブーストの利用} 精度の低い分類規則を組み合わせて精度の高い分類規則を得る方式をブースティングという.アダブーストはブースティング方式の一つであり,現在まで多くの理論的検証と実験的実証から有効性が示されている.アダブーストのアルゴリズムを\mbox{図\ref{algo}}に示す.分類クラス(\mbox{図\ref{algo}}の\(Y\))をここでは\(\{+1,-1\}\)の2値とする.また訓練データを\((x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\)で表す.ここで各\(x_i\)はデータを表し,\(y_i\)はデータ\(x_i\)のクラスである.具体的に\(y_i\)は\(+1\)あるいは\(-1\)の値である.この訓練データに対して,分類問題に対する学習アルゴリズム,例えば,決定木や決定リストなどを適用して,分類規則\(h_1\)を学習する.得られた分類規則\(h_1\)を訓練データに適用すると,\(h_1\)によって各\(x_i\)の判定クラスが得られる.今,\(x_i\)の実際のクラス\(y_i\)は与えられているので,分類規則\(h_1\)が各\(x_i\)に対して正しい判定を行ったかどうかを調べられる.これによって不正解のデータを集め,それら不正解のデータに対してある重みを付加して,訓練データ\((x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\)を再構成する.そしてこの再構成された訓練データに対して,再び学習アルゴリズムを適用して,分類規則\(h_2\)を学習する.これを\(T\)回繰り返す.この繰り返しによって,\(T\)組の分類規則\(h_1,h_2,\cdots,h_T\)が得られる.実際の判定は入力データに対して各分類規則が出力するクラスの重み付き多数決により行われる.例えば,\(T=3\)とし,入力データ\(x\)に対して,分類器\(h_1\)による判定クラスが\(+1\),\(h_2\)による判定クラスが\(-1\),\(h_3\)による判定クラスが\(+1\)であり,各重みが1,2.0,2.2であった場合,重み付き多数決の結果は\(+1.2\)である.最終的な判定クラスは総和の符合により求まる.この例の場合,符合は正であるので,\(+1\)が判定クラスになる.アダブーストのポイントは不正解のデータに課す重みの与え方である.概略,得られた分類規則の誤り確率(\mbox{図\ref{algo}}における\(\epsilon_{t}\))が小さいほど重みが大きくなるように設定している.\begin{figure*}[htbp]\begin{center}\atari(120.5,128)\end{center}\caption{アダブースト}\ecaption{AdaBoost}\label{algo}\end{figure*}本論文では.分類問題に対する学習アルゴリズムを決定リストに設定する.不正解データに与える重みをどのように反映させるかが問題である.ここでは,重みを頻度として与えることにした.例えば,「太郎が東京へ行く。」という文に以下のように単語境界``/''が置かれたものが訓練データである.\begin{verbatim}太郎/が/東京/へ/行く/。\end{verbatim}今,4番目の文字``東''と5番目の文字``京''の間,つまり\(b_4\)に対する証拠は以下の通りである.\bigskip\begin{center}\((att_{1},"が東京")\),\((att_{2},"東京へ")\),\((att_{3},"が東")\),\\\((att_{4},"東京")\),\((att_{5},"京へ")\),\((att_{6},"漢漢")\),\((att_{7},"漢漢")\)\end{center}\bigskip``東''と``京''の間には,単語境界がないので,クラスは\(-1\)である.そして,決定リスト作成のstep2で示したように,以下の証拠の頻度に1が足される.\bigskip\begin{center}\(((att_{1},"が東京"),-1)\),\(((att_{2},"東京へ"),-1)\),\(((att_{3},"が東"),-1)\),\\\(((att_{4},"東京"),-1)\),\(((att_{5},"京へ"),-1)\),\(((att_{6},"漢漢"),-1)\),\(((att_{7},"漢漢"),-1)\)\end{center}\bigskipこの頻度に加算される1という数値に重みを反映させる.例えば,決定リスト\(h_k\)により上記例文の4番目の文字``東''と5番目の文字``京''の間の判定クラスが\(+1\)と判定された場合,この判定は不正解である.そこで次の決定リスト\(h_{k+1}\)を作成するときに,上記の7つの各証拠の頻度に1ではなく,重み自身を加える.つまり決定リストを作成する際には各訓練データには重みがついているとして,その重みが決定リスト作成のstep2で各証拠と正解の組に付加する数値とする.\mbox{図\ref{algo}}のアルゴリズムでは正規化するために重みの総和が1になっているが,ここでは重みの最小値が1となるようにして計算を簡単にした.このため最初の決定リストを作成する際の各訓練データの重みは1であり,2回目では正解のデータの重みは1で変化せず,不正解の部分の重みが大きくなる. \section{実験} \subsection{文字n-gramモデルに基づく単語分割法との比較}ここでは決定リストを利用した単語分割の有効性を示すために,文字n-gramモデルに基づく単語分割法\cite{oda98}との比較を行う.文字n-gramモデルに基づく単語分割法では,概略,単語境界を付与した訓練データにおいて,単語境界の記号自体も一つの特殊文字として考えて,ある文字列の後に単語境界が生じる確率あるいは生じない確率を文字n-gramモデルに基づいて計算する.最終的にはViterbiアルゴリズムなどの動的計画法を利用して,文字列の出現確率が最大になるように単語境界のあるなしの列を決定する.これは文字ベースのHMMにおいて,遷移確率やシンボル出力確率をある確率モデルに基づいて計算したものと同等である.訓練データとしては京大コーパス(約4万文)を利用した.京大コーパスは人手でタグをつけたコーパスであり,正解付きの訓練データとして利用できる.京大コーパスの中から950117.KNPというファイルに納められた1,234文\footnote{ここではコーパス中の記号EOSの数を文の数としている.句点``。''の数ではないことを注意しておく.}をテストデータとした.結果,訓練データは京大コーパスからテストデータを除いた35,717文である.テストデータ1,234文の中には,単語境界を置くか置かないかを判定する位置が56,411個所存在する.この56,411個所に対して正しいクラスを付与できた割合を正解率とする.訓練データから文字tri-gram確率を求めるためにCMU-CambridgeToolkit\footnote{CMU-CambridgeToolkitは以下のアドレスから入手可能.\mbox{{\tthttp://svr-www.eng.cam.ac.uk/\(\tilde{}\)prc14/toolkit.html}}}を利用した.スムージングの手法としてはWitten-Belldiscountingを用い,カットオフは頻度0と設定した\cite{kita99}.文字tri-gram確率からtri-gramモデルに基づく単語分割法を実装したシステムを作成し,テストデータに対して単語分割を行った.結果,56,411個所の判定位置について,52,328個所で正しい判定を行い,4,083個所で誤った判定を行った.つまり正解率は92.76\%であった.次に上記の訓練データを利用して本論文で提案した決定リストを作成した.頻度7以下の証拠は間引いた.作成できた決定リストの大きさは136,114であった.この決定リストによりテストデータに対して単語分割を行った.結果として,56,411個所の判定位置について,55,015個所で正しい判定を行い,1,396個所で誤った判定を行った.つまり正解率は97.52\%であった.この値はtri-gramモデルに基づく単語分割法の正解率92.76\%を大きく上回っており,本手法の有効性が示せた.\subsection{ブースティングの効果}前述したアダブーストにより,決定リストのブースティングを行った.ブースティングの回数を横軸に,テストデータに対する正解率\%を縦軸にしたグラフが\mbox{図\ref{graph}}である.\begin{figure*}[htbp]\begin{center}\atari(127,88.9)\end{center}\caption{ブースティングによる正解率}\ecaption{Precisionbyboosting}\label{graph}\end{figure*}\mbox{図\ref{graph}}からわかるように,ブースティングにより3組の決定リストを作成し,それらの重み付き多数決によって判別した結果が最も優れていた.そのとき56,411個所の判定位置について,55,560個所で正しい判定を行い,851個所で誤った判定を行った.つまり正解率は98.49\%まで向上した.\subsection{未知語の検出}ブースティングにより3組の決定リストを作成し,それらの重み付き多数決によって各文字間に単語境界の有無を判定する手法(以下これを本手法と呼ぶ)が,本実験において,どの程度の未知語を検出できたか調べる.前述した訓練データ35,717文とテストデータ1,234文の正確な単語分割結果から,それぞれに含まれている単語文字列を取り出した.ここでいう単語文字列とは,単純に単語分割された分割要素の文字列のことである.つまり用言の活用語尾が異なるものも,異なる単語文字列として取り出すことに注意する.結果,訓練データには914,392個(41,890種類)の単語文字列,テストデータには32,764個(6,479種類)の単語文字列が存在した.そしてテストデータには含まれるが,訓練データには含まれない単語文字列が1,024個(832種類)存在した.この1,024個(832種類)の単語文字列が本実験における未知語となる.結論から述べると,本手法によりこの1,024個(832種類)の未知語の中で,正しく検出できたものは688個(562種類),つまり個数で67.2\%,種類数で67.5\%の検出率であった.検出できた未知語の中には,字種区切りのような単純なヒューリスティクスから検出できるものも存在するので,本手法の未知語検出が,実質どの程度の有用性があるのかを示すために,対象の未知語を以下のように9タイプに分類した.\begin{description}\item[(1)用言であり,その原型を同じとする単語が訓練データに含まれる(124個(123種類)).]例えば,「押しつぶした」という単語文字列は,テストデータには含まれるが,訓練データには含まれないために,本手法では未知語として扱われる.しかし通常の辞書を利用したシステムでは,「押しつぶした」の原型「押しつぶす」が辞書に登録されていれば,正しく解析できる.訓練データには,「押しつぶす」の語尾変化形である単語文字列「押しつぶして」が含まれている.そこで,通常のシステムの辞書には,原型「押しつぶす」が登録されていたと考え,「押しつぶした」は正しく解析できると考える.ここでは,このようなタイプの未知語は,通常のシステムの用言の語尾変化の規則によって検出できるタイプの未知語として考える.\item[(2)用言であり,その原型を同じとする単語が訓練データに含まれない(94個(91種類)).]例えば,「飲みすぎて」という単語文字列は,テストデータには含まれるが,訓練データには含まれない.しかも(1)の場合とは異なり,「飲みすぎて」の原型「飲みすぎる」を語尾変化させた単語文字列も訓練データに含まれない.これは通常のシステムにおいても未知語となるものである.\item[(3)数値表現となっている(44個(41種類)).]例えば,「一万九千百八十五」や「27・7」という単語文字列は未知語となっているが,通常のシステムはこれらの表現を数値表現として認識できる規則を持っている.この種の未知語も通常のシステムで検出できるタイプの未知語とする.\item[(4)アルファベットのみで構成される(7個(3種類)).]「AC」「OEK」「PAH」の単語文字列である.これらは字種区切りのような単純なヒューリスティクスから通常のシステムでも検出可能である.\item[(5)カタカナのみで構成される(210個(156種類)).]例えば,「アロマセラピスト」や「スーザン」のような単語文字列である.これらも字種区切りのような単純なヒューリスティクスから通常のシステムでも検出可能である.\item[(6)平仮名のみで構成される(38個(32種類)).]例えば,「ごあいさつ」や「ぞろぞろ」のような単語文字列である.これらの検出は通常のシステムでは不可能である.\item[(7)漢字1文字で構成される(21個(17種類)).]例えば,「魁」や「鋼」のような単語文字列である.通常のシステムでも未知語となるが,単語分割の他の候補が生じないために,結果的に正しく単語分割できる場合も多い.\item[(8)漢字のみで構成される(426個(310種類)).]例えば,「重文」や「三井造船」のような単語文字列である.これらの検出は通常のシステムでは不可能である\footnote{例えば,漢字1文字からなる未知語と既知語を全体として未知語として認識できる可能性が指摘された.しかしそのヒューリスティクスがどの程度妥当かは疑問がある.また,その場合(7)との区別がつかない.ここでは多少強引だが,(8)は既存のシステムでは検出不可能とした.}.\item[(9)複数の字種から構成される(64個(59種類)).]例えば,「寝泊まり」や「亡き後」のような単語文字列である.これらの検出は通常のシステムでは不可能である.\end{description}上記9タイプの未知語の本手法による検出結果を\mbox{表\ref{unknown}}に示す.同時に通常のシステムで想定できる検出結果も示す.\newpage\begin{table}[h]\begin{center}\leavevmode\small\caption{未知語の検出}\ecaption{Detectionofunknownwords}\label{unknown}\begin{tabular}{|l|r|r|r|}\hlineタイプ&総出現数&本手法による検出&通常のシステムによる検出\\\hline\hline(1)辞書登録の用言&124&101&124\\\hline(2)辞書未登録の用言&94&57&0\\\hline(3)数値表現&44&40&44\\\hline(4)アルファベット列&7&5&7\\\hline(5)カタカナ列&210&188&210\\\hline(6)平仮名列&38&19&0\\\hline(7)漢字1文字&21&4&21\\\hline(8)漢字列&426&246&0\\\hline(9)複数の字種&64&28&0\\\hline\hline合計&1,024&688(67.2\%)&406(39.6\%)\\\hline\end{tabular}\end{center}\end{table}\mbox{表\ref{unknown}}に示すように通常のシステムの検出率は39.6\%であり,本システムの検出率67.2\%と大きく差がある.これは本システムの未知語の検出能力の高さを示している.また通常のシステムにより検出できるとした未知語のタイプ(1),(3),(4),(5),(7)に対して,本手法の検出率は83.3\%であり,通常のシステムにより検出できる未知語の多くは本システムでも検出できると考えられる. \section{考察} 本手法での判別の出力は2値であり,判別に使った判別力の値自体は利用されていない.テストデータに対して判別力の値による正解率を調べるために,以下の調査を行った.テストデータには56,411個所の判定位置があるが,0以上1未満の間の判別力で判定された位置は83個所であり,その正解率は57.83\%であった.同様にして,1以上2未満の間,2以上3未満の間という具合いに順に調べていった結果を示したものが\mbox{図\ref{kousatu2}}である.このグラフからもわかるように,判別に利用した判別力が小さいほど誤る確率が高くなる.このような判別力の値を利用して,さらに誤りを減らせる工夫も可能であろう.\begin{figure}[htbp]\begin{center}\atari(101.6,71.1)\end{center}\caption{判別力と正解率}\ecaption{Identificationstrengthandprecision}\label{kousatu2}\end{figure}また本論文では分類問題の解法として決定リストを利用したが,他の手法,例えば,決定木\cite{quinlan93}や最大エントロピー法\cite{ratnaparkhi98}の利用も可能である.ただし本論文で利用した属性にあたるものを,それらの手法では単純には利用できない.決定木を利用する場合,属性の数は7種類であり問題ないが,bi-gramあるいはtri-gramにあたる属性の値の種類数が非常に多い.このため決定木の各ノードから出る枝の数が膨大になり,現実的には決定木を作成できない.また最大エントロピー法では素性の設定と素性パラメータの算出が必要となる.素性は本論文で述べた証拠自体となるため,素性の種類は頻度7で間引いて約14万弱である.最大エントロピー法で利用できる素性の数は現実的には,数万が限度であるために,最大エントロピー法の利用も現実的には無理がある.文字ベースの手法を利用する場合には,bi-gramやtri-gramなどの情報を直接利用できる決定リストは現実的に有効な選択である.本論文では単語分割を分類問題としてみなして解決した.分類問題とみなした場合,精度に関わる最も大きな要因は属性の選択である.アダブーストを利用するという枠組みでは,属性の設定はさらに考慮すべきである.ブースティングは弱学習アルゴリズムに対して利用できる.具体的には精度が50\%を越えるようなアルゴリズムであれば適用できる.つまり作成できた決定木などの分類器自体の精度はそれほど高い必要はない.属性をうまく考慮して決定リストの精度を上げるよりも,作成される決定リストの精度は低いが,ブースティングにより精度が増してゆくような属性を設定するアプローチも有望である.いくつかの実験を行った結果,以下の点が確認できた.\begin{itemize}\item属性を増やす,間引きの頻度を調整する,などの工夫を入れて決定リストの精度を上げた場合,ブースティングでは精度が上がらなかった.\item属性を単純化して決定リストの精度を若干下げた場合,ブースティングによって精度は上がるが本実験で行った結果以上には精度は上がらなかった.\end{itemize}\noindent結論的には本論文で設定した属性の情報を利用する上では,本論文で示した値程度が限界に近いと感じられた.分類誤りの原因を追求すると,訓練データに現れない表現あるいは頻度の低い表現の部分で分類が誤っている\footnote{先の実験により示した本手法が検出できなかった未知語の出現数(336)から考えて,全体の誤りの数(851)が多いようにも感じられる.しかしこれは,本実験では頻度7以下の証拠を間引いているために,本手法における未知語の実質的な総数は,先の実験で示した数よりも多いことによる.}.これは未知語の問題そのものであり,未知語への対処が単語分割の中心の課題と言える.この解決策は3つ考えられる.1つ目は規則の一般化を精度良く行うことである.例えば文字クラス\cite{oda99}などの導入などが考えられる.2つ目は別リソースの利用である.例えば辞書の利用である.単語分割に本手法の分類手法と辞書による最長一致法を利用することも考えられる.3つ目は訓練データの拡充である.事例ベースの手法\cite{yamashita98,ito99}は訓練データつまり事例を大規模化することで精度が上がる.ただし大規模な正解付きの訓練データが用意できない現状では,正解のない訓練データをどう使うかが鍵となる\cite{shinno00}.1つ目のアプローチ以外は,未知語の検出に対して理論的な保証がない.しかしだからといって,単語分割を文字ベースの手法によって解くことに意味がないわけではない.辞書に基づいた分割では数値表現や字種区切りが有効になるような未知語しか解析できず,解析できる未知語が限定されている.このような未知語の多くは,実験に示したように,本手法でもその多くを検出できる.さらに文字ベースの手法では,その他のタイプの未知語も検出できる場合が多々あるが,辞書に基づいた分割では確実に検出できない.この違いは大きい.最後に本手法のアプローチは解析が決定的になるという長所もあることを付記しておく\cite{shinnou00}.通常の形態素解析システムも現実的にはほぼ文字数に比例した時間で解析が行えるので,決定的であるということはそれほど大きな長所ではない.ただし理論的に線形時間での解析を保証できることには意味がある. \section{おわりに} 本論文では日本語単語分割を分類問題とみなし,決定リストを利用してその問題を解いた.本手法は未知語の問題を受けないという長所がある.実験では,文字ベースのn-gramモデルに基づく単語分割法との比較を行い,決定リストによる単語分割の方が優れていることを示した.また分類問題ととらえることで,ブースティングの手法を適用できることも示した.アダブーストを利用することによって,単独の決定リストよりもさらに精度を向上させることができた.未知語の検出能力も高かった.訓練データにない表現をどのようにカバーしてゆくかが今後の課題である.\acknowledgment本研究は(財)栢森情報科学振興財団の研究助成金(K11研IV第71号)によって行われました.深く感謝します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{昭和36年生.昭和60年東京工業大学理学部情報科学科卒業.昭和62年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,平成5年4月茨城大学工学部システム工学科助手.平成9年10月同学科講師,平成13年4月同学科助教授,現在に至る.博士(工学).}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V03N01-02
\section{はじめに} 複合名詞は名詞を結合することによって数限りなく生成できるので,全てを辞書に登録することは不可能である.したがって,辞書に登録されている名詞の組み合わせとして複合名詞を解析する手法が必要である.そのためには,複合名詞をそれを構成している名詞に分割し(複合名詞の形態素解析),名詞間の係り受け構造を同定しなくてはならない.例として,「歩行者通路」という複合名詞をとりあげる.「歩行者通路」の分割可能性として少なくとも「歩行/者/通路」,「歩/行者/通路」の2通りが考えられる.さらに,前者の分割の結果に対して[[歩行,者],通路]と[歩行,[者,通路]]の2通りの係り受け構造が,後者については[[歩,行者],通路]と[歩,[行者,通路]]の2通りの係り受け構造が考えられる.このなかから正しい係り受け構造[[歩行,者],通路]を選択しなくてはならない.日本語のように語と語の間に区切り記号のない言語では,まず,複合名詞の分割が困難である.また,複合名詞は名詞の並びによって構成されているので,品詞などの統語的な手係りが少なく,係り受け構造の解析も困難である.したがって何らかの意味的な情報を用いることが必要である.そのために方法として,名詞をいくつかの意味的なクラスに分け,それらのクラスの間の係り受け関係に関する情報を用いて複合名詞の構造を解析することが考えられる.たとえば,宮崎らは,語が表す概念に関する知識,概念間の係り受けに関する規則を人手で記述し,これらを用いて複合名詞の係り受け構造を解析する方法を提案している~\cite{miyazaki:84:a,miyazaki:93:a}.AI関係の新聞記事のリード文に現れる複合名詞で未定義語を含まない語167語の解析に適用し精度94.6\%で解析できている\footnote{この結果はNTT通信研究所が独自に作成した辞書や知識ベースを用いて得た結果であるので,一般に手に入る辞書や知識ベースを用いて得た結果と簡単に比較できない.}\cite{miyazaki:93:a}.この方法では,係り受けが成立する名詞意味属性の組を表に記述し,その表を用いて係り受けを解析している.この表からは,係り受けが可能か不可能かを知ることはできるが,複数の係り受けの可能性がある場合にどちらが尤もらしいかといったことを知ることはできない.対象領域を拡大したり語彙を増やした場合,このような成立/不成立のような2値の情報で正しく係り受け解析が行なえるか検討の余地がある\footnote{現在のバージョンでは構造的曖昧性のある複合名詞に対して候補それぞれに評価値をつける方向で拡張がなされている.}.また,高い精度を得るためには,係り受け規則や名詞意味属性の体系を領域にあわせて調整することが不可欠である.このように人手で知識を記述する場合には以下の問題がある.\begin{itemize}\item新しい言語現象に対応するための規則や知識の拡張や保守が容易でない.\item領域ごとに知識を用意するのはコストが高い.\end{itemize}これらの問題を解決するためには,複数の候補に何らかの優先度をつける方法と自動的に知識を獲得する方法の2つが必要である.そのような方法を研究しているものに,藤崎らの研究がある~\cite{nishino:88:a,takeda:87:a}.藤崎らは,複合名詞の分割にHMMモデルを用い,係り受け構造を解析するために統計的クラスタリングによって得た語のクラスと確率付き文脈自由文法を用いている.平均語長4.2文字の漢字複合語を精度73\%で解析している.以下の問題点がある.\begin{itemize}\item複合名詞の分割を統計的な方法(HMM)のみで行なっているため,存在しない語を含む分割結果が得られることがある.\item統計的に得た語のクラスが,語の直観的な意味的クラスを反映しないことがあるので構造解析の結果を用いて意味解析を行なう場合に障害になる.\item複合語は1文字語と2文字語から構成されると仮定している.\end{itemize}藤崎らの方法は複合名詞の統計的な性質のみを用いている点が問題である.語の意味クラスについては,すでに言語学者が作成した意味分類辞書(たとえば,分類語彙表~\cite{hayashi:66:a})がある.このような知識も積極的に利用すべきである.本論文では,既存の意味分類辞書とコーパスから自動的に抽出した名詞間の意味的共起情報を用いて複合名詞の係り受け構造を解析する方法を提案する.Churchらは,大量の語と語の共起データから相互情報量を計算することで意味的なつながりの程度を評価できることを示している~\cite{church:91:a}.この場合の問題は,正しい共起データを大量に獲得することが困難なことである.統語的,意味的曖昧性が解消されていない共起データでは正しい統計情報は獲得できない.自動的に大量の正しい共起データを獲得する方法を考えなくてはならない.本論文では,大量の共起情報をコーパスから高い精度で自動的に獲得するために4文字漢字語を利用する.まず,4文字漢字語16万語から意味クラスの共起データを抽出した.抽出した共起データから統計的に名詞間の意味的関係の強さを計算する.そのための尺度として相互情報量を基にした評価尺度を提案する.この尺度と複合名詞の構造に関するヒューリスティクス,機械可読辞書から得られる言語知識を用いて複合名詞を解析する.評価のために新聞や用語集から抽出した漢字複合名詞を解析し,平均語長5.5文字の漢字複合名詞を約78\%の精度で解析できた.実際の文章では,漢字複合名詞の平均語長は約4.2文字であることを考慮すると,我々の方法による係り受け構造の解析精度は約93\%と推定される.本論文の構成は以下の通りである.\ref{sec:acq}章で共起データの獲得方法について,\ref{sec:anl}章で複合名詞の解析方法について述べる.\ref{sec:rsl}章で提案した方法を用いて複合名詞を解析した実験と結果について述べる.\ref{sec:imp}章では\ref{sec:rsl}章での結果に基づきヒューリスティクス導入による解析方法の改良について述べ,\ref{sec:rsl2}章で改良した方法による解析結果について述べる. \section{名詞の意味的クラスの共起情報の獲得} \label{sec:acq}共起データを抽出するときの問題は,統語的,意味的な曖昧性を解消した正しい共起データを獲得することが困難なことである.Smadjaは,ある語とその前後5語に現れる語の共起頻度を計算し,頻度の高い共起を意味のある共起データとして利用している\cite{smadja:91:a}.しかし,この方法では多くの誤った共起も抽出してしまう.Hindleは統語解析を行い,主語と述語などの意味的に尤もらしい共起のみを抽出している~\cite{hindle:90:a}.本研究では,コーパスから4文字漢字語を抽出し,それらの語から共起データを抽出する.4文字漢字語を用いて正しい共起関係データを抽出できると考えら理由は以下の3つである.\begin{enumerate}\item漢字連続をコーパスから抽出することは自動的にできる.\item4以上の長さの漢字列は多くの場合,複合名詞と考えられる.本論文で用いる分類語彙表~\cite{hayashi:66:a}では,漢字のみからなる見出し語のうち4\%が4以上の長さの漢字語であった.一方,新聞など22万文から自動的に抽出した漢字列では,異なり語のうち71\%が4文字以上の長さであった.つまり,4文字以上の長さを持つ語のほとんどは複合語であると考えられる.\item4文字漢字列は2つの2文字語に分割することによって正しい分割を得ることができる可能性が高い.新聞と用語集から抽出した4文字漢字語1000個を分析した結果,2つの2文字語に分割できる語が約96\%であった.この場合,係り受けのあいまい性は生じないので,両方の2文字語が辞書の見出し語であるか確認することによって語の共起関係を得ることができる.\end{enumerate}複合名詞の解析に用いる共起データを獲得する方法の概要は以下の通りである.\begin{enumerate}\item4文字漢字語を収集する.\item4文字漢字語を2つの2文字語に2分割して語と語の共起関係を求める.\item各2文字語を意味分類辞書の意味分類で置き換え,意味分類の共起関係を獲得する.ここで,該当する意味分類がない語を含む共起データは利用しない.\item意味分類の共起頻度を求める.ただし,複数の意味分類に含まれる語を含む共起データは利用しない.\end{enumerate}図\ref{fig:bunkatu}にこの方法の例を示す. \section{共起情報を用いた複合名詞の解析} \label{sec:anl}獲得した意味分類の共起データを用いて複合名詞の構造解析を行なう.本研究では複合名詞の構造について以下の2つの仮定をしている.\begin{itemize}\item複合名詞の係り受け構造は,二分木で表現できる.\item左側の語が右側の語を修飾するので,複合名詞の意味分類は最も右の語の意味分類に等しい.\end{itemize}例えば,「歩行者通路」の係り受け構造は[[歩行,者],通路]と表現できる.部分複合名詞[歩行,者]の意味分類は「者」の意味分類と等しく,複合名詞[[歩行,者],通路]の意味分類は「通路」と等しい.以下に構造解析の手順を示す.\begin{enumerate}\item意味分類辞書の見出し語を用いて,可能な複合名詞の分割を求める.このとき,自立語数最小法によって候補を絞る.\item各語の意味分類辞書での意味分類を求める.\item可能な全ての構造を求める.\item全ての構造について共起頻度を基に優先度を計算する.\item複数の意味分類に属する語を含む場合,それぞれの意味分類について別々に優先度を計算する.\end{enumerate}複合名詞の各構造$t$の優先度$p(t)$は,以下の式で計算する.\begin{displaymath}p(t)=\left\{\begin{array}{l@{\qquad\qquad}l}1&\mbox{if$t$isleaf}\\p(l(t))\cdotp(r(t))\cdotcv(class(l(t)),class(r(t)))&\mbox{otherwise}\\\end{array}\right.\end{displaymath}関数$l(t)$,$r(t)$はそれぞれ,木$t$の左側の部分木,右側の部分木を返す.$cv(class_1,class_2)$は,語の意味分類の共起を評価した値である.Churchらは,語の間の意味的関係を共起頻度を基に相互情報量から獲得する方法を提案している~\cite{church:91:a}.我々は,語の順序を考慮するように相互情報量を修正した以下の式によって語のクラス間の意味的関係を評価する.\begin{description}\item[修正相互情報統計](MMIS:Modifiedmutualinformationstatistics)$$cv(class_1,class_2)=\frac{RF(class_1;class_2)}{RF(class_1;*)\cdotRF(*;class_2)}$$$RF(class_1,class_2)$は,$class_1$と$class_2$がこの順序でコーパスに出現した相対頻度である.*はどのような意味分類でもよいことを表す.\end{description}\begin{center}\epsfile{filename=fig1,width=137mm}\figcap{共起データの獲得}{fig:bunkatu}\end{center}\subsection*{解析例}「歩行者通路」を例にして,解析過程を説明する.\begin{enumerate}\item自立語数最小となる全ての可能な分割を求める.\begin{enumerate}\item歩行/者/通路\item歩/行者/通路\end{enumerate}\item意味分類辞書を検索する.``:''は複数の意味分類に属することを意味する.この例では分類語彙表の分類を用いる.\begin{enumerate}\item[\hspace*{10mm}{\bfa}]歩行[133]/者[110:120]/通路[147]\item[\hspace*{10mm}{\bfb}]歩[119:133:145]/行者[124]/通路[147]\item[\hspace*{10mm}{~}]...\end{enumerate}\item優先度を計算する.曖昧な意味分類が別々に計算されることに注意.\begin{itemize}\item{\bfa}の場合,曖昧な意味分類を展開すると以下の4つの構造が考えられる.(イ.)[[133,110],147],(ロ.)[133,[110,147]],\\(ハ.)[[133,120],147],(ニ.)[133,[120,147]]\\構造(イ.)の優先度を計算すると,$p([[133,110],147])$\\$=p([133,110])\cdotp(147)\cdotcv(110,147)$\\$=p(133)\cdotp(110)\cdotcv(133,110)\cdotcv(110,147)$\\$=cv(133,110)\cdotcv(110,147)$\\$=1.19\cdot1.14$\\$=1.36$構造(ロ.)の優先度は,$p([133,[110,147]])$\\$=cv(133,147)\cdotcv(110,147)$\\$=1.13\cdot1.14$\\$=1.29$構造(ハ.)(ニ.)の場合も同様に計算する.\item{\bfb}の場合も同様に計算する.\end{itemize}\end{enumerate}図\ref{fig:kaiseki}に上記処理の関係を示す. \section{実験} \label{sec:rsl}\subsection{実験データ}\label{sec:data-analy}評価用データは,新聞のコラムと社説,用語辞典から抽出した漢字のみからなる複合名詞である.4文字語954語,5文字語730語,6文字語787語,7文字以上の漢字語535語である.\newpage\begin{center}\epsfile{filename=fig2,width=92mm}\figcap{解析例}{fig:kaiseki}\end{center}これらの評価用複合名詞は,自動的に抽出したものを人間が検査し,正しい係り受け構造を付与した.実験対象データからは,意味分類辞書のみでは分割できない複合名詞は除いている.例えば「土地取引」という語には,「土/地/取/引」「土地/取/引」「土/地取/引」「土/地/取引」「土地/取引」「土地取/引」「土/地取引」「土地取引」の8つの分割の候補があるが,いずれの分割も意味分類辞書に含まれない語を含んでしまう\footnote{「土地/取引」という分割は成功しそうであるが,「取引」が異表記形「取り引き」でしか辞書に登録されていないために失敗する.}.このような辞書引きの段階で失敗する語は,今回の実験の対象外としている.ただし「炭鉱労働者」の場合,「炭鉱」という語が辞書にないが,「炭/鉱/労働者」という分割結果を得ることができる.このような場合は,「炭鉱」は「炭」と「鉱」から構成できると考え,このような複合名詞は除外していない.解析用の知識は以下の通りである.\begin{description}\item[共起情報源]田中(康仁)によって収集された4文字漢字列16万語を含むコーパス~\cite{tanaka:92:g}.\item[意味分類辞書]分類語彙表~\cite{hayashi:66:a}(意味分類として上位3桁を利用).分類語彙表では,全ての表記形が記述されているわけではない.表記のゆれがあるばあい,代表的と考えられる表記形のみが記述されている.そこで,複数の表記方法がある場合,「大辞林」\cite{daizirin:88}から異表記形を獲得し,解析用辞書に追加した\footnote{上で例にあげた「取引」は,「大辞林」にも「取引」という表記しか記述されていないので,「取り引き」と「取引」の関係を機械可読の言語資源から得ることはできなかった.}.\end{description}\subsection{結果}\label{sec:rsl1}実験結果を表\ref{rsl1}に示す.平均名詞数は,正解における複合名詞を構成する名詞の数を平均したものである.精度は正解の優先順位が単独一位のものの割合で評価した.\begin{center}\tblcap{解析結果}{rsl1}\begin{tabular}{|r|c|c|c|c|}\hline文字長&4文字&5文字&6文字&7文字以上\\&&&&平均7.9文字\\\hlineデータ数&956&730&787&535\\\hline平均名詞数&2.0&2.7&3.1&6.5\\\hline精度[\%]&96&69&61&32\\\hline\end{tabular}\end{center}\subsection{考察}\label{sec:resul-discuss1}解析を失敗したものは,分割の段階で失敗したものと構造解析で失敗したものに分けられる.分割を失敗した主な原因は以下の2つである.\begin{enumerate}\item適切な語が辞書に記述されていない場合.例えば「現代版天水桶」において「桶」という語が辞書にないので「現代/版/天/水桶」と分割される.この失敗は10例(4文字),28例(5文字),14例(6文字),2例(7文字以上)であった.\itemヒューリスティクスとして用いた自立語数最小法によって,正しい分割結果を排除してしまう場合.この失敗は,18例(5文字),6例(6文字),12例(7文字以上)であった.この失敗は,数詞と接辞を含む語が辞書に登録されている場合に起こる.例えば,「約/二千/万人」「自己/中心的」などがある.数詞を含む複合名詞はこのヒューリスティクによってほとんど分割に失敗している.\end{enumerate}分割に成功して,構造解析に失敗する原因には以下のものがある.\begin{enumerate}\setcounter{enumi}{2}\item接辞の知識がないため接頭辞が語末にくる語や,接尾辞が語頭にくる語を許している.このような例は,45例(5文字),28例(6文字)であった.\item数詞を含む語の構造が一般の複合名詞と異なる.\item団体,機関,組織の名詞を解析する場合は,共起データから得らる意味的近さでは係り受け構造の優先度を正しく評価できない.例えば「日本野鳥保護協会」などである.7文字以上の漢字複合語にこのような語が多い.\item2項関係のみの係り受け構造では表現できない並立構造や3項構造を含む場合,例えば「保守対革新」や「領土領空領海」などがある.\item該当する共起が共起データ源のコーパスに含まれていない場合がある.\item該当する意味分類が意味分類辞書に記述されていない場合.例えば,「米通商代表部」の場合の「米」という語が分類語彙表に記述されていない.\item解析精度を向上させるためにはより詳細な意味分類(分類語彙表では4桁目以降)を用いることが考えられるが,そのためには共起データの量が足りない.\end{enumerate} \section{ヒューリスティクスの導入による解析方法の改良} \label{sec:imp}前章で述べたように,数詞を含む複合名詞は分割に失敗することが多い.構造も一般の複合名詞とは異なる.数詞が連続して数を表現している部分とそれ以外の部分を分けて解析することが必要と考えられる.また,接辞と名詞は統語的な振舞いが異なるが,意味分類辞書では同じ意味に分類されている.接頭辞は複合語の語末に,接尾辞が複合語の語頭に現れないという統語的な制約を与える必要がある.そこで,接辞と数詞における誤りを解消するために,以下の解析用の知識を追加する.\begin{itemize}\item機械可読辞書から抽出した接辞.本論文では「大辞林」から接頭辞560語,接尾辞170語を抽出した.\item数詞とコーパスから抽出した助数詞.助数詞は,新聞と用語集から数詞連続の前後に現れる語のなかで頻度の高い語を抽出し,人間が助数詞として適切かどうかを判断することによって獲得した.本論文で用いた数詞,助数詞を以下に示す.接頭助数詞=\{約,第\}接尾助数詞=\{円,人,年,時,分,個,件,日\}数詞=\{一,二,三,四,五,六,七,八,九,十,百,千,万,億,兆,数,何\}\item接辞,数詞,助数詞の用法に関するヒューリスティクスの利用.\begin{itemize}\item接頭辞が複合名詞の語末にくる構造を優先度計算の前に排除する.\item接尾辞が複合名詞の語頭にくる構造を優先度計算の前に排除する.\item数詞,助数詞を含む語をテンプレートによって解析する.テンプレートとして以下のものを用いる.[[部分複合語*[[接頭助数詞*数詞+]接尾助数詞*]]部分複合語*][[部分複合語*[[数詞+年][数詞+月][数詞+日]]]部分複合語*]\end{itemize}ただし,A*はAが0語以上連続することを,A+はAが1語以上連続することを表す.\end{itemize}\bigskipさらに複合名詞の構造の分布を分析した結果に基づき,ヒューリスティクスを導入する.3節で述べた優先度の計算方法では,2つの語の距離を考慮していなかった.構造の出現頻度と語の距離の関係を調査した結果,表\ref{bunpu}に示すような分布を得た.ここで,語と語の距離は,2つの語の間にある語の数+1で定義する.例えば,[A,B,C]という単語列の場合,AとB,BとCの距離はそれぞれ1,AとCの距離は2となる.距離の総和は構造中に含まれるすべての語の組の距離の和である.表\ref{bunpu}より構成要素が同じ数の場合,距離総和が大きい構造ほど,出現頻度が低いことが分かる.\begin{center}\tblcap{構造の出現頻度}{bunpu}\begin{tabular}{|l|r|r|c|}\hline構造&5文字&6文字&距離総和\\\hline$[w_1]$&0&1&0\\\hline$[w_1,w_2]$&268&78&1\\\hline$[[w_1,w_2],w_3]$&283&406&2\\$[w_1,[w_2,w_3]]$&84&160&3\\\hline$[[[w_1,w_2],w_3],w_4]$&13&43&3\\$[[w_1,w_2],[w_3,w_4]]$&16&48&4\\$[[w_1,[w_2,w_3]],w_4]$&4&11&4\\$[w_1,[[w_2,w_3],w_4]]$&3&8&5\\$[w_1,[w_2,[w_3,w_4]]]$&2&3&6\\\hline\end{tabular}\end{center}\bigskip構造中に含まれる語の距離の総和が大きい複合名詞が現われにくいという現象は,丸山が文節間の係り受け関係において,位置的に近い文節間の係り受け関係のほうが高い頻度で生じているという分析結果と関係があると考えられる~\cite{maruyama:92:a}.丸山は,文節間の距離$k$と文節間の係り受け頻度の相対頻度$q(k)$の関係を表す式を以下のように求めている.\begin{displaymath}q(k)=0.54\cdotk^{-1.896}\end{displaymath}複合名詞の構造においても文節間の係り受け関係と同じ関係が成り立つと仮定して,優先度の計算に丸山の求めた以下の式を利用する.上式を用いて2つの意味分類の関係の評価値を以下のように再定義する.\begin{displaymath}cv'(class_1,class_2,k)=cv(class_1,class_2)\cdotq(k)\end{displaymath} \section{実験2} \label{sec:rsl2}\ref{sec:rsl}章と同じ共起データ源とテストデータを用いて実験を行なった.実験は\ref{sec:imp}章で述べた3種類の情報を組み合わせて追加したものについて行なった.以下,それぞれの実験を実験2.1〜実験2.7と呼ぶ.接辞情報は「大辞林」から,数詞と助数詞は共起データ源のコーパスから抽出した.\begin{itemize}\item{2.1}距離の導入.\item{2.2}数詞テンプレート.\item{2.3}接辞情報.\item{2.4}距離の導入+数詞テンプレート.\item{2.5}距離の導入+接辞情報.\item{2.6}数詞テンプレート+接辞情報.\item{2.7}距離の導入+数詞テンプレート+接辞情報.\end{itemize}\subsection{結果}実験結果を表\ref{rsl2}に示す.平均名詞数は,正解における複合名詞を構成する名詞の数を平均したものである.精度は正解の優先順位が単独一位のものの割合で評価した.\begin{center}\tblcap{解析結果}{rsl2}\begin{tabular}{|r|c|c|c|c|}\hline文字長&4文字&5文字&6文字&7文字以上\\&&&&平均7.9文字\\\hlineデータ数&956&730&787&535\\\hline平均名詞数&2.0&2.7&3.1&6.5\\\hline実験1[\%]&96&68&61&32\\\hline\hline実験2.1[\%]&96&81&71&44\\\hline実験2.2[\%]&96&73&60&28\\\hline実験2.3[\%]&96&71&63&34\\\hline実験2.4[\%]&96&84&73&46\\\hline実験2.5[\%]&96&81&72&45\\\hline実験2.6[\%]&96&75&63&30\\\hline実験2.7[\%]&96&84&72&44\\\hline\end{tabular}\end{center}\subsection{考察}\begin{enumerate}\item語間の距離を用いることで解析精度を向上させることができた.\item数詞を含む複合名詞の分割処理をテンプレートで行なうことによって,自立語数最小法による分割失敗を18例から11例(5文字),6例から1例(6文字),12例から7例(7文字以上)に減少させることができた.\end{enumerate}\begin{enumerate}\setcounter{enumi}{2}\itemテンプレートによって解析した数詞を含む複合名詞は,22例(5文字),24例(6文字),15例(7文字以上)であるが構造解析に失敗した語は1例(6文字),2例(7文字以上)であった.また,テンプレートを用いたことで正しく解析できなくなった語はなかった.数詞を含む語に対してはテンプレートを用いることは有効であると考えられる.\item接辞情報を用いることで正しい結果が得られるようになった一方で,正しい結果が得られていたものが解析できなくなるという副作用が発生した.それは,同形で名詞にも接辞にもなる語があるためで,そのために正しい解析結果まで接辞の規則によって排除されることがある.例えば,「悪」という語は名詞でも接頭辞でもある.「悪」を接頭辞と思って複合名詞の語末にくる場合を排除すると,「必要悪」のような語を正しく解析できない.ある語の接頭辞としての使われやすさを考慮する優先度を導入する必要がある.\item「可能性」の「性」は名詞であるが,接辞的に振る舞う名詞である.このような接辞的名詞を機械可読辞書から獲得できなかった.\item実験に用いたコーパスにおける漢字連続語の頻度を表\ref{hindo}に示す.漢字複合名詞は漢字4文字以上であると仮定すると,漢字複合名詞の長さの平均は4.2語で,表\ref{rsl2}の結果より精度93\%で解析できると推定できる.\end{enumerate}\begin{center}\tblcap{漢字複合語の出現頻度}{hindo}\begin{tabular}{|r|c|c|c|c|}\hline文字長&4文字&5文字&6文字&7文字以上\\&&&&平均7.9文字\\\hline出現頻度[\%]&90&5&3&2\\\hline\end{tabular}\end{center} \section{おわりに} 本論文では,コーパスから共起知識を獲得する方法と,獲得した共起知識と意味分類辞書を用いて複合名詞を解析する方法について述べた.4文字漢字語を共起知識源として利用することで高い精度で正しい共起データを自動的に得ることが可能になった.また,複合名詞の構造について,構造中の語と語の距離の総和が小さいものほど出現しやすいという分析結果を得た.名詞の意味的共起情報と,語と語の距離を用いて複合名詞を解析することによって,実際のテキストに換算して平均語長4.2語の漢字複合語を約93\%の精度で解析できることを確認した.統計的な情報は,詳細な規則を記述するのに比べ獲得が簡単であるが,統計的な知識のみでは精度の向上に限界がある.例えば「日本野鳥保護協会」では「日本」と「協会」に係り受け関係があるが,統計的情報のみでこの係り受け関係を推定することは難しい.この2語はさまざまな意味分類の語と共起するので,2つの語の間に意味的関係があると推定することが困難であるからである.コーパスから得られる統計的な情報を,機械可読辞書などから抽出可能な言語学的な知識や人間が記述する規則とうまく組み合わせることが重要な問題と考えられる.今後の課題としては,以下のような項目がある.\begin{description}\item[意味分類の詳細化]分類語彙表の詳細な意味分類を用いることが考えられる.また分類語彙表よりも大規模で,詳細な意味分類を持つ意味分類辞書にEDRの概念体系がある.ただし,大規模な意味分類辞書を用いるためには大規模な知識源用コーパスも同時に必要である.\item[辞書の整備]たとえば,「許可」と「認可」から「許認可」が構成されることを共起データのみから推定することはできない.このような語は解析用辞書に登録する必要がある.また新聞などでは「税調」などの略語がよく現れるので辞書に登録することが必要である.また,今回の実験では固有名詞を考慮していない.固有名詞を辞書に登録することも必要である.\item[接辞の扱い]接辞と名詞の両方で用いられる語については,機械可読辞書から得られる情報のみでは,どちらで用いられているのか曖昧性を解消するには不十分である.また,「可能性」の「性」のような国語辞典には接辞と記述されていないが,接辞的にふるまう名詞も存在する.コーパスを用いて,接辞/名詞の品詞の曖昧性解消や接辞的名詞の獲得などを検討することが必要である.\item[分割誤りの改善]本論文では,複合名詞を分割するとき分割候補を絞り込むために自立語数最小法を用いている.そのために分割の段階で正解を排除する可能性がある.テンプレートを用いて数詞を含む複合名詞についてはこの点を改良することができた.接辞に関する情報を獲得することができれば,「自己/中心的」の「中心的」のような接辞を含む語が辞書に登録されている場合の分割誤りに対して何らかの処置ができるかもしれない.\item[意味解析]複合名詞を構成する名詞のあいだの意味的な関係を推定することも必要である.例えば「閣僚資産公開」は「資産」が「公開」の目的語で「閣僚」が「資産」の所有者であるといった意味的関係を知ることができれば,「閣僚が持つ資産を公開」と言い換えることができる.関連する研究として,機械可読辞書の意味知識を用いて英語の複合名詞を解析するVanderwendeの研究がある~\cite{vanderwende:94:a}.\item[他の構造解析への応用]たとえば,Hindleらは共起知識を用いて前置詞句接続の曖昧性を解消する手法を提案している~\cite{hindle:91:a}.本手法を文節間の係り受け関係の曖昧性解消に適用することが考えられる.\end{description}\bigskip\acknowledgment本研究を進めるにあたって4文字漢字列コーパスを提供して下さいました兵庫大学の田中康仁教授に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{'91}{ACL}{1991}]{ACL-91}ACL'91\BBOP1991\BBCP.\newblock{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Church,Hanks,\BBA\Hindle}{Churchet~al.}{1991}]{church:91:a}Church,K.~W.,Hanks,W.G.~P.,\BBA\Hindle,D.\BBOP1991\BBCP.\newblock\BBOQUsingStatisticsinLexicalAnalysis\BBCQ\\newblockIn{\BemLexcalAcquisitin},\BCH~6.LawrenceErlbaumAssociates.\bibitem[\protect\BCAY{松村}{松村}{1988}]{daizirin:88}松村明\JED\\BBOP1988\BBCP.\newblock\Jem{大辞林}.\newblock三省堂.\bibitem[\protect\BCAY{林}{林}{1966}]{hayashi:66:a}林大\BBOP1966\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle:90:a}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate-ArgumentStructures\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\268--275.ACL'90.\bibitem[\protect\BCAY{Hindle\BBA\Rooth}{Hindle\BBA\Rooth}{1991}]{hindle:91:a}Hindle,D.\BBACOMMA\\BBA\Rooth,M.\BBOP1991\BBCP.\newblock\BBOQStructuralAmbiguityandLexicalRelations\BBCQ.\newblockIn{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics\/}\citeyear{ACL-91},\BPGS\229--236.\bibitem[\protect\BCAY{Maruyama\BBA\Ogino}{Maruyama\BBA\Ogino}{1992}]{maruyama:92:a}Maruyama,H.\BBACOMMA\\BBA\Ogino,S.\BBOP1992\BBCP.\newblock\BBOQAStatisticalPropertyof{Japanese}Phrase-to-PhraseModifications\BBCQ\\newblock{\BemMathematicalLinguistics},{\Bbf18}(7),348--352.\bibitem[\protect\BCAY{宮崎}{宮崎}{1984}]{miyazaki:84:a}宮崎正弘\BBOP1984\BBCP.\newblock\JBOQ係り受け解析を用いた複合語の自動分割法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf25}(6),1035--1043.\bibitem[\protect\BCAY{宮崎,池原,横尾}{宮崎\Jetal}{1993}]{miyazaki:93:a}宮崎正弘,池原悟,横尾昭男\BBOP1993\BBCP.\newblock\JBOQ複合語の構造化に基づく対訳辞書の単語結合型辞書引き\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf34}(4),743--753.\bibitem[\protect\BCAY{西野,藤崎}{西野\JBA藤崎}{1988}]{nishino:88:a}西野哲朗,藤崎哲之助\BBOP1988\BBCP.\newblock\JBOQ漢字複合語の確率的構造解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf29}(11),1034--1042.\bibitem[\protect\BCAY{Smadja}{Smadja}{1991}]{smadja:91:a}Smadja,F.~A.\BBOP1991\BBCP.\newblock\BBOQFromN-GramstoCollocations:AnEvaluationofXtract\BBCQ.\newblockIn{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics\/}\citeyear{ACL-91},\BPGS\279--284.\bibitem[\protect\BCAY{武田,藤崎}{武田\JBA藤崎}{1987}]{takeda:87:a}武田浩一,藤崎哲之助\BBOP1987\BBCP.\newblock\JBOQ確率的手法による漢字複合語の自動分割\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf28}(9),952--961.\bibitem[\protect\BCAY{田中}{田中}{1992}]{tanaka:92:g}田中康仁\BBOP1992\BBCP.\newblock\JBOQ自然言語の知識獲得--四文字漢字列\JBCQ\\newblock\Jem{情報処理学会第45回全国大会}.\bibitem[\protect\BCAY{Vanderwende}{Vanderwende}{1994}]{vanderwende:94:a}Vanderwende,L.\BBOP1994\BBCP.\newblock\BBOQAlgorithmforAutomaticInterpretationofNounSequences\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~2,\BPGS\782--788.COLING'94.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{小林義行}{1968年生.1988年明石工業高等専門学校電気工学科卒業.1991年東京工業大学工学部情報工学科卒業.1993年同大学院修士課程修了.1993年同大学院博士課程入学,現在在学中.自然言語処理,知識情報処理の研究に従事.情報処理学会,人工知能学会,各会員}\bioauthor{徳永健伸}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1941年生.1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.工学博士.人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V26N04-03
\section{はじめに} ニューラル機械翻訳は従来手法の句に基づく統計的機械翻訳に比べて,文法的に流暢な翻訳を出力できる.しかし訳抜けや過剰翻訳などの問題が指摘されており,翻訳精度に改善の余地がある\cite{koehn-knowles:2017:NMT}.このような問題に対して句に基づく統計的機械翻訳では,対訳辞書を用いてデコーダ制約\cite{koehn-EtAl:2007:PosterDemo}を実装することにより翻訳精度を改善していたが,ニューラル機械翻訳では対訳辞書を有効活用するアプローチが明らかではない.ニューラル機械翻訳において対訳辞書を使用して翻訳精度を向上させる先行研究として,モデル訓練時に対訳辞書を用いて単語翻訳確率にバイアスをかける手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}があげられる.この手法ではモデルの訓練が対訳辞書に依存しているため,辞書の更新や変更は容易ではない.本稿ではニューラル機械翻訳システムの翻訳精度の向上を目的として,単語報酬モデルにより対訳辞書をニューラル機械翻訳に適用する手法を提案する\footnote{本稿はIWSLT$2018$で発表した論文\cite{takebayashi}に比較実験と分析を追加したものである.}.単語報酬モデルは正しい翻訳文に出現すると期待される単語集合を辞書引きにより入力文から予測する``目的単語予測''と,得られた単語集合を用いてそれらの出力確率を調整する``単語報酬付加''から構成される.提案手法は訓練済みの翻訳モデルのデコーダにおいて,予測された単語の翻訳確率に一定の増分を加えるのみであるため,既存の翻訳モデルを再訓練する必要がない.このため,本手法は既存の訓練済みニューラル機械翻訳システムのデコーダに実装することで機能し,また辞書の更新や変更も容易に行える利点がある.日英と英日方向の翻訳実験を行った結果,対訳辞書を用いた単語報酬モデルは翻訳精度を有意に改善できることを示した.また,テスト時のデコーディングの際に既存手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}と組み合わせると,それぞれを単一で用いたときよりも翻訳精度が向上することを実験的に示した.本稿の構成は以下の通りである.まず$2$章で提案手法が前提とする注意機構付きのエンコーダ・デコーダモデルについて説明したのち,$3$章で提案手法である単語報酬モデルについて述べる.$4$章では実験設定を述べ,$5$章では対訳辞書の性質が提案手法に与える影響を検証するため,シミュレーションによる辞書を用いた実験を行う.$6$章では実際に利用可能な対訳辞書を用いて提案手法の性能を示し,$7$章では既存手法との比較を行う.$8$章では関連研究について議論し,$9$章で本稿のまとめとする. \section{注意機構付きニューラル機械翻訳} ニューラル機械翻訳における典型的なモデルとして,注意機構付きのエンコーダ・デコーダモデル\cite{DBLP:journals/corr/BahdanauCB14,luong-pham-manning:2015:EMNLP}があげられる.エンコーダは入力系列$X$をベクトル化し,デコーダはそのベクトルを用いて出力系列$Y$を出力する.入力系列中の$i$番目の要素を$x_i\in\mathbb{R}^{v_s}$,同様に出力系列中の$j$番目の要素を$y_j\in\mathbb{R}^{v_t}$と表記する.ここで$v_s$と$v_t$はそれぞれ入力系列と出力系列の語彙サイズである.ある入力系列$X$が与えられたときに,ある長さ$m$の出力系列$Y$を生成する確率$p(Y|X)$は,以下のように表される.\[p(Y|X;\mathbf{\theta})=\prod_{j=1}^mp(y_j|y_{<j},X;\mathbf{\theta}),\]ここで,$\mathbf{\theta}$はパラメータの集合で$y_{<j}=y_1,\cdots,y_{j-1}$である.対訳コーパス$C=\{(X,Y)\}$が与えられたとき,訓練時の目的は$\mathbf{\theta}$に関するクロスエントロピー損失$L_\theta$を最小化することである.\[L_\theta=-\sum_{(X,Y)\inC}\logp(Y|X;\mathbf{\theta}).\]本稿では双方向のlongshort-termmemory(LSTM)を使用し,順方向と逆方向からエンコードする.ステップ$i$において,順方向の隠れ状態ベクトル$\hat{\mathbf{h}}_i\in\mathbb{R}^{d_h}$と逆方向の隠れ状態ベクトル$\tilde{\mathbf{h}}_i\in\mathbb{R}^{d_h}$を加算した隠れ状態を$\mathbf{h}_i=\hat{\mathbf{h}}_i+\tilde{\mathbf{h}}_i$と表す.この隠れ状態を用いて入力系列$X$は$\mathbf{h}\in\mathbb{R}^{{d_h}\timesn}=\mathbf{h}_1,...,\mathbf{h}_n$にマップされる.$n$は入力系列の長さである.ニューラル機械翻訳では翻訳精度向上に注意機構の有効性が示されている.注意機構では,デコーダがRecurrentNeuralNetwork(RNN)によって隠れ状態ベクトル$\mathbf{s}_j$を計算する際,エンコーダが出力したそれぞれの隠れ状態$\mathbf{h}_i$を直接的に参照する.デコーディングステップ$j$において,隠れ状態$\mathbf{h}_i$の重要度を示すスカラー値の重みを$a_{ji}$とすると,$a_{ji}$による$\mathbf{h}_i$の重み付き平均$\mathbf{c}'_j\in\mathbb{R}^{d_h}$は,$\mathbf{c}'_j=\sum_{i=1}^{n}{a_{ji}}{\mathbf{h}_i}$と計算される.そして,デコーダの出力層で以下の計算を行う.\begin{align*}\mathbf{o_j}&=\mathbf{W}_o\mathbf{c}_j+\mathbf{b}_o,\\\mathbf{c}_j&=tanh(\mathbf{W}_c[\mathbf{c}'_j;\mathbf{s}_j]).\end{align*}ここで$\mathbf{c}_j\in\mathbb{R}^{d_h}$,$\mathbf{W}_o\in\mathbb{R}^{v_t\times{d_h}}$と$\mathbf{W}_c\in\mathbb{R}^{d_h\times2d_h}$は変換行列,$\mathbf{b}_o\in\mathbb{R}^{v_t}$はバイアス項のベクトル,$[\cdot;\cdot]$はベクトルの結合を表す.出力単語の確率ベクトル$\hat{y}_j\in\mathbb{R}^{v_t}$はsoftmax関数を用いて,\[\hat{y}_j=\frac{\rm{exp}(\mathbf{o}_j)}{\sum_{k}\rm{exp}(o_{jk})}\]と表される.ここで$o_{jk}$はベクトル$\mathbf{o}_j$の$k$番目の要素である. \section{単語報酬モデル} 本章では,提案する単語報酬モデルの各要素について説明する.単語報酬モデルは大きく$2$つの要素に分けられる.\begin{itemize}\item{\bf対訳辞書による目的単語予測}\\入力文から正しい翻訳文に出現すると期待される単語の集合を,対訳辞書を用いて予測する.本稿では人手で作られた辞書と自動で構築された辞書の$2$つを使用した.\item{\bf予測された単語集合を用いた翻訳確率への報酬付加}\\目的単語予測で得られた単語集合を用いて,それらが出力される確率を調整する.具体的にはデコーダが単語翻訳確率を出力する際,目的単語予測で予測された単語の翻訳確率に一定の値を足すことでそれらを出力しやすくする.\end{itemize}\subsection{対訳辞書による目的単語予測}本節では目的単語予測において使用する,人手で作られた辞書と自動で構築された辞書について説明する.\subsubsection{人手で作成された辞書での目的単語予測}\label{subsec:dic}人手で作成された辞書は,対象領域に対するカバレッジは限られているものの信頼性のある対訳情報を提供している.辞書引きの際には,辞書引きする単語を原型に戻すことが必要である.したがって,人手で作成された辞書を用いる際は,目的単語集合を予測するために,原言語文に含まれる単語の原型を辞書引きすることとした.\subsubsection{自動で構築された辞書での目的単語予測}\label{subsec:alignment}IBMモデルや句に基づく統計的機械翻訳\cite{koehn-EtAl:2007:PosterDemo,brown-EtAl:1993}の翻訳モデルが対訳辞書として広く活用されている.辞書の構築のためにこれらの翻訳モデルを活用する最大の利点は,辞書の構築に訓練セットを用いることで辞書のドメインと翻訳時の目的単語のドメインを合わせられることである.加えて,訓練セットに出現する活用語や派生語を使用できる.欠点としては,アライメントの失敗が含まれるため,人手の辞書と比べて信頼性が低いことがあげられる.本稿では辞書を自動で構築するために,IBM翻訳モデル\cite{brown-EtAl:1993}の実装であるGIZA++ツールキット\footnote{https://github.com/moses-smt/giza-pp}を用いる.そしてMoses\cite{koehn-EtAl:2007:PosterDemo}を用いてgrow-diag-final-andヒューリスティックを適用し,単語間の単語翻訳確率を計算する.単語翻訳確率はアライメントを用いて,順方向と逆方向の両方向でそれぞれ計算される.ある$2$つの言語が与えられたとき,source-to-target方向のコーパスに適用した場合に得られる順方向の単語翻訳確率,target-to-source方向のコーパスに適用した場合に得られる逆方向の単語翻訳確率をそれぞれ,$P_{fw}(w_t|w_s)$,$P_{bw}(w_s|w_t)$と表す.ここで,$w_s$は原言語側のある単語,$w_t$は目的言語側のある単語である.このとき単語の翻訳スコアを\begin{equation}\label{eq:multiply}P(w_t|w_s)=\sqrt{P_{fw}(w_t|w_s)P_{bw}(w_s|w_t)}\end{equation}と定義する.出現回数が少ない単語対は情報が少ないため正確に確率を計算することができず,対訳確率が不適切に大きくなるときがある.そのような場合に対処するため,相乗平均を取り不適切に高い確率を抑える.目的単語集合のPrecisionとRecallを制御するため,開発セットでチューニングできるように閾値$\delta$を導入した.アライメントでは各単語間に翻訳確率が付与されるが,その翻訳確率が閾値$\delta$より低い単語は目的単語集合に加えないものとした.\subsubsection{単語とサブワードによるマッチング方法}サブワード単位で翻訳を行うことにより未知語問題の解決に繋がることが広く知られている\cite{sennrich-haddow-birch:2016:P16-12}.本稿では,単語報酬モデルをbytepairencoding(BPE)\cite{sennrich-haddow-birch:2016:P16-12}に基づいたニューラル機械翻訳にも適用可能にするため,目的単語予測に用いた辞書にBPEを適用する.辞書のエントリと原言語文の両方に,まず対訳コーパスで訓練されたBPEモデルを適用し,次に原言語文に含まれる文字と辞書のエントリとをマッチングする.ここで本稿では,{\em完全一致}と{\em部分一致}という$2$つのマッチング方法を考える.BPE適用後,辞書の見出し語は複数のサブワードによって構成され,見出し語$w$は$w={w_1,\ldots,w_k}$と表される.{\em完全一致}はPrecisionを重視した手法であり,$w$が以下を満たすとき入力系列$X$とマッチするとみなす;\[w_1,\ldots,w_k\inX,\foralli\in\{1,\ldots,k-1\},w_i=x_j\Leftrightarroww_{i+1}=x_{j+1}.\]{\em部分一致}はRecallを重視した手法で,$w$が以下を満たすとき入力系列中の単語$x$とマッチするとみなす;\[\existsw_i\inw,w_i\inX.\]どちらのマッチング方法でも,$w$の翻訳は目的単語集合に追加される.ある原言語文において,{\em完全一致}で得られた目的単語集合は{\em部分一致}で得られたものの部分集合になる.例えば,辞書の見出し語に``ニュー@@ヨーク''が存在し($w_1=$``ニュー@@'',$w_2=$``ヨーク'')その翻訳が``NewY@@or@@k''であるときを考える.入力系列に``ニュー@@''と``ヨーク''が$x_i=$``ニュー@@'',$x_{i+1}=$``ヨーク''と連続して出現した場合,完全一致でも部分一致でもマッチし,目的単語集合に``New'',``Y@@'',``or@@''および``k''が追加される.一方入力系列に``ニュー@@''か``ヨーク''のどちらかのみが出現する場合および,``ニュー@@''と``ヨーク''が出現するが$x_i=$``ニュー@@'',$x_{i+1}\neq$``ヨーク''である場合,完全一致ではマッチしないが,部分一致ではマッチし目的単語集合に``New'',``Y@@'',``or@@''および``k''を追加する\footnote{``@@''はBPEで分割された文字の区切りを示す.}.\begin{figure}[b]\begin{center}\includegraphics{26-4ia3f1.eps}\end{center}\hangcaption{デコーディングステップ$j$における単語報酬モデル:予測された目的単語集合$D_{f2e}$に含まれる単語が,各ステップにおいて単語報酬重み$\lambda$を掛けられ,翻訳確率に加算される.簡単のため,注意機構は省略している.}\label{fig:proposed_model}\end{figure}\subsection{予測された単語集合を用いた翻訳確率への報酬付加}目的単語集合に含まれる単語が出力されやすくなるよう,図\ref{fig:proposed_model}で示すようにデコーダで単語翻訳確率に報酬を付加する.具体的には,目的単語予測で正しい翻訳文に出現すると期待される単語の集合$D_{f2e}$を取得し,単語が$D_{f2e}$に入っていればその単語の翻訳確率に報酬を足して,出力されやすくする.したがって事後確率は以下のように表される.\begin{equation}\label{eq:proposed}Q(y_j|y_{<j},X)=\logp(y_j|y_{<j},X)+\lambdar_{y_j},\end{equation}ここで,$\lambda$は単語報酬重みであり,開発セットによってチューニングされるハイパーパラメータである.この単語報酬モデルにより,正解単語を含む単語集合の確率を引き上げ,正解単語を訳出しやすくなると期待できる.本稿では$2$値の報酬値を用いる\footnote{$r_{y_j}$に式(\ref{eq:multiply})左辺の$P(w_t|w_s)$を用いた実験も行ったが,$2$値の報酬値を用いたときより翻訳精度が劣る結果となった.このときのある目的単語$w_t$の報酬値には,入力系列中の単語から辞書引きしたときの対訳確率の平均値を用いた.}.\begin{equation}\label{eq:d_binary}r_{y_j}=\left\{\begin{array}{ll}1&(y_j\inD_{f2e}),\\0&(\rm{otherwise}).\end{array}\right.\end{equation}最終的に出力文$\hat{Y}$は以下のようになる.\[\hat{Y}=\arg\max_{Y}\sum_{j=1}^{m}Q(y_j|y_{<j},X).\] \section{実験設定} \label{sec:exp_setting}本稿では単語報酬モデルの性能を評価するため,日本語から英語,英語から日本語への翻訳精度を話し言葉ドメインと書き言葉ドメインで実験した.\subsection{対訳コーパス}話し言葉ドメインとしてIWSLT$2017$日本語-英語タスクを使用する.これはTEDTalks字幕データであり,WITプロジェクト\cite{cettoloEtAl:EAMT2012}で提供されているものである.このIWSLTタスクは訓練セットとして$22.3$万文の対訳コーパスが利用できる.本稿では開発セットにdev$2010$をテストセットにtest$2010$を用いた.それぞれ$871$文,$1,549$文である.書き言葉ドメインとして日本語-英語の科学技術論文であるASPEC\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}\cite{NAKAZAWA16}を使用する.これはWorkshoponAsianTranslation(WAT)\footnote{http://orchid.kuee.kyoto-u.ac.jp/WAT/}\cite{nakazawa-EtAl:2017:WAT2017}のサブタスクとして提供されているものである.先行研究\cite{morishita-suzuki-nagata:2017:WAT2017}の設定に従い,訓練セットとして$300$万文ある中から初めの$200$万文を用いる.これは最後の$100$万文はノイズを多く含んでいるためである.ASPECタスクは開発とテストセットにそれぞれ$1,790$文と$1,812$文がある.本稿では日本語-英語と英語-日本語翻訳実験を上記の$2$つのタスクにおいて行う.以降ではIWSLTの日本語から英語方向,IWSLTの英語から日本語方向,ASPECの日本語から英語方向およびASPECの英語から日本語方向のタスクをそれぞれ,IWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日と表記する.\subsection{対訳辞書}\label{subsec:prep_dict}人手で作成された辞書として,情報通信研究機構によって公開されているEDR英日対訳辞書およびEDR日英対訳辞書\footnote{http://www2.nict.go.jp/ipp/EDR/ENG/indexTop.html}を使用する.英日と日英のエントリペア数はそれぞれ$67.6$万と$105.2$万であった.辞書の自動構築にはベースラインNMTを学習した訓練コーパスを用いた.日英方向の辞書引きを行うとき,辞書引きされた単語には複数形などの派生語が含まれない.この問題に対処する方法として,XTAGプロジェクトの辞書を使って英語の派生単語を抽出し,EDR辞書で得られた英単語の全ての派生語を単語集合に追加する.XTAGはTreeTagger\footnote{http://www.cis.uni-muenchen.de/\~{}schmid/tools/TreeTagger/}で英語の形態素解析辞書として使われている.派生単語を追加していないものをEDR,全ての派生単語をEDRに追加したものをXTAGと表記する.辞書引きの方法としては,原言語文の各単語を原型に戻し,それらをEDRやXTAGなどの辞書のエンティティとマッチングする.単語を原型に戻す処理には日本語側には形態素解析器のMeCab\footnote{https://github.com/taku910/mecab}を,英語側にはTreeTaggerを用いる.例えば,日本語-英語方向の目的単語予測を考える.``書いた''という単語が原言語文に入っていた場合,形態素解析の結果得られる原型の``書く''を辞書引きする.``書く''という単語を辞書引きしたとき``write''という単語が得られたとすると,EDR辞書では目的単語集合には``write''のみを追加する.一方XTAG辞書では,``write''の活用形である``wrote''と``written''を,目的単語集合に追加する.\subsection{ニューラル機械翻訳システムと単語報酬モデル}\label{sec:neuralsystem}本稿ではLSTMを用いた注意機構付きエンコーダ・デコーダモデルのmlpnlp-nmtシステム\footnote{https://github.com/mlpnlp/mlpnlp-nmt/}をベースのニューラル機械翻訳モデルとし,単語報酬モデルはmlpnlp-nmtシステムのデコーダに対して実装する\footnote{2019年4月現在ではTransformerに基づくモデルが最高精度であるが,RNNエンコーダ・デコーダモデルでは,mlpnlp-nmtベースのシステムが最高精度である.}.mlpnlp-nmtはWAT$2017$\cite{nakazawa-EtAl:2017:WAT2017}のASPEC日英,ASPEC英日人手評価において最高精度を達成したモデルである.ハイパーパラメータの設定はMorishitaら\cite{morishita-suzuki-nagata:2017:WAT2017}に従う.原言語側,目的言語側の単語埋め込み層,LSTMの隠れ層,注意機構の隠れ層は全て$512$次元に設定する.エンコーダとデコーダにはそれぞれ$2$層のLSTMを用いる.学習アルゴリズムには,学習率$1.0$,ドロップアウト率$30\%$で確率的勾配降下法(Stochasticgradientdescent:SGD)\cite{Robbins&Monro:1951}を用いる.ミニバッチサイズは$128$に設定する.訓練エポックはIWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日の全てで$20$に設定し,開発セットで最も良い性能を達成したものを用いる.エポック数はそれぞれ$11$,$20$,$13$および$13$であった.テスト時のデコーディングにおいてはビーム幅を$5$に設定し,ビーム探索を行う.単語報酬モデルで,式(\ref{eq:proposed})の単語報酬重み$\lambda$と辞書の閾値$\delta$は開発セットでグリッド探索を用いてチューニングした.このとき$\lambda$は$0.1$から$1.0$まで$0.1$刻みで変化させる.辞書の閾値$\delta$は自動で構築された辞書の確率が低い単語を枝刈りする役割を担うが,これは$0$,$0.0001$,$0.001$,$0.01$および$0.1$を試し,単語報酬重み$\lambda$と合わせてグリッド探索し最高精度を出す組み合わせを採用する.対訳コーパスと対訳辞書の前処理としては,日本語側の文と辞書のエントリをMeCabを用いて形態素単位に分割し,英語側の文と辞書のエントリはMosesの{\ittokenizer.perl}スクリプト\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl}を使用し単語に分割し,{\ittruecase.perl}スクリプト\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/recaser/truecase.perl}を用いて表記統一処理を行う.さらにjointBPE\cite{sennrich-haddow-birch:2016:P16-12}を用いて単語をサブワードに切り分ける.このときのマージオペレーションの回数は$32,000$とする.最終的なIWSLTの語彙サイズは日本語と英語でそれぞれ$21,534$と$18,022$であった.ASPECの語彙サイズは日本語と英語でそれぞれ$28,852$と$22,340$であった. \section{シミュレーション辞書を用いた実験} \label{sec:sim_dic}目的単語予測の性能の変化による翻訳精度への影響を調べるため,参照訳に対する目的単語集合のPrecision/Recallを人為的に変化させて,そのときのBLEUスコアへの影響を調査する.ここでは対訳コーパスの分量によるニューラル機械翻訳モデルの性能変動が分析に影響するのを避けるため,ASPECを用いて英日方向の実験を行った.\subsection{オラクル辞書}\label{subsec:oracle_dict}ある入力系列$X$が与えられたとき,正解データである出力系列$Y=y_1,y_2,...,y_m$のトークンを過不足なく予測できる理想的な辞書を,オラクル辞書と定義する.オラクル辞書で単語予測を行った場合,その予測性能はPrecision/Recall共に$100$\%である.実際にオラクル辞書を作成することは不可能であるため,$k$番目の原言語文$X_k$を翻訳する際,対訳コーパス中の対応する出力系列(参照訳)$Y_k$に含まれる単語を過不足なく抽出し目的単語辞書に追加することで擬似的にオラクル辞書を作成した\footnote{本稿では本辞書をオラクル辞書と呼ぶ.}.\subsection{目的単語集合のPrecision/Recallの制御}\label{subsec:simulation_dict}参照訳に対する目的単語集合のPrecision/Recallの制御方法を説明する.手順としては,まず\ref{subsec:oracle_dict}節で説明したオラクル辞書を用いてPrecision/Recallが共に$100\%$である目的単語集合を作成してから,以下に示す処理を実行してPrecision/Recallを制御する.\begin{itemize}\itemPrecisionの制御\\\ref{subsec:alignment}項で説明したGIZA辞書で単語翻訳確率が高い上位の単語を目的単語集合に追加する.ここで追加する単語は目的単語集合に含まれないものを選ぶことでPrecisionを低下させる.\itemRecallの制御\\目的単語集合から参照訳に含まれる単語をランダムに削除することでRecallを低下させる.\end{itemize}追加/削除する単語数を制御することで,目的とするPrecision/Recallに調節する.\subsection{目的単語集合のPrecision/Recallの変化による翻訳精度への影響評価}\label{subsec:simulation_exp}Precision/Recallが$100\%$/$100\%$のときと$50\%$/$50\%$のとき,$\lambda$を変化させてASPEC英日方向開発セットのBLEUスコアの最大値を調査したところ,それぞれ$51.24$と$40.45$であり,単語報酬モデルを用いないベースライン(nlpmlp-nmt)から$11.74$と$0.95$の増加であった.また,そのときの$\lambda$の値はそれぞれ$2.7$と$0.6$であった.ASPEC英日方向の開発セットで$\lambda=0.6,2.7$に設定しPrecision/Recallをそれぞれ$10\%$〜$100\%$まで$10\%$刻みで変化させたときのBLEUスコアをそれぞれ図\ref{fig:simulation_w0.6_w2.7}に示す.青色はベースラインより低いBLEUスコアを,赤色はベースラインよりも高いBLEUスコアを示しており,白色はベースラインのBLEUスコア($39.50$)のものを表す.色が濃いセルほどベースラインのBLEUスコアからの変化量が大きいセルである.結果よりPrecision/Recall共に$100$\%に近い方がBLEUスコアは高い傾向にあることがわかった.さらに,Precisionが低い場合はRecallを高くする,反対にRecallが低い場合はPrecisionを高くすることで,ベースラインよりもBLEUスコアが向上することが示された.$\lambda=2.7$と設定したときの方が$\lambda=0.6$と設定したときより,全体的にベースラインからの変化量が大きい.これは$\lambda$を大きくすればするほど,訳出する単語が目的単語集合の予測性能に依存するためであると考えられる.また$\lambda=0.6$と設定したときの方が$\lambda=2.7$と設定したときより,BLEUスコアが増加するPrecision/Recallの組み合わせが多い.したがって,目的単語予測の性能が高くないときは$\lambda$の値を小さくすることで,BLEUスコアを改善できることがわかる.以上より,辞書引きした単語の予測精度が高いとき単語報酬モデルは翻訳精度を大きく向上できることが明らかとなり,対訳辞書をテスト時のデコーディングに用いる提案手法の妥当性が示された.\begin{figure}[t]\begin{center}\includegraphics{26-4ia3f2.eps}\end{center}\hangcaption{ASPEC英日方向の開発セットでPrecision/Recallをそれぞれ$10\%$〜$100\%$に変化させたときのBLEUスコアの結果(左図:$\lambda=0.6$,右図:$\lambda=2.7$).}\label{fig:simulation_w0.6_w2.7}\end{figure} \section{実際の辞書を用いた評価} \label{sec:actual_dict_resut}本章では目的単語予測に実際の辞書を用いたときの,単語報酬モデルの翻訳精度を評価する.\subsection{テストセットでの翻訳結果}\label{sec:test_result}表\ref{tab:overall}にIWSLT,ASPECのそれぞれのテストセットにおける,単語報酬モデルを用いないベースライン,提案手法およびオラクル辞書を用いた際のBLEUスコアを示す.丸括弧の中には目的単語予測で得られた単語集合の参照訳に対するPrecision/Recallを示す.太字は$p<0.01$でベースラインに統計的有意差があるものを示す.有意差の検定にはbootstrapresampling検定\cite{koehn:2004}を用いた\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/analysis/bootstrap-hypothesis-difference-significance.pl}.このとき辞書の閾値$\delta$と報酬重み$\lambda$は\ref{sec:neuralsystem}節で述べた通りグリッド探索を行い求めた.例えばGIZA(完全一致)のIWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日での辞書の閾値$\delta$はそれぞれ$0.001$,$0.01$,$0.0001$および$0.001$であり,報酬重み$\lambda$の値はそれぞれ$0.5$,$0.4$,$0.4$および$0.5$であった.表\ref{tab:overall}の全ての設定で用いた辞書の閾値$\delta$と単語報酬重み$\lambda$は付録に記述する.ベースラインと比較して,提案手法において有意にBLEUスコアが増加していることが分かる.全体としては高いRecallをもつ手法が,より大きいBLEUスコアの増加を示した.IWSLTでは,実際の辞書を用いた手法の最大のスコアは日英,英日でそれぞれ,GIZA完全一致の$10.36$,$10.88$であり,オラクル辞書を用いた手法のスコアである$17.68$,$20.26$とは差がある.これはGIZA完全一致は日英,英日でそれぞれRecallは$85.98$\%,$72.92$\%と高い値を達成しているが,Precisionが$0.27$\%,$2.56$\%と低いためと考えられる.\begin{table}[b]\caption{テストセットにおける各手法のBLEUスコアの比較}\label{tab:overall}\input{03table01.tex}\par\vspace{4pt}\small丸括弧の中には目的単語予測で得られた単語集合の参照訳に対するPrecision/Recallを示す.太字は$p<0.01$でベースラインよりも統計的有意差があるものを示す.IWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日での最大の上昇はそれぞれ,$0.39$,$0.62$,$1.08$および$0.57$である.XTAGはEDRで辞書引きされた英単語の複数形をその単語集合に加えたものであるため,日英方向の結果のみである.\end{table}書き言葉ドメインであるASPECタスクでは,英日方向にEDR完全一致を適用したとき以外は全て有意に翻訳精度が向上した.$2017$年のWATの翻訳タスクにおいて,ASPEC日英とASPEC英日で本稿の実験設定と同じ単一のモデルによる最高精度はそれぞれ$27.62$(NTT)と$39.71$(NTT)である.提案手法ではそれぞれ$28.29$,$40.07$を達成しており,WAT$2017$の単一モデルの最高精度をそれぞれ$0.67$および$0.36$向上している.提案法の適用によって訳出する単語にどのように影響するのかを分析するため,辞書のエントリが出力系列に出現する割合を測った.ASPEC日英のベースラインの訳文では$34.72\%$,EDR完全一致を用いたときは$36.38\%$であったためEDRを用いて約$1.7\%$の単語はEDR辞書によって出現したと言える.同様にASPEC日英のベースラインとXTAG完全一致で,辞書のエントリが出力系列に出現した割合を測ったところ,それぞれ$38.19\%$,$41.76\%$であり約$3.6\%$の増加であった.したがって,辞書によって出力系列に出現する単語が変化していることがわかる.EDR日英辞書のエントリペアは$671,649$であるがユニークな日本語側の単語数は$227,553$である.このことより日本語$1$単語につき平均約$3$単語の英語が辞書引きされるためPrecisionは$33\%$程度が上限である.したがってEDRのような人手で作成された辞書でもPrecisionが低い結果となったと考えられる.\subsection{分析}本節では提案手法の効果を定性的に分析するため,translationeditrate(TER)\cite{snover2006study}を用いた訳抜け単語と過剰翻訳単語の分析(\ref{subsec:ter_bunseki}項),および翻訳例を用いた翻訳結果の分析(\ref{subsec:example_bunseki}項)を行う.\subsubsection{TERを用いた訳抜け単語数と過剰翻訳単語数の分析}\label{subsec:ter_bunseki}TERを求める際に得られる編集操作の集合を用いて,ニューラル機械翻訳における主要な問題である訳抜けと過剰翻訳について分析した.訳抜け単語数と過剰翻訳単語数は,TERを用いて編集の種類を数えることで簡易的に評価した.本稿では一文中における``挿入''の回数と``削除''の回数をそれぞれ訳抜け単語数と過剰翻訳単語数と定義した.\begin{table}[b]\caption{テストセットにおける,TERによって計算された$1$文中の平均の訳抜け単語数と過剰翻訳単語数}\label{tab:ter_count}\input{03table02.tex}\end{table}訳抜け単語数と過剰翻訳単語数を測定した結果を表\ref{tab:ter_count}に示す.結果より,訳抜け単語は,提案手法のどの辞書を用いたときでも改善できていることがわかる.特にオラクル辞書を用いたときは平均で$1.2$単語減少できている.過剰翻訳に関しては,訳抜けとは逆に提案手法のいかなる辞書を用いた場合でも悪化している.これは報酬を付加し続けるという手法の特性上,一度ある単語を生成した後も同じ単語に出現を促進するバイアスをかけるためである.この問題に対しては一度出力された単語には報酬を掛けないという方法である大域的制約で回避できると考えられる.大域的制約のモデルの検討は今後の課題である.また,オラクル辞書を用いたときに一番多く過剰翻訳単語を出力してしまっているが,これはオラクル辞書の信頼性が高いため単語報酬重み$\lambda$を大きくしてしまうことで生じる問題と思われる.$\lambda$が高いとデコーダが出力した翻訳確率を疎かにして,目的単語集合に存在する単語を複数回出力してしまうためであると考えられる.\begin{table}[b]\caption{ASPEC日英における単語報酬モデル(GIZA部分一致)で訳抜けが解消されている例}\label{tab:example_undergeneration}\input{03table03.tex}\vspace{4pt}\small``(congenitalimmunity)''というフレーズと``cancerof''というフレーズが,単語報酬モデルでは出力されている.\vspace{1\Cvs}\end{table}\begin{table}[b]\hangcaption{ASPEC日英における単語報酬モデル(GIZA部分一致)で訳抜けが改善している部分はあるが重複が残ってしまっている例}\label{tab:example_complex}\input{03table04.tex}\vspace{4pt}\small``bloodcollectionisindispensable''というフレーズはベースラインでは出力されていないが,単語報酬モデルでは出力された.しかし依然として誤った場所に``isindispensable''が出力されている.\end{table}\subsubsection{翻訳例}\label{subsec:example_bunseki}翻訳例を用いて単語報酬確率の翻訳結果の分析を行った.ここでは辞書の中で一貫して性能向上していたGIZA部分一致を用いて分析した.表\ref{tab:example_undergeneration}および表\ref{tab:example_complex}にASPEC日英におけるベースラインと単語報酬モデル(GIZA部分一致)の翻訳例を示す.表\ref{tab:example_undergeneration}はベースラインで発生している訳抜けが単語報酬モデルによって解消されている例である.ベースラインでは参照訳中にある``(congenitalimmunity)''というフレーズと``cancerof''というフレーズが存在しないが,単語報酬モデルでは出力されている.これは単語報酬モデルが理想的に働いた形である.表\ref{tab:example_complex}はベースラインで発生している訳抜けが単語報酬モデルによって解消されているが,過剰翻訳が残っている例である.ベースラインでは参照訳中にある``bloodcollectionisindispensable''というフレーズが存在しないが,単語報酬モデルでは出力されている.しかし,結果として``isindispensable''が過剰翻訳してしまっている.これは,一度ある単語を出力した後も同じ単語に報酬をかけ続けるという手法上,誤った場所に出力される単語を制御できないためと考えられる. \section{既存手法との比較} ニューラル機械翻訳において訓練時に対訳辞書を用いる手法がArhurら\cite{arthur-neubig-nakamura:2016:EMNLP2016}によって提案されている.Arthurらの手法と単語報酬モデルは,辞書を用いる点や単語対訳確率にバイアスをかける点が共通している.本章ではArthurらの手法と本稿で提案した単語報酬モデルを比較する.\subsection{実験設定}提案手法のベースラインであるnlpmlp-nmtにArthurらの手法を組み合わせた実験を行う.モデルには\ref{sec:actual_dict_resut}章で用いたものと同じものを使用する.用いたコーパスはIWSLT英日およびASPEC英日であり,それらのコーパスの前処理やパラメータ設定方法は\ref{sec:exp_setting}章で述べたとおりである.Arthurらの手法では単語対訳確率が必要なため,BPE処理を行った後のコーパスからMosesのToolkitを用いてサブワードレベルの単語対訳確率を得たものを辞書として用いた.Arthur法を組み込んだnlpmlp-nmtモデルの訓練は学習に非常に時間がかかるため,ここでモデルの最適化は行わず,テストの際のデコーディング時に,辞書の単語対訳確率と単語翻訳確率を線形補間するlinear\footnote{Arthurらが提供する実装でkfttを用いて実験した結果,バイアスをかける手法(bias)と線形補間する手法(linear)でBLEUスコアはそれぞれ$23.80$,$24.22$であったので今回の実験ではlinearを用いた.}を用いて出力単語の確率を変更する.ある目的単語について入力系列の各単語との対訳確率にその単語へのアテンションを掛けて総和を求めた確率を$p_l$,翻訳モデルが求めた確率を$p_m$とすると,Arthur法のlinearは目的単語の出現確率$p_o$を線形補間の重み$\gamma$を用いて次式のように求める.\begin{equation}p_o=\gammap_l+(1-\gamma)p_m.\end{equation}Arthur法と提案法を併用する際には,単語翻訳確率をArthur法で得られる出現確率$p_o$に置き換えて次式により事後確率を求める.\begin{equation}Q(y_j|y_{<j},X)=\logp_o(y_j|y_{<j},X)+\lambdar_{y_j}.\end{equation}Arthurらの手法と単語報酬モデルを組み合わせる際はまず単語報酬モデルでパラメータチューニングしたパラメータを固定して,Arthurらの手法のパラメータをチューニングした.\subsection{実験結果}表\ref{tab:combined}にベースライン(nlpmlp-nmt),テスト時のデコーディングにArthurらの手法を組み合わせたとき,単語報酬モデルを適用したときおよび両方の手法を併用したときのBLEUスコアを示す.線形補間の重みを決める$\gamma$は$0.05$,$0.14$,$0.29$,$0.50$,$0.71$,$0.86$,$0.95$を試して開発セットで最も良かった設定を用いる.パラメータを$(\delta,\lambda,\gamma)$と表現すると,Arthur法と提案手法を併用したときのパラメータはIWSLTとASPECでそれぞれ$(0.001,0.4,0.14)$と$(0.001,0.4,0.05)$であった.それ以外の全ての設定でのパラメータは付録の表\ref{tab:combined_settings}に記述する.\begin{table}[t]\hangcaption{nlpmlp-nmt,Arthurらの手法,単語報酬モデル,およびArthurらの手法と単語報酬モデルを併用したときのBLEUスコア}\label{tab:combined}\input{03table05.tex}\end{table}結果よりテスト時のデコーダにArthur法を組み込んだものはベースラインからほとんど変化がなかったが,単語報酬モデルと併用すると単語報酬モデルのみを用いるときよりもBLEUスコアが増加している.このことより,Arthurらの手法と提案手法である単語報酬モデルは対立するものではなく併用可能であること,併用することでより高い翻訳精度を示すことを確認した.Arthurらの手法は低頻度語の翻訳精度向上を目的としているため,今回の実験設定では翻訳精度が向上しなかったと考えられる.一方で提案手法は辞書に存在する単語の出現確率にバイアスを付加することで,低頻度語に限らず精度向上を目的としているため,両方のタスクにおいて翻訳精度が向上したのだと考えられる.我々の実装においてArthur法のように訓練時に辞書を活用する方法を検討することは今後の課題である.しかし,テスト時のデコーディングにおいて開発セットを使ってハイパーパラメータを調整してもArthur法は単独ではあまり効果がなかったので,訓練時にArthur法を使用してモデルを最適化してもあまり効果がない可能性がある. \section{関連研究} ニューラル言語生成の分野では,単語やフレーズを予測し出力する手法は多く研究がなされている.単語選択のハードな制約として,ニューラル機械翻訳におけるグリッドビーム探索\cite{hokamp-liu:2017:Long}が提案されている.これはテスト時にユーザが指定した単語を全てのデコーディングステップで強制的に訳出し,スコアの高い上位k件を保持するという手法である.ユーザが指定した単語を含む文の中でスコアの高いものを翻訳結果とするため,指定した単語を必ず含む文を選択できる.それ以外にはアテンション最大の原言語の単語に対して指定された目的言語の単語がその単語を含む一定のウィンドウの中で出力されるかをチェックする方法\cite{chatterjee-etal-2017-guiding}やアテンション最大の原言語の単語に対して指定された目的言語の単語を出力し,以後その原言語への単語のアテンションをマスクして指定した単語が再び出力されることを防ぐ方法\cite{hasler-etal-2018-neural}がある.また,グリッドビーム探索手法には,指定単語数に対してビーム幅が線形に増えるという問題があるが,独自のスコアリングに基づいてそれぞれの語彙的制約に割り当てるビームの数を動的に変化させることによりビームの総数を一定に保つ手法\cite{post-vilar-2018-fast}も提案されている.これらの手法はデコーダに制約を与えるという点で提案手法と共通しているが,ユーザが所望する単語を訳出することを目的としており,またその単語をユーザが指定する必要がある.提案手法は対訳辞書を用いてデコーダに制約を与えることで翻訳精度を向上することを目的としており,ある単語が必ず訳出されることは保証しない.それにより厳密に単語を指定をせずとも,辞書を用いることにより翻訳精度を向上させることに成功した.デコーダにおいて目的単語予測を行う研究も盛んに行われている\cite{shi-knight:2017:Short,DBLP:journals/corr/SankaranFA17,mi-wang-ittycheriah:2016:P16-2}.これらは単語予測を行いテスト時のデコーディングの際に語彙を制限することで,ソフトマックス関数の計算コストを下げて速度向上を目指している.また,デコーダの隠れ層における出力単語の情報を正確にするため,隠れ層から出力単語を予測しそのエラーを最小化するよう訓練する手法\cite{weng-EtAl:2017:EMNLP2017}が提案されている.提案手法は対訳辞書を用いた目的単語予測によりニューラル機械翻訳における辞書の活用を実現したものであり,これらの研究とは異なる. \section{おわりに} 本稿ではニューラル機械翻訳における単語報酬モデルによる対訳辞書の活用手法を提案した.実験結果より目的単語予測の性能が十分高ければ,提案手法である単語報酬モデルによって翻訳精度が大幅に向上することを示した.また,目的単語予測に現実的に利用可能な対訳辞書を用いた場合でも翻訳精度が有意に向上することを示した.さらにニューラル機械翻訳において辞書を用いる先行研究との比較実験より,実験したIWSLTタスクとASPECタスクでは先行研究を上回り翻訳精度が向上していることを示した.また先行研究と提案手法を組み合わせるとそれぞれを単一で用いるよりも翻訳精度を向上することができたことから,実験的に先行研究と提案手法は対立するものではなく組み合わせ可能であることを示した.提案手法は実装が簡潔で訓練済みのデコーダに簡単に適用でき,また辞書の更新や変更が容易であるという利点をもつ.今後の課題としては,一度出力された単語には報酬を付加しないという大域的制約による過剰翻訳への対処が考えられる.またTransformer\cite{NIPS2017_7181}は現在の最先端のニューラル機械翻訳モデルであるため,単語報酬モデルをTransformerへ組み込むことも今後の課題である.\acknowledgment本研究は,日本電信電話株式会社コミュニケーション科学基礎研究所の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Arthur,Neubig,\BBA\Nakamura}{Arthuret~al.}{2016}]{arthur-neubig-nakamura:2016:EMNLP2016}Arthur,P.,Neubig,G.,\BBA\Nakamura,S.\BBOP2016\BBCP.\newblock\BBOQIncorporatingDiscreteTranslationLexiconsintoNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1557--1567}.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2015}]{DBLP:journals/corr/BahdanauCB14}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Brown,Della~Pietra,Della~Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown-EtAl:1993}Brown,P.~F.,Della~Pietra,S.~A.,Della~Pietra,V.~J.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Cettolo,Girardi,\BBA\Federico}{Cettoloet~al.}{2012}]{cettoloEtAl:EAMT2012}Cettolo,M.,Girardi,C.,\BBA\Federico,M.\BBOP2012\BBCP.\newblock\BBOQWIT$^3$:WebInventoryofTranscribedandTranslatedTalks.\BBCQ\\newblockIn{\BemProceedingsofthe16thConferenceoftheEuropeanAssociationforMachineTranslation},\mbox{\BPGS\261--268}.\bibitem[\protect\BCAY{Chatterjee,Negri,Turchi,Federico,Specia,\BBA\Blain}{Chatterjeeet~al.}{2017}]{chatterjee-etal-2017-guiding}Chatterjee,R.,Negri,M.,Turchi,M.,Federico,M.,Specia,L.,\BBA\Blain,F.\BBOP2017\BBCP.\newblock\BBOQGuidingNeuralMachineTranslationDecodingwithExternalKnowledge.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\157--168},Copenhagen,Denmark.\bibitem[\protect\BCAY{Hasler,de~Gispert,Iglesias,\BBA\Byrne}{Hasleret~al.}{2018}]{hasler-etal-2018-neural}Hasler,E.,de~Gispert,A.,Iglesias,G.,\BBA\Byrne,B.\BBOP2018\BBCP.\newblock\BBOQNeuralMachineTranslationDecodingwithTerminologyConstraints.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume2(ShortPapers)},\mbox{\BPGS\506--512},NewOrleans,Louisiana.\bibitem[\protect\BCAY{Hokamp\BBA\Liu}{Hokamp\BBA\Liu}{2017}]{hokamp-liu:2017:Long}Hokamp,C.\BBACOMMA\\BBA\Liu,Q.\BBOP2017\BBCP.\newblock\BBOQLexicallyConstrainedDecodingforSequenceGenerationUsingGridBeamSearch.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1535--1546}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn:2004}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-EtAl:2007:PosterDemo}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn\BBA\Knowles}{Koehn\BBA\Knowles}{2017}]{koehn-knowles:2017:NMT}Koehn,P.\BBACOMMA\\BBA\Knowles,R.\BBOP2017\BBCP.\newblock\BBOQSixChallengesforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNeuralMachineTranslation},\mbox{\BPGS\28--39}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong-pham-manning:2015:EMNLP}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{Mi,Wang,\BBA\Ittycheriah}{Miet~al.}{2016}]{mi-wang-ittycheriah:2016:P16-2}Mi,H.,Wang,Z.,\BBA\Ittycheriah,A.\BBOP2016\BBCP.\newblock\BBOQVocabularyManipulationforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\124--129}.\bibitem[\protect\BCAY{Morishita,Suzuki,\BBA\Nagata}{Morishitaet~al.}{2017}]{morishita-suzuki-nagata:2017:WAT2017}Morishita,M.,Suzuki,J.,\BBA\Nagata,M.\BBOP2017\BBCP.\newblock\BBOQNTTNeuralMachineTranslationSystemsatWAT2017.\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponAsianTranslation},\mbox{\BPGS\89--94}.\bibitem[\protect\BCAY{Nakazawa,Higashiyama,Ding,Mino,Goto,Kazawa,Oda,Neubig,\BBA\Kurohashi}{Nakazawaet~al.}{2017}]{nakazawa-EtAl:2017:WAT2017}Nakazawa,T.,Higashiyama,S.,Ding,C.,Mino,H.,Goto,I.,Kazawa,H.,Oda,Y.,Neubig,G.,\BBA\Kurohashi,S.\BBOP2017\BBCP.\newblock\BBOQOverviewofthe4thWorkshoponAsianTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponAsianTranslation},\mbox{\BPGS\1--54}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2204--2208}.\bibitem[\protect\BCAY{Post\BBA\Vilar}{Post\BBA\Vilar}{2018}]{post-vilar-2018-fast}Post,M.\BBACOMMA\\BBA\Vilar,D.\BBOP2018\BBCP.\newblock\BBOQFastLexicallyConstrainedDecodingwithDynamicBeamAllocationforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1314--1324}.\bibitem[\protect\BCAY{Robbins\BBA\Monro}{Robbins\BBA\Monro}{1951}]{Robbins&Monro:1951}Robbins,H.\BBACOMMA\\BBA\Monro,S.\BBOP1951\BBCP.\newblock\BBOQAStochasticApproximationMethod.\BBCQ\\newblock{\BemAnnalsofMathematicalStatistics},{\Bbf22},\mbox{\BPGS\400--407}.\bibitem[\protect\BCAY{Sankaran,Freitag,\BBA\Al-Onaizan}{Sankaranet~al.}{2017}]{DBLP:journals/corr/SankaranFA17}Sankaran,B.,Freitag,M.,\BBA\Al-Onaizan,Y.\BBOP2017\BBCP.\newblock\BBOQAttention-basedVocabularySelectionforNMTDecoding.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1706.03824}.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{sennrich-haddow-birch:2016:P16-12}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQNeuralMachineTranslationofRareWordswithSubwordUnits.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1715--1725}.\bibitem[\protect\BCAY{Shi\BBA\Knight}{Shi\BBA\Knight}{2017}]{shi-knight:2017:Short}Shi,X.\BBACOMMA\\BBA\Knight,K.\BBOP2017\BBCP.\newblock\BBOQSpeedingUpNeuralMachineTranslationDecodingbyShrinkingRun-timeVocabulary.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\574--579}.\bibitem[\protect\BCAY{Snover,Dorr,Schwartz,Micciulla,\BBA\Makhoul}{Snoveret~al.}{2006}]{snover2006study}Snover,M.,Dorr,B.,Schwartz,R.,Micciulla,L.,\BBA\Makhoul,J.\BBOP2006\BBCP.\newblock\BBOQAStudyofTranslationEditRatewithTargetedHumanAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceoftheAssociationforMachineTranslationintheAmericas},\mbox{\BPGS\223--231}.\bibitem[\protect\BCAY{Takebayashi,Chu,Arase,\BBA\Nagata}{Takebayashiet~al.}{2018}]{takebayashi}Takebayashi,Y.,Chu,C.,Arase,Y.,\BBA\Nagata,M.\BBOP2018\BBCP.\newblock\BBOQWordRewardingforAdequateNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalWorkshoponSpokenLanguageTranslation},\mbox{\BPGS\14--22}.\bibitem[\protect\BCAY{Vaswani,Shazeer,Parmar,Uszkoreit,Jones,Gomez,Kaiser,\BBA\Polosukhin}{Vaswaniet~al.}{2017}]{NIPS2017_7181}Vaswani,A.,Shazeer,N.,Parmar,N.,Uszkoreit,J.,Jones,L.,Gomez,A.~N.,Kaiser,L.~u.,\BBA\Polosukhin,I.\BBOP2017\BBCP.\newblock\BBOQAttentionisAllyouNeed.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems30},\mbox{\BPGS\5998--6008}.\bibitem[\protect\BCAY{Weng,Huang,Zheng,Dai,\BBA\Chen}{Wenget~al.}{2017}]{weng-EtAl:2017:EMNLP2017}Weng,R.,Huang,S.,Zheng,Z.,Dai,X.-Y.,\BBA\Chen,J.\BBOP2017\BBCP.\newblock\BBOQNeuralMachineTranslationwithWordPredictions.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\136--145}.\end{thebibliography}\appendix \section{\ref{sec:test_result}節で用いたパラメータ一覧} \begin{table}[b]\vspace{-1\Cvs}\caption{表\ref{tab:overall}のテストセットにおける各設定で用いた単語報酬重み$\lambda$}\label{tab:overall_lambda_settings}\input{03table06.tex}\vspace{1\Cvs}\end{table}\begin{table}[b]\caption{表\ref{tab:overall}のテストセットにおける各設定で用いた辞書の閾値$\delta$}\label{tab:overall_delta_settings}\input{03table07.tex}\end{table}\clearpage\begin{table}[t]\hangcaption{表\ref{tab:combined}のテストセットにおける各設定で用いた辞書の閾値$\delta$,単語報酬重み$\lambda$およびArthur法の線形補間の重み$\delta$}\label{tab:combined_settings}\input{03table08.tex}\end{table}\begin{biography}\bioauthor{竹林佑斗}{2017年大阪大学工学部電子情報工学科卒業.2019年大阪大学大学院情報科学研究科博士前期課程修了.同年,株式会社ワークスアプリケーションズに入社.ACL会員.}\bioauthor[:]{ChenhuiChu}{2008年重慶大学ソフトウェア工学部卒業.2012年に京都大学大学院情報学研究科修士課程修了.2015年同大学院博士課程修了.博士(情報学).日本学術振興会特別研究員DC2,国立研究開発法人科学技術振興機構研究員を経て,2017年より大阪大学データビリティフロンティア機構特任助教.機械翻訳,自然言語処理の研究に従事.言語処理学会,人工知能学会,ACL,各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,MicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現抽出および生成,機械翻訳技術,言語教育支援,対話システム研究に興味を持つ.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所上席特別研究員.工学博士.機械翻訳,自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V07N04-02
\section{はじめに} 韓国語言語処理について述べる.朝鮮半島は日本にとって歴史的,経済的,社会的に関係の深い周辺地域であり,その意味において韓国語は非常に重要な外国語の一つである.また言語的に,韓国語は日本語に類似する特徴を最も多く持つ言語,つまり日本語に最も近い言語と考えられている.すなわち,日本語言語処理にとって最も参考にすべき外国語が韓国語である.このような背景にも関わらず,日本における韓国語処理,特に日韓翻訳や韓日翻訳に関する研究は,十分に議論されているとは言えない.韓国語は日本語に最も類似した言語であるが故に機械翻訳も容易であり,研究の必要性は低く見られがちである.しかし日韓翻訳に関して文献\cite{日韓評価}が指摘するように,市販システムの翻訳品質は依然低い.また我々の見る限り,韓日翻訳に関しても状況は同じである.これは同論文の結論でも述べているように,正確な分析に基づく翻訳になっていないからであると考える.そこで,本研究では韓国語を対象に,機械翻訳をはじめほとんどの言語処理の基本単位である形態素に対して検討を行なった.日韓翻訳あるいは韓日翻訳の際に,形態素をどのように捉えて,どのように処理すればいいのだろうか.特に,韓国語形態素をどう機械処理すべきか,一般に言われている韓国語の品詞体系が本当に計算機処理に適当なのかという議論,あるいは後述する音韻縮約現象をどう捉えるかという問題を,ここでは研究の対象にする.このような問題意識に基づく研究は,従来ほとんど見ることができない{}\footnote{これは韓国語に限定したことではない.計算機用言語体系の議論は日本語\cite{渕文法}\cite{宮崎文法}やスペイン語\cite{スペイン語品詞体系}に対する文献など若干が見受けられるのみである.}.以上のような動機のもと,日本における韓国語処理への理解と議論の活性化を願い,本論文では韓国語の言語処理をどう行なうべきかの一つの実例を示すことによって提案を行なう.本論文で行なう提案は大きく,以下の4項目に分類される.\begin{itemize}\item形態素体系(\ref{節:形態素体系}節)\item品詞体系(\ref{節:品詞体系}節)\item形態素解析(\ref{節:形態素解析}節)\item生成処理(\ref{節:生成処理}節)\end{itemize}日本語について考えた場合,これら形態素に関連する4項目は別個に検討され,議論されている場合が多い.しかし,本論文では韓国語に関して一括して議論を進める.これは,形態素や品詞体系と形態素解析,生成処理は相互に深く関係している体系と処理であり,相互を関連づけながら議論を進めた方が得策と考えたからである.どのような品詞体系を取るか,形態素にどのような情報をどのように持たせるかによって,最適な形態素解析手法は異なることが予想され,例えば同一の統計的手法であっても品詞数によって最適な統計の取り方は異なってくるはずである.また逆に,形態素解析結果を分析することによって言語体系は再検討すべきであり,例えば正しく解析できることが全く期待できない言語体系は機械処理上意味がないので体系を見直さなければならない.本論文で提示する韓国語体系の特徴は機械処理のしやすさを考慮して設計した体系である,という点にある.すなわち,形態素解析における誤りを分析することで仕様を再検討し,できるだけ誤りの少ない体系となるよう努めた.また,機械翻訳での必要性を考慮して,機械翻訳で必要性の低い品詞分類は統合し,重要な分類は必要に応じて細分化を行なった.また韓国語の一つの特徴である分かち書きや音韻縮約に対して,どのように機械的な処理を行なうかについても提案を行なった.形態素解析では,統計的手法を基本としながら韓国語固有の問題に対しては独自の対応を施すことで良好な解析精度が得られた.韓国語生成処理では,特に分かち書き処理について,提案した品詞体系を利用した規則を作成した.我々は,多言語話し言葉翻訳の一環として日韓翻訳,並びに韓日翻訳の研究を行なっている.翻訳手法としては変換主導翻訳(Transfer-DrivenMachineTranslation,TDMT)\cite{古瀬99}を用い,日韓/韓日のみならず日英/英日/日独/日中を全く同一の翻訳部で処理を行なっている.各言語固有の形態素解析,生成処理については言語ごとに作成する.本論文で述べる形態素体系,品詞体系,形態素解析,生成処理はいずれもTDMTの日韓翻訳部,韓日翻訳部に実装されている.本論文では韓国語固有の問題について議論するため,共通のエンジンである翻訳部については述べない.従ってTDMTによる翻訳処理機構に関しては{}\cite{古瀬99}を,特にTDMTの日韓翻訳部については{}\cite{IPSJ:TDMT日韓}を,それぞれ参照されたい.本論文では,論文の読者が日本語話者であることを意識して議論を進める.すなわち,日本語と韓国語の両言語を比較,対比して述べたり,韓国語の現象を日本語に写像して説明したりすることを試みる.日本語と対照させることで韓国語の特徴を浮彫りにすることができると考えた.またこれによって韓国語処理の研究もしくは韓国語そのものに理解を深めることができればと願っている.前述したように,日本語は韓国語と類似する特徴を多く持つ言語であるから,本論文で述べる体系や処理は,韓国語処理のみならず日本語処理に関しても部分的に有用であると期待している.なお,本論文の処理対象言語であり,主に朝鮮半島において使用されるこの言語の名称は,ハングル,朝鮮語,コリア語などと表現される場合もあるが,本論文ではこれを「韓国語」で統一する. \section{計算機処理から見た韓国語の特徴} 韓国語は日本語と同じく膠着語であり,韓国語の言語体系は多くの部分が日本語と類似している言語であるが,異なる部分も存在する.本節では両言語の差異のうち,計算機による形態素処理の観点で重要である以下の4点について,紹介すると共に検討を行なう.\begin{itemize}\item形態素と文字の対応\item活用\item分かち書き\item音韻縮約\end{itemize}以下,これらについて順に述べる.\subsection{形態素と文字の対応}韓国語の表記文字をハングルと呼ぶ\footnote{日本においては,言語自体を「ハングル」と呼ぶことがある.}.ハングル綴字法では,韓国語の「文字」は14個の子音文字と10個の母音文字とで規定されており,これらの組合せ{}\footnote{組合せ上可能な音節文字の数は11,172であるが,計算機で処理できるのは韓国語表記によく使用される2,350である.}によって一つの文字(音節文字)を表現する.このため,そのままではそれ以上分解することが不可能な日本語のひらがな,カタカナとは異なり,分解することができる.例えば,「\bdf{"4751}({\tthan})」という音節文字は「\bdf{"243E}({\tth})」「\bdf{"243F}({\tta})」「\bdf{"2424}({\ttn})」という音を示す子音文字及び母音文字に分解が可能である.以上のように,韓国語において音節文字はさらに分解可能であるため,形態素の単位と音節文字の単位は一致しない\footnote{これらは日本語においても,例えば「読めば」が「yom--」+「--ba」と考える立場においては形態素の単位と音節の単位は一致しない\cite{日本語百科}.}.例えば,韓国語形態素には「〜\bdf{"2424}」「〜\bdf{"2429}」「〜\bdf{"2431}」のように子音文字一つで構成される形態素があるだけではなく「〜\bdf{"2432}\bdf{"344F}\bdf{"3459}」「〜\bdf{"2432}\bdf{"344F}\bdf{"316E}」「〜\bdf{"2429}\\bdf{"304D}\bdf{"404C}」等のような子音文字から始まる形態素が多い.このような子音で始まる形態素は,直前の形態素の終音節と結合したり(母音で終わる場合),媒介母音「\bdf{"4038}」と結合して新しい音節文字を作る(子音で終わる場合).\subsection{活用}韓国語の用言には語幹と語尾が結合して活用する時,音韻縮約か形態音韻変化によって語幹や語尾の形が変わる場合が多い.語幹が変わる多くの場合は語幹の終りが脱落または変化したり,または語幹の終りが脱落すると同時に語尾の先頭が変化する.さらに,このような形態素結合の際の形態音韻変化によって派生する音節文字の数も,数百種類に及ぶ.従って,このような韓国語の形態音韻的特徴のために,韓国語の形態素処理を日本語のように音節文字単位とすることはできない.一例として,様々な動詞,形容詞に「〜\bdf{"3E6E}(〜て)」という語尾がついた時にどのように形態変化するかを以下に示す.\vspace{\baselineskip}\begin{tabular}{lllll}\bdf{"3568}(聞く)&+&\bdf{"3E6E}&⇒&\bdf{"3569}\bdf{"3E6E}\\\bdf{"3569}(入れる)&+&\bdf{"3E6E}&⇒&\bdf{"3569}\bdf{"3E6E}\\\bdf{"353D}(助ける)&+&\bdf{"3E6E}&⇒&\bdf{"3535}\bdf{"3F4D}\\\bdf{"3870}\bdf{"3823}(知らない)&+&\bdf{"3E6E}&⇒&\bdf{"3874}\bdf{"3673}\\\bdf{"4644}\bdf{"367E}(青い)&+&\bdf{"3E6E}&⇒&\bdf{"4644}\bdf{"3721}\\\bdf{"3375}(置く)&+&\bdf{"3E6E}&⇒&\bdf{"3376}(\bdf{"3375}\bdf{"3E46})\\\bdf{"3E32}(書く)&+&\bdf{"3E6E}&⇒&\bdf{"3D61}\\\end{tabular}\vspace{\baselineskip}以上の形態素単位ならびに活用の複雑性から,韓国語を音節文字単位で処理することは困難である.このため,計算機で処理する際にはこれら音節文字をすべてアルファベットに変換して各処理を行なっている.これについては\ref{節:内部表現}節で述べる.\subsection{分かち書き}韓国語は日本語と異なり,分かち書きを行なう言語である.これは漢字やひらがな,カタカナなど多様な文字種を持つ日本語や一覧性の高い漢字を多く使う中国語と異なり,分かち書きなしでは読みにくいためと予想する.韓国語処理を困難にしている一つの理由は,この分かち書きの単位と形態素単位が一致していないためである.以下に例文と,それを本論文で示す体系によって形態素(分割境界を`/'で示す)に分割した結果を示す.なお,以後は必要に応じて空白を\verb*!!と記述する.\begin{example}\item\bdf{"3535}\bdf{"4278}\bdf{"404C}\verb*||\bdf{"344A}\bdf{"403B}\verb*||\bdf{"304D}\verb*||\bdf{"3030}\bdf{"4038}\bdf{"344F}\verb*||\bdf{"3966}\bdf{"403B}\verb*||\bdf{"3033}\bdf{"3731}\bdf{"463C}\bdf{"374E}\verb*||\bdf{"4758}\verb*||\bdf{"4156}\bdf{"3C4C}\bdf{"4038}\bdf{"3869}\verb*||\bdf{"474F}\bdf{"3442}\bdf{"3525}\bdf{"3F64}.(到着が遅くなりそうなので,ギャランティにしていただきたいんですけれども.)\label{例:文}\item/\bdf{"3535}\bdf{"4278}/\bdf{"3021}/\bdf{"344A}/\bdf{"2429}\verb*||\bdf{"304D}\verb*||\bdf{"3030}/\bdf{"344F}/\bdf{"3966}/\bdf{"3826}/\bdf{"3033}\bdf{"3731}\bdf{"463C}/\bdf{"374E}/\bdf{"474F}/\bdf{"3E6E}\verb*||\bdf{"4156}/\bdf{"3D43}/\bdf{"3E7A}\bdf{"4038}\bdf{"3869}\verb*||\bdf{"474F}/\\\bdf{"2424}\bdf{"3525}/\bdf{"3F64}/./\label{例:形態素分割}\end{example}この例にあるように,[\ref{例:文}]における空白が必ずしも[\ref{例:形態素分割}]における形態素の区切りと対応していないことがわかる.このように,韓国語は英語などと異なり,空白を含む形態素(「\bdf{"2429}\verb*||\bdf{"304D}\verb*||\bdf{"3030}」)や縮約(「\bdf{"474F}」と「\bdf{"3E6E}\verb*||\bdf{"4156}」の一部「\bdf{"3E6E}」が「\bdf{"4758}」と縮約される)などの現象をごく普通に見ることができる.\subsection{音韻縮約}韓国語においては,音韻縮約という現象が頻出する.これは,ある特定の2音が連続した際に音変化を起こして別の音になり,その結果原音と対応が取れなくなる現象である.ただしこれは韓国語特有の現象ではなく,日本語においても特に話し言葉において起こることがある\cite{基礎日本語文法}.以下にその一例を示す.\begin{example}\item早く帰りたいんだ\underline{けど}(けれど/けれども).\label{例:けど}\item\underline{そりゃ}(それは)困ったな.\label{例:そりゃ}\item間違え\underline{ちゃ}(てしま)った.しっかりしな\underline{きゃ}(ければ).\end{example}縮約を機械処理する観点で見た場合,[\ref{例:けど}]における「けど」はこれを「けれども」もしくは「けれど」と同様に異表記の1形態素として認定すれば問題は起こらないが,[\ref{例:そりゃ}]においては縮約前が2語(「それ」と「は」)にわたるため「そりゃ」という1語に対して既存の品詞体系では品詞付与ができず,その結果これを1形態素として認定することが非常に難しい.そのため形態素解析において,これら縮約を還元する(縮約を起こす前の状態に戻す)処理がどうしても必要となる.韓国語における縮約の例を表\ref{表:縮約}に示す.縮約の中には,表における「\bdf{"4277}」のように変化を起こさず後続の形態素のみが変化する場合や,「\bdf{"474F}」「\bdf{"3E6E}\verb*||\bdf{"3375}」「\bdf{"3E7A}」の3形態素が連続することで縮約が2箇所で発生して「\bdf{"4758}\verb*||\bdf{"3379}」となるような例もある.また表\ref{表:縮約}最後の例のように,「\bdf{"474F}」と「\bdf{"4176}\verb*||\bdf{"3E4A}」という2形態素が「\bdf{"4421}\verb*||\bdf{"3E4A}」と縮約し,さらに場合によってこれが「\bdf{"427A}」に縮約する,というように2段階に縮約するものもある.また,縮約には表に示したように2形態素の境界で起こるだけでなく,例えば「\bdf{"392B}\bdf{"3E79}(何)」という1形態素が単独で「\bdf{"392B}\bdf{"3E6E}」あるいは「\bdf{"3939}」に縮約する場合がある.しかしこのような縮約は,先に示した日本語の例における「けど」の扱いと同様,これらを異表記の別形態素と認定し,\ref{節:タグ付け}節で述べるように同一の正規形を設定することで,縮約の問題を回避することができる.\begin{table}\caption{連続する2形態素による縮約の例}\label{表:縮約}\y{3}\begin{center}\begin{tabular}{cc|c}\hline\hline前形態素&後形態素&縮約結果\\\hline\bdf{"3E32}&\bdf{"3E6E}\verb*||\bdf{"4156}&\bdf{"3D61}\verb*||\bdf{"4156}\\\bdf{"474F}&\bdf{"3E7A}&\bdf{"475F}\\\bdf{"4277}&\bdf{"3E7A}&\bdf{"4321}\\\bdf{"404C}\bdf{"304D}&\bdf{"404C}\footnotemark&\bdf{"404C}\bdf{"3054}\\\bdf{"474F}&\bdf{"4176}\verb*||\bdf{"3E4A}&\bdf{"4421}\verb*||\bdf{"3E4A}(\bdf{"427A})\\\hline\end{tabular}\end{center}\end{table}\footnotetext{正規形は「\bdf{"3021}」であるが,\bdf{"404C}\bdf{"304D}に続く場合は「\bdf{"404C}」となるので,表では「\bdf{"404C}」と記述した.} \section{韓国語形態素体系} \label{節:形態素体系}本節では,韓国語の形態素をどのように取り扱い,どのように機械処理すべきかについて述べる.まず,分かち書きをどのような書式で記述すべきかを具体的に提示し,各形態素にどのような情報を不可すべきかを述べる.次に,縮約をどのように捉え,どのような書式で記述すべきかを紹介する.\subsection{形態素情報の書式}\label{節:タグ付け}コーパスはすべて人手により,または半自動で形態素分割され,すべての形態素に品詞などの情報を付与する.我々が行なった韓国語形態素情報付与の特徴は以下の通りである.\begin{enumerate}\item1行に1形態素を記述する\item空行によって分かち書きを表現する\item形態素に縮約情報を持たせる\end{enumerate}図\ref{図:タグ付与}に形態素情報が付与された文の例を示す.図では,「\bdf{"3157}\bdf{"372F}\bdf{"3869}\verb*||\bdf{"3966}\bdf{"4038}\bdf{"374E}\verb*||\bdf{"3E48}\bdf{"333B}\bdf{"4758}\verb*||\bdf{"3565}\bdf{"382E}\bdf{"305A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(では,お部屋にご案内いたします.)」という文に対して形態素分割され,品詞付与されている.図から分かるように,文末のピリオドに対しても,他の形態素と全く同様の書式によって情報が付与されている.各形態素は以下に示す8項目の情報を有している.すなわち,\y{3}\centerline{/文番号/形態素番号/表層形/縮約情報/正規形/品詞/活用型/属性/}\y{3}である.このうち,「縮約情報」欄については,次節で説明する.各形態素情報には,実際に文字列として出現した表層形とは別に,正規形という概念を持たせている.この両者は,意味論における表層と深層という関係にあるのではなく,計算機処理の都合上,出現形態素と形態素解析以降の処理の単位を別個にしたほうが有利であるためである.表層形と正規形が異なるのは,以下のような語である.\begin{enumerate}\item活用を行なう語\item縮約を行なう語(次節で述べる)\item音韻変化する語.例えば全く同一の意味を有するが前接する語の品詞および表記によって語形が変化する転成連結語尾「\bdf{"2424}〜」「\bdf{"3442}〜」「\bdf{"403A}〜」を同一の正規形「\bdf{"2424}〜」としている.\end{enumerate}ただし,感嘆詞の「\bdf{"306D}\bdf{"3836}\bdf{"3F4D}\bdf{"3F64}(ありがとう)」と「\bdf{"306D}\bdf{"3836}\bdf{"3F76}\bdf{"3F64}(ありがとう)」は音韻変化による異形態と考えられるが,このような語は異なる語と考えた.これは基準の明確化が困難であるのがその理由であり,本来は正規形により統一して処理するのが望ましいと考える.どこまでを音韻変化と認定するかは今後の課題である.\begin{figure}\begin{boxit}\noindent\verb|/420/10/|\bdf{"3157}\bdf{"372F}\bdf{"3869}\verb|//|\bdf{"3157}\bdf{"372F}\bdf{"3869}\verb|/|\bdf{"4122}\bdf{"3C53}\bdf{"3B67}\verb|///|\vspace{0.8\baselineskip}\noindent\verb|/420/20/|\bdf{"3966}\verb|//|\bdf{"3966}\verb|/|\bdf{"3A38}\bdf{"456B}\bdf{"386D}\bdf{"3B67}\verb|/|\bdf{"3A52}\bdf{"3021}\verb|//|\\\verb|/420/30/|\bdf{"4038}\bdf{"374E}\verb|//|\bdf{"374E}\verb|/|\bdf{"3A4E}\bdf{"3B67}\bdf{"305D}\bdf{"4136}\bdf{"3B67}\verb|///|\vspace{0.8\baselineskip}\noindent\verb|/420/40/|\bdf{"3E48}\bdf{"333B}\verb|//|\bdf{"3E48}\bdf{"333B}\verb|/|\bdf{"353F}\bdf{"405B}\bdf{"386D}\bdf{"3B67}\verb|///|\\\verb|/420/50/|\begin{epsf}\underline{\raisebox{-2pt}{\epsfile{file=1.ps,width=1zw}}\verb|/+|\bdf{"3E46}\verb|/|\bdf{"474F}}\end{epsf}\begin{draft}\underline{\raisebox{-2pt}{\atari(9,9,1bp)}\verb|/+|\bdf{"3E46}\verb|/|\bdf{"474F}}\end{draft}\verb|/|\bdf{"353F}\bdf{"3B67}\bdf{"4644}\bdf{"3B7D}\bdf{"4122}\bdf{"394C}\bdf{"3B67}\verb|///|\vspace{0.8\baselineskip}\noindent\verb|/420/60/|\underline{\bdf{"3565}\bdf{"382E}\verb|/|\bdf{"3E46}\verb|+/|\bdf{"3E6E}\\bdf{"3565}\bdf{"382E}}\verb|//|\bdf{"3A38}\bdf{"4136}\bdf{"353F}\bdf{"3B67}\verb|/|\bdf{"3154}\bdf{"4422}\verb|/|\bdf{"3A40}\bdf{"3B67}\verb|/|\\\verb|/420/70/|\begin{epsf}\raisebox{-2pt}{\epsfile{file=2.ps,width=1zw}}\end{epsf}\begin{draft}\raisebox{-2pt}{\atari(9,10,1bp)}\end{draft}\verb|//|\begin{epsf}\raisebox{-2pt}{\epsfile{file=2.ps,width=1zw}}\end{epsf}\begin{draft}\raisebox{-2pt}{\atari(9,10,1bp)}\end{draft}\verb|/|\bdf{"3C31}\bdf{"3E6E}\bdf{"383B}\bdf{"3E6E}\bdf{"394C}\verb|/|\bdf{"404F}\bdf{"395D}\verb|/|\bdf{"4047}\bdf{"4176}\verb|/|\\\verb|/420/80/|\bdf{"3D40}\bdf{"344F}\bdf{"3459}\verb|//|\bdf{"2432}\bdf{"344F}\bdf{"3459}\verb|/|\bdf{"392E}\bdf{"383B}\bdf{"3E6E}\bdf{"394C}\verb|/|\bdf{"3F6B}\bdf{"3E70}\verb|/|\bdf{"3C2D}\bdf{"3C7A}\bdf{"477C}\verb|/|\\\verb|/420/90/.//./|\bdf{"3162}\bdf{"4823}\verb|///|\end{boxit}\y{2}\caption{形態素情報付与の例}\label{図:タグ付与}\end{figure}\subsection{縮約の取り扱い}前述したように,韓国語においては縮約という現象が頻繁に起こる.これに対して,どのように情報を付与するのが計算機処理に好都合か,という問題がある.例えば,縮約を起こしている\bdf{"4758}\verb*||\bdf{"3565}\bdf{"382E}という文字列に対して,この文字列が「\bdf{"474F}」+「\bdf{"3E6E}\verb*||\bdf{"3565}\bdf{"382E}」の2形態素で構成されているという情報をどのようにして付加するか,という問題がある.これに対して,我々は以下のような方策を取った.2語による縮約された文字列に対し,縮約部分を前の形態素に含めるように文字列を分離してそれぞれの表層形と認めた.仮に縮約部分を「明らかに前の形態素に含まれる部分」「前後のどちらに含まれるか不明の部分」「明らかに後の形態素に含まれる部分」に分けると,前2要素は前の形態素表層形,最終要素を後の形態素表層形とした.\bdf{"4758}\verb*||\bdf{"3565}\bdf{"382E}の例では,以下のようになる.\begin{enumerate}\item表層形として,「\bdf{"4758}」と「\bdf{"3565}\bdf{"382E}」の2語からなる:これを表層形の欄に記述する\itemこれら2語の正規形は,それぞれ「\bdf{"474F}」「\bdf{"3E6E}\verb*||\bdf{"3565}\bdf{"382E}」である:これを正規形の欄に記述する\itemこれら2語は縮約を起こしている.すなわち「\bdf{"4758}」は後続形態素の先頭「\bdf{"3E6E}」と縮約しており,「\bdf{"3565}\bdf{"382E}」は先頭に「\bdf{"3E6E}」を本来持つ:これを縮約情報の欄に記述する\end{enumerate}これらの情報をすべて示したものが図\ref{図:タグ付与}の下線部である.この情報を利用することによって,どのような語の連続に対して縮約が行われ,その結果どのように変化するかという情報を容易に抽出することができる.その結果,形態素解析において縮約を取り扱うことが可能になり,表層形の列から正規形を復元することが可能になる.これについては,\ref{節:形態素解析}節で説明する.また,表の「\bdf{"404C}\bdf{"304D}(これ)」+「\bdf{"404C}(は)」の2形態素で「\bdf{"404C}\bdf{"3054}(これは)」と縮約する例においては,定義により表層形はそれぞれ「\bdf{"404C}\bdf{"3054}」と「(空)」となり,後者の形態素は表層形が長さ0の文字列となるが,本体系ではこのような表層が空である形態素も認める.ただしこのような形態素は,形態素解析の際に不必要な曖昧性が増大する可能性があるため,局所的な連接を考慮することによって直前で縮約が起きている一部の単語にしか接続しないことを,何らかの方法で認知する必要がある. \section{韓国語品詞体系} \label{節:品詞体系}\subsection{概要,総論}本論文では表\ref{表:品詞一覧}に示す33品詞を認定する.表には品詞の上位概念として便宜上13の品詞類を設けたが,処理の際には品詞類という単位は使用しない.また,基本的に品詞の下位分類は設けないが,動詞における変則型など,ある品詞において他と性質の異なる語があり,かつ機械処理にとってその性質の記述が有用と判断した場合に属性を設け,属性値を付与することがある.本論文で提案する体系の特長は以下の通りである.\begin{enumerate}\item形態素解析を考慮した品詞体系\\ほとんどの機械翻訳システムにおいて,形態素解析は必須の処理であり,形態素解析の誤りは以後の処理に大きな影響を与える.そこで,従来のように形態素解析の誤りを解析処理のみに帰属した問題と捉えるのではなく,形態素及び品詞体系の問題としても捉え,できるだけ誤りのないように体系を設計した.具体的には,多品詞語が局所的な情報のみで解決できるように品詞の設定を行ない,語の前後の接続を考慮することによって弁別できるように調整を行なった.この際,\ref{節:形態素解析}節に述べる形態素解析エンジンを実際に使用し,この形態素解析誤りを分析することで体系の調整を試みた.ただし,局所的な情報のみで弁別することが極めて困難な語であっても,品詞が異なる場合に意味の違いが著しく,機械翻訳の観点から同一の品詞にすることが好ましくない場合に対しては,それぞれの品詞を設定した.\item機械翻訳を考慮した品詞の細分化\\機械翻訳処理の際に必要となる機能語に対して,形態素解析が可能な範囲で品詞を細分化した.このため,例えば「朝鮮語辞典」\cite{朝鮮語辞典}のような辞書における「語尾」「助詞」「接尾辞」などは機械翻訳の際に重要な役割を果たすと判断したためそれぞれ3分類,8分類,4分類されており,細かな品詞体系となっている.また,全品詞の中で最も所属語数の多い名詞に対しても,一般的な分類である名詞,代名詞,数詞の3分類を主にその機能によってさらに細分化し,新たに固有名詞,動作名詞,形容名詞,ローマ字を設定した.\item翻訳処理に不要な品詞の統合\\前項とは逆に,機械翻訳の際に必要のない品詞分類は統合した.例えば,動詞は「朝鮮語辞典」\cite{朝鮮語辞典}においては自動詞,他動詞,使役動詞,受動動詞と細分類されている.しかし,日本語と同様,同一の動詞が場合により自動詞と他動詞のどちらにもなる場合が多く見受けられ,またその場合の品詞決定すなわち形態素解析が容易でない例も多い.一方本体系を使用した翻訳システムTDMT\cite{古瀬99}においては自動詞,他動詞,使役動詞,受動動詞の区別は(品詞以外の情報で判断するため)必要なく,これらを一つの品詞「動詞」に統合した.\item「記号」の設定\\テキストを機械処理することを考えた場合,``,''や``.''などの記号も文字と同様の扱いをするのが都合がよい.このため,これらの記号も一つの形態素という立場を取り,これらに対して「記号」という品詞を設定した.\end{enumerate}また,本体系の基準は以下の通りである.\begin{itemize}\item最短単位分割の原則:原則として,分割可能な語は可能な限り短い単位に分割する.\item綴字法は「\bdf{"4751}\bdf{"315B}\\bdf{"3842}\bdf{"4363}\bdf{"397D}・\bdf{"4725}\bdf{"4158}\bdf{"3E6E}\\bdf{"4758}\bdf{"3C33}」\cite{ハングル綴字法}を基準とする.ただし最短単位分割の原則を優先する.この結果,合成動詞等も極力分解し,わかち書きにおいて上掲書の原則とは異なる.\item外来語表記については,日本語は「朝鮮語辞典」\cite{朝鮮語辞典},その他言語は「\bdf{"3139}\bdf{"3E6E}\bdf{"346B}\bdf{"3B67}\bdf{"407C}」\cite{国語大辞典}を参照する.\end{itemize}\begin{table}\begin{center}\caption{韓国語品詞一覧}\y{3}\label{表:品詞一覧}\begin{tabular}{l|l}\hline\hline品詞類&品詞\\\hline名詞類&普通名詞,固有名詞,動作名詞,形容名詞,ローマ字,代名詞,数詞\\\hline(動詞)&動詞\\\hline(形容詞)&形容詞\\\hline補助用言類&補助用言,補助動詞,補助形容詞\\\hline語尾類&先語末語尾,転成連結語尾,文末語尾\\\hline(冠形詞)&冠形詞\\\hline(接続詞)&接続詞\\\hline(副詞)&副詞\\\hline(感嘆詞)&感嘆詞\\\hline助詞類&主格助詞,冠形格助詞,目的格助詞,叙述格助詞\\&接続格助詞,副詞格助詞,主題補助詞,一般補助詞\\\hline(接頭辞)&接頭辞\\\hline接尾辞類&名詞形接尾辞,動詞派生接尾辞,形容詞派生接尾辞,副詞派生接尾辞\\\hline(記号)&記号\\\hline\end{tabular}\end{center}\end{table}\subsection{品詞定義}各品詞別に説明,例,注意すべき事項を述べる.所属する語句が少数の場合は,全語を列挙する.また以下の説明においては,紛らわしい語句などに対して適宜日本語の対訳を付与する.また,品詞ならびに属性を<$\cdots$>で表現する.例えば,「不可」という属性を持つ普通名詞を<普通名詞/不可>と記述する.\subsubsection{固有名詞}[説明]人名,国名,地名,団体名,書名,商品名(登録商標)等.日本語文法の「固有名詞」と同一概念.\begin{quote}{\bf[例]}\bdf{"3168}(金),\bdf{"3459}\bdf{"374E}(太郎),\bdf{"346B}\bdf{"4751}\\bdf{"4757}\bdf{"3078}(大韓航空),\bdf{"3535}\bdf{"446C}(東京),\bdf{"3D3A}\bdf{"4664}\bdf{"3C48}\\bdf{"445A}\bdf{"3D3A}(スペシャルコース),\bdf{"3F76}\bdf{"4529}\bdf{"3847}(ウォークマン),\bdf{"3F40}\bdf{"3B67}\bdf{"442B}\bdf{"4136}\\bdf{"3078}\bdf{"3F78}(大阪城公園),\bdf{"4126}\bdf{"404C}\bdf{"3E46}\bdf{"3823}(JR),\bdf{"3164}\bdf{"4557}\bdf{"3E32}(近鉄),\bdf{"4751}\bdf{"3139}\bdf{"3E6E}(韓国語)\end{quote}\subsubsection{動作名詞}[説明]\bdf{"474F}\bdf{"3459}が後接することにより動詞として働く名詞.機能的には,「する」が後接することで動詞として働く日本語のサ変名詞に対応する.ただし,\bdf{"336B}\bdf{"3721}(歌)や\bdf{"353F}\bdf{"3066}(憧れ)などのように、韓国語の動作名詞に属する語が日本語のサ変名詞に属するとは限らない。\begin{quote}{\bf[例]}\bdf{"315D}\bdf{"3F2C}(禁煙),\bdf{"3459}\bdf{"3832}\bdf{"417A}(アイロンがけ),\bdf{"373B}\bdf{"4550}(レンタル),\bdf{"3845}\bdf{"4178}(完売),\bdf{"3B7D}\bdf{"3022}(考え),\bdf{"3C2D}\bdf{"3A71}\bdf{"3D3A}(サービス),\bdf{"3C31}\bdf{"3930}(プレゼント),\bdf{"3D3A}\bdf{"4530}(スキー),\bdf{"3D43}\bdf{"405B}(始まり),\bdf{"427C}\bdf{"306D}(参考)\end{quote}\subsubsection{形容名詞}[説明]\bdf{"474F}\bdf{"3459}が後接することにより形容詞として働く名詞.漢字語および外来語.「だ/な」が後接することで形容動詞として働く名詞(以下,形容名詞と呼ぶ)に対応する.\begin{quote}{\bf[例]}\bdf{"3021}\bdf{"3449}(可能),\bdf{"3023}\bdf{"345C}(簡単),\bdf{"306F}\bdf{"3675}(困難),\bdf{"3459}\bdf{"4760}(幸い),\bdf{"3A39}\bdf{"4062}(複雑),\bdf{"3A4E}\bdf{"4137}(不足),\bdf{"3F2D}\bdf{"3D49}(一所懸命),\bdf{"404C}\bdf{"3B73}(変),\bdf{"445E}\bdf{"4651}\bdf{"462E}(コンパクト),\bdf{"462F}\bdf{"3A30}(特別),\bdf{"474A}\bdf{"3F64}(入り用)\end{quote}ただし,以下の2語は形容名詞としない.\begin{description}\item[\underline{\bdf{"346B}\bdf{"345C}(大端)}]大端が当て字なのでこれと認めない.すなわち\bdf{"346B}\bdf{"345C}\bdf{"474F}(えらい)は形容詞,\bdf{"346B}\bdf{"345C}\bdf{"4877}(誠に)は副詞とする.\item[\underline{\bdf{"3535}\bdf{"407A}(到底)}]\bdf{"474F}\bdf{"3459}がつくときと\bdf{"4877}がつくときとで\bdf{"3535}\bdf{"407A}(到底)の意味が変化するため.従って,\bdf{"3535}\bdf{"407A}\bdf{"474F}(徹底している)は形容詞,\bdf{"3535}\bdf{"407A}\bdf{"4877}(とうてい)は副詞とする.\end{description}\subsubsection{普通名詞}[説明]同一種類の事物を示す語で固有名詞,動作名詞,形容名詞を除いたもの.本体系では,普通名詞を数量表現の違いによって「不可」「漢字数」「ハングル数」「選択」の4項目に分類する.この属性は,韓国語形態素解析での曖昧性抑制,及び韓国語生成での数字生成の際に使用する.\begin{description}\item[{[不可]}]数量表現する際,数詞がその直前にこない普通名詞.\begin{quote}{\bf[例]}\bdf{"307C}\bdf{"333B}(館内),\bdf{"332A}\bdf{"415F}(あと),\bdf{"332D}(欄),\bdf{"333B}\bdf{"404F}(明日),\bdf{"3459}\bdf{"3459}\bdf{"394C}\\bdf{"3966}(和室),\bdf{"3551}\bdf{"404C}(ふたり),\bdf{"376B}\\bdf{"3C2D}\bdf{"3A71}\bdf{"3D3A}(ルームサービス),\bdf{"3838}\bdf{"333B}(湾内),\bdf{"3867}\bdf{"4425}(何日),\bdf{"3968}\bdf{"466D}(船便)\end{quote}\begin{itemize}\item〜\bdf{"3021}(街),〜\bdf{"3028}(感),〜\bdf{"3068}(係),〜\bdf{"3761}(料),〜\bdf{"3A4E}(中心部の部),〜\bdf{"3D47}(室),〜\bdf{"405A}(者),〜\bdf{"4121}(点,店),〜\bdf{"4126}(制,製),〜\bdf{"4176}(地)等は前接する語と共に一形態素と認め,<普通名詞/不可>とする.ただし,〜\bdf{"4121}(点)については数詞が先行するときのみ<普通名詞/選択>とする.\item「\bdf{"404C}\\bdf{"3F2A}\bdf{"404C}\\bdf{"3D45}\bdf{"434C}\bdf{"404C}\\bdf{"3842}\bdf{"3D40}\bdf{"344F}\bdf{"316E}?」(この駅はシンチョンで合っていますか?)の\bdf{"3F2A}(駅)は<普通名詞/不可>とし,\bdf{"3C2D}\bdf{"3F6F}\bdf{"3F2A}(ソウル駅),\bdf{"3D45}\bdf{"434C}\bdf{"3F2A}(シンチョン駅)の\bdf{"3F2A}(駅)は<名詞形接尾辞>とする.\item数詞+\bdf{"356E}(等)は一形態素と認め,<普通名詞/不可>とする.\item\bdf{"466D}について.方向,側,便等を表す\bdf{"466D}について,以下の基準により区別する.\begin{enumerate}\item冠形詞+方向,側の\bdf{"466D}:先行する冠形詞とともに一形態素として<普通名詞/不可>\\{\bf[例]}\bdf{"3F40}\bdf{"3825}\bdf{"466D}(右側),\bdf{"3F5E}\bdf{"466D}(左側)\item普通名詞(または動作名詞)+方向,側の\bdf{"466D}:2形態素に分けて<普通名詞>+\bdf{"466D}<普通名詞/不可>\\{\bf[例]}\bdf{"3047}\bdf{"334A}\bdf{"466D}(向こう側),\bdf{"355A}\bdf{"466D}(後ろ側),\bdf{"395D}\bdf{"346B}\bdf{"466D}(反対側)\item交通,郵便,便数の\bdf{"466D}:<普通名詞/選択>\\{\bf[例]}\bdf{"442E}\\bdf{"4425}\\bdf{"404C}\\bdf{"3B6F}\\bdf{"466D}(KAL723便)\bdf{"474F}\bdf{"3767}\bdf{"3F21}\\bdf{"354E}\\bdf{"466D}\\bdf{"4056}\bdf{"3459}.(一日2便ある.)\bdf{"3459}\bdf{"3825}\\bdf{"466D}\bdf{"4038}\bdf{"374E}\\bdf{"3A4E}\bdf{"4346}\bdf{"3459}.(別便で送った.)ただし,\bdf{"3968}\bdf{"466D}(船便),\bdf{"3C31}\bdf{"466D}(船便),\bdf{"3F6C}\bdf{"466D}(右側),\bdf{"4757}\bdf{"3078}\bdf{"466D}(航空便)など,前接する語と共に辞書\cite{朝鮮語辞典}の一見出し語としてでてくるものについては各々前接する語と共に一形態素とし,<普通名詞/不可>とする.\item<転成連結語尾/冠形形>+\bdf{"466D}のうち,文末にその形が現れるもの:〜\bdf{"3442}/\bdf{"403A}/\bdf{"2424}\\bdf{"466D}\bdf{"404C}<補助形容詞/規則/傾向>\\{\bf[例]}\bdf{"3F40}\bdf{"3443}\bdf{"403A}\\bdf{"4126}\bdf{"397D}\\bdf{"357B}\bdf{"3666}\bdf{"4751}\\bdf{"466D}\bdf{"4054}\bdf{"344F}\bdf{"3459}.(今日はわりと暖かいほうです.)\item<転成連結語尾/冠形形>+\bdf{"466D}のうち,文中にその形が現れ,\bdf{"466D}(方,側)に後接する\bdf{"404C}が主格助詞の\bdf{"404C}であるもの:\bdf{"466D}<普通名詞/不可>\\{\bf[例]}\bdf{"3976}\bdf{"3D3A}\bdf{"374E}\\bdf{"3021}\bdf{"3442}\\bdf{"466D}\bdf{"404C}\\bdf{"3475}\\bdf{"3A7C}\bdf{"3823}\bdf{"4176}\bdf{"3F64}.(バスで行く方がより速いですよ.)\end{enumerate}\item多品詞語「\bdf{"3A50}」について,以下のように区別する.\begin{enumerate}\item(何時間)何分(何秒)の\bdf{"3A50}:<普通名詞/漢字数>\\{}{\bf[例]}\bdf{"4751}\\bdf{"3D43}\bdf{"3023}\\bdf{"3B6F}\bdf{"3D4A}\\bdf{"3A50}(1時間30分)\item人に対する尊敬語の\bdf{"3A50}:<普通名詞/ハングル数>\\{}{\bf[例]}\bdf{"3E6E}\bdf{"3C2D}\\bdf{"3F40}\bdf{"3C3C}\bdf{"3F64}.\\bdf{"3C3C}\\bdf{"3A50}\bdf{"404C}\bdf{"3D4A}\bdf{"344F}\bdf{"316E}?(いらっしゃいませ.三名様ですか.)\item分け前,分量の\bdf{"3A50}:<名詞形接尾辞>\\{}{\bf[例]}\bdf{"3B6F}\bdf{"3068}\bdf{"4541}\\bdf{"404C}\bdf{"404E}\bdf{"3A50}\\bdf{"4156}\bdf{"3C3C}\bdf{"3F64}.(サムゲタン二人前ください.)\end{enumerate}\item\bdf{"306D}\bdf{"3C53}\\bdf{"3976}\bdf{"3D3A}(ハイウェイバス),\bdf{"4177}\bdf{"4760}\\bdf{"3976}\bdf{"3D3A}(直行バス),\bdf{"462F}\bdf{"315E}\\bdf{"3F2D}\bdf{"4277}(特急列車),\bdf{"3F4F}\bdf{"4760}\\bdf{"3F2D}\bdf{"4277}(鈍行列車),\bdf{"306D}\bdf{"3C53}\\bdf{"4664}\bdf{"382E}(高速フェリー)など,漢字語が先行することによってできた合成名詞中,乗物名については,先行する漢字語と〜\bdf{"3976}\bdf{"3D3A}(バス),〜\bdf{"3F2D}\bdf{"4277}(列車),〜\bdf{"4664}\bdf{"382E}(フェリー)を分けて処理する.ただし,\bdf{"3A4E}\bdf{"307C}\\bdf{"4664}\bdf{"382E}(釜関フェリー)のように,固有名詞のものは分けない.\end{itemize}\item[{[漢字数]}]漢字数(\bdf{"404F},\bdf{"404C},\bdf{"3B6F}...)を先行させることで数量,順序計算できる普通名詞.\begin{quote}{\bf[例]}\bdf{"3139}(局),\bdf{"3362}(年),\bdf{"394C}\bdf{"454D}(メートル),\bdf{"395A}(泊),\bdf{"3A50}(分),\bdf{"3F78}(ウォン),\bdf{"3F79}(月),\bdf{"404E}(人),\bdf{"404F}(日),\bdf{"4823}\bdf{"3D47}(号室)\end{quote}\item[{[ハングル数]}]ハングル数(\bdf{"474F}\bdf{"332A},\bdf{"3551},\bdf{"3C42}...)を先行させることで数量,順序計算できる普通名詞.\begin{quote}{\bf[例]}\bdf{"3033}(ヶ),\bdf{"3047}(件),\bdf{"3A50}(分),\bdf{"3B67}\bdf{"3677}(人),\bdf{"3D43}\bdf{"3023}(時間),\bdf{"3E4B}(粒),\bdf{"405A}\bdf{"382E}(席),\bdf{"4065}(枚),\bdf{"4159}(列),\bdf{"424A}(かけら),\bdf{"4277}\bdf{"374A}(回)\end{quote}\item[{[選択]}]文脈により漢字数,ハングル数のいずれかを先行させることで数量,順序計算できる普通名詞.\begin{quote}{\bf[例]}\bdf{"3978}(度,番),\bdf{"3A4E}(部),\bdf{"3B76}(色),\bdf{"3D43}(時),数詞+\bdf{"4121}(点),\bdf{"445A}\bdf{"3D3A}(コース)\end{quote}\begin{itemize}\item\bdf{"3978}$\longrightarrow$\bdf{"4176}\bdf{"474F}\bdf{"4336}\\bdf{"3F40}\\bdf{"3978}\\bdf{"4362}\bdf{"3138}(地下鉄25番出口)\bdf{"4751}\bdf{"3139}\bdf{"3F21}\bdf{"3442}\\bdf{"3459}\bdf{"3C38}\\bdf{"3978}\\bdf{"3021}\\bdf{"3A43}\bdf{"3459}.(韓国には5回(度)行った.)\item\bdf{"3A4E}$\longrightarrow$\bdf{"3870}\bdf{"3721}\bdf{"3D43}\bdf{"3068}\\bdf{"4126}\\bdf{"4030}\\bdf{"3A4E}(モレシゲ第6話)\bdf{"4136}\bdf{"3C31}\\bdf{"404F}\bdf{"3A38}\\bdf{"3357}\\bdf{"3A4E}\\bdf{"4156}\bdf{"3C3C}\bdf{"3F64}.(朝鮮日報4部ください.)\item\bdf{"3D43}$\longrightarrow$\bdf{"3459}\bdf{"3C38}\\bdf{"3D43}(5時)\bdf{"3D4A}\bdf{"4425}\\bdf{"3D43}または\bdf{"3F2D}\bdf{"404F}\bdf{"3076}\\bdf{"3D43}(17時)\item\bdf{"445A}\bdf{"3D3A}$\longrightarrow$\bdf{"4126}\\bdf{"3B6F}\\bdf{"445A}\bdf{"3D3A}(第3コース)\bdf{"3459}\bdf{"3C38}\\bdf{"445A}\bdf{"3D3A}\\bdf{"4056}\bdf{"3442}\\bdf{"472E}(5コースあるプール)\item\bdf{"3B76}(色)について.先行する語が<形容詞>+<転成連結語尾/冠形形>のとき,\bdf{"3B76}は単独で<普通名詞/選択>とし,それ以外のときは前接する語と共に一形態素と認める.\vspace{\baselineskip}{\bf[例]}\bdf{"4644}\bdf{"3675}\\bdf{"3B76}(青い色),\bdf{"4872}\\bdf{"3B76}(白い色)$\longrightarrow$<形容詞>+<転成連結語尾/冠形形>+\bdf{"3B76}<普通名詞/選択>\\{\bf[例]}\bdf{"304B}\bdf{"4124}\bdf{"3B76}(黒色),\bdf{"3A50}\bdf{"482B}\bdf{"3B76}(ピンク色)$\longrightarrow$<普通名詞/不可>\vspace{\baselineskip}\item\bdf{"4121}(点)について,先行する語が数詞以外のときは,前接する語と共に一形態素と認め,<普通名詞/不可>とする.\vspace{\baselineskip}{\bf[例]}\bdf{"3162}\bdf{"4158}\bdf{"4121}(基準点),\bdf{"4047}\bdf{"392E}\bdf{"4121}(疑問点)$\longrightarrow$<普通名詞/不可>\\{\bf[例]}\bdf{"3F35}\\bdf{"4121}\\bdf{"3B6F}(4.3),\bdf{"354E}\\bdf{"4121}\bdf{"403B}\\bdf{"4176}\bdf{"332A}\\bdf{"3021}\bdf{"3459}(二つの点を通る)$\longrightarrow$<普通名詞/選択>\end{itemize}\end{description}\subsubsection{代名詞}[説明]ある事物や概念を具体的に表さず代わって表現する時に用いられる語.ただし,「こっち」の\bdf{"404C}\bdf{"382E},「あっち」の\bdf{"407A}\bdf{"382E}等は副詞とする.\begin{quote}{\bf[例]}\bdf{"404C}\bdf{"304D}(これ),\bdf{"407A}\bdf{"304D}(あれ),\bdf{"3F29}\bdf{"3162}(ここ),\bdf{"3045}\bdf{"3162}(そこ),\bdf{"3F29}\bdf{"3162}\bdf{"407A}\bdf{"3162}(あちこち),\bdf{"3E6E}\bdf{"3570}(どこ),\bdf{"3157}(彼),\bdf{"407A}(私),\bdf{"332A}(僕),\bdf{"3467}\bdf{"3D45}(あなた)\end{quote}\subsubsection{数詞}[説明]事物の数量や順序を表す語.最短単位分割を原則とする.なお,属性として以下の二つを区別,付与する.\begin{description}\item[{[漢字数]}]\bdf{"3F35}(零),\bdf{"404F}(一),\bdf{"404C}(二),\bdf{"3B6F}(三),\bdf{"3B67}(四),\bdf{"3F40}(五),\bdf{"4030}(\bdf{"402F})(六),\bdf{"4425}(七),\bdf{"4648}(八),\bdf{"3138}(九),\bdf{"3D4A}(\bdf{"3D43})(十),\bdf{"3969}(百),\bdf{"4335}(千),\bdf{"3838}(万)\item[{[ハングル数]}]\bdf{"3078}(ゼロ),\bdf{"474F}\bdf{"332A}(\bdf{"4751})(ひとつ),\bdf{"3551}(\bdf{"354E})(ふたつ),\bdf{"3C42}(\bdf{"3C3C},\bdf{"3C2E})(みっつ),\bdf{"335D}(\bdf{"3357},\\bdf{"334B})(よっつ),\bdf{"3459}\bdf{"3C38}(いつつ)\end{description}\subsubsection{ローマ字}[説明]単に羅列されたローマ字表記で以下の26語をこれと認める.\begin{quote}\bdf{"3F21}\bdf{"404C}(a),\bdf{"3A71}(b),\bdf{"3D43}(c),\bdf{"3570}(d),\bdf{"404C}(e),\bdf{"3F21}\bdf{"4741}(f),\bdf{"4176}(g),\bdf{"3F21}\bdf{"404C}\bdf{"4421}(h),\bdf{"3E46}\bdf{"404C}(i),\bdf{"4126}\bdf{"404C}(j),\bdf{"4449}\bdf{"404C}(k),\bdf{"3F24}(l),\bdf{"3F25}(m),\bdf{"3F23}(n),\bdf{"3F40}(o),\bdf{"4747}(p),\bdf{"4525}(q),\bdf{"3E46}\bdf{"3823}(r),\bdf{"3F21}\bdf{"3D3A}(s),\bdf{"463C}(t),\bdf{"402F}(u),\bdf{"3A6A}\bdf{"404C}(v),\bdf{"3475}\bdf{"3A6D}\bdf{"3779}(w),\bdf{"3F22}\bdf{"3D3A}(x),\bdf{"3F4D}\bdf{"404C}(y),\bdf{"4126}\bdf{"462E}(z)\end{quote}\subsubsection{動詞}[説明]事物の動作や作用を表す語.活用する.日本語の動詞とほぼ同一概念.活用の種類によって区別し,これを属性として記述する.\begin{itemize}\item動詞に補助動詞\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3021},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3F40},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3A38},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4156},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4176}等が後接してできたいわゆる合成動詞は次に挙げるもののみを動詞と認める.\begin{tabular}{ll}動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3021},\bdf{"3F40}&\bdf{"3021}\bdf{"412E}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3021}\bdf{"412E}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3049}\bdf{"3E6E}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3049}\bdf{"3E6E}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"332A}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"332A}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"333B}\bdf{"3741}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"333B}\bdf{"3741}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3459}\bdf{"3360}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3459}\bdf{"3360}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3539}\bdf{"3E46}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3539}\bdf{"3E46}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3569}\bdf{"3E6E}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3569}\bdf{"3E6E}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3F43}\bdf{"3673}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3F43}\bdf{"3673}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3A38}&\bdf{"3959}\bdf{"3673}\bdf{"3A38}(規則)\\&\bdf{"3E4B}\bdf{"3E46}\bdf{"3A38}(規則)\\&\bdf{"4323}\bdf{"3E46}\bdf{"3A38}(規則)\\動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4156}&\bdf{"3539}\bdf{"3741}\bdf{"4156}(規則){\small(下記参照)}\\動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4176}&\bdf{"3351}\bdf{"3E6E}\bdf{"4176}(規則)\\&\bdf{"3633}\bdf{"3E6E}\bdf{"4176}(規則)\\&\bdf{"3841}\bdf{"3021}\bdf{"4176}(規則)\\&\bdf{"476C}\bdf{"3E6E}\bdf{"4176}(規則)\\\end{tabular}\item\bdf{"3539}\bdf{"3741}\bdf{"4156}について,その意味により以下のように区別する.\begin{enumerate}\item\bdf{"3539}\bdf{"3741}\bdf{"4156}が「配る,配布する,回す+てください」という意味で使われているとき,\bdf{"3539}\bdf{"382E}<動詞/規則>+\bdf{"3E6E}\verb*||\bdf{"4156}<補助動詞/規則>とする.この場合,\bdf{"3741}\と\bdf{"4156}\の間に空白が入り,\bdf{"3539}\bdf{"3741}\verb*!!\bdf{"4156}と表記される.\item\bdf{"3539}\bdf{"3741}\bdf{"4156}が「返す,返還する」という意味で使われている場合,\bdf{"3539}\bdf{"3741}\bdf{"4156}<動詞/規則>とする.この場合,\bdf{"3741}\と\bdf{"4156}\の間に空白は入らず,\bdf{"3539}\bdf{"3741}\bdf{"4156}と表記される.\end{enumerate}\item<動詞/規則>の\bdf{"3547}について,その日本語対訳により以下のように区別する.\begin{enumerate}\item「〜できる」と日本語訳されるもの\vspace{\baselineskip}\begin{example}\item\bdf{"3068}\bdf{"3B6A}\bdf{"404C}\\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(計算できました.)\item\bdf{"3068}\bdf{"3B6A}<動作名詞>\bdf{"404C}<主格助詞>\bdf{"3547}<動詞/規則>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\end{example}先行する動作名詞の後ろに主格助詞の\bdf{"3021}/\bdf{"404C}が存在する時,また存在しない時(この場合,先行する動作名詞と\bdf{"3547}はわかち書きされる)はそれを挿入して意味がとおる場合,\bdf{"3547}は<動詞/規則>とする.ただし,先行する動作名詞の後ろに主格助詞の\bdf{"3021}/\bdf{"404C}が入っていても文によっては「〜できる」ではなく,「〜(が)なされる」と訳されることがある.この時も\bdf{"3021}/\bdf{"404C}が入っていれば\bdf{"3547}は<動詞/規則>とする.「〜(が)なされる」と訳され,\bdf{"3021}/\bdf{"404C}が入っていない場合(この場合,先行する動作名詞と\bdf{"3547}はわかち書きされない)は下記項目の\bdf{"3547}は<動詞派生接尾辞>となる.\item「〜(に)なる」と日本語訳されるもの\vspace{\baselineskip}\begin{example}\item\bdf{"3078}\bdf{"3A4E}\bdf{"3021}\\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(勉強になりました.)\item\bdf{"3078}\bdf{"3A4E}<動作名詞>\bdf{"3021}<副詞格助詞>\bdf{"3547}<動詞/規則>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\end{example}先行する動作名詞の後ろに副詞格助詞の\bdf{"3021}/\bdf{"404C}が存在したり,副詞\bdf{"3E6E}\bdf{"363B}\bdf{"3054},\bdf{"404C}\bdf{"3738}\bdf{"3054}等が先行して,「〜(に)なる」「〜(に)該当する」と訳される時,\bdf{"3547}は<動詞/規則>とする.\item動作名詞に後接して自動詞,受動動詞をつくり,「〜される」「〜になる」と日本語訳されるもの\vspace{\baselineskip}\begin{example}\item\bdf{"3A38}\bdf{"3535}\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(報道されました.)\item\bdf{"3A38}\bdf{"3535}<動作名詞>\bdf{"3547}<動詞派生接尾辞>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\vspace{\baselineskip}\item\bdf{"3D43}\bdf{"405B}\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(始まりました.)\item\bdf{"3D43}\bdf{"405B}<動作名詞>\bdf{"3547}<動詞派生接尾辞>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\end{example}先行する動作名詞の直後(わかち書きされずに)に\bdf{"3547}がきたとき,\bdf{"3547}は<動詞派生接尾辞>となる.\itemその他\\「(桝で)量る」などの意味の場合\bdf{"3547}は<動詞/規則>となり,「(水分が少なく)固い,厳しい」などの意味の場合\bdf{"3547}は<形容詞/規則>となる.\end{enumerate}\item\bdf{"3E48}+\bdf{"3547}\bdf{"3459}について.その意味により以下のように区別する.\begin{enumerate}\item\bdf{"3E48}+\bdf{"3547}\bdf{"3459}が禁止の「だめ」という意味で用いられる時,\bdf{"3E48}\bdf{"3547}を一形態素とし,<動詞/規則>とする.この場合\bdf{"3E48}\bdf{"3547}はわかち書きしない.(補助動詞の\bdf{"3E48}\bdf{"3547}もこれに該当するので,わかち書きしない.)\item上記以外で,\bdf{"3547}\bdf{"3459}の品詞が動詞の場合,\bdf{"3E48}<副詞>+\bdf{"3547}<動詞/規則>とする.この場合\bdf{"3E48}と\bdf{"3547}はわかち書きする.\end{enumerate}\item\bdf{"3854}\bdf{"3459}(食べる,飲む)の美化語\bdf{"3569}\bdf{"3459}(召し上がる)に尊敬の先語末語尾\bdf{"3D43}がついた\bdf{"3565}\bdf{"3D43}\bdf{"3459}(召し上がる),\bdf{"3854}\bdf{"3459}(食べる,飲む)の尊敬語\bdf{"4062}\bdf{"3C76}\bdf{"3459}(召し上がる)に尊敬の先語末語尾\bdf{"3D43}がついた\bdf{"4062}\bdf{"3C76}\bdf{"3D43}\bdf{"3459}(召し上がる)も一形態素とし,動詞と認める.\end{itemize}\subsubsection{形容詞}[説明]事物の状態,性質がどうであるかを説明する語.活用する.日本語の形容詞もしくは形容名詞とほぼ同一概念.\begin{quote}{\bf[例]}\bdf{"3021}\bdf{"3175}(近い),\bdf{"302D}\bdf{"474F}(強い),\bdf{"3E46}\bdf{"3827}\bdf{"3464}(美しい),\bdf{"347E}(暑い),\bdf{"3A71}\bdf{"3D4E}(高い),\bdf{"3A71}\bdf{"3D41}\bdf{"474F}(似ている),\bdf{"3459}\bdf{"3823}(違う),\bdf{"306D}\bdf{"4741}(減る),\bdf{"4136}\bdf{"3F6B}\bdf{"474F}(静か),\bdf{"3068}\bdf{"3D43}(いらっしゃる)\end{quote}\begin{itemize}\item存在詞の問題\\一般には存在詞とされている\bdf{"3068}\bdf{"3D43}(いらっしゃる)は\ref{節:存在詞}節に述べる理由で,形容詞とする.\end{itemize}\subsubsection{補助用言}[説明]語の末尾に接続し,その意味を補う役割をする語のうち,後述する補助動詞,補助形容詞を除いたもの.活用する.ここでは,否定の\bdf{"4176}(\bdf{"2424},\bdf{"3442},\bdf{"2429},\bdf{"3535})\bdf{"3878}\bdf{"474F}と\bdf{"4176}(\bdf{"2424},\bdf{"3442},\bdf{"2429},\bdf{"3535})\bdf{"3E4A}のみこれと認める.\subsubsection{補助動詞}[説明]語の末尾に接続し,その意味を補う役割をする語.\bdf{"2424}<転成連結語尾/冠形形/現在>が後接すると動詞後接時と同様に活用する.同一の語であっても翻訳の際に大きく翻訳結果が変化する場合があるため,その意味的内容により,「変化」「受動」などの属性を持つ場合がある.\begin{itemize}\item<補助動詞/変化>の\bdf{"3E6E}\\bdf{"4176}と<補助動詞/受動>の\bdf{"3E6E}\\bdf{"4176}について,形容詞に接続している時は<補助動詞/変化>,動詞に接続している時は<補助動詞/受動>,と区別する.\end{itemize}\subsubsection{補助形容詞}[説明]語の末尾に接続し,その意味を補う役割をする語.\bdf{"2424}<転成連結語尾/冠形形/現在>が後接すると形容詞後接時と同様に活用する.\begin{itemize}\item結論の意味を表す\bdf{"3442}/\bdf{"403A}/\bdf{"2424}\\bdf{"304D}\bdf{"404C}は,文末に現れた時のみ<補助形容詞/規則/結論>とし,その他文中で現れた時は\bdf{"3442}/\bdf{"403A}/\bdf{"2424}<転成連結語尾/冠形形>+\bdf{"304D}<普通名詞/不可>とする.\end{itemize}\subsubsection{先語末語尾}[説明]語の末尾に接続しその意味を補う働きをする語.\begin{itemize}\item<先語末語尾/現在>の\bdf{"2424}/\bdf{"3442}とは,動詞の語幹,\bdf{"2429}語幹の\bdf{"2429}脱落形,\bdf{"3068}\bdf{"3D43}\bdf{"3459}の語幹,動詞に後接した先語末語尾\bdf{"3D43}につき,現在の動作,習慣,未来の確定した動作等を表す語尾である([\ref{例:!1}]).また,いわゆる動詞の間接話法(引用表現)における\bdf{"2424}/\bdf{"3442}\bdf{"3459}\bdf{"306D}の\bdf{"2424}/\bdf{"3442}もこの<先語末語尾/現在>\bdf{"2424}/\bdf{"3442}に相当する([\ref{例:!2}]).\begin{example}\item\bdf{"3F35}\bdf{"4336}\bdf{"404C}\bdf{"3442}\\bdf{"3E46}\bdf{"4427}\bdf{"3836}\bdf{"3459}\\bdf{"3B6A}\bdf{"4325}\bdf{"403B}\\bdf{"4751}\bdf{"3459}.(ヨンチョルは毎朝散歩する.)\label{例:!1}\item\bdf{"3C3A}\bdf{"3F78}\bdf{"404C}\bdf{"3442}\\bdf{"3F42}\bdf{"3459}\bdf{"306D}\\bdf{"475F}\bdf{"3E7A}\bdf{"3442}\bdf{"3525}.(ソンウォンは来るって言ってたのに.)\label{例:!2}\end{example}\end{itemize}\subsubsection{転成連結語尾}[説明]語の末尾に接続し,他品詞に性質を変化させる語.また,二つ以上の文をつなげる役割をする語.\begin{itemize}\item\bdf{"3673}\bdf{"306D}(と)について.<転成連結語尾/用言/接続形>の\bdf{"3673}\bdf{"306D}は,いわゆる命令の間接話法(引用表現)時に用いられる\bdf{"3673}\bdf{"306D}であって,体言,助詞類,尊敬の先語末語尾,転成連結語尾,文末語尾等に後接して引用を表す一般補助詞の(\bdf{"404C})\bdf{"3673}\bdf{"306D}とは区別される.\end{itemize}\subsubsection{文末語尾}[説明]文の末尾に用いられた語に接続し,その文を結ぶ働きをする語.日本語の終助詞がこれに相当すると考えられる.\bdf{"3E46}/\bdf{"3E6E}\bdf{"3F64},\bdf{"3F64},\bdf{"4152},\bdf{"4176},\bdf{"4176}\bdf{"3F64}は文によって,叙述文,疑問文,勧誘文,命令文のいずれに対しても同一の形態で使用される\footnote{日本語話し言葉における「食べる?」などの場合と同様,イントネーションなど音韻情報の差異と文脈によってこれら4形態を区別しているものと予想される.}.これらは形態素解析の際に区別することは非常に困難であるが,全く異なる翻訳結果となり,また,これらの差異は翻訳の際に非常に重要であることから,本体系では,叙述形,疑問形,勧誘形,命令形という属性を各形態素に持たせた.\subsubsection{冠形詞}[説明]体言の前で用いられ,その体言を修飾する語.活用せず,助詞が後接しない.日本語の連体詞が,これに相当する.\begin{quote}{\bf[例]}\bdf{"404C}(この),\bdf{"3157}(その),\bdf{"3157}\bdf{"3731}(そんな),\bdf{"3B75}(新),\bdf{"3E6E}\bdf{"3440}(どの),\bdf{"3E6E}\bdf{"3632}(どのような),\bdf{"4751}(約)\end{quote}\begin{itemize}\item\bdf{"4339}\bdf{"4277}(始発)は<普通名詞/不可>.\item\bdf{"3459}\bdf{"3825}について.<冠形詞>\bdf{"3459}\bdf{"3825}と,\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}<転成連結語尾/一般/冠形形>,さらに\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}〜<補助動詞,補助形容詞>について,以下のように区別する.\begin{enumerate}\item\bdf{"3459}\bdf{"3825}全体が後続する体言を修飾し,「他の」という意味で用いられている場合,\bdf{"3459}\bdf{"3825}<冠形詞>.{\bf[例]}\underline{\bdf{"3459}\bdf{"3825}}\bdf{"3077}\bdf{"403B}\\bdf{"4323}\bdf{"3E46}\bdf{"3A38}\bdf{"305A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(他を探してみます.)\item\bdf{"3459}\bdf{"3825}の\bdf{"3459}\bdf{"3823}が述語の働きをなしている場合,\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}<転成連結語尾/一般/冠形形>.{\bf[例]}\bdf{"3022}\bdf{"3F2A}\bdf{"3F21}\\bdf{"3B76}\bdf{"3172}\bdf{"404C}\\underline{\bdf{"3459}\bdf{"3825}}\bdf{"3C31}\bdf{"403B}\\bdf{"4725}\bdf{"3D43}\bdf{"4758}\\bdf{"3375}\bdf{"3E52}\bdf{"3162}\\bdf{"3627}\bdf{"392E}\bdf{"3F21}\\bdf{"3025}\bdf{"3E46}\bdf{"4538}\bdf{"3442}\\bdf{"304D}\bdf{"403A}\\bdf{"3023}\bdf{"345C}\bdf{"4758}\bdf{"3F64}.(各駅に色で線を表示しているので乗換は簡単ですよ.)\item\bdf{"3459}\bdf{"3825}の直後に\bdf{"2424}音ではじまる補助動詞,補助形容詞が接続している場合,\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}〜<補助動詞,補助形容詞>.{\bf[例]}\bdf{"3021}\bdf{"404C}\bdf{"3565}\\bdf{"3A4F}\bdf{"3F21}\bdf{"3C2D}\\bdf{"3A3B}\\bdf{"3F64}\bdf{"315D}\bdf{"307A}\underline{\bdf{"3459}\bdf{"3825}}\\bdf{"304D}\\bdf{"3030}\bdf{"403A}\bdf{"3525}\bdf{"3F64}.(あれ,ガイドブックで見た料金と違うようですが.)\end{enumerate}\end{itemize}\subsubsection{接続詞}[説明]単語や句,節,文をつなぐ自立語で,活用しない語.\begin{quote}{\bf[例]}\bdf{"3157}\bdf{"3721}\bdf{"3535}(それでも),\bdf{"3157}\bdf{"3721}\bdf{"3C2D}(ということで),\bdf{"3157}\bdf{"372F}\bdf{"344F}\bdf{"316E}(だから),\bdf{"3157}\bdf{"372F}\bdf{"3869}(だったら),\bdf{"3157}\bdf{"3731}\bdf{"3525}(ところが),\bdf{"3157}\bdf{"3733}(すると),\bdf{"3157}\bdf{"3738}\bdf{"3459}\bdf{"3869}(それなら),\bdf{"3157}\bdf{"382E}\bdf{"306D}(そして),\bdf{"3647}\bdf{"3442}(または),\bdf{"3957}(および)\end{quote}\begin{itemize}\item\bdf{"357B}\bdf{"3673}\bdf{"3C2D}は文頭にきて,「よって(従って)」の意味で用いられる時,接続詞とする.これに対して,「\bdf{"3966}\bdf{"3F21}\underline{\bdf{"357B}\bdf{"3673}\bdf{"3C2D}}\\bdf{"3F64}\bdf{"315D}\bdf{"404C}\\bdf{"3459}\bdf{"3828}\bdf{"344F}\bdf{"3459}.(お部屋によって料金はちがいます.)」における\bdf{"357B}\bdf{"3673}\bdf{"3C2D}は,\bdf{"357B}\bdf{"3823}(従う)<動詞/規則>+\bdf{"3E6E}\bdf{"3C2D}(〜て)<転成連結語尾>とする.\end{itemize}\subsubsection{副詞}[説明]主に動詞,他の副詞の前に来て,その意味を限定する.活用しない.\begin{quote}{\bf[例]}\bdf{"3021}\bdf{"4065}(最も),\bdf{"3022}\bdf{"3022}(それぞれ),\bdf{"3045}\bdf{"4047}(ほぼ),\bdf{"3061}\bdf{"3139}(結局),\bdf{"3070}(すぐに),\bdf{"3157}\bdf{"3459}\bdf{"4176}(さぞかし),\bdf{"3157}\bdf{"346B}\bdf{"374E}(そのまま),\bdf{"3157}\bdf{"3738}\bdf{"3054}(そのように),\bdf{"315D}\bdf{"3966}(もうすぐ),\bdf{"3240}(必ず)\end{quote}\begin{itemize}\item\bdf{"3E73}\bdf{"3836}(いくつ),\bdf{"4177}\bdf{"4122}(直接)は<普通名詞/不可>とする.\item右記の2例は副詞としない.\begin{itemize}\item\bdf{"3162}\bdf{"3F55}\bdf{"404C}\bdf{"3869}(どうせなら)$\longrightarrow$\bdf{"3162}\bdf{"3F55}(過去)<普通名詞/不可>+\bdf{"404C}(である)<叙述格助詞>+\bdf{"3869}(ならば)<転成連結語尾/一般/接続形>\item\bdf{"474F}\bdf{"474A}\bdf{"404C}\bdf{"3869}(よりによって)$\longrightarrow$\bdf{"474F}\bdf{"474A}(どうして)<副詞>+\bdf{"404C}(である)<叙述格助詞>+\bdf{"3869}(ならば)<転成連結語尾/一般/接続形>\end{itemize}\end{itemize}\subsubsection{感嘆詞}[説明]応答,挨拶,呼びかけ,感動等を表し,独立性がある語.\bdf{"3028}\bdf{"3B67}\bdf{"4755}\bdf{"344F}\bdf{"3459}(ありがとうございます),\bdf{"3E6E}\bdf{"3C2D}\\bdf{"3F40}\bdf{"3C3C}\bdf{"3F64}(いらっしゃい),\bdf{"3F39}(はい),\bdf{"3E6E}(おお)などが感嘆詞に属する.ここでは言い淀み等(\bdf{"3E6E},\bdf{"3F78},\bdf{"4763}...)や,以下に列挙するもののみを感嘆詞と認める.\vspace{\baselineskip}\begin{epsf}\epsfile{file=interjection.eps,width=.8\columnwidth}\end{epsf}\begin{draft}\atari(325,227,1bp)\end{draft}\vspace{\baselineskip}\begin{itemize}\item\bdf{"3157}\bdf{"3721}の判定方法は以下の通り.\begin{enumerate}\item相手の言葉を肯定したり,自分が思い出した事を切り出す際に用いられている場合:<感嘆詞>\begin{example}\item\bdf{"3157}\bdf{"3721}\\bdf{"3842}\bdf{"3E46}.(そのとおり.)\item\bdf{"3157}\bdf{"3721}\\bdf{"3157}\bdf{"3731}\\bdf{"404F}\bdf{"3535}\\bdf{"4056}\bdf{"3E7A}\bdf{"4176}.(そう,そんな事もあったね.)\end{example}\item述語として用いられている.\begin{itemize}\item\bdf{"3157}\bdf{"3738}\bdf{"3054}\\bdf{"474F}\bdf{"3459}(そう言う,そうする)の意味で用いられている場合:<動詞/規則>\begin{example}\item\bdf{"3157}\bdf{"3721}\\bdf{"4156}\bdf{"3D43}\bdf{"3869}\\bdf{"306D}\bdf{"383F}\bdf{"305A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(そうしてくださるとありがたいです.)\item\bdf{"3157}\bdf{"3721}\\bdf{"3A38}\bdf{"4152}.(そうしてみましょう.)\item\bdfkanji{hanglm24.bdf}{"3429}\bdf{"3021}\\bdf{"3157}\bdf{"3721}?(誰がそう言ってるの.)\end{example}\item\bdf{"3157}\bdf{"372F}\bdf{"474F}\bdf{"3459},\bdf{"3157}\bdf{"3738}\bdf{"3459}(そうだ)の意味で用いられている場合:<形容詞/\bdf{"243E}-不規則>\begin{example}\item\bdf{"3F29}\bdf{"3162}\bdf{"3021}\\bdf{"3C3C}\bdf{"3068}\bdf{"407B}\bdf{"4038}\bdf{"374E}\\bdf{"402F}\bdf{"386D}\bdf{"4751}\\bdf{"4823}\bdf{"3779}\bdf{"4176}\bdf{"3F21}\bdf{"3F64}.\\bdf{"3E6E}\\bdf{"3F29}\bdf{"3162}\bdf{"3021}\\bdf{"3157}\bdf{"3721}?(ここが世界的に有名な法隆寺です.へえ,ここがそうなの.)\end{example}\end{itemize}\end{enumerate}\end{itemize}\subsubsection{主格助詞}[説明]体言に後接し,その体言が文の主語であることを表す助詞.\subsubsection{冠形格助詞}[説明]体言に後接し,その体言を後続の体言に対する冠形語(体言の前で用いられ,その体言を修飾する語)にする機能をもつ.\subsubsection{目的格助詞}[説明]体言に後接し,その体言を後続する他動詞の目的語にする機能をもつ.\subsubsection{叙述格助詞}[説明]体言に後接し,その体言を文の叙述語(一文の主語下でその動作,形態,存在等を表示する語)にする機能をもつ.「\bdf{"3139}\bdf{"3E6E}\bdf{"346B}\bdf{"3B67}\bdf{"407C}」\cite{国語大辞典}や一般文法書で叙述格助詞は指定詞\bdf{"404C}に語尾が合成された語として説明されているが,ここでは指定詞\bdf{"404C}以後に出てくる語尾が一般用言の語幹の後に出てくる語尾と同じように生成力があるので,指定詞\bdf{"404C}だけを叙述格助詞として取り扱う.\subsubsection{接続格助詞}[説明]体言を列挙し,接続する際用いられる助詞.\begin{itemize}\item(\bdf{"404C})\bdf{"306D}について.(\bdf{"404C})\bdf{"306D}<接続格助詞>と\bdf{"404C}<叙述格助詞>+\bdf{"306D}<転成連結語尾>を以下のように区別する.\begin{enumerate}\item接続格助詞(\bdf{"404C})\bdf{"306D}:体言に後接し,二つ以上のことを合わせて述べるのに用いられる.対訳として「〜であれ」「〜でも」「〜も」等があてられる.\\{\bf[例]}\bdf{"3E46}\bdf{"4156}\\bdf{"4141}\bdf{"403A}\\bdf{"435F}\bdf{"3E6F}\underline{\bdf{"404C}\bdf{"306D}}\\bdf{"3C31}\bdf{"3930}\bdf{"404C}\\bdf{"3549}\\bdf{"3045}\bdf{"3F21}\bdf{"3F64}.(非常にいい思い出に,おみやげになると思うんですけれども.)\item叙述格助詞\bdf{"404C}+転成連結語尾\bdf{"306D}:二つ以上の動作,性質,状態などを並列したり,先行する動作,状態の完了を表したり,さらに前後に用いる用言の強調などに用いられる.\\{\bf[例]}\bdf{"4356}\bdf{"407A}\\bdf{"433C}\bdf{"3779}\\bdf{"404F}\bdf{"3C76}\bdf{"3021}\\bdf{"4030}\\bdf{"404F}\bdf{"3023}\underline{\bdf{"404C}\bdf{"306D}}\\bdf{"4356}\bdf{"306D}\\bdf{"433C}\bdf{"3779}\\bdf{"404F}\bdf{"3C76}\bdf{"3021}\bdf{"4030}\\bdf{"3033}\bdf{"3F79}\bdf{"374E}\\bdf{"3547}\bdf{"3E6E}\\bdf{"4056}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(最低滞在日数が六日間で最高滞在日数が六ヶ月となっております.)\end{enumerate}\item(\bdf{"404C})\bdf{"332A}について.接続格助詞(\bdf{"404C})\bdf{"332A}と一般補助詞(\bdf{"404C})\bdf{"332A}を以下のように区別する.\begin{enumerate}\item例示,容認,同様,列挙を表す時用いられる(\bdf{"404C})\bdf{"332A}:接続格助詞\\{\bf[例]}\bdf{"3F39}\bdf{"3E60}\bdf{"4751}\\bdf{"3966}\bdf{"3F21}\bdf{"3C2D}\\bdf{"3959}\bdf{"3459}\underline{\bdf{"332A}}\\bdf{"302D}\bdf{"403A}\\bdf{"3A38}\bdf{"4054}\bdf{"344F}\bdf{"316E}?(予約してる部屋から海か川は見えますか.)\item予想外の数量,漠然とした数量を表す時用いられる(\bdf{"404C})\bdf{"332A}:一般補助詞\\{\bf[例]}\bdf{"3867}\bdf{"4425}\underline{\bdf{"404C}\bdf{"332A}}\\bdf{"3E32}\bdf{"3D47}\\bdf{"304C}\bdf{"344F}\bdf{"316E}?(何日ご使用になるのですか.)\end{enumerate}\end{itemize}\subsubsection{副詞格助詞}[説明]体言に後接し,その体言とともに用言を修飾する.\begin{itemize}\item\bdf{"3459}\bdf{"3021}について.体言に後接するときのみ副詞格助詞と認める.\item\bdf{"346B}\bdf{"374E}について.副詞格助詞の\bdf{"346B}\bdf{"374E}と<普通名詞/不可>の\bdf{"346B}\bdf{"374E}を以下のように区別する.\begin{enumerate}\item体言+\bdf{"346B}\bdf{"374E}(〜の通りに):<副詞格助詞>\item用言+<転成連結語尾/冠形形>+\bdf{"346B}\bdf{"374E}(〜たらすぐに):<普通名詞/不可>\end{enumerate}\end{itemize}\subsubsection{主題補助詞}[説明]体言,副詞,語尾等に後接し,それらを他と区別して取りあげ,文の主題にする機能をもつ.\subsubsection{一般補助詞}[説明]体言,副詞,語尾等に後接し,それらにある特別な意味を付加する助詞.一般に補助詞と呼ばれるものの中から上述した主題補助詞を除いたものをいう.\bdf{"374E}\bdf{"3A4E}\bdf{"454D}(〜から),\bdf{"3C2D}\bdf{"3A4E}\bdf{"454D}(〜から)も一形態素とし,一般補助詞と認める.\subsubsection{接頭辞}[説明]ある語に前接して意味を添加し,新たに違った意味の語を作る働きをする.ここでは以下に挙げるもののみをこれと認め,これ以外のもので一般に接頭辞とされるものについては,後接する形態素とともに一形態素として処理する.\begin{quote}\bdf{"3A71}(非),\bdf{"3A4E}(不),\bdf{"3A52}(不),\bdf{"394C}(未)\end{quote}\begin{itemize}\item数詞が後続する場合のみ接頭辞と認めるもの.\begin{description}\item[\bdf{"3022}(各)]\bdf{"3332}\bdf{"3360}\\bdf{"3022}\\bdf{"3F2D}\\bdf{"386D}(男女各10名)\item[\bdf{"3D45}(新)]\bdf{"3D45}\\bdf{"404F}\\bdf{"4750}\bdf{"3362}(新一年生)\item[\bdf{"407C}(全)]\bdf{"407C}\\bdf{"3969}\\bdf{"3147}(全100巻)\item[\bdf{"4126}(第)]\bdf{"4126}\\bdf{"404F}\\bdf{"307A}(第一課)\end{description}\end{itemize}\subsubsection{名詞形接尾辞}[説明]ある語に後接して意味を添加し,新たに違った意味の語を作る働きをする.ここでは以下に挙げるもののみをこれと認め,これ以外のもので一般に接尾辞とされるものについては,前接する形態素とともに一形態素として処理する.\begin{quote}\bdf{"3454}(さん),\bdf{"3569}(たち),\bdf{"3978}\bdf{"4230}(番目),\bdf{"3B73}(山田\underline{さん}の\bdf{"3B73}),\bdf{"3E3E}(氏),\bdf{"3E3F}(ずつ),\bdf{"4225}\bdf{"382E}(に値するもの),\bdf{"426B}(頃),\bdf{"4230}(番目),\bdf{"3023}(十日\underline{間}の\bdf{"3023}),\bdf{"3066}(十時\underline{頃}の\bdf{"3066}),\bdf{"3147}(入場\underline{券},首都\underline{圏}の\bdf{"3147}),\bdf{"3467}(一時間\underline{当り}の\bdf{"3467}),\bdf{"395F}(大阪\underline{発}の\bdf{"395F}),\bdf{"3A50}(一人\underline{分}の\bdf{"3A50}),\bdf{"3C2E}(指定\underline{席}の\bdf{"3C2E}),\bdf{"3D44}(日本\underline{式}の\bdf{"3D44}),\bdf{"3F2A}(関西空港\underline{駅}の\bdf{"3F2A}),\bdf{"3F6B}(携帯\underline{用}の\bdf{"3F6B}),\bdf{"407B}(客観\underline{的}の\bdf{"407B}),\bdf{"4278}(ソウル\underline{着}の\bdf{"4278}),\bdf{"4760}(ソウル\underline{行}の\bdf{"4760})\end{quote}\begin{itemize}\item\bdf{"3021}\bdf{"315E}\bdf{"407B}(可及的)は,\bdf{"3021}\bdf{"315E}(可及)という形態素が存在しない為,\bdf{"3021}\bdf{"315E}\bdf{"407B}(可及的)$\longrightarrow$<副詞>とする.\end{itemize}\subsubsection{動詞派生接尾辞}[説明]動作名詞に後接して動詞化する機能をもつ.活用する.\subsubsection{形容詞派生接尾辞}[説明]形容名詞,及び普通名詞に後接して形容詞化する機能をもつ.活用する.〜\bdf{"3464},〜\bdf{"3753}は,前接する語とあわせて一形態素とする.\subsubsection{副詞派生接尾辞}[説明]形容名詞,及び普通名詞に後接して副詞化する機能をもつ.ここでは〜\bdf{"4877}だけを副詞派生接尾辞と認める.\subsubsection{記号}[説明]言語の機械処理を考えた場合,記号も形態素と認知したほうが処理には都合よい.このため本論文では,記号という品詞を作成した.韓国語正書法において認められている記号は``.''および``?''の2種類である.\subsection{議論}\subsubsection{存在詞の問題}\label{節:存在詞}一般的には\bdf{"4056}(ある,いる),\bdf{"3E78}(ない),\bdf{"3068}\bdf{"3D43}(いらっしゃる)の3語は存在詞という品詞が設定されている.これに対し本体系では,これら3語は語形変化が同一ではないため同一の品詞である必要性が低いと考えた.そこで\bdf{"4056},\bdf{"3E78}\の2語は後続する語に対し動詞と同様の語形変化を起こすことが多いため,<動詞/規則>とし,\bdf{"3068}\bdf{"3D43}については<形容詞/規則>とした.なお,普通名詞や動作名詞,動詞,形容詞+<転成連結語尾/一般/名詞形>の後ろに\bdf{"4056},\bdf{"3E78}が接続し,一般的に一形態素と認められる\bdf{"3840}\bdf{"4056}(おいしい),\bdf{"385A}\bdf{"4056}(すてきだ),\bdf{"4067}\bdf{"394C}\bdf{"4056}(面白い),\bdf{"3A73}\bdf{"4634}\bdf{"3E78}(すきがない),\bdf{"3B73}\bdf{"307C}\bdf{"3E78}(関係ない),\bdf{"3A2F}\bdf{"4754}\bdf{"3E78}(変わりない),\bdfkanji{hanglm24.bdf}{"4632}\bdfkanji{hanglm24.bdf}{"3832}\bdf{"3E78}(間違いない)なども一形態素とし,<動詞/規則>とする.\subsubsection{指定詞の問題}文献\cite{国語大辞典}や一般文法書では,体言に後接し,その体言を文の叙述語(一文の主語下でその動作,形態,存在等を表示する語)にする機能をもつ日本語の「〜である」に相当する語「\bdf{"404C}」は指定詞という品詞を立てるか,または形態素として認めず,「\bdf{"4038}」などと同様に媒介母音のための文字であると考える場合が多い.しかし,本品詞体系では指定詞という品詞を立てず,「\bdf{"404C}」1語のみを叙述格助詞とした.理由は以下の通りである.\begin{itemize}\item一般の指定詞の定義では「\bdf{"404C}(〜である)」と「\bdf{"3E46}\bdf{"344F}(〜でない)」の2語が属するとされるが,両者は分かち書きに関して別の振舞いをするため,形態素処理の観点から両者を同一の品詞とするのは好ましくない\item「\bdf{"404C}」と同一の振舞いをする他の品詞がないため,他のどの品詞にも含めることができない\end{itemize}なお,「\bdf{"3E46}\bdf{"344F}(〜でない)」に関しては,形態変化並びに分かち書きに関して全く同一の振舞いをする形容詞に含めた.\subsubsection{「動作形容名詞」の認知}日本語で「無理」という単語は,「する」を後接することで動詞として働き,「だ/な」を後接することで形容動詞として働く.このため,サ変名詞あるいは形容名詞とは別個の新品詞「サ変形容名詞」を立てたほうが,品詞の連接を利用して統計的な処理を行なう場合(例えば形態素解析)に扱いやすい.これと全く同様の現象が韓国語にもあり,動作名詞と形容名詞の両機能を持つ単語を「動作形容名詞」として認めたほうがいいようにも見える.しかし,本論文ではこれを認めない立場を取った.理由は,韓国語においては動作名詞,形容名詞のいずれにも\bdf{"474F}\bdf{"3459}という同一の形態素を後接して動詞もしくは形容詞になるため,形態上の判断が困難なためである. \section{韓国語形態素解析} \label{節:形態素解析}本節では韓国語の形態素解析について述べる.前述したように,日本語または英語の形態素解析と比較して,韓国語文の形態素解析は以下の理由により困難である.\begin{enumerate}\item音韻縮約という現象が頻出する\item分かち書きの単位と形態素の単位が一致しない場合が頻出する\item分かち書きの記述が個人差などによって揺れる場合がある\item特に短い語に関して多品詞語が多い\end{enumerate}以上により,日本語あるいは英語で知られている形態素解析の種々の手法をそのまま韓国語に適用したのでは十分な精度が得られないことは容易に想像できる.これに対し,本論文では韓国語固有の事情を十分に考慮に入れた形態素解析の手法を提案する.我々は日本語,英語,韓国語の3言語に対し,いずれも品詞と単語の混合n-gramを利用することによって行なう形態素解析手法を提案している.本論文における提案手法は,この提案手法を利用して,どのように韓国語固有の問題に対して適用させるか,あるいはこの言語非依存の部分と韓国語固有の部分をどのように組み合わせるべきかを提案する.同形態素解析手法の日本語への適用結果ならびに解析精度については,文献\cite{IPSJ:混合bigram}を参照されたい.韓国語の形態素解析に関しては\cite{DBkim}や\cite{Kwon}などが知られている.\cite{DBkim}では,計算機処理のための韓国語ローマ字表記法を提案すると共に,形態素分割に関して表層形(surfaceform)から語彙形(lexicalform)に変換する規則を作成している.我々の提案手法ではこれらの規則に相当する変換操作をコーパスから自動獲得可能な点が異なる.実例からの規則の自動獲得は,一般的な文法で処理可能な現象を逸脱する話し言葉の処理において,特に優位と考えられる.一方\cite{Kwon}では,空白をすべての形態素分割単位として一旦分割し,分割された「語」をどのように解析するかに関する手法を提案している.本論文では空白は英語のような形態素の分割単位ではなく,むしろ文字の一部であるという認識で形態素解析を行なっている.すなわち,{}\cite{Kwon}で行なっているような英語的な視点ではなく,日本語的な視点で解析を行なっており,空白を分割単位と考えないほうが有利であると主張する.空白の取り扱いに関しては後述する.\subsection{言語体系の形態素解析への影響}\ref{節:形態素体系}節と\ref{節:品詞体系}節で述べた形態素体系ならびに品詞体系が本節で述べる形態素解析手法にどのように影響するのかを説明する.後述するように,本論文で提案する形態素解析手法は,主に局所的な連接の可能性を計算することで尤度を計算している.ここで,名詞などの内容語に対しては,品詞でまとめて考慮している.一方本体系では,動作名詞,形容名詞という品詞を設けている.これは,これら2品詞には補助動詞,補助形容詞の\bdf{"474F}\bdf{"3459}がそれぞれ接続し得るが一般の普通名詞の後にはどちらも接続することはない\footnote{ただし普通名詞の後に動詞\bdf{"474F}\bdf{"3459}は接続し得る.}.以上の性質を持つにもかかわらずこれを一律に一つの品詞で取り扱った場合,名詞+補助動詞\bdf{"474F}\bdf{"3459},もしくは名詞+補助形容詞\bdf{"474F}\bdf{"3459}という接続の可能性を多くの場合で考慮する必要が生じ,その結果解析誤りが増大する可能性が高くなる.また,本体系ではローマ字を独立させたが,これは(名前のスペルを読み上げる場合などにおいて)ローマ字の接続が非常に頻出するからである.これを名詞として扱うと名詞+名詞+名詞$\cdots$という可能性を考慮しないといけなくなるが,実際このような数回の連続はローマ字にしかなく,名詞すべてにこのような可能性を考えるのは無駄である.このように,本体系では考慮する必要のない語連続ができるだけ少なくなるように設計を行なっている.すなわち,同一の品詞に属する語群は前後に出現する語や品詞の傾向がほぼ同一になるように品詞設定している.また,{}\ref{節:存在詞}節で述べたように,一般の体系における存在詞を廃止することで,形態素解析の精度の向上が期待できる.\subsection{コーパスの収集と形態素情報付与}金らは,日韓対訳コーパス構築の必要性を日韓翻訳システムの中長期的課題の一つに取り上げている\cite{日韓評価}.我々は多言語話し言葉翻訳の実現に向けて,旅行時に起こり得る会話を対象として会話コーパスを収集した.この一環として,韓国語についても日本語,英語と対照できる形でコーパスを収集し,形態素分割し品詞を付与した形態素情報を付与した.この全体像については{}\cite{Takezawa98}に譲るが,ここでは韓国語に関係する部分について述べる.表\ref{表:コーパス}に,収集したコーパスの規模を示す.コーパスは日本語話者と韓国語話者による会話,およびそれらの韓国語訳,日本語訳が付与され,会話として完結している二言語会話と,各場面において使用され得る表現を文単位で収集し,日本語および韓国語で記述した基本表現集の2種類からなる.これらを合計すると,のべ文数で互いに対応関係のある日本語17596文,韓国語17676文を収集した\footnote{ここで,日韓両言語において文数が異なるのは,日本語文と韓国語文が1対1対応しない場合があるためである.}.\begin{table}\begin{center}\caption{ATR日韓コーパスの規模}\label{表:コーパス}\y{3}\begin{tabular}{l|rr}\hline\hline種類&二言語会話&基本表現集\\\hline会話数&194&125\\発話数&3402&---\\発声数&4018&11342\\韓国語文数&5231&12445\\日本語文数&5221&12375\\\hline\end{tabular}\end{center}\end{table}\subsection{混合n-gramによる形態素解析}言語非依存の形態素解析エンジンについて述べる.形態素解析の手法として,我々は統計的手法を用いる.コーパスから単語,及び品詞のn-gram出現頻度を学習し,その連接確率を用いて形態素解析を行なう.統計モデルによる形態素解析では,周辺の語(あるいは品詞)との共起によって単語分割および品詞付与の尤度を推定している.ここで,実際に作られたn-gramを観察すると,前後の語の連接状況がほぼ同一であると見倣すことのできる語群と,同一品詞であっても接続関係が個別に異なると考えられる語群に大別できることに気付く.例えば,ある二つの一般的な普通名詞の近傍の語の連接状況は多くの場合似通っており,その一方で助動詞に対する接続はそれぞれの語によって大きく異なっている.また以上の観察結果は,我々の直観とも一致する.以上の考察から,我々は単語群をその品詞によって2種類に分類する.一つは品詞単位で連接状況を記述することのできる,つまり品詞に抽象化できる語群でこれらを品詞要素群と呼び,もう一つは単語単位で連接を考慮する必要がある助詞などの語群で,これらを単語要素群と呼ぶ.また,各品詞に活用形などの属性が付与されている場合,これらの情報も考慮して処理を行なう.すなわち,例えば<普通名詞/不可>と<普通名詞/選択>は,別個の要素として処理を行なう.どの品詞を品詞要素,あるいは単語要素にするかは品詞体系に依存するが,本稿で行なう以下の実験では品詞要素と単語要素を表\ref{表:要素}に示すように分類した\footnote{表\ref{表:要素}において「$\cdots$類」とあるものは,表\ref{表:品詞一覧}に示したもの.}.\begin{table}\begin{center}\caption{品詞要素と単語要素に該当する品詞}\label{表:要素}\y{3}\begin{tabular}{l|l}\hline\hline品詞要素&名詞類,動詞,形容詞,冠形詞,接続詞,副詞,感嘆詞\\単語要素&補助用言類,語尾類,助詞類,接頭辞,接尾辞類,記号\\\hline\end{tabular}\end{center}\end{table}\subsubsection{混合n-gramの定式化}入力文の単語列$W=W_1,W_2,\cdots,W_k=W_1^k$,品詞列$T=T_1,T_2,\cdots,T_k=T_1^k$としたときのn-gramにおける単語列と品詞列の同時出現確率$P(W,T,n)$を以下の式によって定義する.{\small\begin{eqnarray}P(W,T,n)&=&\prod^{k}_{i=n}\left\{P(E_{i}|E_{i-n+1}^{i-1})\times\frac{P(W_{i})}{P(E_{i})}\right\}\end{eqnarray}}\noindentここで要素$E_i$は以下のように定義する.\begin{equation}E_i=\left\{\begin{array}{ll}W_i&:E_iが単語要素の時\\T_i&:E_iが品詞要素の時\\\end{array}\right.\end{equation}\noindentただし,$W_i$:該当単語,$T_i$:単語$W_i$と同一品詞の単語である.\subsubsection{接続表の導入}データの希薄性に対処するためにこれまで種々の平滑化手法が提案されているが,本手法では品詞2-gramの出現情報からなる接続表を用意する.接続表は混合n-gramにおいて存在しない場合に参照され,その接続が接続表にある場合は小さい定数をそのn-gram確率として代用する.\subsection{韓国語への対応}前節では混合n-gram統計による形態素解析手法について述べた.この処理は言語に依存せず,一般的に局所的情報によって形態素解析可能と考えられる任意の言語に対して適用可能である.しかし,各言語は独自の特性を持っており,より高精度の形態素解析を行なうためにはその言語に適応するための処理が必要であると考える.韓国語においても独自の処理が必要と考えたため,本研究では,前節で述べた手法を根幹のエンジンとしながらも,これを韓国語でも十分な精度で利用できるよう,以下の点において変更を行なった.\begin{enumerate}\itemハングル文字のアルファベット化\item形態素に空白を含める\item形態素に「残留文字」という属性の付加\item一文字語のn-gram取り扱いの変更\end{enumerate}以下,順に説明を行なう.\subsubsection{韓国語内部表現}\label{節:内部表現}計算機によって韓国語の処理を行なう際には,1バイト文字のアルファベットを使用する.このローマ字文字は,文献\cite{DBkim}で提案された体系にローマ字の発音とハングル文字の発音を考慮して若干の修正を加えたものである.\begin{itemize}\item初声子音:{\ttg}(\bdf{"2421}),{\ttn}(\bdf{"2424}),{\ttd}(\bdf{"2427}),{\ttl}(\bdf{"2429}),{\ttm}(\bdf{"2431}),{\ttb}(\bdf{"2432}),{\tts}(\bdf{"2435}),{\ttj}(\bdf{"2438}),{\ttc}(\bdf{"243A}),{\ttk}(\bdf{"243B}),{\ttt}(\bdf{"243C}),{\ttp}(\bdf{"243D}),{\tth}(\bdf{"243E})\item半母音:{\ttw},{\tty}\item母音:{\tta}(\bdf{"243F}),{\ttE}(\bdf{"243F}\bdf{"2453}),{\ttA}(\bdf{"2443}),{\tte}(\bdf{"2443}\bdf{"2453}),{\tto}(\bdf{"2447}),{\ttu}(\bdf{"244C}),{\ttU}(\bdf{"2451}),{\tti}(\bdf{"2453})\item終声子音:{\ttG}(\bdf{"2421}),{\ttN}(\bdf{"2424}),{\ttD}(\bdf{"2427}),{\ttL}(\bdf{"2429}),{\ttM}(\bdf{"2431}),{\ttB}(\bdf{"2432}),{\ttS}(\bdf{"2435}),{\ttQ}(\bdf{"2437}),{\ttJ}(\bdf{"2438}),{\ttC}(\bdf{"243A}),{\ttK}(\bdf{"243B}),{\ttT}(\bdf{"243C}),{\ttP}(\bdf{"243D}),{\ttH}(\bdf{"243E})\end{itemize}上記の文字に含まれない音は二つ以上のアルファベットを合わせて書く.\begin{itemize}\item二重子音(初声):{\ttgg}(\bdf{"2421}\bdf{"2421}),{\ttdd}(\bdf{"2427}\bdf{"2427}),{\ttbb}(\bdf{"2432}\bdf{"2432}),{\ttss}(\bdf{"2435}\bdf{"2435}),{\ttjj}(\bdf{"2438}\bdf{"2438})\item二重子音(終声):{\ttGG}(\bdf{"2421}\bdf{"2421}),{\ttSS}(\bdf{"2435}\bdf{"2435})\item複合子音(終声):{\ttGS}(\bdf{"2421}\bdf{"2435}),{\ttNJ}(\bdf{"2424}\bdf{"2438}),{\ttNH}(\bdf{"2424}\bdf{"243E}),{\ttLG}(\bdf{"2429}\bdf{"2421}),{\ttLM}(\bdf{"2429}\bdf{"2431}),{\ttLB}(\bdf{"2429}\bdf{"2432}),{\ttLS}(\bdf{"2429}\bdf{"2435}),{\ttLP}(\bdf{"2429}\bdf{"243D}),{\ttLT}(\bdf{"2429}\bdf{"243C}),{\ttLH}(\bdf{"2429}\bdf{"243E}),{\ttBS}(\bdf{"2432}\bdf{"2435})\item複合母音:{\ttya}(\bdf{"2441}),{\ttyA}(\bdf{"2445}),{\ttyo}(\bdf{"244B}),{\ttyu}(\bdf{"2450}),{\ttyE}(\bdf{"2441}\bdf{"2453}),{\ttye}(\bdf{"2445}\bdf{"2453}),{\ttwa}(\bdf{"2447}\bdf{"243F}),{\ttwE}(\bdf{"2447}\bdf{"243F}\bdf{"2453}),{\ttwi}(\bdf{"2447}\bdf{"2453}),{\ttwA}(\bdf{"244C}\bdf{"2443}),{\ttwe}(\bdf{"244C}\bdf{"2443}\bdf{"2453}),{\ttyi}(\bdf{"244C}\bdf{"2453}),{\ttyU}(\bdf{"2451}\bdf{"2453})\end{itemize}この結果,韓国語の単語の音節表現を本体系によるローマ字で表現すると次のようになる.\y{5}\begin{tabular}{lccccccccccccl}\bdf{"4751}\bdf{"3139}\bdf{"3E6E}&⇒&{\tth}&{\tta}&{\ttN}&{\ttg}&{\ttu}&{\ttG}&{\ttA}&&&&&(韓国語)\\\bdf{"404F}\bdf{"3A3B}\bdf{"3E6E}&⇒&{\tti}&{\ttL}&{\ttb}&{\tto}&{\ttN}&{\ttA}&&&&&&(日本語)\\\bdf{"3D56}\bdf{"3966}\bdf{"4762}&⇒&{\tts}&{\tts}&{\tta}&{\ttQ}&{\ttb}&{\tta}&{\ttQ}&{\tth}&{\tty}&{\tta}&{\ttQ}&(双方向)\\\bdf{"3162}\bdf{"3068}\bdf{"3978}\bdf{"3F2A}&⇒&{\ttg}&{\tti}&{\ttg}&{\tty}&{\tte}&{\ttb}&{\ttA}&{\ttN}&{\tty}&{\ttA}&{\ttG}&(機械翻訳)\end{tabular}\subsubsection{空白付き形態素}韓国語は英語などの西欧諸言語と異なり,分かち書きの分割単位が形態素の単位と異なる場合が非常に多い.このため,辞書に記載したすべての語について,その語が直前の語に対して分かち書きするかどうかという情報を何らかの形で保有しなければならない.多くの場合,これは品詞によって判断できるが,例えば普通名詞でも,常に分かち書きを行なう語と分かち書きに揺れがある語があり,これを品詞のみの情報で統一的に扱うことは,不要な可能性の増大をもたらし,好ましくない.そこで本論文では,形態素解析辞書の検索キーに空白を追加することを提案する.すなわち,空白も形態素の一部であるという見方を取り,「\bdf{"2429}\verb*||\bdf{"3C76}\verb*||\bdf{"4056}」(\verb*!!は空白を表す)のような形態素中に空白のあるもののみならず,「\verb*||\bdf{"3078}\bdf{"4757}」のような先頭に空白のある語を認める.これによって,分かち書きを行なわない助動詞,接尾辞などは空白後に出現しないという情報を持たせることができる.また逆に,分かち書きに揺れがある普通名詞などは,その語だけに対して分かち書きをしないという可能性を持たせることが可能になる.検索キーを変更するだけであるので,正規形は同一となりこの後の処理,例えば機械翻訳処理などに影響は何ら起こらないし,分かち書きに関して複雑なもしくは過負荷の処理を行なうこともない.分かち書きを行なうかどうかの判断は,コーパスから自動的に学習し,辞書作成することも可能になる.\subsubsection{残留文字}縮約に対応可能な形態素解析を行なうため,本論文では「残留文字」という概念を導入することを提案する.これは韓国語のみならず,日本語など,前後2形態素に対して縮約する任意の言語に対しても有効に機能する,汎用的な手法である.\begin{figure}\begin{center}\begin{tabular}{lllll}\hline\hline検索キー&表層形&正規形&品詞&残留文字\\\hline{\tt+ayo}&\bdf{"3F64}&\bdf{"3E6E}\bdf{"3F64}&文末語尾&\\{\ttyo}&\bdf{"3F64}&\bdf{"3F64}&一般補助詞&\\\verb*!!{\tthE}&\bdf{"4758}&\bdf{"474F}&本動詞&{\tt+a}\\{\tt?}&?&?&記号&\\\hline\end{tabular}\end{center}\caption{形態素解析辞書(一部)}\label{図:形態素解析辞書}\end{figure}例として「\bdf{"4758}\bdf{"3F64}?」という文を形態素解析することを考える.形態素解析辞書には,各形態素に対して「残留文字」という情報を付与する.辞書の例を図\ref{図:形態素解析辞書}に示す.例の場合,「\bdf{"4758}」には`{\tt+a}'という残留文字があり,その他の形態素は残留文字を持たない.辞書引きを行ない「{\tthE}(\bdf{"4758})」が照合した際に,残留文字があるかどうかによって次に辞書引きすべき形態素を変更する.残留文字がない場合は通常の辞書引きと同様である.残留文字がある場合,後続の語の辞書引きを行なう際にはこの残留文字を先頭に付加する.例文では,`{\tt+a}'を付加した`{\tt+ayo?}'に対して以後の辞書引きを行ない,キーに`{\tt+ayo}'を持つ文末語尾の「\bdf{"3E6E}\bdf{"3F64}」が照合し,一般補助詞の「\bdf{"3F64}」には照合しない.残留文字の先頭に`{\tt+}'という特殊な記号を付与しているのは,後続する辞書引きを行なう際に`{\ttayo}'という文字列が一般の文字列なのか,縮約を展開した後の文字列なのかを区別するためである.現在の形態素解析辞書で使用している残留文字としては,`{\tt+a}',`{\tt+A}',`{\tt+i}',`{\tt+ji}'の4種類がある.\subsubsection{一文字語の取り扱い}韓国語は日本語,英語などと比較して同表記異義語\footnote{一般には「同音異義語」と呼ばれるが,韓国語では音と表記は必ずしも一対一対応しないため,ここでは「同表記異義語」と呼ぶ.}が多い.例えば「\bdf{"404C}」という形態素は,本品詞体系において意味の全く異なる9品詞,すなわち普通名詞(「歯」),固有名詞(姓の「李」),代名詞(「これ」),ローマ字(E/e),数詞(2),冠形詞(「この」),主格助詞(「〜が」),副詞格助詞(「〜になる」の「に」),叙述格助詞(「〜である」)を持つ{}\footnote{これ以外にも,普通名詞(「シラミ」「利(益)」「理」),固有名詞(「イタリア」)などの意味を持つ.}.表\ref{表:多品詞語}に示すように,我々の観察ではこのような多品詞語は特に一文字語に対して多く見られた.このような曖昧性の高い多品詞語に対して,他のほとんど曖昧性のない語と同様に統計処理を行なうのは賢明でないと考えた.これらの語は何らかの形で特殊な考慮が必要である.\begin{table}\begin{center}\caption{多品詞語の語長別分布}\label{表:多品詞語}\y{3}\begin{tabular}{l|rrrrrrr}\hline\hline&2&3&4&5&6&7&9\\\hline1文字語&67&29&10&2&1&3&1\\2文字語&40&4&1&0&0&0&0\\3文字語&2&0&0&0&0&0&0\\\hline\end{tabular}\end{center}\end{table}そこで本研究では,多品詞を有するこれら形態素に対して,これらの品詞が内容語であっても単語単位でn-gram統計を取り,尤度計算を行なった.\subsection{性能評価実験}以上述べた形態素解析器を計算機上に実装し,性能評価実験を行なった.評価尺度として,処理速度と精度を測定した.実験の結果を表{}\ref{表:実験結果}に示す.実験は4000文の10分割交差検定を行なった.\begin{itemize}\item処理速度(平均速度,最悪速度.単位sec.)\item精度\begin{itemize}\item再現率(recall):$Rcl.$\[Rcl.=\frac{M_{match}}{M_{tagged}}\]\item適合率(precision):$Pcn.$\[Pcn.=\frac{M_{match}}{M_{output}}\]\item文正解率(sentenceaccuracy):$S.Ary.$\[S.Ary.=\frac{S_{match}}{S}\]\end{itemize}ただし,\begin{tabular}{ll}$M_{tagged}$:&正解形態素数\\$M_{output}$:&出力形態素数\\$M_{match}$:&正解と出力で一致する形態素数\\$S$:&正解文数($=$出力文数)\\$S_{match}$:&正解と出力で一致する文数\\\end{tabular}\end{itemize}出力形態素によっては,$M_{match}$に複数の数え方が存在する可能性がある.この場合は,それらのうち最も高い値を$M_{match}$として計算した.なお,解析速度はSunSparcStation10によって測定した.実験結果に示すように,概ね良好な結果を得ることができた.比較手法に比較して最悪処理速度が遅いが,平均速度は向上しており,実用上問題は少ないと考えられる.\begin{table}\begin{center}\caption{実験結果}\label{表:実験結果}\y{3}\begin{tabular}{lrr}\hline\hline&提案手法\\\hline単語再現率(\%)&99.077\\単語適合率(\%)&98.932\\文正解率(\%)&92.629\\\hline平均処理速度(秒)&0.032\\最大処理速度(秒)&0.366\\\hline\end{tabular}\end{center}\end{table}\subsection{誤り傾向の考察}本実験で得られた誤りの傾向を考察する.高頻度誤りを表\ref{表:誤り傾向}に示す.\begin{table}\begin{center}\caption{形態素解析の誤り傾向}\label{表:誤り傾向}\y{3}\begin{tabular}{rll}\hline\hline頻度&正解&出力結果\\\hline14&\bdf{"404F}<数詞>&\bdf{"404F}<普通名詞/漢字数>\\14&\bdf{"404C}<主格助詞>&\bdf{"404C}<叙述格助詞>\\12&\bdf{"404C}<主格助詞>&\bdf{"404C}<副詞格助詞>\\10&\bdf{"466D}<普通名詞/不可>&\bdf{"466D}<普通名詞/選択>\\9&\bdf{"4152}<文末語尾/叙述形>&\bdf{"4152}<文末語尾/命令形>\\9&\bdf{"404C}<数詞>&\bdf{"404C}<主格助詞>\\9&\bdf{"3459}\bdf{"3825}<冠形詞>&\bdf{"3459}\bdf{"3823}<形容詞>\bdf{"2424}<転成連結語尾>\\7&\bdf{"3E6E}\bdf{"3632}<冠形詞>&\bdf{"3E6E}\bdfkanji{hanglm24.bdf}{"3630}<形容詞>\bdf{"2424}<転成連結語尾>\\6&\bdf{"4152}<文末語尾/叙述形>&\bdf{"4152}<文末語尾/勧誘形>\\6&\bdf{"3F64}<文末語尾/叙述形>&\bdf{"3F64}<文末語尾/命令形>\\\hline\end{tabular}\end{center}\end{table}形態素誤りの傾向を見ると,局所的な連接で解決可能な品詞付与に対しては誤りはほとんど見られず,良好な結果が得られた.直接な比較は困難だが,一般に知られている日本語形態素解析の精度と韓国語における多品詞語が多い性質を考えると,ほぼ妥当な精度が得られていると考えることができる.誤りのうち,例えば「\bdf{"4152}」という形態素は,文末語尾の叙述形と命令形の二つの意味を持ち,それぞれ平叙文と命令文に用いられる.この両者の表層上の区別は困難であるため,現在の手法では原理的に不可能であり,やむを得ないと考えられる.また「\bdf{"404C}」なども含め,文脈情報がないと解決できないもののみが誤りとして残っていることから,より一層の精度向上には,後続の処理で曖昧性を解消するなど,根本的な手法の改善が必要と考えられる.また,1文字語だけに対して単語要素としてn-gram統計を取った点に関しては,誤りの中に2文字語がほとんど見られなかったことから,妥当な処理であったと言える.なお,本形態素解析において誤りとされるものの中には,品詞認定の基準によっては複数の可能性が考えられる語が存在する.それらの語のほとんどは品詞体系の基準に反映し,できるだけ誤りが起こりにくい品詞体系を目指したが,今後より一層,各誤りに対する品詞認定基準の再検討が必要である. \section{韓国語生成} \label{節:生成処理}本節ではTDMT日韓翻訳における韓国語生成について述べる.前述したように日本語と韓国語は品詞体系の面でかなり類似の体系を持っているが,構文的な面においても非常に類似した言語である.このため,文献\cite{古瀬99}の英語例文で行なっているような,英語に対する語順調整などの操作は,韓国語生成においては必要がない.その一方で,韓国語正書法では,日本語にはない分かち書き(ある一定の規則で単語と単語の間に空白を挿入すること)があるため,これらの処理を行なう必要がある.また活用処理は日本語よりも複雑であり,縮約処理,音韻変化処理など,日本語ではあまり見られない形態変化処理も必要となる.この結果,韓国語生成部において必要な処理は以下のように分類することができる.\begin{enumerate}\item分かち書き処理\item不規則活用用言の語形変化処理\item前後の語による語形変化処理\item数字処理\end{enumerate}(1)は前述した.(2)は例えば,サ変動詞「する」に「〜た」を連接させた場合,「するた」にはならず「した」と変化させる処理に該当する.韓国語には不規則変化用言(変則用言と呼ぶ)が数多く存在し,その語形変化が日本語の用言以上に複雑である.(3)は縮約などの処理のことで,日本語では「〜て」+「は」が「〜ちゃ」に,「〜の」+「〜だ」が「〜んだ」などの語形変化が該当する.例えば,韓国語においては表\ref{表:縮約}左に示したような形態素の連続があった場合にこれを同表右に示す語形に変形する処理である.ただし,この処理は曖昧性がないため形態素解析における縮約の還元処理と比較してはるかに容易であり,考えられる縮約現象を予め収集することで容易に対応できる.また,本論文\ref{節:形態素体系}節で提案した記述形式に従ってコーパス収集し形態素情報を付与すれば,これら縮約現象の収集もまた容易である.(4)はTDMT特有の処理である.TDMT変換部では数字をアラビア数字で記述している.生成部ではこれを漢数字(日本語の「いち」「に」が該当する)もしくはハングル数字(日本語の「ひと」「ふた」が該当する)に変換する処理を行なっている.アラビア数字を漢数字とハングル数字のどちらで記述するかは,直後の普通名詞の属性(漢字数,ハングル数)などで判断する.本論文で提案する生成処理は,事例による自動的な情報収集と,人手による規則作成を融合することで実現した.例えば,次節で述べる生成辞書や縮約現象などは事例を収集することによって行ない,活用変化の記述や分かち書きは網羅が可能であるので人手によって規則の記述を行ない,網羅した.事例の収集は,韓日翻訳と日韓翻訳の両者で全く同一の韓国語言語体系を使用していることで可能となる.これによって,少なくとも収集した韓国語コーパスの全文を本生成処理において正しく生成可能であり,また未知の形態素列に対しても組合せ的に生成可能である場合が多い.\subsection{生成辞書}生成処理においては,形態素に関する情報を参照する辞書を持つ.これを生成辞書と呼ぶ.生成辞書の目的は普通名詞の可算情報(「漢字数」「不可」など),および用言の変則情報を入手することである.このため,これ以外の語(助詞類など)に対しては必要な情報がないため,生成辞書には記述しない.また,規則活用をする用言も省略している.このため,語彙集合は形態素解析辞書の部分集合となる.生成辞書の例を図\ref{図:生成辞書}に示す.生成辞書は以下の様式で記述する.\vspace{.5\baselineskip}\begin{quote}\begin{tabular}{ll}普通名詞の場合:&(単語品詞({\ttconnect}可算情報))\\用言の場合:&(単語品詞({\ttchange}変則情報))\\\end{tabular}\end{quote}\vspace{.5\baselineskip}\begin{figure}\begin{boxit}\noindent\verb|(|\bdf{"2424}\verb*||\bdf{"356D}\bdf{"474F}\補助形容詞\verb|(change|\bdf{"3F29}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"2429}\verb*||\bdf{"3B37}\bdf{"474F}\補助形容詞\verb|(change|\\bdf{"3F29}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"2429}\bdf{"4176}\bdf{"3535}\verb*||\bdf{"3870}\bdf{"3823}\補助動詞\verb|(change|\\bdf{"3823}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\動詞\verb|(change|\\bdf{"3045}\bdf{"3673}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3054}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"305D}\bdf{"4725}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3175}\形容詞\verb|(change|\\bdf{"2432}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3673}\bdf{"3F40}\bdf{"4449}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3767}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3A31}\形容詞\verb|(change|\\bdf{"2432}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3A4E}\bdf{"4530}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\vspace{0.8\baselineskip}\noindent\verb|(|\bdf{"392F}\verb|-|\bdf{"2427}\動詞\verb|(change|\\bdf{"2427}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|)(regexp|\\bdf{"392F}\verb|))|\\\verb|(|\bdf{"392F}\動詞\verb|(change|\\bdf{"3154}\bdf{"4422}\verb|))|\end{boxit}\caption{生成辞書の例}\label{図:生成辞書}\end{figure}ただし,例外的に{\ttregexp}属性を持たせることがある.図\ref{図:生成辞書}最下部に示した「\bdf{"392F}」という動詞は,「埋める」もしくは「くっつく」という意味の場合と,「尋ねる」という意味の場合に活用型が異なる.このような場合に,辞書引きの対象となる正規形を「{\tt\bdf{"392F}-\bdf{"2427}}」のように一時的に変化させることで対応する.このような現象が頻出する場合には,正規形,品詞,活用型の3つ組によって生成辞書を引けば問題ないが,このような語はほとんどなく,実際に現在の語彙中には「\bdf{"3048}」「\bdf{"392F}」の2語しかないため,ほとんどの語に対して活用型は必要ない.よって変則的に,正規形を変化させる上記のような方策を取った.韓国語生成部において使用している形態素体系はTDMT韓日翻訳の入力として使用している形態素体系と基本的に同一である.このため,ATR旅行会話コーパスから自動生成した形態素解析辞書に存在する単語の情報はそのまま生成辞書としても使用することが可能である.ただし,実際には韓日翻訳の原言語語彙数よりも日韓翻訳の目的言語語彙数のほうが多いので,この差分となる語彙に関しては,人手により追加している.以上により,現在の生成辞書は,形態素解析辞書から自動生成を行ない,不足分を手作業によって追加している.\subsection{分かち書き規則}韓国語における分かち書き処理の実現は容易ではない.英語などと異なり,原則として単語間に空白を入れる,というような明確な規則がないためである.例えば「\bdf{"3157}\bdf{"395B}\bdf{"3F21}」という表現は,「\underline{\bdf{"3157}\bdf{"395B}\bdf{"3F21}}\\bdf{"3E78}\bdf{"3459}.(\underline{それしか}ない.)」などの場合には分かち書きしないが「\underline{\bdf{"3157}\\bdf{"395B}\bdf{"3F21}}\bdf{"3535}\\bdf{"4056}\bdf{"3459}.(\underline{そのほかに}もある.)」は分かち書きを行なう\cite{分かち書き}.また,韓国語話者にとって読みやすくなると考えられる位置において分かち書きするため,個人差もある.そのため,例えば書籍\cite{分かち書き}のような,分かち書きする表現の事例集が出版されているほどである.本研究では,この分かち書きを原則的に品詞によって判断する分かち書き規則を作成した.韓国語話者は品詞を意識して分かち書きしているとは考えにくいが,我々の観察から,多くの場合は品詞を基準に分かち書きが可能であると考えた.また,分かち書きを極力考慮して形態素の品詞認定を行なっているため,このようにして作成した品詞体系では,品詞自体が部分的に分かち書きの情報を持つはずである.我々の作成した分かち書き基準を表\ref{表:分かち書き基準}に示す.表に示した品詞の形態素が連続した場合に,その両形態素間に空白を挿入する.ここで,「名詞類」「助詞類」などは表\ref{表:品詞一覧}で便宜上設けた分類を示す.また「内容語」は表\ref{表:要素}における「品詞要素」に属する品詞を示す.\begin{table}\begin{center}\caption{韓国語分かち書き基準}\label{表:分かち書き基準}\y{3}\begin{tabular}{rl}\hline\hline前形態素&後形態素\\\hline名詞類&内容語\\\hline固有名詞代名詞動作名詞形容名詞&接頭辞\\\hline転成連結語尾文末語尾感嘆詞接続詞&内容語接頭辞\\副詞助詞類接尾辞類記号&\\\hline「\bdf{"404C}/\bdf{"3157}/\bdf{"407A}」以外の冠形詞&「\bdf{"304D}」以外の普通名詞\\\hline転成連結語尾&副詞格助詞\\\hline\end{tabular}\end{center}\end{table} \section{結論} 韓国語の形態素をどのように認知し,どのように機械処理するかについての言語体系並びに形態素処理に関する総合的な提案を行なった.本韓国語体系は機械処理のしやすさを考慮した体系であり,形態素解析精度や機械翻訳での必要性を考慮した設計を行なった.また分かち書きや音韻縮約の機械処理手法についても提案を行なった.形態素解析では,統計的手法を基本としながら韓国語固有の問題に対しては独自の対応を施すことで,文正解率92.6\%という良好な解析精度が得られた.韓国語生成処理では,特に分かち書き処理について,提案した品詞体系を利用した規則を作成した.本論文で提案した形態素体系,品詞体系,形態素解析,生成処理はいずれも変換主導翻訳システムTDMTの日韓,並びに韓日翻訳部に実装されており,このシステムが良好な翻訳性能を得ていることは論文\cite{古瀬99}において既に報告した.本研究で構築した体系は,韓国語を原言語もしくは目的言語とする機械翻訳での利用が目的であるが,この他の韓国語言語処理においても必要により一部変更することで適用可能であると期待する.韓国語は日本語と類似していると一般的には認識されている.本論文では,日本語と比較しながら韓国語の特徴をできるだけ明確にするよう努めた.これによって,どのような部分に韓国語固有の問題があるのか,あるいはどの部分に日本語処理の手法を導入できるのかを明確にした.言語処理の観点からどのような形態素体系や品詞体系が望ましいかという言語体系に関する議論は,韓国語のみならず,日本語に対しても依然少ない.これらは個別的で場当たり的な要素を多く持つため,学術論文としてあまり開示されにくい側面を持つのが一つの原因と考える.しかし金らも強調するように,韓国語(および日本語)の正確な分析は日韓および韓日翻訳の性能向上に寄与すると考える\cite{日韓評価}.我々は,機械処理に適した言語体系の提案と議論の蓄積をこれからも進めていかなければならない.地味ではあるが,このような基礎的研究の活性化に本論文が多少なりともきっかけになればと,心から願う.\section*{謝辞}本論文で提示した体系と処理は金徳奉(\bdf{"3168}\\bdf{"3476}\bdf{"3A40})氏(当時ATR音声翻訳通信研究所客員研究員)によって提案された原型をもとに全面的に検討,改良を行なったものであり,ここに金徳奉氏に対し深謝する.また,本研究を進めるにあたり,韓国語言語体系の全面にわたり終始議論に参加し,惜しみない協力をしていただいた小谷昌彦氏((株)コングレ)に対し,心から深謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{渕,米澤}{渕,米澤}{1995}]{渕文法}渕武志,米澤明憲\BBOP1995\BBCP.\newblock\JBOQ日本語形態素解析システムのための形態素文法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(4),37--65.\bibitem[\protect\BCAY{古瀬,山本,山田}{古瀬\Jetal}{1999}]{古瀬99}古瀬蔵,山本和英,山田節夫\BBOP1999\BBCP.\newblock\JBOQ構成素境界解析を用いた多言語話し言葉翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(5),63--91.\bibitem[\protect\BCAY{李}{李}{1994}]{国語大辞典}李煕昇\BBOP1994\BBCP.\newblock\Jem{国語大辞典}.\newblock民衆書林(韓国).\newblock(韓国語).\bibitem[\protect\BCAY{李}{李}{1988}]{ハングル綴字法}李殷正\BBOP1988\BBCP.\newblock\Jem{ハングル綴字法・標準語解説}.\newblock大提閣(韓国).\newblock(韓国語).\bibitem[\protect\BCAY{Kim,Lee,Choi,\BBA\Kim}{Kimet~al.}{1994}]{DBkim}Kim,D.-B.,Lee,S.-J.,Choi,K.-S.,\BBA\Kim,G.-C.\BBOP1994\BBCP.\newblock\BBOQATwo-LevelMorphologicalAnalysisofKorean\BBCQ\\newblockIn{\BemProc.ofColing94},\BPGS\535--539.\bibitem[\protect\BCAY{金,崔}{金,崔}{1998}]{日韓評価}金泰完,崔杞鮮\BBOP1998\BBCP.\newblock\JBOQ日韓機械翻訳システムの現状分析及び開発への提言\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(4),127--149.\bibitem[\protect\BCAY{金田一,林,柴田}{金田一\Jetal}{1988}]{日本語百科}金田一春彦,林大,柴田武(編集代表)\BBOP1988\BBCP.\newblock\Jem{日本語百科大事典}.\newblock大修館書店.\bibitem[\protect\BCAY{栗林}{栗林}{1999}]{スペイン語品詞体系}栗林ゆき絵\BBOP1999\BBCP.\newblock\JBOQ構文解析システムを利用したスペイン語品詞体系の設定\JBCQ\\newblock\Jem{年次大会発表論文集},第5回,\BPGS\145--148.言語処理学会.\bibitem[\protect\BCAY{Kwon,Jeong,\BBA\Chae}{Kwonet~al.}{1991}]{Kwon}Kwon,H.-C.,Jeong,G.-O.,\BBA\Chae,Y.-S.\BBOP1991\BBCP.\newblock\BBOQADictionary-basedMorphologicalAnalysis\BBCQ\\newblockIn{\BemProc.ofNLPRS'91},\BPGS\178--185.\bibitem[\protect\BCAY{益岡,田窪}{益岡,田窪}{1989}]{基礎日本語文法}益岡隆志,田窪行則\BBOP1989\BBCP.\newblock\Jem{基礎日本語文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{宮崎,白井,池原}{宮崎\Jetal}{1995}]{宮崎文法}宮崎正弘,白井諭,池原悟\BBOP1995\BBCP.\newblock\JBOQ言語過程説に基づく日本語品詞の体系化とその効用\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(3),3--25.\bibitem[\protect\BCAY{Takezawa,Morimoto,\BBA\Sagisaka}{Takezawaet~al.}{1998}]{Takezawa98}Takezawa,T.,Morimoto,T.,\BBA\Sagisaka,Y.\BBOP1998\BBCP.\newblock\BBOQSpeechandLanguageDatabaseforSpeechTranslationResearchin{ATR}\BBCQ\\newblockIn{\BemProc.of1stInternationalWorkshoponEast-AsianLanguageResourcesandEvaluation--OrientalCOCOSDAWorkshop},\BPGS\148--155.\bibitem[\protect\BCAY{山本,古瀬,飯田}{山本\Jetal}{1996}]{IPSJ:TDMT日韓}山本和英,古瀬蔵,飯田仁\BBOP1996\BBCP.\newblock\JBOQ用例に基づく日韓の対話翻訳処理機構\JBCQ\\newblock\Jem{全国大会講演論文集}.53,4L--10\JNUM,\BPGS\2/71--72.情報処理学会.\bibitem[\protect\BCAY{山本,河井,隅田,古瀬}{山本\Jetal}{1997}]{IPSJ:混合bigram}山本和英,河井淳,隅田英一郎,古瀬蔵\BBOP1997\BBCP.\newblock\JBOQ単語と品詞の混合n-gramを用いた形態素解析\JBCQ\\newblock\Jem{全国大会講演論文集}.54,1C--02\JNUM.情報処理学会.\bibitem[\protect\BCAY{油谷,門脇,松尾,高島}{油谷\Jetal}{1995}]{朝鮮語辞典}油谷幸利,門脇誠一,松尾勇,高島淑郎\BBOP1995\BBCP.\newblock\Jem{朝鮮語辞典}.\newblock小学館/金星出版社(韓国).\bibitem[\protect\BCAY{イ}{イ}{1995}]{分かち書き}イソング\BBOP1995\BBCP.\newblock\Jem{分かち書き実務辞典}.\newblock図書出版アップル企画(韓国).\newblock(韓国語).\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{再受付}\end{biography}\end{document}
V21N03-02
\section{はじめに} 計算機技術の進歩に伴い,大規模言語データの蓄積と処理が容易になり,音声言語コーパスの構築と活用が盛んになされている.海外では,アメリカのLinguisticDataConsortium(LDC)とヨーロッパのEuropeanLanguageResourcesAssociation(ELRA)が言語データの集積と配布を行う機関として挙げられる.これらの機関では,様々な研究分野からの利用者に所望のコーパスを探しやすくさせるために検索サービスが提供されている.日本国内においても,国立情報学研究所音声資源コンソーシアム(NII-SRC)や言語資源協会(GSK)などの音声言語コーパスの整備・配布を行う機関が組織され,コーパスの属性情報に基づいた可視化検索サービスが開発・提供されている(Yamakawa,Kikuchi,Matsui,andItahashi2009,菊池,沈,山川,板橋,松井2009).コーパスの属性検索と可視化検索を同時に提供することで,コーパスに関する知識の多少に関わらず所望のコーパスを検索可能にできることも示されている(ShenandKikuchi2011).検索に用いられるコーパスの属性情報として,収録目的や話者数などがあるが,speakingstyleも有効な情報と考えられる.郡はspeakingstyleと類似の概念である「発話スタイル」が個別言語の記述とともに言語研究として重要な課題であると指摘している(郡2006).Jordenらによれば,どの言語にもスタイルの多様性があるが,日本語にはスタイルの変化がとりわけ多い(JordenandNoda1987).しかしながら,現状では,前述の機関では対話や独話などの種別情報が一部で提供されているに過ぎない.また,同一のコーパスにおいても話者や収録条件によって異なるspeakingstyleが現れている可能性もある.そこで,本研究ではspeakingstyleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるため,音声言語コーパスにおける部分的単位ごとのspeakingstyleの自動推定を可能にし,コーパスの属性情報としてより詳細なspeakingstyleの集積を提供することを目指す.Speakingstyleの自動推定を実現するためには,まずspeakingstyleの定義を明確にする必要がある.Joosは発話のカジュアルさでspeakingstyleを分類し(Joos1968),Labovはspeakingstyleが話者の発話に払う注意の度合いとともに変わると示唆した(Labov1972).Biberは言語的特徴量を用いて因子分析を行い,6因子にまとめた上で,その6因子を用いて異なるレジスタのテキストの特徴を評価した(Biber1988).Delgadoらはアナウンサーの新聞報道や,教師の教室内での発話など,特定の職業による発話を``professionalspeech''として提案し(DelgadoandFreitas1991),Cidらは発話内容が書かれたスクリプトの有無をspeakingstyleのひとつの指標にした(CidandCorugedo1991).Abeらは様々な韻律パラメータとフォルマント周波数を制御することにより小説,広告文と百科事典の段落の3種類のspeakingstyleを合成した(AbeandMizuno1994).Eskenaziは様々なspeakingstyle研究の考察からメタ的にspeakingstyleの全体像を網羅した3尺度を提案した(Eskenazi1993).Eskenaziは,人間のコミュニケーションは,あるチャンネルを通じて,メッセージが話し手から聞き手へ伝達されることであり,speakingstyleを定義する際,このメッセージの伝達過程を考慮することが必要であると主張した.その上で,「明瞭さ」(Intelligibility-oriented,以降Iとする),「親しさ」(Familiarity,以降Fとする),「社会階層」(soCialstrata,以降Cとする)の3尺度でspeakingstyleを定義した.「明瞭さ」は話し手の発話内容の明瞭さの度合いであり,メッセージの読み取りやすさ・伝達内容の理解しやすさや,読み取りの困難さ・伝達内容の理解の困難さを示す.又これは,発話者が意図的に発話の明瞭さをコントロールしている場合も含んでいる.「親しさ」は話し手と聞き手との親しさにより変化する表現様式の度合いであり,家族同士の親しい会話や,お互いの言語や文化を全く知らない外国人同士の親しくない会話などに現れるspeakingstyleを示す.「社会階層」は発話者の発話内容の教養の度合いであり,口語的な,砕けた,下流的な表現(社会階層が低い)や,洗練された,上流的な表現(社会階層が高い)を示している.話し手と聞き手の背景や会話の文脈によって変化する場合もある.ここで,本研究が目指すコーパス検索サービスにとって有用なspeakingstyle尺度の条件を整理し,Eskenaziの尺度を採用する理由を述べる.まず,一つ目の条件として,幅広い範囲のデータを扱える必要がある.音声言語コーパスは,朗読,雑談,講演などの様々な形態の談話を含み,それらは話者ごと,話題ごとなどの様々な単位の部分的単位により構成される.限られた種類の形態のデータからボトムアップに構築された尺度では,一部のspeakingstyleがカバーできていない恐れがある.Eskenaziの尺度は,様々なspeakingstyle研究の考察からメタ的に構築されたものであり,幅広い範囲のデータを扱える点で本研究の目的に適している.データに基づいてボトムアップに構築された他の尺度(例えば(Biber1988)など)の方が信頼性の点では高いと言えるが,現段階では網羅性を重視する.次に,二つ目の条件として,上述した目的から,コーパスの部分的単位ごとに付与できる必要がある.新聞記事,議事録,講演などのジャンルごとにspeakingstyleのカテゴリを設定する方法では,一つの談話内でのspeakingstyleの異なり・変動を積極的に表現することが困難である.一方,Eskenaziの尺度は必ずしも大きな単位に対象を限定しておらず,様々な単位を対象にした多くの先行研究をカバーするように構築されているため,この条件を満たす.最後に三つ目の条件として,日本語にも有効であることが求められる.(郡2006)や(JordenandNoda1987)から,speakingstyleの種類は言語ごとに異なると言え,特定の言語の資料に基づいてボトムアップに構築された尺度では,他の言語にそのまま適用できない恐れがある.Eskenaziの尺度はコミュニケーションモデルに基づいて特定の言語に依存することなく構築されたものであるため,本研究で対象とする日本語にも他の言語と同様に適用して良いものと考える.したがって本研究では,Eskenaziの3尺度を用いて音声言語コーパスの部分的単位ごとのspeakingstyle自動推定を行い,推定結果の集積をコーパスの属性情報として提供することを目指す.これによって,推定された3尺度の値を用いて,例えばコーパス内の部分的単位のspeakingstyle推定結果を散布図で可視化したり,所定の明瞭さ,親しさ,社会階層のデータを多く含むコーパスを検索するなどの応用を可能にする.以降,2章では,speakingstyle自動推定の提案手法について述べる.Speakingstyleの推定に用いる学習データを収集するための評定実験については3章で説明する.4章では評定実験結果の分析,speakingstyleの自動推定をするための回帰モデルの構築および考察を述べる.最後の5章ではまとめおよび今後の方向性と可能性の検討を行う. \section{Speakingstyleの自動推定手法} Speakingstyleの自動推定に寄与する要素として,イントネーションや時間構造などの音声的特徴と形態素や統語的構造などの言語的特徴との両方が考えられる.Eskenaziは,speakingstyleの先行研究のレビューに基づいて音声的特徴と言語的特徴の双方の重要性を述べている(Eskenazi1993).郡の調査(郡2006)によって示された日本語の口調(speakingstyleと類似の概念)には,「ですます口調」や「漢文口調」など主に書きことばとしてのスタイルや言語形式によって特徴づけられるものが数多くあげられている.これらから,本研究ではspeakingstyleを扱ううえでまず言語的特徴に焦点を当てる.一方,自然言語処理の分野においては,言語的特徴を手がかりとしたテキストに対する文体・ジャンルの判別や著者推定などの研究が多く行われ,比較的精度の高い成果が得られている.小磯らは現代日本語書き言葉均衡コーパスと日本語話し言葉コーパスにおける7つのサブコーパス(白書,新聞,小説,Yahoo!知恵袋,国会議事録,学会講演,模擬講演)に対して,漢語率,名詞率,接続詞率,副詞率,形容詞率,機能語率を手がかりとする判別分析を行い,約80%の精度でサブコーパスの分類が可能であることを示した(小磯,小木曽,小椋,宮内2009).小山らは形態素出現パタンを手がかりとし,学会における研究発表抄録データの類似性を評価し,いくつかの異なる学会間の類似度をほぼ再現する距離尺度を構成できることを示唆した(小山,竹内2008).Mairesseらは言語的手がかりをパーソナリティの自動認識に用いることを試み,複数の機械学習の手法によって精度の比較と有効な特徴量の検討を行った(Mairesse,Walker,Mehl,andMoore2007).これらの研究においては,品詞・語種率と形態素パタンなどの形態論的特徴を特徴量とした方法が有効であることがわかった.上述の理由と先行研究を踏まえた上で,我々はまず音声言語データの形態論的特徴から着手し,従来のテキストの文体・ジャンル判別の手法を用い,音声に付随する書き起こしテキスト(本論文では転記テキストと呼ぶ)に着目したspeakingstyle推定モデルを構築することにより,speakingstyleの自動推定を試みる.音声的特徴については,上述したようにspeakingstyleの推定に有用な特徴であり,今後の導入を検討しているが本稿では扱わない.前述した音声言語コーパスの検索サービスにおいて,形態論的特徴のみに基づくspeakingstyle推定結果を提供することも,例えば形態論的側面に焦点を当てた日本語教育に用いる資料や,話し言葉における言語情報の話者性変換技術(水上,Neubig,Sakti,戸田,中村2013)などの学習データを求めるような需要に応えることが可能と考える.Speakingstyle推定モデルの構築の具体的な流れを図1を用いて説明する.\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f1.eps}\end{center}\caption{Speakingstyle推定モデルの構築の流れ}\end{figure}まず,speakingstyleの異なる様々な音声言語コーパスから音声の転記テキストを選出し(3.2.1節詳述),speakingstyleの最も安定する部分と思われる最中部の約300字程度のテキストを抽出する(3.2.2節).続いて抽出したテキストに対し,Eskenaziのspeakingstyleの3尺度を用いてspeakingstyle推定モデルの構築に用いる学習データを収集するための評定を行う(3.3節).同時に,UniDicを辞書として用いたMeCabで形態素解析を行い,品詞・語種率,形態素パタンを特徴量として抽出する(4.1節).評定実験で得られた評定結果の平均を求め,3尺度の学習データとする.最後に重回帰分析により3尺度それぞれの回帰モデルを求め,speakingstyle推定モデルとする(4.2節).構築したspeakingstyle推定モデルを用いて,任意の転記テキストに対して,speakingstyleを自動推定することが可能になる. \section{評定実験} 本章では,2章で述べた評定実験の詳細について述べる.\subsection{評定者}本評定は,情報科学を専門とした大学生男女22名(その内男性は15名)の評定者による.全ての評定者は本研究に関わっていない.\subsection{刺激}刺激には音声言語コーパス内の転記テキストを使用する.\subsubsection{音声言語コーパス}Speakingstyleの多様さと実験のコストの両方を考慮した上で,本評定実験で使用する音声の転記テキストを,以下の6種類の音声言語コーパス(カテゴリ)から収録条件や話者の役割などによっての違いを区別せず,それぞれ10サンプルずつ無作為に選出した.\noindentI.日本語話し言葉コーパス(前川,籠宮,小磯,小椋,菊池2000)-講演(CSJ1と呼ぶ)日本語話し言葉コーパス(theCorpusofSpontaneousJapanese,CSJ)は,日本語の自発音声を大量に集めて多くの研究用情報を付加した,質・量ともに世界最高水準の話し言葉研究用のデータベースである.本研究では,CSJに収録された多様なspeakingstyleの中でも,特に学会講演及び模擬講演を対象とする.\noindentII.日本語話し言葉コーパス-インタビュー(CSJ2と呼ぶ)Iと同じくCSJから選出した,インタビュー形式の対話である.講演音声と対話音声のspeakingstyleは著しく異なると思われるので,今回の実験目的を考慮し,別のカテゴリとした.なお,インタビュアーとインタビュイーの発話を区別しないことにした.このコーパス(カテゴリ)は対面の自由対話である.\noindentIII.新入生対話コーパス(中里,大城,菊池2013)(FDCと呼ぶ)大学の研究室に所属の大学生同士の間の自由対話を収録したコーパスである.本コーパスは低親密度の二人の対話音声が,時間経過および二人の親密性の向上とともにどのように変化するのかを調べることを目的としている.このコーパスは大学生同士の間の自由対話である.\noindentIV.車載環境における質問応答の対話コーパス(宮澤,影谷,沈,菊池,小川,端,太田,保泉,三田村2010)(AUTOと呼ぶ)本コーパスは,模擬車内環境でドライビングゲームをプレイしたドライバー役被験者と,同乗してナビゲーションを行ったナビゲーター役被験者に対して,走行実験終了後に,実験中の動画を見せながら感想やナビゲーションの的確さをインタビューした際の対話音声である.質問がほぼ決まっているため,対話内容が定型文に近く,自由度の低い対話である.なお,インタビュアーとインタビュイーの発話を区別しないことにした.\noindentV.千葉大地図課題対話コーパス(堀内,中野,小磯,石崎,鈴木,岡田,仲,土屋,市川1999)(MAPTASKと呼ぶ)地図課題を遂行するための対話コーパスである.地図課題とは,目標物と経路の描かれた地図を持つ話者(情報提供者)が,目標物のみ描かれた地図を持つ話者(情報追随者)に対し,ルートを教えるという課題である.なお,情報提供者と情報追随者の発話も,話者の面識あり・面識なしなどのパラメータも区別しないことにした.このコーパスは課題による対話である.\noindentVI.研究室メンバー同士の対話コーパス(岩野,杉田,松永,白井1997)(TRAVELと呼ぶ)旅行の計画を立てるため,二人の研究室メンバーの間で交わされた対話を収録したコーパスである.このコーパスは高親密度な大学生同士の対話者の間の対面対話である.\subsubsection{転記テキストの加工}上述の6種類のコーパス(カテゴリ)から10個ずつ合計60個の音声サンプルを無作為に選出する.なお,対話に関しては,話者ごとに一つのサンプルとした.CSJ2は話者数が少ないため,結果として4話者のデータが2サンプル以上選択されていた.これ以外について話者の重複はなかった.\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f2.eps}\end{center}\caption{転記テキストからの刺激作成(例)}\end{figure}Speakingstyleの最も安定する部分を抽出するため,上記の各音声に付随する転記テキスト中部約300字(約1分の音声の転記量に相当し,speakingstyleの知覚に十分だと考えるため)のテキストを切り出す.なるべく発話の内容の影響を避け,speakingstyleだけで評定するよう,テキストの名詞(代名詞は除く)の部分を全て「$\bigcirc\bigcirc$」に自動変換した(図2参照).名詞の表現の使い分け(例えば「マイク」と「マイクロホン」など)もspeakingstyleの一つと扱えるが,名詞を刺激にそのまま表示すると,本来speakingstyleとは独立させるべき話題内容が明確に伝わってしまう恐れがある.したがって,データの話題内容によらないspeakingstyleを推定することを目指すために,話題を強く想起させ得る名詞(代名詞以外)を伏せることにした.なお,転記テキストにある時間情報,フィラー,言いよどみ,笑い,咳などの情報を消し,書式を統一し,図2に例を示したような仮名漢字文字の表記に揃えた上で評定の刺激とした.\subsection{評定方法}\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f3.eps}\end{center}\caption{評定実験で用いた教示の例}\end{figure}本評定にはSD法を用いる.一つのテキストを読んだ後,3尺度のそれぞれについて7段階で評定してもらう.「明瞭さ」に関して,不明瞭の場合を1,明瞭の場合を7,「親しさ」に関して,親しくない場合を1,親しい場合を7,「社会階層」に関して,低い場合を1,高い場合を7とする.評定はウェブブラウザ上のアンケートページを介して行う.評定の前に,尺度についての詳細説明をよく読むように指示した.刺激用の転記テキストはランダマイズして提示する.テキストを読み終えてから評定するように指示し,評定中何度でも読み直して良いとした.なお,評定実験に先立って,3名の評定者(評定実験の被験者には含まれない)による予備実験を行い,3尺度に関しての説明の妥当性および評定の安定性を確認した.その結果,3尺度I,F,Cの級内相関係数(IntraclassCorrelationCoefficient,ICC)(Koch1982)のICC(2,1)(評定者間の信頼性)はそれぞれ0.50,0.79と0.82であり,Landisら(LandisandKoch1977)によれば,Iは``moderate'',Fは``substantial'',Cは``almostperfect''であるため,予備実験における評定者間の信頼性が高いことを確認できた.3尺度に関しての説明を若干修正した上で評定実験を行った.評定実験で用いた教示の例を図3に示す.\subsection{評定結果}3尺度は独立した尺度であることを想定しているが,全22名の評定者の評定結果に基づいて尺度間の相関係数を求めたところ,明瞭さIと親しさFの相関係数が$-0.27$,明瞭さIと社会階層Cが0.48,親しさFと社会階層Cが$-0.55$であった.明瞭さIと親しさFの相関は弱いが,社会階層Cと明瞭さI・親しさFとの間には中程度の相関が見られた.Eskenaziは3尺度の独立性については特に言及していないが,今回の実験で日本語を対象としたため,一部に3尺度の独立性が見受けられないことは,日本語での話し方や発話内容の教養度が話者の間の関係に影響されるという傾向によるものだと考えられる.1章で述べた音声言語コーパス検索サービスでの応用を考えると,属性情報による絞り込み検索や可視化検索などにおいて必ずしも属性間の独立性を保証する必要はないため,尺度の間に相関があっても大きな支障はないと考える.\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f4.eps}\end{center}\caption{Speakingstyle評定結果の二次元散布図(全評定者の評定結果の平均による)}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f5.eps}\end{center}\caption{刺激ごとの評定結果の平均(左上はI,右上はF,下はC)}\end{figure}6コーパス(カテゴリ)のspeakingstyle評定値が実際にどのように分布してコーパスの特性と合致しているかを見るために,全22名の評定者の評定結果の平均を用い,IとF(図4の左上),FとC(図4の右上),IとC(図4の下部)のそれぞれの2次元散布図と箱ひげ図(図5)\linebreakを作成した.図4において,CSJ1は他のコーパス(カテゴリ)に比べてIが高く分布している(有意水準5%のt検定によって,MAPTASKを除いて有意).図5の平均値でもCSJ1は最も高い.これは,CSJ1が講演音声であり話者が明瞭な発話を意識しているためと考えられる.CSJ2は,CSJ1と比べてFが高くCが低く分布している(t検定によって有意傾向が見られ,図5の平均値についても同様の傾向).これは,CSJ2がCSJ1と異なり,講演話者へのインタビューであり,対話の形をとることによると考えられる.FDCはCが低く分布している(有意水準5%のt検定によって,図5の平均値ではTRAVELについで2番目に有意に低い).これはFDCは大学生同士の間の自由対話であることによると考えられる.AUTOはFが低く分布している(有意水準5%のt検定によって,CSJ1を除いて有意,図5の平均値においても同様の傾向).これはAUTOは実験者と被験者との間の自由度の低い対話であることによると考えられる.MAPTASKは,Iが広く分布し,同じ課題対話であるAUTOと比較してFやIも広く分布している.これは,MAPTASKが話者の面識ありとなしの両方を含むことによると考えられる.TRAVELは他のコーパス(カテゴリ)に比べてIが低くFが高く分布している(有意水準5%のt検定によって,FDC(Iのみ)を除いて有意,図5の平均値においても同様の傾向).これは対話者同士が同じ研究室の大学生であることに加えて,同じ大学生同士のFDCよりも高親密度であることによると考えられる.以上のことから,3.2.1節で述べた各コーパス(カテゴリ)のspeakingstyleに関する特性が評定値の分布に現れているといえる.一方,3.2.1節で述べたように,speakingstyleが多様になることを意図して6コーパス(カテゴリ)を選び,上述の考察から予想されたように評定値が分布しており多様なデータを確保できたと言える.しかし,例えばIとFの評定値がともに高い刺激などは少なく,他にもスパースな象限が複数見られる.今後,より多様なコーパスを扱い,本研究の手法の有効性を検証する必要がある.なお,評定値の安定性を確認するために,3尺度の級内相関係数(Koch1982)を算出した.3尺度I,F,CのICC(2,1)(評定者間の信頼性)はそれぞれ0.11,0.53と0.35であり,ICC(2,k)(平均の信頼性)は0.72,0.96と0.92であった.Landisら(LandisandKoch1977)によれば,ICCの目安として,0.0--0.20が``slight'',0.21--0.40が``fair'',0.41--0.60が``moderate'',0.61--0.80が``substantial'',0.81--1.00が``almostperfect''とされている.これにしたがえば,ICC(2,1)においてFとCは許容範囲内の信頼性といえ,また評定者数が多いことに起因してICC(2,k)においてI,F,Cのいずれも評定値の平均の信頼性が高く,モデル構築に用いて良いと考える.なお,本研究が目指すコーパス検索サービスのための尺度としては,評定者によって大きく異ならないものであることが望ましく,上記の結果からIの尺度はこのままでは検索用途に適さない.今後,尺度の説明の見直しなど,検討の必要がある. \section{Speakingstyle推定モデルの構築} 3章で述べた評定実験によって得られた評定結果と刺激に用いたテキストに現れた特徴量によってモデル構築を行う.\subsection{特徴量抽出}2章で述べた理由で,本研究では主に品詞・語種率,形態素パタンなどの形態論的特徴を特徴量とする.\subsubsection{形態素解析}3章で述べた60転記テキストに対し,UniDic(伝,小木曽,小椋,山田,峯松,内元,小磯2007)を辞書として用いたMeCabで自動解析する.\subsubsection{品詞・語種率}各コーパス(カテゴリ)の品詞・語種率(感動詞int,助動詞aux,動詞v,接頭詞pref,副詞adv,代名詞pron,接続詞conj,助詞par,形容詞adj,連体詞adno,機能語funcの合計11種)を箱ひげ図で示す(図6参照).図6の縦軸は品詞・語種率の割合であり,横軸は左からCSJ1,CSJ2,FDC,AUTO,MAPTASK,TRAVELの順に6コーパス(カテゴリ)ごとの結果を示している.なお,個々の品詞・語種率は,転記テキストごとの延べ語数に対する各品詞・語種の延べ語数の割合として求めた.図6に示したように,品詞・語種率の傾向はコーパス(カテゴリ)ごとに異なることがわかった.例えば,AUTOやMAPTASKのような自由度の低い発話のコーパス(カテゴリ)に比べて,CSJ2,FDC,TRAVELのような相対的に自由度の高い発話のコーパス(カテゴリ)の代名詞(pron)の割合が高い(有意水準5%のt検定によって有意)ことや,AUTOのような定型文に近く自由度の低い対話のコーパス(カテゴリ)の助動詞(aux)の割合が高い(有意水準5%のt検定によって有意)ことなど,品詞・語種率が特徴量としてspeakingstyleの自動推定に寄与する見込みがあることを示している.\begin{figure}[p]\begin{center}\includegraphics{21-3ia994f6.eps}\end{center}\hangcaption{コーパス(カテゴリ)ごとの品詞・語種率(転記テキストごとの延べ語数に対する各品詞・語種の延べ語数の割合を縦軸とした箱ひげ図)}\vspace{2\Cvs}\end{figure}\subsubsection{形態素パタン}小山らによると,文章に出現する形態素パタンが文章間の類似性を定量化するための特徴量として有効である(小山,竹内2008).沈らは日本語話し言葉コーパスの転記テキストから主に形態論情報や統語論情報などの言語的特徴を手がかりとし,印象形成に寄与すると思われる特徴を43パタン抽出した(沈,菊池,太田,三田村2012).沈らが用いた特徴は全て音声コーパスの転記テキストから抽出したものであり,今回の推定対象となったコーパスの転記テキストの性質と一致している.金水によれば,ある種の日本語の話し方(speakingstyleと類似の概念)は,その話し手として,特定の人物像を想起させる力を持つ発話スタイルのことを「役割語」と名づけた(金水2011).したがって,speakingstyleと特定のキャラクタ像の形成との間に関連はあるものと考え,これらのパタンを本研究に用いた.そのため,我々はこの43パタンについて,3章の評定実験に使用する転記テキストに現れた23パタンの出現数を本研究における使用特徴量とした(表1参照).なお,刺激ごとに形態素数が異なるため,刺激内のパタン出現数を刺激内の形態素数で正規化した.\begin{table}[t]\caption{形態素パタン}\input{0994table01.txt}\vspace{4pt}\small(形態素パタンの記法は「出現形[辞書形](品詞)」の形式で1形態素を表し,``.''は任意の1文字以上の文字列を表し,``A\textbarB''は「AまたはB」を表す.)\par\end{table}\subsection{モデルと考察}Speakingstyleの自動推定をするため,重回帰分析により推定モデルを構築した.分析には,ステップワイズ変数選択(変数減増法)\footnote{具体的には,統計ソフトRのstep関数を用いる.まず全変数を取り込んでAICを最も改善させる一つの変数を削除する.次にAICが最も改善するように一つの変数を削除あるいは追加する.削除しても追加してもAICが改善しないなら止める.}の手法で,各コーパス(カテゴリ)の品詞・語種率と形態素パタンを説明変数とし,評定実験の結果の平均を目的変数として最適なモデルを求めた.もとめたモデルの有意性を検定するために,「全ての偏回帰係数がゼロである」という帰無仮説を立てたF検定を行った.その結果,3尺度共に有意水準1%でモデルの有意性が証明された.\begin{table}[t]\caption{交差検定(leave-1-out)の結果(決定係数/調整済決定係数)}\input{0994table02.txt}\end{table}さらに,モデルの信頼性を確認するため,交差検定(leave-1-out)によりモデルの決定係数(MontgomeryandPeck1982)を求めた.その結果を表2に示す.表2に示した結果は,ことわりのない限り全て,テストデータと同一コーパスの他データを学習データに含めて交差検定を行った結果であるが,交差検定の際に同一コーパスの他データを学習データに含めるかどうかを応用目的に照らして検討する必要がある.同一コーパスの他データを学習データに含めた場合の交差検定(leave-1-out)は,同一コーパスの他データの評定値が部分的に既知である場合に相当する.実際の応用において,推定精度をあげるためにコーパス内の一部の部分的単位に人手で推定結果を与えてモデル学習に利用することは充分考えられる.そこで,この方法の交差検定結果を表2の「全特徴量」に示した.一方で,同じコーパスの他データを学習データに含めない場合の交差検定(leave-1-out)は,同一コーパスの評定値が全て未知である場合に相当する.実際の応用においてこうしたケースもあり得るため,この方法の交差検定結果を「全特徴量(同一コーパスを含めない)」に示した.3.2.1節に述べたように,評定実験ではspeakingstyleの多様さと実験のコストの両方を考慮した上で,60サンプルを評定の刺激としたが,モデル構築のためのサンプルとしては少ないことが懸念される.サンプル数の少なさの影響を考慮するために自由度調整済決定係数を求めたところ,同一コーパスが学習データとして存在する場合,Iは0.37,Fは0.81,Cは0.66であった.1章で述べたとおり,本研究では,一つのコーパスに対して複数の部分的単位ごとの推定結果の集積が利用されることを想定しており,全ての部分的単位に対して正しく推定できていなくても,50%以上の部分的単位を説明できることに相当する推定精度(決定係数0.50以上)があれば,1章に述べたような応用は実現可能と考える.FとCの決定係数は0.50を大きく上回っているため応用には十分と考える.全特徴量(同一コーパスを含めない)の場合,すなわち,未知のコーパスの場合,自由度調整済決定係数はIが0.13,Fが0.74,Cが0.52であり,精度が下がるが,F,Cはやはり0.5を超えているため応用にとって有効と考える.Iについてはいずれの場合も推定の精度が高くなく,またCについては今後さらなる改善が必要と考える.さらに,表2には品詞・語種率のみと形態素パタンのみを使用した場合の決定係数を示す.この結果から,3尺度ともに,品詞・語種率と形態素パタンの両方を使用した場合のモデルの精度は,それぞれを単独で使用した場合よりも高いことがわかり,両方を特徴量として用いることの有効性が示された.\begin{table}[p]\begin{center}\rotatebox[origin=c]{90}{\begin{minipage}{571pt}\caption{選択された説明変数と重回帰分析結果における偏回帰係数}\input{0994table03.txt}\smallSignif.codes:0``***'',0.001``**'',0.01``*'',0.05``,'',0.1``''\\形態素パタンの記法は「出現形[辞書形](品詞)」の形式で1形態素を表し,``.''は任意の1文字以上の文字列を表し,``A\textbarB''は「AまたはB」を表す.\end{minipage}}\end{center}\end{table}表3に選択された説明変数とその偏回帰係数を示す.Fのモデルにおいて,形態素パタン「.[です](助動詞)\textbar.[ます](助動詞)」の偏回帰係数は2番目に絶対値が大きく,です・ます調の出現はFのモデルに負の働きがあるといえる.これは,心的距離が近ければ普通体を用いることが多い(川村1998)といった先行研究と対応付いている.4番目の「.[ちゃう](助動詞)」(例:行っちゃう)などの音の変化形の出現(川村1998)もFのモデルに大きく貢献することがわかった.他にも,3番目の「よ[よ](助詞)」(例:よ),6番目の「ね[ね](助詞)」(例:ね)のような終助詞の出現がFのモデルに正に働くことがわかった.「よ」や「ね」などの終助詞は,会話を親しげにしたり,同意を求める雰囲気にしたりする機能を持つという先行研究(川崎1989)の主張と対応付いている.Cのモデルにおいては,形態素パタン「.[けれど](助詞)も[も](助詞)」の偏回帰係数が最も大きく,「けれども」などの出現がCのモデルに正の働きがあるとわかった.このことは「けれども」などがよく改まった会話に用いられるという指摘(川村1994)と一致している.ほかにも,5番目の「連体詞率」などの形態素パタンがCのモデルに大きく貢献することがわかった. \section{おわりに} 本研究では,speakingstyleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるために,音声言語コーパスのspeakingstyleを自動推定して属性情報として付与することを目指す.本研究では,従来のテキストの文体・ジャンル判別の手法を用い,音声に付随する転記テキストの形態論的特徴を手がかりとし,speakingstyle推定モデルを構築することにより,speakingstyleの自動推定を試みた.先行研究より,speakingstyleを「明瞭さ」(\underline{I}ntelligibility-oriented),「親しさ」(\underline{F}amiliarity),「社会階層」(so\underline{C}ialstrata)の3尺度で定義し,6コーパス(カテゴリ)から選出した音声の転記テキストを刺激とし,speakingstyleの評定を行った.評定実験によって得られた評定結果の分布がコーパスの特性と合致していることを確認した上で,重回帰分析を行い,speakingstyleにおける3尺度のそれぞれの回帰モデルを求めた.モデル構築の際,テキストの文体・ジャンル判別や著者推定などの従来手法において重要性が確認されている品詞・語種率以外に,文書分類や印象形成に有効だと思われる形態素パタンを特徴量として導入した.交差検定を行った結果,特に同一コーパスのサンプルが学習データとして使用できる場合には,本研究の提案手法によって3尺度中FとCのspeakingstyle評定値を高い精度で推定できることを確認した.本稿では,言語的特徴としてまず形態論的特徴に絞って扱ったが,係り受け情報のような統語的特徴もspeakingstyleの推定に役立つ可能性がある.今後,こうした特徴を加えて推定精度の向上を目指す.本研究で提案したspeakingstyleの自動推定手法によって,コーパスの部分的単位ごとのspeakingstyleを推定した結果はコーパス全体のspeakingstyleの判断材料となる.今後の方針として,speakingstyle推定モデルを用いて,一つのコーパスに付随する転記テキストに対してspeakingstyleを自動推定した上で,3尺度の空間上でそのコーパス全体のspeakingstyleを可視化できるようにすることを目指す.また,本研究の成果を外国語教育分野において,speakingstyleの習得支援に生かせるようにする予定である.\begin{thebibliography}{}\itemAbe,M.andMizuno,H.(1994).``SpeakingStyleConversionbyChangingProsodicParametersandFormantFrequencies.''In\textit{ProceedingsoftheInternationalConferenceonSpokenLanguageProcessing},pp.1455--1458.\itemBiber,D.(1988).\textit{VariationAcrossSpeechandWriting}.CambridgeUniversityPress.\itemCid,M.andFernandezCorugedo,S.G.(1991).``TheConstructionofaCorpusofSpokenSpanish:PhoneticandPhonologicalParameters.''In\textit{ProceedingsoftheEuropeanSpeechCommunicationAssociationWorkshop},\textbf{17},pp.~1--5.\itemDelgado,M.R.andFreitas,M.J.(1991).``TemporalStructuresofSpeech:ReadingNewsonTV.''In\textit{ProceedingsoftheEuropeanSpeechCommunicationAssociationWorkshop},\textbf{19},pp.~1--5.\item伝康晴,小木曽智信,小椋秀樹,山田篤,峯松信明,内元清貴,小磯花絵(2007).コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.日本語科学,\textbf{22},pp.~101--122.\itemEskenazi,M.(1993).``TrendsinSpeakingStylesResearch.''In\textit{ProceedingsofEurospeech},pp.~501--509.\itemEuropeanLanguageResourcesAssociation(ELRA).\texttt{http://www.elra.info/}\item言語資源協会(GSK).\texttt{http://www.gsk.or.jp/index\textunderscoree.html}\item堀内靖雄,中野有紀子,小磯花絵,石崎雅人,鈴木浩之,岡田美智男,仲真紀子,土屋俊,市川熹(1999).日本語地図課題対話コーパスの設計と特徴.人工知能学会誌,\textbf{14}(2),pp.261--272.\item岩野裕利,杉田洋介,松永美穂,白井克彦(1997).対面および非対面における対話の違い〜頭の振りの役割分析〜.情報処理学会研究報告,\textbf{97}(16),pp.105--112.\itemJoos,M.(1968).``TheIsolationofStyles.''InFishman,J.A.(Ed.),\textit{ReadingsintheSociologyofLanguage},pp.185--191.TheHague:Mouton.\itemJorden,E.andNoda,M.(1987).\textit{JapanesetheSpokenLanguage}.NewHaven{\&}London:YaleUniversityPress.\item川村よし子(1994).上級クラスにおける表現の指導—「改まり度」に応じたことばの使い分け—.講座日本語教育,\textbf{29},pp.120--133.\item川村よし子(1998).目上に対して「親しさ」を表す会話のストラテジー.講座日本語教育,\textbf{33},pp.1--19.\item川崎晶子(1989).日常会話のきまりことば.日本語学,\textbf{8}(2).\item菊池英明,沈睿,山川仁子,板橋秀一,松井知子(2009).音声言語コーパスの類似性可視化システムの構築.日本音響学会秋季研究発表会講演論文集,pp.441--442.\item金水敏(2011).``現代日本語の役割語と発話キャラクタ.''金水敏(編),役割語研究の展開,pp.~7--16.くろしお出版.\itemKoch,G.G.(1982).``IntraclassCorrelationCoefficient.''InKotzS.andJohnsonN.~L.(Eds.)\textit{EncyclopediaofStatisticalSciences},\textit{Vol.4},pp.213--217.NewYork:JohnWiley\&Sons.\item小磯花絵,小木曽智信,小椋秀樹,宮内佐夜香(2009).コーパスに基づく多様なジャンルの文体比較—短単位情報に着目して—.言語処理学会年次大会発表論文集,pp.594--597.\item国立情報学研究所音声資源コンソーシアム(NII-SRC).\texttt{http://research.nii.ac.jp/src/}\item郡史郎(2006).日本語の「口調」にはどんな種類があるか.音声研究,\textbf{10}(3),pp.52--68.\item小山照夫,竹内孔一(2008).形態素出現パタンに基づく文書集合類似性評価.情報処理学会研究報告自然言語処理研究会報告,\textbf{2008}(113),pp.51--56.\itemLabov,W.(1972).``TheIsolationofContextualStyles.''InLabov,W.(Ed.)\textit{SociolinguisticPatterns},pp.70--109.Oxford:BasilBlackwell.\itemLandis,J.R.andKoch,G.G.(1977).``TheMeasurementofObserverAgreementforCategoricalData.''\textit{Biometrics},\textbf{33},pp.159--174.\itemLinguisticDataConsortium(LDC).\texttt{http://www.ldc.upenn.edu/}\item前川喜久雄,籠宮隆之,小磯花絵,小椋秀樹,菊池英明(2000).日本語話し言葉コーパスの設計.音声研究,\textbf{4}(2),pp.51--61.\itemMairesse,F.,Walker,M.A.,Mehl,M.R.,andMoore,R.K.(2007).``UsingLinguisticCuesfortheAutomaticRecognitionofPersonalityinConversationandText.''\textit{JournalofArtificialIntelligenceResearch},\textbf{30},pp.457--500.\item宮澤幸希,影谷卓也,沈睿,菊池英明,小川義人,端千尋,太田克己,保泉秀明,三田村健(2010).自動車運転環境下におけるユーザーの受諾行動を促すシステム提案の検討.人工知能学会誌,\textbf{25}(6),pp.723--732.\item水上雅博,Neubig,G.,Sakti,S.,戸田智基,中村哲(2013).話し言葉の書き起こし文章の話者性の変換.人工知能学会全国大会論文集,pp.1--4.\itemMontgomery,D.C.andPeck,E.A.(1982).\textit{IntroductiontoLinearRegressionAnalysis(2ndedition)},NewYork:JohnWiley{\&}Sons.\item中里収,大城裕志,菊池英明(2013).音声対話における親密度と話し方の関係.電子情報通信学会技術研究報告,\textbf{112}(483),pp.109--114.\itemShen,R.andKikuchi,H.(2011).``ConstructionoftheSpeechCorpusRetrievalSystem:CorpusSearch{\&}Catalog-Search.''In\textit{ProceedingsofOrientalCOCOSDA},pp.76--80.\item沈睿,菊池英明,太田克己,三田村健(2012).音声生成を前提としたテキストレベルでのキャラクタ付与.情報処理学会論文誌,\textbf{53}(4),pp.1269--1276.\itemYamakawa,K.,Kikuchi,H.,Matsui,T.,andItahashi,S.(2009).``UtilizationofAcousticalFeatureinVisualizationofMultipleSpeechCorpora.''In\textit{ProceedingsofOrientalCOCOSDA},pp.~147--151.\end{thebibliography}\begin{biography}\bioauthor{沈睿}{2005年中国華東師範大学中国語教育学科卒,2009年早大大学院修士課程了.同年同大学院博士課程入学.2012年より早大人間科学学術院助手.音声言語コーパス,言語教育の研究に従事.言語処理学会会員.}\bioauthor{菊池英明}{1991年早大・理工・電気卒,1993年同大大学院修士課程了.同年株式会社日立製作所中央研究所入社.早大理工総研助手,国立国語研究所非常勤研究員,早大人間科学部非常勤講師・専任講師・准教授を経て,2012年より早大人間科学学術院教授.博士(情報科学).音声言語,音声対話,ヒューマン・エージェント・インタラクションの研究に従事.人工知能学会,日本音響学会,ヒューマンインタフェース学会,情報処理学会,電子情報通信学会等会員.}\end{biography}\biodate\end{document}
V05N02-04
\section{まえがき} 日本語には単語間に明示的な区切りがないので,入力文を単語に分割し,品詞を付加する形態素解析は日本語処理における基本的な処理である.このような視点から,今日までに多くの形態素解析器が人間の言語直観に基づき作成されている.一方,英語の品詞タグ付けではいくつかのコーパスに基づく方法が提案され,非常に高い精度を報告している\cite{Grammatical.Category.Disambiguation.by.Statistical.Optimization,A.Stochastic.Parts.Program.and.Noun.Phrase.Parser.for.Unrestricted.Text,A.Simple.Rule-Based.Part.of.Speech.Tagger,A.Practical.Part-of-Speech.Tagger,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Equations.for.Part-of-Speech.Tagging,Parsing.the.LOB.corpus,Coping.with.Ambiguity.and.Unknown.Words.through.Probabilistic.Models,Tagging.English.Text.with.a.Probabilistic.Model,Some.Advances.in.Transformation-Based.Part.of.Speech.Tagging,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Transformation-Based.Error-Driven.Learning.and.Natural.Language.Processing:.A.Case.Study.in.Part-of-Speech.Tagging,Automatic.Ambiguity.Resolution.in.Natural.Language.Processing}.今日,多くの研究者が,英語の品詞タグ付けに関してはコーパスに基づく手法が従来のヒューリスティックルールに基づく手法より優れていると考えるに至っている.日本語の形態素解析に対しては,コーパスに基づく手法が従来のルールに基づく手法より優れていると考えるには至っていないようである.これは,コーパスに基づく形態素解析の研究には,ある程度の規模の形態素解析済みのコーパスが必要であり,日本語においてはこのようなコーパスが最近になってようやく簡単に入手可能になったことを考えると極めて自然である.実際,コーパスに基づく形態素解析に関しては現在までのところ少数の報告がなされているのみである\cite{確率的形態素解析,A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}.これらの研究で用いられているモデルはすべてマルコフモデル($n$-gramモデル)であり,状態に対応する単位という観点から以下のように分けられる.\begin{itemize}\item単語(列)が状態に対応する\cite{確率的形態素解析}.\item品詞(列)が状態に対応する\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}\end{itemize}確率的言語モデルという観点からは,単語を単位とすることは過度の特殊化であり,品詞を単位とすることは過度の一般化である.これらは,未知コーパスの予測力を低下させ,形態素解析の精度を下げる原因になっていると考えられる.我々は,この問題に対処するために,予測力を最大にするという観点よって算出したクラスと呼ばれる単語のグループを一つの状態に対応させ,基礎となる確率言語モデルを改良し,結果として形態素解析の精度を向上する方法を提案する.確率言語モデルとしてのクラス$n$-gramモデルは,最適なクラス分類を求める方法(以下,クラスタリングと呼ぶ)とともにすでに提案されている\cite{Class-Based.n-gram.Models.of.Natural.Language,On.Structuring.Probabilistic.Dependences.in.Stochastic.Language.Modeling,Improved.Clustering.Techniques.for.Class-Based.Statistical.Language.Modelling}.しかし,これらの文献で報告されている実験では,クラスタリング結果を用いたクラス$n$-gramモデルの予測力は必ずしも向上していない.これらに対して,文献(提出中)では削除補間\cite{Interpolated.estimation.of.Markov.source.parameters.from.sparse.data}を応用したクラスタリング規準とそれを用いたクラスタリングアルゴリズムを提案し,クラス$n$-gramモデルの予測力が有意に向上したことを報告している.本論文では,この方法を応用することで得られるクラス$n$-gramモデルを基礎にした確率的形態素解析器による解析精度の向上について報告する.また,未知語モデルに確率モデルの条件を逸脱することなく外部辞書を追加する方法を提案し,この結果として得られる未知語モデルを備えた確率的形態素解析器による解析精度の向上ついても報告する.さらに,上述の改良の両方を施した確率的形態素解析器と品詞体系と品詞間の接続表を文法の専門家が作成した形態素解析器との解析精度の比較を行なった結果について述べる. \section{確率的形態素解析} 日本語に対する形態素解析とは,日本語の文(文字列)を入力とし,これを表記と品詞の直積として定義される形態素に分割する処理である.この節では,これを実現する手法の一つとしての確率的形態素解析とその基礎となる確率言語モデルと解の探索方法について述べる.\subsection{形態素解析の問題の定義}日本語の形態素解析は,日本語のアルファベット${\calX}$のクリーネ閉包に属する文$\Bdma{x}\in{\calX}^{*}$を入力として,これを表記${\calW}={\calX}^{*}$と品詞${\calT}$の直積として定義される形態素${\calM}=\{(w,t)|w\in{\calW}\wedget\in{\calT}\}$の列$\Bdma{m}$に分解して出力することと定義できる.このとき,出力される形態素列の表記の連接は,入力のアルファベット列に等しくなければならない.つまり,入力のアルファベット列(長さ$l$)を$\Bdma{x}=\Conc{x}{l}$とし,出力の形態素列(要素数$h$)を$\Bdma{m}=\Conc{m}{h}$とすると以下の式が成り立つ必要がある.ただし,$w(m)$は形態素$m$の表記を表し,$\Bdma{w}(\Bdma{m})$は形態素の連接$\Bdma{m}$の表記の連接を表わすものとする.\begin{equation}\label{equation:condition}\Bdma{w}(\Bdma{m})=w(m_{1})w(m_{2})\cdotsw(m_{h})=\Conc{x}{l}=\Bdma{x}\end{equation}一般に,これを満たす解は一意ではない.形態素解析の問題は,可能な解の中から人間の判断(正解)に最も近いと推測される形態素列(単語分割と品詞割り当て)を選択し出力することである.この選択の基準としては,文法の専門家が自身の言語直観を頼りにした規則に基づく方法と大量の正解例(形態素解析済みコーパス)からの推定を規準にする方法がある.以下では,後者の一つである確率的形態素解析について説明する.\subsection{確率的形態素解析}確率的形態素解析器は,品詞という概念を内包する確率的言語モデルを基にして,与えられた文字列$\Bdma{x}$に対する確率最大の形態素列$\hat{\Bdma{m}}$を計算し出力する.これは,以下の式で表される.\begin{displaymath}\hat{\Bdma{m}}=\argmax_{\Bdma{w}(\Bdma{m})=\Bdma{x}}P(\Bdma{m})\end{displaymath}この式の最後の$P(\Bdma{m})$が品詞という概念を内包する確率的言語モデルである.このような確率的言語モデルには様々なものが考えられる.これらの良否の尺度としては,クロスエントロピーが一般的である.これは,確率的言語モデルを$M$とし,テストコーパスを${\calS}=\{\Stri{s}{k}\}$とすると以下の式で与えられる\footnote{式の分母の$+1$は文末記号に対応する.これは,$s_{x},s_{y}$と$s_{x}s_{y}$を区別するために必要である.}.ただし,$|s|$は文$s$の長さ(文字数)を表わす.\begin{displaymath}H(M,{\calS})=-\frac{\sum_{i=1}^{k}\logM(s_{i})}{\sum_{i=1}^{k}(|s_{i}|+1)}\end{displaymath}この値は,コーパス${\calS}$をモデル$M$で符合化した時の文字あたりの平均符合長の下限であり,${\calS}$として無作為に抽出された十分多数の文を選択すれば,複数のモデルの良否を比較するための尺度となる.定義から明らかなように,この値がより小さいほうがより良い言語モデルである.クロスエントロピーの意味で良い言語モデルを用いる方が形態素解析の精度が良いと考えられる.\subsubsection{形態素$n$-gramモデル}確率的言語モデル$P(\Bdma{m})$は,形態素を一つずつ予測することを仮定すると,以下のように書き換えられる.\begin{eqnarray}\label{eqnarray:P(m)}P(\Bdma{m})&=&P(\Conc{m}{h+1})\nonumber\\&=&\prod_{i=1}^{h+1}P(m_{i}|\Conc{m}{i-1})\end{eqnarray}ここで$m_{h+1}$は,文末に対応する特別な記号である.これを導入することによって,すべての可能な形態素列に対する確率の和が1となることが保証される\cite{Syntactic.Methods.in.Pattern.Recognition}.式(\ref{eqnarray:P(m)})は,ある時点$i$での形態素$m_{i}$の出現確率は最初の時点から時点$i-1$までの全ての形態素に依存することを表しているが,実装の簡便さなどを考慮して,時点$i-k$から時点$i-1$までの連続する$k$個の形態素の履歴にのみ依存する$k$重マルコフ過程であると仮定する.この仮定は,以下の式で表される近似である.\begin{eqnarray*}P(m_{i}|\Conc{m}{i-1})&\approx&P(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})\end{eqnarray*}ここで$m_{j}\;(j\leq0)$は,文頭に対応する特別な記号である.これを導入することによって式が簡便になる.一般に,確率$P(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})$の値はコーパスから最尤推定することで得られる.これは,$N(\Bdma{m})$を形態素列$\Bdma{m}$のコーパスにおける頻度として,以下の式で与えられる.\begin{eqnarray*}P(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})&=&\frac{N(m_{i-k}m_{i-k+1}\cdotsm_{i})}{N(m_{i-k}m_{i-k+1}\cdotsm_{i-1})}\\&=&\frac{N(m_{i-k}m_{i-k+1}\cdotsm_{i})}{\sum_{m}N(m_{i-k}m_{i-k+1}\cdotsm_{i-1}m)}\end{eqnarray*}このように,このモデルは連続する$n=k+1$個の形態素列の頻度に基づいているので,形態素$n$-gramモデルと呼ばれる.形態素$n$-gramモデルにおいて場合に問題となるのは,状態に対応する形態素(既知形態素)の選択である.一般的には,頻度の高い形態素を既知形態素とすることで高い予測力が実現できる.しかし,どのような形態素の集合を選択したとしても,テストコーパスに出現する可能性のあるすべての形態素が既知形態素であることは望めない.このため,未知形態素の扱いが避けられない問題となる.この問題に対処するため,未知形態素に対応する特別な記号を用意し,既知の形態素以外はこの記号から次節で述べる未知語モデルにより与えられる確率で生成されることとする.未知形態素に対応する特別な記号は,かならずしも唯一である必要はなく,品詞などの情報を用いて区別される複数の記号であっても良い.我々の目的は形態素解析であるから未知形態素であっても品詞の推定が可能でなければならない.よって,各品詞に対して未知形態素に対応する記号を設ける.以上に述べた形態素$n$-gramモデル$M_{m}$による,形態素列の出現確率は以下の式で表される.ただし${\calM}_{in}$は既知形態素の集合を表わし,$t$は$m_{i}$の品詞を表わす.また,${\ttUM}_{t}$は品詞$t$に属する未知形態素に対応する特別な記号である.\begin{equation}\label{equation:morph_n-gram1}M_{m}(\Conc{m}{h})=\prod_{i=1}^{h+1}P_{m}(m_{i}|m_{i-k}\cdotsm_{i-2}m_{i-1})\end{equation}\begin{eqnarray}\label{equation:morph_n-gram2}\lefteqn{P_{m}(m_{i}|m_{i-k}\cdotsm_{i-2}m_{i-1})}\nonumber\\&=&\left\{\begin{array}{lccl}P(m_{i}|m_{i-k}\cdotsm_{i-2}m_{i-1})&&\mbox{if}&m_{i}\in{\calM}_{in}\\P({\ttUM}_{t}|m_{i-k}\cdotsm_{i-2}m_{i-1})M_{x,t}(m_{i})&&\mbox{if}&m_{i}\not\in{\calM}_{in}\\\end{array}\right.\end{eqnarray}この式の中の$M_{x,t}$は,次項で述べる未知語モデルであり,品詞が$t$であることを条件として,引数で与えられる文字列の生成確率を値とする.確率値の最尤推定においては,まず既知形態素集合を定義し,学習コーパスの未知形態素を未知形態素に対応する特別な記号に置き換えて頻度を計数する.\subsubsection{未知語モデル}未知語モデルは,表記から確率値への写像として定義され,既知形態素以外のあらゆる形態素の表記を0より大きい確率で生成し,この確率をすべての表記に渡って合計すると1以下になる必要がある.このような条件を満たすモデルの一つとして,文字$n$-gramモデルがある.日本語の表記に用いられる文字は有限と考えられるので,形態素$n$-gramモデルのときの未知形態素のような問題は起こらない.しかし,形態素$n$-gramモデルの場合と同様に,文字を既知文字と未知文字に分類し,未知文字はこれを表わす特別な記号から生成されるものとすることもできる.文字の使用頻度には大きな偏りがあることが予測されるので,これらを一つのグループとみなすことで,モデルが改善されると考えられる.文字集合は有限であるから,未知形態素モデルの場合と異なり,各未知文字の生成確率を等確率とすることができる.このようにして構成される未知語モデルは以下の式で表わされる.ただし${\calX}_{in,t}$は品詞が$t$である未知語モデルの既知文字の集合を表わし,${\ttUX}_{t}$は品詞$t$の未知語モデルの未知文字に対応する特別な記号である.また,$w(m)=\Conc{x}{h}$としている.\begin{eqnarray}\label{equation:ukwmodel0}M_{x,t}(w(m))&=&M_{x,t}(\Conc{x}{h})\\\label{equation:ukwmodel1}&=&\prod_{i=1}^{h+1}P_{x,t}(x_{i}|x_{i-k}\cdotsx_{i-2}x_{i-1})\end{eqnarray}\begin{eqnarray}\label{equation:ukwmodel2}\lefteqn{P_{x,t}(x_{i}|x_{i-k}\cdotsx_{i-2}x_{i-1})}\nonumber\\&=&\left\{\begin{array}{lccl}P(x_{i}|x_{i-k}\cdotsx_{i-2}x_{i-1})&&\mbox{if}&x_{i}\in{\calX}_{in,t}\\P({\ttUX}_{t}|x_{i-k}\cdotsx_{i-2}x_{i-1})\frac{1}{|{\calX}-{\calX}_{in,t}|}&&\mbox{if}&x_{i}\not\in{\calX}_{in,t}\\\end{array}\right.\end{eqnarray}この式の中の$x_{j}\;(j\leq0)$は,語頭に対応する便宜的な記号である.また,$x_{h+1}$は,語末に対応する特別な記号であり,形態素に対するモデルの場合と同様に,すべての可能な文字列に対する確率の和が1となるために導入されている.以上で説明した未知語モデルは,未知文字を等確率で生成するモジュールを「未知文字モデル」と考えると,形態素$n$-gramモデルと相似の構造である.文字$n$-gramモデルの確率値は,形態素$n$-gramモデルの場合と同様に,既知文字を定義した後,未知形態素の実例における文字列の頻度から推定される.\subsubsection{低頻度事象への対処}上述したように,形態素$n$-gramモデルのパラメータ推定には,出現頻度を基にした最尤推定が用いられる.しかし,対象とする事象の頻度が低い場合には,推定値の信頼性は低くなるという問題がある.この問題に対処する方法として,補間と呼ばれる方法が用いられる\cite{Principles.of.Lexical.Language.Modeling.for.Speech.Recognition}.これは,次の式で表されるように,より信頼性が高いことが期待される,より低次のマルコフモデルの遷移確率を一定の割合で足し合わせるという操作を施すことを言う.\begin{equation}\label{equation:m-inter}P'(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})=\sum_{j=0}^{k}\lambda_{j}P(m_{i}|m_{i-j}m_{i-j+1}\cdotsm_{i-1})\end{equation}\begin{displaymath}ただし\;0\leq\lambda_{j}\leq1,\;\sum_{j=0}^{k}\lambda_{j}=1\end{displaymath}係数$\lambda$の値は,確率値$P$の推定に用いられるコーパスとは別に用意された比較的小さいコーパスを用いて最尤推定される.この方法では,確率値の推定に用いることができるコーパスの大きさが小さくなり,推定値の信頼性が少しではあるが低下するという問題がある.これに対処する方法として削除補間\cite{Interpolated.estimation.of.Markov.source.parameters.from.sparse.data}と呼ばれる方法がある.これは,パラメータ推定のためのコーパスを$k$個に分割し,$k-1$個の部分で確率値を推定し,残りの部分で補間の係数を推定するということを全ての組合せ($k$通り)に渡って行ない,その平均値をとるという方法である.\subsubsection{解の探索アルゴリズム}形態素$n$-gramモデルによる形態素解析器は,入力として文字列$\Bdma{x}$を受けとり,式(\ref{equation:morph_n-gram1})(\ref{equation:morph_n-gram2})(\ref{equation:ukwmodel1})(\ref{equation:ukwmodel2})(\ref{equation:m-inter})を用いて計算される確率が最大の形態素列$\hat{\Bdma{m}}$を式(\ref{equation:condition})で表わされる条件の下で計算し出力する.解の探索には動的計画法を用いることができ,入力の文字数$n$に対して計算時間のオーダーが$O(n)$となるアルゴリズムが提案されている\cite{The.Use.of.One-Stage.Dynamic.Programming.Algorithm.for.Connected.Word.Recognition}\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}. \section{未知語モデルの改良} この章では,確率的形態素解析の精度を向上させる方法として,未知語モデルに外部辞書を付加する方法を提案する.これは,確率的言語モデルの予測力を改善する方法であり,確率的形態素解析の精度向上を直接の目的としているわけではないが,確率的言語モデルの予測力の改善は,結果としてそれに基づく確率的形態素解析器の解析精度を向上させる.また,予測力の高い未知語モデルを推定するための未知形態素の実例の収集方法についても述べる.\subsection{外部辞書の付加}前章で述べた未知語モデル$M_{x,t}$は,未知形態素だけでなく既知形態素の表記も0より大きい確率で生成する可能性がある.この場合には,以下の式が示すように,未知形態素の生成確率の合計は1未満となる.以下の説明では品詞$t$を省略してある.また,形態素の集合を表わす記号${\calM}_{in}$をその表記の集合を表わすとしている.\begin{eqnarray*}&&\sum_{m\in{\calX}^{*}-{\calM}_{in}}M_{x}(m)+\sum_{m\in{\calM}_{in}}M_{x}(m)=\sum_{m\in{\calX}^{*}}M_{x}(m)=1\\&\Leftrightarrow&\sum_{m\in{\calX}^{*}-{\calM}_{in}}M_{x}(m)=1-\sum_{m\in{\calM}_{in}}M_{x}(m)<1\;\;\;(\becauseM_{x}(m)>0,\;\existsm\in{\calM}_{in})\end{eqnarray*}これは,言語モデルとしての条件を満たしてはいるが,クロスエントロピーという点で改善の余地がある.つまり,既知形態素の生成確率を何らかの方法で未知形態素に分配することで,未知形態素の生成確率が大きくなり,テストコーパスにそのような未知形態素が出現した場合に,テストコーパスの出現確率が大きくなる.既知形態素の生成確率の分配には,様々な方法が考えられるが,以下の式が表すように,すべての未知形態素にその生成確率に比例して分配する方法が一般的であろう.\begin{eqnarray}\label{equation:ukwmodel3}\lefteqn{M_{x}^{\prime}(\Conc{x}{h})}\nonumber\\&=&\left\{\begin{array}{lccl}0&&\mbox{if}&m\in{\calM}_{in}\\\frac{1}{1-\sum_{m\in{\calM}_{in}}M_{x}(m)}M_{x}(\Conc{x}{h})&&\mbox{if}&m\not\in{\calM}_{in}\\\end{array}\right.\end{eqnarray}これに対して我々は,辞書の見出し語などとして与えられる形態素の部分集合に等しく配分することを提案する.つまり,ある形態素の集合が与えられたとして,ここから既知形態素を除いた集合を${\calM}_{ex}$(${\calM}_{ex}\cap{\calM}_{in}=\phi$)として,この要素の生成確率を文字$n$-gramモデルによる確率と既知形態素の生成確率の合計を${\calM}_{ex}$の要素数で割った値の和とする.\begin{equation}\label{equation:ukwmodel4}M_{x}^{\prime}(m)=M_{x}(m)+\frac{1}{|{\calM}_{ex}|}\sum_{m\in{\calM}_{k}}M_{x}(m)\;\;\;(m\in{\calM}_{ex})\end{equation}これは,既知形態素の生成確率を,学習コーパスには現れないが辞書などから形態素であると考えられる文字列に優先的に分配し,それらの生成確率を相対的に高くすることを意味する.このような文字列の集合を外部辞書と呼ぶ.形態素解析が目的なので,外部辞書には文字列のほかにその品詞が記述されている必要がある.この方法により,確率言語モデルの枠内で,コーパスから推定された確率言語モデルに辞書などの異なる情報源の情報を付加できる.以上に述べた外部辞書を備えた未知語モデル$M_{x}^{\prime}$による文字列$m=\Conc{x}{h}$の出現確率は以下の式で表される.\begin{eqnarray*}\lefteqn{M_{x}^{\prime}(\Conc{x}{h})}\\&=&\left\{\begin{array}{lccl}0&&\mbox{if}&m\in{\calM}_{in}\\M_{x}(\Conc{x}{h})+\frac{1}{|{\calM}_{ex}|}\sum_{m\in{\calM}_{in}}M_{x}(m)&&\mbox{if}&m\in{\calM}_{ex}\\M_{x}(\Conc{x}{h})&&\mbox{if}&m\not\in{\calM}_{in}\wedgem\not\in{\calM}_{ex}\\\end{array}\right.\end{eqnarray*}これを式(\ref{equation:ukwmodel0})の代わりに用いる未知語モデルを外部辞書を備えた未知語モデルと呼ぶ.\subsection{未知形態素の実例の収集方法}文字$n$-gramモデルの確率値は,形態素$n$-gramモデルの場合と同様に,アルファベットを定義してから,未知形態素の実例における文字列の頻度から推定される.未知形態素の実例の収集の方法としては,学習コーパスに含まれるすべての形態素とすることや,学習コーパスにおける頻度が1である形態素とする\cite{単語頻度の期待値に基づく未知語の自動収集}などが考えられる.我々は,削除補間法を応用した以下の方法を提案する.\begin{quote}学習コーパスを$k$個の部分コーパスに分割し,$i$番目の部分コーパスの未知形態素の実例を,$i$番目の部分コーパス以外を学習コーパスとし$i$番目の部分コーパスをテストコーパスと見た場合の未知形態素とする.\end{quote}我々が提案する方法は,削除補間法を応用して,実際のテストコーパスにおける未知形態素と類似した実例を得ているので,他の方法よりも優れていると予測される.実際に,予備実験としてこれらの方法を実装し,予測力という規準で比較した.その結果,我々が提案する方法が最良であった.したがって,実験にはこの方法を用いた. \section{形態素クラスタリング} この章では,形態素$n$-gramモデルの一般化の一つであるクラス$n$-gramモデルを説明し,文献(提出中)を応用して形態素解析のためのクラスを自動的に学習する方法を提案する.前章と同様に,確率的言語モデルの予測力の改善を目的としているが,学習されたクラス$n$-gramモデルに基づく確率的形態素解析器の解析精度は,形態素$n$-gramモデルや人間の言語直観による品詞をクラスとした場合の品詞$n$-gramモデルに基づく確率的形態素解析器の解析精度より高くなると考えられる.\subsection{クラス$n$-gramモデル}クラス$n$-gramモデル\cite{Class-Based.n-gram.Models.of.Natural.Language}では,あらかじめ形態素をクラスと呼ばれるグループに分類しておき,先行するクラスの列を直前の事象とみなして分類する.このモデルでは,次の形態素を直接予測するのではなく,次のクラスを予測した上で次の形態素を予測する.以下の式で,${\calC}_{in}$は既知形態素に対応するクラスであり,これを品詞とすれば,品詞$n$-gramモデルとなる.\begin{equation}\label{equation:class_n-gram1}P(\Bdma{m})=\prod_{i=1}^{h+1}P_{c}(m_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})\end{equation}\begin{eqnarray}\label{equation:class_n-gram2}\lefteqn{P_{c}(m_{i}|c_{i-k}\cdotsc_{i-2}c_{i-1})}\nonumber\\&=&\left\{\begin{array}{lccl}P(c_{i}|c_{i-k}\cdotsc_{i-2}c_{i-1})P(m_{i}|c_{i})&&\mbox{if}&\existsc_{i}\in{\calC}_{in},\;m_{i}\inc_{i}\\P({\ttUM}_{t}|c_{i-k}\cdotsc_{i-2}c_{i-1})M_{x,t}(m_{i})&&\mbox{if}&\forallc_{i}\in{\calC}_{in},\;m_{i}\not\inc_{i}\\\end{array}\right.\end{eqnarray}この式の中の$c_{j}\;(j\leq0)$は,文頭に対応する特別な記号である.これを導入することによって式が簡便になる.また,$c_{h+1}$は,語末に対応する特別な記号であり,これを導入することによって,すべての可能な文字列に対する確率の和が1となる\cite{Syntactic.Methods.in.Pattern.Recognition}.形態素に基づくモデルの場合と同様に,確率$P(c_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})$の値および,確率$P(m_{i}|c_{i})$の値は,コーパスから最尤推定することで得られる.\begin{eqnarray*}P(c_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})&=&\frac{N(c_{i-k}c_{i-k+1}\cdotsc_{i})}{N(c_{i-k}c_{i-k+1}\cdotsc_{i-1})}\\P(m_{i}|c_{i})&=&\frac{N(m_{i},c_{i})}{N(c_{i})}\end{eqnarray*}この式において,クラスを品詞とすれば品詞$n$-gramモデルが得られ,形態素からクラスへの写像が全単射であれば,形態素$n$-gramモデルと等価になることが分かる.また,これをマルコフモデルと考えると,状態はクラスに対応する.形態素$n$-gramモデルと同様に,データスパースネスの問題に対処する方法として,補間を用いることができる\cite{Class-Based.n-gram.Models.of.Natural.Language}.これは,以下のように式(\ref{equation:m-inter})において形態素$m$をクラス$c$と読み変えれることで容易に得られる.\begin{equation}\label{equation:c-inter}P'(c_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})=\sum_{j=0}^{k}\lambda_{j}P(c_{i}|c_{i-j}c_{i-j+1}\cdotsc_{i-1})\end{equation}\begin{displaymath}ただし\;0\leq\lambda_{j}\leq1,\;\sum_{j=0}^{k}\lambda_{j}=1\end{displaymath}\subsection{形態素クラスタリング}確率言語モデルの形態素クラスタリングの課題は,クロスエントロピーが最も低くなる形態素とクラス(図\ref{figure:concept}の中の$c_{1},c_{2},\cdots,c_{x}$)の対応関係を算出することである.このようなクラスを用いて構築されたクラス$n$-gramモデルに基づく確率的形態素解析器の解析精度は,品詞$n$-gramモデルや形態素$n$-gramモデルに基づく確率的形態素解析器の解析精度よりも高くなることが期待される.従って,形態素クラスタリングの目的関数は,削除補間を応用することでクロスエントロピーを模擬すると考えられる以下のような値とした.\begin{equation}\label{equation:criterion}\overline{H}=\frac{1}{k}\sum_{i=1}^{k}H(M_{i},{\calS}_{i})\end{equation}ここで,$M_{i}$は$i$番目以外の$k-1$の部分コーパスから推定された確率言語モデルであり,${\calS}_{i}$は$i$番目の部分コーパス(文の列)を表す.ここで問題としているのは,確率的言語モデルとしてクラス$n$-gramモデルを用いた場合の形態素のクラスタリングである.この場合,コーパスは一定であり,確率的言語モデル$M$は形態素とクラスの関係$F$にのみ依存する.従って,上式の平均クロスエントロピーは,形態素とクラスの関係の関数とみなすことができる.この値がより小さいほうが,未知のコーパスに対してより良い言語モデルであることが予測される.よって,クラスタリングの目的は,式(\ref{equation:criterion})で定義される平均クロスエントロピーを最小化する形態素とクラスの関係を求めることである.\input{figure:concept.tex}形態素とクラスの対応関係としては,ある形態素が一定の確率で複数のクラスに属するという確率的な関係も考えられるが,解空間が広大になるので,本研究では形態素は唯一のクラスに属することを仮定した.よって,クラスの集合は形態素の集合の直和分割となる.形態素とクラスの対応関係$F$は,${\calM},{\calC}$をそれぞれ形態素の集合とクラスの集合とすると,関数$f:{\calM}\mapsto{\calC}\;(=2^{\calM})$を用いて表すことができ,この関数は以下の条件を満たす\footnote{$f$の値は形態素の集合である(例:$f(m_{1})=\{m_{1},m_{2},m_{3}\}$).}.\begin{displaymath}M=\bigcup_{m\inM}f(m)\end{displaymath}\begin{displaymath}\forallm\inM\;に対し\;m\inf(m)\end{displaymath}\begin{displaymath}f(m_{1})\not=f(m_{2})\Rightarrowf(m_{1})\capf(m_{2})=\phi\end{displaymath}解探索のアルゴリズム中で用いるために,形態素とクラスの対応関係に対して,以下の関数を定義する.\begin{itemize}\item$move:F\timesM\timesC\mapstoF$\\$move(f,m,c)$は,形態素とクラスの関係$f$に対して形態素$m$をクラス$c$に移動した結果得られる形態素とクラスの関係を返す.\end{itemize}クラスタリングの解空間はあらゆる可能な形態素とクラスの対応関係である.しかし,この数はある程度の大きさの語彙数に対しては非常に大きいため,これら全てに対して平均クロスエントロピーを計算し,これを最小化するクラス関係を選択するということは,計算量という観点から不可能である.平均クロスエントロピーの値はクラス関係の一部分の変更が全体に影響するという性質をもっているので,分割統治法や動的計画法を用いることもできない.以上のことから,我々は最適解を求めることを諦め,貪欲アルゴリズムを用いることにした.このアルゴリズムは以下の通りである(図\ref{figure:clustering}参照).なお,$\overline{H}$は式(\ref{equation:criterion})で与えられる平均クロスエントロピーでり,$t(m)$や$t(c)$は形態素$m$やクラス$c$の品詞を表わす.同一の品詞である形態素に対してのみ併合を試みるので,結果としてどのクラスも同一の品詞の形態素のみを要素に持つことに注意しなければならない.\begin{center}\begin{tabular}{|l|}\hline$M$を頻度の降順に並べ$\Stri{m}{n}$とする\\{\bfforeach}$i$($1,2,\cdots,n$)\\\hs$c_{i}:=\{m_{i}\}$\\\hs$f(m_{i}):=c_{i}$\\{\bfforeach}$i$($2,3,\cdots,n$)\\\hs$c:=\argmin_{c\in\{t(c)=t(m_{i})|\;\Stri{c}{i-1}\}}\overline{H}(move(f,m_{i},c))$\\\hs{\bfif}($\overline{H}(move(f,m_{i},c))<\overline{H}(f)$){\bfthen}\\\hs\hs$f:=move(f,m_{i},c)$\\\hline\end{tabular}\end{center}\input{figure:clustering}計算量は,二番目の{\bfforeach}での繰り返しの回数は単語数$|W|$に比例し,{\bfargmin}での繰り返しの回数はクラス数$|C|$に比例するので,全体で$O(|W|\cdot|C|)$である.クラス数$|C|$は,全ての単語が独立したクラスに分けられる場合に最大($|C|=|W|$)となり,全ての単語が同一のクラスとなる場合に最小($|C|=1$)となる.従って,初期化における全体の計算量は,最良の場合が$O(|W|)$であり,最悪の場合が$O(|W|^{2})$である.ただし,単語の並べ替えや一番目の{\bfforeach}の計算量は係数が非常に小さいと考えられるので,考慮に入れていない.次節で述べる実験の結果では,頻度の高い形態素を対象とする段階では多くの形態素がクラスに併合されずクラス数は形態素数に比例し最悪の場合に近い挙動を示したが,頻度の低い形態素を対象とする段階ではほとんどの形態素がクラスに併合されてクラス数はほとんど一定となり最良の場合に近い挙動を示した.頻度の低い形態素が多数を占めるので,計算量は実際にはかなり線形に近いと考えられる.頻度の高い形態素から移動を試みることとしているのは,頻度の高い形態素の移動のほうがパープレキシティに与える影響が大きいと考えられるので,早い段階での移動が後の移動によって影響されにくく,収束がより速くなると考えたためである.上述のアルゴリズムによって得られたクラス分類からさらに探索を進めてより良いクラス分類が得られるかを試みることができる.このアルゴリズムとして,さらに形態素の移動を試みること\cite{On.Structuring.Probabilistic.Dependences.in.Stochastic.Language.Modeling}やクラスの併合を試みること\cite{Class-Based.n-gram.Models.of.Natural.Language}が考えられる.我々は,これらのアルゴリズムを小さなコーパスに対する予備実験で適用してみたが,必要となる計算時間が膨大である割にはクロスエントロピーの改善が小さかった.よって,次章では,上述のアルゴリズムによる実験結果について述べる. \section{実験結果とその評価} 前節で述べた方法の有効性を確かめるため,以下の点を明らかにするための実験を行った.\begin{enumerate}\item外部辞書による解析精度の向上\item形態素クラスタリングによる解析精度の向上\end{enumerate}以下では,まず形態素解析精度の評価基準について述べ,実験の条件を明確にし,上述の実験の結果を提示し評価する.また,文法の専門家による形態素解析器との解析精度の比較を行なった結果について述べる.なお以下では,「クラス$n$-gramモデル」などの言語モデルを表す表現を,文脈から明らかな場合には,その言語モデルに基づく形態素解析器を表すためにも用いる.\subsection{評価基準}我々が用いた評価基準は,\cite{EDRコーパスを用いた確率的日本語形態素解析}で用いられた再現率と適合率であり,次のように定義される.EDRコーパスに含まれる形態素数を$N_{EDR}$,解析結果に含まれる形態素数を$N_{SYS}$,分割と品詞の両方が一致した形態素数を$N_{COR}$とすると,再現率は$N_{COR}/N_{EDR}$と定義され,適合率は$N_{COR}/N_{SYS}$と定義される.例として,コーパスの内容と解析結果が以下のような場合を考える.\begin{description}\item[コーパス]\\\\begin{tabular}{l}外交(名詞)\政策(名詞)\で(助動詞)\は(助詞)\な(形容詞)\い(形容詞語尾)\end{tabular}\item[解析結果]\\\\begin{tabular}{l}外交政策(名詞)\で(助詞)\は(助詞)\な(形容詞)\い(形容詞語尾)\end{tabular}\end{description}この場合,分割と品詞の両方が一致した形態素は「は(助詞)」と「な(形容詞)」と「い(形容詞語尾)」であるので,$N_{COR}=3$となる.また,コーパスには6つの形態素が含まれ,解析結果には5つの形態素が含まれているので,$N_{EDR}=6,\,N_{SYS}=5$である.よって,再現率は$N_{COR}/N_{EDR}=3/6$となり,適合率は$N_{COR}/N_{SYS}=3/5$となる.\subsection{実験の条件}実験にはEDRコーパス\cite{EDR.電子化辞書仕様説明書}を用いた.まず,これを10個に分割し,この内の9個を学習コーパスとし,残りの1個をテストコーパスとした.前章で述べたように,クラス関数の推定では,この9個の学習コーパスのうちの8つから$n$-gramモデルを推定し,残りの1つのコーパスに対してクロスエントロピーを求めるということを9通り行なって得られる平均クロスエントロピーを評価規準とする.それぞれのコーパスに含まれる文と形態素と文字の数(のべ)は表\ref{table:corpus}の通りである.既知形態素は,2個以上の学習コーパスに現れる59,956個の形態素とした.形態素bi-gramモデルは,これらに対応する状態の他に,各品詞の未知語に対応する状態(15個)と文区切り(文末と文頭)に対応する状態を持つ.同様に,クラスbi-gramモデルは,既知形態素をクラスタリングすることで得られるクラスに対応する状態と,各品詞の未知語に対応する状態と文区切りに対応する状態を持つ.\input{table:corpus.tex}形態素bi-gramモデルとクラスbi-gramモデルを比較するために,これらを同じ学習コーパスから構成し,同じテストコーパスに対してパープレキシティや形態素解析の精度を計算した.それぞれの言語モデルの構成の手順は以下の通りである.\begin{itemize}\item形態素bi-gramモデル\begin{enumerate}\item削除補間により式(\ref{equation:m-inter})の補間の係数を推定\itemすべての学習コーパスを対象に形態素bi-gramと形態素uni-gramを計数\end{enumerate}\itemクラスbi-gramモデル\begin{enumerate}\item削除補間により式(\ref{equation:m-inter})の補間の係数を推定\item前章で述べた方法($k=9$)でクラス関数を推定\item削除補間により式(\ref{equation:c-inter})の補間の係数を推定\itemすべての学習コーパスを対象にクラスbi-gramとクラスuni-gramを計数\end{enumerate}\end{itemize}未知語モデルは共通であり,各品詞(15個)に対して形態素bi-gramモデルと同様の手順で構成される.本実験では行なっていないが,文字に対するクラスタリングを行ない,これをクラスbi-gramモデルとすることも可能である.外部辞書の形態素集合は,EDR日本語単語辞書\cite{EDR.電子化辞書仕様説明書}の見出し語から既知形態素を除いた形態素集合と学習コーパスには出現するが既知形態素とならなかった形態素集合(分割された学習コーパスの1個にのみ現れた形態素)の和集合とした.\input{table:cluster.tex}品詞毎の形態素数とクラスタリングの結果得られたクラスの数を表\ref{table:cluster}に掲げた.平均要素数は,形態素数をクラス数で割った値である.この値は,内容語において高く,機能語において低いことが観測される.このことから,品詞$n$-gramモデルにおいては機能語を一般化し過ぎており,形態素$n$-gramモデルにおいては内容語を特殊化し過ぎているということが分かる.なお,対象となる59,956の形態素をクラスタリングするのに要した時間は,SPARCStation20(150MHz)で約4日であった.\subsection{外部辞書と形態素クラスタリングによる精度向上の評価}図\ref{figure:result}は,形態素クラスタリングの結果を用いたクラスbi-gramモデルの,外部辞書を持つ場合と持たない場合の,クロスエントロピーと形態素解析の精度である.このグラフから次のようなことが分かる.まず,学習コーパスの大きさと解析精度の関係であるが,解析精度は,コーパスの大きさに対して単調に増加している.しかし,コーパスがある程度大きくなるとこの増加量は小さくなっている.このことは,さらなる精度向上を達成するためには,学習コーパスを増やすという単純な方法は,コーパスの作成コストを考えると,得策ではないということを意味する.次に,外部辞書を付加することによる解析精度の向上であるが,クロスエントロピーの減少から予測される通り,外部辞書を付加することにより解析精度が向上した.グラフから分かるように,学習コーパスの大きさが小さい方が,外部辞書を付加することによる効果が大きい.この理由は,学習コーパスが大きくなると,外部辞書の元となる辞書などに記述されている形態素の大部分が学習コーパスに含まれることになり,テストコーパスに含まれる未知形態素の割合が減少することであると考えられる.この議論から,確率的形態素解析器を用いて学習コーパスと異なる分野の文を解析する場合には,未知形態素となるであろうその分野特有の用語(表記と品詞)を収集しておき,これを外部辞書として付加することでかなりの精度の向上が望めると考えられる.分野特有の用語の収集方法としては,その分野の専門用語辞書などを直接用いることや,その分野の大量の文例から$n$-gram統計を用いて抽出し品詞を推定すること\cite{nグラム統計によるコーパスからの未知語抽出}などが考えられる.表\ref{table:result}は,外部辞書を備えない場合と備えた場合の,形態素bi-gramモデルとクラスbi-gramモデルによるクロスエントロピーと形態素解析の精度である.また,先行研究との比較のため,外部辞書を備えていない場合の品詞tri-gramモデルによるクロスエントロピーも表中に記載している.この結果から,外部辞書の有無に関わらず,我々が提案する方法によって得られる単語のクラス分類を用いることで,形態素解析の精度が再現率と適合率の双方で向上していることが分かる.これは,クロスエントロピーの減少から予測される通りの結果である.このように,確率モデルを用いた言語の解析では,クロスエントロピーが減少するようにモデルを改善することで,自然に形態素解析などの解析精度が向上することが見込まれる.ただし,このクロスエントロピーと解析精度の関係は,単調であることが解析的に導出できるような確固たる関係ではないことに注意しなければならない.クロスエントロピーと解析精度の関係が逆になっている例(上述の関係の反例)として,表\ref{table:result}の中の「形態素bi-gram+外部辞書」と「クラスbi-gram」のエントロピーと適合率が挙げられる.\input{table:result.tex}文献\cite{EDRコーパスを用いた確率的日本語形態素解析}では,品詞tri-gramモデルを用いた形態素解析をについて述べている.この文献では,我々が今回用いた評価規準と全く同じ評価規準ではなく,単語分割のみや読みも含めた再現率と適合率を報告している.このような評価の一つとして72,000文で学習した品詞tri-gramモデルの単語分割の精度として90.6\%の再現率と91.7\%の適合率を報告している.このモデルとの比較を可能にするために,約47,000の学習コーパスで学習した「クラスbi-gram+外部辞書」の単語分割の精度を計算した.この結果,再現率は94.8\%であり,適合率は94.9\%であり,学習コーパスが少し小さいにもかかわらず品詞tri-gramモデルの結果を双方で上回っている.解析精度に関しては全ての条件が同じというわけではないので単純な比較は適切ではないが,この結果は,本手法の優位性を実験的に示すと考えられる.また,クロスエントロピー(表\ref{table:result}参照)の差は十分有意であると考えられるので,この点からも本手法の形態素解析の精度という点での優位性が十分予測される.しかし,より長い文脈から次の品詞を予測しているという品詞tri-gramモデルの良い点も無視できない.この点を採り入れて,形態素tri-gramモデルに対して形態素クラスタリングを実行し,その結果を用いてクラスtri-gramモデルを構築すれば,クロスエントロピーがさらに下がり,形態素解析の精度も上がると考えられる.ただし,実用とするためには,遷移表や解探索のための表が大きくなることによる記憶域の増大と可能な組合せの増加による解探索に必要な時間が増加するという問題にも注意を払う必要がある.\input{figure:result.tex}\subsection{文法の専門家による形態素解析器との比較}我々は,上述の実験に加えて,文法の専門家による形態素解析器と確率的形態素解析器を解析精度という点で比較するという実験を行なった.この際に最大の問題となるのは評価基準である.確率的形態素解析器の解析精度の比較は容易に行なえる.つまり,我々が上述した実験で行なったように,同一の学習コーパスと同一のテストコーパスを用いた解析結果の再現率と適合率を比較すればよい.これは英文における単語の品詞推定の精度の比較にも用いられる標準的な方法である(英語では単語区切りに曖昧性がないので再現率と適合率は同じ値になる).しかし,文法の専門家による形態素解析器の解析精度の比較は一般に容易ではない.これは,それぞれの文法の専門家によって形態素の定義(品詞体系や単語区切り)に違いがあり,正解となるべき形態素解析結果を共有できないことに起因する.その結果,形態素解析器の評価としては,あるいくつかの文の解析結果を文法の専門家も含めた形態素解析器の製作者が観察することで計算される値が用いられる.また,テストは最後に一回だけ行なわれるのではなく,テストの結果を見て形態素解析器を修正するということもあり,完全なオープンテストになっていないこともある.このようなテストの結果得られる精度は,客観性に欠けるので,おおよその目安としてのみ意味があり,複数の形態素解析器の比較に用いることはできない.この問題は,文法の専門家による形態素解析器と確率的形態素解析器の解析精度の比較を行なう際にも現れる.上述の問題を解決する方法として,同じ文法基準(品詞体系や単語区切)を持つ形態素解析済みコーパスと文法の専門家による形態素解析器を用いることが考えられる.これが,本研究で我々が選択した解決方法である.具体的には,京都大学で開発された文法の専門家による形態素解析器JUMAN\cite{日本語形態素解析システムjuman使用説明書.version.3.2}とその解析結果を人手で修正したコーパス\cite{京都大学テキストコーパス・プロジェクト}を用いた.つまり,コーパスを学習コーパスとテストコーパスに分割し(表\ref{table:corpus-juman}),学習コーパスから構成した確率的形態素解析器(外部辞書を備えたクラスbi-gramモデル)とJUMANを用いてテストコーパスを解析した結果を,テストコーパスにあらかじめ付与されている正解と比較して,それぞれの再現率と適合率を計算した.なお,外部辞書の形態素集合は,学習コーパスには出現するが既知形態素とならなかった形態素集合である.表\ref{table:result-juman}はこの結果である.この表から,テストコーパスにおいては,確率的形態素解析器の誤りが文法の専門家による形態素解析器の誤りに対して25\%程度少ないことが分かる.この実験で使用した解析済みコーパスがJUMANの出力の訂正であることや,コーパスの訂正の過程で訂正結果を参考にしてJUMANを改良していることを考えると学習コーパスでの比較が適切かも知れない.この場合は,確率的形態素解析器の解析精度は表\ref{table:result-juman}に示されるように圧倒的に良い.未知語モデルを文字クラスタリングしたクラス$n$-gramモデルとすることや,外部辞書の源としてJUMANの辞書や別のコーパスをJUMANで解析した結果から得られる学習コーパスに現れない高頻度の形態素を用いることで,確率的形態素解析器の精度はさらに向上すると考えられる.\input{table:corpus-juman}\input{table:result-juman}本実験で比較の対象とした文法の専門家による形態素解析器は,初版の完成から10年弱の期間を経ており,この間に莫大な人的資源を投入し様々な改良が施されている.一方,我々の確率的形態素解析器がパラメータ推定に用いた学習コーパスは8,584文であり,これを作成する費用はそれほど高くはない.これは,確率的形態素解析器が,文法の専門家による形態素解析器に対して優位である点の一つである.現状での学習コーパスの大きさは$10^{5.56}$文字と比較的小規模であり,図\ref{figure:result}のEDRコーパスにおける学習コーパスの大きさと解析精度の関係から,コーパスを増量し確率言語モデルを再学習するということを繰り返すことで,この品詞体系でのより高精度の形態素解析器が容易に実現できると予測される.これと並行して確率言語モデルの改善を行なうことも重要である.以下に,より良い確率的形態素解析器を実現するための指針をまとめる.\begin{itemize}\item解析済みコーパスの保守と増量\begin{description}\item[コーパスの修正]\\\人手による修正を受けた解析済みコーパスにも誤りはあり,さらなる修正が必要である.確率的形態素解析器の出力との比較は,これらの誤りを指摘する上で有効であろう.\item[コーパスの増量]\\\すでに指摘したように,学習コーパスは多ければ多いほど良い.新たな文に正解を付加するときには,人手による修正を受けたコーパスを全て用いて,最も良い言語モデルを学習し,その結果得られる確率的形態素解析器による解析結果を修正することで,人手による修正のコストを最小限に抑える必要がある.\item[品詞体系の変更]\\\形態素解析器の出力を用いた研究や開発の過程で,品詞体系の変更が要求されることがある.例えば,京都大学テキストコーパス\cite{京都大学テキストコーパス・プロジェクト}では,「みんな/名詞」と「みんな/副詞」を区別していない.このような区別が必要になれば,まず解析済みコーパスの一部をこの区別を加えて修正し,これと残りのコーパスで問題となる形態素が出現しないコーパスから形態素解析器を学習し,問題となる形態素が出現する文を曖昧な部分以外を固定して解析し直すことで,人手による修正のコストを最小限に抑えることができる.\end{description}\item確率的言語モデルの改良\\確率言語モデルの改善方法は,本論文で提案した形態素クラスタリング以外にも提案されてる.これらは,未知語モデルにも適用できる.\begin{description}\item[可変記憶長マルコフモデル]\\\$n$-gramモデルでの単語予測は固定長の文脈を条件部にもつが,これを先行する単語に応じて変化させる\cite{Part.of.Speech.Tagging.Using.a.Variable.Memory.Markov.Model}\cite{文脈木を利用した形態素解析}.\item[キャッシュモデル]\\\直前のいくつかの単語の分布(キャッシュ)を用いて$n$-gramモデルのパラメータを動的に変化させる\cite{A.Cache-Based.Natural.Language.Model.for.Speech.Recognition}.\item[複数のモデルの補間]\\\複数のクラス$n$-gramモデルを補間したモデルを用いる\cite{Improving.Statistical.Language.Model.Performance.with.Automatically.Generated.Word.Hierarchies}.\end{description}これらの改良をうまく組み合わせることで言語モデルの予測力が向上し,結果としてより高い精度の形態素解析器が実現できる.\item解探索のアルゴリズムやデータ構造の改良\\これによる解析速度や記憶容量の改良は,解析精度の向上にはつながらないが,実用とする上で重要である.解探索のアルゴリズムやデータ構造は,モデルのクラスに依存する点に注意しなければならない.\end{itemize}これらの改善は独立に行なえるので,組織的な取り組みが可能になる.このように,高い精度を実現するための方法論が確立していることが確率的手法の最大の利点であろう. \section{むすび} 本論文では,形態素クラスタリングと外部辞書の付加による確率的形態素解析器の精度向上について述べた.形態素クラスタリングとしては,形態素$n$-gramモデルをクロスエントロピーを基準としてクラス$n$-gramモデルに改良する方法を提案した.bi-gramモデルを実装しEDRコーパスを用いて実験を行なった結果,形態素解析の精度の向上が観測された.また,未知語モデルに外部辞書を付加する方法を提案した.同様の実験を行なった結果,形態素解析の精度の向上が観測された.これは,学習コーパスとは異なる性質を持つ分野の形態素解析器や解析済みコーパスを作成するのに特に有効であろう.両方の改良を行なったモデルによる形態素解析実験の結果の精度は,先行研究として報告されている品詞tri-gramモデルの精度を上回った.これは,我々のモデルが形態素解析の精度という点で優れていることを示す結果である.これらの実験に加えて,人間の言語直感に基づく形態素解析器との精度比較の実験を行なった.この結果,確率的形態素解析器の誤りは文法家による形態素解析器の誤りに対して25\%程度少なかった.形態素解析における確率的な手法は,人間の言語直感に基づく形態素解析器と比較して,現時点で精度がより高いという長所に加えて,今後のさらなる改良にも組織的取り組みが可能であるという点で有利である.\section*{謝辞}本研究を進めるに過程で,示唆に富んだコメントを頂いた日本アイ・ビー・エムの西村雅史氏と伊東伸泰氏に心から感謝する.また,本論文で報告している研究は文部省科学研究費補助金(課題番号00093069)の助成を受けている.ここに感謝の意を表する.\bibliographystyle{jnlpbbl}\bibliography{myplain,main}\include{biogr}\end{document}
V09N05-02
\section{はじめに} 機械翻訳では,統計ベースの翻訳システムのようにコーパスを直接使用するものを除き,変換規則などの翻訳知識は依然として人手による作成を必要としている.これを自動化することは,翻訳知識作成コストの削減や,多様な分野への適応時の作業効率化などに有効である.本稿では,機械翻訳,特に対話翻訳用の知識自動獲得を目的とした,対訳文間の階層的句アライメントを提案する.ここで言う句アライメントとは,2言語の対訳文が存在するとき,その1言語の連続領域がもう1言語のどの連続領域に対応するか,自動的に求めることである.連続領域は単語にとどまらず,名詞句,動詞句などの句,関係節などの範囲に及ぶため,まとめて句アライメントと呼んでいる.ここでは対象言語として,英語と日本語について考える.たとえば,\begin{itemize}\parskip=0mm\itemindent=20pt\item[E:]{\emIhavejustarrivedinNewYork.}\item[J:]{ニューヨークに着いたばかりです.}\end{itemize}\noindentという対訳文があった場合,ここから\begin{itemize}\itemindent=20pt\parskip=0mm\item{\eminNewYork}$\leftrightarrow${ニューヨークに}\item{\emarrivedinNewYork}$\leftrightarrow${ニューヨークに着い}\item{\emhavejustarrivedinNewYork}$\leftrightarrow${ニューヨークに着いたばかりです}\end{itemize}\noindentなどの対応部分を階層的に抽出することを目的とする.これを本稿では同等句と呼ぶ.同等句は2言語間の対応する表現を表しているため,用例ベースの翻訳システムの用例とすることができる.また,同等句同士は階層的関係を持つため,これをパターン化することにより,文をそのまま保持する場合に比べ,用例を圧縮することもできる.従来,このような句アライメント方法として,\shortciteA{Kaji:PhraseAlignment1992,Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Watanabe:PhraseAlignment2000,Meyers:PhraseAlignment1996}などが提案されてきた.これらに共通することは,\begin{enumerate}\labelwidth=25pt\itemsep=0mm\item構文解析(句構造解析または依存構造解析)と,単語アライメントを使用する\item構文解析器が最終的に出力した結果を元に句の対応を取る\item単語同士の対応は,内容語を対象とする\end{enumerate}\noindent点である.しかし,構文解析器が出力した結果のみを使用すると,句アライメントの結果が構文解析器の精度に直接影響を受ける.特に,従来提案されてきた方式は,構文解析が失敗するような文に関して,対策が取られていない.すなわち,本稿で念頭においている話し言葉のような,崩れた文が多く現れるものを対象とするには不適切であると考えられる.本稿では,構文解析と融合した階層的句アライメント方法を提案する.具体的には,構文解析失敗時においても部分解析結果を組み合わせることにより,部分的な句の対応を出力するよう,拡張する.また,内容語のみでなく,機能語の対応を取ることにより,句アライメント精度そのものの向上を目指す.以下,第\ref{sec-phrase-alignment}章では,句アライメントの基本手法について述べ,第\ref{sec-parsing-for-pa}章では,構文解析との融合を行う.第\ref{sec-word-alignment-for-pa}章では,本提案方式に適合した単語アライメントの機能について述べ,第\ref{sec-eval-alignment}章で提案方式と他の方式との比較などの評価を行う.なお,本稿は,\shortcite{Imamura:PhraseAlignment2001-2}を基に,加筆修正したものである. \section{階層的句アライメントの基本方式} \label{sec-phrase-alignment}対訳文,特に原言語を翻訳して対訳を作成した場合,別語族の言語であっても同じ種類の句に翻訳されることが多いと考えられる.たとえば,動詞句``{\emarriveinNewYork}''は,日本語も「ニューヨークに着く」という動詞句に翻訳される場合が多い.このような性質を踏まえ,我々は「対訳文の連続領域が同じ情報を持ち,かつ句の種類が同じであれば,それは同等な句と見なせる」と仮定する.これを処理可能な表現で置き換える必要があるため,ここでは,\begin{conditionlist}\item「同じ情報を持つ」→「2文間で,対応づけられている単語に過不足がない」\label{cond-same-information}\item「句の種類が同じ」→「構文カテゴリが同じ」\label{cond-same-category}\end{conditionlist}\noindentと解釈することとする.上記2条件を満たす句を抽出するには,以下の処理手順となる(図\ref{fig-proc}).\begin{figure}\begin{center}\epsfile{file=fig/fig-proc.eps,scale=0.812802}\caption{階層的句アライメントの処理フロー}\label{fig-proc}\end{center}\end{figure}\begin{enumerate}\labelwidth=25pt\itemまず,日本語文,英語文ともに形態素解析,構文解析を行う.\item次に,単語アライメントを行い,文間の単語レベルの対応をとる.ここでは,$W$個の単語対(これを単語リンクと呼び,$WL(\mbox{英語単語},\mbox{日本語単語})$と表現する)が抽出されたとする.単語アライメント方法は,特に統計ベースの方法が多数提案されているため\footnote{たとえば,\shortciteA{Melamed:WordAlignment2000,Sumita:WordAlignment2000}などを参照のこと.},その方式については本稿では特に議論しない.\item次に,単語リンクのうち,$i$個のリンク($1<i\leqW$)を選択し,それらをすべて含み,それ以外をまったく含まない構文解析木のノードをすべて取得する.\label{num-get-node}\item入力文1のノードと入力文2のノードを比較し,構文カテゴリが同じである場合,それを同等な句と見なす.ただし,文または助動詞を含んだ動詞句が複数取得された場合は最大範囲を示すものを,それ以外の場合で同じ種類の句が複数取得された場合は最小範囲を示すものを取得する.\label{num-combination}\item処理\ref{num-get-node},\ref{num-combination}を,すべての単語リンクの組み合わせについて試験する.\end{enumerate}\paragraph{処理例(1)}たとえば,英語``{\emIhavejustarrivedinNewYork.}''と,その日本語訳「{ニューヨークに着いたばかりです.}」があったとする.単語リンクが$WL(\mbox{\emNewYork},\mbox{ニューヨーク})$,$WL(\mbox{\emarrive},\mbox{着く})$の2つあり,構文木が図\ref{fig-example1}のようであったとすると,以下のとおり句の対応が取られる.\begin{figure}\begin{center}\epsfile{file=fig/fig-ex1.eps,scale=0.858984}\caption{英語と日本語の句の対応例}(上段が英語,下段が日本語を,言語間の実線は単語リンクを表す.以下同様)\label{fig-example1}\end{center}\end{figure}\begin{enumerate}\labelwidth=25pt\item葉に$WL(\mbox{\emNewYork},\mbox{ニューヨーク})$のみを含む(つまり,$WL(\mbox{\emarrive},\mbox{着く})$を含まない)英語構文木上のノードと,日本語構文木のノードを比較し,同じ種類のノードがある場合,それを同等句とする.この例では,{\ttNP(1)}同士,{\ttVMP(2)}同士のノードがそれに該当する.\item同様に,葉に$WL(\mbox{\emarrive},\mbox{着く})$のみを含む英語ノードと日本語ノードを比較し,同じ種類のノードを同等句とする.この例では,{\ttVP(3)}同士のノードがそれに該当する.\item次に,$WL(\mbox{\emNewYork},\mbox{ニューヨーク})$と$WL(\mbox{\emarrive},\mbox{着く})$の両方を含むノードを比較し,同じ種類のノードを同等句とする.この例では,{\ttVP(4)}同士,{\ttAUXVP(5)}同士,{\ttS(6)}同士が該当する.\end{enumerate}従って,最終的に表\ref{tbl-alignment-result}に示す6つの同等句が得られる.\begin{table*}\begin{center}\caption{句アライメント結果例}\label{tbl-alignment-result}{\smalltable\begin{tabular}{c|ll}\hline\hline構文カテゴリ&英語句&日本語句\\\hline{\ttNP}&{\emNewYork}&{ニューヨーク}\\{\ttVMP}&{\eminNewYork}&{ニューヨークに}\\{\ttVP}&{\emarrive}&{着く}\\{\ttVP}&{\emarriveinNewYork}&{ニューヨークに着く}\\{\ttAUXVP}&{\emhavejustarrivedinNewYork}&{ニューヨークに着いたばかりです}\\{\ttS}&{\emIhavejustarrivedinNewYork}&{ニューヨークに着いたばかりです}\\\hline\hline\end{tabular}}\end{center}\end{table*}本例は,2つの単語リンクが存在する場合であるが,3単語の場合はリンク1を含みリンク2,3を含まない句,リンク1,2を含みリンク3を含まない句,リンク1,2,3をすべて含む句のように,組み合わせ的に句を取得する.これにより,同等句が階層的に得られる.なお,英語と日本語では,当然,構文カテゴリは異なるが,今回は両者の構文カテゴリを言語共通と考えられる表\ref{tab-phrase-type}に示すような7種類に分類した.このような抽象化を行うことにより,異なる言語の構文カテゴリの比較が可能となる.\begin{table}\begin{center}\caption{構文カテゴリの分類}\label{tab-phrase-type}{\smalltable\begin{tabular}{ccl}\hline\hline句の種類&記号&\multicolumn{1}{c}{備考}\\\hline名詞句&{\ttNP}&\\動詞句&{\ttVP}&\\助動詞付動詞句&{\ttAUXVP}&助動詞を含んだ動詞句\\連用修飾句&{\ttVMP}&用言を修飾する句.\\連体修飾句&{\ttNMP}&体言を修飾する句.\\独立句&{\ttINDP}&感動詞等\\文&{\ttS}&\\\hlineその他&&言語依存の句.比較対象外\\\hline\hline\end{tabular}}\end{center}\end{table}\paragraph{処理例(2)}言語が異なると,単語同士が1対1に対応できたとしても,品詞が異なることも多い.そのような句を構文カテゴリによる制約なしで対応づけると,不自然に短い単位となり,対訳として不適切になると考えられる.しかし,本稿で述べる方式では,句の種類が同じもののみを同等句として取得するため,同等句が不自然に短くならない.\begin{figure}\begin{center}\epsfile{file=fig/fig-ex2.eps,scale=0.91073}\caption{品詞が異なる場合の対応例}\label{fig-example2}\end{center}\end{figure}たとえば,英語``{\emBusinessclassisfullybooked.}''と日本語「{ビジネスクラスは予約で一杯です}」から同等句を抽出することを考える(図\ref{fig-example2}).単語アライメントで$WL(\mbox{{\emfully}/ADV},\mbox{一杯/名詞})$,$WL(\mbox{{\embook}/V},\mbox{予約/名詞})$の単語リンクが得られたとしても,どちらか一方の単語リンクのみを含んで構文カテゴリが同じノードはない.しかし,両者を同時に含み,同じ構文カテゴリを持つノードとしては{\ttVP(2)}があるので,``{\embefullybooked}''と「{予約で一杯です}」が同等句として最初に抽出される.\paragraph{処理例(3)}意訳の例を図\ref{fig-example3}に示す.この例では,英語``{\emfly}''を日本語「{飛行機で行く}」と訳しているため,両者は単語アライメントで対応づけられていないにも関わらず,最終的な出力では英語``{\emflytoNewYorktomorrow}''と日本語「{ニューヨークに明日飛行機で行く}」が対応づけられている.つまり,間接的に``{\emfly}''と``{飛行機で行く}''が対応づけられる.このように,本方式では,単語アライメントで対応が取れないような意味的な翻訳がされた句(言い換えると,単語の直訳でない句)もある程度対応づけることができる.\begin{figure}\begin{center}\epsfile{file=fig/fig-ex3.eps,scale=0.92316}\caption{意訳の場合の対応例}\label{fig-example3}\end{center}\end{figure}単語リンク不足のときの句アライメントについては,\ref{sec-wa-accuracy}で詳細を述べる.\newpage \section{句アライメントと構文解析の融合} \label{sec-parsing-for-pa}\ref{sec-phrase-alignment}章で述べた方法は,構文解析結果が一意に決まったと仮定している.しかし,構文解析結果を一意に決定した後に句アライメント処理を行うと,句アライメント結果が構文解析結果に直接影響される.たとえば,構文解析器が解析出来ない文は,句アライメント処理を行えない.また,誤った構文解析結果を元に句アライメント処理を行えば,句アライメント結果も誤る可能性が高い.構文解析エラーは大きく以下の2種類に分類することができる.\begin{itemize}\itemsep=0mm\item曖昧性の問題\\構文解析結果の候補が複数あり,それを選択ミスする場合.この場合,構文解析結果が誤ったものになる.\item解析木作成失敗\\文法(書き換え規則)が不足しており,文全体をカバーする解析木の作成に失敗する場合.この場合は通常,構文解析器からの出力がない.\end{itemize}このうち,曖昧性は単言語の構文解析では必ず発生する問題である.一方,解析木作成失敗は,稠密な文法を用意すれば解決可能である.しかし,対話翻訳をターゲットにする場合,文法的な崩れの多い話し言葉を扱わなければならないという問題がある.また,機械翻訳のように複数の言語を扱う場合,言語によってツール・コーパス等の整備状況が異なっているため,すべての言語において失敗のない構文解析器を用意できる可能性は低い.もし,用意できない場合は文法を人手で作成するしかなく,解析木作成失敗は必ず起こりうる問題となる.本提案方式では,以下の特徴および手法を利用して句アライメント処理と構文解析を融合させることにより,曖昧性の問題,解析木作成失敗の解決を図る.\subsection{言語間の構造の類似性を利用した曖昧性解消}\label{sec-disambiguation}個々の言語の構文解析で発生した曖昧性は,2言語を対応づけることにより,ある程度解消することができる.これは2言語間の構造の類似性を利用するものである\cite{Kaji:PhraseAlignment1992,Matsumoto:PhraseAlignment1993}.たとえば,英語におけるPPアタッチメントの曖昧性は,対応する日本語の構造が一意に決まると解消することができる.図\ref{fig-pp}での`{\emforbreakfast}'は,点線の構文木のように`{\emneed}'と組み合わさってVPを形成することもできるし,実線の構文木のように`{\emroomservice}'と組み合わせてNPを形成することもできる.しかし,日本語の構造を解析すると,`{朝食}'は`{ルームサービス}'とともにNPを形成しているため,英語についても同様に,``{\emroomserviceforbreakfast}''で名詞句を構成していると考えるのが妥当である.\begin{figure}\begin{center}\epsfile{file=fig/fig-pp.eps,scale=0.893807}\caption{PPアタッチメントの曖昧性解消例}\label{fig-pp}\end{center}\end{figure}この現象は,言語によって曖昧性が発生しやすい条件が異なっているため,それら条件のANDを求めることにより,曖昧性を解消できる場合があることを示している.このように,2言語の構造が類似した時に高いスコアを出す評価関数を設定することにより,曖昧性を評価・解消することができる.今回は,英語,日本語の全ノード(非終端記号)について,対応づけを行い,その対応づけられたノード数と単語リンク数の和を評価値として,最大スコアを持つ構造を採用することとした.これを本稿では,{\bf句対応スコア}と呼ぶ.図\ref{fig-pp}では,実線の構造では{\tt(1)NMP},{\tt(2)NP},{\tt(3)VP}同士が同等句と判定されるが,点線の構造では,同じ範囲の同等句は{\ttVP(1)}のみである.したがって,実線の構造の句対応スコアは2だけ大きくなり,こちらの構造が採用される.なお,今回は単語アライメントの結果は一意に決定しているが,もし,たとえば同じ単語が複数回出現するなど,単語アライメント結果自体に曖昧性がある場合も,句対応スコアが最大となる単語リンクの組み合わせを探索することにより,上記評価尺度である程度解消することができる.\subsection{部分解析結果の組み合わせによる解析失敗への対応}\label{sec-partial}本稿で述べる句アライメントは,構文解析器としてチャートパーザを用いている.このパーザは,文法(書き換え規則)が不足して,解析木の作成に失敗する場合,通常何も出力することはないが,パーサ内のアジェンダに部分解析結果を残している.つまり,部分的ではあるが,正しい句の候補がアジェンダ内にあるということである.これらを適切に組み合わせて用いることができれば,文法不足による解析失敗に対応できる.この方法は,特に文法的な崩れが多い話し言葉で有効である\cite{Takezawa:Parsing1996j}.組み合わせを行う際は,その部分木が適切かどうか検査する必要があるが,その評価基準に\ref{sec-disambiguation}節で述べた句対応スコアが利用できる.もちろん,解析が成功した場合(すなわち,文全体が1つの木で表現できた場合)は,その解析結果を優先しなければならないため,トータルの部分木数が少ない組み合わせを優先するよう,\ref{sec-disambiguation}節の評価尺度を修正した.最終的な評価尺度は以下のとおりとなる.\begin{enumerate}\labelwidth=25pt\item2つの入力文の句を比較し,句対応スコアが最大の句を対応する候補として取り出す.\item文全体について,句の対応ノード数の総和をとり,最大となる句の列を解析結果として採用する\item同点の句列が複数存在する場合は,句の数が最小のものを解析結果とする.\end{enumerate}しかし,すべての部分解析結果の組み合わせを試した場合,組み合わせ数は指数的に増大する.この問題を回避するため,今回,形態素解析で使われている2パスの探索手法である前向きDP後ろ向き$A^{*}$アルゴリズム\cite{Nageta:ForwardDPBackwardAStar1994}を使用した.\begin{figure*}\begin{center}\epsfile{file=fig/fig-search.eps,scale=0.893444}\caption{部分解析結果組み合わせ探索例}\label{fig-search}(三角は構文解析の部分結果,三角内の数字は句対応スコア,\\網掛けは最終的に探索された句を表す.)\end{center}\end{figure*}本探索手法を用いた部分解析結果組み合わせ法について説明する.(図\ref{fig-search}.説明上,片言語の句のみを示す).なお,ここで各部分木の句対応スコアは予め算出されているものとする\footnote{現在のインプリメンテーションでは,2言語のすべての部分木同士について句対応スコアを算出し,その後に探索を行っている.したがって,句対応スコア算出には$\mbox{英語部分木数}*\mbox{日本語部分木数}$に比例した時間がかかる.句対応スコアは,部分木の下位ノードの句対応スコアを再帰的に加算したものであるので,下位ノードから(ボトムアップに)算出し,重複ノードの再計算を避けている.}.まず,片言語(ここでは英語とする)のすべての部分木をラティス構造に配置する.前向き探索時には,動的計画法を用いて始点からエッジ$i(0\leqi\leq\mbox{形態素数}N)$までの句対応スコアの最大値を算出する.これを便宜上見積スコアと呼ぶ.この時,どの経路を通過したかは記録しない.見積スコアは,始点からエッジ$i$まで,このスコアで至る組み合わせが存在することを示している.次に後ろ向き探索では,$A*$探索を用いて最適な組み合わせを探索する.このとき,$A*$アルゴリズムのヒューリスティック関数値として,見積スコアを用いる.見積スコアは最も精度のよいヒューリスティック関数値であるので,無駄な経路をほとんど展開することなく,最適経路を探索する.このように,本探索手法を用いると,ビーム探索のように枝刈りをする必要がなく,形態素数にほぼ比例した時間で最適な英語句の列を得ることができ,それに対応する日本語句の列も得られる.しかし,1つの英語句に対応する日本語句は複数の候補があるため,一部,日本語句同士が重なる場合がある.そのため,後ろ向き探索の経路展開時に日本語句列の範囲をチェックし,重なりがある経路を展開しないという処理が必要となる.その場合,展開中の経路が無効になる可能性があるが,$A*$探索は,展開中経路が無効となっても,次点の経路を展開するため,探索結果は,句対応スコアの総和が最大で,かつ日本語句の列に重なりがない最適解となる. \section{単語アライメントに要求される機能} \label{sec-word-alignment-for-pa}\subsection{機能語間,機能語--内容語対応}\label{sec-func-word}機能語は様相,法などを表しているため,文の表現のバラエティを表すことが多い.これを無視してむやみに句の対応をとると,意味的には問題がないが,表現上,対訳として不適切なものが同等句として抽出されることがある.特に,日本語では,時制などまでが機能語で表されるため,これを扱うことは重要である.たとえば,図\ref{fig-func-word}の例では,$WL(\mbox{\emafter},\mbox{以降})$の対応がない場合,$WL(\mbox{\emthree},\mbox{三時})$のみを使って,``{\emthree}''と``{三時以降}''という{\ttNP(1)}を対応づけてしまう.しかし,$WL(\mbox{\emafter},\mbox{以降})$がある場合,{\ttNP(1)}ノードは単語リンクに過不足があるため,対応づけられない.このように,機能語間,または機能語--内容語間対応を追加して,\ref{sec-phrase-alignment}章で述べた条件\ref{cond-same-information}の制約を強くすることにより,誤った同等句を抽出しにくくなり,精度を向上させることができる.\begin{figure}\begin{center}\epsfile{file=fig/fig-func.eps,scale=0.928378}\caption{機能語--内容語対応文の例}\label{fig-func-word}\end{center}\end{figure}\subsection{単語アライメントの精度と句アライメントの関係}\label{sec-wa-accuracy}現在のところ,単語アライメントの適合率,再現率共に100\%の方式は提案されていない.すると,本方式を実際に用いる場合は,単語アライメント誤り,または不足が含まれていると考えるのが妥当である.では,本方式にとっては,適合率と再現率のどちらが重要であるのか?単語アライメントの適合率が低下すると言うことは(再現率を100\%に保っていると仮定すると),不要な単語リンクが含まれているということである.\ref{sec-func-word}節でも述べたが,本方式は単語リンクが増加すると,条件\ref{cond-same-information}の制約が強くなり,抽出されるべき同等句が抽出されなくなる.しかし,これはあくまで制約が強くなっているため,誤った同等句の抽出は起こりにくい.一方,単語アライメントの再現率が低下した場合(言い換えると,本来あるべき単語リンクが不足した場合)は,条件\ref{cond-same-information}の制約が緩くなる.そのため,\ref{sec-disambiguation}節で述べたPPアタッチメントの曖昧性解消や,動詞の有効範囲に曖昧性が生じるため,誤った同等句を抽出しやすくなる.このように,本方式に適合する単語アライメントは,再現率を重視したもの,言い換えると,少々不要な単語リンクが含まれていても,必要な単語リンクがほとんど含まれているものであることが望ましい. \section{実験・評価} \label{sec-eval-alignment}\subsection{実験条件}旅行会話に関する基本表現例文300文をランダムに取り出し,句アライメント実験を行った.この基本表現例文集は,話し言葉を意識して人間が作成したものである.そのため,完全な話し言葉とはなっていないが,書き言葉に比べると崩れた文体になっている.たとえば,``{\emYou'reverywelcome,sir,pleaseletmeknowifyouhaveanyproblems,I'llbehappytohelp}''のように,感動詞や単文が接続詞・接続助詞なしで並んでいる文や,格助詞が抜けた文などが混じっている.そのため,準話し言葉コーパスとして本テストセットを使用した.テストセットの1文あたりの平均形態素数は,英語8.95,日本語8.81と,比較的短い.その他の実験条件は以下のとおりである.\begin{itemize}\item形態素解析は,機械タグ付け後,人手で修正したものを使用した.\item単語アライメントは,内容語に関しては人手で単語リンクを作成し,機能語に関しては予め作成した対訳辞書を用いて行った.\item構文解析器は,基本的なボトムアップチャートパーサを用いた.使用した書き換え規則は文脈自由文法で,英語286,日本語254規則である.用いた構文解析器の本テストセット上での解析精度を表\ref{tbl-parsing-accuracy}に示す.\footnote{ここでは,\shortciteA{Collins:StatisticalParsing1997,Sekine:ApplePie1995,Charniak:StatisticalParsing2000}等の指標を用いた.\begin{eqnarray*}\mbox{ラベル適合率}&=&\frac{\mbox{構文解析結果の正しいノード数}}{\mbox{構文解析結果の総ノード数}}\\\\\mbox{ラベル再現率}&=&\frac{\mbox{構文解析結果の正しいノード数}}{\mbox{正解構文木の総ノード数}}\\\\\mbox{交差括弧数}&=&構成素(部分木)の境界が,構文解析結果と正解構文木の間で異なった数\end{eqnarray*}\vspace*{-10pt}}\footnote{文法を言語別に開発したが,結果的に解析出力数が英語・日本語ともに200文となった.}英語構文解析器の一つである,\shortciteA{Charniak:StatisticalParsing2000}\footnote{\ttftp://ftp.cs.brown.edu/pub/nlparser/}の場合,40単語以下の文でラベル適合率90.1\%,ラベル再現率90.1\%と報告されており,それに比べると,本解析器の精度はラベル再現率が低い(すなわち,解析失敗が多い).これは,前述の崩れた文を解析したためと,文法を人手で作成しているため,すべての言語現象をカバーできなかったためである.\item句アライメント結果の第1候補について,抽出された句をランダムに300句選択し,その正しさを,文字列として評価者が判定した.評価者は,英語に堪能な日本語ネイティブ,日本語に堪能な英語ネイティブ各1名で,その平均を算出した.評価は,以下の3段階で行った.\begin{itemize}\itemsep=0mm\item[A:]正解.英語から日本語への翻訳,日本語から英語への翻訳どちらから見ても可能な訳である.\item[B:]間違いではないが,文脈に依存するもの.この文に限った場合,英語から日本語への翻訳,または日本語から英語への翻訳のどちらかが可能な訳であるもの.\item[C:]不正解.英語から日本語への翻訳,日本語から英語への翻訳どちらも誤り.\end{itemize}\end{itemize}\begin{table*}\begin{center}\caption{実験に使用した構文解析器の単体性能}\label{tbl-parsing-accuracy}{\smalltable\begin{tabular}{ccc}\hline\hline&英語&日本語\\\hline文数&300&300\\解析出力数&200(67\%)&200(67\%)\\候補総数(1出力あたり)&836(4.18)&394(1.97)\\ラベル適合率&90.5\%&93.1\%\\ラベル再現率&50.8\%&52.6\%\\1出力あたりの平均交差括弧数&0.487&0.447\\交差括弧なし文数&144(48\%)&160(53\%)\\\hline\hline\end{tabular}}\end{center}\end{table*}\subsection{句アライメント用構文解析の効果}\paragraph{各機能組み込み時の性能の差異}まず,以下の3方式で,句アライメントの性能を測定した結果を,表\ref{tbl-accuracy}に示す.同表中の句数は,評価者がそのランクと判定した同等句数を評価者毎にカウントしたもので,適合率は,評価対象同等句(300句*2名)のうちの該当ランクの同等句の割合を表す.\caselist{{\bf(提案方式)}構文解析中に,アジェンダから候補を取り出し,句対応スコアの総和が最も高くなる組み合わせを探索した場合.}\label{case-part}\caselist{構文解析器が全体を解析できた文のみに対して,第1候補を選択し,句アライメントを行った場合.すなわち,曖昧性の問題,解析木作成失敗に対して,何も対処しない場合.}\label{case-one}\caselist{構文解析器が全体を解析できた文のみに対して,すべての候補の組み合わせで句アライメントを行い,句対応スコアが最も高い結果を選択した場合.すなわち,句対応スコアを用いて曖昧性解消を行った場合に相当する.Case\ref{case-one}と比較することにより,句対応スコアの効果を測ることができる.また,Case\ref{case-part}と比較することにより,部分解析の効果を測ることができる.}\label{case-pscore}\begin{table*}\begin{center}\caption{各機能組み込み時の同等句抽出数,その精度比較}\label{tbl-accuracy}{\smalltable\footnotesize\begin{tabular}{l|l|ccc|ccc}\hline\hline&&文数&解析出力数&抽出同等句数&\multicolumn{3}{|c}{同等句精度}\\\cline{6-8}&&&&(1出力あたり)&ランク&句数&適合率\\\hline提案方式&Case\ref{case-part}&300&296&1,676(5.66)&A&248+269&86.2\%\\&&&&&B&30+5&5.8\%\\&&&&&C&22+26&8.0\%\\\hline句アライメン&Case\ref{case-one}&300&176&726(4.13)&A&249+270&86.5\%\\ト方法を変え&&&&&B&30+8&6.3\%\\た場合&&&&&C&21+21&7.0\%\\\cline{2-8}&Case\ref{case-pscore}&300&177&822(4.64)&A&264+267&88.5\%\\&&&&&B&18+3&3.5\%\\&&&&&C&18+30&8.0\%\\\hline単語アライメ&Case\ref{case-content}&300&295&1,703(5.77)&A&240+258&83.0\%\\ント結果を変&&&&&B&31+4&5.8\%\\化させた場合&&&&&C&29+36&10.8\%\\\cline{2-8}&Case\ref{case-func-precision}&300&276&1,018(3.69)&A&245+266&85.2\%\\&WA適合率50\%&&&&B&17+0&2.8\%\\&WA再現率100\%&&&&C&38+31&11.5\%\\\cline{2-8}&Case\ref{case-func-recall}&300&272&1,147(4.22)&A&209+230&73.2\%\\&WA適合率100\%&&&&B&21+4&4.2\%\\&WA再現率50\%&&&&C&70+66&22.7\%\\\hline\end{tabular}}\end{center}\end{table*}まず,Case\ref{case-part}について,抽出された同等句の精度(ランクAのみ)を見ると約86.2\%と,比較的高い精度で同等句を抽出している.Case\ref{case-one}とCase\ref{case-pscore}を比較すると,Case\ref{case-pscore}で抽出同等句数が増加している.句対応スコアは,構造が異なる候補がある場合,できる限り句対応が多い候補を選択するため,抽出同等句数が増加する.しかし,同等句の精度を見ると,Aランクでは若干向上した程度である.精度がほぼ同じ理由は,本方式は本質的に誤った抽出を行いにくく,Case\ref{case-one}における誤った構文解析木のノードが無視されたためと考えられる.また,Case\ref{case-one}・Case\ref{case-pscore}とCase\ref{case-part}の比較では,Case\ref{case-part}はほとんどすべての文に対して何らかの結果を出力している.そのため,抽出同等句数も約2倍と増加しているが,精度はCase\ref{case-one}と同程度である.したがって,句対応スコアは部分解析結果の組み合わせ処理においても,効果を表しているといえる.部分解析は,非文法的な文に対して特に有効であるため,話し言葉で効果を発揮する.\subsection{単語アライメント精度の影響}単語アライメント精度が,句アライメントにおよぼす影響を調べるため,単語リンクを変えて実験を行った.なお,句アライメント方法はすべてCase\ref{case-part}を使用している.結果を表\ref{tbl-accuracy}に示す.\caselist{単語リンクを内容語のみに限った場合.Case\ref{case-part}と比較することにより,機能語・内容語間対応の影響を測ることができる.}\label{case-content}\caselist{Case\ref{case-part}で用いた単語リンクを正解(適合率,再現率双方ともに100\%)と見なし,単語アライメントの適合率のみを50\%〜100\%に低下させた場合.つまり,不要な単語リンクが含まれている場合の影響を測ることができる.不要な単語リンクは,ランダムに単語対を選択し,正解単語リンクに含まれていないものを追加した.単語アライメント適合率(WA適合率)および再現率(WA再現率)は以下の式で表す.}\label{case-func-precision}\vspace*{-10pt}\begin{eqnarray*}\mbox{WA適合率}&=&\frac{\mbox{正解単語リンク数}}{\mbox{正解単語リンク数}+\mbox{不要な単語リンク数}}\\\\\mbox{WA再現率}&=&\frac{\mbox{正解単語リンク数}-\mbox{削除リンク数}}{\mbox{正解単語リンク数}}\end{eqnarray*}\vspace*{3pt}\caselist{単語アライメントの適合率を固定にし,再現率のみを50\%〜100\%に低下させた場合.つまり,単語リンクが不足している場合の影響を測ることが出来る.削除リンクは,正解単語リンクからランダムに選択した.}\label{case-func-recall}\paragraph{機能語対応の効果}Case\ref{case-part}とCase\ref{case-content}の結果を比較すると,内容語の単語リンクに限った場合,抽出同等句数が若干増加するが,精度は若干低下する.念のため,Case\ref{case-part}とCase\ref{case-content}で異なった句アライメント結果が得られたもの321同等句から,Case\ref{case-part}のみに現れた50句,Case\ref{case-content}のみに現れた50句を取り出し,日本語ネイティブ1名で再評価したところ,A評価となったものは,Case\ref{case-part}では36句(72\%),Case\ref{case-content}では14句(28\%)と,明らかな相違が現れた.したがって,機能語対応を含めることにより,句アライメント精度が向上することは確認された.\paragraph{単語アライメント精度の影響}Case\ref{case-func-precision}とCase\ref{case-func-recall}の抽出同等句数の変化を図\ref{fig-variable-word-accuracy}に示す.適合率を変化させた場合,再現率を変化させた場合のどちらも,単語アライメント精度が低下すると,同じように抽出同等句数が減少するが,WA適合率が低下した方が,抽出句数の低下が若干大きい.\begin{figure}\begin{center}\epsfile{file=fig/fig-prec-recall.eps,scale=0.629921}\caption{単語アライメント精度を変化させたときの抽出同等句数}\label{fig-variable-word-accuracy}\end{center}\end{figure}一方,表\ref{tbl-accuracy}を見ると,WA適合率を低下させても同等句の精度はほとんど変化がなく,WA再現率を低下させた場合は明らかに句アライメント精度も低下している.したがって,\ref{sec-wa-accuracy}節で述べたように,本提案方式は,単語アライメントの適合率より再現率の方が句アライメントの精度に影響をおよぼしやすいと言える.つまり,本方式に適合した単語アライメントは,少々誤りを含んでいても,できるだけ多くの単語リンクを与える方が句アライメントの精度を向上させやすい.\subsection{同等句抽出例}本提案方式による同等句抽出例を表\ref{tbl-proposed-examples}に示す.\begin{table*}\begin{center}\caption{提案方式の句アライメント結果}\label{tbl-proposed-examples}{\smalltable\begin{tabular}{c|c|ll}\multicolumn{4}{c}{\bf(A)単文・感動詞の連続}\\\multicolumn{4}{l}{英語:Allright,Iunderstand,hereisyourpassportandticket.}\\\multicolumn{4}{l}{日本語:オーケー,わかりました,はい,あなたのパスポートと航空券です.}\\\hline\hlineNo.&構文カテゴリ&英語句&日本語句\\\hline1&{\ttS}&{\emIunderstand}&{わかりました}\\2&{\ttAUXVP}&{\emunderstand}&{わかりました}\\3&{\ttVP}&{\emunderstand}&{わかる}\\4&{\ttS}&{\emhereisyourpassportandticket}&{あなたのパスポートと航空券です}\\5&{\ttAUXVP}&{\emisyourpassportandticket}&{あなたのパスポートと航空券です}\\6&{\ttVP}&{\embeyourpassportandticket}&{あなたのパスポートと航空券です}\\7&{\ttNP}&{\emyourpassport}&{あなたのパスポート}\\8&{\ttNP}&{\emticket}&{航空券}\\\hline\hline\multicolumn{4}{c}{}\\\multicolumn{4}{c}{}\\\multicolumn{4}{c}{\bf(B)格助詞欠落の文}\\\multicolumn{4}{l}{英語:Pleaseretrievemycoat.}\\\multicolumn{4}{l}{日本語:預けたコート,出してください}\\\hline\hlineNo.&構文カテゴリ&英語句&日本語句\\\hline1&{\ttS}&{\empleaseretrieve}&{出してください}\\2&{\ttVP}&{\emretrieve}&{出す}\\3&{\ttNP}&{\emmycoat}&{コート}\\\hline\hline\end{tabular}}\end{center}\end{table*}例(A)は,単文,感動詞が接続詞,接続助詞なしで連続しているため,英語・日本語ともに構文解析が失敗した例である.しかし,本方式を用いると,単文として対応づけられる部分については,その下位構造も含めて同等句として抽出される.なお,本来の英語構造は``[{\emyour}[{\empassportandticket}]]''となるべきところ,``[[{\emyourpassport}]{\emand}[{\emticket}]]''と,並列句の解析が誤っているため,No.7および8の同等句が抽出されている.並列句は,日本語・英語ともに構造が曖昧な場合が多く,両者の構造を比較しても曖昧性が解消できないことが多い.例(B)は,日本語の格助詞が欠落した文である.この場合,日本語の構文解析だけが失敗するが,部分的な3つの同等句を抽出する.No.1の同等句が{\ttS}として抽出されるのは,日本語の構文解析木がそれ以上の大きな構造を作成できないためである.しかし,「預けたコート」が呼び掛けの意図で用いられていると解釈した場合,例(A)と同じように,``pleaseretrieve''と``出してください''で対応づけられていても誤りではない.このように,本方式を用いると,部分的な同等句を出力することができる. \section{関連研究} 2言語間の構造同士の対応を取ることにより,句レベルの対応を階層的に取得する方法としては,先行研究では以下のものが発表されている.まず,句構造を基本とする研究としては,\shortciteA{Kaji:PhraseAlignment1992}の方法がある.単語レベルの対応を基に,句構造のノード間の対応を取るもので,筆者の研究の基となったものである.しかし,構文カテゴリ制約を使用していないため,単語リンクの両端が異なる品詞を持つ場合,不当に短い単位で同等句を抽出する.依存構造を基本とする研究としては,\shortciteA{Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Yamamoto:PhraseAlignment2001j,Watanabe:PhraseAlignment2000,Meyers:PhraseAlignment1996}が挙げられる.依存構造を基にする場合,ノードそのものが最小単位の名詞句,動詞句,副詞句等を表しているため,構文カテゴリ情報を用いなくともある程度の句レベル対応を取ることができる.しかし,\shortciteA{Kaji:PhraseAlignment1992}の手法と同様の問題があると考えられる.\shortciteA{Wu:SimultaneousGrammar1995}は,構文解析後に構造の対応を取るのではなく,予め2言語間で対応づけられた構文解析規則を用意しておき,2言語同時に解析を行うことにより,構文解析と句レベルの対応づけを同時に行う手法を提案している.この方法で予め用意する必要があるのは,1単語同士の対応規則(終端記号同士の対応)である.言い換えると,単語アライメントのみを必要とする.しかし,単語同士の対応が十分つくような直訳文では機能するが,構文制約が弱いため,意訳等を含む一般的な対訳文,特に本稿で目指している話し言葉には向かないと考える.また,いずれの方法も,構文解析に失敗する文の救済策については述べられていない.構文解析は,文法設計者が意図したドメインでの性能は高いが,別ドメインに移行した場合,精度が落ちるものが多い.本手法は,文法のカバレッジが低いパーザであっても,部分解析結果を組み合わせることにより同等句を抽出しているため,話し言葉以外でも同等句抽出数という点で有利である.単語アライメントの使用方法という観点で上記研究を俯瞰すると,\shortciteA{Kaji:PhraseAlignment1992,Watanabe:PhraseAlignment2000}は,単語アライメントを決定的に行っている.一方,\shortciteA{Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Meyers:PhraseAlignment1996}は,単語類似度を導入し,構造比較時のスコアとしている.\shortciteA{Yamamoto:PhraseAlignment2001j}の研究は,単語アライメントを必要としないという点が特徴的である.これは,句レベルの対応候補を作成し,重み付きダイス係数という統計量を用いて,最良優先に対応を決定して行くものである.我々の提案手法は,統計量をまったく用いていないので,これと類似の統計量を後処理的に導入することにより,同等句の精度はさらに向上できるだろうと推測される. \section{まとめ} 本稿では,構文構造の類似性を用いた曖昧性解消,部分解析結果の組み合わせを用い,構文解析と融合した階層的句アライメント方法を提案し,その有効性を示した.特に提案方式では,比較的精度の低い構文解析器を用いたにも関わらず,構文解析を独立させた場合に比べ,実験では約2倍の同等句を抽出することができた.そのときの適合率は86\%程度で,構文解析独立方式と比べても精度の低下はほとんどない.また,機能語対応を追加することにより,句アライメント精度が向上することを示した.本稿で提案した句アライメント方法は,単語アライメントの適合率より再現率が同等句の精度に影響をおよぼしやすいため,再現率重視の自動単語アライメント方法と組み合わせる方が,質のよい同等句を抽出することができる.今後は,本方式で抽出された同等句から翻訳知識を作成し,用例ベースの翻訳システムに適用する予定である.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた隅田英一郎主任研究員,白井諭前第三研究室長をはじめ,ATR音声言語コミュニケーション研究所第三研究室の皆様に感謝いたします.なお,本研究は通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものです.\bibliographystyle{jnlpbbl}\bibliography{368.bbl}\begin{biography}\biotitle{略歴}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.2000年より,ATR音声言語通信研究所主任研究員,現在に至る.主として自然言語処理の研究・開発に従事.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V04N02-01
\section{まえがき} 日本語文の表層的な解析には,\係り受け解析がしばしば用いられる.\係り受け解析とは,\一つの文の中で,\どの文節がどの文節に係る(広義に修飾する)かを定めることであるが,\実際に我々が用いる文について調べて見ると,\2文節間の距離とそれらが係り受け関係にあるか否かということの間に統計的な関係のあることが知られている.\すなわち,\文中の文節はその直後の文節に係ることがもっとも多く,\文末の文節に係る場合を除いては距離が離れるにしたがって係る頻度が減少する\cite{maruyama}.係り受け距離に関するこのような統計的性質は「どの文節も係り得る最も近い文節に係る」というヒューリスティクス\cite{kurohashi}の根拠になっていると思われる.しかし実際には「最も近い文節に係ることが多い」とは言え,\「最も近い文節にしか係らない」というわけではない.\したがって,\係り受け距離の統計的性質をもっと有効に利用することにより,\係り受け解析の性能を改善できる可能性がある\cite{maruyama}.本論文では,総ペナルティ最小化法\cite{matsu,ozeki}を用いて,係り受け距離に関する統計的知識の,係り受け解析における有効性を調べた結果について報告する.総ペナルティ最小化法においては,2文節間の係り受けペナルティの総和を最小化する係り受け構造が解析結果として得られる.ここでは,係り受け距離に関する統計的知識を用いない場合と,そのような知識を用いて係り受けペナルティ関数を設定するいくつかの方法について,解析結果を比較した.また,「係り得る最も近い文節に係る」というヒューリスティクスを用いた決定論的解析法\cite{kurohashi}についても解析結果を求め,上の結果との比較を行った.学習データとテストデータを分離したオープン実験の結果や統計的知識を抽出するための学習データの量が解析結果に与える効果についても検討した\cite{tyou}. \section{係り受け距離の統計的知識} 丸山らは新聞記事データベースを用いて係り受け距離とその頻度の関係を調査し,それを表す近似式を見い出した\cite{maruyama}.我々はATR音声データベース(セットB)\cite{ATR}に含まれる503文コーパスについて丸山らと同様の調査を行った.コーパスの概要を表1に示す.全体の503文は\hspace{-0.25mm}$A〜J$\hspace{-0.25mm}までの10グループに分割されており,\hspace{-0.5mm}$A〜I$のグループには各50文,グループ$J$には53文が含まれている.各文節には,それを受ける文節との間の距離を表すラベルが付けられている.文の係り受け構造はこれらの値によって知ることができる.\begin{center}{表1\\\ATR音声データベース(セットB)中のコーパス}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|}\hline文体&文数&文節数/文&\\係り受け数\\\\\hline\hline新聞記事\,\教科書&5\0\3&6\.\8&2\9\2\3\\\hline\end{tabular}\end{center}\subsection{係り受け距離の頻度分布}文$x_1x_2...x_N$\($x_k$は文節)において\$x_i$\が\$x_j$\に係るとき,\$x_i$\と\$x_j$\の係り受け距離を\$j-i$\と定義する.また,$N-i$\を\$x_i$\のレンジと呼ぶ.表2は係り受け距離の頻度分布を距離4以下について示したものである.レンジは考慮していない.距離が11以上の係り受けは存在しなかった.このコーパスでは距離が1の係り受けが全体の64.\6\%を占めている.文の構成要素(日本語における文節や英語における単語など)が,隣接する構成要素を修飾する傾向は他の言語においても見られる.例えば,英語においても,文中の単語が直後の単語を修飾する$(Right\Association)$頻度は$67\%$\に及ぶことが報告されている\cite{Don}.\begin{center}{表2\\\係り受け距離の頻度分布}\vspace*{2mm}\\\begin{tabular}{|c|c|}\hline係り受け距離&係り受け数(相対頻度)\\\hline\hline1&1889(64.6\%)\\\hline2&487(16.7\%)\\\hline3&243(8.3\%)\\\hline4&136(4.7\%)\\\hline\end{tabular}\end{center}\subsection{係り受け距離の頻度を表す近似式}レンジごとに求めた係り受け距離の頻度分布を表3に示す.\begin{center}{\hspace*{10mm}表3\\\レンジごとの係り受け距離の頻度分布}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|c|c|}\hline\makebox[10mm]{}&\multicolumn{6}{c|}{係り受け距離}\\\cline{2-7}\makebox[10mm]{\raisebox{1.0ex}{レンジ}}&\makebox[10mm]{1}&\makebox[10mm]{2}&\makebox[10mm]{3}&\makebox[10mm]{4}&\makebox[10mm]{5}&\makebox[10mm]{6}\\\hline2&278(55.7\%)&221(44.3\%)&&&&\\\hline3&268(55.6\%)&51(10.6\%)&163(33.8\%)&&&\\\hline4&260(58.6\%)&66(14.9\%)&12(2.7\%)&106(23.8\%)&&\\\hline5&209(57.4\%)&54(14.8\%)&21(5.8\%)&10(2.8\%)&79(19.2\%)&\\\hline6&141(55.5\%)&37(14.6\%)&23(9.1\%)&6(2.4\%)&1(0.4\%)&46(18\%)\\\hline\end{tabular}\vspace*{3mm}\\\end{center}ただし,レンジが6以下のものだけを掲げた.このデータを用いて文献\cite{maruyama}と同じ方法により距離頻度の近似式\bigskip\[\hspace*{5mm}P\(k)\=\left\{\begin{array}{lll}\raisebox{2.5ex}{$\ak^{b}\,$}&\mbox{\raisebox{2.5ex}{$1≦k\≦r-1$のとき;}}&\\\raisebox{-0.5ex}{$\1-\sum_{j=1}^{r-1}P\(j)\,$}&\mbox{\raisebox{-0.5ex}{$k=r$のとき}}&\hspace*{15mm}{\raisebox{1.7ex}{(1)}}\end{array}\right.\]\\\hspace*{20mm}(\$k$\は係り受け距離,\\$r$\は係り文節のレンジ)\vspace*{3.9mm}\\\noindentをあてはめたところ$a=0.58$,$b=-1.886$が得られた.これは,丸山らの結果$a=0.54$,$b=-1.\896$と近いものである.\vspace{-0.1mm}\subsection{係り文節の種類による係り受け距離の頻度分布のちがい}\vspace{-0.1mm}前節に述べた係り受け距離の頻度分布は,文節の種類を考慮に入れずに求めた,全文節に対する平均的なものであるが,係り受け距離の頻度分布は係り文節の種類に依存することが予想される.そこで,ここでは係り文節をその末尾の形態素によって表4に示す基準により約100種類に分類し,その種類別に頻度分布を求めた.品詞属性はコーパスの説明書\cite{ATR}によった.\begin{center}表4\\\係り文節の分類基準\vspace*{2mm}\\\begin{tabular}{|l|l|l|}\hline&&活用語\:\品詞属性と活用形により分類\\\cline{3-3}末尾の&{\raisebox{1.5ex}{自立語}}&非活用語\:\品詞属性により分類\\\cline{2-3}形態素&&活用語\:\品詞属性と活用形により分類\\\cline{3-3}&{\raisebox{1.5ex}{附属語}}&非活用語\:\形態素と品詞属性により分類\\\hline\end{tabular}\end{center}\vspace*{4mm}また,受け文節はそれが文末であるか非文末であるかによって区別した.そして係り文節の種類別に,また受け文節が文末か非文末かを区別して係り受け距離の頻度を求めた.具体的な計算は4.2の{\bf3}に述べる定義式によって行なう.距離の頻度分布が係り文節の種類に大きく依存する例を表5に示す.格助詞「が」の係り受け距離の頻度分布は式(1)\($a=0.58$,$b=-1.886$)に近いが,接続助詞「が」の場合には距離2で頻度最大になり,ほかの距離の頻度は一様になっている.このような頻度分布を式(1)のような単調減少関数で近似することには無理がある.したがって,本研究では係り文節の種類別に求めた頻度分布を,そのまま係り受け解析のための情報として用いた.\begin{center}表5\\係り文節の種類により係り受け距離の頻度分布が異なる例\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|}\hline\\係り文節の種類\\&\\距離\1\\&\\距離\2\\&\\距離\3\\&\\距離\4\\\\\hline\hline格助詞「が」&67.9\%&21.9\%&5.4\%&3.1\%\\\hline接続助詞「が」&11.8\%&35.3\%&11.8\%&11.8\%\\\hline\end{tabular}\end{center} \section{係り受け解析法} 係り受け距離の統計的性質を利用することにより,どの程度,解析性能が向上するかを調べるため,総ペナルティ最小化法\cite{matsu,ozeki}を用いて係り受け解析の実験を行った.また,これと比較するため,決定論的解析法による解析も行った.ここではこれらの解析法について簡単に説明する.\subsection{総ペナルティ最小化法}文節列が“正しい”文を構成するためには文節間に以下の条件を満たす係り受けが存在する必要があると考えられている\cite{yoshida}.\begin{description}\item[唯一性]文末の文節以外は,必ずそれより後ろにある文節のいずれか唯一に係る.\item[非交差性]係り受けは交差しない.\item[整合性]2文節間に係り受けが成立するためには,それらを構成する形態素の品詞や活用形,意味などが整合しなくてはならない.\end{description}総ペナルティ最小化法においては2文節間の整合性を程度の問題と考え,それをペナルティ関数で表す.そして,唯一性と非交差性を満たす係り受け構造の中でペナルティの総和が最小になるものすべてを解析結果として出力する.この計算は動的計画法の原理を用いることにより効率よく実行できる\cite{ozeki}.ペナルティ関数を適切に設定することにより,2文節間の種々の関係を係り受け解析に利用することができると考えられる.本研究では,後で述べるように係り受け距離の頻度分布に基づいてペナルティ関数を設定した.\subsection{決定論的解析法}この解析法\cite{kurohashi}においては,整合性を程度の問題とは捉えず,整合するかしないかのいずれかであると考える.解析は文末から順に,その文節を受ける文節を決定することにより行われる.非交差性,整合性を満たす受け文節の候補が複数個ある時は,最も距離が近い文節を採用する.解析の途中で受け文節が見出せない時には,その時点で解析不能となる.本研究で用いたアルゴリズムを図1に示す. \section{実験と結果} 係り受け距離の頻度情報に基づいて,いくつかのぺナルティ関数を定義し,総ペナルティ最小化法による係り受け解析を行った.結果を正解検出率,一意正解率,曖昧度減少率および平均候補数によって評価し,ぺナルティ関数による結果の違いを比較検討した.また,決定論的解析法による解析も行い,総ペナルティ最小化法の結果と比較した.\begin{center}\begin{minipage}{120mm}\vspace*{3mm}\noindentN\:\文の文節数\;\\kakari\_n\:\係り文節番号(1≦kakari\_n≦N−1)\;\\uke\_n\:\受け文節番号(2≦uke\_n≦N)\;\\uke\_number\[\i\]\:\文節番号iの文節を受ける文節の番号\;\\kakari\_uke\_if\(\i\,\j\)\:\文節番号iの文節が文節番号j\の文節に係り得るか否かをチェックする関数\.\bigskip\noindentprogram\\\deterministic\_analysis\;\\\hspace*{7mm}var\\\\kakari\_n\,uke\_n\:\integer\;\\\hspace*{16mm}uke\_number\[\i\]\:\array\[\1\.\.\N\]\\of\\integer\;\\begin\\\hspace*{10mm}uke\_number\[\N\]\:=N\+\1\;\\\hspace*{10mm}uke\_number\[\N−1\]\:=N\;\\\hspace*{10mm}for\\\kakari\_n:=N−2\\\downto\\\1\\\do\\\hspace*{15mm}begin\\\hspace*{20mm}uke\_n\:=kakari\_n\+\1\;\\\hspace*{20mm}while\\(uke\_n\$<=$\N)\and\\\hspace*{35mm}(kakari\_uke\_if\(\kakari\_n\,\uke\_n)=false)\\\\\hspace*{20mm}do\\\uke\_n:=uke\_number\[\uke\_n\]\;\\\hspace*{20mm}if\hspace*{1mm}\uke\_n=N\+\1\\hspace*{3mm}\\\hspace*{20mm}then\\\begin\\\hspace*{37mm}write\(\'\failed\'\)\;\\\hspace*{37mm}uke\_number\[\kakari\_n\]\:=kakari\_n\+\1\\\\hspace*{33mm}end\\\hspace*{20mm}else\\\\uke\_number\[\kakari\_n\]\:=uke\_n\\\hspace*{15mm}end\\end\.\bigskip\begin{center}図1\\\本研究で用いた決定論的解析アルゴリズム\end{center}\end{minipage}\end{center}\subsection{係り受け規則}文献\cite{kurohashi}を参考にして,2文節間の形態素による整合条件を表6に示すように定めた.\begin{center}{\hspace*{15mm}表6\\\係り受け規則}\vspace*{2mm}\\\footnotesize\begin{tabular}{|l|c|c|c|c|c|c|c|}\hline{}&\multicolumn{7}{c|}{受け文節の頭部の形態素}\\\cline{2-8}&&&&{\raisebox{-1.0ex}{述語の}}&{\raisebox{-1.0ex}{連体形の}}&{\raisebox{-1.0ex}{連体形の}}&{\raisebox{-1.0ex}{連用形の}}\\{\raisebox{0.5ex}{係り文節の後部の形態素}}&名詞&{\raisebox{1.5ex}{名詞+}}&動詞&イ・ナ&イ&ナ&イ・ナ\\&&{\raisebox{1.5ex}{判定詞}}&&{\raisebox{0.8ex}{形容詞}}&{\raisebox{0.8ex}{形容詞}}&{\raisebox{0.8ex}{形容詞}}&{\raisebox{0.8ex}{形容詞}}\\\hline連体詞&+&&&&&&\\\hline活用語の連用形&&+&+&+&&&\\\hline活用語の基本形・タ形&+&&&&&&\\\hline副詞&&+&+&+&+&+&+\\\hline助詞&&&&&&&\\\hline\hspace*{10mm}の&+&+&+&+&+&&\\\hline\hspace*{10mm}が、に、より&&+&+&+&+&+&\\\hline\hspace*{10mm}へ&&+&+&&&&\\\hline\hspace*{10mm}を&&&+&&&&\\\hline\hspace*{10mm}他の助詞&&+&+&+&&&\\\hline\end{tabular}\end{center}\vspace*{3mm}実際には,この条件を,「受け文節の頭部の形態素」としての「名詞」,「名詞+判定詞」,「動詞」のさまざまな変形に対処できるように補強して用いる.例えば,「二時半ごろだった」(「数詞+接尾語+名詞+名詞+助動詞+助動詞」)は「名詞+判定詞」として認識されるようにしている.ここではこの条件を係り受け規則と呼ぶ.この規則は総ペナルティ最小化法と決定論的解析法の両方において共通に使用した.\subsection{ぺナルティ関数の定義}係り文節$x$,受け文節$y$\に対してぺナルティ関数$F\(x,y)$を次のように定義する.\[\hspace*{5mm}F\(x,y)=\left\{\begin{array}{lll}\raisebox{2.5ex}{$-\logP\(x,y)\,\$}&\mbox{\raisebox{2.5ex}{$P\(x,y)>0$\のとき\;}}&\\\mbox{\raisebox{-1.0ex}{c\,\}}&\mbox{\raisebox{-1.0ex}{$P\(x,y)=0$\のとき\}}&\hspace*{15mm}{\raisebox{1.7ex}{(2)}}\end{array}\right.\]ここで,\$P\(x,y)$\は\$x$\が\$y$\に係る頻度から定まる値である.その具体的な定め方は後で述べる.文節$x,\y$\が係り受け規則を満たさない場合には$P\(x,y)=0$\と定義する.このときのぺナルティ値\c\は非零の$P\(x,y)$で生成される最大ぺナルティ値より十分大きな値に設定する.これにより,文節\$x,\y$\が係り受け規則を満たさない場合には大きなぺナルティが課せられる.また,係り受け規則を満たす場合には,\$P\(x,y)$が大きい程,ぺナルティは小さくなる.$P\(x,y)$として次の4種類の関数を考え,それぞれに対して実験を行った.\begin{description}\item[1]距離情報なし\[P_1\(x,y)=α\]$α$は正の定数である.すなわち,\$(x,y)$\が一様分布することを仮定する.\item[2]距離の頻度近似式\[P_2\(x,y)=P\(d\(x,y)\)\]ここで,\$d\(x,y)$は$x$と$y$\の係り受け距離であり,\$P\(\・\)$は式(1)である.\item[3]係り文節の種類別に求めた頻度分布2.3で述べたように,\係り受け距離の頻度分布は係り文節の種類に依存する.また,係り受け距離が同じでも受け文節が文末か非文末かによって係り受け頻度は大きく異る\cite{maruyama}.そこで係り文節の種類別に,また受け文節が文末か非文末かを区別して,以下のように係り受け距離の頻度分布を求めた.係り文節の種類(表4)を番号\$m$\で表す.そして,\\$T\(m)$\を係り文節が第\$m$\種の文節であるような係り受け文節対の全体とする:\vspace*{2mm}\\\hspace*{12mm}$T(m)\=\\{\(u,v)\|\文節\u\は文節\v\に係る,\u\は第\$m$\種の係り文節\}$\vspace*{2mm}\\\$T\(m)$\の中で,\係り文節と受け文節の距離が\$k$\であり,\受け文節が文末であるようなものの全体を$S_l^{m}\(k)$,\同じく受け文節が非文末であるようなものの全体を$S_n^{m}\(k)$とする:\vspace*{2mm}\\\hspace*{10mm}$S_l^{m}\(k)=\\{\(u,v)\|\(u,v)\inT\(m),\d\(u,v)=k\,\v\は文末文節\}$\\,\vspace*{2mm}\\\hspace*{10mm}$S_n^{m}\(k)=\\{\(u,v)\|\(u,v)\inT\(m),\d\(u,v)=k\,\v\は非文末文節\}$\vspace*{2mm}\\当然,\次の関係がある:\[\T\(m)=\\cup_{k}\(S_l^{m}\(k)\\cup\S_n^{m}\(k)\)\]そして,\以下の式により文節$x$が文節$y$に係る相対頻度の推定値$P_3\(x,y)$を計算する:\vspace*{1mm}\[P_3\(x,y)=\left\{\begin{array}{l}\mbox{\raisebox{3.0ex}{$|\S_l^{m(x)}\(d\(x,y))|\\/\|T\(m(x))|$\,\yが文末文節のとき\;}}\\\mbox{\raisebox{-0.5ex}{$|\S_n^{m(x)}\(d\(x,y))|\\/\|T\(m(x))|$\,\yが非文末文節のとき\}}\\\end{array}\right.\]\vspace*{1mm}\\ここで\$m(x)$\は係り文節\$x$\の種類を表し,\$|・|$は集合の要素数を表す.すなわち,\$P_3\(x,y)$は,\\$d\(x,y)=\k$とするとき,\$x$\と同じ種類の文節を係り文節とする係り受け文節対の中で,距離が\$k$\であるようなものが,どれだけの割合で存在するかを示す量であり,\$y$が文末か非文末かに分けて計算される.ここでは,係り受け文節対の出現頻度が,係り文節の種類,係り受け距離,および受け文節が文末か非文末かの三つの変数に依存して定まる分布モデルが仮定されていることになる.\item[4]補間した頻度分布\\\hspace*{4mm}係り受け規則がコーパスを完全にカバーしていないため,ある文節を受ける文節が文末までに存在しないことがある.また係り受け規則で許されても,コーパスの希薄性によって,係り受け頻度が0となる場合がある.そこで,\$P_3$\に次のような一種の補間を施し,その結果を\$P_4\(x,y)$とする.\begin{description}\item[(1)]\上のような問題がない場合\:\[P_4\(x,y)=P_3\(x,y)\]\item[(2)]\上のような問題がある場合\:\begin{description}\item[(a)]文節$x$を受ける文節が文末までに存在しない場合:\\文節$x$がどの文節に係るかを係り受け距離の頻度分布に基づくヒューリスティクスで定める.\\すなわち,文節$x$に対して,上の\{\bf3}\で推定された係り受け頻度が最大となる後続文節を求め,\$x$がその文節に係ることを許す.また,他の文節に係ることは許さない.これは,文節\$x$が後続文節\$y$\に係ることが係り受け規則の上では許されなくても,もし文節間距離が\$d\(x,y)$に等しい係り受け文節対の出現頻度が大きければ,それを許そうという考え方である.その際,出現頻度が最も大きい後続文節だけに対して文節\$x$が係ることを許し,他の文節に対しては許さないことにする.実際の計算は次のように行なう.文節\$x$に対して,最大係り受け頻度を与える後続文節を\$z$とする:\[z=\arg\max\{\P_3\(x,y)\|\y\は\xの後続文節\}\]このような\$z$\が複数個あるときは,\それらをすべて求める.\そして,\文節$x$が後続文節\$y$\に係る頻度$P_4\(x,y)$を次のように設定する:\[P_4\(x,y)=\left\{\begin{array}{ll}\raisebox{2.0ex}{$\P_3\(x,y)$\,}&\mbox{\raisebox{2.0ex}{$y=z$\のとき;}}\\\raisebox{-1.0ex}{\0\,}&\mbox{\raisebox{-1.0ex}{$y≠z$\のとき}}\\\end{array}\right.\]\item[(b)]$xがy$\に係ることが,\係り受け規則で許されるにもかかわらず,\$P_{3}\(x,y)$が0になる場合:\[P_4\(x,y)=β\]ただし,$β$は\[\max_{u,\v}\{-\logP_3\(u,v)\\}<-\logβ<<\mbox{\c}\hspace*{20mm}(3)\]を満たすような値に設定する.ここで,\最左辺の最大値は文節$\u\が文節\v\$に係ることが係り受け規則で許されるような$u\,\v$\のすべての組についてとる.これはいわゆる底上げ(flooring)の技法である.このとき,\$x$\が\$y$\に係るペナルティは\$-\logβ$\となるが,式(3)は,このペナルティが係り受け規則により係り受けが許されない文節対のペナルティよりははるかに小さく,また,係り受け頻度から定まる最大ペナルティよりは大きくなるように\$β$\の値を設定することを意味する.\end{description}\end{description}\end{description}\subsection{解析実験}解析実験は学習データから係り受け距離の頻度情報を抽出する学習ステップと,その頻度情報に基づいて設定したペナルティ関数を用いてテストデータを係り受け解析し,結果を評価する解析ステップから成る.\\まず学習法と各種のパラメータ設定法について説明する.$P_1$を用いる場合には,頻度情報は全く使用しない,したがって学習は不要である.αはどのような値に設定しても解析結果は同じになる.$P_2$\はパラメトリックな分布モデルである.学習ステップにおいては,学習データを用いてパラメータ\$a$,\$b$\を推定する.$P_3$\はノンパラメトリックな分布モデルである.学習ステップにおいては,学習データを用いて,係り文節の種類\$m$\と\係り受け距離\$k$\に対して$S_l^{m}\(k)$と$S_n^{m}\(k)$を求め,\記憶する.解析ステップにおいては,各文節\$x$,\$y$\に対し,\$S_l^{m(x)}\(k)$と$S_n^{m(x)}\(k)$から定義式に基づいて\$P_3\(x,y)$\の値を計算し,ペナルティ関数の値を設定する.$P_4$\は基本的には$P_3$\から定まるので学習する必要はない.βの値は式(3)を満たす限りどのような値に設定しても結果に大きな差はないと考えられるので,式(3)を満たす値を任意に選んで使用した.ペナルティ関数を式(2)によって定義するとき,定数\$c$\を定める必要がある.これは文節\$x$\が文節\$y$\に係ることが係り受け規則により許されないとき,あるいは文節\$x$\が文節\$y$\に係る頻度が\0\になるとき\(\$P_4$\によって補間されない限り)文節\$x$\が文節\$y$\に係ることを禁止するような大きなペナルティを与えるためのものである.したがって,これは$\infty$とも言うべきものであり,十分大きな値に設定すれば,どのような値に設定しても解析結果に差はない.このような学習法およびパラメータ設定法を用いて次のような3種類の実験を行った.\begin{description}\item[実験1]$P_1$〜$P_4$を用いてぺナルティ関数を定義し,総ペナルティ最小化法による解析実験を行った.この実験では係り受け距離の頻度情報を抽出するための学習データとテストデータを分離せず,どちらも503文すべてを用いた.比較のため同じデータを用いた決定論的解析法による解析実験も併せて行った.\item[実験2]実験1で総合的に最も良い結果が得られたのは$P_4$\hspace{-0.25mm}で定めたぺナルティ関数である.これを用いて,学習データとテストデータを分離した解析実験を行った.10グループ$A〜J$\の一つをテストデータとし,残りを学習データとした.テストデータを$AからJ$\まで変えて10回の実験を行った.\item[実験3]学習データの量と解析結果との関係を調べるため,テストデータをグループ$J$\に固定し,学習データを$A,A\cupB,A\cupB\cupC,\cdots$と漸次増加させる実験を行った.純粋に学習データの量が解析結果に与える効果を見い出すため,補間していない$P_3$を用いてぺナルティ関数を定めた.\end{description}\subsection{解析結果}解析結果について述べるため,まず記法と用語を定義する.\begin{itemize}\item$M$\:\評価に用いるテスト文の総数\;\item$S_i$\:\番号$i$のテスト文\;\item$L_i$\:\文$S_i$の文節数\;\\\hspace*{7mm}文$S_i$\に対する係り受け構造の中の係り受けの総数は\$L_i-1$\に等しい.\item$D_i$\:\長さ$L_i$\の文節列上に存在し得る係り受け構造の総数;\\\hspace*{7mm}$D_i$\はカタラン数と呼ばれる数列になり,\次の式によって計算することができる:\[D_i=\frac{1}{L_i}\_{2(L_i-1)}C_{(L_i-1)}\]\hspace*{8mm}ここで\$_{2(L_i-1)}C_{(L_i-1)}$\は\$2(L_i-1)$個のものから\$(L_i-1)$\個のものをとる組合せの数を表す.\この式は再帰式\[D_i\=\left\{\begin{array}{ll}\{\raisebox{2.0ex}{1,}}&\mbox{\raisebox{2.0ex}{$i=1$\のとき;}}\\\\sum_{1≦j≦i-1}{D_{i-j}D_j}\,&\mbox{$i≧2$\のとき}\\\end{array}\right.\]\newlineが成り立つ\cite{ozeki}ことと\,母関数の手法\cite{JCC}を用いることにより示すことができる.\item$R_i$\:\文$S_i$の解析結果\,\すなわち係り受け構造候補の集合\;\item$K_{ij}$\:\文$S_i$に対する$j\(\1≦j≦|R_i|\)$番目の解析候補の中でコーパスのラベルに示されるものと一致する係り受けの数\.\bigskip\end{itemize}{\bf評価方法}\vspace*{1mm}\noindent結果の評価は,\\(1)\\2文節間の係り受けがどの程度正しく検出されたか,\\(2)\\係り受け構造がどの程度正しく検出されたか,という二つの観点から行った.また,文の検出率が高くても一つの文に対する解析結果の候補数が多ければ良い解析法とは言えない.このため,候補数がどれだけ絞られるかを評価することとした.さらに,解析を行うことにより,情報理論的な曖昧さがどれだけ減少するかを調べ,全体的な解析効率を評価した.これらの評価を行うため,以下のようないくつかの評価尺度を定義した.\noindent(1)係り受けの正しさに着目した評価尺度\bigskip\[\\文S_i\の係り受け検出率\=\\frac{\sum_{j=1}^{|R_i|}K_{ij}}{(L_i-1)×|R_i|}\]\bigskip\[係り受け検出率\=\\frac{\sum_{i=1}^{M}\sum_{j=1}^{|R_i|}K_{ij}}{\sum_{i=1}^{M}(L_i-1)×|R_i|}\]\newline係り受け検出率は,解析結果がラベルと部分的に一致する度合を示す数字である.このような部分的一致も,結果を意味理解に利用する場合などには有用と思われる.決定論的解析法を用いた解析実験においては,解析の途中で,ある文節を受ける文節が存在しない時には,直後の文節を受け文節として解析を続けた.その結果をもとにして係り受け検出率を計算した.\vspace*{3mm}\\(2)係り受け構造の正しさに着目した評価尺度\noindent(a)文検出数と文検出率\[文検出数_k\=\sum_{i\:\|R_i|≦k}I_i\]ここで\[I_i\=\left\{\begin{array}{ll}{\raisebox{2.0ex}{1\,}}&\mbox{\raisebox{2.0ex}{$R_i$の中にラベルで指定される係り受け構造と一致する候補が存在する場合;}}\\{\raisebox{-0.5ex}{0\,}}&\mbox{\raisebox{-0.5ex}{他の場合}}\end{array}\right.\]\vspace*{2mm}$文検出数_k$\は,出力された解析結果の候補数が\$k$\以下であり,\かつ,\その中にコーパス中のラベルで指定される係り受け構造と一致するものが含まれるようなテスト文の数である.また,これをテスト文の総数に対する比で表わしたものを,$文検出率_k$\と呼ぶ\:\bigskip\[文検出率_k\=\\frac{文検出数_k}{M}\]\newline$文検出数_\infty$,\$文検出率_\infty$\をそれぞれ単に文検出数,\文検出率という.また,\$文検出数_1$,\$文検出率_1$\をそれぞれ一意正解数,\一意正解率と呼ぶことにする.\一意正解数は解析結果が一意的に決定し,\それがコーパスのラベルと一致したテスト文の数である.\noindent(b)平均候補数\[平均候補数\=\\frac{\sum_{i=1}^{M}|R_i|×I_i}{\sum_{i=1}^{M}I_i}\]\newline\noindent(c)曖昧度減少率\\文$S_i$の係り受け構造の候補数の対数をその文の曖昧度と定義すると,\begin{table}[b]\begin{center}表7{\\\\実験1の結果}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|c|}\hline\makebox[30mm]{}&\makebox[26mm]{\raisebox{-0.5ex}{文検出数}}&\makebox[14mm]{\raisebox{-0.5ex}{平均}}&\makebox[14mm]{\raisebox{-0.5ex}{曖昧度}}&\makebox[24mm]{\raisebox{-0.5ex}{係り受け}}\\[-2mm]\makebox[30mm]{\raisebox{1.5ex}{ペナルティ関数}}&\makebox[26mm]{文検出率(\%)}&\makebox[14mm]{候補数}&\makebox[14mm]{減少率}&\makebox[24mm]{検出率(\%)}\\\hline\makebox[30mm]{$P_1(距離情報なし)$}&\makebox[26mm]{432(85.9)}&\makebox[14mm]{41.3}&\makebox[14mm]{0.40}&\makebox[24mm]{61.5}\\\hline\makebox[30mm]{$P_2(近似式)$}&\makebox[26mm]{247(49.1)}&\makebox[14mm]{2.5}&\makebox[14mm]{0.36}&\makebox[24mm]{75.2}\\\hline\makebox[30mm]{$P_3(種類別)$}&\makebox[26mm]{321(63.8)}&\makebox[14mm]{2.9}&\makebox[14mm]{0.52}&\makebox[24mm]{74.4}\\\hline\makebox[30mm]{$P_4(補間)$}&\makebox[26mm]{287(57.1)}&\makebox[14mm]{1.1}&\makebox[14mm]{0.47}&\makebox[24mm]{87.1}\\\hline\hline\makebox[30mm]{決定論的解析法}&\makebox[26mm]{193(38.4)}&\makebox[14mm]{1.0}&\makebox[14mm]{0.28}&\makebox[24mm]{81.9}\\\hline\end{tabular}\end{center}\end{table}\vspace*{2mm}\[解析前の曖昧度=\logD_i\]\[解析後の曖昧度=\left\{\begin{array}{ll}\mbox{\raisebox{1.0ex}{$\log|R_i|\,$}}&\mbox{\raisebox{1.0ex}{$R_i$の中にラベルで指定される係り受け構造と}}\\&\mbox{\raisebox{1.0ex}{一致する候補が存在する場合\;}}\\\raisebox{-0.5ex}{$\logD_i\,$}&\mbox{\raisebox{-0.5ex}{他の場合}}\end{array}\right.\]\vspace*{1mm}\\\hspace*{36mm}$=\log\(D_i+(\|R_i|-D_i\)\I_i)$\vspace*{2mm}\\となる.これを用いて,\次の量を定義する.\bigskip\[曖昧度減少率=\frac{\sum_{i=1}^{M}\logD_i-\sum_{i=1}^{M}\log\(D_i+(\|R_i|-D_i)\I_i)}{\sum_{i=1}^{M}\logD_i}\]\newline曖昧度減少率は文の統語的な曖昧さが解析により減少する度合を表す.\vspace*{1mm}\\{\bf実験結果と分析}\vspace*{1mm}\\(1)\実験1の結果を表7に示す.また,\同実験において候補数を制限したときの文検出数(率)を表8に示す.\begin{table}[t]\begin{center}表8\\\\{候補数を制限したときの文検出数(率)}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|}\hline\makebox[30mm]{}&\multicolumn{3}{c|}{$文検出数_k$\(率\%)}\\\cline{2-4}\makebox[30mm]{ペナルティ関数}&\makebox[20mm]{}&\makebox[20mm]{}&\makebox[28mm]{\raisebox{-1.0ex}{一意正解数(率)}}\\\makebox[30mm]{}&\makebox[20mm]{\raisebox{1.5ex}{$k=50$}}&\makebox[20mm]{\raisebox{1.5ex}{$k=10$}}&\makebox[28mm]{\raisebox{0.5ex}{($k=1$)}}\\\hline\makebox[30mm]{$P_1(距離情報なし)$}&\makebox[20mm]{364(72.4)}&\makebox[20mm]{235(46.7)}&\makebox[28mm]{31(6.2)}\\\hline\makebox[30mm]{$P_2(近似式)$}&\makebox[20mm]{246(48.9)}&\makebox[20mm]{244(48.5)}&\makebox[28mm]{195(38.8)}\\\hline\makebox[30mm]{$P_3(種類別)$}&\makebox[20mm]{319(63.4)}&\makebox[20mm]{315(62.6)}&\makebox[28mm]{237(47.1)}\\\hline\makebox[30mm]{$P_4(補間)$}&\makebox[20mm]{287(57.1)}&\makebox[20mm]{287(57.1)}&\makebox[28mm]{264(52.5)}\\\hline\hline\makebox[30mm]{決定論的解析法}&\makebox[20mm]{193(38.4)}&\makebox[20mm]{193(38.4)}&\makebox[28mm]{193(38.4)}\\\hline\end{tabular}\end{center}\end{table}$P_1$を用いた場合は,\他の場合と比べて,\文検出率が高い反面,\平均候補数が非常に大きい.また,\表8から$文検出率_k$\(\$k=10,\1$)は$P_2$〜$P_4$を用いた場合の方が,\$P_1$を用いた場合より高い.したがって,\係り受け距離の情報は候補数を絞るのに有効であることがわかった.$P_3$を用いた場合は,\$P_2$を用いた場合と比較して,\表7における文検出率,\および表8における$文検出率_k$\(\$k=50,\10,\1$)が高い.したがって,\係り文節の種類別に求めた係り受け距離の頻度情報は,\係り文節を分類せず全体で求めた情報よりも,\各文検出率$_k$を高めるのに有効である.また,\その結果,\曖昧度が減少している.$P_4$を用いた場合は,\$P_3$を用いた場合と比べて,\表7における係り受け検出率と表8における一意正解率が高くなっている.したがって,\補間は係り受け検出率と一意正解率を上げる効果があることが検証された.文検出率は低下したが,\$P_2$を用いた場合よりは高く,\平均候補数は$P_3$を用いた場合の半分以下になっている.したがって,\距離の頻度分布を補間することにより,\ある程度係り受け規則の不完全さとコーパスの希薄性の問題を軽減できることがわかった.また,\平均候補数は1.1まで絞られており,\87.1\%\というかなり高い係り受け検出率が得られることから,\この解析法を意味理解のための部分解析法として使用できる可能性がある.\hspace{0.25mm}決定論的解析法を用いた解析実験と比較すると,\$P_1〜P_4$を用いた場合は表7\hspace{0.1mm}の平均候補数が大きくなったかわりに文検出率がかなり向上している.さらに,\表8において,\$P_2$〜$P_4$を用いた場合は決定論的解析法を用いた場合の一意正解率を越えるともに各$文検出率_k$\が高くなっている.とくに$P_4$を用いた場合は決定論的解析法を用いた場合と平均候補数がほとんど等しく,\各$文検出率_k$\,\曖昧度減少率,\および係り受け検出率が高くなっている.したがって,\係り受け距離の統計的知識を利用した総ペナルティ最小化法により,\決定論的解析法を用いた場合に比べて解析性能を向上させることができる.\\(2)\実験2の結果を表9に示す.\begin{table}[b]\hspace*{50mm}表9\\\\{実験2の結果}\vspace*{2mm}{\small\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c|c|}\hline\begin{tabular}[c]{@{}c@{}}テスト\\[-1.1mm]グループ\\\end{tabular}&\makebox[6mm]{A}&\makebox[6mm]{B}&\makebox[6mm]{C}&\makebox[6mm]{D}&\makebox[6mm]{E}&\makebox[6mm]{F}&\makebox[6mm]{G}&\makebox[6mm]{H}&\makebox[6mm]{I}&\makebox[6mm]{J}&合計\\\hline文数&50&50&50&50&50&50&50&50&50&53&503\\\hline\hline\begin{tabular}[c]{@{}c@{}}文検出数\\[-1.1mm](率)\\\end{tabular}&25&27&20&26&25&16&26&26&29&41&261(52\%)\\\hline\begin{tabular}[c]{@{}c@{}}一意正解数\\[-1.1mm](率)\\\end{tabular}&21&22&19&19&22&13&18&24&23&37&218(43\%)\\\hline\begin{tabular}[c]{@{}c@{}}平均\\[-1.1mm]候補数\\\end{tabular}&1.3&1.3&1.1&1.5&1.1&1.2&1.4&1.1&1.2&1.1&1.2\\\hline\begin{tabular}[c]{@{}c@{}}曖昧度\\[-1.1mm]減少率\\\end{tabular}&0.39&0.41&0.30&0.49&0.33&0.28&0.41&0.42&0.44&0.68&0.42\\\hline\end{tabular}\end{center}}\end{table}この実験は学習データとテストデータを分離した,いわゆるオープン実験である.文検出率と一意正解率はクローズ実験である実験1の結果に比べると若干低下し,平均候補数もやや増加している.しかし,\1.2という平均候補数は,この解析結果に対してさらに何らかの後続処理を行う場合,処理量の上で問題となる数ではなく,\表7に示される決定論的解析法の結果と比べると,文検出数,一意正解数,曖昧度減少率など全てが高い.したがって,\未知文の係り受け解析に対しても(1)と同様の結論が導かれる.\\(3)\実験3の結果を表10に示す.これもオープン実験である.学習データの量が増加するに従って,一意正解数,曖昧度減少率が向上するともに,平均候補数は減少する.文検出数はほぼ一定に保たれる.したがって,学習データ量を増加させることはこのような解析法の性能向上に有効である.より大きなコーパスを使用することによって,更に解析性能が向上することが期待される.\begin{center}表10\\\\{実験3の結果}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline学習データの量&{\raisebox{-1.0ex}{50}}&{\raisebox{-1.0ex}{100}}&{\raisebox{-1.0ex}{150}}&{\raisebox{-1.0ex}{200}}&{\raisebox{-1.0ex}{250}}&{\raisebox{-1.0ex}{300}}&{\raisebox{-1.0ex}{350}}&{\raisebox{-1.0ex}{400}}&{\raisebox{-1.0ex}{450}}\\[-2mm](文数)&&&&&&&&&\\\hline\hline53文の文検出数&43&43&42&41&42&41&40&43&43\\\hline一意正解数&16&24&25&25&28&29&29&29&31\\\hline平均候補数&3.8&2.2&2.0&1.9&1.7&1.5&1.5&1.5&1.5\\\hline曖昧度減少率&0.53&0.61&0.62&0.60&0.63&0.63&0.60&0.67&0.68\\\hline\end{tabular}\\\end{center} \section{むすび} 本研究の結論は次のようにまとめることができる.\begin{enumerate}\item係り受け距離の頻度分布は係り受け解析におけるヒューリスティクスとして有効である.\item係り受け距離の頻度分布は,係り文節の種類別に求めた方がよい.\item頻度分布の補間により,係り受け規則の不完全さとコーパスの希薄性をある程度補うことができる.\item頻度分布を抽出する学習データ量を増加することにより解析性能が向上する.ここで用いた学習データよりもっと多くのデータを使用することにより,解析性能がさらに向上する可能性がある.\end{enumerate}\noindent問題点としては,\以下のことが挙げられる.\begin{description}\item{(a)}係り文節の分類は,自立語が非活用語の場合にはその品詞属性に基づいて行っている.しかし,これには次のような問題がある.コーパス中に高頻度で出現する「名詞」は,その半数程度が「連体詞」のような働きをして名詞に係る.また,「前」,「ため」などの「名詞」は「副詞」のような働きをして動詞に係ることがある.「連体詞」と「副詞」では,それを受ける文節との距離の頻度分布が大きく異なる.このような問題があるので,係り受け距離の頻度分布を求めるときの係り文節の分類基準をもっと工夫する必要がある.\item{(b)}ここで用いた係り受け規則はまだ不完全である.$P_1$を用いたときの文検出率がこの係り受け規則のカバー率を示しているが,\表7に見られるように100\%\には達していない.したがって,実際のコーパスをよりよくカバーする係り受け規則を設定する必要がある.\item{(c)}文中の部分文節列に対して,係り受け構造に曖昧さがあっても,それによる意味の曖昧さがほとんど生じない場合もある.例えば,\「両手の\\十本の\\指を」に対して,\図2の二つの係り受け構造から得られる意味の違いが実際にどれ程問題となるであろうか.\vspace*{1mm}\\\hspace*{25mm}\underline{両手の}\hspace*{25mm}\underline{十本の}\hspace*{25mm}\underline{指を}\\\put(185,20){\line(0,1){10}}\put(185,20){\line(1,0){95}}\put(280,20){\line(0,1){10}}\put(85,10){\line(0,1){20}}\put(85,10){\line(1,0){146}}\put(230,10){\line(0,1){10}}\vspace*{1mm}\\\hspace*{25mm}\underline{両手の}\hspace*{25mm}\underline{十本の}\hspace*{25mm}\underline{指を}\\\put(85,20){\line(0,1){10}}\put(85,20){\line(1,0){100}}\put(185,20){\line(0,1){10}}\put(140,10){\line(0,1){10}}\put(140,10){\line(1,0){141}}\put(280,10){\line(0,1){20}}\begin{center}図\2\end{center}本研究で行った評価法では,出力される係り受け構造がコーパスのラベルと完全に一致しない限り,文としては検出されなかったことになる.しかし,このような曖昧性を解消する意義がどれくらいあるかを考える必要があると思われる.\item{(d)}「は」のような係り助詞で終る文節がどの文節に係るとするかは,微妙な問題を含んでいる.例えば,図3は,「インタビューは」が主文の述語「及んだ」に係るような係り受け構造を示しているが,これに対して,図4のように「インタビューは」が「始まり」に係るとする係り受け構造を考えることもできる.図3は,文を文末まで見てから係り受け構造を定めたものであり,図4は,文を左から見て行き,可能な係り受けを定めて行ったものと言えるであろう.\vspace*{1mm}\\\hspace*{15mm}\underline{インタビューは}\hspace*{5mm}\underline{午後十時から}\hspace*{5mm}\underline{始まり}\hspace*{5mm}\underline{四時間に}\hspace*{5mm}\underline{及んだ}\\\put(155,30){\line(0,1){10}}\put(155,30){\line(1,0){55}}\put(210,30){\line(0,1){10}}\put(260,30){\line(0,1){10}}\put(260,30){\line(1,0){46}}\put(306,30){\line(0,1){10}}\put(183,20){\line(0,1){10}}\put(183,20){\line(1,0){100}}\put(283,20){\line(0,1){10}}\put(80,10){\line(0,1){30}}\put(80,10){\line(1,0){161}}\put(240,10){\line(0,1){10}}\begin{center}図\3\vspace*{1mm}\\\end{center}\hspace*{15mm}\underline{インタビューは}\hspace*{5mm}\underline{午後十時から}\hspace*{5mm}\underline{始まり}\hspace*{5mm}\underline{四時間に}\hspace*{5mm}\underline{及んだ}\\\put(155,30){\line(0,1){10}}\put(155,30){\line(1,0){55}}\put(210,30){\line(0,1){10}}\put(260,30){\line(0,1){10}}\put(260,30){\line(1,0){46}}\put(306,30){\line(0,1){10}}\put(80,20){\line(0,1){20}}\put(80,20){\line(1,0){103}}\put(183,20){\line(0,1){10}}\put(130,10){\line(0,1){10}}\put(130,10){\line(1,0){153}}\put(283,10){\line(0,1){20}}\begin{center}図\4\end{center}いずれか正しいかは別にして,使用したコーパスにはこの2種類の考え方に基づくラベル付けが混在しており,統一性を欠いている.これが,係り受け距離の頻度分布の推定や,解析結果の評価に影響を与えていると思われる.\end{description}以上の結果と問題点を踏まえて,今後は文節間の係り受けに関する言語現象を詳しく調査し,係り受け解析に対するより優れたぺナルティ関数の設定法について研究を進める予定である.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{張玉潔}{1983年北方交通大学情報工学科卒業.1986年中国科学技術大学大学院修士課程修了.同年中国科学院計算技術研究所に勤務.機械翻訳の研究開発に従事.国家科学技術進歩一等賞受賞.現在,電気通信大学情報工学専攻博士課程在学中.自然言語処理に興味がある.}\bioauthor{尾関和彦}{1965年東京大学工学部電気工学科卒業.同年NHK入社.1968年より1年間エジンバラ大学客員研究員.音声言語処理,パターン認識などの研究に従事.電子通信学会第41回論文賞受賞.現在,電気通信大学情報工学科教授.工学博士.電子情報通信学会,情報処理学会,日本音響学会,IEEE各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V15N03-02
\section{はじめに} 自然言語処理研究は1文を処理対象として数多くの研究が行われてきたが,2文以上を処理対象とする談話処理の研究は依然として多いとは言えない.これは問題が大幅に難しくなることが一因であろう.例えば,構文解析の係り先同定などに見られるように解が文の中にある場合の選択肢は比較的少数であるが,照応・省略解析などのような問題となると解候補や考慮すべき情報が多大となるため正解を得るのは容易ではない.この結果,多くの報告が示すように概ねどのような談話処理の問題であっても十分な精度が得られることは比較的少ない.しかし,これによって談話処理の重要性は何ら変化することはなく,我々は継続的に取り組んでいかなければならない.本論文では,談話処理のうち文間の接続関係を同定する問題に取り組んだ.文間の接続関係同定は,文生成に関係する様々な応用処理,例えば対話処理,複数文書要約,質問応答などにおいて重要となる.例えば,人間の質問に対話的に答えるシステムを考えた場合,対話をスムーズに行うために,システムは伝えるべき情報を自然な発話になるように繋げなければならない.その際に,文間に適切な接続詞を補う必要が出てくる.また,文書要約では文章中から重要な文を選んで列挙する重要文抽出手法が依然として多く行われているが,飛び飛びになっている文が選ばれた際に接続詞を適切に修正(削除,追加,変更)する必要が出てくる.本研究では以下のように問題設定した.まず,入力は接続詞を持つ文とその前文の連続2文として,この接続詞を与えない場合にどの程度同定できるかというタスクとして問題設定した.タスクの入力を連続2文とすることの妥当性については3節で議論する.次に,同定するのは実在した接続詞そのものではなく,接続関係とした.最終的な文生成を考えると接続詞を選ぶことが最終的な目的となるが,例えば「しかし」と「けれども」のどちらかにするかを使い分けることが本研究の目的ではない.また,多くの場合は接続関係が同じであればその接続関係にある接続詞のどれを選んでも構わないと推察されることからこのようなタスク設定とした.我々の設定した接続関係については2節で議論する.ここで関連研究を概観する.日本語接続詞を利用した要約や文書分類の研究,あるいは接続詞そのものの分析の研究は多数あるが本論文の対象ではないので省略する.接続詞決定に関して,例えば高橋らが考察を行っているが(高橋他1987),この入力は「文章の意味構造」であり,すなわち接続関係が与えられて接続詞を決める問題であるため本研究とは比較できない.一方,飯田らは気象情報文を生成する過程で「接続詞」\footnote{(飯田,相川2005)では「接続詞」を自動決定するとあるが,「…し,」と「…が,」しか出現しないことから「接続詞」とは接続助詞を指すものと推察される.}を自動同定する処理を行っている(飯田・相川2005)が,順接と逆接のどちらになるかを選択するタスクであり,これ以外の関係を全く想定していない.また,入力は時間,天気,気温,風力などの気象データであり,全く異なるタスクと考えてよい.以上のように,日本語で言語表現を入力として接続詞,もしくは接続関係を同定する研究は我々の知る限り存在しない.Marcuは大規模なテキストデータによる学習からNa\"{\i}veBayes分類器を用いてセグメント間の接続関係を同定する手法を提案している(Marcuetal.2002).Marcuは接続関係をCONTRAST(逆接),CAUSE-EXPLANATION-EVIDENCE(因果,並列),CONDITION(条件),ELABORATION(累加)の4種類に限定し,さらに同じテキストから取り出した関係を持たない2つのセグメントと異なるテキストから取り出した関係を持たないセグメントを加えた6種類の接続関係を用いてそのうちの2つの関係間での2値分類を行っている.そこでは2つのセグメントからそれぞれ取り出した単語対を素性とし,大量のコーパスから取り出した単語対の情報がシステムに良い影響を与えていることを示している.さらに,コーパスの量が同じなら単語対に用いる品詞を限定した方が精度が良くなることも述べている.一方,Hutchinsonは機械学習により極性(polarity),真実性(veridicality),接続関係の種類(type)の3つの側面から接続関係を分類し,接続関係の分類構造の分析を行っている(Hutchinson2004b).SporlederはMarcuの研究を受けて,単語の表層形だけでなく,対象とする文のドキュメント内での出現位置や文の長さ,単語のbigram,品詞,テンス・アスペクトなどを素性として用いて,機械学習器BoosTexterによる同定を行っている(Sporlederetal.2005).ここで,SporlederはMarcuとは異なる5種類の接続関係を対象としている.本論文では大量のWeb文書を用いて,与えられた2文に最も近い用例を探すことで2文間の接続関係を推定する手法を提案する.すなわち,大量のWebテキストを用例として利用することで,接続関係を推定するための規則を作ることなく接続関係を同定する.これは,用例利用型(example-based)の手法と呼ばれ,主に機械翻訳の分野で手法の有効性が確認されている.本研究では,これを談話処理の問題に適用し,手法の有効性を検証する. \section{接続関係の分類} 本論文で用いた接続関係について述べる.接続関係の種類に関しては多くの研究者が個々の案を提示している(市川1978;Wolfetal.2005).例えば,古くから知られているMannandThompsonのRST(RhetoricalStructureTheory)(Lochbaumetal.2000)においてはnucleusとsatelliteの関係として21種類を定義している\footnote{Evidence,Concession,Elaboration,Motivation,Condition,Evaluation,Justify,Circumstance,Background,VolitionalCause,Non-volitionalCause,VolitionalResult,Non-volitionalResult,Otherwise,Restatement,Antithesis,Solutionhood,Enablement,Purpose,Interpretation,Summaryの21種類.これ以外に複数のnucleus間の関係としてSequence,Contrast,Jointの3種を定義している.}.日本語では,市川が文の接続関係を,「順接」,「逆接」,「添加」,「対比」,「転換」,「同列」,「補足」,「連鎖」の8つの類型に分類している.我々は,形態素解析器「茶筌」$^{(1)}$の辞書(IPADIC,Ver.~2.7.0)に登録されている167個の接続詞を,概ね市川の類型によって分類を試みた.ただし以下の理由から若干の変更を行い,最終的に表1のように分類した.また完全な表を付録に示す.\begin{itemize}\item「同列」と「補足」,「逆接」と「対比」を区別するのは容易ではなかったため一緒にした\item「例示」は市川の類型にはないが,文自体に特徴があったため,別に分類したほうがよいと考えた\item「連鎖」は市川の分類で定義だけはあるものの,具体的には触れられていないため分類として削除した\end{itemize}\begin{table}[b]\caption{接続関係の分類とコーパス中の出現割合}\input{02table01.txt}\end{table}この結果,市川の分類における「順接」は概ね「累加」または「因果」に該当する.同様に市川の分類における「添加」も「累加」または「因果」に,「対比」は「並列」(一部「逆接」)に,「同列」は「並列」に,「補足」は「累加」に該当する.この他「なかんずく」,「わけても」など,以下の6分類のどれにも属さない「その他」の分類も存在するが,非常にまれであるためここではこれらは扱わない.表1では,接続関係の分類と共に,本研究で使用したコーパス中での出現割合も示す.コーパスは,接続詞でつながった2文を1事例として,我々がWeb文書から約120万事例を収集した.HutchinsonはWebから自動的に接続詞を含む文を抽出する方法を提案している(Hutchinson2004a)が,ここでは使用したコーパスからIPADICによる接続詞でつながっている2文の組を自動的に抽出した.ところで,接続詞によっては一意に接続関係を決められないものもある.例1,例2の接続詞「したがって」はそれぞれ,「なので」と同様な因果関係,「つまり」と同様な並列関係にそれぞれ分類可能である.本論文では,複数の接続関係に分類される接続詞は取り得る全接続関係の中に分類しているが,テストセットではこれらは除外した.なお,このように多義性により除外された接続詞は167種類のうち1割程度である.\hangafter=1\hangindent=4zw\noindent\hboxto3zw{例1)\hfill}理系の人間だって科学のごく一部しか勉強できない。\ul{したがって}、文系の人がたくさんの理系の授業を受ける必要はない。\hangafter=1\hangindent=4zw\noindent\hboxto3zw{例2)\hfill}高気圧におおわれた地域は、天気がよくなります。\ul{したがって}、雨が降らないのです。 \section{人手による接続関係の推定} 人間は接続関係をどのように判断しているのか,人間は接続関係の同定をどの程度の精度で行うことができるか,などを検証することを目的に被験者実験を行った.本節ではこの実験について報告する.青空文庫$^{(4)}$から旧字体のものを除き,ランダムに選んだ23テキストを3人の被験者(A,B,C)に与え,文頭に接続詞をもつ文を対象に300個の接続部分を空欄として穴埋め形式で適当な接続関係を選んでもらった.被験者には前節で述べた接続関係と,各接続関係に属するいくつかの代表的な接続詞を提示した.テキストの長さにはかなりばらつきがあり,短いテキストでは1テキスト中に穴埋め箇所は2箇所,長いテキストでは43箇所あるものもある.被験者が選ぶ接続関係は指定した6種類のうちいくつ選んでもかまわないが,複数選択する場合には優先順位をつけるよう指示した.実験は,同一の問題に対してテキスト全体を与えた場合と穴埋め箇所の前後1文ずつを取り出した2文だけを与えた場合の2通り行った.最初にテキスト全体での推定をしてもらい,その3日後に2文だけを用いた場合の実験を行った.2文だけを用いた実験では,テキスト全体での出力結果を被験者が思い出さないように全てのテキストから取り出した2文の組を無作為に並べ替えて提示した.\subsection{正解率の比較と一致率}各被験者の,テキスト全体を見て判断した場合(全文)と2文の情報のみで判断した場合(2文)での正解率と2種類の出力の一致率を表2に示す.被験者には優先順位をつけて複数選択してもらっているので,それを考慮するため,質問応答でよく使われているMRR(MeanReciprocalRank)の評価手法を応用して正解率を求めた.具体的にはN番目の出力が正解した場合に1/Nのポイントを与え,その合計を全問題数300で割った値を正解率としている.\begin{table}[b]\caption{各正解率と二つの出力の一致率}\input{02table02.txt}\end{table}表2から3件の考察を行う.まず,正解率を見ると全文,2文のどちらの場合も5割〜6割程度である.これは,人間にとっても接続関係を同定することが容易ではないか,もしくは正解が一意ではなく複数の解釈,若干の自由度があるかのどちらか,もしくは両方を示している.いずれにしても,実際に記述された正解との単純比較だけでは人間との感覚にずれがあり,注意が必要である.次に,直感ではテキスト全体を見たときの方が2文だけを見て判断するより精度が良くなる,と誰しもが考えるであろう.しかし,表2が示すように,人間が接続関係を推定する際は両者の正解率にあまり差はない.これについては3.3節でさらに議論する.最後に,テキスト全体を見て判断した場合の人間の出力と2文のみで判断した場合の出力の一致率は共に約6割と高くない.つまり,正解率は変わらないが正解している問題は少なからず異なっている.このことから,テキスト全体を見た方が正しく判断できるものと逆に情報を2文に限定したほうがよい場合がそれぞれ存在することを示唆している.\subsection{接続関係ごとの正解率}テキスト全体を見た場合と2文だけを見た場合の正解率の異なりを接続関係ごとに分析し,接続関係の持つ特徴を考える.図1,図2にそれぞれ3人の被験者の平均による接続関係毎の正解率と適合率を示す.\begin{figure}[b]\centerline{\includegraphics{15-3ia2f1.eps}}\caption{接続関係ごとの正解率の平均}\end{figure}図1,図2より「転換」においては2文だけで判断するよりテキスト全体を見たほうが正解率と適合率が高い.特に「転換」という接続関係は話題の移り変わりを表すので,直前の1文だけでは判断できないと考えられる.また,「加反」や「例示」はテキスト全体でも2文でもほとんど差がなく,しかも他の接続関係に比べて正解率,適合率共に高い.このことから,「加反」や「例示」は直前の文とのつながりを表しやすいといえる.\begin{figure}[t]\centerline{\includegraphics{15-3ia2f2.eps}}\caption{接続関係ごとの適合率の平均}\end{figure}\subsection{テキストと2文の出力の一致度と正解の関係}テキスト全体を見て選んだ接続関係と2文だけを見て選んだ接続関係が一致した問題数と,そのときの正解率から考察を行う.ここでは,簡単のため優先順位の最も高い接続関係を被験者の唯一の出力としている.表3は各被験者の出力結果の内訳である.表中の○,×はそれぞれ正解,不正解を示している.この表から,全文を見なければ正解が出来ない項目b(122)は全体(900)の13.5{\%}であることが分かる.この結果から,全文入力することと比較して入力文を2文に制限することで条件が極端に不利になることはないと考え,本論文の入力を連続する2文とした.表4は2文だけ見たときには誤っているがテキスト全体を見た場合では正解している問題と,逆にテキスト全体では誤っているが2文だけで判断したときには正解している問題の接続関係ごとの割合を示している.表4より,テキスト全体を見た場合に正解した問題と2文だけを見た場合に正解した問題に多少の偏りは見られる.しかし,この結果からは接続関係によってテキスト全体を見た方が正しく判断できるものと情報を2文に限定した方がよいものに分けることはできない.\begin{table}[t]\begin{minipage}[t]{190pt}\caption{出力の一致からみた人間と正解の関係}\input{02table03.txt}\end{minipage}\hfill\begin{minipage}[t]{200pt}\caption{一方でのみ正解している問題}\input{02table04.txt}\end{minipage}\end{table}今回のようなタスクで長いテキストから接続関係を判断するとき,まず人は2文だけを見て決めようとする.そこでうまく接続関係が決められない場合には見る範囲を広げていく.しかし全文が見れる以上,2文だけで判断可能な場合でも人は他の文章の影響を受けずにはいられない.そのため,もし2文だけで接続関係を判断するための情報が十分含まれているとしたら,テキスト全体を与えることでかえって判断を迷わす結果となっている可能性がある.また,接続関係を決めるための情報が2文では不十分であるときは,人間の判断も自信のないものとなっている可能性が高い.また,表3においてテキスト全体を見た場合と2文だけを見た場合の出力が一致した問題(a,b)中での正解率(a/(a$+$b))は62〜77{\%}であり,3人の平均では71{\%}であった.表2に示す3人の被験者それぞれの正解率と比較するとおよそ1割強高い.これは,全体の正解率と比べて出力が一致している問題中での正解率の方が高くなるであろうという人間の直感とも一致する.しかし全体の17\%の問題(b)については正解とは異なった関係を選んでいるにもかかわらず,テキスト全体を見て判断した接続関係と2文だけで判断した接続関係が一致していることから,人は迷いなくその関係を選んでいると考えられる.出力がどちらも同じであるということは,接続関係を判断するためには2文の情報だけで十分であるといえるのではないか. \section{類似用例による接続関係の推定} 本節では,入力の2文に対してコーパス中で2文間の接続関係が同一と判断される類似用例文の検索手法の大まかな流れについて述べる.処理の概要を図3に示す.入力文と類似した2文の組を探すといっても,単純に文が似ているものを探せばよいというものではない.例えば「雨が降った。試合は中止になった。(因果)」と「雨が降った。試合は中止にならなかった。(逆接)」は,単語の一致率などを用いた一般的な類似度計算によって非常によく似た2文の組とされるものであるが,それぞれの文間の接続関係はまったく逆である.反対に,「本を読んだ。つまらなかった。(逆接)」と「評判の映画を観た。僕には退屈で眠くなった。(逆接)」では,一致する単語や一般的に類義語や上位語,下位語とされるものが存在しないにもかかわらず,人間が見ると直感的にこの2つの例文は似ている文であり,接続関係も同じであるといえる.本論文ではこのように,入力に対して同じ接続関係を持つと思われる類似用例文を大量のコーパス中から探し,その用例によって接続関係を推定する手法を提案する.以下に大まかな処理の流れを示す.\noindent\textbf{Step1.}前処理として,クラスタリング用に別のコーパスを用意し,接続関係を決定すると考えられる主要な単語を,GETA$^{(3)}$を用いてクラスタリングする.「本を読んだ。つまらなかった。」と「評判の映画を観た。僕には退屈で眠くなった。」の例では,「本を--映画を」,「読んだ--観た」,「つまらない--眠い」などの単語ごとにクラスタリングされることが理想である.クラスタリングの際,1文目と2文目から抽出する単語は区別される.詳しくは6節で説明する.\noindent\textbf{Step2.}入力の2文から動的に構文パタンを生成し,構文的に似ている文を候補として抽出する.パタンの生成,候補文の抽出に関しては5節で詳しく述べる.Step1のクラスタリングの際にも構文パタンを素性として用いるため,本論文では先にこちらを説明する.\noindent\textbf{Step3.}抽出した候補文に対して,単語や構文パタンによるスコア付けを行い,スコアの高い順に出力する.\begin{figure}[t]\centerline{\includegraphics{15-3ia2f3.eps}}\caption{類似用例による接続関係の推定}\end{figure}用例利用型(example-based)による解法は主に機械翻訳の分野で使用されてきた.例えば,(Sumita1998)で議論されているように,日本語の「AのB」と記述される際の助詞ノには多義性があり,その結果英語などに翻訳する際には多訳性が生じる.これに対して入力表現の「AのB」に最も類似している表現がどのように翻訳されているかを模倣することによって多義性解消を行う(すなわち翻訳結果を得る)というのが用例利用型翻訳の基本的な考え方である.本論文では,上記のAやBが文であり,助詞ノが接続詞であると仮に見做せばちょうど「AのB」の翻訳と同一の考え方ができるのではないかと考え,用例利用型による解法を目指した.用例利用型手法は万能ではない.我々は,用例利用型を有効に機能させるためには二つの重要なポイントがあると考える.すなわち,(a)広範な用例を収集すること(b)適切な類似度を設定することの2点である.(a)はコーパスを利用する他手法と同様であるが,「大量」である必要がない点は統計的手法などと異なる.すなわち用例利用型は用例の類似度を用い,出現頻度を利用しないため,各事例の出現比率は考慮する必要がない.このため,いくら重要事例であっても同一の事例が複数ある必要はなく,用例が広範に収集されていることのみが性能に影響する.(b)は統計的手法における統計量,規則を用いた手法の条件部に相当する処理を類似度によって制御しているため,類似度をどのように定義するかが制御部の核心である.本研究でどのように類似度を設定したかについては7節で議論する. \section{パタンによる候補文の抽出} 本研究では入力文に最も類似した文をコーパス中の文に対するスコア付けによって求めるが,コーパス中の全ての文に対してスコア付けをすると計算量が膨大となるため,入力文から生成した構文パタンに一致したコーパス中の文のみを対象とする.これらコーパス中から抽出された文を入力文に対する候補文と呼ぶ.本節では入力文からの構文パタン生成手法および候補文の抽出について説明する.また,この構文パタンは6節で述べる単語のクラスタリングの素性としても使用する.\subsection{構文パタンの生成}例3のように入力の2文が与えられたとき,まず入力の1文目,2文目それぞれから構文パタンを作成する.ここで,入力の各文から生成される構文パタンを基本パタンと呼ぶ.図4は例3の入力に対する構文解析結果である.構文解析器には「南瓜」$^{(2)}$を用いた.\noindent\hboxto3zw{例3)\hfill}1文目:上海の新生活はサンディにとって心地よいものとなるはずだった。\noindent\hboxto3zw{\hfill}2文目:しかし、最愛の母親の死は彼女に大きな打撃と計り知れない心痛を与えた。\begin{figure}[t]\centerline{\includegraphics{15-3ia2f4.eps}}\caption{例3の構文解析結果}\end{figure}\subsubsection{パタン要素の抽出}入力の各文から基本パタンを生成するために必要な要素を文節ごとに抽出する.ここで,「未知語」は全て「名詞」として扱い,句点以外の記号はあらかじめ全て削除しておく.以下に各文節からのパタン要素の抽出方法を説明する.\noindent\ul{\mbox{i)文末文節以外の文節からのパタン要素の抽出}}パタンを構成する要素を文節単位で抽出する.1文節から生成される要素をパタンの一要素とする.文節内の助詞,助動詞を抽出し,さらに全ての品詞で「非自立」であるものと,動詞の「ある」を無条件にパタン要素として採用する.同じ文節内のものを連結し,パタンの一要素とする.文節末が名詞または動詞の場合は,それぞれ``NOUN'',``VERB''に一般化し,それで一要素とする.また,文節末尾以外の名詞でNE(固有表現)タグがついているものはNEタグに変換する.例3では「上海」は``LOCATION''になる.「AのB」,「A(し)たB」などの「Aの」や「A(し)た」といった連体修飾節はパタンの要素には採用しない.ただし,NEタグの要素を含む場合を除く.例えば,例3の「最愛の」,「母の」はパタンの要素として採用しないが,「上海の」は「LOCATIONの」という形で採用する.\noindent\ul{\mbox{ii)文末文節からのパタン要素の抽出}}文末文節に関しては他の文節とは異なり,複数のパタン要素が生成される.文末文節の末尾から一形態素ずつ付与して複数のパタンの要素を作成する.ここで,抽出対象となるものは助詞,助動詞,感動詞,および全ての品詞で「非自立」であるもの,動詞の「ある」である.ただし,文末の「助詞」または「助動詞」の連続は切り離さない.例3の1文目の文末文節の「なるはずだった。」からは「はずだった。」と「だった。」の2種類のパタン要素が生成され,これらをそれぞれ末尾として構文パタンを生成する.つまり,ここでは助動詞「た。」の要素は作成されない.また,文末の形態素が形容詞ならば,その「形容詞の出現形+『。』」の要素を作成し,文末が名詞および動詞の場合はi)と同じくそれぞれ``NOUN'',``VERB''に一般化して一要素とする.\subsubsection{基本パタンの生成}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f5.eps}}\caption{各パタン要素と係り受け}\end{figure}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f6.eps}}\caption{例3の1文目,2文目から生成される各基本パタンと要素数}\end{figure}このようにして,各文節からパタン要素を取り出し,それぞれの文節から係り先の文節のパタン要素をつなげて構文パタンを作成する.つまり,同じ文節に係っているものどうしは同時にひとつの構文パタンの中には存在しないことになる.文末については要素が複数存在するので,それぞれの要素について構文パタンを作成する.図5に例3の各文節から抽出したパタン要素と文節ごとの係り受けを,図6には例3の1文目,2文目から生成した全ての基本パタンを示す.また,``*''は任意の文字列を意味している.各基本パタンにはそのときのパタンの要素数が付与される.文末文節以外の文節からは1文節から抽出された要素に対して一要素とし,文末文節から抽出された要素に対しては,一形態素で一要素として計算している.ただし,句点はカウントしない.例えば,例3の1文目の基本パタン「*は*ものと*はずだった。」では,文末文節以外の文節から抽出された要素が「*は」,「*ものと」の2つであり,文末文節から抽出された要素「*はずだった。」は句点を除いて三形態素からなるので,この基本パタンの要素数は5となる.\subsubsection{基本パタンの組み合わせによる構文パタンの生成}生成した1文目と2文目の基本パタンのすべての組み合わせを,入力に対する構文パタンとする.各構文パタンの要素数は組み合わせた基本パタンの要素数の合計となる.例えば,図6から1文目の基本パタン「LOCATIONの*は*ものと*はずだった。」と2文目の基本パタン「*に*ない*を*た。」を組み合わせて,要素数$10(6+4)$の構文パタン「LOCATIONの*は*ものと*はずだった。*に*ない*を*た。」ができる.図6では,1文目と2文目からの基本パタンがそれぞれ9パタンと6パタンであるため,最終的に全ての組み合わせで54個の構文パタンが生成されることになる.\subsection{候補文の抽出}5.1.3節で生成したパタンに適合する2文の組をコーパスから探す.ここで,パタンに適合したコーパス中の2文の組を候補文と呼ぶ.入力に対して最も類似した文はこの候補文の中から探す.パタンの照合に使用したコーパスはWeb文書から抽出した約120万事例である.生成したパタンを要素数の多いものから順に同じ要素数のパタンを一組として照合させる.ここでは120万事例から入力に最も近い1文を探すための絞込みをすることが目的であるので,ある程度の閾値で候補を絞る必要がある.しかしここで絞りすぎるのも問題である.ここでは実験的に,抽出された候補文が100セットを超えたときパタンの照合を終了するとした.つまり,例えば例3の入力文から得られるパタンのうち最も多い要素数をもつパタンは「LOCATIONの*は*ものと*はずだった。*に*ない*を*た。」と「LOCATIONの*は*ものと*はずだった。*と*ない*を*た。」である.これらを使って抽出してきた候補文の累計が100に満たない場合,さらに次の要素数9のパタン群(「LOCATIONの*は*ものと*だった。*に*ない*を*た。」,「*にとって*ものと*はずだった。*に*ない*を*た。」,…)を用いて候補文を増やす.ここで,抽出した候補文に対して7節の単語によるスコア付けによって入力に最も近い文を探す. \section{単語のクラスタリング} 本節では,単語のクラスタリングについて説明する.本節で生成した単語のクラスタは入力文と候補文との類似度を測る際に使用する.なお,本研究ではクラスタリングのためのツールとしてGETA$^{(3)}$を用いた.GETAは大規模で疎な行列の行間あるいは列間の類似度を高速計算する類似度計算ツールであり,クラスタリングライブラリが提供されているように,クラスタリングとして利用することが可能である.\subsection{クラスタリングに用いた素性}1文目,および2文目の述語と,1文目,2文目それぞれの述語に係る格要素のそれぞれについて接続関係が同じ文で用いられやすい単語のクラスタを作成する.すなわち,ここでは4種類のクラスタリングを行うことになる.単語のクラスタリングではGETAの処理時間との兼ね合いもあり,データセット1万セットで分類を行った.クラスタと単語は一対一ではなく,ある単語が複数のクラスタに属す場合も存在する.\vspace{\baselineskip}\begin{minipage}{183pt}例4)\\\includegraphics{15-3ia2-4.eps}\end{minipage}\hspace{2zw}\begin{minipage}{165pt}例5)\\\includegraphics{15-3ia2-5.eps}\end{minipage}\vspace{\baselineskip}\noindent\ul{\mbox{i)述語の同定}}本節で述べる述語とは,茶筌の品詞体系で「動詞」(基本形が「する」,「ある」,「なる」,「せる」,「れる」,「られる」であるものを除く)と「名詞--サ変」および「形容詞」となるもので,文末文節中で最も文末に近いものをいう.ここで,品詞が動詞,及び形容詞であるものは全て基本形にしている\footnote{実際には,今回のテストデータにおいては形容詞は全て基本形で出現していた.}.また,品詞が「動詞」で,基本形が「する」,「ある」,「なる」,「せる」,「れる」,「られる」となるもののみが文末文節にある場合はその係り元文節内で同様にして探す.すなわち,例4では「読む」が述語となり,例5では「勉強」が述語となる.ここで,サ変名詞に他の名詞が後続する場合,例えば「勉強方法にある」のような場合も「勉強」を述語とした.\noindent\ul{\mbox{ii)述語に係る格要素の抽出}}述語に係る格要素とは,i)で抽出した述語を含む文節に係る格文節で,文節末が「名詞\footnote{ここでいう「名詞」はIPADICにおける「名詞--一般」および「名詞--サ変」を指す.固有名詞は個別性が高いため,ここでの対象とはしなかった.}+助詞」となるもの全てを指す.さらに名詞が連続している場合は末尾の名詞のみを使用する.「名詞+の」は格要素として使用していない.また,述語が抽出されなかった場合は文末文節に係る格要素をここでいう述語に係る格要素として使用している.例4では述語「読む」に係る「本+を」が格要素となる.例5では「勉強」に係る文節が「数学の」のみであるが,これは「名詞+の」の形であるため採用されない.よって,この例からは格要素は抽出されない.以下では,例えば,1文目の述語をクラスタリングする場合,1文目をtarget,2文目をsourceと呼ぶことにする.2文目の述語をクラスタリングする場合は2文目がtarget,1文目がsourceとなる.述語に係る格要素のクラスタリング素性に関しても同様である.また,今回「述語が無い」または「格要素が無い」という情報は,クラスタリングの素性としては与えていない.本研究では,対象を述語とそれに係る格要素に限定した.これ以外の要素,例えば修飾語などの語句が接続関係の決定に影響する可能性は完全には否定できないが,我々はこれらを考慮することによる利得よりも素性数が増加して統計的な有意性を生じない損失のほうが大きいと考え,クラスタリングの対象素性からは除外した.\begin{table}[t]\caption{述語のクラスタリングに用いた素性と重み}\input{02table05.txt}\end{table}\begin{table}[t]\caption{述語に係る格要素のクラスタリングに用いた素性と重み}\input{02table06.txt}\end{table}表5,表6に述語と述語に係る格要素のクラスタリングに用いた素性と重みを示す.これらを素性として,GETAでは文書分類や単語シソーラスの自動構築に用いられている階層的ベイズクラスタリング(Iwayamaetal.1995)での分類を行っている.階層的クラスタリングとは,多次元のデータセットに対して,要素間の類似度に基づいて比較的「近い」要素群をクラスタとして発見する分析手法の1つである.GETAでは各アイテム(ここでは述語および格要素)の中で最も「近い」ものから順にボトムアップで各アイテムをまとめあげていく.一般的な木構造とは違い,同じ階層は存在せず,指定したクラスタ数になるように分割点を決定する(図7).\begin{figure}[t]\centerline{\includegraphics{15-3ia2f7.eps}}\caption{GETAによるクラスタリング構造}\end{figure}\subsection{クラスタ数の決定}クラスタリングを行う際,クラスタ数をどのように設定すればよいか.本論文ではクラスタ中のエントロピーを用いて自動的にクラスタ数を決定する.あるデータDのエントロピーは次式で求められる.\begin{equation}H(D)=-\sum_{接続関係i}P_{i}\log_{2}P_{i}\end{equation}ここで,$P_{i}$はデータ中の接続関係$i$の割合を示す.また,分割後のエントロピーは各クラスタ中のエントロピーの加重平均で表される.例えばクラスタ数2の場合,分割前のデータを$D_{0}$,分割後のデータをそれぞれ$D_{1}$,$D_{2}$とし,データ$D_{i}$のデータの個数を$|D_{i}|$,エントロピーを$H(D_{i})$とすると分割後のエントロピー$H(D_{1}+D_{2})$は以下の式で求められる.\begin{equation}H(D_{1}+D_{2})=\frac{|D_{1}|}{|D_{0}|}H(D_{1})+\frac{|D_{2}|}{|D_{0}|}H(D_{2})\end{equation}さらに,次の条件のいずれかを満たす場合にはクラスタリングを行わないとした.[条件1]任意の単語Aがすべてのクラスに属す場合[条件2]1種類の単語だけで構成されているクラスが存在する場合本論文では,単語のクラスタを単語の汎化の目的で使用するため,1種類の単語しか存在しないクラスタは汎化の意味をもたないと考え2番目の条件を加えた.したがって,1つのクラスタに複数の単語が存在するという条件の下でエントロピーの小さいクラスタを生成する.1文目の述語$(V_{1})$,2文目の述語$(V_{2})$,1文目の述語に係る格要素$(N_{1})$,2文目の述語に係る格要素$(N_{2})$の4種類のクラスタリングについて,それぞれ指定したクラスタ数と分割後のエントロピーの関係を図8に示す.\begin{figure}[t]\centerline{\includegraphics{15-3ia2f8.eps}}\caption{指定したクラスタ数と分割後のエントロピーの変化}\end{figure}\begin{table}[t]\caption{各分類器で設定したクラスタ数}\input{02table07.txt}\end{table}1種類の単語しか持たないクラスタが出現した時点で分割を停止している(条件2).そのため実験では,図8に示す範囲で最も小さいエントロピーを持つクラスタ数を利用している.表7に各分類器で設定したクラスタ数を示す.例えば,コーパスから抽出してきた1文目の述語1万単語をGETAでクラスタリングする際のクラスタ数は711である. \section{候補文のスコア付け} 本章では,5節で抽出してきたコーパス中に存在する候補文に対してスコア付けを行い,入力文に最も類似した候補文を探す.\subsection{構文パタンによるスコア}5.2節の構文パタンによる候補文の抽出では要素数の多いパタン順に照合を行った.しかし,要素数はパタン生成に使用した文節数,および形態素数であるため,単に要素が多いというだけでは特徴的なパタンであるとはいえない.そこで,入力文$i$から生成した候補文$c$をコーパスから抽出する際に使用したパタン$PT(i,c)$が特徴的なパタンであるかどうかを表す尺度として,パタン$PT(i,c)$の尤もらしさをパタン$PT(i,c)$がコーパス中で一致した2文の組(候補文)の数の逆数で表す.つまり,例えば構文パタンAに一致して抽出された候補文が$a$,$b$,$c$の3セットだったとする.このとき,パタンAの尤もらしさは1/3となる.さらに,このときの構文パタンの尤もらしさを,その構文パタンによって得られた候補文$c$のパタンスコア$S_{PT}(i,c)$とする.すなわち候補文$a$,$b$,$c$のパタンスコアは全て1/3となる.また,構文パタンAに一致する候補文は,構文パタンAから一要素だけ減らした構文パタンBにも一致する.つまり,コーパス中の2文の組Xが構文パタン「*は*ものと*はずだった。*は*た。」に一致するならば,Xは構文パタン「*は*ものと*だった。*は*た。」にも一致する.しかし,照合の際に使用した構文パタンが違うため,これらは区別して扱う.すなわち,候補文aについて,構文パタンAによって得られた$a$:A(候補文:使用した構文パタン)と構文パタンBによって得られた$a$:Bは別物であり,それぞれの構文パタンがコーパス中で一致した2文の組数によってパタンスコアは異なる.\begin{equation}S_{PT}(i,c)=\frac{1}{PT(i,c)にマッチするコーパス中の候補文の数}\end{equation}\subsection{単語スコア}はじめに,5.1節と同様にして入力文から1文目,および2文目の述語($V_{1i}$,$V_{2i}$)と,1文目,2文目それぞれの述語に係る格要素($N_{1i}$,$N_{2i}$)を抽出する.候補文からも同様に取り出し($V_{1c}$,$V_{2c}$,$N_{1c}$,$N_{2c}$),4種類の単語に対してそれぞれ単語スコアを計算する.\noindent\ul{\mbox{i)述語による単語スコア}}入力文$i$が与えられたときの,1文目の述語による候補文$c$のスコアと,2文目の述語による候補文$c$のスコアをそれぞれ$S_{V1}(i,c)$,$S_{V2}(i,c)$とする.$S_{V1}(i,c)$の初期値を0.001とし,図9の条件に従ってそれぞれのスコアを加算する.$S_{V2}(i,c)$も同様に計算する.\noindent\ul{\mbox{ii)述語に係る格要素による単語スコア}}入力文$i$が与えられたときの,1文目の述語に係る格要素による候補文$c$のスコアと,2文目の述語に係る格要素による候補文$c$のスコアをそれぞれ$S_{N1}(i,c)$,$S_{N2}(i,c)$とする.また,述語に係る格要素は全て「A(名詞)+B(助詞)」の形になっているが,「助詞」を一般化して「A(名詞)+助詞」にしたものを$N'_{1}$,$N'_{2}$としている.この場合,参照するクラスタは「助詞」を一般化する前のものと同一のものを使用し,クラスタを参照する際に全ての「助詞」を対象としている.$S_{N1}(i,c)$の初期値を0.001とし,図10の条件に従ってそれぞれのスコアを加算する.$S_{N2}(i,c)$も同様に計算する.\begin{figure}[b]\centerline{\includegraphics{15-3ia2f9.eps}}\caption{述語による単語スコアの加算方法}\end{figure}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f10.eps}}\caption{述語に係る格要素による単語スコアの加算方法}\end{figure}\subsection{候補文に対するスコア計算}7.1節と7.2節で求めたパタンスコアと単語スコアを用いて(4)の計算式により候補文$c$の入力文に対する類似度を計算した.\begin{equation}\mathit{Sim}(i,c)=S_{PT}(i,c)\times\{(S_{V1}(i,c)\timesS_{V2}(i,c))\times(S_{N1}(i,c)\timesS_{V1}(i,c))\times(S_{N1}(i,c)\timesS_{V2}(i,c))\}\end{equation}1文目の述語が入力文の1文目の述語と同一もしくは類似であったとしても,2文目の述語がまったく異なるものでは入力文と候補文が類似であるとはいえないため,$S_{V1}(i,c)$と$S_{V2}(i,c)$を掛け合わせている.また,述語が同一もしくは類似であるときに格要素の類似性が重要になってくるため,1文目と2文目でそれぞれ述語と格要素のスコアを掛け合わせている.式(4)はパタンスコアとそれらを全て掛け合わせたものである.式(4)を簡略化したものを式(5)に示す.\begin{equation}\mathit{Sim}(i,c)=S_{PT}(i,c)\times\{S_{N1}(i,c)\timesS_{V1}(i,c)^{2}\timesS_{N2}(i,c)\timesS_{V1}(i,c)^{2}\}\end{equation}この類似度が最も高い候補文の接続関係を入力の2文間の接続関係として出力する. \section{評価実験及び考察} \subsection{データセット}本実験で,入力文に対して類似した2文の組を探すために使用したコーパスは我々が収集した120万事例のWebコーパスである.記号等を多用したWeb独特の文は収集の対象外としてあらかじめコーパスを作成する際に除外しているが,文法的に不自然なもの等の判断はしていない.接続関係ごとの120万事例中の割合は表1に示した通りである.Web文書を入力としたテストでは,入力としてWeb文書から接続詞でつながった2文を6種類の接続関係に対して50セットずつ無作為に抽出した.これらをシステムの入力とするが,形態素解析の誤り等により入力文から構文パタンが生成されず,候補文がひとつも得られないものが19セット(累加:2,逆接:3,転換:8,例示:6)あったため,これらを除いた合計281問に対して実験を行った.実験では2文目の文頭の接続詞を除いた形で2文を入力としている.ここで,正解は元の接続詞が属す接続関係としている.本論文では複数の接続関係に属す接続詞も対象としているが,それらはテストセットには含んでいない.\subsection{Web文書からの入力に対する評価}Web文書を入力としたときの評価結果を表8に示す.類似度の計算で,パタンスコア$S_{PT}(i,c)$を用いず,単語スコアによる計算のみで類似度を計算した場合と,式(5)によって求めた場合(単語スコア×パタンスコア)の二通りについて評価実験を行った.単語スコアのみの評価で,どの候補文に対しても単語によって各単語スコアに値が加算されず差が出ない場合,これを不正解として集計した場合を「単語スコア(1)」,コーパス中で最も頻度の高い「累加」を答えとして集計した場合を「単語スコア(2)」の2種類の集計を行った.ここでは接続関係ごとの正解率の異なりも観察できるようにと考え,各接続関係で同等の量のテストセットを用意した.しかし各接続関係の実際の出現頻度には偏りがある.そのため,各接続関係の出現頻度を考慮した場合でも正解率を求めた(合計(頻度を考慮)欄).また,ベースラインとして,使用したコーパス(120万事例)中で最も多く出現した「累加」とすべて回答した場合とした(ベースライン欄).実験の結果,同スコアで一位となる候補文が複数出力される場合が多く存在した.この場合の対応としては,得られた複数の候補文のもつ接続関係の中で最も多いものを出力とすることも考えられる.しかし提案手法が出現割合を考慮することは本論文での趣旨とは異なるため,本実験では最も高い類似度を持つ2文から得られる接続関係を全て出力として,出力された接続関係の種類数に対する正解の割合をその入力に対する正解ポイントとし,合計を問題数で割ったものを正解率とした.つまり,例えばある入力に対して最も高い類似度を持つコーパス中の2文の組が4セット得られたとする.それぞれの2文間の接続関係が「因果」,「累加」,「因果」,「逆接」であるならば,システムは「因果」,「累加」,「逆接」の3つを出力する.正解が「因果」であった場合,この入力に対する正解ポイントは1/3となる.正解率はこれらの合計を問題文の総数で割って求める.\begin{table}[t]\caption{Web文書を入力とした評価結果}\input{02table08.txt}\end{table}表8より,単語スコアのみを用いて類似度を計算した場合と単語スコアとパタンスコアの両方を用いて類似度を計算した場合の両者で,ベースラインよりも高い正解率が得られた.また,両者を比較すると,単語スコアとパタンスコアの両方を用いた場合の方がわずかに合計での正解率が高くなっているが,出現頻度を考慮した場合,単語スコアのみの計算で出力が得られなかった場合は全て「累加」を出力するとしたシステムの方が正解率は良くなる.このことから,入力文と候補文の類似度の計算ではパタンスコアにはあまり効果がないといえる.次に,出力が得られた問題に対して出力結果の中に正解が含まれている問題の割合を表9に示す.単語スコアのみで行った実験では,単語によるスコアの加算がどの候補文に対してもされなかった場合,つまり候補文のスコアが全て初期値のままで差がない場合は``出力無し''としてここでは除いている.表9より,類似度の計算によってシステムが出した接続関係の中に正解とする接続関係が存在する割合はおよそ6割であった.単語スコアのみの場合で出力数の平均は1.53であり,それから考えると比較的高い割合を示しているといえる.また,本研究においては文間の接続関係そのものの曖昧性が大きいため,正解を何とするかが問題となる.残りの4割の問題では正解とは異なる接続関係を持つ文が選ばれたことになるが,人間が見たときに正解と判断できるものも含んでいると考える.システムの評価基準のひとつとしてここでは「2文をつなぐ元の文章中の接続詞が属す接続関係」を正解としたが,本システムの応用分野によっても正解の幅は異なる.しかし,一般的に人間が見て適切であると判断できる範囲であれば実用に耐え得ると考える.人手による評価については8.5節で議論する.\begin{table}[t]\caption{出力結果に正解が含まれている問題の割合}\input{02table09.txt}\end{table}また,単語のスコアのみの計算で出力が得られなかった問題は281問中41問(14.6\%)あり,そのうち入力の2文から単語要素がひとつも抽出されなかったものは23問であった.パタンスコアが類似文検索にあまり効果がみられないことからも,あらゆる候補文に対して何かしらの単語によるスコア付けが必要となる.今回述語とそれに係る格要素のみに限定することで,その文でのメインの話題どうしの接続関係を正確に把握できるのではないかと考えた.しかし本手法での単語の抽出方法では,1文目の述語$(V_{1})$,2文目の述語$(V_{2})$,1文目の述語に係る格要素$(N_{1})$,2文目の述語に係る格要素$(N_{2})$の4種類全てが取り出せる2文の組は1割程度しか存在していなかった.もちろん,常に文間の接続関係がその全ての要素で決まるわけではなく,あるひとつの単語によって関係が定義される場合もある.だが,抽出する単語を限定していることで必要な情報が取れていない場合も多く存在する.今回指定した,述語とそれに係る格要素だけでは万全ではないといえる.かといって入力文が与えられたときにどの単語に注目すべきなのかを自動的に判断するのは容易ではない.述語とそれに係る格要素以外の部分に関しては,係り受けや品詞による限定だけでは文によって必要とされるものが異なる場合に対処できない.しかし,無条件に文中の単語を対象としては悪影響が大きくなると予想される.今後これをどう対応するかは重要な課題である.\subsection{機械学習手法との比較}表8で本手法の精度が47.9{\%}(出現頻度を考慮しない場合の平均)であることを示した.この値はベースラインの精度17.1{\%}よりも良好なことは明白であるが,機械学習手法よりも本当に優位なのか.その結果を示したのが表10である.今回の比較では一般的な機械学習手法であるサポートベクターマシン(SVM)$^{(5)}$と,BACT(aBoostingAlgorithmforClassificationofTrees)$^{(6)}$を使用した.BACTは文構造を明示的に利用した分類器であり,部分木を素性としてブースティングを利用している.SVM,BACT共にデフォルトの設定のまま実験を行った.精度測定に使用した入力文は8.2節で行った実験と全く同一である.\begin{table}[t]\caption{提案手法と他手法との精度比較}\input{02table10.txt}\end{table}SVMは,ある接続関係とそれ以外の接続関係をそれぞれ正例,負例として学習した.正例と負例は同量にして,各10,000文で学習した.素性としては機能語も含む全ての単語集合(bag-of-words)を用いたが,接続詞のみ除外した.BACTについては,単語を要素とする木構造(実際にはリスト構造)を入力として与えた\footnote{名詞,動詞,形容詞に属する単語をそれぞれN,V,Aに汎化した木構造を与えた実験も行ったが,表10のBACTの結果よりも悪化した.}.両分類器共に,各接続関係ごとに2値分類器を作成するため複数の分類器において正例と判定され,結果として出力する接続関係が単独とならないことがある.その場合は,複数解の出力と考え,8.2節で述べたのと同一の方法で精度計算した.表10から,SVMやBACTは共にベースラインよりも良好な結果を示してはいるが,提案手法よりも明らかに精度が低いことが分かる.\subsection{エントロピー減少量と正解率の関係}6.2節で各分類器のクラスタ数を「一種類の単語のみで構成されるクラスタが生じない範囲で最も小さいエントロピーを持つクラスタ数」として設定し,そのクラスタ数で単語をクラスタリングした結果を,単語スコアを求める際に使用している.ここでは,式(1)により求めたエントロピーが小さいクラスタには同じ接続関係になりやすい文中の単語が偏っているという考えに基づいている.しかし,本当に式(1)によるエントロピーが小さくなるようにクラスタを生成することで正解率は向上するのだろうか.本論文で用いたデータでは分割前のエントロピーは1.9〜2.0程度であった.また図8をみると,分割前のエントロピーに対して分割後のエントロピーは1.2〜1.4程度であり,元のエントロピーの半分にもなっていない.そこで,6.2節で生成した各単語のクラスタで閾値以上のエントロピーを持つクラスタを削除し,残りの閾値より小さいエントロピーを持つクラスタのみを使用した場合で実験を行った.表11には1文目の述語$(V_{1})$,2文目の述語$(V_{2})$,1文目の述語に係る格要素$(N_{1})$,2文目の述語に係る格要素$(N_{2})$のそれぞれのクラスタにおいて,各条件に合ったクラスタの数を示している.表11の``$<$X''は6.2節で設定したクラスタ数でクラスタリングした結果生成されたクラスタで,Xより小さいエントロピーを持つクラスタを意味する.また,式(1)によれば,単純に文間の接続詞が同じものでクラスタを生成した場合,生成されたクラスタはどれもエントロピーが0となり,エントロピー減少量は$H(D_{0})$となる.このクラスタを用いたときの結果を``=0.0(Conj)''の欄に示す.\begin{table}[b]\caption{条件を満たすクラスタの数}\input{02table11.txt}\end{table}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f11.eps}}\caption{条件を満たすクラスタのみを使用した場合の評価結果}\end{figure}また,図11はそれぞれの条件を満たすクラスタのみを使用して実験を行ったときの結果を示している.テストセットは8.2節で使用したWeb文書からのテストセットと同じである.表11,図11より,閾値を高くしていき,エントロピーの小さいクラスタだけを用いて類似度の計算を行った方が出力される問題数は減るが,その中での正解率は高くなっていくことがわかる.このことから式(1)によるエントロピーが小さいクラスタを数多く生成することができればシステムの向上が見込めるということがいえる.今回はクラスタリングツールGETAの処理速度の関係で,$V_{1}$,$V_{2}$,$N_{1}$,$N_{2}$それぞれのクラスタリングにおいて1万単語ずつしか分類できなかった.そのため,例えば最もスコアの高い候補文(システムの出力)が1文目の述語が一致している(1文目の述語によるスコアには1が加算される)だけで他の単語は入力文中の単語とは関係のないものであったとする.このとき,他の候補文でより入力文に類似したものがあったとしても,各クラスタ内に入力文とその候補文中の単語が存在しなければスコアは加算されない.本論文ではGETAによる単語の汎化を行ったが,1万単語では不十分であり,やはり過疎性の問題が存在していたといえる.出力結果を観察すると,このような例は少なくなかった.閾値を設けた場合のクラスタではそこからさらに単語数は削られている.そのため,システムが答えを出力できた問題の数は当然減少するが,システムが答えを出力した問題の中でもこの単語数の少なさが誤りの要因として含まれていると考える.クラスタ数の減少量から単純に計算して,エントロピーが0のもののみを使用した場合の単語数は閾値を設ける前の単語数のおよそ3.5\%であり,約350単語でしかない.クラスタの削除を行わない場合でシステムは85.4\%の問題に対して答えを出力している.そのことから,生成したクラスタからエントロピーが大きいものを削除した後の単語数が合計で数万語程度あれば,エントロピーが0となるものだけを採用した場合(``$=0.0$'')の正解率で全ての問題に対応できると予測できる.ただし,エントロピーが小さいクラスタであれば何でもよいというわけではない.単純に文間の接続詞が同じものどうしをまとめたクラスタを用いた場合(``$=0.0(\mathrm{conj})$'')でも各クラスタのエントロピーは0となる.しかし,出力された問題数に対する正解率で見た場合,図11から,6.2節で生成した4種類のクラスタでそれぞれエントロピーが0となるものだけを採用した場合(``$=0.0$'')の正解率は60.6{\%}で,単純に文間の接続詞が同じものどうしをまとめたクラスタを用いた場合(``$=0.0(\mathrm{conj})$'')では,45.7{\%}である.この結果から,本手法で生成したクラスタは,少なくとも文間の接続詞によってまとめたクラスタよりは良いものであるといえる.また本論文では,式(1)によるエントロピーは良好なクラスタの一指標とはなりえるが,エントロピーが小さいものが必ずしも良いクラスタであるとはいえないと考える.\subsection{人手による評価}3人の被験者にWeb文書を入力とした8.2節の実験でシステムが出力した接続関係と,入力の2文を提示し,システムが出力した接続関係が正しいと思うものに○をつけてもらった.システムの出力としては単語スコアとパタンスコアの両方を用いて類似度を求めたときの出力を提示した.被験者らにはそれぞれの接続関係の定義を表12のように提示し,各接続関係に含まれる接続詞も参考として提示した.しかし,この接続詞の分類は必ずしも一意に決まるものではないので,あくまでも参考として使用することに限定し,被験者らにもそのように教示した.今回のシステムでは複数の接続関係を出力する場合も存在するので,人手による評価では出力数に対する2人以上の被験者が正しいと判断した接続関係割合を正解ポイントとして,Web文書を入力とした8.2節での評価と同様に累計を問題数で割ったものを正解率として求めた.システムの出力として被験者らには単語スコア×パタンスコアで類似度を求めたときの出力結果を提示している.接続関係のコーパス中での出現頻度は考慮していない.結果を表13に示す.\begin{table}[b]\caption{被験者に提示した接続関係とその定義文}\input{02table12.txt}\end{table}\begin{table}[b]\caption{人手評価によるシステムの正解率}\input{02table13.txt}\end{table}人手による評価では,システムの自動評価よりおよそ27ポイント高い評価結果となった.人手による評価で7割以上の正解率を得られたことで,本手法の有効性を確認した.これによって,他のアプリケーションへの応用の可能性がみられたと考える.結果の事例観察から,自動評価と人手評価の精度が大きく異なったのは大きく2つの理由が関係していると考える.1つは入力文を接続詞で連続する前後2文としたため,当該2文以前,及び以後の文脈が接続詞の決定に強く影響していると考えられる場合である.これは例6のような場合に見受けられる.\noindent\hboxto3zw{例6)\hfill}舌鼓を乱打させました。\noindent\hboxto3zw{\hfill}食べずに済ませられないのがカレーうどん。この例ではシステムは「逆接」と出力され,被験者3名とも正しいと判断されたが,実際の接続詞は「さて」(転換)である.この例においては,この2文の前後数文も示していれば人間も「転換」の接続関係と判断すると予測される.もう一つは,少なくとも読み手には複数の可能性が存在すると考えられる場合である(例7).\hangafter=1\hangindent=4zw\noindent\hboxto3zw{例7)\hfill}コンビニエンスストア側にとっては、預金の窓口機能も加えることで店舗の集客力を高める狙いがあります。\hangafter=1\hangindent=4zw\noindent\hboxto3zw{\hfill}金融機関側にとっては、店舗を開設するより少ない投資で拠点を拡大できる利点があります。この例では,システムの出力は「累加」であり,被験者3名は正しいと判断したが,実例は「一方」すなわち並列である.人間は与えられた2文とその接続関係(例7の場合は並列関係)に対して妥当性を検証し,全体として意味が取れた場合に正しいと判断すると推察される.しかし全体として意味が取れる接続関係は必ずしも1つだけではないと考えられ,これによって人手の正解率が高くなったものと考える.換言すれば,この結果は読み手と書き手の理解が一致しないことが少なからずあることを示しているのではないだろうか.\subsection{抽出された単語の数}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f12.eps}}\caption{抽出された単語の種類数と問題数の異なり}\end{figure}8.4節では本論文で生成した単語のクラスタに含まれる単語数が不十分であったことについて触れたが,その他にも抽出した単語の種類にも不足があった.本論文では文中の修飾部に含まれる語は文間の接続関係を推定する際にはあまり重要ではなく,逆にノイズとなる場合が多いと考え,対象を文の述語とそれに係る格要素に限定したが,1文目の述語($V_{1}$),2文目の述語($V_{2}$),1文目の格要素($N_{1}$),2文目の格要素($N_{2}$)の4種類全てが抽出される2文の組は一割程度であった.図12は本実験で用いたWeb文書からの281セット中での抽出された単語の種類数と問題数の内訳を示している.接続関係を推定するのに必ずしも4種類全ての単語が抽出される必要はないが,抽出される単語数が減るほど正解率も低くなる傾向がある.Web文書などの一般的な文章では修飾部を含まない文は少なく,$V_{1}$,$V_{2}$,$N_{1}$,$N_{2}$の4種類では不十分である可能性がある.また,述語が「みる」「思う」等の広く一般的に用いられる語では,接続関係を同定することは難しい.このような場合には逆に修飾部によって接続関係が決定されることがある.このため,その2文での重要語の選別が重要となってくる.ここでいう重要語とは,単にTF・IDFなどから得られるものとは限らない.この重要語の選別が更なる精度向上には必要不可欠であると考える. \section{結論} 連続する2文の接続関係を同定する手法について議論した.我々は,大量の事例を収集し,そのうち入力の2文に最も類似した事例に倣って問題を解く用例利用型(example-based)の処理手法を提案した.この技術は主に機械翻訳において用いられ,有効性が確認されているが,我々はこれを談話処理の問題に初めて適用した.その結果,本研究で対象としたような接続関係同定問題に対しても用例利用型が有効に機能することを実験によって示した.本研究は日本語を対象とした関連研究がないため相対的な性能の比較は不可能だが,人間による判断で提案手法による出力の75{\%}以上が正しい接続関係であると判断されたことから,満足ではないながらも実用的な技術水準にまで高めることができたと考える.用例利用型の1つの大きな特徴は,事例追加の容易性である.同じコーパスによる手法である統計的手法は,事例が追加されると確率が再計算されるため処理性能が必ずしも向上するとは限らず,偏った事例の追加も悪影響を及ぼす可能性が高い.これに対し用例利用型はより類似した用例が増えるという影響のみであるためさらに性能が向上する可能性が高く,また事例追加による影響が局所的であるため全体的な事例追加のバランスを考慮する必要がない.今後は,こういった用例利用型に関する議論をさらに深めることで手法の特性を検証し,用例利用という手法の優位性並びに問題点をより明らかにしていきたい.\section*{使用した言語資源およびツール}\begin{itemize}\item[(1)]形態素解析器``茶筌'',Ver.~2.3.3,奈良先端科学技術大学院大学松本研究室,\\http://chasen.org/{\textasciitilde}taku/software/ChaSen/\item[(2)]構文解析器``南瓜'',Ver.~0.50,奈良先端科学技術大学院大学松本研究室,\\http://chasen.org/{\textasciitilde}taku/software/chabocha/\item[(3)]クラスタリングツール``汎用連想計算エンジン(GETA)'',第二版,http://geta.ex.nii.ac.jp\item[(4)]青空文庫.http://www.aozora.gr.jp/\item[(5)]TinySVM.http://chasen.org/{\textasciitilde}taku/software/TinySVM/\item[(6)]BACT.http://chasen.org/{\textasciitilde}taku/software/bact/\end{itemize}\begin{thebibliography}{}\itemHutchinson,B.(2004a).``MiningtheWebforDiscourseMarkers.''\textit{Proc.oftheFourthInternationalConferenceonLanguageResoursesandEvaluation},pp.~407--410.\itemHutchinson,B.(2004b).``AcquiringtheMeaningofDiscourseMarkers.''\textit{Proc.ofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~684--691.\item市川孝(1978).“国語教育のための文章論概説.”教育出版,pp.~65--67.\item飯田朱美,相川清明(2005).“ベクトルの非類似度を用いて複数表現の接続詞を自動決定するお天気情報システム,”情報処理学会研究報告,SLP57-24.情報処理学会.\itemIwayama,M.andTokunaga,T.(1995).``HierarchicalBayesianclusteringforautomatictextclassification.''\textit{Proc.ofthe14thInternationalJointConferenceonArtificialIntelligence},pp.~1322--1327.\itemMarcu,D.andEchihabi,A.(2002).``AnUnsupervisedApproachtoRecognizingDiscourseRelations.''\textit{Proc.ofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~368--375.\itemLochbaum,K.E.,Grosz,B.J.,andSidner,C.L.(2000).``DiscourseStructureandIntentionRecognition.''In:R.Dale,H.MoislandH.Somers,eds.HandbookofNaturalLanguageProcessing,MercelDekker,Inc.,pp.~123--146.\itemSporleder,C.andLascarides,A.(2005).``ExploitingLinguisticCuestoClassifyRhetoricalRelations.''\textit{Proc.ofRecentAdvancesinNaturalLanguageProcessing},pp.~532--539.\itemSumita,E.(1998).``AnExample-BasedApproachtoTransferandStructualDisambiguationwithinMachineTranslation.''Doctoralthesis.KyotoUniversity.\item高橋晃,桃内佳雄,宮本衛市.(1987)文章生成における接続詞の生成方略について.情報処理学会研究報告NL62-3.情報処理学会.\itemWolf,F.andGibson,E.(2005).``RepresentingDiscourseCoherence:ACorpus-BasedStudy.''\textit{ComputationalLinguistics},\textbf{31}(2),pp.~249--287.\end{thebibliography}\appendix本研究で採用した6種類の接続関係と各接続関係に属する接続詞を以下に示す.なお,本研究で使用しなかったその他の接続詞も参考として示す.\vspace{\baselineskip}\begin{center}\small\begin{tabular}{lp{40zw}}\hline接続関係&接続詞\\\hline累加&また,又,亦,そして,それに,しかも,さらに,それから,そのうえ,そのうえに,それと,おまけに,ちなみに,因みに,なお,尚,なぜなら,ただし,但し,ただ,但,かつ,とどうじに,と同時に,あわせて,併せて,おなじく,同じく,それも,ましてや,それどころか,どころか,ついで,次いで,ならびに,まずは,つぎに,次に,そのうえで,だとすれば,とすれば,ほな,ほなら,ほんなら,そういや,そういえば,そーいや,それだけに,だって,というのも,じつは,実は,ほんとうは,本当は,もっとも,尤も,ともすれば,そもそも,じゃ,んじゃ,しかしながら,然しながら,然し乍ら,それだけに,つまるところ,そうですが\\\hline逆接&しかし,然し,でも,ところが,だが,ですけれど,しかしながら,然し乍ら,然しながら,けれども,けれど,ですが,それでも,じゃが,だけど,されど,が,けど,そうですが,だけれども,だからといって,さりとて,なのに,それなのに,にもかかわらず,さもなければ,でないと,いな,いや,否,いえ,じつは,実は,本当は,ほんとうは,そもそも,だからといって,はんめん,反面,そうですが,ぎゃくに,逆に,でなければ,てゆーか,てか,ってか\\\hline因果&なので,だから,ですから,ゆえに,故に,ほんで,そこで,そやさかい,すると,だとすると,そうなると,そうすると,だとすれば,とすれば,だからこそ,それで,かくして,こうして,そうして,で,それだけに,したがって,従って,よって,それから,そうしたら,したら,そしたら,では,じゃ,んじゃ\\\hline並列&または,又は,あるいは,或いは,或は,もしくは,若しくは,それとも,ないし,乃至,つまり,すなわち,即ち,いっぽう,一方,かたや,および,及び,ないしは,ならびに,並びに,それから,それでいて,したがって,従って,よって,てゆーか,てか,ってか,\\\hline転換&では,それでは,ところで,さて,それじゃ,じゃあ,ふんじゃ,ほんじゃ,んじゃ,じゃ,ほんなら,ほな,ほなら,それにしても,ともあれ,さあ,そうしたら,したら,そしたら,ならば,なら,それなら,てゆーか,てか,ってか,そういや,そういえば,そーいや\\\hline例示&たとえば,例えば,譬えば,たとへば,例へば,譬へば\\\hlineその他&おしむらくは,惜しむらくは,名かんづく,なかんずく,そりゃ,そく,即,おそれながら,恐れながら,おって,追って,わけても,ともに,ついては\\\hline\end{tabular}\end{center}\clearpage\begin{biography}\bioauthor{山本和英}{1996年3月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),主観表現処理(評判,意見,感情)などに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.e-mail:[email protected]}\bioauthor{齋藤真実}{2005年3月長岡技術科学大学電気電子情報工学課程卒業.2007年3月同大学大学院工学研究科修士課程電気電子情報工学専攻修了.修士(工学).在学中は質問応答及び談話処理の研究に従事.言語処理学会学生会員.e-mail:[email protected]}\end{biography}\biodate\end{document}
V02N04-02
\section{はじめに} \label{intro}日本語マニュアル文では,次のような文をしばしば見かける.\enumsentence{\label{10}長期間留守をするときは,必ず電源を切っておきます.}この文では,主節の主語が省略されているが,その指示対象はこの機械の利用者であると読める.この読みにはアスペクト辞テオク(実際は「ておきます」)が関与している.なぜなら,主節のアスペクト辞をテオクからテイルに変えてみると,\enumsentence{\label{20}長期間留守をするときは,必ず電源を切っています.}マニュアルの文としては既に少し違和感があるが,少なくとも主節の省略された主語は利用者とは解釈しにくくなっているからである.もう少し別の例として,\enumsentence{\label{30}それでもうまく動かないときは,別のドライブから立ち上げてみます.}では,主節の省略されている主語は,その機械の利用者であると読める.このように解釈できるのは,主節のアスペクト辞テミルが影響している.仮に,「みます」を「います」や「あります」にすると,マニュアルの文としてはおかしな文になってしまう.これらの例文で示したように,まず第一にマニュアル文においても,主語は頻繁に省略されていること,第二に省略された主語の指示対象が利用者なのかメーカーなのか,対象の機械やシステムなのかは,テイル,テアルなどのアスペクト辞の意味のうち,時間的アスペクトではないモダリティの意味に依存する度合が高いことが分かる.後の節で述べることを少し先取りしていうと,a.利用者,メーカー,機械などの動作が通常,意志的になされるかどうかと,b.文に記述されている動作が意志性を持つかどうか,のマッチングによって,省略されている主語が誰であるかが制約されている,というのが本論文の主な主張である.このようなモダリティの意味として,意志性の他に準備性,試行性などが考えられる.そして,意志性などとアスペクト辞の間に密接な関係があることが,主語とアスペクト辞の間の依存性として立ち現れてくる,という筋立てになる.なお,受身文まで考えると,このような考え方はむしろ動作などの主体に対して適用されるものである.そこで,以下では考察の対象を主語ではなく\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」とする.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが簡単に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.マニュアル文の機械翻訳などの処理においては,省略された{\dg主}の指示対象の同定は重要な作業である.したがって,そのためには本論文で展開するような分析が重要になる.具体的には,本論文では,マニュアル文において,省略された{\dg主}の指示対象とアスペクト辞の関係を分析することによって,両者の間にある語用論的な制約を明らかにする.さて,このような制約は,省略された{\dg主}などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳の基礎になる知見を与えるものである.さらに,実際にマニュアル文から例文を集め,提案する制約を検証する.なお,本論文で対象としているマニュアル文は,機械やシステムの操作手順を記述する文で,特にif-then型のルールや利用者がすべき,ないしは,してはいけない動作や利用者にできる動作などを表現するような文である.したがって,「ひとことで言ってしまえば」のような記述法についての記述はここでは扱わない. \section{マニュアル文に登場する人物と事物} マニュアル文であると,参照される人物や事物に何らかの制限があるが,ここで特に重要なのは,{\dg主}の候補が大別して以下の4カテゴリーに限定されることである.もちろん,特定のマニュアルにおいてはより多様な候補が考えられるが,それらは,この4カテゴリーのいずれかに属することになる.\begin{description}\item[メーカー]製造,マニュアルの記述,販売後のサービスという行為などを行なう.マニュアルライターを含むので,マニュアル文の書き手であり,言語的には話し手に相当する.\item[システム]マニュアル文の記述対象である機械の全体または一部を表す.\item[利用者]システムの利用者であると同時に,マニュアル文の読み手であり,言語的には聞き手に相当する.\item[メーカー・利用者以外の第三者]システムへの侵入者など利用者にとって不利になる人物や,共同利用者などを指す.\end{description}次にこれらの各カテゴリーが固有に持っている特質について調べてみよう.まず,以下では動作および特定の状態にあり続けることをまとめて{\dg行動}と呼ぶことにする.さて,メーカーは次のような特質を持つ.第一に,メーカーの行動は全て意志的に行なわれるものである.さらに,利用者の利益を目的とした行動のみを行ない,かつその行動に誤ったもの,無意志的なものはない.また,メーカーが誰か他者からの指導ないしは指令によって行動するのではなく,独立した意志決定によって行動できる.つまり,メーカーの持つ意志性は非常に強いので,これを表すために,独立性という新たな素性を加えることにする.メーカーは,製品出荷時以前に全ての試行的行動(つまり製品の試験)は終えているはずである.つまり,利用者が製品を使用するときにはメーカーの試行的行動はない.さらに,なんらかの将来の事態に備えての準備的行動,例えばシステムの初期化処理など,を行なうこともありうる.これらのモダリティの意味を素性の束の形でまとめると次のようになる.\enumsentence{\label{maker}メーカー$:$\\$[$意志性$:+]$,$[$利用者の利益$:+]$,$[$準備性$:\pm]$,$[$試行性$:-]$,$[$独立性$:+]$}ただし,ここで,素性値$+$は,その素性が必ずあることを示し,素性値$-$は,その素性が決\\してないことを示す.また,素性値$\pm$は$+$,$-$のいずれの可能性もあるとする.次はシステムである.現状ではシステムは,無情物であり意志的な行動をしないのが一般的である.また,準備的行動も行なわない.ただし,高度なソフトウェアなどの有情物とみなせるシステム,例えば,複雑かつ高級なソフトウェアや知的システム,はこの限りでなく,意志的行動や準備的行動も行ない得る.また,現状では知的システムといえども,システム自身が独立した意志決定によって行動したり,試験的あるいは試行的行動を行なうところまでは進んでいない.一方,利用者の利益という点に関して言えば,基本的には利用者の利益を計るような行動をするが,利用者が誤った操作をしたときには利用者にとって好ましくない行動をとることもありうる.以上,まとめると,モダリティの素性としては次のようになる.ただし,知的システムの場合とそうでない場合のふたつに分けている.\enumsentence{\label{sys}知的ではないシステム$:$\\$[$意志性$:-]$,$[$利用者の利益$:\pm]$,$[$準備性$:-]$,$[$試行性$:-]$,$[$独立性$:-]$}\enumsentence{\label{intlsys}知的システム$:$\\$[$意志性$:\pm]$,$[$利用者の利益$:\pm]$,$[$準備性$:\pm]$,$[$試行性$:-]$,$[$独立性$:-]$}次はシステムの利用者である.通常は意志的な行動を行なう.しかし,誤った操作を無意識に行なうこともありえる.その場合には,無意志の行動と考える.また,準備的行動,さらに頻繁に試行的行動も行なうであろう.もちろん,準備的でない行動,試行的でない行動も行なう.また,基本的には自分の利益のために行動するが,誤った操作によって不利益を被ることともある.また,明らかに利用者は,メーカーと同様に独立した意志決定をできる人物である.このようにみてくると,利用者は,意志性,準備性,試行性,独立性,利用者の利益のいずれの素性に対しても$+,-$のいずれもあり得る.結局,システムのモダリティの素性は次のようになる.\enumsentence{\label{user}利用者$:$\\$[$意志性$:\pm]$,$[$利用者の利益$:\pm]$,$[$準備性$:\pm]$,$[$試行性$:\pm]$,$[$独立性$:\pm]$}第3者としては,共同利用者あるいはシステムに害をなす侵入者などが考えられる.これらも,利用者と同様に人間であり,その意味素性は利用者と同じと考えられる.\enumsentence{\label{3P}第3者$:$\\$[$意志性$:\pm]$,$[$利用者の利益$:\pm]$,$[$準備性$:\pm]$,$[$試行性$:\pm]$,$[$独立性$:\pm]$}ところで,ここで述べたようなモダリティを表す素性としてシステムの意志というものを考えようとすると,そもそも今まで定義をきちんとせずに言語学の領域で使用されている定義と同じ意味で使っていた「意志」の定義が問題になってくる.例えば,計算機システムの利用者が端末からコマンドを入力して何らかの操作をする場合を考えてみよう.利用者はコマンドと利用者が最終的に得る結果には関与しているが,実際のソフトウェアの内部の動きまでは意志的に操作しているわけではない.そこで,ソフトウェア内部の利用者が関知しない動きは利用者の意志によるのではないということになる.これをシステム自身の意志的行動とするのは少し強引である.そこで,行動のイニシアチブは他者にあるにせよ,他者からは予測できない自律的な行動であることまで意志性の定義に含める.この考察の結果として,意志性を以下のように定義しておく.\begin{defi}\label{isi}ある行動が{\dg主}の意志的行動であるのは,(a)その行動を{\dg主}が関知し,(b)直接に制御でき,(c)その{\dg主}の行動が自律的である場合である.\end{defi}この定義によれば,複雑なシステムの内部動作でかつ,その内部動作が外部からは関知ないしは予測できない場合,加えて外部から見える行動が予測困難な挙動は,システム自身の意志的行動とみなしてもよいことになろう.ただし,ここでは単なる意志性に加え,独立した意志決定を行なうというモダリティの素性として,独立性を導入しているが,定義\ref{isi}によれば,このような独立性までは意志性に含まれていないことに注目されたい. \section{アスペクト辞の意味と,動詞との隣接について} \label{semcon}前節では,マニュアルに登場する利用者,システム,メーカーなどの行動が意志的であるかどうかについて議論した.そこで,本節では,1.節で述べたように,意志性などの素性を介して動詞句と{\dg主}を結びつけるための第二の準備として,動詞句にアスペクト辞が接続した場合の意志性について検討する.\subsection{アスペクト辞の意味}\label{seman}まず,ここでは従来の言語学による考察\cite{寺村:日本語のシンタクスと意味2}に従って,各アスペクト辞の素性について述べる.なお,独自に素性を持たず,隣接する動詞によってテイルなどのアスペクト辞が付く動詞句全体の素性が決まる場合には素性値は定義しない.\noindent{\dgテイル}\\広く知られていることであるが,テイルの時間的アスペクトとしては継続と完了の用法がある.テイルの完了の用法では純粋に既然の結果を示す.さらに,テイルの場合,それ自身には前節で述べたような準備性などのモダリティとしての意味合いはない.また,テイル自身が意志性ないしは無意志性を示すこともない.意志性は後で述べるように隣接する動詞の意志性に依存している.また,他の素性についても隣接する動詞にしたがって決まる.よって,テイル独自には,意志性,などの素性は定義されないので,テイルのモダリティの素性は,次のように空になる.\enumsentence{\label{f-teiru}テイル$:[\;]$}\noindent{\dgテアル}\\時間的アスペクトとしてはテアルは完了の用法のみである.テイルと異なり,完了とは言ってもテアルは,人が何かに対して働きかける行動の結果の存在,つまり,誰かの意志的行動によってもたらされた現在の状態を表すことである.この意味からテアル自体に意志性を表す力があると言える.\enumsentence{絵が壁にかけてある.}のように,行動をした人物に全く注意が払われない用法もあるが,その行動自体は意志的に行なわれたものに相違ない.さらに注意すべきことは,壁に絵をかける行動は,この文だけを見る限りにおいては,その行動をした人の独立した意志によって行なわれたことを妨げるものはない.仮に,従属節を追加することによって,{\dg主}の独立した意志決定でない次の文にすると\enumsentence{\label{tearu10}$??$上司に言われて絵が壁にかけてある.}絵を壁にかけるという行動を上司に命令されたとは読めず,相当受け入れにくい文になってしまう.\footnote{テイルの場合\enumsentence{上司に言われて絵を壁にかけている.}と比較すると良く分かる.この文では,明らかに上司に言われた通りの行動をしていると読める.}従って,独立性を$+$にしておく.その他の素性に関しては,テアル独自には決められない.よって,テアルのモダリティの素性は次のようになる.\enumsentence{\label{f-tearu}テアル$:$$[$意志性$:+]$,$[$独立性$:+]$}\noindent{\dgテオク}\\テオクもテアルと同様に,完了の用法である.さらに,次の例文に見られるように,話し手の意志的な準備を表す場合がある.\enumsentence{\label{teoku1}お客さんが来るので,掃除をしておく.}したがって,\hspace*{-0.2mm}テ\hspace*{-0.2mm}オ\hspace*{-0.2mm}ク自身によって準備性は$+$になりうる.\hspace*{-0.2mm}独立性については,\hspace*{-0.2mm}次の例文を見ると,\enumsentence{上司に言われて絵を壁にかけておく.}絵をかける行動は上司の命令であると解釈できるので,独立性$+$とはいえない.ただし,\enumsentence{絵を壁にかけておく.}では,\hspace*{-0.2mm}絵をか\hspace*{-0.2mm}け\hspace*{-0.2mm}る\hspace*{-0.2mm}こ\hspace*{-0.2mm}と\hspace*{-0.2mm}を誰かに命令されたとまでは読めないから,\hspace*{-0.2mm}独立性$-$とも確定できず,結局,隣接する動詞や文脈によることになる.以上まとめると,テオクのモダリティの素性は次のようになる.\enumsentence{\label{f-teoku}テオク$:$$[$意志性$:+]$,$[$準備性$:+]$}\noindent{\dgテミル}\\テミルは,時間的アスペクトとしては未完了の意味だが,次の例文に見られるように,{\dg主}がある行動を試行的に(もちろん意志的に)行なうことを表す.\enumsentence{\label{temiru1}今度は,中華料理を作ってみよう.}明らかに,テミル独自では準備性は表さない.また,独立性については,次の例文によれば,\enumsentence{上司に言われて絵を壁にかけてみる.}上司に命令された行動を行なうように読め,「上司に言われて」の部分を削除すると独立に意志決定したように読める.筆者の語感では,テオクよりは独立性が顕在化しているようにも感じられる.しかし,テアルの場合の(\ref{tearu10})のような非文性にまではいかないので,テオクと同様にテミル自身は独立性に関与していないとするのが妥当であろう.よって,テミルのモダリティの素性は次のようになる.\enumsentence{\label{f-temiru}テミル$:$$[$意志性$:+]$,$[$試行性$:+]$}\noindent{\dgテシマウ}\\テシマウは基本的には完了の用法であるが,これに文脈などにより「話し手にとって予想外の事象である」という話し手の{主観的な評価が加わる場合がある.この評価により,被害性や予想外性が表現される場合がある.この話し手の評価が含まれない完了を単純完了と呼ぶことにする.また,予想外性や被害性が意味に入っている完了を,予想外完了,被害完了などと呼ぶことにする.以下に例を示す.\enumsentence{宿題をやってしまえば,後はひまだ.--単純完了}\enumsentence{勉強をしなかったので,試験に落ちてしまった.--被害完了}被害完了の例文では「落ちる」ということに意志性はないが,だからといって被害完了一般に意志性がないとは言い切れない.例えば,\enumsentence{知らずに,誤ったコマンドを入力してしまった.}では,コマンド入力そのものは意志的に行なわれたと考えられる.その他の素性としては,明らかに準備性や独立性についての情報はテシマウ自身では与えない.よって,テシマウのモダリティの素性は次のようになる.\enumsentence{\label{f-tesimau}テシマウ$:$$[$被害性$:\pm]$}なお,アスペクト辞の持つモダリティにまで射程を広げると,テヤル,テクレル,テモラウ,テイク,テクルなどの視点に関与する補助動詞との関連もでそうだが,これらは視点に関する研究\cite{久野78,大江75}のなかでその意味論が詳しく研究されているので,ここでは対象としない.\subsection{動詞との隣接について}前節で述べたように,アスペクト辞の付く動詞句のモダリティは隣接する動詞に依存する場合があることを述べた.ここでは,最も重要なモダリティである意志性について,動詞がアスペクト辞に隣接した場合にどのようになるかについて考察する.ただし,ここでいう隣接とは,日本語句構造文法\cite{郡司94a}に述べられている概念であり,アスペクト辞は用言を直前に持つという隣接素性を持つ.換言すれば,ここでは,隣接素性の値となる用言を動詞に絞って考えるわけであり,そのような動詞をアスペクト辞に隣接する動詞と呼ぶ.まず,動詞が意志性を持つとは,その動詞が{\dg主}による意志的な行動を表していることであり,動詞が無意志性であるとは,{\dg主}による意志的でない行動を表していることである.アスペクト辞の持つ意志性については既に前節で考察した通りである.前節の結果を利用して,動詞自体の意志性と,アスペクト辞が隣接して形成される動詞句の意志性の間の関係を調べてみる.まず,テイルは,それ自身が意志性を持たないが,意志性の動詞(例えば,「落す」)にも,無意志性の動詞(例えば,「落ちる」)にも付き,その動詞句全体としての意志性は,隣接する動詞の意志性を引き継ぐ.例えば,\enumsentence{落ちている.}では,全体として無意志の行動ないしは結果状態を表すのに対し,\enumsentence{落としている.}では,全体として意志的行動が継続していることを表す.テアルは,\enumsentence{落してある}のように意志性の他動詞だけを隣接する.無意志の動詞につけると,\enumsentence{$\ast$落ちてある}のようにおかしな文になってしまう.テオク,テミルについては,意志性のある動詞に付くのはもちろんであるが,先に述べたテオク,テミル自体の意志性により,たとえ意志的,無意志的の両方の用法がある動詞についても{\dg主}の意志性が発現する.例えば,\enumsentence{落ちておく}\enumsentence{落ちてみる}という文では,「わざと落ちた」という意味になるが,これはもともと,無意志の動詞である「落ちる」にも極弱いながら意志的用法が存在し\cite{IPAL},それがテオク,テミルで発現したと考えられる.真に無意志にしか解釈できない動詞,例えば「そびえる」では,「そびえてみる」「そびえておく」は全く非文になる.テシマウの場合は少し厄介である.まず,無意志性の動詞なら,テシマウをつけた動詞句も無意志性がある.例えば,\enumsentence{落ちてしまう.}ところが,次の例で示すように,意志的な動詞につくと,自分の意志とは無関係に起こったような意味合いがでてくる.\enumsentence{落としてしまう.}もちろん,この場合でも意志的に「落した」という読みも可能である.よく考えると,「落す」という動詞自体にも,次の例のような無意志的な用法もある.\enumsentence{しまった.財布を落した.}したがって,結局,テシマウのついた動詞句は,動詞の元来意味していた意志性,無意志性をそのまま引き継いでいると考えるのが妥当であろう.まとめると表\ref{table0}になる.\begin{table}\caption{動詞の意志性とアスペクト辞付きの動詞句の意志性の関係}\begin{center}\begin{tabular}{|c||c|c|}\hlineアスペクト辞&動詞&動詞+アスペクト辞\\\hline\hlineテイル&意志性&意志性\\&無意志性&無意志性\\\hlineテアル&意志性&意志性\\\hlineテオク&意志性&意志性\\\hlineテミル&意志性&意志性\\\hlineテシマウ&意志性&意志性\\&無意志性&無意志性\\\hline\end{tabular}\end{center}\label{table0}\end{table} \section{マニュアル文における{\dg主}についての制約} \label{manual}いよいよ,アスペクト辞の付く動詞句のモダリティの素性と,{\dg主}になる可能性のあるメーカー,システム,利用者など{\dg主}の候補者とのモダリティのマッチングによって得られる{\dg主}についての制約を解析する.つまり,動詞句が絶対持たないモダリティ素性を持つ{\dg主}候補者は,実際はその動詞句の{\dg主}にはなり得ない,という考え方で{\dg主}に関する制約を求める.これは,単一化文法における単一化操作をモダリティ素性に適用したと見なせる.これは,{\dg主}のゼロ代名詞照応に役立つ.以下に個別のアスペクト辞について調べていく.\noindent{\dgテイル}\\(\ref{f-teiru})に示したようにテイル自身はモダリティ素性はなく,意志性については表\ref{table0}から分かるように,隣接する動詞の意志性ないしは無意志性を引き継ぐ.そこで,テイルが付く動詞句については,\hspace*{-0.3mm}意志性\hspace*{-0.2mm}$+$\hspace*{-0.2mm}の場合と\hspace*{-0.2mm}$-$\hspace*{-0.2mm}の場合に分けて論ずる.\hspace*{-0.3mm}意志性\hspace*{-0.2mm}$+$\hspace*{-0.2mm}であると,\hspace*{-0.3mm}それに矛盾しない素性を持つのは,(\ref{maker})(\ref{sys})(\ref{intlsys})(\ref{user})(\ref{3P})に記述されている素性から見て,メーカー,知的なシステム,利用者,第3者であり,これらがテイルの付く動詞句の{\dg主}になりうる.一方,意志性が$-$であると,(\ref{maker})によりメーカーが\hspace*{-0.2mm}意志性$:+$なので,\hspace*{-0.2mm}メーカーだけが,\hspace*{-0.2mm}{\dg主}になれない.\hspace*{-0.2mm}いくつか例文をあげておこう.例えば,次の例は,「行なう」が意志的な動詞なので少なくとも{\dg主}はシステムではない.直観では{\dg主}が利用者と読める.\enumsentence{初期設定を行なっているとき,...}最近では複雑なソフトウェアなど知的とみなされるシステムもあるようで,その場合はシステムにもなりうる.例えば,次に示される例がそうである.\enumsentence{入力ファイルを処理している様子を直接示します.}この文では,「ファイルを処理している」の部分の{\dg主}は省略されているが,直観的には,なんらかのソフトウェアが{\dg主}であろう.実際,この行動は,先ほど定義\ref{isi}で述べたかなり複雑なシステムの内部行動といえる.もっとも,現状では,このような例は少数派である.\noindent{\dgテアル}\\テ\hspace*{-0.2mm}アルのモ\hspace*{-0.2mm}ダ\hspace*{-0.2mm}リ\hspace*{-0.2mm}テ\hspace*{-0.3mm}ィ\hspace*{-0.2mm}素性(\ref{f-tearu})で特徴的なのは意志性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}に加えて独立性も\hspace*{-0.05mm}$+$\hspace*{-0.05mm}な\hspace*{-0.2mm}こ\hspace*{-0.2mm}とである.\hspace*{-0.5mm}この素性と矛盾しない{\dg主}候補者は,各候補のモダリティ素性(\ref{maker})-(\ref{3P})によれば,メーカー,利用者,第3者だけである.したがって,現状ではシステムはたとえ知的であっても,やはり利用者のイニシアチブによって行動するので,テアルの付く動詞句の{\dg主}にはなれないと考えられる.例えば,\enumsentence{\label{sen:12}調節ダイヤルが右端にセットしてある場合,....}では,直観的にはセットするという行動をしたのは少なくともシステム自身とは解釈できない.\noindent{\dgテオク}\\テオクの場合は,\hspace*{-0.2mm}意志性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}に加えて準備性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}である点が特徴である.\hspace*{-0.2mm}このモダリティ素性に矛盾しない{\dg主}候補者は,各候補のモダリティ素性(\ref{maker})-(\ref{3P})によれば,メーカー,知的システム,利用者,第3者だけである.例えば,次の例文では直観的には省略された{\dg主}は利用者と解釈できる.\enumsentence{このような場合には,変更をする可能性のあるすべてのところに$\ast\ast\ast$を書いておく.}ただし,非常に知的なシステムで,システム自身が利用者のために何かを準備しておいてやるようなシステムでは,{\dg主}がシステムになる場合も可能であろう.例えば,\enumsentence{システムは,そのファイルに更新の情報を書き込んでおくのである.}では,{\dg主}がシステムであり,それが利用者に役に立つことをしてくれているという意味合いがある.\noindent{\dgテミル}\\テミルでは,\hspace*{-0.2mm}意志性\hspace*{-0.05mm}$+$に加えて,\hspace*{-0.2mm}試行性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}が重要である.\hspace*{-0.2mm}このモダリティ素性に矛盾しない{\dg主}候補者は,各候補のモダリティ素性(\ref{maker})-(\ref{3P})によれば,利用者,第3者だけである.繰り返しになるがメーカーが{\dg主}になれないのは,マニュアルが使われるのはメーカー出荷後であり,その時点までにメーカーは全ての試験や試行的行動を完了しているはずだからである.そして,テミルが試行的な操作の実施であるということを考慮すると,{\dg主}が利用者である場合には,メーカーが行動例の説明の代わりに,メーカーから利用者へ操作法の指示を出していると考えられる.例文としては,次のようなものがある.\enumsentence{\label{miru10}誤っているときは,このコマンドを次の2つの記号のあいだに入れてみるとよい.}\enumsentence{\label{miru11}ファイルの内容を変更して,次のように変えてみる.}(\ref{miru10})では利用者が{\dg主}である.(\ref{miru11})動詞の言い切り形だが,動詞の言い切りでは,命令の用法もあり,その場合だと,利用者にその行動を行なうことを指示しているという意味もあり,この場合がそうである.以上の考察を,アスペクト辞の付いた動詞句における{\dg主}についての制約として表\ref{table:actor}にまとめて示す.{\small\vspace*{-1mm}\begin{table}[htb]\caption{{\dg主}についての制約}\begin{center}\begin{tabular}{|l||cc|c|c|c|c|}\hlineアスペ&意志&アス&\multicolumn{4}{c|}{{\dg主}}\\\cline{4-7}クト辞&性&ペクト&メー&シス&利用&第三\\&&&カー&テム&者&者\\\hlineテイル&無&完了&×&○&○&○\\&有&完了&○&知&○&○\\&無&継続&×&○&○&○\\&有&継続&○&知&○&○\\\hlineテアル&有&完了&○&×&○&○\\\hlineテオク&有&完了&○&知&○&○\\\hlineテミル&有&未完了&×&×&○&○\\\hline\end{tabular}\\\vspace*{1mm}ただし,{\dg主}に関する制約は○は{\dg主}になりうること,×は{\dg主}にはならないことを示す.また,「知」は知的なシステムの場合のみ可能であることを示す.\\\end{center}\label{table:actor}\end{table}}次にこの表\ref{table:actor}に記述されている制約が実際の例文でどの程度満たされているかを調べる.調査は、論文末尾に記載したマニュアルから本論文で扱っているアスペクト辞を含む合計1495文を集めて行なった.その内訳は,テイルを含む文が1015文,テアルを含む文が13文,テオクを含む文が147文,テミルを含む文が101文,テシマウを含む文が219文である.ただし,一文のなかに複数のアスペクト辞が現れた場合は別々に数えることにする.まず,テイル,テアル,テオク,テミルを含む文について,アスペクト辞のつく動詞句の意志性および,その動詞句の{\dg主}についてまとめたのが表\ref{table:actodata}である.ここで,表面的に{\dg主}が現れている場合は,それに基づいて判断した.しかし,省略されている場合は,文脈などを考慮して適切な{\dg主}を補った上で判断した.{\small\vspace*{-1.5mm}\begin{table}[htb]\caption{例文における{\dg主}}\begin{center}\begin{tabular}{|l||cc|c|c|c|c|}\hlineアスペ&意志&アス&\multicolumn{4}{c|}{{\dg主}}\\\cline{4-7}クト辞&性&ペクト&メー&シス&利用&第三\\&&&カー&テム&者&者\\\hlineテイル&無&完了&0&303&18&0\\&有&完了&149&57$^{\ast}$&143&62\\&無&継続&0&120&0&0\\&有&継続&13&70$^{\ast}$&69&11\\\hlineテアル&有&完了&7&0&6&0\\\hlineテオク&有&完了&0&8$^{\ast}$&139$\dagger$&0\\\hlineテミル&有&未完了&0&0&101$\dagger$&0\\\hline\end{tabular}\\\vspace{1mm}$^{\ast},\dagger$については後述.\end{center}\label{table:actodata}\end{table}}この結果を詳しく分析してみる.まず,テアルで{\dg主}がメーカーである例は,次のような文であり,出荷以前の初期設定を表している.\footnote{特に断らない場合は,本論文における例文は筆者らの作例である.}\enumsentence{コマンドの名前は,入力の簡略化のためではなく,意味を表すために付けてあるので,長めになっている.}テイルの場合,無意志的行動の{\dg主}が利用者や第三者である例もないが,利用者などが,無意志的のうちに継続して行なってしまう行動もありえないわけではないと考えられる.実際には,そのような無意志行動は少ないということであろう.メーカーのモダリティ素性(\ref{maker})によれば,メーカーに無意志的行動はない.実際の例文でも無意志用法の動詞の{\dg主}がメーカーになる例は皆無であることが,表\ref{table:actodata}により示されている.テミルがつく場合の表\ref{table:actodata}の$\dagger$に示した{\dg主}が利用者である例は,テミルについては18例は利用者独自の行動記述してあり,残りの83例は操作を指示する次のような例である.\enumsentence{では,初期設定をしてみましょう.}また,テオクがつく場合の表\ref{table:actodata}の$\dagger$に示した{\dg主}が利用者である例は,次のような利用者への操作の指示の例である.\enumsentence{不要なファイルを削除しておきましょう.}この結果からみると,言語学的考察からは予測できないことであるが,特にテオクは,実質的には利用者への行動指示という使われ方が標準的であることがわかる.次に,システムが{\dg主}になる場合について考察する.基本的には知的でないシステムは意志的行動はしない.したがって,システムが意志的行動である場合は,そのシステムが知的なものかどうかを調べる必要がある.なお,表3の$^{\ast}$に示したテイルあるいはテオクがつく場合にシステムが意志的行動をする例は,すべてUNIXや\LaTeX\のような高度なソフトウェアシステムの場合である.第三者が{\dg主}になる場合は例文自体が極端に少なく,制約において{\dg主}となれる場合でも例が見つかっていない場合もあった.しかし,以上のような分析を除いては,表\ref{table:actor}の制約は確認できたといえる.\subsection{動詞の意志性$+,-$の判定法}表\ref{table0}に示したように,テイルの場合,意志性があるかどうかは,隣接する動詞によって決まるため,表\ref{table:actor}の制約を適用するには,各々の動詞の意志性を判断する手段が要求される.本研究では,動詞の辞書として,情報処理振興協会で開発された計算機日本語基本動詞辞書IPAL\cite{IPAL}を利用している.IPALの辞書によると,動詞は,{\dg主}によって意志的に行ないうる行動を表す意志動詞と,{\dg主}による意志的な行動を表してはいない無意志動詞(分類1,2)に分類され,意志動詞については,意志動詞としてのみ用いられる動詞(分類3b)と,無意志動詞としても用いられるもの(3a)に分類される.これにより動詞は四種類に分類される.そこで,分類1,2ならテイルの付く動詞句の素性を$[$意志性$:-]$として処理できる.また,分類3bなら$[$意志性$:+]$として処理できる.したがって理解システムの作成にあたっては,表\ref{table:actor}を直接適用できる.問題は,かなり多数存在する分類3aの動詞である.実際,1015例中858例がこれに該当する.この種の動詞は意志性$+,-$の各々に共起する表現などにより意志性を定めなければならない.そこで,集めたマニュアル文のうち,テイルの付く動詞句を含む文について,どのような場合に意志性$+$で,どのような場合に意志性$-$になるかを調べてみた.その結果,以下のようなことが分かった.\\\noindent{\bfa.}他動詞用法の全く無い自動詞の場合,\hspace{-0.3mm}182例中173例(95.1\%)が意志性$-$の用法であった.\hspace{-0.3mm}し\\たがって,自動詞の場合は動詞句の$[$意志性$:-]$というデフォールト規則が設定できる.\\\noindent{\bfb.}能動に用いらる他動詞\cite{IPAL}の受動態は44例中38例(86.4\%)が意志性$+$であった.また,残りの6例では,ニヨッテ,ニなどの助詞によって{\dg主}語が明示されていた.よって,能動の動詞の受動態は意志性$+$というデフォールト規則をおき,明示された{\dg主}があるときには,それを優先させればよい.\\\noindent{\bfc.}サ変動詞の場合,509例中60例が「表示する/されている」という表現であり,この場合は{\dg主}がシステムと解釈できるから,「表示する」を特殊な語彙として扱うことにし,以下では残りのサ変動詞449例について考察する.このうち,208例が受動態だが,意志性$+$が205例(98.5\%)なので,サ変動詞の受動態は意志性$+$というデフォールト規則が成り立つ.また,能動態サ変動詞については,サ変動詞を構成する名詞の性質によりおおよそ次のように言える.\begin{itemize}\itemサ変動詞「Xする」を「Xをする」と言い替えられるものは177例中135例(76.2\%)が意志性$+$であり,意志性$+$というデフォールト規則が成り立つ.\itemサ変動詞「Xする」を「Xをする」と言い替えられないものは64例中56例(87.5\%)が意志性$-$であるので,意志性$-$というデフォールト規則が成り立つ.\end{itemize}\noindent{\bfd.}上記a,b,c以外の他動詞の能動体では,はっきりした傾向がない.111例中,意志性$+$が43例,$-$が68例であり,個別の動詞ないし文脈に依存している.\\\noindent{\bfe.}上記以外の動詞としては,「備える」など自動詞にも他動詞にも用いられるものが12例あったが,意志性は文脈に依存しておりデフォールト規則を立てることはできない.\\ここでは,以上の場合についてデフォールト規則を観察した.これらのデフォールト規則からはずれるものは特殊な語彙として辞書登録し,文脈や領域知識を用いて意志性を判断することになる.しかし,上記のカテゴリーの858例においてデフォールト規則で77.7\%の動詞の意志性を判断でき,またIPALの分類から意志性が判断できる分類1,2,3bを加えると,全体としては81.1\%が機械的に意志性を判断できる.したがって,効率的な機械的な処理の可能性がうかがわれる. \section{テシマウの被害性に関する考察} (\ref{f-tesimau})で,テシマウには予想外性(話し手にとって事象が予想外である)という評価から転じて被害性を表わしうるモダリティ素性があることを述べたが,ここでより詳細に検討する.(\ref{maker})の$[$利用者の利益$:+]$にも示したように,メーカーはシステムの全てについて把握した上\\で,利用者の利益を意図している.このことから,メーカーは商品を買った利用者に利益は与えるが,被害は与えないということになる.したがって,確実に言えるのは次の制約になる.\begin{co}\label{teiru5}テシマウが被害性の意味,すなわち$[$利用者の利益$:-]$なる素性を持つ場合は,{\dg主}はメーカーにならない.\end{co}ただし,(\ref{f-tesimau})でも示したように,テシマウには単純な完了を表す場合もあるので,テシマウがつくだけで,{\dg主}がメーカーにならないとは言い切れない.一方,システムも,それ自身は利用者の利便のためにあるものであり,かつ出荷以前に十分検査されているのが普通であるから,予想外の行動をすることは通常ありえない.ただし,利用者の誤った操作によって利用者にとっては予想外の,そして多くの場合は利用者にとっては好ましくない行動結果をシステムが示すことがある.この場合は{\dg主}はシステムになる.例文をみよう.\enumsentence{決められた手順を飛ばしてしまうと,エラーが発生する恐れがあります.}では,手順を飛ばしたのは利用者であると解釈される.主節で,利用者にとって被害になることが記述されており,従属節はその原因の行動であり,利用者にとっては被害となる行動である.\enumsentence{ディスケットを入れ換えずにこのコマンドを実行してしまうと,ディスクが壊れてしまう可能性がある.}この文の従属節のテシマウも同様に利用者にとって被害となる行動を表している.なお,主節のテシマウは{\dg主}がシステム側の一要素であるディスクであるが,システムは利用者の利益素性は$+,-$とも可能なのでテシマウが使われていてもよい.これらを表の形でまとめると,表\ref{sima6}のようになる.なお,メーカー,システム,利用者,第三者のいずれの場合も,被害感のない完了は理論的には否定されないが,被害感のない単なる完了であればわざわざテシマウを使う意味はなく,あまり現れないと考えられる.したがって,被害感のない完了になる場合は少ないと考えられる.{\small\vspace{-1mm}\begin{table}[htb]\caption{テシマウの被害性と{\dg主}についての制約}\begin{center}\begin{tabular}{|l||c|c|c|c|c|}\hline被害性&意志性&\multicolumn{4}{c|}{{\dg主}}\\\cline{3-6}&&メー&シス&利用&第三\\&&カー&テム&者&者\\\hline被害性の&無&$\triangle$&$\triangle$&$\triangle$&$\triangle$\\ない完了&有&$\triangle$&$\triangle$&$\triangle$&$\triangle$\\\hline被害性の&無&×&○&○&○\\ある完了&有&×&知&○&○\\\hline\end{tabular}\\\vspace{1mm}ただし,$\triangle$は可能ではあるが,頻度が低いことを示す.\end{center}\label{sima6}\end{table}}表\ref{sima6}のシステムが意志的行動の{\dg主}になれる,という点は注意が必要である.すなわち,前に述べたように,非知的システムではシステムは行動{\dg主}にはなれないが,知的システムなら{\dg主}になりうるわけである.これらの制約を実際のマニュアル文について調べたのが表\ref{sima6data}である.{\small\begin{table}[htb]\caption{例文における{\dg主}}\begin{center}\begin{tabular}{|l||c|c|c|c|c|}\hline被害性&意志性&\multicolumn{4}{c|}{{\dg主}}\\\cline{3-6}&&メー&シス&利用&第三\\&&カー&テム&者&者\\\hline被害性の&無&0&3&1&0\\ない完了&有&0&2&11&0\\\hline被害性の&無&0&61&48&3\\ある完了&有&0&63&16&11\\\hline\end{tabular}\end{center}\label{sima6data}\end{table}}このデータは,上記の理論的考察結果によく一致しているといえよう.また,一般に被害性のない完了ではテシマウを使う必要がないということも,このデータから裏付けられる.少数派である被害性のない完了としては,次のようなものが考えられる.\enumsentence{この考え方の実用的な面は,一度正しいプログラムができてしまうと,応用プログラムを作るのがずっと簡単になる点である.}また,表\ref{sima6}についても述べたように,システムが意志性のある行動の{\dg主}になるのはいずれもUNIXや\LaTeX\のような知的なシステムの場合であることが確認された.さて,被害性の有無は,主観によって判断したが,計算機でこの理論をマニュアル理解システムにおける{\dg主}同定のために使用しようとすると,被害性の有無を形式的にあるいは言語の表現から知る方法が必要である.そこで,被害性があると判断された202例文について調べてみると,以下のことが分かった.\\\noindent{\bfa.}受身形にシマウがつく場合---32例\\例えば,次の例で,これは,システムが{\dg主}であるが,利用者の誤った操作により利用者に被害が及ぶ,という例である.\enumsentence{絶対セクタへの書込みは,OSを通さないで行なわれるので,不用意に書き込むとディスクの内容が壊されてしまう場合がある.}\noindent{\bfb.}ナッテシマウという表現の場合---34例\\\noindent{\bfc.}シマッタという表現の場合---42例\\\noindent{\bfd.}特定の動詞との共起---34例\\次のような例である.「失う」「破壊する」「占有する」「ハングする」「忘れる」「失敗する」「破る」「間違える」「困る」など.\\\noindent{\bfe.}特定の副詞(節,句)との共起---15例\\次の副詞である.「誤って」「最悪の場合」「うっかり」「無意識に」「間違って」\\\noindent{\bff.}特定の名詞句---11例\\「ミスタイプ」など\\なお,これらの文例については{\bfa,b,c,d,e,f}の要素が1文の中に重複している場合もある.重複を考慮すると,これらの語彙によって156例は被害性が認識できる.一方,被害性のない完了では,これらの表現は一切使用されていない.また,逆に被害性のない完了だけで使用される表現としては,「デキテシマウ」などの可能を表す表現(4例)がある.さて,これらについては,予め要注意語彙としてシステムに登録しておき,テシマウとの共起を調べることにより処置できるから,計算機での実現が可能であろう.ただし,これ以外にも,まったく文脈あるいは記述内容によってしか判断できない場合もある.例えば,\enumsentence{部外者がパスワードを探り当ててしまえば,}実際には,表\ref{sima6data}に示すように,テシマウの場合被害性がある場合が大部分であり,計算機による処理の場合は,上記の特定の表現がなくても被害性ありというデフォールトの判断をしておけばよいと考えられる.このような分析により,テシマウの被害性の有無が文の表現だけから明らかになれば,表4の制約を適用して,メーカーを{\dg主}の候補から除外できる. \section{おわりに} \label{end}マニュアル文において,アスペクト辞テイル,テアル,テオク,テミル,テシマウが表すモダリティによって,そのアスペクト辞がつく動詞句の{\dg主}が誰であるかの制約を言語学的考察により明らかにした.次に,その制約が実際のマニュアル文で成立していることを検証した.より強い制約やデフォールト規則の発見,日本語マニュアル理解システムへの本研究成果の実装などが今後の課題である.\vspace{0.6cm}\hspace*{-0.5cm}{\large\dg統計データをとるために使用したマニュアルの出典一覧}\vspace{0.2cm}\hspace*{-0.5cm}LASERSHOT{\smallB406E}レーザービームプリンタ操作説明書.\Canon,\1991.\vspace{0.2cm}\hspace*{-0.5cm}アスキー出版局編著.\標準MS-DOSハンドブック.\アスキー出版局,\1984.\vspace{0.3cm}\hspace*{-0.5cm}I.Bratko著,\安部憲広訳.\Prologへの入門.\近代科学社,\1990.\vspace{0.2cm}\hspace*{-0.5cm}坂本文.\たのしいUNIX.\株式会社アスキー,\1990.\vspace{0.2cm}\hspace*{-0.5cm}システムのネットワークと管理.\日本サン・マイクロシステムズ株式会社,\1991.\vspace{0.2cm}\hspace*{-0.5cm}LeslieLamport著,\大野俊治他\訳.\文書処理システム\LaTeX\.\株式会社アスキー,\1990.\vspace{0.2cm}\hspace*{-0.5cm}トヨタマーク2取扱書.\トヨタ自動車株式会社,\1988.\section*{謝辞}本研究において,例文収集,統計データの作成に力を尽くしてくれた本学電子情報工学科大学院生近藤靖司君に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士課程修了.工学博士.現在横浜国立大学工学部電子情報工学科教授.自然言語処理,日本語の意味論・語用論などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioauthor{森辰則}{1986年横浜国立大学工学部卒業.1991年同大大学院工学研究科博士課程修了.工学博士.1991年より横浜国立大学工学部勤務.現在,同助教授.計算言語学,自然言語処理システムの研究に従事.情報処理学会,人工知能学会,日本認知科学会,日本ソフトウェア科学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V17N04-04
\section{はじめに} \label{section:introduction}近年,FrameNet~\shortcite{Baker:98}やPropBank~\shortcite{Palmer:05}などの意味役割付与コーパスの登場と共に,意味役割付与に関する統計的なアプローチが数多く研究されてきた~\shortcite{marquez2008srl}.意味役割付与問題は,述語—項構造解析の一種であり,文中の述語と,それらの項となる句を特定し,それぞれの項のための適切な意味タグ(意味役割)を付与する問題である.述語と項の間の意味的関係を解析する技術は,質問応答,機械翻訳,情報抽出などの様々な自然言語処理の応用分野で重要な課題となっており,近年の意味役割付与システムの発展は多くの研究者から注目を受けている~\shortcite{narayanan-harabagiu:2004:COLING,shen-lapata:2007:EMNLP-CoNLL2007,moschitti2007esa,Surdeanu2003}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f1.eps}\end{center}\caption{PropBankとFrameNetにおける動詞{\itsell},{\itbuy}に対するフレーム定義の比較}\label{framenet-propbank}\end{figure}これらのコーパスは,文中の単語(主に動詞)が{\bfフレーム}と呼ばれる特定の項構造を持つという考えに基づく.図~\ref{framenet-propbank}に,例として,FrameNetとPropBankにおける{\itsell}と{\itbuy}の二つの動詞に関するフレーム定義を示す.各フレームはそれぞれのコーパスで特定の名前を持ち,その項としていくつかの意味役割を持つ.また,意味役割は,それぞれのフレームに固有の役割として定義される.例えば,PropBankのsell.01フレームの役割{\itsell.01::0}と,buy.01フレームの役割{\itbuy.01::0}は別の意味役割であり,また一見同じ記述(Seller)のついた{\itsell.01::0}と{\itbuy.01::2}もまた,別の役割ということになる.これはFrameNetについても同様である.意味役割がフレームごとに独立に定義されている理由は,各フレームの意味役割が厳密には異なる意味を帯びているからである.しかし,この定義は自動意味役割付与の方法論にとってやや問題である.一般的に,意味役割付与システムは教師付き学習の枠組みで設計されるが,意味役割をフレームごとに細分化して用意することは,コーパス中に事例の少ない役割が大量に存在する状況を招き,学習時の疎データ問題を引き起こす.実際に,PropBankには4,659個のフレーム,11,500個以上の意味役割が存在し,フレームあたりの事例数は平均12個となっている.FrameNetでは,795個のフレーム,7,124個の異なった意味役割が存在し,役割の約半数が10個以下の事例しか持たない.この問題を解決するには,類似する意味役割を何らかの指標で汎化し,共通点のある役割の事例を共有する手法が必要となる.従来研究においても,フレーム間で意味役割を汎化するためのいくつかの指標が試されてきた.例えば,PropBank上の意味役割付与に関する多くの研究では,意味役割に付加されている数字タグ({\itARG0-5})が汎化ラベルとして利用されてきた.しかし,{\itARG2}--{\itARG5}でまとめられる意味役割は統語的,意味的に一貫性がなく,これらのタグは汎化指標として適さない,という指摘もある\shortcite{yi-loper-palmer:2007:main}.そこで近年では,主題役割,統語構造の類似性などの異なる指標を利用した意味役割の汎化が研究されている~\shortcite{gordon-swanson:2007:ACLMain,zapirain-agirre-marquez:2008:ACLMain}.FrameNetでは,意味役割はフレーム固有のものであるが,同時にこれらの意味役割の間には型付きの階層関係が定義されている.図\ref{fig:frame-hierarchy}にその抜粋を示す.ここでは例えば,{\itGiving}フレームと{\itCommerce\_sell}フレームは継承関係にあり,またこれらのフレームに含まれる役割には,どの役割がどの役割の継承を受けているかを示す対応関係が定義されている.この階層関係は意味役割の汎化に利用できると期待できるが,これまでの研究では肯定的な結果が得られていない~\shortcite{Baldewein2004}.したがって,FrameNetにおける役割の汎化も重要な課題として持ち上がっている~\shortcite{Gildea2002,Shi2005ppt,Giuglea2006}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f2.eps}\caption{FrameNetのフレーム階層の抜粋}\label{fig:frame-hierarchy}\end{center}\end{figure}意味役割の汎化を考える際の重要な点は,我々が意味役割と呼んでいるものが,種類の異なるいくつかの性質を持ち合わせているということである.例えば,図~\ref{framenet-propbank}におけるFrameNetの役割{\itCommerce\_sell::Seller}と,{\itCommerce\_buy::Seller}を考えてみたとき,これらは「販売者」という同一語彙で説明出来るという点では同じ意味的性質を持ち合わせているが,一方で,動作主性という観点でみると,{\itCommerce\_sell::Seller}は動作主であるが,{\itCommerce\_buy::Seller}は動作主性を持っていない.このように,意味役割はその特徴を単に一つの観点から纏めあげられるものではなく,いくつかの指標によって異なる説明がされるものである.しかし,これまでに提案されてきた汎化手法では,一つの識別モデルの中で異なる指標を同時に用いてこなかった.また,もう一つの重要なことは,これまでに利用されてきたそれぞれの汎化指標が,意味役割のどのような性質を捉え,その結果として,どの程度正確な役割付与に結びついているかを明らかにすべきだということである.そこで本研究では,FrameNet,PropBankの二つの意味役割付与コーパスについて,異なる言語学的観点に基づく新たな汎化指標を提案し,それらの汎化指標を一つのモデルの中に統合出来る分類モデルを提案する.また,既存の汎化指標及び新たな汎化指標に対して実験に基づいた細かな分析を与え,各汎化指標の特徴的効果を明らかにする.FrameNetにおける実験では,FrameNetが持つフレームの階層関係,役割の記述子,句の意味型,さらにVerbNetの主題役割を利用した汎化手法を提案し,これらの指標が意味役割分類の精度向上に貢献することを示す.PropBankにおける実験では,従来より汎化手法として議論の中心にあったARGタグと主題役割の効果の違いを,エラー分析に基づいて正確に分析する.また,より頑健な意味役割の汎化のために,VerbNetの動詞クラス,選択制限,意味述語を利用した三つの新しい汎化手法を提案し,その効果について検証する.実験では,我々の提案する全ての汎化指標について,それぞれが低頻度或いは未知フレームに対する頑健性を向上させることを確認した.また,複数の汎化指標の混合モデルが意味役割分類の精度向上に貢献することを確認した.全指標の混合モデルは,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42\%$の向上を達成し,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した. \section{関連研究} 意味役割を汎化することで意味役割付与の疎データ問題を解消する方法は,これまでにいくつか提案されてきた.\shortciteA{Moschitti2005}は各役割を主役割,付加詞,継続項,共参照項の四つの荒いクラスに分類した後,それらのクラスに対してそれぞれ専用の分類器でPropBankのARGタグを分類した.\shortciteA{Baldewein2004}は,意味役割分類器を学習する際,ある役割の訓練に,類似する他の役割の訓練例を再利用した.類似度の尺度としては,FrameNetにおける階層関係,周辺的役割,EMアルゴリズムに基づいたクラスタが利用された.\shortciteA{gordon-swanson:2007:ACLMain}はPropBankの意味役割に対して,各フレームの統語的類似度に基づいて役割の汎化を行う手法を提案した.また,異なるフレーム間の意味役割を繋ぐ懸け橋として,フレームに依存しないラベルセットである主題役割も用いられてきた.\shortciteA{Gildea2002}はFrameNetの意味役割を彼らが選定した18種類の主題役割に人手で置き換えることで,役割の分類精度が向上することを示した.\shortciteA{Shi2005ppt,Giuglea2006}は異なる意味コーパスによって定義された役割の共通の写像先として,VerbNetの主題役割を採用した.意味役割の汎化指標に対する比較研究としては,PropBank上でARGタグと主題役割の比較を行った,\shortciteA{yi-loper-palmer:2007:main,loper2007clr,zapirain-agirre-marquez:2008:ACLMain}の研究が挙げられる.\shortciteA{yi-loper-palmer:2007:main,loper2007clr}は,主題役割をPropBankのARGタグの代替とすることで,{\itARG2}の分類精度を向上出来た一方で,{\itARG1}の精度は低下すると報告した.また,\shortciteA{yi-loper-palmer:2007:main}は同時に,{\itARG2-5}は多種にわたる主題役割に写像されることを示した.\shortciteA{zapirain-agirre-marquez:2008:ACLMain}は最新の意味役割付与システムを用いて,PropBankのARGタグとVerbNetの主題役割の二つのラベルセットを評価し,全体として,PropBankのARGタグのほうがより頑健な汎化を達成すると結論付けた.しかしながら,これら三つの研究は,意味役割付与全体の精度比較しか行っていないため,各汎化指標により得られる効果の正確な理解のためには,詳細な検証による理由付けが必要である.FrameNet,PropBankにおけるこれらの汎化ラベルは,汎化ラベル自身を直接推定するモデルとして設計されたため,コーパス中の意味役割を汎化ラベルで直接置き換える方法か,それに準じる方法で用いられてきた.しかし,この方法では,異なる汎化指標を一つの分類モデルの中で同時に用いることが出来ない.役割の特徴を複数の観点から共有しようとする我々の目的のためには,これらの指標を自然に混合できる分類モデルの設計が必要となる. \section{フレーム辞書と意味役割付与コーパス} 本節では,我々の実験で利用する意味タグ付き言語資源について,その特徴を簡単に説明する.我々はFrameNet,PropBankの二つの意味役割付与コーパスの枠組みの基で,それぞれ自動意味役割付与の実験を行う.これらのコーパスは,図\ref{fig:semantic-corpus}のように,フレームとその意味役割を定義したフレーム辞書と,これらが付与された実テキストからなる.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f3.eps}\end{center}\caption{意味役割付与コーパスの概要図}\label{fig:semantic-corpus}\end{figure}また,役割汎化のためのコーパス外の知識としてVerbNetを用いる.FrameNet,PropBankの意味役割とVerbNetの主題役割の対応付けには,SemLinkを利用する.\subsection{FrameNet}\label{sec:framenet}FrameNetは,フレーム意味論\cite{fillmore1976}を基に作られた意味役割付きコーパスである.FrameNetにおけるフレームは{\bf意味フレーム}と呼ばれ,特定のイベントや概念を表す.各フレームには,それを想起させる単語が複数割り当てられている.意味役割は{\bfフレーム要素}と呼ばれ,各フレームに固有の役割として定義されている.また,それに加えて,各役割がそのフレームの中でどの程度重要な位置を占めるかを表す指標として,それぞれの役割に{\bf中心性}と呼ばれる型を割り振っている.これらは,{\bfcore},{\bfcore-unexpressed},{\bfperipheral},{\bfextra-thematic}の四つからなり,coreとcore-unexpressedはそのフレームの中心的な役割を,peripheralは周辺的な役割を,extra-thematicはフレーム外の概念から拡張された役割をそれぞれ表す.FrameNetの特筆すべき特徴として,フレーム間の階層関係がある(図~\ref{fig:frame-hierarchy}).これは,継承,使用,起動,原因,観点,部分,先行の七種類の有向関係によって定義されており,また,関係が定義されたフレームの意味役割間にもそれぞれ親子関係が定義される.一つのアノテーションは,文中の一つの想起単語とそれが想起するフレーム,及び適切な句への意味役割タグの割り当てで構成される.実テキストに対するアノテーションは,BritishNationalCorpusより抜き出された約$140,000$文にそれぞれ一アノテーションずつが付けられたものと,追加コーパスに対する全文アノテーションからなり,全体で約$150,000$のアノテーションが含まれる.我々の実験では,現時点の最新版である第$1.3$版を用いた.\subsection{PropBank}\label{sec:propbank}PropBankは,PennTreebankIIのWallStreetJournal部分の全てのテキストに対して,動詞の述語—意味役割構造を与えるコーパスである.フレームは,図\ref{framenet-propbank}のsell.01,buy.01などのように動詞ごとに個別に用意され,その動詞の項構造の数に応じて一動詞あたり平均$1.4$個のフレームが作られている.テキスト部には$112,917$アノテーションを含む.PropBankでは,FrameNetにあるようなフレーム間の関係は定義されておらず,各フレームは定義上独立な関係である.一方,意味役割の定義は二種類に分かれる.一つは$0$から$5$の数字がふられた役割({\itARG0-5})で,もう一つはAMタグという,全フレームに共通な付加詞的意味役割である.{\itARG0-5}については,図\ref{framenet-propbank}の{\itsell.01::0}(Seller)と{\itbuy.01::0}(Buyer)のように,同じ数字を持つものでも各フレームで役割の意味が大きく異なる.しかし,{\itARG0}と{\itARG1}については,{\itARG0}が{\itProto-Agent},{\itARG1}が{\itProto-Patient}に大まかに対応するように付けられており,それ以外の数字は動詞に応じて多様な意味を取ることが知られている~\shortcite{Palmer:05,yi-loper-palmer:2007:main}.AMタグには,所格を表す{\itAM-LOC},時格を表す{\itAM-TMP}など$14$種類がある.\subsection{VerbNet,SemLink}\label{sec:verbnet}VerbNet~\shortcite{kipper2000cbc}は,動詞間の統語的,意味的特徴の一般化を目的として作られた,動詞の階層的なグループ及びそれらのグループに関する特徴の体系的記述である.このグループは\shortciteA{levin1993evc}の提案に拡張を加えた$470$のクラスからなり,各動詞がどの動詞クラスに分類されるかは,そのクラスの動詞が持つべきいくつかの特徴を所有するか否かで決定される.同じ動詞クラスの動詞は,その所有する項が共通であり,これらは明確に定義された$30$種類の主題役割から選ばれる.我々はVerbNet第$2.3$版の情報を利用して,意味役割の汎化を試みる.VerbNetを利用する利点は大きく二つある.一つは,全動詞に対して共通に定められた$30$種類の主題役割が,PropBankやFrameNetの意味役割を適切に汎化する指標となりうることである.もう一つは,動詞グループが捉える細かなレベルの統語的/意味的共通性を利用出来る点である.我々はこれらの情報を用いた汎化手法を\ref{sec:frameNet-verbnet}節,\ref{sec:generalization-criteria-propbank}節で提案する.FrameNet,PropBank,VerbNetの三つはそれぞれ異なるアプローチで開発されているため,VerbNetを役割汎化の指標として利用するためには,これらの意味役割を相互に変換する必要がある.我々はこの目的のために,\shortciteA{loper2007clr}などによって作られたSemLink\footnote{http://verbs.colorado.edu/semlink/}を利用する.SemLinkは異なる方法論で作られた意味タグ同士を対応付ける目的で作られており,その内容は図~\ref{fig:semlink}のように(A)フレーム辞書の対応と(B)事例レベルの対応の二つの資源からなる.(A)では,FrameNet,PropBankのフレームが適切なVerbNetの動詞クラスと対応付けられ,また,それぞれの意味役割はその動詞クラス内の主題役割と結び付けられる.しかし,FrameNet,PropBank,VerbNetの間では,フレームの切り分け方が異なるため,いくつかのフレームでは,動詞クラスとの対応が多対多となる.そこでSemLinkでは,(B)のような事例レベルでの項構造のマッピングも同時に与えている.これによって資源間の方法論の差による曖昧性を解消し,各事例のフレームと意味役割を正確な動詞クラスと主題役割に写像することを可能にしている.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f4.eps}\end{center}\caption{SemLinkの概要図}\label{fig:semlink}\end{figure}現段階(第1.1版)のSemLinkでは,この事例レベルの写像はPropBankにのみ与えられ,FrameNetの方は,辞書レベルのマッピングのみである.FrameNetでは,この辞書マップを通じて$1,726$の意味役割がVerbNetの主題役割に写像される.これは,コーパス中に事例として一回以上出現する役割の$37.61\%$にあたる.また,PropBankでは,実テキスト中の62.34\%の項構造がVerbNetの動詞クラスと主題役割を用いたアノテーションに写像される. \section{意味役割分類問題} \label{sec:role-classification}意味役割付与は複数の問題が絡み合った複雑なタスクであるため,これを{\bfフレーム想起単語特定}(フレームを想起する単語の特定),{\bfフレーム曖昧性解消}(想起単語が取り得るフレームのうち正しいものの選択),{\bf役割句特定}(意味役割を持つ句の特定),{\bf役割分類}(役割句に正しい役割を割り当てる),といった四つの部分問題に分けて解かれることが多い.今回我々は,これらの部分問題のうち,役割の疎データ問題が直接関係する役割分類のみを取り扱う.これには,この部分問題における入力を正確に与え,他の処理によるエラーを極力排除することにより,意味役割の汎化による効果を厳密かつ詳細に分析する狙いがある.\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f5.eps}\end{center}\caption{役割分類における入出力の例}\label{input}\end{figure}本研究では,既存研究の枠組みに従い,役割分類を以下のように定義する.入力としては,文,フレーム想起単語,フレーム,役割の候補,役割句を与える.出力は,それぞれの役割句に対する正しい役割の割り当てである.図\ref{input}にFrameNet上の役割分類における具体的な入出力の例を示す.ここでは,動詞{\itsell}から{\itCommerce\_sell}フレームが想起され,文中に三か所の役割句が特定されている.役割の候補はフレームによって与えられる\{{\sfSeller},{\sfBuyer},{\sfGoods},{\sfReason},...,{\sfPlace}\}であり,各役割句の意味役割は,これらの役割候補の中から一つずつ選ばれる. \section{意味役割の汎化と役割分類モデル} \subsection{意味役割汎化の定式化}\label{sec:define-generalization}意味役割の汎化は,ある(言語学的)観点に基づいて,複数の意味役割の間に共通する性質を捉え,同じ性質を持つ役割を同一視する行為と言うことが出来る.従来の意味役割の汎化は,コーパス中の意味役割ラベルを一対一対応のとれる汎化ラベルに置き換えることで実現されてきた.しかし,この方法では,一つの意味役割に対して一つの汎化ラベルしか与えることが出来ない.一方で我々の立場は,意味役割の汎化は複数の観点から多面的に行われるべきというものである.したがって,我々は,意味役割の汎化を複数の汎化ラベルの集合で表現し,元の意味役割はこの汎化ラベルの集合を持つという形にする.具体的な例として,PropBankの意味役割が,{\itARG0-5}ラベルと主題役割の二つの汎化ラベルで同時に汎化されることを考えてみよう.今,フレーム固有の意味役割としてsell.01フレームの役割{\itsell.01::0}(seller)を考えると,これは,ARGタグと主題役割を用いてそれぞれ{\itARG0},{\itAgent}に汎化される.以降,異なる指標で作られたラベル同士を区別するため,各汎化ラベルを「{\itラベル名@指標名}」で表すことにする.{\itsell.01::0}はこれら二つのラベルを集合として持つと考え,これを関数$gen$を用いて,\begin{equation}gen(\mbox{\itsell.01::0})=\{\mbox{\itARG0@ARG},\mbox{{\itAgent@TR}}\}\end{equation}と表すことにする.実際には,これら二つの汎化ラベルは異なる汎化指標から導き出されているものであるので,説明の簡単のため,汎化指標ごとに関数を分解して表す.\begin{align}gen_{arg}(\mbox{\itsell.01::0})&=\{\mbox{\itARG0@ARG}\}\label{eqn:arg}\\gen_{tr}(\mbox{\itsell.01::0})&=\{\mbox{{\itAgent@TR}}\}\label{eqn:thematic}\\gen(y)&=gen_{arg}(y)\cupgen_{tr}(y)\end{align}これを一般化すれば,意味役割が$n$種の汎化指標によるラベルを同時に持つことを表現出来る.ここで,元の意味役割全体を$R$とし,異なる種類の汎化ラベルの集合をそれぞれ$C_1,\ldots,C_n$,これら全ての汎化ラベルの集合を$C=\bigcup_{i=1}^{n}C_i$とするとき,意味役割の汎化とは,関数\begin{align}gen_i&:R\rightarrow\{C_i'|C_i'\subsetC_i\}\\gen&:R\rightarrow\{C'|C'\subsetC\}\text{(ただし,}gen(y)=\bigcup_{i}gen_i(y)\text{)}\end{align}を定義することである.これら意味役割汎化のための関数をFrameNet,PropBankの各々の分類モデルで具体的にどのように定義するかについては,\ref{sec:generalization-criteria-framenet}節と\ref{sec:generalization-criteria-propbank}節で述べることにする.\subsection{役割分類モデル}前節で述べたように,多くの既存研究が意味役割の汎化の際に取ったアプローチは,それぞれの意味役割をフレームから独立な少数の汎化ラベルに置き換える方法であった.これにより,役割分類の過程は,フレーム固有の役割を推定する問題から,これらの汎化ラベルを推定する問題へと変化した.ここで,文$s$,フレーム想起単語$p$,フレーム$f$,役割句$x$が与えられるとき,与えられたフレームにより選択可能な意味役割の集合を$Y_f$とし,$s$,$p$,$f$,から観測される対象役割句$x$の特徴ベクトルを${\bfx}$とする.一般的に,意味役割分類は役割の候補$Y_f$の中から,最も適切な役割$\tilde{y}$を一つ選ぶ問題として定式化される.ここで,三つ組$(f,{\bfx},y)$に対して$y$のスコアを生成するモデルがあると仮定すると,$\tilde{y}$は以下のようにして選択できる.\begin{equation}\tilde{y}=\argmax_{y\inY_f}{\rmScore}(f,\mathbf{x},y)\label{equ:frame-specific-class}\end{equation}汎化ラベルを直接分類する従来の手法では,訓練データとテストデータ中の意味役割を汎化ラベルで上書きしてきた.例えば,PropBankのある役割$y$はそのARGタグ$arg(y)$によって汎化出来る.分類モデルは最適なARGタグ$\tilde{c}$を以下のようにして選択する.\begin{equation}\tilde{c}=\argmax_{c\in\{arg(y)|y\inY_f\}}{\rmScore}_{arg}(f,\mathbf{x},c)\end{equation}ここで,${\rmScore}_{arg}(f,\mathbf{x},c)$は$f$と$\mathbf{x}$に関する汎化ラベル$c$のスコアを与える.既存の多くのシステムは,このモデルを達成するために線形或いは対数線形のスコアモデルを採用し,特徴関数は${\bfx}$の要素と$c$の可能なペアに対する指示関数として設計された.\begin{align}&{\rmScore}_{arg}(f,\mathbf{x},c)=\sum_{i}\lambda_{i}g_i(\mathbf{x},c)\\&g_1(\mathbf{x},c)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedgec=\mbox{{\itARG0@ARG}})\\0&(\mbox{otherwise})\end{cases}\end{align}ここで,$G=\{g_1,\ldots,g_m\}$は$m$個の特徴関数,$\Lambda=\{\lambda_1,\ldots,\lambda_m\}$は$G$に関する重みベクトルを表す.$\tilde{y}$は少なくとも一つ,かつ唯一の役割$y\inY_f$が$\tilde{c}$に対応付けられているときに一意に決定される.従来の汎化指標の比較研究にも,このラベルの置き換えによる手法が用いられてきた\shortcite{loper2007clr,yi-loper-palmer:2007:main,zapirain-agirre-marquez:2008:ACLMain}.我々は,この手法とは対照に,フレーム固有の役割を直接推定するモデル(式\ref{equ:frame-specific-class})を採用する.その上で,$y$に関する汎化ラベル集合$gen(y)$を意味役割$y$の特徴として利用する.\begin{equation}g_1(\mathbf{x},y)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\mbox{{\itARG0@ARG}}\ingen(y))\\0&(\mbox{otherwise})\end{cases}\label{equ:generalized-label-feature-arg0}\end{equation}式\ref{equ:generalized-label-feature-arg0}では,特徴関数が$gen$の値に{\itARG0}が含まれるかを調べることにより,役割$y$が{\itARG0}ラベルによって汎化されるかどうかをテストしている.このように関数$gen$を特徴関数の条件部に用いることによって,複数の汎化ラベルを同時に扱うモデルの設計が可能になる.例えば,式\ref{equ:generalized-label-feature-arg0}と同様にして,同じモデルに主題役割をチェックする特徴関数を導入することも出来る.\begin{equation}g_2(\mathbf{x},y)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\mbox{{\itAgent@TR}}\ingen(y))\\0&(\mbox{otherwise})\end{cases}\label{equ:generalized-label-feature-agent}\end{equation}このアプローチの利点は,一つの役割が複数の汎化ラベルを持つことを考える場合はもちろんのこと,同一フレーム中の複数の意味役割が一つの汎化ラベルに写像される場合にも,より自然な汎化の方法となっていることである.例えば,\ref{sec:selectional-restriction}節で説明する選択制限を用いた汎化では,同一フレーム内の複数の役割が同じ選択制限のラベルを持つことがありうるが,従来の置き換え法を用いてこのラベルが推定されると,汎化ラベルを元の意味役割に復元できない.一方で,我々の方法は,複数の汎化指標を用いて元の意味役割を直接推定する方式のため,このような問題が起こらない.また,もう一つの利点は,異なる種類の汎化ラベルを混合する際に,それぞれのラベルに対する重みが,$\Lambda$の値を通じて学習により自動的に決定されるという点にある.したがって,このモデルでは,我々が事前にどの汎化指標が効果的かどうかを検討する必要がなく,学習プロセスに適切な重みを選ばせればよい.我々はスコアとして,最大エントロピー法を用いて求める条件付き確率$P(y|f,\mathbf{x})$を利用する.\begin{equation}{\rmScore}(f,\mathbf{x},y)=P(y|f,\mathbf{x})=\frac{\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y))}{\sum_{y\inY_f}\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y))}\label{eqn:probability}\end{equation}特徴関数の集合$G$には,利用する汎化ラベルの集合$C$に含まれる全てのラベルと${\bfx}$の要素の可能な組に対応する関数を全て含める.特徴関数の最適な重み$\Lambda$は最大事後確率(MAP)推定によって求める.我々はLimited-memoryBFGS(L-BFGS)法\cite{nocedal1980}を用いて学習データの対数尤度を$L_2$正則化のもとで最大化する.パラメータ推定には,classias\footnote{http://www.chokkan.org/software/classias/}を用いた. \section{FrameNetにおける複数の汎化手法} \label{sec:generalization-criteria-framenet}本節では,FrameNetにおける役割の汎化指標について説明する.FrameNetでは,フレーム間の階層関係が定義されているため,この構造をうまく利用した汎化ラベルの設計を目指す.また,役割の名前(記述子),項の意味型,VerbNetの主題役割を指標とした,異なる性質の汎化ラベルも設計する.以下では,我々の提案する汎化指標について,それぞれのどのように関数$gen$を定義するかを説明する.\ref{sec:experiment-in-framenet}節では,これらについての比較実験を行い,効果の詳細な分析を行う.なお,階層関係と記述子を利用した汎化では,FrameNetの意味役割ラベルを利用して粒度の細かいラベルを作成するため,その全体像が掴みにづらいかもしれない.その際は,実際の意味役割ラベルと階層関係のデータ\footnote{http://framenet.icsi.berkeley.edu/FrameGrapher/ただし,データはFrameNetの最新版によるものであるため,我々の利用する正確なデータはFrameNet第$1.3$版を参照のこと.}を適時参照して頂きたい.\subsection{役割間の階層関係}この指標は,\ref{sec:framenet}で説明したフレーム階層上の七種類の有向関係を利用して,役割間に共通する性質を取り出す指標である.各フレームの意味役割のうちの幾つかは,フレーム間の親子関係を通して,他フレームの役割と有向関係で結ばれている.役割間の関係を用いた汎化指標の基本的なアイデアは,下位概念にあたる役割が,その上位概念にあたる役割の性質を引き継いでいる,という仮定である.例えば,{\itCommerce\_buy}フレームの役割{\itBuyer}は{\itGetting}フレームの役割{\itRecipient}の性質を継承しており,また,{\itKilling}フレームの{\itVictim}と{\itDeath}フレームの{\itProtagonist}は「死ぬもの」という個体の性質を持っている.\begin{figure}[t]\begin{minipage}{242pt}\begin{center}\includegraphics{17-4ia5f6.eps}\end{center}\caption{$gen_{hier}$を定義するアルゴリズム}\label{fig:hier-algorithm}\end{minipage}\hfill\begin{minipage}{170pt}\begin{center}\includegraphics{17-4ia5f7.eps}\end{center}\caption{階層関係を辿る方向}\label{fig:hier-figure}\end{minipage}\end{figure}役割間の関係を用いた汎化関数$gen_{hr}$は図\ref{fig:hier-algorithm}のアルゴリズムで定義する.$gen_{hr}(y)$は役割$y$から階層関係を辿りながら,各ノード$z$に対応する汎化ラベル{\itz@HR}を収集する.この際,(A)継承,利用,観点,部分の四つの関係に関しては,親方向に階層を辿り,(B)起動,原因の関係については子方向に辿る.これは,(A)のグループでは,子孫の意味役割が祖先の性質と同じかこれを詳細化した性質を持っており,(B)のグループでは,子孫の役割がより中立的な立場や,結果の状態を表すからである.先行関係は,状態とイベントの遷移系列を表す関係であり,役割の性質の包含関係を単純には特定できなかったため,親と子のどちらの方向に辿るかは実験結果を踏まえて決定することにする(実験は\ref{sec:compare-hierarchical-relation}節を参照のこと).アルゴリズムは,図\ref{fig:hier-figure}のように,一度進んだ方向から逆戻りする方向のラベルは出力しない.また,階層を辿る深さの影響を観察するため,深さ1の親子関係でたどれるラベルしか含めない$gen_{hr\_depth1}$と,子孫,先祖を全て辿る$gen_{hr\_all}$の二つの関数を作成した.実験ではこれらの性能差も比較する.\subsection{役割の記述子}\label{role-label}FrameNetの意味役割は各フレーム固有の役割であり,異なるフレーム間に同じ識別IDの役割は存在しない.しかし,それらには専門家によって付けられた{\itBuyer},{\itSeller}などの人間に意味解釈可能な簡潔な名前がついている.我々はこの簡潔な名前を役割の{\bf記述子}と呼ぶことにする.これらの記述子は,ある程度体系立てて付けられており,異なるフレームの異なる意味役割が共通の記述子を持つ場合も多くある.例えば,記述子{\itSeller}は{\itCommerce\_sell::Seller},{\itCommerce\_buy::Seller},{\itCommerce\_pay::Seller}などで共有されている.この記述子の汎化指標としての有効性を評価するために,これを汎化ラベルとして利用する.この指標による汎化関数$gen_{desc}$は,役割$y$の記述子をメンバとして返す関数として定義する.例えば,役割{\itCommerce\_buy::Buyer}の記述子ラベルを$Buyer@Desc$とすれば,その値は$gen_{desc}(\mbox{\itCommerce\_buy::Buyer})=\{\mbox{\itBuyer@Desc}\}$となる.記述子は各役割を一つの語彙で説明しているため,この汎化指標は語彙的特徴が類似する役割を効果的に集めるかもしれない.また,この方法で得られた汎化ラベルは役割の同値類関係を表現しており,階層関係によるラベルとは異なる構造を持っている.例えば,図~\ref{fig:descriptor-example}の(a),(b)のような階層関係がある場合,(a)の{\itCommerce\_goods-transfer::Seller},{\itCommerce\_sell::Seller},{\itCommerce\_buy::Seller}は階層関係,記述子どちらによっても一つのラベルに纏め上げられるが,一方,(b)の{\itGiving::Donor}(物の提供者),{\itCommerce\_sell::Seller}(販売物の提供者),{\itCommerce\_pay::Buyer}(対価の提供者)では,各役割の間に「提供者」という意味の類似があるが,記述子を用いた汎化の場合には,それぞれの役割が異なる汎化ラベルを持つことになる.\subsection{意味型}\label{semanticType}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f8.eps}\end{center}\caption{役割の階層関係と記述子による汎化の相違点}\label{fig:descriptor-example}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f9.eps}\end{center}\caption{FrameNetで役割に対して利用される意味型のリスト}\label{fig:semantictype-list}\end{figure}FrameNetでは,多くの役割に{\bf意味型}と呼ばれる型を割り当て,選択制限に類似した情報を提供している.これは,図~\ref{fig:semantictype-list}に列挙したようなカテゴリから成り,意味役割を埋める句の意味的な傾向を表す.例えば,役割{\itSelf\_motion::Area}は意味型が{\itLocation}であり,これは,この役割が場所を意味する句で埋められる傾向にあることを表す.この情報は意味役割を句の特性の観点から粗くカテゴリ化しており,特に役割候補句の語彙の特徴と結びついて役割分類に強く貢献すると期待できる事から,我々は意味型を汎化ラベルとして用い,その有用性を検証する.汎化関数$gen_{st}$は役割$y$の意味型を要素に持つ集合を返すように定義する.例えば,役割{\itSelf\_motion::Area}の場合,$gen_{st}(\mbox{\itSelf\_motion::Area})=\{\mbox{\itLocation@ST}\}$となる.\subsection{VerbNetの主題役割}\label{sec:frameNet-verbnet}\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f10.eps}\end{center}\caption{VerbNetの主題役割}\label{fig:thematic-role-list}\end{figure}VerbNetの主題役割は,図~\ref{fig:thematic-role-list}に挙げるような,動詞の項に付けられた$30$種類の粗い意味分類である.この$30$種のラベルは,全ての動詞に対して一貫性のある,フレーム横断的なラベルである.我々はSemLinkを用いてFrameNetの意味役割をVerbNetの主題役割にマッピングし,これを汎化ラベルとして導入する.\ref{sec:verbnet}節で説明したとおり,FrameNetの意味役割とVerbNetの主題役割は一般に多対多の対応であるが,現時点のSemLinkではFrameNetの各事例に主題役割が個別に付与されておらず,単純な方法で意味役割と主題役割の一対一対応を取ることが出来ない.したがって,ある意味役割から主題役割への写像が複数考えられるときには,汎化関数$gen_{tr}$はこれらの主題役割を全て含む集合を返すことにする.例えば,役割{\itGetting::Theme}の場合,各事例が対応付けられる動詞クラスに応じて,{\itTheme@TR},{\itTopic@TR}の二つの主題役割ラベルが考えられるため,$gen_{tr}(\mbox{\itGetting::Theme})=\{\mbox{\itTheme@TR},\mbox{\itTopic@TR}\}$となる. \section{FrameNetにおける実験と考察} \label{sec:experiment-in-framenet}\subsection{実験設定}実験にはSemeval-2007Sharedtask\shortciteA{baker-ellsworth-erk:2007:SemEval-2007}の訓練データ部分を用いる.このうちランダムに抜き出した$10\%$をテストデータとして用い,残りの$90\%$で訓練,開発を行う.評価は役割に関するMicroF1平均とMacroF1平均\shortcite{chang2008kee}で行う.役割句$x$の特徴には,既存研究によって有効と報告された素性\shortcite{marquez2008srl}を用いた.これらは,フレーム,フレーム想起単語,主辞,内容語,先頭/末尾単語,左右の兄弟ノードの主辞,句の統語範疇,句の位置,態,統語パス(有効/無向/部分),支配範疇,主辞のSupersense,想起単語と主辞の組,想起単語と統語範疇の組,態と句の位置の組である.単語を用いた素性には,表層形の他に,品詞や語幹を用いたものも使用している.構文解析には\shortciteA{charniak2005cfn}のrerankingparserを用い,Supersense素性には,\shortciteA{ciaramita2006bcs}のSuperSenseTaggerの出力を用いる.ベースライン分類器では役割の汎化を用いず,元の意味役割のみを利用した分類を行い,結果$89.00\%$のMicroF1値を得た.\subsection{意味役割の分類精度}表\ref{integration}に,それぞれの汎化指標を用いた場合の役割分類のMicroF1とMacroF1を示す.この実験設定においてMicroF1は役割全体の分類精度と等価であるが,この値は各指標で$0.5$から$1.7$の向上が見られた.また,最も高い精度は,全ての汎化指標によるラベルを同時に利用したモデルで得られ,ベースラインに対して$19.16\%$のエラー削減を実現した.この結果は,異なる種類の指標が互いにそれらを補完しあうことを示すものである.汎化指標ごとの性能をみると,記述子による効果が最も高く,フレームの階層関係を用いた汎化はこれに及ばなかった.また,主題役割による結果は,役割の$37.61\%$しか主題役割と関連付けることが出来なかったため,比較的小さな向上に留まったものの,有意な上昇を示した.\begin{table}[b]\begin{minipage}[t]{180pt}\caption{各汎化指標による分類精度}\label{integration}\input{05table01.txt}\end{minipage}\hfill\begin{minipage}[t]{230pt}\caption{低頻度役割に対する汎化の効果}\label{sparseness}\input{05table02.txt}\end{minipage}\end{table}\shortciteA{Baldewein2004}の実験では,FrameNetの階層関係は良い結果を得られなかったが,我々の汎化方法では有意な精度向上を確認した.また,我々は記述子において,従来の置き換えによる方法と,記述子ラベルとフレーム固有の役割ラベルを同時に利用する方法を比較した(表\ref{integration}の$2$行目と$3$行目).結果として,単に元の役割を同時に利用する場合でも,汎化ラベルに単純に置き換える従来の方法よりも正確に役割を推定出来ることを確認した.また,MacroF1の値から,我々の提案する汎化指標が低頻度の役割に対する分類精度を効果的に向上させたことが窺える.表\ref{sparseness}では,役割を事例数ごとに分け,それぞれの分類精度を示した.ここでも,我々の提案する汎化指標が特に事例の少ない役割の分類を助けている事が分かる.\subsection{記述子に関する分析}\begin{table}[t]\begin{minipage}[t]{145pt}\caption{中心性ごとの記述子の効果}\label{coreness}\input{05table03.txt}\end{minipage}\hfill\begin{minipage}[t]{270pt}\caption{各中心性における役割及び記述子の数と事例数}\label{class_instances}\input{05table04.txt}\end{minipage}\end{table}上述の実験では,特に記述子による汎化で顕著な向上が見られたため,この理由を細かく分析することにした.表\ref{coreness}は,役割の中心性\footnote{これ以降の実験では,coreとcore-unexpressedを纏めてcoreに分類している.}ごとにそのタイプの役割だけから記述子の汎化ラベルを作成し,評価セット全体のMicroF1を測ったものである.結果からは,記述子が特に周辺的な役割の汎化に有効であることが分かる.表\ref{class_instances}は,それぞれの中心性に割り当てられる役割の数,及び役割あたりの事例数,各中心性における記述子の数,記述子あたりの事例数を表したものである.ここで特徴的なのは,peripheralに分類される1,924の役割は250という比較的小さな数の記述子に纏まっていることである.これは,フレームに意味の依存が薄い役割に同一の記述子が付けられやすいという傾向を示しており,この傾向によって,記述子が特に周辺的な役割をフレーム横断的に汎化する良い指標になっていると考えられる.\subsection{役割間関係のタイプ別効果}\label{sec:compare-hierarchical-relation}\begin{table}[t]\caption{役割間関係のタイプ別の効果と辿る深さによる効果}\label{relation-accuracy}\input{05table05.txt}\end{table}役割間の階層関係を用いた汎化については,関係の型と階層を辿る深さによる効果の違いを調べた.表\ref{relation-accuracy}はそれぞれのMicroF1を示したものである.タイプ別にみると,特に{\it継承}と{\it使用}でその他の関係よりも精度の向上が見られた.それら以外のものは,関係の出現数そのものが少なかったために,差が少なく,効果の違いを考察するに至らなかった.また,深い階層関係を持つ役割については,一代先の汎化ラベルだけを用いるよりも,階層を伝って辿れる全てのラベルを用いて汎化する方が,より効果があることを確認した.先行関係については,最も効果の見られた祖先を辿る方法を採用することにした.また,最も高い性能は,階層上の全ての関係を利用した場合に得られた.\subsection{各汎化指標の特徴分析}\begin{table}[b]\begin{minipage}[t]{195pt}\setlength{\captionwidth}{195pt}\hangcaption{各汎化指標の中心性別にみる適合率と再現率.cはcore,pはperipheral,eはextra-thematicを表す.}\label{coreness-f1}\input{05table06.txt}\end{minipage}\hfill\begin{minipage}[t]{210pt}\setlength{\captionwidth}{210pt}\hangcaption{上位1,000個の特徴関数.各タイプごとの数を表す.`fc'は固有役割,`hr'は階層関係,`de'は記述子,`st'は意味型,`tr'は主題役割を表す.}\label{top1000}\input{05table07.txt}\end{minipage}\end{table}表\ref{coreness-f1}は中心性のタイプ別に見た,各汎化指標を用いたモデルの適合率,再現率,MicroF1である.coreに相当する意味役割は,汎化を利用しない場合でも$91.93\%$の分類精度が得られており,全ての汎化指標で比較的高い分類精度となった.peripheralとextra-thematicに関しては,最も簡潔な方法である記述子による方法がその他の指標を上回った.表\ref{top1000}には,重みの絶対値が上位$1,000$の特徴関数を,タイプ別に分類した.この表から,汎化指標の特徴は,記述子と意味型のグループと固有役割と階層関係のグループの二つのグループに分かれることが分かる.記述子と意味型では,先頭単語やsupersenseなどの,付加詞の特徴付けを行う素性との組み合わせが高い重みを持つ.固有役割と階層関係では,統語パスや内容語,主辞などの,語彙的或いは構造的な素性と強い結びつきがある.このことは,記述子や意味型を用いた汎化が周辺的,或いは付加詞に対応する役割に対して有効であり,階層関係を用いた汎化がcoreの役割に効果的であることを示唆する. \section{PropBankにおける汎化手法} \label{sec:generalization-criteria-propbank}本節では,PropBankにおける汎化手法について述べる.我々は,従来用いられてきた指標であるARGタグ,主題役割に加えて,新たに三つの汎化指標を提案する.これらは,VerbNetの動詞クラス,選択制限,意味述語にそれぞれ基づく.ARGタグ,主題役割は,どちらも$6$種類,$30$種類の少数のラベルセットであり,これらを用いた意味役割の分類は,非常に粗いものだと言える.しかし実際には,意味役割は各動詞に応じて多様な振る舞いを見せるため,より細かな粒度での汎化が必要と考えられる.そこで我々は,より頑健な役割分類を目的として,$30$種類の主題役割をより統語的,意味的に詳細化された汎化ラベルへ分割し,これらの細かい粒度の汎化ラベルによる効果を検証することにする.なお,新たに提案する細粒度の汎化ラベルの全貌については,VerbNet第$2.3$版の実際のデータ\footnote{簡単にデータを閲覧可能な場所として,VerbNetプロジェクトのWebサイトがある.動詞クラスの一覧についてはhttp://verbs.colorado.edu/verb-index/vn/class-h.php,その他の情報のリストについてはhttp://verbs.colorado.edu/verb-index/vn/reference.phpを参照のこと.ただし,データはVerbNetの最新版に対するものであるため,我々の利用する正確なデータはVerbNet第$2.3$版を参照頂きたい.}を,適時参照を願いたい.\subsection{タスク設定とモデルの拡張}以下で説明する汎化手法では,SemLinkによって得られる各アノテーションの動詞クラスと主題役割を利用しているため,これらについて詳しく説明をしておく.\ref{sec:verbnet}節で述べた通り,PropBankでは,SemLinkに基づくVerbNetとの事例レベルの正確なマッピングにより,各アノテーションの適切な主題役割と対象動詞の動詞クラスを得ることが出来る.そこで,本研究では,訓練時,評価時に,各アノテーションの意味役割と主題役割のどちらの情報も用いることができるものとする.また,役割分類の入力には,対象動詞に対する正しい動詞クラスも与えるものとする.VerbNetにおける動詞クラスは,PropBankで言うところのフレームに相当するものであり,意味役割付与システムの実際の運用時には,これらのフレームや動詞クラスを自動的に判定する必要がある.しかし,\ref{sec:role-classification}節でも述べた通り,我々の実験においては,意味役割の汎化が分類精度にもたらす効果を正確に検証することを目的としているため,フレームと動詞クラスの両方を入力として正しく与えることにする.また,このような設定にすることによって,式\ref{eqn:probability}の中の全役割候補$Y_f$に対して,ARGタグと主題役割の両方を一意に与えることができるため,ARGタグを用いた役割分類と,主題役割を用いた分類を,同じ候補の中から最適な一つを選ぶ,という等価な問題として比較することが出来る(図\ref{fig:arg-thematic-mapping}).\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f11.eps}\end{center}\hangcaption{フレームと動詞クラスが与えられた場合の分類問題.この設定においては,意味役割,ARGタグ,主題役割の三つのラベル間で全て一対一対応を取る事が出来るため,これらをそれぞれ独立に用いた分類モデルを考えた場合,各モデルは同じ候補の中から最適な一つを選ぶ,という等価な問題に帰着される.}\label{fig:arg-thematic-mapping}\end{figure}以降で提案する汎化指標は,そのどれもが動詞クラスの情報を利用してラベルを生成するものである.したがって,汎化のための関数$gen$,$gen_{i}$についても,意味役割$y$と動詞クラス$v$の二つを引数に取るように拡張する.これに伴い,式\ref{eqn:probability}は$v$の入る形で拡張され,\begin{equation}P(y|f,v,\mathbf{x})=\frac{\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y,v))}{\sum_{y\inY_f}\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y,v))}\label{eqn:probability2}\end{equation}となり,式\ref{equ:generalized-label-feature-agent}も次のようになる.\begin{equation}g_2(\mathbf{x},y,v)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\mbox{\itAgent@TR}\ingen(y,v))\\0&(\mbox{otherwise})\end{cases}\end{equation}\subsection{ARGタグ,主題役割}ARGタグと主題役割については,\ref{sec:define-generalization}節の式\ref{eqn:arg},式\ref{eqn:thematic}で示したように,各意味役割のARGタグや主題役割を返すように$gen_{arg}$,$gen_{tr}$を設計する.ただし,ここでの主題役割は,SemLinkによって一意に与えられた正しいラベルである.例えば,図\ref{fig:arg-thematic-mapping}のような対応が与えられているならば,この事例において,各関数は以下の値を返す.\begin{align}gen_{arg}(\mbox{\itbuy.01::0},\mbox{{\itget-13.5.1}})&=\{\mbox{\itARG0@ARG}\}\\gen_{tr}(\mbox{\itbuy.01::0},\mbox{{\itget-13.5.1}})&=\{\mbox{\itAgent@TR}\}\end{align}\subsection{主題役割+動詞クラス}VerbNetは,英語の動詞を統語的,意味的に一貫性を持った$470$の階層的なクラスに分類した言語資源である.動詞クラスには,所属する動詞の統語的振る舞いの一貫性を保証するなどの特徴があるため,このクラスの分類は,主題役割を適切に詳細化するための情報となりうる.例えば,主題役割{\itPatient}は,一般的に目的語や前置詞句としてしか現れないが,クラスcooking-45.3の動詞では主語として現れることがある,という細かな情報を,動詞クラスを用いることで各主題役割に付加することが出来る.したがって,我々は新しい汎化関数として,対象事例における動詞クラス$v$と主題役割$t$の組を返すような$gen_{vc}$を定義する.\begin{equation}gen_{vc}(y,v)=\{\langlet,v\rangle@VC\}.\end{equation}特徴関数はこの二つ組によるラベルをチェックする形で定義する.\begin{equation}g_3(\mathbf{x},y,v)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\langle\mbox{{\itPatient}},\mbox{{\itcooking-45.3}}\rangle@VC\ingen(y,v))\\0&(\mbox{otherwise})\end{cases}\end{equation}\subsection{選択制限}\label{sec:selectional-restriction}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f12.eps}\end{center}\caption{VerbNetにおける選択制限のカテゴリ}\label{fig:selectional-restriction-list}\end{figure}VerbNetは各動詞クラスの主題役割にそれぞれ選択制限の情報を付与している.FrameNetの意味型の場合と同様に,この情報は意味的な類似性のある役割をグループ化するのに役立つと期待される.VerbNetでは,選択制限は正負を持った$36$種類の意味カテゴリ(図~\ref{fig:selectional-restriction-list})を用いた命題論理で表現される.例えば,クラス{\itgive-13.1}の主題役割{\itAgent}の選択制限は{\it+animate}$\vee${\it+organization}のように与えられる.我々はこれらの命題を役割の汎化ラベルとして利用する.$gen_{sr}$は動詞クラス$v$における主題役割$t$の選択制限を返す関数として定義する.\begin{equation}gen_{sr}(\mbox{give.01::0},\mbox{{\itgive-13.1}})=\{\mbox{({\it+animate}}\vee\mbox{{\it+organization})}@SR\}.\end{equation}\subsection{主題役割+意味述語}VerbNetでは,各動詞クラスにいくつかの例文が記述されているが,これらの例文には,意味述語と呼ばれる述語表現の組み合わせを用いて,文の意味が表現されている.例えば,クラス{\itgive-13.1-1}の例文``Ileasedthecartomyfriendfor\$5amonth.''には,\\$has\_possession(start(E),Agent,Theme)$,$has\_possession(end(E),Recipient,Theme)$,\\$has\_possession(start(E),Recipient,Asset)$,$has\_possession(end(E),Agent,Asset)$,\\$transfer(during(E),Theme)$の五つの意味述語が含まれる.この種の分解された意味表現は,各フレームが持つ役割の意味的性質を細かい粒度で共有することを可能にする.例えば,イベント終了時に対価を持つ{\itAgent}にあたる意味役割は,図\ref{fig:agent-of-possessing-asset}のように,各動詞クラスの例文中から述語表現$s_1=has\_possession(end(E),Agent,Asset)$を探すことでグループ化出来る\footnote{図\ref{fig:agent-of-possessing-asset}では分かりやすさのためにフレーム固有の役割名で表記したが,実際には,PropBankの意味役割は動詞クラスの特定によって主題役割へ写像されるため,意味述語で集められるものは意味役割と動詞クラスの組である.}.そこで我々はこの意味役割のグループをタプル$\langle{\itAgent},s_1\rangle$で表し,汎化ラベルとして利用する.ここで,ある事例における役割$y$の主題役割を$t$とすれば,関数$gen_{sp}$は動詞クラス$v$の例文から得られる意味述語のうち,引数に$t$を含むものを全て返す関数として定義する.例えば,{\itlease01::0}の主題役割が$Agent$,動詞クラスが{\itgive-13.1-1}だった場合は,以下のようになる.\begin{align}gen_{\mbox{sp}}(\mbox{lease.01::0},\mbox{{\itgive-13.1-1}})&=\{\langle\mbox{{\itAgent}},has\_possession(start(E),Agent,Theme)\rangle@SP,\nonumber\\&\langle\mbox{{\itAgent}},has\_possession(end(E),Agent,Asset)\rangle@SP\}\end{align}\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f13.eps}\end{center}\caption{意味述語\textit{has\_possession}(\textit{end}(\textit{E}),\textit{Agent,Asset})を持つAgentにあたる役割}\label{fig:agent-of-possessing-asset}\end{figure} \section{PropBankにおける比較実験} PropBankにおける実験では,二つのことを検証する.一つ目は,従来PropBank上での意味役割の汎化で議論されてきたARGタグと主題役割の効果の違いを明らかにすることである.既存研究におけるARGタグと主題役割の比較では,意味役割付与タスク全体を通した精度比較しか行ってこなかった\shortcite{loper2007clr,yi-loper-palmer:2007:main,zapirain-agirre-marquez:2008:ACLMain}.しかしながら,意味役割付与は複雑な問題が絡み合うタスクなため,そのような比較では,最終的な精度に影響する原因がどの部分で生じたかが不明瞭になりがちである.特に構文解析時のエラーは,多くの複雑で不整合な統語構造を生むため,意味役割付与の精度に大きく影響することが知られている\shortcite{marquez2008srl}.幸い,PropBankはPennTreebankと同一のテキストに対するコーパスなため,PennTreebankの人手による正解構文木が利用可能である.そこで,我々はこの構文木を入力として利用することで,構文解析エラーの影響を無くしたより厳密な状況を作り,理想的な状況下での役割分類結果のエラー分析を行うことによって,二つの汎化指標が捉えている役割の性質の違いを正確に分析する.二つ目では,これらの指標に加え,我々の提案した新しい三つの指標について,それらの汎化性能を比較する.比較は,役割全体の分類精度に加えて,対象動詞に関する素性を除いた設定での評価と,未知動詞に対する評価の三つで行う.\subsection{実験設定}\label{sec:propbank-setting}実験にはPennTreebankIIコーパスのWallStreedJournal部分と,それに対応するPropBankのデータを用いる.WallStreetJournalのうち,02-21節を訓練に,24節を開発に,23節を評価に利用する.この実験では,各アノテーションに対してSemLinkによって与えられる動詞クラスと主題役割の情報を用いているため,\shortciteA{zapirain-agirre-marquez:2008:ACLMain}の方法に準じて,SemLink1.1によって主題役割に写像出来るアノテーションだけを実験セットとして用いる.その数は70,397アノテーションであり,PropBank全体の$62.34\%$にあたる.また,すでにフレームに独立なラベルとして定義されている{\itAM}タグは取り除き,フレーム固有の意味役割として定義されている{\itARG0-5}のみの分類精度によって評価を行う.役割句$x$に対する特徴には,FrameNetの場合と同じく,既存研究で効果が確認された素性を用いる.具体的には,フレーム,対象動詞,主辞,内容語,先頭/末尾語,左右姉妹句の主辞,句の統語範疇,句の位置,態,統語パス,句に含まれる固有表現カテゴリ,統語フレーム,前置詞句の先頭語,対象動詞と主辞の組,態と統語範疇の組,統語フレームと前置詞句の線統語の組である.単語を用いた素性には,表層形の他,品詞や語幹を用いたものも併せて利用する.固有表現抽出には,CoNLL-2008sharedtask\shortcite{surdeanu2008cst}のopen-challengedatasetに与えられた,意味タガー\shortcite{ciaramita2006bcs}の三つの出力結果を用いる.\subsection{PropBankARG0-5と主題役割の比較}\label{sec:pbVsTr}ARGタグと主題役割についての比較では,まず役割全体の分類精度による評価を行った.表~\ref{table:moreLess}はこれらの汎化指標を個別に用いた際の分類精度を示す.記号***は,汎化ラベルを用いないモデルに比べてMcNemarテストにより$p<0.001$で有意であることを意味する.役割分類に理想的な入力が与えられた場合,役割の汎化を行わないモデルでも96.7\%以上の精度を実現することが可能であった.ARGタグと主題役割を用いた場合には,どちらのモデルも,汎化を行わない場合に比べて分類精度が向上した.また,その効果は事例の少ない役割に対して特に明確に確認できる.表~\ref{table:moreLess}における列「$>200$」と列「$<50$」は,事例数が200を超えるフレームと50未満のフレームに対する分類精度を表す.これらから,役割の汎化を行わなかった場合には,事例数50未満のフレームに対する精度が,200を超えるフレームに比べて約$9$ポイントと大きく低下することが分かる.一方で,ARGタグや主題役割は,役割をフレームに独立な少数のラベルに汎化するため,事例の少ない役割をより頑健に分類することが出来る.\begin{table}[b]\begin{minipage}[t]{163pt}\caption{フレームの事例数別の分類精度}\label{table:moreLess}\input{05table08.txt}\end{minipage}\hfill\begin{minipage}[t]{253pt}\caption{ARGタグと主題役割における分類精度の比較}\label{table:argF1}\input{05table09.txt}\end{minipage}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f14.eps}\end{center}\caption{訓練データ量に対する精度の変化}\label{fig:reduce}\end{figure}\shortciteA{yi-loper-palmer:2007:main}と\shortciteA{zapirain-agirre-marquez:2008:ACLMain}は,主題役割を用いた意味役割付与はARGタグを用いる場合に比べて,性能が若干低下すると報告した.しかし我々の実験では,これら二つの汎化ラベルの結果に有意な差は認められなかった($p\leq0.838$).図~\ref{fig:reduce}の学習曲線を見ても,ARGタグと主題役割の曲線は近く,\shortciteA{yi-loper-palmer:2007:main}と\shortciteA{zapirain-agirre-marquez:2008:ACLMain}が指摘したような主題役割に対する訓練データの不足は確認出来なかった.また,\shortciteA{yi-loper-palmer:2007:main,loper2007clr}は,ARGタグのうち特に{\itARG2}で不整合があるとしたが,我々の実験のように,理想的な入力と,フレームによる選択可能なラベルの制約が与えられた場合,ARGタグと主題役割のどちらにおいても{\itARG0-5}の各タグをほぼ同精度で分類することが出来た(表~\ref{table:argF1}).これは表~\ref{table:featureDistribution}に見られるように,verb+pathなどの動詞に関する組み合わせ特徴によって,各役割の動詞に対する個別の振る舞いを学習していることと,フレームによる選択可能なラベルの制限によって,主題役割のうち{\itPatient}や{\itTheme}などの統語的に類似する性質を持つ役割の混在がある程度制限されるためと思われる.\begin{table}[p]\caption{重みの絶対値が上位$0.1\%$にあたる特徴の分布}\label{table:featureDistribution}\input{05table10.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{17-4ia5f15.eps}\end{center}\hangcaption{主題役割で見るエラー分類.表(A)はARGタグで正解し,主題役割で間違ったもの,表(B)は逆,表(C)は両方で間違えたものを表す.動詞クラスの列は,対応する種類のエラーが生じたクラスを示す.}\label{fig:errMap}\end{figure}我々は二つの汎化指標の特徴についてより詳しく分析するために,それぞれのモデルで生じたエラーを人手でチェックし,二つのモデルで分類結果の食い違った事例を分析した.図~\ref{fig:errMap}は,ARGタグモデルと主題役割モデルの,互いに一方が正解し一方が間違った事例と,双方が間違った事例について,それらの正解ラベルと推定ラベルの組を分類したものである.表(A)はARGタグモデルで正解し,主題役割モデルで間違った事例であるが,最初の三行のエラーは,異なる動詞クラスの間で,主題役割の統語位置に不整合が出ることが原因である.例えば,クラスamuse-31.1,appeal-31.4の動詞について,{\itCause}は主語の位置に現れる傾向にあり,{\itExperiencer}はその他の場所に現れる傾向があるが,クラスmarvel-31.3では逆の傾向がある.また,{\itDestination}$\rightarrow${\itTheme}のケースは,一般的に前置詞句として現れる{\itDestination}が,動詞クラスspray-9.7,fill-9.8,butter-9.9,image\_impression-25.1においては目的語の位置に現れやすいことが原因である.一方で,PropBankは各動詞に対して,主語の位置に現れやすい役割に{\itARG0}を,目的語の位置に現れやすい役割に{\itARG1}を主に割り当てているために,ARGタグにはこのような曖昧性さが起こりにくい.表(B)には逆に,主題役割モデルで正解し,ARGタグモデルで間違った事例を示す.最初の行は主題役割の有効性を表す良い例である.ARGタグは主に統語的特徴に基づいたグループであるため,{\itARG1}が主語の位置に出てきた場合にこれを{\itARG0}と間違いやすい.それとは対照に,主題役割はより意味的属性を考慮したグループに分割されているので,主語の位置に現れる{\itPatient}に対して,統語素性からのペナルティが小さい.その結果,{\itARG0}を用いる場合よりもこれらの役割が比較的正しく分類された.また,表(C)の,ARGタグと主題役割両方のモデルで間違う事例にもいくつかの傾向が見られる.例えば,能格動詞が自動詞として使われるときや,{\itTheme}が目的語として現れにくい動詞クラスなどで多くの間違いが見られる.これらの改善のためには,動詞或いは動詞クラスに対してより詳細化された統語的意味的情報が必要だと思われる.表\ref{fig:errMap}からは,総じて二つの汎化ラベルが意味役割の汎化において異なる利点を持っていることが分かる.\begin{table}[b]\caption{汎化指標の混合による精度}\label{table:incorporate}\input{05table11.txt}\end{table}さらに,表~\ref{table:incorporate}に見られるように,これら二つの汎化ラベルを同時に利用したモデルの結果も,二つの汎化ラベルが異なる効果をもたらしたことを示す結果となった.記号***はARGタグのみを使うモデルに比べて,そのモデルの精度がMcNemarテストにおいて$p<0.001$で有意であることを示す.ARGタグ+主題役割のモデルはARGモデルに比べて$24.07\%$のエラーを削減した.このモデルにさらに元の意味役割ラベルを加えた固有役割+ARGタグ+主題役割モデルについても実験を行ったが,ARGタグ+主題役割モデルに対して性能の有意な向上は得られなかった.これは,既に対象動詞との組み合わせを用いたいくつかの特徴がARGタグ+主題役割モデルに含まれているためと思われる.\subsection{提案する汎化指標との比較実験}次に,既存の汎化手法と我々の提案する汎化手法についての比較を示す.この実験では,汎化性能を比較する三つの設定を用意した.設定(A)は\ref{sec:pbVsTr}~節で利用した\ref{sec:propbank-setting}節の設定である.設定(B)は(A)と同じデータセットにおいて,フレームと対象動詞に由来する全ての特徴を取り除いたモデルの精度を測るものである.この設定では,各汎化ラベルが動詞固有の情報を使わずに,汎化ラベルのみでどれほどの精度を実現するかを評価する.設定(C)では,コーパス中の低頻度動詞に関する事例を取り除くことにより人工的に未知動詞を作り,それらの動詞に対する意味役割の分類精度を評価する.この設定は,実際に未学習の動詞が表れたときに,それぞれの汎化指標が頑健にラベルの推定を行えるかを調べるものである.ここでは出現回数が$20$回以下の,1,190の動詞に関する事例をコーパス中から抜き出し,この抜き出した事例を評価セットとして利用する.図~\ref{unseenList}は抜き出した動詞の抜粋である.この操作により実際に抜き出された役割の事例数は$8,809$となった.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f16.eps}\end{center}\caption{隠した動詞の抜粋}\label{unseenList}\end{figure}\begin{table}[b]\caption{三つの設定における各指標の精度比較}\label{table:unseenAcc}\input{05table12.txt}\end{table}表~\ref{table:unseenAcc}に実験結果を示す.設定(A)において最も高い性能を示したのはARGタグ+主題役割モデルであり,より細かい粒度の汎化ラベルを加えたモデルは,ARGタグ+主題役割モデルに及ばなかった.また,(B),(C)の結果からは,ARGタグ+主題役割モデルが,ARGタグや主題役割を単独で使うモデルに比べて,大きく向上させていることが分かる.特に,未知動詞に対する性能を評価している設定(C)では,ARGタグや主題役割を個別に用いる方法では,十分な汎化の効果が得られないことが分かる.我々の提案する細粒度の汎化指標は,ARGタグや主題役割と組み合わせて利用することによって,(B),(C)の分類精度を向上させることを確認した.特に,意味述語と動詞クラスを用いた汎化が効果的に性能を向上させた.また,未知動詞に関する実験である(C)において最も高い性能を示したのは,ARGタグ+主題役割+意味述語モデルであり,ARGタグのみを用いた場合に比べて$26.39$\%のエラー削減を実現した.これは言い換えれば,各動詞について十分な学習が出来る場合には,細粒度の汎化によって全体の精度を落とすことがあり,一方で,動詞個別の学習が不十分な場合には,異なる観点を織り交ぜた細粒度の汎化が分類精度の向上をもたらすということを意味する.この結果で興味深いのは,従来,意味役割付与においてあまり用いられてこなかった動詞クラスの情報が,意味役割を細かいレベルで適切に汎化し,意味役割分類の頑健性を向上させるということである.この結果は,意味役割付与問題において,役割分類の事前処理,或いは結合モデルとして,対象動詞の動詞クラスを求めることの有用性を表している.今後は,対象動詞に対するフレーム及び動詞クラスを特定する処理を含めた精度の評価が必要であろう. \section{まとめ} 本稿では,FrameNet,PropBankの二つのコーパスにおいて,役割を適切に汎化するための複数の指標と方法を提案し,また,異なる種類の汎化ラベルを同時に扱うための分類モデルを導入した.汎化ラベルを意味役割の特徴として扱い,異なる観点,異なる粒度の集合を複合して利用することが,従来のラベルを置き換える方法よりも分類精度を向上させることを確認した.また,既存の汎化ラベル及び我々の新たな汎化ラベルについて,比較実験を通して詳細な分析を与え,それぞれの性質を明らかにした.FrameNetでは,役割の階層関係,役割の記述子,句の意味型,VerbNetの主題役割の四種類の異なる指標を用いて,汎化ラベルを作成した.これらはそれぞれに分類の性能を向上させ,役割分類役割分類の疎データ問題を効果的に解消することを示した.最も優れた性能を見せたのは役割の記述子による方法であり,予想に反してFrameNetの階層関係はこれを超えることが出来なかった.したがって,今後,フレーム階層関係のさらなる有用な活用のため,階層関係の不足点,改善点等を解析していく必要があると思われる.また,各指標の性質として,記述子や意味型を用いた汎化ラベルは周辺的,或いは付加詞的役割を捉える特徴と結びつきが強く,階層関係を用いた汎化は中心的役割を捉える特徴と結びつきが強いことを示した.全ての汎化ラベルを混合したモデルでは,全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42$の向上を示した.我々の実験では,より多くのフレーム間関係を利用するために,FrameNetの最新版のデータを利用した.その結果,既存のシステムと直接的な精度比較をすることが出来なかったが,我々のベースラインにおけるF1Micro平均$89.00\%$は,SemEval-2007~\cite{baker-ellsworth-erk:2007:SemEval-2007}での\shortciteA{bejan2007usp}の$88.93\%$という値と概ね競合すると言えるため,意味役割の汎化により,意味役割付与システム全体の精度向上が期待出来ると言えるだろう\footnote{SemEval-2007の意味役割付与タスクには二グループが参加し,\shortciteA{bejan2007usp}は,システム全体の評価とは別に訓練データに対する役割分類の精度を評価した.}.PropBankでは,既存の汎化手法であるPropBankのARGタグと主題役割の二つの汎化ラベルを木構造や項の位置等を与えた厳密な設定で比較し,その結果,ARGタグは役割の統語位置の性質をより強く捉え,主題役割は意味的側面から比較的位置に対する柔軟性を持つという性質の違いを明らかにした.また,役割分類における主なエラーの理由は,動詞ごとの特徴による統語パターンの曖昧性に由来することを明らかにした.ここでも,二つの汎化ラベルの組み合わせが役割分類の精度を向上させる結果となり,ARGタグのみを使う場合に比べて,$24.07\%$のエラー削減を実現した.また,我々は,事例の少ない或いは未知の役割に対して頑健な役割分類を行うための新たな提案として,VerbNetの動詞クラス情報を用いてより詳細化された三つの汎化指標を導入した.新たな汎化指標は動詞クラス,選択制限,意味述語であったが,実験結果は,これらの詳細化された細粒度のラベルの導入が低頻度及び未知の動詞に対する精度を向上させることを示した.最も高い効果が得られたのは意味述語をARGタグと主題役割と共に用いた場合であり,ARGタグのみを用いた場合に比べて$26.39\%$のエラー削減を達成した.総じて,我々が得た結果は,意味役割の統語的,意味的特徴を異なるいくつかの観点から捉えて,それらを役割の特徴として混合する方法が,意味役割分類の精度を向上させるというものであった.これは言い換え得れば,意味役割を異なる言語学的背景から説明したFrameNetとPropBankの情報を相互に利用すれば,さらなる精度と頑健性の向上が期待できる事を示唆している.現段階では,FrameNet,PropBank,VerbNetといった,異なる意味論に基づく資源の間のフレーム,及び意味役割の対応関係が明確ではなく,そのため,資源間の意味役割を正確に対応付けることが出来ない.そのため,今回の実験では,FrameNet,PropBankでそれぞれのコーパスに特有の情報を利用して意味役割の汎化を行っており,これら二つのコーパスの異なる意味論を混合した場合の評価には至っていないが,今後,SemLinkなどの,異なる資源の意味役割を適切に繋ぐデータが充実してくれば,FrameNetの意味役割をPropBankの知識を用いて推定する方法や,逆にPropBankの意味役割について,FrameNetで用いたような概念の階層的な汎化を同時に利用する方法も,我々の分類モデルの延長上で原理的に実現可能である.この意味でも,資源間の意味役割の対応関係を記述するデータは,意味役割付与において重要な位置を占めると考えられる.また加えて,今後の研究として,低頻度や未学習の意味役割に対してより高い頑健性を確保するためには,FrameNetやPropBankの意味論が与える汎化の指標以外にも,我々が意味役割と呼ぶ意味付きの項構造がどのような属性の束で表現されるのかを探求していくことが,意味役割付与技術の向上のために重要である.\acknowledgment本研究の一部は,文部科学省科学研究費補助金特別推進研究「高度言語理解のための意味・知識処理の基盤技術に関する研究」の助成を受けています.記して謝意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker,Ellsworth,\BBA\Erk}{Bakeret~al.}{2007}]{baker-ellsworth-erk:2007:SemEval-2007}Baker,C.,Ellsworth,M.,\BBA\Erk,K.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task19:FrameSemanticStructureExtraction.\BBCQ\\newblockIn{\BemProceedingsofSemEval-2007},\mbox{\BPGS\99--104}.\bibitem[\protect\BCAY{Baker,Fillmore,\BBA\Lowe}{Bakeret~al.}{1998}]{Baker:98}Baker,C.~F.,Fillmore,C.~J.,\BBA\Lowe,J.~B.\BBOP1998\BBCP.\newblock\BBOQTheBerkeleyFrameNetproject.\BBCQ\\newblockIn{\BemProceedingsofColing-ACL1998},\mbox{\BPGS\86--90}.\bibitem[\protect\BCAY{Baldewein,Erk,Pad\'{o},\BBA\Prescher}{Baldeweinet~al.}{2004}]{Baldewein2004}Baldewein,U.,Erk,K.,Pad\'{o},S.,\BBA\Prescher,D.\BBOP2004\BBCP.\newblock\BBOQSemanticrolelabelingwithsimilaritybasedgeneralizationusing{EM}-basedclustering.\BBCQ\\newblockIn{\BemProceedingsofSenseval-3},\mbox{\BPGS\64--68}.\bibitem[\protect\BCAY{Bejan\BBA\Hathaway}{Bejan\BBA\Hathaway}{2007}]{bejan2007usp}Bejan,C.~A.\BBACOMMA\\BBA\Hathaway,C.\BBOP2007\BBCP.\newblock\BBOQ{UTD-SRL:APipelineArchitectureforExtractingFrameSemanticStructures}.\BBCQ\\newblockIn{\BemProceedingsofSemEval-2007},\mbox{\BPGS\460--463}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chang\BBA\Zheng}{Chang\BBA\Zheng}{2008}]{chang2008kee}Chang,X.\BBACOMMA\\BBA\Zheng,Q.\BBOP2008\BBCP.\newblock\BBOQ{KnowledgeElementExtractionforKnowledge-BasedLearningResourcesOrganization}.\BBCQ\\newblock{\BemLectureNotesinComputerScience},{\Bbf4823},\mbox{\BPGS\102--113}.\bibitem[\protect\BCAY{Charniak\BBA\Johnson}{Charniak\BBA\Johnson}{2005}]{charniak2005cfn}Charniak,E.\BBACOMMA\\BBA\Johnson,M.\BBOP2005\BBCP.\newblock\BBOQ{Coarse-to-finen-bestparsingandMaxEntdiscriminativereranking}.\BBCQ\\newblockIn{\BemProceedingsofACL2005},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{Ciaramita\BBA\Altun}{Ciaramita\BBA\Altun}{2006}]{ciaramita2006bcs}Ciaramita,M.\BBACOMMA\\BBA\Altun,Y.\BBOP2006\BBCP.\newblock\BBOQ{Broad-coveragesensedisambiguationandinformationextractionwithasupersensesequencetagger}.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-2006},\mbox{\BPGS\594--602}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1976}]{fillmore1976}Fillmore,C.~J.\BBOP1976\BBCP.\newblock\BBOQFramesemanticsandthenatureoflanguage.\BBCQ\\newblock{\BemAnnalsoftheNewYorkAcademyofSciences:ConferenceontheOriginandDevelopmentofLanguageandSpeech},{\Bbf280},\mbox{\BPGS\20--32}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{Gildea2002}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticlabelingofsemanticroles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Giuglea\BBA\Moschitti}{Giuglea\BBA\Moschitti}{2006}]{Giuglea2006}Giuglea,A.-M.\BBACOMMA\\BBA\Moschitti,A.\BBOP2006\BBCP.\newblock\BBOQSemanticrolelabelingvia{FrameNet},{VerbNet}and{PropBank}.\BBCQ\\newblockIn{\BemProceedingsoftheColing-ACL2006},\mbox{\BPGS\929--936}.\bibitem[\protect\BCAY{Gordon\BBA\Swanson}{Gordon\BBA\Swanson}{2007}]{gordon-swanson:2007:ACLMain}Gordon,A.\BBACOMMA\\BBA\Swanson,R.\BBOP2007\BBCP.\newblock\BBOQGeneralizingsemanticroleannotationsacrosssyntacticallysimilarverbs.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\192--199}.\bibitem[\protect\BCAY{Kipper,Dang,\BBA\Palmer}{Kipperet~al.}{2000}]{kipper2000cbc}Kipper,K.,Dang,H.~T.,\BBA\Palmer,M.\BBOP2000\BBCP.\newblock\BBOQ{Class-basedconstructionofaverblexicon}.\BBCQ\\newblockIn{\BemProceedingsofAAAI-2000},\mbox{\BPGS\691--696}.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin1993evc}Levin,B.\BBOP1993\BBCP.\newblock{\Bem{Englishverbclassesandalternations:Apreliminaryinvestigation}}.\newblockTheUniversityofChicagoPress.\bibitem[\protect\BCAY{Loper,Yi,\BBA\Palmer}{Loperet~al.}{2007}]{loper2007clr}Loper,E.,Yi,S.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQ{Combininglexicalresources:Mappingbetweenpropbankandverbnet}.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalWorkshoponComputationalSemantics},\mbox{\BPGS\118--128}.\bibitem[\protect\BCAY{M\`{a}rquez,Carreras,Litkowski,\BBA\Stevenson}{M\`{a}rquezet~al.}{2008}]{marquez2008srl}M\`{a}rquez,L.,Carreras,X.,Litkowski,K.~C.,\BBA\Stevenson,S.\BBOP2008\BBCP.\newblock\BBOQ{Semanticrolelabeling:anintroductiontothespecialissue}.\BBCQ\\newblock{\BemComputationallinguistics},{\Bbf34}(2),\mbox{\BPGS\145--159}.\bibitem[\protect\BCAY{Moschitti,Giuglea,Coppola,\BBA\Basili}{Moschittiet~al.}{2005}]{Moschitti2005}Moschitti,A.,Giuglea,A.-M.,Coppola,B.,\BBA\Basili,R.\BBOP2005\BBCP.\newblock\BBOQHierarchicalSemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofCoNLL-2005},\mbox{\BPGS\201--204}.\bibitem[\protect\BCAY{Moschitti,Quarteroni,Basili,\BBA\Manandhar}{Moschittiet~al.}{2007}]{moschitti2007esa}Moschitti,A.,Quarteroni,S.,Basili,R.,\BBA\Manandhar,S.\BBOP2007\BBCP.\newblock\BBOQExploitingSyntacticandShallowSemanticKernelsforQuestionAnswerClassification.\BBCQ\\newblockIn{\BemProceedingsofACL-07},\mbox{\BPGS\776--783}.\bibitem[\protect\BCAY{Narayanan\BBA\Harabagiu}{Narayanan\BBA\Harabagiu}{2004}]{narayanan-harabagiu:2004:COLING}Narayanan,S.\BBACOMMA\\BBA\Harabagiu,S.\BBOP2004\BBCP.\newblock\BBOQQuestionAnsweringBasedonSemanticStructures.\BBCQ\\newblockIn{\BemProceedingsofColing-2004},\mbox{\BPGS\693--701}.\bibitem[\protect\BCAY{Nocedal}{Nocedal}{1980}]{nocedal1980}Nocedal,J.\BBOP1980\BBCP.\newblock\BBOQUpdatingquasi-Newtonmatriceswithlimitedstorage.\BBCQ\\newblock{\BemMathematicsofComputation},{\Bbf35}(151),\mbox{\BPGS\773--782}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer:05}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Shen\BBA\Lapata}{Shen\BBA\Lapata}{2007}]{shen-lapata:2007:EMNLP-CoNLL2007}Shen,D.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQUsingSemanticRolestoImproveQuestionAnswering.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-CoNLL2007},\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Shi\BBA\Mihalcea}{Shi\BBA\Mihalcea}{2005}]{Shi2005ppt}Shi,L.\BBACOMMA\\BBA\Mihalcea,R.\BBOP2005\BBCP.\newblock\BBOQ{PuttingPiecesTogether:CombiningFrameNet,VerbNetandWordNetforRobustSemanticParsing}.\BBCQ\\newblockIn{\BemProceedingsofCICLing-2005},\mbox{\BPGS\100--111}.\bibitem[\protect\BCAY{Surdeanu,Johansson,Meyers,M\`{a}rquez,\BBA\Nivre}{Surdeanuet~al.}{2008}]{surdeanu2008cst}Surdeanu,M.,Johansson,R.,Meyers,A.,M\`{a}rquez,L.,\BBA\Nivre,J.\BBOP2008\BBCP.\newblock\BBOQ{TheCoNLL-2008SharedTaskonJointParsingofSyntacticandSemanticDependencies}.\BBCQ\\newblockIn{\BemProceedingsofCoNLL--2008},\mbox{\BPGS\159--177}.\bibitem[\protect\BCAY{Surdeanu,Harabagiu,Williams,\BBA\Aarseth}{Surdeanuet~al.}{2003}]{Surdeanu2003}Surdeanu,M.,Harabagiu,S.,Williams,J.,\BBA\Aarseth,P.\BBOP2003\BBCP.\newblock\BBOQUsingPredicate-ArgumentStructuresforInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofACL-2003},\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Yi,Loper,\BBA\Palmer}{Yiet~al.}{2007}]{yi-loper-palmer:2007:main}Yi,S.,Loper,E.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQCanSemanticRolesGeneralizeAcrossGenres?\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2007},\mbox{\BPGS\548--555}.\bibitem[\protect\BCAY{Zapirain,Agirre,\BBA\M\`{a}rquez}{Zapirainet~al.}{2008}]{zapirain-agirre-marquez:2008:ACLMain}Zapirain,B.,Agirre,E.,\BBA\M\`{a}rquez,L.\BBOP2008\BBCP.\newblock\BBOQRobustnessandGeneralizationofRoleSets:{PropBank}vs.{VerbNet}.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT},\mbox{\BPGS\550--558}.\end{thebibliography}\begin{biography}\bioauthor{松林優一郎(学生会員)}{2010年東京大学大学院情報理工学系研究科・コンピュータ科学専攻博士課程修了.情報理工学博士.同年より,国立情報学研究所・特任研究員.意味解析の研究に従事.ACL会員.}\bioauthor{岡崎直観(正会員)}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.情報理工学博士.同年より,東京大学大学院情報理工学系研究科・特別研究員.テキストマイニングの研究に従事.情報処理学会,ACL各会員.}\bioauthor{辻井潤一(正会員)}{1971年京都大学工学部,1973年同修士課程修了.同大学助手・助教授を経て,1988年英国UMIST教授,1995年より東京大学教授.マンチェスタ大学教授を兼任.TM,機械翻訳などの研究に従事.工博.ACL元会長(2006年).}\end{biography}\biodate\end{document}
V07N02-05
\section{はじめに} \label{sec:intro}本稿では,比喩の一種である換喩を統計的に解釈する方法を述べる.比喩は大別すると,直喩・隠喩的なものと換喩的なものとに分けられる\cite{Ye90}.まず,直喩・隠喩的な比喩とは,喩えるもの(喩詞)と喩えられるもの(被喩詞)との類似性に基づいた比喩である.たとえば,「あの男は狼のようだ」という直喩,あるいは,「あの男は狼だ」という隠喩は,喩詞である「狼」と被喩詞である「あの男」との間の何らかの類似性(獰猛さなど)に基づいている.ここで,直喩と隠喩との違いは,直喩が比喩であることを言語的に明示するのに対して,隠喩はそのようなことを明示しない点にある.一方,換喩的な比喩とは,喩詞と被喩詞との連想関係に基づいた比喩である.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」というように解釈できる.この場合,喩詞である「漱石」と被喩詞である「(漱石の)小説」との間には,「作者-作品」という連想関係が成立する\cite{yamanashi88}.比喩の処理は,検出と解釈の2段階に分けて考えることができる.まず,比喩の検出とは,与えられた言語表現が比喩であるかどうかを判定する処理である.次に,比喩の解釈とは,与えられた言語表現が比喩であるとして,その比喩の非字義的な表現から字義的な表現を求める処理である.たとえば,比喩の検出の段階では,「漱石を読む」が比喩であり,「小説を読む」が比喩でないことを区別する.また,比喩の解釈の段階では,既に比喩であることが分かっている「漱石を読む」という非字義的な表現から,「漱石の小説を読む」という字義的な表現を導出する.本稿では,直喩・隠喩的なものと換喩的なものとに大別できる比喩のうちで,換喩を対象とする.また,換喩の検出と解釈のうちでは,換喩の解釈を対象とする.なお,本稿の対象をこのようにした理由は,まず,第1に,直喩や隠喩や換喩などは,上述のように,一応区別できるものであるので,それらを別々のものとして,そのうちの一つを研究対象とすることは可能であるからである.次に,換喩の解釈を対象とする理由は,換喩の解釈は換喩のみを考慮すれば実現可能なのに対して,換喩の検出は直喩や隠喩なども考慮しなければ実現不可能なためである.すなわち,換喩を検出するには,まず,比喩を検出し,その後でその比喩が換喩かどうかを検出しなければならないので,換喩検出を直喩や隠喩と別々に研究することは困難であるのに対して,換喩の解釈の場合には,既に換喩が与えられたものとすれば,他の比喩のことは考慮せずに独立に研究できるためである.本稿では,換喩のなかでも,「$名詞A$,$格助詞R$,$述語V$」というタイプの換喩を対象とする.そして,以下の方針に基づいて,換喩を解釈する.\begin{enumerate}\item「$A$,$R$,$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する(\ref{sec:corpus}章).\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する(\ref{sec:measure}章).\end{enumerate}たとえば,「一升瓶を飲む」という換喩が与えられたとすると,喩詞である「一升瓶」から連想される名詞として「酒,栓,...」をコーパスから求め,その中から「を飲む」という視点に適合する「酒」を被喩詞として選択する.一方,「一升瓶を開ける」という換喩に対しては,「一升瓶」から連想される名詞群は同じであるが,被喩詞としては「栓」を選択する.上述の(1)と(2)は本稿の手法を特徴付けるものである.そして,これらは\cite{yamamoto98}の方法を発展させたものと考えることができる.まず,(1)については,これまでの換喩の研究としては,連想される(名詞とは限らない)単語群を求めるために,意味ネットワークや規則などを利用したものがある\cite{iverson92:_metal,bouaud96:_proces_meton,fass88:_meton_metap}が,そのような知識は人手で構築するのが困難であるという欠点がある.それに対して,コーパスを利用すれば,意味ネットワークのような知識を人手で構築する必要はない.そのため,コーパスを利用すれば,相当多くの換喩を解析できる可能性がある.すなわち,コーパスに基づく手法の方が,意味ネットワークなどに基づく手法よりも,広い範囲の換喩を解析できる可能性が高い.なお,\cite{yamamoto98}は,名詞$A$から連想される名詞の候補として,「名詞$A$の名詞$B$」における$B$と,「名詞$A$名詞$B$」における$B$を用いていたが,本稿では,(i)「名詞$A$の名詞$B$」における$B$と,(ii)名詞$A$と同一文中に出現した名詞$B$とを連想される名詞の候補に用いる\footnote{(i)における名詞の候補は(ii)における候補に包含されるが,\ref{sec:measure}章で述べる統計的尺度の計算において別扱いを受ける.}.(ii)を用いることにより,\cite{yamamoto98}の方法ではカバーできない名詞を連想の候補として利用できることが期待できる.次に,(2)については,換喩の解釈を絞り込むための情報源として換喩の視点($R$,$V$)を利用していると考えられる.このような絞り込みは,従来の研究では,意味ネットワークや規則により実現されてきたが,本稿では,コーパスにおける統計情報を利用して実現する.なお,\cite{yamamoto98}は,換喩の解釈を絞り込むために,与えられた述語の格フレーム($R$,$V$)に適合する名詞のうちで喩詞$A$との共起頻度が最大のものを被喩詞として選ぶという方法を用いている.しかし,全ての述語について格フレームが利用できるとは限らないので,本稿では格フレームを利用せず,統計的手法に基づいて被喩詞を選択する手法を提案する.なお,格フレームが利用できる場合には,その格フレームに適合する名詞のみを候補として,本稿で提案する手法を適応すれば良いので,本稿で提案する手法と共に格フレームを利用することは容易である\footnote{\cite{yamamoto98}では,本稿と同様に,換喩の解釈のみを対象にしているが,入力される換喩としては,「名詞$A_1$,格助詞$R_1$,名詞$A_2$,格助詞$R_2$,$\ldots$,名詞$A_n$,格助詞$R_n$,述語$V$」を想定している.そして,その入力に含まれる名詞のなかで述語$V$の格の選択制限に合致しないものを喩詞と特定し,その喩詞の被喩詞を求めている.たとえば,「私が漱石を読む」という換喩の場合には,「漱石」が「読む」の選択制限を満たさないことを特定し,「漱石」の被喩詞として「小説」を求めている.一方,本稿では,喩詞が特定済みの入力を想定している.つまり,入力としては,「漱石を読む」のようなものを想定している.この点では,\cite{yamamoto98}の方法の方が優れている.このような喩詞の特定は今後の課題である.ただし,本稿の方法に加えて,格フレームを利用できれば,\cite{yamamoto98}と同様の方法を使うことにより,喩詞を特定できる.}.以下,\ref{sec:sort}章では,換喩の種類と本稿の対象とする換喩について述べ,\ref{sec:corpus}章では,喩詞に関連する名詞群をコーパスから求めるときに使う共起関係について述べ,\ref{sec:measure}章では,被喩詞らしさの統計的尺度について述べる.そして,\ref{sec:experiments}章において,提案尺度の有効性を実験により調べ,\ref{sec:discussion}章で,その結果を考察する.\ref{sec:conclusion}章は結論である.なお,付録の表\ref{tab:1}から表\ref{tab:5}には,提案尺度に基づいて換喩を解釈した結果がある. \section{換喩の種類と対象とする換喩} \label{sec:sort}換喩の種類を区別するものとして,構文的区別,意味的区別,文脈的区別を考える.そして,それぞれの場合において,本稿で対象としている換喩の特徴を述べる.\subsection{構文的区別}\label{sec:syntax}構文的な区別とは,換喩の表現形式による区別のことである.まず,1項だけで,たとえば,名詞だけで,換喩となる場合が考えられる.この例\footnote{本稿における換喩の例は\cite{yamanashi88}または\cite{yamamoto98}からの引用もしくは著者らの作例である.}としては,「コニャック」という地名が「コニャック産のブランデー」という産物を表すというものがある.ただし,この例のように,名詞1語だけで換喩という場合は,語源を考えれば換喩ということであり,現在の用法としては,換喩というよりは,語義の多義性であると言えるであろう.次に,2項関係により換喩の解釈が決まるものがある.これは,たとえば,「名詞$A$,格助詞$R$,述語$V$」という形\footnote{格助詞は項数に含めない.}で,かつ,$A$が換喩かどうかが$R$と$V$のみに依存するものである.そのような例としては「漱石を読む」がある.この例は,「漱石の小説を読む」と解釈できるが,そのように解釈できる理由は,「漱石」は人であり,「人を読む」ことはできないので,その他の解釈として,蓋然性が高い,「漱石の小説を読む」が選択されると考えられる.3項関係としては,「名詞$A_1$,格助詞$R_1$,名詞$A_2$,格助詞$R_2$,述語$V$」のようなものが考えられる.この形の換喩の場合には,$A_1$が換喩かどうかは,$R_1$と$V$だけでなく,$A_2$と$R_2$にも依存する.このような例としては,「(観光ブームで)祇園に笑顔が戻った」のようなものがある.この例では「$A_1=祇園$,$R_1=に$,$A_2=笑顔$,$R_2=が$,$V=戻った$」であり,その解釈は,「祇園の人々に笑顔が戻った」というものである.この場合には,$A_1$の「祇園」が喩詞であり,その被喩詞は「(祇園の)人々」である.ここで,この喩詞と被喩詞との関係は,$A_2$の「笑顔」がなければ成立しないものである.これは,たとえば,「祇園に太郎が戻った」という文では,「祇園という場所に太郎が戻った」という字義通りの解釈となることから分かる.項数の他の構文的区別としては,換喩において,喩詞がどのような表現形式をしているかがある.上記では,喩詞の表現としては名詞しか考えていなかったが,その他に,「唇を噛むこと」が「くやしさ」を喩えていたり,「バンドの穴が一つ縮むこと」が「やせたこと」を喩えている場合がある.このように,換喩において,喩詞の表現形式は名詞とは限らない.上記のように,構文的な区別としては様々なものが考えられるが,本稿で対象とするものは,「$A$,$R$,$V$」という単純なものである.\subsection{意味的区別}意味的な区別とは,喩詞と被喩詞との意味的な関係による換喩の区別のことである.このような関係としては,表\ref{tab:metonymies}に示すように,「作者-作品」「主体-手段」「容器-中味」「主体-付属物」のようなものがある\cite{yamanashi88}.\begin{table}[htbp]\begin{center}\caption{換喩における意味的な関係の例}\begin{tabular}{|c|c|c|}\hline意味的関係&換喩の例&解釈\\\hline作者-作品&漱石を読む&漱石の小説を読む\\主体-手段&クラリネットを笑う&クラリネットの奏者を笑う\\容器-中味&鍋を食べる&鍋の料理を食べる\\主体-付属物&詰め襟が歩く&詰め襟の学生が歩く\\主体-近接物&ハムサンドが勘定を払う&ハムサンドの客が勘定を払う\\\hline\end{tabular}\label{tab:metonymies}\end{center}\end{table}本稿での換喩の解釈においては,このような意味的な区別はせずに,単に,被喩詞としての名詞を同定することを目標とする.たとえば,「一升瓶を飲む」については,「一升瓶の酒を飲む」のように,「一升瓶」の被喩詞として「酒」を取り出すことを目標とするが,「一升瓶」と「酒」の間にある「容器と中味」という意味的な関係について推定することは解釈には含めない.その理由は,本稿では,換喩の被喩詞となる名詞をコーパス中から求めるのだが,そのコーパスには,「一升瓶の酒」というような事例はあっても,その事例における「一升瓶」と「酒」との間の意味関係については何の情報もないからである.そのため,そのような意味関係を推定するのは今後の課題とする.なお,そのような意味関係の推定のためには,\cite{kurohashi99:_seman_analy_japan_noun_phras}の方法が利用できるであろう.\subsection{文脈的区別}\label{sec:context}ここで述べる文脈的区別とは,ある換喩が発話されたとき,その換喩の解釈を一意に決めるために必要な文脈の程度による区別のことである.まず,解釈を一意に決めるために,特に文脈を必要としない換喩がある.これは,その換喩の解釈に一般的な知識のみを必要とするようなものである.そのような例としては「漱石を読む」がある.この換喩を解釈するために必要な知識は,「漱石の小説」というものが存在するという知識のみであり,かつ,そのような知識は常識的な知識であるので,この換喩を一意に解釈するためには,特に文脈は必要ない.一方,一意に解釈するためには,それが発話された状況までも知らないとならない換喩がある.たとえば,「黒がいい」という換喩の場合,洋服売場においては,「黒のスラックスがいい」という意味かもしれないし,囲碁の対局においては,「黒石を持つ人の情勢がいい」という意味かもしれない.このように換喩の解釈に必要な文脈の程度は様々であるが,本稿が対象とする換喩は,一意に解釈するために文脈が不要な換喩である. \section{喩詞と関連する名詞群を求めるときに使う共起関係} \label{sec:corpus}コーパスにおける単語間の共起頻度を利用することにより,互いに意味的に関連がある単語対を抽出できる\cite[など]{church89:_word_assoc_norms_mutual_infor_lexic,brown92:_class_based_model_natur_languag}.このことに基づき,喩詞から連想される名詞群を求めるためにコーパスを利用する.本稿では,特に,「の」による共起関係と「同一文内」における共起関係とに基づいて喩詞と関連する名詞群を求める.ただし,「の」による共起関係とは,係り受け関係にある名詞$A$と$B$とが「$A$の$B$」の形で出現した場合を言う.さらに,$A$と「の」による共起関係にある名詞としては,$A$に「の」を介して後接する名詞のみを利用し,前接する名詞は利用しない.たとえば,「$A$の$B$」と「$X$の$A$」とがあった場合には,$A$と「の」による共起関係にある名詞は$B$のみである.一方,「同一文内」における共起関係では,「の」による共起関係のような非対称性はない.たとえば,上例と同様に,$A$と$B$とが同一文内にあり,$X$と$A$とが同一文内にある場合には,$A$の共起名詞としては,$A$との相対的な出現順序に関わらず$B$と$X$とが抽出される\footnote{「の」による共起関係が非対称であるのに対して,「同一文内」における共起関係が対称である理由は以下の通りである.まず,「の」による共起関係が非対称である理由は,喩詞と被喩詞との間にある連想の非対称性と,「の」による共起関係における出現頻度の非対称性とがよく一致すると考えたからである.たとえば,「漱石を読む」という換喩では,喩詞「漱石」と被喩詞「小説」との間には,「漱石」から「小説」を連想するのであって,「小説」から「漱石」を連想するのではないという非対称性がある.そして,「の」による共起関係についても,出現頻度に関して,このような非対称性がある.たとえば,\ref{sec:experiments}章の実験に用いたコーパスでは,「漱石の小説」の頻度は14であるが,「小説の漱石」の頻度は0である.このことから,喩詞「漱石」から連想される名詞群を求めるときには,「漱石の$B$」における$B$を利用すれば良いと考えられる.我々は,このようなことが一般にも成立すると予想し,喩詞から連想される名詞群を精度良く求めるために,「の」による共起関係を非対称なものとした.一方,「同一文内」における共起関係については,そのような連想の非対称性は顕著ではないと考えた.更に,以下で述べるように,「同一文内」における共起関係は,共起名詞のカバー率を上げることを目的として利用しているため,なるべく多くの共起名詞を拾うためには対称の方が都合が良いため,対称的な共起関係を利用した.}.ここで,被喩詞としての妥当性という観点から,それぞれの共起関係により求められる名詞群を比べると,一般的に言って,「の」による共起関係による名詞群の方が優れている.なぜなら,「の」による共起関係にある名詞は,「同一文内」における共起関係にある名詞と違い,二つの名詞間に係り受け関係という構文的な関係が成立している.つまり,構文的な関係という観点からは,「の」による共起関係にある名詞の方が,「同一文内」における共起関係にある名詞よりも明らかに強い.そのため,意味的な関係についても「の」による共起関係にある名詞の方が強いと考えることができるからである.たとえば,表\ref{tab:metonymies}では,様々な意味的な関係が「の」による共起関係として表現されている.これは,「の」による共起関係が,意味的な関係が強い名詞と起こることを例示している.なお,「の」による共起関係の有用性は,\cite{murata97}でも確認されている.一方,「同一文内」における共起関係にある名詞群は,「の」による共起関係にある名詞群よりも数が多い.実際,「の」による共起関係にある名詞群は,「同一文内」における共起関係にある名詞群の部分集合である.そのため,「の」による共起関係でカバーできないような連想についても「同一文内」における共起名詞によりカバーできる可能性がある.このように,「の」による共起関係と「同一文内」における共起関係とは,互いに,意味的な関連の強さとカバー率において性質が異なる関係であると言える.そのため,これらを区別して喩詞と共起関係にある名詞群を求める.たとえば,付録の表\ref{tab:1}から表\ref{tab:5}には,\ref{sec:experiments}章の実験で使われた換喩について,その喩詞と共起関係にある名詞群を載せてある.ここで,それらの表において,「AのB」とあるのは,喩詞と「の」による共起関係にある名詞群であり,「A近B」とあるのは,喩詞と「同一文内」における共起関係にある名詞群である.なお,それらの名詞群は,喩詞との共起頻度が多いものから最大10個が並べられている.ただし,共起名詞の数が10個以下のものについては,全ての共起名詞が共起頻度の降順に記載されている.なお,各名詞の右下の添字は,その名詞と喩詞との,その共起関係における共起頻度である.これらの表のうちで,表\ref{tab:2}にある,10番の換喩「顔を剃る」を見ると,喩詞「顔」と,「の」による共起関係にある名詞群としては,「表情,部分,前,輪郭,しわ,大きさ,筋肉,色,アップ,形」があるが,「同一文内」による共起関係にある名詞群としては,「日本,人,前,女性,首相,目,自分,男,手,東京」がある.これらを比べたとき,「の」による共起関係にある名詞群の方が,「顔」との意味的な関係が強い(明瞭である)と言える.このことは,その他の換喩の例についても言えると考える.一方,12番の換喩「アデランスが歩く」を見ると,「同一文内」における共起名詞として「かつら,アートネイチャー,東京,新宿,髪,男性,女性,アルシンド,メーカー,大手」があるが,「の」による共起関係にある名詞は存在しない\footnote{この理由の一つは,\ref{sec:material}節でも述べるが,「の」による共起関係が成立するかどうかの判定を厳しくしていることにもある.}.このことは,「同一文内」における共起関係が,連想される名詞のカバー率を上げるために有用であることを示している.これらのことからも分かるように,二つの共起関係は性質が異なるものである.そのため,共起名詞を得るときには,二つの関係を区別しなければならないと言える. \section{被喩詞らしさの統計的尺度} \label{sec:measure}本章では,与えられた名詞群から,換喩の被喩詞として適当な名詞を選択するための統計的尺度について述べる.与えられた換喩が「名詞$A$,格助詞$R$,述語$V$」のとき,$A$と関係$Q$にある被喩詞を$B$とすると,「$A$,$R$,$V$」は,「$A$,$Q$,$B$,$R$,$V$」の省略形であると考えることができる\cite{yamamoto98}.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」という字義的な表現の省略形であると考えることができる.ただし,「$A=漱石$」「$Q=の$」「$B=小説$」「$R=を$」「$V=読む$」である.これらの関係を図\ref{fig:dep}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=depAQBRV.eps}\caption{「$A$,$Q$,$B$,$R$,$V$」における依存構造}\label{fig:dep}\end{center}\end{figure}このことを統計的に表現するために,換喩「$A$,$R$,$V$」に対して,関係$Q$を用いたときの被喩詞$B$の尤もらしさを表す尺度を\begin{equation}\label{eq:L}L_Q(B|A,R,V)\doteq\Pr(B|A,Q,R,V)\end{equation}により定義する.そして,$B$の被喩詞としての尤もらしさを表す尺度を\begin{equation}\label{eq:M}M(B|A,R,V)\doteq\max_QL_Q(B|A,R,V)\end{equation}と定義する.尺度$M$が大きい名詞ほど,被喩詞として尤もらしい.ここで,$\Pr(\cdots)$は,そのような事象が生じる確率である.また,$Q$は,本稿の場合には,「の」による共起関係か,「同一文内」での共起関係であり,$B$は,$A$と関係$Q$にあるような名詞の一つである.(\ref{eq:L})式を計算するために,以下のような変形をする.\begin{eqnarray}\label{eq:L2}\lefteqn{L_Q(B|A,R,V)}\nonumber\\&=&\Pr(B|A,Q,R,V)\nonumber\\&=&\frac{\Pr(A,Q,B,R,V)}{\Pr(A,Q,R,V)}\nonumber\\&=&\frac{\Pr(A,Q,B)\Pr(R,V|A,Q,B)}{\Pr(A,Q)\Pr(R,V|A,Q)}\nonumber\\&\simeq&\frac{\Pr(A,Q,B)\Pr(R,V|B)}{\Pr(A,Q)\Pr(R,V)}\nonumber\\&=&\frac{\Pr(A,Q,B)}{\Pr(A,Q)}\frac{\Pr(B,R,V)}{\Pr(B)}\frac{1}{\Pr(R,V)}.\end{eqnarray}上式において,4行目から5行目への近似は,形態素間の依存構造を根拠としている.すなわち,「$A$,$Q$,$B$,$R$,$V$」には,図\ref{fig:dep}のような依存構造を考えることができることから,$A,Q$と$R,V$との関係は密接でないと考えられる.そのため,$A,Q$と$R,V$とは確率的に独立と近似し,4行目から5行目において,$\Pr(R,V|A,Q,B)\simeq\Pr(R,V|B)$および$\Pr(R,V|A,Q)\simeq\Pr(R,V)$とした.(\ref{eq:L2})式の要素式を以下のように定義する\footnote{本節で後述する頻度の計数法に従うと,(\ref{eq:aqb})式と(\ref{eq:aq2})式については,$\Pr(A,Q)=\sum_B\Pr(A,Q,B)$である.しかし,(\ref{eq:b})式と(\ref{eq:brv})式については,$\Pr(B)\neq\sum_{R,V}\Pr(B,R,V)$である.このように,(\ref{eq:b})式と(\ref{eq:brv})式には確率の観点からは不整合がある.この不整合性を失くすためには,$\Pr(B)$を$\sum_{R,V}\Pr(B,R,V)$と定義すれば良いのだが,それを計算するのはコストが高いため,(\ref{eq:b})式のように定義した.}.\begin{equation}\label{eq:aqb}\Pr(A,Q,B)\doteq\frac{f(A,Q,B)}{N_0}.\end{equation}\begin{equation}\label{eq:aq2}\Pr(A,Q)\doteq\frac{f(A,Q)}{N_1}.\end{equation}\begin{equation}\label{eq:b}\Pr(B)\doteq\frac{f(B)}{N_2}.\end{equation}\begin{equation}\label{eq:brv}\Pr(B,R,V)\doteq\left\{\begin{array}{ll}\frac{f(B,R,V)}{N_3}&\mbox{if}f(B,R,V)>0,\\\frac{\sum_{C\inClasses(B)}\Pr(B|C)f(C,R,V)}{N_3}&\mbox{otherwise}.\end{array}\right.\end{equation}\begin{equation}\label{eq:bc}\Pr(B|C)\doteq\frac{f(B)/|Classes(B)|}{f(C)}.\end{equation}ただし,$f(\cdots)$は当該事象の頻度であり,$N_i(0\lei\le3)$は確率の総和が1となるように定める正規化定数であり,$Classes(B)$は$B$が所属する(たとえばシソーラスにおける)意味的なクラスの集合である.なお,$N_i$は定数であり,さらに,(\ref{eq:L2})式の$\Pr(R,V)$についても,換喩「$A$,$R$,$V$」が与えられているという条件下では定数である.よって,これらの値は,$L_Q(B|A,R,V)$の大小の比較には影響を与えない.そのため,\ref{sec:experiments}章の実験では,簡単のため,$N_i=1$,$\Pr(R,V)=1$として(\ref{eq:L2})式を計算している.(\ref{eq:aqb})式と(\ref{eq:brv})式とを比べると,(\ref{eq:aqb})式では,$f(A,Q,B)$のみを利用しているため,$A$と関係$Q$にないような名詞$B$は,$f(A,Q,B)=0$であるので,無視される.一方,(\ref{eq:brv})式では,$f(B,R,V)=0$であるような名詞$B$についても,$B$の所属するクラスを利用することにより,0より大きい確率を付与する.このようにした理由は,まず,(\ref{eq:aqb})式については,$A$と$B$とは,喩詞と被喩詞という,ある程度強い連想関係にあるはずなので,共起頻度が0であるような名詞は無視しても良いと考えたからである.それに比べて,(\ref{eq:brv})式では,$B$と$V$とは必ずしも強い連想関係にあるとは限らないので,$f(B,R,V)=0$であっても,$B$が被喩詞として不適当とは限らない可能性がある.そのため,$f(B,R,V)=0$のようなものについても,$B$の意味的なクラスを利用することにより,確率を付与することにした.(\ref{eq:bc})式は,意味的クラス$C$が名詞$B$として出現する確率である.これは,もし,名詞$B$に多義性がなく,一つのクラス$C$にしか所属しないとすれば,名詞$B$の頻度$f(B)$を,クラス$C$の頻度$f(C)$で割れば求めることができるが,名詞$B$が多義で複数のクラスに所属する場合には,名詞$B$はそれらのクラスに等確率で所属するものとして,$f(B)$を$|Classes(B)|$で割った頻度を$f(C)$で割ったものを$\Pr(B|C)$とする.なお,各事象の頻度は以下のようにして求めた.まず,(\ref{eq:aqb})式における$f(A,Q,B)$の計数法は,詳しくは\ref{sec:material}節で述べるが,基本的には,コーパス中における,そのような事象を直接計数する.たとえば,Qが「の」による共起関係の場合は,たとえば,「漱石,の,小説」のような共起を計数するし,「同一文内」による共起関係の場合は,たとえば,「漱石」と「小説」が同一文内で共起した回数を数える.一方,(\ref{eq:aq2})式における$f(A,Q)$の場合は,$f(A,Q)\doteq\sum_Bf(A,Q,B)$と定義する.つまり,$f(A,Q)$は,$A$と関係$Q$により共起した名詞$B$について,$f(A,Q,B)$を足し合わせた値である.更に,(\ref{eq:b})式の$f(B)$の場合には,単に,コーパス中における$B$の出現頻度を数える.また,(\ref{eq:brv})式の$f(B,R,V)$については,詳しくは\ref{sec:material}節で述べるが,基本的には,コーパス中における「$B$,$R$,$V$」という形態素列の個数を数える.以上をまとめると,$f(A,Q,B)$,$f(B)$,$f(B,R,V)$は,コーパス中における事象を計数し,$f(A,Q)$については,$f(A,Q)=\sum_Bf(A,Q,B)$と定義する,ということである.また,各クラスの頻度$f(C)$は,そのクラスに属する名詞$B$の頻度により,次のようにして求めた.\begin{displaymath}f(C)=\sum_{B\inC}\frac{f(B)}{|Classes(B)|}.\end{displaymath}ここで,$f(B)$を$|Classes(B)|$で割っているのは,(\ref{eq:bc})式の説明で述べたように,$B$が複数の意味的クラスに属する場合に,$f(B)$を各クラスに等分割するためである.また,$f(C,R,V)$も同様にして求めた.すなわち,\begin{displaymath}f(C,R,V)=\sum_{B\inC}\frac{f(B,R,V)}{|Classes(B)|}.\end{displaymath}以上,(\ref{eq:aqb})式から(\ref{eq:bc})式までを利用することにより,(\ref{eq:L2})式を計算し,(\ref{eq:M})式により,名詞の被喩詞らしさを求める.これらの式の適用例として,たとえば,「森鴎外を読む」という換喩における被喩詞の候補として,「小説」と「戯曲」があるとする.ここで,「$A=森鴎外$」「$R=を$」「$V=読む$」である.また,$Q$は,「の」による共起関係か,「同一文内」での共起関係であり,$B$は「小説」か「戯曲」である.このとき,それぞれの頻度を,$f(A,Q,B)$などで分類して表示すると以下の通りである.\paragraph{$f(A,Q,B)$}\begin{eqnarray}f(森鴎外,の,小説)&=&4,\nonumber\\f(森鴎外,の,戯曲)&=&2,\nonumber\\f(森鴎外,同一文内,小説)&=&10,\nonumber\\f(森鴎外,同一文内,戯曲)&=&2,\nonumber\end{eqnarray}\paragraph{$f(A,Q)$}\begin{eqnarray}f(森鴎外,の)&=&18,\nonumber\\f(森鴎外,同一文内)&=&1311,\nonumber\end{eqnarray}\paragraph{$f(B,R,V)$}\begin{eqnarray}f(小説,を,読む)&=&88,\nonumber\\f(戯曲,を,読む)&=&4,\nonumber\end{eqnarray}\paragraph{$f(B)$}\begin{eqnarray}f(小説)&=&7545,\nonumber\\f(戯曲)&=&781.\nonumber\end{eqnarray}ただし,これらの頻度は,\ref{sec:experiments}章の実験で用いられたコーパスにおいて,\ref{sec:material}節の方法により頻度を集計した結果である.次に,$L$の大小比較に関係のない$N_0,N_1,N_2,N_3,\Pr(R,V)$を1として,$L$を計算すると,(\ref{eq:L2})式は,$f(B,R,V)>0$のときには,\begin{equation}L_Q(B|A,R,V)=\frac{f(A,Q,B)}{f(A,Q)}\frac{f(B,R,V)}{f(B)}.\end{equation}のように簡単化できるので,\begin{eqnarray}\label{eq:Ls}L_{の}(小説|森鴎外,を,読む)&=&\frac{f(森鴎外,の,小説)}{f(森鴎外,の)}\frac{f(小説,を,読む)}{f(小説)}\nonumber\\&=&\frac{4}{18}\frac{88}{7545}=2.59\times10^{-3},\nonumber\\L_{同一文内}(小説|森鴎外,を,読む)&=&\frac{f(森鴎外,同一文内,小説)}{f(森鴎外,同一文内)}\frac{f(小説,を,読む)}{f(小説)}\nonumber\\&=&\frac{10}{1311}\frac{88}{7545}=8.90\times10^{-5},\nonumber\\L_{の}(戯曲|森鴎外,を,読む)&=&\frac{f(森鴎外,の,戯曲)}{f(森鴎外,の)}\frac{f(戯曲,を,読む)}{f(戯曲)}\nonumber\\&=&\frac{2}{18}\frac{4}{781}=5.69\times10^{-4},\nonumber\\L_{同一文内}(戯曲|森鴎外,を,読む)&=&\frac{f(森鴎外,同一文内,戯曲)}{f(森鴎外,同一文内)}\frac{f(戯曲,を,読む)}{f(戯曲)}\nonumber\\&=&\frac{2}{1311}\frac{4}{781}=7.81\times10^{-6}.\nonumber\end{eqnarray}これより,\begin{eqnarray}\label{eq:Ms}\lefteqn{M(小説|森鴎外,を,読む)}\nonumber\\&=&\max\{L_{の}(小説|森鴎外,を,読む),L_{同一文内}(小説|森鴎外,を,読む)\}\nonumber\\&=&2.59\times10^{-3},\nonumber\\\lefteqn{M(戯曲|森鴎外,を,読む)}\nonumber\\&=&\max\{L_{の}(戯曲|森鴎外,を,読む),L_{同一文内}(戯曲|森鴎外,を,読む)\}\nonumber\\&=&5.69\times10^{-4}\nonumber\end{eqnarray}となり,「森鴎外を読む」の被喩詞としては,「小説」の方が「戯曲」よりも適当となる.この結果は妥当であると考える.なぜなら,森鴎外は,確かに戯曲も書いているが,それよりも,「舞姫」「青年」「高瀬舟」などの小説で有名であるからである. \section{実験} \label{sec:experiments}実験材料,実験方法,実験結果について順に述べる.\subsection{実験材料}\label{sec:material}\paragraph{換喩}実験に用いた換喩は,\cite{yamanashi88}において例文として採用されているものを,「名詞$A$,格助詞$R$,述語$V$」の形に適合するように変形した33例\footnote{実験に用いたのは,\ref{sec:syntax}節で述べたように,2項関係により換喩の解釈が決まる例文のうちで,喩詞が名詞であるようなものである.}に,著者らによる作例1例\footnote{著者らの作例は,換喩解釈における視点の役割を例示するために加えた.}を加えた34例である\footnote{\cite{yamamoto98}は35例で実験をしているが,それらにおける異なり述語数は18であるので,実質上は似たタイプの換喩における実験であると言える.それに対して本稿の実験では,述語の異なり数が31であるので,取扱う換喩のタイプ数としては,本稿の実験の方が多いと言える.また,\cite{yamamoto98}は\cite{yamanashi88}から換喩の例文を選んでいるのだが,\cite{yamanashi88}にある全ての換喩を選んでいるわけではない.それに対して,本稿では,\cite{yamanashi88}において,完全な文として成立するような例40例の中から,\ref{sec:syntax}節の規準に合致する32例(32/40=0.80.ここで32例のうち1例は二つの換喩を含んでいたので,それを2例に分け,最終的に33例の換喩を得た)を選んだものであるので,本稿の実験は,換喩のタイプを良く網羅するものであると考える.}.なお,これらの例では,格助詞としては,「が」と「を」しか出現していないが,その他の格助詞についても提案手法は適用できるし,もっと一般に,任意の2項関係についても提案手法は適用できる.\paragraph{コーパス}単語間の共起頻度を計数するためのコーパスとしては,「CD-毎日新聞」の91年度版から97年度版の7年間分を用いた.このコーパスを自動処理により一文単位に分けたあとで,茶筌version2.0b6\cite{matsumoto97}により形態素解析し,共起頻度を計数した.ここで,(\ref{eq:aqb})式における$\Pr(A,Q,B)$を計算するときに必要な,名詞間の共起頻度を求めるとき,「同一文内」における共起関係については,特別な処理をすることなく,単に頻度を計数した.しかし,「の」による共起関係については,名詞間に係り受け関係が高確率で成立するような共起関係を同定することを目的として,「非名詞,名詞$A$,の,名詞$B$,非名詞」という単語列からのみ,$A$と$B$の共起頻度を計数した.なお,ここでの名詞には,茶筌にとっての未知語を含む.また,(\ref{eq:brv})式における$\Pr(B,R,V)$を計算するときに必要な,「名詞,格助詞,述語」の共起頻度を求めるときには,格助詞が「を」の場合には,単に,「名詞,を,述語」という単語列の生起頻度をもって共起頻度としたが,格助詞が「が」の場合には,「が」だけでなく,「は」「も」「の」を間に狭んだ名詞と述語の連続,すなわち,「名詞,は,述語」や「名詞,も,述語」や「名詞,の,述語」についても,「が」による共起関係の頻度とした.たとえば,「僕が行く」「僕は行く」「僕も行く」という例が,それぞれ1例ずつあった場合には,「僕,が,行く」の頻度を3にした.このようにした理由は,「を」については,「を」だけで共起頻度が充分に利用できるが,「が」については,「が」だけでは充分な共起頻度が得られないためである.なお,構文解析の結果に基づいた係り受け情報を利用すれば,「が」についても充分な共起頻度が得られる可能性はあるが,今回は構文解析をしなかったため,上記のような措置により,共起頻度情報を得た.\paragraph{名詞の意味的クラス}(\ref{eq:brv})式を計算するためには,各名詞の意味的なクラスが必要である.そのクラスとしては,分類語彙表増補版\cite{bgh96}における上位3桁の分類番号を用いた.これによるクラスの種類は,全体では,90種であり,名詞に限れば,43種である.なお,本稿では,名詞のクラスのみを用いた.分類語彙表増補版には約85,000語が記載されているが,これに記載されていない名詞については,もし,その名詞の細分類が,茶筌における,「人名」「組織」「地域」「数」のいずれかである場合には,以下の分類番号を割当てた.\begin{quote}\vspace{1em}\begin{tabular}{|l|l|l|}\hline細分類&分類番号&分類語彙表にない名詞例\\\hline人名&1.20,1.21,1.22,1.23,1.24&佐藤,田中,鈴木\\組織&1.26,1.27,1.28&自民党,筑波大,日本相撲協会\\地域&1.25&大阪,神戸,兵庫\\数&1.19&一一〇,一万八千,七十一\\\hline\end{tabular}\vspace{1em}\end{quote}ただし,これらの細分類に該当する名詞については,それに関連する全ての分類番号を割当てた.たとえば,「佐藤」という人名の場合には,「1.20,1.21,1.22,1.23,1.24」の全てを分類番号として割当てた.つまり,「佐藤」は複数の意味的クラスに所属する多義的な名詞ということである.また,品詞細分類が上記四つ以外の名詞については,それが分類語彙表で未登録名詞の場合には,その名詞自体を一つのクラスとした.\vspace{-3mm}\subsection{実験方法と実験結果}\label{sec:results}各換喩について,喩詞と,「の」または「同一文内」での共起関係にある名詞群を得て,それぞれの名詞について,(\ref{eq:M})式の尺度$M$を計算した.その結果を付録の表\ref{tab:1}から表\ref{tab:5}に示す.これらの中で,表\ref{tab:1}と表\ref{tab:2}は正解例であり,表\ref{tab:3},表\ref{tab:4},表\ref{tab:5}は不正解例である.また,解析結果の一部を表\ref{tab:ex}に示す.\begin{table}[htbp]\footnotesize\begin{center}\caption{解析結果の一部}\begin{tabular}{|l|l|}\hline1.&一升瓶を飲む\\被喩詞&$○酒^{近}_{10,1}(2.6\times{}10^{-3})$$ビール^{近}_{6,6}(5.0\times{}10^{-4})$$日本酒^{近}_{7,4}(3.9\times{}10^{-4})$$ぶどう酒^{近}_{1,79}$\\&$ワイン^{近}_{2,26}$$牛乳^{近}_{2,26}$$ジュース^{近}_{2,26}$$ウイスキー^{近}_{2,26}$$地酒^{近}_{1,79}$$薬^{近}_{1,79}$\\AのB&$栓_{1}$$ラベル_{1}$\\A近B&$酒_{10}$$ビール瓶_{10}$$瓶_{10}$$日本酒_{7}$$空_{7}$$ビール_{6}$$手_{6}$$足_{4}$$量_{4}$$程度_{4}$\\\hline21.&押し入れをかきまわす$\rightarrow$押し入れの中味をかきまわす\\被喩詞&$△奥^{の,*}_{17,1}(2.5\times{}10^{-7})$$天袋^{の,*}_{5,2}(2.3\times{}10^{-7})$$天井^{の,*}_{2,4}(9.2\times{}10^{-8})$$戸^{の,*}_{2,4}$\\&$上段^{の,*}_{2,4}$$中段^{の,*}_{2,4}$$金庫^{の,*}_{1,11}$$相手^{近}_{1,393}$$和室^{近,*}_{17,5}$$前^{の,*}_{3,3}$\\AのB&$奥_{17}$$天袋_{5}$$前_{3}$$天井_{2}$$戸_{2}$$中段_{2}$$上段_{2}$$布団_{2}$$整理_{2}$$中身_{2}$\\A近B&$自宅_{25}$$奥_{23}$$調べ_{22}$$遺体_{19}$$和室_{17}$$容疑_{17}$$部屋_{16}$$疑い_{16}$$布団_{14}$$県_{13}$\\\hline27.&ベルイマンを見る\\被喩詞&$×息子^{の}_{1,1}(8.1\times{}10^{-4})$$心情^{の}_{1,1}(4.9\times{}10^{-4})$$○映画^{近}_{10,2}(4.7\times{}10^{-4})$$父^{の}_{1,1}$\\&$脚本^{の}_{1,1}$$作品^{近}_{6,4}$$夢^{近}_{1,26}$$秘蔵っ子^{の,*}_{1,1}$$シーン^{近}_{1,26}$$風景^{近}_{1,26}$\\AのB&$息子_{1}$$心情_{1}$$父_{1}$$脚本_{1}$$秘蔵っ子_{1}$\\A近B&$監督_{19}$$映画_{10}$$イングマール_{8}$$作品_{6}$$スウェーデン_{5}$$脚本_{4}$$息子_{3}$$野_{3}$$アメリカ_{3}$$時代_{3}$\\\hline\end{tabular}\label{tab:ex}\end{center}\end{table}表\ref{tab:ex}に示すように,各解析結果の第1行には,解析対象の換喩が番号と共に記述されている.また,解析対象の換喩の横には「$\rightarrow$」で示された換喩の解釈がある.ただし,この解釈は,第2行で示される「被喩詞」のなかに,\cite{yamanashi88}で想定されている正解がない場合にのみ記述されている.次に,「被喩詞」の行には,喩詞とのコーパス中での共起名詞が,(\ref{eq:M})式の尺度$M$について,その降順に上位から最大10個並んでいる.ここで,第1番目の名詞については,○/△/×が付与されているが,これらの意味は,○は当該の名詞が\cite{yamanashi88}で想定されている正解に合致する例であり,△は\cite{yamanashi88}では想定されていないが意味的には成立可能な例\footnote{△を付けられた例の許容度は様々である.特に,表\ref{tab:4}の26番,表\ref{tab:5}の33,34番の例は×に近いとも言える.}であり,×は完全な間違い例である.さらに,第1番目の名詞が△か×の場合には,それ以降に最初に現れた名詞で被喩詞として適当なものに○か△を付けている.なお,○/△/×の判断は著者らによる.また,各名詞は,\begin{displaymath}名詞^{共起関係,*}_{頻度,順位}(尺度Mの値)\end{displaymath}のように表現されている.ただし,$*$や尺度$M$の値は特別の場合(後述)にしか表示しない.ここで,まず,「共起関係」とは,(\ref{eq:M})式の尺度$M$を計算した際に選ばれた共起関係であり,それが「の」の場合には「の」による共起関係であることを示し,「近」の場合には「同一文内」における共起関係であることを示す.また,「頻度」とは,その共起関係における喩詞との共起頻度であり,「順位」とは,その共起関係における,その共起頻度の名詞の順位である.なお,同頻度の名詞は同順位である.たとえば,「$名詞_1$,$名詞_2$,$名詞_3$,$名詞_4$,$名詞_5$,$名詞_6$」の頻度が,それぞれ,「7,5,5,3,3,1」であるとすると,それぞれの順位は,「1,2,2,4,4,6」である.また,名詞の右肩に$*$が付いているものは,その名詞と換喩の述語との共起頻度が0であったため,(\ref{eq:brv})式において意味的クラスが利用されたことを示す.たとえば,21番の「押し入れをかきまわす」では「奥をかきまわす」などの頻度が0であったことを示す.さらに,上位3位までの名詞と○または△が付いた名詞については,(\ref{eq:M})式の尺度$M$の値を括弧内に示す.最後に,「AのB」の行にある名詞群は,喩詞と「の」による共起関係にある名詞群であり,「A近B」の行にある名詞群は,喩詞と「同一文内」における共起関係にある名詞群である.なお,これらの名詞群は,共起頻度の降順に上位から最大10個並んでいる.また,各名詞の右下の添字は,その名詞のその共起関係における共起頻度である.ただし,共起頻度が同じ名詞群については,それらを尺度$M$の値により降順にソートして表示している.\subsubsection{実験結果の解釈}\paragraph{全体的な精度}(\ref{eq:M})式の尺度$M$の全体的な精度を調べるために,表\ref{tab:1}から表\ref{tab:5}までの被喩詞の第1候補について,○△×を数えた.その結果を表\ref{tab:total}に示す.この表によると,○のみを正解とする厳しい評価では,正解率は$16/34\simeq0.47$であり,○と△を正解とする緩い評価では,正解率は$(16+6)/34\simeq0.65$である.これらの数値は,扱う対象が換喩という従来あまり解析の対象とされていない現象であることを考えると,高い値であると言えると考える.すなわち,提案手法は,換喩の解析に対して有効な手法であると考える.ただし,これらの値は少数例についてのものであるので,定量的に確定的なことを言うためには,更に大規模な実験が必要である.このことは本節で以下で述べることにも同様に言える.なお,実験結果の定性的な解釈については,\ref{sec:discussion}章で考察する.\begin{table}[htbp]\begin{center}\caption{提案尺度の全体的な精度}\begin{tabular}{|c|c|c|c|}\hline○&△&×&計\\\hline16&6&12&34\\\hline\end{tabular}\label{tab:total}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{共起関係毎の精度}\begin{tabular}{|c|c|c|c|c|}\hline&○&△&×&計\\\hline「の」による共起関係&14&8&12&34\\「同一文内」における共起関係&12&8&14&34\\\hline\end{tabular}\label{tab:cmp}\end{center}\end{table}\paragraph{二つの共起関係を使った効果}二つの共起関係を使った効果を見るために,「の」による共起関係にある名詞のみを被喩詞の候補とした場合と「同一文内」での共起関係にある名詞のみを被喩詞の候補とした場合とについて,それぞれの共起名詞について尺度$M$を計算し,被喩詞の第1候補を得た.そのときの○△×の数を表\ref{tab:cmp}に示す.まず,表\ref{tab:total}と表\ref{tab:cmp}とを比べると,二つの共起関係を利用した表\ref{tab:total}の結果の方が,それぞれ一つだけの共起関係を利用した表\ref{tab:cmp}の結果のどちらよりも優れていることが分かる.これから,二つの共起関係を同時に用いることが有効であると言える\footnote{\cite{yamamoto98}と同様に「名詞$A$の名詞$B$」における$B$と「名詞$A$名詞$B$」における$B$とを名詞$A$の被喩詞の候補に使った場合には,全体の精度は,○=12,△=10,×=12,であり,「名詞$A$の名詞$B$」における$B$のみを被喩詞の候補とした場合の精度は,表\ref{tab:cmp}における「の」による共起関係の場合と同じであり,「名詞$A$名詞$B$」における$B$のみを被喩詞の候補とした場合の精度は,○=3,△=13,×=18,であった.このことから,「名詞$A$名詞$B$」における$B$を被喩詞の候補とすることは,有効ではないと言える.}.次に,表\ref{tab:cmp}における二つの結果を比べると,「の」による共起関係の精度が若干良いことが分かる.一方,「同一文内」における共起関係のカバー率が高いことは,たとえば,表\ref{tab:1}の1番の換喩「一升瓶を飲む」における「酒」や表\ref{tab:2}の12番の換喩「アデランスが歩く」における「男性」など,「の」による共起関係に出現していないような名詞でも,「同一文内」における共起関係を利用することにより被喩詞として選択できることからわかる.これらのことは,\ref{sec:corpus}章で述べたことを例証している.\vspace{-3mm}\paragraph{意味的クラスの有効性}(\ref{eq:brv})式では,被喩詞と述語との共起頻度のスパース性を考慮して,意味的クラスを導入した.そのことは,ある程度は有効であったと考える.その理由は以下の通りである.まず,表\ref{tab:1}から表\ref{tab:5}までを見ると,尺度$M$の計算において意味的クラスが使用された名詞については,$*$が右肩に付されている.これから,被喩詞の第1候補で,意味的クラスが使用されたものは,5例あり(13,18,19,21,30番の換喩),そのうち,○が1例,△が2例,×が2例である.一方,もし,意味的クラスを使用しない場合\footnote{$\Pr(B,R,V)$の計算に(\ref{eq:brv})式の$\frac{f(B,R,V)}{N_3}$のみを利用し,$f(B,R,V)=0$のときには,$\Pr(B,R,V)=0$とした場合.}には,この5例について,△が3例,×が2例となる.次に,各換喩ごとに,1位から10位までの候補について,○か△の数の大小を,意味的クラスを使用した場合と使用しない場合とで比べる.たとえば,7番の「平安神宮が満開」の場合には,1位から10位までを順に示すと,意味的クラスを使用した場合には「○桜,△ハナショウブ,△花,池,柳,枝,幕,○さくら,△植物,花びら」が候補であり,意味的クラスを使用しない場合には「○桜,△ハナショウブ,△花,幕,今年,春,今,人,日,一つ」が候補である.したがって,意味的クラスを使用した場合の方が○か△の数が多い.このように,各換喩ごとに○か△の数を比較すると,意味的クラスを使用した場合の方が○か△の数が多い換喩は12例であり,意味的クラスを使用しない場合の方が○か△の数が多い換喩は5例である.この結果から,片側検定により符合検定をすると,有意水準2.5\%で,意味的クラスを使用した場合の方が,○か△の数が多い換喩が多いと言える.これより,意味的クラスの使用は有効であると言える. \section{考察} \label{sec:discussion}\subsection{連想名詞の供給源としてのコーパスの有用性}コーパスが連想名詞の供給源として有効なことを第\ref{sec:intro}章で述べた.そのことは,付録の表\ref{tab:1}から表\ref{tab:5}までに例証されていると考える.なぜなら,本実験においては,様々な名詞を喩詞として利用したが,それらの大半において妥当な名詞が連想されていることが表\ref{tab:1}から表\ref{tab:5}を見れば分かるからである\footnote{このことを数値的に示すことは難しいが,\ref{sec:results}章の実験における,○と△の数を一応は妥当な連想の数であるとすると,少くとも,$(16+6)/34\simeq0.65$は妥当な連想であると言える}.\subsection{視点を考慮した連想}換喩を解析するためには,喩詞から連想された名詞の中から,換喩の(格助詞と述語という)視点に適合する名詞を(被喩詞として)選択する必要があると第\ref{sec:intro}章で述べた.その規準を,(\ref{eq:M})式の尺度$M$は満たすと言える.そのことを端的に示す例が,1番と2番の換喩の対,および,3番と4番の換喩の対である.まず,1番の「一升瓶を飲む」という換喩と2番の「一升瓶を開ける」という換喩を見ると,同じ喩詞であっても,異なる被喩詞として「酒」と「栓」が選ばれている.次に,3番の換喩「鍋が煮える」と4番の換喩「鍋を食べる」を見ると,それぞれ,「出汁」と「料理」が選択されている.また,その他の例についても,被喩詞の候補として選択されているのは,格助詞を介して述語に継がるような例がほとんどなので,尺度$M$は,換喩の視点に適合する名詞を被喩詞として選択していると言える.\subsection{不正解例の分析}\label{sec:analysis}不正解となった原因について分析し,それらの誤りを改善する可能性について述べる.\subsubsection{頻度が少ないことによる不正解例}表\ref{tab:3}には,頻度が少ないことによる不正解例を載せてある.まず,喩詞の頻度が少ない場合として,17番の「藁草履が来る」がある.これは,喩詞である「藁草履」がコーパス中で1回も出現しなかったため解析に失敗した例である.このように喩詞自体の頻度が少ないような例は本手法では解析できない.このような単語を含む換喩を解析するためには,より大規模なコーパスが必要であろう.ただし,「藁草履」の場合には,「藁草履」の頻度は0であるが,「わら草履」の頻度は0ではない.そのため,このような表記のゆれを吸収することができれば,比較的頻度が少ない被喩詞を含む換喩についても解析できる可能性がある.あるいは,「藁草履」でなく「草履」を喩詞とみなして換喩の解析をすることも考えられるが,これらを試みるのは今後の課題である.次に,喩詞と被喩詞との共起頻度が少ない例として,18,19,20番の換喩がある.たとえば,19番の「傘が行く」は「傘をさした人が行く」などと解釈できるが,「傘」と「人」などとの共起頻度は,「傘」と「先」とか「下」とか「柄」とかとの共起頻度と比べれば少ない\footnote{より正確に言えば,(\ref{eq:L2})式における$\frac{\Pr(A,Q,B)}{\Pr(A,Q)}$が小さい.}.そのため,被喩詞として優先されない.このような例を提案手法で解析することはできない.ただし,18,19,20番の換喩に限っていえば,被喩詞が全て「人」であると特徴付けることができる.このことは,「人」の場合には,たとえ,喩詞との関連性が低くても被喩詞となりうることを示していると解釈できる.もし,この解釈が正しければ,「人」に類するものが被喩詞の候補としてある場合には,それを優先するようにすれば,これらの換喩を解釈できる可能性がある.ただし,このことを検証するのは今後の課題である.最後に,被喩詞と述語との共起頻度が少ない例として,21,22,23,24番がある.たとえば,23番の「川が氾濫」は「川の水が氾濫」と解釈できるが,「水」と「氾濫」の共起頻度は,「水路」や「河川」や「ダム」と「氾濫」との共起頻度よりも小さい\footnote{より正確に言えば,(\ref{eq:L2})式における$\frac{\Pr(B,R,V)}{\Pr(B)}$が小さい.}.そのため被喩詞として優先されない.このような例も提案手法で解析することはできない.ただし,21,22,23,24番の換喩に限れば,述語が場所を対象格として取りうると特徴付けることができる.そして,これらについては,換喩として与えられた入力が,現在ではそのまま字義的な表現として通用すると言える.すなわち,これらの換喩は語源的には換喩であっても,現在の用法としては既に換喩ではなく,慣用的に場所を対象格に取り得るといえる.そのため,これらは換喩として解析する必要はないと考える.ただし,与えられた入力を換喩として解釈すべきかどうか決めるためには,その入力が換喩かどうかを検出する必要がある.\subsubsection{解析に文脈が必要な例}表\ref{tab:4}にある25,26,27番の換喩は,述語の対象格が漠然としているため,被喩詞を決めることができない例である.このような例を解析するためには,\ref{sec:context}節で述べたように,換喩が発話された文脈を考慮する必要がある.\subsubsection{その他の原因による不正解例}表\ref{tab:5}には,その他の原因による不正解例を載せる.まず,28,29,30番は,被喩詞の一般化が足りない例である.たとえば,29番の「大阪がげんなり」は「大阪の人々がげんなり」と解釈できるが,被喩詞の候補としては「委員,弁護士,業者,...」となっている.これらの候補はいずれも「人」または「人々」の下位語であるので,これらの候補を適切に一般化できれば,この換喩を解釈できる可能性がある.それと同様なことが28,30番にも言える.次に,31,32番は,「名詞,が,述語」という共起関係を求めるために,\ref{sec:material}節で述べたように,「名詞,は,述語」などの共起関係も利用したために生じた間違いである.つまり,31番の場合には「ドラマは興奮」という共起関係を利用し,32番の場合には「今日は行く」という共起関係を利用したための間違いである.このようなことを回避するためには,名詞と述語の,「が」や「は」を介した共起頻度をとるときには,その名詞が主格となっている場合についてのみ共起頻度を取らなければならない.そうするためには,構文解析を利用して共起頻度を求める必要があるであろう.なお,現在の方法により共起頻度を求めた場合には,「が」のみを利用した場合の解析結果が,その他のものも利用した場合と比べて良くないことは予備実験で確かめてある.最後に,33,34番は,換喩を解釈した結果が依然として換喩的な意味を持っている場合である.たとえば,33番の「理論が主張」の解析結果は「党が(理論を)主張」であるが,「党」の背後には,更に「人」が暗黙の内にいると考えられる.このような例を解釈するためには,解析結果が換喩的意味を持つかどうかを調べ,もしそれが換喩的意味を持つならば,それをもう一度解釈する必要がある \section{おわりに} \label{sec:conclusion}本稿では,比喩の一種である換喩を統計的に解釈する方法について述べた.そして,換喩のなかでも,「$名詞A$,$格助詞R$,$述語V$」というタイプの換喩を対象とし,以下の方針に基づいて,換喩を解析することを試みた.\begin{enumerate}\item「$A$,$R$,$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する.\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する.\end{enumerate}その結果,コーパスが連想名詞の供給源として有効なことが例証され,かつ,提案手法を用いることにより,喩詞から連想された名詞群の中から,換喩の(格助詞と述語という)視点に適合する名詞を(被喩詞として)選択できることが分かった.また,提案手法による換喩解析の精度は,扱う対象が換喩という従来あまり解析の対象とされていない現象であることを考えると,高い値であると我々は判断した.また,実験結果の不正解例を分析した結果,\begin{itemize}\item喩詞と被喩詞や被喩詞と述語の共起頻度が少ない例\item解釈に文脈が必要な例\item被喩詞の適切な一般化が必要な例\end{itemize}などがあることが分かった.今後は,そのような問題も解決できるように提案手法を拡張していきたい.\newpage\acknowledgment本稿に対して有益なコメントを下さった筑波大学山本幹雄助教授に感謝する.\appendix\input{tables2}\clearpage\bibliographystyle{jnlpbbl}\bibliography{v07n2_05}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N04-01
\section{はじめに} label{sec:moti}アスペクト(aspect;相)とはある一つの事象(eventuality;イベント)についてのある時間的側面を述べたものである.しかしながら同時にアスペクトとは言語に依存してそのような統語的形態,すなわち進行形や完了形などと言った構文上の屈折・語形変化を指す.本稿で形式化を行うのは,このような固有の言語に依存したアスペクトの形態ではなく,言語に共通したアスペクトの意味である.アスペクトの概念はどうしても固有の言語の構文と結び付いて定義されているため,用語が極めて豊富かつ不定である.同じ完了と言っても英語のhave+過去分詞形と日本語のいわゆる「た」という助詞とはその機能・意味に大きな差異がある.したがって形式的にアスペクトの意味を述べるためにはまずこうした用語・概念の整理・統合を行った上で,改めて各概念の定義を論理的に述べる必要がある.このような研究では,近年では数多くのアスペクトの理論がイベント構造の概念によって構築されてきた.すなわち,すべての事象に共通な,アスペクトをともなう前の原始的・抽象的な仮想のイベント構造を考え,アスペクトとはこのイベント構造の異なる部位に視点(レファランス)を与えることによって生じるものとする説明\footnote{\cite{Moens88,Gunji92,Kamp93,Blackburn96,Terenziani93}他多数.個々の理論については第\ref{sec:akt}節で詳述する.}である.本稿のアスペクトの形式化も基本的にはこのイベント構造とレファランスの理論から出発する.しかしながらこのイベント構造とレファランスを古典的な論理手法によって形式化しようするとき,以下のような問題が伴う.まず,(1)時間の実体を導入する際に点と区間を独立に導入すると,アスペクトの定義においては,点と区間,点と点,区間と点の順序関係や重なり方に関して関係式が量産されることになる.次に,(2)アスペクトとは本来それだけで存在しうるものではなく,もともとある事象から派生して導き出されたものである.したがってアスペクトを定義する際にその条件を静的に列挙するだけでは不十分であり,もとにある事象の原始形態からの動的な変化として提示する必要がある.本稿では言語に共通なアスペクトのセマンティクスを形式化するために,アロー論理\cite{Benthem94}を導入する.第\ref{sec:arw}章で詳述するが,アロー論理とは命題の真偽を云々する際に通常のモデルに加えてアローと呼ばれる領域を与える論理である.アロー論理では,アロー自身に向きが内在しているために,(1)の問題でいうところの順序関係に関して記法を節約することができる.さらに動的論理(dynamiclogic)にアローを持ち込むことにより,動的論理の中の位置(サイト)と状態移動の概念を時間の点と区間の概念に対応づけることができる.このことは,アスペクトの仕様記述をする際に点と区間の関係が仕様記述言語(アローを含む動的論理)の側で既に定義されていることを意味し,さらに記述を簡潔にすることができる.本稿では,アスペクトの導出をこのような点と区間の間の制約条件に依存した視点移動として捉え,アスペクトの付加を制約論理プログラミングの規則の形式で記述する.したがって(2)の問題でいうところの動的な過程は,論理プログラミングの規則の実行過程として表現される.本稿は以下の構成をとる.まず第\ref{sec:akt}章では,言語学におけるアスペクトの分類と形式化を行い,先に述べた用語と概念の混乱を整理する.次にイベント構造とレファランスに関わる理論について成果をサーベイする.次に第\ref{sec:arw}章では,アロー論理を導入する.この章では,引き続いて,われわれの時間形式化に関する動機がアロー論理のことばでどのように述べられるかも検討する.すなわち,アローを向きをともなった区間とみなし,アスペクトの導出規則の仕様を定める.続く第\ref{sec:acc}章では,この仕様を完了や進行などさまざまなアスペクトに適用し,それらに関する導出規則を定義する.第\ref{sec:discus}章では,導出規則におけるアスペクトの付加についてその有用性と応用可能性を検討し,本研究の意義をまとめる. \section{言語学的背景} label{sec:akt}アスペクトのクラス(aspectualclassあるいは独語Aktionsart)とは,さまざまな事象の内部の時間構造およびその意味を示すものである.この節では,まず従来のアスペクトのクラスについてサーベイし,続いてその分類の根拠を説明するイベント構造とレファランスの概念を紹介する.\subsection{アスペクトのクラス}事象のアスペクト分類においてはしばしば用語の混乱が見られ,ある特定の用語が複数の異なる意味に対して用いられることもしばしばである.このような用語の混乱はとりも直さずアスペクトの形式化が不十分なためであり,概念を規定する定義が曖昧になっているためである.本稿ではこのような混乱を避けるために\cite{Comrie76}で用いられた用語を出発点とし,それらを論理のことばで置き替えていくことにする.アスペクトのクラスの分類に際しては,いくつかの分類基準を用意し,それらをオプションとしてどのように取るかで分類木を作るのが常道である.ここではまずこのような対立するオプションの概念をまとめる.\footnote{アスペクト名とアスペクトの分類基準となるオプションの間に呼称の混乱が起きないよう,本稿ではアスペクト名は「-相」とし,アスペクトのオプション名はもとが英語の形容詞であることに鑑み,「-的」とする.}\begin{description}\item[完結的と非完結的]完結相(perfective)\footnote{`perfective'の日本語訳には\cite{Machida89}による完結相と\cite{Kudou95}らによる完成相があるが,「完成」という語は後に述べるAccomplishmentと結び付けて`telic'の訳語に用いることとし,本稿では完結相とした.また「完了相」は従来どおり`perfect'に用いることとする.},あるいは事象が完結的であるとはいわゆる完了相(perfect)とは大きく異なり,事象の内的時間構造に言及せず全体を一まとまりとして見た見方である.これに対して完了相とは後節に述べるように過去の状況に対する現在という視点からの言及である.事象が完結的でないとき(imperfective)は,事象の内部の時間構造に言及することを意味する.\item[点的と持続的]ある事象が時間軸上,点的(punctual)に起きたという場合,それは物理的な時間の長さが瞬時であるということであり,事象全体を一まとまりにして見たという意味の完結相と区別される.同様に事象が持続的(durative)であるとは,その事象の物理的な時間がある一定の長さあるということを意味する.\item[進行的]非完結相の下位分類としてはさまざまなアスペクトのクラスがあるが,その典型は進行相(progressive)である.文法的に進行形と言った場合は,そのような動詞句の形態を指すが,そのこととは別に進行相には固有の意味があり,したがって文法的には進行形でなくても,その意味するアスペクトのクラスが進行的であることもありうる.\item[達成的]ある事象が達成的である(culminating)とは,その事象が終了する時点が陽に示されていることを意味する.例えば「円を描く」という事象は,描き始めた円が最後閉じるところで終了し,また「100m走る」という事象も100mという明確に定義された地点で終了が定義される.ところがただ一般に「走る」だけでは,この事象は達成的ではない(non-culminating).この事象の終了点を以後,達成点(culminationpoint)と呼ぶ.達成的な動作の中で,達成に至るまでの過程も含めたアスペクトを完成相(telic),途中過程には言及せず,達成点のみを言及するアスペクトを達成相(culmination)と呼ぶ.\end{description}これまで言語学および哲学の分野で多くの研究者が木構造のアスペクトの分類を提案しており,近年では,\cite{Allen84,Blackburn96,Parsons90,Binnick91}などにその分類例をみることができる.しかし,アスペクト分類において歴史的にも重要なのは\cite{Vendler67}によるActivity/State/Accomplishment/Achievementの4分類であり,近年の分類もこのVendlerが分類した概念との対応関係に言及した上での改良および精密化を行っている.Comrieの説明では完結相は内部構造に言及しないという観点でVendler分類のActivityに相当し,また達成的な事象はAccomplishmentに相当する.\cite{Parsons90}はVendler分類を再構成し,AccomplishmentとAchievementは行為の達成点を含むものとしてEvent\footnote{Eventは一般的な事象という意味での`eventuality'と異なり,アスペクトの一クラスである.本稿では一般的な事象の意味でのイベントとの混乱を避けるため,Eventというクラス名は表\ref{tab:ref}での対応にとどめ,以後用いない.}と呼び,Activityを(終了点を明示できない)Processと名付けている.アスペクトに関わる諸概念を形式的に定義し直すことは本稿の重要な目的の一つであるが,現段階で形式化する目標となる用語の曖昧性をなくすために,本稿で対象とするオプションの対立を以下にまとめる.\begin{itemize}\item静的(static)と動的(active)の対立\item完結的(perfectve)と非完結的(imperfective)の対立\item達成的(culminating)と非達成的(non-culminating)の対立\end{itemize}これらの対立は図\ref{fig:tree}のような木構造の分類を導く.図~\ref{fig:tree}では完成相(telic)と達成相(culmination)がどちらも達成に向かう動作(culminating)の下位分類として描かれているが,完成相を言うには達成点だけでなく時間を追って進行する部分,すなわち進行相も同時に言及される必要があるため,完成相は進行相も継承すべきものである.また事象の終了後となる完了相も木構造の中に含めるのは困難である.このように,アスペクトを分類するのに木構造は最良の表現方法ではない.このため次の第\ref{subsec:ont}節ではイベント構造を用いて各アスペクトを改めて定義し直すことにする.\begin{figure}[htbp]\atari(110,93)\caption{オプション対立によるアスペクトのクラスの分類}\label{fig:tree}\end{figure}\subsection{イベント構造とレファランス}\label{subsec:ont}イベントの時間的構造とは,あらゆる事象に共通に存在すると仮定される時間構造であり,アスペクトなど特定の視点を導入する以前の原始的な事象であると考えられる.逆に言えば,アスペクトとは,この共通の構造に対して,そのどの部位に着目したかという視点を与えたものであると考えられる.以下,イベント構造に関する研究について簡単にまとめを行う.\cite{Moens88}は`nucleus'という概念を導入し,すべての事象は,進行状態(developmentstate),達成点(culminationpoint),結果状態(subsequentstate)から構成されるとした.また\cite{Gunji92}は,開始点(startingpoint),終了点(finishingpoint),復帰点(recoveringpoint)の三つ組$\langles,f,r\rangle$を発案した.\cite{Kamp93}は,準備段階(preparatoryphase),達成点(culminationpoint),結果状態(resultstate)からなるスキーマ(schema)という構造を定義している.同様に\cite{Blackburn96}は,BAFs(Backandforthstructures),\cite{Terenziani93}は,TEE(TemporalExtentoftheEventuality{\itperse})/ATE(AttentionalTemporalExtent)などの構造を定義している.これらいずれの提案も,\begin{itemize}\item進行中かつ未完了の状態,\item達成点,\item達成後の状態\end{itemize}という構造が含まれるという点で,大筋において共通していると思われる.しかしながら達成後の状態については\cite{Parsons90}で議論されているとおり,達成状態のことを指す場合とただ完了の意味を指す場合とがあるため,本稿でもParsonsに従ってこの二つを分け,イベント構造の構成部品を以下のように導入する.\begin{my-def}[イベント構造]\label{def:struct}~\begin{description}\item[動作区間](Activephase):事象の開始点より達成に至る以前までの時間区間.\item[達成点](Culminationpoint):事象が達成された時点.\item[維持区間](Holdingphase):達成された状態が維持されている時間区間.事象によっては,達成後ただちに事象の前のもとの状態に復帰する場合もあるが,この達成された状態がある時間区間をともなって維持される場合もある.維持区間とはこの後者の場合の時間区間を指す.\item[結果区間](Resultantphase):達成点から後の時間全体.\end{description}\end{my-def}イベント構造は図\ref{fig:struct}のように図示することができる.ここで横軸は時間の進行を意味する.維持区間の時間的な終了点は結果区間内のどこかになるが,維持区間の間は達成の時点と同様な状態が維持されるため,図中では維持区間と達成点とを点線で結んでこのことを示した.\begin{figure}[htbp]\atari(70,29)\caption{イベント構造}\label{fig:struct}\end{figure}レファランスとは,イベント構造上のある部分に対する着目点(あるいは着目区間)である.\cite{Kamp93}では,Vendler分類(Accomplishment/Achievement/Activity)および進行相と完了相について,彼らのイベント構造である`scheme'上に異なるレファランスを定義することによって形式化した.本稿では,定義\ref{def:struct}のイベント構造に対して,同様なレファランスを定義する.本稿ではイベント構造を拡張・精密化したために\cite{Kamp93}のレファランスの定義に加えて,静止相に対応するレファランスを付加することができる.すなわち,ある静的な状態が存在するためにはそれに先立ってその状態を達成するための動作区間と達成点があったとする.逆に言えば,静止相とはこのようなイベント構造の維持区間にレファランスを与えたものと定義できる.既出の用語をイベント構造とレファランスの関係において表\ref{tab:ref}にまとめる.\begin{table}\begin{center}\begin{tabular}[b]{l|l|l}\hlineアスペクト&アスペクトのクラス&レファランスの位置\\\hline\hline完結相&Activity/Event&なし\\非完結相&&動作区間全体\\静止相&State&維持区間内\\完成相&Accomplishment&動作区間+達成点\\達成相&Achievement&達成点\\進行相&Process&動作区間内(達成点を含まない)\\完了相&&結果区間内(達成点を含まない)\\\hline\end{tabular}\end{center}\caption{アスペクトとイベント構造内のレファランス}\label{tab:ref}~\end{table}表\ref{tab:ref}は用語をまとめたとは言うものの依然自然言語による非形式的な定義である.第\ref{sec:arw}節では論理のことばを導入した上で,これらアスペクトの概念を論理で定義し直すことにする. \section{アロー論理と状況推論} label{sec:arw}本節ではアロー論理を簡単に紹介し,それをアスペクトの表現に用いる.アロー論理においてはアロー(arrow)と呼ばれるオブジェクトが存在し,それを基本に展開する.各命題の真偽は異なるアローの上で異なる値となる.\subsection{アロー論理概論}\label{subsec:al}本稿で導入するアロー論理は正確に言うと,アロー論理(ArrowLogic),動的アロー論理(DynamicArrowLogic),アローを含む動的命題論理(DynamicLogicwithArrows)という,異なるレベルの論理からなる\cite{Benthem94}.本稿ではこの論理の差異が問題となることはなく,アローというオブジェクトが導入されていることと,サイトと状態移動による動的論理の考え方が導入されていることのみが重要であるため,以下これらの論理をまとめて動的なアロー論理と呼ぶことにする.まずアローの集合を考え,アロー間に接合や逆と言った関係を導入する.以下,アローには${\vecx},{\vecy},{\vecz},\cdots$を用いる.\begin{my-def}[アローフレーム]\label{def:frame}~\\$A$をアローの集合とするとき,以下のアロー間の述語を定義する.\begin{quote}\begin{tabular}[b]{ll}${C^{3}}_{{\vecx},{\vecy}{\vecz}}$&$\vecx$は$\vecy$と$\vecz$の結合である.\\${R^{2}}_{{\vecx},{\vecy}}$&$\vecy$は$\vecx$の逆向きアローである.\\\end{tabular}\end{quote}$(A,C^{3},R^{2})$の組みをアローフレームと呼ぶ.\footnote{\cite{Benthem94}のオリジナルのアロー論理ではアローフレームはアイデンティティアロー$I^{1}_{\vecx}$を含めた$(A,C^{3},R^{2},I^{1})$の組みであるが,本稿では動的アロー論理のアイデンティティアローに代えて,アローを含む動的命題論理でのサイトとアローの同一性を導入するため,$I^{1}_{\vecx}$は用いない.}\end{my-def}さて,これより命題に関する真偽を定義\ref{def:valid}に与える.従来的なタルスキー流の論理では,命題$\phi$の真偽に関してモデル$M$を与え$M\models\phi$とする.これに比べて,アロー論理では$\models$の左辺にさらにアローを加え,真となる領域をアロー上に限定する.\begin{my-def}[真理条件]~\label{def:valid}\begin{quote}モデル$M$,アロー${\vecx}$で$\phi$が真のとき,そのときに限り,$M,{\vecx}\models\phi$.\end{quote}\end{my-def}アローは定義\ref{def:frame}に従い,接続されたり,逆向きを定義できたりする.これらに対しても同様に真理条件を定義\ref{def:tcond}にて与える.\begin{my-def}[オペレーション]\label{def:tcond}~\begin{quote}\begin{tabular}[b]{llp{8cm}}$M,{\vecx}\models\phi\bullet\psi$&iff&アロー$\vecy$と$\vecz$が存在して$M,{\vecy}\models\phi$かつ$M,{\vecz}\models\psi$であり,かつ${C^{3}}_{{\vecx},{\vecy}{\vecz}}$.\\$M,{\vecx}\models\phi^{\vee}$&iff&アロー$\vecy$に対して$M,{\vecy}\models\phi$であり,かつ${R^{2}}_{{\vecx},{\vecy}}$.\\\end{tabular}\end{quote}\end{my-def}ここでさらに一つ,無限オペレータを定義する.\begin{my-def}[無限オペレータ]~\label{def:infini}\begin{quote}$M$においてアロー$\vecx$が$\phi$を満たすアローの無限列に分解できるとき,$\phi^{\ast}=\phi\bullet\phi\bullet\cdots$として,$M,{\vecx}\models\phi^{\ast}$.\end{quote}\end{my-def}いわゆる動的論理(Dynamiclogic)は,サイト(site)に関する論理とサイト間の移動のアローに関する論理の二層からなる.この考え方は,以下のような状態遷移のモデルに基づく.\[\begin{array}{rcl}\langle\mbox{サイト}_1\rangle&\langle\mbox{状態遷移}\rangle&\langle\mbox{サイト}_2\rangle\\\phi_1&\stackrel{\displaystyle\pi}{\longrightarrow}&\phi_2\end{array}\]動的論理の重要性は,あるサイト(点あるいは位置)での命題の真偽が,アロー(状態遷移)上での命題の真偽に相互置換できるということである.すなわち,サイト上の論理とアロー上の論理の二層構造において,あるアローにあるサイトを対応づけ,そのアロー上で真偽が定まる命題に対し,それと真偽をともにするサイト上の命題を対応づけることができる.\[\begin{array}{ccc}\mbox{アロー}&\maplr{\mbox{対応}}&\mbox{サイト}\\\mapdown{\mbox{真偽}}&&\mapdown{\mbox{真偽}}\\\mbox{命題}&\maplr{\mbox{対応}}&\mbox{命題}'\end{array}\]このアローとサイトの対応づけについては,次の三種類:$\calL$,$\calR$および$\Delta$を導入する.本稿では,${\dotu},{\dotv},{\dotw},\cdots$をサイトの記号として用いる.\begin{my-def}[アローとサイトの対応]\label{def:mod}~\begin{quote}\begin{tabular}{ll}${\calL}_{{\dotu},{\vecx}}$&-アロー${\vecx}$の左端点に相当するサイトは$\dotu$である.\\${\calR}_{{\dotu},{\vecx}}$&-アロー${\vecx}$の右端点に相当するサイトは$\dotu$である.\\$\Delta_{{\dotu},{\vecx}}$&-アロー$\vecx$全体をひとつのサイトとみなしてそれを$\dotu$とする.\end{tabular}\end{quote}\end{my-def}上記定義において$\Delta_{{\dotu},{\vecx}}$は,あるアローとサイトの二層の論理が存在するとき,そのアローとサイトの役割を逆にしたような双対(dual)な論理が存在することを示唆する.以上のアローとサイトとその間の対応の関係を考えると,遷移のアローを時間的経過(区間),サイトを時間的に点的なイベントの発生とみる理論を作ることが考えられる.また,あるアロー$\vecx$とあるサイト$\dotu$が定義\ref{def:mod}のある対応関係にあるとき,\[M,{\vecx}\models\phi~\mbox{\itiff}~M,{\dotu}\models\phi'\]であるような命題$\phi$と$\phi'$が存在する.第\ref{sec:acc}節ではこのような対応関係にある命題に対してアスペクトの定義を行うこととする.\subsection{時間領域としてのアロー}\label{subsec:ato}ここでアローとサイトを時間軸上の概念に対応させる.時間の区間論理\cite{Dowty79}では左端が開いた区間とは開始点が陽に明示されない区間,右端が開いた区間とは終了点が陽に明示されない区間を意味する.本稿でも区間論理の概念を踏襲して,アローとは端点が明示されない方向つきの時間域を指すこととする.アローの左端点,あるいはその右端点がそれぞれ定義~\ref{def:mod}の${\calL},{\calR}$によって対応づけられ明示できるとき,その端点でアローに相当する区間は閉じていると考えることができる.例えばあるアローが達成的であるような事象に相当する時区間であれば,この事象は明確な達成点を持つため,その区間の右端は閉じていると考えられる.\begin{my-spec}[時間領域]\label{spec:dir}~\begin{itemize}\itemアローを両端が開いた時間区間とする.アローの向きは状態変移の向きである.\itemサイトを時点とする.\end{itemize}時間区間および時点を総称して時間領域と呼ぶ.\end{my-spec}時間領域は第\ref{subsec:ont}節で言うところのレファランスに代わって事象への見方を与えるものである.直観的にアローは時区間でありサイトは時点であることは述べたとおりであるが,この時点は必ずしも物理的瞬間を意味する点ではなく,心理的に事象の起こっている間を一まとめにした点的な見方である.このことは改めて第\ref{sec:event}節で説明する.\subsection{状況に依存した推論}\label{sec:situated}これより,アスペクトのオペレータとそれによるアスペクトのシフトを状況理論\cite{Barwise89,Devlin91}および情報の理論\cite{Barwise97}に基づいて構成する.ここで状況とは一つの事態,すなわち一つの述語構造によってタイプ付けされる一つの事象(eventuality)を指し,そこで起きている周囲状況や環境ではない.状況理論を用いる理由は,状況とはある一つの事象に基づいて構成されるものでありその事象のタイプによって特徴づけられるとする考え方を基にしたいためである.このことは翻って,同一の状況でも(同一の事象でも)時間的な見方が異なればそれに応じたアスペクトを伴うタイプを持つべきであると考えられる.本稿では状況に対しては同一のインデックス$s$を保ちながら,異なる時間的見方に対しては異なるタイプで特徴づけられるような形式化を目標とする.\begin{my-spec}[タイプ]~\begin{quote}タイプ(type)とは自然言語文の意味内容(semanticcontents)に相当する.本稿ではギリシャ文字:$\phi$,$\psi$,$\cdots$によってタイプを示す.タイプの内部構造は$\ll~~\gg$によって示し,その最初の構成要素は関係(relation)と呼び述語概念に相当する.\end{quote}\end{my-spec}例えば,$\llrun,~for\mbox{-}one\mbox{-}hour\gg$や$\llis\mbox{-}drawing,a\mbox{-}circle\gg$はタイプであり,関係はそれぞれ$run$および$is\mbox{-}drawing$である.各事象は何らかのタイプを持ち,それ自体でひとつの状況を形成し,固有の時間領域を先験的に持っていると考えられる.よって状況と時間領域を次のように定める.\begin{my-spec}[状況と時間領域]~\label{spec:type}\begin{quote}ある時間領域$t$において状況$s$がタイプ$\phi$のとき,そのときに限り,$s,t\colon\phi$と記述する.\end{quote}\end{my-spec}例えば,$s,{\vecx}\colon\llplay,~the\mbox{-}piano\gg$という表現は,状況$s$において時間領域$\vecx$で誰かがピアノを弾いていることを示す.ある時間領域$t$上である事象が表現されており,$t$とある特定の関係にある別の時間領域$t'$があってその上でその事象が異なったふうに表現できるとき,このような表現の変化を{\bfアスペクトシフト}と呼ぶ.またこのような変化を引き起こす形式的な関数を{\bfアスペクトオペレータ},以降単にオペレータと呼ぶ.以下では進行相(progressive)に相当する$Pr$というオペレータによる語形変化の例を示す.\[\llrun\gg~~\stackrel{Pr}{\longrightarrow}~~\llis\mbox{-}running\gg\]\[(\mbox{あるいは}~~Pr(\llrun\gg)=\llis\mbox{-}running\gg).\]このシフトの例は,タイプを用いて以下:\[s,t\colon\phi~\Rightarrow~s,t'\colonPr\phi.\]のように書くことができる.上式では同一の状況$s$に対する時間的見方のシフトが形式的な規則で述べられているが,$t$と$t'$の間の関係が制約条件として付帯することになる.このような形式の推論は{\bf状況推論}と呼ばれ,その規則を次のように一般化することができる.\[s_0\colon\phi_0~\Leftarrow~s_1\colon\phi_1,~s_2\colon\phi_2,\cdots~\|~B_{g}.\]推論規則はそのまま論理型プログラミング言語で実装することができるように,ボディ部を右に,ヘッド部を左に置いて`$\Leftarrow$'の向きで論理的含意を表示した.ここで`$\|$'の後の$B_g$は制約条件を意味し,最初にこの推論規則が適用可能であるかどうかを判別する条件として独立に評価される.この規則の真理条件は以下:\[(s_1\colon\phi_1~\&~s_2\colon\phi_2~\&~\cdots~\rightarrow~s_0\colon\phi_0)~\&~B_g,\]すなわち\[(s_0\colon\phi_0~\vee~\neg(s_1\colon\phi_1)~\vee~\neg(s_2\colon\phi_2)~\vee~\cdots)~\&~B_g\]のようになる.\footnote{真理条件において$B_g$を`$\rightarrow$'の前件に含めてしまうと,$B_g$が偽であっても含意の式全体が真になる場合があり,これは制約条件であるという要件に適切ではない.}状況推論の規則は制約条件を除いては論理プログラミングの節(clause)と考えられ,中で現れる変数は全称的に束縛されるものとする.一般に推論規則は複数個を連鎖させることができる.例えば,以下のような規則:\[s_0\colon\phi_0\Leftarrows_1\colon\phi_1~\|~B_0,\]\[s_1\colon\phi_1\Leftarrows_2\colon\phi_2~\|~B_1.\]の連鎖は,そのまま論理型プログラミングの実行過程として,以下のような演繹スキーマ(deductionschema)で表示できる.ここで制約条件は読みやすさのために上段に記載する.$$\infer[]{s_0\colon\phi_0}{\infer[]{s_1\colon\phi_1}{s_2\colon\phi_2&B_1}&B_0}$$ \section{アスペクトの形式化} label{sec:acc}本節では,アスペクトのオペレータとアスペクトシフトについて,事象と時間を結び付けることによって表現する.\subsection{オペレータとアスペクトシフト}表\ref{tab:ref}に従い,以下に本稿で定式化するアスペクトを示す.本稿では\cite{Blackburn96}と同様,事象を時間領域から切り離す.したがって,特定の時間とは結びついていない事象の原型を考え,これを{\bfイベントのオントロジー}と呼ぶ.\begin{my-def}[オペレータ]\label{def:ope}$e$をイベントのオントロジーとする.\begin{quote}\begin{tabular}[b]{rll}オペレータ&&アスペクト\\\hline$Ac(e)$&(\underline{Ac}tivity)&完結相\\$Ip(e)$&(\underline{I}m\underline{p}erfective)&非完結相\\$Cl(e)$&(\underline{C}u\underline{l}mination)&達成相\\$St(e)$&(\underline{St}ative)&静止相\\$Pr(e)$&(\underline{Pr}ogressive)&進行相\\$Tl(e)$&(\underline{T}e\underline{l}ic)&完成相\\$P\!f(e)$&(\underline{P}er\underline{f}ect)&完了相\\\hline\end{tabular}\end{quote}\end{my-def}アロー論理によるアスペクト解析の枠組は次の三つ組:$\langle{\calT},{\calE},{\calA}\rangle$で表わされる.ここで$\calT$は時間領域の集合,$\calE$はイベントのオントロジーの集合,$\calA$はオペレータの集合を指す.\begin{eqnarray*}{\calT}&=&\{{\vecx},{\vecy},{\vecz},\cdots,{\dotu},{\dotv},{\dotw},\cdots\}\\{\calE}&=&\{e_1,e_2,e_3,\cdots\}\\{\calA}&=&\{Pr,P\!f,Ac,Ip,St,Tl,Cl\}\end{eqnarray*}イベントのオントロジーはそれ自体時間を持たず,したがって個々の事象の不定形(infinitive)であると考えられる.一方,\[Pr(e_3),~P\!f(e_1),~Tl(e_2),\cdots\]などの表現は時間的に固定されており,$\calT$の中の時間領域と結びつけられていて,仕様\ref{spec:type}のタイプとなり,`$\colon$'の右辺に来ることができる.オペレータは原始的なイベントのオントロジーのみに適用可能なわけではなく,一般には既にアスペクトをともなったタイプにも再帰的に適用可能である.しかしながら,アスペクトの付加はもともとのタイプとの整合性の問題を生じる.例えばもともと進行形のアスペクトをともなっている$Pr(\phi)$に対して再度$Pr$を適用して$Pr(Pr(\phi))$なるタイプを作ることは英語のシンタックスでは不可能である.しかし意味的にはそのようなアスペクトの繰り返し適用が可能な場合もあるため,タイプが既にどのようなアスペクトを伴っているかを分類した上でさらなる適用可能性を議論する必要がある.しかしこれは各言語のシンタックスとの関係を踏まえる必要があり,本稿の研究目的の範囲を越えるため,ここでこれ以上の議論は行わない.\subsection{完結相と非完結相}\label{sec:event}ある状況$s$において時間$\vecx$で事象$\phi$が起こっているとき,すなわち$s,{\vecx}\colon\phi$であるとき,この事象$\phi$は両端の開いた時間$\vecx$の上で非完結相(imperfective)として見られていることになる.逆に,同じ状況において`$\colon$'の左側に点を持つとき,すなわち$s,{\dotu}\colon\psi$であるとき,事象は点に圧縮されて見られており,$\psi$は完結相(perfective)となっている.このように時間は事象に心的な見方を与えるが,これは物理時間とは違うことに注意する必要がある.\footnote{もし`$\colon$'の左側が物理時間であるなら,点とアローの区別は第~\ref{sec:akt}節で言うところの持続的(durative)と点的(punctual)の区別となる.}英語の構文においては,この完結相と非完結相を区別する屈折や派生はない.しかしもし統語的に特定の語形変化がない場合は,特にレファランスを明示しなかったということで,表\ref{tab:ref}にしたがって完結相であるとみなすことにする.規則\ref{rule:event}は事象の非完結的な見方を完結的な見方にシフトするものである.また規則\ref{rule:impf}は完結相を非完結相にシフトするものである.\begin{my-rule}[完結相]\label{rule:event}~\[s,{\dotu}\colonAc(e)\Leftarrows,{\vecx}\colonIp(e)~\|~{\Delta}_{{\dotu},{\vecx}}.\]\end{my-rule}\begin{my-rule}[非完結相]\label{rule:impf}~\[s,{\vecx}\colonIp(e)\Leftarrows,{\dotu}\colonAc(e)~\|~{\Delta}_{{\dotu},{\vecx}}.\]\end{my-rule}規則\ref{rule:event}では,時間$\vecx$で$Ip(e)$という表現が成り立つとき,$\Delta_{{\dotu},{\vecx}}$であるような$\dotu$が存在すれば,同じ状況$s$でも$Ac(e)$が$e$の完結的な見方であることを示している.逆に規則~\ref{rule:impf}では$Ac(e)$という表現が与えられたときに,その非完結相な見方$Ip(e)$が導かれることを示している.ここで,規則\ref{rule:impf}の$\vecx$は定義\ref{def:struct}の動作区間に対応していると考えられる.表\ref{tab:ref}では\cite{Kamp93}に従い完結相はレファランスなし,非完結相ではレファランスは動作区間全体とした.しかしここでの形式化は両者を結び付けて,ともにレファランスは動作区間全体としながらも,それを圧縮したり広げたりする見方をアローを用いて表現したものである.仕様\ref{spec:dir}によればアローは開いた区間に相当する.表\ref{tab:ref}によれば進行相も動作区間内の開いた区間であるから,非完結相と進行相の関係を議論する必要があり,これは改めて第\ref{subsec:pr}節で行う.達成点は動作区間が終了する点,すなわち$s,{\vecx}\colonIp(e)$であるような$\vecx$の終点であると考えることができる.\footnote{アローの終点を終止相・終動相(terminative/egressiveaspect)として「〜し終わる」というアスペクトを表現しているとも考えられるが,本稿では\cite{Kusanagi83}に従いこれは「終わる」の完結相とみなし,本来の動詞とは独立の概念であるという立場をとる.同様にアローの始点も開始相・始動相(inchoative/ingressiveaspect)とは区別して考える.}\begin{my-rule}[達成相]\label{rule:culm}~\[s,{\dotu}\colonCl(e)~\Leftarrow~s,{\vecx}\colonIp(e)~\|~{\calR}_{{\dotu},{\vecx}}.\]\end{my-rule}規則\ref{rule:culm}では,もし${\calR}_{{\dotu},{\vecx}}$であるような$\dotu$が存在すれば,$Cl(e)$は$e$の達成相を示している.静止相(stativeaspect)は表\ref{tab:ref}により,イベント構造の維持区間にレファランスを与えたものである.したがって静止相は達成点を引き延ばしてみた見方に相当する.規則\ref{rule:state}は達成点を維持区間に引き延ばす推論を行う.\begin{my-rule}[静止相]\label{rule:state}~\[s,{\vecy}\colonSt(e)~\Leftarrow~s,{\dotu}\colonCl(e)~\|~\Delta_{{\dotu},{\vecy}}.\]\end{my-rule}規則\ref{rule:state}では,時点$\dotu$上の$Cl(e)$に対してもし$\Delta_{{\dotu},{\vecy}}$であるようなアロー$\vecy$が存在すれば,そのアロー上で$St(e)$はイベント構造の維持区間を言及することを述べている.以下に示すのは規則\ref{rule:impf},規則\ref{rule:culm},および規則\ref{rule:state}を連鎖させて,事象(完結相)から維持区間を導き出したものである.$$\infer[\mbox{\scriptsize(Rule\ref{rule:state})}]{s,{\vecy}\colonSt(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:culm})}]{s,{\dotu}\colonCl(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:impf})}]{s,{\vecx}\colonIp(e)}{s,{\dotv}\colonAc(e)&{\Delta_{{\dotv},{\vecx}}}}&{\calR}_{{\dotu},{\vecx}}}&{\Delta_{{\dotu},{\vecy}}}}\label{deduc:st}$$以下,この推論過程を説明する.もし$\vecx$が$\dotv$と同一視されるとき,規則~\ref{rule:impf}を適用することよって最上段の推論ができる.このとき,もし$\vecx$の終点が存在するならば,それを$\dotu$とするとそれはこの事象の達成点を表現している.最後のステップでは,$\dotu$に相当するアロー$\vecy$を導入することにより,事象$e$は静止相で表現される.この静止相については,その一様性(homogeneity)についても言及する必要がある.維持区間においては「事態は変化しない」というのが前提である.すなわち,一つの事態,すなわち一つの述語で記述されるような事態において,その中で状態が変化して再びもとに戻るということは考えにくいため,このように両端の事態の同一性をもって内部の一様性を定義することとした.以下の規則はこのことを記述する.\begin{my-rule}[一様性]\label{rule:stab}~\[s,{\vecy}\colonSt(e)~\Leftarrow~s,{\vecx}\colonSt(e)~\|~{R^{2}}_{{\vecx},{\vecy}}.\]\end{my-rule}規則\ref{rule:stab}によれば,もし$\vecx$上で$St(e)$であるならば,同じ$St(e)$に対して$\vecx$の逆向きアローが存在し,$\vecx$の両側で状態が変化しないことを主張できる.すなわち,定義\ref{def:tcond}に従えば,同アロー上で$St(e)~=~St(e)^{\vee}$である.図\ref{fig:eventstate}において,事象とその達成点の関係を示す.ここでは$St(e)$は同一アロー上で示され.同一の状態間での推移が示されている.\begin{figure}[htbp]\atari(40,35)\caption{完結相と静止相}\label{fig:eventstate}\end{figure}\subsection{部分行為の連鎖としての進行相}\label{subsec:pr}本説では,一つの事象を多数の下位事象に分割することを考える.動的アロー論理の無限オペレータ$\phi^{\ast}$(定義\ref{def:infini})がこの目的に合致する.最初,定義\ref{def:frame}における$C^{3}$を次のように一般化する.\begin{my-def}[一般化アロー分割]~\begin{quote}${C^{n}}_{{\vecx},{\vecx_1}{\vecx_2}\cdots{\vecx_{n-1}}}$,ここで$\vecx$は連続した短いアロー:${\vecx_1},{\vecx_2},\cdots,{\vecx_{n-1}}$の合成である.未知数のアローの合成については${C^{\ast}}$という記法を用いる.\end{quote}\end{my-def}この定義に従って,アロー合成の真理条件は次のように書き換えることができる.\begin{quote}${C^{\ast}}_{{\vecx},{\vecx_1}{\vecx_2}\cdots}$であるような${\vecx_1},{\vecx_2},\cdots$が存在して$s,{\vecx_1}\colon\phi,~s,{\vecx_2}\colon\phi,~\cdots$であるとき,$s,{\vecx}\colon\phi^{\ast}$.\end{quote}ここで$\phi^{\ast}=\phi\bullet\phi\bullet\cdots$である.この$C^{\ast}$に関して,以下の定義を追加しておく.定義の中で$C^{\ast}$の中に現れる`$\cdots$'は任意のアロー列を意味する.\begin{my-def}[部分アローと前後関係]~\begin{quote}\begin{tabular}{llll}${S^{2}}_{{\vecx},{\vecy}}$&iff&${C^{\ast}}_{{\vecx},\cdots{\vecy}\cdots}$&($\vecy$isasubarrowof$\vecx$),\\${P^{2}}_{{\vecx},{\vecy}}$&iff&${C^{\ast}}_{\cdots,\cdots{\vecx}\cdots{\vecy}\cdots}$&($\vecx$precedes$\vecy$).\end{tabular}\end{quote}\end{my-def}ここで本節の目的である進行相の形式化を行う.区間論理に基づく進行相の定義は以下のように言い表すことができる\cite{Partee84,Dowty79}.\begin{quote}`be$\phi$-ing'in$l$は,$\phi$が$l\sqsubsetl'$であるような$l'$で真のとき,そのときに限り真である.\end{quote}ここで`$\sqsubset$'は部分区間の関係を意味する.この定義を直接アロー論理に言い換えると以下のようになる.\[(\ast)~\quad~s,{\vecy}\colonPr(e)~\Leftrightarrow~s,{\vecx}\colonIp(e)~\|~{S^{2}}_{{\vecx},{\vecy}}.\]ここで$\vecy$は$\vecx$の部分アローである.しかしこの進行相の定義はすぐに有名な「非完結相のパラドックス(imperfectiveparadox)」\cite{Partee84,Dowty79,Blackburn96,Glasbey96}(他多数)を引き起こす.問題は$(\ast)$の両向き矢印($\Leftrightarrow$)のうちの右向き($\Rightarrow$)の推論:\begin{quote}もし`be$\phi$-ing'が$l~(\sqsubsetl')$で真であれば,$\phi$も$l'$で真である.\end{quote}の妥当性である.例えば``Johnwasrunninginthefield.''と言った場合,何メートルであろうと部分的には走ったという事実は変わらないので``Johnraninthefield.''が主張できる.ところが,``Johnwasrunningahundredmeters,''と言った場合,このランナーは途中で走るのをやめた可能性もあり,必ずしも``Johnranahundredmeters.''と言うことはできない.この例文では`ahundredmeters'という定量的な表現が含まれているためにその達成点は明示でき,達成的である.同様に,``Johnwasbuildingthehouse''から``Johnbuiltthehouse''を主張することはできない.建築工事は何かの理由で途中で中止され家は完成しなかった可能性があるからである.このように一般に$(\ast)$の右向きの推論は,達成的であるような事象にはあてはまらないことが認められている.以上の議論より進行相の推論規則は$(\ast)$の代わりにその左向き推論の部分のみで定義する.\begin{my-rule}[進行相]\label{rule:prog}~\[s,{\vecy}\colonPr(e)~\Leftarrow~s,{\vecx}\colonIp(e)~\|~{S^{2}}_{{\vecx},{\vecy}}.\]\end{my-rule}この規則\ref{rule:prog}において$Pr(e)$は$Ip(e)$の部分アロー上で成り立つ.表\ref{tab:ref}でのイベント構造に対するレファランスでは,非完結相($Pr(e)$)も進行相($Ip(e)$)もともに動作区間を開いた区間とした見方であるが,ここでの形式化は進行相を非完結相のさらに中の部分であるとしたものである.達成的でない行為,例えば``Johnwasrunninginthefield''は,全体の行為$\phi^{\ast}$の表現もその部分の行為$\phi$の表現も同様に$\llrunning,~in\mbox{-}the\mbox{-}field\gg$となる.すなわち$\phi^{\ast}=\phi$であることが達成的でないことを特徴づけると言うことができる.以上の議論を踏まえて,完成相(telic)についての性質をまとめる.達成的性質はどの事象も共通に内在しているわけではなく,特定の事象のクラスの性質を指しており,他のアスペクトとは異なった扱いが必要である.事象が達成的であるためには,表\ref{tab:ref}にあるように達成の前にその達成プロセスがなければならない.従って完成相$Tl(e)$は達成相(culmination)の特別な場合として,$Cl$と$Pr$を組み合わせて定式化する.\begin{my-rule}[完成相]~\label{rule:tel}\[s,{\vecz}\colonTl(e)~\Leftarrow~s,{\vecy}\colonPr(e),~s,{\dotu}\colonCl(e)~\|~{\calR}_{{\dotu},{\vecz}}~\&~{S^{2}}_{{\vecz},{\vecy}}.\]\end{my-rule}以下に$Tl(e)$の演繹推論の例を示す.$$\infer[\mbox{\scriptsize(Rule\ref{rule:tel})}]{s,{\vecz}\colonTl(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:prog})}]{s,{\vecy}\colonPr(e)}{s,{\vecx}\colonIp(e)&{{S^{2}}_{{\vecx},{\vecy}}}}&\infer[\mbox{\scriptsize(Rule\ref{rule:culm})}]{s,{\dotu}\colonCl(e)}{s,{\vecz}\colonIp(e)&{{\calR}_{{\dotu},{\vecz}}}}&{{\calR}_{{\dotu},{\vecz}}~\&~{S^{2}}_{{\vecz},{\vecy}}}}$$定義\ref{tab:ref}にあるように$Pr(e)$のアスペクトとしての意味は動作区間にレファランスを与えるものであり,それだけでは達成的でないが,英語の進行相の文法的な形態`be$\phi$-ing'は達成的かどうかに関わらず使われる.したがってわれわれは$Tl(e)$を$Pr(e)$からさらにアスペクトシフトしたものとして定義した.ここで非完結相のアロー$\vecx$と完成相のアロー$\vecz$が同じ時区間を指すと考えることも可能である.しかしここでのアローの意味は物理的な時間ではなく,心理的な見方の時間なので定式化においては区別をしておく.図\ref{fig:dagger}に部分行為の蓄積に従って状況が変化していくようすを示す.ここで$\vecy_n$は,\[{C^{n+1}}_{{\vecy_n},{\vecx_1}{\vecx_2}\cdots{\vecx_n}}\]であるような,すなわち,${\vecx_1}$から$\vecx_n$までを合成したアローであるとする.図\ref{fig:dagger}においては,達成的である事象$\llran~100m\gg$が短い距離を積み重ねて100メートルになっていくのに対して,$\llran,~in\mbox{-}the\mbox{-}field\gg$という事象は一貫して変わらないようすを示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{rcccccccl}&${\vecx_1}$&${\vecx_2}$&${\vecx_3}$&${\vecx_4}$&${\vecx_5}$&${\vecx_6}$&${\vecx_7}$\\&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill\\{$\vecy_1$}&\multicolumn{1}{l}{\rightarrowfill}&&&&&&&{$\llran,~9m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_2$}&\multicolumn{2}{l}{\rightarrowfill}&&&&&&{$\llran,~18m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_3$}&\multicolumn{3}{l}{\rightarrowfill}&&&&&{\hspace*{20mm}:}\\{$\vecy_4$}&\multicolumn{4}{l}{\rightarrowfill}&&&&{$\llran,~36m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_5$}&\multicolumn{5}{l}{\rightarrowfill}&&&{\hspace*{20mm}:}\\{$\vecy_6$}&\multicolumn{6}{l}{\rightarrowfill}&&{$\llran,~54m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_7$}&\multicolumn{7}{l}{\rightarrowfill}&{\hspace*{20mm}:}\\\end{tabular}\end{center}\caption{完成相と非完成相}\label{fig:dagger}\end{figure}完成相についてはその部分的な達成に関する規則を考えることができる.\begin{my-rule}[部分的達成相]~\label{rule:partial}\[s,{\vecy_n}\colonTl^{(-)}(e)~\Leftarrow~s,{\vecx}\colonTl(e)~\|~{C^{\ast}}_{{\vecx},{\vecx_1}{\vecx_2}\cdots}~\&~{C^{n+1}}_{{\vecy_n},{\vecx_1}\cdots{\vecx_n}}.\]\end{my-rule}規則\ref{rule:partial}においては$\vecy_n$は図\ref{fig:dagger}に現れるような最初から途中までのアローである.全体の行為$Tl(e)$を乗せるアロー$\vecx$が${\vecx_1},{\vecx_2},\cdots$という部分アローに分割でき,そのうちの$\vecx_1$から$\vecx_n$までが$\vecy_n$として合成できるとき,達成的である事象は$\vecy$の上で部分的に達成されるとする.このオペレータの表記は$Tl$の右肩に`{\scriptsize$(-)$}'を付記して表示する.本節の最後に,繰り返し相(iterative)について議論する.``Theeveningstaristwinkling.''は単位となる行為`twinkle'の繰り返しから構成されるため,この状況は短いアローの連鎖:\[\cdots\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\cdots\]とみなすことができ,行為全体の達成点は明示されない.このように,繰り返し相の内部構造は達成的でない行為によく似たものであると考えることができる.ところが達成的でない:$\llrunnig,~in\mbox{-}the\mbox{-}field\gg$ではその単位となる行為を定義できない.したがって繰り返し相とは達成的でない事象の特別な場合であり,単位となる行為のイメージが特定されるものと考えることができる.\subsection{完了相とテンス}\label{sec:pft}完了相は定義\ref{tab:ref}にあるように,達成点から後の結果区間にレファランスを与えるものである\cite{Kamp93}.\cite{Reichenbach47,Allen95}の定式化にあるように,テンス(tense;時制)とはイベント時と発話時の,アスペクトとはイベント時とレファランス時との相対的位置関係である.定義~\ref{tab:ref}ではイベント時の後に結果区間が来ることにより,Reichenbachの要請を自然に満たしている.\begin{my-rule}[完了相]\label{rule:pf}~\[s,{\vecx}\colonP\!f(e)~\Leftarrow~s,{\dotu}\colonCl(e)~\|~{\calL}_{{\dotu},{\vecx}}.\]\end{my-rule}事象$e$の達成点$\dotu$に対して,そこから始まるアロー$\vecx$が存在するとき,$e$は$\vecx$上で完了相であると見ることができる.完了相の導出は規則\ref{rule:impf},規則\ref{rule:culm},および規則\ref{rule:pf}を連鎖させて以下のように表現できる.$$\infer[\mbox{\scriptsize(Rule\ref{rule:pf})}]{s,{\vecx}\colonP\!f(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:culm})}]{s,{\dotu}\colonCl(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:impf})}]{s,{\vecy}\colonIp(e)}{s,{\dotv}\colonAc(e)&{\Delta_{{\dotv},{\vecy}}}}&{{\calR}_{{\dotu},{\vecy}}}}&{{\calL}_{{\dotu},{\vecx}}}}\label{deduc:perf}$$最初$Ac(e)$が$\dotv$上にあるとき,その非完結相$Ip(e)$を$\vecy$上で考える.さらに,その達成点を$\dotu$として,そこから始まるアロー$\vecx$を考え$P\!f(e)$を表現していると考える.図\ref{fig:new}にアロー論理に基づくアスペクトの構成を図示する.図~\ref{fig:new}と図\ref{fig:struct}を比較すると,もともとのイベント構造:動作区間,維持区間,結果区間,達成点が,それぞれ非完結相($IP(e)$),静止相($St(e)$),完了相($P\!f(e)$),達成相($Cl(e)$)として忠実に対応づけられていることがわかる.\begin{figure}[htbp]\atari(65,25)\caption{アロー論理に基づくイベント構造}\label{fig:new}\end{figure}この節の最後に,テンスに関する形式化をまとめる.$\phi$を事象,$\vecx$をその非完結相のアローとし,さらに「今」に相当するアロー$\vecn$を導入する.ここで$\vecn$は話者にとっての「今」に相当する心的な時間であり,その長さは問題にされない.以下,三つのテンス・オペレータを導入する.\begin{quote}\begin{tabular}[b]{cl}TenseOperator&Tense\\\hline$P\phi$&Past\\$N\phi$&Present\\$F\phi$&Future\\\end{tabular}\end{quote}テンスの構成は,次のように行われる.\begin{my-def}[テンス]\label{def:tense}~\begin{quote}ある事象$\phi$に対して$s,{\vecx}\colon\phi$であるとき,$\phi$は次のようなテンスを伴う.\[\begin{array}{l}s,{\vecx}\colon\phi~\Leftarrow~s,{\vecn}\colonP\phi~\|~{P^{2}}_{{\vecx},{\vecn}}\\s,{\vecx}\colon\phi~\Leftarrow~s,{\vecn}\colonN\phi~\|~{S^{2}}_{{\vecx},{\vecn}}\\s,{\vecx}\colon\phi~\Leftarrow~s,{\vecn}\colonF\phi~\|~{P^{2}}_{{\vecn},{\vecx}}\end{array}\]ここで$\vecn$は`now'に相当する特別なアローである.\end{quote}\end{my-def}定義\ref{def:tense}では,過去時制は事象のアロー$\vecx$が$\vecn$に先行し,逆に未来時制では$\vecn$が$\vecx$に先行している.また現在時制では事象のアローが$\vecn$を包含している.これらは従来時間軸上に並べられた点としてのイベント時と発話時との関係をアローに置き換え,前後関係をアロー間の順序関係・包含関係として表現したものであり,アスペクトをともなった事象と同様な形にテンスが表現されることを示している. \section{おわりに} label{sec:discus}本稿では,アロー論理に基づいてアスペクトの時間構造の形式化を行った.われわれはまず,アスペクトのクラスの分類についての研究成果をサーベイし,イベント構造とレファランスの理論について概要をまとめた.次にアロー論理を導入し,レファランスの代わりに`$\colon$'の左側のアローを記述し,イベント構造の代わりにイベントのオントロジーを導入してそれにオペレータが作用する形でアスペクトの理論を再構築した.この結果,アスペクトの条件を記述する際煩わしい条件の列挙,すなわち順序関係や点と区間の関係などをアロー論理の側で吸収することができ,簡潔な記述を可能にした.本研究での形式化のもう一つの特徴は,時間に対する見方をアスペクトシフトという規則によって行ったことである.これはまだ特定のアスペクトを与えられていない原始的な事象のオントロジーからアスペクトを伴った表現を,与えられた制約条件のもとで推論規則によって導き出すものである.したがって,ここではアスペクトシフトのようすが静的に表現されただけではなく,それが何か別の形態から動的な操作を受けたプロセスとして表現されている.この動的な推論過程は情報の流れとしても捉えることができる.すなわち,ある命題に対するアスペクトのシフトは新しいアローを創出し,他の命題に対する見方にも同時に影響を与えることになる.これまで多くの言語学者は,パースペクティヴ(perspective)の変化\cite{Kamp93,Meulen95}に基づき,文の列からなる一般の文書の時間構造の問題に取り組んできた.文の列に沿う情報の流れを考えるとき,最大の難問は文に対するパースペクティヴがどのように与えられるかということである.一般的にはアスペクトの意味は,一つはその文法形態から,もう一つは他の文との相対的時間関係から説明されると考えられる.文法形態に関しては,われわれは構文を解析することにより,その形態を決定することができるが,他の文との時間関係は問題であり,表面的な情報からだけでは容易に解決することができない.この典型的な問題は`when'による従属節をもつ副文である\cite{Moens88,Terenziani93}.複数の文での時間関係の解析は依然困難な問題であるが,本稿の方法は,一つの文におけるアスペクトの意味を制約として捉えたことにより,隣接する文の持つ制約との関係を考えることで,その時間的意味をさらに限定できる可能性を示唆している.さらに,アロー論理による解析はより広汎な自然言語の応用分野に適用できる可能性があると思われる.本研究の根底には,より詳細な時間情報をハンドリングできるコミュニケーション手段の拡充が意図としてある.具体的には,人工知能システムなどでロボットなどのエージェントにコマンド列を与えるときなど,各コマンドの時間特性が他のコマンドと時間的にどう絡むかを解析する必要があり,このときもし時間特性をアスペクトの制約条件としてプログラムしておくことができれば,時間関係の曖昧さの一部をこの制約条件によって解くことができる.このように本研究は,形式言語学において自然言語のアスペクトの意味を共通に記述する形式化を行うと同時に,工学的応用のためにもアスペクト情報まで組み込んだ時間情報処理システムのプラットフォームを提示するものである.\bibliographystyle{jnlpbbl}\bibliography{reference}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{東条敏}{1981年東京大学工学部計数工学科卒業,1983年東京大学大学院工学系研究科修了.同年三菱総合研究所入社.1986-1988年,米国カーネギー・メロン大学機械翻訳センター客員研究員.1995年北陸先端科学技術大学院大学情報科学研究科助教授,2000年同教授.1997-1998年ドイツ・シュトゥットガルト大学客員研究員.博士(工学).自然言語の形式意味論,オーダーソート論理,マルチエージェントの研究に従事,その他人工知能一般に興味を持つ.情報処理学会,人工知能学会,ソフトウェア科学会,言語処理学会,認知科学会,ACL,Folli各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}\noindent{\bf参考文献}\begin{description}\item[~]J.~F.Allen(1984).Towardsageneraltheoryofactionandtime.{\emArtificialIntelligence},23:123--154.\item[~]J.~F.Allen(1995).{\emNaturalLanguageUnderstanding}.TheBenjamin/CummingsPublishingCompany,Inc.\item[~]J.~Barwise(1989).{\emTheSituationinLogic}.CSLILectureNotes17.\item[~]J.~BarwiseandJ.~Seligman(1997).{\emInformationFlow}.CambridgeUniversityPress.\item[~]P.~Blackburn,C.~Gardent,andM.~de~Rijke(1996).Onrichontologiesontenseandaspect.InJ.~SeligmanandD.~Westerstahl,editors,{\emLogic,Language,andComputation,vol.1}.CSLI,StanfordUniversity.\item[~]R.~I.Binnick(1991).{\emTimeandtheVerb}.OxfordUniversityPress.\item[~]B.~Comrie(1976).{\emAspect}.CambridgeUniversityPress.\item[~]K.~Devlin(1991).{\emLogicandInformation}.CambridgeUniversityPress.\item[~]D.~Dowty(1979).{\emWordMeaningandMontagueGrammar}.D.Reidel.\item[~]S.~Glasbey(1996).Towardsachannel-theoreticaccountoftheprogressive.InJ.~SeligmanandD.~Westerstahl,editors,{\emLogic,Language,andComputation,vol.1}.CSLI,StanfordUniversity.\item[~]T.~Gunji(1992).{AProto-LexicalAnalysisofTemporalPropertiesof{J}apaneseVerbs}.InB.~S.Park,editor,{\em{LinguisticsStudiesonNaturalLanguage}},pages197--217.HanshinPublishing.\item[~]H.KampandU.Reyle(1993).{\emFromDiscoursetoLogic}.KluwerAcademicPublisher's.\item[~]M.~MoensandM.~Steedman(1988).Temporalontologyandtemporalreference.{\emComputationalLinguistics},14[2]:15--28.\item[~]B.~H.Partee(1984).Nominalandtemporalanaphora.{\emLinguisticsandPhilosophy},7:243--286.\item[~]T.~Parsons(1990).{\emEventsintheSemanticsof{E}nglish}.MITpress.\item[~]H.~Reichenbach(1947).{\emElementsofSymbolicLogic}.UniversityofCaliforniaPress,Berkeley.\item[~]P.~Terenziani(1993).Integratinglinguisticandpragmatictemporalinformationinnaturallanguageunderstanding:thecaseofwhensentences.In{\emProc.of13thInternationalJointConferenceonArtificialIntelligence,vol.2},pages1304--1309.\item[~]A.~G.~B.terMeulen(1995).{\emRepresentingTimeinNaturalLanguage}.TheMITPress,Cambridge,MA.\item[~]J.~vanBenthem(1994).{\emANoteonDynamicArrowLogic},pages15--29.TheMITPress.\item[~]Z.~Vendler(1967).Verbsandtimes.{\emPhilosophicalReview},66:143--60.\item[~]工藤真由美(1995).{\emテンス・アスペクト体系とテクスト}.ひつじ書房.\item[~]草薙裕(1983).{\em文法と意味I-朝倉日本語新講座3}.朝倉書店.\item[~]町田健(1989).{\em日本語の時制とアスペクト}.アルク社.\end{description}
V22N01-01
\section{はじめに} 述語項構造解析(predicate-argumentstructureanalysis)は,文から述語とその格要素(述語項構造)を抽出する解析タスクである.述語項構造は,「誰が何をどうした」を表現しているため,この解析は,文の意味解析に位置付けられる重要技術の一つとなっている.従来の述語項構造解析技術は,コーパスが新聞記事であるなどの理由で,書き言葉で多く研究されてきた\cite{carreras-marquez:2004:CONLL,carreras-marquez:2005:CoNLL,Matsubayashi:PredArgsData2014j}.一方,近年のスマートフォンの普及に伴い,Apple社のSiri,NTTドコモ社のしゃべってコンシェルなど,音声による人とコンピュータの対話システムが,身近に使われ始めている.人・コンピュータの対話システムを構築するためには,人間の発話を理解し,システム発話とともに管理する必要があるが,述語項構造は,対話理解・管理に対しても有効なデータ形式であると考えられる.しかし,新聞記事と対話では,発話人数,口語の利用,文脈など,さまざまな違いがあるため,既存の新聞記事をベースとした述語項構造解析を対話の解析に利用した際の問題は不明である.たとえば,以下の対話例を考える.\vspace{1\Cvs}\begin{center}\begin{tabular}{|lp{60mm}|}\hlineA:&$\left[\mathit{iPad}\right]_{\text{ガ}}$が\textbf{ほしい}な.\\B:&いつ$\phi_{\text{ガ}}\phi_{\text{ヲ}}$\textbf{買う}の?\\\hline\end{tabular}\end{center}\vspace{1\Cvs}\noindentこの例では,最初の発話から,述語が「ほしい」,そのガ格が「iPad」である述語項構造が抽出される.2番目の発話では,述語が「買う」であることはわかるが,ガ格,ヲ格が省略されているため,述語項構造を得るためには,ガ格が発話者A,ヲ格が「iPad」であることも併せて解析する必要がある.このように,対話では省略がごく自然に出現する(これをゼロ代名詞と呼ぶ)ため,日本語の対話の述語項構造解析には,ゼロ代名詞照応解析処理も必要となる.本稿では,人とコンピュータの対話システム実現のため,従来に比べ対話を高精度に解析する述語項構造解析を提案する.本稿で対象とするタスクは,以下の2点をともに解決するものである.\begin{enumerate}\item日本語で必須格と言われているガ格,ヲ格,ニ格に対して,述語能動形の項を決定する.\itemゼロ代名詞照応解析を行い,文や発話内では項が省略されている場合でも,先行した文脈から項を決定する.\end{enumerate}本稿の提案骨子は,対話のための述語項構造解析器の構築を,新聞から対話へのドメイン適応とみなすことである.具体的には,新聞記事用に提案されたゼロ代名詞照応機能付き述語項構造解析を,話題を限定しない雑談対話に適応させる.そして,対話と新聞のさまざまな違いを,個々の違いを意識することなく,ドメイン適応の枠組みで包括的に吸収することを目指す.\citeA{Marquez:SRLSurvay2008,Pradhan:SRLAdaptation2008}は,意味役割付与のドメイン適応に必要な要素として,未知語対策とパラメータ分布の違いの吸収を挙げている.本稿でも,未知語およびパラメータ分布の観点から対話に適応させる.そして,新聞記事用より対話に対して高精度な述語項構造解析を提案する.我々の知る限り,ゼロ代名詞を多く含む対話を,高精度に解析する述語項構造解析器は初である.以下,第\ref{sec-related-work}章では,英語意味役割付与,日本語述語項構造解析の関連研究について述べる.\ref{sec-char-dialogs}章では,我々が作成した対話の述語項構造データと新聞の述語項構造データを比較し,対話の特徴について述べる.第\ref{sec-basic-strategy}章では,今回ベースとした述語項構造解析方式の概要を述べ,第\ref{sec-adaptation}章では,これを対話用に適応させる.実験を通じた評価は\ref{sec-experiments}章で述べ,第\ref{sec-conclusion}章でまとめる. \section{関連研究} \label{sec-related-work}近年の日本語の述語項構造解析は,教師あり学習をベースにしている.これは,英語の意味役割付与の考え方を参考にし,日本語の問題に当てはめたものである.英語の意味役割付与も,近年は意味役割として,述語とその項(格要素ごとの名詞句)に関する情報を付与しており,述語項構造解析と非常に似たタスクとなっている.\subsection{英語の意味役割付与}英語の意味役割付与は,\citeA{Gildea:PredArgs2002}が教師あり学習を用いた方式を提案して以来,コーパスが整備されてきた.国際ワークショップCoNLL-2004,2005で行われた共有タスク\cite{carreras-marquez:2004:CONLL,carreras-marquez:2005:CoNLL}では,PropBank\cite{Palmer:PropBank2005}を元にした評価が行われた.PropBankは,文に対して,述語とその項を注釈付けしたコーパスで,文自体は,PennTreebank(元記事はWallStreetJournal)から取られているため,ここで行われた評価も新聞記事に対するものである(このあたりの経緯は,\citeA{Marquez:SRLSurvay2008}が整理している).OntoNotes\cite{hovy-EtAl:2006:HLT-NAACL06-Short}は,ニュース記事,ニュース放送,放送における対話など,複数のジャンルを含んだコーパスである.付与された情報には,意味役割も含んでいるが,現在は共参照解析のデータとして使用されるに留まり\cite{conll2012-shared-task},対話解析への適用はこれから期待されるところである.意味役割付与は,タスク指向対話の意味理解にも利用される場合がある\cite{Tur:UnderstandingSRL2005,coppola-moschitti-riccardi:2009:NAACLHLT09-Short}.\citeA{Tur:UnderstandingSRL2005}は,電話のコールセンタにおけるユーザとオペレータとの対話において,述語と項の対を素性としたコールタイプ分類器を構築している.ここで,述語・項の対は,ユーザ発話をPropBankベースの意味役割付与器で解析することで得ている.彼らの実験は,素性として用いる場合は新聞記事用の意味役割付与器でも効果があることを示したが,本稿では,対話における述語項構造解析自体の精度向上を狙っている.\citeA{coppola-moschitti-riccardi:2009:NAACLHLT09-Short}は,同じくコールセンタ対話に対して,FrameNet\cite{RuppenhoferEtAl2006:ExtTeoryAndPractice}に準拠する意味役割付与を行っている.彼らは,コールセンタ対話を解析するため,分野依存の意味フレームをFrameNetに追加して,スロット(フレーム要素)の穴埋めを行っている.コールセンタ対話のように,意味役割が非常に限定される場合は,フレーム追加で対応できるが,タスクを限定しない雑談対話の場合は,分野依存フレームの追加は困難である.なお,述語だけでなく,事態性名詞(例えば,動詞`\textit{decide}'に対する事態性名詞`\textit{decision}')に対する意味役割付与の研究もある\cite{jiang-ng:2006:EMNLP,Gerber:NomPredArgs2012,laparra-rigau:2013:ACL2013}.事態性名詞の場合,英語でも格要素を省略して表現することがあるため(たとえば,``\textit{thedecision}''の対象格は省略されている),日本語のゼロ代名詞と同様の問題を解決する必要がある.\subsection{日本語の述語項構造解析}日本語では,奈良先端大が,述語項構造と照応データを新聞記事に付与したNAISTテキストコーパス\footnote{http://cl.naist.jp/nldata/corpus/}を公開している\cite{iida-EtAl:2007:LAW,Iida:NAISTCorpus2010j}.NAISTテキストコーパスは,毎日新聞の記事に対して,日本語で必須格と言われているガヲニ格の名詞句を,各述語に付与したものである.名詞句は,述語能動形の格に対して付与されている.また,名詞句は述語と同じ文内に限らず,ゼロ代名詞化されている場合は,先行詞までさかのぼって付与されている.述語項構造解析も,上記コーパスを利用したものが多く提案されている\cite{Komachi:PredArgs2007,taira-fujita-nagata:2008:EMNLP,imamura-saito-izumi:2009:Short,Yoshikawa:PredArgs2013j,Hayashibe:PredArgs2014j}.日本語の場合,ゼロ代名詞が存在するため,述語項構造解析時に,文をまたがるゼロ代名詞照応も解釈する場合がある(たとえば\cite{taira-fujita-nagata:2008:EMNLP,imamura-saito-izumi:2009:Short,Hayashibe:PredArgs2014j}).新聞記事以外を対象とした述語項構造解析研究には,以下のものがある.\citeA{Hangyo:ZeroAnaphra2014j}は,ブログなどを含むWebテキストを対象に,特に一人称・二人称表現に焦点を当てた照応解析法を提案している.彼らは同時に述語項構造解析も行っており,本稿のタスクと類似している.彼らはWebテキストを解析するにあたり,外界照応(記事内に項の実体が存在しない)を著書(一人称),読者(二人称),その他の人,その他に分けるという拡張を行っている.本稿でも,NAISTテキストコーパス(バージョン1.5)の分類に従い,外界照応を一人称,二人称,その他に分け,項の推定を行う.また,\citeA{Taira:PredArgs2014j}は,ビジネスメールを対象とした述語項構造解析を試みている.彼らは新聞記事用の述語項構造解析器をそのままビジネスメール解析に適用したが,一人称・二人称外界照応は,ほとんど解析できなかったと報告している.英語,日本語いずれも,現状の意味役割付与,述語項構造解析は新聞記事のような正書法に則って記述されたテキストやWebテキスト,メールを対象としている.非常に限定されたタスクを扱うコールセンタ対話の例はあるが,タスクを限定しない雑談対話を解析した際の精度や問題点については不明である. \section{雑談対話の特徴} \label{sec-char-dialogs}まず我々は,2名の参加者による雑談対話を収集し,その対話に述語項構造データの付与を行った.雑談対話は,参加者が自由なテーマ(話題)を設定し,キーボード対話形式で収集した.したがって,音声対話に含まれるような相槌や言い直しは少ない.参加者の話題は,食事,旅行,趣味,テレビ・ラジオなどである.述語項構造アノテーションは,NAISTテキストコーパス\cite{iida-EtAl:2007:LAW,Iida:NAISTCorpus2010j}に準拠する形で行った.雑談対話と,その述語項構造解析アノテーションの例を図\ref{fig-chat-dialog}に示す\footnote{対話中に一人称・二人称代名詞が陽に出現する場合,アノテータに対してexo1/exo2との区別は指示しなかった.しかし,述語と同一発話内ではその代名詞を項に使う場合が多く,異なる発話の場合,出現した代名詞をゼロ代名詞照応先とするのではなく外界照応(exo1/exo2)とする傾向が高かった.}.\begin{figure}[b]\input{01fig01.txt}\caption{雑談対話とその述語項構造アノテーションの例}\label{fig-chat-dialog}\par\small太字は述語,$[]$は文内の項,$()$は文間の項または外界照応を表す.\\また,\texttt{exo1},\texttt{exo2},\texttt{exog}はそれぞれ一人称/二人称ゼロ代名詞,それ以外の外界照応を表す.\end{figure}\begin{table}[b]\caption{コーパスサイズ}\label{tbl-corpus-size}\input{01table01.txt}\end{table}今回作成した雑談対話コーパスと,NAISTコーパス\footnote{NAISTコーパスはバージョン1.5を用い,文節化の前処理を行った上で使用した.1文節に複数の述語が含まれている場合は,前方に出現した述語のみを対象とした.}の統計量を表\ref{tbl-corpus-size}に示す.対話コーパスは,NAISTコーパスの約1/10のサイズである.また,1文/発話の長さ(形態素数)は,雑談対話コーパスはNAISTコーパスの1/3程度と短い.NAISTコーパスは,訓練,開発,テストに3分割したのに対し,対話コーパスは訓練とテストの2分割とした.対話の特徴を分析するため,この2つのコーパスの比較を行った.表\ref{tbl-arg-distrib}は,訓練セットにおける項の分布を示したものである.各項は,述語との位置関係や文法関係などにより問題の難しさが異なるため,以下の6タイプに分類した.最初の2つ(係受および文内ゼロ)は述語と項が同じ文に存在する場合である.\begin{table}[t]\caption{訓練セットにおける項の分布}\label{tbl-arg-distrib}\input{01table02.txt}\end{table}\begin{itemize}\item\textbf{係受:}述語と項が直接の係り受け関係にある場合\item\textbf{文内ゼロ:}述語と項が同じ文(発話)内にあるが,直接の係り受け関係がない場合\item\textbf{文間ゼロ:}述語と項が異なる文にある場合\item\textbf{exo1/exo2/exog:}項が記事(対話)内に存在しない外界照応.それぞれ,一人称ゼロ代名詞,二人称ゼロ代名詞,それ以外(一般)を表す.\end{itemize}これを見ると,対話ではすべての格で,係受タイプの項が減少している.それ以外のタイプについては,ガ格と,ヲ格ニ格で傾向が異なっている.ガ格では,文内ゼロ代名詞も対話の場合に減少し,減少分は一人称・二人称外界照応(exo1,exo2)に割り当てられている.つまり,ガ格では,文内の項が減少し,ゼロ代名詞が新聞に比べて頻発する.ただし,その先行詞は一人称・二人称代名詞である可能性が高いと言うことができる.ヲ格ニ格では,係受タイプの項の減少分は,文間ゼロ代名詞またはその他の外界照応(exog)に割り振られている.つまり,新聞記事では,大部分は述語と同じ文内に現れていたヲ格ニ格の項が,対話では別の発話に現れることが多くなり,1文に閉じない照応解析が重要となる. \section{ゼロ代名詞照応付き述語項構造解析} \label{sec-basic-strategy}\subsection{基本方式}\label{sec-architecture}本稿でベースとする述語項構造解析は,\citeA{imamura-saito-izumi:2009:Short}の方法である.これは,新聞記事を対象とした方法であるが,文内に存在する項,文間の項,外界照応を同時に解析できるという特徴があるため,対話の解析にも適していると判断した.処理は,記事(対話)全体を入力とし,各文(発話)ごとに以下のステップを実行する.\pagebreak\begin{enumerate}\item入力文を形態素・構文解析する.構文解析時には,同時に文節とその主辞を特定しておく.なお,今回は対話コーパスに関しては,形態素解析器MeCab\cite{kudo-yamamoto-matsumoto:2004:EMNLP},構文解析器CaboCha\cite{Kudo:Cabocha2002}で形態素・文節係り受け・主辞情報を自動付与した.NAISTコーパスに関しては,NAISTコーパス1.5付属のIPA体系の形態素・構文情報を利用した\footnote{NAISTコーパス1.5は,IPA体系の形態素,文節,主辞情報を含んだ形で配布されている.京都大学テキストコーパス4.0(http://nlp.ist.i.kyoto-u.ac.jp/index.php?京都大学テキストコーパス)と,毎日新聞1995年版記事データを合成することで,係り受け情報を含む完全なNAISTコーパスが構成できるようになっている.}.\item文から述語文節を特定する.今回は評価のため,コーパスの正解述語を用いたが,対話システム組み込みの際には,主辞が動詞,形容詞,形容動詞,名詞+助動詞「だ」の文節を述語文節とし,品詞パターンで決定する.\item対象述語の存在する文,およびそれより前方の文から,項の候補となる文節を取得する.文節の内容語部を候補名詞句とする.具体的には,以下の文節が候補となる.\begin{itemize}\item対象述語の文に含まれる,内容語部が名詞句であるすべての文節を文内の候補とする.その際,述語文節との係り受け関係は考慮しない.\item対象述語より前方の文から,文脈的に項の候補となりうる文節を加え,文間の候補とする.詳細は\ref{sec-context-processing}節で述べる.\item記事内に実体を持たない疑似候補として,外界照応(exo1,exo2,exog)と,任意格のため格を必要としない(NULL)を特殊名詞句として加える.\end{itemize}\item述語文節,項の候補名詞句,両者の関係を素性化し,ガ,ヲ,ニ格独立に,候補からもっとも各格にふさわしい名詞句を選択器で選択する(図\ref{fig-struct}).\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{22-1ia1f2.eps}\end{center}\caption{項選択の例}\label{fig-struct}\end{figure}本稿では,\citeA{imamura-saito-izumi:2009:Short}の方式から,若干の変更を行っている.変更点は以下のとおりである.\begin{itemize}\item\citeA{imamura-saito-izumi:2009:Short}では,特殊名詞句は1種類(NULLのみ)であったが,本稿では4種類(NULL,exo1,exo2,exog)に拡張した.\citeA{Hangyo:ZeroAnaphra2014j}は,外界照応を含む一人称,二人称ゼロ代名詞(論文では著者・読者表現)の照応解析を行うことで,それ以外のゼロ代名詞の照応解析精度も向上したと報告している.本稿でも,特殊名詞句の種別を増やすこととする.\item素性が異なる.本稿では,\ref{sec-features}節で述べる素性を使用したが,これは\citeA{imamura-saito-izumi:2009:Short}の基本素性を拡張,追加したものである.また,文脈を考慮する素性(文献ではSRLOrder,Used)は使用せず,簡略化した.これは,文脈管理を外部モジュールに任せるためで,詳細は\ref{sec-context-processing}で述べる.\item係り受け言語モデル(\ref{sec-dependency-lm}節参照)を1種類から3種類に拡張した.\end{itemize}\subsection{選択器のモデル}\label{sec-selector-models}選択器のモデルは,最大エントロピー分類に基づく.具体的には,選択器は記事内の述語$v$ごとに,候補名詞句集合$\textbf{N}$から,以下の式を満たす名詞句$\hat{n}$を選択する.\begin{align}\hat{n}&=\mathop{\rmargmax}_{n_j\in\textbf{N}}P(d(n_j)=1|X_j;M_c)\\P(d(n_j)=1|X_j;M_c)&=\frac{1}{Z_{c}(X)}\exp\sum_{k}\{\lambda_{ck}f_k(d(n_j)=1,X_j)\}\\Z_{c}(X)&=\sum_{n_j\in\textbf{N}}\exp\sum_k\{\lambda_{ck}f_k(d(n_j)=1,X_j)\}\label{eqn-normalizer}\\X_j&=\langlen_j,v,A\rangle\end{align}ただし,$n$は1つの候補名詞句,$\textbf{N}$は候補名詞句集合,$d(n_j)$は,名詞句$n_j$が項となったときのみ1となる関数,$M_c$は格$c$(ガ,ヲ,ニのいずれか)のモデルである.また,$f_k(d(n_j)=1,X_j)$は素性関数,$\lambda_{ck}$は格毎の素性関数の重み,$v$,$A$はそれぞれ述語,および形態素・構文解析済みの記事全体である.訓練時には,ある述語の候補名詞句集合ごとに,正解の名詞句と,それ以外のすべての候補名詞句との事後確率差を大きくするように学習する.具体的には,以下の損失関数を最小化するモデル$M_c$を,格ごとに学習する.\begin{align}\ell_{c}&=-\sum_{i}\logP(d(n_i)=1|X_i;M_c)+\frac{1}{2C}\sum_{k}||\lambda_{ck}||^{2}\label{eqn-loss-function}\end{align}ただし,$n_i$は,訓練セットの$i$番目の述語に対する正解名詞句,$X_i$は,訓練セットの$i$番目の正解名詞句,述語,記事の組$\langlen_i,v_i,A_i\rangle$,$C$は過学習を制御するためのハイパーパラメータで,開発セットにおける精度が最高になるように,あらかじめ設定しておく.式(\ref{eqn-normalizer})で,述語の候補名詞句集合毎に正規化を行っているため,(\ref{eqn-loss-function})式では,候補名詞句集合から,正解名詞句が選ばれた時に確率1.0,それ以外の名詞句では確率0.0に近づくようにモデルが学習される.\subsection{素性}\label{sec-features}選択器で使用する素性に関しては,英語の意味役割付与に関する研究(たとえば\citeA{Gildea:PredArgs2002})と同様に,(1)述語に関する素性,(2)名詞句に関する素性,(3)両者の関係に関する素性を使用する.詳細を表\ref{tbl-feature-list}に示す.\begin{table}[b]\caption{素性テンプレート一覧}\label{tbl-feature-list}\input{01table03.txt}\end{table}二値の素性関数は,テンプレートの引数が完全一致したときのみ1,それ以外では0を返す関数である.たとえばPred素性において,主辞形態素の見出しが1万種類あったとすると,1万の二値関数が定義され,主辞形態素の見出しと一致した関数だけが1を返す.実数値の素性関数は,テンプレートの引数に応じた実数を返す.なお,これらは名詞句の選択用モデルの素性であるので,名詞句Nounと,すべての二値素性を組み合わせた素性も使用している.本稿で特徴的な素性は,大規模データから自動構築した必須格情報Frameと係り受け言語モデル(3種類)であるが,これらについては\ref{sec-large-resources}節で述べる.\subsection{文脈処理}\label{sec-context-processing}本稿では,人とコンピュータの対話システム実現のための解析器を想定している.この対話システムは,ユーザとシステムが交互に発話するもので,システムに組み込まれた対話管理部が両者の発話履歴や,現在話されている話題(焦点)を管理する.述語項構造解析部はユーザ発話を解析し,発話生成部がシステム発話を生成するというものである.従来の述語項構造解析器も,現在の解析対象文より以前の文を文脈として利用し,ゼロ代名詞照応解析に利用している.\citeA{imamura-saito-izumi:2009:Short}は,解析器内部で以前の文や話題(焦点)の管理(これを文脈管理と呼ぶ)を行っていた.しかし,述語項構造解析器内部で文脈管理を行うより,対話システムの対話管理部が文脈管理を行った方が,ユーザ発話とシステム発話を協調的に管理できる可能性が高い.本稿ではこのように考え,文脈管理は外部モジュールの担当と位置付ける.そして評価用に,新聞記事と対話で同じ文脈管理方法を使用する.なお,本稿の方式は,選択器に与える文間の候補名詞句を取捨選択することによって文脈の制御を行っているので,候補名詞句を外部モジュールから陽に与えることで,文脈管理方法を変更することができる.今回使用した文脈管理方法は,具体的には以下のとおりである.\begin{itemize}\item対象述語の発話より以前の発話をさかのぼり,他の述語を含む発話(これを有効発話と呼ぶ)を見つける.これは,述語を含まない発話を無視するためである.\item有効発話と対象述語の発話の間に出現した全名詞句と,有効発話の述語で項として使われた名詞句(有効発話内の場合もあれば,それ以前の発話の名詞句の場合もある)を候補として加える.項として使われた名詞句は,その後も繰り返し使われることが多く,これに制限することで,効率的に候補を削減することができるという観察結果に基づく\cite{imamura-saito-izumi:2009:Short}.また,項として使われている限り,さかのぼる文数に制限がないため,広い文脈を見ることができる.\end{itemize} \section{雑談対話への適応} \label{sec-adaptation}前節で述べた方法は,対話,新聞記事に共通の処理である.これを対話解析に適したものにするため,パラメータの適応,および大規模コーパスから自動獲得した知識の適用を行う.\subsection{モデルパラメータの適応}NAISTコーパスと対話コーパスの項分布の差異は,選択器のモデルパラメータをドメイン適応することで調整する.本稿では,モデルパラメータの適応手法として,素性空間拡張法\cite{daumeiii:2007:ACLMain}を用いる.これは,素性空間を3倍に拡張することで,ソースドメインデータをターゲットドメインの事前分布とみなすのと同じ効果を得る方法である.具体的には,以下の手順で選択器のモデルを学習・適用する.\begin{enumerate}\itemまず,素性空間を共通,ソース,ターゲットの3つに分割する.\itemNAISTコーパスをソースドメインデータ,対話コーパスをターゲットドメインデータとみなし,NAISTコーパスから得られた素性を共通とソース空間にコピーして配置する.対話コーパスから得られた素性は共通とターゲット空間にコピーして配置する.\item拡張された素性空間上で,通常通りパラメータ推定を行う.結果,ソース・ターゲットデータ間で無矛盾な素性は,共通空間のパラメータが強調され(絶対値が大きくなる),ドメインに依存する素性は,ソースまたはターゲット空間のパラメータが強調される.\item選択器が項を選択する際は,ターゲット空間と共通空間の素性だけ用いる.この空間のパラメータは,ターゲットドメインに最適化されているだけでなく,ソースドメインデータだけに現れた共通空間の素性も利用して,項選択ができる.\end{enumerate}\subsection{大規模コーパスからの知識獲得}\label{sec-large-resources}本稿では,訓練コーパスに含まれない未知語への対策として,大規模コーパスから自動獲得した2種類の知識を利用する.どちらも大規模平文コーパスを自動解析して,集計やフィルタリングをすることで獲得する\cite{Kawahara:CaseFrame2005j,sasano-kawahara-kurohashi:2008:PAPERS,sasano-EtAl:2013:EMNLP}.当然誤りも含むが,新出語に対しても,ある程度の確かさで情報を与えることができる.これらを選択器の素性として使い,モデルを学習することにより,情報の信頼度に応じたパラメータが学習される.\subsubsection{必須格情報(Frame素性)}\label{sec-case-lex}格フレームは,述語の必須格と,その格を埋める名詞句の種類(通常は意味クラス)を保持するフレーム形式の情報で,述語項構造解析や意味役割付与の重要な手がかりとなる.本稿で使う必須格情報は,格フレームのうち,格が必要か否か(必須格か任意格か)だけについて情報を与える辞書である.本稿の必須格情報は,大規模平文テキストコーパスから,以下の方法で自動構築する.これは,(1)項が述語と直接係り受け関係にある場合,述語に対する項の格は,項の名詞句に付随する格助詞と一致することが多い,(2)必須格なら,その格の出現率は他の述語より平均的に高い\footnote{ゼロ代名詞化されている場合は,項が述語と同じ文に現れないため,必須格であっても,出現率は100\%にはならない.そのため,出現した/しないという二値では,必須格性は判断できないと考えた.},という仮定をもとにしている.\begin{itemize}\itemまず,本稿の述語項構造解析と同様(\ref{sec-architecture}節参照)に,平文を形態素・構文解析し,品詞パターンで述語文節とその主辞を特定する\footnote{ただし,受身・使役の助動詞が述語文節に含まれる場合は,別述語として扱うように,助動詞と合成した述語を新たに生成した.}.\item述語文節に直接係る文節を取得し,機能語部に格助詞を持つ文節だけを残す.もし,そのような文節が1つ以上あるなら,その述語を集計対象として,述語頻度,格助詞の出現頻度を集計する.\item述語に関しては,高頻度述語から順番に,最終的な辞書サイズを考慮して選択する.個々の格に関しては,以下の条件をすべて満たす格を,必須格とみなす.\begin{itemize}\item$\langle\text{述語}v,\text{格}c\rangle$が,対数尤度比検定において,危険率0.1\%以下で有意に多く共起していること($p\leq0.001$;$\text{対数尤度比}\geq10.83$).\item各述語における格$c$の出現率が,全述語における格の出現率(平均)より10\%以上高いこと.\end{itemize}\end{itemize}以上の方法で,2種類の必須格情報辞書を作成した.一つは,ブログ約1年分(約23億文.以下Blogコーパスと呼ぶ)から,48万述語の情報を獲得した(これをBlog辞書と呼ぶ).もう一つは新聞記事12年分(約770万文.以下Newsコーパスと呼ぶ)から約20万述語の情報を獲得した(同News辞書).\begin{table}[b]\caption{必須格辞書の述語カバー率と精度(対話コーパス訓練セットで測定した場合)}\label{tbl-oci-dict}\input{01table04.txt}\end{table}表\ref{tbl-oci-dict}は,雑談対話コーパス訓練セットの正解述語項構造と必須格情報辞書を比較し,必須格情報辞書の述語カバー率と格毎の精度を算出したものである.述語カバー率は,対話コーパスに出現した述語が必須格情報辞書に含まれている場合,カバーしたと判断した.結果,Blog辞書で98.5\%,News辞書で96.4\%で,ほぼ等しかった.また,格毎の精度は,正解の述語項構造に格が付与されているか否かと,必須格情報上の必須格性が一致しているかどうかを測定したもので,Blog辞書,News辞書でほぼ同じ傾向を示している.格毎に見ると,ガ格の精度が低いが,これは,雑談対話コーパスでは,ほぼすべての述語に対してガ格が付与されている(つまり,ガ格が必須)にも関わらず,BlogコーパスやNewsコーパスではそれがゼロ代名詞化されているため,自動獲得では必須格とは判断できなかったためである.ヲ格の全体精度は91\%以上と,格によっては高い精度を持つ辞書となっている.\subsubsection{係り受け言語モデル}\label{sec-dependency-lm}係り受け言語モデル(languagemodel;LM)は,三つ組$\langle\text{述語}v,\text{格}c,\text{名詞句}n\rangle$の共起のしやすさを表現するモデルである.頻出表現に高いスコアを与えることによって,出現する単語間に意味的関連が存在することを表現する意図がある.ここでは,述語$v$,格$c$,名詞句$n$それぞれの生成確率をn-gramモデルで算出し,選択器の識別モデルで全体最適化を行う.具体的には,以下の実数値を算出し,表\ref{tbl-feature-list}の係り受け言語モデル素性の素性関数値として使用する.その結果,選択器は,候補名詞句集合から,頻出表現に含まれる名詞句$n$を優先して選択することになる.なお,未知語を表す特殊単語\texttt{<unk>}を含む確率で補正してる理由は,対数確率({$-\infty$〜$0.0$}の範囲)を正の値に補正するためである.\begin{itemize}\item$\logP(n|c,v)-\logP(\texttt{<unk>}|c,v)$\item$\logP(v|c,n)-\logP(v|c,\texttt{<unk>})$\item$\logP(c|n)-\logP(c|\texttt{<unk>})$\end{itemize}本稿の係り受け言語モデルは,\citeA{imamura-saito-izumi:2009:Short}が1種類({$\logP(n|c,v)$}相当)のみ使用していたのに対し,識別モデルが互いに依存しあう素性を含めることができるという特徴を利用し,3種類に拡張している.また,述語$v$から見た格$c$の生成確率({$\logP(c|v)$})は,述語ごとに格を必要とする度合であり,必須格情報と重なるため,係り受け言語モデルからは除外した.3種類の係り受け言語モデルは,\ref{sec-case-lex}節で抽出した述語,格,名詞句を集計し,SRILM\cite{Stolcke:SRILM2011}でバックオフモデルを構築した.係り受け言語モデルも,Blogコーパス,Newsコーパスからそれぞれ作成した.これを,それぞれBlog言語モデル,News言語モデルと呼ぶ.言語モデルのカバー率を,雑談対話コーパス訓練セットに出現する三つ組が係り受け言語モデルの元になった三つ組に含まれるかどうかで測定すると,Blog言語モデルの場合,76.4\%をカバーしていた.一方,Newsの言語モデルの場合,カバー率は38.3\%だった.News言語モデルに比べ,Blog言語モデルは対話コーパスに出現する係り受けの三つ組のカバレッジが高い\footnote{バックオフモデルの場合,モデル中に三つ組が存在しなくても,二つ組を組み合わせるなどして,素性関数としては何らかの値を返すことができる.}. \section{実験} \label{sec-experiments}本節では,表\ref{tbl-corpus-size}に示したコーパスを用い,対話における述語項構造解析の精度を,パラメータ適応,大規模コーパスから自動獲得した知識の効果という観点から評価する.評価はすべて雑談対話コーパステストセットで行う.評価指標には,項の適合率,再現率から算出したF値を用いる.\subsection{実験1:パラメータ適応の効果}\label{sec-exp-parameter-adaptation}まず,パラメータ適応の効果を測定するため,訓練方法を変えた3方式の比較を行った.表\ref{tbl-result-dialog}の(a),(b),(c)カラムがその結果で,それぞれ(a)素性空間拡張によるドメイン適応を行った場合(適応.提案法),(b)NAISTコーパスだけで訓練した場合(NAIST訓練.従来の新聞記事用解析に相当),(c)対話コーパスだけで訓練した場合(対話訓練)を表す.\begin{table}[b]\caption{対話テストセットにおける方式・必須格情報・係り受け言語モデルごとのF値}\label{tbl-result-dialog}\input{01table05.txt}\par\vspace{8pt}\small表中の太字は,全方式のうち,F値最高を指す.また,記号$\heartsuit$,$\diamondsuit$,$\spadesuit$,$\clubsuit$は,(a)と,それぞれ(b)(c)(d)(e)の比較で,有意によかったものを表す.有意差検定は,ブートストラップ再サンプリング法(1,000回測定)を使用し,危険率を5\%とした.\end{table}まず,(a)適応と(b)NAIST訓練を比較すると,多くの場合,適応の方が有意に精度がよいという結果になった($\heartsuit$記号が有意差ありを表す).特に合計の精度では,すべての格で適応が有意に勝っている.タイプ別の精度を見ると,特徴的なのは,ガ格の一人称,二人称外界照応(exo1,exo2)である.これらはガ格の項のうちの約28\%を占めているが,exo1で70.2\%,exo2で46.8\%のF値で解析可能となった.他にも,ヲ格ニ格の文間ゼロ,exogなど,NAIST訓練ではほとんど解析できなかったタイプの項が解析できるようになった.(a)適応と(c)対話訓練を比較すると($\diamondsuit$参照),雑談対話コーパスは訓練セットのサイズが小さいにも関わらず,両者の精度が近くなった.適応の合計精度が有意に良かったのは,ニ格のみである.これには2つの理由が考えられる.\begin{itemize}\item対話コーパス量が十分であり,NAISTコーパスの影響をほとんど受けない場合.\item適応がNAISTコーパスの知識を活かしきっていない場合.言い換えると,NAISTコーパスに出現する言語現象と,対話に出現する言語現象に重なりが少ないため,NAISTコーパスが影響しない場合.\end{itemize}前者の場合,コーパスサイズに対する学習曲線が今回のデータ量で飽和していることで検証できる.本稿で作成した対話コーパスはNAISTコーパスの約1/10の訓練セットであるため,学習曲線は描かなかった.後者の場合,対話コーパスサイズを大きくすると,述語項構造解析の精度も向上する.今後,さらに対話コーパスを作成し,検証する必要がある.\subsection{実験2:自動獲得知識の比較}表\ref{tbl-result-dialog}の(a)(d)(e)は,提案方法(適応)の評価結果である.ただし,必須格情報および係り受け言語モデルは,それぞれ(a)$\langle$Blog,Blog$\rangle$,(d)$\langle$News,Blog$\rangle$,(e)$\langle$Blog,News$\rangle$に変えて評価している.まず,必須格情報辞書を(a)Blogから(d)Newsに変えた場合を比較すると($\spadesuit$参照),両者の間で有意差があったのは,ヲ格の文内ゼロのみで,ほぼすべての場合で有意差はなかった.一方,係り受け言語モデルを(a)Blogから(e)Newsに変更すると($\clubsuit$参照),若干精度に差が出た.特に,文法関係より意味関係を重視する文内・文間ゼロでは,有意に精度が悪化したものが多く(ガ格の文間ゼロ,ヲ格の文内・文間ゼロ,ニ格の文内ゼロ),その結果,合計の精度でも,ヲ格は約3ポイント低下した.ゼロ代名詞照応のように,述語と項の間に文法的な関係が弱い場合,意味的関連性を共起から判断する係り受け言語モデルが相対的に重要となる.そのため,係り受け言語モデルの違いが精度に影響しやすい.図\ref{fig-coverages}は,適応方式において,それぞれ必須格情報辞書の述語カバー率,係り受け言語モデルの三つ組$\langle\textrm{述語}v,\textrm{格}c,\textrm{名詞句}n\rangle$のカバー率を意図的に変化させて,述語項構造解析のF値を測定したグラフである.必須格情報,係り受け言語モデルともに,Blogコーパスから作成したものを利用した.必須格情報のカバー率は高頻度述語から順番に,雑談対話コーパス訓練セットの述語のカバー率が指定した割合になるまで選択した.係り受け言語モデルの三つ組は,同じく雑談対話コーパス訓練セット上での三つ組カバー率が指定した割合になるまで,ランダムに選択した\footnote{係り受け言語モデルは,確率モデルであるため,三つ組の頻度を基準に取捨選択すると,確率分布が変化する.確率分布を変えずにカバー率を変えるため,ランダム選択とした.}.グラフに示したF値は,格の合計である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia1f3.eps}\end{center}\caption{自動獲得知識のカバレッジと述語項構造解析精度}\label{fig-coverages}\end{figure}図\ref{fig-coverages}(a)をみると,必須格情報については,格の種類にかかわらず,述語カバー率を変えてもほぼ同じ精度となった.この理由を分析したところ,テストセットに出現する大部分の述語は,訓練セットに出現したためであった.実際,雑談対話テストセットに出現する5,333述語のうち,4,442述語(83.3\%)は雑談対話コーパス訓練セット,またはNAISTコーパス訓練セットに出現していた.つまり,訓練セットだけでテストセットの大部分をカバーできており,それ以外の述語しか,必須格情報が有効に作用しなかったため,カバー率の影響がほとんど出なかったと考えられる.一方,係り受け言語モデルの三つ組は,雑談対話テストセットに出現した5,056組(外界照応\texttt{exo1},\texttt{exo2},\texttt{exog}は除く)のうち,訓練セットがカバーしたのは1,063組(21.0\%)であった.そのため,図\ref{fig-coverages}(b)のように,係り受け言語モデルのカバー率を上げると,述語項構造解析の精度も向上した.ただし,ガ格に関しては,自動獲得元コーパスにおいてもガ格がゼロ代名詞化され,自動獲得精度が十分ではなかったため,カバー率を上げても述語項構造解析精度は向上しなかった.まとめると,自動獲得した知識は,訓練コーパスのカバレッジが高い部分では効果がほとんどなく,低い部分を補完するのに有効である.そのため,雑談対話のように幅広い話題を対象とする対話には適している.\subsection{雑談対話コーパスを使用せずに適応する場合}ドメイン適応のシチュエーションとして,新聞記事コーパスしか存在しない状況で,述語項構造解析器を対話に適応させなければならない場合が考えられる.本節では,NAISTテキストコーパスと自動獲得知識だけでモデルを学習し,自動獲得知識がどの程度有効か,検証する.表\ref{tbl-effect-of-knowledge}は,NAISTコーパス訓練セットでモデルを学習し,雑談対話コーパステストセットでF値を測定した結果である.ただし,自動獲得知識の組み合わせ{$\langle\text{必須格情報},\text{係り受け言語モデル}\rangle$}は,(b){$\langle\text{Blog},\text{Blog}\rangle$},(b-1){$\langle\text{なし},\text{Blog}\rangle$},(b-2){$\langle\text{Blog},\text{なし}\rangle$},(b-3){$\langle\text{なし},\text{なし}\rangle$}に変えている.(b)は,表\ref{tbl-result-dialog}の再掲である.\begin{table}[b]\caption{NAIST訓練における自動獲得知識の効果(自動獲得知識はBlog)}\label{tbl-effect-of-knowledge}\input{01table06.txt}\par\vspace{8pt}\small表中の記号$\dag$,$\S$,$\ddag$は,(b)と,それぞれ(b-1)(b-2)(b-3)との比較で,有意によかったものを表す.有意差検定は,ブートストラップ再サンプリング法(1,000回測定)を使用し,危険率を5\%とした.なお.(b)は,表\ref{tbl-result-dialog}の再掲である.\end{table}これを見ると,多くの場合で(b){$\langle\text{Blog},\text{Blog}\rangle$}が有意に勝っており,自動獲得知識が有効に作用していると言ってよい.しかし,これらはすべてNAIST訓練の結果であり,ほとんど(またはまったく)解析できなかったタイプの項(たとえば,ガ格のexo1,exo2,ヲ格の文間ゼロ,ニ格の文内・文間ゼロ)は,必須格情報辞書,係り受け言語モデルをどのように変えようとも,ほとんど解析できない状況には変わりはなかった.本稿の提案方式である表\ref{tbl-result-dialog}の(a)適応は,NAIST訓練では解析できなかったタイプの項も解析できるようにする効果があった.自動獲得した知識は,すでに解析できるタイプの項の精度改善には効果があるが,対話で新たに出現したタイプの項を解析する効果はない.したがって,たとえ少量でも対話の述語項構造データを作成し,適応させることが望ましい.\subsection{対話解析例}\label{sec-err-analysis}図\ref{fig-analysis-example}は,旅行に関する雑談対話の一部について,正解述語項構造,(a)適応方式,(b)NAIST訓練方式,(b-3)NAIST訓練(ただし,必須格情報辞書,係り受け言語モデルなし)の出力を並べて表示したものである.発話ごとに差異を分析すると,以下の特徴が得られた.\begin{figure}[p]\input{01fig04.txt}\caption{対話例と,正解述語項構造および述語項構造解析結果(*は解析誤りを表す)}\label{fig-analysis-example}\end{figure}\begin{itemize}\item発話番号1で,正解がexogになっているのは,アノテータは,「話した」のは発話者ABの両方であると判断したためである.本発話の解釈によっては,exo1でも誤りではないと思われる.\item発話番号2のガ格の正解はexo2である.しかし,(a)適応は,exo1を選択した.日本語の場合,一人称・二人称は,文末表現(この例では「下さい」)に特徴が現れるが,選択器にSuffix素性があるにも関わらず,正しく選択できなかった.\item発話番号3のガ格の正解はexo1である.(a)適応は正しく選択したが,(b)(b-3)NAIST訓練は,一人称/二人称の外界照応をほとんど選択しないため,発話番号1に現れた「私」を選択した.しかし,発話番号1の「私」は発話者Aを示しており,発話番号3のexo1(発話者B)とは異なる.もし文間ゼロタイプの項を割り当てるとすると,発話番号2の「あなた」が正解となる.本稿では,外界照応と人称代名詞を別に扱っているが,本来は共参照解析を導入して,exo1/exo2と「私」「あなた」が同一実体であることを認識すべきである.その際,発話者がどちらなのか意識して,同一性を判断する必要がある.\\発話番号6にも同様な現象が現れているが,ガ格正解exo2に相当する表現が発話番号2「あなた」まで遡らなければならないため,(b)(b-3)NAIST訓練では,exogとなった.\item発話番号3のニ格の正解は「海外旅行」だが,(b-3)NAIST訓練(自動獲得知識なし)では,NULLと誤った.「海外旅行にはまる」は,NAISTコーパス訓練セットには出現せず,係り受け言語モデルの三つ組に出現する表現だったため,係り受け言語モデルなしのNAIST訓練では解析に失敗した.\item発話番号5のニ格の正解は,「スペインとポルトガル」であるべきだが,本稿の方式は文節を単位に処理するため,2文節以上にまたがる名詞句は,主辞だけを付与する仕様である.\\また,発話番号4のガ格の正解は,直前発話(発話番号3)全体と考えることもできる.しかし,文節単位に格要素を割り当てるため,アノテータはもっとも近い表現「海外旅行」を正解として割り当てた.\item発話番号6において,(a)適応は,ニ格「ポルトガル」を前文から正しく補完した.なお,「ポルトガルに行く」は,NAISTコーパス訓練セットには存在しないが,係り受け言語モデルの三つ組には存在する表現である.\end{itemize} \section{まとめ} \label{sec-conclusion}本稿では,対話解析のための述語項構造解析を提案した.われわれはこれを新聞から対話への一種のドメイン適応とみなし,従来新聞記事で研究されていた述語項構造解析を,対話に適用した.対話と新聞記事では項の分布が異なるため,素性空間拡張法を用いて,モデルパラメータを適応させた.また訓練コーパスに現れない未知語を補完するため,大規模平文データから,必須格情報,係り受け言語モデルを自動獲得し,項選択器のモデルに適用した.結果,少量でも対話コーパスを訓練に加えることで,新聞記事のコーパスだけでは解析できなかったタイプ(ガ格の一人称・二人称ゼロ代名詞や,文間ゼロ代名詞,外界照応)も解析可能となった.ただし,パラメータ適応自体の効果は限定的であった.また,自動獲得知識の有効性は,訓練セットがテストセットをどの程度カバーしているかに依存する.必須格情報は,テストセットに出現する述語の大部分が訓練セットに出現していたため,必須格情報のカバレッジの影響はほとんどなかった.一方係り受け言語モデルでは,テストセットに出現する述語,格,名詞句の三つ組の21\%しか訓練セットでカバーしていなかったため,カバレッジの高いモデルの精度が向上した.特に,ヲ格ニ格に関しては,三つ組カバレッジが高い方が,ゼロ代名詞照応解析精度の向上に寄与することを確認した.なお,必須格情報および係り受け言語モデルは,格フレームの選択選好とみなすこともできる.格フレームは,大規模コーパスから自動獲得したものが存在するので\cite{Kawahara:CaseFrame2005j},これを利用する方法もある.両者の比較は,今後検討してゆきたい.今回は,パラメータ分布の差異,語彙のカバレッジに着目したが,新聞と対話では,他にもさまざまな違いがあると考えられる.たとえば,話者交替は対話特有の現象であるが,それが述語項構造やゼロ代名詞にどう影響するかなどは,本稿では扱わなかった.また,われわれは文脈管理に,対話システムの発話管理機能を利用することを考えているが,対話システムとしての有効性評価も実施する予定である.\acknowledgment本論文の一部は,the25thInternationalConferenceonComputationalLinguistics(COLING2014)で発表したものである\cite{imamura-higashinaka-izumi:2014:Coling}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carreras\BBA\M{\`{a}}rquez}{Carreras\BBA\M{\`{a}}rquez}{2004}]{carreras-marquez:2004:CONLL}Carreras,X.\BBACOMMA\\BBA\M{\`{a}}rquez,L.\BBOP2004\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2004SharedTask:SemanticRoleLabeling.\BBCQ\\newblockIn{\BemHLT-NAACL2004Workshop:8thConferenceonComputationalNaturalLanguageLearning(CoNLL-2004)},\mbox{\BPGS\89--97},Boston,Massachusetts,USA.\bibitem[\protect\BCAY{Carreras\BBA\M{\`{a}}rquez}{Carreras\BBA\M{\`{a}}rquez}{2005}]{carreras-marquez:2005:CoNLL}Carreras,X.\BBACOMMA\\BBA\M{\`{a}}rquez,L.\BBOP2005\BBCP.\newblock\BBOQIntroductiontothe{CoNLL}-2005SharedTask:SemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonComputationalNaturalLanguageLearning(CoNLL-2005)},\mbox{\BPGS\152--164},AnnArbor,Michigan,USA.\bibitem[\protect\BCAY{Coppola,Moschitti,\BBA\Riccardi}{Coppolaet~al.}{2009}]{coppola-moschitti-riccardi:2009:NAACLHLT09-Short}Coppola,B.,Moschitti,A.,\BBA\Riccardi,G.\BBOP2009\BBCP.\newblock\BBOQShallowSemanticParsingforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics,CompanionVolume:ShortPapers},\mbox{\BPGS\85--88},Boulder,Colorado,USA.\bibitem[\protect\BCAY{Daum\'{e}}{Daum\'{e}}{2007}]{daumeiii:2007:ACLMain}Daum\'{e},III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\256--263},Prague,CzechRepublic.\bibitem[\protect\BCAY{Gerber\BBA\Chai}{Gerber\BBA\Chai}{2012}]{Gerber:NomPredArgs2012}Gerber,M.\BBACOMMA\\BBA\Chai,J.~Y.\BBOP2012\BBCP.\newblock\BBOQSemanticRoleLabelingofImplicitArgumentsforNominalPredicates.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(4),\mbox{\BPGS\755--798}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{Gildea:PredArgs2002}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticLabelingofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{萩行\JBA河原\JBA黒橋}{萩行\Jetal}{2014}]{Hangyo:ZeroAnaphra2014j}萩行正嗣\JBA河原大輔\JBA黒橋禎夫\BBOP2014\BBCP.\newblock外界照応および著者・読者表現を考慮した日本語ゼロ照応解析.\\newblock\Jem{自然言語処理},{\Bbf21}(3),\mbox{\BPGS\563--600}.\bibitem[\protect\BCAY{林部\JBA小町\JBA松本}{林部\Jetal}{2014}]{Hayashibe:PredArgs2014j}林部祐太\JBA小町守\JBA松本裕治\BBOP2014\BBCP.\newblock述語と項の位置関係ごとの候補比較による日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\3--25}.\bibitem[\protect\BCAY{Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Hovyet~al.}{2006}]{hovy-EtAl:2006:HLT-NAACL06-Short}Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2006\BBCP.\newblock\BBOQOntoNotes:The90\%Solution.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,CompanionVolume:ShortPapers},\mbox{\BPGS\57--60},NewYork,USA.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{Iida:NAISTCorpus2010j}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida-EtAl:2007:LAW}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},\mbox{\BPGS\132--139},Prague,CzechRepublic.\bibitem[\protect\BCAY{Imamura,Higashinaka,\BBA\Izumi}{Imamuraet~al.}{2014}]{imamura-higashinaka-izumi:2014:Coling}Imamura,K.,Higashinaka,R.,\BBA\Izumi,T.\BBOP2014\BBCP.\newblock\BBOQPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolutionforDialogueSystems.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\806--815},Dublin,Ireland.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura-saito-izumi:2009:Short}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\85--88},Singapore.\bibitem[\protect\BCAY{Jiang\BBA\Ng}{Jiang\BBA\Ng}{2006}]{jiang-ng:2006:EMNLP}Jiang,Z.~P.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQSemanticRoleLabelingofNomBank:AMaximumEntropyApproach.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\138--145},Sydney,Australia.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara:CaseFrame2005j}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{Komachi:PredArgs2007}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearning-BasedArgumentStructureAnalysisofEvent-NounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics(PACLING)},\mbox{\BPGS\208--215},Melbourne,Australia.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo:Cabocha2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemCoNLL2002:Proceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69},Taipei,Taiwan.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo-yamamoto-matsumoto:2004:EMNLP}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\230--237},Barcelona,Spain.\bibitem[\protect\BCAY{Laparra\BBA\Rigau}{Laparra\BBA\Rigau}{2013}]{laparra-rigau:2013:ACL2013}Laparra,E.\BBACOMMA\\BBA\Rigau,G.\BBOP2013\BBCP.\newblock\BBOQImpAr:ADeterministicAlgorithmforImplicitSemanticRoleLabelling.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1180--1189},Sofia,Bulgaria.\bibitem[\protect\BCAY{M\`arquez,Carreras,Litkowski,\BBA\Stevenson}{M\`arquezet~al.}{2008}]{Marquez:SRLSurvay2008}M\`arquez,L.,Carreras,X.,Litkowski,K.~C.,\BBA\Stevenson,S.\BBOP2008\BBCP.\newblock\BBOQSemanticRoleLabeling:AnIntroductiontotheSpecialIssue.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(2),\mbox{\BPGS\145--159}.\bibitem[\protect\BCAY{松林\JBA飯田\JBA笹野\JBA横野\JBA松吉\JBA藤田\JBA宮尾\JBA乾}{松林\Jetal}{2014}]{Matsubayashi:PredArgsData2014j}松林優一郎\JBA飯田龍\JBA笹野遼平\JBA横野光\JBA松吉俊\JBA藤田篤\JBA宮尾祐介\JBA乾健太郎\BBOP2014\BBCP.\newblock日本語文章に対する述語項構造アノテーション仕様の考察.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\333--377}.\bibitem[\protect\BCAY{Palmer,Gildia,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer:PropBank2005}Palmer,M.,Gildia,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--105}.\bibitem[\protect\BCAY{Pradhan,Moschitti,\BBA\Xue}{Pradhanet~al.}{2012}]{conll2012-shared-task}Pradhan,S.,Moschitti,A.,\BBA\Xue,N.\BEDS\\BBOP2012\BBCP.\newblock{\BemJointConferenceonEMNLPandCoNLL:ProceedingoftheSharedTask:ModelingMultilingualUnrestrictedCoreferenceinOntoNotes},Jeju,Korea.\bibitem[\protect\BCAY{Pradhan,Ward,\BBA\Martin}{Pradhanet~al.}{2008}]{Pradhan:SRLAdaptation2008}Pradhan,S.~S.,Ward,W.,\BBA\Martin,J.~H.\BBOP2008\BBCP.\newblock\BBOQTowardsRobustSemanticRoleLabeling.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(2),\mbox{\BPGS\289--310}.\bibitem[\protect\BCAY{Ruppenhofer,Ellsworth,Petruck,Johnson,\BBA\Scheffczyk}{Ruppenhoferet~al.}{2006}]{RuppenhoferEtAl2006:ExtTeoryAndPractice}Ruppenhofer,J.,Ellsworth,M.,Petruck,M.~R.,Johnson,C.~R.,\BBA\Scheffczyk,J.\BBOP2006\BBCP.\newblock{\BemFrameNetII:ExtendedTheoryandPractice}.\newblockInternationalComputerScienceInstitute,Berkeley,California.\newblockDistributedwiththeFrameNetdata.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano-kawahara-kurohashi:2008:PAPERS}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING2008)},\mbox{\BPGS\769--776},Manchester,UK.\bibitem[\protect\BCAY{Sasano,Kawahara,Kurohashi,\BBA\Okumura}{Sasanoet~al.}{2013}]{sasano-EtAl:2013:EMNLP}Sasano,R.,Kawahara,D.,Kurohashi,S.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQAutomaticKnowledgeAcquisitionforCaseAlternationbetweenthePassiveandActiveVoicesinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1213--1223},Seattle,Washington,USA.\bibitem[\protect\BCAY{Stolcke,Zheng,Wang,\BBA\Abrash}{Stolckeet~al.}{2011}]{Stolcke:SRILM2011}Stolcke,A.,Zheng,J.,Wang,W.,\BBA\Abrash,V.\BBOP2011\BBCP.\newblock\BBOQSRILMatSixteen:UpdateandOutlook.\BBCQ\\newblockIn{\BemProceedingsofIEEEAutomaticSpeechRecognitionandUnderstandingWorkshop(ASRU2011)},Waikoloa,Hawaii,USA.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira-fujita-nagata:2008:EMNLP}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisusingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\523--532},Honolulu,Hawaii,USA.\bibitem[\protect\BCAY{平\JBA田中\JBA藤田\JBA永田}{平\Jetal}{2014}]{Taira:PredArgs2014j}平博順\JBA田中貴秋\JBA藤田早苗\JBA永田昌明\BBOP2014\BBCP.\newblockビジネスメールに対する日本語述語項構造解析の検討.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\1019--1022},札幌.\bibitem[\protect\BCAY{Tur,Hakkani-T{\"{u}}r,\BBA\Chotimongkol}{Turet~al.}{2005}]{Tur:UnderstandingSRL2005}Tur,G.,Hakkani-T{\"{u}}r,D.,\BBA\Chotimongkol,A.\BBOP2005\BBCP.\newblock\BBOQSemi-SupervisedLearningforSpokenLanguageUnderstandingUsingSemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofAutomaticSpeechRecognitionandUnderstandingWorkshop(ASRU2005)},\mbox{\BPGS\232--237},SanJuan,PuertoRico.\bibitem[\protect\BCAY{吉川\JBA浅原\JBA松本}{吉川\Jetal}{2013}]{Yoshikawa:PredArgs2013j}吉川克正\JBA浅原正幸\JBA松本裕治\BBOP2013\BBCP.\newblockMarkovLogicによる日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\251--271}.\end{thebibliography}\begin{biography}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年〜2014年日本電信電話株式会社.1995年〜1998年NTTソフトウェア株式会社.2000年〜2006年ATR音声言語コミュニケーション研究所.2014年より株式会社ATR-Trek所属として,独立行政法人情報通信研究機構(NICT)へ出向.現在NICT先進的音声翻訳研究開発推進センター専門研究員.主として自然言語処理技術の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ACL各会員.}\bioauthor{東中竜一郎}{1999年に慶應義塾大学環境情報学部卒業,2001年に同大学大学院政策・メディア研究科修士課程,2008年に博士課程修了.博士(学術).2001年に日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所にて勤務.音声言語メディアプロジェクトにて,質問応答システム・音声対話システムの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,各会員.2004年から2006年にかけて,英国シェフィールド大学客員研究員.}\bioauthor{泉朋子}{2005年北海道教育大学国際理解教育課程卒業,2007年ボストン大学大学院人文科学部応用言語学科修了,2008年日本電信電話株式会社入社.2014年京都大学大学院情報学研究科博士後期課程修了.博士(情報学).現在,NTTメディアインテリジェンス研究所研究員,自然言語処理研究開発に従事.言語処理学会会員.}\end{biography}\biodate\end{document}
V15N04-01
\section{はじめに} 本研究の目的は,歴史資料(史料)から歴史情報を自動抽出する方式を確立すること,および歴史知識を構造化するためにその抽出結果を歴史オントロジーとして構築し,提供することにある.歴史研究は史料内容の解読から始まる.そのために史料の収集・翻刻(楷書化)・解読の作業が伴う.ただし,史料の形態・記述は多様であり,翻刻・解読には相当の知識と経験を必要とする.国内には未解読の史料が未だ多数存在する.一方,これまでに解読された結果についても電子化されていない,あるいは機関・個人など個別に存在するために各史料を共用できないという問題があり,歴史事象の関連性の解明,すなわち歴史研究の推進そのものに支障をきたしている.この種の問題解決のために,すなわち歴史知識の構造化のために歴史オントロジーの提供が求められている.われわれは,歴史研究のより一層の推進を目的として「歴史オントロジー構築プロジェクト」を実施している.本プロジェクトは,史料を電子化する,史料に記載されている情報を抽出,構造化して歴史オントロジーを構築する,歴史オントロジーを利用した検索・参照システムを構築するという3つの手順によって構成されている.本プロジェクトを具現化するための史料として『明治前日本科学史』(日本学士院編・刊行,全28巻)を対象に歴史オントロジーを構築する.当刊行史料は,明治前日本科学史の編纂を目的に昭和15年に帝国学士院において企図され,昭和35年に最初の巻が出版され,昭和57年に28巻目の刊行によって現在,完結している.本史料をより有効に活用するため,全巻の電子化および研究目的の利用・提供に関して日本学士院の許諾を得て,電子化に着手した.本史料は公的性が高く,歴史研究の推進という本研究の目的に適合するものである.本史料から日本の科学技術を創成してきた明治前の人物に関する情報を抽出,構造化することにより歴史オントロジーを構築する.本研究では,プロジェクトの第一歩として,『明治前日本科学史』のうちの1巻『明治前日本科学史総説・年表』の本文を電子化したテキストから,人物の属性として人名とそれに対する役職名と地名,人物の業績として人名とそれに対する書名を抽出する.機械学習に基づく情報抽出によって十分な精度を得るには大量の正解データを作成する必要があり,多大な時間がかかることから,本研究ではルールベースの手法によって人物に関する情報を抽出する.本稿では,2章で歴史オントロジー構築プロジェクトの全体像を示す.3章で人物に関する情報を抽出する手法について説明し,4章で実際に評価実験を行い,その結果を考察する.最後に5章で本研究の結論を示す. \section{歴史オントロジー構築プロジェクト} 歴史研究において,史料はその手がかりとなる重要な資源であるにも関わらず,多くの史料が電子化されておらず,また電子化されていたとしても利用しやすい形で提供されていない場合が多いという問題がある.東京大学史料編纂所では史料をデータベース化し,キーワードなどの条件で検索可能なシステムを提供する取り組みを進めており,これまでにその一部が「東京大学史料編纂所データベースSHIPS」\cite{ships}として公開されている.このシステムで提供されているデータベースには,史料中の文や図が掲載されている箇所(巻やページなど),記述された出来事の日付,図に描かれた人物の名前などのメタデータが付与されているものもある.しかし,これらのメタデータのほとんどを人手で付与しているため,データベースの構築に多大な時間を費やしている.また,上記以外のメタデータ,たとえば出来事が発生した場所,人物の役職や著作といった情報はほとんど付与されていないため,「ある人物が執筆した著作の年代順一覧」などのように,検索条件や出力内容に様々な種類の情報を指定した複雑かつ柔軟な検索を行うことができない.われわれは歴史研究のより一層の推進を目的として,史料に記載されている多様な情報をより効率的に抽出,構造化して歴史オントロジーを構築することにより,広範な歴史情報を様々な形で利用可能とするためのプロジェクト「歴史オントロジー構築プロジェクト」を進めている.本章では,本プロジェクトの全体構成,および本プロジェクトにおける歴史オントロジーの詳細について説明する.\subsection{プロジェクトの全体構成}本プロジェクトは,史料の電子化,電子化されたデータからの歴史オントロジーの構築,歴史オントロジーを利用した史料の検索・参照システムの構築という3つの手順によって構成されている(図\ref{fig:arch}).まず,史料を電子化する.対象となる史料は印刷物として刊行されている『明治前日本科学史』全28巻である.史料の電子化においては,その利用目的に応じた電子化方式を確立する必要がある.たとえば,史料の見た目をそのまま復元すればよいのであれば高い解像度でスキャンした画像を蓄積すればよいが,それだけではキーワードによる検索ができない.また,史料中の文を単にテキスト化するだけでは,年代や人名などの情報を利用した検索や図の参照ができない.複雑かつ柔軟な検索を実現するには,史料に記述された文や掲載されている表や図について,できるだけ論理的な構造を保持したままXMLなどの構造化文書の形式で電子化する必要がある.たとえば文については,文字のテキスト化における外字の表現や,文のテキスト化における章や節,箇条書きなどの論理構造の表現といった課題がある.また,表や図については,表構造の表現,タイトルや説明文との関係付け,文中で参照している箇所との関係付けなどが検討課題となる.\begin{figure}[t]\begin{center}\includegraphics{15-4ia1f1.eps}\caption{歴史オントロジー構築プロジェクトの全体構成}\label{fig:arch}\end{center}\end{figure}次に,電子化されたデータから歴史情報を抽出し,構造化することにより歴史オントロジーを構築する.歴史オントロジーの内容と構築手順については次節以降で述べる.最後に,歴史オントロジーを利用した史料の検索・参照システムを構築する.歴史オントロジーがもつ情報を最大限に活用し,歴史研究に必要とされる様々な観点での検索の実現,利用者が必要とする情報を分かりやすく表示する検索結果の可視化,使いやすいユーザインタフェースなどが検討課題としてあげられる.また,検索・参照機能を提供するだけではなく,歴史オントロジーそのものをRDFなどの形式で公開し,利用者が自由に利用できるようにすることも計画している.\subsection{歴史オントロジーの定義}本プロジェクトの対象となる史料『明治前日本科学史』には,主に明治よりも前の時代における日本の科学・技術の成果に関する史実(歴史的事実)が,図や表とともに各事項について時系列で記述されている.史実としては,各時代の科学・技術の推移やその内容,および科学者の業績などの人物に関する情報(以下,人物情報)が大部分を占める.特に人物情報は歴史研究におけるニーズが高く,人物情報を検索・参照可能とすることは歴史研究への貢献度が高いと考える.そこで,人物情報を可能な限り漏れなく抽出することを本プロジェクトの目標のひとつとする.ただし,史料中には一部史実でない記述,たとえば推測,疑問,感想などが記述されており,これらは抽出対象外とする.『明治前日本科学史総説・年表』における科学者の業績に関する記述部分の抜粋を図\ref{fig:desc}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-4ia1f2.eps}\caption{『明治前日本科学史総説・年表』における科学者の業績に関する記述部分の抜粋}\label{fig:desc}\end{center}\end{figure}抽出した情報を様々な形で利用可能とするためは,資料中の文や図などをそのまま抽出して,キーワードで検索できるようにしたり一覧表示したりするだけでは不十分であり,人名で検索したり書名を一覧表示したりといった,様々な種類の概念に基づく検索や参照が必要となる.この要件を実現するため,各種の概念を史料から抽出し,それらを構造化してオントロジーとして蓄積する.以降,史料から抽出した人物情報を格納したオントロジーを「歴史オントロジー」とよぶ.オントロジーについては,哲学をはじめとした様々な観点からの定義が提案されている\cite{mizoguchi1997}が,人工知能分野においては「概念間の関係を記述することによって知識を体系化したもの」と定義づけられることが多い.たとえばStandardUpperOntologyWorkingGroup\cite{suo}では,オントロジーは概念(concepts),関係(relations),公理(axioms)の3つの要素によって構成されており,これらの構成要素によって,ある分野に関する事物や構造を記述できるとしている.本稿では,この説明に基づいて歴史オントロジーを定義する.歴史オントロジーで対象とする分野は日本の科学史である.「概念」は,人物情報を構成する各要素である.人物情報は,人物自体を指す情報,人物の属性,人物の業績の3種類に大きく分類される.人物自体を指す情報としては人名,写真,似顔絵などが,人物の属性としては役職,出身地,生没年,家族関係などが,業績としては著作,建造物,訪問先などがあげられる.したがって,歴史オントロジーにおける「概念」,すなわち人物情報の構成要素としては,人物,写真,役職,年代,書籍,建造物,場所などがあり,概念どうしを結ぶ関係としてはたとえば以下のものがあげられる.\begin{itemize}\item人物から写真への「写真」という関係\item人物から年代への「生年」という関係\item人物から書籍への「著作」という関係\item書籍から年代への「発行年」という関係\end{itemize}本プロジェクトで抽出対象とする歴史オントロジーの概念や関係の全体像については現在検討中であるが,これまでに候補としてあがっている概念どうしを結ぶ関係の一部を表\ref{table:ontology}に示す.なお,表\ref{table:ontology}において概念間の階層関係はない.\begin{table}[t]\caption{歴史オントロジーにおける,概念どうしを結ぶ関係(一部)}\label{table:ontology}\begin{center}\input{01table01.txt}\end{center}\end{table}本プロジェクトでは基本的に各概念のインスタンスをその名前で表し,写真などの画像データは「人物」という概念とは別の概念として「写真」などの関係で結ぶ.したがって,人物情報のうち,人名は「人物」という概念のインスタンスとして,それ以外の情報は概念のインスタンスどうしを結ぶ関係として表現される.「公理」は概念や関係が満たす制約条件であり,概念間の階層関係や,ある概念がもつ各関係の数(たとえば「一人の人物は生年を一つだけもつ」)などがあげられる.\subsection{歴史オントロジーの構築手順}歴史オントロジー構築の最終目標は,『明治前日本科学史』全28巻を電子化し,そこから人物情報を高精度に抽出することである.しかし,以下のような問題があるため,それを一度に実施するのは膨大な時間がかかる上に非効率的である.\begin{itemize}\item人物情報には様々なものがあり,抽出すべき情報を決めるのには時間がかかる.\item全28巻の電子化,特に写真や図表などの画像を電子化するのには時間がかかる.\item高精度な抽出方式を確立するには,仮説と検証を繰り返す必要があり時間がかかる.\end{itemize}そこで,以下の手順で段階的に歴史オントロジーを構築する.\begin{enumerate}\item数巻程度の本文をテキスト形式で電子化する.\item電子化されたテキストを対象として,人物情報のうち特に歴史研究に必要とされる情報を高精度に抽出する方式を確立する.\item全巻について,テキストと画像の両方を電子化する.\item全巻の電子化データを対象として,(2)と同様に人物情報のうち特に歴史研究に必要とされる情報を抽出する.\item抽出する人物情報を拡大し,全巻を対象として様々な人物情報を高精度に抽出する方式を確立する.\end{enumerate}われわれは現在,上記の手順のうち(1),(2)について取り組みを進めている.また(3)のうち,画像の電子化方法について検討中である. \section{人物情報の抽出} 本研究では,『明治前日本科学史』全28巻のうちの1巻『明治前日本科学史総説・年表』を対象として,人名,人物の属性として人名とそれに対する役職名と地名,および人物の業績として人名とそれに対する書名を抽出する.これらは基本的かつ重要な情報であり,また史料中の記述量も多いため評価実験で多くの知見が得られる見込みが高い.役職名には,「将軍」のような官職(役人の職業)の名前と「医師」のような一般の職業名の2種類がある.地名には,その人物の出身地,所属する組織の地域,国籍などがあり,歴史研究への活用のためにはそれらが区別されている方が好ましいが,本研究では区別せず,すべて地名として抽出する.ある人物の役職名や地名は時間の経過にしたがって変化する場合があるため,一人に対し複数の役職名や地名が抽出されることがある.したがって,人物の役職名と地名の抽出結果は,〈人名,役職名〉,〈人名,地名〉のいずれかの組の列として表現される.書名についても,一人が複数の書籍を書く場合があるため,人物が書いた書籍の抽出結果は,〈人名,書名〉の組の列として表現される.人名のような固有表現を抽出する方法については,大きく分けてルールベースの手法\cite{rau1991}と機械学習に基づく手法\cite{asahara2003,maccallum2003}の2種類が提案されている.機械学習に基づく手法は,学習のための正解データが必要となる.史料には人名の索引が掲載されているが,科学者のみが掲載の対象となっており政治家の人名は含まれない.また,史料の文中には姓や名のみが出現する場合がある.索引の人名は姓名(フルネーム)のみであるため,姓や名を人名として抽出するのは困難である.したがって,史料の正解データを作成するのには膨大な時間を必要とする.IREX\cite{sekine2000}の公開データなどの人名タグ付きコーパスを正解データとして利用する方法もある.しかし,上記のコーパスは1994年から1995年の新聞記事を対象としている.一方,史料中の人名は主に明治よりも前の時代のものであり,人名を構成する文字や形態素が大きく異なるため,高い抽出精度の実現を期待できない.そこで,本研究では,ルールベースの手法により人名を抽出する.また,人物に対する役職名のような関係を抽出する情報抽出についても,ルールベースの手法と機械学習に基づく手法\cite{sudo2003,greenwood2005}の2種類があるが,上記の固有表現抽出と同様の理由で,ルールベースの手法により人物の属性や業績を抽出する.人名の抽出手順としては,人手で作成した形態素列の抽出パターンを利用したパターンマッチングによって人名を抽出したあと,大域的情報を利用してさらなる人名の抽出と名寄せを行う.また,人物の属性と業績もパターンマッチングによって抽出する.これらの手法について以下に説明する.\subsection{形態素列のパターンマッチングによる情報抽出}\begin{figure}[b]\begin{center}\includegraphics{15-4ia1f3.eps}\caption{形態素列のパターンマッチングによる情報抽出手順}\label{fig:matching}\end{center}\end{figure}図\ref{fig:matching}に示す手順で形態素列のパターンマッチングによる情報抽出を実行する.まず,史料中の文に対して形態素解析を実施する.その結果に対して,各形態素の出現形,基本形,品詞,字種などの情報を用いて,正規表現に似た形式で形態素列を表現したパターンにマッチする形態素列を抽出する.このとき,形態素列のパターンがパターンマッチング処理に埋め込まれていると,パターンの修正にともなうパターンマッチング処理の修正に時間がかかる.そこで,形態素列のパターンとパターンマッチング処理を分離し,パターンのみを修正すれば,それに応じたパターンマッチング処理が実行できるようにした.たとえば,図\ref{fig:matching}の抽出パターンの1行目は,「名詞—固有名詞—地域」の品詞をもつ形態素と基本形が「都」「府」「県」のいずれかの形態素からなる形態素列(たとえば「岩手県」),あるいは基本形が「北海道」である形態素のいずれかにマッチし,\|PREF|というタグを付与することを意味する.人物の属性や業績のように,固有表現どうしの関係を抽出する際は,固有表現(人名,役職名,地名,書名)を抽出するパターンとそれらをまとめあげるパターンを作成し,固有表現を抽出した後でそれらをまとめあげるという二段階の処理を行う.パターンマッチングによる情報抽出については,情報抽出に関する評価型会議であるMUC\cite{grishman1996}をはじめとして様々な手法が提案されている.たとえば,\cite{nishino1998}では本稿と同様に人名とその職業名を抽出しており,その際,職業名のリストや人名の直後に出現する「さん」といった語句を手がかり句を利用している.われわれの抽出パターンでは,このような手がかり句に加えて,人名などの固有表現を構成する形態素の特徴も利用している.固有表現を抽出するパターンに利用した主な特徴を表\ref{table:feature}に示す.なお,「パターンの例」は実際のパターンを分かりやすいように一部書き換えてある.たとえば,表\ref{table:feature}の上から2番目のパターンの例では,構成する形態素の字種を利用することにより,「ウィリアム・アダムズ」のようなカタカナを含む人名を抽出できる.また,『明治前日本科学史』には古い時代の人名が数多く出現し,形態素解析誤りが頻繁に発生する.たとえば,「桂川甫周」を形態素解析すると,「桂川」は品詞が「人名—姓」の形態素となるが,「甫」と「周」はそれぞれ別の形態素に分割されてしまう.このような場合,表\ref{table:feature}の上から3番目のパターンの例のように,形態素の文字数を指定することにより,「桂川甫周」を人名として正しく抽出できる.\begin{table}[b]\caption{形態素列のパターンに利用した主な特徴}\label{table:feature}\begin{center}\input{01table02.txt}\end{center}\end{table}固有表現をまとめあげるパターンについては,固有表現と固有表現の間やその前後に出現する形態素の特徴をもとにパターンを作成した.人名と地名をまとめあげるパターンとそれにマッチする形態素列の例を表\ref{table:pattern}に示す.パターンの例において,\|$PERSON|,\|$PLACE|はそれぞれすでに抽出された人名,地名の形態素列を表す.固有表現を抽出するパターンとそれらをまとめあげるパターンをあわせ,全部で約90個の抽出パターンを作成した.\subsection{大域的な情報を利用した情報抽出と名寄せ}人手で作成した形態素列のパターンを利用したパターンマッチングによって人名を抽出する場合,すべての人名を抽出するためのパターンを網羅的に記述することは困難であり,多くの抽出漏れが発生してしまう.そこで,パターンマッチングによる抽出結果に対し,大域的な情報を利用して抽出漏れを削減する.\begin{table}[b]\caption{人名と地名をまとめあげるパターンの例}\label{table:pattern}\begin{center}\input{01table03.txt}\end{center}\end{table}\begin{figure}[b]\begin{center}\includegraphics{15-4ia1f4.eps}\caption{大域的な情報を利用した情報抽出と名寄せの例}\label{fig:global}\end{center}\end{figure}史料中に出現する人名は,初出時は姓名(フルネーム)で出現し,その後方で同一人物を表す人名が姓名,姓,名のいずれかの形で出現することが多い.そこで,形態素列のパターンマッチングによる人名の抽出結果に対し,さらに追加で人名の候補となる形態素列をパターンマッチングにより抽出し,その中で人名となる形態素を判定する.人名の候補となる形態素列として,漢字のみで構成される形態素が連続する形態素列,およびカタカナのみで構成される形態素列と「・」(ナカグロ)が交互に出現する形態素列を抽出する.抽出された人名の候補のうち,以下のいずれかの条件を満たすものを人名と判定する.\begin{description}\item[条件a]任意の箇所に出現する人名と同じ文字列の形態素列\item[条件b]ある箇所に出現する人名よりも後ろに出現し,かつその人名の先頭または末尾の部分文字列となっている形態素列\end{description}条件bに合致する形態素については,その前に出現する(フルネームの)人名と同一人物であるという判定(名寄せ)も同時に行う.大域的な情報を利用した情報抽出と名寄せの例を図\ref{fig:global}に示す.条件aにより,一番上の「藤林普山」が人名と判定される.また条件bにより,「良沢」と「藤林」が人名と判定され,さらに「良沢」は「前野良沢」と,「藤林」は「藤林普山」とそれぞれ同一人物であると判定される. \section{評価実験} 史料からの人名,人物の属性,人物の業績の抽出精度を評価する実験を行った.\subsection{実験条件}評価用データとして『明治前日本科学史総説・年表』の本文(5096文,約21万8千字)を使用し,人名,人物の属性(人名とそれに対する役職名と地名),人物の業績(人名とそれに対する書名)の抽出精度を評価した.評価のための正解作成にあたっては,システムが抽出した誤りや漏れを人手で修正することにより,すべての情報を人手で抽出するのと比べて短時間で正解を作成することができた.人名については,パターンマッチングのみを行った場合と,パターンマッチングのあと大域的な情報を使って抽出漏れを削減した場合の精度を評価した.また,現代の文書を対象に機械学習を行う手法として,CaboCha\footnote{http://chasen.org/\~{}taku/software/cabocha/}の固有表現抽出機能において,CaboChaに付属する,毎日新聞記事のタグ付きコーパスで学習したモデルを使って人名を抽出した場合との精度を比較した\footnote{CaboChaの固有表現抽出機能は地名も抽出可能だが,今回は比較対象としなかった.今後の課題としたい.}.パターンマッチング,CaboChaとも形態素解析にはChaSen\footnote{http://chasen.naist.jp/hiki/ChaSen/}を利用した.人物の属性と人物の業績については,パターンマッチングのみを行った場合の精度を評価した.人物の属性については,人名とそれに対する役職名として〈人名,役職名〉の組を,人名とそれに対する地名として〈人名,地名〉の組を抽出し,その抽出精度を評価した.また人物の業績については,人名とそれに対する書名として〈人名,書名〉の組の抽出精度を評価した.評価尺度として,以下の式で算出される再現率,適合率,F値を測定した.\[再現率R=\frac{一致件数}{正解件数},\hspace{1em}適合率P=\frac{一致件数}{出力件数},\hspace{1em}F値=\frac{2PR}{P+R}\]上記の件数の算出にあたっては,人名については出現箇所を区別し,人物の属性と人物の業績については出現箇所を区別せず算出した.たとえば人名の正解については,同じ人名が複数の箇所に出現する場合はそれぞれ別のものとして正解件数をカウントした.また,出力された人名を正解と比較し,同じ人名が同じ箇所に出現する場合にのみ一致するとして,一致件数を算出した.逆に人物の業績については,同じ〈人名,書名〉の組が複数の箇所から抽出された場合,それらをまとめて1とカウントした.\subsection{実験結果}人名の抽出結果について,パターンマッチングのみを行った場合,パターンマッチングのあと大域的な情報を利用した場合,およびCaboChaを使った場合の結果を表\ref{table:result_person}に示す.もっとも精度の高いものを太文字の数字で表している.また,役職名,地名,書名の抽出結果について,パターンマッチングのみを行った場合の結果を表\ref{table:result_other}に示す.\begin{table}[b]\caption{人名の抽出結果の比較}\label{table:result_person}\begin{center}\input{01table04.txt}\end{center}\end{table}\begin{table}[b]\caption{役職名,地名,書名の抽出結果(パターンマッチングのみ)}\label{table:result_other}\begin{center}\input{01table05.txt}\end{center}\end{table}\subsection{考察}人名の抽出精度については,パターンマッチングのあと大域的な情報を使った場合がもっとも高い精度であった.パターンマッチングのみの場合の精度と比較すると,適合率が若干下がったものの,再現率が大幅に向上しており,大域的な情報を利用することによって抽出漏れを削減できたことが分かる.CaboChaを使った場合のF値は0.702であった.現代の日本語の文書を対象として機械学習を行った場合の人名の抽出精度は0.87前後と報告されている\cite{asahara2003}.本実験の抽出対象文書である史料に出現する人名は,現代の人名と比べて人名を構成する文字や形態素が大きく異なることが,CaboChaを使った場合の抽出精度が低かった原因と考える.\begin{table}[t]\caption{役職名の抽出漏れの例}\label{table:loss_position}\begin{center}\input{01table06.txt}\end{center}\end{table}\begin{table}[t]\caption{地名の抽出漏れの例}\label{table:loss_place}\begin{center}\input{01table07.txt}\end{center}\end{table}\begin{table}[t]\caption{書名の抽出漏れの例}\label{table:loss_book}\begin{center}\input{01table08.txt}\end{center}\end{table}役職名,地名,書名の抽出精度はいずれも,適合率に比べて再現率が低かった.役職名,地名,書名それぞれの抽出漏れの例を表\ref{table:loss_position},\ref{table:loss_place},\ref{table:loss_book}に示す.「抽出漏れの箇所」欄において,太字部分が抽出された人名を表し,[](カギ括弧)で囲まれた語句が抽出できなかった(つまり抽出漏れの)役職名,地名,書名を表している.「解決方法」欄には抽出するための方法の案を示した.役職名,地名,書名とも,形態素列の抽出パターンの追加で抽出可能となる抽出漏れだけでなく,係り受け解析や照応解析など,形態素解析以外の自然言語処理が必要とされる抽出漏れもあることが分かる.たとえば係り受け解析については,パターン中に形態素間の係り受け関係も記述できるようにし,形態素列のパターンにマッチする形態素列を求めたあと,それらが係り受け関係にあるものを求めるという方法がある.表\ref{table:loss_book}の上から3番目の例の場合,「\|<人名>"は"|」と「\|<書名>"を書いた"|」という形態素列のパターンにマッチする形態素列として「松永良弼は」と「『円理乾坤之巻』を書いた」をそれぞれ抽出したあと,前者の形態素列「松永良弼は」が後者の形態素列の先頭の文節「『円理乾坤之巻』を」に係ることから,松永良弼の著書として『円理乾坤之巻』を抽出できる.役職名,地名,書名それぞれの抽出精度を比較すると,書名の再現率が役職名,地名に比べて低かった.それぞれの抽出漏れを分析したところ,役職名,地名と比較して,書名は人名と離れた位置に出現する場合が多いことが分かった.このような抽出漏れは,形態素列のパターンでは正しく抽出することができず,係り受け解析や照応解析が必要となるものが多いことが,書名の再現率が低かった原因だと考える. \section{おわりに} 歴史資料を対象として歴史オントロジーを構築するシステムを開発するための第一歩として,『明治前日本科学史』の一部を電子化し,史料中の科学技術者に関する属性および業績の情報を抽出することにより,前近代日本の人物情報データベースの構築を試みた.人名とそれに対する役職名,地名,書名をルールベースの手法によって抽出する方法を提案し,『明治前日本科学史総説・年表』を対象とした精度評価を行った結果,人名,人名とそれに対する役職名,人名とそれに対する地名についてはF値で0.8を超える結果が得られた.今後の課題としては,抽出精度を向上させるために,機械学習によって情報抽出を行うこと,係り受け解析や照応解析の結果を形態素列の抽出パターンや機械学習に利用することを考えている.また,人物の属性や業績として抽出する情報を拡大するとともに,抽出対象データについても『明治前日本科学史総説・年表』以外の巻を対象とした抽出と評価を行う予定である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2003}]{asahara2003}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQJapaneseNamedEntityExtractionwithRedundantMorphologicalAnalysis\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology(HLT-NAACL)},\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Greenwood,Stevenson,Guo,Harkema,\BBA\Roberts}{Greenwoodet~al.}{2005}]{greenwood2005}Greenwood,M.~A.,Stevenson,M.,Guo,Y.,Harkema,H.,\BBA\Roberts,A.\BBOP2005\BBCP.\newblock\BBOQAutomaticallyAcquiringaLinguisticallyMotivatedGenicInteractionExtractionSystem\BBCQ\\newblockIn{\BemProceedingsofthe4thLearningLanguageinLogicWorkshop(LLL05)},\mbox{\BPGS\46--52}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{grishman1996}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQMessageUnderstandingConference-6:ABriefHistory\BBCQ\\newblockIn{\BemProceedingsofthe16thConferenceonComputationalLinguistics(COLING-96)},\mbox{\BPGS\466--471}.\bibitem[\protect\BCAY{IEEE}{IEEE}{2003}]{suo}IEEE.\newblock\BBOQIEEEP1600.1StandardUpperOntologyWorkingGroup(SUOWG)\BBCQ,\Turl{http://suo.ieee.org/}.\bibitem[\protect\BCAY{McCallum\BBA\Li}{McCallum\BBA\Li}{2003}]{maccallum2003}McCallum,A.\BBACOMMA\\BBA\Li,W.\BBOP2003\BBCP.\newblock\BBOQEarlyResultsforNamedEntityRecognitionwithConditionalRandomFields,FeatureInductionandWeb-EnhancedLexicons\BBCQ\\newblockIn{\BemProceedingsofTheSeventhConferenceonNaturalLanguageLearning(CoNLL-2003),{\upshape\textbf{4}}},\mbox{\BPGS\188--191}.\bibitem[\protect\BCAY{Mizoguchi\BBA\Ikeda}{Mizoguchi\BBA\Ikeda}{1997}]{mizoguchi1997}Mizoguchi,R.\BBACOMMA\\BBA\Ikeda,M.\BBOP1997\BBCP.\newblock\BBOQTowardsOntologyEngineering\BBCQ\\newblockIn{\BemProceedingsofJointPacificAsianConferenceonExpertSystems/SingaporeInternationalConferenceonIntelligentSystems(PACES/SPICIS'97)},\mbox{\BPGS\259--266}.\bibitem[\protect\BCAY{西野\JBA落谷}{西野\JBA落谷}{1998}]{nishino1998}西野文人\JBA落谷亮\BBOP1998\BBCP.\newblock\JBOQ新聞記事からの人物・企業情報の抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-127)},\mbox{\BPGS\125--132}.\bibitem[\protect\BCAY{Rau}{Rau}{1991}]{rau1991}Rau,L.~F.\BBOP1991\BBCP.\newblock\BBOQExtractingCompanyNamesfromText\BBCQ\\newblockIn{\BemProceedingsofSeventhIEEEConferenceonArtificialIntelligenceApplications},\mbox{\BPGS\29--32}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{sekine2000}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQIREX:IRandIEEvaluationProjectinJapanese\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation(LREC-2000)},\mbox{\BPGS\1475--1480}.\bibitem[\protect\BCAY{Sudo,Sekine,\BBA\Grishman}{Sudoet~al.}{2003}]{sudo2003}Sudo,K.,Sekine,S.,\BBA\Grishman,R.\BBOP2003\BBCP.\newblock\BBOQAnImprovedExtractionPatternRepresentationModelforAutomaticIEPatternAcquisition\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\224--231}.\bibitem[\protect\BCAY{東京大学史料編纂所}{東京大学史料編纂所}{2006}]{ships}東京大学史料編纂所.\newblock\JBOQ東京大学史料編纂所データベースSHIPS\JBCQ,\Turl{http://www.hi.u-tokyo.{\linebreak}ac.jp/ships/}.\end{thebibliography}\begin{biography}\bioauthor{石川徹也}{1971年慶応義塾大学大学院修士課程修了.富士フイルム(株)足柄研究所,図書館短期大学,図書館情報大学,文部省在外研究員(UCLA,IU),筑波大学等を経て,現在,東京大学史料編纂所前近代日本史情報国際センター特任教授(研究開発主査).歴史知識学の創成研究に従事.工学博士(早稲田大学),筑波大学名誉教授,筑波大学大学院図書館情報メディア研究科共同研究員.情報文化学会学会賞(2005年8月),言語処理学会優秀発表賞(2006年3月),E\"{u}genWusterSpecialPrize(UNESCO,2006年7月).}\bioauthor{北内啓}{1998年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTTデータ通信(株)入社.現在,(株)NTTデータ技術開発本部において自然言語処理の研究開発に従事.言語処理学会,情報処理学会各会員.}\bioauthor{城塚音也}{1988年東京大学文学部言語学科卒業.同年日本電信電話株式会社入社,音声言語,知識処理技術の研究開発に従事.現在,(株)NTTデータ技術開発本部において自然言語処理の研究開発を担当.}\end{biography}\biodate\end{document}
V15N02-05
\section{はじめに} 近年,Webの普及や様々なコンテンツの増加に代表される不特定多数の情報の取得や不特定多数への情報の発信が容易になったことで,個人が取得できる情報の量が急激に増大してきている.個人が取得できる情報量は今後さらに増え続けるだろう.このような状況は,必要な情報を簡単に得られるようにする一方で不必要な情報も集めてしまう原因になっている.この問題を解決する方法として大量の情報の中から必要な情報だけを選択する技術が必要で,これを実現する手段として検索,フィルタリング,テキストマイニングが挙げられる.このような技術はスパムメールの排除やWebのショッピングサイトの推薦システム等で実際に使われている.本論文では大量の情報の中から必要な情報を取得する手段として人間の興味に着目し,文書に含まれる語句及び文書自体に興味の強弱を値として付与することを提案する.本論文では,不特定多数の人がどの程度興味を持つかに注目した.すなわち不特定多数を全体とした大衆に対する興味の程度である.興味の強弱を語句及び文書自体に付与することにより人間の興味(文書の面白さ,文書の注目度)の観点で情報を選別することが可能となるだけではなく,興味の強弱を値として与えることで興味がある・ないの関係ではなく興味の強さの程度を知ることができる.また,文書に含まれる語句に与えた興味の強弱の値から文書のどの部分が最も興味が強いか明らかになるため,文書のどの部分が興味の要因となるのか分析を行うことが可能である.このように語句の興味の強弱自体を明らかにすることは,例えばタイトル作成や広告等において同一の意味を示す複数の語句の中から興味が強い語句を選択する際の基準として利用できるため,興味を持ってもらえるように文書を作成する支援となることが期待できる.さらに,Web上でのアクセスランキングなどはアクセス数の集計後に知ることのできる事後の情報である.本論文の文書自体に付与する興味の強弱の値を利用することでこの順位を事前に予測することが可能となり,提示する文書の選択や表示順の変更などをアクセス集計前に利用することが期待できる.大衆の興味が反映されているデータに注目することでこのような大衆の興味を捉えることが出来ると考える.また興味を持つことになった原因と持たれない原因を分析する手がかりになると期待できる.本論文では,多くの人が興味を持つ文書を判断するため,まず興味の判断に必要な素性を文書から抽出する.次に抽出した素性に興味の強弱を値で推定して付与する.さらに興味の強弱の値が付与された素性から文書自体の興味の強弱を推定する.\ref{sec_興味}章にて本論文で対象とする興味,\ref{sec_関連}章にて関連研究,\ref{sec_rank}章で順位情報の詳細,\ref{sec_method}章で提案手法について述べ,\ref{sec_expeval}章で評価実験及び考察を行う.さらに\ref{sec_method2}章で提案手法の拡張について述べ,その評価を\ref{sec_evalexp2}章にて行う. \section{興味について} label{sec_興味}\subsection{大衆の興味}興味はある対象に対して面白いと感じる又は魅かれている状態を示すものであり,個人によって興味を持つ対象は様々である.我々は個人の興味の集合を大衆の興味とした.大衆の興味を引きやすいということはより多くの人に興味を持たれるものであり,このようなものを大衆の興味を得られやすい情報として扱っている.前述のように各個人の興味は多種多様であり,1つの尺度では表せないものである.しかし不特定多数の人がいる中で興味を持つ人がどの程度いるかという大衆の興味として扱うことで興味の傾向などが得られると考えている.\subsection{対象とする興味}我々が定義した大衆の興味には次に示す2種類の興味が含まれていると考える.\begin{itemize}\item時間変動を含んでいる興味時間変動を含んでいる興味はトレンドや流行と呼ばれ,今現在や過去のある時点で興味を集めているもの\item対象自体が持っている興味対象(語句)自体が普遍的に持つ「興味を発生させる強さ」を指し,時間で変動せずに対象自体が持っている普遍的な興味の度合い\end{itemize}我々は語句自体が持つ時間変動を持たない後者の興味の強さに注目し本論文の対象とした.例えばトレンド分析の結果「収賄の疑いで逮捕」が抽出された場合,これは現在注目を集めている特定の話題として抽出されたものである.本論文ではこのような時間で変動するトレンドではなく,「逮捕」という語句そのものが普遍的に持つ興味があると考え,その強さを明らかにするためにその語句に対して興味の強さを値として与えた. \section{関連研究} label{sec_関連}興味の分析や抽出を行う先行研究には,多数の販売記録から対象者が興味を持つ商品の推薦を行うものや,時系列分析を行って単語の出現傾向から現在注目されているイベントや単語を検出する研究などがある.さらに最近では文書の書き手が個人であるBlogなどを用いることで主観情報の分析や個人の興味,トレンド分析を行う研究が存在する.奥村らはWeb上の文書を時間情報が含まれたdocumentstreamで扱い,burst検出手法に基づいて分析を行い注目されている話題を検出する手法を提案している{\cite{fuziki}}.このシステムではBlogなどに対する書き込み時間を基に単語の出現間隔が短くなっている箇所に注目すべき話題があるとして注目されている話題の検出を行っている.このように現在注目を集めている話題,及び過去に注目を集めていた話題を検出するのはトレンド分析の1種であり,興味を分析する研究の1つとして挙げられる.また西原らは興味を持ってもらえるタイトルやアブストラクトの作成を目標に,興味を引く研究発表のタイトルを作成する支援システムを提案している\cite{nishihara}.システムは論文タイトルを入力にとり,興味を値として推定しこの値によって入力されたタイトル群に順位を付与している.興味の値としてタイトルに含まれる名詞の分かりやすさと,単語の組み合わせの斬新さという2つの尺度からタイトルの面白さを評価している.興味自体の分析を行っている研究として福原らのKANSHINの開発が挙げられる\cite{fukuhara2}.このシステムはBlog記事を大量に収集し時系列分析することで社会の{「関心動向」(トレンド)}を把握することを可能としている.収集した記事から単語が出現する頻度の推移を分析し,興味の発生を{「関心パタン」}として周期型,漸次増加型,突発型,関心持続型,その他の5つに分類している.さらに単語と気温の関係のような出現単語と現実で起こる現象の関係についても議論を行っている\cite{fukuhara2005acp}.興味を持つ商品や楽曲の推薦を行う研究として協調フィルタリングを使用した研究が挙げられる.協調フィルタリングは複数のユーザが評価したデータが存在する中で,対象者と嗜好等の類似度によって求めたいくつかの類似性の高いユーザの情報を選択し,使用者へ推薦する情報の選別に利用する.個人の興味を対象としプロファイルやユーザー間の類似度を利用して情報の選択を行う.Resnickらはニュースの記事の集合から,対象者の好みに合う記事を推薦するシステムを開発した\cite{Resnick}.個人がニュース記事に付与した5段階の評価値を利用している.Upendraらは楽曲のプレイリスト生成システムを考案している\cite{Upendra}.これは多数の人が作成したプレイリストから対象者にプレイリストを提供するシステムである.これらの研究では単語の出現する頻度を時系列で解析することや,出現した単語の斬新さ等の尺度を定義することによって興味を捉えている.これに対し本論文では文書の内容自体と大衆の興味が反映されているデータを基に興味の強さを推定した.対象とする興味はトレンドのような時間で変動する興味ではなく,語句自体が持つ時系列で変化しない興味の強さである.このような興味を対象に,大衆の興味が反映されているデータから興味の強弱を値として推定する研究は従来行われていない. \section{順位情報付き文書} label{sec_rank}人の興味の情報が得られるものとしてWeb掲示板,Blog,Webページのアクセスランキング,アンケートなどが存在する.我々は大衆の興味を含んでいる情報源として順位情報に注目し,Webで公開されているニュースランキングを選択した.ランキングは不特定多数の利用者の興味が反映されており,大衆の興味を含むデータとして有効である.\subsection{順位情報と興味}\label{sec_RANK-INT}本論文で扱う順位情報について述べる.本論文における順位情報とは,ある対象を一定の基準で並び替えを行い,昇順または降順に付与した順番の事である.順位を付与する際に用いられる基準には様々な種類が存在する.以下に順位情報と順位を決定した基準についていくつか示す.\underline{順位情報と順位の決定基準}\begin{itemize}\itemアクセス数ランキング:アクセス数\item選択式のアンケート:投票数\itemダウンロードランキング:ダウンロード数\item検索キーワードランキング:クエリの使用回数\end{itemize}例として示した順位情報は人に選択されるほど上位の順位が付与される.そのため,順位情報は多数の人の興味が集合した結果であり,大衆の興味を強く反映していると考える.順位を決定する基準であるアクセス数や投票数は人々に選択された数がそのまま反映され直接的に人の興味に関係する.順位情報自体はこの基準の上下関係である.この意味で順位情報は大衆の興味と間接的に関係している情報と考えられる.そこで,本論文では大衆の興味という情報をスコアの形で推定するために,順位情報をアクセス数やダウンロード数に変換することを考えた.\subsection{順位情報の扱い}\ref{sec_RANK-INT}節で述べたように順位情報は興味に対して間接的な関係を示している値である.本論文で集めた順位情報はアクセス数によって順位が決定されている.そこでまず順位情報をアクセス数の値に変換することを考える.これは順位からアクセス数を推定することで行い,順位情報の示す上下関係から順位付けの決定基準に変換することに相当する.この変換によって順位が持っている興味に対する間接的な関係をアクセス数のように興味に対して直接関係する値に変換することが可能になる.アクセス数と順位の間にある関係は経験則でべき乗の法則に従うことが知られている\cite{lada2002}.本論文ではこの経験則を利用して順位を興味に直接関係する値として変換する.順位の変数$r$とアクセス数の変数$h$の関係をべき乗の法則に従うとし,両対数上で直線となる特性から式(\ref{eq_ZIP})が仮定できる.式(\ref{eq_ZIP})に順位とアクセス数の関係式を示す.\begin{equation}\label{eq_ZIP}\mathit{log}(h)=C_{1}-C_{2}\cdotlog(r)\end{equation}式(\ref{eq_ZIP})において$C_{1}$及び$C_{2}$は任意の定数を示している.本研究では式を簡単にするため$C_{1}=C_{2}=1$として扱う.この結果順位$r$からアクセス数$h$を推定する変換式$Hit(r)$を式(\ref{eq_rank2hit})に示す.\begin{equation}\label{eq_rank2hit}\mathit{Hit}(r)=h=10^{-log(r)}=\frac{1}{r}\end{equation}式(\ref{eq_rank2hit})によって文書に付与されている順位$r$はアクセス数に変換される.式(\ref{eq_rank2hit})で表される推定アクセス数は0から1までの値をとり,最大のアクセス数が1となるように正規化されている. \section{提案手法} label{sec_method}本節では文書に興味の強弱を値として付与する方法について提案する.提案手法の概略を図\ref{flow}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia5f1.eps}\end{center}\caption{提案手法の大まかな流れ}\label{flow}\end{figure}文書に含まれる語句の興味の強弱を推定するために,まず文書に含まれる形態素から内容語を興味判別の素性として抽出した.なぜなら文書が興味を持たれるかはその文書の内容に依存しており,人が文書の興味を判断する際に文法的機能を示す機能語では直接的に興味を引く対象にはならないと考えたためである.次に,今注目している素性が興味を引くかどうかを興味の強弱の値で表すことによって推定する.興味を値で推定する方法として学習データを利用した2つの尺度を用いた.1つ目の尺度として学習データにおいて順位付き文書に出現する回数と順位無し文書に出現する回数の割合を使用した.これは,興味を持たれやすい文書はランキングに出現しやすく,それに伴って文書に含まれる内容語がランキングの中で出現する回数が多くなると考えるためである.2つ目の尺度は出現順位である.興味が持たれやすいならば高い順位に出現することが多くアクセス数も高い値を持つと考える.ここでは順位から推定したアクセス数の平均を利用した.以上2つの尺度を本論文では興味を推定するために用いる.最後に文書自体に興味の強弱を値で付与する.文書の興味の強弱は文書に含まれる素性に付与された興味の強弱の値によって決定する.以上の3つのステップで本システムは興味の強弱に関する値を文書に付与する.\begin{enumerate}\item興味を推定するための素性の抽出\\入力された文書を形態素解析し内容語を抽出する.\item素性の興味強度の推定\\順位付き文書を利用して素性に興味の強弱を値で付与する.\item文書の興味強度の推定\\文書に対して興味の強弱を値で付与する.\end{enumerate}次節より各ステップの詳細について説明する.\subsection{興味を推定するための素性の抽出}\label{nai}入力されたそれぞれの文書から興味の判別を行う際に重要であると考えられる素性を抽出する.形態素解析器に茶筌\footnote{形態素解析器ChaSen,Ver.~2.3.3,奈良先端科学技術大学院大学松本研究室,http://chasen.naist.jp/hiki/ChaSen/.}を用いた.人が文書に対して興味があるかどうか判断する場合,助詞,助動詞,接続詞などの機能語に注目することは考えにくく,文書の内容が表れている内容語が重要であると考える.また出現した単語の順序よりも,どのような単語が出現しているかが重要であると考える.そこで,文書を内容語の集合(bag-of-words)で表現することにした.本論文で抽出する内容語の品詞を茶筌(IPADIC)の品詞体系に従って次に示す.\underline{使用する品詞}\begin{enumerate}\item名詞(一般,固有名詞,サ変接続,形容動詞語幹)\item動詞(自立)\item形容詞(自立)\end{enumerate}ただし,以下に示す8形態素は出現頻度が非常に多く,また他の語句の補助的な機能を持つ語句であることから興味の強弱の判断材料として不向きであるため,ストップワードとする.\underline{ストップワード}\vspace{0.5\baselineskip}\begin{center}\fbox{する,ある,よる,いる,なる,いう,みる,できる}\end{center}\vspace{0.5\baselineskip}抽出処理の例を\exref{chasenex}に示す.\begin{itembox}{\ex{}\label{chasenex}内容語の抽出処理}入力:共産社民両党に国会を混乱させたことをわびた.\\抽出単語:共産,社民,党,国会,混乱,わびる\end{itembox}本節で述べた品詞,条件を持つ内容語について次節以降の処理を行う.\subsection{素性の興味強度の推定}\label{calc_int}対象となる素性に学習データを利用して興味の強弱を値として与える方法について述べる.学習データはあらかじめ用意しておいた順位情報が付与されている文書,及び順位情報が付与されなかった文書の集合である.文書自体の興味の強弱が内容語に左右されるとしたときに,内容語自身が持つ興味への影響の強弱は,注目している内容語が学習データの順位付き文書において出現する回数及びその順位に関係していると考えられる.\underline{興味に関係する要素}\begin{itemize}\item順位情報付き文書に出現した文書数\item順位情報無し文書に出現した文書数\item順位別出現文書数\end{itemize}入力文書から抽出した素性には,興味の強弱に基づいた値として興味スコアを付与する.興味スコアを付与するために以下の処理を行う.\begin{enumerate}\item学習データにおける対象素性の各出現回数を数える.出現回数は順位情報付き文書に出現した文書数,順位情報無し文書に出現した文書数,各順位における出現文書数の3種類である.\item対象が学習データ内で一度も出現していない場合,興味スコアの付与は困難であるため興味スコアの付与は行わずに素性の集合から取り除く.\item各種出現回数から興味スコアを付与する.\end{enumerate}本論文では興味を2つの尺度で評価する.まず平均アクセス数の形で興味を評価する方法について述べる.入力文書$D$に含まれる素性を$w$として$w$が順位$r$に出現した文書数$Rank\_DF_{r}(w)$,素性$w$が順位情報付き文書に出現した文書数を$Ranked\_DF(w)$,素性$w$が順位情報無し文書に出現した文書数を$UnRanked\_DF(w)$と表す.このとき素性$w$について平均アクセス数$Average\_Hit(w)$を式(\ref{all_hit})によって求める.順位$r$をアクセス数に変換する関数$Hit(r)$は式(\ref{eq_rank2hit})を用いる.式(\ref{all_hit})における$M$は順位付き文書に付与される順位で最も低い順位を示す.\begin{equation}\label{all_hit}Average\_Hit(w)=\frac{\sum_{r=1}^{M}(Hit(r)\cdotRank\_DF_{r}(w))}{Ranked\_DF(w)}\end{equation}次に,興味を持たれる要素ならば順位付き文書に出現する回数が多いという観点から素性$w$が全文書に対して順位付き文書に出現する割合を$Ranked\_Ratio(w)$で示し式(\ref{prob})を用いる.\begin{equation}\label{prob}Ranked\_Ratio(w)=\frac{Ranked\_DF(w)}{Ranked\_DF(w)+UnRanked\_DF(w)}\end{equation}以上2つの尺度から素性$w$の興味スコア$Interest(w)$を式(\ref{bow})によって算出する.\begin{equation}\label{bow}Interest(w)=Average\_Hit(w)\cdotRanked\_Ratio(w)\end{equation}それぞれの素性について式(\ref{bow})を使って興味スコアを決定する.この時,興味スコアが算出できなかった素性は除外する.こうして入力文書$D$に対して値が決定できた興味スコア列を$F$で示し文書の興味推定に使用する.興味スコアの作成例を\exref{chasenex2}に示す.\vspace{0.5\baselineskip}\begin{itembox}{\ex{}\label{chasenex2}興味スコア列の作成\\}入力$D_0$:南極観測隊の越冬交代式が1日,昭和基地で開かれた.\\抽出単語:{南極,観測,越冬,交代,昭和,基地,開く}\\[-0.5zw]{\small\begin{center}\begin{tabular}{c||c|c|c|c|c|c}\hline&&&\multicolumn{3}{c|}{$Rank\_DF_{r}$}\\\cline{4-6}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{素性}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{$Ranked\_DF$}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{$UnRanked\_DF$}&$r=1$&${r=2}$&${r=3}$&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{$Interest$}\\\hline南極&2&3&1&0&1&0.266\\観測&1&3&0&1&0&0.125\\越冬&0&3&0&0&0&0\\交代&0&0&0&0&0&---\\昭和&2&2&0&2&0&0.25\\基地&0&0&0&0&0&---\\開く&1&9&0&0&1&0.033\\\hline\end{tabular}\end{center}}\par\vspace{0.5zw}興味スコアの計算例(南極):\begin{align*}\mathit{Interest}(南極)&=Average\_Hit(南極)\cdotRanked\_Ratio(南極)\\&=\frac{\frac{1}{1}+\frac{1}{3}}{2}\cdot\left(\frac{2}{2+3}\right)=0.266\end{align*}興味スコア列:$F_0=\{0.266,0.125,0,0.25,0.033\}$\end{itembox}\subsection{文書の興味強度の推定}入力文書$D$から作成した興味スコア列$F$を利用して興味の強弱を値とした文書興味スコアを文書に付与する方法について述べる.入力文書に含まれる素性それぞれが,順位に対して影響を与えるとしたとき,興味スコアの高い素性は順位を上げる要素であり,興味スコアの低い素性は順位を下げる要素である.そこで,入力文書$D$に含まれる素性から作成した興味スコア列$F$を使用して文書興味スコアを式(\ref{txt_bow})によって算出する.\begin{equation}\label{txt_bow}Interest\_Doc(D)=\frac{1}{N}{\sum_{val\inF}val}\end{equation}式(\ref{txt_bow})において,$F$は入力文書$D$から作成した興味スコア列を示し,$N$は$F$の興味スコア列の要素数を示している.\exref{chasenex2}に示した入力文書$D_0$の興味スコアは\exref{text}に示すように計算される.\begin{itembox}{\ex{}\label{text}文書興味スコアの算出}\vspace{-1\baselineskip}\begin{align*}Interest\_Doc(D_0)&=({0.266+0.125+0+0.25+0.033})\div{5}\\&=0.132\end{align*}\vspace{-1.5\baselineskip}\end{itembox}本研究では入力文書に文書興味スコアを計算し順位を付与するシステムを構築した.入力文書の順位付けは各入力文書について式(\ref{txt_bow})を使用して文書興味スコアを付与し,スコアの高い順に順位を与える.システムは順位の高い順に出力を行う. \section{評価実験} label{sec_expeval}\subsection{評価方法}\label{eval_method}本論文の評価はシステムが付与したランキングの上位文書がより多くの人に興味を持たれているかを確認する事である.実際の順位が付与された文書を含む文書群を入力とし,システムが付与した順位と実際の順位を比較することで評価を行った.このとき実際に付与されている順位を正解として扱っている.本論文ではシステムの出力順位と実際の順位が近似しているほど高精度であると考え,評価式は相関係数を求めるSpearmanの順位相関係数\cite{Spearman}を基に式を拡張して用いた.Spearmanの順位相関係数$\gamma$を式(\ref{spearman})に示す.式(\ref{spearman})において$n$は入力順位の総数,$d_i$は$i$番目に入力された2つの順位$x_i$,$y_i$の差分を示している.\begin{gather}\gamma=1-6\cdot\frac{\sum_{i=1}^{n}(d_i)^2}{n\cdot(n^2-1)}\label{spearman}\\d_i=x_i-y_i\label{spearman2}\end{gather}本論文における精度はシステムの出力した順位と実際の順位が類似するほど精度が高いとする.本評価では式(\ref{spearman2})を式(\ref{eval2})の様に変更して評価式として扱う.式(\ref{eval2})において$m$番目にシステムが出力した順位と正解順位の対を$Rank\_Sys_{m},Rank\_Ans_{m}$と示す.\begin{gather}d_m=\begin{cases}Rank\_Sys_{m}-Rank\_Ans_{m},&if~exist\Rank\_Ans_{m}\\0,&otherwise\end{cases}\label{eval2}\\Rank\_Sys_{m}=m\label{eval3}\end{gather}式(\ref{eval2})を使った場合式(\ref{spearman})において,$n$は入力文書の総文書数を示し,$i$はシステム出力の順位,$d_i$はシステムの順位と実際の順位との差を示している.ただし順位の差を計算する上で実際の順位とシステムの順位の両方の値を持つ文書のみに対して順位差$d_i$を計算を行う.これは正解の順位が正確に得ることが出来ないためである.評価式は以下に示す情報が反映されている.\begin{itemize}\item実際の順位とシステムの順位の差\item興味を持たれなかった記事がシステムの上位に出現する数\end{itemize}評価式において上記の項目が大きい値を持つとき評価値を下げることになる.評価式は$-1$から1までの値をとり,評価式の結果が1に近づくほどシステム出力の順位と実際の順位が近いことを示す.評価値が1に近づくことはシステムが大衆の選択した文書に高い順位を与え,さらにシステムの出力した順位と正解の順位が近いことを示す.また評価の結果が1の時,システムの出力した順位と実際の順位に差が全くないことを示している.評価式を使った計算を\exref{evalex}に示す.\begin{itembox}{\ex{}\label{evalex}様々な正解に対する評価値の計算}入力文書数を10文書とし正解が1位,2位,3位の3つの場合の計算を示す.空欄は順位が無いことを示している.\vspace{0.5zw}\begin{center}{\small\begin{tabular}{c|cccccccccc}\hlineシステム順位&1&2&3&4&5&6&7&8&9&10\\\hline正解順位1&1&&2&3&&&&&&\\正解順位2&3&&1&&&&2&&&\\正解順位3&1&2&3&&&&&&&\\正解順位4&&&&&&&&3&2&1\\正解順位5&&&&&&&&1&2&3\\\hline\end{tabular}}\end{center}\vspace{0.5zw}各評価値の計算を以下に示す.\\{\setlength{\baselineskip}{12pt}正解1:$1-6\cdot({0+1^2+1^2})\div({10\cdot(10^2-1)})=0.99$\\正解2:$1-6\cdot({-2^2+2^2+5^2})\div({10\cdot(10^2-1)})=0.81$\\正解3:$1-6\cdot({0+0+0})\div({10\cdot(10^2-1)})=1$\\正解4:$1-6\cdot({5^2+7^2+9^2})\div({10\cdot(10^2-1)})=0.07$\\正解5:$1-6\cdot({7^2+7^2+7^2})\div({10\cdot(10^2-1)})=0.11$\par}\end{itembox}\subsection{学習データの収集}\label{sec_collect_learn}本論文ではランキングに付与されている順位情報を用いるために順位情報が付与されている文書を収集した.順位付き文書の収集源として我々はニュースランキングに着目した.順位情報が付与されている文書が新聞記事であるため,形態素解析などの処理が容易であり,また閲覧数を基にランキング付与を行っているという点において大衆の興味への関係性が高いと考えたからである.本論文では順位付き文書を朝日新聞社の「アクセスTop30」\footnote{アサヒ・コムアクセスTop30,http://www.asahi.com/whatsnew/ranking/.}を対象に収集した.このランキングはWeb上で公開されており,掲載される記事のジャンルは,社会,スポーツ,ビジネス,暮らし,政治,国際,文化,芸能,サイエンスと広範囲の記事が含まれている.収集時期において朝日新聞社が公開していたニュースランキングは,順位を決定する基準として0時から24時までの24時間分の総アクセス数を使用し,アクセス数の多い順番で順位を決定している.また,このニュースランキングでは全ての記事の順位が公開されているのではなく,アクセス数上位30位以内の記事が順位と共に公開されている.アクセス数は公開されていない.順位の決定に24時間分の総アクセス数を用いているので,ランキングの中にはその時間内に掲載された記事だけではなくアクセス数の収集期間よりも以前に掲載された記事も含まれている.よって,ランキングに複数の日で出現する記事が存在するため,記事には複数の順位情報が付与されることもある.記事の収集については順位付きの記事だけではなく,順位が付かなかった記事についても収集を行い,順位付き文書と順位無し文書の両方を学習データとして用いている.実際に記事を収集した期間は2004年1月1日から2004年12月31日までの1年分について収集を行った.表\ref{learn}に収集データの詳細を示す.\begin{table}[b]\caption{収集した学習データの統計データ}\label{learn}\input{05table01.txt}\end{table}\subsection{評価対象}\label{sec_collect_eval}評価対象として入力する文書は同一の掲載日付でまとめた記事の集合である.システムは各記事に文書興味スコアを付与し,このスコアによって順位を付与して出力する.この入力文書の掲載日付に対して次の日に掲載されるランキングを参照し,システムの順位と実際の順位の対応を作成しこの2つの順位の比較を行う.評価用データとして収集する文書は学習データと同様に朝日新聞社の「アクセスTop30」とした.抽出した記事から順位情報付き文書と順位情報無し文書を掲載日付で分割したテストセットを作成した.収集期間は学習データと異なる2005年3月の1ヶ月を収集の期間とし,テストセットを30セット作成した.この時のテストセットに含まれている順位付き文書を正解として扱う.また,朝日新聞社のニュースランキングは順位付き文書を30位まで取得することができるが,ランキングに含まれる文書は同一の掲載日付のみではないため1つのテストセットに含まれている順位付き文書数は30未満になる場合もあり,順位付き文書数はテストセットによって左右する.作成したテストセットについての詳細なデータを表\ref{testset}に示す.\begin{table}[t]\begin{center}\caption{収集したテストセットの統計データ}\label{testset}\input{05table02.txt}\end{table}1つのテストセットごとに評価式(\ref{spearman})及び式(\ref{eval2})を使用して評価を行い全テストセットの平均値をシステム全体の評価値とする.\subsection{システムの評価}\label{sec_eval_main}実験では入力文書に順位を付け正解順位との比較を行うことを評価している.システムの出力例を付録に示す.評価値の比較のため次の2つのモデルを考える.\begin{itemize}\itemランダム\\入力記事群にランダムに順位を付与する.\itemIDFを用いた手法\\対象素性$w$の興味の強さを$Interest(w)$の代わりに文書に含まれる語句の特徴性を表す$idf$と対象素性が順位付き文書に出現する割合$Ranked\_Ratio(w)$を使用して素性の興味スコアを計算する.計算式を式(\ref{idfP})に示す.\end{itemize}\begin{equation}\label{idfP}Interest_{idf}(w)=Ranked\_Ratio(w)\cdotidf(w)\end{equation}式(\ref{idfP})において$Ranked\_Ratio(w)$は学習データから求め,$idf(w)$については別にコーパスを用意し,各形態素の$idf$を算出している.$idf$辞書を作成するために使用したコーパスは日本経済新聞\footnote{日本経済新聞全記事データベース1990年〜2004年,日本経済新聞社.}の1990年から2004年までの14年分である.$idf$をカウントする際の文書の単位は1記事としている.$Interest_{idf}(w)$を$Interest(w)$の代わりに使用して興味スコアを算出し,文書興味スコアの推定に用いる.システムが出力した順位と実際の順位との評価値を図\ref{eval_eq}に示す.図\ref{eval_eq}には各評価対象の評価値の平均,最大及び最低の評価値をエラーバーで示している.\begin{figure}[b]\begin{center}\includegraphics{15-2ia5f2.eps}\end{center}\caption{内容語を素性とした文書の興味推定の評価}\label{eval_eq}\end{figure}図\ref{eval_eq}において提案手法はランダムと比べて平均の評価値で0.17向上している.IDFと比べて提案手法は平均の評価値で0.08向上している.提案手法は平均,最低値,最高値のそれぞれにおいて比較対象より良好な結果を得られることが分かった.次に実際のランキングの30位以内に出現した記事を正解記事として,システムの上位10記事分を取り出した場合の正解記事の抽出精度を調査した.表\ref{eval_2}にシステムの出力上位10記事に注目した抽出精度を示す.比較対象として先ほど述べた2つに加えSVM\footnote{SVM学習ツールTinySVM,Ver.~0.09,奈良先端科学技術大学院大学松本研究室,http://chasen.org/\~{}taku/\linebreak[2]software/TinySVM/.}による分類器を追加した.SVMの学習は内容語を素性に順位付き文書を正例,順位無し文書を負例として行っている.使用したカーネルは線形カーネルである.SVMの抽出精度については10記事分ではなく分類の結果正例として出力された中で正解記事が含まれている割合を示している.SVMは評価条件が違うため正確な比較ではないが,提案手法は他に定義した比較して,ランダムに比べて約26ポイント,IDFに比べて約24ポイント,SVMに比べて約13ポイント向上している.\subsubsection{品詞別に分けた評価}\label{pos_vary}内容語の中でどのような語が興味の強弱の判別に貢献しているか調査するため内容語を品詞別に分けて評価実験を行った.\tableref{var_pos}に品詞別の評価を示す.表において使用した品詞は○,未使用の品詞は空欄となっている.表\ref{var_pos}より以下の事が分かった.\begin{itemize}\item全ての品詞を使った場合の評価値が0.862であり名詞のみを使った場合の評価値が0.858であることから,名詞の貢献する割合が大きく名詞は興味判別のために重要である.\item動詞,形容詞は文書の興味の判別に対する貢献は小さいが全体の精度を下げるものではない.\end{itemize}影響が最も大きかった名詞をさらに品詞詳細に分けて評価を行った結果を表\ref{var_pos2}に示す.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{興味を持たれる記事の抽出精度}\input{05table03.txt}\label{eval_2}\end{minipage}\begin{minipage}{0.45\textwidth}\caption{品詞別に分けた評価実験結果}\input{05table04.txt}\label{var_pos}\end{minipage}\end{table}\begin{table}[b]\caption{名詞を詳細別に分けた評価実験結果}\input{05table05.txt}\label{var_pos2}\end{table}以上より興味を判別する際に重要となる語句は名詞—一般,名詞—サ変,動詞,名詞—固有名詞,形容詞の順で重要であることが分かった.\subsubsection{学習データ内の出現回数と精度}\label{th}次に,興味を判定する素性である内容語が学習データ内の出現回数によって評価値とどのような関係があるか調査を行った.これは出現回数が少ない素性に付与した興味スコアが不安定であることが評価値にどの程度影響を与えるのか調べるためである.また出現回数の多い素性は文書を興味の強弱で判別することに不向きであるかどうかも確認することができる.実験は学習データ内に出現した回数で閾値を設定し閾値以上又は閾値以下の出現回数であった内容語は文書の興味の推定の時に扱わないようにして行った.出現回数が閾値以下の素性を削除して実験を行った結果を図\ref{down}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia5f3.eps}\end{center}\caption{出現回数が閾値以下の素性を削除した評価値の変動}\label{down}\end{figure}図\ref{down}より学習データにおいて頻度が少なかった素性を削除した結果,特に「出現回数1回以下を削除」から「出現回数5回以下を削除」において精度の低下は見られなかった.この原因は学習データにおいて出現回数が少ない語が評価対象として入力する文書にも出現することが少ない事,また出現回数が少ない素性に付与する興味スコアの信頼性が低い事が挙げられる.出現回数が少ない素性は1回の出現回数の増加で興味スコアが大きく変化することからスコアが不安定であり信頼性を低いとしている.次に出現回数が閾値以上の素性を削除して実験を行った結果を図\ref{up}に示す.図\ref{up}より学習データにおいて閾値より頻度が多い素性を削除した結果,閾値を下げていくと閾値が1,000までは精度の向上が見られた.出現頻度が高い語を削除しても精度に変化が表れなかったことから,これらは興味を判別する要素として重要ではないと考えられる.以上の結果から評価値の低下が見られなかった「出現回数5回以下を削除」及び「出現回数1,000回以上を削除」の両方を利用した.その結果,評価値で0.865であり,閾値が無い場合の評価値(\tableref{var_pos}の最大値0.862)と比較して精度が上昇したことが確認できた.これにより「出現回数5回以下」及び「出現回数1,000回以上」は全体として興味判別に貢献していないと考える.\subsubsection{素性に付与されたスコア}\label{scoring}興味スコアの値が付いた素性の観測結果について述べる.\pagebreak素性に付与した興味スコアについて並び変えを行い,スコアの上位と下位からいくつかの内容語を例として\exref{score1}及び\exref{score2}に示す.\begin{itembox}{\ex{}\label{score1}高い興味スコアが付いた内容語}\begin{center}乱造,落葉,撲殺,偏愛,鉢巻き,作画,倦怠,怪死,往還,討伐\end{center}\end{itembox}\begin{itembox}{\ex{}\label{score2}低い興味スコアが付いた内容語}\begin{center}調べ,調査,入る,予定,述べる,会社,関係,求める,発表,東京\end{center}\end{itembox}\begin{figure}[t]\begin{center}\includegraphics{15-2ia5f4.eps}\end{center}\caption{出現回数が閾値以上の素性を削除した評価値の変動}\label{up}\end{figure}興味スコアが高い値の語句の特徴としては低頻度の語が多く,低い値の語句の特徴としては高頻度の語,経済のジャンルに属する語句及びスポーツのジャンルに属する語句が多いという傾向が分かった.これはシステムが出力する順位の結果においてもスポーツ記事全般と経済に関する記事の興味スコアが低いという同様の傾向が得られている.よって今回の順位付けは大きく分けて経済記事,スポーツ記事,その他の記事の3種類の特徴を捕らえているようになっていることが考えられる.これは記事の特性上,スポーツ記事では記事間で同様の単語が使われることが多いため,それらの単語が順位付き文書で使用される割合が減少し,この結果興味スコアが低くなったと考える.また,経済の記事は全経済記事に対して順位付き記事に表れる割合が少ない.以上の傾向は大衆の興味をとらえるという点では妥当な結果と考えられる.また\exref{ex_var}に示すような動詞は\ref{pos_vary}節で述べたように興味推定の貢献度は少なかった.これは内容語単体では興味を推定するのに情報が不十分であることが考えられる.これは,一部のサ変名詞にも言えることである.例えば\exref{ex_var}にある「結婚」という語句については「結婚」自体が興味を持たれるのでは無く,それと共に出現する語句を同時に扱うことで情報に限定性が付与され興味の対象となると考える.例えば「結婚」と「タレント+結婚」では興味を判別すると言う観点から語句に含まれる情報が違うと考える.さらに,「タレント」の部分は固有名詞まで限定できた方が興味の判別要素としては適切なのかもしれないが,この処理を行うのは容易ではない.固有名詞は数多くあって統計的扱いが困難なためである.\begin{itembox}{\ex{}\label{ex_var}単体では興味の判別要素にならない語句}\begin{center}入る,述べる,求める,発表,結婚,調査\end{center}\end{itembox}複合名詞の問題も存在する.例えば「首相官邸」などの語が「首相」と「官邸」に分けられた状態でしか扱っていないため語句が示す意味が実際とは異なってしまうことが挙げられる.複合名詞になって初めて興味を判断できるとするならば改善が必要である.以上の考察から次節以降では素性がもつ情報量を増やす方向で拡張を試みる. \section{処理単位の拡張} label{sec_method2}前節で述べた内容語を素性とした興味判別は記事の内容を特定する情報が少なく,判別する要素として十分ではないことが問題として分かった.この問題に対応するため,処理の単位の拡張を行った.提案する処理単位を以下に示す.\begin{itemize}\item[1]複合名詞を素性として抽出\item[2]内容語及び複合名詞の組み合わせを素性として抽出\end{itemize}以降では,内容語及び複合名詞の組み合わせを「複合素性」と呼び,興味の推定に使用する.次節より,複合名詞を素性として抽出する方法,複合素性を抽出する方法,拡張した素性を使って文書に興味のスコアを付与する方法について順に述べる.\subsection{複合名詞の抽出}\label{fukugou}入力されたそれぞれの文書から興味の判別を行う際に重要であると思われる素性を複合名詞として抽出する.複合名詞の研究は盛んに行われており,本論文では専門用語の抽出\cite{Nakagawa2003}を参考に複合名詞を作成した.複合名詞の作成対象となるのは名詞,接尾辞,接頭詞の連続部分である.複合名詞作成にあたって以下に示す出現回数をコーパスよりカウントする.\begin{itemize}\item2単語の文中における共起回数をコーパスよりカウントする\item2単語の連接回数をコーパスよりカウントする\item2単語それぞれに連接する名詞の種類数をコーパスよりカウントする\end{itemize}本研究では複合名詞作成のコーパスとして日本経済新聞1990年から2004年までの14年分を使用した.連接した2つの形態素を「$ij$」とした場合,$i$と$j$が文中において共起する回数を$Count_{co}(i,j)$,$i$の後に$j$が連接する回数を$Count_{bigram}(i,j)$,前方の語$i$の後に連接する名詞の種類数を$Count_{var}(i)$,後方の語$j$の前に連接する名詞の種類数を$Count_{var}(j)$としたとき以下の条件のいずれかに一致するものを複合名詞とした.\underline{名詞の結合条件}\begin{itemize}\item条件1:\begin{equation}Count_{bigram}(i,j)\div{Count_{co}(i,j)}>0.01\end{equation}\item条件2:\begin{equation}\sqrt{(Count_{var}(i)+1)^2+(Count_{var}(j)+1)^2}>100\end{equation}\end{itemize}3語以上の複合名詞はそれぞれの形態素間について同様の方法を用いて判定を行う.複合名詞の作成例を\exref{fukuex}に示す.\begin{itembox}{\ex{}\label{fukuex}複合名詞の判定\\}入力を「競売入札価格の決定」としたとき名詞が連続している部分は{競売,入札}と{入札,価格}の部分である.この2つについて複合名詞の判定について行う.\vspace{0.5zw}\begin{center}\begin{tabular}{c|c|c|c}\hline対象&条件1&条件2&判定\\\hline競売,入札&0.913&368.5&結合\\\hline入札,価格&0.195&1191.8&結合\\\hline\end{tabular}\end{center}\vspace{0.5zw}{競売,入札}と{入札,価格}の両方が複合名詞として扱う条件を満たしているため「競売入札価格」を複合名詞として扱う.\end{itembox}以上の手順で複合名詞を作成し,興味の判別素性として用いる.また複合名詞にならないものは興味判別の素性として扱わない.\subsection{複合素性の抽出}\label{taple}入力されたそれぞれの文書から興味の判別を行う際に重要であると思われる素性を内容語及び複合名詞を組み合わせた複合素性として抽出する.そのため\ref{fukugou}節で述べた複合名詞の処理も行う.複合名詞とならなかったものは内容語として扱う.文書の形態素解析を茶筌で行い,文書が内容語のみによって構成されているとし,まずは連接している名詞に対して複合名詞処理を行い,複合名詞と内容語の集合を作成する.入力文書と複合名詞処理後の結果の例を\exref{ex複合}に示す.内容語を抽出する条件は\ref{nai}節と同様である.\begin{itembox}{\ex{}\label{ex複合}複合名詞と内容語の抽出}入力:インド北部で厳しい冷え込みが続いている.\\抽出単語:インド北部,厳しい,冷え込み,続く\end{itembox}\exref{ex複合}に示した内容語と複合名詞の集合から次に示す条件で組み合わせを作成する.\underline{組み合わせの作成条件}\begin{itemize}\item内容語及び複合名詞の出現順は考えない.\item組み合わせの作成は1つの文中から探す.\item2要素からなる組み合わせで行う.\item組み合わせを出現文書数でカウントする.\item学習データ内で出現文書数5以下1,000以上の組み合わせは扱わない.\end{itemize}出現文書数の閾値は\ref{th}節の内容語を素性とした評価で最も良好な結果を得られた下限閾値5及び上限閾値1,000をそのまま適用した.\exref{ex複合}の内容語及び複合名詞から複合素性を作成した例を\exref{extaple}に示す.\begin{itembox}{\ex{}\label{extaple}複合素性の作成}\begin{center}{インド北部,厳しい},{インド北部,冷え込み},...,{冷え込み,続く}\end{center}\end{itembox}複合素性は,2要素からなる素性集合の全部分集合である.本節で説明した複合素性を1つの素性として扱い,\ref{calc_int}節で述べた方法で興味スコアを付与し,これを利用して文書興味スコアの付与を行う.\subsection{拡張した素性を使った文書興味スコアの計算方法}入力文書$D_i$に対して内容語,複合名詞,複合素性の3種類の素性集合が抽出できる.それぞれに対して式(\ref{all_hit})及び式(\ref{bow})を使って興味スコア列を作成する.値が付与できなかった素性はこの時点で除去される.作成した興味スコア列をそれぞれ,内容語を$F_i$,複合名詞を$C_i$,複合素性を$T_i$として,全ての素性を利用するときの文書興味スコアを式(\ref{txt_EX})に示す.\begin{align}\label{txt_F}F_i&=\{Val_{1},Val_{2},...,Val_{N_F}\}\\C_i&=\{Val_{C1},Val_{C2},...,Val_{N_C}\}\\T_i&=\{Val_{T1},Val_{T2},...,Val_{N_T}\}\end{align}\begin{equation}Interest\_Doc'(D_i)=\frac{\sum_{Val\inF_i,C_i,T_i}Val}{N_F+N_C+N_T}\label{txt_EX}\end{equation}式(\ref{txt_EX})において$N_F$,$N_C$,$N_T$はそれぞれの興味スコア列の要素数を示している.この評価式を使って文書興味スコアを文書に与え,スコアが高い順に文書に順位を付ける. \section{拡張した素性の評価} label{sec_evalexp2}評価方法は\ref{eval_method}節と同様の方法を用いる.内容語を素性とした場合では\ref{th}節で最もよい評価値を得られた下限閾値5回及び上限閾値1,000回の結果を採用している.使用する素性を内容語,複合名詞,複合素性,内容語と複合名詞,内容語と複合素性,内容語と複合名詞と複合素性の6種類について評価を行った.評価結果を表\ref{sandan}に示す.表において文書興味スコアの算出に使用した素性は○,未使用の素性は空欄となっている.\begin{table}[b]\caption{拡張した素性を使った評価実験}\input{05table06.txt}\label{sandan}\end{table}表\ref{sandan}より拡張した素性である複合名詞,複合素性だけを使用した場合の精度は内容語のみを使用した場合より精度が低下している.しかし内容語の素性と同時に使用する場合において精度は向上する事が分かった.複合名詞のみ及び複合素性のみを使用した2つの評価では値を付与できない記事,つまり値を付与できる素性が1つもない記事が発生した.これは,素性の情報量を増やすことで使用できる素性が減少し評価値及び抽出精度が落ちたと考えられる.複数種類の素性を使用した場合の精度の向上については,内容語を素性とした方法が他の2つを素性とした場合のスパースな部分において補完が行われ,さらに内容語だけでは得られなかった情報が追加されたことになるため精度が向上したと考える.最も評価値が上昇したのは内容語と複合名詞と複合素性の全てを素性として使用する場合であり,評価値で0.867,抽出精度で0.57という結果が得られた.\subsection{システム出力の観察}使用する素性を変化させたときにシステムの出力にどのような変化が起こっているのか確認する.システムが出力した順位の上位10位,上位30位,下位10位,下位30位について実際に順位が付与されている記事(正解記事)が含まれている数について調査を行った.システムの上位及び下位における正解記事数を表\ref{ch}に示す.表\ref{ch}の「全て」は内容語と複合名詞と複合素性を素性として使用することを示す.表\ref{ch}より拡張した素性を加えるとシステム上位10記事の結果では順位が実際に付与されている記事数が160記事から171記事に増加した.またシステム下位30記事の結果では正解76記事から75記事に減少した.内容語,複合名詞,複合素性の全てを用いた場合システムの出力において上位の変動が11件確認でき下位の変動は1件であった.上位の変動が下位より大きく表われ,精度の向上は主にシステム上位部分で発生している事が分かった.\begin{table}[t]\caption{システム出力に含まれている正解記事数}\input{05table07.txt}\label{ch}\end{table}システムの出力において正解記事が出現する偏りの傾向について述べる.表\ref{ch}に示したシステムの上位30位と下位30位に含まれる正解数から,順位付きの記事が含まれる傾向は上位30記事に387記事,下位30記事に75記事であった.従って上位には下位より約5倍ほど正解記事が出現しやすく正解記事がシステムの上位に強く偏る傾向が見られる.次にシステム出力の下位の記事を興味を持たない記事として抽出することに利用することについて述べる.興味を持たない記事は評価用のテストセット内で順位無し記事であり,テストセットにおける興味を持たない記事の割合は0.754である.表\ref{ch}より,システム出力の下位10記事を抽出した場合,300記事の中で289($=300-11$)記事が順位無し記事(ほとんど興味を持たれない記事)である.従って興味を持たれない記事の抽出精度としては0.97($=289\div300$)という精度であった.また下位30記事を見た場合においても興味無し記事の抽出精度は0.92($=1-76\div900$)である.システムの下位30記事を抽出する場合,900記事が対象であるため全記事の2,958記事に対して約3割($=900\div2985$)の記事に対して抽出精度0.90を超える精度で興味を持たれない記事の抽出が期待できる.\subsection{順位を大きく誤った記事に対する考察}評価実験の結果,文書興味スコアから付けた順位が正解と離れている文書についてその原因を考察する.観察対象は,システム出力の下位から10文書を取り出したときに含まれている順位付き記事である.この記事は興味ありを興味無しと判断した誤りである.システムが付けた順位の下位から10文書に出現した順位付き記事を\exref{err}に記事タイトルで示す.\begin{itembox}{\ex{}\label{err}システムの下位に出現した正解記事}(22)量的緩和解除,静かな幕開け福井総裁は国会答弁5時間\\(26)佐々木が2位,日本人最高順位タイスキーW杯男子回転\\(26)チーム青森,常呂中破り決勝にカーリング日本選手権\\(22)将棋名人戦,谷川九段が挑戦権を獲得羽生三冠を破る\\(17)中村が活躍,セルティックVスコットランドサッカー\\(29)大久保が同点ゴールスペイン1部サッカー\\(14)日本のチーム長野は5連敗カーリングの女子世界選手権\\(16)朝青龍16度目の優勝決定戦で白鵬下す大相撲春場所\\(26)共済年金の上乗せ給付,10年新規加入者から廃止へ\\(15)安保理拡大,日本が21カ国案の提出断念米の支持なし\\*()内の数字は実際の順位である.\end{itembox}\exref{err}に示した順位付きの記事は低い順位の記事が占めている事が分かる.これらの記事が下位に出現した原因として未知語処理に関する問題が挙げられる.学習データに出現しない語句はシステムにおいて除外しているため興味スコアに反映されない.例えば\exref{err}に示した「チーム青森,常呂中破り決勝にカーリング日本選手権」では「カーリング」という語句は抽出できていない.スポーツ記事が占める割合が高いのは,\secref{scoring}で述べた類似した記事が大量に存在することで素性に付与される興味スコアが低下しやすい状況にあるからだと推測する.次に,システム出力の上位から10文書を取り出したときに含まれている順位無し記事を対象にする.その記事は興味無しを興味ありと判断した誤りである.システムの出力で上位から取り出した10文書に出現した順位無し記事について記事のタイトルを\exref{err2}に示す.\begin{itembox}{\ex{}\label{err2}システムの上位に出現した不正解記事}登校中の中学生切られる男が逃走愛知・美和町\\スーパーにライトバン突っ込み7人重軽傷山形・川西\\東京の自宅マンション放火事件,中2少年を家裁送致\\集団自殺か,男女3人が車内で死亡弘前・岩木山ろく\\架線にビニールひも付着,東北新幹線に遅れ\\男女4人が集団自殺,車内に練炭静岡市の山間部\\東武伊勢崎線普通列車が停車予定駅を通過\\東京・豊島のマンションに男性の遺体強盗殺人で捜査\\川崎の小3男児転落死マンション15階にランドセル\\女子中学生の顔にスプレー鹿児島・薩摩川内\end{itembox}\exref{err2}の特徴としては事件記事が多く含まれていることが分かる.提案したシステムでは事件ジャンルに属する記事のスコアを高く与える傾向があり,\exref{err2}にあるような「強盗」「自殺」「放火」等の語句が高いスコアを持って記事の中に含まれているため,高い順位が付与される.なお,不正解記事の中には他の正解記事の関連記事や,前日の正解記事の続報である場合もあり,完全な間違いと言い切れない記事も存在した.\subsection{拡張した素性の観察}内容語を使って求めた興味スコアと複合名詞を素性とした興味スコアを比較し,素性を拡張した影響の調査を行った.内容語及び複合名詞の素性から求めた興味スコアの差を「プロ」で始まる語句を例に表\ref{fukugoures}に示す.同様に複合素性を素性とした結果と内容語を使った場合との差を「株価」の語句を含むものを例に表\ref{tapleres}に示す.表では組み合わせた2つの内容語又は複合素性を「:」で分割して表記する.表\ref{fukugoures},表\ref{tapleres}において興味スコアは複合名詞や複合素性から求めた場合の興味スコアを示し,内容語による興味スコアは複合名詞や複合素性に含まれる内容語から求めた興味スコアである.\begin{table}[b]\caption{複合名詞の興味スコア}\input{05table08.txt}\label{fukugoures}\end{table}複合名詞から算出した興味スコアと複合名詞に含まれる内容語から算出した興味スコアについて相関値を算出した結果,相関値は0.698となった.同様に複合素性と内容語による興味スコアの相関値を算出すると0.551であった.両者共に相関係数は高いものであるが,複合名詞を素性とした場合の方が高い相関値を持っている.このことから複合素性の興味スコアよりも複合名詞の興味スコアが内容語の興味スコアにより類似していると考える.そのため評価値も同程度得られると考えられるが,素性の情報量を増やした事でそれぞれの出現回数が減少することによるスパースの問題だけ評価値が下がったと考察する.反対に複合名詞にすることで興味を判別する素性として良くなった例を挙げる.\tableref{fukugoures}にある「プロアイスホッケー」では内容語のみを使用した興味スコアの推定では「プロ」の語句だけで値が付与されている.これを複合名詞として扱うことで「アイスホッケー」を考慮した興味スコアとなり,「プロ」の興味スコア(0.045)と比較して大きく異なる値(0.000)となった.また複合名詞にすることで素性として良くなった別の例では,一般的な名詞同士の複合名詞「日本+経済」,「日本+代表」のような語句に興味スコアの差が表れるようになった.「日本+経済」,「日本+代表」については内容語を素性とした場合,両者の興味スコアは共に0.035であるが,複合名詞の場合では「日本+経済」のスコアが0.009,「日本+代表」のスコアが0.03という結果になっており,後者の興味がはるかに強いことが分かる.\begin{table}[t]\caption{複合素性の興味スコア}\input{05table09.txt}\label{tapleres}\end{table}次に複合素性にすることで興味を判別する素性として良くなった例を挙げる.\tableref{tapleres}にある「株価:売却」と「株価:経営」では内容語による興味スコアにほぼ差が存在しないが複合素性では「株価:売却」の興味スコアが0.009,「株価:経営」の興味スコアが0.068となっている.このように素性の情報量を増やすことで興味スコアに差を得られるようになった.このことが抽出精度が上昇した要因だと考える.次に残された問題点について述べる.複合素性の問題点として,複合素性を作成すると大量の組み合わせが作成されてしまう.本論文では出現頻度5以下を削除しているが,削除された中には実際には有効なデータも含まれていると考える.しかし判断要素として使えない対が有効なデータよりもはるかに大量に含まれているため,現在の方法では精度を下げる要因にしかならない.システムが付与した興味スコアの高い素性と低い素性の一部を\exref{high}及び\exref{low}に示す.\begin{itembox}{\ex{}\label{high}高い興味スコアとなった複合素性}{駐車場:突っ込む},{男性:聴く},{関東:低気圧},{ダイヤ:乱れ},{殴る:現行犯逮捕},{車内:確認},{NHK:現場},{メンバー:人気},{団体:中止},{県警:車内},{救急隊員:駆けつける},{女子生徒:分かる},{現行犯逮捕:調べる},{揺れ:最大},{原因:容疑},{レギュラー:番組},{通行人:110番通報},{女子:盗む},{男性:任意},{駆けつける:女性}\end{itembox}\begin{itembox}{\ex{}\label{low}低い興味スコアとなった複合素性}{ダウ工業株:平均},{ニューヨーク外国為替市場:円相場},{東京株式市場:日経平均株価},{承認:向ける},{状況:厚生労働省},{人:救済},{世界:棒高跳び},{制裁:再開},{奪う:優勝},{農業:求める},{判断:輸入},{粉飾:担当},{保護:批判},{補助金:決める},{目標:抑える}\end{itembox}これらの素性に付与された値の妥当性を個別に判断するのは困難であるが,我々は\exref{high}の素性の方が\exref{low}よりも興味を持たれるのではないかと感じた.\subsection{学習データによる影響}学習データの量と精度の関係を調査するため,学習量を変化させて評価を行った.評価実験は最も良い結果が出た内容語,複合名詞,複合素性の全てを使用した.\secref{sec_collect_learn}において収集した全ての学習データに対して,データ量を減少させて評価を行った.学習データを変化させて評価した結果を図\ref{amount}に示す.図\ref{amount}より学習データの増加に対して評価値の向上が見られる.学習データの増加に対する評価値の向上は今回用意したデータの0.3倍程度(順位付き文書約2,500文書,順位無し文書約7,500文書)のところで精度向上が緩やかになっている.このデータが描く曲線の様子から,データ量を現在の全データよりも2倍,3倍と増やした場合の評価値は0.875程度であると予測する.次に学習データの違いによってどの程度精度に影響するかを調査するためいくつかの学習データを作成した.\secref{sec_collect_learn}で収集した学習データを順位付き文書と順位無し文書の比率を変えないように2分割し,一方を学習データA,残りを学習データBとした.学習データA及びBから無作為にそれぞれ半分づつ取り出して合わせたものを学習データCとした.従ってAB間のデータの重複はなく,AC間及びBC間の重複は50%である.この3種類の学習データに対して評価実験を行った.評価結果を表\ref{oth}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-2ia5f5.eps}\end{center}\caption{学習データの量を変化させた評価実験}\label{amount}\end{figure}\begin{table}[t]\caption{異なる学習データと評価値の関係}\input{05table10.txt}\label{oth}\end{table}表\ref{oth}から学習データを変更させても同程度の精度を得られることが分かった.以上の結果より収集期間に関係なく同じ量の文書を学習データとして用意した場合,同程度の精度を得ることができ,学習データは多いほど良い精度を得ることが期待できる.しかし今回調査した学習量の増加と評価値の増加の2つの関係から,データ量を極端に増やしたとしても精度の向上は評価値で0.875ほどが上限であると予測する.以上の学習データの量を変化させた評価実験と,異なる学習データによる評価実験より,約1万件以上の記事を用意した場合,収集した期間と関係なくほぼ同等の精度が得られることが期待できる.これは,ある程度のデータ量があれば収集した日付の違いによる影響は小さいことを示している. \section{おわりに} 本論文では,順位情報を利用して,文書の興味推定を行うモデルを提案し,大衆の興味が反映されているデータをテストデータとして用いて評価実験を行った.文書の興味推定のための素性として,内容語,複合名詞,複合素性の3種類について実験を行った結果,相関係数を基にした評価値で0.867,システムが付けた順位で上位10記事を出力した場合に,実際のランキングで30位以内の記事が含まれる割合は0.57となった.さらにほぼ興味を持たれない記事を抽出する精度が0.90を超えることが期待できる結果を得た.システムの出力から経済記事が出力下位に非常に多く表われやすい傾向を持つことや実際の順位付き記事が上位に表われやすい傾向から今回付与した興味スコアは大衆の興味を捕らえるのに概ね妥当なものであると確認した.今回はニュースランキングの文書を中心に実験を行ったが,収集が可能であれば他のランキングについても同様の実験を行いランキングが異なることによる特性の違いなどが得られれば興味の判別に役立つと考えている.また本論文では文書に興味の強弱を表すスコアを付与することのみを行ったが今後の課題として文書の中において興味を持たれる要因の自動抽出を考えている.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{福原\JBA村山\JBA中川\JBA西田}{福原\Jetal}{2006}]{fukuhara2}福原知宏\JBA村山敏泰\JBA中川裕志\JBA西田豊明\BBOP2006\BBCP.\newblock\JBOQWeblogから社会の関心を探る\JBCQ\\newblock\Jem{人工知能学会全国大会論文集(CD-ROM)},{\Bbf20}(3D2-1).\bibitem[\protect\BCAY{Fukuhara,Murayama,\BBA\Nishida}{Fukuharaet~al.}{2005}]{fukuhara2005acp}Fukuhara,T.,Murayama,T.,\BBA\Nishida,T.\BBOP2005\BBCP.\newblock\BBOQAnalyzingconcernsofpeopleusingWeblogarticlesandrealworldtemporaldata\BBCQ\\newblock{\BemProc.ofWWW20052ndAnnualWorkshopontheWebloggingEcosystem:Aggregation,AnalysisandDynamics}.\bibitem[\protect\BCAY{藤木\JBA南野\JBA鈴木\JBA奥村}{藤木\Jetal}{2003}]{fuziki}藤木稔明\JBA南野朋之\JBA鈴木泰裕\JBA奥村学\BBOP2003\BBCP.\newblock\JBOQdocumentstreamにおけるburstの発見\JBCQ\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会},{\Bbf160}(23),\mbox{\BPGS\85--92}.\bibitem[\protect\BCAY{中川\JBA湯本\JBA森}{中川\Jetal}{2003}]{Nakagawa2003}中川裕志\JBA湯本紘彰\JBA森辰則\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\bibitem[\protect\BCAY{Adamic\BBA\Huberman}{Adamic\BBA\Huberman}{2002}]{lada2002}Adamic,L.~A.\BBACOMMA\\BBA\Huberman,B.~A.\BBOP2002\BBCP.\newblock\BBOQZipf'slawandtheInternet\BBCQ\\newblock{\BemGlottometrics},{\Bbf3},\mbox{\BPGS\143--150}.\newblockRAM-Verlag,http://www.ram-verlag.de/.\bibitem[\protect\BCAY{Kendall\BBA\Gibbons}{Kendall\BBA\Gibbons}{1990}]{Spearman}Kendall,M.\BBACOMMA\\BBA\Gibbons,J.\BBOP1990\BBCP.\newblock{\BemRankCorrelationMethods}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{西原\JBA砂山\JBA谷内田}{西原\Jetal}{2007}]{nishihara}西原陽子\JBA砂山渡\JBA谷内田正彦\BBOP2007\BBCP.\newblock\JBOQ多くの人の興味をひく研究発表タイトルの作成支援\JBCQ\\newblock\Jem{人工知能学会全国大会論文集(CD-ROM)},{\Bbf21}(2F4-5).\bibitem[\protect\BCAY{Resnick,Iacovou,Suchak,Bergstrom,\BBA\Riedl}{Resnicket~al.}{1994}]{Resnick}Resnick,P.,Iacovou,N.,Suchak,M.,Bergstrom,P.,\BBA\Riedl,J.\BBOP1994\BBCP.\newblock\BBOQGroupLens:AnOpenArchitectureforCollaborativeFilteringofNetnews\BBCQ\\newblock{\BemProceedingsofACM1994ConferenceonComputerSupportedCooperativeWork},\mbox{\BPGS\175--186}.\bibitem[\protect\BCAY{Shardanand\BBA\Maes}{Shardanand\BBA\Maes}{1995}]{Upendra}Shardanand,U.\BBACOMMA\\BBA\Maes,P.\BBOP1995\BBCP.\newblock\BBOQSocialinformationfiltering:algorithmsforautomating``wordofmouth''\BBCQ\\newblock{\BemCHI'95:ProceedingsoftheSIGCHIconferenceonHumanfactorsincomputingsystems},\mbox{\BPGS\210--217}.\end{thebibliography}\appendix\setcounter{table}{0}\renewcommand{\tablename}{}付表1〜付表3にシステム出力の上位から記事を並べた結果を示す.\input{05t-app1-3.txt}\begin{biography}\bioauthor{沢井康孝}{2008年長岡技術科学大学大学院工学研究科修士課程電気電子情報工学専攻修了.在学中はテキストマイニングの研究に従事.言語処理学会学生会員.[email protected]}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),主観表現処理(評判,意見,感情)などに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.[email protected]}\end{biography}\biodate\end{document}
V21N05-03
\section{はじめに} 句に基づく統計的機械翻訳\cite{Koehn:03}が登場し,仏英などの言語対における機械翻訳性能は大きく向上した.その一方で,文の構文構造が大きく異なる言語対(日英など)において,長距離の単語並べ替えを上手く扱うことができないという問題がある.近年,この問題を解決するため,同期文脈自由文法\cite{Wu:97,Chiang:05}や木トランスデューサ\cite{Graehl:04,Galley:06}により,構文情報を使って単語並べ替えと訳語選択を同時にモデル化する研究が活発化している.しかし,単語アライメントや構文解析のエラーを同時にモデルへ組み込んでしまうため,句に基づく手法と比較して,いつでもより良い性能を達成できているわけではない.これらの研究と並行して,事前並べ替え法\cite{Collins:05,Isozaki:12}や事後並べ替え法\cite{Sudoh:11,Goto:12}に関する研究も盛んに行われている.これらの手法は単語並べ替えと訳語選択の処理を分けてモデル化し,語順が大きく異なる言語対で,句に基づく手法の翻訳性能を大きく向上させられることが報告されている.特に,文献\cite{Isozaki:12}で提案された主辞後置変換規則による事前並べ替え法は,特許文を対象とした英日翻訳で高い性能を達成している\cite{Goto:09,Goto:10}.この規則はある言語(本稿では英語を仮定する)を日本語(主辞後置言語)の語順へと変換するものであるが,文献\cite{Sudoh:11}では,主辞後置変換規則によってできた日本語語順の英語文を元の英語文へと復元するためのモデルを構築し,主辞後置変換規則の利点を日英翻訳へと適用可能にしている(事後並べ替え法).文献\cite{Goto:12}では事後並べ替えを構文解析によってモデル化している.この手法は,1言語の上で定義されたInversionTransduction文法(ITG)\cite{Wu:97}\footnote{ITGは2言語の構文解析(biparsing)を扱う枠組みであるが,単語並べ替え問題では原言語の単語と目的言語の訳語を同じと考えることができるため,1言語の上で定義された通常の構文解析として扱える.}にBerkeley構文解析器を適用することで,単語並べ替えを行う.また,主辞後置変換規則では日英単語アライメント性能を向上させるため,データから英冠詞を除去する.そのため,翻訳結果に冠詞生成を行う必要があり,文献\cite{Goto:12}では,構文解析による単語並べ替えとは独立して,$N$-gramモデルによる冠詞生成法を提案している.文献\cite{Goto:12}の手法は,Berkeley構文解析器の解析速度の問題や冠詞生成を独立して行うことから,解析効率や精度の点で大きな問題が残る.本稿では,この構文解析に基づく事後並べ替えの新たな手法を提案し,解析効率,及び,翻訳性能の改善をはかる.提案手法はシフトリデュース構文解析法に基づいており,文献\cite{Goto:12}で利用された段階的枝刈り手法によるBerkeley構文解析\cite{Petrov:07}と比べて,次の利点を持つ.\begin{itemize}\item[1]線形時間で動作し,高速で精度の高い単語並べ替えが可能.\item[2]並べ替え文字列の$N$-gram素性(非局所素性に該当)を用いても計算量が変わらない.\item[3]アクションを追加するだけで,並べ替えと同時に語の生成操作などが行える.\end{itemize}1と2の利点は,解析効率における利点,また,2と3は翻訳性能を向上させる上での利点となる.特に,3つ目の利点を活かして,単語並べ替えと冠詞生成問題を同時にモデル化することが,提案法の最も大きな新規性と言える.本稿では,日英特許対訳データを使って,提案手法が従来手法を翻訳速度,性能の両面で上回ることを実験的に示す.以下,第2章では構文解析による事後並べ替えの枠組み,第3章では提案手法,第4章では実験結果について述べる.第5,6章では研究の位置付けとまとめを行う. \section{構文解析による事後並べ替え} \label{sec:post}図~\ref{fig:flow}に示すように,事後並べ替えによる機械翻訳方式\cite{Sudoh:11}は2つのステップに分けられる.最初のステップでは入力文をそのままの並びで出力言語文(中間言語文)へと翻訳する.そして,次のステップにおいて中間言語文を並べ替え,出力言語の語順になった文を生成する.文献\cite{Goto:12}はこの2番目のステップを構文解析によってモデル化し,そのための学習データを次のような手順で作成している.\begin{figure}[b]\begin{center}\includegraphics{21-5ia3f1.eps}\end{center}\caption{事後並べ替えによる機械翻訳方式の流れ}\label{fig:flow}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-5ia3f2.eps}\end{center}\caption{主辞後置変換規則による中間英語データの作成例}\label{fig:treealign}\end{figure}まず,図~\ref{fig:treealign}の左図に示すように,英語文に対して語彙化構文木を作成する.次に,主辞後置変換規則によって,図~\ref{fig:treealign}の右図に示すような木(中間英語木)へと変換する\footnote{右図からNP(telescope)$\rightarrow$N(telescope)のような単一規則は解析効率を考慮して全て除去している.}.この変換では,非終端記号に付随する主辞をその句の後方へと移動する.例えば,左図のPP(with)$\rightarrow$PR(with)NP(telescope)の辺では,PPの主辞となるwithはtelescopeの前に位置するが,右図ではPP$^{\#}$$\rightarrow$N(telescope)$^{\text{``a/an''}}$PR(with)のようにtelescopeの後ろに位置する.\#は並べ替えを意味するマークである.右図の木構造における葉ノードから成る文を中間英語文と呼ぶ.さらに,中間英語文からは冠詞(the,a,an)が消去されており,逆に,日本語の助詞(が(ga),は(wa),を(wo))が挿入されているが,これらは日本語文との単語対応をとりやすくするためである.削除された冠詞はそれが先頭に挿入される句を表す品詞ないしは非終端記号にマークしている.例えば,N(telescope)$^{\text{``a/an''}}$である.文献\cite{Goto:12}はこのような削除した冠詞のマークを行っていないが,提案手法では削除した冠詞の挿入を構文解析の枠組みとして定式化するため,このようなマークを行っている.\#や冠詞マークを使うことで,図\ref{fig:treealign}の右図に示す中間英語木から元の英語文を復元することは可能である.よって,中間英語木から学習した構文解析器によって,翻訳器が出力した中間英語文に中間英語木構造を自動推定することで,機械翻訳の単語並べ替えを行うことができる. \section{シフトリデュース構文解析による単語並べ替えと冠詞生成} \subsection{単一言語のInversionTransduction文法}第\ref{sec:post}節で説明した単語並べ替え(及び,冠詞生成)問題は,文献\cite{Tromble:09,DeNero:11}などで言及されているように,Inversiontrasduction文法(ITG)\cite{Wu:97}と関連付けられる.本来,ITGは2言語の構文解析(biparsing)を扱う枠組みであるが,単語並べ替え問題を扱う場合,1言語の構文解析として定式化する点に注意する(単一言語のITG).単一言語のITG$G$は$G=(V,T,P,I,\text{TOP})$から成る.ここで$V$は非終端記号,及び,品詞の集合,$T$は終端記号の集合,$P$は生成規則の集合,$I$は冠詞挿入(``the'',``a/an'',``noarticle'')を行う非終端記号及び品詞の候補集合,TOPは開始記号である.生成規則の集合$P$は\[\text{X}\rightarroww,\qquad\text{X}\rightarrow\text{Y}\text{Z},\qquad\text{X}^{\#}\rightarrow\text{Y}\text{Z},\qquad\text{TOP}\rightarrow\text{X}|\text{X}^{\#}\]の形式を持つ規則から構成される($w\inT$,X,X$^{\#}$,Y,Z$\inV$).最初の規則は単語$w$を生成する語彙生成規則,次の2つは2分生成規則,最後は終了規則である.\subsection{シフトリデュース構文解析}\label{sec:sr}単一言語のITGに対するシフトリデュース構文解析法を定義する.本稿で用いる記法は,文献\cite{Huang:10}や\cite{Zhang:11}を参考にしているため,以下の定義を読解する上で,それらを参考にすると良いだろう.シフトリデュース構文解析は状態とアクションを使って解析を進める.基本的な動作原理は,まず,入力文$W=w_{1}\dotsw_{|W|}$をバッファ$B$に積み込み(慣習に従い,左端が先頭),シフトと呼ばれるアクションによって,バッファの先頭単語に語彙生成規則を適用して,状態が持つスタックの先頭へと移す.そして,リデュースと呼ばれるアクションを使って,状態が持つスタックの先頭2つの要素に対して2分生成規則を適用して,構文木を組み上げていく.本稿ではさらに,挿入アクションを使って,冠詞の生成問題も同時にモデル化する.シフトリデュース構文解析における状態$p$は\[p:[\ell:\langlei,j,S\rangle:\pi]\]として定義され,$\ell$はステップ数,$S$はスタックを表す.スタックは$\dots|s_{1}|s_{0}$を要素に持ち,各要素は部分解析木を表現する.慣習に従い,スタックの要素は右端を先頭とし,各要素を$|$で区切る.$i$はスタック先頭要素$s_{0}$が持つ部分解析木の左端単語の$W$中での位置インデックスを表し,$j$はバッファ$B$の先頭単語の$W$中での位置インデックスを表す.$\pi$は予測前状態へのポインタ集合である.予測前状態とは,現状態の$s_{0}$が構築される直前の状態のことであり,$\pi$はそこへのバックポインタを保持する.$\pi$が集合となるのは,文献\cite{Huang:10}の動的計画法により状態の結合が起こると,$\pi$をもう一方の状態の$\pi$へと結合するからである\footnote{$\pi$の結合は,シフトで作られた状態同士が結合されたときに起こる.詳細は文献\cite{Huang:10}を参照.}.各スタックの要素は以下の部分解析木に関する変数を持つ.\[s=\langle\text{H},h,w_{left},w_{right},a\rangle.\]ここでHとは$s$が持つ部分解析木のルートにある非終端記号または品詞ラベルの変数を表す.$h$はHに付随する主辞単語の$W$中のインデックスを表す変数である,$a$は``the'',``a/an'',``noarticle'',またはnullが割り当てられる変数を示している\footnote{``noarticle''とnullを区別し,一度``noarticle''が挿入されても,``the''や``a/an''の挿入が行えるようにして\linebreakいる.}.$w_{left}$と$w_{right}$は部分解析木が覆う並べ替え文字列の左端と右端単語を表す変数である(解析時に並べ替えが起こったとき,$w_{left}$と$w_{right}$だけを明示的に並べ替えることに注意).$s$の要素$*$は$s.*$として参照する.\begin{figure}[b]\begin{center}\includegraphics{21-5ia3f3.eps}\end{center}\caption{状態定義の説明図:慣習上,スタックは右端,バッファは左端が先頭とする.}\label{fig:state}\end{figure}図\ref{fig:state}には状態の説明図を示す.以下のアクションに関する説明が煩雑になることを防ぐため,スタック要素の定義からL,R,$w_{l}$は除いたが,後述する識別モデルの素性にはこれらを利用する.LはHの左側の子供となる非終端記号,Rは右側の子供となる非終端記号,$w_{l}$はLに付随する主辞単語の$W$中の位置インデックスを表す変数である.提案手法はシフト-X,挿入-$x$,リデュースMR-X,リデュースSR-X$^{\#}$,終了の5種類のアクションを持つ.以下,各アクションは推論規則\[\frac{\text{前状態}p}{\text{後状態}p'}\\text{条件部}\]を使って定義する.条件部にはアクションの適用条件を記述し,状態$p$にアクションを適用すると,状態$p'$になることを表す.解析は初期状態$p_{0}:[0:\langle0,1,\epsilon\rangle:\emptyset]$から始まり,終了アクションによって導かれる終了状態に至るまで続ける.\begin{itemize}\item{\bfシフト-X:}バッファの先頭単語をスタックに積み,品詞を割り当てる.\[\frac{p:[\ell:\langlei,j,S|s_{0}'\rangle:\pi]}{p':[\ell+1:\langlej,j+1,S|s_{0}'|s_{0})\rangle:\{p\}]}\quad\text{X}\rightarroww_{j}\inP.\]ここで$s_{0}$はH=X,$h=j$,$w_{left}=w_{j}$,$w_{right}=w_{j}$,$a=\text{null}$となり,単語$w_{j}$に品詞Xが割当られたことを意味する.\item{\bf挿入-$x$:}現在の状態が持つスタック先頭要素の部分解析木が覆う単語列の先頭に``the'',``a/an'',``noarticles''のいずれか(変数$x$で表す)を挿入する操作を行う.\begin{multline*}\frac{p:[\ell:\langlei,j,S|s_{0}')\rangle:\pi]}{p':[\ell+1:\langlei,j,S|s_{0}\rangle:\pi]}\s_{0}'.\text{X}\inI\wedge\\(s_{0}'.a=\text{null}||\text{}x\neq\text{``noarticle''}\wedges_{0}'.a\neq\text{``the''}\wedges_{0}'.a\neq\text{``a/an''}).\end{multline*}ここで$s_{0}$はH=$s_{0}'.$H,$h=s_{0}'.h$,$w_{left}=s_{0}'.w_{left}$,$w_{right}=s_{0}'.w_{right}$,$a=x$となる.アクションの適用条件で$s_{0}'=\text{null}$は現状態でまだ一度も冠詞挿入が行われていないことを意味し,``the'',``a/an'',``noarticle''が代入できる.一方,すでに``noarticle''が挿入された位置には,条件$x\neq\text{``noarticle''}\wedges_{0}'.a\neq\text{``the''}\wedges_{0}'.a\neq\text{``a/an''}$によって,``the''か``a/an''のみ挿入可能で,そのいずれかを挿入以後,その位置には冠詞挿入は行えない.\item{\bfリデュース:}リデュースMR-XとリデュースSR-X$^{\#}$の2種類を定義する.これらは同じ形式の推論規則で表記できる.\[\frac{q:[\_:\langlek,i,S'|s_{1}'\rangle:\pi']\quadp:[\ell:\langlei,j,S|s_{0}'\rangle:\pi]}{p':[\ell+1:\langlek,j,S'|s_{0}\rangle:\pi']}\\text{X}\rightarrow\text{Y}\text{Z}\inP\wedgeq\in\pi.\]リデュースは$s_{0}'$と$s_{1}'$を文法規則X$\rightarrow$YZによって結合し,新たなスタック要素$s_{0}$を作り出す.リデュースMR-Xでは\[s_{0}=\langle\text{X},s_{0}'.h,s_{1}'.w_{left},s_{0}'.w_{right},s_{1}'.a\rangle\]を新たに作り出す.新たな非終端記号はXとなり,その主辞単語は$s_{0}.h=s_{0}'.h$として,Zの主辞単語の位置インデックスを代入する.リデュースMRは非終端記号YとZが覆う2つの句をそのままの並びで結合するため,Xが覆う句の左端は$s_{0}.w_{left}=s_{1}'.w_{left}$,右端は$s_{0}.w_{right}=s_{0}'.w_{right}$となる.冠詞変数は$s_{0}.a=s_{1}'.a$として,Yの先頭に挿入された冠詞変数が代入される.リデュースSR-X$^{\#}$はMR-Xとは逆に,文法規則X$^{\#}\rightarrow$YZによってYとZの句を並べ替えて結合し,新たなスタック要素\[s_{0}=\langle\text{X}^{\#},s_{0}'.h,s_{0}'.w_{left},s_{1}'.w_{right},s_{0}'.a\rangle\]を作り出す.新たな非終端記号はX$^{\#}$となり,その主辞単語はリデュースMR同様に$s_{0}.h=s_{0}'.h$として,Zの主辞単語の位置インデックスを代入する.リデュースSRは非終端記号YとZが覆う2つの句を並べ替えて結合するため,X$^{\#}$が覆う句の左端は$s_{0}.w_{left}=s_{0}'.w_{left}$,右端は$s_{0}.w_{right}=s_{1}'.w_{right}$となる.冠詞変数は$s_{0}.a=s_{0}'.a$として,Zの先頭に挿入された冠詞変数が代入される.\item{\bf終了:}シフトやリデュースをこれ以上適用できなくなり,終了規則が適用できる場合,\[\frac{p:[\ell:\langle0,|W|,s_{0}'\rangle:\pi]}{p':[\ell+1:\langle0,|W|,s_{0})\rangle:\pi]}\quad\text{TOP}\rightarrow\text{X}|\text{X}^{\#}\inP.\]として,終了状態$p'$を導く.ただし,$s_{0}'.\text{H}=\text{X}|\text{X}^{\#}$,$s_{0}.\text{H}=\text{TOP}$とする.終了状態$p'$からバックトレースすることで,中間英語木,または,英語文は出力できる.\end{itemize}図\ref{fig:process}に解析の例を示す.図\ref{fig:process}では,解析の過程が全て理解できるよう,スタック要素を省略せず,解析部分木を全て示した.入力文$W$が与えられたとき,初期状態$p_{0}$から終了状態に至る状態とアクションの系列を完全アクション状態系列と呼び,\begin{equation}y=((p_{0},a_{0}),(p_{1},a_{1}),\dots,(p_{|y|-1},a_{|y|-1}),(p_{|y|},-))\end{equation}と定義すると,シフトリデュース構文解析の探索問題は以下のように定式化される.\begin{equation}{\haty}=\argmax_{y\in{\calY}(W)}\sum_{\ell=0}^{|y|-1}Score(p_{\ell},a_{\ell}).\end{equation}ここで${\calY}(W)$は,$W$に対して解析可能な全ての完全アクション状態系列の集合を表す.一般に,$Score(p,a)$は識別モデルによってモデル化される.\begin{equation}Score(p,a)=\Phi(p,a)\cdot\overrightarrow{\alpha}\end{equation}素性関数$\Phi$は状態$p$とアクション$a$を素性ベクトル$\Phi(p,a)$へ写像する関数である,素性ベクトルは発火した素性が対応する次元に1,それ以外は0をとる.$\overrightarrow{\alpha}$は重みベクトルで,素性ベクトルとの内積をスコアとする.表\ref{tab:feats}には本稿の実験で使用した素性テンプレートを示す.$\circ$によって結合された要素は組み合わせ素性を表し,状態$p$が持つ要素から全て計算される.さらに,全ての素性は$a$を結合して,状態$p$でアクション$a$を行う判断をモデル化している.例えば,図\ref{fig:process}のstep5の状態でレデュースSR-VP$^{\#}$アクションを行う場合,素性テンプレートの$s_{0}.\text{H}\circs_{1}.\text{H}\circs_{1}.\text{L}$はV$\circ$NP$\circ$N$\circ$レデュースSR-VP$^{\#}$という素性になり,素性関数$\Phi$によって素性ベクトルの対応する次元へ写像される.表の最も下の行は並べ替え文字列に関わる素性で,本稿ではこれらを{\bf非局所素性}({\bfnon-localfeature,nf})と呼ぶ.\begin{figure}[t]\begin{center}\includegraphics{21-5ia3f4.eps}\end{center}\caption{中間英語文``girlwosaw''に対する提案手法の動作事例}\label{fig:process}\vspace{-1\Cvs}\end{figure}実装上では,解析性能を高めるため,ビームサーチ\cite{Y-Zhang:08}により,各ステップではスコアが上位beam個の状態をビームスタックに保持して解析を行う.\subsection{曖昧性除去によるビームサーチの効率改善}\label{sec:amb}単一言語のITGに従って,ある文字列の並べ替えを行う場合,様々な導出過程から同一の並べ替え文字列を作り出すことができる.例えば,図\ref{fig:amb}のような例である.\begin{table}[t]\caption{素性テンプレート}\input{03table01.txt}\label{tab:feats}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-5ia3f5.eps}\end{center}\caption{複数の導出による並べ替えの曖昧性}\label{fig:amb}\end{figure}これは元の文``e1e2e3e4''を並べ替えない場合のITG木が複数存在することを示している.この現象をSpuriousAmbiguityの問題と呼ぶ.文献\cite{Wu:97}ではSpuriousAmbiguityを解消するために,左分岐重視(Leftheavy)のITGを提案しているが,図\ref{fig:treealign}のような一般的な複数の非終端記号を持つ文法規則において,一意な構造に変換する方法は自明ではない.シフトリデュース構文解析におけるビームサーチでは,SpuriousAmbiguityが及ぼす問題は大きい.なぜなら,同じ並べ替え文字列を表現した冗長な状態により,ビームスタックが無駄に消費されるからである.実際にこのことは第\ref{sec:exp_amb}節の実験で示す.提案法では,この問題に対応するため,2つの手法を活用する.1つは文献\cite{Huang:10}の動的計画法に基づくシフトリデュース構文解析法を適用することである.この手法では,識別モデルの素性ベクトルが同じになる状態を結合し,ビームスタック上に不要な解を保持する必要がなくなる.そのため,冗長な状態の多くを効率的に抑えることができる\footnote{ただし,挿入によってできた状態の結合は行っていない.なぜなら,結合される状態同士の予測前状態へのポインタ集合が必ず一致することが保証されないからである\cite{Huang:10}.}.もう1つは並べ替え文字列を解析と同時に構築し,ハッシュテーブルによって同じ文字列を持つ状態を枝刈りする方法である.同じステップにある状態で,並べ替え文字列とスタック要素$s_{0}$と$s_{1}$の部分木のルート非終端記号が全て一致する場合,モデルスコアの低い方の状態を削除する.$s_{0}$と$s_{1}$のルート非終端記号を考慮するのは,解析エラーを軽減するためである.\subsection{CKY構文解析との計算量比較}シフトリデュース構文解析は最適解を求められる保証はないが,入力文長に対して,線形時間に動作するという利点がある.一方で,CKY構文解析法は最適解を求めることはできるが,1次の主辞・従属辞関係を考慮した場合,最悪計算量が$O(n^5|V|^3)$に及ぶことが知られている($n$は入力文長,$|V|$は非終端記号の集合サイズ)\cite{Eisner:99}.さらに,単一言語のITGに対して,第\ref{sec:sr}節で定義したような並べ替え単語列の左端単語$w_{left}$と右端単語$w_{right}$を特徴量(非局所素性)に考慮すると,リデュースMRに対応するCKY構文解析の推論規則は以下のようになる.\[\frac{[i,h,k,\text{X},w_{left},w_{right}]\hspace{1.5mm}[k,h',j,\text{X'},w_{left}',w_{right}']}{[i,h',j,\text{X''},w_{left},w_{right}']}\qquad\text{X''}\rightarrow\text{X}\text{X'}\inP\]ここで$[i,h,k,\text{X},w_{left},w_{right}]$はある1つのCKYアイテムを表し,$i,k$はアイテムが表現する解析結果の左端と右端のインデックス,$h$は主辞のインデックスを表す.この推論規則では,長さ$n$に対する9つの自由変数$i,h,k,h',j,w_{left},w_{right},w_{left}',w_{right}'$,非終端記号の集合$V$から3つの記号X,X',X''を考慮するため,計算量は$O(n^9|V|^3)$となる.本稿では,主辞は必ず後置することを仮定しているため,$h$と$h'$はそれぞれ$k$と$j$から参照でき,計算量は$O(n^7|V|^3)$となる.$N$-gramを考慮した構文解析がこのような高い計算量に及ぶことは,文献\cite{Z-Li:11}の係り受けと品詞タグ付けの同時解析でも言及されている(品詞タグ付けの場合,連接部分の計算量は$n$ではなく,品詞の候補数となる).CKY構文解析ではあるCKYアイテムに対して,ビタビスコア$\beta$を最大にする解をボトムアップに計算していく.\begin{multline}\beta([i,j,\text{X''},w_{left},w_{right}'])=\max_{k,w_{right},w_{left}',\text{X},\text{X'}}\{\beta([i,k,\text{X},w_{left},w_{right}])\cdot\beta([k,j,\text{X'},w_{left}',w_{right}'])\\\cdotp(\text{X''}\rightarrow\text{X}\hspace{0.5mm}\text{X'})\cdotnf(w_{right},w_{left}')\}.\label{eq:cky}\end{multline}$p$は規則のスコア,$nf$は並べ替え文字列から計算される$2$-gramモデルなどの非局所素性に関わるスコアである.$N$-gramを考慮したCKY構文解析の計算量はHookTrickと呼ばれる分配法則によってさらに削減できる\cite{huang-zhang-gildea:2005:IWPT}.HookTrickは式(\ref{eq:cky})の右辺に対して,次のような式変換を行う($\max$演算は積に対して分配的であることに従う).\pagebreak\begin{multline}\max_{k,w_{left}',\text{X'}}\bigl\{\max_{w_{right},\text{X}}\bigl\{\beta([i,k,\text{X},w_{left},w_{right}])\cdotp(\text{X''}\rightarrow\text{X}\hspace{0.5mm}\text{X'})\cdotnf(w_{right},w_{left}')\bigr\}\\\cdot\beta([k,j,\text{X'},w_{left}',w_{right}'])\bigr\}\end{multline}内部$\max$演算では$i,j,k,w_{left},w_{right},w_{left}'$とX,X',X''を考慮し,外部$\max$演算では$i,j,k,w_{left},$\\$w_{left}',w_{right}'$とX',X''を考慮する.これより計算量は$O(n^7|V|^3)$から$O(n^6|V|^3+n^6|V|^2)$となる.しかし,このような計算量は一般にコストが大きく,提案法と比較して,実用的ではない.非局所素性を考慮したCKY構文解析はCubePruningと呼ばれる近似解法\cite{Huang:07}を使うと,$O(n^3|V|^3)$のCKY構文解析として解くことはできるが,最適解が求められる保証はなくなる.これより,CKY法や同様の原理(動的計画法)に基づくBerkeley構文解析などと比較して,提案法は単語並べ替え問題において,実用性の観点から大きな利点がある. \section{実験} \subsection{実験データとツール}実験にはNTCIR-9とNTCIR-10の特許データを使い,日英翻訳を行った.日本語の形態素解析にはMecab\footnote{https://code.google.com/p/mecab/}を使用した.英語文の語彙化構文木を作成するため,Enju\cite{Miyao:08}を用いて全ての英語文を解析した.機械翻訳には,デコーダにMoses\cite{Koehn:07},単語アライメントにGIZA++\cite{Och:03:sys},言語モデルにSRILM\cite{Stolcke:11}を用いた.データ及びツールについては表2と表3にまとめる.\begin{table}[b]\begin{minipage}{0.5\textwidth}\caption{NTCIR-9とNTCIR-10データ}\label{tab:data}\input{03table02.txt}\end{minipage}\begin{minipage}{0.5\hsize}\caption{実験に使用したツール}\label{tab:tool}\input{03table03.txt}\end{minipage}\end{table}Enjuによって解析した語彙化構文木を文献\cite{Isozaki:12}の規則によって中間英語木へと変換した.削除した冠詞の挿入マークは,その冠詞を含む句の中で最も葉に近い非終端記号に付与した.冠詞を含む句の非終端記号がない場合,品詞に挿入マークを付与した.日本語の助詞挿入は文献\cite{Isozaki:12}に従って行った.提案手法の単語並べ替えモデルの学習は平均化パーセプトロン\cite{Collins:04}で行った.また,学習データの量が多いため,素性ハッシング\cite{Shi:09}を使って,素性計算を高速化した.提案手法,及び,比較手法での冠詞挿入によって``a/an''が挿入された場合,挿入位置の後ろに位置する単語の1文字目が母音の場合,anを挿入し,子音の場合,aを挿入して翻訳結果を出力した.日本語助詞は事後並べ替えの解析時には1単語として扱い,翻訳結果の出力時には全て取り除いた.\subsection{単語並べ替えに関する実験結果}\label{sec:exp_amb}提案手法の単語並べ替え性能を調べるため,全訓練データの中間英語木3,191,228文からランダムに300,000文を抽出し,並べ替えのための構文解析器を学習した.ただし,中間英語木において冠詞削除,及び,日本語助詞の挿入は行っておらず,ここでは並べ替えのみ(挿入アクションは用いない)を行うようにしている.なぜなら,冠詞削除や日本語助詞の挿入は翻訳時の単語アライメント性能向上を意図した操作であり,ここでは純粋に提案法の構文解析,及び,単語並べ替え性能を調べることが目的だからである.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f6.eps}\end{center}\hangcaption{学習のイテレーション回数と開発データに対するF値}\label{fig:comp}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f7.eps}\end{center}\hangcaption{学習のイテレーション回数と開発データに対するBLEUスコア}\label{fig:comp2}\end{minipage}\end{figure}図\ref{fig:comp}では提案法を学習したときの学習イテレーションと開発データに対するF値の関係,図~\ref{fig:comp2}にはBLEUスコア\cite{Papineni:02}との関係を示す.F値の計算はEVALB\footnote{http://nlp.cs.nyu.edu/evalb/}を用いて評価した\footnote{解析(品詞タグ付け)エラーによる文スキップを避けるため,性能は句読点も全て含めて評価した.}.``Base''は通常のビームサーチ,``DP''は動的計画法付きビームサーチ,``Hash''は第\ref{sec:amb}節で述べたハッシュテーブルによる枝刈りを表し,各システムはビーム幅12で訓練した.図\ref{fig:comp}と図\ref{fig:comp2}から,``DP''や``Hash''に比べて,``Base''による学習の効率が悪いことがわかる.図\ref{fig:comp3}と図\ref{fig:comp4}では``Base''のビーム幅を12,24,36にしたときの学習イテレーションと開発データに対するF値,及び,BLEUとの関係を示した.これから``Base''による学習は,``DP''や``Hash''よりもビーム幅を大きく設定しなければ,学習が円滑に行えないことがわかる.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f8.eps}\end{center}\hangcaption{``Base''法の学習時におけるビーム幅と開発データに対するF値の関係:テスト時のビーム幅は訓練時と同じに設定}\label{fig:comp3}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f9.eps}\end{center}\hangcaption{``Base''法の学習時におけるビーム幅と開発データに対するBLEUスコアの関係:テスト時のビーム幅は訓練時と同じに設定}\label{fig:comp4}\end{minipage}\end{figure}\begin{table}[b]\caption{NTCIR-9テストデータに対する語順並べ替え,ITG構文解析性能と解析時間}\label{tab:f-m}\input{03table04.txt}\end{table}\begin{table}[b]\caption{非局所素性(nf.)による構文解析,及び,語順並べ替え性能への影響}\label{tab:re1}\input{03table05.txt}\end{table}表\ref{tab:f-m}は,NTCIR-9のテストデータの中間英語文を各システムによって解析したときのBLEU,RIBES\cite{Isozaki:10},構文解析性能(再現率,適合率,F値,文正解率),解析時間を示した.文献\cite{Goto:12}は論文から抜粋した数値を示す.Berkeley構文解析はデフォルト設定で学習し,6回の学習イテレーションを行った.結果からは,提案手法のうち``DP''法が他の手法に比べ,高い性能を達成できることがわかった.表\ref{tab:re1}では,表\ref{tab:feats}の非局所素性を全て取り除いた(nf.無し)モデルを学習し,nf.有りのモデルと比較した.実験結果からは,非局所素性が並べ替えの性能向上に寄与していることがわかる.表\ref{tab:re2}では,$k$-best出力時に,出力リストの中にどれだけの種類の文字列があるかを示す.表~\ref{tab:re2}には,テストデータに対して出力した各$k$-bestリスト中の文字列種類数の合計/$k$-bestリストサイズの合計を示し,分子の数が多い程,多様な並べ替え文字列を出力できることを意味する.例えば,``Base''法の$64$-bestリストには,3,4種類程度の並べ替え文字列しか存在せず,Berkeley構文解析でも同様に,同じ文字列を表す解析結果を大量に出力しているがわかる.一方,``Hash''法ではこれらの冗長な表現を排除し,多様な解析結果を出力できている.\begin{table}[t]\caption{$k$-bestリスト中に存在する文字列種類}\label{tab:re2}\input{03table06.txt}\end{table}以上の実験から,シフトリデュース法による単語並べ替え性能を向上させるには,SpuriousAmbiguityの問題に対処し,ビーム幅を効率的に活用することが極めて重要であることがわかった.よって,以下の翻訳実験では,提案法は全て``DP''法を用いて行う.``Hash''は``DP''よりも同じ文字列を多く排除できる一方で,文字列を動的に作り出す必要があり,計算コストが高い.``Hash''法のコスト削減や``DP''法との併用については,今後の課題である.\subsection{翻訳に関する実験結果}通常の日英翻訳器は,Mosesのdistortionlimitを0,6,12,20に設定し,言語モデルには訓練データの全英語文から学習した6-gram言語モデルを使用した.Mosesの学習はBLEUに対してMinimumerrorratetraining(MERT)\cite{Och:03}を行った.単語並べ替えによる翻訳実験では,学習データに中間英語木3,191,228文から抽出した中間英語文を使用し,日本語から中間英語文への翻訳モデルを作成した.中間英語文の言語モデルは6-gramまで学習し,Mosesのdistortionlimit(dist)は0に設定した.Mosesの学習はBLEUに対してMERTで行った.事後並べ替えは翻訳器から出力した中間英語文の1-bestを単語並べ替えモデルで元の英語文にし,評価を行った.表\ref{tab:mtresults}に提案手法と他の手法の実験結果を示す.表\ref{tab:mtresults}からは提案手法が文献\cite{Goto:12}のモデルを上回る性能を達成していることがわかる.文献\cite{Goto:12}の実験結果は我々の実験によるものではないが,実験に使用したツールやデータは同一のものであることを明記しておく.さらに,\ref{sec:sr}節で定義した非局所素性(nf.)を使ったモデル(nf.有り)と取り除いたモデル(nf.無し)を比較すると,非局所素性が有効であることがわかる.BLEUスコアを使って,有意水準5\%で2項検定を行ったところ,nf.無しモデルとnf.有りモデルには有意な差が確認された.また,非局所素性を使うことによる解析時間への影響も少ない.\subsection{実験結果の分析}提案手法では単語並べ替えと冠詞挿入を同時に行っているが,それらを同時解析することの利点を分析するため,様々なシステムとの比較を行った.NTCIR-9と-10のテストデータに対する実験結果は表\ref{tab:article}に示す.\begin{table}[b]\caption{システム比較}\label{tab:mtresults}\input{03table07.txt}\small解析時間は1文当たりの平均秒を示している.**は我々の実験によるものではなく,論文からの引用を意味する.\par\end{table}\begin{table}[b]\caption{単語並べ替えと冠詞挿入に関する各システムの精度比較}\label{tab:article}\input{03table08.txt}\smallJ-HFEは日本語から中間英語,J-Eは日本語から英語への翻訳を意味する.\par\end{table}\vspace{1\Cvs}\noindent\textbf{\underline{単語並べ替えと冠詞生成の同時処理の有効性(1.2.3.4.)}}2.の結果は1.の結果から冠詞を削除したときの性能を示している.冠詞を削除すると,BLEU評価尺度による翻訳精度が極端に落ちることがわかる.これはBLEUが$N$-gram単位で評価を行う尺度だからである.次に,3.の結果は,$N$-gram手法によって2.の翻訳文へ冠詞挿入を行ったときの結果を示している.$N$-gram手法は文献\cite{Goto:12}と同様の冠詞挿入手法を意味する\footnote{ここでは翻訳結果と6-gram言語モデルの有限状態トランスデューサを合成し,その結果から1bestを探索することで冠詞挿入を行った.有限状態トランスデューサには内製システムを利用した.}.この結果から,$N$-gram手法によって性能は向上するが,1.の同時解析ほどの性能は得られないことがわかる.提案手法と$N$-gram手法による翻訳結果を比較すると,提案手法の方が冠詞挿入を多く行っていることがわかった.$N$-gram手法では冠詞挿入を行う程,文が長くなるため,確率が小さくなり,なるべく短い文が選ばれてしまうためであると考察される.4.は,Mosesによって日英翻訳を行うとき,英語データから冠詞を削除し,翻訳結果出力後に$N$-gram手法で冠詞挿入した結果を示している.この結果から,単純に冠詞を後編集で挿入するだけでは,翻訳性能を改善できないことがわかる.\vspace{1\Cvs}\noindent\textbf{\underline{日英対訳データから冠詞を除去することの意味(1.5.)}}5.では,冠詞を英語文から削除せず,提案手法で単語並べ替えのみを行った結果を示している.このアプローチでは翻訳性能を向上させることができなかった.この理由は中間英語文で``thethethe''のように冠詞が連続して出現してしまうため,翻訳文にも不要な冠詞が出現してしまうからである.\vspace{1\Cvs}\noindent\textbf{\underline{Berkeley構文解析器との比較(1.2.3.6.7.)}}Berkeley構文解析器と提案手法を比較する.Berkeley構文解析器は提案手法と同様の500,000文を使って学習した.2.3.と6.7.の結果から,Berkeley構文解析器による単語並べ替え性能と提案手法による単語並べ替えの性能はほぼ同等であることがわかる.一方,1.と7.の結果に対して,BLEUスコアを使って,有意水準5\%で2項検定を行ったところ,それらには有意な差が確認できた.これは提案法の冠詞生成が$N$-gram冠詞生成法よりも高い精度であるためと言える.また,Berkeley構文解析器と提案手法の解析速度を比較すると,提案手法のビーム幅を156に設定したときにちょうど同程度の解析時間となる.さらに,提案手法は冠詞挿入も行っているのに対し,Berkeley構文解析器は$N$-gram手法による冠詞挿入を未だ行っていない時点での解析時間であり,提案法が従来法よりも効率的に動作することがわかる. \section{関連文献} 事後並べ替え手法は須藤ら\cite{Sudoh:11}によって提案された.須藤らは日本語文から中間英語文への翻訳を行った後,再び機械翻訳によって中間英語文を英語文へと翻訳している.後藤らは中間英語文から英語文への並べ替えを構文解析によって行うことで,須藤らの手法を上回る精度を達成した.本稿でも同様に,構文解析によって事後並べ替えをモデル化した.提案法はシフトリデュース構文解析法を基盤にしており,単語並べ替えと冠詞生成を同時に処理する仕組みや非局所素性の導入を行うことで,精度と解析効率をさらに向上させた.これらの点から,提案法は後藤らの手法と明確に区別できる.文献\cite{Knight:94}では,機械翻訳の後編集において冠詞挿入を行うことの重要性を提唱し,英語文への冠詞挿入を決定木によって行った.後続的にいくつかの文献で英語文への冠詞挿入を機械学習によって解く手法が提案されているが\cite{Minnen:00,Turner:07},構文解析と冠詞挿入を同時に行う枠組みを提唱したのは,著者らの知る限り,本稿が初めてである.提案手法で採用したシフトリデュース構文解析法は様々な文法理論の構文解析に応用されている.例えば,依存文法\cite{Yamada:03,Nivre:03,Huang:10},文脈自由文法\cite{Sagae:06},組み合わせ範疇文法\cite{Zhang:11}などへの応用がある.シフトリデュース構文解析法を単一言語のITGへ応用した例は本稿が初めてである. \section{まとめと今後の課題} 本稿では,シフトリデュース構文解析法をベースにした単語並べ替えと冠詞生成の同時逐次処理法を提案し,日英機械翻訳における事後並び替え問題に適用した.日英特許翻訳タスクを使った実験から,提案法は文献\cite{Goto:12}における事後並べ替え法の解析精度と効率の問題を改善できることがわかった.特に,解析効率の面では,理論上の計算量,及び,実際の解析速度において,従来法より優れることを示した.また,冠詞生成を単語並べ替えと同時にモデル化することが翻訳精度の向上につながることを示した.提案法は,本質的には事後並べ替えだけでなく,事前並べ替えにも適用可能である.ただし,文献\cite{Isozaki:12}の主辞後置変換規則を用いずに,モデルを学習するためのデータを作成する方法は自明ではない.よって,単語アライメントと構文木から単語並べ替え構文解析器の学習データを作るための手法開発が今後の課題である.また,提案手法は翻訳結果の$1$-bestに対して,動作する仕組みであったが,今後は多様な翻訳結果に対して動作させるため,翻訳ラティスを解析する仕組みに拡張することが課題となる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{Chiang:05}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-basedModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\263--270}.\bibitem[\protect\BCAY{Collins,Koehn,\BBA\Ku{\v{c}}erov{\'a}}{Collinset~al.}{2005}]{Collins:05}Collins,M.,Koehn,P.,\BBA\Ku{\v{c}}erov{\'a},I.\BBOP2005\BBCP.\newblock\BBOQClauseRestructuringforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\531--540}.\bibitem[\protect\BCAY{Collins\BBA\Roark}{Collins\BBA\Roark}{2004}]{Collins:04}Collins,M.\BBACOMMA\\BBA\Roark,B.\BBOP2004\BBCP.\newblock\BBOQIncrementalParsingwiththePerceptronAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPG\111}.\bibitem[\protect\BCAY{DeNero\BBA\Uszkoreit}{DeNero\BBA\Uszkoreit}{2011}]{DeNero:11}DeNero,J.\BBACOMMA\\BBA\Uszkoreit,J.\BBOP2011\BBCP.\newblock\BBOQInducingSentenceStructurefromParallelCorporaforReordering.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\193--203}.\bibitem[\protect\BCAY{Eisner\BBA\Satta}{Eisner\BBA\Satta}{1999}]{Eisner:99}Eisner,J.\BBACOMMA\\BBA\Satta,G.\BBOP1999\BBCP.\newblock\BBOQEfficientParsingforBilexicalContext-FreeGrammarsandHeadAutomatonGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe37stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\457--464}.\bibitem[\protect\BCAY{Galley,Graehl,Knight,Marcu,DeNeefe,Wang,\BBA\Thayer}{Galleyet~al.}{2006}]{Galley:06}Galley,M.,Graehl,J.,Knight,K.,Marcu,D.,DeNeefe,S.,Wang,W.,\BBA\Thayer,I.\BBOP2006\BBCP.\newblock\BBOQScalableInferenceandTrainingofContext-richSyntacticTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\961--968}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{Goto:10}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{Goto:09}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR},\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Goto,Utiyama,\BBA\Sumita}{Gotoet~al.}{2012}]{Goto:12}Goto,I.,Utiyama,M.,\BBA\Sumita,E.\BBOP2012\BBCP.\newblock\BBOQPost-orderingbyParsingforJapanese-EnglishStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--316}.\bibitem[\protect\BCAY{Graehl\BBA\Knight}{Graehl\BBA\Knight}{2004}]{Graehl:04}Graehl,J.\BBACOMMA\\BBA\Knight,K.\BBOP2004\BBCP.\newblock\BBOQTrainingTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL},\mbox{\BPGS\105--112}.\bibitem[\protect\BCAY{Huang\BBA\Chiang}{Huang\BBA\Chiang}{2007}]{Huang:07}Huang,L.\BBACOMMA\\BBA\Chiang,D.\BBOP2007\BBCP.\newblock\BBOQForestRescoring:FasterDecodingwithIntegratedLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingonAssociationforComputationalLinguistics},\lowercase{\BVOL}~45,\mbox{\BPG\144}.\bibitem[\protect\BCAY{Huang\BBA\Sagae}{Huang\BBA\Sagae}{2010}]{Huang:10}Huang,L.\BBACOMMA\\BBA\Sagae,K.\BBOP2010\BBCP.\newblock\BBOQDynamicProgrammingforLinear-timeIncrementalParsing.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1077--1086}.\bibitem[\protect\BCAY{Huang,Zhang,\BBA\Gildea}{Huanget~al.}{2005}]{huang-zhang-gildea:2005:IWPT}Huang,L.,Zhang,H.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQMachineTranslationasLexicalizedParsingwithHooks.\BBCQ\\newblockIn{\BemProceedingsoftheNinthInternationalWorkshoponParsingTechnology},\mbox{\BPGS\65--73}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{Isozaki:10}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagepairs.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\944--952}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2012}]{Isozaki:12}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2012\BBCP.\newblock\BBOQ{HPSG}-basedPreprocessingfor{English-to-Japanese}Translation.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf11}(3).\bibitem[\protect\BCAY{Knight\BBA\Chander}{Knight\BBA\Chander}{1994}]{Knight:94}Knight,K.\BBACOMMA\\BBA\Chander,I.\BBOP1994\BBCP.\newblock\BBOQAutomatedPosteditingofDocuments.\BBCQ\\newblockIn{\BemProceedingsoftheNationalConferenceonArtificialIntelligence},\mbox{\BPG\779}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,\BBA\Zens}{Koehnet~al.}{2007}]{Koehn:07}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,\BBA\Zens,R.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheACLonInteractivePosterandDemonstrationSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{Koehn:03}Koehn,P.,Och,F.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedtranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Li,Zhang,Che,Liu,Chen,\BBA\Li}{Liet~al.}{2011}]{Z-Li:11}Li,Z.,Zhang,M.,Che,W.,Liu,T.,Chen,W.,\BBA\Li,H.\BBOP2011\BBCP.\newblock\BBOQJointModelsforChinesePOSTaggingandDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1180--1191}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Minnen,Bond,\BBA\Copestake}{Minnenet~al.}{2000}]{Minnen:00}Minnen,G.,Bond,F.,\BBA\Copestake,A.\BBOP2000\BBCP.\newblock\BBOQMemory-basedLearningforArticleGeneration.\BBCQ\\newblockIn{\BemProceedingsofthe2ndworkshoponLearninglanguageinlogicandthe4thconferenceonComputationalnaturallanguagelearning-Volume7},\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Miyao\BBA\Tsujii}{Miyao\BBA\Tsujii}{2008}]{Miyao:08}Miyao,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQFeatureForestModelsforProbabilisticHPSGParsing.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\35--80}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre:03}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQAnEfficientAlgorithmforProjectiveDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponParsingTechnologies}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{Och:03}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics-Volume1},\mbox{\BPGS\160--167}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och:03:sys}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationallinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni:02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thannualmeetingonassociationforcomputationallinguistics},\mbox{\BPGS\311--318}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Petrov\BBA\Klein}{Petrov\BBA\Klein}{2007}]{Petrov:07}Petrov,S.\BBACOMMA\\BBA\Klein,D.\BBOP2007\BBCP.\newblock\BBOQImprovedInferenceforUnlexicalizedParsing.\BBCQ\\newblockIn{\BemHumanlanguagetechnologies2007:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\404--411}.\bibitem[\protect\BCAY{Sagae\BBA\Lavie}{Sagae\BBA\Lavie}{2006}]{Sagae:06}Sagae,K.\BBACOMMA\\BBA\Lavie,A.\BBOP2006\BBCP.\newblock\BBOQABest-firstProbabilisticShift-reduceParser.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACLonMainConferencePosterSessions},\mbox{\BPGS\691--698}.\bibitem[\protect\BCAY{Shi,Petterson,Dror,Langford,Smola,\BBA\Vishwanathan}{Shiet~al.}{2009}]{Shi:09}Shi,Q.,Petterson,J.,Dror,G.,Langford,J.,Smola,A.,\BBA\Vishwanathan,S.\BBOP2009\BBCP.\newblock\BBOQHashKernelsforStructuredData.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},\mbox{\BPGS\2615--2637}.\bibitem[\protect\BCAY{Stolcke,Zheng,Wang,\BBA\Abrash}{Stolckeet~al.}{2011}]{Stolcke:11}Stolcke,A.,Zheng,J.,Wang,W.,\BBA\Abrash,V.\BBOP2011\BBCP.\newblock\BBOQSRILMatSixteen:UpdateandOutlook.\BBCQ\\newblockIn{\BemProceedingsofIEEEAutomaticSpeechRecognitionandUnderstandingWorkshop}.\bibitem[\protect\BCAY{Sudoh,Wu,Duh,Tsukada,\BBA\Nagata}{Sudohet~al.}{2011}]{Sudoh:11}Sudoh,K.,Wu,X.,Duh,K.,Tsukada,H.,\BBA\Nagata,M.\BBOP2011\BBCP.\newblock\BBOQPost-orderinginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofMTSummit}.\bibitem[\protect\BCAY{Tromble\BBA\Eisner}{Tromble\BBA\Eisner}{2009}]{Tromble:09}Tromble,R.\BBACOMMA\\BBA\Eisner,J.\BBOP2009\BBCP.\newblock\BBOQLearningLinearOrderingProblemsforBetterTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing:Volume2},\mbox{\BPGS\1007--1016}.\bibitem[\protect\BCAY{Turner\BBA\Charniak}{Turner\BBA\Charniak}{2007}]{Turner:07}Turner,J.\BBACOMMA\\BBA\Charniak,E.\BBOP2007\BBCP.\newblock\BBOQLanguageModelingforDeterminerSelection.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies2007:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics;CompanionVolume,ShortPapers},\mbox{\BPGS\177--180}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Wu}{Wu}{1997}]{Wu:97}Wu,D.\BBOP1997\BBCP.\newblock\BBOQStochasticInversionTransductionGrammarsandBilingualParsingofParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(3),\mbox{\BPGS\377--403}.\bibitem[\protect\BCAY{Yamada\BBA\Matsumoto}{Yamada\BBA\Matsumoto}{2003}]{Yamada:03}Yamada,H.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQStatisticalDependencyAnalysiswithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponParsingTechnologies},\lowercase{\BVOL}~3.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2008}]{Y-Zhang:08}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2008\BBCP.\newblock\BBOQATaleofTwoParsers:InvestigatingandCombiningGraph-basedandTransition-basedDependencyParsingusingBeam-Search.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\562--571}.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2011}]{Zhang:11}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2011\BBCP.\newblock\BBOQShift-reduceCCGParsing.\BBCQ\\newblockIn{\BemProceedingsofthe49thMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\683--692}.\end{thebibliography}\begin{biography}\bioauthor{林克彦}{2013年,奈良先端科学技術大学院大学博士後期課程修了.現在,NTTコミュニケーション科学基礎研究所に所属.博士(工学).構文解析,機械翻訳に関する研究に従事.ACL,情報処理学会,言語処理学会各会員.}\bioauthor{須藤克仁}{2000年,京都大学工学部卒業.2002年,同大大学院情報学研究科修士課程修了.同年,日本電信電話株式会社入社.音声言語処理,統計的機械翻訳に関する研究に従事.ACL,情報処理学会,言語処理学会,日本音響学会各会員.}\bioauthor{塚田元}{1987年,東京工業大学理学部情報科学科卒業.1989年,同大学院理工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所に所属.統計的機械翻訳の研究に従事.ACL,電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,日本音響学会各会員.}\bioauthor{鈴木潤}{2001年,慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.同年,日本電信電話株式会社入社.2005年奈良先端大学院大学博士後期課程修了.2008〜2009年MITCSAIL客員研究員.現在,NTTコミュニケーション科学基礎研究所に所属.博士(工学).主として自然言語処理,機械学習に関する研究に従事.ACL,情報処理学会,言語処理学会各会員.}\bioauthor{永田昌明}{1987年,京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学研究所主幹研究員(上席特別研究員).博士(工学).統計的自然言語処理の研究に従事.ACL,電子情報通信学会,情報処理学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
V03N03-05
\section{はじめに} \footnotetext{井佐原均,HitoshiIsahara,郵政省通信総合研究所関西先端研究センター,KansaiAdvancedResearchCenter,CommunicationsResearchLaboratory,MPT}\footnotetext{内野一,HajimeUchino,日本電信電話株式会社NTTコミュニケーション科学研究所,NTTCommunicationScienceLaboratories,NipponTelegraphandTelephone}\footnotetext{荻野紫穂,ShihoOgino,日本アイ・ビー・エム株式会社東京基礎研究所,IBMResearch,TokyoResearchLaboratory,NihonIBM}\footnotetext{奥西稔幸,ToshiyukiOkunishi,シャープ株式会社情報システム事業本部情報商品開発研究所,InformationSystemsProductDevelopmentLaboratories,InformationSystemsGroup,SharpCorp.}\footnotetext{木下聡,SatoshiKinoshita,株式会社東芝研究開発センター情報・通信システム研究所,ResearchandDevelopmentCenter,CommunicationandInformationSystemsResearchLaboratories,Toshiba}\footnotetext{柴田昇吾,ShogoShibata,キヤノン株式会社情報メディア研究所,MediaTechnologyLaboratory,CANONINC.}\footnotetext{杉尾俊之,ToshiyukiSugio,沖電気工業株式会社研究開発本部関西総合研究所,ResearchandDevelopmentGroup,KansaiLaboratory,OkiElectricIndustryCo.,Ltd.,}\footnotetext{高山泰博,YasuhiroTakayama,三菱電機株式会社情報技術総合研究所,InformationTechnologyR\&DCenter,MitsubishiElectricCorp.}\footnotetext{土井伸一,Shin'ichiDoi,日本電気株式会社情報メディア研究所,InformationTechnologyResearchLaboratories,NECCorp.}\footnotetext{永野正,TadashiNagano,松下電器産業株式会社AV&CC開発センター東京情報システム研究所,ICSC,MatsushitaElectricIndustrialCo.,Ltd.}\footnotetext{成田真澄,MasumiNarita,株式会社リコー情報通信研究所,InformationandCommunicationR\&DCenter,RicohCo.,Ltd.}\footnotetext{野村浩郷,HirosatoNomura,九州工業大学情報工学部知能情報工学科,DepartmentofArtificialIntelligence,KyushuInstituteofTechnology}機械翻訳システムの長い歴史の中で、システム評価は常に大きな課題の一つであった。システムの研究開発が健全に進むためには、客観的かつ正確な評価法が必要となる。このため、ユーザの立場から評価を行うもの、開発者の立場から評価を行うもの、また、技術的側面から評価を行うもの、経済的側面から評価を行うものと、多くの研究者によって様々な視点からの評価法が検討されてきた。これらの検討に基づいて、(社)日本電子工業振興協会によって一連の機械翻訳システム評価基準が開発されてきた(野村・井佐原1992,NomuraandIsahara1992a,NomuraandIsahara1992b,日本電子工業振興協会1993)。本稿で提案する機械翻訳システムの評価法は、システムの改良を続ける開発者の立場から、機械翻訳システムの技術面を翻訳品質に注目して評価するものである。機械翻訳システムの訳文の品質面での評価に関しては、従来からのいわゆるALPACレポート型の評価法に加えて、近年、いくつかの提案がなされている。ある程度まとまった文章を翻訳し、そこから得られる理解の度合を評価しようとするものとして、ARPAによる機械翻訳システム評価(Whiteetal1994)や、TOEFLのテストを用いる方法(Tomita1992)が提案されているが、これらはシステム間の現時点での性能の比較評価には用いることが出来ても、評価結果を直接システム改良に結び付けることは困難である。これに対し、個別の例文を収集することにより評価用の例文集を作成し、その各例文の翻訳結果を評価し、対応する言語現象の処理能力を判定しようとする提案がいくつかなされている。これらのうちには、単に文を集めるのみで、その後の例文の利用法(評価過程)は個別の評価者に任せようというものから、本稿で提案するように、客観的評価のためにさまざまな情報を付加しようというものまで、いくつかの段階がある。わが国においては、(社)日本電子工業振興協会が既に昭和60年に機械翻訳例文資料として、翻訳における曖昧性に関する問題点に着目して、英文および和文を収集分類し公開している(日本電子工業振興協会1985)。また同協会は昭和62年度に、機械翻訳システムの技術レベルを評価するために、文の複雑さの定量化、文の複雑さや文体の定性的特徴の抽出、標準的例文の収集を行なった(日本電子工業振興協会1988,石崎・井佐原1988)。この他、英語を話す人間と日本語を話す人間との間にある言語理解法の違い(言い替えると、日本語と英語の発想法の違い)に注目して日本語の言語表現を分類し、それらの表現の翻訳能力を評価する試験文集を作成するもの(池原・小倉1990,池原他1994)や、言語学的観点から日本語および英語の言語表現の構造に注目し、その表現上の構造的特性を的確に表すような試験文集を作成すること(成田1988)が提案されてきた。後者は、個々の言語現象に対する翻訳の可否を示すことの必要性から、一定の内容の文の言い換えなどによって日本語および英語の言語表現と翻訳能力の関係を言語学者の立場から評価することを提案している。本稿で論じる機械翻訳システム評価用テストセットは、以上のような、ALPACレポート以来の品質評価に関する研究を踏まえて、誰でも客観的かつ実用的な評価を行なえる評価法の確立を目指し作成したものである。次節以下では、テストセットを用いた評価法の全体を流れる基本的な考え方、英日機械翻訳用テストセット、日英機械翻訳用テストセットについて、順次説明していく。 \section{テストセットを用いた機械翻訳システムの品質評価法} \subsection{本評価法の利点}これまで、機械翻訳システムの品質評価法として種々の方法が提案されているが、それらの方法に関しては一貫して客観的評価が困難であるという指摘が行なわれてきた。本稿ではまず、従来までの評価法と比べての本評価法の利点を、以下の二つの客観性に基づいて検討する。\\\noindent\hspace*{1cm}(1)評価過程が客観的であること\\\noindent\hspace*{1cm}(2)評価結果の判断が客観的に行なえること\\たとえば、ALPACレポート等に代表される評価法は、評価の軸として「忠実度」「理解容易度」といった、その解釈が評価者の主観的判断に依存する基準を採用している。その結果、評価結果が評価者によって大きく異なってしまうという問題があり、(1)の客観性を満たしていない。この評価のばらつきは不完全な翻訳結果を評価する際に特に顕著に現れるが、現実の機械翻訳システムを評価し、開発過程にフィードバックする際には、翻訳に成功した場合よりも失敗した場合についての検討が重要である。この種の評価法においては評価結果は数値で表現されているため、ある意味では、(2)の客観性を満たしているともいえよう。しかしながら開発者にとっては、自己のシステムが、どの言語現象をどの原因によって処理できなかったのかを判断することが特に重要であり、言語現象が複雑に絡みあった文の翻訳結果を単純に得点化するだけでは有効とはいえない。システム改良に用いるためにその評価結果を解釈しようとする場合には主観的な判断に頼らざるを得ないので、実用的にはこの評価法は(2)の客観性を満たしているとはいえない。一方、我々の開発した評価法においては、これら二つの客観性は共に保たれている。ここでは、単にそれに答えるだけで、システム開発者が自己のシステムの性能評価を行なえるように作られたyes/no設問を各例文に付加することにより、翻訳結果を評価する手続きを明確化した。評価過程で必要とされる手順は単純なyes/no疑問文に答えることだけであり、誰でも機械翻訳システムを同様に評価することが出来る。不完全な翻訳文に対しても、評価者によって評価が大幅に変わるということはない。さらに、各例文には翻訳処理と言語現象との関係を表す解説が付加されており、これにより、システム開発者はなぜ自己のシステムが問題の言語現象を正しく解析できないのかを知ることが出来る。すなわち、我々のテストセットに基づく評価結果を用いて、機械翻訳システムの改良法を決定することが出来る。機械翻訳システムの評価に関しては、既に述べたように、評価すべき言語現象を含む文を集めた評価用例文集の作成という試みもなされている(成田1988,池原・小倉1990,池原他1994)。このような例文集を用いれば、もしシステムが、ある例文を正しく翻訳できないと評価された場合には、システム開発者はただちにその例文が問題としている言語現象をそのシステムが処理できないということが分かる。この点において、この手法もまた(2)の客観性を保持している。しかしながら、この手法には以下の二つの問題がある。\\\begin{itemize}\item例文の翻訳結果を評価する手順が明示されていない。\item評価結果から機械翻訳システムの不備な点を見つけ出す過程が評価者の言語直観に頼っている。\\\end{itemize}例文を集めただけのもの(テストスゥィート(TestSuite))では、個々のシステムのadhocな評価は可能であっても、評価法としては確立しない。明確に記述された手続きにしたがって、誰でも同じように機械翻訳システムを評価できることが必要である。この目的のために各例文に設問や訳出例を付与しているということを明確にする意味で、我々の評価法においては「テストセット(TestSet)」という名称を用いている。また、評価結果を機械翻訳システムの改良に用いるためには、さまざまな言語現象を単に羅列しておくだけでは不十分である。文法体系の中での各言語現象の位置づけを明確にしておくことも必要である。このような考察のもと、我々は上で述べた評価過程の客観性と結果の判断の客観性という二つの客観性を追求した品質評価を可能とする品質評価用テストセットを提案してきた。ここで用いるテストセットは、考慮すべき文法項目を系統立てて収集し、その各項目に例文を付加して作られた。各例文に解説や設問を付加することによって評価の手順を明確に記述することが可能となった。各テストセットには、評価用例文、その人間による模範訳、システムの出力(翻訳結果)を評価するための設問などが記述されており、評価者はテストセット中の例文を翻訳し、その翻訳結果を参照しながら各例文に付与された設問に回答していく。ここで各設問は判断のポイント(すなわち、例文のどの部分が、どのような役割で、どのような訳文となっていれば良いか)が明示されたyes/no質問文であり、評価者によって判断が異なることがないように作られている。この判断をさらに容易にするために、既存の機械翻訳システムでの翻訳結果を用いた回答例が付与されている。以上により評価過程の客観性を実現している。また、各例文には、その文がどのような言語現象を評価するためのものであるかを説明する解説が付与されており、開発者はその例文に対する翻訳結果から自己のシステムが十分には対応していない言語現象を容易に理解することが出来る。これにより、評価結果の判断の客観性を実現できる。\subsection{本評価法の基本的立場(どのような情報を開発者に与えるか)}この評価用テストセットは、個々の機械翻訳システムに依存しない汎用の品質評価法として作成している。したがって、対象とするシステムがルールベース・知識ベース・用例ベース・直接型といった機械翻訳のどの手法を採用しているかには依存しない。このテストセットの目的は機械翻訳システムの開発者が自己のシステムの性能を向上するために、システムの処理できない言語現象を正確に把握することである。その言語現象を処理可能にするための手法は、個々のシステムあるいは個々の手法によって異なっており、その判断は開発者に任すこととし、評価基準としては、そこには立ち入らない。用例ベースの手法とルールベースの手法に共通する解決策を評価法が示すということは現実的ではない。また、個々のシステムによって、対象とする文書が異なっており、各言語現象の出現頻度も異なっている。したがって、システムの欠点のうちで、どの欠点が最も重大であるかを決定することは、当事者にのみ可能なことである。本テストセットの目標は、その当事者の判断を可能な限り援助することにある。ここではテストセット中の各例文には、頻度に関する情報を記述するのではなく、その例文が判断する言語現象を記述してある。翻訳対象となる文書が特定の言語現象に偏っている場合には、評価者はこのテストセットのうちで、必要な言語現象に対応する部分についてのみ翻訳し、その結果を評価すれば良い。自分にとって重要な言語現象を取り扱えるかどうかが、個々の開発者あるいはユーザがシステムを評価する場合には重要であり、評価法としての独自の頻度による一般的な得点化を行なうのは、むしろ誤った評価の原因になると考える。また、評価に例文を用いることについては、その例文に対して高い評価が出るようにシステムを修正することが可能であること、また、全ての言語現象を網羅できるわけではないことなどの問題点が指摘される。しかしながら、ここで提案する評価法はシステム間の相対的な性能評価のために用いるものではない。開発者が自己のシステムの改良のために、その欠点を把握することが目的であり、この本来の目的のためには本テストセットに対してチューニングをすることに意味はない。また、本テストセットは単なる例文集ではなく、各例文にはその対象とする言語現象が解説されており、さらには必要に応じて関連文と、その模範訳が付加されている。これらの文を翻訳し検討することにより、単に一つの例文を処理できるかどうかを判断するだけではなく、その例文に関連する言語現象についての処理能力も知ることが出来る。さらに、個々の開発者が処置するべき問題として、テストセット中の例文に存在する未定義語の問題がある。例文中に(そのシステムにとっての)未定義語があった場合には、評価者は例文中に現れた未定義語を辞書登録するか、あるいは例文中の未定義語を既にシステムに登録されている類似の単語に変更することが要求される。繰り返すが、この評価法はシステム間の優劣を決めることが目的ではなく開発者が自分のためにシステムの欠陥を見つけて、それを修正することを主たる目的としている。したがって、評価者(すなわち開発者)は単純に評価結果を受け入れるのではなく、「翻訳に成功しているが偶然良い訳語が記述されていただけだ。」「翻訳に失敗したが、それはその単語が未定義であったためで、類似の現象自体は取り扱う能力がある。」等については、各自の(自己のシステムについての)知識に基づいて判断する必要がある。また、評価の結果、さまざまな欠陥が見つかった場合に、限られた人的資源の中で、どのような順序でそれを解決していくかという問題もある。しかしながら、各開発者毎に資源の制約や、そのシステムが主として対象とする文書(あるいは、対象とする言語現象)が異なるため、一般的な優先順位を予め定めておくことは現実的ではない。本テストセットは、比較的近い将来に正しい処理の実現が可能な言語現象に重点をおいて作っているが、取り扱えなかった言語現象の内で、まずどの現象を処理可能にするかという優先順位付けは、個々のシステムの開発者に任せられている。なお、このように近い将来に対応できるものに重点を置いて言語現象を収集しテストセットとした場合、機械翻訳システムの技術水準の向上に伴って、対象とする言語現象を継続的に追加あるいは削除していくことが望まれる。常にその時点で機械翻訳において問題となっている言語現象を1000文程度のテストセットで示すのが理想であろう。ただし、最低限の解析能力を試すための基本的な構造の文は現在も(そのような基本的な構造の解析は既にほとんどのシステムにおいて解決されている問題であるとしても)テストセット中に含まれている。このような基本文はシステムの最低水準を保証するものとして、将来に亙ってもテストセットに含まれると想定している。\subsection{評価用例文の収集}テストセットの例文は機械翻訳システムや自然言語処理システムを実際に開発してきた経験に基づいて、著者らによって収集された。例文の収集に当たっては、我々は以下の2点を重視した。\\\noindent(1)基本的な言語現象を網羅すること。\\\noindent(2)機械翻訳システムにとって処理することが困難な言語現象を含む例文を選択すること。\\ここでは特に曖昧性の問題を重視した。\\言い替えると、(1)は評価すべき文法現象を系統立てて収集分類(トップダウンの手法)し、それらの現象に対応する例を集めることである。一方(2)は機械翻訳システムによって翻訳することが困難であるような例文を収集する(ボトムアップの手法)ことである。特に我々は処理の困難さが近い将来に解決できるであろうような言語現象に注目した。そして機械翻訳システムの評価のための例文を系統立てて分類した。さらに、我々はこれらの例について、いくつかの商用システムを用いて翻訳評価実験を繰り返し、テストセットを以下の点に焦点を当てながら改良した。これらは全て、評価過程において客観性を維持するために重要な要素である。\\\begin{itemize}\item設問に曖昧性がないこと\item例文に不必要な複雑さがないこと\item翻訳結果に曖昧性がないこと\\\end{itemize}なお、テストセット中の英文は、その英語としての品質を保証するため、英語を母国語とし、日本語を理解する自然言語処理研究者によって、チェックされ修正された。なお、このテストセットを用いた品質評価法の提案の主旨と、作成の詳しい経緯については、参考文献(井佐原他1992,日本電子工業振興協会1993,日本電子工業振興協会1994,Isaharaetal1994,日本電子工業振興協会1995a,Isahara1995)を参照されたい。また、テストセットの全容は、参考文献(日本電子工業振興協会1995b)に示されている。 \section{英日機械翻訳システム品質評価用テストセット} 本節では、英日機械翻訳システムの品質評価用テストセットについて説明する。このテストセットは、機械翻訳システムが処理すべき様々な言語現象を含んだ英語例文770文とその模範訳、及びシステムの出力(翻訳結果)を評価するための設問などからなる。\subsection{概要}我々は、英日機械翻訳システムの評価基準として、システム開発者が自己のシステムの不備をチェックすることを主要目的とした品質評価用テストセットを作成した。本テストセットにおける例文の収集に際しては、「基本的な言語現象を網羅すること」「機械翻訳システムが取り扱うことが困難な言語現象を、主に曖昧性の解消に注目して収集・分類すること」を試みた。また、システムの出力(翻訳結果)を見ながら回答していくことで品質に関する客観的な判断が可能となるように、各文に判断のポイントを明示したyes/no疑問文の形式の設問を付与している。このように本テストセットは客観的な品質評価の実現を目指して作成したものなので、ユーザが各機械翻訳システムの出力品質を比較する際に利用することも可能である。本テストセットの作成作業は、平成4年度からの3年間で行った。平成5年度末までに第1段階として、英語の単文を中心に評価すべき項目を抽出して評価基準を設定し、309の基本例文を収集・評価して「電子協平成5年度版テストセット」としてまとめた。これに加えて、今回さらに以下の作業を行って項目の充実を図った。\\\begin{itemize}\item平成5年度版テストセットが単文中心だったのに対して、接続詞、関係詞、比較、話法、挿入、並列など、より複雑な構造を持つ複文・重文に関連する項目を重点的に英文法の解説書などから抽出して収集\item複数の文法書などを参考にすることにより、単文内の項目に関しても、平成5年度版テストセットでカバー出来ていない項目を収集。特に、代名詞、前置詞、記号、数量表現などに関して新規の設問を多数作成\item文法項目の洩れを防ぐため、英字新聞から英文テキスト300文を選出して市販の英日機械翻訳システムで試訳し、翻訳が困難となる問題点を抽出\\\end{itemize}上記の作業により、これまでの309項目と併せて延べで約1000の項目を抽出した。最終的にこれを整理して、770項目からなるテストセットとしてまとめた。例文と関連文を合わせると、合計で1450文ほどの規模のテストセットとすることが出来た。また、本テストセットの実用性の検証と設問の修正のために、ハードウェアタイプの異なる8種の市販の英日機械翻訳システムを対象とした評価を行った。このテストセット中の各項目は、文番号、例文、その模範訳、○×で答えることが出来る質問文、主として機械翻訳システムによる訳出例、例文と関連する言語現象を含む文、関連する項目の番号、解説から成り立っている。テストセットの例を図1に示す。以下では、このテストセットを用いた品質評価の手順、対象とする言語現象、テストセットの書式について述べる。\vspace*{1em}\begin{small}\begin{verbatim}2.1.1多品詞(品詞認定)2.1.1.2名詞/助動詞【番号】2.1.1.2-1【例文】Thetrashcanwasthrownaway.【訳文】ごみカンは捨てられた。【質問】"can"が「カン/缶」のように名詞として訳されていますか?【訳出例】○(くず缶/ごみ容器/くず入れ)は(廃棄された/[投げ]捨てられた)。×ごみは捨てられ得る。【関連文】Thelastwillwasopened.「最後の遺言書は開けられた。」【参照項目】2.1.1.2-2,2.1.1.2-3【解説】"canwas"の並びから、"can"が助動詞でないことがわかる。【番号】2.1.1.2-2【例文】Thetrashcanbethrownaway.【訳文】ごみは捨てられ得る。【質問】"can"が「〜できる/得る」のように助動詞として訳されていますか?【訳出例】○(くず/ごみ/くだらない人間)は(廃棄できる/[投げ]捨てられることができる)。×ごみカンは捨てられた。【関連文】【参照項目】2.1.1.2-1,2.1.1.2-3【解説】2.1.1.2-1とは逆に、ここでは"can"は名詞ではなく助動詞。\end{verbatim}\end{small}{\bf図1英日機械翻訳システム用テストセットの例}\vspace*{1em}\subsection{テストセットの利用法}本テストセットは、以下の利用法を想定している。\\\noindent(1)評価対象となる英日機械翻訳システムを用意する。\\\noindent(2)そのシステムでテストセット中の【例文】を翻訳する。\\\noindent(3)【質問】【訳出例】を見て、その翻訳結果が○か×かを判断する。\\\noindent(4)システム開発者は、○×の分布からシステムの能力、開発段階を評価する。\\特に、×と判断した項目に関連する文法・辞書を追加することで、システムの改良を図る。\\\noindent((5)ユーザは、各システムの○×の分布から、出力品質面での優劣を比較する。)\\\noindent(6)各項目についてさらに詳細に評価を行う場合は、【関連文】を利用する。\\原則として翻訳結果と質問文を見るだけで○×を回答出来るようになっているが、【訳出例】(各訳出例には、質問に対する○×が予め付与されている)を参照することによって、さらに容易に判断が出来るようになっている。本テストセットを用いて○×の分布を見ることで、システムの対応が不十分な(可能性がある)項目を容易に抽出できる。ただし本テストセットでは、各項目(例文)間の重要度、頻度などの差異は考慮していないので、単純に○の数をカウントして正解率をシステム間で比較することは、本評価法の意図するところではない。\subsection{テストセットの構成}本テストセットは、機械翻訳システムが処理すべき様々な言語現象を含んだ英語例文770文からなる。内訳と項目ごとの設問数を図2に示す。品質評価の対象項目の収集に当たっては、網羅性を保証するトップダウンのアプローチと、機械翻訳における問題点を実際の翻訳結果から抽出して、その問題性によって例文の粗密を決定するボトムアップなアプローチを組み合わせている。把握部においては、英文法の解説書(江川1964,Hornby1977,小川他1991,荒木他1992,村田1992)などを参考に英語の文法現象を収集し、そのレベルによって、品詞、文の部分構造、文構造の3段階に分類した。特に動詞、形容詞、名詞に関してその基本的な用法を網羅するために、ホーンビーの分類した文型(Hornby1977)を設問項目として採用した。ただしホーンビーのパターンの中でも、機械翻訳システムの品質評価において特に必要でないとみなした区分については分類を省略している。同様に助動詞等の基本的な用法の中でも、機械翻訳において対象となることが極めて稀であると思われるものについては省略した。選択部においては、翻訳で実際に問題となる言語現象を、構文構造の曖昧性に関するものと、コロケーション(他の語との共起による訳し分け)に関するものに分類した。\begin{figure}\begin{small}\begin{verbatim}1把握部小計6841.1品詞小計3551.1.1冠詞151.1.2名詞(固有名詞を含む)271.1.3代名詞251.1.4形容詞421.1.5副詞541.1.6前置詞401.1.7動詞類1.1.7.1動詞・準動詞481.1.7.2助動詞371.1.8関係詞251.1.9接続詞261.1.10記号161.2文の部分構造小計1671.2.1不定詞261.2.2分詞、分詞構文191.2.3動名詞231.2.4時制631.2.5数量表現281.2.6慣用表現81.3文構造小計1621.3.1文種(疑問文、命令文、感嘆文)191.3.2否定161.3.3特殊構文191.3.4比較211.3.5仮定法(条件法)161.3.6態101.3.7話法41.3.8挿入161.3.9省略91.3.10倒置71.3.11並列句252選択部小計862.1構文2.1.1多品詞(品詞認定)342.1.2係り先認定272.2コロケーション25総計770\end{verbatim}\end{small}{\bf図2テストセットの全体構成、項目別設問数}\end{figure}\subsection{テストセットの書式}本テストセットの各項目の書式を図3に示す。なお、テストセット中で、[]で囲まれた部分は挿入可能な表現を、(/)で囲まれた部分はいずれかを選択する表現を示す。たとえば、"A[B]C(D/E)F"という記号列は、``ABCDF'',``ABCEF'',``ACDF'',``ACEF''の4種の記号列を表す。\begin{figure}\begin{verbatim}【番号】:例文の番号【例文】:例文(1文のみ)【訳文】:模範訳(例文の日本語訳)【質問】:"A"が「B」のようにCとして訳されていますか?という形式の質問文・A:英語表現。""で囲む。例文中のどの部分を翻訳することにポイントがあるのかを表す。文全体の場合、また明らかな場合などは省略する。・B:日本語表現。「」で囲む。・C:内容や文法事項の補足説明(「習慣を表す表現」、「選択疑問文」等)を記す。記述が長くなるものや、原因に言及する場合は、【解説】に記述する。※必ず○か×か(yes/no)で答えられる形式にする。本テストセットは作業者が翻訳結果(訳文)を見るだけで○×を与えることを前提としており、解析の詳細に直接言及することは避ける。【訳出例】:許容される訳出例や誤訳例を列挙。・正解例(yes)の文頭には○、誤例(no)の文頭には×を付与する。・1行1文とし、原則として文全体を記述。・必要ならば正/誤の理由(説明)も示す。※各例は実際の機械翻訳システムの訳を参考にして作成した。【関連文】:当該の例文と関連する言語現象を含んだ例文を挙げる。・文の一部だけの記述は認めない。必ず文全体を記述する。・例文の後に、「」で囲んだ訳文を記述する。・補足事項(may/mightでの丁寧度の違いなど)がある場合は、訳文の後に()で囲んで記述する。【参照項目】:本テストセット内の関連項目への参照ポインタ。原則として、相互参照とする。※文番号を明示するのみで、文そのものは記述しない。【解説】:その他の補足事項。フリーフォーマット。\end{verbatim}{\bf図3テストセットの書式}\end{figure} \section{日英機械翻訳システム品質評価用テストセット} 日英翻訳システム品質評価用テストセットも英日翻訳システム用と同様に、開発者が自己のシステムの不備な点を発見するための評価法であり、テストセット中の各例文に付与された設問に答えることによって、客観的に評価を下せるように作られている。しかしながら、英日翻訳と日英翻訳の技術レベルの違いに基づいて、英日用のテストセットとは少し異なった視点でテストセットの開発を行なった。実際のテストセットの例を図4に示す。\begin{figure}\begin{small}\begin{verbatim}JET140000(1−4)複合述部JEX140000複合述部では、並列用言の認識を行ない、また用言部と格要素・副詞句とをJEX140000区別して翻訳しなければならない。JEQ141000複合述部の並列用言としての認定JEX141000複合述部の並列用言を認識するには、JEX141000・助詞の種類により判断するJEX141000・助詞の種類と名詞の意味属性により判断するJEX141000・用言性の単語が並んでいれば、並列用言と認定するJEX141000等といった方法がある。JEG141001私達は研究開発する。JEE141001Wedoresearchanddevelopment.JEE141001Wearecarryingoutresearchanddevelopment.JEC141001(失敗例)Westudyit‖developit.JEC141001(失敗例)Wedeveloparesearch.JEC141001「私達は研究開発する」の「研究開発」が「研究し開発する」という意味にJEC141001訳出されるかを確認する。JEX141001読点で切られている場合でも、前半はサ変名詞を動詞化する「する」が記述JEX141001されないことがある。JEG141002検査者は部品を修理、計器を点検する。JEE141002Thetesterrepairsthepartsandchecksthemeter.JEQ142000複合述部の要素の格要素としての認定JEX142000複合述部の要素を格要素として認識するには、JEX142000・複合語要素間の関係を用言と格要素への意味的制約により解析するJEX142000・用言性の部分とそれ以外の部分を判断してデフォルト的に格関係を推定するJEX142000等の方法がある。JEG142001牛乳は栄養豊富である。JEE142001Milkisverynutritious.JEE142001Milkisveryrichinnutrition.JEC142001「牛乳は栄養豊富である」の「栄養」と「豊富」からJEC142001「牛乳の栄養が豊富である」という関係を捉える。JEQ143000複合述部の要素の副詞句としての認定JEX143000複合述部の要素を副詞句として解釈する場合がある。これを行うには、JEX143000・語の種類により副詞句となりえる要素を複合語より抽出するJEX143000・用言性の部分と副詞句となりえる部分との共起可能性を判断し、決定するJEX143000等の処理が必要となる。JEG143001資料は当日配布すること。JEE143001Distributematerialsontheday.JEC143001「当日に配布する」というように「当日」が述部修飾になっているか確認する。JEG143002渋滞が自然解消する。JEE143002Thetrafficjamdissolvedbyitself.JEC143002「自然に解消する」のように、「自然」が副詞として解釈されているか確認する。JEC143002複合述部が同一の要素を含んでいても、述部によりその要素のJEC143002役割が異なってくる場合がある。JEG143003住民が自然保護する。JEE143003Theinhabitantsconservenature.JEC143003「自然を保護する」と「自然」が目的格に捉えられているか確認する。\end{verbatim}\end{small}{\bf図4日英機械翻訳システム用テストセットの例}\end{figure}我々は、客観的評価を実現するテストセットの採用に加えて、日本語処理システムの開発者の利便を考え、言語現象と処理モジュールとの対応を取ることができる形式の評価方法の開発を行なった。すなわち、評価用例文と、その翻訳結果を評価する手段(設問)を提供するだけでなく、各言語現象に対応してシステムがどのような処理を行なっているかを把握するための解説も付与している。解説によって示される言語現象の処理方法を利用して開発者は、そのシステム全体としての言語現象の処理能力を評価するとともに、処理の各段階が充分な能力を持っているかどうかを把握できる。具体的には言語現象を約40種類に大別し、その各項目について問題となっている言語現象をどのように処理しているかを調べるための解説が付加されている。言語現象の項目リストを図5に示す。ここでは必要に応じて、用いている知識や処理結果の取り扱い等も併せて説明される。各項目内の個別の言語現象については、その言語現象を含む日本語文、その英訳、ここで確認するべき要素の解説が記述されている。設問数は約330、機能確認のための対訳例は、約400文の構成となっている。\begin{figure}\begin{footnotesize}\begin{verbatim}(1)述部(1−1)述部の訳し分け(1−2)断定文(1−3)体言述語(1−4)複合述部(1−5)訳が一用言となる並列用言(1−6)用言の副詞(句)化(1−7)補助動詞(1−8)基本動詞の訳し分け(2)名詞(2−1)名詞の訳し分け(2−2)複合名詞(2−3)「名詞1の名詞2」という構造を持つ名詞句の処理(2−4)「名詞1の名詞2の〈名詞3〉」という構造を持つ名詞句の処理(2−5)並列構造を持つ名詞句の処理(2−6)疑問表現の名詞節の処理(2−7)用言性名詞(サ変名詞)(2−8)英語における数の扱い(2−9)固有名詞表現(2−10)形式名詞(2−11)関係を示す名詞(3)副詞(3−1)副詞のタイプ(3−2)副詞句(3−3)擬音語・擬態語(4)連体修飾語句(4−1)非活用連体修飾(4−2)用言性連体詞(4−3)格助詞相当句(4−4)埋め込み文修飾(5)助詞(5−1)助詞の訳し分け(5−2)深層格の認定(6)接辞(7)テンス、アスペクト、モーダル(7−1)テンスの処理(7−2)アスペクトの処理(7−3)モーダルの処理(7−4)ボイスの処理(8)特殊構造表現(8−1)慣用表現の処理に関して(8−2)四字熟語(8−3)呼応表現(8−4)天候・気象表現(8−5)無生物主語構文(8−6)「はが」構文(8−7)比較表現(8−8)比喩表現(8−9)部分否定、二重否定、倒置文(8−10)敬語(8−11)引用・伝聞表現(8−12)例示・列挙表現\end{verbatim}\end{footnotesize}{\bf図5テストセットの項目リスト}\end{figure}また、開発者がこのテストセットを使用する際の利便性を考え、テストセットの書式を揃え、各文にインデックスをつけることにより、機械上での検索を容易に行なえるようにした。上記の各項目に付けられたインデックスは基本的に図6のような構造である。図6の??????の部分には、数字またはアルファベットが使用される。最初の2文字がタイトルまたはサブタイトルの章番号を表す。次の3文字が、各項目中の設問に付与された番号であり、設問は最大3階層になっている。最後の1文字が例文及び翻訳例の文番号を示す。解説、コメントはその対象とする項目と同じ文番号となる。\begin{figure}\begin{small}\begin{verbatim}JET??????項目タイトルJEX??????全体的な解説・説明JEQ??????設問(着目すべき主題)JEX??????主題に対する解説(省略されることもある)JEG??????日本文JEE??????英文対訳例JEC??????訳例に対するコメント(チェックすべきポイント,失敗例)\end{verbatim}\end{small}{\bf図6インデックスの構造}\\\end{figure}これらのインデックスを検索のキーとして、各種のOSの検索コマンドを使用することにより、機械翻訳にかけるための原文のみの抽出や、項目リストの抽出など、簡単に必要な部分だけを抜きだして使用することが出来る。使用例を図7に示す。\begin{figure}\begin{small}\begin{verbatim}【使用例】(日英評価基準のファイル名がMT_EVAL_JE.docであるとする)・まず文法項目の目次を調べる。$grepJETMT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾JET100000(1)述部JET100000(1−1)述部の訳し分けJET120000(1−2)断定文JET130000(1−3)体言述語JET140000(1−4)複合述部:・(1−4)の「複合述部」にどのような設問があるかを調べる。$grepJEQ14MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEQ141000複合述部の並列用言としての認定JEQ142000複合述部の要素の格要素としての認定JEQ143000複合述部の要素の副詞句としての認定・次に「副詞句」のところにどのような例文があるか調べる。$grepJEG143MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEG143001資料は当日配布すること。JEG143002渋滞が自然解消する。JEG143003住民が自然保護する。・例文の参考訳を調べる。$grepJEE143MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEE143001Distributematerialsontheday.JEE143002Thetrafficjamdissolvedbyitself.JEE143003Theinhabitantsconservenature.・例文JEG143001が何を調べたいの例文なのかを調べる。$grepJEC143001MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEC143001「当日に配布する」というように「当日」が述部修飾になっているか確認する。・例文JEG143001をMTで訳させた結果が、コメントJEC143001の確認事項を満たしていれば評価結果を○、さもなければ評価結果を×とする。(JEE143001は参考訳であり、必ずしもその通りの訳になっていなくとも良い)\end{verbatim}\end{small}{\bf図7テストセットの機械上での使用例}\end{figure} \section{おわりに} 本稿では、機械翻訳システムの翻訳品質を開発者の視点から評価する手法を提案した。この手法は、評価用の各例文に質問と解説を付加したテストセットを用いることにより評価過程を明確化した客観的品質評価法である。本稿で提案したテストセットは、評価用の例文に、その人間による訳、システムの出力を評価するための設問、(もしあった場合には)関連する文、文法事項の解説等を付与したものである。例文は基本的な言語現象と、機械翻訳において現在課題となっている言語現象を網羅することを念頭において収集された。テストセット中の設問は評価するべき点を明確にするように作成されている。各例文の翻訳結果が与えられると、システム開発者はその例文に付与されている設問に答えていくだけで、自己のシステムの評価を行なうことが出来る。設問は○×式であり、評価者によって判断が分かれないように作られている。これにより、客観的な評価が可能となる。さらに、解説を参照することにより、システム開発者は自己のシステムがどの言語現象を処理できないかを正確に認識することが出来る。ここで提案した英日及び日英翻訳システム用のテストセットは無料で一般に公開されている。我々は、この評価法が機械翻訳システムの一層の発展の一助となることを期待してやまない.\\\clearpage\begin{thebibliography}{99}\bibitem{}荒木一雄他(1992).現代英文法辞典.三省堂.\bibitem{}江川泰一郎(1964).英文法解説(改訂新版).金子書房.\bibitem{}Hornby,A.S.(1977).英語の型と語法(第2版).オックスフォード大学出版局(東京).\bibitem{}池原悟・小倉健太郎(1990).``日英機械翻訳における機能試験項目の検討.''電子情報通信学会1990年秋期全国大会論文集D-68.\bibitem{}池原悟他(1994).``言語表現体系の違いに着目した日英機械翻訳機能試験項目の構成.''人工知能学会誌,{\bf9}(4).\bibitem{}井佐原均他(1992).``JEIDA機械翻訳システム評価基準(品質評価編)−英日翻訳の品質評価項目の検討と評価用コーパスの作成−.''自然言語処理研究会96-11,情報処理学会.\bibitem{}Isahara,H.etal(1994).``TechnicalEvaluationofMTSystemsfromtheDeveloper'sPointofView:ExploitingTest-SetsforQualityEvaluation,''In{\emProceedingsoftheAMTA-94(FirstconferenceoftheAssociationforMachineTranslationintheAmericas)}.\bibitem{}Isahara,H.(1995).``JEIDA'sTest-SetsforQualityEvaluationofMTSystems--TechnicalEvaluationfromtheDeveloper'sPointofView.''In{\emProceedingsoftheMTSummitV}.\bibitem{}石崎俊・井佐原均(1988).``日本語文の複雑さの定性的・定量的特徴抽出.''自然言語処理研究会67-6,情報処理学会.\bibitem{}村田勇三郎(1992).機能英文法.大修館書店.\bibitem{}成田一(1988).``機械翻訳における構造処理能力の評価.''自然言語処理研究会69-1,情報処理学会.\bibitem{}日本電子工業振興協会(1985).``機械翻訳例文資料.''機械翻訳システムの調査研究60-C-513.\bibitem{}日本電子工業振興協会(1988).機械翻訳システムの調査研究.\bibitem{}日本電子工業振興協会(1993).機械翻訳システムの実用化に関する調査研究93-計-6.\bibitem{}日本電子工業振興協会(1994).自然言語処理技術の動向に関する調査報告書94-計-4.\bibitem{}日本電子工業振興協会(1995a).自然言語処理技術の動向に関する調査報告書95-計-3.\bibitem{}日本電子工業振興協会(1995b).機械翻訳システム評価基準−−品質評価用テストセット−−95-計-17.\bibitem{}野村浩郷・井佐原均(1992).``機械翻訳の評価基準について.''自然言語処理研究会89-9,情報処理学会.\bibitem{}NomuraH.andH.Isahara(1992a).``JEIDA'sCriteriaonMachineTranslationEvaluation.''In{\emProceedingsoftheInternationalSymposiumonNaturalLanguageUnderstandingandAI}.\bibitem{}NomuraH.andH.Isahara(1992b).``JEIDAMethodologyandCriteriaonMachineTranslationEvaluation.''In{\emProceedingsoftheMTEvaluationWorkshop}.\bibitem{}小川芳男他(1991).よくわかる英文法[再訂新版].旺文社.\bibitem{}TomitaM.(1992).``ApplicationoftheTOEFLTesttotheEvaluation.''In{\emProceedingsoftheMTEvaluationWorkshop}.\bibitem{}White,J.S.etal.(1994).``TheARPAMTEvaluationMethodologies:Evolution,Lessons,andFutureApproaches.''In{\emProceedingsoftheAMTA-94(FirstconferenceoftheAs-sociationforMachineTranslationintheAmericas)}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.工学博士.現在,郵政省通信総合研究所関西支所知的機能研究室長.自然言語処理,機械翻訳の研究に従事.}\bioauthor{内野一}{1987年茨城大学工学部情報工学科卒業.1989年同大学院修士課程修了.現在,NTTコミュニケーション科学研究所研究主任.自然言語処理,機械翻訳の研究に従事.}\bioauthor{荻野紫穂}{1988年東京女子大学大学院文学研究科修士課程修了.現在,日本IBM東京基礎研究所に勤務.自然言語処理,機械翻訳の研究に従事.}\bioauthor{奥西稔幸}{1984年大阪大学基礎工学部情報工学科卒業.現在,シャープ株式会社情報システム事業本部情報商品開発研究所に勤務.機械翻訳システムの研究開発に従事.}\bioauthor{木下聡}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院修士課程修了.現在,(株)東芝研究開発センター情報・通信システム研究所に勤務.自然言語処理,機械翻訳の研究に従事.}\bioauthor{柴田昇吾}{1985年早稲田大学理工学部電子通信学科卒業.1987年同大学院修士課程修了.現在,キヤノン株式会社情報メディア研究所に勤務.自然言語処理の研究に従事.}\bioauthor{杉尾俊之}{1982年熊本大学工学部電子工学科卒業.現在,沖電気工業(株)研究開発本部関西総合研究所に勤務.機械翻訳システム,自然言語処理の研究開発に従事.}\bioauthor{高山泰博}{1985年九州工業大学工学部情報工学科卒業.1987年九州大学大学院修士課程修了.現在,三菱電機(株)情報技術総合研究所に勤務.自然言語処理の研究に従事.}\bioauthor{土井伸一}{1985年東京大学教養学部基礎科学科第二卒業.1990年同大学院総合文化研究科博士課程満期退学.現在,日本電気(株)情報メディア研究所音声言語研究部主任.自然言語処理,機械翻訳の研究開発に従事.}\bioauthor{永野正}{1987年慶応義塾大学電気工学科卒業.1989年同大学院修士課程修了.現在松下通信工業(株)カーシステム事業部に勤務.}\bioauthor{成田真澄}{1987年津田塾大学大学院修士課程修了.(株)リコー情報通信研究所に勤務.機械翻訳の研究に従事.}\bioauthor{野村浩郷}{1967年大阪大学工学部通信工学科卒業.1969年同大学院修士課程修了.工学博士.日本電信電話公社基礎研究所を経て,現在,九州工業大学情報工学部教授.言語知能,知能ネット,計算言語学,機械翻訳の研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V22N02-01
\section{はじめに} 近年,電子カルテに代表されるように,医療文書が電子的に保存されることが増加し,構造化されていないテキスト形式の医療情報が増大している.大規模な医療データには有用な情報が含まれ,新たな医学的知識の発見や,類似症例の検索など,医療従事者の意思決定や診療行為を支援するアプリケーションの実現が期待されている.これらの実現のためには,大量のテキストを自動的に解析する自然言語処理技術の活用が欠かせない.特に,テキスト中の重要な語句や表現を自動的に認識する技術は,固有表現抽出や用語抽出と呼ばれ,情報検索や質問応答,自動要約など,自然言語処理の様々なタスクに応用する上で必要不可欠な基盤技術である.用語抽出を実現する方法として,人手で作成した抽出ルールを用いる方法と,機械学習を用いる方法がある.前者の方法では,新しく出現した用語に対応するために随時ルールの修正や追加を行わなければならず,多大な人的コストがかかる.そのため,近年では,データの性質を自動的に学習することが可能な機械学習が用いられることが多くなっている.機械学習に基づく用語抽出では,抽出すべき語句の情報がアノテーションされた訓練データを用いてモデルの学習を行い,学習したモデルを未知のデータに適用することで,新しいデータから用語の抽出を行う.高精度な抽出を可能とするモデルを学習するには,十分な量の訓練データがあることが望ましい.しかし,診療記録などの医療文書は,医師や患者の個人情報を含むため,医療機関の外部の人間が入手することは困難である.幸い,近年は,研究コミュニティでのデータ共有などを目的とした評価型ワークショップが開催されており\cite{uzuner20112010,morita2013overview},匿名化などの処理が施された医療文書データが提供され,小規模なデータは入手可能になっている.とはいえ,依然として,学習に利用できる訓練データの量は限られることが多い.他方,一般に公開されている医療用語辞書などの語彙資源は豊富にあり,英語の語彙資源では,生物医学や衛生分野の用語集,シソーラスなどを含むUMLS(UnifiedMedicalLanguageSystem)\footnote{http://www.nlm.nih.gov/research/umls/},日本語の語彙資源では,広範な生命科学分野の領域の専門用語などからなるライフサイエンス辞書\footnote{http://lsd.pharm.kyoto-u.ac.jp/ja/index.html},病名,臨床検査,看護用語などカテゴリごとの専門用語集を含むMEDIS標準マスター\footnote{http://www.medis.or.jp/4\_hyojyun/medis-master/index.html}などが提供されている.辞書などの語彙資源を利用した素性(辞書素性)は,訓練データに少数回しか出現しない用語や,まったく出現しない未知の用語を認識する際の手がかりとして有用であるため,訓練データの量が少ない場合でも,こうした語彙資源を有効活用することで高精度な抽出を実現できる可能性がある.しかし,既存の医療用語抽出研究に見られる辞書素性は,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うものに留まっている\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純な検索ではマッチしない用語が存在し,辞書利用の効果は限定的であるといえる.本研究では,類似症例検索などを実現する上で重要となる症状名や診断名(症状・診断名)を対象とした用語抽出を行う.その際,語彙資源から症状・診断名の構成要素となる語彙を獲得し,元のコーパスに併せて獲得した語彙を用いることで,より多くの用語にマッチした辞書素性を生成する.そして,生成した辞書素性を機械学習に組み込むことで,語彙資源を有効活用した抽出手法を実現する.また,提案手法の有効性を検証するために,病歴要約からなるNTCIR-10MedNLPタスク\cite{morita2013overview}のテストコレクションを用いて評価実験を行う.本稿の構成は以下の通りである.まず,\ref{chp:related_work}章で医療用語を対象とした用語抽出の関連研究について述べ,\ref{chp:baseline_system}章で本研究のベースとなる機械学習アルゴリズムlinear-chainCRFに基づくシステムを説明する.\ref{chp:util_resources}章では,語彙資源から症状・診断名の構成語彙を獲得する方法と,獲得した語彙を活用した症状・診断名抽出手法を説明する.\ref{chp:experiments}章でMedNLPテストコレクションを用いた評価実験について述べ,最後に,\ref{chp:conclusions}章で本稿のまとめを述べる. \section{関連研究} \label{chp:related_work}\vspace{-0.5\Cvs}テキスト中の特定の語句や表現を抽出する処理を固有表現抽出や用語抽出という.固有表現は,主に人名・地名・組織名などの固有名詞や時間・年齢などの数値表現を指し,固有表現抽出では,これらの固有表現を抽出の対象とすることが多い.一方,用語抽出では特定の分野の専門用語などを対象とする.しかし,対象とする語句を抽出するというタスク自体に違いはないため,本稿では,特に両者を区別せず,抽出対象として指定される語句を固有表現と呼ぶ.\subsection{医療用語抽出研究}日本語の医療文書を対象に医療用語の抽出や探索を行った研究として,\pagebreak\cite{inoue2001iryo,kinami2008kango,uesugi2007n-gram}がある.井上ら\cite{inoue2001iryo}は,文章の記述形式に定型性のある医療論文抄録を対象に,パターンマッチングに基づく方法を用いて,病名(「論文が取り扱っている主病名」)や診療対象症例(「診断,治療の対象とした患者,症例」)などの事実情報を抽出した.たとえば,病名は「〜症」「〜炎」「〜腫」などの接尾辞の字種的特徴を手がかりに用い,診療対象症例に対しては,「対象は〜」「〜を対象とし」のような対象症例と共起しやすい文字列を手がかりに用いて抽出している.なお,井上らの報告によると,論文抄録中に含まれる病名や診療対象症例の出現回数は平均1回強である.アノテーションを行った医療論文抄録を用いた抽出実験では,病名や診療対象症例に関して,90\%前後の適合率,80\%から100\%近い再現率という高い精度を得ている.しかし,本稿で対象とする病歴要約では論文抄録と出現の傾向が異なり,同一文書中に様々な病名が出現することが多いため,井上らのパターンマッチングに基づく手法では抽出精度に限界があると考えられる.木浪ら\cite{kinami2008kango}は,専門用語による研究情報検索への応用を目的として,再現率の向上を優先した看護学用語の抽出手法を提案した.抽出対象とされた専門用語は,解剖学用語(「血小板」,「破骨細胞」など)や看護行為(「止血」,「酸素吸入」など)を含み,本稿で対象とする症状・診断名よりも広い領域の用語である.特定の品詞を持つ語が連続した場合にそれらの語を連接して抽出するなど,連接ルールに基づくシステムにより専門用語を抽出した.システムによる抽出を行うフェーズと,抽出されなかった用語や誤って抽出された用語を人手で分析してルールの修正・追加を行うフェーズを繰り返し,再現率が向上し,再現率が低下しない範囲で適合率が向上するようなルール集合を導出している.実験では,専門家によるアノテーションを行った看護学文献を用いて評価し,再現率約80\%という抽出結果を得ている.この手法では,適用する専門用語の領域が異なる場合,再び導出手順を踏んでルールを導出し直す必要がある.しかし,抽出ルール修正の過程が人手による判断に依存しており,再度ルールを導出する際の人的コストが大きい.また,適合率が約40\%と低く,適合率を改善するにはルール導出の基準自体も修正する必要が生じる.上杉\cite{uesugi2007n-gram}は,医療用語抽出の前処理として,医療辞書なしで医療コーパス中の用語間の分割位置を探索する研究を行った.文字列X,Yの出現確率に対し,XYが同時に出現する確率が十分に低ければX,Y間を分割できるとの考えに基づき,コーパスから求めた文字列の出現確率と相互情報量を使用して分割位置を決定している.症例報告論文を用いた実験では,約740語に対して60\%の分割精度\footnote{この文献で63.4\%と報告されている分割位置探索の成功事例の中には,分割された単語の内部でさらに不適切な位置で分割されたものが含まれている.意味のある区切りで分割された事例のみ考慮すると,分割精度は約60\%であった.}であり,分割に成功した事例の中には,複合語が1語と認識される場合と複合語の内部でさらに分割される場合がほぼ同等の割合で存在した.残りの40\%には,助詞が付加される,英字やカタカナ列の途中で分割されるなどの誤りがあるため,自然言語文に対する分割精度として十分であるとはいえない.なお,医療用語抽出に応用するには,分割された各単語が医療用語か否かを判定する基準が別途必要となる.\subsection{医療言語処理ワークショップとNTCIR-10MedNLP}近年,医療文書を対象とした共通タスクを設定し,研究コミュニティでのデータ共有や,データ処理技術の向上を目的とする参加型ワークショップが開催されている.英語の医療文書を処理の対象としたタスクとしては,2011年および2012年にNISTが主催するTRECにおいてMedicalRecordstrackが設定され,2006年および2008年から2012年に渡ってi2b2NLPチャレンジが開催された.i2b2NLPチャレンジでは,診療記録からの情報抽出技術の評価を目的とした共通タスクが実施され,匿名化のための個人情報\cite{uzuner2007evaluating},患者の喫煙状態\cite{uzuner2008identifying},医薬品の使用状況\cite{uzuner2010extracting}や医療上のコンセプト\cite{uzuner20112010}の抽出が行われた.また,日本語の医療文書を使用したタスクとして,2013年にはNIIが主催するNTCIRにおいてMedNLPタスク\cite{morita2013overview}が設定され,患者の個人情報や診療情報を対象に情報抽出技術の評価が行われた.NTCIR-10MedNLPタスクでは,医師により書かれた架空の患者の病歴要約からなる日本語のデータセット(MedNLPテストコレクション)が使用された.データから患者の年齢,日時などの個人情報を抽出する「匿名化タスク」と,患者の症状や医師の診断などの診療情報(症状・診断名)を抽出する「症状と診断タスク」などが設定された.症状・診断名には,症状の罹患の肯定,否定などを表すモダリティ属性が定義されており,モダリティ属性の分類もタスクの一部となっている.なお,両方のタスクとも,それぞれ個人情報,診療情報を固有表現とした固有表現抽出とみなせる.タスク参加者のシステムは,ルールに基づく手法よりも機械学習に基づく手法が多く,特に,学習アルゴリズムとしてCRF(ConditionalRandomFields)\cite{lafferty2001conditional}の代表的なモデルであるlinear-chainCRFを用いたシステムが高い性能を発揮した.また,成績上位のシステムでは,文中の各単語が辞書中の語とマッチしたか否を表す情報(辞書素性)が共通して用いられており,語彙資源の利用が精度向上に寄与したことがわかる.一方,匿名化タスクではルールに基づく手法も有効であり,最高性能を達成したのはルールベースのシステムであった.Miuraら\cite{miura2013incorporating}は,固有表現抽出タスクを文字単位の系列ラベリング\footnote{文をトークン(文字や単語)の列とみなし,各トークンに対して固有表現か否かなどを表すラベルを推定していく方法を指す.}として定式化してlinear-chainCRFを適用し,症状と診断タスクで最も高い精度を達成した.固有表現の抽出を行った後,抽出した固有表現のモダリティ属性を決定するという2段階の方法を使用している.MEDIS標準マスターおよびICH国際医薬用語集\footnote{https://www.pmrj.jp/jmo/php/indexj.php}を語彙資源に用いて辞書素性を与えている.Laquerreら\cite{laquerre2013necla},Imaichiら\cite{imaichi2013comparison}は,ともに単語単位の系列ラベリングとしてlinear-chainCRFを適用し,症状と診断タスクでそれぞれ2番目,3番目の精度を達成している.Laquerreらは,ライフサイエンス辞書とUMLSMetathesaurusを利用し,辞書素性を導入している.また,事前知識に基づくヒューリスティック素性として,「ない」「疑い」などモダリティ属性判別の手がかりとなる表現を素性としている.Imaichiらは,Wikipediaから収集した病名,器官名などの用語集に基づく辞書素性を導入している. \section{Linear-chainCRFに基づく症状・診断名抽出システム} \label{chp:baseline_system}本章では,症状・診断名の抽出のためにベースとするシステムを説明する.本研究では,用語抽出の処理を症状・診断名からなる固有表現を抽出するタスクとみなし,系列ラベリングとして定式化する.また,固有表現の抽出は,機械学習アルゴリズムlinear-chainCRFを用いて行う(以降,本研究で用いたlinear-chainCRFを指す場合,単にCRFと呼ぶ).さらに,CRFで抽出を行った出力に,人手で作成したルールを用いて抽出誤り訂正の後処理を行うことで,より誤りの少ない抽出を実現する.\subsection{MedNLP「症状と診断タスク」の定義}\label{sec:mednlp_taskdef}NTCIR-10MedNLP(MedicalNaturalLanguageProcessing)タスク\cite{morita2013overview}は,医療分野における情報抽出技術の評価を目的として実施されたタスクである.診療記録から症状・診断名を抽出する「症状と診断タスク」を含む3つのサブタスクが定義された.本研究では,MedNLPタスクで使用されたデータセット(MedNLPテストコレクション)を使用し,症状と診断タスクと同様の設定で症状・診断名の抽出を行う.以下,MedNLPテストコレクションおよび症状と診断タスクについてそれぞれ説明する.\subsubsection*{MedNLPテストコレクション}MedNLPテストコレクションは,医師により書かれた架空の患者の病歴要約50文書からなるデータセットであり,2対1の比率で訓練データとテストデータに分割されている.同テストコレクションには,患者の個人情報および診療情報がアノテーションされている.個人情報は患者の名前,年齢,性別と,日時,地名,医療機関名からなり,診療情報は患者の症状や医師の診断(症状・診断名)を指す.このうち,症状と診断タスクで対象とされたのは後者の診療情報である.症状・診断名には,医師の認識の程度などを表すモダリティ属性が定義されており,それぞれ症状の罹患の肯定,否定,推量(可能性の存在)を表すpositive,negation,suspicionに加え,症状が患者の家族の病歴として記述されていることを表すfamilyの4種類からなる.以下,{\tt<n></n>,<s></s>,<f></f>}で囲まれた範囲をそれぞれモダリティ属性がnegation,suspicion,familyである症状・診断名であるとして,各モダリティ属性が付与された症状・診断名の例を示す.\renewcommand{\labelenumi}{}\begin{enumerate}\item{\tt「<n>糖尿病</n>は\underline{認めず}」}\item{\tt「<n>関節症状</n>は\underline{改善した}」}\item{\tt「<s>神経疾患</s>の\underline{疑いにて}」}\item{\tt「<s>味覚異常</s>の\underline{可能性を考え}」}\item{\tt「<n>胆嚢炎</n>を\underline{疑わせる所見を認めず}」}\item{\tt「\underline{母親};<f>気管支喘息</f>」}\item{\tt「\underline{父}:<f>狭心症</f>、<f>心筋梗塞</f>」}\item{\tt「\underline{娘}3人は鼻粘膜の<f>易出血性</f>があり」}\end{enumerate}negation,suspicion属性については,(a)〜(d)に示すように,症状・診断名の係り先の文節が特定の表現を含む場合に,その表現に対応するモダリティ属性となることが多い.ただし,(e)のように,直接の係り先がsuspicionを示す表現を含んでいても,後方に否定表現が現れることによりnegationとなることがある.family属性の症状・診断名は,(f),(g)のように,続柄名の後に症状・診断名を列挙する形で記述された場合が該当する他,(h)のように,文全体の主語が続柄である場合も該当する.なお,positive属性は,negation,suspicionおよびfamilyであることを示す表現と共起しない症状・診断名に対して付与される属性とみなせる.\begin{table}[b]\caption{訓練データにおけるモダリティ属性の分布}\label{tab:medtr_tag}\input{01table01.txt}\end{table}表\ref{tab:medtr_tag}に,訓練データにおける各モダリティ属性の出現回数(``\#''の列)を示す.出現回数はモダリティ属性の種類により偏りがあり,positiveが7割程度を占めているのに対し,suspicion,familyは非常に少数となっている.\subsubsection*{症状と診断タスク}症状と診断タスクは,テストコレクションから,患者に関連する症状・診断名\footnote{文献の引用など,症状・診断名への言及が注目している患者の症状・診断を表すものではない場合には,抽出の対象とされない.}を抽出し,モダリティ属性を決定するタスクとして定義された.評価は,訓練データを用いて開発されたシステムに対して,テストデータでの抽出性能を測ることで行われ,評価尺度として,$F$値($\beta=1$)が使用された.$F$値は,適合率(Precision)と再現率(Recall)の調和平均であり,次式で定義される.\[\frac{2\cdot\mbox{Presicion}\cdot\mbox{Recall}}{\mbox{Precision}+\mbox{Recall}}\]また,評価方法として,モダリティ属性の分類を考慮する評価と,考慮しない評価の2通りの方法で評価が行われた.前者の方法では,抽出された固有表現が正しい属性に分類されないと正解とならないのに対して,後者の方法は,属性が誤っていても,抽出された固有表現の範囲がアノテーションされた正解情報と一致していれば正解とみなされる.\subsection{固有表現抽出タスクの定式化}\label{sec:ner_formulation}本研究では,各モダリティ属性が付与された症状・診断名を異なるカテゴリの固有表現とみなして固有表現抽出を行うことで,症状・診断名の抽出範囲およびモダリティ属性の決定を行う.固有表現抽出は,入力文中の固有表現部分を同定するタスクであり,系列ラベリングとして定式化されることが多い.系列ラベリングとは,入力系列に対してラベルの系列を出力する問題である.固有表現抽出では,トークンの系列である文を入力として,トークンごとに固有表現の種類等を表すラベルを推定し,それらラベルの列を出力する.本研究では,形態素をトークンとする系列ラベリングとして固有表現抽出の定式化を行う.定式化の際には,同一の固有表現(チャンク)中の位置を表すためのチャンキング方式として,IOB2フォーマット\cite{sang1999representing}を使用した.IOB2では,タグはB(Begin),I(Inside),O(Outside)の3種類があり,それぞれチャンクの先頭,チャンクの先頭を除く内部,チャンクの外側を表す.なお,複数のカテゴリの固有表現が存在する場合,B,Iはカテゴリ名と併せて使用される.たとえば,「嘔吐/B-c\_pos~~出現/I-c\_pos~~した/O」のようにラベルを付与することで,「嘔吐出現」がc\_pos(肯定のモダリティ属性を持つ症状・診断名)というカテゴリの固有表現であることを表す.なお,入力文の形態素解析には,linear-chainCRFに基づく日本語形態素解析器であるMeCab\cite{kudo2004applying}(Ver.~0.996)およびIPADIC(Ver.~2.7.0)を用いた.\subsection{CRFによる分類}\label{sec:crf}本システムでは,機械学習アルゴリズムとしてlinear-chainCRFを用いた.linear-chainCRFは,分類アルゴリズムである最大エントロピー法を出力が構造を有する問題(構造学習)に拡張したモデルである.品詞タギング\cite{lafferty2001conditional},基本名詞句同定\cite{sha2003shallow},形態素解析\cite{kudo2004applying}など,構造学習,特に,系列ラベリングとして定式化できる自然言語処理の様々な問題に適用され,高い性能が報告されている.また,固有表現抽出の研究においても広く使用され\cite{mccallum2003early,jiang2011study},NTCIR-10MedNLPタスクでも最もよく用いられた\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.linear-chainCRFの実装としては,C++で記述されたオープンソースソフトウェアであるCRF++\footnote{http://crfpp.googlecode.com/svn/trunk/doc/index.html}(Ver.~0.58)を利用した.CRF++は,準ニュートン法の一種であるL-BFGS(Limited-memoryBFGS)を使用して数値最適化を行っており,省メモリで高速な学習を実現している.また,素性テンプレートという素性の記述形式が定義されており,テンプレートを利用することで多様な素性を容易に学習に組み込むことができるという特長がある.CRF++の素性テンプレートでは,出力ラベル系列についてのunigram素性およびbigram素性が利用可能である.出力ラベルunigram素性は,入力系列についての任意の情報(系列中の特定のトークンの形態素自体や品詞など)と現在のトークンのラベルの組からなる素性を指し,出力ラベルbigram素性は,入力系列の任意の情報,現在のトークンのラベルおよび1つ前のトークンのラベルの三つ組からなる素性を指す.本研究では,すべての素性に対して出力ラベルunigram素性およびbigram素性の両方を使用することとした.たとえば,品詞素性を$-2$から2までのウィンドウで用いると述べた場合,注目するトークンの2つ前方から2つ後方に位置するトークンの品詞について,それぞれで出力ラベルunigram素性およびbigram素性を使用することを意味する.なお,指定した値未満の出現回数である素性を学習に使用しないことを意味する素性のカットオフの閾値は1とし,訓練データに出現したすべての素性を使用することにした.また,正則化には$L2$正則化を用いた.\subsection{抽出に用いる素性}\label{sec:features}本システムでは,症状・診断名抽出のための素性として,「形態素」,「形態素基本形」,「品詞」,「品詞細分類」,「字種」,「辞書マッチング情報」,「モダリティ表現」の7種類の情報を用いた.注目するトークンを起点にどこまでの範囲のトークンの情報を素性に用いるかを表すウィンドウサイズについては,モダリティ素性を除き,\ref{chp:experiments}章で述べる実験により最適な値を決定する.モダリティ素性のウィンドウサイズについては後述する.\subsubsection*{形態素,基本形,品詞,品詞細分類素性}形態素素性はトークン自体であり,基本形,品詞,品詞細分類素性は,それぞれ各形態素の基本形,品詞,品詞細分類である.たとえば,「言っ」の基本形は「言う」,「速く」の基本形は「速い」となる.品詞は,名詞,動詞,形容詞,接続詞など10数種類存在し,品詞細分類は,名詞であれば「固有名詞」,「形容動詞語幹」などがある.これら四つの素性には,形態素解析器MeCabの出力を利用した\footnote{異なる品詞間の同名の細分類を区別するため,「名詞/一般」,「副詞/一般」のように「品詞/品詞細分類」の形で細分類素性を記述した.また,品詞細分類がさらに細分化されている場合は,「固有名詞・人名・姓」のように最上層から最下層までのすべての細分類を「・」記号で併記し,1つの品詞細分類という扱いとした.}.なお,MeCabではデフォルトの辞書としてIPADICが採用されており,IPADICで使用されている品詞および品詞細分類は,IPA品詞体系として定義されている.\subsubsection*{字種素性}字種素性は,トークンを構成する文字の字種パターンを表す.本研究では,ひらがな,カタカナ,漢字,英大文字,英小文字,ギリシャ文字,数値,記号とこれらの組合せからなる字種パターンを定義した.たとえば,「レントゲン」は「カタカナ」,「考え」は「$\text{ひらがな}+\text{漢字}$」,「MRI」は「英大文字」が字種パターンとなる.なお,「$\text{ひらがな}+\text{漢字}$」では,1つのトークン中にひらがなと漢字が出現していればこのパターンに相当するものとし,各文字の出現順は無視した.複数字種の組合せからなるパターンの扱いは,他のパターンについても同様であ\linebreakる.\subsubsection*{辞書素性}辞書素性は,専門用語辞書など外部の語彙資源を利用した素性であり,入力文中の形態素列が辞書中の語句と一致したか否かという情報を表す.本研究では,症状・診断名の抽出のために病名等の用語から構成される辞書を使用し,入力文中のトークン列で,辞書中の語句とマッチした部分にIOB2フォーマットに基づくタグを付与した.たとえば,「腎機能障害」という語句が辞書中に含まれる場合,「腎/機能/障害/の/増悪」と分割された形態素列に対して「B/I/I/O/O」というタグが付与される.なお,辞書マッチは文字数についての最左最長一致で判定し,マッチした範囲の境界が形態素の内部にある場合,マッチ範囲に完全に包含される形態素に対してのみタグを付与した.\subsubsection*{モダリティ素性}モダリティ素性は,症状・診断名のモダリティ属性を示す表現(モダリティ表現)を捉えるための素性である.モダリティ表現の具体例として,先行する症状・診断名のモダリティがnegationであることを示す「〜なし」や「〜を認めず」,同様にsuspicionであることを示す「〜疑い」や「〜を考え」などがある.また,「母」「息子」など続柄を表す表現は,共起する症状・診断名のモダリティ属性がfamilyであることを示すモダリティ表現であるといえる.本素性では,negation,suspicionおよびfamily属性を対象に,モダリティ属性推定の手がかりとなる表現を正規表現で記述し,文中の各トークンについて,最左最長一致で正規表現とマッチした範囲の端に位置するトークンまでの距離(形態素数)と,マッチした表現が表すモダリティ属性を示すタグを付与した.なお,positive属性は,negation,suspicionおよびfamilyであることを示す表現と共起しない症状・診断名に対して付与される属性とみなせるため,これらのモダリティ表現が周辺に存在しないことがpositive属性と推定するための手がかりとなる.例として,negationのモダリティ表現を捉える正規表現の1つとして次の(a)を使用している\footnote{``$X|Y$''は$X$または$Y$との一致,``[$X_1X_2\dotsX_N$]''は$X_1,X_2,\dots,X_N$のいずれかとの一致,``()''はパターンのグループ化,``?''は直前のパターンの0または1回の出現を表す.}.\renewcommand{\labelenumi}{}\begin{enumerate}\item\![はがを]?(([認め$|$みとめ$|$見$|$み$|$得$|$え)(られ)?)?([無な](い$|$く$|$かっ)$|$せ?ず)\end{enumerate}この正規表現を用いると,「運動/麻痺/は/み/られ/ず」という入力に対して「はみられず」という部分がマッチし,マッチした範囲の先頭トークン「は」までの距離は,「麻痺」で1,「運動」で2となる.negationとsuspicionのモダリティ表現は症状・診断名の右側に出現するため,モダリティ表現が右側に出現しているトークンにのみ,出現を示すタグを付与した.反対に,familyの表現は「母:脳梗塞」のように左側に出現するため,モダリティ表現が左側に出現しているトークンにのみタグを付与した.なお,negationの正規表現は上述の(a)を含む4件,suspicionの正規表現は以下の(b)を含む2件,familyの正規表現は以下の(c)~1件を使用した\footnote{``[父母]''に後続する``(?![指趾])''というパターンは,医療用語である「母指」や「母趾」とのマッチを防ぐために用いた.}.モダリティ素性として使用した正規表現の全リストは付録\ref{sec:modal_regex}に記載する.\begin{enumerate}\setcounter{enumi}{1}\itemの?(疑い$|$うたがい)\item{[祖伯叔]?[父母](?![指趾])親?$|$お[じば]$|$[兄弟姉妹娘]$|$息子$|$従(兄弟$|$姉妹)}\end{enumerate}\renewcommand{\labelenumi}{}また,過学習を抑制する目的で,モダリティ属性ごとに距離のグループ化を行った.negationとsuspicionでは,距離1〜2(近くに出現),3〜4(やや近くに出現),5〜8(やや遠くに出現),9〜12(遠くに出現)の4通りの距離を考慮し,familyでは$-\infty$〜$-13$,$-12$〜$-9$,$-8$〜$-5$,$-4{\rm〜}-1$の4通りとした.なお,距離は,注目するトークンの右側にモダリティ表現が出現している場合に正数,左側に出現している場合に負数で表しており,距離の絶対値は,注目するトークンから同一文中の任意のモダリティ表現(正規表現とマッチしたトークン列)内の最も近いトークンまでのトークン数に相当する.また,``$-\infty$〜''は文の左端以降での出現を意味している.以上のモダリティ素性の定義に基づくと,前述の例に対しては,「運動」および「麻痺」に``neg1\_2'',それ以外のトークンにモダリティ表現の非出現を表すタグ``O''が付与される.なお,モダリティ素性として付与したタグは,注目しているトークンのタグのみ学習・推定に用いた(つまり,ウィンドウサイズを1とした).トークンに付与される素性タグにより,トークンの周辺文脈の情報が表現されており,実質的に12以上先のトークンまで考慮していることになる.\subsection{抽出誤り訂正のための後処理ルール}\label{sec:postprocess}著者らは,NTCIR-10MedNLPタスクに参加し,構造化パーセプトロン\cite{collins2002discriminative}およびlinear-chainCRFに基づく固有表現抽出システムを開発してきた\cite{higashiyama2013clinical,higashiyama2013developing}.開発したシステムについてエラー分析を行ったところ,観測された誤りの中で,モダリティ属性の分類誤りが大きな割合を占めることがわかった.この種の誤りは単純なルールで修正できるため,モダリティ属性の分類誤りに焦点を当て,誤り訂正のためのルールを作成することにした.観測されたモダリティ属性分類誤りは,さらに次の2通りに大別できたため,それぞれの誤りに対応する訂正ルールとして,2つのルールを作成した.\begin{itemize}\item固有表現の周辺に(非positive属性の)モダリティ表現が存在し,かつ推定された属性が同表現が表す属性と異なっている(主にpositiveとなっている)誤り\item固有表現の周辺にモダリティ表現が存在せず,かつ推定された属性がpositive以外となっている誤り\end{itemize}\vspace{8pt}作成した2つのルールを以下に示す.``[]''の外側(左側)にnegationおよびsuspicion属性に対する条件,``[]''の内側にfamily属性に対する条件を記述した.正しい推定に対して修正ルールを適用してしまうことを防ぐため,後述する$d_1$および$d_2$の値は,$d_1=2$,$d_2=8$として,ルールの適用基準を厳しく設定した.ただし,family属性のモダリティ表現が出現する文中の症状・診断名が患者の家族に対する言及でないというケースは極めて少ないとの考えの下,familyに対する距離は$d_1=d_2=\infty$,つまり,該当位置から到達可能な同一文内の最大トークン数とした.\subsubsection*{モダリティ属性分類誤り修正のためのルール}\begin{enumerate}\item固有表現$e$の末尾[先頭]のトークンから右[左]方向に距離(トークン数)$d_1$以内に(非positive属性の)モダリティ表現$m$が存在する場合,$e$の推定ラベルのモダリティ属性を表現$m$が表す属性$a$に更新する.\begin{itemize}\item[*]距離$d_1$以内に複数のモダリティ表現が存在する場合は,family,negation,suspicionの順に優先する.\end{itemize}\item固有表現$e$の末尾[先頭]のトークンから右[左]方向に距離$d_2$以内にモダリティ表現が存在しない場合,推定ラベルの属性をpositiveに更新する.\end{enumerate}なお,上記のルールを導入することは,固有表現$e$から$e$の最も近くのモダリティ表現までの距離$d$を,(a)近い($d\leqd_1$),(b)中程度の距離である($d_1<d\leqd_2$),(c)遠い,あるいはモダリティ表現が存在しない($d>d_2$)の3通りに分け,距離$d$に応じてモダリティ属性決定の挙動を変えていることに対応する.ルールが適用される(a)および(c)の条件下では,CRFで推定されたモダリティ属性をルールで上書きしているため,ルールによりモダリティ属性を決定しているのと等価である.一方,固有表現から中程度の距離までの範囲内にモダリティ表現が存在する(b)の場合には,CRFによる推定結果をそのまま採用し,モダリティ属性の決定を学習の結果に委ねた. \section{医療用語資源の語彙拡張と症状・診断名抽出への利用} \label{chp:util_resources}用語抽出への語彙資源の利用は,訓練データに少数回しか出現しない用語やまったく出現しない用語の認識に有効であり,医療用語辞書などの語彙資源を用いた医療用語抽出研究が行われている\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.しかし,診療記録では症状・診断名として多様な複合語が使用されるため,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うだけではマッチしない複合語が存在し,辞書利用の効果は限定的となる.そこで,本章では,語彙資源中の複合語から構成語彙を獲得する方法と,構成語彙を組み合わせてより多くの複合語にマッチする拡張マッチングの方法を述べ,これらの方法に基づく語彙資源を活用した症状・診断名の抽出手法を提案する.\subsection{基本的な考え:医療用語の構成語彙への分解}\label{sec:basic_idea}症状・診断名は,複数の医療用語から構成される複合語であることが多い.たとえば,「水痘肺炎」という用語は「水痘」と「肺炎」から構成され,「甲状腺出血」は「甲状腺」と「出血」から構成される.診療記録では,多様な構成語彙を組み合わせた複合語が用いられる一方で,実際に用いられる複合語の中には辞書中には含まれないものも多い.例として,「水痘感染」と「甲状腺腫大」は,診療記録コーパスMedNLPテストコレクション中で用いられ,医療用語辞書MEDIS病名マスター中に存在しなかった症状・診断名である.ただし,上述の用語の各構成語彙に注目すると,「水痘」,「感染」,「甲状腺」,「腫大」を構成語彙として含む用語は同辞書中に多数存在した(表\ref{tab:medterm_constituent}).\begin{table}[t]\hangcaption{複合語「水痘感染」,「甲状腺腫大」の構成語彙と,MEDIS病名マスターにおける各構成語彙からなる複合語数}\label{tab:medterm_constituent}\input{01table02.txt}\end{table}したがって,症状・診断名の抽出に,既存の辞書中に含まれる用語をそのまま用いて対応するには限界があるといえる.また,症状・診断名としてありうる構成語彙の組合せは膨大な数に上ると考えられ,それらを網羅的に含むような辞書を構築することも現実的ではない.一方で,症状・診断名の構成語彙となる語の多くは,辞書中の用語の部分文字列として辞書に含まれている可能性が高い.そこで,本研究では,既存の医療用語資源から症状・診断名の構成語彙となる語句を獲得し,得られた構成語彙を組み合わせた柔軟なマッチング方法「拡張マッチング」に基づく症状・診断名の抽出手法を提案する.なお,マッチした結果は,機械学習の素性(辞書素性)として用いる.語彙資源を活用した拡張マッチングによって,辞書素性タグが付与される語句が増加し,元の辞書に含まれない語彙にも対応した抽出が可能になると考えられる.\subsection{主要語辞書と修飾語辞書に基づく拡張マッチング}\label{sec:ext_match}症状・診断名の構成語彙の獲得にあたり,構成語彙には,単独で症状・診断名として用いられる「主要語」と,主要語と隣接して現れたときにのみ症状・診断名の一部となる「修飾語」の2種類が存在すると仮定する.\ref{sec:basic_idea}節で述べた例では,「水痘」,「感染」,「腫大」が主要語に相当し,「甲状腺」が修飾語となる.「水痘感染」や「甲状腺腫大」のように,構成語彙に分解される前の元の用語自体も主要語とみなす.主要語と修飾語の具体的な獲得方法は次節以降で後述することにし,本節では,主要語辞書と修飾語辞書の2種類の辞書を用いた症状・診断名のマッチング方法「拡張マッチング」を説明する.以下,「消化管悪性腫瘍の$\cdots$」という入力文が与えられた場合を例に,拡張マッチングの手順を述べる.主要語辞書には「消化管障害」,「腫瘍」,「悪性腫瘍」が含まれ,修飾語辞書には「消化管」,「悪性」が含まれているものとする.\subsubsection*{拡張マッチングの処理}\begin{figure}[t]\begin{center}\includegraphics{22-2ia1f1.eps}\end{center}\caption{入力文「消化管悪性腫瘍の$\cdots$」に対する拡張マッチングの処理}\label{fig:twodic_matcing}\end{figure}入力文を文字の列とみなし,主要語辞書中にマッチする文字列がないか検索する処理を先頭の文字から末尾の文字まで繰り返し行う.例の入力文に対しては,次のようにマッチング範囲の探索が行われる.\begin{enumerate}\item入力文1文字目の「消」を読み込み,主要語辞書の検索を行う(図\ref{fig:twodic_matcing},a1).「消化管悪」まで検索した時点で主要語が存在しないことが判明するため(a2),主要語検索を終了して2文字目以降について検索を続ける.\begin{itemize}\item[*]2文字目「化」および3文字目「管」の検索においてマッチする主要語はない.\end{itemize}\item4文字目の「悪」を読み込み,主要語辞書の検索を行う(b1).検索した結果,「悪性腫瘍」が主要語辞書とマッチする(b2).\item続いて,マッチした範囲「悪性腫瘍」の左右両側について,修飾語辞書中にマッチする文字列がないか検索する.検索した結果,元の範囲の左側の「消化管」が修飾語辞書とマッチする(b3).\itemマッチした範囲を「消化管悪性腫瘍」に拡張し,引き続き,拡張された範囲のさらに左側について,修飾語辞書を検索する.しかし,これ以上マッチする語はないため,「消化管悪性腫瘍」をマッチした範囲として記憶し,入力文5文字目以降について検索を続ける.\begin{itemize}\item[*]5文字目「性」の検索においてマッチする主要語はない.\end{itemize}\item6文字目の「腫」を読み込み(c1),同様の処理を行った結果,主要語辞書で「腫瘍」(c2),修飾語辞書で「悪性」および「消化管」がマッチし(c3,c4),「消化管悪性腫瘍」をマッチした範囲として記憶する.入力文7文字目以降の文字についても同様に検索を続ける.\begin{itemize}\item[*]7文字目以降の検索においてマッチする主要語はなかったものとし,入力文に対する検索の処理を終了する.\end{itemize}\end{enumerate}上述の辞書探索処理の結果,例では「消化管悪性腫瘍」がマッチした範囲として(二重に)得られる.複数のマッチング範囲が得られ,得られた範囲間に重なりがある場合は,範囲内の文字数が最も多いものを残し,残りを破棄する.例では,得られた2つの範囲が同一であるため,残される範囲も元の範囲と同じものとなる.以上が拡張マッチングの処理である.最終的に得られたマッチング範囲には辞書素性タグを付与し,機械学習の素性として利用する.\subsection{主要語辞書の利用と語彙制限}\label{sec:maindic_filtering}本研究では,主要語辞書として,MEDIS病名マスター(Ver.~3.11)と,MedNLPテストコレクション\cite{morita2013overview}の訓練データを利用する.MEDIS病名マスター(ICD10対応標準病名マスター)は,一般財団法人医療情報システム開発センターにより提供されている病名辞書である.病態毎に選ばれた代表病名を表す「病名表記」に加え,病名表記の読み,ICD10コードなどから構成され,本研究で利用したVer.~3.11では,24,292語が収載されている.同辞書に含まれる病名表記を抽出し,主要語辞書として用いる.MedNLPテストコレクションは,NTCIR-10MedNLPタスクで提供された模擬患者の病歴要約からなるコーパスである.同コーパスの訓練データからアノテーションされた症状・診断名部分を抽出し,主要語辞書MedNE(延べ語数1,922,異なり語数1,068)として用いる.ただし,主要語辞書をそのまま用いると,一部の語が用語抽出の学習に悪影響を与える場合がある.たとえば,細菌性皮膚感染症の一種である「よう」(癰)は,「〜するようになった」などの表現にマッチしてしまう.また,「喫煙歴」という表現に含まれる「喫煙」は,必ずしも患者の喫煙を表す言及ではないため症状・診断名に該当しない.このように,症状・診断名と無関係の表現とマッチする用語や,高頻度で非症状・診断名としても使用される用語を辞書が含んでいる場合,学習を阻害する要因となる.そこで,MedNLP訓練データを使用し,高い割合で症状・診断名とマッチする用語を取得する処理を行う.以下,各主要語辞書に対する語彙制限の方法を述べる.なお,後述の閾値$n_{\rmout}$,$r_\mathrm{out}$,$n_\mathrm{in}$および$r_\mathrm{in}$は,\ref{chp:experiments}章で述べる実験により決定する.\subsubsection*{MEDIS病名マスターの語彙制限}辞書に含まれる各用語について,MedNLP訓練データ中で固有表現範囲(症状・診断名としてアノテーションされた範囲)の内部および外部に出現した回数をそれぞれカウントし,次の2つの基準を満たす用語を主要語として許容する.\begin{itemize}\item固有表現範囲の外部における出現回数が$n_\mathrm{out}$未満である.\item訓練データ中に1回以上出現している場合は,固有表現範囲の内部と外部の両方の出現に対し,外部に出現した割合が$r_\mathrm{out}$未満である.\end{itemize}\subsubsection*{MedNEの語彙制限}辞書に含まれる各用語について,MedNLP訓練データ中で固有表現範囲の内部および外部に出現した回数をそれぞれカウントし,次の2つの基準を満たす用語を主要語として許容する.\begin{itemize}\item固有表現範囲の内部における出現回数が$n_\mathrm{in}$以上である.\item固有表現範囲の内部と外部の両方の出現に対し,内部に出現した割合が$r_\mathrm{in}$以上である.\end{itemize}\subsection{医療用語資源からの修飾語の獲得}\label{sec:gen_mdfydic}\ref{sec:basic_idea}節で述べたように,主要語に含まれる部分文字列の中には有用な修飾語が多く含まれるという考えに基づき,主要語から部分文字列を切り出すことで修飾語を獲得する.修飾語の獲得には,主要語の取得と同様にMEDIS病名マスターとMedNEを用いる.なお,MEDIS病名マスターの関連リソースとして提供されている「修飾語テーブル」は,本研究では使用しない.修飾語は,主要語辞書でマッチした範囲を拡張する際にのみ用いるため,意味をなさない非語が含まれていても,実際にテキスト中で主要語と隣接して現れなければ学習・抽出に影響を与えない.ただし,MEDIS病名マスターには動詞や助詞,記号などを含む用語(「1型糖尿病・関節合併症あり」,「アヘン類使用による急性精神・行動障害」など)が存在するため,切り出された部分文字列が助詞などの表現を含んでいると,症状・診断名でない範囲にまで拡張してしまう可能性がある.そこで,部分文字列を切り出すことにより機械的に修飾語候補を抽出した後,意味をなさないと考えられる候補と,過大な拡張を行う可能性のある有害な候補を除去するという手順により修飾語の獲得を行う.なお,有害な候補の除去には,主にひらがなから構成される語40語程度の「ひらがな表現」リストを作成し,使用した.同リストは,助詞(「が」や「より」),接続詞(「または」や「かつ」),動詞・助動詞の組合せ(「ならない」)などひらがなのみから構成される表現の他,一部,「著しい」など漢字を構成要素に持つ表現も含む.「ひらがな表現」の全リストは付録\ref{sec:mdfy_restrict}に記載する.\subsubsection*{修飾語獲得の手順}修飾語取得の対象とする用語集合$T$から修飾語集合$S$を生成する手順を以下に示す.切り出す部分文字列の最小の長さは2で固定し,修飾語として許容する部分文字列の最小出現回数を$f_\mathrm{min}$とした.$f_\mathrm{min}$の値は,主要語の語彙制限と同様に,\ref{chp:experiments}章で述べる実験により決定する.\begin{enumerate}\item修飾語候補の抽出\begin{enumerate}\item各用語$t\inT$について,$t$の先頭および末尾から,長さ2から$t$の文字列長までの部分文字列を切り出す.切り出した部分文字列は,修飾語候補集合$S_\mathrm{cand}$に追加する.\begin{itemize}\item[*]たとえば,$t=\mbox{``医療用語''}$の場合,``医療'',``医療用'',``医療用語'',``用語'',``療用語''が切り出される.\end{itemize}\item各修飾語候補$s\inS_\mathrm{cand}$について,$s$を部分文字列として含む$T$の用語全体の集合を求める.これを,$s$の出現元集合$\mathrm{Parent}(s)$とする.\begin{itemize}\item[*]たとえば,$s=\text{``用語''}$の場合,$\mathrm{Parent}(s)=\{\text{``用語''},\text{``医療用語''},\text{``専門用語''},$$\text{``用語抽出''}\}$などが得られると考えられる.\end{itemize}\end{enumerate}\item修飾語候補の限定(有害な語の除去)\begin{enumerate}\item$s\inS_\mathrm{cand}$のうち,数字および「%」記号のみからなる語を除去対象候補集合$S_\mathrm{reject}$に追加する.\item$s\inS_\mathrm{cand}$のうち,先頭または末尾が「-」(ハイフン)以外の記号か空白である語を$S_\mathrm{reject}$に追加する.\item$s\inS_\mathrm{cand}$のうち,先頭または末尾の文字が1字からなる「ひらがな表現」に一致し,一致した文字と隣接する文字がひらがな以外である\footnote{「のう胞」などひらがなからなる医療用語を除去してしまうことを防ぐため,この条件を設定した.}語を$S_\mathrm{reject}$に追加する.\item$s\inS_\mathrm{cand}$のうち,先頭または末尾から始まる範囲が2字以上からなる「ひらがな表現」の組合せに一致した語を$S_\mathrm{reject}$に追加する.\end{enumerate}\item修飾語候補の限定(有益でない語の除去)\begin{enumerate}\item$s\inS_\mathrm{cand}$のうち,$T$内での部分文字列としての出現回数が$f_\mathrm{min}$回未満($|\mathrm{Parent}(s)|<f_\mathrm{min}$)である$s$を$S_\mathrm{reject}$に追加する.\item任意の$s_1,s_2\inS_\mathrm{cand}$($s_1\neqs_2$)について,出現元集合が等しい場合,$s_1$と$s_2$のうちの長さが小さい方を$S_\mathrm{reject}$に追加する.\begin{itemize}\item[*]たとえば,$\mathrm{Parent}(\mbox{``群''})=\mathrm{Parent}(\mbox{``症候群''})=\{\mbox{症候群},\mbox{かぜ症候群}\}$である場合,``群''が$S_\mathrm{reject}$に追加される.\end{itemize}\end{enumerate}\item修飾語候補の決定\begin{itemize}\item$S_\mathrm{cand}$から$S_\mathrm{reject}$の元を除いた集合$S=S_\mathrm{cand}\setminusS_\mathrm{reject}$が求める修飾語集合である.\end{itemize}\end{enumerate} \section{評価実験} \label{chp:experiments}本研究で開発した用語抽出システムの性能を評価するため,MedNLPテストコレクションを用いて評価を行った.次節以降で,基本素性(形態素,品詞,品詞細分類,字種,基本形)の評価,モダリティ素性の評価,主要語語彙制限および拡張マッチングの有効性の評価を行う.さらに,すべての素性に加えて後処理ルールを適用した提案システム全体の性能を評価し,MedNLPタスクの参加システムである従来手法との比較を行う.\subsection{実験設定}実験に使用したMedNLPテストコレクションは,病歴要約50文書からなり,全データの3分の2にあたる2,244文が訓練データ,残りの1,121文が評価用のテストデータとなっている.訓練データにアノテーションされた情報は,患者の個人情報と診療情報である.本研究では,これらのうち,患者の症状と医師の診断を指す診療情報(症状・診断名)を対象とする.各症状・診断名には医師の認識の程度などを表すモダリティ属性が定義されており,それぞれ症状の罹患の肯定,否定,可能性の存在を表すpositive,negation,suspicionに加え,症状が患者の家族の病歴として記述されていることを表すfamilyの4種類からなる.各モダリティ属性が付与された症状・診断名を異なるカテゴリの固有表現とみなして学習を行うことで,モダリティ属性の分類を含めた抽出を行う.評価は,MedNLPタスクで行われたのと同様に,モダリティ属性を考慮する方法と,考慮しない方法の2通りで行う.前者は,抽出された固有表現が正しい属性に分類された場合にのみ正解とみなす評価であり,後者は,属性が誤っていても,抽出された固有表現の範囲がアノテーションされた正解情報と一致していれば正解とみなす評価である.それぞれの評価方法について,適合率,再現率,$F$値を評価尺度として用いる.CRFで学習を行う際に必要となる正則化のためのハイパーパラメータ$c$については,訓練データでの5分割交差検定により値を決定した.テストデータに対する抽出を行うまでの具体的な手順は以下の通りである.\begin{itemize}\item[1.]$c$の値を変化させながら,各$c$の値について訓練データで5分割交差検定を行い,5回の検定における各精度(適合率,再現率,$F$値)の平均をそれぞれ算出する.\item[2.]$c$の値の中で,最も$F$値が高い結果となったものを最適値とする.\item[3.]得られた$c$の最適値を用いて,訓練データ全体で学習を行い,モデルを学習する.続いて,学習で得られたモデルを用いてテストデータで抽出を行う.\end{itemize}なお,主要語の語彙制限および修飾語獲得の際の閾値については,次のように決定した.MEDIS病名マスターの語彙制限では,$n_\mathrm{out}\in\{3,5,8\}$,$r_\mathrm{out}\in\{0.5,0.7,0.9\}$の各組について,ハイパーパラメータ$c$の値を変えながら,それぞれ訓練データで交差検定を行い,最も$F$値が高かった$n_\mathrm{out}$,$r_\mathrm{out}$,$c$の値の組合せを最適値としてテストデータでの評価に用いた.MedNEの語彙制限については$n_\mathrm{in}\in\{3,5,8\}$,$r_\mathrm{in}\in\{0.5,0.7,0.9\}$とし,MEDISおよびMedNEからの修飾語獲得については$f_\mathrm{min}\in\{1,2,3,5,8,10\}$として,同様に最適値を決定した.その結果,$n_\mathrm{out}=n_\mathrm{in}=3$,$r_\mathrm{out}=0.7$,$r_\mathrm{in}=0.5$,$f_\mathrm{min}=3$(MEDIS),$f_\mathrm{min}=3$(MedNE)が最適値として得られた.また,素性のウィンドウサイズについては,基本素性(形態素,品詞,品詞細分類,字種,基本形)を素性セットとしたモデルを用いて次のように決定した.サイズは各素性について共通の値を使用することにし,候補を3($-1$から1),5($-2$から2),7($-3$から3),9($-4$から4)の4通りとした.続いて,サイズおよびハイパーパラメータ$c$の値を変えながら,訓練データで交差検定を行ったところ,サイズ5において最大の$F$値が得られ,この値を最適値とした.次節以降,サイズ1で固定しているモダリティ素性を除き,すべての素性に関してサイズ5として実験を行った結果を報告する.\subsection{基本素性の有効性の評価}\label{sec:exp_basic}形態素,品詞,品詞細分類,字種,基本形からなる素性セットを基本素性とし,これら5つの素性の有効性の評価を行った.各素性に対するテストデータでの精度を表\ref{tab:basic_features}に示す.表中の``P'',``R'',``F''はそれぞれ適合率,再現率,$F$値を意味し,``2-way''はモダリティ属性を考慮しない場合の精度,``Total''は考慮した場合の精度を表す.なお,表には,各素性セットに対して30回行った試行の平均精度を記載した.次節以降の実験結果についても同様である.直前の行中の素性セットを用いた場合との差について両側$t$検定を行い,有意水準1\%で有意であった場合に``$^\star$''を付した.\begin{table}[b]\caption{基本素性の評価}\label{tab:basic_features}\input{01table03.txt}\end{table}品詞素性の導入により,2-way,Totalの両評価で,適合率が4ポイント前後向上し,再現率が1.5〜2ポイント程度向上した.訓練データでは\footnote{テストデータについてはアノテーションされた情報が提供されていないため,訓練データでの分析を元にして実験結果への考察を行った.したがって,本節以降で述べる各素性における固有表現,非固有表現等の割合は,いずれも訓練データで算出した数値である.},名詞,接頭詞であるトークンのうちのそれぞれ20\%弱,30\%弱が固有表現(を構成するトークン)であり,残りの品詞については,いずれも97\%以上が非固有表現であった.したがって,品詞が名詞または接頭詞であることが固有表現である可能性を示す手がかりとなり,その他の品詞であることが固有表現でないことを示すほとんど確実な手がかりとなったと考えられる.品詞細分類素性の導入では,両評価とも多少の適合率の低下が見られたものの,それを上回る2.5ポイント前後の再現率の向上が得られた.名詞の細分類全体の約30\%に相当する「数」では,その99\%以上が非固有表現であり,合わせて名詞の約50\%に相当する「一般」,「サ変接続」,「接尾・一般」は,各20〜40\%を固有表現が占めた.したがって,名詞の中のどの細分類であるかという情報が精度向上に寄与したと考えられる.字種素性の導入による主な変化として,2-way,Totalでの適合率がそれぞれ0.3ポイント程度向上した.固有表現が大きな割合を占めた字種は,「漢字」と「カタカナ」で,それぞれ30\%強,20\%強の割合であった.ただ,接頭詞および名詞/接尾・一般の100\%近い割合を「漢字」が占めるなど,品詞や品詞細分類素性と重複している情報も多い.名詞/一般,名詞/サ変接続のそれぞれ85\%程度が「漢字」と「カタカナ」となっており,字種素性がこれらの品詞細分類を詳細化する役割を果たしたと考えられる.基本形素性の導入の結果,主にTotalでの適合率,再現率が向上した.「ない」「なかった」など表層が異なるモダリティ表現を基本形で同一視することで,モダリティ属性を考慮した評価の結果が向上したと考えられる.\subsection{モダリティ素性の有効性の評価}\label{sec:exp_mdlfeat}モダリティ素性の有効性を評価するため,基本素性のみを用いたシステム(Basic;表\ref{tab:basic_features}の最下行と同一のシステム)と,基本素性に加えてモダリティ素性を用いたシステム($\text{Basic}+\text{Modality}$)の精度の比較を行った.テストデータにおける各モダリティ属性および全体の精度を表\ref{tab:mod_features}に示す.なお,モダリティ属性とは,症状・診断名に付加されているモダリティの種類(positive,negation等)を指し,モダリティ素性は,モダリティ属性を捉えるために用いた素性を指す.Basicと$\text{Basic}+\text{Modality}$との差について両側$t$検定を行い,有意水準1\%で有意であった場合に``$^\star$''を付した.\begin{table}[b]\caption{モダリティ素性の評価}\label{tab:mod_features}\input{01table04.txt}\end{table}各属性における適合率と再現率は,negationとsuspicionの適合率を除いて,モダリティ素性導入後の方が同等か高いという結果が得られた.属性全体(``All(total)'')で見ても各精度は向上しており,本素性が正確なモダリティ属性の認識に寄与したといえる.なお,本素性の導入前,後ともに,他の属性に比べてsuspicion属性の精度が低いのは,データのアノテーション誤りに起因すると考えられる.著者らが訓練データを確認したところ,「疑い」などの表現が後続する固有表現で,suspicionという属性が付与されていない(positiveとなっている)事例が十数件存在し,suspicionの事例全体の十数パーセントという少なくない割合を占めていた.一方,モダリティ属性を考慮しない2-wayの評価では,適合率が1ポイント弱低下した.「〜がない」などの表現は固有表現でない語句の後方にも出現するため,非固有表現を誤って固有表現と認識してしまうケースが増加し,適合率低下の原因となったと考えられる.\subsection{主要語辞書および修飾語辞書利用の有効性の評価}主要語語彙制限および拡張マッチングの有効性を評価するため,基本素性のみのシステム(Basic)と,基本素性に加えて各種辞書に基づく辞書素性を用いたシステムの比較を行った.結果を表\ref{tab:dic_features}にまとめる.最左列は利用した辞書を示しており,``main($X$)''は辞書$X$を主要語辞書として使用したことを,``$\lhd$modify($X$)''は辞書$X$を修飾語辞書として拡張マッチングを行ったことを意味する.辞書$X$に対して,\ref{sec:maindic_filtering}節の方法による語彙制限を行っていないものを``$X$-r''(raw),行ったものを``$X$-f''(filtered)で表し,辞書$X$から獲得した修飾語集合を``$X$-s''(substring)で表した.また,``$X\cupY$''で2つの辞書$X$,$Y$を統合した辞書を表した.数値右上のシンボルは両側$t$検定によって有意水準1\%で有意差があった場合に付しており,``$\dagger$''が(a)と(b)または(c)との比較,``$\ddagger$''が(b)と(d)との比較,``$\star$''が(c)と(e)との比較,``$\S$''が(e)と(f)または(g)との比較の結果を示している.\begin{table}[b]\caption{辞書素性の評価}\label{tab:dic_features}\input{01table05.txt}\end{table}まず,語彙制限を行っていない辞書を単純に利用した場合,MEDIS病名マスター(表中のMDM;MEDISDiseaseNameMaster)に基づく辞書素性を導入した(b)で,2-wayの評価において適合率・再現率が0.7〜1.5ポイント程度向上し,その結果,$F$値が約1.1ポイント向上した.Totalにおいても$F$値が向上したものの,2-wayよりは効果が小さく,認識された症状・診断名の中にモダリティ属性の分類に誤ったものが含まれることが示唆される.なお,2-wayとTotalのいずれの場合も,$F$値の向上は統計的に有意であった.一方,MedNE(表中のMNE)を追加した場合(c)では,再現率が大きく低下した.訓練データでの交差検定では96\%を超える$F$値となっており,正解ラベルとほぼ一致する辞書素性に基づく過学習が起こり,他の素性の情報が学習されなかった可能性が高い.上記のような問題を避けるため,次に語彙制限を行った主要語辞書を使用した.結果を見ると,MEDISのみの(d)では全体的に$F$値がわずかに低下した.これは,MEDIS病名マスターから獲得した主要語については語彙制限の必要性が薄いことを示している.一方,MEDISに加えてMedNEにも語彙制限を加えた(e)では,語彙制限を加えない(c)に比べて適合率,再現率,$F$値とも大幅に向上した.モダリティ属性まで考慮したTotalでは(b)よりもわずかに精度が低いものの,モダリティ属性を考慮しない2-wayの評価では,これまでの設定で最も良い結果が得られた.最後に,語彙制限を加えた主要語辞書(e)に加えてさらに拡張マッチングを適用した.その結果,MEDISから獲得した修飾語辞書のみを使用した(f)で約0.5〜0.6ポイント,MedNEから獲得した修飾語辞書を併せて使用した(g)で約0.6〜0.7ポイントの$F$値の向上が見られ,修飾語辞書の導入・語彙増加にともない,わずかながらも着実な認識精度の向上が得られた.\subsection{システム全体の性能および従来手法との比較}\begin{table}[b]\caption{従来手法との比較}\label{tab:compare_other}\input{01table06.txt}\end{table}基本素性,辞書素性,モダリティ素性,後処理ルールを含めたシステム全体の性能の評価を行った.テストデータでの精度を表\ref{tab:compare_other}(a)に示す.基本素性に加えて語彙制限後の2つの辞書と修飾語辞書に基づく辞書素性を導入したシステム(表\ref{tab:dic_features}の最下行(g)のシステム)をModifyとし,モダリティ素性の追加,後処理ルールの適用をそれぞれModality,P-rulesで表した.なお,モダリティ素性と後処理ルールはモダリティ属性まで含めた分類(Total)において利用する.表中のシンボル``$\dagger$''はModifyと$\text{Modify}+\text{P-rules}$,``$\ddagger$''はModifyと$\text{Modify}+\text{Modality}$を,``$\star$''は$\text{Modify}+\text{Modality}$と$\text{Modify}+\text{Modality}+\text{P-rules}$を比較した際,両側$t$検定で有意水準1\%の有意な差があったことを示している.モダリティ素性の導入後には,適合率,再現率,$F$値がそれぞれ1ポイント前後向上し,その効果が確認された.また,後処理ルールについては,Modifyに適用した場合で$F$値で1ポイントの向上,$\text{Modify}+\text{Modality}$に適用した場合で0.7ポイント程度の向上が得られた.すなわち,CRFによって症状・診断名と認識された語句に対してのみモダリティ属性を修正する処理を行うことで,症状・診断名の認識精度を維持したまま,モダリティ属性分類誤りを減少できている.なお,後処理ルールの効果を確認するため,訓練データを使用して\footnote{テストデータへのアノテーションの情報は提供されていないため,\ref{sec:exp_basic}節と同様に,訓練データでの分析を元に考察を行った.5分割交差検定の5回分のテスト結果に対して,後処理ルールを適用した結果を合計した値を報告する.},Modifyおよび$\text{Modify}+\text{Modality}$の推定結果に後処理ルールを適用した場合の正解数の変化について表\ref{tab:prules_effect}に示した.\mbox{``対}象件\mbox{数''}はルール適用の対象となった固有表現の件数で,システムが正例と推定した固有表現の数に相当する.また,``T$\rightarrow$F'',``F$\rightarrow$T''および``F$\rightarrow$F''は,ルール適用前に正解(T)/不正解(F)であったものが,ルール適用後に正解/不正解に変化した件数を表す.``合計''はこれら3つの値の合計で,ルールが適用された件数に相当する(``T$\rightarrow$T''となったもの,つまり,モダリティ属性が変化しなかったものについては,件数に含めていない).Modifyに適用した場合では,適用対象件数の5\%弱にあたる81件に対してルールが適用された.適用された事例のうち,実際に固有表現であった事例に対する正解率は80\%程度であった.$\text{Modify}+\text{Modality}$に関しては,モダリティ素性の導入により周辺文脈と矛盾するモダリティ属性の推定結果が減ったと考えられ,ルールが適用された件数自体が減少した.しかし,ルールの適用により僅かながら正解数が増加している.\begin{table}[b]\caption{後処理ルール適用の効果}\label{tab:prules_effect}\input{01table07.txt}\end{table}表\ref{tab:compare_other}(a)の下半分には,MedNLP症状と診断タスクの成績上位3チームであるMiuraら\cite{miura2013incorporating},Laquerreら\cite{laquerre2013necla}およびImaichiら\cite{imaichi2013comparison}のシステムの精度を掲載した.従来手法の中では,Totalの適合率を除き,いずれもMiuraらのシステムの精度が最も高い.これに対し,Totalの評価で比較すると,本システムは適合率を中心に従来手法よりも高く,モダリティ素性と後処理ルールを併用したシステム($\text{Modify}+\text{Modality}+\text{P-rules}$)では,適合率,再現率,$F$値ともに最も高くなっている.また,提案システムと従来手法の中で精度が高いMiuraらのシステムについて,モダリティ属性ごとの精度を表\ref{tab:compare_other}(b)に掲載した.Miuraらのシステムではpositiveおよびnegationの再現率が高く,多数派クラスの網羅的な抽出の点で優れている.しかし,適合率ではどの属性についても本システムの方が高く,特に,少数派クラスであるsuspicion,familyの認識では,適合率,再現率ともに大きく上回っている.したがって,モダリティ属性の分類を含めた抽出では,従来手法と比べて,我々の手法が最も正確な用語抽出を実現できており,事例数の少ないクラスに対して頑健な推定を実現できているといえる.一方,表\ref{tab:compare_other}(a)における2-wayの評価では,特に,再現率がMiuraらのシステムと比べて3ポイントほど低く,本システムは症状・診断名抽出の網羅性の点で劣っている.修飾語の付加を行う拡張マッチングでは,主要語が主要語辞書に含まれない場合には対応できないという限界があるため,再現率を高めるには,コーパスから修飾語だけでなく新たな主要語も獲得する方法が必要となる.また,診療記録中の症状・診断名と共起しやすい「〜出現」「〜増悪」などの表現は,未知の主要語を認識する際の手がかりとして有効利用できる可能性がある. \section{おわりに} \label{chp:conclusions}本稿では,症例検索などの基礎技術として重要である症状名・診断名の抽出に焦点を当て,語彙資源を有効活用した用語抽出について報告した.語彙資源活用の1点目として,コーパス中の用語に対して語彙制限を行うことで,用語抽出に真に有用な語彙の獲得を行った.2点目として,コーパスから複合語の構成語彙である修飾語を獲得し,語彙制限後のコーパスの語彙に加えて獲得した修飾語を活用することで,テキスト中のより多くの用語を検出する拡張マッチングを行った.検出された用語の情報は,機械学習アルゴリズムlinear-chainCRFをベースとしたシステムの素性として使用した.NTCIR-10MedNLPタスクのテストコレクションを用いて抽出実験を行ったところ,単純な辞書の利用と比較して,$F$値で0.4〜1.1ポイントの有意な精度向上が見られ,語彙制限および拡張マッチングの有効性を確認した.症状・診断名の認識では,同タスクで1位のMiuraら\cite{miura2013incorporating}のシステムと比較し,モダリティ属性の分類を含めた認識では本システムが適合率・再現率ともに高い精度を実現した.一方,モダリティ属性を考慮しない場合の症状・診断名認識において再現率が低く,網羅性の点で劣っていた.語彙制限および修飾語の付加に基づく拡張マッチングでは,元の語彙資源に含まれない主要語に対応できないという限界があるため,今後の課題として,新たな主要語の獲得や,未知の主要語を認識する方法が必要である.また,NTCIR-10MedNLPに続くシェアドタスクであるNTCIR-11MedNLP2\cite{aramaki2014overview}では,表記が異なりかつ同一の対象を指す症状・診断名を同一視する「病名・症状正規化タスク」が設定されている.症例検索などの応用に向けた基礎技術として,幅広い症状・診断名を抽出することに加え,抽出した症状・診断名の表記の違いを吸収する技術の開発も重要である.\acknowledgmentNTCIR-10MedNLPタスクを主催され,MedNLPテストコレクションをご提供くださいました京都大学デザイン学ユニットの荒牧英治特定准教授ならびに関係者の皆様に感謝申し上げます.MEDIS病名マスターをご提供くださいました一般財団法人医療情報システム開発センターの関係者の皆様に感謝申し上げます.また,本研究の一部は,JSPS科学研究費補助金25330363,ならびに私立大学等経常費補助金特別補助「大学間連携等による共同研究」の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aramaki,Morita,Kano,\BBA\Ohkuma}{Aramakiet~al.}{2014}]{aramaki2014overview}Aramaki,E.,Morita,M.,Kano,Y.,\BBA\Ohkuma,T.\BBOP2014\BBCP.\newblock\BBOQOverviewofthe{NTCIR}-11{MedNLP}-2Task.\BBCQ\\newblockIn{\BemProceedingsofthe11thNTCIRWorkshopMeetingonEvaluationofInformationAccessTechnologies},\mbox{\BPGS\147--154}.\bibitem[\protect\BCAY{Collins}{Collins}{2002}]{collins2002discriminative}Collins,M.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeTrainingMethodsforHidden{Markov}Models:TheoryandExperimentswithPerceptronAlgorithms.\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing\textup{(}EMNLP\textup{)}},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Higashiyama,Seki,\BBA\Uehara}{Higashiyamaet~al.}{2013a}]{higashiyama2013clinical}Higashiyama,S.,Seki,K.,\BBA\Uehara,K.\BBOP2013a\BBCP.\newblock\BBOQClinicalEntityRecognitionusingCost-sensitiveStructuredPerceptronfor{NTCIR}-10{MedNLP}.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\704--709}.\bibitem[\protect\BCAY{Higashiyama,Seki,\BBA\Uehara}{Higashiyamaet~al.}{2013b}]{higashiyama2013developing}Higashiyama,S.,Seki,K.,\BBA\Uehara,K.\BBOP2013b\BBCP.\newblock\BBOQDeveloping{ML}-basedSystemstoExtractMedicalInformationfrom{Japanese}MedicalHistorySummaries.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNaturalLanguageProcessingforMedicalandHealthcareFields},\mbox{\BPGS\14--21}.\bibitem[\protect\BCAY{Imaichi,Yanase,\BBA\Niwa}{Imaichiet~al.}{2013}]{imaichi2013comparison}Imaichi,O.,Yanase,T.,\BBA\Niwa,Y.\BBOP2013\BBCP.\newblock\BBOQAComparisonofRule-basedandMachineLearningMethodsforMedicalInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNaturalLanguageProcessingforMedicalandHealthcareFields},\mbox{\BPGS\38--42}.\bibitem[\protect\BCAY{井上\JBA永井\JBA中村\JBA野村\JBA大貝}{井上\Jetal}{2001}]{inoue2001iryo}井上大悟\JBA永井秀利\JBA中村貞吾\JBA野村浩郷\JBA大貝晴俊\BBOP2001\BBCP.\newblock医療論文抄録からのファクト情報抽出を目的とした言語分析.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf141}(17),\mbox{\BPGS\103--110}.\bibitem[\protect\BCAY{Jiang,Chen,Liu,Rosenbloom,Mani,Denny,\BBA\Xu}{Jianget~al.}{2011}]{jiang2011study}Jiang,M.,Chen,Y.,Liu,M.,Rosenbloom,S.~T.,Mani,S.,Denny,J.~C.,\BBA\Xu,H.\BBOP2011\BBCP.\newblock\BBOQAStudyofMachine-learning-basedApproachestoExtractClinicalEntitiesandTheirAssertionsfromDischargeSummaries.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf18}(5),\mbox{\BPGS\601--606}.\bibitem[\protect\BCAY{木浪\JBA池田\JBA村田\JBA高山\JBA武田}{木浪\Jetal}{2008}]{kinami2008kango}木浪孝治\JBA池田哲夫\JBA村田嘉利\JBA高山毅\JBA武田利明\BBOP2008\BBCP.\newblock看護学分野の専門用語抽出方法の研究.\\newblock\Jem{自然言語処理},{\Bbf15}(3),\mbox{\BPGS\3--20}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo2004applying}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{Japanese}MorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing\textup{(}EMNLP\textup{)}},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{lafferty2001conditional}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning\textup{(}ICML\textup{)}},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Laquerre\BBA\Malon}{Laquerre\BBA\Malon}{2013}]{laquerre2013necla}Laquerre,P.~F.\BBACOMMA\\BBA\Malon,C.\BBOP2013\BBCP.\newblock\BBOQ{NECLA}attheMedicalNaturalLanguageProcessingPilotTask({MedNLP}).\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\725--727}.\bibitem[\protect\BCAY{McCallum\BBA\Wei}{McCallum\BBA\Wei}{2003}]{mccallum2003early}McCallum,A.\BBACOMMA\\BBA\Wei,L.\BBOP2003\BBCP.\newblock\BBOQEarlyResultsforNamedEntityRecognitionwithConditionalRandomFields,FeatureInductionandWeb-enhancedLexicons.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonNaturalLanguageLearning\textup{(}CoNLL-2003\textup{)}},\mbox{\BPGS\188--191}.\bibitem[\protect\BCAY{Miura,Ohkuma,Masuichi,Shinohara,Aramaki,\BBA\Ohe}{Miuraet~al.}{2013}]{miura2013incorporating}Miura,Y.,Ohkuma,T.,Masuichi,H.,Shinohara,E.,Aramaki,E.,\BBA\Ohe,K.\BBOP2013\BBCP.\newblock\BBOQIncorporatingKnowledgeResourcestoEnhanceMedicalInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNaturalLanguageProcessingforMedicalandHealthcareFields},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Morita,Kano,Ohkuma,Miyabe,\BBA\Aramaki}{Moritaet~al.}{2013}]{morita2013overview}Morita,M.,Kano,Y.,Ohkuma,T.,Miyabe,M.,\BBA\Aramaki,E.\BBOP2013\BBCP.\newblock\BBOQOverviewofthe{NTCIR}-10{MedNLP}Task.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\696--701}.\bibitem[\protect\BCAY{Sang\BBA\Veenstra}{Sang\BBA\Veenstra}{1999}]{sang1999representing}Sang,E.~F.\BBACOMMA\\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\173--179}.\bibitem[\protect\BCAY{Sha\BBA\Pereira}{Sha\BBA\Pereira}{2003}]{sha2003shallow}Sha,F.\BBACOMMA\\BBA\Pereira,F.\BBOP2003\BBCP.\newblock\BBOQShallowParsingwithConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguage\textup{(}HLT-NAACL\textup{)}},\mbox{\BPGS\213--220}.\bibitem[\protect\BCAY{上杉}{上杉}{2007}]{uesugi2007n-gram}上杉正人\BBOP2007\BBCP.\newblockN-gramと相互情報量を用いた医療用語抽出のための分割点の探索.\\newblock\Jem{医療情報学},{\Bbf27}(5),\mbox{\BPGS\431--438}.\bibitem[\protect\BCAY{Uzuner,South,Shen,\BBA\DuVall}{Uzuneret~al.}{2011}]{uzuner20112010}Uzuner,{\"O}.,South,B.~R.,Shen,S.,\BBA\DuVall,S.~L.\BBOP2011\BBCP.\newblock\BBOQ2010i2b2/{VA}ChallengeonConcepts,Assertions,andRelationsinClinicalText.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf18}(5),\mbox{\BPGS\552--556}.\bibitem[\protect\BCAY{Uzuner,Goldstein,Luo,\BBA\Kohane}{Uzuneret~al.}{2008}]{uzuner2008identifying}Uzuner,{\"O}.,Goldstein,I.,Luo,Y.,\BBA\Kohane,I.\BBOP2008\BBCP.\newblock\BBOQIdentifyingPatientSmokingStatusfromMedicalDischargeRecords.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf15}(1),\mbox{\BPGS\14--24}.\bibitem[\protect\BCAY{Uzuner,Luo,\BBA\Szolovits}{Uzuneret~al.}{2007}]{uzuner2007evaluating}Uzuner,{\"O}.,Luo,Y.,\BBA\Szolovits,P.\BBOP2007\BBCP.\newblock\BBOQEvaluatingtheState-of-the-artinAutomaticDe-identification.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf14}(5),\mbox{\BPGS\550--563}.\bibitem[\protect\BCAY{Uzuner,Solti,\BBA\Cadag}{Uzuneret~al.}{2010}]{uzuner2010extracting}Uzuner,{\"O}.,Solti,I.,\BBA\Cadag,E.\BBOP2010\BBCP.\newblock\BBOQExtractingMedicationInformationfromClinicalText.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf17}(5),\mbox{\BPGS\514--518}.\end{thebibliography}\appendix \section{モダリティ素性における正規表現} \label{sec:modal_regex}モダリティ素性において,各属性のモダリティ表現を捉えるために用いた正規表現を記載する.各正規表現の記述形式は,プログラミング言語Python\footnote{http://www.python.jp/}での正規表現に準拠している.なお,``$X|Y$''は$X$または$Y$との一致,``[$X_1X_2\dotsX_N$]''は$X_1,X_2,\dots,X_N$のいずれかとの一致,``()''はパターンのグループ化,``?''は直前のパターンの0回または1回の出現を表す.また,``(?!$\cdots$)''は否定先読みアサーションと呼ばれ,``$X$(?!$\cdots$)''として用いられた場合に,``$\cdots$''に相当する文字列が後続しない$X$にマッチする.\subsubsection*{Negationのモダリティ表現}Negation属性のモダリティ表現のために用いた正規表現を以下に示す.\begin{itemize}\item{\small[はがを]?(([認め$|$みとめ$|$見$|$み$|$得$|$え)(られ)?)?([無な](い$|$く$|$かっ)$|$せ?ず)}\item{\small[はがを]?((消失$|$除外)(?!し?(な[いかくし])$|$せず))}\item{\small[はがもの](改善$|$陰性$|$寛解)(?!し?(な[いかくし])$|$せず)}\item{\small(の(所見$|$既往)が?)?[無な](し$|$い$|$く$|$かった)}\end{itemize}\subsubsection*{Suspicionのモダリティ表現}Suspicion属性のモダリティ表現のために用いた正規表現を以下に示す.\begin{itemize}\item{\smallの?(疑い$|$うたがい)}\item{\small((の$|$である$|$であった)可能性)?[はがをもと]?(考え$|$考慮$|$思われ$|$(疑$|$うたが)[わい]$|$含め$|$高い)}\end{itemize}\subsubsection*{Familyのモダリティ表現}Family属性のモダリティ表現のために用いた正規表現を以下に示す.なお,``[父母]''に後続する``(?![指趾])''というパターンは,医療用語である「母指」や「母趾」とのマッチを防ぐために用いた.\begin{itemize}\item{\small[祖伯叔]?[父母](?![指趾])親?$|$お[じば]$|$[兄弟姉妹娘]$|$息子$|$従(兄弟$|$姉妹)}\end{itemize} \section{修飾語の限定に用いたひらがな表現} \label{sec:mdfy_restrict}語彙資源から修飾語を獲得する処理において,修飾語の限定の際に用いた主にひらがなから構成される表現を以下に記載する.\begin{description}\item[助詞・連語]が,の,を,に,へ,と,から,より,で,など,のみ,における\item[連体詞]その\item[接続詞]または,あるいは,および,かつ\item[助動詞]な\item[形容詞]ない,なし\item[動詞・名詞・助詞・助動詞の組合せからなる語]する,よる,ある,あり,して,した,ならない,なった,のための\item[漢字を含む表現]伴う,伴わない,生じない,疑い,著しい,その他,手当て,比較して\end{description}\begin{biography}\bioauthor{東山翔平}{2012年神戸大学工学部情報知能工学科卒業.2014年神戸大学大学院システム情報学研究科博士前期課程修了.現在,NEC情報・ナレッジ研究所に在籍.自然言語処理,情報抽出の研究に従事.}\bioauthor{関和広}{2002年図書館情報大学情報メディア研究科修士課程修了.2006年インディアナ大学図書館情報学研究科博士課程修了.Ph.D.神戸大学助教等を経て現在甲南大学知能情報学部准教授.情報検索,データマイニングの研究に従事.情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{上原邦昭}{1978年大阪大学基礎工学部情報工学科卒業.1983年同大学院博士後期課程単位取得退学.工学博士.同産業科学研究所助手,講師,神戸大学工学部情報知能工学科助教授等を経て,現在同大学院システム情報学研究科教授.人工知能,特に機械学習,マルチメディア処理の研究に従事.電子情報通信学会,計量国語学会,日本ソフトウェア科学会,AAAI各会員.}\end{biography}\biodate\end{document}
V28N01-03
\section{はじめに} \label{sec:intro}対話システムの応答生成においては,ユーザとの対話を継続させる働きである対話継続性が重要な要素であり,特に対話中でのシステム発話の一貫性を考慮することが重要とされている\cite{bohus2003ravenclaw}.近年盛んに研究されている,ニューラルネットワークで対話のクエリ-応答ペアを学習するNeuralConversationModel(NCM)\cite{ncm}においても同様に,対話の文脈や論理を考慮することが対話継続性に寄与すると考えられている\cite{mei2017coherent}.そこで本研究では,まず応答候補と対話履歴に存在する事態の一貫性に着目した応答のリランキング手法を提案し,これによって対話継続性が向上するかについて調査する.リランキングは,質問応答システムや対話システムなどの言語生成タスクにおいて様々な要素を考慮した候補の選択に用いられる\cite{intra,jansen,bogdanova,ohmura}.応答候補と対話履歴に存在する一貫性を考慮しようとする場合,何をもって一貫性を定義するかが重要となる.そこで本研究では,「ストレスが溜まる」と「発散する」など,関連すると認められる事態ペアが対話履歴と応答候補の間に存在する場合に着目する.事態は動詞や事態性名詞により構成される,文の中心的な意味表現であり,文中での事態の一貫性の高さは当該文同士の一貫性の高さと関係があると考えられる.すなわち,対話履歴と応答候補の事態の一貫性が高いとき,応答候補が対話履歴に対して関連,一貫していると考えられる.一貫性があると解釈できる事態間関係の一つとして,因果関係がある.因果関係とは2つの事態間に原因と結果の関係が成立すること\cite{ecdic,ecdic2}と定義され,この定義に従い,「ストレスが溜まる」が原因,「発散する」が結果,のように認定する.因果関係はこれまで質問応答システムなどで利用されており,質問と応答の間に成立する因果関係を考慮することで,質問に対する適切な応答を生成できることが示されている\cite{intra,semisuper,mcnn-ca}.雑談対話システムにおいても因果関係を考慮することで,ユーザに好まれる応答を生成できることが示されている\cite{fujita,satoh2018}.しかしながら,実際に発話中に存在する事態の一貫性を考慮することで発話同士の一貫性を考慮することができるかどうかや,これにより対話継続性が向上するかについては議論が行われていない.そこで本研究では,こうした事態の一貫性を考慮したリランキング手法を提案し,生成応答の履歴に対する一貫性や対話継続性が実際に向上するかを検証する.また,異なる観点からの一貫性についての研究として,CoherenceModel\cite{coherence}がある.CoherenceModelは文書中に出現する単語の品詞情報や文の分散表現をもとに,対象となる文の先行文書に対する一貫性を推定する.対話応答生成においてもこのモデルが出力する一貫性スコアを利用する先行研究が存在する\cite{coh_dial}.そこで本研究では,このCoherenceModelに事態の一貫性を導入することで,対話履歴に対する一貫性と対話継続性が向上するかについて調査する.本論文で提案する手法は,対話継続性の高い応答を選択するために,事態の一貫性を考慮したスコア,あるいはCoherenceModelにおいて事態の一貫性を考慮したスコアの計算を行い,これらに基づいて応答候補から応答を選択する.この計算に,大規模コーパスから統計的に獲得された因果関係ペア\cite{ecdic,ecdic2}を用いる.また,因果関係ペアを用いる際に生じるカバレージの問題を解決するため,RoleFactoredTensorModel(RFTM)\cite{evnttnsr}を用いる.実験においては,参照文を用いた自動評価に加えてPMIを用いて一貫性の評価を行った.また,人手評価によって提案手法が対話履歴に対する一貫性を向上したか,また対話継続性を向上したかについての評価を行った.その結果,これらの手法はPMIなどの自動評価による一貫性スコアを向上したにも関わらず,人手評価における一貫性評価はかえって低下し,しかし対話継続性が向上するという一見すると矛盾する結果となった.この結果から,以下の3つの仮説を立て分析を行った.一つ目は,出現する単語に基づく一貫性の向上は必ずしも人手評価における一貫性の評価に寄与しない,という仮説である.二つ目は,人手評価における一貫性の評価と対話継続性の評価は相関が低い,という仮説である.三つ目は,人手評価における一貫性ではなく,単語選択や事態に基づく一貫性の向上が人手評価における対話継続性の向上に寄与する,という仮説である.この分析のため,人手評価のスコアの相関分析と,個々の事例分析を行った.この結果,前述の3つの仮説がある程度成立することが示され,対話履歴に関連する事態を含む応答を選択できている場合には対話継続性が向上することが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{事態の一貫性に基づく応答のリランキング} 提案した事態の一貫性に基づく応答のリランキングモデルを図\ref{fig:reranking}に示す.このリランキングモデルは,大きく分けて2つのパートから構成される.まず対話履歴をもとに既存のNCMモデルから$N$-best応答候補を生成する(図\ref{fig:reranking}\textcircled{\scriptsize1};\ref{sec:ncm}節).次に応答候補を事態の一貫性に基づきリランキングする(図\ref{fig:reranking}\textcircled{\scriptsize2}).このリランキングのために,本研究では2つの異なる手法を用いる.一つ目の手法は事態の一貫性に関する外部知識として,統計的に獲得された因果関係ペア\cite{ecdic,ecdic2}を用いるリランキングである(\ref{sec:reranking_rftm}節).二つ目の手法は事態間の関係のみでなく,CoherenceModelによって対話全体の一貫性も評価するリランキングである(\ref{sec:reranking_coh}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-1ia2f1.pdf}\end{center}\hangcaption{NeuralConversationalModel$+$リランキング;「疲れる」と「リラックスする」が関連した事態であるという知識に基づき応答を選択.}\label{fig:reranking}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{NeuralConversationalModel(NCM)}\label{sec:ncm}NCMは入力発話と出力応答の系列の対応をRecurrentNeuralNetwork(RNN)などの系列予測により学習するものである.NCMのデコーダは各単語を逐次的に予測するため,ビームサーチやサンプリングなどを用いることで$N$-best応答を生成することもできる\cite{lennorm}.本研究ではビームサーチにより生成された$N$-best候補を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{因果関係ペアを用いるリランキング\label{sec:reranking_rftm}}本論文において取り扱う一貫性には,異なる2種類が存在する.一つ目は対話履歴と応答に含まれる事態の一貫性であり,これが高い例として,対話履歴に「ストレスが溜まる」という事態が,応答に「発散する」という事態が含まれている場合が挙げられる.二つ目は対話履歴に対する応答の一貫性であり,これが高い例として,「ストレス溜まってるんだよね」が対話履歴であり,「発散したら?」が応答である場合が挙げられる.本研究では,対話履歴と応答候補の間に一貫する事態が存在する場合,その応答候補の対話履歴に対する一貫性が高く,対話継続性に寄与するという仮説に基づき,応答候補のリランキングを行う.対話中の連続する事態の一貫性を考える場合,対話履歴と応答の間に何らかの因果関係が成立していれば,一貫性があると解釈することができる.そこでこれを考慮したモデルとして,述語項構造に基づく因果関係を利用する手法を提案する.提案手法は,まず対話履歴と応答候補に含まれる事態(述語項構造)を事態パーサーを用いて抽出する(図\ref{fig:reranking_rftm}\textcircled{\scriptsize2}-1).この事態パーサーにはKNP\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/?KNP}}\cite{knp,knp2}を用いる.その後,抽出した事態及び因果関係ペアを事態埋め込みモデルを用いて分散表現に変換する(図\ref{fig:reranking_rftm}\textcircled{\scriptsize2}-2;\ref{sec:rftm}節).事態埋め込みモデルとして,RFTMを利用する.最後に応答候補を因果関係に基づきリランキングする(図\ref{fig:reranking_rftm}\textcircled{\scriptsize4};\ref{sec:ecdic},\ref{sec:matching}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-1ia2f2.pdf}\end{center}\hangcaption{因果関係ペアを用いたリランキング;「疲れる」$\rightarrow$「リラックスする」という因果関係が対話履歴との間に成立する応答がリランキングにより選択される.}\label{fig:reranking_rftm}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{02table01.tex}\caption{因果関係の一例}\label{tab:ecdic}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{因果関係ペア}\label{sec:ecdic}柴田ら\cite{ecdic,ecdic2}が提案した,共起情報と格フレームに基づき自動獲得された因果関係ペアデータセットをリランキングに用いる.このデータセットは約16億文のWebテキストから抽出された約42万件の因果関係知識で構成されている.表\ref{tab:ecdic}に因果関係ペアの一例を示す.各事態は述語項構造により表現され,述語1及び項1は原因となる事態を,述語2及び項2は結果となる事態を表す.ここで各事態は述語を必ず含むが,項(ガヲニデ格のいずれか)は含まない場合もある.$lift$は次式の通り2つの事態の自己相互情報量に関連した値\cite{ecdic2}であり,事態間の因果関係としての結びつきの強さを表す.$p({\rme})$は事態のWebテキスト中のある一文における出現確率を表し,$p({\rme}_h,{\rme}_r)$は2つの事態の同時出現確率を表す.\begin{align}lift({\rme}_h,{\rme}_r)=\frac{p({\rme}_h,{\rme}_r)}{p({\rme}_h)p({\rme}_r)}.\end{align}$lift$を用い,リランキングのためのスコアの計算を次のように定義する.\begin{align}score({\rmh},{\rmr})=\max_{<{\rme}_h,{\rme}_r>}\frac{\log_2{\rmP}({\rmr}\mid{\rmh})}{\bigl(\log_2lift({\rme}_h,{\rme}_r)\bigr)^{\lambda}}.\label{eq:noemb}\end{align}${\rmP}({\rmr}\mid{\rmh})$は対話履歴${\rmh}$を与えたときにNCMが生成した各応答候補${\rmr}$の事後確率であり,$\lambda$は因果関係の重みを決定するハイパーパラメータである.$lift({\rme}_h,{\rme}_r)$は対話履歴中の事態${\rme}_h$と応答候補中の事態${\rme}_r$との間の$lift$の値である.この事態ペアが因果関係ペアに含まれない場合,$lift$の値は2とする.ただし$lift({\rme}_h,{\rme}_r)$は値域が広い($10<lift({\rme}_h,{\rme}_r)<10,000$)ため,対数をとった値である2つの事態間の自己相互情報量を使用する.応答候補と対話履歴との間に複数の因果関係ペアが含まれる場合,$lift({\rme}_h,{\rme}_r)$の値が最も大きい因果関係のみを考慮する.なお$\log_2{\rmP}({\rmr}\mid{\rmh})$の値域は$(-\infty,0]$であるため,$lift$の値が大きくなるほどリランキングスコアも大きくなる.このモデルを``Re-ranking(Pairs)''と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{RoleFactoredTensorModel(RFTM)に基づく事態分散表現}\label{sec:rftm}大規模テキストから抽出した大規模因果関係ペアデータセットであっても,あらゆる因果関係ペアを網羅できるわけではないため,これのみを用いて対話履歴と応答候補に存在する全ての因果関係を考慮することは難しい.そこで因果関係ペア,および発話中に含まれる事態を分散表現に変換し,ベクトル空間中で因果関係知識と対話中に出現した因果関係との類似度に基づくマッチングを行うことで,表層の一致しない因果関係に対するマッチングを実現する.本論文では,事態を述語,もしくは述語と付随する項のペアと定義して用いる.項$a$はGloVe\cite{glove}によりベクトル${\rmv}_{a}$へと変換される.述語$p$はpredicateembeddingによりベクトル${\rmv}_{p}$へと変換される.predicateembeddingはSkip-gram\cite{word2vec2,word2vec3,word2vec1}をもとにした単語分散表現である.図\ref{fig:preemb}にpredicateembeddingモデルの概要を示す.このモデルはSkip-gramが与えられた単語の周辺単語を予測するよう学習を行うのと同様に,与えられた述語に付随する項を予測するよう学習を行う.${\rmv}_{p}$および${\rmv}_{a}$より事態の分散表現を得る手法として,Weberらが提案したRFTM\cite{evnttnsr}を利用する.RFTMは述語$p$と項$a$を次式により事態分散表現${\rme}$へと変換する.\begin{align}{\rme}=\sum_{a}W_{a}T({\rmv}_{p},{\rmv}_{a}).\label{eq:rft}\end{align}述語と付随する項の関係は3階パラメータテンソル$T$,パラメータ行列$W_{a}$により計算される.述語が項を持たない場合,${\rme}$は${\rmv}_{p}$により代替される.RFTMでは連続して起こる事態を予測するため,それらの分散表現同士のコサイン類似度を損失関数とし,連続して起こる事態が近い点に埋め込まれるように学習を行う.これは単語における分布仮説同様,似た文脈に出現する事態が似た意味を持つことを仮定するものである.これにより,似た文脈を持つ事態を潜在空間上の近い位置に埋め込むことが出来る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[b]\noindent\begin{minipage}[t]{162pt}\includegraphics{28-1ia2f3.pdf}\caption{PredicateEmbedding}\label{fig:preemb}\end{minipage}\hfill\begin{minipage}[t]{241pt}\setlength{\captionwidth}{241pt}\begin{center}\includegraphics{28-1ia2f4.pdf}\end{center}\hangcaption{因果関係のマッチング;「疲れる」$\rightarrow$「リラックスする」という因果関係の$lift$は最もコサイン類似度が高い因果関係である「ストレスが溜まる」$\rightarrow$「発散」の$lift$から計算される.}\label{fig:matching}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事態分散表現を用いた因果関係のマッチング}\label{sec:matching}図\ref{fig:matching}に事態分散表現による事態のマッチングを示す.提案手法は事態分散表現に基づき,応答候補と対話履歴中の発話との間の事態ペアに対し,最も高いコサイン類似度を持つ因果関係を因果関係ペアより選択する.ここで2つの事態間の$lift_{emb}$を次の式のように定義する.\begin{equation}lift_{emb}({\rme}_h,{\rme}_r)=lift({\rme}_c,{\rme}_e)*mean\bigl(sim({\rme}_h,{\rme}_c),sim({\rme}_r,{\rme}_e)\bigr).\label{eq:lift}\end{equation}${\rme}_h$は対話履歴中の事態,${\rme}_r$は応答候補中の事態であり,${\rme}_c$と${\rme}_e$はそれぞれ因果関係ペア中の原因となる事態,結果となる事態である.$sim$はベクトル間のコサイン類似度である.提案手法では対話履歴中の事態が結果,応答候補中の事態が原因となる場合も考慮する.ただし「風邪を引く」と「目が覚める」を同一とみなすなど,事態を過剰に汎化してしまう場合がある.こうした問題を避けるために,各$sim$はしきい値を設定し,ある事態ペアの各$sim$がしきい値未満である場合,その事態ペアはリランキングに用いない.また${\rme}_h,{\rme}_r$の代替として用いる因果関係ペア${\rme}_c,{\rme}_e$は$mean\bigl(sim({\rme}_h,{\rme}_c),sim({\rme}_r,{\rme}_e)\bigr)$が最も高いものを選択する.式\eqref{eq:noemb}の$lift({\rme}_h,{\rme}_r)$を$lift_{emb}({\rme}_h,{\rme}_r)$で更新することで,事態分散表現を用いたリランキングスコアは次のように定義される.\pagebreak\begin{align}score({\rmh},{\rmr})=\max_{<{\rme}_h,{\rme}_r>}\frac{\log_2{\rmP}({\rmr}\mid{\rmh})}{\bigl(\log_2lift_{emb}({\rme}_h,{\rme}_r)\bigr)^{\lambda}}.\label{eq:emb}\end{align}``Re-ranking(Pairs)''と同様に,応答候補と対話履歴との間に複数の因果関係ペアが含まれる場合,$lift_{emb}({\rme}_h,{\rme}_r)$の値が最も大きい因果関係のみを考慮する.このモデルを``Re-ranking(RFTM)''と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{28-1ia2f5.pdf}\end{center}\hangcaption{CoherenceModelを用いたリランキング;「疲れる」「リラックスする」という事態ペアの一貫性に加え,対話全体の一貫性も考慮して応答を選択.}\label{fig:reranking_coh}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{CoherenceModelを用いるリランキング}\label{sec:reranking_coh}因果関係は一貫性の推定に重要な要素であると考えられるものの,これ以外にも内容語や機能語の語彙選択など,様々な要素が応答の一貫性に寄与すると考えられる.例えば,対話履歴が「ストレス溜まってるんだよね」であり,応答が「私が発散したい」である場合などは,応答に含まれる事態の一貫性は高いものの,応答の一貫性が高いとは言えない.また,本研究で用いた因果関係ペア自体は統計モデルで推定されたものであり,必ずしも全てが因果関係として成立しているわけではない.そこで事態ペア間のみでなく,応答全体の一貫性も評価するリランキングを実現するため,CoherenceModelを用いる.このリランキングでは因果関係ペアを用いたリランキングと同様,はじめに対話中の事態を事態パーサーにより抽出する(図\ref{fig:reranking_coh}\textcircled{\scriptsize2}-1).次に,抽出した事態,対話履歴,応答候補をCoherenceModelに与え,応答候補の対話履歴に対する一貫性スコアを推定する(図\ref{fig:reranking_coh}\textcircled{\scriptsize2}-2;\ref{sec:coh_pre}節).最後に応答候補を一貫性スコアに基づきリランキングする(図\ref{fig:reranking_coh}\textcircled{\scriptsize2}-3;\ref{sec:coh_pre}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{CoherenceModelによる対話の一貫性推定}\label{sec:coh_pre}応答候補の対話履歴に対する一貫性を推定するために,Xuらが提案したCoherenceModel\cite{coherence}を利用する.このモデルは先行するテキストに対して後続する文が連続する一文であるか,ランダムに置き換えられた一文であるかを判定する.本研究では,CoherenceModelを応答候補の対話履歴に対する一貫性推定に用いる.モデルの学習に用いる正例,負例の例を図\ref{fig:coh_smp}に示す.正例は対話履歴と対話履歴中の発話に対し因果関係を持つ応答のペアである.因果関係のマッチングには``Re-ranking(Pairs)''と同じく因果関係ペアデータセット\cite{ecdic,ecdic2}を用いる.負例は正例の順序を逆に入れ替えたもの,すなわち応答と,応答との間に因果関係を持つ対話履歴中の発話とを入れ替えたペアである.これにより,含まれる事態と全体の意味の両方が対話履歴に対して一貫している応答候補のみ,一貫性スコアを高く見積もることが期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{28-1ia2f6.pdf}\end{center}\hangcaption{CoherenceModelの学習に用いる正例と負例;負例の応答に含まれる事態(疲れる)は対話履歴中の事態(リラックスする)に対して一貫している(「疲れる」が原因,「リラックスする」が結果)が,応答全体の意味は一貫していない.}\label{fig:coh_smp}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{28-1ia2f7.pdf}\end{center}\caption{CoherenceModelによる一貫性スコアの推定}\label{fig:coh_pre}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:coh_pre}にモデルの概要を示す.このモデルはまず対話履歴${\rmh}$,応答候補${\rmr}$をBERT\cite{bert}を用いて分散表現${\rmv}_h,{\rmv}_r$に変換する.またこれに加えて,対話履歴,応答候補から抽出された事態ペアをRFTMを用いて分散表現に変換する.このときリランキングに用いる事態ペアはコサイン類似度がしきい値以上のもののみを用いる.RFTMは連続して出現する事態同士のコサイン類似度が高くなるよう学習を行っており,これによって連続して出現する可能性が高い事態への重みづけを行う.得られた分散表現に基づき,応答候補の一貫性スコア$coh$を次式のように計算する.\begin{align}coh({\rmv}_h,{\rmv}_r,{\rme}_h,{\rme}_r)&=\sigma\bigl(W{\rmv}+b\bigr).\label{eq:coh_score}\\{\rmv}&=[{\rmv}_h;{\rmv}_r;{\rmv}_h-{\rmv}_r;|{\rmv}_h-{\rmv}_r|;{\rmv}_h*{\rmv}_r;{\rme}_h;{\rme}_r;{\rme}_h-{\rme}_r;|{\rme}_h-{\rme}_r|;{\rme}_h*{\rme}_r].\end{align}ここで$\sigma$はシグモイド関数を,$W,b$はそれぞれパラメータ行列,パラメータバイアスを表す.また$[;]$はベクトルの結合を表し,$*$は要素積を表す.対話履歴,応答候補から抽出される事態ペアが複数存在する場合,最も高いコサイン類似度を持つ事態ペアのみを用いる.またしきい値以上の事態ペアが存在しない場合,一貫性スコアは$0$として扱われる.この一貫性スコアの計算には図\ref{fig:coh_pre}のようにMultiLayerPerceptron(MLP)を使用する.学習データ中の正例${x_i}^+$および対話の順序を入れ替えた負例${x_i}^-$を用い,式(\ref{eq:coh_score})を学習するための損失関数を次式のとおりMarginRankingLossで定義する.\begin{align}Loss({x_i}^+,{x_i}^-)=\max\bigl(0,-(f({x_i}^+)-f({x_i}^-))+0.5\bigr).\label{eq:coh_loss}\end{align}$f({x_i}^+),f({x_i}^-)$はそれぞれ正例,負例に対してモデルが出力した予測値であり,式(\ref{eq:coh_loss})は\\${f({x_i}^+)-f({x_i}^-)\geq0.5}$のとき0となる.応答候補の一貫性スコア$(0\leqcoh\leq1)$が0.5以上であった場合,その応答候補は対話履歴に対し一貫していると判定し,リランキングスコアを次式のように計算する.\begin{align}score({\rmh},{\rmr})=\bigl(1-coh({\rmv}_h,{\rmv}_r,{\rme}_h,{\rme}_r)\bigr)\log_2{\rmP}({\rmr}\mid{\rmh}).\label{eq:coh}\end{align}式(\ref{eq:noemb})(\ref{eq:emb})と同様,$\log_2{\rmP}({\rmr}\mid{\rmh})$の値域は$(-\infty,0]$であるため,一貫性スコアの値が大きくなるほどリランキングスコアも大きくなることに注意されたい.このモデルを``Re-ranking(Coherence)''と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{リランキング手法の評価実験} \label{sec:exp}これまでに述べた対話応答リランキング手法を評価する.連続する事態の一貫性を考慮することで,応答の対話履歴に対する一貫性が向上し,それによって対話継続性が向上するという仮説について検証する.具体的には,リランキングの有無による対話応答の違いを自動評価,人手評価する実験を行った.特に人手評価においては対話履歴に対する応答候補の一貫性,対話継続性についての評価を行った.実験ではNCMとしてEncoder-DecoderwithAttention(EncDec)\cite{attn,attn2}とHierarchicalRecurrentEncoder-Decoder(HRED)\cite{hred,hred2}を用いる.HREDのモデルは,単純なEncoder-Decoderなどのモデルと比較して対話履歴を考慮した応答を生成しやすいと期待される一方で,出力結果のバリエーションが対話履歴により制約され,$N$-best応答候補のリランキングには不向きである可能性もある.対話モデルの学習及びテストに用いるコーパスとしてマイクロブログ(Twitter)から収集した2,072,893対話を使用した.ここではマイクロブログにおける1発話を1ターンとし,発話の連接をターン数と考える.平均対話長は13.50ターン,平均発話長は22.52文字であった.語彙サイズを削減しモデルの学習を促進するために,絵文字などはあらかじめ発話から除外した.対話コーパスを学習データ,バリデーションデータ,テストデータとしてそれぞれ1,969,626対話,51,573対話,51,694対話に分割した.RFTMが利用するGloVe,predicateembeddingの学習には日本語Wikipediaダンプデータ\footnote{2018年11月2日時点の最新版.}を用い,RFTMの学習には因果関係ペア,毎日新聞2017データ集\footnote{\url{http://www.nichigai.co.jp/sales/mainichi/mainichi-data.html}}に加え,対話モデルの学習に用いたものと同様の対話データを用いた.CoherenceModelが用いるBERTモデルには事前学習済みの公開されているモデル\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/index.php?BERT}日本語Pretrainedモデル.}を用い,CoherenceModelの学習には対話モデルの学習に用いたものと同様の対話データを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル設定}NCMの学習設定は次のとおりである.GloVe\cite{glove},predicateembedding,RFTM\cite{evnttnsr}の隠れ層は全て100次元とした.CoherenceModelが利用するBERTモデルの隠れ層は768次元であり,MLPの層数は1層である.隠れ層256次元のGRU\cite{gru,gru2}2層,対話履歴数$N=2$,バッチサイズ100,Dropout確率0.1,teacherforcing率1.0,OptimizerをAdam\cite{adam}とし,GradientClipping50,Encoder及びHREDにおけるContextRNNの学習率$1\mathrm{e}^{-4}$,Decoderの学習率$5\mathrm{e}^{-4}$,目的関数をITFloss\cite{itf}とした.トークン分割にはsentencepiece\cite{sentpc}を用い,語彙数32,000とした.実際の対話データは平均で13.50ターンの対話長を持つが,距離が離れた発話同士では話題が遷移し,関連性が低下する.また,NCMではRAMサイズの制約から長大な履歴を入力とすることが難しい\footnote{本計算にはGeForceGTX1080Ti(11GBGPU-RAM)のGPUを用いた.}.そこで本研究では,応答生成,リランキングの際に用いる対話履歴は最大で過去3発話とした.これらの設定はEncDec,HREDどちらにおいても同一である.EncDecに複数発話の対話履歴を入力する場合,それらを文末を表す特殊トークン$<$/s$>$で結合し,1つの発話として入力した.HREDに複数発話を入力する場合は各発話をUtteranceEncoderでエンコードした後,ContextEncoderで対話履歴全体をエンコードした\cite{hred,hred2}.探索の際は同じトークンを繰り返し出力することを防ぐためにRepetitiveSuppression\cite{itf}を,短い応答のみを出力することを防ぐためにlengthnormalization\cite{lennorm}を用いた.最後に,リランキングの式\eqref{eq:noemb},式\eqref{eq:emb}における$\lambda=1.0$とし,事態分散表現を用いた因果関係のマッチング,CoherenceModelにおける事態ペアのコサイン類似度のしきい値は経験則的に$0.9$とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{応答生成候補の多様性}リランキング以前の各モデルにおける$N$-best応答内の多様性評価を行う.これは,ビームサーチにより生成される$N$-best応答が多様であるほど,リランキングの効果が期待できるためである.そこで,テストデータに対するそれぞれの$N$-best応答内の多様性を,dist-1,2\cite{dist}によって評価した.ビーム幅は20とし,これは続く実験でも同一である.表\ref{tab:n-dist}に結果を示す.ここで${\rmAve.dist}$は各$N$-best応答内で計算されたdistの平均を表す.表を見るとEncDecの方がHREDよりも多様性が高いことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{02table02.tex}\caption{$N$-best応答候補内の多様性}\label{tab:n-dist}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動評価}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価で用いる指標}自動評価として,まず提案手法が有効な範囲を測るためリランキングされた応答候補の割合(``re-ranked'')を用いた.また,応答候補のreferenceに対する類似度を測るため,referenceに対するBLEU\cite{bleu},NIST\cite{nist},またgreedy,average,extremaと呼ばれる3つの分散表現を用いた指標\cite{extrema,hownotto}を用いた.BLEUはreferenceとの$N$-gramの一致率を測る指標である.NISTはBLEUに類似した評価指標だが,スコア計算の際に低頻度語を重視する点で異なる.greedy,average,extremaはすべて参照応答と生成応答の分散表現空間上での類似度を測るものである.greedyにおける類似度$GM$は参照応答と生成応答それぞれに含まれる単語のGloVe単語ベクトル${\rmge}_{w}$を,次式のように貪欲にマッチングすることで計算される.\pagebreak\begin{align}G(s,\hat{s})&=\frac{\sum_{w\ins}\max_{\hat{w}\in\hat{s}}sim({\rmge}_{w},{\rmge}_{\hat{w}})}{|s|}\label{eq:greedy1}\\GM(s,\hat{s})&=\frac{G(s,\hat{s})+G(\hat{s},s)}{2}\label{eq:greedy2}.\end{align}ここで$s,\hat{s}$は参照応答,生成応答を表し,$sim$はコサイン類似度を表す.averageにおける類似度は参照応答と生成応答それぞれの文ベクトルのコサイン類似度より計算される.各文ベクトル${\rmge}_{s}$はGloVe単語ベクトルを次式のように平均化することで計算される.\begin{align}{\rmge}_{s}=\frac{\sum_{w\ins}{\rmge}_{w}}{|s|}\label{eq:average}.\end{align}extremaにおける類似度はaverageと同様に文ベクトルのコサイン類似度より計算され,文ベクトルはGloVe単語ベクトルの各次元$d$における極値を次式のように取ることで計算される.\begin{align}{\rmge}_{sd}=\begin{cases}\max_{w\ins}{\rmge}_{wd}&{\rmif}\hspace{2mm}{\rmge}_{wd}>|\min_{w'\ins}{\rmge}_{w'd}|\\\min_{w\ins}{\rmge}_{wd}&{\rmotherwise}\end{cases}.\label{eq:extrema}\end{align}ここで${\rmge}_{sd}$,${\rmge}_{wd}$はそれぞれ${\rmge}_{s}$,${\rmge}_{w}$の$d$次元目の要素を表す.また評価指標として,dist-n\cite{dist},PointwiseMutualInformation(PMI)\cite{pmi}も用いた.dist-n,PMIはそれぞれ応答の多様性,一貫性を測るために用いた.応答と対話履歴のPMIは次式のように計算される.\begin{align}{\rmPMI}=\frac{1}{\#wr}\sum^{\#wr}_{wr}\max_{wh}{\rmPMI}(wr,wh).\label{eq:pmi}\end{align}$wr$,$wh$はそれぞれ応答中,対話履歴中の単語を表す.PMIを計算するためのコーパスはNCMの学習データと同一である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価による比較}表\ref{tab:automatic}に全テストデータに対するリランキング前後の自動評価による比較を示す.表\ref{tab:automatic}の手法名は左から順に,用いたNCM,用いたリランキング手法を示している.``1-best''はリランキングを行わない,ベースラインのNCMを表す.``Re-ranking(Pairs)'',``Re-ranking(RFTM)'',``Re-ranking(Coherence)''はそれぞれ因果関係ペアのみを用いたリランキング,因果関係ペアとRFTMを用いるリランキング,CoherenceModelを用いるリランキングを表す.リランキングされる応答候補の割合は``Re-ranking(Pairs)'',``Re-ranking(Coherence)''の場合多くとも10\%前後に留まり,リランキングの効果が限定的となる.これに対して,RFTMによる分散表現で汎化を行ったモデルでは,リランキングの割合が30\%程度に上昇している.またNIST,dist-2およびPMIは``Re-ranking(RFTM)''により最も上昇しており,語彙の組み合わせが多様かつ対話履歴と関連したものになっていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{02table03.tex}\caption{全テストデータに対する自動評価のスコア}\label{tab:automatic}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{02table04.tex}\caption{自動評価のスコア;HREDwithRe-ranking(Pairs);対話数2,608.}\label{tab:hred}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{02table05.tex}\caption{自動評価のスコア;HREDwithRe-ranking(RFTM);対話数11,247.}\label{tab:hred_rftm}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{リランキング手法ごとの自動評価値の傾向}表\ref{tab:automatic}のどの手法においても,過半数のテストデータはリランキング前と同じ応答を対象に評価値が算出されている.このため表\ref{tab:automatic}の結果のみからそれぞれのリランキングによりどの評価値がどの程度改善されるかを見て取ることは困難である.そこで各リランキング手法がリランキングを行ったデータについてのみ評価値を算出することで,各手法がリランキング対象とするデータの傾向,および各手法により改善される評価値を分析した.表\ref{tab:n-dist}よりEncDecの方が$N$-best応答内の多様性が高いためリランキングに適している可能性があるものの,自動評価ではHREDの方が1-bestにおいて高いスコアを持つ傾向にある.本論文では,リランキングを行わない1-bestがより強いベースラインとなるHREDを用い,提案するそれぞれのリランキング手法と比較した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{02table06.tex}\caption{自動評価のスコア;HREDwithRe-ranking(Coherence);対話数3,245.}\label{tab:hred_coh}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:hred},\ref{tab:hred_rftm},\ref{tab:hred_coh}に結果を示す.表\ref{tab:hred}の因果関係ペアのみを用いるリランキングでは,BLEU,NISTなどの参照応答との類似度スコアが全てリランキング前以下の値となっているのに対し,dist-2,PMIの値は上昇している.特にPMIはわずかながら参照応答以上の値となっており,応答に含まれる単語が対話履歴に関連したものになっていることがわかる.表\ref{tab:hred_rftm}の因果関係ペアとRFTMを用いるリランキングにおいてもPMIが上昇しており,またNISTも向上していることから,対話履歴との関係が高い低頻度語を含む応答を選択できていることがわかる.表\ref{tab:hred_coh}のCoherenceModelを用いるリランキングではBLEU,NIST,distが低下しているものの,greedy,average,extremaといった分散表現による類似度尺度は全て上昇している.またPMIは3つのリランキング手法の内最も高い値となっており,表\ref{tab:hred}と比較しても参照応答の値との差が大きい.さらに表\ref{tab:hred_coh}の1-bestの値を表\ref{tab:hred},\ref{tab:hred_rftm}と比較すると,リランキング前の段階で類似度スコアやPMIが高い傾向にあることがわかる.すなわちCoherenceModelを用いるリランキングは,その他のリランキング手法と比較して参照応答に類似した応答を対話モデルが生成しやすい対話データを捉えることが可能であり,かつ分散表現上での応答の類似度を向上させることができていると言える.どのリランキング手法においてもPMIの上昇割合が高いのは,因果関係ペアが述語項構造の共起情報に基づいて獲得されており,この情報がPMIの上昇に寄与するためと考えられる.なおCoherenceModelが用いるRFTMの学習にも因果関係ペアが用いられているため,``Re-ranking(Coherence)''も因果関係ペアを間接的に参照している.PMIの向上はより関連する単語を含む応答を選択できていることを示唆するものの,対話の自然性,継続性という観点からは人手による主観評価が必要である.そこで次の節では,人手による評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価}自動評価において,提案手法によって選択される応答の単語の一貫性は向上しているものの,自動評価のみで対話システムの性能を評価することは困難である\cite{hownotto}.そこで,ベースラインモデルと提案モデルを人手評価により比較することで,提案モデルにより選択された応答の一貫性,自然性,対話継続性を測った.評価者の負担を軽減するため,一般に知名度が低いソーシャルゲームについて話しているなど,内容を理解するために前提知識を必要とする対話は人手で評価対象から取り除いた.人手評価にはクラウドソーシングを用い,各比較条件ごとに10人のクラウドワーカーに2つのシステムの応答を比較し,次に挙げる3点の指標をより満たすものを2つの応答のどちらか,もしくは「どちらでもない(neither)」の3択より選択してもらった.1番目の指標は「どちらの応答がより対話履歴に関連しているか(coherency)」であり,これはシステム応答が一貫しているかを計測するために用いる.2番目の指標は「どちらの応答がより文法的に違和感なく読めるか(naturality)」であり,これはシステム応答の文法的な自然性を計測するために用いる.3番目の指標は「どちらの応答により返答したいと思うか(dialoguecontinuity)」であり,これはシステム応答の対話継続性が高いかを計測するために用いる.これらの指標はAlexaPrize\cite{alexa}を参考に決定した.また,各比較で対象とした対話数はそれぞれ100である.なお,これらの評価は各手法により1-bestと異なる応答が選択されたケースのみを評価として用いたので,評価の対象となったサンプルがそれぞれ異なる.このため,異なる図間のスコアを直接比較できないことに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8and9\begin{figure}[b]\setlength{\captionwidth}{189pt}\noindent\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f8.pdf}\end{center}\hangcaption{人手評価の結果;1-bestv.s.Re-ranking(Pairs)}\label{fig:human_1}\end{minipage}\hfill\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f9.pdf}\end{center}\hangcaption{人手評価の結果;1-bestv.s.Re-ranking(RFTM)}\label{fig:human_2}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10and11\begin{figure}[b]\setlength{\captionwidth}{189pt}\noindent\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f10.pdf}\end{center}\hangcaption{人手評価の結果;1-bestv.s.Re-ranking(Coherence)}\label{fig:human_3}\end{minipage}\hfill\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f11.pdf}\end{center}\hangcaption{人手評価の結果;Re-ranking(Pairs)v.s.Re-ranking(RFTM)}\label{fig:human_4}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12and13\begin{figure}[t]\setlength{\captionwidth}{189pt}\noindent\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f12.pdf}\end{center}\hangcaption{人手評価の結果;Re-ranking(Pairs)v.s.Re-ranking(Coherence)}\label{fig:human_5}\end{minipage}\hfill\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f13.pdf}\end{center}\hangcaption{人手評価の結果;Re-ranking(RFTM)v.s.Re-ranking(Coherence)}\label{fig:human_6}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価の結果を図\ref{fig:human_1}から\ref{fig:human_6}に示す.本実験ではカイ二乗検定を行い,有意水準${\rmp}<0.05$を統計的に有意とみなすこととした.各指標の右側に記された*は${\rmp}<0.05$を,**は${\rmp}<0.01$を表す.一貫性はどのリランキング手法においても1-bestと比較して有意に減少している.これは,因果関係や連続する事態のみに着目して一貫性を評価しても,必ずしも対話における主観的な一貫性の向上には繋がらないという結果を示している.ただし表\ref{tab:hred}--\ref{tab:hred_coh}においてPMIが上昇していることから,単語単位の一貫性は上昇していると考えられる.これらのことから,ユーザに応答が一貫していると認められるためには出現単語が一貫しているのみでは不十分であり,\ref{sec:intro}章にて立てた一つ目の仮説「出現する単語に基づく一貫性の向上は必ずしも人手評価における一貫性の評価に寄与しない」が成り立つことが示された.異なるリランキング手法を比較した場合,``Re-ranking(Coherence)''が選択した応答の一貫性が最も高い傾向にあり,``Re-ranking(Coherence)''が持つ応答の一貫性を考慮する能力が他のリランキング手法と比較して高いことがわかる.これに対し,対話継続性は``Re-ranking(RFTM)''において有意に向上している.異なるリランキング同士の比較では``Re-ranking(RFTM)'',``Re-ranking(Coherence)''が対話継続性において最も高い評価を得ており,本論文で提案した事態や出現単語レベルでの一貫性の向上が,対話継続性の向上に寄与することがわかる.自然性も一貫性と同じくどのリランキングにおいても低下しているが,これはニューラル対話モデルのDecoderが言語モデルとしての役割を担うため,リランキング前の順位が高いほど言語モデル的に尤度の高い応答となるためだと考えられる.異なるリランキング同士の比較では``Re-ranking(Coherence)''が自然性において最も高い評価を得ている.これは``Re-ranking(Coherence)''が応答全体の対話履歴に対する一貫性を考慮していることから,コンテキストに対する生成結果のもっともらしさをある程度考慮できているためだと考えられる.人手評価の結果より,自然性が低い応答は一貫性も低いとユーザにみなされる可能性が高いものの,一貫性,自然性が低くとも対話継続性が高い場合が存在することがわかった.この現象について詳しく分析するため,次節にて各評価指標間の相関について調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価結果の相関分析\label{sec:correlation}}本研究で用いた連続する事態の一貫性を考慮したリランキングでは,主観評価における対話継続性が向上したものの,一貫性が低下するという一見して矛盾する結果となった.そこで,人手評価における一貫性,自然性,対話継続性の相関を測るために,評価指標ペアの混同行列を集計し,クラメールの連関係数$V(0\leqV\leq1)$を算出した.分析対象は図\ref{fig:human_1}--\ref{fig:human_3}の実験で用いられた各100対話,合計300対話である.なお,評価者間の評価の一致率を表すFleiss'Kappaの値は0.20であった.集計結果および連関係数を表\ref{tab:coh_nat}--\ref{tab:con_coh}に示す.一貫性と自然性,対話継続性と一貫性の連関係数はともに0.20であり,人手評価で対象としたコーパスにおいて一貫性の対話継続性に対する寄与率はあまり高くはないことがわかる.また自然性と対話継続性の連関係数は0.52であり,これも十分高いとは言えない.これらの結果は,\ref{sec:intro}章にて立てた二つ目の仮説「人手評価における一貫性の評価と対話継続性の評価は相関が低い」を裏付ける.人手評価において一貫性が低下していると評価者に判断されたにもかかわらず,対話継続性は向上していると判断された例を次に示す.鉤括弧内はリランキングに使用された事態ペアを示す.``$\rightarrow$''で結ばれた事態ペアは因果関係を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{02table07.tex}\caption{混同行列(一貫性-自然性);$V=0.20$}\label{tab:coh_nat}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{02table08.tex}\caption{混同行列(自然性-対話継続性);$V=0.52$}\label{tab:nat_coh}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{02table09.tex}\caption{混同行列(対話継続性-一貫性);$V=0.20$}\label{tab:con_coh}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\noindent対話1:\begin{quote}{\bfユーザ:}東京の田舎ですよ笑\\{\bfシステム:}でも羨ましい原宿とかまで遠いの\\{\bfユーザ:}時間くらいで\textbf{行ける}と思います\\{\bfシステム(1-best):}そうなんだ\\{\bfシステム(Re-ranking(Pairs)):}じゃあ\textbf{会える}かも\\$[$行ける$\rightarrow$会える$]$\end{quote}\vspace{1\Cvs}\noindentこの例では,システム側の「会える」という情報の提示が,1-bestで得られる単純な応答よりもユーザの興味を引いたと考えられる.また,対話継続性が低下しており,かつ一貫性は向上していると判断された例を次に示す.丸括弧内の事態は,因果関係ペアに含まれる事態を表す.このとき丸括弧左側の事態は,RFTMによって丸括弧内の事態と同一とみなされた,対話中に含まれる事態を表す.\vspace{1\Cvs}\noindent対話2:\begin{quote}{\bfユーザ:}\textbf{寝}なさい笑\\{\bfシステム:}おはよう,早いな\\{\bfユーザ:}おはよっしーよしちゃんこそ早いじゃん,いつも9時頃なのに\\{\bfシステム(1-best):}よく眠れなくて大丈夫なのだろうか...苦笑\\{\bfシステム(Re-ranking(RFTM)):}よく\textbf{寝れ}た\\$[$寝れる(寝る)$\rightarrow$寝(寝)$]$\end{quote}\vspace{1\Cvs}\noindentリランキング前の応答はユーザに問いかける形になっており,より対話を継続するものであったことがわかる.リランキング後の発話は事態は一貫しているものの,文脈上逆の意味の発話を選択してしまっている.人手評価,事例分析の結果,応答の一貫性向上が対話継続性の向上には必ずしも繋がらないことが判明した.しかし次に示すとおり,応答の一貫性と対話継続性がともに向上した例も存在する.\vspace{1\Cvs}\noindent対話3:\begin{quote}{\bfユーザ:}おはようございます☆\\{\bfシステム:}おはようございますヒラメ釣り行ってましたが撃沈でしたTT\\{\bfユーザ:}おはようございます☆\textbf{冷え}ますね...\\{\bfシステム(1-best):}おはようございます\\{\bfシステム(Re-ranking(Pairs)):}おはよーございます朝晩\textbf{涼しく}なりました\\$[$涼しくなる$\rightarrow$冷える$]$\end{quote}\vspace{1\Cvs}\noindentよって今後は事態や応答の一貫性を含め,対話継続性の向上に寄与する制約や状況についてより詳細に調査する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{事例分析} ここまでの実験では,\pagebreak提案手法によってシステム応答の対話履歴に対する事態レベルの一貫性を向上させた結果,ユーザが感じる対話における一貫性が向上するか,対話継続性が向上するかについて検証した.この結果,提案手法は単語レベルの一貫性を向上させ,対話継続性の向上に寄与するものの,ユーザが感じる対話の一貫性はむしろ低下する結果となった.そこで,述語項構造解析結果,リランキングに用いられた事態ペアの分類を行うことで,提案手法により行われた応答のリランキングを詳細に分析した.また,生成された応答の対話行為を分析することで,応答の一貫性や対話継続性と,対話行為との相関を明らかにした.分析対象は\ref{sec:correlation}節と同様に図\ref{fig:human_1}--\ref{fig:human_3}の実験で用いられた300対話であり,述語構造解析結果,リランキングに用いられた事態ペア,対話行為の分類は1人のアノテータが行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{述語項構造解析結果の分類}提案手法は述語項構造解析により自動抽出された事態に基づくものであるため,述語項構造解析の精度を検証する必要がある.そこで,リランキングに用いられた事態の述語項構造解析が適切に行われている割合を調査した.分類結果を表\ref{tab:pa_case}に示す.ここで横軸の``Correct''はリランキングに用いられた事態に述語項構造解析の誤りがなかった場合であり,``Wrong''は何らかの誤りが含まれていた場合を指す.これは例えば,「おはようさぎ」という発話文から「詐欺」という誤った述語(判定詞)を抽出した場合や,「栄行こうか迷う」という発話文に対し「栄が行く」のように格解析を誤った場合などがある.また縦軸の``Each''は事態ペアに含まれる2つの事態について別々に正誤を判定した場合であり,``Both''は2つの事態をまとめて正誤を判定した場合である.よって事態ペアに含まれる2つの事態のいずれも述語項構造解析が適切に行われていた場合のみ,``Both''は``Correct''とみなされる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{02table10.tex}\caption{述語項構造解析結果の分類}\label{tab:pa_case}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%述語項構造解析によって全ての事態が完全に解析されている割合は``Each''で70\%前後,``Both''で60\%前後であり,十分高いとは言えないが,特に後者は複数の述語項構造関係の抽出結果に対する評価という点に留意する必要がある.また,本研究で用いた事態の埋め込み表現が,格要素の解析誤りなどの問題を汎化している可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{リランキングに用いられた事態ペアの分類}提案手法は事態ペアの一貫性に基づくものであるため,リランキングに用いられた事態ペアの一貫性や,一貫した事態ペアが用いられた場合の人手評価の傾向を明らかにする必要がある.そこで,リランキングに用いられた事態ペアの一貫性を分類,分析し,人手評価の結果を再考察した.分類結果を表\ref{tab:causality}に示す.ここで各列はリランキングに用いられた事態ペアの一貫性を表し,``Good''は一貫した事態ペアが用いられたことを,``Bad(Pairs)''は因果関係ペアに含まれる,当該対話コンテキストで用いることが適当ではないと考えられる因果関係が用いられたことを意味する.また``Bad(過汎化)''は事態分散表現により過汎化された因果関係が用いられたことを意味し,``Bad(Sequence)''は連続しているが一貫性が低い事態ペアが用いられたことを意味する.以上は著者らが各サンプルを確認して人手で分類した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{02table11.tex}\caption{事態ペアの分類}\label{tab:causality}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14and15\begin{figure}[b]\setlength{\captionwidth}{189pt}\noindent\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f14.pdf}\end{center}\hangcaption{一貫した事態ペアが用いられた場合の人手評価の結果;1-bestv.s.Re-ranking(Pairs)}\label{fig:human_7}\end{minipage}\hfill\begin{minipage}{0.45\hsize}\begin{center}\includegraphics{28-1ia2f15.pdf}\end{center}\hangcaption{一貫した事態ペアが用いられた場合の人手評価の結果;1-bestv.s.Re-ranking(RFTM)}\label{fig:human_8}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.16\begin{figure}[b]\begin{center}\includegraphics{28-1ia2f16.pdf}\end{center}\caption{一貫した事態ペアが用いられた場合の人手評価の結果;1-bestv.s.Re-ranking(Coherence)}\label{fig:human_9}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一貫した事態ペアが用いられた割合は,``Re-ranking(Pairs)''の場合61\%,``Re-ranking(RFTM)''の場合5\%,``Re-ranking(Coherence)''の場合52\%である.図\ref{fig:human_1}--\ref{fig:human_3}の人手評価で用いられた対話データより,一貫した事態ペアが用いられた場合を抽出した結果を図\ref{fig:human_7}--\ref{fig:human_9}に示す.1件のデータにつき10人のワーカーが評価を行っているため,図\ref{fig:human_7}--\ref{fig:human_9}のサンプル数はそれぞれ610,50,520である.``Re-ranking(RFTM)''において,一貫した事態ペアが用いられている場合,一貫性,自然性,対話継続性が大きく向上しており,一貫した事態ペアを用いることが対話継続性の向上に寄与することが示唆されている.しかし,``Re-ranking(Pairs)'',``Re-ranking(Coherence)''の場合,リランキング前後で大きな差は見られない.ここで表\ref{tab:hred}--\ref{tab:hred_coh}を見ると,``Re-ranking(RFTM)''がリランキング対象とした1-best応答と比較して,``Re-ranking(Pairs)'',``Re-ranking(Coherence)''がリランキング対象とした1-best応答の自動評価値が高いことがわかる.よって,一貫した事態ペアを用いたリランキングは,1-bestの時点で自動評価値の高い応答を対象としても効果がないが,自動評価値が低い応答を対象とした場合,応答の一貫性,自然性,対話継続性が向上する可能性があると言える.以上のことから,\ref{sec:intro}章にて立てた三つ目の仮説「人手評価における一貫性ではなく,単語選択や事態に基づく一貫性の向上が人手評価における対話継続性の向上に寄与する」がある程度成り立つことが示された.なお,``Re-ranking(RFTM)''によって一貫した事態ペアが用いられた割合は5\%と低いため,事態分散表現を改善し,分散表現上において事態の一貫性をより正確に考慮することで,一貫した事態ペアに基づくリランキングが行われる範囲を拡大する必要がある.一貫した事態ペアによりリランキングが行われている例を下に示す.\vspace{1\Cvs}\noindent対話4:\begin{quote}{\bfユーザ:}新年早々\textbf{体調崩す}とは.辛い笑明日,明後日までに完全に治さな.\\{\bfシステム(1-best):}お大事に\\{\bfシステム(Re-ranking(Pairs)):}大丈夫ですか\textbf{無理し}ないでくださいね\\$[$無理をする$\rightarrow$体調を崩す$]$\end{quote}\vspace{1\Cvs}\noindent対話5:\begin{quote}{\bfシステム:}フォローありがとうございますフォロバさせていただきました\\{\bfユーザ:}私テスト以外は暇してるんでいつでも\textbf{絡ん}でくださいね\\{\bfシステム(1-best):}はいぜひぜひ仲良くしましょ\\{\bfシステム(Re-ranking(RFTM)):}全然おっけーですなんて\textbf{呼ん}だらいいかな\\$[$絡む(絡む)$\rightarrow$呼ぶ(絡む)$]$\end{quote}\vspace{1\Cvs}\noindent対話6:\begin{quote}{\bfユーザ:}みんな美味しいセブン\textbf{ドーナツ食べ}よう\\{\bfシステム(1-best):}おいしいよ\\{\bfシステム(Re-ranking(Coherence)):}チョコ\textbf{チップ食べたい}\\$[$ドーナツが食べる,チップが食べたい$]$\end{quote}\vspace{1\Cvs}\noindent上記の例では,一貫した事態ペアを用いたリランキングにより,論理的な応答が選択されている.しかし表\ref{tab:causality}からわかるように,そうではない例も多数存在する.次に示す対話7のように,一貫していない事態ペアが用いられている場合や,対話8のように,一貫した事態ペアが使用されていても応答が不自然である場合が多く見られた.\vspace{1\Cvs}\noindent対話7:\begin{quote}{\bfシステム:}行くぞ焼肉\\{\bfユーザ:}\textbf{行きたい}$\cdots$\\{\bfシステム(1-best):}いく\\{\bfシステム(Re-ranking(RFTM)):}焼肉定食\textbf{屋行こ}うぜ\\$[$行きたい(カラオケが行く)$\rightarrow$屋が行く(温泉が行く)$]$\end{quote}\vspace{1\Cvs}\noindent対話8:\begin{quote}{\bfシステム:}はよ風邪なおそなおったら行こう\\{\bfユーザ:}かれこれ3週間くらい\textbf{風邪引}いてる\\{\bfシステム(1-best):}お大事に\\{\bfシステム(Re-ranking(Coherence)):}\textbf{風邪治}ってきたから\\$[$風邪を引く,風邪が治る$]$\end{quote}\vspace{1\Cvs}\noindent対話7の因果関係は「温泉が行く」を「屋が行く」という事態と汎化することで得られており,過汎化を抑制する必要があることがわかる.対話8については,事態間の一貫性は向上しているものの,時間経過の結果現れる事態を選択した結果応答が不自然と判定された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{応答の対話行為の分類}対話行為とは,応答の発話者の意図や,応答の対話中における機能を意味するタグである\cite{bunt-etal-2010-towards,bunt-etal-2012-iso}.リランキングによる応答の対話行為の変化と人手評価値の相関を分析することで,リランキングにより対話における応答の機能レベルでの変化が生じたか,それによってどのように人手評価値が変化したかが明らかになる.ここでは,ISO-24617-2\cite{bunt-etal-2010-towards,bunt-etal-2012-iso}を拡張した対話行為タグセット\cite{yoshino2018scope}に基づき,各応答に最も当てはまる対話行為を付与した.表\ref{tab:dialogue_act}に使用した対話行為タグセットを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{02table12.tex}\caption{対話行為タグセット}\label{tab:dialogue_act}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{02table13.tex}\caption{リランキング前後の対話行為の異なり数(各対話数100)}\label{tab:da_diff}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,リランキング前後で対話行為がどの程度変化するかを調査した結果を表\ref{tab:da_diff}に示す.表\ref{tab:da_diff}より,どのリランキング手法においても半数程度の応答の対話行為が変化していることがわかる.また,リランキングによって特定の対話行為が別の対話行為へと変化する傾向があるかを確認するため,リランキング前後の対話行為の混同行列より,クラメールの連関係数を算出した.表\ref{tab:da_diff}を見ると,連関係数は全て0.4未満の値となっており,リランキング前後の対話行為の相関はあまり高くなく,リランキングによる対話行為の変化に強い傾向は存在しないことが確認できた.次に,対話行為が変化することにより,人手評価値が変化するかを分析した結果を表\ref{tab:da_human_pairs}--\ref{tab:da_human_coherence}に示す.対話行為は応答ごとに1種類が付与されているため合計が100であるのに対し,人手評価は応答ごとに10人のワーカーが評価しているため,各指標ごとに合計が1,000となることに注意されたい.各表より,対話行為の変化と人手評価のクラメールの連関係数は全て0.4未満の値となっており,これらの相関はあまり高くないことがわかる.すなわち,\ref{sec:correlation}節の対話1,2のように応答の対話行為が変化したことによって人手評価が変化する事例は存在するものの,特定の対話行為が別の対話行為へと変化することによって人手評価値が大幅に向上,もしくは低下する傾向は確認されなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[p]\input{02table14.tex}\hangcaption{リランキングによる対話行為の変化と人手評価(Pairs);評価指標列の数値は,応答の対話行為がリランキングによって別の対話行為へと変化した場合に,人手評価において1-best,neither,Re-rankingと評価された数を表す.;対話行為は応答ごとに1種類が付与されているため合計が100であるのに対し,人手評価は応答ごとに10人のワーカーが評価しているため,各指標ごとに合計が1,000となることに注意されたい.}\label{tab:da_human_pairs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[p]\input{02table15.tex}\hangcaption{リランキングによる対話行為の変化と人手評価(RFTM);評価指標列の数値は,応答の対話行為がリランキングによって別の対話行為へと変化した場合に,人手評価において1-best,neither,Re-rankingと評価された数を表す.;対話行為は応答ごとに1種類が付与されているため合計が100であるのに対し,人手評価は応答ごとに10人のワーカーが評価しているため,各指標ごとに合計が1,000となることに注意されたい.}\label{tab:da_human_rftm}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[p]\input{02table16.tex}\hangcaption{リランキングによる対話行為の変化と人手評価(Coherence);評価指標列の数値は,応答の対話行為がリランキングによって別の対話行為へと変化した場合に,人手評価において1-best,neither,Re-rankingと評価された数を表す.;対話行為は応答ごとに1種類が付与されているため合計が100であるのに対し,人手評価は応答ごとに10人のワーカーが評価しているため,各指標ごとに合計が1,000となることに注意されたい.}\label{tab:da_human_coherence}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,対話モデルにより生成された$N$-best応答を,連続する事態の一貫性に基づきリランキングする手法を提案した.リランキングの基準として,述語項構造を用いた連続する事態の一貫性に着目し,一貫性のある事態ペア,特に因果関係を持つ対話応答候補を選択するような手法を提案した.またこれを素性として用いて,CoherenceModelによって対話履歴に対する一貫性を担保する手法を提案した.評価の結果,PMIなどの自動評価指標において提案する手法は事態や単語レベルの一貫性が向上していることが示された.しかし人手評価においては,対話継続性は向上したものの,一貫性のスコアは低下するという一見して矛盾する結果となった.この結果を説明するため相関分析や事例分析を行った結果,ユーザが評価する対話継続性と一貫性の間には必ずしも強い相関があるわけではないことが示され,事態ペアの一貫性を考慮することが対話継続性の向上に寄与することが示唆された.今後は対話継続性の向上に繋がる制約や状況についてより詳細に調査する.さらに,事態分散表現の改善や,一貫した対話中の事態を生成した上で応答生成を行う生成的アプローチについても検討していく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究で使用した因果関係ペアをご提供頂いた京都大学黒橋研究室の黒橋禎夫教授,柴田知秀博士に感謝いたします.本研究はJSTさきがけ(JPMJPR165B)の支援を受けた.本論文の内容の一部は,theFirstWorkshoponNLPforConversationalAIで発表したものである\cite{tanaka-etal-2019-conversational}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{田中翔平}{%2018年名古屋工業大学工学部工学創成プログラム学科卒業.2020年奈良先端科学技術大学院大学先端科学技術研究科博士前期課程修了.2020年より同大学院先端科学技術研究科博士後期課程に在学.自然言語処理,特に対話システムや事態間関係に関する研究に従事.TheFirstWorkshoponNLPforConversationalAIBestPaperAward受賞.言語処理学会,ACL各会員.}\bioauthor{吉野幸一郎}{%2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同博士後期課程修了.日本学術振興会特別研究員(PD),奈良先端科学技術大学院大学情報科学研究科助教を経て,2020年より理化学研究所ロボティクスプロジェクト知識獲得・対話チームチームリーダーおよび奈良先端科学技術大学院大学客員准教授.京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞,2018年度本学会論文賞,NLP4ConvAI2019BestPaperAward,IWSDS2020BestPaperAward等受賞.IEEE,SIGDIAL,ACL,情報処理学会,言語処理学会,日本ロボット学会各会員.}\bioauthor{須藤克仁}{%2000年京都大学工学部卒業,2002年京都大学大学院情報学研究科修士課程修了.同年日本電信電話(株)入社.2015年京都大学博士(情報学).2017年より奈良先端科学技術大学院大学准教授,現在に至る.2018年より理化学研究所革新知能統合研究センター客員研究員,科学技術振興機構さきがけ研究者を兼務.機械翻訳を中心とする自然言語処理および音声言語処理の研究に従事.言語処理学会,情報処理学会,日本音響学会,人工知能学会,ACL各会員.}\bioauthor{中村哲}{%1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学博士(工学).シャープ株式会社.1994年奈良先端科学技術大学院大学助教授,1996年米国Rutgers大学客員教授(文科省在外研究員),2000年ATR音声言語コミュニケーション研究所室長,2005年所長,2006年(独)情報通信研究機構音声コミュニケーション研究グループリーダ,2010年研究センター長,けいはんな研究所長などを経て,2011年奈良先端科学技術大学院大学情報科学研究科教授,2017年データ駆動型サイエンス創造センター長,2017年理化学研究所革新知能統合研究センター観光情報解析チームリーダー.2003年からカールスルーエ大学客員教授.音声翻訳,音声対話などの音声言語情報処理,自然言語処理の研究に従事.電子情報通信学会論文賞,AAMT長尾賞,日本音響学会技術開発賞,人工知能学会研究会優秀賞,情報処理学会喜安記念業績賞,総務臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞,ドコモモバイルサイエンス賞,IBMFacultyAward,GoogleAIFocusedResearchAward等受賞.ISCA理事,IEEESLTC委員を歴任.ATRフェロー,情報処理学会フェロー,IEEEフェロー.ISCAフェロー.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N03-10
\section{はじめに} インターネット上での商取引やブログの増加により,特定の商品や出来事についての感情や評価,意見などの個人の主観を表明したテキストが増加している.この主観の対象が特定の商品に対するものである時は,商品へのフィードバックとして企業に注目される.主観が特定のニュースや施策に対するものであれば,国民の反応を知る手がかりとして利用する用途なども考えられる.国内外で多数の主観に注目した会議が開催されていることからも,関心の高さをうかがい知ることができる(EAAT2004,Shanahanetal.2005,言語処理学会2005,言語処理学会2006,AAAI2006,EACL2006,ACL2006).本研究では,このようなテキストに現れた個人の主観の表明の中でも,特に,「うれしい」「かなしい」などの個人の感情を表す感情表現に着目し,その特性を理解するためのモデルを提案し,書籍や映画などの作品検索に応用するための方策を考察する.なお感情とは,ある対象に対する主体の気分や心の動きであり,感情表現とは,感情とその主体,対象などの構成要素をまとめて呼ぶ呼称である.態度とはテキストの中で感情や評価,意見など主観を表明した部分である.感情表現には感情表現事典(中村1993)に収録されているような感情という態度を表明している部分だけではなく,それを表明した主体や向けられた対象,その理由や根拠が関連する構成要素が存在する.我々は書評や映画評などの作品レビューが利用者にとって鑑賞する作品の選択に参考となるかどうかを判断するためには,感情表現の中の態度だけでなく他の構成要素も抽出する必要性があると考える.これは,作品レビューには参考になるもの,ならないものがあり,それを判断する手がかりとして構成要素が利用されていると仮定したことによる.さらに構成要素の中でも態度を表明した理由や根拠がその判断に大きく影響していると考えた.そこでまず感情表現抽出の準備段階として,感情表現の構成要素をあきらかにするため,Web上の作品レビューを用いて分析を行い,感情表現のモデルを定義し,構成要素の特徴をあきらかにした.次に感情表現の理由や根拠の重要性や働きを調べるため,追加分析と被験者実験を行い,作品検索に感情表現を用いるとき,検索結果が利用者にとって参考となる情報となるためには理由という構成要素が重要な働きをしていることを示した.\subsection{作品レビューにおける主観的な情報}本研究で扱うレビューとは,ある対象について評論したテキストのことである.レビューには,下記のような多様なドメインが考えられる.・作品:映画評,ブックレビューやCD,楽曲,演劇などの作品に関するレビュー・製品:携帯電話や車などの製品についてのレビュー・サービス:レストランや飛行機,ホテルなどのサービスに関してのレビュー・組織:会社や団体など,組織についてのレビューこれらドメインによって,レビュー中に表明された主観的な情報の用途,関連する構成要素と各要素の重要性,働き,評価の観点などが異なる.製品においては,使い勝手や好みなどの主観的な情報も重要であるが,その仕様や機能,価格など製品に関する事実がより重要な観点となる.同様にサービスではその特徴や利点が,組織では活動の内容などが重要な観点となる.これら製品やサービス,組織は利用するためのものであるため,それぞれが持つ機能や特徴,性質など主に具体的な事実や数値とそれが好意的なのか否定的なのかという評価がレビューとして重要視される.しかし映画や書籍のような作品は個人が味わうためのものであり,価格やあらすじ,登場人物などの事実以上に,それを利用者が読んだり鑑賞したりしてどう感じるかといった,利用者の抱く感情が重要である.\subsection{作品検索の問題点}現在の作品を対象とした検索では,作品のタイトルや登場人物,ジャンルなどを手がかりにして,利用者が自分の希望する作品を検索している.しかし利用者の要求には,「今日は泣ける本が読みたい」「派手な映画を見て元気を出したい」「背筋も凍るような恐怖のホラー映画が見たい」など,それらを見聞きした結果どのような感情を感じるかといったものもある.実際Web上の質問サービスである「教えてgoo\footnote{教えてgoo,http://oshiete.goo.ne.jp/}」や「Yahoo!知恵袋\footnote{Yahoo!知恵袋,http://chiebukuro.yahoo.co.jp/}」などの質問回答サービスには,「切なくなる本を教えてほしい」「怖い映画を教えてください」などの質問が存在する.感情表現を手がかりとして作品を検索できれば,これら要求を満たすことができる.我々は,単に作品へ向けられた感情表現中の感情という態度を表明した語句のみから作品を探すのではなく,感情の主体,対象,理由などの感情表現の他の構成要素も利用することが重要と考える.さらに構成要素の中でも理由,根拠,原因が明記された感情表現が特に利用者にとって参考となり得る重要な情報であると考えた.理由,根拠,原因の記述された感情表現を検索に利用することで,同じ「幸せな気分になれる本」を探したときでも,「笑える内容だったから幸せだった」のか「ハッピーエンドで終わったから幸せだった」のかなどを区別することができる.また,我々は,趣味嗜好が強く反映される作品レビューのようなテキストではそれを読んだ利用者がテキストに記述された内容を理解し,鑑賞する作品を選択するときに参考にすることが可能であることが重要であると考えた.具体的には,感情表現を用いた作品検索において,「理由」が記述されたものに重み付けをし,さらに結果をその作品レビューが含む理由と共に表示することなどが考えられる.そこで,本研究では作品レビューのテキストを対象とし,そこに出現する感情表現を分析した.なかでも感情表現の理由や根拠に注目して研究を行った.\subsection{本論文の構成}本論文の構成は次のとおりである.2節では,関連研究を概観し,本研究の位置づけを明確にする.3節では,書籍と映画に関するレビューを人手分析し,感情表現の構成要素を定義した.4節では,3節で定義した構成要素の特徴と働きについて考察をした.5節では,構成要素の中から理由に着目し,その重要性を分析,検討した.6節では5節での検討内容を被験者実験によって実証し,7節ではその結果を考察した.8節は本論文の結論である. \section{関連研究} テキストから,「意見」「評価」「感情」など主観表現の態度を抽出,または分類する研究では,処理対象とする要素が様々である.論文によって要素の名称が異なるが,今節では説明のため代表的な要素の表記を統一する.対象へ向けられた意見,評価,感情などは「態度」とする.同様にして態度が向けられた対象は「対象」,主観を表明した主体は「主体」,「態度」における肯定的,否定的,中立などの属性を「極性」とする.\subsection{主観の極性を判定する研究}テキスト中に表明された主観を扱う研究の中のひとつの大きなグループは,極性を判定する研究である.Turney(Turney2002)はWeb上の映画のレビューテキストから態度を抽出し,その極性を検索エンジンを用いて得られた「excellent」または「poor」との共起しやすさから判定し,さらに抽出された態度の極性の集合から,テキストの極性を判定している.極性を正しく判定するため,態度を単語ではなく前後の文脈を追加した句として抽出している.舘野(舘野2002)は,企業のサポートセンターによせられた「お客様の声」に含まれる態度に着目し,事前に行った構文構造解析から木構造を用いて,否定的な極性を含む文を抽出している.那須川ら(那須川,金山2004)は,デジタルカメラまたは映画について書き込まれているWeb上の掲示板から,極性が既に判定されている既知の態度をもとに,新たな態度を極性付きで抽出している.極性の判定には,極性が定義されている態度と新たな態度の間に,極性を反転させる「しかし」などの表現が出現するかどうかを利用している.立石ら(立石ら2004)は評判情報検索に,態度,対象,極性を組み合わせた辞書を用いている.たとえばコンピュータの分野において「小さい」が1,000表現中8回出現し,そのうち7回が肯定的なら,コンピュータが対象のとき,「小さい」という態度は肯定的な極性であると判定される.KimandHovy(KimandHovy2004)は,態度,主体,対象,極性に着目し,抽出を行っている.主体ごとに極性の方向(肯定的か,否定的か,中立か)とその強さを計算することで,主体がどのような極性をもっているか判定している.\subsection{主観の極性以外の側面も扱う研究}小林ら(小林ら2005)は態度,対象,対象の属性を抽出している.対象の属性とは,対象の要素のことである.例えば「携帯電話」における対象の属性は「液晶画面」であり,大きな枠組みである対象と,下位要素である対象の属性を区別している.Wiebeら(Wiebeetal.2005)は,手作業でコーパスにタグ付けを行うことにより,態度の構成要素を定義している.主観的な発言や明示的である率直な態度に関しては,態度,主体,対象,極性に加え,主観の強さ,表現の強さ,主観に実態があるかどうか(仮定の話か,実際の話か),の各要素を定義している.表現による主観的な態度については,態度,主体,主観の強さ,極性を定義している.発話や記述の事実に関しては,発話や記述の部分とその主体,対象を定義している.Liuら(Liuetal.2003)は,常識知から出来事と感情の組み合わせを学習することで,文を感情カテゴリに分類している.例えば「自動車事故で恐怖を感じた」という事例から「自動車事故」は「恐怖」という組み合わせを辞書に登録することにより,「自動車事故にあった」という文を「恐怖」という感情カテゴリに分類している.田中ら(田中ら2004)はテキストの情緒を推定するため,日本語語彙体系をもとに作成した結合価パターンを用いている.この研究で情緒属性と呼ばれている要素には,「前提条件」「情緒主(主体)」「情緒対象(対象)」「原因」「情緒名」がある.「太郎がコンサートのチケットを入手した」という文から情緒主「太郎」は原因「獲得」から「獲得による喜び」という情緒を導き出している.大塚(大塚2004)は,道路計画に対する住民への自由記述アンケートテキストが要求か否かを判定している.要求の要素として要求動機,要求内容,要求意図が定義されている.要求意図が明示的に表明されていなくても,要求動機が出現することでそこに暗黙的な要求意図が存在すると示されている.例えば「歩道がせまい」という事実を要求動機ととらえることで,「歩道を広くして欲しい」という暗黙的な要求意図を導き出している.ただしテキストが要求か否かの判定に関しては,明示的要求のみを対象としている.これまでの研究において,我々が「理由」と呼ぶ理由,原因,根拠,動機などは,態度を導きだしたり,テキストや文,句などを分類するための手がかりとして扱われてきた.本研究では利用者にとって作品レビューが鑑賞する作品を選択するのに参考になるかどうかを判断する手がかりとして感情表現の「理由」に着目し,その特性や働きの分析を行った. \section{感情表現のモデル作成} 作品レビュー中の感情表現のモデルを検討するためにグラウンデッドセオリーの「絶えざる比較法」(GlaserandStrauss1967)の枠組に従った.データ収集,分析,分析を通じて見えてきた問題に沿ったデータ収集のサイクルを理論的飽和まで繰り返すことにより,結論を得る(Keith2005).分析対象にはWeb上の書籍および映画の作品レビューを取り上げた.\subsection{コーパス}コーパスは,杉田と江口(杉田ら2001)が2000年10月に収集した作品レビューに関するコミュニティに属する332のWebサイト上のページである.本稿では,その中から6サイトを無作為に選択し,さらに各サイトから作品レビューが記述されたファイルを1つずつ選択した「作品レビューサブコーパス(以下:BSC)」を作成し,実験に用いた.BSCは書籍64件と映画18件の計82件の作品レビューから構成されており,計1,528文である.表1にBSCの詳細を示す.選択した6サイトおよびその書き手は重複しない.書き手とは,そのサイトで作品レビューを書いた人物である.書籍に関する作品レビューは1冊の書籍,映画に関する作品レビューは1作の映画について書かれたもので,はじめと終わりが読み手に明確なひとまとまりのテキストを1件の作品レビューとした.\begin{table}[b]\begin{center}\input{10t1.txt}\end{center}\end{table}\subsection{タグ付け}中山ら(中山ら2005)は,BSCに対して,感情だけではなく,感情,意見,評価などの何らかの主観を表明している箇所に着目して,人手でタグ付けを行い,主観の表明に関わる一連の構成要素を含む主観表現のモデルを提案した.BSCには,主観表現は653組あり,そのうち,「\textgt{態度}」が感情と分類された感情表現は257組であった.本稿では,この感情表現に着目して,さらに分析をすすめた.\begin{figure}[b]\centerline{\includegraphics{14-3ia10f1.eps}}\caption{タグ付け作業の手順}\end{figure}モデル構築のためのタグ付けの作業は次のとおりである.作業者は著者である.まず,感情が表明されている箇所に注目し,その「\textgt{態度}」を1つタグ付けした後に,続けてその態度に関連する他の構成要素を検討した.タグ付けは作品レビュー単位で行い,1文の中に複数の態度がある場合や,関連要素が作品レビュー内で文を超えて存在するものも検討の対象とした.同一箇所に複数のタグを重複して付与することもできる.作業者である著者の主観により新たな構成要素が発見されるごとに,その要素をモデルに加え,既に分析済みのコーパスも新たなモデルでタグ付けをやり直した.この繰り返しによりタグ付けする構成要素を決定しながらBSC中の全てのテキストにタグ付けを行った.図1にタグ付け作業の手順を示す.その結果,構成要素として「\textgt{態度}」「\textgt{主体}」「\textgt{対象}」「\textgt{理由}」という4つとそれぞれの下位要素を得た.表2に感情表現の構成要素と下位要素の一覧を示す.タグ付けに際しては開始時と終了時の判断の差が発生しないよう,終了後にもう1度見直しを行った.見直しでは,各要素を「\textgt{\ul{主体}}は\textgt{\ul{対象}}を\textgt{\ul{理由}}によって\textgt{\ul{態度}}と感じた」と同等の文に言い換え,矛盾がないか確認した.\begin{table}[t]\input{10t2.txt}\end{table}以下,構成要素について説明する.「\textgt{態度}」は主観が表明されていると判断した部分にタグ付けした.「\textgt{態度}」であるかどうかの判断には,\maru{1}事実報告ではないこと\maru{2}思ったこと,感じたことであることなどを基準とした.表明のタイプについて,態度が明示的に表明されている場合は「\textgt{態度記述}」,暗黙的に表明されている場合は「\textgt{ゼロ態度}」とした.下位要素について,「\textgt{態度}」がタグ付けされた中でも感情だと判断された場合は「\textgt{感情}」,感情かどうかの判断が難しい場合は「\textgt{保留}」とした.これ以降に説明する「\textgt{態度}」以外の上位要素は,タグ付けされている「\textgt{態度}」に関連するもののみを検討している.「\textgt{態度}」には「\textgt{態度なし}」という表明のタイプが存在するが,今回は「\textgt{態度なし}」に該当するものはタグ付けを行わず分析対象としなかった.「\textgt{主体}」は「\textgt{態度}」を表明した人またはモノ,「\textgt{対象}」は「\textgt{態度}」が向けられた人またはモノである.両者の表明のタイプに関して,テキスト中に要素が明示的に記述されている場合はそれぞれ「\textgt{主体記述}」「\textgt{対象記述}」,明示的に要素が記述されていないが省略されていると判断できる場合はそれぞれ「\textgt{ゼロ主体}」「\textgt{ゼロ対象}」とした.テキスト中に記述されてなく,かつ該当するものが無い場合は「\textgt{不明}」とした.それぞれの下位要素として,タグ付けされたものの属性である書き手,登場人物,ストーリーなどがある.\begin{table}[t]\input{10t3.txt}\end{table}「\textgt{理由}」は「\textgt{態度}」を表明した原因,理由,根拠となる部分である.「\textgt{理由}」の表明のタイプに関しては「\textgt{記述されていない}」もの,語尾が(から|ため|ので|よって)または(すれば|してくれば|なら)という表現であるかこの表現に言い換えることのできる「\textgt{明確に理由が記述されている}」もの,語尾を(を理由として|を原因として)と大きく言い換えることで「\textgt{理由}」であると判断できる「\textgt{暗黙的に理由が記述されている}」ものに分類した.「\textgt{理由}」の下位要素は「主体の主観的な判断によるもの」を「主観理由」,「事実によるもの」を「客観理由」とした.「\textgt{理由}」に関しては,5節で詳しく考察をした.タグ付けされた作品レビューの例を表3に,そこから抽出した要素の一覧を表4に示す.同一箇所に複数のタグが付与される例として,表3の作品レビューAでは,ある態度について同じ部分が「\textgt{対象}」「\textgt{理由}」になっている例(o4,r4)を,作品レビューBではある態度に関しては「\textgt{理由}」とタグ付けされている部分に別の態度についての構成要素がある例(r8,a9など)を含んでいる.\begin{table}[t]\input{10t4.txt}\end{table} \section{タグ付けの結果} 4.1節では感情表現に関するタグ付けの結果を報告し,4.2節では,「\textgt{理由}」の特性や下位要素を検証する分析をした.4.3節では複数分析者間の一致度調査の結果を報告する.4.4節では感情表現の「\textgt{理由}」の働きについて考察を行った.これら分析により,感情表現の構成要素の特徴やパタンをあきらかにし,また「\textgt{理由}」の重要性を検討した.\subsection{感情表現の分析}感情表現257組についての分析を行い,感情表現の構成要素の特徴や出現パタンを調べた.タグ付けされた上位要素の組み合わせ件数の一覧を表5に示す.\begin{table}[b]\begin{center}\input{10t5.txt}\end{center}\end{table}\subsubsection{構成要素}表5に示すように,もっとも多くタグ付けされた上位要素の組み合わせは,\textgt{[態度あり]+[主体あり]+[対象あり]+[理由不明]}であり,257組の中で170組あった.「\textgt{主体}」は全ての257件あり,うち記述あり22件,ゼロ主体148件であった.「\textgt{対象}」は236件で,うち記述あり181件,ゼロ対象55件だった.「\textgt{理由}」は66件で,うち明確54件,暗黙12件だった.「\textgt{対象}」は作品レビューの対象書籍または映画であるものが50件で最も多く,他で多かったものとしては,事実が40件,登場人物が38件,場面が28件だった.\subsubsection{構成要素の特徴と考察}「\textgt{対象}」236件のうち,45件は記述が省略されている「ゼロ対象」であった.また,「書き手」以外の「\textgt{主体}」がタグ付けされた例は全部で23件あった.主観表現全体で24件あったうち23件が「\textgt{感情}」で見られ,書き手以外の「\textgt{主体}」がタグ付けされている部分では,ほぼ感情が表明されている.感情表現の処理において,構成要素のうち「\textgt{主体}」が省略されているかどうかは重要な要素であると考える.書き手自身が「\textgt{主体}」であるとき「\textgt{主体}」の表記が省略されることの多い日本語において,あえて「\textgt{主体}」が記述されるときは,主体が自らの意見について自信がない,もしくは自らの意見が特殊であると自認している特別な場合だった.また,下位要素が「書き手」以外の「\textgt{主体}」がタグ付けされた例は全部で24件あった.うち22件は登場人物の感情を記述したものであり,あらすじの説明中に出現したものが多かった.作品レビューの書き手が表明した「\textgt{感情}」と,作品内で登場人物が表明した「\textgt{感情}」では意味が異なるため,区別しなくてはならない.これはレビューの書き手による「\textgt{感情}」は主観的な情報であるのに対し,登場人物の「\textgt{感情}」は作品の一部で客観的な情報だからである.同様にして,作品に向けられた「\textgt{感情}」と作品以外に向けられた「\textgt{感情}」も区別する必要がある.そのため作品レビューを処理する際には,タイトルと記事,作品レビューの地の部分とあらすじの記述箇所の切り分けなど,テキスト全体の構造に着目した処理も必要である.また,中山ら(2005)で行った,感情,意見,評価などの多様な主観の表明に関わる表現の分析と比較しても,とくに,感情表現のみの顕著な傾向は見られなかった.\subsection{「理由」について}\subsubsection{明確な「理由」と暗黙的な「理由」}感情表現の「\textgt{理由}」は66件あった.「\textgt{理由}」は表明のタイプとして明確なものと暗黙的なものに分類できた.それぞれの理由の表明のタイプは,タグが付与された部分の語尾が以下に示す3つのパタンのいずれかであるか,言い換えることができるものを指す.(から|ため|ので|よって)+「\textgt{態度}」明確\maru{1}(すれば|してくれば|なら)+「\textgt{態度}」明確\maru{2}(を理由として|を原因として)+「\textgt{態度}」暗黙的明確な理由\maru{1}に当てはまるものは47件あった.明確な理由\maru{2}にあてはまるものは4件あった.暗黙的な理由は15件あり,うち6件は「\textgt{対象}」と「\textgt{理由}」のタグ付与が重なっていた.暗黙的な理由をさらに分析すると下記のカテゴリを見出すことができた.\noindentI.作品レビューのドメインに依存した対象(場面・ストーリー・登場人物)の説明が理由になっているもののうち,直接的な因果関係が成立しないため,「〜ので」「〜から」などに言い換えられないものIa.個々の場面(6件)Ib.全体のストーリー(2件)Ic.登場人物(3件)Id.視線移動(1件)\noindentII.分析者の体験・世界知識が理由となっているもののうち,「〜ので」「〜から」など直接的な因果関係に言い換えられないもの(3件)このうち,Iのような具体的な場面,ストーリー等に関連する理由は,「〜ので」「〜から」などには言い換えられないが,「〜を理由として」「〜を原因として」には言い換えることができ,また,後述する複数分析者間の一致度調査でも一致して判定された割合が高かった.それに対し,IIは,個々の判定者の個人的な体験や世界知識に関連するものであり,他者との共有や理解は難しい場合もある.\subsubsection{主観的な「理由」と事実による「理由」}「\textgt{理由}」には,下位要素として主観的なものと事実による客観的なものがあった.木戸(木戸,佐久間1989)によれば,文の機能として「根拠:判断のよりどころとなった事実を提示する機能」,「理由:判断のよりどころとなった意見を提示する機能」と定義されている.本研究が「\textgt{理由}」の下位要素として定義した「主観理由」は後者の「判断のよりどころとなった意見を提示する機能」に,「客観理由」は前者の「判断のよりどころとなった事実を述べる機能」にあたる.「\textgt{理由}」の66件中,「主観理由」は33件,「客観理由」は30件,どちらとも判断つかず保留したものが3件あった.「主観理由」には書き手の考えが,「客観理由」には書籍の内容や書き手の状況が多かった.表6に件数の一覧を,表7に下位要素の例を示す.\begin{table}[b]\begin{center}\input{10t6.txt}\end{center}\end{table}\begin{table}[t]\begin{center}\input{10t7.txt}\end{center}\end{table}\subsection{分析者間でのタグ付与一致度}タグの信頼性を調査するため,3名の分析者によるタグ付けの一致度調査を行った.分析者1は20代女性,分析者2は20代男性,分析者3はBSC全体のタグ付けを行った著者である.いずれの分析者も大学院生である.分析対象としてBSC82件全体(1,528文)の中から10件(150文)を無作為に選んだ.タグ付けは3.2節に示した構成要素に関して行った.感情表現のタグ付与のみの一致度調査では,比較する件数が少なかったため,感情のみではなく,なんらかの主観を表明した箇所に関して,関連する構成要素をタグ付与し,その一致度を調査した.4.3.2節では,分析者間でタグ付与に揺れが現れることが予想される「\textgt{態度}」と「\textgt{理由}」に関して考察する.\subsubsection{分析者間での態度タグ付与}表8に各分析者が「\textgt{態度}」タグを付与した数と,その中でも3名の分析者が同じ部分に「\textgt{態度}」タグを付与した数を示す.分析者1,分析者2,分析者3は,それぞれ70件,144件,98件の「\textgt{態度}」をタグ付与し,そのうち3名が同じ部分にタグ付与したものは52件あった.\begin{table}[t]\begin{center}\input{10t8.txt}\vspace{\baselineskip}\input{10t9.txt}\end{center}\end{table}分析者間でのタグ付与の一致度は,2つの調査で評価した.表9に各分析者間の「\textgt{態度}」タグ付与一致率\footnote{一致率は,比較する分析者同士での同じ部分にタグを付与した割合の平均で求めた.}とコーエンの$\kappa$係数(Cohen1960)によりもとめた各分析者間での「\textgt{態度}」タグ付与の一致度\footnote{タグ付与される可能性のある部分281箇所を仮定し,共通でタグ付与しなかった部分も一致として計算した.281箇所は,1行あたりに含まれる態度の数の平均値を求め,それを全行数にかけあわせて計算した.}を示す.分析者1と3の態度タグ付与には高い一致が見られたが,分析者2は,分析者1および3との一致は中程度であった.\subsubsection{分析者間での理由タグ付与一致度}前節にて2名以上が同じ部分に「\textgt{態度}」が付与された87件それぞれの「\textgt{理由}」について,その一致度を調査した.「\textgt{理由}」のタグ付け部分が同じかどうかは著者が判定した.複数者が「\textgt{理由なし}」とした場合も一致していると数えた.87件中で「\textgt{態度}」を付与した2名以上が同じ部分に「\textgt{理由}」を付与したものでは86.2{\kern0pt}%の75件あった.中でも2名両者または3名全員が同じ部分に「\textgt{理由}」を付与したものは66.7{\kern0pt}%の58件あった.まったく一致しないものは13.8{\kern0pt}%の12件あった.\begin{table}[t]\begin{center}\input{10t10.txt}\end{center}\end{table}分析者間での一致度を表10に示す.被験者間での「\textgt{理由}」付与について,7割以上の一致が確認された.感情表現のタグ付けは個々の判定者の主観による揺れを含むやや難しいタスクであるが,共通して認識される要素も少なくなく,本稿のタグ付けも一定の範囲で信頼性が確保されたと考える.\subsection{「理由」についての考察}態度のように主観的な情報では「いいですね」と思った「\textgt{理由}」は様々である.我々は,この理由こそが利用者の知りたい情報となるのではないかと考える.これは同一態度であってもその理由が異なれば,まったく違った情報になる場合があるからである.例えばストーリー重視で作品を探す利用者にとって,最も有用な情報となるのは,ストーリーの良さを理由にした「この作品はいいですね」などの肯定的表現である.このことから態度がどんな理由で表明されたかが,作品レビューの感情表現をもとに作品を検索する際には重要となり,かつ利用者がそのレビューを信頼し,参考にできるかどうかに関連すると仮説を立てた.そこで我々は,「\textgt{理由}」の働きを確認するため,次節以降で追加分析を行った. \section{「理由」の特性の分析} 5.1節では,レビューに対して評価がつけられているAmazon.co.jpにて,参考になるレビューと参考にならないレビューとで「\textgt{理由}」の出現に違いがあるのかを示した.5.2節では「\textgt{理由}」が同じ作品に同じ感情を感じた場合であっても様々であることを調べ,「\textgt{理由}」を提示することの必要性を示した.5.3節では異なるジャンルである新聞記事にて,「\textgt{理由}」がどのように存在するのかを調査し,そこから「\textgt{理由}」の重要性を分析した.これらの分析により,作品検索において利用される作品レビューが参考になるかどうかという面での「\textgt{理由}」の重要性を示した.\subsection{「理由」は利用者に求められているか}Amazon.co.jp\footnote{Amazon.co.jp,http://www.amazon.co.jp/}のカスタマーレビューには,そのレビューが参考になったかどうかの投票システムがある.これを用いて,感情表現の「\textgt{理由}」が明記してあるレビューとそうでないレビューでは,参考になる度合いが違うかどうかを調査した.2004年書籍ベストセラー上位5冊の書籍について,書かれてから1ヶ月以上経過しているレビューから,それぞれ最も参考になっているレビュー10件,最も参考になっていないレビュー10件,計100件のレビューに感情表現のタグ付けを行い,その内容を比べた.タグ付けは著者が行った.それぞれのレビューに含まれた感情表現のうち,何件が「\textgt{理由}」を持つかを調べた結果を表11に示す.参考になったレビューには,参考にならないものに比べ,「\textgt{態度}」と「\textgt{理由}」ともに多く含まれていた.表11で示したように参考になったレビューに「\textgt{理由}」が含まれている割合は36.9{\kern0pt}%である.参考にならないレビューで「\textgt{理由}」が含まれる割合は24.5{\kern0pt}%であり,両者にはカイ二乗検定により優位水準5{\kern0pt}%で優位差があった.このことからも,参考になったレビューには理由が含まれる割合が高いといえる.参考になったレビューには,好意的なもの,批判的なものも含め,なぜそう思ったのか,つまり「\textgt{理由}」をわかりやすく書いてあるものが多かった.また「\textgt{理由}」以外にも簡単なあらすじや,どんな人に最適かが書かれているものが多かった.それに対して参考にならないレビューでは,単に「面白い」や「つまらない」と書いてあるものや,参考になったものに比べ理由が不明確であるもの,さらに書籍とは関係のない内容などが多く,利用者にとって有効な情報になっていないと考える.\begin{table}[b]\begin{center}\input{10t11.txt}\end{center}\end{table}この結果から,参考になるレビューには参考にならないレビューよりも「\textgt{理由}」が記述されている「\textgt{態度}」が多く,参考になるものとならないものを区別するひとつの手がかりになっているのではないかと考えた.\subsection{「理由」には多様性があるか}同じ「\textgt{対象}」,同じ「\textgt{態度}」で「\textgt{主体}」が異なる場合において,「\textgt{理由}」に多様性があるかを確認するため,新たなテキストを用いて詳しく分析した.これはある作品に対して同様に「面白かった」という結論を示している作品レビューにも参考にできるものとできないものがあるのは,「\textgt{理由}」の多様性に一因があるのではないかと考えたためである.\begin{table}[b]\input{10t12.txt}\end{table}BSCではこの条件にあてはまる例が確認できなかったため,gooブログ検索\footnote{gooブログ検索,http://blog.goo.ne.jp/}を用いて検索した,映画「交渉人真下正義」および「チャーリーとチョコレート工場」に関する作品レビューを新たなコーパスとして利用した.同じ「\textgt{対象}」に同じ「\textgt{態度}」を表すテキストとして,「楽しめた」という感情表現の記述があり,なおかつ「\textgt{理由}」の記述があるもので,「交渉人真下正義」および「チャーリーとチョコレート工場」に関する作品レビューをそれぞれ10件ずつ,計20件選択した.これを映画レビューコーパスと呼ぶ.映画レビューコーパスへの構成要素のタグ付けは著者が行った.映画レビューコーパスのテキスト中の「楽しめた」という感情表現に対応する「\textgt{理由}」を表12に示す.同じ作品を「\textgt{対象}」とし,同じ「\textgt{態度}」を感じたとしても,人によりその「\textgt{理由}」が異っている.これは同じ作品に対し「楽しめた」という感情を持ったとしても,人によってそれを感じる部分(場面)が違うためである.実際に「\textgt{理由}」とされた内容を見ていくと,「交渉人真下正義」ではテンポやノリ,ドキドキ感が挙げられており,この映画の特徴の中でも楽しめた部分を指している.「チャーリーとチョコレート工場」では世界観や役者の演技などが挙げられており,前者の「交渉人真下正義」とは異なる「楽しめた」理由が示されている.このような「\textgt{理由}」の多様性が参考にできるものとそうでない作品レビューを生み,結果として「\textgt{理由}」が利用者にとって必要とされていると考える.\subsection{異なるジャンルにおける「理由」の特徴}作品レビューにおける「\textgt{理由}」の特徴を明確にするために,異なる文書ジャンルでの「\textgt{理由}」について比較分析を行った.異なる文書ジャンルとして新聞記事(社説を含む)をとりあげた.この分析において作品レビューはBSCを,新聞記事は,一例としてGoogleニュース日本版\footnote{Googleニュース日本版,http://news.google.co.jp/}で上位にランキングされていた30件を利用した.これを新聞記事コーパスと呼ぶ.新聞記事コーパスにおける構成要素のタグ付けは筆者が行った.新聞記事コーパスのテキストには感情表現がほとんど含まれないため,ここではBSCにおける主観表現の「\textgt{理由}」と,新聞記事コーパスにおける主観表現の「\textgt{理由}」を比較分析した.BSC全体で「\textgt{理由}」が653件中151件,23.1{\kern0pt}%出現していたのに対し,新聞記事コーパスでは73.2{\kern0pt}%で出現していた.両者にはX二乗検定にて優位水準1{\kern0pt}%で有意差が見られ,新聞記事コーパスのほうが「\textgt{理由}」が出現する確率が高い.これは新聞記事では読み手に納得,理解させることや,記事の信頼性が問われるため,「\textgt{理由}」を記述することで読み手に訴えかけているのではないかと考えた.またBSCには客観理由が44.4{\kern0pt}%,主観理由が49.0{\kern0pt}%と同じ程度で出現していたのに対し,新聞記事コーパスでは主観理由が44.3{\kern0pt}%,客観理由が55.6{\kern0pt}%であった.これについては,同じくX二乗検定にて優位水準5{\kern0pt}%までは有意差があると言えず,有意水準10{\kern0pt}%ではじめて有意差があるといえた.ただし,この中で10件ある郵政民営化問題と解散総選挙問題だけを取り上げてみると,客観理由は75.0{\kern0pt}%にもなり,記事の内容によって書き手の主観が「\textgt{理由}」になりやすいニュースと,そうでないニュースがある.BSCにおける「\textgt{理由}」において,客観理由ではストーリーや登場人物の行動などの作品の内容を「\textgt{理由}」として書き手の感情が表明されたケースが多かった.主観理由では,「物語の力強さ」「まるで自分も登場人物の一人になったかのよう」など,書籍に書かれている内容や映画に映っている内容以外に対する書き手の考え,状況,様子を「\textgt{理由}」として,書き手の感情を表明していた.BSCに比べ新聞記事コーパスは小規模であるが,異なるジャンルにおける「\textgt{理由}」の特徴の違いが示唆された. \section{被験者実験} \subsection{「理由」の働きと重要性に関する被験者実験}感情表現の「\textgt{理由}」が作品レビューを読む利用者にとってどのような働きをしているのかを分析するために,被験者実験を行った.被験者は,都内の大学生16名であり,8名ずつの2グループに分けて行った.グループXは文系女子大の学生8名,グループYは理工系の男子学生8名である.被験者に映画に関する作品レビューを読んでもらい,見る映画を選択する上で参考になる部分に下線を付与してもらった.実験手順は次の通りである.I.事前アンケートII.被験者による下線付与III.フォーカスグループインタビュー被験者実験により,5節で示した「\textgt{理由}」の重要性に関して,実際に作品レビューがどのように読まれているかという面から分析する.\subsubsection{事前アンケート}被験者のインターネット利用時間などを調べた.主要な回答結果を表13に示す.\subsubsection{被験者による下線付与}分析対象は,表14に示す3つの映画の各々について,ブログに書かれた作品レビューを10件ずつ,計30件である.作品レビューはgooブログ検索[11]を用いて各映画のタイトルで検索した結果の上位から,主に映画について書かれているものを10件選択した.30件の作品レビューの書き手は全て異なる.各映画にはM1〜M3,各作品レビューにはR1〜R30というIDを付与した.R1〜R10はM1の,R11〜R20はM2の,R21〜R30はM3の作品レビューである.この実験に用いた映画の作品レビューの集合を実験用レビューと呼ぶ.実験用レビューを分析するためのタグ付けは筆者が行った.実験用レビューの詳細を表15に示す.16名の被験者に提示した実験用レビューは同じものであるが,提示する順番による結果への影響を考慮し,提示した順は被験者それぞれで異なっている.調査はグループごとに8名ずつまとめて行い,グループXとグループYの調査日時,調査場所は異なっている.各被験者は,3つの映画についての情報を探しており,その情報をもとに映画を見るかどうか決めようとしている状況を想定するよう求めた.\begin{table}[p]\begin{center}\input{10t13.txt}\vspace{\baselineskip}\input{10t14.txt}\vspace{\baselineskip}\input{10t15.txt}\end{center}\end{table}実験には実験用レビューを1件ずつ紙に印刷したものを用いた.被験者には,1件の作品レビューの中で被験者が参考にできると感じた部分があればそこに下線を,さらにその作品レビューの中で特に参考になった部分があれば下線と丸印を付与するよう求めた.被験者が提示された順に作品レビューを読み,下線を付与する.作業時間に制限はないが,作業は1つの作品レビューずつ行い,次の作品レビューに進んだ後で前の作品レビューに戻ることはできない.1映画に関する10件の作品レビューについて作業が終わった時点で,その10件中で最も参考となった作品レビューを選択し,その理由を回答してもらった.この作業を3つの映画に関して行った.被験者間で下線付与した部分が重なり,かつ著者が同じ内容に下線が引かれていると判断した場合,同じ箇所に対する下線とした.以下に実例を示す.\vspace{0.25\baselineskip}\mbox{\vtop{\hbox{やっぱり期待外れで}{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}}\vtop{\hbox{ありましたよ。}\kern2.25pt{\hruleheight0.25pt}}…ア}\vspace{0.25\baselineskip}\mbox{\vtop{\hbox{とても}{\hruleheight0.25pt}\kern4.25pt{\hruleheight0.25pt}}\vtop{\hbox{ほのぼのとした良い}{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}}\vtop{\hbox{映画。}\kern2.25pt{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}}…イ}\vspace{0.5\baselineskip}アは2つの下線を,イでは3つの下線を同じ部分に下線付与したものとして扱った.これは,まったく同じ部分に下線が引かれていなくとも,構成要素として関連性がある部分を分離して考え難かったためである.\begin{table}[t]\begin{center}\input{10t16.txt}\end{center}\end{table}\subsection{フォーカスグループインタビュー}被験者の参考にする部分に対する考えを明らかにするために,作業終了後に休憩を挟んだ後,グループごとの被験者全員に対してフォーカスグループインタビューを行った.フォーカスグループインタビューでは,グループの8名全員にひとつの部屋に入ってもらい,表16に示す主な質問を軸にして,被験者全員に自由に発言を行ってもらった.被験者から新たな議論の種がまかれた場合,その内容について我々が用意した質問と同じように議論してもらった.モデレータは著者がつとめた.会場では机をコの字型に並べ,被験者間の発言の様子がわかるようにした. \section{被験者実験の結果と考察} \subsection{事前アンケート}表13より,グループXとグループYでは趣味としてインターネットを使う時間が大きく違う.また,グループXがネット上の情報を参考として映画を見るのに対し,グループYはあまり下調べもネット上の情報を参考にもしていない.\subsection{被験者による下線付与}表17は,実験用レビューと下線が付与された部分の特徴である.実験用レビューへの感情表現のタグ付けは筆者が行った.表17は最も参考となる作品レビューを選んだ理由である.表17,表18中のR10,R17,R23,R28は最も参考になるとされた作品レビューのIDである.参考とする部分の下線の数には,特に参考となった部分の下線の数も含まれる.\begin{table}[b]\input{10t17.txt}\end{table}\subsection{グループ間での下線付与の差異}表13に示したように,被験者両グループの性質は異なる.しかし被験者により下線付与された部分の性質に差はなかった.被験者にとって重要な部分は,「\textgt{態度}」や「\textgt{理由}」を含み映画の感想を記述する部分と,「\textgt{態度}」や「\textgt{理由}」を含まず映画の内容や特徴を説明する部分に大別でき,それは被験者の性質に関わらなかった.表17に示すように,実験用レビュー全体で「\textgt{態度}」と「\textgt{理由}」は高い確率で下線付与されており,これも被験者の性質に関わらず参考とすべき情報として認識されていた.また,どちらのグループも最も参考になる作品レビューとして選んだものは作品レビューR10,R17,R23およびR28で共通していた.\subsection{被験者間での下線付与の差異}「\textgt{態度}」と「\textgt{理由}」には多く下線付与されており,被験者間でも下線付与の傾向に顕著な差はなかった.「\textgt{態度}」と「\textgt{理由}」以外の下線付与部分では,映画のストーリーの記述が多かった.ただし,一部の被験者は下線を付与しなかった.これは後のフォーカスグループインタビューで,僅かなストーリーの記述でもネタバレとして敬遠するためであることがわかった.映画M2の作品レビューには「虫が苦手な人は見ないほうがいいかも」との記述があり,複数の被験者から特に参考となる下線がひかれた.またM3の作品レビューでの「アメリ好きにおすすめ」といった記述も同様であった.特に参考となる部分については,キャラクター重視もあれば,ストーリー重視もあり,他にも被験者各々が気になる観点について下線が引かれることがわかった.このことから被験者の趣味趣向や知識が強く反映され,被験者それぞれにとって異なる部分が選ばれるとわかった.実験用レビューに出現した全ての感情表現の「\textgt{態度}」337箇所中,86.6{\kern0pt}%にあたる292箇所,全ての「\textgt{理由}」146箇所中,79.4{\kern0pt}%にあたる116箇所で下線付与された.「\textgt{態度}」と「\textgt{理由}」どちらも無い部分に付与された下線は全下線338箇所中の32.2{\kern0pt}%にあたる125箇所で,映画を見に来た人の様子による事実報告や映画のストーリー,特徴的な映画の場面を実体験から解説している部分への付与が多かった.特に参考となる下線が付与された部分の特徴を調べると,「\textgt{態度}」と「\textgt{理由}」がそろっている部分に付与されたものが41.4{\kern0pt}%,「\textgt{態度}」だけが37.7{\kern0pt}%だった.「\textgt{態度}」も「\textgt{理由}」も無い部分は20.9{\kern0pt}%だったことから,特に参考になる部分を選択するとき,「\textgt{態度}」と「\textgt{理由}」が出現するかどうかも関連していると考えられた.\subsection{最も参考となる作品レビュー}表17に示すように,特に参考となる作品レビューとされたR10,R17,R23,R28の4件はどれも文字数,下線数,特に参考となった下線数ともに多かったが,それ以外の特徴については一定の傾向が見られなかった.これら特に参考となる作品レビューには,選んだ理由を示した表18からもわかるように,被験者個々の趣味や嗜好に合致する点がわかりやすく記述されていたと考えられる.被験者によって最も参考となる作品レビューの内容や観点は異なっていることから,参考となる作品レビューではただ単に「この映画は面白かった」ということだけでなく,映画の中のどのような部分がどのように面白かったのかの記述が必要とされた.これは我々の主張する「\textgt{理由}」の部分に該当している.\begin{table}[p]\input{10t18.txt}\end{table}\subsection{フォーカスグループインタビュー}フォーカスグループインタビューでは,表16の質問を中心に議論してもらった.その結果,被験者が参考になる情報を選ぶ基準として主に以下の8点があげられた.\maru{1}映画の上映場所,日時,長さがわかる\maru{2}出演者がわかる\maru{3}あらすじ,見所がわかる\maru{4}映画がどんな人に向けられているか\maru{5}映画をみてどう思ったか\maru{6}作品レビューの書き手の人物像がうかがえる部分\maru{7}決め付けではなく,筋道立った記述により共感できる/できないの判断ができる部分\maru{8}〜のような映画など,比較対象がわかるこれらの点は,このような部分に下線付与しなかった被験者からも支持された.\maru{1}〜\maru{3}については,作品レビューでなくとも得られる事実報告のような内容の記述である.これに対して\maru{4}〜\maru{8}は,作品レビューでなければ得られない,主観的な内容の記述である.フォーカスグループインタビューの内容から,我々は以下のような仮説を立てた.友人や知人からのクチコミのほうが,ネットに書き込まれた情報よりも信頼できるという意見が多かったことから,被験者にとって最も参考としやすい情報は「書き手がどんな趣向でどのような性質を持つ人かわかっていること」である.その中でも,なぜ書き手がそういった考えを記述したか理解するため,書き手の考えを理解する手がかりになる具体的な「\textgt{理由}」の記述があるかどうかは,書き手の性質がわからないときに,大きな判断材料となる.ブログなどに書かれた作品レビューに理由のない態度のみが記述されている場合,その作品レビューは理由があるものに比べて参考にし難く,利用者がその内容を参考にできるかどうかを判断することができない.それに対して,明確な比較対象や具体的な説明,さらには筋道立てた内容があれば,利用者はそれに共感できるかどうかを判断することができる.共感できれば作品への興味が増幅され,共感できなければ作品への興味が薄れる.こういった判断ができる作品レビューには理解や信頼が生じ,参考になる情報となる.\subsection{「理由」の分析のまとめ}実験と分析の結果から,作品レビューの利用者は「\textgt{理由}」を手がかりとして,書き手の嗜好や性質および作品の性質が強く影響する作品レビューのテキスト内容が自分にとって信頼できるのか,参考にできるのかを判断していると考えられた.「\textgt{態度}」と「\textgt{理由}」の組み合わせは,作品レビューのような作品レビューにおいて,とても重要な要素である.本稿にて行われた実験においては,被験者が作品レビューを見て映画を見るかどうか決める際には,まず「\textgt{理由}」や「\textgt{態度}」,および事実報告の記述の有無によってその作品レビューが参考になるかどうかを,さらに「\textgt{理由}」や「\textgt{態度}」の内容に共感できるかどうかにより,その映画についての最終的な判断が下されていた. \section{おわりに} 本稿では,まずWeb上の作品レビュー82件に対し構成要素を人手でタグ付けることで,感情表現のモデルについて検討し,「\textgt{態度}」「\textgt{主体}」「\textgt{対象}」「\textgt{理由}」の上位要素からなる4つ組みのモデルを提案した.「\textgt{主体}」「\textgt{対象}」については省略されるものとされないパタンが,「\textgt{理由}」については明確なものと暗黙的なもの,さらに主観的なものと事実にもとづくものに着目した.次に作品レビューにおける「\textgt{理由}」の重要性に注目し,その特徴と働きを調べるため,別のテキストによる追加分析とフォーカスグループインタビューを行った.その結果,書籍や映画などを対象とした書き手の嗜好や状況がその感想に強く反映される作品レビューのようなテキストでは,書き手の態度だけでなく,感情表現の構成要素が重要とわかった.特に理由が嗜好や性質のわからない第三者が書いたテキストを利用者が理解し,鑑賞する作品を選択するのに参考にする上で重要だとわかった.また,あらすじのような情報も作品レビューにおいて鑑賞する作品を選択するのに参考になる情報とわかった.今後は,本稿にて定義した各要素の構造を分析し,自動抽出する手法について検討する.またフォーカスグループインタビューにおける質的な分析を行った点について,量的な調査から客観的な分析も必要である.今回はWeb上のテキストを中心に分析を行ったが,テキスト媒体や購読対象の違いによる特性についても分析を行う予定である.今回の調査によってあらすじなどの記述も作品レビューにおいて重要であるとわかったが,その扱いについても今後議論する必要がある.\acknowledgment本研究を進めるにあたり,多くの有益なコメントを下さった豊橋技術科学大学情報工学系の関洋平助手,および本論文の査読者の方に深く感謝します.\section*{参考文献}\noindent\hangafter=1\hangindent=2zwAAAI(2006).``SpringSymposiumonComputationalApproachestoAnalyzingWeblogs.''Stanford,CA,USA.\noindent\hangafter=1\hangindent=2zwACL(2006).``SentimentandSubjectivityinText.''\textit{WorkshopattheAnnualMeetingoftheAssociationofComputationalLinguistics},Sydney.\noindent\hangafter=1\hangindent=2zwCohen,J.(1960).``ACoefficientofAgreementforNominalScales.''\textit{EducationalandPsychologicalMeasurement},\textbf{20},pp.~37--46.\noindent\hangafter=1\hangindent=2zwEAAT(2004).``ProceedingsofAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications.''Stanford,TechnicalReportSS-04--07.\noindent\hangafter=1\hangindent=2zwEACL(2006).``ProceedingsoftheWorkshoponNEWTEXT-Wikisandblogsandotherdynamictextsources.''Trento,Italy.\noindent\hangafter=1\hangindent=2zw言語処理学会(2005).第11回年次大会発表論文集テーマセッション感情・感性の言語学.\noindent\hangafter=1\hangindent=2zw言語処理学会(2006).第12回年次大会ワークショップ「感情・評価・態度と言語」論文集.\noindent\hangafter=1\hangindent=2zwGlaser,B.G.andStrauss,A.L.(1967).``TheDiscoveryofGroundedTheory.''Chicago,Aldine.\noindent\hangafter=1\hangindent=2zwShanahan,J.G.,Qu,Y.andWiebe,J.(2005).``ComputingAttitudeandAffectinText:TheoryandApplications(TheInformationRetrievalSeries).''Springer.\noindent\hangafter=1\hangindent=2zwWiebe,J.,Wilson,T.andCardie,C.(2005).``Annotatingexpressionsofopinionsandemotionsinlanguage.''\textit{LanguageResourcesandEvaluation},\textbf{39},(2--3),pp.~165--210.\noindent\hangafter=1\hangindent=2zw木戸光子著,佐久間まゆみ編(1989).``文章構造と要約文の諸相第7章文の機能による要約文の特徴.''くろしお出版,pp.~112-125.\noindent\hangafter=1\hangindent=2zwKim,S.M.andHovy,E.(2004).``Determingthesentimentofopinions.''\textit{ProceedingofConferenceonComputationalLin-guistics(CoNLL-2004)},pp.~1367--1373.\noindent\hangafter=1\hangindent=2zwKeith,F.P.著,川合隆男監訳(2005).``社会的調査入門量的調査と質的調査の活用.''慶應義塾大学出版会.\noindent\hangafter=1\hangindent=2zw小林のぞみ,乾健太郎,松本裕治,立石健二,福島俊一(2005).``意見抽出のための評価表現の収集,自然言語処理.''\textbf{12}(2),pp.~203--222.\noindent\hangafter=1\hangindent=2zwLiu,H.,LiebermanandH.,Selker,T.(2003).``AModelofTextualAffectSensingusingReal-WorldKnowledge.''ProceedingsofIUI2003.\noindent\hangafter=1\hangindent=2zwLandis,J.R.andKoch,G.G.(1977).``Themeasurementofobserveragreementforcategoricaldata.''\textit{Biometrics},\textbf{33},pp.~159--174.\noindent\hangafter=1\hangindent=2zw森田良行,松木正恵(1989).``日本語表現文型:用例中心・複合辞の意味と用法.''アルク.\noindent\hangafter=1\hangindent=2zw中村明編(1993).``感情表現辞典.''東京堂出版.\noindent\hangafter=1\hangindent=2zw中山記男,江口浩二,神門典子(2005).``感情表現のモデル.''言語処理学会第11回年次大会発表論文,pp.~149--152.\noindent\hangafter=1\hangindent=2zw那須川哲哉,金山博(2004).``文脈一貫性を利用した極性付評価表現の語彙獲得.''情報処理学会研究報告``自然言語処理(NL162-16).''pp.~109--116.\noindent\hangafter=1\hangindent=2zw大塚裕子(2004).``自由記述アンケート回答の意図抽出および自動分類に関する研究.''神戸大学大学院自然科学研究科博士論文.\noindent\hangafter=1\hangindent=2zw杉田茂樹,江口浩二(2001).``目録データベースとWebコンテンツの統合的利用方式.''情報処理学会研究報告情報学基礎(NL142-),pp.~153--158.\noindent\hangafter=1\hangindent=2zw田中努,徳久雅人,村上仁一,池原悟(2004).``結合価パターンへの情緒生起情報の付与.''言語処理学会第10回年次大会発表論文,pp.~345--348.\noindent\hangafter=1\hangindent=2zwTurney,P.D.(2002).``Thumbsup?thumbsdown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews.''\textit{InProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2002)},pp.~417--424.\noindent\hangafter=1\hangindent=2zw立石健二,石黒義英,福島俊一(2004).``インターネットからの評判情報検索.''人工知能学会誌,\textbf{19}(3),pp.~317--323.\noindent\hangafter=1\hangindent=2zw舘野昌一(2002)``「お客様の声」に含まれるテキスト感性表現の抽出方法.''情報処理学会研究報告自然言語処理(NL153-14),pp.~105--112.\begin{biography}\bioauthor{中山記男}{2001年芝浦工業大学工学部工業経営学科卒業.2003年芝浦工業大学大学院工学研究科電気工学専攻修士課程修了.同年,総合研究大学院大学情報学専攻博士課程に入学,現在に至る.自然言語処理の研究に従事.}\bioauthor{神門典子}{1994年慶應義塾大学文学研究科博士課程修了.博士(図書館・情報学).1995年米国シラキウス大学情報学部客員研究員,1996〜1997年デンマーク王立図書館情報大学客員研究員.1998年学術情報センター助教授.2000年国立情報学研究所助教授,2002年より総合研究大学院大学助教授を併任,2004年より国立情報学研究所教授並びに総合研究大学院大学教授,現在に至る.テキスト構造を用いた検索と情報活用支援,言語横断検索,情報検索システムの評価等の研究に従事.ACM-SIGIR,ASIS{\&}T,言語処理学会,日本図書館情報学会各会員.}\end{biography}\biodate\end{document}
V13N03-08
\section{はじめに} 近年,手話は自然言語であり,ろう者の第一言語である\cite{Yonekawa2002}ということが認知されるようになってきた.しかし,これまで手話に関する工学的研究は,手話動画像の合成や手話動作の認識といった画像面からの研究が中心的であり,自然言語処理の立場からの研究はまだあまり多くは行われていない.言語処理的な研究が行われていない要因として,自然言語処理における処理対象はテキストであるのに,手話には広く一般に受け入れられた文字による表現(テキスト表現)がないことがあげられる.言語処理に利用できる機械的に可読な大規模コーパスも手話にはまだ存在していないが,これもテキスト表現が定まっていないためである.本論文では,手話言語を音声言語と同様,テキストの形で扱えるようにするための表記法を提案する.また,ろう者が表現した手話の映像を,提案した表記法を使って書き取る実験により行った表記法の評価と問題点の分析について述べる.現在我々は,日中機械翻訳など音声言語間の機械翻訳と同じように,日本語テキストからこの表記法で書かれた手話テキストを出力する機械翻訳システムの試作を行なっている.一般に翻訳は,ある言語のテキストを別の言語の等価なテキストに置き換えることと定義されるが,手話にはテキスト表現がないため,原言語のテキストから目的言語のテキストへの言語的な変換(翻訳)と,同一言語内での表現の変換(音声言語ではテキスト音声合成,手話では動作合成/画像合成)とを切り離して考えることができなかった.我々は,テキスト表現の段階を置かずに直接手話画像を出力することは,広い範囲の日本語テキストを対象として処理していくことを考えると,機械翻訳の問題を複雑にし困難にすると考え,音声言語の機械翻訳の場合と同じように,日本語テキストから手話テキストへ,手話テキストから手話画像へと独立した二つのフェーズでの機械翻訳を構想することとした(図\ref{fig:sltext}).\begin{figure}[tb]\centering\epsfxsize=11cm\epsfbox{sltext.eps}\caption{日本語-手話機械翻訳における手話テキストの位置付け}\label{fig:sltext}\end{figure}現在,日本語から他の諸言語への翻訳を行うためのパターン変換型機械翻訳エンジンjawとそれに基づく翻訳システムの開発が進められているが(謝他2004;ト他2004;Nguyenetal.2005;Thelijjagodaetal.2004;マニンコウシン他2004),本表記法を用いた日本語-手話翻訳システムも,それらと全く同じく枠組みで試作が行なわれている(松本他2005;Matsumotoetal.2005).jawによる翻訳は次のように行われる.jawは入力日本語文を形態素/文節/構文解析して得られた日本語内部表現(文節係り受け構造,文節情報)の各部を,DBMS上に登録された日本語構文パターンと照合する.パターンの要素には階層的な意味カテゴリが指定できる.各パターンは,それを目的言語の表現に変換する翻訳規則と対応しており,その規則の適用により目的言語の内部表現が生成される.目的言語の内部表現は,各形態素の情報を属性として持つC++オブジェクトと,それらの間のリンク構造として実現される.目的言語の内部表現から目的言語テキストへの変換(語順の決定,用言後接機能語の翻訳など)は,各形態素オブジェクトが持つ線状化メンバ関数,および,目的言語ごとに用意された別モジュールによって行われる.\nocite{Bu2004,Shie2004,Nguyen2005,Thelijjagoda2004,Ngin2004}\nocite{Matsumoto2005a,Matsumoto2005b}本論文はこのような枠組みにおいて,翻訳システムが出力する手話のテキスト表現方法について述べるものである.機械翻訳システム,すなわち翻訳の手法については稿を改めて詳しく論じたい.手話の表記法は従来からいくつか提案されている\cite{Prillwitz2004,Sutton2002,Ichikawa2001,Honna1990}.しかしその多くは,音声言語における発音記号のように,手話の動作そのものを書き取り,再現するための動作記述を目的としている.このため,言語的な変換処理を,動作の詳細から分離するという目的には適していない.\renewcommand{\thefootnote}{}日本語から手話への機械翻訳の研究としては黒川らの研究があり\cite{Fujishige1997,Ikeda2003,Kawano2004},日本語とほぼ同じ語順で(日本語を話しながら)手指動作を行なう中間型手話\footnote{日本手話,日本語対応手話,中間型手話については次節で述べる.}を目的言語としたシステムについて研究が行なわれている.そこでも手話の表記法についての提案があるが,機械翻訳の結果出力のためのシステムの内部表現としての面が強く,手話をテキストとして書き取るための表記法というものではない.徳田・奥村(1998)も日本語-手話機械翻訳の研究の中で,手話表記法を定義している.しかし,主に日本語対応手話\footnotemark[1]を目的言語としているため,日本手話\footnotemark[1]において重要な言語情報を表す単語の語形変化や非手指要素に対する表記は定義されていない.テキスト表現を導入することによって,従来の音声言語間の機械翻訳と同じ枠組みで手話への機械翻訳が行えるようになるが,その記述能力が不十分であれば,逆に表記法が翻訳精度向上の隘路になる.機械翻訳を前提として提案された上述の既存表記法は,いずれも言語的に日本語に近い手話を対象としているため,日本手話を表記対象とした場合,記述能力不足が問題となる.本論文で提案する表記法では,手話単語に対してそれを一意的に識別する名前を付け,その手話単語名を基本として手話文を記述する.単語名としては日本語の語句を援用する.手話辞典や手話学習書等でも,例えば[あなた母話す]のように手話単語名を並べることによって手話文を書き表すことが多いが,手話単語はその基本形(辞書形)から,手の位置や動きの方向・大小・強弱・速さなどを変化させることによって,格関係や程度,様態,モダリティなどの付加的な情報を表すことができる.また,顔の表情,頭の動きなどの非手指要素にも文法的,語彙的な役割がある.したがって,これらの情報を排除した手話単語名の並びだけでは,主語や目的語が不明確になったり,疑問文か平叙文かが区別できなかったり,文の意味が曖昧になったりする.手話学習書等では,写真やイラスト,説明文によってこのような情報が補われるが,本表記法ではこれらの情報も,記号列としてテキストに含め手話文を記述する.基本的に動作そのものではなく,その動作によって何が表されるかを記述する.たとえば,「目を大きく開け,眉を上げ,頭を少し傾ける」といった情報ではなく,それによって表される疑問のムードという情報を記述する.ただし,手話テキストから手話動作記述への変換過程を考慮して,表記された内容が手話単語自体がもつものなのか,あるいは,その単語の語形変化によって生じるものか,非手指要素によるものかといった大まかな動作情報は表記に含める.以下,2節で手話言語について述べ,3節で提案する表記法の定義を述べる.4節で表記法の評価のための手話映像の書き取り実験と問題点の分析について述べる.5節で既存の代表的な手話表記法について概観し,本論文の表記法との比較を行う. \section{手話について} 手話は手の形,位置,動き,そして,顔の表情や視線,頭の動きなどの非手指要素といった複数のチャネルを使って意味を視覚的に伝達する言語である.話し手の回りの空間上の位置を代名詞的に利用したり,手の動きの方向で格関係を表すなど,音声言語にはない独自の文法を持つ.語彙についても,手話単語が表す概念と日本語の単語が表す概念とは一般に一致しない.手話の述語はその主体または対象,道具の情報と一体的に表現されることが比較的多い(「魚が泳ぐ」「菓子を食べる」「ハサミで切る」など).このために,日本語では同じ一つの述語で表される動作や性質が,手話では異なる述語(あるいは同じ述語の異なる語形)で表現されることがある.逆に,日本語では別個の単語で表現される事柄が,手話では同じ単語で表される場合も多い(手話単語〈暑い〉は「夏」「南」「扇ぐ」「うちわ」などの意味でも使われる).また,手話には動詞名詞同形の単語が多く存在する.手話は世界共通ではなく,国や地域によって異なる手話が使われている\cite{Gordon2005}.日本で手話と呼ばれるものには「日本手話」と「日本語対応手話」がある.この分類にはさまざまな考え方があり,人によってその定義が異なるが,一般に,{\bf日本手話}はろう者の間で生まれ広がった,日本語とは別の体系を持つ手話言語をさし,{\bf日本語対応手話}は手話単語を使うものの,語彙や文法が日本語的な表現になっているものをさす\cite{Yonekawa2004}.日本語対応手話では日本語を話しながら手話が表現される場合が多いが,日本手話の場合,日本語とは異なる言語であるため,日本語を話しながら手話を話そうとすると2つの言語を同時に話すことになり,日本語につられて不自然な手話になったり,手話につられて不自然な日本語になったりするという\cite{Yonekawa2004}.日本語対応手話には,単に日本語の語順に沿って手話単語を並べただけのものから,手話的な表現を部分的に取り入れたもの({\bf中間型手話}とも呼ばれる),逆に,日本語の助詞や助動詞に対する手指表現も人工的に与え,できる限り日本語をそのまま手指動作で表そうとするものなど幅がある.中途失聴者や健聴者にとって比較的習得が容易なため,手話サークルや手話講習会では日本語対応手話を扱う場合が多い.その反面,日本語対応手話は日本語に堪能なろう者にとっても分かりづらいことが多いといわれる\cite{Akiyama2004,Ichida2005}.これは日本語と手話の単語の意味・用法の違いに加え,手話で用いられる文法標識としての非手指要素が日本語対応手話では欠落し,さらに日本語の助詞なども省かれることが多いため,個々の単語は認識できても,文として理解しにくいものと考えられる.本論文では,日本手話の記述に対応した手話表記法を提案する.日本手話の基本語順はSOV(主語-目的語-動詞)といわれている\cite{Kimura1995,Matsumoto2001}.ただし,話題化による語順の変化や主語の省略が見られ,文末に,主語などを指す指差し(pronouncopy)が現れることも多い.形容詞や副詞の語順については,修飾語が被修飾語に前置される場合と後置される場合が併存している.松本(2001)は,基本的には付随的な語が中心的な語の後ろに置かれる,つまり修飾語が後置されるのが手話の自然な表現であり,前置されるのは強調のための倒置であるが,現代では日本語の影響により,単語によっては前置も一般化してきていると述べている.一方,市田(1998)\nocite{Ichida1998}は名詞句内の語順は形容詞-名詞,関係節-名詞,属格-名詞であり,形容詞や関係節が名詞に後置されているように見える例は,主要部内在型関係節という構造を利用した表現である(前置の場合とは非手指要素が異なる)と説明している.数と単位の語順は,時刻や年齢などは「単位・数」の順で,金額や長さなどは逆に「数・単位」の順で表される.日数($n$日間)では手の形が「数」を,そしてその動きが「〜日間」という単位を表し,数と単位が同時に表現される.このような同時性も,手話の特徴の一つである.音声言語では1度に1つの形態素しか表すことができないが,手話では2本の手と非手指要素による複数のチャネルを介して,並行して異なる形態素を組み合わせて表出することができる.\renewcommand{\thefootnote}{}\setcounter{footnote}{0}また,手話による会話では,非手指要素が手指要素と同じように重要な役割を持っていることが知られており\footnote{米川(2002)は,「お面をかぶって手話をした場合と,顔を出してグローブをはめて手話をした場合とでは,後者の方がよく伝わる」と述べている.},実際,ろう者は会話中,主に互いの手ではなく顔を見ている\cite{Sutton-Spence1999}. \section{手話表記法の提案} ここでは本論文で提案する手話表記法について述べる.なお,表記法の詳細な構文と表記例については付録Aに記載する.\subsection{基本的な方針}日本語-日本手話機械翻訳における言語的な変換の問題を,音声言語間の機械翻訳と同様,動作合成(音声合成)の問題から切り離して扱えるようにすることが表記法導入の大きな目的である.そのため,手話の動作そのものを詳細に記述するのではなく,動作によって表される文の言語的な構造(語彙的・文法的情報)の記述に重点を置いた表記法とする.具体的には次のような要素によって手話文を記述する:手話単語とその語形変化,複合語等の単語の合成,句読点,および,非手指要素による文法標識.表記は汎用的で機械処理に適したテキスト形式で行い,一般的な日本語環境で扱える範囲の文字だけを使用する.これより,テキストエディタ等の既存のツールが手話用にそのまま流用できることになる.テキストはフリーフォーマットとし,文中に空白や改行を自由に挿入できるようにする.\subsection{手話単語とその語形変化}\label{sec:inflection}手話単語は手の形,位置,動き,および,顔の表情などの非手指要素で構成される.単語の基本形(辞書形)から,これらの要素を変化させることにより,意味を部分的に変えたり,付加することができる.本表記法では,単語の基本形は手話単語名で表し,基本形からの変化がある要素については,単語に対するパラメータとして,次のような形式で記述する.\begin{ex}手話単語名[手形](空間;修飾)\end{ex}手話単語名には手話単語の意味に近い日本語の語句を援用する(試作した翻訳システムでは基本的に『日本語-手話辞典』\cite{JISLS1997}の手話イラスト名を手話単語名として用いた).ただし,手話単語とその単語名として使われる日本語語句が表す概念とが全く同じであるとは限らないという点は注意しなければならない.語形変化は,手形要素,空間要素,修飾要素に分けて記述する.\subsubsection*{(a)手形要素}手形の変化による語義の変化は,変化した手形を手形要素として記述することによって表現する.手話単語〈行く〉の手形変化による語義の変化(松本2001)とその表記を図\ref{fig:iku}に示す.\begin{figure}\centering\epsfxsize=7cm\epsfbox{iku123b.eps}\caption{手形変化の表記例.手話単語〈行く〉の基本形(左)とその手形変化(中・右)}\label{fig:iku}\end{figure}\subsubsection*{(b)空間要素}手話では話し手の回りの空間が人称と対応づけられており,話し手の位置が一人称,聞き手の位置が二人称,その他の位置が三人称となっている(図\ref{fig:personalLocation}).その場にいない人や物,場所が三人称の位置で表現されるが,標準的には,人は話し手の斜め左右の位置に,物は話し手の前方中央の位置に配置される(Baker-ShenkandCokely1980;松本2001)\nocite{Baker-Shenk1980}.また,手話の動詞には,手の動きの方向や指先の向きによって格関係を表すものがある.動きが主語や目的語の人称(位置)や数に呼応して変化するため一致動詞と呼ばれる(Sutton-SpenceandWoll1999;市田1999).\nocite{Ichida1999}\begin{figure}\begin{minipage}[t]{.47\linewidth}\center\epsfxsize=5.5cm\epsfbox{personalLocations.eps}\caption{話し手の周りの空間上の位置と\\人称の対応}\label{fig:personalLocation}\end{minipage}\hfill\begin{minipage}[t]{.47\linewidth}\center\epsfxsize=5.5cm\epsfbox{look1221a.eps}\caption{一致動詞の方向変化とその表記}\label{fig:miru}\end{minipage}\end{figure}本表記法では格関係を表す一致動詞の方向や名詞の位置を,語形変化パラメータの空間要素として記述する.一人称と二人称の位置は位置定数``1''と``2''で表し,三人称の位置は``3'',``4'',``$x$'',``$y$'',``$L$'',``$R$''などの位置変数\footnote{変数名``$L$''と``$R$''はそれぞれ話者の左(Left)と右(Right)の位置を暗示している.},または,単語名で表す.単語名は,その単語が表現された位置を示す.図\ref{fig:miru}に動詞〈見る〉の方向変化とその表記を示す.〈見る〉の始点は動作主体を,終点は対象を表している.また,次の表記例では,〈母〉の位置と〈話す〉の始点が一致しており,「母が私に言う(=母から聞く)」という意味の手話を表している.\begin{ex}母($x$)話す($x$→1)\end{ex}\subsubsection*{数の一致}動詞の動きはその主体や対象が単数か複数かによっても変化する.例えば,「(みんなが私に)言う」という意味の手話は,動詞〈話す〉の始点を三人称の位置の範囲で2,3回変えて繰り返し表現される(図\ref{fig:numberAgreement}a).このような動詞の複数変化は,位置の複数形を用いることによって次のように記述する.\begin{ex}話す(3s→1)\end{ex}漠然と複数の人(位置)を表すのではなく,図\ref{fig:numberAgreement}(b)のように,具体的な数(とその人称位置)の指定が必要な場合には,位置の集合を用いて次のように記述する.\begin{ex}話す(\{$x,y$\}→1)\end{ex}一致動詞だけでなく,〈死ぬ〉のように方向を持たない動詞でも,表現位置を変えられる場合は,位置を変えて繰り返し表現することで,主体が複数であることが表される.また,位置変化可能な名詞も,同様の表現方法によって,物事が複数存在することを表すことができる.これらも,空間パラメータの「位置」を複数形にすることによって,表記することができる.\begin{figure}\centering\epsfxsize=5cm\epsfbox{numberAgreement.eps}\caption{動詞の複数変化}\label{fig:numberAgreement}\end{figure}\subsubsection*{(c)修飾要素}音声言語では,単語に対する修飾などの付加的な情報は,単語の前か後ろに一次元的に追加される.手話にも独立した単語としての副詞や形容詞,助動詞に相当する単語が存在するが,これとは別に,手話単語を表現する手の動きの速さや大小,強弱,顔の表情などが副詞(様態・程度)や形容詞(高さ・大きさ),アスペクト(起動・継続),モダリティ(勧誘)などを表す束縛形態素となり,ベースとなる単語と同時に表現される場合がある.このような情報については,その語彙内容を修飾パラメータに記述する.この記述にも便宜上,次のように日本語を援用する.\begin{ex}長い(;とても)&//「とても長い」\\\tt木(;高い)&//「高い木」\end{ex}\subsection{特殊な単語}\subsubsection*{指差しの表記}手話での指差しには,\MARU{1}話し手,聞き手,あるいは,手話単語(またはそれが表現された空間上の位置)を指して代名詞や限定詞として使う用法,\MARU{2}述語や文全体を指して,「〜するのは…」のように名詞化する形式名詞的な用法,\MARU{3}身体の一部を指して名詞として使う用法がある\cite{Matsumoto2001,Kanda1996}.\MARU{1}および\MARU{2}の用法での指差しは,``{\ttPt}''という手話単語名で表し,指差しが指す位置は空間パラメータで{\ttPt($x$)}のように指定する.手話単語〈私〉と〈あなた〉はそれぞれ{\ttPt(1)}と{\ttPt(2)}の別名である.同様に〈それ〉は直前の単語への指差し,〈あれ〉は会話の場にいない第三者を表す左右遠方への指差しに対する別名である.\MARU{3}の用法についてはその指差しによって表される名詞(「目」「耳」「鼻」など)を単語名として記述する.\subsubsection*{非利き手の指を代名詞的に用いた数詞の表記}手話には1,2,3,...や,第1,第2,第3,...といった通常の数詞に加え,指を代名詞的に使った手話特有の数詞があり,これらを松本(2001)は順序数詞,順位数詞,限定数詞と呼んでいる.順序数詞は複数の単語や文を順に列挙しながら,数え上げていく場合に用いられる数詞で,動作としては,握り拳をゼロとして出発し,順に指を立てたり,立てた指を他方の手の人さし指で触れるといった表現になる.数え上げていく過程で,それぞれの指に単語が対応づけられ,後にそれぞれの指が代名詞として参照される場合もある.順序数詞は``{\ttEnum}''という手話単語名と手形パラメータにより次のように記述する.\begin{ex}私Enum[1],妹Enum[2]&//私と妹\end{ex}順位数詞は全体の数があらかじめ判っていて,そのうちの何番目かを指定する数詞である.動作としては,全体の数に相当する本数の指を立て,指定する順位の指を他方の手でつまんだり,指差して指定する.それぞれの指が代名詞として何を指すかは,立てた指全体が兄弟のように序列のある集合を表す場合は自ずと明らかである(この場合,数を表現する手は横向きにして,上下にならんだ指で代名詞間の上下関係を表現する)が,前述の順序数詞を表現することによって1つずつ定義される場合もある.順位数詞は``{\ttRef}''という手話単語名と手形パラメータにより次のように記述する.\begin{ex}Ref[1/3]&//3人のうちの1番目\end{ex}限定数詞は,立てた指の内の何本かを倒すことにより,「いくつかの内のうちいくつかについては」のように数を限定する働きを持つ.``{\ttQuant}''という手話単語名と手形パラメータにより次のように記述する.\begin{ex}Quant[2/4]&//4人の内の2人\end{ex}\subsection{複合語などの単語の合成}\label{sec:compound}複合語(単語の逐次的な合成)は次のように記述する.\begin{ex}手話-サークル&//手話サークル\end{ex}両手で異なる単語を表現した単語の同時的な合成は次のように,\begin{ex}電話\verb+|+仕事&//電話しながら仕事をする\end{ex}そして,1つの単語を表現した後,その一部を保持したまま,次の単語と同時に表現する半同時的な合成は下のように表記する.\begin{ex}家/帰る(→家)&//家に帰る\end{ex}この例では,〈家〉を両手で表現した後,片手をそのまま残し,他方の手で〈帰る〉を表現する.〈帰る〉の動きの終点は,その目的地を表す.ただし,一般的な複合語については一つの単語名(別名)で表すことも許す.例えば,「病院」は「脈{\tt-}ビル」の別名である.\subsection{句読点}\label{sec:punctuation}文末は``。\unskip''で表す.ただし,疑問文の文末は``?''で表す.単語の並びが同じでも,平叙文と疑問文では顔の表情などの非手指要素が異なっており,実際の手話表現ではそれらを区別することができる.表記上,その違いをこれらの文末記号で表す.節や句などの構文的な切れ目は``{\tt,}''または``{\tt;}''で表す.これらは動作的には頷きや時間的な間,瞬きなどで表現される.動詞の後ろに置かれ,モダリティ等を表す助動詞に相当する単語が手話にも存在するが,手話の助動詞は,少数の例外を除き,動詞または形容詞としての用法をもつ\cite{Ichida2000,Matsumoto2001}.これらは述語として用いられるときと,助動詞として用いられるときとで表現に違いが表れる\cite{Kimura1995}.そのため,助動詞として用いられる場合には,``\verb+~+''を前置して助動詞的用法であることを明示する.\subsection{非手指要素}\label{sec:nms}ここでは非手指要素による文法的な標識の表記について述べる.\subsubsection*{非手指文法標識}木村・市田(1995)は話題化,平叙文,yes-no疑問文,wh疑問文,条件節などの標識となる非手指要素について述べている.表\ref{tab:markers}にその例を示す\footnote{現実の手話表現では,個人差やそのときの状況,話者の感情状態,ニュアンスの違いなどによって動作に変化があるものと考えられる.}.前述の句読点も非手指要素による文法標識を表す記号であるが,その他に次のような形式で非手指要素を表記する.\begin{ex}\{$<${\itNMS}$>$単語列\}\end{ex}これは,「単語列」に$<${\itNMS}$>$で示される非手指要素が伴うことを表す.ただし,$<${\itNMS}$>$部には,基本的に非手指要素の動作そのものではなく,それによって表現される機能を記述する.例)話題化:$<${\ttt}$>$,条件節:$<${\ttcond}$>$,同意を求める文:$<${\ttconf}$>$,強調:$<${\ttem}$>$.\begin{table}[tb]\centering\caption{非手指要素による文法標識の例.条件節の動作説明は米川(2005b)\nocite{Yonekawa2005b}から,その他は\\木村・市田(1995)から抜粋}\begin{tabular}{|l|p{9.6cm}|}\hline\multicolumn{1}{|c|}{表現内容}&\multicolumn{1}{c|}{一般的な動作}\\\hline\hline平叙文&文が終わったところ,または,最後の単語で頷く.\\\hlineyes-no疑問文&\begin{tabular}{@{}p{9.6cm}@{}}視線が聞き手に向かう.眉を上げ,最後の単語でうなずくか,あごを引いたまま答えを待つ.文末の単語は手の動きが終わった状態でしばらく保持される.\end{tabular}\\\hlinewh疑問文(疑問詞疑問文)&\begin{tabular}{@{}p{9.6cm}@{}}文末の単語が,相手の答えを待つように,手の動きが終わった状態でしばらく保持されるか,小刻みな動きが繰り返される.眉を上げるか下げるかし,あごを前方か斜め前方に突き出すようにし,さらにあごを左右に小刻みにふったりする.\end{tabular}\\\hline同意を求める文&\begin{tabular}{@{}p{9.6cm}@{}}文末のうなずきに,疑問文の特徴である文末の単語と表情の保持と眉上げが加わる.\end{tabular}\\\hline命令文&\begin{tabular}{@{}p{9.6cm}@{}}文全体または文末の指差しの直前の単語であごを上げる.命令の強さは表情で示す.\end{tabular}\\\hline修飾関係&\begin{tabular}{@{}p{9.6cm}@{}}名詞の並びが修飾関係なら,うなずきがなく連続的に表現される.\end{tabular}\\\hline並列関係&名詞の並びが並列関係なら,名詞ごとにうなずきがある.\\\hline話題化・焦点化&\begin{tabular}{@{}p{9.6cm}@{}}(話題化する語句を文頭に移動して)文頭で眉を上げ,語句の終わりで顎を引く.\end{tabular}\\\hline修辞疑問文(wh分裂文)&疑問詞の位置まではyes-no疑問文と同じで,疑問詞の直後で元に戻す.\\\hlineできごと・行動の順序&\begin{tabular}{@{}p{9.6cm}@{}}できごと・行動の順序どおりに,2つの文をつなげる場合,最初の文の動詞を少しの時間そのまま保ち,うなずいてから,次の文に進む.\end{tabular}\\\hline理由を述べる従属節&\begin{tabular}{@{}p{9.6cm}@{}}述語が形容詞の場合,述語を少しの時間そのまま保ち,うなずいてから次の文に進む.述語が動詞の場合はまゆを上げるか下げるという動作が加わる.\end{tabular}\\\hline原因・目的&\begin{tabular}{@{}p{9.6cm}@{}}原因を表す語でうなずく.原因を表す語の後に〈ため〉が続く場合は,〈ため〉の部分でうなずく.\end{tabular}\\\hline条件節&\begin{tabular}{@{}p{9.6cm}@{}}条件節では眉を上げ,頭と体を少し前に傾ける.続く主節が平叙文の場合,間を置いてから,まゆを下げ,頭と体を元の位置に戻す.\end{tabular}\\\hline\end{tabular}\label{tab:markers}\end{table}\subsubsection*{発言・行動の引用}他者や過去の自分の言動が直接話法的に引用される場合,引用部分では,その言動を行なった人物が配置された位置に応じて(その人物の役を演じるように)上体が少しシフトしたり,現実の聞き手に向かっていた視線が,引用内での聞き手へ移るなどの非手指要素が文法標識となることがある.非手指要素だけでなく,「あなた」を意味する聞き手への指差しや一致動詞の方向も,現実の聞き手ではなく,引用される文中の聞き手に向かう.例えば,「彼が私に『君が好きだ』と言う」という意味の手話において,図\ref{fig:referentialShift}のように〈彼〉が話者の右前方に配置されると,引用部分では上体が少し左を向き,『君』を表す指差しも左前方を指す\cite{Yonekawa2005a}.このような引用部での非手指要素と手指動作の変化を次のように記述する.\begin{exB}彼(R)言う(R→1),\{$<$rs(R)$>$あなた好き\}。\end{exB}\begin{figure}\centering\epsfxsize=7.5cm\epsfbox{referentialShift.eps}\caption{手形変化の表記例.手話単語〈行く〉の基本形(右)と}\label{fig:referentialShift}\end{figure} \section{手話映像の書き取り実験} 本手話表記法の記述力を検証するため,ネイティブの手話話者が表現した手話映像を本表記法で書き取る実験を行った.対象としたのは,手話学習者向けビデオ教材「手話ジャーナル」のうちの2巻\cite{SignFactory1997,SignFactory1999}に含まれる720文である.ビデオにはそれぞれ4人のろう者が,家族・仕事・食事など日常の話題について日本手話で話している様子が撮影されている.\subsection{実験方法}ビデオには手話に対する自然な日本語訳のほか,手話文の構造に即して訳された構造訳が付属している.その構造訳を参考にしながら,手話映像を解析し,手話単語名とその語形変化,非手指文法標識等を,前節で定義した表記法で書き取った.手話単語名は『日本語-手話辞典』(日本手話研究所1997)のイラスト名を基本とし,他の手話辞書の見出しも参考にした.\subsection{結果と考察}実験の結果,720文のうち,本表記法で記述できたものは671文(約93\%)であった.表記例とその日本語訳を表\ref{tab:examples}に示す.\begin{table}[tb]\centering\caption{手話表記例.本表記法で記述した手話文(上段)とその日本語訳(下段).日本語訳の\\括弧内は構造訳を表す.}\label{tab:examples}\begin{tabular}{|l|p{12cm}|}\hline\raisebox{-1zw}{例1}&\tt\{$<$t$>$私家族\},私Enum[1],兄Enum[2],両親Enum[\{3,4\}]。\\\noalign{\vskip-.5zw}\cline{2-2}&私の家族は,私と兄と両親の4人です。\\\hline\raisebox{-1.5zw}{例2}&\tt\{$<$t$>$Ref[\{1,2\}/4]\}両親;\{$<$t$>$Ref[3/4]\}私;\{$<$t$>$Ref[4/4]\}妹。\\\noalign{\vskip-1zw}\cline{2-2}&\begin{tabular}{l}両親と私と妹です。\\(1番目と2番目は両親,3番目は私,4番目は妹です。)\end{tabular}\\\hline\raisebox{-2zw}{例3}&\tt\{$<$t$>$私,父(R),母(R),3/人(R)\}聾唖;\{$<$t$>$祖父(L),祖母(L),2/人(L)\}健聴。\\\noalign{\vskip-.5zw}\cline{2-2}&\begin{tabular}{l}私と父,母はろう者,祖父と祖母は聴者です。\\(私と父,母の3人はろう者,祖父と祖母の2人は聴者です。)\end{tabular}\\\hline\raisebox{-1.5zw}{例4}&\ttテレビ観る(→L),妻(R)Pt(R)一緒,会話(1→R)見る(1→L)食べる;650,家出る。\\\cline{2-2}&テレビを見ながら,また,妻と話をしながら食べて,6時50分に家を出ます。\\\hline\raisebox{-1zw}{例5}&\tt\{$<$cond$>$仕事終わる以降,必要ない\},はやい帰る。\\\noalign{\vskip-.5zw}\cline{2-2}&仕事が終わって,用事がない場合は,早く帰ります。\\\hline\raisebox{-1zw}{例6}&\tt\{$<$em$>$今いいえ\},過去(;とても)古い(;とても)本読む好き。\\\noalign{\vskip-.5zw}\cline{2-2}&最近のものではなく,昔の古い本を読むのが好きです。\\\hline\raisebox{-1zw}{例7}&\tt\{$<$t$>$意味\},日本-手話教える,行く[男](1→3s)たくさん。\\\noalign{\vskip-.5zw}\cline{2-2}&どうしてかというと,手話を教えにあちこち行くことが多いからです。\\\hline\raisebox{-1zw}{例8}&\tt\{$<$t$>$姉\}過去結婚終わる。\\\noalign{\vskip-.5zw}\cline{2-2}&姉は既に結婚しています。(姉はもう以前に結婚しました。)\\\hline\raisebox{-2zw}{例9}&\tt\{$<$t$>$今\}\{$<$t$>$友達\}いじめる($x$→1)\{$<$rs($x$)$>$あなた手話教える趣味\}話す($x$→1)。\\\noalign{\vskip-.5zw}\cline{2-2}&最近友達からは,おまえ手話を教えるのが趣味なんだろうとからかわれます。(いま友達がからかって,おまえ手話を教えるのが趣味なんだろう,と言います。)\\\hline\raisebox{-1zw}{例10}&\tt去年,3|月,$n$年[20]-目とき死ぬ。\\\noalign{\vskip-.5zw}\cline{2-2}&去年3月に20年目で死んでしまいました。\\\hline\end{tabular}\end{table}残りの49文(51表現)については,本表記法では十分表記できないと判断した.これら51表現の分類と表現例を表\ref{tab:problems}に示す.\begin{table}[tb]\centering\caption{十分表記できなかった手話表現の分類とその例}\label{tab:problems}\begin{tabular}{|l|p{4.4cm}|p{4cm}|l|r|}\hline&\multicolumn{1}{c|}{分\hskip2zw類}&\multicolumn{1}{c|}{手話動作例}&\multicolumn{1}{c|}{日本語訳}&\multicolumn{1}{c|}{数}\\\hline\hline1&語句をパントマイム的に説明&\begin{tabular}{@{}p{4cm}@{}}2本の柱と,その間にたわんで掛かる線を描写\end{tabular}&電線&11\\\hline2&実際の動作・反応を再現&「あっ」と驚いた表情&気がつく&10\\\hline3&大きさ・高さの実寸を手で示す&両手で楕円を形作る&これくらい&3\\\hline4&\begin{tabular}{@{}p{4.4cm}@{}}先に表現された単語の部分や相対的な位置の指定\end{tabular}&\begin{tabular}{@{}p{4cm}@{}}〈日本〉における山口県の地理的な位置を指示\end{tabular}&西日本のこの辺り&8\\\hline5&\begin{tabular}{@{}p{4.4cm}@{}}手話単語(手形)を実際の動きや位置関係に即して表現\end{tabular}&\begin{tabular}{@{}p{4cm}@{}}両手で2つの〈座る〉を向かい合わせに表し,話者の右側に配置\end{tabular}&隣の席に向かい合って座る&13\\\hline6&数量変化や時間経過の表現&\begin{tabular}{@{}p{4cm}@{}}〈お金〉を大きく上下させながら横に移動\end{tabular}&(ボーナスが)乱高下する&4\\\hline7&\begin{tabular}{@{}p{4.4cm}@{}}単語を連続的に組み合わせた複雑な表現\end{tabular}&省略(本文中に記載)&\multicolumn{1}{c|}{\rule{5zw}{.3pt}}&2\\\hline\end{tabular}\end{table}分類1は,対応する手話単語が存在しないか,一般的でないために,語句をパントマイム的な身振りで説明したり,視覚的に分りやすく補足する表現である.「電線」,「スカッシュ」,「キャッチボール」,「給与明細」,「腰の曲がったおばあさん」などの表現が見られた.本表記法では手話単語を基本に手話文を表記するため,単語化されていない自由な動作で表現された手話文を表記することができなかった.これらの表現を記述するためには,語句を説明している一連の身振り(あるいは,それを構成する個々の身振り)に単語名を定義する必要がある.分類2は,「疑うような目で見る」,「どきっとする」などの表情や動作をそのまま再現した表現で,分類1と同様,単語化されていない表現のため,表記できなかった.分類3は,飼っていた亀やネコの大きさとその変化,缶ビールのサイズなどを「これぐらい」と手で実物の大きさを示す表現である.「大きい」「小さい」といった抽象的な情報ではなく,視覚的に表された具体的な寸法の情報をテキストとして表記するのは難しく,今のところどのように表記するか定義できていない.分類4は,「〈ビル〉の1階」「〈道路〉の両側」のように,単語で表現された物の一部やそれを基準にした相対的な位置を指差しなどで示す表現である.このような表現に対する表記も今のところ定義しておらず,表記できなかった.分類5は,手話単語を現実世界の動きや位置関係に合わせて自由に動かす表現である\footnote{これらの動詞は空間動詞(spatialverb),あるいは,類辞述語(classifierpredicate)などと呼ばれる\cite{Sutton-Spence1999}.}.左右の手で表した〈座る〉を向かい合わせに配置して「向かい合わせに座る」や,〈男〉を倒して「息子が寝る」,〈男〉を前方に傾けた手形(動物の動き表すときに用いられる)を素早くランダムに動かして「(猫が)部屋中を荒らし回る」,などの表現が見られた.これらを表記するには,1)それぞれに単語名を与え,独立した単語として扱う,あるいは,2)例えば「向かい合う」という単語を定義し,その手形として〈座る〉を指定することで「向かい合わせに座る」を表記するか,3)〈座る〉の修飾パラメータとして「向かい合って」を指定する,といった方法が考えられる.ただし,「並木の間を歩いていって右に曲がる」という意味の手話文は,〈道路〉と〈木〉で表現された並木道に沿って〈歩く〉を動かし,途中で歩く方向を右に変えることによって表現されていた.このように,動きや配置が多様な上,他の単語との位置関係が重要な表現(分類4)の表記は困難である.分類6は,空間上に単語をプロットしてグラフを描くようにして金額や頻度の変動を表したり,時計の針の動きで時間の経過を表す表現である.これは分類5の一種と考えることもできる.グラフ的に表される変化の様子(手の動き)は,「増加」「減少」「一定」「乱高下」「急落」などある程度限られるため,それぞれ単語として定義し,何が変化するかをその手形変化として表記するという方法が考えられる.分類7は,単語を使っているが,その組合せ方が複雑で,表記しきれない手話表現である.そのうちの1つは,「祖母には後継ぎがなく,祖父の面倒を見て,その祖父が亡くなり,…」という意味の文であった.図\ref{fig:couple}に示すように,手話単語〈結婚〉は左右の手で〈男〉と〈女〉を表現し,それらを寄り添わせる動作によって表される.そしてこの寄り添った状態は〈夫婦〉を表す.この文の表現ではまず,〈夫婦〉を目の高さに近い位置で表現することで,目上の夫婦を表現し,眉を上げながら〈女〉を表す手を小刻みに振ることで,祖母についての話であることが示される.次に,〈女〉を表していた手で,〈生まれる〉〈ない〉を表し(祖母には後継ぎがない),〈男〉に向かって〈助ける〉を表現する(祖父の面倒を見る).再び〈夫婦〉を表してから,今度は〈男〉の手で〈死ぬ〉を表現する(祖父が亡くなる).手話単語だけを使った表現だが,現状では〈夫婦〉の構成要素である〈女〉側の手で単語を表現するという指定ができない,また,非手指文法標識のスコープを表すブロックと(半)同時的な合成を表すブロックがオーバーラップしてしまい中括弧の対応が曖昧になるなどの問題があり,表記することができなかった.これらに対する表記方法を検討する必要がある.\begin{figure}\centering\epsfxsize=3.5cm\epsfbox{couple.eps}\caption{多形態素からなる手話単語〈結婚〉}\label{fig:couple}\end{figure}以上,書き取りきれなかった手話表現について述べたが,その他に今後検討すべき点として,同形異義語を区別する口型(唇の動き)の表記への反映,および,複数の文から成る談話を表記対象としたときの位置変数の有効範囲指定が挙げられる.また,本表記法で書かれた手話文から動作記述を合成する過程では,語形変化パラメータの修飾要素の処理が大きな問題となることが予想される. \section{関連研究} 日本語などの音声言語が,音声だけでなく文字による表現を持つことの重要性を考えれば,手話を音声言語に訳さず,手話言語のままテキストとして扱えることは,手話の使用者(手話研究者や学習者を含む)にとっても有用であると考えられる.このため,従来から目的に応じていくつかの表記法が考案されてきた.その多くは,音声言語における発音記号のように,手話の動作そのものを書き取り,再現するのに適した表記法である.HamNoSys(HamburgSignLanguageNotationSystem)は国際音声記号のように,特定の国の手話に依存しないことを目指した表記法である\cite{Prillwitz2004}.手話単語を構成する手の形や位置,動き,掌の向き,非手指要素といった個々の要素を約200種類の単純な図形記号(文字)で表し,それらを一定の順序で一列に並べることによって一つの手話単語の動作を表記する.例えば,図\ref{fig:bear}(a)に示すアメリカ手話で熊を表す手話単語は,同図(b)のような記号列により表現される.直感的には分りにくいが,研究用途での使用を想定しており,動作の詳細な記述が可能となっている.\begin{figure}\centering\epsfxsize=10cm\epsfbox{bears_in_asl.eps}\caption{ASLの``熊''を表す手話単語の表記:(a)イラストによる描写\cite{Fant1994},\\(b)HamNoSysによる表記\cite{Bentele1999},(c)SignWritingによる表記\\\cite{Sutton2006}}\label{fig:bear}\end{figure}SignWritingはダンスの振り付け表記法(DanceWriting)をもとに,1974年Suttonによって考案された手話表記法である\cite{Sutton2002}.HamNoSysと同様,基本となる記号(InternationalMovementWritingAlphabet,IMWA)を組み合わせて手話単語を表現するが,基本記号を一列に並べるのではなく,図\ref{fig:bear}(c)のように,2次元的に配置することにより,直感的に分りやすい表記になっている.基本記号は手の形,動き,顔など8つカテゴリ,約450種類が定義されている.HamNoSysとは対照的に,手紙や新聞,文学,教育など,主に日常生活で使用されることを想定している.SignWritingを日本手話用に拡張する研究も行なわれている\cite{Honna1990}.sIGNDEX\cite{Ichikawa2001,SILE2005}は手話単語をローマ字表記の日本語ラベルで表し,同時表現や非手指要素を表す記号を付加して手話文を表記する.個々の単語における詳しい手指動作についてはビデオ画像によって別途与えている(sIGNDEXV.1の動画語彙数は545語).眉の上げ下げ(eBU,eBD),目の開閉(eYO,eYS),口角の動き(cLD,cLP)など,目に見える動作を現象的に捉え,記号化することを基本としている.図\ref{fig:signdex}にsIGNDEXによる手話表記例を示す.以上は,手話の動作そのものを書き取ることを目的とした表記法であった.一方,徳田・奥村(1998)\nocite{Tokuda1998}は,計算機上で手話を自然言語として処理することを目的とした表記法を提案している(図\ref{fig:tokuda}).手話単語には手話単語辞書に登録された日本語見出しを使用し,指文字表記や,代名詞に対する働きかけを表す動作の表現(左手で代名詞,右手で動詞),単語の繰り返しなどの表記を定義した.しかし,基本的に日本語対応手話を表記対象としているため,非手指要素や語形変化を表記する方法については定義されていない.\begin{figure}[tb]\centering\begin{minipage}{.65\linewidth}\begin{screen}[4]\small\setlength{\baselineskip}{12pt}\begin{verbatim}pT2dOCHIRA+@eBU+@eYO+hDN+mOS-DOCCHIkOOCHA+hDN+mOS-KOOCHAkOOHII+hDN+mOS-KOOHIIdOCHIRA+eS2+hDF+mOS-DOCCHI+@@eBU+@@eYO+eYB//\end{verbatim}\end{screen}\end{minipage}\caption{sIGNDEXによる手話表記例.「コーヒーと紅茶,どちらがよい\\ですか?」に対する手話表記.\cite{Ichikawa2001}から引用}\label{fig:signdex}\vspace*{2ex}\begin{minipage}{.65\linewidth}\small\begin{screen}[4]\tt\hfil今日/本/買う\end{screen}\end{minipage}\caption{文献\cite{Tokuda1998}から引用した手話表記例.「今日,\\本を買った。」に対する手話表記}\label{fig:tokuda}\vspace*{2ex}\begin{minipage}{.65\linewidth}\begin{screen}[4]\small\setlength{\baselineskip}{12pt}\begin{verbatim}[[[],[[主格,[[[[[imoto.t,[rm,yes],[],[]],[[が,助詞,jyosi_ga.t],[],[],[]]],_]]]],[奪格,[[[[[kyoto.t,[rm,yes],[],[]],[[から,助詞,jyosi_kara.t],[],[],[]]],_]]]],[対格,[[[[[tokyo.t,[lm,yes],[],[]],[[に,助詞,yubi_ni.t],[],[],[]]],_G454]]]]],[[iku.t,[終始可変,rm,lm],[],[]],[ます。],_]]]$\end{verbatim}\end{screen}\end{minipage}\caption{文献(池田・岩田・黒川2003)から引用した手話表記例.\\「妹が京都から東京に行きました。」に対する手話表記}\label{fig:ikeda}\end{figure}池田・岩田・黒川(2003)は,中間型手話を対象とした日本語-手話翻訳システムにおいて,手話文の格フレーム(入力日本語文の格フレーム中の日本語形態素を手話形態素に置き換えたもの)からトークファイルと呼ばれる手話動作記述ファイルを生成する際の中間形式として,手話表記法を定義して用いている.各形態素での手の位置情報が記述可能となっており,格関係が,名詞や動詞の位置情報として記述される.表記例を図\ref{fig:ikeda}に示す.表記には,入力日本語文中の機能語情報が残され,組み込まれている.テキストという形式はとっているが,他の表記法のように手話を記号化して読み書きするためのものではなく,翻訳過程(図\ref{fig:sltext})における中間表現(中間言語)に相当するものと考えられる.このため,手話を書き取り,記録し,コーパスを構築するような用途には適していない.一方,我々は,音声言語に対する文字表現に相当するものとして手話テキストを捉え,手話文を読み書きすることを念頭に置いた上で,計算機でも処理しやすい表記法を目指した.前述のように手話には複数のチャネルを使って複数の形態素を組み合わせた表現が見られる.しかし,池田・岩田・黒川(2003)ではこのような同時的な語順に対する表記は定義されていない.同研究は,ほぼ日本語の語順に沿って表現される中間型手話を目的言語としているため,手話と日本語との語順の違いについては重視されていないのかもしれない.あるいは,表記中に残された日本語情報から,手話の語順を決定することが可能かもしれない.しかし,手話への翻訳過程を「言語的な変換(テキスト間の翻訳)」と「表現の変換」に分けたとき,どのような単語をどのような語順で表出するかは前者の段階で決定されるべき問題であり,そのためには手話表記法が語順を記述できる必要がある.本論文で提案した表記法では,手形と動作による同時的表現は語形変化(\ref{sec:inflection}節)として,左右の手による同時表現は単語の合成(\ref{sec:compound}節)として記述可能である.非手指要素が手指要素と同時的に表現される場合も多いが,徳田・奥村(1998),池田・岩田・黒川(2003)ともに,非手指要素の記述方法は定義していない.いずれも音声日本語を伴う手話を表記対象としており,そのような手話では日本語の口話と手指による表現が互いに情報を補完し合うために,非手指要素の役割が小さくなり,表記する必要性が低いと考えられる.しかし,音声日本語を伴わない日本手話では,非手指要素が話題化,疑問などの文法標識となるなど,文法的にも重要な役割も持ち,非手指要素なしでは正しく意味が伝わらないため,本表記法では,非手指文法標識(\ref{sec:nms}節)や句読点(\ref{sec:punctuation}節)として記述できるようにした.語形変化に関しては,既存の表記法でも一致動詞の方向を記述できるものはあるが,数の一致に伴う動作や手形の変化については,表記を定めたものは見あたらない.本論文では,手形変化パラメータ,位置の複数形,位置集合(\ref{sec:inflection}節)を定義することにより,手話の言語的な構造に沿う形で,記述できるようになった. \section{おわりに} 本論文では日本手話をテキストとして表現するための表記法を提案した.従来の多くの手話表記法のように,手話の動作を正確に書き取ることを目的とするのではなく,動作によって表される意味的・文法的な情報,言語的な構造の記述に重点を置くことにより,個々の単語や単語間の動作の遷移など,動作の詳細に立ち入らずに手話文を記述することができ,日本語-日本手話機械翻訳の問題から動作合成の問題を切り離すことに貢献できる表記法となった.テキスト化によって,微妙なニュアンスなど失われる部分もあるが,文の構造や基本的な意味は正しく伝えられるものと考えている.表記法の表現力検証のため,手話を母語とする手話話者によって表現された720文の手話映像を対象に,書き取り実験を行なった.その結果,約93%の文については表記することができたと考えている.十分表記できなかった51表現を分析し,問題点について考察した.日本語-手話機械翻訳システムの構築を進めていく上での今後の課題として,手話の語彙の範囲で,手話の構造に沿った自然な手話テキストを生成するために必要となる,入力日本語テキストに対する換言処理があげられる.また,次の段階では手話テキストから動作記述を生成するという大きな課題がある.現在我々は,日本語テキスト(構造訳レベル)から本表記法での手話テキストへの機械翻訳システムの試作を行なっている.さらに,SignWritingで書かれた手話への機械翻訳についても検討している.\acknowledgment本研究を進めるにあたり,岐阜県立岐阜聾学校教諭鈴村博司氏・長瀬さゆり氏,岐阜大学教育学部池谷尚剛教授から貴重なご助言・コメントをいただきました.ここに記して感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{秋山\JBA亀井}{秋山\JBA亀井}{2004}]{Akiyama2004}秋山なみ\JBA亀井伸孝\BBOP2004\BBCP.\newblock\Jem{手話でいこう---ろう者の言い分聴者のホンネ}.\newblockミネルヴァ書房.\bibitem[\protect\BCAY{Baker-Shenk\BBA\Cokely}{Baker-Shenk\BBA\Cokely}{1980}]{Baker-Shenk1980}Baker-Shenk,C.\BBACOMMA\\BBA\Cokely,D.\BBOP1980\BBCP.\newblock{\BemAmerican{S}ign{L}anguage,ATeacher'sResourceTextonGrammarandCulture}.\newblockClercBooks,GallaudetUniversityPress.\bibitem[\protect\BCAY{Bentele}{Bentele}{1999}]{Bentele1999}Bentele,S.\BBOP1999\BBCP.\newblock\BBOQGoldilocks\&thethreebearsinHamNoSys\BBCQ\\newblockhttp://signwriting.org\allowbreak/forums/linguistics/ling007.html.\bibitem[\protect\BCAY{ト\JBA池田}{ト\JBA池田}{2004}]{Bu2004}ト朝暉\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日中機械翻訳における否定文の翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\97--122}.\bibitem[\protect\BCAY{Fant}{Fant}{1994}]{Fant1994}Fant,L.\BBOP1994\BBCP.\newblock{\BemTheAmericanSignLanguagePhraseBook}.\newblockContemporaryBooks.\bibitem[\protect\BCAY{藤重\JBA黒川}{藤重\JBA黒川}{1997}]{Fujishige1997}藤重栄一\JBA黒川隆夫\BBOP1997\BBCP.\newblock\JBOQ意味ネットワークを媒介とする日本語・手話翻訳のための日本語処理\JBCQ\\newblock\Jem{計測自動制御学会ヒューマン・インタフェース部会HumanInterfaceNewsandReport},{\Bbf12}(1),\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{Gordon}{Gordon}{2005}]{Gordon2005}Gordon,Jr.,R.~G.\BED\\BBOP2005\BBCP.\newblock{\BemEthnologue:LanguagesoftheWorld,Fifteenthedition}.\newblockSILInternational.\newblockOnlineversion:http://www.ethnologue.com/.\bibitem[\protect\BCAY{本名\JBA加藤}{本名\JBA加藤}{1990}]{Honna1990}本名信行\JBA加藤三保子\BBOP1990\BBCP.\newblock\JBOQ手話の表記法について\JBCQ\\newblock\Jem{日本手話研究所所報},{\Bbf\rule{0pt}{1pt}}(4),\mbox{\BPGS\2--9}.\bibitem[\protect\BCAY{市田}{市田}{1998}]{Ichida1998}市田泰弘\BBOP1998\BBCP.\newblock\JBOQ日本手話の名詞句内の語順について\JBCQ\\newblock\Jem{日本手話学会第24回大会論文集},\mbox{\BPGS\50--53}.\bibitem[\protect\BCAY{市田}{市田}{1999}]{Ichida1999}市田泰弘\BBOP1999\BBCP.\newblock\JBOQ日本手話一致動詞パラダイムの再検討---「順向・反転」「4人称」の導入から見えてくるもの---\JBCQ\\newblock\Jem{日本手話学会第25回大会論文集},\mbox{\BPGS\34--37}.\bibitem[\protect\BCAY{市田\JBA川畑}{市田\JBA川畑}{2000}]{Ichida2000}市田泰弘\JBA川畑裕子\BBOP2000\BBCP.\newblock\JBOQ日本手話の助動詞について\JBCQ\\newblock\Jem{日本手話学会第26回大会論文集},\mbox{\BPGS\6--7}.\bibitem[\protect\BCAY{市田}{市田}{2005}]{Ichida2005}市田泰弘\BBOP2005\BBCP.\newblock\JBOQ自然言語としての手話\JBCQ\\newblock\Jem{月刊言語},{\Bbf34}(1),\mbox{\BPGS\90--97}.\bibitem[\protect\BCAY{市川}{市川}{2001}]{Ichikawa2001}市川熹\BBOP2001\BBCP.\newblock\JBOQ手話表記法sIGNDEX\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(39),\mbox{\BPGS\17--23}.\bibitem[\protect\BCAY{池田\JBA岩田\JBA黒川}{池田\Jetal}{2003}]{Ikeda2003}池田隆二\JBA岩田圭介\JBA黒川隆夫\BBOP2003\BBCP.\newblock\JBOQ日本語手話翻訳のための言語変換とそこにおける語形変化規則の処理\JBCQ\\newblock\Jem{ヒューマンインタフェース学会研究報告集},{\Bbf5}(1),\mbox{\BPGS\19--24}.\bibitem[\protect\BCAY{神田\JBA藤野}{神田\JBA藤野}{1996}]{Kanda1996}神田和幸\JBA藤野信行\JEDS\\BBOP1996\BBCP.\newblock\Jem{基礎からの手話学}.\newblock福村出版.\bibitem[\protect\BCAY{河野\JBA黒川}{河野\JBA黒川}{2004}]{Kawano2004}河野純大\JBA黒川隆夫\BBOP2004\BBCP.\newblock\JBOQ日本語手話翻訳システムの開発\JBCQ\\newblock\Jem{知能と情報(日本知能情報ファジィ学会誌)},{\Bbf16}(6),\mbox{\BPGS\485--491}.\bibitem[\protect\BCAY{日本手話研究所}{日本手話研究所}{1997}]{JISLS1997}日本手話研究所\JED\\BBOP1997\BBCP.\newblock\Jem{日本語-手話辞典}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{木村\JBA市田}{木村\JBA市田}{1995}]{Kimura1995}木村晴美\JBA市田泰弘\BBOP1995\BBCP.\newblock\Jem{はじめての手話---初歩からやさしく学べる手話の本}.\newblock日本文芸社.\bibitem[\protect\BCAY{マニンコウシン\JBA福本\JBA池田尚志}{マニンコウシン\Jetal}{2004}]{Ngin2004}マニンコウシン\JBA福本真哉\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日本語-ミャンマー語機械翻訳システムjaw/Myanmarにおける述語構造の翻訳について\JBCQ\\newblock\Jem{第3回情報科学技術フォーラムFIT2004講演論文集},\mbox{\BPGS\139--142}.\bibitem[\protect\BCAY{松本}{松本}{2001}]{Matsumoto2001}松本晶行\BBOP2001\BBCP.\newblock\Jem{実感的手話文法試論}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{松本\JBA谷口\JBA吉田\JBA田中\JBA池田}{松本\Jetal}{2005}]{Matsumoto2005a}松本忠博\JBA谷口真代\JBA吉田鑑地\JBA田中伸明\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語-手話機械翻訳システムに向けて---テキストレベルの翻訳系の試作と簡単な例文の翻訳---\JBCQ\\newblock\Jem{信学技報},{\Bbf104}(637),\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Matsumoto,Taniguchi,Yoshida,Tanaka,\BBA\Ikeda}{Matsumotoet~al.}{2005}]{Matsumoto2005b}Matsumoto,T.,Taniguchi,M.,Yoshida,A.,Tanaka,N.,\BBA\Ikeda,T.\BBOP2005\BBCP.\newblock\BBOQAproposalofanotationsystemfor{J}apanese{S}ign{L}anguageandmachinetranslationfromJapanesetexttosignlanguagetext\BBCQ\\newblockIn{\BemProceedingsoftheConferencePacificAssociationforComputationalLinguistics(PACLING2005)},\mbox{\BPGS\218--225}.\bibitem[\protect\BCAY{{Nguyen,}~M.\JBA池田}{{Nguyen,}~M.\JBA池田}{2005}]{Nguyen2005}{Nguyen,}~M.C.\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語-ベトナム語機械翻訳における連体修飾構造の翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\145--182}.\bibitem[\protect\BCAY{Prillwitzet~al.}{Prillwitzet~al.}{2004}]{Prillwitz2004}Prillwitz,S.et.~al\BBOP2004\BBCP.\newblock\BBOQSignLanguageNotationSystem\BBCQ\\newblockhttp://www.sign-lang.unihamburg.de/Projects/HamNoSys.html.\bibitem[\protect\BCAY{謝\JBA今井\JBA池田}{謝\Jetal}{2004}]{Shie2004}謝軍\JBA今井啓允\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日中機械翻訳システムjaw/Chineseにおける変換・生成の方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\mbox{\BPGS\43--80}.\bibitem[\protect\BCAY{手話情報学研究会}{手話情報学研究会}{2005}]{SILE2005}手話情報学研究会\BBOP2005\BBCP.\newblock\JBOQsIGNDEX表記法\JBCQ\\newblockhttp://www.ns.kogakuin.ac.jp/~wwc1015/sig-sile/signdex/top.html.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1997}]{SignFactory1997}SignFactory\BBOP1997\BBCP.\newblock\Jem{手話ジャーナル初級教材No.1(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1999}]{SignFactory1999}SignFactory\BBOP1999\BBCP.\newblock\Jem{手話ジャーナル初級教材No.2(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{Sutton}{Sutton}{2002}]{Sutton2002}Sutton,V.\BBOP2002\BBCP.\newblock{\BemLessonsInSignWriting,Textbook\&Workbook,3rded.}\newblockTheDeafActionCommitteeforSignWriting.\newblockhttp://www.signwriting.org/archive/docs2/sw0116-Lessons-SignWriting.pdf.\bibitem[\protect\BCAY{Sutton}{Sutton}{2006}]{Sutton2006}Sutton,V.\BBOP2006\BBCP.\newblock{\BemSignWritingSite}.\newblockTheDeafActionCommitteeforSignWriting.\newblockhttp://www.SignWriting.org/.\bibitem[\protect\BCAY{Sutton-Spence\BBA\Woll}{Sutton-Spence\BBA\Woll}{1999}]{Sutton-Spence1999}Sutton-Spence,R.\BBACOMMA\\BBA\Woll,B.\BBOP1999\BBCP.\newblock{\BemTheLinguisticsofBritishSignLanguage---AnIntroduction}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Thelijjagoda,Imai,Elikewala,\BBA\Ikeda}{Thelijjagodaet~al.}{2004}]{Thelijjagoda2004}Thelijjagoda,S.,Imai,Y.,Elikewala,N.,\BBA\Ikeda,T.\BBOP2004\BBCP.\newblock\BBOQJapanese-SinhaleseMTsystem(jaw/Sinhalese)\BBCQ\\newblockIn{\BemProceedingsofAsianSymposiumonNaturalLanguageProcessingtoOvercomeLanguageBarriers,IJCNLP-04SatelliteSymposium},\mbox{\BPGS\73--78}.\bibitem[\protect\BCAY{徳田\JBA奥村}{徳田\JBA奥村}{1998}]{Tokuda1998}徳田昌晃\JBA奥村学\BBOP1998\BBCP.\newblock\JBOQ日本語から手話への機械翻訳における手話単語辞書の補完方法について\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(3),\mbox{\BPGS\542--550}.\bibitem[\protect\BCAY{米川}{米川}{2002}]{Yonekawa2002}米川明彦\BBOP2002\BBCP.\newblock\Jem{手話ということば---もう一つの日本の言語}.\newblockPHP新書.\bibitem[\protect\BCAY{米川}{米川}{2004}]{Yonekawa2004}米川明彦\BBOP2004\BBCP.\newblock\Jem{NHKみんなの手話4--6月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川}{米川}{2005a}]{Yonekawa2005a}米川明彦\BBOP2005a\BBCP.\newblock\Jem{NHKみんなの手話4--6月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川}{米川}{2005b}]{Yonekawa2005b}米川明彦\BBOP2005b\BBCP.\newblock\Jem{NHKみんなの手話7--9月号}.\newblock日本放送出版協会.\end{thebibliography}\appendix \section{表記法の構文と表記例} \begin{center}{\bf表4}手話表記法の構文\\\vskip10pt\tablefirsthead{\hline}\tablehead{\multicolumn{1}{l}{\small前頁からの続き}\\\hline}\tabletail{\hline\multicolumn{1}{r}{\small次頁へ続く}\\}\tablelasttail{\hline}\begin{supertabular}{|p{13.6cm}|}手話文::=手話表現列文末記号\\手話表現列::=手話表現{[区切り記号]手話表現}\\文末記号::=``。\unskip''|``?''\\区切り記号::=``{\tt,}''\hfill//節,句など文法的な切れ目\\\hspace{6zw}|``{\tt;}''\hfill//相対的に大きな切れ目\\\hspace{6zw}|``{\tt\verb+~+}''\hfill//動詞と助動詞間の区切り\\手話表現::=手話単語|複合表現|ブロック\\手話単語::=単語名語形変化|指文字表現\\語形変化::=[``{\tt[}''手形``{\tt]}''][``{\tt(}''[空間][``{\tt;}''修飾]``{\tt)}'']\\手形::=手形名|指代名詞\\手形名::=手話単語名|指文字\hfill//手話単語や指文字${}^{*}$の手形\\\hfill//${}^{*}$指文字とは,手指で表された音声言語の文字(かな,英字,数字)\\指代名詞::=ゆび指定[``{\tt/}''手形名]\hfill//指を代名詞的に用いる表現\\ゆび指定::=ゆび名|``{\tt\{}''ゆび名{``{\tt,}''ゆび名}``{\tt\}}''\\ゆび名::=``1''|``2''|``3''|``4''|``5''|``男''|``女''\hfill//指を表す数や文字\\空間::=空間指定[``\verb+|+''空間指定]\\空間指定::=位置|方向\\位置::=単一位置|複数位置\\単一位置::=位置指定[位置修飾子]\hfill//人称位置\\位置指定::=位置定数\hfill//1人称,2人称の位置\\\hspace{5zw}|位置変数\hfill//3人称(人・物・場所)の位置\\\hspace{5zw}|単語名\hfill//最後に現れた単語の位置\\位置定数::=``1''|``2''\\位置変数::=``3''|``4''|``$x$''|``$y$''|``$L$''|``$R$''|``$C$''|$\cdots$\\位置修飾子::=``$\hat{}$''|``\_''\hfill//相対的な上下(社会的上下関係)\\\hspace{6zw}|``{\tt'}''\hfill//少しずらした別の位置(関連のある別の個体)\\複数位置::=``\{''単一位置{``,''単一位置}``\}''\hfill//位置集合\\\hspace{5zw}|単一位置``{\tts}''\hfill//位置の複数形(彼ら,あちこち,…)\\方向::=[位置]``→''位置\hfill//始点と終点,または\\\hspace{5zw}|位置``→''[位置]\hfill//そのどちらかを指定\\修飾::=修飾指定{``{\tt,}''修飾指定}\hfill//動作の変化によって表される修飾語・機能語\\修飾指定::=修飾内容\hfill//修飾内容を日本語の語句で表す\\\hspace{5zw}|反復指定\hfill//動作の反復によって表される修飾内容\\反復指定::=``*''反復回数\hfill//n回〜する\\\hspace{5zw}|``**''\hfill//よく〜する(漠然と複数回)\\指文字表現::=``{\tt'}''指文字{``・''指文字}``{\tt'}''\\複合表現::=逐次複合語|半同時表現|同時表現\\逐次複合語::=手話単語``{\tt-}''手話単語{``{\tt-}''手話単語}\\半同時表現::=手話表現``{\tt/}''(手話単語|ブロック)\\同時表現::=手話表現``\verb+|+''(手話単語|ブロック)\\ブロック::=``{\tt\{}''[NMS列]手話表現列``{\tt\}}''\\NMS列::=``$<$''{\itNMS}\{``{\tt,}''{\itNMS}\}``$>$''\\{\itNMS}::=``{\ttt}''|``{\ttq}''|``{\ttwhq}''|``{\ttcond}''|``{\ttneg}''|``{\ttem}''|``{\ttrs}''[``{\tt(}''位置``{\tt)}'']|$\cdots$\\\end{supertabular}\end{center}\newlength{\elem}\setlength{\elem}{8zw}\newlength{\example}\setlength{\example}{10zw}\newlength{\note}\setlength{\note}{6.8cm}\newcommand{\tbsp}{}\begin{center}\vskip10pt{\bf表5}表記例\\\vskip10pt\tablefirsthead{\hline\multicolumn{1}{|c}{手話文の要素}&\multicolumn{1}{|c}{表記例}&\multicolumn{1}{|c|}{意味・説明}\\\hline\hline}\tablehead{\multicolumn{3}{l}{\small前頁からの続き}\\\hline\multicolumn{1}{|c}{手話文の要素}&\multicolumn{1}{|c}{表記例}&\multicolumn{1}{|c|}{意味・説明}\\\hline}\tabletail{\hline\multicolumn{3}{r}{\small次頁へ続く}\\}\tablelasttail{\hline}\begin{supertabular}{|p{\elem}|p{\example}|p{\note}|}単語(基本形)&都合&「都合」「運」「偶然」など\\\hline語形変化(手形)&\tt人[2]&「二人」.手形〈2〉で〈人〉を表現\\\hline語形変化(位置)&\tt東京(L)&〈東京〉をLの位置で表現\\\hline語形変化(方向)&\tt言う(2→1)&「あなた(2人称)が私(1人称)に言う」\\\hline\raisebox{-1zw}{動詞の複数変化}&\tt言う(3s→1)&「彼ら(3人称複数)が私に言う」\\\noalign{\vskip-.5zw}\cline{2-3}&\tt行く(;**)&「よく行く」〈行く〉を2,3回繰り返す\\\hline語形変化(修飾)&\tt風(;強い)&「強い風」「風が強い(強く吹く)」\\\hline指差し&\ttPt($x$)&\begin{tabular}{@{}p{\note}@{}}位置$x$をさして,「それ」「その」など代名詞,限定詞\end{tabular}\\\hline順序数詞&\ttEnum[2]&\begin{tabular}{@{}p{\note}@{}}「2つ目は…」単語や文を順に列挙しながら指を起こしてゆく表現\end{tabular}\\\hline順位数詞&\ttRef[\{1,2\}/4]&「4つのうちの1番目と2番目」\\\hline限定数詞&\ttQuant[2/4]&「4つのうち2つ」\\\hline指文字による表現&`パ・テ・ィ・シ・エ'&「パティシエ」.固有名詞や外来語\\\hline逐次的な合成&\tt使う-税金&「消費税」.複合語\\\hline同時的な合成&\tt電話\verb+|+仕事&\begin{tabular}{@{}p{\note}@{}}「電話をしながら仕事をする」左右の手で異なる単語を同時に表現\end{tabular}\\\hline半同時的な合成&\tt家/帰る(→家)&\begin{tabular}{@{}p{\note}@{}}「家へ帰る」両手で〈家〉を表現した後,片手を残したまま,〈帰る〉を表現\end{tabular}\\\hline文法的な区切り,&私{\tt,}妹&「私と妹」\\\cline{2-3}名詞の並列&食べる{\tt,}寝る&「食べて,寝る」\\\hline名詞による修飾&あなた母&「あなたのお母さん」\\\hline\begin{tabular}{@{}p{\elem}@{}}手話単語の助動詞的用法\end{tabular}&買う\verb+~+好き&「買いたい」「買って欲しい」\\\hline\raisebox{-1zw}{文末記号}&私聾唖。&「私はろう者です。」\\\noalign{\vskip-.5zw}\cline{2-3}&聾唖あなた?&「あなたはろう者ですか?」\\\hline直接話法&\begin{tabular}{@{}p{\example}@{}}\parbox{\example}{\tt彼/言う(彼→1)\\\{$<$rs(彼)$>$あなた\\美しい\}}\end{tabular}&\begin{tabular}{@{}p{\note}@{}}「彼が『君はきれいだ』と私に言う」.引用部では,視線や2人称への指差し,体の向きがシフトする\end{tabular}\\\hline非手指文法標識&\tt\{$<$t$>$本\}私買う&「本は私が買う」.話題化\\\end{supertabular}\end{center}\begin{biography}\biotitle{略歴}\bioauthor{松本忠博}{1985年岐阜大学工学部電子工学科卒業.1987年同大学院修士課程修了.現在,同大学工学部応用情報学科助手.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本ソフトウェア科学会,日本手話学会,各会員.}\bioauthor{原田大樹}{2006年岐阜大学工学部応用情報学科卒業.現在,同大学院工学研究科博士前期課程在学中.日本語から手話への機械翻訳の研究に従事.}\bioauthor{原大介}{1991年教育学修士(国際基督教大学).2003年Ph.D.(言語学)(シカゴ大学).2000年4月愛知医科大学看護学部専任講師.2004年10月同学部助教授.専門は手話言語学.日本手話学会副会長.}\bioauthor{池田尚志}{1968年東京大学教養学部基礎科学科卒業.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N04-13
\section{はじめに} \label{sec:intro}テキスト自動要約は,自然言語処理の重要な研究分野である.自動要約の方法には様々なものがあるが,現在の主流は,テキスト中から重要文を抽出して,それらを連結することにより要約を生成する方法である\cite{oku99}.重要文を選ぶための文の重要度は,一般に,\begin{itemize}\item位置情報(例:先頭部分の文は重要)\item単語の重要度(例:重要単語を含む文は重要)\item文間の類似関係(例:タイトルと類似している文は重要)\item文間の修辞関係(例:結論を述べている文は重要)\item手がかり表現(例:「要するに〜」などで始まる文は重要)\end{itemize}などのテキスト中の各種特徴に基づいて決める\cite{oku99}.これらの特徴の組合せは,人手で決める\cite{edmundson69:_new_method_autom_extrac}ことも,機械学習により決める\cite{kupiec95:_train_docum_summar}こともできるが,いずれの方法で決めるとしても,それぞれの特徴を精度良く自動的に求めることが重要である.そのため,我々は,これらの特徴を個別に調査し,それぞれの自動要約への寄与を調べることを試みた.特に,本稿では,文間の類似度の各種尺度を,新聞記事要約を対象として比較した.類似度の良さは,要約の良さにより比較した.すなわち,精度の高い要約ができるような類似度ほど,高精度の類似度であると解釈した.ここで,文間の類似度を求める方法としては,単語間の共起関係を利用する方法と利用しない方法とを試みた.その結果は,共起関係を利用する方法の方が高精度であった.なお,各種の類似度を比較するための要約方法としては,タイトルとの類似度が高い文から重要文として抽出するという方法を利用した.この要約方法を利用して類似度を比較した理由は,タイトルは本文中で最も重要であるので,それとの類似度が文の重要度として利用できると考えたからである.なお,タイトルが重要であるという考えに基づく要約には,\cite[など]{yoshimi98:_evaluat_impor_senten_connec_title,okunishi98}がある.また,要約の手法としては,他に,本文の先頭数文を抽出する方法\cite{brandow95:_autom_conden_elect_public}と,単語の重要度の総和を文の重要度とする方法\cite{zechner96:_fast_gener_abstr_gener_domain}も試みたが,これらの方法よりも,タイトルとの類似度に基づく方法の方が高精度であった.これらのことから,共起関係を利用した方法によりタイトルとの類似度を求め,その類似度が高い方から重要文として抽出する方法が,自動要約に有効であることが分かった.以下では,まず,\ref{sec:measures}章で,各種の文の重要度の定義を述べ,次に,\ref{sec:expriments}章で,各種重要度を比較した実験について述べる.\ref{sec:conclusion}章は結論である. \section{文の重要度の定義} \label{sec:measures}重要文を抽出するためには,文に重要度を付与する必要がある.そのための各種の重要度を以下に定義する.なお,以下では,重要度が数値的に高い文ほど重要な文であるとする.\subsection{先頭の数文を抽出する手法}\label{sec:lead}文章(特に新聞記事)の先頭の数文(冒頭部)は重要と考えられる\cite{brandow95:_autom_conden_elect_public}.その先頭の数文を抽出するためには,文$S$の文章中での位置を$p(>=1)$とすると,$S$の重要度$lead(S)$を,たとえば,\begin{equation}\label{eq:lead}lead(S)=\frac{1}{p}\end{equation}と定義すれば良い.なお,$lead(S)$としては,その他には,$lead(S)=-p$などを採用することもできる.\subsection{単語重要度の和による文重要度}\label{sec:sum}重要単語を多く含む文は重要と考えられるので,単語の重要度の和を文の重要度とすれば良いと考えられる\cite{zechner96:_fast_gener_abstr_gener_domain}.文の重要度を単語重要度の和として求めるためには,文$S$を構成する単語集合を$W(S)$とすると,単語$w$の重要度を$f(w)$とし,$w$の$S$中での頻度を$n(w,S)$とするとき,文$S$の重要度$sum(S,f)$を,\begin{equation}\label{eq:sum}sum(S,f)=\sum_{w\inW(S)}n(w,S)\timesf(w)\end{equation}と定義すれば良い.単語$w$の重要度$f(w)$としては,以下のものを定義する.\begin{eqnarray}\label{eq:wimps1}one(w)&=&1\\\label{eq:wimps2}tf(w)&=&\mbox{要約対象文書中での$w$の頻度}\\\label{eq:wimps3}idf(w)&=&\log\frac{\mbox{全文書数}}{\mbox{$w$を含む文書数}}\\\label{eq:wimps4}tfidf(w)&=&tf(w)\timesidf(w)\end{eqnarray}なお,(\ref{eq:sum})式における$f(w)$を$tfidf(w)$としたときの重要度が,\cite{zechner96:_fast_gener_abstr_gener_domain}で採用された文の重要度に相当する.\subsection{タイトルとの類似度による文重要度}\label{sec:sim}タイトルは本文中で最も重要と考えられる\cite{yoshimi98:_evaluat_impor_senten_connec_title}ので,それと類似度が高い文は重要と考えられる.そのタイトルとの類似度を文の重要度とするために,文$S$とタイトル$T$の類似度を以下に定義する.まず,共起頻度を利用しない方法(以下の$common$,$ip$,$cos$)を定義する.これらは,類似度の定義として良く知られたものである.\subsubsection*{共通単語の重みの和}\begin{equation}\label{eq:common}common(S,T,f)=\sum_{w\inW(S)\capW(T)}n(w,S)f(w)\end{equation}\subsubsection*{内積}\begin{equation}\label{eq:ip}ip(S,T,f)=\sum_{w\inW(S)\capW(T)}n(w,S)f(w)\timesn(w,T)f(w)\end{equation}\subsubsection*{コサイン}\begin{equation}\label{eq:cos}cos(S,T,f)=\frac{ip(S,T,f)}{\sqrt{ip(S,S,f)}\sqrt{ip(T,T,f)}}\end{equation}ここで,$f$は,(\ref{eq:wimps1})式から(\ref{eq:wimps4})式で定義された関数のいずれかである.次に共起頻度を利用する方法(以下の$coProb$,$coIDF$)を定義する.共起頻度は条件付き確率として式中に現れる.なお,以下で述べる,比較的簡単な式である$coProb$と,IDF(InverseDocumentFrequency)の拡張としての$coIDF$とは,類似度の尺度として,本稿で新たに提案するものである.\subsubsection*{共通単語の条件付き確率の和}\begin{equation}\label{eq:coProb}coProb(S,T)=\sum_{w\inW(S)}n(w,S)\Pr(w|T)\end{equation}\subsubsection*{IDFの拡張}\begin{equation}\label{eq:coIDF}coIDF(S,T)=\sum_{w\inW(S)}n(w,S)\times\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}\end{equation}ここで,\begin{eqnarray}\label{eq:pr1}\Pr(w)&=&\frac{\mbox{$w$を含む文書数}}{\mbox{全文書数}}\\\label{eq:pr2}\Pr(w|T)&=&\max_{v\inW(T)}\Pr(w|v)\\\label{eq:pr3}\Pr(w|v)&=&\frac{\mbox{$w$と$v$を含む文書数}}{\mbox{$v$を含む文書数}}\end{eqnarray}である.これらの確率の定義によると,$\Pr(x|x)=1$である.そのため,(\ref{eq:coIDF})式は,\begin{eqnarray}coIDF(S,T)&=&\sum_{w\inW(S)\capW(T)}n(w,S)\timesidf(w)\nonumber\\&+&\sum_{w\inW(S)-W(S)\capW(T)}n(w,S)\times\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}\nonumber\end{eqnarray}と変形できる.つまり,$coIDF(S,T)$は,共通単語$w$については,$idf(w)=1\times\log\frac{1}{\Pr(w)}$の和を求め,それ以外については,共起確率を考慮した値$\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}$の和を求めていると言える.これから分かるように,$\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}$は,$idf(w)$の拡張と言える.また,(\ref{eq:coProb})式は,\begin{eqnarray}coProb(S,T)&=&\sum_{w\inW(S)\capW(T)}n(w,S)\timesone(w)\nonumber\\&+&\sum_{w\inW(S)-W(S)\capW(T)}n(w,S)\times\Pr(w|T)\nonumber\end{eqnarray}であるので,共通単語数を確率的に求めたものとも言える. \section{実験} \label{sec:expriments}本章では,各種重要度により重要文を抽出し,その抽出精度を求めた.\subsection{実験材料}\label{sec:material}\subsubsection*{コーパス等}IDF等を求めるときのコーパスとしては,「CD-毎日新聞」の91-98年版(8年間分)の約86万記事を茶筅version2.02\cite{matsumoto99}により形態素解析した結果を用いた.なお,IDF等の計算においては,1記事を1文書とした.また,各種の重要度を求めるときに,各文の単語を必要とするが,このときの単語としては,10記事以上に出現した単語で,かつ,茶筅の品詞体系における,「名詞」「未知語」「記号-アルファベット」に該当するもののみを選んだ.ただし,名詞のうちで,その下位分類が「数」「代名詞」「非自立」「特殊」「接尾」「接続詞的」「動詞非自立的」に該当するものは除いた.\subsubsection*{正解データ}「CD-毎日新聞」94年版から抽出した56記事についての,被験者による重要文抽出結果を正解データとした\footnote{正解データは筑波大学山本幹雄助教授に提供していただいた.}.これらの記事は以下の分布である.\begin{itemize}\item14記事からなるセットが4セットで合計56記事\item各セットの14記事は、記事の長さを100文字単位で区切って,各文字数の範囲から1記事を無作為に選択.つまり,\begin{quote}\begin{tabular}{ll}0〜99文字&1記事\\100〜199文字&1記事\\200〜299文字&1記事\\...\\1300〜1399文字&1記事\\\end{tabular}\end{quote}\end{itemize}各セットは,3または5人の被験者により要約された(set1,3が5人,set2,4が3人).被験者は,各記事から重要文を,抽出結果の分量が,元の記事の約30\%になるように抽出した\footnote{被験者は,実際には,重要文から,更に,重要文節も抽出したが,その情報は今回の実験では使用しなかった.また,抽出された重要文についても,特に重要な文と,その他の重要文という2通りが被験者により区別されているが,今回の実験では,この区別は無視して,抽出された文は,区別なく全て重要文とした.}.その抽出結果についての諸元を表\ref{tab:stat}に示す.これらの結果は,各記事を,抽出された文の数によりクラス分けした場合の統計である.なお,ある文が抽出されたとは,その文が,過半数の被験者(5人の場合は3人,3人の場合は2人)により抽出されたことであると定義する.また,全記事とは,56記事全てについての結果である.\begin{table}[htbp]\caption{被験者による重要文抽出結果の諸元}\begin{center}\begin{tabular}{|c|cccc|}\hline抽出文数&記事数&平均抽出数&平均記事長&抽出率\\\hline1&10&1.0&2.7&0.37\\2&10&2.0&5.9&0.34\\3〜4&13&3.6&12.6&0.28\\5〜6&11&5.2&16.9&0.31\\7〜11&12&8.6&27.6&0.31\\\hline全記事&56&4.2&13.8&0.31\\\hline\end{tabular}\label{tab:stat}\end{center}\end{table}表\ref{tab:stat}で,「抽出文数」により分かれる記事のクラスにおいて,「記事数」とは,そのクラスに属する記事の数である.「平均抽出数」とは,そのクラスの各記事から抽出された文数の平均値である.「平均記事長」とは,そのクラスの各記事に含まれる文数の平均値である.「抽出率」とは,平均抽出数を平均記事長で割った値である.\paragraph{被験者の重要文抽出精度}5人の被験者(a,b,c,d,e)について,それぞれが選んだ文と正解データ(過半数の被験者が選んだ文)との再現率と適合率を表\ref{tab:sbj}に示す.ただし,被験者$x$が選んだ文の集合を$S(x)$とし,過半数の被験者に選ばれた文の集合を$M$とするとき,\begin{eqnarray}\label{eq:recall}再現率(x)&=&\frac{|S(x)\capM|}{|M|}\\\label{eq:precision}適合率(x)&=&\frac{|S(x)\capM|}{|S(x)|}\end{eqnarray}である.\begin{table}[htbp]\caption{被験者の重要文抽出精度}\begin{center}\begin{tabular}{|c|ccccc|ccccc|}\hline&&&再現率&&&&&適合率&&\\\cline{2-11}抽出文数&a&b&c&d&e&a&b&c&d&e\\\hline1&0.86&0.80&1.00&1.00&1.00&0.75&0.67&0.88&0.80&0.78\\2&0.88&0.75&0.88&0.92&0.94&0.88&0.67&0.82&0.85&0.94\\3〜4&0.75&0.71&0.81&0.82&0.98&0.64&0.61&0.69&0.68&0.83\\5〜6&0.83&0.63&0.86&0.79&0.97&0.79&0.56&0.78&0.71&0.90\\7〜11&0.78&0.76&0.82&0.80&0.86&0.78&0.74&0.83&0.76&0.87\\\hline全記事&0.80&0.71&0.84&0.82&0.92&0.75&0.65&0.79&0.73&0.87\\\hline\end{tabular}\label{tab:sbj}\end{center}\end{table}表\ref{tab:sbj}の再現率や適合率が高いのは,正解データをこれらの被験者から作成したので,ある程度は,当然であるが,それでも,後掲の表\ref{tab:comp}に示す,自動抽出の結果に比べるとずいぶんと高い.統計的には,全記事を対象として,再現率と適合率とを考えたとき,もっとも数値の低い被験者bの適合率0.65を除いては,自動抽出で最高精度である$coIDF$の結果と比べても,比率の差の検定による片側検定で,全てが有意水準5\%で有意に再現率や適合率が高い.\subsection{実験方法と実験結果}\label{sec:results}正解データの与えられた56記事を要約の対象とし,茶筅により形態素解析し,その結果について,各種重要度を適用して重要文を抽出した.各記事から抽出する文数は,正解データにおける抽出文数と同じにした.これは,(\ref{eq:recall})式と(\ref{eq:precision})式において,$|M|=|S(x)|$であることを意味する.したがって,再現率と適合率とが等しくなる.そのため,本節では,それらを単に精度と呼ぶことにする.表\ref{tab:comp}は,\ref{sec:measures}章で定義した各種重要度について,抽出文数によりクラス分けされた記事について,抽出精度を求めたものである.たとえば,まず,$lead(S)$は,抽出文数1の記事に対しては,精度1.00,つまり,1文だけを抜き出すなら,先頭文を抜き出すと必ず正解であることを示す.次に,たとえば,$sum(S,one)$は,(\ref{eq:sum})式の関数$f$として,(\ref{eq:wimps1})式の関数$one$を用いたことを示し,$common(S,T,one)$は,タイトル$T$との類似度を,関数$one$により,(\ref{eq:common})式を用いて求めたことを示す.\begin{table}[htbp]\caption{各種重要度による重要文抽出精度(=適合率,再現率)の比較}\begin{center}\begin{tabular}{|l|llllll|}\hline&&&\multicolumn{2}{c}{抽出文数と精度}&&\\\cline{2-7}重要度&1&2&3〜4&5〜6&7〜11&全記事\\\hline$lead(S)$&1.00&0.65&0.68&0.49&0.42&0.53\\\hline$sum(S,one)$&0.50$^{--}$&0.75&0.43$^-$&0.40&0.53&0.50\\$sum(S,tf)$&0.70&0.70&0.55&0.46&0.50&0.53\\$sum(S,idf)$&0.50$^{--}$&0.70&0.45$^-$&0.42&0.50&0.49\\$sum(S,tfidf)$&0.70&0.65&0.49&0.40&0.55&0.52\\\hline$common(S,T,one)$&0.80&0.75&0.49&0.49&0.55&0.55\\$common(S,T,tf)$&0.80&0.75&0.49&0.46&0.53&0.54\\$common(S,T,idf)$&0.80&0.70&0.47$^-$&0.49&0.56$^{+}$&0.55\\$common(S,T,tfidf)$&0.90&0.70&0.49&0.47&0.52&0.54\\\hline$ip(S,T,one)$&0.80&0.75&0.47$^-$&0.49&0.55&0.55\\$ip(S,T,tf)$&0.90&0.75&0.49&0.44&0.51&0.53\\$ip(S,T,idf)$&0.80&0.70&0.49&0.47&0.53&0.54\\$ip(S,T,tfidf)$&0.90&0.70&0.47$^-$&0.44&0.48&0.50\\\hline$cos(S,T,one)$&0.80&0.65&0.49&0.49&0.51&0.53\\$cos(S,T,tf)$&0.80&0.65&0.47$^-$&0.46&0.50&0.51\\$cos(S,T,idf)$&0.80&0.65&0.47$^-$&0.46&0.52&0.52\\$cos(S,T,tfidf)$&0.80&0.70&0.45$^-$&0.44&0.49&0.50\\\hline$coProb(S,T)$&0.80&0.75&0.53&0.47&0.62$^{++}$&0.59\\$coIDF(S,T)$&0.80&0.75&0.53&0.54&0.61$^{++}$&0.60\\\hline\end{tabular}\label{tab:comp}\end{center}\end{table}表\ref{tab:comp}では,$lead(S)$をベースラインとして,各種重要度を評価した.このとき,もし,ある重要度が$lead(S)$と比率の差の検定による両側検定により有意に精度が異なるときには,有意水準5\%のときには,`$+/-$',有意水準1\%のときには,`$++/--$'を付けてそれを示した.ここで,正の符号は,その重要度が$lead(S)$よりも精度が高いことを示し,負の符号は,その逆を示している.表\ref{tab:comp}から,抽出文数1,2,3〜4,5〜6(平均記事長は,それぞれ,2.7,5.9,12.6,16.9文)については,$lead(S)$の精度が他よりも良いか同等であることが分かる.これは,先頭部に重要なことが書かれているという新聞記事の性質を反映している.しかし,抽出文数7〜11(平均記事長=27.6)になると,先頭部のみでは,カバーできる重要文が少なくなるため,$lead(S)$は他と比べて有効な方法ではなくなる.全記事での精度に基づいた結果から,まず,単語重要度の組合せ方の精度を比較すると,\begin{equation}\label{eq:comp1}coIDF,coProb(0.595)>=common(0.545)>=ip(0.53)>=cos(0.515)>=sum(0.51)\end{equation}である.この順位は,たとえば,$common$については,$common(S,T,one)$,$common(S,T,tf)$,$common(S,T,idf)$,$common(S,T,tfidf)$の全記事についての精度の平均を求めると,$(0.55+0.54+0.55+0.54)/4=0.545$であり,$coIDF$と$coProb$では,$(0.59+0.60)/2=0.595$であることなどから順位付けた.なお,括弧内の数字は,求めた平均値である.この結果から,$coIDF$と$coProb$が他よりも重要文選択に適した重要度であることが分かるが,この結果は統計的には有意ではない.統計的に有意であることを示すには,より規模の大きい実験が必要である.ただし,$coIDF$と$coProb$は,表\ref{tab:comp}でも,抽出文数7〜11の場合には,$lead(S)$と比べて,有意水準1\%で高精度に重要文を抽出できるので,長い記事については,$lead(S)$を使うよりも,これらの共起情報を利用した重要度を使った方が良いと言える.また,短い記事についても,共起情報を利用した重要度は,$lead(S)$と比べて,統計的には同等であるので,共起情報を利用した重要度は,自動要約に適していると言える. \section{おわりに} \label{sec:conclusion}重要文抽出によるテキスト自動要約のために,各種の重要度を比較した.本稿では,特に,文間の類似度の各種尺度を,新聞記事要約を対象として比較した.このとき,文の重要度は,タイトルとの類似度により定義した.文間の類似度を求める方法としては,単語間の共起関係を利用する方法と利用しない方法とを試みた.実験の結果,共起関係を利用した類似度の方が,高精度な要約ができた.この結果から,共起関係を利用した類似度が自動要約に有効であると言える.我々は,今後,本稿での知見に基づいて,各種情報を統合した自動要約システムを作ることを考えている.また,本稿で提案した,IDFの拡張としての類似度を,自動要約だけでなく,情報検索にも応用して,その有効性を確かめたいと考えている.\bibliographystyle{jnlpbbl}\bibliography{sum}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).言語処理学会,情報処理学会,ACL,人工知能学会,日本音響学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V06N07-04
\section{はじめに} \label{sec:sec1}インターネットの普及も手伝って,最近は電子化されたテキスト情報を簡単にかつ大量に手にいれることが可能となってきている.このような状況の中で,必要な情報だけを得るための技術として文章要約は重要であり,計算機によって要約を自動的に行なうこと,すなわち自動要約が望まれる.自動要約を実現するためには本来,人間が文章を要約するのと同様に,原文を理解する過程が当然必要となる.しかし,計算機が言語理解を行うことは現在のところ非常に困難である.実際,広範囲の対象に対して言語理解を扱っている自然言語処理システムはなく,ドメインを絞ったトイシステムにとどまっている.一方では言語理解に踏み込まずともある程度実現されている自然言語処理技術もある.例えば,かな漢字変換や機械翻訳は,人間が適切に介在することにより広く利用されている.自動要約の技術でも言語理解を導入せずに,表層情報に基づいたさまざまな手法が提案されている.これらの手法による要約は用いる情報の範囲により大きく2つに分けることができる.本論文では文章全体にわたる広範な情報を主に用いて行なう要約を{\gt大域的要約},注目個所の近傍の情報を用いて行なう要約を{\gt局所的要約}と呼ぶ.我々は字幕作成への適用も視野に入れ,現在,局所的要約に重点を置き研究している.局所的要約を実現するには,後述する要約知識が必須であり,これをどのようにして獲得するかがシステムを構築する際のポイントとなる.本論文ではこのような要約知識(置換規則と置換条件)を,コーパス(原文−要約文コーパス)から自動的に獲得する手法について述べる.本手法では,はじめに原文中の単語と要約文中の単語のすべての組み合わせに対して単語間の距離を計算し,DPマッチングによって最適な単語対応を求める.その結果から置換規則は単語対応上で不一致となる単語列として得られる.一方,置換条件は置換規則の前後nグラムの単語列として得られる.NHKニュースを使って局所的要約知識の自動獲得実験を行い,その有効性を検証する実験を行ったのでその結果についても述べる.以下,~\ref{sec:sec2}~章では自動要約に関して{\gt大域的要約}と{\gt局所的要約}について説明をする.~\ref{sec:sec3}~章では要約知識を自動獲得する際にベースとなる,原文−要約文コーパスの特徴について述べる.~\ref{sec:sec4}~章では要約知識を構成する置換規則と置換条件について説明し,これらを自動獲得する手法について述べる.~\ref{sec:sec5}~章では原文−要約文コーパスから実際に要約知識を自動獲得した実験結果について述べ,獲得された要約知識の評価結果についても述べる.~\ref{sec:sec6}~章ではまとめと今後の課題について述べる.\newpage \section{大域的要約と局所的要約} \label{sec:sec2}本論文では,文章全体にわたる広範な情報(大域的情報)を用いて行なう要約を{\gt大域的要約}と呼ぶ.大域的情報とは文章中に含まれる単語の出現頻度や,文章中での文の位置などである.例えば,これらの情報を使って重要文を抽出し連結することで要約を行う手法が提案されている~\cite{Luhn58,Edmundson69,Watanabe95,Kupiec95,Zechner96}~.このような要約手法は,実現の容易さから,市販の自然言語処理システム(ワードプロセッサ,機械翻訳システム)の一機能として組み込まれていることもある.しかし,要約文章は重要文を単に連結したものであるため,文章全体の概要を知るという用途には利用できるものの,文章としての自然さに欠ける.一方,注目個所の近傍の情報(局所的情報)を用いて行なう要約を{\gt局所的要約}と呼ぶ.局所的情報とは注目個所そのものや,その前後の単語列などである.例えば,ある単語列に注目してそれをより短い単語列に言い換えることにより要約を行なう手法が提案されている~\cite{Yamamoto95,Wakao97,Yamazaki98}~.これらの手法には,どの単語列をどのように言い換えるか(置換規則),また,どのような場合に言い換えるか(置換条件)という要約知識が必須となる.要約対象を拡大したり要約精度をあげるためには,このような要約知識を増やしたり精練したりしなければならない.しかし,従来はこうした知識を人手で作成していたため大規模なシステムはない.文章を自動要約するには大域的要約と局所的要約の両方を用いることが望まれるが,本論文では局所的要約だけに焦点をあてる.これは,我々が自動要約の当面の応用としてニュースの字幕原稿の自動作成を考えているからである.ニュースの字幕原稿とはアナウンサーが話す元原稿を要約して画面に表示したものである.字幕は,すべての情報を与えるという観点からはむしろ元原稿を要約しないで作成するほうが望ましいが,字幕の表示速度や読み易さという観点からはやはり元原稿を要約して作成する必要がある.この元原稿の要約に従来の大域的要約手法を適用すると文全体を省略してしまうので,大きな情報の欠落を伴うという問題が生じる.また,元原稿の文は局所的情報で要約できる場合が多いので,ニュースの字幕原稿作成には局所的要約のほうが適している.以下,単に「要約」と書いた場合には局所的要約を指すものとする. \section{原文−要約文コーパス} \label{sec:sec3}本論文で提案する要約知識自動獲得手法では,原文と要約文からなる電子化されたコーパスが大量に必要となる.この章では我々が使用している原文−要約文コーパスについて説明する.我々は原文にNHKニュース原稿,要約文にNHK文字放送の原稿\footnote{我々が局所的要約の当面の適用として考えているのはニュース字幕作成であるので,要約文としてニュース字幕の原稿を使えることがもちろん望ましい.しかし,現行では字幕が付与されているニュースはほとんどない.そこで本手法では大量にある文字放送の原稿を要約文に使った.}を使っている.NHKニュース原稿とは,主にNHK総合TV(GTV)のニュース(例えば,「7時のニュース」)でアナウンサーが読む原稿の元になるものであり,電子的に保存されている.アナウンサーが読んで伝えることを目的として書かれているため,新聞記事と比較すると冗長な表現も少なくない.一方NHK文字放送の原稿とは,GTVの電波に多重され放送されている文字放送(テレビジョン文字多重放送)の番組の原稿である.文字放送は専用のデコーダーで受信することができ,わずかの例外を除いては市販の受信ソフトにより文字コードとして計算機に取り込むことが可能である.GTVの文字放送は数百の番組があるが,本論文で用いている番組はテレモケイザイニュース,テレモコクサイニュース,テレモサンギョウ,NHKニュース,NHKフルサトネットワークの5つの番組である.文字放送の原稿の記事数は番組や日によって異なるが,1番組当たり4〜8記事であり,一日に数回ニュース内容が更新される.また,1記事は1画面の中に収まるように作成されている.NHKニュース原稿とNHK文字放送の原稿の一例を図1に示す.\begin{figure}\vspace*{-1cm}\begin{center}\epsfile{file=77.eps,scale=1.0}\vspace*{-4mm}\vspace{-3mm}\caption{原文と要約文の例}\end{center}\end{figure}はじめに,NHKニュース原稿とNHK文字放送の原稿の1記事全体を定量的に比較する.比較は9,243記事に対して,文の数,文字数の平均を計算して行った.結果を表1に示す.文の数では,ニュース原稿は1記事当たり5〜6文であるのに対して,文字放送の原稿はほとんどの場合が2文である.文字数でみると,文字放送の原稿の1文は短く,ニュース原稿が約20%に縮約されている.\begin{table}\begin{center}\caption{NHKニュース原稿と文字放送の原稿の特徴}\begin{tabular}{c|c|c|c}\hline\hline平均&ニュース原稿&文字放送の原稿&要約率\\\hline平均文数&5.4&2.2&40.7\%\\平均文字数&495.5&107.2&21.6\%\\\hline\end{tabular}\end{center}\end{table}図1の例で,ニュース原稿と文字放送の原稿を各文ごとに具体的に比較する.文字放送の原稿の第1文とニュース原稿の第1文は共通に存在する単語列が多い.また,異なっている部分は局所的要約が行なわれている.すなわち,次のようにニュース原稿の単語列が文字放送の原稿中では短い単語列に置換されている.(ここで,矢印の左辺が原文中の単語列,右辺が要約文中の単語列である.また,記号φは空を表す.)「ごみの焼却場などから出る」(連体節)→「φ」「有害物質のダイオキシン」→「有害物質ダイオキシン」「摂取基準を引き下げること」→「摂取基準引き下げ」「受けて」→「受け」「国内の基準」→「国内基準」「なりました」→「なった」\vspace{-3mm}文字放送の原稿の第2文はニュース原稿の第2,3文から要約されている.文字放送の原稿の第2文は「10ピコグラム」というキーワードを中心にして要約が生成されている.すなわち,前半はニュース原稿第2文の「10ピコグラム」辺りの節までを要約し,後半は第3文の「10ピコグラム」からの節を要約し,これらを繋げることにより要約が行なわれている.つまり,第2文の要約は「10ピコグラム」という共通単語列を考慮して要約しており,節を対象にした大域的要約である.ニュース原稿の第4,5,6文は文字放送の原稿中では省略されている.すなわち,これらは文を対象にした大域的要約が行なわれたものである. \section{コーパスからの要約知識の自動獲得} \label{sec:sec4}\subsection{要約知識}\label{sec:sec4-1}我々の要約知識は置換規則と置換条件からなる.置換規則とは原文の単語列を短い単語列に置き変えよというものである.例えば,次の規則は連体格助詞「の」という単語を省略するという置換規則である.\vspace{8mm}\\\hspace*{5mm}【置換規則の例】\\\hspace*{10mm}「の/体助」→「φ」\\\hspace*{10mm}(ここで「の」は表層文字列,「体助」は品詞が“連体格助詞”であることを表す.)\vspace{8mm}\\一方,置換条件とは置換規則が適用できるか否かを判定する条件である.置換規則の適用はその前後の単語列で決まる.例えば,次は上述の置換規則の例に対する置換条件の一部である.\vspace{8mm}\\\hspace*{5mm}【置換条件の例】\\\hspace*{10mm}「日本の経済」のときは置換規則適用可\\\hspace*{10mm}「日本の銀行」のときは置換規則適用不可\vspace{8mm}\\この置換条件の例では,「日本の経済」中の「の/体助」は省略可能であるが,「日本の銀行」中の「の/体助」は省略できないということを表している.この例のように,置換規則は必ず適用できるわけではなく,適用してはいけない場合もある.実際には後述するように,適用できる程度を[0.0,1.0]の実数値で表現している.以下では,置換規則と置換条件をコーパスから自動的に獲得する手法について具体的に説明する.\subsection{置換規則}\label{sec:sec4-2}置換規則は,原文と要約文の差分として自動的に獲得する.本手法でははじめに原文−要約文コーパスのそれぞれの文を形態素解析し,単語単位に分割する.形態素解析\footnote{形態素解析の誤りが置換規則の自動獲得に影響を及ばすことが考えられるが,後述するように実際には出現頻度の高いものを使っているので影響は少ない.}は我々独自のシステムを使っている.次に,形態素解析で得られた原文中の単語と要約文中の単語の最適な単語対応を求める.これは,原文中の単語$w_i$(表層文字列を$c^o_i$,品詞を$p^o_i$と表す)と要約文中の単語$x_j$(表層文字列$c^s_j$,品詞$p^s_j$)のすべての組み合わせに対して単語間の距離を計算し,その距離に基づいて単語間のDPマッチングを取ることによって実現している.この中で単語間の距離をどのように定義するかが重要となる.単語間の距離は,対応する単語の有無や単語の類似性により式(1)のように3つの場合に分けて定義した.\vspace{8mm}\\【単語間の距離】$$\\\\\\\\\\\\\\distword(w_i,x_j)=distword(c^O_i/p^O_i,c^S_j/p^S_j)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(1)$$\[\\\\\\\\\\\\\\\\\=\left\{\begin{array}{lr}\lambda_1{distchar(c^O_i,c^S_j)+\lambda_2distpos(p^O_i,p^S_j)}&\mbox{\\\\\\\\\\\(1a)}\\\mbox{\\\$if\\w_i\neqφ\wedgex_j\neqφ\wedgeContWord(p^O_i)=ContWord(p^S_j)$}&\mbox{}\\2.0&\mbox{\\\\\\\\\\\(1b)}\\\mbox{\\\$if\\w_i\neqφ\wedgex_j\neqφ\wedgeContWord(p^O_i)\neqContWord(p^S_j)$}&\mbox{}\\1.5&\mbox{\\\\\\\\\\\(1c)}\\\mbox{\\\$if\\w_i=φ\veex_j=φ$}&\mbox{}\\\end{array}\right.\]\vspace{8mm}\\ここで,φは空を表す記号であり,$w_i=φ$は対応する単語が省略されたことを表す.また,内容語判定関数$ContWord$は単語$w_i$が内容語であるかないかをその品詞($p_i$)から判定する関数であり,式(2)で定義する.\vspace{8mm}\\【内容語判定関数】$$\\\\\\\\\\\\ContWord(p)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(2)$$\[\\\\\\\\\\\\\\\\\\\=\left\{\begin{array}{llr}1&\mbox{$if\\p=$内容語である品詞\\\\\\\\\\\\\\\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\(2a)}\\0&\mbox{$otherwise$}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\(2b)}\end{array}\right.\]\vspace{8mm}\\式(1a)は2つの単語が共に内容語であるか,共にそうではない場合であり,式(3),式(4)を用いて計算される.単語間の距離は,シソーラス上の距離と品詞間の距離を重み付け($\lambda_1+\lambda_2=1$)して計算される.シソーラス上の距離は表層文字列が完全一致する場合には0.0(式(3a))をとる.一致しない場合には,それぞれの単語が内容語であれば,意味的な距離をシソーラスを使って計算する.実際には角川類語新辞典~\cite{Oono97}~の分類番号の一致する桁に基づき,式(3b)〜(3d)で計算している.\vspace{8mm}\\【シソーラス上の距離】$$\\\\\\\\\\\\\\\\\\\\distchar(c^O_i,c^S_j)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3)$$\[\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\=\left\{\begin{array}{llr}0.0&\mbox{$if\\c^O_i=c^S_j$\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3a)}\\0.1&\mbox{$if$上位3桁のみが一致\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3b)}\\0.4&\mbox{$if$上位2桁のみが一致\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3c)}\\0.8&\mbox{$if$上位1桁のみが一致\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3d)}\\1.0&\mbox{$otherwise$\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3e)}\end{array}\right.\]\vspace{8mm}\\式(1a)の第2項である品詞間の距離は,式(4)のように3つの場合に分けて定義している.\vspace{8mm}\\【品詞間の距離】$$\\\\\\\\\\\\\\\\\\distpos(p^O_i,p^S_j)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(4)$$\[\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\=\left\{\begin{array}{llr}0.0&\mbox{$if\\p^O_i=p^S_j$}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\(4a)}\\0.2&\mbox{$if\\p^O_i$と$p^S_j$は人手で指定したもの}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\(4b)}\\1.0&\mbox{$otherwise$}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\(4c)}\end{array}\right.\]\vspace{8mm}\\ここで式(4b)は,「名詞とサ変名詞」のように,完全一致しないが類似している品詞同士であり,人手で指定した.しかし,現在のところその数はあまり多くない\footnote{人手で指定している品詞の組み合わせは現在のところ約40個である.品詞間の距離は,理想的にはすべての品詞(我々の形態素解析システムでは約230個ある)の組み合わせに対して,細かく人手で定義することが望ましい.}.式(1a)は,定義式からわかるように[0.0,1.0]の値を取る.さて,式(1b)は内容語である単語と内容語でない単語が対応する場合であり,このような対応は不適切である場合が多いので他の場合よりも大きい値にした.式(1c)は対応する単語が省略されている場合であり,式(1b)と式(1a)の最大値($=1.0$)の間の値とした.以上のように定義した単語間の距離に基づいて単語間のDPマッチングをとると,図2のように,前の単語列が一致し(単語数$q1$個),一部が不一致となり($p$個),その後にまた単語\mbox{列が一致する}($q2$個)という部分が求められる.この不一致となる単語列が置換規則となる.さらに,一致する部分が長く,不一致の部分が短いほうが置換規則としての信頼性が高いと考えられる.そこで置換規則自動獲得の信頼度として式(5)を定義すると,この値の大きいほうが知識として有効である.実際にはあるしきい値($f_0$)を決め,式(5)の値がしきい値より大きいものを収集した.\vspace{8mm}\\\vspace{-3mm}【置換規則自動獲得の信頼度】$$f(w_iw_{i+1}\ldotsw_{i+p-1},x_ix_{i+1}\ldotsx_{i+p-1})=\frac{q1+q2}{p}\eqno{(5)}$$\begin{figure}\begin{center}\epsfile{file=81.eps,scale=1.0}\vspace{-5mm}\caption{単語対応の差分による置換規則と置換条件の自動獲得}\end{center}\end{figure}\vspace{-7mm}さらに置換規則としての信頼度を高めるために,収集された置換規則の頻度統計をとり,頻度が高い置換規則を最終的に有効な置換規則とした.\vspace{-2mm}\subsection{置換条件}\label{sec:sec4-3}\vspace{-1mm}置換条件には置換規則の前後の単語nグラムが使われている.置換条件は置換規則と同時に収集されるが,原文の単語列が置換される場合$w_iw_{i+1}\ldotsw_{i+p-1}→x_ix_{i+1}\ldotsx_{i+p-1}$(正例と呼ぶ)とともに,原文の単語列がそのまま保存される場合$w_iw_{i+1}\ldotsw_{i+p-1}→w_iw_{i+1}\ldotsw_{i+p-1}$(負例と呼ぶ)も収集している.負例を自動獲得する場合にも式(5)による信頼度を使っている.\begin{figure}\begin{flushleft}\\\\\\\\\\\\{\gt置換規則:}$w_iw_{i+1}\ldotsw_{i+p-1}→x_ix_{i+1}\ldotsx_{i+p-1}$\\\\\\\\\\\\\\{\gt置換条件:}\nolinebreak\end{flushleft}\begin{center}\\\\\\\\\\\{\gt置換前条件}\\\\\\\\\\\\\\\\\\{\gt置換後条件}\\\\\\\\\\\正例\\\$w^1_{i-r1}\ldotsw^1_{i-2}w^1_{i-1}\\\\w^1_{i+p}w^1_{i+p+1}\ldotsw^1_{i+p+r2-1}$\\\\\負例\\\$w^2_{i-r1}\ldotsw^2_{i-2}w^2_{i-1}\\\\w^2_{i+p}w^2_{i+p+1}\ldotsw^2_{i+p+r2-1}$\\\\\\\\\\\\:\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\:\\\\\正例\\\$w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1}\\\\w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1}$\\\\\\\\\\\\:\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\:\\\end{center}\caption{置換規則と置換条件}\end{figure}置換規則の前のnグラムを置換前条件,後のnグラムを置換後条件と呼び,それぞれのnの値を$r1$,$r2$とおく.すると,要約知識は図3のように表すことができる.この図で$k$は$k$番目にある置換条件を表すのに用いている.このような置換条件を参照して,ある置換規則$w_iw_{i+1}\ldotsw_{i+p-1}→x_ix_{i+1}\ldotsx_{i+p-1}$が適用できるかどうかの程度は,式(6)で定義された置換条件上の距離として計算される.置換条件上の距離の計算ではまず,それぞれの$k$に対して,原文の単語列の前$r1$グラム($w_{i-r1}\ldotsw_{i-2}w_{i-1}$)と$k$番目の置換前条件($w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1}$)との距離(式(6b)),原文の単語列の後$r2$グラム($w_{i+p}w_{i+p+1}\ldotsw_{i+p+r2-1}$)と$k$番目の置換後条件($w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1}$)との距離(式(6c))を求める.次にそれらを重み付けた和(式(6a))を計算し,さらにすべての$k$に対する最小値を求め,この最小値を置換条件上の距離とする.定義から明らかなように,式(6)は[0.0,1.0]の値をとる.\vspace{8mm}\\【置換条件上の距離】$$\min_{k}(g(w_iw_{i+1}\ldotsw_{i+p-1},x_ix_{i+1}\ldotsx_{i+p-1},k)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\eqno{(6)}$$\\\\\\\\\\\$g(w_iw_{i+1}\ldotsw_{i+p-1},x_ix_{i+1}\ldotsx_{i+p-1},k)$\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(6a)\\\\\\\\$=\mu_1g^-(w_{i-r1}\ldotsw_{i-2}w_{i-1},w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1})$\\\\\\\\$+\mu_2g^+(w_{i+p}w_{i+p+1}\ldotsw_{i+p+r2-1},w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1})$\\\\\\\\$(\mu_1+\mu_2=1)$\[g^-(w_{i-r1}\ldotsw_{i-2}w_{i-1},w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1})\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\]\[=\frac{\sum_{j=1}^{r1}\bigl\{weight_1(j)\timesdistword(w_{i-j},w^k_{i-j})\bigr\}}{\sum_{j=1}^{r1}weight_1(j)}\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\]\begin{flushright}(6b)\end{flushright}\[g^+(w_{i+p}w_{i+p+1}\ldotsw_{i+p+r2-1},w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1})\\\\\\\\\\\\\\\\\\\\\]\[=\frac{\sum_{j=1}^{r2}\bigl\{weight_2(j)\timesdistword(w_{i+p+j-1},w^k_{i+p+j-1})\bigr\}}{\sum_{j=1}^{r2}weight_2(j)}\\\\\\\\\\\\\\\\\\\\\\\\\\]\begin{flushright}(6c)\end{flushright}\\\\\\\\\\\\$weight_1(j)={\alpha_1}^{j-1}$\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(6d)\\\\\\\\\\\\$weight_2(j)={\alpha_2}^{j-1}$\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(6e)($\alpha_1$,$\alpha_2$は定数,$0.0\le\alpha_1\le1.0$,\\$0.0\le\alpha_2\le1.0$)\vspace{10mm}\\ただし,$g^-$,$g^+$はそれぞれ,原文と収集された置換前条件,置換後条件間の距離を計算する関数であり,置換規則となる単語列から離れるほど,その影響が少なくなるように$weight(j)$で重み付けしている.さらに,置換前条件と置換後条件は$\mu$で重み付けしている.式(6)で最小値を与える置換条件が正例に関するものであるならば,置換規則が適用され局所的に要約される.しかし,置換規則の適用を式(6)で単純に判定してしまうと,負例,すなわち置換規則を適用しない方を解とする場合が多くなってしまう.これは,置換条件の正例が置換しなければならないというものではなく,置換してもよいという程度の意味しか持たないからである.そこで後述する要約知識の評価実験では,あるしきい値($g_0$)を決め,式(6)で求められた最小値を与える解が負例であっても正例での最小値がしきい値以下であるならば,正例を解とした. \section{実験} \label{sec:sec5}\subsection{要約知識獲得実験}\label{sec:sec5-1}NHKニュース原稿とNHK文字放送の原稿から構成される,原文−要約文コーパスの9,243記事を使って要約知識を自動獲得する実験を行った.単語間のDPマッチングを行う際には,あらかじめ文対応をつけておくということはせずに,原文,要約文それぞれに含まれる単語のすべての組み合わせを使った.要約知識のうち,まず置換規則の自動獲得実験を行った.この際,次のパラメータ値をあらかじめ決めておかなければならない.\begin{flushleft}{\gtパラメータ1:}シソーラス上の距離と品詞間距離の重みづけ$\lambda_1$式(1a))\\{\gtパラメータ2:}置換規則自動獲得の信頼度$f$(式(5))のしきい値$f_0$\end{flushleft}今回の実験では,パラメータ1に関しては,品詞間距離の計算において人手で指定している品詞対があまり多くないので,表層表現を重視するように次の値にした.\begin{flushleft}{\gtパラメータ1:}$\lambda_1=0.7$($\lambda_2=0.3$)\end{flushleft}またパラメータ2に関しては,置換規則となる単語列は1単語以上は必要であり,その前後は少なくとも一方のうち1単語は一致してほしいと考え,$p=1$,$q1=1$,$q2=0$(または,$q1=0$,$q2=1$)から計算される次の値にした.\begin{flushleft}{\gtパラメータ2:}$f_0=1.0$\end{flushleft}自動獲得された置換規則に対してさらに頻度統計をとった.上位40位を表2に示す.表2の中で,「や/並助→・/つなぎ」や「の/体助→・/つなぎ」等は字数が同じであり,字数を減らすという要約本来の意味では置換規則とはいえない.しかし,要約文としての読みやすさという点では有効であると考えられるので,参考のために含めた.もちろん後処理でこれらを置換規則から取り除くことは容易である.\begin{table}\begin{center}\caption{自動獲得された置換規則}\begin{tabular}{|r|l|l|}\hline\hline獲得個数&原文中の単語列&要約文中の単語列\\\hline8967&、/読点&φ\\5331&の/体助&φ\\3491&まし/助丁寧&φ\\1643&を/格助を&φ\\579&で/助断定&φ\\529&に/格助に&φ\\525&が/格助が&φ\\484&総理/名大臣/名&首相/名\\450&」/閉かぎ&φ\\426&な/助断定&φ\\\hline387&て/接助&φ\\360&する/さ連体&の/体助\\340&し/さ連用&φ\\328&や/並助&・/つなぎ\\324&など/副助&φ\\312&い/形五わう/自尾&の/体助\\306&てい/助完了ます/助丁寧&ている/助完了\\305&は/係助は&φ\\266&て/接助、/読点&φ\\247&です/助断定&φ\\\hline246&「/開かぎ&φ\\238&し/さ連用まし/助丁寧た/助過去&φ\\228&アメリカ/地&米/名\\225&を/格助を&の/体助\\221&てい/助完了&φ\\201&委員/名会/尾&委/尾\\195&なり/形五らまし/助丁寧&なっ/形五ら\\186&・/つなぎ&=/つなぎ\\185&だ/助断定&φ\\181&り/自尾まし/助丁寧&っ/自尾\\\hline180&もの/形名です/助断定&φ\\169&余り/別尾&余/別尾\\167&大蔵/人姓大臣/名&蔵相/名\\166&の/体助&・/つなぎ\\166&と/格助と&・/つなぎ\\161&について/格助他&φ\\159&が/格助が&の/体助\\156&する/さ連体&φ\\150&行な/他五わ&行/他五わ\\144&外務/名大臣/名&外相/名\\\hline\end{tabular}\end{center}\end{table}表2をみると,妥当な置換規則が得られているのがわかる.実際,上位100位までを人手で確認したところ,すべて妥当な置換規則が得られていた.具体的にみると,上位には「の/体助→φ」や「を/格助→φ」のように,分野に関係なく行なわれる要約である助詞や助動詞の省略が多いのがわかる.また,我々の原文−要約文コーパスを使ったことによる特徴であるが,置換規則「まし/助丁寧→φ」(実際には「しました→した」)や「てい/助完了ます/助丁寧→ている/助完了」のように,アナウンサーが話すことを目的としたニュース原稿を,書き言葉である文字放送の原稿に要約するための置換規則が得られている.言い換えでは内容語の場合が多く,表2では「総理/名大臣/名→首相/名」(総理大臣→首相),「委員/名会/尾→委/尾」(委員会→委)という置換規則が得られている.内容語が内容語に置換されている場合を抽出すると表3のようになった.ただし,表3では品詞は省略している.表には現れていないが,節の言い換えの例として,「日本を訪問している→訪日中の」という置換規則も得られている.\begin{table}\begin{center}\caption{自動獲得された置換規則(内容語)}\begin{tabular}{|r|l|l|}\hline\hline獲得個数&原文中の単語列&要約文中の単語列\\\hline484&総理大臣&首相\\228&アメリカ&米\\201&委員会&委\\167&大蔵大臣&蔵相\\144&外務大臣&外相\\89&地方裁判所&地裁\\87&大臣&相\\70&経済企画&経企\\68&衆議院&衆院\\65&さきがけ&さ\\54&アメリカのクリントン&クリントン米\\45&ヶ月&か月\\34&参議院&参院\\31&警察本部&警\\29&自由民主&自民\\\hline\end{tabular}\end{center}\end{table}次に得られた置換規則に対して,置換条件を正例,負例ともに自動獲得した.この際,前後のnグラムの値はコーパスを見て置換条件として有効であると思われる長さより少し長めに,$r_1=r_2=6$とした.実際にはこれほどの長さは必要ないものと思われるが,重みの値(式(6)の$\alpha_1$,$\alpha_2$)を小さく取ることにより長さが短い場合も近似的に実現することが可能である.置換規則「の/体助→φ」に対する置換条件の例の一部を表4に示す.\begin{table}\begin{center}\epsfile{file=86.eps,scale=1.0}\vspace*{-3mm}\end{center}\end{table}\subsection{要約知識評価実験}\label{sec:5-2}~\ref{sec:sec5-1}~で自動獲得された置換規則とその置換条件を使って要約知識の評価実験を行った.実験は正例と負例をあわせた全データ(表5参照)から50個をパラメータ決定実験用に,他の100個を評価実験用にランダムにそれぞれ抽出し,残り(例えば,置換規則「の/体助→φ」では$(5,331+13,498)-(50+100)=18,679個$を置換条件用のデータとした.\setcounter{table}{4}\begin{table}\begin{center}\vspace{-3mm}\caption{実験に使った置換規則における置換条件の数}\epsfile{file=87.eps,scale=1.0}\end{center}\end{table}評価は,置換条件上の距離(式(6))から正例か負例か(すなわち,要約するか否か)を判断し,実際の正例・負例と一致したときを正解とした.しかし,~\ref{sec:sec4-3}~の最後で述べたように,自動的に得られている負例には,本来は正例にもなりうる場合と,正例にはなりえない場合(真の負例と呼ぶ)がある.そこで評価実験に際して,パラメータ決定実験用データ,評価実験用データともに負例に対し正例になりうるか否かを人手で判断し,正例になりうるものは元の正例に加えた.要約知識はなるべく適用されたほうがいいものの,誤って適用されてはいけないので,評価は式(7)の値で行った.$$\\\\\\\\\\f‐measure=\frac{2.0\timesP\timesR}{P+R}\\(=F)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(7)$$\begin{eqnarray*}\\\\\\\\\\\\\\\precision=\frac{正例,負例が正しく判定された個数}{評価実験用データ数(=100)}\\(=P)\\\\\\\\\\\\\\\\\\\\\\(7a)\end{eqnarray*}\begin{eqnarray*}\\\\\\\\\\\\\\\recall=\frac{正しく正例と判定された個数}{評価実験用データ数のうち正例の数}\\(=R)\\\\\\\\\\\\\\\\\\\\\\\\\\(7b)\end{eqnarray*}\\式(7a)は,正例,負例の判断をして実験用データと一致した割合を表している.式(7b)は実験用データの正例の中で正確に正例として判断された割合であり,すなわち,要約が行なわれた場合にどのくらいが正解かを表している.これら2つの値から$f‐measure$を計算し評価した.今回評価に用いた置換規則は,表2の中からある程度のデータ量をもつ助詞,助動詞の要約に関するものである,「の/体助→φ」,「を/格助を→φ」,「で/助断定→φ」,「に/格助に→φ」,「が/格助が→φ」,「な/助断定→φ」,「する/さ連体→の/体助」,「て/接助→φ」,「し/さ連用→φ」の9種類である.パラメータ決定実験では次の値を評価実験に先だって決めなければならない.\begin{flushleft}{\gtパラメータ3:}置換前条件と置換後条件との重み$\mu_1$(式(6a)){\gtパラメータ4:}置換前条件内の単語列に対する重み$\alpha_1$(式(6d)){\gtパラメータ5:}置換後条件内の単語列に対する重み$\alpha_2$(式(6e)){\gtパラメータ6:}置換条件上の距離のしきい値$g_0$\\この中で置換条件上の距離のしきい値$g_0$は置換規則の種類によらず経験的に次の値にした.{\gtパラメータ6:}$g_0=0.4$\end{flushleft}その他のパラメータに関しては置換規則ごとにさまざまなパラメータを使って実験し,最も$f‐measure$の大きい場合を選択した.それぞれの置換規則におけるパラメータを表6に示す.表6中の$\mu_1$をみると,置換規則によってパラメータの値がかなり異なることがわかる.置換規則「を/体助を→φ」では置換前知識に重み付けられているのに対し,置換規則「の/体助→φ」では置換後知識のほうが重みが大きい.\begin{table}\begin{center}\epsfile{file=89.eps,scale=1.0}\end{center}\end{table}次にこれらのパラメータ値を使って要約知識の評価実験をした.実験結果を表7に示す.ここで比較のために,すべてを正例と判断した場合の$f‐measure$の値($F'$)も記した.\mbox{この場}合,$R=100$となるので$F'$は,$$f‐measureのbaseline値=\frac{2.0\times(100-真の負例の割合)\times100}{(100-真の負例の割合)+100}\\(=F')\\\\\\\\\\\\\\\\\\\\(8)$$\begin{flushleft}と計算される.\end{flushleft}表7を見ると,置換規則「を/体助を→φ」の場合は$f‐measure$の値が$baseline$値とほとんど変わらない.しかし,置換規則によって精度のばらつきがあるものの,概ね良好な結果が得られている.\subsection{置換規則「の/体助→φ」の誤り例}\label{sec:sec5-3}今回の実験で$f‐measure$が一番低かった置換規則「の/体助→φ」の誤りを分析した.\mbox{多く}の誤りは距離計算がうまくなされていないことによるものであった.これを改善するには,単純には学習データを増やしたり,またシソーラスをニュース用にきめ細かく作成することにより,さらに精度よく置換条件上の距離を計算する必要がある.しかし,さらに細かい言語情報を必要とする誤りの例もあった.以下に例をあげる.\newpage\begin{flushleft}【誤り例1】原文「『白鳥の王女のアリア』」要約文「『白鳥の王女アリア』」\end{flushleft}\begin{flushleft}例1では「『白鳥の王女のアリア』」は固有名詞なので要約してはならないのであるが,「の」を省略してしまった.正確に要約するためには「『白鳥の王女のアリア』」が固有名詞であるという情報が必要である.\end{flushleft}\begin{flushleft}【誤り例2】原文「アメリカ軍嘉手納基地周辺の住民」要約文「アメリカ軍嘉手納基地周辺住民」\\\end{flushleft}\begin{flushleft}例2では,正例に「周辺の住民→周辺住民」という例があったために「の」が省略されてしまったが,要約文では非常に長い名詞連続となってしまうので読みにくくなってしまう.この場合にはある長さ以上の名詞連続を作成するときには省略をしてはいけないという情報が必要となろう.\end{flushleft}\begin{flushleft}【誤り例3】原文「アジアの株式市場と為替市場」要約文「アジア株式市場と為替市場」\\\end{flushleft}\begin{flushleft}例3では正例に「アジアの株式市場→アジア株式市場」という例があったために「の」が省略されてしまった.原文では「アジア」が「株式市場」とともに「為替市場」にも係っているので,省略することはできない.このような場合には前後の単語列の構文情報も考慮する必要があろう.\end{flushleft}今後はこのような言語情報も加えて要約の改善をしていく予定である. \section{おわりに} \label{sec:sec6}原文−要約文コーパスより局所的要約知識を自動獲得する手法について述べた.また,NHKニュース原稿とNHK文字放送の原稿から構成されるコーパスを使って,局所的要約知識を自動獲得する実験を行った.さらに要約知識の評価実験を行い,良好な結果を得た.今後の研究の方向は2つある.1つは局所的要約に関するものである.今回は評価実験の第一歩として特定の局所的要約知識にのみ着目したが,今後は自動獲得された要約知識すべてを使って文全体の局所的要約を試みたい.その際には,適用する要約知識間で競合が起こることが予想される.そこで,与えられた要約率の中で要約知識の最適な組み合わせを求めることが必要となる.我々は信頼度の評価関数を最小化することにより,要約知識の最適な組み合わせを求めるアルゴリズムを研究している~\cite{Katoh98}~.このアルゴリズムによって得られた要約結果を人間が読んでどれぐらい違和感がないかも評価する必要があろう.もう1つの方向は,大域的要約に関するものである.これには要約には現れなかった元のニュースの文(例えば,図1の第4,5,6文)や節(図1の第2,3文中の節)を,文や節の削除手法の研究の評価用データとして使っている.現在,従来の評価関数(例えば,tf法やtf*idf法)を使ってどのくらいの精度で削除できるかを実験中である.これらの詳細については稿を改めて報告したい.\bibliographystyle{jnlpbbl}\bibliography{v06n7_04}\newpage\begin{biography}\biotitle{略歴}\bioauthor{加藤直人}{1986年早稲田大学理工学部電気工学科卒業.1988年同大学院修士課程修了.同年日本放送協会(NHK)に入局,同放送技術研究所に勤務.1994年より3年間ATR音声翻訳通信研究所に出向.1997年NHK放送技術研究所に復帰.機械翻訳,対話処理,音声言語処理,自動要約の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{浦谷則好}{1975年東京大学大学院修士課程(電気工学)修了.同年日本放送協会(NHK)に入局.1979年同放送技術研究所に勤務.1991年より3年間ATR自動翻訳電話研究所に出向.1994年NHK放送技術研究所に復帰.1999年6月より音声翻訳通信研究所に再び出向.現在,第4研究室主幹研究員.情報検索,自然言語処理の研究に従事.工学博士.情報処理学会,電子情報通信学会,映像情報メディア学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V08N01-08
\section{はじめに} 最近様々な音声翻訳が提案されている\cite{Bub:1997,Kurematsu:1996,Rayner:1997b,Rose:1998,Sumita:1999,Yang:1997,Vidal:1997}.これらの音声翻訳を使って対話を自然に進めるためには,原言語を解析して得られる言語情報の他に言語外情報も使う必要がある.例えば,対話者\footnote{本論文では,2者間で会話をすることを対話と呼び,その対話に参加する者を対話者と呼ぶ.すなわち,対話者は話し手と聞き手の両者のことを指す.}に関する情報(社会的役割や性別等)は,原言語を解析するだけでは取得困難な情報であるが,これらの情報を使うことによって,より自然な対話が可能となる.言語外情報を利用する翻訳手法は幾つか提案されている.例えば,文献\cite{Horiguchi:1997}では,「spokenlanguagepragmaticinformation」を使った翻訳手法を,また,文献\cite{Mima:1997a}では,「situationalinformation」を使った手法を提案している.両文献とも言語外情報を利用した手法であり,文献\cite{Mima:1997a}では机上評価もしているが,実際の翻訳システムには適用していない.言語外情報である「pragmaticadaptation」を実際に人と機械とのインターフェースへの利用に試みている文献\cite{LuperFoy:1998}もあるが,これも音声翻訳には適用していない.これら提案の全ての言語外情報を実際の音声翻訳上で利用するには課題が多くあり,解決するのは時間がかかると考えられる.そこで,本論文では,以下の理由により,上記言語外情報の中でも特に話し手の役割(以降,本論文では社会的役割のことを役割と記述する)に着目し,実際の音声翻訳に容易に適用可能な手法について述べる.\begin{itemize}\item音声翻訳において,話し手の役割にふさわしい表現で喋ったほうが対話は違和感なく進む.例えば,受付業務で音声翻訳を利用した場合,「受付」\footnote{本論文では,対話者の役割である「受付」をサービス提供者,すなわち,銀行の窓口,旅行会社の受付,ホテルのフロント等のことを意味し,「客」はサービス享受者を意味している.}が『丁寧』に喋ったほうが「客」には自然に聞こえる.\item音声翻訳では,そのインターフェース(例えば,マイク)によって,対話者が「受付」か否かの情報が容易に誤りなく入手できる.\end{itemize}本論文では,変換ルールと対訳辞書に,話し手の役割に応じたルールや辞書エントリーを追加することによって,翻訳結果を制御する手法を提案する.英日翻訳において,旅行会話の未訓練(ルール作成時に参照していない)23会話(344発声\footnote{一度に喋った単位を発声と呼び,一文で完結することもあり,複数の文となることもある.})を対象に実験し,『丁寧』表現にすべきかどうかという観点で評価した.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%となった.さらに,再現率と適合率を下げた原因のうち簡単な問題を解決すれば,再現率が86\%,適合率が96\%になることを机上で確認した.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.以下,2章で『話し手の役割』と『丁寧さ』についての調査,3章で本手法の詳細について説明し,4章で『話し手の役割』が「受付」の場合に関する実験とその結果について述べ,本手法が音声翻訳において有効であることを示す.5章で,音声翻訳における言語外情報の利用について,また,他の言語対への適用について考察し,最後に6章でまとめる.なお,本論文は,文献\cite{Yamada:2000}をもとにさらに調査検討し,まとめたものである. \section{『話し手の役割』と『丁寧さ』} \label{sec:roleandpoliteness}音声翻訳を使った窓口などでの対話をより自然にするために,訳文の『丁寧さ』が重要である.我々は,『話し手の役割』と『丁寧さ』について着目し,その関係について調査した.『丁寧さ』を特に考慮せずに一般的な訳を出す機械翻訳が出力した結果に対して,『話し手の役割』が「受付」である場合に,訳をより丁寧な表現にすることが望まれるかという観点で調査を行った.実際の調査に用いた音声翻訳は,変換主導型翻訳\cite{Sumita:1999}({\bfT}ransfer-{\bfD}riven{\bfM}achine{\bfT}ranslation,略してTDMT)の英日版で,対象は旅行会話の中で『話し手の役割』が「受付」である1409発声とした.その結果,約70\%(952)の発声は丁寧な表現を使ったほうが良いと判断された.したがって,音声翻訳を使って,より自然な対話を実現するために『話し手の役割』に応じて『丁寧さ』を変えるのは,有用であると言える.丁寧な表現を使ったほうが良いと判断された発声には,様々な種類の表現が含まれている.これを英語表現の種類別(動詞,名詞等の品詞,頻出表現等)に分類した(表\ref{tab:numofexp}).この英語表現は1発声中に1種類とは限らず,複数の種類を含むことが多い.例えば,例\ref{ex:if}に示すように,「受付」が``\underline{Mr}.Suzuki,\underline{if}you'll\underline{wait}\underline{asecond},I'll\underline{call}rightnow''と喋った時の翻訳は,「標準」訳の``鈴木さん,少し待ってくれたらすぐ電話します''より,丁寧表現を使って``鈴木様,少々お待ちいただけましたらすぐ電話致します''とするほうが良い.この発声の中には,敬称(Mr.),接続詞(if),動詞(wait,call),名詞(second)が含まれている.\vspace{3mm}\begin{center}\fbox{\begin{minipage}{120mm}\begin{example}\\label{ex:if}\end{example}\tabcolsep=2mm\begin{tabular}{ll}種類:&{\bf敬称,接続詞,動詞,名詞}\\英語:&\underline{Mr}.Suzuki,\underline{if}you'll\underline{wait}\underline{asecond},I'll\underline{call}rightnow\\標準:&鈴木\underline{さん},\underline{少し}\underline{待って}\underline{くれたら}すぐ\underline{電話します}\\丁寧:&鈴木\underline{様},\underline{少々}\underline{お待ち}\underline{いただけましたら}すぐ\underline{電話致します}\\\end{tabular}\tabcolsep=0mm\end{minipage}}\end{center}\vspace{3mm}表\ref{tab:numofexp}を見ると,少なくとも今回調査した旅行会話では,その種類によって丁寧にすべき方法が違うことが分かる.しかし,{\bfいずれも従来の翻訳システムの枠組み,すなわち,変換ルールや対訳辞書に条件を加えることで丁寧表現に変えるとができる.}つまり,『話し手の役割』に応じたルールや辞書エントリーを既存の変換ルールや対訳辞書に追加すれば,適切に丁寧表現が訳出可能となる.\tabcolsep=2mm\begin{table}[htbp]\begin{center}\caption{英日翻訳における丁寧表現の種類}\label{tab:numofexp}\begin{tabular}{|c|r||c|c|c|}\hline\multicolumn{2}{|c||}{}&\multicolumn{3}{|c|}{例}\\\hline種類&件数&英語&標準&丁寧\\\hline\hline動詞&692&accept&受け付ける&お受けする\\\hline名詞&331&child&子供&お子様\\\hline頻出表現&261&goodbye&さようなら&失礼致します\\\hline敬称&94&Mr.&さん&様\\\hline形容詞&78&fine&良い&結構\\\hline代名詞&59&you&あなた&お客様\\\hline助動詞&56&can&できる&頂ける\\\hline接続詞&27&if&たら&ましたら\\\hline副詞&6&alone&一名&おひとり\\\hline前置詞&4&with&一緒&ご一緒\\\hline\hline合計&1608&\multicolumn{3}{|c|}{}\\\hline\end{tabular}\end{center}\end{table}上記の1409発声は「受付」の『丁寧さ』に着目して調査したが,発声内容によっては,話し手が「客」の訳と「標準」の訳が違う場合もあり得る.例えば,例\ref{ex:verygood}の場合,``Verygood,pleaseletmeconfirmthem''は,話し手が「受付」では,``\underline{承知しました}確認させて\underline{いただきます}'',話し手が「客」では,``\underline{それで結構です}確認させて\underline{下さい}''とするのが良い.\begin{center}\fbox{\begin{minipage}{100mm}\begin{example}\\label{ex:verygood}\end{example}\tabcolsep=2mm\begin{tabular}{ll}英語:&\underline{Verygood},please\underline{let}meconfirmthem\\標準:&{\it\underline{分かりました},確認させて\underline{下さい}}\\受付:&{\it\underline{承知致しました},確認させて\underline{いただきます}}\\客:&{\it\underline{それで結構です},確認させて\underline{下さい}}\\\end{tabular}\tabcolsep=0mm\end{minipage}}\end{center} \section{話し手の役割情報を翻訳知識に組み込む方法} 本章では,話し手の役割情報をどのように既存の変換ルールや対訳辞書に導入するかについて述べる.本手法は変換ルールや対訳辞書を利用している一般の機械翻訳に適用可能であるが,その有効性を確かめるために,本論文では翻訳システムとしてATRで開発した話し言葉翻訳システムTDMTを利用した.最初にTDMTについて簡単に説明し,次に,話し手の役割情報を組み込んだルールや辞書エントリーについて述べる.\subsection{TDMT(Transfer-DrivenMachineTranslation)}TDMTは図\ref{fig:transferrule}に示す変換ルールを使って,左から右へのボトムアップ型チャート解析法で構文解析を行っている\cite{Furuse:1999}.様々な変換ルールによって,入力文の構文構造が複数の候補となった時は,意味距離計算によって絞られる.意味距離はシソーラスによって定義されたものを用いている.変換ルールは,図\ref{fig:transferrule}のように,原言語のパターン,目的言語のパターン,原言語の用例からなる.原言語のパターンは変項と構成素境界からなる.ここでの変項は,XやYなどの大文字の記号で表し構成素に対応する.構成素境界は,機能語あるいは左の構成素の品詞と右の構成素の品詞を付けた記号(品詞バイグラムマーカと呼ぶ)である.品詞バイグラムマーカは,構文解析をする前に対象の構成素間に挿入される.例えば,``accept''が{\bfV}erbで``payment''が{\bfC}ommon{\bfN}ounなので,例\ref{ex:accept}では,品詞バイグラムマーカ$\langleV$--$CN\rangle$が,``accept''と``payment''の間に挿入される.目的言語のパターンは,原言語のパターンに対応した変項と訳語から構成される.ここでの変項は,xやyなどの小文字の記号で表す.例えば,xは原言語のパターンでの変項Xに対応している.原言語の用例は,パターン作成時に参照した文において実際に出現した語である.\begin{center}\fbox{\begin{minipage}{115mm}\begin{example}\\label{ex:accept}\end{example}\tabcolsep=1mm\begin{tabular}{ll}英語:&\underline{We}\underline{accept}\underline{payment}bycreditcard\\標準:&{\it私\underline{達}はクレジットカードでの支払いを\underline{受け付け}ます}\\丁寧:&{\it私\underline{供}はクレジットカードでの\underline{お}支払いを\underline{お受けし}ます}\\\end{tabular}\tabcolsep=0mm\end{minipage}}\end{center}図\ref{fig:exrule}では,原言語のパターンは(X$\langleV$--$CN\rangle$Y),目的言語のパターンは(y``を''x)や(y``に~''x),目的言語の用例は,((``accept'')(``payment''))や((``take'')(``picture''))である.((``accept'')(``payment''))は,例\ref{ex:accept}の「標準」訳に由来する用例であるが,他の用例は他の訓練文から来ている.図\ref{fig:exrule}の変換ルールは,原言語が(X$\langleV$--$CN\rangle$Y)にマッチしたら,XとYに対応した入力が「意味的に最も近いか,または,全く同じ」用例の組が付いている目的言語のパターンを選択せよという意味である.例えば,入力``accept$\langleV$--$CN\rangle$payment''に「最も近いか,または,全く同じ」用例の組は((``accept'')(``payment''))なので,目的言語のパターンは(y``を''x)が選択される.このようにして,適切な目的言語のパターンが変換ルールによって選ばれる.\begin{figure}[htb]\begin{center}\begin{tabular}{cc}\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\kill(原言語のパターン)\\$\Rightarrow$\\((目的言語のパターン1)\\\>((原言語の用例1)\\\>\>(原言語の用例2)\\\>\>...)\\\>(目的言語のパターン2)\\\>...)\end{tabbing}\end{minipage}}\caption{変換ルールのフォーマット}\label{fig:transferrule}\end{center}\end{minipage}&\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\kill(X$\langleV$--$CN\rangle$Y)\\$\Rightarrow$\\((y``を''x)\\\>(((``accept'')(``payment''))\\\>\>((``take'')(``picture'')))\\\>(y``に''x)\\\>(((``take'')(``bus''))\\\>\>((``get'')(``sunstroke'')))\\)\end{tabbing}\end{minipage}}\caption{変換ルールの例(英日版)}\label{fig:exrule}\end{center}\end{minipage}\end{tabular}\end{center}\end{figure}目的言語のパターンが選ばれた後,図\ref{fig:transferdic}に示したフォーマットの対訳辞書を用いて,そのパターンに応じた訳を決定する.例えば,``accept$\langleV$--$CN\rangle$payment''の場合は,``支払いを受け付ける~''という訳になるが,``支払い''と``受け付ける''は図\ref{fig:exdic}の対訳辞書の辞書引きの結果から,また,``~を~''は目的言語のパターン(y``を''x)から来ている.\begin{figure}[htb]\begin{center}\begin{tabular}{cc}\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{60mm}\begin{tabbing}(\=(\=(\kill((原言語の単語)$\rightarrow$(目的言語の単語)\\\>...)\end{tabbing}\end{minipage}}\caption{対訳辞書のフォーマット}\label{fig:transferdic}\end{center}\end{minipage}&\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{60mm}\begin{tabbing}(\=(\=(\kill((``accept'')$\rightarrow$(``受け付ける'')\\\>(``payment'')$\rightarrow$(``支払い''))\end{tabbing}\end{minipage}}\caption{対訳辞書の例(英日版)}\label{fig:exdic}\end{center}\end{minipage}\end{tabular}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\kill(原言語のパターン)\\$\Rightarrow$\\(({\bf(目的言語のパターン$1_1$):パターンの条件$1_1$}\\\>\>{\bf(目的言語のパターン$1_2$):パターンの条件$1_2$}\\\>\>...\\\>\>{\bf(目的言語のパターン$1_n$):デフォルト})\\\>((原言語の用例1)\\\>\>...)\\\>(({\bf(原言語の用例1)$\rightarrow$(目的言語の単語$1_1$):単語の条件$1_1$}\\\>\>\>{\bf(原言語の用例1)$\rightarrow$(目的言語の単語$1_2$):単語の条件$1_2$}\\\>\>\>...\\\>\>\>{\bf(原言語の用例1)$\rightarrow$(目的言語の単語$1_m$):デフォルト})\\\>\>...)\\(({\bf(目的言語のパターン$2_1$):パターンの条件$2_1$}\\\>...)))\end{tabbing}\end{minipage}}\caption{対話者の情報に関する条件付き変換ルールのフォーマット}\label{fig:rulewithclerk}\end{center}\vspace*{2mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\kill(({\bf(原言語の単語1)$\rightarrow$(目的言語の単語$1_1$):条件$1_1$}\\\>\>{\bf(原言語の単語1)$\rightarrow$(目的言語の単語$1_2$):条件$1_2$}\\\>\>...\\\>\>{\bf(原言語の単語1)$\rightarrow$(目的言語の単語$1_k$):デフォルト})\\\>...)\end{tabbing}\end{minipage}}\caption{対話者の情報に関する条件付き対訳辞書のフォーマット}\label{fig:dicwithclerk}\end{center}\end{figure}\subsection{対話者の情報に関する条件付きルール及び辞書エントリ}\label{subsec:ruleanddicwithrole}対話者の情報に関する条件を変換ルールや対訳辞書の中で記述できるように,既存の変換ルールや対訳辞書のフォーマットを図\ref{fig:rulewithclerk}と図\ref{fig:dicwithclerk}のように変えた.図\ref{fig:rulewithclerk}では,目的言語のパターンはそのパターンの条件で,また,目的言語の単語はその単語の条件で対話者の情報を参照できる.つまり,``~目的言語のパターン$1_1$''は,``パターンの条件$1_1$''に記述してある条件で選ばれ,``原言語の用例1''の対訳は,``単語の条件$1_1$''に記述してある条件で``目的言語の単語$1_1$''が選ばれる.目的言語パターンに条件が付く場合の例を図\ref{fig:ex1rulewithrole}に示し,原言語の用例に条件が付く場合の例を図\ref{fig:ex2rulewithrole}に示す.図\ref{fig:ex1rulewithrole}に示すように,``パターンの条件$1_1$''を``:s-roleclerk''と定義することができる.これは,話し手の役割(s-role)が「受付」(clerk)という条件である.したがって,もし話し手が「受付」と分かれば,``if''は``いただけましたら''と訳される.これは,例えば,\ref{sec:roleandpoliteness}章の例\ref{ex:if}に示すように,入力が``ifyou'llwaitasecond''の場合,「標準」では,``少し待って\underline{くれたら}''となるが,話し手が「受付」なら``少し待って\underline{いただけましたら}''と訳出される.一方,図\ref{fig:ex2rulewithrole}に示すように,``:単語の条件$1_1$''を``:s-roleclerk''と定義することもできる.この場合も,もし話し手が「受付」と分かれば,``accept''は``お受けする''と訳される.ここで注意する点は,話し手が「受付」であっても,常に``accept''の訳は``お受けする''ではないことである.つまり,図\ref{fig:rulewithclerk}の``目的言語の単語$1_1$''は,そこで定義されている変換ルール内のみで有効である.もしも話し手の役割に応じた訳が常に同じであれば,図\ref{fig:dicwithclerk}に示すフォーマットの対訳辞書に登録する.また,必要ならば,同じ変換ルール内で,同時に,目的言語パターンと原言語の用例に条件を付けることもできる.図\ref{fig:rulewithclerk}及び図\ref{fig:dicwithclerk}の``:デフォルト''は,どのような条件にも合わなかった時にマッチする条件である.例えば最初に``:パターンの条件$1_1$'',次に``:パターンの条件$1_2$''というように,条件は上から順に調べられ,全て満足されない場合にデフォルトのものが選択される.\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(``if''``you''X)\\$\Rightarrow$\\(({\bf(x``いただけましたら''):s-roleclerk}\\\>\>{\bf(x``くれたら'')})\\\>(((``wait''))\\\>\>((``find''))))\end{tabbing}\end{minipage}}\caption{話し手の役割情報に関する条件付き変換ルールの例1(英日版)}\label{fig:ex1rulewithrole}\end{center}\vspace{5mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(X$\langleV$--$CN\rangle$Y)\\$\Rightarrow$\\((y``を''x)\\\>(((``accept'')(``payment''))\\\>\>((``take'')(``picture'')))\\\>((\bf{(``accept'')$\rightarrow$(``お受けする''):s-roleclerk}\\\>\>\>\bf{(``accept'')$\rightarrow$(``受け付ける'')})))\end{tabbing}\end{minipage}}\caption{話し手の役割情報に関する条件付き変換ルールの例2(英日版)}\label{fig:ex2rulewithrole}\end{center}\vspace{5mm}\begin{center}\fbox{\begin{minipage}{60mm}\begin{tabbing}(\=(\=(\=(\kill(({\bf(``payment'')$\rightarrow$(``お支払''):s-roleclerk}\\\>\>{\bf(``payment'')$\rightarrow$(``支払い'')})\\\>({\bf(``we'')$\rightarrow$(``私供''):s-roleclerk}\\\>\>{\bf(``we'')$\rightarrow$(``私達'')}))\end{tabbing}\end{minipage}}\caption{話し手の役割情報に関する条件付き対訳辞書の例(英日版)}\label{fig:exdicwithclerk}\end{center}\end{figure}図\ref{fig:ex2rulewithrole}のルール,図\ref{fig:exdicwithclerk}の辞書エントリーを用いると,例\ref{ex:accept}の発声は,話し手が「受付」の場合,最終的には``私供はクレジットカードでのお支払いをお受けします''と訳出される.どの語を丁寧表現にすべきかは機械的には判断できないが,ほとんどの丁寧表現にすべき語は,上記の方法,すなわち,目的言語パターン,原言語の用例に対する訳,対訳辞書によって,話者の役割に応じた訳し分けができる.基本的には,次の基準で解決方法を決めている.\begin{itemize}\item訳し分けすべき語が機能語ならば,目的言語パターン(例:図\ref{fig:ex1rulewithrole})\item内容語で,役割以外の条件も利用して訳が決まる時は,原言語の用例に対する訳(例:図\ref{fig:ex2rulewithrole})\item内容語で,常に役割の条件のみで訳が決まる時は,対訳辞書(例:図\ref{fig:exdicwithclerk})\end{itemize}例えば,\ref{sec:roleandpoliteness}章の表\ref{tab:numofexp}に挙げた例については,表\ref{tab:solutionofexp}に示した方法で丁寧表現にすることができる.だたし,表\ref{tab:solutionofexp}に示したのは例であって,その種類の全てが表\ref{tab:solutionofexp}に示した解決方法で訳し分けができるとは限らない.例えば,``child''は辞書に登録することで適切に訳し分け可能だが,表\ref{tab:numofexp}で示した名詞は全て辞書によって訳し分けができるわけではない.\tabcolsep=2mm\begin{table}[htbp]\begin{center}\caption{英日翻訳における丁寧表現の訳出方法の例}\label{tab:solutionofexp}\begin{tabular}{|c|c|c||c|}\hline\multicolumn{3}{|c||}{例}&\\\hline英語&標準&丁寧&解決方法\\\hline\hlineaccept&受け付ける&お受けする&用例\\\hlinechild&子供&お子様&辞書\\\hlinegoodbye&さようなら&失礼致します&辞書\\\hlineMr.&さん&様&パターン\\\hlinefine&良い&結構&用例\\\hlineyou&あなた&お客様&辞書\\\hlinecan&できる&頂ける&パターン\\\hlineif&たら&ましたら&パターン\\\hlinealone&一名&おひとり&用例\\\hlinewith&一緒&ご一緒&パターン\\\hline\end{tabular}\end{center}\end{table} \section{実験} 今回の実験で用いたTDMT(英日版)は,話し手の役割を考慮する前では,約1,500の変換ルール,約8,000の対訳辞書エントリーが登録されていた.「受付」用に『丁寧さ』を向上させるために,\ref{sec:roleandpoliteness}章の表\ref{tab:numofexp}に基づいて,約300ルール,約40の辞書エントリーを追加,修正した.内容は,例えば,\ref{subsec:ruleanddicwithrole}節の表\ref{tab:solutionofexp}に示した通りである.表\ref{tab:numofexp}の合計数よりもルール数が少ないのは,1つのルールの中に,複数の目的言語パターンや原言語の用例に対する訳が含まれているからである.「受付」用に修正した変換ルールと対訳辞書を用いて未訓練である23対話(344発声)を対象に実験を行った.音声翻訳への入力は本来音声であるが,今回の実験では,翻訳のみの評価を行うため書き起こしテキストを形態素解析したものを入力とし,同時に対話者の役割情報\footnote{本データはATRのデータベース\cite{Takezawa:1999}の一部である.これは,「受付」と「客」との間の模擬対話を実施し,その音声データを書き起こしてデータベース化したもので,収録時の設定にある対話者の情報を実験に用いた.}も与えた.実験の評価をするために,実験に使った23対話(このうち,話し手が「受付」は199発声,「客」は145発声)に対して,話し手の役割情報を適用する前のTDMTの翻訳結果を2つに分類した.一方は丁寧にすべき表現を含む場合,もう一方は丁寧にすべき表現を含まない場合である.表\ref{tab:correct-data}にその調査結果を示す.表現を変える必要がある発声(104)は全て話し手の役割が「受付」であったが,表現を変える必要がない発声(166)のうち43発声は「受付」で,123発声は「客」であった.\begin{table}[htbp]\tabcolsep=2mm\begin{center}\caption{表現を変える必要性の調査結果}\label{tab:correct-data}\begin{tabular}{c|cl}表現を変える必要性&発声数&(「受付」,「客」)\\\hlineあり&104&(104,\hspace{4mm}0)\\なし&166&(\hspace{2mm}43,123)\\\hline評価対象外\footnotemark[5]&\hspace{2mm}74&\\\hline\hline合計&344&\end{tabular}\\\end{center}\end{table}\footnotetext[5]{翻訳結果のうち74発声に関しては,『丁寧さ』を判断できないほどの翻訳の質であったので,本論文では対象外とした.}同じ対象文に対して,話し手の役割情報を適用する前と後の翻訳結果を『丁寧さ』という観点で印象がどう変ったかで評価した.表\ref{tab:correct-data}の表現を変える必要性の有無別にまとめたものを表\ref{tab:evaldata}に示す.\tabcolsep=1mm\begin{table}[htb]\begin{center}\caption{話し手の役割情報を使った翻訳の評価結果}\label{tab:evaldata}\begin{tabular}{c||c|c|c|c}表現を変える必要性&差分&\multicolumn{2}{c|}{印象}&計\\\hline&&良い&68&\\あり&あり&同じ&\hspace{2mm}5&\hspace{2mm}76\\104&&悪い&\hspace{2mm}3&\\\cline{2-5}&なし&\multicolumn{2}{c|}{}&\hspace{2mm}28\\\hline\hline&&良い&\hspace{2mm}0&\\なし&あり&同じ&\hspace{2mm}3&\hspace{4mm}3\\166&&悪い&\hspace{2mm}0&\\\cline{2-5}&なし&\multicolumn{2}{c|}{}&163\\\hline\multicolumn{5}{l}{}\\\multicolumn{5}{l}{良い:翻訳結果の印象が良くなった}\\\multicolumn{5}{l}{同じ:翻訳結果の印象が同じだった}\\\multicolumn{5}{l}{悪い:翻訳結果の印象が悪くなった}\\\end{tabular}\end{center}\end{table}\tabcolsep=0mm以下に示す再現率と適合率で本手法を評価した.$$\mbox{再現率}=\frac{\mbox{\small翻訳結果が良くなった発声数}}{\mbox{\small丁寧表現にするべき発声数}}$$$$\mbox{適合率}=\frac{\mbox{\small翻訳結果が良くなった発声数}}{\mbox{\small翻訳結果に差分のあった発声数}}$$\vspace{5mm}その結果,再現率は65\%($=68\div104$),適合率は86\%($=68\div(76+3)$)であった.表現を変える必要があった発声(104)で,話し手の役割情報を適用する前と後とで翻訳結果が完全に一致しなかった(翻訳結果に差分があった)発声は,76発声であった.そのうち印象が良くなった68発声が望まれた効果である.表現を変える必要がなかった発声(166)で翻訳結果に差分がなかったものは,163発声であった.これらは副作用がなかったという意味で望ましいものである.他の結果は,再現率,適合率を下げている.印象が悪くなった3件の原因は,実験に使った翻訳の日本語生成処理における実装の問題に起因するもので,本論文では無視できる.また,翻訳結果に差分があった中で印象が同等のもの,表現を変える必要があるのに翻訳結果に差分がなかったものの原因は,大きく2種類に分けることができた.1つは,実験に用いた翻訳システムでは,その動作主が誰(何)なのかが分からないことに原因がある.話し手の役割が「受付」であっても,丁寧にする対象の語の動作主が「受付」の場合は丁寧な表現を使わないことがあるからである.もう1つは,「受付」用のルールや辞書エントリーがまだ不十分なことに原因がある.「受付」用のルールや辞書エントリー不足については比較的容易に解決できる問題であるのでこれを解決し,日本語生成処理の問題を無視したとすると,再現率と適合率を向上させることができる.調査したところ,再現率が86\%,適合率が96\%まで向上できることが分かった. \section{考察} 本章では,音声翻訳における言語外情報の有用性と,他の言語対に対する本手法の適用可能性について述べる.\subsection{言語外情報}現時点では,一般の言語外情報を音声翻訳で活用することは困難である.しかし,以下に示すような幾つかの言語外情報は容易に得ることができ,音声翻訳で十分活用できる.\hspace{-4mm}{\bf対話者の役割}音声翻訳のインターフェース(例えばマイク)によって,誤りなく対話者の役割を同定することができる.対話者の役割が「受付」と「客」の場合,英日翻訳システムで有用であることは本論文で述べた.また,文献\cite{Yamamoto:1999}では,日本語対話文の格要素省略補完をする決定木の属性に対話者の役割が活用されている.\vspace{5mm}\hspace{-4mm}{\bf対話者の性別}音声認識において性別を高精度で判別できることが報告されている\cite{Takezawa:1998,Naito:1998}.英日翻訳の場合,例えば,女性が話す場合,文末に「わ」を付けると女性らしい表現となるように,話者の性別は,男性または女性固有の表現に訳出するのに有効である.\vspace{5mm}このように簡単に得ることができる言語外情報を音声翻訳に適用することは,人が違和感なく対話を進めるためには重要である.上記に挙げた言語外情報は現時点でも容易に得ることができるが,将来は,さらに多様な情報を得ることが期待でき,音声翻訳にも有用であると考えられる.例えば,もし1人1台,常に携帯端末を持ち歩くことになれば,その端末と通信することによって,年齢などの情報を得るのは可能である.そうなると,聞き手が子供であれば,複雑な表現も簡単に翻訳するといった高度な展開も期待される.\subsection{他の言語対への利用}これまで,主に目的言語が日本語の場合,話し手の役割情報が丁寧表現を訳し分けるのに有用であることは述べた.他の言語対について,言語外情報とそれを活用できる処理(言語現象)について述べる.\hspace{-4mm}{\bf日英}現在の日英翻訳が正しく翻訳できる旅行会話の発声を対象に,話し手の役割によって英語表現がどう変化するかを調査した.表\ref{tab:exofe-ex}にその例を示す.\tabcolsep=2mm\begin{table}[htbp]\begin{center}\caption{英語表現が変化する例}\label{tab:exofe-ex}\begin{tabular}{|ll|}\hline種類:&{\bf表現方法の違い}\\日本語:&遅くなっても\underline{構いません}\\標準:&{\it\underline{Idon'tmind}ifyouarelate}\\受付:&{\it\underline{It'sokay}ifyouarelate}\\[1mm]\hline種類:&{\bf主語の違い,敬称の追加}\\日本語:&はい,できます\\標準:&{\itYes,\underline{I}can}\\受付:&{\itYes\underline{sir-madam},\underline{we}can}\\\hline種類:&{\bf主語の省略}\\日本語:&一人五十ドルぐらいです\\標準:&{\it\underline{It's}aboutfiftydollarsperperson}\\客:&{\itAboutfiftydollarsperperson}\\\hline種類:&{\bf代名詞の違い}\\日本語:&前日までには必ず連絡を下さい\\標準:&{\itPleasemakesuretocall\underline{me}bythedaybefore}\\受付:&{\itPleasemakesuretocall\underline{us}bythedaybefore}\\\hline\end{tabular}\\\end{center}\end{table}\tabcolsep=0mmこの表\ref{tab:exofe-ex}を見ると,日英の場合も話し手の役割によって適した表現が存在することが分かる.これらも,我々の提案手法により訳し分けが可能である.また,``敬称の追加''の場合,表\ref{tab:exofe-ex}の「受付」では,``sir-madam''が追加されているが,聞き手の性別が分かれば,``sir''か``madam''かに訳出したほうが良い.これは,例えば,図\ref{fig:exrulewithroleandgender}のように,ルールの条件部に``:s-roleclerk:h-gendermale''(話し手の役割(s-role)が「受付」(clerk)で聞き手の性別(h-gender)が「男性」(male))と指定をすれば,本手法で``sir''と訳出することが可能である.さらに,性別情報だけの利用としては,例えば,図\ref{fig:exrulewithgender}のような変換ルールを作成すれば,``様''に対して,もしも聞き手が「男性」であれば``Mr.'',「女性」であれば``Ms.''と英訳可能になる.\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(``はい''X)\\$\Rightarrow$\\(({\bf(``Yessir,''x):s-roleclerk:h-gendermale}\\\>\>{\bf(``Yesmadam,''x):s-roleclerk:h-genderfemale}\\\>\>{\bf(``Yessir-madam,''x):s-roleclerk}\\\>\>{\bf(``Yes,''x)})\\\>(((``できる''))\\\>\>((``そう''))))\end{tabbing}\end{minipage}}\caption{話し手の役割と聞き手の性別情報に関する条件付き変換ルールの例(日英版)}\label{fig:exrulewithroleandgender}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(X''様'')\\$\Rightarrow$\\(({\bf(``Mr.''x):h-gendermale}\\\>\>{\bf(``Ms.''x):h-genderfemale}\\\>\>{\bf(``Mr-ms.''x)})\\\>(((``鈴木''))\\\>\>((``佐藤''))))\end{tabbing}\end{minipage}}\caption{聞き手の性別情報に関する条件付き変換ルールの例(日英版)}\label{fig:exrulewithgender}\end{center}\end{figure}\hspace{-4mm}{\bf日中}現在の日中翻訳が正しく翻訳できる旅行会話の発声を対象に,話し手の役割によって中国語表現がどう変化するかを調査した.その結果,以下のような場合に中国語表現に違いが出ることが分かった.\begin{enumerate}\item日本語の表現が曖昧な場合\item話し手によって丁寧度が変る場合\end{enumerate}(1)に関しては,例えば日本語表現が``〜をお願いします''の場合,一般には``〜したい''という意味の中国語に翻訳されるが,もしも話し手が「受付」であれば,``〜して下さい''という意味の中国語に翻訳される.(2)に関しては,話し手の役割が不明な時は,翻訳システムではより多く使われる表現を訳出せざるを得ないが,実際は,話し手が「受付」ならより丁寧な表現に,また,「客」なら客らしい表現の中国語に翻訳される.例えば,``お待たせしました''の場合,機械翻訳システムは丁寧表現を使って訳出するが,話し手が「客」の場合には少し丁寧度を下げた表現のほうが自然な中国語となる.これらの訳し分けも,我々の提案方法により実現できる.\vspace{5mm}以上のように,対話者の情報は,英日に関する丁寧表現の訳し分けだけでなく,他の言語対に対しても重要な情報であることが分かった.また,訳し分けに関して,我々の提案方法は,言語対によらずに容易に適用可能であるので,一般的な手法であると言える. \section{おわりに} 原言語を解析するだけでは取得困難な対話者の役割や性別情報を使った翻訳手法について述べた.本手法では,対話者の役割や性別情報を利用して訳し分けができる.これらの情報は音声翻訳の中では容易に得ることができる.今回利用した役割は「受付」と「客」であり,話し手が「受付」の時はより丁寧な表現になる.旅行会話を対象とした英日翻訳に「受付」用のルールと辞書エントリーを追加した.翻訳システムにとってオープンである23対話(344発声)を対象に評価したところ,丁寧表現にするべき発声に対して,再現率が65\%,適合率が86\%の結果となった.再現率と適合率を下げる原因のうち簡単に解決できるもの,すなわち,「受付」用のルールや辞書エントリー不足の問題を解決すれば,再現率が86\%,適合率が96\%に向上することを机上調査により確認している.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.また,対話者の性別情報など他の言語外情報や英日以外の言語対に対する本手法の適用可能性についても考察し,本手法が言語対によらない,一般的な手法である見通しを得た.話し手の役割だけでなく,発声中の訳し分け対象である語の動作主が分からないと『丁寧さ』を決めるのが困難な場合がある.そこで,動作主を決める方法を検討する予定である.また,より精度良く翻訳結果を出力させるために,「受付」用のルールや辞書エントリーをより一層充実させていく予定である.さらに,他の言語対への適用や,容易に得られそうな他の言語外情報を音声翻訳で利用する手法についても検討していく予定である.\acknowledgment本研究の実験や調査に協力いただいたATR音声言語通信研究所第三研究室の翻訳知識作成者の皆様に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{山田節夫}{1990年東京電機大学理工学部情報科学科卒業.1992年同大学大学院情報科学専攻修士課程修了.同年日本電信電話株式会社入社.1997年よりATR音声翻訳通信研究所,ATR音声言語通信研究所へ出向.2000年日本電信電話株式会社へ復帰.現在NTTコミュニケーション科学基礎研究所.自然言語処理,特に機械翻訳の研究に従事.情報処理学会会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算幾科学専攻修士課程修了.1999年京都大学工学博士.ATR音声言語通信研究所主任研究員.自然言語処理,機械翻訳,情報検索,並列処理の研究に従事.情報処理学会,電子情報通信学会,ACL各会員.}\bioauthor{柏岡秀紀}{1993年大阪大学大学院基礎工学研究科博士後期課程修了.博士(工学).同年ATR音声翻訳通信研究所入社.1998年同研究所主任研究員.1999年奈良先端科学技術大学院大学情報学研究科客員助教授.2000年ATR音声言語通信研究所主任研究員.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V15N03-01
\section{はじめに} 今日,大学は社会に貢献することが求められているようになっている.特に,産業界と関係の深い学部においては産学連携が強く求められるようになってきている.そのような産学連携を活性化するためには大学側のシーズを専門用語によって簡単に検索できるシステムが望まれる.そこで,著者らは産学連携マッチングを支援する研究情報検索システムの研究を開始した.本研究では研究情報検索システムの主要要素である専門用語の抽出に取り組んでいる.対象分野としては専門用語による研究情報検索システムのニーズが高く,これまで研究がなされていない分野の1つである看護学分野を選択した.専門用語抽出の研究は情報処理分野を対象にした研究は盛んに行われている.しかしながら,一部の医学・基礎医学分野以外には他分野の専門用語抽出の研究は見当たらない.予備研究によって,病気の症状や治療法を表す専門用語が情報検索分野における代表的な専門用語の抽出方法では抽出が難しいことが判明した.そこで,専門用語になりうる品詞の組合せの拡張と一般的な語を除去することで専門用語抽出の性能改善を図った.以下,2章で従来研究とアプローチについて述べ,3章で提案手法,4章で実験及び評価,5章で考察と今後の課題について述べる. \section{従来研究とアプローチ} \subsection{従来研究}用語には1単語から構成されるものもあれば複数の単語から構成される複合語のものも存在する.例えば「専門用語抽出」は「専門」「用語」「抽出」の3つの単語から構成されている.多くの専門用語は,例のように複合語で構成されていることが多い.このような複合語を考慮した情報処理分野における専門用語抽出の研究の代表的なものに中川らの研究(中川2003)がある.中川らは名詞と一部の特殊な形容詞を単名詞として扱い,それら単名詞の出現頻度と連接頻度を用いた専門用語抽出方法とスコア付け方法を提案している.この提案手法は情報処理分野における専門用語抽出では高い性能を示している.しかしながら,著者らの予備実験(木浪2006)では,看護学分野における専門用語に中川らが専門用語の構成要素として許した形態素以外の形態素を含むものが多数存在するため,中川らの手法では良い性能を示せていない.複合語を構成する品詞の組合せに着目した従来研究として辻河らの研究(辻河2003)がある.辻河らは品詞の組合せを用いて専門用語を構築する場合に,名詞だけではなく接頭語・接尾語も対象とすることが抽出性能の向上に有効であるという結論を導き出している.複合語に着目した他の研究として,単語n-gramに対して連接コストを割り当てることで専門用語抽出を行う相澤らの研究(相澤2005)がある.相澤らの手法では以下の手順によって専門用語の抽出を行っている.はじめに,対象分野の既知の用語集合から構成語間の連接コストを求める.連接コストは,ある単語が専門用語の先頭に位置する確率,中間に位置する確率,末尾に位置する確率に基づき求められる.次に,算出された連接コストを元に値が小さい順に構成語を葉として追加して2分木を構成する.これら単語と連接コストによって構成され2分木の集合が依存木を構成し,この依存木から専門用語候補の抽出を行う.最後に,抽出された専門用語候補の非終端確率(門用語候補の前後に語が必要である確率)を求め,算出された確率が一定の閾値以下であれば専門用語であると判断するという手法である.相澤らの手法は非終端確率を用いることで専門用語ではない一般名詞や単名詞の除去を可能とする特徴を持つ.他方連接コストの計算に用いる重みを求めるため既知の用語集合を用いていることから,その用語集合に収録されていない新語が現れた場合,新語をどのように扱うのか不明確であるという問題がある.文書のテキストだけではなく作者情報を考慮することを特徴とする専門用語抽出の研究に立石らの研究(立石2006)がある.この研究は立石らの論文でも述べられているように,中川らの研究と比較してどちらが優れているという関係ではなく,相互に補完的な研究であると言える.他に,「テンプレート」を用いた情報抽出を行う研究として井上らの研究(井上2001)がある.井上らの手法では病名や診断機器,診断症例などに対して記述パターンや文中に共起する文字列について分析を行い,その分析結果を元に抽出すべき情報とその周辺の文字列の関係を記した「テンプレート」を用いて情報抽出を行っている.井上らの手法は単純な構文の文書中に表れる病名や診断機器に関する情報は良い抽出結果を得ているが,「抗癌剤と放射線を用いた…」や「化学療法や食事療法といった…」といった「AとB」「AやB」のように並列構造を持った文書など,テンプレートの抽出能力を超えた複雑な文書構造の場合の情報抽出は,再現率・適合率ともに50〜60{\%}と良い結果を得ていない.上記研究から,これまで現れていない新語や複雑な文書構造に対応するためには,複合語を専門用語の候補とみなし出現頻度と連接頻度を用いたランキング手法を用いた抽出方法である中川らの手法及び辻河らの手法が有力であることがわかる.但し,中川ら及び辻河らの手法はいずれも情報処理分野を対象としたものであり,他分野への適用可能性は不明である.\subsection{アプローチ}著者らは,上記研究の手法をベースに看護学分野の専門用語抽出方法を考案することとした.看護学分野の文献から専門用語を抽出する予備実験(木浪2006)を行った結果,以下の3つの問題が判明した.1つ目の問題は,看護学分野において従来研究で前提条件としている品詞の組合せでは抽出できない専門用語が多数存在している.例えば「破(動詞)骨(名詞)細胞(名詞)」のように動詞を含んだ専門用語などが存在する.2つ目の問題は,誤って抽出された一般的な用語が多数存在していることである.ここで言う「一般的な用語」とは,看護学分野で使用される用語ではあるが,看護学分野固有の用語ではなく日常生活においても広く利用される用語をいう.このような用語には「積極的,人間関係,価値観」などが含まれる.以上の事を踏まえ,本研究はそれぞれの問題別にアプローチを検討した.1つ目の問題については,専門用語の候補となりうる品詞の組合せを拡張することで専門用語抽出の再現率向上を図る.2つ目の問題については,一般的な語を除去することで専門用語抽出の適合率向上を図る.本論文では,再現率向上を優先し,それが低下しない範囲で適合率の向上を目指す.研究情報検索システムでは,検索キーワードが専門用語と判定された場合にその重みを大きくすることにより専門性の高い論文として選択することを考えている.それ故,専門用語をもれなく抽出すること,すなわち再現率の向上が重要となる.その一方,専門用語以外を誤って専門用語と判定してもその論文が選択候補から除去されることはなく,弊害はそれほど大きくないといえる.以上のことから,まず初めに再現率向上のルール導出によって再現率向上を行い,次に再現率を低下させずに適合率向上のためのルール導出を行うこととした.予備研究の結果,看護学分野の専門用語は日本語形態素のみで構成される専門用語の割合が多いことが判明した.英語形態素と日本語形態素の両方が含まれている専門用語(例:情報処理分野で言うと,ACID特性など),あるいは英語形態素のみで構成される専門用語を正しく抽出するには日本語のみに着目した提案手法は不適切となるが,そのような例は現時点ではそれほど多くない.従って,本研究では日本語の専門用語に着目して研究を行った.なお,3章以降で述べる「ルール」とは,専門用語になりうる品詞の組合せと,それら品詞を連接する条件を表す. \section{提案手法} \subsection{前提条件}\subsubsection{専門用語抽出環境}本章以降で用いる専門用語抽出対象となる文献(以降データセットと呼ぶ)の提供,正解となる専門用語集合(以降正解セットと呼ぶ)の作成は看護学の専門家である本学看護学研究科の社会人大学院生に依頼した.正解セットの作成方法について説明する.正解セットはもれなく全ての専門用語を含んでいることが望ましいことから,1つの文献に対して2人が専門用語の選択作業を行い,選択された2人分の専門用語の和集合を正解セットとした.依頼した文献(30文献)のうち,前半部分(16文献)を用いて提案手法によるルールの導出と洗練を行い,残り後半(14文献)を用いて提案手法の評価を行った.これ以降,前半を学習用データセット,後半を評価用データセットと呼ぶ.以下にデータセットの詳細を示す.学習用データセットは,1文献あたりの単語数は約9,000語,全正解単語数(専門用語)は2,587語である.評価用データセットは,1文献あたりの単語数は約5,600語,全正解単語数(専門用語)は4,711語である.なお,本研究に必要となる形態素解析器には「茶筌」version2.3.3,形態素解析辞書にはIPADICversion2.6.3を用いた.\subsubsection{専門用語抽出処理}\begin{figure}[b]\begin{center}\includegraphics{15-3ia1f1.eps}\end{center}\caption{専門用語抽出処理の流れと実行例}\end{figure}専門用語の抽出は形態素解析結果とルールを用いて行う.専門用語抽出処理の流れと実行例を図1に示す.図1の専門用語抽出処理の流れを説明する.文章入力(図1(a))として「看護学分野での専門用語抽出」という句が入力されたとする(図1(a$'$)).次に形態素解析(図1(b))が実行される.例では8つの形態素と品詞情報が得られる(図1(b$'$)).その次に形態素解析の結果として得られた品詞情報と専門用語を抽出するためのルールを用いて専門用語抽出を行う(図1(c)).例では,「看護」「学」「分野」の組合せである「看護学分野」(図1(c1$'$))と,「専門」「用語」「抽出」の組合せである「専門用語抽出」(図1(c2$'$))の2つが得られる.最後に専門用語が出力される(図1(d),(d$'$)).基本となるルールは,中川らの研究成果を実装したTermExtract(TermExtract2006)モジュールの品詞に,辻河らの研究で述べられている接頭語,接尾語を例外的に単名詞として扱うルールを追加したものを用いる.基本となるルールの全てを表1に示す.例における下線部は対応する品詞を示す.なお,ここで用いる品詞形態はIPA品詞形態に準拠している.\begin{table}[b]\caption{ルール一覧}\input{01table1.txt}\end{table}以下,連接条件について説明する.「無条件連接」とは「表1にあるいずれかの品詞が連続して現れなくても連接可能である」ことを表す.無条件連接以外の連接条件では,条件を満たす場合に形態素の前(あるいは後)の形態素と連接されて用語を構成する.条件を満たさない形態素は破棄される.なお,無条件連接と条件付連接の両方が適用可能である場合は,条件付連接を優先して形態素の連接を行う.以下に例を示す.\noindent例1)無条件連接:名詞--一般,名詞--サ変接続と連続した場合\vspace{1zw}\fbox{\parbox{33zw}{用語(名詞--一般)抽出(名詞--サ変接続);\par→どちらも無条件連接なので「用語抽出」という用語が構成される.}}\vspace{1zw}\noindent例2)条件付連接:名詞--一般,名詞--形容動詞語幹と連続した場合\vspace{1zw}\fbox{\parbox{39zw}{円錐(名詞--一般)小体(名詞--形容動詞語幹);\par\hangafter=1\hangindent=3zw→名詞--形容動詞語幹の次には連接対象が必要だが,連続していないため「小体」が破棄され「円錐」までが用語として抽出される}}\vspace{1zw}\subsection{再現率向上のためのルール導出手順}以下のサイクルの繰り返しにより,再現率を向上させるルールを導出する.\begin{itemize}\item[(i)]専門用語抽出システムにより専門用語抽出を行う.\item[(ii)]抽出できなかった専門用語を人手によって抽出する.\item[(iii)]抽出できなかった専門用語を形態素解析し,その用語を抽出可能とするルールの導出を行う\item[(iv)]導出されたルールの妥当性を後述する手順で評価する.\item[(v)]妥当性評価の結果が,品詞レベルで妥当なルールあるいは語レベルでは妥当なルールの場合は,それらのルールをルール集合に追加する.\end{itemize}例外を除いた全ての専門用語に関して(ii)から(v)の処理が行われるまで繰り返す.ここで言う例外とは形態素解析器の限界によって正しく形態素解析を行うことができない形態素(同綴異品詞)を含む専門用語のことを言う.例えば,「うつ病」の形態素解析を行うと「うつ(動詞)」「病(名詞)」となり,誤った形態素解析結果となる.ルールの妥当性は以下の手順で評価する.\begin{itemize}\item[(i)]品詞レベルでルールを適用した結果,再現率が向上し適合率が低下しないか評価する.再現率が向上し,適合率が低下しない場合,このルールは妥当とする.\item[(ii)]再現率が向上し,適合率が低下した場合,品詞レベルでルールを適用するのではなく特定の語を連接対象とする.特定の語は,その意味分類が看護学分野に関連した分野に属するものを選択する.具体的には,分類語彙表(国立国語研究所2004)の「医療・看護」「生理・病気など」「救護・救援」など看護学分野に関連した分類に属するものを選択する.\end{itemize}\subsection{適合率向上のためのルール導出手順}適合率の低下は一般用語を専門用語と認識することに起因することから,適合率向上のためには専門用語ではありえない用語の組み合わせルールを導出すると共に,一般用語を取り除くことが有効といえる.適合率を向上させるルールの導出は,以下のサイクルを繰り返すことにより行う.\begin{itemize}\item[(i)]専門用語抽出システムにより専門用語の抽出を行う.\item[(ii)]誤って抽出された語を人手によって抽出する.\item[(iii)]誤って抽出された語を形態素解析し,追加するルールの導出を行う.追加ルールは次の2種類のルールのいずれかである.専門用語の構成要素から特定の形態素を除外するルール,あるいは専門用語から特定の形態素の組合せを除外するルールである.\item[(iv)]仮にそのルールを追加した場合の再現率・適合率を評価し,再現率が低下せずに適合率が向上するのならば,ルール集合へのルールの追加を行う.\end{itemize}一般用語の除去については,専門用語は一般の人になじみが無い,つまり親密度が低いとの仮説に基づき,親密度の高い語を除去することにより実施した.具体的には,佐藤らの研究成果(佐藤2004)で得られた単語親密度が付与された語彙集合を用いて,一般用語を除去した.以下に佐藤らの研究について説明する.佐藤らは基本となる語彙集合から単語親密度を用いて基本語彙を選定する研究を行っている.ここで言う基本語彙とは,コミュニケーションや日常生活でもっとも普通に使用され,使用頻度が高い語彙のことを言う.単語親密度とは,単語に対する主観的ななじみの程度を示した尺度で,複数の被験者が1から7の7段階で評定した結果を平均化したものを言う.評定に用いる値はそれぞれ「1はなじみがなく,7はなじみがある」を示している.基本となる語彙の母集合には,時代や性差に左右されにくく普遍的な語彙が多数収録されている国語大辞典の見出し語を選択している.収録されている語彙数は成人の理解語数とされている48,000語の2倍程度である94,928語と十分な数が収録されている.基本的な語彙の選択にはこれら母集合に対し実験により単語親密度を付加し,得られた単語親密度が5以上の語彙を選択している.これは,従来研究によって成人の過半数が知っていると推定される理解語彙数,小学校修了時の理解語彙数,単語親密度が5以上の語彙数の3つにおいて語彙数の整合が取れていることから単語親密度が5以上の語彙を基本語彙候補としている.除去対象となる一般的な語は,単語親密度が5以上の語であれば「人間関係,価値観,医薬,コンピュータ」など28,445語,単語親密度が6以上の語は「積極的,時間,不安,性格」など4,523語である.\subsection{形態素解析手法の改善}形態素解析の結果得られた片仮名に関して,連続する片仮名を連接して1語とすることで形態素解析手法の改善を図る.\subsection{導出したルール}\subsubsection{再現率向上のためのルール}全部で8つのルールを導出した.特定の品詞を連接するルール,特定の語を連接するルール,変更したルールの3つに分類して説明する.\noindent1)特定の品詞を連接するルール\noindent1-1)名詞--副詞可能品詞が「名詞--副詞可能」で連接条件が「無条件連接」であるルールを追加した.ただし,連接対象として不要と判断した時相名詞などを含む形態素は連接対象から除外した.除外した全ての形態素を表2に示す.以下に本ルールが適用される専門用語の例を示す.下線部が対象の形態素である.他のルールに関しても対象の形態素に下線を付記する.\vspace{1zw}\fbox{\parbox{39zw}{急性腎\ul{前}性腎不全,鼓室形成\ul{術後}後遺症,\ul{産後}脚気,\ul{絶対}好気性菌,\ul{前後}十字靱帯損傷,\ul{時間}薬理学}}\vspace{1zw}\begin{table}[t]\caption{除外する名詞--副詞可能}\input{01table2.txt}\end{table}\noindent1-2)形容詞--自立アウオ段ガル接続品詞が「形容詞--自立」,細分類が「アウオ段--ガル接続」,連接条件が「無条件連接」であるルールを導出した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{暗}視野照明,炎症性\ul{硬}結,\ul{緩}速導入,\ul{狭}隅角緑内障,\ul{硬}膜下出血,\ul{多}剤耐性}\vspace{1zw}\noindent1-3)動詞--自立五段・ラ行体言接続特殊2品詞が「動詞--自立」,細分類が「五段・ラ行体言接続特殊2」,連接条件が「無条件連接」であるルールを導出した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{下顎\ul{切}創,外旋\ul{拘}縮,眼位性眼\ul{振},\ul{駆}散薬,\ul{散}腫,\ul{殺}真菌薬,\ul{粘}膿性,\ul{破}骨細胞}\vspace{1zw}\noindent2)特定の語を連接するルール\noindent2-1)副詞--一般品詞が「副詞--一般」で連接条件が「無条件連接」であるルールを導出した.ただし,語彙分類が生理・病気などに分類されている語と「的」で終わる語を連接対象とした.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{極}低産体重児,\ul{早}発症,\ul{早}成,\ul{漸}深帯,\ul{漸}加}\vspace{1zw}\noindent2-2)名詞--非自立副詞可能品詞が「名詞--非自立」,細分類が「副詞可能」で連接条件が「無条件連接」であるルールを導出した.ただし,連接対象は「間」とした.ここで「間」の語彙分類が看護学分野に属するものではないにも関わらず連接対象とした理由を説明する.辻河らの研究(辻河2003)によって接辞を専門用語の構成要素としてみなすのが妥当であることが判明していること,「間」は接辞としての性質を有する語であることから「間」を連接対象とした.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{間}質性肺炎,\ul{間}入性,\ul{間}擦疹,\ul{間}擦性湿疹}\vspace{1zw}\noindent2-3)動詞--自立一段連用形品詞が「動詞--自立」,細分類が「一段連用形」,連接条件が「前または後ろに連接対象が続いた場合のみ連接」であるルールを導出した.ただし,語彙分類が「医療」「救護・救援」に分類されている語のみを連接対象とした.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{病診}連携,脈\ul{診},\ul{視}紫紅,\ul{視}束前核,低拍\ul{出}性,拍\ul{出}量}\vspace{1zw}\noindent2-4)名詞--数単体では専門用語としての意味を成さないため,連接条件を「前または後に連接対象が続いた場合のみ連接」であるルールを導出した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{二}次性高血圧症,\ul{四}段脈,\ul{一}次性脳幹外傷,膝蓋骨\ul{一}次中枢若年性骨軟骨症,\ul{三}色性色覚}\vspace{1zw}\noindent3)変更したルール\noindent3-1)名詞--形容動詞語幹,名詞--ナイ形容詞語幹該当品詞の次に連接対象が続かない専門用語が存在したため,連接条件を「無条件連接」へ変更した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{眼部外傷性色素\ul{沈着},胃腸機能\ul{異常},喀痰喀出\ul{困難},膵硬\ul{変},アウエル\ul{小体}}\vspace{1zw}\subsubsection{適合率向上のためのルール}適合率向上に寄与するルールを全部で11導出した.専門用語の構成要素から除外する形態素の導出,専門用語候補から除外する語の組み合わせの導出,一般的な語の除去,の3つに分類して示す.\noindent1)専門用語の構成要素から除外する形態素の導出専門用語の一部になりえない語を連接対象から除外するルールを導出した.\noindent1-1)名詞--一般に分類される「一つ〜九つ」を連接対象から除外した.\noindent1-2)名詞--接尾の中で専門用語として不要と判断された形態素「ごと」を除外した.\noindent\hangafter=1\hangindent=1zw1-3)専門用語の一部になりえない数詞と特定の助数詞(ヶ月,週間など)の組み合わせを除外した.以下に本ルールによって除外された一般用語例を示す.下線部が除外対象となった語である.以下のルールにおいても同様にルール適用箇所に下線を付与した.\vspace{1zw}\fbox{術後\ul{\mbox{1ヶ月}},\ul{\mbox{1週間}}服用,胸部食道癌\ul{\mbox{275例}}}\vspace{1zw}\noindent\hangafter=1\hangindent=1zw1-4)専門用語の一部になりえない特定の未知語(章節番号や箇条書きに使われる記号など)を連接対象から除外した.以下に本ルールによって除外された一般用語例を示す.\vspace{1zw}\fbox{\ul{\mbox{\maru{1}}}急性盲腸炎,\ul{\mbox{\maru{2}}}異染体,\ul{III}破骨細胞,\ul{iv}膵硬変}\vspace{1zw}\noindent2)専門用語候補から除外する語の組み合わせの導出抽出された複合語のうち,専門用語になりえない語の組み合わせを専門用語候補から除外した.各項目に例を示す.\noindent2-1)年代や区間を示すものを除外した.\vspace{1zw}\fbox{\ul{\mbox{0.01--9.95}},\ul{\mbox{1999--2006}}}\vspace{1zw}\noindent2-2)小数点を含む数値のみを除外した.\vspace{1zw}\fbox{\ul{10},\ul{0.1},\ul{1999},\ul{20061210}}\vspace{1zw}\noindent2-3)数値と特定の単位(kg,歳,回など)で構成されている語を除外した.\vspace{1zw}\fbox{\ul{\mbox{50\,kg}},\ul{\mbox{24歳}},\ul{\mbox{20回}}}\vspace{1zw}\noindent2-4)数式を表す語を除外した.\vspace{1zw}\fbox{\ul{\mbox{$0.1<x<9.1$}},\ul{\mbox{$y=2x+b$}}}\vspace{1zw}\noindent2-5)図表番号を除外した.\vspace{1zw}\fbox{\ul{\mbox{図1}},\ul{\mbox{表2-1}},\ul{\mbox{Fig.~a}},\ul{Table.~b-1}}\vspace{1zw}\noindent2-6)1文字で構成されている語は専門用語ではないとして除外した.\noindent3)単語親密度に基づく一般用語の除去抽出された複合語のうち,単語親密度が5以上の語を除去した.以下に除去した語の例を示す.\vspace{1zw}\fbox{\parbox{39zw}{\ul{国際的},\ul{積極的},\ul{プライバシー},\ul{コミュニケーション},\ul{ガイドライン},\ul{困難さ},\ul{価値観},\ul{不十分},\ul{人間関係}}}\vspace{1zw} \section{実験及び評価} \subsection{データセット}本学の看護学研究科の社会人大学院生から提供された看護学に関する文献の後半を評価用データセットとした.正解データセットは上記社会人大学院生が人手で作成した.\subsection{評価方法}中川らの手法である従来手法と,ルールの拡張と一般的な語の除去を行った提案手法の2つについて,再現率と適合率の観点から比較・評価を行った.ここで,再現率・適合率の計算に用いる「完全一致」「部分一致」という概念について説明する.「完全一致」とは抽出された専門用語に不要な語が連接されていないことであり,「部分一致」とは不要な語が連接されていることを言う.例として「情報検索数を数える」という文から専門用語を抽出する場合を考えてみる.上記句から専門用語を抽出する場合「\ul{情報検索}」が完全一致の専門用語であるのに対して「数」という名詞が誤って余分に連接された「\ul{情報検索}数」は部分一致の専門用語であるといえる.抽出された専門用語は研究情報検索システムにおいて検索キーワードの重み付けに使用される.不要な語が連接されている部分一致の専門用語であっても,検索キーワードと一致する部分を見つけ出し重み付けできることから,完全一致の専門用語だけではなく部分一致である専門用語も重要であるといえる.従って,再現率・適合率の計算においては完全一致,部分一致の両方について評価する.\subsection{実験結果}\begin{table}[b]\caption{実験結果}\input{01table3.txt}\end{table}表3に各手法の部分一致,完全一致における再現率・適合率を示す.全ての評価指標において提案手法が従来手法を上回っている.部分一致における再現率は83{\%}から96{\%}となり,ほぼもれなく専門用語を抽出可能となったと言える.部分一致における適合率は42{\%}から55{\%}となり,不要な語を大幅に除去可能となったと言える. \section{考察と今後の課題} \subsection{考察}従来研究と提案手法を比較する実験を行った結果,再現率と適合率の双方において部分一致の場合10{\%}以上の向上していることを確認した.次に各アプローチの分析結果と考察について述べる.\subsubsection{品詞の組合せの拡張に関する考察}まず再現率向上ルールを適用した結果の分析結果について述べる.表4のNo.2に再現率向上ルールを適用した結果を示す.ルールを適用することで部分一致では83{\%}から99{\%},完全一致では76{\%}から90{\%}となり,部分一致において専門用語をほぼもれなく抽出可能となったといえる.部分一致で抽出できなかった原因は,該当用語の構成要素に除去対象が含まれていたためである.具体的には連接対象外となっている語が含まれている「\ul{I}期腺癌」が抽出できなかった.\begin{table}[b]\caption{従来研究とルール拡張の比較}\input{01table4.txt}\end{table}完全一致において,約10{\%}抽出できていない専門用語が残存しているが,これは誤って不要な語が連接されたことに起因する.例として,「\ul{女性}レシピエント」「\ul{広範囲}孔脳症」のように不要な語が誤って連接されてしまうために完全一致の専門用語として抽出されていないものが存在した.このような語が完全一致における再現率低下要因の大部分を占めていた.この点に関しては,4.2で述べたように研究者情報検索では部分一致の専門用語でも十分対応可能であること,完全一致の再現率の向上を行うことで部分一致の再現率を低下させる可能性が高いことから,提案手法によって十分な再現率を得られていると言える.次に適合率向上ルールの適用結果の分析結果について述べる.表4のNo.3に再現率向上ルールと一般的な語の除去を除いた適合率向上ルールを適用した結果を示す.ルールを適用することで部分一致では37{\%}から41{\%},完全一致では27{\%}から30{\%}と不要な語が除去可能となっている.しかしながら,再現率を低下させずに適合率を向上させるという制約の下にルールを導出したにも関わらず,再現率が約0.1{\%}低下した.これは,適合率向上のためのルールを適用することで専門用語の構成要素が除去対象となり,抽出不可能となる専門用語が存在することに起因する.例として,専門用語である「10年生存率」では年月日を表す「10年」が除去され「生存率」だけが抽出されるため再現率が低下する.このような語は5語存在した.一方,完全一致における再現率では,約0.3{\%}向上した.これは誤って連接されていた不要な語が適合率向上ルールによって除去されることにより完全一致の専門用語が増加したことに起因する.例として,「3時間」という不要な語が連接された「\ul{\mbox{3時間}}急速静脈内投与」から時間を表す「3時間」が除去され,完全一致の専門用語「急速静脈内投与」が得られる.このような語が7語存在した.\subsubsection{単語親密度に基づく一般的な語の除去に関する考察}評価用データセット(品詞によるルール適用済み)に対して本処理を行った時の専門用語候補数の推移を図2に示す.同様に再現率および適合率の変化を図3に示す.\begin{figure}[b]\begin{minipage}[b]{176pt}\begin{center}\includegraphics{15-3ia1f2.eps}\end{center}\caption{専門用語候補の抽出数推移}\end{minipage}\hfill\begin{minipage}[b]{224pt}\begin{center}\includegraphics{15-3ia1f3.eps}\end{center}\caption{再現率--適合率グラフ}\end{minipage}\end{figure}ここで,図2および図3における親密度の境界値がnであるとは,「一般的な語」として用いた語彙集合における単語親密度が$n+1$以上7以下である語彙を専門用語候補から除去したことを意味する.言い換えれば,専門用語候補には単語親密度が1からnの単語しか残存しないということである.なお,$n=7$の場合は,専門用語候補から除去する「一般的な語」は無いものとする.図2から分かるように,境界値が5においてはほとんど専門用語しか残存していないことが分かる.図3において,単語親密度の研究結果を導入することにより適合率が向上したものの,部分一致における適合率は55{\%}とまだ改善の余地が残されている.除去できなかった1,933語のうち,統計用語が141語,「〜病院,〜先生,〜大学」といった固有名詞が127語,存在した.それ以外では,「医療水準,自己申告,謝辞,本論分」のような複合名詞や単名詞も看護関係では専門用語といえない用語が残ってしまった.これらの原因は,以下に起因する.・統計用語といった他分野の専門用語が含まれていた.・固有名詞は全て専門用語候補としていたが,専門用語と言えない固有名詞が存在した.・佐藤らが用いた語彙集に含まれていない一般的な語が存在した.統計用語に関しては統計用語集を利用することにより除去する.あるいは他の領域における専門用語抽出方法が確立されていれば,それを利用してその領域の専門用語を除去する.固有名詞に関しては,看護学分野に関係しない一般的な語に固有名詞が連接されている語は一般的な語として除去するルールを追加することが考えられる.佐藤らが用いた語彙集に含まれていない用語に関しては,語彙集の充実が待たれるところである.再現率に関しては,完全一致における再現率は82{\%}と改善の余地があるものの,部分一致における再現率は96{\%}と高い値を示しており,適合率を向上させながらほぼ全ての専門用語を抽出可能になったといえる.誤って除去してしまった4{\%}の語について述べる.親密度の境界を5とした場合,68種類78語の専門用語が誤って除去された.以下に誤って除去された専門用語の一部を示す.\vspace{1zw}\fbox{\parbox{39zw}{ぜん息,アレルギー,医師,炎症,下痢,解毒,患者,吸引,救命,血小板,抗生物質,更年期,高血圧,採血,酸素吸入,止血,治療,食生活,心電図,蛋白,肺がん,肺炎,貧血,副作用}}\vspace{1zw}親密度の境界を6とした場合,10種類16語の専門用語が誤って除去された.以下に誤って除去された専門用語の一部を示す.\vspace{1zw}\fbox{アレルギー,医師,患者,高血圧,死亡,治療,食生活,診断,入院,輸血}\vspace{1zw}専門用語が誤って除去された事は,全ての看護専門用語が馴染みのない親密度の低い語ではないことを意味している.つまり,看護は生活の一部であり,一部の専門用語は日常生活の中で利用されているということである.図3において,適合率は親密度境界値が1から5までほとんど低下しないが,再現率は親密度境界が低くなるに従い少しずつ低下しており,適合率のような急激な変化は見られない.この違いも,専門用語が全て馴染みのない親密度の低い語ではないことに起因していると考えられる.親密度が一定以下(ここでは親密度境界=5)の語は,前述の統計用語や固有名詞などを除けば専門用語である確率が高い.一方,専門用語が全て親密度の低い訳ではないことから,親密度境界値が低くなるに従い少しずつ看護の専門家だけに通用する用語になっていくためと考えられる.\subsection{今後の課題}日本語に着目して専門用語抽出法では,英語形態素を含んだ専門用語を抽出できない.英語形態素を含んだ専門用語数を調査したところ,学習用データセットにおいて12.2{\%}(317語/2,587語),評価用データセットにおいて13.7{\%}(290語/2,123語)と専門用語全体の10{\%}を超えており,多いとは言えないが英語形態素を含んだ専門用語についても抽出技法を確立することが望まれる.また,専門用語といえない固有名詞が存在することが確認された.これに関しては,新たなルールを追加することが望ましい. \section{まとめ} 本論文では専門用語になりうる品詞の組合せを拡張することにより看護学分野における専門用語抽出の再現率の向上を図った.更に単語親密度の研究と組み合わせることで適合率の向上を図った.再現率向上においては,専門用語抽出のルールに連接可能な品詞の追加および特定の語の追加と,連続する片仮名を連接して1語とする形態素解析手法の改善によって看護学分野における専門用語抽出の再現率が99{\%}とほぼ全ての専門用語を抽出可能となった.適合率向上においては,専門用語の構成要素としない語を除去するルールを追加することで再現率を低下させずに適合率を向上させることができた.更に単語親密度5以上の語彙(基本語彙)を除去するルールにより,再現率が99{\%}から96{\%}と僅かに低下したものの適合率は41{\%}から55{\%}と大幅に向上した.今後の課題として,英語を含んだ専門用語抽出技法,専門用語でない固有名詞を除去する技法を確立することが望まれる.\acknowledgment本研究は,岩手県学術研究振興財団研究費補助金及び岩手県立大学全学プロジェクト等研究費の助成を受けて行ったものである.本研究で用いた実験データの提供や専門用語判定作業を行って頂いた岩手県立大学看護学研究科の大学院生の皆様にはこの場を借りて深く感謝する.\begin{thebibliography}{}\item相澤彰子,野末道子,今尚之,坂本真至,中渡瀬秀一(2005).土木関連用語辞書の見出し語の分析と検索システムにおける活用に関する考察.情報処理学会研究報告,自然言語処理研究会,\textbf{169}(19),pp.~131--138.\item井上大悟,永井秀利,中村貞吾,野村浩郷,大貝晴俊(2001).“医療論文抄録からのファクト情報抽出を目的とした言語分析.”自然言語処理,\textbf{141}(17),pp.~103--110.\item木浪孝治,池田哲夫,高山毅,武田利明(2006).品詞の組合せの拡張による看護学分野での専門用語抽出再現率の改善.情報処理学会データベースシステム研究会電子情報通信学会データ工学専門委員日本データベース学会共催夏のデータベースワークショップDBWS2006,Vol.~2006,No.~78,pp.~313--320.\item国立国語研究所(2004).国立国語研究所資料集14「分類語彙表増補改訂版」,大日本図書.\item中川裕志,森辰則,湯本紘彰(2003).“出現頻度と連接頻度に基づく専門用語抽出.”自然言語処理,\textbf{10}(1),pp.~27--45.\item奈良先端科学技術大学院大学自然言語処理学講座,日本語形態素解析器ChaSen,http://ChaSen.naist.jp/hiki/ChaSen/.\item佐藤浩史,笹原要,金杉友子,天野成昭(2004).“単語親密度に基づく基本的語彙の選定.”人工知能学会論文誌,\textbf{19}(6),pp.~502--510.\item立石健二,久寿居大(2006).複数の作成者情報付き文書から専門用語抽出.情報処理学会論文誌データベース,Vol.~47,No.~SIG8,pp.~24--32.\itemTermExtract(2006).「茶筅」用モジュール``Chasen.pm''の説明,http://gensen.dl.itc.u-tokyo.ac.jp/doc/Chasen.html.\item辻河亨,吉田稔,中川裕志(2003).“語彙空間の構造に基づく専門用語抽出.”情報処理学会研究報告,自然言語処理研究会,\textbf{159}(22),pp.~155--162.\end{thebibliography}\begin{biography}\bioauthor{木浪孝治}{2005年岩手県立大学ソフトウェア情報学部卒業.2007年同大学院修士課程修了.修士(ソフトウェア情報学).同年,(株)日立製作所入社.DBMSの設計開発に従事.}\bioauthor{池田哲夫(正会員)}{1981年東京大学大学院情報科学専攻修士課程修了.同年日本電信電話公社入社.岩手県立大学教授を経て2006年静岡県立大学教授.情報検索,GIS等の研究に従事.博士(工学)(東京大学).}\bioauthor{村田嘉利}{1979年名古屋大学大学院修了.同年日本電信電話公社入社.2003年静岡大学理工学研究科後期博士課程修了.博士(工学).2006年から岩手県立大学ソフトウェア情報学部教授ならびにNiCT研究員.データベース応用の研究に従事.}\bioauthor{高山毅}{1966年生.1995年筑波大学大学院博士課程工学研究科電子・情報工学専攻修了.博士(工学).現在,岩手県立大学ソフトウェア情報学部准教授.データベース応用システムの研究開発に従事.情報処理学会会員.}\bioauthor{武田利明}{1979年千葉大学看護学部看護学科卒業.1982年同大学院修士課程修了.同年,帝人(株)入社,1994年医薬開発研究所主任研究員,獣医学博士,現在,岩手県立大学看護学部教授.専門は基礎看護学,看護技術に関する実証的研究に従事.}\end{biography}\biodate\end{document}
V14N05-05
\section{はじめに} \label{sec:intro}日本語の解析システムは,1990年代にそれまでの研究が解析ツールとして結晶し,現在では,各種の応用システムにおいて,それらの解析ツールが入力文を解析する解析モジュールとして利用されるようになってきている.解析ツールを利用した応用システムの理想的な構成は,与えられた文を解析する解析ツールと,その後の処理を直列につなげた,図\ref{fig:cascade}に示すような構成である.例えば,情報抽出システムでは,応用モジュールは,解析ツールの出力データを受け取り,そのデータに抽出すべき情報が含まれているかどうかを調べ,含まれている場合にその情報を抽出する,という処理を行なうことになる.\begin{figure}[b]\input{05f1.txt}\end{figure}ここで,応用モジュールを,おおきく,次の2つのタイプに分類する.\begin{enumerate}\item{\bf言語表現そのもの(言語構造)を対象とする}応用モジュール例えば,目的格と述語の組を認識して,それらの数を数えるモジュール.\item{\bf言語表現が伝える情報(情報構造)を対象とする}応用モジュール例えば,「どのメーカーが,なんという製品を,いつ発売するか」という情報を抽出する情報抽出モジュール.\end{enumerate}後者のモジュールでは,どのような言語表現が用いられているのかが問題となるのではなく,どのような言語表現が用いられていようと,それが「どのメーカーが,なんという製品を,いつ発売するか」という情報を伝達しているのであれば,それを抽出することが要求される.われわれが想定する応用モジュールは,この後者のタイプである.応用システムにおいて,解析ツールは,「応用に特化しない言語解析処理をすべて担う」ことを期待される.しかしながら,現実は,そのような理想的な状況とは程遠く,応用モジュールを構築する際に,現在の解析ツールが放置しているいくつかの言語現象と向き合うことを余儀なくされる.そのような言語現象の具体例は,おおきく,以下の4種類に分類できる.\begin{description}\item[表記の問題]~~いわゆる「表記のゆれ」が放置されているので,これらを同語とみなす処理が必要となる.例えば,「あいまい」と「曖昧」,あるいは,「コンピューター」と「コンピュータ」.\item[単位の問題]~~複合語表現(multi-wordexpressions)の設定が不十分であるので,追加認定を行なう処理が必要となる.\item[外部情報源とのインタフェースの問題]~~語の認定が行なわれないので,他の外部情報源を利用する場合,文字列でインタフェースをとるしか方法がない.それぞれの情報源(例えば,一般の国語辞典)で,品詞体系や見出し表記が異なるので,かなりの辞書参照誤りが発生する.\item[異形式同意味の問題]~~言語表現は異なるが伝達する情報(意味)が同じものが存在するので,これらを同一化する処理が必要となる.\end{description}これらの問題に共通するキーワードは,「情報(意味)の基本単位」である.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.\begin{table}[b]\input{05t01.txt}\end{table}内容的表現に関しては,近年,上の4つの問題を解決するための研究が行なわれている.例えば,内容語に関しての研究\shortcite{Sato2004jc,JUMAN,asahara2005}や慣用表現に関しての研究\shortcite{Ojima2006,Hashimoto2006a,Hashimoto2006b}がある.その一方で,機能表現に関しては,大規模な数のエントリーに対して上記の問題を解決しようとする研究はほとんど存在しない.大規模な数の機能表現を扱ったものに,Shudoら\shortcite{Shudo2004}や兵藤ら\shortcite{Hyodo2000}による研究があるが,それらは,上記の問題を考慮していない.このような背景により,本研究では,自然言語処理において日本語機能表現を処理する基礎となるような{\bf日本語機能表現辞書}を提案する.この辞書は,大規模な数の機能表現に関して,上記の問題に対する1つの解決法を示す.本論文は,以下のように構成される.まず,第2章で,機能表現とその異形について述べる.次に,第3章において,日本語機能表現辞書の設計について述べる.第4章で,辞書の見出し体系として採用した,機能表現の階層構造について説明する.そして,第5章で,辞書の編纂手順について説明し,現状を報告する.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる. \section{日本語機能表現} \subsection{複合辞}複合辞というとらえ方を初めて提唱したのは,国立国語研究所の資料\shortcite{hukugouzi}によると,永野\shortcite{Nagano1953}である.永野は,語源的・構造的にはいくつかの語に分解できるが,単なる部分の合成以上の「一まとまりの意味を持っているものと見てよい」連語表現の存在を指摘した.例えば,「からには」は,3つの助詞「から」,「に」,「は」から構成されているが,それは,全体として「特に理由を提示して,課題の場を設定し,次に来る陳述を強く期待させる場合に使われる言い方」であると説明する.彼は,このような表現を複合助詞と呼んだ.そして,同様の基準で複合助動詞,複合接続詞,複合感動詞についても考え,複合助詞とこれらを一まとめにして,{\bf複合辞}と呼んだ.永野は,内容語の領域において,複合語やイディオムが表現資材としての単位であるのと同様に,複合辞を表現上の単位と考える.\subsection{機能表現の定義}\label{subsec:definition}\begin{table}[b]\input{05t02.txt}\end{table}機能表現とは,おおよそ,文中においてなんらかの機能を持つ表現ということができる.しかし,機能表現全体に対して,「なんらかの機能」をより精密に書き下すことはほとんど不可能であると考えられるので,本研究では,機能表現の定義として,次のような定義を採用する.\begin{quote}表\ref{tab:L3}に示すいずれかの機能を持つ表現を,{\bfそれぞれの機能型に属する機能表現}と呼び,その総称として{\bf機能表現}という用語を用いる.\end{quote}表\ref{tab:L3}に挙げた機能は,通常,機能語に対して認定されるものである.本研究では,それを複合辞にまで拡張し,機能表現の定義として用いることにした.上記の定義を用いると,「からには」や「ばかりか」など,機能語の列からなる表現や,「なければならない」や「かもしれない」など,自立性が低い内容語を含む表現を機能表現であると判断することができ,「じゅんに」や「経過してから」など,内容語の自立性が高く,一まとまりの表現とはみなしにくいものを機能表現ではないと判断することができる.しかしながら,一般に,ある表現が機能表現であるかどうかの判断は,それほど容易ではない.その理由は,次の2点に対して統一した見解が存在しないことにある.\begin{description}\item[機能表現と呼べる表現の範囲]~~「にもとづいて」や「と比較して」など,機能表現であるかどうかの判断が難しい表現が存在する.これらの表現が機能表現であるかどうかについては,上記の定義や,これまでに機能表現であると判断された表現などを参照し,主観的に判断することになる.\item[機能表現の単位]~~「たにちがいない」,「たとしても」,「ないかもしれなかった」など,全体で1単位の機能表現とみなすべきか,それとも,複数の機能表現からなる表現であるとみなすべきか判断が揺れる表現が存在する.\end{description}本研究では,前者に対して保守的な立場をとり,定評のある文献において機能表現であると認められているもののみを機能表現と認め,機能表現であるかどうかの判断が難しい表現に対しては,機能表現と認めることを保留する.一方,後者に対しては,不必要に長い機能表現を認めるのではなく,例えば,「ないかもしれなかった」に対しては,「ない」,「かもしれなかっ」,「た」のように,適切な構成要素に分割し,その各々を機能表現であるとみなす.\subsection{種々の異形}\label{subsec:variety}日本語の機能表現が持つ主な特徴の1つは,個々の機能表現に対して,多くの{\bf異形}が存在することである.例えば,「なければならない」に対して,「なくてはならない」,「なくてはならず」,「なければなりません」,「なけりゃならない」,「なければならぬ」,「ねばならん」など,多くの異形が存在する.このような異形をつくり出す過程には,いくつかの言語現象が絡んでいる.われわれは,これらの言語現象に基づいて,機能表現の異形を次の7つのカテゴリーに分類した.\begin{enumerate}\item{\bf派生}2つの表現がお互いに緊密に関連しているが,それらの機能が異なるとき,われわれは,それらを派生に分類する.例えば,「にたいして」と「にたいする」は,いずれも格助詞「に」と動詞「たいする」の1つの活用形という形態をしており,お互いに緊密に関連している.その一方で,それらは,異なる機能を持っている.「にたいして」は,格助詞型機能表現であり,「にたいする」は,連体助詞型機能表現である.それゆえに,これらを派生に分類する.\item{\bf機能語の交替}機能表現を構成する機能語が,異なる機能語に置き換えられることにより,異形が生成されることがある.例えば,「からする\ul{と}」の末尾の「と」を「ば」に置き換えると,「からすれ\ul{ば}」という異形が生成される.\item{\bf音韻的変化}機能表現の構成要素が音韻的に変化することにより,異形が生成されることがある.音韻的変化は,次の4種類に分類できる.\begin{enumerate}\item[(a)]{\bf縮約}特定の文字列が縮約することにより,異形が生成されることがある.例えば,「なけ\ul{れば}ならない」の「れば」が「りゃ」へ縮約した場合,「なけ\ul{りゃ}ならない」という異形が生成される.\item[(b)]{\bf脱落}特定の文字が脱落することにより,異形が生成されることがある.例えば,「とこ\ul{ろ}だった」から「ろ」が脱落することにより,「とこだった」という異形が生成される.\item[(c)]{\bf促音化・撥音化}特定の文字列が促音化,もしくは撥音化することにより,異形が生成されることがある.例えば,「たも\ul{の}ではない」の「の」が撥音化することにより,「たも\ul{ん}ではない」という異形が生成される.\item[(d)]{\bf有声音化}前に接続する語により,機能表現の先頭の子音が有声音になり,異形が生成されることがある.例えば,「\ul{て}いい」は,前に「読む」が接続する場合,先頭の子音``t''が有声音``d''になり,「\ul{で}いい」という異形が生成される.\end{enumerate}\item{\bfとりたて詞の挿入}機能表現の内部にとりたて詞\shortcite{Numata1986}が挿入されることにより,異形が生成されることがある.例えば,「といっても」の「と」と「いっても」の間には,とりたて詞「は」が挿入可能である.この挿入により,「と\ul{は}いっても」という異形が生成される.\item{\bf活用}機能表現を構成する末尾の語が活用することにより,異形が生成されることがある.例えば,「なければなら\ul{ない}」の末尾の「ない」が「なかっ」に活用することにより,「なければなら\ul{なかっ}」という異形が生成される.\item{\bf「です/ます」の有無}機能表現の内部に「です」や「ます」が挿入されることにより,異形が生成されることがある.例えば,「にたいして」の「にたいし」と「て」の間には,「ます」が活用した「まし」が挿入可能である.この挿入により,「にたいし\ul{まし}て」という異形が生成される.\item{\bf表記のゆれ}機能表現の構成語が漢字表記を持っている場合,その語の表記の仕方によって,異形が生成されることがある.例えば,「に\ul{あた}って」に対して,「に\ul{当た}って」,「に\ul{当}って」という漢字表記の異形が存在する.\end{enumerate} \section{機能表現辞書の設計} \subsection{辞書に求める要件}\label{subsec:requirement}機能表現の辞書を作成するためには,次の2種類のリストが必要であると考えられる.\begin{enumerate}\item辞書の見出し語のリスト\item上のリストに存在する機能表現の出現形の網羅的なリスト\end{enumerate}現在利用可能な機能表現の見出し語のリストとして,グループ・ジャマシイのリスト\shortcite{Jamasi1998}や森田らのリスト\shortcite{Morita1989}などが存在する.しかし,それらを直接(1)のリストとして利用することはできない.なぜならば,機能表現に関して,統一した見出し語選択方針が存在しないからである.例えば,上の2つは,異なる見出し語選択方針をとっている.前者においては,「にたいして」と「にたいする」は,両方とも見出し語である.その一方で,後者においては,「にたいして」のみが見出し語であり,「にたいする」は「にたいして」の派生として扱われている.機能表現辞書を編纂するにあたり,異なる複数の機能表現リストを併合するときに起こるこの問題を解決する必要がある.自然言語処理システムは,実際の文章に現れる{\bf出現形}を処理する必要があるので,上記(2)のリストが必要となる.日本語母語話者は,機能表現の出現形からその見出し語を簡単に推測することができるので,人間のために編纂された機能表現の辞書には,出現形をすべて列挙しておく必要はない.実際,機能表現に関する,言語学や日本語教育学の文献は,このような記述形式をとっている\shortcite{Morita1989,Jamasi1998}.計算機が利用することを想定した辞書を編纂する場合,機能表現の出現形を網羅する必要がある.\ref{sec:intro}章で挙げた問題,および上記で述べたことを考慮し,われわれは,編纂する辞書に次の3つの要件を設定した.\begin{description}\item[要件1]機能表現の出現形を網羅する見出し体系を持っていること\item[要件2]関連する機能表現間の関係が明示されていること\item[要件3]個々の機能表現に対して,文法情報や意味などが記述されていること\end{description}要件1を設定した理由は,すべての可能な機能表現の出現形を,計算機に誤りなく認識させたいからである.これが達成されれば,表記の問題と単位の問題を解決することができる.要件2を設定した理由は,この辞書を,異形式同意味の判定や言い換えに利用したいと考えているからである.これが達成されれば,外部情報源とのインタフェースの問題と異形式同意味の問題を解決することができる.要件3を設定した理由は,解析システムなどの自然言語処理システムに対して,個々の機能表現についての情報を提供することを想定しているからである.これは,自然言語処理において利用されることを想定している辞書として,必須の条件である.\subsection{辞書の設計方針}\label{subsec:policy}前節の要件を満たす辞書を作成するにあたり,われわれは,設計方針を以下のように定めた.\begin{description}\item[見出し体系]9つの階層を持つ{\bf階層構造}(次章参照)この階層構造により,すべての機能表現の出現形を整理し,機能表現間の関係を明示する.\item[辞書の形式]XML形式\item[付加情報]以下に挙げる情報を記述する\begin{description}\item[左接続・右接続]隣に接続可能な形態素\item[意味カテゴリー]属する類義表現集合「日本語表現文型」\shortcite{Morita1989}における意味分類を参考にして,同じような意味を持っている機能表現の類義表現集合として,89の意味カテゴリーを導入した.このうちのいずれかを記述する.\item[難易度]やさしい方からA1,A2,B,C,Fの5段階の難易度\shortcite{Sato2004jc}「日本語能力試験出題基準」\shortcite{nouryoku}における「〈機能語〉の類」の級を参考にして,表現の分かりやすさに基づき,難易度を記述する.\item[文体]常体,敬体,口語体,堅い文体の4種類\item[核]表現の構成において中心的な核の形態素例えば,「にたいして」に対して,「たいし」と記述する.\item[稀]使用が稀であることを示すマーク例えば,「て呉れる」に対して,このマークを付与する.\item[例文]機能表現を含む文\item[否定表現]意味の観点から見た否定の表現例えば,「なければならない」に対して,「なくてよい」と記述する.これを明記する理由は,機能表現の後ろに単純に「ない」を接続させた表現は,非文法的である場合があるからである.\item[慣用表現]機能表現を含むもの例えば,「にたりない」に対して,「とるにたりない」と記述する.この情報は,慣用表現の一部である機能表現を,1単位であるとして誤検出してしまうことを防止することに利用することができる.\item[文献への参照]文献名および参照ページ\item[外部辞書の見出し語へのリンク]外部辞書における項目ID\end{description}\end{description}見出し体系として採用した階層構造については,次章で詳しく説明する.辞書の形式としてXML形式を採用した理由は,次の2つである.\begin{enumerate}\item階層構造を表現するのに都合が良い\item他の形式への変換が容易である\end{enumerate} \section{機能表現の階層構造} \label{sec:h}われわれは,\ref{subsec:variety}節で議論した,機能表現のさまざまな異形を扱うために,9つの階層を持つ階層構造を作成し,それを辞書の見出し体系として採用した.この階層構造は,\ref{subsec:requirement}節で述べた要件1と2を満たす.具体的には,次のとおりである.\begin{enumerate}\item機能表現の出現形のリストとして,9つめの階層の機能表現集合を利用することができる\itemそれぞれの表現が持つIDを比較することにより,表現間の関係を知ることができる\end{enumerate}\subsection{9つの階層を持つ階層構造}\label{subsec:hierarchy}われわれが作成した階層構造の一部を図\ref{fig:hierarchy}に示す.階層構造における$L^0$のルートノードは,すべての表現を統轄するダミーノードである.$L^1$の機能表現ノードは,辞書の見出し語に相当する.これは,最も抽象度の高い機能表現であると言える.一方,階層構造の葉に当たる$L^9$の機能表現ノードは,機能表現の出現形に相当する.これは,最も抽象度の低い機能表現であると言える.それらの間に存在する機能表現ノードは,中間の抽象度を持つ機能表現である.階層構造の9つの階層について表\ref{tab:levels}に示す.$L^3$から$L^9$が,\ref{subsec:variety}節で述べたそれぞれの異形のカテゴリーに対応する.機能表現の階層構造を作成するにあたり,まず,われわれは,異形間の差異の大きさに基づいて,異形のカテゴリーに次の順番を定めた.\begin{figure}[t]\begin{center}\includegraphics{14-5ia5f2.eps}\end{center}\caption{階層構造の一部}\label{fig:hierarchy}\end{figure}\begin{table}[t]\input{05t03.txt}\end{table}派生($L^3$)$>$狭義の異形($L^4$,$L^5$,$L^6$)$>$広義の活用($L^7$,$L^8$)$>$表記のゆれ($L^9$)次に,単純な階層構造をつくるために,$L^4\simL^6$と$L^7\simL^8$を線形化した.狭義の異形($L^4$,$L^5$,$L^6$)において,機能語の交替($L^4$),音韻的変化($L^5$),とりたて詞の挿入($L^6$)という順番を定めた理由は,機能語の交替が,可能な音韻的変化に強く影響し,また,音韻的変化の有無が,とりたて詞の挿入に影響すると考えたからである.広義の活用($L^7$,$L^8$)において,活用($L^7$),「です/ます」の有無($L^8$)という順番を定めた理由は,活用形の変化は,その表現が係ることのできる語の種類を変化させるが,「です/ます」の有無はそれとは独立であり,前者による異形は,後者による異形より,元の表現との差異が大きいと判断したからである.そして,これらの階層の上に,次の2つの階層を定義した.\begin{description}\item[$L^2$]{\bf意味}\footnote{機能表現が持っている「意味・働き・役割」という概念に対して,言語学の文献では,主に,「意味」や「意味・用法」という用語が用いられている\shortcite{Nagano1953,Morita1989,hukugouzi,dosj,Fujita2006}.本論文では,この概念を表すのに「意味」を用いる.}機能表現が,2つ以上の意味を持っている場合,この階層において,それらを区分する.例えば,「にたいして」は,2つの異なる意味を持っている.1つは,「彼は私にたいして優しい」において示されるような〈対象〉という意味であり,もう1つは,「一人にたいして5つ」において示されるような〈割合〉という意味である.この階層において,これらを区分する.\item[$L^1$]{\bf見出し語}辞書の見出し語に相当する.\end{description}この階層構造は,最も抽象度の高い形式の機能表現($L^1$)から最も抽象度の低い形式の機能表現($L^9$)までを含んでいるので,任意の形式の機能表現を,構造内に挿入することができる.逆に,この階層構造から,抽象度の異なる複数の機能表現リストを生成することができる.われわれの見出し語のリストは,$L^1$の機能表現ノードの集合である.森田らのリスト\shortcite{Morita1989}におけるように,各々の見出し語は唯一の意味を持つという方針に従う場合,$L^2$の機能表現ノードの集合を見出し語リストとして利用することができる.上記に加えて,各々の見出し語は唯一の機能を持つという方針に従う場合,$L^3$の機能表現ノードの集合を見出し語リストとして利用することができる.一方,機能表現のすべての出現形のリストがほしいときには,$L^9$の機能表現ノードの集合を利用することができる.日本語機能表現辞書において,この階層構造を見出し体系として採用した.辞書の見出し体系に,すべての活用形を含めた理由は,辞書の各エントリーに活用型を記述する方法には,次の2つの問題があるからである.\begin{enumerate}\item{\bf活用体系に対して統一した見解が存在しない}例えば,「なければならない」の末尾の「ない」を「ず」に置き換えた表現「なければならず」を,元の表現の活用形とみなす立場と,通常,助動詞「ない」の活用形に「ず」は含まれないため,全く異なる機能表現であるとみなす立場が存在する.\item{\bf日本語として存在しない表現を生成してしまう可能性が高い}複合辞は,動詞や助動詞と比べて,とることができる活用形が制限される傾向がある.例えば,「にほかならない」は,「ない」と同じだけの活用をするわけではなく,\mbox{「*にほかならなから」},「*にほかならなかれ」,「*にほかならなけりゃ」といった表現は,日本語には存在しない\footnote{表現の先頭に付けた``*''は,その表現が非文法的であることを示す.}.辞書のエントリーに活用型を記述する方法を採用した場合,これらの非文法的な表現を,「にほかならない」の活用形として認めることになる.われわれは,解析だけではなく,生成や言い換えにおいてもこの辞書を利用することを想定しているので,これは大きな問題となる.\end{enumerate}\subsection{機能表現ID}\label{subsec:id}われわれは,機能表現の出現形($L^9$の機能表現)に対して,階層構造における位置を表す機能表現IDを付与した.機能表現IDは,図\ref{fig:id}に示されるように,9つの部分からなる.IDの各部分は,階層構造のそれぞれの階層における階層IDである.階層IDに用いる文字種とその長さを,表\ref{tab:levels}の「ID」の欄に示す.$L^3$ID,$L^5$ID,$L^6$ID,$L^8$IDの一覧を,それぞれ,表\ref{tab:L3},表\ref{tab:L5},表\ref{tab:L6},表\ref{tab:L8}に示す.\begin{figure}[b]\input{05f3.txt}\end{figure}\begin{table}[b]\input{05t04.txt}\end{table}\begin{table}[t]\begin{minipage}[t]{0.5\textwidth}\input{05t05.txt}\end{minipage}\hfill\begin{minipage}[t]{0.4\textwidth}\input{05t06.txt}\vspace{1\baselineskip}\input{05t07.txt}\end{minipage}\end{table}機能表現IDは,階層構造における位置を表しているので,IDを比較することにより,2つの機能表現間の関係を容易に知ることができる.表\ref{tab:ID}に,類似したIDを持つ3つの機能表現を示す.(1)のIDと(2)のIDの差異は,8文字めの``x''と``h''である.これらは$L^5$IDであるので,「にたいして」と「にたいしちゃ」は,同じ見出し語に対する音韻的異形の関係にあることが分かる.それに対して,(1)のIDと(3)のIDは,最初の3文字が異なっている.これらは$L^1$IDであるので,「にたいして」と「について」は,全く異なる機能表現であるということが分かる.なお,図\ref{fig:hierarchy}に示されるように,$L^1$から$L^8$の機能表現に対しても,階層構造における位置を表すIDを付与した. \section{機能表現辞書の編纂} \subsection{編纂手順}われわれは,前章で説明した階層構造を見出し体系として持つ日本語機能表現辞書を編纂した.機能表現辞書の編纂は,図\ref{fig:hierarchy}に示されるような階層構造の木を徐々に成長させる過程に相当する.その理由は,機能表現の完全な見出し語のリストも,すべての可能な出現形のリストも利用可能ではないからである.言語学や日本語教育学の文献に収録されている機能表現を,1つずつ,階層構造に挿入する過程を繰り返し,辞書を徐々に大きくしていくことになる.文献から得た1つの機能表現に対する編纂作業は,次のとおりである.\begin{enumerate}\itemその表現に対するノードを作り,それを階層構造の適切な位置に挿入する\item表現の形態に応じたテンプレートを用いて,その機能表現の異形と思われる表現を含む部分木を生成し,それを階層構造の適切な位置に挿入する\item過生成されてしまった,実際に存在しない表現を消去する\itemテンプレートでは生成できなかった特別な異形を追加する\item\ref{subsec:policy}節に挙げた付加情報を記述する\end{enumerate}言語学や日本語教育学の文献における大部分の見出し語は,階層構造における$L^2$の機能表現ノードに対応する.残りの見出し語は,$L^4$や$L^5$の機能表現ノードに対応する.見出し語を階層構造に挿入するときには,その見出し語に対するノードだけではなく,必要に応じて,上位のノードも作成する.上記の(2)で用いるテンプレートは,全部で10種類ある.例えば,「に」+動詞のテ形+「て」という形態の機能表現に対して適用することができるテンプレートがある.例えば,このテンプレートを「にかんして」に適用した場合,$L^2$の機能表現ノードをルートとして持つ,階層構造の部分木が生成される.この部分木は,$L^3$,$L^4$,$L^5$,$L^8$に,「にかんする」,「にかんし」,「にかんしちゃ」,「にかんしまして」など,「にかんして」の異形に対応する機能表現ノードを持ち,葉の部分($L^9$)に,「にかんして」の出現形に対応する機能表現ノードを持つ.\subsection{機能表現辞書の現状}\ref{subsec:definition}節で述べたように,本研究では,機能表現であるかどうかの判断が難しい表現は扱わず,定評のある文献において機能表現であると認められているもののみを扱う.われわれは,次の2つのリストに含まれるすべての機能表現を,機能表現辞書に収録した.\begin{enumerate}\item{\bf「日本語表現文型用例中心・複合辞の意味と用法」}\shortcite{Morita1989}に収録されている,助詞と同様の働きをする表現(ただし,並立助詞の働きをするものは除く)と助動詞と同様の働きをする表現,計412表現\item{\bf「使い方の分かる類語例解辞典新装版」}\shortcite{dosj}の助詞・助動詞解説編に収録されている助詞,助動詞およびその連接形,計368表現\end{enumerate}これらの文献を選んだ理由は,次のとおりである.\begin{itemize}\item「日本語表現文型」は,数百の複合辞の意味と用法について詳細に解説した最初の文献であり,複合辞の用例を数多く収録している.この文献のリストは,基本的な複合辞をすべて網羅しているため,機能表現辞書に最初に収録する機能表現集合として最適であると考えたからである.\item「使い方の分かる類語例解辞典」は,その助詞・助動詞解説編において,78のカテゴリーを持つ,機能表現のシソーラスを収録している.このシソーラスは,機能語と複合辞の両方を含んでいるため,機能表現辞書に機能語を収録するにあたり,非常に有用であると考えたからである.\end{itemize}階層構造の各階層における機能表現の数を,表\ref{tab:levels}の「表現数」の欄に示す.見出し語に相当する$L^1$の機能表現の数は341であり,出現形に相当する$L^9$の機能表現の数は16,771である.\ref{subsec:policy}節で述べた付加情報は,階層構造の葉にあたる$L^9$の機能表現ノードにではなく,適切な中間ノードに記述した.例えば,意味カテゴリーや難易度は,$L^2$の機能表現ノードに,文体は,$L^5$の機能表現ノードに記述した.$L^9$の機能表現ノードを含む下位のノードは,階層構造の特徴を利用して,それらの情報を継承するが,必要に応じて,そこに異なる情報を記述することにより,継承された情報を上書きすることができる.このような記述法をとることにより,付加情報と形式の間の関係を明確にすることができる.例えば,文体は,$L^5$と$L^7$の機能表現ノードにのみ記述しているので,表記($L^9$)とは無関係であることを示すことができる.機能表現辞書における意味カテゴリー,難易度,文体の分布を,それぞれ,表\ref{tab:meaningL2},表\ref{tab:A1F},表\ref{tab:style}に示す.また,機能表現を構成する語の数の分布を表\ref{tab:units}に示す.ここで,構成語数が1のものには,機能語以外に,「ため」,「折」など,形式的には名詞一語である表現や,「たげる」,「ちゃう」など,縮約された表現が含まれている.\begin{table}[b]\input{05t08.txt}\end{table}\begin{table}[t]\input{05t09.txt}\end{table}\begin{table}[t]\input{05t10.txt}\end{table}\begin{table}[t]\input{05t11.txt}\end{table}外部辞書の見出し語へのリンクとして,$L^2$もしくは$L^5$の機能表現ノードに,次の2つのリストにおける項目のIDを記述した.\begin{enumerate}\item{\bf「現代語複合辞用例集」}\shortcite{hukugouzi}日本語において代表的な複合辞に対して,その用例と解説を記載している.収録されている複合辞は,「日本語表現文型」のほぼ部分集合であり,収録表現数は129である.それぞれの表現に対して,表\ref{tab:kkkID}に示される3文字の項目IDが付与されている.\item{\bf「使い方の分かる類語例解辞典新装版」}\shortcite{dosj}この節の冒頭で説明した辞典である.収録表現数は368である.シソーラスの各々のカテゴリーには,見出し語の集合と関連語の集合が存在する.各カテゴリーには,2桁の数字からなるIDが設定されているが,カテゴリー内の各語に対しては,IDが設定されていない.そこで,われわれは,カテゴリーごとに,そこに存在する語に対して,表\ref{tab:dosj_subID}のように下位IDを設定し,カテゴリーのIDと合わせて,``29N01''や``75R03''のような5文字の項目IDを定めた.\end{enumerate}\begin{table}[t]\input{05t12.txt}\end{table}\begin{table}[t]\input{05t13.txt}\end{table}\subsection{異形の被覆率の評価}機能表現辞書を評価する観点として,次の2点が考えられる.\begin{enumerate}\item機能表現をどのくらい収録しているか\item応用システムにおいてどれほど有用であるか\end{enumerate}ここでは,前者の評価を行なう.一般に,辞書に収録されている機能表現の被覆率を評価することは難しい.なぜならば,\ref{subsec:definition}節で述べたように,機能表現と呼べる表現の範囲や機能表現の単位に対して,統一した見解が存在しないからである.それゆえ,機能表現集合の母集団が不明であり,単純に被覆率を計算することができない.被覆率の評価の際には,これらに起因する問題を適切に扱う必要がある.収録している機能表現の被覆率を評価する場合,次の2点を評価する必要がある.\begin{enumerate}\item見出し語の被覆率\item異形(の出現形)の被覆率\end{enumerate}\ref{subsec:definition}節で述べた方針に基づき,われわれは,前者は,辞書構築時に利用した,定評のある文献によって保証されていると考える.よって,ここでは,後者の評価のみを行なう.本研究では,既存の機能表現リストと比較することにより,機能表現辞書に収録されている異形の被覆率を評価した.評価には,比較対象として,自然言語処理の分野において唯一われわれが利用可能であり,かつ,大規模な機能表現リストを収録している首藤の文献\shortcite{Shudo1980a}を用いた\footnote{\ref{subsec:requirement}節で述べたように,言語学や日本語教育学の文献は,人間が読むことを想定して書かれたものであるので,異形を網羅することを目指しておらず,異形をあまり収録していない.それゆえ,これらの分野の文献は,比較対象として適切ではない.}.首藤の文献は,独自の文節モデルと日本語の解析システムについて述べたものであり,その付録に,付属語的表現,接続詞的表現,接尾語的表現,副詞的表現,連体詞的表現の一覧を記載している.付属語的表現とは,文節において構造的意味情報を担う表現のことであり,おおきく,文節間の関係を指示する表現(関係表現)と話し手の判断や叙述の仕方などを表す表現(助述表現)に分類される.前者は,ほぼ,われわれの助詞型機能表現に相当し,後者は,ほぼ,われわれの助動詞型機能表現に相当する.われわれが機能表現辞書編纂時に利用した2つの文献\shortcite{Morita1989,dosj}は,接続詞型機能表現をほとんど扱っていなかったので,われわれの機能表現辞書は,接続詞型機能表現をほとんど収録していない.このような理由により,異形の被覆率の評価という観点から,接続詞型以外の機能型の表現のみを比較対象とし,機能表現辞書の機能表現と首藤の付属語的表現を比較することにした.\begin{table}[b]\input{05t14.txt}\end{table}首藤の付属語的表現は,表\ref{tab:shudolist}のような形式で記載されている.左の欄の${\rmR_{NP1}}$は,基本的な文法カテゴリーであり,この場合は,「名詞文節から述語文節へと係る格助詞的表現」を表す.右の欄のR19は,連接規則を精密化するために導入された文法カテゴリーの下位分類である.真ん中の欄に,これらのカテゴリーに属する付属語的表現が記述される.それが関係表現の場合,表\ref{tab:shudolist}のように,表現の後に意味を表す記号(例えば,〈対象1〉+〈領域的〉)が続く.このリストは,次のような5つの特徴を持つ.\begin{enumerate}\item``ASU'',``ASERU'',``ERU'',``ARERU''の4表現を除き,表現は,すべてひらがな表記であり,漢字表記のものは存在しない\item「でもよい」や「こともできる」など,音韻的変化やとりたて詞の挿入による異形が含まれるが,「です/ます」を含む異形は存在しない\item活用による異形は,「なければならず」や「かもしれず」など,表現の末尾の「ない」を「ず」に置き換えたもののみである\item「たにちがいない」や「ないかもしれなかった」など,われわれが複数の機能表現からなるとみなす表現が存在する\item「じゅんに」や「けいかしてから」など,われわれが機能表現とみなさない表現が含まれる\end{enumerate}計算機処理を可能にするために,文法カテゴリーと意味記号を無視し,このリストに含まれる付属語的表現を人手で入力し,電子データを作成した.このとき,アルファベット表記である上記の4表現は除いた.入力したデータに含まれる表現数は,937であった.以下,このデータを首藤リストと呼ぶ.機能表現辞書に含まれる異形の被覆率を評価する場合,異形がすべて展開された$L^9$の機能表現集合を用いるのが適切である.一方,首藤リストの特徴から,次の4つのことが言える.\begin{enumerate}\item首藤リストには,漢字表記の異形が存在しないため,$L^9$の機能表現集合に対する比較結果と,$L^8$の機能表現集合に対する比較結果は同じになる\item首藤リストには,「です/ます」の有無による異形が存在しないため,$L^8$の機能表現集合に対する比較結果と,$L^7$の機能表現集合に対する比較結果は同じになる\item首藤リストには,活用による異形は,表現の末尾の「ない」を「ず」に置き換えた表現のみであるので,$L^7$の機能表現集合に対する比較結果と,$L^6$の機能表現集合に対する比較結果の差分は,それに関する少数のもののみであることが予想される\item首藤リストには,とりたて詞の挿入による異形が含まれているため,それを扱っていない$L^1$から$L^5$の機能表現集合を用いることは適切ではない\end{enumerate}これらの理由により,本評価においては,$L^6$,$L^7$の機能表現集合と首藤リストを比較した.比較にあたっては,首藤リストが持つ特徴を考慮し,首藤リストの表現を次の5種類に分類した.\begin{enumerate}\item[(A)]$L^6$の機能表現集合に含まれる\item[(B)]$L^6$の機能表現集合には含まれないが,$L^7$の機能表現集合に含まれる\item[(C)]複数の$L^7$の機能表現から構成されている\item[(D)]機能表現辞書に含まれていない\item[(E)]機能表現ではない\end{enumerate}分類手順は,次のとおりである.\begin{enumerate}\item首藤リストから,$L^6$の機能表現と文字列が完全に一致するものをすべて抽出する(上記の(A)に相当)\item残ったリストから,$L^7$の機能表現と文字列が完全に一致するものをすべて抽出する(上記の(B)に相当)\item残ったリストの表現を,次の3つのいずれかに人手で分類する\begin{enumerate}\item[(i)]複数の$L^7$の機能表現から構成されている(上記の(C)に相当)\item[(ii)]機能表現ではない(上記の(E)に相当)\item[(iii)]それ以外(上記の(D)に相当)\end{enumerate}\end{enumerate}分類結果を表\ref{tab:compare}に示す.首藤リストの表現のうち,(A),(B),(C)の表現は,機能表現辞書が被覆していると言える.一方,(E)の表現は,われわれは,機能表現とはみなさないので,比較対象から除外すべきである.よって,首藤リストに対する,機能表現辞書の被覆率を,次の式で算出する.\begin{eqnarray}\mbox{被覆率(\%)}=\frac{({\rmA})+({\rmB})+({\rmC})}{({\rmA})+({\rmB})+({\rmC})+({\rmD})}\times100\nonumber\end{eqnarray}表\ref{tab:compare}の値を用いて計算すると,これは,84\%(530/630)であった.残りの16\%を占める(D)の表現はすべて,「にもとづいて」や「とひかくして」など,機能表現であるかどうかの判断が難しいものであった\footnote{これらの多くは,定型的な英訳(例えば,「にもとづいて」は``basedon'',「とひかくして」は``comparedto'')を持つ.後続処理に機械翻訳を想定した場合,解析システムの辞書にこれらの表現を登録すると都合がよい.比較に利用した首藤リストは,このような考え方に基づいて作成された可能性が高いと思われる.}.3表現を除いて,これらの表現は,もし階層構造へ挿入するならば,その挿入に,新しい$L^1$の機能表現ノードを作る必要がある表現であった.それゆえ,機能表現辞書は,既存の機能表現リストに含まれる異形をほとんどすべて収録していると言うことができる.\begin{table}[b]\input{05t15.txt}\end{table} \section{関連研究} 言語学,日本語教育学,自然言語処理の3つの分野における,機能表現(特に,複合辞)の扱いについて述べる.\subsection{言語学(日本語学)}複合辞というとらえ方を初めて提唱したのは,国立国語研究所の資料\shortcite{hukugouzi}によると,永野\shortcite{Nagano1953}である.永野は,語源的・構造的にはさらにいくつかの語に分解できるが,単なる部分の合成以上の「一まとまりの意味を持っているものと見てよい」連語形式の助詞相当表現の存在を指摘し,これを複合助詞と呼んだ.そして,同様の基準で複合助動詞,複合感動詞,複合接続詞についても考え,複合助詞とこれらを合わせて,複合辞と呼んだ.森田ら\shortcite{Morita1989}は,複合辞に関する大量の用例を収集し,数百の複合辞の意味と用法について詳細に分析している.また,この研究を受け,国立国語研究所は,代表的な複合辞を選定し,それらの用例集を作成した\shortcite{hukugouzi}.言語学においては,現在も,複合辞の研究が活発に続けられている\shortcite{Fujita2006}.\subsection{日本語教育学}日本語教育学において,複合辞は,文法項目として重要視されている.例えば,日本語能力試験1,2級の文法問題を解くためには,さまざまな種類の複合辞について正しく理解している必要がある\shortcite{nouryoku}.そして,この理解を助けるために,日本語学習者のための,日本語文法の辞典は,複合辞を見出しに立て,それらについて詳しく解説していることが多い\shortcite{Makino1986,Makino1995,Jamasi1998}.\subsection{自然言語処理}自然言語処理において,複合辞は,それらを一まとまりの意味の塊として扱う必要があることから,特に,機械翻訳において重要視されてきた.首藤ら\shortcite{Shudo1980a,Shudo1980b}は,機械翻訳への入力とするために,概念を表す内容語と機能的な付属語列からなる拡張文節という考え方を導入し,そこで機能語に相当する1単位として複合辞を扱っている.現在,彼らは,日本語において,2500の機能表現を収集し,それらを意味に基づいて分類している\shortcite{Shudo2004}.しかしながら,異形についての大規模な整理は行なわれておらず,彼らの辞書は,五十音順以外に特別な構造を持っていないようである.EDR日本語単語辞書\shortcite{EDR_2}には,助詞相当語82表現,助動詞相当語49表現が登録されているが,異形に関する情報は記載されていない.兵藤ら\shortcite{Hyodo2000}は,2つの層を持つ日本語機能表現の辞書を提案している.第一の層には,375の項目があり,これらの項目から,第二の層において,自動的に13,882の可能な出現形が生成される.この辞書は,表現のある部分に対して交換可能な文字列を列挙しているだけであり,2つの異なる表現間の関係についての情報を何も提供しない.これらの辞書が機能表現の異形を適切に扱っていないのに対して,われわれの辞書は,階層構造に基づいて機能表現の異形を整理しており,2つの表現間の関係について,「音韻的異形」や「表記のゆれ」といった情報を提供することができる.日本語話し言葉コーパスにおいては,助詞相当句29表現と助動詞相当句37表現が,長単位の見出し語として扱われている\shortcite{csjMORPH}.それらの表現は,丁寧形や異形態などの観点から,前者は80,後者は92の表現に細分されている.土屋ら\shortcite{Tsuchiya2006a}は,複合辞の用例データベースを作成するにあたり,「現代語複合辞用例集」\shortcite{hukugouzi}に記載されている複合辞123項目(見出し語に相当)に対して異形を展開し,細分した337小項目の表現を用例収集の対象としている.彼らは,助詞の交替や文体などの観点から異形を分類し,それぞれの小項目に対して8文字のIDを付与している.これらの研究の機能表現リストは,小規模なものである.一方,われわれの辞書は,見出し語で341,出現形で16,771の機能表現を分類整理している. \section{おわりに} 本論文では,われわれが作成した,自然言語処理のための日本語機能表現辞書について報告した.この辞書は,機能表現のさまざまな異形を扱うために,見出し体系として,9つの階層からなる階層構造を持つ.現在,この辞書には,341の見出し語と16,771の出現形が収録されている.既存の機能表現リストと比較した結果,各々の見出し語に対して,ほぼすべての異形が網羅されていることが分かった.われわれの機能表現辞書は,日本語文の解析,生成,言い換えなど,さまざまな自然言語処理タスクにおいて利用することができる.例えば,この辞書はほとんどすべての異形を収録しているので,機能表現解析システムの検出被覆率の向上に役立つ.また,辞書中のすべての機能表現が意味カテゴリーの情報を持つので,この辞書を利用することにより,機能表現を類義表現に言い換えるシステムを容易に構築することができると思われる.機能表現辞書を用いた応用システムの性能からこの辞書を評価することは,今後の課題である.\bibliographystyle{jnlpbbl_1.3}\newcommand{\optsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA高橋\JBA松本}{浅原\Jetal}{2005}]{asahara2005}浅原正幸\JBA高橋由梨加\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ異表記同語情報を付与した辞書の整備\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\604--607}.\bibitem[\protect\BCAY{遠藤\JBA小林\JBA三井\JBA村木\JBA吉沢}{遠藤\Jetal}{2003}]{dosj}遠藤織枝\JBA小林賢次\JBA三井昭子\JBA村木新次郎\JBA吉沢靖\JEDS\\BBOP2003\BBCP.\newblock\Jem{使い方の分かる類語例解辞典新装版}.\newblock小学館.\bibitem[\protect\BCAY{藤田\JBA山崎}{藤田\JBA山崎}{2006}]{Fujita2006}藤田保幸\JBA山崎誠\JEDS\\BBOP2006\BBCP.\newblock\Jem{複合辞研究の現在}.\newblock和泉書院.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{橋本\JBA佐藤\JBA宇津呂}{橋本\Jetal}{2006a}]{Hashimoto2006a}橋本力\JBA佐藤理史\JBA宇津呂武仁\BBOP2006a\BBCP.\newblock\JBOQ自動検出のための慣用句の分類と語彙的情報\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\825--828}.\bibitem[\protect\BCAY{橋本\JBA佐藤\JBA宇津呂}{橋本\Jetal}{2006b}]{Hashimoto2006b}橋本力\JBA佐藤理史\JBA宇津呂武仁\BBOP2006b\BBCP.\newblock\JBOQ依存構造照合に基づく慣用句自動検出\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\829--832}.\bibitem[\protect\BCAY{兵藤\JBA村上\JBA池田}{兵藤\Jetal}{2000}]{Hyodo2000}兵藤安昭\JBA村上裕\JBA池田尚志\BBOP2000\BBCP.\newblock\JBOQ文節解析のための長単位機能語辞書\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\mbox{\BPGS\407--410}.\bibitem[\protect\BCAY{国際交流基金\JBA財団法人日本国際教育協会}{国際交流基金\JBA財団法人日本国際教育協会}{2002}]{nouryoku}国際交流基金\JBA財団法人日本国際教育協会\JEDS\\BBOP2002\BBCP.\newblock\Jem{日本語能力試験出題基準【改訂版】}.\newblock凡人社.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2005}]{JUMAN}黒橋禎夫\JBA河原大輔\BBOP2005\BBCP.\newblock\JBOQ日本語形態素解析システムJUMANversion5.1\JBCQ\\newblock\texttt{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}.\bibitem[\protect\BCAY{Makino\BBA\Tsutsui.}{Makino\BBA\Tsutsui.}{1986}]{Makino1986}Makino,S.\BBACOMMA\\BBA\Tsutsui.,M.\BBOP1986\BBCP.\newblock{\BemADictionaryofBasicJapaneseGrammar}.\newblockTheJapanTimes.\bibitem[\protect\BCAY{Makino\BBA\Tsutsui.}{Makino\BBA\Tsutsui.}{1995}]{Makino1995}Makino,S.\BBACOMMA\\BBA\Tsutsui.,M.\BBOP1995\BBCP.\newblock{\BemADictionaryofIntermediateJapaneseGrammar}.\newblockTheJapanTimes.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{永野}{永野}{1953}]{Nagano1953}永野賢\BBOP1953\BBCP.\newblock\JBOQ表現文法の問題-複合辞の認定について-\JBCQ\\newblock金田一博士古稀記念論文集刊行会\JED,\Jem{金田一博士古稀記念言語民族論叢}.三省堂.\newblock「永野賢(1970).伝達論にもとづく日本語文法の研究.東京堂出版」に再録.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2001}]{EDR_2}日本電子化辞書研究所\BBOP2001\BBCP.\newblock\JBOQEDR電子化辞書2.0版仕様説明書第2章日本語単語辞書\JBCQ.\bibitem[\protect\BCAY{沼田}{沼田}{1986}]{Numata1986}沼田善子\BBOP1986\BBCP.\newblock\JBOQとりたて詞\JBCQ\\newblock奥津敬一郎\JBA沼田善子\JBA杉本武\JEDS,\Jem{いわゆる日本語助詞の研究},2\JCH.凡人社.\bibitem[\protect\BCAY{小椋\JBA山口\JBA西川\JBA石塚\JBA木村}{小椋\Jetal}{2004}]{csjMORPH}小椋秀樹\JBA山口昌也\JBA西川賢哉\JBA石塚京子\JBA木村睦子\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』の形態論情報の概要ver.1.0}.\newblock国立国語研究所.\bibitem[\protect\BCAY{尾嶋\JBA佐藤\JBA宇津呂}{尾嶋\Jetal}{2006}]{Ojima2006}尾嶋憲治\JBA佐藤理史\JBA宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ日本語慣用句用例データベースの構築法\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\456--459}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2004}]{Sato2004jc}佐藤理史\BBOP2004\BBCP.\newblock\JBOQ異表記同語認定のための辞書編纂\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-161},\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{首藤}{首藤}{1980}]{Shudo1980a}首藤公昭\BBOP1980\BBCP.\newblock\Jem{文節構造モデルによる日本語の機械処理に関する研究}.\newblock福岡大学研究所報第45号.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{Shudo1980b}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectof{Japanese}LanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe8thCOLING},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{Shudo2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQ{MWE}sasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\mbox{\BPGS\32--39}.\bibitem[\protect\BCAY{土屋\JBA宇津呂\JBA松吉\JBA佐藤\JBA中川}{土屋\Jetal}{2006}]{Tsuchiya2006a}土屋雅稔\JBA宇津呂武仁\JBA松吉俊\JBA佐藤理史\JBA中川聖一\BBOP2006\BBCP.\newblock\JBOQ日本語複合辞用例データベースの作成と分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1728--1741}.\bibitem[\protect\BCAY{山崎\JBA藤田}{山崎\JBA藤田}{2001}]{hukugouzi}山崎誠\JBA藤田保幸\JEDS\\BBOP2001\BBCP.\newblock\Jem{現代語複合辞用例集}.\newblock国立国語研究所.\end{thebibliography}\begin{biography}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2005年同大学院情報学研究科修士課程修了.現在,同大学院情報学研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻准教授.自然言語処理の研究に従事.}\end{biography}\biodate\end{document}