id
stringlengths 9
9
| text
stringlengths 10.2k
92.7k
| title
stringclasses 1
value |
---|---|---|
V24N01-05
|
\section{はじめに}
製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンターを運営している.コールセンターでは,オペレータが電話やメールによる顧客問い合わせに対応する際や,顧客自身が答えを探す際の支援のために,FrequentlyAskedQuestion(FAQ)の整備および,FAQ検索システムを導入していることが多い.FAQ検索の利用者は,自然文や単語の集合を検索クエリとして,検索を実施するのが一般的である.しかし,FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため,類義語や同義語,表記の揺れといった問題により,正しく検索できない場合がある.たとえば,以下の例のように入力の問い合わせと対応するFAQで語彙が一致しないことがある.\begin{itemize}\item問い合わせ:○○カードの再度発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.\item正解のFAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法\item不正解のFAQの質問部分:○○カードを新規発行する方法\end{itemize}\noindentこの例では,正解のFAQへの語彙の一致は「○○カード」のみである.一方,不正解のFAQには,「○○カード」に加え,「発行」も一致するため,不正解のFAQが上位にランクされてしまう.このような問題に対して,たとえば,Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では,統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている\cite{riezler:07,soricut:04,xue:08}.また,Web検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張するpseudo-relevancefeedbackといった手法も用いられている.しかし,アライメントモデルが学習しているのは,単語と単語の対応確率であり,FAQを特定するために有効な語を学習しているとは言えない.また,Webやコミュニティ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられるpseudo-relevancefeedbackは,適合するFAQが複数存在することがWeb検索ほど期待できないFAQ検索では十分な効果が得られない可能性がある.本論文では,問い合わせを対応するFAQに分類する文書分類器を利用したFAQ検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象のFAQに一致していなくてもFAQを精度良く検索することを目指す.しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る.そこで,文書分類器を学習するために,コールセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる.問い合わせ履歴には,問い合わせに対するオペレータの対応内容は記入されているものの,明示的にどのFAQが対応するという情報は付与されていない場合がある.そのため,本論文では,Jeonらの\cite{jeon:05}「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し,閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる.さらに,本論文では,文書分類器の判別結果に加え,問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために,教師有り学習に基づくランキングモデルの適用を提案する.素性には,問い合わせとFAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる.ある企業のコールセンターのFAQおよび問い合わせ履歴を用いて提案手法を評価をした.提案手法は,pseudo-relevancefeedbackおよび統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して,高いランキング性能を示した.
\section{関連研究}
類似質問を検索する方法として,機械翻訳で用いられる単語単位のアライメントモデルであるIBMModel\cite{brown:93}を用いた手法が提案されている\cite{jeon:05,riezler:07,soricut:04,xue:08}.IBMModelは単語の対応確率をEMアルゴリズムで推定する手法である.統計的機械翻訳では,アライメントモデルは,原言語と,目的言語の文の対からなる対訳コーパスを用いて,単語間の対応確率を推定するために用いられる.類似質問検索においては,質問とその回答の対を対訳コーパスとみなしたり,あるいは類似する回答を持つこの方法では,FAQと問い合わせ間の単語の対応確率を学習する.しかしながら,単語間の対応確率は,対応するFAQを検索するために有効な語彙知識であるとは言えない.例えば,入力の「方法」とFAQの「方法」が対訳コーパス中で良く共起して出現し,学習の結果,対応確率が高くなったとする.この対応確率を利用してFAQをスコアリングすると,「方法」が出現する誤ったFAQが上位になりうる.Caoら\cite{cao:10,cao:09}はYahoo!Answersのカテゴリ情報を考慮して,回答済みの質問を検索する手法を提案した.Yahoo!Answersの質問にはユーザによってカテゴリが付与されているため,この手法はカテゴリが付与された質問を学習データとして,事前に入力の質問をカテゴリに分類するための分類器を作成する.実際に検索する際には,まず入力の質問が検索対象の質問に付与されているカテゴリに所属する確率を分類器を使って計算する.入力の質問と検索対象の質問との間の単語の一致や,単語の対応確率に対して,カテゴリの確率を重みとして与え,検索対象の質問に対するスコアを計算する.文書分類器を用いて検索するという観点で本論文と類似する研究であるが,本論文で扱う問い合わせ履歴の問い合わせには事前にカテゴリが付与されていないこと,本論文ではFAQを直接カテゴリとみなしていることが異なる.Singh\cite{singh:12},Zhouら\cite{zhou:13}はWikipediaを外部知識として利用して,コミュニティ質問応答サイトの類似質問検索性能を上げる手法を提案した.たとえばFAQ検索においては,業務ルールなどのドメイン固有の知識を含むため,一般的な知識源だけでは十分ではない.\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f1.eps}\end{center}\caption{提案手法のモデルを学習する処理の概要と例}\label{fig:flow}\end{figure}
\section{提案手法}
提案手法の学習時の処理を図\ref{fig:flow}に示す.提案手法の学習は大きく3つの処理からなる.まず,既存の方法を用いてFAQと問い合わせ履歴を用いて学習データを自動生成する(\ref{sec:train-data}節).続いて,問い合わせを対応するFAQに分類するための文書分類器を学習する(\ref{sec:classifier}節).最後に,学習データと,分類器の出力を素性に加えて,問い合わせに対して,正解のFAQが不正解のFAQよりもスコアが高くなるようにランキングモデルを学習する(\ref{sec:learn2rank}節).文書分類器の出力するスコアは問い合わせとFAQの単語の厳密一致や単語の関連度に依存せずに出力することができる.ランキング学習を適用することで,文書分類器から得られるスコアを,問い合わせとFAQの単語ベクトルのコサイン類似度などの素性とともに用いてFAQ検索結果のランキングをおこなうことが可能となる.\subsection{学習データの自動生成}\label{sec:train-data}先行研究\cite{jeon:05}に従い,FAQと問い合わせのペアについてお互いの回答部分の類似度をもとに自動で学習データを生成する.この手法は,似た意味の質問には似た回答がされるという仮説に基づき,回答間の表層的な類似度が閾値以上の回答済み質問文の対を収集した.この仮説はコールセンターではより有効であると考えられる.なぜならば,オペレータは問い合わせに対して対応する際に,対応するFAQを検索し,その回答部分を引用することが少なくないためである.学習データの生成には,FAQの質問$Q$および回答$A$,問い合わせ履歴中の問い合わせ$I$およびオペレータの対応内容$R$を用いる.図\ref{fig:flow}の例では$Q$,$A$,$I$,$R$はそれぞれ「○○カードを紛失」,「ヘルプデスクへご連絡ください」,「○○カードを失くしたかも」,「ヘルプデスクへご連絡ください」を形態素解析して得た名詞,動詞,形容詞の集合である.学習データの自動生成には,質問$Q$と回答$A$の対からなるFAQの集合$\FAQSet=\{(Q_1,A_1),\ldots,\linebreak(Q_{|\FAQSet|},A_{|\FAQSet|})\}$および,問い合わせ$I$とオペレータの対応内容$R$の対からなる問い合わせ履歴の集合$\HistorySet=\{(I_1,R_1),...,(I_{|\HistorySet|},R_{|\HistorySet|})\}$を用いる.具体的には全文検索を使って,オペレータの対応内容,FAQの回答の内容語でお互いにOR検索し,式(\ref{eq:hrank})によってスコア$\textrm{hrank}(A_{i},R_{j})$を計算する.\begin{equation}\textrm{hrank}(A_{i},R_{j})=\frac{1}{2}\left(\frac{1}{rank_{A_{i}}}+\frac{1}{rank_{R_{j}}}\right)\label{eq:hrank}\end{equation}$\textrm{rank}_{A_{i}}$は問い合わせ履歴の回答$R_{j}$を入力としてFAQの回答$A_1,...,A_{|\FAQSet|}$を検索した場合の$A_{i}$の順位,$\textrm{rank}_{R_{j}}$はFAQの回答$A_{i}$を入力として問い合わせ履歴の回答$R_1,...,R_{|\HistorySet|}$を検索した場合の$R_{j}$の順位である.$\textrm{hrank}(A_{i},R_{j})$があらかじめ人手で設定した閾値を超えたFAQと問い合わせのペアの集合$D=\{\langle(Q_i,A_i),I_j\rangle|1\leqi\leq|\FAQSet|,1\leqj\leq|\HistorySet|\}$を生成する.例えば,問い合わせ履歴の回答$R_j$でFAQの回答を検索して,FAQの回答$A_i$の順位が2位でFAQの回答$A_i$で問い合わせ履歴の回答を検索して,問い合わせ履歴の回答$R_j$が1位だった場合,hrankは0.75となる.学習データの自動生成手順をAlgorithm\ref{alg:gendata}に示す.hrankを計算するために,事前に問い合わせ履歴の回答を入力としたときのFAQの回答の順位の逆数を$\mathbf{M}_1\in\mathbb{N}^{|F|\times|H|}$に,FAQの回答を入力としたときの問い合わせ履歴の回答の順位の逆数を$\mathbf{M}_2\in\mathbb{N}^{|H|\times|F|}$に格納する.順位のリスト$\textrm{ranks}$を得るために,$\textrm{GetRanks}$の第一引数を入力($A$もしくは$R$),第二引数を順位を付与する対象の文書集合($\FAQSet$もしくは$\HistorySet$)として実行する.順位を付与するために,全文検索エンジンを使う.もし検索時に該当の文書が得られない場合,その文書の順位は,入力が問い合わせ履歴の回答であれば$|\FAQSet|$,FAQの回答であれば$|\HistorySet|$とする.\begin{algorithm}[t]\caption{学習データの自動生成の疑似コード}\label{alg:gendata}\input{06algo01.txt}\end{algorithm}\subsection{文書分類器の学習}\label{sec:classifier}文書分類器の学習には,\ref{sec:train-data}節で生成した学習データ$D$を用いて,FAQごとに正例と負例を作成して二値分類器を学習する.対象のFAQと対応する問い合わせの集合を正例,その他のFAQと対応する問い合わせの集合をすべて負例として学習データとする.対応する問い合わせを持たないFAQも存在するため,対象のFAQそのものも正例に追加している.例えば,「○○カードを紛失・盗難・破損した場合の手続き方法」というFAQの分類器を学習するときには,正例に「○○カードの再発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.」という問い合わせがあった場合,「○○カード」,「再発行」,「見当らない」といった素性の重みを正の方向に大きく更新する.学習にはAdaptiveRegularizationofWeightsLearning\cite{koby:09}を用いた.素性には,内容語(名詞,動詞,形容詞),係り受け関係にある名詞と動詞の対を用いる.名詞句は同一の文節中に連続して出現する接頭詞と名詞とした.また,少なくとも片方が内容語であるような単語bigramの出現も素性として用いる.\subsection{ペアワイズランキング学習}\label{sec:learn2rank}ペアワイズランキング学習では,\ref{sec:train-data}節で生成した学習データ$D$を用いて,問い合わせに対して,正解のFAQが,不正解のFAQよりもスコアが高くなるように重みベクトルを更新する.ランキングの重みの学習アルゴリズムにはSOLAR-IIを用いた\cite{wang:15}.SOLAR-IIはペアワイズランキングのオンライン学習手法であり,AdaptiveRegularizationofWeightsLearning\cite{koby:09}のように,素性の重み$\mathbf{w}\in\mathbb{R}^d$に対して共分散行列$\Sigma\in\mathbb{R}^{d\timesd}$を保持する.重みの更新時に,分散の値が小さい素性ほど,学習の信頼度が高いとみなして,重みの更新幅を小さくする.\begin{algorithm}[b]\caption{ペアワイズランキング学習}\label{alg:pairrank}\input{06algo02.txt}\end{algorithm}ランキングの重みベクトルの更新手順をAlgorithm\ref{alg:pairrank}に示す.最初に重み$\mathbf{w}$を$\mathbf{0}$,共分散行列$\Sigma$を単位行列$\mathbf{E}$として初期化する.問い合わせに対する正解のFAQおよびランダムに選択した不正解のFAQから抽出した素性ベクトル$\textbf{x}_p\in\mathbb{R}^d$および$\textbf{x}_n\in\mathbb{R}^d$を$\textrm{ExtractFeatureVector}$によって取得し,2つのベクトルの差$\textbf{x}$をもとに重みを更新する.$\gamma$はハイパーパラメータであり,値が大きいほど重みの更新幅を小さくする.本論文では$1.0$とした.$\alpha$はヒンジ損失であり,正解のFAQのスコアが不正解のFAQのスコアよりも低い値となったときに$0$以上の値を取る.$\beta$は事例に含まれる素性の分散が小さい,つまり信頼度が高いほど大きな値を取る.そのため,信頼度が高い素性を多く含む事例に対して順位の予測を誤った場合には重みの更新幅や信頼度の更新幅を減らし,学習が過敏になり過ぎないようにする役割を持つ.学習を高速化するために,負例の生成にランダムサンプリングを適用した.ランダムサンプリングによるランキング学習でも,ペアワイズランキング学習で良い性能を出しているRankingSVM\cite{joachims:02}と同等の性能であることが示されている\cite{sculley:09}.負例の数$K$は$300$とした.$\textrm{ExtractFeatureVector}$では基本的な素性のグループ\textbf{Basefeatures}および自動生成した学習データを用いた素性\textbf{tfidf\_FAQ+query}および\textbf{faq-scorer}を抽出する.\begin{itemize}\item{\bfBasefeatures}\begin{itemize}\item{\bfcos-q,cos-a}:cos-qは,問い合わせとFAQの質問に対する内容語(名詞,動詞,形容詞)のコサイン類似度.cos-aは,問い合わせとFAQの回答に対する内容語のコサイン類似度.これらの値は,問い合わせに出現する単語をより含み,出現する単語の異なり数が少ないFAQほど1に近い値を取り,そうでないほど0に近い値を取る.\item{\bfdep}:係り受け関係にある文節に出現する名詞,名詞句,動詞の対の一致回数.\item{\bfnp}:FAQの質問と問い合わせに対して,出現する名詞句が一致する割合.\end{itemize}\item{\bftfidf\_FAQ+query}:FAQの質問$Q$,回答$A$および$D$中のそのFAQに対して生成された$L$個の学習データ$\{I'_l\}_{l=1}^L$を用いて計算するtfidfに基づくスコア\\$\textrm{score}(Q,A,\{I'_l\}_{l=1}^L,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I))+\max_{{I'}_{l}}\textrm{tfidf\_sim}(I,I'_l)$.\\付録\ref{ap:es}の式(\ref{eq:es})を用いて計算した.入力の問い合わせに対して質問もしくは回答と一致している単語が多いほど高く,さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在するFAQに対して高いスコアとなる.\item{\bffaq-scorer}:問い合わせに対して,該当するFAQの二値分類器のマージンを計算し,sigmoid関数によって$[0,1]$へ変換した値を素性に用いる.この分類器は過去の問い合わせ履歴を使って,どのような表現が出現する問い合わせならばこのFAQが正解らしいかどうかを学習したものである.そのため,この素性は問い合わせに対してこのFAQが正解らしいほどスコアが1に近く,そうでないほど0に近い値を取る.\end{itemize}学習した重みベクトル$\mathbf{w}$を使って未知の問い合わせ$I$に対してFAQをランキングするときには,各FAQから抽出した素性ベクトル$\mathbf{x}$と$\mathbf{w}$の内積を計算して,その値をもとにFAQをソートする.
\section{実験}
本実験では,文書分類器の出力を用いたランキングの有効性を確認するために,ある企業のFAQおよび問い合わせ履歴を用いて,既存手法との比較をおこなう.また,自動生成した学習データを分析し,ランキングの評価値への影響を調べる.\subsection{実験設定}実験にはある企業のFAQおよび問い合わせ履歴を用いた.問い合わせ履歴は個人情報を含むため,人名や個人を特定しうる数字列や地名,所属などの情報をパターンマッチによって秘匿化している.そのため,本来は個人情報ではない文字列も秘匿化されていることがある.今回の実験で用いたFAQの数は4,738件で,問い合わせ履歴はおよそ54万件である.評価のために,問い合わせ履歴中の286件に対し,3人のアノテータで正解のFAQを付与したデータを作成した.アノテータには,問い合わせに対してもっとも対応するFAQを1つ付与するよう依頼した.評価データ中に付与されたFAQの異なり数は186件となった.正解を付与した問い合わせ履歴の286件のうち,86件は開発用のデータ,残りは評価データに用いた.開発用データは,学習データ自動生成の閾値を決定するために用いた.本実験では,閾値を0から1まで0.1刻みで変えて,MRRが最も高くなる$0.4$とした.評価データは,各手法の精度評価に用いる.回答が短いFAQは,誤った問い合わせが多くペアになりうるため,文字数が10文字以下のFAQに対しては学習データの自動生成候補から除外した.また,学習データの生成後,学習データの中から評価データに含まれる問い合わせを削除した.形態素解析器,係り受け解析器にはそれぞれ,MeCab\footnote{MeCab:YetAnotherPart-of-SpeechandMorphologicalAnalyzer$\langle$https://taku910.github.io/mecab/$\rangle$(2016年5月20日アクセス)},CaboCha\footnote{CaoboCha:YetAnotherJapaneseDependencyStructureAnalyzer$\langle$https://taku910.github.io/cabocha/$\rangle$(2016年5月20日アクセス)}を用いた.システム辞書にはmecab-ipadic-NEologd\cite{sato:15}を用いた.ユーザ辞書には秘匿化で用いたタグを追加し,秘匿化した際に用いたタグが分割されないようにしている.評価尺度にはランキングの評価で用いられるMRR(MeanReciprocalRank),Precision@N(P@N)を用いた.MRRは式(\ref{eq:mrr})で表され,正解の順位$r_i$の逆数に対して平均を取った値であり,正解のFAQを1位に出力できるほど1に近い値を取り,そうでないほど0に近い値を取る.P@Nは式(\ref{eq:patn})で表され,正解が$N$位以上になる割合である.正解が$N$位以上に出力している問い合わせが多いほど1に近い値を取り,そうでないほど0に近い値を取る.{\allowdisplaybreaks\begin{gather}\textrm{MRR}=\frac{1}{N}\sum_{i=1}^{N}\frac{1}{r_i}\label{eq:mrr}\\[1ex]\textrm{P@N}=\frac{\textrm{正解がN位以上の評価データの数}}{\textrm{評価データの数}}\label{eq:patn}\end{gather}}\subsection{比較手法}tf-idf法に基づく全文検索2種類,pseudo-relevancefeedbackおよび翻訳モデルを用いる手法と比較する.全文検索にはElasticsearch\footnote{ElasticRevealingInsightsfromData(FormerlyElasticsearch)$\langle$https://www.elastic.co/jp/$\rangle$(2016年5月20日アクセス)}を用いた.索引語は形態素解析器のkuromoji\footnote{elastic/elasticsearch-analysis-kuromoji:Japanese(kuromoji)AnalysisPlugin$\langle$https://github.com/\linebreak[2]elastic/\linebreak[2]elasticsearch-analysis-kuromoji$\rangle$(2016年5月20日アクセス)}によって形態素解析をおこない,品詞で指定された条件\footnote{$\langle$https://svn.apache.org/repos/asf/lucene/dev/branches/lucene3767/solr/example/solr/conf/lang/stoptags\_\linebreak[2]ja.txt$\rangle$(2016年5月20日アクセス)}と一致しない形態素の原形とした.また,全角半角は統一し,アルファベットはすべて小文字化した.\begin{description}\item[tfidf\_FAQ]検索対象はFAQの質問および回答としてtfidfにもとづく類似度を計算する.類似度は付録\ref{ap:es}の式(\ref{eq:es-base})を用いた.\item[tfidf\_FAQ+query]\ref{sec:learn2rank}節と同じ計算式を用いた.\item[pseudo-relevancefeedback]pseudo-relevancefeedbackにはofferweight\cite{robertson:94}を用いた.offerweightは式(\ref{eq:ow})のようにして,単語$w$に対するスコアを計算する.\begin{equation}score(w)=r\log\left(\frac{(r+0.5)(N-n-R+r+0.5)}{(n-r+0.5)(R-r+0.5)}\right),\label{eq:ow}\end{equation}\item[翻訳モデル]翻訳モデルに基づく検索には,Jeonら\cite{jeon:05}の手法を用いる.この手法では入力の問い合わせ$I$を受け付け,式(\ref{eq:jeon-score})によって検索対象のFAQを,質問部分$Q$を用いてスコアリングする.\begin{equation}P(Q|I)=\prod_{w\inQ}P(w|I)\label{eq:jeon-score}\end{equation}ただし$P(w|I)$は式(\ref{eq:jeon-pwd})のように計算する.\begin{equation}P(w|I)=(1-\lambda)\sum_{t\inQ}(P_{tr}(w|t)P_{ml}(t|I))+\lambdaP_{ml}(w|C)\label{eq:jeon-pwd}\end{equation}式(\ref{eq:jeon-pwd})の$P_{tr}(w|t)$は,\ref{sec:train-data}節で生成した$D$におけるFAQの質問と問い合わせを対訳部分とみなしてGIZA++\footnote{GIZA++$\langle$http://www.statmt.org/moses/giza/GIZA++.html$\rangle$(2016年5月20日アクセス)}を使って学習した単語$w$と$t$の対応確率である.$P_{ml}(t|I)$は問い合わせ$I$における単語$t$の相対的な重要度である.本論文では文書頻度の逆数に対して対数を掛けた値を求め,問い合わせに出現する単語の値の総和で割った値とした.$C$は$D$の問い合わせの集合とした.そのため$P_{ml}(w|C)$は単語$w$の一般的な重要度を表す.Jeonらの設定に従い,$P_{tr}(w|w)=1$というヒューリスティクスを加えている.$\lambda$は$0$から$1$まで$0.1$刻みで変えて実験をおこない,開発データのMRRが最も良くなる値を用いた.\end{description}\subsection{実験結果}\subsubsection{自動生成した学習データの分析}Algorithm\ref{alg:gendata}の自動生成手法により,学習データ$D$のサイズは38,420件となった.3,185件のFAQに対して学習データを生成し,学習データが生成されていないFAQも含めて平均すると1件のFAQにつき8.03件の問い合わせを生成した.問い合わせと対応するFAQの対は自動生成するため,学習データ$D$の問い合わせとFAQが正しく対応しているとは限らない.自動生成した学習データ$D$の中からランダムに50件の事例を抽出し,問い合わせとFAQの対応が正しいかそうでないかを人手で評価した結果を表\ref{tab:human-eval-pair}に示す.おおよそ半分のデータは正解のFAQと正しい対応になっており,残りの半分は不正解のFAQと対応する.FAQの回答が短い場合には,類似する回答がされる問い合わせが多くなることがあるのと,回答の内容は同じであるが,FAQの質問と対応する問い合わせの内容が意味的に一致しないような事例がみられた.\begin{table}[b]\caption{人手によるFAQと問い合わせの対応の評価}\label{tab:human-eval-pair}\input{06table01.txt}\end{table}提案手法の文書分類器の性能はFAQに対して学習データとして生成できた問い合わせの数が影響すると想定される.FAQごとに正例として生成できた問い合わせ数を調べた.図\ref{fig:histogram-train}は評価データおよび開発データに含まれるFAQに対して生成された問い合わせ数を表すヒストグラムである.区間の幅を10とした.評価データに含まれるFAQのうち,1件も正例となる学習データが生成できなかったFAQは7件となった.\begin{figure}[t]\begin{center}\includegraphics{24-1ia6f2.eps}\end{center}\hangcaption{正例として生成された問い合わせ数ごとのFAQの度数分布.x軸はひとつのFAQに対して正例として生成された問い合わせの数で,y軸はFAQの数を表す.}\label{fig:histogram-train}\end{figure}\subsubsection{ランキングの評価}比較手法と提案手法の実験結果を表\ref{tab:compare}に示す.faq-scorerは,\ref{sec:classifier}節で作成した文書分類器の出力に応じてFAQをランキングした場合の結果である.Basefeatures\&tfidf\_FAQ+queryおよびBasefeatures\&tfidf\_FAQ+query\&faq-scorerは\ref{sec:learn2rank}節で挙げた素性を用いて学習したランキングモデルである.\begin{table}[t]\caption{評価結果}\label{tab:compare}\input{06table02.txt}\vspace{4pt}\smallpairedt-testをおこない,有意水準0.05でBasefeatures\&tfidf\_FAQ+query\&faq-scorerと有意差がある比較手法の結果に$\dagger$を付与した.\end{table}faq-scorerは比較手法よりも高いP@1となった.一方で他の評価値はtfidf\_FAQ+queryを下回った.Basefeaturesおよびtfidf\_FAQ+queryに加えてfaq-scorerを素性としてランキングモデルを学習することでどの評価値も他の比較手法より高くなったことから,文書分類器を素性として加えることで,精度改善に貢献することがわかる.\subsubsection{結果分析}正例として生成された問い合わせ数が文書分類器に及ぼす影響を調べるため,評価データに含まれるFAQを正例として生成された問い合わせ数でまとめてfaq-scorerおよびtfidf\_FAQ+queryのMRRを算出した結果を図\ref{fig:mrr-numtrain}に示す.プロットする学習データの数は25までとした.評価データの数が多くないためばらつきがみられるが,生成される学習データの数が多いFAQほど,文書分類器は正しく分類できる傾向にあることを確認できる.一方で学習データが少ないFAQに対してはtfidf\_FAQ+queryよりも誤りが多い.\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f3.eps}\end{center}\caption{評価データ中のFAQの集合を正例として生成された問い合わせ数でまとめて算出したMRR}\label{fig:mrr-numtrain}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f4.eps}\end{center}\hangcaption{Basefeatures+tfidf\_FAQ+queryのMRRの学習曲線.横軸は利用した学習データの件数を表し,縦軸はMRRを表す.}\label{fig:mrr-lr}\end{figure}提案手法に対する学習データの影響を調べるため,学習データの数を変えて実験した.Basefeatures+tfidf\_FAQ+queryのMRRの学習曲線を図\ref{fig:mrr-lr}に示す.MRRの学習曲線をプロットするために,学習データとしてFAQと問い合わせの対応を1,000件ずつ増やして文書分類器およびランキングモデルを学習している.提案手法は学習データの量に応じてMRRが向上している.表\ref{tab:human-eval-pair}が示すようなある程度ノイズを含むような学習データであっても,量を増やすことでランキングの性能向上に貢献していることがわかる.文書分類器は問い合わせに出現する単語などを素性として分類するため,問い合わせのトピックが複数存在するような場合に誤りやすいと考えられる.ただし,トピックを明示的に与えることが難しい.そこで問い合わせの単語数が長いほど複数のトピックが出現しやすいという仮定のもと,問い合わせの単語数に応じてMRRの評価値を算出する.評価データを単語数で10刻みで分割し,単語数が1から100までの問い合わせ集合に対して,Basefeatures\&faq-scorerとtfidf\_FAQについてMRRを評価した.結果を表\ref{tab:mrr_each_num_token}に示す.単語数が1から10個の問い合わせは,単語数が10個以上の問い合わせに比べてMRRが高くなる傾向にあるが分かる.このことから,単語数が多い問い合わせに対しては質問のトピックを認識するような技術が必要であるが,これは今後の課題とする.\begin{table}[t]\caption{全文検索とBasefeatures+tfidf\_FAQ+queryの単語数ごとのMRR}\label{tab:mrr_each_num_token}\input{06table03.txt}\end{table}最後に,学習結果の内容の詳細を確認するため,「○○カードを紛失・盗難・破損した場合の手続き」というFAQについて,文書分類器の学習結果の内容を調べた.大きい重みのついた素性から順に眺め,人手で選択した素性を表\ref{tab:feature}に示す.自動生成した学習データを用いることで,「磁気不良」「おとした」等のこのFAQの質問や回答には出現しない表現であるが,判別に寄与する語彙を学習していることがわかる.\begin{table}[t]\caption{FAQ「○○カードを紛失・盗難・破損した場合の手続き」の学習結果の中で重みが大きい素性}\label{tab:feature}\input{06table04.txt}\end{table}
\section{おわりに}
本論文では,FAQおよび問い合わせ履歴が持つ特徴を利用して自動生成した学習データを用いて,問い合わせを対応するFAQへ分類する文書分類器を学習し,その文書分類器の出力をランキング学習の素性として用いる手法を提案した.ある企業のFAQを用いた評価実験から,提案手法がFAQ検索の性能向上に貢献することを確認した.今後は,学習データの自動生成方法をより改善すること,さらに,より検索対象が多い場合でも同様の結果が得られるか検証したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown:93}Brown,P.~F.,Pietra,V.J.~D.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Cao,Cong,Cui,\BBA\Jensen}{Caoet~al.}{2010}]{cao:10}Cao,X.,Cong,G.,Cui,B.,\BBA\Jensen,C.~S.\BBOP2010\BBCP.\newblock\BBOQAGeneralizedFrameworkofExploringCategoryInformationforQuestionRetrievalinCommunityQuestionAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonWorldWideWeb},WWW'10,\mbox{\BPGS\201--210}.ACM.\bibitem[\protect\BCAY{Cao,Cong,Cui,Jensen,\BBA\Zhang}{Caoet~al.}{2009}]{cao:09}Cao,X.,Cong,G.,Cui,B.,Jensen,C.~S.,\BBA\Zhang,C.\BBOP2009\BBCP.\newblock\BBOQTheUseofCategorizationInformationinLanguageModelsforQuestionRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement},CIKM'09,\mbox{\BPGS\265--274}.ACM.\bibitem[\protect\BCAY{Crammer,Kulesza,\BBA\Dredze}{Crammeret~al.}{2009}]{koby:09}Crammer,K.,Kulesza,A.,\BBA\Dredze,M.\BBOP2009\BBCP.\newblock\BBOQAdaptiveRegularizationofWeightVectors.\BBCQ\\newblockInBengio,Y.,Schuurmans,D.,Lafferty,J.~D.,Williams,C.K.~I.,\BBA\Culotta,A.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems22},\mbox{\BPGS\414--422}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Jeon,Croft,\BBA\Lee}{Jeonet~al.}{2005}]{jeon:05}Jeon,J.,Croft,W.~B.,\BBA\Lee,J.~H.\BBOP2005\BBCP.\newblock\BBOQFindingSimilarQuestionsinLargeQuestionandAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe14thACMInternationalConferenceonInformationandKnowledgeManagement},CIKM'05,\mbox{\BPGS\84--90}.ACM.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims:02}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesUsingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},KDD'02,\mbox{\BPGS\133--142}.ACM.\bibitem[\protect\BCAY{Riezler,Vasserman,Tsochantaridis,Mittal,\BBA\Liu}{Riezleret~al.}{2007}]{riezler:07}Riezler,S.,Vasserman,A.,Tsochantaridis,I.,Mittal,V.,\BBA\Liu,Y.\BBOP2007\BBCP.\newblock\BBOQStatisticalMachineTranslationforQueryExpansioninAnswerRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\464--471}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Robertson\BBA\Jones}{Robertson\BBA\Jones}{1994}]{robertson:94}Robertson,S.~E.\BBACOMMA\\BBA\Jones,K.~S.\BBOP1994\BBCP.\newblock\BBOQSimple,ProvenApproachestoTextRetrieval.\BBCQ\\newblock\BTR\TechnicalReportNo.356.\bibitem[\protect\BCAY{Sato}{Sato}{2015}]{sato:15}Sato,T.\BBOP2015\BBCP.\newblock\BBOQNeologismDictionarybasedontheLanguageResourcesontheWebforMeCab.\BBCQ\\texttt{https://github.com/neologd/mecab-ipadic-neologd}.\bibitem[\protect\BCAY{Sculley}{Sculley}{2009}]{sculley:09}Sculley,D.\BBOP2009\BBCP.\newblock\BBOQLargeScaleLearningtoRank.\BBCQ\\newblockIn{\BemNIPSWorkshoponAdvancesinRanking}.\bibitem[\protect\BCAY{Singh}{Singh}{2012}]{singh:12}Singh,A.\BBOP2012\BBCP.\newblock\BBOQEntitybasedQ\&ARetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1266--1277}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Soricut\BBA\Brill}{Soricut\BBA\Brill}{2004}]{soricut:04}Soricut,R.\BBACOMMA\\BBA\Brill,E.\BBOP2004\BBCP.\newblock\BBOQAutomaticQuestionAnsweringUsingtheWeb:BeyondtheFactoid.\BBCQ\\newblockInSusan~Dumais,D.~M.\BBACOMMA\\BBA\Roukos,S.\BEDS,{\BemHLT-NAACL2004:MainProceedings},\mbox{\BPGS\57--64}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Wang,Wan,Zhang,\BBA\Hoi}{Wanget~al.}{2015}]{wang:15}Wang,J.,Wan,J.,Zhang,Y.,\BBA\Hoi,S.\BBOP2015\BBCP.\newblock\BBOQSOLAR:ScalableOnlineLearningAlgorithmsforRanking.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1692--1701}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Xue,Jeon,\BBA\Croft}{Xueet~al.}{2008}]{xue:08}Xue,X.,Jeon,J.,\BBA\Croft,W.~B.\BBOP2008\BBCP.\newblock\BBOQRetrievalModelsforQuestionandAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},SIGIR'08,\mbox{\BPGS\475--482}.ACM.\bibitem[\protect\BCAY{Zhou,Liu,Liu,Zeng,\BBA\Zhao}{Zhouet~al.}{2013}]{zhou:13}Zhou,G.,Liu,Y.,Liu,F.,Zeng,D.,\BBA\Zhao,J.\BBOP2013\BBCP.\newblock\BBOQImprovingQuestionRetrievalinCommunityQuestionAnsweringUsingWorldKnowledge.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalJointConferenceonArtificialIntelligence},IJCAI'13,\mbox{\BPGS\2239--2245}.AAAIPress.\end{thebibliography}\appendix
\section{Elasticsearchで利用したtfidfスコアの計算式}
label{ap:es}本論文でElasticsearchを利用したFAQのスコア計算は2種類ある.1つはFAQの質問と回答を利用する場合で,もう1つはFAQの質問と回答および$D$中のそのFAQに対して生成された学習データを利用する場合である.FAQが質問$Q$,回答$A$とフィールドを分けて索引付けしている場合,問い合わせ$I$を入力としたときのFAQのスコアは次のように計算する.\pagebreak\begin{equation}\textrm{score}(Q,A,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I)),\label{eq:es-base}\end{equation}この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高いスコアとなる.FAQが質問$Q$,回答$A$に加えて,$D$中でそのFAQに対して生成された学習データ$\{I'_l\}_{l=1}^L$と3つのフィールドで索引付けしている場合,問い合わせ$I$に対するFAQのスコアを次のように計算する.\begin{equation}\textrm{score}(Q,A,\{I'_l\}_{l=1}^L,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I))+\max_{{I'}_{l}}\textrm{tfidf\_sim}(I,I'_l),\label{eq:es}\end{equation}この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高く,さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在するFAQに対して高いスコアとなる.質問,回答,学習データなどの検索対象を$T$,$T$の索引語の数を$|T|$,$T$の索引語と一致する問い合わせ中の名詞,動詞,形容詞からなる単語集合を$\{i_s\}_{s=1}^{S}$とすると,以下のようにtfidfに基づく類似度を次のように設定した.\begin{equation}\textrm{tfidf\_sim}(T,I)=\textrm{coord}\sum_{s=1}^S(\textrm{tf}(i_s)\cdot\textrm{idf}(i_s)^2\cdot\textrm{fieldNorm}),\nonumber\end{equation}ただし,\begin{align*}\textrm{coord}&=\frac{S}{|I|},\\\textrm{fieldNorm}&=\frac{1}{|T|},\end{align*}とする.coordは$T$がより多くの単語を含んでいる検索クエリを含んでいるほど高い値を取る.fieldNormは$T$の索引語の数$|T|$が大きいほど小さい値を取る.\begin{biography}\bioauthor{牧野拓哉}{2012年東京工業大学総合理工学研究科物理情報システム専攻修士課程修了.同年,(株)富士通研究所入社.自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{野呂智哉}{2002年東京工業大学大学院情報理工学研究科計算工学専攻修士課程修了.2005年同専攻博士課程修了.同専攻助手,助教を経て,2015年(株)富士通研究所入社.現在に至る.博士(工学).自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{岩倉友哉}{2003年(株)富士通研究所入社.2011年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了.博士(工学).現在,(株)富士通研究所主任研究員.自然言語処理の研究開発に従事.情報処理学会,言語処理学会会員.}\end{biography}\biodate\end{document}
| |
V06N01-03
|
\section{はじめに}
\label{sec:introduction}電子化テキストの急増などに伴い,近年,テキストから要点を抜き出す重要文選択技術の必要性が高まってきている.このような要請に現状の技術レベルで応えるためには,表層的な情報を有効に利用することが必要である.これまでに提案されている表層情報に基づく手法では,文の重要度の評価が主に,1)文に占める重要語の割合,2)段落の冒頭,末尾などのテキスト中での文の出現位置,3)事実を述べた文,書き手の見解を述べた文などの文種,4)あらかじめ用意したテンプレートとの類似性などの評価基準のいずれか,またはこれらを組み合わせた基準に基づいて行なわれる\cite{Luhn58,Edmundson69,Kita87,Suzuki88,Mase89,Salton94,Brandow95,Matsuo95,Sato95,Yamamoto95,Watanabe96,Zechner96,FukumotoF97,Nakao97}.本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて文の重要度を決定する手法を提案する.提案する手法では文の重要度に関して次の仮定を置く.\begin{enumerate}\item表題はテキスト中で最も重要な文である.\item重要な文とのつながりが強ければ強いほど,その文は重要である.\end{enumerate}表題はテキストの最も重要な情報を伝える表現であるため,それだけで最も簡潔な抄録になりえるが,多くの場合それだけでは情報量が十分でない.従って,不足情報を補う文を選び出すことが必要となるが,そのような文は,表題への直接的なつながりまたは他の文を介しての間接的なつながりが強い文であると考えられる.このような考え方に基づいて,文から表題へのつながりの強さをその文の重要度とする.文と文のつながりの強さを評価するために次の二つの現象に着目する.\begin{enumerate}\item人称代名詞と先行(代)名詞の前方照応\item同一辞書見出し語による語彙的なつながり\end{enumerate}重要文を選択するために文間のつながりを解析する従来の手法としては,1)接続表現を手がかりとして修辞構造を解析し,その結果に基づいて文の重要度を評価する手法\cite{Mase89,Ono94}や,2)本稿と同じく,語彙的なつながりに着目した手法\cite{Hoey91,Collier94,FukumotoJ97,Sasaki93}がある.文と文をつなぐ言語的手段には,照応,代用,省略,接続表現の使用,語彙的なつながりがある\cite{Halliday76,Jelinek95}が,接続表現の使用頻度はあまり高くない\footnote{文献\cite{Halliday76}で調査された七編のテキストでは,照応,代用,省略,接続表現の使用,語彙的なつながりの割合は,それぞれ,32\%,4\%,10\%,12\%,42\%である\cite{Hoey91}.}.このため,前者の手法には,接続表現だけでは文間のつながりを解析するための手がかりとしては十分でないという問題点がある.後者の手法では,使用頻度が比較的高い照応を手がかりとして利用していない.
\section{テキストの結束を維持する手段}
\label{sec:coherence}適格なテキストでは通常,文と文の間につながりがある.二つの文をつなぐ言語的手段のうち照応と語彙的なつながりは,他の結束維持手段よりも頻繁に見られる.照応は,二つのテキスト構成要素が一つの事象に言及することによってテキストの結束を生む手段である.前方照応では,ある要素の解釈が,テキスト中でその要素より前方に現れる先行要素に依存して決まる.ある要素$Y$とその先行要素$X$の間で照応が成り立つためには,1)$Y$は$X$を縮約した言語形式であり,2)$Y$の意味と$X$の意味は矛盾してはならない\cite{Jelinek95}.例えば,代名詞は名詞句を,名詞句は分詞節を,分詞節は文をそれぞれ縮約した言語形式である.次のテキスト\ref{TEXT:dismiss}\,では斜体の表現の意味は互いに矛盾しないので,それらはいずれも同一事象を指しているとみなせる.\begin{TEXT}\text{\itTheSovietNationalEmergencyCommitteedismissedPresidentGorbachovfromoffice.}Aswellas{\itdismissingthePresident},theCommitteeembarkeduponchoosinghisreplacement.{\itGorbachov'sdismissal}isboundtoputWesternpoliciesvis-a-vistheSovietUnionintogreatturmoil.{\itIt}willhavegraverepercussionsontheexchangerates.\label{TEXT:dismiss}\end{TEXT}語彙的なつながりでは,照応と異なり,二つのテキスト構成要素が同一事象に言及しているとは限らない\cite{Halliday76}.次のテキスト\ref{TEXT:boy_same}\,では第二文の``boy''は先行文の``boy''と同じ少年に言及しているが,テキスト\ref{TEXT:boy_exclude}\,では別の少年に言及している.\begin{TEXT}\textThere'sa{\itboy}climbingthattree.The{\itboy}'sgoingtofallifhedoesn'ttakecare.\label{TEXT:boy_same}\textThere'sa{\itboy}climbingthattree.Andthere'sanother{\itboy}standingunderneath.\label{TEXT:boy_exclude}\end{TEXT}テキスト\ref{TEXT:boy_same}\,と\ref{TEXT:boy_exclude}\,では同一辞書見出し語が繰り返されているが,類義語や上位概念語などの使用によって語彙的なつながりが生じることもある.次のテキスト\ref{TEXT:boy_lad}\,では``boy''の類義語``lad''が用いられている.\begin{TEXT}\textThere'sa{\itboy}climbingthattree.The{\itlad}'sgoingtofallifhedoesn'ttakecare.\label{TEXT:boy_lad}\end{TEXT}\vspace{-3mm}
\section{文の重要度の評価}
\label{sec:importance}\subsection{テキスト構造と文の重要度に関する仮定}\label{sec:importance:assumption}本稿では,テキストを構成する文$S_1,S_2,\cdots,S_n$の間で次の条件が成り立つと仮定する.\begin{enumerate}\item冒頭文$S_1$はどの文にもつながらない.\item$S_1$以外の各文$S_j$について,$S_j$が直接つながる先行文$S_i(i<j)$が唯一つ存在する.\end{enumerate}この仮定は,二つの文(の構成要素)のつながりに,後続文(の構成要素)から先行文(の構成要素)への方向性があることを意味する.この方向性に対する反例として後方照応\cite{Hirst81}があるが,後方照応が用いられることは希である\footnote{提案手法の開発に際して訓練用に用いた英文テキスト20編では,代名詞による照応のうち後方照応は3\%に満たなかった.}.また,この仮定に従えば,文が同時に複数の先行文に直接つながることはないので,テキスト構造は,図\ref{fig:texttree}\,に示すように,冒頭文$S_1$を根節点とする木で表される.\begin{figure}[htbp]\begin{center}\epsfile{file=texttree.eps,width=0.7\columnwidth}\end{center}\caption{文の重要度の評価}\label{fig:texttree}\end{figure}\ref{sec:introduction}\,節で述べたように,本稿では,文の重要度の評価を,1)表題はテキスト中で最も重要な文であり,2)重要な文へのつながりが強い文ほど重要な文であるという仮定に基づいて行なう.この仮定は次のように具体化できる.\begin{enumerate}\itemテキストの冒頭文$S_1$は,多くの場合,そのテキストの表題であるので,$S_1$にはテキスト全体で最大の重要度を与える.\item冒頭文$S_1$以外の文$S_j$の重要度は$S_j$から先行文$S_i$へのつながりの強さ(関連度)と$S_i$の重要度によって決まると考え,文$S_j$の重要度を求める式を次のように定める.\begin{equation}S_jの重要度=\max_{i<j}\{S_iの重要度\timesS_iとS_jの関連度\}\label{eq:importance}\end{equation}\end{enumerate}文の重要度を(\ref{eq:importance})式で求めることにすると,テキストの冒頭から順に処理を行なっていけば,テキストを構成する文すべての重要度が決定できるが,そのためには,二つの文の関連度をどのようにして求めるかを定めなければならない.\subsection{二文間の関連度の評価}\label{sec:importance:relevance}提案手法への入力はテキストの形態素解析結果である.形態素解析によってテキスト中の各語の辞書見出し語と品詞が得られる.今回利用した形態素解析系からの出力では品詞は一意に決定されている.以降,品詞が名詞,人称代名詞,動詞,形容詞,副詞のいずれかである辞書見出し語を重要語と呼ぶ.文$S_j$の先行文$S_i$へのつながりの強さ(関連度)を求める式を次のように定める.\begin{equation}S_iとS_jの関連度=\frac{S_j中の重要語のうちS_iの題述中の重要語につながるものの重みの和}{S_iの題述中の重要語の数}\label{eq:relevance}\end{equation}(\ref{eq:relevance})式の意味は\ref{sec:importance:relevance:anaphora}\,節以降で説明する.二つの重要語の間につながりがあるかどうかの判定は,人称代名詞と先行(代)名詞の前方照応を検出すること(\ref{sec:importance:relevance:anaphora}\,節)と,同一辞書見出し語による語彙的なつながりを検出すること(\ref{sec:importance:relevance:lexical}\,節)によって行なう.重要語への重み付けについては\ref{sec:importance:relevance:title_weight}\,節で述べ,本稿でいう文の題述(rheme)の定義は\ref{sec:importance:relevance:rheme}\,節で与える.\vspace{-1mm}\subsubsection{人称代名詞と先行(代)名詞の照応の検出}\label{sec:importance:relevance:anaphora}\vspace{-1mm}人称代名詞と先行名詞または先行代名詞との照応を検出するためには,両者の人称,性,数,意味素性をそれぞれ照合する必要がある.しかし,今回は,名詞の性と意味素性が記述されていない辞書を用いたので,照応の検出は両者の人称,数をそれぞれ照合することによって行なった.しばしば指摘されるように,代名詞との間で照応が成り立つ先行(代)名詞は,その代名詞を含む文$S_j$あるいは$S_j$の直前の文$S_{j-1}$に現れることが多い\footnote{訓練テキスト20編では,人称代名詞による前方照応のうち96\%がこのような事例であった.}ので,先行(代)名詞の検索対象文を$S_j$と$S_{j-1}$に限定する.検索は$S_j$,$S_{j-1}$の順で行ない,$S_j$中の(代)名詞との照合が成功した場合は,$S_{j-1}$に対する処理は行なわない.\vspace{-1mm}\subsubsection{重要語の語彙的なつながりの検出}\label{sec:importance:relevance:lexical}\vspace{-1mm}二つの文に現れる重要語が文字列として一致するとき,両者の間に語彙的なつながりがあるとみなす.ここでは,\ref{sec:coherence}\,節で述べたような,二つの語が同一事象に言及しているかどうかの区別は行なわない.文字列照合において,照合対象が両方とも単語である場合は,二つの重要語が完全に文字列一致したときに限り照合成功とみなすが,照合対象の両方またはいずれか一方が辞書に登録されている連語である場合は,両者が前方一致または後方一致したときも照合成功とみなす.例えば,``putpressureon''と``put''は前方一致で,``cabinetmeeting''と``meeting''は後方一致で照合が成功する.二つの文がある一定の距離以上離れていると,それらに含まれる重要語の文字列照合が成功しても二つの文の間に直接的なつながりはないと考えられる.このため,二文間の距離に関して制限を設ける.提案手法を開発する際に訓練用として用いた英文テキスト20編において,文字列照合が成功する重要語(人称代名詞は除く)を含む二つの文の間の距離と,その重要語が二つの文を直接つなぐ役割を実際に果たしているかどうかとの関連を調べた結果に基づいて,処理対象範囲を文$S_j$から五文前までの先行文$S_i(j-5\lei<j)$とする.直観的には,単に処理対象範囲を制限するだけでなく,文字列照合が成功する重要語を含む二文間の距離に応じて照合結果に重み付けを行なう方が自然かもしれない.このため,訓練テキストを対象とした実験において,文$S_j$から五文前までの先行文$S_i$の範囲で,二つの文の距離が離れるにつれてつながりの強さが弱まるように重み付けを試みた.しかし,重み付けを行なわない場合の再現率と適合率を上回る結果は得られなかった.このため,本稿では処理範囲を制限するに留める.\vspace{-1mm}\subsubsection{表題語への重み付け}\label{sec:importance:relevance:title_weight}\vspace{-1mm}テキストの表題中に現れる重要語(以降,表題語と呼ぶ)は,そのテキストにおいて重要な情報を伝えると考えられる.従って,表題語を含む文の重要度を大きくするために,他の重要語に与える重みの値よりも大きな値を与えること\cite{Edmundson69,Mase89,Watanabe96}が適切である.本稿では,表題語への重み付けを行なう際にテキスト中での表題語の出現頻度を考慮する.すなわち次のような仮定を置く.\begin{quote}表題語を含む文の重要性は,表題語がテキスト中に頻繁に現れる場合は,表題語を含まない文の重要性に比べて特に高いわけではないが,表題語がテキスト中に希にしか現れない場合には,表題語を含まない文に比べて特に高くなる.\end{quote}訓練テキスト20編を分析した結果に基づいて,表題語を含む文の数がテキストの総文数の$1/4$以下である場合に限り,表題語の重みを$w(>1)$とする.表題語以外の重要語の重みは常に1とする.\[重要語kwの重み=\left\{\begin{array}{lp{0.6\columnwidth}}w(>1)&$kw$が表題語であり,かつ$kw$を含む文の数が総文数の1/4以下の場合\\1&その他\end{array}\right.\]重み$w$の具体的な値は,訓練テキストを対象とした実験で再現率と適合率ができるだけ高くなるように調整し,最終的に$w=5$とした.\vspace{-1mm}\subsubsection{先行文の題述へのつながり}\label{sec:importance:relevance:rheme}テキストは,通常,先行文$S_i$における題述(rheme)が文$S_j$においてその主題(theme)として受け継がれ,それに新たな情報が付け加わるという形で展開する\cite{Givon79}.従って,文$S_j$の先行文$S_i$へのつながりの強さの評価を,$S_j$が$S_i$の題述をどれだけ多く主題として受け継いでいるかに基づいて行なう.主題と題述は,文の前半部分が主題,後半部分が題述というように文中の位置で区別されることが多い\cite{Fukuchi85}が,本稿では,文中の位置ではなく,関連文とのつながりに基づいて区別する.ここで,$S_j$の関連文とは,\ref{sec:importance:assumption}\,節の(\ref{eq:importance})式において,\{$S_i$の重要度$\times$$S_i$と$S_j$の関連度\}の値が最大となるときの先行文$S_i$を意味する.この値を最大にする先行文が複数存在する場合は,$S_j$との距離が最も近いものを関連文と呼ぶ.関連文とのつながりに基づいて主題と題述を次のように定める.\begin{quote}文$S_j$の主題は,$S_j$中の重要語のうち$S_j$の関連文中の重要語につながるものから構成され,文$S_j$の題述は,つながらない重要語から構成される.ただし,関連文を持たない冒頭文$S_1$では,それに含まれる重要語すべてが題述を構成する.\end{quote}例えば,図\ref{fig:texttree}\,において,括弧\{と\}で括った英大文字を各文に現れる重要語とすると,各文の主題と題述は表\ref{tab:theme-rheme}\,のように分けられる.\begin{table}[htbp]\caption{図\protect\ref{fig:texttree}\,の各文の主題と題述}\label{tab:theme-rheme}\begin{center}\begin{tabular}{|c||c|l|l|}\hline文&関連文&\multicolumn{1}{|c}{主題}&\multicolumn{1}{|c|}{題述}\\\hline\hline$S_1$&---&\multicolumn{1}{c|}{---}&A,B,C\\$S_2$&$S_1$&A&D,E\\$S_3$&$S_2$&A,D,E&F\\$S_4$&$S_1$&B,C&G\\:&:&\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}\\$S_{j-1}$&$S_2$&D&H\\\hline\end{tabular}\end{center}\end{table}\subsection{重要文選択手順と処理例}\label{sec:importance:algorithm}\ref{sec:importance:assumption}\,節と\ref{sec:importance:relevance}\,節で述べた考え方に従って重要文を選ぶ処理は図\ref{fig:algorithm}\,のようにまとめられる.\begin{figure}[htbp]\samepage\begin{center}\fbox{\begin{minipage}{0.9\columnwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGO}\step入力を形態素解析する.\step表題語への重み付け処理を行なう.\step冒頭文$S_1$の重要度を次式で求める.\[S_1の重要度=\frac{S_1中の重要語の重みの和}{S_1の重要語の数}\]\label{ALGO:init}\step各文$S_j(j=2,3,\cdots,n)$について,$S_j$から五文前までの先行文$S_i$の範囲$(j-5\lei<j)$で,\ref{sec:importance:assumption}\,節の(\ref{eq:importance})式と\ref{sec:importance:relevance}\,節の(\ref{eq:relevance})式に従って重要度を求める.\stepあらかじめ定められた数だけ文を重要度の順に選択し,それらをテキストでの出現順に出力する.\end{ALGO}\vspace*{0.5em}\end{minipage}}\end{center}\caption{重要文選択手順}\label{fig:algorithm}\end{figure}例として,図\ref{fig:example}\,のテキストを処理して得られる結果を表\ref{tab:example_result}\,に示す.このテキストでは,表題語``amorphous'',``Si'',``TFT''を含む文はそれぞれ三文,三文,五文存在し\footnote{表題も含めて数えている.},いずれもテキスト総文数10文の$1/4$を越えるので,表題語への重み付けは行なわれない.表\ref{tab:example_result}\,の「つながり語」欄に現れる記号$\phi$は,先行文の題述中の重要語につながる重要語が存在しなかったことを意味する.このテキストからは,文選択率が25\%に設定されているとき,表題$S_1$,$S_1$につながる文$S_4$,$S_4$につながる文$S_6$の三文が重要文として選び出される.\begin{figure}[htbp]\samepage\begin{center}\fbox{\begin{minipage}{0.9\columnwidth}\vspace*{0.5em}\small{\begin{NEWS}\item[$S_1$]AmorphousSiTFT\item[$S_2$]ActivematrixLCDswhicharetypicallyusedinproductssuchasLCDcolorTVsarecontrolledbyaswitchingelementknownasathin-filmtransistororthin-filmdiodeplacedateachpixel.\item[$S_3$]Thefundamentalconceptwasrevealedin1961byRCAofAmerica,aU.S.company,butbasicresearchonlybeganinthe1970's.\item[$S_4$]AmorphousSiTFTLCDsintroducedin1979and1980havebecomethemainstreamfortoday'sactivematrixdisplays.\item[$S_5$]Theseunitsplaceanactiveelementateachpixel,andtakingadvantageofthenon-linearityoftheactiveelement,areabletoapplysufficientdrive-voltagemargintotheliquidcrystalitself,evenwiththeincreaseinthenumberofscanlines.\item[$S_6$]AsshowninFigure1,TFTLCDsthatuseamorphousSithin-filmtransistors(TFTs)astheactiveelementsarebecomingthemainstreamtoday,andfull-colordisplaysachievingcontrastratiosof100:1andwhichcomparefavorablytoCRTsarebeingdeveloped.\item[$S_7$]ThedriverelectronicsforTFTLCDsconsistofdata-linedrivecircuitrythatappliesdisplaysignalstothedatalines(sourcedrivers)andscanninglinedrivecircuitrythatappliesscanningsignalstothegatelines(gatedrivers).\item[$S_8$]Asignalcontrolcircuittocontroltheseoperationsandapowersupplycircuitcompletethesystem.\item[$S_9$]LiquidcrystalmaterialsusedinTFTLCDsareTN(twistednematic)liquidcrystals,butdespitethefactthatpixelcountshaveincreasedandadriveelementisplacedateachpixel,wehavestillbeenabletorapidlyincreasethecontrast,viewingangle,andimagequalityofthesedisplays.\item[$S_{10}$]However,manufacturingtechnologiestofabricateseveralhundredthousandsuchelementsontothesurfaceofalargescreenareextremelyproblematic,andthefundamentalapproachdevelopedin1987isstillbeingusedtoday.\end{NEWS}}\vspace*{0.5em}\end{minipage}}\end{center}\caption{テキスト例}\label{fig:example}\end{figure}\begin{table}[htbp]\caption{図\protect\ref{fig:example}\,のテキストに対する処理結果}\label{tab:example_result}\begin{center}\small{\begin{tabular}{|c||c|l|c|c|c|}\hline文&関連文&\multicolumn{1}{|c|}{つながり語}&関連度&重要度&選択順位\\\hline\hline$S_1$&---&\multicolumn{1}{|c|}{---}&---&1&1\\$S_2$&---&$\phi$&0&0&---\\$S_3$&---&$\phi$&0&0&---\\$S_4$&$S_1$&amorphous,Si,TFT&3/3&1&2\\$S_5$&$S_4$&active&1/9&1/9&7\\$S_6$&$S_4$&LCD,active,become,mainstream,today,display&6/9&2/3&3\\$S_7$&$S_4$&LCD,display&2/9&2/9&4\\$S_8$&$S_7$&signal&1/13&2/117&8\\$S_9$&$S_4$&LCD,display&2/9&2/9&5\\$S_{10}$&$S_6$&element,develop,use&3/16&1/8&6\\\hline\end{tabular}}\end{center}\end{table}
\section{実験と考察}
\label{sec:experiment}重要文選択実験には英文報道記事100編を用いた.100編のテキストを訓練用の20編と試験用の80編に分けた.まず,訓練テキスト20編を対象として実験を繰り返し,再現率と適合率ができるだけ高くなるように,\ref{sec:importance:relevance:title_weight}\,節で述べた表題語の重みを調整した.次に,訓練テキストを対象とした実験で最も高い再現率と適合率が得られた設定で,試験テキスト80編を対象として実験を行なった.テキストの総文数は,訓練テキストの場合,最も短いもので15文,最も長いもので36文,一テキスト当たりの平均では26.2文であり,試験テキストの場合,それぞれ12文,64文,29.0文であった.各テキストについて,第三者(一名)によって重要と判断された文を,選択すべき正解文とした.人手による正解文の選択では,システムが行なっているような各文についての選択順位付けは行なわず,テキスト中の各文についてそれが重要な文であるかそうでないかを判断するに留めた.正解文の数は,訓練テキストの場合,平均で元テキストの総文数の20.8\%であり,試験テキストの場合17.9\%であった.\subsection{訓練テキストでの実験結果}\ref{sec:importance:relevance:title_weight}\,節で述べた表題語への重み付けに関して次のような三種類の設定で,各訓練テキストについて正解文と同じ数だけ文を選択した場合の平均精度(再現率と適合率は同じ値となる)を表\ref{tab:training}\,に示す.\begin{CONFIG}\config表題語を含む文の数がテキスト総文数の$1/4$以下である場合に限り,表題語の重みを5とする.表題語以外の重要語の重みは1とする.\label{CONFIG:freq}\config表題語の重みをその出現頻度に関係なく常に5とする.表題語以外の重要語の重みは1とする.\label{CONFIG:always}\config表題語の重みを他の重要語の重みと同じ1とする.\label{CONFIG:none}\end{CONFIG}\newpage\begin{table}[htbp]\caption{訓練テキスト20編での実験結果}\label{tab:training}\begin{center}\begin{tabular}{|c||c|c|c|}\hline設定&\ref{CONFIG:freq}&\ref{CONFIG:always}&\ref{CONFIG:none}\\\hline\hline精度&71.0\%&70.0\%&62.5\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:training}\,によれば,設定\ref{CONFIG:freq}\,での精度が最も高くなっており,\ref{sec:importance:relevance:title_weight}\,節で示した,出現頻度を考慮した表題語への重み付けが有効であることがわかる.\subsection{試験テキストでの実験結果}訓練テキストを対象とした実験で最も高い再現率と適合率が得られた設定で,80編の各試験テキストについて正解文と同じ数だけ文を選択した場合の精度は,平均で72.3\%であった.各テキストごとの精度分布を図\ref{fig:distri}\,に示す.\begin{figure}[htbp]\begin{center}\input{distri.tex}\end{center}\caption{提案手法による精度分布}\label{fig:distri}\end{figure}文選択率を5\%から100\%まで五刻みで変化させたときの平均再現率と平均適合率の変化の様子を図\ref{fig:rec_pre}\,に示す.図\ref{fig:rec_pre}\,には,精度比較のために実装した重要語密度法による実験結果を併せて示す.重要語密度法に関して改良手法が提案されている\cite{Suzuki88}が,ここでは次式で文$S$の重要度を評価した.\[文Sの重要度=\frac{文S中の各重要語のテキスト全体での出現頻度の和}{文S中の重要語の数}\]図\ref{fig:rec_pre}\,によれば,一般的な抄録において適切な文選択率であるとされる20\%から30\%までの付近で,特に,提案手法の精度が重要語密度法の精度を大きく上回っている.\begin{figure}[htbp]\begin{center}\input{denst_source.tex}\end{center}\caption{提案手法と重要語密度法の精度比較}\label{fig:rec_pre}\end{figure}提案手法の精度と,インターネット上で試用可能なシステムAと,市販されている三つのシステムB,C,Dの精度を比較した.それぞれの平均再現率と平均適合率を表\ref{tab:comparison}\,に示す.システムA,B,C,Dの文選択率は,各システムの既定状態で選ばれた文の数とテキストの総文数から逆算したものである.提案手法の文選択率は,四システムの文選択率とほぼ同じである25\%とした.表\ref{tab:comparison}\,によれば,一般ユーザに利用されている実動システムの精度を提案手法の精度が上回っており,提案手法の実用的な抄録システムとしての有効性が示されている.\begin{table}[htbp]\caption{提案手法と他の実動システムの精度比較}\label{tab:comparison}\begin{center}\begin{tabular}{|c||r|r|r|}\hline&\multicolumn{1}{c}{再現率}&\multicolumn{1}{|c|}{適合率}&\multicolumn{1}{|c|}{文選択率}\\\hline\hline提案手法&78.2\%&57.7\%&25\%\\%\hlineシステムA&72.3\%&52.6\%&26\%\\%\hlineシステムB&61.7\%&39.5\%&29\%\\%\hlineシステムC&61.4\%&40.9\%&29\%\\%\hlineシステムD&57.5\%&42.2\%&27\%\\\hline\end{tabular}\end{center}\end{table}\subsection{考察}\label{sec:experiment:discussion}提案手法によって正解文に与えられた重要度が小さく,正解文が選択されなかった原因を分析した.ここでは代表的な原因を二つ挙げる.一つは,辞書見出し語の文字列照合では,語彙的なつながりが捉えられなかったことである.あるテキストでは,``shooting''と``gunfire''の類義関係が把握できないため,``gunfire''を含む正解文はどの先行文にもつながらないとみなされ,重要文として選択できなかった.このような語彙的なつながりを捉えるためにはシソーラスが必要となるが,他のテキストでは,辞書見出し語の文字列照合の代わりに語基(base)の文字列照合を行なえば,つながりが捉えられる可能性もあった.例えば,``announce''と``announcement''は,辞書見出し語としては異なるが語基は同一であるので,文字列照合が成功するだろう.本研究では,一般ユーザに利用される実動システムへの組み込みを前提として,高速な処理を実現することを目標の一つとした.実動システムでは,プロトタイプシステムと異なり,重要文選択の精度と共に処理速度も重要視される.シソーラスの検索に比べて,文字列照合は処理効率の点で有利である.正解文に十分大きい重要度が与えられなかったもう一つの原因は,テキストが複数のサブトピックから構成されていることであった.一般に,トピックが切り替わると,それまでとは異なった語彙が用いられるようになる.このため,提案手法のように同一辞書見出し語による語彙的なつながり(と人称代名詞による前方照応)に基づいて文と文のつながりを評価する手法では,トピックが切り替わる文から先行文へのつながりが弱いと判定され,トピック切り替わり文に対して与えられる重要度は小さくなる.従って,トピック切り替わり文が正解文であるようなテキストでは,高い精度を得ることが難しくなる.
\section{おわりに}
本稿では,人称代名詞による前方照応と,同一辞書見出し語による語彙的なつながりを検出することによって,テキストを構成する各文と表題との直接的なつながりまたは他の文を介しての間接的なつながりの強さを評価し,その強さに基づいて各文の重要度を決定する手法を提案した.平均で29.0文から成る英文テキスト80編を対象とした実験では,文選択率を25\%に設定したとき,再現率78.2\%,適合率57.7\%の精度を得,提案手法が比較的短いテキストに対して有効であることを確認した.複数のサブトピックから成るような比較的長いテキストの扱いは今後の課題である.同一辞書見出し語の出現頻度と出現分布を利用してトピックの切り替わりを検出し\cite{Hearst97},各サブトピックごとに提案手法を適用すると,長いテキストに対してどの程度の精度が得られるかを今後検証したい.\bibliographystyle{jnlpbbl}\bibliography{v06n1_03}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)ソフト事業推進センターにて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{奥西稔幸}{1984年大阪大学基礎工学部情報工学科卒業.同年シャープ(株)に入社.1985〜89年(財)新世代コンピュータ技術開発機構に出向.現在,同社情報システム事業本部ソフト事業推進センターに勤務.機械翻訳システムの研究開発に従事.}\bioauthor{山路孝浩}{1990年大阪市立大学理学部数学科修士課程修了.同年シャープ(株)に入社.1993〜95年(財)新世代コンピュータ技術開発機構に出向.現在,同社OAシステム事業部においてワープロの開発に携わる.}\bioauthor{福持陽士}{1982年インディアナ大学言語学部応用言語学科修士課程修了.翌年,シャープ(株)に入社.現在,情報システム事業本部ソフト事業推進センター副参事.機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N03-03
|
\section{はじめに}
日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる.
\section{センター試験『国語』と傍線部問題}
\begin{table}[b]\caption{センター試験『国語』の大問構成—出典\protect\cite{Kakomon2014}}\label{table:questions}\input{1001table01.txt}\vspace{-0.5\Cvs}\end{table}大学入試センター試験の『国語』では,毎年,大問4題が出題される\cite{Kakomon2014}.その大問構成を表\ref{table:questions}に示す.この表に示すように,現代文に関する出題は,第1問の「評論」と第2問の「小説」であり,『国語』の半分を占めている.第1問の「評論」は,何らかの評論から抜き出された文章(本文)と,それに対する6問の設問から構成される.6問の内訳は,通常,以下のようになっている.\begin{description}\item[問1]漢字の書き取り問題が5つ出題される.\item[問2--問5]本文中の傍線部について,その内容や理由が問われる.\item[問6]本文全体にかかわる問題で,2006年以降は本文の論の進め方や本文の構成上の特徴などが問われる.\end{description}一方,第2問の「小説」は,何らかの小説から抜き出された文章(本文)と,それに対する\mbox{6問}の設問から構成される.6問の内訳は,通常,以下のようになっている.\begin{description}\item[問1]語句の意味内容を問う問題が3つ出題される.\item[問2--問5]本文中の傍線部を参照し,登場人物の心情・人物像・行動の理由などが説明問題の形で問われる.\item[問6]本文全体の趣旨や作者の意図,表現上の特徴などが問われる.\end{description}\begin{figure}[b]\begin{center}\includegraphics{21-3ia1001f1.eps}\end{center}\caption{傍線部問題の例(2011年度本試験第1問の問5(2011M-E5))}\label{fig:2011M-E5}\end{figure}これらの設問のうち,「評論」「小説」の両者の\mbox{問2}から\mbox{問5}を{\bf傍線部問題}と呼ぶ.傍線部問題の具体例を図\ref{fig:2011M-E5}に示す.この図に示すように,傍線部問題は,原則として5つの選択肢の中から正解を一つ選ぶ5択問題である.傍線部問題の配点は,2009年度本試験では,第1問32点,第2問\mbox{33点}の計65点であり,現代文の配点100点の約2/3を占める.\subsection*{使用する試験問題}本研究では,2001年度から2011年度の奇数年の大学入試センター試験の本試験および追試験の『国語』(2005年以前は『国語I・II』)を使用する.ただし,諸般の事情により,本文等が欠けているものがあり,それらは使用しない.表\ref{table:all}に,本研究で使用する傍線部問題の一覧を示す.\begin{table}[t]\caption{使用する傍線部問題の一覧}\label{table:all}\input{1001table02.txt}\end{table}なお,以降では,設問を指し示すIDとして,以下のような4つの情報を盛り込んだ形式を採用する.\begin{enumerate}\item年度(4桁)\item試験区分(M:本試験,S:追試験)\item出題区分(E:評論,N:小説)\item設問番号(2,3,4,5)\end{enumerate}たとえば,図\ref{fig:2011M-E5}に示した,2011年度本試験第1問「評論」の問5は,「2011M-E5」と表す.なお,この例に示したとおり,(2)と(3)の間に,ハイフォン`-'を挟む.
\section{傍線部問題の定式化}
\subsection{定式化}センター試験『国語』現代文傍線部問題では,正解となる選択肢の根拠が必ず本文中に存在すると指摘されている\cite{Funaguchi}.そして,その根拠となる部分は,傍線部の付近に存在することが多いことが,板野の分析によって明らかにされている\cite{Itano2010}.我々は,これらの知見に基づき,傍線部問題を,図\ref{fig:formalization}に示すように定式化する.\begin{figure}[t]\begin{center}\includegraphics{21-3ia1001f2.eps}\end{center}\caption{傍線部問題の定式化}\label{fig:formalization}\end{figure}この定式化は,次のことを意味する.\begin{enumerate}\itemそれぞれの設問を入力とする.設問は,本文$T$,設問文$Q$,選択肢集合$C$から構成されるものとする.(図\ref{fig:2011M-E5}では,これらのうち,本文$T$を除いた,設問文$Q$と選択肢集合$C$を示している.)\item設問文$Q$と本文$T$から,選択肢と照合する本文の一部$\widehat{T}=\mathrm{extract}(T,Q)$を定める.\item選択肢集合$C$の中から,実際に本文の一部$\widehat{T}$と照合する部分集合$\widehat{C}=\mathrm{pre\_select}(C,Q)$を定める.これは,選択肢の事前選抜に相当する.\item設問文の極性$\mathrm{polarity}(Q)$を判定する.この関数は,設問文$Q$が「適当なもの」を要求している場合に$+1$を,「適当でないもの」を要求している場合に$-1$を返すものとする.\item事前選択済の選択肢集合$\widehat{C}$に含まれる選択肢$c_i$と,本文の一部$\widehat{T}$との照合スコア$\mathrm{score}(\widehat{T},c_i)$を計算する.これに設問文の極性$\mathrm{polarity}(Q)$をかけたものを,その選択肢の最終スコアとする.\item事前選択済の選択肢集合$\widehat{C}$に含まれる選択肢$c_i$のなかで,最終スコアが最大のものを,解として出力する.\end{enumerate}この定式化の特徴は,図\ref{fig:formalization}に示した(a)--(d)の4つの関数に集約される.これらの背後にある考え方について,以下で説明する.\subsection{本文の一部と照合する}正解の選択肢の根拠となる箇所は,多くの場合,本文中の傍線部の周辺にあると考えるのが妥当である.先に述べたように,この点についての詳細な分析が,板野によってなされている\cite{Itano2010}.実際,我々人間が傍線部問題を解くとき,本文中の傍線部の前後に注目するのは,標準的な戦略である.このような戦略は,選択肢$c_i$を本文$T$全体と照合するのではなく,あらかじめ,本文から,根拠が書かれていそうな部分$\widehat{T}$を抜き出し,$\widehat{T}$と$c_i$の照合スコアを計算することで,具体化できる.本文の一部を取り出す方法として,\begin{enumerate}\item本文の先頭から,当該傍線部までを$\widehat{T}$とする,\item一つ前の設問で参照された傍線部から,当該傍線部までを$\widehat{T}$とする,\item傍線部の前後のある範囲を$\widehat{T}$とする,\end{enumerate}などの方法が考えられ,これらと,採用する単位(文または段落)を組み合わせることにより,多くのバリエーションが生まれることになる.もちろん,設問毎に,設問文$Q$や本文$T$に応じて異なる(適切な)方法を採用してもよい.関数$\mathrm{extract}$は,これらの方法を抽象化したもので,以下のような関数として定義する.\begin{equation}\widehat{T}=\mathrm{extract}(T,Q)\end{equation}なお,厳密に言えば,設問文$Q$には一つ前の設問の傍線部の情報は含まれないが,その情報は本文を参照することによって得られるものと仮定する.事実,センター試験では,傍線部にはA,B,C,Dの記号が順に振られるため,当該傍線部がBであれば,一つ前の設問の傍線部はAであることがわかる.\subsection{照合スコアを採用する}本文の一部$\widehat{T}$が,選択肢$c_i$とどの程度整合するか(その根拠となりうるか)を,照合スコア$\mathrm{score}(\widehat{T},c_i)$として抽象化する.本来的には,整合するかしないかの2値であるが,そのような判定を機械的に下すのは難しいので,0から1の実数をとるものとする.\subsection{設問文の極性を考慮する}ほとんどの傍線部問題の設問文は,「最も適当なものを,次の1〜5のうちから一つ選べ」という形式となっている.しかし,2001S-E4のように,「適当でないものを,次の1〜5のうちから一つ選べ」という形式も存在する.このような「適当でないもの」を選ぶ設問に対しては,照合スコアを逆転させる(照合スコアが最も小さなものを選択する)のが自然である.上記のような設問形式に応じた選択法の変更を採用するために,設問文$Q$の極性を判定する関数$\mathrm{polarity}(Q)$を導入する.この関数は,設問が「適当なもの」を要求している場合に$+1$を,「適当でないもの」を要求している場合に$-1$を返すものとする.\subsection{選択肢の事前選抜を導入する}本定式化では,「設問文と5つの選択肢をよく読めば,本文を参照せずとも,正解にはならない選択肢のいくつかをあらかじめ排除できる」場合が存在すると考え\footnote{実際にセンター試験を受験したことがある複数人の意見に基づく.},選択肢の事前選抜を明示的に導入する.事前選抜$\mathrm{pre\_select}$は,選択肢集合$C$と設問文$Q$から,$C$の部分集合を返す関数として定式化する.\begin{equation}\widehat{C}=\mathrm{pre\_select}(C,Q),\qquad\widehat{C}\subseteqC\end{equation}
\section{実装}
\begin{table}[b]\vspace{-0.3\Cvs}\caption{実装の概要}\label{table:implementation}\input{1001table03.txt}\vspace{-0.3\Cvs}\end{table}前節の定式化に基づいて傍線部問題ソルバーを実装するためには,$\mathrm{score}$,$\mathrm{polarity}$,$\mathrm{extract}$,$\mathrm{pre\_select}$の4つの関数を実装する必要がある.表\ref{table:implementation}に,今回実装した方法の概要を示す(詳細は,以下で説明する).なお,前節の定式化では,正解と考えられる選択肢を一つ出力する形になっているが,実際のシステムは,選択肢を照合スコア順にソートした結果(すなわち,それぞれの選択肢の順位)を出力する仕様となっている.なお,照合スコアが一致した場合は,選択肢番号の若いものを上位とする\footnote{結果に再現性をもたせるために,照合スコアが一致したものからランダムに選ぶ方法は採用しない.}.\subsection{オーバーラップ率}照合スコア$\mathrm{score}$,および,選択肢の事前選抜$\mathrm{pre\_select}$の実装には,オーバーラップ率を用いる.オーバーラップ率の定義には,服部と佐藤の定式化\cite{Hattori2013,SKL2013}を採用する.この定式化では,まず,ある集合$E$を仮定する.この集合の要素が,オーバーラップ率を計算する際の基本単位となる.集合$E$としては,たとえば,文字集合$A$,形態素集合$W$,あるいは,文字$n$-gramの集合$A^n$などを想定する.オーバーラップ率の算出の出発点となる式は,2つの文字列$t_1$と$t_2$に共通に出現する集合$E$の要素の数を求める次式である.\begin{equation}\mathrm{overlap}({E};t_1,t_2)=\sum_{e\inE}\min(\mathrm{fr}(e,t_1),\mathrm{fr}(e,t_2))\end{equation}ここで,$\mathrm{fr}(e,t)$は,文字列$t$における$e\:(\inE)$の出現回数を表す.この値を,$t_2$の長さ,あるいは,$t_1$と$t_2$の長さの和で正規化することにより,オーバーラップ率を定義する.\begin{align}\mathrm{overlap\_ratio}_D(E;t_1,t_2)&=\frac{\mathrm{overlap}(E;t_1,t_2)}{\displaystyle\sum_{e\inE}\mathrm{fr}(e,t_2)}\label{eq:directional}\\\mathrm{overlap\_ratio}_B(E;t_1,t_2)&=\frac{2\\mathrm{overlap}(E;t_1,t_2)}{\displaystyle\sum_{e\inE}\mathrm{fr}(e,t_1)+\sum_{e\inE}\mathrm{fr}(e,t_2)}\end{align}前者の$\mathrm{overlap\_ratio}_D$は,$t_2$の長さのみで正規化したもので,方向性を持った(directional)オーバーラップ率となる.後者の$\mathrm{overlap\_ratio}_B$は,$t_1$と$t_2$の長さの和で正規化したもので,方向性を持たない,双方向性(bidirectional)のオーバーラップ率となる.\subsection{照合スコア}本文の一部$\widehat{T}$と選択肢$c_i$の照合スコアには,方向性を持ったオーバーラップ率$\mathrm{overlap\_ratio}_D$を用いる.\begin{equation}\mathrm{score}(\widehat{T},c_i)=\mathrm{overlap\_ratio}_D(E,\widehat{T},c_i)\end{equation}ここで,オーバーラップを測る際の単位(要素)集合$E$として,以下の4種類を実装した.\begin{enumerate}\item$A$:文字集合\item$A^2$:文字bigramの集合\item$W$:形態素表層形の集合\item$L$:形態素原形の集合\end{enumerate}いずれの場合も,句読点は要素に含めなかった.形態素解析器にはmecab-0.994を,形態素解析辞書には,ipadic-2.7.0またはunidic-2.1.0を用いた.すなわち,$W$と$L$は,それぞれ2種類存在することになる.\subsection{設問文の極性判定}設問文の極性判定は,文字列マッチングで実装した.具体的には,正規表現「\verb+/(適切|適当)でないものを/+」に一致した場合はnegative($-1$),それ以外はpositive($+1$)と判定する.対象とした問題は限られているので,極性判定結果は,人間の判断とすべて一致する.\subsection{本文の一部の抽出}段落(P)単位および文(S)単位の抽出を実装した.抽出する領域は,連続領域を採用した.すなわち,抽出単位,抽出開始点,抽出終了点の3つの情報によって,抽出領域は定まる.抽出開始・終了点は,当該傍線部を含む単位(段落または文)を基準点0とし,その前後何単位であるかを,整数で表す.たとえば,S-$m$-$n$は,当該傍線部を含む文と,その前$m$文,後$n$文を表す(全部で$m+1+n$文となる).この他に,本文先頭(a),前問の傍線部の位置(b),本文末尾(e)という3種類の特別な位置を指定できるようにした.さらに,当該傍線部を含む文を除外するというオプション($\overline{X}$)も実装した\footnote{設問の多くは,傍線部のある種の言い換えを求めているので,傍線部自身は,選択肢を選ぶ根拠とはならないことが多いと考えられる.今回の実装では,テキストを扱う最小単位は文なので,「当該傍線部を含む文」を除外するという実装となった.}.\subsection{選択肢の事前選抜}選択肢の事前選抜には,次の方法を採用した.\begin{enumerate}\itemそれぞれの選択肢$c_i$において,以下に示す事前選択スコア$\mathrm{ps}(c_i,C)$を計算する.\begin{equation}\mathrm{ps}(c_i,C)=\frac{1}{|C|-1}\sum_{c_j\inC,\c_j\nec_i}\mathrm{overlap\_ratio}_B(A;c_i,c_j)\end{equation}このスコアは,他の選択肢$c_j$との双方向文字オーバーラップ率$\mathrm{overlap\_ratio}_B(A;c_i,c_j)$の平均値である.\item得られた事前選択スコアが低い選択肢を,選択肢集合から除外する.(最終順位付けでは,かならず5位とする)\end{enumerate}なお,この実装は,いわば「もっとも仲間はずれの選択肢を一つ除外する」という考え方に基づいている.
\section{実験と検討}
\subsection{実験結果}実装した傍線部問題ソルバーを用いて,評論傍線部問題40問を解いた結果を表\ref{table:result1}および表\ref{table:result2}に示す.この表の各行の先頭の欄(ID)は,本文抽出法($\mathrm{extract}$)に対応しており,次の2つの数字は,その抽出法(ID)で抽出された文数(40問の平均値),および,該当傍線部を含む文を除外した場合($\overline{\mbox{ID}}$)の文数を示す\footnote{S-$m$-$n$で文数が$m+1+n$を越えるのは,2003S-E5の設問文が複数の傍線部(正確には,波線部)を含むためである.この場合,最初に現れる波線部の前方$m$文から,最後に現れる波線部の後方$n$文までを抽出する.}.斜線で区切られた4つの数字は,ある要素集合を単位としてオーバーラップ率を計算した場合に対応し,それぞれの数字は,順に,以下の場合の正解数を示す.\begin{enumerate}\item抽出法ID+事前選択なし(no)\item抽出法$\overline{\mbox{ID}}$+事前選択なし(no)\item抽出法ID+事前選択あり(yes)\item抽出法$\overline{\mbox{ID}}$+事前選択あり(yes)\end{enumerate}表\ref{table:result1}の2行目(P-a-0)の$A$欄の最初の数字20が,我々に衝撃を与えた数字である.これは,\begin{quote}本文の先頭から当該傍線部を含む段落までを$\widehat{T}$として抽出し(P-a-0),\\$\widehat{T}$と各選択肢$c_i$との照合スコアを文字オーバーラップ率($A$)で計算して,\\スコアが最大値を取る選択肢を選んだ場合,\\{\bf「評論」の傍線部問題の半分(20/40)が正しく解ける}\end{quote}ことを意味する.センター試験の設問は5択問題であるので,解答する選択肢をランダムに選んだとしても1/5の確率で正解する.40問においてランダムに解答を選んだ場合,正解する問題数は,$8\pm4.96$($p=0.05$)である\footnote{$\displaystyleB\left(40,\\frac{1}{5}\right)\approxN\left(8,\2.53^2\right)$.故に$1.96\times2.53\approx4.96$}.この値と比べ,正解数20問は有意に多い.我々は,このような性能が得られることを,まったく予期していないかった.この結果を受けて,我々は,色々な設定($84\times6\times4-12=\mbox{2,004}$通り)\footnote{傍線部を含む段落が1文のみから構成されている場合があるので,抽出法$\overline{\mbox{P-0-0}}$は設定しない.これが$-12$に相当する.84は,表\ref{table:result1}--\ref{table:result2}の行数の合計を,$6\times4$は1行に記述される設定数を示す.}での性能を網羅的に調べた.こうして得られたのが表\ref{table:result1}と表\ref{table:result2}である.これらの表では,正解数20以上をボールド体で表示した.さらに,正解数が22以上となった16の設定とその設定における正解の順位分布(第$n$位として出力された正解がいくつあるか)を,表\ref{table2}に示した.\begin{table}[p]\caption{「評論」に対する実験結果(その1)}\label{table:result1}\input{1001table04.txt}\end{table}\clearpage\begin{table}[t]\caption{「評論」に対する実験結果(その2)}\label{table:result2}\input{1001table05.txt}\end{table}\subsection{実験結果を検討する}表\ref{table:result1}と表\ref{table:result2}を観察すると,以下のことに気づく.\begin{table}[t]\caption{正解数が22以上の設定と正解の順位分布(「評論」)}\label{table2}\input{1001table06.txt}\end{table}\begin{enumerate}\item照合するテキスト$\widehat{T}$が極端に短い場合を除き,ほとんどの場合(2,004通り中1,828通りの設定)で,正解数はランダムな方法より有意に多い.すなわち,「評論」の傍線部問題に対しては,本論文で示した解法は,有効に機能する.\item照合スコアのオーバーラップ率の計算には,文字($A$)を用いると相対的に成績がよい場合が多い.文字オーバーラップ率が有効に機能するという,この結果は,日本語の含意認識(RITE2)における服部らの結果\cite{Hattori2013,SKL2013}に合致する.文字オーバーラップ率が有効に機能するのは,おそらく,日本語の文字の種類が多いこと,および,漢字1文字が内容的情報を表しうること,の2つの理由によるものと考えられる.\item照合スコアのオーバーラップ率の計算に,文字bigram($A^2$),形態素出現形($W$),形態素原形($L$)を用いた場合は,比較的短い$\widehat{T}$のいくつかに対して,成績がよい.これは,比較的短いテキストの照合では,語や文字bigramなどの,より長い要素の一致が大きな意味を持つためと考えられる.今回の実験で最も成績がよかった正解数23は,抽出法$\overline{\mbox{S-9-0}}$,照合法$A^2$または$L$-unidic,事前選抜あり(yes)の場合に得られた.\item照合テキスト$\widehat{T}$から,当該傍線部を含む文を除外した方が,除外しなかった場合よりも,成績は若干よい傾向を示す.脚注4でも述べたように,傍線部の言い換えを求めるような設問では,該当傍線部自身は,選択肢の根拠とはならないことが多い.このような設問に対しては,該当傍線部を含む文を除外することによる効果があると考えられる.\item選択肢の事前選抜は,正解数を増やす効果が見られる.なお,今回使用した40問において,正解が事前選抜によって除外される設問は,1問(2005M-3)だけ存在した.\item用いる形態素解析辞書によって,得られる結果は若干異なる.これは,形態素として認定する単位,および,原形の認定法の違い\footnote{unidicでは,語彙素を原形として採用した.}による.今回の実験では,ipadicを使用した方が,相対的によい結果が得られた場合が多かった.\end{enumerate}\subsection{性能の上限を見積もる}本論文で提案した方法で,どの程度の性能が達成可能であるかを見積もってみよう.性能の上限は,それぞれの設問において,\begin{enumerate}\item最も適切な本文の一部$\widehat{T}$が選択でき,かつ,\item最も適切な照合スコアを選択できる\end{enumerate}と仮定した場合の正解率で与えられる.ここでは,\begin{itemize}\item形態素解析辞書にはipadicのみを用いる\item選択肢の事前選択は行なわない\footnote{事前選抜を上限の計算に含めるのは複雑なので,除外した.}\end{itemize}こととした668($=84\times4-4$)通りの設定\footnote{数字84は,表\ref{table:result1}--\ref{table:result2}の行数の合計に,$4$は1行に対する設定数に,$-4$は抽出法$\overline{\mbox{P-0-0}}$は設定しないことに対応する.}を採用し,各設問毎に668通りの設定の成績(正解の順位)を集計した.その結果を表\ref{table:dist}に示す.表7に示すように,668通りの設定のいずれにおいても正解を出力できなかった設問は,\mbox{2問}(2001S-E5と2009M-E4)のみであった.すなわち,38/40(${}=95$\%)の設問に対して,本論文で示した解法は正解を出力できる可能性がある.表7において,1位となった設定数が多い設問は,言わば「ストライクゾーンが広い」設問である.つまり,パラメータ選択に「鈍感」であり,機械にとってやさしい設問である.たとえば,2003S-E3(1行目)は,668通り中664通りの設定で正解が得られている.逆に,1位となった設定数が少ない設問は,正解を出力するのが難しい設問である.たとえば,2003M-E5(下から3行目)は,668通り中14通りの設定でしか正解が得られない.これらのことを考慮して,次に,もうすこし現実的な到達目標を考えよう.正解率1/5でランダムに668回の試行を行なった場合の正解数は$133.6\pm20.26\:(p=0.05)$である.この値の上限をひとつの目安として\footnote{表\ref{table:dist}の左側の区切り線は,この境界を示す.},これよりも多い正解数が得られた設問は,設問に応じた適切なパラメータ選択により,正解を導ける可能性が高いとみなそう.このような設問は,40問中27問(67.5\%)である.実際,今回の実験で得られた最大正解数は23であり,正解数27は,現実的に到達可能な範囲にあると考えられる.\begin{table}[t]\caption{各設問における正解順位分布(「評論」)}\label{table:dist}\input{1001table07.txt}\end{table}\subsection{好成績の理由を考える}このような比較的単純な解法でも,半数以上の設問が正しく解けるのは,どうしてだろうか.その理由は,おそらく,「センター試験がよく練られた試験問題である」ということになろう.センター試験の問題は,当然のことながら,「正解が一意に定まる(大多数の人が,正解に納得できる)」ことが必要である.答の一意性を保証できる『数学』の問題とは異なり,『国語』の傍線部問題は,潜在的には多数の「正解文」が存在する.作問者の立場に立てば,そのうちの一つを選択肢に含め,それ以外を選択肢に含めないように問題を作らなければならない.そのため,正解選択肢とそれ以外の選択肢の間に,明示的な差異を持ち込まざるを得なくなる.そして,そのために持ち込まれた差異は,オーバーラップ率のような表層的な指標においても,識別できる差異として現れてしまうのであろう.もし,この推測が正しいとすれば,「良い問題であれば,機械にも解ける」ということであり,本論文で提案した解法は,センター試験ならではの性質を利用していることになろう.\subsection{正解が得られない設問}すでに何度も述べたように,我々は,本論文で提案した解法で「評論」の傍線部問題の半数以上が解けてしまうことが驚きであり,解けない設問があることに何の不思議さも感じない.しかしながら,査読者より,採録条件として,「提案手法では正解が得られない設問に対する分析(定性的な議論)が必要である」との指摘があったので,この点についての我々の見解を以下に述べる.まず,(ある特定パラメータを使用した)この解法によって正解が得られない直接的な理由は,抽出した本文の領域$\widehat{T}$と正解選択肢との照合スコア(オーバーラップ率)が低いことによる.この理由をさらに分解すると,次の3つの理由に行きつく.\begin{description}\item[R1]そもそも本文中に根拠がない\item[R2]不適切な領域$\widehat{T}$を抽出している\item[R3]照合スコアが意味的整合性を反映していない\end{description}しかしながら,特定の設問が解けない理由を,このどれか一つに特定することは難しい.まず,理由R1であるが,確かに,これがほぼ明白なケースは存在する.たとえば,2003M-E4は,傍線部の「具体例」を問う問題であるが,本文中にはその具体例は述べられていない.しかしながら,「根拠」という言葉はいささか曖昧であり,広くも狭くも解釈できるため,その解釈を固定しない限り,根拠の有無を明確に判断することは難しい.受験対策本がいう「根拠」は,「正解選択肢を選ぶ手がかり」という広い意味であり,「『適切に語句や表現を言い換えれば,選択肢の表現に変換できる』本文の一部」という狭い意味ではない.前者の意味では,ほとんどの設問に根拠は存在するが,後者の意味では,ほとんどの設題に根拠は存在しない.評論の傍線部問題で問われるのは,本文全体の理解に基づく傍線部の解釈であり,表現レベルの単純な言い換えではない.次に,理由R2であるが,今回の解法では,選択肢と照合する領域として文または段落を単位とする連続領域のみを扱っている.しかし,実際の(広い意味での)根拠は,より小さな句や節といった単位の場合もあり,かつ,不連続に複数箇所存在する場合も多い.現在の実装の自由度における最適な領域が,必ずしも真の意味で適切な領域であるとは限らない.最後に,理由R3であるが,現在の照合スコアが意味的整合性を適切に反映しない場合が存在するのは自明である.しかし,問題はそれほど単純ではない.照合スコアの具体的な値は,照合領域$\widehat{T}$に依存する.最適な領域が定まれば,使用している照合スコア計算法の善し悪しを議論できるが,最適な領域が不定であれば,正解を導けない原因を,領域抽出の失敗(R2)に帰すべきか,照合スコアの不適切さ(R3)に帰すべきかは,容易には定まらない.以上のように,特定の設問が解けない理由を追求し,解けない設問を類形化することは,かなり難しい.さらに,チャンスレベルは20\%であるから,たまたま解ける設問も存在する\footnote{前述の2003M-E4は正解する場合もある.}.そのような困難さを踏まえた上で,解けない設問を大胆に類形化するのであれば,次のようになろう.\begin{itemize}\item正解選択肢を選ぶ根拠が,傍線部のかなり後方に位置する設問.\item正解選択肢を選ぶ根拠が,本文全体に点在している設問.\item正解選択肢が,本文全体の理解・解釈を前提として,本文中には現れない表現で記述されている設問.\item本文と整合しない部分を含む選択肢を除外していくこと(いわゆる消去法\cite{Itano2010})によって,正解選択肢が導ける設問.\end{itemize}\subsection{「小説」に適用する}本論文で提案した解法を,そのまま「小説」の傍線部問題に適用すると,どのような結果が得られるであろうか.その疑問に答えるために,「評論」と同様の実験を,「小説」に対しても実施した.対象とした「小説」の傍線部問題は計38問なので,ランダムに解答すると,$7.6\pm4.83$問($p=0.05$)の正解が得られることになる.\begin{table}[b]\caption{正解数が13以上の設定と正解の順位分布(「小説」)}\label{table:novel}\input{1001table08.txt}\end{table}実験において,統計的に有意な結果(正解数13以上)が得られたのは,2,004通り中13通りの設定のみであった.これらを表\ref{table:novel}に示す.さらに,「評論」と同様に,各設問に対しても668通りの実験結果を集計した\footnote{表\ref{table:novel}の結果に基づき,形態素解析辞書にはipadicではなくunidicを採用した.}.正解数が$133.6\pm20.26$の上限を越えたのは,38問中10問であった.これらの結果より,「小説」に対しては,本論文で提案した解法の性能は,チャンスレベルと大差がないとみなすのが妥当であろう.
\section{結論}
本研究で得られた結果をまとめると,次のようになる.\begin{enumerate}\itemセンター試験『国語』現代文の傍線部問題に対する解法を提案・定式化した.\item本論文で示した解法は,「評論」の傍線部問題に対しては有効に機能し,半数以上の設問に対して正解を出力することができる.今回の実験から推測される性能の上限は95\%,現実的に到達可能な性能は65--70\%である.\item本論文で示した解法は,「小説」の傍線部問題に対しては機能しない.その性能はチャンスレベルと同等である.\end{enumerate}本論文で示した解法で「『評論』が解ける」という事実を言い換えるならば,それは,「『評論』では,本文に書かれていることが問われる」ということである.これに対して,「『小説』が解けない」という事実は,その裏返し,すなわち,「『小説』では,本文に書かれていないこと(心情や行間)が問われる」ということを示している.このような差異の存在を,船口\cite{Funaguchi}も指摘しているが,表層的なオーバーラップ率を用いる比較的単純な方法においても,その差異が明確な形で現れることが判明した.\acknowledgment本研究では,国立情報学研究所のプロジェクト「ロボットは東大に入れるか」から,データの提供を受けて実施した.本研究の一部は,JSPS科研費24300052の助成を受けて実施した.本研究では,mecab/ipadic,mecab/unidicを使用した.\begin{thebibliography}{}\bibitem[\protect\BCAY{新井\JBA松崎}{新井\JBA松崎}{2012}]{Arai2012}新井紀子\JBA松崎拓也\BBOP2012\BBCP.\newblockロボットは東大に入れるか?—国立情報学研究所「人工頭脳」プロジェクト—.\newblock\Jem{人工知能学会誌},{\Bbf27}(5),\mbox{\BPGS\463--469}.\bibitem[\protect\BCAY{船口}{船口}{1997}]{Funaguchi}船口明\BBOP1997\BBCP.\newblock\Jem{きめる!センター国語現代文}.\newblock学研教育出版.\bibitem[\protect\BCAY{服部\JBA佐藤}{服部\JBA佐藤}{2013}]{Hattori2013}服部昇平\JBA佐藤理史\BBOP2013\BBCP.\newblock多段階戦略に基づくテキストの意味関係認識:RITE2タスクへの適用\newblock情報処理学会研究報告,2013-NLP-211No.4/2013-SLP-96No.4,情報処理学会.\bibitem[\protect\BCAY{Hattori\BBA\Sato}{Hattori\BBA\Sato}{2013}]{SKL2013}Hattori,S.\BBACOMMA\\BBA\Sato,S.\BBOP2013\BBCP.\newblock\BBOQTeamSKL'sStraregyandExpericenceinRITE2\BBCQ\\newblockIn{\Bem{Proceedingsofthe10thNTCIRConference}},\mbox{\BPGS\435--442}.\bibitem[\protect\BCAY{板野}{板野}{2010}]{Itano2010}板野博行\BBOP2010\BBCP.\newblock\Jem{ゴロゴ板野のセンター現代文解法パターン集}.\newblock星雲社.\bibitem[\protect\BCAY{教学社編集部}{教学社編集部}{2013}]{Kakomon2014}教学社編集部\BBOP2013\BBCP.\newblock\Jem{センター試験過去問研究国語(2014年版センター赤本シリーズ)}.\newblock教学社.\end{thebibliography}\begin{biography}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.現在,本学会理事.}\bioauthor{加納隼人}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.現在,名古屋大学大学院工学研究科電子情報システム専攻在学中.}\bioauthor{西村翔平}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.}\bioauthor{駒谷和範}{1998年京都大学工学部情報工学科卒業.2000年同大学院情報学研究科知能情報学専攻修士課程修了.2002年同大学院博士後期課程修了.博士(情報学).京都大学大学院情報学研究科助手・助教,名古屋大学大学院工学研究科准教授を経て,2014年より大阪大学産業科学研究所教授.現在,SIGDIALScientificAdvisoryCommitteemember.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
| |
V07N01-04
|
\section{はじめに}
本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
\section{意味ソート}
\label{sec:msort}単語を意味で並べかえるという考え方を本稿では{\bf意味ソート}Msort(\underline{m}eaning\underline{sort})と呼ぶことにする.この意味ソートは,単語の羅列を表示する際には50音順(もしくはEUC漢字コード順)で表示するのではなく,単語の意味の順番でソートして表示しようという考え方である.意味の順番の求め方は後節で述べる.例えば,研究の途中段階で以下のようなデータが得られたとしよう\footnote{このデータはEDR共起辞書のものを利用している\cite{edr}.}.{\small\begin{verbatim}行事寺公式母校就任皇室学園日本ソ連全国農村県学校祭り家元恒例官民祝い王室\end{verbatim}}これは,行事という単語の前に「Aの」という形で連接可能な名詞のリストであるが,このような情報が得られたときにその研究者はこのデータをどのような形式にすると考察しやすいであろうか.まず,50音順で並べかえる.そうすると以下のようになる.{\small\begin{verbatim}行事家元祝い王室学園学校官民県公式皇室恒例就任全国ソ連寺日本農村母校祭り\end{verbatim}}これではよくわからない.次に頻度順で並べてみる.{\small\begin{verbatim}行事恒例学校公式日本県全国寺農村王室ソ連祭り学園就任祝い母校皇室官民家元\end{verbatim}}それもよくわからない.これを単語の意味の順番(ここでは,人間,組織,活動の順)でソートすると,以下のようになる.{\small\begin{verbatim}行事(人間)皇室王室官民家元(組織)全国農村県日本ソ連寺学校学園母校(活動)祝い恒例公式就任祭り\end{verbatim}}これは非常にわかりやすい.行事にはいろいろなものがあるが,ある特別な人を中心とした行事の存在,また,ある組織を中心とした行事の存在,さらに行事のいくつかの形態をまとめて一挙に理解することができる.これはもともと名詞意味関係辞書の作成に「AのB」が利用できそうであるとすでにわかっている問題を例にあげたため,それはうまくいくでしょうといった感があるかもしれないが,後の節ではその他の問題でもこの意味ソートを用いるとうまくいく例をいくつか示している.われわれは,各研究の各段階でこの意味ソートというものを用いれば,ほとんどの問題がわかりやすくなり効率良く研究を進められるのではないかと考えている.
\section{意味ソートの仕方}
単語を意味でソートするためには,単語に対して意味的な順序づけを行なう必要がある.このためには分類語彙表\cite{bgh}が役に立つ.分類語彙表とはボトムアップ的に単語を意味に基づいて整理した表であり,各単語に対して分類番号という数字が付与されている.電子化された分類語彙表データでは各単語は10桁の分類番号を与えられている.この10桁の分類番号は7レベルの階層構造を示している.上位5レベルは分類番号の最初の5桁で表現され6レベル目は次の2桁,最下層のレベルは最後の3桁で表現されている.もっとも簡単な意味ソートの仕方は,単語に分類語彙表の分類番号を付与してその分類番号によってソートすることである\footnote{最近は便利な機能を持ったパソコンのソフトが多く出ており,Exelなどに単語と分類語彙表の分類番号を入力しておいてソートすると簡単に意味ソートを行なうことができるであろう.}.しかし,単にソートしただけではわかりにくい.数字ならば,順序関係がはっきりしているものなのでソートするだけで十分であるが,単語は順序関係がそうはっきりしたものではないので,ソートしただけではわかりにくい.ところどころに,物差しの目盛のようなものを入れた方がわかりやすい.\begin{table}[t]\caption{分類語彙表の分類番号の変更}\label{tab:bunrui_code_change}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変換後の\\&分類番号&分類番号\\\hlineANI(動物)&[1-3]56&511\\HUM(人間)&12[0-4]&52[0-4]\\ORG(組織・機関)&[1-3]2[5-8]&53[5-8]\\PRO(生産物・道具)&[1-3]4[0-9]&61[0-9]\\PAR(動物の部分)&[1-3]57&621\\PLA(植物)&[1-3]55&631\\NAT(自然物)&[1-3]52&641\\LOC(空間・方角)&[1-3]17&657\\QUA(数量)&[1-3]19&711\\TIM(時間)&[1-3]16&811\\PHE(現象名詞)&[1-3]5[01]&91[12]\\ABS(抽象関係)&[1-3]1[0-58]&aa[0-58]\\ACT(人間活動)&[1-3]58,[1-3]3[0-8]&ab[0-9]\\OTH(その他)&4&d\\\hline\end{tabular}\end{center}\end{table}そこで,「人間」「具体物」「抽象物」といった意味素性というものを考える\footnote{ここであげる意味素性では目盛として粗すぎる場合は,分類語彙表の上位3桁目のレベル,上位4桁目のレベル,上位5桁目のレベルなどを目盛として用いてみるのもよい.}.ソートした単語の羅列のところどころに意味素性のようなものをいれておくと,それを基準にソートした単語の羅列を見ることができ便利である.意味素性としては,IPAL動詞辞書\cite{IPAL}の名詞の意味素性と分類語彙表の分類体系を組み合わせることによって新たに作成したものを用いる.このとき,分類語彙表の分類番号を名詞の意味素性に合わせて修正した.表\ref{tab:bunrui_code_change}に作成した意味素性と分類語彙表での分類番号の変換表を記載しておく\footnote{この表は現段階のものであって今後も変更していく可能性がある.}\footnote{表では,体,用,相の分類を示す一桁の1〜3の区別はなくしているが,これは文法的な分類の体,用,相の分類を行なわず意味的なソートをくしざし検索風に行なっていることになっている.もちろん,用途によっては体,用,相の分類を行なっておく必要があるだろう.その場合はそれに見合うように分類番号の変更を行なえばよい.例えば体,用,相の上位一桁目をa,b,cとするといったことを行なえばよい.}.表の数字は分類番号の最初の何桁かを変換するためものであり,例えば1行目の``[1-3]56''や``511''は,分類番号の頭の3桁が``156''か``256''か``356''ならば511に変換するということを意味している.([1-3]は1,2,3を意味している.)表\ref{tab:bunrui_code_change}に示した意味素性に目盛の役割をしてもらうわけだが,この目盛を意味ソートの際に入れる簡単な方法は,意味素性を単語のソートの際に混ぜてソートすることである.このようにすると,意味素性も適切な位置にソートされることとなる.以下に意味ソートが実現される過程を例示する.ここでは,\ref{sec:msort}節で示した名詞「行事」の前に「名詞Aの」の形でくっつく以下の名詞の集合を意味ソートすることを考えることとしよう.{\small\begin{verbatim}行事寺公式母校就任皇室学園日本ソ連全国農村県学校祭り家元恒例官民祝い王室\end{verbatim}}\begin{enumerate}\itemまず初めに各語に分類語彙表の分類番号を付与する.「行事」と共起する名詞集合でこれを行なうと表\ref{tab:huyo_bgh_rei}の結果が得られる.(書籍判の分類語彙表に慣れている人は注意して欲しい.書籍判では分類番号は5桁までしかないが,電子化判では10桁存在する\footnote{ここではKNP\cite{KNP2.0b6}に付属でインストールする分類語彙表の辞書を利用しているが,そこで用いられている分類語彙表は最新のものであってさらに桁が増えているが,KNPではうまく10桁に変換しているようだ.}.)表\ref{tab:huyo_bgh_rei}では「寺」が二つ,「公式」が四つ,存在しているが,これは多義性を意味しており,分類語彙表では「寺」に対し二つの意味が定義されており,「公式」に対し四つの意味が定義されていることを意味する.\item\label{enum:change}次に分類語彙表の分類番号の変換表の表\ref{tab:bunrui_code_change}に従って,付与した分類語彙表の番号を変更する.表\ref{tab:huyo_bgh_rei}のデータに対してこの番号変更を行なうと表\ref{tab:code_change_rei}の結果が得られる.例えば,表\ref{tab:huyo_bgh_rei}の一つ目の寺の最初の三桁は``126''であるがこれは表\ref{tab:bunrui_code_change}の三行目の``[1-3]2[5-8]''にマッチし,``536''に変換される.\begin{table}[t]\caption{分類語彙表の分類番号の付与例}\label{tab:huyo_bgh_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline1263005022&寺\\1263005021&寺\\1308207012&公式\\1311509016&公式\\3101011014&公式\\3360004013&公式\\1263013015&母校\\1331201016&就任\\1210007021&皇室\\1263010015&学園\\1259001012&日本\\1259004192&ソ連\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hline1198007013&全国\\1253007012&全国\\1254006033&農村\\1255004017&県\\1263010012&学校\\1336002012&祭り\\1241023012&家元\\1308205021&恒例\\1231002013&官民\\1241101012&官民\\1304308013&祝い\\1336019012&祝い\\1210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更例}\label{tab:code_change_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline5363005022&寺\\5363005021&寺\\ab18207012&公式\\ab21509016&公式\\aa11011014&公式\\ab70004013&公式\\5363013015&母校\\ab41201016&就任\\5210007021&皇室\\5363010015&学園\\5359001012&日本\\5359004192&ソ連\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hline7118007013&全国\\5353007012&全国\\5354006033&農村\\5355004017&県\\5363010012&学校\\ab46002012&祭り\\5241023012&家元\\ab18205021&恒例\\5231002013&官民\\5241101012&官民\\ab14308013&祝い\\ab46019012&祝い\\5210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[p]\caption{目盛用の分類番号つきの意味素性の追加}\label{tab:sosei_add_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll@{}|}\hline5100000000&(動物)\\5200000000&(人間)\\5300000000&(組織・機関)\\6100000000&(生産物・道具)\\6200000000&(動物の部分)\\6300000000&(植物)\\6400000000&(自然物)\\6500000000&(空間・方角)\\7100000000&(数量)\\8100000000&(時間)\\9100000000&(現象名詞)\\aa00000000&(抽象関係)\\ab00000000&(人間活動)\\d000000000&(その他)\\5363005022&寺\\5363005021&寺\\ab18207012&公式\\ab21509016&公式\\aa11011014&公式\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hlineab70004013&公式\\5363013015&母校\\ab41201016&就任\\5210007021&皇室\\5363010015&学園\\5359001012&日本\\5359004192&ソ連\\7118007013&全国\\5353007012&全国\\5354006033&農村\\5355004017&県\\5363010012&学校\\ab46002012&祭り\\5241023012&家元\\ab18205021&恒例\\5231002013&官民\\5241101012&官民\\ab14308013&祝い\\ab46019012&祝い\\5210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[p]\caption{分類番号の順番に並べかえ例}\label{tab:sort_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll@{}|}\hline5100000000&(動物)\\5200000000&(人間)\\5210007021&皇室\\5210007022&王室\\5231002013&官民\\5241023012&家元\\5241101012&官民\\5300000000&(組織)\\5353007012&全国\\5354006033&農村\\5355004017&県\\5359001012&日本\\5359004192&ソ連\\5363005021&寺\\5363005022&寺\\5363010012&学校\\5363010015&学園\\5363013015&母校\\6100000000&(生産物)\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll@{}|}\hline6200000000&(動物の部分)\\6300000000&(植物)\\6400000000&(自然物)\\6500000000&(空間・方角)\\7100000000&(数量)\\7118007013&全国\\8100000000&(時間)\\9100000000&(現象名詞)\\aa00000000&(抽象関係)\\aa11011014&公式\\ab00000000&(人間活動)\\ab14308013&祝い\\ab18205021&恒例\\ab18207012&公式\\ab21509016&公式\\ab41201016&就任\\ab46002012&祭り\\ab46019012&祝い\\ab70004013&公式\\d000000000&(その他)\\\hline\end{tabular}\end{center}\end{table}\item次に目盛用の分類番号つきの意味素性を\ref{enum:change}で得られた集合に追加する.表\ref{tab:code_change_rei}のデータに対してこれを行なうと表\ref{tab:sosei_add_rei}の結果が得られる.\item以上までで得られた集合を分類番号によってソートする.表\ref{tab:sosei_add_rei}のデータに対してこれを行なうと表\ref{tab:sort_rei}の結果が得られる.\item後は見やすいように整形すればよい.例えば,表\ref{tab:sort_rei}で分類番号を消し,意味素性ごとに一行にまとめ,語がない行を消去し,一行内にだぶって存在する語を消去すると表\ref{tab:last_rei}のようになる.\end{enumerate}前にも述べたとおり,表\ref{tab:last_rei}の形になれば考察などに便利な状態になる.\clearpage\begin{table}[t]\caption{ソート後の名詞集合の整形}\label{tab:last_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline(人間)&皇室王室官民家元\\(組織)&全国農村県日本ソ連寺学校学園母校\\(数量)&全国\\(関係)&公式\\(活動)&祝い恒例公式就任祭り\\\hline\end{tabular}\end{center}\end{table}
\section{意味ソートの諸相}
\subsection{分類語彙表以外の階層シソーラスを用いた意味ソート}今までの議論では分類語彙表を用いた意味ソートの仕方を述べてきた.意味ソートを行なうには意味の順序関係が必要であるが,分類語彙表はちょうど各単語に分類番号がついていたのでソートには最適であった.ここでは,EDRの辞書\cite{edr}のように,分類語彙表についていたような分類番号を持たない階層シソーラスを用いて,意味ソートはできないかを考察する.前述したとおり,そもそも分類語彙表の10桁の分類番号は,7レベルの階層構造を示している.EDRで意味ソートを行なう場合にも,分類語彙表と同じように上位桁から階層構造を作るような番号を各単語につけてやればよい.しかし,番号をつけるのは面倒である.階層シソーラス上の各ノードにおける概念の定義文をそのレベルの番号のように扱ってやるとよい.こうすれば番号をあらためてふってやる必要がない.例えば,トップのノードから「母校」という単語に至る各ノードの概念の定義文を並べてみると以下のようになる.\\{\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|}\hline概念\\人間または人間と似た振る舞いをする主体\\自立活動体\\組織\\組織のいろいろ\\教育組織\\学校という,教育を行う組織\\数量や指示関係で捉えた学校\\自分が学んでいる,あるいはかつて学んでいた学校\\\hline\end{tabular}\\}\begin{table*}[t]\caption{EDRを用いた意味ソートの例}\label{tab:EDR_last_rei}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}c@{}l@{}c@{}ll|}\hline(概念&:&ものごと&:&もの)&寺学校県家元官民祝い公式\\(概念&:&ものごと&:&事柄)&祭り恒例祝い\\(概念&:&位置&:&場所)&寺学校全国県農村ソ連日本\\(概念&:&事象&:&現象)&祭り\\(概念&:&事象&:&行為)&祝い就任\\(概念&:&事象&:&状態)&官民恒例家元寺県公式\\(概念&:&人間または人間と似た振る舞いをする主体&:&自立活動体)&学校学園母校寺県ソ連日本王室皇室家元官民\\(概念&:&人間または人間と似た振る舞いをする主体&:&人間)&寺県家元官民\\\hline\end{tabular}\end{center}\end{table*}\noindentこれを連結した``概念:人間または人間と似た振る舞いをする主体:自立活動体:組織:組織のいろいろ:教育組織:学校という,教育を行う組織:数量や指示関係で捉えた学校:自分が学んでいる,あるいはかつて学んでいた学校''を分類番号と見立てて意味ソートを行なえばよい.先にあげた「の行事」に前接する名詞集合でEDRを用いた意味ソートを行なうと表\ref{tab:EDR_last_rei}のようになる.表\ref{tab:EDR_last_rei}では各行の出力のための目盛として上位三つの概念の定義文を用いている.EDRでは他の辞書に比べ多義性を設定する場合が多く,またシソーラスの階層構造においても複数パスを用いているので,同じ単語が複数の箇所に出ていて複雑なものになる.しかし,多観点から考察したいときには,ちょうどいろいろなとらえ方の単語を認識しやすいようになっており,EDRを用いると有効だろう.以上までの議論から階層シソーラスならばどのようなものでも意味ソートが行なえることがわかるであろう.ただし,階層構造での枝別れ部分においてどのノードから出力するのかは曖昧になっている.例えば,表\ref{tab:EDR_last_rei}では概念の定義文の文字列のEUCコード順となっている.順序を人手であらかじめ指定しておければそれにこしたことはないが,無理ならば,定義文自体を他の辞書(例:分類語彙表)により意味ソートすることも考えられる.\subsection{単語を複数の属性で表現するといった形での辞書記述における意味ソート}\label{sec:hukusuu_zokusei}単語に複数の属性を付与するといった形で単語の意味記述を行なうという考え方がある.例えば,計算機用日本語生成辞書IPALの研究\cite{ipalg98}では,「器」を意味するさまざまな単語に対して表\ref{tab:ipal_hukusuu_zokusei_rei}のような属性を与えている.表中の''---''は属性の値は指定されていないことを意味する.\begin{table}[t]\caption{単語に複数の属性を付与した辞書の例}\label{tab:ipal_hukusuu_zokusei_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\碗&和&---&深&---&陶磁\\椀&和&---&深&---&木\\湯のみ&和&緑茶/白湯&深&---&陶磁\\皿&---&---&浅&---&---\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{左の属性からソートした結果}\label{tab:ipal_hukusuu_zokusei_rei_hidari}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\皿&---&---&浅&---&---\\碗&和&---&深&---&陶磁\\椀&和&---&深&---&木\\湯のみ&和&緑茶/白湯&深&---&陶磁\\\hline\end{tabular}\end{center}\end{table}このような形の辞書の場合でも意味ソートは可能である.各属性を階層シソーラスでの各レベルであると認識すればよい.この場合,左の属性から順に階層シソーラスの上位から下位のレベルに対応すると考えると,``種類',``対象物'',``形状'',``サイズ'',``材質''とレベルがあると考えられるので,意味ソートに用いる便宜的な分類番号はEDRの場合を参考にすると,``種類:対象物:形状:サイズ:材質''といったものとなる.例えば,「椀」は``和:---:深:---:木''という分類番号を持っていることになる.(厳密には,属性の値も意味ソートするために,この「和」「深」「木」も分類語彙表の分類番号に変更しておく.)このような分類番号をもっているとしてソートすれば意味ソートのできあがりである.この意味ソートを行なった結果を表\ref{tab:ipal_hukusuu_zokusei_rei_hidari}に示す.これは,単純に左の属性から順にソートしていった結果と等価である.\begin{table}[t]\caption{右の属性からソートした結果}\label{tab:ipal_hukusuu_zokusei_rei_migi}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\皿&---&---&浅&---&---\\碗&和&---&深&---&陶磁\\湯のみ&和&緑茶/白湯&深&---&陶磁\\椀&和&---&深&---&木\\\hline\end{tabular}\end{center}\end{table}今は左の属性をもっとも重要な属性として扱って意味ソートを行なったものであるが,複数の属性の間の重要度の関係はそれほど明確ではない.例えば,同じデータで右の属性から順にソートすると,表\ref{tab:ipal_hukusuu_zokusei_rei_migi}のようになる.このように複数の属性を付与する辞書ではどういった属性を重視するかでソートのされ具合いが異なることとなる.これは,ユーザが今興味を持つ属性の順番によってソートすることができることを意味しており,複数の属性を付与する辞書は非常に融通が効くものであるということがいえる\footnote{ただし,この融通の良さは自由度が高くて良さそうだが欠点にもなりうる可能性を持っている.例えば,ユーザが自分の好きなように属性を指定することができるといえば聞こえはよいが,これは裏返して考えるとユーザが自分の好きなように属性を指定する必要があるということを意味している.ユーザが属性を指定するのが面倒な場合はデフォルトの順序のようなものを考えておくとよいだろう.例えば,決定木学習で用いられる方法\cite{c4.5j}により木を構成しそのようになるための属性の順序をデフォルトの順序としてもよいだろう.また,各属性の上位下位の関係を本文でも述べたような概念の包含関係より求め(このときは本文での基準のような完全に包含関係になるものではなく若干例外があってもよいなど条件をゆるめたものがよいだろう),それを元にデフォルトの順序を決めるのもよいだろう.さらにはこのデフォルトの順序をユーザーの二,三のキーワード指定によりコントロールできるとなおよいだろう.}.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{10cm}\begin{center}\epsfile{file=hidari.eps,height=4cm,width=6cm}\end{center}\caption{左からのソート結果による階層シソーラス}\label{fig:ipal_hukusuu_zokusei_rei_hidari}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{10cm}\begin{center}\epsfile{file=migi.eps,height=4cm,width=6cm}\end{center}\caption{右からのソート結果による階層シソーラス}\label{fig:ipal_hukusuu_zokusei_rei_migi}\end{minipage}}\end{center}\end{figure}これを階層シソーラスも交えて考察するとさらに面白いことに気づく.先にも述べたように,各属性は階層シソーラスの各レベルと見立てることができるので,階層シソーラスでのこの属性のレベルの順序を変更することで何種類もの階層シソーラスを構築できることとなる.例えば,属性を左から用いて意味ソートした表\ref{tab:ipal_hukusuu_zokusei_rei_hidari}からは図\ref{fig:ipal_hukusuu_zokusei_rei_hidari}のような階層シソーラスが構築できる.また,属性を右から用いて意味ソートした表\ref{tab:ipal_hukusuu_zokusei_rei_migi}からは図\ref{fig:ipal_hukusuu_zokusei_rei_migi}のような階層シソーラスが構築できる.図\ref{fig:ipal_hukusuu_zokusei_rei_hidari}のシソーラスでは「碗」と「椀」の意味的な近さをよく理解できる.図\ref{fig:ipal_hukusuu_zokusei_rei_migi}のシソーラスでは「碗」と「湯のみ」の同じ陶磁器としての意味的な近さをよく理解できる.この複数のシソーラスの構築は,種々の観点による階層シソーラスの研究にもつながるものである.観点によるシソーラスの必要性は文献\cite{miyazaki94A}においても述べてある.それによると,「鳥」「飛行機」を上位で自然物と人工物と大別すると,「鳥」「飛行機」の意味的近さがわからなくなるとある.確かにそのとおりである.今後の言語処理を考えると観点による階層シソーラスの自由変形が可能な,複数属性を付与するといった辞書は非常に有用であり,生成用のみならず一般単語辞書,実用レベル的なもので構築する必要があると思われる.また,もともと単語の意味辞書を階層シソーラスの形にする必要があるのかという疑問も生じる.表\ref{tab:ipal_hukusuu_zokusei_rei}を見れば,「うつわ」の属性がすべて属性値を指定しない``---''になっていることから他の語の上位語であることが属性の集合の情報を見るだけでわかる.この属性の包含関係から上位・下位の関係が類推できるとすれば,階層シソーラスというものはわざわざ構築しておく必要はなく単語を属性の集合によって表現するというので十分なような気もしてくる.ただし,ペンギンは飛べないが普通の鳥は飛べるといった例外事象も扱えるような属性の定義などをしておく必要はある.また,複数属性で単語を表現する辞書では,一致する属性の割合などで単語間の類似度を定義するということも可能となるであろう.ただし,このとき属性に重みを与えるなどのことが必要になるかもしれない.単語の意味記述としては,さらに表現能力の高いものとして高階の述語論理で表現するもの,自然言語の文で定義するものなどが考えられるが,とりあえず現在の言語処理技術で扱えてそれでいて多観点を扱えるという意味で単語を複数属性の集合で意味記述するという辞書は妥当なところではないだろうか\footnote{複数の属性を持つ単語辞書の作成には,国語辞典などの定義文が役に立つのではないかと考えている.例えば,定義文の文末から意味ソートを多段的にかけた結果を人手でチェックすることを行なえば,比較的低コストでこの辞書を作成できるだろう.}.ちょっと脇道にそれて意味ソートと直接関係のない単語意味辞書のあるべき姿について議論をしてしまったが,単語を複数属性の集合で意味記述するという辞書ができれば,先にも述べたようにその辞書にはユーザが自分の好きな順番で属性を選んで意味ソートできるという利点があるので,意味ソートの立場としても非常に好都合である.
\section{意味ソートの三つの利用例}
\label{sec:riyourei}\subsection{辞書の作成}名詞と名詞の間の意味関係を示す名詞意味関係辞書の作成に意味ソートが利用できる例はすでに文献\cite{murata_indian_nlp}において述べている.名詞と動詞,名詞と形容詞の間の関係辞書の作成も格フレームや多義性などを考慮に入れながら同様にできることだろう.ここでは,例として表\ref{tab:taberu_case_frame}に動詞「食べる」の格フレームの作成例を示しておく.\begin{table}[t]\caption{「食べる」の格フレームの作成例}\label{tab:taberu_case_frame}\begin{center}\small\renewcommand{\arraystretch}{}(a)ガ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(動物)&牛子牛魚\\(人間)&わたしたちみんな自分乳幼児親妹お客日本人看護婦作家\\\hline\end{tabular}\vspace{0.3cm}(b)ヲ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(動物)&動物貝プランクトン\\(生産物)&獲物製品材料ペンキ食べ物えさ和食日本食洋食中華料理おむすび粥すしラーメンマカロニサンドイッチピザステーキバーベキューてんぷら空揚げ穀物米白米日本米押し麦キムチカルビ砂糖ジャム菓子ケーキビスケットクッキーアイスクリーム\\(体部)&遺骸人肉肝臓\\(植物)&遺伝子植物牧草ピーマンチコリ桑バナナ松茸昆布\\(現象)&珍味雪\\(関係)&中身\\(活動)&朝食昼飯夕食夕御飯おやつ塩焼き\\\hline\end{tabular}\vspace{0.3cm}(c)デ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(人間)&自分\\(組織)&事務所レストランホテル\\(生産物)&しょうゆシャトー楽屋便所荷台食卓\\(空間)&現地全域車内\\(数量)&ふたり割合複数\\(活動)&研究会議\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:taberu_case_frame}は受身文など考慮して「食べる」の各格要素にくる名詞をそれぞれ意味ソートしたものである.表\ref{tab:taberu_case_frame}の形になれば人手で格フレームを作成するのも容易であろうと思われる\footnote{最近では,格フレームは多項関係でとらえる必要があることがいわれてきている.例えば,魚はプランクトンを食べるが牛は食べず,また牛は牧草を食べるが魚は食べない.表\ref{tab:taberu_case_frame}の形に各格要素ごとまとめてしまうと魚とプランクトンの関係,牛と牧草の関係が見えなくなり,よろしくない.}.ガ格は動作主になりうる動物や人間が入ることがわかるし,ヲ格には様々な食べ物になりうる名詞が入ることがわかる.また,任意格のデ格を見ると,「自分で」や「事務書で」や「しょうゆで」などデ格の意味関係が多種多様なものであることまでわかる.たとえば,``(人間)''の語は主体,``(組織)''``(空間)''の語は場所,``(具体物)''の語は道具の場合と場所の場合があることまでわかる.ここであげた例は動詞の格フレームであるが,このようなことは形容詞に対してもさらには名詞述語文に対してもその他の単語間に対しても容易に行なえることを考えれば,意味ソートの汎用性,有用性を理解できるであろう.これは,辞書の作成に限った話しではなく,言語現象の調査におけるデータの整理,有用な情報の抽出にも役に立つ.また,近年いろいろな知識獲得の研究が行なわれているが,知識獲得で得られたデータの整理にも,同じようにこの意味ソートが役に立つ.\subsection{タグつきコーパスの作成(意味的類似度との関連)}近年,さまざまなコーパスが作成されてきており\cite{edr_corpus_2.1}\cite{kurohashi_nlp97}\cite{rwc},コーパスベースの研究も盛んになっている\cite{mori_DT}\cite{murata:nlken98}.ここでは,コーパスの作成にも意味ソートが役に立つことについて述べる.例えば,名詞句「AのB」の意味解析を用例ベースで解析したいとする.この場合,名詞句「AのB」の意味解析用のタグつきコーパスが必要となる.具体的には,名詞句「AのB」の各用例に対して「所有」「属性関係」といった意味関係をふっていくこととなる.このとき名詞句「AのB」を意味ソートしておけば比較的よく似た用例が近くに集まることになり,意味関係をふる手間が軽減される.\begin{table}[t]\caption{名詞句「AのB」の意味解析用のタグつきコーパスの作成例}\label{tab:make_corpus}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|l|l|}\hline名詞A&名詞B&意味関係\\\hlineパナマ&事件&場所\\中学校&事件&場所\\軍&事件&場所\\アルバム&事件&間接限定\\タンカー&事件&間接限定\\最悪&事件&形的特徴\\最大&事件&形的特徴\\周辺&物件&場所\\両国&事項&主体対象\\文献&事項&分野限定\\総会&事項&主体対象\\上院&条項&分野限定,主体対象\\新法&条項&分野限定,全体部分\\条約&条項&分野限定,全体部分\\協定&条項&分野限定\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:make_corpus}は文献\cite{yata_MT}において作成されたタグつきコーパスの一部分である.ここでは名詞句「AのB」のうち名詞Bの方が重要であろうとして名詞Bを先に意味ソートとしたのち名詞Aで意味ソートを行なっている.表中の意味関係の用語は少々難しいものとなっているが意味ソートの結果近くにあらわれている用例同士は比較的同じ意味関係がふられていることがわかるだろう.このように意味的に近い用例が近くに集まるとタグの付与の手間が軽減されることが理解できるであろう.ところで,用例ベースによる手法では入力のデータと最も類似した用例にふられたタグを解析結果とする.意味ソートという操作は単語を意味の順番にならべかえるわけだが,そのことによって類似した用例を集める働きをする.用例ベースと意味ソートは単語の類似性を用いるという共通点を持っている.この類似性を用いるという性質が用例ベースによる手法と意味ソートの共通した利点となっている.ここでは名詞句「AのB」を例にあげてコーパス作成に意味ソートを用いると効率的であることを述べたが,これは特に名詞句「AのB」に限ったことではない.単語が関係している問題ならば,その単語で意味ソートができるので,文字列レベルで扱わないと仕方がない問題以外はほとんど本稿の意味ソートが利用できる.また,もともと文字列レベルで扱わないと仕方がない問題では文字列でソートすればよいのである.しかし,ここであげた例では名詞Bで意味ソートした後,名詞Aで意味ソートをするといった不連続性がある.名詞Aと名詞Bの両方を考慮することで,意味ソートで近くにくる用例よりも意味的に近い用例を持ってこれる場合がある.しかし,このような方法では一次元的に配列するのが困難で人手でチェックするのが難しくなってくる.\subsection{情報検索での利用}近年,インターネットの発展とともに情報検索の研究は非常に盛んになっている.この情報検索がらみの研究においても意味ソートの有効な利用方法が考えられる.例えば,津田の研究\cite{tsuda94A}では文書データベースの特徴を多数のキーワードによってユーザに提示するということを行なっている.例えば,提示したい文書データベースAのキーワード群が以下のとおりであったとする.\begin{quote}\fbox{検索単語文書作成候補質問数キーワード情報}\end{quote}この単語の羅列をランダムな順番でユーザに提示するのでは不親切である.ここで意味ソートを行なってやると,以下のようになる.{\small\renewcommand{\arraystretch}{}\begin{tabular}[h]{ll}(数量)&数\\(抽象関係)&候補\\(人間活動)&検索\\&文書キーワード単語情報質問\\&作成\\\end{tabular}}ここでは,分類語彙表の上位三桁が一致するものを同じ行に表示している.ランダムに表示するよりはこのように意味ソートを行なって表示した方がよく似た意味の単語が集まるので,ユーザにとってやさしいのではないかと思われる.また,情報検索システムが検索式を作る際にユーザにキーワードを提示して適切なものを選んでもらう場合もある\cite{tsuda94A}.このような場合においても,キーワードを他に適切にならべかえる方法があればそれを用いればよいが,そういったものがない場合は上記と同様にとりあえず意味ソートを用いておけば少しはユーザに対してやさしくなる.
\section{おわりに}
本稿ではまず初めに意味ソートの仕方について述べた.そこでは,以下の三つの意味記述の異なる辞書を用いたそれぞれの意味ソートの方法について記述した.\begin{enumerate}\item単語に番号がふってある辞書(分類語彙表)\item単語に番号がふっていない階層シソーラス辞書(EDR概念辞書)\item\label{enum:owarini_hukusuu_gainen}単語を複数の属性の集合によって表現する辞書(IPAL日本語生成辞書)\end{enumerate}また,\ref{enum:owarini_hukusuu_gainen}の「単語を複数の属性の集合によって表現する辞書」では,この辞書の自由度の高さや多観点シソーラスとの関係を議論し,この辞書の有用性を詳しく述べた.また,本稿の最後では以下の三つの異質な応用領域を述べ,意味ソートの有用性を議論した.\begin{enumerate}\item辞書の構築例\itemタグつきコーパスの作成例\item情報提示システム例\end{enumerate}われわれは意味ソートは言語処理研究だけではなく,言語研究での調査方法としても役に立つものであると考えている.\section*{謝辞}\ref{sec:hukusuu_zokusei}節で述べた単語を複数の属性の集合によって表現するという考え方は国立国語研究所の柏野和佳子研究員との議論において御教示いただいた.また,郵政省通信総研の内山将夫研究員には論文内容についていくつかのコメントをいただいた.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N05-04
|
\section{はじめに}
多言語話し言葉翻訳システムの処理には,文法から逸脱した表現などを含めた多様な表現を扱える頑健性,円滑なコミュニケーションのための実時間性,原言語と目的言語の様々なペアに適用できる汎用性,が必要である.多様な話し言葉表現をカバーするために詳細な構文意味規則を大量に記述する規則利用型(rule-based)処理は,多言語翻訳にとっては経済的な手法でない.一方,用例利用型(example-based)処理は,翻訳例の追加により翻訳性能を向上させていく汎用性の高い手法である.ただし,生データに近い状態の翻訳例をそのまま使うと,入力文に類似する翻訳例が存在しない場合が多くなる,翻訳例を組み合わせて翻訳結果を作り上げるには高度な処理が必要になる,などの問題が起こり,多様な表現に対して高精度の翻訳を実現することが困難になる.そこで,単純な構文構造や意味構造へ加工した用例を組み合わせて利用すれば,単純な解析を使うことによって頑健性も汎用性も高い翻訳処理が実現できる.筆者らは,パタン照合(patternmatching)による構文解析と用例利用型処理を用いた変換主導型機械翻訳(Transfer-DrivenMachineTranslation,以下,TDMTと呼ぶ)を話し言葉の翻訳手法として提案し,「国際会議に関する問い合わせ会話」を対象とする日英翻訳にTDMTを適用した~\cite{Furuse}.しかし,この時点のTDMTは,頑健性,実時間性,汎用性においてまだ問題があった.文献\cite{Furuse}では,多様な表現をカバーするために,表層パタンと品詞列パタンの使い分け,パタンを適用するための入力文の修正,などを行なっていた.例えば,名詞列について,ある場合は複合名詞を表すのに品詞列パタンを照合させ,別の場合は助詞を補完して表層パタンを照合させていた.しかし,どのようにパタンを記述すべきか,どのような場合にどのように入力文を修正すべきか,などの基準が不明瞭であった.そのため,誤った助詞を補完したり,補完の必要性を正確に判別できなかったりする場合があり,多言語翻訳へ展開するための汎用性に問題を残していた.また,限られた長さの複合名詞を品詞列パタンにより記述していたため,任意の長さの複合名詞を扱うことができないなど,頑健性にも問題があった.さらに,解析途中で構文構造候補を絞り込むことができない構文解析アルゴリズムを採用していたため,構文的な曖昧性の多い複文などに対して処理時間が増大するという実時間性の問題もあった.本論文では,これらの問題を解決するために,表層パタンのみを用いた統一的な枠組で,パタンの記述や照合,入力文の修正を行なう構成素境界解析(constituentboundaryparsing)を提案し,構成素境界解析を導入した新しいTDMTが多言語話し言葉翻訳~\cite{Furuse95,Yamamoto96}に対して有効な手法であることを評価実験結果により示す.また,構成素境界解析では,チャート法に基づくアルゴリズムで逐次的(left-to-right)に入力文の語を読み込んで,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析が行なえることも示す.現在は,「国際会議に関する問い合わせ会話」よりも場面状況が多様である「旅行会話」を翻訳対象とし,日英双方向,日韓双方向などの多言語話し言葉翻訳システムを構築している.システムは,構成素境界解析と用例利用型処理を組み合わせた新しいTDMTの枠組により,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳することができる.パタンや用例を利用する頑健な翻訳手法として,原言語と目的言語のCFG規則を対応させたパタンを入力文に照合させる手法~\cite{Watanabe},詳細な構文意味規則を利用する翻訳を併用する手法なども提案されている~\cite{Brown,Kato,Shirai}.前者は,表層語句だけでなく細かい属性を使ってパタンを記述することがあり,パタンの記述は必ずしも容易でない.また,解析中で競合するCFG規則が多くなり処理時間が増大しやすい.後者は,入力文がパタンや用例にヒットすれば高品質の翻訳結果を得られるが,多様な入力文に対して高いヒット率を実現するのは容易ではない.また,多言語翻訳へ展開する際に,様々な言語ペアの翻訳に対して詳細な構文意味規則をそれぞれ用意するのも容易でない.これらの手法に比べて,TDMTは,表層パタンのみの照合を行なうので,実時間性の点で有利である.パタンの記述も容易であり,パタンを組み合わせることにより,他の翻訳手法を併用しなくても多様な入力文に対応でき,頑健性においても,多言語翻訳を実現する汎用性においても有利である.以下,2節で構成素境界解析と用例利用型処理を組み合わせたTDMTの枠組,3節でパタンによる構文構造の記述,4節で構成素境界解析による構文構造の導出,5節で用例利用型処理による最尤の原言語構文構造の決定法と目的言語への変換,6節で解析途中での構文構造候補の絞り込み,について説明し,7節で日英双方向と日韓双方向の話し言葉翻訳の評価実験結果により,本論文で提案するTDMTの有効性を示す.
\section{TDMTの枠組}
TDMTは,単純な表層パタンと用例で記述した変換知識の情報を用いて構成素境界解析と用例利用型処理を行なう.構成素境界解析と用例利用型処理は構文解析や変換などを行なうTDMTの中心的処理である.本節では,変換知識について説明したあと,TDMTの翻訳処理の概要について述べる.\subsection{変換知識}~\label{tk}変換知識は,\ref{cb-pattern}節で説明する構成素境界パタンにより表した原言語表現が,用例を訳し分け条件としてどのような目的言語表現に対応するかを記述する.変換知識の作成は,原言語パタンごとに,システムが翻訳できるようなデータ形式に翻訳例を加工して行なう(この作業を以\clearpage\noindent下,翻訳訓練と呼ぶ).例えば,「京都に来てください」→``{\itPleasecometoKyoto}''という翻訳例の原言語部分から,「Xてください」と「XにY」という原言語パタンを抽出し,それぞれの原言語パタンについて変換知識を作成する.「XにY」では,XとYの具体的な語の組(京都,来る)に対して目的言語パタンは``Y$'${\itto}X$'$''になるという以下のような日英の変換知識を作る~\footnote{本論文では,XやYのようなパタンの変項を具体化する語の組で,変換知識の中で訳し分け条件として記述されているものを用例と呼ぶ.\ref{tk}節の「XにY」に関する変換知識の例では(京都,来る)や(空港,行く)が用例である.}.X$'$はXの対訳を示す.\begin{center}\begin{tabular}{cll}XにY&$=>$&Y$'${\itto}X$'$((京都,来る),(空港,行く)...),\\&&Y$'${\itat}X$'$((三時,来る),...),\\&&\hspace*{5mm}:\end{tabular}\end{center}この変換知識は,「空港に行く」→``{\itgototheairport}''や「三時に来る」→``{\itcomeatthreeo'clock}''のような翻訳例の翻訳訓練結果も含んでいる.TDMTでは,変換知識の原言語パタンを用いて,入力文に適合する原言語構文構造の候補を作る.また,変換知識の用例と目的言語パタンを用いて,最尤原言語構文構造とその変換結果である最尤目的言語構文構造を決定する.なお,原言語パタンには,意味距離計算の対象となる入力文中の語を決めるために主部(head)となる部分がどこであるかという情報を与える(\ref{dis-input}節参照).目的言語パタンには,生成処理を助けるための情報を与える(\ref{output}節参照).\subsection{翻訳処理の概要}本論文で提案するTDMTの構成を図~\ref{flow}に示す.\begin{figure*}[htb]\begin{center}\epsfile{file=flow.eps,hscale=1,vscale=1}\vspace{-2mm}\caption{TDMTの構成}\label{flow}\end{center}\end{figure*}\vspace*{-4mm}入力文を形態素解析した後,構成素境界解析では,変換知識の原言語パタンを組み合わせて入力文に適合する原言語構文構造の候補を作る.用例利用型処理では,構成素境界解析から送られた原言語構文構造候補の各パタンごとに,意味距離計算の対象となる入力文中の語の組に対して,変換知識の各用例との意味距離をシソーラスを参照して計算する.最小の意味距離を与える用例を類似用例と定義する.この類似用例の意味距離を元に構文構造のスコアを求め,最尤の原言語構文構造を決定する.構成素境界解析の途中で入力文の部分に対する構文構造候補ができた場合,用例利用型処理で構文構造のスコアを計算して候補を絞り込みながら,構成素境界解析を進めていく.構成素境界解析は入力文全体の原言語構文構造の候補を最終的に出力し,この候補の中から用例利用型処理で最尤のものを決定する.用例利用型処理では,さらに,入力文全体の最尤の原言語構文構造について,構造を構成する各パタンからは変換知識の中で類似用例が与える目的言語パタンへ変換し,構造の終端の語句からは対訳辞書の中で対応する目的言語の語句へ変換して,最尤の目的言語構文構造を作る~\footnote{原言語構文構造を作りながら目的言語構文構造へ変換することも可能であるが,現在は,翻訳処理の省力化のため,枝刈りされる原言語構文構造についての変換・生成は行なっていない.翻訳入力の途中で部分的な翻訳結果を出力する同時翻訳機構では,構文解析と変換・生成を同時に行なう必要がある.}.最後に,生成処理で,生成辞書を参照するなどして,最尤の目的言語構文構造から翻訳結果を出力する.TDMTは,表層パタンの照合による構成素境界解析と用例利用型処理を組み合わせたことにより多言語話し言葉翻訳システムを構築する上で,以下のような利点を持つ.\vspace*{6mm}\begin{itemize}\item多様な話し言葉表現の構文構造を単純なパタンの組み合わせにより記述できる.(頑健性)\item構文構造が単純であり,解析途中で候補を絞り込みながら構文構造を作り上げることにより,効率的な構文解析ができる.(実時間性)\item変換知識の記述が容易であり,構成素境界解析と用例利用型処理は単純で言語に依存しない手法なので,様々な言語ペアの翻訳に対応できる.(汎用性)\end{itemize}
\section{構成素境界パタン}
\label{cb-pattern}構成素境界パタンは,変項と構成素境界により成り,文や名詞句など意味的にまとまった語句の構文構造を表す~\cite{Furuse2}.変項は,XやYなどの記号により表し,構成素に対応する.構成素として変項を具体化するのは,内容語と,構成素境界パタンに照合する語句である.構成素境界は,機能語または品詞バイグラムマーカにより表し,構成素を関係づけたり修飾したりする.構成素境界解析では,構成素境界をキーにして構文構造を作っていくため(\ref{algorithm}節参照),構成素境界のない「XY」のような二つの変項が隣接するパタンは認めず~\footnote{目的言語表現は,構成素境界パタンでない「X$'$Y$'$」のようなパタンでも表すことができる.構成素境界は構文解析のために使い,生成では必ずしも必要としない.},構成素の間には必ず構成素境界を置く.以下,本節では,構成素境界パタンを用いた構文構造の記述方法について説明する.\subsection{構成素境界としての機能語}構成素境界パタンの中で構成素境界を表す表層語句は原則として機能語であり,内容語は構成素となるので構成素境界には使用しない.この制限により,パタンの種類が膨大になるのを防ぐことができる.英語の前置詞,日本語や韓国語の助詞は頻出の機能語であり構成素境界となる.例えば,英語語句``{\itgotoKyoto}''において,前置詞``{\itto}''が構成素境界として二つの構成素``{\itgo}''と``{\itKyoto}''の間にあると考え,構成素境界パタン``X{\itto}Y''を用いて図~\ref{cbp-func}の(a)のように構文構造を記述する.日本語語句「{\itこちらは観光局}」においても,機能語「{\itは}」が構成素境界として二つの構成素「{\itこちら}」と「{\it観光局}」の間にあり,構成素境界パタン「XはY」を用いて図~\ref{cbp-func}の(b)のように構文構造を記述する.\begin{figure}[tbh]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(50,15)\begin{small}\put(4,13){\shortstack{X{\itto}Y}}\put(6,9){\line(0,1){3}}\put(3,6){\shortstack{{\itgo}}}\put(14,9){\line(0,1){3}}\put(9,6){\shortstack{{\itKyoto}}}\put(8,1){\shortstack{(a)}}\put(37,13){\shortstack{XはY}}\put(39,9){\line(0,1){3}}\put(32,6){\shortstack{{\itこちら}}}\put(47,9){\line(0,1){3}}\put(44,6){\shortstack{{\it観光局}}}\put(40,1){\shortstack{(b)}}\end{small}\end{picture}\caption{構文構造(機能語が構成素境界)}\label{cbp-func}\end{center}\end{figure}\subsection{構成素境界としての品詞バイグラムマーカ}\subsubsection{品詞バイグラムマーカの挿入}~\label{bigram-marker}英語語句``{\itIgo}''は,二つの構成素``{\itI}''と``{\itgo}''より成る.しかし,この二つの構成素の間には表層語句は存在しない.このような場合,形態素解析で品詞が確定した後に,品詞バイグラムマーカを二つの構成素の間に挿入する.前方の構成素の最後の語の品詞をA,後続する構成素の先頭の語の品詞をBとすると,{\footnotesize$<$}A-B{\footnotesize$>$}を品詞バイグラムマーカと定義する.本論文では,AとBを品詞の英語名で表すことにする.連接する品詞Aと品詞Bの間に品詞バイグラムマーカ{\footnotesize$<$}A-B{\footnotesize$>$}を構成素境界として挿入する\break条件を以下に示す.\vspace*{6mm}\begin{enumerate}\renewcommand{\labelenumi}{}\item\hspace*{-3mm}AもBも,前後の構成素を関係づける格助詞や前置詞のような品詞でない.\item\hspace*{-3mm}Aが,後続の構成素を修飾する連体詞や冠詞のような品詞でない.\item\hspace*{-3mm}Bが,前にある構成素を修飾する日本語や韓国語の助動詞や接尾語のような品詞でない.\end{enumerate}\vspace*{6mm}例えば,「こちら{\footnotesize$<$}pronoun-particle{\footnotesize$>$}は{\footnotesize$<$}particle-noun{\footnotesize$>$}観光局」や``{\itgo}{\footnotesize$<$}verb-preposition{\footnotesize$>$}{\itto}{\footnotesize$<$}preposition-propernoun{\footnotesize$>$}{\itKyoto}''のような品詞バイグラムマーカの挿入は[1]の条件に抵触するので認めない.「{\itその}」と「{\itホテル}」の間や``{\itthe}''と``{\itbus}''の間は[2]に,「{\it行き}」と「{\itます}」の間や「{\it鈴木}」と「{\itさん}」の間は[3]に,それぞれ抵触するので品詞バイグラムマーカは挿入しない.品詞バイグラムマーカは,本節の条件により機械的に挿入することができ,単語名でなく品詞名を使うので種類を限定することができる~\footnote{用例利用型処理(\ref{ebmt}節参照)により高精度の構文解析や変換を実現するためには変換知識の各パタンにできるだけ多くの用例を付与することが望ましい.そこで,品詞バイグラムマーカを「X{\footnotesize$<$}$\ast$-$\ast${\footnotesize$>$}Y」のように一本化して用例を集約することも考えられる.しかし,英語のパタン``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''が照合するのは``{\itI}{\footnotesize$<$}pronoun-verb{\footnotesize$>$}{\itgo}''のような単文レベルの表現にほぼ限定されるというように,品詞バイグラムマーカの挿入位置が構成素境界パタンの構造レベル(\ref{combination}節参照)に関係する場合があるので,現在はマーカを挿入位置の前後の品詞で区別している.}.\subsubsection{品詞バイグラムマーカを用いた構文構造記述}英語語句``{\itIgo}''の``{\itI}''と``{\itgo}''はそれぞれ代名詞と一般動詞であり,{\footnotesize$<$}pronoun-verb{\footnotesize$>$}を\mbox{構成}素境界としてそれらの間に挿入する.この結果,``{\itIgo}''は``{\itI}{\footnotesize$<$}pronoun-verb{\footnotesize$>$}{\itgo}''に修正され,パタン``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''に照合可能になる.従って,``{\itIgo}''の構造は図~\ref{cbp-bi}の(a)のように記述できる.また,日本語の話し言葉では,「こちら観光局」のように助詞がしばしば省略される.この語句は「こちら」と「観光局」という二つの構成素より成る.「こちら」は代名詞,「観光局」は普通名詞なので,{\footnotesize$<$}pronoun-noun{\footnotesize$>$}を構成素境界として「こちら」と「観光局」の間に挿入する.修正された「こちら{\footnotesize$<$}pronoun-noun{\footnotesize$>$}観光局」は「X{\footnotesize$<$}pronoun-noun{\footnotesize$>$}Y」に照合可能になる.品詞バイグラムマーカ{\footnotesize$<$}pronoun-noun{\footnotesize$>$}が「は」と同様の働きをすることにより,助詞が脱\break落していない「こちらは観光局」と同様の構造を助詞脱落表現についても図~\ref{cbp-bi}の(b)のように記述することができる.\begin{figure}[tbh]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(81,14)\begin{small}\put(1,13){\shortstack{X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y}}\put(3,9){\line(0,1){3}}\put(1,6){\shortstack{{\itI}}}\put(32,9){\line(0,1){3}}\put(29,6){\shortstack{{\itgo}}}\put(14,1){\shortstack{(a)}}\put(45,13){\shortstack{X{\footnotesize$<$}pronoun-noun{\footnotesize$>$}Y}}\put(47,9){\line(0,1){3}}\put(42,6){\shortstack{{\itこちら}}}\put(76,9){\line(0,1){3}}\put(71,6){\shortstack{{\it観光局}}}\put(57,1){\shortstack{(b)}}\end{small}\end{picture}\caption{構文構造(品詞バイグラムマーカが構成素境界)}\label{cbp-bi}\end{center}\end{figure}文献\cite{Furuse}のTDMTは,「空港バス」や「会場入り口」など複数の名詞が連続した複合名詞を``NOUN$_{1}$NOUN$_{2}$''という品詞列パタンにより表し,「XのY」のような表層パタンの場合とは異なる照合のメカニズムを使っていた.品詞バイグラムマーカの導入により,複数の名詞が連続した複合名詞も,「X{\footnotesize$<$}noun-noun{\footnotesize$>$}Y」のように構成素境界パタンで表現でき,表層パタンの照合のみで構文解析を行なうことが可能になった.すなわち,「空港バス」のような複合名詞も「こちら観光局」のような助詞脱落表現も,品詞バイグラムマーカにより構文構造を記述できる.本論文で提案する品詞バイグラムマーカの挿入により,助詞脱落表現に具体的な助詞を補完する手法~\cite{Furuse}で生じた,補完する助詞を誤る,補完すべきでない時に助詞を補完する,などの問題を解決することができる.\subsection{多様な構成素境界パタン}変項の間に必ず構成素境界を置けば,「そのX」,「XにY」,「XからYまでZ」など,変項の数に制限なく構成素境界パタンを作ることができる.また,「明日までに行く」という語句では機能語である助詞「まで」と「に」が連続している.「まで」と「に」の間は\ref{bigram-marker}節の条件[1]に抵触するので品詞バイグラムマーカを挿入する必要はなく,機能語を連続させて構成素境界とした「XまでにY」のような構成素境界パタンを作ることができる.\subsection{構成素境界パタンの組み合わせ}~\label{combination}構成素境界パタンに照合する語句は,構成素として別の構成素境界パタンの変項を具体化することができる.すなわち,構成素境界パタンを組み合わせることにより構文構造を作ることができる.任意の長さの複合名詞も,「X{\footnotesize$<$}noun-noun{\footnotesize$>$}Y」のような構成素境界パタンの組み合わせにより構文構造を記述できる.しかし,パタンの組み合わせ方によってはありえない構文構造ができるので,構文解析の品質や効率を上げるためにこのような構造を排除する必要がある.このため,本論文では,パタンを構造レベルによって分類し,各構造レベルのパタンの変項を具体化できる語句について,そのサブ構造レベルと品詞を表~\ref{var}のようにあらかじめ指定する~\footnote{これは各構造レベルで,変項すべてについて適用される緩やかな制限である.英語のパタン``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''のXは名詞性のパタンや語でしか具体化できないなど,より厳しい制限を特定の変項についてローカルに与えることもできる.}.これにより,パタンの組み合わせ方を制限し,ありえない構文構造を排除することができる.\renewcommand{\arraystretch}{}\begin{table}[tbh]\begin{center}\caption{構造レベルの関係}\label{var}\begin{small}\begin{tabular}{|l|l|}\hline構造レベル&変項を具体化できるサブ構造レベルと品詞\\\hline複文,重文&複文,重文,単文,動詞句,$\ldots$\\単文&動詞句,名詞句,複合名詞,$\ldots$\\動詞句&動詞句,名詞句,複合名詞,一般動詞,$\ldots$\\名詞句&名詞句,複合名詞,普通名詞,固有名詞,$\ldots$\\複合名詞&複合名詞,普通名詞,$\ldots$\\\hline\end{tabular}\end{small}\end{center}\end{table}例えば,``{\itIgotoKyoto}''という文の構文構造は,``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''と``X{\itto}Y''というパタンの組み合わせになる.``{\itIgotoKyoto}''の正しい構造は図~\ref{Igoto}の(a)であり,(b)の構造は排除しなくてはならない.``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''を単文レベル,``X{\itto}Y''を動詞句レベルのパタンに指定し,表~\ref{var}のように動詞句の下部構造を制限すれば,``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''は``X{\itto}Y''の下部構造とはなりえないので,(b)の構造は排除される.\begin{figure}[tbh]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(90,24)\put(2,21){\shortstack{\smallX{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y}}\put(3,17){\line(0,1){3}}\put(1,13){\shortstack{\small\itI}}\put(30,17){\line(0,1){3}}\put(24,14){\shortstack{\smallX{\itto}Y}}\put(26,10){\line(0,1){3}}\put(23,7){\shortstack{\small\itgo}}\put(34,10){\line(0,1){3}}\put(28,7){\shortstack{\small\itKyoto}}\put(16,1){\shortstack{{\small(a)}}}\put(73,21){\shortstack{\smallX{\itto}Y}}\put(69,17){\line(4,3){5}}\put(50,14){\shortstack{\smallX{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y}}\put(52,10){\line(0,1){3}}\put(50,7){\shortstack{\small\itI}}\put(79,10){\line(0,1){3}}\put(76,7){\shortstack{\small\itgo}}\put(89,17){\line(-4,3){5}}\put(85,14){\shortstack{\small\itKyoto}}\put(74,1){\shortstack{{\small(b)}}}\end{picture}\caption{{\itIgotoKyoto}の構文構造}\label{Igoto}\end{center}\end{figure}
\section{構成素境界解析}
\label{parsing}構成素境界解析は,相互情報量を用いて再帰的に構成素境界を検知して構文構造を求める頑健な構文解析手法としても提案されているが~\cite{Margerman},統計処理への依存が強く,文法情報をほとんど利用しないため解析精度に問題があった.本論文で提案する構成素境界解析は,意味的にまとまった語句について構成素境界パタンを作り,構造レベルでパタンを分類するなど,単純で緩やかな文法制約を与えることにより高精度の構文解析を可能にする.本節では,チャート法に基づくアルゴリズムで,逐次的に入力文の語を読み込んでボトムアップに構文構造を作り上げる構成素境界解析について説明する.\subsection{活性弧と不活性弧}チャート法は活性弧と不活性弧を組み合わせることにより入力文の構文構造を作る.図~\ref{passive}の(a)のような内容語による構造,構成素境界パタンのすべての変項が具体化された(b)と(c)のような構造は不活性弧に対応する.$\Uparrow$は,構文解析で読み込み中の語を指す走査カーソルである.入力文の構文構造は,入力文全体をカバーする不活性弧に対応する.構成素境界パタン中に具体化されていない変項がある図~\ref{active}の(d)と(e)のような構造は活性弧に対応する.\clearpage\begin{figure}[h]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(60,16)\small\put(1,12){\shortstack{友人}}\put(2,8){\shortstack{\large$\Uparrow$}}\put(1,0){\shortstack{(a)}}\put(23,16){\shortstack{XにY}}\put(25,12){\line(0,1){3}}\put(21,9){\shortstack{京都}}\put(33,12){\line(0,1){3}}\put(30,9){\shortstack{行く}}\put(32,5){\shortstack{\large$\Uparrow$}}\put(28,0){\shortstack{(b)}}\put(51,14){\shortstack{Xさん}}\put(57,10){\shortstack{\large$\Uparrow$}}\put(52,10){\line(0,1){3}}\put(49,7){\shortstack{鈴木}}\put(55,0){\shortstack{(c)}}\end{picture}\caption{不活性弧に対応する構造}\label{passive}\end{center}\end{figure}\vspace*{-8mm}\begin{figure}[h]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(30,13)\small\put(3,12){\shortstack{XからY}}\put(9,8){\shortstack{\large$\Uparrow$}}\put(5,8){\line(0,1){3}}\put(1,5){\shortstack{東京}}\put(8,0){\shortstack{(d)}}\put(27,12){\shortstack{このX}}\put(29,8){\shortstack{\large$\Uparrow$}}\put(29,0){\shortstack{(e)}}\end{picture}\caption{活性弧に対応する不完全な構造}\label{active}\end{center}\end{figure}\vspace*{-3mm}チャート法は,部分的な構文解析結果を弧で表すことにより同じ解析を繰り返すのを回避し,効率的な構文解析を行なう.さらに,構成素境界パタンを使ったチャート法の構文解析では,表層をキーとして弧を張っていくので,競合する構成素境界パタンが少ない.従って,張られる弧の数も少ないため,処理時間をより一層抑えることができる.\subsection{構文解析}~\label{algorithm}「友人とハワイに来週行きます」という日英翻訳の入力文を例にとって,TDMTの構成素境界解析を説明する.まず,形態素解析により入力文の各語の品詞を次のように決定する.\begin{small}\begin{center}\begin{tabular}{ccccccc}友人&と&ハワイ&に&来週&行き&ます\\普通名詞&助詞&固有名詞&助詞&普通名詞&動詞&助動詞\end{tabular}\end{center}\end{small}\ref{bigram-marker}節の条件を満たす品詞バイグラムマーカは,普通名詞と動詞の間の{\footnotesize$<$}noun-verb{\footnotesize$>$}のみであり,入力文は「友人とハワイに来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行きます」に修正される.修正された入力文\breakに対し,以下のアルゴリズムに従って,逐次的にボトムアップの構成素境界解析を行なう.以下では,語と語の間に節点を置き,左から$k$番目の語の左隣には節点{\small$k-1$}が,右隣には節点{\small$k$}があるものとする.弧は節点から節点に張るものとする.\vspace*{6mm}\begin{quote}\begin{enumerate}\renewcommand{\labelenumi}{}\newcommand{\labelenumii}{}\item[({\footnotesize0})]先頭の語に走査カーソルを設定し,$k:=1$として,(i)へ.\item走査カーソルの指す語が名詞や動詞などの内容語であれば,節点$k-1$から節点$k$に不活性弧を張り,(iii)へ.そうでなければ,(ii)へ.\item走査カーソルの指す語が構成素境界$\alpha_1$であれば,構成素境界から構成素境界パタンへの対応表を参照することにより,\mbox{構成素境界パタンを検索}\clearpageする.検索されたすべてのパタンについて,その形式に応じて(ii.a)$\sim$(ii.e)のいずれかの処理を行なったうえで,(iii)へ.パタンが検索できなければ,(iv)へ.\samepage{\begin{enumerate}\item「X$\alpha_1$Y」,「X$\alpha_1$Y$\alpha_2$Z」,「X$\alpha_1\alpha_2$Y」のように,$\alpha_1$の左が変項一つのみであり,$\alpha_1$が右端でないパタンが検索された場合,そのパタンの$\alpha_1$の左隣の変項を,節点$j$から節点$k-1$(ただ\breakし,$j<k-1$)に張られた不活性弧で具体化できれば,検索されたパタンに関する活性弧を節点$j$から節点$k$に張る.\item「X$\alpha_1$」のように,$\alpha_1$の左が変項一つのみであり,$\alpha_1$が右端であるパタンが検索された場合,そのパタンの$\alpha_1$の左の変項を,節点$j$から節点$k-1$に張られた不活性弧で具体化できれ\breakば,検索されたパタンに関する不活性弧を節点$j$から節点$k$に\break張る.\item「$\alpha_1$X」,「$\alpha_1$X$\alpha_2$」のように,$\alpha_1$が左端であるパタンが検索された場合,検索されたパタンに関する活性弧を節点$k-1$から節点$k$に張る.\item「X$\alpha_0$Y$\alpha_1$Z」,「X$\alpha_0\alpha_1$Y」のように,$\alpha_1$の左に別の構成素境界があり,$\alpha_1$が右端でないパタンが検索された場合,検索されたパタンに関する活性弧が,$\alpha_1$より左のみ具体化されて節点$j$から節点$k-1$に張られていれば,検索されたパタンに関\breakする活性弧を節点$j$から節点$k$に張る.\item「$\alpha_0$X$\alpha_1$」のように,$\alpha_1$の左に別の構成素境界があり$\alpha_1$が右端であるパタンが検索された場合,検索されたパタンに関す\breakる活性弧が,$\alpha_1$より左が具体化されて節点$j$から節点$k-1$に\break張られていれば,検索されたパタンに関する不活性弧を節点$j$から節点$k$に張る.\end{enumerate}\item節点$i$から節点$k$(ただし,$i<k$)に新しく張られた不活性弧が,節点$h$から節点$i$(ただし,$h<i$)に張られた活性弧を構成するパタンの中のまだ具体化されていない最左の変項を具体化できれば,さらに節点$h$から節点$k$に新しい不活性弧または活性弧を張る.新しい弧が張れなくなるまでこの操作を繰り返し,(iv)へ.\item走査カーソルの指す語が入力文の最後の語であれば,解析終了.そうでなければ,走査カーソルを右へ一語移動させ,$k:=k+1$として,(i)へ.}\end{enumerate}\vspace*{6mm}\end{quote}\newpage(ii)で参照する対応表は,システムが持つ変換知識の原言語パタンからあらかじめ機械的に作成しておく.例文の構成素境界解析において検索される構成素境界パタンを表~\ref{ch1:tret}に示す.\begin{table}[tbh]\begin{center}\caption{構成素境界パタンの検索}\label{ch1:tret}\begin{small}\begin{tabular}{|c|cc|}\hline構成素境界&構成素境界パタン&(パタンの構造レベル)\\\hline{\itと}&XとY&(名詞句,動詞句)\\{\itに}&XにY&(動詞句)\\{\footnotesize$<$}noun-verb{\footnotesize$>$}&X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y&(動詞句)\\{\itます}&Xます&(単文)\\\hline\end{tabular}\end{small}\end{center}\end{table}図~\ref{chart}は入力文に対して弧が張られていく過程を示すチャートである.実線は不活性弧を,点線は活性弧を示し,弧のできる順序を示す番号により弧を識別する.\begin{figure*}[htb]\begin{center}\epsfile{file=chart.eps,hscale=0.9,vscale=0.9}\caption{構文解析の過程を示すチャート}\label{chart}\end{center}\end{figure*}先頭の語「友人」は内容語であり,不活性弧(1)を張る.次の語「と」により「XとY」のXを(1)で具体化させた活性弧(2)と(3)を張る.「XとY」は(2)では動詞句のパタン,(3)では名詞句のパタンである.「ハワイ」により不活性弧(4)を張る.(3)の「XとY」のYを(4)で具体化し,不活性弧(5)を張る.次の語「に」から検索された動詞句パタン「XにY」のXを(4)と(5)でそれぞれ具体化し,活性弧(6)と(7)を張る.「来週」により不活性弧(8)を張る.\clearpage\noindent{\footnotesize$<$}noun-verb{\footnotesize$>$}から検索された「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」のXを(8)で具体化し,活性弧(9)を張る.「行き」により不活性弧(10)を張り,(9)の「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」のYを(10)で具体化し,不活性弧(11)を張る.(6)と(7)の「XにY」のYを(11)で具体化し,それぞれ不活性弧(12)と(13)を張る.さらに,(2)の「XとY」のYを(12)で具体化し,不活性弧(14)を張る.入力文の最後の語「{\itます}」から検索された「Xます」のXを(14)と(13)で具体化し,それぞれ不活性弧(15)と(16)を張る.すべての語を読み込み終えて,これ以上新たな弧が張れない状態になり,解析は終了する.入力文全体をカバーする不活性弧(15)と(16)が入力文の構文構造の候補に対応する.図~\ref{15and16}に入力文の構文構造の候補を示す.パタンに付随する番号は,そのパタンを最上部とする構文構造が対応する不活性弧を示す.\begin{figure*}[htb]\begin{center}\epsfile{file=structures.eps,hscale=0.8,vscale=0.8}\caption{入力文の構文構造の候補}\label{15and16}\end{center}\end{figure*}
\section{用例利用型処理}
\label{ebmt}本節では,構成素境界解析で得られた入力文の構文構造の候補から,意味距離計算によって最尤の目的言語構文構造を決定する用例利用型処理について,\ref{algorithm}節の例文を使って説明する.\subsection{意味距離計算}~\label{dis-input}現在,TDMTでは,シソーラス上での意味属性の位置関係により単語間に0$\sim$1の意味距離を与え~\cite{Sumita},構成素境界パタンに関する意味距離を,各変項についての単語間の意味距離の合計値としている.不活性弧(11)を構成する「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」では,XとYを具体化する語の組(来週,行く)を意味距離計算の対象として~\footnote{意味距離計算は表記形「行き」でなく標準形「行く」に対して行なう.},「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」に関する変換知識の用例との意味距離を計算する.例えば,(来週,行く)と用例(明日,来る)の間の意味距離は,「来週」と「明日」の間の意味距離と,「行く」と「来る」の間の意味距離の合計値である.構成素境界パタンに照合する語句が上部の構成素境界パタンの変項を具体化している場合,主部の語の組を対象として用例との意味距離を計算する.構成素境界パタンで主部となる部分\breakの情報は変換知識に記述しておき,主部は下部の構造から上部の構造へ伝搬するという性質を\break利用して,主部の語を機械的に求めることができる.不活性弧(12)では「XにY」のXとY\breakを,「ハワイ」と「来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」でそれぞれ具体化する.「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」ではYを\break主部に定めているとすると,「来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」の主部は「行き」であり,不活性弧(12)の「XにY」に関する意味距離計算の対象は(ハワイ,行く)となる.\subsection{最尤原言語構文構造の決定と目的言語への変換}~\label{output}用例利用型処理では,構文構造を構成する各構成素境界パタンについて類似用例を変換知識の中から求める.類似用例の与える情報により,最尤の原言語構文構造を決定し,その構造を目的言語に変換して,最尤の目的言語構文構造を得る.不活性弧(15)と(16)に対応する構文構造を構成する構成素境界パタンについて,意味距離計算の結果を表~\ref{d-cal}のように仮定する.\begin{table*}[htb]\begin{center}\caption{意味距離計算の結果}\label{d-cal}\begin{small}\begin{tabular}{|c|c||c|ccc|}\hline構文構造の最上部の&対応する&意味距離計算の&\multicolumn{3}{c|}{意味距離計算の結果}\\\cline{4-6}パタン{\footnotesize(太字は主部)}&不活性弧&対象&類似用例&目的言語パタン&意味距離\\\hlineXと{\bfY}{\footnotesize(動詞句)}&(14)&(友人,行く)&(社長,行く)&Y$'${\itwith}X$'$&0.34\\Xと{\bfY}{\footnotesize(名詞句)}&(5)&(友人,ハワイ)&(京都,奈良)&X$'${\itand}Y$'$&1.01\\Xに{\bfY}&(12),(13)&(ハワイ,行く)&(京都,行く)&Y$'${\itto}X$'$&0.18\\X{\footnotesize$<$}noun-verb{\footnotesize$>$}{\bfY}&(11)&(来週,行く)&(明日,来る)&Y$'$X$'$&0.12\\{\bfX}ます&(15),(16)&(行く)&(行く)&{\itIwill}X$'$&0.00\\\hline\end{tabular}\end{small}\end{center}\end{table*}類似用例が与える意味距離を,構文構造を構成する構成素境界パタンについてすべて合計した値を,構文構造のスコアと定義し,このスコアが最小のものを最尤の構文構造とする~\cite{Furuse}.不活性弧(15)に対応する構文構造では,「XとY」(動詞句),「XにY」,「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」,「Xます」で類似用例が与える意味距離,0.34,0.18,0.12,0.00を合計した0.64がスコアとなる.不活性弧(16)に対応する構文構造では,「XとY」(名詞句),「XにY」,「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」,「Xます」で類似用例が与える意味距離1.01,0.18,0.12,0.00を合計した1.31がスコアとなる.従って,不活性弧(15)に対応する構文構造が最小のスコアを持ち,入力文全体についての最尤の原言語構文構造となる.\clearpage最尤の原言語構文構造の各構成素境界パタンを,変換知識の中で類似用例が訳し分け条件となって与える目的言語パタンへと変換することにより,最尤の目的言語構文構造を作る.不活性弧(15)に対応する構文構造では,各構成素境界パタンは表~\ref{d-cal}の5列目に示す目的言語パタンに変換される.内容語の「友人」,「ハワイ」,「来週」,「行き」は,対訳辞書を参照して``{\itfriend}'',``{\itHawaii}'',``{\itnextweek}'',``{\itgo}''にそれぞれ変換され~\footnote{TDMTシステムは,内容語に対して,対訳辞書に記述されたデフォルトの対訳語句を与えているが,意味距離計算の結果の類似用例によってはデフォルト以外の対訳語句を与えている\cite{Furuse,Yamada}.},図~\ref{(15)}に示す目的言語構文構造ができる.矢印の上の数字は,各構成素境界パタンのスコアである.\begin{figure*}[htb]\begin{center}\epsfile{file=transfer.eps,hscale=0.8,vscale=0.8}\caption{最尤原言語構文構造の変換}\label{(15)}\end{center}\end{figure*}用例利用型処理で得られた最尤の目的言語構文構造は,原言語構文構造の性質を受け継いでいるため,そのまま線条化すると,``{\itIwillgonextweektoHawaiiwiththefriend}''となってしまう.そこで,``Y$'$X$'$''の``X$'$''は時間格,``Y$'${\itto}X$'$''の``{\itto}X$'$''は場所格,というような情報をあらかじめ変換知識の目的言語パタンに与えておいたうえで,語順や活用などの調整を生成処理で行ない,以下のような英語文を出力する.\begin{small}\begin{center}``{\itIwillgotoHawaiiwiththefriendnextweek}''\end{center}\end{small}
\section{解析途中での構文構造候補の絞り込み}
\label{n-best}意味距離計算により構文構造のスコアを得るためには,下部の構造での主部の語を確定させ意味距離計算の対象を決定する必要がある.不活性弧は,構文構造を構成する構成素境界パタンのすべての変項が具体化されている構造であり,構成素境界パタンの主部の語をすべて求めることができるので意味距離計算の対象が決定し,構文構造のスコアが得られる.TDMTでは,処理時間を短縮するために,入力文の同じ部分に対して作られる不活性弧をスコアにより順位づけし,上位n個(n-best)の不活性弧のみを保持して構文解析を進めていく.すなわち,解析途中で構文構造候補の絞り込みを行なう.保持した不活性弧にはスコアと主部の情報を与え,上部の構造で意味距離計算による構文構造候補の絞り込みが容易にできるようにする.意味距離計算により解析途中で構文構造候補を絞り込むには,\ref{algorithm}節のアルゴリズムのようなボトムアップの解析が必要である.TDMTシステムは現在,1-bestをデフォルトとして解析途中での構文構造候補の絞り込みを行なっているが,nの値は容易に変更可能である.例えば,\ref{algorithm}節の入力文の解析の途中で,「友人とハワイに来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」に対して,二つの不活性弧(13)と(14)ができる.保持する不活性弧を1-bestにして構文解析を行なうと,スコアの良い(14)のみが「友人とハワイに来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」について保持され,「Xます」のXを(14)で具体化した(15)のみが入力文の構文構造に対応する.(13)は途中で枝刈りされるので(16)に対応する構文構造は作られない.
\section{多言語話し言葉翻訳の評価実験}
本節では,構成素境界解析と用例利用型処理を組み合わせたTDMTシステムに対する,日英双方向と日韓双方向の話し言葉翻訳の評価実験結果について述べる.\subsection{言語データベースからのシステムデータ構築}TDMTシステムの翻訳対象は,話し言葉翻訳を使用する場面を想定した「旅行会話」とし,TDMTシステムの翻訳訓練文と評価文を選定するために,ホテルの予約,ホテルの紹介,ホテルでのサービス,乗物の切符購入,道案内,交通手段の問い合わせ,観光ツアーの案内など旅行会話全般のトピックに渡る言語データベースを構築した~\cite{Furuse3}.この言語データベースは,通訳を介したバイリンガル模擬会話,基本表現を網羅するために机上で作成した対訳表現集より成る.この言語データベースに形態素のタグづけを行なうことによりTDMTシステムの形態素辞書を構築している.表~\ref{size}は,TDMTシステムの主要データである形態素辞書と変換知識について,評価実験時の規模を翻訳訓練文の概要とともに示す.\begin{table}[bht]\begin{center}\caption{TDMTシステムの規模}\label{size}\begin{small}\begin{tabular}{|l||c|c|c|c|}\hline&日英&日韓&英日&韓日\\\hline形態素辞書の語彙数(概算)&\multicolumn{2}{c|}{13000}&8000&4000\\\hline翻訳訓練文数{\footnotesize(異なり)}&2932&1543&2865&613\\\hline翻訳訓練文の平均語数{\footnotesize(異なり)}&10.0&9.5&8.5&8.0\\\hline変換知識のパタンの種類&776&591&1177&330\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsection{評価実験の内容}~\label{test-cond}旅行会話での多言語話し言葉翻訳のシステム性能を把握するために,言語データベースの中でTDMTシステムが翻訳訓練していないバイリンガル模擬会話から,評価文を無作為抽出して,評価実験を行なった.評価文は,表~\ref{open-sen}に示すように,各言語ペアの翻訳で異なり1000文以上である.日本語を入力とする日英と日韓の翻訳については,比較検討のため,同じ文を使って評価実験を行なった.\begin{table}\begin{center}\caption{評価文(ブラインドテスト)}\label{open-sen}\begin{small}\begin{tabular}{|c||c|c|c|}\hline&日英,日韓&英日&韓日\\\hlineのべ文数&1225{\footnotesize(9.7語$/$文)}&1341{\footnotesize(7.1)}&1174{\footnotesize(8.1)}\\異なり文数&1001{\footnotesize(11.4語$/$文})&1019{\footnotesize(8.8)}&1004{\footnotesize(9.1)}\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsubsection{評価項目}評価項目は,翻訳品質,構文解析,処理時間である.翻訳品質に関しては,複数の尺度で採点する方法~\cite{Nag}や,様々な言語現象を含む評価文の翻訳結果が評価項目をクリアしているかどうかを調べ,システム改良の参考データを求める方法~\cite{Ikehara}などが提案されている.ただし,これらはほとんど日英間の書き言葉翻訳を対象としており,多言語話し言葉翻訳についての評価方法は提案されていない.筆者らは,話し言葉翻訳という性格上,どのような言語的な誤りがあったかよりも,話し手の言いたいことが聞き手にどの程度伝わったかという観点が重要であると考え,システム開発者よりもシステム使用者の視点に立って翻訳品質を評価した.以下の翻訳成功率を設定し,各言語ペアの翻訳について,原言語に堪能な目的言語のネイティブ話者3名が採点した結果の平均値を求めた.\vspace*{6mm}\begin{quote}\begin{description}\item[翻訳成功率A:]\\話し手の言いたいことのすべてが問題なく聞き手に伝わっている\\{\bf「問題なし」}と判定された文の割合\item[翻訳成功率B:]\\話し手の言いたいことの最低限必要な内容が聞き手に伝わっている\\{\bf「理解可能」}と判定された文の割合\end{description}\end{quote}\vspace*{6mm}構成素境界解析による構文解析結果の評価では,入力文全体の構造を正しく解析できていれば成功,一部でも誤った構造になっていれば失敗と判定し,構文解析成功率を求めた.処理時間は,CommonLispで記述したプログラムをコンパイルしたTDMTシステムについて,SPARCstation10上で計測した.\subsubsection{評価実験の前提}評価実験は以下の前提で行なった.\vspace*{6mm}\begin{itemize}\itemシステムへの入力は,文字列でなく正解形態素列とし,形態素解析の性能~\cite{Yamamoto}とTDMTの性能を独立に評価することにした.処理時間も形態素解析の時間を除いて計測した.また,話し言葉翻訳という前提を考慮して,音声として現れない句読点,コンマ,ピリオドなどは入力に含めなかった.\item入力文で同じ部分に対して保持する不活性弧を1-bestにして構文構造候補を絞り込みながら構成素境界解析を行なった.これは,構文構造を多く保持しても,表\ref{comp-n-best}に示すように翻訳結果が変わるのは少数であり,翻訳結果が変わって品質が向上したのはごく少数だったという予備実験の結果による.\end{itemize}\begin{table}[bht]\begin{center}\caption{構文構造候補の絞り込みの影響}\label{comp-n-best}\vspace{2mm}\begin{small}\begin{tabular}{|l|l||c|c|c|}\hline&&1-best&5-best&10-best\\\hline1-bestの時と比較した&日英&0{\tiny\bf\%}&5.9{\tiny\bf\%}&6.1{\tiny\bf\%}\\\cline{2-5}翻訳結果の差分割合(のべ)&英日&0{\tiny\bf\%}&5.0{\tiny\bf\%}&5.1{\tiny\bf\%}\\\hline全評価文の平均処理時間&日英&0.52{\tiny\bf秒}&0.70{\tiny\bf秒}&0.81{\tiny\bf秒}\\\cline{2-5}(形態素解析の時間を除く)&英日&0.30{\tiny\bf秒}&0.48{\tiny\bf秒}&0.66{\tiny\bf秒}\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsection{評価実験結果}表~\ref{rate-all}に,全評価文に対する翻訳成功率と構文解析成功率を示す.\begin{table}[bht]\begin{center}\caption{翻訳成功率と構文解析成功率(全評価文)}\label{rate-all}\begin{small}\begin{tabular}{|ll||c|c|c|c|}\hline&&日英&日韓&英日&韓日\\\hline翻訳訓練文数&{\scriptsize\bf異なり}&2932&1543&2865&613\\\hline翻訳成功率A&{\scriptsize\bfのべ}&45.3{\tiny\bf\%}&60.4{\tiny\bf\%}&43.4{\tiny\bf\%}&47.4{\tiny\bf\%}\\(問題なし)&{\scriptsize\bf異なり}&34.2{\tiny\bf\%}&51.7{\tiny\bf\%}&35.0{\tiny\bf\%}&39.9{\tiny\bf\%}\\\hline翻訳成功率B&{\scriptsize\bfのべ}&78.5{\tiny\bf\%}&93.0{\tiny\bf\%}&83.8{\tiny\bf\%}&92.2{\tiny\bf\%}\\(理解可能)&{\scriptsize\bf異なり}&73.9{\tiny\bf\%}&91.5{\tiny\bf\%}&81.2{\tiny\bf\%}&91.1{\tiny\bf\%}\\\hline構文解析成功率&{\scriptsize\bfのべ}&77.8{\tiny\bf\%}&70.5{\tiny\bf\%}&74.6{\tiny\bf\%}&60.0{\tiny\bf\%}\\&{\scriptsize\bf異なり}&72.8{\tiny\bf\%}&63.9{\tiny\bf\%}&66.6{\tiny\bf\%}&53.4{\tiny\bf\%}\\\hline\end{tabular}\end{small}\end{center}\end{table}どの言語ペアの翻訳についても翻訳成功率Bは高く,TDMTシステムが,話し手の意図が理解可能なレベルの多言語翻訳を多くの旅行会話文に対して実現していることが示された.TDMTシステムの日英,日韓,英日,韓日の翻訳について,評価文に対する翻訳実行例を付録に示す.日韓と韓日については,翻訳訓練文が少ないにもかかわらず特に高い翻訳成功率を達成している.構文解析成功率は,翻訳訓練文数が多い日英と英日が高く,訓練文数が最小だった韓日が最も低い.図~\ref{time}は,翻訳に要したCPUtimeを各形態素数ごとに平均した値により処理時間を示す.形態素解析の時間は含めていない.翻訳訓練文数が多い日英と英日は他の翻訳に比べて処理時間が少し長いが,いずれの言語ペアの翻訳でも実時間の処理を実現している.\begin{figure}[htb]\begin{center}\epsfile{file=length-time.eps,hscale=0.7,vscale=0.7}\vspace{-2mm}\caption{入力形態素数と処理時間}\label{time}\end{center}\end{figure}他の話し言葉翻訳システムの多くは,音声で入出力を行なう音声翻訳システムの翻訳コンポーネントとして構築され,限定されたそれぞれの翻訳対象で音声認識結果を翻訳の入力としているので,TDMTシステムの翻訳性能との優劣を単純に決めることはできない.しかし,本論文の提案手法を採用したTDMTシステムは,対象とする語彙数の多さ,トピックの広さ,扱う表現の多様さなど適用範囲の点で優位と言える.例えば,音声翻訳システムASURA(AdvancedSpeechUnderstandingandRenderingsystematATR)の翻訳コンポーネントは,素性構造のトランスファ方式を採用し「国際会議に関する問い合わせ会話」を対象として日本語から英語とドイツ語への翻訳を行なってる.目的指向型電話会話の日本語基本表現の約90\%をカバーしているが~\cite{Uratani},語彙数は約1500語と少なく,音声認識の結果を翻訳入力とした場合の評価結果のみ報告されている~\cite{Morimoto}.また,中間言語方式の翻訳コンポーネントを持つ音声翻訳システムJANUSは,「会議の日程調整」を対象として英語,ドイツ語,スペイン語の間の翻訳を行なう~\footnote{「旅行会話」を翻訳対象とするシステムの研究も始まっている.また,日本語や韓国語を目的言語とする翻訳についても検討されている.}.語彙数は約3000〜4000語であり,テキスト入力の発話に対するブラインドテストでは,翻訳結果の約80\%が理解可能と判定されている~\cite{Lavie}.しかし,これは,日英間の翻訳に比べて類似した言語ペアの翻訳についての評価結果であり,翻訳対象の表現は,会話の話題と進行を強く制限することにより意味的曖昧性が抑えられている.\subsection{構成素境界解析の効果の評価}本節では,翻訳処理における構成素境界解析の効果を分析するために行なった評価実験の結果について述べる.\subsubsection{翻訳成功率と構文解析成功率の関係}~\label{eval-cbp}表~\ref{st-rank}は,構文解析の成功あるいは失敗で評価文を分けてそれぞれの翻訳成功率を調べた結果である.図~\ref{word-rate-je},~\ref{word-rate-jk}に,入力形態素数ごとの翻訳成功率と構文解析成功率を,日英と日韓の翻訳についてそれぞれ示す.\begin{table}[bht]\begin{center}\caption{構文解析結果ごとの翻訳成功率}\label{st-rank}\begin{small}\begin{tabular}{|l|l||c|c|c|c|}\hline&構文解析&日英&日韓&英日&韓日\\\hline翻訳成功率A&成功&57.1{\tiny\bf\%}&76.0{\tiny\bf\%}&54.8{\tiny\bf\%}&67.2{\tiny\bf\%}\\\cline{2-6}(問題なし)&失敗&4.0{\tiny\bf\%}&22.9{\tiny\bf\%}&9.7{\tiny\bf\%}&17.8{\tiny\bf\%}\\\hline翻訳成功率B&成功&88.6{\tiny\bf\%}&96.5{\tiny\bf\%}&90.8{\tiny\bf\%}&96.8{\tiny\bf\%}\\\cline{2-6}(理解可能)&失敗&43.0{\tiny\bf\%}&84.6{\tiny\bf\%}&63.4{\tiny\bf\%}&85.2{\tiny\bf\%}\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{figure}[htb]\begin{center}\epsfile{file=length-result-JE.eps,hscale=0.7,vscale=0.7}\caption{入力形態素数ごとの翻訳成功率と構文解析成功率(日英)}\label{word-rate-je}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\epsfile{file=length-result-JK.eps,hscale=0.7,vscale=0.7}\caption{入力形態素数ごとの翻訳成功率と構文解析成功率(日韓)}\label{word-rate-jk}\end{center}\end{figure}いずれの言語ペアの翻訳においても,高精度の構文解析が高品質の翻訳結果につながっており,翻訳訓練文の追加などにより構成素境界解析の精度をさらに高めていく必要があることが示された.日英と英日については,翻訳成功率A(問題なし),翻訳成功率B(理解可能)ともに,構文解析に失敗の影響を受けやすい傾向があった.一方,語順,構文構造,省略表現などで類似する言語ペアの翻訳である日韓と韓日は,構文解析成功率が低下しても,高い翻訳成功率B(理解可能)を維持していることが示された.しかし,翻訳成功率A(問題なし)については,構文解析成功率の低下の影響を受けることが図~\ref{word-rate-jk}により示された.すなわち,日韓や韓日においても,より高品質の翻訳結果を得るためには,正しい依存関係を構文解析により求めて正しい訳し分けを行なうなどの必要があり,言語的類似性に頼りすぎるべきではない~\cite{Kim}.\subsubsection{構成素境界パタンの組み合わせ方の制限の効果}構成素境界パタンの組み合わせ方の制限によってありえない構文構造を排除することの効果を調べるために,\ref{test-cond}節の表\ref{open-sen}の評価文の翻訳結果が組み合わせ方の制限の有無でどれだけ違うかという実験を行なった.翻訳結果に違いがあった割合はのべ計算で日英42.2\%,日韓22.8\%,英日43.3\%,韓日15.5\%であり,特に,日英と英日で制限の影響が大きいことが示された.すべての言語ペアの翻訳においてパタンの組み合わせ方を制限したほうが翻訳品質が良い場合が多く,制限の効果が示された.日韓と韓日において翻訳結果が違った割合が小さいのは,日本語と韓国語の語順が類似しており,TDMTシステムが持つパタンの種類が少なかったためである.表~\ref{diff-constraint}に,日英と英日についてパタンの組み合わせ方の制限の有無で翻訳結果が違った例を示す.\begin{table*}[hbt]\begin{center}\caption{パタンの組み合わせ方の制限の有無で翻訳結果が違った例}\label{diff-constraint}\begin{small}\tabcolsep=1.4mm\begin{tabular}{|c||c|c|}\hline&日英&英日\\\hline入力&はい大阪水上バス交通でございます&doesitstopattheKyotoKankoHotel\\\hline翻訳結果(制限あり)&YesthisisOsakaAqua-bus&京都観光ホテルで止まりますか\\\hline翻訳結果(制限なし)&ThisisyesOsakaAqua-bus&京都観光ホテルでの止まりますか\\\hline\end{tabular}\end{small}\end{center}\end{table*}\vspace*{-3mm}\subsubsection{品詞バイグラムマーカの効果}\ref{test-cond}節の表\ref{open-sen}の評価文のうち,品詞バイグラムマーカを含む構成素境界パタンを使って翻訳を行なった文の割合を調べたところ,のべ計算で日英57.4\%,英日77.3\%と,品詞バイグラムマーカを用いた構文構造の記述がどちらの翻訳でも頻繁に行なわれていたことが示された.日英に比べて英日での使用割合が大きかったのは,日本語では助詞を介して格関係を構成することが多いのに対して,英語では主格や目的格は述部との間に前置詞を介さないため品詞バイグラムマーカを使用したことが原因である.さらに,日英で,品詞バイグラムマーカを含む構成素境界パタンを使って構文解析が成功した文の数を調べたところ,のべ463文(全評価文1225文の37.8\%)であった.すなわち,品詞バイグラムマーカの導入により構文解析成功率を40.0\%から77.8\%に向上させたことになる.また,日英の評価文の中で,助詞脱落表現を含む文は28文(全評価文の2.3\%)であった~\footnote{「明日行く」のような副詞的名詞句による述部修飾,「三日かかる」のような数量名詞句による述部修飾などは助詞脱落表現にカウントしなかった.}.日英で助詞脱落表現部分について正しい構造が得られたのは,「様子分かる」,「熱出る」,「番組ここで調べる」などの表現を含む23文であり,これは助詞脱落表現を含む文の82.1\%に相当した.これらの結果は,品詞バイグラムマーカが,多様な表現の構文構造の記述,構文解析の精度向上に大きく貢献していることを示す.
\section{おわりに}
表層パタンのみの照合による構成素境界解析を提案し,構成素境界解析と用例利用型処理を組み合わせた変換主導型機械翻訳(TDMT)の新しい実現手法について述べた.日英双方向と日韓双方向の話し言葉の評価実験の結果により,TDMTシステムが多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳でき,本論文で提案したTDMTが多言語話し言葉翻訳に有効であることを示した.高精度の構文解析が高品質の翻訳結果の重要な要素であることも評価実験結果により示した.今回の評価実験において,複文構造での格関係,複合名詞,等位接続詞表現などで,構成素境界解析の失敗が目立った.効率的な翻訳訓練,変換知識の記述の改良などにより,これらの表現を中心としてさらに構文解析成功率を向上させることが今後の課題である.日英双方向と日韓双方向の翻訳に加えて,現在,日本語からドイツ語や中国語への翻訳~\cite{Paul,Yamamoto99}についてもTDMTの適用を試みており,これらの翻訳についても評価実験を行ないながら,多言語話し言葉翻訳に対するTDMTの汎用性を確認していく予定である.また,話し言葉翻訳を音声認識と統合した音声翻訳では,入力文を分割して理解可能な部分を最大限出力する機構~\cite{Furuse98}や同時翻訳機構など,入力文を時系列に読み込んで処理することが想定される.本論文で提案した構成素境界解析はこの要求に添うことができる.今後,構成素境界解析を基盤にして,音声処理との統合,長文入力を漸進的に翻訳する同時翻訳機構など高度な話し言葉翻訳技術にも取り組んでいく予定である.\clearpage\appendix
\section{評価文に対するTDMTシステムの翻訳実行例}
\label{actual}3名の評価者の判定が一致した翻訳結果で分類して,TDMTシステムの翻訳実行例を示す.\vspace{3mm}\subsection{日英}\paragraph{●「問題なし」として翻訳成功}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]それではジョンフィリップス様あしたの朝八時にお待ちしております\item[出力:]well,mr.johnphillips,wearelookingforwardtoseeingyouateighto'clocktomorrowmorning\item[]\rule{132mm}{0.2mm}\item[入力:]じゃそのパッケージのお値段はいくらぐらいになるんですか\item[出力:]well,howmuchwillthepriceofthepackagebe?\item[]\rule{132mm}{0.2mm}\item[入力:]かしこまりましたではチェックアウトのために十分前にフロントにお越しください\item[出力:]allright,well,pleasecometothefrontdesktenminutesbeforeforcheck-out\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]仁王像は東大寺の入口を守っていますからいつでもご覧になれますよ\item[出力:]thestatueofniohaskepttheentrancetodaiji.youcananytimesee\item[]\rule{132mm}{0.2mm}\item[入力:]プライベートビーチのあるホテルリゾートホテルでしたらどこでもよろしいんですよ\item[出力:]anywhereisgoodforthehotelresorthotelwithaprivatebeach\item[]\rule{132mm}{0.2mm}\item[入力:]お友達のおみやげにね安い化粧品とか雑貨がほしいんですけどどっかお勧めの店ってありません\item[出力:]i'dliketohaveacheapcosmeticandthesundriesasafriend'ssouvenirs.thereisn'tanyrecommendationstore\item[]\rule{132mm}{0.2mm}\end{itemize}\newpage\subsection{日韓}\paragraph{●「問題なし」として翻訳成功}\unitlength=1mm\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]はい八月十三日の土曜日から八月二十日の土曜日まで一週間お願いします\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-1.eps}}\item[]\rule{132mm}{0.2mm}\item[入力:]十月二十八日の金曜日ですけれども何時ごろにご到着のご予定でしょうか\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-2.eps}}\item[]\rule{132mm}{0.2mm}\item[入力:]ではパックの予約と同時にビデオカメラとシーディープレーヤーの貸し出しの予約もお願いいたします\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-3.eps}}\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]今ホテルのすぐ近くまで来てるんですけどここからどうやってそちらに行ったらいいのか教えてほしいんですけど\item[出力:]\raisebox{-7mm}{\epsfile{file=fig/87-4.eps}}\vspace*{5mm}\item[]\rule{132mm}{0.2mm}\item[入力:]ですが会席料理という京都の季節の味をうまくコーディネートした京料理をお勧めしたいのですが\item[出力:]\raisebox{-7mm}{\epsfile{file=fig/87-5.eps}}\vspace*{5mm}\item[]\rule{132mm}{0.2mm}\item[入力:]お一人様八千円からございまして私どもはこちらの方をお勧めしております\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-6.eps}}\item[]\rule{132mm}{0.2mm}\end{itemize}\newpage\subsection{英日}\paragraph{●「問題なし」として翻訳成功}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]thesuiteissevenhundreddollarspernightandthetwinroomisthreehundreddollarspernight\item[出力:]スイートは一泊七百ドルです,ツインルームは一泊三百ドルです.\item[]\rule{132mm}{0.2mm}\item[入力:]yesmyname'sjohnphillipsandirentedanissanmarchfromyouyesterday\item[出力:]はい,私の名前はジョン・フィリップスです,昨日あなたから日産マーチを借りました.\item[]\rule{132mm}{0.2mm}\item[入力:]yescanyoutellmehowtogettothestadiumfromosakajrstationplease\item[出力:]はい,どうやってジェイアールの大阪駅からスタジアムに行けば良いか教えて頂けますか.\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]soiturnrightatthekyotostylerestaurantandiwillseeyourinnonthelefthandside\item[出力:]それでは,右京都スタイルのレストランに曲がります,左手側に旅館を見ます.\item[]\rule{132mm}{0.2mm}\item[入力:]it'sonlyabouttwohundredmetersawayandthere'saninformationboardoutsidethestationtodirectyou\item[出力:]約二百メーターだけ遠くです,教えるために駅付近の案内板があります.\item[]\rule{132mm}{0.2mm}\item[入力:]itbeginsateightp.m.andyouwillbesuretopickupyourticketsattheticketwindowbeforeseventhirtyp.m.\item[出力:]午後八時に始めます,午後七時三十分の前に必ず切符の窓でチケットを受け取ります.\item[]\rule{132mm}{0.2mm}\end{itemize}\newpage\subsection{韓日}\paragraph{●「問題なし」として翻訳成功}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-7mm}{\epsfile{file=fig/89-1.eps}}\vspace*{2mm}\item[出力:]その次に出発するセマウル号は十八時に出発する列車がトンテグ駅に二十一時二分に着きます.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-3mm}{\epsfile{file=fig/89-2.eps}}\vspace*{2mm}\item[出力:]同じ日の十時十分に出発する飛行機には席があります.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-3mm}{\epsfile{file=fig/89-3.eps}}\item[出力:]電話番号は零七五の六六一の七一一一です.\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-8mm}{\epsfile{file=fig/89-4.eps}}\vspace*{2mm}\item[出力:]料金はいったんお客様が負担をされますしあとに日本に帰られて保険会社請求をしてください.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-7.5mm}{\epsfile{file=fig/89-5.eps}}\vspace*{2mm}\item[出力:]市内にあるロッテホテルとチャムシルにあるロッテワールドホテルがあるのですがどちらかご存知ているのですか.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-1.5mm}{\epsfile{file=fig/89-6.eps}}\item[出力:]この書類を韓国に早く送らなければならないのですが一番早く送れる方法は何ですね.\item[]\rule{132mm}{0.2mm}\end{itemize}\clearpage\bibliographystyle{jnlpbbl}\bibliography{v06n5_04}\vspace*{5mm}\begin{biography}\biotitle{略歴}\bioauthor{古瀬蔵}{1982年九州大学工学部情報工学科卒業.1984年同大学大学院情報システム学専攻修士課程修了.同年日本電信電話公社入社.1990年よりATR自動翻訳電話研究所,ATR音声翻訳通信研究所へ出向.1997年日本電信電話株式会社へ復帰.現在,NTTサイバーソリューション研究所.自然言語処理,特に機械翻訳の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).同年よりATR音声翻訳通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{山田節夫}{1990年東京電機大学理工学部情報科学科卒業.1992年同大学大学院情報科学専攻修士課程修了.同年日本電信電話株式会社入社.1997年ATR音声翻訳通信研究所へ出向.現在に至る.自然言語処理,特に機械翻訳の研究に従事.情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V22N05-01
|
\section{はじめに}
ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}は自然言語処理(NLP)の様々なタスクの横断的な誤り分析により,今後のNLPで必要となる技術を明らかにしようとするプロジェクトである.プロジェクトでは誤り分析の対象のタスクが18個設定され,「語義曖昧性解消」はその中の1つである.プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った.本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる.特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる.なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を「誤り原因のタイプ分類」と呼ぶことにする.誤り分析を行う場合,(1)分析対象のデータを定める,(2)その分析対象データを各人が分析する,(3)各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する,という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた.また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である.クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた.具体的には,各自の設定した誤り原因を対応する事例を用いてベクトル化し,それらのクラスタリングを行った.そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に9種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した.これは作成した誤り原因のタイプ分類が分析者7名のタイプ分類を代表していることを示している.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
\section{分析対象データ}
誤り分析用のデータはSemEval-2の日本語WSDタスクから作成した\cite{semeval-2010}.SemEval-2のデータは対象単語が50単語あり,各対象単語に対して50個の訓練用例と50個のテスト用例が存在する.また用例中の対象語には岩波国語辞典\cite{iwakoku5}の語義が付与されている.つまり語義識別のラベルは岩波国語辞典の語義である.まずSemEval-2のコンペの際にbaselineとされたシステムを構築した.以降,本論文ではこのシステムを「分析用システム」と呼ぶ.学習アルゴリズムはSVMであり,以下の20種類の特徴量を利用する.\vspace{0.5\Cvs}\small\begin{verbatim}e1=二つ前の単語表記,e2=二つ前の品詞,e3=その細分類,e4=一つ前の単語表記,e5=一つ前の品詞,e6=その細分類,e7=対象単語の表記,e8=対象単語の品詞,e9=その細分類,e10=一つ後の単語表記,e11=一つ後の品詞,e12=その細分類,e13=二つ後の単語,e14=二つ後の品詞,e15=その細分類,e16=係り受け,e17=二つ前の分類語彙表の値(5桁),e18=一つ前の分類語彙表の値(5桁),e19=一つ後の分類語彙表の値(5桁),e20=二つ後の分類語彙表の値(5桁)\end{verbatim}\normalsizebaselineシステムは分類語彙表IDの4桁と5桁を同時に使う形になっていたが,分析用システムでは5桁のみとした.また一般に一つの単語に対しては複数の分類語彙表IDが存在するので,\verb|e17,e18,e19,e20|に対する素性は複数になる場合もある.例として,以下の用例(「息子とその婚約者に会っていこうかと考えた」)\footnote{このようにSemEval-2のデータは形態素解析結果をXML形式で表現している.}に対する素性リストを示す.対象単語は記号(*)のついた「あう」である.\vspace{0.5\Cvs}\begin{screen}\small\begin{verbatim}<sentence>・・・<morpos="名詞-普通名詞-一般"rd="ムスコ">息子</mor><morpos="助詞-格助詞"rd="ト">と</mor><morpos="連体詞"rd="ソノ">その</mor><morpos="名詞-普通名詞-サ変可能"rd="コンヤク">婚約</mor><morpos="接尾辞-名詞的-一般"rd="シャ">者</mor><morpos="助詞-格助詞"rd="ニ">に</mor><morpos="動詞-一般"rd="アッ"bfm="アウ"sense="166-0-2-1-0">会っ</mor>(*)<morpos="助詞-接続助詞"rd="テ">て</mor><morpos="動詞-非自立可能"rd="イコー"bfm="イク">いこう</mor><morpos="助詞-終助詞"rd="カ">か</mor><morpos="助詞-格助詞"rd="ト">と</mor><morpos="動詞-一般"rd="カンガエ"bfm="カンガエル"sense="9590-0-0-1-0">考え</mor><morpos="助動詞"rd="タ"bfm="タ">た</mor>・・・</sentence>\end{verbatim}\end{screen}\vspace{0.5\Cvs}対象単語の一つ前の単語表記は「に」なので,\verb|`e4=に'|となる.この単語の品詞情報から\linebreak\verb|`e5=助詞'|,\verb|`e6=格助詞'|となる.同様にして\verb|e1|から\verb|e15|が設定できる.また用例はCaboCha\footnote{http://taku910.github.io/cabocha/}により係り受けの解析がなされ,対象単語を含む文節の最も近い係先の単語の原形が\verb|e16|に設定される.この場合は\verb|`e16=いく'|となる.次に二つ前の単語「者」に対する分類語彙表IDは\verb|1.1000,7,1,2|と\verb|1.2020,1,1,4|であり.前者から上位5桁を取ると\verb|11000|となり,後者から上位5桁を取ると\verb|12020|となる.そのため\verb|e17|は\verb|`e17=11000'|と\verb|`e17=12020'|の2つが設定される.一つ前の単語「に」と一つ後の単語「て」は助詞なので分類語彙表IDは無視する.二つ後の単語「いこう」に対する分類語彙表IDは\verb|2.3000,6A,2,1|と\verb|2.3320,5,1,2|から\verb|`e20=23000'|と\verb|`e20=23320'|が設定される\footnote{これは間違いである.正しくは「いこう」の原形「いく」に対する分類語彙表IDを与えなくてはならない.分析用システムではbaselineシステムを忠実に再現したためこのような不備も生じている.}.以上より,上記用例の素性リストは以下となる.\vspace{0.5\Cvs}\small\begin{verbatim}(e1=者,e2=接尾辞,e3=名詞的,e4=に,e5=助詞,e6=格助詞,e7=会っ,e8=動詞,e9=一般,e10=て,e11=助詞,e12=接続助詞,e13=いこう,e14=動詞,e15=非自立可能,e16=いく,e17=11000,e17=12020,e20=23000,e20=23320)\end{verbatim}\normalsize\vspace{0.5\Cvs}「あう」の訓練データの50用例を全て素性リストに直し,その要素の異なり数$N$を次元数とした$N$次元ベクトルを設定する\footnote{この例の場合,$N=335$であった.}.訓練データとテストデータの用例を素性リストに変換し,$N$次元ベクトルの$i$次元目に対応する要素が存在すれば$i$次元の値を1に,存在しなければ0とすることで,その素性リストは素性ベクトルに変換できる.この素性ベクトルを利用してSVMによる学習と識別が可能となる.SVMの学習はlibsvm\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/}の線形カーネルを用いた.指定できるパラメータは全てdefaultのままである.SVMにより識別した結果,テスト事例2,500のうち,誤りは577事例であった\footnote{平均正解率は76.92\%であり,これはSemEval-2の参加システム中,最高値であった.}.ここから新語義と未出現語義の事例を除くと543事例となった.ここからランダムに50個の事例を選出し,この50事例を誤り分析の対象事例とした.この50事例は付録1に記した.
\section{各人の分析結果}
前述した50事例の分析対象データに対して,我々のチームのメンバーの内7名(村田,白井,福本,新納,藤田,佐々木,古宮)が独自に誤り分析を行った.分析結果として,各人は分析対象の50事例に対して,各自が設定した誤り原因の記号をつけた.表\ref{kekka-all}がその結果である.\begin{table}[p]\caption{50事例に対する各自の分析結果}\label{kekka-all}\input{01table01.txt}\end{table}各自の記号の意味やどのような観点で分析したかを以下に述べる.\subsection{村田の分析:解き方に着目}\label{sec:tokikata}採用した誤り分析の考え方・方法論について述べる.普遍的な誤り分析を目指して,以下の誤り分析のフレームワークを用いる.\begin{itemize}\item誤り事例を人手で考察し,人ならそれを正しく解くにはどう解くかを考えて,その事例の解析に有効な特徴(解き方)を見つける.その特徴が学習データにあるかを確認する.\item誤り分析の際には,正解に至るまでの誤り原因をすべて網羅して調べる.これは,複数の誤り原因が存在する場合があり,一つの原因だけを見つけるのでは誤り分析としては不十分な場合があるためである.\end{itemize}具体的な誤り分析の手順は以下のとおりである.まず,各事例の対象単語の品詞を調べる.次に,品詞を参考にして各事例の解き方を調べる.最後に,解き方を参考にして各事例の誤り原因を調べる.以降,以上の方法論・手順に基づき行った調査結果について述べる.まず各事例の対象単語の品詞を調べた.品詞の出現数を表\ref{tab:murata_pos}に示す.表の「記号」の列はその品詞のデータに付与した記号である.次に各事例の解き方を調べた.解き方はある程度対象語の品詞に依存する.このため対象語の品詞を考慮しながら,解き方を考える.各事例に解き方のタグを付与する.解き方(解析に有効な特徴)の出現数を表\ref{tab:murata_solve}に示す.表の「記号」の列は,実際に事例に付与したタグの記号である.タグは一つの事例に複数重複してふられる場合がある.「解き方未判定」は,難しい事例で解き方が思いつかなかったものである.「文パターン」は,例えば「対象語の直前に『て』がある文パターンの場合語義Xになる」という説明が辞書にある場合があり,そのような文パターンを利用して解く方法である.「表現自身」は,例えば「対象語において漢字Xを使う場合は語義Yになる」という説明が辞書にある場合がありそのような情報を利用して解く方法である.\begin{table}[b]\vspace{-0.5\Cvs}\caption{品詞の出現数}\label{tab:murata_pos}\input{01table02.txt}\end{table}\begin{table}[b]\caption{解き方の出現数}\label{tab:murata_solve}\input{01table03.txt}\end{table}\begin{table}[b]\caption{誤り原因の出現数}\label{tab:murata_error}\input{01table04.txt}\end{table}次に各事例の誤り原因を調べた.各事例で付与した解き方のタグを参考にして,誤り原因を調べた.誤り原因の出現数を表\ref{tab:murata_error}に示す.表の「記号」の列は,実際に事例に付与したタグの記号である.タグは一つの事例に複数重複してふられる場合がある.表の「分析が困難」は,分析が困難で分析を行っていないものを意味する.より綿密な作業により分析ができる可能性がある.「シソーラスの不備」は,シソーラスの不備の他,シソーラスでの多義性の解消が必要な場合を含む.「素性も学習データもあるのに解けていない」は,解くときに役立つ素性も存在し,その素性を持つ学習データもあるのに解けていない場合である.その素性を持つ学習データの事例数が少ないか,他の素性や学習データが悪さをした可能性がある.「格解析が必要」は,能動文,受け身文,連体などの正規化や,格の把握が必要な場合である.「入力文の情報が少なすぎる」は,入力文だけでは文が短く,その文だけでは語義識別ができない場合である.前後の文など,より広範囲の文脈の情報の入力が必要な場合である.解き方の分類に基づき,いくつか誤り分析の事例を示す.「格に取る名詞(対象語が用言の場合)」が解き方の場合を示す.対象語が用言の場合,格に取る名詞が語義識別に役立つ表現となりやすい\cite{Murata_murata_s2j_nlp2003_new}.格に取る名詞を中心に眺めて誤り分析を行う.事例ID3の誤り事例を考察する.対象文は「…悲鳴をあげながら…」で,対象単語は「あげる」である.動詞「あげる」の格になっている「悲鳴」が語義識別に役立つ個所となる.現在のデータでは対象データの「悲鳴」が分類語彙表の情報を持たない.他のバージョンの分類語彙表には「悲鳴」の情報がある.「悲鳴」の類似事例「声」が多数学習データにある.シソーラスの情報をよりよく利用することで改善できる事例である.誤りの分類としては,「t:シソーラスの不備」を与えている.意味ソート\cite{murata_msort_nlp}を使うと,学習データに類似事例があるかどうかを簡明に知ることができる.「悲鳴」が存在する分類語彙表を利用して意味ソートを行った.意味ソートとは,単語群を分類語彙表の意味の順に並べる技術である.「あげる」の学習データにおいて,「あげる」のヲ格の単語を取り出し,その単語の意味ソートを行った.注目している単語「悲鳴」の近くの単語群での意味ソート結果は「13030010201:顔(545-0-1-1),13031010101:声(545-0-1-2),13031021203:歓声(545-0-1-2),13031050102:叫び声(545-0-1-2),13031050304:悲鳴*(545-0-1-2),13041060106:顔(545-0-1-1),13061110102:声(545-0-1-2)」である.単語の後ろの括弧にはその単語を含むデータの文の分類先を示し,単語の前の数字はその単語の分類語彙表の番号である.今解析している単語には「*」の記号を付与している.意味ソートの結果では,「叫び声」が類似事例としてあることがすぐにわかる.「共起語(主に対象語が名詞の場合)」が解き方の場合を示す.対象語が名詞の場合,同一文の共起語が語義識別に役立つ表現となりやすい\cite{Murata_murata_s2j_nlp2003_new}.同一文には共起語が多く存在するため,この場合の誤り分析は基本的に困難である.事例ID14の誤り事例を考察する.対象文は,「…事件で、鶴見署は二十一日現場で…」であり,対象単語は「現場」である.対象単語は名詞であるので,共起語が役立ちやすく,この例では,「事件」「署」が語義識別に役立つ.今の素性では対象単語の前方2形態素,後方2形態素しか素性に用いておらず,同一文の単語すべては素性に使っていない.今の素性では,「事件」「署」が使えない.共起語の素性を使えるように素性を拡張する必要がある.学習データを見たところ,共起語が重なる事例がなさそうであり,学習データ不足の問題もあるようだった.この事例には,誤りの分類としては,「f:素性の種類の不足」「d:学習データの不足」を与えている.「言い換え」が解き方の場合を示す.事例ID7の誤り事例を考察する.対象文は,「…自己防衛の意味でも…」であり,対象単語は「意味」である.正解語義は「表現や行為の意図・動機。」であり,システム出力の誤り語義は,「その言葉の表す内容。意義。」である.対象語の「意味」を「動機」に言い換えることが可能であることを認識できれば,正解語義「表現や行為の意図・動機。」と推定できるようになると思われる.この事例には,誤りの分類としては,「p:言い換え技術が必要」を与えている\footnote{言い換え技術での処理方法として,以下が考えられる.「動機」「内容」を含む文を収集し,それを「意味」の語義「動機」の場合の学習データ,「意味」の語義「内容」の場合の学習データとして利用して解く方法である.これは文献\cite{Mihalcea1999,Goda2013}と類似した考え方になる.}.\subsection{白井の分析:機械学習の素性の問題を中心に}まず,誤り分析の考え方について述べる.特に着目したのは機械学習の素性の問題である.テスト文から抽出された素性に不適切なものがないか,テスト文の素性と同じものが訓練データに出現するか,有力な手がかりとなる情報で素性として表現できていないものはないか,といった観点から分析を進めた.それ以外にも誤り原因と考えられるものは全て洗い出した.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{22-5ia1f1.eps}\end{center}\caption{白井による誤り原因のタイプ分類}\label{fig:typology-sirai}\vspace{-0.5\Cvs}\end{figure}誤り原因のタイプ分類を図{\ref{fig:typology-sirai}}に示す.大きくは手法の問題,前処理の問題,知識の問題,データの不備,問題設定の不備に分類し,これらをさらに細かく分類した.図中の()はそれぞれの要因に該当する誤り事例の数,[]は分析対象とした50事例に占める割合である\footnote{1つの誤り事例に対して複数の要因が割り当てられることもあるので,()内の数字の和は50を越える.}.枠内の数字は付録2に記載されている誤り原因IDに対応する.\begin{table}[b]\caption{【素性抽出が不適切】の細分類}\label{tab:inapproriate-feature}\input{01table05.txt}\end{table}【手法の問題】は機械学習手法に関する問題が見つかった事例である.【訓練データの不足】は,他に手がかりとなる情報がある場合\footnote{【訓練データの不足】に分類した事例は,必ず他の誤り原因にも分類している.}と,テスト文に類似した事例が訓練データにないと語義を識別しようがない場合(【他に手がかりなし】)に分けた.後者の多くは定型的な言い回しで語義が決まる事例である.例えば,「指揮を*とる*」は決まり文句に近く,この文が訓練データにないと「とる」の語義を決めるのは難しい.【素性抽出が不適切】は表\ref{tab:inapproriate-feature}のような文の正規化をした上で素性を抽出するべき事例である.【有効な素性の不足】は,語義曖昧性解消の手がかりとなる情報が素性として利用されていない場合である.分析用システムでは最小限の素性しか使用していないため,トピック素性(スポーツや事件といったトピックの文内に出現するということで語義が決まる事例があった),文脈中の自立語,構文素性など,先行研究で既に使われている素性の不足も分類されている.また,【長いコロケーション】とは,分析用システムでは前後2単語を素性としていたが,対象語からの距離が3以上の単語で語義が決まる場合である.【素性のコーディングが困難】とは,語義を決める手がかりは発見できたが,高度な言語処理や推論を必要とし,機械学習の素性として表現することが難しい事例である.文の深い解釈が必要な場合(【文の解釈】)と文章全体の解釈が必要な場合(【文脈の解釈】)に分けた.【学習アルゴリズムの問題】とは,語義曖昧性解消に必要な素性は抽出できていて,類似用例も訓練データに存在するが,SVMで学習された分類器では正解を選択できなかった事例である.他の機械学習アルゴリズムなら正しく解ける可能性がある.【消去法】とは,該当しない語義を除外することで正解の語義がわかる事例を指す.例えば「かえって医師の処方を経ないで入手できる*市場*が生じている」という文での「市場」は,21128-0-0-1の意味(野菜などを得る市場)でもなければ21128-0-0-3の意味(株式市場)でもないことから,21128-0-0-2の意味(売行き先)とわかる.このような事例は教師あり学習とは別の枠組で解く必要があるかも知れない.【前処理の問題】は前処理の誤りに起因する事例である.【知識の問題】は外部知識の不備が誤りの原因となっているものである.【データの不備】はタグ付けされた語義の誤りである.【問題設定の不備】に分類したのは,対象語の解析対象文における品詞と辞書見出しにおける品詞が一致せず,そもそも対象語として不適切であった事例である.今回の分析では上記は少数の事例しか該当しなかったが,多くの外部知識を用いたり,文節の係り受け解析など多くの前処理を必要とするシステムでは,これらの原因ももっと細かく分類する必要があるだろう.教師あり学習に基づく手法を用いるという前提で,今後語義曖昧性解消の正解率を向上させるには,【訓練データの不足—他に手がかりなし】に分類した事例が多いことから,訓練データを自動的または半自動的に拡充するアプローチが有望である.また,【素性抽出が不適切】や【有効な素性の不足】で考察した問題点に対応することも考えられる.ただし,表\ref{tab:inapproriate-feature}に示すような正規化の処理を導入しても誤った解析結果が得られたり,単純に素性を追加しても素性数が多すぎて過学習を引き起こすなど,単純な対応だけでは語義曖昧性解消の正解率の向上に結びつかない可能性もあり,深い研究が必要であろう.また,【素性のコーティングが困難】に分類した事例は,現時点での言語処理技術では対応が難しい事例だが,誤り原因の20\%程度を占めており,軽視できない.これらの事例に対応することは,チャレンジングではあるが,必要であると考える.\subsection{福本の分析:解消に必要となる知識・処理に着目}語義曖昧性解消に必要となる知識に着目し,分析対象の50事例について誤りの原因を分析した.まず,語義識別に必要となる知識が(1)語義曖昧性解消タスク内か,(2)語義曖昧性解消タスク外かで大別した.さらに(2)語義曖昧性解消タスク外については,語義曖昧性解消の前処理として必要となる形態素解析など,他の言語処理タスクで得られる知識にも着目し,それらに関する影響の有無を調査した.誤り原因のタイプ分類を以下に示す.括弧は各誤り原因に該当する事例数とその割合((1)と(2)での割合,及び各詳細項目での割合)を示す.また,``*''で囲まれた単語は語義識別の対象単語を示す.\begin{enumerate}\item語義曖昧性解消タスク内の問題(40事例,80\%)\begin{enumerate}\item語義の記載がない.(1事例,2.5\%)\\「くもりを*取る*」というテスト事例において,「くもり」に関する語義情報が分類語彙表に存在しないため,「くもり」と「取る」での共起による語義識別が難しく,「取る」が訓練事例数の多い語義に識別されている.\itemテスト事例と類似した事例が,訓練事例中に存在しない.(11事例,27.5\%)\\訓練事例不足の問題である.例えば「見せて*あげる*事ですね。」のように,動詞連用形+「て」と「あげる」のパターンが訓練事例中に存在していないために,誤って識別されている.\itemテスト事例の語義が,訓練事例中では低頻度で出現している.(4事例,10\%)\\語義の分布に片寄りがあるものの,対象としているテスト事例中の語義の特徴と高頻出の語義が持つ特徴との区別が困難であるために,低頻出の語義であるテスト事例の語義が正しく識別できない.例えば「私の*場所*だ!」であるテスト事例が該当し,「ところ.場」の意味の訓練事例は49事例,正解語義である「居るところ」は1事例であるために,「ところ.場」に誤って識別されている.\item解消に必要な情報が欠如している.(10事例,25\%)\\この誤り原因に相当する事例として,例えばテスト事例「*相手*をすべて倒した」において,「倒した」(行為)の対象が「*相手*」(人)であることから,共起関係を利用することにより「*相手*」が「自分と対抗して物事を争う人」に識別可能である.しかし語義の前後2単語というウィンドウサイズの制限により,識別に必要な「倒した」に関する情報(素性)が欠如している.\item語義同士の意味が互いに類似しているために,識別が非常に難しい.(14事例,35\%)\\この誤りは,誤り原因の中で最も多くの事例が相当した誤りである.「発音を*教え*てください。」などのように,「*教え*」が「知識や技能を身につけるように導く」という語義か,正解である「自分の知っていることを告げ示す」か,両者の語義が類似しているために識別が難しい.\end{enumerate}\item語義曖昧性解消タスク外の問題(10事例,20\%)\begin{enumerate}\item形態(語義を含む).(7事例)\begin{enumerate}\item形態素解析における品詞推定誤り.(2事例,20\%)\\識別の対象単語と共起して出現する単語の品詞が誤って識別されているために,品詞,及び共起関係の情報が利用できないという問題である.例えば,ひらがな表記の「神のみ*まへ*の」において形態素解析において「御前」と認識されていない.\itemテスト事例の単語について,その同義語・類義語に関する情報が辞書に掲載されていない.(3事例,30\%)\\この誤りは,例えば「悲鳴を*あげ*ながら」というテスト事例において,訓練事例中に存在する「歓声」が「悲鳴」と意味的に類似していることが分類語彙表に記載されていれば,「悲鳴」と「あげる」との共起関係により識別が可能であると考えられる.\item識別の対象となっている単語と共起している単語に曖昧さが存在している.(1事例,10\%)\\例えば「レベリングは*技術*がいる」というテスト事例において,「技術」と共起関係にある「いる」は「必要である」という語義と「豆などを煎る」という語義が存在する.分類語彙表の情報として「豆などを煎る」が素性としてテスト事例に付与されているため,共起の語彙情報を利用することができない.\item慣用句表現の認識(1事例,10\%)\\「めどが*立つ*。」が相当する.識別の対象となっている単語を慣用句表現として認識する必要がある.\end{enumerate}\item構文(1事例,10\%)\begin{enumerate}\item複合名詞の認識\\「国際*電話*」の事例のように,複合名詞が正しく認識されず,識別の対象単語である「*電話*」が複合名詞の一部として出現している.\end{enumerate}\item文脈(2事例,20\%)\begin{enumerate}\item省略語の補完\\例えば「*開い*たときに請求書ご案内が上に来るように入れます。」のように,対象単語である「開く」の主語が省略されているため,共起関係など,語義識別に必要な情報が利用できない.\end{enumerate}\end{enumerate}\end{enumerate}語義曖昧性解消タスク内の誤り原因に相当する事例は40事例であり,タスク外の事例は10事例であったことから,誤りの多くは語義曖昧性解消の処理方法に問題があると考えられる.語義曖昧性解消内の誤り原因のうちの6事例は,既存の学習手法や統計手法の工夫により語義を正しく識別できた.一方,例えば上述した(1)における(e)の「*教え*てください」や,「島がびっしょり濡れているようにさえ*見え*た」における「見え」が(a)「目にうつる」,(b)「そう感じ取れる」において,(a)と識別するために必要となる素性が何かを明かにすることが難しい事例も存在した.文内に限定した語彙・語義情報を用いた手法の限界であり,今後は文外に存在する情報,例えば分野に依存した主要語義に関する情報とも組み合わせることにより,語義曖昧性解消を行う方法なども考えられる.今後のさらなる調査と検討が必要である.\subsection{新納の分析:手法の問題の機械的排除}\label{sec:shinnou}採用した誤り分析の考え方・方法論について述べる.基本的に,自身の誤り原因のタイプ分類を作成し,分析対象の各誤り事例に設定した誤り原因のタイプを付与した.特徴としては「手法の問題」という誤り原因を設定したことである.ここでの分析対象のデータはSVMを利用した場合の誤りである.SVMを利用したために生じる誤りは分析の重要度が低いと考えた.そこでSVM以外の他の学習手法を試し,SVM以外の2つ以上の学習手法で正解となるような(SVMでの)誤りの事例の誤り原因を「手法の問題」として機械的に取り除いた.残された誤り事例に対してのみ,その誤り原因を精査するアプローチを取った.設定した誤りの原因は,まず(1)手法の問題,であり,それ以外に(2)意味の問題,(3)知識の問題,及び(4)領域の問題,の計4タイプの誤り原因を設けた.(2),(3),(4)については更に詳細化した.以下各タイプがどのような誤りかと,それをどのように判定したかを述べる.\subsubsection{手法の問題}分析対象のデータは,学習手法としてSVMを使った場合の誤りであり,他の手法を用いた場合には誤りにならないこともある.ここでは最大エントロピー法(ME),NaiveBayes法(NB),決定リスト(DL),及び最大頻度語義(MFS)の4つを試した.まず各手法のSemEval-2のデータに対する正解率を\mbox{表\ref{shin-tab-1}}に示す.\begin{table}[b]\caption{各手法のSemEval-2の正解率(\%)}\label{shin-tab-1}\input{01table06.txt}\end{table}\begin{table}[b]\caption{手法間の差分}\label{shin-tab-2}\input{01table07.txt}\end{table}SVMが最も正解率が高いが,他の手法の正解の事例を完全にカバーしているわけでない.\mbox{表\ref{shin-tab-2}}に正解の事例の差分を示す.\mbox{表\ref{shin-tab-2}}は行が誤りを,列が正解を表している.例えば行(\mbox{NB-×}),列(\mbox{ME-○})の要素は98であるが,これはNBで誤りであった事例のうちMEでは正解であった事例数が98存在したことを意味する.\mbox{表\ref{shin-tab-2}}から分かるように,手法Aが手法Bよりも正解率が高いからといって,必ずしも,手法Bが正解していた事例すべてを手法Aが正しく識別できる訳でない.これは手法を選択した際に生じる副作用であり,誤りの1つの原因であると考えられる.そして,ここではSVMでは誤りだが,他の2つ以上の手法で正解となっていた誤りの事例を「手法の問題」(記号4)と判定した.表\ref{shin-tab-2}はSemEval-2のデータ全体での事例数を示している.2つ以上の手法で正解であった事例の数は198であったが,誤り分析の対象とした50事例に限れば8事例が該当した.これらを「手法の問題」と分類した.\subsubsection{意味の問題}語義曖昧性解消の問題設定自体に誤りの原因があると考えられるものを「意味の問題」と判定した.この下位分類として(a)辞書の語義が似ていて識別困難(記号1-a),(b)深い意味解析が必要(記号1-b),(c)表現自体からしか識別できない(記号1-c),及び(d)テスト文の問題(記号1-d),の4つを設けた.語義曖昧性解消の問題設定では,対象単語の語義が固定的に与えられる.ある対象単語が持つ複数の語義は,明確に異なる場合もあるが,非常に似ている場合もある.もしある語義s1とs2が非常に似ている場合,それらを区別することは明らかに困難であり,それらを取り違えた誤りの原因は,問題自体の困難性から生じていると考えた.このようなタイプの誤りを「(a)辞書の語義が似ていて識別困難」とした.例えば事例27は対象単語「強い」の語義34522-0-0-1「積極的に働く力にあふれている.」と語義34522-0-0-2「抵抗力に富み,簡単には壊れたりくずれたりしない.」を区別する問題だが,どちらの語義も互いの意味を想起させるため,意味的に非常に似ていると判断した.上記の(a)のタイプであっても深い意味解析が可能であれば解決できるものを「(b)深い意味解析が必要」とした.例えば事例1は対象単語「相手」の語義117-0-0-2「物事をするとき,行為の対象となる人.」と語義117-0-0-3「自分と対抗して物事を争う人.」を区別する問題である.「争う人」も「行為の対象となる人」であることは明かであり,意味的には非常に近く(a)である.ただしその「行為」が「争い」なのかどうかを深い意味解析で判断できれば解決できるため,「(b)深い意味解析が必要」のタイプと判定した.(a)のタイプでかつ(b)であるかどうかは,「深い意味解析」の深さの度合いである.技術的に可能なレベルの深さと思えれば(b)をつけた.次に「(c)表現自体からしか識別できない」のタイプであるが,これは語義曖昧性解消の問題として不適と思えるものである.例えば慣用表現中の単語に語義が存在していると考えるのは不自然である.また語義曖昧性解消の問題では,対象単語が自立語であることは暗黙の了解である.つまり単語の品詞自体が名詞や動詞であっても,その単語が機能語に近いものであれば,語義曖昧性解消の問題として不適と考えられる.このようなタイプの誤りを「(c)表現自体からしか識別できない」とした.例えば事例21の対象単語「する」,事例48の対象単語「やる」を,このタイプの誤りとした.最後に「(d)テスト文の問題」のタイプであるが,これは単純にテスト文に手がかりとなる単語がほとんどないために誤るものである.これは「意味の問題」ではないが,問題設定自体に誤りの原因があると捉え,この範疇に含めた.例えば事例10の「*教え*て下さい.」などがこのタイプの誤りである.\subsubsection{知識の問題}語義曖昧性解消を教師あり学習により解決するアプローチをとった場合,前述した「手法の問題」「意味の問題」以外の誤りの原因は,システムに何らかの知識が不足していたためと考えられる.そこで「手法の問題」「意味の問題」以外の誤り原因を「知識の問題」と判定した.不足している知識(解決のために必要としている知識)としては,現状のシステムの枠組みから考え,(a)その表現自体が訓練データに必要(記号2-a),(b)周辺単語に同じ単語が必要(記号2-b),及び(c)周辺単語に類似単語が必要(記号2-c),の3つを設定した.例えば事例9の「…待ち伏せて詫びを*入れる*振りをしながら…」の「入れる」の語義の識別には「詫びを入れる」が訓練データに必要と考え,「(a)その表現自体が訓練データに必要」と判定した.また事例30の「…朝日新聞からの国際*電話*に対して…」の「電話」の語義の識別も「国際電話」が訓練データに必要だと考えた.また事例32の「どうすればくもりを*取る*ことが出来ますか?」の「取る」の語義は単語「くもり」が対象単語の周辺に存在することが必要と考え,「(b)周辺単語に同じ単語が必要」と判定した.(a)との差異は少ないが,(a)は慣用表現に近い表現であり,単語間に別の単語が挿入できない,態が変化できない,などの特徴があるが,(b)は「くもりをきれいに取る」や「きれいに取ったくもり」という表現が可能であり,慣用表現とは異なると考えた.また事例45の「…患者はどこの病院でも*診*て貰えない…」の「診る」の語義は対象単語の周辺に「病院」と類似の単語が存在することが必要だと考え,「(c)周辺単語に類似単語が必要」と判定した.\subsubsection{領域の問題}語義曖昧性解消の誤りは上記までの項目のいずれかに該当すると考えられるが,特殊なケースとして訓練データのコーパス内にはまれにしか出現しない表現が,テストデータとして出現したために生じる誤りが存在する.これは領域適応の問題であり,教師あり学習により問題解決を図った場合に必ず生じる問題である\cite{da-book}.この原因の誤りを「領域の問題」と判定した(記号3-a).例えば事例4や事例42はテスト文が古文であり,学習の対象であった領域とは異なっている.このような誤りを「領域の問題」と判定した.\subsection{藤田の分析:素性に着目}\label{sec:fujita}まず,採用した誤り分析の考え方について述べる.教師あり学習の場合,適切なラベルと素性を得ることができればほぼ正しく識別可能だと考えられる.適切な素性があるにも関わらず誤りになる場合,素性に付与する重みが適切ではないなど,学習器側の問題だと考えることができる.そこで,当初は,適切な素性があるかどうか,あるならば,素性に対する重みの付与などが適切かどうかを調査することを考えた.ただし,そもそも適切な素性が得られていないものが大半だったため,最終的には重みの適切さについての詳細な調査は行わず,素性を増やした場合でも誤りとなる事例について,原因と対処方法について考察した.以下,\ref{sec:fujita-feas}節では,分析対象の50事例に対して,素性の重なりに着目した分析を示す.さらに,\ref{sec:fujita-mhle}節では,自前の語義曖昧性解消システムを用いて分析対象の50事例の語義識別を行い,そのシステムでも誤りとなった16事例についての詳細な分析結果を示す.最後に~\ref{sec:fujita-matome}節で,語義曖昧性解消というタスクを考える上で,今後考えるべき問題点について考察する.\subsubsection{素性の重なりの調査}\label{sec:fujita-feas}まず,分析用システムの出力語義(以下,\SYS{})と正解語義(以下,\COR{})が付与された訓練データから得られる素性と,対象のテスト文から得られる素性の重なりを調査した.例えば,\eid{13}の場合,対象テスト文の19種類の素性のうち,10種類は\SYS{}と\COR{}の両方の訓練データに出現し,8種類は両方に出現しない.差がある素性は,1種類(`e17=11950',2語前の分類語彙表の値)のみであり,これは,\SYS{}の訓練データのみに出現している.つまり,\COR{}にのみ出現するような特徴的な素性は得られていないことがわかる.\COR{}の訓練データにだけ存在する(手がかりになる可能性が高い)素性が存在するかどうかに着目すると,分析対象とした50事例のうち,\COR{}の訓練データにだけ出現する素性があるテスト文は17事例(34\%)\footnote{このうち,\ref{sec:fujita-mhle}節でも誤りとなったのは,3事例(\eid{24,42,47})だった.}であり,そうした素性がないテスト文が33事例(66\%)を占めた.素性の不足に対応するには,学習データ自体を何らかの方法で増やすか,学習データが変わらない場合には,利用する素性を増やす必要がある.分析用システムでは,与えられた訓練データだけを用いており,利用している素性も比較的少ない.しかし,\eid{13}の場合でも,同一文中に「ライン」や「経験」など,他に素性として有効そうな語があることから,ウインドウ幅を広げたり,Bag-of-words(BOW)を利用することでも正解となる可能性がある.また,分析用システムでは,辞書の例文を訓練データとして利用していないが,例文は重要な手がかりであり,簡便に追加できる訓練データとなり得る.そこで,次節では,例文などを訓練データに用いた自前のシステム(\cite{Fujita:Fujino:2013}.以降,このシステムを「藤田のシステム」と呼ぶ.)の結果と比較し,両方で共通する誤り事例に対して,誤り分析を行う.\subsubsection{共通の誤り事例}\label{sec:fujita-mhle}まず,\SF{}の概要を説明する.\SF{}は,2段階に分けられる.Step-1では,語義が付与されていない生コーパスの中から辞書の例文を含む文を抽出し,ラベルありデータとして自動獲得する.例えば,語義15615-0-0-2の例文「工事{\bf現場}」を含む文として,例(\ref{s:genba})\footnote{日本経済新聞1999年版より抜粋}のような文をラベルありデータとして利用できる.特に人間用の紙の辞書の場合,省スペース化のため,例文は非常に短いことが多い.Step-1では,例文だけをラベルありデータとして追加するより,より長くて情報量の多い文を自動獲得できることが利点である.\begin{exe}\ex\label{s:genba}足場などを組み合わせて建設\ulf{工事{\bf現場}}や各種工場のラインをつくる。\end{exe}Step-2では,ラベルありデータとラベルなしデータを訓練データとして,半教師あり学習法(ハイブリッド法,{\itMaximumHybridLog-likelihoodExpectation:}\MHLE,\cite{Fujino:Ueda:Nagata:2010})を適用する.\MHLE{}では,ラベルありデータで学習させたMEモデル(識別モデル)とラベルなしデータで学習させたNBモデル(生成モデル)を統合して分類器を得る.素性は,分析用システムで利用している素性以外に,各語の原形,前後3語以内のbigrams,trigrams,skipbigrams,各対象語と同一文内に出現する全内容語の原形,トピック分類の結果\footnote{Gibbsサンプリングを用いたトピック分類(http://gibbslda.sourceforge.net/)を行い,分類されたトピック番号を利用.}を利用している.ただし,係り受け情報(e16)と分類語彙表の値(e17--e20)は利用していない.もちろん,\SF{}を利用した場合,正解になるばかりではなく,逆に分析用システムでは正解だったテスト文が不正解になる場合もあるが,本節では両者の共通の誤り事例を取り上げる.分析対象の50事例の内,\SF{}でも誤った事例は16事例であった.その分析結果を表~\ref{tab:fujita-16}に示す.\begin{table}[b]\caption{共通した誤り事例の分析}\label{tab:fujita-16}\small\input{01table08.txt}\end{table}表~\ref{tab:fujita-16}から,[A][B]は両手法で解くことは困難だと考えられる.[C][D]は素性の問題だが,[C]の場合は,両手法で採用していない項構造解析(SemanticRoleLabeling,SRL\cite{srl})を正しく行うことができれば,正解となる可能性がある.なお,これらの対象語はすべて動詞であり,動詞の\WSD{}には,SRLが特に重要であることがわかる.ただし,係り受け解析誤りも含まれる誤り事例については,係り受け解析の精度向上により正解できる可能性もある.一方,[D]の場合,利用した素性が不適切だったり,少なすぎたと考えられるので,適切な素性を取り出したり,利用素性を増やすことで正解できる可能性がある.しかしながら,[D]は\SF{}でも誤りとなっている.[D]の誤り事例について,\pagebreak\ref{sec:fujita-feas}節と同様,\SF{}で得られた素性の重なりを調べると,訓練データの追加\footnote{ただし,追加されたラベルありデータは\eid{39}の場合で3文,そのうち\COR{}にあたるものは1文,\eid{41}の場合で57文,そのうち\COR{}にあたるものは4文だった.}とBOW等の利用にも関わらず,少なくともラベルありデータにおいて,\COR{}にのみ出現した素性はなく,逆に\SYS{}にのみ出現した素性があるという結果だった.なお,両誤り事例とも,\COR{}の語義は元の訓練データにも,それぞれ1回と4回しか出現しない低頻度語義である.両対象語は,語義の頻度分布のエントロピー($E(w)=-\sum_{i}^{}p(s_{i}|w)\log{p(s_{i}|w)}$.ここで,$p(s_{i}|w)$は,単語$w$の語義が$s_i$となる確率.\cite{Shirai:2003j})による難易度分類では,低難易度の語に分類される.つまり,ある語義が圧倒的に多く出現するため低難易度の語に分類されるが,そうした語の低頻度語義の識別の難しさを示している.\subsubsection{考察}\label{sec:fujita-matome}前節の分析結果をふまえ,重要だと考える点について考察する.まず,従来の\WSD{}の問題設定で今後取り組むべき課題として,以下の項目を上げる.\begin{enumerate}\itemデータの質の向上:人手作成データの一貫性の担保が必要.(表~\ref{tab:fujita-16},[A])\item素性の追加:特に動詞について,係り受け精度の向上や項構造解析の組み込みが必要.(表~\ref{tab:fujita-16},[C])\itemラベルありデータの追加等:特に低頻度語義に対して対処方法の考案が必要.(表~\ref{tab:fujita-16},[D])\end{enumerate}また,今後の方向性として,現在の\WSD{}の枠組みにこだわらず,他のタスクでも利用されるには,どういった語義,どういった粒度で識別すべきか検討することが重要だと考える.特に,そもそも人間にとっても識別が困難な語義(表~\ref{tab:fujita-16},[B])の推定が必要なのか,アプリケーションや領域によって必要とされる語義の粒度や種類が異なるにも関わらず,一律に扱ってよいのかどうか,といった点を考慮すべきだと考えている.\subsection{佐々木の分析:パターンの差異に着目}まず,ここでの誤り分析の考え方について述べる.注目したのは訓練データから得られるパターンとテスト事例から得られるパターンとの差異である.ここでいうパターンとは対象語の周辺に現れる素性(単語や品詞など)の組み合わせを指している.一般に教師あり学習では,訓練データから得られるパターンの集合とテスト事例から得られるパターンとの比較によって識別処理が行われる.つまり誤りの原因はパターンの差異から生じると考えられる.そして,その差異の原因として以下の2点に注目して誤り分析を行った.\begin{itemize}\item[(1)]訓練データに不足しているパターン\item[(2)]訓練データから抽出される不適切なパターン\end{itemize}(1)はテスト事例のパターンが訓練事例に含まれないことから生じる誤りに対応する.(2)は識別に有効そうなパターンが訓練事例に存在しているにも関わらず生じている誤りに対応する.(2)は適切なパターンを抽出できていないことが原因だと考えた.\begin{table}[b]\caption{誤り原因のタイプ分類と出現数}\label{tab:sasaki_error}\input{01table09.txt}\end{table}作成した誤り原因のタイプ分類を表\ref{tab:sasaki_error}に示す.分析対象の50事例に表\ref{tab:sasaki_error}のタイプを付与するが,ここでは重複も許すことにした.以下,各誤り原因について述べる.「構文情報の不足」はテスト事例の文の構造の情報を捉えていないことを表す.例えば,対象単語を含む単語間の係り受け関係を考慮した素性の不足,格関係のような文の意味的構造を表現した素性の不足などが挙げられる.「考慮する単語の不足」は語義を識別できる特徴的な共起単語が少ないことを表す.テスト事例において対象単語の前後に出現する共起単語や訓練事例に出現する共起単語の特徴では語義を識別することが難しい場合をこのタイプの誤りとした.「パターンの一部が不足」は品詞情報など,単語表層以外の特徴的な情報が不足していることを表す.語義を識別できる特徴には名詞や動詞などの特徴的な単語だけではなく,接続する品詞によって語義が決定する場合もある.助詞や助動詞といった品詞を含むパターンが大きく影響して誤りとなる場合をこのタイプの誤りとした.「概念情報の不足」は手がかりとして使う単語の上位・下位関係にある単語を利用していないことを表す.テスト事例において対象単語の前後に出現する共起単語に対し,単語を表層形で利用すると訓練事例の単語と一致しないが,外部辞書として概念体系を使うと同じ概念として一致する場合がある.同じ概念ではあるが概念体系を利用していないために誤って識別する誤りをこのタイプとした.「表記のずれ」は訓練事例に識別のためのパターンは存在するが,異表記が原因で誤ったタイプである.「文が短く,手がかりがない」は文が短く,特徴が捉えにくいことを表す.「再実験では正解した例」は誤り事例集合作成時は異なる語義に分類されたが,再実験を行った結果正しく分類された事例を表す.2節の実験ではlibsvmのdefaultのパラメータ設定を採用したので,モデルの複雑度を調節するコストはC=1,学習を止める停止基準値はeps=0.001としていたが,C=5及びeps=0.1と設定して再実験したところ,いくつかの誤り事例に対して正解が得られた.このようにSVMの学習パラメータの変更によって語義を正しく識別できた事例の誤り原因は「再実験では正解した例」としてまとめた.次に,ここで行ったいくつかの誤り分析の例を示す.最も出現数の多い「パターンの一部が不足」の例として,「早く元気な顔を見せて*あげる*事ですね.」を見てみる.「見せてあげる」と同様の「〜してあげる」というパターンが訓練事例に存在していれば適切に識別できると考えられる.しかし,訓練事例にはそのようなパターンの事例は存在しなかった.その一方で,「あげる事です」に対応する「あげる+普通名詞+助動詞」のパターンが異なる語義の事例として存在するために,この用例は誤った語義に識別されたと思われる.「考慮する単語の不足」の例として,「…発音を*教え*てください…」を見てみる.この事例の正しい語義は「知識や技能を身につけるように導く」であり,「〜てください」のパターンが識別に有効そうであるが,誤って識別した語義「知っていることを告げ示す」と共起単語を比較した結果,どちらの語義でもこのパターンが生じていた.このパターン以外に識別に有効そうな素性は存在していないため,結果的に誤っている.このような問題に対処するには,訓練事例数を数多く用意し,「教える」の前に接続する単語の種類を揃える必要があると考える.「概念情報の不足」の例として,「…悲鳴を*あげ*ながらずんずん進んだ…」がある.この事例の正しい語義は「勢い・資格・価値・程度を高める.」である.辞書にはこの語義の用例として「声を(高く)出す.」があるため,この語義が正解であることは明らかである.しかし,分析用システムは「取り出して言う.」と誤って識別した.正しい語義の訓練事例には「声」,「叫び声」,「歓声」といった声に関連する単語が含まれているため,テスト事例の「悲鳴」も含めて同じ「声」の概念として捉えることができれば識別可能だったと考えられる.「表記のずれ」の例として,「落札する前に聞いた方が*いい*ですか?」がある.訓練事例には正しい語義の事例で「ほうがいいです」との表記を持つものがあり,テスト事例の「方」をひらがなの「ほう」に変更して識別を行うと適切に語義を識別することができた.このように,異表記を正しく解析できないために誤ることもある.\subsection{古宮の分析:最大頻度語義と素性に注目}\begin{table}[b]\caption{古宮による誤り原因のタイプ分類とその出現数}\label{tab:komiya}\label{komiya1}\input{01table10.txt}\end{table}機械学習の観点から誤りの原因の分析を行った.具体的には,訓練事例中の最頻出語義(MostFrequentSense,以下MFS)の割合や,テスト事例と訓練事例の間の素性の違いと共通性を見ることで,機械学習の特質から説明できる誤りを主に分析した.分析の結果を表\ref{tab:komiya}に示す.なお,「MFSに誤分類」の2つの分類(表\ref{komiya1}のMと(M))には重複して分類されることはないが,これらと「テスト事例の素性が訓練事例の素性と等しい」(表\ref{komiya1}のF)と「分からない,自信がない」(表\ref{komiya1}の?)については重複して分類されることがある.ここでの分析では,まず,MFSに注目した.分析用システムの識別結果がaであり,それが誤りであった場合,aは対象単語のMFSである可能性が高いと考えたためである.そこで,「MFSに誤って分類された」事例と,そうでない事例の分類を行った.すると,分析対象の50事例中の32事例が「MFSに誤って分類された」事例であることが分かった.更に,「MFSに誤って分類された」事例の中で,MFSと第二位の比率を持つ語義(第二語義)との訓練事例数の差が小さい(4以内の)ものが5事例であり,残りの27事例は,MFSと第二語義との訓練事例数の差が大きい(8以上の)ものであった.なお,差が5から7の事例は存在しなかった\footnote{また,残りの18事例のうち,二値分類ではない事例が12事例あったが,そのうちの9事例が第二語義に識別されていた.}.例えば,最も顕著な例は対象単語の「場所」である.「場所」の50個の訓練事例のうち,49事例が語義41150-0-0-1(ところ)であり,語義41150-0-0-2(居るところ)は1事例しかなかった.その結果,「場所」のテスト事例はすべて語義41150-0-0-1と識別されており,テスト事例中に2つあった語義41150-0-0-2は誤りとなっていた.このことから,誤りの原因として,機械学習の特質により,MFSに誤って分類されるということが大きいことが分かる.また,この例にも見られるように,今回の分析で用いた訓練事例の少なさから,少量の事例しか持たない語義は十分に学習ができていないことがあったと思われる.次に,テスト事例の素性が訓練事例の素性と等しいことで,誤っている事例を目視で探した.例えば,「意味」の事例の一つ,「…これらの単語で*意味*が通じるよ…」の「意味」(正解は語義2843-0-0-1(その言葉の表す内容.意義.))は,「対象の単語の一つ後の形態素」が「が」である,という素性が強く働いたためであると思われる.この素性は語義2843-0-0-3(表現や行為のもつ価値.意義.)に頻出していたことから,語義2843-0-0-3に誤って識別されている.この例は,語義2843-0-0-3として訓練事例にあった「意味がある」「意味がない」に「意味が通じる」という表現が少し似ていた,と見ることができる.このようなものは22事例あった.このように表現の類似性は,実際に語義曖昧性解消の手掛かりともなるが,逆に誤りの原因ともなっている.なお,このような,素性が誤りの原因と思われる事例に対しては,「F」を付与した.また,訓練事例中に何度も現れる顕著な素性ではない場合には,素性が強く働いたかどうか分からないため,「F」とともに「?」も付与した.さらに,これらの観点から分類が難しかったものに対しては,単独で「?」を付与した.また,他にも,ここでの誤り分類のタイプには含めなかったが,この素性が訓練事例にあれば識別可能だと思われる素性が,訓練事例にない場合が2つ存在した.一つは,「…早く元気な顔を見せて*あげる*事ですね…」であり,正解は語義545-0-3-2(敬語としての用法)だが,手掛かりとなりそうな「ひとつ前の形態素が『て』である」という素性が訓練事例には存在しなかった.また,「…ええ水をお*あたえ*くださいませ…」の正解は語義755-0-0-1(自分の物を他人に渡し,その人のものとする.)であり,この「おあたえくださる」という表現は典型的であると思われるが,訓練事例に「与えてください」のように「与える」と「くださる」の間に「て」をはさむ用法はあっても,このような用法は存在しなかった.最後に,分類語彙表の値に曖昧性があり,本来の意味ではない値が付与されていたために,誤った事例が1つあった.「…凝固する際に*出る*熱を冷やしているから…」という用例で,これは,「〜(の)際(さい)」という表現が「きわ」として誤って解析されたために誤った例である.「出る」の訓練事例には「きわ」と同じ意味分類を持つ「外」などを2つ前の形態素にもつ事例が2つあった.
\section{クラスタリングを用いた分析結果の統合}
\subsection{誤り原因のクラスタリング}前掲の\mbox{表\ref{kekka-all}}が各自の分析結果である.誤り分析の次のステップとしては,これらを統合し,各人が同意できる統一した誤り原因のタイプ分類を作成し,それに対する考察を行う必要がある.しかし各自の分析結果を統合する作業は予想以上に負荷が高かった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.また統合の処理を議論によって行う場合,結果的に誰かの分析結果をベースに修正していく形になってしまう.誰の分析結果をベースにすればよいかも正解はなく,しかもある人の分析結果をベースにした時点で,他の人の分析結果に含まれるかもしれない重要な情報を捨ててしまう危険性もある.つまり分析者全員が同意できるような誤り原因のタイプ分類を,グループ内の主観に基づく議論のみから作成するのは,負荷が高い作業になってしまう.このような背景から,我々は各自の誤り原因を要素とする集合を作り,それをクラスタリングすることで,ある程度機械的な誤り原因のタイプ分けを試みた.クラスタリングでは分析者全員の分析結果を公平に扱っている.またクラスタリングによって作成できた誤り原因のタイプ分類は各人のタイプ分類を代表しているタイプ分類になっていることが期待できる.結果として,このようなアプローチで作成した誤り原因のタイプ分類は,各分析者が同意できるものとなり,しかも統合作業の負荷を大きく減らすことができると考えた.各自の分析では分析対象の50事例に対して,各自が設定した誤り原因の記号を付与している形になっている.見方を変えて各自が設定した誤り原因の記号の1つ1つに注目すると,50個の対象事例のどの事例がその誤り原因に対応しているかを見ることができる.対応する事例に1を,対応しない事例に0を与えれば,誤り原因は50次元のベクトルに変換することができる.そしてこのベクトルの距離が近いほど誤り原因の意味が近いと考えることができるため,ベクトルに変換した誤り原因のクラスタリングが可能となる.まず各自の誤り原因を取り出すと,全部で75個存在した.この75個の誤り原因がクラスタリングの対象である.処理のために各誤り原因にID番号を付与した.また誰が設定した誤り原因かがわかりやすいように,番号には各人を表す記号を前置している.m-は村田,sr-は白井,fk-は福本,sn-は新納,fj-は藤田,ss-は佐々木,k-は古宮を意味する.この誤り原因とID番号との対応は付録2に記した.また付録2には誤り原因の意味(簡単な説明)も付与している.以後,誤り原因に対してはこのID番号によって参照することにする.75個の各誤り原因を50次元のベクトルに変換し,そのノルムを1に正規化した後にWard法によりクラスタリングを行った\cite{shinnou-r-book}.このクラスタリング結果であるデンドログラムを\mbox{図\ref{cl-kekka}}に示す.\begin{figure}[b]\begin{center}\includegraphics{22-5ia1f2.eps}\end{center}\caption{クラスタリング結果}\label{cl-kekka}\end{figure}\subsection{クラスタの抽出}誤り原因の総数が75個,分析者が7人であり,その平均から考え,誤り原因は10個前後に設定するのが適切だと考えた.そこで\mbox{図\ref{cl-kekka}}のデンドログラムから目視により,\mbox{図\ref{cl-ext}}に示すAからMの13個のクラスタを取り出した.各クラスタに含まれる誤り原因のID番号を\mbox{表\ref{cls-nakami}}に示す.またクラスタ内の各誤り原因には対応する事例が存在するので,その総数と種類数も\mbox{表\ref{cls-nakami}}に示す.\begin{figure}[t]\begin{center}\includegraphics{22-5ia1f3.eps}\end{center}\caption{クラスタの設定}\label{cl-ext}\end{figure}\begin{table}[t]\caption{クラスタ内の誤り原因と対応する事例数}\label{cls-nakami}\input{01table11.txt}\end{table}\subsection{各自の分析結果の統合}\label{type-wake}クラスタリングによりAからMの13個のクラスタを取り出した.次に各クラスタに意味を与える必要がある.この意味を与えることで各自の分析結果の統合が完成する.ただし各クラスタに正確に1つの意味を与えることは困難である.通常,クラスタにある意味を設定した場合,クラスタ内にはその意味とは異なる要素が含まれることが多い.ここでは各クラスタ内の要素(誤り原因)を精査し,その意味を設定する.意味を割り当てることができたクラスタが統合版の誤り原因となる.次にその意味から考え,不適な要素を省いたり別クラスタに移動させたりすることで,最終的な統合を行う.\subsubsection{クラスタの意味の付与とクラスタの合併}クラスタに意味を付与するには,クラスタ内の類似している要素に注目し,それらの共通の意味を抽出することで行える.この段階で意味が同じクラスタは合併することができる.以下,各クラスタについてその内容を表にまとめる.その表の「注目」の列に``○''がついているものが意味付けを行うために注目した要素である.\begin{description}\item[クラスタA:【削除】]\end{description}クラスタAの内容は以下の通りである.意味付けは困難でありこのクラスタは削除する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{63}&1&&\et{63}\\\ei{11}&1&&\et{11}\\\ei{17}&1&&\et{17}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタB:テスト文に問題あり]\end{description}クラスタBの内容は以下の通りであり,意味は「テスト文に問題あり」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{8}&1&○&\et{8}\\\ei{57}&1&○&\et{57}\\\ei{49}&2&○&\et{49}\\\ei{70}&3&○&\et{70}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタC:【削除】]\end{description}クラスタCの内容は以下の通りである.意味付けは困難でありこのクラスタは削除する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{21}&1&&\et{21}\\\ei{9}&4&&\et{9}\\\ei{48}&3&&\et{48}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタD:【削除】]\end{description}クラスタDの内容は以下の通りである.意味付けは困難でありこのクラスタは削除する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{34}&1&&\et{34}\\\ei{69}&3&&\et{69}\\\ei{45}&1&&\et{45}\\\ei{50}&4&&\et{50}\\\ei{30}&1&&\et{30}\\\ei{73}&5&&\et{73}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタE:シソーラスの問題]\end{description}クラスタEの内容は以下の通りであり,意味は「シソーラスの問題」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{41}&\phantom{0}3&○&\et{41}\\\ei{4}&\phantom{0}5&○&\et{4}\\\ei{60}&\phantom{0}1&&\et{60}\\\ei{36}&11&&\et{36}\\\ei{52}&11&○&\et{52}\\\ei{68}&19&○&\et{68}\\\ei{31}&\phantom{0}6&○&\et{31}\\\ei{10}&\phantom{0}4&&\et{10}\\\ei{16}&\phantom{0}1&&\et{16}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタF:学習アルゴリズムの問題]\end{description}クラスタFの内容は以下の通りであり,意味は「学習アルゴリズムの問題」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{27}&\phantom{0}5&○&\et{27}\\\ei{54}&\phantom{0}8&○&\et{54}\\\ei{74}&12&○&\et{74}\\\ei{20}&\phantom{0}3&&\et{20}\\\ei{71}&\phantom{0}5&○&\et{71}\\\ei{1}&10&&\et{1}\\\ei{39}&14&&\et{39}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\ei{74}(\et{74})に``○''を付けている.\ei{74}は古宮が設定した分類である.古宮の分類観点を見ると,\ei{74}が付けられた事例はMFSの観点あるいは素性の様子からでは誤りの原因が特定できないものであることがわかる.これは分析用システムで利用したSVMによる影響と見なせる.そのため\ei{74}も「学習アルゴリズムの問題」と見なした.\begin{description}\item[クラスタG:訓練データの不足]\end{description}クラスタGの内容は以下の通りであり,意味は「訓練データの不足」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{28}&\phantom{0}2&&\et{28}\\\ei{35}&\phantom{0}1&&\et{35}\\\ei{43}&\phantom{0}1&&\et{43}\\\ei{51}&\phantom{0}9&○&\et{51}\\\ei{2}&19&○&\et{2}\\\ei{75}&22&&\et{75}\\\ei{13}&13&○&\et{13}\\\ei{55}&32&○&\et{55}\\\ei{67}&26&○&\et{67}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\ei{55}(\et{55})に``○''を付けている.藤田のシステムは訓練データを拡張した手法である.そのシステムで正解となったということで,その誤りの原因を「訓練データの不足」と見なした.\begin{description}\item[クラスタH:共起語の多義性]\end{description}クラスタHの内容は以下の通りであり,意味は「共起語の多義性」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{22}&1&○&\et{22}\\\ei{42}&1&○&\et{42}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタI:構文・格・項構造の素性不足]\end{description}クラスタIの内容は以下の通りであり,意味は「構文・格・項構造の素性不足」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{15}&1&○&\et{15}\\\ei{58}&2&○&\et{58}\\\ei{59}&3&○&\et{59}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタJ:データの誤り]\end{description}クラスタJの内容は以下の通りであり,意味は「データの誤り」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{32}&2&○&\et{32}\\\ei{6}&2&○&\et{6}\\\ei{61}&1&○&\et{61}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタK:深い意味解析が必要]\end{description}クラスタKの内容は以下の通りであり,意味は「深い意味解析が必要」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{29}&\phantom{0}2&&\et{29}\\\ei{19}&\phantom{0}2&&\et{19}\\\ei{7}&\phantom{0}5&○&\et{7}\\\ei{56}&\phantom{0}9&○&\et{56}\\\ei{46}&14&○&\et{46}\\\ei{47}&\phantom{0}9&○&\et{47}\\\ei{37}&\phantom{0}4&○&\et{37}\\\ei{26}&\phantom{0}4&○&\et{26}\\\ei{62}&\phantom{0}1&&\et{62}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\ei{46}(\et{46})に``○''を付けている.\ei{46}は新納が設定した分類である.新納は\ei{46}と\ei{47}(\et{47})を区別しているが,そこでの説明にもあるように,これらの違いは一概に判断できない.\ei{46}のタイプの誤りのほとんどは,その文脈上で人間は語義を識別できると考え,ここではまとめることにした.また\ei{56}(\et{56})にも``○''を付けているが,これは\ei{46}あるいは\ei{47}の意味と考えられるためである.\begin{description}\item[クラスタL:【クラスタIと合併】]\end{description}クラスタLの内容は以下の通りであり,意味は「構文・格・項構造の素性不足」とした.これはクラスタIの意味と同じであり,クラスタLはクラスタIと合併する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{18}&\phantom{0}5&&\et{18}\\\ei{3}&\phantom{0}2&○&\et{3}\\\ei{24}&\phantom{0}5&○&\et{24}\\\ei{72}&27&&\et{72}\\\ei{65}&15&○&\et{65}\\\ei{66}&18&&\et{66}\\\ei{44}&\phantom{0}2&&\et{44}\\\ei{53}&\phantom{0}4&&\et{53}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタM:素性のコーディングが困難]\end{description}クラスタMの内容は以下の通りであり,意味は「素性のコーディングが困難」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&意味\\\hline\ei{12}&\phantom{0}6&&\et{12}\\\ei{25}&\phantom{0}7&○&\et{25}\\\ei{5}&13&&\et{5}\\\ei{38}&10&○&\et{38}\\\ei{40}&\phantom{0}2&&\et{40}\\\ei{64}&\phantom{0}1&&\et{64}\\\ei{33}&\phantom{0}2&&\et{33}\\\ei{14}&\phantom{0}3&&\et{14}\\\ei{23}&\phantom{0}2&&\et{23}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}以上より記号B,E,F,G,H,I,J,K及びMで示される9個の統合版の誤り原因を設定した(表13参照).\subsubsection{クラスタリング結果の調整}クラスタリングの対象であった75個の誤り原因のうち,統合版の誤り原因に置き換えられるものは35種類であった.残り40種類の誤り原因の中で統合版の誤り原因に置き換えられるものを調べた.基本的には各分析者が自身の設定した誤り原因の意味と統合版の誤り原因の意味を比較することで行った.結果,以下の\mbox{表\ref{okikae}}に示した11個の置き換えができると判断した.上記の調整を行った後の統合版の誤り原因は\mbox{表\ref{kekka-type2}}にまとめられる.本論文ではこれを「統合版誤り原因のタイプ分類」と名付けることにする.\begin{table}[t]\caption{統合版の誤り原因への置き換え}\label{okikae}\input{01table12.txt}\end{table}\begin{table}[t]\caption{統合版誤り原因のタイプ分類}\label{kekka-type2}\input{01table13.txt}\end{table}\subsection{事例への誤り原因のラベル付与}ここでは分析対象の50事例を統合版誤り原因のタイプ分類に基づいてラベル(記号)を付与する.まず対象事例に対する各自の分析結果である\mbox{表\ref{kekka-all}}の各記号を,統合版誤り原因のタイプ分類の記号に置き換える.次に2名以上が同じ記号を付けていた場合に,その記号をその事例に対する誤り原因とする.結果を\mbox{表\ref{kekka-all3}}に示す.「統合タイプ」の列が統合版誤り原因のタイプ分類による記号を表す.\begin{table}[p]\caption{50事例に対する統合版の誤り原因の付与}\label{kekka-all3}\input{01table15.txt}\end{table}以下に示す対象事例の25,42には記号が付与されなかった.これらの事例に対しては,誤り原因が分析者により異なり,共通した原因がなかったためであるといえる.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{c|p{364pt}}\hline事例ID&\multicolumn{1}{c}{テスト文}\\\hline25&ただ飲みすぎは神経が完全に麻痺して*立た*なくなったり、射精が出来なくなることがあるので、ほどほどに・・・。\\\hline42&千早ぶる神のみ*まへ*のたちばなももろ木も共においにける哉(倭訓栞前編十四多)\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}また\mbox{表\ref{kekka-all3}}から得られる統合版の誤り原因の事例数を大きい順に\mbox{表\ref{kekka-all4}}に示す.累積カバー率はその順位までのタイプを使って分析対象の50事例をどの程度カバーしているかを表す.\mbox{表\ref{kekka-all4}}から誤りの9割は上位3つの「G:訓練データの不足」「K:深い意味解析が必要」「E:シソーラスの問題」のいずれか,あるいはそのいくつかが原因であることがわかる.\begin{table}[t]\caption{統合版の誤り原因の事例数と累積カバー率}\label{kekka-all4}\input{01table14.txt}\end{table}
\section{考察}
\subsection{統合版誤り原因のタイプ分類の評価}ここでは統合版誤り原因のタイプ分類の評価を行う.本論文が目標としたタイプ分類は分析者7名のタイプ分類を代表するタイプ分類であるため,この観点から評価を行う.そのために,誤り原因のタイプ分類間の類似度を定義し,各タイプ分類間の類似度を測る.統合版誤り原因のタイプ分類がどの分析者の誤り原因のタイプ分類とも類似していれば,統合版誤り原因のタイプ分類が本論文で目標としていたタイプ分類であることがいえる.$A$と$B$を誤り原因のタイプ分類とし,$A$と$B$の類似度$Sim(A,B)$の定義を行う.$A$の要素である各誤り原因は,本論文のクラスタリングで利用したように50次元のベクトルで表現できる\footnote{\mbox{表\ref{kekka-all3}}を用いれば,統合版誤り原因のタイプ分類も同様に,その要素となっている9種類の誤り原因が50次元のベクトルで表現できる.}.そして$A$の誤り原因が$m$種類のとき,$A$は以下のような集合で表現できる.\begin{equation}A=\left\{a_1,a_2,\cdots,a_m\right\}\end{equation}同様に,$B$の誤り原因が$n$種類のとき,$B$は以下のような集合で表現できる.\begin{equation}B=\left\{b_1,b_2,\cdots,b_n\right\}\end{equation}ここで$a_i$や$b_j$は50次元のベクトルである.本論文では$Sim(A,B)$を以下で定義する.\begin{equation}Sim(A,B)=\max_{Q}\sum_{(i,j)\inQ}s(a_i,b_j)\end{equation}ここで$s(a_i,b_j)$は$a_i$と$b_j$の類似度であり,ここでは内積を用いる.また$Q$は誤り原因のラベルの対応関係を表す.例えば$A$のラベルが$\{1,2\}$であり,$B$のラベルが$\{1,2,3\}$である場合,ラベルの対応は以下の6通りが存在する.$Q$はこの中のいずれかになる.\begin{verbatim}{(1,1),(2,2)},{(1,2),(2,1)},{(1,2),(2,3)}{(1,3),(2,2)},{(1,1),(2,3)},{(1,3),(2,1)}\end{verbatim}つまり$Sim(A,B)$はラベル間の対応$Q$に基づく誤り原因間の類似度の和を意味する.問題は最適な$Q$の求め方であるが,一般にこれは組み合わせの数が膨大になるため,求めることが困難である.ここでは単純に以下の擬似コードで示される貧欲法により$Q$を求め,その$Q$を用いて$Sim(A,B)$を算出することにした.\vspace{0.5\Cvs}\begin{screen}\small\begin{verbatim}Q<-{};K<-{1,2,・・・,m};H<-{1,2,・・・,n}while((K!={})∧(H!={})){(i,j)=argmaxs(a_i,b_j)with(i,j)∈(K,H)Q<-Q+{(i,j)}K<-K-{i};H<-H-{j}}returnQ\end{verbatim}\end{screen}\vspace{0.5\Cvs}上記の疑似コードの概略を述べる.まず$A$も$B$も記号の添え字でラベルを表すことにする.$A$のラベルの集合を$K$,$B$のラベルの集合を$H$とする.各$(i,j)\in(K,H)$に対して,$sim(a_i,b_j)$を求めることで,$sim(a_i,b_j)$が最大となる$(i,j)$が求まる.これを$Q$に追加し,$K$から$i$を,また$H$から$j$を取り除く.この処理を$K$か$H$のどちらかの集合が空になるまで続け,最終的な$Q$を出力とする.またここではラベルの意味を考慮して$Q$を設定していないことに注意しておく.我々の問題ではラベルに意味が付けられている.このラベルの意味から要素間の対応を取り$Q$を設定することも可能である.しかしここではそのようなアプローチは取らなかった.つまりここでは分析者$A$が誤り原因$i$に付与した(主観的な)意味と,分析者$B$が誤り原因$j$に付与した(主観的な)意味が似ているか似ていないかは考慮せずに,$i$や$j$のラベルが付与された事例の分布のみから$i$と$j$の類似度を測っている.またここでの誤り原因のタイプ分類では,1つの事例に対して複数の誤り原因を与えることを許している.このため明らかに1つの事例に多くの誤り原因を与える方が類似度が高くなる.この問題の解消のために1つの事例に$k$個の誤り原因を与えている場合,その部分の頻度を$1/k$に修正した.さらに統合版誤り原因のタイプ分類では,事例25,42にラベルを付与していない.一方,他の分析者は「わからない」「分析していない」などのラベルも許して全ての事例にラベルを付与している.公正な評価のため,統合版誤り原因のタイプ分類による事例25,42にも便宜上「その他」というラベルを付与した.上記の処理により各誤り原因のタイプ分類間の類似度を求めた結果を\mbox{表\ref{kekka-kousatu1}}に示す.表中の各人の名前はその人の誤り原因のタイプ分類を示し,【統合】は統合版誤り原因のタイプ分類を示す.また類似度の横の括弧内の数値は,その行に注目して類似度の大きい順の順位を表す.\begin{table}[t]\caption{誤り原因のタイプ分類間の類似度}\label{kekka-kousatu1}\input{01table16.txt}\end{table}\begin{table}[t]\caption{誤り原因タイプ分類の評価結果}\label{kekka-datou-hyouka}\input{01table17.txt}\end{table}各人の縦の列の順位を足して,要素数で割った結果を\mbox{表\ref{kekka-datou-hyouka}}に示す.この値が低いほど,全体として他のタイプ分類と類似していることを示しており,統合版誤り原因のタイプ分類が最も良い値を出している.これは統合版誤り原因のタイプ分類が,分析者7名のタイプ分類を代表していることを意味し,本論文が目標としていたタイプ分類であることを示している.\subsection{統合版誤り原因のタイプ分類を利用した各人の分析結果の比較}ここでは統合版誤り原因のタイプ分類を利用して各人の分析結果の関係を考察する.各人の誤り分析に対する分析結果は,細かく見ると,誤り原因のタイプ分類の構築とそのタイプ分類に従った対象事例への誤り原因のラベル付与からなっている.各人の分析結果は誤り原因のタイプ分類が異なっているために,直接比較することはできないが,各人が設定した誤り原因を統合版の誤り原因に変換し,誤り原因のラベルを統一することで,各人の分析結果を比較できる.具体的には\mbox{表\ref{kekka-all3}}が,統合版誤り原因のタイプ分類を利用して誤り原因のラベルを統一した各人の分析結果と見なせる.ラベルが付与されていない場合は,仮想的に10番目の誤り原因のラベル「その他」が付与されていると考える.これによって\mbox{表\ref{kekka-all3}}から各人の分析結果を$50\times10$の行列として表現できる\footnote{行はその大きさを1に正規化しておく.}.行列間の距離を各行(事例)間の距離の和で定義すれば,各人の分析結果間の距離が\mbox{表\ref{each-kyori}}のように求まる.\mbox{表\ref{each-kyori}}から多次元尺度法を利用して,各人の分析結果の位置関係を2次元にマップしたものが\mbox{図\ref{tajigen-syakudo}}である.\begin{table}[b]\caption{各人の分析結果間の距離}\label{each-kyori}\input{01table18.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{22-5ia1f4.eps}\end{center}\caption{各人の分析結果の位置関係}\label{tajigen-syakudo}\end{figure}\mbox{図\ref{tajigen-syakudo}}の各人の点はほぼ均等に分布しており,各人の分析結果は互いにかなり異なることが確認できる.その上で以下の2点も認められる.\begin{itemize}\item[(a)]村田,白井,藤田,佐々木の4者の点(分析結果)は比較的近くに集まっている.\item[(b)]古宮の点(分析結果)は比較的孤立している.\end{itemize}(a)は,\mbox{表\ref{each-kyori}}から距離の近い分析者の組を順に並べると\mbox{(村田,藤田)},\mbox{(村田,白井)},\linebreak\mbox{(藤田,佐々木)},\mbox{(白井,藤田)}となっていることからも裏付けられる.また上記4者の距離が近いのは誤り原因G「訓練データの不足」の事例数のためと考えられる.以下の表は各人の分析結果に対して,誤り原因Gが与えられた事例数である.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{c|c|c|c|c|c|c}\hline村田&白井&福本&新納&藤田&佐々木&古宮\\\hline19&19&11&9&32&26&0\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}村田,白井,藤田,佐々木の4者の分析結果に誤り原因Gが与えられた事例数は,どれも比較的大きな値であることがわかる.このため4者の類似度が高くなり,比較的近くに集まったと考えられる.(b)は古宮の分析結果からほぼ明らかである.古宮の分析結果には,誤り原因F「学習アルゴリズムの問題」しか与えられていない.このため他の分析者と誤り原因の一致する事例が極端に少ない.例えば佐々木とは50事例中,誤り原因が一致するものは2つしかない.一致する事例数が少ないと距離が大きくなり,結果的に孤立した位置となる.\subsection{統合版誤り原因のタイプ分類と各人のタイプ分類の差}ここでは統合版誤り原因のタイプ分類に置き換えられなかった各人が設定した誤り原因に注目し,それらが統合版誤り原因のタイプ分類に置き換えられなかった理由を調べることで,統合版ならびに各人の誤り原因のタイプ分類の特徴を考察する.本論文ではクラスタリングを利用して各人の分析結果である誤り原因のタイプ分類を統合した.原理的には多数決と各人の設定した誤り原因の意味を勘案してタイプ分けを行ったことに相当する.統合の過程で各人の分析結果の一部は切り捨てられ,結果的に,統合版に含まれていない.具体的には付録2の表の「統合版の誤り原因」の欄が空欄になっているものがそれに当たる.「切り捨てられた」と言ってもクラスタリング結果の調整を行っているので,実際は,設定した誤り原因が統合版の誤り原因のどれにも置き換えられないと判断された結果である.各人が設定したある誤り原因がある統合版の誤り原因に置き換えられるかどうかの判断は,主観的な部分も大きく,困難である.また事例数が少ないものは,統合版の構築には影響が出ないために,無理矢理置き換えることを避けたという事情も考えられる.一方,ある誤り原因が統合版の誤り原因に置き換えられないことが比較的明らかなものも多い.これはその誤り原因が独自の観点のためである.例えば白井の\ei{28}(\et{28}),\ei{29}(\et{29}),新納の\ei{53}(\et{53}),藤田の\ei{64}(\et{64})などである.また古宮の設定した誤り原因のほとんど(4中3つ)が統合版の誤り原因に置き換えられていない.具体的には\ei{72}(\et{72}),\ei{73}(\et{73})及び\ei{75}(\et{75})である.古宮のタイプ分類は,語義曖昧性解消の問題を分類問題として一般化した上で,その現象ベースから誤りの原因を考えようとしたものであり,上記3つはどれも独自の観点と見なせる.また福本の\ei{40}(\et{40}),\ei{43}(\et{43}),\ei{44}(\et{44})及び\ei{45}(\et{45})は福本が「語義曖昧性解消タスク外の問題」と位置づけたものであり,これも独自の観点と見なせる.独自の観点とは多少異なるが,統合版の誤り原因の異なるタイプの部分的な和になっている,言わば,混合した観点も統合版の誤り原因とは異なると考えた.例えば村田の\ei{1}(\et{1})は,主に以下の2種類の誤り原因に対応する.\begin{itemize}\item[(1)]同一文内の共起語を素性に利用すべき\item[(2)]分類語彙表の分類番号の3桁や4桁も利用すべき\end{itemize}(1)は統合版誤り原因K「深い意味解析が必要」に対応し,(2)は統合版誤り原因E「シソーラスの問題」に対応すると考えられる.つまり村田の\ei{1}(\et{1})はこれらを混合した観点と言える.佐々木の\ei{66}(\et{66})の場合,テスト事例あるいは訓練事例における「単語の不足」であるため,統合版誤り原因G「訓練データの不足」と統合版誤り原因K「深い意味解析が必要」の混合した観点となっている.統合版の誤り原因に置き換えられなかった各人が設定した誤り原因のほとんどは独自の観点か混同した観点であり,しかも事例数が少ない.この点から統合版誤り原因のタイプ分類は,各人のタイプ分類を代表するタイプ分類であるだけでなく,各人が設定した誤り原因の主要部分が反映されたタイプ分類でもある.その結果,統合版誤り原因のタイプ分類は,標準的な語義曖昧性解消の誤り原因のタイプ分類になっていると考えられる.また標準的な誤りの原因のタイプ分類を定量的なデータと共に提示できた意味は大きい.語義曖昧性解消の問題に新たに取り組む者にとって,標準的な手法を用いた場合に,どのような誤りがどの程度出現するのかの目安を得られることは有益である.その上で独自の手法を考案する際,提案手法がどのような誤りの解決を狙っているのかといった研究の位置づけも明確になる点も長所である.最後に,ここで作成した統合版誤り原因のタイプ分類の問題点として,タイプの粒度の問題が存在することを注記しておく.本論文では統合版誤り原因のタイプ分類を作成するのにクラスタリングを利用している.そこではまず誤り原因のクラスタを13個作成したが(\mbox{図\ref{cl-ext}}参照),1つのクラスタに最大1つのタイプしか与えなかった.これはタイプの粒度を一定に保つために行った処置である.このためある粒度のタイプ分けは行えているが,その粒度が粗すぎることも考えられる.例えば統合版誤り原因G「訓練データの不足」と言っても,どのようなタイプの「訓練データ」なのかで詳細化できる.また統合版誤り原因K「深い意味解析が必要」も,どのような「意味解析」なのかで詳細化ができる.このような詳細化は有益であり,本研究の今後の課題と言える.
\section{おわりに}
本論文ではProjectNextNLPの「語義曖昧性解消」チームの活動として行われた語義曖昧性解消の誤り原因のタイプ分けについて述べた.誤り分析の対象事例を設定し,メンバーの7名が各自誤り分析を行った.各自の分析結果はかなり異なり,それらを議論によって統合することは負荷が高いことから,ここでは各自の設定した誤り原因(計75個)を対応する事例を用いてベクトル化し,それらのクラスタリングを行うことで,ある程度機械的に統合処理を行った.クラスタリングによって統合版の誤り原因を特定し,クラスタリング結果の微調整によって最終的な誤り原因のタイプ{分類を作成した}.得られた誤り原因の主要な3つにより,語義曖昧性解消の誤りの9割が生じていることも判明した.また得られたタイプ分類はタイプ分類間の類似度を定義して考察した結果,分析者7名のタイプ分類を代表するものであることも示した.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.本研究で得られた誤り原因のタイプ分類は標準的であり,それを定量的なデータと共に提示できた意味は大きい.今後,一部のタイプを詳細化することで改善していけると考える.この点が今後の課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Fujino,Ueda,\BBA\Nagata}{Fujinoet~al.}{2010}]{Fujino:Ueda:Nagata:2010}Fujino,A.,Ueda,N.,\BBA\Nagata,M.\BBOP2010\BBCP.\newblock\BBOQARobustSemi-supervisedClassificationMethodforTransferLearning.\BBCQ\\newblockIn{\BemProceedingsofthe19thACMInternationalConferenceonInformationandKnowledgeManagement(CIKM'10)},\mbox{\BPGS\379--388}.\bibitem[\protect\BCAY{Fujita\BBA\Fujino}{Fujita\BBA\Fujino}{2013}]{Fujita:Fujino:2013}Fujita,S.\BBACOMMA\\BBA\Fujino,A.\BBOP2013\BBCP.\newblock\BBOQWordSenseDisambiguationbyCombiningLabeledDataExpansionandSemi-SupervisedLearningMethod.\BBCQ\\newblock{\BemTransactionsonAsianLanguage{\linebreak}InforamtionProcessing,AssociationforComputinngMachinery(ACM)},{\Bbf12}(7),\mbox{\BPGS\676--685}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{srl}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticLabelingofSemanticRoles.\BBCQ\\newblock{\BemComputationallinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Mihalcea\BBA\Moldovan}{Mihalcea\BBA\Moldovan}{1999}]{Mihalcea1999}Mihalcea,R.\BBACOMMA\\BBA\Moldovan,D.~I.\BBOP1999\BBCP.\newblock\BBOQAnAutomaticMethodforGeneratingSenseTaggedCorpora.\BBCQ\\newblockIn{\BemProceedingsoftheAmericanAssociationforArtificialIntelligence(AAAI-1999)},\mbox{\BPGS\461--466}.\bibitem[\protect\BCAY{村田\JBA神崎\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{2000}]{murata_msort_nlp}村田真樹\JBA神崎享子\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP2000\BBCP.\newblock意味ソートmsort—意味的並べかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例—.\\newblock\Jem{言語処理学会誌},{\Bbf7}(1),\mbox{\BPGS\51--66}.\bibitem[\protect\BCAY{村田\JBA内山\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{2003}]{Murata_murata_s2j_nlp2003_new}村田真樹\JBA内山将夫\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP2003\BBCP.\newblockSENSEVAL2J辞書タスクでのCRLの取り組み—日本語単語の多義性解消における種々の機械学習手法と素性の比較—.\\newblock\Jem{言語処理学会誌},{\Bbf10}(3),\mbox{\BPGS\115--133}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{iwakoku5}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典第五版}.\newblock岩波書店.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{Shirai:2003j}白井清昭\BBOP2003\BBCP.\newblockSENSEVAL-2日本語辞書タスク.\\newblock\Jem{自然言語処理},{\Bbf10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{S{\o}gaard}{S{\o}gaard}{2013}]{da-book}S{\o}gaard,A.\BBOP2013\BBCP.\newblock{\BemSemi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}.\newblockMorgan\&Claypool.\bibitem[\protect\BCAY{強田\JBA村田\JBA三浦\JBA徳久}{強田\Jetal}{2013}]{Goda2013}強田吉紀\JBA村田真樹\JBA三浦智\JBA徳久雅人\BBOP2013\BBCP.\newblock機械学習を用いた同義語の使い分け.\\newblock\Jem{言語処理学会第19回年次大会},\mbox{\BPGS\585--587}.\bibitem[\protect\BCAY{新納}{新納}{2007}]{shinnou-r-book}新納浩幸\BBOP2007\BBCP.\newblock\Jem{Rで学ぶクラスタ解析}.\newblockオーム社.\end{thebibliography}\appendix
\section{誤り分析対象の50用例}
\vspace{-0.5\Cvs}\noindent\small\scalebox{0.84}{\begin{tabular}{c|>{\hspace{1zw}}l|p{384pt}}\hline事例ID&\multicolumn{1}{c|}{SemEvalID}&\multicolumn{1}{c}{テスト文}\\\hline1&117-46&翌日の新聞は「体重六十六キロの日本人が七百三十二キロを破る」とか「六十六キロが五百七十五秒で*相手*をすべて倒した」と書き立てた。\\\hline2&545-11&早く元気な顔を見せて*あげる*事ですね。\\\hline3&545-34&海水は思ったより冷たくて、おとうさんも私も悲鳴を*あげ*ながらずんずん進んだ。\\\hline4&755-30&さらにはまた、甲の女には与え得べからざるものを乙の女に、また乙の女には*与え*得べからざるものを丙の女に、与え得るということもあろう。\\\hline5&755-48&村の人らは、お宮さんにおまいりして、「どうぞ、ええ水をお*あたえ*くださいませ」てお願いしてたんやと。\\\hline6&2843-10&脂肪を落とすという*意味*なら二の腕のみを細くするのは無理と思いますが、代謝を良くさせむくみを取るということなら何とか・・・?\\\hline7&2843-26&相手を尊重する意味でも、自己防衛の*意味*でも。\\\hline8&2843-50&エミヤのように無理して平常を装う「やせがまん」も、これらの単語で*意味*が通じるよ。\\\hline9&2998-37&十月八日の夜、清瀬の帰りを待ち伏せて詫びを*入れる*振りをしながら、マニラのバグラスの親分から託かったことがあると持ちかけた。\\\hline10&5541-15&*教え*て下さい。\\\hline11&5541-35&あれで木曜と木曜の時に手をぶらぶらさせてる時の発音を*教え*てください。\\\hline12&10703-2&レべリングは結構*技術*がいるみたいですね?\\\hline13&15615-1&入社3年目からずっと間接部門にいて*現場*(ライン)の経験も乏しいです。\\\hline14&15615-47&横浜市鶴見区内のマンションで昨年6月、男女4人の遺体が見つかった事件で、鶴見署は二十一日、*現場*で自殺した同区潮田町、配管工上原三義容疑者(当時二十四歳)を被疑者死亡のまま殺人容疑で横浜地検に書類送検した。\\\hline\end{tabular}}\clearpage\noindent\scalebox{0.84}{\begin{tabular}{c|>{\hspace{1zw}}l|p{384pt}}\hline事例ID&\multicolumn{1}{c|}{SemEvalID}&\multicolumn{1}{c}{テスト文}\\\hline15&17877-24&あとは今少子化で親が*子供*ばかりを監視し、思いどうりにしようとする事が、ある一定の年齢までは我慢できても、小学生くらいになると爆発するといわれます。\\\hline16&17877-49&《子供がおかしいと言う前に、大人は*子供*に向き合っているのか》\\\hline17&21128-3&このため、定期借地権を活用することで、初期投資や地価下落リスクなどを抑制した事業展開もみられるようになってきており、土地利用における多様な需要に応えられる環境を土地*市場*にもたらすとともに、新たな土地需要を喚起していると考えられる。\\\hline18&21128-28&この結果、かえって医師の処方を経ないで入手できる*市場*が生じている。\\\hline19&21128-45&6社と別の1社で*市場*を占有している。\\\hline20&24646-6&何か、病院と保険会社間での*情報*の行き来があるのでしょうか?\\\hline21&27236-3&したがって、アメリカのビジネスモデルと日本の従来のビジネスモデルの両方に精通していて、アメリカのモデルのアイデアをベースに*し*ながら、日本型のビジネスモデルをつくれる経営者が、日本では最も強いビジネスモデルを創造できるということになる。\\\hline22&27236-31&たいていの場合は、数回に分けてじょじょに色を薄く*し*ていく治療なので、段階的に治していきます。\\\hline23&31472-5&二十四歳頃は間接部門(総務部)が嫌でラインへの異動希望も*だし*ていましたが、その部署で6年働いた頃結婚もして子供もうまれました。\\\hline24&31472-50&いずれも耐震強度が0.5以下であることが判明し、4棟は退去勧告が*出さ*れている。\\\hline25&31640-13&ただ飲みすぎは神経が完全に麻痺して*立た*なくなったり、射精が出来なくなることがあるので、ほどほどに・・・。\\\hline26&31640-37&ところが、これまでの半導体生産方式では、ばらつき、雑音が多過ぎて誤動作してしまうため、四端子デバイスの実用化は夢と考えられたが、われわれのラジカル反応ベースの半導体生産技術の完成によってばらつき、雑音が完全に抑制できるようになったため、ようやく実用化のめどが*立っ*た。\\\hline27&34522-17&彼らによって今後、*強い*ベンチャーが続々と誕生してくる可能性が出てきた。\\\hline28&35478-23&ダムの場合はコンクリートの中に冷却水を流すチューブが縦横無尽に走っていて、コンクリートがゆっくり凝固する際に*出る*熱を冷やしているから、収縮があるレベルに抑えられ、ひびが入らないのだという。\\\hline29&35478-43&9日のニューヨーク株式市場は、高値警戒感から利益を確定するための売りが*出*て、ダウ工業株平均は7営業日ぶりに下落した。\\\hline30&35881-44&二十・三十(十四・三十)ICRCアンマン事務所のムイーン・キッシースさんは、朝日新聞からの国際*電話*に対して「今は衛星電話も含め、インターネット、無線など、バグダッドとは、すべての連絡手段が断たれている。現地からの連絡もない。医薬品を送る準備をしているが、バグダッドまでの陸路の安全が保証されれば、すぐにでも向かう予定だ」と話した。\\\hline31&37713-8&どうすればくもりを*取る*ことが出来ますか?\\\hline32&37713-22&そこで、皆様に質問ですが、ヤフオクでは出品するだけで1品ごとに手数料を*とら*れると今日友人から聞きました。\\\hline33&37713-37&もちろん白川氏が実際に経営の指揮を*とる*わけではない。\\\hline34&40289-27&待ち時間がほとんどなく、5時間の滞在で7〜8つのアトラクションに*乗れ*ました。\\\hline35&40333-17&しかも、その*場合*、講習後に大変難しい筆記試験があり、合格しなければ、免許取り消しになると交通課の方に脅かされました。\\\hline36&40699-20&側から*入っ*て、いちばん奥の、上座に当たる位置に、左から吉田松蔭、頼三樹三郎(鴨崖)…と居並び、更に西側にかけて、安政大獄で処刑された志士達、合わせて十五人、東側から南側にかけて、桜田門外で井伊直弼を襲撃した水戸藩士ら(うち一人は薩摩藩士)十八人、松蔭の墓だけ少し大きめの他、すべて同じ形、大きさの墓が整然と居流れています。\\\hline37&40699-40&、四月に*入り*芝の根が勢いよく伸びてきたことや、二月以降、同スタジアムを管理する埼玉県が芝の養生に努めたことが、改善につながったとの見方を示した。\\\hline38&41135-31&夜は粟津歓迎の柔道大会が開かれ、ブーシュ・デュ・ローヌ県の県知事やマルセイユ市長、民間及び軍隊関係のお歴々を*初め*柔道家、そして一般市民達が観戦し盛会だった。\\\hline39&41150-32&ここは、かけがえのない私の*場所*だ!\\\hline40&41912-26&知恵袋の中の回答を見ていると、「*早*過ぎる!」という方がちらほら…。\\\hline41&44126-6&*開い*たときに「請求書ご案内」が上に来るように入れます・・。\\\hline\end{tabular}}\clearpage\noindent\scalebox{0.84}{\begin{tabular}{c|>{\hspace{1zw}}l|p{384pt}}\hline事例ID&\multicolumn{1}{c|}{SemEvalID}&\multicolumn{1}{c}{テスト文}\\\hline42&48488-8&千早ぶる神のみ*まへ*のたちばなももろ木も共においにける哉(倭訓栞前編十四多)\\\hline43&49355-13&島がびっしょり濡れているようにさえ*見え*た。\\\hline44&49812-15&また、テレワークを導入した企業の二十三.一%が、テレワークは「非常に効果があった」と答え、七十二.七%の企業が「ある程度効果があった」と答えており、テレワークを導入した大半の企業が積極的な効果を*認め*ている(図表4)。\\\hline45&50038-16&けど難病患者や理解の少ない病気の患者はどこの病院でも*診*て貰えないのでしょうか?\\\hline46&51332-36&女は両手に皿を*持っ*てキッチンから出てきて、ひとつをぼくの前に、ひとつを自分の席に置く。\\\hline47&51409-24&この創造的な知識の活用能力としての「コンピテンス」をどう定義し、どう内容を定めていくかは、まだまだ議論と研究の最中で明確ではありませんが、二十一世紀の教育が「コンピテンス」と呼ばれる一般的な知的能力を*求め*て展開することは確実です。\\\hline48&52310-21&送られてきた封筒には出品者の住所氏名が書いてあるので根に持って意味もなく保管して*やり*ます。\\\hline49&52935-25&見なければ*よかっ*たです。\\\hline50&52935-41&落札する前に聞いた方が*いい*ですか?\\\hline\end{tabular}}\normalsize
\section{各人の誤り原因の一覧}
\noindent\small\resizebox{\textwidth}{!}{\begin{tabular}{c|c|c|c|c|p{24zw}}\hline誤り原因ID&分析者&記号&事例数&\begin{tabular}{@{}c@{}}統合版の\\誤り原因\end{tabular}&\multicolumn{1}{c}{意味}\\\hline\ei{1}&村田&f&10&&\et{1}\\\ei{2}&〃&d&19&G&\et{2}\\\ei{3}&〃&s&2&I&\et{3}\\\ei{4}&〃&t&5&E&\et{4}\\\ei{5}&〃&n&13&&\et{5}\\\ei{6}&〃&w&2&J&\et{6}\\\ei{7}&〃&p&5&K&\et{7}\\\ei{8}&〃&i&1&B&\et{8}\\\ei{9}&〃&u&4&F&\et{9}\\\ei{10}&〃&c&4&I&\et{10}\\\ei{11}&〃&r&1&M&\et{11}\\\ei{12}&白井&12&6&G&\et{12}\\\ei{13}&〃&13&13&G&\et{13}\\\ei{14}&〃&14&3&I&\et{14}\\\ei{15}&〃&15&1&I&\et{15}\\\ei{16}&〃&16&1&I&\et{16}\\\ei{17}&〃&17&1&&\et{17}\\\ei{18}&〃&18&5&&\et{18}\\\ei{19}&〃&19&2&&\et{19}\\\ei{20}&〃&20&3&&\et{20}\\\ei{21}&〃&21&1&&\et{21}\\\ei{22}&〃&22&1&H&\et{22}\\\ei{23}&〃&23&2&&\et{23}\\\ei{24}&〃&24&5&I&\et{24}\\\ei{25}&〃&25&7&M&\et{25}\\\ei{26}&〃&26&4&K&\et{26}\\\hline\end{tabular}}\clearpage\noindent\resizebox{\textwidth}{!}{\begin{tabular}{c|c|c|c|c|p{24zw}}\hline誤り原因ID&分析者&記号&事例数&\begin{tabular}{@{}c@{}}統合版の\\誤り原因\end{tabular}&\multicolumn{1}{c}{意味}\\\hline\ei{27}&〃&27&5&F&\et{27}\\\ei{28}&〃&28&2&&\et{28}\\\ei{29}&〃&29&2&&\et{29}\\\ei{30}&〃&30&1&&\et{30}\\\ei{31}&〃&31&6&E&\et{31}\\\ei{32}&〃&32&2&J&\et{32}\\\ei{33}&〃&33&2&J&\et{33}\\\ei{34}&〃&34&1&&\et{34}\\\ei{35}&福本&1-a&1&E&\et{35}\\\ei{36}&〃&1-b&11&G&\et{36}\\\ei{37}&〃&1-c&4&K&\et{37}\\\ei{38}&〃&1-d&10&M&\et{38}\\\ei{39}&〃&1-e&14&K&\et{39}\\\ei{40}&〃&2-a-i&2&&\et{40}\\\ei{41}&〃&2-a-ii&3&E&\et{41}\\\ei{42}&〃&2-a-iii&1&H&\et{42}\\\ei{43}&〃&2-a-iv&1&&\et{43}\\\ei{44}&〃&2-c-i&2&&\et{44}\\\ei{45}&〃&2-b-i&1&&\et{45}\\\ei{46}&新納&1-a&15&K&\et{46}\\\ei{47}&〃&1-b&10&K&\et{47}\\\ei{48}&〃&1-c&3&&\et{48}\\\ei{49}&〃&1-d&2&B&\et{49}\\\ei{50}&〃&2-a&4&&\et{50}\\\ei{51}&新納&2-b&9&G&\et{51}\\\ei{52}&〃&2-c&11&E&\et{52}\\\ei{53}&〃&3-a&4&&\et{53}\\\ei{54}&〃&4&8&F&\et{54}\\\ei{55}&藤田&*&32&G&\et{55}\\\ei{56}&〃&Difficult&9&K&\et{56}\\\ei{57}&〃&TooShort&1&B&\et{57}\\\ei{58}&〃&Kakari&2&I&\et{58}\\\ei{59}&〃&SRL&3&I&\et{59}\\\ei{60}&〃&BothAreOK&1&&\et{60}\\\ei{61}&〃&GuessIsCorrect&1&J&\et{61}\\\ei{62}&〃&FeaMakingError&1&&\et{62}\\\ei{63}&〃&FewFea&1&&\et{63}\\\ei{64}&〃&Ancient&1&&\et{64}\\\ei{65}&佐々木&a&15&I&\et{65}\\\ei{66}&〃&b&18&&\et{66}\\\ei{67}&〃&c&26&G&\et{67}\\\ei{68}&〃&d&19&E&\et{68}\\\ei{69}&〃&e&3&&\et{69}\\\ei{70}&〃&f&3&B&\et{70}\\\ei{71}&〃&z&5&F&\et{71}\\\ei{72}&古宮&M&29&&\et{72}\\\ei{73}&〃&(M)&4&&\et{73}\\\ei{74}&〃&?&12&F&\et{74}\\\ei{75}&〃&F&22&&\et{75}\\\hline\end{tabular}}\normalsize\clearpage\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部助手.2015年同学部教授.現在に至る.博士(工学).機械学習や統計的手法を用いた自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1997年同大学院工学研究科電子通信工学専攻博士課程修了.博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.2010年鳥取大学大学院工学研究科教授.現在に至る.自然言語処理,情報抽出の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士課程修了.同年同大学院助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授.現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会,人工知能学会,電子情報通信学会各会員.}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒.同年沖電気工業株式会社入社.総合システム研究所勤務.1988年より1992年まで財団法人新生代コンピュータ技術開発機構へ出向.1993年マンチェスター工科大学計算言語学部修士課程修了.同大学客員研究員を経て1994年より山梨大学工学部助手,2010年同学部教授,現在に至る.自然言語処理の研究に従事.理博.ACM,ACL,情報処理学会各会員.}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所研究主任.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教.2015年同准教授.現在に至る.博士(工学).自然言語処理の研究に従事.近年はCGMテキストに対する評判分析に興味をもつ.}\end{biography}\biodate\end{document}
| |
V09N01-06
|
\section{まえがき}
自然言語処理の最大の問題点は,言語表現の構造と意味の多様性にある.機械翻訳の品質に関する分析結果(麻野間ほか1999)によれば,従来の機械翻訳において,期待されるほどの翻訳品質が得られない最大の原因は,第1に,動詞や名詞に対する訳語選択が適切でないこと,第2に,文の構造が正しく解析できないことであると言われている.ところで,日本語表現で,訳語選択と文の構造解析を共に難しくしている問題の一つとして,「もの」,「こと」,「の」などの抽象名詞の意味と用法の問題がある.抽象名詞は,高度に抽象化された実体概念を表す言葉で,話者が,対象を具体的な名詞で表現できないような場合や明確にしたくないような場合にも使用される傾向を持ち,その意味と用法は多彩である.そのため,従来の機械翻訳において,これらの抽象名詞が適切に訳される例は,むしろ少ない.学校文法では,これらの語の一部を形式名詞と呼んでいるが,これは,それらの語が,実体概念を表すという名詞本来の機能を越えて,対象に対して話者の抱いた微妙なニュアンスを伝えるような機能を持ち,文法上,他の名詞とは異なる用法を有することを意味している.訳語選択の観点から見ると,従来,動詞の訳し分けでは,結合価文法が有効であることが知られており,大規模な結合価パターン辞書(池原ほか1997)が開発されたことによって,その翻訳精度は大幅に向上した.これに対して,名詞の訳し分けの研究としては,結合価文法で定義された名詞の意味属性を用いることの有効性を検証した研究(桐澤ほか1997)や形容詞に修飾された名詞についての訳し分けなどがあるが,動詞の場合に比べて得られる効果は小さい.名詞は動詞に比べてその種類も多く意味が多彩である(笠原ほか1997).なかでも,抽象名詞は本来の名詞としての機能のほか,文法的にも多彩な機能を持つため,個別に検討する必要があると考えられる.従来の抽象名詞の研究としては,形式名詞「もの」の語彙的意味と文法的意味の連続性を明らかにする目的で,これを他の抽象名詞「こと」と「ところ」を対比した研究(佐々ほか1997)がある.また,抽象名詞「こと」が,「名詞+の+こと」の形式で使用された場合を対象に,「こと」が意味的に省略可能であるか否かを述語の種類によって判定する研究(笹栗,金城1998)等もある.しかし,これらの研究では,文中での意味的役割については検討されておらず,従って,また,英語表現との対応関係も明らかでない.そこで,本検討では,抽象度の高い6種類の名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文法的,意味的用法を分類し,英語表現との対応関係を調べる.このうち,名詞「の」は,多くの場合,その意味を変えることなくより抽象度の低い名詞「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられることが知られている.これに着目して,本稿では,以下の2段階に分けて検討を行う.まず,単語「の」を対象に,それが,抽象名詞であるか否かを判定するための条件を示し,抽象名詞である場合について,他のどの抽象名詞に交替可能であるかを判定する方法を検討する.次に,5種類の抽象名詞「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文中での役割に着目して,用法を「語彙的意味の用法」と「文法的意味の用法」に分け,「文法的意味の用法」をさらに,「補助動詞的用法」と「非補助動詞的用法」に分類する.その後,表現形式と意味の違いに着目して,文法的,意味的用法と英語表現形式との対応表を作成する.また,得られた対応表を新聞記事の標本データに適用し,その適用範囲と適用精度を評価する.
\section{抽象名詞とその用法について}
\subsection{抽象名詞の概念について}従来の文法では,物理的な対象概念を表す言葉を「具象名詞」と称するのに対して,観念的な実体概念を表す言葉を「抽象名詞」と呼んでいる。これに対して,本検討では,具体から抽象へ向かう実体概念の把握において,高度に抽象化された実体概念を表現する言葉を「抽象名詞」と呼び\footnote{学校文法では、文法的機能を説明する立場から、名詞「の」、「もの」、「こと」を「形式名詞」と読んでいるが、「ところ」、「とき」、「わけ」などは「形式名詞」と呼ばれていない。これに対して、本研究では、名詞の表す対象概念の抽象度に着目して、これらの名詞も合わせて「抽象名詞」と呼ぶ},対象が物理的であるか観念的であるかの区別はしない.認識論的な品詞分類の観点(時枝1950)から見れば,名詞は,個別的な実体をある種類に属するものとして普遍的に把握し,その種類の持つ特殊性に応じて表現するための言葉だとされる.一般に,言語表現では,万人に共通する対象のあり方がそのまま表現されているわけではなく,対象のあり方が話者の認識を通して表現されている.そのため,同一の対象を表現する場合でも,人と場合によって認識の仕方は異なり,それに応じた言葉が使用される.例えば,名詞「魚」は,「虫」や「鳥」と区別して対象を表すときに使用されるが,これらを区別する必要のない時は,より抽象度の高い言葉として「動物」が使用される.「生物」と「無生物」の区別を必要としないときは,さらに抽象度の高い「もの」が使用される.また,行動を固定してとらえ,客体化した概念を表現する名詞として「働き」,「眠り」などが使用されるが,これらを区別しないときは,より抽象的な「こと」が使用される.このように,言語表現では,話者の対象に対する個別性と普遍性の認識に適合する抽象度の言葉が使用される.ここで,名詞「もの」と名詞「こと」は,それぞれ物理的実体と観念的実体を代表する最も抽象度の高い名詞であるが,さらに抽象度の高い言葉として名詞「の」がある.「の」は,両者の区別を必要としない場合に使われることから,日本語において最も抽象度の高い言葉と言える.また,逆に,「もの」,「こと」より,若干,抽象度の低い名詞としては,「ところ」,「とき」,「わけ」,「あいだ」,「ばかり」,「ほど」等がある\footnote{「日本語語彙体系」(池原ほか1997)では、このような名詞の表す概念の抽象度の関係が、名詞意味属性の包含関係(is-a関係)として、12段階の木構造に整理されている}.ところで,名詞「の」は,機械翻訳において最も翻訳が困難な名詞の一つであるが,文脈によって,他の抽象名詞「もの」,「こと」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられる(交替現象)から,名詞「の」を翻訳するには,置き換えられた抽象名詞の翻訳方法に従えばよいと考えられる.そこで,本検討では,「の」の交替現象の解析方法と交替後の抽象名詞の翻訳方法について検討する.但し,置き換え先となる抽象名詞のうち,「ひと」の翻訳方法は比較的単純であるため検討対象外とする.\subsection{抽象名詞の用法}{\bf(1)抽象名詞「の」の対象範囲について}抽象名詞の中でも,「の」の用法は多彩であり,従来,その意味と機能の面から国語学者によってさまざまな解釈がされている(大野,柴田1976).本検討では,言語過程説の立場(時枝1941;三浦1967,1975)から提案された抽象名詞「の」の定義(宮崎ほか1995)に従う.従来の学校文法との違いは,表1の通りである.\begin{table}[htbp]\caption{抽象名詞「の」範囲}\begin{center}\begin{tabular}{|c|c|}\hline学校文法での解釈&本検討での扱い\\\hline形式名詞「の」&\\準体助詞「の」&抽象名詞\\終助詞「の」&\\\hline接続助詞「ので」&抽象名詞「の」+格助詞「で」\\&抽象名詞「の」+肯定判断の助動詞「だ」の連体形「で」\\\hline接続助詞「のに」&抽象名詞「の」+格助詞「に」\\\hline終助詞「のだ」&抽象名詞「の」+肯定判断の助動詞「だ」\\\hline\end{tabular}\end{center}\end{table}{\bf(2)抽象名詞の用法分類}英語でも日本語と同様,抽象度に応じて対象概念を表現する名詞があり,本検討で対象とする日本語抽象名詞には,おおよそ以下の英語が対応する.「の」:one,thing,「もの」:thing,「こと」:thing,matter,affair,「ところ」:place,「わけ」:reason,「とき」:timeしかし,これらの単語の場合,その表す概念は必ずしも一致しないだけでなく,本来の意味から転じてさまざまな用法が発達しているため,その訳し方は単純でない.例えば,下記の例文1では,「もの」に対する名詞訳語は存在せず,過去の習慣の意味で,連語"usedto"によって訳されている.また,例文2は,「とき」に係っている節をまとめあげて後置する節へ接続する機能を持ち,英語表現では接続詞"when"に訳されている.\vspace{6pt}例文1:子供の時はいつも学校へ歩いて行った\underline{もの}です.Asachild,I\underline{used}alwaystowalktoschool.例文2:桜のきれいな\underline{とき}に日本に来たい.IwouldliketocometoJapan\underline{when}thecherryblossomsarepretty.\vspace{6pt}そこで,本検討では,抽象名詞が実体概念を表すという名詞本来の意味で使用されている場合(「語彙的意味の用法」と呼ぶ)と,本来の意味を失って,文法的な機能を持つ言葉として使用されている場合(「文法的意味の用法」と呼ぶ)を区別する.ここで,「語彙的意味の用法」とは,例文3のような場合である.この文では,抽象名詞「ところ」は本来の意味で"place"に訳されている.また,「文法的意味の用法」とは,例文4のような場合である.抽象名詞は語彙的な意味が薄れ,接続助詞や助動詞のように,文法的な意味を有する機能語として使用される.\vspace{6pt}例文3:分からない\underline{ところ}は兄が教えてくれました.Myelderbrotherexplainedtome\underline{theplaces}Ididn'tunderstand.例文4:私はその話はいくらか聞いた\underline{こと}がある.I\underline{have}heardsomethingaboutthatsubject.\vspace{6pt}この2つの用法の違いは「文法化(grammaticalization)」として説明される(HopperandTraugott1993).ここで,文法化とは,一般に語彙的意味を持つ語が機能語へ変化していくプロセスのことである.次に,「文法的意味の用法」を「補助動詞的用法」と「非補助動詞的用法」に分類する.「補助動詞的用法」は,例文4のような場合で,機能動詞を伴った文末表現として訳されることが多いのに対して,「非補助動詞的用法」は,例文5のような場合で,主に接続表現として訳される.\vspace{6pt}例文5:電話をする\underline{とき}は電話番号をよく確かめてから,かけなさい.\underline{When}youaretelephoning,makesureofthenumberbeforephoning.\vspace{6pt}以上から,本検討では,抽象名詞の用法を図1の通り分類する.\begin{figure}\begin{center}\atari(120,40)\caption{抽象名詞の分類}\end{center}\end{figure}
\section{抽象名詞「の」の交替現象の解析}
\subsection{抽象名詞「の」の交替現象について}本検討で対象とする6つの抽象名詞の中で,最も抽象度の高い名詞は,「の」である.この名詞は,多くの場合,意味を変えることなく,他の抽象名詞に置き換えることができる\footnote{もちろん、抽象名詞である以上、「こと」、「もの」、「ところ」、「とき」、「わけ」も、他のより具体性のある名詞に置き換え可能な場合は多いが、ここでは、それ以上の置き換えは考えない}.置き換え可能(「交替可能」)な場合と置き換え不能(「交替不能」)な場合の例を以下に示す.\vspace{6pt}{\bf[交替可能な例]}例文6:年内に景気が回復する\underline{の(こと)}は,極めてむずかしい.例文7:日本料理はなんでも食べられるが,一番好きな\underline{の(もの)}はスキヤキです.例文8:昨日,彼女がカバンを持ってバスに乗り込む\underline{の(ところ)}を見た.例文9:この前お会いした\underline{の(とき)}は,いつでしたか.例文10:彼の成績が悪い\underline{の(わけ)}は,しょっちゅう学校を休んでばかりいるからだ.\vspace{6pt}{\bf[交替不能な例]}例文11:見つかるといけない\underline{の}で,彼は隠れた.例文12:彼は勉強した\underline{の}に,試験に落ちた.例文13:きみは切符を買う必要はなかった\underline{の}だ.そこで,抽象名詞「の」の機械翻訳では,図2に示すように,他の抽象名詞に交替可能か否かを判定し,交替可能な場合は,交替後の抽象名詞として翻訳するものとする.\vspace{6pt}\begin{figure}\begin{center}\atari(120,70)\caption{抽象名詞「の」の翻訳手順}\end{center}\end{figure}\subsection{交替現象の解析規則}抽象名詞には,指示代名詞と類似した用法があり,一度文中に出現した対象を改めて取り上げるために使用される場合がある.また,逆に,初めに抽象名詞で表現した対象が,後でより具体的な名詞で表現されることもある.このような場合は,抽象名詞に対して,置き換えることのできる名詞が存在する.そこで,新聞記事\footnote{大手新聞社数社の記事から、解説記事、政治、経済、社会面等の記事を1,000文づつ(合計10,000文)取り出して、対訳を付与したもの}や小説(新潮社1995),日英機械翻訳機能試験文集\footnote{英訳しにくい日本語表現(6,200文)に対訳を付け、機械翻訳の機能試験用にまとめたもの(池原1994)},日本語問題集(名柄監修1987)から得られた抽象名詞「の」の用例を対象に,後置する単語の種類,文型,係り受け関係などに着目して,置き換えを可能とする条件と置き換え先の抽象名詞を決定する方法について検討した.その結果を表2に示す.\begin{table}[htbp]\caption{「の」の交替現象の解析規則}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline{\verb+#+}&区分&\multicolumn{3}{|c|}{「の」の交替現象の判定条件}&判定結果\\\hline&&\multicolumn{2}{|c|}{後置単語による判定}&助動詞「だ」の場合&格助詞「の」+助動詞「だ」\\\cline{5-6}&&\multicolumn{2}{|c|}{}&接続助詞「に」の場合&接続助詞「のに」\\\cline{5-6}1&交替不能&\multicolumn{2}{|c|}{「の」に後置する単語が}&接続助詞「で」の場合&接続助詞「ので」\\\cline{5-6}&の判定&\multicolumn{2}{|c|}{助動詞,接続助詞,}&終助詞「か」の場合&終助詞「のか」\\\cline{5-6}&&\multicolumn{2}{|c|}{終助詞の場合}&終助詞「よ」の場合&終助詞「のよ」\\\cline{5-6}&&\multicolumn{2}{|c|}{}&終助詞「ね」の場合&終助詞「のね」\\\hline2&&前置単語による判定&\multicolumn{2}{|c|}{形容詞が単独で係っている場合}&「もの」に置換\\\cline{1-1}\cline{3-6}3&&文型による判定&\multicolumn{2}{|c|}{「〜するのは,〜からだ」の文型の場合}&「わけ」に置換\\\cline{1-1}\cline{3-6}4&交替可能&&係り先が&「見る」「発見する」の場合&「ところ」に置換\\\cline{1-1}\cline{5-6}5&の判定&&動詞の場合&その他の用言の場合&「もの」に置換\\\cline{1-1}\cline{4-6}&&係り先による判定&&<時詞>の場合&「とき」に置換\\\cline{5-6}6&&&係り先が&<{\verb+#+}4人>の場合&「ひと」に置換\\\cline{5-6}&&&名詞の場合&<{\verb+#+}1000抽象>の場合&「こと」に置換\\\cline{5-6}&&&&その他の名詞の場合&「もの」に置換\\\hline\end{tabular}\end{center}\end{table}表で,<時詞>の形式の表記は,名詞の文法的属性を表し,<{\verb+#+}4人>,<{\verb+#+}1000抽象>の表記は,「日本語語彙大系」で定義された「意味属性体系」上の一般名詞意味属性を表す\footnote{本検討では名詞の文法的属性として、「言語過程説に基づく日本語品詞の体系化とその効用」(宮崎ほか1995)の品詞体系を使用し、意味属性体系として「日本語語彙体系」(池原ほか1997)に掲載されている一般名詞意味属性体系を用いる。一般名詞意味属性体系は、約40万語の一般名詞の意味的用法を2,710のカテゴリに分類し、意味属性としてラベル付けされている}.各規則は番号順に適用される\footnote{文法的属性と意味的属性は形態素解析の結果を使用する。また、係り受け関係などの構文情報は構文解析結果を使用する}.以下,本節では,各規則の概要を説明する.{\bf(1)交替不能の判定}交替現象の解析では,まず,抽象名詞「の」が,他の抽象名詞に交替可能か否かを判定する.表1の{\verb+#+}1は,そのための規則である.学校文法で,接続助詞とされる「ので」,「のに」,および,終助詞とされる「のだ」に相当する表現は,高度に文法化した用法であり,他の抽象名詞に置き換えることができない(例文11-13参照).これらの用法に該当するか否かについては,「の」に後置する単語の品詞を調べることによって判定することとし,判定後は,表に示されたような解釈とする.なお,接続助詞的用法である「ので」,「のに」については,順接複文を構成する「ので」と逆接複文を構成する「のに」の研究(西沢ほか1995)など,多くの先行研究があるため,以下では,対象外とする.規則{\verb+#+}1で交替不能と判定されなかった場合は,以下に述べるように,{\verb+#+}2以降の規則を順に適用し,置き換え先の抽象名詞を決定する.\vspace{6pt}{\bf(2)後置単語による判定}前置単語を調べる.前置単語が形容詞(形容動詞を含む)で,節を構成せずに名詞「の」に単独で係っている場合は,「もの」に交替させる(例文7参照).そのための規則が,表2の{\verb+#+}2である.\vspace{6pt}{\bf(3)文型による判定}抽象名詞「の」の使用された文型を調べる.文型が,「〜する(な)のは,〜からだ」の形式を持つときは,{\verb+#+}3の規則によって,「わけ」に交替させる(例文10参照).\vspace{6pt}{\bf(4)係り先による判定(動詞に係る場合)}係り先を調べる.係り先が,知覚動詞の場合は,「ところ」に交替させる.「ところ」には空間的な位置や場所を表す場合,抽象的な事柄についての位置や場面を表す場合,時間的な断面を表す場合などがある.例文8は,場面を表している.係り先となる知覚動詞としては,「見る」,「発見する」が代表的であるので,規則{\verb+#+}4では,これを規則に使用した.これに対して,抽象名詞「の」の係り先が,その他の動詞である場合は,規則{\verb+#+}5によって「もの」に交替させる.\vspace{6pt}{\bf(5)係り先による判定(名詞に係る場合)}最後に,係り先が名詞であるかどうかを調べる.すでに述べたように概念化の過程で,抽象化が進むと,殆どの名詞は,「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」の何れかに縮退されるが,どの名詞に縮退されるかは,名詞の文法的・意味的範疇から判断できる.ここでは,名詞の文法的属性と意味的属性の体系を使用して判断することとし,交替先の抽象名詞を規則{\verb+#+}6のように定める.従って,例えば,例文14では,抽象名詞「の」は,「灯台の明かり」に係っており,「灯台の明かり」は,物理的実体概念として意味属性<{\verb+#+}1具体>の配下にあるため,「もの」に交替させる.\vspace{6pt}例文14:遠くの方でぴかぴか光っている\underline{の(もの)}は,夜の海を照らす灯台の明かりです.
\section{抽象名詞の用法と英語表現の対応関係}
すでに述べたように,抽象名詞「の」では,あらかじめ交替現象の解析によって交替先の抽象名詞を決定するものとした.そこで,本章では,交替先となる「こと」,「もの」,「ところ」,「とき」,「わけ」の5種類の抽象名詞の用法と英語表現との関係を検討する.具体的には,3章で使用した文献と同一の文献\footnote{新聞記事10,000文、新潮文庫、翻訳機能試験文集、日本語問題集の4種}からこれらの抽象名詞の用例を収集し,その用法を第2章で述べたように,「語彙的意味の用法」,「補助動詞的用法」,「非補助動詞的用法」に分類した後,用法と意味を,その前後に現れる語に着目して細分類し,対応する英語表現を表3(「日英対応表」)にまとめた。以下,各抽象名詞の用法と英語表現との対応表を示す.\subsection{「こと」の用法と英語表現}「こと」は係っている語によって,「語彙的意味の用法」と「文法的意味の用法」に分類する.具体的には,係っている語が節を成していないか,一語だけであるとき,「語彙的意味の用法」とし,それ以外を「文法的意味の用法」とする.\begin{table}[htbp]\caption{日英対応表(「こと」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline区分&\multicolumn{3}{|c|}{表現形式}&意味&英語表現\\\hline&\multicolumn{3}{|c|}{名詞+の+こと}&内容&about+名詞\\\cline{5-6}語彙的意味の用法&\multicolumn{3}{|c|}{}&−&名詞のみの訳語\\\cline{2-6}&\multicolumn{2}{|c|}{連体詞+コト}&あの,あんな&指示&that\\\cline{4-4}\cline{6-6}&\multicolumn{2}{|c|}{}&この,こんな&&this\\\cline{4-4}\cline{6-6}&\multicolumn{2}{|c|}{}&どんな&&what\\\cline{2-6}&\multicolumn{3}{|c|}{形容詞+こと}&−&形容詞の訳語\\\cline{2-6}&\multicolumn{3}{|c|}{形容動詞+こと}&−&形容動詞+matter\\\cline{2-6}&\multicolumn{3}{|c|}{動詞+こと}&動作&to+動詞,動詞ing\\\hline&\multicolumn{3}{|c|}{ことになる}&予定&will\\\cline{5-6}補助動詞的用法&\multicolumn{3}{|c|}{}&事象の成立&decide\\\cline{2-6}&\multicolumn{3}{|c|}{ことができる}&可能&can(beableto)\\\cline{2-6}&ことにする&\multicolumn{2}{|c|}{したことにする}&偽りの事象&assume\\\cline{3-6}&&\multicolumn{2}{|c|}{することにする}&決定&decideto\\\cline{2-6}&\multicolumn{3}{|c|}{ことが多い}&短期間の反復&frenquently\\\cline{5-6}&\multicolumn{3}{|c|}{}&傾向&tendto\\\cline{5-6}&\multicolumn{3}{|c|}{}&通例&usually\\\cline{5-6}&\multicolumn{3}{|c|}{}&頻度&often\\\cline{2-6}&ことがある&\multicolumn{2}{|c|}{したことがある}&過去の経験&havebeen\\\cline{5-6}&&\multicolumn{2}{|c|}{}&過去の習慣&usedto\\\cline{3-6}&&\multicolumn{2}{|c|}{することがある}&可能性&therearetimes\\\cline{5-6}&&\multicolumn{2}{|c|}{}&頻度&sometimes\\\cline{5-6}&&\multicolumn{2}{|c|}{}&頻度&frequently\\\cline{3-6}&&\multicolumn{2}{|c|}{したいことがある}&要求の存在&thereisonething\\\cline{5-6}&&\multicolumn{2}{|c|}{}&要求の存在&haveafavor\\&&\multicolumn{2}{|c|}{}&(依頼の動詞を伴う)&\\\cline{5-6}&&\multicolumn{2}{|c|}{}&要求の存在&havesomething\\&&\multicolumn{2}{|c|}{}&(内容が不明瞭)&\\\hline&\multicolumn{2}{|c|}{{\itX}+こと}&主格無し&&{\itV}to{\itX}\\\cline{4-4}\cline{6-6}非補助動詞的用法&\multicolumn{2}{|c|}{+格助詞+動詞}&主格有り&&{\itV}that{\itX}\\\cline{2-4}\cline{6-6}&\multicolumn{2}{|c|}{{\itX1}は{\itX2}だ}&主格有り&&Itis〜that\\\cline{4-4}\cline{6-6}&\multicolumn{2}{|c|}{}&主格無し&&Itis〜to\\\cline{2-4}\cline{6-6}&\multicolumn{3}{|c|}{{\itX}+こと+から}&&because〜\\\cline{2-4}\cline{6-6}&\multicolumn{3}{|c|}{{\itX}+こと+で}&&with〜\\\hline\end{tabular}\end{center}\end{table}次に,「こと」が機能動詞を伴って現れる場合を「補助動詞的用法」とし,それ以外を「非補助動詞的用法」とする.それぞれの詳細と英語表現との対応関係を表3に示す.ここで,表中の最上欄の「名詞+の+こと」に該当する例文を示す.\vspace{6pt}例文15:私は彼の\underline{こと}を知らない.Idon'tknow\underline{about}him.例文16:彼女は彼の\underline{こと}が嫌いだ.Shedoesnotlikehim.\vspace{6pt}これらの例文には,いずれも「彼のこと」という表現が含まれている.このうち,例文15は,「彼」についての属性(年齢や職業などの「彼」にまつわる事柄)を表し,英語では,''abouthim''が用いられている.これに対して,例文16では,「彼」そのものの意味で,英語では,単に,''him''が使用されている.また,例文17は,第3章の交替現象解析の規則が適用される例で,「の」が用言に係っていることから「こと」に交替した後,表3が適用され,"that"が使用される.\vspace{6pt}例文17:その場合,環境問題は多様であり,国,企業,専門家,非政府組織(NGO)など多様な層で構成する\underline{の}が望ましい.<訳語:「こと」に交替後that>\subsection{「もの」,「ところ」,「とき」,「わけ」の用法と英語表現}「もの」では,文中の「もの」が用言の格要素の名詞として用いられ,かつ表4で示された「補助動詞的用法」と「非補助動詞的用法」の表現形式以外の場合を「語彙的意味の用法」とする.この分類方法は,「ところ」,「とき」,「わけ」も同様である.以上4種類の抽象名詞の用法と英語表現の対応を表4〜表7に示す.ここで,「もの」(表4),「ところ」(表5)の規則では,語彙的意味の用法の場合,表層的な表現形式から英語表現を決定することは困難であり,「もの」もしくは「ところ」に相当する名詞を文脈によって特定し,その意味を調べる必要がある点に注意が必要である。ところで,語彙的意味の用法では,抽象名詞が,埋め込み修飾節に対して「内の関係」で使用されているから,結合価パターン(池原ほか1997)を使用した埋め込み文解析が適用できて,先行詞である名詞の文中での意味属性(意味的用法)が決定できる。そこで,得られた名詞の意味属性から対応する表の意味を決定する。以上の日英対応表の適用例を以下に示す.\vspace{6pt}例文18:名詞はこんなに信用させる\underline{もの}なのに簡単に作ることができる.<訳語:thing>例文19:あと数十センチでぶつかる\underline{ところ}だったが,赴任して二週間,危ない目にあったのは,これが初めてではない.<訳語:beaboutto>\vspace{6pt}例文18は「もの」が語彙的意味で用いられ,訳語は"thing"が使用される.例文19は「ところ」が補助動詞的用法で用いられ,動作の直前を表す''beaboutto''が訳語候補となる.\begin{table}[htbp]\caption{日英対応表(「もの」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|}\hline区分&表現形式&意味&英語表現\\\hline&&有形の物&thing\\\cline{3-4}語彙的意味の用法&&品物&article\\\cline{3-4}&&物質&goods\\\cline{3-4}&&材料&material\\\cline{3-4}&&資源&resource\\\cline{3-4}&&所有物&possession\\\cline{3-4}&&物理&thing,matter\\\cline{3-4}&&道理&reason\\\cline{3-4}&&者&person\\\hline&ものだ&当然の帰結&\\\cline{2-3}補助動詞的用法&ものとする&決断&なし\\\cline{2-3}&ものである&断定&\\\cline{2-4}&〜もの.&−&itbe-ed\\\cline{2-4}&ようなものだ(主語が人)&比喩&should\\\cline{2-2}\cline{4-4}&ようなものだ(主語が人以外)&&like\\\hline&もので〜&利用&by-ing\\\cline{3-4}非補助動詞的用法&&前述&−\\\cline{2-4}&〜ものと〜&−&that\\\cline{2-4}&ものの&逆接&thought,but\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{日英対応表(「ところ」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|}\hline区分&表現形式&意味&英語表現\\\hline&&場所&place\\\cline{3-4}語彙的意味の用法&&住所&place\\\cline{3-4}&&個所&passage\\\cline{3-4}&&点&point\\\cline{3-4}&&特徴&feature\\\cline{3-4}&&時&time\\\cline{3-4}&&事&thing\\\hline&するところだ&動作の直前&beaboutto\\\cline{2-4}補助動詞的用法&したところだ&動作の直後&havejust-ed\\\cline{2-4}&しているところだ&動作の進行&just\\\cline{2-4}&したいところだ&動作の希望&なし\\\cline{2-4}&しようとするところだ&動作の寸前&justbeaboutto\\\hline&〜ところ,〜&&なし\\\cline{2-2}\cline{4-4}非補助動詞的用法&するところに〜&&justas\\\cline{2-2}\cline{4-4}&しているところを〜&&inactof-ing\\\cline{2-2}\cline{4-4}&しているところに〜&&when\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{日英対応表(「とき」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline区分&\multicolumn{2}{|c|}{表現形式}&意味&英語表現\\\hline&&あのとき&&then\\\cline{3-3}\cline{5-5}語彙的意味の用法&連体詞&このとき&&(at)thispointintime\\\cline{3-3}\cline{5-5}&&そのとき&&(at)thatmoment\\\hline補助動詞的用法&\multicolumn{2}{|c|}{ときがある}&時々&sometimes\\\hline&\multicolumn{2}{|c|}{動作動詞+するとき}&&when\\\cline{2-3}\cline{5-5}非補助動詞的用法&\multicolumn{2}{|c|}{形容詞+とき}&&when\\\cline{2-3}\cline{5-5}&\multicolumn{2}{|c|}{状態動詞+ているとき}&&while\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{日英対応表(「わけ」の用法と英語表現)}\begin{center}\begin{tabular}{|c|c|c|c|}\hline区分&表現形式&意味&英語表現\\\hline語彙的意味の用法&&理由&reason\\\hline&わけだ&当然&so,(itis)nowonder\\\cline{2-4}補助動詞的用法の用法&わけがない&主観的不可能&cannotpossibly\\\cline{2-4}&わけではない&否定の強調¬\\\cline{2-4}&するわけにはいかない&感情の否定&cannot,notpossibleto\\\cline{2-4}&しないわけにはいかない&義務&cannotstandbywithout-ing\\&&&cannotavoid-ing\\&&&(否定の動詞が存在する場合はcannot)\\\cline{2-4}&というわけだ&帰結&なし\\\cline{2-4}&わけはない&当然の否定&certainly\\\hline&わけで&背景&and\\\cline{3-4}非補助動詞的用法&&論拠&because\\\cline{2-4}&わけなので&論拠&because\\\hline\end{tabular}\end{center}\end{table}
\section{評価と考察}
第3章で示した抽象名詞「の」の交替現象の解析規則と第4章で示した抽象名詞の個別の日英対応表を新聞記事の用例に適用したときの精度を手作業で評価した.各対応表を適用するに際しては,評価対象とする文を,あらかじめ,形態素解析プログラムmaja(高橋ほか1993)によって解析して,判定に必要な単語の文法属性と意味属性を求めると共に,構文解析プログラムALT-JAWSによって得られた構文情報を使用した.なお,テストに使用する標本は,検討で使用したものとは異なり,オープンテストである.\subsection{交替現象の解析規則の評価と考察}\subsubsection{評価結果}1995年度の毎日新聞記事から抽象名詞「の」を含む194文を取り出し,第3章の規則を適用して,交替現象の解析精度を評価した.評価結果を表8に示す.表8は,交替先である抽象名詞を正しく判断できた割合を示している.\begin{table}[htbp]\caption{「の」交替現象解析規則の評価結果}\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline抽象名詞種別&交替&\multicolumn{7}{|c|}{交替可能}&合計\\\cline{3-9}&不能&こと&もの&ところ&とき&わけ&ひと&小計&\\\hline正解数&120&45&6&3&3&6&5&68&188\\\hline標本数&121&46&8&3&4&7&5&73&194\\\hline正解率&99%&98%&75%&100%&75%&86%&100%&93%&96.9%\\\hline\end{tabular}\end{center}\end{table}表から,以下のことが分かる.\vspace{6pt}(1)交替不能の欄のデータから,交替可否の判定では,全標本194件中,192件が正しく判定され,高い判定精度(99%)が得られたことが分かる.(2)交替不能を含む全体の解析精度は,96.9%,また,交替可能と判定されたもののうち,交替先の名詞が正しく決定されたのは,93%で,いずれも良い精度と言える.\subsubsection{考察}不正解の表現には,意味辞書を変更すれば正解となる表現や動詞の情報が役立ちそうな表現などがあったが,本手法では解析が困難な表現も存在する.そこで,交替現象の解析規則の改良の可能性について考察する.(1)短絡的表現への適用性名詞は,短絡的用法や比喩的な用法などにより,本来の意味の枠を越えて使用されることがある.「の」の係り先がこのような名詞の場合,作成した規則は適用できない.\vspace{6pt}例文20:その時でさえ飲める\underline{の}は,僅に喉をうるおすに足る少量である.\vspace{6pt}例えば,例文20は,「の」の係り先が「少量」という名詞であり,意味属性体系上では({\verb+#+}1000抽象)の配下に属するために,本論文の規則では「こと」に交替されるが,正解は「もの」である.これは,「少量の液体」,もしくは,「少量の酒」などというべきところを短絡的に「少量」と表現していることが原因である.このような現象に対応するためには,短絡的表現と比喩に関する解析規則を併用することが必要と考えられる.\vspace{6pt}(2)動詞情報の必要性抽象名詞「の」の交替先の解析で,係り先が動詞となる場合は,その動詞の意味をより細かく分類する必要があると考えられる.\vspace{6pt}例文21:ショーウィンドウのガラスに映った\underline{の}をチラリと眺めると\vspace{6pt}例えば,例文21は「の」の係り先が用言であるために,本規則では,交替先は「こと」と判断されるが,正解は「もの」である.ここで,「眺める」に着目すると「ことを眺める」とは言いがたく,「ものを眺める」であることが分かる.\vspace{6pt}(3)文脈情報の必要性与えられた1文だけでは,交替先を決定できない場合として,下記のような例がある.\vspace{6pt}例文22:テーブル(が/は)新しい\underline{の}に置き換えられた.\vspace{6pt}この例文22は,2通りの解釈が存在する.一つは,「テーブルは,まだ新しいのに,置き換えられた」のであり,何に置き換えられたのかは不明である.この場合,「のに」は,接続助詞的な用法となる.もう一つの解釈は,「テーブルは,別の新しいテーブルに置き換えられた」と言う場合であり,この場合,「の」は,名詞「テーブル」の代わりに使用された抽象名詞であるから,「に」は,格助詞の解釈となる.この文では,主題提示の文節で助詞「が」が使用されている場合は,おおよそ,後者の意味だろうと思われるが,助詞「は」が使用された場合は,前者の解釈の可能性も増してくる.いずれにしてもこのように,決め手のないような文では,文脈情報が必要である.\vspace{1em}\subsection{日英対応表の評価と考察}\subsubsection{評価結果}1995年度の毎日新聞記事より,「こと」,「もの」,「ところ」,「わけ」,「とき」を含む合計741文を対象に日英対応表を適用し,翻訳結果を求めた.評価では,原文と該当場所に対して得られた翻訳結果を翻訳家に提示し,以下の3段階の基準で評価してもらった.○:適切である.△:意味は通じるが,より良い翻訳方法がある.×:不正解評価結果を表9に示す.\begin{table}[htbp]\caption{抽象名詞に対する日英対応表の評価結果}\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline\multicolumn{3}{|c|}{区分}&項目&こと&もの&ところ&とき&わけ&小計\\\hline\multicolumn{3}{|c|}{}&標本数&187&186&182&90&96&741\\\cline{4-10}\multicolumn{3}{|c|}{カバー率}&対応表適用数&161&147&158&78&85&629\\\cline{4-10}\multicolumn{3}{|c|}{}&カバー率&86.1%&79.0%&86.8%&86.7%&90.6%&85%\\\hline&\multicolumn{2}{|c|}{}&標本数&31&53&108&3&0&213\\\cline{4-10}&\multicolumn{2}{|c|}{語彙的意味を}&○+△&20&31&57&0&0&115\\\cline{4-10}&\multicolumn{2}{|c|}{持つもの}&△&4&16&26&0&0&46\\\cline{4-10}&\multicolumn{2}{|c|}{}&正解率&65%&58%&53%&0%&---&54%\\\cline{2-10}&&&標本数&34&59&5&1&82&181\\\cline{4-10}正&&補助動詞&○+△&25&56&5&1&53&140\\\cline{4-10}&文法的&的用法&△&1&0&2&0&3&6\\\cline{4-10}解&意味を&&正解率&74%&95%&100%&100%&65%&77%\\\cline{3-10}&持つ&&標本数&96&35&45&74&3&329\\\cline{4-10}率&もの&非補助動&○+△&68&35&35&72&2&262\\\cline{4-10}&&詞的用法&△&9&0&0&21&0&72\\\cline{4-10}&&&正解率&71%&100%&78%&97%&67%&80%\\\cline{2-10}&\multicolumn{2}{|c|}{}&○+△&113&122&97&73&55&460\\\cline{4-10}&\multicolumn{2}{|c|}{合計}&△&14&16&28&21&3&82\\\cline{4-10}&\multicolumn{2}{|c|}{}&正解率&70%&83%&61%&55%&63%&73.1%\\\hline\end{tabular}\end{center}\end{table}この表から以下のことが分かる.\vspace{6pt}(1)対応表全体のカバー率は,85%で,比較的広い範囲の表現に適用できる.(2)5種類の抽象名詞の中で,最大の正解率は「もの」(83%),最低の正解率は,「とき」(55%)である.また.平均の正解率は,73%である.(3)用法の違いから見ると,「文法的用法」の場合に比べて,「意味的用法」の場合の精度が悪い.\vspace{6pt}交替現象の解析精度に比較すると,各抽象名詞の翻訳精度は,あまり良いとは言えないが,従来,この種の名詞の翻訳は,困難な問題の一つであったのに対して,解決のための糸口が得られた\footnote{抽象名詞の意味解析は、指示代名詞の照応解析と似た側面があることについては、既に述べたが、この精度は、従来の指示代名詞の照応解析(村田、長尾1996,1997a,1997b,吉見1997)の解析精度(カバー率77%、適合率79%)と、ほぼ同じ値である}.\subsubsection{失敗例と日英対応表改良の可能性}失敗した例を見ると,現状で使用している情報の範囲で,改良が可能と思われるものもあるが,多くは,本検討で使用しなかった情報を必要としている.以下では,その例を挙げて,今後の問題点について考察する.(1)追加登録の可能性対応表が使用できなかった例の中には,未登録であった表現を登録するか,既に登録されている表現に対する英語表現を変更することで改善する表現がある.\vspace{6pt}例文23:こうした工作が功を奏したのか,今の\underline{ところ},ムーディーズは三行の長期債を格下げしていない.例文24:「ビジネスの現場が望んでいるのは,これらの地道な措置」という\underline{わけ}だ.\vspace{6pt}例文23は,「今のところ」が"now"と訳され,語彙的意味である「ところ」の直接の訳語は現れない.このような決まり文句は,登録することで改善できる.また,例文24は「というわけだ」という表現を含む文である.本対応表では「というわけだ」は訳語として現れないとしているが,この場合の正解は''thepointis''となっており,誤りと判定されたが,微妙である.意味の強調と考えて,''thepointis''と訳出する方がよいとすれば,「というわけだ」に対する英語表現を変更することで改善できる.\vspace{6pt}(2)類推の必要性表記レベルの解析では訳語を特定するのが困難な場合で,単語間の意味的関係をネットワークとして体系化した新たな概念体系や世界の一般知識を必要とする場合として,以下のような例がある.\vspace{6pt}例25:特に,第三のグループがかなりの\underline{もの}になって鼎立関係になるのか,キャスチングボートを握るようになるのか.\vspace{6pt}この文の場合,本稿の対応表では,「もの」が''thing''と訳されるが,正解は,''force''である.この一文から「もの」の訳語として''force''を導くのは,大変困難と思われる.「鼎立関係」や「キャスチングボート(を握る)」などの語から連想する仕掛けが可能かどうかについて,今後の検討する必要がある.\vspace{6pt}(3)文脈,常識の必要性評価データの中には一文だけでは訳語が特定できない表現がある.\vspace{6pt}例文26:青年海外協力隊などを想定した\underline{ところ}が多く,国内の災害を想定したのは少なかったためだ.\vspace{6pt}例文26では,「ところ」が語彙的意味で用いられ,場所の意味で使用されているという判断から"place"が訳語候補として選択された.しかし,実際にはこの一文だけで「ところ」の訳語を決定することは難しい.この場合,「想定した」に対する主格の補完機能があれば,格関係の解析から決定できると考えられる.すなわち,その場合は,底の名詞である抽象名詞が埋め込み文において内の関係であるとき,抽象名詞の指し示す概念を前後の文から補完し,補完された名詞の種類によって訳語を決定すればよい.\vspace{1em}
\section{おわりに}
抽象名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,英語表現を決定するための日英対応表について検討した.具体的には,まず,「の」について,他の抽象名詞への交替現象に着目して,意味的に置き換え可能であるか否かを判定する規則と置き替え可能な場合について置き換え先の名詞を決定するための規則を作成した.次に,「の」を除く各抽象名詞の用法を「語彙的意味の用法」と「文法的意味の用法」に分類し,このうち,「文法的意味の用法」を,さらに,「補助動詞的用法」と「非補助動詞的用法」に分類して,日英対応表を作成した.また,作成した日英対応表を新聞記事の例文に適用し,その精度を評価した.その結果によれば,交替現象の解析では,正解率97%の精度が得られたのに対して,個別の抽象名詞に対する対応表の精度は,平均カバー率89%,平均正解率73%であった.この精度は,あまり高い精度とは言えないが,従来,難問の一つとされてきた抽象名詞の翻訳において,翻訳方式を決定する上で,有力な手がかりが得られたと考えられる.今後は,誤り分析の結果に基づき,動詞の意味情報の詳細化を行うと共に,文脈,一般常識を使用した推論,補完技術などを組み合わた翻訳方式について検討していきたい.\bibliographystyle{jnlpbbl}\bibliography{ikebib}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学院修士課程終了.同年日本電信電話公社に入社.数式処理、トラフィック理論,自然言語処理の研究に従事.1996年スタンフォード大学客員教授.現在、鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同研究賞,1995年日本科学技術情報センタ賞(学術賞),同年人工知能学会論文賞受賞.電子情報通信学会,人工知能学会,言語処理学会,各会員}\bioauthor{村上仁一}{1984年筑波大学第3学群基礎工学類卒.1986年筑波大学修士課程理工学研究科理工学専攻修了.1996年NTTに入社.NTT情報通信処理研究所に勤務.1991年国際通信基礎研究所(ATR)自動翻訳電話研究所に出向.1994年NTT情報通信研究所1997年鳥取大学工学部知能情報工学科現在に至る.主に音声認識のための言語処理の研究に従事電子通信情報処理学会,日本音響学会,言語処理学会,各会員.}\bioauthor{車井登}{1999年3月鳥取大学工学部知能情報学科卒1999年4月鳥取大学大学院工学研究科知能情報工学専攻入学2000年3月鳥取大学工学部工学研究科知能情報工学専攻修了2000年4月富士通株式会社に入社ソフトウェア事業本部に所属現在にいたる.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-08
|
\section{はじめに}
近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMTの中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の2種類のリカレントニューラルネットワーク(RNN)を用いる方式が盛んに研究されている\cite{sutskever2014sequence}.エンコーダデコーダモデルは,まず,エンコーダ用のRNNにより原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたベクトルから目的言語の文を生成する.通常,RNNには,GatedRecurrentUnits(GRU)\cite{cho-EtAl:2014:EMNLP2014}やLongShort-TermMemoryLSTM)\cite{hochreiter1997long,gers2000learning}が用いられる.このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した\cite{bahdanau2015,luong-pham-manning:2015:EMNLP}.この拡張したエンコーダデコーダモデルをアテンションに基づくNMT(ANMT)と呼ぶ.ANMTでは,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する.NMTが出現するまで主流であった統計的機械翻訳など,機械翻訳の分野では,原言語の文,目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた\cite{lin2004path,DingP05-1067,QuirkP05-1034,LiuP06-1077,huang2006statistical}.ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている.例えば,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づくNMTのほとんどは,事前に構文解析器により解析された文構造を活用する.そのため,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない.そこで本論文では,予め構文解析を行うことなく原言語の文の構造を活用することでNMTの性能を改善することを目指し,CKYアルゴリズム\cite{Kasami65,Younger67}を模倣したCNNに基づく畳み込みアテンション構造を提案する.CKYアルゴリズムは,構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKYテーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している.提案手法は,このCKYアルゴリズムを参考にし,CKYテーブルを模倣したCNNをアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする.具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序でCNNを構築し,提案のアテンション構造を組み込んだANMTは,デコード時に,CKYテーブルの各セルに対応するCNNの隠れ層の各状態を参照することにより,注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り込みながら目的言語の文を生成する.したがって,提案のアテンション構造を組み込んだANMTは,事前に構文解析器による構文解析を行うことなく,目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である.ASPECの英日翻訳タスク\cite{NAKAZAWA16.621}の評価実験において,提案のアテンション構造を用いることで従来のANMTと比較して,1.43ポイントBLEUスコアが上昇することを示す.また,FBISコーパスにおける中英翻訳タスクの評価実験において,提案手法は従来のANMTと同等もしくはそれ以上の精度を達成できることを示す.
\section{関連研究}
ANMTの性能を改善する方向性の一つとして,文の構造を活用するANMTが数多く提案されている.文構造に基づくANMTは,原言語の文構造を利用するANMT,目的言語の文構造を利用するANMT,原言語と目的言語の文構造を利用するANMTの3つに大別できる.原言語の文構造を利用するANMTとして,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,事前に解析した原言語文の句構造をTree-LSTM\cite{TaiP15-1150}によりボトムアップにエンコードするANMTを提案している.Yangら\cite{YangD17-1150},そしてChenら\cite{ChenP17-1177}は,このEriguchiらのモデルを拡張し,原言語文の句構造をボトムアップにエンコードした後でトップダウンにエンコードする双方向のエンコーダを用いるANMTを提案している.Sennrichら\cite{SennrichW16-2209}は,原言語の文の言語学的素性を埋め込み層でベクトル化し,原言語の単語の埋め込みベクトルと結合したベクトルをRNNエンコーダの入力とするANMTを提案している.様々な言語学的素性を用いているが,その中に,品詞タグや係り受け関係のタグといった文構造を表す素性を用いている.Chenら\cite{ChenD17-1304}は,原言語の文の係り受け解析結果に基づき,親ノード,子ノード,兄弟ノードの情報をCNNで畳み込み,畳み込んだベクトルをANMTで用いる方法を提案している.Bastingsら\cite{BastingsD17-1209}は,原言語文の係り受け構造をグラフ構造とみなし,GraphConvolutionalNetworksにより係り受け構造をエンコーディングするエンコーダを提案し,Bag-of-WordsエンコーダやCNNエンコーダ,双方向RNNエンコーダと組み合わせることで性能改善を行っている.Liら\cite{LiP17-1064}は,原言語の文の句構造解析木を線形化して得られた構造ラベル系列と原言語文の単語系列の2つの系列をエンコーディングするエンコーダを複数提案している.目的言語の文構造を利用するANMTとしては,Wuら\cite{WuP17-1065},そしてEriguchiら\cite{EriguchiP17-2012}がShift-Reduce法の依存構造解析をデコーダに組み込み,目的言語文の単語系列とその依存構造を同時にデコードすることで目的言語側の文構造を活用するANMTを提案している.Eriguchiら\cite{EriguchiP17-2012}は,構文解析モデルの一つであるRecurrentNeuralNetworkGrammars\cite{DyerN16-1024}をNMTのデコーダに適用することで,目的言語文の構文構造を翻訳に利用している.Aharoniら\cite{AharoniP17-2021}は目的言語側の文構造を翻訳で活用するために,目的言語文の句構造解析木を線形化した系列を出力するNMTを構築することを提案している.また,Wuら\cite{Wu2018}は,原言語側と目的言語側の両方の依存構造を活用するdependency-to-dependencyニューラル機械翻訳モデルを提案している.これらの文構造に基づく従来のANMTは,構文解析器により解析した文構造を活用する.したがって,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳にとって最適とは限らない.そこで本研究では,予め構文解析を行うことなく原言語の文の構造を活用するANMTを提案する.構文解析器による解析を必要としない文構造を活用するANMTとして,Hashimotoら\linebreak\cite{hashimoto-tsuruoka:2017:EMNLP2017}のモデルがある.このモデルでは,原言語側の構文解析モデルと翻訳モデルを対訳コーパスから同時に学習し,翻訳タスクに適した構文解析モデルを学習することで翻訳精度を向上させている.このモデルは構文解析として係り受け解析を用いているが,本研究では,アテンション構造で目的言語の単語を予測する際に有効な単語のまとまりを捉えることに焦点をあて,句構造解析を前提としている.また,エンコーダにCNNを用いたNMTとしては,Choら\cite{DBLP:conf/ssst/ChoMBB14},そしてGehringら\cite{ConvEncGehring2017}の手法がある.Gehringらの手法では,2つのCNNをエンコーダとして使用する.一方のCNNは,デコード時にアテンションスコアを計算するための出力を生成するもので,原言語文の幅広い情報を扱う.一方,他方のCNNは,LSTMデコーダへ入力するベクトルを計算するためのもので,局所的な情報を扱う.この手法は構文構造に焦点をあてていないが,提案手法では原言語文の構文構造に着目する.Choらの手法は,GatedRecursiveConvolutionalNeuralNetworkを用いて,原言語文をボトムアップにエンコードしている.彼らは,提案のエンコーダで文の構造を教師なしで捉えられると主張している.このモデルと本研究の提案手法との違いは,Choらの手法では,隣接する二つの下位セルを畳み込むことで上位セルを計算するのに対して,提案手法では,CKYアルゴリズムを模倣することで複数の下位セルのペアから上位セルを計算する点である.提案手法では上位セルを計算する際に複数のセルを考慮できるため,翻訳モデルの学習過程で原言語文の構造を捉えやすくなると考えられる.また,提案手法はアテンション構造を有しているが,Choらの手法ではアテンション構造を有していない点も大きな違いである.定量的に比較してみると,Choらの手法はフレーズベース統計的機械翻訳Mosesより翻訳精度が低いことが報告されているが,我々のASPEC10万文対における実験では,本研究の提案手法はMosesより翻訳精度が高い(MosesのBLEUが18.69,提案手法のBLEUが26.99である)ことを確認している.同じデータセットによる直接の定量的な比較は行っていないが,これらの結果から,提案手法の方がChoらの手法より翻訳性能がよいと考えられる.
\section{アテンションに基づくニューラル機械翻訳(ANMT)}
\label{sect:baseline}本節では,提案手法のベースラインとなる従来の標準的なANMT\cite{luong-pham-manning:2015:EMNLP,bahdanau2015}について説明する.ANMTは,原言語文を固定長のベクトルに変換するエンコーダ用のRNNと,変換した固定長ベクトルから目的言語文を生成するデコーダ用のRNNを用いて翻訳を行う,エンコーダデコーダモデル\cite{sutskever2014sequence,cho-EtAl:2014:EMNLP2014}にアテンション構造を導入したモデルである.本研究では,2層の双方向LSTMをエンコーダ用RNNとして使用した.原言語文\({\bfx}=x_1,x_2,\cdots,x_{S}\)が入力として与えられたとき,エンコーダは,$i$番目の入力単語$x_i$を単語埋め込み層により$d$次元ベクトル$v_i$に変換する.その後,エンコーダは,$v_i$に対する隠れ状態$h_i$を次式の通り算出する\footnote{式(5)では,消費メモリを削減するため,両方向の隠れ状態を結合ではなく可算して,次元数を少なくしている.}.\begin{align}\overrightarrow{h_{i}^{(1)}}&=LSTM^{(f,1)}_{enc}(v_{i},\overrightarrow{h_{i-1}^{(1)}}),\\\overleftarrow{h_{i}^{(1)}}&=LSTM^{(b,1)}_{enc}(v_{i},\overleftarrow{h_{i+1}^{(1)}}),\\\overrightarrow{h_{i}^{(2)}}&=LSTM^{(f,2)}_{enc}(\overrightarrow{h_{i}^{(1)}},\overrightarrow{h_{i-1}^{(2)}})+\overrightarrow{h_{i}^{(1)}},\\\overleftarrow{h_{i}^{(2)}}&=LSTM^{(b,2)}_{enc}(\overleftarrow{h_{i}^{(1)}},\overleftarrow{h_{i+1}^{(2)}})+\overleftarrow{h_{i}^{(1)}},\\h_i&=\overrightarrow{h_i^{(2)}}+\overleftarrow{h_i^{(2)}}.\end{align}ここで,$\rightarrow$と$\leftarrow$はそれぞれ順方向と逆方向を表し,$LSTM^{(f,1)}_{enc},LSTM^{(b,1)}_{enc},LSTM^{(f,2)}_{enc},LSTM^{(b,2)}_{enc}$は,それぞれ第1層目の順方向,第1層目の逆方向,第2層目の順方向,第2層目の逆方向のLSTMエンコーダを表す.また,$\overleftarrow{h_{i}^{(1)}}$,$\overrightarrow{h_{i}^{(1)}}$,$\overleftarrow{h_{i}^{(2)}}$,$\overrightarrow{h_{i}^{(2)}}$,$h_{i}$の次元は$d$である.また,第2層目のLSTMエンコーダには,ResidualConnection\cite{he2016deep}を適用した.ResidualConnectionとは,ショートカット接続を持つ構造で,パラメータの最適化を容易にするものである.初期のエンコーダデコーダモデル\cite{sutskever2014sequence,cho-EtAl:2014:EMNLP2014}では,デコーダは,原言語の文をエンコードした固定長のベクトル$h_{S}$を初期値として目的言語の文を生成する.一方で,アテンション構造を導入したANMTでは,デコーダは,LSTMエンコーダの各隠れ層の状態$h_{i}(i=1,\cdots,S)$を参照しながら,目的言語の文を生成する.アテンション構造としては,\textit{AdditiveAttention}\cite{bahdanau2015}や\textit{Dot-ProductAttention}\cite{luong-pham-manning:2015:EMNLP}が主流である.本研究では,アテンション構造として\textit{Dot-ProductAttention}の一つである,\textit{GlobalDotAttention}\cite{luong-pham-manning:2015:EMNLP}を用いる.また,デコーダ用のRNNとして2層のLSTMを使用する.以下ではデコーダの動作を説明する.デコーダは,エンコーダによって与えられる原言語文の情報に基づき,目的言語文\({\bfy}=y_1,y_2,\cdots,y_T\)を出力する.まず,第1層目のLSTMデコーダ($LSTM^{(1)}_{dec}$)と第2層目のLSTMデコーダ($LSTM^{(2)}_{dec}$)の初期状態を,それぞれ,第1層目,第2層目の逆方向のLSTMエンコーダの内部状態に初期化する.その後,$j$番目のLSTMデコーダの第1層目,第2層目の隠れ層の状態$s_j^{(1)}$,$s_j^{(2)}$を,次式の通り,一つ前($j-1$番目)のデコーダの情報(出力単語や隠れ層の状態など)に基づいて算出する.\begin{align}s_j^{(1)}&=LSTM^{(1)}_{dec}([w_{j-1};{\hats_{j-1}}],s_{j-1}^{(1)}),\\s_j^{(2)}&=LSTM^{(2)}_{dec}(s_j^{(1)},s_{j-1}^{(2)}).\end{align}ここで,$w_{j-1}$は$j-1$番目の出力単語である$y_{j-1}$の単語埋め込みベクトル,「;」はベクトルの結合,${\hats_{j-1}}$は出力単語$y_{j-1}$の生成時に使用されたアテンションベクトルを表す\footnote{次の時刻のLSTMへの入力にアテンションベクトルを与える方式をinputfeeding\cite{luong-pham-manning:2015:EMNLP}と呼ぶ.}.なお,$w_{j-1}$と$\hat{s}_{j-1}$は$d$次元である.その後,$j$番目のアテンションベクトル$\hat{s}_{j}$を,コンテキストベクトル$c_j$を使用して,次式の通り算出する.\begin{equation}{\hats_{j}}=\mathrm{tanh}(W_c[s_{j}^{(2)};c_j]+b_c).\end{equation}ここで,$W_c\inR^{d\times2d}$は重み行列,$b_c\inR^{d}$はバイアス項,$\mathrm{tanh}$はハイパボリックタンジェント関数である.コンテキストベクトル$c_j$は,エンコーダの全状態$h_{i}(i=1\cdotsS)$の加重平均であり,次式の通り算出されたものである.\begin{equation}c_j=\sum^{S}_{i=1}\alpha_j(i)h_i.\end{equation}ここで,アテンションスコアと呼ばれる重み$\alpha_j(i)$は,デコーダの状態$s^{(2)}_{j}$において,エンコーダの状態$h_i$に対する重要度を表し,次式の通り算出される.\begin{equation}\alpha_j(i)=\frac{\exp(h_i\cdots_{j}^{(2)})}{\sum_{k=1}^{S}\exp(h_k\cdots_{j}^{(2)})}.\end{equation}ここで,$\mathrm{\exp}$は指数関数を表す.その後,$j$番目の出力単語$y_j$の確率分布は,アテンションベクトル${\hats_{j}}$に基づき次式の通り求めることができる.\begin{equation}p(y_j|y_{<j},{\bfx})=\mathrm{softmax}(W_s{\hats_{j}}+b_s).\end{equation}ここで,$W_s\inR^{|V|\timesd}$は重み行列,$b_s\inR^{|V|}$はバイアス項,$\mathrm{softmax}$はソフトマックス関数を表す.また,$|V|$は目的言語の辞書のサイズを表す.ANMTの目的関数は,次式で表される.\begin{equation}J(\theta)=-\sum_{(\bfx,\bfy)\inD}\logp(\bfy|\bfx).\end{equation}ここで,$D$はデータセット全体を表し,$\theta$は学習されるモデルパラメータである.このように,出力単語は,アテンションスコアを重みとした荷重平均であるコンテキストベクトルにしたがって算出したアテンションベクトルに基づいて決定されるため,ANMTでは,エンコーダの各状態の中から注目すべき状態(原言語の文の中で注目すべき単語)をしぼりこみながら目的言語の文を生成することができる.
\section{提案モデル}
\label{sect:proposed}\subsection{CKYアルゴリズム}CKYアルゴリズムは,チョムスキー標準形の文脈自由文法により,ボトムアップに構文を解析する手法である.チョムスキー標準形とは,$A,B,C$を非終端記号,$a$を終端記号としたとき,生成規則がすべて$A\rightarrowBC$または$A\rightarrowa$の形をしているものである.CKYアルゴリズムでは,図\ref{fig:cky-table}に示すCKYテーブルをボトムアップに埋めていくことで構文解析を行う.CKYテーブルのセルにある括弧中の数字は入力文中の単語のインデックスであり,括弧により入力文中の部分文字列を表現している.例えば,$[0,3]$のセルには,1単語目$w_{1}$から3単語目$w_{3}$までの部分文字列に相当する非終端記号が格納される.各セルに非終端記号を格納する際は,部分文字列を2つにわけ,そのすべての組み合わせに対する生成規則を満たす非終端記号を追加する.例えば,$[0,3]$のセルを埋める場合,$[0,1]$と$[1,3]$の組み合わせ及び$[0,2]$と$[2,3]$の組み合わせを考慮する.CKYテーブルの各セルをボトムアップに埋めていき,最上位のセル(図\ref{fig:cky-table}の場合,$[0,5]$のセル)が開始記号となれば,構文解析に成功する.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f1.eps}\end{center}\caption{CKYテーブル}\label{fig:cky-table}\end{figure}\begin{table}[b]\input{08algo01.tex}\end{table}CKYアルゴリズムの疑似コードをAlgorithm1に示す.Algorithm1において,$R$は非終端記号の集合を表す.Algorithm1の2行目と3行目では,CKYテーブルの第一層目の初期化を行う.4行目で入力文中の単語数,5行目で句の開始位置,7行目で句の分割可能な位置について網羅的にforループで回すことで部分文字列の全組み合わせに対して処理を行う.8行目から10行目では,着目している2つのセルに含まれる非終端記号を生成する生成規則が存在するとき,新たな句を候補として追加している.このように,下位のセルからボトムアップに動的計画法で生成規則を考えていくことで,効率よく全ての隣接する単語/句の組み合わせを考慮した構文解析を可能としている.\subsection{CKYに基づく畳み込みアテンション構造による機械翻訳}図\ref{fig:overall}に提案モデルの全体の構造を示す.提案モデルのエンコーダ部では,通常のLSTMエンコーダ(\ref{sect:baseline}節参照)により原言語の文を単語列としてエンコードする.加えて,CKYアルゴリズムのCKYテーブルにおける計算手順を模倣し,CNNを用いて,原言語文中の隣接する単語/句の組み合わせをエンコードする.そしてデコーダ部では,LSTMエンコーダの各隠れ状態に対するアテンションスコアから算出したコンテキストベクトル$c_{j}$に加えて,原言語文中の単語の組み合わせのエンコード結果に対するアテンションスコアから算出したコンテキストベクトル$c_{j}^{'}$に基づき,アテンションベクトル${\hats_{j}}$を生成する.そして,注目すべき単語,注目すべき単語の組み合わせの情報を含んだアテンションベクトル${\hats_{j}}$に基づき目的言語の単語を予測する.以下で,提案モデルの具体的な計算方法を説明する.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f2.eps}\end{center}\caption{CKYに基づく畳み込みアテンション構造の全体図}\label{fig:overall}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-1ia8f3.eps}\end{center}\caption{CKYに基づく畳み込みアテンション構造のDeductionUnit}\label{fig:residualconnections}\end{figure}提案手法のアテンション構造では,CKYアルゴリズムにおける生成規則を図\ref{fig:residualconnections}に示すネットワーク構造によって模倣する.具体的には,CKYアルゴリズムにおいて生成規則がCKYテーブルの2つのセルをボトムアップにまとめる動作を模倣して,図\ref{fig:residualconnections}のネットワーク構造により,CKYテーブルの2つのセル(具体的には$d$次元ベクトル)から,上位のセルの$d$次元ベクトルを算出する.ここで,CKYテーブルの各セルの$d$次元ベクトルは,セルが表現する単語の組み合わせの状態を表すベクトルと捉えることができる.このCKYアルゴリズムにおける生成規則に対応するネットワークをDeductionUnit(DU)と呼ぶ.DUは,4種類の1DCNNを残差接続し,その後LayerNormalization\cite{Ba2016LayerN}により,ベクトルを正規化して出力する構造である\footnote{予備実験において1種類のCNNで構成した単純なDUでは性能が悪かったため,Heら\cite{he2016deep}を参考にし,DUを図\ref{fig:residualconnections}のように構築した.}.図\ref{fig:residualconnections}では,各CNNのフィルタサイズと出力チャネル数を括弧内に記している.具体的には,CNN1,CNN2,CNN3,CNN4のフィルタサイズは,それぞれ,$1$,$2$,$1$,$2$であり,チャネル数は,それぞれ,$\frac{d}{2}$,$\frac{d}{2}$,$d$,$d$である.DUは入力として2つのベクトルを受け取る.CNN1では,DUに入力された2つのベクトルをフィルタサイズ1のCNNにより,チャネル数$\frac{d}{2}$に変換する.その後,フィルタサイズ2のCNN2により,2つのベクトルを1つのベクトルへ畳み込む.そして,畳み込まれたベクトルは,フィルタサイズ1のCNN3によりチャネル数$d$へと変換される.また,DUに入力された2つのベクトルはフィルタサイズ2のCNN4によって1つのベクトルに畳み込まれる\footnote{通常,ResidualConnectionは入力ベクトルをそのまま加算するが,提案手法では,入力が2つのベクトル,出力が1つのベクトルであるため,そのまま加算することができない.そこで図\ref{fig:residualconnections}においてCNN4を導入した.}.その後,CNN3の出力ベクトルとCNN4の出力ベクトルを加算し,LayerNormalizationにより正規化した後に,DUの出力として1つのベクトルを出力する.なお,DUのそれぞれのCNNへの入力ベクトルには,Relu関数を適用している.このDUを使うことで,CKYアルゴリズムの計算順序と同様の順序で下位セルの2つの状態を畳み込むことにより,CKYテーブルの各セルの状態を導出することができる.ただし,上位セルの状態を導出する際,CKYアルゴリズムと同様,複数のDUから当該上位セルの状態となりうるベクトルが算出される.その際は,候補となったベクトルのうち,要素和が最大であるベクトルに設定する.この全体のネットワークをCKY-CNNと呼ぶ.ここで,CKY-CNNは,レイヤーの数は文長と同等となり,また,各レイヤーにおいてDUのパラメータは共有されることに注意されたい.以降,$i$層目のCKY-CNNの$j$番目のセルの状態を$h^{(cky)}_{i,j}$と記述すると,CKY-CNNの具体的な動作は次の通りである.まず,CKY-CNNの第1層目の状態(${\bfh^{(cky)}_{1}}=(h^{(cky)}_{1,1},...,h^{(cky)}_{1,S})$)を,LSTMエンコーダの状態(${\bfh}=(h_1,...,h_S)$)に設定する.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f4.eps}\end{center}\caption{CKY-CNNの例}\label{fig:CKY}\end{figure}そして,2層目より上の層のCKY-CNNのセルの状態を次のように算出する.\begin{equation}h_{i,j}^{(cky)}=\max_{1\lek\lei-1}DU(h_{k,j}^{(cky)},h_{i-k,j+k}^{(cky)}).\end{equation}ここで,$\max$関数は入力されたそれぞれのベクトルに対してベクトルの要素和を計算し,その値が最大となるベクトルを返す関数である.図\ref{fig:CKY}に,CKY-CNNにより,セル($h^{(cky)}_{4,1}$)を導出する畳み込みの例を示す.この導出過程では,以下が実行される.\begin{equation*}h^{(cky)}_{4,1}=\max(DU(h^{(cky)}_{1,1},h^{(cky)}_{3,2}),DU(h^{(cky)}_{2,1},h^{(cky)}_{2,3}),DU(h^{(cky)}_{3,1},h^{(cky)}_{1,4})).\end{equation*}具体的には,3つのDUが,それぞれ,2つのセル($h^{(cky)}_{3,1}$と$h^{(cky)}_{1,4}$),2つのセル($h^{(cky)}_{2,1}$と$h^{(cky)}_{2,3}$),2つのセル($h^{(cky)}_{1,1}$と$h^{(cky)}_{3,2}$)の状態に基づきベクトルを生成する.その後,ベクトルの要素和が最も大きいベクトルをセル($h^{(cky)}_{4,1}$)の状態に設定する.CKYに基づく畳み込みアテンション構造を用いたNMTでは,LSTMエンコーダの隠れ層の状態に加えて,CKY-CNNの隠れ層の状態(CKYテーブルの各セルの状態)を参照しながら目的言語の文を生成する.デコーダの状態$s^{(2)}_{j}$とCKY-CNNの隠れ層の状態$h^{(cky)}_{i,j}$とのアテンションスコアは\textit{GlobalDotAttetnion}\cite{luong-pham-manning:2015:EMNLP}を用いて次式の通り計算する.\begin{equation}\alpha^{'}(i_1,i_2,j)=\frac{\exp(h_{i_1,i_2}^{(cky)}\cdots_j^{(2)})}{\sum_{k=1}^{S}\sum_{l=1}^{S-k+1}\exp(h_{k,l}^{(cky)}\cdots_j^{(2)})}.\end{equation}ここで,$s_j^{(2)}$は第2層目のLSTMデコーダの隠れ層の状態である.そして,CKY-CNNのコンテキストベクトル$c_{j}^{'}$を次式の通り算出する.\begin{equation}c_{j}^{'}=\sum_{k=1}^{S}\sum_{l=1}^{S-k+1}\alpha^{'}(k,l,j)h_{k,l}^{(cky)}.\end{equation}その後,アテンションベクトル$\hat{s}_j$を,LSTMエンコーダのコンテキストベクトル($c_j$)とCKY-CNNのコンテキストベクトル($c_{j}^{'}$)に基づき次のように算出する.\begin{equation}{\hats_j}=\mathrm{tanh}({\hatW}[s_j^{(2)};c_j;c_j^{'}]+{\hatb}).\end{equation}ここで,${\hatW}\inR^{d\times3d}$は重み行列,${\hatb}\inR^{d}$はバイアス項である.また,LSTMエンコーダのコンテキストベクトル$c_j$は,式(9)の通り算出されたものであることを確認しておく.$j$番目の目的言語の単語は,従来のANMTと同様に,アテンションベクトル$\hat{s_j}$を用いて次のように計算する.\begin{equation}p(y_j|y_{<j},{\bfx})=\mathrm{softmax}(W_s{\hats_{j}}+b_s).\end{equation}ここで,$W_s\inR^{|V|\timesd}$は重み行列,$b_s\inR^{|V|}$はバイアス項を表す.提案手法の目的関数は,従来のANMTと同様,式(12)である.また,提案モデルの時間計算量は$\mathcal{O}(S^{3}+S^{2}T)$,空間計算量は$\mathcal{O}(S^{2}T)$である.ここで,$S$は原言語文の文長,$T$は目的言語文の文長である.
\section{実験}
本節では,\ref{sect:proposed}節で提案したモデルの性能及び有効性を検証する.\subsection{実験設定}評価実験は,AsianScientificPaperExcerptCorpus(ASPEC)\footnote{http://orchid.kuee.kyoto-u.ac.jp/WAT/WAT2015/index.html}の英日翻訳タスク,新聞から作成されたFBISコーパスを用いた中英翻訳タスクにより行った.英文の単語分割はMosesDecoder,日本語文の単語分割はKytea\cite{neubig2011pointwise},中国語文の単語分割はStanfordChineseSegmenter\footnote{http://nlp.stanford.edu/software/segmenter.shtml}を使用した.また,各コーパスの文字は全て小文字に変換した.実験に使用した対訳文の数を表\ref{table:datasize}に示す.学習データとして,ASPECでは100,000文対,FBISでは172,400文対の対訳文を用いた.なお,ASPEC,FBISともに学習データとして単語の数が50単語以下の文を使用した.また,ASPEC,FBISともに学習データにおいて,出現数が2回未満の単語は特殊文字「UNK」に置き換えた.FBISについては,開発データとしてNIST02の評価データを使用し,テストデータとしてNIST03,NIST04,NIST05の評価データを用いた.\begin{table}[b]\caption{実験データの対訳文対}\label{table:datasize}\input{08table01.tex}\end{table}単語埋め込みベクトルと隠れ層の各状態のベクトルの次元数は256とした.モデルの各パラメータの学習にはAdam\cite{kingsma2014adam}を使用し,Adamのパラメータの初期値は,$\alpha=0.01$,$\beta_1=0.9$,$\beta_2=0.99$とした.学習率は,1エポック毎に開発データに対するパープレキシティを計算し,パープレキシティが以前のエポックと比較して増加した場合に半分にした.勾配はEriguchiら\cite{eriguchi2016character}に倣い,3.0でクリッピングした.また,過学習を防ぐために,Dropout\cite{srivastava2014dropout}とWeightDecay\footnote{Pytorch(https://pytorch.org/)で実装されているL2penaltyを使用した.}を用いた.Dropoutの比率は,LSTMでは0.2,CNNでは0.3とし,WeightDecayの係数は$10^{-6}$とした.バッチサイズは50とした.なお,ハイパーパラメータは,開発データに対するBLEUスコアにより決定した.また,目的言語の文は出現確率に基づいた貪欲法により生成した.\begin{table}[b]\caption{実験結果(BLEU($\%$))}\label{tab:bleu}\input{08table02.tex}\end{table}\begin{table}[b]\caption{学習時間及びデコード時間(秒)}\label{tab:time}\input{08table03.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f5.eps}\end{center}\caption{開発データにおけるBLEUの推移}\label{fig:BLEUTransition}\vspace{-1\Cvs}\end{figure}\subsection{実験結果}提案のCKYに基づく畳み込みアテンションの有効性を検証するため,提案のアテンションを用いたNMT(\ref{sect:proposed}節)と従来のアテンションを用いたNMT(\ref{sect:baseline}節)を比較した.ベースラインの従来モデルと提案モデルの違いは,アテンション構造のみである.表\ref{tab:bleu}に各モデルの翻訳精度を示す\footnote{デフォルト設定のMosesフレーズベース統計的機械翻訳\cite{koehn2007moses}のASPECに対するBLEUは$18.69$であったことを参考のために報告しておく.}.翻訳精度の評価尺度はBLEU\cite{papineni2002bleu}を用いた.また参考のために,表\ref{tab:time}に,ASPECにおける,1エポックあたりの平均学習時間及び一文ずつデコードした際のテストデータのデコードにかかった時間を示す\footnote{CPUはIntelXeonE5-1650,GPUはNVIDIAGeForceTITANXを用いた.}.図\ref{fig:BLEUTransition}には,ASPECにおける開発データに対するBLEUスコアの推移を示す.翻訳精度の有意差検定は,有意差水準$5\%$でブートストラップによる検定手法\cite{koehn2004statistical}により行った.表\ref{tab:bleu}の「*」は,提案モデルと従来のANMTモデルの翻訳精度の差が統計的に有意であることを示す.表\ref{tab:bleu}より,ASPEC,FBIS(NIST03),FBIS(NIST04)では,提案モデルが従来のANMTより統計的に有意に翻訳精度が良いことが分かる.また,FBIS(NIST05)では,提案モデルは従来のANMTと同等の翻訳精度であることが分かる.これらの結果より,提案のアテンション構造はNMTの性能改善に寄与することが実験的に確認できる.
\section{考察}
\subsection{提案モデルの各要素の有効性検証}本節では,提案モデルの各要素の有効性を検証するため,ASPEC10万文対の英日翻訳タスクにおいて提案モデルと以下の3つのモデルを比較する.1つ目は,提案モデルの式(16)においてLSTMエンコーダのコンテキストベクトル($c_j$)を取り除いたモデル,すなわち,CKY-CNNのコンテキストベクトル($c'_j$)のみを使用したモデル「提案モデル($c_j^{'}$のみ)」である.2つ目は,提案モデルのDU(図\ref{fig:residualconnections})において,CNN4の代わりに二つの入力ベクトルの要素和を演算に使用するモデル「提案モデル(要素和)」である.3つ目は,従来ANMTモデルのエンコーダLSTMを,提案モデルの計算時間と同等になるまで,再帰的に積み重ねたモデル「再帰的従来ANMTモデル」である.具体的には,エンコーダの2つのLSTMを6回再帰的に使用して原言語文をエンコードした.実験結果を表\ref{tab:etc_exp}に示す.「提案モデル($c_j^{'}$のみ)」は「従来モデル」よりも翻訳精度が高いことが分かる.ただし,「提案モデル」よりは翻訳精度が低い.このことから,CKY-CNNのコンテキストベクトルのみを用いた場合でも提案モデルはNMTの精度改善に寄与できるが,LSTMのコンテキストベクトルとCKY-CNNのコンテキストベクトルを同時に使用することで,NMTの翻訳精度がさらに改善されることが分かる.\begin{table}[b]\caption{提案モデルの各要素の有効性検証実験の結果(BLEU($\%$))}\label{tab:etc_exp}\input{08table04.tex}\end{table}「提案モデル」と「提案モデル(要素和)」を比較すると「提案モデル」の方が翻訳精度が高い.このことから,提案モデルのDUにおいて,CNN4を用いたresidualconnectionが有効であったことが分かる.また,「提案モデル」は,層を深くした従来モデルである「再帰的従来ANMTモデル」の翻訳精度を上回っており,このことからも提案モデルの有用性が実験的に確認できる.\subsection{大規模コーパスにおける有効性検証}本節では,大規模コーパスにおいても提案手法の有効性が確認できるかを検証する.具体的には,ASPECの英日翻訳で1,346,946文対の学習データを使った場合の性能を評価する.本実験では,3節で説明した従来のANMTと提案モデルに加え,Eriguchiらのモデル\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}とGehringらのモデル\cite{ConvEncGehring2017}との比較も行う.Eriguchiらのモデルの翻訳精度は,彼女らの論文で報告されている次元数1,024のモデルの翻訳精度である.Gehringらのモデルの翻訳精度は,公開されているモデルをデフォルトの設定で実験データに適用した翻訳精度である.本実験においては,単語埋め込みベクトルと隠れ層の各状態のベクトルの次元数は512とした.また,学習データにおいて出現回数が9回未満の単語を特殊文字「UNK」に置き換えた.LSTMのDropoutの比率は$0.2$,WeightDecayの係数は$10^{-8}$とし,目的言語文はビームサーチにより生成した.ビーム幅は5,10,15,20のうち,開発データに対するBLEUスコアが最も高いものを選択した.具体的には,従来のANMTモデルはビーム幅20,提案モデルはビーム幅15であった.その他の設定は,5.1節と同じである.\begin{table}[b]\caption{大規模コーパスにおける実験結果(BLEU($\%$))}\label{tab:big_exp}\input{08table05.tex}\end{table}表\ref{tab:big_exp}に実験結果を示す.表\ref{tab:big_exp}より,提案モデルは従来のANMTモデルよりも翻訳精度が良いことが分かる.また,先行研究と比較しても翻訳精度が高い.なお,提案モデルと従来のANMTモデルの翻訳精度の差及び提案モデルとGehringらのモデルの翻訳精度の差は有意差水準$5\%$で統計的に有意であった\footnote{Eriguchiらの翻訳精度は引用した値なので,有意差検定は行えなかった.}.これらのことから大規模データに対しても提案モデルが有効であることが分かった.\subsection{アテンションスコアの解析}本研究では,予め構文解析を行うことなく原言語の文の構造をANMTで活用することが目的であった.そこで,目的言語の単語を予測する際に,提案のアテンション構造により,原言語の文の構造(複数の隣接する単語/句の組み合わせ)を活用できているかを考察する.\begin{table}[p]\caption{翻訳結果の例}\label{tab:translation}\input{08table06.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-1ia8f6.eps}\end{center}\caption{アテンションスコアの例1(左図:い(ついて),右図:し(した))}\label{fig:attention-score1}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{26-1ia8f7.eps}\end{center}\caption{アテンションスコアの例2(左図:絶縁,右図:結晶)}\label{fig:attention-score2}\end{figure}表\ref{tab:translation}に英日翻訳のテストデータ対する従来のANMTおよび提案モデルの翻訳結果の実例を示し,図\ref{fig:attention-score1}と図\ref{fig:attention-score2}に表\ref{tab:translation}の翻訳結果を生成した際の提案モデルのアテンションスコアを示す.また,図\ref{fig:attention-base}に表\ref{tab:translation}の翻訳結果を生成した際の従来のANMTのアテンションスコアを示す.図\ref{fig:attention-score1}の左図は「ついて」の「い」,右図は「した」の「し」を生成する際のアテンションスコア\footnote{Kyteaでの単語分割では,「ついて」は,「つ」,「い」,「て」の3単語,「した」は「し」と「た」に分割された.}であり,図\ref{fig:attention-score2}の左図は「絶縁」,右図は「結晶」を生成する際のアテンションスコアである.図\ref{fig:attention-score1},図\ref{fig:attention-score2},図8では,セルが濃い色であるほど(黒に近いほど),より高いアテンションスコアであることを表している.また,図6と図7においては,横軸は原言語の単語を示し,縦軸はCKY-CNNの深さを示す.なお,CKY-CNNの第1層目のアテンションスコアは,LSTMの隠れ層のアテンションスコアと一致する.つまり,第1層目のアテンションスコアが,原言語の単語に対するアテンション,第2層目より上のアテンションスコアが構造(隣接する単語/句の組み合わせ)に対するアテンションを示す.図\ref{fig:attention-score2}より,「絶縁」や「結晶」のような内容語のように単語単位のアライメントが明確に分かる単語に対しては,第1層目(LSTM層)のアテンションスコアが高くなっている.一方で,図\ref{fig:attention-score1}の「い」や「し」のような機能語のように単語単位のアライメントが明確にならない単語に対しては,高いアライメントスコアが2層目より上(CKY層)に位置していることが分かる.一方で,図\ref{fig:attention-base}の従来のANMTのアテンションスコアでは,「ため」と``technological'',「た」と``.(ピリオド)''のように対応関係にない単語に対してもアテンションスコアが高くなっている.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f8.eps}\end{center}\caption{従来のANMTのアテンションスコアの例}\label{fig:attention-base}\end{figure}また,表\ref{tab:pos}に,提案モデルにおける,品詞ごとのアテンションスコアの配置について示す.これは,Kyteaが特定した品詞ごとに最も高いアテンションスコアの層を数え上げたものである.表\ref{tab:pos}より,名詞,形容詞,副詞といった単語単位のアライメントが明確に分かる単語に対しては,第1層目にアテンションが多く張られていることが分かる.一方で,語尾,助詞,助動詞といった単語単位のアライメントが明確になりにくい単語に対しては,第2層目以降にアテンションが張られる傾向があることが分かる.\begin{table}[t]\caption{品詞ごとのアテンションスコアの配置}\label{tab:pos}\input{08table07.tex}\end{table}以上より,従来のANMTのアテンション構造が単語レベルでのアライメントを見つけるのに対して,提案のアテンション構造は2層目以降を活用して構造的なアライメントを捉えていることが分かる.
\section{まとめ}
本論文では,NMTの性能を改善するため,CKYアルゴリズムを模倣したCNNに基づく新たなアテンション構造を提案した.提案のアテンション構造を用いることで,ASPECの英日翻訳タスクの評価では,従来のANMTと比較して1.43ポイントBLEUスコアが上昇し,FBISにおける中英翻訳タスクでは,従来のANMTと比較して同等かそれ以上の翻訳精度を達成できることを実験的に確認した.また,提案のアテンション構造は従来のANMTのアテンション構造では捉えることができない隣接する単語/句の組み合わせに対するアライメント(構造的なアライメント)を捉えることができることを実例により確認した.提案のアテンション構造は,CKYテーブルのすべてのセルの隠れ状態を保持する必要があるため,従来手法と比べて多くのメモリを使用する.今後は,メモリ消費の問題について提案手法を改善し,より少ないメモリ消費で動作するモデルに改善したい.また,提案手法では,上位セルの状態を導出する際,複数の候補から1つのみを選択するが.今後は,候補に対して重み付けを行うなどして複数の状態を考慮できるモデルに改良したい.\acknowledgment本論文は国際会議The8thInternationalJointConferenceonNaturalLanguageProcessingで発表した論文\cite{myI17-2001}に基づいて日本語で書き直し,説明や評価を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである.また,本研究の一部はJSPS科研費25280084及び18K18110の助成を受けたものである.ここに謝意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aharoni\BBA\Goldberg}{Aharoni\BBA\Goldberg}{2017}]{AharoniP17-2021}Aharoni,R.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2017\BBCP.\newblock\BBOQTowardsString-To-TreeNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\132--140}.\bibitem[\protect\BCAY{Ba,Kiros,\BBA\Hinton}{Baet~al.}{2016}]{Ba2016LayerN}Ba,J.,Kiros,R.,\BBA\Hinton,G.~E.\BBOP2016\BBCP.\newblock\BBOQLayerNormalization.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1607.06450}.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2015}]{bahdanau2015}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLearningRepresentations.}\bibitem[\protect\BCAY{Bastings,Titov,Aziz,Marcheggiani,\BBA\Simaan}{Bastingset~al.}{2017}]{BastingsD17-1209}Bastings,J.,Titov,I.,Aziz,W.,Marcheggiani,D.,\BBA\Simaan,K.\BBOP2017\BBCP.\newblock\BBOQGraphConvolutionalEncodersforSyntax-awareNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1957--1967}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chen,Huang,Chiang,\BBA\Chen}{Chenet~al.}{2017a}]{ChenP17-1177}Chen,H.,Huang,S.,Chiang,D.,\BBA\Chen,J.\BBOP2017a\BBCP.\newblock\BBOQImprovedNeuralMachineTranslationwithaSyntax-AwareEncoderandDecoder.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1936--1945}.\bibitem[\protect\BCAY{Chen,Wang,Utiyama,Liu,Tamura,Sumita,\BBA\Zhao}{Chenet~al.}{2017b}]{ChenD17-1304}Chen,K.,Wang,R.,Utiyama,M.,Liu,L.,Tamura,A.,Sumita,E.,\BBA\Zhao,T.\BBOP2017b\BBCP.\newblock\BBOQNeuralMachineTranslationwithSourceDependencyRepresentation.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2846--2852}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Bahdanau,\BBA\Bengio}{Choet~al.}{2014a}]{DBLP:conf/ssst/ChoMBB14}Cho,K.,vanMerrienboer,B.,Bahdanau,D.,\BBA\Bengio,Y.\BBOP2014a\BBCP.\newblock\BBOQOnthePropertiesofNeuralMachineTranslation:Encoder-DecoderApproaches.\BBCQ\\newblockIn{\BemProceedingsof8thWorkshoponSyntax,SemanticsandStructureinStatisticalTranslation},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\Bengio}{Choet~al.}{2014b}]{cho-EtAl:2014:EMNLP2014}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\Bengio,Y.\BBOP2014b\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRNNEncoder--DecoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1724--1734}.\bibitem[\protect\BCAY{Ding\BBA\Palmer}{Ding\BBA\Palmer}{2005}]{DingP05-1067}Ding,Y.\BBACOMMA\\BBA\Palmer,M.\BBOP2005\BBCP.\newblock\BBOQMachineTranslationUsingProbabilisticSynchronousDependencyInsertionGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\541--548}.\bibitem[\protect\BCAY{Dyer,Kuncoro,Ballesteros,\BBA\Smith}{Dyeret~al.}{2016}]{DyerN16-1024}Dyer,C.,Kuncoro,A.,Ballesteros,M.,\BBA\Smith,N.~A.\BBOP2016\BBCP.\newblock\BBOQRecurrentNeuralNetworkGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\199--209}.\bibitem[\protect\BCAY{Eriguchi,Hashimoto,\BBA\Tsuruoka}{Eriguchiet~al.}{2016a}]{eriguchi2016character}Eriguchi,A.,Hashimoto,K.,\BBA\Tsuruoka,Y.\BBOP2016a\BBCP.\newblock\BBOQCharacter-basedDecodinginTree-to-SequenceAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation},\mbox{\BPGS\175--183}.\bibitem[\protect\BCAY{Eriguchi,Hashimoto,\BBA\Tsuruoka}{Eriguchiet~al.}{2016b}]{eriguchi-hashimoto-tsuruoka:2016:P16-1}Eriguchi,A.,Hashimoto,K.,\BBA\Tsuruoka,Y.\BBOP2016b\BBCP.\newblock\BBOQTree-to-SequenceAttentionalNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\823--833}.\bibitem[\protect\BCAY{Eriguchi,Tsuruoka,\BBA\Cho}{Eriguchiet~al.}{2017}]{EriguchiP17-2012}Eriguchi,A.,Tsuruoka,Y.,\BBA\Cho,K.\BBOP2017\BBCP.\newblock\BBOQLearningtoParseandTranslateImprovesNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\72--78}.\bibitem[\protect\BCAY{Gehring,Auli,Grangier,\BBA\Dauphin}{Gehringet~al.}{2017}]{ConvEncGehring2017}Gehring,J.,Auli,M.,Grangier,D.,\BBA\Dauphin,Y.\BBOP2017\BBCP.\newblock\BBOQAConvolutionalEncoderModelforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\123--135}.\bibitem[\protect\BCAY{Gers,Schmidhuber,\BBA\Cummins}{Gerset~al.}{2000}]{gers2000learning}Gers,F.~A.,Schmidhuber,J.,\BBA\Cummins,F.\BBOP2000\BBCP.\newblock\BBOQLearningtoForget:ContinualPredictionwithLSTM.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf12}(10),\mbox{\BPGS\2451--2471}.\bibitem[\protect\BCAY{Hashimoto\BBA\Tsuruoka}{Hashimoto\BBA\Tsuruoka}{2017}]{hashimoto-tsuruoka:2017:EMNLP2017}Hashimoto,K.\BBACOMMA\\BBA\Tsuruoka,Y.\BBOP2017\BBCP.\newblock\BBOQNeuralMachineTranslationwithSource-SideLatentGraphParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\125--135}.\bibitem[\protect\BCAY{He,Zhang,Ren,\BBA\Sun}{Heet~al.}{2016}]{he2016deep}He,K.,Zhang,X.,Ren,S.,\BBA\Sun,J.\BBOP2016\BBCP.\newblock\BBOQDeepResidualLearningforImageRecognition.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition},\mbox{\BPGS\770--778}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter1997long}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-termMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Huang,Knight,\BBA\Joshi}{Huanget~al.}{2006}]{huang2006statistical}Huang,L.,Knight,K.,\BBA\Joshi,A.\BBOP2006\BBCP.\newblock\BBOQStatisticalSyntax-directedTranslationwithExtendedDomainofLocality.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceoftheAssociationforMachineTranslationintheAmericas},\mbox{\BPGS\66--73}.\bibitem[\protect\BCAY{Kasami}{Kasami}{1965}]{Kasami65}Kasami,T.\BBOP1965\BBCP.\newblock\BBOQAnEfficientRecognitionandSyntaxAlgorithmforContext-freeLanguages.\BBCQ\\newblock\BTR\AFCRL-65-758,AirForceCambridgeResearchLaboratory.\bibitem[\protect\BCAY{Kingsma\BBA\Ba}{Kingsma\BBA\Ba}{2014}]{kingsma2014adam}Kingsma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn2004statistical}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,et~al.}{Koehnet~al.}{2007}]{koehn2007moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,et~al.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsonInteractivePosterandDemonstrationSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Li,Xiong,Tu,Zhu,Zhang,\BBA\Zhou}{Liet~al.}{2017}]{LiP17-1064}Li,J.,Xiong,D.,Tu,Z.,Zhu,M.,Zhang,M.,\BBA\Zhou,G.\BBOP2017\BBCP.\newblock\BBOQModelingSourceSyntaxforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\688--697}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin2004path}Lin,D.\BBOP2004\BBCP.\newblock\BBOQAPath-basedTransferModelforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPG\625}.\bibitem[\protect\BCAY{Liu,Liu,\BBA\Lin}{Liuet~al.}{2006}]{LiuP06-1077}Liu,Y.,Liu,Q.,\BBA\Lin,S.\BBOP2006\BBCP.\newblock\BBOQTree-to-StringAlignmentTemplateforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong-pham-manning:2015:EMNLP}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16.621}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2204--2208}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig2011pointwise}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni2002bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Quirk,Menezes,\BBA\Cherry}{Quirket~al.}{2005}]{QuirkP05-1034}Quirk,C.,Menezes,A.,\BBA\Cherry,C.\BBOP2005\BBCP.\newblock\BBOQDependencyTreeletTranslation:SyntacticallyInformedPhrasalSMT.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\271--279}.\bibitem[\protect\BCAY{Sennrich\BBA\Haddow}{Sennrich\BBA\Haddow}{2016}]{SennrichW16-2209}Sennrich,R.\BBACOMMA\\BBA\Haddow,B.\BBOP2016\BBCP.\newblock\BBOQLinguisticInputFeaturesImproveNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation:Volume1,ResearchPapers},\mbox{\BPGS\83--91}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{srivastava2014dropout}Srivastava,N.,Hinton,G.~E.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15}(1),\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{sutskever2014sequence}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{TaiP15-1150}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Watanabe,Tamura,\BBA\Ninomiya}{Watanabeet~al.}{2017}]{myI17-2001}Watanabe,T.,Tamura,A.,\BBA\Ninomiya,T.\BBOP2017\BBCP.\newblock\BBOQCKY-basedConvolutionalAttentionforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Wu,Zhang,Yang,Li,\BBA\Zhou}{Wuet~al.}{2017}]{WuP17-1065}Wu,S.,Zhang,D.,Yang,N.,Li,M.,\BBA\Zhou,M.\BBOP2017\BBCP.\newblock\BBOQSequence-to-DependencyNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{Wu,Zhang,Zhang,Yang,Li,\BBA\Zhou}{Wuet~al.}{2018}]{Wu2018}Wu,S.,Zhang,D.,Zhang,Z.,Yang,N.,Li,M.,\BBA\Zhou,M.\BBOP2018\BBCP.\newblock\BBOQDependency-to-DependencyNeuralMachineTranslation.\BBCQ\\newblock{\BemIEEE/ACMTransactionsonAudio,Speech,andLanguageProcessing},{\Bbf10.119/TASLP.2018.2855968}.\bibitem[\protect\BCAY{Yang,Wong,Xiao,Chao,\BBA\Zhu}{Yanget~al.}{2017}]{YangD17-1150}Yang,B.,Wong,D.~F.,Xiao,T.,Chao,L.~S.,\BBA\Zhu,J.\BBOP2017\BBCP.\newblock\BBOQTowardsBidirectionalHierarchicalRepresentationsforAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1432--1441}.\bibitem[\protect\BCAY{Younger}{Younger}{1967}]{Younger67}Younger,D.~H.\BBOP1967\BBCP.\newblock\BBOQRecognitionandParsingofContext-freeLanguagesinTime$n^3$.\BBCQ\\newblock{\BemInformationandControl},{\Bbf2}(10),\mbox{\BPGS\189--208}.\end{thebibliography}\begin{biography}\bioauthor{渡邊大貴}{2017年愛媛大学工学部情報工学科卒業.2017年より同大学院理工学研究科修士課程に在学.情報処理学会学生会員.}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教となり,現在に至る.工学博士.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor[:]{TeguhBharataAdji}{HisbachelordegreewasfulfilledatUniversitasGadjahMadain1995andhisfirstMasterdegreewasreceivedfromthesameuniversityin1998.HealsofinishedmasterprogramfromDoshishaUniversity,Kyotoin2001.Hisdoctoraldegreewasthenobtainedin2010fromUniversitiTeknologiPetronas,Malaysia.HeisnowanassociateprofessorofUniversitasGadjahMada.HisresearchinterestandpublicationsareinthefieldsofNaturalLanguageProcessing,SocialMediaTechnology,BigData,DataSecurity.}\end{biography}\biodate\end{document}
| |
V25N04-04
|
\section{はじめに}
作文中における誤りの存在や位置を示すことができる文法誤り検出は,第二言語学習者の自己学習と語学教師の自動採点支援において有用である.一般的に文法誤り検出は典型的な教師あり学習のアプローチによって解決可能な系列ラベリングのタスクとして定式化できる.例えば,BidirectionalLongShort-TermMemory(Bi-LSTM)を用いて英語の文法誤り検出の世界最高精度を達成している研究\cite{rei-yannakoudakis:2016:P16-1}がある.彼らの手法は,言語学習者コーパスがネイティブが書いた生コーパスと比較してスパースである問題に対処するために,事前に単語分散表現を大規模なネイティブコーパスで学習している.しかし,ReiとYannakoudakisの研究を含む多くの文法誤り検出の研究において用いられている分散表現学習のアルゴリズムのほとんどは,ネイティブコーパスにおける単語の文脈をモデル化するだけであり,言語学習者に特有の文法誤りを考慮していない.一方で,単語分散表現に言語学習者に特有の文法誤りを考慮することは,より文法誤り検出に特化した単語分散表現を作成可能であり有用であると考えられる.そこで,我々は文法誤り検出における単語分散表現の学習に正誤情報と文法誤りパターンを考慮する3つの手法を示す.ただし,3つ目の手法は最初に提案する2つの手法を組み合わせたものである.1つ目の手法は,学習者の誤りパターンを用いて単語分散表現を学習する\textbf{Errorspecificwordembedding}(EWE)である.具体的には,単語列中のターゲット単語と学習者がターゲット単語に対して誤りやすい単語を入れ替え負例を作成することで,正しい表現と学習者の誤りやすい表現が区別されるように学習する.2つ目の手法は,正誤情報を考慮した単語分散表現を学習する\textbf{Grammaticalityspecificwordembedding}(GWE)である.単語分散表現の学習の際に,n-gramの正誤ラベルの予測を行うことで,正文に含まれる単語と誤文に含まれる単語を区別するように学習する.この研究において,正誤情報とは周囲の文脈に照らしてターゲット単語が正しいまたは間違っているというラベルとする.3つ目の手法は,EWEとGWEを組み合わせた\textbf{Error\&grammaticalityspecificwordembedding}(E\&GWE)である.E\&GWEは正誤情報と誤りパターンの両方を考慮することが可能である.本研究における実験では,英語学習者作文の文法誤り検出タスクにおいて,E\&GWEで学習した単語分散表現で初期化したBi-LSTMを用いた結果,世界最高精度を達成した.さらに,我々は大規模な英語学習者コーパスであるLang-8\cite{mizumoto-EtAl:2011:IJCNLP-2011}を使った実験も行った.その結果,文法誤り検出においてノイズを含むコーパスからは誤りパターンを抽出して学習することが有効であることが示された.本研究の主要な貢献は以下の通りである.\begin{itemize}\item正誤情報と文法誤りパターンを考慮する提案手法で単語分散表現を初期化したBi-LSTMを使い,FirstCertificateinEnglish(FCE-public)コーパス\cite{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}において世界最高精度を達成した.\itemFCE-publicとNUCLEデータ\cite{dahlmeier2013building}にLang-8から抽出した誤りパターンを追加し,単語分散表現を学習することで文法誤り検出の精度が大幅に向上することを示した.\item実験で使用したコードと提案手法で学習された単語分散表現を公開した\footnote{https://github.com/kanekomasahiro/grammatical-error-detection}.\end{itemize}本稿ではまず第2章で英語学習者作文における文法誤り検出に関する先行研究を紹介する.第3章では従来の単語分散表現の学習方法について述べる.次に,第4章では提案手法である正誤情報と誤りパターンを考慮した単語分散表現の学習モデルについて説明する.そして第5章ではFCE-publicとNUCLEの評価データであるCoNLLデータセットを使い提案手法を評価する.第6章では文法誤り検出モデルと学習された単語分散表現における分析を行い,最後に第7章でまとめる.
\section{先行研究}
文法誤り検出の研究の多くは前置詞の正誤\cite{tetreault2008ups},冠詞の正誤\cite{han2006detecting}や形容詞と名詞の対の正誤\cite{kochmar2014detecting}のように特定のタイプの文法誤りに取り組むことに焦点が当てられている.一方で,特定のタイプの文法誤りではなく文法誤り全般に取り組んだ研究は少ない.ReiとYannakoudakis\citeyear{rei-yannakoudakis:2016:P16-1}は,word2vecを埋め込み層の初期値とした双方向のBi-LSTMを提案し,FCE-publicに対して全ての誤りを対象とする文法誤り検出タスクにおいて現在世界最高精度を達成している.我々も全ての文法誤り検出タスクの手法に取り組むが,正誤情報や学習者の誤りパターンを考慮した単語分散表現を使う.誤りパターンを考慮した研究としては,\citeA{sawai2013learner}の学習者誤りパターンを用いた動詞の訂正候補を提案する手法や,\citeA{liu2010srl}の類義語辞書および英中対訳辞書から作成した誤りパターンを元に中国人英語学習者作文の動詞置換誤りを自動訂正する手法がある.これらの研究とは,動詞置換誤りだけを検出対象としている点が異なり,Liuらの研究に関しては,我々が学習者コーパスから誤りパターンを作成している点が異なる.正誤情報のような正解ラベルを考慮した単語分散表現を学習する研究としては,英語学習者作のスコア予測タスクにおいて\citeA{alikaniotis-yannakoudakis-rei:2016:P16-1}は,各単語の作文スコアへの影響度を学習することによって単語分散表現を構築するモデルを提案した.具体的には,スコア予測により特定の単語の作文スコアに対する影響度を学習し,作成した負例とのランキングにより文脈を学習する.この研究では平均2乗誤差を用いて文書レベルのスコアから単語埋め込みを学習する.一方で,我々の研究ではヒンジ損失を用いて単語レベルの2値誤り情報から単語埋め込みを学習する.大規模な言語学習者コーパスであるLang-8を用いた文法誤り訂正の研究として,統計的機械翻訳手法\cite{xie2016neural}とニューラルネットワークを用いた同時解析モデル\cite{chollampatt2016neural}などがある.我々の研究では上記の研究のようにLang-8を直接学習データとして使うのではなく,Lang-8から文法誤りパターンを抽出し単語分散表現の学習に使用した.Lang-8を直接学習データとして使ったLSTMベースの分類器では期待するような結果は得られなかったが,誤りパターンとして有益な情報を抽出することで文法誤り検出の精度を向上させることが可能であることを示す.
\section{単語分散表現学習の従来手法:C\&WEmbedding}
本研究での提案手法はCollobertとWeston\citeyear{collobert2008unified}の研究を正誤情報と誤りパターンを考慮できるように拡張している.そのため,まず初めにC\&Wの単語分散表現学習について説明する.C\&Wは局所的な文脈を元にターゲット単語の分散表現を学習するためのn-gramベースのニューラルネットワーク手法である.具体的には,サイズ$n$の単語列$S=(w_1,\ldots,w_t,\ldots,w_n)$中のターゲット単語$w_t$の表現を同じ単語列に存在する他の単語$(\forallw_i\inS|w_i\neqw_t)$を元に学習する.分散表現を学習するために,モデルはターゲット単語$w_t$を語彙$V$からランダムに選択した単語と入れ替えることにより作成した負例$S'=(w_1,\ldots,w_c,\ldots,w_n|w_c〜V)とS$を比較する.そして,負例$S'$ともともとの単語列$S$を区別するように学習する.単語列の単語を埋め込み層でベクトルに変換し,単語列$S$と負例$S'$をモデルに入力する.変換されたそれぞれのベクトルを連結し入力ベクトル$x∈\mathbb{R}^{n\times{D}}$とする.$D$は各単語の埋め込み層の次元数である.そして,入力ベクトル$x$は線形変換式(1)に渡される.その後,隠れ層のベクトル$i$は線形変換式(2)に渡され,出力$f(x)$を得る.\begin{align}i&=\sigma(W_{hi}x+b_h)\\f(x)&=W_{oh}i+b_o\end{align}$W_{hi}$は入力ベクトルと隠れ層の間の重み行列,$W_{oh}$は隠れ層のベクトルと出力層の重み行列,$b_oとb_h$はそれぞれバイアス,$\sigma$は要素ごとの非線形関数$\tanh$である.このモデルは正しい単語列$S$が単語を入れ替えたことによりノイズを含む負例$S'$よりランキングが高くなるようにすることで分散表現を学習する.そして式(3)によって正しい単語列とノイズを含む単語列の差が少なくとも1になるように最適化される.\begin{equation}loss_{context}(S,S')=\max(0,1-f(x)+f(x'))\end{equation}$x'$は負例$S'$の単語$w_c$を埋め込み層で変換されたベクトルに変換することで得られた値である.$1-f(x)+f(x')$の結果と$0$を比較し,大きい方の値を誤差とする.
\section{正誤情報と誤りパターンを考慮した単語分散表現}
この章では提案手法であるEWE,GWEとE\&GWEにおける単語分散表現の学習方法について詳しく述べていく.\subsection{文法誤りパターンを考慮した表現学習(EWE)}EWEは,C\&WEmbeddingと同じモデルで単語分散表現を学習する.ただし,負例をランダムで作成するのではなく,学習者がターゲット単語$w_t$に対して誤りやすい単語$w_c$と入れ替えることで作成する.こうすることで,学習者の誤りパターンを考慮して負例を作成し,ターゲット単語の分散表現が誤りやすい単語と区別されるように学習される.学習の際,$w_c$は条件付き確率$P(w_c|w_t)$によりサンプリングされる.\begin{equation}P(w_c|w_t)=\frac{|w_c,w_t|}{\sum_{w_c\prime}|w_c\prime,w_t|}\end{equation}ここで$w_t$はターゲット単語,$w_c'$は$w_t$と対応する$w_c$の集合である.学習者の誤りパターンとして,学習者コーパスから抽出した誤りの訂正前の単語に対して誤りの訂正後の単語を入れ替え候補とする.図\ref{fig:model}(a)はEWEの表現学習におけるネットワーク構造を示している.\begin{figure}[t]\begin{center}\includegraphics{25-4ia4f1.eps}\end{center}\hangcaption{単語分散表現を学習する提案手法(a)EWE(b)GWEの構造.両方のモデルはwindowサイズの単語列の単語ベクトルを結合し隠れ層に入力している.その際,EWEの出力はスカラー値であり,GWEの出力はスカラー値と単語列の中央単語のラベルである.}\label{fig:model}\end{figure}\vspace{0.5\Cvs}\centerline{\textit{IthinkIcanwinthis\textbf{price/*prize}.}}\vspace{0.5\Cvs}上の文はFCE-publicのテストデータに含まれている文である.この文では,priceが誤りでprizeが正しい単語である.この場合,$w_t$はpriceであり$w_c$がprizeである.今回の実験では,1対1の誤りパターンのみを使用する.一方,入れ替え候補を学習者が誤りやすい単語にすることで,入れ替え候補がない単語や頻度の少ない単語で文脈を適切に学習できないという問題が生じる.この問題をword2vecを使い事前学習したベクトルを単語それぞれの初期値とすることで解決する.文脈が既に学習されたベクトルをファインチューニングすることで,入れ替え候補がない単語や少ない単語も文脈を学習することが可能になる.\subsection{正誤情報を考慮した表現学習(GWE)}Alikaniotisら\citeyear{alikaniotis-yannakoudakis-rei:2016:P16-1}の作文スコア予測のように,C\&WEmbeddingをそれぞれの単語の局所的な言語情報だけでなく,ターゲット単語がどれだけ単語列の正誤ラベルに貢献しているかを考慮して学習するように拡張する.図\ref{fig:model}(b)はGWEの表現学習のネットワーク構造を示している.単語の正誤情報を分散表現に含めるために,我々は単語列の正誤ラベルを予測する出力層を追加し,式(3)を$2$つの出力の誤差関数から構成されるように拡張する.\begin{align}f_{grammar}(x)&=W_{oh1}i+b_{o1}\\y&=\textit{softmax}(f_{grammar}(x))\\loss_{predict}(S)&=-\sum\hat{y}\cdot\log(y)\\loss_{overall}(S,S')&=\alpha\cdotloss_{context}(S,S')+(1-\alpha)\cdotloss_{predict}(S)\end{align}式(5)の$f_{grammar}$は,単語列$S$のラベルの予測値である.式(6)のように,$f_{grammar}$に対してソフトマックス関数を用いて予測確率$y$を計算する.式(7)で交差エントロピー関数を用いて誤差$loss_{predict}$を計算する.ここで,$\hat{y}$はターゲット単語の正解ラベルのベクトルである.そして,式(8)のように2つの誤差を組み合わせて$loss_{overall}$を計算する.ここで$\alpha$は,2つの誤差関数の重み付けを決定するハイパーパラメータである.我々は,学習のための単語列の正誤情報としてFCE-publicにもともと付けられている正誤の2値ラベルを用いた.Lang-8に関しては動的計画法を使いタグ付けを行った.GWEの負例は,C\&Wと同様にランダムに作成されている.\subsection{誤りパターンと正誤情報を考慮した表現学習(E\&GWE)}E\&GWEは,EWEとGWEを組み合わせたモデルである.具体的には,E\&GWEモデルは負例をEWEのように誤りパターンから作成し,GWEのようにスコアと正誤の予測を行う.
\section{文法誤り検出の実験設定}
我々は分類器と単語分散表現のための学習データとして,FCE-public学習データ,NUCLEデータとLang-8を用いる.そして,テストデータとしてFCE-publicテストデータとCoNLL-14\cite{ng2014conll}テストデータを用いる.表\ref{tab:data_info}はそれぞれのコーパスの統計情報を示している.我々の文法誤り検出ではFCE-public,NUCLE,CoNLLと同様に,ある程度英文が書けるような上級レベルの英語学習者を対象にしている\footnote{文法誤り検出または訂正で用いられているコーパスは上級者を対象としているものが多い.その他の代表的なコーパスとしてはJFLEG\cite{napoles-sakaguchi-tetreault:2017:EACLshort}とAWES\cite{daudaravicius-EtAl:2016:BEA11}がある.}.一方で,Lang-8にはさまざまなレベルの英語学習者が含まれている.開発データはそれぞれFCE-public開発データとCoNLL-13\cite{dahlmeier2013building}開発データとする.\begin{table}[b]\caption{コーパスの統計情報}\label{tab:data_info}\input{04table01.tex}\end{table}単語の削除誤りに関しては,削除誤りの直後の単語に誤りタグを付けた.過学習を防ぐために,学習データ上で頻度が1の単語を未知語とした.我々はまず単語分散表現の学習について,提案手法(EWE,GWEとE\&GWE)と既存手法(word2vecとC\&W)を比較する.そのために,従来手法と提案手法それぞれの単語分散表現で初期化された分類器Bi-LSTMをFCE-publicの学習データを使って学習し,文法誤り検出を行った.\textbf{\textit{FCE-publicデータセット.}}FCE-publicデータセットは文法誤り訂正における最も有名な英語学習者コーパスの1つである.このコーパスには上級レベルで英語を評価するFirstCertificateinEnglish(FCE)試験を受けた英語学習者によって書かれた作文が含まれている.そして,文法誤りの種類に基づいてタグ付けがされている.我々は公式に分割されたコーパスを使用した:学習データ30,953文,テストデータ2,720文と開発データ2,222文である.FCE-publicでは,誤りパターンのターゲット単語として4,184単語が含まれている.入れ替え候補としては9,834トークン,6,420タイプが含まれている.\textbf{\textit{NUCLEとCoNLL.}}提案手法による誤り検出精度の向上をFCE-publicだけではなく他のデータでも検証するために,CoNLL-13\cite{dahlmeier2013building},CoNLL-14\cite{ng2014conll}の共通タスクのデータとNUSCorpusofLearnerEnglish(NUCLE)\cite{dahlmeier2013building}を用いる.NUCLEは英語学習者であるシンガポールの大学の学生によって書かれた1,414個の作文が含まれている.作文のテーマとしては環境汚染や健康問題などがある.含まれている文法誤りは,英語を母語とするプロの英語教師によって訂正とアノテーションがされている.学習データとしてNUCLEの57,151文,開発データとしてCoNLL-13の1,381文そしてテストデータとしてCoNLL-14の1,312文を用いる.誤りパターンのターゲット単語として6,204単語が含まれている.入れ替え候補としては13,617トークン,9,249タイプが含まれている.誤った文に対して動的計画法により正誤のタグ付けを行った.\textbf{\textit{Lang-8コーパス.}}さらに,我々は単語分散表現の学習のために大規模な英語学習者コーパスLang-8をFCE-publicとNUCLEに追加し使う.その際,分類器Bi-LSTMの学習にはFCE-publicとNUCLEだけをそれぞれの実験で使う.Lang-8コーパスには,英語学習者によって書かれた英文を人手でタグ付けした100万文以上のデータがある.Lang-8を単語分散表現の学習に使うのは,大規模データにおける提案手法の効果について調べるためである.Lang-8は大規模な学習者コーパスであるが,専門家がアノテートしているわけではないため訂正されていない箇所が正用例と判断された結果訂正されていないとは限らず,単にアノテーションされていない場合もあるというノイズが含まれている\cite{mizumoto-EtAl:2011:IJCNLP-2011}.専門家にアノテートされているコーパスであれば教育的観点から意図的に誤りを訂正しなかった場合も考えられるが,Lang-8では意図しているのか意図していないのか区別することができない.一方で,訂正された箇所は正しい可能性が高いという特徴がある.そのため我々は,Lang-8を直接学習データとして用いるより誤りパターンを抽出し単語分散表現を学習したほうが文法誤り検出の精度が向上するのではないかと考え,これについても調査を行った.Lang-8は誤りパターンのターゲット単語として10,372タイプが含まれている.そして,入れ替え候補として272,561トークン,61,950タイプが含まれている.\subsection{動的計画法を用いたタグ付け}FCE-publicはもともとデータに正誤タグが付与されているがNUCLE,CoNLLとLang-8には付与されていない.そのため,誤文に対しては動的計画法を用いて原文と正解文の単語のアライメントを取り正誤タグの付与を行う.一致にはスコア$1$を与え,不一致と対応する単語がない場合にはスコア$0$を各単語に与える.各単語単位のスコアを足し合わせアライメントのスコアを計算し,Viterbiアルゴリズムでスコアが最大となるアライメントを求める.得られたアライメント結果を元に,対応する単語が不一致またはない場合は誤用タグを付与し,一致だった場合は正用タグを付与する.\subsection{評価尺度}先行研究\cite{rei-yannakoudakis:2016:P16-1}のように,我々はメインの評価手法として$F_{0.5}$を使う.\begin{equation}F_{0.5}=(1+0.5^2)\cdot\frac{precision\cdotrecall}{0.5^2\cdotprecision+recall}\end{equation}この評価尺度は,誤り訂正タスクのCoNLL-14の共通タスクでも用いられている\cite{ng2014conll}.$F_{0.5}$はprecisionとrecallの両方の組み合わせであり,precisionに2倍の重みを割り当てている.なぜなら,誤り検出においては正確なフィードバックがカバレッジより重要であるからである\cite{nagata2010evaluating}.\subsection{単語分散表現}先行研究\cite{rei-yannakoudakis:2016:P16-1}で用いられていた単語分散表現と揃え,C\&W,EWE,GWEとE\&GWEの埋め込み層の次元数は$300$とし,隠れ層の次元数は$200$とした.単語分散表現の事前学習で用いられるword2vec\cite{chelba2013one}としてGoogleNews\footnote{https://github.com/mmihaltz/word2vec-GoogleNews-vectors}からクロールしたデータから学習したモデルを用いる.単語列の長さは$3$,予備実験により単語列から作成する負例は$600$,式(8)の線形補間の$\alpha$は$0.03$,パラメータの初期学習率は$0.001$とし,ADAMアルゴリズム\cite{kingma2014adam}によって最適化した.そしてGWEの初期値はランダムとし,EWEは事前学習されたword2vecを初期値にした.Lang-8から誤りパターンを抽出した実験では,単語分散表現の学習のためにFCE-publicとLang-8の学習データを組み合わせて誤りパターンとした.しかしながら,Lang-8の誤りパターンの数がFCE-publicと比較して非常に多いため,我々はそれぞれの頻度の比率が1対1となるよう正規化した.単語分散表現を学習するためにLang-8から誤りパターンを抽出する負例作成の過程は以下の通りである:\begin{enumerate}\item動的計画法を使い正しい文と誤った文から単語のペアを抽出する.\item抽出された単語のペアがFCE-publicによって抽出された語彙に含まれていた場合誤りパターンとする.\end{enumerate}\subsection{分類器}EWE,GWEとE\&GWEをBi-LSTMを用いた文法誤り分類器の単語分散表現の初期値として使用し,入力文中の単語の正誤の予測を行う.Bi-LSTMはこのタスクにおいてConditionalRandomField(CRF)やConvolutionalNeuralNetworks(CNN)などの他のモデルと比較して高い精度(世界最高精度)を出しており,ReiとYannakoudakisの研究でも用いられている.彼らのBi-LSTMは隠れ層と出力層の間に線形変換を行う追加の隠れ層が導入されている.ネットワークおよびパラメータの設定は,word2vecを初期値にしたBi-LSTMを使った先行研究\cite{rei-yannakoudakis:2016:P16-1}と同じ設定である.具体的には,埋め込み層の次元数は$300$とし,隠れ層の次元数は$200$とし,隠れ層と出力層の間の隠れ層の次元数は50とした.初期学習率を$0.001$とした.そして,ADAMアルゴリズム\cite{kingma2014adam}で,バッチサイズを64文として最適化した.\begin{table}[b]\hangcaption{上表はFCE-publicだけ,下表はNUCLEだけで学習されたBi-LSTMと単語分散表現のそれぞれのテストデータにおける誤り検出精度}\label{tab:sub_first}\input{04table02.tex}\end{table}
\section{文法誤り検出の実験結果}
\subsection{FCE-publicとNUCLEを用いた実験結果}表\ref{tab:sub_first}は,Bi-LSTMを2つのベースラインで初期化したモデル(FCE+word2vec,FCE+C\&W,NUCLE+word2vecとNUCLE+C\&W)と提案手法を使ったモデル(FCE+EWE,FCE+GWE,FCE+E\&GWE,NUCLE+EWE,NUCLE+GWEとNUCLE+E\&GWE)のFCE-publicとNUCLEを用いて学習した誤り検出の結果である.アスタリスクはPrecision,Recallと$F_{0.5}$のそれぞれがFCE+word2vec((R\&Y2016)の再実装)またはNUCLE+word2vecに対して有意水準0.05で有意差があることを示す.FCE-publicで学習したモデルはFCE-publicのテストデータを使い,NUCLEで学習したモデルはCoNLL-14\cite{ng2014conll}のテストデータを使い評価した.FCE+word2vecに関しては2つのモデルがある.FCE+word2vec(R\&Y2016)は先行研究\cite{rei-yannakoudakis:2016:P16-1}で報告されている値である.FCE+word2vec((R\&Y2016)の再実装)は先行研究の再実装の結果である.NUCLE+E\&GWEとFCE+E\&GWEは,それぞれのコーパスのEWEとGWEを組み合わせためモデルである.まず,ベースラインと提案手法(FCE+EWE,FCE+GWE,NUCLE+EWEとNUCLE+GWE)を比較すると,一貫して精度が向上していることがわかる.このことから,誤りパターンと正誤情報を考慮する提案手法が文法誤り検出では有効であることがわかる.さらに,2つの手法を組み合わせたFCE+E\&GWEとNUCLE+E\&GWEのほうがEWEとGWEそれぞれを単体で使ったモデルより高い精度を出している.このことから,EWEとGWEを組み合わせることが有効であることがわかる.\begin{table}[b]\hangcaption{大規模なLang-8コーパスを追加で使いBi-LSTMか単語分散表現のどちらかを学習した場合のFCE-publicまたはNUCLEのテストデータにおける誤り検出精度}\label{tab:sub_second}\input{04table03.tex}\end{table}\subsection{Lang-8を用いた実験結果}Lang-8を直接学習データとして用いるより誤りパターンを抽出し単語分散表現を学習したほうが文法誤り検出の精度が向上につながることを検証するために,以下の2つの設定で比較する:(1)FCE-publicとNUCLEそれぞれの誤りパターンにLang-8から抽出した誤りパターンを追加する.そして,誤りパターンを用いて学習された単語分散表現によって初期化されたBi-LSTMをFCE-publicとNUCLEのそれぞれだけを使い学習する(FCE+EWE-L8,FCE+E\&GWE-L8,NUCLE+EWE-L8とNUCLE+E\&GWE-L8,表\ref{tab:sub_second});(2)word2vecで初期化Bi-LSTMの学習データとしてFCE-publicとNUCLEのそれぞれに直接Lang-8を追加する(FCE\&L8+W2VとNUCLE\&L8+W2V,表\ref{tab:sub_second}).表\ref{tab:sub_second}はLang-8を学習データに追加した文法誤り検出の結果である.アスタリスクはPrecision,Recallと$F_{0.5}$のそれぞれがFCE+word2vec((R\&Y2016)の再実装)またはNUCLE+word2veに対して有意水準0.05で有意差があることを示す.その際,我々はウィルコクソンの符号順位検定($p\leq0.05$)を5回行った.表\ref{tab:sub_first}と表\ref{tab:sub_second}から,Precision,Recallと$F_{0.5}$に関してそれぞれの手法を以下のようにランク付けすることができる:(FCE,NUCLE)+E\&GWE-L8$>$(FCE,NUCLE)+EWE-L8$>$(FCE,NUCLE)+E\&GWE$>$(FCE,NUCLE)+GWE$>$(FCE,NUCLE)+EWE$>$(FCE,NUCLE)+word2vec$>$(FCE,NUCLE)+C\&W.文法誤り検出において誤りパターンと正誤情報を考慮することで一貫して精度が向上している.このことから,提案手法が文法誤り検出では有効であることがわかる.そして,我々の提案手法はLang-8コーパスを使うことなく先行研究と比較して統計的有意差がある.我々の提案手法はFCE-publicにおいて全ての評価尺度において世界最高精度であるReiとYannakoudakisの先行研究を上回った.そして,FCE\&L8+word2vecとFCE+EWE-L8の結果から,直接分類器の学習データとして使うより誤りパターンとして抽出し使うほうが良いことがわかる.これはLang-8の正しい文にノイズが多く含まれているためと考えられる.Lang-8のような専門家がアノテートしたわけではないノイズを多く含むコーパスを直接学習データとして使わず,大規模である利点を活かし多様な誤りパターンを抽出するために使う.そして,FCE-publicやNUCLEのような小規模ではあるが専門家がアノテートしたコーパスを専門家のアノテーションの特徴を捉えた質の高い学習をするために使う.これにより,それぞれのコーパスの利点を活かした学習を行うことができていると言える.そして,上記の実験からGWEと組み合わせることでさらに精度が向上することがわかる.\begin{table}[b]\caption{誤りタイプごとの正解数と正解率}\label{tab:label_correct}\input{04table04.tex}\end{table}
\section{考察}
\label{考察}それぞれの手法ごとにどのような違いがあるかを調べるために,誤りタイプごとの正解数について見ていく.表\ref{tab:label_correct}は,FCE-publicのテストデータにおけるそれぞれのモデルの誤りタイプごとの正解数と正解率を示している.ここでは,比較対象のモデル同士でもっとも誤りタイプの正解数の差が大きかった2つの誤りタイプを上げている.従来手法と提案手法,Lang-8ありの提案手法とLang-8なしの提案手法を比較した.誤りタイプはFCE-publicにもともと付与されていた正解ラベルを用いる\footnote{誤りのタグ付け方法または種類については付録に掲載した.}.まず,従来手法と提案手法で最も正解数が異なる,動詞置換誤りと限定詞欠損誤りについて分析する(表\ref{tab:label_correct}の(a)と(b)).動詞置換誤りに関しては提案手法の正解数が多い.一方で,限定詞欠損誤りに関してはベースラインであるFCE+word2vecとFCE+C\&Wのほうが正解数が多い.提案手法のほうが限定詞欠損誤りの正解数が少ないのは,誤りパターンが単語ペアを抽出し作成されており,単語が欠落している誤りが含まれていないためと考えられる.1-gramベースの誤りパターンを用いた単語分散表現では入れ替え誤りに特化した学習を行うため,誤りパターンに含まれていないような他の誤りを文脈を手がかりに学習することは難しいと考えられる.次に,我々はLang-8から抽出した誤りパターンを使うことによる影響について調べる(表\ref{tab:label_correct}の(b)と(c)).FCE+EWEとFCE+EWE-L8は名詞置換誤りと名詞語形誤りにおいて最も正解数が異なる.名詞置換誤りとはsuggestionとadviceのような誤りであり,名詞語形誤りとはtimeとtimesのような誤りである.FCE+EWE-L8は,名詞置換誤りと名詞語形誤りの両方で正解数が多い.理由としては,名詞置換誤りと名詞語形誤りともにLang-8に含まれている誤りパターンの数がFCE-publicと比較して10倍ほど多いためと考えられる.\begin{table}[b]\caption{FCE+word2vecとFCE+E\&GWE-L8を用いた誤り検出の例}\label{tab:example}\input{04table05.tex}\end{table}表\ref{tab:example}は従来手法であるFCE+word2vecと最も精度の高い提案手法であるFCE+E\&GWE-L8のテストデータに対する検出例を示している.表\ref{tab:example}(a)は名詞置換誤りの検出例を示している\footnote{実際のFCE-publicでは,最初にenteryはentryに訂正され,その後entranceに訂正されている.}.FCE+word2vecは名詞置換誤りを検出できていないが,FCE+E\&GWE-L8は名詞置換誤りを検出することができている.名詞語形誤りに関しては表\ref{tab:example}(b)で示されている.ここで,FCE+word2vecは誤りを1つも検出することができていない.一方で,FCE+E\&GWE-L8は名詞語形誤りを検出することができている.これは,Lang-8から抽出した誤りパターンに含まれていたためと考えられる.saleとclothsの検出は両方のモデルが失敗している.しかし,前者は構文的情報を必要とし,後者は常識を必要とするため誤り検出が難しいと考えられる.表\ref{tab:example}(c)では,FCE+W2Vは限定詞欠損誤りの検出に成功したが,FCE+E\&GWE-L8は検出に失敗した.この結果は限定詞欠損誤りと同様に誤りパターンの構造上,挿入誤りを適切に学習できていないことを示している.\begin{figure}[b]\begin{center}\includegraphics{25-4ia4f2.eps}\end{center}\hangcaption{FCE+word2vecとFCE+E\&GWE-L8によって学習された単語分散表現のt-SNEによる可視化.大文字がFCE+word2vecの単語であり,小文字がFCE+E\&GWE-L8の単語である.}\label{fig:flow}\end{figure}図\ref{fig:flow}は,学習データ内で高頻度な誤りの単語分散表現(FCE+word2vecとFCE+E\&GWE-L8)をt-SNEを用いて可視化した図である.我々は誤りとして出現頻度が多い前置詞と動詞をいくつかプロットした.頻度を元に可視化したのは,高頻度で誤っているほど学習データに多く出現するため単語分散表現がよく学習され違いがわかりやすくなると考えたからである.ここでは誤りとして高頻度な単語を誤りやすい,低頻度な単語を誤りにくい単語としている.学習者が誤りにくい単語はFCE+E\&GWE-L8とFCE+word2vecで似たような位置として学習されている.一方で,学習者が誤りやすい単語に関しては誤りの出現頻度に比例してFCE+E\&GWE-L8とFCE+word2vecで離れた位置として学習されていることがわかる.例えば,underやwalkのようにあまり誤りとして出現しない単語はFCE+word2vecの近くに位置している.一方で,wasやatのようによく誤られる単語はFCE+E\&GWE+L8の点はFCE+word2vecと比較してより遠くに移動している.そして,この図中のほとんどすべての単語が上に移動しているので,上方向に移動する距離が誤りやすさに対応していると推測される.この可視化は学習者による誤りに対する分析に使うことができる.
\section{まとめ}
本稿で我々は,文法誤り検出のための正誤情報と文法誤りパターンを考慮した単語分散表現の学習手法を提案した.その結果,FCE-publicとNUCLEの2つのコーパスにおいて文法誤り検出の精度向上を行うことができた.そして,提案手法で単語分散表現を初期化したBi-LSTMモデルを使いFCE-publicデータセットにおいて世界最高精度を達成した.学習者コーパスによって学習された単語分散表現は正しいフレーズと誤ったフレーズを区別することが可能である.さらに我々は,Lang-8コーパスを用いた追加の実験を行った.その結果,我々は誤りパターンを抽出して学習するほうが直接Lang-8コーパスを分類器の学習データに追加するより良いことがわかった.そして,いくつかの典型的な誤りに対して検出結果を分析し,学習された単語分散表現の特徴を明らかにした.今回の提案手法では,Lang-8の添削者を一律に誤りの見逃しなどのノイズを含む可能性があるとしている.一方で,Lang-8の添削者中でも専門家のように質の高い添削を行っている添削者もおり,Lang-8にも学習データとして直接使うことが可能な文が多く含まれていると考えられる.そのため,Lang-8の添削者の評価や添削数などのメタ情報を活用した文法誤り検出などが考えられる.また,学習者の母語などのメタ情報を活用した文法誤り訂正の研究\cite{chollampatt-hoang-ng:2016:EMNLP2016}が報告されている\footnote{ネイティブ言語と学習言語の文法的な近さによって,学習時に文法的に近いため文法を混同する問題や文法の大きな違いによる問題などが発生する.}.そこで,学習者の第二言語習得過程\cite{slam18}を考慮した文法誤り訂正にも取り組んでいきたい.\acknowledgment本研究はJSPS科研費JP16K16117の助成を受けたものである.\vspace{-0.1\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alikaniotis,Yannakoudakis,\BBA\Rei}{Alikaniotiset~al.}{2016}]{alikaniotis-yannakoudakis-rei:2016:P16-1}Alikaniotis,D.,Yannakoudakis,H.,\BBA\Rei,M.\BBOP2016\BBCP.\newblock\BBOQAutomaticTextScoringUsingNeuralNetworks.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\715--725}.\bibitem[\protect\BCAY{Chelba,Mikolov,Schuster,Ge,Brants,Koehn,\BBA\Robinson}{Chelbaet~al.}{2013}]{chelba2013one}Chelba,C.,Mikolov,T.,Schuster,M.,Ge,Q.,Brants,T.,Koehn,P.,\BBA\Robinson,T.\BBOP2013\BBCP.\newblock\BBOQOneBillionWordBenchmarkforMeasuringProgressinStatisticalLanguageModeling.\BBCQ\\newblock{\BemarXivpreprintarXiv:1312.3005}.\bibitem[\protect\BCAY{Chollampatt,Hoang,\BBA\Ng}{Chollampattet~al.}{2016a}]{chollampatt-hoang-ng:2016:EMNLP2016}Chollampatt,S.,Hoang,D.~T.,\BBA\Ng,H.~T.\BBOP2016a\BBCP.\newblock\BBOQAdaptingGrammaticalErrorCorrectionBasedontheNativeLanguageofWriterswithNeuralNetworkJointModels.\BBCQ\\newblockIn{\BemEMNLP},\mbox{\BPGS\1901--1911}.\bibitem[\protect\BCAY{Chollampatt,Taghipour,\BBA\Ng}{Chollampattet~al.}{2016b}]{chollampatt2016neural}Chollampatt,S.,Taghipour,K.,\BBA\Ng,H.~T.\BBOP2016b\BBCP.\newblock\BBOQNeuralNetworkTranslationModelsforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemIJCAI},\mbox{\BPGS\2768--2774}.\bibitem[\protect\BCAY{Collobert\BBA\Weston}{Collobert\BBA\Weston}{2008}]{collobert2008unified}Collobert,R.\BBACOMMA\\BBA\Weston,J.\BBOP2008\BBCP.\newblock\BBOQAUnifiedArchitectureforNaturalLanguageProcessing:DeepNeuralNetworkswithMultitaskLearning.\BBCQ\\newblockIn{\BemICML},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Dahlmeier,Ng,\BBA\Wu}{Dahlmeieret~al.}{2013}]{dahlmeier2013building}Dahlmeier,D.,Ng,H.~T.,\BBA\Wu,S.~M.\BBOP2013\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofLearnerEnglish:TheNUSCorpusofLearnerEnglish.\BBCQ\\newblockIn{\BemBEA@NAACL-HLT},\mbox{\BPGS\22--31}.\bibitem[\protect\BCAY{Daudaravicius,Banchs,Volodina,\BBA\Napoles}{Daudaraviciuset~al.}{2016}]{daudaravicius-EtAl:2016:BEA11}Daudaravicius,V.,Banchs,R.~E.,Volodina,E.,\BBA\Napoles,C.\BBOP2016\BBCP.\newblock\BBOQAReportontheAutomaticEvaluationofScientificWritingSharedTask.\BBCQ\\newblockIn{\BemBEASharedTask},\mbox{\BPGS\53--62}.\bibitem[\protect\BCAY{Han,Chodorow,\BBA\Leacock}{Hanet~al.}{2006}]{han2006detecting}Han,N.-R.,Chodorow,M.,\BBA\Leacock,C.\BBOP2006\BBCP.\newblock\BBOQDetectingErrorsinEnglishArticleUsagebyNon-nativeSpeakers.\BBCQ\\newblock{\BemNaturalLanguageEngineering},\mbox{\BPGS\115--129}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{kingma2014adam}Kingma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemICLR}.\bibitem[\protect\BCAY{Kochmar\BBA\Briscoe}{Kochmar\BBA\Briscoe}{2014}]{kochmar2014detecting}Kochmar,E.\BBACOMMA\\BBA\Briscoe,T.\BBOP2014\BBCP.\newblock\BBOQDetectingLearnerErrorsintheChoiceofContentWordsUsingCompositionalDistributionalSemantics.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\1740--1751}.\bibitem[\protect\BCAY{Liu,Han,Li,Stiller,\BBA\Zhou}{Liuet~al.}{2010}]{liu2010srl}Liu,X.,Han,B.,Li,K.,Stiller,S.~H.,\BBA\Zhou,M.\BBOP2010\BBCP.\newblock\BBOQSRL-basedVerbSelectionforESL.\BBCQ\\newblockIn{\BemEMNLP},\mbox{\BPGS\1068--1076}.\bibitem[\protect\BCAY{水本\JBA小町\JBA永田\JBA松本}{水本\Jetal}{2013}]{mizumoto-EtAl:2011:IJCNLP-2011}水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2013\BBCP.\newblock日本語学習者の作文自動誤り訂正のための語学学習SNSの添削ログからの知識獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf28}(5),\mbox{\BPGS\420--432}.\bibitem[\protect\BCAY{Nagata\BBA\Nakatani}{Nagata\BBA\Nakatani}{2010}]{nagata2010evaluating}Nagata,R.\BBACOMMA\\BBA\Nakatani,K.\BBOP2010\BBCP.\newblock\BBOQEvaluatingPerformanceofGrammaticalErrorDetectiontoMaximizeLearningEffect.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\894--900}.\bibitem[\protect\BCAY{Napoles,Sakaguchi,\BBA\Tetreault}{Napoleset~al.}{2017}]{napoles-sakaguchi-tetreault:2017:EACLshort}Napoles,C.,Sakaguchi,K.,\BBA\Tetreault,J.\BBOP2017\BBCP.\newblock\BBOQJFLEG:AFluencyCorpusandBenchmarkforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemEACL},\mbox{\BPGS\229--234}.\bibitem[\protect\BCAY{Ng,Wu,Briscoe,Hadiwinoto,Susanto,\BBA\Bryant}{Nget~al.}{2014}]{ng2014conll}Ng,H.~T.,Wu,S.~M.,Briscoe,T.,Hadiwinoto,C.,Susanto,R.~H.,\BBA\Bryant,C.\BBOP2014\BBCP.\newblock\BBOQTheCoNLL-2014SharedTaskonGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemCoNLLSharedTask},\mbox{\BPGS\1--14}.\bibitem[\protect\BCAY{Nicholls}{Nicholls}{2003}]{nicholls2003cambridge}Nicholls,D.\BBOP2003\BBCP.\newblock\BBOQTheCambridgeLearnerCorpus:ErrorCodingandAnalysisforLexicographyandELT.\BBCQ\\newblock{\BemCorpusLinguistics},\mbox{\BPGS\572--581}.\bibitem[\protect\BCAY{Rei\BBA\Yannakoudakis}{Rei\BBA\Yannakoudakis}{2016}]{rei-yannakoudakis:2016:P16-1}Rei,M.\BBACOMMA\\BBA\Yannakoudakis,H.\BBOP2016\BBCP.\newblock\BBOQCompositionalSequenceLabelingModelsforErrorDetectioninLearnerWriting.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\1181--1191}.\bibitem[\protect\BCAY{Sawai,Komachi,\BBA\Matsumoto}{Sawaiet~al.}{2013}]{sawai2013learner}Sawai,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQALearnerCorpus-basedApproachtoVerbSuggestionforESL.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\708--713}.\bibitem[\protect\BCAY{Settles,Brust,Gustafson,Hagiwara,\BBA\Madnani}{Settleset~al.}{2018}]{slam18}Settles,B.,Brust,C.,Gustafson,E.,Hagiwara,M.,\BBA\Madnani,N.\BBOP2018\BBCP.\newblock\BBOQSecondLanguageAcquisitionModeling.\BBCQ\\newblockIn{\BemBEASharedTask},\mbox{\BPGS\56--65}.\bibitem[\protect\BCAY{Tetreault\BBA\Chodorow}{Tetreault\BBA\Chodorow}{2008}]{tetreault2008ups}Tetreault,J.~R.\BBACOMMA\\BBA\Chodorow,M.\BBOP2008\BBCP.\newblock\BBOQTheUpsandDownsofPrepositionErrorDetectioninESLWriting.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\865--872}.\bibitem[\protect\BCAY{Xie,Avati,Arivazhagan,Jurafsky,\BBA\Ng}{Xieet~al.}{2016}]{xie2016neural}Xie,Z.,Avati,A.,Arivazhagan,N.,Jurafsky,D.,\BBA\Ng,A.~Y.\BBOP2016\BBCP.\newblock\BBOQNeuralLanguageCorrectionwithCharacter-basedAttention.\BBCQ\\newblock{\BemarXivpreprintarXiv:1603.09727}.\bibitem[\protect\BCAY{Yannakoudakis,Briscoe,\BBA\Medlock}{Yannakoudakiset~al.}{2011}]{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}Yannakoudakis,H.,Briscoe,T.,\BBA\Medlock,B.\BBOP2011\BBCP.\newblock\BBOQANewDatasetandMethodforAutomaticallyGradingESOLTexts.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\180--189}.\end{thebibliography}\vspace{1\Cvs}\appendix\ref{考察}章の考察で取り上げたFCE-publicで用いられている誤りタイプ\cite{nicholls2003cambridge}について説明する.2つのタグから誤りタイプは構成されている.1つ目のタグは誤りの種類を表しており,2つ目のタグは対象単語のクラスを表す.2つのタグを組み合わせることで誤りタイプを表現する.例えば,動詞置換誤りであれば1つ目のタグが置換のR,2つ目のタグは動詞のV,この2つを組み合わせたRVとして表す.\vspace{1\Cvs}\small\begin{tabbing}\hspace{1zw}\=AGA\hspace{1zw}\=可算名詞による限定詞誤り(wrongDeterminerbecauseofnouncountability)\kill\>\textbf{一般的な誤り(1つ目のタグ)}\\\>F\>語形誤り(wrongFormused)\\\>M\>欠損(somethingMissing)\\\>R\>置換(wordorphraseneedsReplacing)\\\>U\>不必要(wordorphraseisUnnecessary)\\\>D\>派生誤り(wordiswronglyDerived)\\\\\>\textbf{単語クラス(2つ目のタグ)}\\\>A\>照応(Anaphoric)\\\>C\>接続詞(Conjunction)\\\>D\>限定詞(Determiner)\\\>J\>形容詞(Adjective)\\\>N\>名詞(Noun)\\\>Q\>数量詞(Quantifier)\\\>T\>前置詞(Preposition)\\\>V\>動詞(Verb)\\\>Y\>副詞(Adverb)\\\\\>\textbf{記号誤り(誤りの種類+P)}\\\>MP\>記号欠損(punctuationMissing)\\\>MP\>記号置換(punctuationneedsReplacing)\\\>UP\>記号不必要(Unnecessarypunctuation)\\\\\>\textbf{一致誤り(AG+単語クラス)}\\\>AGA\>照応一致誤り(Anaphoricagreementerror)\\\>AGD\>限定詞一致誤り(Determineragreementerror)\\\>AGN\>名詞一致誤り(Nounagreementerror)\\\>AGV\>動詞一致誤り(Verbagreementerror)\\\\\>\textbf{可算名詞誤り(C+単語クラス)}\\\>CN\>可算名詞誤り(countabilityofNounerror)\\\>CQ\>可算名詞による数量詞誤り(wrongQuantifierbecauseofnouncountability)\\\>CD\>可算名詞による限定詞誤り(wrongDeterminerbecauseofnouncountability)\\\\\>\textbf{空似言葉(Falsefriend)(FF+単語クラス)}\\\>\parbox[t]{400pt}{全ての空似言葉はFFでタグ付けされる.必要な単語クラスはA,C,D,J,N,Q,T,VとYのいずれかである.この誤りは空似言葉を扱っていることが確実な場合にのみ使用される.その他の場合は置換Rが使われる.}\\\\\>\textbf{その他の誤り}\\\>AS\>項構造誤り(incorrectArgumentStructure)\\\>CE\>複合誤り(CompoundError)\\\>CL\>コロケーション誤り(CoLlocationerror)\\\>ID\>慣用句誤り(IDiomerror)\\\>IN\>名詞複数形の形成誤り(IncorrectformationofNounplural)\\\>IV\>動詞の不正な活用(IncorrectVerbinflection)\\\>L\>不適切なレジスター(inappropriateregister)\\\>S\>スペリング誤り(Spellingerror)\\\>SA\>アメリカ英語(AmericanSpelling)\\\>SX\>スペル混同誤り(Spellingconfusionerror)\\\>TV\>動詞の時制誤り(wrongTenseofVerb)\\\>W\>語順誤り(incorrectWordorder)\\\>X\>否定形誤り(incorrectformationofnegative)\end{tabbing}\normalsize\vspace{1\Cvs}CNは,学習者が意図された意味で利用できない名詞形を使用したことを表す.例えば,thecountry'snaturalbeautiesやtwotransportsなどである.一方で,可算または不可算に関わらず間違った形が使用された場合,その誤りはFNとする.例えば,vacationとvacationsである.AS(項構造誤り)はMT(前置詞の欠損,例えばheexplainedme)またはUT(不必要な前置詞,例えばhetoldtome)では網羅できない誤りを対象とする.ASは,特に第4文型をとる動詞に対して使用される.例えば,itcausedtroubletomeはitcausedmetroubleと1つの誤りとして訂正する.CE(複合誤り)は,意図した意味が推定できない複数の誤りや単語の集合をカバーする包括的な誤りである.この誤りを用いることで,学習者の誤りに関する有用な情報をほとんど得られない箇所を除外することができる.SX(スペル混同誤り)は,スペルの混同の可能性をカバーする.例えばtoとtoo,theirとthereやweatherとwhetherなどである.\begin{biography}\bioauthor{金子正弘}{2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,首都大学東京システムデザイン研究科博士後期課程に進学.}\bioauthor{堺澤勇也}{2015年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,同大学院システムデザイン研究科博士前期課程に進学.2017年博士前期課程修了.現在株式会社ジャストシステム勤務.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V16N05-02
|
\section{はじめに}
\label{sec:Intro}検索エンジン\textit{ALLTheWeb}\footnote{http://www.alltheweb.com/}において,英語の検索語の約1割が人名を含むという報告\footnote{http://tap.stanford.edu/PeopleSearch.pdf}があるように,人名は検索語として検索エンジンにしばしば入力される.しかし,その検索結果としては,その人名を有する同姓同名人物についてのWebページを含む長いリストが返されるのみである.例えば,ユーザが検索エンジンGoogle\footnote{http://www.google.com/}に``WilliamCohen''という人名を入力すると,その検索結果には,この名前を有する情報科学の教授,アメリカ合衆国の政治家,外科医,歴史家などのWebページが,各人物の実体ごとに分類されておらず,混在している.こうしたWeb検索結果における人名の曖昧性を解消する従来研究の多くは,凝集型クラスタリングを利用している\cite{Mann03},\cite{Pedersen05},\cite{Bekkerman-ICML05},\cite{Bollegala06}.しかし,一般に人名の検索結果では,その上位に,少数の同姓同名だが異なる人物のページが集中する傾向にある.したがって,上位に順位付けされたページを種文書として,クラスタリングを行えば,各人物ごとに検索結果が集まりやすくなり,より正確にクラスタリングができると期待される.以下,本論文では,このような種文書となるWebページを「seedページ」と呼ぶことにする.本研究では,このseedページを用いた半教師有りクラスタリングを,Web検索結果における人名の曖昧性解消のために適用する.これまでの半教師有りクラスタリングの手法は,(1)制約に基づいた手法,(2)距離に基づいた手法,の二つに分類することができる.制約に基づいた手法は,ユーザが付与したラベルや制約を利用し,より正確なクラスタリングを可能にする.例えば,Wagstaffら\cite{Wagstaff00},\cite{Wagstaff01}の半教師有り$K$-meansアルゴリズムでは,``must-link''(2つの事例が同じクラスタに属さなければならない)と,``cannot-link''(2つの事例が異なるクラスタに属さなければならない)という2種類の制約を導入して,データのクラスタリングを行なう.Basuら\cite{Basu02}もまた,ラベルの付与されたデータから初期の種クラスタを生成し,これらの間に制約を導入する半教師有り$K$-meansアルゴリズムを提案している.また,距離に基づいた手法では,教師付きデータとして付与されたラベルや制約を満たすための学習を必要とする.例えば,Kleinら\cite{Klein02}の研究では,類似した2点$(x_{i},x_{j})$間には``0'',類似していない2点間には$(\max_{i,j}D_{ij})+1$と設定した隣接行列を作成して,クラスタリングを行なう.また,Xingら\cite{Xing03}の研究では,特徴空間を変換することで,マハラノビス距離の最適化を行う.さらに,Bar-Hillelら\cite{Bar-Hillel03}の研究では,適切な特徴には大きな重みを,そうでない特徴には小さな重みを与えるRCA(RelevantComponentAnalysis)\cite{Shental02}により,特徴空間を変換する.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑える点において,新規性がある.本論文の構成は次のとおりである.\ref{sec:ProposedMethod}章では,我々の提案する新たな半教師有りクラスタリングの手法について説明する.\ref{sec:Experiments}章では,提案手法を評価するための実験結果を示し,その結果について考察する.最後に\ref{sec:Conclusion}章では,本論文のまとめと今後の課題について述べる.
\section{提案手法}
\label{sec:ProposedMethod}\ref{sec:Intro}章で述べた凝集型クラスタリングに基づいた人名の曖昧性解消は,クラスタリングを適切に導いていく基準がないため,正確なクラスタリングを行うことは難しい.一方,これまでに提案されている半教師有りクラスタリングは,クラスタ数$K$をあらかじめ設定する必要がある$K$-meansアルゴリズム\cite{MacQueen67}を改良することを目的としている.しかし,本研究においては,Web検索結果における同姓同名人物の数は,事前にわかっているわけではない.したがって,我々の手法においては,事前にクラスタ数を設定するのではなく,新たに生成されたクラスタと,すでに生成されているクラスタ間の類似度を計算し,これらの値がすべて,あらかじめ設定した閾値よりも小さくなった場合に,クラスタリングの処理を終え,その時点で生成されているクラスタ数を最終的な同姓同名人物の数とする.また,従来の半教師有りクラスタリングアルゴリズムは,制約を導入したり\cite{Wagstaff00},\cite{Wagstaff01},\cite{Basu02},距離を学習したり\cite{Klein02},\cite{Xing03},\cite{Bar-Hillel03}することにのみ着目していた.しかし,半教師有りクラスタリングにおいて,より正確なクラスタリング結果を得るためには,seedページ間への制約の導入とともに,seedページを含むクラスタの重心の変動の抑制も重要である.これは,(1)seedページを導入して半教師有りクラスタリングを行なう場合,通常の重心の計算法では重心の変動が大きくなる傾向にあり,クラスタリングの基準となるseedページを導入する効果が得られない,(2)重心を完全に固定して半教師有りクラスタリングを行なう場合,その重心と類似度が高いWebページしかマージされなくなり,多数の独立したクラスタが生成されやすくなる,という二つの考えに基づく.したがって,seedページを含むクラスタの重心の変動を抑えることができれば,より適切なクラスタリングが実現できると期待される.本章では,我々の提案する半教師有りクラスタリングの手法について説明する.以下,検索結果集合$W_{p}$中のWebページ$p_{i}$の特徴ベクトル$\boldsymbol{w}^{p_{i}}$$(i=1,\cdots,n)$を式(\ref{Eq:featurevector_org})のように表す.\begin{equation}\boldsymbol{w}^{p_{i}}=(w_{t_{1}}^{p_{i}},w_{t_{2}}^{p_{i}},\cdots,w_{t_{m}}^{p_{i}})\label{Eq:featurevector_org}\end{equation}ここで,$m$は検索結果集合$W_{p}$における単語の異なり数であり,$t_{k}$$(k=1,2,\cdots,m)$は,各単語を表す.予備実験として,(a)TermFrequency(TF),(b)InverseDocumentFrequency(IDF),(c)residualIDF(RIDF),(d)TF-IDF,(e)$x^{I}$-measure,(f)gainの6つの単語重み付け法を比較した.これらの単語重み付け法は,それぞれ,次のように定義される.\clearpage\noindent\textbf{(a)TermFrequency(TF)}TFは,与えられた文書において,ある単語がどれだけ顕著に出現するかを示し,この値が大きければ大きいほど,その単語が文書の内容をよく表現していることを示す.$tf(t_{k},p_{i})$をWebページ$p_{i}$における単語$t_{k}$の頻度とする.このとき,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:tf})によって定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=\frac{tf(t_{k},p_{i})}{\sum_{s=1}^{m}tf(t_{s},p_{i})}\label{eq:tf}\end{eqnarray}\noindent\textbf{(b)InverseDocumentFrequency(IDF)}\cite{Jones73}によって導入されたIDFは,その単語が出現する文書数が少なければ少ないほど,その単語が出現する文書にとっては,有用であることを示すスコアである.このとき,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:idf})によって定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=\log\frac{N}{df(t_{k})}\label{eq:idf}\end{eqnarray}ここで,$N$はWebページの総数,$df(t_{k})$は単語$t_{k}$が現れるWebページ数である.\noindent\textbf{(c)ResidualInverseDocumentFrequency(RIDF)}ChurchandGale\cite{Church95VLC,Church95JNLE}は,ほとんどすべての単語は,ポアッソンモデルのような独立性に基づいたモデルに応じて,非常に大きなIDFスコアを持つことを示した.また,単語の有用性は,推定されるスコアからは大きな偏差を持つ傾向があるという考えに基づいて導入したスコアがresidualIDFである.このスコアは,実際のIDFとポアッソン分布によって推定されるIDFとの差として定義される.$cf_{k}$を文書集合中における単語$t_{k}$の総出現数,$N$をWebページの総数としたとき,1つのWebページあたりの単語$t_{k}$の平均出現数は,$\lambda_{k}=\frac{cf_{k}}{N}$と表される.このとき,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:ridf})によって定義される.\begin{align}w_{t_{k}}^{p_{i}}&=IDF-\log\frac{1}{1-p(0;\lambda_{i})}\nonumber\\&=\log\frac{N}{df(t_{k})}+\log(1-p(0;\lambda_{k}))\label{eq:ridf}\end{align}ここで,$p$は,パラメータ$\lambda_{k}$を伴うポアッソン分布である.この手法は,少数の文書のみに出現する単語は,より大きなRIDFスコアを持つ傾向がある.\noindent\textbf{(d)TF-IDF}TF-IDF法\cite{Salton83}は,文書中の単語を重み付けするために,情報検索の研究において広く使われている.TF-IDFは,上述した(a)TFと(b)IDFに基づいて,式(\ref{eq:tfidf})のように定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=\frac{tf(t_{k},p_{i})}{\sum_{s=1}^{m}tf(t_{s},p_{i})}\cdot\log\frac{N}{df(t_{k})}\label{eq:tfidf}\end{eqnarray}ここで,$tf(t_{k},p_{i})$と$df(t_{k})$は,それぞれ,Webページ$p_{i}$における単語$t_{k}$の頻度と,単語$t_{k}$が出現するWebページ数を表す.また,$N$はWebページの総数である.\noindent\textbf{(e)$x^{I}$-measure}BooksteinandSwanson\cite{Bookstein74}は,単語$t_{k}$に対する$x^{I}$-measureというスコアを導入した.$tf(t_{k},p_{i})$をWebページ$p_{i}$における単語$t_{k}$の頻度,$df(t_{k})$を単語$t_{k}$が現れるWebページ数とすると,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:xI})によって定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=tf(t_{k},p_{i})-df(t_{k})\label{eq:xI}\end{eqnarray}この手法は,同程度の出現頻度である2つの単語のうち,少数の文書に集中して出現する単語ほど,高いスコアを示す.\noindent\textbf{(f)gain}一般に,IDFは単語の重要性を表すと考えられているが,Papineni\cite{Papineni01}は,IDFは単語の特徴を表す最適な重みに過ぎず,単語の重要性とは異なるものであるため,利得を単語の重要性と考え,gainを提案した.本手法では,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:gain})によって定義される.\vspace{-0.5\baselineskip}\begin{eqnarray}w_{t_{k}}^{p_{i}}=\frac{df(t_{k})}{N}\left(\frac{df(t_{k})}{N}-1-\log\frac{df(t_{k})}{N}\right)\label{eq:gain}\end{eqnarray}ここで,$df(t_{k})$は,単語$t_{k}$が現れるWebページ数を,$N$はWebページの総数を示す.本手法では,ほとんど出現しない単語と,非常に頻出する単語は,両方とも低いスコアとなり,中頻度の単語は高いスコアとなる.上述した(a)〜(f)の単語重み付け手法の中で,本研究においては,``(f)gain''が最も効果的な単語の重み付け法であることがわかったため,これを本研究における単語の重み付け法として用いる.さらに,クラスタ$C$の重心ベクトル$\boldsymbol{G}^{C}$を式(\ref{Eq:centroidvector})のように定義する.\begin{eqnarray}\boldsymbol{G}^{C}=(g^{C}_{t_{1}},g^{C}_{t_{2}},\cdots,g^{C}_{t_{m}})\label{Eq:centroidvector}\end{eqnarray}ここで,$g^{C}_{t_{k}}$は$\boldsymbol{G}^{C}$における各単語の重みであり,$t_{k}$$(k=1,2,\cdots,m)$は各単語を表す.なお,以下で述べるクラスタリング手法では,2つのクラスタ$C_{i}$,$C_{j}$間の類似度$sim(C_{i},C_{j})$を,式(\ref{eq:sim})によって計算する.\begin{eqnarray}sim(C_{i},C_{j})=\frac{\boldsymbol{G}^{C_{i}}\cdot\boldsymbol{G}^{C_{j}}}{|\boldsymbol{G}^{C_{i}}|\cdot|\boldsymbol{G}^{C_{j}}|}\label{eq:sim}\end{eqnarray}ただし,$\boldsymbol{G}^{C_{i}}$,$\boldsymbol{G}^{C_{j}}$は,それぞれ,クラスタ$C_{i}$,$C_{j}$の重心ベクトルを表す.\subsection{凝集型クラスタリング}\label{subsec:AggCls}凝集型クラスタリングにおいては,はじめに各Webページを,\pagebreak個々のクラスタとして設定する.次に,二つのクラスタ間の類似度が,あらかじめ設定された閾値より小さくなるまで,類似度が最大となる二つのクラスタをマージして新たなクラスタを生成する.図\ref{Fig:AggClsAlgorithm}に凝集型クラスタリングのアルゴリズムを示す.\begin{figure}[b]\begin{center}\includegraphics{16-4ia3f1.eps}\end{center}\caption{凝集型クラスタリングアルゴリズム}\label{Fig:AggClsAlgorithm}\end{figure}このアルゴリズムでは,あるクラスタ$C_{i}$(要素数$n_{i}$)を最も類似したクラスタ$C_{j}$(要素数$n_{j}$)にマージした後の,新たなクラスタ$C^{new}$の重心ベクトル$\boldsymbol{G}^{new}$は,式(\ref{eq:newagg-centroid})のように定義される.\begin{eqnarray}\boldsymbol{G}^{new}=\frac{\sum_{\boldsymbol{w}^{p}\inC_{i}}\boldsymbol{w}^{p}+\sum_{\boldsymbol{w}^{p}\inC_{j}}\boldsymbol{w}^{p}}{n_{i}+n_{j}}\label{eq:newagg-centroid}\end{eqnarray}\subsection{提案する半教師有りクラスタリング}\label{subsec:SSCls}一般に,seedページを含むクラスタ$C_{s_{j}}$と,seedページを含まないクラスタ$C_{i}$の類似度が大きい場合には,両者を新たなクラスタとしてマージすべきであるが,両者の距離が大きい場合には,通常の重心の計算法では,重心の変動が大きくなる傾向にある.そこで,はじめに,あるクラスタ$C_{i}$(重心ベクトル$\boldsymbol{G}^{C_{i}}$)を,seedページを含むクラスタ$C_{s_{j}}$(重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$)にマージする際,これらのクラスタの重心間の距離$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}})$に基づいて,Webページ$p$の特徴ベクトル$\boldsymbol{w}^{p}\inC_{i}$を重み付けする.次に,この重み付けした特徴ベクトルを用いて重心の計算を行なうことで上述した傾向を防ぎ,重心の変動を抑える.まず,これまでに$k_{j}$個のクラスタがマージされたseedページを含むクラスタ$C_{s_{j}}^{(k_{j})}$(要素数$n_{s_{j}}$)に対して,クラスタ$C_{i}$(要素数$n_{i}$)が$k_{j}+1$回目にマージされるクラスタであるとする.なお,クラスタ$C_{s_{j}}^{(0)}$の要素は,初期のseedページとなる.\noindent\textbf{(1)}この$C_{s_{j}}^{(k_{j})}$にマージされるクラスタ$C_{i}$に含まれる各要素について,$C_{s_{j}}^{(k_{j})}$の重心$\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}}$と,クラスタ$C_{i}$の重心$\boldsymbol{G}^{C_{i}}$間の距離尺度$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})$を用いて,クラスタ$C_{i}$に含まれるWebページの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i}}$$(l=1,\cdots,n_{i})$を重み付けし,その後に生成されるクラスタを$C_{i'}$(要素数$n_{i'}$)とする.このとき,$C_{i'}$の要素となる重み付けした後のWebページの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i'}}$は,式(\ref{eq:TransferedCor})で表される.\begin{eqnarray}\boldsymbol{w}^{p_{l}}_{C_{i'}}=\frac{\boldsymbol{w}^{p_{l}}_{C_{i}}}{D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})+c}\label{eq:TransferedCor}\end{eqnarray}本研究では,$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})$として,(i)ユークリッド距離,(ii)マハラノビス距離,(iii)適応的マハラノビス距離,の三つの距離尺度を比較する.また,$c$は$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})$が0に非常に近い値となったとき,$\boldsymbol{w}^{p}$の各要素が極端に大きな値となることを防ぐために導入した定数である.この$c$の値の影響については,3.3.1節で述べる.\noindent\textbf{(2)}次に,seedページを含むクラスタ$C_{s_{j}}^{(k_{j})}$(要素数$n_{s_{j}}$)に$C_{i'}$(要素数$n_{i'}$)の要素を追加し,クラスタ$C_{s_{j}}^{(k_{j}+1)}$(要素数$n_{s_{j}}+n_{i'}$)を作成する.\[C_{s_{j}}^{(k_{j}+1)}=\{\boldsymbol{w}^{p_{1}}_{C_{s_{j}}^{(k_{j})}},\cdots,\boldsymbol{w}^{p_{{n}_{s_{j}}}}_{C_{s_{j}}^{(k_{j})}},\boldsymbol{w}^{p_{1}}_{C_{i'}},\cdots,\boldsymbol{w}^{p_{n_{{i'}}}}_{C_{i'}}\}\]\noindent\textbf{(3)}このとき,$k_{j}+1$回目のクラスタをマージしたクラスタ$C_{s_{j}}^{(k_{j}+1)}$の重心$\boldsymbol{G}^{C_{s_{j}}^{(k_{j}+1)}}$は,式(\ref{eq:NewG})のように計算される.ここで,式(\ref{eq:TransferedCor})において,マージされるクラスタの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i}}$に重み付けをしているため,重み付き平均の計算となるように,$n_{i'}$にも同様の重みを乗じている.\begin{eqnarray}\boldsymbol{G}^{C_{s_{j}}^{(k_{j}+1)}}=\frac{\sum_{\boldsymbol{w}^{p}\inC_{s_{j}}^{(k_{j}+1)}}\boldsymbol{w}^{p}}{n_{{s_{j}}}+n_{i'}\times\frac{1}{D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})+c}}\label{eq:NewG}\end{eqnarray}このように本研究では,seedページを含むクラスタを重視してクラスタリングの基準を明確にし,正確なクラスタリングを行うことを目的とする.もし,2つのクラスタが種用例を含まないのであれば,新たなクラスタの重心ベクトル$\boldsymbol{G}^{new}$は,式(\ref{eq:newcentroid(agg)})のように計算される.\begin{eqnarray}\boldsymbol{G}^{new}=\frac{\sum_{\boldsymbol{w}^{p}\inC_{i}}\boldsymbol{w}^{p}+\sum_{\boldsymbol{w}^{p}\inC_{j}}\boldsymbol{w}^{p}}{n_{i}+n_{j}}\label{eq:newcentroid(agg)}\end{eqnarray}本研究では,seedページを含むクラスタに,それと最も類似したクラスタをマージする際,seedページを含むクラスタの重心の変動を抑える半教師有りクラスタリングを適用して,Web検索結果における人名の曖昧性を解消する.従来の半教師有りクラスタリングの手法のうち,制約を導入する手法では,クラスタの基準となる重心についての検討は見逃されており,また,距離を学習する手法では,特徴空間が大域的に変換される.一方,我々の手法は,seedページを含むクラスタの重心の変動を抑え,その重心を局所的に調整できる効果が期待される.なお,seedページを導入することで,検索結果を改善することは,適合性フィードバック\cite{Rocchio71}に類似した手法であると考えられる.しかし,適合性フィードバックでは,検索結果中の文書に対して,ユーザが判断した適合文書・非適合文書に基づいた検索語の修正を目的としているのに対し,本手法は,あらかじめ設定したseedページに基づいて,検索結果の改善,特に本研究においては,検索結果のクラスタリング精度の改善を目的としている点が異なる.また,検索結果をクラスタリングする検索エンジンとして,``Clusty''\footnote{http://clusty.com}が挙げられる.しかし,そのクラスタリングされた検索結果には,適合しないWebページが含まれることも多く,クラスタリングを行う上で,何らかの基準が必要である.すなわち,本研究のように,seedページをクラスタリングの基準として導入し,かつ,そのseedページを含むクラスタの重心を抑えることで,その基準を保つような手法が必要であると考えられる.図\ref{Fig:SSClsAlgorithm}に,我々の提案する半教師有りクラスタリングアルゴリズムの詳細を示す.なお,提案する半教師有りクラスタリングでは,対象とするすべてのWebページが,いずれかのseedページを含むクラスタにマージされるのではなく,seedページを含まないクラスタにもマージされることに,注意されたい(図\ref{Fig:SSClsAlgorithm}下から7行目,``elseif''以降参照).\begin{figure}[p]\begin{center}\includegraphics{16-4ia3f2.eps}\end{center}\caption{提案する半教師有りクラスタリングアルゴリズム}\label{Fig:SSClsAlgorithm}\end{figure}ここで,本研究において比較する式(\ref{eq:TransferedCor})直後に述べた(i),(ii),(iii)の3つの距離尺度は,それぞれ,以下のように定義される.\noindent\textbf{(i)ユークリッド距離}式(\ref{eq:TransferedCor})において,ユークリッド距離を導入した場合,seedページを含むクラスタの重心ベクトル$\boldsymbol{G}^{C_{s}}$と,あるクラスタ$C$の重心ベクトル$\boldsymbol{G}^{C}$間の距離$D(\boldsymbol{G}^{C_{s}},\boldsymbol{G}^{C})$は,式(\ref{Eq:centroidvector})に基づいて,式(\ref{Eq:Euclideandisrance})のように定義される.\begin{eqnarray}D(\boldsymbol{G}^{C_{s}},\boldsymbol{G}^{C})=\sqrt{\sum_{k=1}^{m}(g^{C_{s}}_{t_{k}}-g^{C}_{t_{k}})^{2}}\label{Eq:Euclideandisrance}\end{eqnarray}\noindent\textbf{(ii)マハラノビス距離}マハラノビス距離は,データ集合の相関を考慮した尺度であるという点において,ユークリッド距離とは異なる.したがって,ユークリッド距離を用いるよりもマハラノビス距離を用いた方が,クラスタの重心の変動を,より効果的に抑えられることが期待される.式(\ref{eq:TransferedCor})において,マハラノビス距離を導入した場合,seedページを含むクラスタ$C_{s}$の重心ベクトル$\boldsymbol{G}^{C_{s}}$と,あるクラスタ$C$の重心ベクトル$\boldsymbol{G}^{C}$間の距離$D(\boldsymbol{G}^{C_{s}},\boldsymbol{G}^{C})$は,式(\ref{Eq:Mahalanobisdistance})のように定義される.\begin{eqnarray}D(\boldsymbol{G_{C_{(s)}}},\boldsymbol{G_{C}})=\sqrt{(\boldsymbol{G}^{C_{s}}-\boldsymbol{G}^{C})^{T}\boldsymbol{\Sigma}^{-1}(\boldsymbol{G}^{C_{s}}-\boldsymbol{G}^{C})}\label{Eq:Mahalanobisdistance}\end{eqnarray}ここで,$\boldsymbol{\Sigma}$は,seedページを含むクラスタ$C_{s}$の要素によって定義される共分散行列である.すなわち,クラスタ$C_{s}$内の要素を,\[C_{s}=\{\boldsymbol{w}^{p_{1}}_{C_{s}},\boldsymbol{w}^{p_{2}}_{C_{s}},\cdots,\boldsymbol{w}^{p_{m}}_{C_{s}}\}\]と表せば,重心ベクトル$\boldsymbol{G}^{C_{s}}$,\[\boldsymbol{G}^{C_{s}}=\frac{1}{m}\sum_{i=1}^{m}\boldsymbol{w}^{p_{i}}_{C_{s}}\]を用いて,共分散$\Sigma_{ij}$を式(\ref{eq:CovMHD})のように定義することができる.\begin{eqnarray}\Sigma_{ij}=\frac{1}{m}\sum_{i=1}^{m}(\boldsymbol{w}^{p_{i}}_{C_{s}}-\boldsymbol{G}^{C_{s}})(\boldsymbol{w}^{p_{j}}_{C_{s}}-\boldsymbol{G}^{C_{s}})^{T}\label{eq:CovMHD}\end{eqnarray}以上から,共分散行列$\boldsymbol{\Sigma}$は,\[\boldsymbol{\Sigma}=\left[\begin{array}{@{\,}cccc@{\,}}\Sigma_{11}&\Sigma_{12}&\cdots&\Sigma_{1m}\\\Sigma_{21}&\Sigma_{22}&\cdots&\Sigma_{2m}\\\vdots&\vdots&\ddots&\vdots\\\Sigma_{m1}&\Sigma_{m2}&\cdots&\Sigma_{mm}\end{array}\right]\]と表すことができる.\noindent\textbf{(iii)適応的マハラノビス距離}(ii)のマハラノビス距離は,クラスタ内の要素数が少ないときに,共分散が大きくなる傾向がある.そこで,seedページを含むあるクラスタ$C_{s_{j}}$について,このクラスタに含まれるWebページの特徴ベクトル間の非類似度を局所最小化することを考える.この局所最小化で得られる分散共分散行列を用いて計算した$C_{s_{j}}$の重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$と,このクラスタにマージされるクラスタ$C_{l}$の重心ベクトル$\boldsymbol{G}^{C_{l}}$間の距離が,適応的マハラノビス距離\cite{Diday77}である.この分散共分散行列は,次のように導出される.\noindent\textbf{(1)}まず,クラスタ$C_{s_{j}}$において,このクラスタに含まれるWebページの特徴ベクトル$\boldsymbol{w}^{p_{i}}$と,それ以外の特徴ベクトル$\boldsymbol{v}$$(\boldsymbol{w}^{p_{i}}\neq\boldsymbol{v})$との非類似度$d_{s_{j}}(\boldsymbol{w}^{p_{i}},\boldsymbol{v})$を,式(\ref{eq:intra-cls})により定義する.\begin{eqnarray}d_{s_{j}}(\boldsymbol{w}^{p_{i}},\boldsymbol{v})=(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})\label{eq:intra-cls}\end{eqnarray}ただし,$\boldsymbol{M}_{s_{j}}$は$C_{s_{j}}$の分散共分散行列を表す.すなわち,クラスタ$C_{s_{j}}$内の要素を,\[C_{s_{j}}=\{\boldsymbol{w}^{p_{1}}_{C_{s_{j}}},\boldsymbol{w}^{p_{2}}_{C_{s_{j}}},\cdots,\boldsymbol{w}^{p_{m}}_{C_{s_{j}}}\}\]\pagebreakと表せば,重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$,\[\boldsymbol{G}^{C_{s_{j}}}=\frac{1}{m}\sum_{i=1}^{m}\boldsymbol{w}^{p_{i}}_{C_{s_{j}}}\]を用いて,共分散$M_{ij}$を式(\ref{eq:CovAMHD})のように定義することができる.\begin{eqnarray}M_{ij}=\frac{1}{m}\sum_{i=1}^{m}(\boldsymbol{w}^{p_{i}}_{C_{s_{j}}}-\boldsymbol{G}^{C_{s_{j}}})(\boldsymbol{w}^{p_{j}}_{C_{s_{j}}}-\boldsymbol{G}^{C_{s_{j}}})^{T}\label{eq:CovAMHD}\end{eqnarray}以上から,共分散行列$\boldsymbol{M_{s_{j}}}$は,\[\boldsymbol{M_{s_{j}}}=\left[\begin{array}{@{\,}cccc@{\,}}M_{11}&M_{12}&\cdots&M_{1m}\\M_{21}&M_{22}&\cdots&M_{2m}\\\vdots&\vdots&\ddots&\vdots\\M_{m1}&M_{m2}&\cdots&M_{mm}\end{array}\right]\]と表すことができる.\noindent\textbf{(2)}次に,目的関数\begin{align*}\Delta_{s_{j}}(\boldsymbol{v},\boldsymbol{M}_{s_{j}})&=\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}d_{s_{j}}(\boldsymbol{w}^{p_{i}},\boldsymbol{v})\\&=\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})\end{align*}を定義し,これを局所最小化するような$C_{{s}_{j}}$の代表点の特徴ベクトル$\boldsymbol{L}_{s_{j}}$と分散共分散行列$\boldsymbol{S}_{{s}_{j}}$を求める.\noindent(i)まず,クラスタ$C_{s_{j}}$の要素により定義される共分散行列$\boldsymbol{M}_{s_{j}}$を固定し,$\Delta_{s_{j}}$を最小化する$\boldsymbol{L}_{s_{j}}$を求める.\begin{eqnarray}\boldsymbol{L}_{s_{j}}=\arg\min_{\boldsymbol{v}}\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})\label{eq:Lj}\end{eqnarray}式(\ref{eq:Lj})において,クラスタ$C_{s_{j}}$の重心$G$に最も近い点$G'$の特徴ベクトルを$\boldsymbol{v}_{G'}$と表せば,$\boldsymbol{L}_{s_{j}}=\boldsymbol{v}_{G'}$と求めることができる.\noindent(ii)次に,(i)で求めた代表点の特徴ベクトル$\boldsymbol{L}_{s_{j}}=\boldsymbol{v}_{G'}$を固定する.ここで,$det(\boldsymbol{M}_{s_{j}})=1$のもとで,$\Delta_{s_{j}}$を局所最小化する$\boldsymbol{S}_{s_{j}}$を求める.\begin{eqnarray}\boldsymbol{S}_{s_{j}}=\arg\min_{\boldsymbol{M}_{s_{j}}}\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v}_{G'})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v}_{G'})\label{eq:dj}\end{eqnarray}この$\boldsymbol{S}_{s_{j}}$は,クラスタ$C_{s_{j}}$の共分散行列$\boldsymbol{M}_{s_{j}}$を用いて,式(\ref{eq:AdpCov})によって与えられることが,文献\cite{Diday77}により示されている.\pagebreak\begin{eqnarray}\boldsymbol{S}_{s_{j}}=(det(\boldsymbol{M}_{s_{j}}))^{1/m}\boldsymbol{M}_{s_{j}}^{-1}\label{eq:AdpCov}\end{eqnarray}ただし,$det(\boldsymbol{M}_{s_{j}})\neq0$であり,$m$は検索結果集合における単語の異なり数を表す.以上から,seedページを含むあるクラスタ$C_{s_{j}}$において,Webページ間の非類似度を局所最小化することを考慮した分散共分散行列$\boldsymbol{S}_{s_{j}}$を求めることができる.この$\boldsymbol{S}_{s_{j}}$を用いて,$C_{s_{j}}$の重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$と,このクラスタにマージされるべきクラスタ$C_{l}$の重心ベクトル$\boldsymbol{G}^{C_{l}}$間の適応的マハラノビス距離は,式(\ref{Eq:Adapt.Mahalanobisdistance})のように定義される.\begin{eqnarray}D(\boldsymbol{G}^{C_{s_{j}}},\boldsymbol{G}^{C_{l}})=\sqrt{(\boldsymbol{G}^{C_{s_{j}}}-\boldsymbol{G}^{C_{l}})^{T}\boldsymbol{S}_{s_{j}}^{-1}(\boldsymbol{G}^{C_{s_{j}}}-\boldsymbol{G}^{C_{l}})}\label{Eq:Adapt.Mahalanobisdistance}\end{eqnarray}なお,式(\ref{Eq:Adapt.Mahalanobisdistance})は,上述した\textbf{(1)}〜\textbf{(2)}によるクラスタ$C_{s_{j}}$におけるWebページ間の非類似度を考慮して得られた式(\ref{eq:AdpCov})の分散共分散行列$\boldsymbol{S}_{s_{j}}$を適用している点で,式(\ref{Eq:Mahalanobisdistance})とは異なる.
\section{実験}
\label{sec:Experiments}\subsection{実験データ}\label{subsec:ExperimentalData}本研究では,``WebPeopleSearchTask''\cite{Artiles07}において作成された「WePSコーパス」を,実験に用いた.このWePSコーパスは,訓練集合とテスト集合から構成され,それぞれ49,30,合計で79の人名が含まれる.これらは,人名を検索語として,Yahoo!\footnote{http://www.yahoo.com/}の検索APIを通じて得られた上位100件の検索結果から取得されたものである.すなわち,このコーパスは約7,900のWebページから構成される.具体的な統計量を表\ref{tab:WePS-stat}に示す.まず前処理として,このコーパスにおけるすべてのWebページに対して,不要語リスト\footnote{ftp://ftp.cs.cornell.edu/pub/smart/english.stop}に基づいて,不要語を取り除き,PorterStemmer\cite{Porter80}\footnote{http://www.tartarus.org/\~{}martin/PorterStemmer/}を用いて語幹処理を行なった.次に,WePSコーパスの訓練集合を用いて類似したクラスタをマージするための最適なパラメータを決定し,これをWePSコーパスのテスト集合に適用した.\begin{table}[t]\caption{WePSコーパスにおける統計量}\label{tab:WePS-stat}\input{06table01.txt}\end{table}\subsection{評価尺度}\label{subsec:EvaluationMeasure}本研究では,``purity'',``inversepurity''と,これらの調和平均である$F$値\cite{Hotho05}に基づいて,クラスタリングの精度を評価する.これらは,``WebPeopleSearchTask''において採用されている標準的な評価尺度である.以下,生成されたクラスタに割り当てられるべき,人手で定めた正解を「カテゴリ」と呼ぶことにする.``purity''は,各クラスタにおいて最もよく現れるカテゴリの頻度に注目し,ノイズの少ないクラスタを高く評価する.$C$を評価対象となるクラスタの集合,$L$を人手で作成したカテゴリの集合,$n$をクラスタリング対象の文書数とすると,purityは,式(\ref{eq:Purity})に基づいて,最大となる適合率の重み付き平均をとることで計算される.\begin{eqnarray}Purity=\sum_{i}\frac{|C_{i}|}{n}\maxPrecision(C_{i},L_{j})\label{eq:Purity}\end{eqnarray}ここで,あるカテゴリ$L_{j}$に対するクラスタ$C_{i}$の適合率$Precision(C_{i},L_{j})$は,式(\ref{eq:Precision})によって定義される.\begin{eqnarray}Precision(C_{i},L_{j})=\frac{|C_{i}\bigcapL_{j}|}{|C_{i}|}\label{eq:Precision}\end{eqnarray}``inversepurity''は,各カテゴリに対して最大の再現率となるクラスタに着目する.ある一つのクラスタにおいて,各カテゴリで定められた要素を多く含むクラスタを高く評価する.inversepurityは,式(\ref{eq:InvPur})によって定義される.\begin{eqnarray}InversePurity=\sum_{j}\frac{|L_{j}|}{n}\maxRecall(C_{i},L_{j})\label{eq:InvPur}\end{eqnarray}ここで,あるカテゴリ$L_{j}$に対するクラスタ$C_{i}$の再現率$Recall(C_{i},L_{j})$は,式(\ref{eq:Recall})によって定義される.\begin{eqnarray}Recall(C_{i},L_{j})=\frac{|C_{i}\bigcapL_{j}|}{|L_{j}|}\label{eq:Recall}\end{eqnarray}また,purityとinversepurityの調和平均$F$は,式(\ref{eq:F})によって定義される.\begin{eqnarray}F=\frac{1}{\alpha\frac{1}{Purity}+(1-\alpha)\frac{1}{InversePurity}}\label{eq:F}\end{eqnarray}なお,本研究では,$\alpha=0.5$,$0.2$として,評価を行なった.以下,$\alpha=0.5$,$0.2$のときの$F$値を,それぞれ,$F_{0.5}$,$F_{0.2}$と示すことにする.\subsection{実験結果}\label{subsec:ExpResults}我々の提案する半教師有りクラスタリングの手法では,次の2種類のseedページを用いた実験を行なった.\begin{itemize}\item[(a)]Wikipedia\cite{Remy02}における各人物の記事,\item[(b)]Web検索結果において上位に順位付けされたWebページ.\end{itemize}\subsubsection{パラメータ$c$の設定}我々の提案する手法では,seedページを含むクラスタ$C_{s_{j}}$と,それに最も類似したクラスタ$C_{i}$をマージした後の新しいクラスタの重心ベクトルは,\ref{sec:ProposedMethod}章で述べたように,式(\ref{eq:TransferedCor})に基づいてクラスタ$C_{i}$に含まれるWebページの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i}}$$(l=1,\cdots,n_{i})$を重み付けし,この重み付けした特徴ベクトルを用いて,式(\ref{eq:NewG})によって計算される.式(\ref{eq:TransferedCor})における$c$は,$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}})$が0に非常に近い値となったとき,$\boldsymbol{w}^{p}$の各要素が極端に大きな値となることを防ぐために導入した定数であるが,この値によっては,クラスタリングの精度にも影響が及ぶものと考えられる.そこで,WePSコーパスの訓練集合を用いて,上述した2種類のseedページ(a),(b)ともに7個までのseedページを用いた場合について,$0.1\lec\le50$として得られるクラスタリング精度について検証した.ここで,seedページの数を7個までと定めたのは,少数のseedページでの効果を確認するためである.この結果,表\ref{Table:CbyEuclidDistance}〜\ref{Table:CbyAdpMahalanobisDistance}に示す$c$の値のときに,$F_{0.5}$,$F_{0.2}$ともに,最良なクラスタリング精度が得られた.\begin{table}[b]\caption{ユークリッド距離を用いたときの最良なクラスタリング精度を与える$c$の値}\label{Table:CbyEuclidDistance}\input{06table02.txt}\end{table}なお,以下の3.3.3節では,距離尺度,seedページの種類とその数,に応じて,表\ref{Table:CbyEuclidDistance}〜\ref{Table:CbyAdpMahalanobisDistance}に示した$c$の値を,WePSコーパスのテスト集合に適用して得られた実験結果を示している.\begin{table}[t]\caption{マハラノビス距離を用いたときの最良なクラスタリング精度を与える$c$の値}\label{Table:CbyMahalanobisDistance}\input{06table03.txt}\end{table}\begin{table}[t]\caption{適応的マハラノビス距離を用いたときの最良なクラスタリング精度を与える$c$の値}\label{Table:CbyAdpMahalanobisDistance}\input{06table04.txt}\end{table}\subsubsection{文書全体を用いた実験結果}\noindent\textbf{(1)凝集型クラスタリングを用いた実験結果}凝集型クラスタリングによって得られた精度を表\ref{Table:AggCls}に示す.\begin{table}[t]\caption{凝集型クラスタリングを用いて得られたクラスタリング精度}\label{Table:AggCls}\input{06table05.txt}\end{table}\noindent\textbf{(2)半教師有りクラスタリングを用いた実験結果}seedページを導入することによる効果を確かめるため,はじめに一つのseedページを用いて実験を行なった.この際,\ref{subsec:ExpResults}節はじめに述べた2種類のseedページに関して,(a)は検索結果の上位にあるWikipediaの記事を,(b)は第1位に順位付けされたWebページを用いた.しかしながら,\ref{subsec:ExperimentalData}節で述べたWePSコーパスのテスト集合におけるすべての人名が,必ずしもWikipediaに対応する記事を有するわけではない.したがって,ある人名がWikipediaに記事を有するのであれば,これをseedページとして用いた.そうでなければ,Web検索結果において第1位に順位付けされたWebページを用いた.この方針に基づき,WePSコーパスのテスト集合における30の人名のうち,16の人名に対してはWikipediaの記事を,14の人名に対しては第1位に順位付けされたWebページをseedページとして用いた.なお,人名の曖昧性解消にWikipediaを利用した最近の研究として,Bunescu\cite{Bunescu06}らは,Wikipediaの構造を用いることによって固有名を同定するとともに,その固有名の曖昧性を解消している.表\ref{Table:OneSeedSSCls}に,一つのseedページでの半教師有りクラスタリングを用いて得られたクラスタリング精度を示す.\begin{table}[b]\hangcaption{1つのseedページを使い,提案する半教師有りクラスタリングを用いて得られたクラスタリング精度}\label{Table:OneSeedSSCls}\input{06table06.txt}\end{table}さらに,一つのseedページを用いた実験において,最も良い$F$値($F_{0.5}=0.68$,$F_{0.2}=0.66$)が得られた適応的マハラノビス距離に関して,seedページの数を変えることによって,さらなる実験を行なった.3.3.1節でも述べたように,少数のseedページでの効果を確認するために,導入するseedページの数は7個までとした.また,図\ref{Fig:SSClsAlgorithm}に示したように,これらのseedページの間には,``cannot-link''の制約を導入している.これは,上位に順位付けされる検索エンジンの出力結果を信頼し,それぞれのWebページが異なる人物について記述していると想定していることに基づく.図\ref{fig:multipleseeds(Wiki)},\ref{fig:multipleseeds(Web)}は,それぞれ,複数のWikipedia記事,上位7位までに順位付けされたWebページを用いて得られたクラスタリング精度($F$値)を示す.また,この実験では,\ref{sec:ProposedMethod}章で述べたように,seedページを含むクラスタの重心と,それにマージされるクラスタの重心間の距離を考慮する.この提案手法の有効性を確認するために,\ref{sec:Intro}章で述べた距離を学習する半教師有りクラスタリング手法であるKleinら\cite{Klein02},Xingら\cite{Xing03},Bar-Hillelら\cite{Bar-Hillel03}の手法を用いて得られた結果との比較を示す.また,seedページを含むクラスタの重心の変動を抑えることによる効果を確認するために,重心を固定する手法との比較も示す.\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f3.eps}\end{center}\caption{複数のseedページを用いて得られたクラスタリング精度(7つまでのWikipedia記事)}\label{fig:multipleseeds(Wiki)}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f4.eps}\end{center}\hangcaption{複数のseedページを用いて得られたクラスタリング精度(上位7位までに順位付けされたWebページ)}\label{fig:multipleseeds(Web)}\end{figure}\subsubsection{文書を部分的に用いた実験結果}\label{subsec:ExpResults(Fragments)}3.3.2節で述べた実験では,検索結果のWebページとseedページの全文を用いた.しかし,人物について記述されたWebページにおいて,その人物を特徴付ける単語は,人名の周囲にしばしば現れること,また,検索結果のスニペットにおいても,同様の傾向が観察される.そこで,seedページを用いて最も良い結果が得られている場合,すなわち,図\ref{fig:multipleseeds(Wiki)}において,5つのWikipedia記事を用いた場合($F_{0.5}=0.76,F_{0.2}=0.74$)に,さらに精度が改善されるかを確認するために,\begin{itemize}\item[(i)]seedページと検索結果のWebページにおいて,人名前後の単語,および文の数を変化させる,\item[(ii)]検索結果のスニペットを用いる,\end{itemize}実験を行なった.(i)については,まず,WePSコーパスの訓練集合を用いて,最も良い$F$値を与えるseedページと検索結果のWebページのそれぞれにおいて用いる人名前後の単語数,または文数を求める.この結果を図\ref{fig:multipleseeds(Partial)}に示す.次に,これらのパラメータをテスト集合に適用し,評価する.(ii)についても同様に,WePSコーパスの訓練集合を用いて,最も良い$F$値を与えるseedページでの人名前後の単語数,または文数を求める.この結果を図\ref{fig:RsltSnippet}に示す.次に,これらのパラメータをテスト集合に適用し,評価する.最終的に(i),(ii)の実験によって得られたクラスタリング精度を,表\ref{Table:ResultsByOthers}に示す.\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f5.eps}\end{center}\hangcaption{図\ref{fig:multipleseeds(Wiki)}における5つのseedページ(Wikipedia記事)の場合に,seedページと検索結果のWebページで用いる人名前後の単語数と文数を変化させて得られるクラスタリング精度(``w''と``s''は,それぞれ「単語」と「文」を表す)}\label{fig:multipleseeds(Partial)}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f6.eps}\end{center}\hangcaption{図\ref{fig:multipleseeds(Wiki)}における5つのseedページ(Wikipedia記事)の場合に,検索結果のスニペットを用い,seedページ中の人名前後の単語数と文数を変化させて得られるクラスタリング精度(``w''と``s''は,それぞれ「単語」と「文」を表す)}\label{fig:RsltSnippet}\end{figure}\subsubsection{他手法との比較}\label{subsec:ComparisonWithOthers}``WebPeopleSearchTask''における上位3チームのクラスタリング精度($F値$)を,表\ref{Table:ResultsByOthers}に示す.なお,これらのチームで採用している手法の詳細については,表\ref{Table:ResultsByOthers}に示した文献を参照されたい.基本的には,凝集型クラスタリングの手法が採用されている.また,提案手法によって得られた結果も,比較のために示す.\begin{table}[t]\caption{WebPeopleSearchTaskにおける上位3チームと提案手法とのクラスタリング精度の比較}\label{Table:ResultsByOthers}\input{06table07.txt}\end{table}\subsection{処理時間に関する検討}\label{subsec:ProcessingTime}3.3.2節で述べたように,式(\ref{eq:TransferedCor})において,適応的マハラノビス距離を用いて,seedページを含むクラスタにマージされるクラスタに含まれるWebページの特徴ベクトルを重み付けし,この変換された特徴ベクトルを用いて重心の計算を行なった場合に,最良なクラスタリング精度が得られることがわかった.この場合について,7つまでのWikipedia記事,上位7位までに順位付けされたWebページをseedページとして用い,最も処理時間を要すると考えられる3.3.2節の文書全体を用いた場合についての処理時間を測定した.なお,提案手法は,PC(CPU:IntelPentiumM・2.0~GHz,Memory:2~GByte,OS:WindowsXP)上にPerlを用いて実装されている.図\ref{fig:time}に,その結果を示す.\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f7.eps}\end{center}\caption{seedページ数を変化させたときのクラスタリングに要する処理時間}\label{fig:time}\end{figure}\subsection{考察}\label{subsec:Discussion}式(\ref{eq:TransferedCor})における$c$の値について,特徴ベクトルを重み付けする際には,表\ref{Table:CbyEuclidDistance}〜\ref{Table:CbyAdpMahalanobisDistance}から$c=0.95$前後の値を用いたときに,最良なクラスタリング精度が得られることがわかった.なお,$5\lec\le50$の大きな値のときには,それほど高いクラスタリング精度が得られないことも観察された.これは,式(\ref{eq:TransferedCor})において,距離尺度よりも$c$が支配的になることにより,クラスタにマージすべきWebページの特徴ベクトルの各要素の値が小さくなりすぎることによる影響であると考えられる.凝集型クラスタリングの手法においては,表\ref{Table:AggCls}から,purity(0.67)は,inversepurity(0.48)よりも高いことがわかる.このように,purityが高いことは,凝集型クラスタリングが,一つの要素しか含まないクラスタを生成する傾向にあることを示す.また,$F$値が$F_{0.5}$=0.52,$F_{0.2}$=0.49であり,それほど高い精度が得られていないことは,凝集型クラスタリングでは,クラスタリングを適切に行なうことが難しいことを改めて確認できたといえる.\ref{sec:ProposedMethod}章で述べた半教師有りクラスタリングの手法において,表\ref{Table:OneSeedSSCls}からpurityの値(0.47〜0.57)は,表\ref{Table:AggCls}の凝集型クラスタリングを用いて得られたpurityの値(0.67)を上回ることができなかったが,inversepurityの値(0.75〜0.88)は,すべての手法が凝集型クラスタリングの値(0.48)を上回っていることがわかる.また,良好なinversepurityの値によって,$F$値においても,良い結果が得られている.これは,seedページを導入したこと,ならびに,そのseedページを含むクラスタの重心の変動を抑えられたことによる効果であると考えられる.さらに,表\ref{Table:OneSeedSSCls}からは,seedページとしてWikipediaの記事を用い,適応的マハラノビス距離を適用した場合において,最も良い$F$値($F_{0.5}=0.68$,$F_{0.2}=0.66$)が得られたことがわかる.複数のseedページを用いた半教師有りクラスタリング手法においては,図\ref{fig:multipleseeds(Wiki)},\ref{fig:multipleseeds(Web)}から,次の内容が観察される.まず,いずれのseedページを用いても,また,いずれの手法においても,導入する種文書数の増加とともに,クラスタリング精度($F$値)が改善されている.seedページの数について,7個まで導入したが,いずれのseedページとも5個の時点でのクラスタリング精度が最も良いことが観察される.さらに,重心を固定する方法は,他の手法に比べて非常に精度が劣る結果となった.これは,重心を完全に固定してしまうと,その重心と類似度が高いWebページしかマージされなくなるため,本来クラスタにマージされるべきWebページが独立したクラスタとなってしまうことが原因であると考えられる.この実験においては,高いpurityの値が得られていたことからも,上述した原因が裏付けられるといえる.一方,距離を学習するクラスタリング手法では,Bar-Hillelら\cite{Bar-Hillel03},Xingら\cite{Xing03},Kleinら\cite{Klein02}の手法の順に良いクラスタリング精度が得られている.\ref{sec:Intro}章で述べたように,Kleinらの手法では,類似した2点($x_{i},x_{j}$)間を0,類似していない2点間を($\max_{i,j}D_{ij}$)+1と設定した単純な隣接行列を作成した上で,クラスタリングを行なうのに対し,Xingら,Bar-Hillelらの方法では,特徴空間を適切に変換する手法が用いられている.後者の二つの手法では,この変換手法が有効に作用しているものと考えられる.しかし,これらの距離を学習する手法と比較しても,重心の変動を抑えたクラスタリングを行なう我々の提案手法が,最も良いクラスタリング精度を示した.これは,あるクラスタをseedページを含むクラスタにマージするたびに,そのseedページを含むクラスタの重心を局所的に調整できることによる効果であると考えられる.さらに,seedページについては,Wikipediaにおける各人物の記事を用いたほうが,Web検索結果の上位に順位付けされたWebページを用いるよりも良い精度が得られた.これは,クラスタリングのためのseedページとして,Wikipediaの記述内容を用いることが有効であることを示す事例であると考えられる.また,文書を部分的に用いた場合には,以下に述べるような傾向が観察される.まず,WePSコーパスの訓練集合において,3.3.3節(i)で述べたように,seedページ,および検索結果のWebページ中の人名前後の単語数または文数を変化させた場合,図\ref{fig:multipleseeds(Partial)}から,検索結果のWebページに関して,単語よりも文を用いることで,より良いクラスタリング精度が得られることが観察される.これは,人名前後の数語のみでは,人物の実体を識別することは難しいが,人名前後の数文を用いることで,その人物を特徴付ける情報を獲得でき,人物の実体を識別しやすくなったことによる効果であると考えられる.また,図\ref{fig:multipleseeds(Partial)}からは,seedページ,検索結果のWebページについて,それぞれ,人名前後の2文,3文を用いた場合に最も良い$F$値($F_{0.5}=0.79$,$F_{0.2}=0.80$)が得られることがわかった.これらの文数をWePSコーパスのテスト集合に適用した場合,[purity:0.80,inversepurity:0.83,$F_{0.5}=0.81$,$F_{0.2}=0.82$]の結果が得られた.特に$F$値は,$\alpha=0.5$のとき,表\ref{Table:ResultsByOthers}に示した``WebPeopleSearchTask''\cite{Artiles07}の第1位のチーム(CU\_COMSEM)の結果を0.03上回り,提案手法が有効であることが確認される.なお,3.3.2節(2)で述べたように,Wikipediaに記事のある16人名のうち,Wikipediaから取得した人名数は10(表\ref{tab:WePS-stat}参照,以下(A)とする),ACL'06参加者リスト,アメリカ合衆国・国勢調査の人名のうち,Wikipediaにも記事のある人名数は6(表\ref{tab:WePS-stat}参照,以下(B)とする)である.これらの人名について,Wikipediaをseedページとしてクラスタリングした場合に,その精度に差があるか否かを検証した.その結果を表\ref{Table:WikiDetail}に示す.(A)の方が(B)よりも,0.02〜0.04上回る結果が得られているが,それほど大きな差ではない.このことから,seedページとしてWikipediaの記述内容を用いることは,(B)のように他分野から取得した人物のWebページに対しても有効であり,Wikipediaの記述内容の汎用性が特徴付けられる結果であると考えられる.また,クラスタ数については,seedページを導入したことで,このseedページを中心に,Webページのグループが形成され,実際の正解クラスタ数よりも少ない数のクラスタが生成される傾向が観察された.これは,表\ref{Table:ResultsByOthers}において,inversepurityの値が高いことからも裏付けられる.\begin{table}[b]\hangcaption{Wikipediaをseedページとした場合,(A)Wikipediaから取得した10人名と,(B)Wikipediaに記事はあるが,ACL'06参加者リスト,アメリカ合衆国・国勢調査から取得した6人名のクラスタリング精度の比較}\label{Table:WikiDetail}\input{06table08.txt}\end{table}\begin{table}[b]\hangcaption{``WebPeopleSearchTask''の上位3チームが使用した素性を,提案する半教師有りクラスタリングに適用して得られたクラスタリング精度}\label{Table:ClsRsltsbyWePSFeat}\input{06table09.txt}\end{table}なお,``WebPeopleSearchTask''の上位3チームは,凝集型クラスタリングの手法を採用しているが,これらの手法は素性を工夫することで,比較的高い精度を得ている.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑えることで,表\ref{Table:AggCls}に示した凝集型クラスタリングよりも精度が改善されている.我々が導入した素性は,\ref{sec:ProposedMethod}章で述べたように,gainによって単語を重み付けする簡単なものであるが,``WebPeopleSearchTask''の上位3チームが使用した素性を我々の手法に適用すれば,さらなる精度の向上が期待される.そこで,これらの3チームの素性を,我々の手法で用いた結果を表\ref{Table:ClsRsltsbyWePSFeat}に示す.なお,表\ref{Table:ResultsByOthers}に示した我々の提案手法で得られた最良の結果と比較するため,seedページとしてWikipediaにおける各人物の記事を5つ導入した場合についての比較を行った.まず,CU\_COMSEMについて,表\ref{Table:ResultsByOthers}に示した凝集型クラスタリングの$F$値($F_{0.5}=0.78$,$F_{0.2}=0.83$)と比較して,半教師有りクラスタリングの$F$値も高め($F_{0.5}=0.81$,$F_{0.2}=0.84$)となっている.しかし,$F_{0.5}$で0.03,$F_{0.2}$で0.01程度の改善に過ぎない.これは,文中の単語,URLのトークン,名詞句など,すでに多くの素性を導入しているため,半教師有りクラスタリングを適用しても,それほど効果は得られないことによると考えられる.IRST-BPについては,表\ref{Table:ResultsByOthers}に示した凝集型クラスタリングの$F$値($F_{0.5}=0.75$,$F_{0.2}=0.77$)と比較しても,半教師有りクラスタリングの精度は($F_{0.5}=0.76$,$F_{0.2}=0.81$)であり,改善の程度は$F_{0.5}$で0.01,$F_{0.2}$で0.04であった.このチームが使用している固有名詞,時制表現,人名のある段落で最も良く出現する単語といった素性は,あまり有効な素性ではないと考えられる.PSNUSについては,NE素性をTF-IDFで重み付けしたのみの単純な素性であるが,表\ref{Table:ResultsByOthers}に示した凝集型クラスタリングの$F$値($F_{0.5}=0.75$,$F_{0.2}=0.78$)と比較して,半教師有りクラスタリングで得られた$F$値は$F_{0.5}=0.78$,$F_{0.2}=0.82$であり,$F_{0.5}$で0.03,$F_{0.2}$で0.04の改善が観察される.一方,我々の手法では素性としてgainを用い,表\ref{Table:ResultsByOthers}に示したとおり,$F_{0.5}=0.81$,$F_{0.2}=0.82$の$F$値を得ている.これは,CU\_COMSEMで使用されている多数の素性で得られた$F$値とほぼ同じ値が得られていることから,gainによって単純にWebページ中の単語を重み付けした素性だけでも,我々の提案する半教師有りクラスタリングを適用することで,高い精度が得られることが確認された.また,表\ref{Table:AggCls}に示した凝集型クラスタリングによる$F$値($F_{0.5}=0.52$,$F_{0.2}=0.49$)と比較しても,$F_{0.5}$で0.29,$F_{0.2}$で0.33の改善が観察されたことから,我々の提案する半教師有りクラスタリングの有効性が確認される.次に,WePSコーパスの訓練集合において,3.3.3節(ii)で述べたように,検索結果のスニペットを用い,seedページ中の人名前後の単語数または文数を変化させた場合,図\ref{fig:RsltSnippet}から,seedページ中の人名前後の単語ではなく,同様に文を用いたときに,より良いクラスタリング精度が得られることが観察される.この場合も同様に,人名前後の数語の情報よりも,人名前後の数文を用いることで,その人物を特徴付ける情報が獲得でき,人物の実体が識別しやすくなった効果によるものと考えられる.また,図\ref{fig:RsltSnippet}からは,seedページについて,人名前後の3文を用いた場合に最も良い$F$値($F_{0.5}=0.64$,$F_{0.2}=0.67$)が得られることがわかった.この文数をWePSコーパスのテスト集合に適用した場合,[purity:0.70,inversepurity:0.62,$F_{0.5}=0.66$,$F_{0.2}=0.68$]の結果が得られた.この結果は,WebPeopleSearchTaskの上位3チームの結果,および本研究における他の実験結果と比較して,かなり劣っている.これは,スニペットのような数語程度の情報だけでは,seedページで人名前後の3文という情報を用いたとしても,該当する人物について述べた適切なWebページが,そのseedページには集まらず,結果として,クラスタリング精度が悪くなったことによるためであると考えられる.以上から,提案手法ではWikipediaの記事をseedページとして利用し,人名前後の2文を,また,検索結果のWebページについては人名前後の3文を用いた場合に,良好な検索結果が得られることがわかった.さらに,処理時間に関して,最良なクラスタリング精度が得られた適応的マハラノビス距離の式(\ref{Eq:Adapt.Mahalanobisdistance})における分散共分散行列の計算には,単語数の2乗の計算量が必要となるが,1人名について100件のWebページのクラスタリングを行なうのに,最も多い5つのseedページを用い,seedページと検索結果のWebページの双方ともに文書全体を用いた場合でも,0.8秒余りで処理できることが図\ref{fig:time}から観察され,妥当な応答性を実現できていると考えられる.
\section{むすび}
\label{sec:Conclusion}本論文では,Web検索結果における人名の曖昧性を解消するため,seedページを含むクラスタの重心の変動を抑える半教師有りクラスタリングの手法を提案した.実験の結果,最良な場合において,[purity:0.80,inversepurity:0.83,$F_{0.5}$:0.81,$F_{0.2}$:0.82]の評価値が得られた.今回は,上位に順位付けされる検索エンジンの出力結果が異なることを想定して実験を行った.すなわち,同一人物のseedページ間にも``cannot-link''の制約が導入されている可能性がある.しかし,クラスタが生成される過程で,seedページ以外の人物のページがクラスタ内の要素として支配的になり,最終的には比較的正確なクラスタが生成されることが観察された.同一人物のseedページ間でも,その人物を正確に表現しているページ,そうでないページがあることによるためであると考えられる.したがって,その人物についてより正確に記述されたWebページをseedページとして選択することが,今後の課題の一つとして挙げられる.また,Web検索結果における人名の曖昧性解消の精度を高めるには,その人物を特徴付ける単語の重みが大きくなるように,Webページの特徴ベクトルを作成して,クラスタリングを行なうことが重要である.そのために,特に,seedページの内容に適合する人物のページが集まるように,より的確なseedページの特徴ベクトルを作成するための手法を開発してクラスタリングを行なうことも,今後の課題として挙げられる.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Artiles,Gonzalo,\BBA\Sekine}{Artileset~al.}{2007}]{Artiles07}Artiles,J.,Gonzalo,J.,\BBA\Sekine,S.\BBOP2007\BBCP.\newblock\BBOQTheSemEval-2007WePSEvaluation:EstablishingaBenchmarkfortheWebPeopleSearchTask.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\64--69}.\bibitem[\protect\BCAY{Bar-Hillel,Hertz,\BBA\Shental}{Bar-Hillelet~al.}{2003}]{Bar-Hillel03}Bar-Hillel,A.,Hertz,T.,\BBA\Shental,N.\BBOP2003\BBCP.\newblock\BBOQLearningDistanceFunctionsUsingEquivalenceRelations.\BBCQ\\newblockIn{\BemProc.ofthe20thInternationalConferenceonMachineLearning(ICML2003)},\mbox{\BPGS\577--584}.\bibitem[\protect\BCAY{Basu,Banerjee,\BBA\Mooney}{Basuet~al.}{2002}]{Basu02}Basu,S.,Banerjee,A.,\BBA\Mooney,R.\BBOP2002\BBCP.\newblock\BBOQSemi-supervisedClusteringbySeeding.\BBCQ\\newblockIn{\BemProc.ofthe19thInternationalConferenceonMachineLearning(ICML2002)},\mbox{\BPGS\27--34}.\bibitem[\protect\BCAY{Bekkerman,El-Yaniv,\BBA\McCallum}{Bekkermanet~al.}{2005}]{Bekkerman-ICML05}Bekkerman,R.,El-Yaniv,R.,\BBA\McCallum,A.\BBOP2005\BBCP.\newblock\BBOQMulti-wayDistributionalClusteringviaPairwiseInteractions.\BBCQ\\newblockIn{\BemProc.ofthe22ndInternationalConferenceonMachineLearning(ICML2005)},\mbox{\BPGS\41--48}.\bibitem[\protect\BCAY{Bollegala,Matsuo,\BBA\Ishizuka}{Bollegalaet~al.}{2006}]{Bollegala06}Bollegala,D.,Matsuo,Y.,\BBA\Ishizuka,M.\BBOP2006\BBCP.\newblock\BBOQExtractingKeyPhrasestoDisambiguatePersonalNamesontheWeb.\BBCQ\\newblockIn{\BemProc.ofthe7thInternationalConferenceonComputationalLinguisticsandIntelligentTextProcessing(CICLing2006)},\mbox{\BPGS\223--234}.\bibitem[\protect\BCAY{Bookstein\BBA\Swanson}{Bookstein\BBA\Swanson}{1974}]{Bookstein74}Bookstein,A.\BBACOMMA\\BBA\Swanson,D.~R.\BBOP1974\BBCP.\newblock\BBOQProbabilisticModelsforAutomaticIndexing.\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScience},{\Bbf25}(5),\mbox{\BPGS\312--318}.\bibitem[\protect\BCAY{Bunescu\BBA\Pasca}{Bunescu\BBA\Pasca}{2006}]{Bunescu06}Bunescu,R.\BBACOMMA\\BBA\Pasca,M.\BBOP2006\BBCP.\newblock\BBOQUsingEncyclopedicKnowledgeforNamedEntityDisambiguation.\BBCQ\\newblockIn{\BemProc.ofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2006)},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Chen\BBA\Martin}{Chen\BBA\Martin}{2007}]{Chen07}Chen,Y.\BBACOMMA\\BBA\Martin,J.\BBOP2007\BBCP.\newblock\BBOQCU-COMSEM:ExploringRichFeaturesforUnsupervisedWebPersonalNameDisambiguation.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\125--128}.\bibitem[\protect\BCAY{Church\BBA\Gale}{Church\BBA\Gale}{1995a}]{Church95VLC}Church,K.~W.\BBACOMMA\\BBA\Gale,W.~A.\BBOP1995a\BBCP.\newblock\BBOQInverseDocumentFrequency(IDF):AMeasureofDeviationfromPoisson.\BBCQ\\newblockIn{\BemProc.ofthe3rdWorkshoponVeryLargeCorpora},\mbox{\BPGS\121--130}.\bibitem[\protect\BCAY{Church\BBA\Gale}{Church\BBA\Gale}{1995b}]{Church95JNLE}Church,K.~W.\BBACOMMA\\BBA\Gale,W.~A.\BBOP1995b\BBCP.\newblock\BBOQPoissonMixtures.\BBCQ\\newblock{\BemJournalofNaturalLanguageEngineering},{\Bbf1}(2),\mbox{\BPGS\163--190}.\bibitem[\protect\BCAY{Diday\BBA\Govaert}{Diday\BBA\Govaert}{1977}]{Diday77}Diday,E.\BBACOMMA\\BBA\Govaert,G.\BBOP1977\BBCP.\newblock\BBOQClassificationAutomatiqueAvecDistancesAdaptatives.\BBCQ\\newblock{\BemR.A.I.R.O.InformatiqueComputerScience},{\Bbf11}(4),\mbox{\BPGS\329--349}.\bibitem[\protect\BCAY{Elmacioglu,Tan,Yan,Kan,\BBA\Lee}{Elmaciogluet~al.}{2007}]{Elmacioglu07}Elmacioglu,E.,Tan,Y.~F.,Yan,S.,Kan,M.-Y.,\BBA\Lee,D.\BBOP2007\BBCP.\newblock\BBOQPSNUS:WebPeopleNameDisambiguationbySimpleClusteringwithRichFeatures.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\268--271}.\bibitem[\protect\BCAY{Hotho,N{\"{u}}rnberger,\BBA\Paa\ss}{Hothoet~al.}{2005}]{Hotho05}Hotho,A.,N{\"{u}}rnberger,A.,\BBA\Paa\ss,G.\BBOP2005\BBCP.\newblock\BBOQABriefSurveyofTextMining.\BBCQ\\newblock{\BemGLDV-JournalforComputationalLinguisticsandLanguageTechnology},{\Bbf20}(1),\mbox{\BPGS\19--62}.\bibitem[\protect\BCAY{Jones}{Jones}{1973}]{Jones73}Jones,K.~S.\BBOP1973\BBCP.\newblock\BBOQIndexTermWeighting.\BBCQ\\newblock{\BemInformationStrageandRetrieval},{\Bbf9}(11),\mbox{\BPGS\619--633}.\bibitem[\protect\BCAY{Klein,Kamvar,\BBA\Manning}{Kleinet~al.}{2002}]{Klein02}Klein,D.,Kamvar,S.~D.,\BBA\Manning,C.~D.\BBOP2002\BBCP.\newblock\BBOQFromInstance-levelConstraintstoSpace-levelConstraints:MakingtheMostofPriorKnowledgeinDataClustering.\BBCQ\\newblockIn{\BemProc.ofthe19thInternationalConferenceonMachineLearning(ICML2002)},\mbox{\BPGS\307--314}.\bibitem[\protect\BCAY{MacQueen}{MacQueen}{1967}]{MacQueen67}MacQueen,J.\BBOP1967\BBCP.\newblock\BBOQSomeMethodsforClassificationandAnalysisofMultivariateObservations.\BBCQ\\newblockIn{\BemProc.ofthe5thBerkeleySymposiumonMathmaticalStatisticsandProbability},\mbox{\BPGS\281--297}.\bibitem[\protect\BCAY{Mann\BBA\Yarowsky}{Mann\BBA\Yarowsky}{2003}]{Mann03}Mann,G.~S.\BBACOMMA\\BBA\Yarowsky,D.\BBOP2003\BBCP.\newblock\BBOQUnsupervisedPersonalNameDisambiguation.\BBCQ\\newblockIn{\BemProc.ofthe7thConferenceonNaturalLanguageLearning(CoNLL-2003)},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{Papineni}{Papineni}{2001}]{Papineni01}Papineni,K.\BBOP2001\BBCP.\newblock\BBOQWhyInverseDocumentFrequency?\BBCQ\\newblockIn{\BemProc.ofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL2001)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Pedersen,Purandare,\BBA\Kulkarni}{Pedersenet~al.}{2005}]{Pedersen05}Pedersen,T.,Purandare,A.,\BBA\Kulkarni,A.\BBOP2005\BBCP.\newblock\BBOQNameDiscriminationbyClusteringSimilarContexts.\BBCQ\\newblockIn{\BemProc.ofthe6thInternationalConferenceonComputationalLinguisticsandIntelligentTextProcessing(CICLing~2005)},\mbox{\BPGS\226--237}.\bibitem[\protect\BCAY{Popescu\BBA\Magnini}{Popescu\BBA\Magnini}{2007}]{Popescu07}Popescu,O.\BBACOMMA\\BBA\Magnini,B.\BBOP2007\BBCP.\newblock\BBOQIRST-BP:WebPeopleSearchUsingNameEntities.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\195--198}.\bibitem[\protect\BCAY{Porter}{Porter}{1980}]{Porter80}Porter,M.~F.\BBOP1980\BBCP.\newblock\BBOQAnAlgorithmforSuffixStripping.\BBCQ\\newblock{\BemProgram},{\Bbf14}(3),\mbox{\BPGS\130--137}.\bibitem[\protect\BCAY{Remy}{Remy}{2002}]{Remy02}Remy,M.\BBOP2002\BBCP.\newblock\BBOQWikipedia:TheFreeEncyclopedia.\BBCQ\\newblock{\BemOnlineInformationReview},{\Bbf26}(6),\mbox{\BPG\434}.\bibitem[\protect\BCAY{Rocchio}{Rocchio}{1971}]{Rocchio71}Rocchio,J.\BBOP1971\BBCP.\newblock\BBOQRelevanceFeedbackinInformationRetrieval.\BBCQ\\newblockInSalton,G.\BED,{\BemTheSmartRetrievalSystem:ExperimentsinAutomaticDocumentProcessing},\mbox{\BPGS\313--323}.Prentice-Hall,EnglewoodCliffs,NJ.\bibitem[\protect\BCAY{Salton\BBA\McGill}{Salton\BBA\McGill}{1983}]{Salton83}Salton,G.\BBACOMMA\\BBA\McGill,M.~J.\BBOP1983\BBCP.\newblock{\BemIntroductiontoModernInformationRetrieval}.\newblockMcGraw-Hill.\bibitem[\protect\BCAY{Shental,Hertz,Weinshall,\BBA\Pavel}{Shentalet~al.}{2002}]{Shental02}Shental,N.,Hertz,T.,Weinshall,D.,\BBA\Pavel,M.\BBOP2002\BBCP.\newblock\BBOQAdjustmentLearningandRelevantComponentAnalysis.\BBCQ\\newblockIn{\BemProc.ofthe7thEuropeanConferenceonComputerVision(ECCV2002)},\mbox{\BPGS\776--792}.\bibitem[\protect\BCAY{Wagstaff\BBA\Cardie}{Wagstaff\BBA\Cardie}{2000}]{Wagstaff00}Wagstaff,K.\BBACOMMA\\BBA\Cardie,C.\BBOP2000\BBCP.\newblock\BBOQClusteringwithInstance-levelConstraints.\BBCQ\\newblockIn{\BemProc.ofthe17thInternationalConferenceonMachineLearning(ICML2000)},\mbox{\BPGS\1103--1110}.\bibitem[\protect\BCAY{Wagstaff,Rogers,\BBA\Schroedl}{Wagstaffet~al.}{2001}]{Wagstaff01}Wagstaff,K.,Rogers,S.,\BBA\Schroedl,S.\BBOP2001\BBCP.\newblock\BBOQConstrainedK-meansClusteringwithBackgroundKnowledge.\BBCQ\\newblockIn{\BemProc.ofthe18thInternationalConferenceonMachineLearning(ICML2001)},\mbox{\BPGS\577--584}.\bibitem[\protect\BCAY{Xing,Ng,Jordan,\BBA\Russell}{Xinget~al.}{2003}]{Xing03}Xing,E.~P.,Ng,A.~Y.,Jordan,M.~I.,\BBA\Russell,S.~J.\BBOP2003\BBCP.\newblock\BBOQDistanceMetricLearningwithApplicationtoClusteringwithSide-Information.\BBCQ\\newblock{\BemAdvancesinNeuralInformationProcessingSystems},{\Bbf15},\mbox{\BPGS\521--528}.\end{thebibliography}\begin{biography}\bioauthor{杉山一成}{1998年横浜国立大学工学部電子情報工学科卒業.2000年同大学院工学研究科電子情報工学専攻博士前期課程修了.KDDI(株)勤務を経て,2004年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了,博士(工学).(株)日立製作所勤務を経て,2006年東京工業大学精密工学研究所研究員,2009年シンガポール国立大学計算機科学科研究員,現在に至る.情報検索,自然言語処理に関する研究に従事.電子情報通信学会,情報処理学会,人工知能学会,IEEE,ACM,AAAI各会員.}\bioauthor{奥村学}{1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.工学博士.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,認知科学会,計量国語学会,AAAI,ACL各会員.}\end{biography}\biodate\end{document}
| |
V09N05-06
|
\section{はじめに}
「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.言語学の角度から,この種類の品詞の意味,構文の特徴について,~\cite{teramura91,kinsui00,okutsu86,miyajima95}などの全般的な分析がある.また,日中両言語の対照の角度から,文献~\cite{wu87,ohkouchi77,yamanaka85}のような,個別のとりたて詞に関する分析もある.しかしながら,日中機械翻訳の角度からは,格助詞を対象とする研究はあるが~\cite{ren91a},とりたて詞に関する研究は,見当たらない.とりたて詞は,その意味上と構文上の多様さのために,更には中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,取立て表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文は,言語学の側の文献を参考にしながらとりたて詞に関する日中機械翻訳の方法について考察したものである.すなわち,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴によってとりたて詞の意味の曖昧さを解消する方法を示し,さらに同じ意味的な用法でも,対応する中訳語が状況により異なる可能性があることを考慮し,中国語側で取り立てられる部分の統語的,意味的な特徴及び関係する構文特徴によって,訳語を特定するための意味解析を行った.また,とりたて詞に対応する中訳語の位置を,その訳語の文法上の位置の約束と,取り立てられる部分の構文上の成分などから特定する規則を提案した.また,これらの翻訳規則を手作業により評価した.なお,本論文では,とりたて詞として,文献~\cite{kinsui00}が挙げている「も,でも,すら,さえ,まで,だって,だけ,のみ,ばかり,しか,こそ,など,なんか,なんて,なんぞ,くらい,は」の17個のうちの「も」,「さえ」,「でも」の三つを検討の対象とした.論文の構成は次の通りである.第2章ではとりたて表現の特徴と中国語との対応関係を述べ,第3章ではとりたて表現の中国語への翻訳方式とその方式の構成の主要な内容---意味解析と語順規則を説明する.第4章では,「さえ」,「も」,「でも」の翻訳の手順を例文を用いて示す.第5章では,手作業による翻訳の評価実験と問題点の分析について述べ,第6章では論文のまとめを述べる.
\section{とりたて表現の特徴と中国語との対応関係}
\subsection{日本語のとりたて詞ととりたて表現}意味から見ると,とりたて詞は「文中のさまざまな要素を取り立て,これとこれに対する他者との関係を示す」作用を持つ助詞である.その「他者」は常に暗示されて,文の表に出てこない.文脈や,社会知識により,とりたて詞に取り立てられる部分(自者)を通して,暗示されている「他者」を推測でき,更にこの「両者」の関係を理解するのである.この「両者の関係」は場合によって,「他者への肯定,全面的な肯定(否定),強調,制限,譲歩,意外性,例示」などのさまざまな意味が現れてくる.例えば:\begin{enumerates}\item先生\underlines{も}今日のパーティに出席した.\item戦争中,16歳の子供\underlines{も}(\underlines{でも}\,)徴兵された.\itemご飯\underlines{さえ}食べられれば満足だ.\item誰\underlines{も}私の話を聞いてくれない.\itemここから駅まで30分\underlines{も}あれば足りる.\end{enumerates}上記の例文の下線部がとりたて詞である.意味から見ると:(1)では,「先生」はパーティに出席したが,「先生」以外の人もパーティに出席したと暗示されている.(2)では,16歳の子供が徴兵されるのは普通の世界では道理に合わないため,そのことに対する「意外」の意味を表す.(3)番では,「ご飯」を食べることは満足の十分な条件で,ほかのものはいらないという「最低限の十分条件」を示す.とりたて詞のこのような意味上の多様性は,「が,を」のような格助詞の「格関係的意味」とは異質のものであり,また名詞や動詞が表現する「明示的なこと的意味」とも異なる.文の表に表現されている意味より,とりたて詞によって暗示されている意味の方が主目的であると考えられる.とりたて詞が全体として多様な意味を持っているばかりでなく,1つのとりたて詞も一般に複数の意味用法を持っている.例えば,「も」には,(1)の「他者への肯定」,(2)の「意外性」,(4)の「全面的な否定」,(5)の「数量に対する評価」など多くの意味がある.とりたて詞の意味解釈にはなおもう一つ特徴がある.それは話し手がどのように状況を認識するか,社会常識ではどのように理解されるのかによって,文の意味解釈が定まる場合があるということである.これがいわゆるとりたて詞の語用論的意味あるいは性質である.たとえば,例(2)の「も」の「意外性の意味」を理解するには,「16歳の子供を兵士にするのは常理には合わない」という社会常識が必要である.構文上の特徴から見ると,とりたて詞は,名詞ないし形式名詞とのみ共起する格助詞と違って,さまざまの品詞と共起できる.下記の例では,(6)(7)では述部の真中に,(8)では格助詞の直後に,(9)では副詞の直後に現れている.\begin{enumerates}\setcounter{enumi}{5}\item親子の子は私の言うことを疑って\underlines{でも}いるようだ.\item彼女はその手紙を見\underlines{も}しなかった.\itemあの若い女優は外国に\underlines{まで}有名になった.\itemもっとゆっくり\underlines{でも}間に合う.\end{enumerates}更に,とりたて詞によっては,同じ成分においても,名詞の直後か,名詞+格助詞の後か,或は名詞と格助詞の真中か,動詞の連用形か「て形」か,などまちまちである.\subsection{取立て表現の中国語との対応関係}孤立語とされる中国語には,意味上から見ると,たいていとりたて詞と同じ意味を持つ表現があるが,直接的に対応する品詞は無く,副詞,介詞,連詞など様々の品詞を用いた表現に翻訳することになる.日本語側で1つのとりたて詞は複数の意味をもつ場合があるが,中国語では,意味が違えば異なる訳語に対応する場合もあるし,また同様な意味も異なる訳語で表す場合もある.また日本語側で同じ意味を異なるとりたて詞で表現できる場合があるが,中国語ではそれらが1つの訳語に対応できる場合もある.また,訳語が訳文の構造に依存して決まる場合もある.訳語の訳文での位置は関連する統語上の成分に依存して決まるが,日本語側の位置とは必ずしも対応しない場合がある.以下に「さえ」と「も」を例として,対応する中国語の訳語,訳語の品詞及び位置などを示す.\vspace{1em}\noindentさえ:\begin{enumerates}\setcounter{enumi}{9}\item戦争の時期,お粥\underlines{さえ}食べられなかった.\begin{flushright}(意外性の意味,目的語の後)\end{flushright}訳文:\kanji{a}争\kanji{b}期,\underlines{\kanji{c}}粥\underlines{都}吃不上.\begin{flushright}(介詞+副詞,前置賓語の前)\end{flushright}\item彼は授業中に寝て\underlines{さえ}いた.\begin{flushright}(意外性の意味,述語と助動詞いるの間)\end{flushright}訳文:他在\kanji{d}堂上\underlines{甚至}睡\kanji{f}.\begin{flushright}(副詞;述語の前)\end{flushright}\item水\underlines{さえ}あればこの花は何週間も枯れない.\begin{flushright}(最低限の条件;主語の後)\end{flushright}訳文:\underlines{只要}有水,\kanji{g}支花\underlines{就}几周也不枯.\begin{flushright}(連詞;「只要」は主語の後,「就」は状語の前)\end{flushright}\end{enumerates}\vspace{1em}\noindentも:\begin{enumerates}\setcounter{enumi}{12}\item彼は自分の名前\underlines{も}書けない.\begin{flushright}(意外性の意味,目的語の後)\end{flushright}訳文:他\underlines{\kanji{c}}自己的名字\underlines{都}不会\kanji{h}.\begin{flushright}(介詞+副詞;「\kanji{c}」は前置賓語の前,「都」は述語の前)\end{flushright}\newpage\item私\underlines{も}中華料理が好きだ.\begin{flushright}(他者への肯定の意味,主語の後)\end{flushright}訳文:我\underlines{也}喜\kanji{i}中国菜.\begin{flushright}(副詞;主語の後か述部の前)\end{flushright}\end{enumerates}このように,日本語のとりたて詞の意味用法が非常に多様であるのに加え,中国語との意味的,位置的な対応も複雑多岐であることが,とりたて詞の日中機械翻訳を難しくしている要因である.
\section{取立て表現の中国語への翻訳}
\subsection{翻訳方式の構成}上記の取立て表現の日中両言語における対応関係を考慮して,とりたて詞を含む文は,図~\ref{housiki}で示す翻訳方式で翻訳するものと考えた.全体は二つの部分に分けて進行する.\renewcommand{\theenumi}{}\newcommand{\labelenumii}{}\renewcommand{\theenumii}{}\begin{enumerates}\itemとりたて詞を含む日本語文を解析し,とりたて詞以外の部分(以下骨格文という)に対して翻訳を行い,中国語文の骨格構造を得る.\itemとりたて詞の翻訳\begin{enumeratess}\item訳語を特定するための意味解析を行う.\item訳語の中国語文での語順を特定する.\end{enumeratess}\end{enumerates}\renewcommand{\theenumi}{}この方式においては,「とりたて詞の意味解析規則」と「語順規則」の二つの規則が必要である.語順を特定する際,中国語文の骨格文の構造と関連して決めるため,骨格文があらかじめ翻訳されていることが前提となる.本論文では,とりたて詞の翻訳の部分(図~\ref{housiki}の点線の部分)を議論する.\begin{figure}[hbtp]\begin{center}\epsfile{file=figures/Fig1.eps,scale=0.6}\caption{翻訳の方式}\label{housiki}\end{center}\end{figure}\subsection{とりたて詞の意味解析}とりたて詞の翻訳を行うために,取立て表現の意味的用法をまず明らかにする必要がある.以下の論述の便利のため,とりたて詞をT,係り部分(取り立てられる部分)をX,結び部分(述部)をP,またXの中訳語をX$^{\prime}$,Tの訳語をT$^{\prime}$とする.(Xには単語,句,文などの可能性がある.また連体修飾語があればそれを含んでXとする.Tによって取り立てられる部分が二つ以上あれば,それをX1,X2$\cdots$とし,複文ならば,Tを含む従属節の述部をP1,主節の述部をP2とする.)\subsubsection{とりたて詞の意味分類}ここで,まず対象としている三つのとりたて詞「さえ/も/でも」の意味を中国語との対応付けも考慮して分類を行った(表~\ref{imibunrui}).意味分類は文献~\cite{teramura91,kinsui00,okutsu86,matsumura68,gu97}などを参考にして纏めた(同形の他品詞と,慣用句にある同形の表現は含まれていない).\begin{table}[hbtp]\begin{center}\caption{とりたて詞「も」,「さえ」,「でも」の意味分類}\epsfile{file=figures/Table1.eps,scale=0.82}\label{imibunrui}\end{center}\end{table}\subsubsection{とりたて詞の意味解析法}自然言語処理では,「多義語の文中での意味を,文中の他の単語との意味的整合性から決定することが意味解析の一つの目的である」~\cite{nagao96}.多様な意味を持つ取り立詞の意味を特定するには,その関連する要素から分析しなければならない.とりたて詞の意味については,~\cite{teramura91,kinsui00,okutsu86,miyajima95}など多くの分析があるが,関連要素から系統的に分析したのは文献~\cite{teramura91}の寺村氏である.氏は「とりたて詞の意味は,係部分と,結び部分のそれぞれの文法的,意味的特徴と相関している」と指摘し分析している.係部分と,結び部分は,とりたて詞に取り立てられる部分と述語部(そのモダリティや,テンスなどを含める)である.我々もこの観点にたって実際にとりたて詞を含む多数の例文を観察した.その結果,とりたて詞の意味はその取りたてられる部分と述語部の各種の属性から基本的に特定できることを確認した.\hspace*{4.0zw}\begin{picture}(115,20)\put(75,0){\line(0,1){10}}\put(75,10){\line(1,0){40}}\put(115,10){\vector(0,-1){10}}\end{picture}\begin{enumerates}\setcounter{enumi}{14}\item家から駅まで\hspace{1zw}\fbox{\underlines{三時間}\hspace{1zw}\underlines{も}}\hspace{1zw}\underlines{かかる}\,.\\\hspace*{8.3zw}X\hspace{1.9zw}T\hspace{2.4zw}P\\\begin{picture}(110,20)\put(70,0){\line(0,1){10}}\put(70,10){\line(1,0){40}}\put(110,10){\vector(0,-1){10}}\end{picture}\item私の肩は\hspace{1zw}\fbox{\underlines{痛く}\hspace{1zw}\underlines{も}}\hspace{1zw}\underlines{なった}\,.\\\hspace*{5.9zw}X\hspace{1.3zw}T\hspace{2.4zw}P\end{enumerates}取り立てられるもの(X)は(15)のように通常名詞あるいは名詞+格助詞であるが,(16)のように用言を取り立てる場合もある.その場合には,(16)のように「形容詞連用形+T+なる」や,「走ってもいない」のように「動詞て形+T+いる」などの形をとる.この場合Xは用言の連用形あるいは「テ」形であり(「も」には,基本形,タ形もあり得る.例えば,「聞くも涙話すも涙」),Pは「なる/いる/する/ある」などの補助動詞となる.この場合のPは中国語の述語動詞に対応する場合と単にテンスやアスペクト補助字に対応する場合がある.(15)の例は,\{X=数量詞\hspace{1zw}P=肯定式という条件が成立する場合,「も」の意味は「時間が意外に多いことを強調する意味」\}という意味解析規則で解釈できる;(16)の例は,\{X=形容詞の連用形\hspace{1zw}P=肯定式という条件が成立する場合,「も」は「他者への肯定の意味」\}という意味解析規則で解釈できる.以上のように,XとPに対する条件によってTの意味を特定できる場合が多いが,「X1もX2も$\cdots$」のようにXが複数のとりたて部分を持つパターンであるかどうかも意味判定条件にかかわる場合がある.たとえば表~\ref{imibunrui}の「も」の1番と5番の意味は,Xの属性は同じであるが,1の意味では複数のXを含めるパターン(X1もX2も$\cdots$),5の意味では単一のXを含めるパターンという条件が必要である.また日本語側の条件のみでは,意味を区別できても中訳語T$^{\prime}$を特定できない場合がある.例えば,「も」は,日本語側の条件として,P=肯定式,X=普通数量詞/疑問数量詞であれば,表~\ref{imibunrui}の「も」の2のaの意味であると解釈できるが,中訳語としては,X$^{\prime}$が普通数量詞の主語か賓語か,或は疑問数量詞かによって,それぞれ「竟然」,「竟然有」,「好」となる.本論文ではとりたて詞の部分を除いた骨格構造の翻訳を用いる2段構造の翻訳方式を前提としているが,中国語側の構文構造を必要に応じて参照し,中訳語を特定することができる.このほか,表~\ref{imibunrui}の「さえ」の2番目の意味は,「只要$\cdots$就$\cdots$」に訳すが,中国語文の主節が反問文あるいは主節の述部が「是$\cdots$」の構造ならば,また日本語側で主節が省略されれば「只要$\cdots$」のみに訳す,というように,日本語文と中国語文の構文特徴が条件になる場合もある.上記をまとめると,本論で提案している中訳語を特定するためのとりたて詞の意味解析は,表~\ref{ruibetsu}に示す5種類の関係要素の属性,特徴によって行うことになる.関係要素の属性についての条件は,品詞,活用形,肯(否)定式,ムード,成分及び文の構造特徴などのさまざまの角度から記述する.記述の細かさは,その記述によって他の意味用法との区別及び中国語への訳し分けが可能な程度に分解されればよい.例えば「X=人を表す名詞/数量詞/述語\hspace{1zw}P=仮定形/否定式/勧誘のモダリティ.X$^{\prime}$=普通数量詞の主語」など.\begin{table}[htbp]\begin{center}\caption{確意味の判定条件の類別}\label{ruibetsu}\begin{tabular}{|l|l|}\hline1&Xの属性\\\hline2&Pの属性\\\hline3&日本語側のパターン特徴\\\hline4&X$^{\prime}$の属性\\\hline5&日本語,中国語文の構文特徴\\\hline\end{tabular}\end{center}\end{table}以上の分析に従い,「も,さえ,でも」の三つのとりたて詞の意味解析を行った.表~\ref{kaisekikisoku}にその解析の規則を示す.(表~\ref{kaisekikisoku}の意味分類欄の数字は表~\ref{imibunrui}の意味分類の数字と対応する.)\begin{table}[pt]\begin{center}\vspace*{-2em}\caption{とりたて詞「さえ」,「も」,「でも」の意味解析規則}\label{kaisekikisoku}\epsfile{file=figures/Table3.eps,scale=0.82}\end{center}{\footnotesize[表~\ref{kaisekikisoku}に関する注]\renewcommand{\labelenumi}{}\begin{enumerate}\setlength{\labelwidth}{15pt}\item表~\ref{kaisekikisoku}中のPは「する,なる,ある」などの補助動詞以外の述語である.\item※が付いている処は完全に区別できない場合がある.それについての詳細な分析は5.2節の問題点考察に譲る.\item「も」の2のaのX$^{\prime}$の属性は,「普通数量詞の賓語」は実際に「普通数量詞の賓語」と「普通数量詞の補語」の二つの場合があるが,ここで統一に数量賓語とする.\end{enumerate}}\end{table}\renewcommand{\labelenumi}{}\subsection{とりたて詞に対応する訳語の語順処理}格標識がない中国語には,語順は構文上で重要な役割を果たしている.とりたて詞に対応する中訳語T$^{\prime}$は副詞,介詞,連詞など様々であり,文中での位置も様々であるが,基本的には取り立てられる対象の中訳語X$^{\prime}$に関係して位置が決まる場合とX$^{\prime}$とは無関係に位置が決まる場合の2つの場合がある.例えば,「さえ」の「最低限の条件」の意味に対応する訳語は「只要$\cdots$就$\cdots$」である.「只要」の語順は,文法上の約束により,条件節の主語の前あるいは直後に置き,「就」は主節の謂語部の前に置く.つまり,「只要」の位置はX$^{\prime}$とは無関係に位置が決まる.一方では,「も」,「さえ」の「意外性」の意味に対応する訳語の「\kanji{c}$\cdots$也$\cdots$」の場合,「\kanji{c}」はX$^{\prime}$が成分として主語,謂語,賓語,状語などのいずれであっても,X$^{\prime}$の前に置く(「也」謂語部の前に置く).すなわち,「\kanji{c}$\cdots$也$\cdots$」の位置がX$^{\prime}$に関係して決まる.文献~\cite{lu80,yu98}を参考にして,3つのとりたて詞の中訳語T$^{\prime}$の位置に関して調査分析し,語順処理規則を作成した(表~\ref{tposition}).\begin{table}[p]\begin{center}\vspace*{-2em}\caption{T$^{\prime}$の位置を決める規則}\label{tposition}\epsfile{file=figures/Table4.eps,scale=0.74}\end{center}{\scriptsize[表~\ref{tposition}に関する注]\renewcommand{\labelenumi}{}\begin{enumerate}\setlength{\labelwidth}{15pt}\item「$\cdots$和$\cdots$都$\cdots$」に関して,並列謂語の間に置くのは,その謂語は双音節詞及びその前後に共通的な連体成分があるという条件が必要である.また表~\ref{kaisekikisoku}では,この訳語に,X1$^{\prime}$とX2$^{\prime}$=主語/状語/賓語の条件であるため,X1$^{\prime}$とX2$^{\prime}$=謂語の場合を無視してもよい.\item表~\ref{tposition}にある訳語は上記の品詞以外,他の品詞を兼ねる可能性もあるが,ここでは表~\ref{kaisekikisoku}の意味に対応する時の品詞のみを扱っている.\item主語,賓語の前に定語があれば,T$^{\prime}$はその定語の前に置く.\item一つの文で大主語,小主語が同時にあり,X$^{\prime}$=小主語であれば,「連」「即使」は小主語の前に置き,X$^{\prime}$=大主語であれば,「連」「即使」は大主語の前に置く.\item文は複文で,いくつかの謂語がある場合,ここの語順規則で言っている謂語は,指定するもの以外に,X$^{\prime}$にもっとも近い謂語である.しかし,実際に適応しない例もあった.\end{enumerate}}\end{table}\renewcommand{\labelenumi}{}\subsection{他品詞との区別の処理}表層ではとりたて詞と同じ表現であるが,品詞が異なる場合がある.たとえば「でも」には,とりたて詞「でも」の他に,\renewcommand{\theenumi}{}\begin{enumerates}\item接続助詞の「でも」\item場所/道具格助詞「で」+とりたて詞「も」\item助動詞「だ」の連用形「で」+とりたて詞「も」\item逆接の接続詞「でも」\end{enumerates}などの場合がある.言語学的には,例えば~\cite{kinsui00}で,\renewcommand{\theenumi}{}\begin{enumerates}\item分布の自由性\item任意性\item連体文内性\item非名詞性\end{enumerates}という四つの統語的特徴を同時に持つ場合がとりたて詞であると分析している.しかし,このような基準はコンピュータで判断することは不可能である.この問題の解決は困難であるが,部分的には関係要素の属性を用いて解決できる場合もあり,また曖昧性を保留したままで中訳語を決めることができる場合もある.これについての詳細な分析は第5.2節の問題点と第5.1節の表~\ref{demodemo}に譲る.\subsection{とりたて詞が慣用句の中に現れる場合の処理}上記のとりたて詞と同形の他品詞の用法以外,他の言葉と接続し,固定的な用法を構成する同形の表現も多い(例えば,「言うまでもなく」,「それでも」).このような慣用句の中に含まれるとりたて詞と同形の表現は,上記の処理と別に,慣用句として対訳辞書を作ることにより解決すべきであると考える.
\section{3つのとりたて詞の翻訳手順}
\subsection{とりたて詞の全体の翻訳手順}上記の過程を総合すると,とりたて詞を含む文の翻訳アルゴリズムは下記のようになる.\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\renewcommand{\labelenumii}{}\renewcommand{\theenumii}{}\begin{enumeratess}\itemとりたて詞Tを含む日本語文を構文解析する.\itemとりたて詞以外の部分の中国語への翻訳を行い,中国語骨格文を得る.\itemとりたて詞の翻訳は下記のように行う.\begin{enumeratess}\item日本語側の取り立てられる部分X,述語P,Xの中訳語X$^{\prime}$や構成したパターンの特徴,日,中文の構文特徴などを表~\ref{kaisekikisoku}の条件と照合し,中訳語T$^{\prime}$を決める.\itemT$^{\prime}$X$^{\prime}$等の属性を表~\ref{tposition}と照合し,T$^{\prime}$の位置を特定する.\end{enumeratess}\item2の中国語骨格構造と3で得た結果を総合して生成し,T$^{\prime}$を含む中国語文を得る.\end{enumeratess}\subsection{翻訳手順の例}以下に「さえ」,「も」,「でも」を含む例文をそれぞれ一つ挙げ,その翻訳のアルゴリズムを述べる.\subsubsection{「さえ」を含む例文の翻訳}\renewcommand{\labelenumi}{}\renewcommand{\labelenumii}{}\begin{enumerates}\setcounter{enumi}{16}\itemあなた\underlines{さえ}同意すれば,私が反対するわけはないのだ.\begin{enumerate}\item構文解析し,下記の各情報を得る.\\\begin{tabular}{lll}とりたて詞&(T)=さえ&\\取り立てられる部分&(X)=あなた&(X$^{\prime}$)=\kanji{j}\\述語&(P1)=同意する&(P1$^{\prime}$)=同意\\\multicolumn{3}{l}{日本語文主節=私が反対するわけがないのだ}\\\multicolumn{3}{l}{中国語文主節=我\underlines{是}不会\kanji{k}\kanji{l}的}\\\multicolumn{3}{l}{日本語文の構造「XさえP1$\cdots$P2」}\\\multicolumn{3}{l}{中国語文の主節は「是$\cdots$」の構造である}\end{tabular}\itemstept1の結果と表~\ref{kaisekikisoku}を照合する.\\パターン=「XさえP1$\cdots$P2」,P1=仮定形,中国語文の主節は「是$\cdots$」の構造という条件で,表~\ref{kaisekikisoku}の「さえ」の意味分類1のB状況の訳語と照合して,訳語「只要」を選択する.\item「只要」をもって,表~\ref{tposition}の語順処理規則と照合し,『「只要」を条件節の主語の直前に置く.』という語順を得る.この場合,中国語骨格文において条件節の主語は「\kanji{j}自己」であることが分っているので,「只要」を「\kanji{j}自己」の直前に置く.\itemstept3の結果と他の骨格部分と共同に生成し,下記の訳文を得る.\\訳文:只要\kanji{j}自己同意,我是不会\kanji{k}\kanji{l}的.\end{enumerate}\end{enumerates}\newpage\subsubsection{「も」を含む例文の翻訳}\begin{enumerates}\setcounter{enumi}{17}\item誰\underlines{も}が私の友達だ.\begin{enumerate}\item構文解析し,下記の各情報を得る.\\\begin{tabular}{lll}とりたて詞&(T)=も\\取り立てられる部分&(X)=だれ(疑問詞)&(X$^{\prime}$)=誰\\述語&(P)=私の友達だ.\\&\multicolumn{2}{l}{P$^{\prime}$=是我的朋友.且P$^{\prime}$は肯定式}\\\multicolumn{3}{l}{日本語文の構造は「XもP」}\\\end{tabular}\itemstept1の結果と表~\ref{kaisekikisoku}と照合する.\\パターン=「XもP」,X=疑問詞,P=肯定式という条件で,表~\ref{kaisekikisoku}の「も」の意味分類3のaと照合して,訳語「都」を選択する.\item「都」をもって,表~\ref{tposition}の語順処理規則と照合し,『X$^{\prime}$=主語/状語/補語ならば,「都」をそれらの成分の直後に置く.』という語順を得る.この場合,中国語骨格において,X$^{\prime}$「誰」は主語であることが分かっているので,「都」を「誰」の直後に置く.\itemstept3の結果と他の骨格部分と共同に生成し,下記の訳文を得る.\\訳文:\kanji{m}都是我的好朋友.\end{enumerate}\end{enumerates}\subsubsection{「でも」を含む例文の翻訳}\begin{enumerates}\setcounter{enumi}{18}\item一円\underlines{でも}浪費したくない.\begin{enumerate}\item構文解析し,下記の各情報を得る.\\\begin{tabular}{lll}とりたて詞&(T)=でも\\取り立てられる部分&(X)=一円=最小数量詞&X$^{\prime}$=一日元\\述語&(P)=「浪費したくない」\\&\multicolumn{2}{l}{P$^{\prime}$=「不想浪\kanji{n}」且Pは確言式(ムード)}\\\multicolumn{3}{l}{日本語文の構造は「XもP」}\\\end{tabular}\itemstept1の結果と表~\ref{kaisekikisoku}と照合する.\\パターン=「XでもP」,X=最小数量詞,P=確言のムードという条件で,表~\ref{kaisekikisoku}の「でも」の意味分類2の一つの状況と照合して,訳語「即使$\cdots$也$\cdots$」を選択する.\item「即使$\cdots$也$\cdots$」をもって、表~\ref{tposition}の語順処理規則と照合し,『「即使」をX$^{\prime}$の前に置き,「也」を状語/謂語の前に置く(状語と謂語があれば状語を優先とする).』という語順を得る.この場合,X$^{\prime}$=一日元,中国語骨格において,謂語は「不想浪\kanji{n}」であることが分かっているので,「即使」を「一日元」の前に置き、「也」を「不想浪\kanji{n}」の前に置く.\itemstept3の結果と他の骨格部分と共同に生成し,下記の訳文を得る.\\訳文:即使一日元也不想浪\kanji{n}.\end{enumerate}\end{enumerates}
\section{翻訳規則の評価と問題}
\subsection{評価}以上の翻訳手順を「も」,「さえ」,「でも」の各100例文について手作業により評価した.評価データは『朝日新聞』の「天声人語」の約6万文から抽出した.この約6万文を我々の研究室で開発した文節解析システムIbukiで解析したところ,「も」,「さえ」,「でも」を持つ文はそれぞれ7897,168,1039文あった.それらを先頭から順次チェックし,同形の他品詞や慣用句を構成する表現を除外しながら各100文を抽出した(表~\ref{100bun}).この各100文に対して,我々の翻訳手順を手作業で適用し,その結果を人手で判断し,評価した(表~\ref{hyouka},表~\ref{algo}).表~\ref{hyouka}は我々の意味解析による訳語の妥当性,表~\ref{algo}は語順まで含めた妥当性評価である.またある市販翻訳ソフトとの比較も示した.表~\ref{hyouka},表~\ref{algo}はとりたて詞であることが分かっている場合に対しての評価であるが,表~\ref{100bun}には,各100文を抽出するために必要な文数と除外した状況を示した.表~\ref{demodemo}に「でも」の例文100文を抽出する際に必要であった総文数141とその内容,及びそれらを含めて評価した場合の訳語の正訳率を示した.これらの結果から見ると,全体として80%以上の正訳率であり,市販の翻訳ソフトの現状と比較すると,我々の方法は十分な有効性が期待できると考えている.\begin{table}[htbp]\caption{意味解析規則の評価(A:我々の訳B:市販ソフトの訳)}\label{hyouka}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline\multicolumn{1}{|c|}{とりたて詞}&例文数&\multicolumn{2}{|c|}{正訳数}&\multicolumn{2}{|c|}{正訳率}\\\cline{3-6}&&A&B&A&B\\\hlineも&100&97&77&97\,\%&77\,\%\\\hlineさえ&100&99&20&99\,\%&20\,\%\\\hlineでも&100&95&45&95\,\%&45\,\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{語順を含む翻訳アルゴリズムの評価}\label{algo}\begin{tabular}{|l|c|c|c|c|c|}\hline\multicolumn{1}{|c|}{とりたて詞}&例文数&\multicolumn{2}{|c|}{正訳数}&\multicolumn{2}{|c|}{正訳率}\\\cline{3-6}&&A&B&A&B\\\hlineも&100&93&61&93\,\%&61\,\%\\\hlineさえ&100&94&11&94\,\%&11\,\%\\\hlineでも&100&82&24&82\,\%&24\,\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{100文のとりたて詞を抽出するための必要文数と除外状況}\label{100bun}\begin{tabular}{|c|c|l|l|c|}\hlineとりたて詞&除外文数&\multicolumn{1}{|c|}{除外原因}&\multicolumn{1}{|c|}{例}&必要総文数\\\hlineも&2&\maru{1}解析の誤り(1文)&\maru{1}着もの&102\\&&\maru{2}慣用句用法(1文)&\maru{2}途方もなく&\\\hlineさえ&1&\multicolumn{1}{|c|}{解析の誤り}&\multicolumn{1}{|c|}{さえずる}&101\\\hlineでも&41&\maru{1}{他品詞}(31文)&\maru{1}地下街でも&141\\&&\maru{2}慣用句用法(10文)&\maru{2}それでも&\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{とりたて詞「でも」と同形の他品詞「でも」を含めた場合の正訳率統計}\label{demodemo}\begin{tabular}{|c|c|c|c|c|c|c|}\hline総文数&T&(b)&両方&慣用句&(c)&正訳率\\\hline141&100&30&16&10&1&79\,\%\\\hline\end{tabular}\end{center}{\small[表~\ref{demodemo}に関する注]「両方」は(a)と5.2節の(24)例のような「意外性」のとりたて詞にも(b)にも解釈できる場合.(b)(c)は,各々『場所/道具格助詞「で」+とりたて詞「も」』と,『助動詞「だ」の連用形「で」+とりたて詞「も」』の意味用法しか取れない場合.評価基準:「慣用句」と「両方」に属すものは正訳とし,(b),(c)ととりたて詞の「でも」との区別の条件は,X=用言ならば,とりたて詞とし,X=場所/道具を表す名詞ならば,場所/道具格助詞「で」+とりたて詞「も」とし,「でも」の後に「ある/ない」が付いていれば,助動詞「だ」の連用形「で」+とりたて詞「も」とした.また,この評価では訳語のみで,語順を考慮していない.}\end{table}\subsection{問題点と考察}現在の規則では,下記のような問題を残している.\subsubsection{}長い単文あるいは複雑な複文では,語順規則が正しくない場合がある.例えば,\begin{enumerates}\setcounter{enumi}{19}\itemそして,どんなに異様な植物\underlines{も},きれいな水といい土で育てれば,可愛いい花が咲き,毒も出さないことを知る.\\訳文:然后知道\underlines{不管}什\kanji{o}\kanji{p}的植物,只要有干\kanji{q}的水和肥沃的土,\underlines{都}会\kanji{r}可\kanji{s}的花,不\kanji{t}出\kanji{u}素.\item今は,どんな国\underlines{でも}発展しようとするなら,鎖国政策をとるわけにはいかない.\\訳文:\kanji{v}在(\underlines{不管}\,)什\kanji{o}\kanji{p}的国家如果要\kanji{t}展\underlines{都}不能采取\kanji{w}国政策.\end{enumerates}分析:(20)と(21)二例とも複雑な複文である.表~\ref{kaisekikisoku}によると,(20)の「も」も(21)の「でも」も「都」に訳す.表~\ref{tposition}によると,『X$^{\prime}$=主語/状語ならば,「都」を主語/状語の直後に置く.』ということになるが,実際は(20)では,主語の「植物」の直後ではなく,主節の謂語の「花が咲き(\kanji{r}花)」の直前に置く.(21)も主節の謂語「不能采取」の前に置く.訳語も「不管」を入れた方が自然である.これは,主語と謂語の間に,また条件節や,仮定節が入ると関係があると思われるが,どのような条件で語順を判断すればよいことか判然としない.\subsubsection{とりたて詞と同形の他品詞との区別の問題}とりたて詞と同形の他品詞との区別がはっきりとしない場合がある.「でも」には,次のような同形の他品詞がある.\renewcommand{\theenumi}{}\begin{enumerates}\item接続助詞の「でも」\item場所/道具格助詞「で」+とりたて詞「も」\item助動詞「だ」の連用形「で」+とりたて詞「も」\end{enumerates}\vspace{1em}\renewcommand{\theenumi}{}\begin{enumerates}\setcounter{enumi}{21}\item日曜日\underlines{でも}出勤しなければならない.\itemそんなことは子供\underlines{でも}知っている.\itemレーガン総統の構想については,米国内\underlines{でも}強い批判がある.\item宴会の席\underlines{でも},いい考えが浮かぶと急に立ち上がって消えてしまうことがあった.\item彼はダンサーであると同時に俳優\underlines{でも}ある.\end{enumerates}(22)と(23)は(a)と関わる問題である.どれが接続助詞かどれがとりたて詞か言語上でも必ずしも明確でないが,機械翻訳では,意味も中訳語も同様であるため,区別して処理する必要がない.(24)と(25)は(b)と関わる問題である.表現の形のみから見ると,2例とも『「意外性」のとりたて詞の「でも」』と,『場所格「で」+「も」』の解釈があり得る.人間なら,社会知識から(25)を「意外性」のとりたて詞の意味と取れるが,機械には困難である.(24)は人間にも二つの解釈があり得る.(26)は(c)の場合である.『助動詞「で」+とりたて詞「も」』の用法は,常に「ある/ない」が後続しているため,「意外性」のとりたて詞「でも」との区別が明白である.ただし「ある/ない」が後続しても,従属節の中に包まれていれば,「提案」の意味のとりたて詞の「でも」にもなり得るため,また曖昧性が残っている.\subsubsection{}文脈や状況,社会知識などに頼らなければ,とりたて詞の間の意味用法を区別できない場合がある.\begin{enumerates}\setcounter{enumi}{26}\itemその国では,7歳の子供\underlines{も}入学できる.\itemその国では,4歳の子供\underlines{も}入学できる.\end{enumerates}人間は社会知識によって,(28)の「意外性」を感じ,(27)の「他者への肯定」の意味と区別して理解できる.コンピーターには,構造も前後起語の属性も同じである(27)と(28)を区別するのは困難である.4節の規則では,頻度が遥かに高い「他者への肯定」の意味という解釈をとるように扱っている.5節の表~\ref{hyouka}の評価で誤った3例は,ともにこの区分に関するものである.ただし,X=動詞の場合には,Pが否定の形なら(Xもしない)「意外性」の用法,Pが肯定の形なら(Xもする),「他者への肯定」の意味であると推定できる.また,中国語でこの意味の訳語の「也」は,ある場合には「意外性」の意味も体現できるため,そのような場合には訳語の曖昧性が保留できる.また「も」の4番と6番の意味の区別も困難であり,我々の規則ではやはり頻度が大きい4番の解釈をとるようにしている.ただし6番の中訳語の一部は4番と同じの「也」になっていることもあって,評価では,誤った例は出現しなかった.「でも」の場合,1と2の意味を誤ったのが(29)の1件あった.\begin{enumerates}\setcounter{enumi}{28}\itemやはりトンボの短い一生\underlines{でも}楽しいことはあるのでしょう.\item彼はビール\underlines{でも}飲んだのでしょう.\end{enumerates}現在の規則で,Pは「の+だろう」のような概言のムードならば,「提案」の意味とする.この規則では(30)は正しいが,(29)の「でも」は「意外性」の意味である.また,Pが疑問文,命令のムードの場合も,1と2の意味ともあり得るため,曖昧さが残る.本規則では2番の意味を取るようにしている.\subsubsection{その他}\paragraph{}省略された表現の場合,判定条件が適用できない場合がある.\begin{enumerates}\setcounter{enumi}{30}\item回答は「美味しいサンドイッチ\underlines{でも}」だったが,それを上回る接待ぶりだった\end{enumerates}表~\ref{hyouka}の評価で,誤訳した「でも」の3例は(31)の例と同じく述語が省略されたあるいは述部に省略があるものであった.\paragraph{}「提案」の意味の「でも」は,中国語で不定代詞「什\kanji{o}的」,不定数量詞の「一点児」及び「$\phi$」などに訳しうる.しかしながら,どのような条件で訳し分ければよいか特定しにくい.\begin{enumerates}\setcounter{enumi}{31}\itemこんな暑いときに,アイスクリーム\underlines{でも}食べられればいいなあ.\\現在訳:\kanji{g}\kanji{p}\kanji{x}的\kanji{y}候,能吃上冰淇淋就好了.\\完全訳:\kanji{g}\kanji{p}\kanji{x}的\kanji{y}候,能吃上冰淇淋\underlines{什\kanji{o}的}就好了.\item仕方がない,弟と\underlines{でも}行くとするか.\\訳文:没\kanji{z}法,\kanji{z1}是和弟弟去\kanji{z2}.\itemまるで野中の一つ家に\underlines{でも}住んでいるような,隣近所に少しの遠慮もない,ぱりぱりした叫び方で$\cdots\cdots$.\\訳文:好象住在荒野似的,一点也不用\kanji{z3}\kanji{z4}周\kanji{z5}的人,用清脆的叫声$\cdots\cdots$\end{enumerates}現在の処理ではすべて「$\phi$」に訳しており,(32)の完全訳のようなニュアンスは表せない.しかし,(33)や(34)の例では,「$\phi$」に訳すのは適当である.なぜならば,(32)は提案されている「アイスクリーム」と関係の他要素は思いつくものであり,(33)はその他要素は実に存在しないためである.(訳語の「什\kanji{o}的」の使用により,「アイスクリーム」と同様の「西瓜,冷ジュース」などの冷たいものを暗示されている.)(34)のように,「でも」を含む節の述語が「ような,みたい」などの比況助動詞がついている場合は,「$\phi$」に訳すのも正確である.\paragraph{}ある中訳語は前後の文脈により,部分的に変化する場合がある.\begin{enumerates}\setcounter{enumi}{34}\itemどんな話題\underlines{でも}こなすにはどういう手があるか.\\訳文:\underlines{不管}什\kanji{o}\kanji{p}的\kanji{z6}\kanji{z7},要\kanji{z8}理好需要什\kanji{o}\kanji{p}的方法\kanji{z9}?\item金\underlines{さえ}あれば仙女でも買える.\\訳文:\underlines{只要}有\kanji{za}即使(就是)仙女也\kanji{zb}的起.\end{enumerates}(35)は表~\ref{imibunrui}の「でも」の意味分類の3のaに属する.(文末は「か」の疑問式であるが,この分類は「あるか」を肯定式とし,「ないか」を否定式とする.)表3の規則によると,「都」に訳すが,この例ではその代わりに「話題」の前に「不管」を付き,「都」は訳さないほうが自然である.原因として,「こなすには」という目的状語と関係あるようであるが,確定できていない.(36)は,「最低限の条件」を表す「さえ」であり,規則によると,「只要$\cdots$就$\cdots$」に訳すが,ここでは「只要$\cdots$」のみに翻訳する.しかし構文の特徴は表~\ref{kaisekikisoku}の1の意味のbの状況に属していない.ここの「就$\cdots$」の省略は後続する「譲歩」の「でも」と関係があると考える.即ち,「条件」文と「逆接」の文を一緒になると(他の「が,のに」も),条件を表す連詞「只要$\cdots$就$\cdots$」も「只要$\cdots$」に変化すると推測しているが,更に多くの例で証明することが必要である.上記の分析から,とりたて詞の意味は文脈知識,状況知識,世界知識のような言語外知識に依存する場合が多くあるとわかった.これらの知識は現在の機械翻訳の領域では,未だ処理することはできない.一方,対応する中訳語の弾力性により,曖昧性を保留したまま翻訳できる場合があることも分かった.\renewcommand{\labelenumi}{}\begin{enumeratess}\item「も」は,4,5,6番の意味とも,4番の訳語の「也」で翻訳できる場合がある.現在使用頻度の高い4番の「也」を選択しているため,5,6番の意味と区別できなくても,その二つの意味に属する一部の訳は正確である.\item「でも」の場合,2番の意味では,「意外性」と「譲歩」の二つのニュアンスがある.単純な意味から見ると,区別が存在する.しかし,中国語では,「即使$\cdots$也$\cdots$」という言葉は両方の意味とも表せるため,機械翻訳から,上記の二つの意味を一つとして処理することができる.\end{enumeratess}\renewcommand{\labelenumi}{}
\section{おわりに}
本論文では,とりたて詞ととりたて詞に関連する文の構成要素との整合性に着目し,日中機械翻訳における取り立て表現の翻訳手法を提案した.本手法で,とりたて詞と,その取り立てられる部分と述部をパターンに構成し,その二つの要素に対する多方面の統語的,意味的な属性及びパターンの特徴,ないし中国語側の関係要素の属性などによって,取り立て表現の種々な意味用法を区別し,訳語を特定した.このような両言語から,関係要素の多方面の特徴からの条件制限は曖昧さに富むとりたて詞には適当だと考えられる.意味解析の時,目的言語の主導性を重視し,訳語の選択や訳語の曖昧さの保留などを十分に考慮した.また,とりたて詞の訳語の語順に対して,その文法上の約束以外に,中国語側の取り立てられる部分の成分や,それと訳語の位置関係などを分析し,語順特定規則を作成した.手作業によって,正訳率は各詞とも80\,\%以上であり,市販の翻訳ソフトと比較して,本手法の有効性を確認した.本論の提案は意味用法が複雑で,文法の用法と語彙的な意味を両方兼ねて持つとりたて詞の機械翻訳に,一つの手がかりを示したと考える.しかしながら,とりたて詞の意味上と構文上の活発な性質のため,同一詞の用法や,他品詞の用法と完全に区別が出来ない場合もあるし,訳文の訳語の語順が不自然の場合もある.複雑な複文における取立ての範疇や,文脈との関連などに対する分析は本論では取り上げていない.とりたて表現の翻訳は更に様々な角度からアプローチする必要がある課題である.残る12個のとりたて詞に対する考察と,これらの問題に対するさらなる分析,及び翻訳システムに組み込むことが,今後の課題である.\nocite{*}\bibliographystyle{jnlpbbl}\bibliography{391}\begin{biography}\biotitle{略歴}\bioauthor{卜朝暉}{1991年中国広西大学外国語学部日本語科卒.2001年岐阜大学教育学研究科国語科教育専修修了.教育学修士.現在同大学工学研究科電子情報システム工学専攻博士後期課程に在学中.日中機械翻訳に興味を持つ.言語処理学会、情報処理学会各学生会員.}\bioauthor{謝軍}{2000年岐阜大学大学院修士課程電子情報工学専攻修了.工学修士.現在、同大学院博士課程在学.機械翻訳,中国語処理の研究に従事.情報処理学会学生会員.}\bioauthor{池田尚志(正会員)}{1968年東大・教養・基礎科学科卒.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.人工知能,自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N02-09
|
\section{はじめに}
label{intro}近年,言語研究において,言語現象を統計的に捉えるため,コーパスを用いた研究が盛んに行われている.コーパスを用いた研究は,語法,文法,文体に関する研究\cite{oishi2009,koiso2009},語彙に関する研究\cite{tanomura2010},時代ごとの言語変化を調査する通時的な研究\cite{kondo2012},外国語教育へ適用する研究\cite{nakajo2006}など多岐にわたる.コーパスを用いる研究では,新しい言語現象を調査するには新しいコーパスの構築が必要となる.大規模なコーパスを構築する場合,人手でのアノテーションには限界があるため,自動でアノテーションをする必要がある.既存の言語単位や品詞体系を利用できる場合は,既存のコーパスや解析器を利用することにより,他分野のコーパスに対するアノテーション作業を軽減できる\cite{kazama2004}.また,対象分野のアノテーション済みコーパスがある程度必要なものの,分野適応により,解析器の統計モデルを対象分野に適合するように調整することで,他分野のコーパスに対しても既存のコーパスに対するものと同程度の性能でアノテーションが可能となる\cite{jing2007,neubig2011}.しかし,研究目的によっては適切な言語単位や品詞体系が異なるため,既存の言語単位や品詞体系が利用できないこともある.例えば,国立国語研究所の語彙調査では,雑誌の語彙調査には$\beta$単位,教科書の語彙調査にはM単位というように,どちらも形態素相当の単位ではあるが,調査目的に応じて設計し用いている.これらの単位の概略は\cite{hayashi1982,nakano1998}に基づいている.また,言語現象に応じて異なる場合もあり,日本語話し言葉コーパス\cite{csj}(以下,CSJ)と現代日本語書き言葉均衡コーパス\cite{bccwj}(以下,BCCWJ)では異なる言語単位や品詞体系が定義されている.新しい言語単位や品詞体系を用いる場合,分野適応の利用は難しく,辞書やコーパス,解析器を再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する必要がある.解析器に関しては,既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかではない.本論文では,言語単位や品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なるCSJとBCCWJを利用して長単位解析器を改良する.CSJとBCCWJには,いずれも短単位と長単位という2種類の言語単位がアノテーションされている.本論文ではこのうち長単位解析特有の誤りに着目して改善点を明らかにする.そのため,短単位情報は適切にアノテーションされているものと仮定し,その上で長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べる.評価実験により提案手法の有効性を示し,提案手法の異なる品詞体系への適用可能性について考察する.本論文の構成は以下の通りである.まず,\ref{csj_bccwj_diff}章で長単位解析器を改良するために重要となるCSJとBCCWJの形態論情報における相違点について述べ,\ref{luw_analysis}章ではCSJに基づいた長単位解析手法を説明し,CSJとBCCWJの形態論情報における相違点に基づいた長単位解析手法の改良点について述べる.\ref{exp}章では,長単位解析手法の改良点の妥当性を検証し,改良した長単位解析手法を評価する.\ref{comainu}章では,\ref{luw_analysis}章で述べた長単位解析手法を実装した長単位解析システムComainuについて述べ,\ref{conclusion}章で本論文をまとめる.
\section{CSJとBCCWJの形態論情報における相違点}
\label{csj_bccwj_diff}一般に,解析器を学習したコーパスとは異なるコーパスに適用する場合,各コーパスには同じ粒度のアノテーションが施してある必要がある.アノテーションの粒度が異なる場合には精度よく解析できないため,解析器を改良し,学習しなおす必要がある.解析器の改良にはコーパス間の相違点を把握することが重要となる.本章では,CSJを基に構築した長単位解析器をBCCWJへ適用する上で必要な改良点を把握するため,言語単位,品詞体系,言語現象,付加情報に着目して,CSJとBCCWJを比較し,形態論情報における相違点について述べる.\subsection{言語単位}\label{lang_unit_diff}CSJとBCCWJではともに,短単位と長単位という2種類の言語単位が用いられている.短単位は,原則として,現代語で意味を持つ最小の単位2つが1回結合したものであり,その定義は一般的な辞書の見出しに近いものである.長単位は,概ね,文節を自立語と付属語に分けたものであり,1短単位からなるか,あるいは,複数の短単位を複合したものからなる.短単位と長単位の例を表\ref{unit_example}に挙げる.表\ref{unit_example}は「日本型国際貢献が求められています」という文における文節,長単位,短単位の関係を表している.例えば,「日本型国際貢献」という長単位は「日本」,「型」,「国際」,「貢献」の4短単位から構成される.\begin{table}[b]\caption{文,文節,長単位,短単位の関係}\label{unit_example}\input{ca13table01.txt}\end{table}CSJとBCCWJではいずれも,短単位と長単位という同じ言語単位を利用しているが,BCCWJの短単位・長単位の認定規定は,CSJの規定に修正を加えたものを利用しているため,CSJとBCCWJの短単位・長単位は完全には一致しない.\subsection{品詞体系}\label{pos_tagset_diff}CSJとBCCWJでは大きく異なる品詞体系が利用されている.以下にCSJとBCCWJ,それぞれの品詞体系を示す.CSJでは学校文法に基づく品詞体系が採用されており,15種類の品詞,59種類の活用型,8種類の活用形で構成されている\cite{ogura2004}.CSJの品詞体系は以下の通りである.活用型の○にはア,カ,サ,タなどが入る.\begin{itemize}\item品詞(15種類)\\名詞,代名詞,形状詞,連体詞,副詞,接続詞,感動詞,動詞,形容詞,助動詞,助詞,接頭辞,接尾辞,記号,言いよどみ\item活用型(59種類)\\○行五段,○行上一段,○行下一段,カ行変格,サ行変格,ザ行変格,文語○行四段,文語○行上二段,文語○行下二段,文語カ行変格,文語サ行変格,文語ナ行変格,文語ラ行変格,形容詞型,文語形容詞型1,文語形容詞型2,文語形容詞型3,文語\item活用形(8種類)\\未然形,連用形,終止形,連体形,仮定形,已然形,命令形,語幹\end{itemize}BCCWJは形態素解析用辞書UniDic\cite{den2007}\footnote{http://sourceforge.jp/projects/unidic/}に準拠した品詞体系を利用しており,品詞は「名詞-固有名詞-地名-一般」のように階層的に定義されている.各階層は大分類,中分類,小分類,細分類と呼ばれる.「名詞-固有名詞-地名-一般」の場合,「名詞」が大分類,「固有名詞」が中分類,「地名」が小分類,「一般」が細分類である.品詞は4階層で定義され,大分類で15種類,細分類まで展開すると54種類ある.活用型は3階層で定義され,大分類で20種類,小分類まで展開すると115種類ある.活用形は2階層で定義され,大分類で10種類,中分類では36種類ある.BCCWJの品詞体系のうち,大分類の体系は以下の通りである.\begin{itemize}\item品詞(15種類)\\名詞,代名詞,形状詞,連体詞,副詞,接続詞,感動詞,動詞,形容詞,助動詞,助詞,接頭辞,接尾辞,記号,補助記号\item活用型(20種類)\\五段,上一段,下一段,カ行変格,サ行変格,文語四段,文語上一段,文語上二段,文語下一段,文語下二段,文語カ行変格,文語サ行変格,文語ナ行変格,文語ラ行変格形容詞,文語形容詞,助動詞,文語助動詞,無変化型\item活用形(10種類)\\語幹,未然形,意志推量形,連用形,終止形,連体形,仮定形,已然形,命令形,ク語法\end{itemize}CSJが階層のない単純な品詞体系を利用しているのに比べ,BCCWJでは詳細な品詞体系が利用されている.CSJの名詞とBCCWJの名詞を比較した例を表\ref{compare_noun}に示す.BCCWJでは名詞は15種類に分類されている.また,CSJでは短単位と長単位の品詞体系が一致しているのに対し,BCCWJでは短単位と長単位の品詞体系は一部異なっている.これはBCCWJの短単位では「名詞-普通名詞-サ変可能」や「名詞-普通名詞-形状詞可能」などの曖昧性を持たせた品詞が設けられているのに対し,長単位ではこれらを設けていないためである.\begin{table}[t]\caption{CSJとBCCWJの名詞の比較}\label{compare_noun}\input{ca13table02.txt}\end{table}\subsection{言語現象}\label{lang_diff}CSJは話し言葉コーパスであるのに対し,BCCWJは書き言葉コーパスであるため,言語現象として,話し言葉と書き言葉という大きな違いがある.例えば,話し言葉の場合,フィラーや言いよどみなどが生じる.一方,書き言葉の場合,著者によって使われる表記が異なるため,表記のバリエーションが多い.話し言葉のコーパスであるCSJと書き言葉のコーパスであるBCCWJを比べると,前者では人手で書き起こす際に表記揺れが吸収され表記は統一されており,後者では著者の著したテキストがそのまま使われているため表記は不統一である.次の節でこれらに関連してコーパスに付加された情報の違いを整理する.\subsection{付加情報}\label{additional_annotation}CSJとBCCWJでは短単位に付与されている情報に多少違いがある.以下に,CSJのみ,及び,BCCWJのみにしか付与されていない情報について述べる.CSJには話し言葉特有の情報など,以下の情報が付与されている.\begin{itemize}\itemフィラー:フィラーに対してタグ(F)が付与されている\begin{quote}(Fえー),(Fあのね),(Fんーと)\end{quote}\item言いよどみ:言いよどみに対してタグ(D)が付与されている\begin{quote}(Dす)すると,(Dテニ)昨日のテニスは,(D情)情報が\end{quote}\itemアルファベット:アルファベット,算用数字,記号の短単位に対してタグ(A)が付与されている.\begin{quote}(Aシーディーアール;CD−R)\end{quote}\item外国語:外国語や古語,方言などに対してタグ(O)が付与されている.\begin{quote}(Oザッツファイン)\end{quote}\item名前:話者の名前や差別語,誹謗中傷などに対してタグ(R)が付与されている.\begin{quote}国語研の(R××)です\end{quote}\item音や言葉のメタ情報:音や言葉に関するメタ的な引用に対してタグ(M)が付与されている.\begin{quote}助詞の(Mは)は(Mわ)と発音\end{quote}\end{itemize}一方,BCCWJではCSJには付与されていない以下の情報が付与されている.\begin{itemize}\item語種情報:語種とは,語をその出自によって分類したものである.BCCWJでは,短単位に以下の語種のいずれかが付与されている.\begin{quote}和語,漢語,外来語,混種語,固有名,記号\end{quote}\item囲み情報:BCCWJでは,丸付き数字(\textcircled{\footnotesize1},\textcircled{\footnotesize2})や丸秘などの丸で囲まれている文字は内部の文字のみが短単位となっており,囲みの情報は別で付与されている.例えば,「\textcircled{\footnotesize1}林木の新品種の開発」は書字形では「1林木の新品種の開発」となっており,囲みの情報は別で付与されている.\end{itemize}
\section{長単位解析手法}
\label{luw_analysis}本章では,まず,CSJに基づいて構築された長単位解析手法(従来手法)について述べ,次に,提案手法について述べる.従来手法をBCCWJに適用するためには改良が必要であり,提案手法では,CSJとBCCWJの形態論情報における相違点に着目した改良を行った.長単位解析とは長単位境界,及び,長単位の語彙素,語彙素読み,品詞,活用型,活用形を同定するタスクである.短単位解析では,辞書を用いることで,高精度に解析が行われてきた\cite{kudo,den}.長単位解析でも長単位辞書を構築することによって高精度に解析できることが考えられるが,短単位の組み合わせからなる長単位の語彙は膨大であり,辞書の構築には膨大な労力が必要となるため,効率的でない.そのため,短単位情報を組み上げることにより長単位解析を行う.\subsection{CSJに基づく長単位解析手法(従来手法)}\label{uchimoto_method}Uchimotoらは長単位を認定する問題を,入力された短単位列に対する系列セグメンテーション問題として捉え,チャンキングモデルと後処理に基づいた長単位解析手法を構築した\cite{uchimoto2007}.図\ref{flow}に長単位解析の流れを示す.短単位列を入力とし,チャンキングにより長単位境界を認定する.このとき,一部の長単位に対しては品詞情報も付与する.次に,後処理によって長単位の品詞,活用型,活用形,語彙素,語彙素読みを付与する.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f1.eps}\end{center}\caption{長単位解析の流れ}\label{flow}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f2.eps}\end{center}\caption{短単位と長単位の例}\label{fig:suw_luw_org}\vspace*{-2\Cvs}\end{figure}\subsubsection{チャンキングモデル}\label{chunking_model}チャンキングモデルによって,長単位境界を認定し,一部の長単位に対しては品詞情報も付与するために,Uchimotoらは下記の4つのラベルを定義している.\begin{itemize}\item[Ba]長単位を構成する短単位のうち先頭の要素で,かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[Ia]長単位を構成する短単位のうち先頭以外の要素で,かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[B]長単位を構成する短単位のうち先頭の要素で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\item[I]長単位を構成する短単位のうち先頭以外の要素で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\end{itemize}これは,長単位を構成する先頭の要素に付与されるラベルは「Ba」か「B」であり,長単位を構成する先頭以外の要素に付与されるラベルは「Ia」か「I」であることを意味する.また,「Ba」「Ia」が付与された要素は長単位と同じ品詞,活用型,活用形を持つことを意味する.したがって,このラベルを利用することにより,長単位境界だけでなく,多くの場合,品詞,活用型,活用形の情報も得られる.図\ref{fig:suw_luw_org}に「日本型国際貢献が求められています」に対して,ラベルを付与した例を示す.これらのラベルを正しく推定できれば,\pagebreak「Ba」あるいは「Ia」が付与された短単位から品詞,活用型,活用形が得られる.図\ref{fig:suw_luw_org}は,「ている」以外の長単位については品詞,活用型,活用形も得られることを表わしている.一方,「ている」については品詞がこれらを構成する短単位「て」「いる」のどちらとも異なるため,各短単位には「B」あるいは「I」のラベルしか付与されない.この場合は,ラベルを正しく推定できたとしても品詞などは得られず,単位境界の情報のみが得られることになるため,次節に述べる後処理により品詞,活用型,活用形を推定する.チャンキングモデルの素性としては,着目する短単位とその前後2短単位,あわせて5短単位について,以下の情報を利用する.\begin{itemize}\item短単位情報\\書字形,語彙素読み,語彙素,品詞,活用型,活用形\item付加情報\\\ref{additional_annotation}節で述べたCSJにのみ付与されている情報(フィラー,言いよどみ,アルファベット,外国語,名前,音や言葉のメタ情報を示すタグ)がそれぞれ着目している短単位の直前に付与されているか否かを素性として利用する.\end{itemize}\subsubsection{書き換え規則による後処理}\label{post_process_org}\ref{chunking_model}節で記したチャンキングモデルにより,ラベルを正しく推定することができれば,図\ref{fig:suw_luw_org}の「日本型国際貢献」や「求める」などは「Ba」または「Ia」が付与された短単位から品詞,活用型,活用形が得られる.一方,「ている」については,品詞が長単位を構成する短単位「て」及び「いる」とは異なるため,各短単位には「B」あるいは「I」のラベルしか付与されない.この場合は,ラベルを正しく推定できたとしても品詞は得られず,単位境界の情報のみが得られることになる.これらの長単位に対しては書き換え規則によって品詞,活用型,活用形を付与する.単位境界のみが分かっている長単位ごと,つまり,「B」あるいは「I」が付与された短単位のみから構成される長単位ごとに書き換え規則を獲得,適用することによって品詞,活用型,活用形の情報を得る.書き換え規則は対象の長単位とその前後の短単位を抽出することによって自動獲得する.書き換え規則は対象の長単位を構成する短単位,及び,その前後の短単位からなる前件部と,対象の長単位からなる後件部で構成される.例えば,図\ref{fig:suw_luw_org}の「ている」については図\ref{fig:rule}のような規則が獲得される.前件部で同じ規則が複数得られた場合,最も頻度の高いもののみ書き換え規則として獲得する.図\ref{fig:rule}の規則は,「て」「いる」という短単位にそれぞれ「B」,「I」というラベルが付与され,前方(文頭側)の短単位が「られ」,後方(文末側)の短単位が「ます」であるとき,「ている」という助動詞に書き換えられることを意味している.どの書き換え規則も適用されない場合は,以下の手順で規則を汎化して再適用する.\begin{itemize}\item後方文脈を削除\item前方文脈と後方文脈を削除\item前方文脈,後方文脈,書字形,語彙素読み,語彙素を削除\end{itemize}前方文脈とは対象の長単位より前方(文頭側)の短単位(図\ref{fig:rule}の「られ」),後方文脈とは対象の長単位より後方(文末側)の短単位(図\ref{fig:rule}の「ます」)を表す.この手順で再適用し,結果的にどの規則も適用されなかった場合は,短単位の先頭の品詞,活用型,活用形を適用する.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA13f3.eps}\end{center}\caption{書き換え規則の例}\label{fig:rule}\end{figure}\subsection{コーパスの形態論情報における相違点に基づいた長単位解析手法の改善(提案手法)}\label{apply_corpus_diff}本節では,\ref{uchimoto_method}節で示した長単位解析手法(従来手法)からの改良点について述べる.\subsubsection{品詞体系の差異に応じた改善}\label{apply_pos_tagset}CSJとBCCWJの品詞体系は\ref{pos_tagset_diff}節で示したように,大きく異なっている.この問題に対し,以下の点を改善した.\subsubsection*{汎化素性の利用}CSJの品詞体系とは異なり,BCCWJの品詞体系では,品詞,活用型,活用形が階層的に定義されている.しかし,階層化された素性をそのまま利用した場合,各階層の情報が考慮されなくなってしまう.そこで,階層化された素性に対して上位階層で汎化した素性をチャンキングモデルの素性として追加する.例えば「名詞-普通名詞-一般」に対しては,「名詞」「名詞-普通名詞」を素性として追加する.\subsubsection*{カテゴリ推定モデルによる後処理}CSJでは品詞体系が単純であったため,「B」あるいは「I」のラベルが付与された短単位のみから構成される長単位が少なく,後処理については書き換え規則である程度対応できていた.しかし,品詞体系が詳細なBCCWJでは,短単位と長単位の品詞の対応関係が単純ではないため,書き換え規則で対応するのは困難である.この問題に対し,次に述べるカテゴリ推定モデルを用いることで解決することを提案する.カテゴリ推定モデルは,学習データに現れたカテゴリを候補として,その候補すべてについて尤もらしさを計算するモデルである.長単位を構成する短単位列を与えると,その長単位に対して最尤のカテゴリを出力する.推定するカテゴリを品詞,活用型,活用形とした,品詞推定モデル,及び,活用型推定モデル,活用形推定モデルをそれぞれ学習・適用し,最も尤もらしい品詞,活用型,活用形を推定する.推定するカテゴリを品詞とする品詞推定モデルでは,学習データに現れた品詞のうち,助詞と助動詞を除くすべての品詞候補から最尤の品詞を出力する.助詞と助動詞については長単位を構成する短単位列が複合辞と一致している場合のみ候補とする.複合辞と一致しているかどうかは,複合辞辞書との文字列マッチングにより自動判定する.複合辞辞書はBCCWJで認定された複合辞を予め人手で整理することにより用意した.素性としては,着目している長単位とその前後の長単位,あわせて3長単位に対して,先頭から2短単位と末尾から2短単位の計12短単位の情報を用いる.長単位が1短単位からなる場合は,先頭から2短単位目の情報は与えられなかったもの(NULL)として扱う.各短単位に対して,書字形,語彙素読み,語彙素,品詞,活用型,活用形,及び,階層化された素性に対して上位階層で汎化した情報を素性として用いる.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f4.eps}\end{center}\caption{品詞推定モデルの適用例}\label{post_feature}\end{figure}図\ref{fig:suw_luw_org}の「てい」に対して品詞推定モデルを適用する例を図\ref{post_feature}に示す.「てい」では,前後の長単位をあわせた「られ」「てい」「ます」の3長単位に対し,「られ」「NULL」(「られ」の先頭2短単位),「て」「い」(「てい」の先頭2短単位),「ます」「NULL」(「ます」の先頭2短単位),及び,「NULL」「られ」(「られ」の末尾2短単位),「て」「い」(「てい」の末尾2短単位),「NULL」「ます」(「ます」の末尾2短単位)の各短単位の情報を素性として用いる.図\ref{post_feature}では,最尤の品詞として助動詞を出力している.活用型推定モデル,及び,活用形推定モデルは,推定するカテゴリが品詞ではなくそれぞれ活用型,活用形となる点,及び,動的素性を用いる点を除いて品詞推定モデルと同様である.動的素性としては,活用型推定モデルでは着目している長単位の品詞(自動解析時は品詞推定モデルにより自動推定した品詞)を,活用形推定モデルでは着目している長単位の品詞と活用型(自動解析時は品詞推定モデル,活用型推定モデルによりそれぞれ自動推定した品詞と活用型)を用いる.\subsubsection{付加情報の差異に応じた改善}\label{apply_additional_annotation}\ref{additional_annotation}節で示したBCCWJにのみ付与されている以下の情報をチャンキングモデルの素性として利用する.\begin{itemize}\item語種情報\\短単位の語種が和語,漢語,外来語,混種語,固有名,記号のいずれであるかを素性として利用する.\item囲み情報\\BCCWJでは丸付き数字で長単位境界が区切れるため,囲み情報は長単位境界を判定するための大きな手がかりとなる.そのため,短単位に囲み情報が付与されているか否かを素性として利用する.\end{itemize}\subsubsection{ラベル定義の変更}\label{label_change}本節では,コーパスの相違点に限らず,既存の手法にも適用できる改良について述べる.\ref{chunking_model}節で示した4つのラベルを以下のように再定義した.変更点を下線で示す.\begin{itemize}\item[Ba]\underline{単独で}長単位を構成する短単位で,かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[Ia]\underline{複数短単位で構成される長単位の末尾の短単位で},かつ,その品詞,活用型,活用形が長単位のものと一致する.\item[B]\underline{複数短単位で構成される長単位の先頭の短単位.もしくは,単独で}長単位を構成する短単位で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\item[I]\underline{複数短単位で構成される長単位の先頭でも末尾でもない短単位.もしくは,複数短単位}\\\underline{で構成される}長単位の\underline{末尾の短単位}で,かつ,その品詞,活用型,活用形のいずれかが長単位のものと一致しない.\end{itemize}単独の短単位から構成される長単位に対しては,短単位の品詞,活用型,活用形が長単位のものと一致する場合には「Ba」,一致しない場合には「B」が付与される.一方,複数短単位から構成される長単位に対しては,先頭の短単位には「B」,先頭でも末尾でもない短単位には「I」,末尾の短単位にはその品詞,活用型,活用形が長単位のものと一致する場合には「Ia」,一致しない場合には「I」が付与される.この定義を利用すると,図\ref{fig:suw_luw_org}の例では,「Ba」が付与されている「日本」には「B」,「Ia」が付与されている「国際」には「I」のラベルが付与されることになる.本改良は,長単位の品詞,活用型,活用形は,長単位を構成する短単位のうち,末尾の短単位の品詞,活用型,活用形と一致することが多く,それ以外の位置にある短単位と一致する場合は偶然であることが多いという観察に基づく.「Ba」,「Ia」のラベルが付与される短単位を長単位を構成する末尾の短単位のみに限定することにより,チャンキングモデルの精度が向上し,全体の性能が向上することが期待できる.
\section{評価実験}
\label{exp}本章では,\ref{apply_corpus_diff}節で示した改善策の有効性を確認するため,\ref{uchimoto_method}節で示した従来手法と各改善策を行った手法の長単位解析精度を比較する.まず,\ref{pre_exp}節では予備実験として,CSJを用いた実験を行い,従来手法の長単位解析の性能を確認する.また,BCCWJに適用するために行った改善策がCSJに対しても有効であること示す.次に,\ref{luw_exp}節でBCCWJを用いた実験を行う.従来手法と\ref{apply_corpus_diff}節で示した提案手法とを比較し,提案手法の有効性を示す.\subsection{設定}\label{exp_setting}\ref{luw_analysis}章に述べた手法のチャンキングモデルの学習と適用には,CRF++\footnote{http://crfpp.googlecode.com/svn/trunk/doc/index.html}を用いた.CRF++はCRFに基づく汎用チャンカーであり,パラメータはCRF++のデフォルトのパラメータを用いた.また,改良した後処理に用いる品詞,活用型,活用形推定モデルの学習にはYamCha\footnote{http://chasen.org/{\textasciitilde}taku/software/yamcha/}を用いた.YamChaはSVMに基づく汎用チャンカーであり,カーネルは多項式カーネル(べき指数3)を採用し,多クラスへの拡張はone-versus-rest法を用いた.\begin{table}[b]\caption{評価データの規模}\label{data_size}\input{ca13table03.txt}\end{table}実験で用いるデータを表\ref{data_size}に示す.CSJ,BCCWJともに,コアデータを学習データとテストデータに分け,学習データはモデルの学習に,テストデータはモデルの評価に用いている.CSJのデータはUchimotoら\cite{uchimoto2007}の実験設定に合わせて,フィラー,言いよどみを削除して用いた.チャンキングモデルで用いるフィラーと言いよどみの情報としては,短単位の直前がフィラーか否か,もしくは,言いよどみか否かの情報を素性として利用している.また,BCCWJのデータはCSJの結果と比較しやすいように,CSJとデータ規模を同程度にした.なお,本実験では短単位情報は予め適切な情報が付与されていることを前提とする.本実験では,正解データの境界(品詞)のうち正しく推定できたものの割合(再現率)と自動推定した境界(品詞)のうち正しく推定できたものの割合(精度),下記に示す再現率と精度の調和平均であるF値を評価指標として用いる.\[F値=\frac{2\times精度\times再現率}{精度+再現率}\]\subsection{予備実験}\label{pre_exp}予備実験として,CSJに対する実験を行った.実験には表\ref{data_size}に示したCSJの学習データとテストデータを用いた.\ref{uchimoto_method}節で記したCSJを基に構築した長単位解析手法(従来手法)をベースラインとして,CSJの学習データを用いて学習し,テストデータに適用した.また,\ref{apply_corpus_diff}節で記した改善のうち,CSJに対しても適用できる以下のモデルを適用した.\begin{itemize}\item{\bfベースライン+ラベル変更}\\ベースラインに対して,\ref{label_change}節で示したラベル定義の変更をしたモデル\item{\bfベースライン+推定モデル}\\ベースラインの後処理を書き換え規則から品詞,活用型,活用形推定モデルに変更したモデル\item{\bfベースライン+ラベル変更+推定モデル}\\ベースラインに対して,ラベル定義,及び,後処理を変更したモデル\end{itemize}\begin{table}[b]\caption{CSJで学習したモデルを用いた実験結果}\label{pre_exp_result}\input{ca13table04.txt}\end{table}結果を表\ref{pre_exp_result}に示す.CSJに対してベースラインを適用した場合,境界推定で98.99$\%$,品詞推定で98.93$\%$と高い性能が得られていることがわかる.ラベル定義を変更したモデルはベースラインに対し,性能が向上しており,ラベル定義の変更が有効に働くことを示している.後処理に推定モデルを用いたモデルでは品詞推定の精度が向上した.性能差はF値で0.4$\%$と小さいため,CSJへ適用する場合には,書き換え規則でも十分に適用できているといえる.また,ベースラインに対してラベル定義と後処理を変更した場合が最も性能がよく,CSJに対しても有効な改良であることがわかった.次に,CSJで学習したベースラインのモデルをBCCWJのテストデータに適用したところ,境界推定で74.72$\%$,品詞推定で65.58$\%$と大きく精度が落ちる結果となった.これは,当然ではあるが,\ref{csj_bccwj_diff}章で記したように,CSJとBCCWJでは言語単位や品詞体系が異なるためであり,BCCWJを高精度で解析するには解析器の再構築が必要であることを示唆している.\subsection{実験}\label{luw_exp}表\ref{data_size}に示したBCCWJのデータを用いて実験した.まず,BCCWJの学習データを用いて構築したベースラインをBCCWJのテストデータに適用した.その結果を表\ref{exp_result}の3行目に示す.境界推定において98.74$\%$,品詞推定において97.68$\%$の性能となった.CSJを用いて学習,テストした表\ref{pre_exp_result}の3行目の結果(ベースライン)と比較すると,境界推定では0.25$\%$,品詞推定では1.25$\%$,性能が低下した.\begin{table}[b]\caption{BCCWJで学習したモデルを用いた実験結果}\label{exp_result}\input{ca13table05.txt}\end{table}次に,各改善点の有効性を確認するため,以下のモデルを用いて実験した.\begin{itemize}\item{\bfベースライン+汎化素性}\\ベースラインのチャンキングモデルの素性に\ref{apply_pos_tagset}節で示した汎化素性を追加したモデル\item{\bfベースライン+推定モデル}\\ベースラインの後処理を書き換え規則から\ref{apply_pos_tagset}節で示した品詞,活用型,活用形推定モデルに変更したモデル\item{\bfベースライン+語種情報}\\ベースラインのチャンキングモデルの素性に\ref{apply_additional_annotation}節で示した語種情報を追加したモデル\item{\bfベースライン+囲み情報}\\ベースラインのチャンキングモデルの素性に\ref{apply_additional_annotation}節で示した囲み情報を追加したモデル\item{\bfベースライン+ラベル変更}\\ベースラインに対して,\ref{label_change}節で示したラベル定義の変更をしたモデル\end{itemize}結果を表\ref{exp_result}の4行目から8行目に示す.ベースラインに対して,いずれの改良を加えた場合でもF値が向上した.境界推定に関しては,汎化素性が性能向上に大きく貢献した.品詞推定に関しては,後処理を書き換え規則から品詞,活用型,活用形推定モデルにした手法で大きく性能が向上した.提案手法としてCSJとBCCWJの形態論情報における相違点に対する改良をすべて行ったモデルを適用した.結果を表\ref{exp_result}の9行目に示す.境界推定では98.93$\%$,品詞推定では98.66$\%$の性能が得られ,ベースラインに対して,境界推定で約0.2$\%$,品詞推定で約1$\%$向上した.CSJを用いて学習,テストした表\ref{pre_exp_result}の6行目の結果(ベースライン+ラベル変更+後処理)と比較すると,境界推定では0.13$\%$,品詞推定では0.39$\%$低いが,この性能低下は主としてCSJに比べBCCWJの方が品詞体系が詳細であるため,長単位解析自体の問題が難しくなっていることに起因すると考えられる.また,ベースラインに対して,品詞体系の相違点に対する対処(汎化素性,後処理)を適用したモデル({\bfベースライン+品詞体系対応})を用いた実験を行った.結果を表\ref{exp_result}の10行目に示す.表\ref{exp_result}の9行目の改良手法と同程度の性能が得られており,主な性能改善は品詞体系の差異に対応することで得られていることがわかる.\subsection{考察}\subsubsection{誤り傾向の分析}CSJに対してベースラインを用いた実験(表\ref{pre_exp_result}),BCCWJに対してベースライン,及び,提案手法を用いた実験(表\ref{exp_result})について,誤り傾向を分析した.\begin{table}[b]\caption{境界誤りの例}\label{boundary_error_ex}\input{ca13table06.txt}\end{table}まず,境界推定誤りの傾向を,それぞれの実験について調査したところ,共通する2つの誤りの傾向が見られた.1つ目は名詞連続であり,名詞の短単位列に対する長単位境界を誤ることが多かった.表\ref{boundary_error_ex}の2から4行目に誤りの例を示す.表の例では,短単位境界を「/」,長単位境界を「$|$」で表している.例えば,「医学部倫理委員会」では「医学部」と「倫理委員会」の2長単位にすべきところを「医学部倫理委員会」と誤って1長単位として判定した.これらを正しく解析するには,「部」や「庁」などの境界になりやすい短単位の辞書を構築し,境界になりやすい短単位かどうかを素性として追加することで対応できるだろう.ただし,短単位間の意味的な関係を捉えないと解析が困難な場合もあるため,意味的な関係を考慮できるようにする必要もある.2つ目は複合辞に関する誤りであり,複合辞相当の長単位を複合辞として判定できなかったり,逆に複合辞ではない短単位列を複合辞として判定してしまうことが多かった.例を表\ref{boundary_error_ex}の5から7行目に誤りの例を示す.短単位列が複合辞か否かは前後の文脈に大きく依存するため,正しく解析できるようにするためにはそれらを考慮した素性が必要となるだろう.表\ref{boundary_error}に全体の誤りに対する名詞連続と複合辞の誤りの割合を示す.いずれのデータ,モデルにおいても,名詞連続と複合辞については誤り率が高く,コーパスに関わらず難しい問題であることがわかる.\begin{table}[b]\caption{境界推定誤りの傾向}\label{boundary_error}\input{ca13table07.txt}\end{table}\begin{table}[b]\caption{品詞誤り}\label{pos_error}\input{ca13table08.txt}\end{table}\begin{table}[b]\caption{品詞誤りの例}\label{pos_error_exmaple}\input{ca13table09.txt}\end{table}次に品詞誤りの傾向を調査した.CSJについては品詞誤りがほとんど見られなかったため,BCCWJのみを調査した.表\ref{pos_error}に主な品詞誤りの原因とその割合を示す.ベースライン,提案手法のどちらのモデルにおいても,名詞-普通名詞-一般と名詞-固有名詞-一般などの名詞同士の誤りが多く見られた.例を表\ref{pos_error_exmaple}の2から4行目に示す.例えば,「欧州連合」を名詞-固有名詞-一般と判定すべきところを,名詞-普通名詞-一般と誤って判定した.これに対する改善策としては,固有名詞になりやすい名詞を学習データから取得し,素性として利用することが考えられる.また,ベースラインを用いた場合は,名詞-普通名詞-一般と副詞,形状詞-一般との誤りが多く見られた.誤りの例を表\ref{pos_error_exmaple}の5から8行目に示す.「最近」という長単位を名詞-普通名詞-一般と判定すべきところを,副詞と誤って判定する例などがあった.一方,これらの誤りは提案手法を用いた場合はほとんど見られなかった.これはベースラインでは書き換え規則により品詞を付与しているためだと考えられる.書き換え規則では頻度が高い規則が適用される.「最近」という長単位の場合,名詞-普通名詞-一般よりも副詞として出現することが多いために書き換え規則では誤って副詞と判定してしまう.これに対し,品詞推定モデルでは前後の文脈を考慮し,文脈に沿って品詞を判定するため,名詞-普通名詞-一般と副詞,及び,名詞-普通名詞-一般と形状詞-一般に関する誤りが大きく減少したと考えられる.\subsubsection{人が見たときに気になる誤りへの対処}後処理を書き換え規則から品詞推定モデルにしたことにより,品詞の推定精度が大幅に向上した.しかし,学習による品詞推定をする場合,人間では誤らないような品詞が付与される可能性がでてくる.これは,品詞推定の際に,学習データにでてきたすべての品詞の中から最尤の品詞を推定するためである.もし,BCCWJの品詞体系で認められていない形式で品詞が付与されてしまうと,少数の誤りであっても人が見たときには目立つ誤りとなる.特に,研究対象になりやすく,自動解析も強く求められている複合辞などに対しては配慮する必要がある.例えば,「として」という助詞-格助詞の複合辞に対して,BCCWJの品詞体系で認められていない助詞-係助詞などの品詞を付与したり,複合辞とは認められていない短単位列を複合辞として判定してしまうと,人が見たときに目立つ誤りとなり,解析器の信頼性が大きく低下してしまう.そのため,\ref{apply_pos_tagset}節で述べた品詞推定モデルでは,複合辞については予め複合辞辞書を用意し,特定の品詞しか付与しないよう対処している.\subsubsection{コーパスのアノテーションと自動解析について}アノテーションの精度を高めることは,コーパスを用いた研究を行う場合,非常に重要であるが,そのためにはどこに人手をかけるべきかを検討する必要がある.例えば,言語単位や品詞体系の定義を複雑にすると自動解析が難しくなるため,自動解析結果の修正に人手をかける必要が生じる.話し言葉の場合,フィラーや言いよどみなどを適切に自動解析するのは難しいため,CSJでは書き起こしの段階で人手でタグを付与している.逆に,コーパスに付加する情報を一部犠牲にして,定義を柔軟にすることで自動解析の精度を向上させることにより,人手による修正コストを軽減することもできる.例えば,BCCWJでは同格や並列の関係にある場合に,意味的な関係を考慮し,連接する短単位それぞれを長単位として適切に自動認定することは困難であるため,1長単位と定義している.以下の例の「公正」と「妥当」は並列の関係にあるが,1長単位としている.\begin{quote}$|$公正妥当$|$な$|$実務慣行$|$\end{quote}CSJやBCCWJにおいては,長単位情報を付与する前段階で上述のような対処をすることにより長単位解析器としては対処すべき問題が低減されたという面もある.このように様々な言語現象に対応しつつコーパスに効率良くアノテーションするためには,自動解析によるアノテーションの前段階で,自動解析が難しそうな問題に対して柔軟に対処することも重要である.\subsubsection{他の品詞体系への適用についての一考察}提案手法でBCCWJとは異なる品詞体系に対してどの程度対処できるかについて考察する.\ref{pre_exp}節と\ref{luw_exp}節での実験により,提案手法はCSJ,BCCWJのどちらに対しても有効であった.これは提案手法が従来手法に比べ,以下の問題に対して汎用的に対処できるようになったためであると考える.\begin{itemize}\item長単位の品詞の種類の多さ\item階層的な品詞体系\item短単位の品詞と長単位の品詞が異なる\end{itemize}品詞体系がBCCWJより単純,もしくは,複雑な場合を考える.まず,品詞体系がBCCWJより単純な場合は,既にCSJに適用した結果からもわかるように,提案手法により同等以上の性能が得られると考えられる.次に,品詞体系がBCCWJより複雑な場合であるが,想定される複雑性は以下の通りである.\begin{itemize}\item品詞の種類の増加\item品詞体系の階層の複雑化\item短単位の品詞と長単位の品詞の関連性の希薄化\end{itemize}これらはBCCWJの品詞体系がCSJの品詞体系に対して複雑になった点でもある.提案手法では,品詞の階層情報(汎化素性)を用いることにより,品詞の推定精度が向上した.これは,上記の複雑性が増した場合でも,品詞間の関係を別途定義・アノテーションした情報を用いることにより,解析性能を上げることができることを示している.ただし,あまりに複雑な品詞体系の場合,必要となる学習データ量が増えるため,学習データ量が十分ではないことが原因で解析精度が低下することも考えられる.そのため,品詞体系はバランスを考えて定義することが重要である.次にCSJやBCCWJとは異なる品詞体系を利用して,コーパスに対して効率よくアノテーションをする方法について考える.一般に,すべて人手で言語単位や品詞をアノテーションするのはコストが高い.このコストを軽減するためには,(1)対象のコーパスを既存の解析器で解析し,言語単位や品詞体系が異なる部分を修正(2)修正結果を学習データとして,解析器を再学習し,対象のコーパスを再解析,というプロセスを繰り返すことができるのが望ましい.次章では,それを可能とするためのツールについて述べる.一方,このプロセスにおいて修正箇所が少ない場合には差分に相当する部分のみを学習し,既存の解析器による解析結果に対して,差分の部分を後処理で書き換えるような方法の方が有効であるということも考えられる.この方法の有効性の検証は今後の課題である.
\section{長単位解析ツールComainu}
\label{comainu}提案手法を用いることにより,CSJやBCCWJとは異なる言語単位や品詞体系のコーパスに対しても長単位を付与することが可能である.より多くの研究者に対して,品詞体系の異なるコーパスや他分野のコーパスへの長単位情報付与を容易にするためには,長単位解析の学習・解析機能を備えたツールが利用可能になっていることが重要であると考える.\ref{luw_analysis}章で説明した提案手法を実装することにより,長単位解析ツールComainuを作成した.モデルの学習にはBCCWJのコアデータ(45,342文,828,133長単位,1,047,069短単位)を用いた.本ツールは,平文または短単位列を入力すると,長単位を付与した短単位列を出力することができる.平文が入力された場合,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}とUniDicにより形態素解析を行った後に長単位解析を行う.長単位解析のチャンキングモデルにはSVMとCRFのいずれかを用いることができる.また,平文や短単位列の直接入力だけでなくファイル入力にも対応しており,解析結果をファイルに保存することも可能である.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA13f5.eps}\end{center}\caption{Comainuによる長単位解析の実行例}\label{comainu_sample}\end{figure}図\ref{comainu_sample}にComainuによる長単位解析の解析例を示す.図\ref{comainu_sample}の例では,平文を入力とし,CRFによるチャンキングモデルとSVMによる品詞,活用型,活用形推定モデルを用いて長単位解析を実行し,長単位が付与された短単位列を出力している.出力の2〜8列目はそれぞれ短単位の書字形,発音系,語彙素読み,語彙素,品詞,活用型,活用形を表し,出力の9〜14列目はそれぞれ長単位の品詞,活用型,活用形,語彙素読み,語彙素,書字形を表す.長単位解析ツールComainuはオープンソースとしている\footnote{http://sourceforge.jp/projects/comainu/}.これにより,長単位のアノテーションが容易になることが期待される.
\section{まとめ}
\label{conclusion}本論文では,品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,CSJとBCCWJを用いて,長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べた.CSJとBCCWJの形態論情報における相違点に基づき,長単位解析手法を改良し,評価実験により提案手法の有効性を示した.さらに,提案手法の異なる品詞体系への適用可能性について考察した.また,本手法を実装した長単位解析システムComainuについて述べた.本論文では,長単位解析の入力として正しい短単位列を想定したが,短単位,長単位ともに自動で解析した場合,短単位解析結果の誤りが伝播して長単位解析の誤りも増える.また,自動解析結果の誤りを効率よくなくしていくようなコーパスのメンテナンスの枠組みも重要であり,その枠組みの実現のためには,短単位解析の解析誤りが長単位解析に与える影響の調査,特に新たな言語単位や品詞体系を用いた場合にどのような影響がでるかを複数種類のコーパスを対象として比較調査することが今後必要となると考える.\acknowledgment本研究は,文部科学省科学研究費補助金特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築」(平成18年度〜22年度,領域代表:前川喜久雄)からの助成を得ました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{中條\JBA西垣\JBA内山\JBA山崎}{中條\Jetal}{2006}]{nakajo2006}中條清美\JBA西垣知佳子\JBA内山将夫\JBA山崎淳史\BBOP2006\BBCP.\newblock初級英語学習者を対象としたコーパス利用学習の試み.\\newblock\Jem{日本大学生産工学部研究報告B(文系)},{\Bbf39},\mbox{\BPGS\29--50}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{den2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{den}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAProperApproachto{Japanese}MorphologicalAnalysis:Dictionary,Model,andEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalLanguageResourcesandEvaluation},\mbox{\BPGS\1019--1024}.\bibitem[\protect\BCAY{林}{林}{1982}]{hayashi1982}林{大(監修)}\BBOP1982\BBCP.\newblock図説日本語.\\newblock\Jem{角川小辞典},{\Bbf9},\mbox{\BPGS\582--583}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jing2007}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceWeightingforDomainAdaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{風間\JBA宮尾\JBA辻井}{風間\Jetal}{2004}]{kazama2004}風間淳一\JBA宮尾祐介\JBA辻井潤一\BBOP2004\BBCP.\newblock教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル.\\newblock\Jem{言語処理学会},{\Bbf11},\mbox{\BPGS\3--23}.\bibitem[\protect\BCAY{小磯\JBA小木曽\JBA小椋\JBA宮内}{小磯\Jetal}{2009}]{koiso2009}小磯花絵\JBA小木曽智信\JBA小椋秀樹\JBA宮内佐夜香\BBOP2009\BBCP.\newblockコーパスに基づく多様なジャンルの文体比較-短単位情報に着目して.\\newblock\Jem{言語処理学会第15回年次大会予稿集},\mbox{\BPGS\594--597}.\bibitem[\protect\BCAY{近藤}{近藤}{2012}]{kondo2012}近藤泰弘\BBOP2012\BBCP.\newblock日本語通時コーパスの設計について.\\newblock\Jem{国語研プロジェクトレビュー},{\Bbf3},\mbox{\BPGS\84--92}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{Japanese}MorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{前川}{前川}{2004}]{csj}前川喜久雄\BBOP2004\BBCP.\newblock『日本語話し言葉コーパス』の概要.\\newblock\Jem{日本語科学},{\Bbf15},\mbox{\BPGS\111--133}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{bccwj}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{中野}{中野}{1998}]{nakano1998}中野洋\BBOP1998\BBCP.\newblock言語情報処理.\\newblock\Jem{岩波講座「言語の科学」},{\Bbf9},\mbox{\BPGS\149--199}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig2011}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{小椋\JBA山口\JBA西川\JBA石塚\JBA木村}{小椋\Jetal}{2004}]{ogura2004}小椋秀樹\JBA山口昌也\JBA西川賢哉\JBA石塚京子\JBA木村睦子\BBOP2004\BBCP.\newblock『日本語話し言葉コーパス』における単位認定基準について.\\newblock\Jem{日本語科学},{\Bbf16},\mbox{\BPGS\93--113}.\bibitem[\protect\BCAY{大名}{大名}{2009}]{oishi2009}大名力\BBOP2009\BBCP.\newblockコーパスから見える文法.\\newblock\Jem{国際開発研究フォーラム},{\Bbf38},\mbox{\BPGS\23--40}.\bibitem[\protect\BCAY{田野村}{田野村}{2010}]{tanomura2010}田野村忠温\BBOP2010\BBCP.\newblock日本語コーパスとコロケーション.\\newblock\Jem{言語研究},{\Bbf138},\mbox{\BPGS\1--23}.\bibitem[\protect\BCAY{Uchimoto\BBA\Isahara}{Uchimoto\BBA\Isahara}{2007}]{uchimoto2007}Uchimoto,K.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQMorphologicalAnnotationofALargeSpontaneousSpeechCorpusin{Japanese}.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalJointConferencesonArtificialIntelligence},\mbox{\BPGS\1731--1737}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{小澤俊介}{2009年名古屋大学大学院情報科学研究科博士前期課程了.2012年同大博士後期過程了.博士(情報科学).同年より株式会社はてな.自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{内元清貴}{1996年京都大学大学院工学研究科修士課程修了.同年,郵政省通信総合研究所入所.内閣府出向を経て,現在,独立行政法人情報通信研究機構研究マネージャー.博士(情報学).自然言語処理の研究,研究成果の社会還元活動に従事.言語処理学会・情報処理学会・ACL各会員.}\bioauthor{伝康晴}{1993年京都大学大学院工学研究科博士後期課程研究指導認定退学.博士(工学).ATR音声翻訳通信研究所研究員,奈良先端科学技術大学院大学情報科学研究科助教授,千葉大学文学部助教授・准教授を経て,現在,千葉大学文学部教授.専門はコーパス言語学・心理言語学・計算言語学.とくに日常的な会話の分析・モデル化.社会言語科学会・日本認知科学会・人工知能学会・日本心理学会・日本認知心理学会各会員.}\end{biography}\biodate\end{document}
| |
V10N02-04
|
\section{はじめに}
\label{sec:hajime}実際に使用された文例を集めたコーパスは,コンピュータによって検索できる形で準備されることにより,自然言語の研究者にとって便利で重要な資料として利用価値が高まっている.コーパスの種類としては,文例のみを集めた生コーパス(新聞記事など多数がある),文例を単語分けして品詞情報などを付加したタグ付きコーパス(ここでは{\bf品詞タグ付きコーパス}と呼ぶ),さらに文の構文情報を付加した解析済みコーパス\cite{EDR2001}\cite{KyouDai1997}の三種類に分類される.付加情報を持つコーパスは,特にコンピュータによる自然語情報処理において重視されている.しかし,その作成には,対象言語の知識を持つ専門家を含む作成者の多大の時間と手間を要し,作成を容易にして量を揃えることが一つの課題である.最近,日本語の古典をCD-ROMなどに収容する「電子化」の動きが盛んである.これらの提供する古典テキストは生コーパスとして利用できる.さらに単語や品詞の条件による対話検索機能を含むものがあるが,通常は,品詞タグ付きコーパスとして利用することができない.つまり,古典文の品詞タグ付きコーパスはほとんど公開されていない.日本の古典の研究者が従来使用してきた研究補助手段として索引資料がある.特に,いわゆる{\bf総索引}は,「ある文献に出てくるすべての事項・字句とその所在箇所を示す索引」\cite{Nikkoku2001}であり,多数の古典に対して作成され利用されている\cite{Kobayashi2000}.総索引の多くは,単語とその品詞の組からそれを含む文を参照できるなど,言語の研究に必要な情報を含み,その情報内容は品詞タグ付きコーパスに匹敵する.しかし,品詞タグ付きコーパスは,単語・品詞などによる検索機能\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}の実現が可能なほかに,単語の列,品詞の列,単語と品詞の対応などを網羅的に調べて統計的に処理する統計的(確率的)言語処理\cite{Kita1996}に利用することができることが重要である.総索引は単語と品詞からその本文での出現箇所を与えるが,単語や品詞の系列に関する情報を与えることはできない.そこで,古典の総索引を変換し品詞タグ付きコーパスを作成する方法を実現し,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について実験した.品詞タグ付きコーパスの形式は,基本的には,{\bfEDR電子化辞書}の{\bf日本語コーパス}\cite{EDR2001}の形式に従った.使用した総索引資料は,本文編と索引編とから成り,後者は,単語の仮名表記・漢字表記・品詞情報を見出しとして,その単語の本文での出現位置の全てを行番号のリストとして与えている.索引語は,自立語・付属語を問わず全単語である.変換処理の条件と考慮事項は次の通りである.総索引の活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形の名称(ここでは,未然形などを「活用形の名称」と呼び,「活用形」は活用語が活用した具体的な文字列を示すものとする)が与えられるので,変換機能には活用表の知識を保持した.しかし,処理を簡単にするため,単語辞書や単語間の接続可能性などの文法知識は保持しないこととした.総索引は単語の出現位置情報を本文の行番号で与えるが,品詞タグ付きコーパスでは行内の単語位置にタグを付ける必要がある.そこで,ある単語の部分文字列が他の単語の文字列と一致することがあり,これらが同一行に出現する場合の行内の位置決めの問題が生ずる.これに対処するため一種の最長一致法を用いた.総索引の見出しの漢字表記が,まさに漢字のみの表現であり,送り仮名等の単語を構成する仮名文字部分を含んでいないため,本文との照合が完全には行なえないという問題に対しては,照合条件を緩める一種の先読み処理法を用いた.これらの対処によっても照合が完全でない部分については,変換途中に人手によるチェックと修正を行なうこととした.この作業を容易にするため,照合の不完全の部分を示す中間結果を出力した.総索引情報自体に誤りが皆無ではなく,そのための照合失敗もあり得るが,これも人手修正の対象である.この人手作業の結果を取入れて,最終的なコーパス形式の出力を行なう.タグ付きの日本語コーパスの作成例には,EDR電子化辞書の日本語コーパス\cite{EDR2001}や京大コーパス\cite{KyouDai1997}がある.これらは品詞タグの他に構文情報を含む.総索引からの品詞タグ付きコーパスの作成については発表を見ない.欧州では,{\bfコンコーダンス}(concordance)と呼ばれる索引資料が聖書や古典作品に対して作成されており,KWIC(KeyWordInContext)形式で単語の使用例と所在を示している.ただし,単語の品詞などの文法情報は与えられていない\cite{Witten1999}.そのため品詞タグ付きコーパスの変換には用いられないと考えられる.以下,まず\ref{sec:Conc&Corpus}節で総索引と品詞タグ付きコーパスの概要を記し,\ref{sec:trans}節で,実験に用いた総索引と品詞タグ付きコーパスの内容・形式と前者から後者への変換方法を示し,\ref{sec:result&}節で変換実験の結果とその検討を記す.最後に\ref{sec:musubi}節で,まとめと課題を記す.
\section{総索引と品詞タグ付きコーパス}
\label{sec:Conc&Corpus}一般の総索引と品詞タグ付きコーパスについて,内容の概略を記す.変換実験で使用した総索引および作成する品詞タグ付きコーパスの形式と内容については,次節で述べる.\subsection{総索引}\label{sec:concordance}総索引は,ある文献に出てくる全単語とその所在を示す索引であり,日本の古典に関して多数が出版されている.総索引は,単語の表記(見出し語)と品詞とから成るキーと,その本文での出現位置の一覧({\bf転置リスト})との対によって構成されるレコードを,見出し語の辞書順に並べた配列であると言える.本文における出現位置の一覧は,その見出し語の現れる本文の行の識別番号を昇順に並べたものが多い.総索引によっては,出現位置を示す行番号などに加えて,語の使用状況を示すために出現位置の周辺のテキストを見出し語に強調を置いて表示するKWICを提供するものがある\cite{Yamada1958}.しかし,総索引の電子化文書は少ない.最近,日本の古典の本文テキストが電子化文書として提供されることが盛んである.電子化された本文があれば文字列の照合は可能であり,実際にそのような機能とともに本文データを提供する電子化文書も公開されている.しかし,このような単なる文字列としての検索機能では,「たき(滝)」という単語の用例を探そうとして「めでたき」,「ありがたき」の部分文字列も得られてしまうなど基本的な問題がある\cite{Hayashi2000}.この問題を解決して要求に応えるには,単語の認定の必要がある.また,活用語を活用形によらずに検索するには活用語の基本形の情報を持つ必要がある.単語の表記と品詞との組で検索するには,品詞の認定の必要がある.最近,単語・品詞などを条件とする検索機能と古典テキストとを備えた電子化文書の公開もなされているが,対話型検索機能を介してのみ単語・品詞情報などの付加情報の利用が可能であり,それらの情報を直接には参照できないという制約を持つものが多い.この制約は重大であり,品詞タグ付きコーパスで可能な統計的言語処理への適用がこのためにできなくなる.その中で,検索機能とともに本文と索引データ自体を電子化文書として提供するものが現れた\cite{UTA1994}\cite{NIKKI1996}.この総索引データを利用すれば,品詞タグ付きコーパスへの変換が可能であると考えた.\subsection{品詞タグ付きコーパス}\label{sec:tagged-corpus}品詞タグ付きコーパスは,文を単語分けし,それに対応して品詞情報を加えた文例集である.日本文では,EDR電子化辞書\cite{EDR2001}の日本語コーパスや京大コーパス\cite{KyouDai1997}などが作成され活用されている.日本語の古典については,電子化文書の形での生コーパスの作成が盛んであるが,品詞タグ付きコーパスの作成例は見ない.作成者にとって,品詞タグ付きコーパスが生コーパスと異なるのは,単語の認定法・品詞の認定法の検討,本文に対して品詞などのタグ情報を対応づけるデータ構造の設計,個々の文例に関する単語分け・品詞付けの認定作業とそれらのデータの入力作業などの多大な人手を要するという点である(これらの多くは総索引の作成においても,同様に必要である).多くの人が利用するためには,タグの内容やデータ構造の汎用性や利用の容易性が要求される.実際,コーパスのタグ構造に対する要求は拡大しつつあり,汎用性を重視するコーパス形式の検討もなされている\cite{Tanaka2000}\cite{Hashida1999}.品詞タグ付きコーパスは,品詞タグ付き文例レコードの配列より成る.品詞タグ付き文例レコードは,各単語の表記と仮名表記と品詞情報とを含む品詞タグ付き単語情報を文例上の単語の出現順に並べた列より成る.品詞タグ付きコーパスの情報から単語や品詞による検索を行なうことが可能である.また,品詞タグ付きコーパスは,単語・品詞の連接関係などを網羅的に収集して利用する統計的言語処理の手段を提供するという,総索引では提供できない効果を持つ.総索引から品詞タグ付きコーパスへの変換を試みる意義はここにある.すでに出版された総索引は多数あり,それらを電子化してこの変換ができれば,それによって品詞タグ付きコーパスの充実が可能になる.
\section{総索引から品詞タグ付きコーパスへの変換}
\label{sec:trans}ここでは,総索引から品詞タグ付きコーパスへの変換処理について述べる.まず,変換実験の入力である総索引の形式・内容と出力である品詞タグ付きコーパスの形式・内容について記し,次に,本文テキストからのコーパス・レコードの切り出し法,総索引の形式・内容に関する変換処理上の問題点と解決策を記し,最後に変換処理手順を記す.\subsection{利用する総索引の情報内容と形式}\label{sec:ConcStyle}変換実験で用いた総索引は,平安時代の歌物語三篇(伊勢物語,平中物語,大和物語)\cite{UTA1994}と日記文学五篇(土佐日記,蜻蛉日記,和泉式部日記,紫式部日記,更級日記)\cite{NIKKI1996}に関するものである.これらは,本文編(歴史的仮名遣いに改め,濁点・句読点を補い,適宜,漢字を充て,会話部分を「」で括るなどの処置が施されている)と索引編とから成る.いずれも印刷文書と電子化文書の形態で公開されているが,ここでは処理対象の電子化文書の内容と形式に関して述べる(下の記述では適宜簡略化して示す).以下,本文編と索引編とに分けて,それぞれの形式と内容を記す.\noindent{\bf(1)本文編}本文編は,行番号と行文字列の対から成る{\bf行レコード}の配列である.行文字列は,歴史的仮名遣いによる漢字仮名混じり表現であり,句読点や引用の「」が付けられている.行の単位は底本の行体裁を尊重して決められているが,一つの単語は行内に収める仕様になっている(両索引の本文編凡例).もちろん,行末が文の途中であることがあり,また,文の開始が行頭とは限らない.なお,和歌と通常文とは行を分けている.多くの場合,和歌一首は2行に分けて収容されているが,通常文の中に和歌の一部が現れることがあり,この場合にも和歌の部分は別の行に置かれる.次に,行レコードの例を挙げる.\vspace{-8pt}\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【行レコードの例】土佐日記冒頭行.0001,男もすなる日記という物を、女もしてみむとて\noindent【行レコードの例】伊勢物語から2行.1026,世にあふことかたき女になむ。1263,の前の海のほとりに遊び歩き\vspace{-8pt}\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent{\bf(2)索引編}索引編は,索引レコードの配列である.{\bf索引レコード}は次の内容から成る.作品名,所在行,仮名見出し語,漢字表記,品詞情報,K,W前節では,索引レコードの一般的形式として,単語と品詞のキーと,その単語の本文での出現位置の一覧(すなわち,転置リスト)との対であると述べたが,上のレコードは,単純なレコード構造を採用し,1レコードには1つの所在行のみを記している.本文の複数箇所に現れる単語については,出現箇所の個数分(転置リストの要素数分)のレコードを並べることになる.品詞情報は,見出し語の品詞を与えるが,これが活用語の場合には,活用型,活用形の名称をも与える品詞コードとして表現される.活用語の場合,仮名見出しは終止形で与えられるが,所在行での実際の活用形の仮名表現は見出し語と品詞情報とから作成できるようになっている.このため品詞情報には形容詞の活用型(カリ,ク,シク活用),形容動詞の活用型(ナリ,タリ活用),音便表現の使用(音便表現が用いられていることを示す.イ音便など音便の種類は電子化文書には存在しないので,これについては内部処理で補う)を表示できるようになっている.索引レコードの漢字表記は,仮名見出しのみでは利用者が単語を同定できないのでそれを補うためのものであり,本文では仮名表記であっても索引に漢字表記が記載されていることがある.別の問題は,この漢字表記が通常の国語辞典の見出しで使われている漢字表記とは異なり,送り仮名などを省略して漢字部分のみを記したものになっているということである.これらにより,索引語を本文上で照合する処理が単純でない.索引レコードのKとWは,それぞれその語が会話および和歌の中に現れていることを示す.次に,索引レコードの例を挙げる.\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【索引レコードの例】索引レコードから3レコード.品詞情報F4は四段動詞連体形,F2は四段動詞連用形,A0は名詞を示す.仮名表記の次の漢字表記が「逢・合」であり「逢う・合う」でないこと,「遊歩」であり「遊び歩く」でないことに注意.最後の例の「からころも」は和歌の中で使われていることが,記号Wによって判る.伊勢,1026,あふ,逢・合,F4伊勢,1263,あそびありく,遊歩,F2伊勢,143,からころも,唐衣,A0,W\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\subsection{作成する品詞タグ付きコーパスの情報内容と形式}\label{sec:EDRStyle}変換実験で出力する品詞タグ付きコーパスの形式について記す.この形式は,基本的にEDR電子化辞書の日本語コーパスの形式\cite{EDR2001}に従って定めた.それは,すでに作成されているEDR日本語コーパスの検索機能などが使えるためである\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}.EDR日本語コーパスは,{\bf日本語コーパス・レコード}の配列である.日本語コーパス・レコードは,レコード番号,文情報,構成要素情報,形態素情報,構文情報,意味情報,管理情報より成るが,構文情報と意味情報を除いた部分が今回の作成対象である.文情報は,管理番号,出典情報,用例文より成る.構成要素情報は構成要素の配列である.構成要素は,構成要素番号,表記,かな表記,品詞,概念選択より成るが,ここでは概念選択を除いた.形態素情報は,形態素の用例での表記を番号を付けて並べたものである.管理情報は更新日付等を記す.この結果,変換実験で出力する品詞タグ付きコーパスの{\bfレコード形式}は次の通りである.レコード番号,文情報,構成要素情報,形態素情報,管理情報ここで,構成要素情報は,構成要素番号,表記,かな表記,品詞と活用型,活用形名称から成る構成要素の配列である.なお,EDR電子化辞書の日本語コーパスの品詞情報は,まさに品詞のみしか記さず(活用語の活用型・活用形名称の記載がない),活用語は,語幹と活用語尾に分けて示し,活用語尾には「語尾」という品詞を与えている.この仕様であると,総索引に記載されている情報の一部を捨てることになり,また,品詞や活用型・活用形を含めた文法学習などへのコーパスの適用範囲を狭くしてしまう恐れがある.そこで,総索引の与える情報に対応して,活用語尾を含めて単語とし,品詞の他に活用型,活用形の名称を記すこととした.総索引では,活用語の見出し語は終止形で与えられたが,本コーパスで構成要素情報および形態素情報の活用語は,本文における活用形として与えられる.品詞のセットについては,おおむね,総索引のそれを採用するものとする.ただし,総索引では句読点や引用記号などは語として扱われないが,ここでは,EDR日本語コーパスの規則に従って語として扱い,記号という「品詞名」を付ける.次に,品詞タグ付きコーパスのレコードのうち,用例文と構成要素情報と形態素情報の例を挙げる.形態素情報は,本変換によるコーパス・レコードにおいては,構成要素情報の中の構成要素番号と表記の情報と常に同じ内容である.\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【品詞タグ付きコーパスのレコード例】伊勢物語より.レコード番号・管理情報は省略.構成要素情報\verb+{}+は構成要素の配列.構成要素の最後のフィールドは活用形を示すが,活用語でない場合には*を置いている.昔,男ありけり。{1昔むかし名詞*2男おとこ名詞*3ありあり動詞ラ変連用4けりけり助動詞終止5。。記号*}/1:昔/2:男/3:あり/4:けり/5:。\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\subsection{本文テキストからのコーパス・レコードの切り出し}\label{sec:Sentence}次に,コーパスのレコード単位の切り出し法に関する問題点と,対処法について記す.コーパス・レコードの単位は文であるが,文の区切りを直接に示す情報は本文にも索引にも存在しない.そこで本文の句点によってレコードの区切りとする方法が考えられる.これに関して次の二つの問題がある.その第一は,{\bf会話部を含む文}に関するものである.文中に「」で囲まれた会話部があり,その中に一つあるいは複数の文が含まれることがある.この場合,会話部を含めて全体を1レコードとすべきである(EDR日本語コーパスでも会話部を含んで1レコードとしている).そこで,会話部分の外部の句点(。)のみを文の終りとして用いる必要がある.その第二は,{\bf和歌を含む文}に関するものである.本文上で,和歌には句読点が付けられていない.和歌が文の途中で現れるとき,これらはコーパス上でまとめて1レコードとすべきである.一つまたは複数の和歌が通常文とは別に現れることがあるが,この場合は和歌一首毎にコーパス・レコードとすべきである.しかし,和歌から通常文に続くか切れるかの判定ができない.索引語に和歌で用いられているとの表示(前記のW)があるが,文の開始の印はどこにもないので,和歌の後にある記述が単独の文か,和歌に続く文かは判定できない.そこで,後述の中間結果の上で,和歌部分(複数の場合もある)の開始と終了を表す記号【と】とを本文中に挿入し,人手によって再編集するときの標識とする.人手によってこの部分を調べ,文の区切りの場合にはその印を付けてコーパス・レコード切り出し処理に知らせることとした.なお,この和歌の標識はコーパス上でも保存し(品詞を「記号」とした),コーパス利用時の標識として用いることとした.次に,和歌を含む本文の例を示す.\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\noindent【例】伊勢物語から.文の構成要素として和歌が使われる例.0179,みな人見知らず。渡し守に問ひ0180,ければ、「これなむ都鳥」と言ふを0181,聞きて、0183,名にしおはばいざこと問はむ都鳥0184,わが思ふ人はありやなしやと0185,とよめりければ、船こぞりて泣きにけり。\vspace{-8pt}\begin{verbatim}-----------------------------------------------------------------------------\end{verbatim}\vspace{-8pt}\subsection{総索引の形式・内容の問題点と解決法}\label{sec:ConcProb}総索引の形式・内容の変換処理上の問題点と,それらに対して採用した対処策を次に記す.\begin{itemize}\item{\bf活用表の知識の保持}活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形名称が与えられている.先の索引レコードの例における,見出し語の動詞「あそびありく」に対して,「四段活用」が活用型を,「連用形」が活用形の名称を与えている.この情報によって,その活用形の文字列表現「あそびありき」を求めることが期待されている.そこで,変換機能には各活用語の活用表の知識を保持することとした.学校文法の活用表では同じ活用形名称に対して複数の活用形が記載されていることがあるが,本索引では品詞情報(活用型や活用形の種類の追加)によって活用形がほとんど一意に決められるように配慮されている.\\そこで,仮名表記・活用形名称を用いて活用形の仮名表現を作り照合に用いる.ただし,本文での活用語の表記が漢字を含む場合には,その読みが判らないため,活用形の仮名表現との後方文字の一致で照合とみなす後述の不完全照合を採用する.\item{\bf最長一致法}ある単語Aの部分文字列が他の単語Bの文字列と一致することがあり,両者が同一行に出現することがあり得る.この場合,単語Bの照合が本文の単語Aの途中位置においても成功してしまう.品詞間の連接関係などの文法的な知識は用いないという条件の下でこの問題に対処する方法として一種の最長一致法を用いた.すなわち,索引語と行テキストとの照合時に候補箇所を保存し,当該行に関する索引見出しの全てについて候補箇所を作成した上で,同じテキスト部分に複数の索引見出しとの照合候補がある場合,文字列の長さの最長の単語を採用する.もちろん,同一の長さの候補の間ではいずれかを決められない.\\なお,同一語が行内に複数個現れる場合,同じ作品名・行番号・見出し語の索引レコードがその個数だけ置かれている.\\次に,ある単語とその部分文字列である単語が同一行に現れる例を示す.\\\vspace{-14pt}\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}【最長一致処理の必要な例】連語「その」と助詞「の」が三度現れる本文行.先頭の「の」は,連語「その」の部分とも助詞「の」とも考えられるが,長い方の前者を採用する.\\伊勢,1292,その家の女の子どもいでて,浮き海松の\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}\item{\bf不完全照合法}通常の書物の索引項目は本文で使われる表記によって記載される.それは当然のことと考えられる.ところが,総索引の見出しの漢字表記の主目的は,仮名表記のみでは同定することができない見出し語を同定することのようである(索引編の凡例\cite{NIKKI1996}に,漢字表記の部分の説明として「見出し語の意味を区別するために適宜漢字を充てた」とある).すなわち,この漢字表記が本文で使われているとは限らず,本文では仮名表記であるかもしれない.しかし,本文で漢字を含む表記が用いられている単語については,索引の漢字表記のいずれかと照合できると考えた(この仮定が必ずしも成立しないことは実験結果の検討の項で述べる).\\ところが,さらに問題がある.それは,この漢字表記の記述がまさに漢字のみの表現であり,送り仮名などの単語を構成する仮名文字部分を含まないことである(本文「菊の露」に対して索引の見出し語の漢字表記は「菊露」).この結果,辞書を保持せずに処理を行なうという前提条件の下では本文との照合が完全には行なえないことになる.その対策として,照合条件を緩めて,1文字の不一致があっても先読みを進めて,続く文字列が一致すれば照合成功と扱う不完全照合法を採用することとした.また,本文での活用語に対して漢字が用いられている場合,索引の漢字の読みが不明のため,漢字仮名混じりの活用形が作れない.そこで仮名文字列として作成した活用形と本文の漢字仮名混じり表現との照合では,活用語尾を与えると見られる後方文字の一致で照合成功とみなすこととする.\\結局,索引語と本文との照合において,与えられている全ての漢字表記に基づく不完全照合とともに仮名表記に基づく照合も行ない,他の部分の照合状況と合わせて適切な候補を求めることとした.次に,漢字表記が本文の表記と一致しない例を挙げる.\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}【索引の漢字表記と本文の表記の関係を示す例】\\索引レコード:大和,801,をぐらのやま,小倉山,A0,...\\本文レコード:大和,801,給へるに、紅葉、小倉の山にいろいろ\begin{verbatim}-----------------------------------------------------------------------\end{verbatim}\item{\bf人手修正の支援機能}上記の対策が十分でないことがあるために人手による確認を要する部分が生じる.一方,索引情報と本文情報の不整合(本文を正しいと考えるなら,索引情報の誤り)の場合もあり得る.これらの場合,その中間結果を人手で確認し,場合によっては修正する必要がある.この作業を容易にするため,不完全照合の部分についてはそのことを示す感嘆符!を,照合失敗部(不完全照合法を用いたが失敗した部分を含む)については疑問符?を出力することとした.疑問符を付した文字列については,必ず人手による修正の必要がある.いずれの表示もない箇所については,照合は正しく行なわれているはずである.なお,先に述べたように中間結果の中に和歌の開始・終了を表す標識を出力する.これは人手による和歌と通常文の分割作業の支援のためである.\end{itemize}\subsection{変換処理手順}\label{sec:Method}変換処理では全ての索引レコードと全ての本文レコードの参照が必要であるが,外側ループで取り出すのが索引レコードか本文レコードかの二通りの流れが考えられる.いずれも他方のレコードの取り出しを内ループで行なう.前者の方法では,索引データを順に読み込む毎にそれが参照する本文情報に関する本文行と索引との照合データを蓄える(あるいは,既作成のデータを取出して情報を追加する).後者の方法では,順に読み込む本文レコード毎に,その行を参照している全索引レコードを探して,本文のタグ付けのためのデータを1行ずつ完成させていく.ここでは処理の単純さのため,後者の方法を採用した.図\ref{Flow}に示すように,処理は3段階に分かれる.第1段階の本文と索引との{\bf照合処理}が変換の主処理であり,本文と索引との照合の結果として,人手確認・修正用の必要な部分についての表示を含めた中間結果を本文行単位に出力する.第2段階は中間結果の{\bf確認修正処理}であり,人手作業によって第1段階の中間結果の処理結果表示を参照し確認・修正を行なう.また,和歌と通常文の区切りが必要な位置にはそのことを示す印を付加した.第3段階は{\bfコーパス作成処理}で,修正済みの中間結果と本文に基づいて,文単位のコーパス・レコードとしてまとめながら品詞タグ付きコーパスを出力する.以下,各処理を詳述する.\begin{figure}[bt]\begin{center}\epsfile{file=Fig1.eps,scale=0.5}\end{center}\caption{変換処理手順}\label{Flow}\end{figure}\noindent{\bf第1段階:照合処理}次に示す本文1行に対する処理を,本文の全レコードに対して繰り返す.\noindent{\bf(1)本文レコードの読み込み}本文レコードの次の1行を読み込み,その作品名と行番号を得る.\noindent{\bf(2)索引レコードの読み込みと整備}索引ファイルから,上で求めた作品の該当行を所在行とする索引レコードを読み込み,活用語の場合,仮名見出しと品詞情報からその仮名による活用形を作成する.これを,該当行を所在行とする全ての索引レコードについて行ない,この関連索引データを保持する.\noindent{\bf(3)照合処理による照合候補の探索}本文1行に対する索引データが全て揃うと,その中で本文と索引情報との照合候補の作成を次の3ステップによって行なう(実際にはこれらの処理を2廻り行なった.1廻り目で確定した部分を他の単語の照合候補から除外して2廻り目の照合候補を絞った).照合の結果として,索引の単語が出現する本文テキスト上の位置と,一致した文字数を得る.照合が成功した場合,その語の部分には成功の印である*記号を出力する.照合が失敗した場合,その語の部分には失敗の印である?記号を出力する.\noindent{\bf漢字照合}:索引の見出しに漢字表記が存在する場合,その先頭文字が本文中にあれば,以降の漢字照合を行なう.照合に成功しないと一文字の先読みを行ない,不完全照合処理を行なう(複数個の漢字表記が記されている場合があり,その場合,それぞれについて行なう).活用語の場合は仮名による活用形を作成した後,活用語尾も含めて,一文字先読み・不完全照合処理を行なう.以上によって照合が成功した場合は,この語の部分に不完全照合を示す印として!記号を出力する.照合結果として,索引の単語が出現する本文上の先頭位置と一致文字数を得る.\noindent{\bf仮名読み照合}:索引に漢字表記が存在しないかどうかによらず仮名読みによる照合を行なう.照合の結果として,索引の単語が出現する本文テキスト上の位置と,一致文字数を得る.\noindent{\bf最長一致照合}:上の二つの処理により得られた候補のうち,次のようにして一致文字数の最大のものを第1候補とする.索引見出しに漢字表記がある場合,漢字照合結果があればその中から最長なものを選ぶ.漢字照合結果がなければ,仮名読み照合の結果から一致文字数の最大のものを第一候補とする.索引見出しに漢字表記がない場合にも,仮名読み照合の結果から一致文字数の最大のものを第1候補とする.\noindent{\bf(4)行単位の照合処理による照合候補の絞り込み}上で求めた照合候補の中から,第1候補が求められた部分について,本文に対するタグを作る.そうでない場合は,その語の部分には失敗の印である?記号を出力するとともに作成途中の情報を出力する.\noindent{\bf(5)人手作業用の中間結果の編集出力}行単位の照合処理の結果を編集して出力する.その出力形式とその例を図\ref{CheckF}に示す.その内容について項目別に記し,その後に例を挙げる.\\\noindent{\bf本文行の文字列}:次の例外を除き,本文行の文字列をそのまま記す.例外は和歌の場合であり,記号【】を挿入して和歌部分を囲む.前述のように,本文編で和歌(その部分)は通常文とは別の行に置かれている.また,索引編では索引語の当該行での使用が和歌の中の使用かどうかの区別(W印)がある.これらにより,変換処理において,行レコード全体が和歌部分か否か判定できる.判定の結果,行毎に記号【】を挿入するのではなく,連続する和歌行の先頭行の行頭に記号【を,連続する和歌行の最終行の行末に記号】を挿入した(これにより複数の和歌が【】で囲まれることがある.人手による修正時にこれを一首ずつに分けた).\\\noindent{\bf照合結果を示す特殊記号の列}:本文の文字位置に対応して,照合成功の*記号,不完全照合成功の!記号,照合失敗の?記号を示す.\\\noindent{\bf本文行に対する単語情報の列}:この単語情報は,第一候補番号の後に,一または複数の単語候補のリストを並べたものである.第一候補番号とは,後続の単語候補のうち,何番目の候補(先頭を0番目とする)を採用したかを示す番号である.個々の単語候補は次の情報より成る:\noindent{\bf記号K/M}:記号Kは照合が仮名見出しに依って得られたこと,記号Mは照合が漢字見出しに依って得られたことを示す.\\{\bf単語の漢字表記と仮名表記}:索引の漢字表記と索引情報より作成した仮名表記(活用語の場合は活用形の仮名表記)を示す.\\{\bf本文行内の単語の位置と長さ}:行内で単語の現れる先頭バイト位置と単語のバイト数を示す.\\{\bf品詞・活用型・活用形名称}:単語の品詞,および,活用語の場合はその活用型と活用形名称(ただし,活用語でない場合,活用形名称の代りに*印を置く).\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}【中間結果の例1】図\ref{CheckF}の場合について.\\・本文「富士の山」:索引の漢字表記が「富士山」であるため1文字先読みにより不完全照合に成功する(!印).\noindent・本文「見れ」:索引の漢字表記が本文の「見」と一致し,活用型と活用形名称より求めた仮名表記「みれ」の「れ」の一致により不完全照合に成功する(!印).\noindent・本文「五月のつごもり」:索引の漢字表記が「五月晦日」であり1字先読みで解決せず不完全照合でも失敗する(?印).\noindent【中間結果の例2】本文「遊び歩き」,索引:「あそびありく,遊歩,F2」の照合.\\「遊」のあと1文字が一致しないが先読みして「歩」が一致し,さらに四段活用連用形より仮名見出しの活用形「あそびありき」を得てその最後の文字「き」が本文の「歩」の次の「き」と一致する.これにより不完全照合の成功.\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\begin{figure}[tb]\begin{center}\epsfile{file=Fig2.eps,scale=0.5}\end{center}\caption{中間結果の形式とその例}\label{CheckF}\end{figure}\noindent{\bf第2段階:人手による確認・修正}上の中間結果を人手によって参照して確認・修正する.この作業の結果の中間結果が第3段階の品詞タグ付きコーパス作成処理の入力となる.確認・修正作業内容は次の通りである.\noindent{\bf照合の確認と修正}:確認を要する不完全照合成功の!記号の場合,単語候補について,先頭バイト位置・バイト数が正しいかどうかを確認する.正しければ何もせず誤りがあれば修正する(後述のように,誤りは全くなかった).また修正を要する照合失敗の?記号が存在すれば,第1候補番号および単語候補の行内位置(先頭バイト位置)・長さ(バイト数)を修正する.一般に,他の部分の修正はしない.\noindent{\bf和歌と通常文の接続関係の判断とその反映}:和歌の開始終了標識を参照し,次の文と接続しない場合には和歌終了の直後にコーパス・レコードの終了を示す区切りを置く.また,和歌の開始終了標識が複数の和歌を含む場合,和歌毎に開始終了標識【】で区切り,コーパス・レコードの区切りを置くべきならばその区切り記号を置く.\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}【中間結果の確認・修正例】図\ref{CheckF}の「五月のつごもり」での失敗を次のように修正する.0(五月晦日さつきのつごもり1814名詞*)ここで修正したのは当該単語の長さ(バイト数)の部分のみである.単語候補の「五月晦日」は本文表記と一致しないがこれは修正しない.後述のように,第3段階でタグの漢字表記としては本文における単語の行内位置(ここでは18バイト目)・単語の長さ(ここでは14バイト)によって得られる表記を採用するので,上の修正のみで,正しく「五月のつごもり」となる.\begin{verbatim}----------------------------------------------------------------------------\end{verbatim}\noindent{\bf第3段階:タグ付きコーパス作成処理}第2段階での修正結果の行単位レコードから,文単位のタグ付きレコードを構成する(\ref{sec:Sentence}).その区切り方の基本は,引用部「」の外にある句点(。)によって1レコードを構成するということである.ただし,和歌の前後については,第2段階で人手によって付けた特別の区切り記号によってレコード区切りを行なう.これに関するレコード内容としては次のような場合がある:単独の和歌の場合,通常文(の部分)と後続の和歌の場合,和歌と後続の通常文(の部分)の場合,通常文(の部分)の間に和歌を挟んだ場合.いずれの場合にも,コーパス・レコードの本文文字列の中に和歌の開始・終了を表す【】を用いる(和歌の一部が通常文の中で使われることがあるが,その部分も【】で囲んだ).コーパス・レコードの各単語部分については,中間結果の第1候補番号の単語候補の指す本文表記を単語表記とし,中間結果の単語候補の他の内容(ただし,タグの漢字表記部分は,行内位置情報と長さ情報によって本文表記を求めてこの文字列で置換える)をそのタグとする.
\section{変換結果と検討}
\label{sec:result&}前節の方法によって,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について品詞タグ付きコーパスを作成する実験を実施した.本節では,まずこの変換実験で得たコーパスと変換・修正で発生した事象を記したあと,総索引の内容と形式に対する要望を記し,また変換方式の改良案を記す.\subsection{変換実験の結果と評価}\label{sec:Exp}変換実験で得られた品詞タグ付コーパスについて,作品別に,単語数,人手修正の結果判明した変換失敗単語数,失敗の要因などを表1に示す.表のA.単語数は,各作品の含む単語数とその合計を記す.合計は約15万語であった.ただし,ここでの単語数には,コーパス上で単語として扱った句読点や,引用の「」や和歌を囲む【】を含む.B.失敗数は,人手修正時に修正した単語の個数である.C欄には,失敗数の単語数に対する割合を示す.人手作業では,照合成功の*印,不完全照合の!印,照合失敗の?印が付けられた本文文字の,特に!印と?印の部分に注目して確認と修正を行なった.その結果,!印の部分には全く誤りはなく,?印の部分について誤りを修正した.それが合計9,530件(全体の6.4%)であった.D.漢字表記,E.行またがりは,失敗原因の二例についての内訳個数を示したものである.F欄には,失敗原因の失敗数に対する割合を示す.前者の「漢字表記」(漢字表記が本文の表記と一致しないこと)による失敗は全失敗の約半数を占めている.「行またがり」とは,本文上で一つの単語は単一行内に収めるという仕様が索引の全ての見出し語に適用できると考えて処理したところ,複合語の場合などでは行にまたがって配置されることがあったために失敗したものであるが,その数は少ない.これら以外の誤りとしては,連語の活用型が索引に記載されないことによるもの,特殊な活用型を用意していなかったための誤り(「同じ」など),同表記の複数個の単語が同一行に現れたときに各々の位置を特定できないための失敗などがあった.\begin{table}[tb]\begin{center}\caption{変換実験とその結果}\epsfile{file=TAB1.eps,scale=0.5}\end{center}\label{TAB1}\end{table}\subsection{総索引の内容と形式への要望}\label{sec:request}利用者の立場から総索引に対する要望が発表されている\cite{Miyajima1969}.そこでは,主として,「あることばを索引にのせる際のあつかいかた」の統一性に関する問題が国語学の専門の立場から述べられている.ことばを索引にのせる際の扱い方とは,{\bf単語の認定法}(「散りはつ」などの複合動詞,「かぎりなし」などの体言+用言の構成,「藤の花」などの体言+の+体言の構成を見出し語とするかどうか),{\bf見出し語の形態}(活用語の活用形ごとに見出し語とするより,終止形などでまとめた上に活用形によっても検索できることが望ましい),{\bfよみの決定法}(底本の漢字に対する読みが一意に決まらないことへの対処法),{\bf活用形の認定}などがある.統一としては,{\bf複数の総索引間の統一}(品詞セット,単語の認定法,見出しの立て方など)と{\bf総索引内での統一}の問題とを挙げている.今回の変換実験を通して,総索引の内容と形式に関する第一の要望は,本文で用いられている通りの漢字仮名混じり表記を索引レコードの漢字表記に含むということである.これは,変換処理のためだけでなく,人が参照する場合にも有用であると考えられ,また,索引情報が本文に現れる単語を網羅していることの確認を行なうためにも必要であろう.なお,仮名見出しの単語の同定を目的とし本文の表記の反映を意図しないという漢字表記の役割は,変換に用いた総索引のみでなく大多数の索引で採用されている.二十篇程参照した平安時代の仮名文学の索引文書の中で,その見出し語として本文の漢字仮名混じり表記を採用すると明記しているものは唯一つであった\cite{Yanai1999}.上の「注文」は三十余年前に発表されているが,その後に発行された総索引に十分反映されたとは考えられない.それだけ要求を満たすことが困難であるということかも知れない.しかし,現在では,総索引の作成の道具としてコンピュータを用いることができる.総索引の作成において,いかに統一的な方針を定めても,作業中に誤りが混入することが避けられないが,見出し語の網羅性,本文の表記と索引レコードの漢字表記の整合性,認定した複合語の全文への適用などの確認作業において,コンピュータの支援の効果は大きいはずである.実際,今回の変換実験において,総索引および本文の誤りと思われる次の問題が発見された.\noindent{\bf文字コードの不統一}:本文テキストは2バイトコードで表されているはずであるが,括弧や句読点については,1バイトコードが使われている箇所が多数あった.\noindent{\bf活用型の欠如}:補助動詞と連語については,索引上で活用型の表示がなく,活用形名称が使われているため,これについては活用形表現を作成することができず,必ず照合失敗を起すこととなった.これらについても活用型を表示することが望ましい.\noindent{\bf音便の種類の脱落}:総索引の印刷物には索引レコードに音便の種類(イ音便,促音便など)の表示があるが,電子化文書にはこの記述が抜けている.\noindent{\bf索引語の不足と過剰}:索引語が本文の単語を網羅していない.また,本文に存在しない単語が索引に存在すること.\subsection{変換方式の改良案}\label{sec:newmethod}今回採用した変換では,単語の知識を保持せず,文法知識を最小限に保持したものである.それによる実験の中で,索引情報の形式との関係でこれらの知識の必要性も考慮すべきであることが判明した.以下,変換方式の改良案として記す.今回は総索引の活用語に対して示されている活用型について活用表を用意した.これらの活用型は教科書に載っている標準的なものである.ところが,形容詞「同じ」のように標準の活用型を記されていながら,実は一部で例外的な活用(連体形として「同じき」でなく「同じ」が使われることが多い)をするものがある.このような語に応じた活用表を用意する必要がある.同じ文や行の中に,同じ表記で異なる語(品詞が異なる場合と品詞が同じ場合とがある)の出現があると,現在の変換法では単語の位置をいずれと決めることができない.助詞と助動詞の「に」や,推定と断定の助動詞「なり」の区別などである.この対策としては,助詞・助動詞の接続規則を保持することが考えられる.索引の漢字表記が今回の場合のように,送り仮名や活用語尾などの仮名部分を省略して漢字のみで与えられる場合の対策としては,単語辞書を持つことが考えられる.この単語辞書の漢字表記には本文で用いられる漢字仮名交じり表現が与えられる必要がある.しかし,索引の漢字表記が本文の表記と同じ漢字仮名交じり表記を与えているならば,単語辞書を用いることなく,より高精度の結果を与えることが可能であり,この方が自然な処置であると考える.
\section{むすび}
\label{sec:musubi}\subsection{結論}\label{sec:Conclusion}品詞タグ付きコーパスは,その上に単語・品詞検索などの検索機能を作成することが可能であり,また,単語列や品詞列を扱う統計的自然言語処理にも有用である.しかし,日本文,特に古文についての品詞タグ付きコーパスはほとんど作成されていない.そこで,多数の作成例がある日本語古典の総索引を品詞タグ付きコーパスに変換する方法を検討した.使用した総索引は本文編と索引編とから成り,後者は単語の仮名/漢字表記・品詞情報を見出しとし,その単語の本文での出現行番号のリストを与える.品詞タグ付きコーパスとしては,基本的にはEDR電子化辞書の日本語コーパスの形式を採用した.ただし,品詞情報を拡張し活用語については活用型・活用形情報をタグに反映するなどの変更を加えた.変換機能には活用表の知識のみを保持するが,単語辞書・単語間の接続規則などの知識は持たない簡単な実現法を目指した.ある単語の部分文字列が他の単語の表記と一致し,両者が同一行に出現することがあり得る問題に対し,一種の最長一致法を用いた.索引の見出しの漢字表記が送り仮名等の仮名文字を含まないため,照合条件を緩める先読みと不完全照合法を用いた.不完全照合法により照合できた部分の確認と索引自体の誤りその他による照合失敗部の修正とを容易に行なうため,それぞれの要因を区別する表示を付けた中間結果を出力し,人手によって検査・修正した.以上の結果,約15万単語の品詞タグ付きコーパスを得て,品詞タグ付きコーパスの増強に関して,本方法が有効であることを示した.不完全照合法による照合部分の確認の結果,誤りはなく,不完全照合法が有効に働いたことが判った.本実験における照合失敗すなわち変換誤りについては,その要因の検討を行なった.また,総索引の形式への提案,変換方法の改良案などについて述べた.\subsection{今後の課題}\label{sec:Future}品詞タグ付きコーパスの量と質の増強が今後の課題である.質の向上のためには,単語や品詞の認定などに関するコーパス内の統一性の確保はもちろん,コーパス間統一性も必要であり,相当な検討を要する.この検討においては,利用者および利用目的の多様性を確保するという観点も必要になる.コーパスの形式自体にも汎用性からの検討が必要である.これらについては既に実施中の検討と共通の点が多い\cite{Tanaka2000}\cite{Hashida1999}.古典の主要な文献については,すでに総索引が作成されている.これらについて,上記の検討を加えた上でその電子化を行なうならば,変換処理により,品詞タグ付きコーパスの充実を計ることが可能である.明治時代以降の文献については,EDRコーパスなどの少数例を除いて品詞タグ付きコーパスの例が少ない.また,単語・品詞の認定作業を経た総索引資料が極めて少なく,この点については古典文の場合よりも状況が悪い.今後の基礎的な努力が期待される.\acknowledgment本研究の初期検討を担当した瀧本景子氏,照合不完全部の確認と修正によりコーパスを完成させた田熊亜希子,佃美香,林朋子の各位に感謝します.本研究は\cite{UTA1994}および\cite{NIKKI1996}によって実施した.両著作の著者の方々に感謝したい.なお、本研究の一部は文部省科学研究費補助金(基盤研究C2No.13680492)によって実施した.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{上原徹三}{1969年京都大学大学院・工学研究科・修士課程修了.同年日立製作所中央研究所入所.1993年武蔵工業大学工学部教授.文書処理・日本語処理の研究に従事.博士(工学).情報処理学会,言語処理学会,計量国語学会,ACM各会員.}\bioauthor{金澤恵}{2001年武蔵工業大学工学部電子情報工学科卒業.現在,武蔵工大大学院・工学研究科・電気工学専攻修士課程2年.日本語処理の研究に従事.}\bioauthor{潮靖之}{1999年武蔵工業大学工学部電子通信工学科卒業.2001年同大学院・工学研究科・修士課程修了.現在,(株)東芝に勤務.}\bioauthor{矢古宇智子}{2001年武蔵工業大学工学部電子情報工学科卒業.現在,(株)日立INSソフトウェアに勤務.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N03-02
|
\section{はじめに}
辞書ベースの自然言語処理ツールは高い精度が期待できる反面,辞書未登録語の問題があるため,統計情報を利用して辞書未登録語の抽出を行なう研究が盛んに行なわれている.辞書未登録語はドメイン固有の語句と考えることができ,対象ドメインの統計情報の利用が有効である.本稿ではドメイン固有の文字列の自動抽出で問題となるノイズを2方向のアプローチで解決する手法を提案する.本手法は辞書ベースのツールに付加的な情報を半自動的に与えて辞書未登録語の抽出を行なうことで処理精度の向上を図るものである.本稿では形態素解析ツールについて実験を行なったが,本手法は処理内容やツールに特化したものではなく,ツールの改変を伴うものではない.
\section{語句抽出}
現在研究されている語句抽出システムは,ほとんどが対象を名詞に準じた単語列に限定したものである.これは,抽出の対象となる語句は未知語や専門用語が主であり,どちらも名詞がその大半を占めるためである.未知語,専門用語,固有名詞などはドメイン固有の語句と言ってよいが,ドメイン固有の語句となりうるのは新語や複合語がほとんどで,例えば助詞のように新語の出現しないものや活用語のようにドメインによってはほとんど新語がないものなどは抽出対象となりにくく,名詞に準じる語句を抽出対象とすることでかなりの未知語,専門用語などを取得することが可能である.また,対象とする品詞を限定することで抽出処理に必要なルールが削減され,ノイズの軽減に繋がるという利点がある.\subsection{名詞句抽出}抽出対象は主に,名詞の推定と名詞句の推定とに二分されており,特に名詞の推定では専門用語など複合語の推定を行なうものと固有名詞などの未知語を認識するものに分けられる.名詞句の推定を目的とした研究としては,Argamonらの提案したサブパターン概念を利用する手法\cite{argamon98}などが挙げられる.専門用語などドメイン固有の語句の抽出では,tf・idfモデルなど語句の出現頻度を利用する手法と$n$-gramなど文字の共起頻度を利用する手法がある.湯本らはunigramおよび隣接bigramの出現頻度を利用して複合名詞の認識を行なう手法を提案した\cite{yumoto01ipsjnl}.湯本らの抽出対象は専門用語であったが,彼らは専門用語として複合名詞のみを考え,名詞のみに着目した隣接bigramを利用して複合名詞の推定を行なった.専門用語となる語句の大部分を複合名詞が占めること,頻出複合名詞の構成要素である名詞は共起頻度が高く,また特定の単語同士の並びが多いことを考えると,この手法は効率的だと言える.Frantziらは英語を対象としてC-valueを利用して複合語を認識する手法を提案し,さらにこれにコーパスサイズや重みなどを利用してランク付けを行なった\cite{frantzi97}.Chaらは未登録語発見のための形態素パターン辞書を利用して未登録語の認識およびタグ付けを行なう手法を提案した\cite{cha98}.固有名詞の認識では,最大エントロピー法を利用して固有名詞の切り出しを行なうBorthwickの手法\cite{borthwick99}や,固有名詞の前後に出現しやすい語をトリガーワードとして固有名詞の認識を行なう手法\cite{kitani94,hisamitsu97},トリガーワードと構文解析情報を利用する福本らの手法\cite{fukumoto98}などがある.またCucerzanらは文字の並びの情報を利用して少ない訓練データからの固有名詞の推定を可能にする手法を提案し,ルーマニア語や英語など複数の言語に対して有効であることを示した\cite{cucerzan99}.\subsection{文字単位の統計情報を利用した辞書未登録語抽出}文字の共起情報を利用する手法としては,$n$-gramの画期的な抽出法を提案しこれを利用して文中の文字列の塊を認識する長尾らの手法\cite{nagao94}などが挙げられる.中渡瀬らは$n$-gram統計を利用して辞書未登録語を自動獲得する手法を提案した\cite{nakawatase98}.中渡瀬らは任意の文字列の頻度を正規化する手法を提案し,これを用いて語の境界を決定することで,辞書未登録語を獲得している.中渡瀬らはこの手法で漢字未登録語の43\%の取得に成功したと報告している.中渡瀬らの手法では評価対象を漢字未登録語に限定しているが,これは漢字とその他の字種の出現頻度分布が異なるためで,正規化を行なう中渡瀬らの手法では漢字での精度が高いためである.延澤らは品詞タグや文法などに頼らず機械的に取得可能な文字間の統計情報のみを利用して文の切り分けを行なう手法を提案している\cite{nobesawa96coling}.延澤らはこの手法を利用してドメイン固有の文字列の自動抽出を試みており,口語文章のような非文を多く含むコーパスに対しても有効であることを示した\cite{nobesawa00coling,nobesawa01anlp}他,固有名詞抽出など抽出対象を絞った場合などについても有効であるとしている\cite{nobesawa99}.文字列の抽出はその後の利用を見込んだものであるが,延澤らの手法では文字単位での処理を行なっているため抽出される文字列は単語,複合語,言い回しなどサイズがさまざまである.自然言語処理においては一般に単語または形態素が処理単位とされている.単語は多義性を持つものも多く,単語が最適な処理単位と言えるかは疑問が残る\cite{fung98}.その意味で,特定の処理単位を設定することは処理の精度に悪影響を与えている可能性もあるが,さまざまな処理単位を同時に扱う手法は確立されておらず,処理単位の特定が必要であるのが現状である.このため,さまざまな処理単位の文字列が同時に出力とされる延澤らの手法を用いて出力された文字列は,そのままでは他のツールでの利用が困難である.そこで本稿では,延澤らの手法の問題点を克服し,この手法を利用して辞書未登録語を抽出することで辞書ベースのツールの精度の向上を図る.
\section{システム概要}
本稿で提案するシステムは,対象ドメインのコーパスからシンプルな手法でドメイン固有の語句を抽出する延澤らの手法\cite{nobesawa01anlp}を応用したものであり,辞書ベースの自然言語処理ツールの支援を目的として2方向からのアプローチを試みる.\subsection{システム概要}本稿では,辞書ベースの形態素解析ツールに対して統計情報を利用することでその精度の向上を図るため,以下の2つのアプローチを試みた.\begin{itemize}\itemシステムM:形態素解析ツールへの組み込みのための統計情報利用システム\begin{quote}形態素解析中に統計情報を利用してドメイン固有の語句を認識するシステムを形態素解析ツールに組み込むことで形態素解析時の誤解析を削減.\end{quote}\itemシステムD:統計情報を利用した辞書の作成システム\begin{quote}形態素解析の前処理として対象ドメイン固有の文字列の辞書登録を行なうことで形態素解析時の誤解析を削減.\end{quote}\end{itemize}どちらのアプローチも対象ドメインの訓練コーパスから得た統計情報を利用することで頻出文字列の認識を実現し,これに起因する解析誤りの削減を図るものである.本稿では形態素解析ツールとして日本語形態素解析ツール茶筌ver.2.2.3\cite{chasen}を採用した.また,統計情報としては文字間の共起情報を採用した.\subsection{共起関係抽出}文字間の共起情報が頻出文字列認識に有用であるとの延澤らの主張\cite{nobesawa01anlp}に基づき,本稿では対象ドメイン固有の頻出文字列の抽出に利用する統計情報として,文字間の共起情報を採用した.そこで,前処理として訓練コーパス中の各二文字ペアの共起頻度を数え上げる.本システムは訓練コーパスに全く制限を設けない.品詞情報などの付加情報を一切利用しないため,形態素解析や構文解析,タグ付けなども必要としない.訓練コーパス中の文字共起頻度の数え上げにはd-bigram確率モデル\cite{tsutsumi93}を利用した.d-bigramとは距離を考慮したbigramモデルであり,{\ttabbc}という文字列の場合,隣接する({\tta},{\ttb})などだけでなく{\tta}と{\ttc}のように離れて出現する二文字の共起関係も取得する.この例では{\tta}と{\ttc}は距離3となり({\tta},{\ttc};3)のように表される.隣接bigramでは視野が非常に狭く文脈情報が利用できないという欠点があり,特に文字レベルでの利用はノイズが大きい.これに対し,d-bigramモデルは距離の情報を保有することでこの問題に対処しており,例えば3単語の並び(trigram)も十分に評価できることが示されている\cite{tsutsumi96}.さらに,同じ文中であっても離れて出現する文字同士は近接して出現する文字同士に比べて関係が薄いと考えることができる\cite{church89acl}という主張に基づき,d-bigramの取得,利用に際して距離の上限および距離の影響力を設定することが可能である.
\section{システムM:茶筌への組み込み}
本稿で提案するシステムは,日本語を対象とした形態素解析ツール・茶筌に統計情報を利用した文字列抽出モジュール(システムM)を組み込むことで統計情報の活用を図るものである.これは茶筌に特化した手法ではなく,茶筌本体の構造を改変するものではない.\subsection{茶筌での統計情報の利用}茶筌は辞書ベースの形態素解析ツールであり,文単位で処理を行なう.図\ref{fig:flo-o}に茶筌による形態素解析の流れを示す.入力であるテストコーパスは一文ずつ処理され,形態素解析結果が出力される.形態素解析処理においては,事前に準備された辞書を利用する.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-o.eps,scale=0.21}\caption{茶筌のみでの形態素解析}\label{fig:flo-o}\end{center}\end{figure}図\ref{fig:flo-m}に本稿で提案する統計情報利用システムを茶筌に組み込んだ場合の形態素解析の流れを示す.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-m.eps,scale=0.21}\caption{システムMを組み込んだ茶筌による形態素解析}\label{fig:flo-m}\end{center}\end{figure}本稿で提案するシステムではまず茶筌に有繋文字列抽出モジュールを組み込むことにより文字列の認識を行ない(\ref{sec:ukninshiki}節),抽出された文字列に専用の品詞名を付けることで辞書の見出し語と同等に扱うことができるようにする(\ref{sec:ukriyou}節).認識する文字列は延澤らの提案した有繋文字列\cite{nobesawa96coling}と呼ばれるもので,文字間の共起情報のみから一塊と推測された文字列である.本システムを組み込むことで,茶筌の持つ辞書の他に,その文中に含まれる有繋文字列を形態素の候補として利用することが可能となる.辞書に掲載されている語句が有繋文字列として抽出された場合は,辞書の情報を優先する.従って,辞書既登録語句は有繋文字列として抽出されることはない.\subsection{形態素解析時における有繋文字列の認識}\label{sec:ukninshiki}文中の$i$番目の文字と$i+1$番目の文字の間の有繋評価値$\uk(i)$の算出式を式(\ref{exp:uk})に示す\cite{nobesawa96coling}.ただし,$w_i$は文$w$の$i$番目の文字,$d$は2文字間の距離,$d_{max}$は$d$の最大値,$g(d)$は距離の影響に対する重み付け関数であり,本稿では$d_{max}=5$,$g(d)=d^{-2}$とした\cite{sano96}.\begin{eqnarray}\label{exp:uk}\uk(i)=\sum_{d=1}^{d_{max}}\sum_{j=i-(d-1)}^{i}\mi_d(w_j,w_{(j+d)};d)\timesg(d)\end{eqnarray}また,2文字間の相互情報量の計算式をd-bigramに対応するよう拡張したものとして式(\ref{exp:mid})を利用した\cite{nobesawa96coling}.ただし,$x$,$y$は各文字,$d$は2文字間の距離,$P(x)$は文字$x$が出現する確率,$P(x,y;d)$はd-bigram($x$,$y$;$d$)が起こる確率とする.\begin{eqnarray}\label{exp:mid}\mi_d(x,y;d)=log_2\frac{P(x,y;d)}{P(x)P(y)}\end{eqnarray}図\ref{fig:mountain-valley}に有繋評価値を利用した文字列認識の例を示す\cite{nobesawa96coling}.\begin{figure}[hbt]\begin{center}\epsfile{file=mountain-valley-half.eps,scale=0.21}\caption{有繋評価値を利用した文字列認識}\label{fig:mountain-valley}\end{center}\end{figure}図の横軸が入力文,縦軸が有繋評価値を示す.横軸のアルファベットは入力文中の各文字を示す.文中の各隣接文字ペア間の有繋評価値は,隣接文字ペアの共起頻度が高いほど高くなる.従って図の中で評価値を繋いだ線が山状になっている部分は共起する可能性の高い部分であり,一塊の文字列である可能性が高い.これに着目し山状の部分を抽出することで,文中の文字列の認識を行なう.\subsection{形態素解析時における有繋文字列の利用}\label{sec:ukriyou}形態素解析中\ref{sec:ukninshiki}節の手法で認識された有繋文字列は専用の品詞およびコストが設定され既存の辞書の登録語と同等として形態素解析処理に利用される.有繋文字列は特定の品詞に対応するものではないが,個々の有繋文字列に対してその品詞の推定を行なうことはシステムの実時間性を損ねるため,品詞「有繋文字列」を新設しこれに対して予め品詞情報を設定しておく.実際に認識される文字列は名詞またはそれに準じるものがほとんどであるため,品詞「有繋文字列」の接続はすべて名詞接続とした.茶筌では各語句に形態素コストが設定されている.有繋文字列は文字間の共起情報によって決定するものであり,一塊の文字列であると評価する際の評価値の高さがそれぞれ異なる.そこで,評価値によって有繋文字列を5段階に分類し,段階ごとに形態素コストを設定することで,評価値の高いものを優先的に利用できるように設定する.\subsection{統計情報を組み込んだ茶筌による形態素解析例}図\ref{fig:ex1newspaper}に,本システムを茶筌に組み込んだ場合の実行例を挙げる.図\ref{fig:ex1newspaper}の上段が茶筌のみで解析を行なった場合,下段がシステムMを組み込んで解析を行なった場合の切り分け結果である.下線は辞書未登録語を,太字は有繋文字列として抽出された部分を示す.\begin{figure}[hbt]\begin{center}\begin{tabular}{ll}茶筌のみ&自然/言語/処理/の/分野/で/は/\\&統計/情報/として/\underline{bigram}/な/ど/\\&n/-/\underline{gram}/が/よく/用い/られる/.\\&\\本システム&{\gt自然言語}/処理/の/分野/で/は/\\&{\gt統計情報}/として/{\bfbigram}/など/\\&{\bfn-gram}/が/よく/用い/られる/.\\\end{tabular}\caption{本システムによる切り分けの例}\label{fig:ex1newspaper}\end{center}\end{figure}図\ref{fig:ex1newspaper}では辞書未登録語2文字列が本システムを利用することで有繋文字列として抽出されている.「bigram」のように辞書未登録語がそのままの形で一語である場合,この部分の切り分け結果は正解と変わらないため他の部分の解析結果への影響がない場合が多いが,図\ref{fig:ex1newspaper}の例のように他の部分へ影響を与える場合もある.この例では本システムを利用し「bigram」の品詞が「有繋文字列」となったことで「など」が正しく認識されている.「n-gram」は茶筌のみを利用した場合「n(記号)」「-(記号)」「gram(未知語)」に分割された.複数の字種から成る未知語の場合は字種ごとに区切られる場合がほとんどである.システムMでは字種情報を利用せずすべての字種の文字を同様に扱うため,字種の替わり目で誤分割されず,「n-gram」の認識に成功した.またシステムMを利用することで「自然言語」「統計情報」などの複合語も多く認識された.「自然言語」は,複合語「自然言語処理」の一部分であるが,「自然言語」自体一塊で複合語を形成し「自然言語処理」の構成要素となると考えられる.
\section{システムD:辞書への組み込み}
訓練コーパスから取得した共起情報をそのまま利用する手法ではノイズの問題が防げない.この問題を解決するため,本章では共起情報をそのまま利用するのではなく,共起情報を利用して辞書登録候補文字列を抽出しこれを事前に辞書に登録する手法を提案する.図\ref{fig:flo-d}に本章で提案する辞書作成システムを利用して事前に作成した有繋文字列辞書を茶筌の辞書に組み込んだ場合による形態素解析の流れを示す.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-d.eps,scale=0.21}\caption{システムDを利用した茶筌による形態素解析}\label{fig:flo-d}\end{center}\end{figure}基本的な流れは図\ref{fig:flo-o}と同じだが,利用する辞書は茶筌の基本辞書に有繋文字列辞書を組み込んだものとなっている.この有繋文字列辞書は訓練コーパスから作成したものであり,この辞書を組み込むことによってドメイン固有の文字列を形態素解析処理で利用する.本章で作成する辞書は茶筌の辞書の補完という位置付けであり,辞書既登録語は登録しない.また,茶筌が元々持つ辞書の改変を行なうこともない.\subsection{登録文字列の属性設定}\label{sec:morphcost}辞書登録文字列の属性は以下のように決定する.\paragraph{品詞}登録文字列それぞれに対して適切な品詞を人手で設定することは多大な労力を必要とするだけでなく,その適切さの評価や曖昧性の問題などが存在するため,本稿では登録文字列はすべて同じ品詞とした.登録文字列に割り振る品詞として「有繋文字列」を新設した.品詞「有繋文字列」と他の品詞との接続コストの設定は茶筌の既存の品詞「名詞」中の「一般」カテゴリに準拠することとした.\paragraph{形態素コスト}個々の登録文字列の形態素コストはその文字列の頻度情報などの情報に基づいて個々に設定することとする.この関数で利用するパラメータは,本稿で提案する複数の有繋文字列辞書作成手法に依存するものとする.形態素コスト$c_i$の算出式を式(\ref{exp:morphcost})に示す.ここで$i$は文字列,$x_i$は文字列$i$の情報を示す値であり,$x_i$に適用する値を変化させることで各辞書の特徴を形態素コストに反映させる.\begin{eqnarray}\label{exp:morphcost}c_i=\left[-\frac{c_{max}}{x_{max}-1}\timesx_i+\frac{c_{max}\timesx_{max}}{x_{max}-x_{min}}\right]\end{eqnarray}形態素コストは「コーパス内に1回出現する文字列の形態素コストを4,000とする」とする茶筌の定義に基づき,下限$c_{min}$を0,上限$c_{max}$を4,000または8,000とする.$x_{min}$および$x_{max}$は各辞書で利用する$x_i$によって決まる.\subsection{登録文字列の選択}\label{sec:jisho}本稿では辞書に登録する文字列の選択手法を4種類用意し,4つの辞書を作成した(表\ref{tab:jisho}).\begin{table}[ht]\begin{small}\begin{center}\caption{有繋文字列登録のための辞書一覧}\label{tab:jisho}\begin{tabular}{l|lll}&作成基準&選別&コスト計算の基準\\\hline辞書\idl&一人の評価による選別&人手&文字列出現頻度\\辞書\chk&複数人による評価得点&人手&評価得点\\辞書\frq&出現頻度&自動&文字列出現頻度\\辞書\pos&品詞情報&自動&品詞出現頻度\\\end{tabular}\end{center}\end{small}\end{table}本稿では辞書登録の対象を名詞に準じる文字列に絞る.\subsubsection{辞書\idl:一人の評価による登録文字列選択}\label{sec:whatisidl}訓練コーパスから抽出された有繋文字列を一人の手によってすべての候補をチェックし,そのままで辞書登録可能な有繋文字列,過接合有繋文字列から適切な部分を切り出した文字列の2種類の文字列を選択した.過分割有繋文字列については,分割され削除されていた部分が容易に推測できる場合であっても,登録文字列としなかった.登録文字列の切り出しの対象は,名詞,複合名詞,数式,数値(単位も含む),意味のある記号の羅列,英単語の羅列とし,茶筌既登録語は登録文字列から除外した.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$の候補文字列としての出現頻度$f_i$を適用して算出した.他の選択手法と異なり完全に人手で確認しているためノイズの心配がないことから,$c_{max}$は4,000とした.ユーザ個人が一人で選択する場合,登録語とする基準をユーザ個人で設定できるため,複数人で選別を行なう場合のようなばらつきや基準の統一といった問題がない.しかし,ドメインが大きくなれば登録候補語も増加するため,一個人がこの選別を行なうことは大きな労力となる.\subsubsection{辞書\chk:複数人による評価を利用した登録文字列登録}\label{sec:whatischk}11名の被験者に登録候補文字列のリストを提示し,登録すべきもの,登録すべきか迷うもの,登録すべきでないもの,判断できないものの4段階に分類してもらい,それぞれ2,1,0点として集計を行なった.「判断不能」は評価から外すものとした.評価得点が0となった文字列は,被験者全員が登録すべきでないと判断したものであるため,登録候補としない.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$の評価得点$s_i$,$c_{max}=8,000$を適用して算出した.対象ドメインに詳しい複数の人間が選別を行なうことで,一人一人の労力の軽減が図れるだけでなく,適切な候補語選択がなされると考えられる.しかし選択を行なう人の専門分野や考え方などの相違から,候補語の絞り込みが難しくなる場合もあり得る.\subsubsection{辞書\frq:出現頻度による登録文字列選択}\label{sec:whatisfrq}自動的に選別を行なう場合の最もシンプルな手法は,登録候補になんらかの順位付けを行ないそれに従って登録文字列を決定するものである.評価値は共起情報を基に算出するため,出現頻度の高い文字列は評価値も高くなる傾向があり,この二点は独立ではない.従って,本稿では出現頻度のみを基準として辞書登録文字列の選択および形態素コストの設定を行なう.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$の候補文字列としての出現頻度$f_i$,$c_{max}=8,000$を適用して算出した.出現頻度が1の文字列はノイズである可能性があるため登録文字列から外し,出現頻度2の時形態素コストは最大の8,000を採るように設定した.\subsubsection{辞書\pos:品詞情報による登録文字列選択}\label{sec:whatispos}登録候補文字列を茶筌に掛けて形態素解析を施し,得られた品詞情報を利用して登録文字列を決定する.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$に対応する品詞列の候補文字列としての出現頻度$t_i$,$c_{max}=8,000$を適用して算出した.
\section{システムM+D:辞書登録と切り分け処理の併用}
処理の段階で動的に有繋文字列を認識し利用するシステムMでは,ノイズを完全に防ぐことは不可能である.ノイズを抑えるためには,動的な処理でなく,事前に必要な有繋文字列を辞書登録してしまう方法が有効である.辞書登録を行なうことでドメイン固有の文字列を辞書に反映させることが可能となるが,完全な辞書の作成は不可能であるという辞書ベースの手法の問題点の完全な解決にはならない.また本稿で利用するd-bigram確率モデルはbigram情報の積み重ねであるため特に複合語やこれに類するものの認識において間に入る語句を柔軟に扱えるという利点があるが,辞書登録ではd-bigramの持つ柔軟性が失われる.これらの問題を解決するために,辞書登録と切り分け処理の併用が考えられる.事前にドメイン固有文字列の辞書登録を行ない,さらに補助として組み込みの切り分けシステムを利用することで,頻出語句の認識が可能な上,ノイズの減少を図ることが可能となる.図\ref{fig:flo-md}に本稿で提案する統計情報利用システムと辞書作成システムを利用した有繋文字列辞書の両方を茶筌に組み込んだ場合による形態素解析の流れを示す.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-md.eps,scale=0.21}\caption{システムM,D両方を組み込んだ茶筌による形態素解析}\label{fig:flo-md}\end{center}\end{figure}表\ref{tab:threshold}にシステムMを組み込んだ実験での閾値ごとの形態素コストを示す.\begin{table}[hbt]\begin{center}\caption{システムMでの閾値および形態素コスト}\label{tab:threshold}\begin{small}\begin{tabular}{r|rr}閾値&\multicolumn{2}{c}{形態素コスト}\\&実験M&実験M+D\\\hline\hline11&1,000&10,000\\9&3,000&15,000\\7&4,000&20,000\\5&5,000&25,000\\3&20,000&30,000\\\end{tabular}\end{small}\end{center}\end{table}実験M+DではシステムMをシステムDの補完の立場で利用するため実験Mに比べて形態素コストを大きく設定している.
\section{実験および考察}
本稿で報告する実験は,論文コーパスを茶筌を用いて形態素解析を行なったものである.対象ドメインの持つ統計情報を利用することで形態素解析の精度の向上を図る.\subsection{実験内容}\label{sec:experiments}本章では,本稿で提案している2つのシステムの利用実験について報告する.システムMだけを利用した場合,システムDだけを利用した場合,MとD両方併用した場合,どちらも利用しなかった場合の4種類の実験を行なった.システムDを利用した実験では,それぞれ,\ref{sec:jisho}節で提案した4種類の辞書を試みた.以上,10種類の実験について報告する.\subsubsection{コーパス}本実験では,コーパスとして自然言語処理分野の論文を利用した.訓練コーパス,テストコーパス共に,自然言語処理分野を専攻する学生6人の論文計17本を合わせて作成したものである.本稿では,統計情報利用システムの組み込みで利用する統計情報を得るための訓練コーパスおよび辞書登録のための辞書登録文字列の抽出について,同一の訓練コーパスを利用した.訓練コーパスに含まれる文の総数は4,816,含まれる文字の数は213,489(平均44.33文字/文)である.また本稿では,それぞれの実験における形態素解析対象として,同一のテストコーパスを利用した.テストコーパスに含まれる文の総数は1,149,含まれる文字の数は55,755(平均48.52文字/文)である.\subsubsection{正解形態素解析,正解文字列}\label{sec:seikaikeitaisokaiseki}比較のため,テストコーパスを人手で形態素解析したものと辞書登録すべき文字列の正解リストを作成した.\paragraph{正解形態素解析}テストコーパスを茶筌に掛け,その結果を人手で修正したものである.修正の対象は切り分け誤りおよびタグ付け誤りとした.切り分け誤りは,明らかな間違いの他,複合語とすべき語が切り分けられている場合も含む.複合語としたのは名詞の並びの他,接頭詞が付着するもの,英単語列などである.そのほか,数式,数値は全体で一塊とした.\paragraph{正解文字列}正解形態素解析結果中,茶筌に登録されていない文字列を正解文字列とした.ただし,本稿の手法では名詞に準じるものを対象として考えているため,動詞,形容詞などに相当する文字列は正解文字列から除外した.\subsection{実験結果}\label{sec:expresult}表\ref{tab:expresult}に各実験の結果をまとめる.「茶筌のみ」とある実験は統計情報を利用しない場合のものであり,これと比較することで本稿で提案するシステムの有用性を示す.未知語削減率は茶筌のみの場合に対する割合,形態素総数は正解形態素解析での形態素総数に対する割合である.\begin{table}[ht]\begin{small}\begin{center}\caption{実験結果}\label{tab:expresult}\begin{tabular}{l|rr|rr|rr}実験&\multicolumn{2}{c|}{完全チェック}&\multicolumn{2}{c|}{拡張チェック}&未知語&形態素\\&適合率&再現率&適合率&再現率&削減率&総数\\\hline\hline茶筌のみ&---&---&---&---&---&118.8\%\\\hlineシステムM&38.3\%&26.0\%&50.1\%&51.7\%&86.1\%&98.6\%\\\hlineシステムD\idl&77.0\%&38.9\%&98.1\%&47.8\%&71.4\%&110.2\%\\システムD\chk&67.2\%&23.5\%&96.9\%&34.1\%&66.3\%&112.6\%\\システムD\frq&55.8\%&17.4\%&81.2\%&27.6\%&58.6\%&112.5\%\\システムD\pos&68.2\%&5.8\%&97.5\%&8.7\%&65.0\%&117.1\%\\\hlineシステムM+D\idl&75.5\%&39.4\%&96.3\%&50.0\%&86.5\%&109.3\%\\システムM+D\chk&63.1\%&23.5\%&91.9\%&37.3\%&86.1\%&110.6\%\\システムM+D\frq&52.3\%&17.6\%&79.1\%&31.6\%&85.9\%&110.5\%\\システムM+D\pos&47.7\%&5.7\%&59.0\%&14.2\%&86.1\%&113.5\%\\\end{tabular}\end{center}\end{small}\end{table}それぞれのシステムについての考察は\ref{sec:resultsystemm}節以降で述べる.\paragraph{適合率,再現率}\label{sec:expresultprf}表\ref{tab:expresult}に示した適合率,再現率の算出には,正解形態素解析,正解文字列(\ref{sec:seikaikeitaisokaiseki}節)を利用した.有繋文字列と認識された箇所に対する正解形態素解析中の正解文字列の出現箇所の割合を適合率,全ての正解文字列に対して正しく認識された文字列の割合を再現率とした.正解文字列に完全にマッチしたものを完全適合率および完全再現率,正解文字列と同一ではないが誤りではない有繋文字列の場合を拡張適合率および拡張再現率とした\footnote{拡張適合率,拡張再現率では,有繋文字列が含まれている場合のみを数えた.すなわち正解文字列「自然言語処理」を一塊として抽出するのに失敗した場合,「自然言語(有繋文字列)」「処理(名詞)」のように切り分け結果に有繋文字列が含まれ,かつ切り分け結果が誤りでないと判断された場合を成功,「自然言(有繋文字列)」「語(名詞)」「処理(名詞)」のように有繋文字列を含んでいても切り分け誤りがある場合は失敗,また「自然(名詞)」「言語(名詞)」「処理(名詞)」のように切り分けは誤りでないが有繋文字列を含んでいない場合も失敗とした.}.再現率の計算には正解文字列の総数を利用しているが,この正解文字列はテストコーパスから作成したものであり,訓練コーパス中に出現しない文字列も多く存在する.再現率が低くなる理由の一つに,論文中に含まれる数式および数値が挙げられる\footnote{正解文字列から数式,数値を除いた場合,システムM+D\idlの完全再現率は46.9\%,拡張再現率は56.7\%となる.}.表\ref{tab:expresult}では数式の扱いが厳しく,完全に適合する数式でないと失敗としているが,実際には数式は必ずしも一定の形で現れるとは限らず,辞書登録の対象とするには無理がある.その他の要因としては,論文ごとの表記の揺れや出現語句の相違,複合語の認識失敗がある.表\ref{tab:expresult}を見ると,適合率は完全にマッチした場合で最高77.0\%,拡張適合率では最高98.1\%と高い.これは,有繋文字列が高い精度で抽出されたことを示す.有繋文字列は辞書既登録語を含まないことから,本手法が辞書未登録語の抽出に有効であると言える.どの辞書を利用した場合でも,適合率はシステムDがシステムM+Dの結果を上回る.これは辞書登録文字列の選択が適切になされたことを示す.システムM+DではシステムMの影響でノイズが増えたが,システムMだけの場合では50.1\%であり,システムDがノイズの削減に有効であることが判る.\paragraph{未知語削減率}\label{sec:expresultunk}表\ref{tab:expresult}の未知語削減率は,茶筌のみでの実験結果中の未知語数に対してどれだけ未知語が削減されたかを示す値である.統計情報を一切使わない場合483の文字列が未知語として出力された.本稿のシステムでは,最悪の場合でもその58.6\%の認識に成功している.未知語認識の上限は86\%前後となっているが,これらは訓練コーパス中に出現しなかった未知語67個の抽出に失敗したものである.表\ref{tab:expresult}によると実験M,実験M+Dでは未知語削減率が約86\%となっており,システムMが訓練コーパスに出現する未知語を最大限に削減できることが判る.それに対して辞書登録のみを利用した実験Dは低くなっており,辞書登録だけでは未知語を完全にカバーすることが困難であることを示している.システムM+DはシステムMの持つノイズの問題を抑えながら最大限の未知語削減率を保っている.訓練コーパス中に出現しない文字列の認識は,$n$-gramのように連続型のモデルでは不可能である.それに対し,本手法で採用したd-bigramはギャップのある事象の共起情報を複数組み合わせて文字列認識を行なうため,訓練コーパスに出現しない文字列についても有繋性の推定が可能である\cite{nobesawa98ipsjnl}.推定の精度は訓練コーパスや認識対象文字列に依存するため,これらの効果的な認識が今後の課題として挙げられる.\paragraph{総形態素数}\label{sec:expresultmorph}表\ref{tab:expresult}の総形態素数とは各実験での形態素の総数の正解形態素解析に含まれる総形態素数に対する割合を示す.総形態素数の割合が高ければ過分割が多いことが,割合が低ければ過接合が多いことが推察される.表\ref{tab:expresult}の形態素総数を見ると,本稿のシステムを利用しない場合の形態素総数は正解形態素解析の118.8\%であり,過分割が頻繁に起こって形態素数が2割近く増えていることが判る.システムMだけの場合にはこれが100\%を下回り,過分割がかなり抑えられている.しかし,訓練コーパスとテストコーパスが独立であるため未知語や過分割を完全には除去できないことを考えると,この結果には過接合も多く含まれることが考えられる.実際,システムMでは過接合が多く完全適合率は他に比べて低くなっていた.システムDだけの場合は形態素総数が正解の110\%から117\%となっており,茶筌のみの場合に比べて過分割が減少している.システムM+Dは適合率を十分高く保ったまま形態素総数を110\%前後にしており,システムDだけの場合よりもさらに正解に近づいている.本稿はオープンコーパスでの実験を行なったため,特に数式や数値などの文字列で過分割は避けられない.これらのことから,システムMとDを的確に組み合わせることで過分割を最大限減少させたと言える.\subsection{実験M:統計情報を組み込んだ茶筌による形態素解析}\label{sec:resultsystemm}表\ref{tab:expresult}によるとシステムMの適合率は他に比べてかなり低いが,これは形態素解析時に有繋文字列とされた文字列が他に比べて多いことにも起因する.システムMでは有繋文字列の絞り込みを一切行なっていないため動詞句などノイズとなる文字列を多く含むことが適合率の低下の原因である.システムMでの形態素総数は正解形態素解析の98.6\%と唯一100\%を下回り,システムMを適用することで過分割を大幅に削減できることが判る.しかし,本稿の手法では正解形態素解析よりも形態素総数が多くなることは避けられない.正解形態素解析よりも形態素数が少なくなったシステムMは過接合を多く含んでおり,他に比べて精度が良いとは言えない.システムMは拡張再現率が他に比べて高い(表\ref{tab:expresult}).これはシステムMによる動的な統計情報の利用が正解文字列の認識に有効であることを示している.辞書登録の場合ノイズは減少するが,柔軟な対応が必要な文字列の認識が難しくなる.システムMの利用はこの問題点の解消に有効である.表\ref{tab:paperresultpos}に論文コーパスを茶筌を利用して形態素解析した実験結果を示す.\begin{table}[hbt]\begin{small}\begin{center}\caption{論文コーパスでの実験結果}\label{tab:paperresultpos}\begin{tabular}{l|rrrrrrrrr|r}&\hspace{-2pt}{\footnotesize未知語}&\hspace{-2pt}{\footnotesize有繋文字列}&\hspace{-2pt}{\footnotesize名詞}&\hspace{-2pt}{\footnotesize動詞}&\hspace{-2pt}{\footnotesize副詞}&\hspace{-2pt}{\footnotesize形容詞}&\hspace{-2pt}{\footnotesize助動詞}&\hspace{-2pt}{\footnotesize助詞}&\hspace{-2pt}{\footnotesize記号}&{\footnotesize総形態素数}\\\hline\hline\hspace{-3pt}{\footnotesize茶筌のみ}&\hspace{-2pt}{\footnotesize483}&\hspace{-2pt}{\footnotesize---}&\hspace{-2pt}{\footnotesize12,863}&\hspace{-2pt}{\footnotesize3,892}&\hspace{-2pt}{\footnotesize213}&\hspace{-2pt}{\footnotesize364}&\hspace{-2pt}{\footnotesize1,777}&\hspace{-2pt}{\footnotesize8,499}&\hspace{-2pt}{\footnotesize4,445}&\hspace{-2pt}{\footnotesize33,812}\\\hspace{-3pt}{\footnotesizeシステムM}&\hspace{-2pt}{\footnotesize67}&\hspace{-2pt}{\footnotesize2,218}&\hspace{-2pt}{\footnotesize9,086}&\hspace{-2pt}{\footnotesize3,468}&\hspace{-2pt}{\footnotesize215}&\hspace{-2pt}{\footnotesize321}&\hspace{-2pt}{\footnotesize1,641}&\hspace{-2pt}{\footnotesize7,346}&\hspace{-2pt}{\footnotesize2,898}&\hspace{-2pt}{\footnotesize28,048}\\\end{tabular}\end{center}\end{small}\end{table}表\ref{tab:paperresultpos}を見ると名詞と記号が減少していることが判る.論文コーパスでは複合名詞の出現が多く,頻出する複合名詞が有繋文字列として一塊にされたことが,名詞の減少の大きな理由である.記号の減少については,数式と英字文字列,頻出言い回しが大きな理由として挙げられる.英字,その他の記号の減少の最大の理由は数式である.数式中に含まれる文字列はほとんど未知語または記号として扱われるが「P(x)」など確率を示す関数などは有繋文字列として認識されており,結果的に記号タグの振られる文字列が減少した.句読点と助詞,動詞の減少は,主に頻出言い回しに起因する.頻出言い回しの抽出はシステムMでは防ぐことができず,過接合の頻出の原因となっている.しかし表\ref{tab:paperresultpos}を見ると副詞など他の品詞の形態素数の変化は小さく,システムMの利用による誤解析は少ないことが判る.\subsection{実験D:有繋文字列の辞書登録}本稿では,訓練コーパスを入力として抽出された有繋文字列を辞書登録候補とし,\ref{sec:jisho}節で提案した4通りの方法で辞書登録文字列の選択を行なった.本稿ではそれぞれの登録候補選択手法について文字列ごとに形態素コストの設定を行なっている.登録候補文字列を取得するため,訓練コーパスに対して実験Mと同じ方法で形態素解析を施した.この結果有繋文字列として出力された文字列5,402が各辞書の登録候補文字列となっており,この集合から辞書登録文字列の絞り込みを行なう.\subsubsection{実験D\idl:一人での評価による登録文字列選択}\label{sec:didl}抽出された有繋文字列から選択された登録候補文字列の異なり文字列数は2,482であった.茶筌既登録語を除いた結果,登録文字列数は1,738となった.辞書\idlを利用した実験は適合率が高く,人手での選別でノイズをほぼ抑えることが可能であることが示された.\subsubsection{実験D\chk:複数人による登録文字列選択}\label{sec:dchk}複数人で選択を行なった結果は機械的に選択した2辞書によるものと大差ないという結果になった.システムMと組み合わせた場合には,機械的に作成した辞書に比べてノイズの抑制に効果があった.辞書登録の候補とすべきかどうかの判断では被験者それぞれの考え方にかなりの違いがあったことが問題の一つであると考えられる.\subsubsection{実験D\frq:出現頻度による登録文字列選択}\label{sec:dfrq}登録候補文字列の異なり数2,807のうち出現頻度が1のものは2,152であり,76.7\%に達する.これを登録候補から外すことで,登録文字列数は655となったが,これは4辞書中最少である.辞書\frqを用いた実験の結果を見ると,他に比べて未知語削減率が低いことが判る(表\ref{tab:expresult}).これは頻度だけでは未知語の認識には不十分であることを示す.しかし辞書\frqを利用した場合でも形態素総数の削減は辞書\chkと同等,特にシステムMと組み合わせた場合には辞書\idlを利用した場合に近い結果となっていることが判る.これはこの辞書が過分割の削減に有効であることを示し,頻度情報が複合語の認識に有効であることが判る.\subsubsection{実験D\pos:品詞による登録文字列選択}\label{sec:dpos}辞書\posを用いた実験の結果は,システムD,システムM+Dのどちらでも非常に再現率が低くなっている.これは,この辞書を用いた場合有繋文字列として形態素解析された文字列の数が少なかったためである.しかし辞書\posを利用した場合でも未知語数の削減は他と同等に実現しており,辞書\posは特に未知語の削減に対して有効であることが判る.これは,辞書\posの作成では品詞の情報を利用することで未知語を含むものが優先的に登録されたためであると考えられる.辞書登録すべき文字列とそうでない文字列との品詞情報には明らかな違いがあり,異なり品詞列のうち辞書登録の対象とすべき品詞列は約1割であることが判った.\subsection{実験M+D:辞書登録と統計情報利用システム組み込みの併用}形態素解析時の統計情報の利用を行なうシステムMは動的な文字列の切り分けを可能にし,柔軟な処理が可能となった反面,ノイズの問題が起こる.それに対して訓練コーパスから得られた統計情報を元に辞書未登録文字列を抽出し辞書登録を行なうシステムDは,登録文字列の絞り込みを行なうためノイズの問題を軽減することが可能であるが,柔軟な処理には不向きである.従って,システムDで認識しきれない部分をシステムMが補完する形で両者を組み合わせることで,訓練コーパスの情報を生かした処理が可能となり,精度の向上が期待できる.訓練コーパスからの学習では形態素総数の削減は正解の110\%程度が限界だが,システムM+Dでは形態素総数は110\%前後となっており,特に人手による辞書作成の場合適合率が十分高いことを考えると,コーパスの情報を利用することでテストコーパスの形態素切り分けの精度を十分にあげたと言ってよい.またシステムM+DではシステムMに対して大幅に過接合を削減したにもかかわらず,未知語の削減率はシステムMと同等であり,本手法で未知語の削減率を保ったままシステムDと組み合わせることに成功した.未知語の削減率は最高で86.5\%となっているが,未知語の14\%程度は訓練コーパス中に出現しないものであり,このことを考えると,本稿で提案した手法で未知語を最大限取得することに成功したと言える.さらにシステムMとDを組み合わせることで訓練コーパスに出現しなかった未知語文字列が訓練コーパスの情報を利用することで正しく一塊と認識された例もあった.
\section{結論}
辞書ベースの自然言語処理ツールでは辞書未登録語の問題が防げない.そのため辞書未登録語の自動認識の研究が盛んに行われているが,辞書未登録語には未知語,複合語の二種類の問題があり,ほとんどの研究はそのどちらかに対象を絞ったものである.本稿では辞書ベースの形態素解析ツール・茶筌を対象とし,未知語,複合語双方の解決を目的として,統計情報を形態素解析段階で動的に利用するための組み込みシステム(システムM)と,統計情報を利用した辞書作成のシステム(システムD)の2種類のアプローチを提案した.本稿の手法は茶筌に特化したものではなく,辞書ベースのツールに対してそのシステムを改変することなく付加的な情報を半自動的に追加し辞書未登録語の問題の解決を図るものである.本稿で提案した手法は文字の共起頻度を元にしたものであり,構文解析などの処理は一切必要とせず,ヒューリスティクスも一切利用していない非常にシンプルなものでありながら,システムMのみで86.1\%,システムDのみで71.4\%,両方の併用で86.5\%の未知語の解決に成功した.また抽出した辞書未登録語の適合率が最高で98.1\%となり,複合語についても高い精度で認識することができた.本稿ではオープンコーパスを用いて実験を行ない,本稿で提案した2種類のアプローチを適切に組み合わせることで辞書未登録語の削減を効果的に行なうことに成功した.さらに精度を上げるためにはヒューリスティクスの利用が必要となる.\bibliographystyle{jnlpbbl}\bibliography{biblio.ja}\begin{biography}\biotitle{略歴}\bioauthor{延澤志保}{1994年慶應義塾大学理工学部数理科学科卒業.2002年同大学院理工学研究科計算機科学専攻博士課程修了.工学博士.現在,東京理科大学理工学部助手.}\bioauthor{佐藤健吾}{1995年慶應義塾大学理工学部数理科学科卒業.1997年同大学院理工学研究科計算機科学専攻修士課程修了.現在,慶應義塾大学理工学研究科博士課程に在籍中.}\bioauthor{斎藤博昭}{1983年慶應義塾大学理工学部数理科学科卒業.工学博士.慶應義塾大学理工学部専任講師.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V18N03-02
|
\section{はじめに}
\label{sec:intro}語義曖昧性解消は古典的な自然言語処理の課題の一つであり,先行研究の多くは教師あり学習により成果を挙げてきた\cite{Marquez04,Navigli09}.しかし,教師あり学習による語義曖昧性解消においてはデータスパースネスが大きな問題となる.多義語の語義がその共起語より定まるという仮定に基づけば,一つの多義語と共起し得る単語の種類が数万を超えることは珍しくなく,この数万種類のパターンに対応するために充分な語義ラベル付きデータを人手で確保し,教師あり手法を適用するのは現実的でない.一方で語義ラベルが付与されていない,いわゆるラベルなしのデータを大量に用意することは,ウェブの発展,学術研究用のコーパスの整備などにより比較的容易である.このような背景から,訓練データと大量のラベルなしデータを併用してクラス分類精度を向上させる半教師あり学習,または訓練データを必要としない教師なし学習による効果的な語義曖昧性解消手法の確立は重要であると言える.本稿では半教師あり手法の一つであるブートストラッピング法を取り上げ,従来のブートストラッピング法による語義曖昧性解消手法の欠点に対処した手法を提案する.ブートストラッピング法による語義曖昧性解消においては主にSelf-training(自己訓練)\cite{Nigam00b}とCo-training(共訓練)\cite{Blum98}の二つのアプローチがある\cite{Navigli09}.まずこれらの手法に共通する手順を述べると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{一般的ブートストラッピング手順}\begin{description}\item[Step1]ラベルなしデータ$U$から事例$P$個をランダムに取り出し$U'$を作る.\item[Step2]ラベル付きデータ$L$を用いて一つまたは二つの分類器に学習させ$U'$の事例を分類する.\item[Step3]Step2で分類した事例より分類器毎に信頼性の高いものから順に$G$個を選び,$L$に加える.\item[Step4]Step1から$R$回繰り返す.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}Self-trainingとCo-trainingの違いは,前者はStep2で用いる分類器は一つであるのに対し,後者は二つ用いる点にある.またCo-trainingにおいては二つの独立した素性集合を設定し,各分類器を一方の素性集合のみを用いて作成する.Co-trainingにおいてこのように設定するのは,Step3において追加する事例を一方の素性のみから決定することから,追加事例のもう一方の素性を見たとき新しい規則の獲得が期待できるためである.Self-trainingとCo-trainingの欠点はいずれも性能に影響するパラメータが多数存在し,かつこれらのパラメータを最適化する手段がないことである.具体的にはStep1のプールサイズ$P$,Step3の$L$に加える事例の個数$G$,手順の反復回数$R$は全てパラメータであり,タスクに合わせた調整を必要とする.本稿では,ラベル付きデータとラベルなしデータを同時に活用しつつも,パラメータ設定をほとんど不要とする新しい手法を提案する.本手法はまずヒューリスティックと教師あり学習で構築した分類器によるラベルなしデータの二段階の「分類」を行う.ここで「分類」とは語義曖昧性解消を行い,語義ラベルを付与することを意味する.本稿では以後特に断りがない限り,分類とはこの語義ラベル付与のことを指す.二段階分類したラベルなしデータの中で条件を満たすデータはオリジナルのラベル付きデータに加えられる.その結果,パラメータ設定がほぼ不要なブートストラッピング的半教師あり手法による語義曖昧性解消を実現する.さらに追加するラベルなしデータの条件を変えることで複数の分類器を作成し,アンサンブル学習することで,パラメータの変化に頑健な分類器を生成する.本稿の構成は以下の通りである.\ref{sec:work}節にて関連研究および本研究の位置付けを述べる.\ref{sec:method}節にて提案手法およびその原理を並行して述べる.\ref{sec:exp}節にてSemEval-2日本語タスク\cite{Okumura10}のデータセットに提案手法を適用した実験の結果を示す.\ref{sec:conc}節にて結論を述べる.
\section{関連研究}
\label{sec:work}本節ではまず\ref{sec:intro}節でブートストラッピング手法として挙げたSelf-trainingおよびCo-trainingを用いた語義曖昧性解消の先行研究を概観する.また,アンサンブル学習に基づく語義曖昧性解消には教師あり学習のアンサンブル,教師なし学習のアンサンブル,半教師あり学習のアンサンブルに基づいた手法が提案されており,これら先行研究を併せて概説する.\subsection{ブートストラッピングに基づく研究}\label{sec:work1}Self-trainingに基づいた語義曖昧性解消の先駆けとしてはYarowskyの研究\cite{Yarowsky95}が挙げられる.Yarowskyは「語義はその語の連語より定まる(onesensepercollocation)」「語義はその語を含む談話より定まる(onesenseperdiscourse)」という二つのヒューリスティックに基づき,ラベルなしデータに反復的にラベル付けするアルゴリズムを提案した.この手法は二つの観点からラベル付けをするため,Co-trainingの一種であると見ることもできる.また,このヒューリスティックに基づいたYarowskyのアルゴリズムはAbney\cite{Abney04}により,目的関数の最適化問題として定式化されている.Co-trainingを用いた語義曖昧性解消の早期の例としては新納の報告\cite{Shinnou01a}がある.新納はCo-trainingを適用するにあたり,二組の素性集合の独立性を高めるため,ラベル付きデータに追加するラベルなしデータを素性間の共起性に基づいて選択する手法を提案した.結果,日本語の語義曖昧性解消において通常のCo-trainingよりも性能が向上したと報告した.MihalceaはCo-trainingとSelf-trainingの両方を語義曖昧性解消に適用し,\ref{sec:intro}節にて述べたパラメータの影響について調査した\cite{Mihalcea04a}.この報告ではパラメータの自動での最適化はできず,最適な設定と自動による設定に大きな差があったと報告している.また,Mihalceaは同じ報告の中でスムージングしたCo-trainingおよびSelf-trainingを提案した.これは手順の反復のたびに生成される各分類器の多数決より語義判定しブートストラッピングするという方式であり,ブートストラッピングとアンサンブル学習の組合せの一種と見ることができる.この方式は通常のブートストラッピングよりも性能が向上したと報告された.以上の手法は\ref{sec:intro}節で述べたようなパラメータをタスク(データセット)に合わせ調整しなければならないという大きな課題がある.NiuらはZhuらの提案したラベル伝播手法\cite{Zhu02}に基づいた半教師あり手法による語義曖昧性解消について調査した\cite{Niu05}.ラベル伝播は事例を節点とする連結グラフを考え,重み付きの辺を通してラベルありの事例からラベルなしの事例へとラベル情報を反復的に伝播させる.そして伝播の収束結果よりラベルを推定する.この手法はSenseval-3\cite{Mihalcea04b}Englishlexicalsampleタスクのデータセットに適用した結果,従来の教師あり学習と比較して著しい成果は得られなかったとしている.PhamらはCo-trainingとSmoothedCo-training\cite{Mihalcea04a}に加え,SpectralGraphTransduction(SGT)\cite{Joachims03}およびSGTとCo-trainingを組合せたCo-trainingの語義曖昧性解消への適用を調査した\cite{Pham05}.Transductionとは訓練データから分類器を生成せず,直接テストデータにラベル付けする推論方法である\cite{Vapnik98}.SGTは$k$近傍法のTransductive版であるとされる.SGTは$k$近傍法の応用であるため,$k$がパラメータとなり,かつ$k$は性能に与える影響が大きいと報告されている.よってPhamらの調査した手法全てにはパラメータ設定の問題が存在していることになる.手法のアンサンブルを含まないブートストラッピングによる語義曖昧性解消の研究の最後として小町らの報告\cite{Komachi10}を挙げる.小町らはブートストラッピング手法の一つであるEspresso\cite{Pantel06}に対しグラフ理論に基づいて意味ドリフト\cite{Curran07}の解析を行った.意味ドリフトは,語義曖昧性解消の観点から考えると,どのような語義の語も持つ素性をジェネリックパターンと考え,ジェネリックパターンを持つ(信頼性が低いとされるべき)ラベルなしデータに対し手順の反復過程においてラベルが与えられることにより,反復終了後に生成される分類器の性能が低下してしまう現象と解釈できる.この問題への対処のため小町らは二つのリンク解析的関連度算出法を適用した.この手法は意味ドリフトに頑健かつパラメータ数が一つでさらにその調整が比較的容易という利点を持つ.Senseval-3Englishlexicalsampleタスクのデータセットに手法を適用した実験の結果,小町らの手法は類似したグラフ理論的手法であるHyperLex\cite{Veronis04}やPageRank\cite{Agirre06}と比較して高い性能が得られたと報告している.\subsection{アンサンブル学習に基づく研究}\label{sec:work2}教師あり学習のアンサンブルに基づく研究としては,AdaBoostを用いた\cite{Escudero00},素性として用いる文脈の大きさを変えて複数のNaiveBayes分類器をアンサンブルした\cite{Pedersen00},六種の分類器の組合せによる\cite{Florian02},二段階の分類器の出力の選択に基づいた\cite{Klein02},複数のNaiveBayes分類器の出力の比較に基づいた\cite{Wang04}が挙げられる.ここではWangらの手法をより詳しくみる.WangらはまずPedersonと同様に素性として用いる文脈の大きさ,つまり目標の多義語前後$k$語以内の語を素性として用いるとして,$k$を変えることで複数のNaiveBayes分類器を作成する.次にラベル付きデータを各分類器にて分類する.各要素がこの各分類器による分類結果であるベクトルをdecisiontrajectoryと呼ぶ.最後に各ラベル付きデータから得たdecisiontrajectoryの集合を訓練データとし,これらと入力から得たdecisiontrajectoryの類似度に基づいて入力の語義を判定する.Wangらの手法は中国語の語義曖昧性解消実験の結果,Pedersonの手法などと比較して最も良い結果が得られたと報告した.教師なし手法のアンサンブルの例としてはBrodyらの研究\cite{Brody06}が挙げられる.Brodyらは過去に語義曖昧性解消において有効と報告された教師なし手法であるExtendedGlossOverlap\cite{Banerjee03},DistributionalandWordNetSimilarity\cite{McCarthy04},LexicalChains\cite{Galley03}およびStructuralSemanticInterconnections\cite{Navigli05}を組合せた手法を提案した.この手法は組合せに用いた各手法と比較し,より良い結果が得られたと報告されている.最後に本稿で提案する手法に最も関連の深いブートストラッピング手法のアンサンブルを行ったLeらの研究\cite{Le08}について述べる.Leらは我々と同様に従来のブートストラッピングによる語義曖昧性解消の問題点に対する解決法を提案した.Leらが解決法を提案した問題点は,(1)ラベル付きデータのラベル毎のデータ数の偏り,(2)ラベル付きデータに追加するラベルなしデータ決定の基準,(3)手順の反復の停止条件および最終分類器の作成法の三つである.ここで問題(2)は\ref{sec:intro}節にて述べたパラメータ$G$の決定法,問題(3)はパラメータ$R$の決定法とも換言できる.Leらはこれらの解決のため,追加するラベルなしデータのリサイズ,複数のデータ追加条件の閾値の設定および対応する複数の追加データ集合の設定,訓練データを用いた追加データの評価および手順反復停止条件の設定,そして追加データと教師あり学習手法別の各分類器のいくつかの組合せ法を提案した.ここで追加データの評価と手順反復停止条件の設定の手法は,Zhouらが提案したTri-training法\cite{Zhou05}で用いられた手法を参考に設定している.Tri-trainingはCo-trainingを発展させた手法であり,Co-trainingと異なりパラメータ設定を不要とする特徴がある.実験はSenseval-2\cite{Edmonds01}およびSenseval-3のEnglishlexicalsampleタスクのデータセットを用いて行われ,従来の教師あり手法と比較し最大で1.51ポイントの精度向上が見られたとLeらは報告した.\subsection{本研究の位置付け}\ref{sec:work1}節と\ref{sec:work2}節を踏まえた上での本研究の位置付けは以下の通りである.まず,小町らの手法はパラメータ設定が容易という利点があるが,他の教師あり手法と組合せるのが困難なのが問題点である.高性能な教師あり手法を用いず,さらに性能を向上させるのは難しい.また,Leらの手法の難点として手順の反復停止条件の設定が挙げられる.これは,教師あり学習を用い追加データを訓練データとして分類器を作成しオリジナルのラベル付きデータを分類して得られるエラー率,および追加データの総数に基づき設定される.具体的には次の式を用い追加データの評価値$q$を求める.\begin{equation}q=m(1-2\eta)^2\label{eq0}\end{equation}ここで,$m$は追加データの総数,$\eta$はエラー率を示す.この$q$が前回の値よりも小さければ反復は停止する.しかし反復の停止にこの条件が用いられる具体的根拠は示されていない.単に反復を自動的に停止するためと述べられているだけである.このためこの停止条件が最適であるかどうか疑問が残る.そこで本研究の立場だが,まず本稿ではこの停止条件の追究はしない方針とする.しかし,\ref{sec:intro}節にて目標としたようにブートストラッピングにおけるパラメータの削減は達成を目指す.そこで本研究では手順の反復回数(パラメータ$R$)を一回に留めるという方針を採る.この方針には次の利点が考えられる.\begin{itemize}\item手順の回数が固定され計算時間の予測が立てやすい.\itemラベル付きデータへのラベルなしデータの追加が一度のみとなるため,追加されたデータに対し分析,考察を加えやすい.\item反復1回目の精度を向上させることで,手法を複数反復できるように拡張したとき更なる精度向上が見込める.\end{itemize}以上の検討に基づき,本研究では反復を伴わず,かつ教師あり学習手法を併用した高性能なブートストラッピング的手法を確立する.また反復回数を一回にすることは,反復回数以外のパラメータを削減することにもつながる.詳しくは\ref{sec:method}節にて述べる
\section{提案手法}
\label{sec:method}提案手法は\ref{sec:intro}節で述べたラベルなしデータの二段階の分類とその結果を用いたアンサンブル学習による最終分類器作成の全三段階からなる.手法の流れを次に,また本手法に基づくシステム全体像を図\ref{fig:img01}に示す.\begin{figure}[b]\begin{center}\includegraphics{18-3ia2f1.eps}\end{center}\caption{提案手法システム全体像}\label{fig:img01}\end{figure}\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\begin{description}\item[Stage1]ヒューリスティックによる分類\\(手掛り語獲得,手掛り付き事例抽出・分類1回目)\item[Stage2]教師あり学習手法による分類\\(手掛り付き事例分類2回目,二次分類器作成)\item[Stage3]アンサンブル学習による最終分類器作成\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}まず図\ref{fig:img01}の見方を述べる.長方形の囲みは各種処理,楕円の囲みは各処理の出力を示す.各種処理の中には語義分類の処理が三回登場するが,これらの括弧内の分類器はそれぞれの分類処理のために作成し使用する分類器を示している.実線の矢印は各処理において入出力されるデータの流れを示す.点線は入出力するデータへの処理に利用するデータであり,分類器作成のために訓練データとして用いるデータも含まれる.図\ref{fig:img01}における訓練データとはオリジナルのラベル付きデータを指す.本システムにおける最終的な語義曖昧性解消の対象は,テストデータとして図\ref{fig:img01}のように入力し,その結果は語義分類最終結果として出力される.図\ref{fig:img01}に基づく本システムの概観は次のようになる.まず本システムの最初の手順は手掛り語の獲得である.手掛り語は訓練データから抽出する形で獲得する.第二の手順はラベルなしデータからの手掛り付き事例の獲得である.手掛り付き事例の獲得は,手掛り語を用いたラベルなしデータからの手掛り付き事例の抽出・分類(1回目),訓練データを用いて作成された一次分類器による手掛り付き事例の語義分類,一次分類器による分類結果に基づく手掛り付き事例の分類(2回目)といった多段の手順により実現される.最後の手順はテストデータの語義曖昧性解消である.これは獲得した手掛り付き事例と訓練データを用いた二次分類器の作成,および異なる条件で作成された複数の二次分類器によるテストデータの分類結果に基づく最終分類器の判定より構成される.本節では,以後本手法を全三段階に区切り,詳述していく.ここで一つ注意点がある.それは今,本システムを上述のように手掛り語,手掛り付き事例,語義分類最終結果と出力されるデータに着目し,手順を三つに区切ったが,これは以後に述べる三段階の手順と対応関係にないということである.具体的には,手法第一段階は図\ref{fig:img01}の手掛り語獲得から手掛り付き事例抽出・分類1回目まで,手法第二段階は一次分類器による手掛り付き事例の分類から二次分類器によるテストデータの語義分類まで,手法第三段階は最終分類器によるテストデータの語義分類のみと対応する.手法第一段階はヒューリスティックによるラベルなしデータの分類として一括りし,手掛り語ならびに手掛り付き事例の詳細と併せて\ref{sec:first}節にて詳述する.手法第二段階はラベルなしデータから抽出した手掛り付き事例の教師あり学習手法による分類とその結果に基づく二次分類器の作成として括り出し,詳細を\ref{sec:second}節にて述べる.手法第三段階はアンサンブル学習による最終分類器の作成として括り,\ref{sec:third}節にて詳述する.\ref{sec:summary}節では本手法のまとめをする.このような手法の全三段階の区切りは,\ref{sec:exp}節にて述べる実験結果の考察において意味を持つことになる.なお本稿では,訓練データ,テストデータおよびラベルなしデータはいずれもUniDic\footnote{http://www.tokuteicorpus.jp/dist/}を用いて形態素解析済み\footnote{SemEval-2日本語タスクのデータセットはUniDicを用いた自動解析およびその人手での修正が施されている.}であり,訓練データにおいてラベルは各形態素に付与されているものとする.また本稿では便宜上,形態素を単語または語とも呼ぶことにする.\subsection{Stage1:ヒューリスティックによる分類}\label{sec:first}分類第一段階は訓練データからの手掛り語の獲得ならびにヒューリスティックによるラベルなしデータからの手掛り付き事例の抽出・分類(1回目)からなる.\subsubsection{手掛り語の獲得}本手法で獲得する手掛り語$W_{ts}$とは,訓練データ$L$において語義ラベルが付与された対象語\footnote{本稿では語義曖昧性解消の対象語を単に「対象語」と呼ぶ.}$t$の前後$n_w$語以内において共起する内容語\footnote{具体的には\ref{sec:exp}節参照のこと.}の表層形であり,かつ与えられた訓練データ内で共起する$t$に付与された語義ラベルが必ずある一つの語義ラベル$s$に定まる語の集合とする.後者の条件は,$s$が付与された$t$を$t_s$とすると,形態素$w_j$共起の下で$t$が$t_s$である確率を$p(t_s|w_j)$とすると,\begin{equation}p(t_s|w_j)=1\label{eq1}\end{equation}を満たす$w_j$であることとも書き換えることができる.前者の条件にある窓幅$n_w$については\ref{sec:third}節で詳述する.このような条件を満たす$w_{ts}\inW_{ts}$が語義ラベルが付与されていない$t$と共起したとき,この$t$は単純に式(\ref{eq1})より$t_s$である可能性が高いと考え,以後$W_{ts}$は$t$の語義曖昧性解消の手掛りとして利用する.また表層形を条件としたのは,基本形,品詞といった情報は表層形と比べ情報の粒度が荒く,表層形の方が手掛りとしての信頼性が高いと考えたことによる.もし式(\ref{eq1})を満たす$w_j$が$L$全体で一度だけ出現する語である場合,$t$が$t_s$に決定付けられる可能性は低いとも考えられるが,これは二度以上出現する語の場合も大差はないと筆者は考える.$p(t_s|w_j)$は語義曖昧性解消において単純ベイズや決定リストのルールの信頼度などにしばしば用いられ\footnote{ここでは$w_j$は任意の素性である.},その中で$p(t_s|w_j)$をスムージングして用いる例もいくつかある\cite{Yarowsky95,Yagi01,Tsuruoka02}.しかしこの場合は最適な閾値を求める必要があり,問題がかえって難しくなってしまう.このため,今回は単純な式(\ref{eq1})を$w_{ts}$の条件とした.なお上述の$w_{ts}$は添え字が示すように共起する$t_s$に付与されていた$s$の情報を含む.よって実際の手掛り語獲得では,例えば対象語が「相手」,$n_w=2$,訓練データの一つに「相手に取って不足はない」があり,この文中の「相手」に``117-0-0-3''という語義ID\footnote{ここに示したIDはSemEval-2日本語タスクにて用いられたもの.上位二つの数字は見出し語のID,残り二つはそれぞれ語義の大分類,中分類のIDを示す.なお``117-0-0-3''の辞書定義文は「自分と対抗して物事を争う人」である.}が付与されていたとする.このとき「取っ」という語が訓練データにおいて``117-0-0-3''の語義の「相手」とのみ共起するのであれば,この訓練データからは《取っ,117-0-0-3》という二つ組一つを抽出する.\subsubsection{手掛り付き事例抽出・分類(1回目)}ここでは,まず手掛り付き事例抽出の手順を述べる前にSemEval-2日本語タスクにおける対象語$t$の表記ゆれへの対処について述べる.SemEval-2においては$t$について与えられる情報は訓練データ$L$を除くと与えられた辞書に記述された見出し語$H_t$と語義の語釈文$D_t$のみであり,$t$の表記に関する情報は充分には与えられない.例えば,$t$の一つに「子供」があるが,これは他にも「子ども」「こども」といった表記があるのに対し,$H_t$にない「子ども」という表記の情報は与えられていない.この問題に対処しない場合,ラベルなしデータから$t$の事例を充分な数獲得できないだけでなく,$t$の表記により語義の傾向が変わる場合も考えられ,抽出する事例の語義に偏りが生まれる可能性も考えられる.このため,UniDicの辞書を用いて,以下の手順で$t$の取り得る表記(表層形)$E_t$の獲得を行った.なお下記のStep2では実際には$E_{t0}$からひらがなのみで構成される表層形を除外して$V_t$を抽出している.これはこのような語は語彙素の同定が困難であり表層形獲得精度の低下を招くためである.また$e_t\inE_t$は品詞細分類の情報も合わせて獲得し,以後$t$の事例としてこの二つ組の情報が一致するものを獲得する.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{対象語表層形の獲得手順}\begin{description}\item[Step1]$t$に対し$L$と$H_t$から獲得可能な全ての表層形$E_{t0}$を抽出する.\item[Step2]$E_{t0}$と対応する語彙素$V_t$をUniDicの辞書から抽出する.\item[Step3]$V_t$の全表層形$E_{t1}$をUniDicの辞書から抽出する.\item[Step4]$E_{t0}$および$E_{t1}$を合わせて対象語の表層形$E_t$として獲得する.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}続いて,獲得した手掛り語$W_{ts}$および対象語の表層形$E_t$を用いてラベルなしデータ$U$より手掛り付き事例の抽出および1回目の分類を行う.手順を以下に示す.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{手掛り付き事例抽出・\mbox{分類(1回目)の手順}}\begin{description}\item[Step1]$U$から$e_t\inE_t$と一致する表層形の形態素を探索し,発見したら$i_{t0}$とする.\item[Step2]$i_{t0}$の前後$n_w'$語以内に$w_{ts}\inW_{ts}$が共起する場合,$i_{t0}$を手掛り付き事例$i_{ts1}\inI_{ts1}$として抽出する.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}手掛り付き事例$I_{ts1}$とは対象語$t$の前後に手掛り語$w_{ts}$が共起する事例を指し,上記手順より抽出される.また,ここで抽出される$I_{ts1}$の$s$は$w_{ts}$の添え字の$s$であり,$i_{t0}$に$s$を付与することで分類したとみなすことができる.よって上記手順では,手掛り付き事例の抽出と分類を同時に行っていると解釈できる.一方で,$i_{t0}$の集合$I_{t0}$と$\bigcup_{s}I_{ts1}$の差集合は語義ラベルが付与されないということで,語義判定不可に分類されたと考えることもできる.上記手順を具体例を挙げ説明すると次のようになる.$E_t$に「相手」,$W_{ts}$に《取っ,117-0-0-3》が含まれているとし,$U$より「ゼネコン三十一社を相手取って一人あたり三千三百万円の損害賠償を求めた」という文に対し上記手順を適用するとする.また,$n_w'=2$とする.この場合,文中の「相手」が$i_{t0}$となり,$t$の前後2語以内に「取っ」が共起するため,$s={}$``117-0-0-3''とし,$i_{t0}$を手掛り付き事例$i_{ts1}$として抽出する.さて,ここでパラメータ$n_w'$についてであるが,これは$W_{ts}$獲得に用いるパラメータ$n_w$とは区別する.さらに$n_w'$の値は上述の例と同様に``2''と固定する.この2という数は\ref{sec:second}節で述べる教師あり学習による分類の素性として対象語前後``2''語以内の形態素を用いることと対応するのだが,その理由を列挙すると以下のようになる.\begin{enumerate}\item$W_{ts}$獲得に用いる訓練データ$L$は本タスクにおいて数少ない信頼できるデータである.したがって,$L$からは出来る限り多くの特徴を抽出したい.\item一方,ラベルなしデータ$U$は多量に存在するが,これを自動的に分類したデータは当然ながら必ずしも信頼できるわけではない.\item反復回数一回でなるべく信頼性が高くかつ充分な数のデータの獲得が望ましい.\item$n_w'$を教師あり学習の素性抽出の範囲と一致させた場合,抽出した手掛り付き事例$i_{ts1}$の素性に必ず$w_{ts}$が含まれる.このため,$i_{ts1}$を教師あり手法で再分類したとき高精度の分類が期待できる.\item$w_{ts}$は$n_w$に関わらず式(\ref{eq1})を満たす.つまりある程度の範囲までは$n_w$を大きくすることで信頼性を維持しつつ多数の$w_{ts}$を獲得できる.\item$w_{ts}$が充分な数あれば,一度の処理で多数の$U$を分類しやはり充分な数のデータを$L$に加えることができる.\end{enumerate}上述の理由には従来法の欠点と提案法の利点の両方が含まれている.その対応関係は,理由(4)は(2)への対処であり,(5)は(4)の補足かつ(1)への対処であり,(6)は(5)を踏まえた(3)への対処となる.またここに述べた理由は,\ref{sec:second}節にて述べる手掛り付き事例分類2回目において,\ref{sec:intro}節で述べたパラメータ$P$,$G$,$R$が削減可能となる理由にもなる.詳しくは\ref{sec:second}節にて改めて述べる.以上のアルゴリズムをもって,本手法の第一段階とする.節題の通り,本処理は経験則に基づく部分が多い.しかし,本処理は以降の処理においても必要とされる性質を備えている.これらは\ref{sec:second}節および\ref{sec:third}節にて詳述する.\subsection{Stage2:教師あり学習手法による分類}\label{sec:second}分類第二段階では\ref{sec:first}節で抽出・分類した手掛り付き事例に対し,オリジナルの訓練データから得られる一次分類器を用いて2回目の分類を行う.そして,その結果得られる手掛り付き事例を用いて二次分類器を作成する.\subsubsection{教師あり学習手法}本手法で用いる教師あり学習手法は最適化にL-BFGS\cite{Liu89}を用いた最大エントロピー法\cite{Nigam00a}とした.この理由はSemEval-2日本語タスクフォーマルラン参加チームの一つの報告\cite{Fujita10}に最大エントロピー法が有効というものがあったためである.また学習の素性もFujitaらの報告を参考に次のように設定した.\begin{itemize}\item範囲\\対象語前後2語以内\item1グラム素性\\形態素の表層形\\形態素の基本形\footnote{本研究では用言の基本形のカナ表記を「基本形」とする.詳しくは\ref{sec:exp}節参照のこと.}\item2グラム・3グラム・対象語を含むスキップ2グラム素性\\形態素の表層形\\形態素の基本形\\形態素の品詞と対象語との相対位置の組合せ\\形態素の品詞細分類と対象語との相対位置の組合せ\end{itemize}具体的には,対象語「相手」の事例「相手に取って不足はない」に対しては次の素性が獲得できる.下記例中の``*''を含む素性はスキップ2グラムを示す.また品詞に付与されている番号は対象語との相対位置である.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\small相手,に,取っ,トル,相手に,に取っ,相手に取っ,相手*取っ,にトル,相手にトル,相手*トル,名詞$_0$助詞$_1$,助詞$_1$動詞$_2$,名詞$_0$助詞$_1$動詞$_2$,名詞$_0$*動詞$_2$,名詞-普通名詞-一般$_0$助詞-格助詞$_1$,助詞-格助詞$_1$動詞-一般$_2$,名詞-普通名詞-一般$_0$助詞-格助詞$_1$動詞-一般$_2$,名詞-普通名詞-一般$_0$*動詞-一般$_2$\end{minipage}\end{center}\vspace{0.5\baselineskip}\subsubsection{手掛り付き事例分類(2回目)}前述の学習手法,素性,そして訓練データ$L$を用いて一次分類器$C_1$を作成し,$C_1$を用いて\ref{sec:first}節で抽出・分類した手掛り付き事例$I_{ts1}$を再分類する.この分類2回目の結果が分類1回目の結果と一致する,つまり$C_1$の$i_{ts1}\inI_{ts1}$の分類結果を$c_1(i_{ts1})$としたとき,$c_1(i_{ts1})=s$である場合,$i_{ts1}$を$i_{ts2}\inI_{ts2}$とし$L$に加え,これを用いて$C_1$同様に二次分類器$C_2$を作成する.\ref{sec:first}節で述べたように$i_{ts1}$はその素性に必ず手掛り語$w_{ts}$を含む.そのため$c_1(i_{ts1})$は$s$と一致する可能性が高いが,実際に一致を確認し,一致しなければ$C_2$作成においてこの手掛り付き事例は使わない.この結果,$C_2$作成に用いられる$I_{ts2}$のラベル$s$は信頼性の高いものとなる.このシステムの重要な点は単に二種類の分類手法の結果が合致するものを選択することではない.そうだとすれば,分類1回目は一般的な教師あり学習手法を用いても良いことになってしまう.重要なのは分類2回目にて$C_1$が高い精度で分類可能な事例$I_{ts1}$を分類1回目において選択していることにある.つまり,{\bf分類1回目が分類2回目の精度向上を明確に支援している}ことがポイントである.これにより$I_{ts2}$全てを$L$に加えても信頼性は保持され,同時に充分な数のブートストラッピングが可能になる.これは従来法において必要だった\ref{sec:intro}節に挙げたパラメータ,ラベル付きデータ$L$に加える事例の個数$G$および手順の反復回数$R$を決めることなしに適切な事例を$L$に加えられることも意味する.なぜなら,$G$を定めずとも全事例を$L$に加えればよく,$R$を定めずとも一度の実行で充分な数の事例の獲得が可能だからである.またプールサイズ$P$については,Blumらの考察\cite{Blum98}から考えるとブートストラッピングの反復において意味を持つ値であると思われる.よって,反復回数1の本手法は単にプールを設定する必要がなく,事例を全てのラベルなしデータ$U$から抽出することで処理できる.また,$W_{ts}$は$n_w>2$であれば$L$の素性にない語(つまり対象語から3語以上離れた位置にある語)を含むことから,$I_{ts1}$の素性はやはり$L$の素性にない語を含む.すると$I_{ts1}$が分類2回目の結果,$L$に追加されれば,上述の通り分類2回目の信頼性は高いと言えるため,$C_2$は$C_1$と比べ正しく分類できる$U$が増える可能性が高い.したがって,本手法は$U$の$L$への追加における効率性が高い手法であるとも言うことができる.上述の性質はCo-trainingとの類似性を指摘することもできる.Co-trainingは\ref{sec:intro}節で述べたように二つの素性集合のうち一方のみに基づいて分類することで他方の素性について新しい規則の獲得が期待できるのが特徴である.本手法では,$W_{ts}$と$C_1$に用いる素性の二種類の素性を実質的に両方考慮して手掛り付き事例を分類している.しかし,$C_2$に用いる素性は後者の素性のみである.つまり,一方は他方の一部ということになるが,一方の素性で分類した結果を他方の素性を用いる分類器の訓練データに加えるという点ではCo-trainingと共通する.その一方で,提案手法は$L$に追加する$U$の分類に二種類,つまり全ての素性を用いており,一方のみを使う場合と比較すると分類結果の信頼性が高いという利点がある.このような変則的なCo-trainingと通常のCo-trainingの間にどのような差異が生まれるかは未調査だが,ここに述べた性質は性能の向上に結び付くと期待される.本処理の直感的な意味としては,$C_1$にまず簡単な問題を解かせ,その結果を$C_2$の学習に利用していると解釈できる.一方で従来のブートストラッピングは,難易度がランダムな問題を複数解かせ,その中でシステムが自信を持って答えられるものから学習すると考えられる.しかし後者の場合,回答に対し「間違った自信」を持ってしまい,結果として不適切な学習をしてしまう危険性があり得る.前者の,つまり提案した手法は,確実ではないが$C_1$が解くのが簡単であろう問題を選択しており,この危険性はいくらか低減していると推測される.この推測が正しいとすれば,$C_1$に提示する問題を選択する分類1回目の処理は重要な意味を持つことになる.また,ここで提示するのは勿論ラベルなしの文章であるが,見方を変えると「良い文章」をシステムに提示することでより良い学習が可能になると考えられ,興味深い.\subsection{Stage3:アンサンブル学習による最終分類器作成}\label{sec:third}本節では\ref{sec:second}節で作成した二次分類器$C_2$をアンサンブルして最終分類器$C_3$を作成する方法を述べる.アンサンブルには\ref{sec:first}節の手掛り語抽出において決定法を保留していた窓幅$n_w$を利用する.すなわち,$n_w$をパラメータとする二次分類器を$C_2(n_w)$とし,$n_w$を変化させた$C_2(n_w)$を複数組合せ$C_3$とする.組合せの方法は各最大エントロピー分類器が出力する各ラベルの推定確率の中で最高値を出力した分類器の判定を採用する方式とする.つまり入力を$\mathbf{x}$,$C_2(n_w)$が$\mathbf{x}$に対し出力する語義$s$である推定確率を$p(s|\mathbf{x},n_w)$とすると,\begin{equation}s_*(\mathbf{x})=\argmax_{s}\left[\max_{n_w}p(s|\mathbf{x},n_w)\right]\label{eq2}\end{equation}より求まる$s_*(\mathbf{x})$を$C_3$の出力とする.式(\ref{eq2})の方式で良い結果が得られる根拠は手掛り語$W_{ts}$の条件の一つである式(\ref{eq1})にある.式(\ref{eq1})の制約の下で$n_w$の値を大きくしたとき,得られる$W_{ts}$に以下の二つの変化が見られる.\begin{itemize}\item$n_w$変化前になくかつ$n_w$変化後に式(\ref{eq1})を満たす語が追加される.\item$n_w$変化前にはあるが$n_w$変化後に式(\ref{eq1})を満たさなくなる語が削除される.\end{itemize}ここで重要なのは後者の性質である.式(\ref{eq1})の性質上,後者の変化より$W_{ts}$から削除された語は$n_w$をどんなに大きくしても再度$W_{ts}$に追加されることは絶対にない.$n_w$変化後に削除される語は必ずしも重要度が高い語とも低い語とも言えないが,少なくとも一度は$W_{ts}$の条件を満たすため重要度が高い語を含む可能性は高い.よって,$n_w$の変化によって変わる各$W_{ts}$の集合には他の集合にはない重要度の高い$W_{ts}$が含まれている可能性が少なからずあるということになる.したがって,$n_w$の差異により各分類器に長所・短所が生まれ,アンサンブル学習の効果が生まれやすいということができる.逆に,$C_2$をアンサンブルしない場合,$n_w$の差異により性能に大きく差がつくと考えられ,$n_w$をパラメータとした調整は難しいと考えられる.また$n_w$を増やせば,それだけ対象語から離れた位置にある語を特徴とすることになるため,少しずつ$W_{ts}$の信頼性が落ちていくものと考えられるが,これに伴い任意の$s$に対し$C_2(n_w)$の$s$の推定確率$p(s|\mathbf{x},n_w)$も落ちていくと予想される.すると,$C_3$の出力を式(\ref{eq2})を満たす$s_*(x)$としたが,$n_w$の増大に従い$C_2(n_w)$の判定が採用される確率も減少していくと考えられる.よって,$n_w$の増大は$W_{ts}$の信頼性の減少を意味するが,同時に$C_2(n_w)$の判定の採用確率も減ぜられる.このため本手法は$n_w$の増大に対し頑健なアンサンブル手法であるとも言うことができる.本手法はMihalceaのSmoothedCo-training\cite{Mihalcea04a}およびWangらTrajectoryBasedの手法\cite{Wang04}と類似性を持つ.まずWangらは文脈の大きさを変えながら複数のNaiveBayes分類器を作成しているが,提案手法の処理はこれとよく似ている.Wangらの手法は文脈の大きさというパラメータの影響の差による性能差が小さくなることで性能が上がると見られるが,本手法でも同様の効果が期待できる.またMihalceaはCo-trainingの反復過程にて分類器の多数決を適用した結果,反復回数の差による性能差が小さくなりかつ全体的な性能も向上したと報告したが,本手法における分類器の組合せにおいても同様の効果が期待できる.なお,分類器の組合せのもう一つの単純な方式として推定確率を重みとした重み付き多数決方式,つまり\begin{equation}s_*(x)=\argmax_{s}\left[\sum_{n_w}p(s|\mathbf{x},n_w)\right]\label{eq3}\end{equation}が考えられる.ここで記号の意味は式(\ref{eq2})と同じである.しかし,式(\ref{eq3})の方式は事前実験の結果,式(\ref{eq2})の方式ほどは良くないことがわかった.これは,$n_w$の増大に伴い$C_2(n_w)$の推定確率が低くなることに変わりはないが,式(\ref{eq2})と比べ$n_w$の大きな$C_2(n_w)$の判定がより重めに考慮されていることが原因と思われる.最後に本手法唯一のパラメータである$n_w$の変化の範囲について述べる.一つの方法としては範囲を設けない,つまり任意の$n_w$を許すことが考えられるが,当然ながら$n_w$を増やすことで計算時間が増加する.また,$n_w$の増大に伴う分類器の信頼性の減少に対しある程度は頑健であるとはいえ,限度の存在があり得る.このため$n_w$の変化の範囲には何らかの閾値を定めるのが妥当と考えられる.\ref{sec:exp}節で述べる実験ではパラメータ$n_{\max}$を定め,$1\leqn_w\leqn_{\max}$の範囲で$n_w$を1刻みで変化させるとし,$n_{\max}$の変化により語義曖昧性解消の性能がどのように変化していくか見ていく.\subsection{まとめ}\label{sec:summary}提案手法を一つのアルゴリズムとして表現すると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\begin{description}\item[Step0]$n_w$を初期値($=1$)に設定する.\item[Step1]訓練データ$L$中の語義ラベル$s$が付与された対象語を$T_s$とする.\item[Step2]$t_s\inT_s$前後$n_w$語以内の式(\ref{eq1})を満たす内容語の表層形を手掛り語$W_{ts}$として獲得する.\item[Step3]ラベルなしデータ$U$から対象語$t$に対する事例$I_{t0}$を抽出する.\item[Step4]$i_{t0}\inI_{t0}$の前後$n_w'=2$以内に$w_{ts}\inW_{ts}$が出現するとき,$i_{t0}$を手掛り付き事例$i_{ts1}\inI_{ts1}$として抽出する.\item[Step5]$L$を用いて一次分類器$C_1$を作成し$i_{ts1}$を分類した結果を$c_1(i_{ts1})$とする.\item[Step6]$c_1(i_{ts1})=s$であるとき,$i_{ts1}$を$i_{ts2}\inI_{ts2}$とする.\item[Step7]$L$に$I_{ts2}$を加え二次分類器$C_2$を作成する.\item[Step8]$n_w$を$1\leqn_w\leqn_{\max}$の範囲で変化させ,Step1から7まで繰り返す.\item[Step9]Step8で得られた$C_2$をアンサンブルして最終分類器$C_3$とする.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}まず着目すべきは本手法はStep8に示した$n_{\max}$以外にパラメータが存在しないことである.そして\ref{sec:exp}節で示すようにこのパラメータの設定は比較的容易である.次に留意すべきは\ref{sec:intro}節で述べた$P$,$G$,$I$といったパラメータがないにも関わらず,ブートストラッピングの効果が充分に見込めるという点である.このメカニズムは,上記Step2に示した手掛り語$W_{ts}$の条件,Step4の$I_{ts1}$の抽出の条件,Step6の$I_{ts2}$抽出の条件,さらにStep8,9が巧妙に作用しあっていることに基づいている.最後に注意すべきは,本手法はStep0から9までの1度の実行だけで,充分なブートストラッピングが可能であり,2回以上の反復を必要としない点である.しかし,Step4の$I_{ts1}$の抽出は必然的に再現率を犠牲にするため,本手法1回の実行で完全な学習ができる訳ではない.本手法の反復による更なる精度の向上は今後の課題である.
\section{実験}
\label{sec:exp}今回実験に使用したデータセットはSemEval-2日本語タスク\cite{Okumura10}において配布された訓練データ(語義ラベル),テストデータを含む形態素解析済みコーパス,および語義の定義に用いられた岩波国語辞典\cite{Nishio94}のデータのみである.ラベルなしデータとしては上述の形態素解析済みコーパス全てを利用した.本研究では形態素の基本形の情報も利用するが,SemEval-2日本語タスクにおいてはデータセットに漢字表記の基本形の情報は付与されていない.しかし,用言については基本形のカナ表記(bfm;語形)の情報が付与されているため,本研究ではこれを基本形として扱った.また本研究では,配布されたコーパスの形態素に付与されている品詞が名詞,動詞,形容詞,形状詞,副詞,接尾辞,接頭辞のいずれかであるものを内容語とした.本研究では,訓練データに対する前処理として,SemEval-2日本語タスクにおいて語義の定義に用いられた岩波国語辞典の語釈文に含まれる用例の訓練データへの追加を行った.まず岩波国語辞典の用例中の対象語は``—''に置きかえられているため,``—''を人手で対象語に置換し直し,用例を自動と人手による修正により抽出した.用例の形態素解析にはSemEval-2のデータセットの形態素解析に用いられたのと同様に辞書としてUniDicを用い,MeCab\footnote{http://mecab.sourceforge.net/}を用いて形態素解析した.形態素解析結果に対する対象語の語義の付与は,用例の抽出同様,自動と人手による修正の組合せより行った.ここで追加した用例の総数は788であり,追加後の訓練データ全体の約24\%を占める.上記の辞書中の用例とオリジナルのデータセットの間には性質に相違がある.オリジナルのデータセットはまとまった文章で与えられ,対象語周辺から多くの文脈情報が得られる.対して,辞書の用例は短い文で与えられ,得られる文脈情報は少なく,また用例自体は通常の文章に現れにくい表現の場合がある.\ref{sec:first}節にて述べた手掛り語獲得の手法は,対象語から離れた位置からも手掛り語を獲得することを想定した手法であり,上述のような性質の異なるデータを併用すると不具合が生じる可能性が考えられる.このため実験では,手掛り語獲得において,上記の辞書用例からの追加データを使用する場合と使用しない場合の二通りの実験を行った.実験は$n_{\max}$を変化させつつ,\ref{sec:third}節で述べた通りに$n_w$を$1\leqn_w\leqn_{\max}$の範囲で1刻みで変化させ最終分類器を作成し,最終分類器の性能を前述のテストデータを用いて評価した.$n_{\max}$の値は$1\leqn_{\max}\leq100$の範囲で1刻みで変化させた.まず手掛り語獲得において辞書用例データを使用しない場合の実験結果を図\ref{fig:img02}に示す.ここでFinalclassifierが提案手法の分類精度であり,1stclassifierの結果は\ref{sec:second}節にて述べた一次分類器によるテストデータの分類精度を示す.なお一次分類器はベースラインの教師あり手法であることに注意されたい.また,最終分類器と二次分類器の性能比較のため,$n_w$を$1\leqn_w\leq100$の範囲で変化させ二次分類器単体でテストデータを分類したときの評価結果を図\ref{fig:img03}に示す.図\ref{fig:img02}と図\ref{fig:img03}の共通点としては,どの$n_{\max}$,$n_w$においても最終分類器,二次分類器ともに一次分類器の結果を上回っていることがわかる.これより本手法の第二段階の時点で信頼性の高いブートストラッピングができていたことが確認できる.一方で図\ref{fig:img03}を見て明らかな通り,二次分類器は最終分類器と比較してパラメータ($n_w$)による精度のバラつきがかなり大きいことがわかる.また最終分類器は$n_{\max}=50$付近から,二次分類器は$n_w=60$付近から$n_{\max}$,$n_w$の増加に伴い明白に精度が落ちていくことがわかるが,二次分類器の精度の落ち方は最終分類器と比べ明らかに大きい.これより\ref{sec:third}節で述べたように提案手法が$n_w$の増大に対し実際に頑健であることもわかる.二次分類器の最高値は最終分類器と比べると有意に高いと言えるが,そのときの$n_w=23$のすぐ近くに大きな谷($n_w=27$)があり,これより二次分類器のパラメータ調整の難しさがうかがえる.一方で,最終分類器は特に$35\leqn_{\max}\leq50$の範囲で性能が安定しており,パラメータ調整は比較的容易と言える.次に手掛り語獲得において辞書用例データを使用した場合の最終分類器の評価結果を図\ref{fig:img04},二次分類器の評価結果を図\ref{fig:img05}に示す.始めに図\ref{fig:img04}と図\ref{fig:img05}を比較すると,やはり最終分類器の方がパラメータの変化に対し性能が頑健であることがわかる.しかし図\ref{fig:img02}と図\ref{fig:img04}で最終分類器同士を比較すると,$n_{\max}=10$周辺では辞書用例使用の方がわずかに性能が良いが,$n_{\max}$がこれより大きくなると辞書用例不使用と比べ性能がやや落ちる.$5\leqn_{\max}\leq50$の範囲における性能の安定性を比較すると,これは明確に辞書用例不使用の方が高いと言える.また図\ref{fig:img03}と図\ref{fig:img05}で二次分類器同士を比較すると,辞書用例使用の方は$n_w=20$周辺においてやや安定性が高いが,有意差があるとは言いにくく,いずれにせよこれらは最終分類器より性能の安定性が低い.結論としては,辞書用例使用の有無ではっきりと有意差があるとは言えないが,今回の実験では性能の安定性は辞書用例不使用の方が比較的高いとみることにする.以後は辞書用例不使用の場合の実験結果のみを示す.\begin{figure}[t]\setlength{\captionwidth}{202pt}\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f2.eps}\hangcaption{$n_{\max}$の変化による提案手法分類精度の推移(手掛り語獲得で辞書用例不使用)}\label{fig:img02}\end{minipage}\hfill\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f3.eps}\hangcaption{$n_w$の変化による二次分類器の分類精度の推移(手掛り語獲得で辞書用例不使用)}\label{fig:img03}\end{minipage}\vspace{1\baselineskip}\end{figure}\begin{figure}[t]\setlength{\captionwidth}{202pt}\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f4.eps}\hangcaption{$n_{\max}$の変化による提案手法分類精度の推移(手掛り語獲得で辞書用例使用)}\label{fig:img04}\end{minipage}\hfill\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f5.eps}\hangcaption{$n_w$の変化による二次分類器の分類精度の推移(手掛り語獲得で辞書用例使用)}\label{fig:img05}\end{minipage}\end{figure}続いて$5\leqn_w\leq20$,$20\leqn_w\leq35$,$35\leqn_w\leq50$,$5\leqn_w\leq50$の四つの範囲別($n_{\max}$も同様)の二次分類器・最終分類器の精度の最高値・最低値・平均値,および最頻出語義選択,一次分類器の精度を表\ref{tbl:tbl01}に示す.ここで最高値,最低値の右括弧内の値はそのときの$n_w$,$n_{\max}$を示す.最高値,最低値の$n_w$,$n_{\max}$が複数ある場合はその中で最も小さい値を示した.表\ref{tbl:tbl01}において特筆すべきはやはり最終分類器の最低値と平均値の高さである.以下全て$5\leqn_{\max}\leq50$($n_w$も同じ)の範囲について述べる.まず最低値は0.44ポイント二次分類器を上回り,一次分類器を常に1.56ポイント上回ることになる.これは二次分類器の平均値よりも高い値である.また最終分類器の平均値は一次分類器を1.69ポイント上回る.一方,最高値は二次分類器の方が最終分類器を0.44ポイント上回り,最大で一次分類器を2.24ポイント上回ることになる.しかし,最高値と最低値の差は二次分類器は1.12ポイントあるのに対し,最終分類器はわずか0.24ポイントである.よって,パラメータの調整を考えると最終分類器の方が手法として扱いやすい.\begin{table}[t]\caption{各分類器の分類精度の比較(手掛り語獲得で辞書用例不使用)}\label{tbl:tbl01}\input{02table01.txt}\end{table}最後に一次分類器の精度,$n_{\max}$が表\ref{tbl:tbl01}に示した$5\leqn_{\max}\leq50$の範囲における最高値・最低値の精度のときの値の最終分類器の精度,および$5\leqn_{\max}\leq50$の範囲での最終分類器の精度の平均値のそれぞれについて,SemEval-2日本語タスクの語義曖昧性解消対象語別に求めた結果を表\ref{tbl:tbl02}に示す.なお表\ref{tbl:tbl02}に示した最高値・最低値は$n_{\max}$を対象語別に精度が最高値・最低値になるように変化させたときの値ではないため,表\ref{tbl:tbl02}の「子供」の結果のように,最低値の精度が最高値より高い場合も存在する.また対象語右の括弧内の数字はSemEval-2における判別すべき語義の総数であり,この数字に付記された``+''はテストデータに新語義の語が含まれていたことを示す.ただし本稿では特に新語義判別を考慮した処理はしておらず,本実験での一次,二次,最終の各分類器の比較に新語義の有無は関係しない.\begin{table}[t]\caption{対象語・分類器別の分類精度の比較(手掛り語獲得で辞書用例不使用)}\label{tbl:tbl02}\input{02table02.txt}\end{table}表\ref{tbl:tbl02}において強調してある一次分類器の精度は最終分類器の平均値を上回るもの,強調してある最終分類器の平均値は一次分類器の精度を5ポイント以上上回るものを示している.まず最終分類器の平均値を上回る一次分類器の結果を見てみると,その差は最大で「始める」の3.7ポイントと比較的小さい.一方,一次分類器の結果を上回る最終分類器の結果を見てみると,最大で「教える」が14.3ポイント向上しているとわかる.対象語の語義数と精度の変化の関係を見てみると,例外的に「もの」は比較的語義数が多くて精度の向上もやや大きいが,語義数の多い語は一次分類器と比べ最終分類器の精度が落ちる傾向がある.これは,手掛り語の条件である式(\ref{eq1})の存在により,語義数が多いと有益な手掛り語の獲得が難しくなるためと考えられる.対処方法の一つとしては語義数により手掛り語の条件を変えることが考えられるが,どのように条件を変えるべきかは難しい問題である.最後に全体を見てみると,結局一次分類器と最終分類器の間に差がないものが多いことに気付く.よって提案手法は一部の単語に対し高い効果を持つ手法であるということになる.この原因としては,本手法で手掛り語として用いたのが内容語の表層形の1グラムのみと,手掛り語が素性としては非常に狭い範囲内に位置するものだったこと,そして手掛り付き事例抽出の条件が対象語前後2語以内に手掛り語を含むという厳しい制約であったことが考えられる.ここで後者の原因は手掛り付き事例抽出の条件の$n_w'=2$を可変にし,さらに多くの二次分類器を作成してアンサンブルすることで取り除ける可能性がある.一方,前者の原因は単に素性の粒度を荒くしただけでは精度が低下する恐れがある.以上を踏まえると\ref{sec:first}節にて述べたヒューリスティックは部分的に有効と言えるが,汎用性に不安が残る.\ref{sec:first}節の手法第一段階を他の段階と切り離すとすると,第二段階,第三段階に変更を加えない場合,第一段階の要件は\begin{enumerate}\item手掛り付き事例を(仮の)ラベルを付与して抽出すること\item抽出事例は第二段階の分類を助ける手掛りを持つこと\item第三段階にて二次分類器を複数作成するためのパラメータを持つこと\item要件(2)の手掛りの信頼性と要件(3)のパラメータの間に相関があること\end{enumerate}の四つである.この中で特に難しいと思われるのは要件(2)であるが,これを実現する方法の一つとしては特徴選択がある.第一段階は狭い意味での特徴選択をしているとも見ることができ,効果的な特徴選択法を利用することで上述の問題への対処,つまりより多くの単語の語義曖昧性解消を実現できる可能性がある.特徴選択を応用した語義曖昧性解消の研究の一つとしてはMihalceaによるものが挙げられる\cite{Mihalcea02}.Mihalceaは手法はSenseval-2Englishallwordstaskにおいて二位の成績から5.4ポイント引き離し最高の成績を得た実績がある.よって,Mihalceaの手法を本手法に応用することで更なる性能の向上を見込める可能性がある.
\section{おわりに}
\label{sec:conc}本稿では,従来のブートストラッピング法による語義曖昧性解消手法の欠点であるパラメータ調整の難しさに対処するため,パラメータ設定をほぼ不要とするブートストラッピング的半教師あり語義曖昧性解消手法を提案した.この手法は二段階の分類をラベルなしデータに適用するものであり,反復回数を一回に留めるにも関わらず充分な効果があるブートストラッピングを実現した.またラベル付きデータに追加するラベルなしデータの条件を変え,複数の分類器を作成しアンサンブル学習することで唯一のパラメータの調整も容易とする手法を確立した.本手法の改良の方針としては次の二つが考えられる.\begin{itemize}\item本手法を通常のブートストラッピング同様に訓練データの反復追加を可能にし,性能が向上するように拡張する.\item\ref{sec:first}節にて述べたヒューリスティックによる分類をより多くの語の語義曖昧性解消に有効な汎用的手法に改良する.\end{itemize}これらはいずれも重要度の高い課題であり,並行して取り組むべき課題であると言える.また,提案した手法は語義曖昧性解消に特化しているが,\ref{sec:second}節と\ref{sec:third}節で述べたような半教師ありのアンサンブル学習の枠組みを異なる問題に適用することも興味深い課題である.最後に,実現可能性は未知数だが本手法の発展の可能性として,語義曖昧性解消のような分類問題において機械学習を用い人間にとって理解しやすい規則を獲得できるようになれば面白いのではないかと筆者は考えている.これは本稿にて提示したヒューリスティックに基づいた手法そのものを訓練事例とみなし,機械が自動でこの訓練事例に類似し,かつ人間に理解しやすい規則を獲得するというものである.これを実現するには「理解しやすさ」という尺度を定義することから始めなければならないと思われるが,もし実現できれば,従来の機械学習において困難だった獲得した規則の解釈が容易になることが予想される.そうすれば機械学習,またはこれを応用した自然言語処理などの研究の進展が加速するのではないかと期待できる.\acknowledgment本研究に用いた評価用データセットをご準備,ご提供くださいましたSemEval-2日本語タスクの運営の皆様,ならび本稿のために有益なコメントをお寄せくださいました査読者の皆様に深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{2004}]{Abney04}Abney,S.\BBOP2004\BBCP.\newblock\BBOQUnderstandingtheYarowskyalgorithm.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(3),\mbox{\BPGS\365--395}.\bibitem[\protect\BCAY{Agirre,Mart{\'i}nez,de~Lacalle,\BBA\Soroa}{Agirreet~al.}{2006}]{Agirre06}Agirre,E.,Mart{\'i}nez,D.,de~Lacalle,O.~L.,\BBA\Soroa,A.\BBOP2006\BBCP.\newblock\BBOQTwoGraph-BasedAlgorithmsforState-of-the-artWSD.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\585--593}.\bibitem[\protect\BCAY{Banerjee\BBA\Pedersen}{Banerjee\BBA\Pedersen}{2003}]{Banerjee03}Banerjee,S.\BBACOMMA\\BBA\Pedersen,T.\BBOP2003\BBCP.\newblock\BBOQExtendedGlossOverlapsasaMeasureofSemanticRelatedness.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalJointConferenceonArtificialIntelligence(IJCAI)},\mbox{\BPGS\805--810}.\bibitem[\protect\BCAY{Blum\BBA\Mitchell}{Blum\BBA\Mitchell}{1998}]{Blum98}Blum,A.\BBACOMMA\\BBA\Mitchell,T.\BBOP1998\BBCP.\newblock\BBOQCombiningLabeledandUnlabeledDatawithCo-Training.\BBCQ\\newblockIn{\BemCOLT:ProceedingsoftheWorkshoponComputationalLearningTheory},\mbox{\BPGS\92--100}.\bibitem[\protect\BCAY{Brody,Navigli,\BBA\Lapata}{Brodyet~al.}{2006}]{Brody06}Brody,S.,Navigli,R.,\BBA\Lapata,M.\BBOP2006\BBCP.\newblock\BBOQEnsembleMethodsforUnsupervisedWSD.\BBCQ\\newblockIn{\BemProceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguisticsjointwiththe21stInternationalConferenceonComputationalLinguistics(COLING-ACL)},\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{Curran,Murphy,\BBA\Scholz}{Curranet~al.}{2007}]{Curran07}Curran,J.~R.,Murphy,T.,\BBA\Scholz,B.\BBOP2007\BBCP.\newblock\BBOQMinimisingSemanticDriftwithMutualExclusionBootstrapping.\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\172--180}.\bibitem[\protect\BCAY{Edmonds\BBA\Cotton}{Edmonds\BBA\Cotton}{2001}]{Edmonds01}Edmonds,P.\BBACOMMA\\BBA\Cotton,S.\BBOP2001\BBCP.\newblock\BBOQSENSEVAL-2:Overview.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponEvaluatingWordSenseDisambiguationSystems(Senseval-2)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Escudero,M{\`a}rquez,\BBA\Rigau}{Escuderoet~al.}{2000}]{Escudero00}Escudero,G.,M{\`a}rquez,L.,\BBA\Rigau,G.\BBOP2000\BBCP.\newblock\BBOQBoostingAppliedtoWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe11thEuropeanConferenceonMachineLearning(ECML)},\mbox{\BPGS\129--141}.\bibitem[\protect\BCAY{Florian,Cucerzan,Schafer,\BBA\Yarowsky}{Florianet~al.}{2002}]{Florian02}Florian,R.,Cucerzan,S.,Schafer,C.,\BBA\Yarowsky,D.\BBOP2002\BBCP.\newblock\BBOQCombiningclassifiersforwordsensedisambiguation.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf8}(4),\mbox{\BPGS\327--431}.\bibitem[\protect\BCAY{Fujita,Duh,Taira,\BBA\Shindo}{Fujitaet~al.}{2010}]{Fujita10}Fujita,S.,Duh,K.,Taira,H.,\BBA\Shindo,H.\BBOP2010\BBCP.\newblock\BBOQMSS:InvestigatingtheEffectivenessofDomainCombinationsandTopicFeaturesforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)},\mbox{\BPGS\383--386}.\bibitem[\protect\BCAY{Galley\BBA\McKeown}{Galley\BBA\McKeown}{2003}]{Galley03}Galley,M.\BBACOMMA\\BBA\McKeown,K.\BBOP2003\BBCP.\newblock\BBOQImprovingWordSenseDisambiguationinLexicalChaining.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalJointConferenceonArtificialIntelligence(IJCAI)},\mbox{\BPGS\1486--1488}.\bibitem[\protect\BCAY{Joachims}{Joachims}{2003}]{Joachims03}Joachims,T.\BBOP2003\BBCP.\newblock\BBOQTransductiveLearningviaSpectralGraphPartitioning.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonMachineLearning(ICML)},\mbox{\BPGS\290--297}.\bibitem[\protect\BCAY{Klein,Toutanova,Ilhan,Kamvar,\BBA\Manning}{Kleinet~al.}{2002}]{Klein02}Klein,D.,Toutanova,K.,Ilhan,H.~T.,Kamvar,S.~D.,\BBA\Manning,C.~D.\BBOP2002\BBCP.\newblock\BBOQCombiningHeterogeneousClassifiersforWord-SenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsoftheACLworkshoponWordSenseDisambiguation:RecentSuccessesandFutureDirections},\mbox{\BPGS\74--80}.\bibitem[\protect\BCAY{小町\JBA工藤\JBA新保\JBA松本}{小町\Jetal}{2010}]{Komachi10}小町守\JBA工藤拓\JBA新保仁\JBA松本裕治\BBOP2010\BBCP.\newblockEspresso型ブートストラッピング法における意味ドリフトのグラフ理論に基づく分析:語義曖昧性解消における評価.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\233--242}.\bibitem[\protect\BCAY{Le,Shimazu,Huynh,\BBA\Nguyen}{Leet~al.}{2008}]{Le08}Le,A.-C.,Shimazu,A.,Huynh,V.-N.,\BBA\Nguyen,L.-M.\BBOP2008\BBCP.\newblock\BBOQSemi-supervisedlearningintegratedwithclassifiercombinationforwordsensedisambiguation.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf22}(4),\mbox{\BPGS\330--345}.\bibitem[\protect\BCAY{Liu\BBA\Nocedal}{Liu\BBA\Nocedal}{1989}]{Liu89}Liu,D.~C.\BBACOMMA\\BBA\Nocedal,J.\BBOP1989\BBCP.\newblock\BBOQOnthelimitedmemoryBFGSmethodforlargescaleoptimization.\BBCQ\\newblock{\BemMathematicalprogramming},{\Bbf45},\mbox{\BPGS\503--528}.\bibitem[\protect\BCAY{M{\`a}rquez,Escudero,Mart{\'i}nez,\BBA\Rigau}{M{\`a}rquezet~al.}{2004}]{Marquez04}M{\`a}rquez,L.,Escudero,G.,Mart{\'i}nez,D.,\BBA\Rigau,G.\BBOP2004\BBCP.\newblock\BBOQSupervisedCorpus-BasedMethodsforWSD.\BBCQ\\newblockInAgirre,E.\BBACOMMA\\BBA\Edmonds,P.\BEDS,{\BemWordSenseDisambiguation:AlgorithmsandApplications},\mbox{\BPGS\167--216}.Springer.\bibitem[\protect\BCAY{McCarthy,Koeling,Weeds,\BBA\Carroll}{McCarthyet~al.}{2004}]{McCarthy04}McCarthy,D.,Koeling,R.,Weeds,J.,\BBA\Carroll,J.\BBOP2004\BBCP.\newblock\BBOQFindingPredominantWordSensesinUntaggedText.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\280--287}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2002}]{Mihalcea02}Mihalcea,R.\BBOP2002\BBCP.\newblock\BBOQWordsensedisambiguationwithpatternlearningandautomaticfeatureselection.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf8}(4),\mbox{\BPGS\343--358}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2004}]{Mihalcea04a}Mihalcea,R.\BBOP2004\BBCP.\newblock\BBOQCo-trainingandSelf-trainingforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe8thConferenceonComputationalNaturalLanguageLearning(CoNLL)},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{Mihalcea\BBA\Edmonds}{Mihalcea\BBA\Edmonds}{2004}]{Mihalcea04b}Mihalcea,R.\BBACOMMA\\BBA\Edmonds,P.\BEDS\\BBOP2004\BBCP.\newblock{\BemProceedingsofthe3rdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText(Senseval-3)}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2009}]{Navigli09}Navigli,R.\BBOP2009\BBCP.\newblock\BBOQWordsensedisambiguation:Asurvey.\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf41}(2),\mbox{\BPGS\1--69}.\bibitem[\protect\BCAY{Navigli\BBA\Velardi}{Navigli\BBA\Velardi}{2005}]{Navigli05}Navigli,R.\BBACOMMA\\BBA\Velardi,P.\BBOP2005\BBCP.\newblock\BBOQStructuralsemanticinterconnections:Aknowledge-basedapproachtowordsensedisambiguation.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence},{\Bbf27}(7),\mbox{\BPGS\1075--1088}.\bibitem[\protect\BCAY{Nigam\BBA\Ghani}{Nigam\BBA\Ghani}{2000}]{Nigam00b}Nigam,K.\BBACOMMA\\BBA\Ghani,R.\BBOP2000\BBCP.\newblock\BBOQAnalyzingtheEffectivenessandApplicabilityofCotraining.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\86--93}.\bibitem[\protect\BCAY{Nigam,Laerty,\BBA\McCallum}{Nigamet~al.}{1999}]{Nigam00a}Nigam,K.,Laerty,J.,\BBA\McCallum,A.\BBOP1999\BBCP.\newblock\BBOQUsingMaximumEntropyforTextClassication.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-99WorkshoponMachineLearningforInformationFiltering},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{Nishio94}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典第五版}.\newblock岩波書店.\bibitem[\protect\BCAY{Niu,Ji,\BBA\Tan}{Niuet~al.}{2005}]{Niu05}Niu,Z.-Y.,Ji,D.-H.,\BBA\Tan,C.~L.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationUsingLabelPropagationBasedSemi-SupervisedLearning.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\395--402}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{Okumura10}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{Pantel06}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pedersen}{Pedersen}{2000}]{Pedersen00}Pedersen,T.\BBOP2000\BBCP.\newblock\BBOQASimpleApproachtoBuildingEnsemblesofNaiveBayesianClassifiersforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe1stAnnualMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Pham,Ng,\BBA\Lee}{Phamet~al.}{2005}]{Pham05}Pham,T.~P.,Ng,H.~T.,\BBA\Lee,W.~S.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithSemi-SupervisedLearning.\BBCQ\\newblockIn{\BemProceedingsofthe20thNationalConferenceonArtificialIntelligence(AAAI)},\mbox{\BPGS\1093--1098}.\bibitem[\protect\BCAY{新納}{新納}{2001}]{Shinnou01a}新納浩幸\BBOP2001\BBCP.\newblock素性間の共起性を検査するCo-trainingによる語義判別規則の学習.\\newblock\Jem{情報処理学会自然言語処理研究会NL-145-5},\mbox{\BPGS\29--36}.\bibitem[\protect\BCAY{鶴岡\JBA近山}{鶴岡\JBA近山}{2002}]{Tsuruoka02}鶴岡慶雅\JBA近山隆\BBOP2002\BBCP.\newblockベイズ統計の手法を利用した決定リストのルール信頼度推定法.\\newblock\Jem{自然言語処理},{\Bbf9}(3),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockJohnWileyandSons.\bibitem[\protect\BCAY{V{\'e}ronis}{V{\'e}ronis}{2004}]{Veronis04}V{\'e}ronis,J.\BBOP2004\BBCP.\newblock\BBOQHyperLex:Lexicalcartographyforinformationretrieval.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf18}(3),\mbox{\BPGS\223--252}.\bibitem[\protect\BCAY{Wang\BBA\Matsumoto}{Wang\BBA\Matsumoto}{2004}]{Wang04}Wang,X.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQTrajectoryBasedWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe20thinternationalconferenceonComputationalLinguistics},\mbox{\BPGS\903--909}.\bibitem[\protect\BCAY{八木\JBA野呂\JBA白井\JBA徳永\JBA田中}{八木\Jetal}{2001}]{Yagi01}八木豊\JBA野呂智哉\JBA白井清昭\JBA徳永健伸\JBA田中穂積\BBOP2001\BBCP.\newblock決定リストを用いた語義曖昧性解消.\\newblock\Jem{電子情報通信学会言語とコミュニケーション研究会NLC2001-42},\mbox{\BPGS\47--52}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky95}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{Zhou\BBA\Li}{Zhou\BBA\Li}{2005}]{Zhou05}Zhou,Z.-H.\BBACOMMA\\BBA\Li,M.\BBOP2005\BBCP.\newblock\BBOQTri-training:ExploitingUnlabeledDatausingThreeClassifiers.\BBCQ\\newblock{\BemIEEETransactionsonKnowledgeandDataEngineering},{\Bbf17}(11),\mbox{\BPGS\1529--1541}.\bibitem[\protect\BCAY{Zhu\BBA\Ghahramani}{Zhu\BBA\Ghahramani}{2002}]{Zhu02}Zhu,X.\BBACOMMA\\BBA\Ghahramani,Z.\BBOP2002\BBCP.\newblock\BBOQLearningfromLabeledandUnlabeledDatawithLabelPropagation.\BBCQ\\newblock\BTR,CMUCALDtechreportCMU.CALD.02.107.\end{thebibliography}\begin{biography}\bioauthor{井上裁都}{2009年慶應義塾大学理工学部情報工学科卒業.2011年同大学院修士課程修了.修士(工学).}\bioauthor{斎藤博昭}{慶應義塾大学理工学部情報工学科准教授.工学博士.}\end{biography}\biodate\end{document}
| |
V08N04-03
|
\section{はじめに}
自然言語をコンピュータで処理するためには,言語学的情報に基づいて構文解析や表層的意味解析を行うだけではなく,われわれが言語理解に用いている一般的な知識,当該分野の背景的知識などの必要な知識(記憶)を整理し,自然言語処理技術として利用可能な形にモデル化することが重要になっている.一般性のある自然言語理解のために,現実世界で成り立つ知識を構造化した知識ベースが必要であり,そのためには人間がどのように言葉を理解しているかを調べる必要があると考えている.初期の知識に関する研究では,人間の記憶モデルの1つとして意味的に関係のある概念をリンクで結んだ意味ネットワーク・モデルが提案されている.CollinsとLoftusは,階層的ネットワークモデル\cite{Collins1969}を改良し,意味的距離の考えを取り入れ活性拡散モデルを提案した\cite{Collins1975}.意味的距離をリンクの長さで表し,概念間の関係の強いものは短いリンクで結んでいる.このモデルによって文の真偽判定に関する心理実験や典型性理論\cite{Rosch1975}について説明した.大規模な知識ベースの例として,電子化辞書があげられる.日本ではコンピュータ用電子化辞書としてEDR電子化辞書が構築されている\cite{Edr1990}.WordNetはGeorgeA.Millerが中心となって構築した電子化シソーラスで,人間の記憶に基づいて心理学的見地から構造化されている\cite{Miller1993}.EDR電子化辞書やWordNetは自然言語処理分野などでもよく参照されている.連想実験は19世紀末から被験者の精神構造の把握など,臨床検査を目的として行なわれている.被験者に刺激語を与えて語を自由に連想させ,連想語の基準の作成・分析などの研究がある.50年代から臨床診断用としてだけでなく,言語心理学などの分野も視野にいれた研究が行なわれている.梅本は210語の刺激語に対し大学生1000人の被験者に自由連想を行ない,連想基準表を作成している\cite{Umemoto1969}.選定された刺激語は,言語学習,言語心理学の研究などに役立つような基本的単語とし,また連想を用いた他の研究との比較可能性の保持も考慮にいれている.しかし連想基準表を発表してから長い年月が経っており,我々が日常的に接する基本的単語も変化している.本研究では小学生が学習する基本語彙の中で名詞を刺激語として連想実験を行い,人間が日常利用している知識を連想概念辞書として構造化した.また刺激語と連想語の2つの概念間の距離の定量化を行なった.従来の電子化辞書は木構造で表現され,概念のつながりは明示されているが距離は定量化されておらず,概念間の枝の数を合計するなどのような木構造の粒度に依存したアドホックなものであった.今後,人間の記憶に関する研究や自然言語処理,情報検索などに応用する際に,概念間の距離を定量化したデータベースが有用になってくると考えている.本論では,まず連想実験の内容,連想実験データ修正の方法,集計結果について述べる.次に実験データから得られる連想語と連想時間,連想順位,連想頻度の3つのパラメータをもとに線形計画法によって刺激語と連想語間の概念間の距離の計算式を決定する.得られた実験データから概念間の距離を計算し連想概念辞書を作成する.連想概念辞書は,刺激語と連想語をノードとした意味ネットワークの構造になっている.次に,連想概念辞書から上位/下位階層をなしている意味ネットワークの一部を抽出,二次元平面で概念を配置してその特徴について調べた.また,既存の電子化辞書であるEDR電子化辞書,WordNetと本論文で提案する連想概念辞書の間で概念間の距離の比較を行ない,連想概念辞書で求めた距離の評価を行なう.
\section{連想実験システム環境}
連想概念辞書を構築するために,連想実験システム環境を使用した.これは「連想実験システム」「データ修正・集計システム」「辞書構築システム」の3つから構成されている(図1).この連想実験システムを用いることで,キャンパスネットワークのオンラインシステム上で大規模な連想実験を行うことができる.また,蓄積された実験データについてはデータ修正・集計システムによって効率よく修正作業を行ない,連想概念辞書を作成する.以下で各システムの概要を述べる.\begin{figure}[htb]\begin{center}\atari(80,60)\caption{連想概念辞書構築の流れ}\end{center}\end{figure}\subsection{連想実験の実施}従来の連想実験では,自由連想の実験を行なって得た連想語を「上位,等位,下位」「属性」「部分−全体」「機能に関する語」という内包的意味関係の例として分類したもの\cite{miller1991}や,連想語の反応型の分類\cite{Yukawa1984}などがあるが,本実験では,名詞を刺激語として「上位概念」「下位概念」「部分・材料」「属性」「類義語」「動作」「環境」の7つの課題に関して連想を行ない,連想語を抽出した.概念体系を明らかにするためには「上位概念」「下位概念」という情報が必要になる.「部分・材料」「属性」は,概念そのものの特徴を抽出するための課題である.また「動作」は,その刺激語がどのような動作をともなって普段の日常生活で用いられているかをという名詞と動詞の共起情報を得るために課題とした.「環境」は,その刺激語が用いられる環境(状況)に関する文脈情報である.従来の電子化辞書には概念に関する上位および下位概念や,部分−全体,概念の特徴や類義語などの記述,また「動作」に関して格情報を記したものはあるが,密接に関連する「環境」を記述しているものは少ない.被験者に呈示する刺激語は,光村図書出版株式会社の「語彙指導の方法」\cite{Kai1996}に記載されている小学校の学習基本語彙の名詞から「果物」「野菜」「桜」「乗り物」「家具」「人間」などを中心として3〜4階層をなす上位および下位概念の語を用いた.刺激語数は100語である.被験者は慶應義塾大学湘南藤沢キャンパスの学部生と大学院生で,実験は刺激語ごとに被験者を50人とした.被験者には刺激語と7つの課題から連想する語をかな漢字変換システム(kinput2)を用いて任意の個数を入力させる.被験者に呈示する刺激語,および刺激語に対する7つの課題はランダムに呈示される.また,一人の被験者に呈示する刺激語は意味的に類似しているものをなるべく排除した.被験者に課した刺激語の連想実験をすべて終了すると,実験データは実験者のもとに送られる.\begin{center}表1刺激語「辞書」における一人の被験者の実験結果の例\vspace*{1ex}\begin{tabular}{|l|l|}\hline上位概念&\verb+{書物7}{本12}{文献18}+\\\hline下位概念&\verb+{英語辞典6}{国語辞典12}{漢和辞典19}+\\\hline部分・材料&\verb+{見出し語18}{語釈文33}{ページ38}{表紙44}+\\\hline属性&\verb+{難しい6}{わかりやすい11}{楽しい16}+\\\hline類義語&\verb+{辞典8}{事典17}+\\\hline動作&\verb+{読む5}{調べる11}{引く15}{探す19}{買う29}+\\\hline環境&\verb+{図書館6}{本屋27}+\\\hline\end{tabular}\end{center}表1は,刺激として「辞書」を呈示したときの被験者から送られてくる実験結果の例である.被験者は,刺激語「辞書」の上位概念を「書物」「本」「文献」の順番で連想している.連想語と共に記述してある数字は連想にかかった累積時間(秒)をあらわす.\subsection{データの修正作業と集計}被験者から送られてきた実験データには,課題を誤解して連想したり,単なる勘違いや変換ミスなどの記述,かな漢字変換で生じる漢字とひらがなの表記のゆれ,また送り仮名などの違いが見受けられる.たとえば,「海」の属性に「広い」と記述する被験者と「ひろい」とする被験者がいる.送り仮名の違いとしては,「気持ちいい」「気持いい」などがあげられる.このような被験者による記述のゆれを統一する必要がある.具体的な修正作業としては,誤解や勘違いは不使用語として削除する.課題にふさわしくない連想語は適切な課題の場所へ移動する.また7つの課題に分類できない連想語がある場合は「関連語」という課題をもうけ,そこに移動する.たとえば刺激語「犬」に対しての連想語「猫」などは「関連語」に移動する.また,固有名詞は概念の範疇に入らないので固有名詞辞書として別のリストに収集する.送り仮名などの表記のゆれの修正は特定の辞書における規則\cite{Dai1995}に従って修正する.修正したデータは刺激語ごとに集計し,辞書構築システムによって連想概念辞書,固有名詞辞書を作成する.
\section{連想実験の集計結果}
図2は連想実験の結果を集計して連想語延べ数と異なり語数を各課題ごとにグラフ化したものである.連想語延べ数とは連想された語のすべての合計数のことである.異なり語数とは刺激語が違っていても同じ語が連想された場合,同じ単語として数えた合計数である.「上位概念」「部分・材料」「属性」「動作」「環境」では,異なり語数は連想語数にくらべて大幅に減少している.これにより各々の課題では様々な刺激語から同一の語を連想している場合が多いと考えられる.一方,「下位概念」「類義語」では連想語数と異なり語数の差があまりない.これは,刺激語特有の語を連想しており,同一の語を連想する場合が少ないことを示す.\begin{figure}\begin{center}\vspace*{4em}\begin{tabular}{ll}\begin{minipage}{300pt}\atari(91,86)\end{minipage}&\begin{minipage}{70pt}\atari(24,6)\end{minipage}\\\end{tabular}\vspace*{1em}\caption{課題ごとの連想語数と異なり語数}\end{center}\end{figure}
\section{線形計画法による概念間距離の計算式の決定}
本研究では刺激語と連想語間の概念間の距離を(1)式で表わすように,連想時間$T$,連想順位$S$,連想頻度$F$の線形結合で表現できると仮定する\cite{Okamoto2000}.\begin{center}$D=\alpha\timesF+\beta\timesS+\gamma\timesT\cdots(1)$\\\vspace*{1em}\begin{tabular}{ll}$F=\frac{N}{n+\delta}$&$n=連想人数,n≧1$\\$\delta=\frac{N}{10}-1~~~~(N≧10)$&$N=被験者数$\\$S=\frac{1}{n}\sum^{n}_{i=1}s_{i}$&$s_{i}=被験者が連想した語の順位$\\$T=\frac{1}{n}\sum^{n}_{i=1}t_{i}\times\frac{1}{60}$&$t_{i}=被験者が連想に要した時間(秒)$\\\end{tabular}\end{center}\vspace*{1em}刺激語を$a$,連想語を$b$とした時,$i$番目の被験者が$b$を連想するのに要した時間を$t_{i}$,$a$から連想した語の中で$b$を連想している順位を$s_{i}$とする.(1)式の概念間の距離において,$F$は,連想人数$n$に補正値$\delta$を加えた値で被験者数$N$を割った値.$S$は,被験者が連想した語の順位を平均した値.$T$は,被験者が連想に要した時間を平均し単位を秒から分に変換した値である.これまでの概念間の距離の定量化の研究\cite{Okamoto1998,Okamoto1999}では,10人の被験者で連想実験を行ない,連想頻度を単純に$F=\frac{N}{n}$のように定めていたが,これでは被験者数を大幅に増加させたときに連想者数が少ないと${F}$の値が極端に大きくなり,連想者数が少ない連想語は距離も極端に大きくなってしまう.そこで補正値$\delta$を簡単な$N$の式としてもうけることで被験者数の変化から受ける影響を減らすことにした.$\delta$は被験者数の変化に関係なく$F$の最大値が10になるように定めた.このように正規化した値に基づいて(1)式のような線形の定式化を行なう.次に,$(1)$式の係数$\alpha,\beta,\gamma$の値を求めるために,次のように線形計画法を用いて,最適解を求めた.\begin{center}\begin{tabular}{|ll}最小化&$Z=c_{1}\times\alpha+c_{2}\times\beta+c_{3}\times\gamma\cdots(2)$\\条件&$\left\{\begin{array}{ll}a_{11}\times\alpha+a_{12}\times\beta+a_{13}\times\gamma=D_{1}&\cdots(3)\\a_{21}\times\alpha+a_{22}\times\beta+a_{23}\times\gamma=D_{2}&\cdots(4)\\\alpha,\beta,\gamma≧0&\cdots(5)\end{array}\right.$\end{tabular}\end{center}\vspace*{1em}目的関数を(2)式で表現し,これを最小化する.ここで係数$c_{1},c_{2},c_{3}$は$c_{1}≦c_{2}≦c_{3}$とする.これは連想データを観察した結果,連想頻度,連想順位,連想時間の順でデータとしての信頼性が高いからである.次に,境界条件として(3)式,(4)式を考える.刺激語と連想語の距離が最短になる場合を(3)式で表わし,「連想時間が短く」「一番最初に連想され」「被験者全員が連想した時」と仮定する.また,距離が長くなる場合を(4)式で表わし,「連想時間がある程度長く」「連想順位が大きく」「全被験者のうち一人だけが連想した語の時」と仮定する.パラメータ$c_{1},c_{2},c_{3},a_{11},a_{12},a_{13},a_{21},a_{22},a_{23},D_{1},D_{2}$を変化させながらシンプレックス法を用いて$\alpha,\beta,\gamma$の最適解を求める.以上より,目的関数の係数($c_{1},c_{2},c_{3}$)=(-10,-8,-1),($a_{11},a_{12},a_{13},D_{1}$)=(0.9,1.0,0.1,1.0),($a_{21},a_{22},a_{23},D_{2}$)=(10.0,7.0,1.0,10.0)の時,$\alpha=0.81,\beta=0.27,\gamma=0$となり,概念間の距離は以下のようになる.\begin{center}$D=0.81\timesF+0.27\timesS\cdots(6)$\end{center}(6)式では連想頻度$F$の係数が連想順位$S$の係数より大きく,連想人数が概念間の距離に与える影響は強い.多数の被験者が同一の語を連想している場合は,その連想語は刺激語にとって連想しやすい語であると考えられ,概念間の距離も短くなる.被験者によって著しく連想時間$T$に影響する要因があるため,$T$は,あまり信頼できる値とは言えず,$\gamma=0$となるのは,妥当であると考えられる.$T$に影響する要因には,被験者による誤差要因とシステムによる誤差要因があげられる.連想時間にはキーボードの入力時間や,かな漢字変換の時間も含まれているため,被験者のキーボード操作の熟達度が連想時間に著しく影響する.また,使用したkinput2はかな漢字変換システムとしてWnnを使用しており,ユーザー辞書登録と漢字変換の候補や表示順序が個人で違う場合などが誤差要因として考えられる.精度良く連想時間を得る心理学的手法はあるが,実験に時間を必要とし,刺激語数に大きな限界が生ずるため,ここでは採用しない.\bigskip\begin{figure}[htb]\begin{center}\atari(143,49)\caption{集計データから辞書作成までの流れ}\end{center}\end{figure}「データ修正・集計システム」から得られる集計データと,used-inパラメータから連想概念辞書を作成する(図3).used-inパラメータとは,刺激語が他の刺激語の連想語となっていた場合,逆引き情報として元の刺激語と課題を記述するもので,集計データから作成する.集計データに固有名詞が含まれると固有名詞辞書として連想概念辞書とは別にまとめる.\begin{figure}[htb]\begin{center}\atari(138,69)\vspace*{1em}\caption{刺激語「いす」に関する連想概念辞書の記述フォーマット}\end{center}\end{figure}図4では刺激語「いす」についての連想概念辞書の記述の例である.「いす」の上位概念として,まず「家具」が連想されており,続く右側の4つの数字は順に頻度(連想者数を被験者数で割った値),連想順位,連想時間,「いす」と「家具」の概念間の距離((6)式)である.「上位概念」の他に「下位概念」「部分・材料」「属性」「類義語」「動作」「環境」「関連語」の課題も同じ形式で記述してある.used-inでの「(家具~~~~~下位概念)」の項目は「いす」が「家具」という刺激語の下位概念として連想されたことを,また「(学校~~~~~部分材料)」の項目は「いす」が「学校」という刺激語の部分材料として連想されたことを示す.概念間の距離は,連想順位$S$の値にもよるが,おおよそ$1$〜$10$の間にある.
\section{距離情報を用いた概念階層の特徴}
\subsection{二次元での概念の配置}連想実験で用いた刺激語の中から「野菜」「ぶどう」「桜」「乗り物」を中心として3〜4階層をなす刺激語を選び,各々の上位概念,下位概念として連想されている語を二次元平面上に配置してその特徴を調べた.表2は使用した語の一覧である.\begin{center}表2選択した刺激語\vspace*{1ex}\begin{tabular}{|l|llllll|}\hline野菜&植物&食べ物&ニンジン&ホウレンソウ&&\\\hlineぶどう&植物&食べ物&果物&マスカット&&\\\hline桜&植物&木&八重桜&&&\\\hline乗り物&機械&自動車&スポーツカー&電車&新幹線&地下鉄\\\hline\end{tabular}\end{center}\begin{figure}[htb]\begin{center}\atari(136,87)\vspace*{1em}\caption{「マスカット」「ぶどう」「果物」を中心とした連想語の二次元配置}\end{center}\end{figure}図5では,「ぶどう」の上位概念として「果物」「植物」「生物」「食べ物」が連想されている.概念間の距離は「ぶどう」「果物」の間が1.24,「ぶどう」「植物」の間が2.87である.「果物」「植物」はどちらとも刺激語として連想実験を行っているので,「果物」では上位概念として「植物」を,下位概念として「ぶどう」を連想している.「ぶどう」「マスカット」から「果物」「食べ物」の概念間の距離は短く,「ぶどう」「マスカット」から「生物」までの距離は長くなっている.これは「ぶどう」「マスカット」という語は日常生活において食卓の上や果物屋という状況において用いられ,「食べ物」として取り扱う機会が多いためと思われる.「マスカット」から「果物」への間の距離は1.50で,「マスカット」から「植物」までの間の距離は4.02となっており,「果物」より上位の「植物」までの距離の方が長い.このように概念間の距離は,概念階層の深さの違いを反映していると考えられる.「植物」を間に挟んだ「果物」「植物」「生物」の3階層では,「果物」「生物」までの距離は「植物」を辿った距離の合計より長い.一方,「果物」を間に挟んだ「ぶどう」「果物」「食べ物」の3階層では,「ぶどう」「食べ物」までの距離は「果物」を辿った距離の合計より短い.ある刺激語からその上位概念までの距離は,概念によっては直接辿った距離が長い場合もあれば,短い場合もある.これは,概念間の距離は,2つの概念間の階層の数よりも,上位層の抽象度の高い概念であるか,あるいは下位層の具体的な概念であるかということや,2つの概念で同一の語が「属性」「部分・材料」「動作」「環境」などにおいて連想される度合いに関連してくるのではないかと考えている.\subsection{双方向にリンクのある概念対}図5の「マスカット」「ぶどう」「果物」のように上位・下位概念の双方でお互いが連想される場合がある.その時の概念間の距離は「マスカット」「ぶどう」のように上位概念から下位概念,下位概念から上位概念までの距離が共に2.0以下で短い場合や,「植物」「果物」にように下位概念から上位概念までの距離は短いが,上位概念から下位概念までの距離は長いなどの場合,またはその逆などがある.\begin{center}表3双方向にリンクのある概念対での概念間の距離の平均と分散\vspace*{1ex}\begin{tabular}{|l|r|r|}\hline&~~~~~~~~平均&~~~~~~~~分散\\\hline下位概念から上位概念までの距離&3.35&4.69\\\hline上位概念から下位概念までの距離&4.88&5.29\\\hline\end{tabular}\end{center}\vspace*{1ex}表3では,上位概念を連想する時のほうが,下位概念を連想する時よりも平均の距離が短い.これは身近で日常的な語であっても上位概念の方が下位概念よりも連想しやすいことを示している.「桜」を例にとると,「桜」の上位概念は「植物」「木」などを真っ先にあげることができる上,上位概念として連想しうる数は限られ,被験者の多くが「植物」「木」などを連想する.逆に「木」「植物」の下位概念としてすぐに「桜」が出てくるとは限らない.被験者の生活環境や経験などによって「木」「植物」の下位概念は多岐にわたってくると考えられる.また,「マスカット」と「果物」,「鏡」と「家具」などは,上位概念から下位概念までの距離が長く,連想しにくいものとなっていると考えられる.たとえば「鏡」の上位概念は「家具」であると連想した人が多く,「家具」の連想順位も高い.つまり,すぐに連想され,概念間の距離も短い.それに対して,「家具」の下位概念は「鏡」であると連想した人は少なく,「たんす」「いす」などの概念を連想するよりも後の順番に「鏡」が連想されており,連想した人も少ない.これによって「鏡」「家具」間の距離が長くなっている.つまり,「家具」の下位概念として「鏡」は典型的な例ではないといえる.一方,双方向のリンクの距離が共に短いものには「乗り物」「自動車」などのように上位概念・下位概念が,互いの語を連想しやすい関係であるということができる.これらは上位/下位関係として互いに典型的な例といえるだろう.
\section{距離を用いた既存の電子化辞書との比較}
従来の電子化辞書にはコンピュータによる言語処理のためにわが国で開発されたEDR電子化辞書\cite{Edr1990}や,Princeton大学で開発されたWordNet\cite{Fellbaum1998,LenatandGeorgeandYokoi1993}などがある.初期の連想概念辞書とEDR電子化辞書,WordNetの概念体系の比較では,連想概念辞書はEDR電子化辞書よりもWordNetに近いことが報告されている\cite{Uchiyama1997}.マルチリンガル情報アクセスのためにEDR電子化辞書,WordNetの概念体系の比較も行なわれている\cite{Muchi1997,Ogino2000}.従来の辞書は,主に木構造の概念階層を持っており,距離は定量化されておらず,概念間の枝の合計数によるものが多かった.連想概念辞書は概念が,上位/下位関係のリンクでつながっているネットワーク構造と考えることができる(図5).そこで,本論では概念間の距離の計算は連想概念辞書のネットワークを有向グラフとし,概念間の最短経路を距離とした.EDR電子化辞書,WordNetでは,2つの概念間で木構造の枝の合計数のうち最小のものを距離として採用した.図6は乗り物について「自動車」「スポーツカー」「電車」「地下鉄」ごとに,その上位概念「乗り物」「道具」「機械」「物」までの距離を連想概念辞書,EDR電子化辞書,WordNetで比較しグラフ化したものである.\bigskip\begin{figure}[htb]\begin{center}\begin{tabular}{|cc|}\hline&\\\framebox(161,79){}&\framebox(161,79){}\\\framebox(161,87){}&\framebox(161,87){}\\\hline\end{tabular}\bigskip\caption{連想概念辞書,EDR,WordNetの概念間の距離の比較(乗り物)}\end{center}\end{figure}図6において「自動車」「スポーツカー」「電車」では連想概念辞書,EDRともに「乗り物」「機械」「道具」「物」と上位語になるにしたがって距離が大きくなっており,その距離はEDRの方が長い.「地下鉄」では連想概念辞書で上位語になるにしたがって距離が大きくなるが,EDRでは逆に距離が小さくなっている.これには,EDRには「地下鉄」の上位概念に「場所」「線路」の記述しかなく「乗り物」という観点で見た概念体系の記述がなかった点で他の辞書とは異なっていることが関係する.つまり,「地下鉄」では「乗り物」「機械」という上位概念がなく,「場所」としての観点しかなかったため,距離を計算すると「静物」で折り返して「機械」「乗り物」などの概念に到達するため,下位語になるにつれ距離が大きくなる.WordNetでは「自動車−機械」「自動車−道具」「自動車−物」までの距離がほぼ等しくなっている.また,このことは「スポーツカー」「電車」「地下鉄」おいても同様である.次に,「自動車」「スポーツカー」「電車」「地下鉄」から「乗り物」「機械」「道具」「物」までの距離を変数とし,3つの辞書ごとの「自動車」「スポーツカー」「電車」「地下鉄」をサンプルとして主成分分析を適用して寄与率,主成分値を計算した.\begin{figure}[htb]\begin{center}\vspace*{3em}\atari(103,88)\vspace*{3em}\caption{乗り物の概念間距離の主成分分析}\end{center}\end{figure}図7は第1,第2主成分の主成分値をもとにサンプルを二次元平面にプロットしたものである.第2主成分までの累積寄与率は$94.3\%$になった.二次元平面上でWordNetと連想概念辞書の概念の位置は近くにまとまり,EDRは「地下鉄」とそれ以外の概念の2つに分かれる.つまり3つの辞書の概念の位置はおおよそ3つグループにまとまっている.これは3つの辞書のうち連想概念辞書とWordNetとで概念間の距離が近い値をとり,概念体系が比較的似ている部分があることを表しているといえる.一方EDRは概念体系で「機能,形,評価」といった属性でまとめる中間ノードをもうけており,概念間の距離が全体的に長くなる.このため概念の配置が他と違う結果が出たと考えられる.次にデータをサンプルごとに変数の値を最大値が1になるように正規化した.主成分分析のためのデータを正規化することで,サンプルどうしの概念間距離の変化パターンを見やすく表示でき,容易に比較することができる.しかも正規化によってデータの相対的な位置関係などは保存できる.図8に示した正規化したデータの主成分分析では,第2主成分までの累積寄与率は$82.2\%$になった.WordNetや連想概念辞書,EDRのデータがそれぞれのかたまりに分かれており,しかもかたまりの中の分布も見やすくなっている.また,EDRのなかの地下鉄のように1点だけ離れたデータもそのように保存されて表示できている.\begin{figure}[htb]\begin{center}\vspace*{3em}\atari(103,88)\vspace*{3em}\caption{データを正規化した乗り物の概念間距離の主成分分析}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\begin{tabular}{|cc|}\hline&\\\framebox(161,85){}&\framebox(161,85){}\\\framebox(161,85){}&\framebox(166,85){}\\\hline\end{tabular}\vspace*{1em}\caption{連想概念辞書,EDR,WordNetの概念間の距離の比較(植物)\\※「ぶどう」ではWNと連想のグラフは近接している.}\end{center}\end{figure}図9は,「植物」について「野菜」「ニンジン」「ホウレンソウ」「果物」「ぶどう」「マスカット」「桜」ごとに,その上位概念「植物」「生物」「物」までの距離を3つの辞書で比較したものである.「乗り物」の場合と同様,主成分分析を行ない寄与率,主成分値を計算した.図10は第1,第2主成分の主成分値をもとにサンプルを二次元平面にプロットしたものである.第2主成分までの累積寄与率は$96.8\%$になった.連想概念辞書とWordNetの概念の多くは主成分2軸(横軸)上付近に集まっている.一方,連想概念辞書の「桜」,WordNetの「桜」とWordNetの「果物」は単独で比較的離れて配置され,EDRの概念は図10の第2象限に配置される結果となった.\begin{figure}[htb]\begin{center}\vspace*{3em}\atari(108,88)\vspace*{2em}\caption{植物の概念間距離の主成分分析}\begin{tabular}{l}{\small※EDRぶどうにEDRマスカットが重なっている}\\{\small※EDRホウレンソウにEDR野菜,EDRニンジンが重なっている}\\\end{tabular}\vspace*{1em}\end{center}\end{figure}連想概念辞書の「桜」が他の概念と離れて配置されるのは,「桜」は日本人にとって春を代表するなじみのある植物であるため,多くの被験者が同じ語を連想し,他の辞書の場合に比べて概念間の距離が短くなったためと考えられる.WordNetの「桜(cherrytree)」では,fruittreeの下位語とされ,またtreeの1つ下の階層に175個もの概念があり,細分化されている.このため,階層の数が多くなり距離が長くなったと考えられる.よって「桜」では連想概念辞書,EDR,WordNetで,それぞれ異なった概念体系をなしている.WordNetの「果物」は「自然物」として見ると,{\small\verb+fruit->reproductivestructure->plantorgan->plantpart->naturalobject+}のように「植物」の部分なっているためplantやlivingthingに至るにはobjectを通過するので,objectの下位語になるほど距離が長く,右下がりのグラフを示した(図9).WordNetの「植物」に関しても他と異なる概念体系をなしているといえる.連想概念辞書とWordNetは文化の違い,構築するときの概念の階層の分け方の違いが見受けられる部分も存在するが,上記の分析からある程度近い概念構造を持っているのではないかと考えられる.
\section{観点の違いについて}
連想概念辞書では「食べ物」「動物」「植物」の下位概念として連想された語も連想実験における刺激語として実験を行なっている.これらの刺激語の上位概念には「食べ物」という観点でみた連想語と「動植物」という観点でみた連想語の両方が連想される場合がある.連想概念辞書で,「魚」を刺激語にしてその環境を課題にした時の連想語には「魚」が生息している場所と考えられる語や,「魚」を商品,食べ物としてとらえるような状況で連想される語などがある.「魚屋」「スーパー」「台所」など人間が関与する場所・状況には「買う」「食べる」「調理する」などの動詞が共起されやすい.また,「食べ物」を刺激語として連想される形容詞(属性)には「おいしい」など味覚に関する形容詞の連想語が多く,「うれしい」などの心情語も連想されている.概念を観点の違いでとらえるには,上位・下位関係の他に,環境,動作,属性とのつながりを調べる必要がある.これによって文脈解析など高次の自然言語処理システムが望めるのではないかと考えている.
\section{おわりに}
連想実験を行ない収集したデータから連想概念辞書を構築し,刺激語と連想語の距離を定量化した.線形計画法を用いることによって概念間の距離として(6)式が得られた.また,構築した連想概念辞書をもとに,連想された語を二次元平面に配置し,その特徴を調べた.連想概念辞書では,連想しやすい語ほど近くに配置され,2つの概念間の距離は短く,同一の「属性」「部分・材料」「動作」「環境」を連想している場合が多い.双方向にリンクのある概念対では,上位概念から下位概念までの距離と,下位概念から上位概念までの距離が等しくなるとは限らない.双方向の距離が共に短い場合は,上位/下位関係としてお互いに典型的な例となる語である可能性を持つ.上位概念を連想するより,下位概念を連想する方が多くの語が連想され,距離も長くなる場合が多いことが分かった.また,連想概念辞書とEDR,WordNetで概念間の距離について比較した.文化の違いや,概念階層の分け方の違いなど見受けられるが,概念間の距離に関しては連想概念辞書はEDRよりもWordNetに近い概念構造を持つことがわかった.今回構築した連想概念辞書は記述されている語彙が少なく網羅性という面で課題が残っているが,今後,連想実験での刺激語を増やしつつ辞書の整備をしていきたいと考えている.\acknowledgment本研究を進めるにあたって,連想実験の被験者の皆様に感謝いたします.適切な支援と実験を手伝ってくださった慶應義塾大学石崎研究室の皆様に,また実験データの修正を手伝ってくださった研究室の概念辞書班のメンバーに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{岡本潤}{1997年慶應義塾大学環境情報学部卒.1999年慶應義塾大学大学院政策メディア研究科修士課程修了.同研究科博士課程在学中.}\bioauthor{石崎俊}{1970年東京大学工学部計数工学科卒,同助手を経て1972年通産省工業技術院電子技術総合研究所勤務,1985年推論システム研究室室長,自然言語研究室長を経て1992年から慶應義塾大学環境情報学部教授,1994年から政策メディア研究科教授兼任.自然言語処理,音声情報処理,認知科学などに興味を持つ.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N05-05
|
\section{はじめに}
『現代日本語書き言葉均衡コーパス(BCCWJ)』(国立国語研究所2011)\nocite{NINJAL2011}の完成を受けて,国立国語研究所では日本語の歴史をたどることのできる「通時コーパス」の構築が進められている\footnote{NINJAL通時コーパスプロジェクトhttp://www.historicalcorpus.jp/}\cite{近藤2012}.コーパスの高度な活用のために,通時コーパスに収録されるテキストにもBCCWJと同等の形態論情報を付与することが期待される.しかし,従来は十分な精度で古文\footnote{本稿では,様々な時代・文体・ジャンルの歴史的な日本語資料を総称して「古文」と呼ぶ.}の形態素解析を行うことができなかった.残された歴史的資料は有限であるとはいえ,その量は多く,主要な文学作品に限っても手作業で整備できる量を大きく超えている.また,均質なタグ付けのためには機械処理が必須である.本研究の目的は,通時コーパス構築の基盤として活用することのできるような,歴史的資料の形態素解析を実現することである.通時コーパスに収録されるテキストは時代・ジャンルが幅広いため,必要性の高い分野から解析に着手する必要がある.明治時代の文語論説文と平安時代の仮名文学作品は,残されたテキスト量が多いうえ,日本語史研究の上でも価値が高いことから,これらを対象に,96\%以上の精度での形態素解析を実現することを目指す.そして,他の時代・分野の資料の解析に活かすために,各種条件下での解析精度の比較を行い,歴史的資料を日本語研究用に十分な精度で解析するために必要な学習用コーパスの量を確認し,エラーの傾向を調査する.本研究の主要な貢献は以下の通りである.\begin{itemize}\item現代語用のUniDicをベースに見出し語の追加を行って古文用の辞書データを作成した.\item新たに古文のコーパスを作成し,既公開のコーパスとともに学習用コーパスとして,MeCabを用いたパラメータ学習を行い形態素解析用のモデルを作成した.\item同辞書を単語境界・品詞認定・語彙素認定の各レベルで評価し,語彙素認定のF値で0.96以上の実用的な精度を得た.また,同辞書について未知語が存在する場合の解析精度を実験により推測し,その場合でも実用的な精度が得られることを確認した.\item同辞書の学習曲線を描き,古文を対象とした形態素解析に必要なコーパス量が5〜10万語であること,5,000語程度の少量であっても専用の学習用コーパスを作成することが有効であることを確認した.\item高頻度エラーの分析を行い,特に係り結びに起因するものは現状の解析器で用いている局所的な素性では対処できないものであることを確認した.\end{itemize}
\section{研究の背景}
\subsection{古文の形態素解析}現代文を対象とした日本語形態素解析は1990年代には実用的になっていたが,古文を対象とした形態素解析は長い間実現せず,コンピュータによる古文の処理を行おうとする人々から待ち望まれていた.日本語学・国語学の分野においては,BCCWJの完成によってコーパスを用いた現代語の研究が盛んになりつつあるが,形態素解析は複雑な共起条件を指定した用例検索や,コロケーション強度の取得,テキストごとの特徴語抽出,多変量解析を用いた研究など,新しい手法による研究を可能にしている.歴史的資料の形態素解析が可能になることで,日本語の史的研究の分野においてもこれが可能になり新しい知見がもたらされることが期待される.\citeA{村上2004}は,計量文献学の立場から,古典の研究資料としての価値を論じた上で「古典に関して計量分析で著者に関する疑問を解明できたなら,古典研究に大きな刺激を与えるにちがいない.ただ,残念なことに文章を自動的に単語に分割し,品詞情報等を付加する形態素分析のプログラムの開発が古文の場合,遅れている」(p.~191)と述べている.また,\citeA{近藤2009}は古典語研究の立場から「古典語は形態素解析の自動化がしにくいため,単語レベルの索引を作るには,すべて手作業で形態素解析を行う必要があるため,多くの資料を対象に語彙研究することは困難である」と述べている.もっとも,古文の形態素解析の実現のための研究はこれまでにも行われてきた.早い時期の研究として,\citeA{安武1995},\citeA{山本1996}などがある.しかし,古文の電子的な辞書やコーパスが不足していたこともあり,これらはいずれも試行のレベルにとどまっており,アプリケーションの公開も行われていない.また,研究の主眼が解析手法の開発自体にあるため,コーパスや辞書の整備も最小限しか行われてこなかった.このほか,\citeA{山元2007}が和歌集の言語学的分析を目的として和歌の形態素解析を実現しているが,これは和歌に特化したものであり,散文等の古文一般に適用できるものではない.このように,多くの資料を対象にした通時コーパス構築の基盤として利用可能な形態素解析のシステムは新たに作成する必要があった.\subsection{UniDicと古文}通時コーパスに先だって構築されたBCCWJでは,新しく開発された形態素解析辞書UniDic\footnote{http://download.unidic.org}を利用して形態論情報が付与された.UniDicは,(1)見出し語として「短単位」という揺れが少ない斉一な単位を採用している,(2)語彙素・語形・書字形・発音形の階層構造を持ち,表記の揺れや語形の変異をまとめ上げることができる,(3)個々の見出し語に語種やアクセント型などの豊富な情報が付与されている,といった言語研究に適した特長を持っている\cite{伝2007}.古文の形態素解析にとっても,上述のUniDicの特長は非常に有効である.たとえば,揺れの少ない斉一な単位は,テキストの解析結果を用いた語彙の比較を可能にする.従来の古典文学作品の総索引は単位認定や見出し付与の方針の違いにより相互の比較が難しい場合があった.しかし通時的なコーパスを構築する場合には,現代語コーパスと共通する一貫した原理に基づいた情報付与を行って,一作品・一時代にとどまらず古代から現代に至る「通時」的な観察を可能にする必要がある.UniDicをベースとすることで,作品間の比較が可能になるだけでなく,時代の違いを超え,各種のテキスト間で相互に語彙を比較することが可能になる.また,階層化された見出しを用いることで,文語形や旧字・旧仮名遣いの語を同一見出しの元にまとめることができるため,さまざまな時代のテキストに出現する語形・表記を統一的に扱うことができる.こうした理由から,本研究では現代語用のUniDicをもとにして,歴史的資料のための形態素解析辞書を作成することにした.UniDicでは,形態素解析器にMeCab\footnote{https://code.google.com/p/mecab/}\cite{Kudo2004}を用いている.MeCabはCRF\cite{Lafferty2001}にもとづく統計的機械学習によって高精度な形態素解析を実現しており,学習器も公開されている.したがって,古文の学習用コーパスを用意し,UniDicの見出し語を拡充することで古文に対応することができる.3.1節で示すように,見出し語を追加するだけでは実用的な解析精度を達成することはできず,学習用コーパスを用いて形態素解析器を再学習することが重要である.\subsection{解析対象のテキスト}一口に古文と言っても,その中身は極めて多様である.通時コーパスでは,時代幅としては8世紀から19世紀までが,ジャンルとしては和歌から物語,仏教説話,軍記物,狂言,また洒落本などの近世文学,さらに近代の小説や論説文,法律までが対象となる.これらのテキストの文体は,文法・語彙・表記にわたって極めて多様であって,単に「古文」としてひとくくりにして済むものではない\cite{小木曽2011}.テキストに大きな違いがある以上,解析対象のテキストごとに最適の辞書を作成することができれば望ましいが,残された歴史的資料は有限であり,少量のテキストのために個別に辞書を作成することは現実的ではない.文体的に近いテキストを十分な量のグループにまとめ,グループごとに適した形態素解析辞書を用意することが適切である.こうしたグループとしてまず考えられるのは,今から約1000年前の平安時代(中古)に書かれた仮名文学作品を中心とする和文系の資料である.中でも源氏物語は日本語の古典の代表的なものであり,その文体は,中世の擬古物語や近世・近代の擬古文に至るまで模倣されながら長い期間にわたって用いられている.もう一つのグループとしてあげられるのは,約100年前に広く用いられていた近代の文語文である.中でも明治普通文とも呼ばれる近代の文語論説文は,明治以降戦前にかけて広く用いられた文体であり,公文書から新聞・雑誌まで各種の資料がこれによって書かれている.表1に二つのグループに属するテキストの例を挙げる.\begin{table}[t]\caption{中古和文と近代文語文のテキスト例}\label{tab1}\input{05table01.txt}\end{table}近代文語文は,平安時代以来の漢文訓読文の流れに位置づけられる文体である.漢文訓読文では漢語が多く用いられるのに対して,和文では漢語はわずかしか用いられない.また和文と漢文訓読文では使用する和語の語彙も大きく異なっていることが知られている.こうした語彙の違いからも,現代語からの時代的遠近という点からも,中古和文と近代文語文は対照的な位置にあり,この2つのグループについて形態素解析辞書を用意することは,通時コーパス全体の解析を目的とする上で有効であると考えられる.\subsection{現代語用のUniDicによる古文の解析精度:ベースライン}一般に公開されている現代語用の形態素解析辞書はこれによって古文を解析することは考慮されていない.古文では,特に助動詞などの機能語の用いられ方が大きく異なるため,現代語用の辞書で古文を解析することは困難であると考えられる.現代語用に作られたUniDicも同様であるが,新たに作成する古文用辞書と比較するためのベースラインとして,手始めに現代語用のUniDicで近代文語文と中古和文を解析した場合の精度を調査する.評価に用いる現代語用UniDicは一般公開されているunidic-mecab-2.1.0である.UniDicの学習にはコーパスとしてBCCWJのコアデータのほか日本語話し言葉コーパスとRWCPコーパスの一部が用いられており,学習素性としては語彙素・語彙素読み・語種・品詞・活用型・活用形・書字形が用いられている\cite{Den2008}.UniDicの見出し語は,語彙素・語形・書字形・発音形の階層構造を持っている.そのため,解析結果の精度評価もこの階層ごとに行った.最も基礎的なレベルとして,単語境界の認定が正しく行われているかを見る「Lv.1境界」を設定した.またこれに加えて品詞・活用型・活用形の認定が正しいかどうかを見る「Lv.2品詞」,Lv.1・Lv.2に加えて語彙素(辞書見出し)としての認定も正しかったかどうかを見る「Lv.3語彙素」を設定した.Lv.3は,たとえば「金」が「キン」でなく「カネ」と正しく解析されているかどうかを見ることになる.さらに,Lv.1〜Lv.3が正しいことに加え,読み方が正しいかどうかを見る「Lv.4発音形」を設定した.Lv.4は,古文の場合には発音というよりは語形の違いが正しく認定されているかどうかを評価するものである.たとえば,「所」が文脈にあわせて「トコロ」ではなく「ドコロ」と正しく解析されているかどうかを見ることになる.ところで,現代語の辞書で古文を解析した場合には,活用型が文語であるか口語であるかの違いによって誤りとされる例が多い.たとえば動詞「書く」は口語ではカ行五段活用(「五段-カ行」)だが,文語ではカ行四段活用(「文語四段-カ行」)で定義されているため両者が一致しないと品詞レベルで誤りと見なされる.しかし両者は本質的には同語であるといってよく,相互に容易に変換することができる.そこで,こうした口語・文語の活用型の対についてはいずれを出力した場合にも正解と見なした場合の精度についても調査した.具体的には,「文語形容詞-ク」と「文語形容詞-シク」を「形容詞」と同一視し,「文語四段」は「五段」,「文語サ行変格」は「サ行変格」,「文語下二段」は「下一段」,「文語上二段」は「上一段」と同一視した.さらに文語の「-ハ行」「-ワ行」を「-ア行」と同一視した.以上の観点でまとめた解析精度の調査結果を表2に示す.評価コーパスは,後述する人手修正済みのコーパスから約10万語を文単位でランダムサンプリングしたものである.評価項目は次に示すPrecision(精度),Recall(再現率),F値(PrecisonとRecallの調和平均)である.\begin{gather*}\mbox{Precision}=\frac{正解語数}{システムの出力語数}\\[1ex]\mbox{Recall}=\frac{正解語数}{評価コーパスの語数}\\[1ex]\mbox{F値}=\frac{2*\mbox{Precision}*\mbox{Recall}}{\mbox{Precision}+\mbox{Recall}}\end{gather*}活用型の補正なしの場合の語彙素レベルのF値でみると,近代語では0.6775,中古和文では0.5432となっており,予想通り通時コーパス構築の実用に耐える精度ではない.中古和文と比べ近代文語の方が比較的精度が良いが,これは現代語との年代差が少ないため使用される語彙が近いことによるものと考えられる.補正後は,近代語では0.7323,中古和文では0.5939となっている.補正による上昇は0.05ポイント程度であり,単純な活用型変換を行ってもさほど精度は向上しないことが分かる.\begin{table}[t]\caption{現代語用UniDicによる近代文語・中古和文の解析精度}\label{tab2}\input{05table02.txt}\end{table}このように古文の形態素解析のためには辞書への古文の見出し語追加が必須であり,また古文のコーパスで再学習を行うことで解析精度の向上が期待できる.以下,3節で見出し語の追加と学習用コーパスの構築について説明する.4節では見出し語追加と再学習を行った提案手法による解析精度を他の手法と比較して確認し,その後この辞書による各種テキストの解析精度について議論する.
\section{見出し語の追加と学習用コーパスの作成}
\subsection{現代語用のUniDicに対する見出し語の追加}古文用の形態素解析を行うために,現代語用の辞書に見出し語の追加を行った.UniDicでは見出し語を語彙素・語形・書字形・発音形の4段階で階層的に管理しているため,近代語解析に必要な語を各階層に整理して追加することができる.現代語としては使われなくなっている語は「語彙素」のレベルで,文語活用型の語は「語形」のレベルで,異体字や旧字形など表記の違いは「書字形」のレベルで追加することになる(図1).これにより,現代語のための見出し語と統一的に管理することができ,文語形と口語形,新字形と旧字形がそれぞれ関係を持つものであることを示すことができる.\begin{figure}[t]\begin{center}\includegraphics{20-5ia5f1.eps}\end{center}\caption{UniDicの階層(語彙素・語形・書字形)と文語形・旧字形}\label{fig1}\vspace{-1\Cvs}\end{figure}これまでに近代文語文のために追加した語彙は,語彙素レベルで10,814語,語形レベルで12,417語,書字形レベルで25,224語であった.また,中古和文のために追加した語彙は,語彙素レベルで5,939語,語形レベルで7,351語,書字形レベルで13,763語であった.両者には共通の語彙も多いが近代文語文の語彙追加を先に行ったため,中古和文のための追加数が少なくなっている.もともとあった現代語の見出し語とあわせ,全体の見出し語数は,語彙素225,588語,語形253,061語,書字形413,897語となっている.追加した見出し語は,現代語形から派生させた文語形や旧字形を追加するところからはじめ,既存の古語辞典やデータ集の見出し語からも追加を行った.しかし,形態素解析辞書の見出し語としては,UniDic体系に基づく詳細な品詞を付与し,実際に出現する表記形を入力する必要があるため,単なる辞典の見出し語リストは多くの場合,登録用のソースとして不十分である.そのため,大部分の語彙は,後述する学習用コーパスを整備する過程で不足するものを追加する形で行った.見出し語の単位認定については,通時的な比較ができるようにするため,可能な限り現代語と共通の枠組みで処理を行った.しかし,語の歴史的変化や古文における使用実態を踏まえ,時代別に異なった扱いをしている語も少なくない.たとえば,指示詞について,現代語のUniDicでは「この」「その」などは1語の連体詞として扱っているが,「こ」「そ」が単独で指示代名詞として使われる中古語では,これらは代名詞+格助詞として扱った方が適切である.このように,歴史的資料向けの辞書見出しの追加は単純な作業ではなく,通時的な共通性に配慮しつつ,各時代の言語の実態を反映させるかたちで見出し語を認定するという高度な判断にもとづくものである.その積み重ねによって作られた見出し語リストは,日本語の通時的な処理を行う上で基礎となる重要なデータであると言える.また,中古和文UniDicの見出し語認定基準は規程集としてまとめ公開している\cite{小椋2012}\footnote{http://www2.ninjal.ac.jp/lrc/index.php?UniDic}が,これは通時的な比較を考慮した歴史的資料の処理にとって利用価値が高い資料である.中古和文用の規定はそのまま他の時代の資料に適用できるわけではないが,日本語の古典文法は中古和文を基準として作られたものであるため,この規定を中核として追加・修正を行うことで各時代向けの辞書を作成していくことが可能である.語彙の追加と平行して活用表の整備も行った.UniDicはもともと文語の活用表を一部備えていたが,これを整備して網羅的なものとするとともに,通時コーパス構築に必要な活用形の追加を行った.UniDicは現代語用に整備されてきたため,古文では用いられない語彙を多く含んでいる.しかし,基礎語彙の多くは中古和文でも共通であり,どの語が不要であるかを事前に判断することは必ずしも容易ではない.また,古文の形態素解析辞書にとって見出し語の肥大化は大きな問題ではないうえ,不要語があることによる解析精度への悪影響は認められなかったため,現代語用の見出しも原則としてそのままとした.同様の理由から,近代文語UniDicと中古和文UniDicの間でも同一の語彙表を用いている.\begin{table}[b]\caption{古文用の見出し語を追加した現代語用UniDicによる解析精度}\label{tab3}\input{05table03.txt}\end{table}以上のような見出し語の追加だけであれば,学習用コーパスの作成に比べて低コストで行うことができる.そこで,見出し語の追加だけで十分な精度向上が見られるのかどうか確認するため,古文用の見出し語を追加した現代語用のUniDicを作成し,2.4節の表2と同様に解析精度を調査した.その結果を表3に示す.見出し語の追加によって,近代文語では,語彙素認定のF値で約0.06ポイント向上し0.7363,補正後の数字で0.797となっている.また,精度の低かった中古和文では,語彙素認定のF値で約0.07ポイント向上し0.6190,補正後の数字で0.664となっている.しかし,やはりこの精度は不十分であり,見出し語の追加だけでは通時コーパスの構築にとって十分なだけの精度は得られなかった.\subsection{学習用コーパスの準備}前節で確認したように,古文の形態素解析のためには,見出し語の追加だけでなく学習用コーパスの整備が必要となる.近代文語では,主たる解析対象の明治期の文語論説文を中心に,表4の約64万語の人手修正済みのコーパスを作成した.近代詩・小説・法令・論説文の大部分は「青空文庫」\unskip\footnote{http://www.aozora.gr.jp/}所収のテキストを利用し,論説文としては他に上田修一氏作成の「文明論之概略」テキストデータ\footnote{http://web.keio.jp/\~uedas/bunmei.html}を利用した.また,雑誌の本文は国立国語研究所の「太陽コーパス」「近代女性雑誌コーパス」\unskip\footnote{http://www.ninjal.ac.jp/corpus\_center/cmj/なお,「太陽コーパス」「近代女性雑誌コーパス」は文書構造等がタグ付けされたコーパスで形態論情報は付与されていない.}の一部のテキストを利用した.以上のテキストに対して独自にUniDicベースの形態論情報をタグ付けしたデータに加え,国立国語研究所で公開された形態論情報付き「明六雑誌コーパス」\unskip\footnote{http://www.ninjal.ac.jp/corpus\_center/cmj/meiroku/}を学習用のデータとして利用した.\begin{table}[b]\begin{minipage}[t]{0.5\textwidth}\caption{近代文語のコーパス}\label{tab4}\input{05table04.txt}\end{minipage}\begin{minipage}[t]{0.5\textwidth}\caption{中古和文のコーパス}\label{tab5}\input{05table05.txt}\end{minipage}\end{table}中古和文では,2012年に国立国語研究所によって公開された「日本語歴史コーパス平安時代編先行公開版」\unskip\footnote{http://www.ninjal.ac.jp/corpus\_center/chj/}のデータを学習に利用した.このコーパスは,表5に示す平安時代の仮名文学作品を中心とした約82万語の人手修正済みの形態論情報を含んでいる.学習用のコーパスは段落や改行,振り仮名などがタグ付けされたテキストに形態論情報を付与したもので,これを関係データベース上で辞書データと紐付けて管理している.近代語コーパスでは,さらに濁点が付されていない部分に濁点を付与するなど表記上の問題に対処するためのタグ付けを行い,また文末を認定してセンテンスタグを付与している.日本語の歴史的資料のコーパスを形態素解析辞書の機械学習に利用可能な形で整備したのはこれが初めての試みである.近代文語文と中古和文は,同じ古文と言っても大きく性質の異なる文体である.近代文語文では低頻度語が多く,上記のコーパス中,書字形(基本形)で集計した場合,頻度1の語が18,120語,頻度2の語が5,943語含まれていた.一方,中古和文では,頻度1の語が6,198語,頻度2の語が2,134語にすぎない.近代文語文は,明治維新後に西洋の新たな文物を吸収していく時代において,新しい書き言葉を確立していく過程にあった文体であるため,新たに作られながらも定着しなかった語などの低頻度語が目立つ.また,書かれる内容が多様で文体差が大きい.一方,中古和文は,古代の宮廷における限られたコミュニティの中で当時の話し言葉に基づいて書かれた文章であり,内容的な幅も狭いため,語彙の広がりが小さい.こうした違いは,形態素解析の精度にも影響を及ぼしてくると考えられる.\subsection{MeCabを用いたコーパスからのパラメータ学習}MeCabでコーパスからのパラメータを学習する場合,設定ファイルrewrite.defとfeature.defによって,学習に用いる内部素性のマッピングと,内部素性からCRF素性を抽出するためのテンプレートを書き換えることができる.近代文語UniDicと中古和文UniDicの学習にあたっては,CRF素性を抽出するテンプレート(feature.def)は,どちらの辞書でも現代語用のものをそのまま用いている.利用している素性は,語彙素・語彙素読み・語種・品詞(大分類・中分類・小分類)・活用型・活用形・書字形(基本形と出現形)とその組み合わせである.UniDicでは語種を学習素性として利用しているのが特徴となっており\cite{Den2008},この素性は古文の解析にも大きく寄与している.一方,内部素性のマッピング(rewrite.def)は,現代語用UniDicのものを修正して,語彙化する見出し語を文語の助動詞・接辞に置き換えた.たとえば,次の助動詞については品詞ではなく,語彙のレベルで連接コストを計算している.\begin{quote}き,けむ,けらし,けり,こす,ごとし,ざます,ざんす,じ,ず,たり,つ,なり,ぬ,べし,べらなり,まし,まじ,む,むず,めり,らし,らむ,り,んす,んなり,んめり,非ず\end{quote}助詞・助動詞などの語彙化すべき見出し語については近代文語文と中古和文とで共通する部分が多いため,rewrite.defは近代文語UniDicと中古和文UniDicとで共通のものを利用した.
\section{解析精度の評価}
\subsection{解析精度}上述の方法で作成した「近代文語UniDic」「中古和文UniDic」の解析精度を調査した.評価コーパスは,3.2節で示した人手による修正済みのコーパスから文単位でランダムサンプリングした10万語分とし,その残りを訓練コーパスとした.評価コーパスは,辞書ごとに固定して,以後の精度評価でも同一のものを用いている.2.4節での調査と同様に,単位境界・品詞・語彙素・発音形の4つのレベルで調査を行った結果を表6に示す.なお,評価コーパスはもともと学習用に整備したものの一部を転用したものであるため,当初含まれていた未知語は辞書に登録されている.そのため,解釈不能語などを除いて原則として未知語を含んでいない.\begin{table}[b]\caption{「近代文語UniDic」「中古和文UniDic」の解析精度}\label{tab6}\input{05table06.txt}\end{table}語彙素認定のF値で,近代文語は0.9641,中古和文では0.9700となっており,ベースライン(表2)や見出し語のみを追加した場合(表3)と比較して大幅に精度が向上している.近代文語UniDicと中古和文UniDicを比較すると,すべてのレベルで中古和文の方が良い精度となっている.これには中古和文の方が訓練コーパスの量が多いことも影響しているが,それよりも3.2節で見たようなテキストの性質の違いによる影響が大きいと考えられる(4.4節参照).図2に,再学習を行った提案手法と,2〜3節で確認した各種手法(現代語辞書によるベースライン,再学習を伴わず見出し語だけを追加した辞書)の解析精度を比較した結果を示す.精度は語彙素認定レベルのF値である.図中の「補正」とは活用型の文語形への変換を行った場合の精度である.\begin{figure}[t]\begin{center}\includegraphics{20-5ia5f2.eps}\end{center}\caption{各種方法による解析精度の比較(語彙素レベル・F値)}\label{fig2}\end{figure}このように,コーパスによる再学習によって初めて実用的な精度での解析が可能になる.BCCWJの構築に利用された現代語のUniDicの解析精度が語彙素認定のF値で約0.98であり,ジャンルによっては0.96程度に留まることと比較しても,コーパス構築に利用するために十分な精度が出ていると言える.\subsection{未知語を考慮した解析精度}表6の精度は,基本的に未知語が存在しない状態のコーパスを評価対象とした場合のものであった.しかし,実際の解析対象には未知語が含まれているのが通常である.そこで,未知語を含んだテキストを解析した際の精度を検証した.評価コーパスには同一のものを用いて,評価コーパスのみに現れ,それ以外の人手修正済みコーパス(=学習用コーパス)には一度も出現しない語を,近代文語UniDic・中古和文UniDicそれぞれの辞書から削除して未知語を発生させた.削除した語数は,近代文語UniDicでは2,089語(評価コーパス中の出現回数3,128),中古和文UniDicでは795語(評価コーパス中の出現回数824)であった.3.2節で見たように,近代文語文には低頻度の語が多く含まれるため,中古和文に比べて未知語が多く発生することになる.この条件で作成し直した辞書の解析精度を表7に示す.Precisionが特に低下しており,語彙素認定のF値で見ると,近代文語文では0.0376ポイント低下して0.9265,中古和文では0.0089ポイント低下して0.9611となっている.未知語が多い近代文語文では影響が大きいが,それでも十分に実用的な精度が得られている.\begin{table}[t]\caption{未知語の有無による解析精度比較}\label{tab7}\input{05table07.txt}\end{table}\subsection{未知の資料の解析精度}前節で見たように学習用コーパスと同一の作品では十分な精度が得られたが,学習用コーパスとは完全に無関係な資料の解析精度を確認する必要がある.未知の資料には,当該辞書の適用対象といえるテキストと,文体差があり必ずしも適切な対象であるとはいえないテキストがある.ここでは,中古和文UniDicを例に,その適用対象内の文体で書かれたテキストであるといえる擬古物語『恋路ゆかしき大将』と,時代的には中古和文に近いが和漢混淆文と呼ばれる別種の文体である『今昔物語集』の一部の解析精度を調査する.調査対象のテキストはいずれも未知語を一部含んだ状態である.それぞれ,表8に示すような文体である.中古和文UniDicによる擬古物語と和漢混淆文の解析結果を表9に示す.擬古物語では,語彙素認定のF値で0.95以上の精度を確保している一方,和漢混淆文では0.85程度となっている.ここから,中古和文UniDicがターゲットとしていた文体であれば未知の資料であっても十分な解析が可能であること,一方ターゲットとしていない文体では十分な精度が得られず,再学習など新たな取り組みが必要であることが分かる.\begin{table}[b]\caption{擬古物語・和漢混淆文のテキスト例}\label{tab8}\input{05table08.txt}\vspace{0.5\Cvs}\end{table}\begin{table}[b]\caption{「中古和文UniDic」による擬古物語・和漢混淆文の解析精度}\label{tab9}\input{05table09.txt}\end{table}\subsection{学習に用いるコーパスの量の解析精度への影響}\begin{figure}[b]\begin{center}\includegraphics{20-5ia5f3.eps}\end{center}\caption{各種UniDicの学習曲線(語彙素レベル・F値)}\label{fig3}\end{figure}つづいて,学習に用いるコーパスの量の解析精度への影響を確認するために,コーパスの量を変化させて解析精度を評価した.評価コーパスは辞書ごとに固定した10万語で,4.1節・4.2節と同一のものである.学習用のコーパスは,評価コーパス以外の人手修正済みデータを文単位でランダムに並び替えた後,先頭から指定語数分取得している.語数は,2万語までは5,000語ごと,10万語までは2万語ごと,それ以上は10万語ごとに学習用コーパスを増やし,近代文語UniDicでは50万語,中古和文UniDicでは70万語まで評価している.比較のため現代語用のUniDicについても同様の方法で100万語まで評価した.現代語の学習・評価用コーパスにはBCCWJのコアデータを利用した.この結果を図3に示す.縦軸が語彙素認定のF値,横軸がコーパス量である.現代語$>$中古和文$>$近代文語の順に解析精度が低くなるが,この傾向はコーパス量が同じであればどの段階においても同じであり,この差は各辞書が対象とするテキストの(短単位による形態素解析という観点での)難易度を反映したものだといえそうである.ただし,近代文語文の精度低下には,口語による表現が部分的に挿入される場合があることも影響している\footnote{近代文語文のコーパス中,口語表現が占める割合は,抜き取り調査にもとづく概算で1\%程度である.}.口語表現を除外するようにコーパスを整備したり,口語表現の品詞認定基準を改めたりすることで,他の辞書との差は小さくなるものと思われる.学習用のコーパス量が5,000語でも0.9以上のF値が得られているが,これは現代語のUniDicで解析した表2や表3の結果よりも遙かに良い数値である.古文の形態素解析では,少ない量であっても専用のコーパスを使って辞書を作成することが効果的であることがわかる.また,約5万語のコーパスで95\%の精度に達しており,どの辞書でも約10万語を境に精度向上が大幅に鈍化し飽和していく.短単位の形態素解析辞書を新たに作成するのに必要な学習用のコーパスは約5〜10万語というのが一つの目安であるといえる.
\section{エラー分析}
\subsection{高頻度の解析エラー}\begin{table}[b]\caption{高頻度の解析エラー}\label{tab10}\input{05table10.txt}\end{table}4.1節(表6)の精度調査におけるエラーから,近代文語UniDic,中古和文UniDicのエラーの傾向を分析する.表10に,境界認定・品詞認定・語彙素認定の各レベルにおいて特に高頻度のエラーをまとめた.表中括弧内の数字はエラー数である.以下,これらのエラーについてレベル別に確認する.\subsection{境界認定レベルのエラー}境界認定のレベルでは,近代文語UniDicは結果として過分割となっているものが272例,同数となるもの74例,過結合となるものが258例であった.中古和文UniDicは過分割となっているものが189例,同数となるものが25例,過結合となるものが176例であった.中古和文・近代文語でともにエラーが多い「にて」「とも」は,語源にさかのぼると「に/て」「と/も」であり,複合してできた語を語源的に見て2語と扱うか,新たにできた1語として扱うかという認定基準の立て方の問題と関わる.歴史的な言語変化によって一語化が進展していくわけだが,もともと連続して出てきやすい語の連続であり,また全ての「に/て」「と/も」連続が一語化するわけではないため判別が難しい.近代文語の「然れども」は,現在の規程では,「しかれども」と読む場合には「然り」と「ども」に分割し,「されども」と読む場合には1語の接続詞として扱っている.したがって問題は「然れ」を「され」と読むか「しかれ」と読むかという点にあり,実質上は語彙素認定のエラーであるとも言える.「彼の」も同様で,「かれ(の)」と読めば2語になり,「か(の)」と読めば連体詞として1語と見なされる.このように近代語では漢字表記語が多く読みに曖昧さがあり,そこに語の歴史的変化による一語化が進展していることが複合して問題となっている.一方,近代文語の「論派」は,「○○論派」とある場合に,UniDicの短単位規定で「((○○)論)派」という語構成を考えて「-論」「-派」がいずれも接尾辞となって切り出されるのに対し,「論派」という1語の名詞も存在するためにこちらが優先されることによっている.漢語の多い近代語で目立っているが,これは現代語でも同種の現象が起きる問題であり,漢語の単位認定について,形態素解析では扱いきれない語構成の問題が短単位認定基準に取り込まれていることが要因であるといえる.\subsection{品詞認定レベルのエラー}品詞認定のレベルでは,品詞そのものの認定エラーと,活用形の認定のエラーが区別される.品詞そのものの認定で中古和文・近代文語ともに最多のものは「に」の認定が助動詞・格助詞・接続助詞の間で揺れるものである.「に」の判別は現代語においても助動詞「だ」連用形と格助詞「に」の間などで問題になるが,古文では接続助詞の「に」が高い頻度で用いられるためより曖昧性が高い.接続助詞「に」は連体形接続であるため,接続の上でも他と区別が付かない.このほか,中古和文では「を」の判別エラーが多い.現代語では格助詞以外の用法を持たないが,中古語では接続助詞・終助詞があるためエラーにつながっている.また,近代文語では「も」「で」の判別エラーが目立つが,いずれも同形の接続助詞があることで現代語よりも曖昧性が増している.さらに「で」は近代においては口語的な助動詞「だ」の連用形としての「で」が用いられることがあるため,現代語で発生する助動詞「だ」連用形と格助詞「で」の判別と同じ問題が生じている.このように品詞の認定では,コピュラ助動詞(「なり」「だ」)の連用形と格助詞との判別という現代語でも見られるエラーがあることに加えて,古文では同形の接続助詞が存在するためにより曖昧性が高くエラーにつながっている.活用形の認定では,高頻度の助動詞や動詞の終止形・連体形の判別と,助動詞「ず」・動詞「有り」の終止形と連用形の判別でエラーが多く発生している.終止形・連体形の判別エラーは,係り結びに起因する古文特有のものである.古文では,文中に「ぞ」「か」「や」の係助詞や疑問詞(不定語)が存在する場合,係り結びの法則によって文末が終止形ではなく連体形になるという現象がある.ところが,四段活用では終止形と連体形が同形であるため,文末に位置する場合には文中に上述の要素(係り)が存在するかどうかによって同形の動詞を判別しなければならず,この困難がエラーにつながっている.係り結びは中古和文で特に多いため終止形・連体形の判別エラーも中古和文に多く,活用形間の誤り全体363例のうち214例がこのエラーである.助動詞「ず」・動詞「有り」の終止形と連用形の判別は,文末の認定に関わるものである.助動詞「ず」やラ行変格活用の語では終止形と連用形が同形であるが,終止形と連用形の違いは多くの場合,文が中止しているのかそこで終わっているのかの違いに相当する.ところが,近代文語文では,文末が句点として必ずしも明示されない\footnote{このため,近代語のコーパスでは人手によって文境界をタグ付けしている.古文の解析にとって文末の自動認定は残された重要な課題の一つである.}.句点と読点が区別されず,ともに「、」で表されている文が多く,こうした場合には中止か終止かの区別が極めて難しい.このことが終止形・連用形の選択エラーにつながっている.これも古文のテキスト特有のエラーである.\subsection{語彙素認定のエラー}語彙素認定では,中古和文における接頭辞「御」が「ミ」「オオン」の間で揺れる例が極めて多かった.これを含め中古和文における高頻度の語彙素認定エラーは,品詞が一致する上に語種までが同じ例である.近代文語で最多の「人」が「ジン」「ニン」で揺れる例も語種が同じものである.UniDicの見出し語中には,同一の漢字表記語が音読する漢語と訓読する和語に区別される例が多いが,学習素性に語種を利用していることもあり,語種をまたいだ誤りは比較的少なかった.語彙素認定のエラーは現代語でも生じうるタイプの誤りである.ただし,現代語では接頭辞「御」は漢語「ゴ」と和語「オ」でほぼ区別が付くが,中古和文では和語に複数の読みがあるため語種では判別ができないといった違いがある.\subsection{エラーのまとめ}以上のエラーのうち古文特有といえる問題は,(1)係り結びに起因する文末活用語の終止形・連体形の判別,(2)文末表示の曖昧さに起因する文末活用語の終止形・連用形の判別である.特に係り結びの問題に対処するには文中の離れた要素を考慮する必要があるが,提案手法では局所的な形態論情報だけを素性として利用しているため対応できていない.しかし,これらのエラーは比較的簡単なルールによって自動修正できるため,形態素解析後の後処理で対応することが可能である.その他のエラーは同種の問題が現代語でも発生しうるものである.しかし,「に/て」「と/も」,「に」「も」「を」などの助詞に関する判別は,古文の方が同音異義となる語彙が多いため曖昧性が増していた(「を」は現代語では曖昧性がない).また,特に近代文語では漢字表記語の割合が大きく,その読みの曖昧性がエラーにつながる例が現代語よりも多い.中古和文の接頭辞「御」も同様で和語に絞っても多様な読みがあるため判別が困難である.以上のように,エラーの原因には文法現象から語彙,表記法の違いまで,古文特有の現象が関わっているものが見られた.
\section{おわりに}
UniDicの見出し語を増補し,学習用のコーパスを整備することによって,「中古和文UniDic」と「近代文語UniDic」の二つの形態素解析辞書を作成した.これらの辞書により,語彙素認定のF値で,近代文語は0.9641,中古和文では0.9700という高い精度で解析することが可能になった.これにより,通時コーパス構築の基盤となる形態素解析システムが整ったといえる.これらの形態素解析辞書はすでにWeb上で一般公開を行っている\footnote{http://www2.ninjal.ac.jp/lrc/index.php?UniDic}.開発過程で,古文の形態素解析には見出し語の追加だけでは十分な精度が得られないこと,5,000語程度の少量であっても専用の学習用コーパスを用意することが効果的であることが確認された.他分野の辞書による解析精度が低いこととあわせ,このことは,古文の形態素解析では,他分野のコーパスによって学習したパラメータの転用を図ることは有効ではないことを示唆している.また,短単位にもとづく形態素解析辞書の学習には,5〜10万語の学習用コーパスを用意すれば歴史的日本語コーパスの構築にとって十分であることが確認された.さらに,エラーの分析から,残されたエラーの多くは,現状の解析器と学習可能な素性では対処の難しいものであることが確認された.近代文語と中古和文を比較すると,近代文語の解析精度が低かったが,その理由の一つは近代文語の中身が多様で,ドメインの分割がうまくできていないことにあるものと思われる.比較的少量の学習用コーパスで効果が見込まれることが確認されたことから,近代文語文をより小さなドメインに分割することで全体として精度を向上させられる可能性がある.同様に,会話文と地の文とで別の辞書を作成することでも精度の向上が期待できる.今後の課題としたい.通時コーパスの構築のためには,今後,様々なタイプのテキストの解析を行っていく必要がある.今回の調査においても,中古和文と同時代の資料であっても和漢混淆文は中古和文UniDicでは十分な精度で解析できないことが確認された.今後,和漢混淆文をはじめとする多様なジャンルのテキストを対象とした形態素解析辞書を作成していく必要がある.その中では,仮名遣いのバリエーションへの対処や送り仮名の大幅な省略などの表記揺れへの対処も必要となる.今回得られた情報をもとに必要なコーパスを整備するとともに,新たな解析器も活用しつつ,通時コーパスのための形態素解析を行っていきたい.\acknowledgment本研究は2009〜2012年に行われた国立国語研究所の共同研究プロジェクト(統計と機械学習による日本語史研究)による研究成果の一部である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{伝2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源—形態素解析用電子化辞書の開発とその応用{(特集コーパス日本語学の射程)\unskip}.\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{Den2008}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAproperapproachtoJapanesemorphologicalanalysis:Dictionary,model,andevaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thLanguageResourcesandEvaluationConference(LREC2008),Marrakech,Morocco},\mbox{\BPGS\1019--1024}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2011}]{NINJAL2011}国立国語研究所\BBOP2011\BBCP.\newblock現代日本語書き言葉均衡コーパス.\bibitem[\protect\BCAY{近藤}{近藤}{2009}]{近藤2009}近藤泰弘\BBOP2009\BBCP.\newblock\Jem{古典語・古典文学研究における言語処理},\mbox{\BPGS\472--473}.\newblock共立出版.\bibitem[\protect\BCAY{近藤}{近藤}{2012}]{近藤2012}近藤泰弘\BBOP2012\BBCP.\newblock日本語通時コーパスの設計.\\newblock\Jem{NINJAL「通時コーパス」プロジェクト・OxfordVSARPSプロジェクト合同シンポジウム通時コーパスと日本語史研究予稿集},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingconditionalrandomfieldstoJapanesemorphologicalanalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,Barcelona,Spain.},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty2001}Lafferty,J.~D.,McCallum,A.,\BBA\Pereira,F.C.~N.\BBOP2001\BBCP.\newblock\BBOQConditionalrandomfields:Probabilisticmodelsforsegmentingandlabelingsequencedata.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning,Williamstown,MA.},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{村上}{村上}{2004}]{村上2004}村上征勝\BBOP2004\BBCP.\newblock\Jem{シェークスピアは誰ですか?—計量文献学の世界}.\newblock文春新書.\bibitem[\protect\BCAY{小木曽}{小木曽}{2011}]{小木曽2011}小木曽智信\BBOP2011\BBCP.\newblock通時コーパスの構築に向けた古文用形態素解析辞書の開発.\\newblock\Jem{情報処理学会研究報告人文科学とコンピュータ},{\Bbf2011-CH-92}(6),\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{小椋\JBA須永}{小椋\JBA須永}{2012}]{小椋2012}小椋秀樹\JBA須永哲矢\BBOP2012\BBCP.\newblock\Jem{中古和文UniDic短単位規程集(科研費基盤研究(C)課題番号21520492「和文系資料を対象とした形態素解析辞書の開発」研究成果報告書2)}.\newblock国立国語研究所.\bibitem[\protect\BCAY{山元}{山元}{2007}]{山元2007}山元啓史\BBOP2007\BBCP.\newblock和歌のための品詞タグづけシステム.\\newblock\Jem{日本語の研究},{\Bbf3}(22),\mbox{\BPGS\33--39}.\bibitem[\protect\BCAY{山本\JBA松本}{山本\JBA松本}{1996}]{山本1996}山本靖\JBA松本裕治\BBOP1996\BBCP.\newblock日本語形態素解析システムJUMANによる古文の形態素解析とその応用.\\newblock\Jem{情報処理語学文学研究会第19回研究発表大会要旨}.\bibitem[\protect\BCAY{安武\JBA吉村\JBA首藤}{安武\Jetal}{1995}]{安武1995}安武満佐子\JBA吉村賢治\JBA首藤公昭\BBOP1995\BBCP.\newblock古文の形態素解析システム.\\newblock\Jem{福岡大学工学集報},{\Bbf54},\mbox{\BPGS\157--165}.\end{thebibliography}\begin{biography}\bioauthor{小木曽智信}{1995年東京大学文学部日本語日本文学(国語学)専修課程卒.1997年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了.2001年同博士課程中途退学.修士(文学).2001年より明海大学講師.2006年より独立行政法人国立国語研究所研究員を経て,2009年より人間文化研究機構国立国語研究所准教授,現在に至る.現在,社会人学生として奈良先端科学技術大学院大学情報科学研究科博士後期課程に在学中.専門は日本語学,自然言語処理.言語処理学会,日本語学会,情報処理学会各会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同研究科助教を経て,現在,首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.計量国語学会,言語処理学会,情報処理学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V08N01-08
|
\section{はじめに}
最近様々な音声翻訳が提案されている\cite{Bub:1997,Kurematsu:1996,Rayner:1997b,Rose:1998,Sumita:1999,Yang:1997,Vidal:1997}.これらの音声翻訳を使って対話を自然に進めるためには,原言語を解析して得られる言語情報の他に言語外情報も使う必要がある.例えば,対話者\footnote{本論文では,2者間で会話をすることを対話と呼び,その対話に参加する者を対話者と呼ぶ.すなわち,対話者は話し手と聞き手の両者のことを指す.}に関する情報(社会的役割や性別等)は,原言語を解析するだけでは取得困難な情報であるが,これらの情報を使うことによって,より自然な対話が可能となる.言語外情報を利用する翻訳手法は幾つか提案されている.例えば,文献\cite{Horiguchi:1997}では,「spokenlanguagepragmaticinformation」を使った翻訳手法を,また,文献\cite{Mima:1997a}では,「situationalinformation」を使った手法を提案している.両文献とも言語外情報を利用した手法であり,文献\cite{Mima:1997a}では机上評価もしているが,実際の翻訳システムには適用していない.言語外情報である「pragmaticadaptation」を実際に人と機械とのインターフェースへの利用に試みている文献\cite{LuperFoy:1998}もあるが,これも音声翻訳には適用していない.これら提案の全ての言語外情報を実際の音声翻訳上で利用するには課題が多くあり,解決するのは時間がかかると考えられる.そこで,本論文では,以下の理由により,上記言語外情報の中でも特に話し手の役割(以降,本論文では社会的役割のことを役割と記述する)に着目し,実際の音声翻訳に容易に適用可能な手法について述べる.\begin{itemize}\item音声翻訳において,話し手の役割にふさわしい表現で喋ったほうが対話は違和感なく進む.例えば,受付業務で音声翻訳を利用した場合,「受付」\footnote{本論文では,対話者の役割である「受付」をサービス提供者,すなわち,銀行の窓口,旅行会社の受付,ホテルのフロント等のことを意味し,「客」はサービス享受者を意味している.}が『丁寧』に喋ったほうが「客」には自然に聞こえる.\item音声翻訳では,そのインターフェース(例えば,マイク)によって,対話者が「受付」か否かの情報が容易に誤りなく入手できる.\end{itemize}本論文では,変換ルールと対訳辞書に,話し手の役割に応じたルールや辞書エントリーを追加することによって,翻訳結果を制御する手法を提案する.英日翻訳において,旅行会話の未訓練(ルール作成時に参照していない)23会話(344発声\footnote{一度に喋った単位を発声と呼び,一文で完結することもあり,複数の文となることもある.})を対象に実験し,『丁寧』表現にすべきかどうかという観点で評価した.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%となった.さらに,再現率と適合率を下げた原因のうち簡単な問題を解決すれば,再現率が86\%,適合率が96\%になることを机上で確認した.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.以下,2章で『話し手の役割』と『丁寧さ』についての調査,3章で本手法の詳細について説明し,4章で『話し手の役割』が「受付」の場合に関する実験とその結果について述べ,本手法が音声翻訳において有効であることを示す.5章で,音声翻訳における言語外情報の利用について,また,他の言語対への適用について考察し,最後に6章でまとめる.なお,本論文は,文献\cite{Yamada:2000}をもとにさらに調査検討し,まとめたものである.
\section{『話し手の役割』と『丁寧さ』}
\label{sec:roleandpoliteness}音声翻訳を使った窓口などでの対話をより自然にするために,訳文の『丁寧さ』が重要である.我々は,『話し手の役割』と『丁寧さ』について着目し,その関係について調査した.『丁寧さ』を特に考慮せずに一般的な訳を出す機械翻訳が出力した結果に対して,『話し手の役割』が「受付」である場合に,訳をより丁寧な表現にすることが望まれるかという観点で調査を行った.実際の調査に用いた音声翻訳は,変換主導型翻訳\cite{Sumita:1999}({\bfT}ransfer-{\bfD}riven{\bfM}achine{\bfT}ranslation,略してTDMT)の英日版で,対象は旅行会話の中で『話し手の役割』が「受付」である1409発声とした.その結果,約70\%(952)の発声は丁寧な表現を使ったほうが良いと判断された.したがって,音声翻訳を使って,より自然な対話を実現するために『話し手の役割』に応じて『丁寧さ』を変えるのは,有用であると言える.丁寧な表現を使ったほうが良いと判断された発声には,様々な種類の表現が含まれている.これを英語表現の種類別(動詞,名詞等の品詞,頻出表現等)に分類した(表\ref{tab:numofexp}).この英語表現は1発声中に1種類とは限らず,複数の種類を含むことが多い.例えば,例\ref{ex:if}に示すように,「受付」が``\underline{Mr}.Suzuki,\underline{if}you'll\underline{wait}\underline{asecond},I'll\underline{call}rightnow''と喋った時の翻訳は,「標準」訳の``鈴木さん,少し待ってくれたらすぐ電話します''より,丁寧表現を使って``鈴木様,少々お待ちいただけましたらすぐ電話致します''とするほうが良い.この発声の中には,敬称(Mr.),接続詞(if),動詞(wait,call),名詞(second)が含まれている.\vspace{3mm}\begin{center}\fbox{\begin{minipage}{120mm}\begin{example}\\label{ex:if}\end{example}\tabcolsep=2mm\begin{tabular}{ll}種類:&{\bf敬称,接続詞,動詞,名詞}\\英語:&\underline{Mr}.Suzuki,\underline{if}you'll\underline{wait}\underline{asecond},I'll\underline{call}rightnow\\標準:&鈴木\underline{さん},\underline{少し}\underline{待って}\underline{くれたら}すぐ\underline{電話します}\\丁寧:&鈴木\underline{様},\underline{少々}\underline{お待ち}\underline{いただけましたら}すぐ\underline{電話致します}\\\end{tabular}\tabcolsep=0mm\end{minipage}}\end{center}\vspace{3mm}表\ref{tab:numofexp}を見ると,少なくとも今回調査した旅行会話では,その種類によって丁寧にすべき方法が違うことが分かる.しかし,{\bfいずれも従来の翻訳システムの枠組み,すなわち,変換ルールや対訳辞書に条件を加えることで丁寧表現に変えるとができる.}つまり,『話し手の役割』に応じたルールや辞書エントリーを既存の変換ルールや対訳辞書に追加すれば,適切に丁寧表現が訳出可能となる.\tabcolsep=2mm\begin{table}[htbp]\begin{center}\caption{英日翻訳における丁寧表現の種類}\label{tab:numofexp}\begin{tabular}{|c|r||c|c|c|}\hline\multicolumn{2}{|c||}{}&\multicolumn{3}{|c|}{例}\\\hline種類&件数&英語&標準&丁寧\\\hline\hline動詞&692&accept&受け付ける&お受けする\\\hline名詞&331&child&子供&お子様\\\hline頻出表現&261&goodbye&さようなら&失礼致します\\\hline敬称&94&Mr.&さん&様\\\hline形容詞&78&fine&良い&結構\\\hline代名詞&59&you&あなた&お客様\\\hline助動詞&56&can&できる&頂ける\\\hline接続詞&27&if&たら&ましたら\\\hline副詞&6&alone&一名&おひとり\\\hline前置詞&4&with&一緒&ご一緒\\\hline\hline合計&1608&\multicolumn{3}{|c|}{}\\\hline\end{tabular}\end{center}\end{table}上記の1409発声は「受付」の『丁寧さ』に着目して調査したが,発声内容によっては,話し手が「客」の訳と「標準」の訳が違う場合もあり得る.例えば,例\ref{ex:verygood}の場合,``Verygood,pleaseletmeconfirmthem''は,話し手が「受付」では,``\underline{承知しました}確認させて\underline{いただきます}'',話し手が「客」では,``\underline{それで結構です}確認させて\underline{下さい}''とするのが良い.\begin{center}\fbox{\begin{minipage}{100mm}\begin{example}\\label{ex:verygood}\end{example}\tabcolsep=2mm\begin{tabular}{ll}英語:&\underline{Verygood},please\underline{let}meconfirmthem\\標準:&{\it\underline{分かりました},確認させて\underline{下さい}}\\受付:&{\it\underline{承知致しました},確認させて\underline{いただきます}}\\客:&{\it\underline{それで結構です},確認させて\underline{下さい}}\\\end{tabular}\tabcolsep=0mm\end{minipage}}\end{center}
\section{話し手の役割情報を翻訳知識に組み込む方法}
本章では,話し手の役割情報をどのように既存の変換ルールや対訳辞書に導入するかについて述べる.本手法は変換ルールや対訳辞書を利用している一般の機械翻訳に適用可能であるが,その有効性を確かめるために,本論文では翻訳システムとしてATRで開発した話し言葉翻訳システムTDMTを利用した.最初にTDMTについて簡単に説明し,次に,話し手の役割情報を組み込んだルールや辞書エントリーについて述べる.\subsection{TDMT(Transfer-DrivenMachineTranslation)}TDMTは図\ref{fig:transferrule}に示す変換ルールを使って,左から右へのボトムアップ型チャート解析法で構文解析を行っている\cite{Furuse:1999}.様々な変換ルールによって,入力文の構文構造が複数の候補となった時は,意味距離計算によって絞られる.意味距離はシソーラスによって定義されたものを用いている.変換ルールは,図\ref{fig:transferrule}のように,原言語のパターン,目的言語のパターン,原言語の用例からなる.原言語のパターンは変項と構成素境界からなる.ここでの変項は,XやYなどの大文字の記号で表し構成素に対応する.構成素境界は,機能語あるいは左の構成素の品詞と右の構成素の品詞を付けた記号(品詞バイグラムマーカと呼ぶ)である.品詞バイグラムマーカは,構文解析をする前に対象の構成素間に挿入される.例えば,``accept''が{\bfV}erbで``payment''が{\bfC}ommon{\bfN}ounなので,例\ref{ex:accept}では,品詞バイグラムマーカ$\langleV$--$CN\rangle$が,``accept''と``payment''の間に挿入される.目的言語のパターンは,原言語のパターンに対応した変項と訳語から構成される.ここでの変項は,xやyなどの小文字の記号で表す.例えば,xは原言語のパターンでの変項Xに対応している.原言語の用例は,パターン作成時に参照した文において実際に出現した語である.\begin{center}\fbox{\begin{minipage}{115mm}\begin{example}\\label{ex:accept}\end{example}\tabcolsep=1mm\begin{tabular}{ll}英語:&\underline{We}\underline{accept}\underline{payment}bycreditcard\\標準:&{\it私\underline{達}はクレジットカードでの支払いを\underline{受け付け}ます}\\丁寧:&{\it私\underline{供}はクレジットカードでの\underline{お}支払いを\underline{お受けし}ます}\\\end{tabular}\tabcolsep=0mm\end{minipage}}\end{center}図\ref{fig:exrule}では,原言語のパターンは(X$\langleV$--$CN\rangle$Y),目的言語のパターンは(y``を''x)や(y``に~''x),目的言語の用例は,((``accept'')(``payment''))や((``take'')(``picture''))である.((``accept'')(``payment''))は,例\ref{ex:accept}の「標準」訳に由来する用例であるが,他の用例は他の訓練文から来ている.図\ref{fig:exrule}の変換ルールは,原言語が(X$\langleV$--$CN\rangle$Y)にマッチしたら,XとYに対応した入力が「意味的に最も近いか,または,全く同じ」用例の組が付いている目的言語のパターンを選択せよという意味である.例えば,入力``accept$\langleV$--$CN\rangle$payment''に「最も近いか,または,全く同じ」用例の組は((``accept'')(``payment''))なので,目的言語のパターンは(y``を''x)が選択される.このようにして,適切な目的言語のパターンが変換ルールによって選ばれる.\begin{figure}[htb]\begin{center}\begin{tabular}{cc}\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\kill(原言語のパターン)\\$\Rightarrow$\\((目的言語のパターン1)\\\>((原言語の用例1)\\\>\>(原言語の用例2)\\\>\>...)\\\>(目的言語のパターン2)\\\>...)\end{tabbing}\end{minipage}}\caption{変換ルールのフォーマット}\label{fig:transferrule}\end{center}\end{minipage}&\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\kill(X$\langleV$--$CN\rangle$Y)\\$\Rightarrow$\\((y``を''x)\\\>(((``accept'')(``payment''))\\\>\>((``take'')(``picture'')))\\\>(y``に''x)\\\>(((``take'')(``bus''))\\\>\>((``get'')(``sunstroke'')))\\)\end{tabbing}\end{minipage}}\caption{変換ルールの例(英日版)}\label{fig:exrule}\end{center}\end{minipage}\end{tabular}\end{center}\end{figure}目的言語のパターンが選ばれた後,図\ref{fig:transferdic}に示したフォーマットの対訳辞書を用いて,そのパターンに応じた訳を決定する.例えば,``accept$\langleV$--$CN\rangle$payment''の場合は,``支払いを受け付ける~''という訳になるが,``支払い''と``受け付ける''は図\ref{fig:exdic}の対訳辞書の辞書引きの結果から,また,``~を~''は目的言語のパターン(y``を''x)から来ている.\begin{figure}[htb]\begin{center}\begin{tabular}{cc}\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{60mm}\begin{tabbing}(\=(\=(\kill((原言語の単語)$\rightarrow$(目的言語の単語)\\\>...)\end{tabbing}\end{minipage}}\caption{対訳辞書のフォーマット}\label{fig:transferdic}\end{center}\end{minipage}&\begin{minipage}{60mm}\begin{center}\fbox{\begin{minipage}{60mm}\begin{tabbing}(\=(\=(\kill((``accept'')$\rightarrow$(``受け付ける'')\\\>(``payment'')$\rightarrow$(``支払い''))\end{tabbing}\end{minipage}}\caption{対訳辞書の例(英日版)}\label{fig:exdic}\end{center}\end{minipage}\end{tabular}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\kill(原言語のパターン)\\$\Rightarrow$\\(({\bf(目的言語のパターン$1_1$):パターンの条件$1_1$}\\\>\>{\bf(目的言語のパターン$1_2$):パターンの条件$1_2$}\\\>\>...\\\>\>{\bf(目的言語のパターン$1_n$):デフォルト})\\\>((原言語の用例1)\\\>\>...)\\\>(({\bf(原言語の用例1)$\rightarrow$(目的言語の単語$1_1$):単語の条件$1_1$}\\\>\>\>{\bf(原言語の用例1)$\rightarrow$(目的言語の単語$1_2$):単語の条件$1_2$}\\\>\>\>...\\\>\>\>{\bf(原言語の用例1)$\rightarrow$(目的言語の単語$1_m$):デフォルト})\\\>\>...)\\(({\bf(目的言語のパターン$2_1$):パターンの条件$2_1$}\\\>...)))\end{tabbing}\end{minipage}}\caption{対話者の情報に関する条件付き変換ルールのフォーマット}\label{fig:rulewithclerk}\end{center}\vspace*{2mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\kill(({\bf(原言語の単語1)$\rightarrow$(目的言語の単語$1_1$):条件$1_1$}\\\>\>{\bf(原言語の単語1)$\rightarrow$(目的言語の単語$1_2$):条件$1_2$}\\\>\>...\\\>\>{\bf(原言語の単語1)$\rightarrow$(目的言語の単語$1_k$):デフォルト})\\\>...)\end{tabbing}\end{minipage}}\caption{対話者の情報に関する条件付き対訳辞書のフォーマット}\label{fig:dicwithclerk}\end{center}\end{figure}\subsection{対話者の情報に関する条件付きルール及び辞書エントリ}\label{subsec:ruleanddicwithrole}対話者の情報に関する条件を変換ルールや対訳辞書の中で記述できるように,既存の変換ルールや対訳辞書のフォーマットを図\ref{fig:rulewithclerk}と図\ref{fig:dicwithclerk}のように変えた.図\ref{fig:rulewithclerk}では,目的言語のパターンはそのパターンの条件で,また,目的言語の単語はその単語の条件で対話者の情報を参照できる.つまり,``~目的言語のパターン$1_1$''は,``パターンの条件$1_1$''に記述してある条件で選ばれ,``原言語の用例1''の対訳は,``単語の条件$1_1$''に記述してある条件で``目的言語の単語$1_1$''が選ばれる.目的言語パターンに条件が付く場合の例を図\ref{fig:ex1rulewithrole}に示し,原言語の用例に条件が付く場合の例を図\ref{fig:ex2rulewithrole}に示す.図\ref{fig:ex1rulewithrole}に示すように,``パターンの条件$1_1$''を``:s-roleclerk''と定義することができる.これは,話し手の役割(s-role)が「受付」(clerk)という条件である.したがって,もし話し手が「受付」と分かれば,``if''は``いただけましたら''と訳される.これは,例えば,\ref{sec:roleandpoliteness}章の例\ref{ex:if}に示すように,入力が``ifyou'llwaitasecond''の場合,「標準」では,``少し待って\underline{くれたら}''となるが,話し手が「受付」なら``少し待って\underline{いただけましたら}''と訳出される.一方,図\ref{fig:ex2rulewithrole}に示すように,``:単語の条件$1_1$''を``:s-roleclerk''と定義することもできる.この場合も,もし話し手が「受付」と分かれば,``accept''は``お受けする''と訳される.ここで注意する点は,話し手が「受付」であっても,常に``accept''の訳は``お受けする''ではないことである.つまり,図\ref{fig:rulewithclerk}の``目的言語の単語$1_1$''は,そこで定義されている変換ルール内のみで有効である.もしも話し手の役割に応じた訳が常に同じであれば,図\ref{fig:dicwithclerk}に示すフォーマットの対訳辞書に登録する.また,必要ならば,同じ変換ルール内で,同時に,目的言語パターンと原言語の用例に条件を付けることもできる.図\ref{fig:rulewithclerk}及び図\ref{fig:dicwithclerk}の``:デフォルト''は,どのような条件にも合わなかった時にマッチする条件である.例えば最初に``:パターンの条件$1_1$'',次に``:パターンの条件$1_2$''というように,条件は上から順に調べられ,全て満足されない場合にデフォルトのものが選択される.\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(``if''``you''X)\\$\Rightarrow$\\(({\bf(x``いただけましたら''):s-roleclerk}\\\>\>{\bf(x``くれたら'')})\\\>(((``wait''))\\\>\>((``find''))))\end{tabbing}\end{minipage}}\caption{話し手の役割情報に関する条件付き変換ルールの例1(英日版)}\label{fig:ex1rulewithrole}\end{center}\vspace{5mm}\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(X$\langleV$--$CN\rangle$Y)\\$\Rightarrow$\\((y``を''x)\\\>(((``accept'')(``payment''))\\\>\>((``take'')(``picture'')))\\\>((\bf{(``accept'')$\rightarrow$(``お受けする''):s-roleclerk}\\\>\>\>\bf{(``accept'')$\rightarrow$(``受け付ける'')})))\end{tabbing}\end{minipage}}\caption{話し手の役割情報に関する条件付き変換ルールの例2(英日版)}\label{fig:ex2rulewithrole}\end{center}\vspace{5mm}\begin{center}\fbox{\begin{minipage}{60mm}\begin{tabbing}(\=(\=(\=(\kill(({\bf(``payment'')$\rightarrow$(``お支払''):s-roleclerk}\\\>\>{\bf(``payment'')$\rightarrow$(``支払い'')})\\\>({\bf(``we'')$\rightarrow$(``私供''):s-roleclerk}\\\>\>{\bf(``we'')$\rightarrow$(``私達'')}))\end{tabbing}\end{minipage}}\caption{話し手の役割情報に関する条件付き対訳辞書の例(英日版)}\label{fig:exdicwithclerk}\end{center}\end{figure}図\ref{fig:ex2rulewithrole}のルール,図\ref{fig:exdicwithclerk}の辞書エントリーを用いると,例\ref{ex:accept}の発声は,話し手が「受付」の場合,最終的には``私供はクレジットカードでのお支払いをお受けします''と訳出される.どの語を丁寧表現にすべきかは機械的には判断できないが,ほとんどの丁寧表現にすべき語は,上記の方法,すなわち,目的言語パターン,原言語の用例に対する訳,対訳辞書によって,話者の役割に応じた訳し分けができる.基本的には,次の基準で解決方法を決めている.\begin{itemize}\item訳し分けすべき語が機能語ならば,目的言語パターン(例:図\ref{fig:ex1rulewithrole})\item内容語で,役割以外の条件も利用して訳が決まる時は,原言語の用例に対する訳(例:図\ref{fig:ex2rulewithrole})\item内容語で,常に役割の条件のみで訳が決まる時は,対訳辞書(例:図\ref{fig:exdicwithclerk})\end{itemize}例えば,\ref{sec:roleandpoliteness}章の表\ref{tab:numofexp}に挙げた例については,表\ref{tab:solutionofexp}に示した方法で丁寧表現にすることができる.だたし,表\ref{tab:solutionofexp}に示したのは例であって,その種類の全てが表\ref{tab:solutionofexp}に示した解決方法で訳し分けができるとは限らない.例えば,``child''は辞書に登録することで適切に訳し分け可能だが,表\ref{tab:numofexp}で示した名詞は全て辞書によって訳し分けができるわけではない.\tabcolsep=2mm\begin{table}[htbp]\begin{center}\caption{英日翻訳における丁寧表現の訳出方法の例}\label{tab:solutionofexp}\begin{tabular}{|c|c|c||c|}\hline\multicolumn{3}{|c||}{例}&\\\hline英語&標準&丁寧&解決方法\\\hline\hlineaccept&受け付ける&お受けする&用例\\\hlinechild&子供&お子様&辞書\\\hlinegoodbye&さようなら&失礼致します&辞書\\\hlineMr.&さん&様&パターン\\\hlinefine&良い&結構&用例\\\hlineyou&あなた&お客様&辞書\\\hlinecan&できる&頂ける&パターン\\\hlineif&たら&ましたら&パターン\\\hlinealone&一名&おひとり&用例\\\hlinewith&一緒&ご一緒&パターン\\\hline\end{tabular}\end{center}\end{table}
\section{実験}
今回の実験で用いたTDMT(英日版)は,話し手の役割を考慮する前では,約1,500の変換ルール,約8,000の対訳辞書エントリーが登録されていた.「受付」用に『丁寧さ』を向上させるために,\ref{sec:roleandpoliteness}章の表\ref{tab:numofexp}に基づいて,約300ルール,約40の辞書エントリーを追加,修正した.内容は,例えば,\ref{subsec:ruleanddicwithrole}節の表\ref{tab:solutionofexp}に示した通りである.表\ref{tab:numofexp}の合計数よりもルール数が少ないのは,1つのルールの中に,複数の目的言語パターンや原言語の用例に対する訳が含まれているからである.「受付」用に修正した変換ルールと対訳辞書を用いて未訓練である23対話(344発声)を対象に実験を行った.音声翻訳への入力は本来音声であるが,今回の実験では,翻訳のみの評価を行うため書き起こしテキストを形態素解析したものを入力とし,同時に対話者の役割情報\footnote{本データはATRのデータベース\cite{Takezawa:1999}の一部である.これは,「受付」と「客」との間の模擬対話を実施し,その音声データを書き起こしてデータベース化したもので,収録時の設定にある対話者の情報を実験に用いた.}も与えた.実験の評価をするために,実験に使った23対話(このうち,話し手が「受付」は199発声,「客」は145発声)に対して,話し手の役割情報を適用する前のTDMTの翻訳結果を2つに分類した.一方は丁寧にすべき表現を含む場合,もう一方は丁寧にすべき表現を含まない場合である.表\ref{tab:correct-data}にその調査結果を示す.表現を変える必要がある発声(104)は全て話し手の役割が「受付」であったが,表現を変える必要がない発声(166)のうち43発声は「受付」で,123発声は「客」であった.\begin{table}[htbp]\tabcolsep=2mm\begin{center}\caption{表現を変える必要性の調査結果}\label{tab:correct-data}\begin{tabular}{c|cl}表現を変える必要性&発声数&(「受付」,「客」)\\\hlineあり&104&(104,\hspace{4mm}0)\\なし&166&(\hspace{2mm}43,123)\\\hline評価対象外\footnotemark[5]&\hspace{2mm}74&\\\hline\hline合計&344&\end{tabular}\\\end{center}\end{table}\footnotetext[5]{翻訳結果のうち74発声に関しては,『丁寧さ』を判断できないほどの翻訳の質であったので,本論文では対象外とした.}同じ対象文に対して,話し手の役割情報を適用する前と後の翻訳結果を『丁寧さ』という観点で印象がどう変ったかで評価した.表\ref{tab:correct-data}の表現を変える必要性の有無別にまとめたものを表\ref{tab:evaldata}に示す.\tabcolsep=1mm\begin{table}[htb]\begin{center}\caption{話し手の役割情報を使った翻訳の評価結果}\label{tab:evaldata}\begin{tabular}{c||c|c|c|c}表現を変える必要性&差分&\multicolumn{2}{c|}{印象}&計\\\hline&&良い&68&\\あり&あり&同じ&\hspace{2mm}5&\hspace{2mm}76\\104&&悪い&\hspace{2mm}3&\\\cline{2-5}&なし&\multicolumn{2}{c|}{}&\hspace{2mm}28\\\hline\hline&&良い&\hspace{2mm}0&\\なし&あり&同じ&\hspace{2mm}3&\hspace{4mm}3\\166&&悪い&\hspace{2mm}0&\\\cline{2-5}&なし&\multicolumn{2}{c|}{}&163\\\hline\multicolumn{5}{l}{}\\\multicolumn{5}{l}{良い:翻訳結果の印象が良くなった}\\\multicolumn{5}{l}{同じ:翻訳結果の印象が同じだった}\\\multicolumn{5}{l}{悪い:翻訳結果の印象が悪くなった}\\\end{tabular}\end{center}\end{table}\tabcolsep=0mm以下に示す再現率と適合率で本手法を評価した.$$\mbox{再現率}=\frac{\mbox{\small翻訳結果が良くなった発声数}}{\mbox{\small丁寧表現にするべき発声数}}$$$$\mbox{適合率}=\frac{\mbox{\small翻訳結果が良くなった発声数}}{\mbox{\small翻訳結果に差分のあった発声数}}$$\vspace{5mm}その結果,再現率は65\%($=68\div104$),適合率は86\%($=68\div(76+3)$)であった.表現を変える必要があった発声(104)で,話し手の役割情報を適用する前と後とで翻訳結果が完全に一致しなかった(翻訳結果に差分があった)発声は,76発声であった.そのうち印象が良くなった68発声が望まれた効果である.表現を変える必要がなかった発声(166)で翻訳結果に差分がなかったものは,163発声であった.これらは副作用がなかったという意味で望ましいものである.他の結果は,再現率,適合率を下げている.印象が悪くなった3件の原因は,実験に使った翻訳の日本語生成処理における実装の問題に起因するもので,本論文では無視できる.また,翻訳結果に差分があった中で印象が同等のもの,表現を変える必要があるのに翻訳結果に差分がなかったものの原因は,大きく2種類に分けることができた.1つは,実験に用いた翻訳システムでは,その動作主が誰(何)なのかが分からないことに原因がある.話し手の役割が「受付」であっても,丁寧にする対象の語の動作主が「受付」の場合は丁寧な表現を使わないことがあるからである.もう1つは,「受付」用のルールや辞書エントリーがまだ不十分なことに原因がある.「受付」用のルールや辞書エントリー不足については比較的容易に解決できる問題であるのでこれを解決し,日本語生成処理の問題を無視したとすると,再現率と適合率を向上させることができる.調査したところ,再現率が86\%,適合率が96\%まで向上できることが分かった.
\section{考察}
本章では,音声翻訳における言語外情報の有用性と,他の言語対に対する本手法の適用可能性について述べる.\subsection{言語外情報}現時点では,一般の言語外情報を音声翻訳で活用することは困難である.しかし,以下に示すような幾つかの言語外情報は容易に得ることができ,音声翻訳で十分活用できる.\hspace{-4mm}{\bf対話者の役割}音声翻訳のインターフェース(例えばマイク)によって,誤りなく対話者の役割を同定することができる.対話者の役割が「受付」と「客」の場合,英日翻訳システムで有用であることは本論文で述べた.また,文献\cite{Yamamoto:1999}では,日本語対話文の格要素省略補完をする決定木の属性に対話者の役割が活用されている.\vspace{5mm}\hspace{-4mm}{\bf対話者の性別}音声認識において性別を高精度で判別できることが報告されている\cite{Takezawa:1998,Naito:1998}.英日翻訳の場合,例えば,女性が話す場合,文末に「わ」を付けると女性らしい表現となるように,話者の性別は,男性または女性固有の表現に訳出するのに有効である.\vspace{5mm}このように簡単に得ることができる言語外情報を音声翻訳に適用することは,人が違和感なく対話を進めるためには重要である.上記に挙げた言語外情報は現時点でも容易に得ることができるが,将来は,さらに多様な情報を得ることが期待でき,音声翻訳にも有用であると考えられる.例えば,もし1人1台,常に携帯端末を持ち歩くことになれば,その端末と通信することによって,年齢などの情報を得るのは可能である.そうなると,聞き手が子供であれば,複雑な表現も簡単に翻訳するといった高度な展開も期待される.\subsection{他の言語対への利用}これまで,主に目的言語が日本語の場合,話し手の役割情報が丁寧表現を訳し分けるのに有用であることは述べた.他の言語対について,言語外情報とそれを活用できる処理(言語現象)について述べる.\hspace{-4mm}{\bf日英}現在の日英翻訳が正しく翻訳できる旅行会話の発声を対象に,話し手の役割によって英語表現がどう変化するかを調査した.表\ref{tab:exofe-ex}にその例を示す.\tabcolsep=2mm\begin{table}[htbp]\begin{center}\caption{英語表現が変化する例}\label{tab:exofe-ex}\begin{tabular}{|ll|}\hline種類:&{\bf表現方法の違い}\\日本語:&遅くなっても\underline{構いません}\\標準:&{\it\underline{Idon'tmind}ifyouarelate}\\受付:&{\it\underline{It'sokay}ifyouarelate}\\[1mm]\hline種類:&{\bf主語の違い,敬称の追加}\\日本語:&はい,できます\\標準:&{\itYes,\underline{I}can}\\受付:&{\itYes\underline{sir-madam},\underline{we}can}\\\hline種類:&{\bf主語の省略}\\日本語:&一人五十ドルぐらいです\\標準:&{\it\underline{It's}aboutfiftydollarsperperson}\\客:&{\itAboutfiftydollarsperperson}\\\hline種類:&{\bf代名詞の違い}\\日本語:&前日までには必ず連絡を下さい\\標準:&{\itPleasemakesuretocall\underline{me}bythedaybefore}\\受付:&{\itPleasemakesuretocall\underline{us}bythedaybefore}\\\hline\end{tabular}\\\end{center}\end{table}\tabcolsep=0mmこの表\ref{tab:exofe-ex}を見ると,日英の場合も話し手の役割によって適した表現が存在することが分かる.これらも,我々の提案手法により訳し分けが可能である.また,``敬称の追加''の場合,表\ref{tab:exofe-ex}の「受付」では,``sir-madam''が追加されているが,聞き手の性別が分かれば,``sir''か``madam''かに訳出したほうが良い.これは,例えば,図\ref{fig:exrulewithroleandgender}のように,ルールの条件部に``:s-roleclerk:h-gendermale''(話し手の役割(s-role)が「受付」(clerk)で聞き手の性別(h-gender)が「男性」(male))と指定をすれば,本手法で``sir''と訳出することが可能である.さらに,性別情報だけの利用としては,例えば,図\ref{fig:exrulewithgender}のような変換ルールを作成すれば,``様''に対して,もしも聞き手が「男性」であれば``Mr.'',「女性」であれば``Ms.''と英訳可能になる.\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(``はい''X)\\$\Rightarrow$\\(({\bf(``Yessir,''x):s-roleclerk:h-gendermale}\\\>\>{\bf(``Yesmadam,''x):s-roleclerk:h-genderfemale}\\\>\>{\bf(``Yessir-madam,''x):s-roleclerk}\\\>\>{\bf(``Yes,''x)})\\\>(((``できる''))\\\>\>((``そう''))))\end{tabbing}\end{minipage}}\caption{話し手の役割と聞き手の性別情報に関する条件付き変換ルールの例(日英版)}\label{fig:exrulewithroleandgender}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\fbox{\begin{minipage}{45mm}\begin{tabbing}(\=(\=(\=(\=(\kill(X''様'')\\$\Rightarrow$\\(({\bf(``Mr.''x):h-gendermale}\\\>\>{\bf(``Ms.''x):h-genderfemale}\\\>\>{\bf(``Mr-ms.''x)})\\\>(((``鈴木''))\\\>\>((``佐藤''))))\end{tabbing}\end{minipage}}\caption{聞き手の性別情報に関する条件付き変換ルールの例(日英版)}\label{fig:exrulewithgender}\end{center}\end{figure}\hspace{-4mm}{\bf日中}現在の日中翻訳が正しく翻訳できる旅行会話の発声を対象に,話し手の役割によって中国語表現がどう変化するかを調査した.その結果,以下のような場合に中国語表現に違いが出ることが分かった.\begin{enumerate}\item日本語の表現が曖昧な場合\item話し手によって丁寧度が変る場合\end{enumerate}(1)に関しては,例えば日本語表現が``〜をお願いします''の場合,一般には``〜したい''という意味の中国語に翻訳されるが,もしも話し手が「受付」であれば,``〜して下さい''という意味の中国語に翻訳される.(2)に関しては,話し手の役割が不明な時は,翻訳システムではより多く使われる表現を訳出せざるを得ないが,実際は,話し手が「受付」ならより丁寧な表現に,また,「客」なら客らしい表現の中国語に翻訳される.例えば,``お待たせしました''の場合,機械翻訳システムは丁寧表現を使って訳出するが,話し手が「客」の場合には少し丁寧度を下げた表現のほうが自然な中国語となる.これらの訳し分けも,我々の提案方法により実現できる.\vspace{5mm}以上のように,対話者の情報は,英日に関する丁寧表現の訳し分けだけでなく,他の言語対に対しても重要な情報であることが分かった.また,訳し分けに関して,我々の提案方法は,言語対によらずに容易に適用可能であるので,一般的な手法であると言える.
\section{おわりに}
原言語を解析するだけでは取得困難な対話者の役割や性別情報を使った翻訳手法について述べた.本手法では,対話者の役割や性別情報を利用して訳し分けができる.これらの情報は音声翻訳の中では容易に得ることができる.今回利用した役割は「受付」と「客」であり,話し手が「受付」の時はより丁寧な表現になる.旅行会話を対象とした英日翻訳に「受付」用のルールと辞書エントリーを追加した.翻訳システムにとってオープンである23対話(344発声)を対象に評価したところ,丁寧表現にするべき発声に対して,再現率が65\%,適合率が86\%の結果となった.再現率と適合率を下げる原因のうち簡単に解決できるもの,すなわち,「受付」用のルールや辞書エントリー不足の問題を解決すれば,再現率が86\%,適合率が96\%に向上することを机上調査により確認している.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.また,対話者の性別情報など他の言語外情報や英日以外の言語対に対する本手法の適用可能性についても考察し,本手法が言語対によらない,一般的な手法である見通しを得た.話し手の役割だけでなく,発声中の訳し分け対象である語の動作主が分からないと『丁寧さ』を決めるのが困難な場合がある.そこで,動作主を決める方法を検討する予定である.また,より精度良く翻訳結果を出力させるために,「受付」用のルールや辞書エントリーをより一層充実させていく予定である.さらに,他の言語対への適用や,容易に得られそうな他の言語外情報を音声翻訳で利用する手法についても検討していく予定である.\acknowledgment本研究の実験や調査に協力いただいたATR音声言語通信研究所第三研究室の翻訳知識作成者の皆様に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{山田節夫}{1990年東京電機大学理工学部情報科学科卒業.1992年同大学大学院情報科学専攻修士課程修了.同年日本電信電話株式会社入社.1997年よりATR音声翻訳通信研究所,ATR音声言語通信研究所へ出向.2000年日本電信電話株式会社へ復帰.現在NTTコミュニケーション科学基礎研究所.自然言語処理,特に機械翻訳の研究に従事.情報処理学会会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算幾科学専攻修士課程修了.1999年京都大学工学博士.ATR音声言語通信研究所主任研究員.自然言語処理,機械翻訳,情報検索,並列処理の研究に従事.情報処理学会,電子情報通信学会,ACL各会員.}\bioauthor{柏岡秀紀}{1993年大阪大学大学院基礎工学研究科博士後期課程修了.博士(工学).同年ATR音声翻訳通信研究所入社.1998年同研究所主任研究員.1999年奈良先端科学技術大学院大学情報学研究科客員助教授.2000年ATR音声言語通信研究所主任研究員.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V22N05-02
|
\section{はじめに}
2000年以降の自然言語処理(NLP)の発展の一翼を担ったのはWorldWideWeb(以降,Webとする)である.Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで,形態素解析~\cite{Kaji:2009,sato2015mecabipadicneologd},構文解析~\cite{Kawahara:05},固有表現抽出~\cite{Kazama:07},述語項構造解析~\cite{Komachi:10,Sasano:10},機械翻訳~\cite{Munteanu:06}など,様々なタスクで精度の向上が報告されている.これらは,WebがNLPを高度化した事例と言える.同時に,誰もが発信できるメディアという特性を活かし,Webならではの新しい研究分野も形成された.評判情報抽出~\cite{Pang:2002}がその代表例である.さらに,近年では,TwitterやFacebookなどのソーシャルメディアが爆発的に普及したことで,自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている.ソーシャルメディアのデータには,(1)大規模,(2)即時性,(3)個人の経験や主観に基づく情報など,これまでの言語データには見られなかった特徴がある.例えば,「熱が出たので病院で検査をしてもらったらインフルエンザA型だった」という投稿から,この投稿時点(即時性)で発言者は「インフルエンザに罹った」という個人の経験を抽出し,大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる.このように,NLPでWeb上の情報をセンシングするという研究は,地震検知~\cite{Sakaki:10},疾病サーベイランス~\cite{Culotta:2010}を初めとして,選挙結果予測,株価予測など応用領域が広がっている.大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは,対象とするデータの性質に強く依拠する.そのため,より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい.そこで,ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}ではNLPのWeb応用タスク(WebNLP)を立ち上げ,次のゴールの達成に向けて研究・議論を行った.\begin{enumerate}\itemソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し,人々の行動,意見,感情,状況を把握しようとするとき,現状の自然言語処理技術が抱えている問題を認識すること\item応用事例(例えば疾患状況把握)の誤り事例の分析から,自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること.ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが近道かもしれない.しかし,本研究では複数の応用事例に適用できる課題を見出し,その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す.\item(2)で見出した個別の課題に対して,最先端の自然言語処理技術を適用し,新しいタスクに取り組むことで,自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること\end{enumerate}本論文では,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第\ref{sec:used-corpus}章)を題材に,現状の自然言語処理技術の問題点を検討する.第\ref{sec:analysis}章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する.第\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する.第\ref{sec:subject}章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する.さらに第\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた結果を示す.その後,第\ref{sec:relatedworks}章で関連研究を紹介し,最後に,第\ref{sec:conclusion}章で本論文の結論を述べる.
\section{コーパス}
\label{sec:used-corpus}本研究では,風邪およびその症状に関するTwitter上での発言を集めたコーパス(以下,風邪症状コーパス)と,インフルエンザに関するTwitter上での発言を集めたコーパス(以下,インフルエンザ・コーパス)の2つを用いる.風邪症状コーパスは誤り分析及び主体解析の検証に,インフルエンザ・コーパスは事実性判定の検証に用いる.これらは2008年11月から2010年7月にかけてTwitterAPIを用いて30億発言を収集し,そこから「インフルエンザ」や「風邪」といったキーワードを含む発言を抽出したものである(表\ref{keywords}).\begin{table}[b]\caption{検索のためのキーワード}\label{keywords}\input{02table01.txt}\end{table}先行研究においても,風邪やインフルエンザなど感染症に関する研究は多く~\cite{lamb-paul-dredze:2013:NAACL-HLT},他にも西ナイル熱~\cite{sugumaran2012real}などが扱われている.これらの多くは,経験則により「風邪」や「インフルエンザ」などのキーワードとなる単語を選択し,その頻度を集計し,感染状況の把握を行っている~\cite{culotta2010detecting,aramaki-maskawa-morita:2011:EMNLP}.本研究では,先行研究の1つである~\cite{aramaki-maskawa-morita:2011:EMNLP}で使われたインフルエンザコーパス,及び,~\cite{荒牧2011}や商用サイト「カゼミル・プラス」で用いられた風邪症状コーパスを用いる.\subsection{風邪症状コーパス}風邪症状コーパスは,「風邪・咳・頭痛・寒気・鼻水・熱・喉の痛み」の7種類の症状に関して,ツイートの発言者が疾患・症状にあるかどうか(正例か負例か)をラベル付けしたものである.このコーパスでは,投稿者が以下の除外基準に照らし,1つでも該当するものがあれば負例とみなした.\begin{itemize}\item発言者(または,発言者と同一都道府県近郊の人間)の疾患でない.居住地が正確に分からない場合は負例発言とみなす.例えば,「風邪が実家で流行っている」では,「実家」の所在が不明であるので,負例とみなす.\item現在または近い過去の疾患のみ扱い,それ以外の発言は除外する.ここでいう「近い過去」とは24時間以内とする.例えば,「昨年はひどいインフルエンザで参加できなかった」は,負例とみなす.\item「風邪でなかった」等の否定の表現は負例とする.また,疑問文や「かもしれない」といった不確定な発言も負例とする.\end{itemize}コーパスサイズは,疾患の種類ごとに異なる.それぞれの疾患・症状ごとのコーパスサイズと疾患のラベル数を表\ref{corpus_size}に示す.\begin{table}[b]\caption{コーパスサイズ}\label{corpus_size}\input{02table03.txt}\end{table}\subsection{インフルエンザ・コーパス}インフルエンザ・コーパスは,「インフルエンザ」を含む10,443件の発言に対して,正例か負例かをラベル付けしたものである.アノテーションの基準については,風邪症状コーパスに準拠している.なお,正例数が1,319件,負例数が9,124件となっている.実際のコーパスからアノテーションの具体例を示す(表\ref{annotation_example}).\begin{table}[t]\caption{コーパスのアノテーションの具体例}\label{annotation_example}\input{02table02.txt}\end{table}
\section{誤り分析}
\label{sec:analysis}本章では,疾患・症状を検出するタスク(以降,罹患検出)について取り組み,風邪症状コーパスを用いて既存のシステムの誤り分析を行った.既存システムとして,単語n-gram素性を用いた手法~\cite{aramaki-maskawa-morita:2011:EMNLP}と同等の分類器をSupportVectorMachine(SVM)にて構築し,その誤りを人手で分類した.誤りには,本来,疾患・症状の事実があると判定すべきであるのに,それができなかった場合であるFalseNegative(以降,FN)の事例と,その逆に,疾患の事実がないのに誤って疾患とみなしてしまう場合であるFalsePositive(以降,FP)の事例がある.罹患検出は大規模な母集団に対して行われるので,再現率はさほど重要ではなく,適合率が重要になる.そこでFPに注目し,解析を進めた.FPと判定された事例に対して,なぜそれがNegativeな事例なのかという観点から,人手で誤りを分類した.誤り原因の分類と発言例を表\ref{FP_eg}に示す.誤りの分類は以下の通りである.\begin{table}[t]\caption{誤り分析(FPの原因ごとの例文)}\label{FP_eg}\input{02table04.txt}\end{table}\begin{itemize}\item\textbf{非当事者}:疾患・症状を所有する対象が,発言者およびその周辺の人物ではない.特定の二人称,三人称の人物が疾患・症状を保有する場合や,「みんな風邪ひかないように」といった発言のように一般的な人に向けたものも含める.\item\textbf{比喩}:比喩的に疾患表現が利用されている場合が当てはまる.「凄すぎて鼻水ふいた」という発言は,実際に疾患として鼻水が出ているとは考えにくく,「鼻水をふいた」という表現を利用することで大変驚いた様子を比喩的に表しているものだと推測される.\item\textbf{一般論}:そもそも疾患・症状の保有に関する話題ではなく,疾患そのものについて議論していたり,「風邪予防マスク」のように疾患が名詞句の一部として出現した場合である.\item\textbf{モダリティ}:「かもしれない」(疑い),「かな?」(疑問)などのモダリティ表現により,疾患の事実が認められない場合を指す.ここでは以下に示す否定,時制を除いた狭義のモダリティ表現を意味し,英語表現で置き換えれば,``must'',``might'',``haveto''などの助動詞が当てはまる.\item\textbf{時制}:疾患のあった時間が異なる.\item\textbf{否定}:「風邪でなくてよかった」など,疾患の事実が否定されている.\item\textbf{その他}:その他の理由によるもので,人でも理解不能な発言や,発言が短すぎて解析に失敗したものが含まれる.\end{itemize}表\ref{FP}に,風邪症状コーパスの6つの疾患・症状について,それぞれ100件の誤り(FalsePositive)事例について分析を行った結果を示す(600事例).表\ref{FP}より,疾患・症状の種類ごとに誤り方に大きな違いがあることがわかった.風邪,咳,熱は「非当事者」が原因となる解析誤りが多く,疾患・症状を保有する主体を識別する部分に課題がある.一方で寒気,鼻水は「非当事者」による解析誤りが少ない.これは,例えば,鼻水は他人の鼻水について言及することが少ないことが原因としてあげられる.また,頭痛,寒気,鼻水は比喩的な解析誤りが多く,改善すべき点が大きく異なる.事実性の問題(時制,モダリティ,否定)に注目すると,どの疾患・症状においても一定数見られ,一般的な問題と捉えることができる.これらのエラー分析の結果から,言語処理の研究課題という観点から整理すると,疾患があったのかという\textbf{事実性}(時制,モダリティ,否定)と,仮に疾患の事実があったとして,疾患を所有しているのは誰なのかという\textbf{主体性}(非当事者や一般論の問題)と,比喩の3つの大きな言語現象に大別できる.これらの現象について,少し詳しく説明する.\begin{table}[t]\caption{誤り分析(FalsePositiveについての誤りの分類)}\label{FP}\input{02table05.txt}\end{table}事実性は,一般的かつ重要な課題でありながら,解析の難しさから高い精度に到達できていない\cite{narita2013lexicon,matsuyoshi2010annotating}.疾患があったのかという事実性の問題を解消することができれば,7つの誤りの分類のうち,モダリティ(10.8\%),時制(10.1\%),否定(5.9\%)を改善することができ,最大で合計26.8\%のエラーを解消する可能性がある.事実性の問題はWeb文書に特化した話ではなく,言語処理全般における課題である.仮に疾患・症状の事実があったとして,疾患・症状を保有しているのは誰なのかという主体を認識するタスクも重要である.疾患・症状を認識するタスクでは,地域ごとに疾患・症状の流行状況を把握したいために,一次情報(本人が観測・体験した情報)であるかどうかの識別が重要となる.エラー分析を行った結果,発言者とは関係のない有名人や発言者との物理的な位置関係が明確でない返信先の人物が疾患・症状に罹っている発言が多数見受けられた.一方で,疾患・症状を意味する表現が名詞句の一部として現れることで,特定の主体を言及するものではない場合もある.例えば,「風邪予防マスク」のように風邪が名詞句の一部として使われているだけの発言が存在する.この場合,「風邪」という単語はただの名詞句の一部として「予防」を修飾しており,疾患のイベントを保有していないため,その主体も存在しない.この問題を合わせると,疾患・症状を保有した対象は存在するのか,存在する場合は誰なのか,という主体を認識するタスクを考えることができる.7つの誤りの分類のうち,非当事者(23.5\%),一般論(14.8\%)がこのタスクで解決できる課題であり,合わせれば最大で38.3\%のエラーを解消することが可能である.主体解析の問題は,疾患に限ったことではなく,評判抽出(だれの評判なのか?),感性情報処理(だれが喜び/悲しんでいるのか?)など,Web文章,特にブログなど個人が発言する情報を扱う上で基盤となる技術であり,言語処理がWebを通して世の中を把握するため,解くべき大きな課題である.Web上のテキストを扱う上で,比喩(20.4\%)の問題も見過ごせない.例えば「凄すぎて鼻水でた」という発言があった場合,事実性解析的にはイベントが成立していて,かつ,主体も発言者(一人称)と推定されるが,常識的に考えて症状は発生していない.私たちはこの発言において,直感的に,何かのイベントが起きて驚いたことに対する口語的表現として,「鼻水出た」という表現が利用されたと判断することができる.この比喩的な表現の問題を解決するには,比喩に関する人間の常識的な推論が必要である.例えば,「頭が痛い」「寒気がする」「発熱がある」など,疾患・症状が比喩的に使用される例は多くある.実用面を考えると,比喩の問題は重要であるが,特定の疾患・症状に依存した処理になりがちである.そこで,本論文では一般性が高いサブタスクとして,先に挙げた2つの課題(事実性解析,主体解析)に取り組み,罹患検出器の改善に取り組む.以降,\ref{sec:factuality}章にて事実性解析,\ref{sec:subject}章にて主体解析において罹患検出器を改善した結果を報告し,\ref{sec:factandsub}章にて事実性解析と主体解析を組み合わせた結果を示す.
\section{事実性解析}
\label{sec:factuality}\subsection{事実性解析とは}事実性解析については,\ref{sec:used-corpus}章で説明されたインフルエンザ・コーパスを対象とし実験を行った.ここで,インフルエンザ・コーパスを使用して事実性解析を行ったのは,インフルエンザ・コーパスにおいては,予防方法やニュース等といった「インフルエンザに感染している」という事実をもたない発言が多いという傾向が強く見られたことから,事実性解析の必要性が高いと判断したためである.実際に,他のコーパスに比べて,負例の割合が極端に高い傾向がある.インフルエンザの流行の検出のためには,実際にインフルエンザに感染している人がどの程度いるのかを判断する必要がある.しかし,機械的に「インフルエンザ」を含む発言を集めるだけでは感染している人がどの程度存在するかはわからない.このために,集めた発言を感染者に関する発言かそうでないかの分類を行うことにより流行の検出を行う.このような分類のためには,文に記述されている事象が,実際に起こったことなのか,そうでないことなのかの事実性を判定する技術が必要となる.これは,事実性解析(Factualityanalysis)と呼ばれる\cite{sauri2012you}.事実性解析が必要な例は以下のような例である.\begin{quote}(1)熱があったので、病院に行ったら\fbox{インフルエンザ}\underline{{\bfだった}}。(2)\fbox{インフルエンザ}に罹った\underline{{\bfかもしれない}}。(3)\fbox{インフルエンザ}に罹ってい\underline{{\bfたら}}、休まざるを得ないだろう。\end{quote}例を見ると,インフルエンザであることを「だった」として断定したり,「かもしれない」と推量をしたり,「たら」と仮定をしたりしていることがわかる.これにより,(1)は,「インフルエンザに感染する」という事実を持っており,反対に(2),(3)はこの事実を持たないと判断できる.このような表現はモダリティと呼ばれ,人間が情報の真偽を考える上で重要な手がかりになる.\subsection{事実性解析の活用}\label{sec:modality}本研究における事実性解析の目標は,「インフルエンザに感染している」という事実を持つ発言を検出することである.我々は,これを「対象とする事実」をもつかもたないかの2値分類タスクとして考え,分類器を構築し分類を行った.本章では,モダリティを利用した2つの手法について説明する.\subsubsection{つつじによる素性}事実性解析を罹患検出に活用する1つの方法として,つつじ\footnote{つつじ日本語機能表現辞書http://kotoba.nuee.nagoya-u.ac.jp/tsutsuji/}の利用を試みた.日本語の文を構成する要素には,主に内容的な意味を表す要素(内容語)以外に,助詞や助動詞といった,主に文の構成に関わる要素がある.ここでは,後者を総称して,「機能語」と呼び,「に対して」や「なければならない」のように,複数の語から構成され,かつ,全体として機能語のように働く表現である「複合辞」と合わせて,これらを機能表現と呼ぶ\cite{matsuyoshi2007}.つつじは16,801の機能表現の表層形を階層的に分類しており,同じような意味を持つ機能表現には同じ意味IDが振られている.\begin{table}[b]\caption{つつじによる意味ID素性の例}\label{extsutsujifeature}\input{02table06.txt}\end{table}本研究はTwitterのデータを使用しているため,発言の中には文が複数ある場合も多い.これにより,注目しているインフルエンザ感染に関連する機能表現と関係のない機能表現も多く存在すると考えられる.そこで,「インフルエンザ」の右の15文字中につつじの機能表現の表層形が含まれる場合にその意味IDを素性として利用することにした.つつじによる意味ID素性の具体例を表\ref{extsutsujifeature}に示す.\subsubsection{Zundaによる素性}次に,2つ目のモダリティの利用法として,Zunda\footnote{Zunda拡張モダリティ解析器https://code.google.com/p/zunda/}の解析結果を利用する手法を提案する.Zundaは文中のイベント(動詞や形容詞,事態性名詞など)に対して,その真偽判断(イベントが起こったかどうか),仮想性(仮定の話かどうか)などを解析することのできる日本語拡張モダリティ解析器である.本手法においては,Zundaの出力する真偽判断のタグを利用した.真偽判断についてのラベルとしては,「成立」,「不成立」,「不成立から成立」,「成立から不成立」,「高確率」,「低確率」,「低確率から高確率」,「高確率から低確率」,「0」のラベルが存在する.真偽判断ラベルについての具体的を表\ref{examplelabelofzunda}に示す.また,これらのラベルのうち頻出の「成立」,「不成立」「0」のラベルの解析精度を表\ref{zundanoseido}に示す.\begin{table}[b]\caption{Zundaの真偽判断ラベル}\label{examplelabelofzunda}\input{02table07.txt}\end{table}\begin{table}[b]\caption{Zundaの真偽判断タグにおける解析精度}\label{zundanoseido}\input{02table08.txt}\end{table}\begin{table}[b]\caption{Zundaによる素性の例}\label{exzundafeature}\input{02table09.txt}\end{table}これらのラベルが各イベントに対してついているが,つつじを使用した場合と同様にインフルエンザに関連するイベントがどこに存在するかを考えなければならない.我々はZundaが動詞,事態性名詞を「イベント」として解析していることから,「インフルエンザ」の右に続く動詞,事態性名詞で一番近いものをインフルエンザに関連するイベントとみなし,そのイベントとイベントに付けられたラベルの組み合わせを素性として利用した.具体例を表\ref{exzundafeature}に示す.\subsection{インフルエンザ感染か否かの2値分類の実験・評価}\subsubsection{実験設定}本研究は,発言をした人物,あるいはその周りの人物がインフルエンザにかかっているか否かを判定する2値分類をL2正則化ロジスティック回帰により行った.評価は5分割交差検定による適合率,再現率,F1-スコアを用いた.ツールとしては,Classias(ver.~1.1)\footnote{Classiashttp://www.chokkan.org/software/classias/index.html.ja}を使用した.ウィンドウを決めるための形態素解析器としてはMeCab(ver.~0.996)\footnote{MeCab日本語形態素解析器http://taku910.github.io/mecab/}を利用し,MeCabの辞書はIPA-Dic(ver.~2.7.0)を用いた.本研究のような風邪等の疾患情報を検出するために発言の分類を行うタスクは先行研究\linebreak\cite{aramaki-maskawa-morita:2011:EMNLP}があり,分類のためには,注目している疾患・症状を表す単語の周辺の単語が良い素性となることが知られている.ここでは,形態素解析により,分かち書きを行い,形態素を1つの単位としたウィンドウを作成した.「インフルエンザ」を含むウィンドウを中心として,左側の3つの形態素と右側の3つの形態素をBagofWords(BoW)の素性とし,これにモダリティに関しての素性以外を加えたものをベースラインの分類器として作成した.ベースラインに使用した素性を表\ref{feature}に示す.つつじによる素性とZundaによる素性に関しては前節の説明によるものとする.\begin{table}[b]\caption{ベースラインに使用した素性}\label{feature}\input{02table10.txt}\end{table}\subsubsection{実験結果}インフルエンザ感染に関しての2値分類を行った結果を表\ref{result}に示す.まず,BoWの素性にそれぞれの素性を加えた結果について言及したい.全体を見ると,適合率は少し減少する傾向にあるが,再現率は増加する傾向にある.F1-スコアに関してはURL,RPの素性以外については全て増加している.つつじの意味IDによる素性Tsutsujiを加えたときは適合率,再現率のどちらも増加している.適合率を上げることが難しいのは使用しているコーパスにおける負例の割合が非常に大きいためである.このため,再現率をあげることにより負例の多いデータからいかに正例をあつめられるかは重要である.本論文では,適合率を上げることを主要な目的としているが,インフルエンザ・コーパスのように正例の割合が小さく,再現率が低くなる場合,インフルエンザの感染者の増減を捉えることは難しくなる.以上のことから,本節では,適合率と再現率の両方を考慮したF1スコアの向上により性能を評価する.\begin{table}[t]\caption{インフルエンザ感染に関しての2値分類の結果}\label{result}\input{02table11.txt}\end{table}次に,つつじによる素性とZundaによるモダリティ素性以外を全て合わせたベースライン(baseline)に対してつつじの意味IDを加えたところ,F1-スコアが2.2ポイントほど向上した.BoWに加えたときと同様に,適合率,再現率が共に上がっている.また,Zundaによる素性をベースラインに加えたところ,F1-スコアは1.1ポイントほど向上した.最後に,ベースラインにつつじに関しての素性と,Zundaに関しての素性を両方を加えたAllを使用したとき,最高精度となった.この結果は,提案手法の素性を抜いたbaselineより,3.5ポイントのF1-スコアの向上が見られるので,提案手法の素性が有用であることを支持する.\subsubsection{コーパスサイズの影響}データのサイズに対する精度変化を見るために学習曲線を図\ref{learning_curve}に示す.これを見ると,データサイズの増加により,適合率は5,000件あたりで一定値に収束しているが,再現率,F1-スコアは増加し続けている.このことから膨大なデータを利用することでも精度向上が見込める事がわかる.一方で,コーパスの作成には人手によるアノテーションが必要でありコストがかかるため,少ないデータでも頑健に分類ができる分類器は有用である.\subsection{考察}本論文では,モダリティに関しての素性の貢献を見ることができたが,実際にどのような事例に対して貢献が見られたか,また,うまくいかなくなった事例はどのようなものかについて調査する.表\ref{example}に実際の発言例を示す.\begin{figure}[t]\begin{center}\includegraphics{22-5ia2f1.eps}\end{center}\caption{コーパスサイズに対する精度変化}\label{learning_curve}\end{figure}\begin{table}[t]\caption{分類に成功した例と失敗した例}\label{example}\input{02table12.txt}\end{table}\subsubsection{つつじによる素性}つつじにおける素性について,分類器の判断に大きく影響を与える素性を調べた.その結果を表\ref{tsutsujiweight}に示す.ここで,重みはベースラインにつつじによる素性を加えたもの(baseline+Tsutsuji)を利用した.表\ref{example}の発言例1においては,表\ref{tsutsujiweight}における,「らしい」のような推量のモダリティ表現をつつじの意味ID素性が捉えることにより,正しい出力を得るようになった.逆に,発言例2においては,ひらがな1文字の「と」や「え」が誤ってマッチしてしまっている.本来,このようなひらがな1文字のものがなければ,正例として正しい分類をしていたのにも関わらず,誤ってマッチしたことにより,分類に失敗している.ひらがな一文字の場合,機能表現として使われていないのにも関わらずマッチしたり,本来の意味と違った意味IDが割り振られてしまったりすることがある.例えば「I23」の意味IDをもつひらがな「え」は表\ref{tsutsujiweight}に示している「うる」,「だろう」に該当するものであり,正しい意味を捉えることができていない.ひらがな一文字の場合は前後の文脈の情報を考慮し,機能表現として使われているかを判別すること,どの意味の機能表現として使われているかの曖昧性を解消することが必要であ\linebreakる.\subsubsection{Zundaによる素性}次に,Zundaによる素性について,分類器の判断に大きく影響を与える素性を調べた.つつじの場合と同様に,重みの大きな素性を大きい順に並べた結果を表\ref{zundaweight}に示す.ここで,重みはベースラインにZundaによる素性を加えたもの(baseline+Zunda)を利用した.\begin{table}[b]\caption{重みの絶対値の大きい素性とその表層形例(つつじによるもの)}\label{tsutsujiweight}\input{02table13.txt}\end{table}\begin{table}[b]\caption{重みの絶対値の大きい素性とその表層形例(Zundaによるもの)}\label{zundaweight}\input{02table14.txt}\end{table}表\ref{zundaweight}を見るとつつじの素性に比べて直感的に理解できるものが多い.インフルエンザの発言は,注意を呼びかける発言,予防接種の内容の発言,ニュースに関する発言等が多く,負の重みによくそれが現れている.正の重みに関しては直接疾患に関係のある名詞や動詞が多くなっている.発言例3においては,「かかり=成立」の素性により,判別できるようになった.Zundaにおいてはこのように素性がうまく働き,分類の成否を分ける例が多く見られた.発言例4においては,実際に感染しているのは発言をしている本人でもなく周りの人でもないため,ここでは,負例を正解とするのが正しいが,「感染=成立」という素性のために正例になってしまっている.このように,確かにインフルエンザに感染しているという事実を持っているにも関わらず,インフルエンザに罹っている人物が,ソーシャル・メディア上で言及されやすい人物である場合,今回のインフルエンザ・コーパスの正負の定義から,分類に失敗する.このことから,インフルエンザに罹っている人物が誰なのかを知る必要がある.これは,主体解析の問題として次のセクションで言及する.
\section{主体解析}
\label{sec:subject}\subsection{主体解析が必要な事例}はじめに述べたように,Webデータをフルに利用するためには,事実性解析とならんで,誰が疾患・症状にあるのかという主体の推定(主体解析)が重要である.例えば,「娘が風邪を引いた」という発言において「風邪」という疾患を保有するのは「娘」であることが解析できれば,発言者の近くで「風邪」が出現したことが分かる.一方,「風邪と風を誤変換していた」という発言では「風邪」という疾患を保有している主体が存在せず,風邪の流行とは無関係である.主体が明らかになることにより,疾患・症状を保有する主体が周辺に存在しない発言を判別することができる.つまりWebの情報を利用して個人の状態を把握するためには,調べたい状態に言及する表現を認識することに加え,\underline{その状態に置かれている人物の特定}が重要となる.従来の自然言語処理においてこのタスクに最も近いのは,述語項構造解析である.もし,調べたい疾患・症状が事態性名詞である場合(例えば「発熱」)は,そのガ格を調べればよい.しかしながら,疾患・症状が事態性名詞になるかどうかは,述語項構造解析のアノテーション基準に依る所が大きく,通常「風邪」「鼻水」などは事態性名詞として扱われない.代わりに,用言の項構造に着目するアプローチも考えられる.先ほどの「娘が風邪を引いた」という例では,「風邪」は「引いた」のヲ格で,「娘」は「引いた」のガ格なので,「風邪」の保有者は「娘」と推定できる.しかし,このアプローチにも複数の問題がある.第1に,風邪を保有していることを表す述語を識別する問題である.例えば「医者が風邪を診察した」という文では,「風邪」は「診察した」のヲ格で,「医者」は「診察した」のガ格であるが,「風邪」の保有者は「医者」ではない.第2に,口語表現特有の解析誤りがある.例えば「風邪引いた」のようにヲ格が省略されると,述語項構造解析は失敗してしまう.さらに,「風邪ツラい」などカタカナの表現は,形態素解析にすら失敗する可能性がある.このように,既存の述語項構造解析の研究と,疾患・症状を保有する主体を推定するタスクの間には,かなりの乖離がある.そのため,既存の述語項構造解析では主体を正しく特定することは期待できない.この点を鑑み,本章では,疾患・症状を保有する主体を推定するという新しいタスクに取り組む.まず,ツイートの本文に対して,疾患・症状を保有する主体をラベル付けしたコーパスを構築するための方針を設計し,アノテーション作業を行った.次に,このデータを訓練事例として用い,疾患・症状を保有する主体を推定する解析器を設計した.評価実験では,主体を推定する解析器の精度を計測すると共に,主体を推定することによる後続のタスクである罹患検出における貢献を実証した.また,疾患・症状の主体を推定するタスクは,個別の疾患・症状への依存することなく,一般的な解析器を構築できることが分かった.\subsection{コーパスへのラベル付与}\label{sec:corpus}風邪症状コーパスにおいて,誰が疾患・症状にあるのかの情報を付与した.この作業は,疾患・症状毎に500件ずつ,合計で3,000件行った.図\ref{LabelExa}はラベル付けの例を示しており,疾患ラベル,ツイート,疾患クエリが\ref{sec:used-corpus}章で説明した風邪症状コーパスである.それに対して.疾患・症状を保有する主体が発言内に存在する場合に主体としてラベル付けし,二つ目の例のように省略されている場合には「(省略)」とした.また主体の種類を5つに分けた主体ラベルを用意し,疾患・症状を保有する主体がどの主体ラベルに当てはまるかをラベル付けした.\begin{figure}[b]\begin{center}\includegraphics{22-5ia2f2.eps}\end{center}\caption{ラベル付けの例}\label{LabelExa}\end{figure}ラベルの種類と発言例を表\ref{PersonLabel}に示す.ソーシャルメディアの分析では,一次情報(本人が観測・体験した情報)であるかどうかの識別が重要なので,「一人称」「周辺人物」「その他人物」「物体」「主体なし」の5つのラベルを用意した.\begin{itemize}\item「一人称」のラベルの,発言した話者が疾患・症状に\underline{関与}するという意味は,必ずしも症状にある場合だけではなく,主体が疾患・症状と関係する場合を全て含む.例えば,表\ref{PersonLabel}の一人称の発言例のように症状に対して願望を抱いている場合は,今は症状を保有していないため,カゼミル+の応用から考えると抽出したくない情報である.しかし,本章では疾患・症状と関与する主体の推定を目的としているため,疾患・症状を保有していない場合においても主体の同定を行う.願望以外にも,「風邪はひいていない」などの否定の発言も同様に扱い,疾患のラベルは「負例」となる一方で主体ラベルは「一人称」となる.疾患に罹っているかどうかの判断は,主体を推定した後に事実性の解析で行うべきである.主体が「周辺人物」「その他人物」の場合にも同様な条件で判断し,主体ラベルを付与した.\item「周辺人物」のラベルは話者が直接見聞きできる範囲の人物が症状にあるかを一つの分類基準とした.Aramakiらの風邪症状コーパス~\cite{aramaki-maskawa-morita:2011:EMNLP}は,話者か話者と同じ都道府県の人物が症状にある場合に正例となるが,人手で主体のラベル付けする際に,同じ都道府県かどうかを判断することは極めて難しいためである.\item「その他人物」のラベルは,疾患・症状を保有する主体となる人物が存在するが,「一人称」「周辺人物」「物体」には該当しない全てのケースを含む.返信先に疾患・症状の主体が存在する場合が一例で,表\ref{PersonLabel}の発言例では話者と物理的に見聞きできる距離にいることを確認できない.2つ目の例は,症状を保有する人物を観測することができるが,メディアの報道によって拡散された情報で,話者が直接見聞きした情報ではない.\item「物体」のラベルは物体,もしくは人間以外の生物が主体となる場合に付与され,パソコンなどの物体が発熱した場合が例として挙げられる.\item「主体なし」のラベルは,発言例にある「風邪薬」のように,風邪の単語自体に疾患のイベントが存在しておらず,風邪が名詞句の一部として出現する場合を含む.他にも「寒気」が「さむけ」ではなくて「かんき」として使われる場合のように語義が異なる場合や,疾患・症状が慣用句的に使われている場合,記事・作品のタイトルとして出現する場合にも「主体なし」とした.\end{itemize}\begin{table}[t]\caption{疾患症状に関する主体ラベルの種類と発言例}\label{PersonLabel}\input{02table15.txt}\end{table}表\ref{LabeLratio}を見ると,主体が「一人称」の場合にはほぼ省略されるが,主体が「周辺人物」「その他人物」「物体」の場合には約9割が発言内で言及される.正解ラベルとの比率に着目すると,「一人称」と「周辺人物」の場合は約8割が正例である一方で,「物体」「その他人物」「主体なし」の場合は1割以下であった.\begin{table}[t]\caption{疾患クエリを保有するtweetの主体ラベルの比率}\label{LabeLratio}\input{02table16.txt}\end{table}基本的には主体が認識できれば主体ラベルを認識することができる.ただし,まれに主体が認識できるのに主体ラベルが認識が難しい場合があり,それは「周辺人物ラベル」と「その他人物ラベル」の違いが見抜けない場合などである.例えば「今日学校へ行ったらAさんが風邪だと知った」という発言では,Aさんが風邪であるという事実を直接に見聞きしているので「周辺人物ラベル」を振っている.しかし実際には,Aさんが有名人で,有名人Aさんが風邪であるというニュースを学校で友人から聞いた,などという場合が存在している.また,本実験では3,000件のアノテーションを行ったが,1つの発言に対象の疾患・症状が複数言及されている発言と,同じ疾患・症状を保有する主体が複数存在する発言を除いた結果,表\ref{LabeLratio}の合計に示されるように2,924件となっている.\subsection{実験}\subsubsection{主体ラベル推定器}前節のコーパスを利用して,発言内での「風邪」や「頭痛」などの疾患・症状を保有している主体ラベルを推定する分類器を構築する.今回の実験では,「物体」と「主体なし」のラベルについて事例が少なく,また本論文において主たる推定の対象でないため,「主体なし」に統合した.ツイート中のリツイート,返信,URLは,有無のフラグを残した上で削除した.分類器にはClassias1.1を利用し,L2正則化ロジスティック回帰モデルを学習した.利用した素性を表\ref{Feature}に示す.\subsubsection{推定結果}\label{sec:result}表\ref{PersonF}に,5分割交差検定により主体ラベル推定の精度を測定した結果を示す.訓練事例として,6つの疾患・症状に関するコーパスをマージした3,000事例を用いた.全ての素性を組み合わせた結果,macroF1スコアはベースライン(BoW)と比べて約20ポイント上昇した.これは,提案した素性がうまく作用していることを示唆している.疾患クエリ,リプライの有無,周辺人物辞書が特に強い貢献を示した.\begin{table}[t]\caption{主体ラベル推定器の素性}\label{Feature}\input{02table17.txt}\end{table}\begin{table}[t]\caption{主体ラベル推定の素性と精度}\label{PersonF}\input{02table18.txt}\end{table}表\ref{PersonF}においてmacroF1スコアがmicroF1スコアより低い理由として,主体ラベルの正解比率の問題が挙げられる.表\ref{LabeLratio}より,「一人称」の主体が全体の約7割を占めている.この比率により,分類器のバイアス項の重みは「一人称」に傾き,主体ラベル推定器は「一人称」のラベルを付与しやすくなっている.よって,「一人称」のラベルの再現率が高い一方で,その他のラベルの再現率は低下している.その結果,発言数の少ない「周辺人物」「その他人物」「主体なし」の推定性能が伸び悩み,macroF1スコアが低下している.表\ref{ConfusionMatrix}に予測と正解のConfusionMatrixを示す.対角成分の太字の数値は予測が正解したケースである.(+数字)はベースラインと比べ,予測した事例数が何件変化したかを表す.例えば「周辺人物」の推定は34件成功し,ベースラインからは22件増加している.対角成分である太字の部分を見ると,「一人称」以外においてベースラインから大きく増えていることがわかる.これは作成した素性を利用することで,「一人称」以外の主体ラベルを推定する際の精度が向上していることを示している.「主体なし」ラベルの推定精度が大きく向上した理由として,疾患クエリごとのラベル比の改善がある「一人称」はどの疾患においても多数存在するが,「主体なし」は疾患毎にラベルの存在比率が異なる.例えば,「主体なし」は全体の発言の中で14\%を占めるが,風邪症状コーパスの中では4\%である一方で,寒気には30\%存在する.疾患クエリの素性は,これらの疾患毎の主体ラベルの比率を調整し,推定の精度を向上させている.\begin{table}[b]\caption{主体ラベルの予測と正解のConfusionMatrix}\label{ConfusionMatrix}\input{02table19.txt}\end{table}\begin{table}[b]\caption{主体の有無による予測精度の違い}\label{comparingSubject}\input{02table20.txt}\end{table}表\ref{comparingSubject}に主体の有無による正解比率を示す.「一人称」の予測は,そもそも主体が明示されないことが多いので,主体の有無に影響されていない.しかし「周辺人物」と「その他人物」の予測は,主体が明示されていない場合は精度が悪くなっていることがわかる.一方,「主体なし」は主体が明示されていないほうが正解率が良いという結果になった.これは物体における主体のバラエティが富んでいて,現在のBoWやN-gramなどのシンプルな素性では特徴を捕らえきれていないことが原因としてあげられる.\subsubsection{主体ラベル推定における疾患・症状への依存性}前節の実験では,6つの疾患・症状に関する全ての訓練事例を利用した.では,疾患・症状を保有している主体を推定するタスクは,どのくらい個別の疾患・症状に依存するのか?もし主体ラベルの推定が個別の疾患・症状に依存せず,新しい疾患・症状を対象とした主体ラベルを推定する際に,他の疾患・症状の教師データを利用することができれば,新しくその疾患・症状のための教師ありコーパスを構築するコストを削減することができる.この課題を事前に把握するため,本章では,風邪症状コーパスに含まれる事例のうち疾患クエリとして「風邪」が付与されている事例のみを用いた場合と,風邪症状コーパスに含まれる全ての事例を用いた場合の性能を比較する.以降,簡単のため,風邪症状コーパスの部分集合として,疾患クエリとして「風邪」が付与されている事例の集合を,特に風邪クエリコーパスと呼ぶ.コーパス毎の相違点としては,例えば,「風邪」と「引く」の共起頻度は高い一方で,別の疾患クエリ,例えば「頭痛」の事例においては,「引く」は寄与しない.よって,風邪クエリコーパスにおける主体の推定と頭痛クエリコーパスにおける主体の推定が異なる課題になっている可能性があり,そのため,新しい疾患を考えたときに主体ラベル推定の精度が悪化する可能性がある\begin{figure}[b]\begin{center}\includegraphics{22-5ia2f3.eps}\end{center}\caption{コーパスサイズと推定精度}\label{CorpusFigure}\end{figure}図\ref{CorpusFigure}は風邪クエリの主体ラベルを推定する際に5分割交差検定を行った結果を示している.実線は風邪クエリコーパスのみを用いて学習した場合で,コーパスサイズを100件,200件,300件,400件増やしている.点線は,風邪症状コーパスに含まれる全ての事例を風邪クエリコーパスに足して学習した場合の性能で,風邪クエリコーパスを400件で固定し,風邪以外のコーパスをランダムに625,1,250,1,875,2,500件増やした.風邪クエリの主体ラベルを予測するタスクなので,風邪クエリに関する学習データとの相性がよく,400件の学習データを用いた場合のF1スコアは45.1であった.一方,風邪クエリ以外の症状に関する学習データを追加し,2,900件の訓練事例を用いて風邪の主体ラベルを予測した場合のF1スコアは57.3で,風邪クエリのみの学習データを用いた場合と比較すると12.2ポイント向上した.風邪クエリの主体ラベルを予測するだけであれば,風邪クエリコーパスを増やすことが最も効果的であるが,風邪クエリ以外の疾患・症状の主体に関する訓練事例を増やすことで,特定の疾患・症状だけに依存しない汎用的な主体推定器を構築できる可能性が示唆された.同様の傾向は,他の疾患・症状を予測対象とした場合でも確認された.ただ,疾患・症状を保有する主体の事前分布にばらつきがあるため,疾患・症状の依存性が皆無という訳ではない.例えば,頭痛に関する言及では9割以上の主体が一人称の頭痛のことを表すが,熱に関しては物体の状況(例えばPCの発熱など)を言及するものも多い.したがって,幅広い疾患・症状をカバーしたコーパスを構築し,主体推定器の汎用性を改善していく必要がある.\subsubsection{推定した主体ラベルを利用いて罹患検出を行った結果}本研究の本来の目的である,罹患検出において,本研究で構築した主体ラベル推定器がどのくらい貢献するのか,実験を行った.表\ref{AllF}は本論文で提案した主体ラベル推定器を利用して主体ラベルを推定し,その主体ラベルを素性に追加して疾患・症状の有無を判定した結果である.なお,ベースライン手法は先行研究~\cite{aramaki-maskawa-morita:2011:EMNLP}の設計を参考にしたが,それに加えて,主体ラベル推定器によって推定された主体ラベルを素性として利用した.分類器にはClassias1.1を使用し,L2正則化ロジスティック回帰モデルを学習した.学習事例は6つの疾患・症状においてそれぞれ500件ずつ利用し,5分割交差検定を行った.\begin{table}[b]\caption{疾患・症状判別器の素性とF値}\label{AllF}\input{02table21.txt}\end{table}推定した主体ラベルを素性として利用して罹患検出を行った結果,寒気のF1スコアが5.5ポイント,熱のF1スコアが2ポイント向上し,全体のmacroF1スコアも1.3ポイント向上した.本研究で付与した主体の正解ラベル(ゴールドデータ)を素性として利用した場合とベースラインを比較すると,「風邪・咳・頭痛・鼻水」はF1スコアで2〜4ポイント程度向上し,「寒気・熱」は10ポイント以上向上した.これにより主体を正しく判定することができれば,平均で約6ポイントのF1スコアの向上が見込める.本研究で構築した主体推定器により,特に「寒気・熱」において,ゴールドデータとの差を縮めることができた.寒気の精度が向上した理由のひとつには,「寒気」が「さむけ」ではなく「かんき」として使われる場合や,「悪寒」が「予感」として使われる場合を排除できたことが挙げられる.一方で「頭痛」や「鼻水」においては,ほとんど精度を向上させることができなかった.これは,「頭痛」や「鼻水」が症状の場合に「一人称」が主体として使用される場合が多く,あまり他人の症状に言及していないためだと考えられる.\ref{sec:analysis}章で罹患検出のエラー分析をした結果から,主体解析によりFalsePositiveのうち38.3\%のエラー\footnote{FalsePositiveとFalseNegativeを合わせた全体のエラーのうちでは,およそ26\%を占めている.}を解消することが可能になると述べた.では,実際に主体解析を行った結果として,罹患検出のエラーをどの程度解消できたと言えるだろうか?表\ref{AllF}の一番右のエラー解消率には,ベースラインと比べたときのエラー解消率が示されている.推定した主体を素性として罹患検出を行った場合には,8.4\%のエラーを解消することができた.これより,ベースラインと比べれば精度が改善されている一方で,まだ主体の推定に誤りが含まれることがわかる.一方で,主体の正解ラベルを素性として罹患検出を行ったところ,38.1\%のエラーを解消することができた.これは罹患検出のエラー分析を行った際の主体の違いが原因となったエラー率よりも高く,主体の違いによるエラーが解消できていると考えられる.
\section{事実性解析と主体解析}
\label{sec:factandsub}\begin{table}[b]\caption{疾患・症状判別器の素性とF値}\label{commonresult}\input{02table22.txt}\end{table}最後に,\ref{sec:factuality}章の疾患があったのかという「事実性解析」と,\ref{sec:subject}章の疾患を所有しているのは誰なのかという「主体解析」を合わせて実験を行った.ベースライン手法は\ref{sec:factuality}章の設計を利用し,それに加えて,主体ラベル推定器によって推定された主体ラベルを素性として利用した.主体ラベルを推定する時には,インフルエンザコーパスからも,発言をランダムに500件抽出して主体の正解ラベルを付与し,それをインフルエンザの主体を学習する際のデータとして扱った.分類器にはClassias1.1を使用し,L2正則化ロジスティック回帰モデルを学習した.学習事例はインフルエンザコーパスと風邪症状コーパスの疾患・症状において,それぞれ500件ずつ利用し,5分割交差検定を行った.実験結果を表\ref{commonresult}に示す.ベースライン\footnote{本章の実験は4章と同一のベースラインの設計をしているため,5章の表20のベースラインとは値が異なっている.}と比べて,ベースラインに事実性解析を追加した結果から,事実性解析はインフルエンザにおいては大幅に上昇しているが,風邪症状コーパスに対しては,あまり変化が見られなかった.この理由としては,主体の問題や比喩的な問題が大きく関係していると考えられる.主体の問題の例としては,事実が確認出来たとしても,発言の返信先の人物が疾患に罹っている場合が挙げられる.比喩的な問題としては,例えば,鼻水の発言「面白すぎて鼻水が出たわ」では,「鼻水」が「出た」事実を解析することができたとしても,それが比喩的な表現であって,疾患は成立していない.これらの問題により,事実性の解析だけではあまり精度の向上が望めなかった.一方,ベースラインに事実性解析と主体解析の両方を組み合わせた結果,主体の問題が多少解決されることにより,ベースラインと比べて全体のmacroF1スコアで3.3ポイント向上した.これにより,事実性解析と主体解析をうまく組み合わせることで,より精度を向上させることができることが確認できた.さらに事実性と主体のゴールドラベルを合わせた結果,全ての疾患・症状において大幅に精度が向上し,全体のmacroF1スコアで9.6ポイント向上した.従って,事実性と主体の情報が疾患・症状判別タスクに有用な情報であるということが分かる.
\section{関連研究}
\label{sec:relatedworks}自然言語処理の研究は,Twitterを始めとしたソーシャルメディアの解析において2つの主要なタスクに取り組んできたと言える:(1)ひとつは実在する自然言語処理の技術をノイジーなテキストに適応させることで,(2)もうひとつは,そこから知識や統計量を抽出することである.前者としては品詞タグ付けの精度改善~\cite{gimpel-EtAl:2011:ACL-HLT2011}や固有表現認識~\cite{plank-EtAl:2014:Coling}のタスクを始めとして,崩れた単語の正規化などが行われてきた\cite{han-baldwin:2011:ACL-HLT2011,chrupala:2014:P14-2}.\begin{table}[t]\caption{Twitterを用いた関連研究}\label{relwork}\input{02table23.txt}\end{table}後者としては,イベント抽出やユーザ行動分析など様々なアプリケーションが提案されてきた(表\ref{relwork}).なかでも,疾患,特に即時的な把握が必要される感染症の流行検出は,主要なTwitter利用法の1つとして多くの研究がある.感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.中でも,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.インフルエンザ以外でも,WestNileウィルス検出\cite{sugumaran2012real}など感染症の把握にTwitterなどのソーシャルメディアを利用する試みは多い.本邦においてもインフルエンザが流行したことによって総死亡者数は,毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施されている\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ソーシャルメディアを用いた感染症サーベイランスが,現行の調査法と比べて大規模かつ,即時的な収集を可能にするとして,数多く提案されている\cite{Lampos2010,culotta2010detecting,Paul2011,aramaki-maskawa-morita:2011:EMNLP,Tanida2011}.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,ニュースや有名人の罹患に関するリツイートなど,多くのノイズが混入する.Aramakiら\cite{aramaki-maskawa-morita:2011:EMNLP}によると,「インフルエンザ」に関するツイートの半数は,本人の罹患に関するものではないと報告されている.これを解決するための1つの方法は,キーワードのセットを適切に選ぶ方法が考えられる.例えば,「インフルエンザ」だけでなく「高熱」や「休む」などのキーワードを加えることで,より確かに罹患者を抽出できると考えられる.そこで,インフルエンザの流行と相関の高いキーワード群を,L1正規化を用いた単語の次元圧縮によって得る方法\cite{Lampos2010},疾患をある種のトピックとみたてトピックモデルを用いる方法\cite{Paul2011}や,素性選択を適応する手法\cite{Tanida2011}などが提案されている.一方で,キーワードを固定して,疾患・症状がポジティブな発言のみを分類するというアプローチもある.高橋ら\cite{Takahashi2011}のBoostingを用いた文書分類,Aramakiら\cite{aramaki-maskawa-morita:2011:EMNLP}がSVMによる分類手法を提案している.本研究も後者をアプローチに属するが,モダリティの解析や,主体の解析いう2つの自然言語処理の問題を導入することで,精度を高めることに成功した.以降,この2つの自然言語処理研究について関連研究をまとめる.\subsection{主体解析の関連研究}本研究で扱った主体解析とは,疾患に関係のある名詞の項を判別する意味解析だと考えることができる.関連する研究としては,PropBank~\cite{PropBank2004}は動詞の意味役割を大規模にアノテートした初めてのコーパスであり,NomBank~\cite{NomBank2004}は,それと似た規則で名詞の項にラベルが付与されている.例えばNomBankでは,``Therehavebeennocustomer\underline{\mbox{complaints}}aboutthatissue.''において,\textsc{arg0}として,``customer''がアノテートされ,\textsc{arg1}として``issue''がアノテートされる.さらに,このアノテーションが扱う範囲を広げる研究もある\cite{Gerber:2010}.日本語においても,京都大学テキストコーパス4.0\footnote{http://nlp.ist.i.kyoto-u.ac.jp/}やNAISTテキストコーパス\cite{iida2010}において,事態性名詞の項が付与されるなど近いアノテーションが試みられている.Komachiら\cite{komachi2007}は,対象となる名詞に事態性があるか否かの事態性判別と,その後の項同定を別タスクとして扱い,解析精度を報告している.また,「娘の風邪」などの名詞句内の関係を解析する研究~\cite{sasano2009}も関連がある.発言内で疾患・症状の主体が省略されていることも多いため,省略・照応解析~\cite{sasano2008}とも関連がある.本研究で扱う課題も,基本的には,ある疾患に関する表現に関する項(\textsc{arg0})の同定を行なうタスクとみなすことができる.しかし,疾患に関する表現,例えば,「寒気」,などは意味としては事態性をもった概念であるが,文法的には,事態性があると認められず,単純な事態性の名詞の項同定として考えることはできない.つまり,意味的な疾患概念が,文法的な事態に対応づけられない場合がある.しかも,今までの事態性名詞の研究は主に新聞を元にしたコーパスで行われており,Twitter上への適応が困難だという技術的問題もある.これらの理由から,我々は疾患を保有する主体の推定を目的とし,主体推定器のためにラベルを付与することを試みた.\subsection{モダリティ解析の関連研究}先行研究\cite{aramaki-maskawa-morita:2011:EMNLP}では,モダリティに関しての事例を集めたコーパスを作成することでモダリティ情報を利用しているが,本研究では,既存のリソースやツールを活用することで,コーパス作成の手間を省き,一般的なモダリティ解析が疾患のモダリティ解析にも貢献することを示した.日本語モダリティに関するリソースとしては,文献\cite{matsuyoshi2010}が態度表明,時制,仮想,態度,真偽判断,価値判断,焦点などについて詳細に事象アノテーションを行っている.焦点を除いた6種の項目を拡張モダリティと呼び,情報抽出や含意認識といった自然言語処理のタスクへの応用に向けて研究が行われている.本研究は,意味IDとして,これを素性化したが,モダリティ間の類似関係など,さらに緻密な素性化が可能であり,今後の課題としたい.また,このような研究は日本語だけでなく英語に関しても活発であり,文献\cite{sauri2012you}がモダリティを用いて,事実性の度合いを判断する研究を行っている.また,特にモダリティの一部である否定(Negation)や推量(Speculation)については,情報抽出の実用化のために重要であり,専門のワークショップ[NeSp-NLP2010]が開催されるなど盛んに研究されてきている.本研究にこれらの知見を導入することで,さらなる精度向上が期待される.
\section{おわりに}
\label{sec:conclusion}本論文では,Web応用タスク(WebNLP)を立ち上げ,実用性を強く意識しつつ,次のゴールの達成に向けて研究・議論を行った.その中で,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識する罹患検出のタスクに取り組んだ.まず,ソーシャルメディア上のテキストを分析する際の現状の自然言語処理技術が抱えている問題を認識し,課題を整理した.分析結果から,事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せると判断した.これらの課題を陽に扱った手法により実験した結果,両問題がそれぞれ罹患検出に貢献することを明らかにした.\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論した.具体的には,インフルエンザの流行検出のため,モダリティの素性を組み込む手法を提案し,これが「インフルエンザに感染している」という特定の事実の検出を目標とする事実性解析に貢献することを示した.\ref{sec:subject}章では,複数の疾患・症状に関して,その疾患・症状を保有する主体を推定する取り組みを紹介した.構築したコーパスを訓練事例とした主体推定器を作成し,主体の推定がmicroF1スコアで84ポイント程度の性能で行えること,異なる疾患・症状に対して横断的な主体の推定が可能であることを報告した.さらに推定した主体が疾患・症状を判定する上でどの程度貢献するのか実証し,主体を正しく推定できれば罹患検出を行う際にどの程度までエラーを減らすことができるかを示した.さらに\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた実験を行い,その精度を確認した.ソーシャルメディア上の発言から個人の状態を分析することは,疾患の流行検出のみならず,個人の健康状態をモニタリングするなどの重要な応用が多く存在する.今後は,さらに多くのソーシャルメディア上のテキストでも検証を進め,両解析技術が発展し,より深くWebテキストを扱うことが期待される.\acknowledgment本研究は,ProjectNextNLP「Web応用タスク」による.本研究は首都大学東京傾斜的研究費(全学分)学長裁量枠戦略的研究プロジェクト戦略的研究支援枠「ソーシャルビッグデータの分析・応用のための学術基盤の研究」,JSTさきがけから部分的な支援を受けた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒牧\JBA森田\JBA篠原(山田)\JBA岡}{荒牧\Jetal}{2011}]{荒牧2011}荒牧英治\JBA森田瑞樹\JBA篠原(山田)恵美子\JBA岡瑞起\BBOP2011\BBCP.\newblockウェブからの疾病情報の大規模かつ即時的な抽出手法.\\newblock\Jem{言語処理学会第17回年次大会},\mbox{\BPGS\838--841}.\bibitem[\protect\BCAY{Aramaki,Maskawa,\BBA\Morita}{Aramakiet~al.}{2011}]{aramaki-maskawa-morita:2011:EMNLP}Aramaki,E.,Maskawa,S.,\BBA\Morita,M.\BBOP2011\BBCP.\newblock\BBOQTwitterCatchesTheFlu:DetectingInfluenzaEpidemicsusingTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1568--1576}.\bibitem[\protect\BCAY{Bergsma,Dredze,Van~Durme,Wilson,\BBA\Yarowsky}{Bergsmaet~al.}{2013}]{bergsma-EtAl:2013:NAACL-HLT}Bergsma,S.,Dredze,M.,Van~Durme,B.,Wilson,T.,\BBA\Yarowsky,D.\BBOP2013\BBCP.\newblock\BBOQBroadlyImprovingUserClassificationviaCommunication-BasedNameandLocationClusteringonTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1010--1019}.\bibitem[\protect\BCAY{Chrupa{\l}a}{Chrupa{\l}a}{2014}]{chrupala:2014:P14-2}Chrupa{\l}a,G.\BBOP2014\BBCP.\newblock\BBOQNormalizingTweetswithEditScriptsandRecurrentNeuralEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\680--686}.\bibitem[\protect\BCAY{Culotta}{Culotta}{2010a}]{culotta2010detecting}Culotta,A.\BBOP2010a\BBCP.\newblock\BBOQDetectingInfluenzaOutbreaksbyAnalyzingTwitterMessages.\BBCQ\\newblock{\BemarXivpreprintarXiv:1007.4748}.\bibitem[\protect\BCAY{Culotta}{Culotta}{2010b}]{Culotta:2010}Culotta,A.\BBOP2010b\BBCP.\newblock\BBOQTowardsDetectingInfluenzaEpidemicsbyAnalyzingTwitterMessages.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponSocialMediaAnalytics(SOMA)},\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{Ferguson,Cummings,Cauchemez,Fraser,Riley,Meeyai,Iamsirithaworn,\BBA\Burke}{Fergusonet~al.}{2005}]{Ferguson2005}Ferguson,N.~M.,Cummings,D.A.~T.,Cauchemez,S.,Fraser,C.,Riley,S.,Meeyai,A.,Iamsirithaworn,S.,\BBA\Burke,D.~S.\BBOP2005\BBCP.\newblock\BBOQStrategiesforContaininganEmergingInfluenzaPandemicinSoutheastAsia.\BBCQ\\newblock{\BemNature},{\Bbf437}(7056),\mbox{\BPGS\209--214}.\bibitem[\protect\BCAY{Gerber\BBA\Chai}{Gerber\BBA\Chai}{2010}]{Gerber:2010}Gerber,M.\BBACOMMA\\BBA\Chai,J.~Y.\BBOP2010\BBCP.\newblock\BBOQBeyondNomBank:AStudyofImplicitArgumentsforNominalPredicates.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1583--1592}.\bibitem[\protect\BCAY{Gimpel,Schneider,O'Connor,Das,Mills,Eisenstein,Heilman,Yogatama,Flanigan,\BBA\Smith}{Gimpelet~al.}{2011}]{gimpel-EtAl:2011:ACL-HLT2011}Gimpel,K.,Schneider,N.,O'Connor,B.,Das,D.,Mills,D.,Eisenstein,J.,Heilman,M.,Yogatama,D.,Flanigan,J.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQPart-of-SpeechTaggingforTwitter:Annotation,Features,andExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\42--47}.\bibitem[\protect\BCAY{Han\BBA\Baldwin}{Han\BBA\Baldwin}{2011}]{han-baldwin:2011:ACL-HLT2011}Han,B.\BBACOMMA\\BBA\Baldwin,T.\BBOP2011\BBCP.\newblock\BBOQLexicalNormalisationofShortTextMessages:MaknSensa\#twitter.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\368--378}.\bibitem[\protect\BCAY{Han,Cook,\BBA\Baldwin}{Hanet~al.}{2013}]{han-cook-baldwin:2013:SystemDemo}Han,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2013\BBCP.\newblock\BBOQAStacking-basedApproachtoTwitterUserGeolocationPrediction.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida2010}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{鍛治\JBA福島\JBA喜連川}{鍛治\Jetal}{2009}]{Kaji:2009}鍛治伸裕\JBA福島健一\JBA喜連川優\BBOP2009\BBCP.\newblock大規模ウェブテキストからの片仮名用言の自動獲得.\\newblock\Jem{電子情報通信学会論文誌(D情報・システム)},{\BbfJ92-D}(3),\mbox{\BPGS\293--300}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara:05}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2007}]{Kazama:07}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2007\BBCP.\newblock\BBOQExploitingWikipediaasExternalKnowledgeforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{国立感染症研究所}{国立感染症研究所}{2006}]{国立感染症研究所2006}国立感染症研究所\BBOP2006\BBCP.\newblock\Jem{インフルエンザ・パンデミックに関するQ&A(2006.12改訂版)}.\newblock国立感染症研究所感染症情報センター.\bibitem[\protect\BCAY{小町\JBA飯田\JBA乾\JBA松本}{小町\Jetal}{2010}]{Komachi:10}小町守\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock名詞句の語彙統語パターンを用いた事態性名詞の項構造解析.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\141--159}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{komachi2007}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearningBasedArgumentStructureAnalysisofEvent-nounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics(PACLING)},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Lamb,Paul,\BBA\Dredze}{Lambet~al.}{2013}]{lamb-paul-dredze:2013:NAACL-HLT}Lamb,A.,Paul,M.~J.,\BBA\Dredze,M.\BBOP2013\BBCP.\newblock\BBOQSeparatingFactfromFear:TrackingFluInfectionsonTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\789--795}.\bibitem[\protect\BCAY{Lampos\BBA\Cristianini}{Lampos\BBA\Cristianini}{2010}]{Lampos2010}Lampos,V.\BBACOMMA\\BBA\Cristianini,N.\BBOP2010\BBCP.\newblock\BBOQTrackingtheflupandemicbymonitoringtheSocialWeb.\BBCQ\\newblockIn{\Bem2ndIAPRWorkshoponCognitiveInformationProcessing(CIP2010)},\mbox{\BPGS\411--416}.\bibitem[\protect\BCAY{Li,Ritter,Cardie,\BBA\Hovy}{Liet~al.}{2014a}]{li-EtAl:2014:EMNLP20143}Li,J.,Ritter,A.,Cardie,C.,\BBA\Hovy,E.\BBOP2014a\BBCP.\newblock\BBOQMajorLifeEventExtractionfromTwitterbasedonCongratulations/CondolencesSpeechActs.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1997--2007}.\bibitem[\protect\BCAY{Li,Ritter,\BBA\Hovy}{Liet~al.}{2014b}]{li-ritter-hovy:2014:P14-1}Li,J.,Ritter,A.,\BBA\Hovy,E.\BBOP2014b\BBCP.\newblock\BBOQWeaklySupervisedUserProfileExtractionfromTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\165--174}.\bibitem[\protect\BCAY{Marchetti-Bowick\BBA\Chambers}{Marchetti-Bowick\BBA\Chambers}{2012}]{marchettibowick-chambers:2012:EACL2012}Marchetti-Bowick,M.\BBACOMMA\\BBA\Chambers,N.\BBOP2012\BBCP.\newblock\BBOQLearningforMicroblogswithDistantSupervision:PoliticalForecastingwithTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\603--612}.\bibitem[\protect\BCAY{Matsuyoshi,Eguchi,Sao,Murakami,Inui,\BBA\Matsumoto}{Matsuyoshiet~al.}{2010}]{matsuyoshi2010annotating}Matsuyoshi,S.,Eguchi,M.,Sao,C.,Murakami,K.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAnnotatingEventMentionsinTextwithModality,Focus,andSourceInformation.\BBCQ\\newblockIn{\BemProceedingsofthe7thconferenceonInternationalLanguageResourcesandEvaluation(LREC'10)},\mbox{\BPGS\1456--1463}.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{matsuyoshi2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌D},{\Bbf93}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004}]{NomBank2004}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQTheNomBankProject:AnInterimReport.\BBCQ\\newblockIn{\BemProceedingsoftheNAACL/HLTWorkshoponFrontiersinCorpusAnnotation},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{Munteanu\BBA\Marcu}{Munteanu\BBA\Marcu}{2005}]{Munteanu:06}Munteanu,D.~S.\BBACOMMA\\BBA\Marcu,D.\BBOP2005\BBCP.\newblock\BBOQImprovingMachineTranslationPerformancebyExploitingNon-ParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(4),\mbox{\BPGS\477--504}.\bibitem[\protect\BCAY{Narita,Mizuno,\BBA\Inui}{Naritaet~al.}{2013}]{narita2013lexicon}Narita,K.,Mizuno,J.,\BBA\Inui,K.\BBOP2013\BBCP.\newblock\BBOQALexicon-basedInvestigationofResearchIssuesinJapaneseFactualityAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\587--595}.\bibitem[\protect\BCAY{O'Connor,Balasubramanyan,Routledge,\BBA\Smith}{O'Connoret~al.}{2010}]{OConnor:2010}O'Connor,B.,Balasubramanyan,R.,Routledge,B.~R.,\BBA\Smith,N.~A.\BBOP2010\BBCP.\newblock\BBOQFromTweetstoPolls:LinkingTextSentimenttoPublicOpinionTimeSeries.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalAAAIConferenceonWeblogsandSocialMedia(ICWSM)},\mbox{\BPGS\122--129}.\bibitem[\protect\BCAY{大日\JBA重松\JBA谷口\JBA岡部}{大日\Jetal}{2003}]{大日2003}大日康史\JBA重松美加\JBA谷口清州\JBA岡部信彦\BBOP2003\BBCP.\newblockインフルエンザ超過死亡「感染研モデル」2002/03シーズン報告.\\newblock{\BemInfectiousAgentsSurveillanceReport},{\Bbf24}(11),\mbox{\BPGS\288--289}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{PropBank2004}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{Pang:2002}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsUp?:SentimentClassificationUsingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheACL-02ConferenceonEmpiricalMethodsinNaturalLanguageProcessing-Volume10},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Paul\BBA\Dredze}{Paul\BBA\Dredze}{2011}]{Paul2011}Paul,M.~J.\BBACOMMA\\BBA\Dredze,M.\BBOP2011\BBCP.\newblock\BBOQYouAreWhatYouTweet:AnalysingTwitterforPublicHealth.\BBCQ\\newblockIn{\BemProcessingofthe5thInternationalAAAIConferenceonWeblogsandSocialMedia(ICWSM)}.\bibitem[\protect\BCAY{Plank,Hovy,McDonald,\BBA\S{\o}gaard}{Planket~al.}{2014}]{plank-EtAl:2014:Coling}Plank,B.,Hovy,D.,McDonald,R.,\BBA\S{\o}gaard,A.\BBOP2014\BBCP.\newblock\BBOQAdaptingTaggerstoTwitterwithNot-so-distantSupervision.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\1783--1792}.\bibitem[\protect\BCAY{Sakaki,Okazaki,\BBA\Matsuo}{Sakakiet~al.}{2010}]{Sakaki:10}Sakaki,T.,Okazaki,M.,\BBA\Matsuo,Y.\BBOP2010\BBCP.\newblock\BBOQEarthquakeShakesTwitterUsers:Real-timeEventDetectionbySocialSensors.\BBCQ\\newblockIn{\BemProceedingsofthe19thinternationalconferenceonWorldWideWeb(WWW)},\mbox{\BPGS\851--860}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano2008}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\769--776}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2010}]{Sasano:10}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2010\BBCP.\newblock\BBOQTheEffectofCorpusSizeonCaseFrameAcquisitionforPredicate-ArgumentStructureAnalysis.\BBCQ\\newblock{\BemIEICETRANSACTIONSonInformationandSystems},{\BbfE93-D}(6),\mbox{\BPGS\1361--1368}.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2009}]{sasano2009}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2009\BBCP.\newblock\BBOQAProbabilisticModelforAssociativeAnaphoraResolution.\BBCQ\\newblockIn{\BemConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\lowercase{\BVOL}~3,\mbox{\BPGS\1455--1464}.\bibitem[\protect\BCAY{Sato}{Sato}{2015}]{sato2015mecabipadicneologd}Sato,T.\BBOP2015\BBCP.\newblock\BBOQNeologismDictionaryBasedontheLanguageResourcesontheWebforMecab.\BBCQ\{\ttfamilyhttps://github.com/neologd/mecab-unidic-neologd}.\bibitem[\protect\BCAY{Saur{\'\i}\BBA\Pustejovsky}{Saur{\'\i}\BBA\Pustejovsky}{2012}]{sauri2012you}Saur{\'\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2012\BBCP.\newblock\BBOQAreYouSureThatThisHappened?AssessingtheFactualityDegreeofEventsinText.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(2),\mbox{\BPGS\261--299}.\bibitem[\protect\BCAY{Shen,Liu,Weng,\BBA\Li}{Shenet~al.}{2013}]{shen-EtAl:2013:NAACL-HLT}Shen,C.,Liu,F.,Weng,F.,\BBA\Li,T.\BBOP2013\BBCP.\newblock\BBOQAParticipant-basedApproachforEventSummarizationUsingTwitterStreams.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1152--1162}.\bibitem[\protect\BCAY{Sugumaran\BBA\Voss}{Sugumaran\BBA\Voss}{2012}]{sugumaran2012real}Sugumaran,R.\BBACOMMA\\BBA\Voss,J.\BBOP2012\BBCP.\newblock\BBOQReal-timeSpatio-temporalAnalysisofWestNileVirusUsingTwitterData.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonComputingforGeospatialResearchandApplications},\mbox{\BPG~39}.ACM.\bibitem[\protect\BCAY{高橋\JBA野田}{高橋\JBA野田}{2011}]{Takahashi2011}高橋哲朗\JBA野田雄也\BBOP2011\BBCP.\newblock実世界のセンサーとしてのTwitterの可能性.\\newblock\Jem{電子情報通信学会情報・システムソサイエティ言語理解とコミュニケーション研究会},\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{谷田\JBA荒牧\JBA佐藤\JBA吉田\JBA中川}{谷田\Jetal}{2011}]{Tanida2011}谷田和章\JBA荒牧英治\JBA佐藤一誠\JBA吉田稔\JBA中川裕志\BBOP2011\BBCP.\newblockTwitterによる風邪流行の推測.\\newblock\Jem{マイニングツールの統合と活用\&情報編纂研究会},\mbox{\BPGS\42--47}.\bibitem[\protect\BCAY{Thelwall,Buckley,\BBA\Paltoglou}{Thelwallet~al.}{2011}]{Thelwall:2011}Thelwall,M.,Buckley,K.,\BBA\Paltoglou,G.\BBOP2011\BBCP.\newblock\BBOQSentimentinTwitterEvents.\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScienceandTechnology},{\Bbf62}(2),\mbox{\BPGS\406--418}.\bibitem[\protect\BCAY{Varga,Sano,Torisawa,Hashimoto,Ohtake,Kawai,Oh,\BBA\De~Saeger}{Vargaet~al.}{2013}]{varga-EtAl:2013:ACL2013}Varga,I.,Sano,M.,Torisawa,K.,Hashimoto,C.,Ohtake,K.,Kawai,T.,Oh,J.-H.,\BBA\De~Saeger,S.\BBOP2013\BBCP.\newblock\BBOQAidisOutThere:LookingforHelpfromTweetsduringaLargeScaleDisaster.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1619--1629}.\bibitem[\protect\BCAY{Williams\BBA\Katz}{Williams\BBA\Katz}{2012}]{williams-katz:2012:ACL2012short}Williams,J.\BBACOMMA\\BBA\Katz,G.\BBOP2012\BBCP.\newblock\BBOQExtractingandModelingDurationsforHabitsandEventsfromTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\223--227}.\bibitem[\protect\BCAY{Zhou,Chen,\BBA\He}{Zhouet~al.}{2014}]{zhou-chen-he:2014:P14-2}Zhou,D.,Chen,L.,\BBA\He,Y.\BBOP2014\BBCP.\newblock\BBOQASimpleBayesianModellingApproachtoEventExtractionfromTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\700--705}.\end{thebibliography}\begin{biography}\bioauthor{叶内晨}{2011年東京都立国立高等学校卒業.2015年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,同大学院博士前期課程に進学.}\bioauthor{北川善彬}{2010年私立明法高等学校卒業.2015年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,同大学院博士前期課程に進学.}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).以降,東京大学医学部附属病院特任助教を経て,奈良先端科学技術大学院大学特任准教授.医療情報学,自然言語処理の研究に従事.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学研究科博士課程終了.2005年英国テキストマイニングセンター・リサーチフェロー,2007年東京大学大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.専門は,自然言語処理,テキストマイニング,機械学習.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,電子情報通信学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V07N04-03
|
\section{はじめに}
近年の電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.要約を利用することで,より少ない労力や時間で,テキストの内容を把握したり,そのテキストの全文を参照する必要があるかどうかを判定できるようになるため,テキスト処理にかかる人間の負担を軽減させることができる.要約は一般に,その利用目的に応じて,元テキストの代わりとなるような要約(informativeな要約)と,テキストの全文を参照するかどうかの判定等,全文を参照する前の段階で利用する要約(indicativeな要約)に分けられることが多い\cite{Oku:99:a}.このうち,indicativeな要約については,近年情報検索システムが広く普及したことにより,検索結果を提示する際に利用することが,利用法として注目されるようになってきている.要約を利用することで,ユーザは,検索結果のテキストが検索要求に対して適合しているかどうかを,テキスト全文を見ることなく,素早く,正確に判定できるようになる.一般に情報検索システムを利用する際には,ユーザは,自分の関心を検索要求という形で表わしているため,提示される要約も,元テキストの内容のみから作成されるgenericな要約より,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法\cite{Mochizuki:99:a}が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖\cite{Morris:91}とは,語彙的結束性\cite{Halliday:76}を持つ語の連続のことである.語彙的連鎖はテキスト中に複数存在し,各連鎖の範囲では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.我々の手法では,この語彙的連鎖の情報を利用することで,検索要求と強く関連したテキスト中の部分を抽出できるため,情報検索システムでの利用に適した要約が作成できる.また,検索要求と関連する部分を一まとまりのパッセージとして得るため,連続性のある要約が作成できる.我々の手法によって作成される要約の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法\cite{Miike:94,Hand:97,Jing:98,Mani:98:a,tombros:98:b,Oku:99:a}を採用し実験を行なう.実験では,複数の被験者に要約と検索要求を提示し,被験者は,要約を元に,各テキストが検索要求に適合するかどうかを判定する.要約は,被験者の適合性判定の精度,タスクにかかった時間および判定に迷った際に全文を参照した回数などに基づいて評価される.また,要約の読み易さに関する評価も合わせて行なう.我々の要約作成手法と,検索要求を考慮した,いくつかの従来の要約作成手法\cite{tombros:98:b,shiomi:98:a,hasui:98:a},検索要求を考慮しない,いくつかの要約作成手法および,全文,タイトルのみの,合わせて10種類の手法を比較する実験を行なう.また,タスクに基づく要約の評価は,最近になって採用され始めた新しい評価方法であり,試行錯誤の段階にある.そのため,今回の評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても,いくつかのポイントから分析し,報告する.以下,\ref{sec:sumpas}節では,我々の語彙的連鎖型パッセージ抽出法に基づく要約作成について述べ,\ref{sec:examination}節では実験方法について説明し,\ref{sec:kekkakousatsu}節で結果の考察をする.最後に\ref{sec:conc}節でタスクに基づく評価方法に関する問題点や留意すべき点について述べる.
\section{語彙的連鎖型パッセージ抽出法に基づく要約}
label{sec:sumpas}本節では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法による要約作成手法について述べる.我々の要約作成手法は,次のような流れに基づく.まず,テキスト中の語彙的連鎖を計算する.次に,我々の語彙的連鎖に基づくパッセージ抽出手法により,検索要求に適合するテキスト中のパッセージを抽出する.最後に,抽出されたパッセージを,あらかじめ決められた要約の長さに調節する処理を行ない,要約として出力する.以下では,語彙的連鎖の計算方法と語彙的連鎖を用いたパッセージ抽出手法について順に,概略を説明する.詳細は\cite{Mochizuki:99:a}を参照して頂きたい.\subsection{語彙的連鎖の計算}\label{subsec:lexcal}語彙的連鎖は次の手順で計算する.まず,コーパスを用いた単語の共起情報から2つの単語間の類似度を式(\ref{equ:cosdis})のコサイン距離により計算する.\begin{equation}\label{equ:cosdis}coscr(X,Y)=\frac{\sum_{i=1}^{n}x_{i}\timesy_{i}}{\sqrt{\sum_{i=1}^{n}x_{i}^{2}}\times\sqrt{\sum_{i=1}^{n}y_{i}^{2}}}\end{equation}ここで,$x_{i}$と$y_{i}$はテキスト$i$に単語$X$と$Y$が出現する数($tf$),$n$はコーパスの全テキスト数を表わす.次に,計算された類似度を基に,式(\ref{equ:min})の最短距離法によって単語をクラスタリングする.\begin{equation}\label{equ:min}sim(C_i,C_j)=\max_{X\inC_{i},Y\inC_{j}}coscr(X,Y)\end{equation}ここで,$X,Y$はクラスタ$C_i$内,$C_j$内の単語である.閾値\footnote{我々の以前の研究\cite{Mochizuki:99:a}で最も良い連鎖を構成した0.25を今回も閾値とした.}を用いて単語のクラスタを作成し,同一クラスタ内にまとめられた単語の連続によって語彙的連鎖を構成する.\subsection{語彙的連鎖を用いたパッセージ抽出}\label{subsec:expas}パッセージ抽出の手順は次のようになる.まず,入力された検索要求内の語(以後,{\bf検索語}と呼ぶ)を含む語彙的連鎖の情報を取り出す.次に出現範囲に重なりがある連鎖をまとめることによってパッセージを抽出する.この時に,各パッセージと検索要求との類似度も計算する.最後に,類似度が最大のパッセージを,検索要求と最も適合するパッセージとして選択する.図\ref{fig:pasimg}に抽出されるパッセージの例を示す.\begin{figure}[htbp]\begin{center}\atari(102,127)\caption{パッセージの例}\label{fig:pasimg}\end{center}\end{figure}図\ref{fig:pasimg}には,検索要求内の3つの検索語と,テキスト内で各検索語を含む7つの語彙的連鎖(A1〜C3)が示されている.図\ref{fig:pasimg}では,出現位置に重なりのある連鎖がまとめられ,3つのパッセージが抽出される.各パッセージと検索要求との類似度は,パッセージに含まれる連鎖のスコアおよび,連鎖間の重なりの度合に基づき計算される.連鎖のスコアは,連鎖中の単語数に基づき計算される.最終的に,図の例では,最大の類似度のパッセージとして,比較的長い3つの連鎖が互いに重なりあっている,パッセージ1が抽出される(斜線部分).抽出されたパッセージが,あらかじめ決められた要約の長さを越える場合,パッセージの末尾から,長さの制約を満たすように,文を取り除き,最終的な要約として出力する.
\section{評価実験}
label{sec:examination}我々の要約作成手法の有効性を調べるため他の要約作成手法との比較実験を行なう.評価方法としてタスクに基づく要約の評価方法を採用し,タスクとして情報検索を選択する.タスクに基づく要約の評価方法は,人間が要約を利用して,あるタスクを行なう際のタスクの達成率や所要時間などを用いて,間接的に要約を評価するものであり,最近になって採用され始めている\cite{Oku:99:a,Jing:98,Mani:98:a,tombros:98:b}.本研究は情報検索システムでの利用に適した要約作成を目指しているため,情報検索タスクにおいて,要約がどれだけ役立ったかによって評価することが自然な評価であると考える.本稿の情報検索タスクに基づく要約の評価実験は,TIPSTERTextProgramPhaseIIIのために提案された手法\cite{Hand:97}を参考にしている.今回の実験では,我々の提案手法と他の検索要求を考慮した手法などに全文,タイトルのみを含めた10種類の要約作成手法を実装し,それぞれの手法による要約を使用している.そして,要約を,適合性判定の精度およびタスク達成にかかる時間などに基づいて比較評価する.なお,要約の長さは,文を単位としてテキストの20\%とした.以下の副節では,実装した各要約作成手法,実験方法,評価基準について順に説明する.\subsection{要約作成手法}我々の提案手法と全文,タイトルのみのものも含めて次の10種類の要約作成手法を実装する.なお,各手法の本稿での呼び名を{\bfボールド体}で示す.\begin{itemize}\item全文({\bffull})\\要約を行なわず,全文を要約として提示する.\itemタイトル({\bftitle})\\テキストの見出しのみを要約として提示する.\itemlead手法({\bflead})\\見出しを含み,先頭から文を抽出し,要約として提示する.\item形式段落({\bff-seg})\\テキストをあらかじめ形式段落に分割し,検索要求と各形式段落との類似度を計算する.最も類似度の高い形式段落を1つ選び要約とする.ただし,選択された形式段落の長さが要約の長さを越える場合には,その段落の末尾から,長さの制約を満たすように,文を取り除き,最終的な要約とする.検索要求と形式段落の類似度は以下のように計算する.形式段落ごとに単語の重要度$w_{i}$を基本的な$tf.idf$\cite{Salton:88b}の式(\ref{equ:tfidf})により計算し,形式段落を単語の重要度のベクトル$D_{j}$で表現する.\begin{equation}\label{equ:tfidf}\displaystyle{w_{i}=tf_{i}\timeslog\frac{N}{df_{i}}}\end{equation}ここで$tf_{i}$は段落内の単語$i$の頻度,$N$はテキスト集合内の総段落数,$df_{i}$は単語$i$の出現段落数である.検索要求と形式段落の類似度は,それぞれのベクトル$Q$,$D_{j}$を用いた,以下の式で計算する.\begin{equation}\label{equ:normsim}sim(Q,D_{j})=\sum_{i}(tf_{q_{i}}\timeslog\frac{N}{df_{i}})^2\timesw_{i}\end{equation}ここで,$tf_{q_{i}}$は検索語$q_{i}$の検索要求内の頻度である.\itemテキスト中の単語の重要度に基づく要約({\bftf.idf,q-tf.idf})テキスト中の単語の出現頻度から各単語の重要度を決定し,重要な単語を多く含む文が重要であるという考えに基づき,文の重要度を計算する.本稿ではZechner\cite{Zechner:96}と同様の手法を用いる.まず,テキスト中の各単語の重要度$w_{i}$を計算する.次に,各文中の単語の重要度の総和を式(\ref{scalc})により計算し,重要度$S_{j}$の高い文を抽出する.\begin{equation}\label{scalc}\displaystyle{S_{j}=\sum_{i}w_{i}}\end{equation}この手法では,各単語の重要度$w_{i}$を計算する際に,検索要求を考慮するかどうかの違いにより次の2種類の要約を作成できる.\begin{enumerate}\item検索要求を考慮しない場合({\bftf.idf})\\式(\ref{equ:tfidf})により,tf.idfを基に$w_{i}$を計算する.ただし,この場合の$tf_{i}$はテキスト内の単語$i$の出現頻度,$df_{i}$は単語$i$の出現するテキストの数,$N$は全テキスト数である.\item検索要求を考慮する場合({\bfq-tf.idf})\\検索要求内の単語(検索語)には重み$\alpha$をかける\footnote{いくつかのテキストにおいて$\alpha$を2,3,4,5と変化させた予備的な実験で,重みをかけない場合との要約の違いが最も大きかった$3$を今回の$\alpha$の値とした.}.\begin{equation}\label{qb_tfidf}w_{i}=\left\{\begin{array}{rl}tf_{i}\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語でない}\\\alpha\timestf_{i}\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語}\\\end{array}\right.\end{equation}検索要求を考慮した,従来の要約作成手法の多くは,この手法に基づいている\cite{tombros:98:b,shiomi:98:a,hasui:98:a}.\end{enumerate}\itemテキスト中の語彙的連鎖の重要度に基づく要約({\bfcf.idf,q-cf.idf})\\この手法では,重要な語彙的連鎖を構成する単語を多く含む文が重要であると考え,文の重要度を決定する.まず,語彙的連鎖を\ref{subsec:lexcal}節と同様に計算する.次に,要約の作成は,単語の重要度に基づく場合と同様に,まず各連鎖の重要度$w_{i}$を計算し,次に式(\ref{scalc})により各文中の連鎖の重要度の総和を計算し,重要度$S_{j}$の高い文を抽出する.なお,$w_{i}$を計算する際に,検索要求を考慮するかどうかの違いにより次の2種類の要約が作成できる.\begin{enumerate}\item検索要求を考慮しない場合({\bfcf.idf})\\$w_{i}$を,連鎖$i$の構成単語数($cf$)と連鎖$i$の出現テキスト数($df_{i}$)により計算する.\begin{equation}\label{wchain_tfidf}\displaystyle{w_{i}=\midi\mid\timeslog\frac{N}{df_{i}}}\end{equation}ここで,$\midi\mid$は連鎖$i$の構成単語数,$df_{i}$は連鎖$i$の出現テキスト数,$N$は全テキスト数である.これまでの語彙的連鎖を用いた要約作成手法の多くは,このような,連鎖を用いた重要文抽出と言うことができる\cite{Barzilay:97,sanfilippo:98:a}.\item検索要求を考慮する場合({\bfq-cf.idf})\\検索語を含む連鎖には重み$\alpha$をかける\footnote{{\bfq-tf.idf}の場合と同様に$\alpha=3$とした.}.\begin{equation}\label{qb_cfidf}w_{i}=\left\{\begin{array}{rl}\midi\mid\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語でない}\\\alpha\times\midi\mid\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語}\\\end{array}\right.\end{equation}\end{enumerate}\item語彙的連鎖型パッセージに基づく要約({\bflex})\\\ref{sec:sumpas}節で説明した,我々の手法によって要約を作成する.\item市販ワープロソフトによる要約({\bfJ})\\本試験に先立ち,市販の代表的な要約機能付きワープロ3種によって作成した要約を用い,被験者9人による予備実験を行なった.結果として総合的に最も精度の高かったJの要約を本試験に使用する.\end{itemize}\subsection{実験方法}実験には『情報検索テストコレクションBMIR-J2』\cite{BMIR-J2:98j}を使用する.BMIR-J2は,テキスト5080件(毎日新聞1994年版の経済および工学,工業技術一般に関連する記事),検索要求50種とその正解がセットとなった情報検索用テストコレクションである.今回は全セットの中から,主題を表わすA判定の正解テキストが10テキスト以上ある10種類の検索要求と,各検索要求ごとに20テキストを選択して使用する.この20テキストは,まず検索システムを用いて,各検索要求によるキーワード検索を行ない,検索結果として得られたテキストの中から正解テキストの割合が50\%以上になるように選択する.被験者は,日本語を母国語とする情報科学系の大学院生30名とする.各被験者には,検索要求とその要求に対応する20テキストのリストおよび各テキストの要約を提示する.被験者は,各テキストが検索要求に適合するかどうかを判定し,20テキストの判定にかかった時間を記録する.また,要約を読んでも適合性の判定がつかない場合に限り,そのテキストの全文を参照することが許される.ただし,全文を参照した場合には,その参照回数を検索要求ごとに記録する.また,提示された各要約について,要約としてではなく,日本語の文章としての読み易さを主観で判定してもらう.読み易さの判定は,1.わかりやすい,2.ややわかりやすい,3.ややわかりにくい,4.わかりにくい,の4段階とする\footnote{判定を奇数にすると真中が選択される傾向が予想されるため,この4段階とした.}.1人の被験者は同じ検索要求とテキストの組を1度しか判定できないため,30名を3名づつの10グループに分け,各グループが異なる要約作成手法と検索要求の組を10組づつ評価するという形を採用する.そのため,1組の検索要求と要約作成手法に対し3名が評価を行なう.\subsection{評価基準}以下の点について評価を行なう.\begin{itemize}\item適合性判定の精度\\被験者の適合性判定と,テストコレクションの正解を比較し,適合性判定の精度を計算する.評価尺度には再現率,適合率,F-measureを使用する.\begin{equation}再現率=\displaystyle{\frac{被験者が正しく適合と判定した数}{実際に適合するテキスト数}}\end{equation}\begin{equation}適合率=\displaystyle{\frac{被験者が正しく適合と判定した数}{{\small被験者が適合と判定したテキストの総数}}}\end{equation}\begin{equation}F-measure=\displaystyle{\frac{2\times再現率\times適合率}{再現率+適合率}}\end{equation}\itemタスクにかかった時間\\被験者が1つの検索要求についてタスクにかかった時間を記録し,平均時間を計算する.\item全文を参照した回数\\要約によって判定がつかない場合に参照した全文の回数を記録する.\item要約の文章としての読み易さ\\検索要求との関係などを一切考慮せず,要約の文章としての読み易さを4段階で評価する.\end{itemize}
\section{結果と考察}
label{sec:kekkakousatsu}\subsection{実験結果}今回の実験では言語的,教育的背景の似ている被験者を30名選択している.これは,被験者の知識や背景の違いに起因する検索要求の解釈や判定の違いをできるだけ排除するためである.つまり,被験者のタスク達成精度にはあまり差がないことを仮定している.しかし,30名の実験結果から計算されたタスクの達成精度について,F-measureを用いて一元配置分散分析を行なったところ差がみられた($p<0.0039$).そのため,F-measureを基準にし,図\ref{fig:FM}の丸で囲んだ,差の少ない21名($p<0.9995$)によって以後の評価を行なうこととした.\begin{figure}[htbp]\begin{center}\atari(106,64)\caption{被験者のF-measureの分布}\label{fig:FM}\end{center}\end{figure}21名での実験結果を表\ref{tab:er}に示す.\begin{table*}[htbp]\begin{center}{\small\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c|}\hline&full&title&lead&f-seg&tf.idf&{\smallq-tf.idf}&cf.idf&{\smallq-cf.idf}&lex&J\\\hline再現率&87.1\%&86.7&85.9&87.2&86.3&89.6&87.0&85.3&90.5&86.5\\適合率&89.0\%&89.1&88.9&88.8&89.7&85.3&85.3&87.0&88.5&91.3\\{\smallF-measure}&87.2\%&87.0&86.6&87.1&87.2&86.6&84.9&84.9&89.1&87.6\\{\small読み易さ}&4.1&1.8&4.6&3.7&3.8&4.0&4.3&3.9&4.1&5.5\\{\small時間(分:秒)}&15:38&7:54&9:47&10:55&10:37&9:54&10:54&10:29&10:41&10:52\\時間比&100\%&50.5&62.6&69.8&67.9&63.3&69.7&67.1&68.3&69.5\\%\hline{\small参照回数}&0.6&4.8&3.8&2.8&2.6&1.7&2.0&1.5&1.9&2.0\\%\hline{\small平均文間数}&0.0&0.0&0.0&0.0&3.6&3.5&3.8&3.6&0.0&1.4\\%\hline{\small要約率(語)}&100.0\%&5.3&19.1&21.7&32.1&31.5&30.5&30.2&23.6&27.7\\\hline\end{tabular}}\caption{実験結果}\label{tab:er}\end{center}\end{table*}表\ref{tab:er}には,検索要求(20テキスト)ごとの結果の平均が示されている\footnote{表中のF-measureの値も検索要求ごとのF-measureの平均である.}.表中の「読み易さ」は,被験者が4段階で判定した読み易さを数値化した値である.この数値は,各テキストについて被験者が「わかりやすい」と判定した場合に10点,「ややわかりやすい」と判定した場合に5点,「ややわかりにくい」,「わかりにくい」の場合それぞれ,-5点,-10点に換算して足し合わせた値の平均である\footnote{今回の実験で,「短すぎると何が言いたいのか分からない」という被験者の意見が多く見られた.これは被験者が,設問にある「要約の文章としての読み易さ」から少しずれて「適合性判定がしやすいかどうか」で判断してしまう傾向があることを示している.}.また,「時間比」は各要約での作業に要した時間を全文で要した時間で割った値である.また,「平均文間数」として,要約内の隣接2文間の,元テキスト(全文)での距離(文間数)の平均を合わせて示した.この平均文間数が0に近いものほど,作成された要約の連続性が高いことを意味している.さらに,今回の要約の長さは文を単位として元テキストの20\%としているが,語を単位として各手法の要約の長さを計算したものを「要約率(語)」として示している.被験者の判定の統計的信頼性について,Jingら\cite{Jing:98}と同様に,帰無仮説を「あるテキストが検索要求に適合すると被験者の判定する数はランダムである」としたCochranのQ-test\cite{statistical:81}を行なった.その結果,全10種の検索要求のいずれの場合も$p<10^{-5}$であり,帰無仮説は棄却された.つまり,今回の実験で被験者達は適合するテキストをランダムに選択しているのではないとの検定結果を得た.\subsection{考察}\label{sec:kousatsu}上記の実験結果について,まず,10種類の要約作成手法全体での考察を,適合性判定の精度,タスク達成にかかる時間,要約の文章としての読み易さに焦点をあてて行なう.次に,各手法を作成された要約の類似性に基づいて分類し,各分類に対する考察を同様の観点から行なう.\subsubsection{全要約作成手法間の比較}全要約作成手法をF-measureによって比較すると,我々の語彙的連鎖型パッセージに基づく要約({\bflex})が最も良く,{\bfJ}とともに全文({\bffull})での精度を上回っている.他のものは{\bffull}と同じかやや低い値となっている.ただし,今回の10種の要約作成手法でのF-measureについて,一元配置分散分析を行なった結果,全体としてF-measureの平均値に統計的な有意差は見られなかった($p<0.9725$).これは,今回の実験において適合性の判定に迷う場合に全文の参照を許したことが一因となっていると思われるが,全文参照の影響を推測できないため,特に補正は行なっていない.作業時間に関しては,{\bffull}が最も長くかかっており,どの要約作成手法によっても時間短縮の効果はあると言える.要約手法間では,{\bftitle}が一番短かく,20テキストあたりの作業時間では他の手法との間に大きな差が見られた.他の手法間では互いにそれほど差がなかった.適合性判定の精度と作業時間をあわせて考えると,{\bftitle}が,精度面では最も高かった{\bflex}よりもやや劣るものの,作業時間ではかなり短く,総合的には,{\bftitle}を表示し,わかりにくいものについては全文を参照する方法が効率的であると見ることができる.しかし,実際に検索対象となるテキストには必ずしも見出しが付いているわけではなく,いつも{\bftitle}手法が利用できるとは限らない.一方,見出しのないテキストにも利用できる自動的な要約手法の中では,総合的に{\bflex}が一番良い数値を示していると言える.読み易さについては,{\bfJ},{\bflead},{\bfcf.idf}が{\bffull}よりも高く,{\bflex}は{\bffull}と同じであり,それ以外は{\bffull}よりも低い.また今回の実験では{\bftitle}が一番低い値であった.読み易さについては,後述するように要約を元テキストの先頭から選ぶ傾向のある手法({\bflead},{\bflex},{\bfJ})の値が高いと言える.\subsubsection{要約の類似性に基づく比較}\label{subsec:sumsim}次に,作成された要約の類似性に基づいて各手法を分類し,結果を考察する.類似度は次のように計算する.まず要約作成手法ごとに,要素を元テキスト(全文)の各文とし,値をその文が重要文として選択されれば1,されなければ0としたベクトルを用意する.次に2つのベクトル間のコサイン距離を計算し,各要約作成手法間の類似度とする.最後に,最短距離法と平均距離法の2種類のクラスタ間距離によって,要約作成手法の階層型クラスタリングを行なう.結果として,どちらの距離においても図\ref{fig:sim}のように{\bfJ}と{\bflead}と{\bflex}のグループ({\bfグループ1}),{\bftf.idf},{\bfcf.idf},{\bfq-tf.idf},{\bfq-cf.idf}のグループ({\bfグループ2}),{\bff-seg}だけのグループ({\bfグループ3})の3つのグループに分類された.図\ref{fig:sim}で上段の数字が最短距離法,下段が平均距離法での類似度を示している.なお,{\bffull}と{\bftitle}は他の手法との比較に意味がないため除外している.\begin{figure}[htbp]\begin{center}\atari(110,78)\caption{要約間の類似度}\label{fig:sim}\end{center}\end{figure}{\bfグループ1}に分類された3つの手法によって作成される要約は,連続性が高い点で共通している.この内,{\bflead}と{\bflex}は完全に連続である.また,{\bfJ}の要約作成手法は不明だが,{\bflex}と{\bfJ}の類似度は0.47であり,それほど高くないため,{\bflex}と{\bfJ}が元テキストの先頭部分をある程度含むことと,{\bfJ}が先頭部分と離れた文もある程度の割合で含むことがわかる.{\bfグループ2}に分類された4つの要約作成手法は,どれも文中の語や語彙的連鎖に重みをかけて,重要度の高い文を抜き出す手法であり,作成される要約の連続性が低い点で共通している.また,どの手法間の類似度も非常に高く,このグループでは,検索要求の考慮や,重み付けの単位が語か語彙的連鎖かという違いが,作成される要約にそれほど大きく影響していない.{\bfグループ3}は{\bff-seg}だけのグループである.{\bff-seg}では,{\bfグループ1}と同様に連続性の高い要約が作成されるが,選択される文の元テキストでの位置が大きく異なっている.F-measureによって適合性判定の精度を比較すると,最も良かった{\bflex}と{\bfJ}が同じ{\bfグループ1}に分類されている.少なくとも今回の実験では先頭部分をある程度含み,連続性の高い要約が,適合性の判断において良い精度を収めている.しかし,{\bflead}はそれほど精度が良くないため,単純に先頭から抜き出す要約はそれほど有効でなかったと言える.読み易さに関しても{\bfグループ1}が比較的高い評価を得ている.また,今回の要約作成手法には{\bflex}のように検索要求を考慮するものと,しないものという違いがあった.それぞれのグループについて見ると,{\bfグループ2}の連続性の低い要約の場合には,検索要求を考慮することで判定はしやすくなるが,精度は必ずしも向上していない.一方,連続性のある要約の場合には,検索要求を考慮する{\bfグループ1}の{\bflex}および,{\bfグループ3}の{\bff-seg}のどちらの場合にも,検索要求を考慮しない{\bflead}よりも精度が向上した.
\section{おわりに}
label{sec:conc}本稿では,我々が以前に提案した語彙的連鎖に基づくパッセージ抽出手法が,検索要求を考慮した要約作成に利用できることを示し,情報検索タスクに基づいた要約の評価方法によって,他の要約作成手法との比較を行なった.今回の実験結果では,被験者に全文の参照を許したこともあり,適合性判定の精度に統計的有意差が得られなかったため確定的な結論は導けないが,実験結果の数値は本手法が情報検索タスクにおいて,有効な要約作成手法であることを支持するものであった.作業時間に関しては,特に優位性を示す実験数値は得られなかった.読み易さに関しては,全文の場合と同等の評価を得た.今回の評価実験の経験から,要約の評価実験を実施する上で考慮すべき点として次のことがあげられる.\begin{itemize}\item全文参照の影響\\要約作成手法間の精度比較で全体的な統計的有意性が得られなかった原因として,全文参照を許したことが考えられる.全文参照が精度に影響する度合がはっきりせず,影響の度合を推測することも困難であるため,実験での全文参照は許さない方が良い.また,参照によってタスクの達成時間も変化すると思われるが,やはり影響の度合がはっきりしない.この点からも参照は許さない方が良い.しかし,要約だけでは判定のつかない場合も確かに存在するため,そのような場合に,どうすべきかも考慮しておく必要がある.\item読み易さの判定\\要約作成手法間のタスク達成時間の比較で,ほとんど差が出なかった主な原因として,読み易さの判定を同時に行なったことが考えられる.読み易さの判定は,適合性判定に比べてかなり多くの時間を要するため,適合性判定の際についた各手法間の時間差がはっきりしなくなったようである.そのため全く別の実験とした方が良い.\item検索要求とテキストの選択\\要約作成手法間の比較評価には向かない検索要求とテキストの組み合わせとして,次のような関係が考えられる.\begin{enumerate}\item検索要求に関係する単語が比較的均等に散らばっているテキストと要求の組.\\この場合には,テキスト中のどの部分を要約として取り出しても,検索要求との適合性判定がしやすい要約が作成される可能性がある.\item単語の分布が均等でなくても,検索語の出現頻度が高いテキストと要求の組.\\この場合には,検索要求を考慮した要約作成手法と,しない手法のそれぞれによって作成される要約の差がつきにくくなる可能性がある.\end{enumerate}要約作成手法間の相違をよりはっきりさせるためには,少なくとも,以上の点を考慮して検索要求とテキストを選択する必要がある.しかし,最適な検索要求とテキストを選択するための基準は現在のところ明らかでない.また,検索要求とテキストを組にして考える必要があり,難しい問題であるため,今後の課題である.\end{itemize}\vspace{5mm}\acknowledgment本研究では,(社)情報処理学会・データベースシステム研究会が,新情報処理開発機構との共同作業により構築したBMIR-J2を利用させていただきました.感謝致します.共起計算では日立製作所中央研究所の西岡真吾研究員の開発されたプログラムを使用させていただきました.感謝致します.また,本論文に対し,有意義なコメントを戴いた査読者の方に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{望月源(正会員)}{1970年生.1993年金沢大学経済学部経済学科卒業.1999年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月より,北陸先端科学技術大学院大学情報科学研究科助手.博士(情報科学).自然言語処理,知的情報検索システムの研究に従事.情報処理学会会員}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.\\[email protected],http://www.jaist.ac.jp/\~\,oku/okumura-j.html.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\verb++\end{document}
| |
V13N03-03
|
\section{はじめに}
自然言語は,多様性・曖昧性,規則性と例外性,広範性・大規模性,語彙・文法の経時変化などの性質を持っている.自然言語解析システムは,これらの性質をアプリケーションが要求するレベルで旨く扱う必要がある.なかでも多様性・曖昧性への対応,すなわち,形態素,構文,意味,文脈などの各種レベルにおける組合せ的な数の曖昧性の中からいかにして正しい解釈を認識するかがシステム構築上,最も重要な課題である.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/COM自然言語解析システムのモデル.eps,scale=0.7}\end{center}\myfiglabelskip\caption{自然言語解析システムのモデル}\label{fig:NLAnalysisModel}\end{figure}一般に自然言語解析システム(以下システムと省略する)は,入力文に対して可能な解釈の仮説を生成し({\bf仮説生成知識}の適用),ありえない仮説を棄却したり({\bf制約知識}の適用),仮説に対する順位付けを行ったり({\bf選好知識}の適用)することで,入力文に対する解析結果(文解釈となる構造)を求める.図\ref{fig:NLAnalysisModel}がこのモデルを示している.文の解釈は,仮説記述体系により規定される仮説空間に存在し,それぞれが実世界において,正解解釈(◎:correct),可能解釈(○:plausible),不可能解釈(×:implausible)に分類できる.仮説生成知識が可能な仮説集合を生成する.制約知識は仮説空間内の仮説が可能か不可能かを弁別し,選好知識は仮説空間内の仮説の順位付けを行う\footnote{制約知識は可能性ゼロの選好知識ともいえる.但し,制約知識の適用は解釈の枝仮りであり計算機処理の観点からは大きな差異がある.}.仮説生成・制約知識は,システムが受理可能な文の範囲,すなわち,システムの対象文カバレッジを規定する.仮説生成・制約・選好知識は,形態素,構文,意味といった各レベルにおいて存在し,システムの性能はこれらの総合として決定されると考えられる.例えば,各レベルの選好知識がそれぞれ異なった解釈を支持するという競合が生じるため,精度良く文解釈を行うにはこれらを総合的に判断する必要がある\cite{Hirakawa89a}.このように,システム設計においては,「生成\footnote{簡略のため「仮説生成知識」を単に「生成知識」と表現する.}・制約・選好知識をどのように扱うか」({\bf知識適用の課題}),「多レベルの知識をどのように融合するか」({\bf多レベル知識の課題})という2つの課題が存在する.生成・制約知識は,正文と非文とを弁別(あるいは,正文のみを生成)する,いわゆる,言語学の文法知識に相当する.従来,言語学からの知見を活用しながら計算機処理を前提とした各種の文法フレームワークが研究されてきている.文法フレームワークは,文の構造解釈を記述する解釈構造記述体系を基盤として構築されるが,これらには,句構造,依存構造,意味グラフ,論理式など様々ものが提案されている.一方,選好知識については意味プリファレンスの扱い\cite{Wilks75}を始めとして古くから多くの研究がなされているが,音声認識処理から自然言語処理への導入が始まった統計的手法が,単語系列から文脈自由文法,依存文法などへと適用範囲(解釈記述空間)を拡大・発展させ,広くシステムに利用されるようになってきている.例えば,句構造をベースの枠組みとして,文脈自由文法,LFG\cite{Kaplan89,Riezler02},HPSG\cite{Pollard94,Tsuruoka04},CCG\cite{Steedman00,Clark03}など\footnote{解析結果として依存構造を出力したりする場合もあるが,ここでは解析のベースとなっている解釈記述空間で分類している.},また依存構造をベースとした枠組みとして,確率依存文法\cite{Lee97},係り受け解析\cite{Shudo80,Ozeki94,Hirakawa01,Kudo05_j},制約依存文法(以降CDGと記述する)\cite{Maruyama90,Wang04},LinkGrammar\cite{Sleator91,Lafferty92}など文法フレームワークと統計手法の融合が広範に行われている.このように,文法フレームワークの研究は,生成・制約知識を対象とした研究から統計ベースの選好知識の扱いへと進展し,統計的手法は語系列,句構造,依存構造へと適用範囲を拡大し融合され,生成・制約・選好知識全体の統合のベースが整ってきている.多レベルの知識の融合という観点では,基本的に単一の解釈記述空間に基づくアプローチと複数の解釈記述空間に基づくアプローチがある.単一の文脈自由文法,依存文法などは前者の典型である.DCG\cite{Pereira80}やBUP\cite{Matsumoto83}などは文脈自由文法をベースにしているが,拡張条件が記述可能であり,例えば意味的な制約といった異レベルの知識を句構造という1つの解釈記述空間をベースとしながら融合することができる.CDGでは依存構造をベースにして構文的な制約を含む任意の制約条件を単項制約,2項制約という枠組みで記述できるようにしている\cite{Maruyama90}.LFGは,c-structure(句構造)とf-structure(機能構造)の2種類のレイヤを有し機能スキーマにより機能構造に関する制約条件が記述可能である\cite{Kaplan89}.また,統計ベースのアプローチにおいては,句構造情報だけではなく句のヘッドやその依存関係情報の利用が有効であることが判明し,句構造情報と依存構造情報を統合判断するモデルが利用されている\cite{Carroll92,Eisner96b,Collins99,Charniak00,Bikel04}.PDGは,複数の解釈記述空間に基づくアプローチを取っており,後に述べるように複数の解釈記述空間で対応付けられた圧縮共有データ構造をベースに多レベルの知識の融合を行っている.本稿では,PDGのモデル・概要について述べた後,PDGで採用している句構造と依存構造という2種類の中心的共有データ構造であるヘッド付き統語森(HPF:HeadedParseForest),依存森(DF:DependencyForest)について構築法を示し,それらに完全性と健全性が成立することを示す.また,例文解析実験により,PDGの振る舞いや特徴についても考察を加える.
\section{選好依存文法(PDG)の概要と圧縮共有データ構造}
\subsection{多レベル圧縮共有データ結合モデル}\begin{figure}[b]\begin{center}\epsfile{file=13-3ia3f2.eps}\end{center}\myfiglabelskip\caption{多レベル圧縮共有データ結合モデル}\label{fig:MultilevelPSDataConnectionModel}\end{figure}PDGは,自然言語の曖昧性・多義性の問題に焦点をあてて設計された形態素・構文・意味レベルの文解析を行うフレームワークである.ターゲットとしている課題は,\mygapskip\begin{itemize}\item[(a)]組み合わせ爆発の回避\item[(b)]生成・制約・選好知識の適切な扱い\item[(c)]多レベル知識のモジュラリティと統合\end{itemize}\mygapskip{\mynoindent}である.この課題に対して,図\ref{fig:MultilevelPSDataConnectionModel}に示す多レベルの圧縮共有データを結合した方式({\bf多レベル圧縮共有データ結合モデル})に基づく解析方式を採用している.各レベルは,入力文に対するそれぞれの解釈記述空間における言語解釈の全てを圧縮共有データ構造の形式で保持する.入力文に近い側を下位,出力に近い側を上位レベルと呼ぶ.各レベルの各解釈は上位・下位のレベルの解釈との対応が取られており(図\ref{fig:MultilevelPSDataConnectionModel}の「対応」でマークした点線),本稿では,これを{\bf解釈リンケージ}と呼ぶ.多レベル圧縮共有データ結合モデルでは,下位レベルの解釈はより上位のレベルの解釈を内包しており,入力文は,全ての解釈を内包している.各レベルにおいて,それぞれ生成・制約・選好知識が存在する.生成知識は,1つ下位のレベルの解釈から現在のレベルの解釈を生成(外延化)する(図\ref{fig:MultilevelPSDataConnectionModel}の$\longmapsto$矢印).制約知識は,現在のレベルの解釈を制限し,選好知識は,現在のレベルの解釈の優先度を設定する.このモデルにより,PDGは次の実現を狙っている.\begin{itemize}\item[(a)]句構造,依存構造等の複数のデータ構造(言語知識の記述ベース)を利用して,形態素,構文,意味の多レベルの知識をモジュール独立性良く扱う.\item[(b)]各レベルで圧縮共有型のデータ構造を用意し各レベルでの全曖昧性を効率良く保持することで基本的に枝刈りをしないで組合せ爆発を抑制する.\item[(c)]入力文から最上位レベルまでの解釈リンケージによりマルチレベルの選好知識(選好スコア)を統合し,精度向上を図る.\item[(d)]文解釈となる依存木を圧縮共有した選好スコア付き圧縮共有データ構造から制約と選好を組み合わせた最適解探索手法により最適解を探索する.\end{itemize}{\mynoindent}一般に各レベルの解釈の内で制約知識を満足する解釈を整合解釈(well-formedinterpretation)と呼ぶ.最適解釈の探索は各レベル毎に定義可能であり,各レベルの選好知識を利用して,そのレベルの最適解釈を取り出すことができる.先に述べたように文解析の深さ,出力をどうするかはアプリケーションが基本的に規定する事項である.例えば,同じ機械翻訳でも文の構造表現として同属言語の場合は句構造表現がよいが,語族が違うと依存構造表現が適切であったりする.また,解釈リンケージを利用することにより,上位レベルで最適な解釈を選択し,その解釈に対応する下位レベルの解釈を下位レベルの最適解釈として取り出す方法も考えられる.例えば,意味解析結果として最適な解釈に基づいたタガーなどが自然に実現できる.\subsection{選好依存文法(PDG)のモデル}\begin{figure}[b]\begin{center}\epsfile{file=13-3ia3f3.eps}\end{center}\myfiglabelskip\caption{PDGの解析モデル}\label{fig:PDGAnalysisModel}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/COM_PDGの圧縮共有データ構造.eps,scale=0.8}\end{center}\myfiglabelskip\caption{PDGの圧縮共有データ構造}\label{fig:PDGPackedSharedDataStructures}\end{figure}PDGの全体モデルを図\ref{fig:PDGAnalysisModel}に示す.{\bf語品詞トレリス}\footnote{単語と品詞の組を語品詞(WPP:WordPosPair)と呼ぶ.単語timeは``time/v'',``time/n''等の語品詞を持つ.},{\bfヘッド付き統語森},{\bf機能依存森},{\bf意味依存森}の4つの圧縮共有データ構造により,それぞれ,語品詞系列,構文木(句構造),機能依存木,意味依存木の解釈の集合を保持する.それぞれを計算する処理を形態素解析,構文解析,構造生成,意味構造化と呼ぶ.各レベルのデータ構造の概要を図\ref{fig:PDGPackedSharedDataStructures}に示す.PDGでは,単語に対する解釈のレベルとして単語,語品詞,{\bf語彙概念}の3階層を採用し,各語に語彙情報として付与されていると想定している.語品詞トレリスは語品詞の隣接関係の解釈を表現する語品詞系列を保持する.ヘッド付き統語森は,後に述べるが,語や句のカテゴリの下位範疇化(あるいは系列関係)を表現する構文解析木を保持する.句構造頻度の選好知識,数の一致などの構文的制約など記述できる\footnote{数の一致などの制約を依存木のレベルで記述することも可能であり,両者で記述してもかまわない.それは実際の文法知識設計の課題である.一般的には制約知識は可能な限り下位のレベルで処理することが無駄な仮説生成の抑制に繋がるため効率的である.}.機能依存森は語品詞間の機能依存関係を表現する機能依存木を保持し,意味依存森は語彙概念間の意味関係を表現する意味依存木を保持する.以下では簡略のため単に依存森と表記した場合は,機能依存森を示す.各レベルのデータ構造に対してそれぞれの選好知識により優先度を与え,これをデータ構造間の対応関係(解釈リンケージ)を通じて統合し,最終的には,最適解釈探索により最も確からしい解釈(意味依存木)が計算される\cite{Hirakawa05d_j}.現在,依存森のレベルまでの処理システムが試作されており,最適解釈探索も依存森に対して行われ依存木を出力するモデルとなっている.意味依存森レベルは今後の課題とし,以下本稿では依存森までのモデルを対象とする.多レベル構成により他のレベルの知識を活用することが可能となる.例えば,依存関係をベースとした単一レベル圧縮共有構造モデルであるCDGは,基本的に全てのノード間に全ての依存関係(仮説)を生成してeliminativeparsingを行う.解釈の枝刈りを行わないという優れた利点があるが生成解釈数が多く効率面で問題があり,改善手法が提案されている\cite{Harper99}.PDGでは依存構造に対して全可能性を有する依存森を生成するが,これは下位レベルの統語森中の解釈\footnote{文脈自由文法により生成され句構造レベルの制約知識により絞り込まれた構文木}のみから派生する依存木であり,句構造レベルの知識の活用による効率化が行える.また,後述するが,句構造の記述体系を利用することにより,non-projectiveな依存構造を導入可能となり,依存構造としての記述能力の向上にもつながっている.以上のようにPDGでは,多レベルの圧縮共有データ構造が重要な役割を果たしている.以下では,PDGの共有データ構造であるヘッド付き統語森,依存森について説明してゆく.\subsection{圧縮共有データ構造の要件}\label{sec:PrerequisitesForPackedSharedDataStructure}多レベル圧縮共有データ結合モデルにおける圧縮共有データ構造には次の性質が必要である.\begin{itemize}\item[(a)]各レベルで組合せ爆発が起こらない\item[(b)]各種レベルの曖昧性を過不足なく表現できる\item[(c)]各レベルでの知識記述のベースとして適切である\item[(d)]各種レベル間の解釈リンケージが取れる\end{itemize}(a)は,実システムを構築する際に特に重要な課題である.一般に解釈の組合せ展開を行うと直ぐに扱いが困難になり,また,計算時間的にも不十分となる.(b)は,多レベルの知識を扱う場合に,各レベルの曖昧性を全て過不足なく表現できること,すなわち共有構造そのものに由来する解釈の枝刈り(あるべき解釈の欠落)や解釈の過生成(あるべきでない解釈の生成)が起こらないという性質である.この性質を保持した上でシステム構築上有効な枝刈りを導入できることは重要な好ましい性質である.(c)は,それぞれのレベルでの知識の記述が行いやすいこと,選好知識と制約知識が適切に扱えることであり\cite{Hirakawa02_j},(d)は各レベルの解釈の対応関係を取ることができるという性質である.\begin{comment}\subsection{句構造と依存構造の併用}文解析を精度良く行なうためには様々な知識を利用する必要がある.従来,文の構造を記述する代表的枠組みとして句構造と依存構造がある.句構造は,品詞への抽象化により語や句の順序に関する知識の記述に優れており,依存構造は語の間の種々の依存関係に関する知識の記述に優れている.それぞれの表現レベルでの制約知識・選好知識の記述を自然な形で可能とするため,PDGでは,句構造形式の共有データ構造(ヘッド付き統語森)と依存構造形式の共有データ構造(依存森)をそれぞれ関連付けて組み込んでいる.これは句構造(C-構造)と機能構造(F-構造)という2つの構文レベルの表現を持つLFG\cite{Kaplan89}において,SUBJECT,OBJECTなど構文的機能に関する制約がF-構造で記述され,文法の記述性を高めているのと類似している\footnote{LFGでは,1つの文解釈であるC-構造とそれから作られるF-構造の制約関係などを規定しているが,文に対する可能なC-構造全体とF-構造全体の扱いについては,特に規定していない点がPDGとの基本的違いである.}.なお,Early法,Chart法といった文脈自由文法の解析アルゴリズムを用いて依存文法を直接解析して依存構造を求める手法も提案されている\cite{Mertens02}が,句構造を作らない点で本手法とは異なっている.\end{comment}\subsection{圧縮共有データ構造の従来技術と問題点}\subsubsection{語品詞トレリスと圧縮共有統語森}語品詞トレリスは,全ての語品詞系列を圧縮共有するデータ構造であり,PDGでもそのまま利用する.構文レベルの解析手法としては文脈自由文法をベースにした解析が広く用いられておりPDGもこれを利用する.文脈自由文法で入力文を解析し文の可能な解釈全体を得る手法は広く知られており,例えば,富田により,グラフスタックを用いた構文解析手法と共に文の句構造解釈(構文木)全体を効率的に保持する圧縮共有統語森(PackedSharedParseForest)が提案されている\cite{Tomita87}.圧縮共有統語森中の構文木は,語品詞トレリス中の語品詞系列と対応関係が取れ多レベル圧縮共有データ結合モデルとして利用可能である.\subsubsection{意味係り受けグラフ}文献\cite{Hirakawa02_j}は,{\bf意味係り受けグラフ}を提案し,係り受けの多義(構文的多義)と係り受け意味関係の多義を効率良く保持する手法を提案した.意味係り受けグラフは,ATN文法を用いて句構造解析を行い係り受け関係を表す依存グラフを生成し,そこから意味係り受け関係を表す意味係り受けグラフを生成する.意味係り受けグラフは,修飾語が被修飾語の左に位置する,英語などに比べ品詞多義は殆どないという日本語の特徴を前提に設計されているため,多品詞を扱えないなど英語などに適用できないという汎用性に関する問題を有しており,PDGの圧縮共有データ構造としては採用しない.\subsubsection{構文グラフ/排他マトリックス}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF構文グラフ例.eps,scale=0.79}\end{center}\myfiglabelskip\caption{例文に対する構文グラフと排他マトリックス}\label{fig:KoubunGraph}\end{figure}Seoは,文の句構造解釈全体と対応する依存構造全体を効率良く保持する方法として{\bf構文グラフ}(SyntacticGraph)を提案した\cite{Seo89,Rim90}.構文グラフは,PDGの共有データ構造として有望であったが,大きな問題もありそのまま採用することはできないことが判明した.構文グラフは,単語間の依存関係をベースに文の可能な解釈を圧縮共有する枠組みである.構文グラフは,語品詞に対応するノードとノード間の依存関係を表現する名前付きアークで構成される有向グラフであり,{\bf排他マトリックス}(EM:ExclusionMatrix)と呼ばれるデータと組になって,入力文に含まれる依存構造の集合(文の解釈の集合)を表現する.構文グラフは,3次組(Triple)と呼ばれる,アーク名とその両端のノード(語品詞,表層位置などを持つ)の組からなる集合で表現される.図\ref{fig:KoubunGraph}は,``Timeflieslikeanarrow''に対する構文グラフ/排他マトリックスである.アークの括弧中の番号はそのIDである.1つのノードに入る複数のアークは修飾の曖昧性を表現している.Sは,開始記号に相当する\footnote{本稿では係り受け解析の慣習に従ってアークの方向を記述する.構文グラフとは逆向きであるが本質的な差はない.}.排他マトリックスは,構文グラフを構成するアークを行・列とし,アーク間の共起制約を記述するために導入されている.排他マトリックスの$i$行$j$列が1である場合には,$i$番目と$j$番目のアークは,いかなる解釈(依存木)においても共起しない.構文グラフ/排他マトリックスは,統語森に基づいたデータ構造から生成される.PDGでも同じデータ構造を用いており,これをヘッド付き統語森と呼ぶ.ヘッド付き統語森の詳細は,\ref{sec:datastructure}章で述べる.なお,以下では,単に統語森と言った場合はヘッド付き統語森を意味し,従来の統語森はヘッド無し統語森と記述することとする.文献\cite{Seo89}では,統語森と構文グラフ/排他マトリックス間の完全性(completeness),健全性(soundness)について言及している.完全性は,「統語森中の1つの構文木が存在した時に,構文グラフ/排他マトリックス中にそれに対応する依存木が存在する」という性質であり,健全性は,「構文グラフ/排他マトリックス中の1つの依存木が存在した時に,統語森中にそれに対応する構文木が存在する」という性質である.構文グラフ/排他マトリックスの完全性が成立することは示されているが,健全性については保証されていない.排他マトリックスは,3次組の間の共起関係を規定しているが,ある1つの構文木に対応する依存木が存在した場合,その依存木に含まれる3次組の間の共起排他制約を排他マトリックスから除外するという方法で構成される.排他マトリックスは,全ての依存構造の解釈を規定するため,この除外された共起排他制約が他の全ての解釈(依存木)において制約として必要でない場合にのみ健全性が保証されることになる.付録1に構文グラフで健全性が破綻する例を示す.
\section{PDGにおける共有データ構造}
label{sec:datastructure}PDGでは,前節で述べた従来手法の問題を解決するデータ保持方式として,文脈自由文法の構文構造の保存方式としてヘッド付き統語森を採用し,依存構造の保存方式として依存森を提案する.\subsection{ヘッド付き統語森}{\bfヘッド付き統語森}は統語森の一種であり,適用された書き換え規則に対応する弧(edge)から構成され,次の条件を満足する構文木を圧縮共有する.\begin{itemize}\item[(a)]句の非終端記号(カテゴリ)が同じ\item[(b)]句の被覆する単語範囲が同じ\item[(c)]句ヘッドとなる主構成素(語品詞)が同じ\end{itemize}(a),(b)の2つがヘッド無し統語森の共有条件である\cite{Schiehlen96}.ヘッド付き統語森中の構文木は,統語森中の構文木と対応が取れる.PDGにおける弧とヘッド付き統語森の具体例は構築アルゴリズムと共に\ref{sec:construction}章で述べる.\subsection{依存森}{\bf依存森}は,{\bf依存グラフ}(DG:DependencyGraph)と{\bf共起マトリックス}(CM:Co-occurrenceMatrix)より成る.以下,依存森の構造と依存木について説明する.\subsubsection{依存グラフと共起マトリックス}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_TimeFliesに対する初期依存森.eps,scale=0.75}\end{center}\myfiglabelskip\caption{``Timeflieslikeanarrow''に対する初期依存森}\label{fig:IDF}\end{figure}図\ref{fig:IDF}は,``Timeflieslikeanarrow''に対する依存森の例である.依存グラフは,語品詞に対応するノードと1つのルートノードrootならびに,ノード間の依存関係を表現する名前付きアークより構成される.依存グラフは,rootをルートノードとする有向グラフであり,実際には,アークとその両端のノードの組からなる{\bf依存片}(dependencypiece)\footnote{依存片とアークは1対1対応するので,特に区別の必要がない場合は依存片をアークと記述する.}の集合として表現する.アークは,アーク名とIDを有す.アークの元側を{\bf依存ノード}(dependentあるいはmodifier),先側を{\bf支配ノード}(governorあるいはmodificand)と呼ぶ.また,ノードには,表層位置などの情報も含まれている.アークの数を{\bf依存森のサイズ}と呼ぶ.また,依存グラフの部分集合で木構造を成すアーク集合が依存木であり,文や句の解釈を表現する.依存グラフは複数の依存木を含む圧縮共有データ構造となっている.共起マトリックスは,アークIDで示されたアーク集合を行と列に取り,アーク間の共起関係を規定する.共起マトリックスCM($i$,$j$)が○の場合に限り,アーク$i$と$j$は1つの依存木(解釈)において共起可能であるという制約を表現する.共起関係は双方向関係であり,CMは対称行列となる.\subsubsection{整依存木}依存森中の依存木のうち次の整依存木条件を満たす依存木を{\bf整依存木}(Well-formedDependencyTree)と呼ぶ.\begin{definition}\label{def:WellFormedDepTree}{\bf整依存木条件}とは,次の3つの条件(a)〜(c)全体をいう.\begin{itemize}\item[(a)]表層位置が同じノードは存在しない({\bf語品詞単一解釈条件})\item[(b)]入力文の単語と,入力文に対応する依存木のノードの間に1対1対応が取れる({\bf被覆条件})\item[(c)]共起マトリックスにおいて共起関係が成立する({\bf整共起条件})\end{itemize}\end{definition}(a)(b)の2つを纏めて{\bf整被覆条件}と呼び,これを満たす木を{\bf整被覆木}(Well-coveredDependencyTree)と呼ぶ.また,(c)を満たす依存木を{\bf整共起依存木}(Well-cooccurredDependencyTree)と呼ぶ.整依存木の集合が入力文に対する解釈の集合となる.図\ref{fig:IDF}の依存森では,「時は矢のように過ぎる」,「時ハエは矢を好む」,「矢のようにハエを計れ」,「矢のようなハエを計れ」に対応する4つの整依存木が存在する.なお,ノード1つからなる依存木(アークが存在しない)も,整依存木として扱う.この場合のみ依存木はノード1つからなる集合となる.\subsubsection{初期依存森と縮退依存森}複数の解釈に対するアークの共有の度合いによって,同じ依存木の集合を表すサイズの異なった複数の依存森を構成可能である.詳細は後述するが,PDGでは,{\bf初期依存森}(InitialDependencyForest)と,それから変換して得られる{\bf縮退依存森}(ReducedDependencyForest)の2種を扱う.それぞれ,{\bf初期依存グラフ}と{\bf初期共起マトリックス},ならびに,{\bf縮退依存グラフ}と{\bf縮退共起マトリックス}よりなる.単に依存森と呼んだ場合は,通常後者を示す.図\ref{fig:IDF}の初期依存グラフは,図\ref{fig:KoubunGraph}の構文グラフと比較すると,``fly/n''と``time/v''の間のアーク数が異なっている.対応する縮退依存森については後述する.
\section{統語森と依存森の生成}
label{sec:construction}PDGでは,形態素解析,構文解析,統語森・初期依存グラフの生成,縮退依存森導出の順で解析が進む.本稿では,形態素解析処理については省略し,構文解析以降について述べる.\subsection{文法規則}\label{sec:bunpoukisoku}PDGにおいて文法規則は,可能な句構造の定義と,句構造から依存構造へのマッピングとを規定する拡張文脈自由文法(extendedCFG)で記述される.文法規則は,次の形式をしている.\mygapskip{\mynoindent}y/$Y\rightarrow$x$_1$/$X_1$,$\ldots$,x$_n$/$X_n$:[arc($arcname_1$,$X_i$,$X_j$),$\ldots$,arc($arcname_{n-1}$,$X_k$,$X_l$)](0$<i$,$j$,$k$,$l{\leq}n$){\mynoindent}[例]vp/$V\rightarrow$v$/V$,np$/NP$,pp$/PP$:[arc(obj,$NP$,$V$),arc(vpp,$PP$,$V$)]\mygapskip{\mynoindent}規則は,``:''で区切られた{\bf書き換え規則部}と{\bf構造構築部}よりなる.書き換え規則の左辺の``y/$Y$''及び{\bf構成素}(constituent)``x$_i$/$X_i$''は,``{\bf構文カテゴリ}/{\bf構造変数}''を表す.$Y$は{\bf句ヘッド}(phrasehead)と呼ばれ,主構成素(headconstituent)に相当し,{\bf規則ボディ}(rulebody)である``$X_1{\ldots}X_n$''のいずれかと同一となる.構造構築部は,``arc(アーク名,構造変数1,構造変数2)''という形式のアークの集合であり\footnote{部分依存構造はアークの集合であるがプログラムの都合上リスト形式としている.本稿ではプログラム出力等の場合は[]で集合を表現する場合もある.},構造変数には,書き換え規則部の構成要素の句ヘッドとなる語品詞が束縛される.例は,$V$をヘッドとし,objアークで$NP$が,vppアークで$PP$が接続する依存構造を示している.規則中の部分依存構造は,次の部分依存構造条件を満足する整部分依存構造である.\begin{definition}\label{def:DSCondition}{\bf部分依存構造条件}とは次の2つの条件(a),(b)全体をいう.\begin{itemize}\item[(a)]主構成素に対応する句ヘッド$Y$をルートとする木構造である.(非主構成素は,他の構成素と依存関係(アーク)を持つ)\item[(b)]規則ボディの構成素の句ヘッドは,部分依存構造をなす木構造の構造変数と1対1対応が取れる\end{itemize}\end{definition}例文``Timeflieslikeanarrow''を解析するための文法規則と辞書を図\ref{fig:ExampleGrammar}に示す.規則(R0)は,規則ヘッドをroot,規則ボディをスタートシンボル(s)とし,{\bfトップノード}[root]-xを導入する特殊な規則であり,ルート規則と呼ぶ.ルート規則は,統語森のルートとなる弧と依存森のトップノードをそれぞれ1つにするために導入している\footnote{この規則は,PDGの完全性・健全性を保証するだけであれば本質的には不要である.}.\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF例文TimeFlyに対する文法規則.eps,scale=0.84}\end{center}\myfiglabelskip\caption{例文を解析する文法規則と辞書}\label{fig:ExampleGrammar}\end{figure}\subsection{構文解析}\label{sec:konokousei}PDGの構文解析は,本稿では,Bottom-upChartParsingのアルゴリズムをベースに,依存構造の生成が可能となるよう,弧の構成やアルゴリズムを拡張することにより実現している.\subsubsection{弧の構成と例}ChartParsingにおいて,弧は,{\bf始点}(FP),{\bf終点}(TP),{\bf規則ヘッド頂点}(C),{\bf既存構成素列}(FCS),{\bf残り構成素列}(RCS)の5次組$<$FP,TP,C,FCS,RCS$>$から構成される.文法規則のヘッドは,規則ヘッド頂点に,規則ボディは,既存構成素列と残り構成素列に対応し,ドット(・)で規則ボディ内の区切りを表現し,次の例のような形式で図式的に表現される.$<$0,1,s$\rightarrow$np・vppp$>${\mynoindent}この弧は,文法規則``s$\rightarrow$npvppp''から生成される例であり,FP=0,TP=1,C=s,FCS=[np],RCS=[vp,pp]である.また,入力単語に対する辞書の検索結果は,次の例のように,品詞をヘッドとし、単語をボディとする不活性弧として表現される.$<$0,1,n$\rightarrow$[time]・$>$\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF弧の構成と例.eps,scale=0.85}\end{center}\myfiglabelskip\caption{弧の構成と例}\label{fig:ArcStructure}\end{figure}PDGの構文解析では,文法規則の部分依存構造に対する処理と複数の弧の圧縮共有処理の2点で拡張を行っている.依存構造構築のため,通常のChartParsingの弧に句ヘッド(PH)と部分依存構造(DS)を追加しており,模式的に示すと次のようになる.通常の弧:$<$0,1,s$\rightarrow$np・vppp$>$PDGの弧:$<$0,1,s/PH$\rightarrow$np/NP・vp/PHpp/PP:DS$>${\mynoindent}\ref{sec:bunpoukisoku}節で述べたように,PHが句ヘッド(ノード),DSが部分依存構造(アーク集合)を示す.また,詳細は後述するが,不活性弧については圧縮共有を行うため,複数の弧を1つに纏めた{\bf圧縮弧}というデータ構造を利用する.圧縮弧は,既存構成素列(FCS)と部分依存構造(DS)の部分を,それぞれのリストに拡張したものである.圧縮弧に対して,1つの構成素列と部分依存構造を持つ弧を{\bf単一弧}と呼ぶ.圧縮弧は,共有可能な単一弧の集合と等価である.次にこれらの対応関係を模式的表現で例示する.単一弧:$<$0,5,s/PH$\rightarrow$np/NPvp/PHpp/PP・:DS1$>$$<$0,5,s/PH$\rightarrow$np/NPvp/PH・:DS2$>$圧縮弧:$<$0,5,s/PH$\rightarrow$[[np/NPvp/PHpp/PP],[np/NPvp/PH]]・:[DS1,DS2]$>${\mynoindent}この例で,PHは句ヘッド,[np/NPvp/PHpp/PP],[np/NPvp/PH]は構成素列,DS1,DS2は部分依存構造を示している.以下では簡便のため,圧縮弧は``E'',``$<$E${\ldots}>$'',「弧E」などで,単一弧は``e'',``$<$e${\ldots}>$'',「弧e」などで示す.曖昧でない場合や区別が必要でない場合などは単に「弧」とも記述する.また,不活性弧は,記号の前に*をつけて表現する.弧*Eは不活性圧縮弧,弧*eは不活性単一弧を示す.以下で示すPDGの構文解析は,圧縮弧のデータ形式で行われる.図\ref{fig:ArcStructure}に圧縮弧の構成を示す.圧縮弧は8次組で構成されている.FCSLとDSLは同じ長さのリストであり,i番目の要素を取り出した(FCS$_i$,DS$_i$)を{\bfCSDSペア}と呼ぶ.CSDSペアは,上記の単一弧に対応している.図\ref{fig:ArcStructure}の弧E1〜*E3は,名詞句規則に対応する弧が解析が進むにつれて生成されてゆく例である.弧*E3は,``anarrow''をnpとして解釈し,部分依存構造として\{arc(det-14,[an]-det-3,[arrow]-n-4)\}を持つ不活性弧(RCSが[])である.[arrow]-n-4は,単語[arrow],品詞n,位置4のノードである.弧*E4は,複数の解釈を持つ弧の例である.FCSLの2要素とDSLの2要素がそれぞれ対応し,([103,169]\{obj-25\}])\footnote{obj-25は略記であり,実際はarc(obj-25,[flies]-n-1,[time]-v-0)である.}と([103,119,165]\{obj-4,vpp-20\})の2つのCSDSペアが存在している.弧@E5のような,辞書引きにより生成される不活性弧は{\bf語彙弧}(lexicaledge)と呼ぶ.語彙弧の部分依存構造は,ノード1つからなる集合である.語彙弧は@をつけて@E,@eの様に表現する.\subsubsection{構文解析アルゴリズム}\begin{figure*}[b]\begin{center}\epsfile{file=\myfigdir/DFパースアルゴリズム.eps,width=\textwidth}\end{center}\myfiglabelskip\caption{PDGボトムアップチャートパージングアルゴリズム}\label{fig:ChartAlgotithm}\end{figure*}図\ref{fig:ChartAlgotithm}にPDGの構文解析アルゴリズムを示す.基本構成は,Agendaを用いた一般的なChartParsingアルゴリズム\cite{Winograd83}であり,先頭から順次入力単語を語彙弧化してAgendaに追加処理する処理((a),(b))とAgendaが空になるまでAgenda中の不活性弧に対して文法規則ならびにChart中の活性弧から可能な弧を生成・展開する弧の{\bf結合}の処理((e),(f))より成る.Agenda中の弧は,Chart中の弧と共有可能かどうかが判定され((c),(j)),共有可能な場合はマージされる((d))ことにより,圧縮共有が行なわれる.基本的に一般的なアルゴリズムであり,詳細な説明は省略するが,次にPDG特有の依存構造の構築の部分について説明する.本アルゴリズムは,弧を生成しながら弧の部分依存構造を構築する.これは句ヘッド(ノード)と依存構造中の構造変数を束縛することで実現される.この変数束縛は,不活性弧と文法規則から新しい弧が生成される時点((g)),ならびに,不活性弧とChart中の活性弧により新しい弧が生成される時点((h)),すなわち弧の結合が生じる時点で,bind\_varにより不活性弧の句ヘッドが他方の弧の残り構成素列の先頭の構造変数に束縛されることで行なわれる.さらに,この変数束縛により依存ノードと支配ノードの両方が束縛されたアーク({\bf確定アーク}と呼ぶ)に対して,add\_arcidによりユニークなアークIDが付与される((i)).図\ref{fig:ArcStructure}の弧E2の変数\$2にノード[arrow]-n-4が束縛されると弧*E3になる.それぞれの弧は弧IDで関連付けられており,弧からその下位の弧(構成要素に対応)を順次辿れる.図\ref{fig:ArcStructure}の弧*E3では,弧\#160(弧IDが160の弧)は,``np$\rightarrow$det,n''の規則から生成された弧であり,既存構成素列[153,156]は,弧\#153が文法規則中の構成素detに,弧\#156が構成素nに対応することを示している.また,弧*E4のように複数の既存構成素列を持つ弧は,merge\_csds((d))により生成される.構文解析に成功した場合には,Chartには句ヘッドが[root]-xで文全体を被覆する不活性弧が1つ存在する.これを{\bfルート弧}(rootedge)と呼ぶ.\subsection{統語森・初期依存森の生成}\label{sec:PFandDFseisei}構文解析後のChartは,活性弧,不活性弧より成る.この集合に対して,不活性弧*Eから辿れる弧の集合をhpf(*E)と記述する.ルート弧を*E$_{root}$とした時,統語森はhpf(*E$_{root}$)となる.ルート弧から到達できない不活性弧も存在するため,hpf(*E$_{root}$)はChart中の不活性弧全体の部分集合となる.初期依存グラフは,統語森中のアークの集合であり,hpf(*E$_{root}$)と同時に求められる.また,初期共起マトリックスも同時に求められる.図\ref{fig:HPF_IDF_Algorithm}に統語森・初期依存森を求めるアルゴリズム,また,図\ref{fig:PDGParseForest}に,図\ref{fig:ExampleGrammar}の文法を用いて例文を構文解析した結果得られる統語森を示す.統語森を構成する全ての弧は不活性弧であるため,残り構成素列([])は省略している.なお,統語森の圧縮弧の数を{\bf統語森のサイズ}と呼ぶ.弧の同一性において句ヘッドを考慮しているため(図\ref{fig:ChartAlgotithm}(j))ヘッド付き統語森のサイズは,ヘッド無し統語森のサイズ以上となる.\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF統語森依存森アルゴリズム.eps,scale=0.82}\end{center}\myfiglabelskip\caption{統語森・初期依存森を求めるアルゴリズム}\label{fig:HPF_IDF_Algorithm}\end{figure}\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DFヘッド付き統語森.eps,scale=0.95}\end{center}\myfiglabelskip\caption{``timeflieslikeanarrow''に対する統語森}\label{fig:PDGParseForest}\end{figure}図\ref{fig:HPF_IDF_Algorithm}のアルゴリズムは,try\_edge,try\_FCSL,try\_CSの3つの関数を再帰的に呼びながら,それぞれの引数(圧縮弧,構成素列リスト,構成素列)の下位の要素(構成素列リスト,構成素列,圧縮弧)を深さ優先で重複を避けてトラバースする構成となっている((d),(h),(j)).それぞれの関数の実行後は,その引数に対する統語森HPF,依存グラフDG,共起マトリックスCMの要素や値が追加設定されている.try\_edge(E),try\_FCSL(FCSL),try\_CS(CS)が返すアーク集合中のアークをそれぞれ弧E,構成素列リストFCSL,構成素列CSが{\bf支配するアーク}と呼ぶ.全体に対する処理は,図\ref{fig:HPF_IDF_Algorithm}の(a)の``try\_edge(ルート弧)''である.try\_edgeでは,(b)で既に実行済みか否かを判定し,実行済みの場合は,TERに記録済みのアーク集合を取り出して返す.TERへの登録を行なうのは(g)である.HPFに弧が追加されるのは,(c)と(e)においてである.(f)にあるように,弧Eが支配するアークは,弧EのDSL中のアークとFCSLの支配するアークの和集合である.try\_FCSLは,複数のCSDSペアを処理し,try\_CSは,その中の1つのCSを処理する.(i)にあるように,FCSLの支配するアーク集合は,その要素であるCSが支配するアークの和集合である.また,(k)にあるように,CSの支配するアーク集合は,その要素である圧縮弧が支配するアークの和集合である.\begin{figure}[tbh]\begin{center}\epsfile{file=\myfigdir/DF関数実行.eps,scale=0.9}\end{center}\myfiglabelskip\caption{アルゴリズムの実行例}\label{fig:TryEdgeFunctionExecution}\end{figure}図\ref{fig:PDGParseForest}の弧\#170を例に処理の具体例を図\ref{fig:TryEdgeFunctionExecution}に示す.(c\#)は関数の呼び出し,(r\#)はその結果(支配するアーク集合)を示す.(c1)〜(c4)は,図\ref{fig:HPF_IDF_Algorithm}(j),(d),(h)の再帰呼び出しである.弧\#103は語彙弧であるため,(c4)は(r4)の\{\}を返す.(c3)の処理が終了し(r3)を得ると,(c2)の2番目のCSDSペア([103,119,165],\{obj-4,vpp-20\})に対する処理(c5)が行なわれる.(c6)で再度``try\_edge(弧\#103)''が実行されるが,この時は,図\ref{fig:HPF_IDF_Algorithm}(b)でTERに保存された計算結果を検索して返す.最終的に(r1)が得られる.ここで,共起マトリックスの生成処理について説明する.共起マトリックスは,1つの構文木に同時に含まれるアークの間に共起可能性を設定するよう,次の共起設定条件により設定される.\begin{definition}\label{def:CoocCondition}{\bf共起設定条件}とは次の3つの条件(CM1),(CM2),(CM3)のいずれかをいう.\begin{itemize}\item[{\mysmallitemindent}(CM1)]\1つの部分依存構造DS中のアークは共起する\item[{\mysmallitemindent}(CM2)]\CSDSペア(CS,DS)において,CSが支配するアークは,DS中のアークと共起する\item[{\mysmallitemindent}(CM3)]\1つの構成素列CSが支配するアーク間には共起関係がある\end{itemize}\end{definition}これはそれぞれ図\ref{fig:HPF_IDF_Algorithm}のCM処理(1)〜(3)に対応している.弧\#170の例では,try\_FCSLの処理で2番目のCSDSペア([103,119,165],\{obj-4,vpp-20\})に対してCM処理(1)で(CM1)すなわちset\_CM(\{obj-4,vpp-20\},\{obj-4,vpp-20\})が実施される.また,CM処理(2)では,A\_CSは図\ref{fig:TryEdgeFunctionExecution}(r5)となり,(CM2)すなわちset\_CM(\{obj-4,vpp-20\},\{pre-15,det-14\})が実施される.また,try\_CS([103,119,165])の処理において,CM処理(3)により(CM3)すなわち弧\#103,\#119,\#165が支配するアーク間の共起関係のCMへのセットが行われる.例題に対するアルゴリズムの出力は,図\ref{fig:PDGParseForest}の統語森ならびに図\ref{fig:IDF}の初期依存森となる.弧\#181,\#176,\#174は,同じ非終端記号sと句の範囲(0から5)を持つが,句ヘッドとなるノードが異なるため共有されておらず,ヘッド無し統語森とは異なっている.\subsection{縮退依存森の生成}初期依存森には,図\ref{fig:IDF}におけるobj4とobj25のようにアークID以外は同一のアークが存在することがあり,これを{\bf同値アーク}と呼ぶ.同値アークは,1つの文法規則から生成されたり,複数の文法規則から生成されたりする.例えば,obj4とobj25は,図\ref{fig:ExampleGrammar}の(R9),(R10)の構成素列``vpnp''の部分から生成されている.(R9),(R10)は,前置詞句の有無という差はあるが,``vpnp''の関係は2つの規則で同一であり,依存構造の解釈という観点から同値アークは等価であると言える\footnote{文法規則の記法に任意要素を表す記号\{\}を導入すれば(R9),(R10)をvp/$V$$\rightarrow$v/$V$,np/$NP$,\{pp/$PP$\}:[arc(obj,$NP$,$V$),arc(vpp,$PP$,$V$)]のように1つの規則に統合できる.この規則からは同値アークは生成されない.}.同値性を扱うために,いくつかの定義を行う.ID付きアークのアークIDを``?''と置換したアークを{\bf汎化アーク}と呼ぶ.アークを全て汎化した依存木を{\bf汎化依存木}と呼ぶ.通常のID付きのアークからなる依存木を明示する時は{\bfID付き依存木}と記述する.また,アークXの汎化アークを?X,依存木DTの汎化依存木を?DTのように記述する.汎化依存木が等しい2つのID付き依存木は{\bf同値である}と言う.縮退依存森は,初期依存森を縮退することで得られる.依存森の縮退とは,依存森の健全性を保持しながら複数の同値アークを1つにマージする操作であり,結果として依存森のサイズは小さくなる.\subsubsection{同値アークのマージ操作}依存グラフDG中の同値アーク$X$,$Y$(equiv($X$,$Y$)と記述する)に対する{\bfマージ操作}を次のように定義する.\begin{definition}マージ操作\begin{itemize}\item[(1)]依存グラフDGより,$Y$を削除して新たな依存グラフDG'を得る.(DG'=DG$-\{Y\}$)\item[(2)]アーク$I$($I{\in}$DG,$I{\neq}X$,$I{\neq}Y$,CM($Y$,$I$)=○)に対して,set\_CM($X$,$I$)を行なうことにより共起マトリックスCMより新たな共起マトリックスCM'を得る.\end{itemize}\end{definition}マージ操作によりDG',CM'からなる新たな縮退依存森が得られる.図\ref{fig:ArcMerge}にマージの例を共起マトリックスの形式で模式的に示す.以下の議論で依存木の集合やアークの集合などを定義するが,マージ操作の前後の区別を示す場合には,``wrtDG,CM''あるいは``wrtDF''(wrt:withrespectto)の表現を付けて示す.例えば,以下で定義するアーク$X$を含む整依存木の集合dts($X$)に対して,``dts($X$)wrtDG,CM'',``dts($X$)wrtDG',CM'''はそれぞれマージ前と後の依存森に対する集合を示し,``dts($X$)wrtDG,CM=dts($X$)wrtDG',CM'''は,マージの前後でdts($X$)の値が同じことを示す.簡便のため,以下では``wrtDG,CM''の部分は基本的に省略している.初期依存グラフの全同値アークをマージする\footnote{これは構文解析時に同値アークを共有することと同じである.}と構文グラフと同じ構造になり,健全性を保てなくなる.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DFマージ操作.eps,scale=0.54}\end{center}\myfiglabelskip\caption{同値アークペア(X,Y)のマージ操作の例}\label{fig:ArcMerge}\end{figure}\subsubsection{同値アークのマージ条件}依存森の縮退の定義より,依存森の健全性を保持すること,すなわち,同値アークのマージの前後で新規の汎化依存木(新規の解釈)が生成されないことが縮退の条件である.\mygapskip\mynoindent{\bf[同値アークのマージ条件]}{\mynoindent}「同値アークX,Yのマージ前後の依存森をそれぞれDF,DF'とした時,縮退条件は,``DF中の汎化整依存木集合$=$DF'中の汎化整依存木集合''である.」{\mygapskip}{\mynoindent}この条件は,依存森DF'に新規の汎化依存木が存在しないことを検証することで検証できる.今,DFに対してDF'に新規の汎化依存木が存在するための条件を{\bf汎化依存木の増加条件}とすると,同値アークのマージ条件は,「汎化依存木の増加条件が満足されないこと」と等しい.依存森はID付きアークより構成されているため,ID付き依存木の集合と(それから得られる)汎化依存木の集合の2つを規定している.今,DFに対してDF'に新規のID付き依存木が存在する条件を{\bfID付き依存木の増加条件}(``DF中のID付き整依存木集合${\neq}$DF'中のID付き整依存木集合'')とする.ID付き依存木が増加しなければ汎化依存木の増加はなく,また,ID付き依存木が増加してもそれがDF中のID付き依存木と同値であれば汎化依存木の増加は起こらない.すなわち,ID付き依存木の増加条件は汎化依存木の増加条件の必要条件である.以下では,まず,ID付き依存木の増加条件を検証し,次に汎化依存木の増加条件を検証するという考え方で同値アークのX,Yのマージ条件を詳細化する.\subsubsection{ID付き依存木の増加条件}\label{subsec:IDDTZoukaJuoken}新たな(ID付き)整依存木の増加は,同値アークのマージにより新たにアーク間に共起関係が許されることに起因する.アークU,Vに対してCM(U,V)${\neq}$○がCM(U,V)$=$○に変化することを{\bfアークペア(U,V)の許諾}と呼び,次が成立する.\begin{lemma}[アークペアの許諾と整依存木の増加]\label{lem:ArcPairAndNewTree}アークペア(U,V)の許諾により新たな整依存木が増加する場合,その依存木はU,Vを要素として含んでいる.\end{lemma}{\mynoindent}補題\ref{lem:ArcPairAndNewTree}は,もしU,Vの許諾によりUとVの両方を同時に含まない新しい依存木が生成されると仮定するとその依存木は許諾の前でも存在してしまうことになることから明らかである.\mygapskip{\mynoindent}ここで,同値アークX,Yに対してuniq,diffを次のように定義する.\\\hspace{8mm}uniq(X,Y)=\{$I$${\mid}$CM(X,$I$)=○,CM(Y,$I$)${\neq}$○,$I{\in}$DG\}\\\hspace{8mm}diff(X,Y)=\{($I$,$J$)${\mid}$$I{\in}$uniq(X,Y),$J{\in}$uniq(Y,X)\}\\図\ref{fig:ArcMerge}の例では,uniq(X,Y)=\{j,n\},uniq(Y,X)=\{k\},diff(X,Y)=\{(j,k),(n,k)\}となる.一般に次が成立する.\begin{lemma}[新規の整依存木の含むアーク]\label{lem:ArcsInNewTree}同値アークX,Yのマージにより新たに整依存木が生成される場合には,その依存木は少なくとも1つの(A,B)$\in$diff(X,Y)であるA,Bを含む.\proof{X,Yのマージ前後の依存森をそれぞれDF,DF'とする.X,Yのマージで生じるアークペア(X,B$_i$)の許諾により新たな依存木DT$_x$が得られたとすると,補題\ref{lem:ArcPairAndNewTree}より,X,B$_i$は,DT$_x$の要素である.ここで,R$=$DT$_x-$\{X,B$_i$\}とする.U${\in}$Rを考えると,DT$_x$は整依存木であるからCM(X,U)$=$○wrtDF',CM(B$_i$,U)=○wrtDF'である.今,CM(Y,U)${\neq}$○wrtDFであるアークUが存在しない,すなわちCM(Y,U)$=$○wrtDF,U${\in}$Rを仮定すると,DT$_y$=\{Y,B$_i$\}+Rは,共起条件を満足する整依存木となる.DT$_x$とDT$_y$は,同値アークX,Yが異なるだけなので,DT$_x$は新たな依存木ではない.よって,新たな依存木DT$_x$には少なくとも1つCM(Y,U$_i$)${\neq}$○wrtDFなるU$_i$が存在する必要がある.(B$_i$,U$_i$)${\in}$diff(X,Y)であるので補題が成立する.}\end{lemma}{\mynoindent}補題\ref{lem:ArcsInNewTree}より,次のID付き依存木の増加条件が成立する.\begin{theorem}[ID付き依存木の増加条件]\label{the:IDedDepTreeIncreaseCond}DG,CMにおいて同値アークX,Yに対するアークペア(A,B)${\in}$diff(X,Y)とした時,YをXにマージして得られるDG',CM'において,\{X,A,B\}を含むID付き整依存木NDTが存在する時,またこの時に限り,ID付き依存木は増加する.\proof{新規に生成される整依存木は必ず\{X,A,B\}を含むこと,\{X,A,B\}を含む整依存木は必ず新規解であることを示せばよい.今,DG',CM'中の新たなID付き依存木をNDTとすると,補題\ref{lem:ArcsInNewTree}より,少なくとも1つのアークペア(A$_i$,B$_i$)${\in}$diff(X,Y),A$_i{\in}$NDT,B$_i{\in}$NDTが存在する.また,補題\ref{lem:ArcPairAndNewTree}より,X${\in}$NDTである.よって,新規に生成される整依存木は必ず\{X,A,B\}を含む.また,(A,B)${\in}$diff(X,Y)より\{X,A,B\}を含むID付き整依存木はDG,CMに存在しない.よって,\{X,A,B\}を含むID付き整依存木は必ず新規に生成される整依存木である.}\end{theorem}{\mynoindent}以下で解の増加条件を詳細化するため,ここでいくつかの関数や記法を導入する.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\begin{itemize}\item[\myitemindentsame\_position($U$,$V$)]:アーク$U$,$V$の依存ノードの位置が等しい\item[\myitemindentdts($S$)wrt$DG$,$CM$]:$CM$の共起制約を満たしながら,アーク集合$S{\subset}DG$から得られるID付き整依存木の集合\item[\myitemindentco($U$)wrt$DG$,$CM$]:アーク$U$あるいは$U$と共起するアーク集合,\{$X$${\mid}$$X$=$U$またはCM($X$,$U$)=○,$X{\in}DG$\}である.\item[\myitemindentdts\_with\_arcs($A_1$,$A_2$,${\ldots}$,$A_n$)wrt$DG$,$CM$]:$DG$,$CM$中の整依存木でアーク$A_1$,$A_2$,${\ldots}$,$A_n$を含む整依存木の集合,すなわち,dts(co($A_1$)${\cup}{\cdots}{\cup}$co($A_n$))wrt$DG$,$CM$である.\end{itemize}\myhalfskip\end{minipage}}\myhalfskip{\mynoindent}同値アークX,Yに対するdiff(X,Y)中のアークペア(A,B)に関するID付き依存木の増加条件の判定は,定理\ref{the:IDedDepTreeIncreaseCond}よりX,A,Bを含む整依存木がDG',CM'に存在するか探索することにより基本的に実現できる.これをできるだけ効率的に行うため,X,A,Bに関して次の3つの場合に分けて考える.\begin{itemize}\item[\myitemindent(RC1)]\same\_position(A,B)またはsame\_position(X,A)またはsame\_position(X,B)が成立.\item[\myitemindent(RC2)]\CM(A,B)${\neq}$○である.\item[\myitemindent(RC3)]\(RC1)(RC2)以外の場合.\end{itemize}{\mynoindent}(RC1)が成立する場合は,整依存木の整被覆条件によりアークが排他関係となりX,A,B全てを含む整依存木は存在しないと判定できる.(RC2)の場合は,マージ後でもCM'(A,B)${\neq}$○であるためDG',CM'において\{X,A,B\}を含む整依存木は存在しないと判定できる.(RC3)の場合は\{X,A,B\}を含む整依存木が存在しない,すなわち,dts\_with\_arcs(X,A,B)wrtDG',CM'$=$\{\}の判定を行えば良い.\subsubsection{汎化依存木の増加条件}既に述べたようにID付き依存木の増加条件は汎化依存木の増加条件の必要条件である.このため,ID付き依存木の増加条件を満たす場合,すなわち,dts\_with\_arcs(X,A,B)wrtDF'($=$New\_DTsとする)${\neq}$\{\}の場合に,NDT${\in}$New\_DTsに対して,NDTが汎化依存木の増加となっている場合にのみ汎化依存木の増加が生じる.逆に言えば,NDTがDF'に存在した場合でも,汎化依存木?NDTがDFに存在していれば,汎化依存木の増加は起こらない.これより,ID付き依存木が増加する場合における同値アークのマージ条件は次のようになる.\mygapskip{\mynoindent}「同値アークX,Yのマージ前後の依存森DF,DF'に対して,新規に増加するDF'中のID付き依存木DT$_{new}$に対して,?DT$_{new}$=?DTなるID付き整依存木DTがDFに存在する」\mygapskip\subsubsection{依存森の縮退アルゴリズム}\begin{figure}[bt]\begin{center}\epsfile{file=\myfigdir/DF依存森縮退アルゴリズム.eps,scale=0.7}\end{center}\caption{依存森の縮退アルゴリズム}\label{fig:DFReductionAlgorithm}\end{figure}前節の依存森の縮退条件,すなわち同値アークのマージ条件に基づき依存森の縮退を行うアルゴリズムを図\ref{fig:DFReductionAlgorithm}に示す.アルゴリズムでは,共起マトリックスを集合として表現している.アークX,Yに対して,$<$X,Y$>{\in}$CMであれば共起関係が成立している.以下,アルゴリズムの動作を縮退条件に照らし合わせて図\ref{fig:DFReductionAlgorithm}を参照しながら説明する.図\ref{fig:DFReductionAlgorithm}(a)で依存グラフ中にある同値アークペアX,Yを順次取り出し,diff(X,Y)中のアークペア(A,B)について,許諾を行った場合に解(汎化依存木)の増加が起こるかを(b)-(h)でチェックする.全アークペアに対して汎化依存木の増加が起こらない場合に(i)で依存森の縮退が行なわれる.(A,B)の許諾の可否は,ID付き依存木の増加条件の確認の後に汎化依存木の増加条件の確認を行うことで判定される.(b)では,\ref{subsec:IDDTZoukaJuoken}節の(RC1),(RC2)の条件がチェックされ,いずれかを満たす場合は解の増加がないため,次のアークペアの確認に進む.そうでない場合は,ID付き依存木の増加条件の確認に進む.(c)では,YをXにマージしたDG',CM'を生成する.新規依存木の存在チェックは,基本的に依存森に対する解の探索により行うため,できるだけ探索空間を少なくすることで効率化が図れる.定理\ref{the:IDedDepTreeIncreaseCond}より新規のID付き依存木はX,A,Bを含むので,(d)ではco(X)${\cap}$co(A)${\cap}$co(B)によりX,A,B全てと共起するアーク以外を除いたアーク集合DG\_XABを計算し,(e)でsearch\_dtによりDG\_XABに対して依存木を探索する.依存木が得られなければ,このアークペアは同値アークのマージ条件を満たすので,次のアークペアの処理に進む.依存木DTが得られた場合,DTはX,A,Bを含む新規のID付き依存木である.(f)のnew\_generalized\_dt(DT,CM,DG)は,CM,DG中にDTの同値依存木が存在するかを探索することで,DTが汎化依存木として新規かをチェックする.詳細な説明は省略するが,(q)においてDTの同値アークのみにアーク集合を限定することで汎化依存木の探索を実現している.DTが汎化依存木として新規の場合は,X,Yのマージはできないため(g),(h)で同値アークX,Yに対する処理を終了し次の同値アークペアのマージにトライする.汎化依存木として解が存在しない場合には,(i)においてX,Yのマージ,すなわち,依存森の縮退が行われる.なお,(f)においてDTが汎化依存木として新規でない場合は,(e)においてDG\_XABに対して別の解の探索が行われる.search\_dtは,入力位置Pに関して深さ優先に共起条件を満足する解を探索するアルゴリズムである.(k)においてDG中の位置Pのノードを依存ノードとして持つアーク集合arcs\_at(DG,P)から1つアークを選択するが,(m)において,P+1以降で解が見つからなければ(k)で別のアークを選択することで,全解を探索する.\subsubsection{依存森縮退アルゴリズムの動作例}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_SynGrp不具合例に対する依存森処理.eps,scale=0.7}\end{center}\myfiglabelskip\caption{例文に対する初期依存森と縮退処理}\label{fig:IDFandRDFexample}\end{figure}最終的に縮退依存森に同値アークが残る例として付録1の``Tokyotaxidrivercallcenter''に対するアルゴリズムの動作を示す.例文に対する初期依存森を図\ref{fig:IDFandRDFexample}(a)に示す.初期依存森には(1,2),(5,7),(13,15),(25,26,27)の4種の同値アークが存在し,図のマトリックスでは2重線で括られたまとまりとして示されている.図\ref{fig:DFReductionAlgorithm}のアルゴリズムに従って縮退処理が行なわれる.最初の同値アークequiv(1,2)に対し$X$=1,$Y$=2となり,diff($X$,$Y$)は,uniq($X$,$Y$)=\{5,24,25\},uniq($Y$,$X$)=\{14,15,27\}の組合せ\{(5,14),(5,15),(5,27),$\ldots$\}となる.最初のアークペア(5,14)は,same\_position(5,14)であるため図\ref{fig:DFReductionAlgorithm}(b)において(RC1)の条件判定でスキップされ,次のアークペア(5,15)が選択される.(5,15)の場合は,(b)の条件に確定しないため,(c)においてCM',DG'が生成される.CM'=CM+\{$<$1,14$>$,$<$1,15$>$,$<$1,27$>$\}であり,図\ref{fig:IDFandRDFexample}(b)に示す.次に図\ref{fig:DFReductionAlgorithm}(d)において$DG\_XAB$が計算される.$X=$1,$A=$5,$B=$15であり,$DG\_XAB=$co(1)${\cap}$co(5)${\cap}$co(15)wrtDG',CM'=\{1,28\}となる.(e)のsearch\_dtによる$DG\_XAB$に対する解探索は失敗するため,(5,15)の許諾は新規の依存木を生成しない.さらにアークペア(5,27)のチェックへと処理が進む.以上のようにしてdiff(1,2)の全てのアークペアに関してチェックが行われるが,いずれもが新規解を生成することなく終了し,(i)において依存森の縮退が行われ,CM'DG'が新規のCM,DGに設定される.図\ref{fig:IDFandRDFexample}(c)は,最終的に得られる縮退依存森であり,同値アーク25,26,27を持つ.この依存森に対する縮退アルゴリズムの動作を示す.今,$X=$25,$Y=$26の時,uniq($X$,$Y$)$=$\{1,24\},uniq($Y$,$X$)$=$\{6,13\},diff($X$,$Y$)$=$\{(1,6),(1,13),(24,6),(24,23)\}である.アークペア(1,6)は(RC1)の条件を満たす.アークペア(1,13)は,(RC1),(RC2)を満足せず,図\ref{fig:DFReductionAlgorithm}(d)において$DG\_XAB$が計算される.$X=25$,$A=1$,$B=13$であり,$DG\_XAB=$co(25)${\cap}$co(1)${\cap}$co(13)wrtDG',CM'=\{25,1,13,5,28\}となる.$DG\_XAB$に対して(e)のsearch\_dtを実行すると\{25,1,13,5,28\}が新規のID付き依存木として検索される\footnote{実際,この木は図\ref{fig:SynGraphBadExample}(d)に相当する.}.次に(f)においてnew\_generalized\_dtが実行され,(q)でadd\_equiv\_arcsによりDT中の各アークに対する同値アークが追加されたアーク集合$DG\_X$が計算される.図\ref{fig:IDFandRDFexample}(c)では,25が同値アーク26,27を持つので,これらが追加され,$DG\_X=$\{25,26,27,1,13,5,28\}となる.図\ref{fig:DFReductionAlgorithm}(r)のsearch\_dtでは,解が計算されるが,同値アーク25,26,27のそれぞれに対して$<$25,13$>$,$<$26,1$>$,$<$27,5$>$がCMにおいて共起条件を満足しないためsearch\_dtはfalseとなる.この結果,(f)のnew\_generalized\_dtがtrue,すなわち汎化依存木として解の増加となるため,$X$=25,$Y$=26のマージは行われない.図\ref{fig:IDFandRDFexample}(c)の依存森は,付録1の図\ref{fig:SynGraphBadExample}の(a)〜(c)の3つの依存構造のみを保持しており,健全性が保たれている.縮退処理により生成される依存森は一意に決まるという訳ではなく,マージを試みる同値アークの順番により異なった結果が得られたりする.例えば,上記の例でも,同じ3つの汎化依存木を含む複数の縮退依存森が存在する.図\ref{fig:DFReductionAlgorithm}のアルゴリズムは最小の縮退依存森を得るという保証はなく,実際図\ref{fig:IDFandRDFexample}(c)よりサイズの小さい依存森も存在する.また,縮退アルゴリズムの計算量に関しても改善の余地がある.最小の依存森の構成法やアルゴリズム効率化などについては今後の課題とする\footnote{PDGでは文法規則で構成素列と依存構造のマッピングを規定するため,任意の入力構成素列に対して任意の依存木を定義・追加することが可能である.このため汎用的な縮退アルゴリズムの高速化だけでなく,文法規則の構造分析を行い新規解釈を生成しないアークを事前に計算するなどの最適化手法が有効であると考えられる.}.\subsection{統語森と依存森の対応関係}\label{sec:MappingBetweenPTAndDT}依存森は,統語森との間で完全性と健全性が成立する.付録2に初期依存森の完全性と健全性の証明を示す.縮退依存森は初期依存森と同じ(汎化)依存木の集合を保持しているため,統語森と(縮退)依存森に完全性と健全性が成立すると言える.統語森中の構文木(句構造)と依存森中の依存木(依存構造)の対応関係は単純な1対1対応ではなく,1つの構文木が複数の依存木に対応したり,複数の構文木が1つの依存木に対応したりする.言語表現の多様性(1つの意味を複数の表現で表現可能)と曖昧性(1つの表現で複数の意味を表現可能)を考えれば,こうした対応関係は自然な関係であると考えられる.構文木と依存木の対応関係については,次章の評価実験において例文の解析結果とともに述べる.
\section{例文解析評価実験}
PDGは依存森により整依存木集合を圧縮共有して表現することにより,各種の曖昧性により生じる組合せ爆発を抑制することを狙いの1つとしており,本稿では,PDGの構文解析から圧縮依存構造の構築までの方式を中心に述べている.本章では,自然言語の各種の曖昧性を記述したPDG文法を用いて,典型的な曖昧性例文の構文解析・依存森生成実験を行い,各種の曖昧性がどの様に処理されるかについて述べると共に,統語森と依存森との対応関係やNon-projectiveな依存木の生成についても実例も用いながら述べる.なお,アルゴリズムの効率も実用上重要なファクタであるが,本稿で示した構文解析アルゴリズム,統語森・依存森構成アルゴリズム,依存森縮退アルゴリズムは,PDGの解析方式の検証を行うことを主眼に実装をしており,実システムとしての実装では種々の改善が考えられる.PDGの実装上の検討,テストコーパスなどを使った性能評価などについては,今後の課題とする.なお,以下の実験では,Prolog上に実装されたPDGの試作システムを利用している.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF例文を解析する文法規則.eps,scale=0.85}\end{center}\myfiglabelskip\caption{例文を解析する文法規則}\label{fig:GrammarForExamples}\end{figure}\subsection{例文解析用文法}図\ref{fig:GrammarForExamples}は,例文解析に使用した文法規則であり,代表的な各種曖昧性構文を含んでいる.文法中の品詞det,n,be,ving,v,adv,pre,relcは,それぞれ,冠詞,名詞,BE動詞,動詞の現在分詞,動詞,副詞,前置詞,関係節を表している.また,図にはトップノードを導入するルート規則は明示されていないが,文全体(s)と名詞句(np)を解析結果として受理するルート規則を想定している.この文法は例題分析実験用のため,言語学的妥当性や厳密性は二義的である.文法には次のような構文的曖昧性が記述されている.\begin{itemize}\item[{\myitemindent}前置詞句付加の曖昧性(PP-attachment)]:R6(名詞修飾)とR10,R17(動詞修飾)の2種類がある\item[{\myitemindent}接続詞スコープ曖昧性(Coordination)]:R11(〜and〜),R12(〜or〜)の名詞句並列を表す規則が存在する\item[{\myitemindent}BE動詞構文解釈の曖昧性]:be動詞に対してR15(現在進行形の構文)とR16(copulaの構文)の構文解釈曖昧性規則が存在する\item[{\myitemindent}現在分詞形の曖昧性]:動詞の現在分詞形に関しては様々な解釈が可能であり,次のような用法が記述されている\begin{itemize}\item[(a)]名詞が現在分詞の主格を占める形容詞的用法(R7)\item[(b)]名詞が現在分詞の目的格を占める形容詞的用法(R8)\item[(c)]名詞句が動詞の目的格となる動名詞句(R9,R10)\end{itemize}\end{itemize}R8とR9は動詞と名詞の修飾関係としては類似しているが,どちらが主辞(句ヘッド)であるかという依存構造の観点からは異なった構造である.また,平叙文(R1)と命令文(R2)のパタンもあり,``Timeflieslikeanarrow''のような多品詞の曖昧性と組み合わさって種々の構文解釈を生成する.また,(R19)は,non-projectiveな依存木,すなわち,交差する依存関係を含む依存木を生成する規則である.以下では,上記文法を用いて代表的な曖昧性例文等を解析した結果について述べる.\subsection{典型的曖昧性例文の解析}多品詞に起因する曖昧性の解析例については,既に例題として述べている.以下では,自然言語の統語的な曖昧性の代表例として前置詞付加曖昧性,接続詞スコープ曖昧性,構造解釈曖昧性の3つについて前記PDG文法での解析例を示す.\subsubsection{前置詞付加曖昧性(PP-attachment)}\label{sec:PP-attachment}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/OS前置詞係り受け曖昧性例文の依存森JAPENG.eps,scale=0.6}\end{center}\myfiglabelskip\caption{前置詞句付加曖昧性例文に対する依存森}\label{fig:DFForISaw}\end{figure}図\ref{fig:DFForISaw}は,前置詞の付加(PP-attachment)曖昧性の例文``Isawagirlwithatelescopeintheforest''に対する依存森である.依存グラフのアークには,アーク名/アークIDと選好スコアが付与されている\footnote{アーク選好スコアは依存関係の良さを表すスコアであり,本稿では利用されない.}.各ノードの品詞や表層位置情報は依存グラフの下の対応表に示している.この例では多品詞曖昧性を持つ語はないが,前置詞``with''に2つ($npp13$,$vpp14$),``in''に3つ($npp23$,$npp25$,$vpp26$)の依存先の曖昧性が存在する.図に示すように,これらのアーク間には,共起マトリックスで○が存在しない組合せ,すなわち共起制約がかかっているアークの組がいくつか存在している.$npp13$と$vpp14$,$npp23$と$npp25$と$vpp26$は,それぞれ位置を同じくするアークであるため被覆制約の1種である単一役割制約がかかっている.また,$vpp14$と$npp25$の間には非交差制約がかかっている.この共起制約がなければ,前置詞句付加曖昧性の組合せにより$2*3=6$個の解が存在するが,CM(14,25)${\neq}$○によりNon-projectiveな依存木が排除され,この依存森は5つの整依存木(解釈)を含んでおり,例文に対して可能な前置詞句付加曖昧性を適切に表現している.例文に対して,統語森のサイズは25,初期依存森のサイズは18,縮退依存森のサイズは13である.統語森は5つの解釈に対応する5つの構文木からなる集合\footnote{ここでいう構文木の数は,始点,終点,規則ヘッド頂点,句ヘッド,既存構成素列に関して弧の同一性を判定することで構文木の同一性を判定した場合の数であり,部分依存構造(アーク集合)は同一性判定に含まれていない.},初期依存森と縮退依存森は,5つのID付き依存木(5つの汎化依存木に対応)の集合に対応している.初期依存森は,$obj5$,$npp13$,$vpp14$,$pre11$に関してそれぞれ2本,1本,1本,1本の同値アークを有している.例えば,$obj5$とその同値アークは,次に模式的に示す単一弧から生成されるが,これらは全て文法規則(R14)から生まれた弧である.\myhalfskip$<$1,4,vp/([saw]-v-1)$\rightarrow$v(ID:109)np(ID:126)・,\{arc(obj-5,[girl]-n-3,[saw]-v-1)\}$>$$<$1,7,vp/([saw]-v-1)$\rightarrow$v(ID:109)np(ID:163)・,\{arc(obj-15,[girl]-n-3,[saw]-v-1)\}$>$$<$1,10,vp/([saw]-v-1)$\rightarrow$v(ID:109)np(ID:203)・,\{arc(obj-28,[girl]-n-3,[saw]-v-1)\}$>$\myhalfskip{\mynoindent}最初の弧は,被覆範囲が1〜4(``sawagirl''に対応)で,句ヘッドが[saw]-v-1,圧縮弧v(ID:109)\footnote{規則ヘッド頂点(カテゴリ)がvで,弧IDが109の圧縮弧である.}とnp(ID:126)を構成素としてもち,アークIDが5で関係名がobjのアークを有する.これら同値アークは弧の範囲がそれぞれ異なった名詞句との結合により生成されている.これらは全て1つのアークにマージされ,縮退依存森では同値アークは存在していない.\begin{comment}同値アーク[[(5),15,28],[(13),32],[(14),33],[(11),27]]最終アーク30,4,5,13,14,10,11,25,23,26,20,21,35(obj-5):スコープが異なる:ノードの範囲とは無関係にマージ可能としている(できる場合とできない場合の弁別を入れることが考えられる)**newarcid:arc_share(obj-15,[girl]-n-3,[saw]-v-1)173:[1,7]vp/([saw]-v-1)-->[109163]*:[[arc(obj-15,[girl]-n-3,[saw]-v-1)]]**newarcid:arc_share(obj-5,[girl]-n-3,[saw]-v-1)135:[1,4]vp/([saw]-v-1)-->[109126]*:[[arc(obj-5,[girl]-n-3,[saw]-v-1)]]**newarcid:arc_share(obj-28,[girl]-n-3,[saw]-v-1)222:[1,10]vp/([saw]-v-1)-->[109203]*:[[arc(obj-28,[girl]-n-3,[saw]-v-1)]]163:[2,7]np/([girl]-n-3)-->[126161]*:[[arc(npp-13,[with]-pre-4,[girl]-n-3)]]126:[2,4]np/([girl]-n-3)-->[119122]*:[[arc(det-4,[a]-det-2,[girl]-n-3)]]203:[2,10]np/([girl]-n-3)-->[163199]*:[[arc(npp-25,[in]-pre-7,[girl]-n-3)]]--npp-13の同値アーク:163:[2,7]np/([girl]-n-3)-->[126161]*:[[arc(npp-13,[with]-pre-4,[girl]-n-3)]]228:[2,10]np/([girl]-n-3)-->[126213]*:[[arc(npp-32,[with]-pre-4,[girl]-n-3)]]======Numberofvarioustrees========[ParseForest](a)ParseForestSize:25(b)Numberofcollectionofparsetrees:5(c)Numberofsetofparsetrees:5[DependencyForest](I-1)InitialDFsize:18(I-2)InitialDFID-treecollectionnumber:5(I-3)InitialDFID-treesetnumber:5(I-4)InitialDFGeneralized-treenumber:5(R-1)ReducedDFsize:13(R-2)ReducedDFID-treecollectionnumber:5(R-3)ReducedDFID-treesetnumber:5(R-4)ReducedDFGeneralized-treenumber:5\end{comment}\begin{comment}\end{comment}\subsubsection{接続詞スコープの曖昧性}\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/OS接続詞スコープ曖昧性例文の依存森JAPENG.eps,scale=0.66}\end{center}\caption{接続詞曖昧性例文に対する依存森}\label{fig:DFForEarthAndMoon}\end{figure}図\ref{fig:DFForEarthAndMoon}は,接続詞のスコープ曖昧性を含む名詞句``EarthandMoonorJupitorandGanymede''に対する依存森である.3つの接続詞のスコープの組合せに対応して``Earth''に3つ,``Moon''に2つのアークの依存先の曖昧性が存在する.前節の例と同様,被覆制約だけ満足する場合には,前置詞句スコープ曖昧性の組み合わせで6つの解釈が存在するが,$or22$と$and12$が非交差制約に対応する共起マトリックスの制約を持っているため,1つの依存木が排除され,この依存森は合計5つの整依存木を持っている.例文に対して,統語森のサイズは18,初期依存森のサイズは17,縮退依存森のサイズは10である.統語森は5つの解釈に対応する5つの構文木からなる集合,初期依存森と縮退依存森は,5つのID付き依存木(5つの汎化依存木に対応)からなる集合に対応している.初期依存森は,$or22$,$or9$,$cnj6$,$and18$,$cnj14$は各々1本,1本,1本,2本,2本の同値アークを有している.これらは全て1つのアークにマージされ,縮退依存森では同値アークは存在していない.接続詞スコープ曖昧性は,前置詞付加曖昧性と類似しているが,後に述べる修飾スコープの問題を持つという点で言語現象的には異なっている.\begin{comment}同値アーク[[(22),23],[(9),10],[(6),7],[(18),19,20],[(14),15,16]]最終アーク25,12,4,2,22,9,6,18,14,26-----dgarc(and-25,[earth]-n-0,[ganymede]-n-6)dgarc(and-12,[earth]-n-0,[jupitor]-n-4)dgarc(and-4,[earth]-n-0,[moon]-n-2)dgarc(cnj-2,[and]-and-1,[earth]-n-0)dgarc(or-22,[moon]-n-2,[ganymede]-n-6)dgarc(or-9,[moon]-n-2,[jupitor]-n-4)dgarc(cnj-6,[or]-or-3,[moon]-n-2)dgarc(and-18,[jupitor]-n-4,[ganymede]-n-6)dgarc(cnj-14,[and]-and-5,[jupitor]-n-4)dgarc(root-26,[ganymede]-n-6,[root]-x-root)×dgarc(or-23,[moon]-n-2,[ganymede]-n-6)×dgarc(or-10,[moon]-n-2,[jupitor]-n-4)×dgarc(cnj-7,[or]-or-3,[moon]-n-2)×dgarc(and-19,[jupitor]-n-4,[ganymede]-n-6)×dgarc(and-20,[jupitor]-n-4,[ganymede]-n-6)×dgarc(cnj-15,[and]-and-5,[jupitor]-n-4)×dgarc(cnj-16,[and]-and-5,[jupitor]-n-4)======Numberofvarioustrees========[ParseForest](a)ParseForestSize:18(b)Numberofcollectionofparsetrees:5(c)Numberofsetofparsetrees:5[DependencyForest](I-1)InitialDFsize:17(I-2)InitialDFID-treecollectionnumber:5(I-3)InitialDFID-treesetnumber:5(I-4)InitialDFGeneralized-treenumber:5(R-1)ReducedDFsize:10(R-2)ReducedDFID-treecollectionnumber:5(R-3)ReducedDFID-treesetnumber:5(R-4)ReducedDFGeneralized-treenumber:5\end{comment}\subsubsection{構造解釈の曖昧性}\label{sec:AmbiguityInStructuralInterpertation}図\ref{fig:DFForMyHobbyIs}は,構造解釈上の曖昧性を含む例文``Myhobbyiswatchingbirdswithtelescope''に対する依存森である.この例も,多品詞曖昧性を持たないが,``be''動詞の解釈(コピュラか進行形か),``watchingbirds''の解釈($adjs3$,$adjo4$,$obj5$),前置詞の付加曖昧性($npp21$,$vpp22$,$npp24$,$vpp25$)等を持っており,「私の趣味は双眼鏡で鳥を見ることです」,「私の趣味は,双眼鏡で鳥を見ています」,「私の趣味は双眼鏡を持った見る鳥です」など10の解釈に対応する整依存木を含んでいる.\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/OS構造解釈曖昧性例文の依存森JAPENG.eps,scale=0.66}\end{center}\myfiglabelskip\caption{構造解釈曖昧性例文に対する依存森}\label{fig:DFForMyHobbyIs}\end{figure}例文に対して,統語森のサイズは23,初期依存森のサイズは24,縮退依存森のサイズは16である.統語森は10の解釈に対応する8つの構文木集合,初期依存森と縮退依存森は,10のID付き依存木(10個の汎化依存木に対応)の集合に対応している.初期依存森は,$dsc9$,$dsc8$,$obj5$,$npp21$,$vpp22$に関してそれぞれ2本,2本,5本,2本,2本の同値アークを有している.この例では,\ref{sec:PP-attachment}節の例とは異なり,複数の規則から同値アークが生成されている.例えば,$obj5$の同値アークは,(R9),(R10),(R15)などの文法規則から得られる次に示すような弧に含まれている.\myhalfskip(R9)⇒$<$3,5,np/([watching]-ving-3)$\rightarrow$ving(ID:121)np(ID:130)・,{\myitemindent}\{arc(obj-5,[birds]-n-4,[watching]-ving-3)\}$>$(R10)⇒$<$3,7,np/([watching]-ving-3)$\rightarrow$ving(ID:121)np(ID:130)pp(ID:176)・,{\myitemindent}\{arc(obj-6,[birds]-n-4,[watching]-ving-3),arc(vpp-22,[with]-pre-5,[watching]-ving-3)\}$>$(R15)⇒$<$2,5,vp/([watching]-ving-3)$\rightarrow$be(ID:117)ving(ID:121)np(ID:130)・,{\myitemindent}\{arc(prg-2,[is]-be-2,[watching]-ving-3),arc(obj-7,[birds]-n-4,[watching]-ving-3)\}$>$\myhalfskip{\mynoindent}これら同値アークは全て1つのアークにマージされ,結果として得られる縮退依存森では同値アークは存在していない.この例では,統語森が8つの構文木を持つのに対して解釈(汎化依存木)の数は10となっており,1つの構文木が複数の依存木に対応する例となっている.以下,構文木と依存木の対応関係について述べる.\begin{comment}##同じ依存片の組[[(9),30],[(8),31],[(5),6,7,27,29],[(21),23],[(22),25]]>CurrentSameArcIDList:[[9],[8],[5],[21],[22]]XM,1,35,33,2,4,3,9,8,5,21,24,26,22,20,41,38同値アークで違う規則からの期待(R9)np/V→ving/V,np/NP:[arc(obj,NP,V)](R10)np/V→ving/V,np/NP,pp/PP:[arc(obj,NP,V),arc(vpp,PP,V)]-->objアークdgarc(obj-5,[birds]-n-4,[watching]-ving-3)×dgarc(obj-6,[birds]-n-4,[watching]-ving-3)×dgarc(obj-7,[birds]-n-4,[watching]-ving-3)×dgarc(obj-27,[birds]-n-4,[watching]-ving-3)×dgarc(obj-29,[birds]-n-4,[watching]-ving-3)138:[3,5]np/([watching]-ving-3)-->[ving(121)np(130)]*:[[arc(obj-5,[birds]-n-4,[watching]-ving-3)]]139:<3,5>np/([watching]-ving-3)-->[ving(121)np(130)]*pp/C/true:[[arc(obj-6,[birds]-n-4,[watching]-ving-3),arc(vpp-_89026,C,[watching]-ving-3)]]140:[2,5]vp/([watching]-ving-3)-->[be(117)ving(121)np(130)]*:[[arc(prg-2,[is]-be-2,[watching]-ving-3),arc(obj-7,[birds]-n-4,[watching]-ving-3)]]187:[3,7]np/([watching]-ving-3)-->[121177]*:[[arc(obj-27,[birds]-n-4,[watching]-ving-3)]]188:<3,7>np/([watching]-ving-3)-->[121177]*pp/C/true:[[arc(obj-28,[birds]-n-4,[watching]-ving-3),arc(vpp-_106115,C,[watching]-ving-3)]]--117:[2,3]be/([is]-be-2)-->[lex([is]-be)]*:[[]]121:[3,4]ving/([watching]-ving-3)-->[lex([watching]-ving)]*:[[]]130:[4,5]np/([birds]-n-4)-->[n(128:birds)]*:[[]]177:[4,7]np/([birds]-n-4)-->[np(130)pp(176)]*:[[arc(npp-21,[with]-pre-5,[birds]-n-4)]]======Numberofvarioustrees========[ParseForest](a)ParseForestSize:23(b)Numberofcollectionofparsetrees:10(c)Numberofsetofparsetrees:8[DependencyForest](I-1)InitialDFsize:24(I-2)InitialDFID-treecollectionnumber:10(I-3)InitialDFID-treesetnumber:10(I-4)InitialDFGeneralized-treenumber:10(R-1)ReducedDFsize:16(R-2)ReducedDFID-treecollectionnumber:10(R-3)ReducedDFID-treesetnumber:10(R-4)ReducedDFGeneralized-treenumber:10==========================dgarc(det-1,[my]-det-0,[hobby]-n-1)dgarc(sub-35,[hobby]-n-1,[is]-be-2)dgarc(sub-33,[hobby]-n-1,[watching]-ving-3)dgarc(prg-2,[is]-be-2,[watching]-ving-3)dgarc(adjo-4,[watching]-ving-3,[birds]-n-4)dgarc(adjs-3,[watching]-ving-3,[birds]-n-4)dgarc(dsc-9,[watching]-ving-3,[is]-be-2)dgarc(dsc-8,[birds]-n-4,[is]-be-2)dgarc(obj-5,[birds]-n-4,[watching]-ving-3)dgarc(npp-21,[with]-pre-5,[birds]-n-4)dgarc(npp-24,[with]-pre-5,[watching]-ving-3)dgarc(vpp-26,[with]-pre-5,[is]-be-2)dgarc(vpp-22,[with]-pre-5,[watching]-ving-3)dgarc(pre-20,[telescope]-n-6,[with]-pre-5)dgarc(root-41,[is]-be-2,[root]-x-root)dgarc(root-38,[watching]-ving-3,[root]-x-root)======Numberofvarioustrees========[ParseForest](a)ParseForestSize:23(b)Numberofcollectionofparsetrees:10(c)Numberofsetofparsetrees:8[DependencyForest](I-1)InitialDFsize:24(I-2)InitialDFID-treecollectionnumber:10(I-3)InitialDFID-treesetnumber:10(I-4)InitialDFGeneralized-treenumber:10(R-1)ReducedDFsize:16(R-2)ReducedDFID-treecollectionnumber:10(R-3)ReducedDFID-treesetnumber:10(R-4)ReducedDFGeneralized-treenumber:10\end{comment}\subsection{構文木と依存木の1対多/多対1対応関係}統語森中の構文木と依存森中の依存木の対応関係は保証されているが,1つの構文木が複数の依存木に対応したり,複数の構文木が1つの依存木に対応したりする.以下では実験文法を用いて具体例を示しながら,同一意味解釈に対する構文構造と依存構造の表現力についても考察を加える.\subsubsection{1構文木の複数依存木への対応}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_1構文木2依存木対応の例JAPENG.eps,scale=0.8}\end{center}\myfiglabelskip\caption{1つの構文木が2つの依存木に対応する例}\label{fig:MapFromOnePTToTwoDTs}\end{figure}1つの構文木が複数の依存木に対応するのは,1つの構文構造に対する解釈が複数存在するような場合であり,例えば,``watchingbird''という文に対して動詞の現在分詞形が名詞を修飾しているという1つの構文構造をアサインした時,依存構造としてwatching${\xrightarrow[]{subj}}$birdとwatching${\xrightarrow[]{obj}}$birdの2つを対応させるような場合である.すなわち,同一の書き換え規則部を持つが異なった構造構築部を持つような規則が存在する場合である.図\ref{fig:GrammarForExamples}の文法では,(R7),(R8)がこれに対応する.(R7),(R8)は依存森の検証のため導入した恣意的な規則である.同一の書き換え規則に対して複数の部分依存構造を与えるのは,構文構造としては同一\footnote{構成素列をどの文法カテゴリに分類するかという構造}であるが依存関係としては異なっているような場合である.想定されるケースとしては,機能的関係の多義と意味的関係の多義が存在する.機能的多義は,文法機能関係(subject,objectなど)への曖昧性である.機能的関係は構文構造と密接な関係にあること,また,機能的関係の違いがある場合には構文構造自体にそれを反映する\footnote{例えば,書き換え規則の構文カテゴリを細分化し,異なった書き換え規則にする.}などにより異なった構文構造とするなどの文法上の対応も可能であることから,全く同一の書き換え規則に複数の機能的多義構造をアサインすることは必ずしも一般的であるとは考えにくい.これに対して,意味的関係の多義はきわめて一般的な現象であると言える.意味的な関係を構文規則に融合すること\footnote{これは構文解析に枝刈りのために制約知識を導入することではない.}は,組合せ爆発の問題やメンテナンス性の低下を招く恐れがある.このため,構文解析と意味解析に独立性を持たせたアプローチが広く提唱・利用されている.PDGでも意味的な曖昧性は語彙概念,概念間意味関係を表現する意味依存グラフとして扱うことを想定している.但し,統語森と依存森のマッピングの枠組み自体は,機能的・意味的多義という言語的分類の議論とは独立であり,文法設計に応じて適宜利用すればよい.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(見せかけ曖昧性)を含む依存森JAPENG.eps,scale=0.6}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(見せかけ曖昧性)を含む依存森}\label{fig:DFContainingNtoOneMapping}\end{figure}\ref{sec:AmbiguityInStructuralInterpertation}節の例(図\ref{fig:DFForMyHobbyIs})は,(R7),(R8)により2つの依存構造を生成する構文木を含んでいる.このため,統語森数の構文木の数(8)は,依存森の汎化依存木数(10)より少なくなっている.図\ref{fig:MapFromOnePTToTwoDTs}に実際の構文木と依存木を示す.\begin{comment}#ParseTree[1]s[0,7,is/be]:207+--np[0,2,hobby/n]:108|+--det[0,1,my/det]:101|+--n[1,2,hobby/n]:104+--vp[2,7,is/be]:182+--be[2,3,is/be]:117+--np[3,7,birds/n]:179+--np[3,5,birds/n]:132|+----ving[3,4,watching/ving]:121|+----n[4,5,birds/n]:128+--pp[5,7,with/pre]:176+----pre[5,6,with/pre]:165+----np[6,7,telescope/n]:170+----n[6,7,telescope/n]:168####DependencyStructure[1][is/be,2]+<-(dsc-31)-[birds/n,4]|+<-(adjs-3)-[watching/ving,3]|+<-(npp-23)-[with/pre,5]|+<-(pre-20)-[telescope/n,6]+<-(sub-35)-[hobby/n,1]+<-(det-1)-[my/det,0]####DependencyStructure[2][is/be,2]+<-(dsc-31)-[birds/n,4]|+<-(adjo-4)-[watching/ving,3]|+<-(npp-23)-[with/pre,5]|+<-(pre-20)-[telescope/n,6]+<-(sub-35)-[hobby/n,1]+<-(det-1)-[my/det,0]\end{comment}\subsubsection{複数構文木の1依存木への対応}\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(見せかけ曖昧性)JAPENG.eps,scale=0.75}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(見せかけ曖昧性)の例}\label{fig:SuriousNtoOneMapping}\end{figure}複数の構文構造が1つの依存構造に対応するような現象の例としては,例えば見せかけの曖昧性が挙げられる\cite{Noro02}.構文構造とそれの表す意味との関係において,構文構造の違いが意味的な違いに対応する真の曖昧性と,構文構造は異なるが意味に違いがない構造,または,文法が不十分なために言語学的に誤った構造などの見せかけの曖昧性が存在し,特にコーパスからの文法学習での対応が重要となっている\cite{Noro05}.また,文脈自由文法ではないが,CCG(ConbinatoryCategorialGrammar)においては,多数のspuriousambiguityが存在するという類似の問題があり,標準形の木のみをただ1つ解析結果として出力する手法が提案されている\cite{Eisner96b}.この手法では,解析木の末端のカテゴリ(CCGのカテゴリ)が同一である木は同じ意味構造を有するという定義の基で,同じ意味を表す木(同じ意味クラスの木)はただ1つだけ取り出すことができる.PDGの枠組みでは,文の解釈は(汎化)依存木で表現するため,同一の(汎化)依存木を持つ構文木を同じクラスの木とするという関係になっていると見ることができる.図\ref{fig:DFContainingNtoOneMapping}は,``Shecuriouslysawacatintheforest''を例文文法で解析して得られる依存森であり,見せかけの曖昧性を含んでいる.共起制約が掛かっているのは依存先曖昧性に対応する$npp17$,$vpp18$に対する単一役割制約のみであり,``intheforest''の依存先が異なる2つの依存木(解釈)が存在している.統語森は3つの構文木,初期依存森は3つのID付き依存木(2つの汎化依存木),縮退依存森は2つのID付き依存木(2つの汎化依存木)を含んでいる.見せかけの曖昧性は,動詞句に対する2つの修飾句に関する規則(R17),(R18)の適用順序の違いにより生じている.図\ref{fig:SuriousNtoOneMapping}に構文木と依存木を示す.\begin{comment}======Numberofvarioustrees========[ParseForest](a)ParseForestSize:19(b)Numberofcollectionofparsetrees:3(c)Numberofsetofparsetrees:3[DependencyForest](I-1)InitialDFsize:12(I-2)InitialDFID-treecollectionnumber:3(I-3)InitialDFID-treesetnumber:3(I-4)InitialDFGeneralized-treenumber:2(R-1)ReducedDFsize:9(R-2)ReducedDFID-treecollectionnumber:2(R-3)ReducedDFID-treesetnumber:2(R-4)ReducedDFGeneralized-treenumber:2\end{comment}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(真の曖昧性)を含む依存森JAPENG.eps,scale=0.5}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(真の曖昧性)を含む依存森}\label{fig:DFContainingNtoOneMappingRealAmbiguity}\end{figure}言語解釈の意味的な違いについては,微妙な意味の違い\cite{Eisner96b}\footnote{``softlyknocktwice''の解釈候補softly(twice(knock))とtwice(softly(knock))は意味的に等しいが,``intentionallyknocktwice''の解釈候補``intentionally(twice(knock))''と``twice(intentionally(knock))''は意味が異なる.}や限量詞や数の解釈に関わる曖昧性\footnote{「3人が10本の花を買った」において,「各人が10本の花を買った」か「3人全員で10本の花を買った」のようなモデル理論的な意味解釈の曖昧性であり,句構造や依存構造では表現が困難.}なども考慮する必要があり,依存構造の同一性で意味の同一性を判定することはあくまで1つの側面に関する同一性の判定に過ぎない.\cite{Meluk88}は,依存構造での自然な構造表現が困難なケースを挙げ,それらには句構造では自然に表現できるもの,句構造でも自然に表現できないもの(句構造,依存構造の両方とも能力不足)があることを示している.PDGは,句構造と依存構造を扱うため,少なくとも前者については枠組みとしての検証が必要と考える.前者は,依存構造において句のヘッドワードに修飾語が存在する場合にそれがヘッドワードのみを修飾するのか,それともヘッドワード以下の全体を修飾するのかというスコープの曖昧性を表現できないという,標準的な依存構造一般に存在する問題(ここでは{\bf修飾スコープ問題}と呼ぶ)である.図\ref{fig:DFContainingNtoOneMappingRealAmbiguity}に``EarthandJupiterinSolarSystem''に対する依存森を示す.この文には,前置詞句が並列句のヘッド``Jupitor''のみを修飾する解釈と``EarthandJupitor''全体を修飾する解釈の2つが存在する.統語森には2つの解釈に対応する2つの構文木が存在し,初期依存森には2つのID付き依存木(1つの汎化依存木)が存在し,縮退依存森には1つのID付き依存木(1つの汎化依存木)が存在する.2つの構文木と1つの依存木の対応を図\ref{fig:RealNtoOneMapping}に示す.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(真の曖昧性)JAPENG.eps,scale=0.7}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(真の曖昧性)の例}\label{fig:RealNtoOneMapping}\end{figure}修飾スコープ問題への対応方法として\cite{Meluk88}は,Groupingという概念を導入している.Groupingは論理的にフレーズと同じでカバーする単語の範囲を示すものである.ただし,Groupingは,全てに記述されるものではなく,対象は曖昧性が生じる並列構造(conjoinedstructure),``not'',``only''と言ったオペレータ語(operatorword)などに限定されている.依存構造をベースにした大規模文法を有する機械翻訳システム\cite{Amano89}では,Groupingに相当する仕組み\footnote{スコープノードという特殊ノードの導入により依存構造の範囲を必要に応じて記述可能としている.}を導入している.工学的観点から言うと,一般にどの程度詳細に深いレベルの解釈構造を作るかという設定は,目的とするアプリケーションにより異なる.機械翻訳アプリケーションにおいては,修飾スコープ問題については並列構造に対する対応だけで実システムが構築されており\footnote{これは英日システムの例である.より詳細には言語対によっても要求レベルは異なってくると考えられる.例えば,英語とフランス語といった同族言語の場合は構文的曖昧性を保持したまま目的言語へ変換するという戦略を取ることにより修飾スコープ問題を回避できる可能性がある.},前記Grouping対象の限定は経験的に妥当であると考えている.また,修飾スコープ問題は,言語によって様相が異なってくる.例えば,ロシア語では形容詞の数,名詞の文法的格が一致(agreement)や支配(government)により統語的に導入され,解釈が決定されるために修飾スコープ問題が起こらないことがある\cite{Meluk88}.また,日本語では,係り受け文法(依存構造文法)に被修飾語は修飾語の左に位置するという制約が存在するため,そもそも修飾スコープ問題が発生せず,依存構造(係り受け構造)の表現力の問題として意識されることがほとんどない.PDGでは同値アークがノードのスコープの違いを表現しているので,依存構造の修飾スコープ問題は,Groupingの概念を同値アークに導入するという拡張により対応できる可能性があり,今後の検討課題である.\begin{comment}======Numberofvarioustrees========[ParseForest](a)Numberofcollectionofparsetrees:2(b)Numberofsetofparsetrees:2[DependencyForest](I-1)InitialDFsize:7(I-2)InitialDFID-treecollectionnumber:2(I-3)InitialDFID-treesetnumber:2(I-4)InitialDFGeneralized-treenumber:1(R-1)ReducedDFsize:5(R-2)ReducedDFID-treecollectionnumber:1(R-3)ReducedDFID-treesetnumber:1(R-4)ReducedDFGeneralized-treenumber:1------\end{comment}\begin{comment}依存構造での表現力の問題D-language単独で表現が困難な構造がある.節のヘッドワードを修飾している要素Xがある構造と,Xが句全体を修飾している構造との意味的な対比.hischeerfulnessandhisaccentastonishing(1a)hischeerfulnessand{hisaccentastonishing}(1b){hischeerfulnessandhisaccent}astonishingこの例は単純にスコープの問題で句構造では,表現されている.(平川)BobandDick'snovels(2a)novelswrittenbytheteam``Bob+Dick''{BobandDick}'snovels(2b)novelswrittenbyBobandnovelswrittenbyDick{Bob}and{Dick'snovels}→スコープの問題としてこの例は表現されていない要素の問題で単純にスコープの問題として扱うことは困難で,句構造なら表現できるというものでもない.3つの方法(a)ラベルに情報をつける→良くないmodif(ヘッドのみ)v.s.phrase-modif(句全体)(b)(1b)(2b)を省略の問題であるとしてとらえ全体構造で表現(1b'){hischeerfulnessastonishing}and{hisaccentastonishing}(2b'){Bob'snovels}and{Dick'snovels}(c)ノード属性の属性マーカを付けて弁別(注:次は正確でない.本と違う)ロシア語では,語のinflectionで数の情報が表現され,次の2文の構造が弁別される.NewYork(MASC.SG,NOM)andChicago(MASC.SG.NOM)University[masc](PK.NOM)(ニューヨークとシカゴの各1つの大学)NewYork(PL.NOM)andChicago(PL.NOM)University[masc](PK.NOM)(ニューヨークとシカゴの各いくつかの大学)-----・句構造でも自然に表現できないもの(両方とも能力不足)とできるものがある・表現できるものスコープの曖昧性・MelukではGroupingという概念を導入している(Groupingは論理的にフレーズと等しい)(=スコープノードと同じ)Groupingは,全てに入れているのではなく,限定されている-conjoinedstructure(曖昧性の出る場合)-``operator''word(not,onlyなど)・アプリケーションにも依存する(弁別の必要がないアプリケーションもある)大規模な英語文法では,conjoinedstructureのみにスコープノードで対応するだけで実用上ほぼ問題なく実現できている.・このヘッドワード修飾か全体修飾かというスコープの問題は対象言語によって異なる.ロシア語では形容詞の数,名詞の文法的格がsyntacticallyに導入されている(byagreementandgovernment)日本語では発生しない(係り受け文法の制約の存在)今後の課題.\end{comment}\subsection{Non-projective依存木の生成}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_Non-projective依存木の生成例.eps,scale=0.55}\end{center}\myfiglabelskip\caption{Non-projectiveな依存木の生成例}\label{fig:Non-projectiveDT}\end{figure}非交差制約(Projectivityconstraint)\footnote{Projectivityの条件は,「依存関係が交差しない」ことの他に「トップノードがカバーされることはない」の2つであるが,文頭(または文末)に特殊なルートノードを想定することにより,この2番目の条件は不必要となる.日本語はトップノードが文末に位置するためProjectivityのためにはルートノードは必要としない.}は,多くの依存構造解析システムにより受け入れられている制約であり,これらシステムはProjectiveparserと呼ばれる.Projectiveparserはnon-projectiveな構造を持つ文の解析に失敗する.種々の言語の大半の文はprojectiveであるが,いくつかのタイプのnon-projectiveな文が多くの言語に存在する\cite{Meluk88}.英語では,``ShesawthecatcuriouslywhichwasPercian'',日本語では「私は本を東京に買いに昨日行きました」などがnon-projectiveな構造を持つ文である.英語に比べて自由度の高い語順を持つチェコ語の解析において,Non-projectiveparserがprojectiveparserに対して総合的な精度で上回るという報告もある\cite{McDonald05}.しかしながら,単純にNon-projectiveな解釈を許すだけでは,全体として性能の劣化に繋がる恐れもあり多くのシステムでは対象をprojectiveな依存木に限定していると思われる.PDGでは,\ref{sec:bunpoukisoku}節で述べたように,構成素列(規則ボディ)とアーク集合(部分依存構造)のマッピングが拡張CFG規則で定義される.この記述の枠組みにより,Allornothingではなく,規則により定義されたnon-projectiveな構造のみをWell-formedな構造として共起マトリックスの共起制約として表現することが可能である.これをコントロールされたnon-projectivityと呼ぶこととする.図\ref{fig:GrammarForExamples}の(R19)はNon-projectiveな構文に対する文法規則であり,関係節の前に副詞が挿入された構文に対応している.図\ref{fig:Non-projectiveDT}に``ShesawthecatcuriouslywhichwasPercian''に対して例文文法が生成する依存森を示す.依存森には,non-projectiveな整依存木が1つ存在している.
\section{おわりに}
本稿では,PDGの基本モデルである多レベル圧縮共有データ結合モデルとPDGの概要について述べるとともに,特にPDGにおける圧縮共有データ構造である統語森と依存森について述べた.また,統語森と依存森の間には,完全性と健全性が成立することを示した.圧縮共有された句構造解釈(統語森)を圧縮共有された依存構造(依存森)に対応関係を持って変換でき,それぞれのレベルでの言語知識の適応が可能である点が最大の特徴である.また,自然言語の曖昧性例文に対してPDGの文法と試作システムを用いて解析実験を行い,各種曖昧性が依存森により圧縮共有表現できることを示し,さらに,PDGではNon-projectiveな構造を必要に応じて規則導入できることを示した.現状のPDGの実装は,方式のフィージビリティスタディを想定したものであり,文法記述の拡張(属性条件記述,任意構成素指定の導入など),解析アルゴリズム縮退アルゴリズムの効率化(文法解析による事前最適化,実装上の効率化)などを進める予定である.また,PDGの最適解探索の方式(グラフ分枝アルゴリズム)や評価方式については一部報告しているが,各種選好知識と組み合わせたPDG全体としての評価などについて報告してゆく予定である.\acknowledgment本研究を進めるにあたって依存森の完全性・健全性の証明に関して有意義なコメントをいただいたつくば大学数学科坂井公助教授に感謝いたします.\begin{comment}また,様々なコメントをいただいた査読者の方々に感謝いたします.\end{comment}\newpage\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Amano,Hirakawa,Nogami,\BBA\Kumano}{Amanoet~al.}{1989}]{Amano89}Amano,S.,Hirakawa,H.,Nogami,H.,\BBA\Kumano,A.\BBOP1989\BBCP.\newblock\BBOQTheToshibaMachineTranslationSystem\BBCQ\\newblock{\BemFutureComputingSystems},{\Bbf2}(3).\bibitem[\protect\BCAY{Bikel}{Bikel}{2004}]{Bikel04}Bikel,D.~M.\BBOP2004\BBCP.\newblock\BBOQIntricaciesofCollins'ParsingModel\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(4),\mbox{\BPGS\479--511}.\bibitem[\protect\BCAY{Carroll\BBA\Charniak}{Carroll\BBA\Charniak}{1992}]{Carroll92}Carroll,G.\BBACOMMA\\BBA\Charniak,E.\BBOP1992\BBCP.\newblock\BBOQTwoExperimentsonLearningProbablisticDependencyGrammarsformCorpora\BBCQ\\newblockTechnicalreport,DepartmentofComputerScience,Brownuniversity.\bibitem[\protect\BCAY{Charniak}{Charniak}{2000}]{Charniak00}Charniak,E.\BBOP2000\BBCP.\newblock\BBOQAmaximum-entropy-inspiredparser\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Clark\BBA\Curran}{Clark\BBA\Curran}{2003}]{Clark03}Clark,S.\BBACOMMA\\BBA\Curran,J.~R.\BBOP2003\BBCP.\newblock\BBOQLog-LinearModelsforWide-CoverageCCGParsing\BBCQ\\newblockIn{\BemProceedingsoftheSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP'03)},\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{Collins}{Collins}{1999}]{Collins99}Collins,M.\BBOP1999\BBCP.\newblock{\BemHead-DrivenStatisticalModelsforNaturalLanguageParsing}.\newblockPh.D.\thesis,UniversityofPennsylvania.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{Eisner96b}Eisner,J.\BBOP1996\BBCP.\newblock\BBOQEfficientNormalFormParsingforCombinatoryCategorialGrammar\BBCQ\\newblockIn{\BemProceedingsofthe34thAnnualMeetingoftheACL},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Harper,Hockema,\BBA\White}{Harperet~al.}{1999}]{Harper99}Harper,M.~P.,Hockema,S.~A.,\BBA\White,C.~M.\BBOP1999\BBCP.\newblock\BBOQEnhancedconstraintdependencygrammarparsers\BBCQ\\newblockIn{\BemProceedingsoftheIASTEDInternationalConferenceonArticialIntelligenceandSoftComputing}.\bibitem[\protect\BCAY{Hirakawa}{Hirakawa}{2001}]{Hirakawa01}Hirakawa,H.\BBOP2001\BBCP.\newblock\BBOQSemanticDependencyAnalysisMethodforJapaneseBasedonOptimumTreeSearchAlgorithm\BBCQ\\newblockIn{\BemProceedingsofthePACLING2001},\mbox{\BPGS\117--126}.\bibitem[\protect\BCAY{Hirakawa}{Hirakawa}{2005}]{Hirakawa05d_j}Hirakawa,H.\BBOP2005\BBCP.\newblock\BBOQGraphBranchAlgorithm:AnOptimumTreeSearchMethodforScoredDependencyGraphwithArcCo-occurrenceConstraints\BBCQ\\newblock\Jem{情報処理学会,自然言語処理研究会NL-169-16},\mbox{\BPGS\101--108}.\bibitem[\protect\BCAY{Kaplan}{Kaplan}{1989}]{Kaplan89}Kaplan,R.\BBOP1989\BBCP.\newblock\BBOQTheFormalArchitectureofLexical-FunctionalGrammar\BBCQ\\newblock{\BemJournalofInformationScienceandEngineering},{\Bbf5},\mbox{\BPGS\305--322}.\bibitem[\protect\BCAY{Lafferty,Sleator,\BBA\Temperley}{Laffertyet~al.}{1992}]{Lafferty92}Lafferty,J.,Sleator,D.,\BBA\Temperley,D.\BBOP1992\BBCP.\newblock\BBOQGrammaticalTrigrams:aProbabilisticModelofLinkGrammar\BBCQ\\newblockIn{\BemProbabilisticApproachestoNaturalLanguage}.\bibitem[\protect\BCAY{Lee\BBA\Choi}{Lee\BBA\Choi}{1997}]{Lee97}Lee,S.\BBACOMMA\\BBA\Choi,K.~S.\BBOP1997\BBCP.\newblock\BBOQReestimationandBest-FirstParsingAlgorithmforProbablisticDependencyGrammars\BBCQ\\newblockIn{\BemProceedingsoftheFifthWorkshoponVeryLargeCorpora},\mbox{\BPGS\41--55}.\bibitem[\protect\BCAY{Maruyama}{Maruyama}{1990}]{Maruyama90}Maruyama,H.\BBOP1990\BBCP.\newblock\BBOQConstraintDependencyGrammarandItsWeakGenerativeCapacity\BBCQ\\newblock{\BemComputerSoftware}.\bibitem[\protect\BCAY{Matsumoto,Tanaka,Hirakawa,Miyoshi,\BBA\Yasukawa}{Matsumotoet~al.}{1983}]{Matsumoto83}Matsumoto,Y.,Tanaka,H.,Hirakawa,H.,Miyoshi,H.,\BBA\Yasukawa,H.\BBOP1983\BBCP.\newblock\BBOQBUP:ABottom-UpParserEmbeddedinProlog\BBCQ\\newblock{\BemNewGenerationComputing},{\Bbf1}(2),\mbox{\BPGS\145--158}.\bibitem[\protect\BCAY{McDonald,Crammer,\BBA\Pereira}{McDonaldet~al.}{2005}]{McDonald05}McDonald,R.,Crammer,K.,\BBA\Pereira,F.\BBOP2005\BBCP.\newblock\BBOQSpanningTreeMethodsforDiscriminativeTrainingofDependencyParsers\BBCQ\\newblockTechnicalreport,UPennCIS.\bibitem[\protect\BCAY{Mel'uk}{Mel'uk}{1988}]{Meluk88}Mel'uk,I.~A.\BBOP1988\BBCP.\newblock{\BemDependencySyntax:TheoryandPractice}.\newblockStateUniversityofNewYorkPress,Albany,NewYork.\bibitem[\protect\BCAY{Ozeki}{Ozeki}{1994}]{Ozeki94}Ozeki,K.\BBOP1994\BBCP.\newblock\BBOQDependencyStructureAnalysisasCombinatorialOptimization\BBCQ\\newblock{\BemInformationSciences},{\Bbf78}(1-2),\mbox{\BPGS\77--99}.\bibitem[\protect\BCAY{Pereira\BBA\Warren}{Pereira\BBA\Warren}{1980}]{Pereira80}Pereira,F.\BBACOMMA\\BBA\Warren,D.\BBOP1980\BBCP.\newblock\BBOQDefiniteclausegrammarsforlanguageanalysis-asurveyoftheformalismandacomparisonwithaugmentedtransitionnetworks\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf13}(3),\mbox{\BPGS\231--278}.\bibitem[\protect\BCAY{Pollard\BBA\Sag}{Pollard\BBA\Sag}{1994}]{Pollard94}Pollard,C.\BBACOMMA\\BBA\Sag,I.~A.\BBOP1994\BBCP.\newblock{\BemHead-DrivenPhraseStructureGrammar}.\newblockUniversityofChicagoPress,Chicago.\bibitem[\protect\BCAY{Riezler,King,Kaplan,Crouch,Maxwell~III,\BBA\Johnson}{Riezleret~al.}{2002}]{Riezler02}Riezler,S.,King,T.~H.,Kaplan,R.~M.,Crouch,R.,Maxwell~III,J.~T.,\BBA\Johnson,M.\BBOP2002\BBCP.\newblock\BBOQParsingtheWallStreetJournalusingaLexical-FunctionalGrammarandDiscriminativeEstimationTechniques\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheACL(ACL-02)},\mbox{\BPGS\271--278}.\bibitem[\protect\BCAY{Rim,Seo,\BBA\Simmons}{Rimet~al.}{1990}]{Rim90}Rim,H.~C.,Seo,J.,\BBA\Simmons,R.~F.\BBOP1990\BBCP.\newblock\BBOQTransformingSyntacticGraphsintoSemanticGraphs\BBCQ\\newblockTechnicalreport,ArtificialIntelligenceLab,TexasatAustin.\bibitem[\protect\BCAY{Schiehlen}{Schiehlen}{1996}]{Schiehlen96}Schiehlen,M.\BBOP1996\BBCP.\newblock\BBOQSemanticConstructionfromParseForests\BBCQ\\newblockIn{\BemComputationalLinguistics(COLING'96)}.\bibitem[\protect\BCAY{Seo\BBA\Simmons}{Seo\BBA\Simmons}{1989}]{Seo89}Seo,J.\BBACOMMA\\BBA\Simmons,R.~F.\BBOP1989\BBCP.\newblock\BBOQASyntacticGraphs:ARepresentationfortheUnionofAllAmbiguousParseTrees\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf15}.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{Shudo80}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalaspectsofJapaneselanguageprocessing\BBCQ\\newblockIn{\BemProceedingsofCOLING'80}.\bibitem[\protect\BCAY{Sleator\BBA\Temperley}{Sleator\BBA\Temperley}{1991}]{Sleator91}Sleator,D.\BBACOMMA\\BBA\Temperley,D.\BBOP1991\BBCP.\newblock\BBOQParsingEnglishwithaLinkGrammar\BBCQ\\newblockTechnicalreport,DepartmentofComputerScience,CarnegieMellonUniversity.\bibitem[\protect\BCAY{Steedman}{Steedman}{2000}]{Steedman00}Steedman,M.\BBOP2000\BBCP.\newblock{\BemTheSyntacticProcess}.\newblockTheMITPress,Cambridge,MA.\bibitem[\protect\BCAY{Tomita}{Tomita}{1987}]{Tomita87}Tomita,M.\BBOP1987\BBCP.\newblock\BBOQAnefficientaugmented-context-freeparsingalgorithm\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13}(1-2),\mbox{\BPGS\31--46}.\bibitem[\protect\BCAY{Tsuruoka,Miyao,\BBA\Tsujii}{Tsuruokaet~al.}{2004}]{Tsuruoka04}Tsuruoka,Y.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2004\BBCP.\newblock\BBOQTowardsefficientprobabilisticHPSGparsing:integratingsemanticandsyntacticpreferencetoguidetheparsing\BBCQ\\newblockIn{\BemIJCNLP-04Workshop:BeyondShallowAnalyses-FormalismsandStatisticalModelingforDeepAnalyses}.\bibitem[\protect\BCAY{Wang\BBA\Harper}{Wang\BBA\Harper}{2004}]{Wang04}Wang,W.\BBACOMMA\\BBA\Harper,M.~P.\BBOP2004\BBCP.\newblock\BBOQAStatisticalConstraintDependencyGrammar(CDG)Parser\BBCQ\\newblockIn{\BemWorkshoponIncrementalParsing:BringingEngineeringandCognitionTogether(ACL)},\mbox{\BPGS\42--49}.\bibitem[\protect\BCAY{Wilks}{Wilks}{1975}]{Wilks75}Wilks,Y.~A.\BBOP1975\BBCP.\newblock\BBOQAnIntelligentAnalyzerandUnder-standerofEnglish\BBCQ\\newblock{\BemCommunicationsoftheA.C.M.},{\Bbf18},\mbox{\BPGS\264--274}.\bibitem[\protect\BCAY{Winograd}{Winograd}{1983}]{Winograd83}Winograd,T.\BBOP1983\BBCP.\newblock{\BemLanguageasaCognitiveProcess:Volume1Syntax}.\newblockAddison-WesleyPublishing.\bibitem[\protect\BCAY{工藤拓\JBA松本裕治}{工藤拓\JBA松本裕治}{2005}]{Kudo05_j}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ相対的な係りやすさを考慮した日本語係り受け解析モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(4),\mbox{\BPGS\1082--1092}.\bibitem[\protect\BCAY{平川秀樹}{平川秀樹}{2002}]{Hirakawa02_j}平川秀樹\BBOP2002\BBCP.\newblock\JBOQ最適解探索に基づく日本語意味係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(3),\mbox{\BPGS\696--707}.\bibitem[\protect\BCAY{平川秀樹\JBA天野真家}{平川秀樹\JBA天野真家}{1989}]{Hirakawa89a}平川秀樹\JBA天野真家\BBOP1989\BBCP.\newblock\JBOQ構文/意味優先規則による日本語解析\JBCQ\\newblock\Jem{人工知能学会第3回全国大会論文集},\mbox{\BPGS\363--366}.\bibitem[\protect\BCAY{野呂智哉\JBA岡崎篤\JBA徳永健伸\JBA田中穂積}{野呂智哉\Jetal}{2002}]{Noro02}野呂智哉\JBA岡崎篤\JBA徳永健伸\JBA田中穂積\BBOP2002\BBCP.\newblock\JBOQ大規模日本語文法構築に関する一考察\JBCQ\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\387--390}.\bibitem[\protect\BCAY{野呂智哉\JBA橋本泰一\JBA徳永健伸\JBA田中穂積}{野呂智哉\Jetal}{2005}]{Noro05}野呂智哉\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2005\BBCP.\newblock\JBOQ大規模日本語文法の開発\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\3--32}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{平川秀樹}{昭和55年京都大学大学院工学研究科電気工学専攻修士課程修了.同年東京芝浦電気(株)入社.機械翻訳システムの研究開発に従事.昭和57-59年新世代コンピュータ開発機構(ICOT)研究員,平成6-7年MITMediaLab.派遣研究員,(株)東芝研究開発センター知識メディアラボラトリ所属,自然言語処理,知識処理,ヒューマンインタフェースに関する研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL,GSK各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\begin{comment}\end{comment}\newpage\subsection*{付録1:構文グラフの問題}\small\def\verbatimsize{}次の文法規則を与えて``Tokyotaxidrivercallcenter''をスタートシンボルをnpとして解析する場合を考える.{\rm\begin{verbatim}[GrammarRules]np/NP-->npc/NP:[]npc/Nb-->np1/NP1,n/Na,n/Nb:[arc(nj,NP1,Nb),arc(nc,Na,Nb)]npc/Na-->np2/NP2,n/Na:[arc(nc,NP2,Na)]npc/Na-->np3/NP3,n/Na:[arc(nc,NP3,Na)]np1/Nc-->n/Na,n/Nb,n/Nc:[arc(nc,Na,Nb),arc(nc,Nb,Nc)]np2/Nd-->n/Na,n/Nb,n/Nc,n/Nd:[arc(nj,Na,Nc),arc(nc,Nb,Nc),arc(nc,Nc,Nd)]np3/Nd-->n/Na,n/Nb,n/Nc,n/Nd]:[arc(nc,Na,Nb),arc(nj,Nb,Nd),arc(nc,Nc,Nd)][Lexicon]word(n,[Tokyo]).word(n,[taxi]).word(n,[driver]).word(n,[call]).word(n,[center]).\end{verbatim}}\begin{comment}\begin{figure}[h]\begin{center}\epsfile{file=\myfigdir/DF付録1−1.eps,scale=0.6}\end{center}\myfiglabelskip\end{figure}\end{comment}この例文では,図\ref{fig:SynGraphBadExample}の(a),(b),(c)の3つの依存木が解として存在する.依存木のnp1,np2,np3の箱は,句構造と依存構造の対応を分かりやすく示すために補助的に入れている.\begin{figure}[h]\begin{center}\epsfile{file=\myfigdir/DF付録1−2.eps,scale=0.6}\end{center}\myfiglabelskip\caption{依存木と構文グラフ/排他マトリックス}\label{fig:SynGraphBadExample}\end{figure}(a)では,nc-1,nc-2,(b)では,nc-2,nc-3,(c)では,nc-3,nc-1の間で共起関係が成立するため,図の構文グラフ/排他マトリックスにおいて,それぞれ対応する排他マトリックスは``''となっている.このため,(d)の依存木も依存グラフ/排他マトリックスに存在するが,これに対応する構文木は存在せず,健全性が損なわれている.\normalsize\subsection*{付録2:初期依存森の完全性と健全性の証明}\small以下では,統語森PFとそれから構成された依存森DF(依存グラフDG,共起マトリックスCM)を想定する.依存森の完全性・健全性の証明の前に,本文で示したアルゴリズムで生成される統語森と依存森の要素に成立する関係を示し,依存森の完全性・健全性を示すために必要な補題を示す.\subsection*{[圧縮弧と単一弧]}統語森は圧縮弧の集合として構成されている.\ref{sec:konokousei}節で説明したように圧縮弧は単一弧の集合と等価であり,以下では,圧縮弧は単一弧の集合として扱う.すなわち,図\ref{fig:ArcStructure}の圧縮弧\mygapskip圧縮弧:$<$ID,FP,TP,C,PH,FCSL,RCS,DSL$>$ここでFCSL=[CS$_1$,${\ldots}$,CS$_n$],DSL=[DS$_1$,${\ldots}$,DS$_n$]\mygapskip{\mynoindent}は次の単一弧の集合\{*e$_1$,${\ldots}$,*e$_n$\}に対応する.\mygapskip*e$_1$:$<$ID-1,FP,TP,C,PH,(CS$_1$DS$_1$),RCS$>$:*e$_n$:$<$ID-$n$,FP,TP,C,PH,(CS$_n$DS$_n$),RCS$>$\mygapskip{\mynoindent}例えば,図\ref{fig:ArcStructure}の弧*E4は,次の単一弧*e$_1$,*e$_2$からなる集合である\footnote{部分依存構造はアーク集合であるので証明部分では\{\}で表現する.}.\mygapskip単一弧*e$_1$:$<$170-1,0,5,vp,[time]-v-0,[103,169],[],\{arc(obj-25,[flies]-n-1,[time]-v-0)\}$>$単一弧*e$_2$:$<$170-2,0,5,vp,[time]-v-0,[103,119,165],[],\\\{arc(obj-4,[flies]-n-1,[time]-v-0),arc(vpp-20,[like]-pre-2,[time]-v-0)\}$>$\mygapskip{\mynoindent}単一弧は,圧縮弧のIDとCSDSペアのリスト中の位置番号の組合せ(例えば*e$_1$では170-1)で統語森中で一意に特定される.また,語彙弧も同様に1つの単一語彙弧よりなる集合として扱う.図\ref{fig:ArcStructure}の弧@E5は,次の単一語彙弧からなる集合\{@e$_3$\}である.\mygapskip単一弧@e$_3$:$<$156-1,4,5,n,[arrow]-n-4,[lex([arrow]-n)],\{[[arrow]-n-4]\}$>$\mygapskip圧縮弧や単一弧を構成する種々の要素は対応関係を持っている.次に証明で利用する用語や関係定義などを示す.例の*e$_1$は上記の単一弧*e$_1$である.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}弧とその要素の関係\begin{itemize}\item[\myitemindentcs($X$)]:単一弧$X$の構成素列CS.ex.cs(*e$_1$)=[103,169](103,169は圧縮弧のID)\item[\myitemindentds($X$)]:単一弧$X$の部分依存構造DSまたは単一語彙弧のノード\\ex.ds(*e$_1$)=\{arc(obj-25,[flies]-n-1,[time]-v-0)\},ds(@e$_3$)=\{[arrow]-n-4\}\item[\myitemindent統語森・弧中のアーク]:単一弧$X$中のアークとは$a{\in}$ds($X$),圧縮弧$Y$中のアークとは$a{\in}$ds($X$),$X{\in}Y$,統語森PF中のアークとは$a{\in}$ds($X$),$X{\in}Y$,$Y{\in}$PFをいう.\end{itemize}アークやノードの関係\begin{itemize}\item[\myitemindentgov($X$)]:アーク$X$の支配ノード.ex.gov(arc(obj-25,[flies]-n-1,[time]-v-0))=[time]-v-0\item[\myitemindentdep($X$)]:アーク$X$の依存ノード.ex.dep(arc(obj-25,[flies]-n-1,[time]-v-0)=[flies]-n-1\item[\myitemindenttop\_node($X$)]:依存木$X$のトップノード(どのアークの依存ノードにもなっていないノード).\end{itemize}依存木DT中のアーク$X$,$Y$に対する関係\begin{itemize}\item[\myitemindentbro($X$,$Y$)]:gov($X$)=gov($Y$).$X$,$Y$を兄弟アークと呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmDT}]{1}}\:Y$]:dep($X$)=gov($Y$).$X$は$Y$の親,$Y$は$X$の子と呼び,この関係を親子関係と呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmDT}]{+}}\:Y$]:$X$から$Y$に親子関係の連鎖(1段以上)が存在.$X$を$Y$の祖先アーク,$Y$を$X$の子孫アークと呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmDT}]{*}}\:Y$]:$X=Y$または$X{\xrightarrow[{\rmDT}]{+}}Y$.\end{itemize}\myhalfskip\end{minipage}}\subsection*{[統語森・統語森中の弧・構文木]}統語森PFは,ルート圧縮弧*E$_{root}$をルートとし語彙弧をリーフとする圧縮弧からなる非循環有向グラフ(DAG)である.統語森の構成より,次のようにパスを定義する.\begin{definition}{\bf統語森中のパス}とは,圧縮弧から1つの単一弧を選択すること,ならびに単一弧の構成素列CS(圧縮弧の列)から1つの圧縮弧を選択することにより,圧縮弧と単一弧を交互に辿ることにより得られる圧縮弧と単一弧からなる列である.\end{definition}{\mynoindent}今,統語森中の弧*E$_0$,*E$_1$,*E$_2{\cdots}$が次のようであるとする.\mygapskip\hspace{15mm}*E$_0=$\{*e$_1$,*e$_2$\},*E$_1=$\{*e$_3$\},*E$_2=$\{*e$_4$,*e$_5$\},*E$_3=$\{*e$_6$,*e$_7$\}${\ldots}$\hspace{15mm}cs(*e$_1$)=[*E$_1$,*E$_2$],cs(*e$_2$)=[*E$_3$],cs(*e$_3$)=[*E$_4$,*E$_5$]${\ldots}$\mygapskip{\mynoindent}次の4つはパスの例である.\mygapskip\hspace{15mm}[*E$_0$,*e$_1$,*E$_2$,*e$_5$],[*E$_0$,*e$_1$,*E$_2$],[*e$_1$,*E$_1$,*e$_3$,*E$_5$],[*e$_1$,*E$_1$,*e$_3$]\mygapskip{\mynoindent}以下に証明で用いる用語や関係定義を示す.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\mygapskip統語森に関連する用語や関係定義\begin{itemize}\item[\myitemindent$X\:{\xrightarrow[{\rmPF}]{+}}\:Y$]:統語森PFにおいて単一弧または圧縮弧$X$から単一弧または圧縮弧$Y$に対して[$X,{\ldots},Y$]なるパスが存在する.$X$を$Y$の祖先とも呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmPF}]{*}}\:Y$]:単一弧または圧縮弧$X$,$Y$に対して,$X=Y$または$X{\xrightarrow[{\rmPF}]{{\tiny+}}}Y$が成立する.このとき,$X$から$Y$に{\bf到達可能}と呼ぶ.\item[\myitemindent$X\:{\swarrow}${\tiny[PF]}${\searrow}\:Y$]:単一弧または圧縮弧$X$,$Y$に対して,$X{\neq}Y$,$\neg$($X{\xrightarrow[{\rmPF}]{*}}Y$),$\neg$($Y{\xrightarrow[{\rmPF}]{*}}X$)であり,$Z{\xrightarrow[{\rmPF}]{*}}X$かつ$Z{\xrightarrow[{\rmPF}]{*}}Y$なる単一弧または圧縮弧$Z$が統語森PFに少なくとも1つ存在する.\item[\myitemindent弧が支配するアーク]:アーク$X$は$X{\in}$ds(*e),*E${\xrightarrow[{\rmPF}]{{\tiny*}}}$*eの時,弧*Eに支配されるという.\end{itemize}\myhalfskip\end{minipage}}\myhalfskip\myhalfskip{\mynoindent}統語森の定義よりルート圧縮弧*E$_{root}$から統語森PF中の全ての単一弧または圧縮弧へ到達するパスが存在する.以上定義した記法を用いると\ref{sec:PFandDFseisei}節の共起設定条件は次の様に定義できる.\begin{definition}共起設定条件:アーク$X$,$Y$は次のいずれかの条件を満たす時に共起可能である.\begin{itemize}\item[(C1)]:アーク$X$,$Y$に対し$X$,$Y{\in}$ds(*e),*e${\in}$*E,*E${\in}$PFなる*eが存在する.\item[(C2)]:アーク$X$,$Y$に対し$X{\in}$ds(*e$_x$),$Y{\in}$ds(*e$_y$),*e$_x{\xrightarrow[{\rmPF}]{{\tiny+}}}$*e$_y$又は*e$_y{\xrightarrow[{\rmPF}]{{\tiny+}}}$*e$_x$なる*e$_x$,*e$_y$が存在する.\item[(C3)]:アーク$X$,$Y$に対して$X{\in}$ds(*e$_x$),$Y{\in}$ds(*e$_y$),*e$_x{\swarrow}${\tiny[PF]}${\searrow}$*e$_y$なる*e$_x$,*e$_y$が存在する.\end{itemize}\end{definition}{\mynoindent}また,構文木を次のように定義する.\begin{definition}構文木は,統語森中の圧縮弧*Eに対して適用される図\ref{fig:get_parse_tree}の再帰的な手続きget\_tree(*E)により得られる単一弧の集合である.\end{definition}\clearpage\clearpage\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF付録2圧縮弧から構文木を得るアルゴリズム.eps,scale=0.7}\end{center}\myfiglabelskip\myfiglabelskippre\caption{圧縮弧から構文木を得るアルゴリズム}\myfiglabelskippost\label{fig:get_parse_tree}\end{figure}図のselect(RPE)では圧縮弧RPE中の任意の単一弧を1つ選択する.lexical\_edge(SE)はSEが語彙弧のときに真となる.また,構文木は,弧*Eの始点から終点の範囲の語を被覆する.\begin{definition}parse\_trees(*E)は,弧*Eに対する全構文木の集合である.\end{definition}\begin{figure}[b]\myfigskiptop\begin{center}\epsfile{file=\myfigdir/DF付録2弧の結合木.eps,scale=0.81}\end{center}\myfiglabelskip\myfiglabelskippre\caption{弧の結合木}\label{fig:EdgeCombinationTree}\myfiglabelskippost\end{figure}\subsection*{[弧とアーク・部分依存構造の関係]}図\ref{fig:ChartAlgotithm}のアルゴリズムはデータ構造として圧縮弧を用いて構成されている.但し,弧の圧縮共有は,不活性弧が生成された時点(図\ref{fig:ChartAlgotithm}(c),(d))でのみ行われる.このため,活性圧縮弧は1つの単一弧を要素として持つのみであり\footnote{活性弧も圧縮共有する解析アルゴリズムも考えられるため圧縮弧をベースとしている.},活性圧縮弧と単一弧は1対1対応している.以下の議論では,簡便のため,圧縮弧を単に弧と表現する.構文解析は,不活性弧を活性弧に結合(combine)し新しい弧が生成されることで進行する.模式的に言えば,弧の結合では,\ref{sec:konokousei}節で述べたように,活性弧の``・''を1つ右に移動し,結合する不活性弧の句ヘッド(ノード)との変数束縛を行った新たな弧の生成が行われる.図\ref{fig:EdgeCombinationTree}は,弧の結合により1つの文法規則から不活性弧が生成される様子を示した木であり,{\bf弧の結合木}と呼ぶ.弧の結合木は,ルートにある文法規則\footnote{文法規則を弧の形式で表現している.実際にはこの弧は生成されないが説明上導入している.}から,弧の結合により活性弧が生成され(中間に位置),最終的に不活性弧(リーフに位置)になる様子を示している.文法規則は次である.$${\rmy/}X_h\rightarrow{\rmx}_1{\rm/}X_1{\cdots}{\rmx}_h{\rm/}X_h{\cdots}{\rmx}_n{\rm/}X_n:\{A_1,A_2,{\ldots},A_{n-1}\}$$$A_i$はアークで,arc($a_i$,$X_k$,$X_l$)の形式($a_i$は任意のアーク名,1${\leq}k{\leq}n$,1${\leq}l{\leq}n$,$k{\neq}l$)をしている.\{$A_1$,${\ldots}$,$A_{n-1}$\}は,部分依存構造条件(\ref{sec:bunpoukisoku}節)を満足している.結合木中の弧は,「・」を用いた図式的表現で示しており,始点,終点は省略している.弧を結ぶ枝が弧の結合を表しており,枝の元の弧と枝に付けた不活性圧縮弧とが結合して枝の先の弧を新規に生成する.例えば,弧E$_{11}$(図\ref{fig:EdgeCombinationTree}(a))と弧$<$*Ex$_2$/n$_{21}$$\rightarrow$${\ldots}$$>$(図\ref{fig:EdgeCombinationTree}(b))が結合して弧E$_{21}$(図\ref{fig:EdgeCombinationTree}(c))が生成される.枝を下る毎に「・」が右に移動するので,E$_0$から葉の不活性弧までの深さは文法規則の規則ボディの要素数$n$である.弧の結合では,結合対象の弧の句ヘッド(ノード)が結合先の変数に束縛されるが,この変数の束縛状況を結合木の弧の後に\{\}で示している.例えば,E$_0$と(d)の弧(句ヘッドはn$_{11}$)との結合でE$_{11}$が生成され,さらに(b)の弧(句ヘッドはn$_{21}$)が結合して弧E$_{21}$が生成される.この結果(c)の弧E$_{21}$の変数束縛結果は\{$X_1$:=n$_{11}$,$X_2$:=n$_{21}$\}となっている\footnote{変数のスコープは1つの弧内であり,同じ名前の変数でも別の弧では異なった変数である.}.変数束縛により依存ノードと支配ノードの両者が確定したアークは{\bf確定アーク}と呼び,図\ref{fig:ChartAlgotithm}(i)のadd\_arcidにより新規のアークIDが付与される.確定アークは,図\ref{fig:EdgeCombinationTree}では,同図(e)のa$_1$ように小文字aで表現する.1回の変数束縛で複数のアークが確定する場合や1つも確定しない場合もあるが,確定されたアーク$a$に対しては,それを確定した変数束縛は一意に決定される.さらに,その変数束縛(あるいは弧の結合)により生じる弧は1つに特定される.この弧を(確定された){\bfアークを生成した弧}と呼び,src\_Edge(a)と記述する.例えば,図\ref{fig:EdgeCombinationTree}の(e)と(f)の結合では,変数$X_i$へのノードn$_{im}$(例えば[like]-pre-3とする)の束縛により,アーク$A_i$(例えば,arc(pre,$X_i$,[time]-v-0)とする)が確定されアークa$_i$(arc(pre-28,[like]-pre-3,[time]-v-0)(ユニークアークIDが28))になったとすると,アークa$_i$を生成した弧すなわちsrc\_Edge(a$_i$)は弧E$_{im}$(図\ref{fig:EdgeCombinationTree}(g))となる.リーフに位置する不活性弧(例えば図\ref{fig:EdgeCombinationTree}(h))では,部分依存構造条件より句ヘッドを含む全ての変数が束縛され,全てのアークが確定された状態となる.不活性弧は,弧の結合木のルートからリーフにいたる一連の弧の結合により生じる変数の束縛,アークの確定の結果を表している.次に結合木に関連する用語や関係定義などを示す.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\mygapskip弧の結合木に関連する用語や関係定義\begin{itemize}\item[\myitemindent{\bf確定アーク}]:弧の結合時の変数束縛により依存ノードと支配ノードの両者が確定されたアーク\item[\myitemindentsrc\_Edge($a$)({\bf生成弧})]:確定アーク$a$を生成した弧(活性圧縮弧または不活性圧縮弧).確定アークから弧への対応は1対1,弧から確定アークへの対応は1対0〜多.\item[\myitemindent$X{\xrightarrow[{\rmCT}]{*}}Y$({\bfオリジン})]:弧の結合木CTにおいて,ルートから弧$Y$に至る経路に弧$X$が存在する,又は,$X=Y$である.$X$を$Y$のオリジンと呼ぶ.\item[\myitemindent{\bfオリジンの関係}]:弧の結合木CTにおいて弧$X$,$Y$に関して$X{\xrightarrow[{\rmCT}]{*}}Y$または$Y{\xrightarrow[{\rmCT}]{*}}X$が成り立つ時,$X$と$Y$はオリジンの関係にあるという.\item[\myitemindentedge($a$,$DT$)({\bf対応弧})]:確定アーク$a$と整依存木$DT$に対して次の条件(補題\ref{lem:app2-2})を満たす単一弧$e$を意味し,アーク$a$の整依存木$DT$に対する「対応弧」と呼ぶ.{\myitemindent}$DT{\supseteq}{\rmds(}e{\rm)},{\rma}{\in}{\rmds(}e{\rm)}$\end{itemize}\myhalfskip\end{minipage}}\myhalfskip{\mynoindent}上記の弧の結合木の構成より,部分依存構造中に存在する2つの確定アークa$_i$,a$_j$に関して,次の補題が成立する.\begin{lemma}[同一部分依存構造中のアークの関係]\label{lem:TwoArcsInOneDS}単一弧$e$中の確定アークa$_i$,a$_j{\in}${\rmds(}$e${\rm)}に対してそれらの生成弧src\_Edge(a$_i$)とsrc\_Edge(a$_j$)はオリジンの関係にある.\end{lemma}{\mynoindent}また,一度確定されたアークは,結合木上で下位に位置する弧の依存構造に含まれる.例えば,(g)で確定されたアークa$_i$は,(h)など(g)をオリジンとする弧全てに含まれる.このため,次の補題が成立する.\begin{lemma}[アークとアークを生成した弧の関係]\label{lem:app2-1}確定アークa$_i$,a$_j$に対して,src\_Edge(a$_i$)${\xrightarrow[{\rmCT}]{*}}$src\_Edge(a$_j$)の時,PF中の任意の単一弧*e(*e${\in}$*E,*E${\in}$PF)に対してa$_j{\in}$ds(*e)であればa$_i{\in}$ds(*e)である.\end{lemma}なお,アークが確定される毎にユニークなアークIDが生成されるため,結合木のリーフの不活性弧(図\ref{fig:EdgeCombinationTree}の*E$_{n1}{\cdots}$*E$_{no}{\ldots}$*E$_{nw}$)中の単一不活性弧は全て異なった部分依存構造を持つ.これから,PF中の任意の*e$_i$,*e$_j$(*e$_i{\neq}$*e$_j$)に対して,ds(*e$_i$)${\neq}$ds(*e$_j$)であり,単一不活性弧と部分依存構造は1対1対応すると言える.実際には,既に述べたように結合木のリーフの不活性弧は,複数の単一弧を含む弧にマージされる場合もあり,この結果得られる圧縮弧が統語森の要素となるが,マージ操作が単一弧の部分依存構造を更新することはないため,単一不活性弧と部分依存構造の1対1対応関係は保証される.また,前記共起設定条件(C2)に関連して,統語森に関する次の補題が成立する.\begin{lemma}[パス中の弧が含むアークに関する制約]\label{lem:ArcConstraintOfArcsOnOnePath}アークa$_i{\in}$ds(e$_i$),a$_j{\in}$ds(e$_j$)に関して,e$_i{\xrightarrow[{\rmPF}]{{\tiny+}}}$e$_j$であれば,dep(a$_i$)${\neq}$dep(a$_j$)である.また,逆にdep(a$_i$)$=$dep(a$_j$)であれば¬(e$_i{\xrightarrow[{\rmPF}]{{\tiny+}}}$e$_j$)である.\proof{部分依存構造条件(\ref{sec:bunpoukisoku}節)より,1つの単一弧の有する部分依存構造は句ヘッドをルートとした依存木となるため成立する.}\end{lemma}\begin{lemma}[対応弧の存在]\label{lem:app2-2}整依存木{\rmDT}中のアーク{\rma$_i$}({\rma$_i$}${\in}${\rmDT)}に対して次が成立する圧縮弧{\rmE}${\in}${\rmPF},単一弧{\rme}${\in}${\rmE}がただ1つ存在する.{\rmDT}⊇{\rmds(}e{\rm)},{\rma$_i$}${\in}${\rmds(}e{\rm)}\mygapskip{\mynoindent}補題\ref{lem:app2-2}は,アーク{\rma$_i$}が整依存木{\rmDT}の要素の時,{\rma$_i$}を含む部分依存構造{\rmds(}e{\rm)}の全体が{\rmDT}に含まれるところの単一弧{\rme}が統語森に存在することを意味している.\proof{DTのノード数を$n$(アーク数:$n-1$)とする.DTをアークa$_i$に関して次の2つのアーク集合IN\_ARCS,OUT\_ARCSに分ける.{\mygapskip}IN\_ARCS=\{$a_j$${\mid}$src\_Edge($a_i$)${\xrightarrow[{\rmCT}]{*}}$src\_Edge($a_j$)またはsrc\_Edge($a_j$)${\xrightarrow[{\rmCT}]{*}}$src\_Edge($a_i$)\}OUT\_ARCS=DT$-$IN\_ARCS{\mygapskip}{\mynoindent}また,IN\_ARCS中のアークに対する生成弧の集合をSRC\_EDGESとする.{\mygapskip}SRC\_EDGES=\{$E$${\mid}$$E$=src\_Edge($a$),$a{\in}$IN\_ARCS\}{\mygapskip}{\mynoindent}ここで,次が成立する.$$「{\rmSRC\_EDGES}中の任意の弧の間でオリジンの関係が成立する」\eqno{(A)}$$今,$U$,$V{\in}$SRC\_EDGESを考える.これらは定義よりE$_i=$src\_Edge(a$_i$)とオリジンの関係にあり,次の3つの場合のいずれかとなる.\begin{itemize}\item[\myitemindent(a)]片方がE$_i$のオリジン,E$_i$が他方のオリジン.$U{\xrightarrow[{\rmCT}]{*}}$E$_i$,E$_i{\xrightarrow[{\rmCT}]{*}}V$\item[\myitemindent(b)]両方がE$_i$のオリジン.$U{\xrightarrow[{\rmCT}]{*}}$E$_i$,$V{\xrightarrow[{\rmCT}]{*}}$E$_i$\item[\myitemindent(c)]E$_i$が両方のオリジン.E$_i{\xrightarrow[{\rmCT}]{*}}U$,E$_i{\xrightarrow[{\rmCT}]{*}}V$\end{itemize}{\mynoindent}(a),(b)の場合は,弧の結合木の構成から明らかに(A)が成立する.以下で(c)の場合に$U$と$V$がオリジンの関係にないと仮定すると矛盾が生じることを示す.$U$と$V$がオリジンの関係にないと仮定する.前提より$U$=src\_Edge(a$_u$),$V$=src\_Edge(a$_v$)なるa$_u$,a$_v{\in}$DTが存在する.DT中のアークは依存森中に存在する必要があるため,$U$,$V$をオリジンとする不活性弧が統語森に含まれる必要がある.この不活性弧を*E$_u$,*E$_v$,その中の単一弧を*e$_u$,*e$_v$(a$_u{\in}$*e$_u$,a$_v{\in}$*e$_v$)とする.補題\ref{lem:app2-1}より,*e$_u$,*e$_v$は共にa$_i$を含む.DTが整依存木なのでa$_u$,a$_v$の間に共起関係が成立する.すなわち,前記共起設定条件(C1)〜(C3)のいずれかが成立する.(C1)については,a$_u$,a$_v{\in}$ds($e$)なる$e$が存在すると補題\ref{lem:TwoArcsInOneDS}より$U$と$V$がオリジンの関係になり仮定と矛盾する.よって(C1)は成立しない.(C2)は,*e$_u{\xrightarrow[{\rmPF}]{+}}$*e$_v$(逆も同様に議論可能)が成立することである.ds(*e$_u$)中のアークを構成するノードは,部分依存構造条件よりcs(*e$_u$)の各構成素の句ヘッドである.このため,a$_i{\in}$ds(*e$_u$)に対してdep(a$_i$)またはgov(a$_i$)のいずれかは*e$_v$の被覆範囲の外のノードである.一方,a$_i{\in}$ds(*e$_v$)からは,dep(a$_i$),gov(a$_i$)ともに*e$_v$の被覆する範囲に存在しなければならない.これから矛盾が生じるため,(C2)は成立しない.(C3)は,*e$_u{\swarrow}${\tiny[PF]}${\searrow}$*e$_v$が成立することであるが,*e$_u$と*e$_v$が共にa$_i$を含むことから被覆範囲がオーバラップし成立しない.以上より,上記(c)の場合も,$U$と$V$がオリジンの関係にないと仮定するとa$_u$とa$_v$の共起関係が成立しないため,$U$と$V$はオリジンの関係にあるといえる.以上より,(A)が成立する.\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/DF付録2依存木のアークを生成した弧.eps,scale=1.0}\end{center}\myfiglabelskip\myfiglabelskippre\caption{依存木のアークを生成した弧}\myfiglabelskippost\label{fig:CorrespondenceDT2Edge}\end{figure}\mygapskip{\mynoindent}今,E$_i$からつながる最後の弧,すなわち次の条件を満たす弧をE$_{last}$とおく.\mygapskipE$_i{\xrightarrow[{\rmCT}]{*}}$E$_{last}$E$_{last}{\xrightarrow[{\rmCT}]{*}}$E$_j$(E$_j{\in}$SRC\_EDGES)を満たすE$_j$はE$_{last}$のみである\mygapskip{\mynoindent}図\ref{fig:CorrespondenceDT2Edge}に説明のためIN\_ARCSとSRC\_EDGESの関係を模式的に示す.E$_{start}$は文法規則に対応する弧であり,文法規則をy/$X_h$$\rightarrow$x$_1$/$X_1{\cdots}$x$_z$/$X_z$:\{$A_1$,${\ldots}$,$A_{z-1}$\}とする.(A)よりSRC\_EDGES中の弧は全てオリジンの関係にあるため,SRC\_EDGESは,E$_{start}$をルートとし,E$_1$,${\ldots}$,E$_{last}$からなるCT上の経路を構成する.a$_i$の生成弧E$_i$はこのパス上のいずれかに存在する.また,E$_{last}$が生成したアークa$_{last}$が少なくとも1つIN\_ARCS中に存在する.E$_{last}$は,活性弧であるか不活性弧であるかのいずれかである(図\ref{fig:CorrespondenceDT2Edge}は,弧が活性弧の場合である)が,E$_{last}$を活性弧と仮定すると次に示すように矛盾が生じる.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF付録2整合部分依存構造の存在証明.eps,scale=0.82}\end{center}\myfiglabelskip\caption{対応弧の存在説明図}\label{fig:ActiveEdgeLast}\end{figure}E$_{last}$が活性弧であると仮定する.図\ref{fig:ActiveEdgeLast}に示すように,E$_{last}$(図\ref{fig:ActiveEdgeLast}(a))は少なくとも1つの残り構成素x$_{u+1}$(変数は省略,図\ref{fig:ActiveEdgeLast}(b))を有する.ここでE$_{last}$の始点をs1,終点をt1とする.依存グラフは統語森中のアークより構成されるため,前提a$_{last}{\in}$DTより,a$_{last}$を生成した弧E$_{last}$をオリジンとする少なくとも1つの不活性弧*E$_{x}$(図\ref{fig:ActiveEdgeLast}(c))が統語森PFに存在する.図に示すように*E$_{x}$は,活性弧E$_{last}$をオリジンとするため,始点はE$_{last}$の始点s1と等しく,終点t3は,E$_{last}$の終点t1より大きい.次に,位置t1+1のノードn$_{t1+1}$(図\ref{fig:ActiveEdgeLast}(d))を考える(DTは整依存木であるため,整被覆条件より必ずn$_{t1+1}$は存在する).DTにはn$_{t1+1}$を依存ノードとするアークが1つ存在し,これをa$_{next}$(dep(a$_{next}$)$=$n$_{t1+1}$,図\ref{fig:ActiveEdgeLast}(e))とする.a$_{next}$は,a$_{last}$の定義からOUT\_ARCSの要素である.a$_{next}{\in}$DTより,a$_{next}$の生成弧E$_{next}$をオリジンとする不活性弧*E$_{y}$が少なくとも1つ統語森PFに存在する.E$_{next}$は,その範囲中にa$_{next}$を含むので,その始点s2はt1以下(図\ref{fig:ActiveEdgeLast}(f)),その終点はt1+1以上である(図\ref{fig:ActiveEdgeLast}(g)).よって,図に示すように*E$_{y}$の始点はt1以下となる.以上より,E$_{last}$をオリジンとする不活性弧*E$_{x}$とE$_{next}$をオリジンとする不活性弧*E$_{y}$の弧の範囲は位置t1でオーバーラップする.ここで,a$_{last}$とa$_{next}$に対して共起設定条件(C1)〜(C3)のいずれもが成立しないことを示す.上記より*E$_{x}$と*E$_{y}$は被覆する範囲がオーバーラップするため,(C3)は成立しない.また,前提より*E$_{x}{\neq}$*E$_{y}$であり(C1)は成立しない.共起設定条件(C2)は*E$_{x}{\xrightarrow[{\rmPF}]{{\tiny+}}}$*E$_{y}$(またはその逆)が成立することである.今,*E$_x$中のアークで依存ノードをn$_{t1+1}$とするアークをa$_m$とすると,a$_m{\neq}$a$_{next}$である(もし,a$_m=$a$_{next}$であれば,src\_Edge(a$_{next}$)とE$_i$はオリジンの関係にあるため,前提a$_{next}{\in}$OUT\_ARCSと矛盾する).補題\ref{lem:ArcConstraintOfArcsOnOnePath}より*E$_{x}{\xrightarrow[{\rmPF}]{{\tiny+}}}$*E$_{y}$が成立することはなく,(C2)も成立しない.以上より,DTの要素であるa$_{last}$とa$_{next}$の間に共起関係が成立することはなく,これはDTが整依存木であることと矛盾する.よって,E$_{last}$は活性弧ではない.\mygapskip次に,E$_{last}$が不活性弧であるとする(不活性弧であるので,*E$_{last}$と記述する).\begin{itemize}\item[(a)]a$_{last}$を生成した弧*E$_{last}$は不活性弧(結合木のリーフ)であるのでa$_{last}$を含む圧縮弧は,*E$_{last}$のみである.また,a$_{last}{\in}$ds(*e$_{last}$),*e$_{last}{\in}$*E$_{last}$なる*e$_{last}$がただ1つ存在する.\item[(b)]a$_{last}{\in}$DTより,*E$_{last}{\in}$PFである.\item[(c)]a$_{last}{\in}$DTと補題\ref{lem:app2-1}より,DT${\supseteq}$ds(*e$_{last}$)である.\end{itemize}{\mynoindent}(a)〜(c)より,補題が成立する.}\end{lemma}\subsection*{[接続するアークと対応する弧の関係]}親子関係または兄弟関係にあるアークa$_i$,a$_j$(a$_i{\xrightarrow[{\rmDT}]{1}}$a$_j$またはbro(a$_i$,a$_j$))を「{\bf接続するアーク}」と呼び,整依存木DT中の接続するアークに対して以下の2つの補題が成立する.\begin{lemma}[接続するアークと対応する弧]\label{lem:app2-3}整依存木DT中の接続するアークa$_i$,a$_j$に対して,*e$_i$=edge(a$_i$,DT),*e$_j$=edge(a$_j$,DT)とした時に,次の(a),(b),(c)のいづれかが成立する.\begin{itemize}\item[(a)]*e$_i=$*e$_j$\item[(b)]*e$_i{\xrightarrow[{\rmPF}]{+}}$*e$_j$\item[(c)]*e$_j{\xrightarrow[{\rmPF}]{+}}$*e$_i$\end{itemize}インフォーマルな表現であるが,補題\ref{lem:app2-3}は,依存木中のアークが接続関係にあれば,それらの対応弧はPTにおいて到達可能であるということを示している.\proof{a$_i$,a$_j$は整共起条件を満足するので,共起設定条件より,*e$_i$,*e$_j$は次の(r1)〜(r3)のいずれかの関係を満足している必要がある.\begin{itemize}\item[(r1)]*e$_i$=*e$_j$\item[(r2)]*e$_i{\xrightarrow[{\rmPF}]{+}}$*e$_j$又は*e$_j{\xrightarrow[{\rmPF}]{+}}$*e$_i$\item[(r3)]*e$_i{\swarrow}${\tiny[PF]}${\searrow}$*e$_j$\end{itemize}今,接続するアークa$_i$,a$_j$が共有するノードを$n$とすると*e$_i$と*e$_j$は共に$n$を被覆する.(r3)の*e$_i$と*e$_j$が共に同一のノードを被覆することはないので,(r1)または(r2)のいずれかが成立している.よって補題\ref{lem:app2-3}が成立する.}\end{lemma}\begin{lemma}[子孫アークと対応する弧]\label{lem:app2-4}整依存木DT中のアークa$_i$,a$_j$(a$_i{\xrightarrow[{\rmDT}]{+}}$a$_j$)に対して,*e$_i$=edge(a$_i$,DT),*e$_j$=edge(a$_j$,DT)とした時に,次が成立する.\begin{itemize}\item[]*e$_i{\xrightarrow[{\rmPF}]{*}}$*e$_j$\end{itemize}\proof{a$_i$がa$_j$の親アーク(dep(a$_i$)=gov(a$_j$))の場合,補題\ref{lem:app2-3}(a),(b),(c)のいずれかが成立する.\ref{sec:bunpoukisoku}節の部分依存構造条件による位置関係より,子アークa$_j$の対応弧*e$_j$と親アークa$_i$の対応弧*e$_i$において$\neg$(*e$_j{\xrightarrow[{\rmPF}]{+}}$*e$_i$)なので(c)が成立することはない.このため,親子アークについては(a),(b)のいずれかが成立する.一般のa$_i{\xrightarrow[{\rmDT}]{*}}$a$_j$に対しては${\xrightarrow[{\rmPF}]{*}}$の推移性により補題\ref{lem:app2-4}が成立する.}\end{lemma}\subsection*{[トップ単一弧top\_edge(DT)]}ここでは,下記の証明で使用する依存木DTに対する{\bfトップ単一弧}top\_edgeを定義する.\begin{definition}{\bfトップ単一弧}top\_edge(DT)は,DTのトップノード直下のアークに対する対応弧の内で統語森中で最上位に位置する単一弧である.すなわち,top\_edge(DT)は,top\_node(DT)$=$gov(a$_i$)であり,top\_node(DT)$=$gov(a$_j$)となるどんなa$_j$に対してもedge(a$_i$)${\xrightarrow[{\rmPF}]{*}}$edge(a$_j$)である.DTが単一ノードからなる木の場合は,その単一ノードに対する単一語彙弧とする.\end{definition}{\mynoindent}DT中のアークとtop\_edge(DT)の間に次が成立する.\begin{lemma}[top\_edge(DT)とedge(a$_j$,DT)の関係]\label{lem:RelBetweenTopedgeAndEdge}整依存木DTのトップ単一弧*e$_t$=top\_edge(DT)とa$_j$(a$_j{\in}$DT)の対応弧*e$_j$=edge(a$_j$,DT)との間には*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_j$が成立する.\proof{a$_j$がDTのトップノードの直下のアーク,すなわちgov(a$_j$)$=$top\_node(DT)の場合は,補題\ref{lem:app2-3}とtop\_edgeの定義より,*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_j$が成立する.それ以外の場合は,a$_j$はDTのトップノード直下のアークの子孫アークとなるため,補題\ref{lem:app2-4}より*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_j$である.}\end{lemma}\subsection*{[整依存木{\rmDT}の分割]}\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF付録2整依存木の分割の説明図.eps,scale=0.8}\end{center}\myfiglabelskip\myfiglabelskippre\caption{整依存木の分割}\myfiglabelskippost\label{fig:DTGraphDivision}\end{figure}{\bf整依存木DTの分割}とは,DTからds(top\_edge(DT))のアークを除外し,部分依存木DT$_1$,${\ldots}$,DT$_m$($m$はds(top\_edge(DT))に含まれるノード数)を得ることである.アークの除外により他のノードから孤立するノードは,アークを持たない1つの依存木とする.例えば,図\ref{fig:DTGraphDivision}においてds(top\_edge(DT))=\{a$_s$,a$_t$,a$_u$,a$_w$\}の時,DTからこれらを除いた残りのアーク集合は,n$_s$,n$_t$,n$_u$,n$_v$,n$_w$をトップノードとする依存木群DT$_s$,DT$_t$,DT$_u$,DT$_v$,DT$_w$に分割できる.ノードn$_s$,n$_w$は孤立したノードとなるので,DT$_s$とDT$_w$は1つのノードからなる依存木\{n$_s$\},\{n$_w$\}となる.\ref{sec:bunpoukisoku}節の部分依存構造条件より,単一弧$e$において構成素列cs($e$)中の圧縮弧の句ヘッドと部分依存構造ds($e$)中のノードは1対1対応するので,DT$_i$(1${\leq}i{\leq}m$)のトップノードn$_i$を句ヘッドとする圧縮弧*E$_i$がcs(top\_edge(DT))に各1つだけ存在する.*E$_i$をDT$_i$の{\bfルート圧縮弧}と呼び,root\_Edge(DT$_i$)とする.\begin{definition}{\bfルート圧縮弧}root\_Edge(DT$_i$)とは,依存木DTの分割で生じた依存木DT$_i$に対して構成素列cs(top\_edge(DT))中の圧縮弧*E$_i$のうち句ヘッドがtop\_node(DT$_i$)であるもの.\end{definition}図\ref{fig:DTGraphDivision}では,top\_edge(DT)が*e$_v$であり,その構成素列cs$_v$は,n$_s$,n$_t$,n$_u$,n$_v$,n$_w$を句ヘッドとする弧*E$_s$,*E$_t$,*E$_u$,*E$_v$,*E$_w$より構成されている.root\_Edge(DT$_t$)=*E$_t$である.整依存木DTの分割に関して図\ref{fig:DTiObtainedFromDT}を参照しながら以下2つの補題を示す.\begin{comment}\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\mygapskip依存木分割と圧縮弧\begin{itemize}\item[\myitemindentroot\_Edge(DT$_i$)]:ルート圧縮弧.依存木DTの分割で生じた依存木DT$_i$に対して構成素列cs(top\_edge(DT))中の圧縮弧*E$_i$のうち句ヘッドがtop\_node(DT$_i$)であるもの.\end{itemize}\myhalfskip\end{minipage}}\myhalfskip\end{comment}\begin{lemma}[ルート圧縮弧とトップ単一弧の関係]\label{lem:app2RootEdgeAndTopEdge}整依存木DTの分割により得られる部分依存木DT$_i$に対して,ルート圧縮弧を*E$_i=$root\_Edge(DT$_i$),トップ単一弧を*e$_{o}=$top\_edge(DT$_i$)とすると,*E$_i{\xrightarrow[{\rmPF}]{+}}$*e$_{o}$が成立する.\mygapskip\proof{DTのトップ単一弧を*e$_t$=top\_edge(DT),DT$_i$のトップノードをn$_i$とする(図\ref{fig:DTiObtainedFromDT}).今,DTが単一ノードからなる木,すなわち,DT$i=$\{n$_i$\}の場合,*e$_{o}$はn$_i$に対する単一語彙弧である.*E$_i$の句ヘッドはn$_i$であるので*E$_i{\xrightarrow[{\rmPF}]{+}}$*e$_{o}$が成立する.一方,DTがアークから成る木の場合,補題\ref{lem:app2-4}より,*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_{o}$が言える.これより,圧縮弧列cs(*e$_t$)中のいづれか1つの圧縮弧Xに対してX${\xrightarrow[{\rmPF}]{*}}$*e$_{o}$が成立する.今,定義より*E$_i$${\in}$cs(*e$_t$)であり,*E$_i$と*e$_{o}$の句ヘッドは同一であるため,X$=$*E$_i$である.}\end{lemma}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF付録2分割部分依存木=整依存木の証明図.eps,scale=0.8}\end{center}\myfiglabelskip\myfiglabelskippre\caption{DTの分割で得られる部分整依存木DT$_i$}\label{fig:DTiObtainedFromDT}\end{figure}\begin{lemma}[分割で得る部分依存木の整依存木性]\label{lem:app2-6}整依存木DTの分割により得られる部分依存木DT$_i$のルート圧縮弧を*E$_i$,その始点と終点をそれぞれsp$_i$,tp$_i$とすると,DT$_i$は,sp$_i$からtp$_i$の範囲を被覆する整依存木である.\mygapskip\proof{DT$_i$が整共起条件と整被覆条件を満足することを示す.分割の元であるDTが整依存木であることから,DT$_i$が整共起条件を満たすことは明らかである.以下で整被覆条件を満足することを示す.DT$_i$が単一ノードからなる木の場合は,定義よりDT$_i$は整依存木である.DT$_i$がアークより成る場合,そのトップノードをn$_i$とし,DT$_i$中の任意のノードn$_j$(n$_j{\neq}$n$_i$)を考える.n$_j={\rmdep(a}_j$)なるアークa$_j$が存在する.また,a$_j{\in}$DT$_i$に対して,gov(a$_k$)$=$n$_i$,a$_k{\xrightarrow[{\rmDT}]{*}}$a$_j$なるa$_k{\in}$DT$_i$が存在する.今,対応弧*e$_j=$edge(a$_j$,DT),*e$_k=$edge(a$_k$,DT)とすると,a$_k$はa$_j$と等しいか,祖先ノードであるので補題\ref{lem:app2-4}より,*e$_k{\xrightarrow[{\rmPF}]{*}}$*e$_j$である.一方,DTのトップ単一弧を*e$_t$とすると補題\ref{lem:RelBetweenTopedgeAndEdge}より*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_k$であり,cs(*e$_t$)中の圧縮弧のうちの1つから*e$_k$に到達可能である.*e$_k$の句ヘッドはn$_i$であるので,*E$_i{\xrightarrow[{\rmPF}]{*}}$*e$_k$である.以上より*E$_i{\xrightarrow[{\rmPF}]{*}}$*e$_k{\xrightarrow[{\rmPF}]{*}}$*e$_j$が成立し,n$_j$は*E$_i$の範囲に存在する,すなわち,依存木DT$_i$中の全てのノードはsp$_i$からtp$_i$の範囲に存在するといえる.さらに,DT$_i$以外の部分依存木DT$_k$($k{\neq}i$)のノードはsp$_i$からtp$_i$の範囲に存在しないことも言える.分割元である$DT$が整被覆条件を満足することから,依存木DT$_i$中の全てのノードはsp$_i$からtp$_i$の全ての位置を占める.以上より,DT$_i$は,sp$_i$からtp$_i$の範囲を整被覆する整依存木である.}\end{lemma}\subsection*{[依存森の完全性・健全性の証明]}構文木PT=\{*e$_1$,${\ldots}$,*e$_m$\}が与えられた時,それに対応する依存木dependency\_tree(PT)を次のように定義する.\begin{definition}dependency\_tree(PT)=ds(*e$_1$)${\uplus}{\cdots}{\uplus}$ds(*e$_m$)\mynoindentここで,${\uplus}$は,基本的に和集合${\cup}$と同じであるが,部分依存構造dsがアーク集合の場合とノード1つからなる集合の場合に対応するために導入された関係である.${\uplus}$は,和集合(${\cup}$)を取った結果の要素にノードとアークが存在する場合にはノードを除外したアークのみの集合とする.例えば,n$_i$をノード,a$_i$をアークとすると次の例のようになる.\begin{itemize}\item[]\{n$_1$\}${\uplus}$\{a$_1$,a$_2$\}=\{a$_1$,a$_2$\}\item[]\{a$_1$\}${\uplus}$\{a$_2$,a$_3$\}=\{a$_1$,a$_2$,a$_3$\}\item[]\{n$_1$\}${\uplus}$\{\}=\{n$_1$\}\end{itemize}\end{definition}{\mynoindent}なお,部分依存構造ds(*e$_i$)は部分依存構造条件を満足するので,上記dependency\_tree(PT)は部分依存木の結合により構成されるため,木となる.\mytheorembeforegap\begin{theorem}[依存森の完全性]\label{the:CompletenessOfPF}統語森PF中の構文木PTに対してDT=dependency\_tree(PT)は,依存森DFに存在する整依存木である\proof{DTは,依存グラフの構築アルゴリズムから,DGに含まれる.また,DTとPTの含むノードは部分依存構造条件より1対1の対応関係があり,PTが文を被覆するので,DTは整被覆木である.また,DT中の全アークに関し,共起マトリックスの構築アルゴリズムより共起関係が成立しDTは整共起依存木となる.よって,統語森中の構文木PTに対応する整被覆整共起依存木dependency\_tree(PT)は依存森DFに存在する.}\end{theorem}\begin{theorem}[依存森の健全性]\label{the:SoundnessOfPF}依存森DF中の整依存木DTが与えられた時,DT=dependency\_tree(PT)なる構文木PTが統語森PFに存在する\proof{依存森DF中の整依存木DT,統語森PFのルート圧縮弧を*E$_{root}$とすると,PT${\in}$parse\_trees(*E$_{root}$),dependency\_tree(PT)=DTなる構文木PTが存在することを示す.今,入力文の単語数をnとする.次に示すアルゴリズムは,圧縮弧*E$_r$(始点sp$_r$,終点tp$_r$,1${\leq}$sp$_r<$tp$_r{\leq}$n)と整依存木DT(sp$_r$からtp$_r$を被覆)が与えられた時に,構文木を構成する構文木構成アルゴリズムである.これが上記条件を満たす構文木PTを構成するアルゴリズムであることをDTが含むアークの数に関する帰納法を用いて示す.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}[構文木構成アルゴリズム]DTがアークからなる依存木の場合:\begin{itemize}\item[{\myitemindent}A-Step1[トップ単一弧の同定]:]整依存木DTのトップ単一弧top\_edge(DT)を取り出し*e$_t$とする.\item[{\myitemindent}A-Step2[パスの取り出し]:]与えられた圧縮弧*E$_r$から*e$_t$へのパスを取り出し,パス中に含まれる*e$_t$以外の単一弧の集合をPATHとする.\item[{\myitemindent}A-Step3[依存木DTの分割]:]依存木DTをds(top\_edge(DT))を除くことで分割し,部分依存木DT$_i$($1{\leq}i{\leq}m$)ならびにルート圧縮弧*E$_i$=root\_Edge(DT$_i$)を得る.\item[{\myitemindent}A-Step4[部分構文木計算]:]構文木構成アルゴリズムをDT$_i$,*E$_i$($1{\leq}i{\leq}m$)に適用し構文木PT$_i$を得る.\item[{\myitemindent}A-Step5[構文木構成]:]DT,*E$_r$に対する構文木としてPT=PATH${\cup}$\{*e$_t$\}${\cup}$PT$_1$${\cup}{\cdots}{\cup}$PT$_m$を返す.\end{itemize}DTが単一ノードからなる木(DT=\{n\})の場合:\begin{itemize}\item[{\myitemindent}N-Step1[語彙弧の同定]:]ノードnを生成した語彙弧@e$_{lex}$を得る.\item[{\myitemindent}N-Step2[パス取り出し]:]*E$_r$からe$_{lex}$へのパスを取り出し,パス中の単一弧の集合を構文木として返す.\end{itemize}\myhalfskip\end{minipage}}\mygapskip\mygapskipDTがアークからなる依存木の場合は,A-Step1〜A-Step5により構文木PTが構成される.図\ref{fig:DttoParseTreeExplain}に構文木構成アルゴリズムのA-Step1〜A-Step5の動作を図式的に示す.A-Step1では,図\ref{fig:DttoParseTreeExplain}(S1)のトップ単一弧*e$_t$($=$top\_edge(DT))を計算する.A-Step2では,図\ref{fig:DttoParseTreeExplain}(S2)に示すように*E$_r$から*e$_t$へ至るパスを求め,単一弧集合PATHを得る.*E$_r$から*e$_t$へ至るパスの存在(*E$_r{\xrightarrow[{\rmPF}]{+}}$*e$_t$)は,次のように保証される.すなわち,*E$_r$が統語森のルート圧縮弧*E$_{root}$の場合は明らかである.また,*E$_r$が分割により得られる圧縮弧(A-Step4の*E$_i$)の場合は,補題\ref{lem:app2RootEdgeAndTopEdge}より成立する.また,PATH中の単一弧については,その部分依存構造は全て\{\}である.これは,DT中の全てのノードが*e$_t$の範囲内に存在するため*E$_r$と*e$_t$の範囲が等しいことから明らかである.これより次が成立する.$$dependency\_tree(PATH)=\{\}\eqno{(A)}$$A-Step3では,DTの分割を行い図\ref{fig:DttoParseTreeExplain}(S3)に示すようにDT$_i$,*E$_i$($1{\leq}i{\leq}m$)を得る.この時,補題\ref{lem:app2-6}より,DT$_i$は*E$_i$の範囲を被覆する整依存木であるので,A-Step4において再帰的に構文木構成アルゴリズムを適用できる.A-Step5において構文木PTを計算する(図\ref{fig:DttoParseTreeExplain}(S5)).PT$_i$が構文木であればPTが構文木であることは,構文木の定義より明らかである.DTが単一ノードからなる木の場合は,N-Step1,N-Step2により構文木PTを得る.*E$_r$からe$_{lex}$へのパスの存在は,A-Step1の説明と同じ理由で保証される.\mygapskip以上のようにして構文木生成アルゴリズムにより生成される構文木PTがDT=dependency\_tree(PT)であることは以下のように示される.まず,1ノードからなる依存木DT=\{n$_r$\}に対しては,アルゴリズムは,N-Step2で構文木PTを生成する.PTは,1ノードn$_r$をのみを含む構文木であり,前記dependency\_treeの定義よりdependency\_tree(PT)=\{n$_r$\}である.次にDTがアークからなる木の場合を示す.構文木構成アルゴリズム,dependency\_treeの定義,(A)より,次のようになる.\mygapskip\hspace{5mm}dependency\_tree(PT)\hspace{7mm}=dependency\_tree(PATH${\cup}$\{*e$_t$\}${\cup}$PT$_1$${\cup}{\cdots}{\cup}$PT$_m$)\hspace{7mm}=dependency\_tree(PATH)${\uplus}$dependency\_tree(\{*e$_t$\})${\uplus}$dependency\_tree(PT$_1$)${\uplus}{\cdots}$\hspace{11mm}${\uplus}$dependency\_tree(PT$_m$)\hspace{7mm}=dependency\_tree(\{*e$_t$\})${\uplus}$dependency\_tree(PT$_1$)${\uplus}{\cdots}{\uplus}$dependency\_tree(PT$_m$)\mygapskip{\mynoindent}今,A-Step4において各DT$_i$,*E$_i$に対する構文木PT$_i$が次を満たすと仮定する.\mygapskip\hspace{5mm}dependency\_tree(PT$_i$)=DT$_i$(1${\leq}i{\leq}$m)\mygapskip{\mynoindent}するとA-Step5の構文木PTが生成する依存木は次のようにDTとなる.\mygapskip\hspace{5mm}dependency\_tree(PT)\hspace{7mm}=ds$_t$${\uplus}$DT$_1$${\uplus}{\cdots}{\uplus}$DT$_m$\hspace{7mm}=DT\mygapskip}\end{theorem}\begin{figure}[h]\begin{center}\epsfile{file=\myfigdir/DF付録2DTに対する構文解析木の構成説明図.eps,scale=0.8}\end{center}\myfiglabelskip\myfiglabelskippre\caption{整依存木とルート圧縮弧からの構文木の生成}\myfiglabelskippost\label{fig:DttoParseTreeExplain}\end{figure}\end{document}
| |
V17N04-04
|
\section{はじめに}
\label{section:introduction}近年,FrameNet~\shortcite{Baker:98}やPropBank~\shortcite{Palmer:05}などの意味役割付与コーパスの登場と共に,意味役割付与に関する統計的なアプローチが数多く研究されてきた~\shortcite{marquez2008srl}.意味役割付与問題は,述語—項構造解析の一種であり,文中の述語と,それらの項となる句を特定し,それぞれの項のための適切な意味タグ(意味役割)を付与する問題である.述語と項の間の意味的関係を解析する技術は,質問応答,機械翻訳,情報抽出などの様々な自然言語処理の応用分野で重要な課題となっており,近年の意味役割付与システムの発展は多くの研究者から注目を受けている~\shortcite{narayanan-harabagiu:2004:COLING,shen-lapata:2007:EMNLP-CoNLL2007,moschitti2007esa,Surdeanu2003}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f1.eps}\end{center}\caption{PropBankとFrameNetにおける動詞{\itsell},{\itbuy}に対するフレーム定義の比較}\label{framenet-propbank}\end{figure}これらのコーパスは,文中の単語(主に動詞)が{\bfフレーム}と呼ばれる特定の項構造を持つという考えに基づく.図~\ref{framenet-propbank}に,例として,FrameNetとPropBankにおける{\itsell}と{\itbuy}の二つの動詞に関するフレーム定義を示す.各フレームはそれぞれのコーパスで特定の名前を持ち,その項としていくつかの意味役割を持つ.また,意味役割は,それぞれのフレームに固有の役割として定義される.例えば,PropBankのsell.01フレームの役割{\itsell.01::0}と,buy.01フレームの役割{\itbuy.01::0}は別の意味役割であり,また一見同じ記述(Seller)のついた{\itsell.01::0}と{\itbuy.01::2}もまた,別の役割ということになる.これはFrameNetについても同様である.意味役割がフレームごとに独立に定義されている理由は,各フレームの意味役割が厳密には異なる意味を帯びているからである.しかし,この定義は自動意味役割付与の方法論にとってやや問題である.一般的に,意味役割付与システムは教師付き学習の枠組みで設計されるが,意味役割をフレームごとに細分化して用意することは,コーパス中に事例の少ない役割が大量に存在する状況を招き,学習時の疎データ問題を引き起こす.実際に,PropBankには4,659個のフレーム,11,500個以上の意味役割が存在し,フレームあたりの事例数は平均12個となっている.FrameNetでは,795個のフレーム,7,124個の異なった意味役割が存在し,役割の約半数が10個以下の事例しか持たない.この問題を解決するには,類似する意味役割を何らかの指標で汎化し,共通点のある役割の事例を共有する手法が必要となる.従来研究においても,フレーム間で意味役割を汎化するためのいくつかの指標が試されてきた.例えば,PropBank上の意味役割付与に関する多くの研究では,意味役割に付加されている数字タグ({\itARG0-5})が汎化ラベルとして利用されてきた.しかし,{\itARG2}--{\itARG5}でまとめられる意味役割は統語的,意味的に一貫性がなく,これらのタグは汎化指標として適さない,という指摘もある\shortcite{yi-loper-palmer:2007:main}.そこで近年では,主題役割,統語構造の類似性などの異なる指標を利用した意味役割の汎化が研究されている~\shortcite{gordon-swanson:2007:ACLMain,zapirain-agirre-marquez:2008:ACLMain}.FrameNetでは,意味役割はフレーム固有のものであるが,同時にこれらの意味役割の間には型付きの階層関係が定義されている.図\ref{fig:frame-hierarchy}にその抜粋を示す.ここでは例えば,{\itGiving}フレームと{\itCommerce\_sell}フレームは継承関係にあり,またこれらのフレームに含まれる役割には,どの役割がどの役割の継承を受けているかを示す対応関係が定義されている.この階層関係は意味役割の汎化に利用できると期待できるが,これまでの研究では肯定的な結果が得られていない~\shortcite{Baldewein2004}.したがって,FrameNetにおける役割の汎化も重要な課題として持ち上がっている~\shortcite{Gildea2002,Shi2005ppt,Giuglea2006}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f2.eps}\caption{FrameNetのフレーム階層の抜粋}\label{fig:frame-hierarchy}\end{center}\end{figure}意味役割の汎化を考える際の重要な点は,我々が意味役割と呼んでいるものが,種類の異なるいくつかの性質を持ち合わせているということである.例えば,図~\ref{framenet-propbank}におけるFrameNetの役割{\itCommerce\_sell::Seller}と,{\itCommerce\_buy::Seller}を考えてみたとき,これらは「販売者」という同一語彙で説明出来るという点では同じ意味的性質を持ち合わせているが,一方で,動作主性という観点でみると,{\itCommerce\_sell::Seller}は動作主であるが,{\itCommerce\_buy::Seller}は動作主性を持っていない.このように,意味役割はその特徴を単に一つの観点から纏めあげられるものではなく,いくつかの指標によって異なる説明がされるものである.しかし,これまでに提案されてきた汎化手法では,一つの識別モデルの中で異なる指標を同時に用いてこなかった.また,もう一つの重要なことは,これまでに利用されてきたそれぞれの汎化指標が,意味役割のどのような性質を捉え,その結果として,どの程度正確な役割付与に結びついているかを明らかにすべきだということである.そこで本研究では,FrameNet,PropBankの二つの意味役割付与コーパスについて,異なる言語学的観点に基づく新たな汎化指標を提案し,それらの汎化指標を一つのモデルの中に統合出来る分類モデルを提案する.また,既存の汎化指標及び新たな汎化指標に対して実験に基づいた細かな分析を与え,各汎化指標の特徴的効果を明らかにする.FrameNetにおける実験では,FrameNetが持つフレームの階層関係,役割の記述子,句の意味型,さらにVerbNetの主題役割を利用した汎化手法を提案し,これらの指標が意味役割分類の精度向上に貢献することを示す.PropBankにおける実験では,従来より汎化手法として議論の中心にあったARGタグと主題役割の効果の違いを,エラー分析に基づいて正確に分析する.また,より頑健な意味役割の汎化のために,VerbNetの動詞クラス,選択制限,意味述語を利用した三つの新しい汎化手法を提案し,その効果について検証する.実験では,我々の提案する全ての汎化指標について,それぞれが低頻度或いは未知フレームに対する頑健性を向上させることを確認した.また,複数の汎化指標の混合モデルが意味役割分類の精度向上に貢献することを確認した.全指標の混合モデルは,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42\%$の向上を達成し,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した.
\section{関連研究}
意味役割を汎化することで意味役割付与の疎データ問題を解消する方法は,これまでにいくつか提案されてきた.\shortciteA{Moschitti2005}は各役割を主役割,付加詞,継続項,共参照項の四つの荒いクラスに分類した後,それらのクラスに対してそれぞれ専用の分類器でPropBankのARGタグを分類した.\shortciteA{Baldewein2004}は,意味役割分類器を学習する際,ある役割の訓練に,類似する他の役割の訓練例を再利用した.類似度の尺度としては,FrameNetにおける階層関係,周辺的役割,EMアルゴリズムに基づいたクラスタが利用された.\shortciteA{gordon-swanson:2007:ACLMain}はPropBankの意味役割に対して,各フレームの統語的類似度に基づいて役割の汎化を行う手法を提案した.また,異なるフレーム間の意味役割を繋ぐ懸け橋として,フレームに依存しないラベルセットである主題役割も用いられてきた.\shortciteA{Gildea2002}はFrameNetの意味役割を彼らが選定した18種類の主題役割に人手で置き換えることで,役割の分類精度が向上することを示した.\shortciteA{Shi2005ppt,Giuglea2006}は異なる意味コーパスによって定義された役割の共通の写像先として,VerbNetの主題役割を採用した.意味役割の汎化指標に対する比較研究としては,PropBank上でARGタグと主題役割の比較を行った,\shortciteA{yi-loper-palmer:2007:main,loper2007clr,zapirain-agirre-marquez:2008:ACLMain}の研究が挙げられる.\shortciteA{yi-loper-palmer:2007:main,loper2007clr}は,主題役割をPropBankのARGタグの代替とすることで,{\itARG2}の分類精度を向上出来た一方で,{\itARG1}の精度は低下すると報告した.また,\shortciteA{yi-loper-palmer:2007:main}は同時に,{\itARG2-5}は多種にわたる主題役割に写像されることを示した.\shortciteA{zapirain-agirre-marquez:2008:ACLMain}は最新の意味役割付与システムを用いて,PropBankのARGタグとVerbNetの主題役割の二つのラベルセットを評価し,全体として,PropBankのARGタグのほうがより頑健な汎化を達成すると結論付けた.しかしながら,これら三つの研究は,意味役割付与全体の精度比較しか行っていないため,各汎化指標により得られる効果の正確な理解のためには,詳細な検証による理由付けが必要である.FrameNet,PropBankにおけるこれらの汎化ラベルは,汎化ラベル自身を直接推定するモデルとして設計されたため,コーパス中の意味役割を汎化ラベルで直接置き換える方法か,それに準じる方法で用いられてきた.しかし,この方法では,異なる汎化指標を一つの分類モデルの中で同時に用いることが出来ない.役割の特徴を複数の観点から共有しようとする我々の目的のためには,これらの指標を自然に混合できる分類モデルの設計が必要となる.
\section{フレーム辞書と意味役割付与コーパス}
本節では,我々の実験で利用する意味タグ付き言語資源について,その特徴を簡単に説明する.我々はFrameNet,PropBankの二つの意味役割付与コーパスの枠組みの基で,それぞれ自動意味役割付与の実験を行う.これらのコーパスは,図\ref{fig:semantic-corpus}のように,フレームとその意味役割を定義したフレーム辞書と,これらが付与された実テキストからなる.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f3.eps}\end{center}\caption{意味役割付与コーパスの概要図}\label{fig:semantic-corpus}\end{figure}また,役割汎化のためのコーパス外の知識としてVerbNetを用いる.FrameNet,PropBankの意味役割とVerbNetの主題役割の対応付けには,SemLinkを利用する.\subsection{FrameNet}\label{sec:framenet}FrameNetは,フレーム意味論\cite{fillmore1976}を基に作られた意味役割付きコーパスである.FrameNetにおけるフレームは{\bf意味フレーム}と呼ばれ,特定のイベントや概念を表す.各フレームには,それを想起させる単語が複数割り当てられている.意味役割は{\bfフレーム要素}と呼ばれ,各フレームに固有の役割として定義されている.また,それに加えて,各役割がそのフレームの中でどの程度重要な位置を占めるかを表す指標として,それぞれの役割に{\bf中心性}と呼ばれる型を割り振っている.これらは,{\bfcore},{\bfcore-unexpressed},{\bfperipheral},{\bfextra-thematic}の四つからなり,coreとcore-unexpressedはそのフレームの中心的な役割を,peripheralは周辺的な役割を,extra-thematicはフレーム外の概念から拡張された役割をそれぞれ表す.FrameNetの特筆すべき特徴として,フレーム間の階層関係がある(図~\ref{fig:frame-hierarchy}).これは,継承,使用,起動,原因,観点,部分,先行の七種類の有向関係によって定義されており,また,関係が定義されたフレームの意味役割間にもそれぞれ親子関係が定義される.一つのアノテーションは,文中の一つの想起単語とそれが想起するフレーム,及び適切な句への意味役割タグの割り当てで構成される.実テキストに対するアノテーションは,BritishNationalCorpusより抜き出された約$140,000$文にそれぞれ一アノテーションずつが付けられたものと,追加コーパスに対する全文アノテーションからなり,全体で約$150,000$のアノテーションが含まれる.我々の実験では,現時点の最新版である第$1.3$版を用いた.\subsection{PropBank}\label{sec:propbank}PropBankは,PennTreebankIIのWallStreetJournal部分の全てのテキストに対して,動詞の述語—意味役割構造を与えるコーパスである.フレームは,図\ref{framenet-propbank}のsell.01,buy.01などのように動詞ごとに個別に用意され,その動詞の項構造の数に応じて一動詞あたり平均$1.4$個のフレームが作られている.テキスト部には$112,917$アノテーションを含む.PropBankでは,FrameNetにあるようなフレーム間の関係は定義されておらず,各フレームは定義上独立な関係である.一方,意味役割の定義は二種類に分かれる.一つは$0$から$5$の数字がふられた役割({\itARG0-5})で,もう一つはAMタグという,全フレームに共通な付加詞的意味役割である.{\itARG0-5}については,図\ref{framenet-propbank}の{\itsell.01::0}(Seller)と{\itbuy.01::0}(Buyer)のように,同じ数字を持つものでも各フレームで役割の意味が大きく異なる.しかし,{\itARG0}と{\itARG1}については,{\itARG0}が{\itProto-Agent},{\itARG1}が{\itProto-Patient}に大まかに対応するように付けられており,それ以外の数字は動詞に応じて多様な意味を取ることが知られている~\shortcite{Palmer:05,yi-loper-palmer:2007:main}.AMタグには,所格を表す{\itAM-LOC},時格を表す{\itAM-TMP}など$14$種類がある.\subsection{VerbNet,SemLink}\label{sec:verbnet}VerbNet~\shortcite{kipper2000cbc}は,動詞間の統語的,意味的特徴の一般化を目的として作られた,動詞の階層的なグループ及びそれらのグループに関する特徴の体系的記述である.このグループは\shortciteA{levin1993evc}の提案に拡張を加えた$470$のクラスからなり,各動詞がどの動詞クラスに分類されるかは,そのクラスの動詞が持つべきいくつかの特徴を所有するか否かで決定される.同じ動詞クラスの動詞は,その所有する項が共通であり,これらは明確に定義された$30$種類の主題役割から選ばれる.我々はVerbNet第$2.3$版の情報を利用して,意味役割の汎化を試みる.VerbNetを利用する利点は大きく二つある.一つは,全動詞に対して共通に定められた$30$種類の主題役割が,PropBankやFrameNetの意味役割を適切に汎化する指標となりうることである.もう一つは,動詞グループが捉える細かなレベルの統語的/意味的共通性を利用出来る点である.我々はこれらの情報を用いた汎化手法を\ref{sec:frameNet-verbnet}節,\ref{sec:generalization-criteria-propbank}節で提案する.FrameNet,PropBank,VerbNetの三つはそれぞれ異なるアプローチで開発されているため,VerbNetを役割汎化の指標として利用するためには,これらの意味役割を相互に変換する必要がある.我々はこの目的のために,\shortciteA{loper2007clr}などによって作られたSemLink\footnote{http://verbs.colorado.edu/semlink/}を利用する.SemLinkは異なる方法論で作られた意味タグ同士を対応付ける目的で作られており,その内容は図~\ref{fig:semlink}のように(A)フレーム辞書の対応と(B)事例レベルの対応の二つの資源からなる.(A)では,FrameNet,PropBankのフレームが適切なVerbNetの動詞クラスと対応付けられ,また,それぞれの意味役割はその動詞クラス内の主題役割と結び付けられる.しかし,FrameNet,PropBank,VerbNetの間では,フレームの切り分け方が異なるため,いくつかのフレームでは,動詞クラスとの対応が多対多となる.そこでSemLinkでは,(B)のような事例レベルでの項構造のマッピングも同時に与えている.これによって資源間の方法論の差による曖昧性を解消し,各事例のフレームと意味役割を正確な動詞クラスと主題役割に写像することを可能にしている.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f4.eps}\end{center}\caption{SemLinkの概要図}\label{fig:semlink}\end{figure}現段階(第1.1版)のSemLinkでは,この事例レベルの写像はPropBankにのみ与えられ,FrameNetの方は,辞書レベルのマッピングのみである.FrameNetでは,この辞書マップを通じて$1,726$の意味役割がVerbNetの主題役割に写像される.これは,コーパス中に事例として一回以上出現する役割の$37.61\%$にあたる.また,PropBankでは,実テキスト中の62.34\%の項構造がVerbNetの動詞クラスと主題役割を用いたアノテーションに写像される.
\section{意味役割分類問題}
\label{sec:role-classification}意味役割付与は複数の問題が絡み合った複雑なタスクであるため,これを{\bfフレーム想起単語特定}(フレームを想起する単語の特定),{\bfフレーム曖昧性解消}(想起単語が取り得るフレームのうち正しいものの選択),{\bf役割句特定}(意味役割を持つ句の特定),{\bf役割分類}(役割句に正しい役割を割り当てる),といった四つの部分問題に分けて解かれることが多い.今回我々は,これらの部分問題のうち,役割の疎データ問題が直接関係する役割分類のみを取り扱う.これには,この部分問題における入力を正確に与え,他の処理によるエラーを極力排除することにより,意味役割の汎化による効果を厳密かつ詳細に分析する狙いがある.\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f5.eps}\end{center}\caption{役割分類における入出力の例}\label{input}\end{figure}本研究では,既存研究の枠組みに従い,役割分類を以下のように定義する.入力としては,文,フレーム想起単語,フレーム,役割の候補,役割句を与える.出力は,それぞれの役割句に対する正しい役割の割り当てである.図\ref{input}にFrameNet上の役割分類における具体的な入出力の例を示す.ここでは,動詞{\itsell}から{\itCommerce\_sell}フレームが想起され,文中に三か所の役割句が特定されている.役割の候補はフレームによって与えられる\{{\sfSeller},{\sfBuyer},{\sfGoods},{\sfReason},...,{\sfPlace}\}であり,各役割句の意味役割は,これらの役割候補の中から一つずつ選ばれる.
\section{意味役割の汎化と役割分類モデル}
\subsection{意味役割汎化の定式化}\label{sec:define-generalization}意味役割の汎化は,ある(言語学的)観点に基づいて,複数の意味役割の間に共通する性質を捉え,同じ性質を持つ役割を同一視する行為と言うことが出来る.従来の意味役割の汎化は,コーパス中の意味役割ラベルを一対一対応のとれる汎化ラベルに置き換えることで実現されてきた.しかし,この方法では,一つの意味役割に対して一つの汎化ラベルしか与えることが出来ない.一方で我々の立場は,意味役割の汎化は複数の観点から多面的に行われるべきというものである.したがって,我々は,意味役割の汎化を複数の汎化ラベルの集合で表現し,元の意味役割はこの汎化ラベルの集合を持つという形にする.具体的な例として,PropBankの意味役割が,{\itARG0-5}ラベルと主題役割の二つの汎化ラベルで同時に汎化されることを考えてみよう.今,フレーム固有の意味役割としてsell.01フレームの役割{\itsell.01::0}(seller)を考えると,これは,ARGタグと主題役割を用いてそれぞれ{\itARG0},{\itAgent}に汎化される.以降,異なる指標で作られたラベル同士を区別するため,各汎化ラベルを「{\itラベル名@指標名}」で表すことにする.{\itsell.01::0}はこれら二つのラベルを集合として持つと考え,これを関数$gen$を用いて,\begin{equation}gen(\mbox{\itsell.01::0})=\{\mbox{\itARG0@ARG},\mbox{{\itAgent@TR}}\}\end{equation}と表すことにする.実際には,これら二つの汎化ラベルは異なる汎化指標から導き出されているものであるので,説明の簡単のため,汎化指標ごとに関数を分解して表す.\begin{align}gen_{arg}(\mbox{\itsell.01::0})&=\{\mbox{\itARG0@ARG}\}\label{eqn:arg}\\gen_{tr}(\mbox{\itsell.01::0})&=\{\mbox{{\itAgent@TR}}\}\label{eqn:thematic}\\gen(y)&=gen_{arg}(y)\cupgen_{tr}(y)\end{align}これを一般化すれば,意味役割が$n$種の汎化指標によるラベルを同時に持つことを表現出来る.ここで,元の意味役割全体を$R$とし,異なる種類の汎化ラベルの集合をそれぞれ$C_1,\ldots,C_n$,これら全ての汎化ラベルの集合を$C=\bigcup_{i=1}^{n}C_i$とするとき,意味役割の汎化とは,関数\begin{align}gen_i&:R\rightarrow\{C_i'|C_i'\subsetC_i\}\\gen&:R\rightarrow\{C'|C'\subsetC\}\text{(ただし,}gen(y)=\bigcup_{i}gen_i(y)\text{)}\end{align}を定義することである.これら意味役割汎化のための関数をFrameNet,PropBankの各々の分類モデルで具体的にどのように定義するかについては,\ref{sec:generalization-criteria-framenet}節と\ref{sec:generalization-criteria-propbank}節で述べることにする.\subsection{役割分類モデル}前節で述べたように,多くの既存研究が意味役割の汎化の際に取ったアプローチは,それぞれの意味役割をフレームから独立な少数の汎化ラベルに置き換える方法であった.これにより,役割分類の過程は,フレーム固有の役割を推定する問題から,これらの汎化ラベルを推定する問題へと変化した.ここで,文$s$,フレーム想起単語$p$,フレーム$f$,役割句$x$が与えられるとき,与えられたフレームにより選択可能な意味役割の集合を$Y_f$とし,$s$,$p$,$f$,から観測される対象役割句$x$の特徴ベクトルを${\bfx}$とする.一般的に,意味役割分類は役割の候補$Y_f$の中から,最も適切な役割$\tilde{y}$を一つ選ぶ問題として定式化される.ここで,三つ組$(f,{\bfx},y)$に対して$y$のスコアを生成するモデルがあると仮定すると,$\tilde{y}$は以下のようにして選択できる.\begin{equation}\tilde{y}=\argmax_{y\inY_f}{\rmScore}(f,\mathbf{x},y)\label{equ:frame-specific-class}\end{equation}汎化ラベルを直接分類する従来の手法では,訓練データとテストデータ中の意味役割を汎化ラベルで上書きしてきた.例えば,PropBankのある役割$y$はそのARGタグ$arg(y)$によって汎化出来る.分類モデルは最適なARGタグ$\tilde{c}$を以下のようにして選択する.\begin{equation}\tilde{c}=\argmax_{c\in\{arg(y)|y\inY_f\}}{\rmScore}_{arg}(f,\mathbf{x},c)\end{equation}ここで,${\rmScore}_{arg}(f,\mathbf{x},c)$は$f$と$\mathbf{x}$に関する汎化ラベル$c$のスコアを与える.既存の多くのシステムは,このモデルを達成するために線形或いは対数線形のスコアモデルを採用し,特徴関数は${\bfx}$の要素と$c$の可能なペアに対する指示関数として設計された.\begin{align}&{\rmScore}_{arg}(f,\mathbf{x},c)=\sum_{i}\lambda_{i}g_i(\mathbf{x},c)\\&g_1(\mathbf{x},c)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedgec=\mbox{{\itARG0@ARG}})\\0&(\mbox{otherwise})\end{cases}\end{align}ここで,$G=\{g_1,\ldots,g_m\}$は$m$個の特徴関数,$\Lambda=\{\lambda_1,\ldots,\lambda_m\}$は$G$に関する重みベクトルを表す.$\tilde{y}$は少なくとも一つ,かつ唯一の役割$y\inY_f$が$\tilde{c}$に対応付けられているときに一意に決定される.従来の汎化指標の比較研究にも,このラベルの置き換えによる手法が用いられてきた\shortcite{loper2007clr,yi-loper-palmer:2007:main,zapirain-agirre-marquez:2008:ACLMain}.我々は,この手法とは対照に,フレーム固有の役割を直接推定するモデル(式\ref{equ:frame-specific-class})を採用する.その上で,$y$に関する汎化ラベル集合$gen(y)$を意味役割$y$の特徴として利用する.\begin{equation}g_1(\mathbf{x},y)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\mbox{{\itARG0@ARG}}\ingen(y))\\0&(\mbox{otherwise})\end{cases}\label{equ:generalized-label-feature-arg0}\end{equation}式\ref{equ:generalized-label-feature-arg0}では,特徴関数が$gen$の値に{\itARG0}が含まれるかを調べることにより,役割$y$が{\itARG0}ラベルによって汎化されるかどうかをテストしている.このように関数$gen$を特徴関数の条件部に用いることによって,複数の汎化ラベルを同時に扱うモデルの設計が可能になる.例えば,式\ref{equ:generalized-label-feature-arg0}と同様にして,同じモデルに主題役割をチェックする特徴関数を導入することも出来る.\begin{equation}g_2(\mathbf{x},y)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\mbox{{\itAgent@TR}}\ingen(y))\\0&(\mbox{otherwise})\end{cases}\label{equ:generalized-label-feature-agent}\end{equation}このアプローチの利点は,一つの役割が複数の汎化ラベルを持つことを考える場合はもちろんのこと,同一フレーム中の複数の意味役割が一つの汎化ラベルに写像される場合にも,より自然な汎化の方法となっていることである.例えば,\ref{sec:selectional-restriction}節で説明する選択制限を用いた汎化では,同一フレーム内の複数の役割が同じ選択制限のラベルを持つことがありうるが,従来の置き換え法を用いてこのラベルが推定されると,汎化ラベルを元の意味役割に復元できない.一方で,我々の方法は,複数の汎化指標を用いて元の意味役割を直接推定する方式のため,このような問題が起こらない.また,もう一つの利点は,異なる種類の汎化ラベルを混合する際に,それぞれのラベルに対する重みが,$\Lambda$の値を通じて学習により自動的に決定されるという点にある.したがって,このモデルでは,我々が事前にどの汎化指標が効果的かどうかを検討する必要がなく,学習プロセスに適切な重みを選ばせればよい.我々はスコアとして,最大エントロピー法を用いて求める条件付き確率$P(y|f,\mathbf{x})$を利用する.\begin{equation}{\rmScore}(f,\mathbf{x},y)=P(y|f,\mathbf{x})=\frac{\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y))}{\sum_{y\inY_f}\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y))}\label{eqn:probability}\end{equation}特徴関数の集合$G$には,利用する汎化ラベルの集合$C$に含まれる全てのラベルと${\bfx}$の要素の可能な組に対応する関数を全て含める.特徴関数の最適な重み$\Lambda$は最大事後確率(MAP)推定によって求める.我々はLimited-memoryBFGS(L-BFGS)法\cite{nocedal1980}を用いて学習データの対数尤度を$L_2$正則化のもとで最大化する.パラメータ推定には,classias\footnote{http://www.chokkan.org/software/classias/}を用いた.
\section{FrameNetにおける複数の汎化手法}
\label{sec:generalization-criteria-framenet}本節では,FrameNetにおける役割の汎化指標について説明する.FrameNetでは,フレーム間の階層関係が定義されているため,この構造をうまく利用した汎化ラベルの設計を目指す.また,役割の名前(記述子),項の意味型,VerbNetの主題役割を指標とした,異なる性質の汎化ラベルも設計する.以下では,我々の提案する汎化指標について,それぞれのどのように関数$gen$を定義するかを説明する.\ref{sec:experiment-in-framenet}節では,これらについての比較実験を行い,効果の詳細な分析を行う.なお,階層関係と記述子を利用した汎化では,FrameNetの意味役割ラベルを利用して粒度の細かいラベルを作成するため,その全体像が掴みにづらいかもしれない.その際は,実際の意味役割ラベルと階層関係のデータ\footnote{http://framenet.icsi.berkeley.edu/FrameGrapher/ただし,データはFrameNetの最新版によるものであるため,我々の利用する正確なデータはFrameNet第$1.3$版を参照のこと.}を適時参照して頂きたい.\subsection{役割間の階層関係}この指標は,\ref{sec:framenet}で説明したフレーム階層上の七種類の有向関係を利用して,役割間に共通する性質を取り出す指標である.各フレームの意味役割のうちの幾つかは,フレーム間の親子関係を通して,他フレームの役割と有向関係で結ばれている.役割間の関係を用いた汎化指標の基本的なアイデアは,下位概念にあたる役割が,その上位概念にあたる役割の性質を引き継いでいる,という仮定である.例えば,{\itCommerce\_buy}フレームの役割{\itBuyer}は{\itGetting}フレームの役割{\itRecipient}の性質を継承しており,また,{\itKilling}フレームの{\itVictim}と{\itDeath}フレームの{\itProtagonist}は「死ぬもの」という個体の性質を持っている.\begin{figure}[t]\begin{minipage}{242pt}\begin{center}\includegraphics{17-4ia5f6.eps}\end{center}\caption{$gen_{hier}$を定義するアルゴリズム}\label{fig:hier-algorithm}\end{minipage}\hfill\begin{minipage}{170pt}\begin{center}\includegraphics{17-4ia5f7.eps}\end{center}\caption{階層関係を辿る方向}\label{fig:hier-figure}\end{minipage}\end{figure}役割間の関係を用いた汎化関数$gen_{hr}$は図\ref{fig:hier-algorithm}のアルゴリズムで定義する.$gen_{hr}(y)$は役割$y$から階層関係を辿りながら,各ノード$z$に対応する汎化ラベル{\itz@HR}を収集する.この際,(A)継承,利用,観点,部分の四つの関係に関しては,親方向に階層を辿り,(B)起動,原因の関係については子方向に辿る.これは,(A)のグループでは,子孫の意味役割が祖先の性質と同じかこれを詳細化した性質を持っており,(B)のグループでは,子孫の役割がより中立的な立場や,結果の状態を表すからである.先行関係は,状態とイベントの遷移系列を表す関係であり,役割の性質の包含関係を単純には特定できなかったため,親と子のどちらの方向に辿るかは実験結果を踏まえて決定することにする(実験は\ref{sec:compare-hierarchical-relation}節を参照のこと).アルゴリズムは,図\ref{fig:hier-figure}のように,一度進んだ方向から逆戻りする方向のラベルは出力しない.また,階層を辿る深さの影響を観察するため,深さ1の親子関係でたどれるラベルしか含めない$gen_{hr\_depth1}$と,子孫,先祖を全て辿る$gen_{hr\_all}$の二つの関数を作成した.実験ではこれらの性能差も比較する.\subsection{役割の記述子}\label{role-label}FrameNetの意味役割は各フレーム固有の役割であり,異なるフレーム間に同じ識別IDの役割は存在しない.しかし,それらには専門家によって付けられた{\itBuyer},{\itSeller}などの人間に意味解釈可能な簡潔な名前がついている.我々はこの簡潔な名前を役割の{\bf記述子}と呼ぶことにする.これらの記述子は,ある程度体系立てて付けられており,異なるフレームの異なる意味役割が共通の記述子を持つ場合も多くある.例えば,記述子{\itSeller}は{\itCommerce\_sell::Seller},{\itCommerce\_buy::Seller},{\itCommerce\_pay::Seller}などで共有されている.この記述子の汎化指標としての有効性を評価するために,これを汎化ラベルとして利用する.この指標による汎化関数$gen_{desc}$は,役割$y$の記述子をメンバとして返す関数として定義する.例えば,役割{\itCommerce\_buy::Buyer}の記述子ラベルを$Buyer@Desc$とすれば,その値は$gen_{desc}(\mbox{\itCommerce\_buy::Buyer})=\{\mbox{\itBuyer@Desc}\}$となる.記述子は各役割を一つの語彙で説明しているため,この汎化指標は語彙的特徴が類似する役割を効果的に集めるかもしれない.また,この方法で得られた汎化ラベルは役割の同値類関係を表現しており,階層関係によるラベルとは異なる構造を持っている.例えば,図~\ref{fig:descriptor-example}の(a),(b)のような階層関係がある場合,(a)の{\itCommerce\_goods-transfer::Seller},{\itCommerce\_sell::Seller},{\itCommerce\_buy::Seller}は階層関係,記述子どちらによっても一つのラベルに纏め上げられるが,一方,(b)の{\itGiving::Donor}(物の提供者),{\itCommerce\_sell::Seller}(販売物の提供者),{\itCommerce\_pay::Buyer}(対価の提供者)では,各役割の間に「提供者」という意味の類似があるが,記述子を用いた汎化の場合には,それぞれの役割が異なる汎化ラベルを持つことになる.\subsection{意味型}\label{semanticType}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f8.eps}\end{center}\caption{役割の階層関係と記述子による汎化の相違点}\label{fig:descriptor-example}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f9.eps}\end{center}\caption{FrameNetで役割に対して利用される意味型のリスト}\label{fig:semantictype-list}\end{figure}FrameNetでは,多くの役割に{\bf意味型}と呼ばれる型を割り当て,選択制限に類似した情報を提供している.これは,図~\ref{fig:semantictype-list}に列挙したようなカテゴリから成り,意味役割を埋める句の意味的な傾向を表す.例えば,役割{\itSelf\_motion::Area}は意味型が{\itLocation}であり,これは,この役割が場所を意味する句で埋められる傾向にあることを表す.この情報は意味役割を句の特性の観点から粗くカテゴリ化しており,特に役割候補句の語彙の特徴と結びついて役割分類に強く貢献すると期待できる事から,我々は意味型を汎化ラベルとして用い,その有用性を検証する.汎化関数$gen_{st}$は役割$y$の意味型を要素に持つ集合を返すように定義する.例えば,役割{\itSelf\_motion::Area}の場合,$gen_{st}(\mbox{\itSelf\_motion::Area})=\{\mbox{\itLocation@ST}\}$となる.\subsection{VerbNetの主題役割}\label{sec:frameNet-verbnet}\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f10.eps}\end{center}\caption{VerbNetの主題役割}\label{fig:thematic-role-list}\end{figure}VerbNetの主題役割は,図~\ref{fig:thematic-role-list}に挙げるような,動詞の項に付けられた$30$種類の粗い意味分類である.この$30$種のラベルは,全ての動詞に対して一貫性のある,フレーム横断的なラベルである.我々はSemLinkを用いてFrameNetの意味役割をVerbNetの主題役割にマッピングし,これを汎化ラベルとして導入する.\ref{sec:verbnet}節で説明したとおり,FrameNetの意味役割とVerbNetの主題役割は一般に多対多の対応であるが,現時点のSemLinkではFrameNetの各事例に主題役割が個別に付与されておらず,単純な方法で意味役割と主題役割の一対一対応を取ることが出来ない.したがって,ある意味役割から主題役割への写像が複数考えられるときには,汎化関数$gen_{tr}$はこれらの主題役割を全て含む集合を返すことにする.例えば,役割{\itGetting::Theme}の場合,各事例が対応付けられる動詞クラスに応じて,{\itTheme@TR},{\itTopic@TR}の二つの主題役割ラベルが考えられるため,$gen_{tr}(\mbox{\itGetting::Theme})=\{\mbox{\itTheme@TR},\mbox{\itTopic@TR}\}$となる.
\section{FrameNetにおける実験と考察}
\label{sec:experiment-in-framenet}\subsection{実験設定}実験にはSemeval-2007Sharedtask\shortciteA{baker-ellsworth-erk:2007:SemEval-2007}の訓練データ部分を用いる.このうちランダムに抜き出した$10\%$をテストデータとして用い,残りの$90\%$で訓練,開発を行う.評価は役割に関するMicroF1平均とMacroF1平均\shortcite{chang2008kee}で行う.役割句$x$の特徴には,既存研究によって有効と報告された素性\shortcite{marquez2008srl}を用いた.これらは,フレーム,フレーム想起単語,主辞,内容語,先頭/末尾単語,左右の兄弟ノードの主辞,句の統語範疇,句の位置,態,統語パス(有効/無向/部分),支配範疇,主辞のSupersense,想起単語と主辞の組,想起単語と統語範疇の組,態と句の位置の組である.単語を用いた素性には,表層形の他に,品詞や語幹を用いたものも使用している.構文解析には\shortciteA{charniak2005cfn}のrerankingparserを用い,Supersense素性には,\shortciteA{ciaramita2006bcs}のSuperSenseTaggerの出力を用いる.ベースライン分類器では役割の汎化を用いず,元の意味役割のみを利用した分類を行い,結果$89.00\%$のMicroF1値を得た.\subsection{意味役割の分類精度}表\ref{integration}に,それぞれの汎化指標を用いた場合の役割分類のMicroF1とMacroF1を示す.この実験設定においてMicroF1は役割全体の分類精度と等価であるが,この値は各指標で$0.5$から$1.7$の向上が見られた.また,最も高い精度は,全ての汎化指標によるラベルを同時に利用したモデルで得られ,ベースラインに対して$19.16\%$のエラー削減を実現した.この結果は,異なる種類の指標が互いにそれらを補完しあうことを示すものである.汎化指標ごとの性能をみると,記述子による効果が最も高く,フレームの階層関係を用いた汎化はこれに及ばなかった.また,主題役割による結果は,役割の$37.61\%$しか主題役割と関連付けることが出来なかったため,比較的小さな向上に留まったものの,有意な上昇を示した.\begin{table}[b]\begin{minipage}[t]{180pt}\caption{各汎化指標による分類精度}\label{integration}\input{05table01.txt}\end{minipage}\hfill\begin{minipage}[t]{230pt}\caption{低頻度役割に対する汎化の効果}\label{sparseness}\input{05table02.txt}\end{minipage}\end{table}\shortciteA{Baldewein2004}の実験では,FrameNetの階層関係は良い結果を得られなかったが,我々の汎化方法では有意な精度向上を確認した.また,我々は記述子において,従来の置き換えによる方法と,記述子ラベルとフレーム固有の役割ラベルを同時に利用する方法を比較した(表\ref{integration}の$2$行目と$3$行目).結果として,単に元の役割を同時に利用する場合でも,汎化ラベルに単純に置き換える従来の方法よりも正確に役割を推定出来ることを確認した.また,MacroF1の値から,我々の提案する汎化指標が低頻度の役割に対する分類精度を効果的に向上させたことが窺える.表\ref{sparseness}では,役割を事例数ごとに分け,それぞれの分類精度を示した.ここでも,我々の提案する汎化指標が特に事例の少ない役割の分類を助けている事が分かる.\subsection{記述子に関する分析}\begin{table}[t]\begin{minipage}[t]{145pt}\caption{中心性ごとの記述子の効果}\label{coreness}\input{05table03.txt}\end{minipage}\hfill\begin{minipage}[t]{270pt}\caption{各中心性における役割及び記述子の数と事例数}\label{class_instances}\input{05table04.txt}\end{minipage}\end{table}上述の実験では,特に記述子による汎化で顕著な向上が見られたため,この理由を細かく分析することにした.表\ref{coreness}は,役割の中心性\footnote{これ以降の実験では,coreとcore-unexpressedを纏めてcoreに分類している.}ごとにそのタイプの役割だけから記述子の汎化ラベルを作成し,評価セット全体のMicroF1を測ったものである.結果からは,記述子が特に周辺的な役割の汎化に有効であることが分かる.表\ref{class_instances}は,それぞれの中心性に割り当てられる役割の数,及び役割あたりの事例数,各中心性における記述子の数,記述子あたりの事例数を表したものである.ここで特徴的なのは,peripheralに分類される1,924の役割は250という比較的小さな数の記述子に纏まっていることである.これは,フレームに意味の依存が薄い役割に同一の記述子が付けられやすいという傾向を示しており,この傾向によって,記述子が特に周辺的な役割をフレーム横断的に汎化する良い指標になっていると考えられる.\subsection{役割間関係のタイプ別効果}\label{sec:compare-hierarchical-relation}\begin{table}[t]\caption{役割間関係のタイプ別の効果と辿る深さによる効果}\label{relation-accuracy}\input{05table05.txt}\end{table}役割間の階層関係を用いた汎化については,関係の型と階層を辿る深さによる効果の違いを調べた.表\ref{relation-accuracy}はそれぞれのMicroF1を示したものである.タイプ別にみると,特に{\it継承}と{\it使用}でその他の関係よりも精度の向上が見られた.それら以外のものは,関係の出現数そのものが少なかったために,差が少なく,効果の違いを考察するに至らなかった.また,深い階層関係を持つ役割については,一代先の汎化ラベルだけを用いるよりも,階層を伝って辿れる全てのラベルを用いて汎化する方が,より効果があることを確認した.先行関係については,最も効果の見られた祖先を辿る方法を採用することにした.また,最も高い性能は,階層上の全ての関係を利用した場合に得られた.\subsection{各汎化指標の特徴分析}\begin{table}[b]\begin{minipage}[t]{195pt}\setlength{\captionwidth}{195pt}\hangcaption{各汎化指標の中心性別にみる適合率と再現率.cはcore,pはperipheral,eはextra-thematicを表す.}\label{coreness-f1}\input{05table06.txt}\end{minipage}\hfill\begin{minipage}[t]{210pt}\setlength{\captionwidth}{210pt}\hangcaption{上位1,000個の特徴関数.各タイプごとの数を表す.`fc'は固有役割,`hr'は階層関係,`de'は記述子,`st'は意味型,`tr'は主題役割を表す.}\label{top1000}\input{05table07.txt}\end{minipage}\end{table}表\ref{coreness-f1}は中心性のタイプ別に見た,各汎化指標を用いたモデルの適合率,再現率,MicroF1である.coreに相当する意味役割は,汎化を利用しない場合でも$91.93\%$の分類精度が得られており,全ての汎化指標で比較的高い分類精度となった.peripheralとextra-thematicに関しては,最も簡潔な方法である記述子による方法がその他の指標を上回った.表\ref{top1000}には,重みの絶対値が上位$1,000$の特徴関数を,タイプ別に分類した.この表から,汎化指標の特徴は,記述子と意味型のグループと固有役割と階層関係のグループの二つのグループに分かれることが分かる.記述子と意味型では,先頭単語やsupersenseなどの,付加詞の特徴付けを行う素性との組み合わせが高い重みを持つ.固有役割と階層関係では,統語パスや内容語,主辞などの,語彙的或いは構造的な素性と強い結びつきがある.このことは,記述子や意味型を用いた汎化が周辺的,或いは付加詞に対応する役割に対して有効であり,階層関係を用いた汎化がcoreの役割に効果的であることを示唆する.
\section{PropBankにおける汎化手法}
\label{sec:generalization-criteria-propbank}本節では,PropBankにおける汎化手法について述べる.我々は,従来用いられてきた指標であるARGタグ,主題役割に加えて,新たに三つの汎化指標を提案する.これらは,VerbNetの動詞クラス,選択制限,意味述語にそれぞれ基づく.ARGタグ,主題役割は,どちらも$6$種類,$30$種類の少数のラベルセットであり,これらを用いた意味役割の分類は,非常に粗いものだと言える.しかし実際には,意味役割は各動詞に応じて多様な振る舞いを見せるため,より細かな粒度での汎化が必要と考えられる.そこで我々は,より頑健な役割分類を目的として,$30$種類の主題役割をより統語的,意味的に詳細化された汎化ラベルへ分割し,これらの細かい粒度の汎化ラベルによる効果を検証することにする.なお,新たに提案する細粒度の汎化ラベルの全貌については,VerbNet第$2.3$版の実際のデータ\footnote{簡単にデータを閲覧可能な場所として,VerbNetプロジェクトのWebサイトがある.動詞クラスの一覧についてはhttp://verbs.colorado.edu/verb-index/vn/class-h.php,その他の情報のリストについてはhttp://verbs.colorado.edu/verb-index/vn/reference.phpを参照のこと.ただし,データはVerbNetの最新版に対するものであるため,我々の利用する正確なデータはVerbNet第$2.3$版を参照頂きたい.}を,適時参照を願いたい.\subsection{タスク設定とモデルの拡張}以下で説明する汎化手法では,SemLinkによって得られる各アノテーションの動詞クラスと主題役割を利用しているため,これらについて詳しく説明をしておく.\ref{sec:verbnet}節で述べた通り,PropBankでは,SemLinkに基づくVerbNetとの事例レベルの正確なマッピングにより,各アノテーションの適切な主題役割と対象動詞の動詞クラスを得ることが出来る.そこで,本研究では,訓練時,評価時に,各アノテーションの意味役割と主題役割のどちらの情報も用いることができるものとする.また,役割分類の入力には,対象動詞に対する正しい動詞クラスも与えるものとする.VerbNetにおける動詞クラスは,PropBankで言うところのフレームに相当するものであり,意味役割付与システムの実際の運用時には,これらのフレームや動詞クラスを自動的に判定する必要がある.しかし,\ref{sec:role-classification}節でも述べた通り,我々の実験においては,意味役割の汎化が分類精度にもたらす効果を正確に検証することを目的としているため,フレームと動詞クラスの両方を入力として正しく与えることにする.また,このような設定にすることによって,式\ref{eqn:probability}の中の全役割候補$Y_f$に対して,ARGタグと主題役割の両方を一意に与えることができるため,ARGタグを用いた役割分類と,主題役割を用いた分類を,同じ候補の中から最適な一つを選ぶ,という等価な問題として比較することが出来る(図\ref{fig:arg-thematic-mapping}).\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f11.eps}\end{center}\hangcaption{フレームと動詞クラスが与えられた場合の分類問題.この設定においては,意味役割,ARGタグ,主題役割の三つのラベル間で全て一対一対応を取る事が出来るため,これらをそれぞれ独立に用いた分類モデルを考えた場合,各モデルは同じ候補の中から最適な一つを選ぶ,という等価な問題に帰着される.}\label{fig:arg-thematic-mapping}\end{figure}以降で提案する汎化指標は,そのどれもが動詞クラスの情報を利用してラベルを生成するものである.したがって,汎化のための関数$gen$,$gen_{i}$についても,意味役割$y$と動詞クラス$v$の二つを引数に取るように拡張する.これに伴い,式\ref{eqn:probability}は$v$の入る形で拡張され,\begin{equation}P(y|f,v,\mathbf{x})=\frac{\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y,v))}{\sum_{y\inY_f}\exp(\sum_{i}\lambda_{i}g_i(\mathbf{x},y,v))}\label{eqn:probability2}\end{equation}となり,式\ref{equ:generalized-label-feature-agent}も次のようになる.\begin{equation}g_2(\mathbf{x},y,v)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\mbox{\itAgent@TR}\ingen(y,v))\\0&(\mbox{otherwise})\end{cases}\end{equation}\subsection{ARGタグ,主題役割}ARGタグと主題役割については,\ref{sec:define-generalization}節の式\ref{eqn:arg},式\ref{eqn:thematic}で示したように,各意味役割のARGタグや主題役割を返すように$gen_{arg}$,$gen_{tr}$を設計する.ただし,ここでの主題役割は,SemLinkによって一意に与えられた正しいラベルである.例えば,図\ref{fig:arg-thematic-mapping}のような対応が与えられているならば,この事例において,各関数は以下の値を返す.\begin{align}gen_{arg}(\mbox{\itbuy.01::0},\mbox{{\itget-13.5.1}})&=\{\mbox{\itARG0@ARG}\}\\gen_{tr}(\mbox{\itbuy.01::0},\mbox{{\itget-13.5.1}})&=\{\mbox{\itAgent@TR}\}\end{align}\subsection{主題役割+動詞クラス}VerbNetは,英語の動詞を統語的,意味的に一貫性を持った$470$の階層的なクラスに分類した言語資源である.動詞クラスには,所属する動詞の統語的振る舞いの一貫性を保証するなどの特徴があるため,このクラスの分類は,主題役割を適切に詳細化するための情報となりうる.例えば,主題役割{\itPatient}は,一般的に目的語や前置詞句としてしか現れないが,クラスcooking-45.3の動詞では主語として現れることがある,という細かな情報を,動詞クラスを用いることで各主題役割に付加することが出来る.したがって,我々は新しい汎化関数として,対象事例における動詞クラス$v$と主題役割$t$の組を返すような$gen_{vc}$を定義する.\begin{equation}gen_{vc}(y,v)=\{\langlet,v\rangle@VC\}.\end{equation}特徴関数はこの二つ組によるラベルをチェックする形で定義する.\begin{equation}g_3(\mathbf{x},y,v)=\begin{cases}1&(\mbox{headof}x\mbox{is``he''}~\wedge\langle\mbox{{\itPatient}},\mbox{{\itcooking-45.3}}\rangle@VC\ingen(y,v))\\0&(\mbox{otherwise})\end{cases}\end{equation}\subsection{選択制限}\label{sec:selectional-restriction}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f12.eps}\end{center}\caption{VerbNetにおける選択制限のカテゴリ}\label{fig:selectional-restriction-list}\end{figure}VerbNetは各動詞クラスの主題役割にそれぞれ選択制限の情報を付与している.FrameNetの意味型の場合と同様に,この情報は意味的な類似性のある役割をグループ化するのに役立つと期待される.VerbNetでは,選択制限は正負を持った$36$種類の意味カテゴリ(図~\ref{fig:selectional-restriction-list})を用いた命題論理で表現される.例えば,クラス{\itgive-13.1}の主題役割{\itAgent}の選択制限は{\it+animate}$\vee${\it+organization}のように与えられる.我々はこれらの命題を役割の汎化ラベルとして利用する.$gen_{sr}$は動詞クラス$v$における主題役割$t$の選択制限を返す関数として定義する.\begin{equation}gen_{sr}(\mbox{give.01::0},\mbox{{\itgive-13.1}})=\{\mbox{({\it+animate}}\vee\mbox{{\it+organization})}@SR\}.\end{equation}\subsection{主題役割+意味述語}VerbNetでは,各動詞クラスにいくつかの例文が記述されているが,これらの例文には,意味述語と呼ばれる述語表現の組み合わせを用いて,文の意味が表現されている.例えば,クラス{\itgive-13.1-1}の例文``Ileasedthecartomyfriendfor\$5amonth.''には,\\$has\_possession(start(E),Agent,Theme)$,$has\_possession(end(E),Recipient,Theme)$,\\$has\_possession(start(E),Recipient,Asset)$,$has\_possession(end(E),Agent,Asset)$,\\$transfer(during(E),Theme)$の五つの意味述語が含まれる.この種の分解された意味表現は,各フレームが持つ役割の意味的性質を細かい粒度で共有することを可能にする.例えば,イベント終了時に対価を持つ{\itAgent}にあたる意味役割は,図\ref{fig:agent-of-possessing-asset}のように,各動詞クラスの例文中から述語表現$s_1=has\_possession(end(E),Agent,Asset)$を探すことでグループ化出来る\footnote{図\ref{fig:agent-of-possessing-asset}では分かりやすさのためにフレーム固有の役割名で表記したが,実際には,PropBankの意味役割は動詞クラスの特定によって主題役割へ写像されるため,意味述語で集められるものは意味役割と動詞クラスの組である.}.そこで我々はこの意味役割のグループをタプル$\langle{\itAgent},s_1\rangle$で表し,汎化ラベルとして利用する.ここで,ある事例における役割$y$の主題役割を$t$とすれば,関数$gen_{sp}$は動詞クラス$v$の例文から得られる意味述語のうち,引数に$t$を含むものを全て返す関数として定義する.例えば,{\itlease01::0}の主題役割が$Agent$,動詞クラスが{\itgive-13.1-1}だった場合は,以下のようになる.\begin{align}gen_{\mbox{sp}}(\mbox{lease.01::0},\mbox{{\itgive-13.1-1}})&=\{\langle\mbox{{\itAgent}},has\_possession(start(E),Agent,Theme)\rangle@SP,\nonumber\\&\langle\mbox{{\itAgent}},has\_possession(end(E),Agent,Asset)\rangle@SP\}\end{align}\begin{figure}[t]\begin{center}\includegraphics{17-4ia5f13.eps}\end{center}\caption{意味述語\textit{has\_possession}(\textit{end}(\textit{E}),\textit{Agent,Asset})を持つAgentにあたる役割}\label{fig:agent-of-possessing-asset}\end{figure}
\section{PropBankにおける比較実験}
PropBankにおける実験では,二つのことを検証する.一つ目は,従来PropBank上での意味役割の汎化で議論されてきたARGタグと主題役割の効果の違いを明らかにすることである.既存研究におけるARGタグと主題役割の比較では,意味役割付与タスク全体を通した精度比較しか行ってこなかった\shortcite{loper2007clr,yi-loper-palmer:2007:main,zapirain-agirre-marquez:2008:ACLMain}.しかしながら,意味役割付与は複雑な問題が絡み合うタスクなため,そのような比較では,最終的な精度に影響する原因がどの部分で生じたかが不明瞭になりがちである.特に構文解析時のエラーは,多くの複雑で不整合な統語構造を生むため,意味役割付与の精度に大きく影響することが知られている\shortcite{marquez2008srl}.幸い,PropBankはPennTreebankと同一のテキストに対するコーパスなため,PennTreebankの人手による正解構文木が利用可能である.そこで,我々はこの構文木を入力として利用することで,構文解析エラーの影響を無くしたより厳密な状況を作り,理想的な状況下での役割分類結果のエラー分析を行うことによって,二つの汎化指標が捉えている役割の性質の違いを正確に分析する.二つ目では,これらの指標に加え,我々の提案した新しい三つの指標について,それらの汎化性能を比較する.比較は,役割全体の分類精度に加えて,対象動詞に関する素性を除いた設定での評価と,未知動詞に対する評価の三つで行う.\subsection{実験設定}\label{sec:propbank-setting}実験にはPennTreebankIIコーパスのWallStreedJournal部分と,それに対応するPropBankのデータを用いる.WallStreetJournalのうち,02-21節を訓練に,24節を開発に,23節を評価に利用する.この実験では,各アノテーションに対してSemLinkによって与えられる動詞クラスと主題役割の情報を用いているため,\shortciteA{zapirain-agirre-marquez:2008:ACLMain}の方法に準じて,SemLink1.1によって主題役割に写像出来るアノテーションだけを実験セットとして用いる.その数は70,397アノテーションであり,PropBank全体の$62.34\%$にあたる.また,すでにフレームに独立なラベルとして定義されている{\itAM}タグは取り除き,フレーム固有の意味役割として定義されている{\itARG0-5}のみの分類精度によって評価を行う.役割句$x$に対する特徴には,FrameNetの場合と同じく,既存研究で効果が確認された素性を用いる.具体的には,フレーム,対象動詞,主辞,内容語,先頭/末尾語,左右姉妹句の主辞,句の統語範疇,句の位置,態,統語パス,句に含まれる固有表現カテゴリ,統語フレーム,前置詞句の先頭語,対象動詞と主辞の組,態と統語範疇の組,統語フレームと前置詞句の線統語の組である.単語を用いた素性には,表層形の他,品詞や語幹を用いたものも併せて利用する.固有表現抽出には,CoNLL-2008sharedtask\shortcite{surdeanu2008cst}のopen-challengedatasetに与えられた,意味タガー\shortcite{ciaramita2006bcs}の三つの出力結果を用いる.\subsection{PropBankARG0-5と主題役割の比較}\label{sec:pbVsTr}ARGタグと主題役割についての比較では,まず役割全体の分類精度による評価を行った.表~\ref{table:moreLess}はこれらの汎化指標を個別に用いた際の分類精度を示す.記号***は,汎化ラベルを用いないモデルに比べてMcNemarテストにより$p<0.001$で有意であることを意味する.役割分類に理想的な入力が与えられた場合,役割の汎化を行わないモデルでも96.7\%以上の精度を実現することが可能であった.ARGタグと主題役割を用いた場合には,どちらのモデルも,汎化を行わない場合に比べて分類精度が向上した.また,その効果は事例の少ない役割に対して特に明確に確認できる.表~\ref{table:moreLess}における列「$>200$」と列「$<50$」は,事例数が200を超えるフレームと50未満のフレームに対する分類精度を表す.これらから,役割の汎化を行わなかった場合には,事例数50未満のフレームに対する精度が,200を超えるフレームに比べて約$9$ポイントと大きく低下することが分かる.一方で,ARGタグや主題役割は,役割をフレームに独立な少数のラベルに汎化するため,事例の少ない役割をより頑健に分類することが出来る.\begin{table}[b]\begin{minipage}[t]{163pt}\caption{フレームの事例数別の分類精度}\label{table:moreLess}\input{05table08.txt}\end{minipage}\hfill\begin{minipage}[t]{253pt}\caption{ARGタグと主題役割における分類精度の比較}\label{table:argF1}\input{05table09.txt}\end{minipage}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f14.eps}\end{center}\caption{訓練データ量に対する精度の変化}\label{fig:reduce}\end{figure}\shortciteA{yi-loper-palmer:2007:main}と\shortciteA{zapirain-agirre-marquez:2008:ACLMain}は,主題役割を用いた意味役割付与はARGタグを用いる場合に比べて,性能が若干低下すると報告した.しかし我々の実験では,これら二つの汎化ラベルの結果に有意な差は認められなかった($p\leq0.838$).図~\ref{fig:reduce}の学習曲線を見ても,ARGタグと主題役割の曲線は近く,\shortciteA{yi-loper-palmer:2007:main}と\shortciteA{zapirain-agirre-marquez:2008:ACLMain}が指摘したような主題役割に対する訓練データの不足は確認出来なかった.また,\shortciteA{yi-loper-palmer:2007:main,loper2007clr}は,ARGタグのうち特に{\itARG2}で不整合があるとしたが,我々の実験のように,理想的な入力と,フレームによる選択可能なラベルの制約が与えられた場合,ARGタグと主題役割のどちらにおいても{\itARG0-5}の各タグをほぼ同精度で分類することが出来た(表~\ref{table:argF1}).これは表~\ref{table:featureDistribution}に見られるように,verb+pathなどの動詞に関する組み合わせ特徴によって,各役割の動詞に対する個別の振る舞いを学習していることと,フレームによる選択可能なラベルの制限によって,主題役割のうち{\itPatient}や{\itTheme}などの統語的に類似する性質を持つ役割の混在がある程度制限されるためと思われる.\begin{table}[p]\caption{重みの絶対値が上位$0.1\%$にあたる特徴の分布}\label{table:featureDistribution}\input{05table10.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{17-4ia5f15.eps}\end{center}\hangcaption{主題役割で見るエラー分類.表(A)はARGタグで正解し,主題役割で間違ったもの,表(B)は逆,表(C)は両方で間違えたものを表す.動詞クラスの列は,対応する種類のエラーが生じたクラスを示す.}\label{fig:errMap}\end{figure}我々は二つの汎化指標の特徴についてより詳しく分析するために,それぞれのモデルで生じたエラーを人手でチェックし,二つのモデルで分類結果の食い違った事例を分析した.図~\ref{fig:errMap}は,ARGタグモデルと主題役割モデルの,互いに一方が正解し一方が間違った事例と,双方が間違った事例について,それらの正解ラベルと推定ラベルの組を分類したものである.表(A)はARGタグモデルで正解し,主題役割モデルで間違った事例であるが,最初の三行のエラーは,異なる動詞クラスの間で,主題役割の統語位置に不整合が出ることが原因である.例えば,クラスamuse-31.1,appeal-31.4の動詞について,{\itCause}は主語の位置に現れる傾向にあり,{\itExperiencer}はその他の場所に現れる傾向があるが,クラスmarvel-31.3では逆の傾向がある.また,{\itDestination}$\rightarrow${\itTheme}のケースは,一般的に前置詞句として現れる{\itDestination}が,動詞クラスspray-9.7,fill-9.8,butter-9.9,image\_impression-25.1においては目的語の位置に現れやすいことが原因である.一方で,PropBankは各動詞に対して,主語の位置に現れやすい役割に{\itARG0}を,目的語の位置に現れやすい役割に{\itARG1}を主に割り当てているために,ARGタグにはこのような曖昧性さが起こりにくい.表(B)には逆に,主題役割モデルで正解し,ARGタグモデルで間違った事例を示す.最初の行は主題役割の有効性を表す良い例である.ARGタグは主に統語的特徴に基づいたグループであるため,{\itARG1}が主語の位置に出てきた場合にこれを{\itARG0}と間違いやすい.それとは対照に,主題役割はより意味的属性を考慮したグループに分割されているので,主語の位置に現れる{\itPatient}に対して,統語素性からのペナルティが小さい.その結果,{\itARG0}を用いる場合よりもこれらの役割が比較的正しく分類された.また,表(C)の,ARGタグと主題役割両方のモデルで間違う事例にもいくつかの傾向が見られる.例えば,能格動詞が自動詞として使われるときや,{\itTheme}が目的語として現れにくい動詞クラスなどで多くの間違いが見られる.これらの改善のためには,動詞或いは動詞クラスに対してより詳細化された統語的意味的情報が必要だと思われる.表\ref{fig:errMap}からは,総じて二つの汎化ラベルが意味役割の汎化において異なる利点を持っていることが分かる.\begin{table}[b]\caption{汎化指標の混合による精度}\label{table:incorporate}\input{05table11.txt}\end{table}さらに,表~\ref{table:incorporate}に見られるように,これら二つの汎化ラベルを同時に利用したモデルの結果も,二つの汎化ラベルが異なる効果をもたらしたことを示す結果となった.記号***はARGタグのみを使うモデルに比べて,そのモデルの精度がMcNemarテストにおいて$p<0.001$で有意であることを示す.ARGタグ+主題役割のモデルはARGモデルに比べて$24.07\%$のエラーを削減した.このモデルにさらに元の意味役割ラベルを加えた固有役割+ARGタグ+主題役割モデルについても実験を行ったが,ARGタグ+主題役割モデルに対して性能の有意な向上は得られなかった.これは,既に対象動詞との組み合わせを用いたいくつかの特徴がARGタグ+主題役割モデルに含まれているためと思われる.\subsection{提案する汎化指標との比較実験}次に,既存の汎化手法と我々の提案する汎化手法についての比較を示す.この実験では,汎化性能を比較する三つの設定を用意した.設定(A)は\ref{sec:pbVsTr}~節で利用した\ref{sec:propbank-setting}節の設定である.設定(B)は(A)と同じデータセットにおいて,フレームと対象動詞に由来する全ての特徴を取り除いたモデルの精度を測るものである.この設定では,各汎化ラベルが動詞固有の情報を使わずに,汎化ラベルのみでどれほどの精度を実現するかを評価する.設定(C)では,コーパス中の低頻度動詞に関する事例を取り除くことにより人工的に未知動詞を作り,それらの動詞に対する意味役割の分類精度を評価する.この設定は,実際に未学習の動詞が表れたときに,それぞれの汎化指標が頑健にラベルの推定を行えるかを調べるものである.ここでは出現回数が$20$回以下の,1,190の動詞に関する事例をコーパス中から抜き出し,この抜き出した事例を評価セットとして利用する.図~\ref{unseenList}は抜き出した動詞の抜粋である.この操作により実際に抜き出された役割の事例数は$8,809$となった.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f16.eps}\end{center}\caption{隠した動詞の抜粋}\label{unseenList}\end{figure}\begin{table}[b]\caption{三つの設定における各指標の精度比較}\label{table:unseenAcc}\input{05table12.txt}\end{table}表~\ref{table:unseenAcc}に実験結果を示す.設定(A)において最も高い性能を示したのはARGタグ+主題役割モデルであり,より細かい粒度の汎化ラベルを加えたモデルは,ARGタグ+主題役割モデルに及ばなかった.また,(B),(C)の結果からは,ARGタグ+主題役割モデルが,ARGタグや主題役割を単独で使うモデルに比べて,大きく向上させていることが分かる.特に,未知動詞に対する性能を評価している設定(C)では,ARGタグや主題役割を個別に用いる方法では,十分な汎化の効果が得られないことが分かる.我々の提案する細粒度の汎化指標は,ARGタグや主題役割と組み合わせて利用することによって,(B),(C)の分類精度を向上させることを確認した.特に,意味述語と動詞クラスを用いた汎化が効果的に性能を向上させた.また,未知動詞に関する実験である(C)において最も高い性能を示したのは,ARGタグ+主題役割+意味述語モデルであり,ARGタグのみを用いた場合に比べて$26.39$\%のエラー削減を実現した.これは言い換えれば,各動詞について十分な学習が出来る場合には,細粒度の汎化によって全体の精度を落とすことがあり,一方で,動詞個別の学習が不十分な場合には,異なる観点を織り交ぜた細粒度の汎化が分類精度の向上をもたらすということを意味する.この結果で興味深いのは,従来,意味役割付与においてあまり用いられてこなかった動詞クラスの情報が,意味役割を細かいレベルで適切に汎化し,意味役割分類の頑健性を向上させるということである.この結果は,意味役割付与問題において,役割分類の事前処理,或いは結合モデルとして,対象動詞の動詞クラスを求めることの有用性を表している.今後は,対象動詞に対するフレーム及び動詞クラスを特定する処理を含めた精度の評価が必要であろう.
\section{まとめ}
本稿では,FrameNet,PropBankの二つのコーパスにおいて,役割を適切に汎化するための複数の指標と方法を提案し,また,異なる種類の汎化ラベルを同時に扱うための分類モデルを導入した.汎化ラベルを意味役割の特徴として扱い,異なる観点,異なる粒度の集合を複合して利用することが,従来のラベルを置き換える方法よりも分類精度を向上させることを確認した.また,既存の汎化ラベル及び我々の新たな汎化ラベルについて,比較実験を通して詳細な分析を与え,それぞれの性質を明らかにした.FrameNetでは,役割の階層関係,役割の記述子,句の意味型,VerbNetの主題役割の四種類の異なる指標を用いて,汎化ラベルを作成した.これらはそれぞれに分類の性能を向上させ,役割分類役割分類の疎データ問題を効果的に解消することを示した.最も優れた性能を見せたのは役割の記述子による方法であり,予想に反してFrameNetの階層関係はこれを超えることが出来なかった.したがって,今後,フレーム階層関係のさらなる有用な活用のため,階層関係の不足点,改善点等を解析していく必要があると思われる.また,各指標の性質として,記述子や意味型を用いた汎化ラベルは周辺的,或いは付加詞的役割を捉える特徴と結びつきが強く,階層関係を用いた汎化は中心的役割を捉える特徴と結びつきが強いことを示した.全ての汎化ラベルを混合したモデルでは,全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42$の向上を示した.我々の実験では,より多くのフレーム間関係を利用するために,FrameNetの最新版のデータを利用した.その結果,既存のシステムと直接的な精度比較をすることが出来なかったが,我々のベースラインにおけるF1Micro平均$89.00\%$は,SemEval-2007~\cite{baker-ellsworth-erk:2007:SemEval-2007}での\shortciteA{bejan2007usp}の$88.93\%$という値と概ね競合すると言えるため,意味役割の汎化により,意味役割付与システム全体の精度向上が期待出来ると言えるだろう\footnote{SemEval-2007の意味役割付与タスクには二グループが参加し,\shortciteA{bejan2007usp}は,システム全体の評価とは別に訓練データに対する役割分類の精度を評価した.}.PropBankでは,既存の汎化手法であるPropBankのARGタグと主題役割の二つの汎化ラベルを木構造や項の位置等を与えた厳密な設定で比較し,その結果,ARGタグは役割の統語位置の性質をより強く捉え,主題役割は意味的側面から比較的位置に対する柔軟性を持つという性質の違いを明らかにした.また,役割分類における主なエラーの理由は,動詞ごとの特徴による統語パターンの曖昧性に由来することを明らかにした.ここでも,二つの汎化ラベルの組み合わせが役割分類の精度を向上させる結果となり,ARGタグのみを使う場合に比べて,$24.07\%$のエラー削減を実現した.また,我々は,事例の少ない或いは未知の役割に対して頑健な役割分類を行うための新たな提案として,VerbNetの動詞クラス情報を用いてより詳細化された三つの汎化指標を導入した.新たな汎化指標は動詞クラス,選択制限,意味述語であったが,実験結果は,これらの詳細化された細粒度のラベルの導入が低頻度及び未知の動詞に対する精度を向上させることを示した.最も高い効果が得られたのは意味述語をARGタグと主題役割と共に用いた場合であり,ARGタグのみを用いた場合に比べて$26.39\%$のエラー削減を達成した.総じて,我々が得た結果は,意味役割の統語的,意味的特徴を異なるいくつかの観点から捉えて,それらを役割の特徴として混合する方法が,意味役割分類の精度を向上させるというものであった.これは言い換え得れば,意味役割を異なる言語学的背景から説明したFrameNetとPropBankの情報を相互に利用すれば,さらなる精度と頑健性の向上が期待できる事を示唆している.現段階では,FrameNet,PropBank,VerbNetといった,異なる意味論に基づく資源の間のフレーム,及び意味役割の対応関係が明確ではなく,そのため,資源間の意味役割を正確に対応付けることが出来ない.そのため,今回の実験では,FrameNet,PropBankでそれぞれのコーパスに特有の情報を利用して意味役割の汎化を行っており,これら二つのコーパスの異なる意味論を混合した場合の評価には至っていないが,今後,SemLinkなどの,異なる資源の意味役割を適切に繋ぐデータが充実してくれば,FrameNetの意味役割をPropBankの知識を用いて推定する方法や,逆にPropBankの意味役割について,FrameNetで用いたような概念の階層的な汎化を同時に利用する方法も,我々の分類モデルの延長上で原理的に実現可能である.この意味でも,資源間の意味役割の対応関係を記述するデータは,意味役割付与において重要な位置を占めると考えられる.また加えて,今後の研究として,低頻度や未学習の意味役割に対してより高い頑健性を確保するためには,FrameNetやPropBankの意味論が与える汎化の指標以外にも,我々が意味役割と呼ぶ意味付きの項構造がどのような属性の束で表現されるのかを探求していくことが,意味役割付与技術の向上のために重要である.\acknowledgment本研究の一部は,文部科学省科学研究費補助金特別推進研究「高度言語理解のための意味・知識処理の基盤技術に関する研究」の助成を受けています.記して謝意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker,Ellsworth,\BBA\Erk}{Bakeret~al.}{2007}]{baker-ellsworth-erk:2007:SemEval-2007}Baker,C.,Ellsworth,M.,\BBA\Erk,K.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task19:FrameSemanticStructureExtraction.\BBCQ\\newblockIn{\BemProceedingsofSemEval-2007},\mbox{\BPGS\99--104}.\bibitem[\protect\BCAY{Baker,Fillmore,\BBA\Lowe}{Bakeret~al.}{1998}]{Baker:98}Baker,C.~F.,Fillmore,C.~J.,\BBA\Lowe,J.~B.\BBOP1998\BBCP.\newblock\BBOQTheBerkeleyFrameNetproject.\BBCQ\\newblockIn{\BemProceedingsofColing-ACL1998},\mbox{\BPGS\86--90}.\bibitem[\protect\BCAY{Baldewein,Erk,Pad\'{o},\BBA\Prescher}{Baldeweinet~al.}{2004}]{Baldewein2004}Baldewein,U.,Erk,K.,Pad\'{o},S.,\BBA\Prescher,D.\BBOP2004\BBCP.\newblock\BBOQSemanticrolelabelingwithsimilaritybasedgeneralizationusing{EM}-basedclustering.\BBCQ\\newblockIn{\BemProceedingsofSenseval-3},\mbox{\BPGS\64--68}.\bibitem[\protect\BCAY{Bejan\BBA\Hathaway}{Bejan\BBA\Hathaway}{2007}]{bejan2007usp}Bejan,C.~A.\BBACOMMA\\BBA\Hathaway,C.\BBOP2007\BBCP.\newblock\BBOQ{UTD-SRL:APipelineArchitectureforExtractingFrameSemanticStructures}.\BBCQ\\newblockIn{\BemProceedingsofSemEval-2007},\mbox{\BPGS\460--463}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chang\BBA\Zheng}{Chang\BBA\Zheng}{2008}]{chang2008kee}Chang,X.\BBACOMMA\\BBA\Zheng,Q.\BBOP2008\BBCP.\newblock\BBOQ{KnowledgeElementExtractionforKnowledge-BasedLearningResourcesOrganization}.\BBCQ\\newblock{\BemLectureNotesinComputerScience},{\Bbf4823},\mbox{\BPGS\102--113}.\bibitem[\protect\BCAY{Charniak\BBA\Johnson}{Charniak\BBA\Johnson}{2005}]{charniak2005cfn}Charniak,E.\BBACOMMA\\BBA\Johnson,M.\BBOP2005\BBCP.\newblock\BBOQ{Coarse-to-finen-bestparsingandMaxEntdiscriminativereranking}.\BBCQ\\newblockIn{\BemProceedingsofACL2005},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{Ciaramita\BBA\Altun}{Ciaramita\BBA\Altun}{2006}]{ciaramita2006bcs}Ciaramita,M.\BBACOMMA\\BBA\Altun,Y.\BBOP2006\BBCP.\newblock\BBOQ{Broad-coveragesensedisambiguationandinformationextractionwithasupersensesequencetagger}.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-2006},\mbox{\BPGS\594--602}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1976}]{fillmore1976}Fillmore,C.~J.\BBOP1976\BBCP.\newblock\BBOQFramesemanticsandthenatureoflanguage.\BBCQ\\newblock{\BemAnnalsoftheNewYorkAcademyofSciences:ConferenceontheOriginandDevelopmentofLanguageandSpeech},{\Bbf280},\mbox{\BPGS\20--32}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{Gildea2002}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticlabelingofsemanticroles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Giuglea\BBA\Moschitti}{Giuglea\BBA\Moschitti}{2006}]{Giuglea2006}Giuglea,A.-M.\BBACOMMA\\BBA\Moschitti,A.\BBOP2006\BBCP.\newblock\BBOQSemanticrolelabelingvia{FrameNet},{VerbNet}and{PropBank}.\BBCQ\\newblockIn{\BemProceedingsoftheColing-ACL2006},\mbox{\BPGS\929--936}.\bibitem[\protect\BCAY{Gordon\BBA\Swanson}{Gordon\BBA\Swanson}{2007}]{gordon-swanson:2007:ACLMain}Gordon,A.\BBACOMMA\\BBA\Swanson,R.\BBOP2007\BBCP.\newblock\BBOQGeneralizingsemanticroleannotationsacrosssyntacticallysimilarverbs.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\192--199}.\bibitem[\protect\BCAY{Kipper,Dang,\BBA\Palmer}{Kipperet~al.}{2000}]{kipper2000cbc}Kipper,K.,Dang,H.~T.,\BBA\Palmer,M.\BBOP2000\BBCP.\newblock\BBOQ{Class-basedconstructionofaverblexicon}.\BBCQ\\newblockIn{\BemProceedingsofAAAI-2000},\mbox{\BPGS\691--696}.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin1993evc}Levin,B.\BBOP1993\BBCP.\newblock{\Bem{Englishverbclassesandalternations:Apreliminaryinvestigation}}.\newblockTheUniversityofChicagoPress.\bibitem[\protect\BCAY{Loper,Yi,\BBA\Palmer}{Loperet~al.}{2007}]{loper2007clr}Loper,E.,Yi,S.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQ{Combininglexicalresources:Mappingbetweenpropbankandverbnet}.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalWorkshoponComputationalSemantics},\mbox{\BPGS\118--128}.\bibitem[\protect\BCAY{M\`{a}rquez,Carreras,Litkowski,\BBA\Stevenson}{M\`{a}rquezet~al.}{2008}]{marquez2008srl}M\`{a}rquez,L.,Carreras,X.,Litkowski,K.~C.,\BBA\Stevenson,S.\BBOP2008\BBCP.\newblock\BBOQ{Semanticrolelabeling:anintroductiontothespecialissue}.\BBCQ\\newblock{\BemComputationallinguistics},{\Bbf34}(2),\mbox{\BPGS\145--159}.\bibitem[\protect\BCAY{Moschitti,Giuglea,Coppola,\BBA\Basili}{Moschittiet~al.}{2005}]{Moschitti2005}Moschitti,A.,Giuglea,A.-M.,Coppola,B.,\BBA\Basili,R.\BBOP2005\BBCP.\newblock\BBOQHierarchicalSemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofCoNLL-2005},\mbox{\BPGS\201--204}.\bibitem[\protect\BCAY{Moschitti,Quarteroni,Basili,\BBA\Manandhar}{Moschittiet~al.}{2007}]{moschitti2007esa}Moschitti,A.,Quarteroni,S.,Basili,R.,\BBA\Manandhar,S.\BBOP2007\BBCP.\newblock\BBOQExploitingSyntacticandShallowSemanticKernelsforQuestionAnswerClassification.\BBCQ\\newblockIn{\BemProceedingsofACL-07},\mbox{\BPGS\776--783}.\bibitem[\protect\BCAY{Narayanan\BBA\Harabagiu}{Narayanan\BBA\Harabagiu}{2004}]{narayanan-harabagiu:2004:COLING}Narayanan,S.\BBACOMMA\\BBA\Harabagiu,S.\BBOP2004\BBCP.\newblock\BBOQQuestionAnsweringBasedonSemanticStructures.\BBCQ\\newblockIn{\BemProceedingsofColing-2004},\mbox{\BPGS\693--701}.\bibitem[\protect\BCAY{Nocedal}{Nocedal}{1980}]{nocedal1980}Nocedal,J.\BBOP1980\BBCP.\newblock\BBOQUpdatingquasi-Newtonmatriceswithlimitedstorage.\BBCQ\\newblock{\BemMathematicsofComputation},{\Bbf35}(151),\mbox{\BPGS\773--782}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer:05}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Shen\BBA\Lapata}{Shen\BBA\Lapata}{2007}]{shen-lapata:2007:EMNLP-CoNLL2007}Shen,D.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQUsingSemanticRolestoImproveQuestionAnswering.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-CoNLL2007},\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Shi\BBA\Mihalcea}{Shi\BBA\Mihalcea}{2005}]{Shi2005ppt}Shi,L.\BBACOMMA\\BBA\Mihalcea,R.\BBOP2005\BBCP.\newblock\BBOQ{PuttingPiecesTogether:CombiningFrameNet,VerbNetandWordNetforRobustSemanticParsing}.\BBCQ\\newblockIn{\BemProceedingsofCICLing-2005},\mbox{\BPGS\100--111}.\bibitem[\protect\BCAY{Surdeanu,Johansson,Meyers,M\`{a}rquez,\BBA\Nivre}{Surdeanuet~al.}{2008}]{surdeanu2008cst}Surdeanu,M.,Johansson,R.,Meyers,A.,M\`{a}rquez,L.,\BBA\Nivre,J.\BBOP2008\BBCP.\newblock\BBOQ{TheCoNLL-2008SharedTaskonJointParsingofSyntacticandSemanticDependencies}.\BBCQ\\newblockIn{\BemProceedingsofCoNLL--2008},\mbox{\BPGS\159--177}.\bibitem[\protect\BCAY{Surdeanu,Harabagiu,Williams,\BBA\Aarseth}{Surdeanuet~al.}{2003}]{Surdeanu2003}Surdeanu,M.,Harabagiu,S.,Williams,J.,\BBA\Aarseth,P.\BBOP2003\BBCP.\newblock\BBOQUsingPredicate-ArgumentStructuresforInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofACL-2003},\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Yi,Loper,\BBA\Palmer}{Yiet~al.}{2007}]{yi-loper-palmer:2007:main}Yi,S.,Loper,E.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQCanSemanticRolesGeneralizeAcrossGenres?\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2007},\mbox{\BPGS\548--555}.\bibitem[\protect\BCAY{Zapirain,Agirre,\BBA\M\`{a}rquez}{Zapirainet~al.}{2008}]{zapirain-agirre-marquez:2008:ACLMain}Zapirain,B.,Agirre,E.,\BBA\M\`{a}rquez,L.\BBOP2008\BBCP.\newblock\BBOQRobustnessandGeneralizationofRoleSets:{PropBank}vs.{VerbNet}.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT},\mbox{\BPGS\550--558}.\end{thebibliography}\begin{biography}\bioauthor{松林優一郎(学生会員)}{2010年東京大学大学院情報理工学系研究科・コンピュータ科学専攻博士課程修了.情報理工学博士.同年より,国立情報学研究所・特任研究員.意味解析の研究に従事.ACL会員.}\bioauthor{岡崎直観(正会員)}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.情報理工学博士.同年より,東京大学大学院情報理工学系研究科・特別研究員.テキストマイニングの研究に従事.情報処理学会,ACL各会員.}\bioauthor{辻井潤一(正会員)}{1971年京都大学工学部,1973年同修士課程修了.同大学助手・助教授を経て,1988年英国UMIST教授,1995年より東京大学教授.マンチェスタ大学教授を兼任.TM,機械翻訳などの研究に従事.工博.ACL元会長(2006年).}\end{biography}\biodate\end{document}
| |
V15N02-01
|
\section{序論}
label{sec:hajime}自然言語処理においては,タグ付けや文書分類をはじめとするさまざまな分類タスクにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用である.例えば,自動分類システムがより大きなシステムの一部を構成し,自動分類結果が別のシステムに自動入力されるような場合に,クラス所属確率は重要な役割を果たす.この例として,ブログ記事に対してさまざまな観点から付けられたタグ(複数)をユーザに表示するシステムにおいて,タグを自動的に付与する際に,クラス所属確率が閾値より低いタグについては排除することが有効な場合がある~\cite{Ohkura06}.同様に,手書き文字認識システムによる分類結果が,言語モデルのようなドメイン知識を組み込んだシステムの入力である場合も,クラス所属確率が用いられている~\cite{Zadrozny02}.また,自動的にタグ付けされた事例のうち誤分類されたものを人手により訂正したい場合に,すべての事例をチェックするのは大きなコストがかかるが,クラス所属確率が低いものほど不正解である可能性が高いと仮定し,クラス所属確率が閾値を下回る事例のみを訂正することにすれば,効率的な作業が行える.さらに,自動分類結果が人間の意思決定を支援する場合においては,クラス所属確率は判断の根拠を与える.例えば,高橋らは,社会調査において自由回答で収集される職業データを該当する職業コードに自動分類し~\cite{Takahashi05a,Takahashi05c},上位5位までに予測されたクラスを候補として画面に提示するシステム(NANACOシステム)を開発した~\cite{Takahashi05b}.NANACOシステムは,我が国の主要な社会調査であるJGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\kern-0.5zw\footnote{\texttt{http://jgss.daishodai.ac.jp/}.JGSSプロジェクトは,シカゴ大学NORC(theNationalOpinionResearchCenter)におけるGSSプロジェクトの日本版であり,国際比較分析を可能にするために,日本の社会や態度,行動に関する調査項目を有する.}や,SSM調査(SocialStratificationandSocialMobilitySurvey;社会階層と社会移動調査)\kern-0.5zw\footnote{\texttt{http://www.sal.tohoku.ac.jp/coe/ssm/index.html}.1995年から10年ごとに実施されている「仕事と暮らしに関する」全国調査である.}などに利用されているが,システムを利用したコーダから,提示された各クラスについてどの程度確からしいかを示すクラス所属確率を付与してほしいという要望が出されている\footnote{NANACOシステムが適用されるたびに,コーダによるシステム評価を行っている.}.最後に,クラス所属確率はEMアルゴリズムにおいても有用である.例えば,語の曖昧性解消において,あるドメインで訓練された分類器を,別のドメインのコーパス用に調整するために用いられたEMアルゴリズムにおいて,クラス所属確率は精度の向上に役立つことが報告されている~\cite{Chan06}.事例$x$があるクラス$c$に所属するクラス所属確率$P$は,2値分類,多値分類のいずれにおいても$P(x\in{c}|x)$で表される\footnote{クラス所属確率$P$の別の定義として,$P(\overrightarrow{\rmX}_{i},X_{i}\in{C_{j}}|\overrightarrow{\rmV}_{j},T_{j},S,I)$で表される場合もある.ただし,$\overrightarrow{\rmX}_{i}$は事例$X_{i}$を記述する属性のベクトル,$C_{j}$はクラス$j$,$\overrightarrow{\rmV}_{j}$は確率密度関数を具体化するパラメータ集合,$T_{j}$は確率密度関数の数式,$S$は許容される確率密度関数$\overrightarrow{\rmV}_{j}$,$T$の空間,$I$は明確には表現されない暗黙の情報を表す~\cite{Cheeseman96}.}.このようなクラス所属確率の意味からは,1つの事例が複数のクラスに所属するマルチラベル分類の可能性があってもよく~\cite{erosheva05},またある事例の全クラスに対するクラス所属確率の推定値の総和が$1$である必要もない~\cite{Canters02}\footnote{さらに,Carreiras(2005)らにおいては,$n$個の分類器のバギングにより生成された分類器において,クラス所属確率の推定値として,それぞれのクラスごとに各分類器におけるクラス所属確率の推定値の平均をそのまま用いている~\cite{Carreiras05}.}.しかし,もし,シングルラベル分類で,全クラスに対するクラス所属確率の推定値を求めることができれば,その総和が$1$になるように正規化することが可能である.このようなクラス所属確率は「正規化されたクラス所属確率」とよばれ~\cite{Cheeseman96},事後確率と考えることができる.対象とする分類問題をシングルラベルとして扱う場合,本来は正規化されたクラス所属確率を用いる必要があると考えられる.しかし,本稿においては,事例が注目するクラスに所属するか否かという問題に対する関心により,それぞれのクラスを独立に扱うため,一部の実験を除き基本的には正規化されたクラス所属確率を用いない.実際には,今回の実験では,正規化を行わないクラス所属確率の推定値の総和の平均はほぼ1に等しく,また限定された実験の結果ではあるが\footnote{3.2.2節および4.2.2節において報告を行う.},本稿における提案手法に関しては,正規化を行わない場合は正規化された場合とほぼ同様かやや劣る結果であるため,本稿における結論は,正規化されたクラス所属確率を用いた場合には,さらなる説得性をもつと考えられる\footnote{この理由は,既存の方法に関しては,正規化を行う場合の方が正規化を行わない場合より結果が悪いためである.ただし,一般化するにはさらなる実験が必要である.}.クラス所属確率の推定は,分類器が出力するスコア(分類スコア)に基づいて行われる.非常に単純には,例えばナイーブベイズ分類器や決定木では分類スコアが$[0,1]$の値をとるために,分類スコアをそのまま用いることができる.また,サポートベクターマシン(SVM)のように分類スコアが$[0,1]$の値をとらない場合でも,最大値や最小値を利用して確率値に変換することは容易である\footnote{例えば分類スコアが$f$の場合,$(f-min)/(max-min)$~\cite{Mizil05}または$(f+max)/2*max$~\cite{Zadrozny02}により$[0,1]$の値に変換することが可能である.ここで,$max$,$min$はそれぞれ分類スコアの最大値,最小値を表す.}.しかし,このようにして得られた推定値は実際の値から乖離することが多い.この理由は,例えば,ナイーブベイズ分類器が出力する確率値は,0または1に近い極端な値をとることが多いために,この値をそのままクラス所属確率とすると不正確になるためである\footnote{Zadroznyらによれば,ナイーブベイズ分類器が出力する確率は,その大小関係を用いた事例のランキングをうまく行うことはできる.}~\cite{Zadrozny02}.また,決定木においては,少なくとも,ナイーブベイズ分類器の場合と同様の確率値の偏りおよび,リーフに関連する訓練事例数が少ない場合に分散が大きいという2つの問題\footnote{度数が少ないことによる信頼性の低さが原因である.}があるが,刈り込みによっても確率値の改善は期待できないため,クラス所属確率の推定値としては使えない~\cite{Zadrozny01b}.SVMにおいても,分類スコアとして用いられる分離平面からの距離が,事例がクラスに所属する程度に正確には比例しない~\cite{Zadrozny02}ために,単純な変換では正確な値を推定しにくい.したがって,クラス所属確率の正確な値を推定する方法についての研究が必要である.\begin{table}[b]\begin{center}\caption{ビニングによる方法において参照される正解率の例}\raisebox{1zw}[0pt][0pt]{(ナイーブベイズ分類器を利用しビンが3個の場合)}\par\label{bining1}\input{01table01.txt}\end{center}\end{table}これまでにいくつかの方法が提案されているが,代表的なものに,Plattの方法~\cite{Platt99}やZadroznyらにより提案された方法~\cite{Zadrozny01a,Zadrozny01b,Zadrozny02,Zadrozny05}がある.Plattの方法では,SVMにおける分離平面からの距離を分類スコアとし,この値をシグモイド関数を利用して$[0,1]$区間の値に変換してクラス所属確率値の推定値とする(図~\ref{Platt}における実線).例えば,訓練事例により図~\ref{Platt}の実線で表されるような変換式が得られている場合に,ある事例の分類スコアが1.5であれば,この事例のクラス所属確率は0.9であると計算される.しかし,Plattの方法では分類器やデータセットによってはうまく推定できない場合があるとして~\cite{Bennett00,Zadrozny01b},Zadroznyらは決定木やナイーブベイズ分類器に対していくつかの方法を提案した~\cite{Zadrozny01a,Zadrozny01b}.このうち,ナイーブベイズ分類器に適用した「ビニングによる方法」は注目に値する.ビニングによる方法は,訓練事例を分類スコアの順にソートして等サンプルごとに「ビン」にまとめ,各ビンごとに正解率を計算しておいたものをクラス所属確率として利用する(表~\ref{bining1}を参照のこと.表の上段の数値(斜体)は各ビンにおける分類スコアの範囲,下段の数値は各ビンの正解率を表す).すなわち,評価事例の分類スコアから該当するビンを参照し,そのビンの正解率を評価事例のクラス所属確率の推定値とする.例えば,訓練事例により表~\ref{bining1}が作成されている場合に,未知の事例の分類スコアが0.6であれば,この事例のクラス所属確率は0.46であると推定される.Zadroznyらは,ビニングによる方法には最適なビンの個数を決定するのが困難であるという問題があるとして,次にIsotonic回帰による方法を提案した~\cite{Zadrozny02}.Isotonic回帰による方法もビニングによる方法と同様に,訓練事例を分類スコアの順にソートすることが前提条件であるが,ビンとしてまとめずに事例ごとに確率(正解の場合1,不正解の場合0)を付ける点が異なる.確率値は初期値1または0で開始されるが,分類スコアと単調関係を保つようになるまで修正が繰り返され,最終的に定まった値を正解率とする(表~\ref{Isotonic1}を参照のこと.表の上段の数値(斜体)は各事例の分類スコア,下段の数値は各事例の正解率を表す).評価事例のクラス所属確率は,評価事例の分類スコアと等しい分類スコアをもつ事例の正解率を参照し,この値を推定値とする.例えば,訓練事例により表~\ref{Isotonic1}が作成されている場合に,未知の事例の分類スコアが0.8であれば,この事例のクラス所属確率は0.5であると推定される.\begin{table}[b]\begin{center}\caption{Isotonic回帰による方法において参照される正解率の例(SVMを利用し事例数が10の場合)}\label{Isotonic1}\input{01table02.txt}\end{center}\end{table}これまでに提案された方法\footnote{これらの方法についての詳しい解説はこの後2節で行う.}はいずれも2値分類を想定しているために,クラス所属確率の推定には推定したいクラスの分類スコアのみを用いる.したがって,文書分類でしばしば用いられる多値分類に対しても,分類スコアを単独に用いて推定する2値分類に分解する方法が検討された~\cite{Zadrozny02,Zadrozny05}.すなわち,多値分類をいったん2値分類の組に分解し,それぞれの組で2値分類として推定したクラス所属確率の値を最後に統合(調整)する.多値分類を2値分類に分解するには,all-pairs(one-versus-one)およびone-against-all(one-versus-rest)の2つの方法があるが,Zadroznyらは,分解する方法そのものに精度の違いがないことを実験により示した上で,実験においてはいずれの場合もone-against-allを用いた.各組の2値分類における推定値を統合する方法としては,one-against-allにより分解した各組(クラスの数と等しい)において推定した値の合計が1になるようにそれぞれの推定値を正規化する方法がよい結果を示したことを報告した\footnote{Zadroznyらが推定値を統合する方法として提案した他の方法については,2.3節で述べる.}~\cite{Zadrozny02}.また,Zadroznyらによる最新の統合方法はさらに単純で,one-against-allにより分解した2値分類の各組において推定したクラス所属確率をそのままそのクラスについての推定値とする\footnote{ただし,この推定は($\text{分類クラスの数}-{1}$)個に対して行い,残りの1クラスについては,これらの推定値を合計したものを1から引いた値を推定値とする.}~\cite{Zadrozny05}.多値分類についての推定方法についてはZadroznyらの研究以外になく,例えば,Caruanaらによるクラス所属確率の推定方法の比較~\cite{Mizil05}においても,2値分類を対象としており,多値分類に対しては,Zadroznyらの文献~\cite{Zadrozny02}の紹介にとどまっている.しかし,多値分類は2値分類の場合と異なり,予測されるクラスは分類スコアの絶対的な大きさではなく相対的な大きさにより決定されるために,クラス所属確率は推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられる.したがって,多値分類においては,推定したいクラス以外のクラスの分類スコアも用いることが有効であると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.本稿ではまた,複数の分類スコアを用いてクラス所属確率を推定する別の方法として,「正解率表」(表~\ref{accuracy_table1}を参照のこと.表の最左列と最上段の数値(斜体)はそれぞれ第1位と第2位に予測されたクラスに対する分類スコアの範囲,それ以外の数値は、第1位のクラスについての正解率を表す.)を利用する方法も提案する.正解率表を利用する方法とは,各分類スコアのなす空間を等区間(例えば0.5)に区切って「セル」\footnote{正解率表は多次元を想定するために,ビンではなくセルの語を用いることにする.}を作成し,各セルについて正解率を計算した表を用意して参照する方法である.例えば,「正解率表」を利用する方法において,訓練事例により表~\ref{accuracy_table1}が作成されている場合,未知の事例において第1位に予測されたクラスの分類スコアが0.8,第2位に予測されたクラスの分類スコアが$-0.6$であれば,この事例の第1位のクラスに対するクラス所属確率は0.67であると推定される.しかし,もし第2位に予測されたクラスの分類スコアが$-0.2$または0.3であれば,第1位のクラスについてのクラス所属確率の推定値は,それぞれ0.53または0.38のようにより小さな値になる.このように,提案手法は既存の方法と異なり,推定したいクラス所属確率に関連すると思われる別のクラス(例えば第2位のクラス)の分類スコアを直接利用することで,より正確な推定を行うことが可能になる.\begin{table}[b]\begin{center}\hangcaption{複数の分類スコアを用いた正解率表の例(SVMを利用し,第1位と第2位のクラスの分類スコアを用いた場合)}\label{accuracy_table1}\input{01table03.txt}\end{center}\end{table}以下,次節で関連研究について述べた後,3節では,まず第1位に予測されたクラスのクラス所属確率を複数の分類スコアを用いて推定する方法を提案し,実験を行う.4節では3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を提案し,実験を行う.最後にまとめと今後の課題について述べる.
\section{関連研究}
label{sec:kanren}ここでは,本稿の基礎として,クラス所属確率を推定する代表的な方法であるPlattの方法および,Zadroznyらにより提案されたビニングによる方法とIsotonic回帰による方法について述べる.これらはいずれも2値分類を想定しているが,Isotonic回帰による方法においては,2値分類を多値分類に対応させる方法についても述べる.最後に,Plattの方法とIsotonic回帰による方法について,多種類の分類器とデータセットによる実験を行って比較したCaruanaらによる研究~\cite{Caruana04,Mizil05}について述べる.\subsection{Plattの方法}Platt~\cite{Platt99}は,分類器をSVMに限定し,分類スコアを事例に対してクラスが予測された際の分離平面からの距離$f$として,シグモイド関数$P(f)=1/\{1+\exp(Af+B)\}$により[0,1]区間に変換される値$P(f)$をクラス所属確率の推定値として用いることを提案した.ただし,パラメータ$A$および$B$は,あらかじめ最尤法により推定しておく必要がある.シグモイド関数による方法の利点は,分類スコアから直接,クラス所属確率の推定値を求めることができるため,パラメータ$A$および$B$が推定されていれば,手続きが容易であることである.Plattは,シグモイド関数の過学習を避けるために,out-of-sampleモデルを用いて,Reuters~\cite{Joachims98}を含む5種類のデータセットを用いて実験を行い,この方法の有効性を示した.データセットがAdultの場合における結果を図\ref{Platt}~\cite{Platt99}に示す.図~\ref{Platt}において,$X$軸は分類スコア,$Y$軸はクラス所属確率を表し,$+$印は分類スコアを0.1の区間に分けた場合に対応するクラス所属確率の実測値,実線は推定値を表す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f1.eps}\caption{Plattの方法による推定値と実測値の例}\label{Platt}\end{center}\end{figure}しかし,Bennett~\cite{Bennett00}は,Plattの方法は分類器がナイーブベイズの場合にうまくいかないことをReuters21,578データセット\footnote{\texttt{http://www.daviddlewis.com/resources/testcollections/reuters21578/}}により示した\footnote{Bennett~\cite{Bennett00}の実験では,特に,出現頻度が少ないクラス(例えば$Corn$など)において信頼度曲線(3.2.1節を参照のこと)による評価が悪かった.}.また,Zadroznyら~\cite{Zadrozny02}も,この方法がデータセットによっては適合しない場合があることを示し\footnote{Zadroznyら~\cite{Zadrozny02}の実験では,AdultデータセットとTIC(TheInsuranceCompanyBenchmark)データセットにナイーブベイズ分類器を適用した場合は,スコアの変換がうまくいかなかった.},以下に述べる方法を提案した.\subsection{ビニングによる方法}Zadroznyらは,分類器としてナイーブベイズを想定し,ビニングによる方法(ヒストグラム法)を提案した~\cite{Zadrozny01a,Zadrozny01b}.ビニングによる方法は,未知の事例のクラス所属確率を直接推定せずに,あらかじめ作成しておいた「ビン」を参照し,そのビンにある正解率を用いて間接的に推定を行う方法である.ビニングによる方法における処理手順は次の通りである.まず,訓練事例を分類スコアの値順に並べ,各区間に属する事例数が等しくなるように区切ってビンを決める.このとき,各ビンに属する事例の分類スコアから,そのビンに所属する事例における分類スコアの最大値と最小値を調査しておく.ここまでの処理を図~\ref{bining}に示す.図~\ref{bining}はナイーブベイズ分類器の例で,数値(斜体)は分類スコアを表す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f2.eps}\caption{ビンの作成例(訓練事例数が12でビンの数が3個の場合)}\label{bining}\end{center}\end{figure}次に,各ビンごとに正解の事例を数えてそのビンに属す全事例数で割り,正解率を計算する(表~\ref{bining1}を参照のこと).最後に,未知の事例の分類スコアから該当するビンを見つけ,そのビンの正解率を未知の事例のクラス所属確率値とする.実験はKDD'98データセット\footnote{\texttt{http://kdd.ics.uci.edu/}}を用いて行われ,平均二乗誤差や平均対数損失による評価の結果,有効性が示された(ビンの数が10個の場合).ビニングによる方法は処理が単純であるという利点があるが,最適なビンの個数をどのようにして決めればよいか(各ビンに含まれる事例数をいくつにするか)という問題がある.なお,Zadroznyらは,この後に,誤分類に対するコストを考慮した方法として,ビニングによる方法を改良した「Probing」という方法を提案したが,実験の結果,有効性を示さない場合も多かった\footnote{決定木,バギングされた決定木,SVM,ナイーブベイズ,ロジスティック回帰において,UCImachinelearningrepositoryやUCIKDDarchive,2004KDDにおける計15種類のデータセットを用いて実験し,二乗誤差,クロスエントロピー,AUC(AreaundertheROCcurve)によりを評価を行った.}~\cite{Zadrozny05}.\subsection{Isotonic回帰による方法}Zadroznyらは,ビニングによる方法の問題点を解決する方法として,次には,分類スコアと正解率が単調非減少な関係にあるという観察に基づくIsotonic回帰による方法\footnote{Chanらは,語の曖昧性解消タスクにおけるEMアルゴリズムで,Isotonic回帰による方法を用いてクラス所属確率の推定を行った~\cite{Chan06}.}を提案した~\cite{Zadrozny02}.ここで,Isotonic回帰問題とは,実数の有限集合$Y=\{y_{1},y_{2},\cdots,y_{n}\}$が与えられたとき,制約条件$x_{1}\le\cdots\lex_{n}$の下で目的関数$\sum_{i=1}^{n}w_i(x_i-y_i)^{2}$を最小化する2次計画問題である~\cite{Kearsley96}.ただし,$w_i$は正値重みを表す.Isotonic回帰問題の解法としては,PAV(pool-adjacentviolatorsまたはpair-adjacentviolators)アルゴリズム(以下では,PAVと略す)が最も代表的であり~\cite{Kearsley96,Ahuja01,Mizil05,Fawcett06},Zadroznyらが提案したIsotonic回帰による方法もPAVが適用されている.ここで,PAVとは,単調非減少ではないブロックがある場合に,そのブロック内に存在する値のすべてをブロック内の値の平均値で置き換える処理を繰り返すことにより,全体の単調非減少性を保つ方法である.例えば,前述の目的関数において重みがすべて1のとき,\{1,3,2,4,5,7,6,8\}において,まず\{3,2\}のブロックが単調非減少ではないために,ブロック内のすべての値を平均値2.5で置き換えて\{1,2.5,2.5,4,5,7,6,8\}に修正する.次に,\{7,6\}のブロックが単調非減少ではないために,同様に平均値6.5で置き換えて\{1,2.5,2.5,4,5,6.5,6.5,8\}に修正する方法である~\cite{Kearsley96}.PAVを用いたIsotonic回帰による方法も,ビニングによる方法と同様に,最初に訓練事例を分類スコア順にソートする必要があるが,事例をまとめて扱わずに,各事例に対して正解率(正例の場合は1,負例の場合は0となる)を付ける点が異なる(図~\ref{Isotonic}における開始時点の表を参照のこと).正解率が分類スコアと単調非減少な関係になるまで正解率の修正を繰り返し,最終的に定まった値を正解率とする(図~\ref{Isotonic}における終了時点の表を参照のこと).図~\ref{Isotonic}では1回修正された値が再度修正されることはなかったが,値の並び方によっては再修正される可能性が高く,一般的には何度も修正が繰り返される場合が多い~\cite{Kearsley96,Ahuja01,Mizil05,Fawcett06}.\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f3.eps}\caption{Isotonic回帰による方法における正解率の修正例(SVMを利用し事例数が10の場合)}\label{Isotonic}\end{center}\end{figure}実験は,ナイーブベイズ分類器とSVMにおいてKDD'98データセットなどを用い,ビニングによる方法やシグモイド関数による方法と比較された(ビニングの数は5個から50個まで変えて行われた).平均二乗誤差による評価の結果,PAVによる方法はビニングによる方法を常に上回ったが,シグモイド関数による方法との差は少しであった.Zadroznyらは,次に,多値分類においては,分類器は各々の予測クラスに対して分類スコアを1つずつ出力すると仮定し,多値分類におけるPAVの効果を調査した.すなわち,2値分類においてPAVにより推定したクラス所属確率値を統合した場合と,PAVを用いずに推定した値を統合した場合との比較を行った~\cite{Zadrozny02}.Zadroznyらは,この実験の前に,あらかじめ,ナイーブベイズ分類器とブーステッドナイーブベイズにおいて20Newsgroupsデータセット\footnote{\texttt{http://people.csail.mit.edu/jrennie/20Newsgroups/}}などを用いた実験を行って,2値分類への分解法であるall-pairsとone-against-allの間で精度の差がないことを確認し,実験ではすべてone-against-allを用いた.2値分類における推定値を統合する方法としては,one-against-allに対応した正規化の方法の他に,どちらの分解方法にも対応可能な最小2乗法による方法や対数損失を最小化するカップリングの方法が用いられたが,正規化の方法が最もよい結果を示した.PAVの有効性については,まず,ナイーブベイズ分類器とブーステッドナイーブベイズによりデータセットPendigitを用いた実験の結果,分類器や統合する方法に関係なく,平均二乗誤差による評価では改善がみられたが,エラー率による評価ではほとんど改善されなかった.次に,ナイーブベイズ分類器によりデータセット20Newsgroupsを用いた実験結果も,多値分類への統合方法に関係なく,平均二乗誤差による評価では改善がみられたが,エラー率による評価ではほとんど改善されなかった.ここで,2値分類における推定値の3種類の統合方法を比較すると,ナイーブベイズ分類器による値をPAVにより修正した値を正規化する方法がよかったが(平均二乗誤差により評価した場合),他の分類器や評価法においては差がなかった.なお,Zadroznyらは,この後さらに提案したProbingとよばれるクラス所属確率の推定方法を多値分類へ拡張する場合には,ここで述べた統合方法を用いずに,one-against-allにより分解した各組において2値分類として推定した値をそのまま用いるという非常に単純な方法を示した~\cite{Zadrozny05}.ただし,この方法に対する評価実験は行っていない.\subsection{方法の比較}Caruanaら~\cite{Caruana04,Mizil05}は,アンサンブル学習を含めた10種類の分類器(SVM,ニューラルネット,決定木,k近傍法,baggedtrees,randomforests,boostedtrees,boostedstumps,ナイーブベイズ分類器,ロジスティック回帰)を,8種類のデータセット(UCIRepositoryから4種類,医療分野から2種類選んだデータセット,IndianPine92データセット~\cite{Gualtieri99},StanfordLinearAccelerator)に適用し,Plattの方法とIsotonic回帰による方法(PAV)の比較を行った.その結果,Plattの方法はデータが少ないとき(約1,000サンプル未満)に効果的であり,Isotonic回帰による方法は過学習しない程度に十分なデータがあるときによかった.Jonesら~\cite{Jones06}は,検索を成功させるために,ユーザが入力したクエリから新しくクエリを生成して置き換えるというタスクにおいて,置き換えられたクエリの正確さの程度を予測するために確信度スコアが必要であると考え,Isotonic回帰による方法(PAV)とシグモイド関数による方法についての簡単な比較実験を行った.その結果,Isotonic回帰による方法は過学習の問題があり,平均二乗誤差および対数損失のいずれにおいてもシグモイド関数による方法の方が上回ったため,彼らのタスクではシグモイド関数による方法が採用された.
\section{第1位のクラスについてのクラス所属確率推定}
本稿においても,Zadroznyらと同様に,多値分類においては,分類器は各々の予測クラスに対して分類スコアを1つずつ出力すると仮定する.例えば,$k$値分類の場合は分類スコアを$k$個出力するものとする.このとき,第1位に予測されるクラスはすべての分類スコアの中で最大の分類スコアをもつクラスで,分類スコアの絶対的な大きさではなく分類スコア間の相対的な大きさにより決定される.したがって,例えば第1位の分類スコアが大きな値であっても,第2位の分類スコアも同じ程度に大きな値の場合には第1位のクラスが不正解であったり,逆に,第1位の分類スコアがたとえ小さな値であっても,第2位の分類スコアがさらに小さな値の場合には第1位のクラスが正解であるケースも観察される.以上より,多値分類において第1位のクラスのクラス所属確率は,第1位のクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられるために,正確な推定値を得るためには,第1位のクラス以外の分類スコアも考慮に入れた複数の分類スコアを用いる必要があると思われる.ここで,既存のビニングによる方法やIsotonic回帰による方法は,いずれも前提条件として,事例を分類スコアの順にソートする必要があるために,複数の分類スコアを用いることが困難である.したがって,複数の分類スコアを扱える方法を検討する必要がある.本稿は,パラメトリックな方法としてPlattの方法を,またノンパラメトリックな方法としてZadorznyらのビニングによる方法をそれぞれ参考にしながら,複数の分類スコアを有効に用いる方法を検討する.その際,対象とするクラスを,クラス所属確率の必要性が最も高い第1位に予測されたクラスと,それ以外のクラス(第2位以下に予測されたクラス)の2つの場合に分けて検討することにする.以下では,まず,本節において,第1位の予測クラスについてクラス所属確率の推定方法を検討し,有効な方法を提案する.次に,4節で,本節において提案された推定方法を第2位以下の任意のクラスに対して拡張する方法を提案する.\subsection{提案手法}\label{method}本稿では,第1位のクラス所属確率を複数の分類スコアを用いて推定することを提案する.クラス所属確率を推定する方法としては,ロジスティック回帰により直接推定する方法と,正解率表を利用して間接推定する方法の2つを提案する.\subsubsection{ロジスティック回帰による方法}第1位のクラスから第$r$位のクラスまで$r$個の分類スコアを用いる場合,ロジスティック回帰による方法は(1)式により直接,クラス所属確率を推定する.用いる分類スコアの数に制限はない.\begin{equation}P_{Log}(f_{1},\cdots,f_{r})=\frac{1}{1+\exp(\sum_{i=1}^rA_{i}f_{i}+B)},\end{equation}ここで,$f_{i}$は第$i$位の分類スコアを表す.このとき,パラメータ$A_{i}$($\foralli$)および$B$は訓練事例を用い,最尤法によりあらかじめ推定しておく必要がある.ロジスティック回帰による方法の手順を次に示す.\vspace{0.5\baselineskip}\begin{description}\item[STEP1]ロジスティック回帰式におけるパラメータの推定\item[STEP2]クラス所属確率の推定\end{description}\vspace{0.5\baselineskip}\noindent{\bfSTEP1}\par全訓練事例を,パラメータを推定するための訓練事例と評価事例に分割し,各評価事例についての分類スコアと正解の状態(正解か不正解か)のペアデータから,パラメータ$A_{i}$と$B$の最尤推定を行う.このとき,訓練事例と評価事例の分割は交差検定による.\vspace{1\baselineskip}\par\noindent{\bfSTEP2}未知の事例に対するクラス所属確率の推定は,未知の事例において用いるクラスの分類スコア$f_{i}$をロジスティック回帰式((1)式)に代入し,クラス所属確率を直接推定する.\subsubsection{正解率表を利用する方法}本稿においては,正解率表とは,各分類スコアを軸として等区間に区切ってセルを作成し,各セルについて正解率(=セル内の正解事例数/セル内の全事例数)を計算した表をいう(表3参照のこと).正解率表は用いる分類スコアの数により次元が決まる.すなわち,$k$個の分類スコアを用いる場合には$k$次元の正解率表になる.例えば,分類スコアを1つしか利用しない場合は等幅の区切りをもつ線分,2個利用する場合は同様の長方形,3個利用する場合は同様の直方体となる.正解率表を利用する方法の手順を次に示す.\\\begin{description}\item[STEP1]正解率表のためのセルの作成と正解率の計算\item[STEP2]正解率の平滑化\item[STEP3]クラス所属確率の推定\end{description}\vspace{1\baselineskip}\noindent{\bfSTEP1}まず,正解率表を作成するためには,事例ごとに分類スコアと正誤状況のペアデータが必要である.これは,ロジスティック回帰による方法と全く同様に,全訓練事例を交差検定により,正解率表作成のための訓練事例と評価事例に分割して学習を行って得ることができる.次に,用いる分類スコアを軸とし,各軸とも等間隔(例えば,SVMの場合には0.1など)に区切ってセルを作成し,各セルごとに該当する事例をまとめて正解率を計算する.例えば,第1位のクラスと第2位のクラスの分類スコアの2つを用いて区間幅0.1とする場合,縦横ともに0.1間隔で区切られたセルをもつ長方形の正解率表となるが,訓練事例中の各評価事例における2つのクラスの分類スコアから,どのセルに属するかが決まる.すべての訓練事例の所属先セルが決定された時点で,各セルごとに所属する事例数と正解の事例数により正解率が計算できる.提案手法は,ビニングによる方法やIsotonic回帰による方法のように,事例を分類スコア順にソートしておく必要がないために,利用する分類スコアの数(次元)が複数であっても正解率表の作成を行うことが可能である.ただし,実際には,正解率表の次元が上がるに連れてセル数の爆発が起こるというノンパラメトリックな方法に特有の問題があるために,分類スコアの数を無制限に大きくすることはできない.また,訓練事例数に比較してセル数が多すぎる場合や,区間幅の決め方(セルの作り方)によっては,セルに含まれる事例数がゼロになる(ゼロ頻度問題)可能性があり,正解率が計算できないという問題もある.さらに,セルに属する事例数が等しくない可能性があるために,正解率における信頼性に違いが生じるという問題もある.ゼロ頻度問題や信頼性の問題については,STEP2で対応する.\vspace{1\baselineskip}\par\noindent{\bfSTEP2}正解率表の精度を高めるために,STEP1で計算された正解率に対して平滑化を行う.まず,ゼロ頻度問題に対応する手法とし,ラプラス法やリッドストーン法がある~\cite{Kita99_j}.分類スコア$f$が与えられたとき,ラプラス法$P_{Lap}(f)$およびリッドストーン法$P_{Lid}(f)$により平滑化された正解率は,次式により計算される:\begin{equation}P_{LapLid}(f)=\frac{N_{p}(c(f))+\delta}{N(c(f))+2\delta}.\end{equation}ただし,$c(f)$は平滑化を行うセル,$N(c(f))$は平滑化を行うセル中の訓練事例の数,$N_{p}(c(f))$は平滑化を行うセル中の正しく分類された訓練事例の数を表す.また,$\delta$は擬似的に加える数\footnote{本稿では,$\delta$の最適な値を実験により決定する.}であり,$\delta=1$の場合がラプラス法である.ここで,正解率表におけるセルの位置と正解率の関係を観察すると,各セルとも正解率は周囲のセルの正解率と値が類似しており,各軸ごとに分類スコアの変化に伴う正解率の状況は,ほぼ単調な関係がみられる.例えば,第1位の分類スコアは正解率と正の相関があり,第2位の分類スコアでは正解率と負の相関が観察される.したがって,平滑化を行うセルに対して,そのセルの周囲に位置するセルの情報も用いることが有効であると考えられる.このような平滑化を可能にする手法としては,移動平均法やメディアン法~\cite{Agui91_j}がある.分類スコア$f$が与えられたとき,移動平均法$P_{MA}(f)$およびメディアン法$P_{Median}(f)$により平滑化された正解率は,次式により計算される:\begin{align}P_{\mathit{MA}}(f)&=\frac{\frac{N_p(c(f))}{N(c(f))}+\sum_{s\inNb(c(f))}\frac{N_p(s)}{N(s)}}{n},\\P_{\mathit{Median}}(f)&=\mathit{median}_{s\inNb(c(f))}\Bigg(\frac{N_p(c(f))}{N(c(f))},\frac{N_p(s)}{N(s)}\Biggr).\end{align}ただし,$Nb(c(f))$は平滑化を行うセル$c(f)$の周囲に位置するセル,$n$は$|Nb(c(f))|+1$を表す.さらに,セルごとに正解率の信頼性が異なる問題を解決する方法としては,各セルのカバレッジを重み付けとして調整する方法が考えられる.移動平均法にカバレッジによる重み付けを行う方法$P_{MA\_cov}$により平滑化された正解率は,次式により計算される:\begin{equation}P_{\mathit{MA}\_cov}(f)=\frac{\frac{N_p(c(f))}{N(c(f))}C(c(f))+\sum_{s\inNb(c(f))}\frac{N_p(s)}{N(s)}C(s)}{C(c(f))+\sum_{s\inNb(c(f))}C(s)}.\end{equation}ただし,$C(c(f))$は各セルのカバレッジで,セル$c(f)$における事例数をすべての事例数で割った数を表す.周囲の情報も利用した平滑化手法においては,どこまでの範囲を周囲とするかという問題があるが,今回は,最も単純に,平滑化を行うセルに隣接するセルまでとする.例えば,分類スコアを1つ利用する場合には平滑化を行うセルを含めて計3個,分類スコアを2個利用する場合には,平滑化を行うセルを中心に斜めに位置するセルも含め計9個のセルを用いる\footnote{ただし,端や端の列(行)に位置するセルで用いられるセルは,この数より少ない.}.\\\\{\bfSTEP3}未知の事例に対するクラス所属確率の推定は,未知の事例において用いる分類スコアにより正解率表の中から該当するセルを見つけ,そのセルの正解率を推定値とする.\subsection{実験}実験の目的は,多値分類における第1位のクラスのクラス所属確率について有効な推定方法を調査し,複数の分類スコアを用いることが有効であることを示すこと(実験1),および実験1で最も有効であった方法の性能を評価すること(実験2)である.\subsubsection{実験設定}\noindent{\bf分類器}分類器はSVMを用いたが,提案手法の汎用性を調査するため,一部の実験についてはナイーブベイズ分類器も用いた.SVMを選択した理由は,SVMは文書分類においてきわめて高い分類性能を示す分類器として認識され~\cite{Joachims98,Dumais_et_al98,Taira00,Sebastiani02},適用される場合が多いために,分類器を特定しても有用性が高いと思われたためである.ただし,SVMは本来は2値分類器であるために,one-versus-rest法~\cite{kressel99}により多値分類器に拡張した\footnote{\texttt{http://chasen.org/\textasciitildetaku/software/TinySVM/}}.高橋ら(2005a)およびTakahashietal.(2005)にしたがって,SVMにおけるカーネル関数は線形カーネルを用いた.\vspace{1\baselineskip}\par\noindent{\bfデータセット}データセットは,日本語の調査データであるJGSSデータセット\pagebreakおよびZadroznyらの実験~\cite{Zadrozny02}において用いられた英文のネットニュース記事であるUseNetnewsarticles(20Newsgroups)データセットの2つを用いた.JGSSデータセットは,2000年から2003年までの4年間に毎年実施された調査により収集されたデータのうちの職業データ(サンプル数23,838)で,自由回答である「仕事の内容」「従業先事業の種類」の他に,選択回答である「従業上の地位」「役職」「従業先事業の規模」など複数の回答群から構成されている.すべての職業データに195個ある職業コードのいずれか1つのコードが付与されており\footnote{過去のデータには人手による職業コーディングが行われて職業コードが付与されている.},本稿ではこの職業コードを正解とした.例えば,次のような職業データには正解として職業コード「563」が付与されている.\vspace{0.5\baselineskip}\par\begin{tabular}{lll}「仕事の内容」&:&配車等を手配(自由回答)\\「従業先事業の種類」&:&荷物をつみおろす業務他(自由回答)\\「従業上の地位」&:&2常時雇用の一般従事者(選択肢)\\「役職」&:&1役職なし(選択肢)\\「従業先事業の規模」&:&8500〜999人(選択肢)\end{tabular}\vspace{0.5\baselineskip}JGSSデータセットにおいては,先に開発した自動コーディングシステム~\cite{Takahashi05a}の設定を踏襲し,「仕事の内容」と「従業先事業の種類」に出現する単語unigramおよび「従業上の地位」と「役職」を表す選択肢を素性として用いた.訓練事例と評価事例の分割は,実際の職業コーディングの状況に似せて,すでに正解が付けられた過去のデータを訓練事例とし,これからコーディングを行う予定のデータを評価事例とした.今回は,訓練事例として2000年から2002年までの3年間分のデータ(20,066サンプル),評価事例として2003年のデータ(3,772サンプル)に分割した.さらに,訓練事例は正解率表を作成するため,5分割交差検定により訓練事例と評価事例に分割した.すなわち,正解率表を作成するために,データを変えて訓練事例16,053サンプル,評価事例4,013サンプルに分割し,計5回の学習を行った.20Newsgroupsデータセット(サンプル数18,828)は,さまざまなUseNetのディスカッショングループに対応する20個のカテゴリのいずれかに分類されており,本稿ではこれを正解とした.用いた素性は,ネットニュース記事に出現する単語unigramで,JGSSデータセットにおける自由回答の場合と同様である.20Newsgroupsデータセットでは,訓練事例と評価事例の分割は5分割交差検定により行った.すなわち,データを変えて,例えば,訓練事例15,063サンプル,評価事例3,765サンプルとし,計5回の学習を行った.正解率表の作成は,JGSSデータセットの場合と全く同様に,全訓練事例を5分割交差検定により,訓練事例(例えば12,053サンプル)と評価事例(例えば3,013サンプル)に分割し計5回の学習を行った.\clearpage\noindent{\bfセルの区間幅}最適なセルの区間幅は自動的に決めることができないために,実験を行って決める必要がある.今回は,区間幅を0.05,0.1,0.2,0.3,0.5の5通りに設定した.このとき,1つの正解率表においては,どの次元の軸も同一の区間幅で区切った.第1位のクラスの分類スコア軸における区間幅とセルの数との関係は,表~\ref{cell_interval}に示す通りであった.\begin{table}[t]\begin{center}\caption{SVMにおけるセルの区間幅と個数の関係}\label{cell_interval}\input{01table04.txt}\end{center}\end{table}\vspace{1\baselineskip}\noindent{\bf評価尺度}実験1では,各手法の評価を行うために,Zadroznyら~\cite{Zadrozny05}にしたがい,次式で計算されるクロスエントロピーを用いた.\begin{equation}H(y,p)=\frac{1}{N}\sum_{i=1}^N\{-y_{i}\log(p_{i})-(1-y_{i})\log(1-p_{i})\},\end{equation}ただし,$N$は評価事例数,$p_{i}$は$i$番目の事例におけるクラス所属確率の推定値,$y_{i}$は$i$番目の事例における正誤状況で,正解の場合は$1$,不正解の場合は$0$を表す.クロスエントロピーの値が小さいほどよい手法であるとする.実験2では,提案手法の評価を行うために,Caruanaら~\cite{Caruana04,Mizil05}にしたがい,予測値がどの程度実測値と重なるかを表す信頼度曲線を用いた.予測値と実測値が重なる程度が高いほどよい手法であるとする.また,Zadroznyら~\cite{Zadrozny05}にしたがい,ROC(receiveroperatingcharacteristic)曲線に基づいて計算されるAUC(AreaUndertheCurve)を用いた評価も行った.AUCの値が大きいほどよい手法であるとする.提案手法の性能評価としては,誤分類検出能力により従来の検出手法との比較を行った.誤分類検出能力は,誤分類の事例を対象となる事例数のカバレッジが低い時点で多く検出できるほどよい手法であるとする.\subsubsection{実験1:有効な方法の調査}\noindent{\bfセルの作成法}実験1を行う前の予備実験として,正解率表におけるセルの作成法について,分類スコアを等間隔に区切る方法(提案手法)を各ビンの事例数を等しくする方法(Zadoroznyらによるビニングの方法)と比較し,提案手法の有効性を確認した.ここでは,Zadoroznyらによるビニングの方法との比較を可能にするために,提案手法においても用いる分類スコアを第1位のクラスに対するもののみとし,正解率の平滑化を行わない値を用いた.ここで,提案手法における定義域は$[-\infty,+\infty]$であるが,今回用いたデータセットにおける第1位のクラスの分類スコアの範囲は,分類器がSVMの場合,JGSSデータセットでは$[-0.99,5.48]$,20Newsgroupsデータセットでは$[-2.92,19.636]$であった.表~\ref{equal}は,2つの方法により作成されたセルからなる正解率表の有効性を,データセットや分類器を変えてクロスエントロピーにより比較した結果である.表中,等間隔は我々の提案する方法(セルの区間幅を等間隔にする方法),等事例はZadroznyらの提案する方法(セルに含まれる事例数を等しくする方法)を表す.表の値は,等間隔の方法では区間幅を0.1から0.5まで4通り,等事例の方法においても,この区間幅に対応させてセルの個数を30個から7個まで4通りに変化させた中のそれぞれ最もよかった場合の値である\footnote{セル個数30,16に対応するセルの区間幅はそれぞれ0.1,0.2である(表~\ref{cell_interval}参照のこと).}.太字の数字は,2つの方法のうちよい方の値を示す.\begin{table}[b]\begin{center}\caption{セルの作成法別クロスエントロピー}\label{equal}\input{01table05.txt}\end{center}\end{table}表~\ref{equal}において,セルを等間隔に区切る方法は,ナイーブベイズ分類器ではセルに含まれる事例を等しくする方法にやや劣るものの,SVMではどちらのデータセットでも大きく上回る結果を示した.この傾向は,最もよかった値同士の比較だけではなく,セルの区間幅(セルの個数)が異なっても全く同様であった.この理由としては,一般に,データを各区間の度数が等しくなるように分割する方法は各区間幅が等しくなるように分割する方法より推定効率が高いことが知られているが,一方で,密度関数推定の観点から大きなバイアスを引き起こす可能性があることが指摘されており~\cite{Kogure05},今回用いたデータセットの分類スコアの分布において,特にSVMを適用した場合にこのバイアス問題が生じたのではないかと考えられる.その結果,セルを等事例で区切る方法において作成された正解率表は,セルに属する事例の分類スコアと正解率の関係を適切に反映したものにならなかったのではないかと思われる.表~\ref{equal}より,「分類スコアを等間隔に区切ってセルを作成する方法」により正解率表を作成する方法が有効であることが確認できたため,以下の実験では,セルの作成は分類スコアを等間隔に区切る方法を用いた.なお,今回,等事例に区切る方法において最もよかったのは,セルの個数が12個または7個の場合であったが,Zadroznyらのビニングによる方法においてもビンの個数が10個の場合が最もよかったとの報告があり~\cite{Zadrozny02},第1位のクラスの分類スコアのみを用いる場合には,分類器やデータセットが異なっていても最適なセルの個数が類似していることは興味深い.\vspace{1\baselineskip}\par\noindent{\bfクロスエントロピーによる評価}表~\ref{loglikelihoodJGSS}は,SVMを適用しJGSSデータセットを用いた場合のクロスエントロピーの値を,用いた分類スコア別,クラス所属確率を推定する方法別にまとめたものである.表において,重み付け移動平均法はカバレッジを重みとする移動平均法を表す.リッドストーン法においては最もよい場合の値を示す.表の縦方向はセルの区間幅を0.05から0.5まで5通りに変化させたことを示しており,各区間幅の上段は利用した分類スコアが第1位のクラスのみの場合,下段は利用した分類スコアが第1位と第2位のクラスの場合の結果を示す.表中の記号「---」はクロスエントロピーが計算できなかったセルがあったことを示す\footnote{セル内の事例数が0であったり,正解の場合に確率値が0であった場合に生じた.}.また,太字の数字は,表中のすべての値の中で最もよい値であることを示す.\begin{table}[b]\begin{center}\hangcaption{用いた分類スコア別SVMにおけるクロスエントロピー(JGSSデータセット).正解率表を利用する方法(上)およびロジスティック回帰による方法(下)}\label{loglikelihoodJGSS}\input{01table06.txt}\end{center}\end{table}表では省略したが,正解率表を利用する方法において,第1位から第3位まで3つのクラスの分類スコアを用いた場合のクロスエントロピーは,いずれも第1位のクラスのみの場合よりははるかによく第1位と第2位のクラスの場合よりやや悪かった.なお,1節で述べた2種類の単純な変換~\cite{Mizil05,Zadrozny02}によるクロスエントロピーは,Nicllescu-Mizilらによる変換では1.4563であり,Zadroznyらによる変換では0.8332であった.同様に,SVMを適用し20Newsgroupsデータセットを用いた結果を表~\ref{loglikelihoodNS}に示す.表の形式や記号の意味などは表~\ref{loglikelihoodJGSS}と同様である.ここでも,正解率表を利用する方法においては,第1位から第3位まで3つのクラスの分類スコアを用いた場合のクロスエントロピーはJGSSデータセットを用いた場合と全く同様で,いずれも第1位のクラスのみの場合よりははるかによく,第1位と第2位のクラスの場合よりやや悪かった.なお,1節で述べた単純な変換によるクロスエントロピーは,Nicllescu-Mizilらによる変換では計算できず,Zadroznyらによる変換では0.9199であった.\begin{table}[b]\begin{center}\hangcaption{用いた分類スコア別SVMにおけるクロスエントロピー(20Newsgroupsデータセット).正解率表を利用する方法(上)およびロジスティック回帰による方法(下)}\label{loglikelihoodNS}\input{01table07.txt}\end{center}\end{table}表~\ref{loglikelihoodJGSS}および表~\ref{loglikelihoodNS}より,次のことが明らかになった.まず,SVMを適用した場合は,クラス所属確率を推定する方法やデータセットに関係なく,第1位のクラスの分類スコアのみ用いるより他のクラスの分類スコアも含めた複数の分類スコアを用いることが有効であった.分類スコアの有効な組み合わせ方については,ロジスティック回帰による方法と正解率表を利用する方法で異なっており,ロジスティック回帰による方法は,第1位のクラスから第3位のクラスまで3つの分類スコアを用いた場合,正解率表を利用する方法は,第1位のクラスと第2位のクラスの2つの分類スコアを用いた場合が最もよかった.ただし,いずれの方法においても,分類スコアの組み合わせ方の違いによる差は小さかった.次に,ロジスティック回帰による方法も含めてすべての場合の中で最もよい結果を示したのは,最適な正解率表を利用した場合,すなわち「第1位と第2位のクラスの分類スコアを用いてカバレッジを重みとする移動平均法による平滑化を行った正解率表を利用する方法」(セルの区間幅0.1)であった.ただし,正解率表を利用する方法は,セルの区間幅の決め方により結果に大きな差があった.特にセルの区間幅を非常に小さく(0.05)設定した場合は,複数の分類スコアを用いることは有効ではなかった.この理由は,セルの個数が増えることにより各セルごとに含まれる事例数が少なくなり,場合によっては事例が存在しないセルが出現したために,正解率における信頼性が低くなったことが原因であると考えられる.正解率表を利用する方法においてはロジスティック回帰による方法と異なり,分類スコアを3つ用いた方が2つ用いた場合より結果が悪かった理由も,同様であると考えられる.今回は,最適なセルの区間幅は,どちらのデータセットにおいても0.1であった.これに対して,ロジスティック回帰による方法は,どちらのデータセットにおいても安定してよい結果を示した\footnote{なお,第2位以下のクラスについて,注目するクラスのスコアのみを用いて推定した場合における全クラスの総和は,平均1.0035,標準偏差0.1625であり,4.2.2節で提案するように注目するクラスと第1位のクラスのスコアを用いて推定した場合における全クラスの総和は,平均0.9998,標準偏差0.0478であった.これらの値から,正規化されたクラス所属確率を計算して用いた場合のクロスエントロピーは,第1位のスコアしか用いない場合は0.4449で表~\ref{loglikelihoodNS}におけるすべてのケースの中で最も悪く,第1位\&第2位のスコアを用いた場合は0.3634で正規化しない場合よりややよかった.一方,JGSSデータセットの場合は,クラスの総数が約200個と多いため第20位までのクラスに対する推定値の総和の計算を試みた.その結果,注目するクラスのスコアのみを用いた場合は,平均0.9217,標準偏差0.2711で,注目するクラスと第1位のクラスのスコアを用いた場合の総和は,平均0.9039,標準偏差0.1141であった.}.さらに,正解率表における平滑化の手法は,いずれもデータセットに関係なく有効であった.特に,平滑化を行うセルの周囲にあるセルの情報も利用する方法である(カバレッジを重みとする)移動平均法は,セルの区間幅が適切であった場合によい結果を示した.注目するセルの情報のみで平滑化を行うラプラス法やリッドストーン法は,クロスエントロピーにおいては大きな効果はなかったが,ゼロ頻度問題に対応できる点で評価できる.ここで,正解率表を利用する方法における結論をより一般化させるために,分類器をナイーブベイズ分類器に変え,20Newsgroupsデータセットによる実験を行った\footnote{ただし,正解率の信頼性が低下することが明らかな場合,すなわち分類スコアを第3位のクラスまで用いた場合やセルの個数が60個の場合についての実験は行わなかった.また,表~\ref{loglikelihoodJGSS}および表~\ref{loglikelihoodNS}に示すように,周囲の情報を用いない平滑化手法の2つの手法は違いがみられなかったため,ラプラス法のみを用いた.}.結果は表~\ref{loglikelihoodNS_NB}に示すように,SVMの場合と同様に,第1位のクラスの分類スコアのみを用いた場合より,第2位のクラスまで2つの分類スコアを用いた場合の方がよかった.また,平滑化手法は有効で,特にセルの区間幅が適切な場合に移動平均法はよい結果を示した.ナイーブベイズ分類器において最もよかったのはセルの個数が30個の場合であり,これはSVMにおいて最もよかったセルの区間幅0.1の場合に該当する.\begin{table}[t]\begin{center}\hangcaption{用いた分類スコア別ナイーブベイズ分類器におけるクロスエントロピー(20Newsgroupsデータセット)}\label{loglikelihoodNS_NB}\input{01table08.txt}\end{center}\end{table}以上より,多値分類における第1位のクラスのクラス所属確率の推定は,複数の分類スコアを用いることが有効であった.特に,最適な正解率表である「第1位と第2位のクラスの分類スコアを用いて(カバレッジによる重み付き)移動平均法による平滑化を行い,セルの区間幅を0.1(セルの個数30個)に設定した正解率表」を利用する方法は最も有効であった.ただし,正解率表を利用する方法は設定されたセルの区間幅により結果が不安定であるという問題があったのに対して,ロジスティック回帰による方法は安定してよい結果を示した.また,今回は,正解率表を利用する方法における最適な正解率表がデータセットや分類器に関係なく一致したが,この結果をさらに一般化するには,データセットや分類器をより多様なものに変えた実験を行って確認する必要がある.したがって,現時点では,正解率表を利用する方法は,データセットや分類器が異なる場合に最適な正解率表を決定するための実験を行う必要があり,手間がかかるという欠点があるといえる\footnote{今回は,$\delta$を最適にしたリッドストーン法のラプラス法に対する優位性が認められなかったが,この点についても一般化するためにはさらなる実験が必要である.}.\subsubsection{実験2:提案手法の評価}ここでは,SVMを適用して,実験1において最適であった方法(以後,提案手法とよぶ)の評価を行った.\\\\\noindent{\bf信頼度曲線およびROC曲線}信頼度曲線は,予測値(推定値)($X$軸)と実際の値($Y$軸)の関係をプロットしたもので,予測値と実際の値が等しい場合には対角線上にプロットされ,対角線から離れるほど予測の精度が悪いことを示す.ここでは,提案手法を,分類スコアを1つ用いた方法のうち,平滑化を行わない正解率表を利用する方法(以後,平滑化を行わない方法とよぶ)およびシグモイド関数による方法と比較した.このとき,平滑化を行わない方法は,等事例ではなく等間隔に区切ったビニングによる方法であると考えることができ,シグモイド関数による方法はPlattの方法を簡略化したものであると考えられる.今回は,予測値を0.1ずつ区切り10区間を作成し,予測値と真の値としていずれも区間内(例えば,$[0,0.1]$)に含まれる事例の平均を用いた.JGSSデータセットによる結果を図~\ref{reliability_JGSS}に,20Newsgroupsデータセットによる結果を図~\ref{reliability_20ng}に示す.図~\ref{reliability_JGSS}および図~\ref{reliability_20ng}において,提案手法はどちらのデータセットにおいても対角線の近くにプロットされており,クラス所属確率を全体的にうまく推定することがわかった.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f4.eps}\hangcaption{JGSSデータセットにおける信頼度曲線.左から順に提案手法,平滑化を行わない方法,シグモイド関数による方法の結果を示す.}\label{reliability_JGSS}\end{center}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f5.eps}\hangcaption{20Newsgroupsデータセットにおける信頼度曲線.左から順に提案手法,平滑化を行わない方法,シグモイド関数による方法の結果を示す.}\label{reliability_20ng}\end{center}\end{figure}ROC曲線は,$X$軸がFPF(FalsePositiveFraction;偽陽性率),$Y$軸がTPF(TruePositiveFraction;真陽性率)を表す座標上に,正解率の程度により分類された各グループごとのFPFとTPFの値をプロットしたものである.ここで,FPF=注目するグループ内の不正解事例数/全不正解事例数,TPF=注目するグループ内の正解事例数/全正解事例数である.今回は,正解率を10点刻みに分類してFPFとTPFの値を求めた.すなわち,最上位のグループ(正解率が91\%〜100\%の範囲にある事例)から始めて,上限を固定し下限を10\%ずつ下げたグループ(例えば2番目のグループは,正解率の範囲が81\%〜100\%である事例の集合)を計10個作成し,各グループにおけるFPFとTPFを計算した.ROC曲線においては,ROC曲線が左上方に位置するほど正確な推定が行われていることを示すが,より正確には,ROC曲線の下方にある領域であるAUC(AreaUndertheCurve)を計算し,その値が大きいほどよい手法であるとされる.図~\ref{ROC_JGSS_20ns}に,JGSSデータセットおよび20Newsgroupsデータセットによる提案手法,平滑化を行わない方法,シグモイド関数による方法におけるROC曲線を示す.また,3つの手法におけるAUCの値を表~\ref{AUC_rank1}に示す.図~\ref{ROC_JGSS_20ns}および表~\ref{AUC_rank1}より明らかなように,提案手法はいずれのデータセットにおいても他の2つの方法より正確な推定を行えることがわかった.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f6.eps}\hangcaption{クラス所属確率の推定方法別ROC曲線(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{ROC_JGSS_20ns}\end{center}\end{figure}\begin{table}[b]\begin{center}\caption{クラス所属確率の推定方法別AUC(AreaUndertheCurve)}\label{AUC_rank1}\input{01table09.txt}\end{center}\end{table}\vspace{1\baselineskip}\noindent{\bf誤分類検出能力}事例をクラス所属確率の推定値の小さい順に並べたとき,カバレッジの値が小さいときにできるだけ多くの誤分類事例が検出されることが望ましい.カバレッジをこのように考えた場合に,各カバレッジごとにどのくらい誤分類された事例を検出できるかを,本稿では誤分類検出能力とよぶ.提案手法の誤分類検出能力を,JGSSデータセットおよび20Newsgroupsデータセットを用いて評価した.評価の方法は,提案手法によるクラス所属確率の推定値を値の小さい順に事例を並べ,カバレッジを10\%ずつ増やしてできた区間ごとに,誤分類された事例数を調査した.比較のため,既存の手法であるSchohnにより提案された単純な方法~\cite{Schohn00}による結果も示した.単純な方法では,分類スコアの値の小さい順に並べ,同様にカバレッジを10\%ずつ増やしてできた区間ごとに,誤分類された事例数を調査した.それぞれのデータセットによる結果を図~\ref{Lap-RawJGSS_ns}に示す.図~\ref{Lap-RawJGSS_ns}において,提案手法はどちらのデータセットにおいても常に単純な方法を上回った.特に,20Newsgroupsデータセットにおいては,カバレッジが小さい場合に大きく上回る点が評価できる.その理由は,我々が実際に人手により分類誤りを検出する必要がある場合,チェックをするデータセットの量はできる限り少量の方が作業が楽であるからである.JGSSデータセットでは,全体の40\%をチェックすれば誤分類事例の80\%を検出することができるが,20Newsgroupsデータセットで同じ量をチェックすると,誤分類事例の90\%を検出できる.両者のデータセットにおける傾向の違いを説明する理由は明確ではないが,JGSSデータセットには非常に短く有効な素性が少ししか含まれない事例が多いため,正確な推定を行うために十分な情報がないことが原因であると考えられる\footnote{表~\ref{equal},表~\ref{loglikelihoodJGSS},表~\ref{loglikelihoodNS}におけるクロスエントロピーの値からも,JGSSデータセットの方が推定が困難なタスクであることが予想される.}.\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f7.eps}\hangcaption{SVMにおける提案手法の誤分類検出能力(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{Lap-RawJGSS_ns}\end{center}\end{figure}以上をまとめると,多値分類において第1位に予測されたクラスのクラス所属確率の推定は,複数の分類スコアを用いることが有効であることがわかった.特に,第1位と第2位に予測されたクラスの分類スコアを用いて作成した最適な正解率表を利用する方法が最もよい結果を示した.ここで,最適な正解率表とは,セルの区間幅を0.1(セルの個数が30)として作成した正解率表を(カバレッジによる重み付き)移動平均法による平滑化を行ったものである.ただし,正解率表を利用する方法は正解率表の作成法により結果が不安定であるという欠点があった.この点において,ロジスティック回帰による方法は安定してよい結果を示した.また,ロジスティック回帰による方法は,最適な正解率表を見つけるために実験を重ねる手間が不要であるという利点もある.
\section{第2位以下の任意のクラスについてのクラス所属確率推定}
3節で,多値分類における第1位の予測クラスについてのクラス所属確率は,複数の分類スコアを用いた推定が有効であることが明らかになった.本節では,3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を検討する.この場合,どのクラスの分類スコアを組み合わせることが有効であるかを検討することが重要である.\subsection{提案手法}本稿では,多値分類における第2位以下の任意のクラスについてのクラス所属確率を高精度に推定するために,推定したいクラス(第$k$位のクラス)と第1位のクラスの分類スコアを用いてロジスティック回帰により推定する方法を提案する.すなわち,次式\footnote{3節で示した(1)式を第1位と第$k$位のクラスのみ用いるように修正したものである.}によりクラス所属確率の推定を行うことを提案する.\begin{equation}P_{Log}(f_{1},f_{k})=\frac{1}{1+\exp(A_{1}f_{1}+A_{k}f_{k}+B)}.\end{equation}ここで,$f_{k}$は第$k$位の分類スコアを表す.このとき,パラメータ$A_{1}$,$A_{k}$および$B$は訓練事例を用い,最尤法によりあらかじめ推定しておく必要がある.ここで,推定したいクラスの他に用いるクラスとして第1位のクラスを選択した理由は,3節でも述べたように,多値分類においては,第1位のクラスの分類スコアが最も大きく,どのクラスの分類スコアも第1位のクラスの分類スコアの値以上にはならないため,推定したいクラスの分類スコアの値を第1位のクラスの分類スコアとの相対的な関係で捉えることが有効であると考えたためである.これを実現するための方法はいくつか存在するが\footnote{例えば,2つのスコア間の差や相関係数などが考えられる.},ここでは,3節と同様に最も単純に第1位のクラスの分類スコアをそのまま用いることにした.また,クラス所属確率の推定方法については,第2位以下のクラスにおいては,第1位のクラスよりも分類スコアの傾向をさらに把握しにくくなるために,最適な正解率表を作成することが困難であると考えられる.したがって,第1位のクラスの場合において安定した結果を示したロジスティック回帰による方法の方が有効であると考えた.この2つの仮定を以下の実験により確認する.\subsection{実験}実験の目的は,多値分類における第2位以下の任意のクラスのクラス所属確率の推定に用いる分類スコアは,提案手法による組み合わせ方が最も有効であることを示すこと(実験1),および第2位以下のクラスにおいては,ロジスティック回帰による方法が正解率表を利用する方法より有効であることを示すこと(実験2)である.実験設定は3節と同様で,分類器はSVMを適用した.実験1では第2位から第20位までのクラス\footnote{JGSSデータセットにおいては10\%,20Newsgroupsデータセットにおいてはすべてのクラスをカバーする.},実験2では第2位から第5位までのクラスについて調査した.\subsubsection{実験1:分類スコアの有効な組み合わせ方}\noindent{\bf分類スコアの候補}実験1を行う前の予備実験として,推定したいクラスのクラス所属確率と関連の深いクラスを発見するために,第2位以下のすべてのクラスについて,注目するクラスの正誤状況(正解の場合1,不正解の場合0)と全クラスの分類スコアとの相関関係を調査した.これは,注目するクラスの正誤状況と相関係数の絶対値が大きい分類スコアのクラスほど注目するクラスとの関連が強いと仮定したためである.したがって,相関係数の絶対値の大きな分類スコアが多い順位のクラスを候補として用いることを検討した.JGSSデータセットと20Newsgroupsデータセットを用いて第2位から第20位のクラスにおいて,各クラスごとに関連の強かったクラスを表~\ref{correlation}にまとめる.表~\ref{correlation}より,注目するクラス(推定したいクラス)自身より第1位のクラスの方が多かったため,用いるクラスの候補として第1位のクラスを候補とした.また,注目するクラスの直前や直後のクラスも候補とした.\begin{table}[b]\begin{center}\caption{注目するクラスの正誤状況と関連の強いクラス}\label{correlation}\input{01table10.txt}\end{center}\end{table}次に,これらの3つのクラスの分類スコアを推定したいクラスとそれぞれ単純に組み合わせた場合におけるクロスエントロピーを,JGSSデータセットと20newsgroupsデータセットを用いて調査した.その結果,どちらのデータセットにおいても,第1位のクラスの分類スコアを組み合わせた場合以外は有効性が認められなかったため,実験1では,複数の分類スコアとして次の3つの組み合わせ方を考え,「推定したいクラスの分類スコアのみを用いる」場合と比較を行った(()内は用いる分類スコアの数を表す).このとき,分類スコアを3個以上用いた場合のクラス所属確率の推定には,3節で述べた(1)式を適宜修正した式を用いた.\begin{itemize}\item[提案手法]「推定したいクラスと第1位のクラスの分類スコア」(2個)\item「第1位のクラスから推定したいクラス(第$k$位のクラス)までのすべてのクラスの分類スコア」($k$個)\item「推定したいクラスとその直前および直後のクラスの分類スコア」(3個)\end{itemize}\vspace{1\baselineskip}\noindent{\bf提案手法の有効性}図~\ref{rank2-12_JGSS_20ns}は,JGSSデータセットと20Newsgroupsデータセットにより,用いた分類スコアの組み合わせを変えた場合のクロスエントロピーを,推定したいクラスの順位別($X$軸)に示したものである.ただし,どちらのデータセットにおいても,13位以下のクラスにおいては12位と同様の傾向であったために省略した.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f8.eps}\caption{分類スコアの組み合わせ方別クロスエントロピー}\label{rank2-12_JGSS_20ns}\end{center}\end{figure}図~\ref{rank2-12_JGSS_20ns}から明らかなように,どちらのデータセットにおいても,推定したいクラスが上位の場合には,推定したいクラスの分類スコアのみを用いるより,クラスの組み合わせ方に関係なく複数の分類スコアを用いた方がよかった.特に提案手法である「推定したいクラスと第1位のクラスの分類スコア」を用いた場合は,どの順位においても最もよかった.ただし,推定したいクラスの順位が下がるにつれて,どの方法もクロスエントロピーの値が小さくなり,方法間の違いの差がみられなくなった.この理由は,クラスの順位が下がるにつれてどの方法であってもクラス所属確率の推定値が小さくなり,また予測されたクラスも不正解である場合が多くなるために\footnote{例えば,JGSSデータセットにおいて第2位から第5位に予測されたクラスの正解率は,それぞれ7.7\%,2.2\%,0.9\%,0.6\%であり,20newsgroupsデータセットにおいてはそれぞれ6.4\%,2.3\%,1.2\%,0.8\%であった.},クロスエントロピーも小さくなったためだと考えられる.次に,提案手法を含めた4つの方法におけるROC曲線を,第2位のクラスと第3位のクラスに注目した場合についてそれぞれ図~\ref{ROC2}および図~\ref{ROC3}に示す\footnote{第4位以下のクラスについては,いずれのデータセットにおいても第3位の場合と同様の傾向であったために省略した.}.ただし,第2位のクラスにおいては,「第1位から推定したいクラスまでのすべてのクラスの分類スコアを用いる方法」は提案手法と同じ方法であるために,図~\ref{ROC2}では省略した.また,図~9,図~10におけるAUCを表~\ref{AUC_rank23}に示す.表中,太字の数字は,各ケースにおいて最もよい値であることを示す.図~\ref{ROC2},図~\ref{ROC3},表~\ref{AUC_rank23}より,注目するクラスやデータセットが異なっても,複数の分類スコアを用いる方法は,注目するクラスの分類スコアだけを用いる方法よりよかった.AUCによる評価において最もよかった方法は,JGSSデータセットの場合は提案手法であり,20Newsgroupsデータセットの場合は,注目するクラスと直前および直後のクラスの分類スコアを用いる方法(第2位のクラスの場合)や,第1位から推定したいクラスまでのすべてのクラスの分類スコアを用いる方法(第3位のクラスの場合)であった.ただし,提案手法は20Newsgroupsデータセットの場合も安定してよかった.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f9.eps}\hangcaption{第2位のクラスについての分類スコアの組み合わせ方別ROC曲線(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{ROC2}\end{center}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f10.eps}\hangcaption{第3位のクラスについての分類スコアの組み合わせ方別ROC曲線(JGSSデータセット(左)および20Newsgroupsデータセット(右))}\label{ROC3}\end{center}\end{figure}以上より,第2位以下の任意のクラスについてのクラス所属確率を推定する場合も,複数の分類スコアを用いることは有効であり,特に推定したいクラスと第1位のクラスの分類スコアを用いる方法は有効であることが示された.最後に,ロジスティック回帰式におけるパラメータを最尤推定するために用いる訓練事例数を変化させたときのクロスエントロピーを調査した.図~\ref{JGSS_train_size}は,JGSSデータセットにより,推定したいクラスの分類スコアのみ用いる方法と提案手法を比較したものである.$X$軸は訓練事例数を表しており,右端はこれまでの実験において訓練事例として用いられてきた20,066サンプルの場合,左端は1,000サンプルにまで減らした場合を表す.図~\ref{JGSS_train_size}より,まず,訓練事例の数に関係なく提案手法が有効であることがわかった.また,訓練事例が1,000サンプルと比較的少ない場合でも,ロジスティック回帰による方法は安定してよい結果を示すこともわかった.\begin{table}[t]\begin{center}\caption{分類スコアを利用したクラス別AUC}\label{AUC_rank23}\input{01table11.txt}\end{center}\end{table}\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f11.eps}\hangcaption{パラメータ推定に用いる訓練事例数の変化によるクロスエントロピー(ロジスティック回帰による方法)}\label{JGSS_train_size}\end{center}\end{figure}\subsubsection{実験2:ロジスティック回帰による方法の有効性}ここでは,提案手法による分類スコアの組み合わせにおいて,ロジスティック回帰による方法を最適な正解率表を利用する方法と比較した.このとき,最適な正解率表としては次の2つを検討した.1つは第1位のクラスについて推定する場合に最も有効であった正解率表(セルの区間幅を0.1に設定)で,推定したいクラスごとに新たな正解率表を作成する手間を省略する目的で用いた.もう1つは,第2位以下の各クラスにおける分類スコアのとる値の状況に合わせて,セルの区間幅を適宜(例えば0.2など)変えたもので,「正解率表(改良版)」とよぶことにする.いずれの正解率表も,3節で最も有効であった平滑化手法すなわちカバレッジを重みとする移動平均法による平滑化を行った.\begin{figure}[b]\begin{center}\includegraphics{15-2ia1f12.eps}\caption{クラス所属確率の推定方法別クロスエントロピー}\label{JGSS_20ns_seikai_hikaku}\end{center}\end{figure}図~\ref{JGSS_20ns_seikai_hikaku}に,ロジスティック回帰による方法と正解率表を利用する方法におけるクロスエントロピーを示す.図~\ref{JGSS_20ns_seikai_hikaku}より,注目するクラスが第2位から第5位までの場合の平均において,ロジスティック回帰による方法が最も有効であることが示された\footnote{なお,20Newsgroupsデータセットを用いた場合,ロジスティック回帰による方法において正規化されたクラス所属確率を用いた場合の第2位から第5位までのクロスエントロピーとその平均はそれぞれ0.2386,0.1246,0.0694,0.0483,0.1202で,正規化しない場合の値(0.2450,0.1161,0.0697,0.0556,0.1216)とほぼ同様であった.}.正解率表(改良版)を利用する方法は,JGSSデータセットにおいて第2位のクラスに注目する場合や,20Newsgroupsデータセットにおいて第3位のクラスに注目する場合のみ,ロジスティック回帰による方法よりわずかによい結果であったが,注目するクラスに対して毎回,最適な正解率表を作成する手間がかかるという欠点がある.3つの方法におけるROC曲線の例として,JGSSデータセットを用いて第2位のクラスに注目する場合を図~\ref{ROC_JGSS_seikai_hikaku}に示す.このとき,3つの方法におけるAUCは,それぞれロジスティック回帰による方法(0.7443),第1位のクラスに対する最適な正解率表を利用する方法(0.7260),正解率表(改良版)を利用する方法(0.7449)で,JGSSデータセットにおいて第2位のクラスを推定する場合に限り,正解率表(改良版)を利用する方法がロジスティック回帰による方法をやや上回った.\begin{figure}[t]\begin{center}\includegraphics{15-2ia1f13.eps}\caption{クラス所属確率の推定方法別ROC曲線(JGSSデータセットにおける第2位のクラス)}\label{ROC_JGSS_seikai_hikaku}\end{center}\end{figure}今回,第6位以下のクラスについては比較実験を行っていないが,先に述べたように,下位のクラスになるにしたがって最適な正解率表の作成は困難になることが予想されるため,第6位以下のクラスにおいてもロジスティック回帰による方法が有効であると考えられる.以上より,第2位以下の任意のクラスにおいても,ロジスティック回帰による方法の方が正解率表を利用する方法より有効であると判断できた.
\section{結論}
本稿では,文書分類で適用されることの多い多値分類における任意のクラスのクラス所属確率を,複数の分類スコアを用いて高精度に推定する方法を提案した.提案手法は,複数個の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いてロジスティック回帰によりクラス所属確率を推定する.ここで,第1位のクラスについては,第1位と第2位のクラスの分類スコアのなす空間を等間隔(0.1)に区切って作成した各セルにおいて正解率を計算し,カバレッジを重みとする移動平均法により平滑化を行った正解率表を参照する方法も有効であった.提案手法は,SVMを適用し,性質の異なる2種類のデータセット(社会調査データである日本語自由回答や英文の自由投稿ネットニュース記事)を用いて実験した結果,どちらのデータセットにおいても有効性を示した.また,誤分類の検出において,従来の方法を上回った.今後の課題は,提案手法の有効性を理論的に裏付けることが必要であると考えられる.\acknowledgment日本版GeneralSocialSurveys(JGSS)は,大阪商業大学比較地域研究所が,文部科学省から学術フロンティア推進拠点としての指定を受けて(1999--2003年度),東京大学社会科学研究所と共同で実施している研究プロジェクトである(研究代表:谷岡一郎・仁田道夫,代表幹事:佐藤博樹・岩井紀子,事務局長:大澤美苗).データの入手先は,東京大学社会科学研究所附属日本社会研究情報センターSSJデータ・アーカイブである.本稿に対して貴重なコメントを下さいました査読者の皆さまに深く感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ahuja\BBA\Orlin}{Ahuja\BBA\Orlin}{2001}]{Ahuja01}Ahuja,R.~K.\BBACOMMA\\BBA\Orlin,J.~B.\BBOP2001\BBCP.\newblock\BBOQAFastScalingAlgorithmforMinimizingSeparableConvexFunctionsSubjecttoChainConstraints\BBCQ\\newblock{\BemOperationsResearch},{\Bbf49},\mbox{\BPGS\784--789}.\bibitem[\protect\BCAY{Bennett}{Bennett}{2000}]{Bennett00}Bennett,P.~N.\BBOP2000\BBCP.\newblock\BBOQAssessingtheCalibrationofNaiveBayes'PosteriorEstimates{CMU}-{CS}-00-155\BBCQ\\newblock\BTR,SchoolofComputerScience,CarnegieMellonUniversity.\bibitem[\protect\BCAY{Canters,Genst,\BBA\Dufourmont}{Canterset~al.}{2002}]{Canters02}Canters,F.,Genst,W.~D.,\BBA\Dufourmont,H.\BBOP2002\BBCP.\newblock\BBOQAssessingeffectsofinputuncertaintyinstructurallandscapeclassification\BBCQ\\newblock{\BemInternational{J}ournalof{G}eographical{I}nformation{S}cience},{\Bbf16}(2),\mbox{\BPGS\129--149}.\bibitem[\protect\BCAY{Carreiras,Pereira,Campagnolo,\BBA\Shimabukuro}{Carreiraset~al.}{2005}]{Carreiras05}Carreiras,J.~M.~B.,Pereira,J.~M.~C.,Campagnolo,M.~L.,\BBA\Shimabukuro,Y.~E.\BBOP2005\BBCP.\newblock\BBOQAlandcovermapforthe{B}razilian{L}egal{A}mazonusing{SPOT\-4}{VEGETATION}dataandmachinelearningalgorithms\BBCQ\\newblockIn{\BemAnaisX{I}{I}{S}inposio{B}rasileirode{S}ensoriamento{R}emoto},\mbox{\BPGS\457--464}.\bibitem[\protect\BCAY{Caruana\BBA\Niculescu-Mizil}{Caruana\BBA\Niculescu-Mizil}{2004}]{Caruana04}Caruana,R.\BBACOMMA\\BBA\Niculescu-Mizil,A.\BBOP2004\BBCP.\newblock\BBOQPredictingGoodProbabilitiesWithSupervisedLearning\BBCQ\\newblockIn{\BemProceedingsofNIPS2004WorkshoponCalibrationandProbabilisticPredictioninSupervisedLearning}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{Chan06}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingClassPriorsinDomainAdaptationforWordSenseDisambiguation\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Cheeseman\BBA\Stutz}{Cheeseman\BBA\Stutz}{1996}]{Cheeseman96}Cheeseman,P.\BBACOMMA\\BBA\Stutz,J.\BBOP1996\BBCP.\newblock\BBOQB{AYESIANCLASSIFICATION(AUTOCLASS):\mbox{THEORY}ANDRESULTS}\BBCQ\\newblockIn{\BemAdvancesinknowledgediscoveryanddatamining},\mbox{\BPGS\153--180}.AmericanAssociationforArtficialIntelligence.\bibitem[\protect\BCAY{Dumais,Platt,Hecherman,\BBA\Sahami}{Dumaiset~al.}{1998}]{Dumais_et_al98}Dumais,S.,Platt,J.,Hecherman,D.,\BBA\Sahami,M.\BBOP1998\BBCP.\newblock\BBOQInductiveLearningAlgorithmsandRepresentationsforTextCategorization\BBCQ\\newblockIn{\BemProceedingsoftheACM-CIKM98},\mbox{\BPGS\145--155}.\bibitem[\protect\BCAY{Erosheva}{Erosheva}{2005}]{erosheva05}Erosheva,E.\BBOP2005\BBCP.\newblock\BBOQLatentclassrepresentationofthe{G}radeof{M}embershipmodel\BBCQ\\newblock\BTR,Departmentof{S}tatistics,UniversityofWashington.\bibitem[\protect\BCAY{Fawcett\BBA\Niculescu-Mizil}{Fawcett\BBA\Niculescu-Mizil}{2006}]{Fawcett06}Fawcett,T.\BBACOMMA\\BBA\Niculescu-Mizil,A.\BBOP2006\BBCP.\newblock\BBOQPAVandtheROCConvexHull\BBCQ\\newblock\BTR,KluwerAcademicPublishers.\bibitem[\protect\BCAY{Gualtieri,Chettri,Cromp,\BBA\Johnson}{Gualtieriet~al.}{1999}]{Gualtieri99}Gualtieri,A.,Chettri,S.~R.,Cromp,R.,\BBA\Johnson,L.\BBOP1999\BBCP.\newblock\BBOQSupportvectormachineclassifiersasappliedtoavirisdata\BBCQ\\newblockIn{\BemProceedingsofthe6thJPLAirborneGeoscienceWorkshop}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Joachims98}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{Jones,Rey,Madani,\BBA\Greiner}{Joneset~al.}{2006}]{Jones06}Jones,R.,Rey,B.,Madani,O.,\BBA\Greiner,W.\BBOP2006\BBCP.\newblock\BBOQGeneratingQuerySubstitutions\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalWorldWideWebConference(WWW'06)},\mbox{\BPGS\387--396}.\bibitem[\protect\BCAY{Kearsley,Tapia,\BBA\Trosset}{Kearsleyet~al.}{1996}]{Kearsley96}Kearsley,A.~J.,Tapia,R.~A.,\BBA\Trosset,M.~W.\BBOP1996\BBCP.\newblock\BBOQAnApproachtoParallelizingIsotonicRegression\BBCQ\\newblock\BTR,CRPC-TR98840.\bibitem[\protect\BCAY{Kressel}{Kressel}{1999}]{kressel99}Kressel,U.\BBOP1999\BBCP.\newblock\BBOQPairwiseclassificationandsupportvectormachines\BBCQ\\newblockInSch{\"o}lkopf,B.,Burgesa,C.J.~C.,\BBA\Smola,A.~J.\BEDS,{\BemAdvancesinKernelMethodsSupportVectorLearning},\mbox{\BPGS\255--268}.TheMITPress.\bibitem[\protect\BCAY{Langford\BBA\Zadrozny}{Langford\BBA\Zadrozny}{2005}]{Zadrozny05}Langford,J.\BBACOMMA\\BBA\Zadrozny,B.\BBOP2005\BBCP.\newblock\BBOQEstimatingClassMembershipProbabilitiesusingClassifierLearners\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonArtificialIntelligenceandStatistics('06)}.\bibitem[\protect\BCAY{Niculescu-Mizil\BBA\Caruana}{Niculescu-Mizil\BBA\Caruana}{2005}]{Mizil05}Niculescu-Mizil,A.\BBACOMMA\\BBA\Caruana,R.\BBOP2005\BBCP.\newblock\BBOQPredictingGoodProbabilitiesWithSupervisedLearning\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonMachineLearning(ICML'05)},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{Ohkura,Kiyota,\BBA\Nakagawa}{Ohkuraet~al.}{2006}]{Ohkura06}Ohkura,T.,Kiyota,Y.,\BBA\Nakagawa,H.\BBOP2006\BBCP.\newblock\BBOQBrowsingSystemforWeblogArticlesbasedonAutomatedFolksonomy\BBCQ\\newblockIn{\BemWorkshopontheWebloggingEcosystem(WWW2006)}.\bibitem[\protect\BCAY{Platt}{Platt}{1999}]{Platt99}Platt,J.~C.\BBOP1999\BBCP.\newblock\BBOQProbabilisticOutputsforSupportVectorMachinesandComparisonstoRegularizedLikelihoodMethods\BBCQ\\newblockInSch{\"o}lkopf,B.,Burgesa,C.J.~C.,\BBA\Smola,A.~J.\BEDS,{\BemAdvancesinLargeMarginClassifiers},\mbox{\BPGS\255--268}.TheMITPress.\bibitem[\protect\BCAY{Schohn\BBA\Cohn}{Schohn\BBA\Cohn}{2002}]{Schohn00}Schohn,G.\BBACOMMA\\BBA\Cohn,D.\BBOP2002\BBCP.\newblock\BBOQLessisMore:ActiveLearningwithSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonMachineLearning(ICML'00)},\mbox{\BPGS\839--846}.\bibitem[\protect\BCAY{Sebastiani}{Sebastiani}{2002}]{Sebastiani02}Sebastiani,F.\BBOP2002\BBCP.\newblock\BBOQMachineLearningAutomatedTextCategorization\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf34}(1),\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2005}]{Takahashi05c}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQAutomaticOccupationCodingwithCombinationofMachineLearningandHand-CraftedRules\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonPacific-AsiaKnowledgeDiscoveryandDataMining(PAKDD'05)},\mbox{\BPGS\269--279}.\bibitem[\protect\BCAY{Zadrozny\BBA\Elkan}{Zadrozny\BBA\Elkan}{2001a}]{Zadrozny01a}Zadrozny,B.\BBACOMMA\\BBA\Elkan,C.\BBOP2001a\BBCP.\newblock\BBOQLearningandMakingDecisionsWhenCostsandProbabilitiesareBothUnknown\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD'01)},\mbox{\BPGS\204--213}.\bibitem[\protect\BCAY{Zadrozny\BBA\Elkan}{Zadrozny\BBA\Elkan}{2001b}]{Zadrozny01b}Zadrozny,B.\BBACOMMA\\BBA\Elkan,C.\BBOP2001b\BBCP.\newblock\BBOQObtainingcalibratedprobabilityestimatesfromdecisiontreesandnaiveBayesianclassifiers\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML'01)},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Zadrozny\BBA\Elkan}{Zadrozny\BBA\Elkan}{2002}]{Zadrozny02}Zadrozny,B.\BBACOMMA\\BBA\Elkan,C.\BBOP2002\BBCP.\newblock\BBOQTransformingClassifierScoresintoAccurateMulticlassProbabilityEstimates\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD'02)},\mbox{\BPGS\694--699}.\bibitem[\protect\BCAY{安居院\JBA中嶋}{安居院\JBA中嶋}{1991}]{Agui91_j}安居院猛\JBA中嶋正之\BBOP1991\BBCP.\newblock\Jem{画像情報処理}.\newblock森北出版.\bibitem[\protect\BCAY{北}{北}{1999}]{Kita99_j}北研二\BBOP1999\BBCP.\newblock\Jem{言語と計算(4)確率的言語モデル}.\newblock東大出版会.\bibitem[\protect\BCAY{小暮\JBA寒河江}{小暮\JBA寒河江}{2005}]{Kogure05}小暮厚之\JBA寒河江雅彦\BBOP2005\BBCP.\newblock\JBOQパーセント点に集計されたデータからの密度関数の推定—バイアス・パズルの考察—\JBCQ\\newblock\Jem{統計数理},{\Bbf53}(2),\mbox{\BPGS\376--389}.\bibitem[\protect\BCAY{平\JBA春野}{平\JBA春野}{2000}]{Taira00}平博順\JBA春野雅彦\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineによるテキスト分類における属性選択\JBCQ\\newblock\Jem{情報処理},{\Bbf41}(4),\mbox{\BPGS\1113--1123}.\bibitem[\protect\BCAY{高橋\JBA高村\JBA奥村}{高橋\Jetal}{2005a}]{Takahashi05a}高橋和子\JBA高村大也\JBA奥村学\BBOP2005a\BBCP.\newblock\JBOQ機械学習とルールベース手法の組み合わせによる自動職業コーディング\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{高橋\JBA須山\JBA村山\JBA高村\JBA奥村}{高橋\Jetal}{2005b}]{Takahashi05b}高橋和子\JBA須山敦\JBA村山紀文\JBA高村大也\JBA奥村学\BBOP2005b\BBCP.\newblock\JBOQ職業コーディング支援システム({NANACO})の開発と{JGSS}-2003における適用\JBCQ\\newblock\Jem{日本版GeneralSocialSurveys研究論文集[4]JGSSで見た日本人の意識と行動〈JGSSResearchSeriesNo.1〉{\kern-0.5zw}},\mbox{\BPGS\225--242}.\end{thebibliography}\begin{biography}\bioauthor{高橋和子(正会員)}{東京女子大学文理学部数理学科卒.茨城大学人文学部社会科学科助手,千葉敬愛短期大学専任講師を経て1997年敬愛大学国際学部国際協力学科専任講師.1998年産能大学大学院経営情報学研究科修了.2007年東京工業大学大学院総合理工学研究科博士課程修了.2008年敬愛大学国際学部国際学科教授,現在に至る.修士(経営情報学).博士(工学).社会調査で収集されるテキスト型データの処理・分析方法に興味をもつ.日本オペレーションズ・リサーチ学会,数理社会学会,情報処理学会,言語処理学会,人工知能学会各会員.}\bioauthor{高村大也(正会員)}{1974年生.1997年東京大学工学部計数工学科卒.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学博士後期課程修了.同年東京工業大学精密工学研究所助手(現在,助教),現在に至る.博士(工学).自然言語処理,特に学習理論等の応用に興味を持つ.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V24N01-01
|
\section{はじめに}
日本は,2007年に高齢化率が21.5\%となり「超高齢社会」になった\cite{no1}.世界的に見ても,高齢者人口は今後も増加すると予想されており,認知症治療や独居高齢者の孤独死が大きな問題となっている.また,若い世代においても,学校でのいじめや会社でのストレスなどにより精神状態を崩すといった問題が起きている.このような問題を防ぐ手段として,カウンセリングや傾聴が有効であると言われている\cite{no2}.しかし,高齢者の介護職は人手不足であり,また,家庭内においても,身近に,かつ,気軽に傾聴してもらえる人がいるとは限らない.このような背景のもと,本論文では,音声対話ロボットのための傾聴対話システムを提案する.我々は,介護施設や病院,あるいは,家庭に存在する音声対話ロボットが傾聴機能を有することにより,上記の問題の解決に貢献できると考えている.傾聴とは,話を聴いていることを伝え,相手の気持ちになって共感を示しつつ,より多くのことを話せるように支援する行為であり,聴き手は,表1に挙げる話し方をすることが重要であるとされる\cite{no3,no4,no5}.また,傾聴行為の一つとして回想法が普及している.回想法とは,アメリカの精神科医Butlerによって1963年に提唱されたものであり\cite{no6},過去の思い出に,受容的共感的に聞き入ることで高齢者が自分自身の人生を再評価し,心理的な安定や記憶力の改善をはかるための心理療法である\cite{no7}.本論文は,この回想法による傾聴を行う音声対話システムの実現を目指す.\begin{table}[b]\caption{傾聴において重要とされる話し方}\label{table:1}\input{01table01.txt}\end{table}音声対話システムとして,音声認識率の向上やスマートフォンの普及などを背景に,AppleのSiri\cite{no8}やYahoo!の音声アシスト\cite{no9},NTTドコモのしゃべってコンシェル\cite{no10}といった様々な音声アプリケーションが登場し,一般のユーザにも身近なものになってきた.単語単位の音声入力や一問一答型の音声対話によって情報検索を行うタスク指向型対話システムに関しては,ある一定の性能に達したと考えられる\cite{no11}.しかしながら,これらの音声対話システムは,音声認識率を高く保つために,ユーザが話す内容や発声の仕方(単語に区切るなど)を制限している.一方で,雑談対話のような達成すべきタスクを設定しない非タスク指向型対話システムも多く提案されており(Tokuhisa,Inui,andMatsumoto2008;BanchsandLi2012;Higashinaka,\linebreakImamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,andMatsuo2014;\linebreakHigashinaka,Funakoshi,Araki,Tsukahara,Kobayashi,andMizukami2015)\nocite{no12,no13,no14,no15},傾聴対話システムも提案されている.傾聴対話システムの先行研究として,Hanらの研究\cite{no16,no17},および,大竹らの研究がある\cite{no18,no19}.これらの研究は,いずれも対話システムによる傾聴の実現を目的としており,5W1H型の疑問文による問い返し(e.g.,Usr:とっても美味しかったよ.⇒Sys:何が美味しかったの?)や,固有名詞に関する知識ベースに基づく問い返し(e.g.,Usr:ILikeMessi.⇒Sys:WhatisMessi'sPosition?),あるいは,評価表現辞書を用いた印象推定法による共感応答(e.g.,Usr:寒いしあまり炬燵から出たくないね.⇒Sys:炬燵は暖かいよね.)などの生成手法が提案されている.Hanら,大竹らの研究は傾聴対話システムの実現を目的としている点において,我々と同様である.しかしながら,これらの研究はテキスト入力を前提としているため,音声入力による対話システムへ適用する際には,音声認識誤りへの対応という課題が残る.傾聴のような聞き役対話システムの先行研究としては,目黒らの研究がある\cite{no20,no21,no22}.この研究では,人同士の聞き役対話と雑談を収集し,それぞれの対話における対話行為の頻度を比較・分析し,さらに,聞き役対話の流れをユーザ満足度に基づいて制御する手法を提案している.ただし,この研究の目的は,人と同様の対話制御の実現であり,また,カウンセリングの側面を持つ傾聴ではなく,日常会話においてユーザが話しやすいシステムの実現を目指している点で,我々と異なる.また,山本,横山,小林らの研究\cite{no23,no24,no25,no26,no27}は,対話相手の画像や音声から会話への関心度を推定し,関心度が低い場合は話題提示に,関心度が高い場合は傾聴に切り替えることで雑談を継続させる.発話間の共起性を用いて,音声の誤認識による不適切な応答を低減する工夫も導入している.さらに,病院のスタッフと患者間の対話から対話モデル(隣接ペア)を用いた病院での実証実験を行っており,ロボットとの対話の一定の有効性を示している.しかしながら,傾聴時において生成される応答は「単純相槌」「反復相槌」「質問」の3種類であり,ユーザ発話中のキーワードを抽出して生成されるため,ユーザ発話中に感情表現がない場合に(e.g.,Usr:混雑していたよ),傾聴において重要とされる「共感応答」(e.g.,Sys:それは残念でしたね)は扱っていない.同様に,戦場の兵士らの心のケアを目的とした傾聴対話システムSimCoachや,意思決定のサポートをするSimSenseiという対話システムも構築されている\cite{no28,no29}.SimCoachやSimSenseiはCGによるAgent対話システムで,発話内容に合わせた豊かな表情や頷きを表現することで,人間とのより自然な対話を実現している点も特徴である.我々は,対話システムの機能を,回想法をベースとした傾聴に特化することにより,音声認識や応答生成のアルゴリズムをシンプル化し,対話が破綻することなく継続し,高齢者から若者まで満足感を感じさせるシステムの実現を目指す.Yamaguchiら,Kawaharaらは,傾聴対話システムがユーザ発話に対して傾聴に適した相槌を生成する手法とその有効性について報告している\cite{no30,no34}.具体的には,人同士の傾聴時の対話で生じる相槌を対象として相槌が持つ先行発話との関係を分析し,それに基づいて相槌生成の形態,韻律を決定する手法を検討した.結果として,先行発話の境界のタイプや構文の複雑さに応じて相槌を変えることや,先行発話の韻律的特徴と同調するように韻律的特徴を制御することの有効性を述べている.相槌の生成ではタイミング,形態,韻律が重要であるが,今回のシステムでは,適切な内容の応答生成による対話の継続と満足感の評価を目的としている.本論文の貢献は,音声認識誤りを考慮した上で,傾聴時に重要な応答の生成を可能にする手法の提案,および,提案手法が実装されたシステムの有効性を,応答正解率の観点と,100人規模の被験者実験による対話継続時間と主観評価による満足度の観点で評価した点である.本論文の構成は,次のようになっている.第2章で本傾聴対話システムの概要を述べる.第3,4,5章は,本対話システムの機能である音声認識,および,認識信頼度判定部,問い返し応答生成部,共感応答生成部に関する実装に関して,第6章で評価実験と結果について説明し,第7章でまとめる.
\section{傾聴システムの概要}
本章では,提案する傾聴システムの概要について述べる.\subsection{目指す対話例}図\ref{fig:1}に,回想法の実施事例を示す\cite{no32}.聞き手(S)は,話し手(A)が自身の過去を思い出しやすいように「問い返し」を重ね,それに対して話し手が答える,というスタイルがベースとなって対話が進行している.また,聞き手は,適切なタイミングで,「言い換え」「要約」「相槌」「共感」「繰り返し」といった,傾聴に重要とされる応答を行っていることが分かる.我々は,図1に示すような回想法による傾聴対話を実現するため,対話のテーマを「過去の出来事」に設定し,ユーザが語る過去の行動や感情に対して,音声認識誤りを考慮した上で,システムが傾聴に重要とされる応答を生成するための手法を提案する.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f1.eps}\end{center}\caption{回想法の実施例(須田2013より抜粋)}\label{fig:1}\end{figure}なお,本論文では,上記の応答のうち,「繰り返し」「問い返し」「共感」「相槌」の4種類の応答を対象とする.なぜなら,「言い換え」および「要約」については「繰り返し」により粗い近似が可能である,と考えたためである.次節では,このような対話を実現するための傾聴システムの機能構成について述べる.\subsection{傾聴システムの機能構成}提案する傾聴システムの機能構成を図2に示す.大きく分けて,「音声認識・信頼度判定」「繰り返し/問い返し応答の生成」「共感応答の生成」「相槌応答の生成」「応答選択」の5つの機能で構成されている.以下で,それぞれの機能の概要を述べる.\noindent\textbf{■音声認識・信頼度判定}入力されたユーザ発話を音声認識し,音声認識結果の信頼度を算出する.認識結果が信頼できると判定された場合は,当該認識結果を用いて,繰り返し/問い返し応答,および,共感応答を生成する.一方,信頼できないと判定された場合には,当該認識結果を用いた応答を行うのではなく,予め用意された相槌応答を生成する.これにより,誤認識結果を用いた応答生成を低減し,対話の破綻を防ぐ.詳細は3章で述べる.\clearpage\noindent\textbf{■繰り返し/問い返し応答の生成}ユーザ発話の最終述語に着目し,認識信頼度が高いと判定された当該述語,および,当該述語が持つ格に基づき,繰り返し/問い返し応答を生成する.ここで,本論文では,以下のものを「述語」と定義し,ユーザ発話に含まれるこれら全ての表現のうち,最後に出現するものを「最終述語」として抽出する.\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{24-1ia1f2.eps}\end{center}\caption{傾聴システムの機能構成}\label{fig:2}\vspace{1\Cvs}\end{figure}\begin{table}[b]\caption{本論文で定義する「述語」の候補となる語}\label{table:2}\input{01table02.txt}\end{table}\begin{table}[b]\caption{本論文で扱う過去表現}\label{table:3}\input{01table03.txt}\end{table}\begin{enumerate}\item表2に示す語のうち,表3に示す過去表現を伴っているもの.\itemただし,表2に示す語と,表3に示す過去表現との間にアスペクト(〜していた,〜しに行った),ムード(〜したかった,〜しなかった),ヴォイス(〜してもらった,〜された)などの表現が含まれる場合には,それらも含む.\end{enumerate}過去表現を伴うものに限定するのは,2.1節でも述べたように,本論文では,対話のテーマを「過去の出来事」に設定するためである.また,アスペクトやムードなどを考慮することにより,より自然なシステム応答の生成(e.g.,Usr:もっと食べたかったよ.Sys:食べたかったんですか.)を可能にする.問い返し応答は,以下で述べる(A),(B)の手法により生成する.これら2つの手法により,音声認識の信頼度が高い場合のみ,繰り返し応答や問い返し応答を生成することで,ユーザの発話内容を正確に繰り返し「聴いている」ことを示すと同時に,ユーザの過去を思い出しやすくし,次の発話を促す.\noindent\textbf{(A)最終述語の不足格判別に基づく問い返し}ユーザ発話の最終述語が動詞,および,「サ変名詞+する」の場合に,当該述語に対する不足格の判別を行うことにより,ユーザ発話には含まれない格を問い返す応答を生成する.図2の例では,ユーザ発話の最終述語「貰う」について,あらかじめ作成した動詞の必須格辞書を用いて,発話に必須格「誰から」が含まれていないことを判別し,『誰からもらったんですか?』を生成する.不足格判別に基づく問い返し応答の生成の詳細は4.1節で述べる.\noindent\textbf{(B)辞書を用いた適切性判断に基づく問い返し}ユーザ発話の最終述語,および,格要素について,表4に示す問い返しが適切かどうかを辞書に基づき判断し,応答を生成する.図2の例では,最終述語「貰う」に対する感想,および,格要素「お花」の詳細については,問い返すことが適切であると判断され,『どうでしたか?』,および,『どんなお花ですか?』が生成されている.辞書を用いた適切性判断に基づく問い返しの詳細については4.2節で述べる.\begin{table}[b]\caption{辞書を用いた適切性判断に基づき生成される問い返しの種類}\label{table:4}\input{01table04.txt}\end{table}\noindent\textbf{■共感応答の生成}感情推定に関しては様々な研究がある\cite{no33}.Balahurらは感情が非明示的に表現された文から感情を推定することを目的として,感情生起のトリガーとなる事態を記述したEmotiNetの構築を提案している\cite{no31}.また,長谷川らは,聞き手にターゲットとなる感情を生起させるための応答生成手法を考案している\cite{no35}.この中で長谷川らは,Twitterから構築した感情タグ付き対話コーパスを利用することで,「一緒に夕食に行かない?」という入力に対して「38度の熱があるのでいけません」と応答し,聞き手に「悲しみ」を喚起するような応答生成を実現している.これに対して我々は,話し手であるユーザの発話内容に対するユーザ自身の感情を推定し,その結果を利用することにより,ユーザへの共感応答を生成する.図2の例では,「誕生日にお花を貰う」に対するユーザ自身の感情が「嬉しい」であると推定した結果,共感応答『それは嬉しいですね』が生成されている.本論文では,この例のように,ユーザ発話中に明示的な感情表現(e.g.,嬉しい)が含まれていない場合であっても,音声認識誤りが含まれるユーザ発話からデータ駆動型で感情推定を行い,共感応答を生成する.詳細は5章で述べる.\noindent\textbf{■相槌応答の生成}認識信頼度が低いと判定された場合は,相槌応答を生成する.ここでは,相槌応答として,以下の2種類を生成する.\begin{enumerate}\itemシステムの直前発話として,「感情・形容表現に対する理由を尋ねる」問い返し応答が生成されていた場合は,システムが「理解」あるいは「納得」したことをより強くユーザに示した方が,対話の自然性が向上するため,相槌『なるほど』を生成する.\itemそれ以外の発話が生成されていた場合は,相槌『そうですか』を生成する.\end{enumerate}\noindent\textbf{■応答選択}認識信頼度が高いと判定され,繰り返し応答,問い返し応答,共感応答のいずれかの応答が生成された場合は,以下の考えに基づき,繰り返し/問い返し応答を優先的に選択する.\begin{itemize}\item繰り返し応答により,「聴いている」ことを効果的にユーザに伝えることができる\item問い返し応答により,ユーザが過去の記憶を思い出しやすくなると同時に,対話をより継続することができる\item共感応答は,繰り返し応答と同時に出力することで,「共感している」ことをより効果的に伝えることができる\end{itemize}具体的には,以下のように応答選択を行う.\begin{enumerate}\item繰り返し/問い返し応答のいずれかが生成されている場合は,それらの中からランダムに選択する.なお,ランダムに選択した結果が繰り返し応答の場合は,繰り返し応答の後に続けて出力する応答を,以下のように選択する.\begin{itemize}\item問い返し応答が生成されている場合は,それらの中からランダムに選択し,繰り返し応答に続けて出力する(e.g.,お花を貰ったんですか.誰から貰ったんですか?).\item問い返し応答は生成されていないが,共感応答が生成されている場合は,共感応答を繰り返し応答に続けて出力する(e.g.,お花を貰ったんですか.それは嬉しいですね.).\item問い返し応答,共感応答のいずれも生成されていない場合は,繰り返し応答のみを出力する.\end{itemize}\item繰り返し/問い返し応答が一切生成されていない場合は,共感応答を選択する.\end{enumerate}
\section{音声認識,および,認識信頼度アルゴリズム}
本章では,音声認識,および,認識信頼度判定アルゴリズムについて述べる.\subsection{音声認識}まず,音声認識については,音声認識エンジンとしてJulius\cite{no36}を使用した.ここで,音響モデルは,不特定話者PTMモデル\cite{no37}を利用した.言語モデルについては,想定する対話の特性を踏まえ,次の2点を考慮して作成した.なお,作成した言語モデルの語彙数は6万語である.\noindent\textbf{(1)ユーザ発話の多くは,過去の行動や感情に関する発話である}システムは回想法によりユーザに過去の出来事に関する発話を促すため,ユーザ発話には行動や感情に関する単語が含まれることが予想される.表5に試作版の傾聴システムへの入力例を示す.\begin{table}[b]\caption{試作版の対話システムへの入力例}\label{table:5}\input{01table05.txt}\end{table}\noindent\textbf{(2)ユーザ発話中に,名詞単独の発話が含まれる}我々の傾聴システムは,問い返し応答の1つとして,不足格を問い返す応答を生成する.この問い返しに対し,ユーザが名詞単独で発話することが予想される(e.g.,Sys:どこで食べたんですか?Usr:お店).以上2点を踏まえ,言語モデルは以下のように作成した.\paragraph{\underline{手順[1]}:}Web上のテキストデータ\cite{no38}において,行動や感情が記述されやすいWebページを選別し,学習コーパスとした.学習コーパスの総量は,約215万ページ,3350万文であった.これまでに,行動や感情が記述されたコーパス作成手法として,大規模ブログデータから,人間の経験(時間と空間,動作とその対象,感情)を,適切な動詞と121個の感情語を用いて抽出する手法\cite{no39}や,過去時制動詞を主とした特徴語と,未来と現在時制動詞を主とした特徴語により,個人的な話題をブログデータから抽出する手法\cite{no40}などが提案されている.ここでは,言語モデル作成のためであり,コーパス内容をそれほど限定する必要がないことから,以下に示す方法でWebページを選別した.\begin{enumerate}\item行動や感情が記述されやすい日記のWebページを学習データとする.具体的には,URLに「BLOG,Blog,blog,DIARY,Diary,diary」のいずれかを含むWebページを採用した.\item試作版の傾聴システムを用いて,開発者数名で予備実験したところ,対話ログに述語691語が含まれていた.この述語のうち,30語以上を1ページ内に含むWebページを採用した.これは,日記や物語などに関して記述されたWebページが中心である.\end{enumerate}\paragraph{\underline{手順[2]}:}上記コーパスに出現した名詞を対象に,それらの名詞単独からなる文(e.g.,映画)を,その出現頻度に従い学習コーパスに追加した.なお,追加した名詞は40,239語である.\subsection{認識信頼度アルゴリズム}次に,認識信頼度判定アルゴリズムについて述べる.認識信頼度判定の目的は,繰り返し/問い返し応答生成,および,共感応答生成を行う前に,認識結果に含まれる認識誤りした単語を棄却し,信頼できると判定された認識結果のみを用いて,応答生成を行うことである.ここで,繰り返し/問い返し応答を生成する場合と,共感応答を生成する場合では,以下に述べるように,ユーザ発話中の着目すべき要素,つまり,信頼できるかどうかを判定すべき要素が異なると考えられる.まず,繰り返し/問い返し応答については,2.2節で述べたように,ユーザ発話中の最終述語,および,その述語が持つ格から生成される.つまり,繰り返し/問い返し応答の生成において,ユーザ発話中で着目すべき要素は〈格要素,格助詞,最終述語〉である.一方,共感応答を適切に生成するためには,〈格要素,格助詞,最終述語〉といったようにユーザ発話の一部分のみに着目することはできない.例えば,ユーザ発話『会社の飲み会で,すごく美味しいお酒を飲んだ』に対する共感応答(e.g.,それは楽しかったですね)や,『会社の飲み会で,我慢してお酒を飲んだ』に対する共感応答(e.g.,それは大変でしたね)を適切に生成するためには,「お酒を飲んだ」のみに着目するのではなく,「すごく美味しい」や「我慢して」といった情報も考慮した上で,それに対するユーザの感情を推定する必要がある.そのため,共感応答生成においては,生成に必要な要素をあらかじめ特定しておくことは難しい.つまり,共感応答を生成する場合には,認識結果全体に対する信頼度判定が必要となる.以上の考察に基づき,認識信頼度判定は,以下のように,繰り返し/問い返し応答を目的とした場合と,共感応答を目的とした場合とで,異なる手法により行う.なお,「相槌応答」は,以下のいずれの認識信頼度判定においても「信頼度が低い」と判定された場合に生成される.\noindent■{\bfseries繰り返し/問い返し応答の生成を目的とした場合}ここでの目標は,認識結果中の最終述語,および,当該述語に付随する格助詞,および,格要素(具体的には,最終述語とその一つ前の述語との間に出現する格助詞,および,格要素.以降,このようにして得られた結果を〈格要素,格助詞,最終述語〉と記述する.)について,以下のような繰り返し/問い返し応答生成のために,信頼度が高いもののみを高精度に抽出すること,である.\begin{verbatim}●繰り返し応答:お花を貰ったんですか/お花をですか/お花ですか/貰ったんですか●不足格の問い返し応答:誰に貰ったんですか?\end{verbatim}本論文では,「Juliusから得られる認識結果の候補10Bestにおいて,多くの候補に出現するほど信頼度は高い」という考え方をベースに,〈格要素,格助詞,最終述語〉のそれぞれに対する認識信頼度を判定する.Hazenら\cite{no41}は,単語の認識信頼度を10種類の特徴量を用いて算出し,それらの単独使用と複合使用の時のエラー率の比較結果を示しており,ここで用いた手法は,その単独特徴量中でもっとも性能の良かった特徴量(N-bestPurity)の考え方と近い.例として,ユーザ発話『東京に行った』を考える.認識候補10Bestにおいて,「東京に行った」や「東京に行って」以外に,例えば「故郷に行った」や「遠くに行った」などの誤った候補が得られていた場合,格助詞「に」の格要素については曖昧であるが,格助詞「に」,および,述語「行く」は多くの候補に出現していることから,少なくとも「〜に行った」という部分については,信頼度が高いと判定することができる.同様に,ユーザ発話『ボールを投げた』に対する認識候補10Bestにおいて,認識結果が「ボールを」「ボールと」「ボールで」の場合には,どのような格助詞に対する格要素かは曖昧だが,格要素「ボール」については信頼度が高いと判定することができる.このように,〈格要素,格助詞,最終述語〉のそれぞれの項目に対する個別の信頼度については,10Bestにおけるそれぞれの項目の出現頻度をベースとした手法により信頼度判定が可能である.しかし,ここでは,〈格要素,格助詞,最終述語〉の組み合わせとして信頼度が高いかどうかを判定する必要があるため,以下の方法をとる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f3.eps}\end{center}\caption{繰り返し/問い返し応答生成を目的とした認識信頼度判定の処理フロー}\label{fig:3}\end{figure}提案手法の処理のフローを図3に,手続きを以下に示す.\paragraph{\underline{手順[1]}:}Juliusより得られる音声認識結果の10Bestそれぞれに対し,「(文頭)格助詞最終述語」や「動詞の連用形最終述語」などのように,着目すべき最終述語の周辺の品詞の並びが不適切な候補を棄却する.\paragraph{\underline{手順[2]}:}手順[1]で残った認識結果の候補について,まず,最終述語,格助詞,および,格要素を,それぞれの単語認識信頼度\cite{no42}と共に抽出する.また,最終述語が持つ格(格要素+格助詞)の認識信頼度を,格助詞と格要素の単語認識信頼度の平均により算出する.なお,格要素を抽出する際,連続する名詞は複合名詞と判断し,それぞれの名詞の単語認識信頼度の平均を,当該複合名詞の認識信頼度とする.\paragraph{\underline{手順[3]}:}10Bestそれぞれについて得られた手順[2]の結果を,格要素,格助詞,格,および,最終述語ごとに合算する.この結果を,ユーザ発話に含まれる格要素,格助詞,格,および,最終述語の候補とする.得られる結果の例を図4に示す.なお,この例では,手順[1]により,残り5つの認識候補が棄却されたとする.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f4.eps}\end{center}\caption{手順[3]までの処理で得られる結果の具体例}\label{fig:4}\end{figure}\begin{table}[b]\caption{本論文で設定した認識信頼度判定のための閾値}\label{table:6}\input{01table06.txt}\end{table}\paragraph{\underline{手順[4]}:}ここまでの結果を用いて,ユーザ発話中の着目すべき要素のうち,どの認識結果が信頼できるのかを判定する.具体的には,以下のように判定する.\begin{enumerate}\item格要素,格助詞,格,最終述語のそれぞれについて,最大,かつ,閾値以上の信頼度を持つ候補を抽出する.なお,格助詞,および,格については,それぞれの格ごとに判定を行う.また,信頼度判定の閾値は,格要素,格助詞,格,最終述語のそれぞれについて,個別に設定する.本論文で設定した閾値を表6に示す.表6の値は,開発者2名が実験的に,「積極的な繰り返し/問い返し応答の生成」と「相槌応答の生成」とのバランスを鑑みた上で決定した値である.この値に従うと,図4の例では,以下のものが信頼できる認識結果として抽出される.\begin{itemize}\item格要素:彼,ボール\item格助詞:に,を\item格:彼に\item最終述語:渡す\end{itemize}なお,これら4つの閾値のうち,「格要素」「格」「最終述語」に関しては,「より積極的に認識結果を利用して応答生成する」のか「誤認識を用いた応答生成を防ぐために相槌を生成するのか」を判断する値である.具体的には,閾値を低く設定すると,より積極的にそれらの認識結果を利用して応答生成するようになり,反対に,閾値を高く設定すると,認識結果は信頼できないと判定されて相槌を生成する可能性が高くなる.一方,「格助詞」に関しては,「より積極的に,不足格の問い返し応答を生成する」かどうかを判断する値である.具体的には,閾値を低く設定すると,「当該格助詞はユーザ発話に含まれている」と判断しやすくなり,不足格の問い返し応答の生成数は減少する.反対に,閾値を高く設定すると,「当該格助詞はユーザ発話に含まれていない」と判断しやすくなり,不足格の問い返し応答の生成数は増加する.なお,格助詞についての閾値は,他と比べ低く設定した.これは,格助詞は誤認識が起こりやすく\cite{no43},格要素や最終述語と比べ認識信頼度の判断が難しいため,格助詞認識に対するRecallを高くし,「ユーザ発話に含まれているにも関わらず不足格として問い返してしまうエラーによる満足度低下」を防ぐことを目的としたためである.また,本論文では認識候補の10Bestを利用したが,ある閾値以上の認識結果を利用するなど,利用する認識候補の数を一定にしない方法も考えられる.このような場合には,単語信頼度の合算値を,利用した認識候補の数で正規化した上で閾値判定を行う必要がある.\item格要素,格助詞,および,最終述語の個別の項目については,(1)で抽出された結果を信頼できる要素と判定する.一方,〈格要素,格助詞,最終述語〉の共起の信頼度については,格(e.g.,彼に)と最終述語(e.g.,渡す)の共起が日本語として適切かどうかを判定する必要がある.なぜなら,個別の認識候補については言語モデルにより共起の適切性が考慮されているが,提案手法では,〈格要素,格助詞,最終述語〉を一旦独立したものとして扱うため,例えば「格(格要素+格助詞)については10Best中の上位4候補にのみ含まれる(下位6候補には含まれない)結果が信頼できると判定されるが,最終述語については下位6候補にのみ含まれる(上位4候補には含まれない)結果が信頼できると判定される」という可能性があるためである.日本語として適切かどうかの判定にはWeb5億文コーパス\cite{no38}を用いる.今回は,Webテキストに〈格要素,格助詞,最終述語〉の組み合わせが10回以上出現した場合に,日本語として適切であるとみなした.\end{enumerate}以上の手順で,信頼できると判定された「格要素」「格助詞」「格」「最終述語」を用いて繰り返し/問い返し応答を生成する.なお,信頼できると判定された「格要素」「格助詞」「格」「最終述語」が全く存在しない場合は,繰り返し/問い返し応答は生成されない.\noindent\textbf{■共感応答の生成を目的とした場合}共感応答の生成では,ユーザ発話の音声認識結果に対し,1単語単位ではなく,1発話単位の信頼性を評価し,信頼できる発話候補のみ共感応答生成への入力とする.しかし,Juliusから得られる単語単位の信頼度は,音響モデル尤度,および,3-gram言語モデル尤度に基づき算出された値であるため,後段で,この値を用いて1発話全体の信頼性を判定することは容易ではない.そこで,「発話全体が信頼できる認識候補かどうか」ではなく,「感情推定がロバストに行える認識結果の候補であるかどうか」という観点で認識結果を精査することとした.具体的には,名詞や動詞,形容詞などの自立語が一語の場合には,発話の曖昧性が高く正確な感情推定できない場合が多いが,「プレゼントを貰った」や「足をぶつけた」のように自立語を2語以上含む場合には,発話の曖昧性が下がり「それは良かったですね」や「それは大変でしたね」といった共感応答の生成が期待できる.そこで,10Bestそれぞれに含まれる「名詞」「動詞」「形容詞」「副詞」,および,「否定表現」の総数が2以上の候補を,感情推定がロバストに行える認識候補と判定し,5章で述べる共感応答生成への入力とする.\subsection{音声認識性能,および,認識信頼度判定アルゴリズムの有効性評価}本節では,提案システムの音声認識性能,および,認識信頼度判定アルゴリズムの有効性評価についての予備実験結果を示す.なお,テストセットとして,被験者39名による1,042発話を用いた.まず,音声認識性能についての結果について述べる.テストセットに対する単語認識率は,recall:70.1\%,precision:66.7\%であった.提案システムのように項構造を用いる場合は,ユーザ発話に含まれる格要素,格助詞,最終述語をどの程度適切に認識できるかでシステムの応答精度が大きく変わってくる.一般的に,格助詞は誤認識されやすく,藤原らの調査\cite{no43}によると,「認識信頼度が0.5以上の範囲で,助詞は動詞より約13\%程度認識率が低下する」というデータがある.彼らの試算に従うと,提案システムにおいて,ユーザ発話に含まれる格助詞の認識精度は約50\%程度になると考えられる.次に,このように多くの誤認識を含むユーザ発話に対して,提案手法により,高精度な応答生成が可能かどうかを検証した結果について述べる.自然な話し言葉においては,省略,音声認識器の誤認識,文境界の不明確さなどにより,項構造を誤って理解する可能性があり,これまでに,タスク依存型モデルにおける部分的な構文解析,多数の音声認識候補(N-Best)の利用,1単語単位の信頼度と1発話単位の信頼度の組み合わせ,会話内容全体を考慮した信頼度尺度の使用等により,意味解釈の精度を向上させる多くの手法が検討されてきた\cite{no44}.今回のシステムでは,応答生成の種類に応じて,N-Best利用による1単語単位の信頼度と,ロバストに感情推定できるかという尺度での\linebreak1発話単位の信頼度を使い分けることにより,適切な応答を引き出している.また,いずれの認識信頼度判定においても信頼度が低いと判定された場合には「相槌応答」を生成することで,誤認識による不適切な応答生成を最小限にしている.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f5.eps}\end{center}\caption{認識信頼度アルゴリズムの有効性検証結果}\label{fig:5}\end{figure}3.2節で述べた認識信頼度アルゴリズムの有効性を,上記テストセットを用いて検証した結果を図5に示す.図5の「1Bsetのみ利用」は,Juliusから得られる認識結果の1bestのみを用い全ての認識結果が信頼できるとして応答生成した場合で,「認識信頼度判定有り」は,我々の提案アルゴリズムにより信頼度が高い候補を抽出して応答生成した場合を示す.なお,ここでは,応答正解率=適切な応答数/(適切な応答数+誤応答数)とし,提案アルゴリズムにより相槌が生成された場合(452発話)については,評価の対象外とした.図5が示す通り,Juliusから得られる認識結果の1bestを用いて応答生成した場合には,応答正解率は55.8\%だが,我々が提案する認識信頼度判定を用いた場合には,応答生成の正解率は74.7\%であった.このことから,音声認識誤りにロバストな認識信頼度判定アルゴリズムが構築できたと考える.音声認識器の誤認識に関しては,今後さらに低減されていくと考えられるが,周囲騒音の大きい環境や高齢者の小声発話などに対しては認識が難しく,誤認識の問題は依然として残ると予想される.今回採用したような認識信頼度の利用手法は,今後のシステムにおいても必須であると考えることができる.
\section{問い返し応答の生成アルゴリズム}
本章では,問い返し応答の生成アルゴリズムについて述べる.2.2節で述べたように,問い返し応答には,「最終述語の不足格の問い返し」と「辞書を用いた適切性判別に基づく問い返し」の2種類がある.以下,それぞれについて述べる.\subsection{最終述語の不足格判別に基づく問い返し応答の生成アルゴリズム}本節では,最終述語の不足格判別に基づく問い返し応答の生成アルゴリズムについて述べる.提案システムでは,最終述語が「動詞」および「サ変名詞+する」の場合のみ不足格判別に基づく問い返し応答を生成し,他の最終述語に関しては不足格の問い返し応答は生成しないものとした.なぜなら,ユーザの行動を表す「動詞」および「サ変名詞+する」に関しては,不足格(e.g.,誰と,どこに,何を)を問い返すことがユーザの次発話を促す効果があると期待されるが,ユーザの感情や形容表現を表す「形容詞」「形容詞+なる」「形容動詞」「名詞+だ」に関しては,不足格判別に基づく問い返し応答(e.g.,いつより嬉しかったんですか?,何より美味しかったんですか)は不自然な応答となる場合が多いためである.なお,ユーザの感情や形容表現を表すこれらの述語に関しては,4.2.3節で述べる理由を問い返す表現により次発話の生成を促す.\subsubsection{問い返し応答生成アルゴリズムの概要}図6に,問い返し応答生成アルゴリズムの概要を示す.3.2節で述べた信頼度判定アルゴリズムにより,信頼度が高いと判定された動詞,および,格助詞を用いて,以下の手順により問い返し応答を生成する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f6.eps}\end{center}\caption{最終述語の不足格の問い返し応答生成アルゴリズムの概要}\label{fig:6}\end{figure}\paragraph{\underline{手順[1]}:}当該動詞をキーとして,予め作成された必須格辞書を検索する.ここで,必須格辞書には,図6に示すように,ある動詞についての必須格が深層格レベルで登録されていると同時に,当該格を尋ねる際に最適な疑問詞と表層格がペアで登録された辞書である.ここで,図6中の「ヲ(object)」などの表記は,「表層に現れた格助詞(深層格)」を意味する.なお,想定している対話の性質上,ユーザ発話内の「ガ(agent)」は省略されることが多いため,ここでは,必須格としては登録しない.必須格辞書の作成手法の詳細は,4.1.2節で述べる.\paragraph{\underline{手順[2]}:}信頼度が高いと判定された格助詞と,手順[1]で検索された必須格との照合を行うことで,当該動詞の不足格を判別し応答を生成する.例えば,ユーザ発話中の動詞「貰う」の不足格が「カラ格(source)」と判別された場合,問い返し応答として『誰から貰ったんですか?』を生成する.不足格判別手法の詳細は,4.1.3節で述べる.\subsubsection{必須格辞書の作成}本節では,必須格辞書の作成について述べる.\noindent\textbf{(ア)「不足格の問い返し応答」に適した深層格の定義}前述したように,必須格は深層格レベルで登録する.なぜなら,表層的には同じ「二格」であっても,それが「goal格」なのか「time格」なのかで尋ね方が異なる上に,深層格レベルで考慮しないと,どちらが必須格なのかを適切に判定できないためである.一般的に,表層格は「ガ」「ヲ」「二」「デ」「ト」「ヘ」「カラ」「ヨリ」「マデ」の9種類とする定義が広く用いられているのに対し,深層格については,どのような種類をどのような基準で認定するかの共通見解がない.そこで,我々は,EDR日本語共起辞書\cite{no45}において定められている意味的関係の定義をベースに深層格を定義した.具体的には,EDR日本語共起辞書において,名詞と動詞の間に付与されている「概念関係子」をベースに深層格を定義する.表7に,概念関係子の例を示す.\begin{table}[b]\caption{EDRにおける概念関係子の付与例}\label{table:7}\input{01table07.txt}\end{table}本論文では,「動詞の不足格を問い返す」という目的を鑑み,以下の考察に基づいて深層格を定義した.\begin{table}[b]\caption{表層格「ヲ」に付与された概念関係子objectの例}\label{table:8}\input{01table08.txt}\end{table}\noindent\textbf{\underline{1.概念関係子の細分化が必要}}例として,EDRで定義されている概念関係子objectに着目する.表層格「ヲ」に付与されたobject,および,表層格「ト」に付与されたobjectの例を,表8と表9に示す.EDRにおけるobjectの定義は「動作・変化の影響を受ける対象」であり,どちらもその定義に従っているが,意味的には,「ヲ」が示すobjectは動作の「対象」,一方,「ト」が示すobjectは動作の「相手」と考えられ,全く異なるものである.仮に,動詞「競い合った」を考えた際,「ヲ」が示すobject(=「対象」)が不足格であった場合,それを問い返す適切な応答は「何を競い合ったの?」であるのに対し,「ト」が示すobject(=「相手」)が不足格であった場合の適切な問い返し応答は「誰と競い合ったの?」となる.つまり,動詞の不足格を問い返すことを目的とした場合,動詞「競い合う」にとっての概念関係子objectを2種類の深層格に細分化する必要がある.このような細分化は,上記の例のように,異なる表層格に付与された概念関係子を対象とした場合だけではなく,同一の表層格に付与された概念関係子も対象となる.例えば,表10に示すような,表層格「ト」に付与された概念関係子goalに着目すると,上2つの動詞(一致する,関係する)では,不足格を尋ねる際に「〜と……?」と尋ねるのが自然なのに対し,下2つの動詞(なる,考える)では,「どう……?」と尋ねるのが自然である.\begin{table}[t]\caption{表層格「ト」に付与された概念関係子objectの例}\label{table:9}\input{01table09.txt}\end{table}\begin{table}[t]\caption{表層格「ト」に付与された概念関係子goalの例}\label{table:10}\input{01table10.txt}\end{table}\begin{table}[t]\caption{表層格「ヲ」に付与された概念関係子objectおよびbasisの例}\label{table:11}\input{01table11.txt}\end{table}\noindent\textbf{\underline{2.概念関係子の統合が可能}}また,格の尋ね方が同一かどうかの観点で考えると,異なる概念関係子を統合できる場合もある.例えば,表11に示すような,表層格「ヲ」に付与されている概念関係子objectおよびbasisの場合,どちらも「対象」を示しているが,動詞の意味が「過不足・優劣」などの場合はbasis,それ以外の場合にはobjectが付与されている.ここで,これらの格を尋ねる際には,いずれも「〜を……?」と尋ねるのが自然である.つまり,上記の観点では,これらの概念関係子は全て「〜を……?」と尋ねるobjectに統合可能と言える.以上の考察に基づき,本論文で定義した深層格の一部を表12に示す.\begin{table}[t]\caption{本研究で再定義した深層格(抜粋)}\label{table:12}\input{01table12.txt}\end{table}\noindent\textbf{(イ)必須格辞書の作成}(ア)で述べた定義に従い,動詞の必須格辞書を作成する.具体的には,以下の手順で作成した.\subparagraph{\underline{手順[1]}:}毎日新聞記事5年分(毎日新聞社1991--1995)\nocite{no46}を対象として,全ての文に対し係り受け解析を行い,〈格要素,格助詞,動詞〉を抽出する.\subparagraph{\underline{手順[2]}:}手順[1]の抽出結果に対し「格助詞置換分析法」\cite{no47}を用いて深層格の判別を行う.この手法は,格要素や動詞の意味属性情報に加え,当該動詞がどのような表層格のパターンを持っているか,別の表層格に置換可能であるかどうか,などの情報を統計的に獲得し,これらの情報を利用して,ルールベースにより深層格の判別を行うものである.具体的な処理を図7に示す.例として,「飛行機が成田空港を出発する」の「ヲ」格の深層格を判別する.\subparagraph{A)}まず,図7(A)に示す通り,上記の毎日新聞記事5年分から,「出発する」が持つ表層格パターンを抽出する.\subparagraph{B)}次に,「ガ−ヲ」の格パターンの「ヲ」が,別の表層格に置換されたパターンが存在するかどうかを検索する.その結果,「出発する」は「ガ−カラ」という「ヲ」が「カラ」に置換されたパターン,あるいは,「ガ−二」という「ヲ」が「二」に置換されたパターンを持つことが分かる.ここで,置換されたパターンが存在するかどうかは,シソーラス\cite{no48}から得られる格要素の意味属性を利用して判断する.\subparagraph{C)}最後に,図7(C)に示す通り,あらかじめ作成した深層格判別ルールに従い,「ヲ」の深層格が「source」であると判別する.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f7.eps}\end{center}\caption{格助詞置換分析法\protect\cite{no47}の概要}\label{fig:7}\end{figure}なお,EDR日本語共起辞書内で付与されている概念関係子を,本研究で再定義した深層格体系(表12)に人手で変換したデータ685事例(e.g.,変換前:「群衆と握手する(ト=object)」⇒変換後:「群衆と握手する(ト=partner)」)を深層格の正解データとし,上記提案手法の深層格判別精度を評価した結果,判別精度は75.7\%であった.\subparagraph{\underline{手順[3]}:}手順[2]の結果を動詞ごとにまとめ,それぞれの深層格について頻度が一定以上あるものを当該述語の必須格とする.\subparagraph{\underline{手順[4]}:}手順[3]で必須格と判断された深層格それぞれについて,シソーラスを用いて,出現した全ての格要素の意味属性を【人/場所/人工物/…】といったレベルで判別する.\subparagraph{\underline{手順[5]}:}手順[4]で得られたそれぞれの意味属性を【人⇒誰/場所⇒どこ/物⇒何/…】のように,尋ねる際に最適な疑問詞に置換し,最頻出の疑問詞を,当該深層格を尋ねる際に最適な疑問詞として登録する.なお,受動態や使役態の場合は,能動態とは必須格が異なる.しかし,本論文で作成した深層格判別ルールは能動態のみにしか対応していない.したがって,例えば,ユーザ発話「ずいぶんと怒られたよ」に対し,「誰に怒られたんですか?」といったような不足格の問い返し応答は生成できない(2.2節で述べたように,「怒られたんですか.」という繰り返し応答の生成は可能).この点については,今後の課題とする.\subsubsection{不足格の判別手法}本節では不足格の判別手法について述べる.音声認識誤りがない場合には,入力された〈格要素,格助詞,動詞〉を用いて4.1.2節と同様の方法で深層格解析をし,不足格を尋ねる応答を生成する方法をとることができるが,我々のタスクでは〈格要素,格助詞,動詞〉の全てが閾値以上の信頼度で認識できるとは限らない.特に,格要素の信頼度が低いと判定され抽出されなかった場合には,深層格解析を行うことができない.しかし,このような場合であっても,格助詞と動詞の信頼度が高いと判定された場合には,表層格レベルでの不足格判別は可能である.したがって,ここでは,格要素も含めて信頼度が高いと判定されたかどうかに関わらず,格助詞と動詞のみを用いて,表層格の情報に基づいた不足格の判別を行う.具体的には,以下の手順で行う.例として,ユーザ発話「北海道に行ったよ」に対し,認識信頼度判定の結果,格助詞「二」,および,動詞「行く」のみが,信頼度が高いと判定されて抽出された場合を考える.\paragraph{\underline{手順[1]}:}信頼度が高いと判定された動詞について,4.1.2節で述べた手法により作成された必須格辞書を検索し,それぞれの必須格について,当該深層格を表現し得る全ての表層格に置き換える.上記の例では,動詞「行く」の必須格として登録されている深層格「goal」および「partner」を,対応する全ての表層格「二・ヘ」および「ト」に置き換える.\paragraph{\underline{手順[2]}:}手順[1]で置き換えた表層格のいずれもがユーザ発話に含まれていない深層格に限り,当該必須格を不足格と判別する.上記の例では,表層格「二」が含まれているため,深層格「goal」はユーザ発話に含まれており,深層格「partner」が不足格であると判断して,不足格を問い返す応答「誰と行ったんですか?」を生成する.前述したように,音声認識において,格助詞は他の単語に比べて誤認識されやすい.また,話し言葉においては格助詞の省略も頻繁に起こる.これらに対する提案手法の有効性に関して考察する.まず,音声認識誤りに関して,ユーザ発話「北海道に行ったよ」の認識が難しく,認識候補の上位に格助詞「に」が認識されなかった場合を考える.仮に,単純に1bestの認識結果に対して,上記の不足格判別手法を適用したとすると,「goal」は不足格であると判別され,「どこに行ったんですか?」という誤応答が生成されてしまう.しかし,提案手法では,3.2節でも述べたように,認識結果の10bestを利用し,格助詞については,認識信頼度判定の閾値を低い値に,つまり,「当該格助詞がユーザ発話に含まれている」と判定しやすい値に設定してある.したがって,上位の認識結果では格助詞「二」が認識されていなかったとしても,10best内の下位の認識結果では認識されており,単語認識信頼度の合計が閾値以上であれば,格助詞「二」は認識信頼度が高いと判定され抽出される.これにより,「goal」は不足格ではないと判別され,「どこに行ったんですか?」という誤応答の生成を防ぐことが可能となる.次に,格助詞の省略に関しては,例えば,「北海道行ったよ」といった発話の場合,提案手法で手がかりとする格助詞(この例では「二」)が,信頼度が高い結果として抽出されることは考えにくいため,実際には「goal」が含まれているにも関わらず誤って不足格であると判別される.この発話に対して,「goal」が含まれていることを正しく判別するためには,格要素(北海道)の意味属性から深層格を理解するような手法や,省略された格助詞を補完するような技術の開発が必要となる.この点については今後の課題とする.\subsection{辞書を用いた適切性判別に基づく問い返し応答の生成アルゴリズム}本節では,辞書を用いた適切性判別に基づく問い返し応答の生成アルゴリズムについて述べる.前述したように,この応答には,「格要素の詳細」「感想」「感情・形容表現に対する理由」をユーザに尋ねる3種類の応答がある.以下,それぞれについて述べる.\subsubsection{格要素の詳細を尋ねる問い返し応答の生成アルゴリズム}まず,ユーザ発話「お花を貰った」に対するシステム応答「どんなお花ですか?」といったような,格要素の詳細を尋ねる問い返し応答の生成アルゴリズムについて述べる.\paragraph{\underline{手順[1]}:}Webテキスト\cite{no38}において,格要素の詳細を尋ねる際の疑問詞(「どんな」「何の」「どこの」の3種類)と係り受け関係にある名詞の頻度をカウントする.\paragraph{\underline{手順[2]}:}手順[1]で各疑問詞との係り受け関係が頻度閾値以上の名詞については,当該疑問詞で詳細を尋ねることが適切であると判定する.\begin{table}[b]\caption{詳細を尋ねることが適切であると判定された格要素の例}\label{table:13}\input{01table13.txt}\end{table}表13に,登録されている名詞の例を示す.表13の(a)は疑問詞「どんな」との係り受け関係が閾値以上で出現した名詞で,例えば『どんな動物なの?』『どんなドラマなの?』などの応答を生成する.しかし,当該名詞がユーザ発話に含まれたとしても,ユーザ発話には既にその詳細についての情報が含まれている可能性がある.そこで,ここでは,信頼度が高いと判定された格要素を含む認識候補について,当該格要素の直前に「形容詞」「形容動詞」または「〜の」が存在する認識候補が1つでも存在すれば,ユーザ発話には既に格要素の詳細についての情報が含まれていると判断し,格要素の詳細を尋ねる問い返しの生成は行わない.\subsubsection{感想を尋ねる問い返し応答の生成アルゴリズム}次に,ユーザ発話「お花を貰った」に対してシステム応答「どうでしたか?」というユーザ発話の感想を尋ねる問い返し応答の生成アルゴリズムについて述べる.我々のシステムでは,言語モデルに含まれる述語を対象に,感想を尋ねることが自然であるかどうかを人手により判断してもらい,「感想を尋ねることが不自然な述語の辞書」を構築した.辞書の一部を表14に示す.我々のシステムは,ユーザ発話の最終述語がこの辞書に登録されていない場合に,感想を尋ねる問い返し応答を生成する.例えば,ユーザ発話が「お花を貰ったの」の場合には「貰った」は辞書に登録されていないため「どうでしたか?」という発話を生成するが,ユーザ発話が「ムキになったの」の場合には表14に示す辞書に「ムキになる」が登録されているため「どうでしたか?」というシステム発話は生成しない.\begin{table}[b]\caption{感想を尋ねることが不自然であると人手により判断された述語の例(エントリ数:422)}\label{table:14}\input{01table14.txt}\end{table}ただし,「ディズニーランドに行った」の場合は「どうでしたか?」と尋ねることが適切だが,「食堂に行った」のように日常的な事態に関しては「どうでしたか?」と尋ねることは適切でないというように,感想を尋ねることが適切かどうかの判断は,述語のみではなく格要素などの情報も考慮した上で行う必要がある.この点に関しては今後の課題である.\subsubsection{感情・形容表現に対する理由を尋ねる問い返し応答の生成アルゴリズム}最後に,ユーザ発話「楽しかったよ」に対するシステム応答「どうして楽しかったんですか?」のような,感情・形容表現に対する理由を尋ねる問い返し応答の生成アルゴリズムについて述べる.提案手法では,「人手により,理由を尋ねることが適切であると判定された感情・形容表現」が登録された辞書に基づき,当該応答の適切性を判定する.登録されている感情・形容表現の例を表15に示す.\begin{table}[b]\caption{理由を尋ねることが適切であると人手により判断された感情・形容表現の例(エントリ数:130)}\label{table:15}\input{01table15.txt}\end{table}ただし,ユーザ発話に,既に当該感情・形容表現に対する理由が含まれている可能性があるため,単純に辞書に登録されているかどうかのみで応答生成の適切性を判定することはできない.そこで,ここでは,信頼度が高いと判定された感情・形容表現を含む認識候補について,当該感情・形容表現の直前に,「ので」「から」などの接続詞が存在する認識候補が1つでも存在すれば,ユーザ発話には既に理由が含まれると判断し,当該応答の生成は行わないこととした.
\section{共感応答の生成アルゴリズム}
本章では,共感応答の生成アルゴリズムについて述べる.\subsection{応答生成アルゴリズムの概要}図8に共感応答の生成アルゴリズムの概要を示す.3.2節で述べたように,本論文では,前段で認識誤りを含む認識結果を棄却するのではなく,「誤認識結果が含まれる場合でも適切に感情推定を行う」手法を提案する.具体的には,「感情推定の際に重要となるキーワードが正しく認識されていれば,複数の認識候補に共通して出現し,それらの認識候補に対する感情推定結果は同一となる」という仮説に基づき,前段の認識信頼度判定アルゴリズムにより得られた3つの認識候補に対して感情推定を行い,多数決,および,閾値判定に基づき,得られた感情推定結果が適切であるかどうかを判断する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f8.eps}\end{center}\caption{共感応答の生成アルゴリズムの概要}\label{fig:8}\end{figure}\paragraph{\underline{手順[1]}:}認識信頼度判定により得られた3つの各認識結果に対して,5.2節で述べる手法によりユーザの感情を推定する.その際,それぞれの感情推定結果には信頼度(0〜1)が付与される.また,具体的な感情のレベル(e.g.,嬉しい/恐い)での推定結果が高信頼度で得られた場合は当該結果が出力されるが,推定信頼度が低い場合には,感情極性のレベル(ポジティブ/ネガティブ/ニュートラル)で出力される.\paragraph{\underline{手順[2]}:}3つの認識候補毎に得られた推定結果について,感情と感情極性ごとに信頼度の和を算出し,値が最大,かつ,閾値以上の信頼度を持つ結果を,ユーザ発話に対する感情推定結果とする.もし閾値を以上の信頼度を持つ結果がなければ,感情極性はニュートラルとする.\paragraph{\underline{手順[3]}:}手順[2]で得られた最終的な推定結果を用いて共感応答を生成する.具体的には,最終的な推定結果が「嬉しい」であれば,「それは嬉しいですね」という応答が生成され,最終的な推定結果が「ポジティブ」であれば,「それはいいですね」という応答が生成される.一方,最終的な推定結果が「ニュートラル」の場合は,共感応答は生成しない.これにより,大きな感情の変化が起きない内容のユーザ発話(e.g.,電話をした)や,誤認識により信頼できる感情推定結果が得られなった場合に,不適切な共感応答を生成することを防ぐことができる.\subsection{感情推定アルゴリズム}ここでは,感情推定アルゴリズムについて説明する.本論文では,徳久らの手法\cite{no12}により感情推定を行う.具体的には,感情推定を「ユーザ発話をある感情クラスに分類する問題」ととらえ,大量の学習データに基づく機械学習によりこの問題を解く手法である.ここで,我々は,システムがユーザに共感していることをより明確に示すために,単に感情極性(ポジティブ,ネガティブ,ニュートラル)を推定するだけではなく,より具体的なレベルでの感情(「嬉しい,楽しい,安心,怖い,悲しい,残念,嫌,寂しい,不安,腹立たしい」の10クラス)を推定する.感情推定は,次の3つの処理により実現する.\noindent\textbf{\underline{処理1:感情生起要因コーパスの作成}}機械学習を行う際の学習データとなる感情生起要因コーパスを作成する.感情生起要因コーパスとは,ある事態に対してどのような感情が生起するかが記述されたコーパスであり,\textbf{{}感情が生起する要因となる事態\textbf{}}と〈感情〉とで構成される.まず,獲得対象とする感情表現を定義する.寺村\cite{no51}は,感情表現に関して,『X=感情主,Y=対象,Z=当該語のとき,「XはYをZ」「XはYにZ」「XはYがZ」のいずれかの表現ができれば,Zは感情表現である.』と定義している.この定義を参考にして,小林らの評価値表現辞書\cite{no52}から感情表現を抽出した結果,349語の感情表現を得た.表16に,感情ごとの感情表現の数と例を示す.\begin{table}[b]\begin{center}\caption{感情ごとの感情表現の数と例}\input{01table16.txt}\end{table}次に,図9に示す言語パターンを用いてWebコーパスから自動的に感情生起要因を獲得する.獲得の手がかりとする感情表現には表16の349語を,接続表現には右記の8種類(ので,から,ため,て,のは,のが,ことは,ことが)を用いる.例えば,「突然雨が降り出したのはがっかりだ」という文からは,〈がっかり〉が生起する要因として\textbf{{}突然雨が降り出した\textbf{}}を獲得する.この方法で,河原らのWeb5億文コーパス\cite{no38}から感情生起の要因を獲得した結果,約130万件の感情生起要因が獲得された.表17に10種類の感情ごとの感情生起要因の獲得数を示す.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f9.eps}\end{center}\caption{感情生起要因を獲得するための言語パターン}\label{fig:9}\end{figure}\begin{table}[b]\caption{感情生起要因コーパスの規模}\label{table:17}\input{01table17.txt}\end{table}\noindent\textbf{\underline{処理2:感情極性のレベルでの推定}}上記で作成した感情生起要因コーパスを学習データとして,感情生起要因コーパスに含まれるポジティブの事例とネガティブの事例を用いて感情極性推定モデルを構築し,ユーザ発話の感情極性推定結果が感情極性推定モデルの分離面に近い場合にニュートラルと推定する.感情極性の推定に関しては,さまざまな手法が提案されている\cite{no53,no33,no54}.これらを参考にして,我々は単語を特徴量として文の感情極性を推定する.図10に「福祉の費用の負担が増えてしまう」という感情極性がネガティブである文を形態素単位で記述した例を示す.図10の例について3-gram以下の列を展開すると,「福祉,福祉の,福祉の費用,の,の費用,…」などが得られる.これらを素性としてSVMで学習し感情極性推定モデルを構築する.判別した結果,SVMのスコアが正,かつ,閾値以上ならば感情極性はポジティブ,スコアが負,かつ,閾値以下ならば感情極性はネガティブ,それ以外ならばニュートラルを出力する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f10.eps}\end{center}\caption{形態素列の例}\label{fig:10}\end{figure}\noindent\textbf{\underline{処理3:具体的な感情のレベルでの推定}}ここでは,ポジティブ,および,ネガティブのそれぞれを細分類化し,処理2と同様に機械学習によりユーザ発話に対する感情を推定する.表16に示すように,我々は先行研究\cite{no55,no56}による知見を考慮し,ポジティブな感情として\textbf{{}嬉しい,楽しい,安心\textbf{}}の3種類,ネガティブな感情として\textbf{{}恐い,悲しい,残念,嫌,寂しい,心配,腹立たしい\textbf{}}の7種類の感情を対象として感情推定を行う.SVMは2クラス判別器が,多クラスへの分類を行うため,図11に示す2種類の方式を試す.一般に,大量のデータから少量の事例を識別することは難しい.図11の〈方式1〉は,表17に示す感情生起要因の獲得数を考慮して事例の多い順に識別モデルを配置した方式である.まず入力文が\textbf{{}嫌\textbf{}}か\textbf{{}嬉しい,残念,楽しい,恐い,不安,寂しい,腹立たしい,悲しい,安心\textbf{}}かを判別し,続いて\textbf{{}嬉しい\textbf{}}か\textbf{{}残念,楽しい,恐い,不安,寂しい,腹立たしい,悲しい,安心\textbf{}}かを判別し,さらに\textbf{{}残念\textbf{}}か\textbf{{}楽しい,恐い,不安,寂しい,腹立たしい,悲しい,安心\textbf{}}かを判別する.このような方法で判別を繰り返し,最後に\textbf{{}悲しい\textbf{}}か\textbf{{}安心\textbf{}}かを判別する.一方,図11の〈方式2〉は,感情極性(ポジティブまたはネガティブ)を判別した上で,感情生起要因の獲得数を考慮して判別モデルを配置した方式である.感情極性の推定には処理2で構築したモデルを用いる.方式1と方式2のどちらの方法を採用するかについては,5.3節で評価実験を行い,その結果を踏まえて決定する.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f11.eps}\end{center}\caption{感情推定の判別モデル}\label{fig:11}\end{figure}\subsection{感情推定アルゴリズムの評価}本節では,5.2節で述べた感情推定アルゴリズムのそれぞれのモジュールを評価する.\noindent\textbf{\underline{評価1:感情生起要因コーパスの構築精度の評価}}感情生起要因コーパスの評価のため,ランダムに2,000事例を抽出し,獲得した感情生起要因の精度を調べた.評価は,感情生起要因コーパスの獲得に関わっていない評価者1名で行った.表18に評価結果を,表19に具体例を示す.表18および表19の「感情極性」は獲得した事態が実際にその感情極性であったかどうかを評価した結果を,「感情」は獲得した事態が実際にその感情を表すかどうかを評価した結果である.また,「正例」は“正例”,「文脈依存」は“文脈によっては正例”,「負例」は“負例”を示す.\begin{table}[t]\caption{感情生起要因コーパスの評価}\label{table:18}\input{01table18.txt}\end{table}\begin{table}[t]\caption{感情生起要因コーパスの評価の例}\label{table:19}\input{01table19.txt}\vspace{-0.5\Cvs}\end{table}表18に示す通り,感情極性については,57.0\%が正例,文脈によって正例となる事例も加えると90.9\%の事態が正例であった.また,感情に関しては,49.4\%が正例,文脈によって正例となる事例を加えると73.9\%が正例であった.負例について分析したところ,表19の「ジュースが飲みたい」と「大変だ」のように,本来は係り受け関係にない従属節と感情表現が係り受け解析誤りにより獲得されることが原因であることが分かった.感情生起要因コーパスの精度が十分かどうかは,感情生起要因コーパスを用いた感情推定精度を評価して初めて言及できるが,大規模で比較的信頼性の高いコーパスが構築できたと考えている.\noindent\textbf{\underline{評価2:感情極性推定の評価}}感情極性推定の精度を評価するため,以下の2つのテストセットを構築した.\subparagraph{TestSet1:}1つ目は,システムの開発者以外の弊所所員6名がキーボード対話によるプロトタイプ対話システムに入力した発話に対して話者自身が感情極性を付与した65発話である.これらには,ポジティブ31発話,ネガティブ34発話が含まれる.\subparagraph{TestSet2:}2つ目は,表18で感情極性が正例の1,140事例(ポジティブ491事例,ネガティブ649事例)事例である.なお,実験の際は,感情極性推定モデルはこれらを除いた事例で学習する.上記のテストセットで評価した結果を表20に示す.数値はF値を算出した結果である.感情極性推定精度に関しても,この精度で十分かどうかは言及しにくいが,特徴量は単語n-gramという非常にシンプルなものであるものの,1)大規模な学習コーパスを利用したことで比較的高精度であること,2)音声認識による対話システムへの実用化を想定した場合には,単語n-gramのようなシンプルな特徴量の方が利用しやすいという2つの理由から,実用的な感情極性推定モデルが構築できたと考えている.\begin{table}[b]\vspace{-0.5\Cvs}\caption{感情極性推定結果(F値)}\label{table:20}\input{01table20.txt}\end{table}\noindent\textbf{\underline{評価3:感情推定の評価}}以下の3つのテストセットを用いて感情推定の評価実験を行う.\subparagraph{TestSet1:}1つ目は,感情極性の評価実験のTestSet1(65発話)に対して,作業者2名が10種類の感情クラスを独立に付与したものである.なお,ある発話に対して複数の感情が該当する場合には,もっとも適切な感情クラスをひとつ選択した.作業者の付与した感情の一致率は$\kappa=0.76$であった.評価では,作業者のひとり以上が付与した感情が出力されれば正解とした.表21に例を示す.\begin{table}[b]\caption{2名の作業者による感情クラス付与の例}\label{table:21}\input{01table21.txt}\end{table}\subparagraph{TestSet2:}2つ目は,感情極性の評価実験のTestSet1(65発話)に対して,作業者1名が10種類の感情クラスを付与したものである.ある発話に対して複数の感情が該当する場合には,該当する感情クラスをすべて付与した.その結果,ポジティブの発話に対しては平均1.48個,ネガティブの発話に対しては平均2.47個の感情クラスが付与された.表22に例を示す.\subparagraph{TestSet3:}3つ目は,表18で感情が正例の988事例である.実験の際は,感情推定モデルはこれらを除いた事例で学習する.評価結果を表23に示す.表23の「感情推定」は図11の方式1の結果を,表23の「感情極性+感情推定」は図11の方式2の結果を示す.表23の結果から,どのテストセットにおいても感情極性を推定した上で感情クラスを推定するという図11の方式2の精度が高かった.したがって,次章以降の評価実験では,方式2の方法により感情推定するモデルを採用し,共感応答を生成する.\begin{table}[t]\caption{1名の作業者による感情クラス付与の例}\label{table:22}\input{01table22.txt}\end{table}\begin{table}[t]\caption{感情推定の評価実験結果(Accuracy)}\label{table:23}\input{01table23.txt}\end{table}
\section{評価実験}
提案した傾聴システムの評価するため,20〜70代の男女110名の一般被験者に対する評価実験を行った.本章では,評価実験結果について述べる.\subsection{実験条件}まず,表24に,実験に参加した110名の内訳を示す.\begin{table}[b]\caption{実験参加者の性別・年代別の内訳}\label{table:24}\input{01table24.txt}\end{table}次に,実験設定について説明する.対話ロボットとしては犬型ロボットAIBO(ソニー製,型番:ERS-210)を用いた.対話実験は防音室内で行い,実験進行と対話システムの開始・終了作業は,オペレータが防音室外で行った.防音室内には椅子とテーブル,オペレータが被験者に実験開始終了を伝えるためのスピーカを設置し,テーブル上に,ロボット,および,ロボットの声を出すためのスピーカを設置した.被験者は椅子に座り,単一指向性のヘッドセットマイク(オーディオテクニカ製,型番:ATM75)を装着して,ロボットに向かって発話した.また,話しかけやすさを考慮し,常時,ロボットのしっぽを左右に動かした.さらに,ロボットが話を聴いていると被験者が感じるように,相槌を生成する際には,ロボットの耳が動くようにした.なお,これらのロボットの動作音,および,音声合成音は,ヘッドセットマイクに入り込まない十分小さな音であった.本実験では,回想法におけるテーマとして「1:印象深い旅行」と「2:子どもの頃の遊び」の2種類の話題を用意し,それぞれの話題について1回ロボットと対話をしてもらった.各話題において,対話は,以下の2つのシステム発話でスタートする.\begin{enumerate}\item「これまでの印象深い旅行についてお聞かせ下さい.これまでにどこに行きましたか?」\item「子どもの頃の遊びについてお聞かせ下さい.子どもの頃,何をして遊びましたか?」\end{enumerate}被験者への教示としては,「各話題について,対話を終了したくなったら『バイバイ』という発話でいつでも対話の終了が可能である」ことを示したのみで,事前に練習しなかった.これは,事前練習が評価に影響することを避けるためである.以上の実験設定のもと,被験者には5章までに述べた方法で構築した傾聴システムとの対話を体験してもらい,実験終了後,アンケートによる主観評価や意見を収集した.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f12.eps}\end{center}\caption{継続対話時間に関するヒストグラム}\label{fig:12}\end{figure}\subsection{継続対話時間}はじめに,継続対話時間に関する評価結果について述べる.対話が長く継続するということは,「より多くのことを話せるように助ける」という傾聴の本質的な点であり,システムの重要な客観的評価基準の一つと考えられる.なお,ここでの継続対話時間とは,上記2種類の各話題において,システム側からのスタートの発話からユーザが対話を終了させる(=「バイバイ」と発話)までの時間のことである.継続対話時間に関する結果を図12に,また,継続対話時間毎の平均発話数,および,平均発話単語数を表25,表26に示す.話題が「印象深い旅行」の場合は,45.5\%(50/110)の被験者が2分以上(ユーザ発話数の平均12.40)対話を継続していた.一方,話題が「子どもの頃の遊び」の場合,95.5\%(105/110)の被験者が2分以内(ユーザ発話数の平均4.76)に対話を終了していた.対話継続時間の平均はそれぞれ,1分46秒,1分8秒であり,「印象深い旅行」の方が対話が継続しやすいことがわかった.これは,話題が「印象深い旅行」の場合,旅先で自分がとった行動を思い出すことにより,話す内容がスムーズに思い浮かびやすいのに対し,話題が「子どもの頃の遊び」の場合,「何をして遊んだか?」を答えた後,何を話して良いのかなかなか思い浮かばないことが原因の一つとして考えられる.継続時間について何分以上なら良いというような絶対評価を行うことは難しいが,旅行の話題では3分以上対話が継続した被験者が観察されるなど,ロボットでも比較的長い時間傾聴を行えることが分かった.\begin{table}[t]\caption{継続対話時間毎の平均発話数,および,平均発話単語数(印象深い旅行)}\label{table:25}\input{01table25.txt}\end{table}\begin{table}[t]\caption{継続対話時間毎の平均発話数,および,平均発話単語数(子どもの頃の遊び)}\label{table:26}\input{01table26.txt}\end{table}なお,1分以内に対話が終了してしまった事例を分析したところ,主に,次の2つの現象が見られた.\begin{description}\item[(1)最初のユーザ発話に対して,誤認識により不適切な応答を生成している]\mbox{}\\例1Usr:公園でよく遊びました.⇒Sys:いつを過ぎたんですか?\\例2Usr:鬼ごっこをして.⇒Sys:子猫ですか.\\例3Usr:え?っと,留学と旅行ですね.⇒Sys:遊学ですか.\item[(2)システムから問い返し応答がないため,ユーザが次に何を話して良いか分からない]\mbox{}\\例1Usr:ショッピングです.⇒Sys:ショッピングですか.\\例2Usr:かくれんぼ.⇒Sys:かくれんぼですか.\end{description}いずれの場合も,ユーザが早々に「対話がつまらない」と感じて対話を終了させた(『バイバイ』と発話した)と考えられる.ここで,(1)については,6.1節で述べたように,システムから「これまでにどこに行きましたか?」や「何をして遊びましたか?」と話し始め,最初のユーザ発話の認識が高精度で行えるようにユーザ発話を誘導したにも関わらず,誤認識した事例である.誤認識を防ぐ手段として,認識信頼度判定の閾値を高くすることも考えられるが,その場合のシステム応答は相槌となり,ユーザに最初に与える印象が改善されるとは考えにくい.したがって,音声認識性能の向上が重要な課題となる.一方,(2)については,音声認識精度ではなく,対話を継続させるための応答生成の課題である.(2)の例にあるように,名詞(格要素)のみが発話された場合,提案手法では,問い返し応答として,適切と判断された場合にのみ,その詳細を尋ねる応答しか生成されない.したがって,この例のように,「どんな」や「どこの」などの疑問詞で問い返すことが不適切だと判定された場合には,その名詞について話題を広げることができない.このような事例の対策としては,例えば,(2)例2で,「かくれんぼ」と「鬼ごっこ」は関連が深い,という知識を利用して,「かくれんぼですか.鬼ごっこもしましたか?」といった問い返し応答を生成することなどが考えられる.また,本論文では,ユーザの1発話のみを利用して応答を生成しているが,過去のユーザ発話を利用することにより,さらに多様な応答生成が可能になると考えられる.その際には,ゼロ代名詞などの省略された情報の補完が重要な課題となる.今後は,例えば,今村らの手法\cite{no49}を用いてゼロ代名詞照応解析により項を補完した上で応答生成を行うことなども検討していきたい.\subsection{応答正解率}次に,応答正解率に関する評価結果について述べる.110名の被験者以外の2名の評価者が,ユーザ発話とそれに対するシステム応答の全ペアに対し,応答の適切性を主観で判断し,両名が共に「適切」と判定したシステム応答のみを正解とした.なお,相槌が生成されている場合は,「相槌応答」として分類した.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f13.eps}\end{center}\caption{生成されたシステム応答の分類結果}\label{fig:13}\end{figure}まず,図13に,生成されたシステム応答の「正解応答」「誤応答」「相槌応答」の割合を示す.なお,後述するように,相槌応答についても「適切」「不適切」の分類を行っている.図13から,実験における相槌応答は全体の38.0\%($34.9+3.1$),また,相槌応答を除く応答を対象にした応答正解率は68.06\%(42.2/62.0)であった.以降では,まず,相槌を除く応答を対象に考察を行い,次に,相槌も含めた応答全体についての考察を行う.図14に,相槌を除く応答を対象にした,年代別/男女別の応答正解率の結果を示す.この結果から,男女別では女性に対する応答正解率が,年代別では20代〜40代に対する応答正解率が相対的に高いことが分かる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f14.eps}\end{center}\caption{相槌を除く応答を対象にした応答正解率(男女別/年代別)}\label{fig:14}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f15.eps}\end{center}\caption{生成されたシステム応答種別毎の割合}\label{fig:15}\end{figure}次に,図15に,生成されたシステム応答種別毎の割合,および,図16に,システム応答種別毎の正解率を示す.図16から,共感応答(e.g.,それは良かったですね.),および,感情・形容表現の理由を尋ねる問い返し(e.g.,どういう所がおもしろかったんですか?)については約80\%程度と高い精度が得られているが,不足格判別に基づく問い返し(e.g.,どこで遊んだんですか?)については,他の応答種別と比べ著しく精度が低いことが分かる.ここで,共感応答,および,感情・形容表現の理由を尋ねる問い返しの精度が高い理由としては,次のことが考えられる.\begin{figure}[t]\begin{center}\includegraphics{24-1ia1f16.eps}\end{center}\caption{生成されたシステム応答種別毎の応答正解率}\label{fig:16}\end{figure}\begin{itemize}\item共感応答は,認識結果を直接的に用いて応答を生成するのではなく,感情推定結果を利用するため,仮に誤認識結果が含まれていたとしても,感情推定結果として正しければ適切な共感応答が可能となる.\item感情・形容表現の理由を尋ねる問い返しは,最終述語が「おもしろい」や「楽しい」の場合に生成されるが,このようなユーザ発話は,システムからの「感想を尋ねる応答(e.g.,〜に行ったんですか.どうでしたか?)」に対して発話されることが多く,しかも多くの場合は,「楽しかったよ」といった短い発話でユーザが返答するため,精度良く認識することが可能となる.また,当該応答の生成が適切であるかどうかを判定するための辞書は人手により作成されているため,辞書の精度も高い.\end{itemize}一方,不足格判別に基づく問い返しの応答精度が低い理由としては,誤認識結果を利用した応答が生成されていることに加え,次のことが挙げられる.\begin{description}\item[(1)格情報が含まれているにも関わらず,当該格を不足格と判別してしまう]\mbox{}\\例1Usr:ご飯を食べたりしました⇒Sys:何をしたんですか?\\例2Usr:缶蹴りしました⇒Sys:何をしたんですか?\item[(2)最終述語が「〜した」の場合に,「した」のみを最終述語として抽出してしまう]\mbox{}\\例1Usr:ご飯を食べたりしました⇒Sys:何をしたんですか?\\例2Usr:缶蹴りしました⇒Sys:何をしたんですか?\item[(3)深層格解析エラーにより,必須格辞書に誤りがある]\mbox{}\\例Usr:海で泳ぎました⇒Sys:どこを泳いだんですか?\end{description}ここで,(1)の例1は,ユーザ発話中の格助詞「二」が,認識信頼度判定アルゴリズムによって「信頼できない」と判定され,結果として不足格と判別された例である.4.1.3節で述べた通り,我々の提案手法では,格助詞の音声認識誤りが極力少なくなるような対策をしているが,(1)の例1のような事例も観察された.誤応答を減らすためのシステム改良は今後も続けていきたい.また,(1)の例2は,ユーザ発話において格助詞が省略されたことにより,不足格判別を誤った例である.4.1.3節でも述べたように,このような場合の不足格判別については今後の課題である.一方,(2)の例については,2つとも,最終述語が適切に抽出できなかった例である.2.2節で述べた通り,「最終述語の不足格判別に基づく問い返し」はユーザ発話の最終述語が動詞,もしくは,「サ変名詞+する」の場合に生成されるが,上述の事例のように,「する」はサ変名詞以外の品詞と接続する場合も多い.最終述語の抽出精度の向上については今後の課題である.最後に,(3)の例については,深層格解析エラーにより,必須格辞書に誤りがある例である.具体的には,動詞「泳ぐ」について,深層格解析の段階で,「〜で泳ぐ」の格助詞「デ」を深層格「place(act)」として,一方,「〜を泳ぐ」の格助詞「ヲ」を深層格「object」として解析し,双方ともが必須格として登録されたため,既に泳いだ「場所」が発話されたにも関わらず,その情報を誤って不足格として問い返している.この例については,「デ」「ヲ」共に「動作の場所」を表す深層格であることを適切に解析する,というように,深層格解析の精度向上が必要である.ここまでで,「相槌応答」を除いた応答を対象に述べてきた.次に,「相槌応答」も含めた応答全体について述べる.我々は,誤認識を含む場合でもロバストに応答を生成する手法として,認識信頼度を判定し,信頼度が低い場合には相槌を生成することで,誤認識結果を用いた応答生成を防ぐ手法を提案した.しかし,ユーザが発話を終える前に生成された相槌(e.g.,Usr:子供のころは,す……⇒Sys:そうですか),あるいは,システム応答が聞き取れずユーザがシステムに問い返した際に生成された相槌(e.g.,Usr:はい?⇒Sys:そうですか)などは,誤認識結果を用いた応答ではないものの,応答として不適切であると考えられる.今回の実験で生成された相槌応答(応答全体の38.0\%)の中に,このような不適切な相槌が8.04\%(応答全体の3.1\%)含まれていた.前者については,発話の区切りを検出する性能の向上,後者については,ユーザ発話が問い返しであるかどうかを判定する機能の構築が必要である.以上を踏まえて,適切な相槌も含めた応答正解率は77.1\%であった.また,図17に,適切な相槌も含めた年代別/男女別の応答正解率を示す.男女別,年代別で,応答正解率に極端に大きな差はないが,男性では50,70代,女性では40代の応答正解率がやや低いことがわかる.最後に,図18に,年代別/男女別の相槌応答の割合を示す.これより,20,30代,および,50,60代の女性については,相槌応答の割合が低く,一方,70代については,男女ともに相槌応答の割合が高いことが分かる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f17.eps}\end{center}\caption{適切な相槌も含めた応答正解率(男女別/年代別)}\label{fig:17}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f18.eps}\end{center}\caption{相槌応答の割合(男女別/年代別)}\label{fig:18}\end{figure}\subsection{アンケートによる主観評価結果}『システムと話してみて,満足度はどのくらいでしたか?』という質問に対する,年代別/男女別の結果を図19に示す.全体的に女性の評価が高かったことがわかる.特に50代以上の女性と70代の男性の満足度は相対的に高く,高齢者に対して有効なシステムとなる可能性が示唆された.その中でも70代については,相槌応答の割合が高く(図18),単調な対話であったにも関わらず,満足度が顕著に低下していないことから,単調な対話でも受容性が高いことも示唆された.40代女性の評価が低いのは,50,60代の女性と比べて応答正解率が低い(図17),および,相槌応答の割合が高い(図18)ことが原因と考えられる.一方,男性については,30,40代の被験者の評価が他の年代に比べて相対的に低く,満足感は与えられていないことがわかった.ただし,女性の結果とは異なり,30,40代の男性に対する応答正解率が低い,あるいは,相槌応答の割合が高い,といった傾向は見られない.この点についての要因の解明は,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f19.eps}\end{center}\hangcaption{設問『システムと話して,満足度はどのくらいでしたか?』に対する主観評価結果(男女別/年代別)}\label{fig:19}\end{figure}\begin{table}[b]\centering\caption{ユーザから得られた自由記述の感想(抜粋)}\label{table:27}\input{01table27.txt}\end{table}また,実験後,ユーザから得られた自由記述の感想の抜粋を,表27に示す.表27のネガティブな意見や対話ロボットへの要望については,今後の開発に生かしたい.\begin{figure}[b]\begin{center}\includegraphics{24-1ia1f20.eps}\end{center}\caption{実際の対話例}\label{fig:20}\end{figure}\subsection{実際の対話例}最後に,実際の対話例\cite{no50}を図20に示す.なお,図中のシステム応答「そこで何をしたんですか」「そこで他になにをしましたか?」「他には何をしましたか?」については,本実験で対象とした2つの話題に合わせて,問い返し応答として用意した定型応答であり,ユーザが沈黙した場合などに発話を促すために生成される.この結果より,対話が大きな破綻なく継続していることがわかる.
\section{まとめ}
本稿では,回想法の効果による高齢者の認知症予防や,独居高齢者の孤独感の軽減,あるいは,若い世代のストレス軽減,などへの貢献を目的として,音声対話ロボットのための傾聴システムの開発について述べた.ユーザ発話中の述語の不足格判別などによる「繰り返し/問い返し応答」,ユーザ発話に対する感情推定による「共感応答」の生成アルゴリズム,および,それらの応答と「相槌応答」とを,音声認識信頼度を考慮した上で適切に生成するアルゴリズムを提案した.110名の一般被験者に対する評価実験の結果,「印象深い旅行」を話題とした場合で,45.5\%の被験者が2分以上(ユーザ発話数平均12.40)対話を継続していた.また,システムの応答を主観的に評価した結果,相槌を除いた場合で約68\%,適切な相槌も含めた場合で約77\%のユーザ発話に対して対話を破綻させることなく応答生成ができていた.また,生成された応答種別毎では,共感応答や感情・形容表現の理由を尋ねる問い返しについては高い応答正解率が得られていたが,一方で,特に不足格判別に基づく問い返しについては応答正解率が低かった.さらに,被験者へのアンケートの結果,特に高齢の被験者から肯定的な主観評価結果が得られた.今後の課題としては,主に,下記の事項が挙げられる.これらの問題を解決することにより,高齢者のみならず,若い世代に対する満足度向上につながると期待される.\begin{enumerate}\item深層格解析精度の向上(格助詞の省略,および,動詞の受動態・使役態への対応)\itemより多様な応答の生成(名詞の関連語知識の利用や,過去のユーザ発話の利用など)\item発話区切り検出精度の向上(ユーザ発話を遮って応答生成を行わない)\itemユーザ発話の談話行為推定(ユーザの問い返しなどに対して相槌を生成しない)\item音声認識精度の向上\end{enumerate}また,実際のユーザへの効果の評価として,本傾聴システムを体験したことによる,ユーザの話し方や顔表情などの状態変化に関する評価を行い,システムの改良を進める予定である.\acknowledgmentWeb上の5億文のテキストを提供して頂いた京都大学の河原大輔氏に深く感謝致します.\bibliographystyle{jnlpbbl_1.5}\nocite{*}\begin{thebibliography}{}\bibitem[\protect\BCAY{Balahur\BBA\Hristo}{Balahur\BBA\Hristo}{2016}]{no31}Balahur,A.\BBACOMMA\\BBA\Hristo,T.\BBOP2016\BBCP.\newblock\BBOQDetectingImplicitExpressionsofAffectfromTextusingSemanticKnowledgeonCommonConceptProperties.\BBCQ\\newblockIn{\Bemthe10thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\1165--1170}.\bibitem[\protect\BCAY{Banchs\BBA\Li}{Banchs\BBA\Li}{2012}]{no13}Banchs,R.\BBACOMMA\\BBA\Li,H.\BBOP2012\BBCP.\newblock\BBOQIRIS:AChat-orientedDialogueSystembasedontheVectorSpaceModel.\BBCQ\\newblockIn{\Bemthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\37--42}.\bibitem[\protect\BCAY{Bellegarda}{Bellegarda}{2013}]{no8}Bellegarda,J.\BBOP2013\BBCP.\newblock\BBOQLarge-ScalePersonalAssistantTechnologyDeployment:TheSiriExperience.\BBCQ\\newblockIn{\BemINTERSPEECH},\mbox{\BPGS\2029--2033}.\bibitem[\protect\BCAY{Butler}{Butler}{1963}]{no6}Butler,R.\BBOP1963\BBCP.\newblock\BBOQTheLifeReview:AnInterpretationofReminiscenceintheAged.\BBCQ\\newblock{\BemPsychiatry},{\Bbf26},\mbox{\BPGS\65--76}.\bibitem[\protect\BCAY{De~Mori,Bechet,Hakkani-Tur,McTear,Riccardi,\BBA\Tur}{De~Moriet~al.}{2008}]{no44}De~Mori,R.,Bechet,F.,Hakkani-Tur,D.,McTear,M.,Riccardi,G.,\BBA\Tur,G.\BBOP2008\BBCP.\newblock\BBOQSpokenLanguageUnderstanding.\BBCQ\\newblock{\BemIEEESignalProcessingMagazine},{\Bbf25}(3),\mbox{\BPGS\50--58}.\bibitem[\protect\BCAY{DeVault,Artstein,Benn,Dey,Fast,Gainer,Georgila,Gratch,Hartholt,Lhommet,Lucas,Marsella,Morbini,Nazarian,Scherer,Stratou,Suri,Traum,Wood,Xu,Rizzo,\BBA\Morency}{DeVaultet~al.}{2014}]{no29}DeVault,D.,Artstein,R.,Benn,G.,Dey,T.,Fast,E.,Gainer,A.,Georgila,K.,Gratch,J.,Hartholt,A.,Lhommet,M.,Lucas,G.,Marsella,S.,Morbini,F.,Nazarian,A.,Scherer,S.,Stratou,G.,Suri,A.,Traum,D.,Wood,R.,Xu,Y.,Rizzo,A.,\BBA\Morency,L.\BBOP2014\BBCP.\newblock\BBOQSimSenseiKiosk:AVirtualHumanInterviewerforHealthcareDecisionSupport.\BBCQ\\newblockIn{\Bemthe2014InternationalConferenceonAutonomousAgentsandMulti-agentSystems},\mbox{\BPGS\137--139}.\bibitem[\protect\BCAY{藤原\JBA伊藤\JBA荒木}{藤原\Jetal}{2005}]{no43}藤原敬記\JBA伊藤敏彦\JBA荒木健治\BBOP2005\BBCP.\newblock音声言語理解のための助詞・付属語の信頼度利用に関する調査.\\newblock\Jem{日本音響学会2006年春季研究発表会講演論文集},{\Bbf1-P-28},\mbox{\BPGS\199--200}.\bibitem[\protect\BCAY{Gordon\BBA\Swanson}{Gordon\BBA\Swanson}{2009}]{no40}Gordon,A.\BBACOMMA\\BBA\Swanson,R.\BBOP2009\BBCP.\newblock\BBOQIdentifyingPersonalStoriesinMillionsofWeblogEntries.\BBCQ\\newblockIn{\Bemthe3rdInternationalConferenceonWeblogsandSocialMedia,DataChallengeWorkshop},\mbox{\BPGS\16--23}.\bibitem[\protect\BCAY{Han,Bang,Ryu,\BBA\Lee}{Hanet~al.}{2015}]{no17}Han,S.,Bang,J.,Ryu,S.,\BBA\Lee,G.~G.\BBOP2015\BBCP.\newblock\BBOQExploitingKnowledgeBasetoGenerateResponsesforNaturalLanguageDialogListeningAgents.\BBCQ\\newblockIn{\Bemthe16thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\129--133}.\bibitem[\protect\BCAY{Han,Lee,Lee,\BBA\Lee}{Hanet~al.}{2013}]{no16}Han,S.,Lee,K.,Lee,D.,\BBA\Lee,G.~G.\BBOP2013\BBCP.\newblock\BBOQCounselingDialogSystemwith5W1HExtraction.\BBCQ\\newblockIn{\Bemthe14thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\349--353}.\bibitem[\protect\BCAY{長谷川\JBA鍛冶\JBA吉永\JBA豊田}{長谷川\Jetal}{2014}]{no35}長谷川貴之\JBA鍛冶伸裕\JBA吉永直樹\JBA豊田正史\BBOP2014\BBCP.\newblockオンライン上の対話における聞き手の感情の予測と喚起.\\newblock\Jem{人工知能学会論文誌},{\Bbf29}(1),\mbox{\BPGS\90--99}.\bibitem[\protect\BCAY{Hazen,Seneff,\BBA\Polifroni}{Hazenet~al.}{2002}]{no41}Hazen,T.~J.,Seneff,S.,\BBA\Polifroni,J.\BBOP2002\BBCP.\newblock\BBOQRecognitionConfidenceScoringanditsUseinSpeechUnderstandingSystems.\BBCQ\\newblock{\BemComputerSpeech\&Language},{\Bbf16}(1),\mbox{\BPGS\49--67}.\bibitem[\protect\BCAY{東中\JBA貞光\JBA内田\JBA吉村}{東中\Jetal}{2013}]{no10}東中竜一郎\JBA貞光九月\JBA内田渉\JBA吉村健\BBOP2013\BBCP.\newblockしゃべってコンシェルにおける質問応答技術.\\newblock\Jem{NTT技術ジャーナル},{\Bbf25}(2),\mbox{\BPGS\56--59}.\bibitem[\protect\BCAY{Higashinaka,\mbox{Funakoshi},Araki,Tsukahara,Kobayashi,\BBA\Mizukami}{Higashinakaet~al.}{2015}]{no15}Higashinaka,R.,\mbox{Funakoshi},K.,Araki,M.,Tsukahara,H.,Kobayashi,Y.,\BBA\Mizukami,M.\BBOP2015\BBCP.\newblock\BBOQTowardsTaxonomyofErrorsinChat-orientedDialogueSystems.\BBCQ\\newblockIn{\Bemthe16thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\97--95}.\bibitem[\protect\BCAY{Higashinaka,\mbox{Imamura},Meguro,Miyazaki,Kobayashi,Sugiyama,\mbox{Hirano},Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014}]{no14}Higashinaka,R.,\mbox{Imamura},K.,Meguro,T.,Miyazaki,C.,Kobayashi,N.,Sugiyama,H.,\mbox{Hirano},T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQTowardsanOpen-domainConversationalSystemFullyBasedonNaturalLanguageProcessing.\BBCQ\\newblockIn{\Bemthe25thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\928--939}.\bibitem[\protect\BCAY{池見}{池見}{1996}]{no2}池見陽\BBOP1996\BBCP.\newblock傾聴とフォーカシングの臨床心理学.\\newblock\Jem{聴能言語学研究},{\Bbf13}(3),\mbox{\BPGS\213--220}.\bibitem[\protect\BCAY{今村\JBA東中\JBA泉}{今村\Jetal}{2015}]{no49}今村賢治\JBA東中竜一郎\JBA泉朋子\BBOP2015\BBCP.\newblock対話解析のためのゼロ代名詞照応解析付き述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf22}(1),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{no33}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{磯\JBA颯々野}{磯\JBA颯々野}{2013}]{no9}磯健一\JBA颯々野学\BBOP2013\BBCP.\newblock「音声アシスト」の音声認識と自然言語処理の開発.\\newblock\Jem{情報処理学会研究報告},{\Bbf2013-SLP-98}(4),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{河原}{河原}{2013}]{no11}河原達也\BBOP2013\BBCP.\newblock音声対話システムの進化と淘汰—歴史と最近の技術動向—.\\newblock\Jem{人工知能学会誌},{\Bbf28}(1),\mbox{\BPGS\45--51}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{no38}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\Bemthe5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{河原\JBA李}{河原\JBA李}{2005}]{no42}河原達也\JBA李晃伸\BBOP2005\BBCP.\newblock連続音声認識ソフトウェアJulius.\\newblock\Jem{人工知能学会誌},{\Bbf20}(1),\mbox{\BPGS\41--49}.\bibitem[\protect\BCAY{Kawahara,Uesato,Yoshino,\BBA\Takanashi}{Kawaharaet~al.}{2016}]{no34}Kawahara,T.,Uesato,M.,Yoshino,K.,\BBA\Takanashi,K.\BBOP2016\BBCP.\newblock\BBOQTowardAdaptiveGenerationofBackchannelsforAttentiveListeningAgents.\BBCQ\\newblockIn{\BemInternationalWorkshopSpokenDialogueSystems(IWSDS)},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{no52}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出のための評価表現の収集.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{小林\JBA山本\JBA横山\JBA土井}{小林\Jetal}{2010}]{no25}小林優佳\JBA山本大介\JBA横山祥恵\JBA土井美和子\BBOP2010\BBCP.\newblock高齢者向け対話インタフェース—雑談時における関心度検出方法とそれを利用した対話システム—.\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会},{\BbfSIG-SLUD-B001-01},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{小林\JBA山本\JBA土井}{小林\Jetal}{2011}]{no26}小林優佳\JBA山本大介\JBA土井美和子\BBOP2011\BBCP.\newblock高齢者向け対話インタフェース—発話間の共起性を利用した傾聴対話の基礎検討—.\\newblock\Jem{情報科学技術フォーラムFIT2011(第2分冊)},\mbox{\BPGS\253--256}.\bibitem[\protect\BCAY{小林\JBA山本\JBA土井}{小林\Jetal}{2012}]{no27}小林優佳\JBA山本大介\JBA土井美和子\BBOP2012\BBCP.\newblock高齢者向け対話インタフェース—病院スタッフ・患者間の対話モデルを使用したコミュニケーションロボツト—.\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会},{\BbfSIG-SLUD-B103-12},\mbox{\BPGS\253--256}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{no48}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表—増補改定版—}.\newblock秀英出版.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2004}]{no54}工藤拓\JBA松本裕治\BBOP2004\BBCP.\newblock半構造化テキスト分類のためのブースティングアルゴリズム.\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(9),\mbox{\BPGS\2146--2156}.\bibitem[\protect\BCAY{倉島\JBA藤村\JBA奥田}{倉島\Jetal}{2009}]{no39}倉島健\JBA藤村考\JBA奥田英範\BBOP2009\BBCP.\newblock大規模テキストからの経験マイニング.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ92-D}(3),\mbox{\BPGS\301--310}.\bibitem[\protect\BCAY{黒川}{黒川}{2005}]{no7}黒川由紀子\BBOP2005\BBCP.\newblock\Jem{高齢者の心理療法—回想法}.\newblock誠信書房.\bibitem[\protect\BCAY{Lee,Kawahara,\BBA\Shikano}{Leeet~al.}{2001}]{no36}Lee,A.,Kawahara,T.,\BBA\Shikano,K.\BBOP2001\BBCP.\newblock\BBOQJulius---AnOpenSourceReal-timeLargeVocabularyRecognitionEngine.\BBCQ\\newblockIn{\BemEuropeanConferenceonSpeechCommunicationandTechnology(EUROSPEECH2001)},\mbox{\BPGS\1692--1694}.\bibitem[\protect\BCAY{李}{李}{2000}]{no37}李晃伸\BBOP2000\BBCP.\newblockPhoneticTied-Mixtureモデルを用いた大語彙連続音声認識.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-DII}(12),\mbox{\BPGS\2517--2525}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{19911995}]{no46}毎日新聞社\BBOP1991--1995\BBCP.\newblockCD—毎日新聞データ集91版〜95版.\\newblock日外アソシエーツ.\bibitem[\protect\BCAY{目黒\JBA東中\JBA堂坂\JBA南}{目黒\Jetal}{2012}]{no22}目黒豊美\JBA東中竜一郎\JBA堂坂浩二\JBA南泰浩\BBOP2012\BBCP.\newblock聞き役対話の分析および分析に基づいた対話制御部の構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf53}(12),\mbox{\BPGS\2728--2801}.\bibitem[\protect\BCAY{目黒\JBA東中\JBA堂坂\JBA南\JBA磯崎}{目黒\Jetal}{2009}]{no20}目黒豊美\JBA東中竜一郎\JBA堂坂浩二\JBA南泰浩\JBA磯崎秀樹\BBOP2009\BBCP.\newblock聞き役対話システムの構築を目的とした聞き役対話の分析.\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{目黒\JBA東中\JBA南\JBA堂坂}{目黒\Jetal}{2011}]{no21}目黒豊美\JBA東中竜一郎\JBA南泰浩\JBA堂坂浩二\BBOP2011\BBCP.\newblockPOMDPを用いた聞き役対話システムの対話制御.\\newblock\Jem{言語処理学会第17回年次大会発表論文集(2011年3月)},\mbox{\BPGS\912--915}.\bibitem[\protect\BCAY{三島\JBA久保田}{三島\JBA久保田}{2003}]{no4}三島徳雄\JBA久保田進也\BBOP2003\BBCP.\newblock\Jem{積極傾聴を学ぶ—発見的体験学習法の実際—}.\newblock中央労働災害防止協会.\bibitem[\protect\BCAY{Morbini,Forbell,DeVault,Sagae,Traum,\BBA\Rizzo}{Morbiniet~al.}{2012}]{no28}Morbini,F.,Forbell,E.,DeVault,D.,Sagae,K.,Traum,D.~R.,\BBA\Rizzo,A.\BBOP2012\BBCP.\newblock\BBOQAMixed-InitiativeConversationalDialogueSystemforHealthcare.\BBCQ\\newblockIn{\Bemthe13thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\137--139}.\bibitem[\protect\BCAY{中村}{中村}{1993}]{no56}中村明\BBOP1993\BBCP.\newblock\Jem{感情表現辞書}.\newblock東京堂出版.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2001}]{no45}日本電子化辞書研究所\BBOP2001\BBCP.\newblock\Jem{EDR電子化辞書2.0版使用説明書}.\bibitem[\protect\BCAY{楡木}{楡木}{1989}]{no5}楡木満生\BBOP1989\BBCP.\newblock積極的傾聴法.\\newblock\Jem{医学教育},{\Bbf20}(5),\mbox{\BPGS\341--346}.\bibitem[\protect\BCAY{大石\JBA松本}{大石\JBA松本}{1995}]{no47}大石亨\JBA松本裕治\BBOP1995\BBCP.\newblock格パターン分析に基づく動詞の語彙知識獲得.\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(11),\mbox{\BPGS\2597--2610}.\bibitem[\protect\BCAY{大竹\JBA萩原}{大竹\JBA萩原}{2012}]{no18}大竹裕也\JBA萩原将文\BBOP2012\BBCP.\newblock高齢者のための発話意図を考慮した対話システム.\\newblock\Jem{日本感性工学会論文誌},{\Bbf11}(2),\mbox{\BPGS\207--214}.\bibitem[\protect\BCAY{大竹\JBA萩原}{大竹\JBA萩原}{2014}]{no19}大竹裕也\JBA萩原将文\BBOP2014\BBCP.\newblock評価表現による印象推定と傾聴型対話システムへの応用.\\newblock\Jem{日本知能情報ファジィ学会誌},{\Bbf26}(2),\mbox{\BPGS\617--626}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1980}]{no55}Plutchik,R.\BBOP1980\BBCP.\newblock\BBOQAGeneralPsycho-evolutionaryTheoryofEmotion.\BBCQ\\newblockIn{\BemTheoriesofEmotion}.AcademicPress.\bibitem[\protect\BCAY{下岡\JBA徳久\JBA吉村\JBA星野\JBA渡部}{下岡\Jetal}{2010}]{no50}下岡和也\JBA徳久良子\JBA吉村貴克\JBA星野博之\JBA渡部生聖\BBOP2010\BBCP.\newblock音声対話ロボットのための傾聴システムの開発.\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会},{\BbfSIG-SLUD-58},\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{総務省統計局}{総務省統計局}{2013}]{no1}総務省統計局\BBOP2013\BBCP.\newblock高齢者の人口.\\newblockhttp://www.stat.go.jp/data/topics/topi721.htm/.\bibitem[\protect\BCAY{須田}{須田}{2013}]{no32}須田行雄\BBOP2013\BBCP.\newblock\Jem{回想法実施マニュアル}.\newblock第1回公募研究,一般社団法人日本産業カウンセラー協会.\bibitem[\protect\BCAY{寺村}{寺村}{1982}]{no51}寺村秀夫\BBOP1982\BBCP.\newblock\Jem{日本語のシンタクスと意味}.\newblockくろしお出版.\bibitem[\protect\BCAY{Tokuhisa,Inui,\BBA\Matsumoto}{Tokuhisaet~al.}{2008}]{no12}Tokuhisa,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQEmotionClassificationUsingMassiveExamplesExtractedfromtheWeb.\BBCQ\\newblockIn{\Bemthe22thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\881--888}.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{no53}Turney,P.\BBOP2002\BBCP.\newblock\BBOQThumbsUp?ThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews.\BBCQ\\newblockIn{\Bemthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{ホールファミリーケア協会}{ホールファミリーケア協会}{2004}]{no3}ホールファミリーケア協会\BBOP2004\BBCP.\newblock\Jem{傾聴ボランティアのすすめ}.\newblock三省堂.\bibitem[\protect\BCAY{Yamaguchi,Inoue,Yoshino,Takanashi,Ward,\BBA\Kawahara}{Yamaguchiet~al.}{2016}]{no30}Yamaguchi,T.,Inoue,K.,Yoshino,K.,Takanashi,K.,Ward,N.,\BBA\Kawahara,T.\BBOP2016\BBCP.\newblock\BBOQAnalysisandPredictionofMorphologicalPatternsofBackchannelsforAttentiveListeningAgents.\BBCQ\\newblockIn{\BemInternationalWorkshopSpokenDialogueSystems(IWSDS)},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{山本\JBA小林\JBA横山\JBA土井}{山本\Jetal}{2009}]{no23}山本大介\JBA小林優佳\JBA横山祥恵\JBA土井美和子\BBOP2009\BBCP.\newblock高齢者対話インタフェース〜『話し相手』となって,お年寄りの生活を豊かに〜.\\newblock\Jem{ヒューマンコミュニケーション基礎研究会},{\Bbf109}(224),\mbox{\BPGS\47--51}.\bibitem[\protect\BCAY{横山\JBA山本\JBA小林\JBA土井}{横山\Jetal}{2010}]{no24}横山祥恵\JBA山本大介\JBA小林優佳\JBA土井美和子\BBOP2010\BBCP.\newblock高齢者向け対話インタフェース—雑談継続を目的とした話題提示・傾聴の切替式対話法—.\\newblock\Jem{情報処理学会研究報告音声言語情報処理},{\Bbf2010-SLP-80}(4),\mbox{\BPGS\1--6}.\end{thebibliography}\begin{biography}\bioauthor{下岡和也}{2002年京都大学工学部情報学科卒業.2005年京都大学大学院知能情報学専攻修士課程修了.同年(株)豊田中央研究所入社.現在,空間情報処理とその応用に関する研究,開発に従事.}\bioauthor{徳久良子}{2001年九州工業大学大学院情報科学専攻修士課程修了.同年(株)豊田中央研究所入社.2009年奈良先端大学大学院博士後期課程修了.博士(工学).感情や対話研究に従事.人工知能学会,情報処理学会,言語処理学会会員.}\bioauthor{吉村貴克}{1997年名古屋工業大学知能情報システム学科卒.2002年同大学大学院博士後期課程修了.博士(工学).現在,(株)豊田中央研究所にて,車両の走行データのデータ処理とその応用に関する研究に従事.IEEE会員.}\bioauthor{星野博之}{1988年名古屋大学大学院工学研究科修士課程修了.同年(株)豊田中央研究入社,現在に至る.音声認識,ヒューマンインタフェース等の研究に従事.電子情報通信学会,日本音響学会他.博士(情報科学).}\bioauthor{渡辺生聖}{2000年筑波大学第三学群情報学類卒業.2002年同大学院修士課程修了.現在,トヨタ自動車(株)パートナーロボット部にて,シニアライフ支援のための対話ロボットの開発に従事.}\end{biography}\biodate\end{document}
| |
V26N01-02
|
\section{はじめに}
学会での質疑応答や電子メールによる問い合わせなどの場面において,質問は広く用いられている.このような質問には,核となる質問文以外にも補足的な情報も含まれる.補足的な情報は質問の詳細な理解を助けるためには有益であるが,要旨を素早く把握したい状況においては必ずしも必要でない.そこで,本研究では要旨の把握が難しい複数文質問を入力とし,その内容を端的に表現する単一質問文を出力する“質問要約”課題を新たに提案する.コミュニティ質問応答サイトであるYahoo!Answers\footnote{https://answers.yahoo.com/}から抜粋した質問の例を表\ref{example_long_question}に示す.{この質問のフォーカスは}“頭髪の染料は塩素によって落ちるか否か”である.しかし,質問者が水泳をする頻度や現在の頭髪の色などが補足的な情報として付与される.このような補足的な情報は正確な回答を得るためには必要であるが,質問内容をおおまかに素早く把握したいといった状況においては,必ずしも必要でない.{このような質問を表\ref{example_long_question}に例示するような単一質問文に要約することにより,質問の受け手の理解を助けることが出来る.本研究では,質問要約課題の一事例としてコミュニティQAサイトに投稿される質問を対象テキストとし,質問への回答候補者を要約の対象読者と想定する.}\begin{table}[b]\caption{複数文質問とその要約}\label{example_long_question}\input{02table01.tex}\end{table}テキスト要約課題自体は自然言語処理分野で長く研究されている課題の一つである.既存研究は要約手法の観点からは,大きく抽出型手法と生成型手法に分けることができる.抽出型手法は入力文書に含まれる文や単語のうち,要約に含める部分を同定することで要約を出力する.生成型手法は入力文書には含まれない表現も用いて要約を生成する.一方で,要約対象とするテキストも多様化している.既存研究の対象とするテキストは,従来の新聞記事や科学論文から,最近では電子メールスレッドや会話ログなどに広がり,それらの特徴を考慮した要約モデルが提案されている.\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}質問を対象とする要約研究としては\citeA{tamura2005}の質問応答システムの性能向上を指向した研究が存在する.この研究では質問応答システムの構成要素である質問タイプ同定器へ入力する質問文を入力文書から抽出する.本研究では,彼らの研究とは異なり,ユーザに直接提示するために必要な情報を含んだ要約の出力を目指す.ユーザに直接提示するための質問要約課題については,既存研究では取り組まれておらず,既存要約モデルを質問{テキスト}に適用した場合の性能や,質問が抽出型手法で要約可能であるか,生成型の手法が必要であるか明らかでない.そこで,本研究ではコミュニティ質問応答サイトに投稿される質問{テキスト}とそのタイトルの対(以後,質問{テキスト}−タイトル対と呼ぶ)を,規則を用いてフィルタリングし,質問{テキスト}とその要約の対(以後,質問{テキスト}−要約対と呼ぶ)を獲得する.獲得した質問{テキスト}−要約対を分析し,抽出型および生成型の観点から質問がどのような手法を用いて要約可能であるか明らかにする.また,質問要約課題のために,ルールに基づく手法,抽出型要約手法,生成型要約手法をいくつか構築し性能を比較する.ROUGE~\cite{rouge2004aclworkshop}を用いた自動評価実験および人手評価において,生成型手法であるコピー機構付きエンコーダ・デコーダモデルがより良い性能を示した.
\section{{質問要約課題}}
{本稿で提案する``質問要約''についてその特徴や既存要約課題との相違について議論する.}{本研究で扱う質問要約はテキスト要約課題の一つである.既存のテキスト要約研究では,DocumentUnderstandingConference(DUC)\footnote{https://duc.nist.gov}などの新聞記事や科学論文をもとにした共通のデータセットがしばしば性能評価実験に用られてきた.本研究で扱う質問要約は質問テキストを要約対象とし,出力を単一質問文に限定する.}{はじめに入力の質問テキストの特徴について述べる.質問要約は従来の新聞記事や科学論文を基に作られたテキストを想定する要約課題とは以下の点において異なる特徴を持つ.\begin{enumerate}\item質問文と叙述文が混在する(\textbf{個別の文の性質の違い})\item質問文を叙述文が補足する文間関係を持つ(\textbf{談話構造の違い})\end{enumerate}前者については,新聞記事や科学論文には質問文がほとんど含まれないのに対し,質問テキストでは多くの場合1文以上の質問文を含む.そのため,文書中に含まれる文そのものの性質が従来の要約対象とは性質を持つ.後者は文間の関係に着目した相違点である.新聞記事ではリード文を他の文から補足する談話構造がしばしばみられるのに対し,質問テキストでは核となる質問文が存在し,質問文以外の文が核となる質問文を補足する.よって,文そのものの性質の違いに加え,質問テキストは文間の意味的な関係(談話構造)も異なる.このように,個別の文の性質や談話構造に関し従来の要約課題とは異なる特徴を持つことから,例えば従来の要約課題において強いベースライン手法として知られるリード法やその他の既存手法が,質問テキストに対しどの程度の性能を示すかはそもそも明らかではない.}{次に出力の単一質問文が満たすべき性質について議論する.本研究では質問テキストの一事例としてインターネット上でのコミュニティ質問応答サイトに投稿される複数文質問の要約を想定する.生成した要約を回答者候補に提示することで,回答者候補は質問内容が回答可能であるか素早く判断できるようになる.このような目的を鑑み,本研究では入力として複数文質問,出力は質問内容を端的に表現した単一質問文を考える.例えば,表\ref{example_long_question}に示す複数文質問に対する正解要約としては,``Willthechlorinestripemyhair?(塩素によって髪の染料が落ちますか?)''といった疑問文だけでなく,``Affectofthechlorineonmyhairdyeing.(プール中の塩素の染髪への影響)''といった表現も正しい要約と考える.前者は「末尾が?であるか」「先頭の語が助動詞であるか」などの単純な規則を用いて同定できる.後者は質問内容を推測できるが,パターンが無数にあり単純な規則ではこれらを同定できない.本研究ではどちらの表現も要約とみなす.後者まで含んだ広い表現を質問文と呼び,単純な規則で同定可能な前者を疑問文と呼び区別する.}
\section{関連研究}
テキスト要約の既存研究は多く存在する.DUCに代表される多くのタスクなど,既存研究の多くは新聞記事や科学論文を対象としている.近年では,会話テキストや電子メールスレッドを対象とした新たな要約課題も提案されている\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}.本研究に関連する取り組みとして,質問応答システムのための質問要約研究が存在する.\citeA{tamura2005}は,複数文で構成される質問を入力として受け付ける,質問応答システムの構築を目指した.この研究では,複数文質問からもっとも核となる1文を抽出する要約器を質問応答システムの前処理として組み込むことで,複数文質問を受け付けるシステムを実現している.彼らは複数文質問を単一質問文に要約することで,質問応答システムの質問タイプ同定器の性能が向上することを報告している.一方,抽出した核となる質問文は常にユーザの理解できる情報を含むとは限らない.例えば,表\ref{example_long_question}における核文は``Willitorwillitnot?''であるが,この文にはchrolineやhairなどといった質問内容を把握するために必要となる単語が含まれず,要約として提示するには情報が不足する.本研究は,ユーザに提示するための要約を出力を指向するため目的が異なる.抽出型要約モデルの既存研究としては,単語出現頻度を用いて文にスコアを与える手法\cite{luhn1958ibm}や,文同士の類似度を用いて重要文を同定するヒューリスティックを用いる手法\cite{rada2004emnlp}などが提案されている.さらに,文に対し抽出した場合のROUGE値を回帰モデルを用いて予測するモデル\cite{peyrard2016acl,li2013acl}や,要約に含めるべき文を二値分類する分類問題として定式化する教師あり学習を用いる手法\cite{hirao2002coling,shen2007ijcai}も存在する.生成型要約としては,入力の談話構造木を枝刈りする手法\cite{dorr2003naacl,zajic2004naacl}や,機械翻訳モデルを用いる手法\cite{banko2000acl,wubben2012acl,cohn2013acm},テンプレートを用いる手法\cite{oya2014inlg}などが存在する.近年では,機械翻訳課題向けに提案されたエンコーダ・デコーダモデル\cite{luong2015emnlp,bahdanau2015iclr}を要約課題に適用する手法\cite{rush2015acl,kikuchi2016emnlp,gu2016acl}が積極的に研究されている.
\section{質問応答サイトからの質問{テキスト}−要約対獲得と分析}
本研究ではまず,Yahoo!AnswersComprehensiveQuestionandAnswersversion1.0\footnote{https://webscope.sandbox.yahoo.com/}を対象に事例分析を行う.Yahoo!Answersにおいて,ユーザは自由に質問テキストとそのタイトルを記述し投稿する.このデータセットには4,484,032の{質問投稿}が含まれる.質問投稿の中には質問テキスト−タイトル対を質問{テキスト}−要約対とみなせる事例もあれば,みなせない事例も存在する.そのため,データセット内の質問{テキスト}−タイトル対を,規則を用いてフィルタリングし,質問{テキスト}−要約対を獲得する必要がある.その上で,獲得した質問{テキスト}−要約対を必要な要約手法の検討のための分析および要約モデルの比較実験における学習データに用いる.よって,本研究では以下の二段階でデータセットの分析を行う.\begin{enumerate}\item質問{テキスト}−要約対とみなすことのできる質問{テキスト}−タイトル対の特徴はなにかを明らかにし,質問{テキスト}−要約対を獲得する.\item質問{テキスト}−要約対を分析し,抽出型の手法で要約可能か,生成型の手法が必要であるか明らかにする.\end{enumerate}\subsection{分析1:質問の長さ}質問{テキスト}−要約対とみなすことのできない事例をフィルタリングする規則を設計するために,まず質問に含まれる文数に着目した分析を行った.質問{テキスト}が1文から5文で構成される事例をデータセットからランダムに20事例ずつ抽出し,それらの質問{テキスト}−タイトル対を質問{テキスト}−要約対とみなすことができるか否かを人手で判定した.表\ref{n_body}に結果を示す.\begin{table}[b]\caption{質問{テキスト}中の文数と質問{テキスト}−要約対とみなせる事例の割合}\label{n_body}\input{02table02.tex}\end{table}質問{テキスト}の長さが{1文もしくは2文}の場合には,質問{テキスト}−要約対とみなすことのできない事例が増える.このような事例においては,タイトルに核となる質問文が記述され,質問{テキスト}中では補足的な内容だけが記述され,質問文を含まない例が見られる.質問{テキスト}では質問文が記述されないため,質問{テキスト}−タイトル対を質問{テキスト}−要約対とみなすことができない.一方,3文以上から構成される質問{テキスト}においては質問{テキスト}−要約対とみなすことのできる事例が一定になる.\subsection{分析2:質問{テキスト}とタイトルでの名詞の重複}次に質問{テキスト}とタイトルでの名詞の重複に着目した分析を行った.以下に質問{テキスト}−要約対とはみなすことのできない事例を示す.\begin{quote}\underline{タイトル:}Whyisthereoftenamirrorinanelevator?\underline{{質問テキスト}:}IjustrealizedthiswhenIwasinanelevator.Doesanybodyknowthereason?Whatisthehistorybehindit?\end{quote}この事例では,質問{テキスト}中の``it''は``エレベータ内に鏡が存在する''という事実を指し示す.``it''が何を指し示すかを理解するには``elevator''や``mirror''といった重要な単語が{質問テキスト}中に含まれている必要がある.しかし,``mirror''という単語はタイトルには出現するが質問{テキスト}には出現しない.そのため,質問{テキスト}を要約器の入力として,タイトルの``Whyisthereoftenamirror...''という要約を生成することはできない.データセット中では,この例のように質問{テキスト}からタイトル中の単語を照応したり,タイトル中の単語が質問{テキスト}を理解するために不可欠である事例を多く観測した.このような事例をフィルタリングするために,我々はタイトルと{質問テキスト}での単語の重複がフィルタリングのための重要な手がかりとなると考えた.\subsection{分析3:抽出型vs.生成型}次に必要な要約手法に着目した分析を行った.具体的には質問{テキスト}−要約対とみなすことのできる事例について,抽出型手法を用いて要約可能であるか,生成型手法が必要であるか人手で分類した.質問{テキスト}の文数が3--5文である20事例を無作為に抽出し,質問{テキスト}−要約対とみなせるか否かについて分析を行った.\begin{table}[b]\caption{手法検討のための事例分析}\label{extractive_abstractive}\input{02table03.tex}\end{table}分析の結果を表\ref{extractive_abstractive}に示す.また,代表的な質問{テキスト}−タイトル対の例を表\ref{abstractive_examples}に示す.20事例中5事例は質問{テキスト}−要約対とはみなせない事例であった.20事例中8事例は抽出型手法でタイトルと同等の要約を生成できることがわかった.表\ref{abstractive_examples}の{例2-1および例2-2}に抽出型手法により要約可能な事例を例示する.{例2-1}において,2文目の疑問文を抽出することでタイトルと同等の要約を出力できる.{例2-2は先頭文を抽出することでタイトルと同等の要約を生成できる.しかし,実際のタイトルでは``Cansomeonetellme''といった表現が除去されたり,本文中での``cellularphonepromotion''という具体的な表現が``cellularphoneplan''というより抽象的な表現に言い換えられている.}このように,抽出型手法が適用できる{質問テキスト}であっても実際のタイトルは生成的に作られている場合がある.\begin{table}[t]\hangcaption{Yahoo!AnswersComprehensiveQuestionandAnswersversion1.0に含まれる代表的な質問{テキスト}−タイトル対}\label{abstractive_examples}\input{02table04.tex}\end{table}残りの7事例については,抽出型手法では適切な要約を出力できず,生成型手法を必要とする.生成型手法が必要な理由としては,例3のように照応解析が必要であったり,例4のように複数文にまたがる情報を適切に埋め込む必要のある事例が存在する.このような事例に対しては,抽出的な手法をただ適用するだけでは,要旨の把握に必要な情報を適切に要約に含めることが出来ない.
\section{データと比較手法}
本節では以上の分析をもとに,データセットに含まれる質問{テキスト}−タイトル対をフィルタリングし,抽出型および生成型の要約モデルを実際に構築し質問要約課題に適用した場合の性能を比較する.\subsection{データセット}\subsubsection{規則によるフィルタリング}分析に基づき設計した以下の条件を満たす事例をフィルタリングし,質問{テキスト}−要約対とみなすことのできない事例を除外する.表\ref{n_sent_in_question}に示すように,Yahoo!Answersデータセットにはタイトルのみが記述され質問{テキスト}が記述されない事例が多く存在する.データセット全体の4,483,031投稿のうち,質問{テキスト}およびタイトルの双方が記述された2,191,477投稿について以下の規則を逐次適用し,フィルタリングを行い,質問{テキスト}−要約対を獲得する.\begin{description}\item[タイトルが複数文で構成される]タイトルが2文以上で構成される事例\item[短い質問テキスト]質問が2文以下である事例\item[単語の重複]タイトル中の名詞が本文中に出現しない事例\item[短いタイトル,長いタイトル]タイトルが3単語以下,16単語以上の事例\end{description}\begin{table}[t]\caption{Yahoo!Answersdataset全体に含まれる質問テキストの長さ}\label{n_sent_in_question}\input{02table05.tex}\par\vspace{4pt}\small0文はタイトルのみが記述され,質問テキストが存在しない投稿を示す.\end{table}{これらの規則を設定した根拠について補足する.複数文から構成されるタイトルを含む投稿をフィルタリングするのは,本課題が単一質問文への要約課題であることがその理由である.短い質問{テキスト}によるフィルタリングは,質問テキスト−要約対となりやすいのは3文以上の質問テキストであることであるという4節での分析に基づく.単語の重複についてのフィルタリングも同様に,4節での分析に基づいている.これらの分析に基づくフィルタリングに加え,「短いタイトル」および「長いタイトル」によるフィルタリングも用いる.もっとも単純な疑問文の構文である``Whatisxx?''や``Isthisxx?''は最低でも4単語必要とする.そのため,3単語以下のタイトルには必要な情報が含まれていないと考えた.タイトルが3語以下で構成される質問テキスト−タイトル対をランダムに20事例抽出し調査すると,抽出したすべてのタイトルで``difficultquestion?'',``QuestiononPokemon''といったように,回答者が回答可能であるか判断するための情報が欠如していた.よって,短いタイトルを含む事例はフィルタリングすることにした.Yahoo!Answersにおいて記述される15単語以下で記述されるタイトルは全体の81\%を占める.残りの19\%の部分に関してはタイトルが長く圧縮率が低いと考えフィルタリングすることにした.}{なお,タイトルが疑問文であるかといった手がかり語などの規則を用いたフィルタリングは行わない.タイトルの表現には``HowtheBordauxClassificationwasborn?''などのように疑問詞や末尾の?などで容易に疑問文であると同定できる事例もあれば,``Thebestwaytokillants.''や``HotelRecommendationsinSanDiego''のように?や疑問詞を含まないものが存在し,本研究ではこのような事例も要約とみなす.このような表現には多くのパターンが存在するため,質問文であるか否か判定する網羅的な規則を記述するのが難しい.そこで,本研究では質問文を同定する網羅的な規則を設計するのではなく,タイトルの長さや質問テキストとタイトルの重複などの手がかりを用いてフィルタリングを行う方針を採用した.}すべての規則を適用後,251,420対を獲得した.{タイトルを要約とみなした場合の圧縮率は0.18である.}これらの事例を抽出型および生成型手法の学習および評価に用いる.\subsubsection{{データセットの妥当性検証}}{フィルタリング後のデータセットを先頭から50事例抽出し,分析すると50事例中41事例(88\%)が本研究で想定する質問テキスト−要約対とみなせる事例であった.質問テキスト−要約対とみなすことのできない12\%程度(9事例)は以下に示す要因によりノイズとしてデータセットに含まれている.\begin{itemize}\item質問タイトルから本文の語を照応する,またはその逆である(3事例)\itemタイトルもしくは本文のいずれかが質問ではない(3事例)\itemその他(3事例)\end{itemize}その他の要因には,タイトルと本文がフォーカスの異なる質問(2事例),抽象的で質問内容が類推できないタイトル(1事例)が存在する.}{次に,人間が質問{テキスト}を提示され作成する要約と,本研究で要約とみなすコミュニティQAサイトに付与されたタイトルがどの程度近いものになっているか分析を行う.フィルタリング後のデータから10事例を抽出し,質問テキストを10人の作業者に提示し要約作成を依頼した.具体的には,クラウドソーシングサービスであるAmazonMechanicalTurk\footnote{https://www.mturk.com/}で,米国の高校および大学を卒業した作業者に依頼した.なお,作業者には要約とみなすタイトルの例をいくつか提示した上で,15単語以内で要約を記述するよう指示した.}{表\ref{crowd_source}にクラウドソーシングによって作成した要約の実例と,本研究で要約とみなすタイトルを示す.例1は抽出型手法により要約可能な事例,例2は生成型手法が必要な事例である.例1,例2ともにタイトルと作業者によって記述された要約のフォーカスは同等である.具体的には例1では,``薬物を用いずにアリを退治する方法'',例2では``中国で体調不良を避けるアドバイス''であるが,タイトルおよび人間による要約は同等のフォーカスを持つ質問文である.例1は1文目を抽出することで16単語以内の要約が作成可能な事例であるが,すべての作業者が言い換えを用いてより短い要約を作成した.正解タイトルも作業者の要約と同様に,質問テキスト中の``Whataresomegoodways''を``Goodways''と単語除去により短い記述になっている.例2は体調不良の原因を食べ物だけにフォーカスする(質問テキストの前半部分の食べ物に関する記述を重視)か,旅行中を通して体調不良を起こさない方法にフォーカスする(後半の疑問文が食べ物以外の体調不良の要因も考慮すると考える)かによって,作成される要約が異なる.作業者1,作業者3,作業者5による要約およびタイトルはフォーカスを食べ物には限定しない要約となっている.}{これらの例のように,人間が質問テキストから作成する要約およびタイトルはどちらも本文中の表現を言い換えることが多い.そのため,作業者間および作業者とタイトルを比較すると,完全に要約が一致するわけではない.しかし,そのような場合であっても多くの場合要約の質問文のフォーカスは同等となっている.}\begin{table}[t]\caption{クラウドソーシングにより作成した人間による要約とタイトルの比較}\label{crowd_source}\input{02table06.tex}\end{table}\subsection{抽出型手法}抽出的な手法として,規則に基づく手法,機械学習に基づく手法を比較する.\subsubsection{規則に基づく手法}規則に基づく手法として,“リード文”,“リード{疑問文}”,“{末尾疑問文}”の3手法を比較する.リード文を抽出する手法は従来の抽出型要約研究においては強いベースラインとして知られている.{リード文を抽出する手法は表\ref{abstractive_examples}の例4において,``Iwantmychocolote...''から始まる文を抽出する.質問要約課題においては出力も質問文になると考えられるため,規則を用いて同定した疑問文のうちもっとも先頭を抽出するリード疑問文,もっとも末尾に出現する疑問文を抽出する末尾疑問文とも比較を行う.リード疑問文は表\ref{abstractive_examples}の例4において,``Why?'',末尾疑問文は``WhatamIdongwrong?''となる.なお,疑問文の判定には以下の規則を用いる.}\begin{itemize}\item{末尾の連続する記号に?を含む.}\item{先頭単語が疑問詞,be動詞,助動詞のいずれかである.}\end{itemize}{なお,規則を用いる手法であるリード疑問文,末尾疑問文は疑問文が入力中に出現しない場合,先頭文を出力する.フィルタリング後のデータセットにおいて,疑問文が存在しない文書の割合は37\%であり,これらについてはすべての規則に基づく手法が先頭文を出力する.また,疑問文が1文以下である文書の割合は63\%であり,このような場合にはリード疑問文と末尾疑問文の出力が等しくなる.}\subsubsection{機械学習に基づく手法}機械学習に基づく手法としては,分類モデルに基づく手法,回帰モデルに基づく手法の2つを比較する.{機械学習に基づく手法についても,質問文を優先的に出力するように設計する.}回帰モデルに基づく手法では,まず入力の各文に対しROUGE-2F値の予測値を出力するSupportVectorRegression(SVR)\cite{basak2007support}を学習する.学習済みの回帰モデルを用いて,入力の各文に対しROUGE-2F値を予測し,予測値のもっとも高い質問文を出力する.分類に基づくモデルは,まず抽出した場合にROUGE-2F値が最大になる{疑問文}を正例(要約に含めるべき文),それ以外の文を負例(要約に含めるべきではない文)としてSupportVectorMachine(SVM)\cite{suykens1999least}を学習する.学習したSVMを用い,入力の各文を分類し正例と判定された文のうち先頭を出力する.{SVMの出力は二値のラベルであり,回帰モデルのようにスコア最大となる疑問文に限定する後処理と組み合わせることができない.そこで,本研究では正例を疑問文に限定し,質問文を優先的に出力するような分類器が学習されるよう工夫する.}なお,分類モデルはすべての文が負例と判定された場合には,先頭文を出力する.SVR,SVMの学習には以下の素性を用いた.\begin{itemize}\item単語uni-gram\item文長\item分類対象文が1文目であるか\item分類対象文が先頭の疑問文であるか\item分類対象文の他に疑問文が存在するか\end{itemize}すべての素性は二値素性として表現した.また,単語uni-gram素性については訓練データ中に5回以上出現する単語を用いた.文長素性については,文長が2単語以下,5単語以下,11単語以上,15単語以上の4つの素性に分けて二値で表現した.\subsection{生成型手法}本研究では生成的な手法としてエンコーダ・デコーダモデル,注意機構付きエンコーダ・デコーダモデル,コピー機構付きエンコーダ・デコーダを学習し,比較を行う.入力質問{テキスト}は機械翻訳などの問題設定に比べ入力系列が長い.そのため,エンコーダ・デコーダモデルに加え,注意機構付きエンコーダ・デコーダモデルを用い,入力系列のうちデコード時に手がかりになる箇所に重みを付けながら要約を生成する.エンコーダ・デコーダモデルの学習においては低頻度語をUNKという特別なトークンに置き換え,効率的に学習を行うという工夫がよく用いられる.そのため,出力にUNKというトークンが含まれる状況がしばしば発生し,このような系列は要約としてそのまま提示することができない.質問要約においては,入力質問{テキスト}に出現する単語が出力にも含まれることが多い.そこで,出力に入力質問{テキスト}の単語を用いるコピー機構付きエンコーダ・デコーダモデルとの比較も行う.エンコーダ・デコーダおよび注意機構付きエンコーダ・デコーダモデルには,\citeA{luong2015emnlp}の手法を用いる.コピー機構付きエンコーダ・デコーダには\citeA{gu2016acl}の手法を用いる.以下にこれらのモデルを簡単に説明する.\subsubsection*{エンコーダ・デコーダモデル}エンコーダ・デコーダモデルは,エンコーダおよびデコーダという2つの要素から構成される.エンコーダは,入力質問{テキスト}$\bm{x}=(x_1,\ldots,x_n)$から1単語ずつ受け取り,連続値ベクトルによる内部状態$\bm{h}_{\tau}$に,RecurrentNeuralNetwork(RNN)を用いて逐次変換する:\begin{equation}\bm{h}_\tau=f(x_{\tau},\bm{h}_{\tau-1}).\end{equation}$f$にはLongShort-TermMemory(LSTM)\cite{lstm}やGatedRecurrentUnit(GRU)\cite{gru}などの関数を用いることができる.本研究では,元論文の設定に従い,エンコーダ・デコーダモデルおよび注意機構付きエンコーダ・デコーダモデルではLSTMを用い,コピー機構付きエンコーダ・デコーダモデルではGRUを用いる.デコーダは1つ前のタイムステップで生成された単語および内部状態を受け取り,現在のタイムステップでの内部状態$\bm{s}_{t}$を計算する.計算した内部状態を用いてsoftmax関数により単語$y_{t}$の生起確率を計算できる.なお,デコーダの初期状態には入力質問{テキスト}中の単語をすべてエンコードし終えたときの最終状態$\bm{h}_n$を用いることにする:\pagebreak\begin{gather}\bm{s}_t=f(y_{t-1},s_{t-1}),\\p(y_{t}|y_{<t},\bm{x})=softmax(g(\bm{s}_t)).\end{gather}$\bm{x}$が与えられた上での,出力要約$\bm{y}$が生起する条件付き確率は,以下のように出力単語の生起確率の積に分解される:\begin{equation}p(\bm{y}|\bm{x})=\prod_{t=1}^{m}{p(y_{t}|y_{<t},\bm{x})}.\end{equation}ただし,この確率の最大値を求めることは困難であるので,貪欲法により前から確率最大の単語を出力することで,要約を生成する.学習時には訓練データにおける対数尤度を最大化するよう重みを更新する:\begin{equation}\logp(\bm{y}|\bm{x})=\sum_{t=1}^{m}{\logp(y_{t}|y_{<t},\bm{x})}.\end{equation}\subsubsection*{注意機構付きエンコーダ・デコーダ}エンコーダ・デコーダでは,入力の文書を逐次エンコードし,最終状態$\bm{h}_{n}$を文脈ベクトル$\bm{c}$としてデコーダに渡す.そこで,注意機構付きエンコーダ・デコーダモデルでは,デコード時にエンコーダ側のどの単語に注意するかを考慮した重み付き文脈ベクトル$\bm{c_{t}}$を考える:\begin{equation}\bm{c_t}=\sum_{\tau=1}^{n}{\alpha_{t\tau}\bm{h}_\tau}.\end{equation}$\alpha_{t\tau}$は入力質問{テキスト}の$t$番目の単語に与えられる重みで,以下のようにsoftmax関数を用いて計算される:\begin{equation}\alpha_{t\tau}=\frac{exp(\bm{s}_t\cdot\bm{h}_\tau)}{\sum_{h^{'}}{exp(\bm{s_t}\cdot\bm{h^{'}}})}.\end{equation}入力側の重み付き文脈ベクトル$\bm{c_t}$と$\bm{h}_{t}$を用いて,入力単語への注意を考慮した内部状態$\bm{\tilde{h}}$を以下のように計算し,softmax関数で確率値を出力する:\begin{gather}\bm{\tilde{h}}=tanh(\bm{W_{c}[c_{t};h_{t}]}),\\p(y_{t}|y_{<t},\bm{x})=softmax(\bm{W_{s}\tilde{h}_{t}}).\end{gather}\subsubsection*{コピー機構付きエンコーダ・デコーダ}要約課題においては,入力に含まれる単語が出力にも出現することが多い.そこで,入力中の単語を出力により含めやすくするコピー機構を備えたデコーダを用い要約生成を試みる.Guら\citeyear{gu2016acl}の提案したコピー機構付きのデコーダでは,単語$y_{t}$の生起確率を以下のように$score_{gen}$と$score_{copy}$の和として計算する:\begin{eqnarray}p(y_{t}|y_{<t},\bm{x})=score_{gen}(y_{t}|\bm{s}_{t},y_{t-1},\bm{c}_{t},\bm{x})+score_{copy}(y_{t}|\bm{s}_{t},y_{t-1},\bm{c}_{t},\bm{x}).\end{eqnarray}$score_{copy}$は入力中の単語を出力に``コピー''するか否かをスコアリングする.具体的には,$y_{t}$が入力文書中に含まれる$(y_{t}\in\bm{x})$ならば,$score_{copy}$は単語$y_{t}$を要約に含める確信度をスコアリング関数$\phi_{c}$を用いて出力し,それ以外$(y_{t}\not\in\bm{x})$の場合には0を出力する:\begin{equation}score_{copy}(y_{t}|.)=\begin{cases}\frac{1}{Z}\sum_{j:x_{j}=y_{t}}\exp(\phi_c(x_j))&(y_{t}\in\bm{x})\\0&(y_{t}\not\in\bm{x}).\end{cases}\end{equation}$score_{gen}$は単語$y_{t}$が語彙$V$に含まれる場合に,その単語を要約に含めるか否かの確信度をスコアアリング関数$\phi_{g}$を用いて出力する.単語$y_{t}$が語彙$V$に含まれない場合には,特別なトークンUNKを出力する確信度を出力する.ただし,単語$y_{t}$が入力文書$\bm{x}$に含まれる場合には0を出力する:\begin{equation}score_{gen}(y_{t}|.)=\begin{cases}\frac{1}{Z}\exp(\phi_g(y_t))&(y_{t}\in\bm{V})\\\frac{1}{Z}\exp(\phi_g(UNK))&(y_{t}\not\in\bm{x}\quad\land\quady_{t}\not\in\bm{V})\\0&(y_{t}\in\bm{x}\quad\land\quady_{t}\not\in\bm{V}).\end{cases}\end{equation}$score_{copy}$は$y_{t}\in\bm{x}$のときにスコアを出力し$y_{t}\not\in\bm{x}$のときに0になる.この機構により,入力文書中に含まれる単語により高いスコアを付与し,要約に含めやすくするようモデル化している.コピー機構付きのエンコーダ・デコーダでは$score_{gen}$と$score_{copy}$の和は$Z=\sum_{v\inV\cup\{UNK\}}\linebreak\exp(\phi_{g}(v))+\sum_{x\in\bm{x}}\exp(\phi_{c}(x))$により総和が1になるように正規化されるため,確率として扱うことができる.スコアリング関数$\phi_{c}$および$\phi_{g}$の構築についての詳細は元論文\cite{gu2016acl}を参照されたい.
\section{実験}
ROUGE-2\cite{rouge2004aclworkshop}を用いた自動評価に加え,人間の評価者による5段階評価を用いて,各システムの性能を評価する.\subsection{実験設定}Yahoo!AnswersComprehensiveQuestionandAnswersversion1.0をフィルタリングし獲得した251,420対を評価実験にも用いる.このデータのうち90\%を訓練データ,残りの5\%ずつをパラメータ調整用の開発データ,評価データにそれぞれ分割した.分類モデルおよび回帰モデルで用いるSVM,SVRの実装にはLiblinear\cite{liblinear}を用いた.カーネルには線形カーネルを用い,モデルパラメータ$C$は開発データでのROUGE-2F値が最大となる値に設定した.{なお,分類モデルの訓練データについては,訓練データ全体を使うと正例および負例の割合が不均衡になり学習が難しい.そこで,訓練データ全体から正例および負例をランダムに10,000事例ずつサンプリングし正例,負例の割合が1:1になるよう調整し分類器を学習した.}エンコーダ・デコーダの学習においては,単語埋め込みベクトルおよび隠れ層の次元を256,バッチサイズは64に設定した.単語埋め込みベクトルは事前学習せず,他のモデルパラメータと同様に学習した.学習データに1回しか出現しない単語はUNKという特別なトークンで置換し,モデルパラメータ数を削減した.また,文末はEOSという特別なトークンで表現している.テスト時には開発データでの損失関数の値が最小となるモデルを用い,評価データでの性能評価を行った.エンコーダ・デコーダが20単語以内にEOSトークンを出力しない場合はデコードを中止し入力中の先頭の{疑問文}を出力する.入力中に{疑問文}が存在しない場合は,先頭文を出力する.{EOSトークンが20語以内に出力されない現象はコピー機構付きエンコーダデコーダにおいて発生し,その割合は評価事例全体の約20\%である.}\subsection{ROUGEによる自動評価}本研究の課題設定においては,出力文数は1文という制約を課しているが文字数の制約はない.しかし,より短い文に適切な情報を埋め込んだ要約はより良い要約であると考えられる.そこで,本研究ではROUGE-2の適合率による評価に加えROUGE-2F値による評価を行う.表\ref{table-rouge}に各比較手法のROUGE値を示す.具体的には規則に基づく手法として{リード文,リード疑問文,末尾疑問文},機械学習に基づく手法として分類モデル,回帰モデル,エンコーダ・デコーダに基づく手法として注意機構付きエンコーダ・デコーダ,コピー機構付きエンコーダ・デコーダをそれぞれ示す.{回帰モデルについては,文集合全体からスコアが最大になる文を選ぶモデルと,疑問文集合からスコア最大になる文を選ぶモデルの性能を示す.}\begin{table}[t]\caption{ROUGE-2による性能評価}\label{table-rouge}\input{02table07.tex}\end{table}規則に基づく手法において,リード疑問文を抽出する手法のROUGE値の適合率は45.3であり,末尾疑問文を抽出する手法の42.6やリード文を抽出する手法の39.4よりも良い性能を示した.F値でも同様の順で良い性能を示した.先頭文を出力する規則は既存の要約課題においては強いベースラインとして知られる.しかし,質問要約課題においては先頭文を選択する手法より,{リード疑問文や末尾疑問文など疑問文}を優先的に出力するモデルのほうが良い性能を示す.また,{リード疑問文の方が末尾疑問文}よりも適合率において良い性能を示した.分類モデルと{リード疑問文}を比較すると,ROUGE値の適合率がそれぞれ44.3と44.7であり,ほぼ同等の性能を示した.ほとんどの入力にはたかだか1--2文の{規則で同定可能な疑問文}しか含まれず,分類器を用いても{リード疑問文}よりも大きく性能を向上させることが難しいものと考えられる.回帰モデルおよび分類モデルの性能は,{適合率による評価においてリード疑問文}ベースラインよりもわずかに低くなった.このことから,{リード疑問文}ベースラインは質問要約課題において強いベースラインであることが分かる.{また,機械学習に基づく手法についても規則に基づく手法と同様に,質問文を優先的に選択するモデルが良い性能を示した.}注意機構を持たないエンコーダ・デコーダモデルについては適合率で3.5と極端に低い性能を示した.\citeA{luong2015emnlp}が述べるように,注意機構を持たないエンコーダ・デコーダモデルは入力系列が長くなると性能が劣化する.本研究の入力は通常の機械翻訳の設定よりも長く,注意機構なしのエンコーダ・デコーダモデルでは正しくパラメータが学習されず,正しい要約を出力できなかった.注意機構付きエンコーダ・デコーダでは,この問題が解決され適合率およびF値が38.5と規則に基づく手法や機械学習に基づく手法よりも良い性能を示した.コピー機構付きエンコーダ・デコーダでは,適合率が47.4,F値が42.2とさらに性能が向上した.抽出的な手法はエンコーダ・デコーダを用いた生成的な手法よりも長い単語列を出力する傾向にある.そのため,適合率では良い性能を示すが,F値においては生成型よりも劣る.コピー機構付きエンコーダ・デコーダでは適合率でもF値でも抽出型よりも良い性能を示した.\subsection{人手評価}本研究ではROUGEによる自動評価に加え,クラウドソーシングサービスである\linebreakCrowdflower\footnote{http://crowdflower.com}を用いた人手評価でも各モデルの性能を比較する.本研究では,英語として正しく,入力の質問{テキスト}と同じ事柄について尋ねる要約がより望ましいと考える.そのため,人手評価においては,作業者に入力質問{テキスト}と各モデルで生成した出力要約を提示し,``文法性''および``フォーカス''の2つの観点からより良い順に並べ替えるよう指示した.手法間の文法性やフォーカスに差異が見られない場合には,同順としても良いこととした.{評価者には「例えばQAコミュニティサイトでのタイトルでの利用を想定する」という応用先を伝えた.}\mbox{``文}法性''は英語として正しい文法で記述されているか,``フォーカス''は入力質問{テキスト}と出力要約の尋ねている事柄が等しいかを表す評価基準である.比較手法としては,自動評価で良い性能を示した4つの手法を採用した.具体的には,人間による正解,規則を用いて抽出した{リード疑問文},分類器が正例と判定した文のうち先頭,コピー機構付きエンコーダ・デコーダを用いた.評価には自動評価で用いた評価データから無作為に抽出した100事例を用い,各事例に対して3人の作業者が評価した.``文法性'',``フォーカス''の観点に基づく結果を表\ref{human-grammaticality},\ref{human-focus}にそれぞれ示す.この表では,行に示す各手法が列に示す手法よりもより良いと判定された回数を示している.例えば,人間によるタイトルはフォーカスの観点において{リード疑問文}を抽出する手法よりも135回より良いと判定され,{リード疑問文}は人間によるタイトルよりも69回より良いと判定された.\begin{table}[b]\caption{人手評価結果—文法性—}\label{human-grammaticality}\input{02table08.tex}\end{table}\begin{table}[b]\caption{人手評価結果—フォーカス—}\label{human-focus}\input{02table09.tex}\end{table}人手評価では文法性,フォーカスどちらの観点においても自動評価と似た傾向を示した.具体的には,人間によるタイトル,コピー機構付きエンコーダ・デコーダモデル,{リード疑問文}および分類モデルの順でより良いと判定された.入力質問{テキスト}に含まれる規則で同定可能な{疑問文}はたかだか1--2文であることが多く,{リード疑問文}と分類モデルはほぼ同様の出力をした.そのため,人手評価においても差が見られなかった.コピー機構と人間によるタイトルを比較すると,フォーカス,文法性の観点においてそれぞれ89回,69回,コピー機構が人間のタイトルよりも良いと判定されている.このような事例の出力を分析すると,人間の付与するタイトルには重要な単語まで除去しているものや,完全な文ではない事例が含まれることがわかった.例えば,コピー機構が“Howdoyoustoptheitchingaftershaving?''と出力する事例に対し,人間のタイトルでは“aftershaving''が除去され,さらに短い要約となっている事例などでは,コピー機構の方がより正しいフォーカスを持つと判定された.また,人間のタイトルでは“Thebestwaytogetmoney?''など疑問詞を省略する事例がいくつか観測された.このような事例の文法性に基づく評価では,``Whatisthebestwaytogetmoney?''など疑問詞を省略せずに出力する傾向のあるコピー機構よりも低く評価されている.\subsection{定性的分析}本節では,実際の出力例を基に定性的な分析を行う.表\ref{output-example1}に入力質問{テキスト}と各モデルの出力例を示す.抽出型手法である{リード疑問文}や分類モデルでは,照応詞の``it''が含まれ,フォーカスが不明確となることがある.このような照応の問題が,フォーカスでのスコアを下げる要因の一つであると考えられる.この例から単一質問文に要約する課題設定においては,複数の文にまたがる情報をうまく組み合わせる必要があり,抽出的手法では適切な要約を出力するのが難しいことが分かる.生成型の手法である注意機構付きエンコーダ・デコーダモデルでは,``TheSompsons''のような低頻度語は特別なトークンUNKとして出力され,ROUGE値を下げる要因となっている.同様の問題が機械翻訳課題でも報告されており\cite{bahdanau2015iclr},この問題を解決するコピー機構付きエンコーダ・デコーダモデルでは,``TheSimpsons''という重要語を正しく出力に含められている.\begin{table}[t]\caption{各手法の出力要約}\label{output-example1}\input{02table10.tex}\end{table}
\section{おわりに}
本研究では新たな要約課題として,複数文から構成される質問{テキスト}を入力とし,その内容を端的に表現する単一質問文に要約する“質問要約”課題を提案した.コミュニティ質問応答サイトの投稿を用いた事例分析において,抽出型の手法では要約できない事例の存在を確認した.また,このデータをフィルタリングしたデータを用い,いくつかの抽出型および生成型要約モデルを構築し,比較した.先頭文を抽出する手法は既存の要約課題において強いベースラインとして知られるが,質問要約においては規則を用いて同定した疑問文のうち先頭を出力する手法より良い性能を示した.実験より,生成型の要約モデルがROUGE-2F値においてより良い性能を示すことがわかった.構築した手法は人間によるタイトルよりもROUGE値および人手評価において,低い性能を示していることから,質問要約課題にはさらなる性能向上の余地が残されていると考える.\acknowledgment本稿はIJCNLP2017に採録済みの論文を基にしたものです\cite{ishigaki2017ijcnlp}.本研究はJSTさきがけJPMJPR1655の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2015iclr}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemCoRR}.\newblock{\bfseriesabs/1409.0473}.\bibitem[\protect\BCAY{Bank,Mittal,\BBA\Witbrock}{Banket~al.}{2010}]{banko2000acl}Bank,M.,Mittal,V.~O.,\BBA\Witbrock,M.~J.\BBOP2010\BBCP.\newblock\BBOQHeadlineGenerationBasedonStatisticalTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2010},\mbox{\BPGS\318--325}.\bibitem[\protect\BCAY{Basak,Pal,\BBA\Patranabis}{Basaket~al.}{2007}]{basak2007support}Basak,D.,Pal,S.,\BBA\Patranabis,D.~C.\BBOP2007\BBCP.\newblock\BBOQSupportVectorRegression.\BBCQ\\newblock{\BemNeuralInformationProcessing-LettersandReviews},{\Bbf11}(10),\mbox{\BPGS\203--224}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\\mbox{Bengio}}{Choet~al.}{2014}]{gru}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\\mbox{Bengio},Y.\BBOP2014\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRnnEncoder-decoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2014},\mbox{\BPGS\1724--1734}.\bibitem[\protect\BCAY{Cohn\BBA\Lapata}{Cohn\BBA\Lapata}{2013}]{cohn2013acm}Cohn,T.\BBACOMMA\\BBA\Lapata,M.\BBOP2013\BBCP.\newblock\BBOQAnAbstractiveApproachtoSentenceCompression.\BBCQ\\newblock{\BemACMTransactionsonIntelligentSystemsandTechnology(TIST)},{\Bbf4}(3),\mbox{\BPG~41}.\bibitem[\protect\BCAY{Dorr,Zajic,\BBA\Schwartz}{Dorret~al.}{2003}]{dorr2003naacl}Dorr,B.,Zajic,D.,\BBA\Schwartz,R.\BBOP2003\BBCP.\newblock\BBOQHedgetrimmer:AParse-and-trimApproachtoHeadlineGeneration.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2003TextSummarizationWorkshop},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Duboue}{Duboue}{2012}]{pablo2012inlg}Duboue,P.~A.\BBOP2012\BBCP.\newblock\BBOQExtractiveEmailThreadSummarization:CanWeDoBetterThanHeSaidSheSaid?\BBCQ\\newblockIn{\BemProceedingsofINLG2012},\mbox{\BPGS\85--89}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{liblinear}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Gu,Lu,Li,\BBA\Li}{Guet~al.}{2016}]{gu2016acl}Gu,J.,Lu,Z.,Li,H.,\BBA\Li,V.~O.\BBOP2016\BBCP.\newblock\BBOQIncorporatingCopyingMechanisminSequence-to-SequenceLearning.\BBCQ\\newblockIn{\BemProceedingsofACL2016},\mbox{\BPGS\1631--1640}.\bibitem[\protect\BCAY{Hirao,Isozaki,Maeda,\BBA\Matsumoto}{Hiraoet~al.}{2002}]{hirao2002coling}Hirao,T.,Isozaki,H.,Maeda,E.,\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQExtractingImportantSentenceswithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofCOLING2002},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{lstm}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Ishigaki,Takamura,\BBA\Okumura}{Ishigakiet~al.}{2017}]{ishigaki2017ijcnlp}Ishigaki,T.,Takamura,H.,\BBA\Okumura,M.\BBOP2017\BBCP.\newblock\BBOQSummarizingLengthyQuestions.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP2017},\lowercase{\BVOL}~1,\mbox{\BPGS\792--800}.\bibitem[\protect\BCAY{Kikuchi,Neubig,Sasano,Takamura,\BBA\Okumura}{Kikuchiet~al.}{2016}]{kikuchi2016emnlp}Kikuchi,Y.,Neubig,G.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2016\BBCP.\newblock\BBOQControllingOutputLengthinNeuralEncoder-Decoders.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2016},\mbox{\BPGS\1328--1338}.\bibitem[\protect\BCAY{Li,Qian,\BBA\Liu}{Liet~al.}{2013}]{li2013acl}Li,C.,Qian,X.,\BBA\Liu,Y.\BBOP2013\BBCP.\newblock\BBOQUsingSupervisedBigram-basedILPforExtractiveSummarization.\BBCQ\\newblockIn{\BemProceedingsofACL2013},\mbox{\BPGS\1004--1013}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{rouge2004aclworkshop}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofACL2004Workshop},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1958}]{luhn1958ibm}Luhn,H.~P.\BBOP1958\BBCP.\newblock\BBOQTheAutomaticCreationofLiteratureAbstracts.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf2}(2),\mbox{\BPGS\159--165}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong2015emnlp}Luong,M.-T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2015},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{Mihalcea\BBA\Tarau}{Mihalcea\BBA\Tarau}{2004}]{rada2004emnlp}Mihalcea,R.\BBACOMMA\\BBA\Tarau,P.\BBOP2004\BBCP.\newblock\BBOQTextRank:BridgingOrderintoTexts.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\404--411}.\bibitem[\protect\BCAY{Oya\BBA\Carenini}{Oya\BBA\Carenini}{2014}]{oya2014sigdial}Oya,T.\BBACOMMA\\BBA\Carenini,G.\BBOP2014\BBCP.\newblock\BBOQExtractiveSummarizationandDialogueActModelingonEmailThreads:AnIntegratedProbalisticApproach.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL2014},\mbox{\BPGS\133--140}.\bibitem[\protect\BCAY{Oya,Mehdad,Carenini,\BBA\Ng}{Oyaet~al.}{2014}]{oya2014inlg}Oya,T.,Mehdad,Y.,Carenini,G.,\BBA\Ng,R.\BBOP2014\BBCP.\newblock\BBOQATemplate-basedAbstractiveMeetingSummarization:LeveragingSummaryandSourceTextRelationships.\BBCQ\\newblockIn{\BemProceedingsofINLG2014},\mbox{\BPGS\45--53}.\bibitem[\protect\BCAY{Peyrard\BBA\Eckale-Kohler}{Peyrard\BBA\Eckale-Kohler}{2016}]{peyrard2016acl}Peyrard,M.\BBACOMMA\\BBA\Eckale-Kohler,J.\BBOP2016\BBCP.\newblock\BBOQOptimizinganApproximationofROUGE---aProblem-ReductionApproachtoExtractiveMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsofACL2016},\mbox{\BPGS\1825--1836}.\bibitem[\protect\BCAY{Rush,Chopra,\BBA\Weston}{Rushet~al.}{2015}]{rush2015acl}Rush,A.~M.,Chopra,S.,\BBA\Weston,J.\BBOP2015\BBCP.\newblock\BBOQANeuralAttentionModelforSentenceSummarization.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2015},\mbox{\BPGS\379--389}.\bibitem[\protect\BCAY{Shen,Sun,Li,Yang,\BBA\Chen}{Shenet~al.}{2007}]{shen2007ijcai}Shen,D.,Sun,J.-T.,Li,H.,Yang,Q.,\BBA\Chen,Z.\BBOP2007\BBCP.\newblock\BBOQDocumentSummarizationusingConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofIJCAI2007},\mbox{\BPGS\2862--2867}.\bibitem[\protect\BCAY{Suykens\BBA\Vandewalle}{Suykens\BBA\Vandewalle}{1999}]{suykens1999least}Suykens,J.~A.\BBACOMMA\\BBA\Vandewalle,J.\BBOP1999\BBCP.\newblock\BBOQLeastSquaresSupportVectorMachineClassifiers.\BBCQ\\newblock{\BemNeuralProcessingLetters},{\Bbf9}(3),\mbox{\BPGS\293--300}.\bibitem[\protect\BCAY{Tamura,Takamura,\BBA\Okumura}{Tamuraet~al.}{2005}]{tamura2005}Tamura,A.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQClassificationofMultiple-SentenceQuestions.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP2005},\mbox{\BPGS\426--437}.\bibitem[\protect\BCAY{Woodsend,Feng,\BBA\Lapata}{Woodsendet~al.}{2010}]{wubben2012acl}Woodsend,K.,Feng,Y.,\BBA\Lapata,M.\BBOP2010\BBCP.\newblock\BBOQGenerationwithQuasi-synchronousGrammar.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2010},\mbox{\BPGS\513--523}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zajic,Dorr,\BBA\Schwartz}{Zajicet~al.}{2004}]{zajic2004naacl}Zajic,D.,Dorr,B.~J.,\BBA\Schwartz,R.\BBOP2004\BBCP.\newblock\BBOQBbn/umdatduc-2004.\BBCQ\\newblockIn{\BemProceedingsofNAACL-HLT2004DocumentUnderstandingWorkshop},\mbox{\BPGS\112--119}.\end{thebibliography}\begin{biography}\bioauthor{石垣達也}{2012年茨城工業高等専門学校専攻科情報工学コース修了.2014年年東京工業大学総合理工学研究科博士前期課程修了.同年,同大学博士後期課程に進学.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V12N05-04
|
\section{はじめに}
\label{sec:intro}機械翻訳システムなどで利用される対訳辞書に登録すべき表現を対訳コーパスから自動的に獲得する方法の処理対象は,固有表現と非固有表現に分けて考えることができる.固有表現と非固有表現を比べた場合,固有表現は,既存の辞書に登録されていないものが比較的多く,辞書未登録表現が機械翻訳システムなどの品質低下の大きな原因の一つになっていることなどを考慮すると,優先的に獲得すべき対象である.このようなことから,我々は,英日機械翻訳システムの対訳辞書に登録すべき英語固有表現とそれに対応する日本語表現との対を対訳コーパスから獲得する方法の研究を行なっている.固有表現とその対訳を獲得することを目的とした研究は,単一言語内での固有表現の認識を目的とした研究に比べるとあまり多くないが,文献\cite{Al-Onaizan02,Huang02,Huang03,Moore03}などに見られる.これらの従来研究では,抽出対象の英語固有表現は前置修飾句のみを伴う{\BPNP}に限定されており,前置詞句を伴う名詞句や等位構造を持つ名詞句についての議論は行なわれていない.しかし,実際には,``theU.N.InternationalConferenceonPopulationandDevelopment''のように前置詞句による後置修飾と等位構造の両方または一方を持つ固有表現も少なくない.そこで本稿では,前置詞句と等位構造の両方または一方を持つ英語の固有名詞句を抽出することを目指す.このような英語の固有名詞句には様々な複雑さを持つものがあるが,できるだけ長い固有名詞句を登録することにする.このような方針をとると副作用が生じる恐れもあるが,翻訳品質が向上することが多いというこれまでのシステム開発の経験に基づいて,最も長い名詞句を抽出対象とする.以下では,このような英語の固有名詞句を単に{\CPNP}と呼ぶ.{\CPNP}を処理対象にすると,前置修飾のみを伴う{\BPNP}を処理対象としていたときには生じなかった課題として,前置詞句の係り先や等位構造の範囲が誤っている英語固有表現を抽出しないようにすることが必要になる.例えば次の英文(E\ref{SENT:pp_ok0})に現れる``JapaneseEmbassyinMoscow''という表現は意味的に適格で一つの{\CPNP}であるが,英文(E\ref{SENT:pp_ng0})に現れる``theUnitedStatesintoWorldWarII''は意味的に不適格で一つの{\CPNP}ではない.\begin{SENT}\sentETheministryquicklyinstructedtheJapaneseEmbassyinMoscowto$\ldots$.\label{SENT:pp_ok0}\end{SENT}\begin{SENT}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\label{SENT:pp_ng0}\end{SENT}従って,英文から抽出される表現の意味的適格性を判断し,適格な表現についてはその対訳と共に出力し,不適格な表現については何も出力しないようにする必要がある.本稿ではこのような課題に対する一つの解決策を示す.なお,本稿での意味的に不適格な表現とは,前置詞句の係り先や等位構造の範囲が誤っている表現を指す.{\CPNP}は句レベルの表現であるため,提案方法は一般の句アライメント手法\cite{Meyers96,Watanabe00,Menezes01,Imamura02,Aramaki03}の一種であると捉えることもできる.しかし,一般の句アライメント手法では構文解析により生成した構文木(二次元構造)の照合によって句レベルの表現とその対訳を獲得するのに対して,提案方法では文献\cite{Kitamura97}などの方法と同様に構文解析を行なわずに単語列(一次元構造)の照合によって{\CPNP}とその対訳を獲得する点で両者は異なる.すなわち,本稿の目的は,これまであまり扱われてこなかった,複雑な構造を持つ{\CPNP}とその対訳をコーパスから抽出するという課題において,構文解析系に代わる手段を導入することによってどの程度の性能が得られるかを検証することにある.
\section{{\CPNP}と{\JNP}の対応付け}
\label{sec:outline}一般に英語での名詞句が日本語での名詞句に対応するとは限らないが,本稿で対象とするような{\CPNP}は日本語の名詞句に対応することが多いと考えられる.このため,名詞句同士が対応するものと仮定する.本稿で提案する方法による{\CPNP}と{\JNP}の対応付け処理の概要は次の通りである.\begin{enumerate}\item\label{enum:eng}対訳コーパスの英文部分から{\CPNP}を抽出する.{\CPNP}の抽出方法の詳細については\ref{sec:eng_np}\,節で述べる.\item\label{enum:mt}抽出された{\CPNP}を機械翻訳システムで翻訳し,その結果に対して形態素解析を行なう.翻訳には,シャープ(株)の英日翻訳支援ソフトウェア「翻訳これ一本」の開発段階のバージョンを用いた.このバージョンによる翻訳品質は市販バージョンによるものとほぼ同等である.また,形態素解析には「茶筌」\footnote{http://chasen.aist-nara.ac.jp/chasen/}を利用した.\item\label{enum:jpn}対訳コーパスの和文部分を形態素解析し,解析結果に基づいて{\JNP}を抽出する.{\JNP}の抽出方法の詳細については\ref{sec:jpn_np}\,節で述べる.\item\label{enum:align}処理(\ref{enum:eng})と(\ref{enum:mt})によって得られる{\CPNP}の機械翻訳結果(以下では{\MTNP}と呼ぶ)と処理(\ref{enum:jpn})で得られる{\JNP}を照合して,{\CPNP}に対応する{\JNP}を決定する.照合では,意味的類似性と音韻的類似性の二つの観点から{\MTNP}と{\JNP}の対を評価し,さらに二種類の類似度を統合して全体としての類似度を求める.照合方法の詳細については\ref{sec:alignment:align}\,節で述べる.\end{enumerate}\ref{sec:intro}\,節で述べたように,前置詞句や等位構造を持つ名詞句を処理対象にすると意味的に不適格な表現の抽出を抑制することが必要になる.意味的不適格表現の抽出抑制は,{\CPNP}を抽出する処理(\ref{enum:eng})の段階か{\MTNP}と{\JNP}を照合する処理(\ref{enum:align})の段階で行なえると考えられるが,本稿では照合処理(\ref{enum:align})で行なう.{\CPNP}と{\JNP}の対応付け処理を実現するために,読売新聞とTheDailyYomiuriの対訳コーパス\cite{Uchiyama03}の1989年から1996年7月中旬までの記事のうち内山らの文対応スコアの上位三万文対を資料として用いた.以下では,この資料を訓練データと呼ぶ.
\section{{\CPNP}の抽出}
\label{sec:eng_np}\ref{sec:outline}\,節で述べたように,{\CPNP}が意味的に適格か否かの判定は{\MTNP}と{\JNP}の照合処理に委ねる.従って,{\CPNP}の抽出処理では構文的に不適格な{\CPNP}を抽出しないようにすることに重点を置く.このような方針に基づき,構文解析を行なわずに英文から{\CPNP}を抽出するための条件を定めた\footnote{これらの条件に基づく処理では構文的または意味的に不適格な名詞句が抽出されうるため,{\CPNP}は厳密には{\CPNP}候補と呼ぶべきであるが,便宜上{\CPNP}と呼ぶことにする.}.主な条件は次の通りである.\begin{COND}\cond\label{cond:np}{\CPNP}$ComplexNP$は前修飾句のみを伴う{\BPNP}$BaseNP$を前置詞$P$か等位接続詞$C$でつないだ単語列であり,$P$か$C$を一つ以上含む.記号`$+$'は一回以上の繰り返しを意味する.\begin{eqnarray*}ComplexNP&=&BaseNP\((P|C)\BaseNP)^+\end{eqnarray*}\cond\label{cond:bnp}{\BPNP}$BaseNP$は大文字始まり語か数字から成る単語列である.$BaseNP$の先頭は小文字始まりの定/不定冠詞であってもよい.\cond\label{cond:comma}等位接続詞$C$はandかコンマのいずれかである.{\CPNP}$ComplexNP$にコンマが含まれている場合,コンマより後方にandが存在しなければならない.\cond\label{cond:poss}{\CPNP}$ComplexNP$の末尾の語は属格名詞ではない.\cond\label{cond:adv}{\CPNP}$ComplexNP$が文頭に現れている場合,$ComplexNP$の先頭の語の品詞は前置詞,接続詞,副詞のいずれでもない.\cond\label{cond:length}{\CPNP}$ComplexNP$は条件\ref{cond:np}\,ないし\ref{cond:adv}\,を満たす単語列のうち最も長いものである.\end{COND}条件\ref{cond:bnp}\,では大文字始まり語の品詞は問わない.従って,本稿の{\CPNP}抽出処理では構文解析だけでなく形態解析も不要である.条件\ref{cond:comma}\,は,{\CPNP}が{\BPNP}を等位接続詞でつないだものであり,コンマが等位接続詞として働いている場合,{\CPNP}中の最後の等位接続詞はandであることが多いという経験則に基づく.条件\ref{cond:comma}\,により,例えば次の英文(E\ref{SENT:comma})から``MoscowinApril,TheYomiuriShimbun''が{\CPNP}として抽出されるのを防ぐことができる.\begin{SENT}\sentETheRussiangovernmenthasdecidedtosign$\ldots$inMoscowinApril,TheYomiuriShimbunlearnedonWednesday.\label{SENT:comma}\end{SENT}条件\ref{cond:poss}\,を設けた理由は,{\CPNP}の末尾の語が属格名詞である場合,属格名詞が修飾する主辞を{\CPNP}の構成要素として正しく抽出できないことが多いためである\footnote{``theHouseofRepresentatives'counterpart''のような群属格の場合は,条件\ref{cond:poss}\,を満たす必要はない.}.条件\ref{cond:poss}\,により,例えば``IBMandtheU.S.'sbigthreeautomanufacturers''における``IBMandtheU.S.'s''の部分が抽出されるのを防ぐことができる.ただし,{\CPNP}の末尾の語が属格名詞でない場合にはこのような誤りを防ぐことはできず,例えば``theSelf-DefenseForcesandU.S.forces''から``theSelf-DefenseForcesandU.S.''の部分が誤って抽出されてしまう.条件\ref{cond:adv}\,は,例えば次の英文(E\ref{SENT:adv})から``HopefullyJapanandtheEC''ではなく``JapanandtheEC''を抽出するために設定したものである.\begin{SENT}\sentEHopefullyJapanandtheECwillstrengthentheirrelationshipevenfurther.\label{SENT:adv}\end{SENT}この判定は当該語と前置詞,接続詞,副詞の一覧表との照合によって行なう.なお,副詞の一覧表に登録されている語のうちEast,West,North,Southなど15語は,例えば``WestGermany,BritainandItaly''のように,これらが名詞または形容詞として機能している{\CPNP}が訓練データにおいて比較的多く見られたので,副詞の一覧表から削除した.条件\ref{cond:length}\,は,\ref{sec:intro}\,節で述べたように,英日機械翻訳システムの対訳辞書にできるだけ長い英語固有表現を登録すると翻訳品質が向上することが多いという経験に基づいて設定したものである.しかし,抽出対象を最長の単語列に限定することは,対応付け漏れが生じる原因の一つとなる.この点に関しては\ref{sec:experiment:error}\,節で検証する.
\section{{\JNP}の抽出}
\label{sec:jpn_np}{\JNP}抽出処理では,用言による連体修飾を含まない名詞句を{\CPNP}に対応する対訳候補として抽出する.これは,訓練データにおいて{\CPNP}に対応する{\JNP}が用言による連体修飾を含んでいる割合が1.4\%と非常に少なかったためである.構文解析を行なわずに和文から{\JNP}$JNP$を抽出するための主な条件は次の通りである.\begin{COND}\cond\label{cond:jnp}{\JNP}$JNP$は{\N}$JN$であるかまたは$JN$を付属語$F$でつないだ単語列である.記号`*'は零回以上の繰り返しを意味する.\begin{eqnarray*}JNP&=&(JN\F)^*\JN\end{eqnarray*}\cond\label{cond:jn}{\N}$JN$は次の条件を満たす単語列のうち最も長いものである.\begin{enumerate}\item$JN$の構成要素は名詞-一般,名詞-副詞可能,名詞-サ変接続,名詞-形容動詞語幹,名詞-ナイ形容詞語幹,名詞-固有名詞,名詞-代名詞,名詞-数,名詞-接尾,名詞-非自立(「の」を除く),名詞-接続詞的,未知語,接頭詞-名詞接続,接頭詞-数接続,記号-アルファベットのいずれかの「茶筌」品詞を持つ語である.\item$JN$の先頭は名詞-接尾,名詞-非自立以外の構成要素である.\item$JN$の末尾は名詞-接続詞的,接頭詞-名詞接続,接頭詞-数接続以外の構成要素である.\item名詞に「する」か「できる」が後接している場合と,名詞-形容動詞語幹に助動詞-特殊・ダが後接している場合,当該名詞は$JN$の構成要素ではない.\end{enumerate}\cond\label{cond:joshi}$JN$をつなぐ付属語$F$は次のいずれかである.\begin{enumerate}\item助詞-並立助詞(「と」や「や」など).\item助詞または名詞-非自立-副詞可能の連続であり末尾が助詞-連体化「の」であるもの(「との間の」や「のための」など).\item助詞-格助詞-連語のうち末尾がウ段の平仮名か「た」であるもの(「という」,「に関する」,「に対する」,「といった」など).\item記号-読点.\item記号-一般のうち「・」と「=」.\item接続詞.記号-読点が接続詞に前接または後接していてもよい.\item条件\ref{cond:jn_exception}\,により挿入される特殊記号.\end{enumerate}\cond\label{cond:jn_exception}条件\ref{cond:jn}\,を満たす単語列にあらかじめ指定した語が含まれている場合,付属語$F$として機能する特殊記号が当該語の直前に挿入される.\cond\label{cond:jlength}$JNP$は条件\ref{cond:jnp}\,ないし\ref{cond:jn_exception}\,を満たすあらゆる長さの単語列である.\end{COND}条件\ref{cond:jlength}\,により,{\CPNP}の場合と異なり,条件を満たす最長の単語列だけではなく,その部分単語列も抽出される.例えば次の和文(J\ref{SENT:bank})からは最長の単語列「厚生年金保険法と国民年金法の改正案」の他に,「厚生年金保険法と国民年金法」,「国民年金法の改正案」,「厚生年金保険法」,「国民年金法」,「改正案」が{\JNP}として抽出される.\begin{SENT2}\sentEThebillstorevisetheWelfarePensionInsuranceLawandtheNationalPensionLawareexpectedtobesubmittedto$\ldots$.\sentJ$\ldots$厚生年金保険法と国民年金法の改正案を提出する.\label{SENT:bank}\end{SENT2}条件\ref{cond:jn}\,によれば{\N}は最長のものだけが抽出されるが,条件\ref{cond:jn_exception}\,は条件\ref{cond:jn}\,に対する例外条件であり,{\N}を分割して得られる部分単語列を{\JNP}として抽出するためのものである.分割箇所は,訓練データを観察した結果に基づいて,一部の名詞-サ変接続や名詞-接尾(「間」,「内」,「向け」など)のところとする.例えば次の和文(J\ref{SENT:create})の場合,条件\ref{cond:jn_exception}\,によりサ変名詞「創設」の直前に特殊記号が挿入される.\begin{SENT2}\sentEIsrael,Jordan,theUnitedStatesandtheEuropeanUnionarekeenoncreatingaMiddleEastandNorthAfricaDevelopmentBank,$\ldots$.\sentJ$\ldots$中東・北アフリカ開発銀行創設には,イスラエルやヨルダン,米国,欧州連合が積極的だ.\label{SENT:create}\end{SENT2}このため,「中東・北アフリカ開発銀行創設」は「中東・北アフリカ開発銀行」と「創設」の間に付属語(例えば助詞「の」)が存在するかのように処理される.従って,「中東・北アフリカ開発銀行創設」の他に「中東・北アフリカ開発銀行」と「創設」が{\JNP}として抽出される\footnote{「・」を付属語として扱うので,実際には「北アフリカ開発銀行創設」,「中東」,「北アフリカ開発銀行」も抽出される.}.このように,条件\ref{cond:jn_exception}\,により日本語{\N}全体だけではなくその部分単語列も{\CPNP}に対応する候補として抽出することができる.英文(E\ref{SENT:create})から抽出される{\CPNP}の一つは``aMiddleEastandNorthAfricaDevelopmentBank''であるが,和文(J\ref{SENT:create})から抽出された{\JNP}の中にはこの{\CPNP}に対応する「中東・北アフリカ開発銀行」が含まれている.
\section{{\MTNP}と{\JNP}の照合}
\label{sec:alignment:align}照合処理では,(1)意味的類似性と音韻的類似性の二つの観点から{\MTNP}と{\JNP}の対を評価し,二種類の類似度を統合して全体としての類似度を求め,さらに,(2){\CPNP}の意味的適格性を判断し,適格な場合にのみ{\JNP}との対応付けを行なう.\subsection{意味的類似性の評価:文字単位での比較}\label{sec:alignment:align:sem}二つの日本語文字列を照合して両者の類似度を求める方法は,照合を単語単位で行なう方法\cite{Sumita91,TanakaH99}と文字単位で行なう方法\cite{Sato92}に分けられる.このうち後者の方法には,日本語の文字は一文字でもある程度の意味を表わす表意文字であるため,シソーラスなしでも類義語の照合が近似的に行なえるという利点がある\cite{Sato92}.この利点を考慮して,{\MTNP}と{\JNP}の照合を文字単位で行なう.なお,照合の対象は{\MTNP}と{\JNP}のそれぞれの{\N}の部分とし,付属語部分は対象外とする.{\MTNP}と{\JNP}の意味的類似性を表わす尺度としてジャッカード係数\cite{Romesburg92}を用いる\footnote{ジャッカード係数を対訳獲得に利用した研究としては文献\cite{Kaji01}などがある.}.ジャッカード係数は,この場合,{\MTNP}の{\N}部分と{\JNP}の{\N}部分の両方に現れる文字の数を,少なくとも一方に現れる文字の数で割った値であると定義できる.すなわち,{\MTNP}の{\N}部分に現れる文字の集合(文字の出現順序を考慮せず,文字の重複を許す)を$X$,{\JNP}の{\N}部分に現れる文字の集合を$Y$とし,さらに,$X$と$Y$の両方に現れる文字の集合$U$としたとき,{\MTNP}と{\JNP}の対に対する意味的類似度$S_{sem}$は次の式(\ref{eq:jaccard})で求められる.\begin{equation}S_{sem}=\frac{|U|}{|X|+|Y|-|U|}\label{eq:jaccard}\end{equation}ある英文から抽出される``TheHeadquartersoftheStruggleagainstConsumptionTaxRaise''という{\CPNP}を実験に用いた機械翻訳システムで翻訳すると「消費税上昇に対する奮闘の本部」というMT訳が得られる.このMT訳において{\N}部分は「消費税上昇」,「奮闘」,「本部」であり,文字数は9文字である.他方,この英文に対応する和文から抽出される「消費税率引き上げ反対運動推進本部」という{\JNP}は{\N}のみから構成されており,文字数は16文字である.このとき,{\MTNP}の{\N}を構成する文字の集合と{\JNP}の{\N}を構成する文字の集合の両方に現れる文字は「消」,「費」,「税」,「上」,「本」,「部」の6文字である.従って,{\MTNP}「消費税上昇に対する奮闘の本部」と{\JNP}「消費税率引き上げ反対運動推進本部」の意味的類似度として,$S_{sem}=6/(9+16-6)=0.316$という値が与えられる.この値を,{\CPNP}``TheHeadquartersoftheStruggleagainstConsumptionTaxRaise''と{\JNP}「消費税率引き上げ反対運動推進本部」との間の意味的類似度と解釈する.\subsection{意味的類似性の評価:文字種を考慮した比較}\label{sec:alignment:align:sem_chartype}\ref{sec:alignment:align:sem}\,節で述べた文字単位の照合では,すべての文字種(漢字,平仮名,片仮名,英字,数字,記号など)を同等に扱っている.このような文字種の違いを考慮しない処理では,漢字以外の文字同士が不適切に適合してしまうことがある.例えば,ある英文から抽出される{\CPNP}``KasumigasekiStationoftheTeitoRapidTransitAuthority''のMT訳は「帝都高速度交通営団のKasumigasekiステーション」となり,この英文に対応する和文からは「営団地下鉄・霞ヶ関駅」や「アタッシェケース」などの{\JNP}が抽出される.この場合,「帝都高速度交通営団のKasumigasekiステーション」と「営団地下鉄・霞ヶ関駅」の間の意味的類似度のほうが「帝都高速度交通営団のKasumigasekiステーション」と「アタッシェケース」の間の意味的類似度よりも高くなることが望ましい.しかし,実際には次のように後者の意味的類似度のほうが逆に高くなってしまう.正しい対応付けである「帝都高速度交通営団のKasumigasekiステーション」と「営団地下鉄・霞ヶ関駅」の{\N}の間に共通する文字は「営」と「団」であるので,式(\ref{eq:jaccard})によってこれらの間の意味的類似度$S_{sem}$は$2/(27+9-2)=0.059$となる.他方,「帝都高速度交通営団のKasumigasekiステーション」と「アタッシェケース」の{\N}の間に共通する文字は「シ」,「ー」,「ス」であるので,意味的類似度$S_{sem}$は$3/(27+8-3)=0.094$となる\footnote{類似度が比較的低いので閾値による制限でこの対応付けを出力しないようにすることもできるが,正しくない対応付けに正しい対応付けよりも高い類似度が与えられることは望ましくない.}.このような事例を観察すると,漢字は一文字でも意味を持つことが多いが,それ以外の字種の文字はそうではないことから,漢字と非漢字を同等に扱うのは適切ではないことが分かる.このような問題への対策として,文字種により重み付けを行なう方法がこれまでに示されている\cite{Baldwin01}.これに対して本稿では,照合の際,文字種により照合単位を変化させる\footnote{テキスト全文検索の高速化を目的として,文字種により文字列の長さを変化させる方法が文献\cite{Fukushima97,Matsui97}に示されている.}.具体的には,漢字の照合は文字単位とし,非漢字の照合は同一文字種の最長文字列単位(ただし単語境界は越えない)とする.非漢字の場合は同一文字種の最長文字列単位で一致しなければならないという条件を設けるが,類似度の計算ではジャッカード係数の求め方は漢字の場合も非漢字の場合も同じとする.すなわち,{\MTNP}の{\N}部分に現れる文字の集合を$X$,{\JNP}の{\N}部分に現れる文字の集合を$Y$とし,さらに,$X$と$Y$から同一文字種の最長文字列単位で互いに一致しない非漢字を削除した文字の集合をそれぞれ$X^\prime$,$Y^\prime$とし,$X^\prime$の$Y^\prime$の両方に現れる文字の集合$U^\prime$としたとき,{\MTNP}と{\JNP}の対に対する文字種を考慮した意味的類似度$S_{sem}^\prime$を次の式(\ref{eq:jaccard_chartype})で求める.\begin{equation}S_{sem}^\prime=\frac{|U^\prime|}{|X|+|Y|-|U^\prime|}\label{eq:jaccard_chartype}\end{equation}例えば``theAsianGamesinHiroshima''という{\MTNP}「広島のアジア競技大会」と{\JNP}「広島アジア大会」において片仮名表現「アジア」は最長文字列単位で一致する.従って,$X$と$Y$から「ア」,「ジ」,「ア」を削除する必要はないので,$X^\prime$と$Y^\prime$はそれぞれ$X$と$Y$と同じ集合となり,式(\ref{eq:jaccard_chartype})による意味的類似度$S_{sem}^\prime$は$7/(9+7-7)=0.778$となる.これは,式(\ref{eq:jaccard})によって求めた場合の意味的類似度と変わらない.他方,上記の「帝都高速度交通営団のKasumigasekiステーション」と「アタッシェケース」の場合は,$X$から「Kasumigasekiステーション」を構成する文字が削除されるので,$X^\prime$の要素は「帝」,「都」,「高」,「速」,「度」,「交」,「通」,「営」,「団」となり,$Y$からは「アタッシェケース」を構成する文字が削除されるので,$Y^\prime$は空集合となる.このため,$X^\prime$と$Y^\prime$に共通する文字は存在しなくなり,式(\ref{eq:jaccard_chartype})による意味的類似度$S_{sem}^\prime$は$0$となる.このように文字種を考慮した処理を行なうことによって,漢字以外の文字が短すぎる単位で適合することを防ぐことができる.\subsection{音韻的類似性の評価}\label{sec:alignment:align:pho}意味的類似性は,{\CPNP}の構成要素が機械翻訳システムの辞書に登録されており,そのMT訳が得られる場合には有効であるが,辞書に登録されていない場合には有効に働かない.特に,本稿で対象にしている{\CPNP}の構成要素は辞書に登録されていないことも少なくないと予想される.このような場合,翻字(transliteration)が有効である\cite{Al-Onaizan02,Virga03,Yoshimi04}.読売新聞とTheDailyYomiuriのように日本に関する事柄について述べた記事とその対訳記事が多く含まれるコーパスを処理対象とする場合,日本に関する{\CPNP}には日本語をローマ字表記した語が多く含まれる可能性が高い.このことに着目して,音韻的類似性の評価としてローマ字読みの照合を行なう.{\MTNP}に現れる辞書未登録語の読みは五十音表との照合によって得る.{\MTNP}中の辞書未登録語以外の読みと{\JNP}の読みは「茶筌」によって得ることができる.{\MTNP}と{\JNP}の音韻的類似度も意味的類似度の場合と同じくジャッカード係数で測定する.ただし,音韻的類似度の場合は文字単位ではなく単語単位で照合を行なう.すなわち,{\MTNP}の{\N}部分の読みの集合を$X$,{\JNP}の{\N}部分の読みの集合を$Y$とし,さらに,$X$と$Y$の両方に現れる読みの集合を$U$として,音韻的類似度$S_{pho}$を式(\ref{eq:jaccard})と同様の式で求める.\ref{sec:alignment:align:sem_chartype}\,節で述べたように,{\CPNP}``KasumigasekiStationoftheTeitoRapidTransitAuthority''に対応付けたい{\JNP}は「営団地下鉄・霞ヶ関駅」である.しかし,実験に用いた機械翻訳システムの辞書に``Kasumigaseki''が登録されていないため,この{\JNP}と{\CPNP}のMT訳「帝都高速度交通営団のKasumigasekiステーション」との意味的類似度は$0.059$と低くなる.五十音表との照合及び「茶筌」によって{\MTNP}の読みとして,「テイト」,「コウソクド」,「コウツウ」,「エイダン」,「カスミガセキ」,「ステーション」が得られる.また,「茶筌」によって{\JNP}の読みとして,「エイダン」,「チカテツ」,「カスミガセキ」,「エキ」が得られる.従って,{\MTNP}の読みと{\JNP}の読みの両方に現れる読みは「エイダン」と「カスミガセキ」となり,「帝都高速度交通営団のKasumigasekiステーション」と「営団地下鉄・霞ヶ関駅」の間の音韻的類似度$S_{pho}$は$2/(6+4-2)=0.250$となる.\subsection{意味的類似性の評価と音韻的類似性の評価の統合}\label{sec:alignment:align:integ}提案方法では,{\MTNP}に辞書未登録語が含まれている場合,次の式(\ref{eq:weight})のような加重和計算式に基づいて,文字種を考慮した意味的類似度$S^\prime_{sem}$と音韻的類似度$S_{pho}$を組み合わせて{\MTNP}と{\JNP}の間の総合類似度$S$を求める.{\MTNP}に辞書未登録語が含まれていない場合には,文字種を考慮した意味的類似度$S^\prime_{sem}$を総合類似度$S$とする.\begin{equation}S=\left\{\begin{array}{lp{0.31\columnwidth}}(1-\alpha)\timesS^\prime_{sem}+\alpha\timesS_{pho}&{\MTNP}に辞書未登録語が含まれている場合.\\S^\prime_{sem}&含まれていない場合.\end{array}\right.\label{eq:weight}\end{equation}$\alpha$は意味的類似性に対して音韻的類似性を重視する度合いを表わすが,現在のところ両者を同等に扱うために0.5としている\footnote{予備実験で最良の結果が得られるように調整した値ではない.}.そして,総合類似度$S$が閾値$th$以上である{\CPNP}と{\JNP}の対を出力する.\subsection{意味的不適格表現の抽出抑制}\label{sec:alignment:align:pp}\ref{sec:eng_np}\,節で述べた処理によって抽出される{\CPNP}には本来{\CPNP}の構成要素を修飾しない前置詞句が含まれている可能性がある.このような前置詞句を含む{\CPNP}は,意味的に不適格であるため,どの{\JNP}とも対応付けられてはならない.\ref{sec:intro}\,節で述べたように,次の英文(E\ref{SENT:pp_ng})から抽出される``theUnitedStatesintoWorldWarII''は意味的に不適格である.\begin{SENT2}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\sentJ真珠湾攻撃は,米国が第二次世界大戦に介入するきっかけを作った転換点でもあった.\label{SENT:pp_ng}\end{SENT2}しかし,\ref{sec:alignment:align:sem}\,ないし\ref{sec:alignment:align:integ}\,節の処理では,ある{\CPNP}に意味的に不適格な前置詞句が含まれているか否かを識別することは困難であり,このような例の場合に不適切な対応付けが行なわれてしまう.すなわち,``theUnitedStatesintoWorldWarII''のMT訳は「第二次世界大戦への米国」({\N}部分の文字数は9文字)となり,上記の和文(J\ref{SENT:pp_ng})から抽出される{\JNP}「第二次世界大戦」との間で「第二次世界大戦」の7文字が共有されるので,意味的類似度$S_{sem}$は$7/(9+7-7)=0.778$という比較的高い値となり,不適切な対応付けが得られてしまう.そこで,この点に対処するために新たな処理を導入する.ある{\CPNP}が意味的に不適格であり本来一つの名詞句を構成しないならば,この{\CPNP}に対応する日本語表現は,一つの{\JNP}という表現形式ではなく,他の表現形式になりやすいと考えられる\footnote{この作業仮説は,文献\cite{Utsuro92,Kinoshita93}などに示されている考えに近い.}.この作業仮説によれば,{\CPNP}が意味的に適格であるか否かは,{\MTNP}に対応する一つの{\JNP}が存在するか否かによって判定することができる.この判定は訓練データを観察した結果に基づいて設定した次の条件\ref{cond:pp}\,に基づいて行ない,{\MTNP}と{\JNP}が条件\ref{cond:pp}\,が満たされる場合に限り{\MTNP}に対応する一つの{\JNP}が存在するとみなすことにする.\begin{COND}\cond\label{cond:pp}{\MTNP}を構成するある{\N}$MTN_i(i=1,2,\ldots,n)$と{\JNP}の間の総合類似度$S_i$が閾値$th$以上である場合,$MTN_i$は{\CPNP}と{\JNP}の対応に関与すると呼ぶ.{\MTNP}を構成する$n$個の全{\N}のうち$m$個の{\N}が{\CPNP}と{\JNP}の対応に関与しているとき,関与率$m/n$が閾値$th_{part}$を超えなければならない.\end{COND}条件\ref{cond:pp}\,による判定では,{\MTNP}全体と{\JNP}との総合類似度を求める処理(\ref{sec:alignment:align:sem}\,ないし\ref{sec:alignment:align:integ}\,節の処理)を{\MTNP}の構成要素と{\JNP}との間に適用している.閾値$th_{part}$は,予備実験において閾値を1から0.1まで0.1刻みで変化させて処理を行ない最良の結果が得られたときの値0.5に設定している.意味的に不適格な{\CPNP}``theUnitedStatesintoWorldWarII''のMT訳「第二次世界大戦への米国」と{\JNP}「第二次世界大戦」に対して条件\ref{cond:pp}\,による判定を行なうと,「第二次世界大戦への米国」を構成する{\N}のうち「米国」は「第二次世界大戦への米国」と「第二次世界大戦」の対応付けに関与していないため関与率は$1/2$となり閾値$th_{part}$を超えないので,``theUnitedStatesintoWorldWarII''と「第二次世界大戦」の対応付けは棄却される.これに対して,次の英文(E\ref{SENT:pp_ok})において意味的に適格な{\CPNP}``theDiplomaticandConsularMissionsinKuwait''のMT訳「クウェートにおける外交上の,そして領事のミッション」を構成する四つの{\N}のうち「ミッション」以外の「クウェート」,「外交上」,「領事」の三つは{\MTNP}「クウェートにおける外交上の,そして領事のミッション」と{\JNP}「在クウェート外交領事使節団」の対応に関与している\footnote{{\JNP}「在クウェート外交領事使節団」と{\CPNP}``theDiplomaticandConsularMissionsinKuwait''のMT訳を構成する{\N}「クウェート」,「外交上」,「領事」との総合類似度はそれぞれ,0.385,0.143,0.154である.}ので,対応への関与率は3/4となり閾値$th_{part}$を超える.このため,``theDiplomaticandConsularMissionsinKuwait''は意味的に適格な{\CPNP}であると判定される.\begin{SENT2}\sentETheystronglyrequestIraqtoremovetheobstacleswhichpreventtheDiplomaticandConsularMissionsinKuwaitfromexecutingtheirfunctions,$\ldots$.\sentJ双方は,イラクに対し,在クウェート外交領事使節団が活動を遂行する上での障害を除去し,$\ldots$強く求める.\label{SENT:pp_ok}\end{SENT2}なお,この処理は,前置詞句の係り先が誤っている表現が抽出されるのを抑制するだけでなく,等位構造の範囲が誤っている表現の抽出の抑制や,{\CPNP}に正しく対応する{\JNP}が和文中に存在しない場合\footnote{{\CPNP}に対応する表現が和文では省略されている場合や英文と和文の対応付けが誤っている場合など.}の対応付け誤りの抑制にも有効である.
\section{評価実験}
\label{sec:experiment}\subsection{実験方法}\label{sec:experiment:method}評価実験には,読売新聞とTheDailyYomiuriの対訳コーパスのうち1996年7月中旬から2001年までの記事のうち文対応スコアの上位三万文対を用いた.この三万文対に対して対応付け処理を行ない,各{\CPNP}について,総合類似度$S$が閾値$th=0.1$以上であり,かつ条件\ref{cond:pp}\,を満たすものが存在する場合には,そのうち総合類似度が最も高い{\JNP}を出力し,存在しない場合には何も出力しないようにした.総合類似度の閾値は,予備実験において閾値を1から0.1まで0.1刻みで変化させて処理を行ない最良の結果が得られたときの値である.得られたデータから200文対を標本抽出し,この200文対から人手で正解データを作成し,提案方法による対応付け結果と比較した.正解,対応付け漏れ,対応付け誤りの件数をそれぞれ$C$,$M$,$N$とするとき,提案方法の性能を評価する指標として次の式で計算される再現率,適合率,F値を用いた.\begin{eqnarray*}再現率&=&\frac{C}{C+M}\\\\適合率&=&\frac{C}{C+N}\\\\\mbox{F}値&=&\frac{2\times再現率\times適合率}{適合率+再現率}\end{eqnarray*}\subsection{実験結果}\label{sec:experiment:result}提案方法は,文字種を考慮した文字単位の照合(\ref{sec:alignment:align:sem_chartype}\,節),ローマ字読みの照合(\ref{sec:alignment:align:pho}\,節),{\MTNP}を構成する各{\N}の関与を考慮した照合(\ref{sec:alignment:align:pp}\,節)の三つの処理によって対応付けを行なう.これに対して,文字種を考慮しない文字単位の照合だけで対応付けを行なう方法をベースラインする.提案方法とベースラインのそれぞれで対応付けを行なった場合の評価結果を表\ref{tab:result}\,に示す.表\ref{tab:result}\,によれば,提案方法のF値は0.678であり,ベースラインのF値0.583から0.095向上している.提案方法とベースラインの再現率,適合率を比べると,再現率はベースラインのほうが0.101高いが適合率は提案手法のほうが0.271高く,提案方法では再現率の低下を抑えつつ適合率の向上が実現できている.我々は,対応付け漏れを抑えることよりも対応付け誤りを抑えることを重視しているため,この結果により所期の目標が達成されていると考える.\begin{table}[htbp]\caption{提案方法とベースラインの評価結果}\label{tab:result}\begin{center}\begin{tabular}{|l||r|r|r|r|r|r|r|}\hline&\multicolumn{1}{c|}{正解}&\multicolumn{1}{c|}{誤り}&\multicolumn{1}{c|}{漏れ}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{F値}\\\hline\hlineベースライン&113&116&46&0.493&0.711&0.583\\提案方法&97&30&62&0.764&0.610&0.678\\\hline\end{tabular}\end{center}\end{table}\ref{sec:alignment:align:pp}\,節で述べたように,関与率の閾値は予備実験の結果に基づいて0.5に設定した.表\ref{tab:result}\,は,この設定で評価実験を行なった場合の結果であるが,評価実験においても閾値を0.1刻みに変化させて性能の変化を観察した.その結果を表\ref{tab:threshold}\,に示す.表\ref{tab:threshold}\,によれば,予備実験の場合と異なり,閾値が0.6の場合に最もよいF値が得られており,閾値を0.5とした場合のF値は,閾値を0.7とした場合に次いで第三位である.\begin{table}[htbp]\caption{評価実験における性能と関与率の閾値との関係}\label{tab:threshold}\begin{center}\begin{tabular}{|r||r|r|r|}\hline\multicolumn{1}{|c||}{閾値}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{F値}\\\hline\hline0.3&0.521&0.698&0.597\\0.4&0.752&0.610&0.674\\0.5&0.764&0.610&0.678\\0.6&0.821&0.604&0.696\\0.7&0.817&0.591&0.686\\\hline\end{tabular}\end{center}\end{table}\subsection{各処理の効果}\label{sec:experiment:each}提案した各処理が性能の向上にどの程度寄与しているかを調べた.その結果を表\ref{tab:cond-effect}\,に示す.表\ref{tab:cond-effect}\,において,処理欄の記号`$+$'はその処理を導入して対応付けを行なったことを意味し,記号`$-$'はその処理なしで行なったことを意味する.どの処理も導入していない(a)がベースラインの性能であり,すべての処理を導入した(h)が提案方法の性能である.\begin{table}[htbp]\caption{導入した処理ごとの性能の比較}\label{tab:cond-effect}\begin{center}\begin{tabular}{|c|c|c|c||r|r|r|r|r|r|}\hline&\multicolumn{3}{|c||}{処理}&&&&&&\\\cline{2-4}&文字種&読み&関与率&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{正解}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{誤り}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{漏れ}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{適合率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{再現率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{F値}}\\\hline\hline(a)&$-$&$-$&$-$&113&116&46&0.493&0.711&0.583\\(b)&$-$&$-$&$+$&97&35&62&0.735&0.610&0.667\\(c)&$-$&$+$&$-$&114&116&45&0.496&0.717&0.586\\(d)&$-$&$+$&$+$&98&32&61&0.754&0.616&0.678\\(e)&$+$&$-$&$-$&111&112&48&0.498&0.698&0.581\\(f)&$+$&$-$&$+$&96&32&63&0.750&0.604&0.669\\(g)&$+$&$+$&$-$&112&112&47&0.500&0.704&0.585\\(h)&$+$&$+$&$+$&97&30&62&0.764&0.610&0.678\\\hline\end{tabular}\end{center}\end{table}(a)と(b)を比べると,{\N}の関与を考慮した処理を導入することによって,対応付け漏れが16件増えているが,対応付け誤りが81件と大幅に減っていることが分かる.このことから,(1)英文から抽出された{\CPNP}が意味的に不適格である場合や,(2)英文から抽出された{\CPNP}が意味的に適格であるが正解が和文中に存在しない場合にこの{\CPNP}に何らかの{\JNP}が対応付けられる誤りを抑制することに関して{\N}の関与を考慮した処理が有効に働いているといえる.読みの類似度を考慮した処理が性能向上に寄与する度合いは,(a)と(c)を比べて分かるように,ベースラインで対応付け漏れであったものが正解になった1件だけであるので,非常に低いようにみえる.\ref{sec:alignment:align:integ}\,節で述べたように,この処理が機能するのは{\MTNP}に辞書未登録語が含まれている場合である.正解データ中の{\CPNP}のうちそのMT訳に辞書未登録語が含まれるものは20件存在した.この20件のうちベースラインで正解が得られなかったものは8件であった.このうち1件が読みの類似度を考慮した処理によって改善されたことになる.(a)と(e)を比べると,文字種を考慮した処理を導入することによって,対応付け誤りが4件減っている.この処理の目的は漢字以外の文字が短すぎる単位で適合することを防ぐことであるが,解消された4件の対応付け誤りで期待した効果が得られている.他方で,正解が2件減り対応付け漏れが2件増えているが,これは,ベースラインで正解であった2件が文字種を考慮した処理では対応付け漏れになったものであった.今回の実験では英字と数字を同一文字種とみなし英数字は最長文字列単位で一致しなければならないという設定にした.このため,``theGroupofSeven''という{\CPNP}のMT訳「7のグループ」と{\JNP}「G7」との対応付けが得られなくなっていた.複数の処理を同時に導入することによってF値がどのように変化したかを見る.読みの類似度を考慮した処理と{\N}の関与を考慮した処理を同時に導入した(d)のF値0.678は,前者の処理だけを導入した(c)のF値0.586よりも高く,かつ後者の処理だけを導入した(b)のF値0.667よりも高い.文字種を考慮した処理と{\N}の関与を考慮した処理を同時に導入した(f)のF値0.669も,これらの処理を個別に導入した(e)と(b)のF値0.581,0.667を上回る.文字種を考慮した処理と読みの類似度を考慮した処理を同時に導入した(g)のF値0.585は,読みの類似度を考慮した処理を同時に導入した場合(c)のF値0.586よりも若干低くなっているが,文字種を考慮した処理だけを導入した場合(e)のF値0.581よりも高い.三種類の処理をすべて導入した提案方法(h)のF値が最も高い.以上のことから,文字種を考慮した処理と読みの類似度を考慮した処理を同時に導入した場合に若干の副作用が見られるが,概ね,これらの処理は互いの効果を抑制していないといえる.\subsection{失敗原因の分析}\label{sec:experiment:error}提案手法で生じた62件の対応付け漏れと30件の対応付け誤りについて,{\CPNP}の抽出,{\JNP}の抽出,{\MTNP}と{\JNP}の照合のうちどの処理に原因があるのかを調査した.その結果を表\ref{tab:cause_of_failure}\,に示す.表\ref{tab:cause_of_failure}\,を見ると,対応付け漏れの場合も対応付け誤りの場合も,{\MTNP}と{\JNP}の照合の際に生じる失敗が他の処理で生じる失敗に比べて多いことが分かる.\begin{table}[htbp]\caption{失敗原因の分類}\label{tab:cause_of_failure}\begin{center}\begin{tabular}{|l||r|r|}\hline\multicolumn{1}{|c||}{失敗原因の処理}&\multicolumn{1}{c|}{漏れ}&\multicolumn{1}{c|}{誤り}\\\hline\hline{\CPNP}の抽出&14&6\\{\JNP}の抽出&14&10\\{\MTNP}と{\JNP}の照合&34&14\\\hline合計&62&30\\\hline\end{tabular}\end{center}\end{table}対応付け漏れのうち{\CPNP}の抽出に原因がある14件を細かく分類すると,条件\ref{cond:length}\,に関するものが最も多く9件であり,条件\ref{cond:comma}\,に関するものが3件であり,条件\ref{cond:poss}\,に関するものと条件\ref{cond:adv}\,に関するものがそれぞれ1件ずつであった.条件\ref{cond:length}\,により最長の単語列だけを抽出していることが原因で抽出できなかったもの9件のうち4件には抽出された最長の単語列に月名などの時間表現が含まれていた.例えば次の英文(E\ref{SENT:time})から条件\ref{cond:np}\,ないし\ref{cond:adv}\,を満たす単語列のうち最も長いものを抽出すると,``JulythroughAugust''を含む``JulythroughAugustinSendai,SapporoandKyoto''が抽出される.\begin{SENT2}\sentEMoreclassesarescheduledtobeheldfromJulythroughAugustinSendai,SapporoandKyoto.\sentJ7月から8月にかけては仙台,札幌,京都で開く予定だ.\label{SENT:time}\end{SENT2}``$P\BaseNP$''という前置詞句において,$P$がof以外の前置詞であり,かつ{\BPNP}$BaseNP$が月名などの時間表現であるとき,この前置詞句は副詞的に働きやすい.また,このような時間表現は,of以外の前置詞句による修飾を受けにくく,新たな固有名詞句を作り出す生産性は低い.これらの点から,``$BaseNP_1\P\BaseNP_2$''という表現において,$BaseNP_1$か$BaseNP_2$が時間表現であり,かつ$P$がof以外の前置詞であるとき,この表現が意味的に適格な一つの{\CPNP}を構成することは少ないと考えられる.従って,時間表現は抽出する単語列に含めないという抽出条件を設けることで,ある程度の改善が期待できる.対応付け漏れのうち{\JNP}の抽出に原因がある14件のうち11件は,条件\ref{cond:jn}\,と条件\ref{cond:jn_exception}\,に関するものであった.例えば``theHouseofRepresentatives''と「衆院選」が対応付けられ,「衆院」との対応付けが得られていなかった.正しい対応付けを得るためには,条件\ref{cond:jn_exception}\,により「衆院」と「選」を分離する必要がある.残りの3件は,例えば``theJapaneseSocietyforHistoryTextbookReform''と「新しい歴史教科書をつくる会」との対応付けが得られないような場合であり,抽出する{\JNP}の構成要素として用言を認めていないことが原因であった.対応付け漏れのうち{\MTNP}と{\JNP}の照合に原因がある34件のうち27件が条件\ref{cond:pp}\,によって{\JNP}の抽出が抑制されてしまったものであり,残りの7件が総合類似度が閾値を超えなかったものである.条件\ref{cond:pp}\,により{\JNP}の抽出が抑制された27件のうち20件は,{\CPNP}のMT訳と{\JNP}との差異が大きいために関与率が閾値を超えなかったものである.例えば``JapanandFrance''という{\CPNP}に対して「日仏」という{\JNP}を対応付ける必要があるが,実験に用いた機械翻訳システムによる``JapanandFrance''のMT訳は「日本,及び,フランス」となるため,「仏」と「フランス」の照合に失敗する.27件のうちの残りの7件は,実験に用いた機械翻訳システムの辞書に登録されていない単語が含まれていたために,関与率が閾値を超えなかったものである.対応付け誤りのうち{\CPNP}の抽出に原因がある6件を細かく分けると,条件\ref{cond:length}\,に関するものが3件であり,条件\ref{cond:comma}\,に関するもの,条件\ref{cond:poss}\,に関するもの,条件\ref{cond:adv}\,に関するものがそれぞれ1件ずつであった.{\JNP}の抽出に原因がある10件はすべて,``theHouseofRepresentatives''が「衆院選」に対応付けられるというように,条件\ref{cond:jn}\,と条件\ref{cond:jn_exception}\,に関するものであった.{\MTNP}と{\JNP}の照合に原因がある14件は主に条件\ref{cond:pp}\,に関連するものであった.例えば``theItalianEmbassyfor22''に「イタリア大使館」という{\JNP}が対応付けられるという誤りが生じていたが,関与率により抽出が抑制されなければならない.しかし,実験に用いた機械翻訳システムで``theItalianEmbassyfor22''を翻訳すると「22のイタリアの大使館」というMT訳が得られるため,このMT訳を構成する三つの名詞のうち「イタリア」と「大使館」の二つが対応に関与していることになるので,関与率が2/3となり閾値を超えていた\footnote{``theItalianEmbassyfor22''のMT訳が「22のイタリアの大使館」ではなく「22のイタリア大使館」となっていれば,関与率は1/2となるので,条件\ref{cond:pp}\,により誤った抽出を抑えることができる.}.\subsection{構文解析系を利用した場合との比較}\label{sec:experiment:parser}提案方法の性能を,{\CPNP}の抽出に構文解析系を利用した場合の性能と比較する.両者の違いは,(1){\CPNP}を単語列から抽出するか,実験に用いた機械翻訳システムの構文解析系により生成した構文解析木から抽出するかという点と,(2)意味的不適格表現の抽出抑制を,{\MTNP}を構成する各{\N}の関与を考慮した処理で行なうか,構文解析系で行なうかという点である.なお,利用した構文解析系の性能評価として,前置詞付加の曖昧性解消の精度を本稿の実験とは別に評価したところ,正解率は82\%であった.構文解析系を利用した場合の性能を表\ref{tab:parser}\,に示す.表\ref{tab:parser}\,において,(a)がベースラインの性能,(h)が提案方法の性能,(p1)ないし(p4)が構文解析系を利用した場合の性能である.(h)と(p1)ないし(p4)を比べると,対応付け誤り件数において比較的大きな差があることが分かる.対応付け誤りの多くは,{\CPNP}の抽出において意味的に不適格なものが抽出され,それに{\JNP}が対応付けられることによって生じる.表\ref{tab:parser}\,の実験結果によれば,本稿で対象としたような{\CPNP}とその対訳を獲得することを目的とした場合,この問題に対しては,構文解析(単一言語内での処理)で対処するよりも,{\MTNP}を構成する各{\N}の関与を考慮した照合(二言語間での処理)で対処するほうが望ましいことを示している.\begin{table}[htbp]\caption{構文解析系を利用した場合の性能との比較}\label{tab:parser}\begin{center}\begin{tabular}{|c|c|c|c||r|r|r|r|r|r|}\hline&\multicolumn{3}{|c||}{処理}&&&&&&\\\cline{2-4}&文字種&読み&関与率&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{正解}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{誤り}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{漏れ}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{適合率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{再現率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{F値}}\\\hline\hline(a)&$-$&$-$&$-$&113&116&46&0.493&0.711&0.583\\(p1)&$-$&$-$&$-$&92&55&67&0.626&0.579&0.601\\(p2)&$-$&$+$&$-$&92&56&67&0.622&0.579&0.599\\(p3)&$+$&$-$&$-$&91&56&68&0.619&0.572&0.595\\(p4)&$+$&$+$&$-$&91&57&68&0.615&0.572&0.593\\(h)&$+$&$+$&$+$&97&30&62&0.764&0.610&0.678\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本稿では,従来あまり対象とされてこなかった前置詞句や等位構造を持つ英語固有表現とそれに対応する日本語表現を対訳コーパスから抽出する方法を示した.提案方法では,文字種を考慮した処理,ローマ字読みを考慮した処理,名詞句の構成要素の関与を考慮した処理によって英語固有表現と日本語表現の照合を行なった.読売新聞とTheDailyYomiuriの対訳コーパスを用いた実験では,これら三種類の処理を行なうことによって適合率0.764,再現率0.610,F値0.678という結果が得られた.この結果はこれらの処理を行なわない場合の結果や構文解析系を利用した場合の結果を上回るものである.本稿で対象とした{\CPNP}は大文字始まり語か数字の連続が前置詞または接続詞で結合された単語列であるが,今後の課題としては``GSDFtroopsfromtheChubuarea''(陸自中部方面隊)のように小文字始まり語を含む単語列も対象にしていく必要がある.\acknowledgment本稿に対して建設的で有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Al-Onaizan\BBA\Knight}{Al-Onaizan\BBA\Knight}{2002}]{Al-Onaizan02}Al-Onaizan,Y.\BBACOMMA\\BBA\Knight,K.\BBOP2002\BBCP.\newblock\BBOQ{TranslatingNamedEntitiesUsingMonolingualandBilingualResources}\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\BPGS\400--408.\bibitem[\protect\BCAY{荒牧英治\JBA黒橋禎夫\JBA佐藤理史\JBA渡辺日出雄}{荒牧英治\Jetal}{2003}]{Aramaki03}荒牧英治\JBA黒橋禎夫\JBA佐藤理史\JBA渡辺日出雄\BBOP2003\BBCP\\newblock\Jem{自然言語処理},{\Bbf10}(5),75--92.\bibitem[\protect\BCAY{Baldwin}{Baldwin}{2001}]{Baldwin01}Baldwin,T.\BBOP2001\BBCP.\newblock{\Bem{MakingLexicalSenseofJapanese-EnglishMachineTranslation:ADisambiguationExtravaganza}}.\newblock{DoctoralDissertation},DepartmentofComputerScience,TokyoInstituteofTechnology.\newblockTechnicalReportTR01-0003.\bibitem[\protect\BCAY{福島俊一\JBA赤峯亨}{福島俊一\JBA赤峯亨}{1997}]{Fukushima97}福島俊一\JBA赤峯亨\BBOP1997\BBCP\\newblock\Jem{情報処理},{\Bbf38}(4),334--335.\bibitem[\protect\BCAY{Huang\BBA\Vogel}{Huang\BBA\Vogel}{2002}]{Huang02}Huang,F.\BBACOMMA\\BBA\Vogel,S.\BBOP2002\BBCP.\newblock\BBOQ{ImprovedNamedEntityTranslationandBilingualNamedEntityExtraction}\BBCQ\\newblockIn{\BemProceedingsofthe4thIEEEInternationalConferenceonMultimodalInterfaces(ICMI)},\BPGS\253--258.\bibitem[\protect\BCAY{Huang\JBAVogel\BBA\Waibel}{Huanget~al.}{2003}]{Huang03}Huang,F.\JBAVogel,S.\JBA\BBA\Waibel,A.\BBOP2003\BBCP.\newblock\BBOQ{AutomaticExtractionofNamedEntityTranslingualEquivalenceBasedonMulti-featureCostMinimization}\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponMultilingualandMixed-languageNamedEntityRecognition},\BPGS\9--16.\bibitem[\protect\BCAY{今村賢治}{今村賢治}{2002}]{Imamura02}今村賢治\BBOP2002\BBCP\\newblock\Jem{自然言語処理},{\Bbf9}(5),23--42.\bibitem[\protect\BCAY{梶博行\JBA相薗敏子}{梶博行\JBA相薗敏子}{2001}]{Kaji01}梶博行\JBA相薗敏子\BBOP2001\BBCP\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2248--2258.\bibitem[\protect\BCAY{Kinoshita\JBAShimazu\BBA\Hirakawa}{Kinoshitaet~al.}{1993}]{Kinoshita93}Kinoshita,S.\JBAShimazu,M.\JBA\BBA\Hirakawa,H.\BBOP1993\BBCP.\newblock\BBOQ{BetterTranslationwithKnowledgeExtractedfromSourceText}\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI)},\BPGS\240--251.\bibitem[\protect\BCAY{北村美穂子\JBA松本祐治}{北村美穂子\JBA松本祐治}{1997}]{Kitamura97}北村美穂子\JBA松本祐治\BBOP1997\BBCP\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4),727--736.\bibitem[\protect\BCAY{松井くにお\JBA難波功\JBA井形伸之}{松井くにお\Jetal}{1997}]{Matsui97}松井くにお\JBA難波功\JBA井形伸之\BBOP1997\BBCP\\newblock研究報告{DD}7-3,情報処理学会.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes01}Menezes,A.\BBACOMMA\\BBA\Richardson,S.\BBOP2001\BBCP.\newblock\BBOQ{ABest-FirstAlignmentAlgorithmforAutomaticExtractionofTransferMappingsfromBilingualCorpora}\BBCQ\\newblockIn{\BemProceedingsoftheACL2001WorkshoponData-DrivenMethodsinMachineTranslation},\BPGS\39--46.\bibitem[\protect\BCAY{Meyers\JBAYangarber\BBA\Grishman}{Meyerset~al.}{1996}]{Meyers96}Meyers,A.\JBAYangarber,R.\JBA\BBA\Grishman,R.\BBOP1996\BBCP.\newblock\BBOQ{AlignmentofSharedForestsforBilingualCorpora}\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\460--465.\bibitem[\protect\BCAY{Moore}{Moore}{2003}]{Moore03}Moore,R.\BBOP2003\BBCP.\newblock\BBOQ{LearningTranslationsofNamed-EntityPhrasesfromParallelCorpora}\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL)},\BPGS\259--266.\bibitem[\protect\BCAY{Romesburg}{Romesburg}{1992}]{Romesburg92}Romesburg,H.~C.\BBOP1992\BBCP.\newblock\Jem{実例クラスター分析}.\newblock内田老鶴圃,東京.\newblock西田英郎,佐藤嗣二訳.\bibitem[\protect\BCAY{Sato}{Sato}{1992}]{Sato92}Sato,S.\BBOP1992\BBCP.\newblock\BBOQ{CTM:AnExample-BasedTranslationAidSystem}\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\1259--1263.\bibitem[\protect\BCAY{隅田英一郎\JBA堤豊}{隅田英一郎\JBA堤豊}{1991}]{Sumita91}隅田英一郎\JBA堤豊\BBOP1991\BBCP.\newblock\JBOQ翻訳支援のための類似用例の実用的検索法\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ74-D2}(10),1437--1447.\bibitem[\protect\BCAY{Tanaka\JBAKumano\JBAUratani\BBA\Ehara}{Tanakaet~al.}{1999}]{TanakaH99}Tanaka,H.\JBAKumano,T.\JBAUratani,N.\JBA\BBA\Ehara,T.\BBOP1999\BBCP\\newblock\Jem{自然言語処理},{\Bbf6}(5),93--116.\bibitem[\protect\BCAY{内山将夫\JBA井佐原均}{内山将夫\JBA井佐原均}{2003}]{Uchiyama03}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ日英新聞の記事および文を対応付けるための高信頼性尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{宇津呂武仁\JBA松本裕治\JBA長尾眞}{宇津呂武仁\Jetal}{1992}]{Utsuro92}宇津呂武仁\JBA松本裕治\JBA長尾眞\BBOP1992\BBCP.\newblock\JBOQ日英対訳文間の素性構造照合による統語的曖昧性の解消\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(12),1555--1564.\bibitem[\protect\BCAY{Virga\BBA\Khudanpur}{Virga\BBA\Khudanpur}{2003}]{Virga03}Virga,P.\BBACOMMA\\BBA\Khudanpur,S.\BBOP2003\BBCP.\newblock\BBOQ{TransliterationofProperNamesinCross-LingualInformationRetrieval}\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponMultilingualandMixed-languageNamedEntityRecognition},\BPGS\57--64.\bibitem[\protect\BCAY{Watanabe\JBAKurohashi\BBA\Aramaki}{Watanabeet~al.}{2000}]{Watanabe00}Watanabe,H.\JBAKurohashi,S.\JBA\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQ{FindingStructuralCorrespondencesfromBilingualParsedCorpusforCorpus-basedTranslation}\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\906--912.\bibitem[\protect\BCAY{吉見毅彦\JBA九津見毅\JBA小谷克則\JBA佐田いち子\JBA井佐原均}{吉見毅彦\Jetal}{2004}]{Yoshimi04}吉見毅彦\JBA九津見毅\JBA小谷克則\JBA佐田いち子\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ複合語の内部情報・外部情報を統合的に利用した訳語対の抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(4),89--103.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.2004年より情報通信研究機構専攻研究員を兼任.}\bioauthor{九津見毅}{1965年生まれ.1990年,大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年,シャープ株式会社に入社.以来,英日機械翻訳システムの翻訳エンジンプログラムの開発に従事.}\bioauthor{小谷克則}{1974年生まれ.2002年より情報通信研究機構特別研究員.2004年,関西外国語大学より英語学博士取得.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報通信事業本部情報商品開発センター技術企画室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.2001年情報通信研究機構(旧:通信総合研究所)けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V22N01-02
|
\section{はじめに}
今日までに,人間による言語使用の仕組みを解明する試みが単語・文・発話・文書など様々な単位に注目して行われて来た.特に,これらの種類や相互関係(例えば単語であれば品詞や係り受け関係,文であれば文役割や修辞構造など)にどのようなものがあるか,どのように利用されているかを明らかにする研究が精力的になされて来た.計算機が普及した現代では,これらを数理モデル化して考えることで自動推定を実現する研究も広く行われており,言語学的な有用性にとどまらず様々な工学的応用を可能にしている.例えば,ある一文書内に登場する節という単位に注目すると,主な研究としてMann\&Thompsonによる修辞構造理論(RhetoricalStructureTheory;RST)がある\cite{Mann1987,Mann1992}.修辞構造理論では文書中の各節が核(nucleus)と衛星(satelite)の2種類に分類できるとし,さらに核と衛星の間にみられる関係を21種類に,核と核の間にみられる関係(多核関係)を3種類に分類している.このような分類を用いて,節同士の関係を自動推定する研究も古くから行われている\cite{Marcu1997a,田村直良:1998-01-10}.さらに,推定した関係を別タスクに利用する研究も盛んに行われている\cite{Marcu99discoursetrees,比留間正樹:1999-07-10,Marcu2000,平尾:2013,tu-zhou-zong:2013:Short}.例えば,Marcu\citeyear{Marcu99discoursetrees}・比留間ら\citeyear{比留間正樹:1999-07-10}・平尾ら\citeyear{平尾:2013}は,節の種類や節同士の関係を手がかりに重要と考えられる文のみを選択することで自動要約への応用を示している.また,Marcuら\citeyear{Marcu2000}・Tuら\citeyear{tu-zhou-zong:2013:Short}は,機械翻訳においてこれらの情報を考慮することで性能向上を実現している.一方,我々は従来研究の主な対象であった一文書や対話ではなく,ある文書(往信文書)とそれに呼応して書かれた文書(返信文書)の対を対象とし,往信文書中のある文と返信文書中のある文との間における文レベルでの呼応関係(以下,\textbf{文対応}と呼ぶ)に注目する.このような文書対の例として「電子メールと返信」,「電子掲示板の投稿と返信」,「ブログコメントの投稿と返信」,「質問応答ウェブサイトの質問投稿と応答投稿」,「サービスや商品に対するレビュー投稿とサービス提供者の返答投稿」などがあり,様々な文書対が存在する(なお,本論文において文書対は異なる書き手によって書かれたものとする).具体的に文書対として最も典型的な例であるメール文書と返信文書における実際の文対応の例を図\ref{fig:ex-dependency}に示す.図中の文同士を結ぶ直線が文対応を示しており,例えば返信文「講義を楽しんで頂けて何よりです。」は往信文「本日の講義も楽しく拝聴させて頂きました。」を受けて書かれた文である.同様に,返信文「まず、課題提出日ですが…」と「失礼しました。」はいずれも往信文「また、課題提出日が…」を受けて書かれた文である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f1.eps}\end{center}\caption{メール文書における文対応の例.文同士を結ぶ直線が文対応を示している.}\label{fig:ex-dependency}\vspace{-0.5\Cvs}\end{figure}本論文では,文書レベルで往信・返信の対応が予め分かっている文書対を入力とし,以上に述べたような文対応を自動で推定する課題を新たに提案し,解決方法について検討する.これら文書対における文対応の自動推定が実現すれば,様々な応用が期待できる点で有用である.応用例について,本研究の実験では「サービスに対するレビュー投稿とサービス提供者の返答投稿」を文書対として用いているため,レビュー文書・返答文書対における文対応推定の応用例を中心に説明する.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{文書対群の情報整理}:複数の文書対から,文対応が存在する文対のみを抽出することでこれら文書対の情報整理が可能になる.例えば,「このサービス提供者は(または要望,苦情など)に対してこのように対応しています」といった一覧を提示できる.これを更に応用すれば,将来的にはFAQの(半)自動生成や,要望・苦情への対応率・対応傾向の提示などへ繋げられると考えている.\item\textbf{未対応文の検出による返信文書作成の支援}:往信文書と返信文書を入力して自動で文対応を特定できるということは,逆に考えると往信文書の中で対応が存在しない文が発見できることでもある.この推定結果を利用し,ユーザが返信文書を作成している際に「往信文書中の対応がない文」を提示することで,返信すべき事項に漏れがないかを確認できる文書作成支援システムが実現できる.このシステムは,レビュー文書・返答文書対に適用した場合は顧客への質問・クレームへの対応支援に活用できる他,例えば質問応答サイトのデータに適用した場合は応答作成支援などにも利用できる.\item\textbf{定型的返信文の自動生成}:(2)の考えを更に推し進めると,文対応を大量に収集したデータを用いることで,将来的には定型的な返信文の自動生成が可能になると期待できる.大規模な文対応データを利用した自動生成手法は,例えばRitterら・長谷川らが提案している\cite{Ritter2011,長谷川貴之:2013}が,いずれも文対応が既知のデータ(これらの研究の場合はマイクロブログの投稿と返信)の存在が前提である.しかし,実際には文対応が既知のデータは限られており,未知のデータに対して自動生成が可能となるだけの分量を人手でタグ付けするのは非常に高いコストを要する.これに対し,本研究が完成すればレビュー文書・返答文書対をはじめとした文対応が未知のデータに対しても自動で文対応を付与できるため,先に挙げた様々な文書において往信文からの定型的な返信文の自動生成システムが実現できる.定型的な返信文には,挨拶などに加え,同一の書き手が過去に類似した質問や要望に対して繰り返し同様の返信をしている場合などが含まれる.\item\textbf{非定形的返信文の返答例提示}:(3)の手法の場合,自動生成できるのは定型的な文に限られる.一方,例えば要望や苦情などの個別案件に対する返答文作成の支援は,完全な自動生成の代わりに複数の返答例を提示することで実現できると考えている.これを実現する方法として,現在返答しようとしている往信文に類似した往信文を文書対のデータベースから検索し,類似往信文と対応している返信文を複数提示する手法がある.返信文の書き手は,返答文例の中から書き手の方針と合致したものを利用ないし参考にすることで返信文作成の労力を削減できる.\end{enumerate}一方で,文書対における文対応の自動推定課題は以下のような特徴を持つ.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{対応する文同士は必ずしも類似しない}:例えば図\ref{fig:ex-dependency}の例で,往信文「本日の講義も楽しく拝聴させて頂きました。」と返信文「講義を楽しんで頂けて何よりです。」は「講義」という単語を共有しているが,往信文「また、課題提出日が…」と返信文「失礼しました。」は共有する単語を一つも持たないにも関わらず文対応が存在する.このように,文対応がある文同士は必ずしも類似の表現を用いているとは限らない.そのため,単純な文の類似度によらない推定手法が必要となる.\item\textbf{文の出現順序と文対応の出現位置は必ずしも一致しない}:例えば図\ref{fig:ex-dependency}の例で対応が逆転している(文対応を示す直線が交差している)ように,返信文書の書き手は往信文書の並びと対応させて返信文書を書くとは限らない.そのため,文書中の出現位置に依存しない推定手法が必要となる.\end{enumerate}我々は,以上の特徴を踏まえて文対応の自動推定を実現するために,本課題を文対応の有無を判定する二値分類問題と考える.すなわち,存在しうる全ての文対応(例えば図\ref{fig:ex-dependency}であれば$6\times6=36$通り)のそれぞれについて文対応が存在するかを判定する分類器を作成する.本論文では,最初にQu\&Liuの対話における発話の対応関係を推定する手法\cite{Zhonghua2012}を本課題に適用する.彼らは文種類(対象が質問応答なので「挨拶」「質問」「回答」など)を推定した後に,この文種類推定結果を発話文対応推定の素性として用いることで高い性能で文対応推定が実現したことを報告している.本論文ではこれに倣って文種類の推定結果を利用した文対応の推定を行うが,我々の対象とする文書対とは次のような点で異なっているため文種類・文対応の推定手法に多少の変更を加える.すなわち,彼らが対象とする対話では対応関係が有向性を持つが,我々が対象とする文書対では返信文から往信文へ向かう一方向のみである.また,対話は発話の連鎖で構成されているが,文書対は一組の往信文書・返信文書の対で構成されている点でも異なる.更に,我々は文対応の推定性能をより向上させるために,彼らの手法を発展させた新たな推定モデルを提案する.彼らの手法では,文対応の素性に推定された文種類を利用しているが,文種類推定に誤りが含まれていた場合に文対応推定結果がその誤りに影響されてしまう問題がある.そこで,我々は文種類と文対応を同時に推定するモデルを提案し,より高い性能で文対応の推定が実現できることを示す.本論文の構成は次の通りである.まず,2章で関連研究について概観する.次に,3章で文対応の自動推定を行う提案手法について述べる.4章では評価実験について述べる.5章で本論文のまとめを行う.
\section{関連研究}
二文書以上の文書間において,文書を跨いだ文同士の関係に踏み込んだ研究は新聞記事を対象としたものが多い\cite{Radev2000,宮部:2005,宮部:2006,難波:2005}.Radevは新聞記事間に観察できる文間関係を「同等(Equivalence)」「反対(Contradiction)」など24種類に分類するCross-DocumentStructureTheoryを提案した\cite{Radev2000}.これら文間関係のうち,宮部らは「同等」「推移」関係の特定に\cite{宮部:2005,宮部:2006},難波らは「推移」「更新」関係の特定に特化した自動推定手法を提案している\cite{難波:2005}.これらの各研究では「同等」「推移」「更新」関係を特定するために文同士が類似しているなどの特徴を利用している.これらの研究と我々の研究を比較すると,まず,これらの研究が扱う新聞記事間における文対応と我々が扱う往信-返信文書間における文対応は異なった傾向を持っている.すなわち,新聞記事では同じ事象に対して複数の書き手が記事を作成したり,事象の経過により状況が異なったりすることで文書間や文書を跨いだ文間に対応が発生するのに対し,往信-返信文書ではコミュニケーションという目的を達成するために文対応が発生するという違いがある.また,我々が対象としている往信-返信文書対における文対応では,先に見た通り類似しない文同士にも文対応が存在することもあり,対応する文同士が類似していることを前提にせずに推定を行う必要がある.新聞記事以外では,地方自治体間の条例を対象とした研究\cite{竹中要一:2012-09-30},料理レシピと対応するレビュー文書を対象とした研究\cite{Druck2012}がある.竹中・若尾は地方自治体間で異なる条例を条文単位で比較する条文対応表を作成するために,条文間の対応を自動で推定する手法を提案している\cite{竹中要一:2012-09-30}.またDruck\&Pangは,レシピに対応するレビュー文書に含まれる作り方や材料に対する改善提案文の抽出を目的とし,その最終過程で提案文をレシピの手順と対応付ける手法を提案している\cite{Druck2012}.ただし,推定するべき対応が類似していることを前提としている(すなわち,竹中・若尾の場合は同一の事柄に関する条例を対応付ける手法であり,Druck\&Pangの場合はレシピ手順とレビュー文を対応付ける手法である)ため,これらの手法も対応する文の間に同じ単語や表現が出現していることを前提としている.対話を対象とした研究には,Boyerらによる対話における発話対応関係の分析がある\cite{Boyer2009}.彼女らは,対話における隣接対(adjacencypair)構造を隠れマルコフモデル(HiddenMarkovModel;HMM)を用いてモデル化している.ただし,彼女らの分析では,隣接対の場合は多くが位置的に隣接している可能性が高いことを前提としている\footnote{隣接対の多くは位置的に隣接しているが,位置的に隣接していない場合もある.例えば,挿入連鎖(隣接対の間に別の隣接対が挿入されるような構造)の場合は,位置的には離れた隣接対が観察される.}.これに対し,我々の研究の対象である文書対における文対応ではこういった傾向を利用できないという違いがあるため,単純に彼女らの分析手法を我々が対象としている文対応に適用することはできない.我々の研究と最も近い研究として,Qu\&Liuの質問応答ウェブサイトにおける文依存関係(sentencedependency;質問に対する回答,回答に対する解決報告など)を推定する研究がある\cite{Zhonghua2012}.彼らは条件付確率場(ConditionalRandomFields;CRF)\cite{Lafferty2001}による分類器を利用することで,隠れマルコフモデルよりも高い性能で文依存関係を特定できたとしている.ただし,彼らの対象としているウェブサイトは図\ref{fig:ex-dependency-c}に示すように対話に近い形で問題解決を図るという特徴を持っているため,我々の対象とする文書対とは若干の違いがある.そこで,本論文では最初に彼らの手法に変形を加えることで,我々の対象である往信-返信文書間の文対応推定が実現できることを示す.次に,彼らの手法の中心である文種類推定モデルと文対応推定モデルを発展させた文種類・文対応を同時に推定する統合モデルを提案し,文対応推定が更に高い性能で実現できることを示す.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f2.eps}\end{center}\caption{Qu\&Liuが扱う文依存関係の例}\label{fig:ex-dependency-c}\end{figure}
\section{提案手法}
\subsection{文対応}文対応推定のための提案手法を説明する前に,本論文で扱う文対応について改めて定義する.本研究では,「文書(往信文書)とそれに対する返信文書が与えられた時,ある返信文がある往信文を原因として生起している関係」を\textbf{文対応}と定義し,この関係の有無を推定することを目的とする.なお,文対応は返信文書中の1文から,往信文書中の複数の文へ対応することを許す.また,返信文書中の異なる文から,往信文書中の同一の文への対応も許す.例えば図\ref{fig:ex-dependency}の「講義を楽しんでいただけて何よりです。」という返信文は,「本日の講義も楽しく拝聴させて頂きました。」という往信文を原因として書かれた文であるため,文対応を持つ.同様に,返信文「まず、課題提出日ですが…」「失礼しました。」はいずれも往信文「また、課題提出日が…」を原因として書かれた文であるため,両方の対とも文対応を持つ.なお,我々が扱う文対応関係とQu\&Liu\citeyear{Zhonghua2012}が扱う文依存関係(sentencedependency)とは次の点で異なる.すなわち,我々の扱う文対応は返信文から往信文へ向かう一方向のみであるが,彼らの扱う文依存関係は任意の対話文から対話文への関係を持ちうる\footnote{ただし,ほぼ全ての文依存関係は後に出現する文から前に出現した文へ向かう方向であると予想できる.Qu\&Liuが論文中で示す例に登場する文依存関係も,後の文から前の文へ向かう関係のみであった\cite{Zhonghua2012}.}.以降,本論文ではQu\&Liuが扱う対応関係を\textbf{文依存関係}と呼び,我々が扱う文対応関係と区別する.\subsection{文種類}次に,文対応推定に用いる素性の一つである文種類についても説明する.本研究では,「ある文がどのような目的で書かれているかによる分類」を\textbf{文種類}と定義する.どのような文種類の集合を用いるかは対象とする文書によって異なるが,例えば図\ref{fig:ex-dependency}のようなメール文書対を対象とする場合は「挨拶」「質問」「謝罪」「回答」などが文種類として考えられる.一方,質問応答ウェブサイトを対象としたQu\&Liuは,「質問」「回答」「挨拶」など,13種類の文種類を定義している\cite{Zhonghua2012}.本研究の実験では,対象をレビュー文書とその応答文書としているため,これらの文書における文種類の分類を行っている大沢らの先行研究\cite{大沢:2010}を元にして文種類を定義した.具体的な変更点と文種類については評価実験の章(4章)で議論する.\subsection{因子グラフとCRF}\label{sec:factor-graph}以降の節では,各CRFモデルの説明にKschischangらが提案した因子グラフ(factorgraph)を用いる\cite{Kschischang2001}.そのため,ここで因子グラフについてSutton\&McCallum(2012)の解説を参考にして簡単に説明する.因子グラフは,ある複数の変数に依存する関数を一部の変数のみに依存する複数の関数(因子)の積に分解した際に,どのような分解が行われているかを表現する二部グラフである.因子グラフでは,因子が依存する変数を正方形の因子ノード■からのリンクによって表す.また,変数のうち観測変数と隠れ変数を区別する必要がある場合は,観測変数を灰色(色付き)ノード,隠れ変数を白色(無色)ノードで表す.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f3.eps}\end{center}\hangcaption{因子グラフの例.対数線形モデルにより$P(\bm{y}|\bm{x})$をモデル化した場合のLinear-chainCRFに相当する.}\label{fig:L-CRF}\end{figure}実際の因子グラフの例を図\ref{fig:L-CRF}に示す.図\ref{fig:L-CRF}は,観測変数$\bm{x}$,隠れ変数$\bm{y}$を引数に持つようなある関数$F(\bm{x},\bm{y})$を次のように因数分解することを示している.\begin{equation}F(\bm{x},\bm{y})=\prod_{i=1}^{|\bm{y}|}f_i(\bm{x},y_i)\cdot\prod_{j=1}^{|\bm{y}|-1}g_i(\bm{x},y_{j},y_{j+1})\end{equation}以降,因子グラフを数式で表現するために,因子グラフ$\mathcal{G}$を,変数ノードの集合$\mathcal{V}$・因子ノードの集合$\mathcal{F}$・エッジの集合$\mathcal{E}$の3つを用いて$\mathcal{G}=(\mathcal{V},\mathcal{F},\mathcal{E})$のように表現する.なお,集合の表記を簡便にするため次のような記法を導入する.例えば,$\{y_i\}_{i=1}^{5}$のように書いた場合,これは$\{y_i~|~1\leqi\leq5\wedgei\in\mathbb{N}\}=\{y_1,\dots,y_5\}$を意味する.この記法を用いれば,図\ref{fig:L-CRF}の因子グラフを$\mathcal{G}=(\mathcal{V},\mathcal{F},\mathcal{E})$とすると$\mathcal{V},\mathcal{F},\mathcal{E}$は次のように表現できる.\begin{equation}\begin{split}\mathcal{V}&=\{\bm{x}\}\cup\{y_i\}_{i=1}^{5}\\\mathcal{F}&=\{f_i\}_{i=1}^{5}\cup\{g_j\}_{j=1}^{4}\\\mathcal{E}&=\{(f_i,\bm{x})\}_{i=1}^{5}\cup\{(f_i,y_i)\}_{i=1}^{5}\cup\{(g_j,\bm{x})\}_{j=1}^{4}\cup\{(g_j,y_j)\}_{j=1}^{4}\cup\{(g_j,y_{j+1})\}_{j=1}^{4}\end{split}\end{equation}次に,因子グラフに基づいたCRFモデルを構築する方法について説明する.因子グラフ自体は因子が具体的にどのような関数であるかを規定しないが,関数$F$を対数線形モデルによりモデル化した$P(\bm{y}|\bm{x})$とすると,因子グラフに基づいたCRFモデルが構築できる.具体的に,因子を$\Psi_a$,因子$\Psi_a$が依存する変数を$\bm{x}_a,\bm{y}_a$と置くと$P(\bm{y}|\bm{x})$は次のようにモデル化される.\begin{align}P(\bm{y}|\bm{x};\bm{\theta})&=\frac{1}{Z}\prod_a\Psi_a(\bm{x}_a,\bm{y}_a;\bm{\theta}_a)\\&=\frac{1}{Z}\prod_a\exp\left\{\sum_k\theta_{ak}f_{ak}(\bm{x}_a,\bm{y}_a)\right\}\end{align}ここで$Z$は正規化項,$\theta_{ak}$は素性関数$f_{ak}$に対応した重みとなる.なお,同様のモデル化を図~\ref{fig:L-CRF}に行った場合がLinear-chainCRFに相当する.本論文では,各モデルはCRFによってモデル化されることとする.各モデルの因子と変数間の依存関係については,それぞれ元となる因子グラフによって示す.\subsection{文対応推定手法の概要}本論文で提案する文対応推定手法は,Qu\&Liuが提案した文依存関係推定手法\cite{Zhonghua2012}を我々の課題に併せて変形を加えた手法と,彼らの推定モデルを発展させた新たな推定モデルによる手法の二種類である.ここで最初に,彼らの手法の概要と我々が提案する手法との相違点について説明する.Qu\&Liuの手法では,文依存関係を推定する問題を系列ラベリング問題と考え,Linear-chainCRF又は2DCRFを用いて推定を行う.これは,ある返信文から往信文への依存関係が存在している時,同じ返信文から隣接する往信文へも依存する可能性が高いという傾向,または逆にある往信文へ依存している返信文がある時,隣接する返信文から同じ往信文へも依存する可能性が高いという傾向を活用するためである.また,彼らは特に文依存関係分類器の素性に注目し,文の種類を素性として利用することを提案している.これは,例えば「質問」や「要求」を述べている文は通常「回答」と対応するが「挨拶」とは対応しないなど,文種類が特定できれば文依存関係の推定に有用であるという観察に基づく.ただし,このような文種類が予め分かっている状況は稀であるため,各発話の種類を推定するための分類器を別途作成する.この文種類分類器を利用する手法では,与えられた対話文書に対して事前に文種類分類器を適用して文種類を推定しておき,対話文書と文種類推定結果を文依存関係分類器に入力することで最終的に文依存関係を得る.我々の課題に合わせて彼らの手法を変形する手法では,文対応推定問題を系列ラベリング問題と考える点や文種類を利用する点で同一である.異なるのは,彼らが文種類推定器を一つしか用意せずにどの発話者による発話文に対しても同じ文種類推定器を用いていたのに対し,我々は往信文書・返信文書のそれぞれに対して別の文種類推定器を用意する点である.これは,往信文書・返信文書ではそれぞれに特有な文種類が存在するなどの異なった傾向が存在するという仮定に基づく.また,彼らが提案する文対応推定モデルは,「返信文が同じで往信文が隣接する対応」の連接性を考慮したモデルと「返信文が同じで往信文が隣接する対応」「往信文が同じで返信文が隣接する対応」双方の連接性を考慮したモデルの二種類であったが,我々は「往信文が同じで返信文が隣接する対応」のみの連接性を考慮したモデルについても検討を加える点でも異なる.また,彼らの手法と我々が新たに提案する推定モデルによる手法の違いは,彼らが文種類・文依存関係推定モデルを別々に用意して文種類推定・文依存関係推定の二段階の手順を踏むのに対し,我々は文種類・文対応推定モデルを統合した一つのモデルで一度に推定する点である.以降,\ref{sec:qu-liu}節でQu\&Liuの推定モデルについて説明し,\ref{sec:proposal-simple}節以降で提案手法について順次説明する.\subsection{Qu\&Liuによる文依存関係推定手法の概要}\label{sec:qu-liu}Qu\&Liuが提案した対話文書における文依存関係を推定する手法\cite{Zhonghua2012}では,文種類推定器と文依存関係分類器の二種類を用意する.そこで,最初に文種類推定器について説明し,次に文依存関係分類器について説明する.ここで,説明のために以下の記号を導入する.\vspace{0.25zh}\begin{tabular}{rl}$N$&対話文の文数\\$\bm{x}$&対話文の列$x_1,x_2,\dotsx_N$\\$\bm{t}$&対話文の種類の列$t_1,t_2,\dotst_N$\\$y_{i,j}$&対話文$x_i$から$x_j$への文依存関係の存在有無(二値)\\$\bm{y}$&全ての文依存関係$y_{i,j}$からなる集合$\{y_{i,j}~|~1\leqi\leqN,~1\leqj\leqN\}$\\\end{tabular}\vspace{0.25zh}\noindentここで,$y_{i,j}$は対話文$x_i$から$x_j$の間に文依存関係が存在すれば1,しなければ0の二値を取る変数である\footnote{なお,Qu\&Liuは同じ文への依存関係($i=j$)に関して特に触れていないが\cite{Zhonghua2012},同じ文への依存関係はないものと考えられる.}.各文の種類を推定する問題は,文$\bm{x}$を観測変数,文種類$\bm{t}$を隠れ変数と考えると,系列ラベリング問題とみなすことができる.そこで,彼らはLinear-chainCRF\cite{Lafferty2001}を利用することで文種類推定器を実現する.各文間の文対応を推定する問題も,文$\bm{x}$を観測変数,文依存関係$\bm{y}$を隠れ変数としたラベリング問題と考えることができる.ここで,予め文種類推定器により推定した文種類$\hat{\bm{t}}$を素性の一つに投入することで,文種類を考慮した文依存関係の推定を実現する.ただし,文依存関係$\bm{y}$は文種類系列とは異なり二次元の構造を持つため,このままでは一次元の系列を対象とするLinear-chainCRFを用いることはできない.そこで,彼らは二次元構造の行ごとに順次推定を行うことでLinear-chainCRFを適用する手法と,二次元構造を一度に推定できる2DCRF\cite{Zhu2005}を適用する手法を提案している.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f4.eps}\end{center}\caption{Linear-chainCRFにより文依存関係を推定する手順.kは注目している文の位置を示す.}\label{fig:L-CRFc}\end{figure}Linear-chainCRFを繰り返し適用して文依存関係を推定する過程を図\ref{fig:L-CRFc}に示す.まず最初に注目する文$x_k~(1\leqk\leqN)$を固定し,$x_k$から全ての$x_1,x_2,\dotsx_N$への文依存関係$y_{k,\Circle[f]}~(1\leq\Circle[f]\leqN)$について考える.これにより,$y_{k,\Circle[f]}$は一次元の系列となるため,Linear-chainCRFを適用可能になる.この処理を全ての$x_k$に対して繰り返し適用することで,$\bm{y}$全体の推定が実現する.このLinear-chainCRFにおいては連接確率$P(y_{i,j}|y_{i,j-1},\bm{x})$が考慮されることになる.これにより,依存元が同じで依存先が隣接する$y_{i,j},y_{i,j-1}$の片方が依存関係にあればもう片方にも依存関係が存在することが多い傾向を活用できる\footnote{この場合とは逆に,依存先が同じで依存元が隣接する$y_{i,j},y_{i-1,j}$の連接性についても,Linear-chainCRFを$y_{\Circle[f],j}$に順次適用することで考慮でき結果として全体の推定が実現するが,Qu\&Liuはこの場合については検討を行っていない\cite{Zhonghua2012}.本論文が対象とする文対応推定の際には,この場合に相当する文対応推定器も作成して性能の比較検討を行う.}.これに対し,2DCRFを適用して推定する手法では$\bm{y}$全体を一度に推定できる.ここで2DCRFについて,2DCRFを因子グラフで表現した図\ref{fig:2D-CRFc}を用いて説明する.Linear-chainCRFを繰り返し適用する手法は,図\ref{fig:2D-CRFc}の因子のうち各$y$を横方向$y_{i,j},y_{i,j-1}$を結ぶ因子のみを残した場合に相当し,各行$y_{i,\Circle[f]}$ごとに推定を行う.一方2DCRFでは,各$y$を縦方向$y_{i,j},y_{i-1,j}$に結ぶ因子が加わる.これにより,Linear-chainCRFでは依存元が同じで依存先が隣接する$y_{i,j},y_{i,j-1}$の連接性のみを考慮していたが,依存先が同じで依存元が隣接する$y_{i-1,j},y_{i,j}$についての連接性も同時に考慮されるようになる.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f5.eps}\end{center}\hangcaption{2DCRFの因子グラフ($\bm{y}$が$3\times3$の場合の例.$\bm{x}$からすべての各因子へはリンクが接続されるが,図が煩雑になるため描画を省略した).実線は隣接する$y_{i,j}$同士を結ぶ因子に関わる変数に,点線は一つの$y_{i,j}$を直接結ぶ因子に関わる変数に接続している.}\label{fig:2D-CRFc}\end{figure}Qu\&Liuによると,2DCRFによる文依存推定モデルの方がLinear-chainCRFを繰り返し適用する推定モデルよりも性能が向上したことを報告している.\subsection{文種類・文依存関係推定モデルの本問題への適用}\label{sec:proposal-simple}次に,以上に述べたQu\&Liuによる文依存関係推定モデル\cite{Zhonghua2012}を,本論文の目的である二文書間の文対応推定へ適用する提案手法について説明する.本提案手法も彼らと同じく文種類推定器・文対応推定器の二種類を用意して順次推定する手法であり,以下でそれぞれについて順に説明する.ここで,説明のために以下の記号を改めて導入する.\vspace{0.25zh}\begin{tabular}{rl}$N$&往信文の文数\\$M$&返信文の文数\\$\bm{x}^{\rmorg}$&往信文の列${x^{\rmo}}_1,{x^{\rmo}}_2,\dots,{x^{\rmo}}_N$\\$\bm{x}^{\rmrep}$&返信文の列${x^{\rmr}}_1,{x^{\rmr}}_2,\dots,{x^{\rmr}}_M$\\$\bm{t}^{\rmorg}$&各往信文の種類の列${t^{\rmo}}_1,{t^{\rmo}}_2,\dots,{t^{\rmo}}_N$\\$\bm{t}^{\rmrep}$&各返信文の種類の列${t^{\rmr}}_1,{t^{\rmr}}_2,\dots,{t^{\rmr}}_M$\\$y_{i,j}$&往信文${x^{\rmo}}_i$と返信文${x^{\rmr}}_j$の間における文対応存在の有無(二値)\\$\bm{y}$&全ての文対応$y_{i,j}$からなる集合$\{y_{i,j}~|~1\leqi\leqN,~1\leqj\leqM\}$\\\end{tabular}\vspace{0.25zh}\noindentここで,$y_{i,j}$は往信文${x^{\rmo}}_i$から返信文${x^{\rmr}}_j$の間に文対応関係が存在すれば1,しなければ0の二値を取る変数である.各文の種類を推定する問題は,文$\bm{x}^{\rmorg}$(又は$\bm{x}^{\rmrep}$)を観測変数,文種類$\bm{t}^{\rmorg}$(又は$\bm{t}^{\rmrep}$)を隠れ変数とした系列ラベリング問題と考えることができる.ここで,我々は往信文書・返信文書ではそれぞれに特有な文種類が存在し,それぞれの文書で文種類の連接について異なった傾向があると予想した.例えば,一般に往信文書は人に向けて文書を新たに発信する動機である「質問」や「要望」が含まれる可能性が高いのに対し,返信文書はそれに対する「回答」が含まれる可能性が高い.そこで,我々はQu\&Liuとは異なり,文種類分類器を往信文書用・返信文書用に別々に用意することにした.なお,いずれの分類器についてもLinear-chainCRF\cite{Lafferty2001}を利用する.以降,これらのモデルをそれぞれ往信文種類モデル・返信文種類モデルと呼ぶ.各文間の文対応を推定する問題は,二文書$\bm{x}^{\rmorg},\bm{x}^{\rmrep}$を観測変数,文対応$\bm{y}$を隠れ変数と考えることができる\footnote{ただし,Qu\&Liuが扱う文依存関係とは,往信文同士の間や返信文同士の間についての関係については考えない点,文対応は一方向の関係である点で異なる.前者については,文依存関係に対して「発話者が異なる文間のみ」という制約を陽に加えた場合とみなすこともできる.}.本提案手法でも文種類分類器により推定した$\hat{\bm{t}}^{\rmorg},\hat{\bm{t}}^{\rmrep}$を素性の一つに投入し,文種類を考慮した文対応の推定を実現する.以下,前節と同様にLinear-chainCRFを繰り返し適用する手法と,2DCRFを適用する手法について順次説明する.文対応の推定では,注目する文を固定すればLinear-chainCRFを繰り返し適用することで文対応$\bm{y}$全体の推定が可能である.ここで,往信文${x^{\rmo}}_i$と返信文${x^{\rmr}}_j$のどちらを固定し,どちらの文対応連接性に注目するかで異なった分類器を作成することができる.これに対し,往信文間における対応の連接性を考慮する(返信文を固定し,$y_{\Circle[f],j}$を順次推定する)手法をL-CRF$_{\rm{org}}$,返信文間における対応の連接性を考慮する(往信文を固定し,$y_{i,\Circle[f]}$を順次推定する)手法をL-CRF$_{\rm{rep}}$とする.それぞれの手法の推定過程を図\ref{fig:L-CRFinitproc},\ref{fig:L-CRFrepproc}に示す.なお,Qu\&LiuがLinear-chainCRFを文依存関係推定に用いた場合が,本手法のL-CRF$_{\rm{org}}$と対応している.\begin{figure}[t]\begin{minipage}{0.49\hsize}\begin{center}\includegraphics{22-1ia2f6.eps}\end{center}\caption{L-CRF$_{\rm{org}}$での文対応推定手順}\label{fig:L-CRFinitproc}\end{minipage}\begin{minipage}{0.49\hsize}\begin{center}\includegraphics{22-1ia2f7.eps}\end{center}\caption{L-CRF$_{\rm{rep}}$での文対応推定手順}\label{fig:L-CRFrepproc}\end{minipage}\end{figure}また,2DCRFを用いた文対応の推定も可能である.この場合,Qu\&Liuの場合とほぼ同様に推定が可能である.このモデルは,往信文間・返信文間それぞれにおける対応の連接性を同時に考慮できるという特徴を持っている.\subsection{文種類・文依存関係推定モデルの統合}\label{sec:proposal-combine}以上までに説明した提案手法はQu\&Liuの手法と同様,最初に推定した文種類情報を文対応推定の素性として用いる.しかし,文種類を全て正しく推定することは困難であり,推定した文種類情報にはいくらかの誤りが含まれる可能性が高い.そのため,文種類推定時の誤りはそのまま文対応推定に影響を与える.そこで,我々は文種類と文対応を推定するモデルを統合し,両者を同時に推定することで文対応推定誤りの影響の抑制を狙った統合モデルを提案する.本論文では統合の元となるモデルとして,文種類推定にLinear-chainCRFを用いた往信文種類モデル・返信文種類モデル,文対応推定に2DCRFを用いた文対応モデルを考える.これらのモデルに対し,文種類変数と文対応変数に依存する因子関数を新たに加えることで,統合モデルを実現する.以下,具体的な統合方法について因子グラフを用いながら説明する.まず最初に,統合の元となる各モデルの因子グラフを図\ref{fig:model-before}に示す.ここで,各モデルの因子グラフ構造を\ref{sec:factor-graph}節の記法を用いて記述すると,以下の通りである.\vspace{1\Cvs}\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f8.eps}\end{center}\hangcaption{統合前のモデル(往信文・返信文が共に2文の場合.$\bm{x}$から各因子への接続は省略している).左から順に,往信文種類モデル,文対応モデル(2DCRF),返信文種類モデル.}\label{fig:model-before}\end{figure}\begin{description}\item[往信文種類モデル]\mbox{}\\Linear-chainCRFにより往信文種類を推定する.観測変数は往信文$\bm{x}^{\rmorg}$,隠れ変数は往信文種類$\bm{t}^{\rmorg}$である.観測変数と隠れ変数を結ぶ因子を${f^o}_i$,隠れ変数同士を結ぶ因子を${g^o}_j$とする($1\leqi\leqN,~1\leqj\leqN-1$).モデルの因子グラフを$\mathcal{G}_{\rmotype}=\{\mathcal{V}_{\rmotype},\mathcal{F}_{\rmotype},\mathcal{E}_{\rmotype}\}$とすると,$\mathcal{V}_{\rmotype},\mathcal{F}_{\rmotype},\mathcal{E}_{\rmotype}$はそれぞれ以下の通りである.因子グラフを図\ref{fig:model-before}(左)に示す.\begin{equation}\begin{split}\mathcal{V}_{\rmotype}&=\{\bm{x}^{\rmorg}\}\cup\{{t^o}_i\}_{i=1}^{N}\\\mathcal{F}_{\rmotype}&=\{{f^o}_i\}_{i=1}^{N}\cup\{{g^o}_j\}_{j=1}^{N-1}\\\mathcal{E}_{\rmotype}&=\{({f^o}_i,\bm{x}^{\rmorg})\}_{i=1}^{N}\cup\{({f^o}_i,{t^o}_i)\}_{i=1}^{N}\\&\qquad\cup\{({g^o}_j,{\bm{x}^{\rmorg}})\}_{j=1}^{N-1}\cup\{({g^o}_j,{t^o}_j)\}_{j=1}^{N-1}\cup\{({g^o}_j,{t^o}_{j+1})\}_{j=1}^{N-1}\end{split}\end{equation}\item[返信文種類モデル]\mbox{}\\Linear-chainCRFにより返信文種類を推定する.観測変数は往信文$\bm{x}^{\rmrep}$,隠れ変数は往信文種類$\bm{t}^{\rmrep}$である.観測変数と隠れ変数を結ぶ因子を${f^r}_i$,隠れ変数同士を結ぶ因子を${g^r}_j$とする($1\leqi\leqM,~1\leqj\leqM-1$).モデルの因子グラフを$\mathcal{G}_{\rmrtype}=\{\mathcal{V}_{\rmrtype},\mathcal{F}_{\rmrtype},\mathcal{E}_{\rmrtype}\}$とすると,$\mathcal{V}_{\rmrtype},\mathcal{F}_{\rmrtype},\mathcal{E}_{\rmrtype}$はそれぞれ以下の通りである.因子グラフを図\ref{fig:model-before}(右)に示す.\begin{equation}\begin{split}\mathcal{V}_{\rmrtype}&=\{\bm{x}^{\rmrep}\}\cup\{{t^r}_i\}_{i=1}^{M}\\\mathcal{F}_{\rmrtype}&=\{{f^r}_i\}_{i=1}^{M}\cup\{{g^r}_j\}_{j=1}^{M-1}\\\mathcal{E}_{\rmrtype}&=\{({f^r}_i,\bm{x}^{\rmrep})\}_{i=1}^{M}\cup\{({f^r}_i,{t^r}_i)\}_{i=1}^{M}\\&\qquad\cup\{({g^r}_j,{\bm{x}^{\rmrep}})\}_{j=1}^{M-1}\cup\{({g^r}_j,{t^r}_j)\}_{j=1}^{M-1}\cup\{({g^r}_j,{t^r}_{j+1})\}_{j=1}^{M-1}\end{split}\end{equation}\item[文対応モデル]\mbox{}\\2DCRFにより文対応を推定する.観測変数は往信文$\bm{x}^{\rmorg}$及び返信文$\bm{x}^{\rmrep}$(これらをまとめて$\bm{x}$とする),隠れ変数は文対応$\bm{y}$である.観測変数と隠れ変数を結ぶ因子を$f_{i,j}$,隠れ変数同士を結ぶ因子のうち,往信文を固定して隣接する返信文への対応間を考慮する($y_{i,j}$を横に結ぶ)因子を$g_{k,l}$,返信文を固定して隣接する往信文からの対応間を考慮する($y_{i,j}$を縦に結ぶ)因子を$h_{k,l}$とする($1\leqi\leqN,~1\leqj\leqM,~1\leqk\leqN-1,~1\leql\leqM-1$).因子グラフを図\ref{fig:model-before}(中央)に示す.モデルの因子グラフを$\mathcal{G}_{\rmrelation}=\{\mathcal{V}_{\rmrelation},\mathcal{F}_{\rmrelation},\mathcal{E}_{\rmrelation}\}$とすると,\\$\mathcal{V}_{\rmrelation},\mathcal{F}_{\rmrelation},\mathcal{E}_{\rmrelation}$はそれぞれ以下の通りである.\begin{equation}\begin{split}\mathcal{V}_{\rmrelation}&=\{\bm{x}\}\cup\{{y}_{i,j}\}_{i=1,j=1}^{i=N,j=M}\\\mathcal{F}_{\rmrelation}&=\{{f}_{i,j}\}_{i=1,j=1}^{i=N,j=M}\cup\{{g}_{k,l}\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{{h}_{k,l}\}_{k=1,l=1}^{k=N-1,l=M-1}\\\mathcal{E}_{\rmrelation}&=\{({f}_{i,j},\bm{x})\}_{i=1,j=1}^{i=N,j=M}\cup\{({f}_{i,j},y_{i,j})\}_{i=1,j=1}^{i=N,j=M}\\&\qquad\cup\{({g}_{k,l},\bm{x})\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{({h}_{k,l},\bm{x})\}_{k=1,l=1}^{k=N-1,l=M-1}\\&\qquad\cup\{({g}_{k,l},{y}_{k,l})\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{({g}_{k,l},{y}_{k,l+1})\}_{k=1,l=1}^{k=N-1,l=M-1}\\&\qquad\cup\{({h}_{k,l},{y}_{k,l})\}_{k=1,l=1}^{k=N-1,l=M-1}\cup\{({h}_{k,l},{y}_{k+1,l})\}_{k=1,l=1}^{k=N-1,l=M-1}\end{split}\end{equation}\end{description}次に,以上の3モデルを統合した新たな提案モデルについて説明する.このモデルでは,文種類・文対応推定を同一のモデルで扱うために,新たに二文の文種類変数と,それと対応する文対応変数に依存する因子関数$F_{i,j}~(1\leqi\leqN,~1\leqj\leqM)$を新たに加える.これにより,往信文${x^{\rmo}}_{i}$と返信文${x^{\rmr}}_{j}$に対応する往信文種類${t^{\rmo}}_{i}$・返信文種類${t^{\rmr}}_{j}$・文対応$y_{i,j}$が非独立的に扱われるようになり,文種類・文対応を同時に推定を行うことが可能になる.提案手法全体のグラフ構造を図\ref{fig:model-after}に示す.因子グラフ構造を具体的な式で記述すると,以下の通りである.以下,必要に応じて統合したモデルをcombineと呼ぶ.\vspace{1\Cvs}\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f9.eps}\end{center}\hangcaption{統合後のモデル(combine;往信文・返信文が共に2文の場合.$\bm{x}$から各因子への接続は省略している).実線は新たに加えた因子を結ぶリンク.}\label{fig:model-after}\end{figure}\begin{description}\item[統合モデル(combine)]\mbox{}\\観測変数は往信文$\bm{x}^{\rmorg}$及び返信文$\bm{x}^{\rmrep}$(これらをまとめて$\bm{x}$とする),隠れ変数は往信文種類${\bm{t}^{\rmorg}}$・返信文種類${\bm{t}^{\rmrep}}$・文対応$\bm{y}$である.新たに導入する因子を$F_{i,j}$とする($1\leqi\leqN,~1\leqj\leqM$).その他の因子は統合前の各モデルと同様である.モデルの因子グラフを$\mathcal{G}_{\rmcombine}=\{\mathcal{V}_{\rmcombine},\mathcal{F}_{\rmcombine},\mathcal{E}_{\rmcombine}\}$とすると,\\$\mathcal{V}_{\rmcombine},\mathcal{F}_{\rmcombine},\mathcal{E}_{\rmcombine}$はそれぞれ以下の通りである(新たに加わった因子に関わる部分を下線によって強調している).因子グラフを図\ref{fig:model-after}に示す.\begin{equation}\begin{split}\mathcal{V}_{\rmcombine}&=\{\bm{x}\}\cup\{{t^o}_i\}_{i=1}^{N}\cup\{{t^r}_i\}_{j=1}^{M}\cup\{{y}_{i,j}\}_{i=1,j=1}^{i=N,j=M}\\\mathcal{F}_{\rmcombine}&=\mathcal{F}_{\rmotype}\cup\mathcal{F}_{\rmrtype}\cup\mathcal{F}_{\rmrelation}\cup\underline{\{{F}_{i,j}\}_{i=1,j=1}^{i=N,j=M}}\\\mathcal{E}_{\rmcombine}&=\mathcal{E}_{\rmotype}\cup\mathcal{E}_{\rmrtype}\cup\mathcal{E}_{\rmrelation}\\&\qquad\cup\underline{\{({F}_{i,j},\bm{x})\}_{i=1,j=1}^{i=N,j=M}\cup\{({F}_{i,j},{t^{\rmo}}_{i})\}_{i=1,j=1}^{i=N,j=M}\cup\{({F}_{i,j},{t^{\rmo}}_{j})\}_{i=1,j=1}^{i=N,j=M}}\end{split}\end{equation}\end{description}なお,Linear-chainCRFなどでは各隠れ変数の周辺確率$P(y|\mathbf{x})$をForward-Backwardアルゴリズムにより効率的に求めることができるが,統合モデルのように閉路を含む因子グラフ上のCRFには適用することができない.そのため,TreeBasedreParameterization(TRP)\cite{Wainwright2001b}などにより近似的に求める必要がある.
\section{評価実験}
\subsection{実験条件}実験には「楽天データ公開\footnote{楽天データ公開:http://rit.rakuten.co.jp/rdr/データは2010年時点の公開データを用いた.}」に収録されている楽天トラベル\footnote{楽天トラベル:http://travel.rakuten.co.jp/}のレビューを用いた.楽天トラベルのレビューでは,宿泊施設に対するユーザのレビュー文書に対して宿泊施設提供者が返答することによって文書対が構成されている.典型的な文書対と文対応を示した例を図\ref{fig:dependency-example}に示す.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f10.eps}\end{center}\caption{宿泊予約ウェブサイトのレビュー・応答文書における文対応の例}\label{fig:dependency-example}\end{figure}実際には楽天トラベルのレビュー348,564件のうち,レビュー文書・応答文書の双方が存在する276,562件からランダムサンプリングした1,000文書対を用いた.この各文書を簡易的なヒューリスティックによって文単位に分割し,レビュー文4,813文・応答文6,160文を得た.この1,000文書対に対して5分割交差検定を適用して評価を行う.宿泊予約サイトの文種類の定義は,レビュー文書・応答文書ごとに文種類の分類に詳しい大沢らの先行研究を参考にした\cite{大沢:2010}.大沢らは本実験と同じウェブサイトである楽天トラベルの「クチコミ・お客さまの声」を分析し,レビュー文を8種類,応答文を14種類に分類している.本研究では文種類が特定できれば文対応の特定が容易になるよう,レビュー文を12種類,返答文を20種類に再分類した\footnote{レビュー文書の中には,末尾に「【ご利用の宿泊プラン】」に続いて宿泊プランの名称が書かれている文が存在した.この記述は,おそらく楽天トラベルのレビューを投稿する際に自動で挿入される文であると考えている.}.この分類を表\ref{tb:review-discourse}及び表\ref{tb:reply-discourse}に示す.また,大沢らの分析からの主な変更点とその理由を以下に示す.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{レビュー文種類—<ポジ/ネガ感想>の追加}:一文にポジティブ・ネガティブな感想を双方含むレビュー文は,複数の応答文と対応することがあるため.\item\textbf{応答文種類—<対応明示><検討明示>の具体性による細分化}:具体性のある対応・検討明示文はそれぞれレビュー文で書かれた一つの事情と対応するが,抽象的なものはレビュー文で書かれた複数の事情と対応することがあるため.\end{enumerate}\begin{table}[t]\caption{レビュー文書を構成する文の種類(大沢らによる分類を参考に再構成)}\label{tb:review-discourse}\input{02table01.txt}\end{table}以上の文種類の定義に基づき,人手で文種類及び文対応の有無をタグ付けした.その結果,1,000文書対全体では4,492通りの文対応が得られた.また,文種類について,各文種類の出現数と各文種類ごとに文対応がどの程度存在するかを調査したデータを表\ref{tb:review-dep-exists},\ref{tb:reply-dep-exists}に示す\footnote{なお,「その他」は例えば文書が英語で書かれているため分類が不可能であった文などである.}.表中の「対応(平均数)」は一文から見たときの平均対応文数を示しており,「対応(存在率)」は一つでも対応が存在する割合を示している.表\ref{tb:review-dep-exists},\ref{tb:reply-dep-exists}より,例えばレビュー文種類では<ネガティブ感想>や<要求・要望>が,応答文種類では<お詫び>や<具体的対応明示>などの文種類で対応存在率が高いなど,文種類によって対応の平均数や対応存在率が大きく異なることが分かる.\begin{table}[p]\caption{応答文書を構成する文の種類(大沢らによる分類を参考に再構成)}\label{tb:reply-discourse}\input{02table02.txt}\end{table}次に,文対応が交差する割合を示す.交差割合の計算は,各文書対において「文書対内において交差を持つ文対応の数/文書対内における全ての文対応の数」により求めた.結果,交差割合の平均は0.249であることから,本データにおいても文の出現順序と文対応の出現位置は必ずしも一致しないことが分かる.\begin{table}[t]\begin{minipage}[t]{.49\hsize}\caption{レビュー文の各文ごとの対応数・対応存在率}\label{tb:review-dep-exists}\input{02table03.txt}\end{minipage}\hfill\begin{minipage}[t]{.49\hsize}\caption{応答文の各文ごとの対応数・対応存在率}\label{tb:reply-dep-exists}\input{02table04.txt}\end{center}\end{minipage}\end{table}最後に,文対応の有無別にコサイン類似度の分布を表したヒストグラムを図\ref{fig:cossim-dist-f},\ref{fig:cossim-dist-t}に示す(なお,コサイン類似度が0.3--1.0である文対応の割合は少なかったため省略している).なお,コサイン類似度は,各文におけるstop-wordを除く単語の出現頻度を値に持つベクトルを用いて計算した値である.文対応を持つ文間の方が比較的高いコサイン類似度が高い傾向がある一方,文対応が存在する文対のうち53.56\%はコサイン類似度が0であった.そのため,本データにおいても対応する文同士は必ずしも類似しないことが分かる.実験で比較する手法は次の5つである.まず,\ref{sec:proposal-simple}節で説明したL-CRF$_{\rmorg}$,L-CRF$_{\rmrep}$,2DCRFの3種類を用いる.また,\ref{sec:proposal-combine}節で説明した統合モデルcombineを用いる.加えて,系列ラベリング問題ではなく二値分類問題と考えるモデルとしてロジスティック回帰(Logistic)でも性能を調査する.ロジスティック回帰は,L-CRFや2DCRFにおいて隣接する出力変数間の依存関係を考慮しないモデルに相当する.\begin{figure}[t]\begin{minipage}[b]{0.49\hsize}\begin{center}\includegraphics{22-1ia2f11.eps}\end{center}\caption{コサイン類似度の分布(文対応なし)}\label{fig:cossim-dist-f}\end{minipage}\begin{minipage}[b]{0.49\hsize}\begin{center}\includegraphics{22-1ia2f12.eps}\end{center}\caption{コサイン類似度の分布(文対応あり)}\label{fig:cossim-dist-t}\end{minipage}\end{figure}CRFの各モデルのパラメータ学習・利用にはMALLET2.0.7\cite{McCallumMALLET2002}中のGRMM\cite{GRMM2006}を用いた.GRMMに用いたパラメータはデフォルト(TRPの最大iteration回数1,000回,TRPの収束判定用の値0.01)とし,周辺確率の計算にはTRP\cite{Wainwright2001b}を利用した.なお,GRMMはCRF学習パラメータの正則化にL2正則化\cite{Chen99agaussian}を利用している.また,ロジスティック回帰のパラメータ学習・利用にはscikit-learn0.15.1\cite{scikit-learn}を用い,正則化にはL2正則化を利用した.文種類の推定には,文を構成するunigram(単語の表層形)を素性として用いる.また,文対応の推定,及びcombineモデルにおいて新たに追加した因子には以下の素性を用いる.なお,単語分割にはMeCab0.994\cite{kudo-yamamoto-matsumoto:2004:EMNLP}を利用した.\begin{itemize}\itemレビュー文を構成するunigram\item応答文を構成するunigram\itemレビュー文・応答文のコサイン類似度(0〜1の値)\item予め文種類モデルで推定したレビュー文・応答文の種類(combineモデル以外\footnote{combineモデルの場合は,レビュー文種類・応答文種類は文対応と同時に推定されるため,これらを陽に素性として追加する必要はない.combineモデルにおいては文種類と文対応を同時に考慮する因子が存在するため,文種類を考慮した文対応推定が実現できる.})\end{itemize}また,unigram素性及びコサイン類似度の計算に利用する単語からは予めstop-wordを除去しており\footnote{本実験では,品詞が「助詞」「助動詞」「記号」の単語をstop-wordとした.},1,000文書対全体では9,300種類の単語が存在した.文対応推定性能の評価は,適合率(Precision)・再現率(Recall),及びそれらの調和平均であるF値から行う.すなわち,考えうる全ての文対応の可能性から正しい文対応を探す課題とみなし,次の式で計算する.\pagebreak\begin{align*}\text{Recall}&=\frac{正しく推定できた対応数}{評価データ中に存在する文対応数}\\[0.5zw]\text{Precision}&=\frac{正しく推定できた文対応数}{システムが文対応有りと出力した文対応数}\end{align*}本実験では,以下に説明する手法により適合率・再現率を調整し,これらの性能がどのように変化するかを調査する.具体的には,文同士が対応する確率$P(y_{i,j}=1)$と対応しない確率$P(y_{i,j}=0)$の比率を取り,閾値を与えて閾値以上か否かで文対応の有無の出力を変更する.すなわち,文対応$y_{i,j}$の最終的な出力$\hat{y}_{i,j}$は閾値$\alpha$を用いて次の式(\ref{eq:alpha})のようにする.\begin{equation}\label{eq:alpha}\hat{y_{ij}}=\left\{\begin{array}{cl}1&~~\rm{if}~~\log\frac{P(y_{i,j}=1|\mathbf{x})}{P(y_{i,j}=0|\mathbf{x})}>\alpha\\0&~~\rm{otherwise}\\\end{array}\right.\end{equation}\subsection{実験結果と考察}実験結果を表\ref{tb:result}に示す.各数値は適合率・再現率を調整した際に学習データにおいてF値が最大となる点を用い,5分割交差検定でのマイクロ平均値を計算した数値である.なお,表\ref{tb:result}に示す結果のF値に対してブートストラップ検定で得られたp値をHolm法\cite{Holm1979}によって調整した有意水準と比較することで多重比較を行い,統合モデルcombineは他手法全てに対して統計的有意差があることを確認している(有意水準5\%){\kern-0.5zw}\footnote{ブートストラップ検定におけるブートストラップ回数は1,000回とした.}.併せて,閾値を変化させた際のPrecision-Recall曲線を図\ref{fig:pr}に示す.\begin{table}[b]\caption{実験結果(分割交差検定でのF値最大点におけるマイクロ平均値)}\label{tb:result}\input{02table05.txt}\vspace{-1\Cvs}\end{table}表\ref{tb:result}から,統合モデルcombineは文種類・文対応を別々に推定する各手法よりも高い性能となった.また,図\ref{fig:pr}より中程度の再現率(Recall:0.25〜0.75)でもcombineは概ね他手法よりも高い適合率であり,多くの場合において高い性能であったといえる.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f13.eps}\end{center}\caption{実験結果のPrecision-Recall曲線}\label{fig:pr}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f14.eps}\end{center}\hangcaption{平均コサイン類似度値-Recall曲線.各Recall値において推定された全ての文対応に対しコサイン類似度を計算し,平均を取った値の変化を示す.}\label{fig:recall-vs-avgcossim}\vspace{-0.5\Cvs}\end{figure}一方で,低再現率(Recall:0.0〜0.25)では,中再現率で高い適合率であったcombineよりもロジスティック回帰やL-CRF$_{\rmrep}$の方が高い性能であった.この原因を調べるため,低再現率と中再現率においてどのような文対応が推定できているかをコサイン類似度の観点から調査した.ここで,各Recall値の性能時において推定できた全ての文対応に対しコサイン類似度を計算し,平均を取った値の変化をグラフにした図を図\ref{fig:recall-vs-avgcossim}に示す.図\ref{fig:recall-vs-avgcossim}より,いずれの手法においても低い再現率値においてはコサイン類似度の平均が高く,徐々にコサイン類似度の平均は下がって行くことが分かる.中でもcombineは低再現率においてコサイン類似度の平均が他手法に比較すると特に低いことから,コサイン類似度の重要性を低く見ているために高類似度の文間に見られる文対応を見落としていると考えている\footnote{なお,例えば再現率10\%において推定された文対応のコサイン類似度について,ロジスティック回帰の分散は0.052,combineの分散は0.035であった.特に,コサイン類似度が0であった文対の割合は,ロジスティック回帰の場合は12.3\%であったのに対し,combineの場合は48.8\%と大きな差があった.}.これに対しては,combineでは他の手法よりも単純な単語マッチなどでは推定が困難な文対応もある程度発見できるという特徴を持つことでもあるため,コサイン類似度の値によって推定手法を切り替えるなどで様々な文対にも対応可能になると考えている.すなわち,コサイン類似度が高い文対ではロジスティック回帰やL-CRF$_{\rmrep}$など,低い文対ではcombineを用いることで,より推定性能が向上すると考えている.\begin{table}[b]\begin{minipage}[t]{205pt}\setlength{\captionwidth}{190pt}\hangcaption{提案モデルcombineにおけるレビュー文種類ごとの文対応推定性能(F値最大点)}\label{tb:rvl-pr}\input{02table06.txt}\end{minipage}\begin{minipage}[t]{205pt}\setlength{\captionwidth}{190pt}\hangcaption{提案モデルcombineにおける応答文種類ごとの文対応推定性能(F値最大点)}\label{tb:rpl-pr}\input{02table07.txt}\end{minipage}\end{table}次に,combineモデルにおける文種類ごとの推定性能を表\ref{tb:rvl-pr},\ref{tb:rpl-pr}に示す\footnote{表\ref{tb:rpl-pr}で全ての項目が「---」となっている文種類(<結びでの感謝><署名・フッター>)は今回のデータには該当する文種類に文対応がなかったもの,F値が「---」となっている文種類(<定型的挨拶>)は推定結果が全てfalse-positiveであったものである.}.いずれの文書を基準にしても文種類によって性能に大きな差があるが,この主な理由は学習データ量の差によるものと考えている.すなわち,一部の文種類はほとんど文対応を持たないことや,そもそも当該文種類を持つ文の出現回数が少ないことに起因して学習が難しくなっている.特に前者については,例えばレビュー文種類<感謝・応援><プラン名>や応答文種類<投稿御礼>について表\ref{tb:review-dep-exists},\ref{tb:reply-dep-exists}を見ると,登場する回数は多いものの文対応を持つものは極めて少ないことが分かる.これらの文種類については再現率が高いものの適合率が極めて低いことから,過剰に対応有りと推定してしまっていることが分かる.このように対応する可能性が低い文種類については,推定後に予め人手で作成したルールによりフィルタリングするなどにより解決できると考えている.次に,実際のcombineモデルの出力例を図\ref{fig:result-ex}に示す(表\ref{tb:result}に示すF値最大点における出力結果).図中の実線が推定によって得られた正しい文対応を示し,実線に$\times$記号があるものは対応有りと推定されたが実際には対応していないもの,破線は対応無しと推定されたが実際には対応しているものを示す.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f15.eps}\end{center}\hangcaption{combineモデルによる推定例.実線は対応有りと推定された正しい文対応を示す.実線に$\times$記号があるものは対応有りと推定されたが実際には対応していないもの,破線は対応無しと推定されたが実際には対応しているものを示す.}\label{fig:result-ex}\end{figure}図\ref{fig:result-ex}左側は誤りなく文対応を推定できた例である.例えばレビュー文「フロントの係の方や…」「駅から歩いて5分程…」はいずれも対応先の応答文「また、温かな嬉しいお言葉…」と共通する内容語が存在しないが,正しく文対応が推定できている.これは,それぞれの文種類を<ポジティブ感想><ほめへの感謝>と正しく推定できており,加えて「気持ちよく」「おいしい」「便利」といった語が現れる文と「御礼」といった言葉が現れる文の間には対応する可能性が高いといった傾向をうまく学習できたことによると考えている.また,図\ref{fig:result-ex}右側は誤った推定が含まれている例である.例えばレビュー文「夜遅かったので…」は応答文「また、フロントスタッフに対しても…」と対応していると推定して誤っている.これは逆に,文種類がそれぞれ<ポジティブ感想><ほめへの感謝>であることや,レビュー文中に「チェックアウト」が,応答文中に「フロント」「スタッフ」などの語が出現すると対応しやすいという傾向に影響されているためであると考えている.この場合,それぞれの文で触れられている対象が,チェックアウト時刻そのものなのか,チェックアウト時のスタッフの対応なのかを区別できればより正確な推定が可能になる.同様に,「夜遅かったので…」に対して応答文「当ホテルでは…」「クリスマスシーズン…」の間の文対応を発見することができなかった問題についても,それぞれの文でチェックアウト時刻に触れられていることを特定できれば対応を発見できる可能性が向上すると考えている.\begin{figure}[b]\begin{center}\includegraphics{22-1ia2f16.eps}\end{center}\caption{combineモデルと2DCRFモデルの推定例.左がcombine,右が2DCRF.}\label{fig:result-ex-comparison}\end{figure}最後に,combineモデルと2DCRFモデルによる出力の比較例を図\ref{fig:result-ex-comparison}に示す(表\ref{tb:result}に示すF値最大点における出力結果).この例では,2DCRFモデルでは誤って対応ありと出力したペアに対しても,combineモデルでは正しく対応がないと出力できている.2DCRFモデルが誤った理由の一つとして,文対応推定の前提処理である文種類推定の誤りによる影響があると考えている.この例では,応答文「今回はサラダのある…」及び「次回宿泊時には…」に対して文種類<情報追加>が誤って推定されているが(正しくは<お詫び>及び<対話>),\mbox{<情}報追加>は関連した語が登場するレビュー文と対応を持ちやすいという傾向があるため,過剰に対応有りと出力されていると考えている.これに対し,combineモデルでは文種類と文対応を同時に推定するため,事前の文種類推定における誤りに影響されるといったことはないため正しく推定できている.
\section{まとめと今後の課題}
本論文では,対応する二文書間において文対応を自動で推定するタスクを提案した.また,対話文書を対象とした従来手法を本タスクに適用すると共に,文種類と文対応を推定するモデルを統合した新しいモデルを提案した.実際に文対応の推定性能について比較実験を行い,中再現率において統合モデルは他モデルよりも高い適合率であること,特にF値最大点では最も高いF値であることを確認した.今後の課題として,以下の項目を考えている.本論文の実験では,文対応推定に利用した素性は適用する文書対の分野に依存しないものに限られていた.そのため,文書対によっては分野に合わせた素性を投入することで性能が向上する可能性がある.特に,宿泊予約サイトのレビュー・応答文書対に合わせた素性を検討することを考えている.また,本研究では二文書の対に限っていたが,メールや掲示板等では「返信の返信」のように三文書以上が関係する場合もある.ここで,往信文書を文書A,文書Aに対する返信文書を文書B,文書Bに対する再返信文書を文書Cとした場合,文書Bでは文書Aに対する返信文に加え,文書Cへの往信文が登場するという性質を持つ.例えば,文書Bにおける回答は文書Aと対応し,文書Bにおける質問は文書Cと対応する.また,文書Bにおける回答文に対して文書Cでフィードバックが行われている場合など,文書Bのある一文が文書A,C双方と関係を持つ場合もある.この場合,文書A-文書B及び文書B-文書Cのそれぞれで本研究での提案手法を繰り返し適用する素朴な方法も考えられる.この際,文書Bの文種類をそれぞれの推定手順で返信文種類集合,往信文種類集合に切り替えて別々に推定するという方法もあるが,新たに往信文書・返信文書のいずれでもあるような文書のための文種類を新たに定義するという方法もある.更に,繰り返し推定するのではなく,文書A,B,Cの文種類・文対応を同時に推定するモデルに拡張するという方法も考えられる.加えて,本研究で扱う文対応の定義からは外れるものの,文書Bを経由せずに文書Aと文書Cで関連しているといった,三文書以上が関わることで初めて観察される関係もある.例えば,文書Aでした質問のいくつかが文書Bで答えられなかった場合に,文書Cで再度質問に触れる場合などがある.今後,三文書以上になることで新たに発生する事象についてはこのような関係も含めて分析を行い,三文書以上における文対応推定に最適な手法を検討したいと考えている.加えて,本論文の冒頭で紹介したような応用についても取り掛かりたいと考えている.今回対象となったデータセットであるレビュー文書・応答文書対についても様々な応用が考えられるため,応答文書の書き手の支援にとどまらず,ウェブサイトの利用者全体にとって有用なアプリケーションも実現したいと考えている.\acknowledgment本論文の実験にあたり,楽天データ公開において公開された楽天トラベル「お客さまの声・クチコミ」データを使用させて頂きました.データを公開して頂きました楽天株式会社に感謝致します.\bibliographystyle{./jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Boyer,Phillips,Ha,Wallis,Vouk,\BBA\Lester}{Boyeret~al.}{2009}]{Boyer2009}Boyer,K.~E.,Phillips,R.,Ha,E.~Y.,Wallis,M.~D.,Vouk,M.~A.,\BBA\Lester,J.~C.\BBOP2009\BBCP.\newblock\BBOQ{ModelingDialogueStructurewithAdjacencyPairAnalysisandHiddenMarkovModels}.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL-HLT-2009)},\mbox{\BPGS\49--52}.\bibitem[\protect\BCAY{Chen\BBA\Rosenfeld}{Chen\BBA\Rosenfeld}{1999}]{Chen99agaussian}Chen,S.~F.\BBACOMMA\\BBA\Rosenfeld,R.\BBOP1999\BBCP.\newblock\BBOQ{AGaussianPriorforSmoothingMaximumEntropyModels}.\BBCQ\\newblock\BTR,CarnegieMellonUniversity.\bibitem[\protect\BCAY{Druck\BBA\Pang}{Druck\BBA\Pang}{2012}]{Druck2012}Druck,G.\BBACOMMA\\BBA\Pang,B.\BBOP2012\BBCP.\newblock\BBOQ{SpiceitUp?:MiningRefinementstoOnlineInstructionsfromUserGeneratedContent}.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2012)},\mbox{\BPGS\545--553}.\bibitem[\protect\BCAY{長谷川\JBA鍜治\JBA吉永\JBA豊田}{長谷川\Jetal}{2013}]{長谷川貴之:2013}長谷川貴之\JBA鍜治伸裕\JBA吉永直樹\JBA豊田正史\BBOP2013\BBCP.\newblock聞き手の感情を喚起する発話応答生成.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\150--153}.\bibitem[\protect\BCAY{平尾\JBA西野\JBA安田\JBA永田}{平尾\Jetal}{2013}]{平尾:2013}平尾努\JBA西野正彬\JBA安田宜仁\JBA永田昌明\BBOP2013\BBCP.\newblock談話構造に基づく単一文書要約.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\492--495}.\bibitem[\protect\BCAY{比留間\JBA山下\JBA奈良\JBA田村}{比留間\Jetal}{1999}]{比留間正樹:1999-07-10}比留間正樹\JBA山下卓規\JBA奈良雅雄\JBA田村直良\BBOP1999\BBCP.\newblock文章の構造化による修辞情報を利用した自動抄録と文章要約.\\newblock\Jem{自然言語処理},{\Bbf6}(6),\mbox{\BPGS\113--129}.\bibitem[\protect\BCAY{Holm}{Holm}{1979}]{Holm1979}Holm,S.\BBOP1979\BBCP.\newblock\BBOQ{ASimpleSequentiallyRejectiveMultipleTestProcedure}.\BBCQ\\newblock{\BemScandinavianJournalofStatistics},{\Bbf6}(2),\mbox{\BPGS\65--70}.\bibitem[\protect\BCAY{Kschischang,Frey,\BBA\Loeliger}{Kschischanget~al.}{2001}]{Kschischang2001}Kschischang,F.~R.,Frey,B.~J.,\BBA\Loeliger,H.~A.\BBOP2001\BBCP.\newblock\BBOQ{FactorGraphsandtheSum-productAlgorithm}.\BBCQ\\newblock{\BemIEEETransactionsonInformationTheory},{\Bbf47}(2),\mbox{\BPGS\498--519}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo-yamamoto-matsumoto:2004:EMNLP}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQ{ApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis}.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQ{ConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData}.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML-2001)},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Mann,Matthiessen,\BBA\Thompson}{Mannet~al.}{1992}]{Mann1992}Mann,W.~C.,Matthiessen,C.~M.,\BBA\Thompson,S.~A.\BBOP1992\BBCP.\newblock\BBOQ{RhetoricalStructureTheoryandTextAnalysis}.\BBCQ\\newblockInMann,W.~C.\BBACOMMA\\BBA\Thompson,S.~A.\BEDS,{\BemDiscourseDescription:DiverseLinguisticAnalysesofaFund-raisingText},\mbox{\BPGS\39--78}.JohnBenjaminsPublishing.\bibitem[\protect\BCAY{Mann\BBA\Thompson}{Mann\BBA\Thompson}{1987}]{Mann1987}Mann,W.~C.\BBACOMMA\\BBA\Thompson,S.~A.\BBOP1987\BBCP.\newblock\BBOQ{RhetoricalStructureTheory:DescriptionandConstructionofTextStructures}.\BBCQ\\newblockInKempen,G.\BED,{\BemNaturalLanguageGeneration},\BCH~7,\mbox{\BPGS\85--95}.SpringerNetherlands.\bibitem[\protect\BCAY{Marcu}{Marcu}{1997}]{Marcu1997a}Marcu,D.\BBOP1997\BBCP.\newblock\BBOQ{TheRhetoricalParsingofNaturalLanguageTexts}.\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-1997)},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{Marcu}{Marcu}{1999}]{Marcu99discoursetrees}Marcu,D.\BBOP1999\BBCP.\newblock\BBOQ{DiscourseTreesAreGoodIndicatorsofImportanceinText}.\BBCQ\\newblockInMani,I.\BBACOMMA\\BBA\Maybury,M.~T.\BEDS,{\BemAdvancesinAutomaticTextSummarization},\mbox{\BPGS\123--136}.TheMITPress.\bibitem[\protect\BCAY{Marcu,Carlson,\BBA\Watanabe}{Marcuet~al.}{2000}]{Marcu2000}Marcu,D.,Carlson,L.,\BBA\Watanabe,M.\BBOP2000\BBCP.\newblock\BBOQ{TheAutomaticTranslationofDiscourseStructures}.\BBCQ\\newblockIn{\BemProceedingsofthe1stNorthAmericanchapteroftheAssociationforComputationalLinguisticsConference(NAACL-2000)},\mbox{\BPGS\9--17}.\bibitem[\protect\BCAY{McCallum}{McCallum}{2002}]{McCallumMALLET2002}McCallum,A.~K.\BBOP2002\BBCP.\newblock\BBOQ{MALLET:AMachineLearningforLanguageToolkit}.\BBCQ\\\newblock\texttt{http://mallet.cs.umass.edu/}.\bibitem[\protect\BCAY{大沢\JBA郷亜\JBA安田}{大沢\Jetal}{2010}]{大沢:2010}大沢裕子\JBA郷亜里沙\JBA安田励子\BBOP2010\BBCP.\newblock{Webサイトにおけるクチコミの苦情と返答—「宿泊予約サイト」を対象に—}.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\322--325}.\bibitem[\protect\BCAY{宮部\JBA高村\JBA奥村}{宮部\Jetal}{2005}]{宮部:2005}宮部泰成\JBA高村大也\JBA奥村学\BBOP2005\BBCP.\newblock異なる文書中の文間関係の特定.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会},{\Bbf2005}(NL-17),\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{宮部\JBA高村\JBA奥村}{宮部\Jetal}{2006}]{宮部:2006}宮部泰成\JBA高村大也\JBA奥村学\BBOP2006\BBCP.\newblock文書横断文間関係の特定.\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\496--499}.\bibitem[\protect\BCAY{難波\JBA国政\JBA福島\JBA相沢\JBA奥村}{難波\Jetal}{2005}]{難波:2005}難波英嗣\JBA国政美伸\JBA福島志穂\JBA相沢輝昭\JBA奥村学\BBOP2005\BBCP.\newblock文書横断文間関係を考慮した動向情報の抽出と可視化.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会},{\Bbf2005}(NL-169),\mbox{\BPGS\67--74}.\bibitem[\protect\BCAY{Pedregosa,Varoquaux,Gramfort,Michel,Thirion,Grisel,Blondel,Prettenhofer,Weiss,Dubourg,Vanderplas,Passos,Cournapeau,Brucher,Perrot,\BBA\Duchesnay}{Pedregosaet~al.}{2011}]{scikit-learn}Pedregosa,F.,Varoquaux,G.,Gramfort,A.,Michel,V.,Thirion,B.,Grisel,O.,Blondel,M.,Prettenhofer,P.,Weiss,R.,Dubourg,V.,Vanderplas,J.,Passos,A.,Cournapeau,D.,Brucher,M.,Perrot,M.,\BBA\Duchesnay,E.\BBOP2011\BBCP.\newblock\BBOQ{Scikit-learn:MachineLearninginPython}.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf12},\mbox{\BPGS\2825--2830}.\bibitem[\protect\BCAY{Qu\BBA\Liu}{Qu\BBA\Liu}{2012}]{Zhonghua2012}Qu,Z.\BBACOMMA\\BBA\Liu,Y.\BBOP2012\BBCP.\newblock\BBOQ{SentenceDependencyTagginginOnlineQuestionAnsweringForums}.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2012)},\mbox{\BPGS\554--562}.\bibitem[\protect\BCAY{Radev}{Radev}{2000}]{Radev2000}Radev,D.~R.\BBOP2000\BBCP.\newblock\BBOQ{ACommonTheoryofInformationFusionfromMultipleTextSourcesStepOne}.\BBCQ\\newblockIn{\BemProceedingsofthe1stSIGdialWorkshoponDiscourseandDialogue},\lowercase{\BVOL}~10,\mbox{\BPGS\74--83}.\bibitem[\protect\BCAY{Ritter,Cherry,\BBA\Dolan}{Ritteret~al.}{2011}]{Ritter2011}Ritter,A.,Cherry,C.,\BBA\Dolan,W.~B.\BBOP2011\BBCP.\newblock\BBOQ{Data-drivenResponseGenerationinSocialMedia}.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2011)},\mbox{\BPGS\583--593}.\bibitem[\protect\BCAY{Sutton}{Sutton}{2006}]{GRMM2006}Sutton,C.\BBOP2006\BBCP.\newblock\BBOQ{GRMM:GRaphicalModelsinMallet}.\BBCQ\\\newblock\texttt{http://mallet.cs.umass.edu/grmm/}.\bibitem[\protect\BCAY{Sutton\BBA\McCallum}{Sutton\BBA\McCallum}{2012}]{Sutton2012}Sutton,C.\BBACOMMA\\BBA\McCallum,A.\BBOP2012\BBCP.\newblock\BBOQ{AnIntroductiontoConditionalRandomFields}.\BBCQ\\newblock{\BemFoundationsandTrendsinMachineLearning},{\Bbf4}(4),\mbox{\BPGS\267--373}.\bibitem[\protect\BCAY{竹中\JBA若尾}{竹中\JBA若尾}{2012}]{竹中要一:2012-09-30}竹中要一\JBA若尾岳志\BBOP2012\BBCP.\newblock地方自治体の例規比較に用いる条文対応表の作成支援.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\193--212}.\bibitem[\protect\BCAY{田村\JBA和田}{田村\JBA和田}{1998}]{田村直良:1998-01-10}田村直良\JBA和田啓二\BBOP1998\BBCP.\newblockセグメントの分割と統合による文章の構造解析.\\newblock\Jem{自然言語処理},{\Bbf5}(1),\mbox{\BPGS\59--78}.\bibitem[\protect\BCAY{Tu,Zhou,\BBA\Zong}{Tuet~al.}{2013}]{tu-zhou-zong:2013:Short}Tu,M.,Zhou,Y.,\BBA\Zong,C.\BBOP2013\BBCP.\newblock\BBOQ{ANovelTranslationFrameworkBasedonRhetoricalStructureTheory}.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2013)},\mbox{\BPGS\370--374}.\bibitem[\protect\BCAY{Wainwright,Jaakkola,\BBA\Willsky}{Wainwrightet~al.}{2001}]{Wainwright2001b}Wainwright,M.,Jaakkola,T.,\BBA\Willsky,A.\BBOP2001\BBCP.\newblock\BBOQ{Tree-basedReparameterizationforApproximateInferenceonLoopyGraphs}.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystem(NIPS-2001)},\mbox{\BPGS\1001--1008}.\bibitem[\protect\BCAY{Zhu,Nie,Wen,Zhang,\BBA\Ma}{Zhuet~al.}{2005}]{Zhu2005}Zhu,J.,Nie,Z.,Wen,J.-R.,Zhang,B.,\BBA\Ma,W.-Y.\BBOP2005\BBCP.\newblock\BBOQ{2DConditionalRandomFieldsforWebInformationExtraction}.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonMachineLearning(ICML-2005)},\mbox{\BPGS\1044--1051}.\end{thebibliography}\begin{biography}\bioauthor{角田孝昭}{2011年筑波大学情報学群情報メディア創成学類卒業.2013年同大学大学院システム情報工学研究科コンピュータサイエンス専攻博士前期課程修了.現在,同大学博士後期課程在学中.修士(工学).自然言語処理の研究に従事.}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教.現在に至る.博士(工学).近年はCGMテキストに対する評判分析に興味をもつ.}\bioauthor{山本幹雄}{1986年豊橋技術科学大学大学院修士課程了.同年株式会社沖テクノシステムズラボラトリ研究開発員.1988年豊橋技術科学大学情報工学系教務職員.1991年同助手.1995年筑波大学電子・情報工学系講師.1998年同助教授.2008年筑波大学システム情報工学研究科教授.博士(工学).自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V03N02-01
|
\section{はじめに}
\label{haji}終助詞は,日本語の会話文において頻繁に用いられるが,新聞のような書き言葉の文には殆んど用いられない要素である.日本語文を構造的に見ると,終助詞は文の終りに位置し,その前にある全ての部分を従要素として支配し,その有り方を規定している.そして,例えば「学生だ」「学生だよ」「学生だね」という三つの文が伝える情報が直観的に全く異なることから分かるように,文の持つ情報に与える終助詞の影響は大きい.そのため,会話文を扱う自然言語処理システムの構築には,終助詞の機能の研究は不可欠である.そこで,本稿では,終助詞の機能について考える.\subsection{終助詞の「よ」「ね」「な」の用法}まずは,終助詞「よ」「ね」「な」の用法を把握しておく必要がある.終助詞「よ」「ね」については,\cite{kinsui93-3}で述べられている.それによると,まず,終助詞「よ」には以下の二つの用法がある.\begin{description}\item[教示用法]聞き手が知らないと思われる情報を聞き手に告げ知らせる用法\item[注意用法]聞き手は知っているとしても目下の状況に関与的であると気付いていないと思われる情報について,聞き手の注意を喚起する用法\end{description}\res{teach}の終助詞「よ」は教示用法,\rep{remind}のそれは注意用法である.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{teach}\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{remind}以上が\cite{kinsui93-3}に述べられている終助詞「よ」の用法であるが,漫画の中で用いられている終助詞を含む文を集めて検討した結果,さらに,以下のような,聞き手を想定しない用法があった.\enumsentence{「あーあまた放浪だ{\dgよ}」\cite{themegami}一巻P.50}\label{hitori1}\enumsentence{「先輩もいい趣味してる{\dgよ}」\cite{themegami}一巻P.114}\label{hitori2}本稿ではこの用法を「{\dg独り言用法}」と呼び,終助詞「よ」には,「教示」「注意」「独り言」の三用法がある,とする.次に,終助詞「ね」について,\cite{kinsui93-3}には以下の三種類の用法が述べられている.\begin{description}\item[確認用法]話し手にとって不確かな情報を聞き手に確かめる用法\item[同意要求用法]話し手・聞き手ともに共有されていると目される情報について,聞き手に同意を求める用法\item[自己確認用法]話し手の発話が正しいかどうか自分で確かめていることを表す用法\end{description}\rep{confirm}の終助詞「ね」は確認用法,\rep{agree}Aのそれは同意要求用法,\rep{selfconfirm}Bのそれは自己確認用法である.\enumsentence{\label{confirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\enumsentence{\label{agree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\enumsentence{\label{selfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}以上が,\cite{kinsui93-3}で述べられている終助詞「ね」の用法であるが,本稿でもこれに従う.\rep{confirm},\rep{agree}A,\rep{selfconfirm}Bの終助詞の「ね」を「な」に代えてもほぼ同じような文意がとれるので,終助詞「な」は,終助詞「ね」と同じ三つの用法を持っている,と考える.ところで,発話には,聞き手を想定する発話と,聞き手を想定しない発話があるが,自己確認用法としての終助詞「ね」は主に聞き手を想定する発話で,自己確認用法としての終助詞「な」は主に聞き手を想定しない発話である.さらに,\res{megane}のような,終助詞「よ」と「ね/な」を組み合わせた「よね/よな」という形式があるが,これらにも,終助詞「ね」「な」と同様に,確認,同意要求,自己確認用法がある.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}\label{megane}\subsection{従来の終助詞の機能の研究}さて,以上のような用法の一部を説明する,計算言語学的な終助詞の機能の研究は,過去に,人称的分析によるもの\cite{kawamori91,kamio90},談話管理理論によるもの\cite{kinsui93,kinsui93-3},Dialoguecoordinationの観点から捉えるもの\cite{katagiri93},の三種類が提案されている.以下に,これらを説明する.ところで,\cite{kawamori91}では終助詞の表す情報を「意味」と呼び,これに関する主張を「意味論」と呼んでいる.\cite{kinsui93,kinsui93-3}では,それぞれ,「(手続き)意味」「(手続き)意味論」と呼んでいる.\cite{katagiri93}では,終助詞はなにがしかの情報を表す「機能(function)」があるという言い方をしている.本論文では,\cite{katagiri93}と同様に,「意味」という言葉は用いずに,終助詞の「機能」を主張するという形を取る.ただし,\cite{kawamori91},\cite{kinsui93,kinsui93-3}の主張を引用する時は,原典に従い,「意味」「意味論」という言葉を用いることもある.\begin{flushleft}{\dg人称的分析による意味論}\cite{kawamori91,kamio90}\end{flushleft}この意味論では,終助詞「よ」「ね」の意味は,「従要素の内容について,終助詞『よ』は話し手は知っているが聞き手は知らなそうなことを表し,終助詞『ね』は話し手は知らないが聞き手は知っていそうなことを表す」となる.この意味論では,終助詞「よ」の三用法(教示,注意,独り言)のうち教示用法のみ,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち確認用法のみ説明できる.終助詞「よ」と「ね」の意味が同時に当てはまる「従要素の内容」はあり得ないので,「よね」という形式があることを説明出来ない.また,聞き手が終助詞の意味の中に存在するため,聞き手を想定しない終助詞「よ」「ね」の用法を説明できない.この二つの問題点(とその原因となる特徴)は,後で述べる\cite{katagiri93}の主張する終助詞の機能でも同様に存在する.\begin{flushleft}{\dg談話管理理論による意味論}\cite{kinsui93,kinsui93-3}\end{flushleft}この意味論では,「日本語会話文は,『命題+モダリティ』という形で分析され,この構造は『データ部+データ管理部』と読み替えることが出来る」,という前提の元に,以下のように主張している.終助詞は,データ管理部の要素で,当該データに対する話し手の心的データベース内における処理をモニターする機能を持っている.この意味論は,一応,前述した全用法を説明しているが,終助詞「よ」に関して,後に\ref{semyo}節で述べるような問題点がある.終助詞「ね」「な」に関しても,「終助詞『ね』と『な』の意味は同じ」と主張していて,これらの終助詞の性質の差を説明していない点が問題点である.\begin{flushleft}{\bfDialoguecoordination}{\dgの観点から捉えた終助詞の機能}\cite{katagiri93}\end{flushleft}\cite{katagiri93}では,以下のように主張している.終助詞「よ」「ね」は,話し手の聞き手に対する共有信念の形成の提案を表し,さらに,終助詞「よ」は話し手が従要素の内容を既に信念としてアクセプトしていることを,終助詞「ね」は話し手が従要素の内容をまだ信念としてアクセプトしていないことを,表す.これらの終助詞の機能は,終助詞「よ」の三用法(教示,注意,独り言)のうち独り言用法以外,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち,自己確認用法以外を説明できる.この終助詞の機能の問題点は,\cite{kawamori91,kamio90}の意味論の説明の終りで述べた通りである.\subsection{本論文で提案する終助詞の機能の概要}本論文では,日本語会話文の命題がデータ部に対応しモダリティがデータ管理部に対応するという\cite{kinsui93-3}の意味論と同様の枠組を用いて,以下のように終助詞の機能を提案する.ただし,文のデータ部の表すデータを,簡単に,「文のデータ」と呼ぶことにする.終助詞「よ」は,データ管理部の構成要素で,「文のデータは,発話直前に判断したことではなく,発話時より前から記憶にあった」という,文のデータの由来を表す.終助詞「ね」「な」も,データ管理部の構成要素で,発話時における話し手による,文のデータを長期的に保存するかどうか,するとしたらどう保存するかを検討する処理をモニターする.さて,本稿では,終助詞を含む文の,発話全体の表す情報と終助詞の表す情報を明確に区別する.つまり,終助詞を含む文によって伝えられる情報に,文のデータと話し手との関係があるが,それは,終助詞で表されるものと語用論的制約で表されるものに分けることができる.そこで,どこまでが終助詞で表されるものかを明確にする.ただし,本稿では,活用形が基本形(終止形)または過去形の語で終る平叙文を従要素とする用法の終助詞を対象とし,名詞や動詞のテ形に直接付加する終助詞については,扱わない(活用形の呼び方については\cite{katsuyou}に従っている).また,上向きイントネーションのような,特殊なイントネーションの文も扱わない.さらに,終助詞「な」は,辞書的には,命令の「な」,禁止の「な」,感動の「な」があるが,本稿では,これらはそれぞれ別な語と考え,感動の「な」だけ扱う.以下,本論文では,\ref{bconcept}節で,我々の提案する終助詞の機能を表現するための認知主体の記憶モデルを示し,これを用いて\ref{sem}節で終助詞の機能を提案し,終助詞の各用法を説明する.\ref{conclusion}節は結論である.
\section{認知主体の記憶のモデル}
\label{bconcept}\subsection{階層的記憶モデル}\label{class}終助詞「よ」の表す文のデータの由来や,終助詞「ね」「な」の表す文のデータの保存のための処理を,表現するためには,認知主体の記憶をモデル化する必要がある.本稿では,階層的記憶モデルを用いてこれを行なう.これは,認知心理学の分野で作られたモデルである\cite{koyazu85}\nocite{tanaka92}.本稿では,\cite{kinsui92}の三階層の階層的記憶モデルの二階層のそれぞれを確信・信念の二領域に分割したモデルを仮定する.階層的記憶モデルは,談話記憶領域,出来事記憶領域,長期記憶領域からなる.以下,談話記憶領域をDMA(DiscourseMemoryArea),出来事記憶領域をEMA(EpisodicMemoryArea),長期記憶領域をLMA(LongtermMemoryArea)と呼ぶことにする.また,EMAとLMAを合わせて「EMA以下」と言うことにする.DMAでは,音声情報や文字情報,言語情報,概念情報などの処理がなされる.EMAには,会話の過程で参照する情報及び生成した概念情報が蓄えられる.会話している場面の情報もここに蓄えられる.ここにある情報は,DMAにある情報ほどではないが,認知主体自身から注意を払われている.LMAには,語彙情報,文法情報,常識などが蓄えられている.ここにある情報は,注意を払われていない.これらの記憶階層において,DMAは,最も浅い階層にあり,ここにある情報は認知主体が直接参照できる.EMAは,LMAとDMAの中間の階層にあり,ここにある情報は,直接参照されることはなく,DMAを介して参照される.LMAは,最も深い階層にあり,ここにある情報も,直接参照されることはなく,EMAとDMAを介して参照される.言語器官から入力された情報はDMAに置かれ,EMAとLMAの情報を参照することによってDMA上で処理され,それにより結果的に導かれた情報はEMAに伝達される.EMAに伝達された情報の一部は,無意識的にLMAに伝達される.さて,情報はただ来た順番に記憶領域に積み重ねているのではない.むしろ,この記憶システムは高度なデータベースシステムとなっている.特に,DMAにある命題をキーとして,EMA以下(主に,LMA)にあるその命題の真偽に関係する情報を短時間のうちに検索してまとめてEMAに持ってくることが出来る.ここで,「確認する」という言葉を,以下のように定義する.\enumsentence{{\dg「確認する」の定義}\\\label{dif-confirm}「ある認知主体Aが,ある命題PをA自身のDMAに置いて,Pの真偽に関係する情報を,A自身のEMA以下(主にLMA)から検索してまとめてA自身のEMAに持ってきて,それらの情報とPの間に矛盾が生じないことを確かめる」ことを「認知主体Aが命題Pを確認する」と言う.}この定義は,後で,終助詞「ね」の機能の説明に用いる.\subsection{「確信」「信念」}\label{kandb}ある認知主体が信じている情報には,信じる強さに違いがある.例えば,ある認知主体が「月が地球の衛星であること」を信じているとする.この命題を,このことを知っていそうもない五,六歳の子供に発話する時は,殆んどこのことを「確信」として発話するだろう.一方,天文学者を前にした時は「確信でない信念」として発話する場合もありえよう.このように,ある命題を伝える側の認知主体にとって,その命題を確信とするか否かは,その命題を伝えられる側の認知主体との相対的関係に依存する.このことは,以下の\rep{kb}(※)に反映している.本稿ではこのような観点から「確信」「信念」の定義を行なう.本稿では,「信じる強さ」の一次近似として,強く信じている場合を「確信している」,信じてはいるが確信していない場合を「信じている」とする.また,確信していることを「確信」,信じていることを「信念」,と呼ぶことにする.そして,「\(a\)にとって\(p\)が確信である」「\(a\)にとって\(p\)が信念である」を以下のように定義する.\enumsentence{\label{kb}\(a\)を認知主体とする.\\「\(a\)にとって\(p\)が確信である」とは,以下の二つのどちらかが成立することである.\begin{enumerate}\item\(p\)は,aにとって直接経験により得た情報である\item\(p\)は,aが直接経験によって得た情報\(q\)と,\(q\rightarrowp\)という\(a\)にとっての確信を使って導いたものである\(^{\mbox{{\tiny※}}}\)\end{enumerate}一方,「\(a\)にとって\(p\)が信念である」とは,以下のようなことである.\begin{enumerate}\item\(p\)は,aが直接経験によって得た情報\(q\)と,\(q\rightarrowp\)という\(a\)にとって確信ではない信念を使って導いたものである\(^{\mbox{{\tiny※}}}\)\end{enumerate}(※)\(a\)にとって\(q\rightarrowp\)が確信か否かは,\(a\)を取り巻く状況に依存している.}良く知られていることだが,日本語では,ある認知主体は他の認知主体の主観的経験を,確信として発話出来ないことに注意されたい.\ref{sem}節では,このことを利用して終助詞の機能を考える.なお,ある情報に対する確信・信念の区別は,その情報を記憶するときになされる,とする.つまり,DMAにある情報をEMA以下に伝達する時にDMA上でなされる.だから,EMAとLMAは確信と信念の領域に分割されるが,DMAはそうはならない,と考える.図1は,以上の説明を踏まえた認知主体の記憶のモデルである.\begin{center}\begin{tabular}{|c||l|l|}\hline\begin{tabular}[t]{c}談話記憶領域\\(DMA)\end{tabular}&\multicolumn{2}{c|}{a}\\\hline\begin{tabular}[t]{c}出来事記憶領域\\(EMA)\end{tabular}&\begin{tabular}[t]{l}b\\\multicolumn{1}{c}{確信}\end{tabular}&\begin{tabular}[t]{l}c\\\multicolumn{1}{c}{信念}\end{tabular}\\\hline\begin{tabular}[t]{c}長期記憶領域\\(LMA)\end{tabular}&\begin{tabular}[t]{l}d\\\multicolumn{1}{c}{確信}\end{tabular}&\begin{tabular}[t]{l}e\\\multicolumn{1}{c}{信念}\end{tabular}\\\hline\end{tabular}\\[3mm]図1認知主体の記憶のモデル\\Fig.1Modelofacognitiveagent'smemory\end{center}aは談話記憶領域,bとcは出来事記憶領域,dとeは長期記憶領域である.また,bとdは確信のある領域,cとeは信念の領域である以後,記憶モデルは,特に断らない限り,発話時の話し手のものとする.当然,DMA,EMA,LMAも,発話時の話し手のもので,このモデル上での操作も発話時の話し手によるものである.そして,確信,信念も,発話時の話し手にとってのものとする.また,確信/信念について,EMA以下にある情報だけではなく,DMA上にある情報についても,発話後にEMAの確信/信念の部分への伝達が決まっているものは,確信/信念と呼ぶことにする.
\section{終助詞「よ/ね/な」の機能}
\label{sem}\subsection{発話に伴う認知的処理}\label{managedata}認知主体が発話を行なう場合,その前後に,自身の記憶に対して必ず行なう処理がある.例えば,文のデータとなる情報を最も強く意識する,つまり,DMA上に存在させる必要がある.また,文のデータとなったDMA上にある情報を中長期的に保存する必要もある.そのような,発話に伴う処理を\rep{ninchi}に示す.\enumsentence{{\dg発話に伴う処理}\label{ninchi}\begin{enumerate}\itemDMA上の概念が,文のデータとなる(日本語の)文を作り,さらに,音声の形式に変換する\label{ctos}\item文のデータ部を発話する\itemEMA以下にデータを保存する必要があるかどうか,また必要ならその保存方法を検討する\label{store}(文に「データ管理部」の要素がある場合,この発話と並行して行なう)\item必要ならEMA以下に保存する\label{last}\end{enumerate}}\rep{ninchi}\ref{store},\red{last}において,EMA以下にデータを保存する必要がある場合とは,例えば,EMA以下には存在しないデータだった場合である.また,EMA以下から持ってきた情報でも,データがDMA上で変化した場合,例えば,このデータを発話したことがあるというマークをデータ自身に付加する場合は,再保存することになる.DMAの情報と全く同じ信頼性と内容のデータがEMA以下にある場合は,保存する必要はなく,例えば,DMAに持って来られたが,文解析に使われただけで内容の変化しなかった語彙情報は,再保存されずに消去される.\rep{ninchi}\red{store}のように,発話と並行して行なう処理もある.文のデータは,発話の最中はDMAにあり続けることに注意されたい.ところで,\rep{ninchi}\red{ctos}のDMA上の概念には,その由来により,以下の二種類に分けられる.\enumsentence{{\dg文のデータの由来}\label{ddata}\begin{enumerate}\itemDMA上で他のデータからの変換,推論などで導かれたばかりのもの\label{immid}\item以前DMAにおいて導かれた後EMA以下に保存されていて,再びDMAに持ってこられたもの\label{fromE}\end{enumerate}}文のデータの由来が\rep{ddata}\red{immid}の場合,そのデータが導かれた時刻を「発話直前」と言うことにする.また,文のデータの由来が\rep{ddata}\red{fromE}の場合,そのデータが導かれた時刻を「発話時より前」と言うことにする.\subsection{発話に伴う語用論的制約}\subsubsection{文のデータの制約}「太郎は学生だ」という文のデータは,普通,話し手の確信である.しかし,{\dg文の中に,文のデータが確信であるかどうかを示す要素は無い}.このことから,逆に,文のデータが確信でないことを示す表現がなければ文のデータを確信とみなすべきである,という制約があることになる.文のデータが確信でないことを示すものとしては,例えば,上向きイントネーションで発話すれば,いわゆる疑問文になることがある.本稿では,\ref{haji}節で述べたように,特殊なイントネーションの文は扱っていない.また,\cite{kamio90}などが示すように終助詞「ね」「な」も,文のデータが確信でない可能性を示す表現である.まとめると,以下の制約となる.\enumsentence{{\dg文のデータの制約}\\\label{datakn}文のデータは,後の部分(データ評価部とデータ管理部)で話し手にとって確信でない可能性が示されなければ,確信である.文のデータが確信でない可能性を示す形式には,データ評価部に現れる要素の「だろう」,データ管理部に現れる要素の「ね」「な」がある.}一般に終止形,過去形で終る文が話し手の確信を表すのは,この制約のためである.\cite{kawamori91}の意味論では,文のデータが話し手の確信であることを,終助詞「よ」の表す情報に含めてしまっていたため,「よね/よな」を説明できなくなっていた.本稿で提案する終助詞「よ」の表す情報には,文のデータが話し手の確信であることを含めていないので,「よね/よな」を説明でき,しかも,発話「\(\Phi\)--よ」で\(\phi\)の内容が確信であることをも説明できる.\subsubsection{会話の目的の制約}\ref{haji}節の終りで述べた本稿で扱う範囲の文が会話で用いられる場合,それには,\rep{cobj}のような通常の会話参加者が同調している語用論的制約がある.\enumsentence{\label{cobj}{\dg会話の目的}\\会話の目的は,話し手および聞き手の内的世界が,話題に関して同一の状態になることである.\cite{kamio90}}これは,\cite{katagiri93}が提案する終助詞「よ」「ね」の機能に含まれていた,「共有信念の提案」に相当する.本稿で提案する終助詞「よ」「ね」の機能には,共有信念の提案は含めない.聞き手を含む終助詞の用法は,制約\rep{cobj}を用いて説明することになる.\subsection{終助詞「よ」の機能と発話「\(\Phi\)--よ」が伝える情報}\label{semyo}終助詞「よ」の機能を考える上で,以下の二つの観察に注目する\begin{obserb}\label{yohyp1}火のついているストーブにうっかり手を触れてしまった場面で,その瞬間に,思わず「熱い」と言うことがあっても,「熱い{\dgよ}」と言うことはあり得ない.「熱い」と言った後に「\verb+(+このストーブ\verb+)+熱い{\dgよ}」と言うことは可能である.\end{obserb}\begin{obserb}\label{yohyp2}「私は眠い{\dgよ}」という文のデータは話し手の確信だが,「君,今,眠い{\dgよね/よな}」という文のデータは,聞き手の主観的経験なので,話し手の確信ではない.\end{obserb}\reobs{yohyp1},\ref{yohyp2}から,終助詞「よ」の機能を以下のように提案する.\enumsentence{{\dg終助詞「よ」の機能}\\\label{yo}DMA中の文のデータが発話直前にEMA以下より持ってきたものであることを,表す.}さらに,\rep{yo}とGriceの会話の公理の中の量の公理により,終助詞「よ」がないことに関して以下のことが導かれる.\enumsentence{\label{noyokinou}{\dg終助詞「よ」が無いことが表す情報}\\DMA中の文のデータは,発話直前に他の情報から(変換,推論などして)DMA上に導いた情報である.}以下,\(\phi\)\hspace{-0.1mm}は文のデータとし,\(\Phi\)\hspace{-0.2mm}を\hspace{-0.2mm}\(\phi\)に対応する文の表層上の表現とする.すると,\(\Phi\)\hspace{-0.1mm}は終助詞を含\\まないので,終助詞「よ」や「ね」が無いことが何かを表すとするなら,発話「\(\Phi\)--よ」についても,「ね」「な」が無いことが何を表すのかを考慮する必要がある.実際,後で述べるように,終助詞「ね」も「な」も無いことが表す情報として\rep{nonenakinou}があるので,発話「\(\Phi\)--よ」が表す情報の一部として\rep{syo}\red{syo3}が得られる.これと,終助詞「よ」の表す情報\rep{yo}と,文のデータの制約\rep{datakn}により,発話「\(\Phi\)--よ」の表す情報は以下のようになる.\enumsentence{\label{syo}{\dg発話「\(\Phi\)--よ」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前にEMA以下から持ってきたものであり,かつ,\label{syo1}\item\(\phi\)は,確信であり,かつ,\label{syo2}\item\(\phi\)は,発話後直ちにEMA以下に確信として保存される\label{syo3}\end{enumerate}}終助詞「よ」の三用法(教示,注意,独り言)の差は,意味論ではなく語用論のレベルのものである.話し手が,「聞き手は\(\phi\)を確信していない」と予想し,\rep{syo}\ref{syo1},\red{syo2}で話し手が\(\phi\)を既に確信\\していることを聞き手に示すことで,会話の目的の制約\rep{cobj}により聞き手にも\(\phi\)を確信させようとする場合は,教示用法である.教示用法の例として\res{teach}を再掲する.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{reteach}\res{reteach}では,話し手が,「ハンカチが落ちました」という事実を確信してなさそうな聞き手に対して発話時以前からこれが話し手の確信になっていることを\rep{syo}\ref{syo1},\red{syo2}で示すことで,会話の目的の制約\rep{cobj}により,この事実が確信であることに関して話し手と聞き手が同一の状態になることを意図しているので,この「よ」は教示用法になる.話し手が,「聞き手は\(\phi\)を確信している\\が注意を払っていない」と予想し,\(\phi\)をEMA以下に確信として保存することを\rep{syo}\red{syo3}で示すとき,この「EMA以下」がLMAではない部分,即ちEMAで,\rep{cobj}により\(\phi\)がEMAにあること(つまり,\(\phi\)に注意を払っていること)に関して話し手と聞き手が同一の状態になることを意図すれば,注意用法になる.注意用法の例として\res{remind}を再掲する.\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{reremind}この場面で,「聞き手が受験生である」ことを,話し手も聞き手も確信している.話し手は聞き手がこれに注意を払っていないと予想し,話し手がこれに注意を払っていることを\rep{syo}\red{syo3}で示し,\rep{cobj}によりこれに注意を払っていることに関して話し手と聞き手が同一の状態になることを意図しているので,聞き手の注意を喚起する用法になる.\rep{syo}にあてはまる\(\phi\)がDMAに現れたときに,思わず,聞き手を想定せずに発話すれば,独り言用法になる.\cite{kinsui93,kinsui93-3}の主張する終助詞「よ」の機能と,本稿で提案した終助詞「よ」の機能は,大きく異なっている.前者の終助詞「よ」の機能は,本稿の記憶モデルで表すと,以下のようになる.まず,EMA以下は幾つかの領域に分割されている.各領域は,何らかの共通点を持った幾つかの情報が保存されている.この領域の一つ一つが\cite{kinsui93,kinsui93-3}の意味論における「文脈」である.領域のうちの一つはDMAと,直接,情報を授受できるようになっている.この領域を仮に「焦点領域」と呼ぶ.EMA以下にあるどの領域も焦点領域になり得る.会話が始まると,EMA以下の領域のうち最もふさわしいものが,話し手である認知主体によって,選ばれ,会話の間ずっと存在し続ける.焦点領域は,終助詞の無い文の発話では,変更されない.そして,終助詞「よ」の機能は\rep{yodmt}の処理を表すことである.\enumsentence{{\dg\cite{kinsui93,kinsui93-3}の意味論で主張されている終助詞「よ」の表す処理}\\\label{yodmt}EMA以下の適当な領域を焦点領域に選択してDMA中の文のデータを転送する}終助詞が無い文では,\rep{yodmt}の処理ではなく,\rep{noyodmt}の処理を行なう.\enumsentence{{\dg終助詞「よ」が無い場合に行なわれる処理}\\\label{noyodmt}現在の焦点領域にDMA中の文のデータを伝える}\rep{yodmt}と\rep{noyodmt}は,焦点領域を選択するか,現在の焦点領域を用いるかで,異なる.現状の焦点領域を維持するなら\rep{yodmt}の「焦点領域に選択する」必要は無いので,\rep{yodmt}を行なう場合,普通,現在のとは異なる焦点領域を選択する.つまり,焦点領域を変更する.以上が,\cite{kinsui93,kinsui93-3}における終助詞「よ」の機能を本稿の記憶モデルで再解釈したものである.これに対し,本稿で提案した終助詞「よ」の機能は,データ部の由来を表すことである.以下に改めて終助詞「よ」の機能\rep{yo}を再掲する.\enumsentence{{\dg終助詞「よ」の機能}\\DMA中の文のデータが発話直前にEMA以下より持ってきたものであることを,表す.}\cite{kinsui93,kinsui93-3}の終助詞「よ」は,文のデータを発話時にDMAからEMA以下の焦点領域の適合する部分に移す処理を表すのに対し,本稿で提案した終助詞「よ」は,EMA以下のどの部分かは問わずに,単に,文のデータが発話直前にEMA以下からDMAに来たことを表す.さて,以上のように全く異なる,終助詞「よ」に関する,\cite{kinsui93,kinsui93-3}で述べる機能と本稿で提案した機能を比較するために,終助詞「よ」に関する\reobs{atui}に注目する.\begin{obserb}\label{atui}話し手が,一生懸命,政治に関する話をしているときに,火のついているストーブにうっかり手を触れてしまった場面で,その瞬間に,思わず「熱い」と言うことがあっても,「熱い{\dgよ}」と言うことはあり得ない.「熱い」と言った後に「\verb+(+このストーブ\verb+)+熱い{\dgよ}」と言うことは可能である.\end{obserb}\cite{kinsui93,kinsui93-3}の意味論では,まず,発話直前の焦点領域は政治に関するものである.そして,「熱い」ことは,政治の話とは無関係であるから,焦点領域を変更すべきである.だから,ストーブに触った瞬間「熱い{\dgよ}」と言うことになってしまい,観察と矛盾する.仮に,「このような緊急の場面では,人間の情報処理能力では焦点領域を選ぶ時間的余裕がない」と説明するとしても,これは,人間の情報処理能力という性質がよく分からない外的な要因を用いた説明で,この能力の異常に速い認知主体には,このような場面でも「熱い{\dgよ}」と言えることになってしまう.これに対し,本稿で提案した終助詞の機能では,「『(触る前の)ストーブが熱い』という情報は,発話時より前,つまり,ストーブに触る以前のEMA以下にはあり得ないから,ストーブに触った瞬間に『熱い{\dgよ}』とは言えない」と終助詞「よ」の本質的な機能に基づいて説明できる.次に,\cite{kinsui93,kinsui93-3}に述べられている,以下の現象に注目する.\begin{obserb}\label{1a1}「\(1+1\)は\verb+?+」という問いに「\(2\)です」と答えずに「\(2\)です{\dgよ}」と答えることで,「何でそんなことを聞くのか」という回答者の``いぶかしみ''が表現される\end{obserb}\cite{kinsui93,kinsui93-3}では,これを以下のように説明している.焦点領域を変更しない場合,「\(2\)です{\dgよ}」と答えることで,焦点領域を,「何でそんなことを聞くのか」というAの発話の意図の推測までを含んだ発話状況に関するものに変更することが,表されるので,その結果として\reobs{1a1}の``いぶかしみ''が表現される.本稿で提案した終助詞の機能では,次のように説明する.\(1+1\)が\(2\)であることは,その場で計算するまでもなく誰でも知っている.つまり,誰にとってもDMAで計算して導くまでもなく,質問される以前から記憶(この場合,EMA以下の確信の部分)にあることである.そのため,「\(2\)です{\dgよ}」という発話は,終助詞「よ」により,\(1+1\)が\(2\)であることが,発話時より前から記憶にあることが示され,「そんなこと,私が知らない筈ないではないか.なのに何で聞くんだ」という具合に,\reobs{1a1}の``いぶかしみ''が表現される.つまり,我々の理論は「何で聞くのか」という発話意図をより明確に導くことが出来る.\subsection{「ね」の機能}\label{semnena}\cite{katagiri93}で,終助詞「ね」の機能の一部について,「終助詞『ね』は話し手が文の従要素の内容をまだ信念としてアクセプトしていないことを表す」と主張していた.これは,本稿の記憶モデルで再解釈すると,以下のようになる.\enumsentence{\label{nenahyp1}終助詞「ね」「な」は,文のデータを,EMAに伝達せずに,DMA上に保っていることを表す.}次に,「ね」「な」について以下の観察がある.\begin{obserb}\label{nenahyp2}「私は眠い{\dgね}/{\dgな}」という文のデータは話し手の確信だが,「君,今,眠い{\dgね}/{\dgな}.」という文のデータは,聞き手の主観的経験なので,話し手の確信ではない.\end{obserb}さらに,終助詞「ね」と「な」の機能が同じではないことを示す以下のような現象がある.\begin{obserb}\label{nenahyp3}「眠い{\dgな}」は眠い人を話し手{\dgのみ}と解釈しやすいが,「眠い{\dgね}」では必ずしもそうではない\verb+(+少なくとも筆者の第一の読みは,話し手と聞き手の両方である\verb+)+.\end{obserb}このことは,終助詞「ね」が確認作業を表すが「な」は表さない,と考えれば説明できる.つまり,「話し手{\dgのみ}が眠い」かどうかは話し手にとって確認するまでもないことなので,「眠い{\dgね}」の眠い人は話し手{\dgのみ}にはならない.「確認」の定義は\rep{dif-confirm}で既に述べた.我々の利用している記憶の階層モデルによれば,\rep{nenahyp1}および\reobs{nenahyp2},\ref{nenahyp3}から,終助詞「ね」の機能は以下のようになる.\enumsentence{\label{ne}{\dg終助詞「ね」の機能}\\文のデータを確認中であることを,表す.}\rep{ne}の確認の間は,文のデータはDMA上にあり続けることに注意されたい.次に,終助詞「な」の機能は以下のようになる.\enumsentence{\label{na}{\dg終助詞「な」の機能}\\文のデータになんらかの処理をしている最中であることを,表す}こちらも,終助詞「ね」の場合と同様,文のデータは,(EMAに伝達せずに)DMA上にあり続けることになる.終助詞「ね」を含む文では,終助詞「ね」の機能\rep{ne}により,文のデータが確かめる必要のないものだと,不自然になる.例えば,山田太郎という名前の男の「?私は山田太郎だ{\dgね}」という発話は不自然である.同様に,終助詞「な」を含む文は,文のデータが何らかの処理をする必然性の無いものの場合,終助詞「な」の機能\rep{na}により,不自然になる.例えば,次郎という名の男による「?私は次郎だ{\dgな}」という発話は不自然である.\rep{ne},\rep{na}とGriceの会話の公理の中の量の公理により,終助詞「ね」も「な」も無いことは,\rep{ninchi}\red{store}の処理において終助詞「ね」の機能\rep{ne},「な」の機能\rep{na}で表すような処理がなされていないことを表す.\enumsentence{\label{nonenakinou}{\dg終助詞「ね」も「な」も無いことが表す情報}\\必要ならば,文のデータを直ちにEMAの適当な部分(確信の部分か信念の部分)に伝達することを表す.}ただし,伝達の必要性については\rep{ninchi}\ref{store},\red{last}に関連して述べた.発話「\(\Phi\)--ね」「\(\Phi\)--な」が表す情報は,終助詞「よ」が無いことが表す情報\rep{noyokinou}と,終助詞「ね」の機能\rep{ne}あるいは「な」の機能\rep{na}と,終助詞「ね」「な」が\rep{datakn}の「確信でない可能性を示す」要素であることから,以下のようになる.\enumsentence{\label{sne}{\dg発話「\(\Phi\)--ね」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前に他の情報から(変換,推論などして)DMA上に導いた情報である\item\(\phi\)を,確認中である\end{enumerate}}\enumsentence{\label{sna}{\dg発話「\(\Phi\)--な」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前に他の情報から(変換,推論などして)DMA上に導いた情報である\item\(\phi\)を,処理中である\end{enumerate}}終助詞「ね」「な」の,三用法(確認,同意要求,自己確認)の差も,意味論ではなく語用論のレベルのものである.話し手が\rep{sne}2.または\rep{sna}2.で\(\phi\)をまだEMA以下に保存していないことを伝えて,聞き手にその手伝い,つまり,確信とすべきか否かを判断するための協力,を求める場合は,確認用法となる.確認用法の例として\rep{confirm}を再掲する.\enumsentence{\label{reconfirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\rep{reconfirm}の面接官は,面接時の状況(手元の履歴書写真と聞き手の顔が似ている,など)から聞き手が鈴木太郎であることを確認中であることを\rep{sne}2.で示し,同時に聞き手に確認のための協力を求めることで,確認用法となっている.\rep{sne}2.または\rep{sna}2.で,話し手が文のデータを確認中(処理中)であることを聞き手に示すと同時に,文のデータを確認(処理)していることに関して,会話の目的\rep{cobj}により話し手が聞き手と同一の状態になることを意図すると,同意要求用法となる.同意要求用法の例として\rep{agree}を再掲する.\enumsentence{\label{reagree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\rep{reagree}では,話し手は,今日がいい天気であることを確認中であることを\rep{sne}2.で示すと同時に,\rep{cobj}により聞き手にもこれを確認することを求めている.\(\phi\)の導出に手間どったり\(\phi\)に自信が持\\てないために,聞き手を意識せずに,\rep{sne}2.または\rep{sna}2.の処理を行なう場合は自己確認用法となる.自己確認用法の例として,\rep{selfconfirm}を再掲する.\enumsentence{\label{reselfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}\rep{reselfconfirm}Bの発話は,\rep{sne}2.で,(時間が)3時であることを確認していることを表すが,聞き手への確認や同意を求めているわけではなく,自己確認用法になっている.確認,同意要求,自己確認のどの用法についても\(\phi\)の由来を表す\rep{sne}1,\rep{sna}2.と無関係であることに注意されたい.本稿の終助詞「ね」の機能は,\cite{kinsui93,kinsui93-3}の主張する終助詞「ね」の機能と,同じである.終助詞「な」については,\cite{kawamori91,kamio90},\cite{katagiri93}では述べられておらず,\cite{kinsui93,kinsui93-3}では,「終助詞『ね』と同じ意味」とされている.しかし,本論文では,終助詞「ね」と「な」の性質に差にもとづいて,異なる機能を提案している.発話「\(\Phi\)--よね」「\(\Phi\)--よな」が表す情報は,終助詞「よ」の機能\rep{yo}と「ね」の機能\rep{ne}と「な」の機能\rep{na}により,以下のようになる.\enumsentence{\label{syone}{\dg発話「\(\Phi\)--よね」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前にEMA以下から持ってきたものであり,かつ,\label{syone1}\item\(\phi\)を,確認中である\label{syone2}\end{enumerate}}\enumsentence{\label{syona}{\dg発話「\(\Phi\)--よな」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前にEMA以下から持ってきたものであり,かつ,\label{syona1}\item\(\phi\)を,処理中である\label{syona2}\end{enumerate}}これらをそれぞれ,発話「\(\Phi\)--ね」が表す情報\rep{sne},発話「\(\Phi\)--な」が表す情報\rep{sna}と比較すると,\(\phi\)の由来を表す部分(それぞれ,\rep{syone}1.と\rep{sne}1,\rep{syona}1.と\rep{sna}1.)は異なるが,\rep{syone}2.と\rep{sne}2.が同じで,\rep{syona}2.と\rep{sna}2.が同じである.終助詞「ね」「な」の用法は,\rep{sne}2,\rep{sna}2.によるもので,\(\phi\)の由来を表す部分とは無関係であった.だから,終助詞の複合形「よね」「よな」にも終助詞「ね」「な」と同様の用法があることを説明できる.「よね」の例として,\res{megane}を再掲する.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}これは,話し手が,「話し手が眼鏡をここに置いた」ことを確認中であることを\rep{syone}\red{syone2}で表すだけでなく,\rep{syone}\red{syone1}で,このことが過去に判断し,記憶しておいたことであることを表す.\ref{haji}節で述べた,過去に提案された終助詞の意味(機能)のうち,「よね」を説明できたのは\cite{kinsui93,kinsui93-3}だけであるが,本稿でも,以上のように説明することが出来た.
\section{おわりに}
\label{conclusion}本稿では,終助詞「よ」「ね」「な」と複合形「よね」「よな」について,終助詞が無いことが何を表すのかを考慮に入れて,階層的記憶モデルにより,機能を提案した.そして,従来提案されてきた終助詞の全用法と,従来の終助詞の研究で説明できなかった現象を説明できた.他の終助詞については特に扱わなかったが,本稿で取り上げた終助詞と同様に,機能を考えることが出来る.例えば,終助詞「ぞ」「ぜ」については,機会を改めて報告したい.\nocite{kamio90}\acknowledgment本論文をまとめるに当たって議論に参加して頂き,有益なコメントを頂いた本学科森辰則講師に感謝いたします.また,初期の原稿に有益なコメントを頂いた査読者の方にも感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\renewcommand{\refname}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{藤島}{藤島}{1989〜1993}]{themegami}藤島康介\BBOP1989〜1993\BBCP.\newblock\Jem{ああっ女神様1〜8}.\newblock講談社,東京.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士課程修了.工学博士.現在,横浜国立大学工学部電子情報工学科教授,現在の主たる研究テーマは自然言語処理.日本認知科学会,人工知能学会などの会員.}\bioauthor{小野晋}{1967年生.1991年横浜国立大学工学部卒業.1993年横浜国立大学大学院工学研究科博士過程前期修了.現在,横浜国立大学大学院工学研究科博士過程後期に在学中.現在の主たる研究テーマは自然言語処理および日本語の語用論.情報処理学会の正会員,日本認知科学会の学生会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再受付}\biore3vised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V11N02-03
|
\section{緒論}
音声認識研究の対象は、読み上げ音声から講演や会議などの話し言葉に移行している。このような話し言葉は日本語では特に、文章に用いる書き言葉と大きく異なり可読性がよくない。そのため、書き起こしや音声認識結果を講演録や議事録などのアーカイブとして二次利用する際には、文章として適切な形態に整形する必要がある。実際に講演録や議事録の作成の際には、人手によりそのような整形が行われている。これまでに、放送ニュースなどを対象とした自動要約の研究が行われている\cite{98-NL-126-10,98-NL-126-9,SP96-28,99-SLP-29-18,SP2000-116}。これらは主に、頻出区間や重要語句の抽出といった処理、つまり発話された表現をそのまま用いることによって要約を作成している。しかし、話し言葉表現が多く含まれる場合には、要約を作成する際にまず話し言葉から書き言葉へ変換する必要がある。実際に人間が要約を作成する際には、このような書き言葉表現への変換に加えて、不必要な部分の削除や必要な語の挿入、さらに1つの文書内での「ですます」調/「である」調などの文体の統一といった処理も行っている。本研究では講演の書き起こしに対してこのような整形を自動的に行うことを考える。現在、文章を整形するソフトウェアも存在しているが、これらはパターンマッチング的に規則ベースで変換を行っており、言語的な妥当性や前後との整合性はあまり考慮されていない。また、基本的に1対1の変換を行っているので、変換の候補が複数ある場合への対処が容易ではない。学会講演とその予稿集との差分をとることで書き言葉と話し言葉の変換規則を自動抽出する研究が村田らにより行われている\cite{murata_nl2002_diff,murata_nl2001_henkei}が、変換の際の枠組みは本質的に同じと考えられ、また実際に変換を行い文章を整形する処理は実現されていない。これに対して本研究では、規則に基づいて1対1の変換を行うのではなく、話し言葉と書き言葉を別の言語とみなした上で統計的な機械翻訳の手法を適用し、確率モデルによりもっともらしい表現に変換し実際に文章を整形することをめざす。
\section{整形作業における処理}
講演録編集者は、書き起こしから講演録や要約を作成する際に、通常次の4段階の作業を行う。\begin{description}\item[(1)一次整形]\item[(2)長文の分割、文法的チェック、ポリティカルチェック]\item[(3)意味的チェック]\item[(4)要約の作成]\end{description}第一段階の一次整形では、フィラーの削除や書き言葉表現への変換、助詞の挿入などを行う。第二段階の文法的チェックでは、言語的に正しくない助詞や接続詞を適切なものに修正する。ポリティカルチェックでは、差別用語などの不適切な表現の修正を行う。第三段階の意味的チェックでは、専門用語が正しく用いられているかの確認を行う。実際に講演録編集者が、「日本語話し言葉コーパス」(CSJ)\cite{ICSLP2000}のいくつかの講演について整形・要約したものを参考にして、(a)から(i)で第一段階、(j)と(k)で第二段階の作業についてそれぞれ例を挙げながら説明する。\begin{description}\item[(a)フィラーの削除]\verb++\\「あのー」や「えっと」といった間投語はすべて削除する。\item[(b)書き言葉表現への変換]\verb++\\次に挙げるような話し言葉表現の書き言葉表現への変換を行う。\\(例)「行っ\underline{てるん}ですが」→「行っ\underline{ているの}ですが」\\\verb++「規則合成\underline{っていう}方式」→「規則合成\underline{という}方式」\\上記の例では話し言葉と書き言葉が1対1に対応しているが、そうでない場合を以下に示す。\\(例)「このように\underline{いたして}\underline{おります}」→「このように\underline{して}\underline{います}」「このように\underline{して}\underline{いる}」「このように\underline{して}\underline{おります}」\\このような場合は、全体として「ですます調」か「である調」に統一されるように留意する。\item[(c)助詞の挿入]\verb++\\話し言葉では、しばしば助詞が脱落して発話されるので、適切な助詞を挿入する。\\(例)「観測されたらそれ適当な分布で」→「観測されたらそれ\underline{を}適当な分布で」\\\verb++「先程も話しありましたが」→「先程も話しがありましたが」\item[(d)句読点の挿入]\verb++\\書き起こしに句読点がない場合は、適当な箇所に句読点を挿入する必要がある。\item[(e)倒置部の修正]\verb++\\話し言葉では、倒置を用いて発話されることがあるので、通常の語順に修正する。\\(例)「日本語は前寄りでも後寄りでも一応‘あ’なんですね\underline{音韻的には}。」→「日本語は前寄りでも後寄りでも\underline{音韻的には}一応‘あ’なんですね。」\item[(f)言い淀みをしている部分の削除]\verb++\\話者が言い淀みをした部分は全て削除する。\\(例)「このようなスペクトルの\underline{ドッ}、ギャップがですね」\item[(g)説明を付け加えている部分の削除]\verb++\\言葉の説明を付け加えている部分を削除する。\\(例)「モデル化を行い、\underline{そのモデル自体HMMですが}、そのモデルから」\\このような表現は必ずしも削除されるわけではなく、別の表現に書き換えられることもある。\\(例)「こういうHMM、\underline{我々はMSD-HMMと呼んでいる}」→「こういう\underline{HMM(MSD-HMM)}」\item[(h)独り言の部分の削除]\verb++\\本論と関係ないことを発話している部分を削除する。\\(例)「えー、そろそろ時間なんですが、」\item[(i)言い直し部分の削除]\verb++\\言い直しをしている部分は削除する。\\(例)「これは、テキスト\underline{テキスト}からの音声合成を」\\\verb++「上唇の、\underline{ごめんなさいこれ間違いです}」\item[(j)長文の分割]\verb++\\一文が非常に長い場合は、適切な接続詞を用いることでいくつかの単文に分割する。\\(例)「〜日本人としてある意味で嬉しいところ\underline{あるんですけどもどうして}こういう技術が考えられたかというと、〜」→「〜日本人としてある意味で嬉しいところ\underline{があります。どうして}こういう技術が考えられたかというと、〜」\item[(k)助詞・接続詞の修正]\verb++\\より適切な助詞や接続詞がある場合は、それに訂正する。\\(例)「どのようにして音声の合成を\underline{するかということが}」→「どのようにして音声の合成を\underline{するかが}」\end{description}本研究では、これらの過程のうち、(a)から(d)の一次整形の処理について取り扱う。これらの処理だけでもかなり読みやすいものに整形される反面、これ以上の処理については、内容の理解を含めた高度な処理が必要であると考えられるからである。参考のために図\ref{kakiokosi}に書き起こし、図\ref{kouenroku}に整形された文章の例を示す。\begin{figure}[t]\small\begin{center}\begin{tabular}{l}\hline続いてえ結果方見ていきたいと思います<pause-647-msec>でえーまず\\えーとーこちらあの英語話者アメリカ人のえー英語話者によるえ語頭に\\RLを含む単語えーっとRのライトとLのライトの調音について\\<pause-333-msec>えーっと一名の例を示しました<pause-513-msec>で縦\\軸とこのグラフでいう縦軸と横軸というのはえーこの<pause-304-msec>\\調音地図というのの元になっている距離マトリックス<pause-385-msec>を\\<pause-255-msec>より反映するようにそのMDSというまー<pause-654-msec>\\え手法がえ抽出したえー次元一と二というふうになりますで一つ一つの\\<pause-326-msec>点グラフ内の一つ一つの点が<pause-306-msec>え発話の一回\\一回<pause-470-msec>をえー示していて<pause-389-msec>え同じ単語のえー\\<pause-203-msec>点をえー見易いようにちょっと<pause-311-msec>見易くえーっと\\丸で囲んでグルーピングしております<pause-1298-msec>\\\hline\end{tabular}\caption{書き起こしの例}\label{kakiokosi}\end{center}\vspace{-1.0mm}\end{figure}\begin{figure}[t]\small\begin{center}\begin{tabular}{l}\hline続いて、結果の方を見ていきたいと思います。まず、こちらはアメリカ人の英語話者による\\語頭にR、Lを含む単語、Rのライトと、Lのライトの調音について1名の例を示しました。\\このグラフで縦軸と横軸というのは、この調音地図のもとになっている距離マトリックスを\\より反映するように、MDSという手法が抽出した次元1と2というようになります。\\グラフ内の一つ一つの点が発話の一回一回を示していて、同じ単語の点を見やすく丸で\\囲んでグルーピングしております。\\\hline\end{tabular}\caption{人手により整形された文章の例}\label{kouenroku}\end{center}\vspace{-1.0mm}\end{figure}
\section{統計的手法による文体の整形}
\subsection{統計的機械翻訳のアプローチ}現在、音声認識や機械翻訳の研究において統計的な手法が広く用いられている。入力系列を$X$、出力系列を$Y$とすると、これらは$X$を観測した際の$Y$の事後確率$P(Y|X)$を最大にする$Y$を求めるという枠組みで捉えられ、ベイズ規則により次の式(1)のように定式化される。ここで、$P(Y)$は系列$Y$が生起する事前確率、$P(X|Y)$は系列$Y$から系列$X$が生起する条件付き確率である。右辺の分母$P(X)$は、$Y$の決定に影響しないので無視できる。\begin{equation}\max_{Y}P(Y|X)=\max_{Y}{P(Y)P(X|Y)\overP(X)}\end{equation}音声認識\cite{text2}の場合は、$X$は入力音声、$Y$は出力単語列となる。この場合は、音響モデルにより$P(X|Y)$を、言語モデルにより$P(Y)$を求めている。機械翻訳\cite{Brown,ICSLP98-209,ICSLP98-826}の場合は、$X$を入力言語、$Y$を出力言語として$P(Y|X)$を最大にする$Y$を求めることで、入力言語$X$を出力言語$Y$に変換する。この場合、$P(Y)$は出力$Y$の言語的な自然性を評価するもので、音声認識と同様に言語モデルにより求める。$P(X|Y)$の計算には変換モデルを仮定し、その確率を求める。変換モデルとは、入力単語はある出力単語系列(nullを含む)に対応づけられるという仮定の下で、どの単語に対応するかを文全体における相対的な位置も考慮して確率で表したものである。2章で述べたように、書き起こしの文体と整形した文章の文体はかなり異なっており、書き起こしの単語列と整形された文章の単語列を異なる言語とみなすことができる。そこで、本研究では書き起こしの文体を整形する際に、書き起こしを整形した文章に翻訳すると考えて、機械翻訳と同様に統計的手法を適用することを検討する。ただし、一般の機械翻訳と異なり、本研究で扱う処理では単語の順序の入れ替わりは考慮しない。本研究では上記の変換確率と言語モデル確率を1対1で組み合わせるのではなく、言語的妥当性を重視するために言語モデル確率に重みを乗じることにする。また、言語モデル確率の値として対数尤度を用いるが、対数尤度は単語の数が多くなるほど値が小さくなるので、単語数に応じた補正を行う。これらは対数スケールで行われ、以下の式(2)で示される仮説スコアを定義する。($a$,$b$)のパラメータは音声認識のデコーディングにおいて通常用いられ、$a$は言語重み、$b$は挿入ペナルティと呼ばれている。\begin{equation}\max_{Y}\{\log(P(X|Y))+a*\log(P(Y))+b*(Yの単語数)\}\end{equation}本研究では、$Y$の言語モデルとして単語3-gramを用いる。この場合、$Y$=($y_1\cdotsy_N$)について、\(P(Y)=\prod_{i=1}^{N}P(y_i|y_{i-1},y_{i-2})\)として求められる。変換モデル確率$P(X|Y)$の計算においても、同様に$X$=($x_1\cdotsx_M$)と$Y$=($y_1\cdotsy_N$)の部分列に対する確率を規定して(デフォルトは$P(x_i|y_j)=1$for$x_i=y_j$)その積を求めるが、この単位は可変長(1から数単語)である。以下では、フィラーの削除、書き言葉表現への変換、助詞の挿入、句点の挿入、文体の統一のそれぞれの処理において、この枠組みをどのように実現するかについて説明する。なお本研究では、書き起こしを形態素解析した結果を入力データとして用いている。形態素解析には、ChaSenver2.02を用いている。また、話者がポーズをおいた箇所にはその情報がポーズ長とともに記録されている。\subsection{フィラーの削除}ここでは、$P(X|Y)$は整形文$Y$に対応する話し言葉$X$においてフィラーが挿入される確率とする。フィラーは、発話のどの部分にも出現する可能性があるが、特に句読点の後によく出現する傾向がある。ただし、整形された文章にフィラーは一切出現しない。つまり、$Y$をフィラーを含む単語列であると仮定すると、$P(Y)$の値は0となり、$P(Y|X)$の値も0となる。これは$P(X|Y)$の値にかかわらず書き起こしの単語列$X$から全てのフィラーが削除されることを意味している。\begin{table}[t]\small\begin{center}\caption{書き言葉への変換規則・確率の一部}\label{kakikae}\vspace{2.0mm}\begin{tabular}{|l|l|l|}\hline書き言葉($y$)&話し言葉($x$)&$P(x|y)$\\\hline\hlineという&っていう&0.14\\&という&0.86\\\hlineが&けども&0.036\\&けど&0.042\\&が&0.922\\\hlineどのよう&どういう風&0.46\\&どのよう&0.54\\\hline(〜し)ている&(〜し)てる&0.12\\&(〜し)ている&0.88\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{助詞の脱落パターンと確率の一部}\label{joshi}\vspace{2.0mm}\begin{tabular}{|l|l|}\hlineパターン$y$&脱落確率$P(x|y)$\\\hline\hline名詞は名詞&0.073\\名詞を名詞&0.032\\\hline名詞は動詞&0.056\\名詞を動詞&0.042\\\hline名詞は形容詞&0.20\\名詞が形容詞&0.024\\\hline名詞は接続詞&0.16\\\hline\end{tabular}\end{center}\end{table}\subsection{書き言葉表現への変換}ここでは、$P(x|y)$($x$,$y$は1つ以上の単語からなる句)は書き言葉表現の話し言葉表現への変換確率と解釈される。講演録編集者が一次整形を行う際、文章の順序を入れ替える操作は行わないので、元の書き起こしと講演録編集者により一次整形された文章を照合し、句単位で対応づけを行うことで、$P(x|y)$の値を学習・推定することができる。ただし本研究では、正解の講演録の数が完全な学習には不十分であったため、あらかじめ人手により書き言葉から話し言葉への変換規則を作成しておき、それらに対してのみ確率を推定することとした。作成した変換規則数は64個あり、その一部を表\ref{kakikae}に示す。\subsection{助詞の挿入}ここでは、$P(x|y)$は整形された文章のある単語列パターン$y$に含まれる助詞が話し言葉$x$において脱落する確率と解釈される。書き起こしと講演録編集者により整形された文章を比較したところ、次のような「品詞」「助詞」「品詞」のパターン$y$において助詞が脱落していた。\begin{itemize}\item「名詞」(助詞)「名詞」\\(例)「このお話し\underline{を}幹事の方から」\item「名詞」(助詞)「動詞」\\(例)「我々\underline{は}作ってきたわけです」\item「名詞」(助詞)「形容詞」\\(例)「非常に能力\underline{が}高くなって」\item「名詞」(助詞)「接続詞」\\(例)「これ\underline{は}つまりサンプルごとの」\end{itemize}そこで、これらのパターンの助詞が脱落する規則をあらかじめ作成しておき、それが生起する確率$P(x|y)$を書き起こしと一次整形の対応づけにより推定する。用意した変換パターン数は13個あり、その一部を表\ref{joshi}に示す。そして、それらの助詞を挿入する場合としない場合との尤度を比較することによって助詞を挿入するかしないか、どの助詞を挿入するのか判定を行う。\subsection{句読点の挿入}「日本語話し言葉コーパス」(CSJ)の書き起こしには句読点がなく、その代わりに話者のポーズ情報が記録されている。ここでは、整形された文章の単語列$Y$に含まれる句読点が、音声(書き起こしの単語列$X$)においてポーズに変換される確率$P(x=ポーズ|y=句読点)$を考える。なお、本研究では句点のみを扱う。なぜなら、句点を挿入する位置は人によらずほぼ一定であるが、読点を挿入する位置は様々であり定量的な評価を行うのが難しいためである。音声認識における句点の挿入に関する研究は、これまでにも行われているが\cite{nakashima_2001,takesawa_1999,Euro_1999}、これらが扱っているのは旅行会話などの短い話し言葉であり、講演のように長い話し言葉は扱っておらず、また、主に言語モデル($P(Y)$に相当)による情報しか用いられていない。文末には、「です」「ます」などのような典型的な表現が多い反面、話し言葉においては独特の表現が文の区切りになることがある。文末での「〜と」と文頭での「で〜」である。その例を以下に挙げる。\\(例)「単位が使われていたと。あるいは」\\\verb++「大きく違う。でそのままでは」そこで、本研究では$P(x_i=ポーズ長|y_j=句点)$の確率において、以下の3通りのモデル化を考える。$x_i$においてはポーズの長さの情報も考慮する。\begin{description}\item[(1)すべてのポーズを対象\verb++($x_i>0$):]整形した文章$Y$における句点があらゆる長さのポーズに変換されうるとする。この場合は、書き起こし$X$におけるポーズがすべて句点に変換されうることになり、その判定を言語モデル確率$P(Y)$を用いて行う。著者らが以前報告した講演音声の自動インデキシングの研究\cite{hasegawa}では、この考え方が用いられている。\item[(2)平均以上の長さのポーズを対象\verb++($x_i>\theta$):]句点の挿入箇所には、ある程度長いポーズがおかれると考えられるので、変換確率$P(x_i=ポーズ長|y_j=句点)$において、句点がある閾値$\theta$以上の長さのポーズに変換されるとする。ここで、講演では発話速度が話者によってまちまちであり、それに応じてポーズのおかれる長さも大きく異なるため、すべての講演者に対して同一の値を閾値として用いるのは適切でない。そこで、閾値として各話者ごとの平均ポーズ長を用いることにする。予備実験においても、一定の値を閾値として用いる場合には、平均ポーズ長が最良であった。この場合、平均ポーズ長以上のポーズに対してのみ$P(Y)$を考慮して句点に変換するか否かの判定を行う。\item[(3)表現に依存してポーズ長が変わると仮定\verb++($x_i>\theta$,\verb++$\theta$が$y_{j-1}$,$y_{j+1}$に依存):]「です」「ます」などの典型的な文末表現に付随する句点はあらゆる時間長のポーズになりうるが、書き言葉では通常文の区切り表現とならない「〜と」「で〜」、あるいは文中にも頻繁に使われる「〜た」の部分にある句点は平均ポーズ長以上の長さのポーズになると仮定する。この場合、「ます」「です」などの後のポーズは長さに関係なく句点に変換されうるが、「〜と」「で〜」「〜た」の部分のポーズは平均長以上のポーズに限り、句点に変換されうることになる。この場合も、最終的には$P(Y)$を考慮して判定を行う。\end{description}上記3通りについて、4章で比較・評価する。\subsection{文体の統一}話し言葉を書き言葉に変換する際に、その変換候補が複数ある場合には、どれを採用するかの判定を言語モデル確率$P(Y)$に基づいて行う。ここで、使用する言語モデルを異なるものにすると、変換結果も異なったものになる。本研究では2種類の言語モデルを用いることによって、それぞれ文体が「ですます」調あるいは「である」調に統一することができるか検討する。使用する言語モデルは、講演録のコーパスから作成されたものと、新聞記事のコーパスから作成されたものを用いる。前者の言語モデルを用いると「ですます」調の文体に、後者の言語モデルを用いると「である」調の文体に統一されると期待される。ただし、例えば「ですます」調の文でも「〜であると思われます」といった表現があるため、単純に「である」という表現をすべて「です」や「であります」という表現に変えればよいわけではない。ここでは、変換モデル確率において、表\ref{desumasu}の各グループ(同一行)間で相互に変換可能としたが、変換確率は等しいものとし、その選択は$P(Y)$に基づいて行うものとした。なお、変換の際に動詞の語幹が変化する表現、例えば「思います」→「思う」などの表現については変換規則を用意していない。\subsection{デコーディングアルゴリズム}これまでに、講演の書き起こしから整形された文章を生成する処理とモデルについて述べてきた。本研究では、確率$P(Y)$の計算に単語3-gramモデルを用いるので、これらの処理を逐次的に行うのではなく、統合的に行うように実装する必要がある。なぜなら、これらの処理を個別に行うと、すぐ前後に別の処理をする必要のある表現が存在する場合、式(2)の尤度の計算に影響を与えるからである。したがって、前後2単語に着目する必要のある表現が存在しなくなる範囲において、そのすべての変換パターンの尤度を比較して出力単語列を決定する。その様子を図\ref{renzoku}に示す。変換で複数の候補が生成されうることも考慮すると、可能な仮説の数は組み合わせ的に爆発するので、探索アルゴリズムを導入する必要がある。本研究ではビームサーチを行う。具体的には、生成したパターンの数が100を越えた場合は、そこまでの範囲で尤度を計算し、上位100個のパターンのみを選択することにした。\begin{table}[t]\begin{center}\caption{「ですます」調・「である」調の変換パターン}\label{desumasu}\vspace{2.0mm}\begin{tabular}{|l|}\hlineです・であります・である・だ\\\hlineでした・でありました・であった・だった\\\hlineします・いたします・する\\\hlineしました・いたしました・した\\\hlineおります・います・いる\\\hlineおりました・いました・いた\\\hlineあります・ございます・ある\\\hlineありました・ございました・あった\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\scalebox{1.0}{\includegraphics{renzoku.eps}}\end{center}\caption{変換の仮説生成}\label{renzoku}\end{figure}
\section{実験と評価}
\subsection{データと実験条件}以上の手法を用いて講演の書き起こしを整形し、その評価を行った。評価データとして、CSJに含まれる実際に学会で行われた4講演を用いた。評価データの概要および処理時間を表\ref{kouen}に示す。なお使用したマシンのCPUはIntelXeon2.8GHz、メモリは2GBである。また、$P(Y)$の計算に用いる言語モデルは、毎日新聞記事データで学習されたもの\cite{kawahara}と、Web講演録で学習されたもの\cite{katou}の2種類であるが、4.5節以外ではWeb講演録の方を使用している。$P(X|Y)$推定のための講演の書き起こしと整形文章のデータは評価データ以外のCSJの18講演を用いている。次節以降、行った実験の結果と評価について述べる。なお、3.2節のフィラーの削除は完全に機械的に行える。また、3.3節の書き言葉表現への変換もおおむね行えた。\subsection{デコーディングパラメータについて}3.1節で述べた式(2)の2つのパラメータについてまず検討した。評価尺度として、句点の挿入および助詞の挿入についてのF値の平均を用いる。句点挿入のモデルは最もよいものを用いている。様々な言語重み・挿入ペナルティの値について行った実験結果を図\ref{parameter}に示す。結果として(言語重み,挿入ペナルティ)=(5,8)の時にF値が最大となった。したがって、以降の実験はこれらの値を用いて行う。表4の処理時間もこの場合の計測値である。\begin{figure}[t]\begin{center}\scalebox{0.5}{\includegraphics{FM3.eps_new}}\end{center}\vspace{-1.0mm}\caption{パラメータの種々の値に対する句点および助詞挿入のF値の平均}\label{parameter}\end{figure}\begin{table}[t]\small\centering\caption{評価データの概要および処理時間}\label{kouen}\begin{tabular}{|r||r|r|r|r|}\hline&\multicolumn{2}{c|}{講演}&整形文&処理時間\\\cline{2-4}&\multicolumn{1}{c|}{時間}&サイズ&サイズ&(sec)\\\hline\hlineA01M0035&28分&5557語&5378語&17.42\\\hlineA01M0007&30分&3899語&3802語&13.65\\\hlineA01M0074&13分&2509語&2451語&5.97\\\hlineA05M0031&27分&5371語&4854語&19.99\\\hline\end{tabular}\vspace{-4.0mm}\end{table}\subsection{句点の挿入}3.5節で述べた3通りの句点挿入の実験結果を表\ref{pause}に示す。ポーズ長制限なしで挿入する場合は適合率が低い。その主な原因は、「〜と」「〜た」の後と「で〜」の前のポーズが誤って句点に変換されることが多いためである。「ます」「です」などの後のポーズが誤って句点に変換されることはなかった。「〜た」という表現は文末表現であるが、同時に文中にもよく使われるため、例えば「〜使われてきた$<$pause$>$データベースが〜」→「〜使われてきた。データベースが〜」のような誤りが起こる。また、「〜と」の場合は、例えば、「〜しようと思うと$<$pause$>$このように〜」→「〜しようと思う。このように〜」のような場合に誤ってポーズが句点に変換された。一方、平均ポーズ長以上に挿入する場合においては再現率が低い。その主な原因は、「ます」「です」などの、通常書き言葉で文末表現になるものの後で、ポーズ長が短い箇所が対象外になったためである。したがって、「です」「ます」などの典型的な文末表現部分にある句点はあらゆる時間長のポーズになりうるが、「〜と」「で〜」「〜た」の部分にある句点は平均ポーズ長以上の長さのポーズになるとするモデルを導入した。その結果、再現率・適合率とも高い精度を得ることができた。\begin{table}[t]\small\caption{句点挿入の実験結果}\centering\begin{tabular}{|l||c|c|c|}\hline&再現率&適合率&F値\\\hline\hlineポーズ長制限なし&309/371&309/410&0.791\\&(83.2\%)&(75.4\%)&\\\hline平均ポーズ長以上&239/371&239/255&0.763\\&(64.4\%)&(93.7\%)&\\\hline表現に依存して変化&283/371&283/306&0.835\\&(76.3\%)&(92.3\%)&\\\hline\end{tabular}\label{pause}\vspace{-3.0mm}\end{table}\subsection{助詞の挿入}次に、3.4節で述べた助詞の挿入に関する評価を行った。助詞が脱落している箇所は4講演で計47箇所あった。それらに対して、・プロの編集者が作成した講演録において挿入されている助詞・上記に含まれないが、意味的に妥当な助詞\\を正解としてそれぞれ再現率を評価した。また、挿入されたすべての助詞に対して・意味的に妥当である・許容範囲である\\の2段階で適合率を評価した。これらの評価基準に対して、統計的手法の有効性を調べるために、3.4節で述べたパターンの変換確率$P(x|y)$に関して次の2つの場合の比較を行った。\begin{description}\item[(1)$P(x|y)$の値として、統計的に推定したものを用いる]\item[(2)あらかじめ$P(x|y)$の値を全て1に設定する]\end{description}\begin{table}[t]\footnotesize\begin{center}\caption{助詞挿入の実験結果}\begin{tabular}{|l||c|c|c|}\hline$P(x|y)$の値&再現率&適合率&F値\\\hline\hline統計的に推定&37/47(78.7\%)&68/123(55.3\%)&0.650\\&(プロの講演録と一致)&(意味的に妥当)&\\&42/47(89.4\%)&81/123(65.9\%)&0.759\\&(意味的に妥当)&(許容範囲)&\\\hlineあらかじめ&33/47(70.2\%)&83/187(44.4\%)&0.544\\全て1に設定&(プロの講演録と一致)&(意味的に妥当)&\\&42/47(89.4\%)&109/187(58.3\%)&0.706\\&(意味的に妥当)&(許容範囲)&\\\hline\end{tabular}\label{joshikekka}\end{center}\vspace{-7.0mm}\end{table}結果を表\ref{joshikekka}に示す。適合率で大きな差が見られ、許容範囲のものまで正解にした場合において$P(x|y)$も用いた場合の方が7.6\%向上している。さらに、挿入された絶対数も約2/3に減少しており、実際に生成されたテキストの読みやすさという観点において大きく改善されている。誤って助詞が挿入された箇所の多くは「名詞」「名詞」のパターンであった。学会講演において用いられる専門用語の多くが複合名詞であるため、形態素解析を行うと「名詞」「名詞」と分解され、助詞の挿入箇所の候補になる。そこで、「名詞」「名詞」と連続しているもののうち、3回以上出現すればその箇所は専門用語であると判断するようにした。これにより多くの専門用語は助詞の挿入箇所の候補にならなくなったが、1〜2回しか使われていない専門用語や、人名・機関名などの固有名詞が複数の形態素に分解された結果、助詞が挿入されることがあった。例えば「データベース」や「東京大学」などである。参考までに、誤り箇所からこれらの複合名詞の箇所を除いて集計すると、適合率は許容範囲のものまでを正解とした場合で79.4\%(81/102)となった。\subsection{言語モデルの使いわけ}次に、3.6節で述べた言語モデルの違いによる文体の変化について評価を行った。結果を表\ref{buntai}に示す。\begin{table}[t]\small\caption{言語モデルの違いの影響}\centering\begin{tabular}{|l||c|c|}\hline$P(Y)$のモデル&「ですます」調&「である」調\\\hline\hline新聞記事モデル&52.3\%&47.7\%\\\hline講演録モデル&81.1\%&18.9\%\\\hline\end{tabular}\label{buntai}\vspace{-3.0mm}\end{table}入力データでは「ですます」調が81.5\%、「である」調が18.5\%であった。講演録言語モデルを用いて整形した場合は81.1\%が「ですます」調に、新聞記事言語モデルを用いて整形した場合は47.7\%が「である」調になった。入力データが基本的に「ですます」調であるため、講演録モデルを用いた場合はほとんど変換されていない。一方、新聞記事モデルを用いた場合は、「である」調の割合が30\%程度増えている。しかし、全体の半分程度しか「である」調にならないのは、3.6節でも述べたように、今回の変換モデルでは動詞の語幹が変化する表現に対応していないためである。\subsection{規則ベースの手法との比較}最後に、完全な規則ベースによる手法を用いて実験を行い、本論文で提案した統計的手法との比較を行う。ここでは、句点の挿入および助詞の挿入について評価した。句点の挿入については次の規則を用いた。3.5節及び4.3節における考察に基づいて、ポーズの閾値についても最も妥当なものにした。・「です」「ます」などの典型的な文末表現の後のポーズは全て句点に変換・「〜と」「〜た」「で〜」の部分のポーズは、平均ポーズ長以上なら句点に変換また助詞の挿入については、コンテキストを考えずに言語モデルの学習テキストにおいて出現頻度が高いものを挿入規則として抽出した。例えば学習テキスト中において、「名詞助詞動詞」の並びで出現頻度が最大となる助詞は「が」であったため、「名詞動詞」となっている箇所には、その前後のコンテキストは考えずに、出現回数が最大の「が」を挿入するという規則を抽出した。以上の手法により行った実験結果と提案手法との比較を表\ref{comp_kuten}、表\ref{comp_joshi}に示す。句点の挿入に関しては、規則ベースの方が再現率は若干高いものの、適合率が大幅に低下しており、誤った挿入がおよそ4倍に増えている。助詞の挿入に関しては、F値が0.759から0.696に低下している。以上より、提案手法の有効性が確認された。\begin{table}[t]\small\caption{規則ベースと提案手法との比較(句点挿入)}\centering\begin{tabular}{|l||c|c|c|}\hline&再現率&適合率&F値\\\hline\hline規則ベース&301/371(81.1\%)&301/392(76.8\%)&0.789\\\hline提案手法&283/371(76.3\%)&283/306(92.3\%)&0.835\\\hline\end{tabular}\label{comp_kuten}\vspace{-3.0mm}\end{table}\begin{table}[t]\small\caption{規則ベースと提案手法との比較(助詞挿入)}\centering\begin{tabular}{|l||c|c|c|}\hline&再現率&適合率&F値\\\hline\hline規則ベース&26/47(55.3\%)&60/91(65.9\%)&0.601\\&(プロの講演録と一致)&(意味的に妥当)&\\&31/47(66.0\%)&67/91(73.6\%)&0.696\\&(意味的に妥当)&(許容範囲)&\\\hline提案手法&37/47(78.7\%)&68/123(55.3\%)&0.650\\&(プロの講演録と一致)&(意味的に妥当)&\\&42/47(89.4\%)&81/123(65.9\%)&0.759\\&(意味的に妥当)&(許容範囲)&\\\hline\end{tabular}\label{comp_joshi}\vspace{-3.0mm}\end{table}\begin{figure}[t]\small\begin{center}\begin{tabular}{l}\hline続いて結果の方を見ていきたいと思います。まずこちら英語話者\\アメリカ人の英語話者による語頭にRLを含む単語Rのライト\\とLのライトの調音について一名の例を示しました。縦軸とこの\\グラフでいう縦軸と横軸というのはこの調音地図というのの元に\\なっている距離マトリックスをより反映するようにMDSという手法が\\抽出した次元一と二というようになりますで一つ一つの点のグラフ\\内の一つ一つの点が発話の一回一回を示していて同じ単語の点\\を見易いように見易く丸で囲んでグルーピングしています。\\\hline\end{tabular}\caption{提案手法による整形結果}\label{output}\end{center}\vspace{-1.0mm}\end{figure}\subsection{整形結果の具体例}ここでは、提案手法により図1で示した書き起こしを整形した具体例を図\ref{output}に示す。なお、本来入力は形態素解析結果であるが、図1では見やすくするために活用形や形態素番号などの情報は省いて示している。句点の挿入はおおむね正しく行えており、また、「結果の方見ていきたい」に「を」が挿入されているなどの整形が行えている。しかし、「になりますで1つ1つ」の所では、ポーズが本来の文末位置とは少しずれた所にあるため、句点が正しく挿入されていない。また、この場合、「調音地図」というパターンが3回以上出現しているため、これを専門用語であるとみなして助詞の挿入箇所の候補にはしていない。ただし、図2と比較すると言い直し部分の削除などを行っていない。
\section{結論}
統計的な機械翻訳の考え方に基づいて文体の整形を自動的に行う手法を提案した。行った処理は、フィラーの削除、句点の挿入、助詞の挿入、書き言葉表現への変換及び文体の統一である。ビームサーチを導入してこれらを統合的に行い、実際の講演の書き起こしを整形された文章に変換した。正解の文章として講演録編集者によって一次整形されたものを用いて、句点の挿入と助詞の挿入に関して定量的な評価を行った。句点の挿入においてはF値で0.835、助詞の挿入においてはF値で0.759という高い精度が得られた。また、実験的評価により、規則ベースの手法に比べて統計的なアプローチが有効であること、及び変換モデル確率$P(x|y)$の効果が示された。今後の課題としては、書き言葉表現への変換に関して人手により変換規則を作成するのではなく、大規模なコーパスから規則を抽出して変換確率$P(x|y)$を推定することや、文体の統一に関して不十分であった箇所に対応することが挙げられる。また、今回は正しい書き起こしを用いて評価を行ったが、今後は音声認識結果に適用していく予定である。\vspace{5.0mm}\acknowledgment本研究は,開放的融合研究『話し言葉工学』プロジェクトの一環として行われた。東京工業大学の古井貞煕教授をはじめとして、ご協力を頂いた関係各位に感謝いたします。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen}{Chen}{1999}]{Euro_1999}Chen,C.\BBOP1999\BBCP.\newblock\BBOQ{SpeechRecognitionwithAutomaticPunctuation}\BBCQ\\newblockIn{\BemProc.Eurospeech}.\bibitem[\protect\BCAY{I.Garcia-Varea,F.Casacuberta,\BBA\H.Ney}{I.Garcia-Vareaet~al.}{1998}]{ICSLP98-209}I.Garcia-Varea,F.Casacuberta,\BBA\H.Ney\BBOP1998\BBCP.\newblock\BBOQ{AnIterative,DP-BasedSearchAlgorithmForStatisticalMachineTranslation}\BBCQ\\newblockIn{\BemProc.ICSLP},\lowercase{\BVOL}~4.\bibitem[\protect\BCAY{P.Brown,S.Pietra,V.Pietra,\BBA\R.Mercer}{P.Brownet~al.}{1993}]{Brown}P.Brown,S.Pietra,V.Pietra,\BBA\R.Mercer\BBOP1993\BBCP.\newblock\BBOQ{TheMathematicsofStatisticalMachineTranslation:ParameterEstimation}\BBCQ\\newblockIn{\BemProc.ComputationalLinguistics},\lowercase{\BVOL}~19.\bibitem[\protect\BCAY{S.Furui,K.Maekawa,\BBA\H.Isahara}{S.Furuiet~al.}{2000}]{ICSLP2000}S.Furui,K.Maekawa,\BBA\H.Isahara\BBOP2000\BBCP.\newblock\BBOQ{Towardtherealizationofspontaneousspeechrecognition-introducingofajapanesepriorityprogramandpreliminaryresults-}\BBCQ\\newblockIn{\BemProc.ICSLP},\lowercase{\BVOL}~3.\bibitem[\protect\BCAY{Y.Wang\BBA\A.Waibel}{Y.Wang\BBA\A.Waibel}{1998}]{ICSLP98-826}Y.Wang\BBACOMMA\\BBA\A.Waibel\BBOP1998\BBCP.\newblock\BBOQ{FastDecodingForStatisticalMachineTranslation}\BBCQ\\newblockIn{\BemProc.ICSLP},\lowercase{\BVOL}~6.\bibitem[\protect\BCAY{加藤,南條,河原}{加藤\Jetal}{2000}]{katou}加藤一臣,南條浩輝,河原達也\BBOP2000\BBCP.\newblock\JBOQ{講演音声認識のための音響・言語モデルの検討}\JBCQ\\newblock\Jem{信学技報},SP2000-97,NLC2000-49(SLP-34-23).\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1998}]{98-NL-126-9}若尾孝博,江原暉将,白井克彦\BBOP1998\BBCP.\newblock\JBOQ{短文分割を利用したテレビ字幕自動要約}\JBCQ\\newblock\Jem{情報処理学会研究報告},98-NL-126-9.\bibitem[\protect\BCAY{竹沢他}{竹沢\JBA他}{1999}]{takesawa_1999}竹沢寿幸\BBACOMMA\他\BBOP1999\BBCP.\newblock\JBOQ{発話単位の分割または接合による言語処理単位への変換手法}\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6巻}(2号),83--95.\bibitem[\protect\BCAY{中嶋山本}{中嶋\JBA山本}{2001}]{nakashima_2001}中嶋秀治\BBACOMMA\山本博史\BBOP2001\BBCP.\newblock\JBOQ{音声認識過程での発話分割のための統計的言語モデル}\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42巻}(11号),2681--2688.\bibitem[\protect\BCAY{長谷川,秋田,河原}{長谷川\Jetal}{2001}]{hasegawa}長谷川将宏,秋田祐哉,河原達也\BBOP2001\BBCP.\newblock\JBOQ{談話標識の抽出に基づいた講演音声の自動インデキシング}\JBCQ\\newblock\Jem{情報処理学会研究報告},01-SLP-36-6.\bibitem[\protect\BCAY{村田}{村田}{2002}]{murata_nl2002_diff}村田真樹\BBOP2002\BBCP.\newblock\JBOQ{diffを用いた言語処理---便利な差分検出ツールmdiffの利用---}\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9巻}(2号),91--110.\bibitem[\protect\BCAY{村田井佐原}{村田\JBA井佐原}{2001}]{murata_nl2001_henkei}村田真樹\BBACOMMA\井佐原均\BBOP2001\BBCP.\newblock\JBOQ{同義テキストの照合に基づくパラフレーズに関する知識の自動獲得}\JBCQ\\newblock\Jem{情報処理学会研究報告},2001-FI-61,2001-NL-142.\bibitem[\protect\BCAY{中沢,遠藤,古川,豊浦,岡}{中沢\Jetal}{1996}]{SP96-28}中沢正幸,遠藤隆,古川清,豊浦潤,岡隆一\BBOP1996\BBCP.\newblock\JBOQ{音声波形からの音素片記号系列を用いた音声要約と話題要約の検討}\JBCQ\\newblock\Jem{電子情報通信学会技術報告},SP96-28.\bibitem[\protect\BCAY{鹿野,伊藤,河原,武田,山本}{鹿野\Jetal}{2001}]{text2}鹿野清宏,伊藤克亘,河原達也,武田一哉,山本幹雄\BBOP2001\BBCP.\newblock\Jem{「音声認識システム」}.\newblockオーム社.\bibitem[\protect\BCAY{河原他}{河原\JBA他}{2000}]{kawahara}河原達也\BBACOMMA\他\BBOP2000\BBCP.\newblock\JBOQ{日本語ディクテーション基本ソフトウェア(99年度版)の性能評価}\JBCQ\\newblock\Jem{情処学研報},SLP-31-2,NL-137-7.\bibitem[\protect\BCAY{堀古井}{堀\JBA古井}{1999}]{99-SLP-29-18}堀智織\BBACOMMA\古井貞煕\BBOP1999\BBCP.\newblock\JBOQ{話題語と言語モデルを用いた音声自動要約法の検討}\JBCQ\\newblock\Jem{情報処理学会研究報告},99-SLP-29-18.\bibitem[\protect\BCAY{堀古井}{堀\JBA古井}{2000}]{SP2000-116}堀智織\BBACOMMA\古井貞煕\BBOP2000\BBCP.\newblock\JBOQ{係り受けSCFGに基づく音声自動要約法の改善}\JBCQ\\newblock\Jem{電子情報通信学会技術報告},SP2000-116.\bibitem[\protect\BCAY{加藤}{加藤}{1998}]{98-NL-126-10}加藤直人\BBOP1998\BBCP.\newblock\JBOQ{ニュース文要約のための局所的要約知識獲得とその評価}\JBCQ\\newblock\Jem{情報処理学会研究報告},98-NL-126-10.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{下岡和也}{2002年京都大学工学部情報学科卒業.現在,同大学院情報学研究科知能情報学専攻修士課程在籍.音声認識・理解の研究に従事.}\bioauthor{南条浩輝}{1999年京都大学工学部情報学科卒業.2001年同大学院情報学研究科修士課程了.現在,同博士後期課程在学中.音声認識・理解の研究に従事.情報処理学会,日本音響学会各会員.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.この間,1995年から96年まで米国ベル研究所客員研究員.1998年からATR客員研究員.1999年から国立国語研究所非常勤研究員.2001年から科学技術振興事業団さきがけ研究21研究者.音声認識・理解の研究に従事.京大博士(工学).1997年度日本音響学会粟屋賞受賞.2000年度情報処理学会坂井記念特別賞受賞.情報処理学会連続音声認識コンソーシアム代表.IEEESPSSpeechTC委員.情報処理学会,電子情報通信学会,日本音響学会,人工知能学会,言語処理学会,IEEE各会}\end{biography}\end{document}
| |
V02N04-02
|
\section{はじめに}
\label{intro}日本語マニュアル文では,次のような文をしばしば見かける.\enumsentence{\label{10}長期間留守をするときは,必ず電源を切っておきます.}この文では,主節の主語が省略されているが,その指示対象はこの機械の利用者であると読める.この読みにはアスペクト辞テオク(実際は「ておきます」)が関与している.なぜなら,主節のアスペクト辞をテオクからテイルに変えてみると,\enumsentence{\label{20}長期間留守をするときは,必ず電源を切っています.}マニュアルの文としては既に少し違和感があるが,少なくとも主節の省略された主語は利用者とは解釈しにくくなっているからである.もう少し別の例として,\enumsentence{\label{30}それでもうまく動かないときは,別のドライブから立ち上げてみます.}では,主節の省略されている主語は,その機械の利用者であると読める.このように解釈できるのは,主節のアスペクト辞テミルが影響している.仮に,「みます」を「います」や「あります」にすると,マニュアルの文としてはおかしな文になってしまう.これらの例文で示したように,まず第一にマニュアル文においても,主語は頻繁に省略されていること,第二に省略された主語の指示対象が利用者なのかメーカーなのか,対象の機械やシステムなのかは,テイル,テアルなどのアスペクト辞の意味のうち,時間的アスペクトではないモダリティの意味に依存する度合が高いことが分かる.後の節で述べることを少し先取りしていうと,a.利用者,メーカー,機械などの動作が通常,意志的になされるかどうかと,b.文に記述されている動作が意志性を持つかどうか,のマッチングによって,省略されている主語が誰であるかが制約されている,というのが本論文の主な主張である.このようなモダリティの意味として,意志性の他に準備性,試行性などが考えられる.そして,意志性などとアスペクト辞の間に密接な関係があることが,主語とアスペクト辞の間の依存性として立ち現れてくる,という筋立てになる.なお,受身文まで考えると,このような考え方はむしろ動作などの主体に対して適用されるものである.そこで,以下では考察の対象を主語ではなく\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」とする.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが簡単に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.マニュアル文の機械翻訳などの処理においては,省略された{\dg主}の指示対象の同定は重要な作業である.したがって,そのためには本論文で展開するような分析が重要になる.具体的には,本論文では,マニュアル文において,省略された{\dg主}の指示対象とアスペクト辞の関係を分析することによって,両者の間にある語用論的な制約を明らかにする.さて,このような制約は,省略された{\dg主}などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳の基礎になる知見を与えるものである.さらに,実際にマニュアル文から例文を集め,提案する制約を検証する.なお,本論文で対象としているマニュアル文は,機械やシステムの操作手順を記述する文で,特にif-then型のルールや利用者がすべき,ないしは,してはいけない動作や利用者にできる動作などを表現するような文である.したがって,「ひとことで言ってしまえば」のような記述法についての記述はここでは扱わない.
\section{マニュアル文に登場する人物と事物}
マニュアル文であると,参照される人物や事物に何らかの制限があるが,ここで特に重要なのは,{\dg主}の候補が大別して以下の4カテゴリーに限定されることである.もちろん,特定のマニュアルにおいてはより多様な候補が考えられるが,それらは,この4カテゴリーのいずれかに属することになる.\begin{description}\item[メーカー]製造,マニュアルの記述,販売後のサービスという行為などを行なう.マニュアルライターを含むので,マニュアル文の書き手であり,言語的には話し手に相当する.\item[システム]マニュアル文の記述対象である機械の全体または一部を表す.\item[利用者]システムの利用者であると同時に,マニュアル文の読み手であり,言語的には聞き手に相当する.\item[メーカー・利用者以外の第三者]システムへの侵入者など利用者にとって不利になる人物や,共同利用者などを指す.\end{description}次にこれらの各カテゴリーが固有に持っている特質について調べてみよう.まず,以下では動作および特定の状態にあり続けることをまとめて{\dg行動}と呼ぶことにする.さて,メーカーは次のような特質を持つ.第一に,メーカーの行動は全て意志的に行なわれるものである.さらに,利用者の利益を目的とした行動のみを行ない,かつその行動に誤ったもの,無意志的なものはない.また,メーカーが誰か他者からの指導ないしは指令によって行動するのではなく,独立した意志決定によって行動できる.つまり,メーカーの持つ意志性は非常に強いので,これを表すために,独立性という新たな素性を加えることにする.メーカーは,製品出荷時以前に全ての試行的行動(つまり製品の試験)は終えているはずである.つまり,利用者が製品を使用するときにはメーカーの試行的行動はない.さらに,なんらかの将来の事態に備えての準備的行動,例えばシステムの初期化処理など,を行なうこともありうる.これらのモダリティの意味を素性の束の形でまとめると次のようになる.\enumsentence{\label{maker}メーカー$:$\\$[$意志性$:+]$,$[$利用者の利益$:+]$,$[$準備性$:\pm]$,$[$試行性$:-]$,$[$独立性$:+]$}ただし,ここで,素性値$+$は,その素性が必ずあることを示し,素性値$-$は,その素性が決\\してないことを示す.また,素性値$\pm$は$+$,$-$のいずれの可能性もあるとする.次はシステムである.現状ではシステムは,無情物であり意志的な行動をしないのが一般的である.また,準備的行動も行なわない.ただし,高度なソフトウェアなどの有情物とみなせるシステム,例えば,複雑かつ高級なソフトウェアや知的システム,はこの限りでなく,意志的行動や準備的行動も行ない得る.また,現状では知的システムといえども,システム自身が独立した意志決定によって行動したり,試験的あるいは試行的行動を行なうところまでは進んでいない.一方,利用者の利益という点に関して言えば,基本的には利用者の利益を計るような行動をするが,利用者が誤った操作をしたときには利用者にとって好ましくない行動をとることもありうる.以上,まとめると,モダリティの素性としては次のようになる.ただし,知的システムの場合とそうでない場合のふたつに分けている.\enumsentence{\label{sys}知的ではないシステム$:$\\$[$意志性$:-]$,$[$利用者の利益$:\pm]$,$[$準備性$:-]$,$[$試行性$:-]$,$[$独立性$:-]$}\enumsentence{\label{intlsys}知的システム$:$\\$[$意志性$:\pm]$,$[$利用者の利益$:\pm]$,$[$準備性$:\pm]$,$[$試行性$:-]$,$[$独立性$:-]$}次はシステムの利用者である.通常は意志的な行動を行なう.しかし,誤った操作を無意識に行なうこともありえる.その場合には,無意志の行動と考える.また,準備的行動,さらに頻繁に試行的行動も行なうであろう.もちろん,準備的でない行動,試行的でない行動も行なう.また,基本的には自分の利益のために行動するが,誤った操作によって不利益を被ることともある.また,明らかに利用者は,メーカーと同様に独立した意志決定をできる人物である.このようにみてくると,利用者は,意志性,準備性,試行性,独立性,利用者の利益のいずれの素性に対しても$+,-$のいずれもあり得る.結局,システムのモダリティの素性は次のようになる.\enumsentence{\label{user}利用者$:$\\$[$意志性$:\pm]$,$[$利用者の利益$:\pm]$,$[$準備性$:\pm]$,$[$試行性$:\pm]$,$[$独立性$:\pm]$}第3者としては,共同利用者あるいはシステムに害をなす侵入者などが考えられる.これらも,利用者と同様に人間であり,その意味素性は利用者と同じと考えられる.\enumsentence{\label{3P}第3者$:$\\$[$意志性$:\pm]$,$[$利用者の利益$:\pm]$,$[$準備性$:\pm]$,$[$試行性$:\pm]$,$[$独立性$:\pm]$}ところで,ここで述べたようなモダリティを表す素性としてシステムの意志というものを考えようとすると,そもそも今まで定義をきちんとせずに言語学の領域で使用されている定義と同じ意味で使っていた「意志」の定義が問題になってくる.例えば,計算機システムの利用者が端末からコマンドを入力して何らかの操作をする場合を考えてみよう.利用者はコマンドと利用者が最終的に得る結果には関与しているが,実際のソフトウェアの内部の動きまでは意志的に操作しているわけではない.そこで,ソフトウェア内部の利用者が関知しない動きは利用者の意志によるのではないということになる.これをシステム自身の意志的行動とするのは少し強引である.そこで,行動のイニシアチブは他者にあるにせよ,他者からは予測できない自律的な行動であることまで意志性の定義に含める.この考察の結果として,意志性を以下のように定義しておく.\begin{defi}\label{isi}ある行動が{\dg主}の意志的行動であるのは,(a)その行動を{\dg主}が関知し,(b)直接に制御でき,(c)その{\dg主}の行動が自律的である場合である.\end{defi}この定義によれば,複雑なシステムの内部動作でかつ,その内部動作が外部からは関知ないしは予測できない場合,加えて外部から見える行動が予測困難な挙動は,システム自身の意志的行動とみなしてもよいことになろう.ただし,ここでは単なる意志性に加え,独立した意志決定を行なうというモダリティの素性として,独立性を導入しているが,定義\ref{isi}によれば,このような独立性までは意志性に含まれていないことに注目されたい.
\section{アスペクト辞の意味と,動詞との隣接について}
\label{semcon}前節では,マニュアルに登場する利用者,システム,メーカーなどの行動が意志的であるかどうかについて議論した.そこで,本節では,1.節で述べたように,意志性などの素性を介して動詞句と{\dg主}を結びつけるための第二の準備として,動詞句にアスペクト辞が接続した場合の意志性について検討する.\subsection{アスペクト辞の意味}\label{seman}まず,ここでは従来の言語学による考察\cite{寺村:日本語のシンタクスと意味2}に従って,各アスペクト辞の素性について述べる.なお,独自に素性を持たず,隣接する動詞によってテイルなどのアスペクト辞が付く動詞句全体の素性が決まる場合には素性値は定義しない.\noindent{\dgテイル}\\広く知られていることであるが,テイルの時間的アスペクトとしては継続と完了の用法がある.テイルの完了の用法では純粋に既然の結果を示す.さらに,テイルの場合,それ自身には前節で述べたような準備性などのモダリティとしての意味合いはない.また,テイル自身が意志性ないしは無意志性を示すこともない.意志性は後で述べるように隣接する動詞の意志性に依存している.また,他の素性についても隣接する動詞にしたがって決まる.よって,テイル独自には,意志性,などの素性は定義されないので,テイルのモダリティの素性は,次のように空になる.\enumsentence{\label{f-teiru}テイル$:[\;]$}\noindent{\dgテアル}\\時間的アスペクトとしてはテアルは完了の用法のみである.テイルと異なり,完了とは言ってもテアルは,人が何かに対して働きかける行動の結果の存在,つまり,誰かの意志的行動によってもたらされた現在の状態を表すことである.この意味からテアル自体に意志性を表す力があると言える.\enumsentence{絵が壁にかけてある.}のように,行動をした人物に全く注意が払われない用法もあるが,その行動自体は意志的に行なわれたものに相違ない.さらに注意すべきことは,壁に絵をかける行動は,この文だけを見る限りにおいては,その行動をした人の独立した意志によって行なわれたことを妨げるものはない.仮に,従属節を追加することによって,{\dg主}の独立した意志決定でない次の文にすると\enumsentence{\label{tearu10}$??$上司に言われて絵が壁にかけてある.}絵を壁にかけるという行動を上司に命令されたとは読めず,相当受け入れにくい文になってしまう.\footnote{テイルの場合\enumsentence{上司に言われて絵を壁にかけている.}と比較すると良く分かる.この文では,明らかに上司に言われた通りの行動をしていると読める.}従って,独立性を$+$にしておく.その他の素性に関しては,テアル独自には決められない.よって,テアルのモダリティの素性は次のようになる.\enumsentence{\label{f-tearu}テアル$:$$[$意志性$:+]$,$[$独立性$:+]$}\noindent{\dgテオク}\\テオクもテアルと同様に,完了の用法である.さらに,次の例文に見られるように,話し手の意志的な準備を表す場合がある.\enumsentence{\label{teoku1}お客さんが来るので,掃除をしておく.}したがって,\hspace*{-0.2mm}テ\hspace*{-0.2mm}オ\hspace*{-0.2mm}ク自身によって準備性は$+$になりうる.\hspace*{-0.2mm}独立性については,\hspace*{-0.2mm}次の例文を見ると,\enumsentence{上司に言われて絵を壁にかけておく.}絵をかける行動は上司の命令であると解釈できるので,独立性$+$とはいえない.ただし,\enumsentence{絵を壁にかけておく.}では,\hspace*{-0.2mm}絵をか\hspace*{-0.2mm}け\hspace*{-0.2mm}る\hspace*{-0.2mm}こ\hspace*{-0.2mm}と\hspace*{-0.2mm}を誰かに命令されたとまでは読めないから,\hspace*{-0.2mm}独立性$-$とも確定できず,結局,隣接する動詞や文脈によることになる.以上まとめると,テオクのモダリティの素性は次のようになる.\enumsentence{\label{f-teoku}テオク$:$$[$意志性$:+]$,$[$準備性$:+]$}\noindent{\dgテミル}\\テミルは,時間的アスペクトとしては未完了の意味だが,次の例文に見られるように,{\dg主}がある行動を試行的に(もちろん意志的に)行なうことを表す.\enumsentence{\label{temiru1}今度は,中華料理を作ってみよう.}明らかに,テミル独自では準備性は表さない.また,独立性については,次の例文によれば,\enumsentence{上司に言われて絵を壁にかけてみる.}上司に命令された行動を行なうように読め,「上司に言われて」の部分を削除すると独立に意志決定したように読める.筆者の語感では,テオクよりは独立性が顕在化しているようにも感じられる.しかし,テアルの場合の(\ref{tearu10})のような非文性にまではいかないので,テオクと同様にテミル自身は独立性に関与していないとするのが妥当であろう.よって,テミルのモダリティの素性は次のようになる.\enumsentence{\label{f-temiru}テミル$:$$[$意志性$:+]$,$[$試行性$:+]$}\noindent{\dgテシマウ}\\テシマウは基本的には完了の用法であるが,これに文脈などにより「話し手にとって予想外の事象である」という話し手の{主観的な評価が加わる場合がある.この評価により,被害性や予想外性が表現される場合がある.この話し手の評価が含まれない完了を単純完了と呼ぶことにする.また,予想外性や被害性が意味に入っている完了を,予想外完了,被害完了などと呼ぶことにする.以下に例を示す.\enumsentence{宿題をやってしまえば,後はひまだ.--単純完了}\enumsentence{勉強をしなかったので,試験に落ちてしまった.--被害完了}被害完了の例文では「落ちる」ということに意志性はないが,だからといって被害完了一般に意志性がないとは言い切れない.例えば,\enumsentence{知らずに,誤ったコマンドを入力してしまった.}では,コマンド入力そのものは意志的に行なわれたと考えられる.その他の素性としては,明らかに準備性や独立性についての情報はテシマウ自身では与えない.よって,テシマウのモダリティの素性は次のようになる.\enumsentence{\label{f-tesimau}テシマウ$:$$[$被害性$:\pm]$}なお,アスペクト辞の持つモダリティにまで射程を広げると,テヤル,テクレル,テモラウ,テイク,テクルなどの視点に関与する補助動詞との関連もでそうだが,これらは視点に関する研究\cite{久野78,大江75}のなかでその意味論が詳しく研究されているので,ここでは対象としない.\subsection{動詞との隣接について}前節で述べたように,アスペクト辞の付く動詞句のモダリティは隣接する動詞に依存する場合があることを述べた.ここでは,最も重要なモダリティである意志性について,動詞がアスペクト辞に隣接した場合にどのようになるかについて考察する.ただし,ここでいう隣接とは,日本語句構造文法\cite{郡司94a}に述べられている概念であり,アスペクト辞は用言を直前に持つという隣接素性を持つ.換言すれば,ここでは,隣接素性の値となる用言を動詞に絞って考えるわけであり,そのような動詞をアスペクト辞に隣接する動詞と呼ぶ.まず,動詞が意志性を持つとは,その動詞が{\dg主}による意志的な行動を表していることであり,動詞が無意志性であるとは,{\dg主}による意志的でない行動を表していることである.アスペクト辞の持つ意志性については既に前節で考察した通りである.前節の結果を利用して,動詞自体の意志性と,アスペクト辞が隣接して形成される動詞句の意志性の間の関係を調べてみる.まず,テイルは,それ自身が意志性を持たないが,意志性の動詞(例えば,「落す」)にも,無意志性の動詞(例えば,「落ちる」)にも付き,その動詞句全体としての意志性は,隣接する動詞の意志性を引き継ぐ.例えば,\enumsentence{落ちている.}では,全体として無意志の行動ないしは結果状態を表すのに対し,\enumsentence{落としている.}では,全体として意志的行動が継続していることを表す.テアルは,\enumsentence{落してある}のように意志性の他動詞だけを隣接する.無意志の動詞につけると,\enumsentence{$\ast$落ちてある}のようにおかしな文になってしまう.テオク,テミルについては,意志性のある動詞に付くのはもちろんであるが,先に述べたテオク,テミル自体の意志性により,たとえ意志的,無意志的の両方の用法がある動詞についても{\dg主}の意志性が発現する.例えば,\enumsentence{落ちておく}\enumsentence{落ちてみる}という文では,「わざと落ちた」という意味になるが,これはもともと,無意志の動詞である「落ちる」にも極弱いながら意志的用法が存在し\cite{IPAL},それがテオク,テミルで発現したと考えられる.真に無意志にしか解釈できない動詞,例えば「そびえる」では,「そびえてみる」「そびえておく」は全く非文になる.テシマウの場合は少し厄介である.まず,無意志性の動詞なら,テシマウをつけた動詞句も無意志性がある.例えば,\enumsentence{落ちてしまう.}ところが,次の例で示すように,意志的な動詞につくと,自分の意志とは無関係に起こったような意味合いがでてくる.\enumsentence{落としてしまう.}もちろん,この場合でも意志的に「落した」という読みも可能である.よく考えると,「落す」という動詞自体にも,次の例のような無意志的な用法もある.\enumsentence{しまった.財布を落した.}したがって,結局,テシマウのついた動詞句は,動詞の元来意味していた意志性,無意志性をそのまま引き継いでいると考えるのが妥当であろう.まとめると表\ref{table0}になる.\begin{table}\caption{動詞の意志性とアスペクト辞付きの動詞句の意志性の関係}\begin{center}\begin{tabular}{|c||c|c|}\hlineアスペクト辞&動詞&動詞+アスペクト辞\\\hline\hlineテイル&意志性&意志性\\&無意志性&無意志性\\\hlineテアル&意志性&意志性\\\hlineテオク&意志性&意志性\\\hlineテミル&意志性&意志性\\\hlineテシマウ&意志性&意志性\\&無意志性&無意志性\\\hline\end{tabular}\end{center}\label{table0}\end{table}
\section{マニュアル文における{\dg主}についての制約}
\label{manual}いよいよ,アスペクト辞の付く動詞句のモダリティの素性と,{\dg主}になる可能性のあるメーカー,システム,利用者など{\dg主}の候補者とのモダリティのマッチングによって得られる{\dg主}についての制約を解析する.つまり,動詞句が絶対持たないモダリティ素性を持つ{\dg主}候補者は,実際はその動詞句の{\dg主}にはなり得ない,という考え方で{\dg主}に関する制約を求める.これは,単一化文法における単一化操作をモダリティ素性に適用したと見なせる.これは,{\dg主}のゼロ代名詞照応に役立つ.以下に個別のアスペクト辞について調べていく.\noindent{\dgテイル}\\(\ref{f-teiru})に示したようにテイル自身はモダリティ素性はなく,意志性については表\ref{table0}から分かるように,隣接する動詞の意志性ないしは無意志性を引き継ぐ.そこで,テイルが付く動詞句については,\hspace*{-0.3mm}意志性\hspace*{-0.2mm}$+$\hspace*{-0.2mm}の場合と\hspace*{-0.2mm}$-$\hspace*{-0.2mm}の場合に分けて論ずる.\hspace*{-0.3mm}意志性\hspace*{-0.2mm}$+$\hspace*{-0.2mm}であると,\hspace*{-0.3mm}それに矛盾しない素性を持つのは,(\ref{maker})(\ref{sys})(\ref{intlsys})(\ref{user})(\ref{3P})に記述されている素性から見て,メーカー,知的なシステム,利用者,第3者であり,これらがテイルの付く動詞句の{\dg主}になりうる.一方,意志性が$-$であると,(\ref{maker})によりメーカーが\hspace*{-0.2mm}意志性$:+$なので,\hspace*{-0.2mm}メーカーだけが,\hspace*{-0.2mm}{\dg主}になれない.\hspace*{-0.2mm}いくつか例文をあげておこう.例えば,次の例は,「行なう」が意志的な動詞なので少なくとも{\dg主}はシステムではない.直観では{\dg主}が利用者と読める.\enumsentence{初期設定を行なっているとき,...}最近では複雑なソフトウェアなど知的とみなされるシステムもあるようで,その場合はシステムにもなりうる.例えば,次に示される例がそうである.\enumsentence{入力ファイルを処理している様子を直接示します.}この文では,「ファイルを処理している」の部分の{\dg主}は省略されているが,直観的には,なんらかのソフトウェアが{\dg主}であろう.実際,この行動は,先ほど定義\ref{isi}で述べたかなり複雑なシステムの内部行動といえる.もっとも,現状では,このような例は少数派である.\noindent{\dgテアル}\\テ\hspace*{-0.2mm}アルのモ\hspace*{-0.2mm}ダ\hspace*{-0.2mm}リ\hspace*{-0.2mm}テ\hspace*{-0.3mm}ィ\hspace*{-0.2mm}素性(\ref{f-tearu})で特徴的なのは意志性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}に加えて独立性も\hspace*{-0.05mm}$+$\hspace*{-0.05mm}な\hspace*{-0.2mm}こ\hspace*{-0.2mm}とである.\hspace*{-0.5mm}この素性と矛盾しない{\dg主}候補者は,各候補のモダリティ素性(\ref{maker})-(\ref{3P})によれば,メーカー,利用者,第3者だけである.したがって,現状ではシステムはたとえ知的であっても,やはり利用者のイニシアチブによって行動するので,テアルの付く動詞句の{\dg主}にはなれないと考えられる.例えば,\enumsentence{\label{sen:12}調節ダイヤルが右端にセットしてある場合,....}では,直観的にはセットするという行動をしたのは少なくともシステム自身とは解釈できない.\noindent{\dgテオク}\\テオクの場合は,\hspace*{-0.2mm}意志性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}に加えて準備性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}である点が特徴である.\hspace*{-0.2mm}このモダリティ素性に矛盾しない{\dg主}候補者は,各候補のモダリティ素性(\ref{maker})-(\ref{3P})によれば,メーカー,知的システム,利用者,第3者だけである.例えば,次の例文では直観的には省略された{\dg主}は利用者と解釈できる.\enumsentence{このような場合には,変更をする可能性のあるすべてのところに$\ast\ast\ast$を書いておく.}ただし,非常に知的なシステムで,システム自身が利用者のために何かを準備しておいてやるようなシステムでは,{\dg主}がシステムになる場合も可能であろう.例えば,\enumsentence{システムは,そのファイルに更新の情報を書き込んでおくのである.}では,{\dg主}がシステムであり,それが利用者に役に立つことをしてくれているという意味合いがある.\noindent{\dgテミル}\\テミルでは,\hspace*{-0.2mm}意志性\hspace*{-0.05mm}$+$に加えて,\hspace*{-0.2mm}試行性\hspace*{-0.05mm}$+$\hspace*{-0.05mm}が重要である.\hspace*{-0.2mm}このモダリティ素性に矛盾しない{\dg主}候補者は,各候補のモダリティ素性(\ref{maker})-(\ref{3P})によれば,利用者,第3者だけである.繰り返しになるがメーカーが{\dg主}になれないのは,マニュアルが使われるのはメーカー出荷後であり,その時点までにメーカーは全ての試験や試行的行動を完了しているはずだからである.そして,テミルが試行的な操作の実施であるということを考慮すると,{\dg主}が利用者である場合には,メーカーが行動例の説明の代わりに,メーカーから利用者へ操作法の指示を出していると考えられる.例文としては,次のようなものがある.\enumsentence{\label{miru10}誤っているときは,このコマンドを次の2つの記号のあいだに入れてみるとよい.}\enumsentence{\label{miru11}ファイルの内容を変更して,次のように変えてみる.}(\ref{miru10})では利用者が{\dg主}である.(\ref{miru11})動詞の言い切り形だが,動詞の言い切りでは,命令の用法もあり,その場合だと,利用者にその行動を行なうことを指示しているという意味もあり,この場合がそうである.以上の考察を,アスペクト辞の付いた動詞句における{\dg主}についての制約として表\ref{table:actor}にまとめて示す.{\small\vspace*{-1mm}\begin{table}[htb]\caption{{\dg主}についての制約}\begin{center}\begin{tabular}{|l||cc|c|c|c|c|}\hlineアスペ&意志&アス&\multicolumn{4}{c|}{{\dg主}}\\\cline{4-7}クト辞&性&ペクト&メー&シス&利用&第三\\&&&カー&テム&者&者\\\hlineテイル&無&完了&×&○&○&○\\&有&完了&○&知&○&○\\&無&継続&×&○&○&○\\&有&継続&○&知&○&○\\\hlineテアル&有&完了&○&×&○&○\\\hlineテオク&有&完了&○&知&○&○\\\hlineテミル&有&未完了&×&×&○&○\\\hline\end{tabular}\\\vspace*{1mm}ただし,{\dg主}に関する制約は○は{\dg主}になりうること,×は{\dg主}にはならないことを示す.また,「知」は知的なシステムの場合のみ可能であることを示す.\\\end{center}\label{table:actor}\end{table}}次にこの表\ref{table:actor}に記述されている制約が実際の例文でどの程度満たされているかを調べる.調査は、論文末尾に記載したマニュアルから本論文で扱っているアスペクト辞を含む合計1495文を集めて行なった.その内訳は,テイルを含む文が1015文,テアルを含む文が13文,テオクを含む文が147文,テミルを含む文が101文,テシマウを含む文が219文である.ただし,一文のなかに複数のアスペクト辞が現れた場合は別々に数えることにする.まず,テイル,テアル,テオク,テミルを含む文について,アスペクト辞のつく動詞句の意志性および,その動詞句の{\dg主}についてまとめたのが表\ref{table:actodata}である.ここで,表面的に{\dg主}が現れている場合は,それに基づいて判断した.しかし,省略されている場合は,文脈などを考慮して適切な{\dg主}を補った上で判断した.{\small\vspace*{-1.5mm}\begin{table}[htb]\caption{例文における{\dg主}}\begin{center}\begin{tabular}{|l||cc|c|c|c|c|}\hlineアスペ&意志&アス&\multicolumn{4}{c|}{{\dg主}}\\\cline{4-7}クト辞&性&ペクト&メー&シス&利用&第三\\&&&カー&テム&者&者\\\hlineテイル&無&完了&0&303&18&0\\&有&完了&149&57$^{\ast}$&143&62\\&無&継続&0&120&0&0\\&有&継続&13&70$^{\ast}$&69&11\\\hlineテアル&有&完了&7&0&6&0\\\hlineテオク&有&完了&0&8$^{\ast}$&139$\dagger$&0\\\hlineテミル&有&未完了&0&0&101$\dagger$&0\\\hline\end{tabular}\\\vspace{1mm}$^{\ast},\dagger$については後述.\end{center}\label{table:actodata}\end{table}}この結果を詳しく分析してみる.まず,テアルで{\dg主}がメーカーである例は,次のような文であり,出荷以前の初期設定を表している.\footnote{特に断らない場合は,本論文における例文は筆者らの作例である.}\enumsentence{コマンドの名前は,入力の簡略化のためではなく,意味を表すために付けてあるので,長めになっている.}テイルの場合,無意志的行動の{\dg主}が利用者や第三者である例もないが,利用者などが,無意志的のうちに継続して行なってしまう行動もありえないわけではないと考えられる.実際には,そのような無意志行動は少ないということであろう.メーカーのモダリティ素性(\ref{maker})によれば,メーカーに無意志的行動はない.実際の例文でも無意志用法の動詞の{\dg主}がメーカーになる例は皆無であることが,表\ref{table:actodata}により示されている.テミルがつく場合の表\ref{table:actodata}の$\dagger$に示した{\dg主}が利用者である例は,テミルについては18例は利用者独自の行動記述してあり,残りの83例は操作を指示する次のような例である.\enumsentence{では,初期設定をしてみましょう.}また,テオクがつく場合の表\ref{table:actodata}の$\dagger$に示した{\dg主}が利用者である例は,次のような利用者への操作の指示の例である.\enumsentence{不要なファイルを削除しておきましょう.}この結果からみると,言語学的考察からは予測できないことであるが,特にテオクは,実質的には利用者への行動指示という使われ方が標準的であることがわかる.次に,システムが{\dg主}になる場合について考察する.基本的には知的でないシステムは意志的行動はしない.したがって,システムが意志的行動である場合は,そのシステムが知的なものかどうかを調べる必要がある.なお,表3の$^{\ast}$に示したテイルあるいはテオクがつく場合にシステムが意志的行動をする例は,すべてUNIXや\LaTeX\のような高度なソフトウェアシステムの場合である.第三者が{\dg主}になる場合は例文自体が極端に少なく,制約において{\dg主}となれる場合でも例が見つかっていない場合もあった.しかし,以上のような分析を除いては,表\ref{table:actor}の制約は確認できたといえる.\subsection{動詞の意志性$+,-$の判定法}表\ref{table0}に示したように,テイルの場合,意志性があるかどうかは,隣接する動詞によって決まるため,表\ref{table:actor}の制約を適用するには,各々の動詞の意志性を判断する手段が要求される.本研究では,動詞の辞書として,情報処理振興協会で開発された計算機日本語基本動詞辞書IPAL\cite{IPAL}を利用している.IPALの辞書によると,動詞は,{\dg主}によって意志的に行ないうる行動を表す意志動詞と,{\dg主}による意志的な行動を表してはいない無意志動詞(分類1,2)に分類され,意志動詞については,意志動詞としてのみ用いられる動詞(分類3b)と,無意志動詞としても用いられるもの(3a)に分類される.これにより動詞は四種類に分類される.そこで,分類1,2ならテイルの付く動詞句の素性を$[$意志性$:-]$として処理できる.また,分類3bなら$[$意志性$:+]$として処理できる.したがって理解システムの作成にあたっては,表\ref{table:actor}を直接適用できる.問題は,かなり多数存在する分類3aの動詞である.実際,1015例中858例がこれに該当する.この種の動詞は意志性$+,-$の各々に共起する表現などにより意志性を定めなければならない.そこで,集めたマニュアル文のうち,テイルの付く動詞句を含む文について,どのような場合に意志性$+$で,どのような場合に意志性$-$になるかを調べてみた.その結果,以下のようなことが分かった.\\\noindent{\bfa.}他動詞用法の全く無い自動詞の場合,\hspace{-0.3mm}182例中173例(95.1\%)が意志性$-$の用法であった.\hspace{-0.3mm}し\\たがって,自動詞の場合は動詞句の$[$意志性$:-]$というデフォールト規則が設定できる.\\\noindent{\bfb.}能動に用いらる他動詞\cite{IPAL}の受動態は44例中38例(86.4\%)が意志性$+$であった.また,残りの6例では,ニヨッテ,ニなどの助詞によって{\dg主}語が明示されていた.よって,能動の動詞の受動態は意志性$+$というデフォールト規則をおき,明示された{\dg主}があるときには,それを優先させればよい.\\\noindent{\bfc.}サ変動詞の場合,509例中60例が「表示する/されている」という表現であり,この場合は{\dg主}がシステムと解釈できるから,「表示する」を特殊な語彙として扱うことにし,以下では残りのサ変動詞449例について考察する.このうち,208例が受動態だが,意志性$+$が205例(98.5\%)なので,サ変動詞の受動態は意志性$+$というデフォールト規則が成り立つ.また,能動態サ変動詞については,サ変動詞を構成する名詞の性質によりおおよそ次のように言える.\begin{itemize}\itemサ変動詞「Xする」を「Xをする」と言い替えられるものは177例中135例(76.2\%)が意志性$+$であり,意志性$+$というデフォールト規則が成り立つ.\itemサ変動詞「Xする」を「Xをする」と言い替えられないものは64例中56例(87.5\%)が意志性$-$であるので,意志性$-$というデフォールト規則が成り立つ.\end{itemize}\noindent{\bfd.}上記a,b,c以外の他動詞の能動体では,はっきりした傾向がない.111例中,意志性$+$が43例,$-$が68例であり,個別の動詞ないし文脈に依存している.\\\noindent{\bfe.}上記以外の動詞としては,「備える」など自動詞にも他動詞にも用いられるものが12例あったが,意志性は文脈に依存しておりデフォールト規則を立てることはできない.\\ここでは,以上の場合についてデフォールト規則を観察した.これらのデフォールト規則からはずれるものは特殊な語彙として辞書登録し,文脈や領域知識を用いて意志性を判断することになる.しかし,上記のカテゴリーの858例においてデフォールト規則で77.7\%の動詞の意志性を判断でき,またIPALの分類から意志性が判断できる分類1,2,3bを加えると,全体としては81.1\%が機械的に意志性を判断できる.したがって,効率的な機械的な処理の可能性がうかがわれる.
\section{テシマウの被害性に関する考察}
(\ref{f-tesimau})で,テシマウには予想外性(話し手にとって事象が予想外である)という評価から転じて被害性を表わしうるモダリティ素性があることを述べたが,ここでより詳細に検討する.(\ref{maker})の$[$利用者の利益$:+]$にも示したように,メーカーはシステムの全てについて把握した上\\で,利用者の利益を意図している.このことから,メーカーは商品を買った利用者に利益は与えるが,被害は与えないということになる.したがって,確実に言えるのは次の制約になる.\begin{co}\label{teiru5}テシマウが被害性の意味,すなわち$[$利用者の利益$:-]$なる素性を持つ場合は,{\dg主}はメーカーにならない.\end{co}ただし,(\ref{f-tesimau})でも示したように,テシマウには単純な完了を表す場合もあるので,テシマウがつくだけで,{\dg主}がメーカーにならないとは言い切れない.一方,システムも,それ自身は利用者の利便のためにあるものであり,かつ出荷以前に十分検査されているのが普通であるから,予想外の行動をすることは通常ありえない.ただし,利用者の誤った操作によって利用者にとっては予想外の,そして多くの場合は利用者にとっては好ましくない行動結果をシステムが示すことがある.この場合は{\dg主}はシステムになる.例文をみよう.\enumsentence{決められた手順を飛ばしてしまうと,エラーが発生する恐れがあります.}では,手順を飛ばしたのは利用者であると解釈される.主節で,利用者にとって被害になることが記述されており,従属節はその原因の行動であり,利用者にとっては被害となる行動である.\enumsentence{ディスケットを入れ換えずにこのコマンドを実行してしまうと,ディスクが壊れてしまう可能性がある.}この文の従属節のテシマウも同様に利用者にとって被害となる行動を表している.なお,主節のテシマウは{\dg主}がシステム側の一要素であるディスクであるが,システムは利用者の利益素性は$+,-$とも可能なのでテシマウが使われていてもよい.これらを表の形でまとめると,表\ref{sima6}のようになる.なお,メーカー,システム,利用者,第三者のいずれの場合も,被害感のない完了は理論的には否定されないが,被害感のない単なる完了であればわざわざテシマウを使う意味はなく,あまり現れないと考えられる.したがって,被害感のない完了になる場合は少ないと考えられる.{\small\vspace{-1mm}\begin{table}[htb]\caption{テシマウの被害性と{\dg主}についての制約}\begin{center}\begin{tabular}{|l||c|c|c|c|c|}\hline被害性&意志性&\multicolumn{4}{c|}{{\dg主}}\\\cline{3-6}&&メー&シス&利用&第三\\&&カー&テム&者&者\\\hline被害性の&無&$\triangle$&$\triangle$&$\triangle$&$\triangle$\\ない完了&有&$\triangle$&$\triangle$&$\triangle$&$\triangle$\\\hline被害性の&無&×&○&○&○\\ある完了&有&×&知&○&○\\\hline\end{tabular}\\\vspace{1mm}ただし,$\triangle$は可能ではあるが,頻度が低いことを示す.\end{center}\label{sima6}\end{table}}表\ref{sima6}のシステムが意志的行動の{\dg主}になれる,という点は注意が必要である.すなわち,前に述べたように,非知的システムではシステムは行動{\dg主}にはなれないが,知的システムなら{\dg主}になりうるわけである.これらの制約を実際のマニュアル文について調べたのが表\ref{sima6data}である.{\small\begin{table}[htb]\caption{例文における{\dg主}}\begin{center}\begin{tabular}{|l||c|c|c|c|c|}\hline被害性&意志性&\multicolumn{4}{c|}{{\dg主}}\\\cline{3-6}&&メー&シス&利用&第三\\&&カー&テム&者&者\\\hline被害性の&無&0&3&1&0\\ない完了&有&0&2&11&0\\\hline被害性の&無&0&61&48&3\\ある完了&有&0&63&16&11\\\hline\end{tabular}\end{center}\label{sima6data}\end{table}}このデータは,上記の理論的考察結果によく一致しているといえよう.また,一般に被害性のない完了ではテシマウを使う必要がないということも,このデータから裏付けられる.少数派である被害性のない完了としては,次のようなものが考えられる.\enumsentence{この考え方の実用的な面は,一度正しいプログラムができてしまうと,応用プログラムを作るのがずっと簡単になる点である.}また,表\ref{sima6}についても述べたように,システムが意志性のある行動の{\dg主}になるのはいずれもUNIXや\LaTeX\のような知的なシステムの場合であることが確認された.さて,被害性の有無は,主観によって判断したが,計算機でこの理論をマニュアル理解システムにおける{\dg主}同定のために使用しようとすると,被害性の有無を形式的にあるいは言語の表現から知る方法が必要である.そこで,被害性があると判断された202例文について調べてみると,以下のことが分かった.\\\noindent{\bfa.}受身形にシマウがつく場合---32例\\例えば,次の例で,これは,システムが{\dg主}であるが,利用者の誤った操作により利用者に被害が及ぶ,という例である.\enumsentence{絶対セクタへの書込みは,OSを通さないで行なわれるので,不用意に書き込むとディスクの内容が壊されてしまう場合がある.}\noindent{\bfb.}ナッテシマウという表現の場合---34例\\\noindent{\bfc.}シマッタという表現の場合---42例\\\noindent{\bfd.}特定の動詞との共起---34例\\次のような例である.「失う」「破壊する」「占有する」「ハングする」「忘れる」「失敗する」「破る」「間違える」「困る」など.\\\noindent{\bfe.}特定の副詞(節,句)との共起---15例\\次の副詞である.「誤って」「最悪の場合」「うっかり」「無意識に」「間違って」\\\noindent{\bff.}特定の名詞句---11例\\「ミスタイプ」など\\なお,これらの文例については{\bfa,b,c,d,e,f}の要素が1文の中に重複している場合もある.重複を考慮すると,これらの語彙によって156例は被害性が認識できる.一方,被害性のない完了では,これらの表現は一切使用されていない.また,逆に被害性のない完了だけで使用される表現としては,「デキテシマウ」などの可能を表す表現(4例)がある.さて,これらについては,予め要注意語彙としてシステムに登録しておき,テシマウとの共起を調べることにより処置できるから,計算機での実現が可能であろう.ただし,これ以外にも,まったく文脈あるいは記述内容によってしか判断できない場合もある.例えば,\enumsentence{部外者がパスワードを探り当ててしまえば,}実際には,表\ref{sima6data}に示すように,テシマウの場合被害性がある場合が大部分であり,計算機による処理の場合は,上記の特定の表現がなくても被害性ありというデフォールトの判断をしておけばよいと考えられる.このような分析により,テシマウの被害性の有無が文の表現だけから明らかになれば,表4の制約を適用して,メーカーを{\dg主}の候補から除外できる.
\section{おわりに}
\label{end}マニュアル文において,アスペクト辞テイル,テアル,テオク,テミル,テシマウが表すモダリティによって,そのアスペクト辞がつく動詞句の{\dg主}が誰であるかの制約を言語学的考察により明らかにした.次に,その制約が実際のマニュアル文で成立していることを検証した.より強い制約やデフォールト規則の発見,日本語マニュアル理解システムへの本研究成果の実装などが今後の課題である.\vspace{0.6cm}\hspace*{-0.5cm}{\large\dg統計データをとるために使用したマニュアルの出典一覧}\vspace{0.2cm}\hspace*{-0.5cm}LASERSHOT{\smallB406E}レーザービームプリンタ操作説明書.\Canon,\1991.\vspace{0.2cm}\hspace*{-0.5cm}アスキー出版局編著.\標準MS-DOSハンドブック.\アスキー出版局,\1984.\vspace{0.3cm}\hspace*{-0.5cm}I.Bratko著,\安部憲広訳.\Prologへの入門.\近代科学社,\1990.\vspace{0.2cm}\hspace*{-0.5cm}坂本文.\たのしいUNIX.\株式会社アスキー,\1990.\vspace{0.2cm}\hspace*{-0.5cm}システムのネットワークと管理.\日本サン・マイクロシステムズ株式会社,\1991.\vspace{0.2cm}\hspace*{-0.5cm}LeslieLamport著,\大野俊治他\訳.\文書処理システム\LaTeX\.\株式会社アスキー,\1990.\vspace{0.2cm}\hspace*{-0.5cm}トヨタマーク2取扱書.\トヨタ自動車株式会社,\1988.\section*{謝辞}本研究において,例文収集,統計データの作成に力を尽くしてくれた本学電子情報工学科大学院生近藤靖司君に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士課程修了.工学博士.現在横浜国立大学工学部電子情報工学科教授.自然言語処理,日本語の意味論・語用論などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioauthor{森辰則}{1986年横浜国立大学工学部卒業.1991年同大大学院工学研究科博士課程修了.工学博士.1991年より横浜国立大学工学部勤務.現在,同助教授.計算言語学,自然言語処理システムの研究に従事.情報処理学会,人工知能学会,日本認知科学会,日本ソフトウェア科学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N06-03
|
\section{はじめに}
複数の関連記事に対する要約手法について述べる.近年,新聞記事は機械可読の形でも提供され,容易に検索することができるようになった.その一方で,検索の対象が長期に及ぶ事件などの場合,検索結果が膨大となり,全ての記事に目を通すためには多大な時間を要する.そのため,これら複数の関連記事から要約を自動生成する手法は重要である.そこで,本研究では複数の関連記事を自動要約することを目的とする.自動要約・抄録に関する研究は古くから存在する\cite{Okumura98}が,それらの多くは単一の文書を対象としている.要約対象の文書が複数存在し,対象文書間で重複した記述がある場合,単一文書を対象とした要約を各々の文書に適用しただけでは重複した内容を持つ可能性があり,これに対処しなければならない.対象とする新聞記事は特殊な表現上の構成をもっており\cite{Hirai84},各記事の見出しを並べると一連の記事の概要をある程度把握することができる.さらに詳細な情報を得るためには,記事の本文に目を通さなければならない.ところが,新聞記事の構成から,各記事の第一段落には記事の要約が記述されていることが多い.これを並べると一連の記事の十分な要約になる可能性がある.しかし,各記事は単独で読まれることを想定して記述されているため,各記事の第一段落の羅列は,重複部分が多くなり,冗長な印象を与えるため読みにくい.そこで,複数の記事を1つの対象とし,その中で重複した部分を特定,削除し,要約を生成する必要がある.本論文で提案する手法は複数関連記事全体から判断して,重要性が低い部分を削除することによって要約を作成する.重要性が低い部分を以下に示す冗長部と重複部の2つに分けて考える.なお,本論文で述べる手法が取り扱う具体的な冗長部,重複部は\ref{要約手法}節にて説明する.\begin{description}\item[冗長部:]単一記事内で重要でないと考えられる部分.\item[重複部:]記事間で重複した内容となっている部分.\end{description}従来の単一文書を対象とした削除による要約手法は,換言すると冗長部を削除する手法であるといえる.重複部は,複数文書をまとめて要約する場合に考慮すべき部分である.本研究において目標とする要約が満たすべき要件は\begin{itemize}\itemそれぞれの単一記事において冗長部を含まないこと,\item記事全体を通して重複部を含まないこと,\item要約を読むだけで一連の記事の概要を理解できること,\itemそのために各記事の要約は時間順に並べられていること,\itemただし,各記事の要約は見出しの羅列より詳しい情報を持つこと,\end{itemize}である.本研究では,時間順に並べた各記事の第一段落に対して要約手法を適用し,記事全体の要約を生成する.したがって,本手法により生成される要約は,見出しの羅列よりも詳しいが第一段落の羅列よりは短かい要約である.以上により,事件等の出来事に関する一連の流れが読みとれると考える.具体的な要約例として付録\ref{ex_summary}を挙げる.この要約例は本論文の\ref{要約手法}節で説明する手法を適用して作成した.この要約例には重複部が多く存在し,それらが本要約手法によって削除された.重複部の削除は,それが正しく特定されている限り適切であると考えることができる.なぜならば,重複部分が既知の情報しか持たず,重要性が低いことは明らかだからである.また,実際の評価においても,要約例\ref{ex_summary}について本手法による削除が不適切とされた部分はなかった.冗長部の特定は重要性の指針を含むことであり,要約に対する視点,要求する要約率などにより変化するので,評価もゆれることが考えられる.これは従来の単一文書に対する要約評価においても同様に問題とされていることである.したがって,付録\ref{ex_summary}に挙げた要約例も重複部の削除に関しては妥当であると言えるが,冗長部の削除については,その特定が不十分であり,削除が不適切である部分が存在すると言える.しかしながら,付録\ref{ex_summary}に挙げた要約例は,実際のところ,記事の概要を把握するためには十分な要約になっている.評価においても,削除が不適切であると指摘された部分はなく,冗長であると指摘された部分を数ヶ所含んだ要約である.新聞記事検索時などにおいて,利用者が関連する一連の記事の要約を求めることは,関連記事数が多ければ多いほど頻繁に起こると想定できる.このとき,本研究が目的とする要約によって,関連記事群全体の概要を知ることができれば,次の検索への重要な情報提供が可能となる.また,見出しの羅列のみでは情報量として不十分であるが,第一段落の羅列では文書量が多すぎる場合に,適切な情報を適切な文書量で提供できると考えられる.換言すれば,段階的情報(要約)提示の一部を担うことが可能となる.したがって,本研究において目標とする要約が満たすべき要件として,重複部・冗長部を含まないのみならず,一連の記事を時間順に並べることが挙げられていることは妥当である.冗長部はどのような記事にも含まれる可能性があるが,重複部は記事の文体によっては特定することが困難となる場合がある.逆に,重複部が存在する場合,複数関連記事要約の観点からそれを削除することは妥当である.一般的に新聞記事の記述の方法から,長い時間経過を伴う一連の関連記事の場合には重複部が多く存在することが予想できる.そのような記事群は一連の事件や政治的出来事に関する場合が多い.また,このような関連記事に対する要約の需要は多く,本論文で示す重複部・冗長部の削除による要約は十分に実用性があると考える.実際に,要約例\ref{ex_summary}はある事件について述べられている一連の記事群であるが,これは既に述べた効果を持ち,おおむね本研究の目指す要約であると言える.本論文では上記の処理がヒューリスティックスにより実現可能であることを示し,そのための手法を提案する.そしてこの手法を実装し,評価実験を通して手法の有効性を確認する.以下では,\ref{関連研究}節にて本研究に関連する研究について触れ,\ref{要約手法}節では,本論文で提案する要約手法について述べる.\ref{評価実験}節では\ref{要約手法}節で述べた手法を用いて行った実験とアンケート評価について示す.そして,\ref{議論}節で評価結果について議論し,最後に本論文のまとめを示す.
\section{関連研究}
\label{関連研究}複数文書を対象とした要約の研究として\cite[など]{Mani97,Yamamoto96,McKeown95,Shibata97}がある.ManiandBloedornの手法は,文書をグラフを用いて表現し,活性伝播によって文書の話題と関係する部分グラフを抽出する.そして,複数文書に対して各文書の部分グラフを照合することにより,文書間の類似箇所と相違箇所を抽出し,この結果に基づき文を選択する.柴田らは形態素の出現頻度を利用し,重複文を同定している.こうして特定した重複文の一方を用いて要約を生成する.従来は,要約を目標に置きながらも,実際には統計的手法などにより重要文を決定し,その選択結果である抄録を生成する研究が多い.しかし,山本らは表層情報のみを用いたヒューリスティックスによる手法を提案し,文中の重複部分を削除している.山本らは関連した文書を利用して,後続記事の重複部分の除去による要約を研究目的としており,複数の関連記事全体の要約は考慮していない.そのため,本手法とは対象とする問題が異なる.本手法も山本らと同様にヒューリスティックスのみによる手法であるが,山本らは節単位で比較,削除を行うのに対し,本手法は新聞記事において頻繁にみられる表現を手掛りに重複部分を特定し,削除する.また,要約生成のために構文解析を用いる手法\cite{Mikami98,Mikami99}が存在する.一般に,構文解析器は形態素解析器に比べ解析誤り率が高く,処理時間をより多く必要とする.そのため,構文解析結果を利用して要約生成する場合,処理時間を費やしたにもかかわらず,要約文章が不自然になる可能性がある.したがって,ヒューリスティックスのみで十分な要約が生成できるとする本手法では,処理時間の短縮と構文解析誤りによる影響の排除のため,構文解析器を使用しない.本手法の特徴は,形態素解析結果のみを用いるヒューリスティックスによって構成されていることである.関連した記事間において,重複・冗長部分の特定にはヒューリスティックスで十分対応可能であり,それによる要約文章が十分に自然であると考えた.そのため,本手法では従来提案されている統計的手法などによる重要部分の特定は行わない.しかし,単一文書を対象として従来提案されてきた要約手法と本手法を組み合わせて用いることにより,さらに文書量が少ない要約を生成できると考える.
\section{要約手法}
\label{要約手法}本手法の概要は以下の通りである.新聞記事が表現上の特有の構造を持っていることから,各記事の第一段落を要約の対象とし,記事を時間順に並べる.これにより,利用者が,一連の事件に関する全体像を見出しの羅列以上に容易に把握することが期待できる.冗長部として,推量文を文末表現で特定し,削除する.また,新聞記事において詳細な住所の表現が頻出するが,記事の全体像を把握する上では重要度は低いと考えられるので,これも冗長部として削除する.重複部としては,導入部と呼ぶ部分を定義する.導入部の名詞と動詞がそれ以前の記事の文に含まれるならば,それは既知の情報であるため,削除する.また,頻繁に出現する人名・地名に関する説明語句,括弧による言い換え,それぞれの文,ならびに括弧を用いた説明語句についてそれぞれ記事内と記事間における重複を調べる.重複している部分は,1つを残し,他は削除する.以上の処理を各関連記事の第一段落を並べたものに適用し,最終的に残った文章が要約文章となる.\subsection{前提条件}本手法は表層情報である形態素解析結果のみを用いて要約を生成する.そのため,各記事をあらかじめ形態素解析しておくことが必要となる.また,本手法が利用される状況として,新聞記事検索の結果に対して利用することを想定する.利用者は各記事の見出しなどを参照しつつ最終的な関連記事を決定し,関連記事群を指定する.この際,一般的に複数記事の要約文書の記述順序なども問題となるが,要約システムは与えられた記事を時間順に整列し,これを記述順序として要約処理を行う.なぜならば,実際に記事が書かれた順番が記述順序であり,こうすることにより一連の記事に関する流れを容易に把握できると考えたからである.要約処理が終了すると,時間順に整列された順番で各記事を出力するものとする.本手法では,各記事の第一段落に対して,その重複部・冗長部を特定し,削除することによる要約を目指すので,要約率の制御は行わない.\subsection{要約処理手順の概要}本要約手法は,冗長部処理と重複部処理に大別される.冗長部処理は推量文処理と住所表現処理から構成される.重複部処理は導入部処理,括弧の処理,人物・地名の説明処理,重複文処理から構成される.要約手法の処理手順の概略は以下のとおりである.\begin{enumerate}\item各記事を形態素解析する.\item入力された各記事から第1段落を抽出し,時間順に整列する.\item推量文処理.\item重複文処理.\item住所表現処理.\item人物・地名の説明処理.\item括弧の処理.\item導入部処理.\itemその他の処理.\item結果を出力する.\end{enumerate}以下,順に各処理について説明する.\subsection{推量文処理}推量文とは,記述した\begin{quote}コトと現実とに不一致があり得ることを示す\cite{Shirota98}\end{quote}文である.文末が推量表現である文は,記述内容と事実とに不一致があり得ることを示している.したがって,新聞記事を対象とする場合においては,推量文を要約文書に含める重要性は低いと言える.そのため,まず,各文の文末表現を判断し,推量表現であれば削除対象としてその1文全てを仮冗長部とする.この削除対象と判断する文末表現を表\ref{del_guess}に列挙する.これらの文末表現は,日本経済新聞の1990年から1992年の記事を参考に収集した.そして,以下の条件を全て満たした場合に限り仮冗長部を削除する.\begin{enumerate}\item「〜によると」,「〜ため」という根拠を示す表現を含まない.\item「だが」,「しかし」,「が」といった逆接の接続詞あるいは接続助詞を含まない.\item「ただ」,「ものの」といった条件,譲歩を示す表現を含まない.\end{enumerate}\begin{small}\begin{table}[htb]\begin{center}\caption{文の削除対象とする文末表現}\label{del_guess}\begin{tabular}{|cccc|}\hline〜可能性が大きい&〜可能性もある&〜可能性も出てきた&〜そう\\〜情勢だ&〜かもしれない&〜そうだ&〜ちがいない\\〜という&〜と思われる&〜はずだ&〜微妙\\〜微妙だ&〜微妙である&〜見通し&〜見通しだ\\〜見通しである&〜みられる&〜見られている&〜模様だ\\〜よう&〜ようだ&〜予想される&〜らしい\\〜ろう&〜そうもない&&\\\hline\end{tabular}\end{center}\end{table}\end{small}\subsection{重複文処理}\label{重複文処理}新聞記事では極く稀にほぼ同一内容の文が出現する場合がある.特に記事が掲載されてから時間経過が大きいほど,その可能性が大きくなる.一例を以下に示す.\begin{quote}[日本経済新聞1993/1/26から抜粋]米国が日本と共同開発中のFSXの関連技術を入手できると定めた政府間合意に基づき,技術に付随する「試供品」としてハードウエアを輸出する.日本企業が独自開発した本格的な軍用機材を対米供与する初の事例になる.米空軍は将来の戦闘機開発で同レーダーの採用を検討するとみられ,同社は引き合いがあれば積極的に対応する方針だ.[日本経済新聞1993/8/4から抜粋]米国が日米共同開発中のFSXの関連武器技術を入手できると定めた政府間合意に基づき,技術に付随する参考品の形で供与した.日本企業が独自開発した本格的な軍用機材を対米供与する初の事例となる.\end{quote}これらの2記事間には全く同一内容の文があり,重複しているため削除する.このような重複部分を特定する手法は複数考えられる.本手法では次に示す処理を行い,\mbox{同一内容である重複}文を削除する.文$S1とS2$が与えられたとき,$S1$に含まれる名詞数を$n(S1)$とし,同様に$S2$に含まれる名詞数を$n(S2)$とし,さらに,$S1とS2$に共通に含まれる名詞の数を$m(S1,S2)$として\[\frac{m(S1,S2)}{n(S1)}>\alpha\quadかつ\quad\frac{m(S1,S2)}{n(S2)}>\alpha\]という条件が成立する場合,$S2$を削除する.本手法では後述の理由により$\alpha=0.8$とする.本手法では重複文処理として,以上の処理を一連の記事内の第一文を除く全ての文の組み合わせに対して行う簡便な手法をとった.この処理では,ほとんど同一内容の文のみを削除する.一文が複数の文に分かれるなどの理由により,$S1$が$S2$に含まれる場合は,$S1$を削除すべきと考えられるが,削除後の記事が不自然となる場合があるので,本論文では上述の手法とした.この手法を先の例に適用すると第2記事の「日本企業が独自開発した本格的な軍用機材を対米供与する初の事例となる.」が削除される.また,第1記事の「米国が日本と〜」と第2記事の「米国が日米共同開発中の〜」はほぼ同一内容であると判断できるが,「試供品」$\rightarrow$「参考品」などの違いがあり,本手法では削除されない.$\alpha$の値を小さくすることにより,削除も\mbox{可能となる}が,削除すべきでない文も削除する場合があることが観察されたので,本手法では,$\alpha=0.8$としている.\subsection{住所表現処理}新聞記事においては詳細な住所の表現が頻出する.例えば\begin{quote}[日本経済新聞1992/2/13より抜粋]放棄させていた北海道○○町△町一二三,廃品回収業[日本経済新聞1990/1/26より抜粋]東京都江戸川区西葛西七丁目の都道交差点で\end{quote}などの表現がある.この場合,記事の概要を把握する上では詳細な住所の記述は冗長である.このような住所表現をパターンマッチングで特定し,削除する.ただし,住所表現の次の形態素が読点の場合はその住所表現全体および後続の読点を削除するが,住所表現の次の形態素が「の」の場合は住所表現の先頭から「都,道,府,県,管内,市」のいずれかの形態素までを残し,それ以降の住所表現を削除する.上の例では,それぞれの部分を削除すると\begin{quote}七千万円の債権を放棄させていた廃品回収業東京都の都道交差点で\end{quote}となる.\subsection{人名・地名の説明処理}新聞記事では,次のように人名の前後でその人物について説明している部分がある.\begin{quote}[日本経済新聞1992/2/20より抜粋]\underline{前道議の}○○○○容疑者\underline{(56)=渡島管内△△町△△△=}[日本経済新聞1991/4/9より抜粋]\underline{早大三年,}○○○○さん\underline{(20)}ら四人は\end{quote}複数の関連記事を並べた場合,このような部分は頻繁に出現する.このことから,同一の人名が2度以上出現する時,それらの説明の部分は冗長となり,要約文章に含める重要性が低いため削除する.説明の部分とは,人名にかかる連体修飾語句と,人名の後方にある括弧を用いた年齢の表現,ならびに,=で囲まれた部分である.連体修飾語句は人名の形態素から前方へ名詞,または助詞「の」またはその前も名詞である「,」の続く限りたどり,到達できる部分によって特定する.本手法ではこれらの特定した説明部分を削除する.また,地名の連体修飾語句も同様に削除する.例を以下に示す.\begin{quote}\underline{施行主体の}広島市は[日本経済新聞1991/3/15より抜粋]\end{quote}ただし,連体修飾語句の認定が人名の場合と異なり,地名の形態素から前方へ,普通名詞の続く限りたどり,到達できる部分までとする.また,助詞「の」が地名の直前に存在し,「名詞の地名」となる形式の場合,1度目の出現時に「名詞」を登録しておく.そして,同一地名について再び同一の名詞を伴なって「名詞の地名」という形式が出現した場合,「名詞の」を削除し,「地名」とする.\subsection{括弧の処理}新聞記事に出現する括弧を用いた表現のうち,括弧の処理では,以下の形式を扱う.\begin{quote}A(B)\end{quote}このような表現があった場合,以下のいずれかの表現に置き換えることが可能である.\begin{enumerate}\itemB\itemA\itemA(B)\end{enumerate}(1)は語句の言い換えの場合で,括弧の前の語句が長いほど頻繁に起こる.例えば,複数の記事を並べた中に「石油輸出国機構(OPEC)」が2度以上出現する場合がある.このような場合,括弧の前の語は冗長であり,2回目以降は以下のように置き換えることが可能である.\begin{quote}石油輸出国機構(OPEC)$\rightarrow$OPEC\end{quote}この置き換えが適用できる条件は\begin{itemize}\item括弧内の語がその前の語より短かい,かつ\item括弧内の語が1形態素からなる\end{itemize}である.以上の2つの条件を満たす場合についてのみ,括弧の前の語句を括弧内の語句へ言い換える.次に,(2)は括弧の中の語句が付加的な情報の場合で,例えば,「ダイエー(本社神戸市)」が,複数の記事を並べた中に2度以上出現する場合,括弧内の語句による説明は冗長なので,以下のように置き換える.\begin{quote}ダイエー(本社神戸市)$\rightarrow$ダイエー\end{quote}この置き換えが適用できる条件は\begin{itemize}\item括弧内の語が前に出現した括弧内の語と完全に一致している,または\item括弧内の語が前に出現した括弧内の語に連続した文字列として含まれる\end{itemize}である.以上のいずれかの条件をみたす場合は,括弧内の語句を括弧と共に削除する.(3)は(1)および(2)の適用条件に合致しない場合であり,この場合は特に削除を行わない.具体的には(B)がAと無関係と考えられる場合に相当する.例えば,\begin{quote}した.(関連記事1面に)\end{quote}などがこれに該当する.また,複数記事を要約する場合において,既に説明した形式とは異なる括弧表現のうち,要約文章に含める重要性が低いものがある.例えば,記事冒頭の記者に関する表現と,記事最後の関連記事参照のための表現がある.記者に関する情報は一連の関連記事の大意を把握するための情報としては重要性が低い.また,関連記事参照のための情報は,紙面という媒体の場合に有効な情報であり,利用者が選択した記事群を要約する場合には,重要性は低いと考えた.具体例を以下に示す.\begin{quote}【パリ7日=○○△△】(関連記事1面に)\end{quote}などがこれに該当し,本手法ではこれらの表現を削除する.\subsection{導入部の処理}複数の関連記事を要約する場合,各々の記事は単独に読まれることを想定しているため,記事の前提条件,あるいは,時間経過に関する記述がある.そのため,単一文書の要約手法を各記事に適用し,それらの文書を並べるだけでは,要約文書として冗長な部分を数多く残してしまう可能性がある.そこで,記事の前提条件および時間経過に関する部分は,一連の記事に1つ存在すれば十分であるため,それらの重複部分を特定し,2回目以降を削除する.時間順に並べた一連の記事$A_1,A_2,\cdots,A_n$において,古い記事で記述された内容を新しい記事で再び記述している部分がある.このような部分は,単独の記事としてであれば,経過を知るためなどから必要である.しかし一連の関連記事を要約する立場から考えた場合,それらはすでに既知の事実であり,重複した内容を持つ.このような部分は一般に記事の冒頭にみられ,本研究では導入部と定義する.導入部の定義を以下に示す.\begin{enumerate}\item記事の第1文に存在するものとする.\item文頭から次の表現\footnote{これらの表現は日本経済新聞1990年から1992年の記事を参考に収集した}までの部分\begin{quote}〜したが,〜問題で,〜事件で,〜事故で,〜していたが,〜について\end{quote}ならびに,「名詞+は」の前までの部分のうち最初に出現する表現までとする.\item該当部分が存在しない記事には,導入部が存在しないものとする.\end{enumerate}時間順に並べた一連の記事$A_1,A_2,\cdots,A_n$において,記事$A_i(i\ge2)$の導入部は冗長である場合がある.なぜなら,記事$A_1,A_2,\cdots,A_{i-1}$において導入部と同一の内容が既に\mbox{述べられてい}る可能性があるからである.本手法において,導入部が重複していると判断するための条件を以下に示す.\begin{itemize}\item「〜事件で」,「〜事故で」を含む導入部の場合,導入部に含まれる名詞,動詞の終止形のうち3割以上が$A_1,A_2,\cdots,A_{i-1}$中のある文に含まれる.\itemそれ以外の導入部の場合,導入部に含まれる名詞,動詞の終止形のうち6割以上が$A_1,A_2,\cdots,A_{i-1}$中のある文に含まれる.\end{itemize}以上の条件を満たす導入部が削除される.ただし,「名詞+は」の部分は文の主題を示しており,削除しない.この「名詞+は」の「名詞」の部分は,「は」の直前の形態素から名詞,読点,なかぐろ点(・),接頭辞,接尾辞,および「名詞+と」のいずれかであるかぎり前方へたどり,特定する.また,導入部に含まれる括弧内の形態素ならびに導入部内の数詞は考慮しない.上記の条件は,記事間の関連性が十分であると仮定できる場合は,「〜事件で」,「〜事故で」を含む導入部は名詞の一致度合が低くとも削除すべき場合が多いという事実に基づき割合を小さくした.一般に名詞の一致度合が低い場合,他の記事とは異なる名詞を用いて同一事象を指していることが多い.また,「〜事件で」,「〜事故で」以外の表現を含む導入部では形態素の一致割合を6割以上としている.その理由は,予備実験として割合を徐々に小さくする実験を行い,6割より小さくなると,不自然になる場合が観察されたためである.導入部処理は次のアルゴリズムに従う.ただし,ここで$A_1,A_2,\cdots,A_n$は既に時間順に並べられているとする.\begin{quote}入力:記事$A_1,A_2,\cdots,A_n$出力:記事$A_1,A_2,\cdots,A_n$\begin{description}\item[Step1]$i:=n$\item[Step2]$i$が$1$より大きければStep2.1〜2.4を繰り返す\item[Step2.1]記事$A_i$の導入部の特定\item[Step2.2]導入部がなければStep2.4へ\item[Step2.3]記事$A_1,A_2,\cdots,A_{i-1}$内の各文と記事$A_i$の導入部を比較し,削除のための条件を満足するならば,その導入部を削除\item[Step2.4]$i:=i-1$,Step2へ\item[Step3]終了\end{description}\end{quote}\subsection{その他の処理}その他の処理では,以上の要約処理に含まれない処理を行う.処理の内容を以下に示す.\begin{enumerate}\item各記事の最後に「解説〜面に」があればこれを削除する.\item各記事を先頭から調べて行き,「数詞+日」が出現せずに「同日」という表現が出現した場合,それ以前に出現した「数詞+日」が削除されている.そのため,「同日」から前方にたどり,既に削除された部分の中から一番最初に出現する「数詞+日」を「同日」と置換する.\end{enumerate}(2)のような省略の回復は他にも考えられるが,本手法では重要である日付の情報のみを扱う.
\section{評価実験}
\label{評価実験}本論文で提案する手法を計算機上に実装し,アンケートによる評価を行った.まず,本手法をCPU:PentiumII300MHz,メモリ:128MBのPC/AT互換機上にPerl言語を用いて実装した.形態素解析器には形態素解析システムJUMAN3.5を使用した.JUMANの辞書ならびに設定には変更を加えず,システムの既定値のまま使用した.また,形態素解析に誤りが含まれていた場合にも,解析結果を修正せずに用いた.実験には日本経済新聞の1990年と1992年の記事を使用した.なお,本研究の手法を構築するために1990年から1992年の記事を参考にしているが,参考に使用した記事とは異なる関連記事を新たに抽出した.関連記事群はあらかじめ27記事群を抽出しておいた(平均記事数4.7,最大9,最小3).\subsection{実験結果}あらかじめ形態素解析しておいた記事を入力として実験した結果,各記事群を要約する時間は平均0.8秒(形態素解析時間を除く)であり,平均要約率は82.1\%であった.\subsection{評価方法}自然言語処理システムにおける評価の問題は機械翻訳の分野で古くから扱われている\cite{Margaret96}.自動要約の分野では,単一文書を対象とした研究の多くが,人間が生成した要約文章と自動要約結果を比較し,再現率および適合率を評価尺度とした評価が主に行われてきた\cite{Okumura98}.しかし,人間が生成した要約文章も,要約を行う人間の視点などによって要約結果が大きく異なることが十分に考えられる.つまり,原文に対して要約が唯一存在するわけではない.しかしながら,複数の人間が削除による要約を行った場合に,そのうちの大部分の人間が削除する部分を考えることはできる.そこで,自動要約結果の評価を複数の人間によって行うことは自然である.山本らは18人の被験者に対してアンケートを行っている\cite{Yamamoto95a}.山本らのアンケートは要約結果全体に対して,その自然さ,内容の適切さ,および修飾句省略の適切さを問うものである.しかし,これでは適用した要約技法のうち,どれが有効なのかがわかりにくい.本研究では要約文章と原文を比較し,(1)要約文章中で削除すべき箇所,(2)要約システムが削除した部分において削除すべきではない箇所を評価者に自由に指摘させるアンケートを行った.\subsection{アンケート調査}アンケートに使用した記事群は,実験のために用意した27記事群のうち要約率が90\%以下の記事群(21記事群)から任意に6記事群を選択した.選択した記事群の概要を付録\ref{6記事群の概要}に示す.選択した記事群の平均要約率は74.5\%である(最小:56.0\%,最大:83.1\%).調査対象としたのは大学工学部学生11人である.アンケート実施の前に,本手法の概要および想定状況等を説明し,元記事も第一段落のみであることを説明した.想定状況として\begin{itemize}\item関連記事検索結果に対して使用すること,\item記事は利用者が見出しなどをもとに決定すること,\itemそのため,記事間の関連性は十分だと仮定できること,\item利用者は見出しなどにより記事の大雑把な概要はある程度把握していること,よって,さらに詳細な情報を得るために要約システムを使用するということ,\item要約システムは記事の概要,すなわち見出しよりも詳しいが第一段落よりも短かいものを出力することを目的としていること\end{itemize}を説明した.また,本手法が重複部・冗長部を特定し,それらを削除することによって要約を行うことも説明した.アンケートへは記事の日付,見出し,文章(要約/原文)を出力してある.調査は,(1)要約結果のうち,さらに削除すべきだと思う部分を自由に指摘する.(2)計算機が削除した部分のうち,削除すべきではないと思う部分を自由に指摘する.以上を6記事群それぞれについて自由に行う形式で調査を行った.評価にかける時間を限定せず自由に評価させた.\subsection{アンケート結果}\label{アンケート結果}指摘部分は完全に一致した場合のみを数えあげた.例えば,$C_1$$C_2$$C_3$$C_4$$C_5$という文字列に対して,評価者Aが$C_2$から$C_4$を指摘し,評価者Bが$C_1$から$C_5$を指摘した場合,$C_2からC_4$を共有していることになるが,両者は異なる部分として数え上げた.まず,アンケートに用いた記事群に対して適用した本手法の内訳を以下に示す(()内は総数に対する割合)\footnote{今回の実験では重複文処理による削除は含まれていなかった}.\begin{itemize}\item推量文処理:4箇所(6.9\%)\item住所表現処理:15箇所(25.9\%)\item人名・地名の説明処理:11箇所(19.0\%)\item括弧の処理:9箇所(15.5\%)\item導入部の処理:19箇所(32.8\%)\end{itemize}総数:58\noindent{\bf[冗長さの指摘]}指摘箇所総数:101箇所内訳:\begin{tabular}{l|lllllll}重複人数&1&2&3&4&5&6&7\\頻度&56&16&11&6&6&3&3\\\end{tabular}\vspace*{3mm}平均重複人数:2.1\vspace*{3mm}重複人数とは何人の評価者が同一の部分を指摘したかを示し,頻度は指摘された箇所の数を示す.\vspace*{5mm}\noindent{\bf[削除不適切の指摘]}指摘箇所総数:13内訳:\begin{tabular}{l|lll}重複人数&1&2&3\\頻度&8&3&2\\\end{tabular}\vspace*{3mm}平均重複人数:1.5\vspace*{3mm}指摘された13箇所の内訳(()内はその重複人数)\begin{itemize}\item推量文処理:4箇所(3)(2)(1)(2)\item住所表現処理:2箇所(1)(1)\item導入部処理:7箇所(1)(2)(3)(1)(1)(1)(1)\end{itemize}
\section{議論}
\label{議論}\subsection{手法の妥当性}まず,冗長さの指摘から考察する.ここで,重複人数が評価者の半数以上である6箇所についてみてみると,\begin{enumerate}\item記事冒頭の「〜とされた」までの部分(1箇所)\item記事冒頭の「悪質な犯行で大きな社会的関心を呼んだ」という部分(1箇所)\item他の記事の文と部分的に一致している部分(1箇所)\item形態素解析誤りにより,人名の処理ができなかった部分(1箇所)\item括弧の処理に関する部分(2箇所)\end{enumerate}という構成になっている.(1)は導入部として考慮すべき表現である.なぜならば,「〜とされた」はすでに過去にあった事実を述べており,導入部としての資格を十分に持っている.(2)はいわゆる連体修飾節に該当し,表層情報のみを用いる本手法で対応することは困難である.(3)は\ref{重複文処理}節にて述べたように,本手法では文の一部の重複に対して対応していないため,当然の結果である.これに表層情報のみを用いる手法で対応するためには山本らが提案する節照合処理\cite{Yamamoto96}などが適用できる.(4)は形態素解析結果において人名となるべき形態素が地名と解析されたために生じたものであり,現状の形態素解析器では頻出する誤りである.これを避けるために「地名+容疑者」や「従業員,地名〜」という明らかに人名を示す表現がその形態素の近隣にある場合には人名として処理するヒューリスティックスを適用すればよい.(5)は該当箇所が2箇所あるが,これは2種類にわけることができる.1つは括弧の中に括弧表現がある場合であり,システムがこのような入れ子の括弧表現に対応していなかったために生じた.これは直ちに対応可能である.もう一方は「関税貿易一般協定・多角的貿易交渉(ガット・ウルグアイ・ラウンド)」と「ガット・ウルグアイ・ラウンド(関税貿易一般協定・多角的貿易交渉)」と表現されていた場合に指摘されている.これは現状の手法では対処できないが,このような表現は言い換えに相当するため,より短かい表現である「ガット・ウルグアイ・ラウンド」に統一すべきであり,この実現は容易である.以上から,(2)と(3)を除いて,容易に修正できることがわかる.次に削除不適切の指摘について検討する.以下に,削除不適切として指摘された13箇所すべてが,いずれの処理によるものかを示す.()内の数字は重複人数を示す.\begin{enumerate}\item導入部処理「〜について」1箇所(1)\item導入部処理「名詞+は」6箇所(1)(1)(1)(1)(2)(3)\item住所表現処理2箇所(1)(1)\item推量文「〜ようだ」1箇所(3)\item推量文「〜なろう」2箇所(2)(1)\item推量文「〜そうだ」1箇所(2)\end{enumerate}(1)は1箇所を1人が指摘している.これは「〜について」という部分が削除されたために,どのような話題についての記事なのかがわかりにくく感じた結果,削除不適切であると指摘したと推察する.また,アンケートにおける想定状況が十分に伝わっていなかったために,そのように感じた可能性もある.(2)は6箇所について指摘されているが,関係する導入部は2箇所(以下,a.,b.とする)であり,それぞれ,その中で3箇所ずつ指摘されている.a.は「名詞+は」の直前に「〜による」があり,「名詞+による」が欠如したため不自然に感じたと推察される.ここを指摘した人は1人であるが,必要性が十分に認められるならば,導入部に含まれる「名詞+による」を残して削除するようにすることは容易である.次にb.は「名詞+は」の直前に「名詞+の」があり,「名詞+は」のみでは情報が不十分であるとして指摘したと推察される.対処法として,「名詞+は」の直前に「名詞+の」がある場合は,これも含めて残すことがあげられる.(3)の住所表現処理は一連の記事の冒頭の記事であり,住所表現のみを手掛りに削除したため不適切と感じたようである.この住所表現内には見出しに含まれる地名が存在し,削除すると不自然になる.したがって,一連の記事の冒頭記事において,住所表現内の形態素が見出しに含まれる場合はその住所表現を残すべきである.(4)の推量文処理は「超伝導超大型粒子加速器(SSC)」という固有名詞が含まれており,推量文の形式としては削除に該当する.しかし,これを削除しないためには,従来の単一文書に対する要約の際に用いられてきた文に対する重要度などを用いて,このような固有名詞を含む文は重要であると評価するなどの対応が必要である.また,この推量文は一連の記事の冒頭記事に含まれ,それ以降この記述に関連した記述がないため,削除するのは不適当であるとの指摘もあった.(5)の推量文は2箇所指摘されているが,推量文としてシステムが削除した部分は1箇所のみである.この推量文は「〜おり,…なろう」という形式であり,「〜おり,」までの前半を指摘した人が2人,後半の「…なろう」までを含めて推量文を指摘した人が1人となっている.確かに前半の「〜おり」は事実を伝えているため,(4)と同様に重要性を評価する指針とあわせて今後検討する必要がある.(6)の推量文処理は一連の記事の最終記事の最後の文を削除したものであり,一連の記事の最後の推量文は残すべきだとの意見があった.以上から推量文処理は,文の形式からの判断はおおむね妥当であり,これ以上の改善のためには,文の重要度を判断する基準を導入する必要があると考える.また,住所表現は冗長部であるため,評価者によって評価にゆれが生じる可能性がある.だが,今回の評価実験結果より複数関連記事の概要を把握する上では,住所表現の重要性はほとんど存在しないと結論づけられる.以上の評価実験結果から,本論文で提案した手法はおおむね妥当である.\subsection{要約率と記事の関係}本手法を適用して得た記事群の要約率は,元の記事群に含まれる重複部・冗長部の割合に依存する.要約率が大きい記事は,本論文で定義した重複部・冗長部を含まない記事であり,それ以上に要約が困難な記事である.逆に,要約率が小さい記事は,重複部・冗長部を多く含む記事であり,それらが本手法により削除される.評価実験結果から,本手法が重要性の高い情報を削除せず重要性の低い情報のみを削除するという要約の要件を満たしていると言える.そのため,記事が重複部・冗長部を多く含む,含まないによらず,本手法によって妥当な要約を行うことができる.また,どのような記事に対しても本手法を適用することは可能である.しかし,その要約率は既に述べたように,記事の内容により大きく変化する.これは,本手法の限界を意味するが,重複部削除という本手法の目指す処理は正しく機能している.重複部・冗長部を多く含む記事として,特定の事件・事故に関する記事を挙げることができる.評価実験においても,ある事件の記事群に対して55\%程度の要約率を達成することができた(付録\ref{ex_summary}).逆に関連記事群によっては,重複部・冗長部をほとんど含まない記事群があり,要約率は90\%台後半にとどまる.評価実験において,我々が抽出した記事群の中に総務庁が毎月発表する完全失業者数に関する記事群があり,それに該当する.しかしながら,一般に,特定の事件・事故などについてその経過,概要などを求めることは比較的多いと予想できる.したがって,要約の要求が存在する記事の多くに対して,本手法は有効に機能すると言える.
\section{おわりに}
新聞の関連複数記事を1つの文書へと要約するために重複部・冗長部を削除する手法を提案し,実験を行った.その結果,新聞記事は重複部・冗長部の削除によって,要約率80\%程度に要約可能であることがわかった.また,アンケートによる評価の結果,本手法による削除はおおむね自然であり,本手法が削除する箇所はおおむね妥当であることがわかった.また,重複部・冗長部の削除処理はヒューリスティックスで実現可能であり,その多くは本論文で提案した手法によって実現される.評価実験において,対処が困難な推量文表現も明らかになったが,これらに対しては従来用いられてきた重要文に関する指針\cite{Okumura98}が利用可能であると考える.重要文に関する指針をどのように本手法に反映させるかは今後の課題である.\acknowledgment日本経済新聞の記事について,本論文への引用許可を頂いた(株)日本経済新聞社に深謝する.また,本研究の一部は文部省科学研究費特定領域研究B(2)および(財)国際コミュニケーション基金の援助を受けて行った.\appendix
\section{要約例}
\label{ex_summary}以下に\ref{要約手法}節にて説明した手法による要約例を示す.網かけ(\shadedbox{})をしてある部分が要約システムによって削除された部分である.この要約の要約率は56.0\%である.\begin{enumerate}\item記事1[92年2月13日]\\見出し:北海道警,「○○○○」から4億1000万,恐喝の会社社長ら逮捕.\\北海道警捜査四課と豊平署は十二日,廃バッテリー回収設備の工事をめぐって九〇年四月と十一月ごろ東証一部上場の化学会社○○○○(本社・札幌市,○○△社長)から現金三億四千万円を脅し取ったり,七千万円の債権を放棄させていた\shadedbox{北海道}\shadedbox{○○}\shadedbox{町}\shadedbox{□町}\shadedbox{一三四}\shadedbox{,}廃品回収業「□□」社長,□□▼▼容疑者(51)と\shadedbox{○○}\shadedbox{市}\shadedbox{△}\shadedbox{△町}\shadedbox{八}\shadedbox{,}無職●▽▽容疑者(55)の二人を恐喝容疑で逮捕した.\item記事2[92年2月18日]\\見出し:○○○○恐喝事件で道警,■■前道議を逮捕.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{高圧}\shadedbox{ガス}\shadedbox{,}\shadedbox{産業}\shadedbox{機器}\shadedbox{メーカー}\shadedbox{「}\shadedbox{○○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{)}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}道警捜査四課と札幌・豊平署は十七日,恐喝の疑いで新たに\shadedbox{○○}\shadedbox{管内}\shadedbox{○○}\shadedbox{町}\shadedbox{□□}\shadedbox{二}\shadedbox{,}前道議■■◎◎容疑者(56)を逮捕した.同事件の逮捕者は三人となった.\item記事3[92年2月20日]\\見出し:■■前道議を送検,○○○○恐喝事件.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{化学}\shadedbox{会社}\shadedbox{「}\shadedbox{○}\shadedbox{○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{,}\shadedbox{社長}\shadedbox{○○}\shadedbox{△}\shadedbox{氏}\shadedbox{)}\shadedbox{が}\shadedbox{廃}\shadedbox{バッテリー}\shadedbox{回収}\shadedbox{設備}\shadedbox{の}\shadedbox{工事}\shadedbox{を}\shadedbox{めぐって}\shadedbox{現金}\shadedbox{約}\shadedbox{三億四千万}\shadedbox{円}\shadedbox{を}\shadedbox{脅し取ら}\shadedbox{れたり}\shadedbox{工事}\shadedbox{代金}\shadedbox{の}\shadedbox{債権}\shadedbox{(}\shadedbox{約}\shadedbox{七千万}\shadedbox{円}\shadedbox{)}\shadedbox{を}\shadedbox{放棄}\shadedbox{さ}\shadedbox{せ}\shadedbox{られて}\shadedbox{いた}\shadedbox{事件}\shadedbox{で}道警捜査四課と札幌豊平署は十九日,恐喝容疑で逮捕した\shadedbox{前}\shadedbox{道議}\shadedbox{の}■■◎◎容疑者\shadedbox{(}\shadedbox{56}\shadedbox{)}\shadedbox{=}\shadedbox{○○}\shadedbox{管内}\shadedbox{○○}\shadedbox{町}\shadedbox{□□}\shadedbox{二}\shadedbox{=}を札幌地検に送検した.同課は○○○○恐喝の中で■■容疑者が果たした役割などを本格的に追及,事件の解明を急ぐ.\item記事4[92年2月23日]\\見出し:○○○○恐喝,新たに会社社長逮捕.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{化学}\shadedbox{メーカー}\shadedbox{,}\shadedbox{「}\shadedbox{○○○○}\shadedbox{」}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}道警捜査四課と札幌・豊平署は二十二日,新たに\shadedbox{○○}\shadedbox{市}\shadedbox{△△}\shadedbox{三}\shadedbox{丁目}\shadedbox{,}会社社長,●●□□容疑者(43)を恐喝の疑いで逮捕した.同事件の逮捕者はこれで四人目となった.\item記事5[92年3月5日]\\見出し:○○○○恐喝,前道議ら3人起訴——札幌地検,余罪裏付け急ぐ.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{高圧}\shadedbox{ガス}\shadedbox{,}\shadedbox{産業}\shadedbox{機器}\shadedbox{メーカー}\shadedbox{「}\shadedbox{○}\shadedbox{○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{)}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}札幌地検は四日,恐喝罪で\shadedbox{北海道}\shadedbox{□□}\shadedbox{郡}\shadedbox{○○}\shadedbox{町}\shadedbox{△△}\shadedbox{二}\shadedbox{,}\shadedbox{前}\shadedbox{北海道}\shadedbox{議会}\shadedbox{議員}\shadedbox{,}■■◎◎\shadedbox{(}\shadedbox{56}\shadedbox{)},\shadedbox{同}\shadedbox{郡}\shadedbox{○○}\shadedbox{町}\shadedbox{□□}\shadedbox{□}\shadedbox{八四}\shadedbox{,}\shadedbox{廃品}\shadedbox{回収}\shadedbox{業}\shadedbox{,}□□▼▼\shadedbox{(}\shadedbox{51}\shadedbox{)},\shadedbox{○○}\shadedbox{市}\shadedbox{△}\shadedbox{△町}\shadedbox{八}\shadedbox{ノ}\shadedbox{八}\shadedbox{,}\shadedbox{無職}\shadedbox{,}●▽▽\shadedbox{(}\shadedbox{55}\shadedbox{)}の三容疑者を起訴した.\item記事6[92年4月8日]\\見出し:○○○○恐喝で札幌地検,●被告を追起訴.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{高圧}\shadedbox{ガス}\shadedbox{,}\shadedbox{産業}\shadedbox{機器}\shadedbox{メーカー}\shadedbox{「}\shadedbox{○○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{)}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}札幌地検は七日,先に恐喝罪で起訴していた\shadedbox{○○}\shadedbox{市}\shadedbox{□}\shadedbox{□町}\shadedbox{八}\shadedbox{ノ}\shadedbox{八}\shadedbox{,}\shadedbox{無職}●▽▽被告\shadedbox{(}\shadedbox{55}\shadedbox{)}を同罪で追起訴し,事件の捜査を終了した.被害総額は約七億四千万円となった.\end{enumerate}
\section{評価実験のアンケートで用いた6記事群の概要}
\label{6記事群の概要}\begin{enumerate}\item「○○○○」恐喝事件\\構成記事数:6,要約率:56.0\%\itemマドンナ写真集,税関で審査\\構成記事数:4,要約率:77.5\%\itemフィリピン・ミンダナオ島で国軍の一部将兵が反乱\\構成記事数:5,要約率:82.5\%\item東京都の母子ひき逃げ事件\\構成記事数:5,要約率:80.4\%\item大阪,奈良での連続放火事件\\構成記事数:6,要約率:68.3\%\item日米首脳会談\\構成記事数:7,要約率:83.1\%\end{enumerate}\bibliographystyle{jnlpbbl}\bibliography{v06n6_02}\begin{biography}\biotitle{略歴}\bioauthor{大竹清敬}{1998年豊橋技術科学大学大学院修士課程修了.現在,同大学大学院博士後期課程電子・情報工学専攻に在学中.自然言語処理,特に情報検索,自動要約の研究に従事.言語処理学会,情報処理学会,人工知能学会,各学生会員}\bioauthor{船坂貴浩}{1998年豊橋技術科学大学大学院修士課程知識情報工学専攻修了}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).同年よりATR音声翻訳通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N05-01
|
\section{はじめに}
LR構文解析法は,構文解析アルゴリズムとして最も効率の良い手法の一つである.LR構文解析法の中でも,横型探索で非決定的解析を行うことにより文脈自由言語の扱いを可能にした方法は一般化LR法(GLR法)と呼ばれ,自然言語処理および,音声認識で利用されている.また,LR法の構文解析過程に確率を割り当てることで,確率言語モデルを得ることができる.確率一般化LR(PGLR)モデル\cite{inui1998},およびその一般化であるAPGLRモデル\cite{akiba2001}は,構文解析結果の構文木の曖昧性解消や,音声認識の確率言語モデル\cite{nagai1994,imai1999,akiba2001}として利用されている.LR構文解析法では,文法が与えられた時点であらかじめ計算できる解析過程を先に求め,LR解析表(以下,LR表)で表しておき,文解析時に利用する.LR法は,言わば,空間効率を犠牲にする(LR表を作成する)ことによって,解析時間の効率化を実現する手法である.LR法を実際の問題に適用する場合の問題点の一つは,文法の規則数増加に伴うLR表のサイズの増大である.計算機言語の解析\cite{aho1986},自然言語の解析\cite{luk2000},音声認識\cite{nagai1994},それぞれの立場からこの問題点が指摘されている.LR表のサイズを押えるひとつの方法は,解析効率を犠牲にして空間効率をある程度に押える方法である.本来LR法が利用されていた計算機言語用の構文解析においては,LR法は決定的解析器として利用されてきた.決定的解析としてのLR法が扱える文法は,文脈自由文法のサブセットである.LR表は,その作り方から幾つかの種類に分類されるが,それらは決定的解析で扱える言語に違いがある.単純LR(SimpleLR;SLR)表は,作り方が単純で表サイズを小さく押えられるが扱える文法の範囲が狭い.正準LR(CannonicalLR;CLR)表は,サイズは非常に大きくなるが扱える文法の範囲は最も広い.両者のバランスを取るLR表として,サイズを小さく押えつつ扱える文法の範囲をそこそこ広くとれる,LALR(LookAheadLR)表が提案されている.一方,文脈自由文法を扱う自然言語処理でLR表を利用する場合は,非決定的解析として利用するのが普通である.決定的解析で扱える言語の大きさは,非決定的解析での解析効率に相当する.すなわち,SLR,LALR,CLRの順に効率は良くなるが,それに伴い表のサイズは増大する.また,計算機言語に用いるLR表のサイズ圧縮手法には,2次元配列としてのスパースな表をいかに効率よく圧縮するかという視点のものも多い.これらは,作成後の表を表現するデータ構造に工夫を行ったもので,表自体が運ぶ情報には違いがない.自然言語処理の分野でも,解析表縮小の手法が提案されている.田中らは,文脈自由文法と単語連接の制約を切り放して記述しておき,LRテーブル作成時に2つの制約を導入する手法(MSLR法)\cite{tanaka1995}を用いることで,単独の文脈自由文法を記述するより解析表のサイズを小さくすることができたと報告している\cite{tanaka1997}.Lukらは,文法を小さな部分に分割して,それぞれを扱うパーザを組み合わせることで,解析表のサイズを押える方法を提案している\cite{luk2000}.以上の従来手法をまとめると,次の3つの手法に分類できる.\begin{enumerate}\item処理効率を犠牲にして空間効率を稼ぐ方法.\item表のデータ構造を工夫して記憶量を引き下げる方法.\item文法の記述方法を工夫してより小さな表を導出する方法.\end{enumerate}本稿では,LR表のサイズを圧縮する,上記の3分類には当てはまらない新規の手法を提案する.提案法は従来の手法と異なり,LR表作成アルゴリズムの再検討を行い,解析に不要な情報を捨象することによって,表の圧縮を実現する.本手法は,次のような特徴を持つ.(1)上記の従来の縮小手法とは手法の軸が異なるため,どの手法とも同時に適用可能である\footnote{ただし,MSLR法\cite{tanaka1995}との同時適用には,表作成に若干の修正が必要である.MSLR法では,提案法で解析に不要とする情報の一部を利用しているためである.MSLR法への対応方法ついては,付録.Bで述べる.}.(2)入力文の構文木を得るという自然言語処理用途において,提案法は解析時の効率に影響をあたえることはない\footnote{計算機言語の構文解析では,解析時に規則に付随するアクション(プログラム)を実行することが要求される.提案法による圧縮LR表では適用されるCFG規則は解析時に動的に求まるので,規則から付随するアクションを検索する処理の分オーバーヘッドが生じる.入力文から構文木を得ることを目的とする自然言語処理用途では,このオーバーヘッドは生じない.}.(3)従来の表作成および解析アルゴリズムへの変更個所は小さく,プログラムの軽微な修正で適用可能である.特に,提案法によって作成された圧縮LR表は,既存のLR構文解析プログラムでほぼそのまま利用可能である.本稿の構成は以下の通りである.まず\ref{ss:base}節で,提案法の基本原理を説明する.また,提案法の性質を考察する.続く\ref{ss:experiment}節では,提案法の実装方法と,実際の文法に提案手法を適用した実験結果を示す.\ref{ss:extension}節では,提案手法の限界を克服するための拡張方法について述べ,実際の文法に適用した結果を報告する.\ref{ss:related}節では,関連研究について述べる.
\section{LR解析表の圧縮}
\label{ss:base}本稿で提案するLR解析表の圧縮方法について,その原理と性質について述べる.\subsection{提案法の基本原理}\label{sec:basic}LR構文解析法は,LR表と,スタック,先読み語を参照し,次の動作を決定する.LR表は,文法が与えられた時点であらかじめ計算できる構文解析過程を表したものである.LR表の作成(付録.A参照)には,構文解析中のある状態を表すデータ構造として,LR項(LRItem)を用いる.LR項とは,ある生成規則(CFG規則)の右辺の記号列中のある位置にドット`・'を付けたデータ構造である.ドットは,記号列のどの部分まで解析が進んだかを表す.下記のLR(0)項\footnote{説明では,LR(0)項を用いるが,提案法は,LR(1)項にも適用可能である.すなわち,SLR,LALR,CLRなどのLR表の種類に依らず適用可能である.}は,生成規則$A\rightarrow\alpha$において,$\alpha$の先頭部分列$\beta$まで解析が終了し,その後記号列$\gamma$を解析する必要がある状態を表す.\begin{quote}$[A\rightarrow\beta\cdot\gamma]$\end{quote}$\beta$や$\gamma$は空記号列の場合も含まれる.例えば,生成規則$A\rightarrowB_1B_2B_3$に対して,$[A\rightarrow\cdotB_1B_2B_3]$,$[A\rightarrowB_1\cdotB_2B_3]$,$[A\rightarrowB_1B_2\cdotB_3]$,$[A\rightarrowB_1B_2B_3\cdot]$の4つのLR項が考えられる.このように,従来のLR表で用いられるLR項は規則毎に作成され,LR項だけで解析中の規則とその解析位置,解析された記号列($\beta$)およびこれから解析すべき記号列($\gamma$)を特定することができる.一方,LR構文解析法では,解析途中の状態を表現するデータ構造として,解析済の(終端および非終端)記号を記憶する解析スタックが併用される(文脈自由言語を受理するプッシュダウン・オートマトンのスタックに相当する).上の例のLR項が表す状態では,解析スタックには,記号列$\beta$が,スタックトップから逆順に保持されているはずである.例えば,LR項$[A\rightarrowB_1B_2\cdotB_3]$が表す状態では,スタックは$[...B_1,i,B_2,j]$(ただし,$i,j$は状態番号,スタックトップは右)となる.したがって,すでに解析済の記号列は,LR項と解析スタックに重複して記載されており,冗長である.そこで,LR項から冗長な解析済記号列$\beta$の記号情報を捨象することが可能となる.ここで,捨象可能なのは,記号情報だけで,記号数の情報は保持する必要があることに注意されたい.解析スタックには,解析済の記号がその記号が属する規則に関係なくフラットに保持される.スタック$[...,B_1,i,B_2,j,B_3,k]$を見ただけでは,記号$B_3$が規則$A\rightarrowB_3$,$A\rightarrowB_2B_3$,$A\rightarrowB_1B_2B_3$のいずれに属する$B_3$なのか,区別することができない.そこで,LR項が表す解析状態で,スタックトップからいくつの記号がこの規則で解析中かという情報を保持しなければならない.以上のことから,従来のLR項のドットの左側の記号列を抽象化して,その記号の個数で置き換え,新しいLR項とする.すなわち,次のようなLR項を用いる.\begin{quote}$[A\rightarrow|\beta|\cdot\gamma]$\end{quote}ここで,$|\beta|$は,記号列$\beta$の記号数を表すものとする.このLR項を{\bf左方抽象化LR項}と呼ぶことにする.例えば,生成規則$A\rightarrowB_1B_2B_3$に対して,$[A\rightarrow0\cdotB_1B_2B_3]$,$[A\rightarrow1\cdotB_2B_3]$,$[A\rightarrow2\cdotB_3]$,$[A\rightarrow3\cdot]$の4つの左方抽象化LR項が考えられる.LR表は,生成規則集合が与えられた時点で,そこから求められる構文解析時のあらゆる解析途中の状態を抽出し,また各状態間の遷移関係を求めて,状態遷移図(プッシュダウンオートマトン)として表現したものである.ここで解析途中の状態は,LR項の集合(クロージャ)に対応し,規則適用の部分的解析結果(LR項に相当)の複数の可能性(集合)を表している.この時,解析状態の同一性は,クロージャの同一性で判断される.例えば,異なる解析パスから,同一のLR項集合が得られる場合,それらは同じ状態とみなすことができる.クロージャの要素として,従来のLR項の代わりに,不必要な情報が捨象された左方抽象化LR項を用いると,より多くの解析状態(クロージャ)が同一の状態と見なされる.したがって,結果として得られるLR表の状態数が減少し,表のサイズが縮小される.これが提案手法の原理である.\newpage\subsection{圧縮LR表作成アルゴリズム}LR表作成アルゴリズムは,従来のLR項の代わりに,上記の左方抽象化LR項を用いても,新たな処理を加えること無く若干の修正だけで適用できる.以下では,LR表作成手順の[クロージャ][GOTO手続き][LR項集合の集合][LR表の作成]の各手続き(付録.A参照),それぞれについて,修正手続きを示す.(この手法を,{\bf提案法1}と呼ぶ.また提案法1によって作成されたLR表を{\bf圧縮LR表}と呼ぶ.)[クロージャ],[GOTO手続き],[LR項集合の集合]では,LR項のドットの左側を参照する手続きが存在しないので,左方抽象化LR項を用いて,ほぼそのまま,「LR項集合の集合」を作成できる.唯一,ドットの左側の生成・修正の手続きに若干の変更を加える.具体的には,以下の2点を変更する.[クロージャ]作成手続きのステップ2を次のように変更する.\begin{enumerate}\setcounter{enumi}{1}\item$\mbox{closure}(I)$に左方抽象化LR項$[B\rightarrow|\beta|\cdotA\gamma]$があれば,左辺が$A$の全ての生成規則$A\rightarrow\alpha$について,LR項$[A\rightarrow0\cdot\alpha]$を加える.この手続きを新たなLR項が加えられなくなるまで繰り返す.\end{enumerate}また,[GOTO手続き]$\mbox{GOTO}(I,A)$を次のように変更する.\begin{itemize}\item$I$中の,ドットのすぐ右が$B$である全てのLR項$[A\rightarrow|\beta|\cdotB\gamma]$に対し,LR項$[A\rightarrow|\beta|+1\cdot\gamma]$を求め,そのクロージャを返す.\end{itemize}得られたLR項集合の集合から[LR表の作成]において,$\mbox{action}$表への$\mbox{shift}$や$\mbox{accept}$の書き込み,および$\mbox{goto}$表の作成にも変更点はない.一方,$\mbox{reduce}$動作の引数には,従来の生成規則の代わりに,生成記号の左辺記号と右辺記号列の記号数のペアを記述する.すなわち,[LR表の作成]のreduce動作の書き込みを次のように変更する.\begin{itemize}\item$I_i$にLR項$[A\rightarrow|\alpha|\cdot]$が存在するならば,$a\infollow(A)$について,$\mbox{action}(i,a)$に$\mbox{reduce}~~|\alpha|,A$を加える.\end{itemize}このように,修正手続きで作成されるLR表では,reduce動作の引数には生成規則のうち,左辺の記号列の記号情報を捨象した一部の情報しか記述されない.しかし,この情報$|\alpha|$と$A$さえあれば,どの生成規則が適用されたかは,構文解析時に特定可能である点に注意されたい.左辺記号$A$と,解析スタックから$|\alpha|$個の記号をポップすることで得られる記号列$\alpha$から,$A\rightarrow\alpha$と復元可能である.また,提案手法での修正箇所は,既存の表作成アルゴリズム中のある手続きを同等の手続きで置き換えただけであり,新たな手続きの呼び出しは行っていない.したがって,従来の表作成アルゴリズムと同じ計算オーダで作成可能である.\newpage\subsection{提案法の適用例}日本語において,動詞の格を表す句は,語順が自由であり,任意に省略可能であることが多い.次のような日本語を解析する文法(図\ref{fig:g_example})を考える.\begin{quote}太郎が花子にりんごを与える花子に太郎がりんごを与えるりんごを太郎が花子に与える太郎がりんごを与えるりんごを与える与える\end{quote}\begin{figure}\begin{quote}\begin{verbatim}S→PP_HUMAN_gaPP_HUMAN_niPP_OBJECT_woVPS→PP_HUMAN_gaPP_OBJECT_woPP_HUMAN_niVPS→PP_HUMAN_niPP_HUMAN_gaPP_OBJECT_woVPS→PP_HUMAN_niPP_OBJECT_woPP_HUMAN_gaVPS→PP_OBJECT_woPP_HUMAN_gaPP_HUMAN_niVPS→PP_OBJECT_woPP_HUMAN_niPP_HUMAN_gaVPS→PP_HUMAN_niPP_OBJECT_woVPS→PP_OBJECT_woPP_HUMAN_niVPS→PP_HUMAN_gaPP_OBJECT_woVPS→PP_OBJECT_woPP_HUMAN_gaVPS→PP_HUMAN_gaPP_HUMAN_niVPS→PP_HUMAN_niPP_HUMAN_gaVPS→PP_OBJECT_woVPS→PP_HUMAN_niVPS→PP_HUMAN_gaVPS→VPPP_HUMAN_ga→NP_HUMANがPP_HUMAN_ni→NP_HUMANにPP_OBJECT_wo→NP_OBJECTをNP_HUMAN→太郎NP_HUMAN→花子NP_OBJECT→りんごNP_OBJECT→本VP→与えるVP→渡す\end{verbatim}\end{quote}\caption{文法例}\label{fig:g_example}\end{figure}この文法から,従来の表作成アルゴリズムと,提案法による表作成アルゴリズムによってつくられたGOTOグラフの一部(記号`S'を左辺に持つ規則の集合に相当する部分)を,それぞれ図\ref{fig:goto},図\ref{fig:r_goto}に示す.従来法では,規則右辺に現れる記号列の文脈によって異なる状態が作成されるため,木の形に分岐したグラフが作成される.一方提案法では,記号列の文脈によらずに後方部分がマージされたグラフが作成され,状態数が32から12へ大幅に減少することが分かる.\begin{figure}\begin{center}\leavevmode\epsfile{file=goto2.eps,scale=1.0}\caption{従来法によるGOTOグラフ}\label{fig:goto}\end{center}\end{figure}\begin{figure}\begin{center}\leavevmode\epsfile{file=r_goto2.eps,scale=1.0}\caption{提案法によるGOTOグラフ}\label{fig:r_goto}\end{center}\end{figure}\subsection{提案法の効果と解析効率}\label{ss:quality}提案法の効果と効率について,その性質を考察する.\subsubsection{圧縮の効果}LR項においてドットより左方の記号列が記号数へと抽象化されることにより,従来異なるLR項として認識された以下のような2つのLR項が,同一のLR項として認識されることになる.\begin{quote}$[A\rightarrow\beta_1\cdot\gamma]$~~~,~~~$[A\rightarrow\beta_2\cdot\gamma]$where$|\beta_1|=|\beta_2|$\end{quote}これらから生成されるクロージャも同一のクロージャとなる.すなわち,「LR項集合の集合」作成時に,従来異なる状態(LR項集合)となっていたものが,1つの状態にマージされることになる.よって,最終的なLR表の状態数は減少する.ここで,マージされるLR項が存在するための,文法$G$の必要条件を考察する.上記の同一視される2つのLR項について,$\beta_1$と$\beta_2$以外は等しくなければならない.また,$|\beta_1|=|\beta_2|$,すなわち$|\beta_1\gamma|=|\beta_2\gamma|$である必要がある.以上をまとめると,文法$G$に,以下の条件を満たす規則のペア$A_1\rightarrow\alpha_1$,$A_2\rightarrow\alpha_2$が少なくとも一組以上存在する必要がある.\begin{itemize}\item左辺記号$A_1$,$A_2$が等しい.\item$\alpha_1$と$\alpha_2$の接尾記号列が一致する.すなわち,$\alpha_1=\beta_1\gamma_1$,$\alpha_2=\beta_2\gamma_2$と書けるとき,$\gamma_1=\gamma_2$となる$\gamma_1,\gamma_2$が存在する.\item$|\alpha_1|=|\alpha_2|$\end{itemize}このような規則のペアが,文法$G$中に多く存在するほど,提案法による状態数の削減の効果は大きい.\subsubsection{解析の効率}圧縮LR表を用いて構文解析を行った場合の効率について考える.提案法は,すでに解析済の情報(ドットの左側の記号情報)だけを捨象する.これから解析する部分(ドットの右側の記号情報)には手を加えない.提案法によって状態の統合が行われた場合,統合後の状態(クロージャ)は以前の状態と同数のLR項を持ち,それぞれのLR項のこれから解析する部分(ドットの右側の記号情報)も等しい.したがって,統合後もその後の解析の処理量は等しく,構文解析の効率は悪くならない.\newpage
\section{実装と実験}
\label{ss:experiment}\subsection{実装}提案法を実装するには,LR表作成プログラム,構文解析プログラムの修正が必要となる.しかし以下に示す通り,既存の処理系のわずかな個所の修正で実装可能である.\subsubsection{LR表}圧縮LR表では,従来のLR表と比べ,唯一reduce動作の引数の意味が変更になる.従来のLR表では,reduce動作の引数には生成規則を指定する.実際には,規則へのポインタ(規則番号)が記述される.一方,圧縮LR表では,生成規則から右辺の記号情報を捨象した情報,すなわち「左辺記号と右辺の記号数」(へのポインタ)である.あらかじめ存在する生成規則のリストとは異なり,「左辺記号と右辺の記号数」のリストは表作成のために新規に導入する概念である.厳密に実装するならば,LR表作成プログラムでこのリストを新規に作成し,構文解析プログラムとの間でこのリストを共有しなければならない.しかし,「左辺記号と右辺の記号数」は生成規則の一部であることを利用して,reduceの引数に「左辺記号と右辺の記号数」の条件を満たす任意の規則番号を記述し代用することで,リストの受け渡しを避けることが可能である.\subsubsection{LR表作成プログラム}提案法で用いる左方抽象化LR項は,次のような方法によって,既存のLR表作成プログラムに比較的容易に導入することが可能である.左方抽象化LR項は,文法に現れない記号$X$を$|\beta|$個ドットの左に書くことでも表現できる.例えば,$|\beta|=2$とすると,次のように書ける.\begin{quote}$[A\rightarrowXX\cdot\gamma]$\end{quote}このようなLR項表現は,従来のLR項と容易に交換可能である.GOTO手続きにおいて,LR項のドットを右へ一つ移動する時に,飛び越えた記号を$X$で置き換えるように変更するだけで,従来法に組み込むことができる.\subsubsection{構文解析プログラム}「左辺記号と右辺の記号数」リストの参照を除けば,圧縮LR表は,従来のLR構文解析アルゴリズムでそのまま利用可能である.また多くの実装系では,読み込んだ規則集合のうち,実際の解析に利用する「左辺記号と右辺の記号数」だけを保持するものが多いため,提案法の実装は極めて容易である.実際,MSLRパーザ\cite{mslr1998}では,LR表読み込み部分の若干の修正で動作可能となった.また,LR法を利用した音声認識システムniNja\cite{itou1992}では,全く修正の必要はなくそのまま動作可能であった.\subsection{実験}\label{sec:exp1}提案法の効果を調べるため,3種類の文法から従来法と提案法1でLR表を作成し,表のサイズを比較した.比較には,LR表(およびGOTOグラフの)状態数,表中の空欄でないセルの数を表すエントリ数,を用いた.文法「道案内1」「道案内2」は,道案内対話\cite{itou1999}に現れるユーザの発話をモデル化した文法で,音声認識用に設計された\cite{akiba2001}.語彙サイズはどちらも約380,規則数はそれぞれ616,1302である.「道案内2」は,「道案内1」に比べて,意味的に整合性のある文だけを受理するように,より強い制約を加えた文法である.文法「旅行会話」は,ATR研究用自然発話音声データベース\cite{morimoto1994}旅行会話タスクの発話を受理するように記述した文法である\cite{imai1999}.語彙サイズは2839,規則数3971と,文法1,2に比べて大規模な文法である.また,自然言語処理用途に開発されており,入力文に対して構文的に可能な数多くの構文木を割り当てる.提案法1でLR表を作成し,その性質を調べた.結果を表\ref{tbl:state}に示す.すべての文法について,LR表圧縮の効果が得られていることがわかる.LR表のサイズは,「道案内1」「道案内2」に関しては約60\,\%前後に,「旅行会話」に関しては約1/4まで圧縮することができた.文法の規則数が大きいほど圧縮率が大きくなる傾向が見られるが,これは規則数が増えることで,\ref{ss:quality}節で述べた性質を満たす規則対の候補が増えることに起因すると考えられる.また,作成したLR表を用いてテキスト解析の実験を行ったが,従来のLR表を使った場合と全く同じ結果が得られ,解析時間にも差は認められなかった.\begin{table}\caption{LR表圧縮の効果}\label{tbl:state}\begin{center}\begin{tabular}{|l|l|r|r|r|r|r|}\hline&文法&\multicolumn{2}{c|}{道案内1}&\multicolumn{2}{c|}{道案内2}&\multicolumn{1}{c|}{旅行会話}\\\cline{2-7}&LR表タイプ&\multicolumn{1}{c|}{SLR}&\multicolumn{1}{c|}{CLR}&\multicolumn{1}{c|}{SLR}&\multicolumn{1}{c|}{CLR}&\multicolumn{1}{c|}{SLR}\\\cline{2-7}&規則数&\multicolumn{2}{c|}{616}&\multicolumn{2}{c|}{1,302}&\multicolumn{1}{c|}{3,971}\\\hline従来法&状態数&703&876&2,079&3,530&4,017\\&エントリ数&13,689&15,164&21,092&29,698&10,054,708\\\hline&状態数&444&568&757&1,815&935\\提案法1&(圧縮率)&(63.2\,\%)&(64.8\,\%)&(36.4\,\%)&(51.4\,\%)&(23.3\,\%)\\(左方抽象化LR項)&エントリ数&8,031&9,155&12,282&18,669&2,250,317\\&(圧縮率)&(58.7\,\%)&(60.4\,\%)&(58.2\,\%)&(62.9\,\%)&(22.4\,\%)\\\hline&状態数&404&518&669&1,600&842\\提案法2&(圧縮率)&(57.5\,\%)&(59.1\,\%)&(32.1\,\%)&(45.3\,\%)&(21.0\,\%)\\(可変長LR項)&エントリ数&7,111&8,132&10,435&16,345&1,978,521\\&(圧縮率)&(51.9\,\%)&(53.6\,\%)&(49.5\,\%)&(55.0\,\%)&(19.7\,\%)\\\hline\end{tabular}\end{center}\end{table}
\section{更なる圧縮のための改良手法}
\label{ss:extension}\ref{ss:quality}節で述べたように,(1)規則左辺の記号が同じ,(2)右辺の接尾部分が共通,(3)右辺の記号数が同じ,の3条件を満たす規則の組が文法中に多く現れるほど,提案法の効果は大きい.このうち,(3)右辺記号数の条件は,改善の余地がある.本節では,この条件を克服するための拡張方法について述べる.\subsection{可変長LR項}ドットの左側に記号数が必要なのは,reduce動作時にスタックからポップする要素数を記録するためである.この要素数は,LR表にreduce動作の引数として,静的に記述される.しかし,このポップ要素数は解析時に動的に求めることもできる.そこで,図\ref{fig:stack}のように,この情報をスタックに保持することを考える.すなわち,reduce動作の際,スタックに保持された区切り位置までポップするような構文解析アルゴリズムを考える.\begin{figure}\begin{center}\leavevmode\epsfile{file=stack2.eps,scale=1.0}\caption{区切り付きスタック}\label{fig:stack}\end{center}\end{figure}このような区切りをスタックに入れるようなLR表はどのように生成すればよいだろうか.区切りは,規則右辺の最初の記号をスタックに積む時に挿入すればよい.すなわち,LR項\begin{quote}$[A\rightarrow\cdotB\alpha]$\end{quote}からGOTO手続きによって,LR項\begin{quote}$[A\rightarrowB\cdot\alpha]$\end{quote}を生成する際に,スタックに挿入すればよい.ドットが最左にある場合の,次の状態への遷移(すなわち,shift動作やgoto)の場合に,スタックに区切りを挿入する.注意すべきなのは,ある状態(クロージャ)に,ドットのすぐ右の記号が同じで,ドットが最左のものと規則途中にあるものの,2つ以上のLR項が含まれている場合があることである.すなわち,次のような2つのLR項が,同じクロージャ$I$に含まれている可能性がある.\begin{quote}$[A\rightarrow\cdotB\alpha]$~~~,~~~$[A\rightarrow\beta\cdotB\gamma]$\end{quote}この場合,前者(ドットが最左のもの)と後者(ドットが途中のもの)からの,記号$B$による遷移($\mbox{GOTO}(I,B)$)を別に扱うことを考える.例えば,前者を記号$B_{\mbox{start}}$による遷移,後者を記号$B_{\mbox{cont}}$による遷移とし,$\mbox{GOTO}(I,B_{\mbox{start}})$と$\mbox{GOTO}(I,B_{\mbox{cont}})$を別々に計算する.このように変更したGOTOグラフでは,もはやLR項にドット左の記号数は必要ない.ただし,ドットが最左であるか,途中であるかの区別は必要となる.ドットが途中にある場合のLR項を,次のようなドット左方可変長のLR項で表すことにする.\begin{quote}$[A\rightarrow*\cdot\gamma]$\end{quote}記号$*$は,長さ1以上の記号列があることを表す.このようなLR項を用いることで,ドット左方の記号列に関する情報がさらに抽象化され,GOTOグラフ作成時の状態数がさらに減少することが期待できる\footnote{ただし,GOTO手続きの記号を場合別けしたことによって,状態数が増加するため,全体としてかならずしも状態数減少になるとは限らない.}.LR表生成アルゴリズムに必要な変更点は,以下の通りである.(この変更を行った手法を{\bf提案法2}とする.){\flushleft\bf[GOTO手続き]}\begin{itemize}\item$I$中の,ドットのすぐ右が$B$であるLR項$[A\rightarrow\cdotB\gamma]$すべてに対し,LR項$[A\rightarrow*\cdot\gamma]$を求め,そのクロージャを$\mbox{GOTO}(I,B_{\mbox{start}})$の返り値とする.また,LR項$[A\rightarrow*\cdotB\gamma]$に対し,LR項$[A\rightarrow*\cdot\gamma]$を求め,そのクロージャを$\mbox{GOTO}(I,B_{\mbox{cont}})$の返り値とする.\end{itemize}{\flushleft\bf[LR項集合の集合]}\begin{enumerate}\setcounter{enumi}{1}\item$C$の各LR項集合$I$,$G'$のある記号$A$,$s\in\{\mbox{start},\mbox{cont}\}$について,$\mbox{GOTO}(I,A_s)$を計算し,LR項集合$I'$を求め,$C$に加える.この手続きを,$C$に新たなLR項集合が加えられなくなるまで繰り返す.\end{enumerate}{\flushleft\bf[LR表の作成]}\begin{itemize}\item終端記号$a$と,$s\in\{\mbox{start},\mbox{cont}\}$について,$\mbox{GOTO}(I_i,a_s)=I_j$ならば,$\mbox{action}(i,a)$に$\mbox{shift}~s,j$を加える.\item非終端記号$A$,$s\in\{\mbox{start},\mbox{cont}\}$について,$\mbox{GOTO}(I_i,A_s)=I_j$ならば,$\mbox{goto}(i,A)$に$s,j$を加える.\end{itemize}構文解析アルゴリズムに必要な変更は,以下の3点である.\begin{itemize}\itemshift動作とgoto時に,LR表の記述に従い,スタックに区切り記号を挿入する.\itemshift動作とgoto時に,shift/shiftコンフリクト,goto/gotoコンフリクトを扱えるようにする.実装は,GLR法によるshift/reduceコンフリクト,shift/reduceコンフリクトの扱いと同様に,スタックを分岐させればよい.\itemreduce動作の際,従来の固定数ポップ動作の代わりに,スタックの最初の区切り記号までポップする.\end{itemize}\subsection{実験}\ref{sec:exp1}節で用いた3種類の文法から,提案法2を用いてLR表を作成した.実験結果を表\ref{tbl:state}に示す.LR表のサイズをさらに10\,\%程度縮小できることを確認した.また,音声認識システムniNja\cite{itou1992}に提案法2の解析アルゴリズムを実装し,従来法と同じ解析結果が得られることを確認した.
\section{関連研究}
\label{ss:related}\subsection{共通記号列のまとめ処理}生成規則($A\rightarrow\alpha$)に対し右辺記号列($\alpha$)中のある位置にドット`・'を付けたデータ構造($A\rightarrow\beta\cdot\gamma$,ただし$\alpha=\beta\gamma$)は,項(Item)と呼ばれ,構文解析中に規則のどこまで解析が進んだかを表すために,本稿で述べたLR項の他,Earley法\cite{earley1970}やチャート法\cite{key1980}など,種々の構文解析アルゴリズムで共通に利用されている.本稿で示した手法は,LR法においてItem以降の解析がドットの左側(右辺記号列のprefix,$\beta$)には依存しないことを利用し,ドットの右側の記号列(右辺記号列のsuffix,$\gamma$)が共通なものをまとめあげることによって,LR表の圧縮を実現したと考えることができる.同様に,Itemのドット左右の記号列について複数の規則の間で共通する記号列をまとめて処理することによる,解析の効率化手法が知られている.本稿の提案法のように,ドットの右側の記号列($\gamma$)が共通なItemをまとめて扱う手法が提案されている.文献\cite{leermakers1992}では,Earley法においてItem以降の解析がドットの右側の記号列($\gamma$)のみに依存し,ドットの左側($\beta$)や生成規則左辺の記号($A$)には依存しないことを利用して,これらを重複処理しないことによる効率化手法が示されている.文献\cite{moore2000}では,同様の手法をチャート法に適用している.逆に,ドットの左側の記号列($\beta$)が共通なItemをまとめて処理する手法としては,LR法が挙げられる.LR法では,共通なprefixを持つ複数のItemをまとめて解析の一状態とするようにLR表を作成することで,解析の効率化を実現している.文献\cite{nederhof1994}では,この考え方を進めて,共通のprefixをもつ規則をすべてまとめて処理する手法が示されている.また,共通したprefixを持つ2つ以上の規則を持たないように文法を変形することによって効率化を行なう手法も提案されている\cite{moore2000}.\subsection{可変な規則長の扱い}本稿の提案法2では,ドット左側の記号数情報を捨象した可変長LR項の導入のため,reduce動作時にスタックからポップする記号数を動的に求める必要があった.そのために,GOTO手続きを規則の解析開始か途中かによって別々に計算する手法を示した.同様の考え方は,規則の右辺に記号の正規表現を許した拡張CFG(正規右辺文法)を扱うLR構文解析法として提案されている\cite{nederhof1994,purdom1981}.正規右辺文法では,規則の右辺に合致する記号数を予め知ることができないので,解析時に動的に求める必要があるためである.
\section{結論}
解析に使用するLR表の大きさが問題であったLR構文解析法について,表作成に用いられる基本データ構造(LR項)の見直しを行うことにより,LR表の状態数を減少させ,サイズを圧縮する手法について述べた.提案法を実際の文法に適用したところ,規則数500〜1500程度の文法に対しては元のサイズの60\,\%程度,規則数4000の文法に対しては25\,\%程度に圧縮できることを確認した.提案法は,従来のLR表作成アルゴリズム,解析アルゴリズムに大きく手を加えることなく実装可能であるとともに,解析効率に影響を与えることもない.また,提案法を拡張し圧縮率を改善する手法を検討した.アルゴリズムへの変更個所は増加するが,実験結果ではさらに10\,\%程度サイズを圧縮できることを確認した.本研究により,これまで解析表のサイズの問題でLR法の適用が困難であった分野,例えば大規模な文法を用いた自然言語処理や音声認識,また計算資源(記憶容量)に制限がある環境(例えば,モバイル用途)での使用などにおいて,効率の良いLR法を適用する機会が増えると考えられる.\acknowledgment本稿の実験には,東工大田中・徳永研究室で開発されたMSLRパーザ\cite{mslr1998}および文法を使用した.また,本手法に関して御討論いただいた田中・徳永研究室の皆様に感謝する.\bibliographystyle{jnlpbbl}\bibliography{427}\appendix
\section{LR表作成手順}
LR表は,文法が与えられた時点であらかじめ計算できる構文解析過程を表したものである.LR構文解析法におけるパーザは,このLR表と,スタック,先読み語,を参照し,次の動作を決定する.LR表には,SLR(SimpleLR),LALR(Look-AheadLR),CLR(CanonicalLR),などの幾つかのバリエーションがあり,これらは決定性解析で扱える言語の範囲に違いがある.以下,説明のためLR表の作成法を簡単に述べる.詳細は文献\cite{aho1986,tanaka1989}等を参照されたい.LR項は,LR表作成に使用するデータ構造であり,構文解析中のある状態を表すものである.SLR表作成にはLR(0)項を,CLR表作成にはLR(1)項を用いる\footnote{LALR表作成には,LR(0)項,LR(1)項それぞれから作成する手法が知られている.}.LR(0)項とは,ある生成規則の右辺の任意の位置にドットを付けたデータ構造である.ドットは,規則中のどの部分まで解析が進んだかを表す.下記のLR(0)項は,生成規則$A\rightarrow\alpha$において,$\alpha$が$\beta\gamma$と書けるとき,$\beta$まで解析が終わった状態を表している.\begin{quote}$[A\rightarrow\beta\cdot\gamma]$\end{quote}LR(1)項とは,ドット付き生成規則と,1つの先読み語(終端記号)からなるデータ構造である.下記のLR(1)項は,同様に$\beta$まで解析が終わった状態を表し,さらに1つの先読み語$a$を持つ.$a$は,直感的には,この生成規則適用の直後に現れる先読み語を表す.\begin{quote}$[A\rightarrow\beta\cdot\gamma,a]$\end{quote}以降の説明では,LR(0)項を用いてSLR表を作成する場合について考えるが,LR(1)項からCLR表を作成する場合も,先読み語の計算が付け加わるだけで,ほぼ同様に求めることができる.{\flushleft\bf[クロージャ]}クロージャ(closure)とは,LR項の集合であり,あるLR項集合$I$が与えられると,以下の手続きでクロージャ$\mbox{closure}(I)$を求めることができる.\begin{enumerate}\item$I$の全要素を$\mbox{closure}(I)$に加える.\item$\mbox{closure}(I)$にLR項$[B\rightarrow\beta\cdotA\gamma]$があれば,左辺が$A$の全ての生成規則$A\rightarrow\alpha$について,LR項$[A\rightarrow\cdot\alpha]$を加える.この手続きを新たなLR項が加えられなくなるまで繰り返す.\end{enumerate}クロージャとは,直感的には,あるLR項の表す解析状態と同時に現れ得る全てのLR項を,あらかじめトップダウンに展開して求めたものである.{\flushleft\bf[GOTO手続き]}GOTO手続き$\mbox{GOTO}(I,B)$は,アイテム集合$I$と記号$B$から,新しいアイテム集合を次のように求める.\begin{itemize}\item$I$中の,ドットのすぐ右が$B$である全てのLR項$[A\rightarrow\beta\cdotB\gamma]$に対し,ドットを一つ右に移動したLR項$[A\rightarrow\betaB\cdot\gamma]$を求め,そのクロージャを返す.\end{itemize}直感的には,構文解析のある状態$I$で,$B$が得られたときの,次の状態を求めている.{\flushleft\bf[LR項集合の集合]}上記クロージャ,GOTO手続きを用いて,ある拡大文法\footnote{開始記号を$S$とする文法$G$に対して,新しい開始記号$SS$と生成規則$SS\rightarrowS$を追加して得られる文法を,$G$の拡大文法という.}$G'$から,LR項集合の集合$C$を次の手順で求める.\begin{enumerate}\item初期のLR項集合を$\mbox{closure}({[SS\rightarrow\cdotS]})$とし,$C$に加える.\item$C$の各LR項集合$I$,$G'$のある記号$A$に対して,$\mbox{GOTO}(I,A)$を計算し,LR項集合$I'$を求め,$C$に加える.この手続きを,$C$に新たなLR項集合が加えられなくなるまで繰り返す.\end{enumerate}{\flushleft\bf[LR表の作成]}「LR項集合の集合」$C$の各状態(すなわちLR項集合)は,LR表の1状態に対応する.LR表は,状態$i$と終端記号$a$からパーザの動作を決める表$\mbox{action}(i,a)$と,$i$と非終端記号$A$から状態$j$を決める表$goto(i,A)$から成る.$C$の各LR項集合$I_i$について,次の手順でLR表を作成することができる.\begin{itemize}\item$I_i$にLR項$[A\rightarrow\alpha\cdot]$が存在するならば,終端記号$a\in\mbox{follow}(A)$について,$\mbox{action}(i,a)$に$\mbox{reduce}A\rightarrow\alpha$を加える.$\mbox{follow}(A)$は,ある記号の次に現れ得る終端記号を計算する手続き.\item$I_i$にLR項$[SS\rightarrowS\cdot]$が存在するならば,$\mbox{action}(i,\$)$に$\mbox{accept}$を加える.\item終端記号$a$について,$\mbox{GOTO}(I_i,a)=I_j$ならば,$\mbox{action}(i,a)$に$\mbox{shift}j$を加える.\item非終端記号$A$について,$\mbox{GOTO}(I_i,A)=I_j$ならば,$\mbox{goto}(i,A)$に$j$を加える.\end{itemize}\subsection*{LR構文解析法}LR構文解析法は,解析スタックのトップに積まれているLR表状態,次の入力語(先読み語)から,action表を参照して,次のように解析を進める.\begin{itemize}\item$\mbox{shift}i$:先読み語と状態$i$をスタックにプッシュする.先読み語を一つ読み進める.\item$\mbox{reduce}A\rightarrow\alpha$:スタックから$2|\alpha|$個ポップし,その時のスタックトップの状態$j$を用い,スタックに非終端記号$A$と$\mbox{goto}(j,A)$をプッシュする.\item$\mbox{accept}$:入力を受理\end{itemize}
\section{MSLR法への適用}
MSLR法\cite{tanaka1995}は,文脈自由文法から生成したLR表に,形態素の接続可能性を表した接続表の制約を組み込む手法である.終端記号$a$と$b$の接続可能性を使って,LR表から次のような動作を削除することで,接続表を組み込むことができる.\begin{quote}動作Actの直前に実行する動作がshiftで,そのshiftの先読み語が$a$,Actの先読み語が$b$であるとき,$a$と$b$が接続不可ならActを削除する.\end{quote}この手法を可能にするためには,shift直後の状態が,その先読み語($a$)毎に分節されていなければならない.しかし,提案法のLR表では,shift直後の状態では,直前の先読み語($a$)の情報は抽象化されてしまい,その結果,先読み語($a$)毎に分節された状態にはならないため,MSLR法をそのまま導入することはできない.この問題を解決するためには,提案手法においてドットのすぐ左の終端記号を抽象化しないようにすればよい.すなわち,次のようなLR項を導入する.\begin{quote}$[A\rightarrow|\beta|a\cdot\gamma]$($a$が終端記号の場合)$[A\rightarrow|\betaA|\cdot\gamma]$($A$が非終端記号の場合)\end{quote}このようなLR項からLR表を作成すると,終端記号の直後のshift動作で遷移する状態については,終端記号毎に分節された状態となり,MSLR法の適用が可能となる.\begin{biography}\biotitle{略歴}\bioauthor{秋葉友良}{1990年東京工業大学理学部情報科学科卒業.1995年同大学院総合理工研究科システム科学専攻博士課程了.同年,電子技術総合研究所入所.2001年,産業技術総合研究所.現在,情報処理研究部門主任研究員.博士(工学).自然言語処理,音声認識,音声対話の研究に従事.}\bioauthor{伊藤克亘}{博士(工学).1993年,電子技術総合研究所入所.2003年,名古屋大学大学院情報科学研究科助教授.現在に至る.音声を主とした自然言語全般に興味を持つ.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V23N01-02
|
\section{はじめに}
場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある.オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため,この商品説明文から商品の属性-属性値を抽出し構造化された商品データを作成する属性値抽出技術は実世界でのニーズが高い.ここで「商品説明文から商品の属性値を抽出する」とは,例えばワインに関係した以下の文が入力された時,(生産地,フランス),(ぶどう品種,シャルドネ),(タイプ,辛口)といった属性と属性値の組を抽出することを指す.\begin{itemize}\itemフランス産のシャルドネを配した辛口ワイン.\end{itemize}\noindentこのような商品の属性値抽出が実現できれば,他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析\footnote{商品を購入したユーザの属性情報と組み合わせることで「30代女性にフランス産の辛口ワインが売れている」といった分析ができる.}等が可能になる.商品の属性値抽出タスクは従来より多くの研究がなされており,少数のパターンにより属性値の獲得を試みる手法\cite{mauge2012},事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法\cite{ghani2006,probst2007,putthividhya2011,bing2012,shinzato2013},トピックモデルにより属性値を獲得する手法\cite{wong2008}など様々な手法が提案されている.本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである.タスクに内在する研究課題を洗い出すため,属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果のFalse-positve,False-negative事例の分析を行った.エラー分析という観点では,Shinzatoらがワインとシャンプーカテゴリに対して得られた結果から無作為に50件ずつFalse-positive事例を抽出し,エラーの原因を調査している\cite{shinzato2013}.これに対し本研究では5つの商品カテゴリから20件ずつ商品ページを選びだして作成した100件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.システムのエラー分析を行い,システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデータに対して商品属性値抽出タスクに内在するエラーのタイプを調査し,カテゴリ化を行った研究は筆者らの知る限りない.後述するように,今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これはDistantsupervision\cite{mintz2009}に基づく情報抽出手法で行われるタグ付きコーパス作成処理と見なすことができる.したがって,本研究で得られた知見は商品属性値抽出タスクだけでなく,一般のドメインにおける情報抽出タスクにおいても有用であると考えられる.
\section{分析対象データ}
\label{corpus}楽天データ公開\footnote{http://rit.rakuten.co.jp/opendataj.html}より配布されている商品データから,論文\cite{shinzato2013}を参考に,ワイン,シャンプー,プリンターインク,Tシャツ,キャットフードカテゴリに登録されている商品ページを無作為に20件ずつ,計100件抽出した.そして,抽出したページをブロック要素タグ,記号\footnote{【,】,。,?,!,♪,※,●,○,◎,★,☆,■,□,▼,▽,▲,△,◆,◇,《,≫,≪.ただし,これらが括弧内(「」,『』)に出現している場合は区切らない.}を手がかりに文に分割した.\begin{table}[b]\caption{対象カテゴリ,対象属性および対象データの規模.商品ページ数は各カテゴリ共に20件.}\label{attributes}\input{02table01.txt}\end{table}カテゴリ毎に分析対象とした属性を表\ref{attributes}に示す.これらの属性は論文\cite{shinzato2013}で抽出対象とされたものに以下の修正を加えたものである.\begin{itemize}\item同じ意味を表す属性名を人手で統合した.\item誤った属性を人手で削除した.\itemブランド名,商品名,メーカー名などの重要な属性が抽出対象となっていなかったので,これらを分析対象として加えた.\end{itemize}続いて,各商品ページのタイトル,商品説明文,販売方法別説明文に含まれる属性値を1名の作業者によりアノテーションした.アノテーション時には,後述する\ref{dictbuild}節の方法で作成した属性-属性値のリストを提示し,これらと類似する表現をアノテーションするよう依頼した.また.アノテーションにあたり作業者に以下の点を指示した.\begin{description}\item[長い表現をとる]属性値を$v$,任意の語を$w$とした時,表現「$w$の$v$」が属性値として見なせる場合,$w$もまた属性値として見なせる場合であっても「$w$の$v$」を1つの属性値としてアノテーションする.例えば「フランスのブルゴーニュ産ワインです」という文があった場合,「フランス」,「ブルゴーニュ産」をそれぞれアノテーションするのではなく,「フランスのブルゴーニュ産」をアノテーションする.\item[記号で区切る]記号を挟んで属性値が列挙されている場合は別々にアノテーションする.例えば,「フランス・ブルゴーニュ産ワインです」という文があった場合,記号「・」で区切り,「フランス」,「ブルゴーニュ産」をそれぞれアノテーションする.ただし固有名詞(e.g.,「カベルネ・ソーヴィニョン」),数値(e.g.,「3,000ml」),サイズ(e.g.,「$19.5\times24.1\times8.0$cm」),数値の範囲(e.g.,「10〜15cm」)の場合は例外とし,記号があっても区切らない.\item[括弧の扱い]括弧の直前,中にある表現が共に属性値と見なせる場合は別々にアノテーションする.例えば「ブルゴーニュ(フランス)のワインです.」の場合,「ブルゴーニュ」,「フランス」を個別にアノテーションする.一方,「シャルドネ(100\%)」の場合は,「シャルドネ(100\%)」をアノテーションする.\end{description}\noindent以上の作業により得られた分析対象データの規模を表\ref{attributes}の文数および属性値数列に示す.カテゴリ毎に文数およびアノテーションされた属性値数に差があることがわかる.\begin{figure}[b]\begin{center}\includegraphics{23-1ia2f1.eps}\end{center}\caption{商品ページ中に含まれる半構造化データ(枠で囲まれた部分)}\label{semi-structured-data}\end{figure}
\section{商品の属性値抽出システム}
\label{system}本節では商品の属性値を商品説明文から抽出するシステムについて述べる.本研究で用いる情報抽出システムは,オンラインショッピングサイト上の商品データの特徴を考慮したものであるため,まず商品データの特徴について整理する.\subsection{商品データの特徴}オンラインショッピングサイト上の商品データの特徴として以下の点が挙げられる.\begin{enumerate}\item商品カテゴリ数が多い.\item一部の商品ページには表や箇条書きなどの形式で整理された属性情報が含まれている.\end{enumerate}\noindent一般にオンラインショッピングサイトの商品カテゴリ数は多く,例えば,今回分析対象とした楽天では4万以上のカテゴリが存在する.そのため,それぞれのカテゴリにおいて学習データを準備することはとてもコストの高い作業となるため現実的ではない.その一方で,一部の商品ページにおいては,図\ref{semi-structured-data}に挙げたように商品の属性情報が表や箇条書きなどを使って整理されている場合がある.これら半構造化データはショッピングサイトに出店している店舗ごとにその形式が異なるものの,いくつかのパターンを用いれば,そこから属性-属性値情報をある程度の精度で抽出することができる.例えば,Shinzatoら\cite{shinzato2013}は簡単な正規表現パターンを適用することで,ワインとシャンプーカテゴリに対して70\%程度の精度で属性-属性値辞書が構築できたと報告している.\subsection{抽出システム}タスクに内在する研究課題を明らかにするためには,少なくとも2つの方法が考えられる.1つは複数のシステムを同じデータで実行し,多くのシステムがエラーとなる事例の分析を通してタスクの研究課題を明らかにする方法である.もう1つはシステムがシンプルでどのような動きになっているかをグラスボックス的に分析できるものを実行し,その結果を基に課題を明らかにする方法である.今回の商品属性値抽出タスクは,標準的なタグ付きコーパスや属性値抽出のためのソフトウェア等が公開されているわけではないため,多くのシステムを実行させることは現実的ではない.そこで,今回のエラー分析は2つ目の方法により行った.具体的には,商品ページに含まれる半構造化データから属性-属性値辞書を自動構築し,この辞書を使った辞書マッチによって商品ページのタイトル,商品説明文,販売方法別説明文から属性値を抽出する.この辞書マッチに基づくシステムは,辞書に属性値が登録されているか否かで属性値の抽出を行うためエラーの原因の特定が容易である.このような単純なシステムのエラー分析を行うことで,このタスクに含まれるエラーのタイプおよびその割合が明らかとなり,この結果は複雑なシステムを実装する際も,その素性の設計や重みの調整などに役立つと考えられる.近年,図\ref{flow-of-ds}に示すようなDistantsupervisionに基づく情報抽出手法が多く提案されている\cite{mintz2009,wu2010,takamatsu2012,ritter2013,xu2013}.これらはFreebaseやWikipediaのInfoboxなどの人手で整備された辞書を活用してテキストデータに対し自動でアノテーションし,これを訓練データとして抽出規則を学習する.本手法でFreebaseやWikiepdiaのInfoboxを用いない理由は,これら辞書にはオンラインショッピングで有用となる商品の属性-属性値が記述されていない商品カテゴリが多く,教師データを自動構築する際の辞書データとしては利用できないためである.\begin{figure}[t]\begin{center}\includegraphics{23-1ia2f2.eps}\end{center}\caption{Distantsupervisionの流れ}\label{flow-of-ds}\end{figure}本手法は単純なものであるが,これはDistantsupervisionにおける初期タグ付きデータ作成部分に相当する(図\ref{flow-of-ds}の破線の部分).多くの手法では,この後,固有表現抽出と組み合わせたフィルタリングや,統計量を用いたフィルタリング等の処理を行ってタグ付きコーパスからFalse-positive,False-negativeを減らすように工夫している\cite{roth2013}.そのため,本研究で得られたエラー分析の結果は商品の属性値抽出のみならず,Distantsupervisionに基づく一般の情報抽出タスクにおいても,どのようなエラーについて後続のフィルタリング処理で考慮しないといけないのかを示唆する有用な知見になると考えられる.以下,属性-属性値辞書の構築方法,および辞書に基づく属性値抽出方法について述べる.\subsubsection{属性-属性値辞書の構築}\label{dictbuild}属性-属性値辞書の構築はShinzatoらの手法\cite{shinzato2013}に基づいて行った.この手法は「属性-属性値の抽出」,「同じ意味を持つ属性の集約」の2つの処理からなる.\vspace{1\Cvs}\noindent\textbf{属性-属性値の抽出}前述したように一部の商品ページには表や箇条書きなどの半構造化データが含まれており,辞書の構築にはこれらのデータを利用する.まずドメイン特有の属性を得るため,正規表現パターン$<$TH.*?$>$.+?$<$/TH$>$を使って表のヘッダーから属性を獲得する($<$TH$>$は表のヘッダーを表すHTMLタグ).獲得された属性のうち「保存方法」「その他」「商品説明」「広告文責」「特徴」「仕様」は適切な属性と見なせないため除く.続いて属性-属性値の組を抽出するため,以下の正規表現パターンを商品ページに適用し,[ANY]にマッチした表現を[ATTR]に対応する属性の値として抽出する.\newpage\begin{description}\item[P1:]$<$T(H$|$D).*?$>$[ATTR]$<$/T(H$|$D)$><$TD.*?$>$[ANY]$<$/TD$>$\item[P2:][P][ATTR][S][ANY][P]\item[P3:][P][ATTR][ANY][P]\item[P4:][ATTR][S][ANY][ATTR][S]\end{description}\noindentここで[ATTR]は事前に獲得しておいた属性を表す文字列,[ANY]は任意の文字列,[P]は○,●,◎,□,■,・,☆,★,【,<,[のいずれかの文字,[S]は:,/,】,>,]のいずれかの文字を表す.なおP4において,[ANY]は最初に出現した[ATTR]の値とする.抽出された属性-属性値の組に対して,それらを表や箇条書きなどの形式で記述した店舗の異なり数を計数する.この店舗の異なり数を以降では店舗頻度と呼ぶ.この店舗頻度が高いほど抽出された属性-属性値が正しい関係にあることが報告されており\cite{shinzato2013},次節で述べる属性値抽出システムでは,店舗頻度を用いて属性値の曖昧性解消を行っている.\vspace{1\Cvs}\noindent\textbf{同じ意味を持つ属性の集約}前述の方法で抽出した属性-属性値には属性の表記に揺れがある.これは商品データを店舗が記述するための標準的な方法(規則)がないためである.例えば,「イタリア」「フランス」はワインカテゴリにおいて「生産地」であるが,店舗$m_1$は「生産地」,店舗$m_2$は「生産国」として記述することがある.そこでShinzatoらは「属性$a,b$が同一の半構造化データに出現しておらず,$a,b$が店舗頻度の高い同一の属性値をとる場合,$a,b$は同義である」という仮説を用いて表記の揺れた属性の認識・集約を行っている.具体的には,まず,店舗頻度が$N$を超える属性-属性値を対象に,同じ属性値を持つ属性のベクトル($a_1$,$a_2$)を生成する.そして,属性$a_1$,$a_2$が同一の半構造化データに含まれているかどうかチェックし,含まれていなければそれらを同義語と見なす.$N$は$N=\mathrm{max}(2,M_S/m)$で求まる値であり,$M_S$は対象カテゴリにおいて半構造化データを提供している店舗数を表す.$m$は店舗頻度の閾値を決定するパラメータであり,本手法では経験的に100としている.この処理により,例えばワインカテゴリであれば$v_1$=(生産国,生産地),$v_2$=(ぶどう品種,品種)が得られる.得られた属性のベクトルの集合(\{$v_1,v_2,\cdots$\})を$S_{attr}$で表す.続いて,属性ベクトルの集合$S_{attr}$の中で類似度の高い属性のベクトル同士をマージする.例えば,(地域,生産国,生産地)は,(地域,生産国),(生産国,生産地)をマージすることで得られる.ベクトル間の類似度はコサイン尺度で求め,マージ処理は類似度の最大値が0.5を下回るまで繰り返し行う.この閾値0.5は経験的に決定した.\vspace{1\Cvs}\noindent以上の操作を楽天市場のワイン,シャンプー,プリンターインク,Tシャツ,キャットフードカテゴリに登録されている商品データに対して適用した.獲得された属性-属性値をカテゴリ毎に400件無作為に抽出し,正しい関係になっているかどうかを1人の被験者により評価した.獲得された属性-属性値の数,および正解率を表\ref{dicteval}に示す.Tシャツカテゴリで極端に低い精度(43.5\%)が得られたが,それ以外はShinzatoらの報告と同程度,もしくはより高い精度が達成できていることがわかる.最後にワインカテゴリに対して獲得された属性-属性値の例を表\ref{dict}に示す.括弧([~])内の数字は店舗頻度を表す.\begin{table}[b]\caption{属性-属性値の数と正解率}\label{dicteval}\input{02table02.txt}\end{table}\begin{table}[b]\caption{ワインカテゴリに登録された商品データから自動構築した属性-属性値辞書の例}\label{dict}\input{02table03.txt}\par\vspace{4pt}\small[~]内の数字は店舗頻度を表す.\end{table}\subsubsection{属性値の抽出}まず入力文を形態素解析し,属性-属性値辞書中の属性値と最長一致した形態素列を対応する属性の値として抽出する.この時,抽出された属性値からさらに別の属性値を取ることは考えない.また,誤抽出の影響を少なくするため属性値が数値のみからなる場合は抽出しなかった.形態素解析器にはJUMAN~7.01\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}を用いた.一部の表現は複数の属性の値となることがあるため抽出時に曖昧性を解消する必要がある.例えば「55cm」はTシャツカテゴリの属性「身幅」,「着丈」のどちらの値にもなりえる.本システムでは店舗頻度が高いほど自動抽出された属性-属性値の信頼性が高いことに注目し,複数の属性が考えられる場合は店舗頻度の高い属性の値として抽出した.先程の例の場合,(身幅,55cm)の店舗頻度は35,(着丈,55cm)の店舗頻度は7であるため,Tシャツカテゴリでは,表現「55cm」は「身幅」の属性値として常に抽出される.
\section{エラー分析}
\ref{corpus}節で述べたデータに対し属性値の抽出を行った時のTrue-positive/False-positive/False-negativeの事例数および精度(Prec.)と再現率(Recall)を表\ref{tpfpfn}に示す.5カテゴリ中3カテゴリでは,辞書の正解率は80\%に近かったにも関わらず,それらを用いて行った自動抽出の精度は50\%程度であることがわかる.以下では,まず,False-positive,False-negativeの事例について分析し,各エラーを除くためにどのような処理・データが必要となるかを検討する.\ref{chiken}節では,エラー分析を通して得られた知見のうち,Distantsupervisionに基づく一般の情報抽出タスクにおいても有用なものについて考える.\begin{table}[b]\caption{True-positive/False-positive/False-negativeの数および精度と再現率}\label{tpfpfn}\input{02table04.txt}\end{table}\subsection{False-positiveの分析}False-positiveとなった1,057事例について,以下の項目を順次チェックすることで分類を試みた.\begin{enumerate}\item誤った属性-属性値に基づいて属性値が抽出されている\item属性値を抽出するべき商品ページでない\item商品と関係ないパッセージから属性値が抽出されている\end{enumerate}\noindent分類の結果を表\ref{checkitems}に示す.表より誤った辞書エントリに起因する誤抽出が多いことがわかる.各チェック項目の詳細については\ref{check1}節,\ref{check2}節,\ref{check3}節で述べる.チェック項目(1),(2),(3)をパスした抽出結果は,適切な商品ページの適切なパッセージから適切な属性-属性値に基づいて抽出されたものであるにも関わらず誤抽出と判断されたものである.そこで,残った事例を調査し,何が原因なのかを検討した.この結果については\ref{check4}節で述べる.\begin{table}[t]\caption{事前チェック項目の該当事例数}\label{checkitems}\input{02table05.txt}\end{table}\subsubsection{誤った属性-属性値に基づいて属性値が抽出されている}\label{check1}属性値の抽出は商品ページの半構造化データより構築した辞書に基づいて行っている.辞書は自動構築しているため,誤った属性-属性値の組も含まれている.そこでまず,誤った属性-属性値に基づいて抽出された結果であるかどうかを確認した.この項目に該当する事例数は712であり,False-positive事例の67.4\%に相当する.自明ではあるが,高い精度で辞書を構築することが,辞書ベースの情報抽出システムにおいて重要であることがわかる.この項目に該当する事例を減らすためには辞書構築の方法を見直す必要がある.今回は表・箇条書きデータに注目して辞書を構築しているため,辞書構築の精度を改善するためには,商品ページ中のこれら半構造化データの解析をより正確に行う必要があるだろう.また,表・箇条書き以外の手がかり(例えば語彙統語パターン)を取り入れることも辞書構築の精度向上に有効であると考えられる.次に人手でチェックするなどして属性-属性値辞書に含まれる誤ったエントリを削除した場合,辞書マッチに基づく抽出システムの精度がどの程度改善されるのかについて確認する.誤った属性-属性値に基づいて抽出されてしまった事例を除いた後,再度計算したカテゴリ毎の精度を表\ref{estprec}に示す.表\ref{tpfpfn}および表\ref{estprec}を比べると,平均で精度が45.2\%から71.6\%に改善されていることがわかる.この結果から,エントリが全て正しい辞書を用いたとしても3割程度は誤抽出となることがわかる.\begin{table}[t]\caption{エントリが全て正しい辞書を用いた場合の精度}\label{estprec}\input{02table06.txt}\end{table}\subsubsection{属性値を抽出するべき商品ページでない}\label{check2}楽天では商品ページを商品カテゴリに登録する作業は店舗によって行われており,そこには誤りが含まれている.そこで誤って分析対象カテゴリに登録された商品ページかどうかを確認した.誤ったカテゴリに登録されている商品ページは今回のデータセット中に4件\footnote{シャンプーカテゴリにシャンプーの容器,化粧品,Tシャツカテゴリに帽子,キーホルダーが登録されていた.}あり,そこに含まれるFalse-positive事例数は53件(5.0\%)であった.このような誤りを除くためには,与えられた商品ページが商品カテゴリに該当するものであるかどうかを判定する処理が必要である.例えば,村上ら\cite{murakami2012}は辞書に基づく方法で商品ページが正しい商品カテゴリに登録されているかを判定する手法を提案している.このような手法を用いることで,この項目に該当する事例を減らすことができると考えられる.\subsubsection{商品と関係ないパッセージから属性値が抽出されている}\label{check3}商品ページには当該ページで販売している商品以外のことについて記述されることも多い.例えば,商品ページ閲覧者を店舗サイト内で回遊させるために,当該ページで販売されている商品以外の商品の広告を掲載していたり,検索結果に頻繁に表示されるようキーワードスタッフィングが行われている商品ページがある.そこで3番目の項目として,当該ページにて販売されている商品に関係ないパッセージから属性値抽出が行われたかどうかを確認した.結果,99件(9.4\%)の事例がこの項目に該当した.このうち90件は以下のような他の商品へのナビゲーションであった(括弧内はカテゴリ名).\begin{itemize}\itemその他の\underline{シャンパン}$_{タイプ}$&スパーク&ワイン関連はコチラをクリック♪※順次追加中!(ワイン)\item\underline{ミルボン}$_{メーカー}$一覧はこちら(シャンプー)\item色違い”\underline{ナチュラル}$_{色}$”’’THEREAREWAVESNAT’’クルーネックTシャツ(Tシャツ)\item《チャオ缶\underline{国産}$_{原産国}$》(キャットフード)\end{itemize}\noindent他の商品ページへのリンクが埋め込まれているかどうかの確認や,他の商品へのナビゲーションは複数の商品ページに対して設置されることが多いため,商品ページのテンプレートを認識した結果を利用することで,このような事例は減らせるのではないかと考えられる.残りの9件はキーワードスタッフィングが行われた領域から抽出されたものであった.前処理としてキーワードスタッフィングが行われているかどうかを判定することで,これらの事例を削除することが期待できる.\vspace{0.5\Cvs}\subsubsection{残りの誤り事例はどんなものか?}\label{check4}ここまでの項目をパスした抽出結果は,適切な商品ページの適切なパッセージから適切な属性-属性値に基づいて抽出されたものであるが誤抽出となった事例である.このような誤りは193件(18.2\%)あり,これら事例を重複を考慮して分類すると表\ref{error_type_fp}のようになった.\begin{table}[b]\caption{各商品カテゴリにおける誤りの種類とその事例数.}\label{error_type_fp}\input{02table07.txt}\end{table}以下エラータイプ毎に事例を列挙するとともに,エラーを除くために必要となる処理・データについて検討する.\vspace{1.5\Cvs}\noindent\textbf{人手アノテーションと部分一致}人手アノテーションと部分一致している事例が84件あった.このうち以下の例のように正解とみなしても問題ない事例が37件あった(太字が人手アノテーション,下線が自動抽出結果).\begin{itemize}\itemドメーヌ・レ・グリフェは{\bf\underline{ボジョレー}の南}$_{産地}$に位置する歴史あるドメーヌです。\item{\bf\underline{国内}製}$_{製造国}$ヘアケア品\item{\bf薄手の\underline{コットン素材}}$_{素材}$で着心地抜群。\item\underline{表記{\bfL}}$_{サイズ}$\end{itemize}\noindentこれらは「どのような表現を属性値として抽出するか」という属性値の定義と関係している.定義は抽出結果を利用するアプリケーションに依存する部分であり,アプリケーションによっては上に挙げた抽出結果でも問題ない場合がある.そのため,これらはFalse-positiveであるが,ほぼ正解と見なしても問題ないと考えられる.残りの47件中41件はシャンプーの成分に関するものであり,以下の例のように人手アノテーションと部分一致しているものの,これが抽出されても意味をなさないものであった.\begin{itemize}\item2−アルキル−N−カルボキシメチルヒドロキシエチルイミダゾリニウムベタイン、{\bfラウロイルメチル−Β−\underline{アラニン}$_{成分}$NA液}、ヤシ油脂肪酸アミドプロピルベタイン液\end{itemize}\noindentこのような事例は属性-属性値辞書のカバレージを改善することで減らせると考えられる.\vspace{1\Cvs}\noindent\textbf{他のエンティティの部分文字列からの抽出}次に多かった誤りは他のエンティティの部分文字列から抽出している事例であり40件あった.これらはエンティティのタイプから組織名やイベント名,型番,ブランド名などの固有表現,ドメイン固有の用語,一般的な名詞句に分類できた.固有表現の一部から抽出されていた例を示す(太字が固有表現相当の表現).\begin{itemize}\item{\bf\underline{フランス}$_{産地}$革命}の戦いの舞台にもなった歴史あるシャトー。\itemまた、フランスで最も古いAOC、{\bfブランケット・ド・\underline{リムー}}$_{産地}$を産出します。\item醸造方法も{\bfシャトー・\underline{マルゴー}$_{産地}$}と同じ手法をとって、セカンドながらも品質は他の特級シャトーに匹敵するほどです。\item2011年度の{\bfトロフィー・リヨン・\underline{ボジョレー}$_{産地}$・ヌーヴォーコンクール}では見事金賞を受賞!\item1円3個までリピート歓迎CANON(キヤノン)対応の純正互換インクカートリッジBCI−6PM(残量表示機能付)(関連商品{\bfBCI−6\underline{BK}$_{カラー}$}BCI−6CBCI−6MBCI−6YBCI−6PCBCI−6PMBCI−6RBCI−6G)\itemアメリカンイーグル(AMERICANEAGLE)は、{\bf\underline{ABERCROMBIE}$_{ブランド}$&FITCH}(アバクロンビー&フィッチ)と並んで人気のカジュアルブランドで、北米では800店舗の直営店を持っています。\item{\bf\underline{ブラック}$_{色}$メタル}ページ正規ライセンスTシャツ販売\end{itemize}\noindentこのような事例は全部で25件あり,前処理として固有表現認識を行い,固有表現の一部からは属性値を抽出しない,等のルールを適用することで事例を減らすことができると考えられる.ただ,ブランド名等は従来の固有表現タイプではカバーされていないため,従来にはないタイプの固有表現の認識技術が求められる.次にドメイン固有の用語から抽出していた例を示す.\begin{itemize}\item{\bf\underline{ボジョレー}$_{産地}$・ヌーヴォー}2013年(新酒)!\itemパーマ・デジパー(デジタルパーマ)・縮毛矯正ストレートパーマエアウエーブ・{\bf\underline{水}$_{成分}$パーマ}・フィルムパーマなどパーマのウエーブを長持ちさせたい方に。\end{itemize}\noindentこのような例は全部で12件であった.固有表現の場合と同様に,ドメイン毎に専門性の高い用語を抽出するなどし,用語の部分文字列からは属性値を抽出しないなどのルールを設ける必要があると考えられる.最後に名詞句の一部から抽出されていた事例を示す.このような事例は以下の3件であった.\begin{itemize}\item2位にルイ・ロデレール・ブリュット、7位にテタンジュ・ブリュットなど大手の{\bf\underline{シャンパン}$_{タイプ}$ハウス}も名を連ねています。\itemジョエル・ファルメ氏が引き継いだころは、栽培した葡萄を{\bf\underline{シャンパン}$_{タイプ}$メーカー}に売っていましたが、現在は、葡萄の栽培・醸造・瓶詰めまで行うRM(レコルタン・マニピュラン)です。\item{\bf\underline{アメリカ}$_{製造国}$各種機関}で厳しい環境基準をクリアした分解作用で汚れだけを分解してくれるから髪や頭皮を傷めません。\end{itemize}\noindentこれらを除くためには名詞句の構造を解析し,主辞以外の部分からは属性値を抽出しない,等の処理が考えられる.\vspace{1\Cvs}\noindent\textbf{当該商品の属性値の説明とは関係ない記述からの抽出}このような事例は37件あった.以下に例を示す.\begin{itemize}\item\underline{スペイン}$_{産地}$のロマネ・コンティで知られるヴェガ・シシリア社がハンガリーで造るワイン。\item米国ではアメリカンイーグル、アバクロ、\underline{GAP}$_{ブランド}$(ギャップ)は3大アメカジブランドとして、3つとも同じくらいの知名度となっています。\itemM,Lモデル着用サイズ:M(モデル身長:170CM,体重:58KG,ウエスト:72CM,ヒップ:90CM,胸囲:88CM,肩幅:\underline{44CM}$_{肩幅}$,首周り:37CM)\item成猫体重\underline{1KG}$_{内容量}$当り1日約1.4袋を目安として、1日の給与量を2回以上に分けて与えてください。\itemレビューで\underline{5%}$_{粗脂肪}$OFFクーポン!\end{itemize}\noindent上の例からわかるように,ワインはワイナリーに関する記述から,Tシャツはブランドの説明およびモデルの体型に関する記述から,キャットフードはその利用方法やクーポンに関する記述から誤った情報が抽出されている.このような誤抽出を除くためには,商品ページ内の各文が何について言及しているのかといった文中の主題を認識する必要がある.\vspace{1\Cvs}\noindent\textbf{属性値の多義性に起因する誤抽出}このような事例は33件あった.この中で最も多かったタイプはサイズに関する属性値であり,16件であった.以下に例を示す.\begin{itemize}\item着丈59CM、身幅\underline{42CM}$_{肩幅}$、袖幅17CM\item\underline{54.5CM}$_{身幅}$\end{itemize}\noindent1つ目の例のように,サイズに関する情報は属性名とともに属性値が記述されることがあるため,属性名に相当する表現と属性値がどのくらい離れた場所に記述されているか,という指標を考慮することで誤りを減らせる可能性がある.2つ目の例は表のセルに記述されたものであった.そのため,表形式で記述されたデータの理解も重要な処理と考えられる.次に多かったタイプは割合に関する表現であった.このタイプの事例は9件であった.以下にその例を示す.\begin{itemize}\itemピノノワール70%、ピノムニエ\underline{20%}$_{度数}$、シャルドネ10%\item粗たん白質:\underline{4.0%以上}$_{粗脂肪}$、粗脂肪:0.1%以上、粗繊維:0.1%以下、粗灰分:1.0%以下、水分:94.0%以下、エネルギー:約15KCAL/袋\item\underline{0.05%以上}$_{粗脂肪}$\end{itemize}\noindent1つ目の例のように混合比が素材と一緒に併記されることがある.そのため,素材に相当する表現の間に挟まれる割合表現を抽出対象としないことでエラーを減らせると考えられる.サイズ同様,割合についても2つ目の例のように属性名にあたる表現と併記されることがあるため,属性名との距離を考慮することである程度事例数を減らすことが期待できる.また割合も表形式のデータで記述されることがあるため,表データの理解は重要であろう.以下は本来であれば,ワインの属性「タイプ」の値として抽出されるべきであるが,地名として抽出されてしまった例である.\begin{itemize}\itemNYタイムズで、ベスト\underline{シャンパーニュ}$_{産地}$(40ドル以下)に選ばれました。\itemモエ・シャンドン・ドンペリニヨンの最高級品、通称「ドンペリ・ゴールド」最高の葡萄を熟成させ生産量が極めて少なく本場フランスと日本でしか手に入れることのできない究極の「幻の\underline{シャンパーニュ}$_{産地}$」と呼ばれています。\end{itemize}\noindentこのような地名に関係した誤りは3件あり,サイズ,割合表現についで多かった.最初の例は「40ドル以下」,次の例は「幻の」や「フランスと日本でしか手に入れることのできない」という表現から「シャンパーニュ」が「地名」ではなく「タイプ」の意味で使われていることがわかる.このことから,属性値の周辺の語彙を見ることで多義性解消を行う従来手法で解決できそうである.しかし従来手法は機械学習に基づくものが多く,教師データを曖昧性のある属性値ごとに作成するのは膨大なコストがかかる.そのため,教師なし学習に基づく解消方法が求められる.\vspace{1\Cvs}\noindent\textbf{メトニミーに起因する誤抽出}このタイプに該当する事例は5件あり,すべて「ボジョレー」に関するものであった.以下に例を示す.\begin{itemize}\item本物の\underline{ボジョレー}$_{産地}$の味わいを感じさせてくれる、自然派!\item\underline{ボジョレー}$_{産地}$に求める要素をすべて備えていると言っても過言ではありません。\end{itemize}\noindent「ボジョレー」はワインの産地の1つであるが,ここでは産地としてではなく,「ボジョレー産のワイン」という意味で用いられている.上の例は「の味わい」という表現に注目することで「産地」でないことがわかる.その一方で下の例は文単体では「産地」という理解も可能である.しかしながら,当該文の直前の文が「彼らのスタイルは飲み心地が良く、フルーティで果実味が豊か。」であることを考えると「産地」ではないことがわかる.このタイプのエラー事例を減らすには,ある表現がメトニミーなのかどうかを判定する処理が必要であり,さらに2つ目の例のように一文中の情報では判定できない事例もあるため,文を跨いだ解析が求められる.\vspace{1\Cvs}\noindent\textbf{形態素解析器の過分割による誤抽出}形態素解析器により過分割されたために誤って抽出された事例が1件あった.以下に示す.\begin{itemize}\itemトカイ・フルミント・ドライ・マン\underline{デュラス}$_{品種}$[2006](オレムス)\end{itemize}\noindentマンデュラス(mandulas)とはハンガリー語でアーモンドを意味する語である.形態素解析器の辞書にマンデュラスが登録されていなかったため,過分割されてしまい誤った属性値が抽出されていた.しかしながら,マンデュラスのような語が形態素解析器の辞書にあらかじめ登録されていることは期待できないため,あるドメインに関するテキスト集合から自動的に語彙を獲得し,形態素解析器の辞書を動的に拡充する手法(例えば,村脇らの手法\cite{murawaki2010})が必要であると考えられる.\vspace{1\Cvs}\noindent\textbf{商品ページ内の誤った情報からの抽出}誤った情報が商品ページに記述されており,そこから誤った属性値が抽出されている事例が1件あった.以下に示す.\begin{itemize}\itemアリミノミントシャンプーフローズンクール\underline{220ML}$_{容量}$\end{itemize}\noindent商品タイトルには1000mlと記述されており,商品画像も1000mlのものであったことから220mlは誤りであることがわかった.このように抽出元となるテキストの信頼度や,画像データなどのテキスト以外の情報を考慮することも精度の向上に必要である.\subsection{False-negativeの分析}False-negativeに該当する事例は全部で831件あった.分析にあたり,まず,キャットフードカテゴリについては全18件,キャットフード以外のカテゴリからは無作為に50件ずつ選び出した.そして,以下の条件のいずれかに一致する事例を削除して残った188件について分析を行った.\begin{itemize}\item誤ったカテゴリに登録された商品ページ.\item人手アノテーションと部分一致し,かつ正解と見なしても問題ないもの.\end{itemize}\noindent分析の結果,False-negative事例は(1)異表記すら辞書に含まれていない,(2)異表記は辞書に含まれている,(3)抽出手法の問題の3種類に分類できた.本節では各タイプについて述べる.\subsubsection{異表記すら辞書に含まれていない}\label{notContainedSpellingVariation}当該表現だけでなく,その異表記すら辞書に含まれていない事例が100件(53.2\%)あった.表\ref{fn_type}に異表記が辞書に含まれていない属性値のタイプと例を示す.組織名,地名,割合表現,人名など既存の固有表現のタイプが見てとれる.そのため,固有表現のタイプと属性の間に変換ルールを設けることで,辞書に含まれていない属性値についても固有表現認識技術を用いることで抽出できる可能性がある.しかしながら,この操作によってFalse-positiveの数が増えてしまう可能性があることに留意する必要がある.\begin{table}[b]\caption{異表記すら辞書に含まれていない属性値の例}\label{fn_type}\input{02table08.txt}\end{table}\subsubsection{異表記は辞書に含まれている}\label{containedSpellingVariation}属性値自身は辞書に含まれていないが,その異表記が辞書に含まれている事例は69件(36.7\%)あった.異表記のタイプ,各タイプの数および例を表\ref{variation}に示す.空白,中黒,ハイフンの有無や入れ替わり,長音とハイフンの入れ替わり,接辞の有無,翻字の違い,小数点の扱い,送り仮名の有無など,テキスト中と辞書中の表現の柔軟なマッチングを行うことで改善できる事例が多いことがわかる.その一方で,略語,翻訳,言い換えなど事前の知識獲得処理を必要とする事例も見られる.\begin{table}[b]\caption{テキスト中の表現と辞書エントリの表記の違い}\label{variation}\input{02table09.txt}\end{table}\subsubsection{抽出手法の問題}辞書に正しい属性-属性値の組が登録されているにも関わらず\ref{system}節で述べた手法の問題により抽出されなかった事例が19件(10.1\%)あった.この中で最も多かったタイプは数値単体からなる属性値であった(13件).誤抽出の影響を減らすため数値のみの属性値は抽出しないようにしたことが原因である.数値に関する抽出手法を洗練することで,このタイプの誤りは減らせると考えられる.残り6件のうち3件は,辞書エントリとテキストの最長一致による属性値抽出方法が問題となっていた.具体的には,正解の属性値(例えば,(メーカー,デミコスメティクス))よりも文字列長の長い誤った属性値(例えば,(メーカー,日華化学株式会社デミコスメティクス))が先に抽出されてしまい,正しい属性値が抽出されなくなっていた.文字列長だけではなく,属性-属性値としての正しさも考慮に入れて抽出を行うことで改善できる可能性がある.残りの3件は属性値に多義性がある場合であった.属性値抽出を行う際,店舗頻度をもとに多義性解消を行っているが,この処理が誤っていた.そのため,店舗頻度だけでなく,前後の文脈を考慮するなどして多義性解消を行う必要があると考えられる.\subsection{Distantsupervisionに基づく一般の情報抽出タスクに対して有用な知見}\label{chiken}一般にDistantsupervisionに基づく情報抽出手法では,FreebaseやWikipediaのInfoboxなどの人手で整備された辞書に登録されているエンティティ(もしくはエンティティの組)がテキストに出現している際,エンティティに紐づいている辞書内の情報(例えば,エンティティのタイプやエンティティ間の関係)を当該テキストに付与することで教師データを自動的に作成する.例えばDistantsupervisionの考え方を一般的な関係抽出タスクに初めて用いたMintzら\cite{mintz2009}の手法では,まず固有表現抽出器をテキストに対して適用し,任意の文$s$に固有表現$e_1$,$e_2$が含まれ,かつFreebaseに$<e_1,e_2,r>$というレコードが登録されている時,文$s$を関係$r$の学習データとして利用する.Distantsupervisionに基づく方法で教師データを作成する際,エンティティの誤認識が問題となる.どのような誤認識のタイプがあるのか,という点で4.1.4節で述べた以下のエラーカテゴリはDistantsupervisionに基づく一般の情報抽出においても有用な知見になると考えられる.\begin{itemize}\item他のエンティティの部分文字列からの抽出\item形態素解析器の過分割による誤抽出\item属性値の多義性に起因する誤抽出\itemメトニミーに起因する誤抽出\end{itemize}\noindent「他のエンティティの部分文字列からの抽出」に関しては,固有表現の認識を事前に行うことで,ある程度の誤認識は減らせるかもしれない.しかしながら,4.1.4節で述べたように,従来の固有表現抽出で定義されたタイプ以外の表現の認識も求められることから,依然としてこの問題点は考慮する必要がある.「形態素解析器の過分割による誤抽出」についても,固有表現の認識に失敗する可能性があるため,タグ付け対象となるテキストのドメインに特化した表現の自動獲得手法が求められる.関係抽出では「文に2つのエンティティが含まれている」という条件が各エンティティの多義性解消の手がかりになると考えられるが,この条件だけで全ての多義性を解消できるとは考えにくい.また,固有表現抽出のような1つエンティティを対象としたタスクの場合は上述の条件が適用できない.そのため,「エンティティがどの意味で用いられているのか」を認識することが一般の情報抽出においても重要である.このことから,「属性値の多義性に起因する誤抽出」および「メトニミーに起因する誤抽出」で列挙した事例については,商品属性値抽出タスクに限らず,一般の情報抽出においても考慮する必要があるだろう.エンティティの誤認識以外には,エンティティが出現しているにも関わらず認識されないFalse-negativeの問題がある.この問題のうち,異表記が辞書に含まれているエンティティについては\ref{containedSpellingVariation}節で得られた結果が役立つと考えられる.この結果は,辞書中とテキスト中の表現のマッチングを行う際,どのような「ずれ」について考慮しなければならないか,を検討する1つの知見になりえる.
\section{おわりに}
本稿では商品の属性値抽出タスクにおけるエラー分析のひとつの事例研究について述べた.まず,楽天市場のワイン,シャンプー,プリンターインク,Tシャツ,キャットフードカテゴリに登録された商品データ100件に対して,人手で属性値のアノテーションを行った.次に属性-属性値辞書に基づく情報抽出システムを実装し,このシステムを属性値がアノテーションされた商品データに対して適用した.その結果明らかとなるFalse-positive,False-negtive事例を調査し,各事例をそのエラーのタイプに応じて分類した.こうすることで,商品属性値抽出タスクに内在する研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮するべきか,またどのような点に注力するべきかという部分を明らかにした.本研究で行ったエラー分析の結果,より高い精度で属性値を抽出するためには,以下の処理・データが必要になることがわかった.\begin{itemize}\item質とカバレージの高い属性-属性値辞書\item適切でない商品カテゴリに登録されている商品ページの検出\item商品ページで販売されている商品と関係のあるパッセージの同定\itemブランド名や商品名といったオンラインショッピングに特化した固有表現の認識\item商品説明文中の主題の認識\item属性値を抽出する際の多義性解消技術\itemメトニミーの認識\item商品説明文中に含まれる表形式データの解釈\item知識獲得(新規辞書エントリの獲得,辞書エントリの同義語獲得,形態素解析辞書の動的な拡張)\item辞書エントリとテキスト中の表現の柔軟なマッチング\end{itemize}\noindentエラー分析に用いた属性値抽出システムは,Distantsupervisionにおけるタグ付きデータ作成方法と見なせる.そのため,今後は本稿で挙げた問題点を考慮した高品質なタグ付きコーパス作成方法を実装し,それを基にした機械学習ベースの属性値抽出システムの開発を考えている.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bing,Wong,\BBA\Lam}{Binget~al.}{2012}]{bing2012}Bing,L.,Wong,T.-L.,\BBA\Lam,W.\BBOP2012\BBCP.\newblock\BBOQUnsupervisedExtractionofPopularProductAttributesfromWebSites.\BBCQ\\newblockIn{\BemProceedingsofthe8thAsiaInformationRetrievalSocietiesConference},\mbox{\BPGS\437--446}.\bibitem[\protect\BCAY{Ghani,Probst,Liu,Krema,\BBA\Fano}{Ghaniet~al.}{2006}]{ghani2006}Ghani,R.,Probst,K.,Liu,Y.,Krema,M.,\BBA\Fano,A.\BBOP2006\BBCP.\newblock\BBOQTextMiningforProductAttributeExtraction.\BBCQ\\newblock{\BemACMSIGKDDExplorationsNewsletter},{\Bbf8}(1),\mbox{\BPGS\41--48}.\bibitem[\protect\BCAY{Mauge,Rohanimanesh,\BBA\Ruvini}{Maugeet~al.}{2012}]{mauge2012}Mauge,K.,Rohanimanesh,K.,\BBA\Ruvini,J.-D.\BBOP2012\BBCP.\newblock\BBOQStructuringE-CommerceInventory.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\805--814}.\bibitem[\protect\BCAY{Mintz,Bills,Snow,\BBA\Jurafsky}{Mintzet~al.}{2009}]{mintz2009}Mintz,M.,Bills,S.,Snow,R.,\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQDistantSupervisionforRelationExtractionwithoutLabeledData.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\1003--1011}.\bibitem[\protect\BCAY{村上\JBA関根}{村上\JBA関根}{2012}]{murakami2012}村上浩司\JBA関根聡\BBOP2012\BBCP.\newblockカテゴリに強く関連する語の発見と商品データクリーニングへの適用.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\195--198}.\bibitem[\protect\BCAY{村脇\JBA黒橋}{村脇\JBA黒橋}{2010}]{murawaki2010}村脇有吾\JBA黒橋禎夫\BBOP2010\BBCP.\newblock形態論的制約を用いたオンライン未知語獲得.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\55--75}.\bibitem[\protect\BCAY{Probst,Ghani,Krema,Fano,\BBA\Liu}{Probstet~al.}{2007}]{probst2007}Probst,K.,Ghani,R.,Krema,M.,Fano,A.,\BBA\Liu,Y.\BBOP2007\BBCP.\newblock\BBOQSemi-supervisedLearningofAttribute-valuePairsfromProductDescriptions.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalJointConferenceinArtificialIntelligence},\mbox{\BPGS\2838--2843}.\bibitem[\protect\BCAY{Putthividhya\BBA\Hu}{Putthividhya\BBA\Hu}{2011}]{putthividhya2011}Putthividhya,D.\BBACOMMA\\BBA\Hu,J.\BBOP2011\BBCP.\newblock\BBOQBootstrappedNamedEntityRecognitionforProductAttributeExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1557--1567}.\bibitem[\protect\BCAY{Ritter,Zettlemoyer,Mausam,\BBA\Etzioni}{Ritteret~al.}{2013}]{ritter2013}Ritter,A.,Zettlemoyer,L.,Mausam,\BBA\Etzioni,O.\BBOP2013\BBCP.\newblock\BBOQModelingMissingDatainDistantSupervisionforInformationExtraction.\BBCQ\\newblockIn{\BemTransactionsoftheAssociationofComputationalLinguistics--Volume1},\mbox{\BPGS\367--378}.\bibitem[\protect\BCAY{Roth,Barth,Wiegand,\BBA\Klakow}{Rothet~al.}{2013}]{roth2013}Roth,B.,Barth,T.,Wiegand,M.,\BBA\Klakow,D.\BBOP2013\BBCP.\newblock\BBOQASurveyofNoiseReductionMethodsforDistantSupervision.\BBCQ\\newblockIn{\BemProceedingsofthe2013WorkshoponAutomatedKnowledgeBaseConstruction},\mbox{\BPGS\73--78}.\bibitem[\protect\BCAY{Shinzato\BBA\Sekine}{Shinzato\BBA\Sekine}{2013}]{shinzato2013}Shinzato,K.\BBACOMMA\\BBA\Sekine,S.\BBOP2013\BBCP.\newblock\BBOQUnsupervisedExtractionofAttributesandTheirValuesfromProductDescription.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1339--1347}.\bibitem[\protect\BCAY{Takamatsu,Sato,\BBA\Nakagawa}{Takamatsuet~al.}{2012}]{takamatsu2012}Takamatsu,S.,Sato,I.,\BBA\Nakagawa,H.\BBOP2012\BBCP.\newblock\BBOQReducingWrongLabelsinDistantSupervisionforRelationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\721--729}.\bibitem[\protect\BCAY{Wong,Wong,\BBA\Lam}{Wonget~al.}{2008}]{wong2008}Wong,T.-L.,Wong,T.-S.,\BBA\Lam,W.\BBOP2008\BBCP.\newblock\BBOQAnUnsupervisedApproachforProductRecordNormalizationacrossDifferentWebSites.\BBCQ\\newblockIn{\BemProceedingsofthe23rdAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\1249--1254}.\bibitem[\protect\BCAY{Wu\BBA\Weld}{Wu\BBA\Weld}{2010}]{wu2010}Wu,F.\BBACOMMA\\BBA\Weld,D.~S.\BBOP2010\BBCP.\newblock\BBOQOpenInformationExtractionUsingWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\118--127}.\bibitem[\protect\BCAY{Xu,Hoffmann,Zhao,\BBA\Grishman}{Xuet~al.}{2013}]{xu2013}Xu,W.,Hoffmann,R.,Zhao,L.,\BBA\Grishman,R.\BBOP2013\BBCP.\newblock\BBOQFillingKnowledgeBaseGapsforDistantSupervisionofRelationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\665--670}.\end{thebibliography}\begin{biography}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(情報科学).京都大学大学院情報学研究科特任助教,特定研究員を経て,2011年から楽天技術研究所.自然言語処理,特に,知識獲得,情報抽出,評判分析の研究に従事.}\bioauthor{関根聡}{NewYorkUniversity,AssociateResearchProfessor.1998年NYUPh.D..松下電器産業,UniversityofManchester,ソニーCSL,MSR,楽天技術研究所ニューヨークなどでの研究職を歴任.ランゲージ・クラフト代表.専門は自然言語処理,特に情報抽出,固有表現抽出,質問応答の研究に従事.}\bioauthor{村上浩司}{2004年北海道大学大学院工学研究科博士課程単位取得退学.ニューヨーク大学コンピュータサイエンス学科,東京工業大学統合研究院,奈良先端科学技術大学院大学情報科学研究科を経て2010年より楽天技術研究所ニューヨークに所属.博士(工学).自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V06N05-02
|
\section{はじめに}
コンピュータの自然言語理解機能は柔軟性を高めて向上しているが,字義通りでない文に対する理解機能については,人間と比較してまだ十分に備わっていない.例えば,慣用的でない比喩表現に出会ったとき,人間はそこに用いられている概念から連想されるイメージによって意味をとらえることができる.そこでは,いくつかの共通の属性が組み合わされて比喩表現の意味が成り立っていると考えられる.したがって,属性が見立ての対象となる比喩の理解をコンピュータによって実現するためには,属性を表す多数の状態概念の中から,与えられた二つの名詞概念に共通の顕著な属性を自動的に発見する技術が重要な要素になると考えられる.本論文では,任意に与えられた二つの名詞概念で「TはVだ」と比喩的に表現するときの共通の顕著な属性を自動的に発見する手法について述べる.ここで比喩文「TはVだ」において,T(Topic)を被喩辞,V(Vehicle)を喩辞と呼ぶ.本論文で扱う比喩はこの形の隠喩である.具体的には,連想実験に基づいて構成される属性の束を用いてSD法(SemanticDifferentialMethod)の実験を行い,その結果を入力データとして用いるニューラルネットワークの計算モデルによって行う.以下では,2章で比喩理解に関する最近の研究について述べる.次に,3章で比喩の特徴発見の準備として認知心理実験について述べ,4章で比喩の特徴発見手法について説明する.そして5章で,4章で説明した手法による具体例な実行例を示し,その考察を行う.最後に6章でまとめと今後の課題について述べる.
\section{関連研究}
コンピュータによる比喩理解に関する研究は最近多く見られる.扱える比喩の範囲が広いものとしてあげられるのが,Fass\cite{Fass1991}やMartin\cite{Martin1992}の研究などである.Fass\cite{Fass1991}は,比喩理解において概念の階層構造の中で共通の上位概念を持つものに着目し,動詞や名詞に関する類似した対応関係を発見することによって比喩理解を行っている.Martin\cite{Martin1992}は,比喩文を字義通りの文と同様に扱う立場をとり,比喩文に関する明示的な知識をあらかじめ知識ベースに与えている.そして新しい比喩にも対応できるように既知の比喩を拡張できるようにしている.これらに対し著者らの研究では,現在は扱える比喩の範囲が「TはVだ」の形に限定されているが,概念の階層構造や比喩文の明示的な知識をシステムにあらかじめ与えておかないで比喩理解を行う方法を検討している.比喩理解のモデル化については,日本でもさまざまな手法が提案されている.例えば,土井ら\cite{Doi1989}は,階層型のニューラルネットワークを用いて属性層の中から比喩の意味を選択する方法を検討している.しかし,その方法では,顕著な属性を自動的に抽出するまでには至っていない.諏訪ら\cite{SuwaAndMotoda1994}は,隠喩理解の類推的アプローチとして,類比関係の効率的な決定を行う手法を示した.そこでは,属性ではなく構造・関係が見立ての対象となる比喩を扱っている.森ら\cite{MoriAndNakagawa1991}は,状況理論から展開された視点を導入した比喩理解のモデル化を行っているが,そこでは,比喩理解のために重要である属性に対する数値的な順序づけはなされていない.また,属性が見立ての対象となる比喩に重点を置いて,属性の顕現性を数値的に扱っている研究が進んでいる\cite{Iwayama1992,UtsumiAndSugeno1996,UchiyamaAndItabashi1996}.岩山\cite{Iwayama1992}は,ベイジアンネットワーク上の確率分布をもとに情報理論を用いて顕現性を定式化している.その計算手法をもとに,内海ら\cite{UtsumiAndSugeno1996}は,関連性に基づく言語解釈モデルを用いて文脈に応じた隠喩解釈を行う手法を提案している.また,比喩理解過程において創発される新たな特徴を考慮した計算モデルの研究も行われている\cite{Utsumi1997}.しかし,岩山と内海らの研究では,比喩を構成する概念の属性情報として,属性名とその重要度や,属性値集合(属性値とその確率の対)が人手によって与えられている.著者らは,その部分の自動化を目指している.コーパスからの共起情報を用いて比喩理解のための知識獲得を行う手法も考えられてきているが\cite{MasuiAndSugioAndTazoeAndShiino1997},ここではまず人間による生の属性情報を得るために認知心理実験を行うことにする.内山ら\cite{UchiyamaAndItabashi1996}は,SD法の実験を行ってその結果から顕現性を計算しているが,被喩辞と喩辞の別々の評定値に基づいて比喩表現の顕現性を計算しているわけではない.本論文では,被喩辞と喩辞を同時に扱い,それらに共通で顕現性の高い属性を自動的に抽出する方法について述べる.その際,SD法実験のデータとして,被喩辞と喩辞を独立に提示したときの評定値を用いて計算を行う.
\section{認知心理実験}
比喩の特徴発見の準備として二つの認知心理実験を行う.第一は概念の属性を抽出するための連想実験であり,第二は連想実験の結果を参考にして行うSD法の実験である.そして,SD法の実験結果を4章で説明する比喩特徴発見システムCOFFSへの入力データとして用いる.\subsection{属性の連想実験}文献\cite{OhkumaAndIshizaki1996}で述べられている連想実験システムを使用して,概念の属性に関する連想実験を行った.具体的には,『角川類語新辞典』\cite{OhnoAndHamanishi1981}の中の「自然」「人物」「物品」という三つのカテゴリーの中から,小学生にもわかりやすいと思われる90個の概念を用意し,大学生の被験者45人を6つのグループに分けて一人につき15個の概念を独立に提示した.表1に,連想実験に用いた90個の概念を示す.被験者には提示された概念から連想される属性を自由にできるだけ多く記述してもらった.その際,次のような属性例を示した教示を行った.\begin{footnotesize}\begin{verbatim}属性とは,その単語の持つ特徴です.例えば,「文章」の属性には,「論理的」「創造性のある」「難しい」「長い」「短い」「下手」「まとまっている」などが考えられます.\end{verbatim}\end{footnotesize}表2に,著者らが後で比喩を構成する概念として有用であると考えた10個の概念に関する結果を示す.実験が自由記述形式であるため,多様な属性があげられた.そこで,提示概念に対し,被験者の$1/3$以上によって連想された属性を示した.しかし,被験者の間で一致度の高い属性も見られた.例えば「チーター」に対しては,被験者9人中8人が「速い」をあげていた.\begin{table}[tb]\caption{連想実験で提示された概念}\label{tbl:hyo1}\begin{center}\begin{small}\begin{tabular}{|l|l|l|l|l|l|}\hlineグループ1&グループ2&グループ3&グループ4&グループ5&グループ6\\\hline\hline雨&芽&道具&鍵&冷蔵庫&北風\\\hlineねじ&鏡&機械&工具&ブレーキ&空気\\\hline乗り物&人&鬼&ロボット&熱&部屋\\\hline刃物&針金&人形&ライオン&電池&心\\\hline犬&チーター&鳥&銀河&記憶&秋\\\hline山&魚&宇宙&星&冬&夕暮れ\\\hline芸術家&飼い犬&ペット&野良犬&夜&青年\\\hline番犬&動物&太陽&雲&成人&チャイム\\\hline柱&満月&切符&磁石&ダンプカー&もぐら\\\hline粘土(ねんど)&化石&流れ星&風&くじら&気球\\\hline役者&電気&船&水&風船&コンピュータ\\\hline職人&商人&牛&砂&物置&生物\\\hline火&川&骨&光&植物&卵\\\hline海&湖&泥沼&エレベーター&細胞&肥料\\\hlineロケット&エネルギー&台風&雑音&旗&池\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{連想実験によって得られた主な属性例}\label{tbl:hyo2}\begin{center}\begin{small}\begin{tabular}{|l|l|}\hline提示概念&被験者の1/3以上によって連想された属性\\\hline\hline部屋&広い,狭い,汚い,きれいな,暖かい\\\hline番犬&恐い,うるさい,噛む,吠える,強い,大きい\\\hline風船&ふわふわした,軽い,色とりどり,割れる,\\&飛ぶ,赤い,子供っぽい,やわらかい\\\hlineチーター&速い,スマート,美しい,鋭い\\\hline湖&静かな,きれいな,深い,冷たい,広い,大きい\\\hline鏡&映る,丸い,反射する,割れる,神秘的,光る\\\hline冷蔵庫&冷たい,大きい,四角い,白い,保存する,重い\\\hline鬼&恐い,強い,赤い,でかい,悪い,角がある\\\hline風&強い,冷たい\\\hline流れ星&速い,ロマンチック,願い事,美しい\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{SD法実験に用いた両極概念対}\label{tbl:hyo3}\begin{center}\begin{small}\begin{tabular}{|rlcl|rlcl|}\hlinef1&広い&$\longleftrightarrow$&狭い&f19&大切な&$\longleftrightarrow$&大切でない\\\hlinef2&きれいな&$\longleftrightarrow$&汚い&f20&遅い&$\longleftrightarrow$&速い\\\hlinef3&暖かい&$\longleftrightarrow$&涼しい&f21&鋭い&$\longleftrightarrow$&鈍い\\\hlinef4&四角い&$\longleftrightarrow$&丸い&f22&明るい&$\longleftrightarrow$&暗い\\\hlinef5&寒い&$\longleftrightarrow$&暑い&f23&ふわふわした&$\longleftrightarrow$&平らな\\\hlinef6&軽い&$\longleftrightarrow$&重い&f24&雑然とした&$\longleftrightarrow$&整然とした\\\hlinef7&大きい&$\longleftrightarrow$&小さい&f25&従属的&$\longleftrightarrow$&独立的\\\hlinef8&必要不可欠な&$\longleftrightarrow$&無くても済む&f26&神秘的&$\longleftrightarrow$&世俗的\\\hlinef9&美しい&$\longleftrightarrow$&醜い&f27&透き通った&$\longleftrightarrow$&濁った\\\hlinef10&浅い&$\longleftrightarrow$&深い&f28&割れやすい&$\longleftrightarrow$&割れにくい\\\hlinef11&静かな&$\longleftrightarrow$&うるさい&f29&不思議な&$\longleftrightarrow$&当たり前な\\\hlinef12&弱い&$\longleftrightarrow$&強い&f30&ありふれた&$\longleftrightarrow$&夢のある\\\hlinef13&恐い&$\longleftrightarrow$&かわいい&f31&かっこいい&$\longleftrightarrow$&かっこ悪い\\\hlinef14&善良な&$\longleftrightarrow$&邪悪な&f32&なくしやすい&$\longleftrightarrow$&なくしにくい\\\hlinef15&愚かな&$\longleftrightarrow$&賢い&f33&忠実な&$\longleftrightarrow$&不忠実な\\\hlinef16&役に立つ&$\longleftrightarrow$&役に立たない&f34&邪魔な&$\longleftrightarrow$&邪魔でない\\\hlinef17&高い&$\longleftrightarrow$&低い&f35&冷たい&$\longleftrightarrow$&熱い\\\hlinef18&柔らかい&$\longleftrightarrow$&固い&f36&ありがたい&$\longleftrightarrow$&迷惑な\\\hline\end{tabular}\end{small}\end{center}\vspace{0.5cm}\end{table}\begin{figure}[t]\begin{center}\epsfile{file=fig/32_ue.eps,height=65mm}\end{center}\caption{SD法の評定尺度例}\vspace{0.2cm}\begin{center}\epsfile{file=fig/32_sita.eps,height=72mm}\end{center}\caption{評定値の分布例}\end{figure}\subsection{SD法実験}SD法の実験は,形容詞などによる尺度を用いて,ある概念がどのような意味を持つかについて調べるものである.これは,実験心理学で従来から行われている手法であり,多数の形容詞を意味空間上に配置し,概念の情緒・感覚的な意味の定量的な分析を行うときに用いられている\cite{Kusumi1995,Ishizaki1994}.対の意味になる両極型形容詞を両端に置いて,提示される概念に対する当てはまり具合を何段階かの尺度で評定する.実際には7段階か5段階の尺度で評定することが多い.本SD法実験では,連想実験の結果を参考にして,表3に示されている36個(ペア)用意し,すべての概念に共通の属性の束とした.また提示概念として,表2の連想実験結果に示されている10個の概念を用いた.今回は図1に示されている「風」のように,文脈をつけずに概念を独立にディスプレー上に提示し,評定尺度には$-3$から$+3$までの7段階を用いた.また,被験者に対して以下のような教示を行った.\begin{footnotesize}\begin{verbatim}(1)両端の形容語のどちらかが「非常によく当てはまる」場合には,-3または+3に丸をつけてください.(2)形容語のどちらかが「かなりよく当てはまる」場合には,-2または+2に丸をつけてください.(3)形容語のどちらかが「やや当てはまる」場合には,-1または+1に丸をつけてください.(4)尺度の「中間に位置する」,あるいは双方の形容語に「同じくらい当てはまる」という場合には,0に丸をつけてください.(5)どちらの形容語も「全く当てはまらない」という場合には,右側の「全く当てはまらない」に丸をつけてください.\end{verbatim}\end{footnotesize}\vspace{-4mm}図1を見てもわかるように,評定尺度の欄外に「全く当てはまらない」という項目を設けた.提示概念によっては,ある尺度が「全く当てはまらない」と考えられる場合があるが,この別項目を設けることによって,評定値0に対して「尺度の中間に位置する」という意味を明確に持たせることができる.なお,標準的な教示では,(4)と(5)の場合が併合されており,いずれも尺度の中心(評定値0)に丸をつけるようになっている\cite{Iwashita1983}.図2に,大学生22人による評定の分布例を示す.提示概念は「風」で,横軸には$-3$(遅い)$\longleftrightarrow$$+3$(速い)の評定値,縦軸には被験者全員に対する人数の相対頻度をとった.これを見ると,「風」に対して「速い」というイメージを持っている人が多いことがわかる.
\section{比喩の特徴発見手法}
SD法の実験で独立に提示した概念の中から任意の二つを用いて「TはVだ」という形の比喩文を作ることができる.本章では,その比喩的な意味を理解するために必要な属性を自動的に抽出するシステムCOFFSについて説明する.\subsection{COFFSの概要}図3に,比喩特徴発見システムCOFFS(COmmonFeaturesFinderSystem)の構造を示す.SD法の実験で用いた両極概念対の個数を$m$とするとき,ネットワークには$m+2$個のノードがある.$f_1$〜$f_m$は両極概念対に対応するノードを表し,$T$と$V$はそれぞれ被喩辞(T)と喩辞(V)に対応するノードを表す.\begin{figure}[t]\begin{center}\begin{tabular}{c}\begin{minipage}{8cm}\setlength{\unitlength}{1mm}\begin{picture}(45,60)(0,123)\put(19,175){$a_{1,m+1}$}\put(54,175){$a_{1,m+2}$}\put(19,169){$a_{2,m+1}$}\put(54,169){$a_{2,m+2}$}\put(19,146){$a_{m,m+1}$}\put(54,146){$a_{m,m+2}$}\put(10,180){\circle{8}}\put(9,179){$T$}\put(70,180){\circle{8}}\put(69,179){$V$}\put(40,129){\circle{8}}\put(38,128){$f_m$}\put(40,161){\circle{8}}\put(38,160){$f_2$}\put(40,173){\circle{8}}\put(38,172){$f_1$}\put(14,178){\line(6,-1){22}}\put(66,178){\line(-6,-1){22}}\put(13,177){\line(5,-3){23}}\put(67,177){\line(-5,-3){23}}\put(12,176){\line(1,-2){24}}\put(68,176){\line(-1,-2){24}}\put(39,140){$\cdot$}\put(39,144){$\cdot$}\put(39,148){$\cdot$}\end{picture}\end{minipage}\end{tabular}\end{center}\caption{COFFSの構造.($T$は被喩辞,\hspace{0.1cm}$V$は喩辞,$f_i$は属性.\hspace{0.1cm}$a_{i,j}$は遷移行列の要素.)}\end{figure}「TはVだ」を比喩文として読むとき,その比喩的な意味を理解するために重要な属性は,TとVの両方が共通にもっており,典型的な性質を表す顕現性も高いと考えられる.SD法の実験結果で言えば,TとVの評定値分布が類似しているほど共通性が高い属性であると考えられ,また,TとVの平均評定値の絶対値が大きいほど顕現性が高い属性であると考えられる.この共通性と顕現性を同時に扱えるように,以下の定式化を行う.この計算モデルは,コンピュータによる文章の要約においても用いられているが\cite{Hasida1987},比喩的な意味を説明するのに重要な属性が備えていると考えられる共通性や顕現性を線形の式でわかりやすく表現することが可能である.\begin{eqnarray}\mbox{\boldmath$x$}(t+1)&=&A\ast\mbox{\boldmath$x$}(t)+\mbox{\boldmath$c$}\hspace{0.3cm}(t=0,1,2,\cdot\cdot\cdot)\\\mbox{\boldmath$x$}(0)&=&\mbox{\boldmath$c$}\end{eqnarray}\noindent上式において,属性の束に関係する要素について見るとき,定常入力であるベクトル\hspace{0.1cm}\mbox{\boldmath$c$}\hspace{0.1cm}が共通性の高さを表し,遷移行列である$A$が顕現性の高さを表している.また,\hspace{0.1cm}$\mbox{\boldmath$x$}(t)$は,時刻$t$におけるベクトル$(f_1,f_2,\cdot\cdot\cdot,f_m,T,V)$の活性値を表す.$f_i$\hspace{0.1cm}$(i=1,2,\cdot\cdot\cdot,m)$の活性値が大きいほど,その属性が比喩文「TはVだ」の理解のために重要であると考えられる.\subsection{システムへの定常入力{\bf$c$}の決定}$m+2$個の要素を持つ定常入力\hspace{0.1cm}$\mbox{\boldmath$c$}$の\hspace{0.1cm}$i$番目\hspace{0.1cm}$(i=1,2,\cdot\cdot\cdot,m)$の要素$c_i$には,SD法の実験における$f_i$に関するTとVの評定値分布の類似度が反映される.$c_i$は,次のようにして決定する.\newcommand{\namelistlabel}[1]{}\newenvironment{namelist}[1]{}{}\hspace{1cm}\begin{namelist}{x}\item[\hspace{0.3cm}1.]$f_i$\hspace{0.1cm}に関するTとVの分布の差の二乗和を計算する.ここで,分布の差とは,$-3$〜$+3$の評定値についての相対頻度の差のことを言い,相対頻度は,「全く当てはまらない」と評定した被験者も含む全被験者に対するものとする.\item[\hspace{0.3cm}2.]1.の結果の値に対し,逆数をとる.これによって,TとVの分布が類似しているほど値が大きくなる.\end{namelist}\begin{table}[h]\caption{T(被喩辞)とV(喩辞)の相対頻度}\label{tbl:hyo4}\begin{center}\begin{tabular}{l|ccccccccc}\hline&\multicolumn{7}{c}{$f_i$}\\\cline{2-10}&$-3$&$-2$&$-1$&$0$&$+1$&$+2$&$+3$&全く当てはまらない&合計\\\hlineT&$y_{-3,i}$&$y_{-2,i}$&$y_{-1,i}$&$y_{0,i}$&$y_{+1,i}$&$y_{+2,i}$&$y_{+3,i}$&$y_{not,i}$&1\\V&$z_{-3,i}$&$z_{-2,i}$&$z_{-1,i}$&$z_{0,i}$&$z_{+1,i}$&$z_{+2,i}$&$z_{+3,i}$&$z_{not,i}$&1\\\hline\end{tabular}\end{center}\end{table}\noindent例えば,$f_i$に関するTとVの相対頻度が表4のようになっている場合には,\[c_i=\frac{1}{\sum_{k=-3}^{+3}(y_{k,i}-z_{k,i})^2}\hspace{0.4cm}(i=1,2,\cdot\cdot\cdot,m)\]\noindentとなる.もしTとVが全く同一の場合には,分母が0となるが,それは「TはTだ」のような同語反復の比喩文の場合に相当する.しかし本研究では,同語反復の比喩文は扱わないことにする.また,実際に,多数の属性の束を用いた実験を行うと,異なる概念に対し,少なくとも一つの属性については評定結果が異なると考えられるので,分母が0になることは実際問題として想定していない.以上,1.,2.のようにして,$c_1$〜$c_m$を求めることができる.そして,それらの二乗和で上の2.の結果の値を割ったものを,改めて$c_i$とする.これよって,$c_1$〜$c_m$の$m$個の要素\mbox{をもつベク}トルの長さが1になる.したがって,$\mbox{\boldmath$c$}$\hspace{0.1cm}の$1$〜$m$番目の要素は,すべて1以下となる.$\mbox{\boldmath$c$}$\hspace{0.1cm}の$m+1$番目と$m+2$番目の要素は,TとVが$f_i$へ大きな影響を及ぼすと考えて,ともに1よりも大きい値とする.これらの値は,$\mbox{\boldmath$c$}$\hspace{0.1cm}の$1$〜$m$番目の要素の値に比べて十分に大きければよいのであるが,ここでは,すべての属性に関する平均評定値の絶対値の総和で概念TとVの重みを表すものとし,次のように設定した.すなわち,$f_i(i=1,2,\cdot\cdot\cdot,m)$に対するTの平均評定値とVの平均評定値をそれぞれ$M_{T,i}$,$M_{V,i}$とするとき(ただし,「全く当てはまらない」に対する評定値は0として計算する),$c_{m+1}={\sum_{i=1}^m|M_{T,i}|}$,$c_{m+2}={\sum_{i=1}^m|M_{V,i}|}$とした.\vspace{-3mm}\subsection{遷移行列$A$の決定}$(m+2)\times(m+2)$の遷移行列$A$には,SD法実験のTとVに関する平均評定値の符号の一致不一致と平均評定値の絶対値の大きさ,そして「全く当てはまらない」に対する相対頻度の高さが反映される.$A$の要素は次のようにして決定する.\hspace{1cm}\begin{namelist}{x}\vspace{-3mm}\item[\hspace{0.3cm}1.]「TはVだ」が与えられたとき,まず$f_i\hspace{0.1cm}(i=1,2,\cdot\cdot\cdot,m)$に対するTの平均評定値$M_{T,i}$とVの平均評定値$M_{V,i}$を求める.ただし,「全く当てはまらない」に対する評定値は0とする.\begin{namelist}{xx}\item[\hspace{0.3cm}(a)]$M_{T,i}$と$M_{V,i}$が同符号である場合には,\hspace{0.3cm}$a_{i,m+1}=a_{m+1,i}=|M_{T,i}|$,$a_{i,m+2}=a_{m+2,i}=|M_{V,i}|$とする.\item[\hspace{0.3cm}(b)]$M_{T,i}$と$M_{V,i}$が異符号である場合には,\hspace{0.3cm}$a_{i,m+1}=a_{m+1,i}=0$,$a_{i,m+2}=a_{m+2,i}=0$とする.\end{namelist}\item[\hspace{0.3cm}2.]評定値分布で「全く当てはまらない」の相対頻度が高い場合は,概念の属性として不適当であると考えられる.そこで例えば,表4において,$y_{not,i}>0.3$,または$z_{not,i}>0.3$の場合にも,$a_{i,m+1}=a_{m+1,i}=0$,$a_{i,m+2}=a_{m+2,i}=0$とする.\item[\hspace{0.3cm}3.]図3において属性を表すノード$f_i\hspace{0.1cm}(i=1,2,\cdot\cdot\cdot,m)$は,$T$や$V$との関係があり,それらの影響を受けることになるが,属性間では互いに独立である.すなわち,$T$および$V$の影響による$f_i$の活性値の変化に重点を置くため,属性間相互の関係をここでは特に考慮しないことにする.そこで,$f_i$と$f_j\hspace{0.1cm}(ただし,i{\ne}j)$が互いに結合していないことから,\hspace{0.1cm}$a_{i,j}=0\hspace{0.1cm}(i{\ne}j;\hspace{0.1cm}i,j=1,2,\cdot\cdot\cdot,m)$とする.また,2つのノード$T$と$V$も互いに結合していないので\hspace{0.1cm}$a_{m+1,m+2}=a_{m+2,m+1}=0$とする.\item[\hspace{0.3cm}4.]自分自身との結合があると考え,対角成分をすべて1にする.\end{namelist}\noindentこのようにして要素を決めると,以下のような行列ができる.\vspace{0.2cm}\newfont{\bg}{cmr10scaled\magstep4}\newcommand{\bigzerol}{}\newcommand{\bigzerou}{}\hspace{2cm}$M_{T,i}$と$M_{V,i}$\hspace{0.1cm}$(i=1,2,\cdot\cdot\cdot,m)$が同符号の場合の$A$:\[\hspace{-0.8cm}\left(\begin{array}{cccccc|cc}1&&&&&\bigzerou&&\\&1&&&&&&\\&&\ddots&&&&\vdots&\vdots\\&&&1&&&\left|M_{T,i}\right|&\left|M_{V,i}\right|\\&&&&\ddots&&\vdots&\vdots\\\bigzerol&&&&&1&&\\\hline&&\cdots&\left|M_{T,i}\right|&\cdots&&1&0\\&&\cdots&\left|M_{V,i}\right|&\cdots&&0&1\end{array}\right)\]\vspace{0.2cm}\noindentただし,$M_{T,i}$と$M_{V,i}$が異符号の場合は,$M_{T,i}$と$M_{V,i}$の両方とも$0$とする.また,表4で,$y_{not,i}>0.3$,または$z_{not,i}>0.3$の場合にも,$M_{T,i}$と$M_{V,i}$の両方とも$0$にする.そして最後に,収束のために行列を正規化する.具体的には,行和の最大値ですべての要素を割って,行和の最大値を1に正規化する.以下,4.1節の計算式(1)(2)に従って反復計算し,\mbox{\boldmath$x$}\hspace{0.1cm}が収束したときの$f_1$〜$f_m$の\mbox{活性値を調}べる.そして,その両極概念対に関する平均評定値の符号から,比喩理解のために重要な属性となる状態概念を発見する.
\section{実行例}
SD法実験のデータがあれば,COFFSによって多数の比喩文を扱うことができる.概念の個数を$N$とすると,被喩辞と喩辞になる概念の並べ方は$N(N-1)$通りある(ただし,同語反復の場合を除く)が,その中には,比喩的にだけでなく字義通りにも解釈可能な文や,比喩的にも字義通りにも解釈が困難な文も含まれる.比喩的であるか字義通りであるかの識別は重要な問題であるが,文脈を考慮して行うのが適切であると考えられるため,本論文ではその問題に触れず,例文はすべて単文で比喩的な表現であるとみなす.3.2節で述べたように,実際には10個の概念に対してSD法の実験を行ったので,被喩辞と喩辞になる概念の並べ方は90通りあるが,そのうち著者らが比喩文として理解が容易であると考えた20通りを実行例としてあげる.\subsection{評定値分布}第一の例文として「風船は流れ星だ」という比喩文をとりあげ,その実行結果について説明する.この場合,被喩辞T(Topic)が「風船」で,喩辞V(Vehicle)が「流れ星」である.まず,SD法の実験(被験者は大学生22人)の評定値分布をもとに,表3に示されている36個の両極概念対$f_i(i=1,2,\cdot\cdot\cdot,36)$に対してTとVの分布の差を$-$3〜$+$3の各評定値についてとり,その二乗和の逆数を計算してベクトルの大きさが1になるようにする.この値が大きいほど評定値分布の形状が類似しているといえる.図4には,COFFSによる処理を行う前の「風船」と「流れ星」に対する形状が最も類似している両極概念対「愚かな−賢い」に関する評定値分布が示されている.図4を見ると,確かに形状は類似しているが,相対頻度の値が最大で0.2以下であり,かなり小さいことがわかる.どの評定値についても相対頻度が低いということは,被験者の多くが,「風船」と「流れ星」のどちらの概念に対しても「愚かな−賢い」という評定尺度は「全く当てはまらない」と評定したことを示している.また,左右どちらにも歪んでいない分布であるので,顕現性は低い.\begin{figure}[t]\begin{center}\epsfile{file=fig/37.eps,height=72mm}\end{center}\caption{比喩文「風船は流れ星だ」に関する両極概念対「愚かな−賢い」の評定値分布}\end{figure}\begin{figure}[t]\begin{center}\epsfile{file=fig/38_ue.eps,height=78mm}\end{center}\vspace*{-1mm}\caption{「風船は流れ星だ」に関する活性値の変化(4.1節の式(1)(2)を参照)}\begin{center}\epsfile{file=fig/38_sita.eps,height=72mm}\end{center}\vspace*{-1mm}\caption{「風船は流れ星だ」に関する「きれいな−汚い」の評定値分布}\vspace*{-0.5mm}\end{figure}\subsection{COFFSの実行}次に,顕現性を反映させるために,SD法の実験における平均評定値を用いて作った遷移行列$A$を用いて,4.1節の(1)(2)式による反復計算を行った.図5には,「風船は流れ星だ」について,すべてのノードの活性値が収束するまでの活性値の変化が示されている.ここで,f2,\hspace{0.1cm}f9などの番号は,表3に示されている両極概念対の番号と一致している.収束後の活性値を調べると,36個の概念対の中で「きれいな−汚い」という概念対の活性値が6.52で最も大きかった.そして平均評定値の符号から「きれいな」が最も顕現性の高い属性であるという結果を得た.図6に,「きれいな−汚い」についての「風船」と「流れ星」の評定値分布を示す.これを図4と比較すると,片側(「きれいな」の方)に分布の山があり,しかも相対頻度が高いことがわかる.これによって「きれいな」の顕現性が高いことが示されている.表5には,「風船は流れ星だ」における上位5個の属性(概念対)のノードの活性値,およびTとVの活性値が示されている.上位5個の概念対について平均評定値の符号を調べることにより,下線の付された「きれいな・美しい・高い・夢のある・丸い」が比喩理解のために重要な属性として得られる.なお,Tの初期値36.78とVの初期値40.96は,それぞれ「風船」と「流れ星」に対し,すべての属性に関する平均評定値の絶対値の総和を計算したものである.COFFSによって発見された上位5個の属性に関するSD法の評定値分析結果を,表6と表7に示す.表6を見ると,評定値の片側(分布の山がある方)の相対頻度の和が,TとVに対して共に大きな値になっていることがわかる.これによって,TとVの評定値分布の山が高く,しかも共通の側に存在する属性であり,TとV共に「全く当てはまらない」の相対頻度が非常に低い属性であることが示される.また表7を見ると,Tの平均評定値の絶対値\(\vert\bar{T}\vert\)とVの平均評定値の絶対値\(\vert\bar{V}\vert\)の平均値が大きな値になっていることがわかる.これによって,TとVを組み合わせた場合の顕現性が高い属性であることが示される.\begin{table}[tb]\caption{収束後のノードの活性値}\label{tbl:hyo5}\begin{center}\begin{footnotesize}\begin{tabular}{|l|rlll|c|c|c|}\hline比喩文&&fの上位ノード&&&fの活性値&Tの活性値&Vの活性値\\\hlineS1「風船は流れ星だ」&f2&\underline{きれいな}&$\longleftrightarrow$&汚い&6.52&41.54&46.97\\&f9&\underline{美しい}&$\longleftrightarrow$&醜い&6.32&&\\\hspace{0.8cm}T:\hspace{0.1cm}「風船」&f17&\underline{高い}&$\longleftrightarrow$&低い&5.71&(初期値:&(初期値:\\\hspace{0.8cm}V:\hspace{0.1cm}「流れ星」&f30&ありふれた&$\longleftrightarrow$&\underline{夢のある}&5.62&36.78)&40.96)\\&f4&四角い&$\longleftrightarrow$&\underline{丸い}&5.19&&\\\hline\end{tabular}\end{footnotesize}\end{center}\end{table}\begin{table}[tb]\caption{選択された属性に関する評定値の相対頻度の和}\label{tbl:hyo6}\begin{center}\begin{small}\begin{tabular}{|l|llr|c|}\hline&&&&Tに対する(Vに対する)\\比喩文&&選択された属性&&max{評定値\(+3\)〜0の相対頻度の和,\\&&&&\hspace{1cm}評定値\(-3\)〜0の相対頻度の和}\\\hlineS1「風船は流れ星だ」&1位&きれいな&(f2)&$-$側;\hspace{0.1cm}0.954\hspace{0.3cm}($-$側;\hspace{0.1cm}0.954)\\&2位&美しい&(f9)&$-$側;\hspace{0.1cm}1.000\hspace{0.3cm}($-$側;\hspace{0.1cm}0.954)\\\hspace{0.8cm}T:\hspace{0.1cm}「風船」&3位&高い&(f17)&$-$側;\hspace{0.1cm}0.818\hspace{0.3cm}($-$側;\hspace{0.1cm}0.863)\\\hspace{0.8cm}V:\hspace{0.1cm}「流れ星」&4位&夢のある&(f30)&$+$側;\hspace{0.1cm}0.863\hspace{0.3cm}($+$側;\hspace{0.1cm}1.000)\\&5位&丸い&(f4)&$+$側;\hspace{0.1cm}1.000\hspace{0.3cm}($+$側;\hspace{0.1cm}0.665)\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{選択された属性に関する平均評定値の絶対値}\label{tbl:hyo7}\begin{center}\begin{small}\begin{tabular}{|l|llr|c|c|c|}\hline&&&&&&\\比喩文&&選択された属性&&\(\vert\bar{T}\vert\)&\(\vert\bar{V}\vert\)&\(\vert\bar{T}\vert\)と\(\vert\bar{V}\vert\)の平均値\\\hlineS1「風船は流れ星だ」&1位&きれいな&(f2)&1.95&2.73&2.34\\&2位&美しい&(f9)&1.77&2.50&2.14\\\hspace{0.8cm}T:\hspace{0.1cm}「風船」&3位&高い&(f17)&1.14&2.55&1.85\\\hspace{0.8cm}V:\hspace{0.1cm}「流れ星」&4位&夢のある&(f30)&1.05&2.55&1.80\\&5位&丸い&(f4)&1.18&1.91&1.55\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{活性値の大きい上位5個より選択された属性}\label{tbl:hyo8}\begin{center}\begin{small}\hspace{-0.3cm}\begin{tabular}{|rl|lllll|}\hline&比喩文&1位&2位&3位&4位&5位\\\hline\hlineS1&「風船は流れ星だ」&きれいな&美しい&高い&夢のある&丸い\\\hlineS2&「風は流れ星だ」&神秘的&速い&美しい&きれいな&かっこいい\\\hlineS3&「風は風船だ」&軽い&ふわふわした&きれいな&美しい&柔らかい\\\hlineS4&「風は冷蔵庫だ」&冷たい&役に立つ&寒い&涼しい&ありがたい\\\hlineS5&「風は鏡だ」&役に立つ&透き通った&きれいな&大切な&冷たい\\\hlineS6&「湖は冷蔵庫だ」&冷たい&ありがたい&涼しい&寒い&大切な\\\hlineS7&「湖は部屋だ」&静かな&大切な&美しい&ありがたい&必要不可欠な\\\hlineS8&「湖は流れ星だ」&美しい&神秘的&静かな&きれいな&夢のある\\\hlineS9&「湖は風だ」&神秘的&美しい&透き通った&冷たい&涼しい\\\hlineS10&「湖は風船だ」&丸い&美しい&静かな&きれいな&透き通った\\\hlineS11&「湖は鏡だ」&きれいな&平らな&静かな&美しい&冷たい\\\hlineS12&「チーターは番犬だ」&強い&速い&鋭い&かっこいい&賢い\\\hlineS13&「チーターは湖だ」&美しい&静かな&神秘的&きれいな&かっこいい\\\hlineS14&「チーターは流れ星だ」&速い&美しい&かっこいい&神秘的&鋭い\\\hlineS15&「チーターは風だ」&速い&かっこいい&独立的&美しい&軽い\\\hlineS16&「チーターは鬼だ」&強い&速い&恐い&独立的&鋭い\\\hlineS17&「鬼は流れ星だ」&神秘的&不思議な&夢のある&速い&強い\\\hlineS18&「鬼は湖だ」&大きい&神秘的&恐い&不思議な&夢のある\\\hlineS19&「流れ星は鏡だ」&きれいな&美しい&神秘的&ありがたい&静かな\\\hlineS20&「番犬は鬼だ」&強い&大きい&恐い&うるさい&重い\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsection{実行結果の比較}このようにして20個の比喩文について実行した結果を表8に示す.なお,S9「湖は風だ」とS13「チーターは湖だ」は字義通りに読むことができ,それぞれ「湖に風が吹いている」「チーターは湖にいる」という解釈が可能であるが,ここでは比喩として読む場合を考える.「風船」「流れ星」「風」の3つを組み合わせて作った3つの比喩文S1「風船は流れ星だ」,S2「風は流れ星だ」,S3「風は風船だ」の結果を比較すると,上位2個はそれぞれ,S1「きれいな・美しい」,S2「神秘的・速い」,S3「軽い・ふわふわした」となっており,被喩辞Tと喩辞Vの組み合わせ方による実行結果の相違が現れているのがわかる.また,S6〜S11やS12〜S16を見ると,同じ被喩辞Tに対し,喩辞Vが異なると結果も異なるのがわかる.1位の属性についていえば,Tを「湖」とする場合,例えばVが「冷蔵庫」のときには「冷たい」が選択され,Vが「鏡」のときには「きれいな」が選択されている.同様に,Tを「チーター」とする場合,1位の属性として,例えばVが「流れ星」や「風」のときには「速い」が選択され,Vが「番犬」や「鬼」のときには「強い」が選択されている.一方,S1,S2,S8,S14,S17を見ると,同じ喩辞Vに対し,被喩辞Tが異なると結果も異なるのがわかる.1位の属性についていえば,Vを「流れ星」とする場合,例えばTが「湖」のときには「美しい」が選択され,Tが「チーター」のときには「速い」が選択されている.以上のように,COFFSでは,さまざまな概念の組み合わせによる比喩文に対して適用することが可能である.ただし,SD法の評定値分布にばらつきが多く,単独では中立的な概念を用いる場合には,適用することが難しい.その場合,別の処理方法を考える必要がある.
\section{おわりに}
本論文では,まず概念の属性に関する連想実験を行い,比喩文を構成する概念が持つ属性の束を両極概念対として表現した.そしてSD法の実験を行って,その実験結果とニューラルネットワークを組み合わせることにより,比喩文における二つの概念に共通の顕著な属性を自動的に抽出した.また,その手法を多様な概念の組み合わせに対して適用した例を示した.今後の課題としては,あらかじめ与える属性の集合をどのように構成するかという問題がある.これは,大規模なシステムに発展させようとするとき重要になってくる.また,SD法の評定値分布にばらつきが多い概念を用いた比喩文に関しては,文脈情報を取り入れるなどの別の手法で対処する必要があると考えられる.\medskip\acknowledgment本研究で行われた連想実験では,富士ゼロックス株式会社の大熊智子氏と慶應義塾大学政策・メディア研究科博士課程の岡本潤氏に大変お世話になりました.ここに深く感謝致します.また,心理実験で多くの協力を頂いた慶應義塾大学湘南藤沢キャンパスの学生の方々に感謝の意を表します.なお,本研究は文部省科研費一般研究B「言語の状況依存性の認知モデルと文脈理解システムの研究」の援助を受けて行われた.\bibliographystyle{jnlpbbl}\nocite{ImaiAndIshizaki1996}\nocite{Ishizaki1996}\nocite{SuwaAndIwayama1993}\bibliography{v06n5_02}\begin{biography}\biotitle{略歴}\bioauthor{今井豊}{1994年慶應義塾大学環境情報学部卒業.1996年同大学院政策・メディア研究科修士課程修了.現在,同博士課程在学中.}\bioauthor{石崎俊}{1970年東京大学工学部計数工学科卒,同助手を経て1972年通産省工業技術院電子技術総合研究所勤務,1985年推論システム研究室室長,自然言語研究室長を経て1992年から慶應義塾大学環境情報学部教授,1994年から政策メディア研究科教授兼任.自然言語処理,音声情報処理,認知科学などに興味を持つ.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N02-01
|
\section{はじめに}
音声認識技術はその発達にともなって,その適用分野を広げ,日本語においても新聞など一般の文章を認識対象とした研究が行なわれるようになった\cite{MATSUOKA,NISIMURA4}.この要因として,音素環境依存型HMMによる音響モデルの高精度化に加え,多量の言語コーパスが入手可能になった結果,文の出現確率を単語{\itN}個組の生起確率から推定する{\itN}-gramモデルが実現できるようになったことが挙げられる.日本語をはじ\breakめとして単語の概念が明確ではない言語における音声認識を実現する場合,どのような単位を認識単位として採用するかが大きな問題の1つとなる.この問題はユーザーの発声単位に制約を課す離散発声の認識システムの場合に限らない.連続音声の認識においても,ユーザーが適\break時ポーズを置くことを許容しなければならないため,やはり発声単位を考慮して認識単位を決\breakめる必要がある.従来日本語を対象とした自然言語処理では形態素単位に分割することが一般\break的であり,またその解析ツールが比較的\mbox{よく整備されていたことから{\itN}-gramモデル作成におい}ても「形態素」を単位として採用したものがほとんどである\cite{MATSUOKA,ITOHK}.しかしながら,音声認識という立場からあらためてその処理単位に要請される条件を考えなおしてみると,以下のことが考えられる.\begin{itemize}\item認識単位は発声単位と同じか,より細かい単位でなければならない.形態素はその本来の定義から言えば必ずこの条件を満たしているが,実際の形態素解析システムにおいては,複合名詞も1つの単位として登録することが普通であるし,解析上の都合から連続した付属語列のような長い単位も採用している場合があるためこの要請が満たされているとは限らない.\item長い認識単位を採用する方が,音響上の識別能力という観点からは望ましい.つまり連続して発声される可能性が高い部分については,それ自身を認識単位としてもっておく方がよい.\item言語モデルを構築するためには,多量のテキストを認識単位に分割する必要があり,処理の多くが自動化できなければ実用的ではない.\end{itemize}これらは,言い換えれば人間が発声のさいに分割する(可能性がある)単位のMinimumCoverSetを求めることに帰着する.人が感覚的にある単位だと判断する\mbox{日本語トークンについて考}察した研究は過去にも存在する.原田\cite{HARADA}は人が文節という単位について一貫した概念を持っているかについて調査し,区切られた箇所の平均一致率が76\%であり付属語については多くの揺れがあったと報告している.また横田,藤崎\cite{YOKOTA}は人が短時間に認識できる文字数とその時間との関係から人の認知単位を求め,その単位を解析にも用いることを提案している.しかしながら,これらの研究はいずれも目的が異なり,音声認識を考慮したものではない.そこで,われわれは,人が潜在意識としてもつ単語単位を形態素レベルのパラメータでモデル化するとともに,そのモデルに基づいて文を分割,{\itN}-gramモデルを作成する手法を提案し,認識率の観点からみて有効であることを示した\cite{NISIMURA3}.本論文では主として言語処理上の観点からこの単語単位{\itN}-gramモデルを考察し,必要な語彙数,コーパスの量とパープレキシティの関係を明らかにする.とくに新聞よりも「話し言葉」に近いと考えられるパソコン通信の電子会議室から収集した文章を対象に加え,新聞との違いについて実験結果を述べる.
\section{単語単位への分割}
本節ではわれわれが採用した単語単位と,同単位への分割手法について述べる.\par日本語を分割して発声する場合,その分割点はきわめて安定している点と,人,または時によって分割されたりされなかったりする不安定な点がある.例として「私は計測器のテストを行っています.」という文を考えよう.これは形態素解析により,たとえば\[\hspace{-6mm}私\:+\:は\:+\:計測\:+\:器\:+\:の\:+\:テスト\:+\:\\を\:+\:行\:+\:っ\:+\:て\:+\:い\:+\:ます\:+\:.\]と分割されるが,動詞の活用語尾である「っ」や接続助詞の「て」はほぼ確実に「行」と結合して「行って」と発声されるのに対し,接辞である「器」は分割される場合もあれば,結合されることもあるだろう.そこで文がある位置で「分割」される確率を形態素のレベルでモデル化することを考える.そして人が分割した学習用テキストと同じテキストを形態素解析により分割した結果を照合し,各形態素の遷移ごとに当該点で分割される確率を得る.その後,より大量のテキストをそのモデルに基づいて分割すれば(このプログラムを以後セグメントシミュレータと呼ぶ),人が分割した傾向をもったわかち書きテキストを容易に得られる.\par「分割」される位置としては,形態素の境界(形態素単位への分割)と\mbox{さらに細かく形態素の}途中(文字単位への分割)がある.ここで分割記号として$\sharp$を使用し,\mbox{「分割」は記号「$\sharp$」が生起}し,「結合」は「NULL」が生起すると考えれば,前者はある形態素から別の形態素に遷移したときにその間に「$\sharp$」が生起する確率として\[\hspace{-5mm}P(\sharp_i\midMorpheme_i\rightarrowMorpheme_{i+1})\]となる.後者のそれは$Morpheme$を文字列$C_1C_2,\ldots,C_n$で表すと,\mbox{その{\itj}番目の文字の後に$\sharp$}が生起する確率と考えれば\[\hspace{-5mm}P(\sharp_j\midMorpheme,\:C_j\rightarrowC_{j+1})\]と表現できる.モデルのパラメータ(形態素の属性)としては,\mbox{品詞情報({\itKoW}),連接属性(Part}ofSpeech:{\itPoS}),,そして表記({\itString})を採用し,$(KoW[PoS],String)$と表現する.ここで品詞,連接属性とはわれわれの用いた形態素解析プログラム\cite{MARUYAMA}の出力として得られるものであり,品詞は81,連接属性は119に分類されている\footnote{品詞情報は学校文法でいう品詞分類(「動詞」「助動詞」など)に相当するが,解析の都合上一般にその品詞であると認められていない形態素に当該品詞を割り当てている場合がある.その場合は,後の処理のため同じ品詞でも単に「助動詞」とするのではなく「助動詞A」のように区別しており,結果的に種類が増大している.また連接属性は品詞を活用型などによりさらに詳細分類したもので,たとえば動詞は17種類に分類されている.意味からすれば品詞情報を{\itPoS}(PartofSpeech)とすべきであろうが,ここでは文献\cite{MARUYAMA}の記法にしたがった.}.したがって\mbox{形態素単位の分割}では6個,文字単位への分割では4個のパラメータで記述されることになるが,そうすると明らかに多量の学習用テキスト(人が分割したもの)が必要となる.そこで頻度が閾値以下であるような場合については,パラメータを特定の順序で縮退させた確率値を用意しセグメントシミュレータの実行時も,確率が記述されているレベルまで同様の順序で縮退し,当該確率値で代用することを考える.縮退の順序にはさまざまなものが考えられるが,モデルのパラメータについてその種類数を考えると表記,連接属性,品詞の順に少なくなることは明らかであり,縮退もそれにしたがうのが妥当であろう.また基本的にはある出現回数を閾値としたときより多くの種類の遷移確率が得られることが望ましい.このような観点からいくつかの予備実験を行い経験的に縮退順序を決定した.この順序と参照される確率値を木構造で表現したのが図\ref{FIG:STATTREE}である.各ノードには形態素の属性とその属性が満たされた場合に分割される確率が対応する.たとえば図\ref{FIG:STATTREE}中\[\hspace{-5mm}P(\sharp\midV.\:infl.[29]\rightarrowConj.\:p.p.[69],\:て)\]は形態素単位への分割に対する記述例で,形態素の属性が動詞活用語尾[29]から接続助詞[69]「て」へ遷移したときに,その間で分割される確率を意味する\footnote{{\itV.infl.}はVerbinflection,{\itConj.p.p.}はConjunctivepost-positionalparticleの略.}.\begin{figure}[htb]\begin{center}\epsfile{file=signl96.fig2.ps,width=12cm}\caption{セグメントシミュレータにおけるパラメータ縮退の順序}\label{FIG:STATTREE}\end{center}\end{figure}\mbox{1つ上のレベルでは,表記(こ}こでは「て」)が省略される.ただし品詞が名詞の場合には文字数が分割確率を記述するパラメータとして有効と考えられるので\footnote{「誤認識」が「誤」「認識」と分割されるよりは「音声認識」が「音声」「認識」となりやすいなど.},\mbox{表記を省略した場合,文字数をパラメータとして残し}た.さらに上位レベルでは,連接属性番号も省略し,\mbox{品詞{\itV.infl.}から{\itConj.p.p.}への遷移に対}\mbox{して,人が分割する確率を記述する.}たとえば,「積んで」という文節を形態素に分割すると\[\hspace{-5mm}積(Verb[8])\:+\:ん(V.\:infl[30])\:+\:で(Conj.\:p.p.[69])\]となるが,その中に現れる「ん」と「で」の間で分割されたカウント等もマージした上で算出された確率となる.このように木はリーフから上位のノードに行くにしたがって縮退されたパラメータ,言い換えればより大まかなパラメータとなる.\par一方,前節で述べたように人は形態素として定義されたトークンをさらに文字単位で分割する場合もある.これは形態素解析の都合上連続した付属語列を1つの形態素としてとり扱うことが行なわれるためである.たとえばわれわれの用いた形態素解析用文法では「...かどうか」という付属語列が助詞として扱われているが「か」+「どうか」と分割されることもある.そこで形態素レベルの分割よりもさらに詳細なレベルとして,文字レベルの分割をモデル化した.このような確率木はつぎのように構成することができる.つまりもっとも細かい分類における各パラメータについて,人が分割した結果と形態素解析の結果を照合してカウントし,その値をリーフから上位ノードに伝搬させた後,確率値に正規化すればよい.全カウント数が少ないと当該確率(推定値)の信頼性が低いので,カウント,マージ作業を行なって,頻度がある閾値以上のノードを最終的なノードとして採用することにする.\parこのモデル化では学習データの量に応じて,そのデータから得られる情報を最大限に利用することができる.たとえば,2文字漢語から接尾辞への遷移には,非常に多くのものがあるが,その分割されやすさは接尾辞の種類によって異り,それらを捨象してモデル化したのでは,あいまいさが大きくなってしまう.しかし逆にそのすべてを細分化したのでは,頻度が低い接尾辞に対するルールが得られないか,または信頼性の低い確率推定値となってしまう.本手法によれば学習データ中に頻度が高いものについてはより細かい分類でモデル化され,頻度が下るにしたがって統計として信頼にたる単位まで縮退されたパラメータによる確率値が得られることになる.
\section{形態素解析プログラムの変更}
\subsection{現代語書き言葉以外の表現への文法の対応}形態素解析システムは,一般に新聞記事に代表される現代語書き言葉を処理できるように開発されてきた.しかし近年,データとして使用されるコーパスの大規模化に伴い,現代語書き言葉以外の表現,特に,会話風の表現(以下,口語体と示す)を扱う試みが増加してきた\cite{KURO}.われわれが従来使用してきた形態素解析の\mbox{文法規則\cite{MARUYAMA}}\mbox{も,原則として}現代語書き言葉に対応したもので,\mbox{口語体への対応は十分ではない.一方本研}究で用いる学習用テキストは新聞に限らず,パソコン通信の投稿テキストが含まれており,口語体への対応なくしては充分な精度の解析結果を得ることができない.以下の点を考慮して,より多様な文に対応できるよう形態素解析の文法を記述した.\begin{itemize}\item元の文法に対する変更を少なくして派生的な影響を抑える.\\口語体によく現れる縮退形で,五段活用連用形に接続する「ちゃ」には,接続助詞「て」および係助詞「は」の連なり「ては」の縮退と(例:書い{\bfちゃ}いけない)と,接続助詞「て」および補助動詞「しまう」の語幹の連なり「てしま」の縮退(例:書い{\bfちゃ}う)とがある.前者は直後で文節を切ることができる非活用語,後者はワア行五段活用をするので,ワア行五段活用語尾が接続し,かつ直後で文節末に遷移できる「ちゃ」という形態素の規則を作成すれば形態素解析処理を行うことができる\cite{KURO}.しかし,品詞や活用形を単語分割モデルで利用すると,「ちゃ」に品詞として接続助詞を付与すれば「接続助詞にワア行五段活用語尾が接続する」という一般化が,また動詞を付与すれば「五段動詞語幹が文節末に遷移する」という一般化が行なわれかねない.これを避けるには,「ちゃ」に新たな品詞を付与するか,または「ちゃ」に二種類あるとするという対応が考えられるがわれわれは後者の方法を採った.形態素解析としては前者が望ましいと思われるが,後の単語分割モデルに影響を及ぼす可能性がある場合は,元の文法規則への影響がより少ないものを採用した.また,文語活用の残存形などで,現代語活用に全く同じ形があるものについては,現代語活用の形態素に接続条件を加えて対処した.\item縮退形の品詞付与では元の形態素列のうち活用語尾や自立語がもつ品詞を優先する.\\形容詞仮定形活用語尾「けれ」および接続助詞「ば」の連なりの縮退である「きゃ」「けりゃ」の前連接属性は「けれ」,後連接属性は「ば」にほぼ等しい.こうした縮退形の品詞は,元の形態素列のもつ連接属性のうち活用語尾や自立語のものを優先して付与した\cite{OGINO}.\item省略による空文字列は次形態素への遷移を追加して対処する.\\「勉強しよ」「読も」などのように形態素末が落ちる縮退の場合,前者は助動詞「よう」の縮退「よ」を定義すればよいが,後者は助動詞「う」そのものが脱落しているので,動詞未然形から「う」の次の形態素への遷移を追加して対処する.\end{itemize}\subsection{複合名詞の分割}形態素解析の辞書には,現在までの使用目的に応じて複合語が一語扱いで登録されていることが多いが,単語分割モデル構築のための形態素解析としては短単位に分割されていた方が都合がよい.そこで,複合語の中でも特に多い複合名詞を分割対象として,分割データベースとヒューリスティック規則により,形態素解析で複合名詞分割を行なうことにした.複合名詞の分割データベースは,2カ月分の新聞記事(産経新聞)を形態素解析して\mbox{その結果から一定以上}の頻度で出現する3文字以上の名詞を抜き出した後,人手で,分割する位置の情報を付与することにより作成した.このデータベースには約25,000語の複合名詞が含まれている.ヒューリスティック規則は,以下の条件を満たすように作成した.\begin{itemize}\item1語の名詞よりも2語以上の名詞連続のコストが小さい.\\名詞連続中では,2語のコストがもっとも小さく,次第にコストが\mbox{増大するように設定す}る.これは複合名詞を分割する際,あまり細かく切り過ぎないようにするためである.\item1文字名詞は他の名詞に比べてコストが大きい.\\上記と同様,過分割を防ぐためである.\item分割対象は3文字以上の複合名詞とする.\\1文字ずつに過分割しないためである.\item未知語のコストは1語の名詞より大きい.\end{itemize}\vspace*{3mm}また,分割の結果に3文字以上の名詞が含まれている場合は,再帰的にそれを分割し,分割が不可能になるまで繰り返す.
\section{分割モデルの作成と分割過程}
\vspace{-1mm}\subsection{分割確率の推定}分割ルールとその確率を推定するため,計17人の被験者\mbox{により,新聞5カ月分(日経新聞3}カ月および産経新聞2カ月)\mbox{,日本語用例集(合計約26,000文),そしてパソコン通信「ピープ}ル」の電子会議室(以下電子会議室)\mbox{から採取した文章(約9,500文)を分割する作業を行った}\footnote{文選択は文の長さが一定の範囲に入っていることを除けば無作為に行なった.また被験者には1.不自然にならない限り,より細かく分割すること2.書かれた文章ではなく発声する場合の分割点を回答することという指示を与えた.}.\par新聞や日本語用例集はいわゆる「書き言葉」のスタイルであるのに比較して電子会議室の文章はより口語体に近く,これらは分割モデルにも影響を与える可能性がある.そこで両者のデータは別々に取り扱って分割モデル(確率木)を構成した.その結果前者は2,829個,後者は2,269個のノードからなる木が得られた.表\ref{TBL:RULES}に一例を示す.ただしノードとして採用するか否かの閾値には当該ノードの出現回数(カウント)を用い,その値は学習データ中の単語数に比例させた\footnote{新聞データの場合で50である.}.\begin{table}[t]\begin{center}\caption{生成された木に記述された分割確率の例(新聞データから得られたもの)}\label{TBL:RULES}\begin{tabular}{lr}\hlineパラメータ値&分割確率\\\hline$名詞[19]\rightarrow名詞[19],「者」$&0.33\\$名詞[19]\rightarrow名詞[19],「人」$&0.71\\$名詞[19]\rightarrow形容動詞[18],「的」$&0.36\\$動詞活用語尾[29]\rightarrow接続助詞[69],「て」$&0.03\\$名詞[19]\rightarrow格助詞[77],「を」$&1.0\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\epsfile{file=16.eps}\vspace{6mm}\caption{確率木のノード数}\label{FIG:CMPSTAT}\end{center}\end{figure}2つの確率木について得られたノードをいずれに含まれるかで分類し数を示したものが図\ref{FIG:CMPSTAT}である.得られたノードは,かなりの異なりがあることがわかる.\mbox{たとえば電子会議室}データから得られた確率木にのみ存在するノードの中で出現回数の多いものから上位3個\footnote{遷移後の表記$String$が縮退していないレベルのものに限った.}をあげると以下のようになる.\begin{tabbing}xxx\=xxxxxxxxxxxxxxxxx\=xxxxxx\=xxxxxxxxxxxxxxxxx\=\kill1.\>$接続助詞[69]$\>$\rightarrow$\>$活用語尾[31]「る」$\\2.\>$助動詞[62]$\>$\rightarrow$\>$接続助詞[73]「が」$\\3.\>$助動詞[48]$\>$\rightarrow$\>$接続助詞[73]「けど」$\\\end{tabbing}\parこれらの遷移を含む例文を上げると1.読ん+で+{\bfる},2....です+{\bfが},3....だ+{\bfけど}などであり,明らかに口語体特有の言い回しに伴う遷移が抽出されている.一方新聞データから学習し\breakた確率木にのみ存在するノードをみると体言止め\mbox{に伴う遷移($サ変動名詞[13]\:\rightarrow\:句点[100]「.」$}i.e.「...を議論+.」)や漢語の接辞($名詞[19]\:\rightarrow\:接辞[19],「会」$)\mbox{など直感的にも電子会議室}等の文章では比較的頻度が低いと考えられるものが多かった.\mbox{また両方の確率木に共通して出}\mbox{現しているノード1,607個}について分割確率の\mbox{相関係数を求めたところ0.980となりきわめて高}\mbox{い.したがって共通するノードに}ついてはほとんど違いはなく,2つの確率木の違いはノードつまりルールそのものに現れていることがわかった.\parこれらのモデルに基づいて以下のように多量の(形態素解析された)テキストを分割・統合する.\begin{enumerate}\item各形態素およびその遷移について,連接属性番号,品詞,形態素の表記を得て,確率木のリーフに記述があるかどうかを調べる.\itemなければ,木作成の説明で述べた順にパラメータ値を縮退させ,確率木に記述があるかどうかを調べる.\begin{itemize}\item記述があれば,0から1の範囲の乱数を発生し,その値がノードに付随する確率以下であれば当該位置で分割し,そうでない場合は分割しない.\item記述がなければ,縮退を繰り返す.\end{itemize}\itemもっとも上位のノードにも該当しない場合,形態素の分割点であれば当該位置で分割し,それ以外は分割しない.\end{enumerate}なお{\itN}-gramモデル作成には,乱数による分割処理(セグメントシミュレータ)は必ずしも必要ではなく,形態素解析の結果と分割確率を使って\mbox{直接各{\itN}-gramの生起確率を推定することも可}能である.\subsection{単語カバレージ}\begin{figure}[htb]\begin{center}\epsfile{file=signl96.fig3.ps,width=14cm}\caption{日経新聞3ヵ月のテキストに対する単語数とカバレージ}\label{FIG:COVERAGE}\end{center}\end{figure}われわれの提案した単語単位に基づく語彙を作成するための予備実験として日経新聞3カ月分(合計446,079文)を用い,前節の手続きを適用して分割,\mbox{連結を行う実験を行った.西村ら}の報告\cite{NISIMURA}によれば形態素を単位とした場合,\mbox{約97\%はおよそ3カ月分のテ}キストで収集できる(言い換えれば飽和する)ことがわかっている.\mbox{その結果を図\ref{FIG:COVERAGE}に示す.単}語は合計で約$10^{7}$個,のべ216,904種類の単語が生成された.図はそれらを頻度の高いのものから順にとった場合のカバレージを示している.ただし数字表現,姓名はカウントから除いている.一方同じテキストから形態素は132,164個が生成された.これによれば単語単位を採用す\breakると,形態素よりはより多くの種類が必要ではあるものの,決して発散するものではなく,た\breakとえば上位約25,000個(種類)の単語で全トークンの約95\%がカバーでき,\mbox{取り扱いが可能な語}彙数であることがわかる.\parこのとき確率木の各ノード(ルール)がどのような割合で使われたかを示したのが表\ref{TBL:USEDRULE}である.表から明らかなように全体の約60\%の場合には,一番詳細なレベルのルールが適用されていることがわかる.\begin{table}[htb]\begin{center}\caption{適用されたノードの比率(階層別)}\label{TBL:USEDRULE}\begin{tabular}{lr}\hlineパラメータ値&比率(\%)\\\hline$P(\sharp\midKoW_{1}[PoS_{1}]\rightarrowKoW_{2}[PoS_{2}],String)$&59.6\\$P(\sharp\midKoW_{1}[PoS_{1}]\rightarrowKoW_{2}[PoS_{2}])$&29.2\\$P(\sharp\midKoW_{1}\rightarrowKoW_{2})$&3.9\\$P(\sharp\midKoW_{2})$&6.6\\該当なし&0.7\\\hline\end{tabular}\end{center}\end{table}
\section{語彙とコーパス}
\subsection{コーパスの前処理}用意したコーパスのソースは日経新聞(93年から96年),\mbox{産経新聞(92年10月から97年),}毎日新聞(91年と92年),EDRコーパス\cite{EDR},\mbox{そしてパソコン通信「ピープル」に投}稿された電子会議室の記事である.ただし日経,産経の両紙は示した期間のすべてではなく,月単位で時期が重複しないように選択したサブセットである.新聞についてはその本文を句点単位で文として取り出し,前節で述べた処理を行った.ただし数字については形態素解析で1単語(品詞「数字」)として扱われてしまうので当該トークンをすべて桁付きの漢数字に変換した後,西村\cite{NISIMURA3}に記載された数字の読み上げ単位に合わせて分割した.すなわち整数については「十,百,千,万,億」を位と定義し先行する数字と位で1つの単位として取り扱い,小数点以下の位については1桁づつに分割する.たとえば1234.56は「千」「二百」「三十」「四」「・」「五」「六」と変換・分割されることになる\footnote{電子会議室の文章では電話番号やID番号にともなう数字があり,これらは位付きで読むことに適さない.そこでルールでそれらに該当すると判断した場合は1桁づつに分割した.}.\par一方ディクテーションのアプリケーションや一般ユーザーが入力するであろう文,言い回しを考えると新聞だけでは明らかに不足である.そこでより口語体に近いデータとしてパソコン通信「ピープル」から約90の電子会議室に投稿されたテキストを用意した.会議室・話題の種類そして投稿時期について特に恣意的な選択は行っていないが,結果としてはパソコン関連の話題が多く,テキスト量でみて約半分を占めている.電子会議室の投稿文は文ばかりではなく,文字を利用した表,絵などが多数含まれている他,他人の記述を引用する場合が多く,これらを含めてしまったのでは学習用コーパスとして不適切であることは明らかである.そこでルールベースでこれらをとり除くフィルターを作成した.主なルールとしては以下のようなものがある.\begin{itemize}\item引用記号(「>>」など)をもとに引用部分だと判断した行は除く.\item記号文字(「−」「*」など)の一定以上の繰り返しを含む行は除く.\itemフェースマーク(「:-)」など)のリストを作成し,それにマッチした箇所は特別な1個の記号に置き換え,未知語の扱いとする.\end{itemize}このフィルターを通した後,句点に加え空白行,一定数以上の連続した空白を手がかりとして文を取り出し,形態素解析,セグメントシミュレータの処理を行った.\vspace{-2mm}\subsection{語彙の作成}\vspace{-1mm}以上の分割済みテキストの内,日経新聞,産経新聞,EDR,そして電子会議室について,95\%以上のカバレージをもつ語彙を作成したところ,約44,000語の単語からなるセット(44K語\break彙)が得られた.このようにして得られた語彙は,人が日本語について単語単位だと感覚的に思うセットを示していると考えられる.たとえば「行う」という動詞とその後続の付属語列からは\smallskip\begin{tabbing}xxx\=xxxxxxxxxxxxxxx\=xxxxxxxxxxxxxxx\=xxxxxxxxxxxxxxx\=\kill\>行い\>行いたい\>行う\\\>行うべき\>行え\>行えば\\\>行える\>行った\>行ったら\\\>行って\>行っても\>\\\end{tabbing}の計11単語が生成された.また「たい」や「べき」といった単語も生成されており,分割に揺れがある部分では複数の分割に対応した単語が得られることがわかる.\subsection{学習コーパス文の選択}前節の結果得られた各文は局所的に見ると記号ばかりであったり,姓名の列挙部分であったりして学習コーパスには適さないものが含まれている.また電子会議室のテキストはフィルターのルールでカバーしきれなかった部分で単語ではないトークンが無視できない程度に生じていた.このような文については人手で採用するかどうかを決める,あるいは当該部分を除くことが望ましいが,多量のコーパスについてそのような作業を行うのは不可能なため,ここでは以下の条件のいずれかに当てはまる文は採用しないことにした.\begin{itemize}\item2単語以下から構成される文\item文の単語数に対する記号の数が一定以上の文\item44K語彙に対して未知語の数が一定以上の割合で含まれる文\end{itemize}音声認識用のコーパスにおいて句読点や括弧表現をどのように取り扱うべきかについてはさまざまな議論がある.松岡ら\cite{MATSUOKA}はカギ括弧以外の括弧(()【】など)について内容ごと削除しており,伊藤ら\cite{ITOHK}は括弧の用いられ方(引用,強調など)に応じて削除すべきかどうかを自動判別している.括弧による表現には確かに読み上げに適さないものも含まれているが,本研究では文章入力手段としての音声認識システムの構築を重視し,これらを削除しないことにした.また同じ理由で句読点も削除していない.その結果得られた文の数をソース別に示す(表\ref{TBL:SOURCE}).\begin{table}[htb]\caption{ソース別のテキストサイズ(文と形態素の数,Kは1,000,Mは100万を意味する)}\label{TBL:SOURCE}\begin{center}\begin{tabular}{lrr}\hlineソース&文数(K)&形態素数(M)\\\hline日経新聞&715&20.9\\産経新聞&1,837&49.4\\毎日新聞&1,401&41.4\\EDR&169&4.4\\電子会議室&1,565&33.6\\\hline\end{tabular}\end{center}\end{table}
\section{単語単位による言語モデル}
前節にしたがって単語単位に分割されたテキストを学習データとして{\itN}-gramモデルを学習するわけであるが,生起確率の計算上考慮すべきこととして数字,時刻などとくに各単語に確率上の差をつけるべき理由がないもの,および意味がまったく同じでありながら表記の異なる揺らぎが生じているものの取り扱いがある.前者については各単語をクラスにまとめて確率を計算することにし,合計36クラス作成した.後者は新聞の場合,用語統一がなされているため影響は少ないと考えられるが,電子会議室のテキストでは「コンピュータ」と「コンピューター」,「組み合わせ」と「組合せ」といった単語は両者とも多数含まれており明らかに無視できない.そこで44K語彙について「読み」をもとに同義語の候補を抽出した上でチェックを行い,約1,800エントリの別名リストを作成した.{\itN}-gramをカウントするさい,このリストを参照して1つの表記に統一した上で学習を行っている.\par一方,テストデータとして新聞3種類,電子会議室のテキストを別に用意し,被験者(単語分割モデルの学習データを作成した\mbox{被験者とは異なる)により分割を行なった.テストデータ}のそれぞれについて文数,形態素数,単語数,そして44K語彙のカバレージを表\ref{TBL:TESTDATA}に示す.この表から1文あたりの単語数は形態素数に比較して12-19\%程度少なくなることがわかる.\begin{table}[t]\begin{center}\caption{テストデータにおける諸元({\itイタリック}は1文あたりの平均数)}\label{TBL:TESTDATA}\begin{tabular}{lrrrr}\hline&文数&形態素数&単語数&カバレージ(\%)\\\hline日経新聞&600&21,378&18,725&98.3\\&&{\it35.6}&{\it31.2}&\\毎日新聞&725&22,051&18,608&96.1\\&&{\it30.4}&{\it25.7}&\\産経新聞&775&21,702&17,751&96.0\\&&{\it28.0}&{\it22.9}&\\電子会議室&1,381&29,979&24,204&94.4\\&&{\it21.7}&{\it17.5}&\\\hline\end{tabular}\end{center}\end{table}\mbox{本実}験の目的は\begin{itemize}\item単語を単位とした{\itN}-gramモデルの有効性,コーパスの必要量を評価する.\item新聞と電子会議室において単語{\itN}-gramモデルから見た違いを明らかにする.\end{itemize}の2点である.そこで新聞,電子会議室のそれぞれについてその種類,時期の違いを捨象するため,全学習データを文単位でシャッフルした上で8個に分割したサブセット(新聞:N-1,..,8,電子会議室F-1,...,8)を作成した.そして各サブセットをさらに95\%と5\%の比率で分割し前者を{\itN}-gramカウント,後者をHeld-out補間のパラメータ学習用に用いた.\par\begin{figure}[htb]\begin{center}\epsfile{file=perpnewsc.eps,width=11cm}\caption{新聞データから学習したモデルのテストセットパープレキシティ}\label{FIG:PERPNEWS}\end{center}\end{figure}まず新聞について学習データ(N-1,..,8)を順に増加させながら言語モデルを作成し,各モデルをテストセットパープレキシティで評価した.ただし学習データに1回でも出現した{\itN}-gram(trigramまで)は\mbox{すべて使用しており,また未知語部分については予測を行っていない.結果}を図\ref{FIG:PERPNEWS}に示す(電子会議室に関するデータは「Forum」と表記している).予想されるようにいずれのテストデータでも学習コーパスの増加にともなってパープレキシティは緩やかに改善されるが次第に飽和する傾向がみてとれ,いずれの場合も学習データセットを7個から8個に増やしたときのパープレキシティの改善率は1-2\%程度でしかない.パープレキシティの絶対値には相当の差があり,新聞といってもひとくくりにできないことは明らかだが\footnote{コーパスの量では産経新聞が一番多く,学習データ量でとくに不利に扱われたとは考えにくい.},その値(100-170)は音響識別上対応可能な値であると考えられる\cite{NISIMURA4}.一方電子会議室のテストデータはもっとも良いケースでも400以上のパープレキシティを示しており新聞の学習データだけでは対応できていないことがわかる.\begin{figure}[htb]\begin{center}\epsfile{file=perpforum2c.eps,width=11cm}\caption{混合した電子会議室データのサイズとテストセットパープレキシティ}\label{FIG:PERPFORUM}\end{center}\end{figure}\begin{figure}[htb]\vspace*{4mm}\begin{center}\epsfile{file=ngramsc.eps,width=11cm}\caption{学習データサイズと{\itN}-gramの異なり数(新聞)}\label{FIG:NGRAM}\vspace{-3mm}\end{center}\end{figure}\parわれわれの目的は新聞にとどまらず,より口語体に近い電子会議室に投稿される文にも対\mbox{応できる言語モデルを作成することである.}そこで新聞データすべてを使用した言語モデルをベースとし,電子会議室の学習データ(F-1,..,8)を加えていくことにより各テストデータのパープレキシティがどのようになるかを評価した.結果を図\ref{FIG:PERPFORUM}に示す.\mbox{この結果,電子会議室につい}\mbox{てそのパープレキシティは改善される一方,}使用したデータ量の範囲(約25M単語)では,新聞に対する影響はほとんどなかった\footnote{細かく見れば,産経新聞はさらに改善されるのに対し,日経新聞はわずかながら悪くなる傾向があり,新聞間の差を示唆している.}.一方電子会議室\mbox{のみから作成した言語モデルで(電子会議}室の)テストデータを評価すると152.1\mbox{であり,若干の差は見られるものの,混合学習データか}ら作成した言語モデルは新聞・電子会議室の双方に対応できることがわかる.これは双方の統計的異なりが共通している{\itN}-gramの確率が相違しているというよりも,{\itN}-gramの種類に,より大きく現れていることを示唆している.\par一方コーパスのサイズと結果として得られたモデルのサイズ,すなわち{\itN}-gramの異なり数\mbox{の関係を見たのが図\ref{FIG:NGRAM}である.}これは新聞データ(N-1,..,8)の場合であるが,bigram,trigramとも飽和する傾向は見てとれない.電子会議室テキストを加えた場合も同様でN-1,...,8,F-1,...,8すべてを学習データに使用した場合の\hspace{-0.1mm}{\itN}-gram\hspace{-0.1mm}数は\hspace{-0.1mm}trigram\hspace{-0.1mm}が31M個,bigramが5.6M個に達し\breakた.とくにtrigramは学習データサイズの増分に対しほとんど比例して増加している.今後主\break記憶,外部記憶の容量がさらに増加するとしてもこの{\itN}-gram数(異なり)のままでは,実装することが難しい.そこで{\itN}-gramの中で低頻度のものを除くことが,パープレキシティにどのような影響を与えるかを検証する実験を行った.結果を図\ref{FIG:SMALLLM}に示す.{\itN}-gramの異なりの多くを占めるのはtrigramなので,学習データはN-1,...,8,F-1,...,8すべてを使用した上で,言語モデルを作成するとき\hspace{-0.1mm}trigram\hspace{-0.1mm}の最低出現回数を設定することにより,\mbox{モデルのサイズを変更してい}る.図から\hspace{-0.05mm}trigram\hspace{-0.05mm}の異なり数が\hspace{-0.05mm}5M\hspace{-0.05mm}個以下になるとパープレキシティが\mbox{急速に悪くなる傾向が}見てとれるが,一方モデルサイズを1/3〜1/5にした程度ではパープレキシティの差は小さいことがわかる\footnote{ここでは,言語モデルに含める最低出現回数を1,...,8に設定している.グラフから出現回数1のものを除くだけでtrigramの異なり数は31M個から9M個に減少することがわかる.}.\begin{figure}[htb]\begin{center}\epsfile{file=perpsmallc.eps,width=11cm}\caption{trigramの異なり数とテストセットパープレキシティ}\label{FIG:SMALLLM}\end{center}\end{figure}
\section{おわりに}
このように,本研究では比較的少量の人による分割データから揺らぎを含めた分割傾向を推定する手法について述べ,新聞およびパソコン通信の電子会議室を学習データとして,そのモデルからつくられた単語の集合と言語モデルについて考察した.結果として,人が単語と意識する単位はその揺らぎを含めても発散することはなく,約\hspace{-0.05mm}44K\hspace{-0.05mm}で\hspace{-0.05mm}94-98\%\hspace{-0.05mm}\mbox{程度のカバレージが}得られること,形態素に比較して1文あたりの要素数が12-19\%程度減少すること,電子会議室と新聞では,{\itN}-gramモデルからみた統計量に相当の差があり,予想されたように新聞単体では十分に対応できないものの,新聞をベースとして電子会議室のテキストを混合させたデータから作成した言語モデルは新聞のテストデータに対するパープレキシティを増大させることはほとんどなくその双方に対応可能であることがわかった.分割モデル,{\itN}-gramモデルのいずれも,データの種類(新聞,パソコン通信)に依存している.これ自体は容易に予想できることであるが,その異なりが共通する事象の確率が異なるというよりも事象自体の異なりにより大きく現れていることは興味深い.\par形態素との効率比較という意味では,同一学習データから作成した言語モデルを用いて単位長さ(たとえば文)あたりのパープレキシティを比較する必要がある.これについて学習,テストデータ量は少ないものの,すでに報告を行っており,文あたりパープレキシティがほぼ等しく,したがって単位長が長い分,より有利な単位となっていることを確認している\cite{NISIMURA4}.\parコーパス量とパープレキシティの関係について,とくに日本語に関して報告された例はほとんどないため,他の研究と比較して議論することが難しい.本研究の実験からは400万文強のデータではまだパープレキシティが減少するが,その改善率は低く数倍以上のデータがないと意味のある改善が難しいことを示唆している.\par人が感覚的にある単位だと判断する日本語トークンについて考察した他の研究との関連についても述べておきたい.原田\cite{HARADA}は人のもつ文節単位の概念に関する調査結果から,「文字列またはモーラ長が一定以上になると分割しようとする動機がたかまる」という仮説を提起している.われわれの分割モデルでは分割が2形態素の遷移情報のみで独立に起こることを仮定しているが,この独立性については検討が必要であろう.横田,藤崎\cite{YOKOTA}が短時間に認識できる文字数とその時間との関係から求めた認知単位は,とくに平均長は述べられていないものの,例をみる限りわれわれの単位より明らかに長い.同論文では「人は文を文字単位で処理しているのではない」と結論しているが,加えて,分割できる最小単位の列として知覚されているのでもないということになる.\par今後は,コーパスサイズをより大きくするとともに句読点を削除した場合との比較・考察や,単語分割モデルの分割確率とポーズ位置との関係\cite{TAKEZAWA},さらに上記で述べた分割の独立性について検討したいと考える.\vspace{4mm}\par\par本研究にテキストデータ使用を許諾していただいた,産経新聞社,日本経済新聞社,毎日新聞社(CD-毎日新聞91-95),そして(株)ピープルワールドカンパニーに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n2_01}\begin{biography}\biotitle{略歴}\bioauthor{伊東伸泰}{1982年大阪大学基礎工学部生物工学科卒業.1984年同大学院博士前期課程修了.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所において文字認識,音声認識の研究に従事.情報処理学会会員.}\bioauthor{西村雅史}{1981年3月大阪大学基礎工学部生物工学科卒業.1983年3月同大学院物理系博士前期課程修了.同年,日本アイ・ビー・エム(株)入社.以来,同社東京基礎研究所において,音声認識などの音声言語情報処理の研究に従事.工学博士.平成10年情報処理学会山下記念研究賞受賞.情報処理学\break会,日本音響学会,電子情報通信学会各会員.}\bioauthor{荻野紫穂}{1986年東京女子大学文理学部日本文学科卒業.1988年同大学院文学研究科修士課程修了.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所に勤務.現在,音声認識システムの研究開発に従事.情報処理学会,人工知能学会,計量国語学会各会員.}\bioauthor{山崎一孝}{1988年東京工業大学工学部情報工学科卒業.1990年同大大学院総合理工学研究科システム科学専攻修士課程修了.1993年同大大学院理工学研究科情報工学専攻博士課程修了.工学博士.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所に勤務.文字認識,音声認識の研究および製品開発に従事.電子情報通信学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N04-09
|
\section{はじめに}
日本語のテンス・アスペクトは,助動詞「タ/テイル/テアル/シツツアル/シテイク/…」などを付属させることによって表現される.中国語では「了/着/\kanji{001}(過)/在」などの助字がテンス・アスペクトの標識として用いられるが,テンス・アスペクトを明示的に表示しない場合も多い.言語学の側からの両言語のテンス・アスペクトに関する比較対照の先行研究においては,次のような文献がある.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item\cite{Ryu1987}は両言語の動詞を完成と未完成に分類しながら,「タ」と「了」の意味用法を対比した.\item\cite{Cho1985}は,「了」と「た」の対応関係を描き,その微妙に似通ったり,食い違ったりする原因,理由を探している.\item\cite{Shu1989}は,「タ」と「了」のテンス・アスペクトの性格について論じている.\item\cite{Oh1996}は,「シテイル」形の意味用法を基本にして,日本語動詞の種別に対する中国語の対応方法を考察している.\item\cite{Ryu2000}は,中国語の動詞分類によって,意味用法上で日本語のテンス・アスペクトと中国語のアスペクト助字との対照関係を述べている.\\\end{enumerater}これらの言語学側の先行研究では,日中両言語間のテンス・アスペクト表現の対応の多様性(すなわち曖昧性)を示すと同時に,動詞の時間的な性格や文法特徴の角度から曖昧性を解消する方法も論じている.しかしながらこれらの先行研究では,例えば「回想を表す場合」や「動作が完了或いは実現したことを表す場合」などといった表現での判断基準を用いており,そのまま計算機に導入することは難しい.すなわち,これらの判断基準は人間には了解できても,機械にとっては「どのような場合が回想を表す場合であるのか」「どのような場合が完了あるいは実現したことを表す場合であるのか」は分からない.本論文では,機械翻訳の立場から,日本語のテンス・アスペクト助辞である「タ/ル/テイル/テイタ」に対して,中国語側で中国語のテンス・アスペクト用助字である「了/着/\kanji{001}(過)/在」を付属させるか否かについてのアルゴリズムを考案した.その際,\maru{4}では日本語述語の時間的性格を分析して中国語への対応を論じているが,我々は日中機械翻訳においては対応する中国語の述語はすでに得られていると考えてよいから,中国語の述語の時間的性格も同時に判断の材料としてアルゴリズムに組み込んだ.そのほか両言語における述語のいくつかの文法特徴や共起情報も用いた.以下,第2章で両言語におけるテンス・アスペクト表現の意味用法およびその間の対応関係についてまとめ,第3章で,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムについて述べた.さらに第4章で,作成した翻訳アルゴリズムの評価を手作業で行った結果を説明し,誤った箇所について分析も行った.評価の結果は約8割の正解率であった.
\section{日中両言語におけるテンス・アスペクト助辞の意味用法とその対照}
まず両言語におけるテンス・アスペクト助辞の意味用法を整理する.\subsection{日本語側のテンス・アスペクト助辞の意味用法}本論文で取り上げる「タ」「ル」「テイル/テイタ」の主な意味用法は以下のように整理できる\cite{Shu1989,Kanemizu2000,Masuoka1992,Oh1996,Teramura1991}.\\「タ」には以下の意味用法がある.\begin{enumerate}\item動作や作用,変化が発話時点あるいは注目時点より前に完成したという過去の意味を表す.\itemアスペクト(完了または実現)を表す.\itemムードの働きをする.\\\end{enumerate}基本形「ル」には以下の意味用法がある.\begin{enumerate}\item現在あるいは現在までの状態,発話時での知覚・思考あるいは話し手の行為を表す.\item実現が確実な場合に,未来の状態,出来事,動作を表す.\item習慣や反複される出来事・動作が現在に及んでいる場合,基本形で表現される.\item時間を超越した事態を表す.\\\end{enumerate}「テイル/テイタ」には以下の意味用法がある.\begin{enumerate}\item動作の進行中を表す.\item動作・作用の結果の残存を表す.\item習慣または繰り返し行う動作を表す.\item現在に意義を持つ過去の事象を表す.\end{enumerate}\subsection{中国語のテンス・アスペクト助字の意味用法}中国語におけるテンス・アスペクト的なものは「了」,「着」,「\kanji{001}」などの助字,時間副詞(「已\kanji{002}」,「就」,「在」など),趨向補助語(「去」,「来」,「起来」など)および結果補助語(「完」,「到」,「\kanji{003}」,「在...上」など)で表される.時間副詞「已\kanji{002}」,「就」は日本語の「もう/すでに」,「すぐに」などの時間表現に対応するものであるので,我々は既に翻訳処理は為されているものと考える.また,趨向補助語および結果補助語は,機械翻訳の立場から見れば,動詞・形容詞に対応する訳語の一部として辞書に記載され既に訳出されていると考えられる.従って,以下では助字「了」,「着」,「\kanji{002}」,および副詞「在」について考察することとした.これらの語の意味用法については以下のように整理できる\cite{Ryu1996,Kanemizu2000,Shu1989,Ro1980,Cho1985}.\\「了」には以下の意味用法がある.\begin{enumerate}\item過去を表す.\item完了または実現を表す.\item変化が生じた事を表す.\item語気の役を担う.\\\end{enumerate}文中の位置と役割によって,「了」は「了1」,「了2」の二つに区別される.動詞の直後に用いられる「了」を「了1」と書くことにする.「了1」は主に動作の完了を表す.その動詞が目的語/補助語を伴えば,「了1」は目的語/補助語の前に置かれることになる.文末に置かれる「了」を「了2」と書くことにする.「了2」は主に事柄に変化が起こったことを表すが,変化が起ころうとしていること(語気)を表す働きもある.文中の述語が目的語/補助語を伴えば,「了2」は目的語/補助語の後に置かれることになる.「了1」は主に完了,「了2」は主に変化が生じたことを表すが,「\kanji{004}杏\kanji{005}叶全部落光\underlines{了}./銀杏の葉が全部落ちてしまった.」のように「了」は変化が生じたこと(木の葉の状況が変化したこと)を表すか,動作の完了(動作「落ちる」が完了したこと)を表すかの区別は,明確であるとは言えない.\\「\kanji{001}(過)」には以下の意味用法がある.\begin{enumerate}\item動作が済んだことを表す.\item経験を述べる.\\\end{enumerate}(1)の用法に対しては「\kanji{001}」を「了」に入れ替えることができるが,(2)の用法に対しては「了」に入れ替えることはできない.例えば,「他去\kanji{001}中国./彼が中国に行ったことがある.」は経験の意味を表すが,「他去了中国./彼が中国に行った.」または「他去中国了./彼が中国に行った.」では経験という意味を表現できない.\\「着」には以下の意味用法がある.\begin{enumerate}\item動作の進行中を表す.\item動作・状態の持続を表す.\item語気を表す.\\\end{enumerate}「在」の意味用法:副詞である「在」は文中の主語と述語の間に介入し,動作の進行中を表す.「着」も同じ動作の進行中を表すが,「着」に接する動詞は状態性が強い,「在」に接する動詞は動作性が強いという相違点がある.\subsection{両言語のテンス・アスペクトの意味用法の対照}日本語のタ/ル/テイル/テイタ,中国語の了/着/在には,前述したようにさまざまの意味用法があり,単純にタ→了,ル→$\phi$,テイル→着,テイタ→在と対応させるようなわけにはいかない($\phi$はアスペクト助字を使わないことを指す).「タ」は「了」より多くの場面で使われ,「了」をつけることができない場合や結果補助語,趨向補助語と対応する場合などがある\cite{Ryu1987,Cho1985}.「テイル/テイタ」は「在」,「着」,「了」などに対応する\cite{Oh1996}.「ル」は現在・未来の出来事,習慣あるいは時間を超越した事態を表すが,中国語ではそのような場合ふつう$\phi$に対応する.しかし変化が生じたことを表すときは「了」と対応する.例えば,「この町へ引越ししてきてから,かれこれ5年になる.」の中国語訳では「搬到\kanji{006}个城市一\kanji{017}眼五年\underlines{了}.」と「了」を使う.テンス・アスペクトの意味はその標識のみによって決定されるのではなく,動詞の時間的な性格や修飾語などによっても影響される.両言語の動詞等の時間的な性格や修飾語,文法特徴には違いがあるから,意味用法間の対応関係には曖昧性が生じてくる.第3章では,機械翻訳の立場から,両言語の文法特徴および中国語述語の時間的性格に基づいてその曖昧性を解決する方法について考察する.
\section{「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズム}
ここで述べるアルゴリズムは,「タ/ル/テイル/テイタ」によるテンス・アスペクトの表現以外の処理は終わっているものとして,「タ/ル/テイル/テイタ」をどのように中国語に翻訳すれば,整合の取れた正しい翻訳になるかという立場からのものである.従って,原文である日本語文に関する情報だけでなく,「タ/ル/テイル/テイタ」以外に関する中国語翻訳文についての情報も使えるものとしている.このアルゴリズムは,主語,目的語等の文法特徴や共起する語彙,中国語動詞の時間的性格属性などを主な手がかりとしている.この章ではまず中国語動詞の時間的性格分類について述べる.\subsection{中国語述語の時間的性格分類}\cite{Ryu2000}は,中国人の日本語学習の観点から日中両言語を対照し,中国語の動詞が未然・継続と已然・非継続において,対立を持っているか否かという視点から,時間的性格分類を行っている.本文ではその分類を参考にして多くの例文に対して翻訳アルゴリズムを検討し,結果として表1に示すように分類した.劉の分類との主な違いは,\maru{1}静態動詞に分類されていた心理・生理的状態動詞を動作性が強いか,状態性が強いかによって心理活動動詞と心理状態動詞の二つに分けたこと,\maru{2}形容詞は事柄の性質・状態を表すという点で静態動詞と機能が同じであるので,静態動詞に分類したことである.結果動詞については,「着」を付加できるか否かを判定条件とした(付加できなければ結果動詞).\begin{table}[htbp]\label{HYO1}\caption{中国語述語の時間的性格分類}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|l|}\hline大分類&\multicolumn{1}{|c|}{細分類}&\multicolumn{1}{|c|}{例}\\\hline\hline&\maru{1}動作行為動詞&\kanji{008}\kanji{009},\kanji{010},拍\\\cline{2-2}\cline{3-3}&\maru{2}動作状態動詞&挂,穿,吊\\\cline{2-2}\cline{3-3}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{動態動詞}&\maru{3}心理活動動詞&回\kanji{011},体会,\kanji{012}料\\\cline{2-2}\cline{3-3}&\maru{4}移動動詞(趨向動詞)&来,上,去\\\hline&\maru{1}属性動詞&当做,是,缺乏\\\cline{2-2}\cline{3-3}&\maru{2}存在動詞&有,在,\kanji{013}有\\\cline{2-2}\cline{3-3}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{静態動詞}&\maru{3}心理状態動詞&知道,佩服,后悔\\\cline{2-2}\cline{3-3}&\maru{4}形容詞&静,来不及,少\\\hline&\maru{1}「V+V」構造&采用,取得,下降\\\cline{2-2}\cline{3-3}&\maru{2}「V+Adj」構造&提高,放\kanji{014},打乱\\\cline{2-2}\cline{3-3}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{結果動詞}&\maru{3}「V+趨向補助語」構造&冲出,走上,跨\kanji{090}\\\cline{2-2}\cline{3-3}&\maru{4}瞬間変化動詞&\kanji{015}\kanji{016},死,看\kanji{003}\\\hline\end{tabular}\end{center}\end{table}結果動詞の\maru{1}「V+V」構造はその動詞の内部構造が二つの動詞からなるもの;\maru{2}「V+Adj」構造はその動詞の内部構造が動詞と形容詞からなるもの;\maru{3}「V+趨向補助語」構造はその動詞の内部構造が動詞と趨向動詞(補助語)からなるものという意味である.付録に,第4章で評価する際に対訳される中国語の述語についての時間的性格分類を示す.\subsection{「タ」の翻訳アルゴリズム}「タ」は「了/\kanji{001}」などのアスペクト助字と対応するばかりでなく,結果補助語,趨向補助語と対応する場合がある\cite{Cho1985}.しかし,前述のように,機械翻訳の立場から見れば,結果補助語や趨向補助語は述語部分に対応する訳語の一部として辞書に記載され,既に訳出されていると考えられる.例えば,次の例の訳文中の趨向補助語「出来」は述語「整理/とりまとめる」と一緒に訳出される.\\例文:残された外来語の表記の見直しについては62年1月以来,審議を続け,委員会試案として\underlines{とりまとめた}.訳文:剩下的外来\kanji{019}\kanji{020}写法的修\kanji{021}工作,自一九八七年一月以来,\kanji{002}多次\kanji{022}\kanji{023},才作\kanji{024}委\kanji{025}会的\kanji{026}行方案\underlines{整理\underline{出来}}.\\従って,以下では「タ」に「了」を対応させて訳出すべきか否かを中心に,「タ」と「了/\kanji{001}」などのアスペクト助字との対応について考察する.以下では,いくつかの構文的特徴から「了」の使用,不使用を決められる場合と,動詞の時間的性格から決められる場合とについて考察し,次いで全体をひとつのアルゴリズムにまとめる.\paragraph{(i)連体節の場合}日本語では連体節中の「タ」は,連体修飾される名詞に対する視点が修飾する事柄の前のものにあるのか後のものにあるのかという,相対的な時間関係を表す.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\itemアラスカへ行った次郎視点は``アラスカへ行った後''の次郎にある;\itemアラスカへ行く次郎視点は``アラスカへ行く前''の次郎にある.\end{enumerater}中国語では連体節と連体修飾される名詞を「的」でつないで表現するが,その際日本語のように時間的関係を表現することは必須ではない.すなわち,\maru{1}の場合「了」を使う表現「去\underlines{了}阿拉斯加的次郎」もあるが,「了」を使わない表現「去阿拉斯加的次郎」も許される.その場合に時間的な関係は文脈や常識から判断される.つまり動詞が連体節を作るとき,単に状態や属性を示すだけのものに変わり,時間性から解放される方向を辿る\cite{Cho1985}.従って我々のアルゴリズムでは連体節の「タ」は$\phi$と対応させることとした.ただし,形式名詞が連体修飾されている場合には,若干事情が異なる.「〜たことがある」,「〜たことがない」は経験を表す表現であるので,$\phi$でもまた「了」でもなく,「\kanji{001}」を対応させなければならない.「〜たことがある」は全体が連体節になる場合,例えば,「アラスカに行っ\underlines{たことがある}次郎はカナダにも行きたい.」は「去\underlines{\kanji{001}}阿拉斯加\underlines{的}次郎\kanji{027}想去加拿大.」のように,「\kanji{001}」を使う連体節と連体修飾名詞を「的」でつないだ文に訳される.「連体節+形式名詞」が完了を表す「もう/すでに」を伴うとき,「了1」を使う.形式名詞によって受け止められる連体節でこれら以外の場合は,述語がそのまま主語あるいは目的語になって「了」を使わない.従って,「タ」の対応は$\phi$とする.\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/1.eps,width=135mm,height=28.5mm}\caption{連体節中の「タ」の翻訳}\label{fig:1}\end{center}\end{figure}\paragraph{(ii)否定表現の場合}中国語では「没有/没」で動作・作用の起こったことあるいは完了したことを否定する.変化の意味を含まない限り,「没有/没」は過去のことを表すと了解されるから,「了」を使う必要はない.また,「不」で性質・状態を否定する.性質,状態およびその否定は時間性と関係ないから,「没有/没」と同じように変化の意味を含まない限り,「了」を使わない.「没有/没」と「不」を伴うとき,事態の変化の意味を含むなら,「了2」を使う(ivの\maru{2}参照).しかし,変化の意味を含むか否かの判別については,日本語側の「形容動詞+でなくなった(静かでなくなった)」,「形容詞+なくなった(明るくなくなった)」,「名詞+でなくなった(子供でなくなった)」,「動詞+なくなった(食べなくなった)」の場合を変化の意味を含むとし,その他の場合については判別できていない.\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/2.eps,width=127.2mm,height=26mm}\caption{否定表現と「タ」の翻訳}\label{fig:2}\end{center}\end{figure}\paragraph{(iii)文法的特徴から「了」を使わないと判断できるその他の場合}以上の他,日本語では「タ」を使うが対応する中国語では「了」を使わない場合として,次のような場合が観察される\cite{Ryu1996}.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item介詞フレーズ補助語を伴う場合.介詞フレーズ(介詞「于/自/向」+名詞)は動詞の後ろに用いられて補助語になる.これを介詞フレーズ補助語と呼ぶ.介詞フレーズ補助語は単に状況を紹介するためだけの表現である.中国語で,このような介詞フレーズ補助語を伴っている文では介詞「向」以外の場合は「了」を用いてはいけない.例えば,「他一九〇七年生\underlines{于}北海道旭川町.」/「彼は明治40年,北海道・旭川町に生まれ\underlines{た}.」において「了」を使ってはいけない.「向」の場合には,直後に完了を表す「了1」を使っても使わなくても同じ意味(状況を紹介する)を表す.例えば,「他把目光\kanji{017}\,\underlines{向}我.」と「他把目光\kanji{017}\,\underlines{向了}我.」/「彼は視線を私に転じた.」において,「了1」を使っても使わなくても同じ「視線を転じた」ことを表す.以上のことから,本アルゴリズムでは介詞フレーズ補助語を伴う場合,「了」を使わないとした.\item「是…的.」構文の場合.中国語「是…的.」構文は二つの機能がある.一つは述語の動作が過去においてすでに完了したことを表すが,述べようとする重点は動作自体にあるのではなく,動作の時間や場所,やり方,条件,目的,対象,仕手,動作に関係する何らかの側面にある.この場合すでに完了したことであっても「了」を使わない.例えば,「我\kanji{028}\,\underlines{是}坐\kanji{029}\kanji{030}去\underlines{的}.」/「私達は電車に乗って行ったのです.」では動作「行く」に関するやり方の側面である「電車に乗って」を重点として述べている.もう一つの機能は主に話者の見方や見解,態度を表す機能である.このような話者の判断を表現する場合,専ら完了を表す「已\kanji{002}」(「すでに」の意味)を伴わない限り,「了」を使わない.例えば,「\kanji{006}个\kanji{031}\kanji{032},我\kanji{028}\,\underlines{是}很注意\underlines{的}.」/「この問題に関して,我々は関心をいだいた.」には「了」を使わない.「已\kanji{002}」がある場合には「我\kanji{028}已\kanji{002}是注意到\kanji{006}个\kanji{031}\kanji{032}了的.」のように「了」を使う(この場合日本語では「我々はこの問題にすでに関心をいだいていた.」のように「ていた」が使われる).これらのことから,本アルゴリズムでは,「是…的.」構文においては,副詞「已\kanji{002}」を伴っているとき以外,「了」を使わないとした.\item述語が結果補助語あるいは趨向補助語を伴っている場合.この場合は,補助語によってアスペクトが表現されており,「了」と共存してもしなくてもよい.例えば,「\kanji{037}\kanji{038}的地\kanji{033}情况\kanji{034}修\kanji{035}\kanji{018}\,\underlines{来}了困\kanji{036}.」/「複雑な地質の状況が橋工事に困難をもたらした.」には,「了」を使っても使わなくてもよい(「来」$\in$趨向補助語).本アルゴリズムでは,明確に変化の意味を含んでいると判断される場合以外は,「了」を使わないとした.変化の意味を含むか否かについてはivの\maru{2}と同様に判断する.\end{enumerater}\paragraph{(iv)文法的特徴から「了」を使うと判断できるその他の場合}逆に以下の場合には,完了或いは変化の意味を表すと判断できるので,「了」を使わなければならない.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item日本語の文で,もっぱら完了を表す「もう」・「すでに」を伴っている場合.\item日本語の文で,変化あるいは完了を表す「になった」/「なった」を伴っている場合.この場合,述語が目的語を伴う時,完了を表す「了1」,伴わなければ,変化を表す「了2」とする.\\例文:彼は勤勉によって実業家\underlines{になった}.\\訳文:他通\kanji{001}努力成\underlines{了}一个\kanji{039}\kanji{040}家.\item日本語の従属文が「したら」であり,主文が「タ」である場合.このような文は,過去に実際には起こらなかったことを起こりえたこととして主張している.主文の「タ」形に対して主文の中国語の訳では変化が起ころうとしている語気を表す,「了2」を使う.\\例文:もし君が昨年まじめに勉強しなかっ\underlines{\underline{たら}},今この大学の学生でいられなかっ\underlines{た}ろう.\\訳文:如果\kanji{041}去年没\kanji{042}真地学\kanji{043},\kanji{016}在就不是\kanji{006}个大学的学生\underlines{了}.\item日本語の文末が「〜てしまった」である場合.状況が好ましいものでない「〜てしまった」は行為・状態の実現を明示する「了2」と対応する.\\例文:誕生日におばのくれた指輪を昨日なくし\underlines{てしまった}.\\訳文:生日那天姑母\kanji{034}我的戒指昨天\kanji{044}\,\underlines{了}.\item中国語の文が数量補助語を伴っている場合.この場合,すでに到達した数量,または完了までの持続時間を表す.例えば,「\kanji{014}\,\underlines{了}\,\kanji{045}天会.」/「2日間会議を開い\underlines{た}.」には会議が終わるまでの持続時間(2日間)を表す.述語の直後,数量補助語の前に「了1」あるいは「\kanji{001}」を使う可能性があるが,「了1」で「\kanji{001}」を代用しても到達した数量,または完了までの持続時間を同様に表現できるから,本アルゴリズムでは「了1」を使うとした.\end{enumerater}\paragraph{(v)述語の時間的性格からの「了」の使用/不使用の判断}\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item一般に静態動詞は状態や性質を表し,時間性と関係ないため「了」を使わない.\item引用を表す動態動詞の場合.引用表現の重点が動作の完了に置かれるならば「了」を取らないこともないが,たいていの場合には表現の重点は引用された内容の紹介,描写に置かれているのであって,引用の媒介である動作が完了したか否かに関係なく,「了」は使わない\cite{Cho1985}.本アルゴリズムでは,この場合も「了」を使わないとした.なお,引用を表す動詞(「\kanji{046}…」/「…」と話した,「以\kanji{024}…」/「…」と思った,「倡\kanji{023}…」/「…」と提唱したなど)については,辞書に引用を表す動態動詞であるという属性が付与されているものとする.\item残った動態動詞と結果動詞の場合には,「タ」を過去あるいは完了を表す「了1」に対応させる.\\\end{enumerater}表2は,以上の考察をアルゴリズムの形にまとめたものである.表中の処理1〜13は文法特徴による個別的・特殊的な判別条件,処理14〜16は(v)の中国語述語の時間的性格による一般的な判別条件である.この処理順は,前述の(i)〜(v)の考察をより個別的・特殊的な条件を先に調べるという原則で並べたものである.ただし,以下の``[...]''中の処理は順序に関係がない.\begin{center}1→2→3→[4,5,6]→7→[8,9]→[10,11]→[12,13]→[14,15]→16\\$\longleftarrow$特殊性が強い一般性が強い$\longrightarrow$\end{center}$\phi$は「了」を使わないという意味である.また,(日)は日本語に関する条件であること,(中)は中国語に関する条件であることを表している.\begin{table}[htbp]\label{HYO2}\caption{「タ」形の翻訳を決める手順}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|c|}\hline処理順&\multicolumn{1}{|c|}{判別条件}&処理\\\hline\hline1&(日)「〜たことがある/ない」&[\kanji{001}]\\\hline2&(日)連体節(「連体節+形式名詞」を除く)&$\phi$\\\hline3&(日)「もう」・「すでに」を伴う時&[了1]\\\hline4&(日)「連体節+形式名詞」の場合&$\phi$\\\hline5&(中)「是…的.」構文&$\phi$\\\hline6&(中)介詞フレーズ補助語を伴う&$\phi$\\\hline7&(日)「になった」/「なった」:(中)目的語を伴う時&[了1]\\\hline8&(日)「になった」/「なった」&[了2]\\\hline9&(日)従属文が「したら」である場合,主文のタ形&[了2]\\\hline10&(中)否定&$\phi$\\\hline11&(中)趨向・結果補助語がある場合&$\phi$\\\hline12&(中)数量補助語を伴う場合&[了1]\\\hline13&(日)「〜しまった」の場合&[了1]\\\hline14&(中)静態動詞(述語性格で判別する.以下同様)&$\phi$\\\hline15&(中)引用を表す動態動詞&$\phi$\\\hline16&(中)動態動詞・結果動詞&[了1]\\\hline\end{tabular}\end{center}\end{table}\subsection{「テイル/テイタ」の翻訳アルゴリズム}日本語で「テイル/テイタ」が使われている場合に,中国語への翻訳としては2.1節で述べた「テイル/テイタ」の意味用法に概ね対応して,「了」,「着」,「在」などのアスペクト助字を使う,あるいはこれらのどれも使わない($\phi$).これらの使い分けは,主として中国語の述語を中心とする事情によるものであり,日本語の側での意味解析・意味分類によるよりも,主として中国語側の状況に依存して使い分けるほうが合理的であり,有利である.以下では主として中国語側の構文的特徴と動詞の時間的性格から,これらのアスペクト助字を使用する場合について考察し,次いで全体をひとつのアルゴリズムにまとめた.\paragraph{A.$\phi$とする場合}\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item日本語で習慣を表す,あるいは動作が繰り返し行われる「毎〜」や「たいてい」を伴う場合.この場合は,進行中と見なされ,中国語では「在」を使うか,あるいはアスペクト助字のどれも使わない.例えば,「父は最近毎朝走っている.」に対しては「父\kanji{047}最近\kanji{048}天早晨\underlines{在}\,\kanji{049}\kanji{241}.」と「父\kanji{047}最近\kanji{048}天早晨\kanji{049}\kanji{241}.」はどちらでも繰り返して「走る」ことを表すが,本アルゴリズムで「在」を使わない,つまり$\phi$とする.\item述語が中国語の静態動詞に訳される場合.静態動詞は状態や性質を表し,時間性と関係ないため,アスペクト助字のどれも使わない.例えば,次の例の訳文中の「\kanji{050}次\kanji{052}比」は形容詞(静態動詞)であり,アスペクト助字のどれも使わない.\\例文:(裏寺町通は)わずか500メートルほどの通りだが,16の寺が軒を\underlines{連ねている}.\\訳文:(里寺町街)\kanji{053}不\kanji{001}五百米,却有十六座寺院\underlines{\kanji{050}次\kanji{052}比}.\item述語が中国語に訳すとき名詞化される場合.この場合には時間性が失われるため,$\phi$にする.例えば,次の例文で日本語の連体修飾「述語+形式名詞(の)」は,訳文で「的」によって名詞化されて主文の主語になり,アスペクト助字のどれも使わない.\\例文:一方,\underlines{折り詰め宅配弁当と銘打って展開をしている}のは,24時間営業の「KAKIEMON」.\\訳文:与此同\kanji{055},\underlines{以``送木制盒\kanji{054}''\kanji{024}名\kanji{014}展(\kanji{040}\kanji{056})的}有昼夜二十四小\kanji{055}\kanji{057}\kanji{040}的``柿\kanji{058}\kanji{059}''.\item「タ」形の翻訳アルゴリズムと同じ理由で介詞フレーズ補助語を伴う((iii)の\maru{1})場合,および「是…的」構文である((iii)の\maru{2})場合,$\phi$にする.例えば,次の例の訳文では「是…的」構文が使われているので,アスペクト助字のどれも使わない.\\例文:非信者の教会挙式について,結婚式相談会社社長でクリスチャンでもある比留間宗生氏によれば,教会としては布教活動の一環と\underlines{とらえている}という.\\訳文:\kanji{060}于非教徒到教堂\kanji{061}行婚礼一事,据婚礼咨\kanji{062}公司\kanji{063}\kanji{002}理比留\kanji{064}宗生(基督教徒)\kanji{046},教会\underlines{\underline{是}}把它\underlines{当作}一件\kanji{066}教工作来\kanji{067}待\underlines{\underline{的}}.\item結果補助語あるいは趨向補助語を伴う動作行為動詞である場合.この場合,「タ」形の翻訳アルゴリズムと同じ理由((iii)の\maru{3})で,補助語がすでに時間性を表しているため,$\phi$にする.\\例文:ゆうべ私たちは11時まで話し\underlines{ていた}.\\訳文:昨天\kanji{272}上我\kanji{028}\kanji{068}\,\underlines{到}十一点\kanji{069}.(到$\in$結果補助語)\end{enumerater}\paragraph{B.「着」とする場合}中国語での動作状態動詞は動詞の主体が動作の終わった瞬間の姿をそのまま維持していくことを表す.「テイル/テイタ」に接する述語が動作状態動詞に訳される場合は,以前の動作・作用の結果が現在に残っていることを表す,つまりその動作・作用の持続を表すため,「着」を使う.例えば,「彼は帽子をかぶっ\underlines{ている}.」あるいは「彼は帽子をかぶっ\underlines{ていた}.」に対して「他戴\underlines{着}帽子.」の「戴」は動作状態動詞であり,直後に「着」が使われる.\paragraph{C.「了」とする場合}\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item述語が数量補助語を伴う場合.「タ」形の翻訳アルゴリズムと同じ理由((ivの\maru{5}))で,「了1」を使う.例えば,次の例文の訳文に,述語「快」が数量補助語「十分\kanji{069}」を伴って,その間に「了1」を使う.\\例文:ぼくの時計は10分進ん\underlines{でいます}.\\訳文:我的表快\underlines{了}十分\kanji{069}.\item述語が結果動詞である場合.中国語での結果動詞は完了したあるいは変化した結果を表す.この場合,目的語を伴う時,完了の意味を表す「了1」を使う;目的語を伴わない結果動詞では,変化の意味を表す場合「了2」を使う.\\例文:平安神宮,吉田神社周辺などでは高層建築や底地買いに反対する市民運動が\underlines{起きている}\,.\\訳文:在平安神\kanji{070}和吉田神社等\kanji{071}也\kanji{072}起\underlines{了}反\kanji{067}在其周\kanji{073}修建高\kanji{074}建筑或\kanji{075}置地\kanji{076}的市民\kanji{077}\kanji{078}.(「\kanji{072}起」$\in$結果動詞)\end{enumerater}\paragraph{D.「在」とする場合}A〜Cの記述に含まれていないケースは動作状態動詞を除く動態動詞である(動作行為動詞と心理活動動詞).この二種の動態動詞に訳す場合,動作の進行中を表すと判断できるので,「在」を使うことにする.\\例文:同じ情報を定期的,広域に提供する媒体のひとつとして成長を\underlines{続けている}.\\訳文:它作\kanji{024}一\kanji{079}定期向广泛地区提供同\kanji{080}信息的媒体,\underlines{在}持\kanji{081}\kanji{072}旺\kanji{015}\kanji{082}.(「持\kanji{081}」$\in$動作行為動詞)\\以上のことから,中国語述語の時間性格分類と「テイル/タイタ」とアスペクト助辞との一般的な対応関係は図3のように整理される.\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/3.eps,width=119mm,height=38.1mm}\caption{中国語述語の時間性格分類と「テイル/テイタ」の翻訳}\label{fig:3}\end{center}\end{figure}なお,「シテイル」と「シテイタ」は中国語に翻訳するとほとんどの場合区別はなくなる.これは,日本語では「シテイル」と「シテイタ」で非過去・過去の対立が表現されるが,中国語では時間副詞,結果・趨向補助語などで表現される場合が多い.実際,「シテイル」形の過去形「シテイタ」形に対して,新聞記事150文を調査した結果,「ていた」を「ている」に入れ替えても,以下の二文以外は中国語訳語が同じでよいことが確認できた.\begin{enumerate}\item松下幸之助さんは,大阪電灯で屋内配線工事の手車をひいて働いていた.\itemフランスではショコラ,ドイツではショコラーデ,アメリカではチョコレート,日本では昔,長康霊糖,猪口令糖などの当て字を使っていた.\end{enumerate}この二つの文は「シテイタ」形が過去の事象を表し,中国語では経験を表す「\kanji{001}」に対応させるのが自然である.「シテイル」形に変えると,進行中の意味を表し,中国語では(1)に対しては$\phi$を,(2)に対しては「在」を対応させるのが自然である.(2)に関しては,中国語での違いはニュアンスの違いといってもよいが,(1)の違いは区別すべきであろう.我々のアルゴリズムでは,(1)の場合のみこの区別を考慮し(表3の12),(2)の場合およびその他の場合は中国語ではこのような区別を表現しないとして,同一視することとした.つまり,「学\kanji{043}」,「工作」,「\kanji{083}\kanji{078}」などの持続性を持つ動作行為動詞であるとき,「〜ている」であれば$\phi$にする;「〜ていた」であれば「\kanji{001}」にする.表3は,以上の考察をアルゴリズムの形にまとめたものである.\begin{table}[htbp]\label{HYO3}\caption{「テイル/テイタ」形の翻訳を決める手順}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|c|}\hline処理順&\multicolumn{1}{|c|}{判別条件}&処理\\\hline\hline1&(日)「毎〜」,「たいてい」(習慣を表す)&$\phi$\\\hline2&(中)数量補助語を伴う&[了1]\\\hline3&(中)「是…的.」文&$\phi$\\\hline4&(中)介詞フレーズ補助語を伴う&$\phi$\\\hline5&(中)静態動詞&$\phi$\\\hline6&(中)動作状態動詞&[着]\\\hline7&(中)結果動詞:目的語ある場合&[了1]\\\hline8&(中)結果動詞:目的語ない場合&[了2]\\\hline9&(中)動態動詞:述語が名詞句(主語,目的語)になる時&$\phi$\\\hline10&(中)動作行為動詞:結果・趨向補助語を伴う&$\phi$\\\hline11&(日)「〜ている」:(中)持続性を持つ動作行為動詞&$\phi$\\\hline12&(日)「〜ていた」:(中)持続性を持つ動作行為動詞&[\kanji{001}]\\\hline13&(中)動態動詞:他&[在]\\\hline\end{tabular}\end{center}\end{table}表3で,処理1〜4は文法特徴による特殊的な判別条件,処理5~13は中国語述語の時間的性格による一般的な判別条件である.ただし,``[...]''中の処理は順序に関係がない.\begin{center}1→2→[3,4]→[5,6,7,8]→9→[10,11,12]→13\\$\longleftarrow$特殊性が強い一般性が強い$\longrightarrow$\end{center}\subsection{「ル」形を「了」に訳す場合の判断}日本語の基本形「ル」は現在・未来または習慣を表すので,一般には$\phi$に対応し,過去・完了を表す「了」とは対応しない.しかし,日本語の「ル」形が事態の変化を表現する場合は中国語の「了」を対応させなければならない.以下にそれらの場合を考察する.日本語で「(形容詞)なる」,「(形容動詞)になる」,「(名詞)になる」などいわゆる「なる」系の表現は変化の意味を表すので,中国語では「了」を使う(ただし,「気になる」,「こうなる」などの慣用節を除く).このほか,中国語側が以下のようである場合にも,変化または完了の意味を表すことになるから,「了」を使う.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item時間副詞「已\kanji{002}」(すでに,もはや,もう)を伴う時,動作や変化が完了し,またはある程度に達していることを表す(呂1980).\\例文:いちいち訳語を作っていては,\underlines{もう間に合わない}のかも知れません.\\訳文:也\kanji{084}是因\kanji{024}\kanji{067}\kanji{048}一个新\kanji{085}都去\kanji{051}造\kanji{086}\kanji{085}\,\underlines{已\kanji{002}来不及了}.\item副詞「就」+形容詞である時,状態の変化を表す.\\例文:大手の広告代理店が1番や2番を引き当てると,中小の広告代理店への影響が\underlines{大きい}\,.\\訳文:大广告代理店一旦抓到1号,2号,\kanji{067}中小广告代理店的影\kanji{087}\,\underlines{就大了}.\item程度副詞「太」+形容詞である時,程度が高いあるいは過ぎるという話者の気持ち(語気)を表す.\\例文:とにかく大学の数が\underlines{多すぎる}.\\訳文:\kanji{063}之,大学\underlines{太多了}.\item副詞「一下子」を使う時,話者が短い時間に変化または完了したことを表す.\\例文:昭和40年代に始まったマンガブームは昭和50年代にはテレビや映画も巻き込んで\underlines{ぱっと広がる}.\\訳文:从昭和40年代\kanji{014}始的漫画\kanji{088}潮,到昭和50年代把\kanji{029}\kanji{003},\kanji{029}影都卷了\kanji{090}来,\underlines{一下子\kanji{091}展\kanji{014}了}.\item動詞「成」+名詞目的語である時,事柄の変化または完了を表す.\\例文:輸入ものを養殖池に入れ,日本の水を吸わせれば堂々の\underlines{日本産だ}.\\訳文:将\kanji{090}口\kanji{093}\kanji{094}放\kanji{090}\kanji{095}\kanji{094}池内,\kanji{096}它\kanji{028}吸\kanji{092}日本的水,\kanji{006}\kanji{080}便\underlines{成了}堂堂的\underlines{日本\kanji{097}}.\item動詞「\kanji{232}」+形容詞である時,変化の意味を表す.\\例文:今年も,春闘では,労働時間の短縮が大きな目標に掲げられているが,時短が\underlines{進む}.\\訳文:今年的``春斗''仍将\kanji{098}短\kanji{083}\kanji{078}\kanji{055}\kanji{064}作\kanji{024}一大目\kanji{099}提出,但\kanji{083}\kanji{078}\kanji{055}\kanji{064}\,\underlines{\kanji{232}短了}.\\\end{enumerater}以上の条件はすべて論理ORの関係であるから,判断の順番は関係しない.ただし,これらの条件は二つ以上が共存する場合では,完了を表す「了1」を対応させるか,変化を表す「了2」を対応させるかに関しては,判断条件の順番が影響する.本論文では,三つ以上が共存することは無いと考え,二つが共存する場合についてこれらの場合を二つずつ比較し,三角表で優先順位を考察した(図4).「了1/了2」の使用判断に影響するのが強いほうを表中に書く.「×」は不可能な組み合わせ,Nは名詞目的語,Aは形容詞である.優先順位は表4に処理順序で示す.\\\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/4.eps,width=140mm,height=40mm}\caption{「ル」形で「了」を使う判断条件の優先順位の考察}\label{fig:4}\end{center}\end{figure}以上の考察をまとめ,「ル」形を「了」に訳す判定アルゴリズムを作成した(表4).この中で,副詞「一下子」がある場合,動詞「成」+名詞目的語の場合,副詞「已\kanji{002}」がある場合は,計算機処理のため,「了1」にしたが,「了2」にしてもかまわない.これらの条件を満たさないなら,他の「ル」形は$\phi$とする.\begin{table}[htbp]\label{HYO4}\caption{「ル」→「了」の翻訳を決める手順}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|c|c|}\hline処理順序&\multicolumn{1}{|c|}{判別条件}&処理&「了」意味用法\\\hline\hline&(中)副詞「一下子」がある場合&「了1」&完了・変化\\\cline{2-2}\cline{3-3}\cline{4-4}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{1}&(中)副詞「太」+形容詞の場合&「了2」&語気\\\hline&(中)動詞「成」+名詞目的語の場合&「了1」&完了・変化\\\cline{2-2}\cline{3-3}\cline{4-4}2&(中)動詞「\kanji{232}」+形容詞の場合&「了2」&変化\\\cline{2-2}\cline{3-3}\cline{4-4}&(中)副詞「就」+形容詞の場合&「了2」&変化\\\hline3&(中)副詞「已\kanji{002}」がある場合&「了1」&完了・変化\\\hline4&(日)「なる」系&「了2」&変化\\\hline\end{tabular}\end{center}\end{table}
\section{評価}
\subsection{評価資料}「日本報刊選読(日中文対照)」(蘇1995){1989年〜1993年の「読売新聞」,「朝日新聞」,「毎日新聞」などに載った46新聞記事の日中対訳集}中の1412文を対象として,各文の述語に対して第3章のアルゴリズムを手作業で評価した.\subsection{評価結果}評価した結果を表5に示す.\begin{table}[htbp]\label{HYO5}\caption{評価結果}\begin{center}\def\arraystretch{}\begin{tabular}{|c|c|c|c|c|c|}\hline翻訳アルゴリズム&評価文数&A:一致文数&B:容認文数&A+B:正解文数&誤った文数\\\hline\hline「タ」形&432&335(77.5\,\%)&49&384(88.9\,\%)&48\\\hline「テイル」形&248&186(75.0\,\%)&33&219(88.3\,\%)&29\\\hline「ル」形&732&596(81.4\,\%)&35&631(86.2\,\%)&101\\\hline\end{tabular}\end{center}\end{table}ここで一致文数は,アルゴリズムの結果と「日本報刊選読」の中国語訳文に使われている「了」,「着」,「在」,$\phi$とが一致した文の数である.Bは,一致はしていないが,機械翻訳としては意味的に大きな問題はなく正解と考えてもよいと筆者が判断した文の数である.正解文数はこの二つを加えたものである.\subsection{誤り分析}\paragraph{(1)「タ」形の翻訳アルゴリズムの誤り分析}「タ」形の翻訳では48文の誤りがあった.以下にそられの誤り分析を行う.\paragraph{A.事態変化を表すときの問題(3/48)}\\文1:仮にこれらの問題が新実験線で解決され,実用化の\underlines{メドがついた}としても,総額数兆円の規模にのぼる``中央リニア新幹線''の財源を,どこがどう負担するのか.\\訳文:即使\kanji{006}些\kanji{031}\kanji{032}通\kanji{001}新\kanji{039}\kanji{100}\kanji{101}而得到解决,从而\kanji{039}用化\kanji{031}\kanji{032}\,\underlines{有了\kanji{102}\kanji{103}},\kanji{063}金\kanji{104}\kanji{082}数万\kanji{105}日元的``中央里尼\kanji{106}新干\kanji{101}''建\kanji{107}\kanji{002}\kanji{108}又由\kanji{109}里,如何来承担\kanji{007}?\\誤り訳:即使\kanji{006}些\kanji{031}\kanji{032}通\kanji{001}新\kanji{039}\kanji{100}\kanji{101}而得到解决,从而\kanji{039}用化\kanji{031}\kanji{032}\,\underlines{有\kanji{102}\kanji{103}},\kanji{063}金\kanji{104}…\\文2:吉田英司店長は,「カラオケは,女性にも娯楽の一つとして\underlines{定着しました}.\\訳文:店\kanji{053}吉田英司\kanji{046}:``\kanji{265}拉OK也\underlines{成\kanji{024}}\,\kanji{110}女\kanji{028}的一\kanji{079}\kanji{111}\kanji{112}\,\underlines{了}.\\誤り訳:店\kanji{053}吉田英司\kanji{046}:``\kanji{265}拉OK也\underlines{成\kanji{024}}\,\kanji{110}女\kanji{028}的一\kanji{079}\kanji{111}\kanji{112}.\\\\\hako{分析}:中国語静態動詞(存在動詞)「有(…\kanji{102}\kanji{103})」と静態動詞(属性動詞)「成\kanji{024}」に対して,アルゴリズムでは「了」を使わないという判断になる.しかし,これらの文は事態変化の意味を表しており,「了」が必要である.\paragraph{B.日本語連体節の問題(9/48)}\\文3:シャワーからたっぷり湯の出るOLの「朝シャン」風景に対し,東京都が自粛を\underlines{求めた}結果だった.\\訳文:(\kanji{006}部广告片)是女\kanji{065}\kanji{025}在\kanji{113}\kanji{113}地\kanji{114}着\kanji{088}水的淋浴器下``朝香''的\kanji{115}\kanji{102},\kanji{067}此\kanji{116}京都政府\underlines{提出了}自我\kanji{117}束的要求.\\誤り訳:…\kanji{067}此\kanji{116}京都政府\underlines{提出}自我\kanji{117}束的要求.\\\\\hako{分析}:アルゴリズムでは日本語の連体節は中国語でも連体節に翻訳されるものと考え,従って「了」を使わないとしている.しかし,これらの誤ったケースでは連体節に翻訳されない.(「選読」では連体節に翻訳されていない.また,連体節に翻訳しようとすると不自然になる.)\paragraph{C.日本語「〜なった」の問題(10/48)}\\文4:「\underlines{苦しくなった}」理由としては65.5\,\%が「家計にゆとりがなくなった」を挙げている.\\訳文:65.5\,\%的人提出``\underlines{不好\kanji{001}}''的原因是``家庭收支\underlines{不\kanji{119}裕}''.\\誤り訳:65.5\,\%的人提出``\underlines{不好\kanji{001}了}''的原因是``家庭收支\underlines{不\kanji{119}裕了}''.\\\\\hako{分析}:アルゴリズムでは日本語の「〜なった」の表現は変化を表すものと考えて「了1/2」を使うとしたが,この例のように中国語訳語では変化を表す意味を持たず,状態を表す場合があり,その場合には「了」は使われない.\paragraph{D.中国語「開始+V」の問題(6/48)}\\文5:給食指導のあり方を見直すため,今年から「中堅栄養職員研修会」を\underlines{スタートさせた}.\\訳文:\kanji{024}了改革供餐指\kanji{248}方\kanji{120},今年\underlines{\kanji{014}始}\,\kanji{061}\kanji{121}``中\kanji{122}\kanji{057}\kanji{095}\kanji{065}\kanji{025}研修会'',\kanji{026}\kanji{123}\kanji{124}少吃剩\kanji{016}象.\\誤り訳:…今年\underlines{\kanji{014}始了}\,\kanji{061}\kanji{121}``中\kanji{122}\kanji{057}\kanji{095}\kanji{065}\kanji{025}研修会'',\kanji{026}\kanji{123}\kanji{124}少吃剩\kanji{016}象.\\\\\hako{分析}:中国語の「\kanji{014}始」は動態動詞(動作行為動詞)であるが,後ろに動詞がくると「了」を使わない.「開始動詞」という新しい分類を追加した方がよい.\paragraph{E.他の問題(20/48)}\\文6:日本人は明治の近代化にあたって外国の思想などを紹介するのに,懸命になって漢字による日本語の訳語を\underlines{生みだしました}.\\訳文:日本人在明治\kanji{055}代\kanji{153}\kanji{016}代化\kanji{055},\kanji{024}了介\kanji{266}外国思想,都力求\underlines{\kanji{051}造}采用\kanji{125}字的日\kanji{126}\kanji{127}.\\誤り訳:…\kanji{024}了介\kanji{266}外国思想,都力求\underlines{\kanji{051}造了}采用\kanji{125}字的日\kanji{126}\kanji{127}.\\\\\hako{分析}:中国語「\kanji{051}造」は動態動詞であるが,副詞「力求」で修飾されると,過去に完了したことでも「了」を使わなくなる.\\\\文7:清水寺は境内隣接地のマンション建設を食い止めるため,10億円でその用地を\underlines{買い取った}\,.\\訳文:清水寺\kanji{024}了制止在\kanji{267}接的土地上修建公寓,花\kanji{108}10\kanji{105}日元将那\kanji{128}地皮\underlines{\kanji{010}了下来}.\\誤り訳:清水寺\kanji{010}了制止在\kanji{267}接的土地上修建公寓,花\kanji{108}10\kanji{105}日元将那\kanji{128}地皮\underlines{\kanji{010}下来}.\\\\\hako{分析}:アルゴリズムでは趨向補助語を伴う時は既にアスペクトが趨向補助語で表現されているので,「了」を使わないとしたが,この文では従属節が目的を表現しているので主節の動詞に「了1」を使わないと将来のテンスを表現することになる.\paragraph{(2)「テイル/テイタ」形の翻訳アルゴリズムの誤り分析}\paragraph{A.日本語「〜なっている/た」の問題(2/29)}\\文1:日本人がさらに\underlines{長生きになっている}ことが判明した.\\訳文:\kanji{129}\kanji{130}表明,日本人更加\underlines{\kanji{053}寿了}.\\誤り訳:\kanji{129}\kanji{130}表明,日本人更加\underlines{\kanji{053}寿}.\\\\\hako{分析}:中国語では形容詞(静態動詞)には一般に「了」を使わないが,変化の意味が付加されると「了」を使う場合がある.しかしアルゴリズムでは形容詞(静態動詞)に対しては,既定値として$\phi$と定めているのみで,「了」を使う場合の条件判断ができていない.\paragraph{B.他の問題(23/29)}\\文2:実は,銀行には国際化と自由化の荒波が\underlines{押し寄せている}.\\訳文:原来,国\kanji{131}化和自由化的\kanji{132}\kanji{132}浪潮\underlines{正}向\kanji{004}行\underlines{冲来}.\\誤り訳:原来,国\kanji{131}化和自由化的\kanji{132}\kanji{132}浪潮向\kanji{004}行\underlines{冲来了}.\\\\\hako{分析}:アルゴリズムでは中国語訳語が結果動詞であれば,結果の残存の意味を表すと考えて,「了」を使うことにしているが,結果動詞であっても進行中の意味を表す「正(在)」を使う場合がある.その条件判断ができていない.\paragraph{(3)「ル」形の翻訳アルゴリズムの誤り分析}\paragraph{A.副詞「就」がある場合の問題(7/101)}\\文1:「本を読んでいる」が32\,\%などの順で,(車内)混雑すればするほどポスターを見る傾向が\underlines{強い}.\\訳文:``看\kanji{020}''的占32\,\%,\kanji{030}里越\kanji{134},\kanji{135}于看广告的人\underlines{就}越多.\\誤り訳:``看\kanji{020}''的占32\,\%,\kanji{030}里越\kanji{134},\kanji{135}于看广告的人\underlines{就}越多\underlines{了}.\\\\\hako{分析}:「就」+形容詞の場合は変化の意味を表し,アルゴリズムでは「了2」を使うとした.しかし,文1で用いられている「越...越...」は動作または変化がますます深まった状態・性質を表すので「了」は使われない.\paragraph{B.「なる」系の問題(28/101)}\\文2:二つがいっしょになって大きな銀行となり,多くの預金を集め,多くの企業などに貸し出しすることができるので,利益は\underlines{多くなる}.\\訳文:\kanji{045}家并\kanji{024}一家大\kanji{004}行之后,由于可\kanji{270}加存款\kanji{104}和企\kanji{040}\kanji{097}款\kanji{104},所以利益\underlines{很大}.\\誤り訳:\kanji{045}家并\kanji{024}一家大\kanji{004}行之后,由于可\kanji{270}加存款\kanji{104}和企\kanji{040}\kanji{097}款\kanji{104},所以利益\underlines{很大了}.\\\\\hako{分析}:アルゴリズムでは日本語の「なる」系は変化の意味を表すので「了」を使うとした.しかし,この訳文の全体は利益の性質を表し,「了」を使わない.\paragraph{C.他の問題(66/101)}\\文3:(京都は)4年後に建都1200年を\underlines{迎える}.\\訳文:再\kanji{001}四年,京都就要迎接建都一千二百年\underlines{了}.\\誤り訳:再\kanji{001}四年,京都就要迎接建都一千二百年.\\\\\hako{分析}:表4以外の「ル」形はアルゴリズムで「了」を使わないとした.しかし,この文は未来に完了することを表し,「了」を使うものになる.
\section{終わりに}
人間が「タ/ル/テイル/テイタ」を中国語アスペクト助字に翻訳する際には,文脈と述語自身の時間性格などの要素および諸要素間の優先関係などで総合的な意味を理解して判断する.本研究では,機械翻訳の立場から,表層の文法情報と述語の性格分類のデータをもとに計算機で中国語の訳語を定める手順について考察した.まず,両言語におけるテンス・アスペクトの性格・意味用法の研究成果を調査し,比較・整理を行って,意味用法間の対応関係について考察した.次に,両言語の文法特徴・共起情報,中国語述語の時間的性格を主な手がかりとして,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムを作成した.最後に日中対訳文集を材料として,作成した翻訳アルゴリズムを手作業で評価した.評価実験の結果は,正解率は約八割であり,本稿で提案したテンス・アスペクトの翻訳処理手法の有効性が確認できた.さらに翻訳の精度が上がるようにアルゴリズムを整備することと,これらのアルゴリズムを我々の翻訳システム\cite{Imai2002,Imai2003}に組み込んでいくことが今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{paper}\appendix\section*{評価資料に現れた中国語述語の時間的性格分類リスト}\paragraph{・動態動詞}\\\maru{1}動作行為動詞\\安排,委托,慰\kanji{031},影\kanji{087},往返,卸,加,加班,画,戒(烟),学,学\kanji{043},冠以,刊行,看,寄(信),寄宿,起(作用),吃,吸,供,叫,教,研究,糊口,公演,公布,工作,行\kanji{078},合并,采\kanji{136},参与,指\kanji{137},指\kanji{138},支援,施行,写,出差,出售,升,商量,唱,招待,照射,照搬,笑,上升,推广,睡\kanji{139},制作,征集,整理,接送,撰写,租借,操心,争\kanji{269},装,走,送,打(球),打\kanji{140},置\kanji{171},采取,着手,注意,注目,跳舞,追\kanji{271},提供,展望,努力,搭(\kanji{030}),等,答\kanji{037},宣\kanji{141},逃\kanji{049},播映,播放,波及,表示,表明,表\kanji{142},表\kanji{082},扶持,保持,募集,包\kanji{073},放映,翻\kanji{126},\kanji{144}\kanji{145},蔓延,面\kanji{146},利用,警告,命令,遭受,留学,倡\kanji{023},做,听,哭,喊,喘气,找,拿,撼\kanji{078},敲,靠,\kanji{061}(例),\kanji{061}行,\kanji{010},吻,\kanji{141}播,\kanji{147},\kanji{124},\kanji{051}造,\kanji{148}\kanji{046},\kanji{121},\kanji{121}理,\kanji{149},拍,\kanji{015}火,\kanji{015}展,\kanji{015}\kanji{225},\kanji{150}叫,\kanji{071}理,\kanji{039}行,\kanji{022}\kanji{023},\kanji{014},\kanji{014}始,\kanji{014}展,\kanji{014}列,\kanji{014}辟,\kanji{014}\kanji{015},\kanji{151}\kanji{129},\kanji{152}\kanji{038},\kanji{153},\kanji{154}示,\kanji{155}迎,\kanji{156}集,\kanji{157}算,\kanji{158},\kanji{159}透,\kanji{160},\kanji{161}正,\kanji{002}\kanji{162},\kanji{002}\kanji{057},\kanji{163},\kanji{164}定,\kanji{165}算,\kanji{042}可,\kanji{008}(\kanji{166}),\kanji{008}\kanji{009},\kanji{167}\kanji{031},\kanji{168},\kanji{084}\kanji{169},\kanji{107},\kanji{026},\kanji{046},\kanji{046}明,\kanji{046}\kanji{170},\kanji{145},\kanji{129}\kanji{130},\kanji{138}\kanji{171},\kanji{172}予,\kanji{090}行,\kanji{173}售,\kanji{031},\kanji{012}\kanji{117},\kanji{174}演,禁止,忠告,要求,邀\kanji{175},\kanji{175}求,\kanji{206}呼,持\kanji{081},称呼,假装,\kanji{176}\kanji{176}欲\kanji{026}\\\\\maru{2}動作状態動詞\\空,迎接,写,住,住宿,穿,停,保留,刮,挂,收,矗立,\kanji{118},吊,站,\kanji{095},\kanji{073},\kanji{014}\kanji{107},\kanji{178}\kanji{179},\kanji{180},\kanji{181}\kanji{182},\kanji{183},\kanji{184},\kanji{185}\kanji{186},\kanji{187}\\\\\maru{3}心理活動動詞\\回\kanji{011},考\kanji{188},肯定,自\kanji{042},想,打算,忘,体会,着想,同意,理解,了解,估\kanji{165},决定,\kanji{165}\kanji{177},\kanji{042}\kanji{189},\kanji{012}料\\\\\maru{4}移動動詞(趨向動詞)\\出去,出来,来,到,回,去\paragraph{・静態動詞}\\\maru{1}属性動詞\\(以…)\kanji{024}…,蔚然成\kanji{192},下下停停,居,共有,叫做,限于,高\kanji{082},合\kanji{165},作(作\kanji{024}),是,占,属,属于,成\kanji{024},定\kanji{024},当作,不同,不如,富有,包括,缺乏,\kanji{024},\kanji{082},\kanji{001},\kanji{193}先,\kanji{050}次\kanji{052}比,\kanji{194}名,笑\kanji{195}\kanji{195},停滞不前,用于,已婚,徘徊不前,\kanji{196}有尽有,不相上下,\kanji{112}不可支,默不作声,\kanji{135}于,\kanji{135}向,陷于,需要,蜂\kanji{013}而至,火上加油,可\kanji{003}一斑,冲突,\kanji{162}任,取而代之,\kanji{191}保\\\\\maru{2}存在動詞\\活,在,在于,在\kanji{200},不在,没有,有,有\kanji{060},\kanji{171}有,\kanji{018}有,\kanji{013}有\\\\\maru{3}心理状態動詞\\以期,以求,以\kanji{024},感到,感\kanji{072}趣,感\kanji{201},看待,喜\kanji{155},希望,后悔,熟悉,信任,相信,尊敬,担心,知道,佩服,\kanji{139}得,\kanji{042}\kanji{024}\\\\\maru{4}形容詞\\一致,快,快\kanji{112},活生生,活\kanji{176},吃\kanji{206},共同,激烈,固定,好,好\kanji{001},幸福,高,高\kanji{072},自由,寂静,弱,受\kanji{155}迎,准\kanji{202},小,少,深孚\kanji{203}望,水泄不通,成功,静,清楚,生机\kanji{204}然,先\kanji{090},争奇斗\kanji{205},相\kanji{196},多,大,担\kanji{206}受怕,超群出\kanji{203},低,泥\kanji{207},登峰造\kanji{208},突出,如火如荼,悲\kanji{209},漂亮,不安,不足,\kanji{210}用,普及,慢,猛烈,有限,来得及,沮\kanji{211},\kanji{273},\kanji{212}\kanji{039},\kanji{014}心,\kanji{072}隆,来不及,\kanji{213}具一格,\kanji{119}裕,\kanji{119}敞,\kanji{214}底,\kanji{154}眼,\kanji{154}著,\kanji{272},\kanji{088}烈,\kanji{191}定,\kanji{215}\kanji{178},\kanji{117}定俗成,\kanji{053}寿,\kanji{036},大\kanji{216}全\kanji{217}\paragraph{・結果動詞}\\\maru{1}「V+V」構造\\下降,下跌,采用,取得,到\kanji{082},招收,制定,接受,接\kanji{218},逃脱,听取,捐献,\kanji{270}加,\kanji{060}\kanji{219},\kanji{051}\kanji{121},\kanji{014}\kanji{121},\kanji{220}用,\kanji{221}制,\kanji{222}放,\kanji{270}\kanji{053}(zhang3)\\\\\maru{2}「V+Adj」構造\\延\kanji{053},加速,看破,固定,降低,湿透,推\kanji{014},睡着,打乱,提高,登高,腐\kanji{223},放\kanji{014},泡大,用尽,冲淡,站\kanji{191},\kanji{270}多,\kanji{270}大,\kanji{224}斜,\kanji{124}少,\kanji{091}大,\kanji{153}\kanji{226},\kanji{098}短,\kanji{046}服,弄\kanji{226},打碎\\\\\maru{3}「V+趨向補助語」構造\\引起,看出,叫\kanji{014},遇到,迎来,跨\kanji{090},使出,失去,写出,升起,伸出,推出,染上,前往,前来,超\kanji{001},跳入,提出,度\kanji{001},渡\kanji{001},逃出,撞上,播出,落下,留下,列入,冲来,剩下,售出,掀起,陷入,\kanji{271}上,追上,\kanji{072}起,跟上,\kanji{018}来,\kanji{227}出,\kanji{228}去,\kanji{229}出,\kanji{163}入,\kanji{096}出,逃出来,\kanji{129}往,\kanji{017}入,代之而起,\kanji{090}入,\kanji{230}出,\kanji{231}入\\\\\maru{4}瞬間変化動詞\\化成,改成,看到,看\kanji{003},受到,制成,造就,提到,得到,听\kanji{003},找到,抓住,抛\kanji{014},\kanji{141}到,\kanji{232}成,\kanji{118}掉,\kanji{234}住,\kanji{017}成,\kanji{017}\kanji{235},\kanji{082}到,去世,出\kanji{016},消\kanji{236},想到,停\kanji{121},突破,突\kanji{232},破\kanji{076},曝光,弄湿,冲走,\kanji{044},\kanji{237}死,\kanji{015}生,\kanji{236},\kanji{238}掉,\kanji{238}死,\kanji{229}束,\kanji{229}婚,\kanji{021}婚,咽气,死,死亡,自\kanji{239},成,形成,一\kanji{240}而光,一\kanji{241}登天,下\kanji{242},解决,回国,回\kanji{243},改任,改\kanji{245},外出,完成,幸免,合理化,坐\kanji{001}站,作(分析),自\kanji{239},辞\kanji{065},失常,出生,出版,升\kanji{246},倒\kanji{197},淘汰,到\kanji{082},得(病,\kanji{198}分),得救,\kanji{233}\kanji{209},\kanji{259},\kanji{027}\kanji{243},\kanji{264}成,\kanji{229}冰,\kanji{217}利,\kanji{199}\kanji{270},\kanji{015}行,\kanji{015}\kanji{016},\kanji{015}\kanji{247},\kanji{232},\kanji{248}致,\kanji{014}\kanji{178},\kanji{249}\kanji{040},淡化,中止,\kanji{164}范化,\kanji{250}生,\kanji{251}\kanji{030},翻番,迷路,猛\kanji{270},乱套,通\kanji{001},拒收,限制,借,集中,住院,出借,商定,承\kanji{042},招\kanji{252},尽力,成,晴,生,精疲力竭,相\kanji{189},停(\kanji{029}),定,表\kanji{016},分送,包括,包租,冷落,收走,缺席,\kanji{043}\kanji{253},\kanji{254}及,\kanji{255}水,\kanji{256}\kanji{108}(苦心),\kanji{003},\kanji{021}做,\kanji{107}立,\kanji{257}苦,\kanji{201}罪,\kanji{090},\kanji{090}京,\kanji{090}口,\kanji{258}\kanji{217},\kanji{053}(zhang3),\kanji{031}及,\kanji{012},定降,参加,新\kanji{107},霹,告\kanji{257}\newpage\begin{biography}\biotitle{略歴}\bioauthor{謝軍}{1993年中国瀋陽工業大学計算機学部卒.2000年岐阜大学大学院工学研究科電子情報工学専攻修士課程修了.工学修士.現在同大学院工学研究科電子情報システム工学専攻博士課程在学中.日中機械翻訳,中国語処理の研究に従事.情報処理学会学生会員.}\bioauthor{ト朝暉}{1991年中国広西大学外国語学部日本語科卒.2001年岐阜大学教育学研究科国語科教育専修修了.教育学修士.現在同大学工学研究科電子情報システム工学専攻後期課程に在学中.日中機械翻訳に興味を持つ.言語処理学会,情報処理学会各学生会員.}\bioauthor{池田尚志(正会員)}{1968年東大・教養・基礎科学科卒.同年工業技術院電子技術総合研究入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.人工知能,自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V15N01-03
|
\section{まえがき}
日本語文のムードについて,いくつかの体系が提示されている(益岡,田窪1999;仁田1999;加藤,福地1989)\footnote{益岡ら(益岡,田窪1999)および加藤ら(加藤,福地1989)はムードという用語を用いているのに対して,仁田(仁田1999)はモダリティという用語を用いている.彼らによるムードあるいはモダリティの概念規定は表面的には異なるが,本質的には同様であると考えてよい.}.益岡ら(益岡,田窪1999)は,述語の活用形,助動詞,終助詞などの様々な文末の形式を対象にして,「確言」,「命令」,「禁止」,「許可」,「依頼」などからなるムード体系を提示している.仁田(仁田1999)は,述語を有するいわゆる述語文を中心に,日本語のモダリティを提示している.仁田の研究成果は益岡らによって参考にされており,仁田が提示しているモダリティのほとんどは益岡らのムード体系に取り込まれている.加藤ら(加藤,福地1989)は,助動詞的表現(助動詞およびそれに準じる表現)に限定して,各表現が表出するムードを提示している.提示されているムードには,益岡らのムード体系に属するものもあるが,「ふさわしさ」,「継続」など属さないものもある.既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,どのようなテキスト群を分析対象にしてムード体系を構成したかが明確ではない.おそらく,多種多様な文を分析対象にしたとは考えられるが,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.そのため,情報検索,評判分析(乾,奥村2006),機械翻訳などウェブページを対象にした言語情報処理がますます重要になっていくなか,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,多種多様な日本語ウェブページに含まれる文を分析して標準的な既知のムードとともに新しいムードを収集するために用いた系統的方法について詳述し,新しいムードの収集結果を示す.また,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.そして,より網羅性のあるムード体系の構成について,ひとつの案を与える.ここで,ムードの収集にあたって本論文で用いる重要な用語について説明を与えておく.文末という用語は,文終了表示記号(句点など)の直前の単語が現れる位置を意味する.文末語という用語は文末に現れる単語を意味する.POSという用語は単語の品詞を意味する.例えば,「我が家へ\ul{ようこそ}。」という文において,文終了表示記号は「。」である.文末は下線部の位置であり,文末語は「ようこそ」であり,そのPOSは感動詞である.また,ムードの概念規定としては益岡ら(益岡,田窪1999)のものを採用する.彼らによれば「話し手が,文をコミュニケーションの道具として使う場合,ある特定の事態の表現だけではなく,その事態や相手に対する話し手の様々な判断・態度が同時に表現される」.この場合,事態や相手に対する話し手の判断・態度がムードである.ただし,本論文ではウェブページに記述された文を対象にすることから,文の書き手も話し手と見なすこととする.例えば,「毎日,研究室に来い.」という文は,相手に対して命令する態度を表現しており,「命令」というムードを表出している.また,「妻にはいつまでも綺麗でいて欲しい.」という文は,「妻がいつまでも綺麗である」という事態の実現を望む態度を表現しており,「願望」というムードを表出している.以下,2節では日本語ウェブページからムードを収集する際の基本的方針について述べる.3節ではムードを収集する具体的方法を与える.4節ではムード収集において分析対象とした文末語の網羅性について議論する.5節ではムードの収集結果を示す.6節では収集したムードと既知ムードとの比較を行う.7節では,より網羅性のあるムード体系の構成について一案を示す.8節では本論文のまとめと今後の課題について述べる.
\section{ムード収集の基本的方針}
本節では,日本語ウェブページに含まれる文を分析して,文が表出するムードを収集するにあたっての基本的な方針について述べる.具体的には,文が表出するムードを収集する際に,どのような日本語ウェブページを利用して,どのような文を分析対象とするのか,文中のどのような単語に着目するのか,どのようなムード体系を標準として利用するのか,について述べる.\subsection{分析対象}ムードを収集するにあたって,本論文ではNTCIRプロジェクトによって収集された11,034,409件の日本語ウェブページ(以下,NTCIR日本語ウェブページと呼ぶ)から成るデータセットであるNTCIR-3WEB\footnote{NTCIR-3WEBについては以下のURLを参照.\hfill\breakhttp://research.nii.ac.jp/ntcir/permission/perm-ja.html{\#}ntcir-3-web/}を利用する.これは,各ウェブページを,HTMLタグを取り除いたプレーンテキストとして提供している.データセットの規模から,多種多様なウェブページを網羅し,それ故に多種多様な文を網羅していると考えられる.\begin{figure}[t]\input{02fig1.txt}\caption{NTCIR日本語ウェブページの一例}\end{figure}ムード収集のために分析対象とする文は,NTCIR日本語ウェブページに含まれる文のうち,文終了表示記号として全角の「。」,「.」,「!」,「?」,あるいは半角の「!」,「?」を有するものである.例えば,NTCIR日本語ウェブページには,図1に示すようなプレーンテキストが含まれる.このテキストでは改行は1行目,2行目および5行目にある.これらは不可視であるため,図中では(改行)として明示してある.この場合,「……に100\,Mbpsで接続。」という文字列は分析対象となる文である.しかしながら,「無停電……ご提供いたします」という文字列は,所望の文終了表示記号が無いことから,分析対象から除外される.分析対象とする文をこのように限定するにしても,NTCIR日本語ウェブページからは多種多様な文を得られると期待でき,それ故に新しいムードを発見する可能性は高いと期待できる.この意味で,NTCIR日本語ウェブページは,日本語ウェブページに含まれる文が表出するムードを収集する対象として適したデータセットであると言える.\subsection{着目する単語}日本語文では,文末語が様々な種類のムードを表出すると予想できる.もちろん,文末以外に出現する単語がムードを表出する場合もある.しかしながら,そのような場合を扱うと,文の非常に複雑な解析が必要になる.本論文では,原則として文末語のみに着目する.文末語のみに着目してムードを研究することにも,それなりの意義があることを以下に述べる.乾ら(乾,内元,村田,井佐原1998)は,アンケート調査における自由回答文の自動分類を試みている.自動分類の目的は回答者の意図\footnote{本論文におけるムードに相当する.}(賛成,反対,要望・提案など)を把握することであり,機械学習において自由回答文の文末表現\footnote{本論文における文末語に相当する.}を素性として重要視している点が,彼らの研究において特徴的である.結果として,彼らは文末表現が自由回答文の意図を分類することに貢献し得ることを示している.一方,人間との円滑なコミュニケーションを図るシステムの構築において,発話文における話し手の情緒を理解する機構を実現することは重要な問題である.横野(横野2005)は,発話文における述語に加えて,話し手の発話内容に対する態度が表現される文末に着目した情緒推定法を提案している.彼は情緒推定のために文末表現\footnote{本論文における文末語に相当する.}をいくつかの情緒カテゴリ\footnote{本論文におけるムードに相当する.}に分類している.そして,文末表現に着目した情緒推定法が有効であり得ることを示している.これらの研究は,一般的な視点から捉えなおすと,文が表出するムードを分類する際に文末語が有用になり得ることを示唆している.したがって本論文は,文末語のみに着目してムードを研究するものではあるが,工学的に意義のある研究を行うための基礎になると考える.\subsection{標準とするムード体系}NTCIR日本語ウェブページに出現する文を分析して文が表出するムードを収集する際に,言い換えれば,文中の文末語にムードを割り当てる際に標準とするムード体系として,益岡ら(益岡,田窪1999)が提示しているムード体系を利用する.理由は,比較的うまく整理されているムード体系であると考えられるからである.彼らのムード体系は以下の通りである.各ムードについての簡単な説明と文例を付録に示す.(a)確言,(b)命令,(c)禁止,(d)許可,(e)依頼,(f)当為,(g)意志,(h)申し出,\par(i)勧誘,(j)願望,(k)概言,(l)説明,(m)比況,(n)疑問,(o)否定.なお,これらのムードは意味的に必ずしも独立しているわけではない.益岡らによれば,例えば,「禁止」には「ある動作をしないことを命令する場合と,ある事態が生じないように努力することを命令する場合」がある.いずれの場合でも,「禁止」は「命令」のムードを含意する.
\section{ムードの収集方法}
NTCIR日本語ウェブページを利用する場合,非常に多くの文を分析対象にしなければならない.ムード収集においては,文から文末語を抽出し,文末語にムードを割り当てるという作業が必要である.その際,文末語の抽出は自動化できるが,文末語にムードを割り当てる作業は人間の手作業に頼らざるを得ない.本論文では,まず暫定的に,文末語へのムード割り当てを3人の作業者X,Y,Zによる議論と合意に基づいて行うこととし,作業の大きな流れを以下のように計画し,実行することとした.\InHone{(1)}作業者XとYがムード割り当て案を作成する.作成中,新しいムードを設定する必要があるかどうか,設定するとすればどんな名称,意味が適切かなど,疑問点があれば作業者3人で議論し,合意によって疑問点を解消する.\InHone{(2)}ムード割り当て案を作業者Zがレビューし,割り当てられたムードの不適切さなどの問題点があれば,作業者3人で議論し,合意によって問題点を解消する.\InHone{(3)}3人の合意によってムード割り当て案を承認し,それを暫定的ムード割り当て結果とする.また,文末語へのムード割り当て手続きは以下のように設定し,実行することとした.\InHone{(a)}文末語へムードを割り当てる際には,第一に2.3節で示した益岡ら(益岡,田窪1999)のムード体系を標準として利用し,適当なムードを割り当てる.\InHone{(b)}標準としたムードを割り当てるのは適当ではないが,文末語がなんらかのムードを表出していると考えられる場合には,独自に新しい暫定的ムードの名称と意味を設定し,それを割り当てる.\InHone{(c)}新たに設定した暫定的ムードは,標準としたムードと併せて,その後のムード割り当て作業で利用する.\InHone{(d)}標準としたムードあるいはすでに設定してある暫定的ムードを割り当てることが明らかに不適切であるような文末語に直面した場合には,さらに暫定的に新しいムードを設定し,それを割り当てる.\InHone{(e)}すでに設定してある暫定的ムードに類似するが,そのムードを割り当てるには若干不適切であるような文末語に直面した場合には,可能な限り,ムードの意味をそれまでの意味を包含するように文末語にあわせて変更し,必要があればムードの名称を意味にあわせて変更し,それを割り当てる.\InHone{(f)}ムード名称を変更した場合には,変更前のムード名称が割り当てられている文末語に対して,変更後のムード名称を改めて割り当てる.そして,最終的には,できるだけ妥当なムード割り当て結果を得るために,作業者X,Y,Zが承認した暫定的ムード割り当て結果を,作業者Wがレビューし,問題点がある場合にはそれを解消することとした.その実行内容の詳細については3.4節で述べる.以上のような手作業によるムード割り当ての負荷が大きいと,不適切なムードの割り当てが起こる可能性が高くなる.したがって,文末語にムードを割り当てるという手作業の負荷をできるだけ軽減する必要がある.負荷を軽減するために作業者の数を増やし,抽出した文末語を例えばPOSごとにグループ分けし,文末語のグループごとにムード割り当て作業を分担するという案もあるが,これは適当ではない.なぜならば,割り当てるムードが異なるグループを担当する作業者の間で大きくゆれる可能性が高く,ムード割り当てが混乱し,後で調整するにしても,それが大変な作業になることが容易に予想できるからである.負荷の軽減は,ムードを収集する方法を工夫することによって行うのが適当であると考える.以下3.1節で示す「基本的な方法」では,2節で述べたムード収集の基本的方針に従ってムードを収集するために一般に必要と考えられるステップを与えている.この方法の実行途中で,POSが名詞である文末語(言い換えれば,体言止めの文)がかなり多く抽出されていることが分かった.これらの文末語へのムード割り当て作業の負荷を軽減するために実行したのが,3.2節で示す「名詞に特化した方法」である.一方,POSが助詞または助動詞である文末語の場合,助詞・助動詞の接続関係が複雑であることから,文末語の1語(助詞あるいは助動詞)だけに着目してムードを収集することは適切でないと考えた.また,「基本的な方法」の実行途中でPOSが助詞あるいは助動詞である文末語が非常に多く抽出されていることが分かった.このことから,POSが助詞あるいは助動詞である文末語からムードを収集する負荷を軽減するとともに,適切にムードの収集を行えるような別の系統的方法が必要であった.そのような方法として実行したのが,3.3節で示す「助詞と助動詞に特化した方法」である.\subsection{基本的な方法}まず,2節で述べたムード収集の基本的方針に従って日本語文が表出するムードを収集するために一般に必要と考えられる以下のステップを実行した.\InHone{(1)}NTCIR日本語ウェブページの各々に含まれる各文について,形態素解析システムChaSen\footnote{形態素解析システムであるChaSen(chasen-2.3.3)については以下のURLを参照.\hfill\breakhttp://chasen.naist.jp/hiki/ChaSen/}を利用して,その文を単語に分割するとともに,各単語にPOSを割り当てた.つまり,各文を2項組(単語,POS)の系列に変換した.以下,そのような2項組の系列をChaSen出力\footnote{ChaSenによる解析結果を全面的に信用するわけではないが,形態素解析システムとしてある程度実用的な水準にあるものと考え,本論文ではChaSen出力に基づいたムード収集方法を採用した.}と呼ぶ.ここで,ChaSenが解析対象とする文について注意を要する.ChaSenは,テキストにおける1行(改行で区切られた文字列)を1つの文として解析する.例えば,図1に示したテキストについて言えば,ChaSenにとっての文は「インターネットのバックボーンである、」,「NSPIXP2,NSPIXP3,GlobalCrossong,JPI」,「Xなどに直結するMEX(メディアエクスチェンジ)に100\,Mbpsで接続。無停電電源装置・室温制御・自動消火設備安定した運用環境をご提供いたします」である.そのため,ChaSen出力が不可解な解析結果を含む可能性はある.しかしながら,次のステップ(2)で述べるように,我々は所望の文終了表示記号の直前にある単語(文末語)のみに着目するため,文全体として正しいChaSen出力を必ずしも必要としない.これは通常の形態素解析では好ましいことではないが,文末語のみに着目したムード収集を目的とする場合には大きな問題にはならないと考えられる.\InHone{(2)}文終了表示記号として全角の「。」,「.」,「!」,「?」,あるいは半角の「!」,「?」を有する各文について,その文末語に着目した.そして,文末語と,そのPOSを2項組(文末語,POS)として収集した.結果として,2項組(文末語,POS)のバッグ(bag)を作成した.ここで,バッグという用語は要素の重複が許されるものの集まりという意味で用いている.例えば,図1に示したテキストについて言えば,「Xなどに直結するMEX(メディアエクスチェンジ)に100\,Mbpsで接続。無停電電源装置・室温制御・自動消火設備安定した運用環境をご提供いたします」という文が,所望の文終了表示記号「。」を有しており,文末語として「接続」(POSは名詞—サ変接続)に着目することになる.この場合,人間にとっては文として認識できる「無停電電源装置・室温制御・自動消火設備安定した運用環境をご提供いたします」という文字列は,実質的には,ムード収集のための分析対象からは除外されることになる.\InHone{(3)}ChaSen文法\footnote{ChaSenのための日本語辞書IPADICで用いられている品詞体系であり以下のURLを参照.\par\noindenthttp://hal.yh.land.to/manual/ipadic/ipadic-ja.html{\#}SECTop/}で用いられる以下のような12種類のPOSに基づいて,上記で作成したバッグから12種類のサブバッグを構成した.{\setlength{\leftskip}{3zw}\noindent1.名詞,2.助詞,3.助動詞,4.副詞,5.感動詞,6.形容詞,7.動詞,8.連体詞,9.接頭詞,10.接続詞,11.フィラー,12.その他.\par}\InHone{(4)}各サブ・バッグについて,その要素である各2項組(文末語,POS)の出現頻度を計数しつつ,当該サブ・バッグを,3項組(文末語,POS,頻度)を要素とする集合に変換し,さらに頻度に基づいて降順にソートし,ソート済み集合を作成した.このステップが終了するまでは,POSごとに分析対象となる文末語の数は不明であった.POSによっては,非常に多くの文末語を分析対象としなければならない状況が生じる可能性があった.そのような状況が生じた場合,手作業の負荷を考慮して,頻度の小さい文末語を分析対象から容易に一括除外できるようにするために,このステップで頻度に基づくソートが必要であった\footnote{結果論ではあるが,ソート結果を役立てられたのはPOSを名詞とする文末語を分析対象とした場合(3.2節)である.}.\InHone{(5)}上記で作成したソート済み集合の各々について,その要素である3項組(文末語,POS,頻度)すべての文末語に,可能である場合に限りムードを手作業で割り当て,4項組(文末語,POS,頻度,ムード)を作成した.ここで,同じ3項組(文末語,POS,頻度)の文末語に複数のムードを割り当てることができる場合には,すべての場合について4項組(文末語,POS,頻度,ムード)を作成した.文末語だけを見てムード割り当てが可能であると判断できるような文末語に対してムードを割り当てる場合,当該POSを有する文末語が文末に位置するような典型的と考えられる文例を書き手/話し手の立場になって内省によって検討し,その文末語が表出し得るムードを割り当てた.例えば,文末語「下され」(POSは動詞—非自立)について言えば,相手の動作に関連して「……して下され.」(例えば,「結婚して下され.」)など,ある事態に関連して「……であって下され.」(例えば,「健康であって下され.」)などの文例を検討した.そして,ムードとして「依頼」と「願望」を割り当てた.ムード割り当てに際して,文末語に対応する元の文をNTCIR日本語ウェブページに遡って参照し,その文末語が本来表出するムードを割り当てるという方法ではなく,内省による文例検討に基づくムード割り当て法を採用したのは,作業者による手作業の負荷をできるだけ軽減するためである.また,内省による文例検討に基づくムード割り当て法には,文末語が表出する本来のムードを見逃す可能性はあるが,大きなメリットもあるためである.文末語に対応して元の文をNTCIR日本語ウェブページに遡って参照すれば,その文末語が本来表出するムードを割り当てることはできるが,それ以外のムードを割り当てない可能性が出てくる.例えば,前述した文末語「下され」(動詞—非自立)に対応する元の文が「結婚して下され.」といった相手に動作を頼むようなものだけである場合には,ムード「依頼」のみが割り当てられ,ムード「願望」を割り当てる機会を失う.さらに,この方法は作業者による手作業の負荷を非常に大きくする.内省による文例検討に基づくムード割り当て法は,手作業の負荷を軽減するだけでなく,それを注意深く実行すれば,ムードを収集する機会を失うという問題を起こしにくく,網羅的にムードを収集する方法としては比較的良いと考えられる.文末語のなかには,ムードの割り当てが可能であるかどうかの判断に困るものがあった.例えば「さ」(副詞—助詞類接続),「う」(感動詞),「よぅ」(形容詞—非自立),「す」(動詞—自立),「この」(連体詞),「ノン」(接頭詞—名詞接続),「ァ」(その他—間投)のような,1文字あるいは2文字からなる文末語が特にそうであった.このような文末語については,安易に切り捨てることはせず,可能な限り網羅的にムードを収集するために,元の文をNTCIR日本語ウェブページに遡って明らかにし,ムードの割り当て可否を判断し,可能な場合にはムードを割り当てた.標準としたムードを割り当てればよい場合もあれば,新たに暫定的ムードを設定し,それを割り当てるのが適当な場合もあった.例えば,「この」(連体詞)は「なんだって,この!」のように使われ,その暫定的ムードとして「失礼」(無礼な気持ちを表す)\footnote{暫定的にムード「失礼」を割り当てたが,3.4節で分かるように,最終的にはこのムードは「非難」(過失,欠点などを責めとがめる気持ちを表す)に変更される.}を割り当てた.また,「ノン」(接頭詞—名詞接続)は「正直高Lvになればなるほどモラルやマナーなんてノンノンノン。」のように使われ,その暫定的ムードとして「肯否」(ある動作や事態を肯定するか否定するかを伝える)を割り当てた.「ァ」(その他—間投)は「おばちゃん、教えてあげなさいよおおおお({\#}゜д゜)ドルァ!!」のように使われ,怒りの叫び声に匹敵する顔文字「({\#}゜д゜)ドルァ!!」の文末語となっている.そのため,暫定的ムード「叫声」(叫び声に匹敵する言葉を述べる)を割り当てるのが適当であった.その他,「う」(感動詞)と「よぅ」(形容詞—非自立)には暫定的ムード「強調」(伝えたいことに,強い調子を加味する)を割り当てるのが適当であった.\vspace{1\baselineskip}なお,POSを名詞とする3項組み,つまり(文末語,POS=名詞,頻度),を要素とするソート済み集合(以下,$S_{n}$と表記する)については,ステップ5を実行しなかった.$S_{n}$の要素数は80,200であり,手続き的に何も工夫しないで80,200個の文末語に手作業でムードを割り当てることは,非常に困難な作業と思われた.$S_{n}$からムードを収集する別の方法については,3.2節で述べる.また,以下の2つのサブ・バッグについてはステップ4を含めて,それ以降を実行しなかった.これらのサブ・バッグからムードを収集する別の方法については,別法が必要である理由も含めて,3.3節で述べる.\InHone{(a)}POSを助詞とする2項組,つまり(文末語,POS=助詞),を要素とするサブ・バッグ(以下,$B_{p1}$と表記する).\InHone{(b)}POSを助動詞とする2項組,つまり(文末語,POS=助動詞),を要素とするサブ・バッグ(以下,$B_{p2}$と表記する).\subsection{名詞に特化した方法}前節で述べたように,POSを名詞とする文末語(言い換えれば,体言止めの文)が非常に多く抽出された.以下に体言止めの文例を示す.\InHone{(1)}「これは私たちの仕事。」\InHone{(2)}「うふふ、から、へ。」\InHone{(3)}「(鼻。華。洟。)花。」\InHone{(4)}「とにかく、一心不乱!」\InHone{(5)}「南無阿弥陀仏……南無阿弥陀仏。」一般に,体言止めの文は話し手の主観を抑えて,ただ単に情報を伝えるだけである.この「ただ単に情報を伝えるだけ」を,本論文では「陳述」のムードとする.上記5つの文では,それぞれ「仕事」,「へ」,「花」,「一心不乱」,「南無阿弥陀仏」を文末語としており,これらは陳述のムードを表出する.なお,第1の文例は,益岡らによる「確言」のムードを表出すると考えられるかもしれない.しかしながら,「仕事です」とは断定していないので,「話し手が真であると信じていることを相手に知らせる」という「確言」のムードを表出すると考えるのは適当でない.以上から,POSを名詞とする文末語には「陳述」のムードを割り当てることができ,そうすることが適当であると考えられる.しかしながら,「陳述」のムードを割り当てることは可能であるが,その他のムードを割り当てる方が適当である場合がある.例えば,「なんとまー、久し振り。」の文末語は「久し振り」(名詞—一般)である.「陳述」のムードを割り当てることは可能であるが,むしろムード「挨拶」(友好的な気持ちを表す)を割り当てる方が,ムードを網羅的に収集するためには適当と考える.そこで,POSを名詞とする文末語へのムード割り当てについては,最初に以下の手続きAを実行した.\InH{(A-1)}集合$S_{n}$から,「陳述」のムードを割り当てるのが適当である可能性が高い文末語を有する3項組(文末語,POS,頻度)を自動的に抽出した.これを実行するにあたり,分類語彙表(国立国語研究所2004)を利用した.分類語彙表は,ある種の日本語シソーラスであり,単語は以下の4つのカテゴリに分類されている\footnote{ひとつの単語が必ずただひとつのカテゴリに分類されているわけではなく,複数のカテゴリに分類されている単語もある.}.(a)体の類:POSが名詞である単語を主として含む.(b)用の類:POSが動詞である単語を主として含む.(c)相の類:POSが形容詞あるいは副詞である単語を主として含む.(d)その他の類:POSが上記以外の単語を主として含む.文末語が「体の類」のみに属する場合,それに「陳述」のムードを割り当てるのが適当である可能性が高いと予想できた.そこで,集合$S_{n}$の要素と分類語彙表を照合し,「体の類」のみに属する文末語を有する3項組(文末語,POS,頻度)を抽出した.その数は32,538個であった.\InH{(A-2)}抽出した3項組(文末語,POS,頻度)のすべてに対して自動的に,とりあえずのムードとして「陳述」を割り当て,4項組(文末語,POS,頻度,ムード=陳述)を作成した.\InH{(A-3)}「陳述」以外のムードを割り当てる方が適当である文末語を有する4項組(文末語,POS,頻度,ムード=陳述)を見つけ出し,適当なムードを割り当て直した.ムードを割り当て直す対象になった4項組は199個であった.このことは,「体の類」のみに属する文末語に「陳述」のムードを割り当てるのが適当である可能性が高いと予想したことが,結果としてかなり的確であったことを意味している.上記手続きAの実行において,最終的には32,538個の文末語に割り当てられたムード「陳述」の適否を手作業で確認する必要があり,手作業の負荷は大きかった.しかしながら,この手作業の負荷は,最初から個々の文末語に適当なムードを割り当てる手作業の負荷に比べると,かなり軽減されたものと考えられる.続いて,「相の類」と「その他の類」に名詞として利用可能な単語が登録されていることに着目して,以下の手続きBを実行した.\InH{(B-1)}分類語彙表の「相の類」と「その他の類」から名詞として利用可能な単語を手作業で選定した.\InH{(B-2)}集合$S_{n}$の要素と選定した単語とを照合し,自動的に,当該単語を文末語として有する3項組(文末語,POS,頻度)を抽出し,とりあえずのムードとして「陳述」を割り当てた4項組(文末語,POS,頻度,ムード=陳述)を作成した.その数は2,945個であった.\InH{(B-3)}手続きAの(A-3)と同様のことを行った.ムードを割り当て直す対象になった4項組は402個であった.ここでも,手続きAと同様,手作業の負荷はある程度軽減されたものと考えられる.以上のように,集合$S_{n}$の3項組のうち,分類語彙表を利用して,その文末語に「陳述」あるいは「陳述」以外のムードを割り当てたのは35,483個であった.最後に,集合$S_{n}$においてまだムードを割り当てていない文末語を有する3項組が44,717個残っており,これらについては,その文末語に手作業でムードを割り当てた.ただし,小さい頻度(頻度の範囲が1〜5)を有する3項組は除外した.結果として,「陳述」あるいは「陳述」以外の何らかのムードを割り当てることが出来る文末語を有する250個の3項組を得た.それらについては,4項組(文末語,POS,頻度,ムード)を作成した.内訳として,ムードを「陳述」とする11個の4項組と,ムードを「陳述」以外とする239個の4項組を作成した.なお,「陳述」のムードを割り当てた文末語のなかに,他のムードも割り当てることができるものが明らかに幾つか存在していた.それらは,POSが名詞—非自立—一般である文末語「こと」と「事」であり,POSが名詞—一般である文末語「こと」である.POSが名詞—非自立—一般である文末語「こと」(あるいは「事」)については,「勉強をすること.」というような文が考えられる.この文における「こと」には「陳述」のムードを割り当てることもできるし,「命令」のムードを割り当てることもできる.また,POSが名詞—一般である文末語「こと」については,「苦しいっていう,こと!」,「すぐに行けって,こと!」のような文が考えられる.前者の文における「こと」には「陳述」のムードを,後者の文における「こと」には「命令」のムードを割り当てることができる.このように,「陳述」のムードを表出する文末語には,「事」と「こと」のように例外的に「命令」のムードを表出し得るものもあり,それらに対しては「命令」のムードも割り当てた.\subsection{助詞と助動詞に特化した方法}3.1節後半で言及したサブ・バッグ$B_{p1}$と$B_{p2}$に含まれる2項組(文末語,POS)のすべての集まりであるサブ・バッグを,$B_{p}$と表記する.本節では,このサブ・バッグ$B_{p}$からムードを収集する方法を述べる.\begin{table}[b]\caption{日本語における助詞,助動詞の系列}\input{02table1.txt}\end{table}助詞,助動詞の接続関係は複雑である.その複雑さは,表1を使って説明できる(野田1995).表1に示した日本語表現「かけられてなかったみたいだね」(句点は省略)を構成する単語には連番を付与してある.各単語の役割は,付与された連番に応じて,以下に示す通りである.なお,括弧内にはChaSen文法によるPOSを示してある.(1)活用語幹(動詞)(2)受動表現(動詞)(3)進行表現(動詞)(4)否定表現(助動詞)(5)過去表現(助動詞)(6)事態に対する話し手の判断・態度(助動詞)(7)相手に対する話し手の判断・態度(助詞)この日本語表現の場合,7番目の単語(つまり,文末語)だけでなく6番目の単語もムードを表出している.ムードの収集という観点から,6番目の単語(助動詞)と7番目の単語(助詞)に着目する必要がある.言い換えれば,サブ・バッグ$B_{p1}$と$B_{p2}$の各々から,別々にムードを収集することは適切でないと言える.そのため,サブ・バッグ$B_{p1}$と$B_{p2}$からムードを収集するために,以下のような方法を採用した.\InHone{(1)}サブ・バッグ$B_{p}$に含まれる2項組(文末語,POS)の各々について,その生成に利用した元の文を,NTCIR日本語ウェブページに遡って明らかにした.\InHone{(2)}上記で明らかにした元の文の各々について,ChaSen出力すなわち2項組(単語,POS)の系列を分析し,ChaSen出力から以下の条件を満たすようなサブ系列(以下,$q$と表記する)を生成した.\begin{figure}[b]\input{02fig2.txt}\caption{サブ系列$q$の例}\end{figure}\InHtwo{(a)}その最後に位置する2項組の単語が,ChaSen出力における文末語(文終了表示記号の直前にある単語)に対応する.\InHtwo{(b)}ChaSen出力における連続した2項組から成る.\InHtwo{(c)}ChaSen出力において助詞または助動詞が連続して出現する部分をすべて含む.図2に,このようなサブ系列の例を示した.サブ系列$q$がサブ・バッグ$B_{p}$の要素,つまり2項組(文末語,POS)を含むことは明らかである.しかしながら,サブ系列$q$に含まれる単語の系列(以下,$q-$単語系列と呼ぶ)には,文末語ではない単語が含まれる場合もある.これは用語上の問題を引き起こす.本論文では便宜上,$q-$単語系列を文末語と見なすことにした.\InHone{(3)}サブ系列$q$を要素とするバッグを作成し,そのバッグを集合$Q$に変換した.\InHone{(4)}集合$Q$に含まれるサブ系列$q$の各々について,$q-$単語系列のムードが確定できるかどうかを手作業で分析した.確定できる場合には$q-$単語系列にムードを割り当て,確定できない場合にはムードの割り当てを次のステップまで保留した.\InHone{(5)}残ったサブ系列$q$の各々について,その生成に利用した元の文を,NTCIR日本語ウェブページに遡って明らかにした.そして,その文の文脈を手作業で分析し,可能である場合に限り$q-$単語系列にムードを割り当てた.\subsection{暫定的ムード割り当て結果のレビュー}以上の3つの方法を利用して,3人の作業者の合意に基づいて承認された暫定的ムード割り当て結果を得た.最終的にできるだけ妥当なムード割り当て結果を得るために,その暫定的ムード割り当て結果を,作業者Wが以下の3点についてレビューした.\InHone{(1)}標準としたムードの割り当てが妥当であるか?ムード「申し出」あるいは「否定」を割り当てることができる文末語があるにも関わらず,まったくそれらのムードが割り当てられていなかった.文末語全件をチェックし,こうしたムードの割り当て漏れの問題を可能な限り解消した.この作業の過程で,標準とした他のムードの割り当てについても,その妥当性について可能な限り確認した.\InHone{(2)}新しく設定した暫定的ムードの名称と意味が妥当であるか?ムード自体の意味が文脈によって変わるという点で適当とは考えられないものが,3種類設定されていた.ムード名称も「〜?」,「〜!」,「〜が」と設定されており,不適当と思われた.そこで,暫定的ムード「〜?」と「〜!」は除外した.一方,暫定的ムード「〜が」の主たる意味はすでに設定されていた暫定的ムード「逆接」(先行する言明について,それとの対比,それへの反対,それの否定,それから予想される事態や動作の否定,あるいはその話題に関連した対比的な評価というような,対立する何かを述べたいことを伝える)に相当するため,ムード「〜が」をムード「逆接」に吸収した.その他の暫定的ムードについては,ムードが割り当てられている文末語に照らして,その名称と意味が妥当であるかどうかを吟味した.結果として,暫定的ムード「失礼」(無礼な気持ちを表す)はその意味が理解しにくく,ムード「失礼」が割り当てられている文末語は相手あるいは事態を非難する語であることから,ムード「失礼」をムード「非難」(過失,欠点などを責めとがめる気持ちを表す)に変更した.\InHone{(3)}暫定的ムードの割り当てが妥当であるか?この点に関するレビューは,第二点目に関するレビューと同時に行い,暫定的ムードの割り当てが妥当であることを可能な限り確認した.また,除外した暫定的ムード「〜?」と「〜!」が割り当てられていた文末語のムードを再考し,適切なムードを割り当てた.さらに,暫定的ムード「〜が」が割り当てられていた文末語に対してムード「逆接」を割り当て直し,暫定的ムード「失礼」が割り当てられていた文末語に対してムード「非難」を割り当て直した.以上のようなレビューを通じて,暫定的ムード割り当て結果よりも妥当と考えられる最終的ムード割り当て結果を得た.
\section{文末語の網羅性}
本論文で分析対象にした文末語は,NTCIR日本語ウェブページ(11,034,409件の日本語ウェブページ)に含まれる文のうち,文終了表示記号として全角の「。」,「.」,「!」,「?」,あるいは半角の「!」,「?」を有する文から抽出したものである.表2に,POSごとに文末語に関する3種類の数値情報を示す.各欄A,B,Cは以下を意味している.A:分析対象とした文末語の延べ数.B:分析対象とした文末語の異なり数\footnote{字面が同じ文末語であっても,POSが異なれば異なる文末語として計数している.}.C:ムードが割り当てられた文末語の異なり数.例えば動詞について言えば,延べ数で22,314,847個の文末語を抽出し,そのうち相異なる文末語が17,881個あり,最終的に何らかのムードを割り当てることができた文末語は2,820個であるということが読み取れる.表2から,分析対象として抽出した文末語の延べ数は120,885,370個である.この数値は,文末語の抽出対象とした文の数が120,885,370個であることを意味している.言い換えれば,膨大な数の文から文末語を抽出したことになる.また,分析対象とした文末語の異なり数は164,575個であり,極めて多くの種類の文末語を分析したことになる.さらに,ムードが割り当てられた文末語の異なり数は41,291個であり,ムードを表出する多くの文末語を得たことになる\footnote{41,291個中,「陳述」のムードを表出するものが34,895個ある(表3を参照).これは日本語ウェブページの特徴のひとつであると考えられる.残りの6,396個は「陳述」以外のムードを表出する.}.一方,NTCIR日本語ウェブページは,主として.jpドメインから広範囲に収集されたもので,我々の調査によれば批評,解説,報道,感想,Q{\&}A,記録,商品広告,マニュアル,用語説明,案内・紹介など,様々なジャンルに属するウェブページを含んでいる.このように,NTCIR日本語ウェブページに含まれるテキストの多様性は極めて高く,極めて多様な文から文末語を抽出したと言える.\begin{table}[t]\caption{文末語の数}\input{02table2.txt}\end{table}以上のことから,本論文で分析対象とした文末語について以下の4点を主張することができ,日本語文に現れる文末語を,多様性と数の両面から相当程度に網羅していると言ってよかろう.(1)極めて多様な文から文末語を抽出した.(2)膨大な数の文から文末語を抽出した.(3)極めて多くの種類の文末語を分析した.(4)ムードを表出する多くの文末語を得た.
\section{ムードの収集結果}
2.3節で示した標準とするムード体系に含まれない23種類の新しいムードを収集することができた.標準としたムードとともに,それらを表3に示す.「ムード」の欄では,標準としたムードには付録で用いたアルファベット記号をつけ,新しいムードには連番をつけた.「例」の欄には,当該ムードを表出する文末語の例を示した.「数」の欄には,当該ムードを表出する文末語の異なり数を示した.\begin{table}[t]\caption{標準としたムードと新しいムード}\input{02table3.txt}\end{table}なお,新しいムード「可能」を表出する文末語の異なり数は4であり,他のムードに比べてかなり小さい.この場合,「可能」を意味のあるムードとして取り上げる価値はないのではないか,という疑問が生じるかもしれない.ムード「可能」を表出する文末語は以下の4種類である.括弧内数値は出現頻度を示す.さすがに接頭詞として出現する頻度は小さいが,他の場合の出現頻度は大きい.文末語の種類は現段階では少ないが,「可能」を新しいムードとして取り上げる価値は十分にある.(1)「可」(名詞—接尾—一般)[19,229].(2)「可」(名詞—一般)[14,747].(3)「可」(接頭詞—名詞接続)\footnote{文例「登校は可.」(ただし「.」は全角)に対して,ChaSenは「可」を接頭詞—名詞接続,句点「.」を名詞—数として解析する.これは人間にとっては不可解な解析結果である.しかしながら,ChaSenを利用して,機械処理によって文末語のムードを推定しようとする場合には,このことは問題にはならない.}[38].(4)「可能」(名詞—形容動詞語幹)[155,637].以下では,新しいムードの意味を簡潔に述べる.また,新しいムードの理解を助けるために,文末語を文例とともに示す.文例中の下線付き単語が文末語である.文末語は,本論文で実際に分析対象としたものである.\InHone{(1)}\textgt{陳述}:ただ単に情報を伝えるだけ.〈文例1〉これが私の\ul{青写真}.〈文例2〉信号は,あのとき\ul{赤}.〈文例3〉大事なのは勉強する\ul{こと}.\InHone{(2)}\textgt{肯否}:ある動作や事態を肯定するか否定するかを伝える.〈文例1〉それは\ul{あかん}.〈文例2〉サボリも\ul{ありあり}.〈文例3〉卒業は\ul{無理}.\InHone{(3)}\textgt{挨拶}:友好的な気持ちを表す.〈文例1〉\ul{メリークリスマス}.〈文例2〉かっちゃん,\ul{久し振り}.〈文例3〉みんな,\ul{おす}.\InHone{(4)}\textgt{残念}:悔しい気持ちを表す.〈文例1〉失敗したとは,\ul{あいた}.〈文例2〉2着とは\ul{惜しい}.〈文例3〉まじ,\ul{凹む}.\InHone{(5)}\textgt{非難}:過失,欠点などを責めとがめる気持ちを表す.〈文例1〉あいつは\ul{浅はか}.〈文例2〉とっちゃん,\ul{おもろない}.〈文例3〉やっぱり奴は\ul{みっともない}.\InHone{(6)}\textgt{賛辞}:褒め言葉を述べる.〈文例1〉めでたし,\ul{めでたし}.〈文例2〉合格するとは\ul{立派}.〈文例3〉おかんは,\ul{すっごい}.\InHone{(7)}\textgt{謝罪}:罪や過ちを詫びる気持ちを表す.〈文例1〉なんとも,\ul{かたじけない}.〈文例2〉まだ生きてます,\ul{恥ずかしながら}.〈文例3〉ほんとに,\ul{悪しからず}.\InHone{(8)}\textgt{感謝}:ありがたく感じる気持ちを表す.〈文例1〉皆様に\ul{多謝}.〈文例2〉皆さんの\ul{お陰さま}.〈文例3〉どうも,\ul{おおきに}.\InHone{(9)}\textgt{可能}:ある動作の実行が可能であること,あるいは,ある事態の成立が可能であることを伝える.〈文例1〉入ることは\ul{可能}.〈文例2〉入室\ul{可}.〈文例3〉登校は\ul{可}。\InH{(10)}\textgt{歓喜}:喜びの気持ちを表す.〈文例1〉くじやって,なんと\ul{大当たり}.〈文例2〉今日の気分は\ul{上々}.〈文例3〉採用だ,\ul{よっしゃ}.\InH{(11)}\textgt{感心}:深く感じて心を動かされたということを伝える.〈文例1〉満点をとったとは,\ul{さすが}.〈文例2〉合格したのか,\ul{ふうん}.〈文例3〉一人でやったなんて,\ul{へええ}.\InH{(12)}\textgt{叫声}(きょうせい):叫び声に匹敵する言葉を述べる.〈文例1〉蜘蛛がいたんだ,\ul{ワーッ}.〈文例2〉財布落としちまった,\ul{ガーン}.〈文例3〉明日までにやるのか,\ul{ひゃー}.\InH{(13)}\textgt{自聞}(じぶん):自分自身への疑いの気持ちを表したり,ある動作を開始する時に自分に言い聞かせる言葉を述べる.〈文例1〉こんな時間に腹がすくなんて,\ul{はて}.〈文例2〉起きる時刻だし,\ul{さて}.〈文例3〉\ul{よっこらしょ}.\InH{(14)}\textgt{擬音擬態}:擬音語や擬態語を述べる.〈文例1〉最近仲良しこよしで\ul{ウキウキ}.〈文例2〉なんと仕事中に\ul{うとうと}.〈文例3〉とにかく部屋は,\ul{がらん}.\InH{(15)}\textgt{逆接}:先行する言明について,それとの対比,それへの反対,それの否定,それから予想される事態や動作の否定,あるいはその話題に関連した対比的な評価というような,対立する何かを述べたいことを伝える.対比的な評価の例は,「彼女は綺麗だが.」における文末語「だが」が,彼女という話題に関連して「おっちょこちょいでもある.」などの発言を予想させる場合である.〈文例1〉みんな,勉強はする\ul{が}.〈文例2〉あいつ,バカはする\ul{まいが}.〈文例3〉あいつ,今夜はここにい\ul{ねーずが}.\InH{(16)}\textgt{順接}:先行する言明を前提にして何かを続けて述べたいことを伝える.〈文例1〉ノートをコピ\ul{るなら}.〈文例2〉リハビリする\ul{につれて}.〈文例3〉私はもう若くはなく,\ul{したがって}.\InH{(17)}\textgt{並立}:先行する言明に並立させて何かを述べたいことを伝える\footnote{「並立」のムードは通常の文には現れにくいが,日記などの表題において出現する.}.〈文例1〉祝卒業\ul{および}...〈文例2〉彼はカツ丼を,\ul{一方}...〈文例3〉参院選圧勝\ul{ならびに}...\InH{(18)}\textgt{選択}:明示した選択肢以外にも選択肢があることを伝える.〈文例1〉生きるべきか,\ul{それとも}.〈文例2〉飲み物はコーヒーでもよし,\ul{何でも}.〈文例3〉デートの時は,映画\ul{など}.\InH{(19)}添加:先行する言明に続いて,それに関連する何かを付け加えたいことを伝える.〈文例1〉ドアを開けてもいいよ,\ul{ただし}.〈文例2〉あそこに行けば星が見える,\ul{しかも}.〈文例3〉君が悪いと思うんだよね,\ul{なぜなら}.\InH{(20)}転換:話題を変更したいことを伝える.〈文例1〉今食べたとこ,\ul{そういえば}.〈文例2〉別れる気はないし,\ul{てか}.〈文例3〉それはいいとして,\ul{取りあえず}.\InH{(21)}意外:期待したことが達成されなかったことに対する不満,期待していなかったことが達成されたことに対する驚き・喜びの気持ちを表す.〈文例1〉君がいるとは\ul{もっけの幸い}.〈文例2〉今日は誕生日だっけか,\ul{あれれ}.〈文例3〉なんとなんと,\ul{あんぐり}.\InH{(22)}強調:伝えたいことに,強い調子を加味する.〈文例1〉受付\ul{を通してね}.〈文例2〉そのうちミス\ul{るだろ}.〈文例3〉なん\ul{でやねん}.\InH{(23)}確認:伝えたいことを相手が理解していることを確かめる.〈文例1〉ビールが飲みたいもんだよ,\ul{おい}.〈文例2〉それはさっき言っ\ul{たろ}.〈文例3〉学校へ行く\ul{よね}.
\section{既知ムードとの比較}
本節では,標準とした益岡ら(益岡,田窪1999)によるムードおよび以上のように収集した新しいムード(以下しばしば,単に「新しいムード」と略称する)と,加藤ら(加藤,福地1989)および仁田(仁田1999)によって提示されている既知ムードとの比較を行う.比較によって,加藤らによるムード,および仁田によるムードのなかから,本論文では収集できなかったムード\footnote{益岡らによるムードと新しいムードが本論文で収集したムードであり,それ以外は本論文で収集できなかったムードである.なお,益岡らによる「概言」というムードにはいくつかの下位ムードがある.それら下位ムードは明示的に収集してはいないが,「概言」として一括して収集したものとする.}を明らかにする.また,新しいムードのうち,すでに提示されているものを明らかにする.加藤らはまず,ムードを表出する助動詞的表現(助動詞およびそれに準じる表現)に限定し,それらを大きく「主観的推量」(自分自身の経験,直観あるいは他から得た情報に基づいて,話し手が推量した結果を主観的に述べるムード)と「推論ないしは背景の説明」(ある事柄の背景やその意義づけ,評価などを示し,相手に理解させることを主眼とするムード)という2つの類に分けている.そして各類に含まれる助動詞的表現の意味を説明している.我々は,加藤らが取り上げた助動詞的表現の類ごとに,各表現に対して彼らが与えている意味説明を解釈し,各表現が本論文で収集したムードのどれに相当するかを考察した.その結果,以下のような知見を得た.\InHone{(1)}\textgt{主観的推量}:この類に含まれる助動詞的表現に関する知見を以下に示す.本論文で収集できなかったムードはあるが,新しいムードに相当するものはない.\InH{(1-1)}「ダロウ」:これは益岡らによる「概言」の下位ムード「断定保留」に相当する.\InH{(1-2)}「ソウダ」:これは益岡らによる「概言」の下位ムード「伝聞」あるいは「様態」に相当する.\InH{(1-3)}「ヨウダ」:これは益岡らによる「比況」,あるいは「概言」の下位ムード「証拠のある推定」に相当する.\InH{(1-4)}「ラシイ」:これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.加藤らは,この表現が「彼の態度は,いかにも教師らしい」というように「ふさわしさ」も表出すると指摘している.「ふさわしさ」というムードは本論文では収集できなかったものである.\InH{(1-5)}「マイ」:これは益岡らによる「意志」,あるいは「概言」の下位ムード「断定保留」に相当する.\InH{(1-6)}「カモシレナイ」:これは益岡らによる「概言」の下位ムード「可能性」に相当する.\InH{(1-7)}「ニチガイナイ」:これは益岡らによる「概言」の下位ムード「直感的確信」に相当する.\InHone{(2)}\textgt{推論ないしは背景の説明}:この類に含まれる助動詞的表現に関する知見を以下に示す.本論文で収集できなかったムードがあり,さらに新しいムードに相当するものもある.\InH{(2-1)}「ハズダ」:これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.\InH{(2-2)}「コトニナル」:これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.\InH{(2-3)}「ワケダ」:これは益岡らによる「説明」に相当する.\InH{(2-4)}「モノダ」:これは益岡らによる「当為」あるいは「説明」だけでなく,新しいムード「感心」あるいは「意外」に相当する.加藤らは,例えば「子供というのは,(中略),急に熱を出したりするものだ」のように,この表現が「ものの本来の性質・一般的性向」も表出すると指摘している.「ものの本来の性質・一般的性向」というムードは本論文では収集できなかったものである.\InH{(2-5)}「コトダ」:これは益岡らによる「当為」,あるいは新しいムード「意外」に相当する.\InH{(2-6)}「ノダ」:これは益岡らによる「説明」に相当する.\InH{(2-7)}「トコロダ」:加藤らは,継続中の動作・出来事について,直前にくる動詞の形により,この表現が「継続」,「未然」,「既然」を表出すると指摘している.これらは本論文では収集できなかったムードである.一方,仁田は述語を有するいわゆる述語文を中心に,日本語のモダリティを考察している.彼は,文は大きく質的に異なった2つの層,つまり「言表事態」(話し手が現実との関わりにおいて描き取った一片の世界,文の意味内容のうち客体的な出来事や事柄を表した部分)と「言表態度」(話し手の言表事態を巡っての把握の仕方や発話・伝達的な態度のあり方を表した部分)から成り立っているとし,モダリティを大きく「言表事態めあてのモダリティ」(発話時における話し手の言表事態に対する把握の仕方の表し分けに関わる文法表現)と「発話・伝達のモダリティ」(発話時における話し手の発話・伝達的態度のあり方の表し分けに関わる文法表現)の2種に分けている.そして,それぞれのモダリティについて,下位のモダリティを提示している.我々は,それらのモダリティに関する記述内容を解釈し,各モダリティが本論文で収集したムードのどれに相当するかを考察した.その結果,以下のような知見を得た.\InHone{(a)}\textgt{発話・伝達のモダリティ}:この種の下位モダリティに関する知見を以下に示す.本論文で収集できなかったムードはあるが,新しいムードに相当}するものはない.\InH{(a-1)}「命令」:これは益岡らによる「命令」に相当する.\InH{(a-2)}「依頼」:これは益岡らによる「依頼」に相当する.\InH{(a-3)}「禁止」:これは益岡らによる「禁止」に相当する.\InH{(a-4)}「誘いかけ」:これは益岡らによる「勧誘」に相当する.\InH{(a-5)}「意志」:これは益岡らによる「意志」に相当する.\InH{(a-6)}「希望」:これは話し手の話し手自身あるいは聞き手への願いであり,益岡らによる「願望」(自分自身の動作・状態を望む場合,他人の動作・状態を望む場合)に相当する.\InH{(a-7)}「願望」:これも話し手の願いであり,その願いを遂行する聞き手が不在である点で希望と区別されているに過ぎず,益岡らによる「願望」(特に,「早く月が出てほしい.」のような,ある事態の成立を望む場合)に相当する.\InH{(a-8)}「現象描写」:これは,話し手の感覚を通して捉えられたある時空のもとに存在する現象を,主観を加えないで述べるものである.「主観を加えない」ということから新しいムード「陳述」に相当しそうであるが,「信号が赤だ(である,です)。」のような述語文に対して,仁田はこのムードを提示している.したがって,この「現象描写」は文末語の表現形式からすれば,益岡らによる「確言」に相当すると考えるのが妥当である.\InH{(a-9)}「判定」:これは,益岡らによる「確言」と「概言」を内包し,双方とは異なるムードである.ただし,ムードとして未分化であり有用とは考えられないため,このムードを,本論文で収集できなかったムードとしては取り上げないこととする.\InH{(a-10)}「疑い」:これは,益岡らによる「疑問」(特に,「自問型の疑問」)に相当する.\InH{(a-11)}「判断の問いかけ」:これは,言表事態の成立について判定を下せないため,判定を下すために必要な情報を聞き手に問いかけるもので,益岡らによる「疑問」(特に,相手に未知の部分の情報を求める「質問型の疑問」)に相当する.ここで,「未知の部分の情報」を「判定を下すために必要な情報」と具体化しているという点で,これは「質問型の疑問」に内包される下位ムードであるとも考えられる.「判断の問いかけ」については,益岡らによる「疑問」の説明において具体的に言及されていないことから,本論文で収集できなかったムードであると言える.\InH{(a-12)}「情意の問いかけ」:これは,言表事態に対する聞き手の心的態度が不明であることから,それを問いかけるもので,益岡らによる「疑問」(特に,相手に未知の部分の情報を求める「質問型の疑問」)に相当する.ただし「情意の問いかけ」についても,「判断の問いかけ」と同様の理由から,本論文で収集できなかったムードであると言える.\InHone{(b)}\textgt{言表事態めあてのモダリティ}:この種の下位モダリティとして,「意志」,「希望」,「願望」,「話し手の把握・推し量り作用を表すもの」,「推し量りの確からしさを表すもの」,「徴候の存在のもとでの推し量りを表すもの」,「推論の様態に関わるもの」が提示されている.「意志」,「希望」,「願望」に関する知見についてはすでに言及した.その他の下位モダリティについては以下の通りであり,本論文で収集できなかったムードも,新しいムードに相当するものもない.\InH{(b-1)}「話し手の把握・推し量り作用を表すもの」:これは,言表事態に対する話し手の把握・推し量り作用を表すもので,「〜スル」形の「断定」,「〜スルダロウ」形,「〜スルマイ」形の「推量」がある.「断定」は益岡らによる「確言」に相当し,「推量」は「概言」(特に,その下位ムードである「断定保留」)に相当する.このことから,これは益岡らによる「確言」と「概言」を内包し,双方とは異なるムードである.ただし,ムードとして未分化であり有用とは考えられないため,このムードを,本論文で収集できなかったムードとしては取り上げないこととする.\InH{(b-2)}「推し量りの確からしさを表すもの」:これは,言表事態がどれ位の確からしさもって成立するのかを表すもので,「〜ニチガイナイ」形の「必然性」,「〜カモシレナイ」形の「可能性」がある.「必然性」は益岡らによる「概言」の下位ムード「直感的確信」に相当し,「可能性」は「概言」の下位ムード「可能性」に相当する.いずれにしても「概言」に相当する.\InH{(b-3)}「徴候の存在のもとでの推し量りを表すもの」:これは存在する徴候から引き出された推し量りを表すもので,代表的な表現形式として「ラシイ」,「ヨウダ」,「ミタイダ」,「ソウダ」がある.これらは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.\InH{(b-4)}「推論の様態に関わるもの」:これは言表事態がある推論によって引き出されたものであることを表すもので,代表的な表現形式として「ハズダ」がある.これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.以上をまとめると,加藤らの「ふさわしさ」,「ものの本来の性質・一般的性向」,「継続」,「未然」,「既然」というムード,仁田の「判断の問いかけ」,「情意の問いかけ」というムードは,本論文では収集できなかった.一方,益岡らのムード体系を標準にして本論文で新しいムードとして収集した「感心」と「意外」は,加藤らによってすでに提示されていた.この結果,本論文で新しいムードとして収集した23種類のムードのうち,本当の意味で新しいと言えるムードは「感心」と「意外」を除く21種類であることが分かった.
\section{ムード体系の拡充}
本節では,より網羅性のあるムード体系の構成について,ひとつの案を示す.それは,益岡ら(益岡,田窪1999)のムード体系を,本論文で収集した新しいムードと,加藤ら(加藤,福地1989)のムード,仁田(仁田1999)のムードのうち本論文では収集できなかったムードを加えて拡充したものである.拡充したムード体系を表4に示す.\begin{table}[b]\caption{拡充したムード体系}\input{02table4.txt}\end{table}ここで,本論文で収集できなかった加藤らの「ふさわしさ」,「ものの本来の性質・一般的性向」,「継続」,「未然」,「既然」というムードは,本論文で収集したムードと比べて明らかに異質であることから,拡充したムード体系に採用した.一方,本論文で収集できなかった仁田の「判断の問いかけ」,「情意の問いかけ」というムードは,益岡らによるムード「疑問」の下位ムードとして位置づけられる.これらについては,拡充したムード体系に明示的に採用するよりも,益岡らによるムード「概言」の説明と同様に,ムード「疑問」の説明に下位ムードとして明記する方が適当と考えた.結果として,43種類のムードからなる拡充したムード体系を構成した.言うまでもなく,この拡充したムード体系は,既知のムードだけでなく,多種多様な日本語ウェブページを網羅し,それ故に多種多様な文を網羅していると考えられるNTCIR日本語ウェブページから収集した本当の意味での新しいムードを21種類含んでいる.それらは全体のほぼ半分を占める.そのため,拡充したムード体系は日本語ウェブページをも対象にした今後の言語情報処理の基礎として役立つものと考えられる.
\section{むすび}
本論文では,極めて多様性の高いNTCIR日本語ウェブページに含まれる多数の日本語文から,ムードを収集する方法を詳説した.収集方法の基本的な手順は,(1)日本語文をChaSenによって単語に分割し,(2)様々な種類のムードを表出すると予想される文末語に着目し,(3)益岡ら(益岡,田窪1999)のムード体系を標準として利用し,文末語に手作業でムードを割り当てる,というものである.20種類程度の新しいムードを収集することができたという点で,その方法は効果的であったと考えられる.また,収集したムードと,加藤ら(加藤,福地1989)および仁田(仁田1999)によって提示されている既知ムードとの比較を行った.これによって,NTCIR日本語ウェブページからは収集できなかった既知ムードがいくつか存在していること,新しく収集した23種類のムードのうち2種類は既知ムードとして存在していること,を明らかにした.そして,比較によって得た知見をもとに,より網羅性のあるムード体系の構成について一案を示した.それは,既知ムードと新しいムードとを併せて43種類のムードから構成したものである.約半分が,NTCIR日本語ウェブページから収集した既知ではないムードであり,日本語ウェブページをも対象にした今後の言語情報処理の基礎として役立つものと考えられる.本論文は,日本語ムード辞書を整備するための基礎を与えているとも言える.工学的に望まれる日本語ムード辞書にはいろいろな様式が考えられる.もっとも簡潔な辞書は,実際の日本語ウェブページに出現する文末語とそのPOS,それが表出し得るムードを1つのレコードとしてエントリしたものである.これにより,分析対象とするテキスト内の各文から文末語とそのPOSを抽出し,辞書を参照して,その文末語が表出し得るムードを分析できる.あるいは,所望のムードを表出し得る文末語を有する文の抽出も可能であろう.このような辞書を整備するための基礎として,できるだけ網羅性の高いムード体系が必須である.7節で提案したムード体系はそうしたものとして役立つと考えられる.そのようなムード体系を利用して,なんらかの日本語ムード辞書を整備していくことは今後の課題である.\acknowledgmentNTCIR-3WEBは国立情報学研究所の許諾を得て使用させて頂きました.この場を借りて深謝いたします.また,ムード収集方法について有益な助言をして頂いた土井晃一工学博士に感謝します.さらに本論文の完成度を高めるために非常に参考となるコメントを,査読者から多く頂きました.この場を借りてお礼申し上げます.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\item{}乾孝司,奥村学(2006).``テキストを対象とした評価情報の分析に関する研究動向.''自然言語処理,{\Bbf13}(3),pp.\201--241.\item{}乾裕子,内元清貴,村田真樹,井佐原均(1998).``文末表現に着目した自由回答アンケートの分類.''情報処理学会自然言語処理研究会報告,{\Bbf98}(99),pp.\181--188.\item{}加藤泰彦,福地務(1989).テンス・アスペクト・ムード.荒竹出版.\item{}国立国語研究所(2004).分類語彙表増補改訂版—データベース.国立国語研究所.\item{}仁田義雄(1999).日本語のモダリティと人称.ひつじ書房.\item{}野田尚史(1995).``文の階層構造からみた主題ととりたて.''益岡隆志,野田尚史,沼田善子(編)「日本語の主題と取り立て」,pp.\1--35,くろしお出版.\item{}益岡隆志,田窪行則(1999).基礎日本語文法.くろしお出版.\item{}横野光(2005).``情緒推定のための発話文の文末表現の分類.''情報処理学会自然言語処理研究会報告,{\Bbf2005}(117),pp.\1--6.\end{thebibliography}\section*{付録:益岡らのムード体系}益岡ら(益岡,田窪1999)のムード体系について,以下に簡単な説明を示すとともに,括弧内に文例を示す.文例は,概ね彼らが用いているものを参考にした.\InHone{(a)}\textgt{確言}:話し手が真であると信じていることを相手に知らせたり,同意を求めたりする.(変な音がする.)\InHone{(b)}\textgt{命令}:相手が意志的に制御できる動作を,相手に強制する.(早く勉強すること.)\InHone{(c)}\textgt{禁止}:ある動作をしないこと,ある事態が生じないように努力することを命令する.(こっちに来るな.)\InHone{(d)}\textgt{許可}:ある動作が他の動作と同じく容認可能であることを相手に指摘する.(食べてもいいよ.)\InHone{(e)}\textgt{依頼}:相手の意志を尊重して,ある動作をするよう頼む.(水をまいておいてちょうだい.)\InHone{(f)}\textgt{当為}:ある事態が望ましいとか,必要だ,というように事態の当否を述べる.(貿易黒字を減らすべきだ.)\InHone{(g)}\textgt{意志}:ある動作を行う意志を表す.(先に行きます.)\InHone{(h)}\textgt{申し出}:相手に対する自分の動作を申し出る.(荷物を持ちましょう.)\InHone{(i)}\textgt{勧誘}:共同動作の申し出を表す.(出かけましょう.)\InHone{(j)}\textgt{願望}:事態の実現を望んでいることを表す.このムードには,自分自身の動作・状態を望む場合,他人の動作・状態を望む場合,ある事態の成立を望む場合がある.(宇宙飛行士になりたい.)\InHone{(k)}\textgt{概言}:真とは断定できない知識を述べる.概言は下位ムードとして,「断定保留」(「だろう,まい」),「証拠のある推定」(「らしい,ようだ,みたいだ,はずだ」),「可能性」(「かもしれない」),「直感的確信」(「にちがいない」),「様態」(「そうだ」),「伝聞」(「そうだ,という,とのことだ」)を内包するが\footnote{「断定保留」など下位ムード名称の後に,括弧つきで代表的な表現形式を例示した.},本論文ではこれらを一括して「概言」としている.(来年はきっと不景気になるだろう.)\InHone{(l)}\textgt{説明}:ある事態の説明として,別の事態を述べる.((遅かったじゃないですか.)渋滞に巻き込まれたんです.)\InHone{(m)}\textgt{比況}:ある事態を性質の類似した別の事態で特徴づける.(この絵は写実的で,写真のようだ.)\InHone{(n)}\textgt{疑問}:話し手が相手に未知の部分の情報を求めたり(質問型の疑問),自分自身に問いかけたりする(自問型の疑問).本論文では,質問型も自問型も一括して「疑問」としている.(きのう,誰に会ったのですか.)\InHone{(o)}\textgt{否定}:対応する肯定の事態や判断が成り立たないことを意味する.(雨が降らなかった.)\begin{biography}\bioauthor{大森晃}{1985年広島大学大学院工学研究科博士課程後期修了(システム工学専攻).工学博士.1982年9月より1年間ケースウェスタンリザーブ大学客員研究員.1985年4月より富士通国際情報社会科学研究所に勤務.1993年10月より東京理科大学工学部第二部経営工学科助教授(現在,准教授).ソフトウェア工学,品質管理,言語情報処理,教育工学などの研究に従事.IEEEComputerSociety,ACM,日本品質管理学会,情報処理学会,電子情報通信学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
| |
V10N04-08
|
\section{はじめに}
\thispagestyle{empty}何かを調べたいとき,一番よい方法はよく知っている人(その分野の専門家)に直接聞くことである.多くの場合,自分の調べたいこととその答えの間には,具体性のズレ,表現のズレ,背景の認識の不足などがあるが,専門家は質問者との対話を通してそのようなギャップをうめてくれるのである.現在,WWWなどに大規模な電子化テキスト集合が存在するようになり,潜在的にはどのような質問に対してもどこかに答えがあるという状況が生まれつつある.しかし,今のところWWWを調べても専門家に聞くような便利さはない.その最大の原因は,上記のようなギャップを埋めてくれる対話的な能力が計算機にないためである.例えば,ユーザがWWWのサーチエンジンに漠然とした検索語を入力すると多くのテキストがヒットしてしまい,ユーザは多大な労力を費して適切なテキストを探さなければならない.このような問題は,ドメインを限定し,ユーザが比較的明確な目的を持って検索を行う場合でも同様である.我々は予備調査として,マイクロソフトが提供している自然言語テキスト検索システム「話し言葉検索」\footnote{\tthttp://www.microsoft.com/japan/enable/nlsearch/}の検索ログを分析した.その結果,全体の約3割の質問はその意図が不明確であることがわかった.このような曖昧な質問に対しては多くのテキストがマッチしてしまうので,ユーザが検索結果に満足しているとはいいがたい.この問題を解決するためには,「曖昧な質問への聞き返し」を行うことが必要となる.すでに実現されている情報検索システムには,大きく分けてテキスト検索システムと質問応答システムの2つのタイプがある.前者は質問キーワードに対して適合するテキスト(のリスト)を返し,後者は質問文に対してその答えを直接返す.しかし,曖昧な質問を行ったユーザを具体的なテキストまたは答えに導く必要性は両者に共通する.以下では,「曖昧な質問への聞き返し」に焦点をあてて,過去の研究を俯瞰する(表\ref{tab:情報検索の種々のタイプ}).テキスト検索システムにおいて,質問とテキストの具体性のギャップを埋めるために聞き返しを行う方法としては,以下の手法が提案されてきた.\begin{table}\caption{情報検索の種々のタイプ}\label{tab:情報検索の種々のタイプ}\begin{center}\footnotesize\begin{tabular}{l|cccc}\hline手法/システム&ユーザ質問&出力&聞き返しの媒体&規模\\\hline\hline一般的なテキスト検索システム&キーワードの&テキストの&×&○\\&リスト&リスト\\\hlineテキストによる聞き返し&キーワードの&テキストの&テキスト&○\\(SMART,WWWサーチエンジン)&リスト&リスト\\\hline関連キーワードによる聞き返し&キーワードの&テキストの&キーワード&○\\(RCAUU,DualNAVI,Excite)&リスト&リスト\\\hlineテキストと関連キーワードによる&キーワードの&テキスト&テキストと&△\\聞き返し(THOMAS)&リスト&&キーワード&\\\hlineクラスタリング&キーワードの&テキストの&クラスタ&○\\(Scatter/Gather,WebSOM)&リスト&リスト&(キーワードor\\&&&テキストで表現)&\\\hline\hline人工言語による知識体系の利用&自然言語&自然言語&自然言語&×\\(UC)&&(答え)&&\\\hlineFAQテキストの利用&自然言語&自然言語&×&△\\(FAQFinder)&&(答え)&&\\\hlineドメイン独立テキストの利用&自然言語&自然言語&×&○\\(TRECQA/NTCIRQAC)&&(答え)&&\\\hline京都大学ヘルプシステム&自然言語&自然言語&自然言語&△\\&&(答え)&&\\\hline\hlineダイアログナビ&自然言語&自然言語&自然言語&○\\&&(状況説明文)&&\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemテキストによる聞き返し検索結果から適合テキストをユーザに判定させ,それを検索式の修正に反映させる手法は,SMARTシステムなどで実験が行われている\cite{Rocchio71}\footnote{このようにユーザが適合テキストを選ぶ方法は,「適合性フィードバック」とよばれている.しかし,ユーザに聞き返しを行って何らかの情報をえること全体が,広い意味での適合性フィードバックであるので,ここではその用語は用いていない.}.Google\footnote{\tthttp://www.google.com/}などのWWWサーチエンジンでは,検索結果からテキストを1個選んで,その関連テキストを表示させることができるが,この方法もユーザによる適合テキストの判定とみなすことができる.\item関連キーワードによる聞き返し検索結果から,ユーザが入力したキーワードに関連するキーワードを抽出し,選択肢として提示するシステムとしては,RCAAU\cite{RCAAU},DualNAVI\cite{DualNAVI},Excite\footnote{\tthttp://www.excite.com/}などがある.\itemテキストと関連キーワードを組み合わせた聞き返しTHOMAS\cite{Oddy77}は,ユーザの情報要求を,「イメージ」とよばれるキーワード集合として保持し,テキスト1個と関連キーワードを併せて提示してそれらの適合性をユーザに判定させるプロセスを繰り返すことで,「イメージ」を徐々に具体化させようとするシステムである.ただし,1970年代に提案されたシステムであり,小規模なテキスト集合にしか適用できない.\itemクラスタリング検索されたテキストをクラスタリングし,クラスタを選択肢として提示するシステムとしては,Scatter/Gather\cite{Hearst96},WEBSOM\cite{Lagus00}などがある.これらのシステムでは,各クラスタは,それに属するテキストのリストや,代表的なキーワードのリストとして表現されている.\end{itemize}これらのシステムの聞き返しの媒体は,いずれもキーワードまたはテキストのレベルである.しかし,キーワードは抽象化されすぎており表現力がとぼしく,逆にテキストは具体的すぎるため,聞き返しの媒体としては必ずしも適切ではない.一方,質問応答システムとしては,1980年代にUC\cite{UC}などのシステムが研究された.これらのシステムは,ユーザの意図が曖昧な場合に自然言語による聞き返しを行う能力を備えていたが,そのためには人工言語で記述された,システムに特化した知識ベースが必要であった.しかし,十分な能力をもつ人工言語の設計の困難さ,知識ベース作成のコストなどの問題から,このような方法には明らかにスケーラビリティがない.1990年代になって,電子化された大量の自然言語テキストが利用可能になったことから,自然言語テキストを知識ベースとして用いる質問応答システムの研究が盛んになってきた.インターネットのニュースグループのFAQファイルを利用するシステムとしては,FAQFinder\cite{Hammond95}がある.また最近は,構造化されていないドメイン独立のテキスト(新聞記事やWWWテキスト)を用いた質問応答システムの研究が,TRECQATrack\cite{TREC9}やNTCIRQAC\cite{QAC}において盛んに行われている\cite{Harabagiu01,TREC_LIMSI,QAC_Murata,QAC_Kawahara}.しかし,これらのシステムはユーザの質問が具体的であることを前提にして,1回の質問に対して答えを1回返すだけであり,曖昧な質問に対して聞き返しを行う能力は備えていない.京都大学総合情報メディアセンターのヘルプシステム\cite{Kuro00}は,自然言語で記述された知識ベースとユーザ質問の柔軟なマッチングに基づいて,曖昧な質問に対して自然言語による聞き返しを行うことができるシステムである.しかしそこでは,記述の粒度をそろえ,表現に若干の制限を加えた知識ベースをシステム用に構築しており,「曖昧な質問への聞き返し」のプロトタイプシステムという位置づけが適当である.\begin{figure}\begin{center}\epsfile{file=fig/image.eps,scale=0.4}\caption{ダイアログナビのユーザインタフェース}\label{fig:user_interface}\end{center}\end{figure}これに対して,本論文では,既存の大規模なテキスト知識ベースをもとにして,自然言語による「曖昧な質問への聞き返し」を行い,ユーザを適切なテキストに導くための方法を提案する.具体的には,パーソナルコンピュータのWindows環境の利用者を対象とした自動質問応答システム「ダイアログナビ」を構築した(図\ref{fig:user_interface}).本システムの主な特徴は以下の通りである.\begin{itemize}\item{\bf大規模テキスト知識ベースの利用}マイクロソフトがすでに保有している膨大なテキスト知識ベースをそのままの形で利用する.\item{\bf正確なテキスト検索}ユーザの質問に適合するテキストを正確に検索する.そのために,質問タイプの同定,{\bf同義表現辞書}による表現のずれの吸収,係り受け関係への重みづけなどを行っている.\item{\bfユーザのナビゲート}ユーザが曖昧な質問をしたとき,対話的に聞き返しを行うことによってユーザを具体的な答えにナビゲートする.聞き返しの方法としては,{\bf対話カード}と{\bf状況説明文の抽出}の2つの方法を組み合わせて用いる.どちらの方法が用いられても,システムは具体的なフレーズを聞き返しの選択肢として提示する.\end{itemize}\vspace*{5mm}図\ref{fig:user_interface}の例では,「エラーが発生する」という漠然とした質問に対して2回の聞き返しを行ってユーザの質問を対話的に明確化させた後,知識ベースを検索してその結果を提示している.その際,ユーザの質問をより具体化させるような部分を検索されたテキストから抽出して提示している.本論文では,このような対話的質問応答を可能とするためのシステムを提案する.まず\ref{sec:ダイアログナビの構成}節において,システムの構成を示す.つづいて,\ref{sec:テキストの検索}節では正確なテキストの検索を行うための手法を,\ref{sec:ユーザのナビゲート}節ではユーザのナビゲートを実現するための手法を,具体的に提案する.さらに\ref{sec:評価}節において,提案手法を実装したシステム「ダイアログナビ」を公開運用して得られた対話データベースの分析結果を,提案手法の評価として示す.最後に\ref{sec:おわりに}節で本論文のまとめを述べる.\newpage
\section{ダイアログナビの構成}
\label{sec:ダイアログナビの構成}ダイアログナビにおいて使用するリソースを以下に示す.\begin{table}\caption{ダイアログナビで用いるテキスト知識ベース}\label{tab:text_collection}\begin{center}\footnotesize\begin{tabular}{c|rrl}\hline知識ベース&\multicolumn{1}{c}{件数}&\multicolumn{1}{c}{文字数}&\multicolumn{1}{c}{マッチング対象}\\\hline用語集&4,707&700,000&見出し(1文)\\ヘルプ集&11,306&6,000,000&タイトル(1文)\\サポート技術情報&23,323&22,000,000&文書全体(複数文)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\tiny\begin{tabular}{|p{12cm}|}\hline\\{\small\bf音声認識ソフトウェアがインストールされた環境でページ違反が発生する}\\\\最終更新日:1999/08/18\\文書番号:J049655\\\\この資料は以下の製品について記述したものです。\begin{itemize}\itemMicrosoft(R)InternetExplorerVersion5(以下InternetExplorer5)\itemMicrosoft(R)Windows98(以下Windows98)\end{itemize}\\{\bf概要}\\この資料は、Windows98上にInternetExplorer5がインストールされた環境で、音声認識ソフトウェアが起動されていると、InternetExplorer5を起動した際に、ページ違反が発生する現象について説明したものです。\\\\{\bf内容}\\以下の条件を満たすときにInternetExplorer5を起動すると、ユーザー補助プログラムのOLEACC.DLLが不正なメモリ領域を参照することにより、ページ違反が発生する場合があります。\begin{itemize}\itemWindows98にユーザー補助プログラムがインストールされている\item音声認識ソフトウェアが起動している\end{itemize}\\{\bf回避方法}\\Windows98システムアップデートモジュールをインストールします。システムアップデートモジュールには、新しいOLEACC.DLLが含まれており、この不具合が修正されていることを確認しております。これはWindows98ServicePack1に含まれるモジュールとなっており、WindowsUpdateからダウンロードすることができます。\\\\{\bf入手方法}\begin{enumerate}\item\[スタート]メニューから[WindowsUpdate]をクリックします。\item画面の指示に従い"WindowsUpdateへようこそ"が表示されたら、"製品の更新"をクリックします。\item"ソフトウェアの選択"画面にて、"Windows98SystemUpdate"にチェックをつけ、"ダウンロード"ボタンを押します。\item画面の指示に従い、モジュールをインストールします。\end{enumerate}\\\hline\end{tabular}\caption{マイクロソフト・サポート技術情報の例}\label{fig:マイクロソフト・サポート技術情報の例}\end{center}\end{figure}\begin{itemize}\item{\bf知識ベース}マイクロソフトがすでに一般に公開しているテキスト知識ベースをそのまま用いる.その種類と規模を表\ref{tab:text_collection}に示す.また,知識ベースのうちサポート技術情報に含まれるテキストの例を図\ref{fig:マイクロソフト・サポート技術情報の例}に示す.\item{\bf同義表現辞書}(\ref{subsubsec:同義表現辞書}項,図\ref{fig:同義表現辞書})ユーザ質問文と知識ベースの間の表現のずれを吸収するために,同義語や同義フレーズをグループ化した辞書を用いる.現在,ダイアログナビの同義表現辞書には,919グループの同義表現が存在し,3512語・217フレーズが登録されている.\begin{figure}\begin{center}\footnotesize\begin{tabular}{|c@{}p{10cm}|}\hline\multicolumn{2}{|l|}{[発生する]}\\\hspace{5mm}&発生する,起きる,おきる,起こる,おこる\\\multicolumn{2}{|l|}{[読む]}\\\hspace{5mm}&読む,よむ,読める,よめる,読み込む,よみこむ,読み込める,よみこめる\\\multicolumn{2}{|l|}{[メール]}\\\hspace{5mm}&メール,メイル,電子メール,電子メイル,Mail,E-Mail\\\multicolumn{2}{|l|}{[メールを読む]}\\\hspace{5mm}&メールを読む,メールを受信する,メールを見る,メールを受ける,メッセージを受信する,メッセージを受ける\\\multicolumn{2}{|l|}{[パソコンを起動する]}\\\hspace{5mm}&パソコンを起動する,Windowsを起動する,電源を入れる,電源をオンする,ブートする,パソコンを立ち上げる,スイッチを入れる\\\hline\end{tabular}\caption{同義表現辞書の例}\label{fig:同義表現辞書}\end{center}\end{figure}\item{\bf上位・下位語辞書}(\ref{subsubsec:上位・下位語辞書}項,図\ref{fig:上位下位関係})上位・下位の関係にある語(「ブラウザ」と「InternetExplorer」など)を関係づけた辞書を用いる.現在,200語が登録されている.\begin{figure}\begin{center}\epsfile{file=fig/jouikai.eps,scale=0.75}\caption{上位・下位語辞書の例}\label{fig:上位下位関係}\end{center}\end{figure}\item{\bf対話カード}(\ref{subsec:対話カードを用いた聞き返し}節,図\ref{fig:対話カードの例})曖昧なユーザ質問文のうち典型的なものに対して,どのような聞き返しを行うかを記述したカードを利用する.\begin{figure}[t]\begin{center}\footnotesize\begin{tabular}{|p{12cm}|}\hline{\tt$<$CARD$>$}\\{\tt$<$ID$>$}エラー\\{\tt$<$UQ$>$}エラーが発生する\\{\tt$<$REPLY$>$}エラーはいつ発生しますか?\\{\tt$<$SELaction=CARDcard\_id={\rm``エラー/Windows起動中''}$>$}Windows起動中\\{\tt$<$SELaction=CARDcard\_id={\rm``エラー/ログイン時''}$>$}ログイン時\\{\tt$<$SELaction=CARDcard\_id={\rm``エラー/印刷時''}$>$}印刷中\\$\cdots$\\{\tt$<$/CARD$>$}\\\\\hline\multicolumn{1}{c}{}\\\hline{\tt$<$CARD$>$}\\{\tt$<$ID$>$}エラー/Windows起動中\\{\tt$<$UQ$>$}Windowsの起動中にエラーが発生する\\{\tt$<$REPLY$>$}あなたがお使いのWindowsを選んでください.\\{\tt$<$SELaction=RETphrase={\rm``Windows95の起動中にエラーが発生する''}$>$}Windows95\\{\tt$<$SELaction=RETphrase={\rm``Windows98の起動中にエラーが発生する''}$>$}Windows98\\$\cdots$\\{\tt$<$SELaction=RETphrase={\rm``WindowsXPの起動中にエラーが発生する''}$>$}WindowsXP\\{\tt$<$/CARD$>$}\\\\\hline\end{tabular}\caption{対話カードの例}\label{fig:対話カードの例}\end{center}\end{figure}\end{itemize}ダイアログナビの内部の処理と,ユーザとの対話の関係を図\ref{fig:architecture}に示す.基本的な流れは,対話カードに基づくユーザとの対話によってユーザの質問が具体化され(図\ref{fig:architecture}の左側のループ),具体化された質問によって知識ベースが検索され(右側の処理へ移行),検索結果が自動編集され選択肢の形でユーザに提示される.ユーザの最初の質問が具体的な場合は,対話カードとはマッチせずに右側の処理へ移行し,はじめから知識ベースの検索結果が提示される.図\ref{fig:architecture}中の各モジュールの働きは以下の通りである(詳細は次節以降に示す).\begin{itemize}\item{\bf入力解析モジュール}質問文を3種類の質問タイプ(Symptom型,How型,What型)に分類し,質問文の内容表現を抽出する.さらに,構文解析,キーワードと同義表現の抽出などを行う.\item{\bfテキスト検索モジュール}対話カードおよび知識ベース(以下,これらを総称して{\bfテキスト}という)とユーザ質問文のマッチングを行い,スコアの高いテキストを返す.マッチングの際には,同義表現辞書,上位・下位語辞書を用いて表現のずれを吸収する.\item{\bf状況説明文抽出モジュール}知識ベース中のユーザ質問文とマッチした文の,マッチした部分の周囲を抽出することによって,ユーザにとって簡潔でわかりやすい選択肢を提示する.\end{itemize}\begin{figure}\begin{center}\epsfile{file=fig/flow_chart.eps,scale=0.6}\caption{ダイアログナビのフローチャート}\label{fig:architecture}\end{center}\end{figure}
\section{テキストの検索}
\label{sec:テキストの検索}質問応答システムにおいてまず重要なことは,質問の答えを含むと思われるテキストを十分な精度で検索できることである.そのために,質問タイプとプロダクト名による知識ベースの絞り込みを行う.また,表現のずれを吸収するために同義表現辞書(図\ref{fig:同義表現辞書})を利用したマッチングを行う.さらに,スコア計算において,「ファイル→開く」のような係り受け関係に加点することによって,検索の精度を向上させる\cite{CLARIT}.\subsection{マッチングの前処理}\label{subsec:マッチングにおける文節の扱い}ユーザ質問文とテキスト内の文(以下,{\bfテキスト文}という)は,それぞれ構文解析を行って文節単位の係り受け構造に変換した上でマッチングを行う.この節では,マッチングを行うまでの前処理についてまとめる.\subsubsection{構文解析とキーワード抽出}ユーザ質問文とテキスト文の両者について,JUMAN\cite{JUMAN},KNP\cite{KNP}によって構文解析を行い,各文節に含まれるキーワードを抽出する.JUMANにおいて,普通名詞・固有名詞・人名・地名・組織名・数詞・動詞・形容詞・形容動詞・副詞・カタカナ・アルファベットと解析された語の原形をキーワードとみなす.ただし,一般的な語彙「する」「ある」「行う」「おこなう」「行く」「いく」「なる」「下さる」「くださる」「ございます」「できる」「出来る」は,キーワードとしない.\subsubsection{文節の分割・併合処理}\label{subsubsec:文節の分割・併合処理}マッチングのスコアを計算する際,KNPが出力した文節をそのまま用いることには問題がある.例えば,「画面をコピーできない」は2文節,「画面コピーをすることができない」は4文節と解析されるが,両者は同じことを表現している.これを適切に扱うためには,両者の単位をそろえる必要がある.本システムは,下記のルールに従って文節を分割・併合する(図\ref{fig:文節の分割・併合処理の例}).\begin{enumerate}\item複数のキーワードを含む文節は,1キーワード毎に分割する.分割された隣り合う文節同士は,係り受けの関係にあるものとする.ただし,カタカナ語・アルファベット・数詞が隣接している箇所では分割しない.このような語同士が隣接する場合は,「ウィンドウズ98SE」のようにプロダクト名などを表していることが多いからである.\item「(〜に)ついて」「(〜)こと」などの複合辞・形式名詞・副詞的名詞からなる文節,キーワードを含まない文節は,直前の文節に併合する.\end{enumerate}\begin{figure}\begin{center}\epsfile{file=fig/divide_merge.eps,scale=0.5}\caption{文節の分割・併合処理と否定フラグの付与}\label{fig:文節の分割・併合処理の例}\end{center}\end{figure}\subsubsection{否定フラグの付与}ユーザ質問文とテキスト文のマッチングの際に否定表現のバリエーションを吸収するために,文節にフラグを付与する.具体的には,形容詞「ない」,助動詞「ぬ」,または形容動詞「不可能だ」を含む場合に否定フラグを付与する(図\ref{fig:文節の分割・併合処理の例}右).\subsubsection{ユーザ質問文のタイプ推定と文末表現の削除}\begin{table}\caption{「話し言葉検索」の質問文タイプ}\label{tab:「話し言葉検索」のログ分析結果}\begin{center}\footnotesize\begin{tabular}{c|p{4cm}|p{4cm}|c}\hline質問文タイプ&説明&質問文の例(文末表現パターン)&割合\\\hline\hlineWhat型&用語の意味や定義などをたずねる質問&〜って何ですか,〜の説明をして,〜の意味を教えて&約10\,\%\\\hlineHow型&操作の方法などをたずねる質問&〜方法を教えて,〜にはどうしたらいいの,〜の使い方&約35\,\%\\\hlineSymptom型&遭遇している問題や症状を述べ,その解決策をたずねる質問&〜してしまう,〜が使えません,〜ができない&約50\,\%\\\hlineその他&------------------&------------------&約5\,\%\\\hline\end{tabular}\end{center}\end{table}「話し言葉検索」の検索ログを分析した結果,表\ref{tab:「話し言葉検索」のログ分析結果}に示すようにユーザの質問には主に3つのタイプが存在することがわかった.本システムでは,表\ref{tab:「話し言葉検索」のログ分析結果}の文末表現パターンを用いて,ユーザ質問文の質問タイプ(What型,How型,Symptom型,タイプなしのいずれか)を推定する.また,文末表現パターンのうち,「〜って何ですか」「〜方法を教えて」のようにテキスト検索においてノイズとなるものについては,ユーザ質問文から削除する.\subsection{表現のずれの吸収}\label{subsec:同義表現辞書の利用}適切なテキストを検索するためには,ユーザ質問文とテキストの間の表現のずれが大きな問題となる.本システムでは,{\bf同義表現辞書}と{\bf上位・下位語辞書}を用いることによってこの問題に対処する.\subsubsection{同義表現辞書}\label{subsubsec:同義表現辞書}表現のずれは語のレベルだけでなく,「パソコンを起動する」「Windowsを起動する」「電源を入れる」のように,2文節以上のフレーズレベルにおいても多数存在する.そこで,同義語だけでなくフレーズレベルのものも含んだ同義表現をグループ化した{\bf同義表現辞書}を作成し,これを用いて同義表現のマッチングを行う.同義表現辞書の例は図\ref{fig:同義表現辞書}に示した.本辞書の作成は,「話し言葉検索」のログを解析し,頻出する同義表現をグループ化することによって行った.また,和語動詞(「戻る」など)の可能形(「戻れる」)や読み(「もどる」「もどれる」)も同義表現として登録した.なお,同義表現辞書には再帰的な関係が含まれているため,これをあらかじめ展開しておく.図\ref{fig:同義表現辞書の再帰的展開}においては,「メールを読む」には2つのキーワード「メール」「読む」が含まれるが,「メール」には同義語「メイル」「E-mail」が存在し,「読む」には同義語「読み込む」が存在する.この場合,「メールを読む」というフレーズを$3\times2=6通り$に展開する.\begin{figure}\begin{center}\epsfile{file=fig/expand_syndic.eps,scale=0.5}\caption{同義表現辞書の再帰的展開}\label{fig:同義表現辞書の再帰的展開}\end{center}\end{figure}マッチングの際には,ユーザ質問文とテキストの両者について,同義表現辞書を調べて,そこに含まれる同義表現グループを抽出し,同一グループのものがあればマッチするとみなす.ただし,\ref{subsec:転置インデックス}節で述べるように,テキストについてはあらかじめ同義表現グループを抽出しておく.図\ref{fig:ユーザ質問文と同義表現データベースの照合}に,ユーザ質問文と同義表現辞書の照合の例を示す.この例では,4つの同義表現グループ{\bf[使う],[メール],[読む],[メールを読む]}が抽出される.\begin{figure}\begin{center}\epsfile{file=fig/extract_syn.eps,scale=0.5}\caption{ユーザ質問文と同義表現辞書の照合}\label{fig:ユーザ質問文と同義表現データベースの照合}\end{center}\end{figure}\subsubsection{上位・下位語辞書}\label{subsubsec:上位・下位語辞書}同義表現辞書ではうまく扱えない表現のずれも存在する.例えば,「ブラウザ」$\Longleftrightarrow$「IE6」,「ブラウザ」$\Longleftrightarrow$「IE5」といった表現のずれに対して,「ブラウザ」「IE5」「IE6」をすべて同義語として扱うことは問題である.なぜなら,「IE5」に関する質問に対して,「IE6」に関するテキストを示すことは適切でないからである.そこで,図\ref{fig:上位下位関係}に示すような上位・下位語辞書を作成し,テキストに現れるキーワードの上位語・下位語を,キーワードと同様に扱うことによってこの問題に対処する.例えば,「IE6」がテキストに現れる場合はその上位語「IE」「ブラウザ」もキーワードとして扱い,「IE」がテキストに現れる場合はその上位語「ブラウザ」と下位語「IE3」「IE4」「IE5」「IE6」もキーワードとして扱う.ユーザ質問文についてはこの扱いを行わないことによって,「IE5」と「IE6」がマッチすることが避けられる.\subsection{転置インデックスの利用}\label{subsec:転置インデックス}テキストを高速に検索するために,前もってテキストからキーワード・同義表現グループの抽出と,キーワードの上位・下位語の展開を行い,転置インデックスを作成しておく.本システムは,ユーザ質問文から抽出されたキーワードと同義表現グループについて転置インデックスを参照し,1個以上のキーワードまたは同義表現が一致するテキストを,次節で述べる質問タイプ・プロダクト名による絞り込みの対象とする.\subsection{知識ベースの絞り込み}\label{subsec:テキスト集合の絞り込み}テキスト検索の精度を向上させるために,質問タイプとプロダクト名による知識ベースの絞り込みを行う.\subsubsection{質問タイプによる絞り込み}\label{subsubsec:質問タイプによる絞り込み}テキスト検索モジュールは,入力解析モジュールによって推定された質問パターンにもとづいて,表\ref{tab:質問タイプによるテキスト集合の絞り込み}に示すようにテキスト集合を絞り込む.原則として,用語集はWhat型,ヘルプ集はHow型の質問に対応させる.サポート技術情報についてはSymptom型・How型を示すタグが付与されているので,これを利用する.なお,What型の質問については必ずしも用語集を用いて答えればよいとは限らない.例えば,「コントロールパネルについて教えて」のような質問はWhat型に分類されるが,用語の定義ではなく操作方法などについて聞いていると解釈することもできる.よって,全てのテキストを検索対象とした上で,複数の知識ベースのテキストがユーザ質問とマッチした場合には用語集のテキストを最初に提示する.\begin{table}\caption{質問タイプによるテキスト集合の絞り込み}\label{tab:質問タイプによるテキスト集合の絞り込み}\begin{center}\footnotesize\begin{tabular}{@{\hspace{1mm}}l@{\hspace{2mm}}l|c@{\hspace{2mm}}c@{\hspace{2mm}}c@{\hspace{2mm}}c@{\hspace{1mm}}}\hline&&\multicolumn{4}{|c}{質問タイプ}\\\multicolumn{2}{c|}{テキスト集合}&What型&How型&Symptom型&タイプなし\\\hline用語集&(What型)&o&&&o\\\hlineヘルプ集&(How型)&o&o&&o\\\hlineサポート技術情報&(Symptom型)&o&&o&o\\&(How型)&o&o&&o\\&(タイプなし)&o&o&o&o\\\hline\end{tabular}\end{center}\end{table}\subsubsection{プロダクト名による絞り込み}\label{subsubsec:プロダクト名による絞り込み}ヘルプ集・サポート技術情報については,図\ref{fig:マイクロソフト・サポート技術情報の例}に示したようにすべてのテキストに対象プロダクト名が明示されているので,これを利用してテキストの絞り込みを行う.質問文にプロダクト名(WindowsNT,Word,Excelなど)が出現する場合は,そのプロダクトを対象とするテキストを検索対象とする.質問文に複数のプロダクト名が出現する場合(「\underline{Excel}で作った表が\underline{Word}で読み込めない」など)は,いずれかのプロダクトを対象とするテキストを検索対象とする.\subsection{テキストのスコア計算}\label{subsec:スコアの計算}転置インデックスを参照して得られ,さらに質問タイプ・プロダクト名によって絞り込まれた各テキストを対象として,ユーザ質問文との間で係り受け関係まで考慮した類似度計算を行う.ただし,絞り込まれたテキスト数が1000個を超える場合は,転置インデックスにおいて一致したキーワード・同義表現グループの数の多い順に,上位1000個までを対象とする.\subsubsection{文類似度の計算}ユーザ質問文とテキスト文の2文の類似度の計算は,\ref{subsec:マッチングにおける文節の扱い}節で述べた文節を単位として行う.2文の互いに対応する文節と係り受け関係の割合({\bf被覆率})をそれぞれ計算し,その積を2文の類似度とする.まず,2文間で,以下の条件によって文節・係り受け関係を対応づける.その際,対応する文節・係り受け関係に{\bf対応度}(0以上,1以下の値)を付与する.\begin{enumerate}\itemユーザ質問文の文節{\bfA}に含まれるキーワードと,テキスト文の文節{\bfA'}に含まれるキーワード(あるいはその上位・下位語)のいずれかが一致する場合,{\bfA}と{\bfA'}を対応づける.対応度は,以下のように計算する.\begin{itemize}\item[(a)]{\bfA,A'}に共通のキーワードが含まれる場合は,以下の計算式によって対応度を計算する.\[(対応度)=\frac{(共通して含まれるキーワード数)}{(\mbox{\bfA,A'}のうちの多い方のキーワード数)}\]例えば,「Windows98SE」(3語)と「Windows98」(2語)については,2語「Windows」「98」が共通して含まれるので,対応度は$2/3(\simeq0.67)$となる.ただし,多くの場合,文節は1キーワードのみを含むので,対応度は1.0となる.\item[(b)]{\bfA}のキーワードと,{\bfA'}のキーワードの上位語または下位語が一致する場合は,対応度は0.9とする.\item[(c)]{\bfA}と{\bfA'}の否定フラグが一致しない場合は,対応度は一致する場合の0.6倍とする.\end{itemize}\itemユーザ質問文内の係り受け関係{\bfA$\rightarrow$B}とテキスト文内の係り受け関係{\bfA'$\rightarrow$B'}について,文節{\bfA,A'}と文節{\bfB,B'}がそれぞれ対応する場合,それらを対応づける.{\bfA$\rightarrow$B}の対応度は{\bfA,A}の対応度と{\bfB,B}の対応度の積とする.\itemユーザ質問文から抽出された同義表現グループとテキスト文から抽出された同義表現グループが一致する場合,それらが抽出された文節・係り受け関係を対応づける(図\ref{fig:同義表現の対応づけ}).対応度は1.0とする.\end{enumerate}以上の処理の結果,両者の文節・係り受け関係に対応度が付与される.複数の対応を持つ文節・係り受け関係については,いずれか大きな対応度をその対応度とする.\begin{figure}\begin{center}\epsfile{file=fig/synmatch.eps,scale=0.5}\caption{同義表現の対応づけ}\label{fig:同義表現の対応づけ}\end{center}\end{figure}ユーザ質問文,テキスト文の{\bf被覆率}は,それぞれ以下の式によって計算する.\[(被覆率)=\frac{(文節の対応度の和)+(係り受け関係の対応度の和)\times2}{(文節の総数)+(係り受け関係の総数)\times2}\]ユーザ質問文,テキスト文の両者の被覆率の積を,両者の類似度とする.図\ref{fig:スコア計算}においては,ユーザ質問文,テキスト文ともに3つの文節と2つの係り受け関係が対応を持っており,対応度はすべて1.0である.両者の被覆率はそれぞれ1.0,0.54であるので,類似度は0.54となる.\begin{figure}\begin{center}\epsfile{file=fig/score_calc2.eps,scale=0.6}\vspace*{5mm}\begin{tabular}{ccccc}3.0&------&{\bf文節の対応度の和}&------&3.0\\2.0&------&{\bf係り受け関係の対応度の和}&------&2.0\\3&------&{\bf文節の総数}&------&5\\2&------&{\bf係り受け関係の総数}&------&4\\1.0&------&{\bf被覆率}&------&0.54\\\end{tabular}\vspace*{-4mm}\underline{{\bf類似度}$=1.0\times0.54=0.54$}\vspace*{4mm}\caption{ユーザ質問文とテキスト文の対応づけと類似度の計算}\label{fig:スコア計算}\end{center}\end{figure}\subsubsection{テキストのスコアと代表文}\label{subsubsec:テキストのスコアと代表文}各テキスト中でもっとも類似度の大きな文をテキストの{\bf代表文}とし,その類似度をテキストのスコアとする.\subsubsection{サポート技術情報の扱い}サポート技術情報は,表\ref{tab:text_collection}に示したようにテキスト全体の複数文がマッチングの対象となるため,特別な扱いをしている.\begin{itemize}\itemテキスト文の長さが一様ではないので,テキスト文の被覆率を考慮しない.すなわち,ユーザ質問文とテキスト文の類似度は,ユーザ質問文の被覆率とする.\item一つの事象を複数文で説明している場合が多いので,前後の文とのマッチングを考慮する.ユーザ質問文とテキスト文$S_n$の間で類似度を計算する場合は,ユーザ質問文の文節・係り受け関係と,$S_n$の前後の文($S_{n-1}$,$S_{n+1}$)の文節・係り受け関係の対応にも,対応度0.5を与える.\itemサポート技術情報のテキストには,図\ref{fig:マイクロソフト・サポート技術情報の例}に示したように,セクションが存在する.これらのセクションのうち,「タイトル」「概要」「現象」「症状」セクションには,ユーザが頻繁に質問することがらが書かれていることが多い.そこで,文の存在するセクションに応じて,類似度に下記の係数を掛け合わせる.\[\begin{array}{llc}-&タイトル・概要&1.0倍\\-&現象・症状&0.8倍\\-&上記以外&0.6倍\\\end{array}\]\end{itemize}\subsection{選択肢の絞り込み}テキスト検索モジュールは,3つのテキスト集合(用語集・ヘルプ集・サポート技術情報)ごとに,テキストのスコアに基づいてユーザに提示する選択肢を絞り込む.テキストをスコアの大きい順に整列し,上位$n$個までをユーザに提示する選択肢とする.ただし,スコアが閾値$t$を下回るものは対象外とする.また,同じスコアの複数のテキストが$n$位前後で並ぶ場合は,それらをすべて含める.$n$,$t$の値は,表\ref{tab:選択肢の絞り込みのパラメータ}に示すようにテキスト集合ごとに定めた.複数のテキスト集合から選択肢が得られた場合は,用語集,ヘルプ集,サポート技術情報の順で提示する.\begin{table}\caption{選択肢の絞り込みのパラメータ}\label{tab:選択肢の絞り込みのパラメータ}\footnotesize\begin{center}\begin{tabular}{c|cc}\hline&最大選択肢数&スコア閾値\\テキスト集合&$n$&$t$\\\hline用語集&2&0.8\\ヘルプ集&5&0.3\\サポート技術情報&10&0.1\\\hline対話カードの{\tt$<$UQ$>$}(\ref{subsec:対話カードを用いた聞き返し}節)&1&0.8\\\hline\end{tabular}\end{center}\end{table}
\section{ユーザのナビゲート}
\label{sec:ユーザのナビゲート}ユーザが自分の知りたいことを普通に表現しても,それで一意に適切なテキストが決まることは少ない.例えば「Windows98で起動時にエラーが発生した」という比較的具体的な質問であっても,いくつかの原因と対策があり,それぞれにテキストが存在する.ユーザの質問がさらに曖昧であったり抽象的であったりする場合には,より多くのテキストが候補として選ばれる.いずれにせよ,ユーザが,複数のテキスト候補の中から,自分の状況に一番適切なものを選択することが必要になる.WWWのサーチエンジンは,テキスト中から検索語を含む部分を抽出してユーザに提示することによって,ユーザのテキスト選択を補助している.本システムでは,この考え方を一歩進め,ユーザの質問(遭遇している問題)をより具体化するような説明文をテキスト中から自動的に抽出し,それらを選択肢として提示するという形でユーザへの聞き返しを行う.しかし,ユーザの質問が非常に曖昧な場合には上記の方法はうまく機能しない.そこで,頻繁に尋ねられる曖昧な質問に対して,それをどのように対話的に具体化するかを対話カードという形式で体系化した.例えば,図\ref{fig:ユーザのナビゲート}に示すように,ユーザが「エラーが発生した」という質問をした場合,「エラーが発生したのはいつですか」「使っているWindowsのバージョンは何ですか」などの聞き返しを行って,ユーザの問題を具体化する.\begin{figure}\begin{center}\epsfile{file=fig/hierarchy.eps,scale=0.45}\caption{ユーザのナビゲート}\label{fig:ユーザのナビゲート}\end{center}\end{figure}\subsection{状況説明文の抽出}\label{subsec:状況説明文の抽出}ユーザ質問とマッチした知識ベース中の文では,その中のマッチしなかった部分に,ユーザの問題をより具体化する状況説明が与えられていると考えられる(このような部分を状況説明文とよぶ).たとえば,ユーザが「ページ違反が発生する」と質問し,これが「IE5を起動した際にページ違反が発生する」という文にマッチした場合,マッチしていない「IE5を起動した際に」という部分が状況説明文となる.ユーザの質問にマッチした複数の文からそれぞれ状況説明文を抽出し,ユーザに選択肢として提示すれば,ユーザは自分の状況に適合するものを容易に選択することが可能となる.状況説明文抽出のアルゴリズムを以下に示す.\begin{enumerate}\item「この資料では,(〜)」「以下の」「(〜する)問題について説明しています」など,頻出する冗長な表現をパターンマッチにより削除する.\item文を次の箇所で分割する.分割された各部をセグメントと呼ぶ.\begin{itemize}\item連用修飾節\item「〜とき」「〜際」「〜場合」「〜最中」など\item読点を伴うデ格\end{itemize}\itemセグメントのうち,すべての文節がユーザ質問文中の文節と対応するものを削除する(同義表現として対応する文節も含む).\item末尾(削除されたセグメントを除く)のセグメントを状況説明文の核とする.\item核のセグメントと,それに直接係るセグメントのみを,状況説明文として選択する.\end{enumerate}アルゴリズムの適用例を図\ref{fig:選択肢テキストからの状況説明文の抽出}に示す.まず,左の文は2つのセグメント{\bfA・B},右の文は3つのセグメント{\bfC・D・E}に分割される.このうち,左の文のセグメント{\bfB}と,右の文のセグメント{\bfC・E}は,すべての文節がユーザ質問文と対応するため削除される.結果としてセグメント{\bfA}と{\bfD}が状況説明文の核となり,「IE5を起動した際に」と「タスクスケジューラを使うと」が状況説明文として出力される.\begin{figure}\begin{center}\epsfile{file=fig/extract_description.eps,scale=0.5}\caption{選択肢テキストからの状況説明文の抽出}\label{fig:選択肢テキストからの状況説明文の抽出}\end{center}\end{figure}サポート技術情報のテキストについては,各選択肢テキストの代表文から状況説明文を抽出する.用語集・ヘルプ集のテキストについては,各テキストの見出し語・タイトル自体が簡潔な説明文となっているので,この処理の対象とはしない.\subsection{対話カードを用いた聞き返し}\label{subsec:対話カードを用いた聞き返し}ユーザの質問が非常に曖昧な場合には,テキスト検索の精度が低くなり,多くの不適切なテキストがマッチしてしまう.このような場合に状況説明文の抽出を行っても,誤りを含んだ多くの選択肢が得られることになり,ユーザの助けとはならない.そこで,頻繁に尋ねられる曖昧な質問に対して,それを対話的に具体化する手順を対話カードという形式で体系化した.1枚の対話カードは,あるユーザ質問に対して,どのような聞き返しをすればよいかを記述したもので,以下の要素から構成されている(図\ref{fig:対話カードの例}).\begin{description}\item[\tt$<$ID$>$:]対話カードのID.\item[\tt$<$UQ$>$:]ユーザ質問文.この部分がユーザの質問文とマッチすればこの対話カードが利用される.\item[\tt$<$REPLY$>$:]システムからユーザへの聞き返し発話.\item[\tt$<$SELaction=CARD/SHOW/RET...$>$:]聞き返しの際,ユーザに提示する選択肢.それぞれの選択肢にはユーザがそれを選んだ場合のシステムの動作が記述されている.{\ttaction=CARD}の場合には{\ttcard\_id=}で示された対話カードに移る.{\ttaction=SHOW}の場合には{\tturl}で示されたwebページ(マイクロソフトのサイトの種々のドキュメント)または{\tttext\_id}で示された知識ベースのテキストを表示する.{\ttaction=RET}の場合には{\ttphrase}で示された質問文によって知識ベースを検索する.\end{description}対話カードの利用例を図\ref{fig:user_interface}によって説明する.まずユーザが「エラーが発生した」という質問をすると,質問文と各対話カードの{\tt$<$UQ$>$}の部分とのマッチングを\ref{sec:テキストの検索}節で述べたアルゴリズムによって行う.この結果,図\ref{fig:対話カードの例}上段の対話カードが選ばれる.システムはこのカードに従って,「エラーはいつ発生しますか?」という聞き返しを,選択肢を示して行う.ユーザが「Windows起動中」を選ぶと,システムは図\ref{fig:対話カードの例}下段の[エラー/Windows起動中]の対話カードに移って,「あなたがお使いのWindowsを選んでください」という聞き返しを行う.ここでユーザが「Windows98」を選ぶと,「Windows98の起動中にエラーが発生する」を質問文として知識ベースのテキストの検索を行う.対話カードはこのように階層的に構成されており,そのすべてのカードの{\tt$<$UQ$>$}が検索対象となっている.すなわち,図\ref{fig:ユーザのナビゲート}で示したさまざまなレベルの曖昧性・抽象度の質問を全体的にカバーするように設計されている.たとえば,ユーザが「Windowsを起動中にエラーが発生する」と質問した場合には,はじめから図\ref{fig:対話カードの例}下段のカードを用いた対話が行われることになる.また,対話カードの枠組みは,「U:こんにちはS:こんにちわ」「U:このシステム使いやすいですねS:ありがとうございます」のようなドメインとは関係のない例外的な対応を行う場合にも利用している(この場合は{\tt$<$SEL$>$}のないカードとなる).このような対応ができなければ,通常の検索,すなわち知識ベースに対して「このシステム使いやすいですね」で検索を行ってしまい,「システム」や「使う」を含む知識ベースを提示するということが起こってしまう.ユーザの例外的な発話に対する不適切な動作を防ぎ,正常な対話を維持するという意味で,対話カードによる例外処理は重要である(このような例外的な対話は次節では「範囲外」の対話と扱っている).
\section{評価}
\label{sec:評価}ダイアログナビは,{\tthttp://www.microsoft.com/japan/navigator/}において,2002年4月から公開サービスを行っている.ユーザとの質問応答のログは,対話データベースとして蓄積している.本システムの評価としては,対話セッションの評価,ユーザとシステムのふるまいの分析,状況説明文の抽出結果が妥当かどうかの評価の3種類を行った.\subsection{対話セッションの評価}対話データベース中の2002年8月1日〜31日の質問応答ログの中から無作為に300回のアクセスを選択した.それらを人手によってタスク指向対話としての意味的まとまりに分割した.このまとまりを{\bf対話セッション}とよぶ.結果として,378個の対話セッションが得られた.1対話セッション当たりの発話ペア(ユーザのキーボード入力またはマウスでの選択と,それに対するシステムの応答)の回数は,平均1.42回であった.378対話セッションそれぞれに対して,評価者1名が次のいずれかの評価を与えた.\begin{description}\item[成功:知識あり]システムが少なくとも1つの適切なテキストを選択肢として提示した.\item[成功:知識なし]知識ベースに適切なテキストがなく,かつシステムが「該当する情報を見つけることができませんでした」と回答した.\item[失敗:知識あり]知識ベースに適切なテキストがあるにもかかわらず,システムがそれらのうちどれも選択肢として提示することができなかった.\item[失敗:知識なし]知識ベースに適切なテキストがないにもかかわらず,システムが不適切なテキストを選択肢として提示した.\item[範囲外:適切]ユーザの質問は想定ドメインの範囲外であったが,システムは適切な応答をした.\item[範囲外:不適切]ユーザの質問が想定ドメインの範囲外であり,システムが不適切な応答をした.\end{description}\begin{table}\caption{対話セッション評価の例(タイプA)}\label{tab:対話セッション評価の例(タイプA)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineA-1&U:&\multicolumn{2}{l}{Excelで行を追加したい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{Excelで空白のセル,行,列を挿入する}\\&&2.○&\underline{EXCEL:行の挿入}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineA-2&U:&\multicolumn{2}{l}{起動ディスク}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{W98:PC-9800シリーズ対応用起動ディスクの起動メニュー}\\&&2.&\underline{WindowsXPインストール時にフロッピーでコンピューターを起動するための}\\&&&\underline{ディスクの入手方法}\\&&3.&...\\&U:&\multicolumn{2}{l}{Windows2000での起動ディスクの作成方法は?}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{WindowsNTブートディスクを作成しブート障害に備える方法}\\&&2.&\underline{Windows2000Serverの新規インストールを実行する方法}\\&&&CD-ROMドライブからコンピュータを起動できない場合,Windows2000ブートディスクを作成します.\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineA-3&U:&\multicolumn{2}{l}{USB1.1からusb2.0に交換できますか?}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識なし\\\hlineA-4&U:&\multicolumn{2}{l}{マクロを使いたい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{Accessでマクロを使ってプロパティを設定する}\\&&2.&\underline{AccessVisualBasicでマクロを使ったプロパティの設定}\\&&3.&...\\&U:&\multicolumn{2}{l}{Excelです}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{Excel2000の起動時に特定のファイルを開く方法}\\&&2.&\underline{Excel:Web上にExcelデータを保存する方法}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&Excelのマクロについて\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineA-5&U:&\multicolumn{2}{l}{ウインドウズXPを削除するにはどうしますか?}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&WindowsXPをアンインストールする方法\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineA-6&U:&\multicolumn{2}{l}{ラリースポーツチャレンジで正しく画面が表示されない}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{W98SE:初期設定の画面で[ESC]を連打すると表示が不正}\\&&2.&\underline{[CHT2]キャラクターが正しく表示されない場合}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識なし\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{対話セッション評価の例(タイプB)}\label{tab:対話セッション評価の例(タイプB)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineB-1&U:&\multicolumn{2}{l}{表を書きたい}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\&U:&\multicolumn{2}{l}{表を作りたい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{PowerPointで表を作成する}\\&&2.○&\underline{Wordで表を作成する}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineB-2&U:&\multicolumn{2}{l}{強制終了します}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{EXCEL:強制終了およびハングアップの際のチェック項目}\\&&2.○&\underline{EXCEL:強制終了によって正常に保存されなかったファイルを回復する方法}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineB-3&U:&\multicolumn{2}{l}{Linux}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{Linuxを削除しWindows2000またはNTをインストールする方法}\\&&2.○&\underline{LinuxRPCクライアントからサービス拒否攻撃を実行できる可能性がある}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineB-4&U:&\multicolumn{2}{l}{FreeBSD}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識なし\\\hlineB-5&U:&\multicolumn{2}{l}{自動校正を解除したい}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&[WD98]文章校正に関するQ\&A\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineB-6&U:&\multicolumn{2}{l}{ホームページの文字が大きい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{[HOWTO]大きな文字配列を初期化する方法}\\&&2.&\underline{[SNA]127よりも大きい文字がNvRunCmdによって間違ってマップ}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&表示されるWebページの文字のサイズを変更する\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineB-7&U:&\multicolumn{2}{l}{CADソフトが動かない}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{[OFFXP]Officeのセットアップ後にDVDソフトが動作しない問題について}\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識なし\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{対話セッション評価の例(タイプC)}\label{tab:対話セッション評価の例(タイプC)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineC-1&U:&\multicolumn{2}{l}{エラーが発生しました.}\\&S:&\multicolumn{2}{l}{エラーはいつ発生しますか?}\\&&1.&\underline{Windows起動中}\\&&2.&\underline{ログオン(ログイン)時}\\&&3.&...\\&U:&\multicolumn{2}{l}{Windows起動中}\\&S:&\multicolumn{2}{l}{あなたがお使いのWindowsを選んでください.}\\&&1.&\underline{Windows95}\\&&2.&\underline{Windows98}\\&&3.&...\\&U:&\multicolumn{2}{l}{Windows98}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{W98:起動時のフォントドライバが読み込めないエラー}\\&&&「JISフォントドライバーがインストールされていません」等のフォントの読み込みに関するエラーが発生した\\&&2.○&\underline{W98:起動時に「$<$ファイル名$>$が不正かありません」のエラーについて}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineC-2&U:&\multicolumn{2}{l}{XBOXについて教えて}\\&S:&\multicolumn{2}{l}{Microsoftが開発した次世代家庭用ゲーム機.詳しくは以下のリンクを参照してください.}\\&&1.○&\underline{XBOX}\\&&2.○&\underline{発売予定のゲームタイトル}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{対話セッション評価の例(タイプD)}\label{tab:対話セッション評価の例(タイプD)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineD-1&U:&\multicolumn{2}{l}{あなたは誰ですか?}\\&S:&\multicolumn{2}{l}{DialogNavigatorです.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&範囲外:適切\\\hlineD-2&U:&\multicolumn{2}{l}{夏休みの天気が知りたい}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&範囲外:適切\\\hlineD-3&U:&\multicolumn{2}{l}{お名前は?}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{用語の説明:名前}\\&&2.&\underline{Accessのフィールド,コントロール,およびオブジェクトの名前について}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&範囲外:不適切\\\hline\end{tabular}\end{center}\end{table}本評価は,仮想的なテストセットによる評価とは異なり,実際にサービスを行った場面でのシステムのふるまいを正確にとらえている.しかし,不特定多数のユーザの真の意図に基づいて応答の適切さを判断することはできないという問題がある.そこで,対話セッションを以下の4つのタイプに分類し,それぞれのタイプについての評価のガイドラインを以下のように定めた上で評価を行った.評価の例を表\ref{tab:対話セッション評価の例(タイプA)}$\sim$表\ref{tab:対話セッション評価の例(タイプD)}に示す.なお,表において,``U:''はユーザの発話,``S:''はシステムの発話を示す.また,``○''は評価者が「適切なテキスト」と判断したテキストを示す.\begin{itemize}\item{\bfタイプA}:ユーザの質問が具体的で,適切なテキストの特定に必要な情報がすべて指定されている対話セッション(表\ref{tab:対話セッション評価の例(タイプA)}).この場合は,ユーザが指定した情報がすべて含まれているテキストを,適切なテキストであるとする.システムが提示した選択肢中に適切なテキストが存在する場合(A-1,A-2)は,「成功:知識あり」とする.その他の場合は,評価者がキーワード検索システム\footnote{キーワード入力に対して,マッチするすべてのテキストを表示する評価用システム.}を用いて知識ベースを網羅的に検索し,適切なテキストが見つかれば「失敗:知識あり」(A-4,A-5),見つからなければ「成功:知識なし」(A-3)または「失敗:知識なし」(A-6)とする.なお,ユーザがセッションの一部で曖昧な質問をしていても(A-2,A-4),セッション全体として必要な情報がすべて指定されているときは,このタイプとする.\item{\bfタイプB}:ユーザの質問が曖昧で,適切なテキストの特定に必要な情報が一部欠落している対話セッション(表\ref{tab:対話セッション評価の例(タイプB)}).対話カードが使用されたセッションは除く.この場合は,ユーザの状況に完全に合致するテキストはどれかを判断することはできないので,ユーザが与えた指定したすべての情報が含まれているテキストを,適切なテキストであるとみなす.ユーザの質問が1単語のみである場合(B-3,B-4)は,その単語が含まれるすべてのテキストを適切なテキストであるとみなす.\item{\bfタイプC}:対話カードが利用された対話セッション(表\ref{tab:対話セッション評価の例(タイプC)}).この場合は,対話カードの最も下の階層までユーザが選択肢を指定し,かつ適切なテキストまたは選択肢が提示された対話セッションを,「成功:知識あり」と判断する(適切なテキストの判断基準はタイプAに準ずる).対話カードの作成の際には,各々の選択肢に対応する質問文({\ttphrase})に対して適切なテキストが提示されるかどうかをチェックしているので,適切なテキストが提示されないことはほとんどなかった.\item{\bfタイプD}:ユーザの質問が想定ドメインの範囲外である対話セッション(表\ref{tab:対話セッション評価の例(タイプD)}).この場合は,対話カードを利用して応答したとき(D-1)と,テキストを検索した結果として該当する情報がないと応答したとき(D-2)は「範囲外:適切」,検索されたテキストを提示してしまったとき(D-3)は「範囲外:不適切」とした.\end{itemize}\vspace*{5mm}表\ref{tab:対話カードと対話セッションの評価}の右側(計の欄)に対話セッション評価の結果を示す.成功の割合は,「範囲外」を除いた230対話セッションのうち75\,\%であった.対話セッション内において対話カードによって応答が行われたかどうかと,対話セッションの評価の関係を表\ref{tab:対話カードと対話セッションの評価}左側に示す.現在,対話カードの枚数は216枚(深さは最大で3階層)である.評価対象の対話セッション中,対話カードが利用された割合は,「範囲外」を除いて17\,\%($=38/(38+192)$)であり,対話カードが利用されたセッションの大部分は「成功」であった.また,範囲外の質問に対しても対話カードでカバーされている範囲ではほぼ適切に対応できており,全体として対話カードという枠組みは有効に機能していると考えられる.対話セッションの失敗の最も大きな原因は,知識ベース,同義表現辞書の不足である.ユーザ質問文に対して適切なテキストが存在しない場合,A-3のように適切なテキストがないことを判断するのは難しく,A-6・B-7のように誤ることが多い.かりに,表\ref{tab:選択肢の絞り込みのパラメータ}のスコア閾値$t$を大きくすればこの失敗を減らすことはできるが,その代償として適切なテキストが存在する場合の「成功:知識あり」が減って,「失敗:知識あり」が増えてしまう.A-5・B-6のような「失敗:知識あり」を減らすには,同義表現辞書をより充実させ,適切なテキストを大きなスコアでマッチさせる必要がある.また,A-4のように,対話のコンテキストを考慮していないために失敗した対話セッションもあった.この種の失敗を減らすには,コンテキストを考慮したテキストの検索を行う必要がある.なお,同義表現辞書と,例外処理的な対話カードについては,対話データベースで顕著なものについて随時データの修正・作成を行っている.このことによって,公開当初の成功率は60\,\%程度であったが,徐々に改善され,現在では表\ref{tab:対話カードと対話セッションの評価}で示したとおり70\,\%を越える成功率となってきている.\begin{table}\caption{対話カード利用の有無と対話セッション評価}\label{tab:対話カードと対話セッションの評価}\begin{center}\small\begin{tabular}{c|c|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{/}r@{)}}\hline\multicolumn{2}{c|}{}&\multicolumn{4}{c|}{セッション内における}\\\multicolumn{2}{c|}{}&\multicolumn{4}{c|}{対話カードによる応答}\\\cline{3-6}\multicolumn{2}{c|}{評価}&\multicolumn{2}{c|}{あり}&\multicolumn{2}{c|}{なし}&\multicolumn{3}{c}{計}\\\hline\hline&知識あり&38&100\,\%&111&58\,\%&149&65\,\%&39\,\%\\成功&知識なし&0&0\,\%&25&13\,\%&25&11\,\%&7\,\%\\\cline{2-9}&計&38&100\,\%&136&71\,\%&174&76\,\%&46\,\%\\\hline&知識あり&0&0\,\%&15&8\,\%&15&7\,\%&4\,\%\\失敗&知識なし&0&0\,\%&41&21\,\%&41&18\,\%&11\,\%\\\cline{2-9}&計&0&0\,\%&56&29\,\%&56&24\,\%&15\,\%\\\hline\multicolumn{2}{c|}{小計(範囲外を除く)}&38&100\,\%&192&100\,\%&230&100\,\%&61\,\%\\\hline&適切&57&------&0&------&57&------&15\,\%\\範囲外&不適切&3&------&88&------&91&------&24\,\%\\\cline{2-9}&計&60&------&88&------&148&------&39\,\%\\\hline\multicolumn{2}{c|}{合計}&98&------&280&------&378&------&100\,\%\\\hline\multicolumn{9}{r}{(単位:対話セッション数)}\end{tabular}\end{center}\end{table}\subsection{ユーザとシステムのふるまいの分析}\begin{figure}\begin{center}\epsfile{file=fig/session_analysis.eps,scale=0.5}\caption{ユーザ行動とシステム応答の回数分布}\label{fig:ユーザ行動の分析}\end{center}\end{figure}\begin{table}\caption{ユーザ質問文の長さとシステム応答の関係}\label{tab:ユーザ質問文の長さとシステム応答の関係}\begin{center}\small\begin{tabular}{c|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{)}}\hline&\multicolumn{4}{c|}{対話カード応答}&\multicolumn{4}{c|}{知識ベース検索}&\multicolumn{2}{c}{}\\\cline{2-9}質問文の長さ&\multicolumn{2}{c|}{完結応答}&\multicolumn{2}{c|}{選択肢提示}&\multicolumn{2}{c|}{該当あり}&\multicolumn{2}{c|}{該当なし}&\multicolumn{2}{c}{計}\\\hline1文節&29&13\,\%&17&8\,\%&115&52\,\%&59&27\,\%&220&100\,\%\\2文節&3&2\,\%&37&28\,\%&46&35\,\%&47&35\,\%&133&100\,\%\\3文節&&&10&14\,\%&33&45\,\%&30&41\,\%&73&100\,\%\\4文節&&&2&6\,\%&22&65\,\%&10&29\,\%&34&100\,\%\\5文節以上&&&&&45&78\,\%&13&22\,\%&58&100\,\%\\\hlineすべて&32&6\,\%&66&13\,\%&261&50\,\%&159&31\,\%&518&100\,\%\\\hline\multicolumn{11}{r}{(単位:回)}\end{tabular}\end{center}\end{table}\begin{table}\caption{ユーザ質問文の長さと知識ベース検索結果の関係}\label{tab:ユーザ質問文の長さと知識ベース検索結果の関係}\begin{center}\small\begin{tabular}{c@{(}r@{)}|r|r}\hline\multicolumn{2}{c|}{質問文の長さ}&平均テキスト数&適切なテキストの割合\\\hline1文節&115回&18.2個&49\,\%\\2文節&46回&9.1個&28\,\%\\3文節&33回&16.0個&22\,\%\\4文節&22回&10.5個&10\,\%\\5文節以上&45回&10.6個&11\,\%\\\hlineすべて&261回&14.4個&35\,\%\\\hline\end{tabular}\end{center}\end{table}前節で述べた378対話セッション内において,ユーザがどのような行動をしたか,システムがそれに対してどのような応答を行ったかを調べた(図\ref{fig:ユーザ行動の分析}).ユーザの質問文の入力(518回)のうち,対話カードによって応答されたものは19\,\%($=(32+66)/518$)であった.また,質問文の長さとシステム応答の関係(表\ref{tab:ユーザ質問文の長さとシステム応答の関係})を調べたところ,対話カードは,主として短い質問文(3文節以下)に対応していることがわかった.一般的には,短い質問文ほど曖昧である.よって,図\ref{fig:ユーザのナビゲート}のユーザ質問のhierarchyにおいて,上の方の曖昧な質問文に対応するという対話カードの枠組みは,有効に機能していると考えられる.また,ユーザ質問文の長さと知識ベースの検索結果の関係(表\ref{tab:ユーザ質問文の長さと知識ベース検索結果の関係})も調べたところ,適切なテキストの割合は,質問文が長いほど少ないことがわかった.一般的には,長い質問文ほど専門的なものが多い.よって,知識ベースはそのような質問文を十分カバーしていないと考えられる.一方,ユーザ質問文の長さとテキスト数(ユーザに提示した選択肢の数)の関係については,ユーザ質問文が1文節の場合のテキスト数が特に多かった.これは,B-3の対話セッションのようにユーザが入力した1キーワードを含むテキストを多数提示してしまうことが多かったのが原因である.一方,質問文がある程度長い場合は,選択肢の絞り込みのパラメータ(表\ref{tab:選択肢の絞り込みのパラメータ})によって,ユーザへの聞き返しとして適切な数に絞り込まれている.\subsection{状況説明文抽出の評価}2002年8月1日〜31日の対話データベースから,5つ以上の選択肢が返されたユーザ質問文をランダムに100個選んだ.さらに,選択肢中で上位5個中にランキングされているサポート技術情報の状況説明文を,評価者1名が「妥当」「不十分」「冗長」の3段階で評価した.上位5個中において,タイトルが代表文として選ばれている152個のテキストは,代表文がそのまま状況説明文となるため除外した.結果として,348($=100\times5-152$)個の状況説明文が評価の対象となった.状況説明文の評価は,ユーザが選択肢を選ぶために必要十分な情報を,それぞれの選択肢が含んでいるかどうかという観点から行った.具体的には,まず質問文に対する選択肢(5個)どうしを比較し,どの情報が選択肢を選ぶ上で最も重要かを判断する(この情報を,{\bf最重要情報}とよぶ).さらに,各々の選択肢について,以下のいずれかの評価を与える.\begin{itemize}\item{\bf妥当}:最重要情報が過不足なく含まれている.\item{\bf不十分}:最重要情報が含まれていない.\item{\bf冗長}:最重要情報以外の情報が著しく多く含まれている(目安としては,最重要情報以外の情報の文字数が,最重要情報の文字数の1/2を超えるとき).\end{itemize}表\ref{tab:状況説明文抽出の評価}に状況説明文の評価結果を示す.抽出された状況説明文のうち,61\,\%は妥当なものであった.\begin{table}\caption{状況説明文抽出の評価結果}\label{tab:状況説明文抽出の評価}\begin{center}\footnotesize\begin{tabular}{c|p{5mm}@{}r@{}r@{}p{5mm}}\hline評価&\multicolumn{4}{c}{選択肢数}\\\hline妥当&&213&(61\,\%)&\\不十分&&27&(8\,\%)&\\冗長&&108&(31\,\%)&\\\hline合計&&348&(100\,\%)&\\\hline\end{tabular}\end{center}\end{table}また,状況説明文の平均文字数は68.9文字,状況説明文の抽出対象となった各テキストの代表文の平均文字数は81.6文字であった.したがって,提案手法による代表文の圧縮率$(=(1-状況説明文の平均文字数/代表文の平均文字数)\times100)$は15.6\,\%であった.\begin{table}\caption{状況説明文抽出の評価の例}\label{tab:状況説明文抽出の評価の例}\begin{center}\footnotesize\begin{tabular}{cp{5cm}|p{5cm}|c}\hline\multicolumn{2}{c}{状況説明文}&\multicolumn{1}{|c|}{元の文}&評価\\\hline\multicolumn{4}{l}{U:音が出ない}\\\multicolumn{4}{l}{S:以下の選択肢から選んでください.}\\\hline1.&[NT]CrystalAudioやSoundBlasterAWE32利用時に音が出ない&(タイトル)&\\2.&コントロールパネルの[サウンド]からCHIMESWAVファイルをテストした場合、ボリューム設定に関わらず&コントロールパネルの[サウンド]からCHIMES.WAVファイルをテストした場合、ボリューム設定に関わらず、音は出ません。&妥当\\3.&音楽の再生時にUSBスピーカーからポップ音が出る&(タイトル)&\\4.&YAMAHAYSTMS55DUSBスピーカセットのインストール後、スピーカのボリュームコントロールノブを使っても、非常に音が小さい、または、音が出ない&YAMAHAYSTMS55DUSBスピーカセットのインストール後、スピーカのボリュームコントロールノブを使っても、非常に音が小さい、または、音が出ないことがあります。&冗長\\5.&Windowsサウンド(.WAV)ファイルを再生時に&Windowsサウンド(.WAV)ファイルを再生時に、音が出ない。&妥当\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:状況説明文抽出の評価の例}に状況説明文の評価の例を示す.この例においては,評価者は,「音が出ない具体的な環境(サウンドデバイス名,アプリケーション名,ファイルの種類など)」が最重要情報であると判断した.2番,5番の選択肢は,再生するファイルの種類を過不足なく述べているため,「妥当」と判断した.一方,4番の選択肢は,サウンドデバイス名を含んでいるものの,それ以外の発生条件や,「非常に音が小さい」といった情報を余分に含んでいるため,「冗長」と判断した.提案手法による代表文の圧縮率が比較的小さかったのは,「冗長」な状況説明文が多いのが大きな要因であった.具体的には,表\ref{tab:状況説明文抽出の評価の例}の4番の選択肢のように,ユーザが選択肢を指定する上で重要な情報を含まないセグメントが,削除されずに状況説明文に含まれてしまったものが多かった.より適切な選択肢を得るためには,選択肢の代表文どうしを比較して何が最も重要な情報かを認識し,それを優先して選択肢に含める一方,それ以外の情報は除外することが必要である.また,4番の選択肢では,「非常に音が小さい」と「音が出ない」を並列節として扱うことによって,両者がともに聞き返しにとって冗長であることを認識して削除する必要がある.「不十分」と評価された状況説明文については,状況説明文抽出の対象となるテキストの代表文(\ref{subsubsec:テキストのスコアと代表文}項)がテキストの内容をよく表していないものが多かった.これは,主にユーザ質問文とテキストのマッチングに関する問題である.しかし,テキストの中には,ユーザ質問文とマッチする1文だけを抽出しても,良い代表文が得られないものもある.例えば,ユーザが遭遇する問題(「エラーが発生する」など)と,ユーザの具体的な状況(エラーメッセージなど)が,それぞれ別々の文に書かれている場合は,提案手法はうまくいかない.このような場合は,文脈解析などのより深い言語処理が必要となる.
\section{おわりに}
\label{sec:おわりに}本論文では,大規模テキスト知識ベースを利用する対話的質問応答システムを提案した.システムを実際に運用し,得られた対話ログに基づいてシステムの評価を行い,対話セッションの成功率76\,\%,妥当な状況説明文の割合61\,\%という結果を得た.また,曖昧な質問への聞き返しとして対話カードと状況説明文の抽出を組み合わせて用いる本システムの枠組みは,有効に機能していることを示した.今後の課題としては,対話カードの自動的な作成と,対話のコンテキストの利用があげられる.対話カードの作成は,現在はすべて人手で行っているが,曖昧な質問を十分にカバーする対話カード集合の構築にはコストがかかるので,自動的に作成する手法が必要である.また,対話のコンテキストの利用については,収集した対話ログをより詳細に分析することで,研究を進める予定である.\bibliographystyle{jnlpbbl}\bibliography{425}\begin{biography}\vspace*{5mm}\biotitle{略歴}\bioauthor{清田陽司}{1998年京都大学工学部電気工学第二学科卒業.2000年同大学院情報学研究科修士課程修了.2003年同大学院情報学研究科博士後期課程単位認定退学.同年,東京大学大学院情報理工学系研究科産学官連携研究員,現在に至る.質問応答システム,情報検索,自動要約の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.Pennsylvania大学客員研究員,京都大学工学部助手,京都大学大学院情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{木戸冬子}{1997年マイクロソフト株式会社入社.1998年埼玉大学大学院理工学研究科入学(在学中).UniversityProgram担当.自然言語処理技術を用いたサポートシステムの効率化を目的としたストレリチアプロジェクトのリーダーに従事.2001年科学技術振興事業団による理科教育用のデジタルコンテンツ開発にあたっては,埼玉大学,お茶の水女子大学,東京学芸大学との共同開発プロジェクトのリーダーを担当した.現在は,UniversityProgram担当として自然言語処理を中心とした大学との共同研究を担当している.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V19N05-03
|
\section{はじめに}
現在,電子メール,チャット,{\itTwitter}\footnote{http://twitter.com}に代表されるマイクロブログサービスなど,文字ベースのコミュニケーションが日常的に利用されている.これらのコミュニケーションにみられる特徴の一つとして,顔文字があげられる\cite{ptas2012}.旧来の計算機を介した電子メールなど,ある程度時間のかかることを前提としたコミュニケーションでは,直接会った際に現れる非言語的な情報,具体的には,表情や身振りから読み取ることのできる感情やニュアンスなどの手がかりが少なくなることから,フレーミングなどのリスクを避けようとすると,個人的な感情を含まない目的のはっきりした対話に用いることが適切とされる\cite{derks2007}.一方,利用者のネットワークへのアクセス時間の増加に伴い,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアが発達するとともに,親しい友人同士の非目的志向対話への需要は増している.このようなコミュニケーションにおいては,顔文字が,対面コミュニケーションにおける非言語情報の一部を補完するとされている\cite{derks2007}.顔文字とは``(\verb|^|−\verb|^|)''のように,記号や文字を組みあわせて表情を表現したもので,テキスト中で表現された感情を強調・補足できる,という利点がある.一方,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアの発達と時期を同じくして,その種類は増加の一途をたどっている.その中から,ユーザが文章で伝えたい感情に適切な顔文字を,ただひとつだけ選択するのは困難である.また,顔文字入力の主な方法である顔文字辞書による選択では,指定された分類カテゴリ以外の意味での使用を目的とした顔文字を入力することは難しく,予測変換機能では,単語単位を対象としてしか顔文字を提示できない.そのほかの手段として,他のテキストからのコピーアンドペーストやユーザ自身による直接入力があるが,これらは操作数が多く,効率的ではない.そこで,本研究では,ユーザによる適切な顔文字選択の支援を目的とし,{\bfユーザの入力文章から,感情カテゴリやコミュニケーションや動作を反映したカテゴリを推定}し,顔文字を推薦するシステムの構築を目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:category}節では,顔文字推薦のために本研究で定義したカテゴリについて説明する.\ref{sec:implementation}節では,顔文字推薦システムの実現について紹介し,\ref{sec:evaluation}節では,評価実験について説明する.最後に,\ref{sec:conclusion}節で結論をまとめる.
\section{関連研究}
\label{sec:related}顔文字推薦を目指した先行研究として,\citeA{Suzuki2006}では,ユーザの入力した文章からPlutchikの体系に基づき感情を推定し,顔文字を推薦することを試みている.また,感情と顔文字の関係を利用した別の応用事例として,感情値を入力とした顔文字パーツの生成\cite{nakamura2003b},文章と顔文字を利用した感情推定\cite{shino},顔文字の抽出と感情解析\cite{ptas2010b}等の研究が行われている.本研究では,感情に限らず,コミュニケーションや動作を反映したカテゴリに基づく顔文字推薦の効果について検証を進める.また,\citeA{mura}は,顔文字に関する調査や考察を行っている.彼らの調査の結果,顔文字は,単純な極性にはわけられず,複雑な感情にわかれることや,顔文字自体の極性と文の極性とが異なる場合があることが明らかとなった.\citeA{kawa}の研究では,顔文字の表す感情について調査しており,1つの顔文字は複数の感情を表す場合があることを示している.一方,\citeA{kono}は,年代や性別による顔文字の使用理由について調査を行った結果,文字だけではそっけない画面をにぎやかにするため,自分の伝えたい感情を強調する,文章の深刻さを和らげる,などの理由を明らかにした.\citeA{kato}は,顔文字が感情を表すことを感情表現機能,顔文字を使うことで言葉での表現が減ることをメール本文代替機能と呼んでいる.彼らは,顔文字を使用することでメール本文の文字数が減ること,親しい間柄では感情表現機能,メール本文代替機能がより使用されることを明らかにしている.また,\citeA{yamaguchi2000}では,電子掲示板,ネットニュース,メーリングリストなどを対象として,顔文字から受ける情緒・感情について内容分析を行った結果,礼,謝罪,要請などのカテゴリが存在することを明らかにした.加藤らの研究から,文の感情を顔文字が代替する機能,つまり{\bf文の感情を強調する}機能を持っていることが明らかとなった一方,河野らの研究からは,{\bf画面をにぎやかにする},{\bf文章の感情を和らげる},といった機能を持つことがわかった.このことから,顔文字を推薦するためには,単純に文章の感情のみを手がかりとするだけでなく,文章に現れる特定の表現なども考慮したルールを設定しなければならない.本研究では,これらの傾向をより詳細な形で明らかにするため,顔文字を含む文章を分析し顔文字の使われ方を調査する.そしてその結果から,親密なやりとりが多く出現するマイクロブログにおいて,顔文字推薦を行うためには,感情以外に必要な,{\bfコミュニケーションや動作を反映したカテゴリ}を,\citeA{yamaguchi2000}よりも詳細に区別する必要があることを明らかにし,顔文字推薦システムを構築する.また,顔文字ではないが,{\itTwitter}の文章に絵文字を推薦する研究として\citeA{hashi}がある.橋本の研究では,まず入力文章を形態素解析し,それを単語3グラムに分割する.そして絵文字入りコーパスを用い,単語3グラムと類似するコーパス中の文で用いられている絵文字を文章に挿入している.しかし,絵文字は,顔文字と比べると,キャラクター,動物,ハートマーク,アイスキャンディーのような記号など,装飾要素が強く,文の任意の位置に挿入される傾向が強い.一方,顔文字は,感情やコミュニケーションを反映した表現の直後の位置以外には入りにくい.したがって,感情やコミュニケーションを反映した手がかり語辞書を用いて,カテゴリを推定した方が,顔文字推薦の目的には有効と考える.また,感情推定については,ポジネガ推定を前処理とする2段階推定にすることで,精度が向上することが\citeA{toku}から明らかになっている.本研究では,マイクロブログ({\itTwitter})の文章を収集し,コーパスを作成する.また,入力文に含まれる感情語や特定の表現などを手がかりにコーパスから類似文を見つけ,感情やコミュニケーションのカテゴリ推定を行う.カテゴリ推定については,\citeA{toku}にならい,2段階での推定を行う.その結果を用いて,作成した顔文字データベースから顔文字を推薦する.マイクロブログを対象とした感情推定については,感情語辞書から音韻論に基づき長音化したものを検出すること\cite{brody2011}や,顔文字そのものやハッシュタグを使って訓練データを拡張すること\cite{purver2012}により,感情推定の精度向上を目指す研究がある.これらのアプローチは興味深いが,前者は言語に依存しており,後者は少数の感情を除いて対応関係が曖昧とされていることから,本研究では,これらのデータの拡張は行わずに,定義したカテゴリの顔文字推薦についての効果を明らかにすることに主眼を置く.
\section{顔文字推薦に用いるカテゴリの定義}
\label{sec:category}本研究で提案する顔文字推薦システムは,大きく分けてカテゴリ推定と顔文字推薦の2種類の処理から構成される.本節では,それぞれの処理を行う際に必要となる情報が何かを分析し,その結果,必要となる基本情報を定義する.\subsection{カテゴリの調査方法}顔文字推薦のためのカテゴリ推定を行うにあたって,必要な感情カテゴリ,また,コミュニケーションや動作を反映したカテゴリを明らかにするため,調査を行った.調査データには,きざしラボ\cite{kizashi}が提供する顔文字92個を含む{\itTwitter}のつぶやき1,722件を収集し使用した.これらのデータに,極性(ポジティブ,ネガティブ,なしの3種類)と感情カテゴリ(\citeA{naka},「喜」「怒」「哀」「恥」「怖」「好」「厭」「昂」「安」「驚」の10種類)をそれぞれ分類して付与した.また,10種類のカテゴリに分類することができず,よく現れるような表現の場合は,新たにカテゴリを定義した.調査の結果,顔文字推薦に必要な情報として,定義した情報の例を以下に示す.\begin{enumerate}\item感情の種類について\begin{enumerate}\item「不快」「不安」など,頻出する項目を中心に,感情カテゴリを定義した.また,{\itTwitter}のつぶやきには,期待を表す表現や,疲れを表す表現などを含む文章が多く見られた.しかし,\citeA{naka}の感情分類にはそれらを表す感情カテゴリはないため,新たに「期待」,「疲れ」という感情カテゴリを定義した.\end{enumerate}\item感情以外の特徴について\begin{enumerate}\item``m(\_\_)m''は,「ごめんなさい」や「申し訳ない」などの謝罪表現を含む文に付与されることが多かった.しかし,謝罪を表すような感情カテゴリは\citeA{naka}の分類には含まれておらず,また,{\bf謝罪は感情とは言い難い側面を持つ}\footnote{\citeA{ortony1990}のように,感情を広くとらえると,謝罪自体は何らかの感情により誘発されると考えることもできるが,本研究では,顔文字の使用者が,顔文字を使用することで伝えたい意図は,原因となる感情ではなく,コミュニケーションにおける行為そのものと考える.}.そこで,感情分類とは別のカテゴリとして,新たに「謝罪」カテゴリを定義した.このような,誰かとのやり取りや,人に伝えることを前提としたカテゴリが多く存在したため,{\bfコミュニケーションタイプ}として,新たに定義した.\item``(-\_-)''や``(*\_*)''は,睡眠を表す文章で使用されていた.{\bf睡眠は動作であり,感情ではない}.感情カテゴリに当てはめることはできないので,これも新たに「睡眠」カテゴリを定義した.この動作を表すカテゴリを,{\bf動作タイプ}として新たに定義した.\end{enumerate}\end{enumerate}\subsection{定義したカテゴリ体系}前節の結果に基づき,顔文字推薦に必要な感情,感情以外のカテゴリを決定した.感情カテゴリの定義を表\ref{table:em}に,感情以外の特徴を,コミュニケーションタイプ,動作タイプとして定義した結果を表\ref{table:com}に示す.感情カテゴリは全部で27種類ある.中村の感情分類を基礎カテゴリとして用いて,それら27種類の感情を詳細カテゴリとして10種類の基礎カテゴリに分類した\footnote{「残念」,「悔しい」は,感情表現辞典\cite{naka}では「厭」に分類されているが,文章に含まれる顔文字は「悲しい」に含まれる顔文字と同じことが多く,「哀」に分類した.}.また,各詳細カテゴリごとに,極性(ポジティブ/ネガティブ/なし)の設定を行った.\begin{table}[p]\caption{感情カテゴリの定義}\label{table:em}\input{03table01.txt}\end{table}コミュニケーション・動作タイプは全部で10種類ある.感情には分類できないが,表現としてよく現れるものを分類した.コミュニケーションタイプは,人とのやり取りや他者に物事を伝えることを中心とした表現のタイプであり,人にどのように伝えるかによって「やりとり型(他者との会話に含まれる表現)」「つぶやき型(他者に見られることを前提としているが,会話にはなっていない文章に含まれる表現)」「不特定多数型(やりとり,つぶやきのどちらにも使われる表現)」の3つに分類しており,それらの分類の下に詳細カテゴリを設定した.また,感情カテゴリ,コミュニケーションタイプに分類できず,文章の中心が動作表現となるものを動作タイプとして定義した.現在,動作タイプとして定義できる程度に頻出した動作表現は「睡眠」だけであるため,動作タイプは1種類のみである.\begin{table}[t]\caption{コミュニケーション・動作タイプの定義}\label{table:com}\input{03table02.txt}\end{table}\subsection{カテゴリ定義の妥当性についての検証}\label{subsec:kappa}作成したコーパスの文章に付与したカテゴリがどの程度安定しているかを調べるため,第1著者と協力者1名(ともに大学生,女性と男性)が,コーパス中からランダムに選んだ190件について,(1)極性と(2)感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを付与した場合の一致度($\kappa$係数)を調べた.その結果,極性の一致については,$\kappa$値が,0.850(almostperfect/ほとんど一致\cite{landis1977}),感情カテゴリ,コミュニケーションタイプまたは動作タイプの一致については,$\kappa$値が,0.747(substantial/かなり一致\cite{landis1977})となり,付与方針が安定していることを示すことができた.本カテゴリのような分類体系の関連研究としては,\citeA{kikui2012}の提案がある.基本的な考え方は,両方の体系で共通しており,菊井の陳述型は,ひとりごと型に対応し,発話行為タイプは,やりとり型に対応すると考えられる.ただし,その下位のカテゴリの分け方に関しては,本研究では,顔文字を推薦する,という前提のもとに,顔文字のつけやすいカテゴリ体系になっている.
\section{顔文字推薦システムの実現}
\label{sec:implementation}\ref{sec:category}節で定義したカテゴリ体系に基づき,顔文字推薦システムを実現した.構築した顔文字推薦システムは,カテゴリ推定処理と顔文字推薦処理の2つから成り立っている.以下に,顔文字推薦システム全体の流れを示す.\begin{enumerate}\itemユーザが文章を入力する.\item入力文章を用いて,カテゴリ推定を行う({\bfカテゴリ推定処理}).\itemカテゴリ推定の結果を用いて,顔文字データベースから適切な顔文字を取り出す({\bf顔文字推薦処理}).\item取り出した5件の顔文字を推薦候補として,画面に表示する.\end{enumerate}\noindent本節では,上記の処理に必要なデータの作成について,\ref{subsec:data}節で具体的な内容を紹介する.(2)(3)の2つの処理については,\ref{subsec:estimate}節,\ref{subsec:recommend}節で説明する.\subsection{必要なデータの作成}\label{subsec:data}本研究では,カテゴリ推定処理と顔文字推薦処理に必要なデータとして,顔文字辞書,タグ付きコーパス,手がかり語辞書,顔文字データベースを作成した.以下,詳細を説明する.\subsubsection*{顔文字辞書}顔文字推薦に使用する顔文字は,予備実験で用いた92個では各感情を表す顔文字を推薦するのに十分な数ではなかったため,アンケートを実施し追加を行い,163種類とした.\subsubsection*{タグ付きコーパス}\ref{sec:category}節で定義したカテゴリ体系を用いて,感情,コミュニケーションタイプ,動作タイプのタグ付きコーパス(以下,タグ付きコーパス)を作成した.コーパスの文章は,{\itTwitter}の2011年5月1日〜31日,7月1日〜16日のパブリックタイムライン上のツイートから,前述の顔文字163個を含む1,369件(ツイート数)を収集し,それらの文章に,それぞれ(1)極性,(2)感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを,\ref{subsec:kappa}節の判定者2名で協議して付与した.さらに,日常的に顔文字を使用する別の20代の協力者2名と協議しつつ,コーパスの修正と拡張を行い,最終的に,3,975件(各詳細カテゴリごと100件強)とした.\subsubsection*{手がかり語辞書}\ref{sec:category}節のカテゴリ体系を用いて,手がかり語辞書を作成した.手がかり語辞書は感情表現辞典\cite{naka},単語感情極性対応表\cite{taka}を参考にし,全1,440語の項目を設定した.それぞれの語には,極性(ポジティブ,ネガティブ,なしのいずれか)と感情カテゴリ,コミュニケーションタイプまたは動作タイプのいずれかを付与した.なお,手がかり語は,おはよう(おはよ,おはよー,おはよ〜,おはしゃす),さようなら(さよーなら,グッバイ,さらば)のような,オンライン上の挨拶表現の変形も含む.\subsubsection*{顔文字データベース}顔文字推薦処理を実装するために,収集した文章に含まれる顔文字の使われ方を分析し,顔文字データベースの作成を行った.作成したタグ付きコーパスには顔文字が含まれているため,それを分析することで各顔文字の感情ごとの出現頻度を調べた.なお,単純なコーパス中での出現頻度以外に,同じカテゴリに分類される顔文字でも,文章中の表現の違いで使用のされ方が違う場合には,補足ルールを作成し,補足ルールにおいて設定した下位カテゴリ別の出現頻度も調べた.補足ルールは2つあり,以下のとおりである.\begin{enumerate}\item「あいさつ」カテゴリ「あいさつ」カテゴリでは,どの時間帯のあいさつか(例:おはよう→``(⌒▽⌒)'',おやすみ→``((\_\_))..zzzZZ''),あるいは時間帯に無関係なあいさつ(例:よろしく→\\``(‾\verb|^|‾)ゞ'',さようなら→``(´\_ゝ`)'')かによって,使用頻度の高い顔文字が変わってくる.そこで,「あいさつ」カテゴリでは,あいさつ表現別に9つの下位カテゴリを作成した.また,オンライン上の挨拶表現の変形についても,考慮した上で,各顔文字がどの分類に当てはまるのかを分析し,それぞれの分類ごとに出現頻度を計算した.\item「感謝」カテゴリ「感謝」カテゴリでは,丁寧な口調の表現を含む場合,泣き顔や申し訳なさを表す顔文字(例:``ヽ(;▽;)ノ'')がより使用されていた.そこで,「ございます」「ありがたいです」などの言葉を含む文章について,顔文字ごとの頻度を計算した.\end{enumerate}また,入力文章がこれらの補足ルールに一致する語を含んでいるかを判断する必要があるため,補足ルールの下位カテゴリごとに,それらを表す表現を集め,補足ルール辞書を作成した.顔文字データベースは,顔文字とカテゴリを組み合わせて主キーとし,コーパス中でのカテゴリ別の顔文字の出現頻度,補足ルールで指定した下位カテゴリ別の出現頻度を加えて,1レコードとして格納した.データベースの例を,表\ref{table:database}に示す.\newcommand{\TateMoji}[1]{}\begin{table}[t]\caption{顔文字データベースの例}\label{table:database}\input{03table03.txt}\end{table}顔文字データベースの傾向を確認するため,{\itCAO}システム\cite{ptas2010b}との比較を行った.このシステムでは,分類体系は,\citeA{naka}の感情10種類に基づいており,本研究で定義したカテゴリを,表\ref{table:em}の体系に基づき感情10種類により対応付けることで,顔文字に対する感情カテゴリの傾向を比較した.具体的には,\citeA[5.4節]{ptas2010b}の論文で有効と判定されている{\itUniqueFrequency}と,本データベースの相対出現頻度との相関係数を調査した.なお,顔文字は双方で分析可能なもの,かつある程度の出現回数がみられる43個を対象として分析を行った.その結果,相関係数が0.4以上のものが,53.5\%,正の相関を持つものが72.1\%となり,ある程度の相関がみられた.相関係数の低い顔文字は,泣き笑いや,汗付きの笑いを表す顔文字などが含まれており,本研究のデータベースでは,``厭'',``哀''などの感情を表す傾向があるのに対して,{\itCAO}システムでは,他の感情の値の方が大きい傾向がみられる.これは,{\itCAO}システムではWeb全般やブログを対象としているのに対して,本研究ではマイクロブログを対象としていることから,使用傾向の違いが現れていると考えている.なお,表\ref{table:com}のコミュニケーション・動作タイプについては,上記のシステムとの比較が行えないことから,この比較には用いていない.\subsection{カテゴリ推定処理}\label{subsec:estimate}カテゴリ推定を行うために,分類器を構築した.分類器には$k$-NNを用い,文章を入力すると,各学習データとの類似度を計算し,類似している上位$k$件の中で最も多い感情を推定結果として返す.学習データには,\ref{subsec:data}節で説明した,タグ付きコーパスを用いた.分類器によるカテゴリ推定の手順を以下に示す.\begin{enumerate}\item極性(``A.ポジティブ'',``B.ネガティブ'',``C.なし''のいずれか)を推定する.\begin{enumerate}\itemまず,手がかり語辞書に含まれる語の,入力文における出現頻度を計算する.\item(a)の結果から得られた各手がかり語の頻度を用いて,極性ごとに素性ベクトルを構築する.\item学習データ中の各文との平方距離を計算する.\item平方距離の近い上位$k$件のうち,学習データにおいて最も多く付与されている極性を推定結果とする.\end{enumerate}\item推定した極性に対応するカテゴリとして,A.感情(ポジティブ):嬉しい,めでたい等;B.感情(ネガティブ):怒り,悲しい等;C.感情(なし):興奮,安らぎ等か,コミュニケーション・動作タイプ:感謝,謝罪等のいずれかを推定する.\begin{enumerate}\item素性ベクトルの構築や各学習データとの距離の計算は,1の(a)--(c)と同様に推定する.\item平方距離の近い上位$k$件のうち,学習データにおいて最も多く付与されている感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを推定結果とする.\end{enumerate}\end{enumerate}また,入力文に複数の手がかり語が含まれる場合,その位置関係によって推定を誤る可能性がある.たとえば,「おかえり〜今日はありがとね」という文には,「おかえり」と「ありがとう」という2つのコミュニケーションタイプの手がかり語が含まれている.この文の場合では,文全体のコミュニケーションタイプは,「感謝」になるのだが,「あいさつ」が推定結果として出力されてしまう可能性がある.各カテゴリの出現頻度を計算して推定すると,どちらも同じ頻度なため,どちらが推定されてもおかしくない.これは,文章内に現れる手がかり語の位置関係を考慮していないことによる.この対策として,入力文内に現れる順序によって,手がかり語に重みを付与する,といった処理を追加した.具体的には,以下のような計算を行う.なお,$word_{n}$は入力文内に$n$番目に現れる手がかり語,$N$は入力文内に現れる手がかり語の総数である.\[weight(word_{n})=\left[\frac{n}{N}\right]\]次に,構築した分類器の推定精度ならびに,重み付け処理による推定精度の向上を評価するため,10分割交差検定により実験を行った.具体的には,作成したタグ付きコーパス3,975件を,398件を5個,397件を5個の,10個に分割し,10分割の交差検定を行い,推定した極性,カテゴリと,人手でつけた極性,カテゴリがどの程度一致しているかを計算した.推定精度の評価尺度としては,正確さ(accuracy)を採用した.実験の結果,重み付け処理を行っていない場合では,極性の推定精度が69.7\%,極性とカテゴリの双方が正解していたものが43.0\%であったのに対して,重みづけ処理を行った場合では,極性の推定精度が70.2\%,極性とカテゴリの双方が正解していたものが43.5\%であり,統計的有意差はないが,わずかに精度が向上した.重みづけ処理の失敗分析を30件を対象に行ったところ,手がかり語を手動で付与した場合には,28件について,最後の手がかり語のカテゴリが文章のカテゴリと一致することがわかり,手がかり語辞書との照合の精度を向上する必要性が明らかになった.カテゴリの推定精度が十分でない別の理由としては,``報告''カテゴリの分類が難しいことがあげられる.このカテゴリは,{\itTwitter}特有のひとりごとである``〜なう''のような,個別の行動の報告が含まれており,機械学習に適した共通の手がかりが得られにくい.この辺りのカテゴリの推定精度の向上には,ユーザの履歴,文脈といった情報が必要になると考える.なお,\mbox{``報}告''カテゴリを含まずに推定した場合には,推定精度は1.1\%向上した.\subsection{顔文字推薦処理}\label{subsec:recommend}次に,顔文字推薦処理の実装を行った.顔文字推薦処理では,カテゴリ推定の結果に適合した顔文字を,\ref{subsec:data}節で説明した顔文字データベースを用いて判定し,出現頻度の多い順に,最大5件を推薦する.また,もしカテゴリ推定の結果が,\ref{subsec:data}節で説明した補足ルールにマッチする場合には,補足ルール用辞書を用いてさらに細かい分類を行い,適合した顔文字を推薦する.補足ルールに当てはまらないカテゴリであれば,カテゴリ推定の結果だけを用いて,顔文字データベースから顔文字を取り出す.
\section{顔文字推薦システムの評価}
\label{sec:evaluation}顔文字推薦システムを実際に被験者に使わせ,推薦する顔文字がどの程度ユーザの入力した文章に対して適切であるか調べるため,被験者実験を行った.被験者は,日常的に顔文字を使用する21〜22歳の男性2名,女性3名である.\subsection{実験内容}被験者実験は,2つの項目から構成される.\subsubsection*{実験1:マイクロブログを対象とした顔文字推薦のカテゴリに基づく評価}\begin{itemize}\item実験1では,{\itTwitter}のつぶやきを用意し,そのつぶやきに対して推薦される顔文字が適切かを回答させた.なお,つぶやきは全部で91個あり,\ref{subsec:kappa}節で記述した,判定者間一致率の計算に用いた190件から,人手で判定した各感情カテゴリ,コミュニケーションタイプ,動作タイプにつき1--3個のつぶやきをランダムに抜き出し使用した.なお,本データは,\ref{sec:implementation}節で説明したカテゴリ推定に用いた学習データとは収集方法が異なり,データに重複はないことも確認済みである.\item1つの文章につき,次の2つの推薦結果に対して回答させた.\begin{enumerate}\item({\bf提案手法})感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを推定したカテゴリに対して,推薦した顔文字.\item({\bfベースライン})分類器の学習データを感情カテゴリに限定して,推薦した顔文字.\end{enumerate}\item顔文字は,各文章について上位5件を推薦し,評価した.評価は,``○(=適してい\mbox{る){\kern-0.5zw}'',}\mbox{``△}(=どちらともいえない){\kern-0.5zw}'',``×(=不適切){\kern-0.5zw}''の3段階で行い,適していると判定された数を分子,カテゴリごとの正解数を分母として推薦精度を計算した.\end{itemize}\subsubsection*{実験2:自由入力を対象とした顔文字推薦の極性に基づく評価}\begin{itemize}\item実験2では,被験者に実際に顔文字推薦システムを使用させた.被験者自身が,実際に{\itTwitter}や携帯メールで使用しそうな文章を考え,システムに入力し,その結果推薦された顔文字が適切かを回答させた.なお,10文はポジティブな文章,10文はネガティブな文章,10文は極性がない文章として,全部で30文入力させた.なお,極性がない文章については,コミュニケーション・動作タイプおよび感情の極性なしのタイプの文章を,被験者に例示した上で,文章を考えさせた.\itemこちらも,実験1と同様に提案システムとベースラインの2つを利用して評価した.\item顔文字の推薦件数も実験1と同様に5件であり,評価方法は,入力したポジティブ,ネガティブ,極性なしの文章数を分母として推薦精度を計算する点を除いて,実験1と共通である.\itemまた,実験後に,適切でなかった顔文字とその理由について,自由に感想を記入させた.\end{itemize}\subsection{実験結果}\begin{table}[b]\caption{実験1の結果:マイクロブログを対象とした顔文字推薦のカテゴリに基づく評価}\label{table:kekka1}\input{03table04.txt}\end{table}実験1,2の結果を,表\ref{table:kekka1},表\ref{table:kekka2}に示す.表4中の$^{*}$は,実験1において,$t$-検定を用いた結果,提案手法が,感情カテゴリのみに基づいて推薦したベースラインと比べて,有意水準5\%,両側検定で,推薦精度に有意な改善があることを示す.\subsection{実験の考察}実験1,2の結果に基づく考察を以下に示す.\begin{table}[t]\caption{実験2の結果:自由入力を対象とした顔文字推薦の極性に基づく評価}\label{table:kekka2}\input{03table05.txt}\end{table}\subsubsection*{実験1の考察:マイクロブログを対象とした顔文字推薦のカテゴリに基づく評価}\begin{itemize}\item表\ref{table:kekka1}において,提案手法は,ベースラインと比べて,コミュニケーションタイプ,動作タイプのみならず,感情カテゴリにおいても精度の向上が見られる.これは,コミュニケーション・動作タイプを導入することが顔文字推薦において有用であるだけでなく,感情に基づく顔文字推薦についても,より適切な顔文字を推薦できることを示唆している.\item推薦精度が大きく向上したカテゴリは,コミュニケーション・動作タイプでは,``ねぎらい'',``あいさつ'',``心配'',``感謝'',``謝罪'',``睡眠''などであり,感情カテゴリでは,\mbox{``不}安'',``安らぎ'',``期待''などであった.\itemこのうち,``謝罪'',``睡眠''のように,特定の顔文字が文章にぴったり適合するカテゴリの場合,コミュニケーション・動作タイプを推定し,顔文字を推薦することが有効である.\itemまた,``あいさつ''については,「こんにちは」などは曖昧な表現であり,ポジティブな顔文字であれば,カテゴリ推定が間違っていても,ユーザの要求に適合する可能性はある.一方,「よろしく〜」,「おやすみ」などの挨拶表現については,\ref{subsec:data}節で説明した補足ルールに基づき時間帯を考慮して表現を区別し,顔文字を推薦することが有効である.\item例として,「昼からすみません」という文に対する顔文字を推薦する場合を考える.この文章は``謝罪''を表しているが,感情カテゴリのみを推定するベースラインシステムでは,別の感情(この場合,``興奮'')の推定が行われる.その結果,下記のような顔文字が推薦される.\\\verb|\(^o^)/|(*´Д`)(*´д`*)(*´∀`*)(´;ω;`)\\この中の2〜4番目の顔文字では,``謝罪''とはまったく逆の印象を与えてしまう.\\しかし,コミュニケーションタイプを推定できる提案手法では,``謝罪''を推定でき,\\\verb|m(__)morz(´;ω;`)(´・ω・`)(^_^;)|\\のように,5件とも文章の意図に適合した顔文字を推薦している.\item適切でないと回答が多くあったのは,システムの推定したカテゴリが,人手で付与したものと異なる場合である.特に正反対の極性のカテゴリが推定されていると,推薦された顔文字候補はまったく役に立たないこととなる.よって,システムの精度を上げるためには,極性推定の精度の向上が必要と考えられる.\end{itemize}\subsubsection*{実験2の考察:自由入力を対象とした顔文字推薦の極性に基づく評価}\begin{itemize}\item実験2についての実験後の感想には,「ネガティブな文章に対する顔文字推薦の精度がよい」とあった.これは,ポジティブな文章よりもネガティブな文章の方が,直接的な手がかり語が文中に現れやすいため,カテゴリを推薦しやすいことが原因と考えられる.\item極性なしの文章に対する推薦精度が,一部の被験者で低い理由として,``報告''カテゴリの推定がうまくいかない点の影響がある.なお,手がかり語が存在しない場合に``報告''カテゴリとして顔文字を推薦した場合について調査した結果,極性なしの文章に対する推薦精度の合計は,60.4\%に向上した.\itemその他,実験後の感想として,「同じカテゴリの文章に対して,表示される顔文字の種類・順序が一様である」とあった.現在,手がかり語辞書に収録している,同じカテゴリの各手がかり語には,一意に極性が付与されている.そのため,含まれている語が異なる場合でも,推定結果に違いがなく,同じ顔文字が推薦される.この点については,同じカテゴリの手がかり語でも,極性を考慮して手がかり語辞書を作成すること,また,極性を考慮した顔文字データベースを作成することにより,表示される顔文字の種類・順序を豊富にするだけでなく,顔文字推薦自体の精度向上にもつながると期待できる.\end{itemize}
\section{おわりに}
\label{sec:conclusion}本研究では,ユーザの顔文字選択の支援を目的とし,ユーザの入力文から感情や,感情以外のコミュニケーションや動作を反映したカテゴリを推定し,顔文字を推薦する手法を提案した.提案手法は,2つの処理にわかれており,カテゴリ推定処理と顔文字推薦処理から構成される.カテゴリ推定処理については,{\itk}-NNを用いて分類器を構築した.すなわち,文章を入力すると,手がかり語辞書内の語が含まれていないかを調べ,各カテゴリの手がかり語の出現頻度から構築した素性ベクトルを用いて,各学習データとの類似度を計算し,類似度の高い上位{\itk}件から推定結果を決定する.顔文字推薦処理では,カテゴリ推定の結果を用いて,顔文字データベースから適切な顔文字を取り出し,推薦する.また,コミュニケーションタイプについて,各カテゴリより細かい単位で補足ルールを作成し,入力文の推定結果が補足ルールに当てはまる場合は,補足ルールも用いて顔文字推薦を行う.構築した顔文字推薦システムの推薦の正確さを評価するために,被験者実験を行った.その結果,66.6\%の顔文字が文章に対して適切に推薦されており,感情カテゴリのみの推定に基づく推薦に比べて,有意に向上していることを明らかにした.今後は,活用形も考慮した手がかり語辞書の拡張や,極性を考慮した顔文字データベースの構築による顔文字推薦の精度向上に取り組む予定である.また,感情,コミュニケーション・動作タイプなどのカテゴリがどのような理由により発生するか(例:嬉し涙,嫌なニュースに驚いた)を手がかりとすることで,さらに文章に適した顔文字推薦ができる可能性があると考えている.このような,テキスト含意関係などを考慮した取り組みについても検討を進めていきたい.\acknowledgment{\itCAO}システムによる顔文字の解析結果を提供してくださった,北海学園大学工学研究所のMichalPTASZYNSKIさんに感謝いたします.また,アンケートや被験者実験にご協力いただいた皆様に感謝いたします.本研究の一部は,科学研究費補助金基盤研究C(課題番号24500291)ならびに筑波大学図書館情報メディア系プロジェクト研究の助成を受けて遂行された.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{{Brody}\BBA\{Diakopoulos}}{{Brody}\BBA\{Diakopoulos}}{2011}]{brody2011}{Brody},S.\BBACOMMA\\BBA\{Diakopoulos},N.\BBOP2011\BBCP.\newblock\BBOQCooooooooooooooollllllllllllll!!!!!!!!!!!!!!UsingWordLengtheningtoDetectSentimentinMicroblogs.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\562--570},Edinburgh,Scotland,UK.\bibitem[\protect\BCAY{{Derks},{Bos},\BBA\von{Grumbkow}}{{Derks}et~al.}{2007}]{derks2007}{Derks},D.,{Bos},A.E.~R.,\BBA\von{Grumbkow},J.\BBOP2007\BBCP.\newblock\BBOQEmoticonsandSocialInteractionontheInternet:TheImportanceofSocialContext.\BBCQ\\newblock{\BemComputerinHumanBehavior},{\Bbf23},\mbox{\BPGS\842--849}.\bibitem[\protect\BCAY{橋本}{橋本}{2011}]{hashi}橋本泰一\BBOP2011\BBCP.\newblockTwitterへの絵文字自動挿入システム.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1151--1154}.\bibitem[\protect\BCAY{株式会社きざしカンパニー}{株式会社きざしカンパニー}{2011}]{kizashi}株式会社きざしカンパニー\BBOP2011\BBCP.\newblockkizashi.jp:きざしラボ.\\\http://kizasi.jp/labo/lets/wish.html.\bibitem[\protect\BCAY{加藤\JBA加藤\JBA島峯\JBA柳沢}{加藤\Jetal}{2008}]{kato}加藤尚吾\JBA加藤由樹\JBA島峯ゆり\JBA柳沢昌義\BBOP2008\BBCP.\newblock携帯メールコミュニケーションにおける顔文字の機能に関する分析—相手との親しさの程度による影響の検討—.\\newblock\Jem{日本教育情報学会学会誌},{\Bbf24}(2),\mbox{\BPGS\47--55}.\bibitem[\protect\BCAY{川上}{川上}{2008}]{kawa}川上正浩\BBOP2008\BBCP.\newblock顔文字が表す感情と強調に関するデータベース.\\newblock\Jem{大阪樟蔭女子大学人間科学研究紀要},{\Bbf7},\mbox{\BPGS\67--82}.\bibitem[\protect\BCAY{河野}{河野}{2003}]{kono}河野道子\BBOP2003\BBCP.\newblockフェイスマークを用いた感情表現におけるコミュニケーション・ギャップに関する研究.\http://www.sonoda-u.ac.jp/dic/kenkyu/2003/14.pdf.\bibitem[\protect\BCAY{菊井}{菊井}{2012}]{kikui2012}菊井玄一郎\BBOP2012\BBCP.\newblockなにをつぶやいているのか?:マイクロブログの機能的分類の試み.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\759--762}.\bibitem[\protect\BCAY{{Landis}\BBA\{Koch}}{{Landis}\BBA\{Koch}}{1977}]{landis1977}{Landis},J.~R.\BBACOMMA\\BBA\{Koch},G.~G.\BBOP1977\BBCP.\newblock\BBOQ{TheMeasurementofObserverAgreementforCategoricalData}.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{村上\JBA山田\JBA萩原}{村上\Jetal}{2011}]{mura}村上浩司\JBA山田薫\JBA萩原正人\BBOP2011\BBCP.\newblock顔文字情報と文の評価表現の関連性についての一考察.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1155--1158}.\bibitem[\protect\BCAY{中村}{中村}{1993}]{naka}中村明\BBOP1993\BBCP.\newblock\Jem{感情表現辞典}(第1\JEd).\newblock東京堂出版.\bibitem[\protect\BCAY{中村\JBA池田\JBA乾\JBA小谷}{中村\Jetal}{2003}]{nakamura2003b}中村純平\JBA池田剛\JBA乾伸雄\JBA小谷善行\BBOP2003\BBCP.\newblock対話システムにおける顔文字の学習.\\newblock\Jem{情報処理学会,第154回自然言語処理研究会},\mbox{\BPGS\169--176}.\bibitem[\protect\BCAY{{Ortony},{Clore},\BBA\{Collins}}{{Ortony}et~al.}{1990}]{ortony1990}{Ortony},A.,{Clore},G.,\BBA\{Collins},A.\BBOP1990\BBCP.\newblock{\BemTheCognitiveStructureofEmotions}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{{Ptaszynski}}{{Ptaszynski}}{2012}]{ptas2012}{Ptaszynski},M.\BBOP2012\BBCP.\newblock顔文字処理—取るに足らない表現をコンピュータに理解させるに足るには—.\\newblock\Jem{情報処理},{\Bbf53}(3),\mbox{\BPGS\204--210}.\bibitem[\protect\BCAY{{Ptaszynski},{Maciejewski},{Dybala},{Rzepka},\BBA\{Araki}}{{Ptaszynski}et~al.}{2010}]{ptas2010b}{Ptaszynski},M.,{Maciejewski},J.,{Dybala},P.,{Rzepka},R.,\BBA\{Araki},K.\BBOP2010\BBCP.\newblock\BBOQ{CAO:AFullyAutomaticEmotionAnalysisSystemBasedonTheoryofKinesics}.\BBCQ\\newblock{\BemIEEETransactionsOnAffectiveComputing},{\Bbf1}(1),\mbox{\BPGS\46--59}.\bibitem[\protect\BCAY{{Purver}\BBA\{Battersby}}{{Purver}\BBA\{Battersby}}{2012}]{purver2012}{Purver},M.\BBACOMMA\\BBA\{Battersby},S.\BBOP2012\BBCP.\newblock\BBOQ{ExperimentingwithDistantSupervisionforEmotionClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe13thEurpoeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\482--491},Avignon,France.\bibitem[\protect\BCAY{篠山\JBA松尾}{篠山\JBA松尾}{2010}]{shino}篠山学\JBA松尾朋子\BBOP2010\BBCP.\newblock顔文字を考慮した対話テキストの感情推定に関する研究.\\newblock\Jem{香川高等専門学校研究紀要},{\Bbf1},\mbox{\BPGS\51--53}.\bibitem[\protect\BCAY{{Suzuki}\BBA\{Tsuda}}{{Suzuki}\BBA\{Tsuda}}{2006}]{Suzuki2006}{Suzuki},N.\BBACOMMA\\BBA\{Tsuda},K.\BBOP2006\BBCP.\newblock\BBOQ{ExpressEmoticonsChoiceMethodforSmoothCommunicationofe-Business}.\BBCQ\\newblockIn{\Bem{Knowledge-BasedIntelligentInformationandEngineeringSystems}},\lowercase{\BVOL}\4252of{\BemLectureNotesinComputerScience},\mbox{\BPGS\296--302}.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2006}]{taka}高村大也\JBA乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockスピンモデルによる単語の感情極性抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(2),\mbox{\BPGS\627--637}.\bibitem[\protect\BCAY{徳久\JBA乾\JBA松本}{徳久\Jetal}{2009}]{toku}徳久良子\JBA乾健太郎\JBA松本裕治\BBOP2009\BBCP.\newblockWebから獲得した感情生起要因コーパスに基づく感情推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(4),\mbox{\BPGS\1365--1374}.\bibitem[\protect\BCAY{{山口}\JBA{城}}{{山口}\JBA{城}}{2000}]{yamaguchi2000}{山口}英彦\JBA{城}仁士\BBOP2000\BBCP.\newblock電子コミュニティにおけるエモティコンの役割.\\newblock\Jem{神戸大学発達科学部研究紀要},{\Bbf8}(1),\mbox{\BPGS\131--145}.\end{thebibliography}\begin{biography}\bioauthor{江村優花}{2012年筑波大学情報学群知識情報・図書館学類卒業.現在,フコク情報システム株式会社所属.}\bioauthor{関洋平}{1996年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.2005年総合研究大学院大学情報学専攻博士後期課程修了.博士(情報学).同年豊橋技術科学大学工学部情報工学系助手.2008年コロンビア大学コンピュータサイエンス学科客員研究員.2010年筑波大学図書館情報メディア系助教,現在に至る.自然言語処理,意見分析,情報アクセスの研究に従事.ACM,ACL,情報処理学会,電子情報通信学会,言語処理学会,日本データベース学会各会員.}\end{biography}\biodate\end{document}
| |
V23N01-05
|
\section{はじめに}
\begin{table}[b]\caption{2014年度代ゼミセンター模試(第1回)に対する得点と偏差値}\label{tab:intro:2014}\input{05table01.txt}\end{table}「ロボットは東大に入れるか」(以下,「東ロボ」)は国立情報学研究所を中心とする長期プロジェクトである.同プロジェクトは,AI技術の総合的ベンチマークとして大学入試試験問題に挑戦することを通じ,自然言語処理を含む種々の知的情報処理技術の再統合および新たな課題の発見と解決を目指している.プロジェクトの公式目標は2016年度に大学入試センター試験において高得点を挙げ,2021年度に東大2次試験合格レベルに達することである.プロジェクトでは,2016年度のセンター試験「受験」に至るまでの中間評価の一つとして,2013年度,2014年度の2回に渡り代々木ゼミナール主催の全国センター模試(以下,代ゼミセンター模試)を用いた各科目の解答システムの評価を行い,その結果を公表した.\TABREF{tab:intro:2014}に2014年度の各科目の得点と偏差値を示す\footnote{数学・物理に関しては他の科目と異なり付加情報を含む入力に対する結果である.詳細はそれぞれに関する節を参照のこと.国語は,未着手の漢文を除いた現代文・古文の計150点に関する偏差値を示す.}.2013年度の結果については文献\cite{arai}を参照されたい.大学入試試験問題は志願者の知的能力を客観的に測定することを目的として設計されたデータであり,通常ただ1回の試験によって,かつ,受験者間での公平性を担保しながら測定を行うために入念な検討が加えられている.この点で,入試試験問題は言語処理を含む知的情報処理技術の総合的ベンチマークとして恰好の素材であるといえる.特に,その大部分が選択式問題からなるセンター試験形式のテストは,ごく単純な表層的手がかりのみでは正解できないように設計されていると考えられ,現在70\%から90\%の精度に留まっている種々の言語処理技術をより信頼性高く頑健なものへと導くためのガイドラインとして好適である.さらに,模試・入試によるシステムの性能測定結果は人間の受験生の正答率や誤りの傾向と直接比較することが可能である.センター試験は毎年約50万人が受験し,予備校によるセンター試験模試も数千から数万人規模の参加者を集める.このような大規模なサンプルから得られた「普通の人」「典型的な人」の像とシステムとの比較は,人によるアノテーションに対する再現率に基づく通常の性能測定とは異なる達成度の指標となっている.代ゼミセンター模試による2014年度の評価では,英語・国語・世界史Bで受験者平均を上回る得点を獲得するなど,大きな成果があった一方で,その得点に端的に現れているように,残された課題も大きい.本稿では,代ゼミセンター模試およびその過去問を主たる評価データとして各科目の解答システムのエラーを分析し,各科目における今後の課題を明らかにするとともに,「普通の人」と比較した際の各科目・問題タイプにおける達成度に関してひとつの見取り図を与えることを目指す.「東ロボ」プロジェクトのひとつの特徴は,多様な科目・課題に並行的に取り組むことであり,様々な課題に対する結果を通じて,現在のNLP/AI諸技術の達成度を可能な限り通覧することはプロジェクト全体の目的でもある.このため,本稿では問題タイプ毎のエラーに対する分析は主として解決への糸口となる傾向の分析までにとどめ,多数の科目・問題タイプについてそのエラー傾向と今後の課題を示すことを主眼とした.以下では,まず知的情報処理課題としてのセンター模試タスクの概要をまとめたのち,英語,国語,数学,物理,日本史・世界史の各科目について分析結果を述べる.
\section{センター試験タスクの概要}
\TABREF{tab:overview:risha},\TABREF{tab:overview:eikoku}に,2014年度代ゼミセンター模試(第1回)の世界史B・日本史B・数学(I+A,II+Bの合計)・物理,国語・英語を対象とした問題分類の結果を示す.表内の各数字は,各カテゴリに分類された問題数およびその割合(カッコ内)である.ここでは,一つの問題が複数のカテゴリに属する場合も許している.これらの分類は解答タイプ(解答形式および解答内容の意味的カテゴリ)と解答に必要となる知識のタイプに関するアノテーション\cite{MiyaoKawazoe2013IJCNLP}から得られたものであるが,読みやすくするために,表中では各カテゴリにそれらのアノテーションを要約・再解釈したラベルを与えている.\begin{table}[t]\caption{問題分類(社会科目・理数系科目)}\label{tab:overview:risha}\input{05table02.txt}\end{table}\begin{table}[t]\caption{問題分類(国語・英語)}\label{tab:overview:eikoku}\input{05table03.txt}\end{table}\TABREF{tab:overview:risha}に示されるように,社会科目ではほとんどの問題が教科書内の知識を正しく記憶しているかどうかを問う問題であり,形式は真偽判定型とfactoid質問型が多い.問題中で与えられた資料文に関する読解問題や一般常識の関わる問題の割合は低いことから,大多数の問題に対しては外部の知識源を適切に参照し,要求される解答形式に合わせた出力へ加工することで解答できる可能性が示唆される.すなわち,現行の質問応答および検索をベースとした方法によって解ける可能性がある.他方,数学・物理に関しては,問題のすべてが「分野固有の推論」に分類されている.すなわち,単に知識源を参照するだけでは解答できず,数理的演繹やオントロジーに基づく推論などが必要となることが示唆される.特に,数学・物理の問題のほとんどが数値ないし数式を答える問題であるため,数値計算ないし数式処理は必須である.言語処理と数値・数式処理の統合は,分野横断型の研究として興味深い.数学・物理の間の違いとして,画像・図表の理解を必要とする問題の割合の差が見て取れる.数学では数表および箱ひげ図の理解を要する大問が1題あったが,それ以外の図に関しては必要な情報が全て問題文で与えられており,解答する上で図を理解する必要はない.いっぽう物理では,問題文のみでは物理的状況を理解するのが困難で,画像の理解を必要とすると思われる問題がおよそ7割を占める.このため,物理の解答システムでは将来的に画像理解と言語理解の融合が必要であると考えられる.英語と国語の問題分類は,他科目とは大きく異なっている.英語に関する節で述べるように,語彙知識,文法的知識を問う問題は,現在の言語処理技術の射程内のものが多数ある.しかし,英語・国語で大きな割合を占める読解問題は,これを研究課題とする取り組みが近年開始されたものの\cite{Penas2011a,Penas2011b},言語処理・知的情報処理課題としての定式化を含め,未解決の部分が多いタイプの問題である.さらに,英語問題には一般常識を問う問題,新聞広告や手書きの問診票など独特の形式をもつ文書の理解を問う問題,画像理解(絵の説明として適切なものを選ぶ問題など)などが含まれるが,これらは一部に研究課題として非常に難しいものを含んでいる.この点で,少なくとも現時点では,英語で満点に近い高得点を得ることは困難であると考えられる.
\section{英語問題のエラー分析}
\subsection{はじめに}\label{sec:eigo:introduction}本節では,東ロボ英語チームの開発によるいくつかの解答システムのエラーを分析した結果について述べる.特に,代ゼミセンター模試の6回分(2012第1回,2013第1回〜第4回,2014第1回)を中心に分析を行った.\begin{table}[b]\caption{代ゼミセンター模試2014英語の問題構成}\label{tab:eigo:mondai}\input{05table04.txt}\end{table}\TABREF{tab:eigo:mondai}に代ゼミセンター模試2014第1回の問題構成を示す.今回の分析は現状一定の精度で解けている短文問題(すなわち,大問1から大問3)のみについて行っている.また,短文問題の中で文脈に合わない文を選ぶという問題(3B)については,過去問に例が少なかったため未着手であり,分析対象としては触れていない.また,意見要旨把握問題については,会話文完成問題と同じ解き方で解いているため,会話文完成問題の分析をもって,この問題の分析とする.点数にして約半分を占める読解問題に対しては,現在のシステム正答率がチャンスレベルに近いため,エラー分析の対象とはしなかった.読解問題に関する見通しについては本節の最後で述べる.なお,2014年度の代ゼミセンター模試の英語問題を解いた手法については,文献\cite{eigo}に詳述されているので参照されたい.\subsection{発音・アクセント問題}\label{sec:eigo:1ab}ここ数年の発音・アクセント問題は発音箇所が異なる・同じ箇所や,アクセント位置が異なる・同じ箇所を選択する問題であり,音声認識用の辞書を用いることですべて解くことが出来ている.しかし,1987年から2009年までのセンター試験の発音アクセント問題は28/85(約32\%)しか解くことができていない.これらの問題は,文中で強勢される単語を問うものが多く,文脈を理解しないと解くことができない.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f1.eps}\end{center}\caption{強勢問題の例}\label{fig:eigo:1ab}\end{figure}\begin{table}[b]\caption{発音・アクセント問題の分類}\label{tab:eigo:1ab}\input{05table05.txt}\end{table}\FIGREF{fig:eigo:1ab}は強勢の問題の例である.下線部の単語のうち,強勢が置かれるものをそれぞれ選択する.(1)の下線部では,worseが正解となるが,worseを強く読むかどうかは文脈に依存する.1999年までの発音・アクセント問題で解けていない問題を分析したものを\TABREF{tab:eigo:1ab}に示す.辞書やプログラムの整備などにより対応できるものを短期に対応できる問題(18問),それ以外を長期間必要な問題(33問)と分類した.また,例年であれば発音・アクセント問題が出現する箇所にそれ以外の問題が出題されるケースがあり,これらは6問あった.強勢の問題は近年コーパスベースの手法で取り組んでいる文献\cite{kyosei}もあるが,まだ取り組みが少ないのが現状である.\subsection{文法・語法・語彙問題}\label{sec:eigo:2a}文法・語法・語彙問題とは,文中の空欄に最もふさわしい語句を4つの候補の中から選ぶ問題である.代ゼミセンター模試の過去6回分には,このタイプの問題が合わせて60問出題されている.英語チームでは,単語N-gramを用いて,最も確率が高くなる候補を選ぶ方法を用いた.本手法では,47問解くことができた.解くことが出来なかった問題の要因は\TABREF{tab:eigo:grammar}の通りであった.\begin{table}[b]\caption{文法・語法・語彙問題のエラー要因\label{tab:eigo:grammar}}\input{05table06.txt}\end{table}反実仮想のように,条件文に呼応する場合はそれを踏まえる必要があるが,N-gramではそれが捉えられていなかった.また,複数文で前半部分を受けて後半の単語を選ぶ問題についても同様に答えられていない.遠い依存関係はN-gramによって捉えにくいものであるが,今回の代ゼミセンター模試2014-1の2問については,DependencyLanguageModel~\cite{deplm}に基づく手法で答えられることを確認した.成句に関する問題は入試で頻出するが,新聞記事の出力分布からずれるために答えられていないと思われる.関係代名詞の用法については,解くためには文法的な観点が必要と思われる.今回の分析対象である60問で人間(受験生)とシステムの正答傾向に違いがあるかを分析した.ここで,「人間の解答」として,受験生の選択した割合が最も高かったものを用いている.なお,人間は48問(80\%)正解している.クロス表を作成したところ\TABREF{tab:eigo:bunpou:cross}の様になった.\begin{table}[t]\caption{人とシステムの正答傾向の比較(文法・語法・語彙問題)}\label{tab:eigo:bunpou:cross}\input{05table07.txt}\end{table}\begin{table}[t]\caption{システムが正解し人間が不正解であった文法・語法・語彙問題の内容}\label{tab:eigo:syshumcompare}\input{05table08.txt}\end{table}システムと人間の両方が解けるものはある程度共通しているものの,それぞれ得意・不得意があることも分かる.システムが正解することと,人間が正解することが独立であるか,本クロス表についてFisherの正確確率検定を行ったところ$p=1$であり人間・システムの正答の分布が独立であることは棄却されなかった.人間とシステムは異なる解き方をしており,正答・誤答の分布は独立であることが示唆される.さらに60問の各設問について人間とシステムの選択肢の順序を求め,代表的な順位相関係数であるSpearmanの$\rho$およびKendallの$\tau$の平均値を求めた.ここで,人間の選択肢の順位とは選択した受験生の割合の順位であり,システムの順序とは,N-gram確率によって得られる確率値の大きい順に並べたものである.その結果,$\rho$と$\tau$の平均はそれぞれ0.07,0.06となり,ほぼ無相関であった.ここからも,人間とシステムは異なった解き方で問題を解いていることが示唆される.システムが正解し人間が不正解であった問題は10問であり,この内訳は\TABREF{tab:eigo:syshumcompare}の通りである.人間は英語の典型的用法を知らないことで不正解になっているケースがほとんどであった.これらはシステムがデータ中心の解法により正解できるものである.また前置詞の用法も英語に慣れていないと難しく,受験生には解けなかったようである.人間が正解しシステムが不正解であった11問,および,どちらも不正解だった2問(2013-1-A12,2014-1-A14)は,システムが解けなかった問題として前掲した13問である.\TABREF{tab:eigo:syshumcompare}と比較すると,システムが正解・人が不正解であった問題は単語や成句・連語あるいは前置詞の選択など,語彙的知識に関するものが多く,システムが不正解・人が正解であった問題は意味的・文法的な整合性が関わるものが多いという傾向が見て取れる.\subsection{語句整序完成問題}\label{sec:eigo:2c}語句整序完成問題とは,与えられた数個の単語を適切に並べ替えて,文法・意味的に正しい文を完成させる問題である.我々は,文法・語法・語彙問題と同様にN-gram言語モデルを用いてこの問題に取り組んだ.具体的には,単語列のすべての並びを列挙し,もっとも文としての確率が高いものを選ぶ手法を用いた.分析対象とした代ゼミセンター模試過去問ではこのタイプの問題が18問あり,このうち,15問(83\%)に対しシステムは正答することができた.正解できなかった3問についてはエラーの要因は\TABREF{tab:eigo:error:sort}の通りであった.ここでの要因は,文法・語法・語彙問題とほぼ同様である.システムの正解率もほぼ同じであることから,N-gramによって解くことのできる問題はおおよそ80\%であることが確認できる.今回の分析対象である18問について,人間とシステムの正答傾向に違いがあるか分析した.\TABREF{tab:eigo:cross:sort}はそのクロス表である.\begin{table}[t]\caption{語句整除完成問題のエラー要因}\label{tab:eigo:error:sort}\input{05table09.txt}\end{table}\begin{table}[t]\caption{人とシステムの正答傾向の比較(語句整除完成問題)}\label{tab:eigo:cross:sort}\input{05table10.txt}\end{table}本クロス表についてFisherの正確確率検定を行ったところp値は0.06であり有意傾向にあった.これは,文法・語法・語彙問題と異なるところであり,システムと人間はより近い解き方をしているのではないかと考察される.人間が不正解でありシステムが正解したものは1問(2012-1-A25-26)だった.``allIcouldthinkabout''という構文が受験生にとっては難しいながら,典型的なフレーズであり,システムにとってはN-gramで解ける問題だったことによる.\subsection{会話文完成問題}\label{sec:eigo:2b}会話文完成問題は,二人の話者の会話の空所に適切な文を4つの選択肢から選び,会話文を完成させる問題である.この問題を解くため,4つの選択肢の各場合について会話文の流れの自然さを推定し,最も自然な流れとなる選択肢を選ぶという方法を用いた.会話文の流れの自然さは(a)発話意図(表明,評価など)の流れの自然さと(b)感情極性(ポジティブかネガティブ)の流れの自然さから成る.(a)はSwitchboardDialogActCorpus\cite{Jurafsky:97}から発話意図列の識別モデルをCRFによって学習し,発話意図列の生起確率に基づいてスコアを計算した.(b)は感情極性コーパス\cite{Pang+Lee:05a}からSVMにより識別モデルを学習し,感情極性がポジティブあるいはネガティブであるスコアを計算した.それぞれのスコアの重み付き和を最終的なスコアとした.エラー分析のため,代ゼミセンター6回分の問題について,会話中のすべての発話および選択肢に対し,1名の評価者がアノテーションを行い,発話意図のラベルと感情極性の度合を付与した.アノテーションに基づき,(a),(b)のスコアを計算した.(a)は付与された発話意図列のN-gram確率をコーパスから計算したものをスコアとした.(b)は付与された感情極性の度合に基づいてスコアを計算した.コーパスから学習したモデルに基づいてスコアを算出する場合(アノテーション無し)とアノテーションに基づいてスコアを算出する場合(アノテーション有り)を比較し,正解率がどう変わるかを検証した.その結果を\TABREF{tab:eigo:2b}に示す.\begin{table}[b]\caption{アノテーションの有無による会話文完成問題の正解率の変化}\label{tab:eigo:2b}\input{05table11.txt}\end{table}表において,発話意図のスコアと感情極性のスコアの両方を使う場合は,正解率が最大となるように重みを調整した.表から分かるように,感情極性に関して,アノテーション無しの方がアノテーション有りの場合よりも正解率が若干高い.アノテーション無しの場合は,感情極性コーパスを使うことにより,ポジティブ/ネガティブな文に現れる単語の出現確率を考慮してスコアを計算していることに対して,アノテーション有りの場合は,そのような単語の出現確率を精密に考慮できないことが性能低下につながった可能性がある.本質的にアノテーション無しの方が性能が良いかどうかはより多くのデータを使って判断することが必要である.本手法は発話意図のスコアと感情極性のスコアの重み付き和で最終的なスコアを計算しているが,どちらのスコアを優先すべきかは問題による.実際,発話意図のスコアと感情極性のスコアのいずれかが最大となる選択肢を選ぶことができたすると,アノテーション無しでは18問中13問,アノテーション有りでは18問中10問が正解となる.発話意図と感情極性のスコアのいずれを使って問題を解くべきかを適切に判断することは今後の課題の一つである.分析に用いた18問に対する受験生の平均正答率は62.2\%であった.システムの正答率8/18(=44.4\%)はそれより低いものの,チャンスレベルである25\%との差はほぼ有意であった($p=0.06$,二項検定).\subsection{未知語(句)語義推測問題}\label{sec:eigo:3a}この問題は,出現頻度が低く一般にはあまり知られていないような文章中の単語またはフレーズについて語義を推定し,与えられた選択肢の中から最も意味の近い語義を選択する問題である.今回,word2vec\cite{Mikolov13}を用い,未知の語句と選択肢のベクトルをそれぞれ求め,コサイン類似度の高いものを選択する手法を用いた.なお,未知の単語が慣用句の場合は,イディオム辞書によって事前に語釈文に置き換えた上でベクトルを算出している.過去5回の代ゼミセンター模試の全12問について,9問(75\%)解くことができた.これは同じ問題に対する受験生の平均正答率48\%を上回っている.正解できなかった3つの問題の内訳を表\ref{tab:eigo:3a}に示す.二つはイディオム辞書の不備に依る.今回は,Wiktionaryから作成したイディオム辞書を用いたが,そのカバレッジが低かった.これらはよりカバレッジの大きいOxfordEnglishDictionaryを用いることで解決できることが分かった.もう一つは単語``cognate''であるが,単語であっても,辞書の語釈文によって置き換えてベクトルを算出することでこちらも解けることが分かった.すなわち,単語,イディオムについて,置き換える・置き換えないという操作が正しくできれば,本問題については解くことができると言える.\begin{table}[b]\caption{未知語(句)語彙推測問題のエラー内訳}\label{tab:eigo:3a}\input{05table12.txt}\end{table}\subsection{英語:まとめと今後の課題}\label{sec:eigo:summary}本稿では,東ロボプロジェクトにおいて英語チームが英語問題を解いたときのエラーを分析した結果について述べた.長文読解問題はまだチャンスレベルに近い正答率であるため,今回は分析対象としなかったが,今後解答できるようになっていくにつれ,エラーを分析していく予定である.今回の分析対象とした短文問題に比べて,長文読解問題ソルバー開発の進行が遅れている理由としては,問題内容自体の複雑さに加え以下のような理由が挙げられる.まず,長文読解問題の約半数は,図表ないしイラストを含む問題,あるいは広告・カルテなど特殊なレイアウトを含む実用文書を題材とする問題である.これらの問題に対しては,テキスト処理に加えて画像理解や文書構造の理解が必要とされる.特に自然画像ではないイラストの理解はそれ自体が未開拓の研究領域である.これらの付加要素のうち表に関しては,情報抽出源として多くの研究があるものの,テキスト理解と表の意味理解が複合した課題に関する取組は近年始まったばかりである\cite{pasupat2015compositional}.多くの長文読解問題は,形式的には本文と選択肢の間の含意関係認識課題として捉えることが可能である.しかし,Bag-of-words/phrases/dependenciesなど,表層に近い表現によるテキスト間類似性を用いた手法とstate-of-the-artとの差が比較的小さい現在の含意関係認識手法の技術水準では,英語読解問題で前提とされる種々の常識的知識を深い意味構造のレベルで取り扱うような手法がすぐに実現するとは考えにくく,表層に近い表現によるテキスト間類似性定義をベースとして,英語読解問題の特性に見合った改良を加えていく方向が有効であると思われる.これに対し,図・表・イラストなどを含む問題は,数量の取扱いを始め,単純なテキスト間類似性を超える推論を要することが多い点でも難しい課題であると言える.なお,図などの付加要素を含まないタイプの長文読解問題において,特に問題だと考えている課題は3つある.意味を反転させるような表現の扱い,共参照解析,メタ言語(文章自体への言及)である.また,過去の代ゼミセンター模試の長文(特に大問6の論述に関する問題)を分析したところ,選択肢に関連のある一文を長文から抽出できれば解ける問題が25問中11問あったが,その他は複数の文の統合が必要なものであった.選択肢に関連する一文を長文から抽出する課題はそれ自体が今後の研究課題である\cite{CLEF13Li}が,それに加え,要約技術の適用や文の統合といった技術が必要になってくると思われる.\vspace{0.5\Cvs}
\section{国語評論問題のエラー分析}
\vspace{0.5\Cvs}\subsection{センター試験『国語』評論傍線部問題}本節では,主に大学入試センター試験『国語』評論の{\bf傍線部問題}と呼ばれる問題を取り扱う.傍線部問題の具体例を\FIGREF{fig:kokugo:up_example}に示す.この図に示すように,傍線部問題は,何らかの評論から抜き出された文章(本文)を読んだ上で設問文を読み,5つの選択肢のうちから正解の選択肢を1つ選ぶという選択式の問題である(紙面の都合上,\FIGREF{fig:kokugo:up_example}には2つしか選択肢を記載していない).表13に示すように,傍線部問題は,センター試験『国語』評論の配点の約2/3を占めている.紙幅の都合で取り上げなかったこれ以外の問題に関しては本節の最後で述べる.\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f2.eps}\end{center}\caption{評論傍線部問題の例(2007年本試験第1問の問2)}\label{fig:kokugo:up_example}\end{figure}\subsection{傍線部問題の解法}東ロボ国語チームは,傍線部問題の自動解法として,これまでに{\bf本文照合法}\cite{BaseMethod},およびその一部を拡張した{\bf節境界法}\cite{CLMethod}を提案,実装した.本節ではこれらの解法について概説する.\subsubsection{本文照合法}本文照合法は,\begin{itemize}\item正解選択肢を選ぶ根拠は,本文中に存在する\cite{Funaguchi,Itano}\item意味的に似ているテキストは,表層的にも似ていることが多い\end{itemize}という考え方(仮説)に基づく解法である.具体的には,次のような方法で傍線部問題を解く.\begin{enumerate}\item{\bf入力:}本文,設問,選択肢集合を入力する.\item{\bf照合領域の決定:}選択肢と照合する本文の一部(照合領域)を定める.照合領域は,本文中の傍線部を中心とした連続領域とする.\item{\bf選択肢の事前選抜:}考慮の対象外とする選択肢を除外する.具体的には,ある選択肢について,自分以外の選択肢との文字の一致率の平均値が最も小さい選択肢を除外する.\item{\bf照合:}考慮の対象とする選択肢をそれぞれ照合領域と比較し,照合スコアを求める.照合スコアには,照合領域とその選択肢との間の共通する要素の割合(オーバーラップ率\cite{Hattori2013})を用いる.\item{\bf出力:}照合スコアの最も高い選択肢を解答として出力する.\end{enumerate}この本文照合法には,以下の3つのパラメータが存在する.\begin{itemize}\item照合領域として本文のどの範囲を選ぶか\item照合スコアをどのような単位で計算するか(何のオーバーラップ率をスコアとするか)\item選択肢の事前選抜を行うか\end{itemize}これらのパラメータは,以降で述べる節境界法にも共通する.\subsubsection{節境界法}節境界法は,長い文を複数のまとまりに区切るという戦略に基づき,本文照合法の一部を拡張した解法である.具体的には,本文照合法の照合ステップにおいて,照合領域と選択肢に節境界検出に基づいた節分割を行い,その結果を照合スコアの計算に利用する.節は「述語を中心としたまとまり」\cite{KisoNihongo}と定義される文法単位であり,おおよそ述語項構造に対応する.節境界検出には,節境界検出プログラムRainbow\cite{Rainbow}を用いる.Rainbowは,文の節境界の位置を検出し,節の種類のラベル(節ラベル)を付与するプログラムである.Rainbowによって付与された節境界で区切られた部分を節とみなして,節分割を行う\footnote{厳密には本来の節の定義からは外れる場合がある.}.節境界法では,照合スコアを以下のような方法で計算する.\begin{description}\item[\textmd{Step1}]照合領域$t$と選択肢$x$に節境界検出を行い,それぞれ節の集合$T$,$X$に変換する.\item[\textmd{Step2}]$T$と$X$を用いて選択肢$x$の照合スコアを計算する.具体的には,$X$内の各節$c_x\inX$のスコアの平均値を,選択肢$x$のスコアとする.節$c_x$のスコアは,$c_x$と,$T$内の各節$c_t\inT$との類似度の最大値とする.\end{description}節同士の類似度は,節同士の共通する要素の割合(オーバーラップ率\cite{Hattori2013})と,2つの節の節ラベルが一致する場合のボーナスの和と定義する.\subsection{評価実験}センター試験の過去問および代ゼミセンター模試過去問(以下,代ゼミ模試とよぶ)を用いて,本文照合法および節境界法の評価を行った.センター過去問は10回分,代ゼミ模試は5回分の試験データを使用した.傍線部問題の総数は,センター過去問が40問,代ゼミ模試が20問である.\subsubsection{実験結果}本文照合法ソルバーと節境界法ソルバーを,センター過去問,および代ゼミ模試に適用した結果(正解数)を\TABREF{tab:kokugo:result}に示す.この表のP-$m$-$n$は,照合領域(本文の傍線部の前後何段落を照合領域とするか)を表し,$C^1$や$L$などは,オーバーラップ率として何の一致率を用いるかの単位を表す(たとえば$C^1$は文字unigramを用いることを表す).また,選択肢の事前選抜を行う場合をps,行わない場合をnonで表す.これらのパラメータの組み合わせ56通りについて,正解数を調査した.\begin{table}[b]\caption{代ゼミセンター試験2014国語の問題構成}\label{tab:kokugo:mondai}\input{05table13.txt}\end{table}\begin{table}[b]\hangcaption{センター過去問と代ゼミ模試に対する正解数(本文照合法/節境界法,上段がセンター40問,下段が代ゼミ模試20問に対する結果)}\label{tab:kokugo:result}\input{05table14.txt}\end{table}\TABREF{tab:kokugo:result}では,本文照合法ソルバー,節境界法ソルバーの正解数を,この順に斜線で区切って示している.また,上段にはセンター過去問の正解数,下段には代ゼミ模試の正解数を示している.半数以上の問題に正解した場合の正解数は,ボールド体で示している.\TABREF{tab:kokugo:result}を見ると,センター試験と代ゼミ模試の問題は,性質が異なるということがわかる.センター過去問に関しては,多くのパラメータ(45/56)において,節境界法の正解数が本文照合法の正解数以上となったのに対し,代ゼミ模試に関しては,56通りすべてのパラメータにおいて,本文照合法の正解数が節境界法の正解数以上となった.また,本文照合法では2つの問題データ間で正解率があまり変わらないのに対し,節境界法では全体的にセンター過去問よりも代ゼミ模試の正解率の方が低い.ソルバーは,解答を出力する際,照合スコアの高い順に選択肢番号を出力するが,このとき,スコア上位に正解が含まれた設問数を表\ref{tab:kokugo:rank_in}に示す.パラメータは,センター過去問または代ゼミ模試で,比較的成績のよいものを3つ選んだ.R@$n$は,スコア順位で$n$位までに正解が含まれたことを表す.(節),(本)はそれぞれ節境界法,本文照合法を表す.\begin{table}[t]\caption{ソルバー出力の上位に正解が含まれる設問数}\label{tab:kokugo:rank_in}\input{05table15.txt}\end{table}\TABREF{tab:kokugo:rank_in}を見ると,ほとんどの問題で正解選択肢が選択肢5つのうちの上位3位までには入ることがわかる.スコア上位の選択肢に対して,本文と合致しない部分の検出ができれば,より正解数が向上することが期待できる.\subsubsection{典型的な難問例}本文照合法,および節境界法は,いずれも文字列の表層的類似度を照合スコアに用いているため,本文の解答根拠部分と選択肢との間で表層的に全く異なる言い回しが用いられているような問題には正解できない.センター過去問の40問の傍線部問題を調査したところ,そのような問題は多く存在した.その中でも,以下の3つのタイプの問題は,ソルバーにとって特に難問であると考えられる.\begin{itemize}\item[A]本文で抽象的に述べている内容を具体的に述べた選択肢を選ぶ設問(40問中2問)\item[B]本文で具体的に述べている内容を抽象的に述べた選択肢を選ぶ設問(40問中4問)\item[C]本文と選択肢の抽象度は同じだが,選択肢が本文の内容を,句以上の大きな単位で全面的に言い換えている設問(40問中16問)\end{itemize}タイプAの設問の例を\FIGREF{fig:kokugo:difficultA}に,タイプCの設問の例を\FIGREF{fig:kokugo:difficult}に示す.\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f3.eps}\end{center}\caption{タイプAの難問の例(2001年本試験第1問の問2)}\label{fig:kokugo:difficultA}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f4.eps}\end{center}\caption{タイプCの難問の例(2005年本試験第1問の問4)}\label{fig:kokugo:difficult}\end{figure}タイプAおよびBの設問で求められる抽象と具体を結びつける能力は,抽象語と具体例を結びつける辞書的なデータの作成や,多数の抽象-具体テキストペアの蓄積が可能であるような,ごく限定的な主題を除き,現在の言語処理・人工知能技術の射程外であろう.タイプCの設問は,形式的には言い換え認識あるいは含意関係認識に近い問題であるものの,最先端の手法と表層的類似度に基づく手法との差が小さい現在の技術水準\cite{RITE2}では,やはり解決不可能な問題が多いと考えられる.\subsubsection{人間の解答との比較}代ゼミから提供されたデータを用いて,ソルバーの解答傾向が人間(受験生)のそれと似ているかの比較を行った.代ゼミ模試20問において,ソルバーの解答結果と,受験生の解答番号別マーク率を比較した.受験生の選んだ選択肢$n$位までにソルバーの選んだ選択肢が含まれる設問数を\TABREF{tab:kokugo:human1}に示す.この表のR@$n$は,受験生のマーク率順位の$n$位までにソルバー出力が含まれたことを表す.\TABREF{tab:kokugo:human1}を見ると,節境界法に比べて,本文照合法の解答傾向の方が受験生と似ている.代ゼミ模試において節境界法より本文照合法の方が好成績であったことを考慮すると,代ゼミ模試においては,受験生と解答傾向が似ているソルバーの方が,正解率が高くなると考えられる.\begin{table}[t]\caption{受験生の選んだ選択肢上位にソルバー出力が含まれる設問数}\label{tab:kokugo:human1}\input{05table16.txt}\end{table}\begin{table}[t]\caption{人とシステムの正答傾向の比較(国語評論傍線部問題)}\label{tab:kokugo:cross}\input{05table17.txt}\end{table}代ゼミ模試20問に対する,ソルバー(本文照合法P-0-0,$C^1$,ps)と受験生のマーク率1位の解答のクロス表は\TABREF{tab:kokugo:cross}のようになった:クロス表では,ソルバーが正解した問題では受験生も正解が多い傾向があるように見える.しかし,Fisherの正確確率検定の結果は$p=0.34$で,ソルバーと受験生の正答の分布が独立であることは棄却できなかった.\subsection{国語:まとめと今後の課題}本節では,東ロボ国語チームが提案,実装した評論傍線部問題の自動解法とその成績,および解答結果の分析について述べた.実装した本文照合法,節境界法は,いずれも文字列の表層的類似度を用いる解法であり,本質的に正解できない難問もあるものの,ソルバーは,適切なパラメータさえ選べば,多くの問題に対してスコア順位で上位に正解選択肢を出力できた.現在のソルバーは,全ての傍線部問題に対して同じパラメータ,同じ解法で解答するが,今後は,問題を換言型,理由型などいくつかの型に分類し,より適したパラメータ,特徴を用いて解く必要があると考えられる.たとえば,傍線部の理由を問う理由型の問題の場合,本文傍線部周辺の比較的狭い領域の,因果関係を表す表現などが手がかりとなるであろう.また,評論には例示や引用がしばしば用いられるため,本文および選択肢を,本質的に重要な部分とそうでない部分に分け,重要な部分のみで照合を行うようなアプローチも有用であると考えられる.傍線部問題は小説を本文とする第2問でも大きなウェイトを占める.小説の傍線部問題は形式的には評論のそれと類似しているものの,本文には直接記述されない登場人物の感情・思考などが問われる問題が多く,評論と同様の表層的類似度を用いた手法ではチャンスレベルと大差ない正解率となることが分かっている\cite{BaseMethod}.テキストから書き手の感情(極性)を推定する研究はこれまで非常に多くあるが,小説の読解問題として問われるような細かな感情タイプを表層的手がかりから得る技術の実現可能性は今のところ明らかでない.漢字(評論)の問題は辞書を用いた手法で概ね十分な精度が出ている(2013年度,2014年度とも代ゼミセンター模試で全問正解).語句の意味(小説)に関する問題に関しては,通常の語義を問う問題では国語辞書を用いた手法で高い精度が得られている.しかし,語句の意味に関する問題では,本文で比喩的に使われている語句の意味を文脈に即して選ばせるタイプの問題がしばしば出題され,これらに対する正解率が低い.このタイプの問題の解決には,語句が比喩的に用いられているか否かの識別とともに比喩の内容を本文に即して解釈することが必要であり,特に後者は難しい課題である.古文(第3問)の解釈問題に対しては,古文-現代語対訳コーパスから学習した統計的機械翻訳モデルを利用し,本文を現代語訳した上で評論の傍線部問題と同様の本文と選択肢の間の表層的類似度を用いた手法で50\%程度の正解率を得ている.BLEUによる訳質評価および目視による主観評価の結果から,古文-現代文翻訳の品質には向上の余地が認められる.しかし一方で,機械翻訳の代わりに人手による参照訳を用いた比較実験では正答率の向上が見られず,通常の意味での翻訳品質の向上は正解率の向上に寄与しないことが示唆される.翻訳品質が直接正答率に結び付かない要因としては,小説の傍線部問題と同様に,直接記述されない心情を問う問題が多いことに加え,現在用いている単純な表層的類似度では,例えば重要語句「をかし」の解釈などといった,問題のポイントとなる部分がすくい取れていないことが考えられる.評論・小説および古文の各大問の最後では,表現の特徴・効果や議論の構成について問うタイプの問題が出題されるのが通例である.しかし,これらの問題に関しては,文章ジャンルを問わず,ほぼ手つかずの状態にある.表現の特徴・効果の理解は,現在の言語処理の主要な目標である文章の意味そのものの理解を超える課題であり,当面,解決の見込みはないだろう.議論の構成に関する問題は,自動要約や修辞構造解析など現在の言語処理における取組みと重なり合う部分もあるものの,抽出的でなく抽象度の高い要約を選択する,あるいは,修辞構造の効果を内容に即して説明する選択肢を選ぶ,など,既存の要素技術の組み合わせではカバーできない課題が多い.最後に,漢文の解釈問題に関しては古文と同様に現代日本語訳を経由して,翻訳された本文と選択肢との類似度に基づき解答する手法が考えられるが,入手可能な対訳リソースが無いため手つかずの状態になっている.\def\typename#1{}
\section{数学問題のエラー分析}
\label{sec:suugaku}数学では,問題文からの情報抽出やデータベースからの情報検索のみで解答が得られる問題は例外的であり,一般には計算や推論などの数理的操作によって解を導く必要がある.このため,問題文を分析し,数理的操作の入力となる何らかの形式表現を得るステップが不可欠となる.この中間的な形式表現としては,答えを直接導く計算式から論理式による問題全体の意味表現まで様々なものが考えられ,言語処理部分でのアプローチも,ターゲットとなる形式表現の枠組みに応じ種々の手法があり得る.適切な形式表現の枠組みを選ぶにあたって,まず考慮すべき点として,想定する問題の定型性が挙げられる.例えば,Kushmanら\cite{Kushman2014}は対象とする問題を連立一次方程式で表現される代数の文章題に限定することで,言語処理部分を問題テキスト中の名詞および数量と方程式中の変数および係数とを対応付ける学習問題に帰着している.我々は多様な問題を同一のシステムでカバーすることを目的として論理式による表現を採用し,文法主導の翻訳によって問題文から形式表現を得るアプローチを選択した.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f5.eps}\end{center}\caption{数学解答システムの概要\label{fig:mathoverview}}\end{figure}\FIGREF{fig:mathoverview}に示すように,解答システムは言語理解部と自動演繹部,および両者をつなぐ意味表現の書き換え処理部からなる.言語理解部の中心は組合せ範疇文法(CombinatoryCategorialGrammar,CCG)\cite{steedman2001syntactic,Bekki2010}による構文・意味解析である.CCGによって導出された各文に対する意味表現は,共参照解析および文間関係の解析を経て,問題テキスト全体に対応する意味表現へと合成される.言語理解部の各処理コンポーネントは現在開発中の段階にある.このため,代ゼミ模試による中間評価では,(1)問題文中の数式部分に対する意味表現,(2)文節間係り受け関係,(3)共参照関係,(4)文間の論理的関係,および(5)評価時点のCCG辞書に含まれていなかった単語・語義,の5種のアノテーションを施した問題文を入力とした.問題の意味表示は,これらのアノテーションを制約としてCCG導出木を探索し,導出木と文間の論理関係に沿って辞書中の単語の意味表示を合成することで半自動的に得た.よって,模試による評価結果は,曖昧性解消処理および辞書の被覆率に関し理想化した場合の性能の上限値として解釈すべきものである.手法および入力アノテーションの詳細については,文献\cite{Matsuzaki2013IJCNLP,Matsuzaki2014AAAI}を参照されたい.今回,入力アノテーションで代替した処理に関する考察および見通しについては本節末で述べる.\begin{table}[t]\caption{数学(I+A,II+B)の失点要因}\label{tab:suugaku:errortype}\input{05table18.txt}\end{table}\TABREF{tab:suugaku:errortype}は,2014年度代ゼミ模試の「数学I+A」および「数学II+B」における失点105点の原因の内訳である.以下では,アノテーションによって理想化された条件でも残るエラーのうち最も多くを占める2要因である,「表現の冗長性による計算量の爆発」と「行為・操作結果の表現」に関する問題について主として述べる.これら以外で,言語処理に関係する主要な要因としては,確率・統計に関する問題に対して,意味表現の設計を含め言語処理部分が未着手の状態であったことが挙げられる.これは,確率・統計の問題では「ボールを取り出す/戻す/テーブルに置く」「サイコロを用いてゲームをする」等々,あらかじめ形式的な定義を与えることが難しい要素が頻出するため,本節で示した問題の論理表示を経由する形式的なアプローチはなじまないと考えたためである.これとは異なるアプローチによる確率問題への取り組みについては別稿\cite{Kamiya2015}を参照されたい.\subsection{意味表現の冗長性}文法主導の方法で構成的に導出した意味表現は,非常に冗長になる傾向がある.例として,「線分」という一般名詞を考えてみる.「線分」に対応する意味表現は,あるモノが線分であることを表す一項述語($\text{segment}(\cdot)$とする)であると考えるのが一般的である.このとき,単語「線分」の一般的な用例に従い,述語$\text{segment}(\cdot)$は,縮退したケースすなわち両端が一致した線分(つまり一点)を除外するよう定義されるべきである.この非縮退条件は,どのような文脈においても単語「線分」の翻訳が妥当なものとなるために必要である.しかし,例えば「点(0,0)と点(1,1)を両端とする線分$L$」といったフレーズのように,非縮退条件は非常にしばしば文脈によって含意される.左記のフレーズの場合,その形式表現は述語$\text{segment}(\cdot)$の定義から,おおむね「$L$は(0,0)と(1,1)を通る直線上で(0,0)と(1,1)の間にある点の集合で,かつ点(0,0)と点(1,1)は異なる点である」という内容となり,「かつ」以下の部分が冗長である.この例では,冗長な部分はそれ自体で自明に真であるが,一般には問題文中に現れるいくつかの条件を総合したときにはじめて非縮退条件が満たされていることが分かる.このため,自動演繹の過程では,問題を解く上で本質的な演繹と,冗長な非縮退条件が実際に成立していることの証明にあたる非本質的な演繹が入り混じった形で行われることになり,演繹の計算コストが増大する.ここまでは非縮退条件を例として説明したが,その他にも等号関係の伝播による冗長な表現($a=c\Leftrightarrow\existsb(a=b\wedgeb=c)$)や一般性を失う事なく除去できる対称性など,意味表現の冗長化の原因は複数ある.これらはいずれも語彙の意味定義の文脈独立性および意味合成の構成性に起因するもので,本手法における意味解析の原理の副作用というべきものである.2014年度の代ゼミセンター模試で正解できなかった問題の内,得点にして27\%(28点)が,冗長かつ複雑な意味表現を対象とする演繹処理が制限時間内に終了しなかったことによるものであった.ここで計算量が問題となっているのは実閉体の式に対する限量子除去と呼ばれる処理\cite{qebook-e,IwaneYAY13}であり,用いているアルゴリズムの最悪計算量は式中の変数の数の2重指数のオーダーである.このため,言語処理の結果出力される式から不要な変数を除去することは極めて重要となるが,一方で,数式処理によってこれを実現する一般的な手法は存在しない(であろう)ことが分かる.よって,式の冗長性の解決へ向けては,条件の対称性など問題の数理的特徴を利用した発見的手法とともに,文法および意味合成手続きの特徴を考慮した,言語解析からの出力に特有の冗長性を除去する手法の開発が必要であろう.\subsection{行為結果の表現}現在の我々の意味表現体系で扱えない例として,行為や操作の結果を表す表現を取り上げる.2014年度センター模試数学I・Aでは\begin{center}104を素因数分解すると{\setlength{\fboxsep}{0cm}\fbox{ア}}$^3$$\cdot${\setlength{\fboxsep}{0cm}\fbox{イウ}}である.\end{center}という文を含む出題があったが,現在の我々の文法体系ではこの文に対する意味合成ができない.同様の「XをVするとYとなる」という構造を持つ文(以下,「行為結果文」と呼ぶ)は他にも\begin{itemize}\item$n$を2乗すると4の倍数となる.\item放物線$C$を$y$軸方向に1だけ平行移動すると放物線Dとなる.\item円の半径を2倍にすると面積は4倍になる.\item方程式$x^2+2x+1=0$の左辺を因数分解すると$(x+1)^2=0$となる.\end{itemize}など種々あり,数学テキストでは比較的よく現れるタイプの文である.2014年度の代ゼミ模試では,数に対する操作の表現を含む問題で上記の理由によって正解しなかったものが20点分,類似の理由で,数式に対する操作の表現を含む問題で正解しなかったものが18点分あり,合わせて失点全体の36\%を占めていた.動詞「なる」および接続助詞「と」の通常の用法も考慮すると,行為結果文「XをVするとYとなる」の意味表現としてもっとも表層構造に忠実なのは以下のような内容のものだろう:\begin{enumerate}\item行為Vの前の世界$W_1$と行為後の世界$W_2$には,ともにモノXが存在する.そして,\item行為Vの結果モノXの性質は変化し,行為後の世界$W_2$ではモノXとモノYは一致する,あるいはモノXは$W_2$では性質Yを満たす.\end{enumerate}ここでは行為Vの前・後における世界の変化を捉えるために,ある種の時間の概念(ないし複数世界間の推移)が意味表示の体系に持ち込まれている.しかし,実際に問題を解くために上記のような行為結果文から読み取る必要がある意味内容は,通常の述語論理の枠組みで十分表現可能である.例えば,上の箇条書きの最初に例に対しては「$n^2$は4で割り切れる」という表現で十分である.また,明示的に時間の推移を表す「点$P$は速度$v$で動き,時刻$t$に点$Q$に到達する」といった表現を含む問題は比較的少数であることも考えあわせると,システムの現在の開発段階で意味表現に時間の概念を持ち込む利得は意味表現・言語解析および推論の複雑化に見合わないと考える.幸い,これまでに観察された行為結果文は定型的なものが多く,時間の概念を含まない現在の枠組みでも,必要な意味表現を合成することは多くの場合に可能であると思われる.特に「XをVするとYとなる」という形の文については,下記の2つの方針が考えられる:\begin{description}\item[方針1]主節「Yとなる」はガ格のゼロ代名詞を持ち,そのゼロ代名詞は間接照応で「XをVした結果」を指すと考える.この方針では節「XをVすると」は意味表現に直接は寄与せず(翻訳されず),「XをVした結果がYとなる」に相当する意味表現が作られる.\item[方針2]句「Vすると」は右にガ格を欠いた一項述語を項として取り,左にヲ格名詞句を項として取ると考える(即ち,「Vすると」は範疇\typename{S{\backslash}NP_{o}/(S{\backslash}NP_{ga}})を持つ).\end{description}方針1のゼロ照応の解決は,行為結果文の定型性を利用することで比較的容易に実現できると予想される.方針2の利点としては,ゼロ照応解決に依らず,CCGによる解析の枠組み内で全ての意味合成が行えることに加え,例えば「2乗すると10を超える奇数」のような連体修飾の形も上記の範疇を持つ「Vすると」の語彙項目によって同時に扱える点が挙げられる(\FIGREF{fig:suugaku:action:relative}).\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f6.eps}\end{center}\caption{連体修飾の形の行為結果文の解析\label{fig:suugaku:action:relative}}\end{figure}\subsection{数学:まとめと今後の課題}本節では,入力アノテーションによって言語処理とくに曖昧性解消処理の大部分を代替した理想化された状況でもなお残る数学解答システムのエラーに関して解説を行った.意味表現の冗長性に起因する計算量の増大は,言語処理と自動演繹の両者にまたがるタスク設定に特有の課題であり,解決に向けては,文法・意味合成の特性を踏まえた数式処理技術など分野融合的な研究が必要となる.行為結果文の分析に関する課題では,いわゆる``generalizationtotheworstcase''の問題をどう回避するか,という点が本質的である.これは,大多数の文の構造は典型的ないくつかの文法・意味現象の組み合わせとして分析可能であるにもかかわらず,多様な言語現象をカバーするための分析枠組みの下では,具体的な分析対象がどのような文であっても,その意味表現が一様に(かつ,枠組みが対象とする現象の数に関して組合せ的に)増大するという問題である.本稿では,数学テキストでの行為結果文の定型性を利用した分析の単純化を一つの解として提示した.言語系・社会系の科目に比べ数学解答システムの言語処理部の開発は遅れている.数学解答システムの開発では,これまで,自然言語から構成的に導出が可能で,かつ数理処理部への入力として適した意味表現の設計に注力してきたことが,言語処理部の開発の遅れの主たる理由である.これを裏返して言えば,数学のように形式的な意味表示のための体系がほぼ確立した分野に対しても,言語から意味表示を導出するための中間的な意味表示体系として直接利用できるような枠組みは存在しなかったということであり,言語処理と自動演繹という人工知能の2つの下位分野をつなぐ領域は大きく欠落していたと言ってよいだろう.言語処理部分の自動化に向けた主要な課題は,(i)既存技術の数学テキストへの分野適応,(ii)既存技術・コーパスでは対象とされていない現象の解析,(iii)文法の被覆率の向上,に分けられる.(i)に関しては,例えば,係り受け解析器cabocha\cite{cabocha}に対して,数学問題テキスト約10,000文に対する係り受けアノテーションを用いた追加訓練を行うことで数学問題テキストに対する解析精度を追加訓練前の87〜90\%から94\%程度まで向上できることが分かっている.このように,分野適応によって,新聞テキスト等に比べ高い解析精度が得られる処理ステップが存在する一方で,数学問題を解くという目的に向けては,さらに残る解析エラーをゼロに近づけることが必要である.上記の係り受け解析に関する結果からも示唆されるように,エラーをゼロに近づける段階では,「汎用」の分野適応手法ではなく,分野特有の知識や数理処理の結果のフィードバック等を用いた手法が必要となることが予想される.(ii)に関しては,例えば,命題を指す参照表現(「このとき」「そのとき」)や,不飽和名詞・関係名詞に係る「ノ格」のゼロ照応解決(例「平面上に直角三角形ABCがある.斜辺BCは…」)など,日本語共参照・照応解決のための学習・評価データとして近年ひろく用いられているNAISTテキストコーパス\cite{NTC2015}ではアノテーションの対象となっていない現象の解析が必要であり,既存のツール・データをそのまま利用した解決は事実上不可能である.また,文間の論理関係の解析に関しては,修辞構造解析・談話構造解析など,形式的には類似のタスクに関する研究があるが,変数のスコープ解決を含め,文間の詳細な論理的関係の解析を対象とする研究は我々の知る限り存在しない.これらの課題に関しては,まず,分野知識を前提としたルールベースの手法による達成率を調査し,その後,必要であればテキストアノテーションを介した統計手法との組み合わせを検討することが目標の実現へ向けた戦略としては妥当であろう.(iii)の文法の被覆率の向上に関しては,現在のところ見通し不明であると言わざるを得ない.名詞・動詞など内容語に関しては,辞書見出し語による文表層形の被覆率を測定することで,必要な語彙のうち辞書に未収録なものの概数が分かる.しかし,機能語は同一表層形のものが多数の異なる統語的特性および意味をもつため,被覆率の測定のためには,文が解析可能であるか否かに加え,得られた意味表示が正しいことを確認する必要がある.このため,構文解析すら自動化されていない現段階では,少数のサンプルを超えて大規模な被覆率の測定を行うことは難しい.今後は,言語解析の結果から得た解答のチェックを通じて,間接的に被覆率の測定や機能語の未知の用法の検出を行うといった工夫が必要になると考えている.
\section{物理問題のエラー分析}
大学入試における物理の問題の多くは,問題に記述された状況において,ある物理現象が起きたときの物理量についてのもの(e.g.``物体が停止した時間'')や,物理現象が起きるための条件となる物理量についてのもの(e.g.``棒がすべり出さないための静止摩擦力'')である.本研究ではこの種の問題解答に向けて,物理シミュレーションによって問題に書かれている状況を再現し,得られた結果を用いて解答を行うアプローチで取り組んでいる\cite{yokno2014}.解答器は自然言語で記述された問題を入力として受け取り,まず意味解析を行い,状況の記述と解答形式の記述からなる形式表現を生成する.次に形式表現を元に物理シミュレーションを行い,得られた結果から問題に記述されている物理現象が起きた時刻における物理量を特定し,解答形式にあわせて出力することで問題に解答する.2014年度の代ゼミセンター模試による評価では形式表現からシミュレーション結果の取得に焦点を当て,人手で記述した問題の形式表現を入力とし,得られたシミュレーション結果から解答が導けるかどうかを人が判断するという設定とした.この設定においても正解が得られなかった問題とは,シミュレーション自体が行えなかった問題であり,大別すると(i)形式表現による記述が困難な状況設定を含む問題(ii)電磁誘導などシミュレーションが困難な物理現象を含む問題,の2種類がある.本稿では(i)に焦点を当て,その詳細について述べる.\subsection{形式表現}本手法で用いている形式表現は一階述語論理の形式で記述している.定義している述語は物体,物理量,物体に対する操作,物理現象を表す4種類のものである.このうち物体に対する操作と物理現象を表す述語に関しては,事象が起きた時間関係を明示するためにイベント変数を導入している.形式表現に用いる述語セットは過去のセンター試験問題を対象とした調査結果を基に人手で定義した.現時点における形式表現の定義でどの程度の問題が記述できるかを2013,2014年度の代ゼミセンター模試5回分を用いて評価した.結果を\TABREF{fig:butsuri:mondaibunrui}に示す.状況記述の項は実際に形式表現で記述できた小問の数を示している.状況記述の項の``+''以降の値は新しく述語を定義することで状況の記述が可能となった問題の数を示す.\begin{table}[b]\caption{形式記述の分析(試験5回分)}\label{fig:butsuri:mondaibunrui}\input{05table19.txt}\end{table}状況の記述ができないと判断された問題は全部で25問あり,その理由の内訳は,シミュレーションモデルの不足によるものが12問,画像で形状が指定されるオブジェクトをシミュレータに入力できないことによるものが8問,その他の理由によるものが5問であった.以下では,上位2つの原因について詳細を述べる.\subsection{シミュレーションモデルの不足}\label{sec:butsuri:complicated}物理問題の形式表現では,数学における集合論のように,全ての問題を記述しうる表現の枠組みを考えることは現実的でない.このことは,例えば力学,電磁気,波動(音波,光,弦の振動)といった多様な分野の問題を一様に「原子レベル」で記述することの非現実性から明らかだろう.すなわち,物理では各分野および問題タイプごとに適切な抽象度の物理モデルを用いる必要がある.これらのモデルには,力学や電気回路など,比較的多様な問題をひとつのモデルでカバーするものから,「両端が固定された弦の振動」といった単一の現象のみを対象とするものまで様々な抽象度のものが含まれる.ゆえに,物理問題に対する形式表現の記述とシミュレータでの実行は,(i)適切な物理モデルの選択と(ii)選ばれた物理モデルの枠組みの中での問題の解釈,という2つの側面を含む.この2つの側面は不可分であり,問題に対して適切な抽象度の物理モデルが事前に存在しない場合は,問題に対する形式的記述がそもそもできない.定性推論\cite{forbus1984}などのように,基礎的なレベルの状況記述から,より抽象的で演繹に適したモデルを自動的に生成することを目指す研究は存在するものの,広範囲の物理問題に適用可能な解答プログラムの開発を5〜10年のスパンで目指す本研究ではスコープ外の目標と見なすべきであろう.\TABREF{tab:butsuri:riyuu}の「シミュレーションモデルの不足」は,上記の意味で適切な物理モデルが評価時に存在しなかった問題である.ここに分類された問題のうち半分以上(12問中9問)は,例えば,「一定の風速および方向の風が吹く中で伝わる音波のドップラー効果」や「質量$2~m$の重りをつるすと切れる糸を用いた円錐振り子」のように,現在の音波の伝達モデルや力学モデルを拡張することで表現が可能になる問題である.しかし,そもそもどのような抽象化をすべきか現段階では明らかでない「伏せたコップを水中に沈め,水圧によってコップの下端から$x$cmの高さまで水が入りこんだ状態」のような問題も含まれている.\begin{table}[b]\caption{状況記述ができない理由}\label{tab:butsuri:riyuu}\input{05table20.txt}\end{table}本研究では力学に関係したモデルから開発を始めたため,力学に関しては記述可能な問題の割合が相対的に大きい.今後は,「切れる糸」など力学モデルの中で例外的な扱いが必要な現象を洗い出し,モデルに取り込むとともに,現象に対し個別的なモデルが必要な問題が多い波動などの分野に関して,どの程度のモデル数が必要か,現実的に実現可能なモデル数に収まるのかを見定める必要がある.\subsection{自由形状の入力}問題には「平らな床の上に置かれた立方形の台」のように基本的な小数の要素で構成可能な状況だけでなく,\FIGREF{fig:butsuri:fig1}のように画像によって与えられた複雑な形状の要素が出現するものがある.これらは原理的には力学モデル内で扱うことが可能であるが,シミュレータへと状況を入力するために画像処理を必要とし,さらに自由形状のオブジェクトを取り扱うためのシミュレータ機能の実現コストが大きいため,現在は未着手の状態にある.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f7.eps}\end{center}\caption{複雑な形状の例}\label{fig:butsuri:fig1}\end{figure}\subsection{物理:まとめと今後の課題}物理問題の多くは問題で与えられた状況に対して起きた物理現象について,その時の物理量やその物理現象が成立するための条件を問うものである.このような問題に対して,我々は問題に書かれている状況を認識し,その状況を起点とする物理シミュレーションを行い,得られた物理量をもとに解答するというアプローチで取り組んでいる.これまで,十分な範囲の問題を記述することができ,かつ,その情報から物理シミュレーションが可能となるような形式表現の定義を行ってきた.\TABREF{fig:butsuri:mondaibunrui}に示すように,まだ記述できない問題は残っているため,今後も定義を改良する必要があるが,同時に自然文として記述されたテキストからこの形式表現への変換にも取り組む予定である.問題テキストから形式表現への変換は,現在さかんに研究が進められているsemanticparsingの一例と見なすことも可能ではある.しかし,これまでのsemanticparsingのタスク設定では,翻訳の目的言語となる形式表現のセマンティクスがあらかじめ固定されているのに対し,物理問題の状況理解では目的言語を定める物理モデルの選択が形式表現への翻訳と一体になっている点が大きく異なる.これによって,物理問題の意味解析には,例えば「鉄球」という語に対し「質点」を表す表現を割り当てるのか,あるいは大きさを持つ剛体を表す表現を割り当てるのか,という訳語選択に当たるレベルの曖昧性解消だけでなく,「時刻$t$に車のサイレンが発した音波」といった表現から「気圧の周期変動の伝播」としての音波ではなく,音源から音波があたかも「物質のように」放出される音波モデルを選択すべきことを識別する,といったテキスト解析に基づく物理モデルの選択の問題が含まれる.また,現時点では,数値データとして出力されるシミュレーション結果を人手で解釈して解答しているが,最終的にはこの部分も自動化する必要がある.この部分は,センター試験形式の物理問題では,選択肢として与えられる式やグラフ,あるいは選択肢および本文における自然言語による状況記述と,物理的状況を表す数値データとの整合性ないし含意関係を判定する問題である.このうち,自然言語による記述と数値データを比較判定する問題は,問題の状況理解とほぼ裏表の関係にあり,例えば「止まる」「離れる」等々といった状況を表す語に対し数値(時系列)データに対する条件を結びつけた辞書を用いて,数値データと言語記述の整合性を判定する手法の開発を進めている\cite{YokonoNLP2013}.また,物理の問題には問題文とともに状況を示した図が添付されていることが多い.この中には,\ref{sec:butsuri:complicated}節で挙げたように,物体の形状が図でのみ与えられるなど,図の解釈が必須となる問題も存在するが,テキストで与えられた状況記述の曖昧性を除去する目的で図が添えられた問題も多数存在する.後者のタイプの問題に対しては,画像理解とテキスト理解を融合した状況理解の手法の開発とともに,言語理解に基づくシミュレーション結果がテキストでの記述と合致するか,など画像理解以外の手段でテキスト解釈を補う技術を開発することを試みている.
\section{世界史・日本史のエラー分析}
本節では,2014年度の代ゼミセンター模試に対し,狩野\cite{kano2014jsai}のシステムが出力した解答のエラー分析について報告する.本システムは,山川出版社の世界史または日本史の用語集を知識源とし,設問から抽出したキーワードが知識源の中でどのように分布しているかをスコアとして算出し,解答を選択する.具体的には,設問および知識源に対して以下の各処理を行い,解答の選択を行う\footnote{本システムは図表の処理は行っておらず,図表に対して人手でアノテーションされたテキストを利用して解答を行う.}.\begin{enumerate}\item問題文解析:問題文のテキストを前処理し,キーワード抽出を行う対象テキストを切り出す.一般に,設問は背景説明のテキストや導入文,実際に正誤判定の対象となる文など,複数のテキストから構成される.そこで,これらのテキストから後段の処理で必要となるテキスト箇所を抽出する必要がある.\itemキーワード抽出:前処理した問題文テキストから,スコア付けに用いるキーワードを抽出する.キーワードリストとして,Wikipediaの見出し語から自動抽出した語句を人手でクリーニングしたものを用い,単純なマッチングでキーワード抽出を行った.\item知識源検索:抽出したキーワードで知識源を検索し,キーワードに合致するテキストを得る.\itemスコア付け:キーワードと検索結果テキストとの一致度をスコア付けする.後述するように,センター試験では文の正誤を判定する問題が多い.誤りを含む文では,知識源のまとまった範囲内にキーワードが出現せず,別の場所に出現すると考えられる.したがって,検索結果テキストにキーワードが含まれない場合は,ペナルティとして負のスコアを与える.\item解答選択:文の正誤を判定するタイプの問題に対しては,スコアが大きいものを正しい文として解答を選択する.語句を解答するタイプの問題(いわゆるfactoid型質問応答に相当)に対しては,選択肢に挙げられた語句を問題文テキストに埋め込み,文の正誤判定問題に帰着して解答を行う.年代を解答する問題については,検索結果テキスト中の年代表現を抽出することで解答を行う.\end{enumerate}このシステムは,2013年度および2014年度の代ゼミ模試「世界史」・「日本史」において最も高い性能を示したものである.また,同システムは,センター試験の世界史過去問を用いた競争型ワークショップであるNTCIR-11QA-LabTask\cite{Shibuki2014}にも参加している\footnote{ただし,NTCIR-11QA-LabTaskでは用語集ではなく教科書を知識源として用いている.}.同ワークショップに参加した他のシステムにも本システムと同様にキーワードないし係り受け関係をクエリとした検索を基礎とするシステムが多数あった.これらのことから,本節で分析対象とするシステムは,分野特有の処理に依存しない,検索をベースとした汎用的なシステムとしては比較的高性能なものであると考えてよいだろう.\TABREF{tab:sekaishi:errors}に世界史,\TABREF{tab:nihonshi:errors}に日本史の問題タイプとエラー分析結果を示す.センター試験の世界史・日本史では,選択肢として与えられた文に対して正誤を判定するタイプの問題が大きな割合を占める(例えば図\ref{fig:problem_analysis_error}).語句や年代を解答するタイプの問題(例えば図\ref{fig:ontology_error})はいわゆるfactoid型質問応答に見えるが,知識源中の解答に関連する記述は多くの場合一つしか無く,大規模テキストを利用した解答のaggregationといった技術は利用できない.したがって,語句・年代と問題文との組合せの正誤を判定するタスクに帰着される.このように,知識源を的確に参照しつつ,文の正誤を判定するという処理は,上記のようにテキストの前処理,キーワード抽出,検索,スコア付け等,複合的な処理が必要であり,また各処理で高い精度が要求される.各処理は当然不完全なものであり,必ずしも排他的な関係にあるわけでもない.よって,最終的に誤答が出力された要因を単一の原因に帰着することは難しいため,\TABREF{tab:sekaishi:errors},\TABREF{tab:nihonshi:errors}では,複数の要因は別個にカウントしてエラーの分類を行った.\begin{table}[t]\caption{世界史の問題タイプと誤答の要因}\label{tab:sekaishi:errors}\input{05table21.txt}\end{table}\begin{table}[t]\caption{日本史の問題タイプと誤答の要因}\label{tab:nihonshi:errors}\input{05table22.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{23-1ia5f8.eps}\end{center}\caption{問題文解析の誤りの例}\label{fig:problem_analysis_error}\end{figure}「問題文解析」は,問題に解答するための情報が書かれた問題文テキストを切り出す処理に起因するエラーである.図\ref{fig:problem_analysis_error}に例を示す\footnote{問題例を挙げる際には,紙面の都合上,選択肢の一部のみ抜粋する.}.この問題では,問題文中に「ノモス」「王国」「古代エジプト」といったキーワードが現れるが,実はこれらの情報は選択肢の正誤判定には無関係である.つまり,選択肢の文のみを用いて正誤の判定を行うことができる.一方,問題によっては問題文中のキーワードが正誤判定に必要な場合や,さらに背景説明のテキストも参照する必要があることもある.次のエラー要因とも関連するが,どこまでのテキストをキーワード抽出の対象とすべきかは単純には決定できない.「キーワード抽出」は,当該問題を解くのに必要・不必要なキーワードを分別できていないことに起因するエラーである.図\ref{fig:keyword_extraction_error}に例を示す.この例では,2は誤った文であるが,「君」「直」などがキーワードとして認識されず,これらの語が知識源に現れなかったにも関わらずペナルティがかからなかったため,正しい文と判定されてしまった.これ以外にも,例えば「法制」「編集」といった一般語がその問題文中では重要なキーワードとなっているような場合や,逆に「アジア系」のような専門用語らしい語が知識源には明示的に書かれていないため,ペナルティがかかってしまった例がある.世界史・日本史の知識がある程度ある人間が読めば,重要なキーワードと重要ではない(知識源に明示的に書かれていなくても正誤判定には影響しない)キーワードがある程度区別できるが,これを実現するのは容易ではない.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f9.eps}\end{center}\caption{キーワード抽出の誤りの例}\label{fig:keyword_extraction_error}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f10.eps}\end{center}\caption{データベース・オントロジー的知識が利用できる例}\label{fig:ontology_error}\end{figure}「一般知識」は,解答のために必要な知識が明示的に知識源に記述されていないことに起因するエラーである.世界や日本の地理・時代に関する知識,一般常識に照らした判断,等が必要とされる.単純な例としては,図\ref{fig:ontology_error}のように,「岩宿遺跡」がどの時代の遺跡か,という知識を予め用意しておけば解答できるような問題もある.このような知識は必ずしも教科書・用語集に明示されているわけではないが,データベースなどの形式で整理しておくことは可能である.より困難な例を図\ref{fig:knowledge_error}に示す.この場合,知識源の文章を読めば,「北海道に水稲耕作は及ばず」が妥当であることが分かるが,この判断のためには農耕,狩猟,水稲といった概念の知識と,それらを対比して判定を行う処理が必要である.このように知識源の記述と設問の記述が直接一致しないケースは特に日本史の問題に多い.\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f11.eps}\end{center}\caption{一般知識が必要な例}\label{fig:knowledge_error}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f12.eps}\end{center}\caption{言語知識が必要な例}\label{fig:linguistic_knowledge_error}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia5f13.eps}\end{center}\caption{言語構造が必要な例}\label{fig:linguistic_structure_error}\end{figure}「言語知識」および「言語構造」は,自然言語処理技術の利用・高精度化により解決できる可能性のあるエラーである.前者は,例えば「解読」と「未解読」が反義語であるといった語彙知識や,「収穫した稲の脱穀」と「精穀具」のパラフレーズ関係など,言語知識を利用することで正答が得られる可能性があるものである.「解読」「未解読」のような例であれば,言語リソースの整備により解決できる可能性が高い.しかし,図\ref{fig:linguistic_knowledge_error}に示すような例はパラフレーズ認識あるいはテキスト間含意関係認識に相当するものもあり,必ずしも容易に解決できるものではない.後者は,係り受け解析,述語項構造解析,否定の解析などによって,文の意味の違いを認識することが必要とされるものである.典型的には,文章中に複数の命題が記述されている場合がある.図\ref{fig:linguistic_structure_error}に示す例では,正解は2であるが,4のキーワードも同一文章中に含まれているため,スコアが同率となり,最終的に誤った解答を選択してしまっている.この例は係り受けあるいは述語項構造が正確に得られれば正しい解答が得られると期待される.また,図\ref{fig:linguistic_knowledge_error}の例では,システムは2を選択したが,これは知識源には「田植えをした可能性も高まった.」と記述されており,否定やモダリティの正確な解析によって正答が得られる可能性がある.ただし,このような言語知識・言語解析は新たなエラー要因を持ち込むため,単純にこれらの技術を導入することでは全体の正答率が下がる可能性が高い.必要な場面で適切かつ正確に言語処理技術を利用する必要がある.最後に,2014年度代ゼミセンター模試「世界史B」36問について,システム出力と受験生の選択率一位の解答(「人間」)とを比較したクロス表を\TABREF{tab:shakai:cross:sekaishi}に示す.全体の問題数は少ないが,人間が正解・不正解だった問題グループそれぞれに対するシステムの解答は正解・不正解がおよそ半数ずつになっており,人間とシステムの正解分布は独立であることがうかがわれる.実際に,Fisherの正確確率検定を適用した結果は$p=0.68$であり,人間・システムの正解・不正解が独立であることは棄却されなかった.また,人間が不正解かつシステムが正解した3問(受験生の正答率はそれぞれ22.5\%,35.3\%,14.9\%)では,いずれもシステムは知識源から妥当なテキストを取得しており,単なる偶然ではなくシステムの性能が発揮された形で大多数の受験生が誤った問題に正解している.\begin{table}[t]\caption{人とシステムの正答傾向の比較(世界史)}\label{tab:shakai:cross:sekaishi}\input{05table23.txt}\end{table}\subsection{世界史・日本史:まとめと今後の課題}本節では,世界史・日本史の試験問題を対象に,狩野\cite{kano2014jsai}のシステムのエラー分析を行った.本システムは構文解析,意味解析等の自然言語処理を行わず,設問と知識源とのキーワードの一致をスコア付けする方式をとっている.自然言語処理の立場からは,より深い言語処理技術を利用することで正答率を上げるというアプローチが考えられるが,エラー分析の結果からは,それにより正答できる問題はそれほど多くなく,また精度が不十分な言語リソース・言語解析を導入することによる副作用も懸念される.一方,問題文の前処理やキーワード抽出に起因するエラーはまだ一定数残っており,これらは改善の余地があると考えられる.また,特に日本史では一般知識・常識や,知識源に直接記述されていない知識を統合的に利用する必要がある問題が見られる.これを解決することは容易ではないが,自然言語理解の興味深い未解決問題の一つと見ることもできる.
\section{おわりに}
本稿では大学入試センター試験形式の模試問題データを主たる対象として,英語・国語(現代文評論)・数学・物理・日本史・世界史の各科目に対する解答システムのエラーを分析した.本稿でエラー分析を行った問題タイプのうち,現時点でもっとも解答精度が高いのは,英語の「発音・アクセント」「文法・語法・語彙」「語句整除完成」「未知語(句)語義推測」であった.これらの問題タイプでは,辞書ベースの手法が非常に有効であった「発音・アクセント」を例外として,いずれも巨大なテキストデータを利用した手法(N-gram,word2vec)によって高い正答率を得ている.また,「発音・アクセント」の強勢の予測に関する問題を例外として,他3つの問題タイプでは,マルコフ仮定から大きく外れる文法的な依存関係に起因するエラーを構文解析を利用して解消する,低頻度語(句)は辞書の語釈文で置き換えた上で類似度を算出する,など,エラー傾向の分析によって,ある程度まで解決へ向けた方針が明らかになっている.これに対し,国語現代文(評論)の読解問題では,50\%程度の解答精度は実現できており,現在の技術レベルを大きく超えると思われるいくつかの問題タイプを特定することまではできているものの,解決可能性のあるエラータイプを言語現象と結びつけた形で類型化することは現在できていない.そのひとつの原因は,シンプルではあるが挙動の直観的把握が難しい,表層類似度に基づく手法を用いていることにある.予備校による模試と実際のセンター試験で,相性のよい手法が異なるといった発見もあったが,同様の理由でその原因の特定には至っていない.今後,本文の修辞構造の解析などと組み合わせ,手法を改善するにつれ,より詳細なエラー分析が可能になることが期待される.数学および物理では,これまで主として中間表現の設計および言語処理と数理的演繹システムとの接続部分に注力して研究を進めており,システム全体の自動化に関しては他科目に比べ遅れている.他のテキストドメインに比べ,はるかに明確な意味表示を持つと考えられる数学や物理においても,言語からの翻訳を考慮した中間的な意味表示の体系が,再利用可能な形で存在しなかったことは,これまでのNLP/AIにおける欠落といってよいだろう.中間表現の設計が物理に比べやや進んでいる数学に関しては,言語処理と演繹処理の接続に由来するエラーとして,表現の冗長性による計算量の爆発の問題があることを示し,分野融合的な解決が必要であることを述べた.日本史・世界史のエラー分析では,問題文および知識源テキストの言語解析や,分野知識・言語知識・一般的な知識など種々のタイプの知識の利用など,エラー要因あるいは改善へ向けた要素が多岐に渡ることを示した.また分析の結果から,現在のシステムで最も改善が有効であろうポイントとして,選択肢からのキーワード抽出および問題文の前処理を挙げた.いずれも本質的には歴史分野に関する一定の知識・理解を要する処理であり,ノイズを含む知識リソースの導入などによる新たなエラーの発生に関する懸念はあるものの,知識リソースや要素技術自体の改良と,それらの追加要素の,解答システムへの取捨選択的な導入が改良へ向けた唯一の方策だろう.いくつかの科目・問題タイプの解答システムの分析では,最も多数の受験生が選択した解答(以下,単に「人の解答」とよぶ)とシステムの出力との比較を行った.統計的検定の結果,システムと人の解答の正答・誤答の分布が独立であるという帰無仮説がほぼ棄却($p=0.06$)されたのは英語の語句整除完成問題に対してのみであった.予備調査として,自動的な解答システムの完成には至っていない数学・物理に関しても,演繹部の能力と中間表現の複雑さと正答率との関係を見るためにシステムの正解率と受験生の正答率の関係を調べた.しかし,現在のところ両者に特に顕著な関係は無いようであった.「人のように考える」システムあるいは「人のように間違える」システムはもとより我々の目標ではない.しかし,人とシステムにとっての難易の差について今後より詳細な分析を行うことで,システムの改良に関して,更なる知見が得られることが期待される.本稿で主として取り上げた問題タイプ,また今後の課題などとして簡単に触れた科目・問題タイプを通覧すると,まず,大きな傾向として漢字やアクセント・発音,文法問題など,個別的な言語知識に関する問題については人間の平均あるいはそれ以上の精度を達成しているものが多数ある一方で,英語・国語の長文読解に代表される総合的な能力を要する問題では良くても人間の平均レベルにとどまっていることが指摘できる.また,個別的な言語知識に関する問題以外では,数学・物理など,解答システムの開発スピードは遅いが,少なくとも現状問題となっている点について現象レベルの説明が可能である科目と,国語現代文(評論),世界史・日本史など,自動システムの完成までの開発は速かったが,エラー要因の類型化が難しい,あるいはエラー要因が多岐に渡る科目との対照が明らかである.これは科目ごとに各開発チームが最も有効であると判断した手法を選択した結果であり,形式的な演繹に基づく手法と表層的手がかりによる手法の比較にみられる一般的な傾向である.しかし,例えば行為結果文についての分析から示唆されるように,数学においても出現する構文パターンに大きな偏りがあるなど,表層的な手がかりに基づく手法が有効であろう側面も確かに存在する.逆に,分析結果から示されたように,世界史・日本史にも詳細な言語解析が有効に働くであろう設問も一定数存在する.今後,各科目ともより多角的なエラー分析と総合的な問題の把握を進める上では,点数・開発スピードでは最適といえずとも,現状のアプローチとは異なる手法による結果との比較分析が有効であることが示唆される.\acknowledgment本研究を推進するにあたって,大学入試センター試験問題のデータをご提供下さった独立行政法人大学入試センターおよび株式会社ジェイシー教育研究所に感謝いたします.また,模擬試験データおよび解答分布データをご提供下さった学校法人高宮学園に感謝いたします.また,日本史および世界史用語集の電子データをご提供くださった山川出版社に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\newcommand{\bibsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{新井}{新井}{2014}]{arai}新井紀子\BBOP2014\BBCP.\newblock\Jem{ロボットは東大に入れるか}.\newblockイースト・プレス.\bibitem[\protect\BCAY{戸次}{戸次}{2010}]{Bekki2010}戸次大介\BBOP2010\BBCP.\newblock\Jem{日本語文法の形式理論}.\newblockくろしお出版.\bibitem[\protect\BCAY{Caviness\BBA\Johnson}{Caviness\BBA\Johnson}{1998}]{qebook-e}Caviness,B.\BBACOMMA\\BBA\Johnson,J.\BEDS\\BBOP1998\BBCP.\newblock{\BemQuantifierEliminationandCylindricalAlgebraicDecomposition}.\newblockTextsandMonographsinSymbolicComputation.Springer-Verlag.\bibitem[\protect\BCAY{Forbus}{Forbus}{1984}]{forbus1984}Forbus,K.~D.\BBOP1984\BBCP.\newblock\BBOQQualitativeProcessTheory.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf24}(1-3),\mbox{\BPGS\85--168}.\bibitem[\protect\BCAY{船口}{船口}{1997}]{Funaguchi}船口明\BBOP1997\BBCP.\newblock\Jem{きめる!センター国語現代文}.\newblock学研教育出版.\bibitem[\protect\BCAY{Gubbins\BBA\Vlachos}{Gubbins\BBA\Vlachos}{2013}]{deplm}Gubbins,J.\BBACOMMA\\BBA\Vlachos,A.\BBOP2013\BBCP.\newblock\BBOQDependencyLanguageMmodelsforSentenceCompletion.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1405--1410}.\bibitem[\protect\BCAY{服部\JBA佐藤}{服部\JBA佐藤}{2013}]{Hattori2013}服部昇平\JBA佐藤理史\BBOP2013\BBCP.\newblock多段階戦略に基づくテキストの意味関係認識:RITE2タスクへの適用.\\newblock情報処理学会研究報告\2013-NL-211No.4/2013-SLP-96No.4,情報処理学会.\bibitem[\protect\BCAY{加納\JBA佐藤}{加納\JBA佐藤}{2014}]{Rainbow}加納隼人\JBA佐藤理史\BBOP2014\BBCP.\newblock日本語節境界検出プログラムRainbowの作成と評価.\\newblock\Jem{FIT2014講演論文集第2分冊},\mbox{\BPGS\215--216}.\bibitem[\protect\BCAY{東中\JBA杉山\JBA磯崎\JBA菊井\JBA堂坂\JBA平\JBA南}{東中\Jetal}{2015}]{eigo}東中竜一郎\JBA杉山弘晃\JBA磯崎秀樹\JBA菊井玄一郎\JBA堂坂浩二\JBA平博順\JBA南泰浩\BBOP2015\BBCP.\newblockセンター試験における英語問題の回答手法.\\newblock\Jem{言語処理学会第21回年次大会(NLP2015)}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{NTC2015}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{板野}{板野}{2010}]{Itano}板野博行\BBOP2010\BBCP.\newblock\Jem{ゴロゴ板野のセンター現代文解法パターン集}.\newblock星雲社.\bibitem[\protect\BCAY{Iwane,Yanami,Anai,\BBA\Yokoyama}{Iwaneet~al.}{2013}]{IwaneYAY13}Iwane,H.,Yanami,H.,Anai,H.,\BBA\Yokoyama,K.\BBOP2013\BBCP.\newblock\BBOQAnEffectiveImplementationofSymbolic-numericCylindricalAlgebraicDecompositionforQuantifierElimination.\BBCQ\\newblock{\BemTheoreticalComputerScience},{\Bbf479},\mbox{\BPGS\43--69}.\bibitem[\protect\BCAY{Jurafsky,Shriberg,\BBA\Biasca}{Jurafskyet~al.}{1997}]{Jurafsky:97}Jurafsky,D.,Shriberg,E.,\BBA\Biasca,D.\BBOP1997\BBCP.\newblock\BBOQSwitchboardSWBD-DAMSLShallow-Discourse-FunctionAnnotationCodersManual,Draft13.\BBCQ\\newblock\BTR\TechnicalReport97-02,UniversityofColorado,Boulder.InstituteofCognitiveScience.\bibitem[\protect\BCAY{神谷\JBA松崎\JBA佐藤}{神谷\Jetal}{2015}]{Kamiya2015}神谷翼\JBA松崎拓也\JBA佐藤理史\BBOP2015\BBCP.\newblock数学確率文章題の自動解答システムの開発.\\newblock\Jem{言語処理学会第21回年次大会(NLP2015)}.\bibitem[\protect\BCAY{狩野}{狩野}{2014}]{kano2014jsai}狩野芳伸\BBOP2014\BBCP.\newblock大学入試センター試験歴史科目の自動解答.\\newblock\Jem{2014年度人工知能学会全国大会(第28回)}.\bibitem[\protect\BCAY{加納\JBA佐藤\JBA松崎}{加納\Jetal}{2015}]{CLMethod}加納隼人\JBA佐藤理史\JBA松崎拓也\BBOP2015\BBCP.\newblock節境界検出を用いたセンター試験『国語』評論傍線部問題ソルバー.\\newblock情報処理学会研究報告\2015-NLP-220,情報処理学会.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{cabocha}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblockチャンキングの段階適用による日本語係り受け解析.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{Kushman,Artzi,Zettlemoyer,\BBA\Barzilay}{Kushmanet~al.}{2014}]{Kushman2014}Kushman,N.,Artzi,Y.,Zettlemoyer,L.,\BBA\Barzilay,R.\BBOP2014\BBCP.\newblock\BBOQLearningtoAutomaticallySolveAlgebraWordProblems.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\271--281}.\bibitem[\protect\BCAY{Li,Ran,Nguyen,Miyao,\BBA\Aizawa}{Liet~al.}{2013}]{CLEF13Li}Li,X.,Ran,T.,Nguyen,N.~L.,Miyao,Y.,\BBA\Aizawa,A.\BBOP2013\BBCP.\newblock\BBOQQuestionAnsweringSystemforEntranceExamsinQA4MRE.\BBCQ\\newblockIn{\BemCEURWorkshopProceedings:WorkingNotesforCLEF2013Conference},\lowercase{\BVOL}\1179.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{KisoNihongo}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\bibitem[\protect\BCAY{Matsuzaki,Iwane,Anai,\BBA\Arai}{Matsuzakiet~al.}{2013}]{Matsuzaki2013IJCNLP}Matsuzaki,T.,Iwane,H.,Anai,H.,\BBA\Arai,N.\BBOP2013\BBCP.\newblock\BBOQTheComplexityofMathProblems--Linguistic,orComputational?\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\73--81}.\bibitem[\protect\BCAY{Matsuzaki,Iwane,Anai,\BBA\Arai}{Matsuzakiet~al.}{2014}]{Matsuzaki2014AAAI}Matsuzaki,T.,Iwane,H.,Anai,H.,\BBA\Arai,N.~H.\BBOP2014\BBCP.\newblock\BBOQTheMostUncreativeExaminee:AFirstSteptowardWideCoverageNaturalLanguageMathProblemSolving.\BBCQ\\newblockIn{\BemProceedingsofthe28thAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\1098--1104}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov13}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems26},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Miyao\BBA\Kawazoe}{Miyao\BBA\Kawazoe}{2013}]{MiyaoKawazoe2013IJCNLP}Miyao,Y.\BBACOMMA\\BBA\Kawazoe,A.\BBOP2013\BBCP.\newblock\BBOQUniversityEntranceExaminationsasaBenchmarkResourceforNLP-basedProblemSolving.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1357--1365}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2005}]{Pang+Lee:05a}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2005\BBCP.\newblock\BBOQSeeingStars:ExploitingClassRelationshipsForSentimentCategorizationWithRespectToRatingScales.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\115--124}.\bibitem[\protect\BCAY{Pasupat\BBA\Liang}{Pasupat\BBA\Liang}{2015}]{pasupat2015compositional}Pasupat,P.\BBACOMMA\\BBA\Liang,P.\BBOP2015\BBCP.\newblock\BBOQCompositionalSemanticParsingonSemi-StructuredTables.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1470--1480}.\bibitem[\protect\BCAY{Pe{\~n}as,Hovy,Forner,Rodrigo,Sutcliffe,Forascu,\BBA\Sporleder}{Pe{\~n}aset~al.}{2011a}]{Penas2011a}Pe{\~n}as,A.,Hovy,E.,Forner,P.,Rodrigo,{\'A}.,Sutcliffe,R.,Forascu,C.,\BBA\Sporleder,C.\BBOP2011a\BBCP.\newblock\BBOQOverviewofQA4MREatCLEF2011:QuestionAnsweringforMachineReadingEvaluation.\BBCQ\\newblockIn{\BemCLEF2011LabsandWorkshopNotebookPapers},\mbox{\BPGS\19--22}.\bibitem[\protect\BCAY{Pe{\~n}as,Hovy,Forner,Rodrigo,Sutcliffe,Sporleder,Forascu,Benajiba,\BBA\Osenova}{Pe{\~n}aset~al.}{2011b}]{Penas2011b}Pe{\~n}as,A.,Hovy,E.,Forner,P.,Rodrigo,{\'A}.,Sutcliffe,R.,Sporleder,C.,Forascu,C.,Benajiba,Y.,\BBA\Osenova,P.\BBOP2011b\BBCP.\newblock\BBOQOverviewofQA4MREatCLEF2012:QuestionAnsweringforMachineReadingEvaluation.\BBCQ\\newblockIn{\BemCLEF2011LabsandWorkshopNotebookPapers},\mbox{\BPGS\303--320}.\bibitem[\protect\BCAY{佐藤\JBA加納\JBA西村\JBA駒谷}{佐藤\Jetal}{2014}]{BaseMethod}佐藤理史\JBA加納隼人\JBA西村翔平\JBA駒谷和範\BBOP2014\BBCP.\newblock表層類似度に基づくセンター試験『国語』現代文傍線部問題ソルバー.\\newblock\Jem{自然言語処理},{\Bbf21}(3),\mbox{\BPGS\465--483}.\bibitem[\protect\BCAY{Shibuki,Sakamoto,Kano,Mitamura,Ishioroshi,Itakura,Wang,Mori,\BBA\Kando}{Shibukiet~al.}{2014}]{Shibuki2014}Shibuki,H.,Sakamoto,K.,Kano,Y.,Mitamura,T.,Ishioroshi,M.,Itakura,K.~Y.,Wang,D.,Mori,T.,\BBA\Kando,N.\BBOP2014\BBCP.\newblock\BBOQOverviewoftheNTCIR-11QA-LabTask.\BBCQ\\newblockIn{\BemProceedingsofthe11thNTCIRConference},\mbox{\BPGS\518--529}.\bibitem[\protect\BCAY{Steedman}{Steedman}{2001}]{steedman2001syntactic}Steedman,M.\BBOP2001\BBCP.\newblock{\BemTheSyntacticProcess}.\newblockBradfordBooks.MitPress.\bibitem[\protect\BCAY{Watanabe,Miyao,Mizuno,Shibata,Kanayama,Lee,Lin,Shi,Mitamura,Kando,Shima,\BBA\Takeda}{Watanabeet~al.}{2013}]{RITE2}Watanabe,Y.,Miyao,Y.,Mizuno,J.,Shibata,T.,Kanayama,H.,Lee,C.-W.,Lin,C.-J.,Shi,S.,Mitamura,T.,Kando,N.,Shima,H.,\BBA\Takeda,K.\BBOP2013\BBCP.\newblock\BBOQOverviewoftheRecognizingInferenceinText(RITE-2)atNTCIR-10.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\385--404}.\bibitem[\protect\BCAY{横野\JBA稲邑}{横野\JBA稲邑}{2013}]{YokonoNLP2013}横野光\JBA稲邑哲也\BBOP2013\BBCP.\newblock物理問題解答に向けた物理量の変化に着目した動作表現の解釈.\\newblock\Jem{言語処理学会第19回年次大会発表論文集}.\bibitem[\protect\BCAY{横野\JBA稲邑}{横野\JBA稲邑}{2014}]{yokno2014}横野光\JBA稲邑哲也\BBOP2014\BBCP.\newblock論理演算と物理シミュレーションの結合による物理問題解答.\\newblock\Jem{2014年度人工知能学会全国大会}.\bibitem[\protect\BCAY{Zang,Wu,Meng,Jia,\BBA\Cai}{Zanget~al.}{2014}]{kyosei}Zang,X.,Wu,Z.,Meng,H.,Jia,J.,\BBA\Cai,L.\BBOP2014\BBCP.\newblock\BBOQUsingConditionalRandomFieldstoPredictFocusWordPairinSpontaneousSpokenEnglish.\BBCQ\\newblockIn{\Bem15thAnnualConferenceoftheInternationalSpeechCommunicationAssociation},\mbox{\BPGS\756--760}.\end{thebibliography}\begin{biography}\bioauthor{松崎拓也}{2002年東京大学工学部システム創成学科卒業.2007年同大大学院情報理工学系研究科にて博士号(情報理工学)取得.同大学助教,国立情報学研究所特任准教授を経て,2014年より名古屋大学大学院工学研究科准教授.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{横野光}{2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.同年東京工業大学精密工学研究所研究員,2011年国立情報学研究所特任研究員,2014年同研究所特任助教,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{宮尾祐介}{1998年東京大学理学部情報科学科卒業.2006年同大学大学院にて博士号(情報理工学)取得.2001年より同大学にて助手,のち助教.2010年より国立情報学研究所准教授.構文解析とその応用の研究に従事.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{川添愛}{1996年九州大学文学部文学科卒(言語学専攻).2002年九州大学大学院文学研究科博士課程単位取得退学,2005年同大学より博士(文学)取得.2002年より2008年まで国立情報学研究所研究員,2008年から2011年まで津田塾大学女性研究者支援センター特任准教授を経て,2012年より国立情報学研究所社会共有知研究センター特任准教授.人工知能学会会員.}\bioauthor{狩野芳伸}{2001年東京大学理学部物理学科卒業,2007年東京大学情報理工学系研究科博士課程単位取得退学.同研究科にて博士(情報理工学).同研究科特任研究員,科学技術振興機構さきがけ研究者等を経て,2014年より静岡大学情報学部准教授.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{加納隼人}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.現在,名古屋大学大学院工学研究科電子情報システム専攻在学中.}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.現在,本学会理事.}\bioauthor{東中竜一郎}{1999年慶應義塾大学環境情報学部卒業,2001年同大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所に所属.質問応答システム・音声対話システムの研究開発に従事.博士(学術).言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{杉山弘晃}{2007年東京大学工学部機械情報工学科卒業.2009年同大学院情報理工学系研究科知能機械情報学専攻修士課程修了.同年日本電信電話株式会社入社.現在,奈良先端科学技術大学院大学情報科学研究科博士後期課程在学中.人と自然な対話を行う雑談対話システムの研究に従事.}\bioauthor{磯崎秀樹}{1983年東京大学工学部計数工学科卒業.1986年同大学院修士課程修了.同年日本電信電話株式会社入社.2011年より岡山県立大学情報工学部教授.博士(工学).言語処理学会,ACM,情報処理学会,人工知能学会,電子情報通信学会各会員.}\bioauthor{菊井玄一郎}{1984年京都大学工学部電気工学科卒.1986年同大学大学院工学研究科修士課程電気工学第二専攻修了.同年日本電信電話株式会社入社,2011年より岡山県立大学情報工学部情報システム工学科教授.博士(情報学).現在,本学会理事.}\bioauthor{堂坂浩二}{1984年大阪大学基礎工学部情報工学科卒業.1986年同大大学院修士課程修了.同年日本電信電話株式会社入社.2012年より秋田県立大学システム科学技術学部教授.博士(情報科学).言語処理学会,人工知能学会,情報処理学会,ACM各会員.}\bioauthor{平博順}{1994年東京大学理学部卒業.1996年同大学院修士課程修了.同年日本電信電話株式会社入社.1996年NTTコミュニケーション科学研究所,2005年NTTデータ技術開発本部,2007年NTTコミュニケーション科学基礎研究所,2014年大阪工業大学情報科学部准教授.博士(工学).2013年言語処理学会優秀論文賞受賞.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{南泰浩}{1986年慶應大学理工学部電気工学科卒業.1991年同大学院博士課程修了.同年日本電信電話株式会社入社.2014年より電気通信大学大学院情報システム学研究科教授.博士(工学).言語処理学会,IEEE,情報処理学会,電子情報通信学会,音響学会各会員.}\bioauthor{新井紀子}{1984年イリノイ大学数学科卒業.1990年同大学院博士課程修了.1994年広島市立大学情報科学部助手.2001年国立情報学研究所情報基礎研究系助教授.2006年同情報社会相関系教授.2008年同社会共有知研究センター長.博士(理学),2010年文部科学省科学技術分野の文部科学大臣表彰.日本数学会,人工知能学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V22N02-02
|
\section{はじめに}
\label{section_intro}自然言語処理において,単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,用語の抽出であろう.この用語の定義としてよく知られているのは,人名や組織名,あるいは金額などを含む固有表現である.固有表現は,単語列とその種類の組であり,新聞等に記述される内容に対する検索等のために7種類(後に8種類となる)が定義されている\cite{Overview.of.MUC-7/MET-2,IREX:.IR.and.IE.Evaluation.Project.in.Japanese}.固有表現認識はある程度の量のタグ付与コーパスがあるとの条件の下,90\%程度の精度が実現できたとの報告が多数ある\cite{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition,Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data,Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}.しかしながら,自然言語処理によって自動認識したい用語は目的に依存する.実際,IREXにおいて固有表現の定義を確定する際もそのような議論があった\cite{固有表現定義の問題点}.例えば,ある企業がテキストマイニングを実施するときには,単に商品名というだけでなく,自社の商品と他社の商品を区別したいであろう.このように,自動認識したい用語の定義は目的に依存し,新聞からの情報抽出を想定した一般的な固有表現の定義は有用ではない.したがって,ある固有表現の定義に対して,タグ付与コーパスがない状態から90\%程度の精度をいかに手早く実現するかが重要である.昨今の言語処理は,機械学習に基づく手法が主流であり,様々な機械学習の手法が研究されている.他方で,学習データの構築も課題であり,その方法論やツールが研究されている\cite{自然言語処理特集号}.特に,新しい課題を解決する初期は学習データがほとんどなく,学習データの増量による精度向上が,機械学習の手法の改善による精度向上を大きく上回ることが多い.さらに,目的の固有表現の定義が最初から明確になっていることは稀で,タグ付与コーパスの作成を通して実例を観察することにより定義が明確になっていくのが現実的であろう.本論文では,この過程の実例を示し,ある固有表現の定義の下である程度高い精度の自動認識器を手早く構築するための知見について述べる.本論文で述べる固有表現は,以下の条件を満たすとする.\begin{description}\item[条件1]単語の一部だけが固有表現に含まれることはない.\\一般分野の固有表現では,「訪米」などのように,場所が単語内に含まれるとすることも考えられるが,本論文ではこのような例は,辞書の項目にそのことが書かれていると仮定する.\item[条件2]各単語は高々唯一の固有表現に含まれる.\\一般分野の固有表現では,入れ子を許容することも考えられる\cite{Nested.Named.Entity.Recognition,The.GENIA.Corpus:.an.Annotated.Research.Abstract.Corpus.in.Molecular.Biology.Domain}例えば,「アメリカ大統領」という表現は,全体が人物を表し「アメリカ」の箇所は組織名を表すと考えられる.自動認識を考えて広い方を採ることとする.\end{description}以上の条件は,品詞タグ付けに代表される単語を単位としたタグ付けの手法を容易に適用させるためのものである.その一方で,日本語や中国語のように単語分かち書きの必要な言語に対しては,あらかじめ単語分割のプロセスを経る必要があるという問題も生じるが,本論文では単語分割を議論の対象としないものとする.本論文では,題材を料理のレシピとし,さまざまな応用に重要と考えられる単語列を定義し,ある程度実用的な精度の自動認識を実現する方法について述べる.例えば,「フライ返し」という単語列には「フライ」という食材を表す単語が含まれるが,一般的に「フライ返し」は道具であり,「フライ返し」という単語列全体を道具として自動認識する必要がある.本論文ではこれらの単語列をレシピ用語と定義してタグ付与コーパスの構築を行い,上述した固有表現認識の手法に基づく自動認識を目指す.レシピ用語の想定する応用は以下の2つであり,関連研究(2.3節)で詳細を述べる.\begin{description}\item[応用1]フローグラフによる意味表現\\自然言語処理の大きな目標の一つは意味理解であると考えられる.一般の文書に対して意味を定義することは未だ試行すらほとんどない状況である.しかしながら,手続き文書に限れば,80年代にフローチャートで表現することが提案され,ルールベースの手法によるフローチャートへの自動変換が試みられている\cite{Control.Structures.for.Actions.in.Procedural.Texts.and.PT-Chart}.同様の取り組みをレシピに対してより重点的に行った研究もある\cite{料理テキスト教材における調理手順の構造化}.本論文で述べるレシピ用語の自動認識は,手順書のフローグラフ表現におけるノードの自動推定として用いることが可能である.\item[応用2]映像とのアラインメント\\近年,大量の写真や映像が一般のインターネットユーザーによって投稿されるようになり,その内容を自然言語で自動的に表現するという研究が行われている.その基礎研究として,映像と自然言語の自動対応付けの取り組みがある\cite{Translating.Video.Content.to.Natural.Language.Descriptions,Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}.これらの研究における自然言語処理部分は,主辞となっている名詞を抽出するなどの素朴なものである.本論文で述べるレシピ用語の自動認識器により,単語列として表現される様々な物体や動作を自動認識することができる.\end{description}これらの応用の先には,レシピの手順書としての構造を考慮し,調理時に適切な箇所を検索して提示を行う,より柔軟なレシピ検索\cite{Feature.Extraction.and.Summarization.of.Recipes.using.Flow.Graph}や,レシピの意味表現と進行中の調理動作の認識結果を用いた調理作業の教示\cite{Smart.Kitchen:.A.User.Centric.Cooking.Support.System}がより高い精度で実現できるであろう.本論文では,まずレシピ用語のアノテーション基準の策定の経緯について述べる.次に,実際のレシピテキストへのアノテーションの作業体制や環境,および作業者間の一致・不一致について述べる.最後に,作成したコーパスを用いて自動認識実験を行った結果を提示し,学習コーパスの大きさによる精度の変化や,一般固有表現認識に対して指摘されるカバレージの重要性を考慮したアノテーション戦略の可能性について議論する.本論文で対象とするレシピテキストはユーザ生成コンテンツ(UserGeneratedContents;UGC)であり,そのようなデータを対象とした実際のタグ定義ならびにアノテーション作業についての知見やレシピ用語の自動認識実験から得られた知見は,ネット上への書き込みに対する分析など様々な今日的な課題の解決の際に参考になると考えられる.
\section{関連研究}
\label{section_work}\ref{section_intro}節で述べたとおり,我々の提案するレシピ用語タグ付与コーパスは,レシピテキストが単語に分割されていることを前提としている.本節では,まずレシピテキストに対する自動単語分割の現状について述べる.次に,系列ラベリングによるレシピ用語の自動認識手法として用いる,一般的な固有表現認識手法について説明する.最後に,レシピ用語の自動認識結果の応用について述べる.\subsection{レシピテキストに対する自動単語分割}本論文で提案するレシピ用語タグ付与コーパスは,各文のレシピ用語の箇所が適切に単語に分割されていることを前提としている.したがって,コーパス作成に際しては,自動単語分割\mbox{(森,Neubig,坪井2011)}や形態素解析\cite{形態素解析システム「茶筌」,Conditional.Random.Fields.を用いた日本語形態素解析,日本語形態素解析システムJUMAN使用説明書.version.3.2}などを前処理として行い,レシピ用語の箇所のみを人手で修正することが必要となる.\nocite{点予測による単語分割}自動単語分割器や形態素解析器をレシピテキストに適用する際に問題となるのは,分野の特殊性に起因する解析精度の低下である.実際,文献\cite{自然言語処理における分野適応}では,『現代日本語書き言葉均衡コーパス』\cite{Balanced.corpus.of.contemporary.written.Japanese2}から学習した自動単語分割器によるレシピに対する単語分割精度が96.70\%であり,学習コーパスと同じ分野のテストコーパスに対する精度(99.32\%)よりも大きく低下することを報告している.この文献ではさらに,10時間の分野適応作業を行い,精度が97.05\%に向上したことを報告している.本論文で詳述するレシピ用語タグ付与コーパスの構築に際しては,レシピ用語となる箇所の単語境界付与も行うことになる\footnote{後述するIOB2タグは単語に付与されるため,適切な単語境界情報が前提となる.}.この作業を実際に行う際には,まず前処理としてレシピテキストに対する自動単語分割を行い,その後人手でレシピ用語となる箇所を確認しながらタグ付与を行っている.しかしながら,レシピ用語とならない箇所への単語境界情報付与はアノテーションコストの増加を避けるため行っていない.したがって,自動単語分割の学習コーパスとしては,文の一部(レシピ用語となる箇所)にのみ信頼できる単語境界情報が付与されており,レシピ用語以外の箇所においては信頼性の低い単語境界情報を持つ部分的単語分割コーパスとみなすことができる.部分的単語分割コーパスも学習コーパスとすることが可能な自動単語分割器(森他2011)を用いる場合は,我々のコーパスにより,自動単語分割の精度も向上すると考えられる.\subsection{固有表現認識}\label{rw_ner}一般分野の固有表現タグ付与コーパスとして,新聞等に人名や組織名などのタグを付与したコーパスがすでに構築されている\cite{Message.Understanding.Conference.-.6:.A.Brief.History,IREX:.IR.and.IE.Evaluation.Project.in.Japanese}.\ref{section_intro}~節で述べたように,本論文で述べる固有表現は単語列であり,コーパスに対するアノテーションでは,以下の例が示すようにIOB2方式\cite{Representing.Text.Chunks}を用いて各単語にタグが付与される.\begin{quote}99/Dat-B\年/Dat-I\3/Dat-I\月/Dat-Iカルロス/Per-B\ゴーン/Per-I\氏/Oが日産/Org-B\の/O\社長/O\に/O\就任/O\end{quote}ここで,Datは日付,Perは人名,Orgは組織名を意味し,それぞれに最初の単語であることを意味するB(Begin)や同一種の固有表現の継続を意味するI(Intermediate)が付与されている.さらに,O(Other)はいずれの固有表現でもないことを意味する.本論文では,各単語に付与されるタグをIOB2タグと呼ぶ.また,単語列に与えられる固有表現クラスを固有表現タグ(上の例ではDatやPerなど)と呼ぶこととする.したがって,IOB2タグの種類数は固有表現タグの2倍より1多い.これは本論文で取り扱うレシピ用語に関しても同様であり,それぞれをIOB2タグ・レシピ用語タグと記述する.自動固有表現認識は,系列ラベリングの問題として解かれることが多い\cite{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition,Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data,Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}.一般分野の固有表現認識に対しては,1万文程度の学習コーパスが利用可能な状況では,80\%〜90\%の精度が得られると報告されている.レシピの自然言語処理においては,これら一般的分野の固有表現タグセットは有用ではない.出現する人はほぼ調理者のみであり,人名や組織名は出現することはない.人工物のほとんどは,食材と道具であり,これらを区別する必要がある.数量表現としては,継続時間と割合を含む量の表現が重要である.さらに,一般分野における固有表現タグセットとの重要な差異として,調理者の行動や食材の挙動・変化を示す用言を区別・認識する必要\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}が挙げられる.このような分析から,我々はレシピ用語のタグセットを新たに設計した.レシピ用語の定義については,次節以降で詳述する.ただし,多くの固有表現抽出の研究を踏襲し,レシピ用語は互いに重複しないこととし,レシピ用語の自動認識の課題に対しては,一般的分野の固有表現認識と同様の手法を用いることが可能となるようにした.\subsection{レシピ用語の自動認識の応用}レシピを対象とした自然言語処理の研究は多岐にわたる.ここでは,我々のコーパスが貢献できるであろう取り組みに限定して述べる.山本ら\cite{食材調理法の習得順に関する一検討}は,大量のレシピに対して食材と調理動作の対を抽出し,調理動作の習得を考慮したレシピ推薦を提案している.この論文では,レシピテキストを形態素解析し,動詞を調理動作とし,予め用意した食材リストにマッチする名詞を食材としている.食材に対しては,複合語が考慮されており,直前が名詞の場合にはこれを連結する.この論文での食材と調理動作の表現の認識は非常に素朴であり,未知語の食材名に対応することができないことや,食材が主語となる動詞(レシピテキストに頻出)を調理動作と誤認するなどの問題点が指摘される.Hamadaら\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}は,レシピを木構造に自動変換することを提案している.変換処理の第一段階として,食材や調理動作の認識を行っている.しかしながら,認識手法は予め作成された辞書との照合であり,頑健性に乏しい.以上の先行研究では,いずれも,食材や調理動作等をあらかじめリストとして用意することで問題が生じていると考えられる.我々の提案するレシピ用語タグ付与コーパス,およびそれを学習データとして構築されるレシピ用語の自動認識器\footnote{http://plata.ar.media.kyoto-u.ac.jp/mori/research/topics/NER/にて公開・配布している.}は,その問題を解決しようとするものである.加えて,レシピ用語の自動認識には,これを実際に行っている調理映像とのマッチングなどの興味深い応用がある\footnote{調理映像とのマッチングのような応用においては,レシピ用語の自動認識だけでなく,レシピ用語同士の関係を自動認識する技術も必要となるが,本論文においては議論の対象としない.}\cite{料理映像の構造解析による調理手順との対応付け}.映像処理の観点からは,調理は制御された比較的狭い空間で行われるので,カメラなどの機材の設置が容易であり,作業者が1人であるため重要な事態はほぼ1箇所で進行し,比較的扱いやすいという利点がある.実際,映像処理の分野では,実際に調理を行っている映像を収録しアノテーションを行っている\cite{調理行動モデル化のための調理観測映像へのアノテーション}.あるレシピのレシピ用語の自動認識結果と当該レシピを実施している映像の認識結果とを合わせることで,映像中の食材や動作の名称の推定や,テキスト中の単語列に対応する映像中の領域の推定(図\ref{figure_0001}参照)を含む自然言語処理以外の分野にも波及する研究課題を実施する題材となる.さらに,本論文で詳述するコーパス作成に関する知見は,レシピ以外の分野の手順文章においても,映像との統合的処理や新たな機能を持つ検索などの実現の参考になると考えられる.\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f1.eps}\end{center}\caption{レシピテキストと調理映像のマッチング例}\label{figure_0001}\end{figure}
\section{レシピ用語タグセットの定義}
\label{nestd}\ref{rw_ner}節で述べたとおり,レシピテキストのように,新聞とは異なる利用目的をもつ言語資源を取り扱う場合,一般的な固有表現の定義は有用ではない.そこで我々はレシピを用いて調理を行う際に必要となるレシピ用語を分類,定義した.本節で述べるレシピ用語の一部は先行研究\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}で用いられていた表現分類を踏襲しているが,コーパス構築を行う過程で,先行研究における分類だけではカバーできないと判断したレシピ中の重要表現を新しく定義し,追加した.レシピ用語タグの一覧を表\ref{tab_NEtag}に示す.実際のコーパス構築においては各単語にIOB2タグ(\ref{rw_ner}節参照)を付与するという形でCOOKPAD\footnote{http://cookpad.com}が公開しているレシピの中から無作為抽出で選択した436レシピにアノテーションを行った.構築したコーパスの詳細を表\ref{table_corpus}に示す.なお,後述する評価実験ではコーパスを学習・テストに分割して実験を行うため,表~\ref{table_corpus}には分割後の詳細を示している.また,アノテーションを行ったコーパス中のレシピ用語タグ付与数の分布,ならびにタグごとの平均単語長と最大単語長を表\ref{tab_dist}に示す.以下では,8種類のレシピ用語タグについて個別に例を挙げながら述べる.なお,本節以降では簡単の為IOB2タグ形式を用いた表記ではなく,「例)/パイ生地/Fを/焼/Acく」のように,「/単語列/レシピ用語タグ名」の形式でレシピ用語タグの範囲を示し,例文を記述する.\begin{table}[t]\caption{レシピ用語タグ一覧}\label{tab_NEtag}\input{02table01.txt}\end{table}\begin{table}[t]\caption{レシピ用語タグ付与コーパス}\label{table_corpus}\input{02table02.txt}\end{table}\begin{table}[t]\caption{付与したレシピ用語タグの統計}\label{tab_dist}\input{02table03.txt}\end{table}\subsection{F:食材}レシピテキストにおいては調理対象である食材,ならびに調理を行うための道具が主な人工物として記述される.中でも食材は調理における動作の目的語,食材の変化や状態の遷移の主語となるため,レシピに記述された手続きの要素として過不足無く抽出されることが望ましい.また,レシピにおいては,中間食材や食材の集合を番号や記号・代名詞によって表現する事例が多い.以上を踏まえ,以下に挙げる単語列を『F:食材』と定義した.\begin{description}\item[食材]\mbox{}\\例){\bf/チーズ/F}\\例){\bf/ごま油/F}\item[中間食材]\mbox{}\\例){\bf/生地/F}\\例){\bf/サルサソース/F}\item[食材の一部]\mbox{}\\例){\bf/じゃがいも/F}の{\bf/皮/F}\\例){\bf/水分/F}を/切/Acる\item[調理の完成品]\mbox{}\\例){\bf/卵焼き/F}\\例){\bf/チーズケーキ/F}\item[記号・代名詞]\mbox{}\\例){\bf/1/F}を/フライパン/Tに/流し入れ/Acる\\例)お/鍋/Tの{\bf/中身/F}が/ぐつぐつ/Afしてきたら\item[商品名]\mbox{}\\例){\bf/とろけるチーズ/F}\\例){\bf/薄切りベーコン/F}\end{description}\subsection{T:道具}鍋,蓋,包丁,コンロなど,調理道具や器等を道具表現とする.手や指などの体の一部も道具表現になる場合がある.食せない,量が変化しない点以外は『F:食材』のルールを踏襲する.\quad\noindent例)/3分/D{\bf/レンジ/T}を/し/Acてからただし,「『T:道具』(する)」という表現は,後述する『Ac:調理者の動作』となりうる.この場合には,『Ac:調理者の動作』のアノテーションを優先する.\quad\noindent例)/3分/D/レンジ/Acする以下に示す「弱火」の例では「コンロ」「鍋」といった調理に必要な道具が明示されていないが,実際の調理ではそのような道具を用いて調理する意味を含んでいるため,道具とする.\quad\noindent例){\bf/弱火/T}で/煮/Acる以下の「水」や「手」も道具とする.\quad\noindent例){\bf/水/T}で/洗/Acって\quad\noindent例){\bf/手/T}で/洗/Acって\subsection{Ac:調理者の動作/Af:食材の変化}『Ac:調理者の動作』は調理者を主語にとって調理者が行う動作を示す用言であり,『Af:食材の変化』は『F:食材』を主語として食材の変化を示す用言である.『Ac:調理者の動作』と『Af:食材の変化』は異なるレシピ用語として定義されるが,アノテーションの際には両者を混同しやすい事例が頻出するため,本項でまとめて例を述べる.いずれも,同一性判定を容易にするために,活用語尾を含めない.動作を修飾する,「よく」「ざっくり」などの副詞表現も,同様の理由によりレシピ用語としない.調理者が行う動作を示す用言を『Ac:調理者の動作』とする.\quad\noindent例)/フライパン/Tを{\bf/温め/Ac}る『F:食材』を主語としてその変化を示す用言を『Af:食材の変化』とする.\quad\noindent例){\bf/沸騰/Af}し始めたら使役・否定の助動詞を伴う場合のみ,これらの助動詞語幹までを含めて『Ac:調理者の動作』とする.受動の助動詞を伴う場合,主語が『F:食材』であれば実際には調理者を主語として『F:食材』を対象とした調理行動を行っているとし,『使役,否定』の場合と同様に助動詞語幹までを含め『Ac:調理者の動作』とする.なお,本論文でタグ付与の対象としたレシピテキストにおいて『F:食材』を主語とした受動態の事例は確認されなかったため,以下では使役・否定の事例のみを挙げる.\quad\noindent例){\bf/沸騰させ/Ac}たら\quad\noindent例){\bf/沸騰しな/Af}いように目的語など格助詞で示される「項」を含めない.\quad\noindent例)/皮/Fを{\bf/む/Ac}いて複合動詞は全体を調理動作とする.\quad\noindent例){\bf/ふる/Ac}っておいた/薄力粉/Fを{\bf/振るいいれ/Ac}開始や完了などをあらわす補助的な動詞は含まない.\quad\noindent例){\bf/煮込/Ac}んでいく\quad\noindent例){\bf/煮た/Af}ってくる動詞派生名詞やサ変名詞などの事態性名詞も動作とする.\quad\noindent例)/ねぎ/Fを{\bf/みじん切り/Ac}する.\quad\noindent例)/ねぎ/Fを/みじん切り/Sfに{\bf/する/Ac}.『F:食材』で述べたように,商品名など,実際に行わない用言は『F:食材』に含める.\quad\noindent例)/とろけるチーズ/F\quad\noindent例){\bf/水溶き/Ac}/片栗粉/F\subsection{Sf:食材の様態}レシピテキストでは,調理の進行度合いや食材の変化を伝えるために個々の時点における食材の様態が記述される.『Ac:調理者の動作』や『Af:食材の変化』の影響によって食材が変化する(した)状態を表す表現を『Sf:食材の様態』とする.\quad\noindent例){\bf/柔らか/Sf}く/な/Afるまで/煮/Acる\quad\noindent例){\bf/色/Sf}が/変わ/Afる以下の例に示すように,『Sf:食材の様態』は,見た目,大きさ,分量などの様々な単語を含んでおり,一つのレシピ用語を構成する単語数が多くなりやすい.このため,\begin{itemize}\itemアノテーションを行う際に作業内容の一貫性を担保しにくい\item未知の『Sf:食材の様態』が多く出現する\end{itemize}という問題が発生する.この問題の詳細については3.8節で後述する.\quad\noindent例){\bf/やっと手を入れられるくらい/Sf}のお/湯/F\quad\noindent例)/にんじん/Fを{\bf/だいたい薄さ5mm/Sf}に/切/Acる\subsection{St:道具の様態}用意された道具様態の初期状態を表す表現,並びにAcやAfの影響で遷移する(した)状態を表す表現をStとする.\quad\noindent例){\bf/弱火/St}の/フライパン/Tで/炒め/Acる\quad\noindent例)/オーブン/Tを{\bf/150度/St}に/予熱/Acする『St:道具の様態』は,『T:道具』の例\quad\noindent例){\bf/弱火/T}で/煮/Acると混同しやすいが,文中で調理過程における道具が明示され,その道具の状態を示している表現を『St:道具の様態』と定義する.\subsection{D:継続時間}加熱時間や冷却時間など,加工の継続時間を示す.数字と単位のほか,それらに対する修飾語句も含める.\quad\noindent例){\bf/12〜15分間/D}/煮込/Acみます\quad\noindent例){\bf/5分くらい/D}\quad\noindent例){\bf/2日後くらい/D}が/食べ時/Afです!\subsection{Q:分量}食材の一部を用いた調理動作を行う場合,その一部が量として表される場合にその表現を『Q:分量』とする.数字と単位のほか,それらに対する修飾語句も含める.\quad\noindent例)/人参/F{\bf/3〜4cmくらい/Q}を/鍋/Tに/入れ/Ac\quad\noindent例)/酒/F{\bf/大さじ2/Q}を/加え/Ac\subsection{レシピ用語タグの付与が困難な事例}\label{dfne}1節で述べたように,本論文においてアノテーションの対象とするレシピテキストは推敲が乏しく,レシピとは関係のない内容も多く含まれる.このため,本節で述べたレシピ用語の定義を用いて実際にアノテーションを行うと,レシピ用語タグを付与するべきか否かの判断に迷う部分が出現する.とくに,タグ付与数の多いレシピ用語タグほど,レシピ用語となる表現のバリエーションも多く,その分アノテーション作業に時間を要すると考えられる(タグ付与数の分布は表\ref{tab_dist}を参照).以下では,レシピ用語タグを付与する際にアノテーションの困難であった事例を列挙し,現状でのアノテーション処理を述べる.\begin{itemize}\item入れ子:表\ref{tab_dist}の平均単語数と最大単語数からわかるとおり,『Sf:食材の様態』,『D:継続時間』,『St:道具の様態』,『Q:分量』は他のレシピ用語タグと比較して長い単語列となりやすく,以下の例のように入れ子構造が発生することがある.\quad\noindent例)/やっと/手/Tを入れられるくらい/Sfのお/湯/Fこのような場合は,より長い単語列のレシピ用語タグ(上述した例では『Sf:食材の様態』)を優先し,アノテーションを行う.\item調理と関係のない記述:食事の感想など,調理とは直接関係の無い記述に調理に関連する表現が出現することがある.例えば,レシピ中に出現する用言のほとんどは『Ac:調理者の動作』もしくは『Af:食材の変化』であるが,上述した理由によりそれ以外の用言も存在する.これらの表現にはレシピの検索や構造の把握といった応用においては優先度が低く,また作業者への負担が大きくなるため,すべてOタグを付与する.また人名や地域名といった,調理とは直接関係のない固有名詞に関しては,本節で述べた各レシピ用語タグの付与対象となる単語列の一部となっていない限りOタグを付与する.\item他のレシピIDの参照:まれに他のレシピIDを参照して調理手順や材料を示す事例が見られるが,これらのレシピIDにはOタグを付与し,1つのレシピのみでアノテーション作業を完結させる.\item記述内容の一部だけが実際の調理に対応付けられる:「〜ならば,〜する」,「〜する(または〜する)」といった仮定表現や括弧表現などには,実際に行われない調理行動を含めた表現が複数レシピに記述されることがある.この場合は,実際に行われる調理行動は不明であり,また,一般的な固有表現認識の手法ではそれらを区別することはできない.このような事例では,すべての表現にレシピ用語タグを付与する.\quad\noindent例)/フライパン/Tに/グレープシードル/F(または/オリーブオイル/F)をひいて\end{itemize}
\section{レシピ用語の自動認識}
固有表現認識タスクは,各単語に対してIOB2タグを推定する,系列ラベリング問題として解くことが一般的であり,SVMや点予測などを用いた手法が提案されている\cite{Support.Vector.Machineを用いた日本語固有表現抽出,A.Machine.Learning.Approach.to.Recipe.Text.Processing}.本節では,点予測によるIOB2タグ推定と動的計画法による経路探索による手法\cite{A.Machine.Learning.Approach.to.Recipe.Text.Processing}を用いてレシピ用語の自動認識実験を行い,作成したコーパスの精度を評価する.また,学習コーパスに現れない未知のレシピ用語の推定事例についての事例を示し,議論する.本実験のための学習コーパスならびにテストコーパスとして,\ref{nestd}節で述べたレシピ用語タグ付与コーパスを用いる(表\ref{table_corpus}参照).\subsection{レシピ用語の自動認識と精度評価}\label{neexp}本節では点予測によるレシピ用語の自動認識手法\cite{A.Machine.Learning.Approach.to.Recipe.Text.Processing}について概説し,自動認識実験の結果と考察を述べる.まず,IOB2タグの付与された学習コーパスを用いてロジスティック回帰に基づく識別器\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classification}を構築し,テストコーパスの各単語$w_i$に対応するIOB2タグ$t_{j}$ごとの確率$s_{i,j}$を以下の式により推定する.\[s_{i,j}=P_{LR}(t_{j}|\Bdma{x}^{-},w_i,\Bdma{x}^{+}).\]$\Bdma{x}^{-}=\cdotsx^{-2}x^{-1},\Bdma{x}^{+}=x^{+1}x^{+2}\cdots$はそれぞれ単語$w_i$の前後の文字列を示す.本論文で用いるロジスティック回帰識別器の素性の一覧を\tabref{feat_lr}に示す.表中の$c(x)$は$x$に対応する文字種(漢字,平仮名,片仮名,数字,アルファベット,記号)を得る関数である.次に,IOB2タグを用いた固有表現はIタグから始まらない等のタグ制約を適用しながら,各単語までの経路の中で確率最大となるようにIOB2タグを順に選んでいくことで最適経路を決定し,自動認識器の最終的な出力とする(図\ref{figure:NE}参照).\begin{table}[b]\caption{ロジスティック回帰に基づく識別器の素性一覧}\label{feat_lr}\input{02table04.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{22-2ia2f2.eps}\end{center}\caption{ロジスティック回帰によるタグ確率付与と最適経路(太字部分)の探索図}\label{figure:NE}\end{figure}\begin{table}[b]\caption{IOB2タグ推定精度とレシピ用語タグの自動認識精度とカバレージ}\label{table_exp_result}\input{02table05.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f3.eps}\end{center}\caption{レシピ用語タグごとのカバレージ}\label{graph_exp_cov}\end{figure}学習コーパスの量を5段階に調節して自動認識実験を行った結果を表\ref{table_exp_result}に示す.また,レシピ用語タグ別の評価として,各タグごとのカバレージを図\ref{graph_exp_cov}に,自動認識精度(F値)を図\ref{graph_exp_all}に示す.ここで,表\ref{table_exp_result},図\ref{graph_exp_cov},図\ref{graph_exp_all}におけるカバレージは,テストコーパスに出現するIOB2タグあるいはレシピ用語タグのうち,学習コーパスにも出現したタグの割合(頻度を加味する.)である.また,表\ref{table_exp_result}におけるIOB2タグ推定精度は,テストコーパス中のIOB2タグに対する,自動認識システムが出力したIOB2タグの一致率を示し,レシピ用語タグの自動認識精度はF値を示している.表\ref{table_exp_result}から,一般分野の固有表現認識と同様に,学習コーパスの増加に伴い自動認識精度が向上していることが分かる.また,学習コーパスの分量が少量の状態で,学習コーパスのテストセットカバレージが50\%程度の場合であっても,自動認識精度は70\%以上の水準を達成しており,レシピ用語タグ付与コーパスを用いた固有表現認識手法が有効に機能していることがわかる.特に,『D:継続時間』に関しては,図\ref{graph_exp_cov}と図\ref{graph_exp_all}の該当タグ部分より,10\%程度の低いカバー率しか達成できていない学習コーパスを利用した場合においても70\%以上の自動認識精度を達成可能であることがわかる.この要因として,『D:継続時間』が数詞と単位からなる単語列に付与されるレシピ用語タグであるために,文字並びに文字種を素性とした固有表現認識が効果的に機能していることが考えられる.\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f4.eps}\end{center}\caption{レシピ用語タグごとの自動認識精度}\label{graph_exp_all}\end{figure}次に,図\ref{graph_exp_all}から,『F:食材』,『T:道具』,『Ac:調理者の動作』,『Af:食材の変化』,の4種類のタグについては,一般分野の固有表現認識精度(1万文程度の学習コーパスで80\%〜90\%)と同程度であり,すでに比較的高い精度が達成されていることがわかる.『Sf:食材の様態』に関しては,『T:道具』と同程度のアノテーション数があるにも関わらず精度は70\%程度にとどまっている.この要因として,『Sf:食材の様態』には機能語や別のレシピ用語タグの一部がしばしば含まれており,長い単語列となっている(\ref{dfne}節を参照)ことが自動認識を困難にしているということが考えられる.『St:道具の様態』,『D:継続時間』,『Q:分量』については,『D:継続時間』のみ90\%を超えているが,他の2種類に関しては60\%〜70\%の精度である.また,表\ref{tab_NEtag}から,上述した3種類のタグは他のタグに比較して学習コーパス中のアノテーション数が不十分であることがわかる.今後は,これらのタグに対するアノテーションを増加させることで容易に精度を向上させることが可能であろう.また,レシピ以外の分野における固有表現認識タスクにおいても,本実験で示したようにタグごとの検討を行って優先的にアノテーションするべきタグを選択し,効率的に固有表現認識器を構築することが可能である.\subsection{未知のレシピ用語タグの推定事例}\label{est_unk}本節では,上述のレシピ用語の自動認識実験において,テストセットにおける未知のレシピ用語に対し,正しくタグが推定されているかどうかについて,その事例を示し,議論する.以下に示す自動推定結果の例では,学習セットに現れなかった未知のレシピ用語を太字で示す.\begin{itemize}\item未知の『Sf:食材の様態』が出現する場合,ニ格を伴う場合や食材の切り方を示す場合には,識別器によって適切にタグ推定が行われている.\quad\noindent例){\bf/サイコロ切り/Sf}にする/Ac.その一方で,\ref{dfne}節で述べた『Sf:食材の様態』のような長い単語列となるレシピ用語タグの自動推定精度は下がる傾向にある.以下の例において,正しい『Sf:食材の様態』の範囲は「1〜2mm位」であるが,自動推定では「1〜2」と誤って推定されている.\quad\noindent例){\bf/1〜2/Sf}mm位で.テストセットでは現れなかったが,\ref{dfne}節に示したようにさらに長い単語列を『Sf:食材の様態』とする場合もあるため,『Sf:食材の様態』の自動推定は他のレシピ用語タグに比較して困難になると考えられる.\item『Ac:調理者の動作』に関しては,以下の例のように1文中において複数の単語が連続でAcと推定される事例(「所々」はAcではないため,誤り)が見られた.\quad\noindent例)皮/Fを{\bf/所々/Ac}/剥/Acきレシピテキストにおいては,「『F:食材』を『Ac:調理者の動作』」という表現が多く出現することが原因であると考えられるが,レシピの構造を把握するなどの応用を考えると,誤った『Ac:調理者の動作』が増加することは応用全体の精度低下につながるため,品詞情報を識別器の素性に加えるなどの対策が必要になると考えられる.\end{itemize}
\section{実際のアノテーション作業とその考察}
\label{section_annotation}本節では,実際にコーパスを作成した過程で得られた知見として,まずコーパスのアノテーション手順について述べる.次に,レシピ用語の自動認識器の精度を効率的に向上させるためのアノテーション戦略のシミュレーションについて述べる.\subsection{アノテーション手順}\label{annotation_proc}大量のレシピテキストに対して研究者がレシピ用語タグを付与することは事実上不可能であるため,まずアノテーション基準を決めた上で作業者にアノテーションを行ってもらうことが一般的である.しかしながら,\ref{dfne}節で述べた通り,レシピ用語タグによっては付与が困難な事例が存在するため,適切な手順を用いて効率的に作業を行う必要がある.本節では,\ref{nestd}節で述べたレシピ用語タグの基準に従い,作業者を含めた全体として効率的なアノテーションを行うための手順を述べる.また,管理者と作業者の作業一致率を測ることによりその有効性を評価する.本研究におけるレシピ用語アノテーションの作業にあたっては,図\ref{figure_0002}のような固有表現アノテーションツール\footnote{http://plata.ar.media.kyoto-u.ac.jp/mori/research/topics/PNAT/にて公開している.}を利用し,各単語にIOB2タグの付与を行った\footnote{なお,図\ref{figure_0002}に示したツールは,品詞・係り受け情報を付与する機能も備えているが,本論文におけるコーパス作成では用いておらず,図\ref{figure_0002}中の品詞・係り受け情報は自動推定による結果をそのまま表示している.}.図\ref{figure_0002}では,「鍋を熱して…」の「熱」という動詞に,『Ac:調理者の動作』の開始タグである「Ac-B」を割り当てている.\begin{figure}[b]\begin{center}\includegraphics{22-2ia2f5.eps}\end{center}\caption{固有表現アノテーションツール}\label{figure_0002}\end{figure}アノテーション作業の管理手順は以下のとおりである.\begin{enumerate}\item管理者がレシピ用語の定義(\ref{nestd}節参照)を作成する.本研究においては,管理者1名(筆者)と研究者3人を合わせた4人で議論を行い,レシピ用語の定義を作成した.\item管理者が実際にレシピ用語の定義に従ってアノテーションを行い,サンプルデータを作成する.\item作業者にレシピ用語の定義とサンプルを渡し,一定時間\footnote{具体的な期間は管理者ならびに作業者の都合に準ずるが,本手順では一日分の作業を一単位とした.}のアノテーション作業を行ってもらう.\item管理者は作業者のアノテーション結果に対するチェックを行う.この際,作業者の作業結果と管理者がさらに修正を加えたアノテーション結果の間で作業一致率を測る.管理者は必要に応じて作業者にアノテーション基準に関するコメントを返し,レシピ用語の定義並びにサンプルの修正・更新を行う.\item(3),(4)を繰り返す.\end{enumerate}本論文を執筆するにあたり,作業者にアノテーションを依頼したコーパスの一部(\ref{nestd}節の表~\ref{table_corpus}で示した436レシピのうち,初めにアノテーションを行った40レシピ)を対象として,上述した手順に従って4日間(1回$\times$4日)のアノテーション作業管理を行い,管理者1名(筆者)と作業者1名との作業一致率を測った.この際,作業者は管理者と同様に,全ての種類のタグに関するアノテーションを担当した.作業一致率[\%]は,\[\frac{\mbox{作業者と管理者の付与したIOB2タグの一致数}}{単語数}\times100\]で求められる.\begin{table}[b]\caption{IOB2タグ付与の作業一致率}\label{table_conc}\input{02table06.txt}\vspace{-0.5\Cvs}\end{table}結果を表\ref{table_conc}に示す.また,表\ref{table_conc}のうち,4日目の作業におけるIOB2タグごとの作業一致率を表\ref{tab_conc_tag}に示す.表\ref{table_conc}より,上述した手順に従うことで管理者・作業者間の作業一致率が向上し,最終的にIOB2タグの自動認識精度(表\ref{table_exp_result}参照)を有意に上回ることがわかる.また,表\ref{tab_conc_tag}より,4日目には事例の少ないSt-B,St-Iを除く全てのIOB2タグにおいて作業一致率が91\%以上となっていることがわかる.以上の結果より,作業者にアノテーションを任せることで自動認識の精度向上を図ることが可能であることを確認した.\begin{table}[t]\caption{IOB2タグごとの作業一致率(4日目)}\label{tab_conc_tag}\input{02table07.txt}\end{table}\subsection{効率的な精度向上を目的としたアノテーション作業のシミュレーション}前項で述べたアノテーション基準の確定の過程の結果,少量ながらレシピ用語のアノテーションがなされたコーパスが得られる.\ref{section_intro}節で述べたような応用を考えると,短期間での自動認識精度の向上が重要である.一般分野の固有表現の自動認識においては,人名・組織名・地名のような固有表現のカバレージを上げることで高い精度を達成することが可能である\cite{Japanese.Named.Entity.Extraction.Evaluation.-.Analysis.of.Results.-}.これは,レシピ用語の自動認識においても同様であろうと推測される.本節では,カバレージを重視した簡単なアノテーション戦略について,シミュレーションの結果とともに議論する.なお,レシピテキストを対象とした実際のアノテーションでは,単語分割境界ならびにレシピ用語となる単語列の範囲を決定してからタグを付与する必要があるが,本節で述べるシミュレーションには上述の2種類の情報があらかじめ付与されている状態のコーパスを用いているため,実際のアノテーション作業にそのまま適用できるものではない.カバレージを重視すると,新しいレシピ用語に集中的にアノテーションすることになる.結果として,文中の一部のレシピ用語にのみアノテーションされた部分的アノテーションコーパス\cite{Word-based.Partial.Annotation.for.Efficient.Corpus.Construction}が得られる.逆に,アノテーション基準の確定の過程で得られるコーパスは,文中の全てのレシピ用語にアノテーションされたフルアノテーションコーパスである.カバレージを重視した簡単なアノテーション戦略と通常のアノテーション方法を比較するために,次のようなシミュレーションを行った.まず,我々の作成したレシピ用語タグ付与コーパス(表\ref{table_corpus}参照)のうち,学習コーパスを$C_f$と$C_a$に2等分し,$C_f$を既に作成済みのフルアノテーションコーパス,$C_a$をこれからアノテーションを行う単語分割済みコーパスとみなす.ここで,$C_f$はレシピ用語タグの定義を確定する際に得られる少量のフルアノテーションコーパスを,$C_a$はカバレージを優先してアノテーションを行う追加用コーパスを想定している.本実験では$C_a$に対して,以下に示す2種類の方法でコーパスアノテーションのシミュレーションを行う.$C_f$と$C_a$の一部を合わせたものを学習コーパスとしてレシピ用語の自動認識精度を測った.\begin{description}\item[Full:]$C_a$に対して先頭から順に全ての単語に対してIOB2タグのアノテーションを行うと想定する.具体的には,$C_a$を10分割し,$C_f$に$C_a$の$k/10$$(k=0,1,\cdots,10)$を追加したものを学習コーパスとする.\item[Part:]カバレージを重視したアノテーション戦略として,各レシピ用語が$C_f$と$C_a$の合計において$A_{max}\in\{0,1,2,5,10,20,50,\infty\}$回アノテーションされるように$C_a$を先頭から部分的にアノテーションする.ただし出現頻度が$A_{max}$未満のレシピ用語に対しては,すべての出現箇所に対してアノテーションする.この結果得られる$C_a$を$C_f$に追加したものを学習コーパスとする.$A_{max}=1$であれば,最少のアノテーション数で,手法{\bfFull}で$C_a$をすべてアノテーションした場合($k=10$)とレシピ用語のカバレージが等しくなる.\end{description}なお,手法{\bfPart}における$A_{max}=0$と手法{\bfFull}の追加コーパスが0/10の状態は同じものであり,どちらも追加コーパスの無い状態である(つまり$C_f$のみ).また,手法{\bfPart}における$A_{max}=\infty$のときは手法{\bfFull}において追加コーパスが10/10の状態と同じであり,どちらも$C_a$の全ての単語にアノテーションを行ったものを追加コーパスとする状態である.ここでのシミュレーションでは,$C_a$が人手によりフルアノテーションされているので非常に少量であるが,実際にアノテーションを行う状況では$C_a$は利用可能な全ての生のレシピテキストであり,非常に大きい.つまり,手法{\bfFull}における10/10の追加コーパスを作成することは現実的ではないことに留意されたい.本実験の結果を図\ref{figure_partgraph}に示す.図\ref{figure_partgraph}における横軸は各手法におけるIOB2タグのアノテーション回数を示しており,これはアノテーションにおける作業時間を想定したものである.しかしながら,実際のアノテーションにおいては,アノテーション箇所ごとの判断の難しさの違い,\ref{annotation_proc}節で示した各アノテーション手順ごとの所要時間,などの要因により,必ずしも正確な作業時間を反映しているものではないことに留意されたい.図\ref{figure_partgraph}から,手法{\bfFull}の1/10と2/10は不安定(1/10から2/10に増量すると精度が低下している)ではあるが,全体の傾向からカバレージを最重要に考えて,各レシピ用語について1回のアノテーションを行う場合は,{\bfPart}の$A_{max}=1$と大差はない.しかし,手法{\bfPart}において$A_{max}\geq2$とした場合に,手法{\bfFull}において同じ単語数のアノテーションをする場合に比較してより高い精度が得られることがわかる.つまり,数回の出現に対してアノテーションすることで多様な出現文脈が学習できるようにしつつ,高いカバレージを確保するアノテーション戦略が自動認識の精度向上には有効であると期待される.\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f6.eps}\end{center}\caption{カバレージを重視したアノテーションのシミュレーション}\label{figure_partgraph}\end{figure}実際のアノテーションにおいては,上述の通り$C_a$のサイズは非常に大きいため,この差はより顕著になるであろう.さらに,上述の「簡単な戦略」はアノテーション戦略のシミュレーションに過ぎない.本論文でのスコープ外ではあるが,能動学習等に基づくより効率的なアノテーション戦略が存在すると考えられる.基準が確定した後の精度向上においては,アノテーション作業を考慮に入れた効率的なアノテーション戦略の研究が重要である.
\section{おわりに}
本論文では,レシピテキストを対象としたレシピ用語タグの定義について述べた.この定義にしたがって,実際にアノテーションを行い,定義が十分であることを確かめた.また,作成したコーパスを用いてレシピ用語の自動認識実験を行い,認識精度を測定した.自動認識の精度は十分高く,作成したコーパスは\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}や\cite{Translating.Video.Content.to.Natural.Language.Descriptions,Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}などのレシピテキストを対象とする応用の精度向上に有用であると考えられる.さらに,人手によるアノテーションの過程で出現した判断の難しい事例や,自動認識の結果得られる学習データに含まれない事例を観察し,提案するレシピ用語の定義についての議論を行った.加えて,実際のアノテーション作業についても説明し,カバレージを重視した単純な戦略で部分的アノテーションコーパスのシミュレーションを行った.今後の課題として,能動学習等に基づくより効率的なアノテーションを行うことが挙げられる.\acknowledgment本研究の一部はJSPS科研費26280084,24240030,26280039の助成を受けて実施した.ここに謝意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Borthwick}{Borthwick}{1999}]{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition}Borthwick,A.\BBOP1999\BBCP.\newblock{\BemAMaximumEntropyApproachtoNamedEntityRecognition}.\newblockPh.D.\thesis,NewYorkUniversity.\bibitem[\protect\BCAY{Chinchor}{Chinchor}{1998}]{Overview.of.MUC-7/MET-2}Chinchor,N.~A.\BBOP1998\BBCP.\newblock\BBOQOverviewofMUC-7/MET-2.\BBCQ\\newblockIn{\BemProceedingsofthe7thMessageUnderstandingConference}.\bibitem[\protect\BCAY{江里口}{江里口}{1999}]{固有表現定義の問題点}江里口善生\BBOP1999\BBCP.\newblock固有表現定義の問題点.\\newblock\Jem{IREXワークショップ予稿集},\mbox{\BPGS\125--128}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{LIBLINEAR:.A.Library.for.Large.Linear.Classification}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQ{LIBLINEAR}:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Finkel\BBA\Manning}{Finkel\BBA\Manning}{2009}]{Nested.Named.Entity.Recognition}Finkel,J.~R.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2009\BBCP.\newblock\BBOQNestedNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\141--150}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{Message.Understanding.Conference.-.6:.A.Brief.History}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQMessageUnderstandingConference-6:ABriefHistory.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Hamada,Ide,Sakai,\BBA\Tanaka}{Hamadaet~al.}{2000}]{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}Hamada,R.,Ide,I.,Sakai,S.,\BBA\Tanaka,H.\BBOP2000\BBCP.\newblock\BBOQStructuralAnalysisofCookingPreparationStepsinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponInformationRetrievalwithAsianLanguages},\mbox{\BPGS\157--164}.\bibitem[\protect\BCAY{浜田\JBA井手\JBA坂井\JBA田中}{浜田\Jetal}{2002}]{料理テキスト教材における調理手順の構造化}浜田玲子\JBA井手一郎\JBA坂井修一\JBA田中英彦\BBOP2002\BBCP.\newblock料理テキスト教材における調理手順の構造化.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ85-DII}(1),\mbox{\BPGS\79--89}.\bibitem[\protect\BCAY{Hashimoto,Mori,Funatomi,Yamakata,Kakusho,\BBA\Minoh}{Hashimotoet~al.}{2008}]{Smart.Kitchen:.A.User.Centric.Cooking.Support.System}Hashimoto,A.,Mori,N.,Funatomi,T.,Yamakata,Y.,Kakusho,K.,\BBA\Minoh,M.\BBOP2008\BBCP.\newblock\BBOQSmartKitchen:AUserCentricCookingSupportSystem.\BBCQ\\newblockIn{\BemProceedingsofthe12thInformationProcessingandManagementofUncertaintyinKnowledge-BasedSystems},\mbox{\BPGS\848--854}.\bibitem[\protect\BCAY{橋本\JBA大岩\JBA舩冨\JBA上田\JBA角所\JBA美濃}{橋本\Jetal}{2009}]{調理行動モデル化のための調理観測映像へのアノテーション}橋本敦史\JBA大岩美野\JBA舩冨卓哉\JBA上田真由美\JBA角所考\JBA美濃導彦\BBOP2009\BBCP.\newblock調理行動モデル化のための調理観測映像へのアノテーション.\\newblock\Jem{第1回データ工学と情報マネジメントに関するフォーラム}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblockConditionalRandomFieldsを用いた日本語形態素解析.\\newblock\Jem{情報処理学会研究報告,\textbf{NL161}}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thICML}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Balanced.corpus.of.contemporary.written.Japanese2}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{松本}{松本}{1996}]{形態素解析システム「茶筌」}松本裕治\BBOP1996\BBCP.\newblock形態素解析システム「茶筌」.\\newblock\Jem{情報処理},{\Bbf41}(11),\mbox{\BPGS\1208--1214}.\bibitem[\protect\BCAY{松本\JBA黒橋\JBA山地\JBA妙木\JBA長尾}{松本\Jetal}{1997}]{日本語形態素解析システムJUMAN使用説明書.version.3.2}松本裕治\JBA黒橋禎夫\JBA山地治\JBA妙木裕\JBA長尾真\BBOP1997\BBCP.\newblock\Jem{日本語形態素解析システムJUMAN使用説明書version3.2}.\newblock京都大学工学部長尾研究室.\bibitem[\protect\BCAY{三浦\JBA高野\JBA浜田\JBA井手\JBA坂井\JBA田中}{三浦\Jetal}{2003}]{料理映像の構造解析による調理手順との対応付け}三浦宏一\JBA高野求\JBA浜田玲子\JBA井手一郎\JBA坂井修一\JBA田中英彦\BBOP2003\BBCP.\newblock料理映像の構造解析による調理手順との対応付け.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ86-DII}(11),\mbox{\BPGS\1647--1656}.\bibitem[\protect\BCAY{Momouchi}{Momouchi}{1980}]{Control.Structures.for.Actions.in.Procedural.Texts.and.PT-Chart}Momouchi,Y.\BBOP1980\BBCP.\newblock\BBOQControlStructuresforActionsinProceduralTextsandPT-Chart.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\108--114}.\bibitem[\protect\BCAY{森\JBA{Neubig,G.}\JBA坪井}{森\Jetal}{2011}]{点予測による単語分割}森信介\JBA{Neubig,G.}\JBA坪井祐太\BBOP2011\BBCP.\newblock点予測による単語分割.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(10),\mbox{\BPGS\2944--2952}.\bibitem[\protect\BCAY{森}{森}{2012}]{自然言語処理における分野適応}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\\newblock\Jem{人工知能学会誌},{\Bbf27}(4).\bibitem[\protect\BCAY{Mori,Sasada,Yamakata,\BBA\Yoshino}{Moriet~al.}{2012}]{A.Machine.Learning.Approach.to.Recipe.Text.Processing}Mori,S.,Sasada,T.,Yamakata,Y.,\BBA\Yoshino,K.\BBOP2012\BBCP.\newblock\BBOQAMachineLearningApproachtoRecipeTextProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe1stCookingwithComputerWorkshop},\mbox{\BPGS\29--34}.\bibitem[\protect\BCAY{Naim,Song,Liu,Kautz,Luo,\BBA\Gildea}{Naimet~al.}{2014}]{Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}Naim,I.,Song,Y.~C.,Liu,Q.,Kautz,H.,Luo,J.,\BBA\Gildea,D.\BBOP2014\BBCP.\newblock\BBOQUnsupervisedAlignmentofNaturalLanguageInstructionswithVideoSegments.\BBCQ\\newblockIn{\BemProceedingsofthe28thNationalConferenceonArtificialIntelligence}.\bibitem[\protect\BCAY{Neubig\BBA\Mori}{Neubig\BBA\Mori}{2010}]{Word-based.Partial.Annotation.for.Efficient.Corpus.Construction}Neubig,G.\BBACOMMA\\BBA\Mori,S.\BBOP2010\BBCP.\newblock\BBOQWord-basedPartialAnnotationforEfficientCorpusConstruction.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Rohrbach,Qiu,Titov,Thater,Pinkal,\BBA\Schiele}{Rohrbachet~al.}{2013}]{Translating.Video.Content.to.Natural.Language.Descriptions}Rohrbach,M.,Qiu,W.,Titov,I.,Thater,S.,Pinkal,M.,\BBA\Schiele,B.\BBOP2013\BBCP.\newblock\BBOQTranslatingVideoContenttoNaturalLanguageDescriptions.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputerVision}.\bibitem[\protect\BCAY{Sang\BBA\Meulder}{Sang\BBA\Meulder}{2003}]{Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}Sang,E.F.T.~K.\BBACOMMA\\BBA\Meulder,F.~D.\BBOP2003\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2003SharedTask:Language-IndependentNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\142--147}.\bibitem[\protect\BCAY{Sekine\BBA\Eriguchi}{Sekine\BBA\Eriguchi}{2000}]{Japanese.Named.Entity.Extraction.Evaluation.-.Analysis.of.Results.-}Sekine,S.\BBACOMMA\\BBA\Eriguchi,Y.\BBOP2000\BBCP.\newblock\BBOQJapaneseNamedEntityExtractionEvaluation-AnalysisofResults-.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{IREX:.IR.and.IE.Evaluation.Project.in.Japanese}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQIREX:IRandIEEvaluationProjectinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1977--1980}.\bibitem[\protect\BCAY{自然言語処理特集号編集委員会}{自然言語処理特集号編集委員会}{2014}]{自然言語処理特集号}自然言語処理特集号編集委員会\JED\\BBOP2014\BBCP.\newblock\Jem{自然言語処理,\textbf{21}(2)}.\bibitem[\protect\BCAY{Tateisi,Kim,\BBA\Ohta}{Tateisiet~al.}{2002}]{The.GENIA.Corpus:.an.Annotated.Research.Abstract.Corpus.in.Molecular.Biology.Domain}Tateisi,Y.,Kim,J.-D.,\BBA\Ohta,T.\BBOP2002\BBCP.\newblock\BBOQTheGENIACorpus:AnAnnotatedResearchAbstractCorpusinMolecularBiologyDomain.\BBCQ\\newblockIn{\BemProceedingsoftheHLT},\mbox{\BPGS\73--77}.\bibitem[\protect\BCAY{Tjong,Sang,\BBA\Veenstra}{Tjonget~al.}{1999}]{Representing.Text.Chunks}Tjong,E.~F.,Sang,K.,\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsofthe9thEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\173--179}.\bibitem[\protect\BCAY{山田\JBA工藤\JBA松本}{山田\Jetal}{2002}]{Support.Vector.Machineを用いた日本語固有表現抽出}山田寛康\JBA工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblockSupportVectorMachineを用いた日本語固有表現抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(1),\mbox{\BPGS\44--53}.\bibitem[\protect\BCAY{Yamakata,Imahori,Sugiyama,Mori,\BBA\Tanaka}{Yamakataet~al.}{2013}]{Feature.Extraction.and.Summarization.of.Recipes.using.Flow.Graph}Yamakata,Y.,Imahori,S.,Sugiyama,Y.,Mori,S.,\BBA\Tanaka,K.\BBOP2013\BBCP.\newblock\BBOQFeatureExtractionandSummarizationofRecipesusingFlowGraph.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonSocialInformatics},LNCS8238,\mbox{\BPGS\241--254}.\bibitem[\protect\BCAY{山本\JBA中岡\JBA佐藤}{山本\Jetal}{2013}]{食材調理法の習得順に関する一検討}山本修平\JBA中岡義貴\JBA佐藤哲司\BBOP2013\BBCP.\newblock食材調理法の習得順に関する一検討.\\newblock\Jem{電子情報通信学会技術研究会報告},{\Bbf113}(214),\mbox{\BPGS\31--36}.\end{thebibliography}\begin{biography}\bioauthor{笹田鉄郎}{2007年京都大学工学部電気電子工学科卒業.2009年同大学院情報学研究科修士課程修了.同年同大学院博士後期課程に進学.2012年同大学院情報学研究科博士後期課程単位取得認定退学.京都大学学術情報メディアセンター教務補佐員.現在に至る.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授.京都大学博士(工学).音声言語処理および自然言語処理に関する研究に従事.1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.情報処理学会,言語処理学会各会員.}\bioauthor{山肩洋子}{2000年京都大学工学部情報学科卒業.2002年同大学大学院情報学研究科修士課程修了.2005年同大学院博士後期課程単位認定退学,2005〜2006年京都大学学術情報メディアセンター研究員,2006〜2010年情報通信研究機構専攻研究員,2010〜2011年京都大学特定講師,2011年京都大学准教授,2014年同大学特定准教授.博士(情報学).マルチメディア情報処理の研究に従事.電子情報通信学会,人工知能学会会員.}\bioauthor{前田浩邦}{2012年京都大学理学部卒業.2014年同大学院情報学研究科修士課程修了.サイボウズ株式会社勤務.現在に至る.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.音声言語処理,特に音声認識及び対話システムに関する研究に従事.京大博士(工学).科学技術分野の文部科学大臣表彰(2012年度),日本音響学会から粟屋潔学術奨励賞(1997年度),情報処理学会から坂井記念特別賞(2000年度),喜安記念業績賞(2011年度),論文賞(2012年度)を受賞.IEEESPSSpeechTC委員,IEEEASRU2007GeneralChair,INTERSPEECH2010TutorialChair,IEEEICASSP2012LocalArrangementChair,言語処理学会理事,情報処理学会音声言語情報処理研究会主査,APSIPA理事,情報処理学会理事を歴任.情報処理学会,日本音響学会,電子情報通信学会,人工知能学会,言語処理学会,IEEE,ISCA,APSIPA各会員.}\end{biography}\biodate\end{document}
| |
V09N04-05
|
\section{はじめに}
電子化されたテキストが世の中に満ち溢れる現状から,テキスト自動要約研究が急速に活発になり,数年が早くも経過している.研究の活発さは依然変わらず,昨年もNAACLに併設する形で要約に関するワークショップが6月に開催された.また,日本では,国立情報学研究所の主催する評価型ワークショップNTCIR-2のサブタスクの1つとしてテキスト自動要約(TSC:TextSummarizationChallenge)が企画され,日本語テキストの要約に関する初めての評価として,また,TipsterにおけるSUMMACに続く要約の評価として関心を集め,昨年3月にその第1回(TSC1)の成果報告会が開催された(http://research.nii.ac.jp/ntcir/index-ja.html).一方,アメリカでは,SUMMACに続く評価プログラムとして,DUC(DocumentUnderstandingConference)が始まり,第1回の本格的な評価が昨年夏行なわれ,9月に開催されたSIGIRに併設する形でワークショップが開催された(http://www-nlpir.nist.gov/projects/duc/).このような背景の元,本稿では,1999年の解説\cite{okumura:99:a}の後を受け,テキスト自動要約に関する,その後の研究動向を概観する.1999年の解説では,これまでのテキスト自動要約手法として,重要文(段落)抽出を中心に解説するとともに,当時自動要約に関する研究で注目を集めつつあった,いくつかの話題として,「抽象化,言い換えによる要約」,「ユーザに適応した要約」,「複数テキストを対象にした要約」,「文中の重要個所抽出による要約」,「要約の表示方法」について述べている.本稿では,その後の動向として,特に最近注目を集めている,以下の3つの話題を中心に紹介する.\begin{enumerate}\item単一テキストを対象にした要約における,より自然な要約作成に向けての動き,\item複数テキストを対象にした要約研究のさらなる活発化,\item要約研究における,要約対象の幅の広がり\end{enumerate}(1)の動きは,後述するように,1999年の解説における「抽象化,言い換えによる要約」,「文中の重要個所抽出による要約」という話題の延長線上にあると言うことができる.以下,2,3,4節でそれぞれの話題について述べる.なお,TSC1およびDUC2001にはそれぞれ多数の参加があり,興味深い研究も多い.しかし,TSC1の多くの研究は重要文抽出に基づくものであり,本稿に含めるのは適当でないと考えた.また,DUC2001に関しては,ワークショップが開催されたのが9月13,14日であり,本稿に含めるのは時間的余裕がなく断念せざるを得なかった.これらについては,稿を改めて,概観することとしたい.
\section{より自然な要約作成に向けて}
ここ1,2年テキスト自動要約研究者が関心を持っている話題に,単一テキストを対象にした要約において,人間にとってより自然な要約を目指すというものがある.これまでの要約手法である重要文抽出には,問題点として,テキスト中の色々な個所から抽出したものを単に集めているため,抽出した複数の文間のつながり(首尾一貫性)が悪いことが指摘されている.抽出した文中に指示詞が含まれていても,その先行詞が要約中に存在しない可能性があったり,また,不要な接続詞があったりするということだが,こういうことが起きていると,読みにくいということはもちろんだが,最悪の場合,要約テキストの内容を読み間違えてしまう可能性もある.また,文を重要として要約に含める際,他の文とは独立に抽出を行なっており,そのため,結果として要約中に抽出された文の内容に類似のものがいくつも含まれるということが生じる可能性がある.このような,これまでの要約手法の問題点を受けて,「より読み易い要約」,「より冗長性の少ない要約」を目指す動きが近年活発になっており,また,人間の自由作成要約(human-writtensummary)を元に要約手法を検討する動きも盛んになってきている.人間が自由に要約を作成する際,原文に基づかず一から要約を「書く」場合もあるが,多くの場合,原文を元に,原文の断片を適切に「切り貼り」し,その後それに編集を加えることで,要約を作成しているという観察を元に,そういった人間の要約作成過程を計算機上にモデル化しようという研究も,後述するように(2.2節)始まっている\cite{jing:00:b}.人間の要約作成モデルに基づく要約手法なら,人間の要約に(ある程度)近い要約を作成できる可能性があり,注目すべき研究と言える.もう一つ特筆すべき研究として,自然言語生成システムを利用した要約手法の提案も始まっている\cite{mckeown:99:a,barzilay:99:a}.詳細は3節で述べるが,複数テキスト中の重要個所を,FUF/SURGEという生成システムにより,つなぎ合わせることで要約として生成している.要約の過程は,大きくテキストの解釈(文の解析とテキストの解析結果の生成)と(テキスト解析結果中の重要部分の)要約としての生成に分けられるとされてきたが,これまでの研究では,要約を生成するということは実際にはほとんど実現されていなかった.今後,より自然な要約作成を目指す過程で,自然言語生成技術の利用は不可欠となっていくであろう.これまでも,要約の読みにくさ,首尾一貫性の悪さに対しては,対処法が提案されてきているが(たとえば,Mathisら\cite{mathis:73:a}や\cite{okumura:99:a}の2.3節を参照),いずれもadhocな手法という印象が強い.これに対して,抽出した重要文集合を書き換える(revise)ことで,文間のつながりの悪さを改善し,より読み易い要約作成を目指す研究が最近試みられている\cite{nanba:99:b}.まだ技術的に難しい問題がいろいろあるが,興味深い.また,重要文抽出ではなく,文中の重要個所抽出,不要個所削除による要約手法はすでに\cite{okumura:99:a}で紹介されているが,この要約手法も,より自然な要約を作成するための第一歩と言える.2.4節で紹介する「要約の言語モデル」は,この要約手法を統計的に定式化した枠組とも考えられる.以下,各小節で,「より冗長性の少ない要約作成」,「人間の自由作成要約を元にした要約手法」,「抽出した重要文集合の書き換えによる,より自然な要約作成」,「要約の言語モデル」の4つの話題について言及する.\subsection{冗長性の少ない要約に向けて}複数テキストを対象にした要約では,複数のテキストから抽出した内容を要約とする際,内容が重複することを避ける手法がとられることが一般的である.単一テキストを対象にした要約作成でも,要約中に類似した文が含まれていれば冗長であり,冗長性を削減することで,他の有用な情報を要約に加え,要約中の情報の密度を増すことができる.近年単一テキストの場合にも,要約中の冗長度を下げ,同じ長さの要約に,より多くの情報を含められるよう考慮した要約手法がいくつか提案されている.Baldwinら\cite{baldwin:98:a}は,照応解析に基づき,query-sensitiveでindicative(指示的)な要約を作成する手法を提案している.テキスト中の文を選択するのだが,検索要求中の句がすべて要約の中にカバーされるように選択する.テキスト中の句がその句と相互参照していれば,検索要求中の句はカバーされているとする.文を選択する基準は,その文により新たにカバーされる(すでに選択された文ではカバーされていない)検索要求中の句が多い文を選択する.この文選択をすべての句がカバーされるまで繰り返す.これにより,要約の冗長性を最小にしている.Baldwinらの手法は,なるべく冗長な参照句を含まないように文を選択していることに相当する.また,先行詞を要約中に含まない代名詞は,可能なら先行詞に置き換える,不要と考えられる,前置詞句,同格の名詞句,関係節は除去するなどの後処理も施している.MMR(MaximalMarginalRelevance)\cite{carbonell:97:a,carbonell:98:a}は,テキスト検索,単一テキスト要約,複数テキスト要約において利用可能な尺度であり,検索要求との適合度と,情報の新規性(すでに選択されたものとの異なり度)をともに考慮する尺度である.MMRは,テキスト検索を例にすれば,以下の式で定義される.\[MMR(Q,R,S)=Argmax_{D_i\inR\setminusS}[\lambdaSim_1(D_i,Q)-\]\[(1-\lambda)max_{D_j\inS}Sim_2(D_i,D_j)]\]ここで,\begin{description}\item[$Q$:]検索要求,\item[$R$:]システムによって検索された(ランク付けられた)テキスト群,\item[$S$:]すでに選択されたRの部分集合\item[$R\setminusS$:]RとSの差集合\end{description}であり,$\lambda$は,検索要求との適合度($Sim_1(D_i,Q)$)と,すでに選択されたものとの異なり度\footnote{$max_{D_j\inS}Sim_2(D_i,D_j)$が類似度を表しているので,それを引くことで,異なり度としている.}に関する重みづけ(どちらを重視するか)に関するパラメタである.なお,検索要求との適合度,すでに選択されたものとの類似度を計算する尺度$Sim_1,Sim_2$には,任意のものが利用できるが,単語を要素とするベクトル間の距離尺度(たとえば,コサイン,内積等)を利用することが多い.MMRを用いた要約では,query-relevantな要約を作成するが,単一テキスト要約では,検索要求に関連するパッセージ(文)の集合を($Sim_1$のみを利用して)まず抽出した後(これが$R$),それらをMMRで再順序付け,要約の長さまで文を選択し,原文での順序,MMRのスコアの順序等を元に出力する.したがって,1文目は,検索要求と最も適合する文が選択され,2文目以後は,それまでに選択された文(2文目の場合は,最初に選択された文)との異なり度も合わせて考慮して選択される.MMRを用いることで,要約は互いに(最大限)異なる文により構成される.MMRを用いた複数テキスト要約は3節で紹介する.加藤ら\cite{kato:00:a}は,放送ニュースを対象にした重要文抽出法として,まず1文目(リード文)を抽出した後,それ以後の文のうち,リード文と内容が重複しない文を重要として抽出する手法を提案している.内容の重複は,文間の単語の対応の度合を元に計算している.この手法は,重要文抽出に,テキスト中での位置情報とMMRの考え方を併用していると言うことができる.石ざこら\cite{ishizako:99:a}は,同一の事象を表す表現が複数回テキスト中に出現した場合,2回目以後の出現を重複部分として削除する手法を提案している.\subsection{人間の自由作成要約を目指して}人間は,単に重要文を抽出するだけでなく,それらを編集することで要約を作成していると考えられる.Jingら\cite{jing:99:a,jing:00:b}は,人間の自由作成要約と原文の対応を分析し,抽出された文を編集する6つの操作を同定している.それらは,不要な句の削除(文短縮),(短縮した)文を他の文と結合する(文の結合),構文的変形,句を言い替える(語彙的言い替え),句をより抽象的/具体的な記述に置き換える,抽出した文を並べ替える,の6つである.一方,人間が原文に基づかず,一から書いている文も自由作成要約には含まれており,その割合は,300要約を調べたところ,19\%であったと報告している.Jingら\cite{jing:00:b}は,人間の自由作成要約の分析から得られた6つの編集操作を用いた「切り貼り」に基づく要約手法を提案している.システムは,抽出された重要文を編集し,不要な句を削除し,結果として残った句をまとめ上げることで一貫性のある文を作成する.Jingらの切り貼りに基づく要約システムは,まず重要文を抽出した後,抽出した文を,6つの操作で(文短縮,文の結合のみが実装されている)編集し,その結果を要約として出力する.文の結合に関しては,対応コーパスを分析し,人手で規則を作成して実現している.文の結合は,2つの構文解析木に対する,結合,部分木の置換,ノードの追加というTAG上の操作として実装されている.一方,文短縮は,抽出された重要文から,不要な句を自動的に削除するが,人間の自由作成要約と原文の対応コーパスから得られた統計情報,構文的知識,文脈情報を利用して,削除する句を決定している\cite{jing:00:a}.原文は,構文解析され,構文解析木中の必須要素と考えられる部分は印が付けられ,後の処理で削除され,文法的でない文が作成されることを防止する.次に,文中の句で話題ともっとも関連するものを決定する.また,対応コーパスを構文解析した結果を用いて,どの句がどういう条件でどの程度削除され易いか(たとえば,主動詞が`give'のとき,`when'節が削除される確率)を計算する.また,句が短縮される(部分が削除される)確率,句が変化しない確率も合わせて計算される.そして,必須でなく,話題とあまり関係がなく,人間が削除している確率がある程度ある句を削除の対象とする.人間の削除個所との一致度に基づく評価では,平均で81.3\%の精度を得ており,すべての前置詞句,節,to不定詞,動名詞を削除する場合をbaselineと考えるなら,baselineの精度は43.2\%だった.また,システムは平均で文の長さを32.7\%短くしていたが,人間の場合は41.8\%だった.システムの出力における誤りの原因は,50文を分析した結果では,8\%が構文解析誤りによるものだった.このJingらの研究と同様,(重要文抽出ではなく,)人間が自由に作成した要約のコーパスに基づいた要約研究が近年数多く見られる.これらの研究では,人間の自由作成要約と原文を対応付けた(aligned)コーパスが必要であるため,要約と原文の間の対応づけ(alignment)を行なう手法に関する提案もいくつか見られる.Jingら\cite{jing:99:a}の対応づけプログラムは,人間の自由作成要約中の句を原文中の句に自動的に対応付ける.要約中で隣接する2単語は,原文中でも隣接して現れ易い,遠く離れた文中に現れないというようなヒューリスティックスを元にしたHMMに基づいており,要約中の各単語が原文中のどこに位置するかをViterbiアルゴリズムにより決定する.50要約中の305文に対する対応関係を人手で調査したところ,93.8\%の文で正しい対応関係を得ていると報告している.Marcu\cite{marcu:99:a}は,原文と自由作成要約をともに,出現する単語のベクトルで表現し,その間の類似度をコサイン距離で計算する.そして,自由作成要約と類似度がもっとも大きくなるように,原文から節を削除していくことで,対応する抜粋を決定している.Bankoら\cite{banko:99:a}は,文を単位とし,文を文中の単語の出現頻度のベクトルで表し,ベクトル間の距離で文間の類似度を計ることで,自由作成要約中の文と原文中の文をもっとも類似度が大きくなるように対応付けている.BankoらとMarcuの手法はともに,abstractから抜粋(extract)を生成することを目的としているため,対応させる単位が文,節と大きい.望主ら\cite{mochinushi:00:a}も,自由作成要約を原文と対応付けるツールを作成し,対応結果から,自由作成要約,重要文抽出による要約の相違点の分析を行なっている.また,\cite{okumura:99:a}で紹介されている加藤らは,要約知識の自動獲得を目的に,単語の部分一致を考慮したDPマッチングによる対応づけ手法を示している.このようにして,自由作成要約と原文を対応付ける(あるいは,対応する抜粋を生成する)と,自由作成要約と抜粋の間の比較・分析が可能になる.Marcu\cite{marcu:99:a}は,人間の要約に含まれる内容をすべて含むように,テキストの抜粋を作成する場合,どの程度の長さの抜粋が必要であるかを調査している.新聞記事を対象にした場合,対応する要約と比べ,抜粋は2.76倍の長さが必要であるという結果を示している.この結果は,抜粋中の冗長性を除去したり,さらに文をより短くするなど,抜粋をさらに加工する必要があることを示しているとも言える.また,Jingらは,自由作成要約は,対応する抜粋と比較すると,52\%の長さであるという報告をしている.Goldsteinら\cite{goldstein:99:b}の報告では,平均して抜粋の長さは,自由作成要約に比べ,20\%長くなるという.\subsection{要約における言い替え,書き換えの役割}2.2節で述べたように,人間の要約過程は,単に重要文を抽出するだけでなく,それらを編集する操作が含まれていると考えられる.この編集の操作には,書き換え(revision)や言い替え(paraphrase)が含まれている.本節では,書き換えや言い替えが用いられた要約研究を概観する\footnote{川原\cite{kawahara:89:a}は,人間の要約作成過程において,どのように書き換えが役割を果たしているかを調査している.}.抽出した重要文集合である抜粋を書き換える目的には,少なくとも次の2つがあると考えられる.\begin{enumerate}\item文の長さを短くする\item抜粋を読み易くする\end{enumerate}片岡ら\cite{kataoka:99:a}は,連体修飾節を含む名詞句を「AのB」の形に言い替えることで要約を行なう手法を示しているが,これは前者に該当すると言える.また,\cite{okumura:99:a}で紹介されている,概念辞書等を用いて語句を抽象化する言い替えを行ない要約する手法である「抽象化,言い換えによる要約手法」(3節)や,加藤,若尾らのような手法(6節)は,言い替えを行なうことで,文字列を削減する要約手法と言うことができる.また,Maniら\cite{mani:99:b}は,抜粋を書き換えることで,質の向上を目指している.3つの操作,elimination,aggregation,smoothingを示している.それらを抜粋に繰り返し適用することで,抜粋の読み易さを低下させずにinformativenessを向上できたと主張している.このことから,Maniらの主眼は,書き換えにより,要約内の情報の量を向上させること(抜粋中の不要な個所を削除することで,他の個所の情報を要約に加える)であると言える.eliminationがJingらの文短縮,aggregationとsmoothingが文の結合にそれぞれ対応している.eliminationでは,文頭の前置詞句,副詞句を削除する.smoothingには,読み易さ(首尾一貫性)を改善するための操作が一部含まれる.一方,後者の研究としては,難波ら\cite{nanba:99:b}の研究がある.難波らは,人間に抜粋を書き換えてもらう心理実験を行ない,抜粋の読みにくさの要因を分析した後,要因ごとに読みにくさを解消するための書き換えを定式化している.接続詞を追加したり,削除したり,また,冗長な単語の繰り返しを代名詞化したり,省略したり,逆に,省略されている単語を補完したり,などである.そして,そのうちいくつかを実装している.大塚ら\cite{otsuka:01:a}は,「この」等の指示形容詞を含む名詞句に対して照応処理を行なうことで,対応する先行名詞句を特定し,指示形容詞を含む名詞句を対応する先行名詞句に置き換えることで,抽出した重要文集合のつながりの悪さを改善する手法を示している.\subsection{要約の言語モデル}原文と自由作成要約の組がコーパスとして大量に存在するなら,人間の要約過程を模倣するようにモデルを訓練することが可能である.KnightとMarcu\cite{knight:00:a}は,このような考え方に基づき,文要約(文短縮)において,文法的で,しかも,内容としては原文の情報の重要な部分を維持するような手法を2つ示している.2つの手法は,確率的noisy-channelモデルと決定木をそれぞれ用いている.入力として,単語列(1文)を与えると,単語列中の単語の部分集合を削除し,残った単語が要約を構成する\footnote{原文と抜粋の組のコーパスから重要文抽出のためのモデルを学習する手法については\cite{okumura:99:a}の2.2節ですでに紹介されている.}.確率的noisy-channelモデルは,統計的機械翻訳の場合と同様,次の2つのモデルで構成される.\begin{itemize}\itemSourceModel:\\要約を構成する文$s$の確率$P(s)$.文sが生成される確率を示す.この確率は,文法的でない文の場合低くなり,要約が文法的であるかどうかの指標となる.単純にはbigramでモデル化される.\itemChannelModel(Translationmodel):\\単語列の組$\langles,t\rangle$の確率$P(t|s)$.要約sから,より長い単語列t(原文)が得られる確率.原文中の各単語が要約に出てくる確からしさを示しており,各単語の確からしさの積をその単語列が要約となる確からしさとする.重要な内容を保持しているかどうかの指標となる.\end{itemize}KnightとMarcuは,上の2つの確率を単語列に対してではなく,それを構文解析した結果得られる木に対して計算している.$P_{tree}(s)$は,木sを得る際に利用される文法規則に対して計算される標準的な確率文脈自由文法のスコアと,木の葉に現れる単語に対して計算される標準的な単語のbigramのスコアの組合せである.確率的なchannelモデルでは,拡張テンプレートを確率的に選択する.たとえば,NPとVPを子ノードとして持つノードSに対して,確率$P(S\rightarrowNP\:VP\:PP|S\rightarrowNP\:VP)$を元に,子ノードPPを追加する.そして,単語列tからそれに対応する要約sを選択する際,$P(s|t)$を最大にするものを選択する.これは,$P(s)\timesP(t|s)$を最大にするsを選択することと同じである.原文中の単語列の部分集合で,上の2つの確率の積を最大にするものをViterbiビームサーチを用いて選択する.Ziff-Davisコーパス中の1067組の文を対象にし訓練を行なっている.拡張テンプレートは,原文と要約文をともに構文解析し,その木の対応関係から抽出している.一方,決定木に基づく手法としては,原文に対応する木tを与えると,それを要約文に対応する,より小さな木sに書き換えるモデルを示している.拡張した決定的shift-reduce構文解析の枠組に基づき,空のスタックと,入力の木tを入れた入力リストを用いて処理を開始し,より小さな木へ書き換えるべく,shift(入力リストの先頭をスタックへ移動),reduce(スタック上のk個の木を組み合わせて新たな木を構成し,スタックにプッシュ),drop(入力リスト中の構成素を削除)の操作を繰り返し実行する.決定木に基づく手法は,noisy-channelモデルに基づく手法よりも,より柔軟であり,原文の構造と要約文の構造が著しく異なる場合にも対処可能である.どの操作を選択するかは,訓練データ(原文-要約文の組の集合から構成される操作の系列の集合)から,決定木学習を行なうことで学習される.このように,文要約のモデルを,訓練コーパスから自動的に訓練することで得る手法は,WitbrockとMittal\cite{witbrock:99:a}が,原文とabstractの組で直接訓練した確率モデルを適用したのが最初の研究とされる.これ以外は,前節で紹介したJingらの研究や,\cite{okumura:99:a}で紹介されている,文中の重要個所抽出,不要個所削除による要約手法を含め,いずれも,人手で作成した,あるいは半自動で得た規則を元に,冗長な情報を削除したり,長い文をより短い文に縮めたり,複数の文をまとめたりしている.堀之内ら\cite{horinouchi:00:a}は,「日本語らしく,かつ意味的に重要個所を含む」ように,文を短縮する統計的手法を示している.日本語らしさの評価のためにn-gramモデル,意味的に重要個所を含むかどうかの評価のためにidfをそれぞれ利用している.この2つを重み付けした重要度を文中の断片に与え,重要度の小さい断片を繰り返し削除することで文を短縮していく.小堀ら\cite{kobori:00:a}は,あらかじめ原文から抽出された重要文節データを元に学習した決定木を用いて重要文節を抽出する手法を示している.BergerとMittal\cite{berger:00:b}は,query-relevantな要約を作成する統計的言語モデルを示している.FAQのコーパスを訓練データとして,文書$d$とクエリ$q$の組に対して,\[p(s|d,q)=p(q|s,d)*p(s|d)\approxp(q|s)*p(s|d)\]を最大にする$s$を要約として求める.そして,そのための確率$p(q|s),p(s|d)$をそれぞれ訓練データから学習する.確率$p(q|s),p(s|d)$はそれぞれ,(クエリに対する要約の)適切性(relevance),(テキストに対する要約の)忠実性(fidelity)と呼ばれている.\
\section{複数テキストを対象にした要約手法}
これまでの複数テキスト要約研究では,あらかじめ人間が用意した比較的小規模なテキスト集合をシステムの入力として要約を作成するのが中心的であったと言える.しかし,近年,情報検索システムの検索結果を直接要約システムの入力に用いるなど,より大規模なテキスト集合を要約対象とする実用性の高いシステムがいくつか提案されてきている.要約システムの入力として想定されるテキスト集合は,(1)すべてが同一トピックのものと,(2)情報検索システムの検索結果のように,複数のトピックが混在しているものの大きく2種類存在すると考えられる.どちらのテキスト集合を対象とするかで,要約作成手法,要約システムの位置付けも次のように異なってくる.\begin{enumerate}\item要約システムに与えるテキスト集合中のテキストはどれも同じトピックについて書かれたものであり,そのため,似たような内容のテキストが複数含まれる可能性がある.この場合,すべてのテキストの内容を要約に含めると,冗長な要約が作成されてしまう.そこで,テキスト(あるいはテキスト中のパッセージ)間の類似度を考慮し,内容がなるべく重複しないように要約を作成する.\item情報検索の結果得られたテキスト集合を要約システムの入力に用いるような場合,そのテキスト集合には,ユーザの目的と合致しないテキストが数多く含まれている可能性がある.このような場合,目的のテキスト集合へユーザをナビゲートする支援システムは有用であり,そのようなシステムでは,テキスト集合を自動的に分類し,グループごとに,グループのテキスト集合の要約を作成しラベルとして付与する.ユーザは,自分の必要なテキストがグループに含まれているかどうかを付与されたラベルを見て判断する.\end{enumerate}\cite{okumura:99:a}では複数テキスト要約のポイントとして,図\ref{fig:multi-text-sum}に示す3点を挙げて,この3点に沿って研究を概観していた.本節でも同様にこの3点に沿って,この分野の最近の研究動向を,上の分類に即して,紹介する.\begin{figure}[h]\[\left\{\begin{array}{lll}a&関連するテキストの自動収集&\\b&関連する複数テキストからの情報の抽出&\left\{\begin{array}{ll}b-1&重要個所の抽出\\b-2&テキスト間の共通点の検出\\b-3&テキスト間の相違点の検出\\\end{array}\right.\\c&テキスト間の文体の違い等を考慮した&\\&要約文書の生成&\\\end{array}\right.\]\caption{複数テキスト要約のポイント\label{fig:multi-text-sum}}\end{figure}\subsection*{分類1:同一トピックのテキスト集合からの要約作成}分類1の要約手法にはGoldsteinら\cite{goldstein:00:a},Radevら\cite{radev:00:a},Steinら\cite{stein:99:a},Barzilayら\cite{barzilay:99:a,barzilay:01:a},McKeownら\cite{mckeown:99:a}のものがある.Goldsteinら\cite{goldstein:00:a}は新聞記事を対象とし,記事集合中からある検索クエリに関するパッセージを抽出,収集し(a),それらを並べて要約を作成するMMR-MD(MaximalMarginalRelevanceMulti-Document)という手法を提案している.検索されたパッセージを単純にクエリとの適合度の高い順に並べただけでは,パッセージ間で重複する個所が存在する可能性があり,要約として望ましくない.そこで,MMR-MDでは,クエリに対するパッセージの適合度を考慮しつつ,すでに上位にランクされているパッセージと類似度の低いもの(重複個所が少ないと思われるパッセージ)(b-3)を選択して順に出力することで,冗長性の少ない複数テキスト要約の作成を行っている.また,パッセージの出力順序を決める際,記事が書かれた日時なども考慮している.Radevら\cite{radev:00:a}は新聞記事集合をあらかじめクラスタリングし,各クラスタごとに要約を作成する手法を提案している(a).クラスタ中の記事中の各文の重要度をまず計算し,次に要約率に応じて記事集合から重要度の高い文を抜き出し,抜き出された文を記事の書かれた日付順に並べて,要約として出力する.文の重要度は,クラスタの特徴を表す語を文が含む割合(b-2),文の位置(lead)(b-1)により決定する.また,Goldsteinらと同様,自分より重要度の高い文と内容が重複するような文は重要度を下げることで,冗長性の少ない要約の作成を目指している(b-3).Steinら\cite{stein:99:a}は,あらかじめテキストごとの要約を作成し(b-1),作成された要約をクラスタリングし,似たような内容の要約をグルーピングしている.そして,各クラスタ中で最も代表的な要約をクラスタの要約として抽出する(b-2).また,クラスタの要約同士の類似度を計算し,隣接する2つの要約の類似度が高くなるよう並べ換えて出力している.Barzilayら\cite{barzilay:99:a},McKeownら\cite{mckeown:99:a}は,複数の新聞記事間で言い回しは異なるが同じ内容の文を,7種類の言い換え規則を用いて同定している(b-2).同定された文は,構文解析器を用いて述語項構造に変換され,文間で共通な句が抽出される.その後,文生成器を用いて抽出された共通語句を統合し,要約文として出力する(c).さらにこれらの要約文は記事の日付順およびテキスト中の出現順にソートされ,それらが最終的な要約文書となる.要約文書の構成要素となるトピック(文)を並べる順序を決定するこれまでの方法は,文間のつながりを考慮する方法\cite{goldstein:00:a,stein:99:a}と,記事が書かれた時間順に並べる方法\cite{radev:00:a,mckeown:99:a}の2つに分けられる.一般にはさまざまなトピックの並べ方が存在するが,人間が複数のテキストから要約を作成する場合,何らかの原理に基づいて並べる順序を決定していると考えられる.Barzilayら\cite{barzilay:01:a}は,複数の記事から抽出されたいくつかの重要文のセットを10人の被験者に与え,それらを並べ換えることで要約を作成してもらっている.そして,その結果を比較することで,次のような知見を得ている.\begin{quote}すべての文の順序が被験者間で完全に一致することはあまりない.しかし,順序が入れ替わっても,常に隣り合って出現する文のペアがいくつかある.これらのペアは関連したトピックの文で構成されている.したがって,複数テキスト要約において文間の結束性を考慮することは重要である.\end{quote}このような知見に基づき,Barzilayら\cite{barzilay:01:a}は,要約文の順序を決定する方法を考案している.基本的にはトピックを時間順に並べるが,関連したトピックの文は必ず隣接して出力する.この方法により,作成される要約文書はある程度結束性が保たれる.Barzilayらは,この手法を先に述べた「記事が書かれた時間順に並べる方法」と比較し,前者の手法の方が優れていることを示している.\subsection*{分類2:複数のトピックを含んだテキスト集合からの要約作成}分類2の要約手法にはEguchiら\cite{eguchi:99:a},Fukuharaら\cite{fukuhara:99:a},Andoら\cite{ando:00:a},上田ら\cite{ueda:00:a},Kanら\cite{kan:01:a}のものがある.Eguchiら\cite{eguchi:99:a}は,WWW上のテキストを対象にした関連性フィードバックに基づく検索システムを構築している.このシステムでは,検索結果(a)をテキスト間の類似度に基づいてクラスタリングし,各クラスタごとにクラスタに多く含まれる語と,そのクラスタを代表するテキストのタイトルを,そのクラスタの要約として出力する(b-2).出力されたクラスタをユーザに選択してもらい,そのクラスタに含まれるテキストを用いて関連性フィードバックを行っている.Fukuharaら\cite{fukuhara:99:a}も,Eguchiらと同様に検索結果をクラスタリングし(a),クラスタごとに要約出力を行っている.Fukuharaらは,テキスト中の単語の出現頻度分布を考慮し,クラスタごとの話題を表す語とそれらを含んだ文を抽出する.さらに,抽出された文を,焦点-主題連鎖を考慮して並べ替え,クラスタごとの要約として出力している(b-2).Andoら\cite{ando:00:a}は,ベクトル空間モデルを用いて新聞記事集合中の記事間の類似度を計算し,それらをsemanticspaceと呼ばれる2次元空間上に配置し表示するシステムを構築している.semanticspace上では各記事はドットで表現され,またトピックの似た記事はsemanticspace上で隣接して配置される.マウスでsemanticspace上のドットを指せば,そのドット(記事)と関連のあるドット(記事)が強調され(a),さらに関連記事中の頻出単語(topicterm)や頻出単語を多く含む文(topicsentence)(b-2)が表示される.上田ら\cite{ueda:00:a}は,クラスタリングによりある程度同じ話題でまとめられたテキスト集合を対象に,各クラスタの特徴を表す文を自動的に作成する手法を提案している(a).上田らもBarzilayら,McKeownらと同様に,テキスト中の各文を構文解析し,テキスト間で構文木同士を比較することで,テキスト間の共通個所を同定するという手法を提案している(b-2).構文木の比較には2種類の方法を提案している.1つは,例えば「フーバー社が携帯電話を発売」という文を,意味的に等価な「携帯電話がフーバー社から発売」などに構文レベルで変換し,同一内容の異なる2文を同定し,クラスタのラベルとして出力するという方法である.もう1つは,シソーラスを用いて「ホウレンソウからダイオキシンが検出された」と「白菜からダイオキシンが検出された」の2文から「野菜からダイオキシンが検出された」といったように,より抽象度の高いレベルで融合し,ラベルとして出力するという方法である.これまで分類2で述べてきた要約作成手法は,形態素,あるいは構文レベルでテキスト間の比較を行っているが,個々のテキストからいくつかの属性値を抽出した後,テキストを属性レベルで比較し,要約を作成する試みがある.Kanら\cite{kan:01:a}は,ある検索クエリで検索された医療関係のテキスト集合を比較し,ユーザがどのテキストを読むべきか判断するのに有用なindicative(指示的)な要約を生成する手法を提案している.このシステムを利用することで,例えば喉頭炎(angina)を検索クエリとした場合,「検索結果は23件あります.結果には喉頭炎のガイド(`theAMAGuidetoAngina')が含まれています.」「喉頭炎に関する定義やリスクに関して述べたテキストがあります.」「喉頭炎の関連情報を含んだテキストがあります.」といった要約が出力される.このような要約を生成するために,Kanらは,まず個々のテキストを,セクションの情報に基づいて,そのテキストのトピックの構造を示す木(トピックツリー)で表現する.次に検索クエリがトピックツリーのどこに位置するのか(クエリとテキストのメイントピックとの関連),テキストの平均的な属性値と比較して,テキストに含まれるいくつかのトピックがどの程度重要であるのか(他のテキストと異なっているのか)(b-1,b-3)といった情報をテキストの属性値として抽出する.これらの値を用いて要約生成を行い,検索結果として出力する.\subsection*{その他の要約作成手法}これまでの複数テキスト要約の研究は,複数のテキストから得られた情報をいかに統合して要約を作成するかに主眼が置かれてきたと言える.一方,ある種のテキスト集合には,集合全体の内容をまとめたテキスト(パッセージ)が存在することがある.例えば,ある分野の研究動向をまとめたサーベイ論文や,ある事件に関する解説記事などがこれに相当する.このようなテキストを見つけ出すことができれば,それ自体を複数テキストの要約とみなすことができる.橋本ら\cite{hashimoto:01:a}は,ある事件に関して過去の主要な出来事が新聞記者の観点で要約されている個所をサマリパッセージと呼び,このような個所を記事集合から自動的に抽出する手法を提案している.サマリパッセージは,解説記事や社説など何らかの意見が述べられている記事(意見記事)中に含まれている.また事件の経緯を時系列に箇条書でまとめた個所もサマリパッセージと考えることができる.橋本らは,表層的な情報を用いてこれらのサマリパッセージの抽出を試みている.例えば,記事のタイトルに「社説」や「解説」を含む記事,意見文を多く含む記事は,意見,解説記事として抽出される.また,新聞固有の箇条書の形式を認定することでまとめ記事が抽出できる.こうして抽出されたパッセージは人間が作成したものであるため,これまでの複数テキスト要約で問題とされてきた要約の一貫性が保証されている.
\section{要約対象の幅の広がり}
これまでの自動要約研究の多くは,その要約対象のテキストのジャンルとして,新聞記事,論文を扱ってきた.これに対し,近年これ以外のジャンルのテキストを要約対象とする研究が見られるようになってきた.たとえば,webpageを対象とした研究としてはOCELOT\cite{berger:00:a}等があり,また,mailを対象とした研究としては\cite{toyama:00:a}等がある.さらに,テキストではなく,音声(あるいは,その書き起こしである話し言葉のデータ)を対象とする要約研究がいくつか見られるようになってきた.これには,講演音声のようなmonologueと,2人以上による対話(dialogue)の両方が含まれる.話し言葉を対象とした要約では,(1)テキストとしての情報以外に他の音響的情報が利用できる,(2)音声認識結果を入力とすることから,入力にノイズが含まれる,(3)後述するように,話し言葉の特性としての冗長性が入力には含まれる等,テキストを対象とした場合とは異なり,新たに考慮しなければいけない点が存在する.そこで,本節では,以下,これらの話し言葉を対象とした要約研究を概観する.なお,これまでにも,\cite{okumura:99:a}で紹介されている字幕作成における要約のように,入力としてニュース原稿の読み上げ音声を対象とした研究は存在する.堀と古井\cite{hori:01:a}は,講演音声を自動要約する手法として,各発話文から重要な単語を抜き出し,それらを接合することで要約文を作成する手法を提案している.要約は,要約のもっともらしさを示す要約スコアを最大にする文中の部分単語列をDPマッチングにより決定し得ている.要約スコアは,単語の重要度(頻度に基づく),単語連鎖の言語スコア(単語のtrigram),音声認識時の各単語の音響的,言語的信頼度,および原文中の単語の係り受け構造に基づく単語間遷移確率の重みつき和として定義される.講演は,自然な発話(spontaneousspeech)に比べれば整っているが,フィラーや言い直しなど,多くの冗長表現を含み,話し言葉に近い特性をもつ.この特徴を利用し,幅田と奥村\cite{habata:01:a}は,冗長表現を不要個所として削除することで,情報を欠落させずに要約を行う手法を示している.人手によって講演音声の要約を行っている要約筆記データの分析をまず行い,その分析結果を元に,文短縮型の要約システムを開発している.分析の結果,フィラー,言い直し・繰り返し表現,挿入句表現,丁寧表現,「〜という〜」表現が削除または言い替えの対象として得られている.削除率および,要約筆記データを正解データとした場合の精度を尺度として要約システムを評価したところ,削除率18.0\%,精度79.8\%が得られている.この研究は,聴覚障害者のための情報保証手段の一つして人手で現在行なわれている要約筆記の自動化を目指すものと言うことができる.笠原と山下\cite{kasahara:01:a}は,講演音声を対象とした要約の自動作成のため,重要文と韻律的特徴の関係についての分析を行なっている.Zechnerら\cite{zechner:01:a}は,対話を書き起こしたものを入力とし,MMRにより文をランク付けし,要約の長さまで,テキストの順序で文を出力する手法を示している.しかし,この手法では,質問に対応する応答が要約に含まれないため,一貫性に欠ける要約ができる可能性がある.そのため,複数の話者の発話にまたがる局所的一貫性(この研究では,質問・応答の組のみ)を検出し,それを要約の際考慮に入れる(その一部がMMRで選択された場合組全体を要約に含める)ことで,要約の読み易さが向上することを人間の主観評価により示している.Reithingerら\cite{reithinger:00:a}は,音声翻訳システムVERBMOBILを用いた,日程調整,ホテル予約のような領域における「交渉」対話を対象にした要約手法を示している.話し手の意図を発話行為クラスとして同定し,その情報を用いて,意図がsuggestならその内容を候補とし,rejectなら棄却,give\_reasonなら無視するというように,情報の選択の際に利用する.また,キーワードスポッティングにより,発話の内容を属性-値の組として同様に抽出する.そして,交渉対話では,話し手全員が合意したことに関心があるという前提を利用し,suggestされた内容で,acceptされたものを同定し,それを生成器で生成することで要約を作成している.
\section{おわりに}
1999年の解説\cite{okumura:99:a}の後を受け,テキスト自動要約の研究分野において,ここ数年関心が高まっている話題を3つ紹介した.テキスト自動要約は,必要性が高まっていることもあり,今後も活発に研究が進められていくことと思われる.今後は,複数テキスト要約だけでなく,さらに対象範囲を広げ,複数の言語で書かれたテキスト(translingualsummarization),複数のメディアの情報を対象にした(テキストだけでなく,画像や音声も対象にする)要約(multi-mediasummarization)なども注目を集めそうである.今後も,テキスト自動要約の研究分野の動向には目が離せない.また,テキスト自動要約技術の応用として,いくつかの新しい方向性が明確になってきたことも,ここ数年の話題と言えるかもしれない.これまでも,サーチエンジンにおける検索結果の表示や,ユーザのナビゲーションにおいて要約を利用する研究や,字幕作成,文字放送用に要約手法を利用することは試みられていた.これに加えて,ここ数年で,携帯端末における情報提示のための要約の利用(たとえば,\cite{buyukkokten:01:a,corston:01:a})や,(高齢者,視聴覚障害者といった)情報弱者のための情報保証への要約の利用(たとえば,自動要約筆記\cite{habata:01:a}やユーザの視覚特性に合わせたトランスコーディング\cite{maeda:01:a})といった,新しい有望な応用分野が要約には付け加わったと言える.研究分野の動向とともに,今後,要約の応用分野の動向にも目が離せないと言える.最後に,新しい参考文献をいくつか紹介しておく.1999年に出版された\cite{mani:99:a}は,この分野の論文を,古典から最新のものまで集めた論文集であり,テキスト自動要約の最初の研究とも言われる\cite{luhn:58:a}も入っている.この分野で研究を始める人には必読と言える.TipsterのTextProgramPhaseIIIの論文集\cite{tipster:99:a}も出版されている.SUMMAC参加システムの概要がいくつか収録されており,また,SUMMACのdryrunの報告も含まれている.また,昨年自動要約に関する教科書も出版されている\cite{mani:01:a}.自動要約に関する話題をわかり易く記述してあり,この本もこの分野で研究を始める人には必読と言える.なお,この本の翻訳の出版計画も進んでいる.\bibliographystyle{/lr/data/sty/nlpsty/jnlpbbl}\bibliography{summarize}\begin{biography}\biotitle{略歴}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.e-mail:[email protected],http://oku-gw.pi.titech.ac.jp/\~{}oku/.}\bioauthor{難波英嗣}{1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.2001年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年,日本学術振興会特別研究員.2002年東京工業大学精密工学研究所助手.現在に至る.博士(情報科学).自然言語処理,特にテキスト自動要約の研究に従事.情報処理学会,人工知能学会,ACL,ACM各会員.[email protected],http://oku-gw.pi.titech.ac.jp/\~{}nanba/}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V25N04-02
|
\section{はじめに}
\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のPlay-by-playデータ}\label{tb:pbp}\input{02table01.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のイニング速報}\label{tb:inning_report}\input{02table02.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦の戦評}\label{tb:game_report}\input{02table03.tex}\end{table}スポーツの分野で特に人気の高い野球やサッカーなどでは,試合の速報がWebなどで配信されている.特に,日本で人気のある野球では,試合中にリアルタイムで更新されるPlay-by-playデータやイニング速報,試合終了直後に更新される戦評など様々な速報がある.Play-by-playデータ,イニング速報,戦評の例をそれぞれ表\ref{tb:pbp},表\ref{tb:inning_report},表\ref{tb:game_report}に示す.Play-by-playデータ(表~\ref{tb:pbp})は打席ごとにアウト数や出塁状況の変化,打撃内容などの情報を表形式でまとめたデータである.イニング速報(表\ref{tb:inning_report})はイニング終了時に更新されるテキストであり,イニングの情報を網羅的に説明したテキストである.戦評(表\ref{tb:game_report})は試合が動いたシーンにのみ着目したテキストであり,試合終了後に更新される.特に,戦評には“0-0のまま迎えた”や“試合の均衡を破る”のような試合の状況をユーザに伝えるフレーズ(本論文ではGame-changingPhrase;GPと呼ぶ)が含まれているのが特徴である.戦評では,“先制”という単語のみでイニングの結果を説明するだけでなく,“試合の均衡を破る”といったフレーズを利用することで,先制となった得点の重要度をユーザは知ることができる.また,“0-0のまま迎えた”というフレーズが利用されていると,ユーザは試合が膠着し,緊迫しているという状況を知ることができる.本研究ではこのような試合の状況をユーザに伝えるフレーズをGPと定義する.これらの速報は,インターネットを介して配信されているため,スマートフォンやタブレット端末など様々な表示領域のデバイスで閲覧されている.また,ユーザはカーナビなどに搭載されている音声対話システムを通じてリアルタイムで速報にアクセスすることも考えられる.このような需要に対して,イニング速報はイニングの情報を網羅的に説明したテキストであり,比較的長い文であるため,表示領域に制限のあるデバイスでは読みづらい.音声対話システムの出力だと考えると,より短く,端的に情報を伝えられる文の方が望ましい.また戦評はGPが含まれており試合の状況を簡単に知ることができるが,試合が動いた数打席にのみ言及したものであり,試合終了後にしか更新されない.このようなそれぞれの速報の特徴を考慮すると,任意の打席に対してGPを含むイニングの要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えられる.そこで,任意の打席に対してGPを含むイニングの要約文を自動生成する.本研究ではPlay-by-playデータからイニングの要約文の生成に取り組む.また,要約文を生成する際に,GPを制御することで,GPを含まないシンプルな要約文とGPを含む要約文の2つを生成する.文を生成する手法としては,古くから用いられてきた手法にテンプレート型文生成手法\cite{mckeown1995}がある.また,近年ではEncoder-Decoderモデル\cite{Sutskever2014}を利用した手法\cite{Rush2015}も盛んに研究されている.本研究では,テンプレート型生成手法,Encoder-Decoderモデルを利用した手法の2つを提案する.テンプレート型文生成手法\cite{mckeown1995,mcroy2000}とは,生成する文の雛形となるテンプレートを事前に用意し,テンプレートに必要な情報を補完することで文を生成する手法である.岩永ら\cite{iwanaga2016}は,野球の試合を対象とし,テンプレート型文生成手法により,戦評の自動生成に取り組んでいる.彼らは,事前に人手でテンプレートとそのテンプレートを利用する条件を用意し,戦評を自動生成する手法を提案している.テンプレート型文生成手法では,文法的に正確な文が生成できるといった利点があるが,テンプレートを事前に用意することはコストが大きいといった欠点がある.そこで,本研究ではこの欠点を補うためにテンプレートを自動で生成する文生成手法を提案する.また,近年では深層学習の発展により,機械翻訳\cite{cho2014,Luong2015}やヘッドライン生成\cite{Rush2015}など文生成分野における様々なタスクでEncoder-Decoderモデルを利用した多くの研究成果が報告されている.本研究では,テンプレート型生成手法に加え,Encoder-Decoderモデルを利用した要約文生成手法も提案する.本研究の目的は,読み手が試合の状況を理解しやすい要約文を生成するため,要約文にGPを組み込むことである.そこで,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いてEncoder-Decoderを学習させることが考えられる.しかし,戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を緩和するため,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.本研究では,テンプレート型生成手法(\ref{sec:template_method}章),Encoder-Decoderモデルを利用した手法(以降,ニューラル型生成手法)(\ref{sec:neural_method}章)の2つを提案し,生成された要約文を比較,考察する.本論文の主な貢献は以下の4つである.\begin{itemize}\item野球のイニング要約タスクについて,テンプレート型生成手法とニューラル型生成手法を提案する.\itemテンプレート型手法では,テンプレートを自動獲得する手法を導入する.\itemニューラル型手法では,転移学習を利用し,戦評のデータ数が十分ではないという問題点を緩和する.\itemGPを含まないシンプルな文とGPを含む文の2種類の要約文の生成を提案し,その有効性を検証する.\end{itemize}
\section{関連研究}
\label{sec:related_work}スポーツを題材とし,要約文を自動で生成する研究は試合のスタッツや選手の成績などのデータを入力とした研究\cite{murakami2016,Robin1994}やマイクロブログ,テキストコメンタリーに投稿されるテキストを入力とした研究\cite{Nichols2012,Takamura2011,Sharifi2010,Kubo2013,Tagawa2016,Jianmin2016},テキスト速報などのニュース記事を入力とした研究\cite{Allen2010,Oh2008,iwanaga2016}など盛んに行われている.特に,マイクロブログの普及とともにTwitterを対象としたサッカーの要約生成の研究\linebreak\cite{Takamura2011,Nichols2012,Kubo2013}が盛んに取り組まれている.Twitterを対象とした要約生成の研究の多くは抽出型要約手法を用いている.抽出型要約手法では文やtweetを抽出単位とするため,ある程度の文法性が担保されるといった利点があり,口語表現,表記ゆれ,誤字脱字といった言語現象が多く見られるマイクロブログにおいて有効である.そのため,マイクロブログを対象とした要約生成の研究では抽出型要約手法が主流となっている.しかし,抽出した文やtweetの一部のみが重要な情報を含み,他の部分が冗長な要素である場合が考えられる.この場合,要約文中に要約に必要な要素と冗長な要素が混在するといった問題がある.このような問題点に対して,TagawaandShimada\cite{Tagawa2016}は,生成型要約手法でTwitterを対象としたサッカーの要約生成に取り組んでいる.Sharifiら\cite{Sharifi2010}は,Twitterを対象としたスポーツの試合や政治,事件などのイベントに対する要約を生成型要約手法により生成している.より柔軟に要約を生成するためには,生成型の要約手法の実現が不可欠である.また,生成型の要約手法などに代表される文生成の研究において,生成する動詞の選択に着目した研究にSmileyら\cite{Smiley2016}の研究がある.Smileyらはニュース記事において,``rocketedup19percent''や``movedup2percent''のように``percent''の直前の数値によって“上昇する”や“下降する”という同じ意味を持つ単語であっても単語の表層が変化していることに着目している.また,``increase''や``decrease''のような一般的な動詞を利用するだけでなく,パーセントの直前の数値などに代表されるような度合いの強さを動詞を選択する際に組み込むことができれば,より自然に聞こえるテキストを生成することができると報告している.Smileyらは,ReutersNewsAgencyのニュース記事1400万記事を分析し,``percent''の直前の数値が大きい場合には``skyrocket''や``rocket''という表現が利用され,\%の直前の数値が小さい場合には``edgeup''や``nudgeup''という表現が利用されることを報告している.また,``Netprofitsdropped2\%''と``Netprofitsplummeted2\%''のような動詞のみが異なる2つの文に対して,どちらがもう片方より自然に聞こえるかを被験者が選択する実験を行っている.この例では,``dropped''は2\%の直前に出現しやすい動詞であり,``plummeted''は2\%の前に出現しにくい動詞となっている.実験の結果,2000問の質問のうち,1372問が直前に出現しやすい動詞を含む文が自然に聞こえるテキストとして選択される結果となり,チャンスレートである50\%を有意に上回る結果となったことを示している.Smileyらの研究を加味すると,本研究においても先制したイニングでは“先制”という一般的な単語のみを利用するだけでなく,“試合の均衡を破る”や“幸先良く先制する”のようなフレーズを利用することで,先制となった得点の重要度をユーザに伝えることができると考えられる.また,“0-0のまま迎えた”というフレーズが要約文に組み込まれていると,ユーザは試合が膠着し,緊迫しているという状況をユーザは知ることができる.一方,“タイムリーヒット”という単語は得点が入ったという事実以上の意味は含まれておらず,GPには含まれない.本研究ではこのような試合の状況を伝えることのできるフレーズをGPと定義し,要約文に組み込む.本研究と同じく,野球を対象とした研究\cite{murakami2016,Oh2008,Allen2010}も盛んに取り組まれている.OhandShrobe\cite{Oh2008}は,野球に関するニュース記事からホームチーム視点の記事とアウェイチーム視点の試合の記事の生成に取り組んでいる.同様に,Allenら\cite{Allen2010}は,野球に関する様々なデータから新聞記者が書いたような試合の記事の生成に取り組んでいる.AllenらやOhandShrobeらの研究は,試合全体に関する記事を作成することを目的としており,生成される文は比較的長く,本研究とは目的が異なる.村上ら\cite{murakami2016}は,表\ref{tb:inning_report}のようなイニング速報を自動で生成している.村上らは,速報中のそれ以上細かく分割できない一連の事象のことをイベントと定義し,イニング速報の自動生成を打者成績の系列からイベントの系列を予測する系列ラベリング問題として扱っている.具体的には,イベント文中の打者名やアウト数をスロット化し,イベントテンプレートを作成する.そして,打者成績系列とイベントテンプレート系列を学習することで,未知の打者成績系列に対してイベントテンプレートを予測し,イニング速報を自動生成している.村上らの目的はイニング速報を再現することが目的であり,本研究と目的が異なる.また,GPを要約文に組み込むことが野球を対象としたこれらの研究と本研究との違いである.スポーツ以外を対象とした文生成の研究にMcRoyら\cite{mcroy2000}の研究がある.McRoyらは,has-property(John,age,20)のような形式から,``John'sageis20.''のような文を生成するシステムを開発している.具体的には,事前に定義された文をそのまま返すルール(TheStringrule)や事前に定義されたテンプレートのスロットを埋めた文を返すルール(TheTemplaterule)などの10のルールを用意している.しかし,人手でテンプレートを用意するのはコストのかかる作業であり,現実的であるとはいい難い.そこで,本研究では,既にWeb上に大量に存在するイニング速報からテンプレートを自動生成する手法を提案する.また,近年では機械翻訳\cite{cho2014,Luong2015},ヘッドライン生成\cite{Rush2015},キャプション生成\cite{Vinyals2015,Xu2015},対話応答生成\cite{Li-J2016,sato2017},要約生成\cite{chopra2016}など多くの系列変換タスクでEncoder-Decoderモデルを利用した研究成果が報告されている.特に,系列変換タスクの近年の傾向として,出力系列を所望する出力に制御,変化させる研究が盛んに取り組まれている.出力系列を所望する出力に制御する手法として,Decode時の各タイムステップに追加的な情報を付与する方法が多くの研究\cite{Li-J2016,kikuchi2016,Murakami2017,murakami2017b}に応用されている.Liら\cite{Li-J2016}は,不特定多数の対話データから学習された応答生成モデルが,たとえば,“出身はどこですか?”という発話に対しては,“東京です.”と応答し,“どこの出身ですか?”という発話に対しては“福岡です.”と応答するといったように応答に一貫性がないことを問題とした.この問題に対して,個人の属性を表すベクトルをDecoderに追加的に入力することで,個人の背景などの特徴を捉えた一貫性のある応答生成に成功している.Kikuchiら\cite{kikuchi2016}は,Encoder-Decoderモデルを用いた要約生成において,出力系列の長さを制御するための探索ベースの手法や学習ベースの手法の4つの手法を提案している.学習ベースの手法のうちの1つは,出力すべき長さを表す長さ埋め込みベクトルをDecoderへ追加的に入力する手法であり,要約精度を落とすことなく,出力系列の長さを制御する機能を獲得できたと報告している.Murakamiら\cite{Murakami2017}は,日経平均株価の1日分のデータと7営業日分の終値のデータから概況テキストの自動生成に取り組んでいる.特に,時間帯に関する“前引け”や“大引け”などの表現を正しく出力するため,概況テキストが配信される時間帯を表すベクトルをDecoderに追加的に入力している.その結果,入力しないモデルに比べ,時間帯に関する表現を正しく出力することに成功したと報告している.村上ら\cite{murakami2017b}は,気圧や気温,風向きなどの予測値が格納された数値予報マップから天気予報コメントの自動生成に取り組んでいる.村上らも同じく,Decode時に天気予報コメント配信時の日時や季節などのメタ情報を追加的に入力することで,“今日”,“明日”などの時間帯に関する表現や,“春の陽気”のような季節特有の表現を正しく出力できるようになり,単語の一致率を基にした評価指標であるBLEU値が向上したと報告している.本研究においても,表\ref{tb:pbp}の打席に関するデータ以外の時間情報などのイニング情報を考慮することで,GPの制御を試みる.Decode時の各タイムステップに追加的な情報を入力する手法以外には,入力系列に特定のトークンを付与することで出力を制御を試みる研究\cite{sennrich2016,yamagishi2016}がある.Sennrichら\cite{sennrich2016}は,英独機械翻訳において,出力であるドイツ語側の敬意表現の制御に取り組んでいる.入力である英文に出力であるドイツ文の敬意表現の有無を単語として組み込んだコーパスで学習し,テスト時にも敬意表現を入力文に付与することで付与した情報を考慮した翻訳文を出力することができ,参照訳と同じ敬意表現を入力文に付与した場合,BLEU値が向上することを報告している.同じく,Yamagishiら\cite{yamagishi2016}は,Sennrichらの手法を基に,日英翻訳での出力文の態制御に取り組んでいる.出力である英文の態情報を入力である日本語文に態情報として組み込んだコーパスで学習し,テスト時にも態情報を入力である日本語文に付与することで,付与した情報を考慮した態表現を持つ翻訳文を出力することができ,参照訳と同じ態表現を入力文に付与した場合,BLEU値が向上することを報告している.本研究では,提案手法と入力系列に特定のトークンを付与する手法(\textbf{SideConstraints})を比較し,出力結果の考察を行う.また,上述した研究は大規模な学習データを用いてモデルを学習している.一方,十分なデータ量とデータの質が確保できない場合において,本来の解きたい問題と関連する別のデータで事前に学習を行い,事前の学習で得られた学習結果を本来の解きたい問題に再利用することでモデルの精度向上を図る手法に転移学習がある.転移学習は,固有表現抽出\cite{arnold2007}やレビューの極性分類\cite{blitzer2007},機械翻訳\cite{koehn2007,zoph2016}など様々なタスクで有効性が報告されている.赤間ら\cite{akama2017}は,対話応答生成において,発話者のキャラクタを印象付ける応答生成に取り組んでいる.Twitterから抽出した大規模な対話データで事前学習した後,特定の話者による応答からなる小規模な対話データで転移学習することで,人手によるルールなどを必要とせずに,入力された発話に対する応答の適切さを保ちつつ,特定の話者の発話スタイルを応答に付与することに成功している.本研究では,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いてEncoder-Decoderを学習させることが考えられる.しかし,GPを含む戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を解決するため,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.これまで述べてきたように,Encoder-Decoderモデルを利用した手法では,メタ情報や転移学習などによって,出力系列を所望する出力に制御,変化させる研究が盛んに取り組まれている.一方で,本研究で扱うスポーツ要約生成において,出力を制御,変化させるといった研究は明示的に取り組まれていない.
\section{テンプレート型生成手法}
\label{sec:template_method}テンプレート型生成手法では,イニング中の全打席ではなく,注目すべき打席に焦点をあてた要約文を生成する.まず,要約文として生成すべき注目打席を選択する.今回は2打席を注目打席として選択する.次に,テンプレートを自動で生成し,要約文を生成する.また,生成されたテンプレートにGPを融合することで,ユーザが試合の状況を理解しやすい要約文を生成する.\subsection{打席の選択}\label{sec:atbat_selection}各打席ごとにスコアリングし,スコア上位2打席を要約文として生成する.スコアリングには以下の式を用いる.\begin{equation}\label{eq:scoring}Score_{atbat}=S+R\end{equation}(\ref{eq:scoring})式は打席ごとに算出されるスコアであり,$S$と$R$の和である.$S$はその打席で得点した得点数である.$R$はホームランやタイムリーヒットなどの重要なイベントに対しては高く,フライや三振などのイベントに対しては低くなるように設計されたスコアである.$R$スコアを表\ref{tb:action_score}に示す.たとえば,表\ref{tb:pbp2}のイニングでは,陽と杉谷の打席が要約すべき打席として選択される.\begin{table}[t]\caption{Rスコア}\label{tb:action_score}\input{02table04.tex}\end{table}\begin{table}[t]\caption{2016年8月3日日本ハム対ロッテ戦5回表のPlay-by-playデータと各打席の$Score_{atbat}$}\label{tb:pbp2}\input{02table05.tex}\end{table}\subsection{テンプレートの自動生成}本研究では類似したデータを持つ打席同士は,その打席を説明する文の構造も類似していると考える.表\ref{tb:sim_pbp}は表\ref{tb:pbp2}とは別の試合のイニングで\ref{sec:atbat_selection}節の(\ref{eq:scoring})式のスコアリングにより選択された2打席のデータである.表\ref{tb:pbp2}の陽と杉谷のデータと表\ref{tb:sim_pbp}の茂木と銀二のデータを比較すると類似していることがわかる.ここで表\ref{tb:sim_pbp}に対応するイニング速報(表\ref{tb:sim_inning_report})に着目する.提案手法では,この表\ref{tb:sim_inning_report}のイニング速報中の類似打席(茂木選手と銀次選手)に関するデータを注目打席のデータに置き換え,類似打席以外の打席に関する部分は文圧縮処理により削除することで,文法的に正確な注目打席を説明する文を生成することができると考える.また,イニング速報は人手で書かれているため,文法的に正確なテンプレートを生成することができる.このような考え方に基づき,注目打席と類似したデータを持つ類似イニングを検出し,テンプレートを自動生成する.\begin{table}[t]\caption{2016年8月7日西武対楽天7回裏のPlay-by-playデータ}\label{tb:sim_pbp}\input{02table06.tex}\end{table}\begin{table}[t]\caption{2016年8月7日西武対楽天7回裏のイニング速報}\label{tb:sim_inning_report}\input{02table07.tex}\end{table}\subsubsection{類似イニング検出}類似イニングを検出する際には,注目打席とその他のイニングの注目打席の間でデータの類似度を計算し,最も類似度の高いものを類似イニングとする.一致率は表\ref{tb:pbp2}に示す打者名以外の5つの項目を用いて計算する.ただし,打席結果の一致は絶対条件とし,打席結果の異なる打席の一致率は0とする.また,打席結果は実際のPlay-by-playデータには含まれていないが,試合開始時から該当するイニングまでの得点数から求めることができるため,その情報を利用する.打席間の類似度は以下の式で計算される.\begin{equation}sim(T,A)=\frac{\sum_{n=1}^{2}\sum_{i=1}^{5}co(T_n^i,A_n^i)}{5}\end{equation}$A$は入力である要約したいイニング中の注目打席群であり,$A_n$は$n$番目の注目打席を指す.$T$は入力のイニング以外のイニングの注目打席群であり,$T_n$は$n$番目の注目打席である.$A_n^1\simA_n^5$,$T_n^1\simT_n^5$はそれぞれの打席のイベント前のアウト数,イベント前の出塁状況,イベント後の出塁状況,イベント,打席結果の5つの項目を表し,$co(T_n^i,A_n^i)$は項目が一致しているときは1,一致しないときは0となる.たとえば,表\ref{tb:pbp2}の陽の打席と表\ref{tb:sim_pbp}の茂木の打席は全ての項目が一致している.よって類似度は$\frac{5}{5}=1.0$となる.同様に,表\ref{tb:pbp2}の杉谷の打席と表\ref{tb:sim_pbp}の銀次の打席は類似度が$\frac{2}{5}=0.4$(イベントと打席結果が一致)となり,最終的に表\ref{tb:pbp2}と表\ref{tb:sim_pbp}のイニング間の類似度は1.0と0.4の和である1.4となる.\subsubsection{文圧縮処理}\label{sec:compression}次に,類似イニングのイニング速報中の類似打席に関する部分はスロット化,それ以外は文圧縮処理により削除することでテンプレートを生成する.まず,文圧縮処理の前処理として文分割を行う.類似イニングのイニング速報を動詞の連用形,句読点,並立助詞,接続助詞で分割する.ただし,分割点の直前が野球専門語の場合は分割しない.野球専門語はイニング速報から人手で97語を用意した.野球専門語の例を表\ref{tb:baseball_word_list}に示す.\begin{table}[b]\caption{野球専門用語の例}\label{tb:baseball_word_list}\input{02table08.tex}\end{table}次に文圧縮処理を行う.表\ref{tb:flow}に文圧縮処理から文生成までの手順を示す.表\ref{tb:flow}のイニング速報は既に直前の文分割処理により分割されており,斜線(/)は分割点を表す.表\ref{tb:flow}の“先頭聖澤の二塁打”の直後に分割点である読点が出現しているが,読点の直前の“二塁打”という単語が野球専門語であるため,分割しない.分割された文のうち,選手名を含む分割文が文圧縮の対象となり,類似打席以外の打席に関するイベントを文圧縮処理により削除する.表\ref{tb:flow}の“この回計4点で攻撃終了。”という分割文は選手名を含んでいないため,文圧縮処理の対象とならず,その他の分割文は文圧縮の対象となる.文圧縮では以下の2つの処理を順に行う.\begin{table}[t]\caption{文圧縮から文生成までの手順}\label{tb:flow}\input{02table09.tex}\end{table}\begin{description}\item[文圧縮1]\類似打席以外の選手名からその選手の野球専門語までを削除する.またアウト数や投手の情報,試合に依存する“\#Num号”や選手名の直前の“先頭”や“代打”などの表現も削除する.\item[文圧縮2]\選手名を含んでいない分割文は文ごと削除する.\end{description}たとえば,文圧縮1の処理では表\ref{tb:flow}に示すように,“先頭聖澤の二塁打”や“野田が登板”といった下線が引かれている部分を削除する.文圧縮2の処理においても同様に下線が引かれている部分を削除する.文圧縮処理の後,選手名や野球専門語などをスロットとし,テンプレートを生成する.選手名は入力であるPlay-by-playデータ中の選手名とのマッチングによりスロット化を行う.同じく野球専門語は野球専門語リストとのマッチングによりスロットとする.また,得点数などの数値表現のスロット化を行う際は,事前に数値表現は全て``\#Num'7に置き換えた上でスロット化を行う.まず,“回\#Num点”,“計\#Num点”,“\#Num点で攻撃終了”,“\#Num点で試合終了”のいずれかに当てはまる場合に``\#Num''の部分を``[ALLSCORE]''に置き換える.``[ALLSCORE]''で置き換えた後に,``[NAME1]''に最も近く,``[NAME1]''より後に出現する``\#Num''を``[SCORE1]''へ置き換える.同様に,``[NAME2]''に最も近く,``[NAME2]''より後に出現する``\#Num''を``[SCORE2]''へ置き換える.このように,テンプレートを生成する際のスロット化の処理において人手による処理は介入していない.最後に,スロットに注目打席のデータを補完することで,文を生成する.\subsubsection{Game-changingPhrase(GP)の融合}\label{sec:gp_fusion}生成されたテンプレートにGame-changingPhrase(GP)を融合することでユーザが試合の状況を理解しやすい要約文を生成する.GPは戦評から自動で獲得する.表\ref{tb:game_report}の戦評の例では,“0-0のまま迎えた”のようにイニングを修飾するGP(InningPhrase;GP{\tinyIP})と“待望の先制点を挙げる”のようにイニング結果を表現するGP(ResultPhrase;GP{\tinyRP})が含まれている.他には,“走者一掃の”のように打撃内容を修飾するGP(ActionPhrase;GP{\tinyAP})が戦評では使用されている.本研究では,GP{\tinyIP},GP{\tinyRP},GP{\tinyAP}の3種類のGPを定義し,これらを戦評からパターンマッチにより獲得する.\begin{table}[b]\caption{獲得されたGPとルールの例}\label{tb:gp_and_rules}\input{02table10.tex}\end{table}GP{\tinyIP}はチーム名を含む文節とイニング数の間に出現するものを獲得する.GP{\tinyAP}は打者名を含む文節と打撃内容の間に出現するものを獲得する.GP{\tinyRP}は戦評に言及されている最後の選手の野球専門語を含む文節以降から文末の間に出現するものを獲得する.次に,獲得されたGPに対して,ルールを作成する.たとえば,“試合を振り出しに戻す”というGP{\tinyRP}が使われている得点シーンは,全て“同点に追いついた6回以降”であることが確認できた.このように,各GPに対して,イニング数やイニング結果などからルールを作成する.獲得されたGPとそのルールの例を表\ref{tb:gp_and_rules}に示す.パターンマッチにより,GP{\tinyIP},GP{\tinyAP},GP{\tinyRP}はそれぞれ8,3,11種類を獲得した.また,それらに対するルールは表\ref{tb:gp_and_rules}に示している得点数,イニング数,出塁状況,イニング結果,イベント,打者数,得点差の7つの項目から構成されている.同時に複数の項目を満たす場合は項目が多いGPを優先的に選択する.たとえば,「3点以上,9回,満塁,同点,ホームランまたは適時打」の場合,“値千金の”と“走者一掃の”の2つのGPのルールを満たす.この場合,“値千金の”というGPは得点数,イニング数,イニング結果,イベントの4つの項目を満たす必要があり,“走者一掃の”というGPは得点数,出塁状況,イベントの3つの項目を満たす必要があるため,項目が多い“値千金の”を選択する.また,同じルールのGPはランダムに選択する.たとえば,“試合の均衡を破る”と“待望の先制点を挙げる”は同じルールであるため,どちらかをランダムで選択する.そして,\ref{sec:atbat_selection}節で選択された注目打席のデータが作成したルールにマッチする場合,テンプレートに対して,該当するGPを融合する.GP{\tinyIP}とGP{\tinyAP}は,獲得した際に用いたルールを逆に適用し,融合する.要するに,GP{\tinyIP}はチーム名と回数の間に,GP{\tinyAP}は打者名と打撃内容の間に挿入する.GP{\tinyRP}は図\ref{fig:gp_fusion}に示す手順で融合する.最後にテンプレート中のスロットにデータを補完することで,最終的な文を生成する.\begin{figure}[t]\begin{center}\includegraphics{25-4ia2f1.eps}\end{center}\caption{テンプレートとGP{\tinyRP}の融合手順}\label{fig:gp_fusion}\end{figure}
\section{ニューラル型生成手法}
\label{sec:neural_method}本研究では,時系列順の打席データから単語系列を生成する系列変換タスクとして考え,Encoder-Decoderモデルの一つであるSequence-to-Sequenceモデル\cite{Sutskever2014}を用いてイニング要約文を生成する.このモデルはEncoder,DecoderともにReccurentNeuralNetwork(RNN)の枠組みを用いている.EncoderのRNNは入力系列$(x_1,\ldots,x_N)$が与えられると時刻$t$において,以下の式で隠れ層$h_t$の状態を更新する.\begin{equation}h_t=g(h_{t-1},x_t)\end{equation}ここで,$g$は任意の活性化関数を表しており,従来のRNNでは学習が困難であった長期系列を扱えるようにするため,Long-ShortTermMemory(LSTM)\cite{Hochreiter1997}が使われることが多く,本研究においてもEncoderのRNNにLSTMを利用する.DecoderはEncoderのRNNによって入力系列全てをエンコードすることで得られた内部状態を利用し,EncoderのRNNとは別のRNNにより系列を一つずつ出力していく.本研究では,DecoderのRNNにおいてもLSTMを利用する.Decoderは,入力系列$x=(x_1,\ldots,x_N)$から出力系列$y=(y_1,\ldots,y_M)$を出力する条件付確率$p(y|x)$を以下の式で計算する.\begin{equation}p(y|x)=\prod_{t=1}^Mp(y_t|v,y_1,\ldots,y_{t-1})\end{equation}$v$は,全ての入力系列をエンコードすることで得られた内部状態であり,EncoderのLSTMの最終的な隠れ層である.また,DecoderのLSTMが出力系列のうちの1つ目の要素$y_1$を出力する時,$y_0$にあたる要素は存在しないため,\textless{}s\textgreater{}という文頭を表すトークンの単語ベクトルを入力する.\begin{figure}[b]\begin{center}\includegraphics{25-4ia2f2.eps}\end{center}\caption{提案手法のモデル図}\label{fig:model}\end{figure}提案手法のモデルを図\ref{fig:model}に示す.本研究の目的の一つは,読み手が試合の状況を理解しやすい要約文を生成するため,要約文にGPを組み込むことである.そこで,入力データが与えられたときに,GPを含む戦評を出力するようにEncoder-Decoderを学習させることが考えられる.一般に,Encoder-Decoderモデルの学習には大量の学習データが必要とされている.しかし,戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を解決するため,本研究では,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.\subsection{Play-by-playデータから打席ベクトルへの変換}表\ref{tb:pbp}に示すような表形式のPlay-by-playデータから打席ベクトルを作成する.具体的には,アウト数,出塁状況,打撃内容,打順,代打か否か,先頭か否か,その打席での得点数毎にOne-hotベクトルを作成し,全てを結合したベクトルを打席ベクトルとする.\subsection{イニング情報の考慮}Liら\cite{Li-J2016}の研究ではDecoderの隠れ状態に個人の人格情報を,Murakamiら\cite{Murakami2017}の研究では,Decoderの隠れ状態に時間帯などのメタ情報を付与することで,出力単語系列が変化することを報告している.また,Kikuchiら\cite{kikuchi2016}は,要約生成タスクにおいて,出力すべき残りの長さを表す長さ埋め込みベクトルをDecoderのLSTMへ追加的に入力することで,出力系列の長さを制御する機能を獲得できたと報告している.本研究ではこれらの知見に基づき,Play-by-playデータ以外のイニングの情報を表すイニング情報ベクトルを作成し,そのベクトルをDecoderのLSTMへ追加的に入力することでGPを制御する.“待望の先制点を挙げる”というGPには“待望の”という時間帯に言及した表現や,“\#Num点を追う”というGPには“追う”という得点差に言及した表現が含まれている.このようなGPを制御するためには,1回や2回などの時間帯を表す情報やリードやビハインドなどの得点差を表す情報が必要であると考えられる.そこで,時間帯の情報$Time$(e.g.,1回,2回,...),得点差の情報$CurrentScore$(e.g.,リード,ビハインド,同点),イニング結果の情報$Event$(e.g.,先制,同点,勝ち越し),イニングでの総得点の情報$TotalScore$,打者が一巡したか否かの情報$BatterAround$ごとにOne-hotベクトルを作成し,全てを結合したベクトルをイニング情報ベクトルとする.イニングでの総得点を表すベクトルの次元数は学習データ中のイニングでの最大得点数と同じ数とする.イニング情報ベクトルは図\ref{fig:model}に示すように,毎ステップDecoderのLSTMへ追加的に入力する.\subsection{事前学習}事前学習として打席ベクトルとGPが含まれていないイニング速報を用いて打席説明文生成モデルを学習する.事前学習に用いるデータとしてイニング速報中の打席に言及している文のみを利用し,投手に関する“先発”や“登板”といった単語を含む文,“三者凡退”のような選手名を含んでいない文は利用しない.また,“盗塁”や“捕逸”など打席以外に言及している文も利用しない.具体的には,表\ref{tb:inning_report}のイニング速報では1,4,8,9文目は打席に言及していない文であり,3文目は“盗塁”に言及しているため,2,5,6,7文目を学習データに用いる.たとえば,2文目は,中村,今宮,長谷川,本多の4打席に言及しているため,この4打席の打席ベクトル系列を入力したとき,2文目を生成するようにEncoder,DecoderのLSTMを学習する.このように学習することで,可変長の入力系列に対して,入力された情報を網羅した打席説明文を出力するモデルを学習することができる.\subsection{転移学習}\label{sec:transfer}事前学習では可変長の打席系列の入力に対して,打席を説明する文を生成するようにEncoder,DecoderのLSTMを学習した.転移学習では,事前学習で学習したモデルパラメータを転移学習のモデルパラメータの初期値として用いる.転移学習では,可変長の打席系列の入力に対して,GPを含む打席説明文を生成するようにEncoder,DecoderのLSTMを学習する.一般的に,Encoder-Decoderモデルが出力する系列の長さは学習データの統計値に依存することが知られている\cite{kikuchi2016}.転移学習で学習に用いる戦評は,表\ref{tb:game_report}の例のように,1打席にのみ言及したものが多く,比較的短い文であり,実際に我々が収集した戦評のうち,約8割が1打席にのみ言及したものであった.一方,事前学習で学習に用いるイニング速報は,1打席に言及したものは約36\%,2打席に言及したものは約33\%,3打席に言及したものは約23\%と一文に言及されている打席数は戦評に比べて均一な分布となっている.そのため,事前学習で可変長の打席系列の入力に対して,打席を説明する文を生成するようにEncoder,DecoderのLSTMを学習したにも関わらず,戦評を生成するように転移学習すると,入力打席系列の情報を網羅的に説明する文を生成することが困難となる.そこで,転移学習用の新たな学習データを作成する.新たな学習データを作成する際のルールを以下に示す.\begin{itemize}\item戦評に言及されている打席が1打席のみ\itemイニング速報中の各文において,最後に言及されている打席と戦評に言及されている打席が同じ打席である文が存在する\item上の2つのルールを満たす場合に,イニング速報中の該当文の最後の打席の選手名以前のテキストを抽出する\item抽出したテキストを戦評に言及されている選手名の直前に挿入する\end{itemize}たとえば,戦評(表\ref{tb:game_report})に言及されている打席は本多選手の1打席のみであり,イニング速報(表\ref{tb:inning_report})の2文目の最後に言及されている打席と戦評の最後に言及されている打席は本多選手の打席であり共通している.このような場合,戦評の“本多”という選手名の直前にイニング速報中の2文目の“本多”という選手名以前の“先頭中村晃の安打、今宮の犠打、代打長谷川の四球などで2死二三塁とすると、”というテキストを挿入する.この操作によって,“ソフトバンクは0-0のまま迎えた延長10回表、先頭中村晃の安打、今宮の犠打、代打長谷川の四球などで2死二三塁とすると、本多の2点適時打で待望の先制点を挙げる。”といった複数の打席に言及し,かつGPを含む学習データを作成することができる.また,戦評にはGP$_{RP}$が必ず含まれているとは限らず,たとえば,“1回に先制”したイニングの戦評では“幸先良く先制する”を含むものは61件,“幸先良く先制する”を含まず,“先制”という単語のみを含むものは245件であった.このような分布のデータでモデルを学習すると,“1回に先制”したデータに対して“幸先良く先制”というGP$_{RP}$を生成しにくいモデルが学習されると考えられる.そこで,各イニング結果\footnote{先制,勝ち越し,逆転,同点,追加点}の各イニング数\footnote{1回から12回まで}ごとにGP$_{RP}$を含むものから最大20件\footnote{経験的に20を選択した.}を選択するように転移学習用データをサンプリングする.サンプリングする際は上述したイニング速報と戦評から作成したデータと元の2打席以上に言及している戦評からサンプリングする.\vspace{-0.5\Cvs}
\section{実験}
\label{sec:exp}提案したテンプレート型生成手法とニューラル型生成手法の2つを用いて要約文を生成し,比較,考察を行う.提案手法の入力であるPlay-by-playデータは2016年3月25日から2017年6月2日までの期間に行われたNPBの試合のデータを週間ベースボールONLINE\footnote{http://sp.baseball.findfriends.jp/}から収集した.イニング速報も同様の期間に行われたNPBの試合に関するものをエキサイトベースボール\footnote{http://www.tbs.co.jp/baseball/top/main.html}から収集した.戦評は2016年3月25日から2017年5月14日までの期間に行われたNPBの試合の戦評をYahoo!SportsNavi\footnote{https://sports.yahoo.co.jp/}から収集した.また,テストデータとしてMLBのPlay-by-playデータを収集した\footnote{手法の頑健性を検証するため,学習データとは異なるソースからなるデータをテストデータとして利用した.}.MLBのPlay-by-playデータはBASEBALLREFERENCE\footnote{https://www.baseball-reference.com/}から2016年度のデータを収集した.収集したデータの統計を表\ref{tb:data_statistics}に示す.イニング速報と戦評は,出塁状況,アウト数,選手名,得点数を事前にスロット化したものを利用した.形態素解析器にはMeCab\footnote{http://taku910.github.io/mecab/}を利用した.生成された要約文が入力されたデータを正確に表現できているかを確かめるため,事実性という観点から評価する.また,提案した2つの手法は生成型文生成手法であり,文法性は担保されない.そこで,提案手法によって生成された要約文を可読性という観点からも評価する.可読性の評価指標を表\ref{tb:readability_criterion}に示す.\newpage\subsection{テンプレート型生成手法の評価}提案したテンプレート型生成手法を用いて,イニングの要約文を生成した.要約文を生成する際には.収集したMLBのPlay-by-playデータからランダムに100イニング選択し,生成された100文に対して,入力データと生成したデータに矛盾がないかを確かめ,事実性を評価した.また,本研究には関わっていない4人の被験者\footnote{野球に対する最低限のルールを認知している被験者を選択した.}により,生成された100の要約を3段階で可読性を評価した.事実性と可読性の評価結果を表\ref{tb:temp_eval_result}に示す.事実性の各行は,テストデータ100件から生成された文のうち,入力されたイベントが正しく説明されていた文の数を記している.また,可読性の値は3段階評価の平均値を記している.\begin{table}[b]\caption{収集したデータの統計量}\label{tb:data_statistics}\input{02table11.tex}\end{table}\begin{table}[b]\caption{可読性の評価基準}\label{tb:readability_criterion}\input{02table12.tex}\end{table}\begin{table}[b]\caption{テンプレート型生成手法の評価結果}\label{tb:temp_eval_result}\input{02table13.tex}\end{table}評価結果からテンプレート型生成手法によって生成された要約文は事実性,可読性ともに高い評価を得ていることが確認できた.テンプレート型生成手法により生成された文の例を表\ref{tb:ex_temp_gen}に示す.これらは事実性,可読性ともに最も良い評価を受けた生成文である.テンプレート型生成手法は,人手で書かれたイニング速報からテンプレートを自動生成しているため,文法的にも正確であり,読みやすい要約文を生成することができた.また,GP融合前とGP融合後の要約文の事実性,可読性の評価結果を比較すると,大きな変化はなく,図\ref{fig:gp_fusion}に示した手順で適切にGPを融合することができたといえる.\begin{table}[t]\caption{テンプレート型生成手法によって生成された要約文の例}\label{tb:ex_temp_gen}\input{02table14.tex}\end{table}生成された文の評価結果は高い評価であったが,実際には事実でない文も100件中3件生成されており,その主な原因は文圧縮処理でのエラーであった.エラーを含む生成文の例を表\ref{tb:ex_temp_bad_gen}に示す.この例では,KrisBryant選手とWillsonContreras選手の2打席が注目打席として選択され,その2打席に対する類似打席として田中選手と丸選手の2打席が検出されている.その後,\ref{sec:compression}節で説明した文圧縮1の処理により,田中選手と丸選手以外に言及している“続く菊池が三振”が削除され,テンプレートが生成されている.しかし,“一塁走者田中が二塁を狙うもタッチアウト”という部分は田中選手に言及しているが,打席とは関係なく出塁した後に起きたイベントであるため,削除する必要があるが残ったままテンプレートが生成され,事実とは異なる文が生成されるエラーがあった.\begin{table}[t]\caption{テンプレート型生成手法によって生成されたエラーを含む要約文の例}\label{tb:ex_temp_bad_gen}\input{02table15.tex}\end{table}\subsection{ニューラル型生成手法の評価}\label{sec:neural_eval}実験データの詳細を表\ref{tb:neural_exp_detail}に示す.また,テンプレート型生成手法の評価と同様にMLBのPlay-by-playデータをテストデータとして利用した.語彙は事前学習用データ,転移学習用データをMeCabで形態素解析し,各形態素を1つの語彙とした.語彙埋め込みベクトルの次元数は128,打席ベクトルの次元数は48,イニング情報ベクトルの次元数は32とした.Encoder,Decoderの隠れ層の次元数は256とした.\begin{savenotes}\begin{table}[t]\caption{実験データの詳細}\label{tb:neural_exp_detail}\input{02table16.tex}\end{table}\end{savenotes}モデルパラメータの最適化手法にはAdam\cite{Kingma2015}($\alpha=0.001,\beta_1=0.9,\beta_2=0.999,\epsilon=10^{-8}$)を利用した.また,事前学習ではミニバッチを適用し,サイズは40とした.転移学習ではバッチサイズを1とした.事前学習,転移学習のepoch数はそれぞれ30,5とした.また,出力系列を生成する際には貪欲法(ビーム幅1)を用いた.これらのパラメータは1,400件の開発データから生成された要約文において,文の事実性やGPの制御性などの観点から主観的に判断し決定した.モデルの実装にはChainer\footnote{https://chainer.org/}を利用した.\begin{table}[b]\caption{ニューラル型生成手法の評価結果}\label{tb:neural_human_eval}\input{02table17.tex}\end{table}\begin{table}[b]\caption{ニューラル型生成手法によって生成された要約文の例}\label{tb:ex_neural_good_gen}\input{02table18.tex}\end{table}テンプレート型生成手法の入力打席系列は2打席であったが,ニューラル型生成手法は任意の入力打席系列に関して,要約文を生成するように学習した.そこで,入力打席系列が1打席,2打席,3打席の場合のデータをランダムに100件ずつ選択し,転移学習したモデルで生成された要約文を事実性,可読性の観点からテンプレート型生成手法と同じ方法で評価した.評価結果を表\ref{tb:neural_human_eval}に示す.ニューラル型生成手法により生成された文の例を表\ref{tb:ex_neural_good_gen}に示す.これらは事実性,可読性ともに最も良い評価を受けた生成文である.\begin{table}[b]\caption{ニューラル型生成手法によって生成されたエラーを含む要約文の例}\label{tb:ex_neural_bad_gen}\input{02table19.tex}\end{table}可読性の評価結果は,テンプレート型生成手法には劣るものの,概ね事前学習モデル,転移学習モデルともに高い評価を得ることができた.しかし,転移学習モデルにおける事実性の評価結果は事前学習モデルと比べて低い評価結果となった.事実でない文が生成されたエラーの分析を行ったところ,先頭\footnote{イニングで最初の打席を意味する.}でない選手名の直前に“先頭”という単語が生成されるエラーが起きていた.Encoderへの入力である打席ベクトルは,先頭か否かを表す情報を含んでいるにも関わらず,このような現象が観測された.表\ref{tb:neural_human_eval}に示した3つの打席系列を入力した場合の事前学習モデルにより生成された非事実文11文のうち3件,転移学習モデルが生成した非事実文27文のうち14件がこのエラーであった.このエラーを含む生成された文の例を表\ref{tb:ex_neural_bad_gen}に示す.表\ref{tb:ex_neural_bad_gen}のJacobyEllsbury選手は先頭の選手でないが,転移学習モデルは“先頭JacobyEllsbury”と生成している.転移学習モデルの学習データ中に“先頭”という単語が含まれているのは58件存在し,この58件のうち,入力打席系列が3打席のデータは51件であった.つまり,転移学習では,事前学習の知識を転用し,GPを生成するようにモデルを学習させたが,同時に,入力打席系列が3打席の場合,入力ベクトルに関係なく,“先頭”という単語を生成しやすいモデルが学習されたと考えられる.また,“連続タイムリー”のような言い回しで使われる“連続”という単語についても,実際には連続タイムリーではない場面で誤生成が見られた.実際に,“連続”という単語は転移学習に用いた学習データ中に65件含まれており,この65件のうち,50件が“player1とplayer2の連続タイムリー”のようなパターンで出現していた.そのため,上述した“先頭”を間違えて生成するエラーと同じように,``player2''という単語の後には,“連続”という単語を生成しやすい言語モデルを転移学習時に学習してしまい,連続でないにもかかわらず“連続”という単語を生成するエラーが見られた.このエラーは,転移学習モデルにおける入力打席系列が2打席の場合の非事実文32文のうち,24件を占めていた.テンプレート型生成手法では,GPごとに生成する基準を作成し,その基準にマッチしたイニングの要約文にGPを融合した.一方,ニューラル型生成手法では,イニング情報ベクトルをDecode時に追加的に入力することでモデルにGPを制御する機能を学習させた.そのため,表\ref{tb:gp_and_rules}に示したルールに該当するイニングで正確に該当するGPを生成できているかを各GP毎に正例と負例をそれぞれ100件ずつ用意し,F値で評価した.ここでいう正例,負例とは,GP毎に作成した基準にマッチするデータ,マッチしないデータのことである.たとえば,“幸先良く先制する”というGPの基準は“初回に先制”であり,正例は“初回に先制”したデータを指し,負例は“2回以降に先制”したデータを指す.F値の計算式を以下に示す.\begin{gather}F\mathchar`-measure=\frac{2\timesPrecision\timesRecall}{Precision+Recall}\\[1ex]Precision=\frac{TP}{TP+FP}\\[1ex]Recall=\frac{TP}{TP+FN}\end{gather}$TP$は正例データに対して,該当のGPを生成したデータ数,$FP$は負例データに対して該当のGPを生成したデータ数,$FN$は正例データに対して該当のGPを生成しなかったデータ数を指す.また,同じ基準のGPに対しては,どちらかのGPを生成しているか否かで評価した.たとえば,“試合の均衡を破る”と“待望の先制点を挙げる”というGPは同じ基準であるため,正例データに対してどちらかを生成できていれば,$TP$をカウント,負例データに対して,どちらかを生成していれば,$FP$をカウントした.加えて,GPの基準にマッチしないデータが入力として与えられたときに,GPを生成しないこともGPの制御においては重要である.そのため,F値に加えて,$Accuracy$を計算した.$Accuracy$の計算式を以下に示す.$TN$は負例データに対して該当のGPを生成しなかったデータ数である.\begin{equation}Accuracy=\frac{(TP+TN)}{200}\end{equation}また,評価する際は,以下の3つの手法と比較した.\begin{itemize}\item\textbf{Mix}\\このモデルは転移学習は行わず,事前学習と転移学習で利用したデータを混ぜて学習したモデルである.イニング情報ベクトルはDecode時に追加的に入力している.転移学習の有効性を検証するため,提案手法とこのモデルを比較する.\end{itemize}\begin{itemize}\item\textbf{NoInning}\\このモデルは転移学習は行うが,イニング情報ベクトルはDecode時に追加的に入力しないモデルである.イニング情報を考慮することの有効性を検証するため,提案手法とこのモデルを比較する.\end{itemize}\begin{itemize}\item\textbf{SideConstraints}\\\ref{sec:related_work}章で説明したように,Sennrichら\cite{sennrich2016}は,英独機械翻訳において,出力であるドイツ語側の敬意表現の制御に取り組んでいる.入力である英文の最後に``\verb|<|T\verb|>|''(敬意表現無し)や``\verb|<|V\verb|>|''(敬意表現有り)といった敬意表現の有無を表すトークンを付与したコーパスで学習し,テスト時にはユーザの所望する敬意表現トークンを入力文に付与することで付与した情報を考慮した翻訳文を出力することができたと報告している.また,Yamagishiら\cite{yamagishi2016}は,Sennrichらの手法を基に``\verb|<|Active\verb|>|''(能動態)と``\verb|<|Passive\verb|>|''(受動態)といったトークンを利用することで,出力文の態制御に取り組んでいる.このように,入力系列の最後に特定の出力を制御するためのトークンを付与するSideConstraintsは,本研究のGPの制御に対しても有効に働くと考えられる.Sennrichらの手法は,BahdanauらによるAttention機構\cite{bahdanau2014}とEncoderには入力系列を順方向に読み込むLSTMと逆方向に読み込むLSTMの2つのLSTM(Bi-DirectionalLSTM)を利用している.本モデルではSennrichらの手法を基に,入力打席系列の最後に``\verb|<|GP\verb|>|''(GPを付与する)と``\verb|<|NoGP\verb|>|''(GPを付与しない)の2つのトークンを利用し,GPの制御を試みる.学習データは出力文にGPが含まれている場合,つまり\ref{sec:transfer}節で新たに作成したデータを生成するように学習する場合,入力系列の最後に``\verb|<|GP\verb|>|''を付与した.出力文にGPが含まれていない場合,つまりイニング速報を生成するように学習する場合は,``\verb|<|NoGP\verb|>|''を付与した.この学習データを利用して,転移学習は行わず,事前学習と転移学習で利用したデータを混ぜてモデルを学習した.ただし,イニング情報ベクトルはDecode時に追加的に入力する.Sennrichらはトークンベクトルを単語ベクトルと同時学習しているが,今回は簡単化のため,``\verb|<|GP\verb|>|''を表すトークンベクトルは1で埋めた48次元のベクトル,``\verb|<|NoGP\verb|>|''を表すトークンベクトルは0で埋めた48次元のベクトルを使用した\footnote{トークンベクトルは入力系列である打席ベクトルと同じ次元数である.}.\end{itemize}\begin{table}[t]\caption{各手法によるF値とAccuracy値}\label{tb:f_measure}\input{02table20.tex}\vspace{4pt}{\small$\ast$は各行について太字で示した最高値と比較して,両側符号検定により,有意な差が確認できた値を示している.同様に,$\dagger$は各行について提案手法のF値と比較して,有意な差が確認できた値を示している.また,Bonferroniの補正により,検定総数$N$により補正された有意水準$\alpha=0.05/N$で検定を行った.\par}\end{table}F値による評価結果を表\ref{tb:f_measure}に示す.表\ref{tb:f_measure}中のNanはゼロ除算による定義不可能を示している.提案手法と\textbf{Mix},\textbf{NoInning}を比較すると,“試合を振り出しに戻す”というGPを除き,有意な差を確認することができた.また,F値の平均値を比較すると,提案手法の平均値が最も高く,転移学習,イニング情報の考慮ともに,GPの制御において有効に働いたと考えられる.一方で,\textbf{SideConstraints}は,“\#Num点リードで迎えた”や“\#Num点ビハインドで迎えた”などのイニングを修飾するGP{\tinyIP}(\ref{sec:gp_fusion}節参照)において高いF値を記録しているが,“幸先良く先制する”などのイニング結果を表現するGP{\tinyRP}においては低いF値となっている.\textbf{SideConstraints}は,GPを制御するトークンを打席系列の最後に入力するモデルであるため,Decoderの内部で行列演算が繰り返し行われるにつれて,トークンの影響が小さくなったと考えられる.実際に,各GPの学習データ中での出現位置$Position$を表\ref{tb:f_measure}に示している.この値は単語数で正規化されており,文頭に近いほど0,文末に近いほど1に近い値となる.表\ref{tb:f_measure}からGP{\tinyRP}は文末の近くで出現していることが確認でき,Decoder内部で行列演算が繰り返し行われた後,トークンの影響が小さくなった状態で生成されるため,制御することができずに低いF値となったと考えられる.一方,GP{\tinyIP}は文頭の近くで出現していることが確認でき,トークンの影響が大きい状態で生成されるため,高いF値となったと考えられる.また,今回はトークンベクトルに0埋め,1埋めベクトルを使用したが,Sennrichらと同様に学習ベースで獲得したトークンベクトルを利用する方法での実験は今後の調査すべき課題といえる.同様のPlay-by-playデータを入力として与え,擬似的にイニング情報の一部を変化させた際の転移学習モデルによる生成文の例を表\ref{tb:ex_changing_time_info}に示す.イニング数が1回の生成文には“幸先良く先制する”というGPが適切に生成できていることが確認できる.イニング数を6回に変更した際の生成文においては“0-0のまま迎えた”と“試合の均衡を破る”というGPが適切に生成できていることが確認できる.\begin{table}[b]\caption{イニング情報中のイニング数を変化させた際の転移学習モデルによる生成文の違い}\label{tb:ex_changing_time_info}\input{02table21.tex}\end{table}それぞれのモデルで生成された文の例を表\ref{tb:ex_gen_each_models}に示す.転移学習モデルによって生成された文には“0-0のまま迎えた”や“試合の均衡を破る”といったGPが正確に生成されていることが確認できる.一方,\textbf{Mix}と\textbf{SideConstraints}には“試合の均衡を破る”といったGPは生成されていない.\textbf{Mix}は転移学習をせず,事前学習と転移学習に用いたデータを全て混ぜて学習するモデルであり,GPを含むデータ数(557件)と含まないデータ数(8,937件)に大きな差があることから,正確に生成されなかったと考えられる.また,\textbf{SideConstraints}は,上述したようにDecoderの内部で行列演算が繰り返し行われるにつれて,トークンの影響が小さくなったと考えられ,実際の生成文からも同様の現象が起きているのが見て取れる.加えて,\textbf{NoInning}は,イニング情報ベクトルを追加的に入力しないモデルであり,GPを制御するための情報を何も入力していない.そのため,“同点で迎えた”や“勝ち越し”といった事実とは異なる文を生成している.他にも“0点リードで迎えた”といった事実と異なる文も生成していた.表\ref{tb:f_measure}のF値の評価結果や実際の生成例を定性的に考慮すると,GPを制御するといったタスクにおいて,転移学習とイニング情報の考慮は有効に働いているといえる.\begin{table}[b]\caption{各手法によって生成された要約文の例}\label{tb:ex_gen_each_models}\input{02table22.tex}\end{table}\begin{table}[b]\caption{可読性評価において転移学習モデルがテンプレート型生成手法と比べ,低い評価を受けた例}\label{tb:ex_readability_bad_gen}\input{02table23.tex}\end{table}\subsection{テンプレート型生成手法とニューラル型生成手法の比較}表\ref{tb:temp_eval_result}と表\ref{tb:neural_human_eval}の可読性の評価結果を比較すると,テンプレート型生成手法の方が高い評価を受けていた.実際に被験者による可読性評価で,ニューラル型生成手法が低い評価を受けた例を表\ref{tb:ex_readability_bad_gen}に示す.転移学習モデルが生成した文は“2死から”という表現が2度出現しており,冗長な文であるため,低い評価を受けたと考えられる\footnote{生成文に文法的誤りはないようにみえるが,被験者が主観的に読みにくいと感じたためこの評価となったと考えられる.}.事実性の評価結果を比較すると,可読性の評価結果と同様にテンプレート型生成手法の方が高い評価を受けていた.これらの評価結果を考慮すると,テンプレート型生成手法の方が優れたイニング要約生成手法だと考えられる.一方で,テンプレート型生成手法も事実でない文を生成しており,主な原因は\ref{sec:compression}節で説明した文圧縮1の処理であった.文圧縮1の処理は,選手名からその選手の野球専門語までを削除するといった最もシンプルなアプローチであったため,まれに複雑な表現を含むイニング速報では関係のない情報を圧縮処理しきれずに,事実でない情報を含んだテンプレートが生成された.このエラーを解決するためには文圧縮処理手法の改善が必要であるが,関係のない情報を全て圧縮処理するように人手でルールを網羅するのは限界がある.したがって,文圧縮処理には統計的なアプローチを取り入れる必要があると考えられる.また,テンプレート型生成手法は\ref{sec:gp_fusion}節で説明したテンプレートとGPの融合手順(図\ref{fig:gp_fusion})によって,GPを融合する前後で事実性,可読性に大きな変化はないこと(表\ref{tb:temp_eval_result})や,ニューラル型生成手法の事前学習モデルは事実性の観点から転移学習モデルと比較すると優れていること(表\ref{tb:neural_human_eval})を考えると,ニューラル型生成手法の事前学習モデルでテンプレートを生成し,そのテンプレートに対して,表\ref{tb:gp_and_rules}と図\ref{fig:gp_fusion}に示した人手で作成したルールと融合手順により,GPを含む要約文を生成するのが,事実性,可読性の観点から質の高い要約文を生成することができると考えられる.加えて,テンプレートとGPの融合手順(図\ref{fig:gp_fusion})は,本質的には野球に特化したルールではないため,野球以外のスポーツにも適応することができる.実際に,我々はサッカーの要約生成タスクにおいて,同様のルール(例えば,開始$n$分以内の場合は“幸先良く先制する”を生成など)を用いて,以下のような要約文の生成に成功している\cite{Tagawa2017b}.\begin{itemize}\itemネイマールのスルーパスからイニエスタのアシストをラキティッチがゴール、バルセロナが\underline{幸先良く先制する}.\item\underline{両軍無得点のまま迎えた}後半42分、岩渕の\underline{値千金}のゴール、日本が\underline{試合の均衡を破る}.\end{itemize}このように,GPは野球以外のスポーツにおいても汎用的なフレーズであると考えられ,サッカーにおいてのGPの融合手順は簡単な手順で設定可能であった.今後の課題として,サッカー以外のスポーツへの適用が挙げられる.
\section{おわりに}
本研究では,日本で人気のある野球に着目し,Play-by-playデータからイニングの要約文の生成に取り組んだ.Web上で配信されている速報にはイニング速報と戦評があり,それぞれの以下のような特徴がある.\begin{itemize}\itemイニング速報中の各文はシンプルな読みやすい文で構成されているが,イニング速報そのものはそれらの文の集合であり,全体としては長く,読みづらい.\item戦評には“0-0のまま迎えた”や“待望の先制点を挙げる”のような試合の流れを考慮したフレーズ(Game-changingPhrase;GP)が含まれているのが特徴であり,読み手は試合の状況を簡単に知ることができる.\item戦評は試合が動いたシーンにのみ着目したテキストであり,試合終了後にしか更新されない.\end{itemize}このような特徴を踏まえ,任意の打席に対して,GPを含む要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えた.また,イニング速報や戦評は現在人手で作成されているが,自動で生成することで人手で作成する際にかかるコストを削減することができる.そこで,Play-by-playデータからGPを含む要約文の生成に取り組んだ.実際に,テンプレート型生成手法とEncoder-Decoderモデルを利用した手法の2つを提案し,それぞれの手法から生成された要約文に対して,事実性や可読性について人手評価をした.またEncoder-Decoderモデルについては,GPの生成に関していくつかの手法と比較し,転移学習を用いる提案手法が最も良いことをF値,Accuracyによって評価した.テンプレート型およびEncoder-Decoderモデルの実験結果からそれぞれのメリット・デメリットを考察した.その考察に基づき,今後の課題としてはEncoder-Decoderモデルにより入力打席系列を説明する文の雛形となるテンプレートを自動で生成した後,各GP毎に人手で作成したルールを利用してテンプレートと融合することで最終的な要約文を生成するという手法の有効性の検証が挙げられる.加えて,今回は攻撃側の視点だけに着目した手法を提案したが,守備側の視点も加味した要約文生成にも取り組みたいと考えている.\acknowledgment本論文の査読にあたり,著者の曖昧な記述などに対して丁寧なご意見・ご指摘をくださいました査読者の方々へ感謝します.本論文の内容の一部は,The21stInternationalConferenceonAsianLanguageProcessing(IALP2017)で発表したものです.本研究の一部は,科研費17H01840の助成を受けています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{赤間\JBA稲田\JBA小林\JBA乾}{赤間\Jetal}{2017}]{akama2017}赤間怜奈\JBA稲田和明\JBA小林颯介\JBA乾健太郎\BBOP2017\BBCP.\newblock転移学習を用いた対話応答のスタイル制御.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\338--341}.\bibitem[\protect\BCAY{Allen,Templon,McNally,Birnbaum,\BBA\Hammond}{Allenet~al.}{2010}]{Allen2010}Allen,N.~D.,Templon,J.~R.,McNally,P.~S.,Birnbaum,L.,\BBA\Hammond,K.\BBOP2010\BBCP.\newblock\BBOQ\mbox{StatsMonkey:}AData-DrivenSportsNarrativeWriter.\BBCQ\\newblockIn{\BemAAAIFallSymposiumSeries},\mbox{\BPGS\2--3}.\bibitem[\protect\BCAY{Arnold,Nallapati,\BBA\Cohen}{Arnoldet~al.}{2007}]{arnold2007}Arnold,A.,Nallapati,R.,\BBA\Cohen,W.~W.\BBOP2007\BBCP.\newblock\BBOQAComparativeStudyofMethodsforTransductiveTransferLearning.\BBCQ\\newblockIn{\BemDataMiningWorkshops,2007.ICDMWorkshops2007.SeventhIEEEInternationalConferenceon},\mbox{\BPGS\77--82}.IEEE.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2014}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemarXivpreprintarXiv:1409.0473}.\bibitem[\protect\BCAY{Blitzer,Dredze,Pereira,et~al.}{Blitzeret~al.}{2007}]{blitzer2007}Blitzer,J.,Dredze,M.,Pereira,F.,et~al.\BBOP2007\BBCP.\newblock\BBOQBiographies,Bollywood,Boom-boxesandBlenders:DomainAdaptationforSentimentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~7,\mbox{\BPGS\440--447}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\Bengio}{Choet~al.}{2014}]{cho2014}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRNNEncoder--DecoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1724--1734},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chopra,Auli,\BBA\Rush}{Chopraet~al.}{2016}]{chopra2016}Chopra,S.,Auli,M.,\BBA\Rush,A.~M.\BBOP2016\BBCP.\newblock\BBOQAbstractiveSentenceSummarizationwithAttentiveRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\93--98},SanDiego,California.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{Hochreiter1997}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-termMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{岩永\JBA西川\JBA徳永}{岩永\Jetal}{2016}]{iwanaga2016}岩永朋樹\JBA西川仁\JBA徳永健伸\BBOP2016\BBCP.\newblockテキスト速報を用いた野球ダイジェストの自動生成.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\238--241}.\bibitem[\protect\BCAY{Jianmin,Jinge,\BBA\Xiaojun}{Jianminet~al.}{2016}]{Jianmin2016}Jianmin,Z.,Jinge,Y.,\BBA\Xiaojun,W.\BBOP2016\BBCP.\newblock\BBOQTowardConstructingSportsNewsfromLiveTextCommentary.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1361--1371}.\bibitem[\protect\BCAY{Kikuchi,Neubig,Sasano,Takamura,\BBA\Okumura}{Kikuchiet~al.}{2016}]{kikuchi2016}Kikuchi,Y.,Neubig,G.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2016\BBCP.\newblock\BBOQControllingOutputLengthinNeuralEncoder-Decoders.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1328--1338},Austin,Texas.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{Kingma2015}Kingma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemTheInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Koehn\BBA\Schroeder}{Koehn\BBA\Schroeder}{2007}]{koehn2007}Koehn,P.\BBACOMMA\\BBA\Schroeder,J.\BBOP2007\BBCP.\newblock\BBOQExperimentsinDomainAdaptationforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\224--227}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kubo,Sasano,Takamura,\BBA\Okumura}{Kuboet~al.}{2013}]{Kubo2013}Kubo,M.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQGeneratingLiveSportsUpdatesfromTwitterbyFindingGoodReporters.\BBCQ\\newblockIn{\BemProceedingsofthe2013IEEE/WIC/ACMInternationalJointConferencesonWebIntelligenceandIntelligentAgentTechnologies},\mbox{\BPGS\527--534}.\bibitem[\protect\BCAY{Li,Galley,Brockett,Spithourakis,Gao,\BBA\Dolan}{Liet~al.}{2016}]{Li-J2016}Li,J.,Galley,M.,Brockett,C.,Spithourakis,G.,Gao,J.,\BBA\Dolan,B.\BBOP2016\BBCP.\newblock\BBOQAPersona-BasedNeuralConversationModel.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\994--1003}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesusingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},\mbox{\BPGS\71--78}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{Luong2015}Luong,M.~T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{McKeown\BBA\Radev}{McKeown\BBA\Radev}{1995}]{mckeown1995}McKeown,K.\BBACOMMA\\BBA\Radev,D.~R.\BBOP1995\BBCP.\newblock\BBOQGeneratingSummariesofMultipleNewsArticles.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\74--82}.ACM.\bibitem[\protect\BCAY{McRoy,Channarukul,\BBA\Ali}{McRoyet~al.}{2000}]{mcroy2000}McRoy,S.~W.,Channarukul,S.,\BBA\Ali,S.~S.\BBOP2000\BBCP.\newblock\BBOQYAG:ATemplate-basedGeneratorforReal-timeSystems.\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalConferenceonNaturalLanguageGeneration-Volume14},\mbox{\BPGS\264--267}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{村上\JBA笹野\JBA高村\JBA奥村}{村上\Jetal}{2016}]{murakami2016}村上総一郎\JBA笹野遼平\JBA高村大也\JBA奥村学\BBOP2016\BBCP.\newblock打者成績からのイニング速報の自動生成.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\338--341}.\bibitem[\protect\BCAY{村上\JBA笹野\JBA高村\JBA奥村}{村上\Jetal}{2017}]{murakami2017b}村上総一郎\JBA笹野遼平\JBA高村大也\JBA奥村学\BBOP2017\BBCP.\newblock数値予報マップからの天気予報コメントの自動生成.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\1121--1124}.\bibitem[\protect\BCAY{Murakami,Watanabe,Miyazawa,Goshima,Yanase,Takamura,\BBA\Miyao}{Murakamiet~al.}{2017}]{Murakami2017}Murakami,S.,Watanabe,A.,Miyazawa,A.,Goshima,K.,Yanase,T.,Takamura,H.,\BBA\Miyao,Y.\BBOP2017\BBCP.\newblock\BBOQLearningtoGenerateMarketCommentsfromStockPrices.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1374--1384}.\bibitem[\protect\BCAY{Nichols,Mahmud,\BBA\Drews}{Nicholset~al.}{2012}]{Nichols2012}Nichols,J.,Mahmud,J.,\BBA\Drews,C.\BBOP2012\BBCP.\newblock\BBOQSummarizingSportingEventsUsingTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2012ACMInternationalConferenceonIntelligentUserInterfaces},\mbox{\BPGS\189--198}.\bibitem[\protect\BCAY{Oh\BBA\Shrobe}{Oh\BBA\Shrobe}{2008}]{Oh2008}Oh,A.\BBACOMMA\\BBA\Shrobe,H.\BBOP2008\BBCP.\newblock\BBOQGeneratingBaseballSummariesfromMultiplePerspectivesbyReorderingContent.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalNaturalLanguageGenerationConference},\mbox{\BPGS\173--176}.\bibitem[\protect\BCAY{Robin}{Robin}{1994}]{Robin1994}Robin,J.\BBOP1994\BBCP.\newblock\BBOQRevision-basedGenerationofNaturalLanguageSummariesProvidingHistoricalBackground.\BBCQ\\newblockMaster'sthesis,Ph.D.thesisNewYorkUniversity.\bibitem[\protect\BCAY{Rush,Chopra,\BBA\Weston}{Rushet~al.}{2015}]{Rush2015}Rush,A.~M.,Chopra,S.,\BBA\Weston,J.\BBOP2015\BBCP.\newblock\BBOQANeuralAttentionModelforAbstractiveSentenceSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\379--389}.\bibitem[\protect\BCAY{Sato,Yoshinaga,Toyoda,\BBA\Kitsuregawa}{Satoet~al.}{2017}]{sato2017}Sato,S.,Yoshinaga,N.,Toyoda,M.,\BBA\Kitsuregawa,M.\BBOP2017\BBCP.\newblock\BBOQModelingSituationsinNeuralChatBots.\BBCQ\\newblockIn{\BemProceedingsofACL2017,StudentResearchWorkshop},\mbox{\BPGS\120--127}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{sennrich2016}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQControllingPolitenessinNeuralMachineTranslationviaSideConstraints.\BBCQ\\newblockIn{\BemProceedingsofthe15thAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\35--40}.\bibitem[\protect\BCAY{Sharifi,Hutton,\BBA\Kalita}{Sharifiet~al.}{2010}]{Sharifi2010}Sharifi,B.,Hutton,M.-A.,\BBA\Kalita,J.\BBOP2010\BBCP.\newblock\BBOQSummarizingMicroblogsAutomatically.\BBCQ\\newblockIn{\BemProceedingsofHLT'10HumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\685--688}.\bibitem[\protect\BCAY{Smiley,Plachouras,Schilder,Bretz,Leidner,\BBA\Song}{Smileyet~al.}{2016}]{Smiley2016}Smiley,C.,Plachouras,V.,Schilder,F.,Bretz,H.,Leidner,J.~L.,\BBA\Song,D.\BBOP2016\BBCP.\newblock\BBOQWhentoPlummetandWhentoSoar:CorpusBasedVerbSelectionforNaturalLanguageGeneration.\BBCQ\\newblockIn{\BemProceedingsofThe9thInternationalNaturalLanguageGenerationConference},\mbox{\BPGS\36--39}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{Sutskever2014}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tagawa\BBA\Shimada}{Tagawa\BBA\Shimada}{2016}]{Tagawa2016}Tagawa,Y.\BBACOMMA\\BBA\Shimada,K.\BBOP2016\BBCP.\newblock\BBOQGeneratingAbstractiveSummariesofSportsGamesfromJapaneseTweets.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonE-ServiceandKnowledgeManagement},\mbox{\BPGS\82--87}.\bibitem[\protect\BCAY{Tagawa\BBA\Shimada}{Tagawa\BBA\Shimada}{2018}]{Tagawa2017b}Tagawa,Y.\BBACOMMA\\BBA\Shimada,K.\BBOP2018\BBCP.\newblock\BBOQSportsGameSummarizationBasedonSub-eventsandGame-changingPhrases.\BBCQ\\newblockIn{\BemNewTrendsinE-ServiceandSmartComputing,Springer,2018},\mbox{\BPGS\65--80}.\bibitem[\protect\BCAY{Takamura,Yokono,\BBA\Okumura}{Takamuraet~al.}{2011}]{Takamura2011}Takamura,H.,Yokono,H.,\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQSummarizingaDocumentStream.\BBCQ\\newblockIn{\BemProceedingsofthe33rdEuropeanconferenceonAdvancesinInformationRetrieval},\mbox{\BPGS\177--188}.\bibitem[\protect\BCAY{Vinyals,Toshev,Bengio,\BBA\Erhan}{Vinyalset~al.}{2015}]{Vinyals2015}Vinyals,O.,Toshev,A.,Bengio,S.,\BBA\Erhan,D.\BBOP2015\BBCP.\newblock\BBOQShowandTell:ANeuralImageCaptionGenerator.\BBCQ\\newblockIn{\BemProceedingsofComputerVisionandPatternRecognition},\mbox{\BPGS\3156--3164}.\bibitem[\protect\BCAY{Xu,Ba,Kiros,Cho,Courville,Salakhudinov,Zemel,\BBA\Bengio}{Xuet~al.}{2015}]{Xu2015}Xu,K.,Ba,J.,Kiros,R.,Cho,K.,Courville,A.,Salakhudinov,R.,Zemel,R.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQShow,AttendandTell:NeuralImageCaptionGenerationwithVisualAttention.\BBCQ\\newblockIn{\BemProceedingsofthe32ndInternationalConferenceonMachineLearning},\mbox{\BPGS\2048--2057}.\bibitem[\protect\BCAY{Yamagishi,Kanouchi,Sato,\BBA\Komachi}{Yamagishiet~al.}{2016}]{yamagishi2016}Yamagishi,H.,Kanouchi,S.,Sato,T.,\BBA\Komachi,M.\BBOP2016\BBCP.\newblock\BBOQControllingtheVoiceofaSentenceinJapanese-to-EnglishNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation(WAT)},\mbox{\BPGS\203--210}.\bibitem[\protect\BCAY{Zoph,Yuret,May,\BBA\Knight}{Zophet~al.}{2016}]{zoph2016}Zoph,B.,Yuret,D.,May,J.,\BBA\Knight,K.\BBOP2016\BBCP.\newblock\BBOQTransferLearningforLow-resourceNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1568--1575}.\end{thebibliography}\appendix
\section{ROUGEによる評価}
\begin{table}[b]\caption{ROUGE値}\label{tb:rouge_result}\input{02table24.tex}\end{table}\ref{sec:exp}節ではテンプレート型生成手法,ニューラル型生成手法により生成された要約文を被験者により可読性,事実性の観点から評価した.加えて,自動評価指標であるROUGE\cite{lin2003}による評価も行った.本研究の目的は任意の打席に対してGPを含むイニングの要約文を生成することであり,任意の打席に対してGPを含むイニングの要約文の正解データは存在しない.そこで,テンプレート型生成手法のGPを含まない要約文とニューラル型生成手法の事前学習モデルによって生成された要約文に対してROUGE値を計算した(計算の際には品詞のフィルタリングなどは行っていない).実際に,100件のNPBのPlay-by-playデータを入力として与え,生成された要約文と入力データに対応するイニング速報中の文を正解データとし,ROUGE値を計算した.評価結果を表\ref{tb:rouge_result}に示す.評価結果からテンプレート型生成手法はニューラル型生成手法と比べ低いROUGE値となった.これはテンプレート型生成手法では,文圧縮処理の際に,アウト数や“先頭”,“代打”といった表現を削除しているため,単語の一致率を基にしたROUGEではニューラル型生成手法と比べ低いROUGE値となったと考えられる.\begin{biography}\bioauthor{田川裕輝}{2016年九州工業大学情報工学部知能情報工学科卒.2018年九州工業大学大学院情報工学府先端情報専攻修了.現在,富士ゼロックス株式会社.在学中は,スポーツデータを対象とした文章生成や要約に関する研究に従事.}\bioauthor{嶋田和孝}{1997年大分大学工学部知能情報システム工学科卒.1999年同大大学院博士前期課程修了.2002年同大大学院博士後期課程単位取得退学.同年より九州工業大学情報工学部知能情報工学科助手.2007年,同助教.2012年,九州工業大学大学院情報工学研究院知能情報工学研究系准教授.博士(工学).自然言語処理,特に評判分析や情報要約の研究に従事.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会,観光情報学会各会員.{}}\end{biography}\biodate\end{document}
| |
V08N03-01
|
\section{はじめに}
電子化テキストの爆発的増加に伴って文書要約技術の必要性が高まり,この分野の研究が盛んになっている\cite{okumura}.自動要約技術を使うことにより,読み手の負担を軽減し,短時間で必要な情報を獲得できる可能性があるからである.従来の要約技術は,文書全体もしくは段落のような複数の文の中から,重要度の高い文を抽出することにより文書全体の要約を行うものが多い.このような方法で出力される個々の文は,原文書中の文そのものであるため,文間の結束性に関してはともかく,各文の正しさが問題になることはない.しかし,選択された文の中には冗長語や不要語が含まれることもあり,またそうでなくとも目的によっては個々の文を簡約することが必要になる.そのため,特にニュース字幕作成を目的として,表層文字列の変換\cite{tao,kato}を行ない,1文の文字数を減らすなどの研究が行われている.また,重要度の低い文節や単語を削除することによって文を簡約する手法も研究されており,単語重要度と言語的な尤度の総和が最大となる部分単語列を動的計画法によって求める方法\cite{hori}が提案されている.しかし,この方法ではtrigramに基づいた局所的な言語制約しか用いていないので,得られた簡約文が構造的に不自然となる可能性がある.削除文節の選択に係り受け関係を考慮することで,原文の部分的な係り受け構造の保存を図る方法\cite{mikami}も研究されているが,この方法ではまず一文全体の係り受け解析を行い,次に得られた構文木の中の冗長と考えられる枝を刈り取るという,二段階の処理が必要である.そのため,一つの文の係り受け解析が終了しなければ枝刈りが開始できず,枝刈りの際に多くの情報を用いて複雑な処理を行うと,文の入力が終了してから簡約された文が出力されるまでの遅延時間が長くなる可能性がある.本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.この問題は,原理的には枚挙法で解くことが可能であるが,計算量の点で実現が困難である.本論文ではこの問題を動的計画法によって効率よく解くことができることを示す\cite{oguro,oguro2}.文の簡約は,与えられた文から何らかの意味で``良い''部分単語列あるいは部分文節列を選択することに尽きる.そのとき,削除/選択の単位として何を選ぶか,選ばれる部分単語列あるいは部分文節列の``良さ''をどのように定義するか,そして実際の計算をどのように行うか,などの違いにより,種々の方式が考えられる.本論文では,削除/選択の単位として文節を採用している.この点は,三上らの方法と同じであるが,一文を文末まで構文解析した後で枝刈りを行うという考え方ではなく,部分文節列の``良さ''を定量的に計るための評価関数を予め定義しておき,その基準の下で最適な部分文節列を選択するという考え方を採る.その点では堀らの方法に近いが,削除/選択の単位がそれとは異なる.また評価関数の中に二文節間の係り受け整合度が含まれているので,実際の計算は係り受け解析に近いものになり,その点で堀らの方法とは非常に異なったものとなる.さらに,このアルゴリズムでは文頭から係り受け解析と部分文節列の選択が同時に進行するので,一つの文の入力が終了してから,その文の簡約文が出力されるまでの遅延時間を非常に短くできる可能性がある.オンラインの字幕生成のような応用では,この遅延時間はできるだけ短い方が良い.以下では,あらためて文簡約問題の定式化を行い,それを解くための再帰式とアルゴリズム,および計算量について述べる.そして,最後に文の簡約例を掲げ,このアルゴリズムによって自然な簡約文が得られることを示す.
\section{問題の定式化}
文節を削除/選択の単位として行う文の簡約は,原文からできるだけ``良い''部分文節列を選択することであると考えることができる.この問題を明確に定式化するためには,文節列の``良さ''を計る評価関数が必要である.このような評価関数は,理想的には,文脈を考慮した上で原文の意味を理解し,その意味を部分文節列がどの程度保つかという観点から定められるべきものであろう.しかし,そのような評価関数を構成することは現時点では困難である.そもそも,文の``意味''とは何かということさえ,現時点で明確に定義づけることは困難と思われる.そこで,本研究では,各文節の重要度と二文節間の係り受け整合度という限られた情報のみを用いて,現実的に定義や計算ができるようなアプローチを採る.すなわち,文の簡約においては,\begin{itemize}\item[a)]簡約された文が原文の持つ重要な情報をできるだけ保つこと,\item[b)]簡約された文ができるだけ文法的に良い構造を持つこと.\end{itemize}\noindentの2つが重要であることを考慮し,ここでは,部分文節列の``良さ"を計る評価関数を,a),b)に対応した2つの評価関数の和として以下のように定義する.まず,原文を文節列として$w_{0}w_{1}\cdotsw_{M-1}$と表し,その中の長さ$l\/$の部分文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$を考える.もし,各文節$w_{m}$の重要度を表す関数$q(m)$が与えられているとすると,この部分文節列の重要度はそれらの総和$\sum_{i=0}^{l-1}q(k_i)$で計ることができよう.もちろん,他の定義も可能であるが,ここでは,これを部分文節列の重要度を計る評価関数として採用する.また,文節$w_{m}$が文節$w_{n}$に係るときの係り受け整合度$p(m,n)$が与えられているとすると,このような係り受け整合度の総和が大きい値となる係り受け構造が存在するような文節列は,日本語文として見たとき,文法的に``良い''文節列であると考えられる.文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$上の係り受け構造は,係り文節番号を受け文節番号に対応させる写像\begin{displaymath}c:\{k_{0},k_{1},\cdots,k_{l-2}\}\longrightarrow\{k_{1},k_{2},\cdots,k_{l-1}\}\end{displaymath}によって表される.ただし$c$は\begin{itemize}\item[(1)]後方単一性:$k_{m}<c(k_{m})$\item[(2)]非交差性:$m<n$ならば$[c(k_m)\leqk_n\mbox{または}c(k_n)\leqc(k_m)]$\end{itemize}を満たす必要がある.本研究では,写像$c$を用いて,文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$の文法的な``良さ''を$\max_{c}\sum_{i=0}^{l-2}p(k_{i},c(k_{i}))$で定義することとする.ここで,最大化は可能な全ての係り受け構造に対して行う.以上のことから,本論文では文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$の``良さ''を計る評価関数$g$を次のように定義する:\begin{displaymath}g(k_{0},k_{1},...,k_{l-1})\stackrel{\triangle}{=}\left\{\begin{array}{l}q(k_0),\l=1のとき\\\max_c\sum_{i=0}^{l-2}p(k_i,c(k_i))+\sum_{i=0}^{l-1}q(k_i),2\leql\のとき\end{array}\right.\end{displaymath}\noindent評価関数$g$を用いると,$M$文節からなる原文を$N$文節からなる文に簡約する問題は次のように述べることができる.\bigskip\noindent{\bf文簡約問題\\}文節列$w_{0}w_{1}\cdotsw_{M-1}$の部分文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{N-1}}$$(0\leqk_{0}<k_{1}<\cdots<k_{N-1}\leqM-1)$の中で,関数$g(k_{0},k_{1},\cdots,k_{N-1})$が最大になるものを求めよ.\bigskip与えられた原文の部分文節列の総数は有限である.また,各部分文節列上の係り受け構造の総数も有限である.したがって,上の文簡約問題は,原理的には枚挙法で解くことができるが,計算量の点で現実的でない.本論文では,動的計画法の原理に基づき,この問題を効率的に解くアルゴリズムを導出する.評価関数$g$の定義には,文節重要度$q$と係り受け整合度$p$の2つの関数が含まれている.これらの関数をどのように定義するかは実際の応用においては重要な問題であるが,本論文ではこれについては議論しない.しかし,文節重要度$q$の定め方については,例えば\cite{hori}のような方法が考えられ,係り受け整合度$p$の定め方については係り受け解析の分野で研究されている\cite{ehara,zhang}などの方法が利用できると考えられる.{\bf3}節で導かれるアルゴリズムは,これらの関数の定義には依らない.二文節間の係り受け整合度の総和は,従来,係り受け解析にも用いられている評価関数であり,その意味で本手法による簡約文は,係り受け整合度$p$が適切に設定されていれば,原文の部分的な係り受け構造を保った自然な係り受け構造を持つことが期待できる.しかし,それにより原文の意味がどの程度保たれるかについては,最終的には人間の簡約結果と比較するなどの評価が必要となる.本論文では,そこまでは立ち入らず,上のような評価関数を用いて問題を定式化したとき,それを現実的な計算量で解くアルゴリズムが構成できることを示すことに重点を置いている.
\section{再帰式とアルゴリズム}
\subsection{再帰式}文簡約問題,すなわち関数$g(k_0,k_1,{\cdots},k_{N-1})$の最大化問題を解くために,その``部分解とそれらの間の関係''を考える.まず,先頭文節を$w_m$に,末尾文節を$w_n$に,文節列長を$l\/$に固定したときの最大化を考え,その最大値を表す関数$f$を以下のように定義する.\begin{definition}{最大値関数$f$}\hfill\[\textstylef(m,n,l)\stackrel{\triangle}{=}\max_{m=k_0<k_1<{\cdots}<k_{l-1}=n}g(k_0,k_1,{\cdots},k_{l-1})\]\end{definition}\noindentそうすると$f(m,n,l)$は次の再帰式を満たすことが示される.証明は付録とする.\begin{thesis}{再帰式}\label{def:recursion}\hfill\begin{itemize}\item[1.]$m=n$のとき:($l\$の動く範囲:$l=1$のみ)\begin{equation}f(m,n,l)=q(m)\label{eqn:eqn1}\end{equation}\item[2.]$m<n$のとき:($l\$の動く範囲:$2\leql\leqn-m+1$)\item[i.]$l=2$のとき\begin{equation}f(m,n,l)=f(m,m,1)+f(n,n,1)+p(m,n)\label{eqn:eqn2}\end{equation}\vspace*{1zh}\item[ii.]$l=3$のとき\begin{eqnarray*}\lefteqn{f(m,n,l)=\max\left\{\begin{array}{l}f(m,m,1)+\max_{m{\!<\!}m'{\!<\!}n}\{f(m',n,2)\}+p(m,n);\hspace*{3.5zw}\hfill(\arabic{equation}\rma)\\\max_{m{\!<\!}n'{\!<\!}n}\{f(m,n',2)+p(n',n)\}+f(n,n,1)\hfill(\arabic{equation}\rmb)\end{array}\right.}\label{eqn:eqn3}\end{eqnarray*}\addtocounter{equation}{1}\vspace*{1zh}\item[iii.]$l\geq4$のとき\begin{eqnarray*}\lefteqn{f(m,n,l)=}\\&&\max\left\{\begin{array}{l}f(m,m,1)+\max_{m{\!<\!}m'<n-l+3}\{f(m',n,l-1)\}+p(m,n);\hspace*{3.0zw}\hfill(\arabic{equation}\rma)\\\\\max_{1{\!<\!}l'{\!<\!}l-1,{\,}m+l'-2{<}n'{\!<\!}m'{<}n-l+l'+2}\\\{f(m,n',l')+f(m',n,l-l')+p(n',n)\};\hfill(\arabic{equation}\rmb)\\\\\max_{m+l-3{<}n'{\!<\!}n}\{f(m,n',l-1)+p(n',n)\}+f(n,n,1)\hfill(\arabic{equation}\rmc)\end{array}\right.\label{eqn:common}\end{eqnarray*}\addtocounter{equation}{1}\end{itemize}\end{thesis}\subsection{アルゴリズムの構成}再帰式は$2{\;\leq\;}l\/$のとき,$l'{<\,}l\/$となる$f(m,\cdot,l')$と$f(\cdot,n,l-l')$の全てが既に計算されていれば,高々3つの変数に関する最大化問題を解くことにより$f(m,n,l)$が計算できることを表している.すなわち式(\ref{eqn:eqn1})より,$f(\cdot,\cdot,1)$は,入力文節の重要度から直接計算できる.また,式(\ref{eqn:eqn2})より2文節の重要度とその間の係り受け整合度の和から,$f(\cdot,\cdot,2)$が計算できる.これらから始めて,$l=3$のときは$f(\cdot,\cdot,3)$を2変数$m',n'$が制約条件を満たす範囲で最大化を行ない,$4\leql\$では3変数$m',n',l'\/$が制約条件を満たす範囲で最大化を行なうという再帰的な処理によって,$f(m,n,l)$を計算することができる.\begin{figure}[hbtp]\begin{center}\includegraphics[width=70mm,clip]{table2.ps}\caption{$f(m,n,l)$を計算するとき参照される領域}\label{fig:region}\end{center}\end{figure}以上の事実に注意すると,計算済の$f(\cdot,\cdot,\cdot)$の値を図\ref{fig:region}のようなテーブルの升目に順次埋めていくアルゴリズムが構成できる.図\ref{fig:region}には$f(m,n,l)$を埋める場合を示した.再帰式によると,$f(m,n,l)$の計算は,その左の領域$f(m,\ast,1)\simf(m,\ast,l-1)$から$f(m,n',l')$を,その下の領域$f(\ast,n,1)\simf(\ast,n,l-1)$から$f(m',n,l-l')$を選択する組合わせの中から,それぞれの持つ$f$の値と両者の係り受け構造間の係り受け整合度の総和が最大となるような$m',n',l'\/$を探索することで行なわれていく.このとき,係り文節$w_m$は必ず受け文節$w_n$より文頭側にあること,文節列$w_mw_{m+1}{\cdots}w_n$を簡約する場合,簡約後の部分文節列の長さは原文節の長さより大きくなることがないことから,変数には以下のような制約が課せられる.\begin{itemize}\item$m{\;\leq\;}n$\item$m=n$のとき$l=1$\item$m<n$のとき$1<l{\;\leq\;}n-m+1$\end{itemize}これを図示したものが図\ref{fig:region2}である.また,ここでは$1\leqN\leqM$を満たす任意の$N$に対して最適解が探索できる領域を考えているが,$N$の最大値$N_{max}$があらかじめ定まっているときは,$l\/$の動く範囲を$1\leql\leq\min\{n-m+1,{\,}N_{max}\}$に制限できる.したがって$N_{max}<M$の場合には探索領域はさらに小さくてすみ,計算量と記憶量を減らすことができる.\begin{figure}[hbtp]\vspace{-3mm}\begin{center}\includegraphics[width=70mm,clip]{table3.ps}\caption{制約条件を満たさない領域}\label{fig:region2}\end{center}\end{figure}図\ref{fig:region}のテーブルの升目を埋める順序については,$f(m,n,l)$を計算する際に$f(m,n',l')$と$f(m',n,l-l')$が制約条件の範囲で全て計算済であるという条件さえ満たしていればよいので,その順序には大きな自由度がある.変数$l,m,n$を動かすとき,アルゴリズム\ref{alg:recursion}のように最外ループを$n$に関するループとすると,入力文節に同期した処理が可能なアルゴリズムとなる.すなわち,文頭文節からある文節までが入力されたとき,そこまでの情報に基づいてできる計算は,それより後の文節に関係なく済ませることができる.そして,もし必要ならば,その時点で{\bf3.3}に述べるバックトレースを行い,そこまでの入力に対する簡約文を出力することができる.また,最外ループを$l\/$に関するループとすれば,そのループの第$l$ステップの処理が終わった時点で,$N=l$としてバックトレースが可能になるので,文節数$1$から順に求めたい文節数までの簡約文を出力するアルゴリズムが構成できる.\begin{algorithm}{再帰式の実行}\label{alg:recursion}\rm\begin{tabbing}\hspace*{5mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\+\kill{\bffor}$n:=0${\bfto}$M-1${\do}\+\\{\bfbegin}\\{\bffor}$m:=n${\bfdownto}$0${\bfdo}\+\\{\bfbegin}\\{\bfif}($m=n$){\bfthen}$f(m,m,1):=q(m)$;\`\makebox[10zw]{\dotfill式(\ref{eqn:eqn1})}\\{\bfelse}\+\\{\bfbegin}\\{\bffor}$l:=2${\bfto}$n-m+1${\bfdo}\+\\{\bfbegin}\\{\bfif}($l=2$){\bfthen}$f(m,n,l):=$...;\`\makebox[10zw]{\dotfill式(\ref{eqn:eqn2})}\\{\bfelse}{\bfif}($l=3$){\bfthen}$f(m,n,l):=$...;\`\makebox[10zw]{\dotfill式(\ref{eqn:eqn3}a,\ref{eqn:eqn3}b)}\\{\bfelse}$f(m,n,l):=$...;\`\makebox[10zw]{\dotfill式(\ref{eqn:common}a,\ref{eqn:common}b,\ref{eqn:common}c)}\\{\bfend};\-\\{\bfend};\-\\{\bfend};\-\\{\bfend};\end{tabbing}\end{algorithm}\subsection{バックトレース}アルゴリズム1の計算結果から最適部分文節列を構成することを,ここでは「バックトレース」という.ここで用いるバックトレースの方法は\cite{ozeki}の手法に類似したものであり,形式的な証明も可能であるが,ここでは,考え方の概略とアルゴリズムを示すにとどめる.まず「係り受け構造の分解」について述べる.$v_{1}v_{2}\cdotsv_{K}$を文節列とし,その上の係り受け構造$c$を考える.$c$において,末尾の文節$v_{K}$に係る最も文頭側の文節を$v_{k}$とすると,$c$は$v_{1}v_{2}\cdotsv_{k}$上の係り受け構造と$v_{k+1}v_{2}\cdotsv_{K}$上の係り受け構造に分解できる.ただし,$v_{k}$が$v_{K}$に係るという情報を加えておく必要がある\cite{ozeki}.付録の証明から明らかなように,$f(m,n,l)$に対する再帰式の導出においては,この事実が以下のように利用されている.$f(m,n,l)$を計算するためには,$w_{m}$から始まり,$w_{n}$で終わる長さ$l$の部分文節列上の係り受け構造を考慮する必要がある.上に述べたことから,そのような係り受け構造は,$w_{n}$に係る最も文頭側の文節を$w_{n^{\prime}}$とするとき,$w_{n}$から始まり$w_{n^{\prime}}$で終わる長さ$l^{\prime}$の部分文節列上の係り受け構造と,ある文節$w_{m^{\prime}}$から始まり$w_{n}$で終わる長さ$l-l^{\prime}$の部分文節列上の係り受け構造に分解できる.ただし,$w_{n^{\prime}}$が$w_{n}$に係るという情報を加えておく必要がある.さて,再帰式の証明が示すように,$f(m,n,l)$を求めるためには,評価関数$g$を,上のように分解した部分文節列,および係り受け構造に関して最大化すればよい.それは,\begin{displaymath}f(m,n^{\prime},l^{\prime})+f(m^{\prime},n,l-l^{\prime})+p(n^{\prime},n)\end{displaymath}を,$l^{\prime}$,$m^{\prime}$,$n^{\prime}$に関して最大化することに帰着する.最大値を与えるこれらの変数の値を再び$l^{\prime}$,$m^{\prime}$,$n^{\prime}$と表せば,以上のことから,$f(m,n,l)$を与える最適部分文節列$A$は$f(m,n^{\prime},l^{\prime})$を与える最適部分文節列$B$と$f(m^{\prime},n,l-l^{\prime})$を与える最適部分文節列$C$の連接で与えられること,また$A$上の最適係り受け構造は$B$上の最適係り受け構造と$C$上の最適係り受け構造を併せたものに,$w_{n^{\prime}}$が$w_{n}$に係るという情報を加えたものになることが分かる.また,$m=n$の場合は$l=1$しか許されず,$f(m,n,l)$を与える最適部分文節列は``$w_{m}$''となる.したがって,アルゴリズム\ref{alg:recursion}の各ステップで最大値を与える$l^{\prime}$,$m^{\prime}$,$n^{\prime}$の値(最適分割点)を記憶しておけば,アルゴリズム\ref{alg:recursion}の終了後,任意の長さの簡約文と,必要ならばその上の係り受け構造を再帰的に得ることができる.最適分割点はバックトレースのための,いわゆるバックポインタの役割を果たす.実際の計算では,アルゴリズム\ref{alg:recursion}の各ステップにおいて最適分割点を記憶するための変数$bp[m,n,l]$を用意する.最適分割点は再帰式中の場合に応じて,次のように設定される.$m',n',l'\/$は再帰式の中で最大値を与えるそれらの変数の値を表す.\begin{definition}{最適分割点}\label{def:opt_point}\hfill\\\begin{itemize}\item[a)]$m=n$の場合\\何も記憶する必要がない.\item[b)]$m<n$の場合\\\begin{tabular}{rlll}{\rm(\ref{eqn:eqn2})}の場合&$bp[m,n,l].lp=1,$&$bp[m,n,l].np=m,$&$bp[m,n,l].mp=n$\\{\rm(\ref{eqn:eqn3}a)}の場合&$bp[m,n,l].lp=1,$&$bp[m,n,l].np=m,$&$bp[m,n,l].mp=m'$\\{\rm(\ref{eqn:eqn3}b)}の場合&$bp[m,n,l].lp=l-1,$&$bp[m,n,l].np=n',$&$bp[m,n,l].mp=n$\\{\rm(\ref{eqn:common}a)}の場合&$bp[m,n,l].lp=1,$&$bp[m,n,l].np=m,$&$bp[m,n,l].mp=m'$\\{\rm(\ref{eqn:common}b)}の場合&$bp[m,n,l].lp=l',$&$bp[m,n,l].np=n',$&$bp[m,n,l].mp=m'$\\{\rm(\ref{eqn:common}c)}の場合&$bp[m,n,l].lp=l-1,$&$bp[m,n,l].np=n',$&$bp[m,n,l].mp=n$\end{tabular}\end{itemize}\end{definition}与えられた文節列から$1\leqN\leqM$の範囲で任意に指定した長さ$N$の最適部分文節列を探索するには,まず,最も評価値の高い$f(m_o,n_o,N)$を見つけることから始める.そして,この$m_o,n_o,N$を出発点として,アルゴリズム\ref{alg:backtrace}で示す再帰関数を用いて最適部分文節列が得られる:\begin{eqnarray*}(m_o,n_o)&:=&\textstyle\argmax_{m,n}f(m,n,N);\\最適部分文節列&:=&out(m_o,n_o,N)\end{eqnarray*}\noindentここでは,最適分割点が一意に定まる場合を考えているが,これが複数個存在する場合には,その全てを記憶し,そのそれぞれに対して最適部分文節列を求めればよい.異なる最適分割点から,同じ最適部分文節列が得られる可能性があるが,この場合,これらの最適部分文節列上には複数の最適係り受け構造が存在している.\begin{algorithm}{バックトレース}\label{alg:backtrace}\rm($\oplus$は文字列の連接を表す)\begin{tabbing}\hspace*{5mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\+\kill{\bffunction}\$out(m,n,l)$:charstring;\+\\{\bfbegin}\\{\bfif}\($m=n$){\bfthen}$out:=$``$w_{m}$'';\\{\bfelse}\\{\bfbegin}\+\\$l^{\prime}:=bp[m,n,l].lp$;\\$n^{\prime}:=bp[m,n,l].np$;\\$m^{\prime}:=bp[m,n,l].mp$;\\$out:=out(m,n',l')\oplusout(m',n,l-l')$;\-\\{\bfend};\-\\{\bfend}.\end{tabbing}\end{algorithm}ここで,本アルゴリズムにおける最適分割点と簡約文の係り受け構造の対応について述べる.$bp[m,n,l]$は文節列$w_m\cdotsw_n$を長さ$l\/$に簡約するときの最適分割点であるが,再帰式の証明(付録)からわかるように,$n'=bp[m,n,l].np$は簡約結果において$w_n$に係る文節の中で最も文頭側にあるものの番号である.したがって,$w_{n'}$は$w_n$に係ることがわかる.これを再帰的に繰り返せば,簡約文中の全ての文節の係り先がわかる.すなわち,アルゴリズム\ref{alg:backtrace}を用いてバックトレースを行なうとき,$n'=bp[m,n,l].np$ならば$c(n')=n$であることを記憶し,まとめて出力すれば,簡約文中の全ての文節に対する$c$の値,つまり係り受け構造を知ることができる.\subsection{計算量}まず,アルゴリズム\ref{alg:recursion}における加算回数について考察する.計算ステップ$m,n,l$における加算回数を$F(m,n,l)$とすると$f(m,n,l)$に対する再帰式より,次のことが容易に分かる.\renewcommand{\baselinestretch}{}\tiny\normalsize\begin{itemize}\item[a)]$l=1$のとき:\begin{eqnarray*}F(m,n,1)&=&0\makebox[10zw]{\hfill(式(1)より)}\end{eqnarray*}\item[b)]$l=2$のとき:\begin{eqnarray*}F(m,n,2)&=&2\makebox[10zw]{\hfill(式(2)より)}\end{eqnarray*}\item[c)]$l=3$のとき:\begin{eqnarray*}F(m,n,3)&=&2\makebox[18zw]{\hfill(式(3a)より)}\\&&{}+(n-m-1)+1\makebox[10zw]{\hfill(式(3b)より)}\\&=&n-m+2\end{eqnarray*}\item[d)]$l\geq4$のとき:\begin{eqnarray*}F(m,n,l)&=&2\makebox[23.5zw]{\hfill(式(4a)より)}\\&&{}+2(l-3)\left(\begin{tabular}{c}{$n-m-l+3$}\\2\end{tabular}\right)\makebox[10zw]{\hfill(式(4b)より)}\\&&{}+(n-m-l+2)+1\makebox[14zw]{\hfill(式(4c)より)}\\&=&(l-3)(n-m-l+3)(n-m-l+2)+(n-m-l+5)\end{eqnarray*}\end{itemize}\renewcommand{\baselinestretch}{}\tiny\normalsize総加算回数$A(M)$は$F(m,n,l)$を$0\leqm\leqn\leqM-1$,$1\leql\leqn-m+1$について加え合わせたものになるが,$m=n$のときは$l=1$であり,そのとき$F(m,n,l)=0$であるから,\begin{eqnarray*}A(M)&=&\sum_{0\leqm<n\leqM-1}\;\sum_{2\leql\leqn-m+1}F(m,n,l)\end{eqnarray*}となる.詳細は省略するが,この右辺を計算すると,\begin{eqnarray*}A(M)&=&\tfrac{1}{360}{\times}(M-3)(M-2)(M-1)M(M+1)(M+2)\nonumber\\&&+\\tfrac{1}{24}{\times}(M-4)(M-3)(M-2)(M-1)\nonumber\\&&+\\tfrac{2}{3}{\times}(M-3)(M-2)(M-1)\nonumber\\&&+\\tfrac{1}{6}{\times}(M-1)(M-2)(M+9)\nonumber\\&&+\(M-1)M\nonumber\end{eqnarray*}が得られる.同様の計算により,総比較演算回数$C(M)$は\begin{eqnarray*}C(M)&=&\tfrac{1}{720}{\times}(M-3)(M-2)(M-1)M(M+1)(M+2)\nonumber\\&&+\\tfrac{1}{12}{\times}(M-4)(M-3)(M-2)(M-1)\nonumber\\&&+\\tfrac{1}{2}{\times}(M-2)(M-2)(M-1)\end{eqnarray*}で与えられる.\begin{table}[hntb]\center\caption{原文文節数$M$に対する加算回数$A(M)$と比較演算回数$C(M)$}\label{tbl:order}\begin{tabular}{rrr}$M$&$A(M)$&$C(M)$\\\hline5&79&27\\10&2628&1464\\20&159011&85443\\40&10624042&5438446\\\end{tabular}\end{table}\hspace{-11pt}したがって計算量のオーダは$A(M)$,$C(M)$共に$O(M^6)$となる.これはかなり大きな計算量のように見えるが,最高次の係数が小さいことと$M$は高々40程度までを考えておけばよいことから,計算が困難なほど大きな値にはならない.実際,$M=40$の場合,加算回数と比較演算回数は表\ref{tbl:order}で示したように,$A(40){\approx}1.1{\times}10^7,C(40){\approx}5.4{\times}10^6$であり,アルゴリズム\ref{alg:recursion}をCで実装しUltraSPARC-IIi(270MHz)上で処理したときの処理時間は,1秒以内である.また,アルゴリズム\ref{alg:backtrace}の実行時間は,これに比べて無視できる程度である.\vspace{-3mm}
\section{簡約例}
本手法の評価は今後の課題であるが,アルゴリズムの動作を示すため,文節重要度と係り受け整合度を仮に与えて実行した例を2つ示す.簡約文の係り受け構造も\cite{ozeki}による括弧表記を用いて示している.\begin{footnotesize}\bigskip\begin{minipage}{50zw}\begin{verbatim}文節数:簡約結果例1原文<<また><<<<<袖や>袖口>ポケット口などが><油汚れで><変色を>おこす>ことも>あります>8:<<<<<<袖や>袖口>ポケット口などが><油汚れで><変色を>おこす>ことも>あります>7:<<<<<<袖や>袖口>ポケット口などが><変色を>おこす>ことも>あります>6:<<<<<袖や>袖口>ポケット口などが><変色を>おこす>ことも>5:<<<<袖や>袖口>ポケット口などが><変色を>おこす>4:<<<袖口>ポケット口などが><変色を>おこす>3:<<<変色を>おこす>ことも>2:<<変色を>おこす>例2原文<<<年齢は><まだ>十四だが><<数えきれぬほど><<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>8:<<<年齢は><まだ>十四だが><<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>7:<<<年齢は>十四だが><<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>6:<<十四だが><<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>5:<<<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>4:<<<舞台を>踏んだので><日本語は>ぺらぺらだそうだ>3:<<踏んだので><日本語は>ぺらぺらだそうだ>2:<<日本語は>ぺらぺらだそうだ>\end{verbatim}\end{minipage}\\\bigskip\\\end{footnotesize}本アルゴリズムで必要とされる係り受け整合度は,\cite{zhang}の係り受けペナルティに$-1$を乗じたものとした.ここで定義されているペナルティ関数は学習コーパス中の係り受け距離の頻度分布を元に作成されている.また文節重要度は,\begin{itemize}\item主部/述部や名詞/動詞を含む文節に形容詞や動作の程度や目的を表す文節より大きい値\item文末の動詞には大きな値\item形式名詞には小さな値\end{itemize}を人手で設定した.この例における具体的な値を表\ref{tbl:example}に示す.\begin{table}[hntbp]\label{tbl:example}\caption{例文における係り受け整合度$p$と重要度$q$の設定値}\label{tbl:example}\vspace*{-1zh}\begin{footnotesize}\begin{center}\begin{tabular}{lrl}単語&重要度&係り受け整合度(係り先の単語)これ以外は$-10000$\\\hline\hline(0)また&0.0&-5000(6),-26.3906(8)\\(1)袖や&10.0&-1.8232(2),-23.0259(3),-5000(4),\\&&-5000(5),-5000(6),-5000(7),-5000(8)\\(2)袖口&10.0&-7.2887(3)\\(3)ポケット口などが&35.0&-38.0221(6)\\(4)油汚れで&2.0&-18.9712(6),-32.8341(8)\\(5)変色を&40.0&-4.9419(6),-41.5261(8)\\(6)おこす&20.0&-17.869(7)\\(7)ことも&0.0&0.0(8)\\(8)あります&0.0&\\\hline(0)年齢は&20.0&-24.7498(2),-29.0142(3),-5000(6),-42.2318(8)\\(1)まだ&2.0&-10.7264(2),-19.3284(3),-5000(6),-43.3073(8)\\(2)十四だが&10.0&-5000(3),-5000(6),-28.3321(8)\\(3)数えきれぬほど&2.0&-21.9722(6),-5000(8)\\(4)日本の&12.0&-1.3933(5),-30.7385(6),-51.5329(7),-5000(8)\\(5)舞台を&10.0&-4.9419(6)\\(6)踏んだので&10.0&-8.4730(8)\\(7)日本語は&22.0&-0.0000(8)\\(8)ぺらぺらだそうだ&20.0&\\\hline\end{tabular}\end{center}\end{footnotesize}\end{table}例にあげた文は\cite{zhang}の手法で正しく係り受け解析できたものである.簡約文の文節数$N$を原文の文節数$M$に等しく設定すると簡約文は原文そのものしかあり得ない.したがって,その場合には本アルゴリズムは原文の係り受け解析のみを行なうことになり,その結果は\cite{zhang}の手法によるものと一致する.実際に簡約文を出力するためには,その長さ$N$を指定する必要がある.これは,現実の場面で文章全体をどの程度に圧縮したいかという要求と簡約文の品質を考え合わせて決めるものであるが,本手法を人が文を簡約するときの支援システムとして使用する場合には$N$の値を順次変化させ,それに応じて得られる簡約文の中から人が適切なものを選ぶという使い方も考えられる.また,評価関数の値を利用して,「できるだけ短く」と「できるだけ情報を保つ」という相反する要求のバランスを自動的に取ることも考えられるが,それは今後の問題である.
\section{おわりに}
文節重要度と係り受け整合度に基づいて,効率的に文の簡約を行なうアルゴリズムを提案した.このアルゴリズムは簡約文の係り受け構造も同時に出力できるので,簡約文を引き続き他言語に翻訳するときなどにも有用である.計算量は原文文節数の6乗のオーダとなるが,各変数の制約条件のために現実的な文節数に対して実行可能なものとなっている.また,最外ループを制御する変数の選び方には自由度があるため,即答性が求められる場合には文節の入力と同期して計算を進めるようにアルゴリズムを構成することが可能である.今後は,文節重要度や係り受け整合度の設定の仕方が簡約結果に与える影響や,文節重要度から定まる評価関数値と係り受け整合度から定まる評価関数値の適切な重み付けなどについて検討し,簡約手法としての評価を行なう予定である.\bibliographystyle{jnlpbbl}\bibliography{v08n3_01}\begin{appendix}
\section{再帰式の証明}
最も一般的な式(\ref{eqn:common}a)$\sim$(\ref{eqn:common}c)の場合について証明する.他の場合については,より容易に証明できる.\begin{eqnarray*}\lefteqn{f(m,n,l)}\nonumber\\&=&\textstyle\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}g(k_{0},k_{1},\cdots,k_{l-1})\nonumber\\&=&\textstyle\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}\{\max_{c}\sum_{i=0}^{l-2}p(k_{i},c(k_{i}))+\sum_{i=0}^{l-1}q(k_{i})\}\nonumber\\&=&\textstyle\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}\nonumber\\&&\max\left\{\begin{tabular}{l}$\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+p(k_{0},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})$;\\\\$\max_{1<l^{\prime}<l-1}\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))$\\$+p(k_{l'-1},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}$;\\\\$\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+p(k_{l-2},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})$\end{tabular}\right.\nonumber\\&&\mbox{(係り受け構造$c$を末尾の文節$x_{k_{l-1}}$に係る文節の中で最も左にあるもの}\nonumber\\&&\mbox{の位置により分類)}\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+p(k_{0},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}$;\\\\$\max_{1<l'<l-1}$\\$[\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))$\\$+p(k_{l'-1},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}]$;\\\\$\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+p(k_{l-2},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}$\end{tabular}\right.\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$\max_{m=k_{0}<k_{1}=m'}\max_{m'=k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+p(k_{0},k_{l-1})+\sum_{i=1}^{l-1}q(k_{i})\}+q(k_{0})$;\\\\$\max_{1<l'<l-1}$\\$[\max_{m=k_{0}<\cdots<k_{l'-1}=n'},\max_{n'=k_{l'-1}<pk_{l'}=m'},\max_{m'=k_{l'}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))$\\$+p(k_{l'-1},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}]$;\\\\$\max_{m=k_{0}<k_{1}<\cdots<k_{l-2}=n'}\max_{n'=k_{l-2}<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+p(k_{l-2},k_{l-1})+\sum_{i=0}^{l-2}q(k_{i})+q(k_{l-1})\}$\end{tabular}\right.\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$\max_{m<m'}$\\$\{\max_{m'=k_{1}<\cdots<k_{l-1}=n}$\\$[\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+\sum_{i=1}^{l-1}q(k_{i})]+p(m,n)+q(m)\}$;\\\\$\max_{1<l'<l-1},\\max_{n'<m'}$\\$[\max_{m=k_{0}<\cdots<k_{l'-1}=n'}\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\sum_{i=0}^{l'-1}q(k_{i})\}$\\$+\max_{m'=k_{l'}<\cdots<k_{l-1}=n}$$\{\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))+\sum_{i=l'}^{l-1}q(k_{i})\}$\\$+p(n',n)]$;\\\\$\max_{n'<n}$\\$\{\max_{m=k_{0}<k_{1}<\cdots<k_{l-2}=n'}$\\$[\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+\sum_{i=0}^{l-2}q(k_{i})]+p(n',n)+q(n)\}$\end{tabular}\right.\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$f(m,m,1)+\max_{m<m'<n-l+3}\{f(m',n,l-1)\}+p(m,n)$;\\\\$\max_{1<l'<l-1,\m+l'-2<n'<m'<n-l+l'+2}$\\$\{f(m,n',l')+f(m',n,l-l')+p(n',n)\}$;\\\\$\max_{m+l-3<n'<n}\{f(m,n',l-1)+p(n',n)\}+f(n,n,1)$\end{tabular}\right.\end{eqnarray*}\end{appendix}\begin{biography}\biotitle{略歴}\bioauthor{小黒玲}{1996年電気通信大学電気通信学部情報工学科卒業.1998年同大学院博士前期課程修了.現在,同博士後期課程在学中.自動音声認識,自然言語処理に興味がある.日本音響学会会員.}\bioauthor{尾関和彦}{1965年東京大学工学部電気工学科卒業.同年NHK入社.1968年より1年間エジンバラ大学客員研究員.音声言語処理,パターン認識などの研究に従事.電子通信学会第41回論文賞受賞.現在,電気通信大学情報通信工学科教授.工学博士.電子情報通信学会,情報処理学会,日本音響学会,IEEE各会員.}\bioauthor{張玉潔}{1999年電気通信大学情報工学専攻博士後期課程修了.博士(工学).同年,電気通信大学情報通信工学科助手.2000年ATR音声言語通信研究所客員研究員,現在に至る.日本語及び中国語処理の研究に従事.}\bioauthor{高木一幸}{1989年筑波大学大学院修士課程理工学研究科修了.同年日本アイ・ビー・エム(株)入社.1992年筑波大学大学院工学研究科博士課程入学.1995年同課程修了.博士(工学).現在,電気通信大学電気通信学部情報通信工学科助手.日本音響学会,電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N03-01
|
\section{はじめに}
本論文では,GLR法\cite{Tomita1987}に基づく痕跡処理の手法を示す.痕跡という考え方は,チョムスキーの痕跡理論で導入されたものである.痕跡とは,文の構成素がその文中の別の位置に移動することによって生じた欠落部分に残されると考えられるものである.例えば,``Achildwhohasatoysmiles.''という文では,`achild'がwhoの直後(右隣り)から現在の位置に移動することによって生じた欠落部分に痕跡が存在する.痕跡を{\itt}で表すと,この文は``Achildwho{\itt}hasatoysmiles.''となる.構文解析において,解析系が文に含まれる痕跡を検出し,その部分に対応する構成素を補完することができると,痕跡のための特別な文法規則を用意する必要がなくなり,文法規則の数が抑えられる.これによって,文法全体の見通しが良くなり,文法記述者の負担が軽減する\cite{Konno1986}.GLR法は効率の良い構文解析法として知られるが,痕跡処理については考慮されていない.本論文では,GLR法に基づいて痕跡処理を実現しようとするときに問題となる点を明らかにし,それに対する解決方法を示す.これまでに,痕跡を扱うための文法の枠組みが提案されるとともに,それらを用いた痕跡処理の手法が示されている\cite[など]{Pereira1981,Konno1986,Hayashi1988,Tokunaga1990,Haruno1992}.これらのうち痕跡の扱いに関する初期の考え方として,ATNGのHOLD機構\cite{Wanner1978},PereiraによるXGのXリスト\cite{Pereira1981}が知られている.本論文で示す手法では,XGでのXリストの考え方と基本的に同じものを用いる.
\section{GLR法}
本章では,本論文で示す手法の基となるGLR法\cite{Tomita1987}について簡単に述べる.GLR法では,次に示す項の集合によって解析系の{\bf状態}というものが定義される.そして,解析系がLR構文解析表\footnote{LR構文解析系は,LR構文解析表の構成方法によって,SLR(simpleLR),正準LR(canonicalLR),LALR(lookaheadLR)の3つに分けられる\cite{Aho1986}.ここではSLRに基づいて説明をおこなうが,本論文で示す手法は正準LR,LALRに対しても有効である.}に従ってある状態から他の状態へと遷移することで解析が進められる.項とは,文法規則に解析経過を示すドット記号`・'を付加したものである.ドット記号は文法規則の右辺に付加され,その左側のカテゴリは既に解析済みであり,その右隣りのカテゴリがその後の解析の対象となることを示す.$[s\tonp\cdotvp]$は項の一例であるが,これは「現時点までにカテゴリnpの解析が終了し,次にカテゴリvpの解析を開始する.」ということを示す.状態を構成する項の集合は,与えられたCFGに文法規則$[S'\toS]$を加えて得られる文法から,次に示す関数CLOSUREおよびGOTOによって求められる.ここで,$S$は開始記号を表す.\subsubsection*{関数CLOSURE}関数CLOSUREは,与えられた項の集合$I$から,次の手順で$I$の閉包CLOSURE($I$)を求める.\begin{enumerate}\item与えられた項の集合$I$に含まれる,すべての項をその閉包CLOSURE($I$)に加える.\item項$[A\to\alpha\cdotB\beta]$がCLOSURE($I$)に含まれ,文法規則$B\to\gamma$が存在するとき,項$[B\to\cdot\gamma]$がCLOSURE($I$)に含まれていなければ,これをCLOSURE($I$)に加える.加えるべき項がなくなるまで,これを繰り返す.\end{enumerate}ここで,$A$,$B$は非終端カテゴリを,$\alpha$,$\beta$,$\gamma$は非終端カテゴリおよび品詞\footnote{GLR法を自然言語の解析に用いる場合,通常,先読みした語の品詞などを先読み情報として使用する.品詞は,文法規則による導出において,終端カテゴリ(語)の一つ手前のカテゴリとなる.}からなるカテゴリ列を表す.\subsubsection*{関数GOTO}関数GOTOは,与えられた項の集合$I$から,文法カテゴリ$X$に対する新たな項の集合GOTO($I$,$X$)を求める.得られるGOTO($I$,$X$)は,$I$に含まれる項$[A\to\alpha\cdotX\beta]$に対する項$[A\to\alphaX\cdot\beta]$をすべて集めたものの閉包である.ここで,$A$は非終端カテゴリを,$\alpha$,$\beta$は非終端カテゴリおよび品詞からなるカテゴリ列を表す.\状態を構成する項の集合を求める手順は次の通りである.\begin{enumerate}\item項の集合族(つまり,集合の集合)を$C$とし,その初期値を$\{$CLOSURE$(\{[S'\to\cdotS]\})\}$とする.\item$C$に含まれる各項の集合$I$および各文法カテゴリ$X$に対して,GOTO($I$,$X$)を求める.これが空でなく,かつ$C$に含まれていなければ,これを$C$に加える.加えるべき項の集合がなくなるまで,これを繰り返す.\end{enumerate}これによって得られた$C$に含まれる項の集合$I_{i}$が状態$i$を構成する.GLR法での解析系の動作例を次に示す.ここでは図\ref{fig:cfg}に示すCFGを用いる.このCFGからは図\ref{fig:states}に示す各状態が構成される.例文として``Achildsmiles.''を使用する.なお,aの品詞はdet,childはn,smilesはviとする.解析系は状態0から解析を開始し,先読み情報とLR構文解析表に従って解析を進めていく.まずaを先読し,その品詞であるdetを先読み情報として得る.これによって解析系は状態3に遷移する.次にchildを先読みし,その品詞であるnを得る.これによって状態7に遷移する.次にsmilesを先読みし,その品詞であるviを得る.ここで文法規則$[np\todet\n]$による還元をおこない,一時的に状態0に遷移したのち状態2に遷移する.そして,先読み情報であるviに従って状態5に遷移する.次に,文の終了を表す右端記号を先読みする.ここで文法規則$[vp\tovi]$による還元をおこない,一時的に状態2に遷移したのち状態4に遷移する.さらに文法規則$[s\tonp\vp]$による還元をおこない,一時的に状態0に遷移したのち状態1に遷移する.ここで解析系は解析を終了する.\newlength{\mpw}\setlength{\mpw}{3cm}\begin{figure}[htbp]\begin{minipage}[b]{\mpw}\begin{center}\begin{tabular}[h]{l}s$\to$np\vp\\np$\to$det\n\\vp$\to$vi\\vp$\to$vt\np\end{tabular}\caption{簡単な英文を\\解析するため\\のCFG}\label{fig:cfg}\end{center}\end{minipage}\hspace{5mm}\begin{minipage}[b]{10.5cm}\begin{center}{\small\begin{tabular}[h]{lll}\begin{minipage}[t]{\mpw}I$_{0}$:\\\{[S'$\to$$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\}\vspace*{\baselineskip}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{3}$=GOTO(I$_{0}$,det)\\=GOTO(I$_{6}$,det):\\\{[np$\to$det$\cdot$n]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{6}$=GOTO(I$_{2}$,vt):\\\{[vp$\to$vt$\cdot$np]\\[np$\to$$\cdot$det\n]\}\end{minipage}\\\begin{minipage}[t]{\mpw}I$_{1}$=GOTO(I$_{0}$,s):\\\{[S'$\to$s$\cdot$]\}\vspace*{\baselineskip}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{4}$=GOTO(I$_{2}$,vp):\\\{[s$\to$np\vp$\cdot$]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{7}$=GOTO(I$_{3}$,n):\\\{[np$\to$det\n$\cdot$]\}\end{minipage}\\\begin{minipage}[t]{\mpw}I$_{2}$=GOTO(I$_{0}$,np):\\\{[s$\to$np$\cdot$vp]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{5}$=GOTO(I$_{2}$,vi):\\\{[vp$\to$vi$\cdot$]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{8}$=GOTO(I$_{6}$,np):\\\{[vp$\to$vt\np$\cdot$]\}\end{minipage}\end{tabular}}\caption{図\ref{fig:cfg}のCFGから求められる,\\状態を構成する項の集合}\label{fig:states}\end{center}\end{minipage}\end{figure}
\section{文法記述形式}
本論文で示す手法では,文法記述形式として今野らによるXGS\cite{Konno1986}を用いる.これは,GLR法で用いられるCFGそのままでは痕跡を扱えないためである.XGSは,痕跡を容易に扱えるように,補強CFGの一つであるDCG\cite{Pereira1980}を拡張したものである.XGSでは,次に示すスラッシュ記法を用いて痕跡を記述する.スラッシュ記法では,スラッシュと呼ばれる記号`/'を使用して,非終端カテゴリの記述に痕跡の記述を追加する.`relC/np'はスラッシュ記法を用いた記述の一例であるが,これは「非終端カテゴリrelCを根とする解析木が作られたとき,その根の下に痕跡を直接構成素として持つカテゴリnpが一つ存在する.」という意味を持つ.また,スラッシュ`/'の直後(右隣り)に記述されたカテゴリは,スラッシュカテゴリと呼ばれる.`relC/np'の例では,カテゴリnpはスラッシュカテゴリである.XGSでの文法記述例を図\ref{fig:xgs}に示す.また,この文法を使用した場合の,例文``Achildwhohasatoysmiles.''に対する解析木を図\ref{fig:tree}に示す.\begin{figure}[htbp]\begin{minipage}[b]{4cm}\begin{center}\begin{tabular}[h]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\relC/np.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np\np.\\relC$\to$relPron,\s.\end{tabular}\caption{簡単な英文を解析する\\ための,XGSで\\記述された文法}\label{fig:xgs}\end{center}\end{minipage}\begin{minipage}[b]{10cm}\begin{center}\epsfile{file=tree.eps,scale=0.9}\caption{``Achildwhohasatoysmiles.''\\に対する解析木.{\itt}が痕跡を表す.}\label{fig:tree}\end{center}\end{minipage}\end{figure}
\section{痕跡検出}
解析系は,文に含まれる痕跡を検出するために,痕跡となるカテゴリを保持しなければならない.本論文で示す手法では,痕跡となるカテゴリの保持に,XGでのXリスト\cite{Pereira1981}と同じ手法を用いる.つまり,痕跡となるカテゴリの保持にスタックを使用する.ここでは,このスタックを便宜的にXリストと呼ぶことにする.Xリストへのプッシュは次のようにおこなう.文法規則中のスラッシュ記法を処理するときに,そのスラッシュカテゴリをXリストにプッシュする.つまり,スラッシュ記法の直前(左隣り)にドット記号`・'のある項を含む状態に解析系が遷移するときに,そのスラッシュカテゴリをXリストにプッシュする.例えば,図\ref{fig:xgs}の文法規則$[np\tonp\relC/np]$では,relC/npの解析を開始するとき,つまり,項$[np\tonp\cdotrelC/np]$を含む状態に解析系が遷移するときに,スラッシュカテゴリであるnpをXリストにプッシュする.Xリストからのポップは,痕跡を検出したときにおこなう.解析系は,Xリストの先頭にあるスラッシュカテゴリが痕跡として文中に存在すると判断したとき,そのスラッシュカテゴリをXリストからポップし,そのスラッシュカテゴリに対してLR構文解析表に定義されている動作に従って解析を続ける.痕跡の検出は,文のすべての単語間に痕跡の存在を仮定することでおこなう.解析が単語の境界に到達したときに,その時点でのXリストの先頭にあるスラッシュカテゴリに対して,LR構文解析表に動作\footnote{ACTION部での移動,還元,あるいはGOTO部での状態遷移}が定義されているとき,その単語境界にそのスラッシュカテゴリが痕跡として存在すると判断する.一方,LR構文解析表に動作定義がない場合やXリストが空である場合には,その単語境界には痕跡は存在しないと判断する.自然言語の解析では,スラッシュカテゴリは,通常,非終端カテゴリである.痕跡の検出において,Xリストの先頭にあるスラッシュカテゴリが非終端カテゴリである場合には,そのスラッシュカテゴリを構成する左隅の品詞を先読み情報とした還元を考慮しなければならない.これを例を用いて次に説明する.使用する文法は図\ref{fig:xgs}に示すものである.この文法からは図\ref{fig:states2}に示す各状態が構成される.例文として``Atoywhichamangivesachildmoves.''を使用する.ここで,aの品詞はdetであり,toy,man,childはn,whichはrelPron,givesはvt,movesはviとする.childまで解析が終了したとき,解析系の状態は状態9であり,Xリストの先頭にあるスラッシュカテゴリは非終端カテゴリnpである.ここでLR構文解析表を参照すると,状態9ではカテゴリnpに対する動作は定義されていない.したがって,解析系はchildとmovesの単語境界には痕跡は存在しないと判断する.しかし,実際にはカテゴリnpが痕跡として存在するので,この判断は正しくない.この判断の誤りは,文法規則$[np\todet\n]$による還元によって,aとchildから`achild'がまだ構成されていないことに起因する.この還元は,Xリストの先頭にあるスラッシュカテゴリnpを構成する左隅の品詞であるdetを先読み情報としておこなわれるべきものである.しかし,このスラッシュカテゴリnpは痕跡として存在するので,この品詞detが先読み情報として実際の文から得られることはない.そのため,このままではこの還元はおこなわれない.そこで,痕跡検出の手続きの一つとして,この還元をおこなう.これによって,解析系は一時的に状態7に遷移したのち,状態10に遷移する.ここでLR構文解析表を参照すると,カテゴリnpに対して状態12への遷移が定義されている.これによって,解析系はchildとmovesの単語境界にカテゴリnpの痕跡が存在すると判断する.これで痕跡が正しく検出されたことになる.\newlength{\vs}\setlength{\vs}{2mm}\setlength{\mpw}{4.5cm}\begin{figure}[htbp]\begin{center}{\small\begin{minipage}[t]{\mpw}I$_{0}$:\\\{[S'$\to$$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{1}$=GOTO(I$_{0}$,s):\\\{[S'$\to$s$\cdot$]\}\vspace{\vs}I$_{2}$=GOTO(I$_{0}$,np)\\=GOTO(I$_{8}$,np):\\\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$relC/np]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\\[relC$\to$$\cdot$relPron\s]\}\vspace{\vs}I$_{3}$=GOTO(I$_{0}$,det)\\=GOTO(I$_{7}$,det)\\=GOTO(I$_{8}$,det)\\=GOTO(I$_{10}$,det):\\\{[np$\to$det$\cdot$n]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{4}$=GOTO(I$_{2}$,vp):\\\{[s$\to$np\vp$\cdot$]\}\vspace{\vs}I$_{5}$=GOTO(I$_{2}$,relC/np)\\=GOTO(I$_{10}$,relC/np)\\=GOTO(I$_{12}$,relC/np):\\\{[np$\to$np\relC/np$\cdot$]\}\vspace{\vs}I$_{6}$=GOTO(I$_{2}$,vi):\\\{[vp$\to$vi$\cdot$]\}\vspace{\vs}I$_{7}$=GOTO(I$_{2}$,vt):\\\{[vp$\to$vt$\cdot$np]\\[vp$\to$vt$\cdot$np\np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{8}$=GOTO(I$_{2}$,relPron)\\=GOTO(I$_{10}$,relPron)\\=GOTO(I$_{12}$,relPron):\\\{[relC$\to$relPron$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{9}$=GOTO(I$_{3}$,n):\\\{[np$\to$det\n$\cdot$]\}\vspace{\vs}I$_{10}$=GOTO(I$_{7}$,np):\\\{[vp$\to$vt\np$\cdot$]\\[vp$\to$vt\np$\cdot$np]\\[np$\to$np$\cdot$relC/np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\\[relC$\to$$\cdot$relPron\s]\}\vspace{\vs}I$_{11}$=GOTO(I$_{8}$,s):\\\{[relC$\to$relPron\s$\cdot$]\}\vspace{\vs}I$_{12}$=GOTO(I$_{10}$,np):\\\{[vp$\to$vt\np\np$\cdot$]\\[np$\to$np$\cdot$relC/np]\\[relC$\to$$\cdot$relPron\s]\}\end{minipage}\\}\caption{図\ref{fig:xgs}の文法から求められる,状態を構成する項の集合}\label{fig:states2}\end{center}\end{figure}\vspace{-3mm}痕跡検出において,文のすべての単語間に痕跡の存在を仮定する理由を次に示す.痕跡処理をおこなわずに痕跡を含む文を解析すると,通常,痕跡が存在する位置でその解析は失敗する.そこで,痕跡処理において,解析が失敗する位置に痕跡が存在すると仮定して痕跡の検出をおこなうものとする.そうすると,``Achildwhomamangivesatoysmiles.''などの文では,``Achildwhomamangivesatoy{\itt}smiles.''と解析されてしまい,正しく``Achildwhomamangives{\itt}atoysmiles.''とは解析されない({\itt}が痕跡を表す).このため,文のすべての単語間に痕跡の存在を仮定し痕跡の検出をおこなう.痕跡が存在するか否かの判断は,LR構文解析表を参照することで即座におこなわれる.このため,純粋なボトムアップ法での場合のような無駄な処理はおこなわれない.また逆に,文のすべての単語間に痕跡の存在を仮定して痕跡の検出をおこなうと,``Atoywhichamangivesachildmoves.''などの文では,``Atoywhichamangives{\itt}achildmoves.''と解析されてしまい,正しく``Atoywhichamangivesachild{\itt}moves.''とは解析されない({\itt}が痕跡を表す).そこで,痕跡が存在すると判断される場合には,解析過程を分岐させ横型探索によって,痕跡は存在しないものとした解析も同時におこなう.
\section{状態の構成}
XGSで記述された文法に対して,通常のGLR法での方法で,状態を構成する項の集合を求めると,次の(1)〜(3)に示す問題が生じる.ここで,説明上の都合により,{\bfslash項}と{\bf芯}という用語を導入する.slash項とは,スラッシュ記法の直前(左隣り)にドット記号`・'のある項のことである.図\ref{fig:states2}の項の集合I$_{2}$に含まれる項$[np\tonp\cdotrelC/np]$は,slash項の一例である.また,slash項のうち,スラッシュ記法が右辺の左端に存在するものを左隅slash項と呼ぶことにする.芯とは,閉包を求めるときに関数CLOSUREに与えた項の集合に含まれる項のことである.図\ref{fig:states2}の項の集合I$_{2}$では,項$[s\tonp\cdotvp]$と$[np\tonp\cdotrelC/np]$が芯である.\begin{enumerate}\item状態が芯としてslash項とそうでない項を含む場合,そのslash項ではない項の閉包として得られた項に基づく解析においても,その状態に遷移するときにXリストにプッシュしたスラッシュカテゴリが参照されてしまい,誤った痕跡の検出が引き起される.\item状態が芯として複数のslash項を含む場合,その状態に遷移するときにXリストにプッシュすべきスラッシュカテゴリが複数存在してしまう.\item状態が左隅slash項を含む場合,その左隅slash項の閉包として得られた項以外の項に基づく解析においても,その状態に遷移するときにXリストにプッシュしたスラッシュカテゴリが参照されてしまい,誤った痕跡の検出が引き起される.\end{enumerate}次に,これらの問題についてより具体的に述べるとともに,その解決方法を示す.\subsection{状態分割}図\ref{fig:states2}の状態2(I$_{2}$)には,(1)に示した問題がある.状態2に遷移するときにXリストにプッシュされたスラッシュカテゴリnpは,カテゴリrelCの解析においてのみ参照されるべきものである.しかし,このスラッシュカテゴリnpは,Xリスト上に存在する限り,カテゴリvpの解析,つまり,I$_{2}$のうちCLOSURE(\{$[s\tonp\cdotvp]$\})に含まれる項に基づく解析においても参照されてしまう.その結果,誤った痕跡の検出がおこなわれる.非文である``Achildhas.''を用いて,次により具体的に述べる.ここで,aの品詞はdet,childはn,hasはvtとする.childまで解析が終了したとき,解析系の状態は状態9であり,Xリストは空である.解析系は,次にhasを先読みし,その品詞であるvtを先読み情報として得る.ここで,文法規則$[np\todet\n]$による還元をおこない,一時的に状態0に遷移したのち状態2に遷移する.このとき,Xリストにスラッシュカテゴリnpをプッシュする.そして,先読み情報であるvtに従って状態7に遷移する.ここで,Xリストの先頭にあるスラッシュカテゴリnpに対してLR構文解析表に動作が定義されているため,誤りであるにも関わらず,解析系はhasの直後(右隣り)にこのスラッシュカテゴリnpが痕跡として存在すると判断する.そして,このスラッシュカテゴリnpをXリストからポップし,カテゴリnpに対してLR構文解析表に定義されている動作に従って状態10に遷移する.この後,解析系は(状態2)$\to$状態4$\to$(状態0)$\to$状態1と遷移し\footnote{括弧で括られた状態への遷移は,還元による一時的なものである.},この非文が正しいものであるかのように解析を終了する.この問題は,状態から芯であるslash項の閉包を取り出し,それによって新たな状態を構成することで解決できる.図\ref{fig:states2}の状態2の場合,CLOSURE(\{$[np\tonp\cdotrelC/np]$\})を取り出し,これによって新たな状態を構成する.この状態分割\footnote{状態10も同様に分割される.}によって,図\ref{fig:states2}に示した状態を構成する項の集合は,図\ref{fig:states3}に示すものとなる.図\ref{fig:states3}の状態2は図\ref{fig:states3}では,状態21と状態22へと分割される.そして,解析系は状態22に遷移するときにのみ,スラッシュカテゴリnpをXリストにプッシュする.これによって,上述の誤った痕跡の検出を防ぐことができる.\begin{figure}[htbp]\begin{center}{\small\begin{minipage}[t]{\mpw}I$_{0}$:\\\{[S'$\to$$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{1}$=GOTO(I$_{0}$,s):\\\{[S'$\to$s$\cdot$]\}\vspace{\vs}I$_{21}$=GOTO(I$_{0}$,np)\\=GOTO(I$_{8}$,np):\\\{[s$\to$np$\cdot$vp]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\}\vspace{\vs}I$_{22}$=GOTO(I$_{0}$,np)\\=GOTO(I$_{7}$,np)\\=GOTO(I$_{8}$,np)\\=GOTO(I$_{10}$,np):\\\{[np$\to$np$\cdot$relC/np]\\[relC$\to$$\cdot$relPron\s]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{3}$=GOTO(I$_{0}$,det)\\=GOTO(I$_{7}$,det)\\=GOTO(I$_{8}$,det)\\=GOTO(I$_{10}$,det):\\\{[np$\to$det$\cdot$n]\}\vspace{\vs}I$_{4}$=GOTO(I$_{21}$,vp):\\\{[s$\to$np\vp$\cdot$]\}\vspace{\vs}I$_{5}$=GOTO(I$_{22}$,relC/np):\\\{[np$\to$np\relC/np$\cdot$]\}\vspace{\vs}I$_{6}$=GOTO(I$_{21}$,vi):\\\{[vp$\to$vi$\cdot$]\}\vspace{\vs}I$_{7}$=GOTO(I$_{21}$,vt):\\\{[vp$\to$vt$\cdot$np]\\[vp$\to$vt$\cdot$np\np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{8}$=GOTO(I$_{22}$,relPron):\\\{[relC$\to$relPron$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{9}$=GOTO(I$_{3}$,n):\\\{[np$\to$det\n$\cdot$]\}\vspace{\vs}I$_{10}$=GOTO(I$_{7}$,np):\\\{[vp$\to$vt\np$\cdot$]\\[vp$\to$vt\np$\cdot$np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{11}$=GOTO(I$_{8}$,s):\\\{[relC$\to$relPron\s$\cdot$]\}\vspace{\vs}I$_{12}$=GOTO(I$_{10}$,np):\\\{[vp$\to$vt\np\np$\cdot$]\}\end{minipage}\\}\caption{図\ref{fig:xgs}の文法から求められる,状態分割\\を考慮した,状態を構成する項の集合}\label{fig:states3}\end{center}\end{figure}このように状態を分割しても問題が生じないのは,それぞれの芯の閉包を独立したものとして扱うことが可能なためである.また,このような状態分割は,状態遷移における非決定性をもたらす.例えば,図\ref{fig:states3}では状態0からのカテゴリnpによる遷移先として,状態21と状態22が存在する.これらの非決定性に対して,解析系は解析過程を分岐させ横型探索をおこなう.また,この状態分割の手法は(2)に示した問題に対しても有効である.状態が芯として$[A\to\alpha\cdotB/C\beta]$や$[D\to\gamma\cdotE/F\delta]$などのslash項を含む場合,この状態に遷移するときにXリストにプッシュすべきスラッシュカテゴリとしてCやFなどが存在してしまう.ここで,A,B,D,Eは非終端カテゴリ,$\alpha$,$\beta$,$\gamma$,$\delta$は非終端カテゴリおよび品詞からなるカテゴリ列,C,Fは非終端カテゴリあるいは品詞とする.そこで,CLOSURE(\{$[A\to\alpha\cdotB/C\beta]$\})やCLOSURE(\{$[D\to\gamma\cdotE/F\delta]$\})などをそれぞれ取り出し,これらによって新たな状態をそれぞれ構成する.そして,これらの新たに構成された状態に遷移するときにのみ,対応するスラッシュカテゴリをXリストにプッシュする.このように,状態分割の手法によって,状態遷移においてXリストにプッシュすべきスラッシュカテゴリを一つにすることができる.\subsection{依存関係をともなう状態分割}次に,(3)に示した問題について例を用いて述べる.通常のGLR法での方法によって,図\ref{fig:xgs2}に示す文法から,状態を構成する項の集合の一つとして図\ref{fig:states4}に示すI$_{x}$が得られる.この状態x(I$_{x}$)には,左隅slash項$[relC\to\cdots/np]$が含まれ,(3)に示した問題がある.この状態xに遷移するときにXリストにプッシュされたスラッシュカテゴリnpは,カテゴリsの解析,つまり,CLOSURE(\{[relC$\to$$\cdot$s/np]\})に含まれる項に基づく解析においてのみ参照されるべきものである.しかし,このスラッシュカテゴリnpは,Xリスト上に存在する限り,CLOSURE(\{[relC$\to$$\cdot$s/np]\})には含まれない,[s$\to$np$\cdot$vp]などの項に基づく解析においても参照されてしまう.その結果,誤った痕跡の検出がおこなわれる.\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{6cm}\begin{center}\begin{tabular}[h]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\relC.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np,\np.\\relC$\to$s/np.\end{tabular}\caption{簡単な英文を解析するための,\\XGSで記述された文法(その二)\\}\label{fig:xgs2}\end{center}\end{minipage}\begin{minipage}[b]{6cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{x}$:\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$relC]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\\[relC$\to$$\cdot$s/np]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC]\}\end{tabular}}\caption{図\ref{fig:xgs2}に示す文法から求められる,\\状態を構成する項の集合の一つ\\(左隅slash項を含む)}\label{fig:states4}\end{center}\end{minipage}\end{center}\end{figure}\newcommand{\deriv}{}先に述べたような状態分割の手法によって,この問題を解決することは難しい.これは,左隅slash項の閉包とそれ以外の項とを独立したものとして扱えないためである.図\ref{fig:states4}のI$_{x}$では,項$[np\tonp\cdotrelC]$に基づく解析には,CLOSURE(\{[relC$\to$$\cdot$s/np]\})に含まれる項に基づく解析が含まれる.このため,これらを独立したものとして扱うことはできない.状態xからCLOSURE(\{[relC$\to$$\cdot$s/np]\})を取り出し,状態の分割を敢えておこなうなら,状態xは図\ref{fig:states5}に示す状態x1と状態x2に分割される.実際にこのような状態の分割をおこなった場合には,解析系はこれらの状態の間の依存関係を扱わなければならない.例えば,状態x2においてカテゴリrelCが構成された場合には,解析系は依存関係に従って一時的に状態x1に遷移し,そこからカテゴリrelCによる遷移をおこなわなければならない.次に,少し複雑な依存関係をともなう状態の分割をおこなった場合について述べる.ある状態y(I$_{y}$=CLOSURE(\{$[A\to\alphaB\cdotC\beta]$\}))が,y1(I$_{y1}$=CLOSURE(\{$[A\to\alphaB\cdotC\beta]$\})$-$I$_{y2}$),y2(I$_{y2}$=CLOSURE(\{$[D\to\cdotE/F\gamma]$\})$-$I$_{y3}$),y3(I$_{y3}$=CLOSURE(\{$[G\to\cdotH/J\delta]$\}))の三つの状態に分割されるとする.また,C\derivD$\zeta$,E\derivG$\eta$とする.ここで,A,C,D,E,G,Hは非終端カテゴリ,B,F,Jは非終端カテゴリあるいは品詞,$\alpha$,$\beta$,$\gamma$,$\delta$,$\zeta$,$\eta$は非終端カテゴリおよび品詞からなるカテゴリ列,`\deriv'は0回以上の導出を表す.これらの状態の関係を図\ref{fig:depend}に示す.状態y1と状態y2は依存関係にあり,また,状態y2と状態y3も同様に依存関係にある.解析系が状態y3に遷移するときには,スラッシュカテゴリであるJをXリストにプッシュすることになるが,これに加えてFもプッシュしなければならない.これは,状態y3での解析が状態y2での解析の一部を構成するため,状態y2でのスラッシュカテゴリであるFが状態y3での解析においても参照可能でなければならないからである.このように,依存関係をともなう状態分割をおこなった場合には,解析系の構成が複雑なものになってしまう.\setlength{\mpw}{3.5cm}\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{\mpw}\begin{center}{\small\begin{minipage}[t]{\mpw}I$_{x1}$:\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$relC]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\}\vspace{\vs}I$_{x2}$:\{[relC$\to$$\cdot$s/np]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC]\}\end{minipage}}\caption{図\ref{fig:states4}に示すI$_{x}$\\の分割(依存関係\\をともなう)}\label{fig:states5}\end{center}\end{minipage}\hspace{1cm}\begin{minipage}[b]{6cm}\begin{center}\epsfile{file=depend.eps,width=6cm}\caption{状態y1,y2,y3の関係\\}\label{fig:depend}\end{center}\end{minipage}\end{center}\end{figure}\vspace{-3mm}また,状態に左隅slash項が再帰的に含まれる場合には,次に示す問題がある.通常のGLR法での方法によって,図\ref{fig:xgs3}に示す文法から,状態を構成する項の集合の一つとして図\ref{fig:states6}に示すI$_{z}$が得られる.この状態z(I$_{z}$)には,左隅slash項$[名詞句\to\cdot連体修飾節/後置詞句\名詞句]$が再帰的に含まれている.状態zからCLOSURE(\{[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\})を取り出し状態の分割をおこなうと,状態zは図\ref{fig:states7}に示す状態z1と状態z2に分割される.状態z1には,CLOSURE(\{[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\})にも含まれる項$[後置詞句\to\cdot名詞句\後置詞]$と$[名詞句\to\cdot名詞]$が含まれているが,これらは項$[動詞句\to\cdot後置詞句\他動詞]$から導かれたものである.状態z2では,左隅slash項$[名詞句\to\cdot連体修飾節/後置詞句\名詞句]$が再帰的に含まれているため,この項に基づく連体修飾節の解析が再帰的におこなわれ得る.この再帰的な解析では,その再帰の数だけスラッシュカテゴリである後置詞句を必要とする.しかし,どれだけ再帰的に解析がおこなわれるかを事前に知ることはできない.このため,状態z2への遷移において,どれだけの数の後置詞句をスラッシュカテゴリとしてXリストにプッシュすべきかを決定できない.このため,状態に左隅slash項が再帰的に含まれる場合には,状態分割の手法による対処は難しい.\begin{figure}[htbp]\begin{center}\begin{tabular}[h]{l}文$\to$後置詞句,動詞句.\\後置詞句$\to$名詞句,後置詞.\\動詞句$\to$自動詞.\\動詞句$\to$後置詞句,他動詞.\\名詞句$\to$名詞.\\名詞句$\to$連体修飾節/後置詞句,名詞句.\\連体修飾節$\to$文.\end{tabular}\caption{簡単な日本語文を解析するための,\\XGSで記述された文法}\label{fig:xgs3}\end{center}\end{figure}\vspace{-1.5cm}\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{6.9cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{z}$:\{[文$\to$後置詞句$\cdot$動詞句]\\[動詞句$\to$$\cdot$自動詞]\\[動詞句$\to$$\cdot$後置詞句\他動詞]\\[後置詞句$\to$$\cdot$名詞句\後置詞]\\[名詞句$\to$$\cdot$名詞]\\[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\\[連体修飾節$\to$$\cdot$文]\\[文$\to$$\cdot$後置詞句\動詞句]\}\end{tabular}}\caption{図\ref{fig:xgs3}に示す文法から求められる,\\状態を構成する項の集合の一つ\\(再帰的な左隅slash項を含む)}\label{fig:states6}\end{center}\end{minipage}\begin{minipage}[b]{7cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{z1}$:\{[文$\to$後置詞句$\cdot$動詞句]\\[動詞句$\to$$\cdot$自動詞]\\[動詞句$\to$$\cdot$後置詞句\他動詞]\\[後置詞句$\to$$\cdot$名詞句\後置詞]\\[名詞句$\to$$\cdot$名詞]\}\\\\I$_{z2}$:\{[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\\[連体修飾節$\to$$\cdot$文]\\[文$\to$$\cdot$後置詞句\動詞句]\\[後置詞句$\to$$\cdot$名詞句\後置詞]\\[名詞句$\to$$\cdot$名詞]\}\end{tabular}}\caption{図\ref{fig:states6}に示すI$_{z}$の分割\\\\}\label{fig:states7}\end{center}\end{minipage}\end{center}\end{figure}このように,状態分割の手法は(3)に示した問題に対して有効でない.そこで,文法規則の置き換えによる解決方法を次に示す.\subsection{文法規則の置き換え}左隅slash項は,右辺の左端にスラッシュ記法が存在する文法規則から生じる.したがって,そのような文法規則が存在しなければ,左隅slash項が現れることはない.そして,(3)に示した問題が起ることもない.そこで,文法に対する前処理として,右辺の左端にスラッシュ記法が存在する文法規則に対して,図\ref{fig:replace}に示す置き換えをおこない,スラッシュ記法を擬似的に右辺の左端から移動させる.これによって,左隅slash項が現れることはなくなり,(3)に示した問題は(1)あるいは(2)に示した問題に帰着される.そして,先に述べたように,これらの問題は状態分割の手法によって解決される.ここで,A,Bは非終端カテゴリ,Cは非終端カテゴリあるいは品詞,$\alpha$は非終端カテゴリあるいは品詞からなるカテゴリ列を表す.また,dummyはスラッシュ記法を擬似的に移動させるためだけに導入された非終端カテゴリであり,$\epsilon$は空文字列を表す.図\ref{fig:xgs3}に示す文法では,前処理をおこなうと図\ref{fig:xgs4}に示すものとなる.\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{5cm}\begin{center}\begin{tabular}[h]{c}$A$$\to$$B$/$C$$\alpha$\\$\Downarrow$\\$\biggl\{$\begin{minipage}[m]{3.5cm}$A$$\to$dummy$B$/$C$$\alpha$\\dummy$\to$$\epsilon$\end{minipage}\end{tabular}\caption{文法規則の置き換え}\label{fig:replace}\end{center}\end{minipage}\hspace{5mm}\begin{minipage}[b]{8.2cm}\begin{center}\begin{tabular}[h]{l}文$\to$後置詞句,動詞句.\\後置詞句$\to$名詞句,後置詞.\\動詞句$\to$自動詞.\\動詞句$\to$後置詞句,他動詞.\\名詞句$\to$名詞.\\名詞句$\to$dummy,連体修飾節/後置詞句,名詞句.\\連体修飾節$\to$文.\\dummy$\to$$\epsilon$\end{tabular}\caption{図\ref{fig:xgs3}に示す文法を前処理した結果}\label{fig:xgs4}\end{center}\end{minipage}\end{center}\end{figure}
\section{slash項に基づく状態遷移}
slash項$[A\to\alpha\cdotB/C\beta]$を含む状態において,Bが構成されたときに解析系がおこなう状態遷移には,二通りのものが考えられる.ここで,A,Bは非終端カテゴリ,Cは非終端カテゴリあるいは品詞,$\alpha$,$\beta$は非終端カテゴリおよび品詞からなるカテゴリ列を表す.その一つは,B/Cによる状態遷移である.解析系は,この状態に遷移するときにXリストにプッシュしたスラッシュカテゴリCが痕跡検出によって既にポップされているとき,B/Cによる状態遷移をおこなう.もう一つは,単なるBによる状態遷移である.この状態遷移は,Xリストの内容とは無関係である.解析系は,LR構文解析表にBによる状態遷移が定義されているとき,これをおこなう.したがって,B/Cによる状態遷移と単なるBによる状態遷移をともにおこなう必要がある場合には,解析系は解析過程を分岐させ横型探索をおこなう.
\section{複合名詞句制約}
痕跡処理では,ロスの複合名詞句制約などのいわゆる「島制約」への対処が求められる.次に,ロスの複合名詞句制約について述べ,その後,それへの対処方法を示す.ロスの複合名詞句制約は,埋め込み文中の痕跡の位置に関する統語的な制約である.ロスの複合名詞句制約によれば,名詞句は文や名詞句の構造を二度越えて移動することはできない\cite{Tanaka1989}.この制約に違反する例を図\ref{fig:np_const}に示す.図\ref{fig:np_const}では,名詞句`atoy'がhasの直後(右隣り)から,`{\itt$_{1}$}has{\itt$_{2}$}',そして,`themanknowsthechildwho{\itt$_{1}$}has{\itt$_{2}$}'の二つの埋め込み文を越えて文頭に移動したために,ロスの複合名詞句制約に違反する.\begin{figure}[htbp]\begin{center}\epsfile{file=np_const.eps}\caption{ロスの複合名詞句制約に違反する例.{\itt$_{1}$},{\itt$_{2}$}が痕跡を表す.\\また,矢印は痕跡と対応付けられる名詞句を指す.}\label{fig:np_const}\end{center}\end{figure}XGSでは,ロスの複合名詞句制約を表現するために,open($<$),close($>$)と呼ばれる記法が導入されている.この記法には,「`$<$'と`$>$'の外側の構成素と,`$<$'と`$>$'で囲まれたカテゴリの中の痕跡とは対応付けることはできない」という意味が与えられている.この記法の使用例を図\ref{fig:xgs5}に示す.図\ref{fig:xgs5}に示す文法では,関係節を表すrelCが`$<$'と`$>$'で囲まれているため,関係節内の痕跡がその外側の構成素と対応付けられることはない.これによって,関係節が多重に存在する文の解析において,ロスの複合名詞句制約が満たされることになる.\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{5cm}\begin{center}\begin{tabular}[h]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\$<$relC/np$>$.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np\np.\\relC$\to$relPron,\s.\end{tabular}\caption{open($<$),close($>$)\\による,ロスの複合\\名詞句制約の表現}\label{fig:xgs5}\end{center}\end{minipage}\hspace{1cm}\begin{minipage}[b]{5cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{s}$:\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$$<$relC/np$>$]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\\[relC$\to$$\cdot$relPron\s]\}\end{tabular}}\caption{図\ref{fig:xgs5}に示す文法から\\求められる,状態を構成\\する項の集合の一つ\\(enclosed項を含む)}\label{fig:states8}\end{center}\end{minipage}\end{center}\end{figure}本論文で示す手法では,open($<$),close($>$)を次のように解析系に組み込む.文法規則中の`$<$'と`$>$'で囲まれたカテゴリを処理するときに,Xリストを一時的に空にする.つまり,`$<$'と`$>$'で囲まれたカテゴリの直前(左隣り)にドット記号`・'のある項を含む状態に遷移するときに,Xリストを一時的に空にする.そして,そのカテゴリの解析が終了したときに,Xリストの内容を元に戻す.このようなXリストの操作によって,open($<$),close($>$)は解析系に組み込まれる.ここで,説明上の都合により,{\bfenclosed項}という用語を導入する.enclosed項とは,`$<$'と`$>$'で囲まれたカテゴリの直前(左隣り)にドット記号`・'のある項のことである.また,enclosed項のうち,`$<$'と`$>$'で囲まれたカテゴリが右辺の左端に存在するものを左隅enclosed項と呼ぶことにする.通常のGLR法での方法によって,図\ref{fig:xgs5}に示す文法から,状態を構成する項の集合の一つとして図\ref{fig:states8}に示すI$_{s}$が得られる.この状態s(I$_{s}$)には,enclosed項であり,かつslash項である$[np\tonp\cdot<relC/np>]$が含まれている.したがって,解析系はこの状態sに遷移するときには,まず一時的にXリストを空にし,その後,スラッシュカテゴリであるnpをXリストにプッシュする.また,解析系は状態sからrelC/npによる状態遷移をおこなうときには,Xリストの内容をこの状態sに遷移する前のものに復元する.open($<$),close($>$)を実現するXリスト操作による影響は,`$<$'と`$>$'で囲まれたカテゴリの解析,つまり,enclosed項の閉包に含まれる項に基づく解析に限定されなければならない.そうでなければ,検出されるべき痕跡が検出されない.open($<$),close($>$)を用いて記述された文法に対して,通常のGLR法での方法で,状態を構成する項の集合を求めると,次の(1),(2)に示す問題が生じる.\begin{enumerate}\item状態が芯としてenclosed項とそうでない項を含む場合,そのenclosed項ではない項の閉包として得られた項に基づく解析に対しても,その状態に遷移するときにおこなわれたXリスト操作が影響し,痕跡が検出されなくなる.\item状態が左隅enclosed項を含む場合,その左隅enclosed項の閉包として得られた項以外の項に基づく解析に対しても,その状態に遷移するときにおこなわれたXリスト操作が影響し,痕跡が検出されなくなる.\end{enumerate}これらの問題は,5章で論じた問題と類似している.(1)に示す問題は,状態から芯であるenclosed項の閉包を取り出し,それによって新たな状態を構成することで解決できる.また,(2)に示す問題は,文法に対する前処理として,右辺の左端に`$<$'と`$>$'で囲まれたカテゴリが存在する文法規則に対して,図\ref{fig:replace}に示すものと同様な置き換えをおこない,`$<$'と`$>$'で囲まれたカテゴリを擬似的に右辺の左端から移動させることで解決できる.
\section{動作例}
本論文で示す手法を用いてパーザを構成した例を次に示す.DCGに対するGLRパーザと\breakして論理型言語Prolog上に効率よく実装されたSGLR\cite{Numazaki1991}を拡張することでパーザを構成した.本論文では,このパーザをSGLR-plusと呼ぶことにする.SGLR-plusを使用して,``Achildwhohasatoysmiles.''という文を解析した様子を図\ref{fig:sglr_plus}に示す.\begin{figure}[htbp]\begin{center}\begin{minipage}{11cm}{\baselineskip=8pt\begin{verbatim}|?-run.input:achildwhohasatoysmileswords:[a,child,who,has,a,toy,smiles]length:7---result1/1---|-sentence|-sen_dec|-subj||-noun_p||-noun_p|||-art--<a>|||-n--<child>||-relC/noun_p||-relPron--<who>||-sen_dec||-subj|||-noun_p--<t>||-pred_do||-verb_p||-verb||-vt--<has>||-obj||-noun_p||-art--<a>||-n--<toy>|-pred_do|-verb_p|-verb|-vi--<smiles>argumentinfo:[]thenumberofresults:1runtime:10msecyes\end{verbatim}}\end{minipage}\caption{SGLR-plusによる``Achildwhohasatoysmiles.''の解析.\\{\itt}が痕跡を表す.}\label{fig:sglr_plus}\end{center}\end{figure}SGLR-plus(痕跡処理あり)とSGLR(痕跡処理なし)を使用していくつかの文を解析した結果を次に示す.今回の解析では,それぞれ平叙文を概ね網羅する文法を使用した.また,SGLRは痕跡処理を持たないため,図\ref{fig:cfg2}と同様に,痕跡を含むカテゴリに対して,その痕跡に対応する構成素が欠けた文法規則を用意した.ただし,これらの解析では補強項での統語的制約のチェックはおこなわなかった.SGLR-plus,SGLRのそれぞれを使用した場合での文法規則数,解析系の状態数,項の総数を表\ref{tab:1}に示す.SGLR-plusを使用した場合には,痕跡処理がおこなわれるため,SGLRを使用した場合と比較して3割ほど文法規則が減少している.\begin{figure}[htbp]\begin{center}\begin{minipage}[t]{3.1cm}\begin{tabular}[t]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\relC.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np,\np.\end{tabular}\end{minipage}\begin{minipage}[t]{4cm}\begin{tabular}[t]{l}relC$\to$relPron,\s2.\\s2$\to$vp.\\s2$\to$np,\vp2.\\vp2$\to$vt.\\vp2$\to$vt,\np.\end{tabular}\end{minipage}\caption{図\ref{fig:xgs}に示す文法に対応する,スラッシュ\\記法を用いないで記述された文法}\label{fig:cfg2}\end{center}\end{figure}\begin{table}[htbp]\begin{center}\caption{痕跡処理の有無による違い}\label{tab:1}\begin{tabular}[htbp]{|c||c|c|c|}\hline解析系&文法規則数&状態数&項総数\\\hline\hlineSGLR-plus&224&288&9,235\\\hlineSGLR&345&454&14,248\\\hline\end{tabular}\end{center}\end{table}次に示す英文を解析の対象とした.それぞれの英文に対する,解析に要した時間\footnote{SGLRは,入力文から生成したトップ・レベルのゴール列を呼び出すことで起動する.このゴール列の実行に要した時間を示す.実行環境:SICStus3\#6,GNU/Linux2.2.2,IntelPentiumPro180MHz},得られた解析木の数,失敗した数を表\ref{tab:2}に示す.\begin{enumerate}\itemThekidswereskippingaboutinthepark.\itemThecoffeehassloppedoverintothesaucer.\itemThetroubleisthatshedoesnotlikeit.\itemIwanttogotoFrance.\itemTheyscatteredgravelontheroad.\itemHetoldmethathelikedbaseball.\itemIcannotallowyoutobehavelikethat.\itemThechildwhohasatoysmiles.\itemJanehasanunclewhoisverykind.\itemThebookwhichIboughtyesterdayisveryinteresting.\itemIwantamanwhounderstandsEnglish.\itemThebookwhichthemanwhohadabagwhichlookedheavyboughtisdifficult.\end{enumerate}\begin{table}[htbp]\begin{center}\caption{解析結果}\label{tab:2}\begin{tabular}[htbp]{l}\begin{tabular}[htbp]{|c||c|c|c|c|}\hline英文&解析系&$解析時間^{a}$&解析木数&失敗数\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{1}&SGLR-plus&8&8&62\\\cline{2-5}&SGLR&5&8&38\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{2}&SGLR-plus&8&17&49\\\cline{2-5}&SGLR&5&17&26\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{3}&SGLR-plus&2&1&10\\\cline{2-5}&SGLR&2&1&7\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{4}&SGLR-plus&2&4&4\\\cline{2-5}&SGLR&1&4&3\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{5}&SGLR-plus&3&5&9\\\cline{2-5}&SGLR&2&5&5\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{6}&SGLR-plus&2&1&5\\\cline{2-5}&SGLR&2&1&4\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{7}&SGLR-plus&8&12&12\\\cline{2-5}&SGLR&6&12&12\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{8}&SGLR-plus&10&1&49\\\cline{2-5}&SGLR&3&1&12\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{9}&SGLR-plus&9&3&48\\\cline{2-5}&SGLR&4&3&23\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{10}&SGLR-plus&5&3&16\\\cline{2-5}&SGLR&3&3&6\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{11}&SGLR-plus&5&1&10\\\cline{2-5}&SGLR&2&1&2\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{12}&SGLR-plus&314&3&1163\\\cline{2-5}&SGLR&75&3&92\\\hline\end{tabular}\\$^{a}単位:msec$\end{tabular}\end{center}\end{table}\vspace{-3mm}SGLR-plus,SGLRのそれぞれを使用した場合の解析時間を比較すると,SGLR-plusを使用した場合により多くの時間を要す傾向がある.一般に文法規則の増加は,非決定性の増加などによる処理量の増加を引き起す.今回の比較では,痕跡に関連する処理量がこれを上回ったため,この傾向が生じたと考える.この傾向は,痕跡を含まない(1)〜(7)の文の解析にも見られる.これは,痕跡処理を解析系に組み込むためにおこなった状態分割に関連して,非決定性が増加したためであると考える.SGLR-plusを使用した解析ではより多くの時間を要す傾向があるとは言え,対象とした文のうち,(12)以外のものの解析はおよそ数ミリ秒で終了している.(12)の文は複数の痕跡を含むため,SGLR-plusを使用した解析では,痕跡処理に関連する非決定性が増加するとともに失敗の数も増加する.この様子を表\ref{tab:3}に示す.しかし,SGLRを使用した場合と比較すると,失敗の数ほど解析時間に差は生じていない.これは,誤りがLR構文解析表から即座に判定されるためであると考える.{\footnotesize\begin{table}[htbp]\begin{center}\caption{英文(12)の解析の過程におけるスタック数と失敗数.それぞれの単語までを解析した後の値を\\示す.スタック数は,統合されているものをすべて展開したときの値を示す(括弧内の値は,\\統合されたままのスタックの数を示す).}\label{tab:3}\begin{minipage}[h]{\textwidth}\begin{tabular}[h]{|cr||c|c|c|c|c|c|c|c|c|}\hline&&the&book&which&the&man&who&had&a&bag\\\hline\hlineSGLR-plus&スタック数&1(1)&1(1)&2(2)&2(2)&2(2)&2(1)&6(3)&8(2)&8(2)\\&失敗数&0&0&3&4&5&9&10&12&13\\\hlineSGLR&スタック数&1(1)&1(1)&2(2)&2(1)&2(1)&2(1)&6(2)&4(1)&4(1)\\&失敗数&0&0&1&1&1&1&1&2&2\\\hline\end{tabular}\end{minipage}\vspace{2mm}\begin{minipage}[h]{\textwidth}\begin{tabular}[h]{|cr||c|c|c|c|c|c|c|}\hline&&which&looked&heavy&bought&is&difficult&右端記号\\\hline\hlineSGLR-plus&スタック数&28(5)&48(2)&62(5)&184(2)&1004(8)&1164(5)&3\\&失敗数&31&31&53&72&86&517&1163\\\hlineSGLR&スタック数&20(3)&32(1)&40(2)&112(2)&520(5)&456(2)&3\\&失敗数&5&5&9&10&10&22&92\\\hline\end{tabular}\end{minipage}\end{center}\end{table}}
\section{おわりに}
本論文では,効率の良い構文解析法として知られているGLR法\cite{Tomita1987}に基づく痕跡処理の手法を示した.この手法では,文法記述形式としてXGS\cite{Konno1986}を使用し,XGでのXリスト\cite{Pereira1981}と基本的に同じ手法で痕跡を扱った.また,GLR法で文法規則が解析系の状態として集合的に扱われることから生じる問題を,状態の構成を工夫することで解決した.また,この手法によって,GLRパーザであるSGLR\cite{Numazaki1991}を拡張し痕跡処理を実現した.構成素の移動現象を自然に記述する枠組みとして,DCG\cite{Pereira1980}にスラッシュ記法と下位範疇化制約という二つの概念を導入したものが,徳永らによって提案されている\cite{Tokunaga1990}.この考え方を取り入れることが,今後の課題である.\nocite{*}\acknowledgmentGLRパーザSGLRを提供していただいた東京工業大学大学院情報理工学研究科田中穂積教授,SGLRの開発者である故沼崎浩明氏,有用な意見をいただいた新潟大学宮崎研究室の学生諸君,に深く感謝致します.\bibliographystyle{jnlpbbl_old}\bibliography{v07n1_01}\begin{biography}\biotitle{略歴}\bioauthor{五百川明}{1994年新潟大学工学部情報工学科卒業.1996年同大学院工学研究科修士課程修了.現在,同大学院自然科学研究科博士後期課程在学中(同大学法学部助手).自然言語の意味処理に興味がある.情報処理学会会員.}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所において大型コンピュータDIPSの開発,コンピュータシステムの性能評価法の研究,日本文音声出力システムや機械翻訳などの自然言語処理の研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語の解析・生成,機械翻訳,辞書・シソーラスなど自然言語処理用言語知識の体系化などの研究に従事.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V22N02-01
|
\section{はじめに}
近年,電子カルテに代表されるように,医療文書が電子的に保存されることが増加し,構造化されていないテキスト形式の医療情報が増大している.大規模な医療データには有用な情報が含まれ,新たな医学的知識の発見や,類似症例の検索など,医療従事者の意思決定や診療行為を支援するアプリケーションの実現が期待されている.これらの実現のためには,大量のテキストを自動的に解析する自然言語処理技術の活用が欠かせない.特に,テキスト中の重要な語句や表現を自動的に認識する技術は,固有表現抽出や用語抽出と呼ばれ,情報検索や質問応答,自動要約など,自然言語処理の様々なタスクに応用する上で必要不可欠な基盤技術である.用語抽出を実現する方法として,人手で作成した抽出ルールを用いる方法と,機械学習を用いる方法がある.前者の方法では,新しく出現した用語に対応するために随時ルールの修正や追加を行わなければならず,多大な人的コストがかかる.そのため,近年では,データの性質を自動的に学習することが可能な機械学習が用いられることが多くなっている.機械学習に基づく用語抽出では,抽出すべき語句の情報がアノテーションされた訓練データを用いてモデルの学習を行い,学習したモデルを未知のデータに適用することで,新しいデータから用語の抽出を行う.高精度な抽出を可能とするモデルを学習するには,十分な量の訓練データがあることが望ましい.しかし,診療記録などの医療文書は,医師や患者の個人情報を含むため,医療機関の外部の人間が入手することは困難である.幸い,近年は,研究コミュニティでのデータ共有などを目的とした評価型ワークショップが開催されており\cite{uzuner20112010,morita2013overview},匿名化などの処理が施された医療文書データが提供され,小規模なデータは入手可能になっている.とはいえ,依然として,学習に利用できる訓練データの量は限られることが多い.他方,一般に公開されている医療用語辞書などの語彙資源は豊富にあり,英語の語彙資源では,生物医学や衛生分野の用語集,シソーラスなどを含むUMLS(UnifiedMedicalLanguageSystem)\footnote{http://www.nlm.nih.gov/research/umls/},日本語の語彙資源では,広範な生命科学分野の領域の専門用語などからなるライフサイエンス辞書\footnote{http://lsd.pharm.kyoto-u.ac.jp/ja/index.html},病名,臨床検査,看護用語などカテゴリごとの専門用語集を含むMEDIS標準マスター\footnote{http://www.medis.or.jp/4\_hyojyun/medis-master/index.html}などが提供されている.辞書などの語彙資源を利用した素性(辞書素性)は,訓練データに少数回しか出現しない用語や,まったく出現しない未知の用語を認識する際の手がかりとして有用であるため,訓練データの量が少ない場合でも,こうした語彙資源を有効活用することで高精度な抽出を実現できる可能性がある.しかし,既存の医療用語抽出研究に見られる辞書素性は,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うものに留まっている\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純な検索ではマッチしない用語が存在し,辞書利用の効果は限定的であるといえる.本研究では,類似症例検索などを実現する上で重要となる症状名や診断名(症状・診断名)を対象とした用語抽出を行う.その際,語彙資源から症状・診断名の構成要素となる語彙を獲得し,元のコーパスに併せて獲得した語彙を用いることで,より多くの用語にマッチした辞書素性を生成する.そして,生成した辞書素性を機械学習に組み込むことで,語彙資源を有効活用した抽出手法を実現する.また,提案手法の有効性を検証するために,病歴要約からなるNTCIR-10MedNLPタスク\cite{morita2013overview}のテストコレクションを用いて評価実験を行う.本稿の構成は以下の通りである.まず,\ref{chp:related_work}章で医療用語を対象とした用語抽出の関連研究について述べ,\ref{chp:baseline_system}章で本研究のベースとなる機械学習アルゴリズムlinear-chainCRFに基づくシステムを説明する.\ref{chp:util_resources}章では,語彙資源から症状・診断名の構成語彙を獲得する方法と,獲得した語彙を活用した症状・診断名抽出手法を説明する.\ref{chp:experiments}章でMedNLPテストコレクションを用いた評価実験について述べ,最後に,\ref{chp:conclusions}章で本稿のまとめを述べる.
\section{関連研究}
\label{chp:related_work}\vspace{-0.5\Cvs}テキスト中の特定の語句や表現を抽出する処理を固有表現抽出や用語抽出という.固有表現は,主に人名・地名・組織名などの固有名詞や時間・年齢などの数値表現を指し,固有表現抽出では,これらの固有表現を抽出の対象とすることが多い.一方,用語抽出では特定の分野の専門用語などを対象とする.しかし,対象とする語句を抽出するというタスク自体に違いはないため,本稿では,特に両者を区別せず,抽出対象として指定される語句を固有表現と呼ぶ.\subsection{医療用語抽出研究}日本語の医療文書を対象に医療用語の抽出や探索を行った研究として,\pagebreak\cite{inoue2001iryo,kinami2008kango,uesugi2007n-gram}がある.井上ら\cite{inoue2001iryo}は,文章の記述形式に定型性のある医療論文抄録を対象に,パターンマッチングに基づく方法を用いて,病名(「論文が取り扱っている主病名」)や診療対象症例(「診断,治療の対象とした患者,症例」)などの事実情報を抽出した.たとえば,病名は「〜症」「〜炎」「〜腫」などの接尾辞の字種的特徴を手がかりに用い,診療対象症例に対しては,「対象は〜」「〜を対象とし」のような対象症例と共起しやすい文字列を手がかりに用いて抽出している.なお,井上らの報告によると,論文抄録中に含まれる病名や診療対象症例の出現回数は平均1回強である.アノテーションを行った医療論文抄録を用いた抽出実験では,病名や診療対象症例に関して,90\%前後の適合率,80\%から100\%近い再現率という高い精度を得ている.しかし,本稿で対象とする病歴要約では論文抄録と出現の傾向が異なり,同一文書中に様々な病名が出現することが多いため,井上らのパターンマッチングに基づく手法では抽出精度に限界があると考えられる.木浪ら\cite{kinami2008kango}は,専門用語による研究情報検索への応用を目的として,再現率の向上を優先した看護学用語の抽出手法を提案した.抽出対象とされた専門用語は,解剖学用語(「血小板」,「破骨細胞」など)や看護行為(「止血」,「酸素吸入」など)を含み,本稿で対象とする症状・診断名よりも広い領域の用語である.特定の品詞を持つ語が連続した場合にそれらの語を連接して抽出するなど,連接ルールに基づくシステムにより専門用語を抽出した.システムによる抽出を行うフェーズと,抽出されなかった用語や誤って抽出された用語を人手で分析してルールの修正・追加を行うフェーズを繰り返し,再現率が向上し,再現率が低下しない範囲で適合率が向上するようなルール集合を導出している.実験では,専門家によるアノテーションを行った看護学文献を用いて評価し,再現率約80\%という抽出結果を得ている.この手法では,適用する専門用語の領域が異なる場合,再び導出手順を踏んでルールを導出し直す必要がある.しかし,抽出ルール修正の過程が人手による判断に依存しており,再度ルールを導出する際の人的コストが大きい.また,適合率が約40\%と低く,適合率を改善するにはルール導出の基準自体も修正する必要が生じる.上杉\cite{uesugi2007n-gram}は,医療用語抽出の前処理として,医療辞書なしで医療コーパス中の用語間の分割位置を探索する研究を行った.文字列X,Yの出現確率に対し,XYが同時に出現する確率が十分に低ければX,Y間を分割できるとの考えに基づき,コーパスから求めた文字列の出現確率と相互情報量を使用して分割位置を決定している.症例報告論文を用いた実験では,約740語に対して60\%の分割精度\footnote{この文献で63.4\%と報告されている分割位置探索の成功事例の中には,分割された単語の内部でさらに不適切な位置で分割されたものが含まれている.意味のある区切りで分割された事例のみ考慮すると,分割精度は約60\%であった.}であり,分割に成功した事例の中には,複合語が1語と認識される場合と複合語の内部でさらに分割される場合がほぼ同等の割合で存在した.残りの40\%には,助詞が付加される,英字やカタカナ列の途中で分割されるなどの誤りがあるため,自然言語文に対する分割精度として十分であるとはいえない.なお,医療用語抽出に応用するには,分割された各単語が医療用語か否かを判定する基準が別途必要となる.\subsection{医療言語処理ワークショップとNTCIR-10MedNLP}近年,医療文書を対象とした共通タスクを設定し,研究コミュニティでのデータ共有や,データ処理技術の向上を目的とする参加型ワークショップが開催されている.英語の医療文書を処理の対象としたタスクとしては,2011年および2012年にNISTが主催するTRECにおいてMedicalRecordstrackが設定され,2006年および2008年から2012年に渡ってi2b2NLPチャレンジが開催された.i2b2NLPチャレンジでは,診療記録からの情報抽出技術の評価を目的とした共通タスクが実施され,匿名化のための個人情報\cite{uzuner2007evaluating},患者の喫煙状態\cite{uzuner2008identifying},医薬品の使用状況\cite{uzuner2010extracting}や医療上のコンセプト\cite{uzuner20112010}の抽出が行われた.また,日本語の医療文書を使用したタスクとして,2013年にはNIIが主催するNTCIRにおいてMedNLPタスク\cite{morita2013overview}が設定され,患者の個人情報や診療情報を対象に情報抽出技術の評価が行われた.NTCIR-10MedNLPタスクでは,医師により書かれた架空の患者の病歴要約からなる日本語のデータセット(MedNLPテストコレクション)が使用された.データから患者の年齢,日時などの個人情報を抽出する「匿名化タスク」と,患者の症状や医師の診断などの診療情報(症状・診断名)を抽出する「症状と診断タスク」などが設定された.症状・診断名には,症状の罹患の肯定,否定などを表すモダリティ属性が定義されており,モダリティ属性の分類もタスクの一部となっている.なお,両方のタスクとも,それぞれ個人情報,診療情報を固有表現とした固有表現抽出とみなせる.タスク参加者のシステムは,ルールに基づく手法よりも機械学習に基づく手法が多く,特に,学習アルゴリズムとしてCRF(ConditionalRandomFields)\cite{lafferty2001conditional}の代表的なモデルであるlinear-chainCRFを用いたシステムが高い性能を発揮した.また,成績上位のシステムでは,文中の各単語が辞書中の語とマッチしたか否を表す情報(辞書素性)が共通して用いられており,語彙資源の利用が精度向上に寄与したことがわかる.一方,匿名化タスクではルールに基づく手法も有効であり,最高性能を達成したのはルールベースのシステムであった.Miuraら\cite{miura2013incorporating}は,固有表現抽出タスクを文字単位の系列ラベリング\footnote{文をトークン(文字や単語)の列とみなし,各トークンに対して固有表現か否かなどを表すラベルを推定していく方法を指す.}として定式化してlinear-chainCRFを適用し,症状と診断タスクで最も高い精度を達成した.固有表現の抽出を行った後,抽出した固有表現のモダリティ属性を決定するという2段階の方法を使用している.MEDIS標準マスターおよびICH国際医薬用語集\footnote{https://www.pmrj.jp/jmo/php/indexj.php}を語彙資源に用いて辞書素性を与えている.Laquerreら\cite{laquerre2013necla},Imaichiら\cite{imaichi2013comparison}は,ともに単語単位の系列ラベリングとしてlinear-chainCRFを適用し,症状と診断タスクでそれぞれ2番目,3番目の精度を達成している.Laquerreらは,ライフサイエンス辞書とUMLSMetathesaurusを利用し,辞書素性を導入している.また,事前知識に基づくヒューリスティック素性として,「ない」「疑い」などモダリティ属性判別の手がかりとなる表現を素性としている.Imaichiらは,Wikipediaから収集した病名,器官名などの用語集に基づく辞書素性を導入している.
\section{Linear-chainCRFに基づく症状・診断名抽出システム}
\label{chp:baseline_system}本章では,症状・診断名の抽出のためにベースとするシステムを説明する.本研究では,用語抽出の処理を症状・診断名からなる固有表現を抽出するタスクとみなし,系列ラベリングとして定式化する.また,固有表現の抽出は,機械学習アルゴリズムlinear-chainCRFを用いて行う(以降,本研究で用いたlinear-chainCRFを指す場合,単にCRFと呼ぶ).さらに,CRFで抽出を行った出力に,人手で作成したルールを用いて抽出誤り訂正の後処理を行うことで,より誤りの少ない抽出を実現する.\subsection{MedNLP「症状と診断タスク」の定義}\label{sec:mednlp_taskdef}NTCIR-10MedNLP(MedicalNaturalLanguageProcessing)タスク\cite{morita2013overview}は,医療分野における情報抽出技術の評価を目的として実施されたタスクである.診療記録から症状・診断名を抽出する「症状と診断タスク」を含む3つのサブタスクが定義された.本研究では,MedNLPタスクで使用されたデータセット(MedNLPテストコレクション)を使用し,症状と診断タスクと同様の設定で症状・診断名の抽出を行う.以下,MedNLPテストコレクションおよび症状と診断タスクについてそれぞれ説明する.\subsubsection*{MedNLPテストコレクション}MedNLPテストコレクションは,医師により書かれた架空の患者の病歴要約50文書からなるデータセットであり,2対1の比率で訓練データとテストデータに分割されている.同テストコレクションには,患者の個人情報および診療情報がアノテーションされている.個人情報は患者の名前,年齢,性別と,日時,地名,医療機関名からなり,診療情報は患者の症状や医師の診断(症状・診断名)を指す.このうち,症状と診断タスクで対象とされたのは後者の診療情報である.症状・診断名には,医師の認識の程度などを表すモダリティ属性が定義されており,それぞれ症状の罹患の肯定,否定,推量(可能性の存在)を表すpositive,negation,suspicionに加え,症状が患者の家族の病歴として記述されていることを表すfamilyの4種類からなる.以下,{\tt<n></n>,<s></s>,<f></f>}で囲まれた範囲をそれぞれモダリティ属性がnegation,suspicion,familyである症状・診断名であるとして,各モダリティ属性が付与された症状・診断名の例を示す.\renewcommand{\labelenumi}{}\begin{enumerate}\item{\tt「<n>糖尿病</n>は\underline{認めず}」}\item{\tt「<n>関節症状</n>は\underline{改善した}」}\item{\tt「<s>神経疾患</s>の\underline{疑いにて}」}\item{\tt「<s>味覚異常</s>の\underline{可能性を考え}」}\item{\tt「<n>胆嚢炎</n>を\underline{疑わせる所見を認めず}」}\item{\tt「\underline{母親};<f>気管支喘息</f>」}\item{\tt「\underline{父}:<f>狭心症</f>、<f>心筋梗塞</f>」}\item{\tt「\underline{娘}3人は鼻粘膜の<f>易出血性</f>があり」}\end{enumerate}negation,suspicion属性については,(a)〜(d)に示すように,症状・診断名の係り先の文節が特定の表現を含む場合に,その表現に対応するモダリティ属性となることが多い.ただし,(e)のように,直接の係り先がsuspicionを示す表現を含んでいても,後方に否定表現が現れることによりnegationとなることがある.family属性の症状・診断名は,(f),(g)のように,続柄名の後に症状・診断名を列挙する形で記述された場合が該当する他,(h)のように,文全体の主語が続柄である場合も該当する.なお,positive属性は,negation,suspicionおよびfamilyであることを示す表現と共起しない症状・診断名に対して付与される属性とみなせる.\begin{table}[b]\caption{訓練データにおけるモダリティ属性の分布}\label{tab:medtr_tag}\input{01table01.txt}\end{table}表\ref{tab:medtr_tag}に,訓練データにおける各モダリティ属性の出現回数(``\#''の列)を示す.出現回数はモダリティ属性の種類により偏りがあり,positiveが7割程度を占めているのに対し,suspicion,familyは非常に少数となっている.\subsubsection*{症状と診断タスク}症状と診断タスクは,テストコレクションから,患者に関連する症状・診断名\footnote{文献の引用など,症状・診断名への言及が注目している患者の症状・診断を表すものではない場合には,抽出の対象とされない.}を抽出し,モダリティ属性を決定するタスクとして定義された.評価は,訓練データを用いて開発されたシステムに対して,テストデータでの抽出性能を測ることで行われ,評価尺度として,$F$値($\beta=1$)が使用された.$F$値は,適合率(Precision)と再現率(Recall)の調和平均であり,次式で定義される.\[\frac{2\cdot\mbox{Presicion}\cdot\mbox{Recall}}{\mbox{Precision}+\mbox{Recall}}\]また,評価方法として,モダリティ属性の分類を考慮する評価と,考慮しない評価の2通りの方法で評価が行われた.前者の方法では,抽出された固有表現が正しい属性に分類されないと正解とならないのに対して,後者の方法は,属性が誤っていても,抽出された固有表現の範囲がアノテーションされた正解情報と一致していれば正解とみなされる.\subsection{固有表現抽出タスクの定式化}\label{sec:ner_formulation}本研究では,各モダリティ属性が付与された症状・診断名を異なるカテゴリの固有表現とみなして固有表現抽出を行うことで,症状・診断名の抽出範囲およびモダリティ属性の決定を行う.固有表現抽出は,入力文中の固有表現部分を同定するタスクであり,系列ラベリングとして定式化されることが多い.系列ラベリングとは,入力系列に対してラベルの系列を出力する問題である.固有表現抽出では,トークンの系列である文を入力として,トークンごとに固有表現の種類等を表すラベルを推定し,それらラベルの列を出力する.本研究では,形態素をトークンとする系列ラベリングとして固有表現抽出の定式化を行う.定式化の際には,同一の固有表現(チャンク)中の位置を表すためのチャンキング方式として,IOB2フォーマット\cite{sang1999representing}を使用した.IOB2では,タグはB(Begin),I(Inside),O(Outside)の3種類があり,それぞれチャンクの先頭,チャンクの先頭を除く内部,チャンクの外側を表す.なお,複数のカテゴリの固有表現が存在する場合,B,Iはカテゴリ名と併せて使用される.たとえば,「嘔吐/B-c\_pos~~出現/I-c\_pos~~した/O」のようにラベルを付与することで,「嘔吐出現」がc\_pos(肯定のモダリティ属性を持つ症状・診断名)というカテゴリの固有表現であることを表す.なお,入力文の形態素解析には,linear-chainCRFに基づく日本語形態素解析器であるMeCab\cite{kudo2004applying}(Ver.~0.996)およびIPADIC(Ver.~2.7.0)を用いた.\subsection{CRFによる分類}\label{sec:crf}本システムでは,機械学習アルゴリズムとしてlinear-chainCRFを用いた.linear-chainCRFは,分類アルゴリズムである最大エントロピー法を出力が構造を有する問題(構造学習)に拡張したモデルである.品詞タギング\cite{lafferty2001conditional},基本名詞句同定\cite{sha2003shallow},形態素解析\cite{kudo2004applying}など,構造学習,特に,系列ラベリングとして定式化できる自然言語処理の様々な問題に適用され,高い性能が報告されている.また,固有表現抽出の研究においても広く使用され\cite{mccallum2003early,jiang2011study},NTCIR-10MedNLPタスクでも最もよく用いられた\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.linear-chainCRFの実装としては,C++で記述されたオープンソースソフトウェアであるCRF++\footnote{http://crfpp.googlecode.com/svn/trunk/doc/index.html}(Ver.~0.58)を利用した.CRF++は,準ニュートン法の一種であるL-BFGS(Limited-memoryBFGS)を使用して数値最適化を行っており,省メモリで高速な学習を実現している.また,素性テンプレートという素性の記述形式が定義されており,テンプレートを利用することで多様な素性を容易に学習に組み込むことができるという特長がある.CRF++の素性テンプレートでは,出力ラベル系列についてのunigram素性およびbigram素性が利用可能である.出力ラベルunigram素性は,入力系列についての任意の情報(系列中の特定のトークンの形態素自体や品詞など)と現在のトークンのラベルの組からなる素性を指し,出力ラベルbigram素性は,入力系列の任意の情報,現在のトークンのラベルおよび1つ前のトークンのラベルの三つ組からなる素性を指す.本研究では,すべての素性に対して出力ラベルunigram素性およびbigram素性の両方を使用することとした.たとえば,品詞素性を$-2$から2までのウィンドウで用いると述べた場合,注目するトークンの2つ前方から2つ後方に位置するトークンの品詞について,それぞれで出力ラベルunigram素性およびbigram素性を使用することを意味する.なお,指定した値未満の出現回数である素性を学習に使用しないことを意味する素性のカットオフの閾値は1とし,訓練データに出現したすべての素性を使用することにした.また,正則化には$L2$正則化を用いた.\subsection{抽出に用いる素性}\label{sec:features}本システムでは,症状・診断名抽出のための素性として,「形態素」,「形態素基本形」,「品詞」,「品詞細分類」,「字種」,「辞書マッチング情報」,「モダリティ表現」の7種類の情報を用いた.注目するトークンを起点にどこまでの範囲のトークンの情報を素性に用いるかを表すウィンドウサイズについては,モダリティ素性を除き,\ref{chp:experiments}章で述べる実験により最適な値を決定する.モダリティ素性のウィンドウサイズについては後述する.\subsubsection*{形態素,基本形,品詞,品詞細分類素性}形態素素性はトークン自体であり,基本形,品詞,品詞細分類素性は,それぞれ各形態素の基本形,品詞,品詞細分類である.たとえば,「言っ」の基本形は「言う」,「速く」の基本形は「速い」となる.品詞は,名詞,動詞,形容詞,接続詞など10数種類存在し,品詞細分類は,名詞であれば「固有名詞」,「形容動詞語幹」などがある.これら四つの素性には,形態素解析器MeCabの出力を利用した\footnote{異なる品詞間の同名の細分類を区別するため,「名詞/一般」,「副詞/一般」のように「品詞/品詞細分類」の形で細分類素性を記述した.また,品詞細分類がさらに細分化されている場合は,「固有名詞・人名・姓」のように最上層から最下層までのすべての細分類を「・」記号で併記し,1つの品詞細分類という扱いとした.}.なお,MeCabではデフォルトの辞書としてIPADICが採用されており,IPADICで使用されている品詞および品詞細分類は,IPA品詞体系として定義されている.\subsubsection*{字種素性}字種素性は,トークンを構成する文字の字種パターンを表す.本研究では,ひらがな,カタカナ,漢字,英大文字,英小文字,ギリシャ文字,数値,記号とこれらの組合せからなる字種パターンを定義した.たとえば,「レントゲン」は「カタカナ」,「考え」は「$\text{ひらがな}+\text{漢字}$」,「MRI」は「英大文字」が字種パターンとなる.なお,「$\text{ひらがな}+\text{漢字}$」では,1つのトークン中にひらがなと漢字が出現していればこのパターンに相当するものとし,各文字の出現順は無視した.複数字種の組合せからなるパターンの扱いは,他のパターンについても同様であ\linebreakる.\subsubsection*{辞書素性}辞書素性は,専門用語辞書など外部の語彙資源を利用した素性であり,入力文中の形態素列が辞書中の語句と一致したか否かという情報を表す.本研究では,症状・診断名の抽出のために病名等の用語から構成される辞書を使用し,入力文中のトークン列で,辞書中の語句とマッチした部分にIOB2フォーマットに基づくタグを付与した.たとえば,「腎機能障害」という語句が辞書中に含まれる場合,「腎/機能/障害/の/増悪」と分割された形態素列に対して「B/I/I/O/O」というタグが付与される.なお,辞書マッチは文字数についての最左最長一致で判定し,マッチした範囲の境界が形態素の内部にある場合,マッチ範囲に完全に包含される形態素に対してのみタグを付与した.\subsubsection*{モダリティ素性}モダリティ素性は,症状・診断名のモダリティ属性を示す表現(モダリティ表現)を捉えるための素性である.モダリティ表現の具体例として,先行する症状・診断名のモダリティがnegationであることを示す「〜なし」や「〜を認めず」,同様にsuspicionであることを示す「〜疑い」や「〜を考え」などがある.また,「母」「息子」など続柄を表す表現は,共起する症状・診断名のモダリティ属性がfamilyであることを示すモダリティ表現であるといえる.本素性では,negation,suspicionおよびfamily属性を対象に,モダリティ属性推定の手がかりとなる表現を正規表現で記述し,文中の各トークンについて,最左最長一致で正規表現とマッチした範囲の端に位置するトークンまでの距離(形態素数)と,マッチした表現が表すモダリティ属性を示すタグを付与した.なお,positive属性は,negation,suspicionおよびfamilyであることを示す表現と共起しない症状・診断名に対して付与される属性とみなせるため,これらのモダリティ表現が周辺に存在しないことがpositive属性と推定するための手がかりとなる.例として,negationのモダリティ表現を捉える正規表現の1つとして次の(a)を使用している\footnote{``$X|Y$''は$X$または$Y$との一致,``[$X_1X_2\dotsX_N$]''は$X_1,X_2,\dots,X_N$のいずれかとの一致,``()''はパターンのグループ化,``?''は直前のパターンの0または1回の出現を表す.}.\renewcommand{\labelenumi}{}\begin{enumerate}\item\![はがを]?(([認め$|$みとめ$|$見$|$み$|$得$|$え)(られ)?)?([無な](い$|$く$|$かっ)$|$せ?ず)\end{enumerate}この正規表現を用いると,「運動/麻痺/は/み/られ/ず」という入力に対して「はみられず」という部分がマッチし,マッチした範囲の先頭トークン「は」までの距離は,「麻痺」で1,「運動」で2となる.negationとsuspicionのモダリティ表現は症状・診断名の右側に出現するため,モダリティ表現が右側に出現しているトークンにのみ,出現を示すタグを付与した.反対に,familyの表現は「母:脳梗塞」のように左側に出現するため,モダリティ表現が左側に出現しているトークンにのみタグを付与した.なお,negationの正規表現は上述の(a)を含む4件,suspicionの正規表現は以下の(b)を含む2件,familyの正規表現は以下の(c)~1件を使用した\footnote{``[父母]''に後続する``(?![指趾])''というパターンは,医療用語である「母指」や「母趾」とのマッチを防ぐために用いた.}.モダリティ素性として使用した正規表現の全リストは付録\ref{sec:modal_regex}に記載する.\begin{enumerate}\setcounter{enumi}{1}\itemの?(疑い$|$うたがい)\item{[祖伯叔]?[父母](?![指趾])親?$|$お[じば]$|$[兄弟姉妹娘]$|$息子$|$従(兄弟$|$姉妹)}\end{enumerate}\renewcommand{\labelenumi}{}また,過学習を抑制する目的で,モダリティ属性ごとに距離のグループ化を行った.negationとsuspicionでは,距離1〜2(近くに出現),3〜4(やや近くに出現),5〜8(やや遠くに出現),9〜12(遠くに出現)の4通りの距離を考慮し,familyでは$-\infty$〜$-13$,$-12$〜$-9$,$-8$〜$-5$,$-4{\rm〜}-1$の4通りとした.なお,距離は,注目するトークンの右側にモダリティ表現が出現している場合に正数,左側に出現している場合に負数で表しており,距離の絶対値は,注目するトークンから同一文中の任意のモダリティ表現(正規表現とマッチしたトークン列)内の最も近いトークンまでのトークン数に相当する.また,``$-\infty$〜''は文の左端以降での出現を意味している.以上のモダリティ素性の定義に基づくと,前述の例に対しては,「運動」および「麻痺」に``neg1\_2'',それ以外のトークンにモダリティ表現の非出現を表すタグ``O''が付与される.なお,モダリティ素性として付与したタグは,注目しているトークンのタグのみ学習・推定に用いた(つまり,ウィンドウサイズを1とした).トークンに付与される素性タグにより,トークンの周辺文脈の情報が表現されており,実質的に12以上先のトークンまで考慮していることになる.\subsection{抽出誤り訂正のための後処理ルール}\label{sec:postprocess}著者らは,NTCIR-10MedNLPタスクに参加し,構造化パーセプトロン\cite{collins2002discriminative}およびlinear-chainCRFに基づく固有表現抽出システムを開発してきた\cite{higashiyama2013clinical,higashiyama2013developing}.開発したシステムについてエラー分析を行ったところ,観測された誤りの中で,モダリティ属性の分類誤りが大きな割合を占めることがわかった.この種の誤りは単純なルールで修正できるため,モダリティ属性の分類誤りに焦点を当て,誤り訂正のためのルールを作成することにした.観測されたモダリティ属性分類誤りは,さらに次の2通りに大別できたため,それぞれの誤りに対応する訂正ルールとして,2つのルールを作成した.\begin{itemize}\item固有表現の周辺に(非positive属性の)モダリティ表現が存在し,かつ推定された属性が同表現が表す属性と異なっている(主にpositiveとなっている)誤り\item固有表現の周辺にモダリティ表現が存在せず,かつ推定された属性がpositive以外となっている誤り\end{itemize}\vspace{8pt}作成した2つのルールを以下に示す.``[]''の外側(左側)にnegationおよびsuspicion属性に対する条件,``[]''の内側にfamily属性に対する条件を記述した.正しい推定に対して修正ルールを適用してしまうことを防ぐため,後述する$d_1$および$d_2$の値は,$d_1=2$,$d_2=8$として,ルールの適用基準を厳しく設定した.ただし,family属性のモダリティ表現が出現する文中の症状・診断名が患者の家族に対する言及でないというケースは極めて少ないとの考えの下,familyに対する距離は$d_1=d_2=\infty$,つまり,該当位置から到達可能な同一文内の最大トークン数とした.\subsubsection*{モダリティ属性分類誤り修正のためのルール}\begin{enumerate}\item固有表現$e$の末尾[先頭]のトークンから右[左]方向に距離(トークン数)$d_1$以内に(非positive属性の)モダリティ表現$m$が存在する場合,$e$の推定ラベルのモダリティ属性を表現$m$が表す属性$a$に更新する.\begin{itemize}\item[*]距離$d_1$以内に複数のモダリティ表現が存在する場合は,family,negation,suspicionの順に優先する.\end{itemize}\item固有表現$e$の末尾[先頭]のトークンから右[左]方向に距離$d_2$以内にモダリティ表現が存在しない場合,推定ラベルの属性をpositiveに更新する.\end{enumerate}なお,上記のルールを導入することは,固有表現$e$から$e$の最も近くのモダリティ表現までの距離$d$を,(a)近い($d\leqd_1$),(b)中程度の距離である($d_1<d\leqd_2$),(c)遠い,あるいはモダリティ表現が存在しない($d>d_2$)の3通りに分け,距離$d$に応じてモダリティ属性決定の挙動を変えていることに対応する.ルールが適用される(a)および(c)の条件下では,CRFで推定されたモダリティ属性をルールで上書きしているため,ルールによりモダリティ属性を決定しているのと等価である.一方,固有表現から中程度の距離までの範囲内にモダリティ表現が存在する(b)の場合には,CRFによる推定結果をそのまま採用し,モダリティ属性の決定を学習の結果に委ねた.
\section{医療用語資源の語彙拡張と症状・診断名抽出への利用}
\label{chp:util_resources}用語抽出への語彙資源の利用は,訓練データに少数回しか出現しない用語やまったく出現しない用語の認識に有効であり,医療用語辞書などの語彙資源を用いた医療用語抽出研究が行われている\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.しかし,診療記録では症状・診断名として多様な複合語が使用されるため,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うだけではマッチしない複合語が存在し,辞書利用の効果は限定的となる.そこで,本章では,語彙資源中の複合語から構成語彙を獲得する方法と,構成語彙を組み合わせてより多くの複合語にマッチする拡張マッチングの方法を述べ,これらの方法に基づく語彙資源を活用した症状・診断名の抽出手法を提案する.\subsection{基本的な考え:医療用語の構成語彙への分解}\label{sec:basic_idea}症状・診断名は,複数の医療用語から構成される複合語であることが多い.たとえば,「水痘肺炎」という用語は「水痘」と「肺炎」から構成され,「甲状腺出血」は「甲状腺」と「出血」から構成される.診療記録では,多様な構成語彙を組み合わせた複合語が用いられる一方で,実際に用いられる複合語の中には辞書中には含まれないものも多い.例として,「水痘感染」と「甲状腺腫大」は,診療記録コーパスMedNLPテストコレクション中で用いられ,医療用語辞書MEDIS病名マスター中に存在しなかった症状・診断名である.ただし,上述の用語の各構成語彙に注目すると,「水痘」,「感染」,「甲状腺」,「腫大」を構成語彙として含む用語は同辞書中に多数存在した(表\ref{tab:medterm_constituent}).\begin{table}[t]\hangcaption{複合語「水痘感染」,「甲状腺腫大」の構成語彙と,MEDIS病名マスターにおける各構成語彙からなる複合語数}\label{tab:medterm_constituent}\input{01table02.txt}\end{table}したがって,症状・診断名の抽出に,既存の辞書中に含まれる用語をそのまま用いて対応するには限界があるといえる.また,症状・診断名としてありうる構成語彙の組合せは膨大な数に上ると考えられ,それらを網羅的に含むような辞書を構築することも現実的ではない.一方で,症状・診断名の構成語彙となる語の多くは,辞書中の用語の部分文字列として辞書に含まれている可能性が高い.そこで,本研究では,既存の医療用語資源から症状・診断名の構成語彙となる語句を獲得し,得られた構成語彙を組み合わせた柔軟なマッチング方法「拡張マッチング」に基づく症状・診断名の抽出手法を提案する.なお,マッチした結果は,機械学習の素性(辞書素性)として用いる.語彙資源を活用した拡張マッチングによって,辞書素性タグが付与される語句が増加し,元の辞書に含まれない語彙にも対応した抽出が可能になると考えられる.\subsection{主要語辞書と修飾語辞書に基づく拡張マッチング}\label{sec:ext_match}症状・診断名の構成語彙の獲得にあたり,構成語彙には,単独で症状・診断名として用いられる「主要語」と,主要語と隣接して現れたときにのみ症状・診断名の一部となる「修飾語」の2種類が存在すると仮定する.\ref{sec:basic_idea}節で述べた例では,「水痘」,「感染」,「腫大」が主要語に相当し,「甲状腺」が修飾語となる.「水痘感染」や「甲状腺腫大」のように,構成語彙に分解される前の元の用語自体も主要語とみなす.主要語と修飾語の具体的な獲得方法は次節以降で後述することにし,本節では,主要語辞書と修飾語辞書の2種類の辞書を用いた症状・診断名のマッチング方法「拡張マッチング」を説明する.以下,「消化管悪性腫瘍の$\cdots$」という入力文が与えられた場合を例に,拡張マッチングの手順を述べる.主要語辞書には「消化管障害」,「腫瘍」,「悪性腫瘍」が含まれ,修飾語辞書には「消化管」,「悪性」が含まれているものとする.\subsubsection*{拡張マッチングの処理}\begin{figure}[t]\begin{center}\includegraphics{22-2ia1f1.eps}\end{center}\caption{入力文「消化管悪性腫瘍の$\cdots$」に対する拡張マッチングの処理}\label{fig:twodic_matcing}\end{figure}入力文を文字の列とみなし,主要語辞書中にマッチする文字列がないか検索する処理を先頭の文字から末尾の文字まで繰り返し行う.例の入力文に対しては,次のようにマッチング範囲の探索が行われる.\begin{enumerate}\item入力文1文字目の「消」を読み込み,主要語辞書の検索を行う(図\ref{fig:twodic_matcing},a1).「消化管悪」まで検索した時点で主要語が存在しないことが判明するため(a2),主要語検索を終了して2文字目以降について検索を続ける.\begin{itemize}\item[*]2文字目「化」および3文字目「管」の検索においてマッチする主要語はない.\end{itemize}\item4文字目の「悪」を読み込み,主要語辞書の検索を行う(b1).検索した結果,「悪性腫瘍」が主要語辞書とマッチする(b2).\item続いて,マッチした範囲「悪性腫瘍」の左右両側について,修飾語辞書中にマッチする文字列がないか検索する.検索した結果,元の範囲の左側の「消化管」が修飾語辞書とマッチする(b3).\itemマッチした範囲を「消化管悪性腫瘍」に拡張し,引き続き,拡張された範囲のさらに左側について,修飾語辞書を検索する.しかし,これ以上マッチする語はないため,「消化管悪性腫瘍」をマッチした範囲として記憶し,入力文5文字目以降について検索を続ける.\begin{itemize}\item[*]5文字目「性」の検索においてマッチする主要語はない.\end{itemize}\item6文字目の「腫」を読み込み(c1),同様の処理を行った結果,主要語辞書で「腫瘍」(c2),修飾語辞書で「悪性」および「消化管」がマッチし(c3,c4),「消化管悪性腫瘍」をマッチした範囲として記憶する.入力文7文字目以降の文字についても同様に検索を続ける.\begin{itemize}\item[*]7文字目以降の検索においてマッチする主要語はなかったものとし,入力文に対する検索の処理を終了する.\end{itemize}\end{enumerate}上述の辞書探索処理の結果,例では「消化管悪性腫瘍」がマッチした範囲として(二重に)得られる.複数のマッチング範囲が得られ,得られた範囲間に重なりがある場合は,範囲内の文字数が最も多いものを残し,残りを破棄する.例では,得られた2つの範囲が同一であるため,残される範囲も元の範囲と同じものとなる.以上が拡張マッチングの処理である.最終的に得られたマッチング範囲には辞書素性タグを付与し,機械学習の素性として利用する.\subsection{主要語辞書の利用と語彙制限}\label{sec:maindic_filtering}本研究では,主要語辞書として,MEDIS病名マスター(Ver.~3.11)と,MedNLPテストコレクション\cite{morita2013overview}の訓練データを利用する.MEDIS病名マスター(ICD10対応標準病名マスター)は,一般財団法人医療情報システム開発センターにより提供されている病名辞書である.病態毎に選ばれた代表病名を表す「病名表記」に加え,病名表記の読み,ICD10コードなどから構成され,本研究で利用したVer.~3.11では,24,292語が収載されている.同辞書に含まれる病名表記を抽出し,主要語辞書として用いる.MedNLPテストコレクションは,NTCIR-10MedNLPタスクで提供された模擬患者の病歴要約からなるコーパスである.同コーパスの訓練データからアノテーションされた症状・診断名部分を抽出し,主要語辞書MedNE(延べ語数1,922,異なり語数1,068)として用いる.ただし,主要語辞書をそのまま用いると,一部の語が用語抽出の学習に悪影響を与える場合がある.たとえば,細菌性皮膚感染症の一種である「よう」(癰)は,「〜するようになった」などの表現にマッチしてしまう.また,「喫煙歴」という表現に含まれる「喫煙」は,必ずしも患者の喫煙を表す言及ではないため症状・診断名に該当しない.このように,症状・診断名と無関係の表現とマッチする用語や,高頻度で非症状・診断名としても使用される用語を辞書が含んでいる場合,学習を阻害する要因となる.そこで,MedNLP訓練データを使用し,高い割合で症状・診断名とマッチする用語を取得する処理を行う.以下,各主要語辞書に対する語彙制限の方法を述べる.なお,後述の閾値$n_{\rmout}$,$r_\mathrm{out}$,$n_\mathrm{in}$および$r_\mathrm{in}$は,\ref{chp:experiments}章で述べる実験により決定する.\subsubsection*{MEDIS病名マスターの語彙制限}辞書に含まれる各用語について,MedNLP訓練データ中で固有表現範囲(症状・診断名としてアノテーションされた範囲)の内部および外部に出現した回数をそれぞれカウントし,次の2つの基準を満たす用語を主要語として許容する.\begin{itemize}\item固有表現範囲の外部における出現回数が$n_\mathrm{out}$未満である.\item訓練データ中に1回以上出現している場合は,固有表現範囲の内部と外部の両方の出現に対し,外部に出現した割合が$r_\mathrm{out}$未満である.\end{itemize}\subsubsection*{MedNEの語彙制限}辞書に含まれる各用語について,MedNLP訓練データ中で固有表現範囲の内部および外部に出現した回数をそれぞれカウントし,次の2つの基準を満たす用語を主要語として許容する.\begin{itemize}\item固有表現範囲の内部における出現回数が$n_\mathrm{in}$以上である.\item固有表現範囲の内部と外部の両方の出現に対し,内部に出現した割合が$r_\mathrm{in}$以上である.\end{itemize}\subsection{医療用語資源からの修飾語の獲得}\label{sec:gen_mdfydic}\ref{sec:basic_idea}節で述べたように,主要語に含まれる部分文字列の中には有用な修飾語が多く含まれるという考えに基づき,主要語から部分文字列を切り出すことで修飾語を獲得する.修飾語の獲得には,主要語の取得と同様にMEDIS病名マスターとMedNEを用いる.なお,MEDIS病名マスターの関連リソースとして提供されている「修飾語テーブル」は,本研究では使用しない.修飾語は,主要語辞書でマッチした範囲を拡張する際にのみ用いるため,意味をなさない非語が含まれていても,実際にテキスト中で主要語と隣接して現れなければ学習・抽出に影響を与えない.ただし,MEDIS病名マスターには動詞や助詞,記号などを含む用語(「1型糖尿病・関節合併症あり」,「アヘン類使用による急性精神・行動障害」など)が存在するため,切り出された部分文字列が助詞などの表現を含んでいると,症状・診断名でない範囲にまで拡張してしまう可能性がある.そこで,部分文字列を切り出すことにより機械的に修飾語候補を抽出した後,意味をなさないと考えられる候補と,過大な拡張を行う可能性のある有害な候補を除去するという手順により修飾語の獲得を行う.なお,有害な候補の除去には,主にひらがなから構成される語40語程度の「ひらがな表現」リストを作成し,使用した.同リストは,助詞(「が」や「より」),接続詞(「または」や「かつ」),動詞・助動詞の組合せ(「ならない」)などひらがなのみから構成される表現の他,一部,「著しい」など漢字を構成要素に持つ表現も含む.「ひらがな表現」の全リストは付録\ref{sec:mdfy_restrict}に記載する.\subsubsection*{修飾語獲得の手順}修飾語取得の対象とする用語集合$T$から修飾語集合$S$を生成する手順を以下に示す.切り出す部分文字列の最小の長さは2で固定し,修飾語として許容する部分文字列の最小出現回数を$f_\mathrm{min}$とした.$f_\mathrm{min}$の値は,主要語の語彙制限と同様に,\ref{chp:experiments}章で述べる実験により決定する.\begin{enumerate}\item修飾語候補の抽出\begin{enumerate}\item各用語$t\inT$について,$t$の先頭および末尾から,長さ2から$t$の文字列長までの部分文字列を切り出す.切り出した部分文字列は,修飾語候補集合$S_\mathrm{cand}$に追加する.\begin{itemize}\item[*]たとえば,$t=\mbox{``医療用語''}$の場合,``医療'',``医療用'',``医療用語'',``用語'',``療用語''が切り出される.\end{itemize}\item各修飾語候補$s\inS_\mathrm{cand}$について,$s$を部分文字列として含む$T$の用語全体の集合を求める.これを,$s$の出現元集合$\mathrm{Parent}(s)$とする.\begin{itemize}\item[*]たとえば,$s=\text{``用語''}$の場合,$\mathrm{Parent}(s)=\{\text{``用語''},\text{``医療用語''},\text{``専門用語''},$$\text{``用語抽出''}\}$などが得られると考えられる.\end{itemize}\end{enumerate}\item修飾語候補の限定(有害な語の除去)\begin{enumerate}\item$s\inS_\mathrm{cand}$のうち,数字および「%」記号のみからなる語を除去対象候補集合$S_\mathrm{reject}$に追加する.\item$s\inS_\mathrm{cand}$のうち,先頭または末尾が「-」(ハイフン)以外の記号か空白である語を$S_\mathrm{reject}$に追加する.\item$s\inS_\mathrm{cand}$のうち,先頭または末尾の文字が1字からなる「ひらがな表現」に一致し,一致した文字と隣接する文字がひらがな以外である\footnote{「のう胞」などひらがなからなる医療用語を除去してしまうことを防ぐため,この条件を設定した.}語を$S_\mathrm{reject}$に追加する.\item$s\inS_\mathrm{cand}$のうち,先頭または末尾から始まる範囲が2字以上からなる「ひらがな表現」の組合せに一致した語を$S_\mathrm{reject}$に追加する.\end{enumerate}\item修飾語候補の限定(有益でない語の除去)\begin{enumerate}\item$s\inS_\mathrm{cand}$のうち,$T$内での部分文字列としての出現回数が$f_\mathrm{min}$回未満($|\mathrm{Parent}(s)|<f_\mathrm{min}$)である$s$を$S_\mathrm{reject}$に追加する.\item任意の$s_1,s_2\inS_\mathrm{cand}$($s_1\neqs_2$)について,出現元集合が等しい場合,$s_1$と$s_2$のうちの長さが小さい方を$S_\mathrm{reject}$に追加する.\begin{itemize}\item[*]たとえば,$\mathrm{Parent}(\mbox{``群''})=\mathrm{Parent}(\mbox{``症候群''})=\{\mbox{症候群},\mbox{かぜ症候群}\}$である場合,``群''が$S_\mathrm{reject}$に追加される.\end{itemize}\end{enumerate}\item修飾語候補の決定\begin{itemize}\item$S_\mathrm{cand}$から$S_\mathrm{reject}$の元を除いた集合$S=S_\mathrm{cand}\setminusS_\mathrm{reject}$が求める修飾語集合である.\end{itemize}\end{enumerate}
\section{評価実験}
\label{chp:experiments}本研究で開発した用語抽出システムの性能を評価するため,MedNLPテストコレクションを用いて評価を行った.次節以降で,基本素性(形態素,品詞,品詞細分類,字種,基本形)の評価,モダリティ素性の評価,主要語語彙制限および拡張マッチングの有効性の評価を行う.さらに,すべての素性に加えて後処理ルールを適用した提案システム全体の性能を評価し,MedNLPタスクの参加システムである従来手法との比較を行う.\subsection{実験設定}実験に使用したMedNLPテストコレクションは,病歴要約50文書からなり,全データの3分の2にあたる2,244文が訓練データ,残りの1,121文が評価用のテストデータとなっている.訓練データにアノテーションされた情報は,患者の個人情報と診療情報である.本研究では,これらのうち,患者の症状と医師の診断を指す診療情報(症状・診断名)を対象とする.各症状・診断名には医師の認識の程度などを表すモダリティ属性が定義されており,それぞれ症状の罹患の肯定,否定,可能性の存在を表すpositive,negation,suspicionに加え,症状が患者の家族の病歴として記述されていることを表すfamilyの4種類からなる.各モダリティ属性が付与された症状・診断名を異なるカテゴリの固有表現とみなして学習を行うことで,モダリティ属性の分類を含めた抽出を行う.評価は,MedNLPタスクで行われたのと同様に,モダリティ属性を考慮する方法と,考慮しない方法の2通りで行う.前者は,抽出された固有表現が正しい属性に分類された場合にのみ正解とみなす評価であり,後者は,属性が誤っていても,抽出された固有表現の範囲がアノテーションされた正解情報と一致していれば正解とみなす評価である.それぞれの評価方法について,適合率,再現率,$F$値を評価尺度として用いる.CRFで学習を行う際に必要となる正則化のためのハイパーパラメータ$c$については,訓練データでの5分割交差検定により値を決定した.テストデータに対する抽出を行うまでの具体的な手順は以下の通りである.\begin{itemize}\item[1.]$c$の値を変化させながら,各$c$の値について訓練データで5分割交差検定を行い,5回の検定における各精度(適合率,再現率,$F$値)の平均をそれぞれ算出する.\item[2.]$c$の値の中で,最も$F$値が高い結果となったものを最適値とする.\item[3.]得られた$c$の最適値を用いて,訓練データ全体で学習を行い,モデルを学習する.続いて,学習で得られたモデルを用いてテストデータで抽出を行う.\end{itemize}なお,主要語の語彙制限および修飾語獲得の際の閾値については,次のように決定した.MEDIS病名マスターの語彙制限では,$n_\mathrm{out}\in\{3,5,8\}$,$r_\mathrm{out}\in\{0.5,0.7,0.9\}$の各組について,ハイパーパラメータ$c$の値を変えながら,それぞれ訓練データで交差検定を行い,最も$F$値が高かった$n_\mathrm{out}$,$r_\mathrm{out}$,$c$の値の組合せを最適値としてテストデータでの評価に用いた.MedNEの語彙制限については$n_\mathrm{in}\in\{3,5,8\}$,$r_\mathrm{in}\in\{0.5,0.7,0.9\}$とし,MEDISおよびMedNEからの修飾語獲得については$f_\mathrm{min}\in\{1,2,3,5,8,10\}$として,同様に最適値を決定した.その結果,$n_\mathrm{out}=n_\mathrm{in}=3$,$r_\mathrm{out}=0.7$,$r_\mathrm{in}=0.5$,$f_\mathrm{min}=3$(MEDIS),$f_\mathrm{min}=3$(MedNE)が最適値として得られた.また,素性のウィンドウサイズについては,基本素性(形態素,品詞,品詞細分類,字種,基本形)を素性セットとしたモデルを用いて次のように決定した.サイズは各素性について共通の値を使用することにし,候補を3($-1$から1),5($-2$から2),7($-3$から3),9($-4$から4)の4通りとした.続いて,サイズおよびハイパーパラメータ$c$の値を変えながら,訓練データで交差検定を行ったところ,サイズ5において最大の$F$値が得られ,この値を最適値とした.次節以降,サイズ1で固定しているモダリティ素性を除き,すべての素性に関してサイズ5として実験を行った結果を報告する.\subsection{基本素性の有効性の評価}\label{sec:exp_basic}形態素,品詞,品詞細分類,字種,基本形からなる素性セットを基本素性とし,これら5つの素性の有効性の評価を行った.各素性に対するテストデータでの精度を表\ref{tab:basic_features}に示す.表中の``P'',``R'',``F''はそれぞれ適合率,再現率,$F$値を意味し,``2-way''はモダリティ属性を考慮しない場合の精度,``Total''は考慮した場合の精度を表す.なお,表には,各素性セットに対して30回行った試行の平均精度を記載した.次節以降の実験結果についても同様である.直前の行中の素性セットを用いた場合との差について両側$t$検定を行い,有意水準1\%で有意であった場合に``$^\star$''を付した.\begin{table}[b]\caption{基本素性の評価}\label{tab:basic_features}\input{01table03.txt}\end{table}品詞素性の導入により,2-way,Totalの両評価で,適合率が4ポイント前後向上し,再現率が1.5〜2ポイント程度向上した.訓練データでは\footnote{テストデータについてはアノテーションされた情報が提供されていないため,訓練データでの分析を元にして実験結果への考察を行った.したがって,本節以降で述べる各素性における固有表現,非固有表現等の割合は,いずれも訓練データで算出した数値である.},名詞,接頭詞であるトークンのうちのそれぞれ20\%弱,30\%弱が固有表現(を構成するトークン)であり,残りの品詞については,いずれも97\%以上が非固有表現であった.したがって,品詞が名詞または接頭詞であることが固有表現である可能性を示す手がかりとなり,その他の品詞であることが固有表現でないことを示すほとんど確実な手がかりとなったと考えられる.品詞細分類素性の導入では,両評価とも多少の適合率の低下が見られたものの,それを上回る2.5ポイント前後の再現率の向上が得られた.名詞の細分類全体の約30\%に相当する「数」では,その99\%以上が非固有表現であり,合わせて名詞の約50\%に相当する「一般」,「サ変接続」,「接尾・一般」は,各20〜40\%を固有表現が占めた.したがって,名詞の中のどの細分類であるかという情報が精度向上に寄与したと考えられる.字種素性の導入による主な変化として,2-way,Totalでの適合率がそれぞれ0.3ポイント程度向上した.固有表現が大きな割合を占めた字種は,「漢字」と「カタカナ」で,それぞれ30\%強,20\%強の割合であった.ただ,接頭詞および名詞/接尾・一般の100\%近い割合を「漢字」が占めるなど,品詞や品詞細分類素性と重複している情報も多い.名詞/一般,名詞/サ変接続のそれぞれ85\%程度が「漢字」と「カタカナ」となっており,字種素性がこれらの品詞細分類を詳細化する役割を果たしたと考えられる.基本形素性の導入の結果,主にTotalでの適合率,再現率が向上した.「ない」「なかった」など表層が異なるモダリティ表現を基本形で同一視することで,モダリティ属性を考慮した評価の結果が向上したと考えられる.\subsection{モダリティ素性の有効性の評価}\label{sec:exp_mdlfeat}モダリティ素性の有効性を評価するため,基本素性のみを用いたシステム(Basic;表\ref{tab:basic_features}の最下行と同一のシステム)と,基本素性に加えてモダリティ素性を用いたシステム($\text{Basic}+\text{Modality}$)の精度の比較を行った.テストデータにおける各モダリティ属性および全体の精度を表\ref{tab:mod_features}に示す.なお,モダリティ属性とは,症状・診断名に付加されているモダリティの種類(positive,negation等)を指し,モダリティ素性は,モダリティ属性を捉えるために用いた素性を指す.Basicと$\text{Basic}+\text{Modality}$との差について両側$t$検定を行い,有意水準1\%で有意であった場合に``$^\star$''を付した.\begin{table}[b]\caption{モダリティ素性の評価}\label{tab:mod_features}\input{01table04.txt}\end{table}各属性における適合率と再現率は,negationとsuspicionの適合率を除いて,モダリティ素性導入後の方が同等か高いという結果が得られた.属性全体(``All(total)'')で見ても各精度は向上しており,本素性が正確なモダリティ属性の認識に寄与したといえる.なお,本素性の導入前,後ともに,他の属性に比べてsuspicion属性の精度が低いのは,データのアノテーション誤りに起因すると考えられる.著者らが訓練データを確認したところ,「疑い」などの表現が後続する固有表現で,suspicionという属性が付与されていない(positiveとなっている)事例が十数件存在し,suspicionの事例全体の十数パーセントという少なくない割合を占めていた.一方,モダリティ属性を考慮しない2-wayの評価では,適合率が1ポイント弱低下した.「〜がない」などの表現は固有表現でない語句の後方にも出現するため,非固有表現を誤って固有表現と認識してしまうケースが増加し,適合率低下の原因となったと考えられる.\subsection{主要語辞書および修飾語辞書利用の有効性の評価}主要語語彙制限および拡張マッチングの有効性を評価するため,基本素性のみのシステム(Basic)と,基本素性に加えて各種辞書に基づく辞書素性を用いたシステムの比較を行った.結果を表\ref{tab:dic_features}にまとめる.最左列は利用した辞書を示しており,``main($X$)''は辞書$X$を主要語辞書として使用したことを,``$\lhd$modify($X$)''は辞書$X$を修飾語辞書として拡張マッチングを行ったことを意味する.辞書$X$に対して,\ref{sec:maindic_filtering}節の方法による語彙制限を行っていないものを``$X$-r''(raw),行ったものを``$X$-f''(filtered)で表し,辞書$X$から獲得した修飾語集合を``$X$-s''(substring)で表した.また,``$X\cupY$''で2つの辞書$X$,$Y$を統合した辞書を表した.数値右上のシンボルは両側$t$検定によって有意水準1\%で有意差があった場合に付しており,``$\dagger$''が(a)と(b)または(c)との比較,``$\ddagger$''が(b)と(d)との比較,``$\star$''が(c)と(e)との比較,``$\S$''が(e)と(f)または(g)との比較の結果を示している.\begin{table}[b]\caption{辞書素性の評価}\label{tab:dic_features}\input{01table05.txt}\end{table}まず,語彙制限を行っていない辞書を単純に利用した場合,MEDIS病名マスター(表中のMDM;MEDISDiseaseNameMaster)に基づく辞書素性を導入した(b)で,2-wayの評価において適合率・再現率が0.7〜1.5ポイント程度向上し,その結果,$F$値が約1.1ポイント向上した.Totalにおいても$F$値が向上したものの,2-wayよりは効果が小さく,認識された症状・診断名の中にモダリティ属性の分類に誤ったものが含まれることが示唆される.なお,2-wayとTotalのいずれの場合も,$F$値の向上は統計的に有意であった.一方,MedNE(表中のMNE)を追加した場合(c)では,再現率が大きく低下した.訓練データでの交差検定では96\%を超える$F$値となっており,正解ラベルとほぼ一致する辞書素性に基づく過学習が起こり,他の素性の情報が学習されなかった可能性が高い.上記のような問題を避けるため,次に語彙制限を行った主要語辞書を使用した.結果を見ると,MEDISのみの(d)では全体的に$F$値がわずかに低下した.これは,MEDIS病名マスターから獲得した主要語については語彙制限の必要性が薄いことを示している.一方,MEDISに加えてMedNEにも語彙制限を加えた(e)では,語彙制限を加えない(c)に比べて適合率,再現率,$F$値とも大幅に向上した.モダリティ属性まで考慮したTotalでは(b)よりもわずかに精度が低いものの,モダリティ属性を考慮しない2-wayの評価では,これまでの設定で最も良い結果が得られた.最後に,語彙制限を加えた主要語辞書(e)に加えてさらに拡張マッチングを適用した.その結果,MEDISから獲得した修飾語辞書のみを使用した(f)で約0.5〜0.6ポイント,MedNEから獲得した修飾語辞書を併せて使用した(g)で約0.6〜0.7ポイントの$F$値の向上が見られ,修飾語辞書の導入・語彙増加にともない,わずかながらも着実な認識精度の向上が得られた.\subsection{システム全体の性能および従来手法との比較}\begin{table}[b]\caption{従来手法との比較}\label{tab:compare_other}\input{01table06.txt}\end{table}基本素性,辞書素性,モダリティ素性,後処理ルールを含めたシステム全体の性能の評価を行った.テストデータでの精度を表\ref{tab:compare_other}(a)に示す.基本素性に加えて語彙制限後の2つの辞書と修飾語辞書に基づく辞書素性を導入したシステム(表\ref{tab:dic_features}の最下行(g)のシステム)をModifyとし,モダリティ素性の追加,後処理ルールの適用をそれぞれModality,P-rulesで表した.なお,モダリティ素性と後処理ルールはモダリティ属性まで含めた分類(Total)において利用する.表中のシンボル``$\dagger$''はModifyと$\text{Modify}+\text{P-rules}$,``$\ddagger$''はModifyと$\text{Modify}+\text{Modality}$を,``$\star$''は$\text{Modify}+\text{Modality}$と$\text{Modify}+\text{Modality}+\text{P-rules}$を比較した際,両側$t$検定で有意水準1\%の有意な差があったことを示している.モダリティ素性の導入後には,適合率,再現率,$F$値がそれぞれ1ポイント前後向上し,その効果が確認された.また,後処理ルールについては,Modifyに適用した場合で$F$値で1ポイントの向上,$\text{Modify}+\text{Modality}$に適用した場合で0.7ポイント程度の向上が得られた.すなわち,CRFによって症状・診断名と認識された語句に対してのみモダリティ属性を修正する処理を行うことで,症状・診断名の認識精度を維持したまま,モダリティ属性分類誤りを減少できている.なお,後処理ルールの効果を確認するため,訓練データを使用して\footnote{テストデータへのアノテーションの情報は提供されていないため,\ref{sec:exp_basic}節と同様に,訓練データでの分析を元に考察を行った.5分割交差検定の5回分のテスト結果に対して,後処理ルールを適用した結果を合計した値を報告する.},Modifyおよび$\text{Modify}+\text{Modality}$の推定結果に後処理ルールを適用した場合の正解数の変化について表\ref{tab:prules_effect}に示した.\mbox{``対}象件\mbox{数''}はルール適用の対象となった固有表現の件数で,システムが正例と推定した固有表現の数に相当する.また,``T$\rightarrow$F'',``F$\rightarrow$T''および``F$\rightarrow$F''は,ルール適用前に正解(T)/不正解(F)であったものが,ルール適用後に正解/不正解に変化した件数を表す.``合計''はこれら3つの値の合計で,ルールが適用された件数に相当する(``T$\rightarrow$T''となったもの,つまり,モダリティ属性が変化しなかったものについては,件数に含めていない).Modifyに適用した場合では,適用対象件数の5\%弱にあたる81件に対してルールが適用された.適用された事例のうち,実際に固有表現であった事例に対する正解率は80\%程度であった.$\text{Modify}+\text{Modality}$に関しては,モダリティ素性の導入により周辺文脈と矛盾するモダリティ属性の推定結果が減ったと考えられ,ルールが適用された件数自体が減少した.しかし,ルールの適用により僅かながら正解数が増加している.\begin{table}[b]\caption{後処理ルール適用の効果}\label{tab:prules_effect}\input{01table07.txt}\end{table}表\ref{tab:compare_other}(a)の下半分には,MedNLP症状と診断タスクの成績上位3チームであるMiuraら\cite{miura2013incorporating},Laquerreら\cite{laquerre2013necla}およびImaichiら\cite{imaichi2013comparison}のシステムの精度を掲載した.従来手法の中では,Totalの適合率を除き,いずれもMiuraらのシステムの精度が最も高い.これに対し,Totalの評価で比較すると,本システムは適合率を中心に従来手法よりも高く,モダリティ素性と後処理ルールを併用したシステム($\text{Modify}+\text{Modality}+\text{P-rules}$)では,適合率,再現率,$F$値ともに最も高くなっている.また,提案システムと従来手法の中で精度が高いMiuraらのシステムについて,モダリティ属性ごとの精度を表\ref{tab:compare_other}(b)に掲載した.Miuraらのシステムではpositiveおよびnegationの再現率が高く,多数派クラスの網羅的な抽出の点で優れている.しかし,適合率ではどの属性についても本システムの方が高く,特に,少数派クラスであるsuspicion,familyの認識では,適合率,再現率ともに大きく上回っている.したがって,モダリティ属性の分類を含めた抽出では,従来手法と比べて,我々の手法が最も正確な用語抽出を実現できており,事例数の少ないクラスに対して頑健な推定を実現できているといえる.一方,表\ref{tab:compare_other}(a)における2-wayの評価では,特に,再現率がMiuraらのシステムと比べて3ポイントほど低く,本システムは症状・診断名抽出の網羅性の点で劣っている.修飾語の付加を行う拡張マッチングでは,主要語が主要語辞書に含まれない場合には対応できないという限界があるため,再現率を高めるには,コーパスから修飾語だけでなく新たな主要語も獲得する方法が必要となる.また,診療記録中の症状・診断名と共起しやすい「〜出現」「〜増悪」などの表現は,未知の主要語を認識する際の手がかりとして有効利用できる可能性がある.
\section{おわりに}
\label{chp:conclusions}本稿では,症例検索などの基礎技術として重要である症状名・診断名の抽出に焦点を当て,語彙資源を有効活用した用語抽出について報告した.語彙資源活用の1点目として,コーパス中の用語に対して語彙制限を行うことで,用語抽出に真に有用な語彙の獲得を行った.2点目として,コーパスから複合語の構成語彙である修飾語を獲得し,語彙制限後のコーパスの語彙に加えて獲得した修飾語を活用することで,テキスト中のより多くの用語を検出する拡張マッチングを行った.検出された用語の情報は,機械学習アルゴリズムlinear-chainCRFをベースとしたシステムの素性として使用した.NTCIR-10MedNLPタスクのテストコレクションを用いて抽出実験を行ったところ,単純な辞書の利用と比較して,$F$値で0.4〜1.1ポイントの有意な精度向上が見られ,語彙制限および拡張マッチングの有効性を確認した.症状・診断名の認識では,同タスクで1位のMiuraら\cite{miura2013incorporating}のシステムと比較し,モダリティ属性の分類を含めた認識では本システムが適合率・再現率ともに高い精度を実現した.一方,モダリティ属性を考慮しない場合の症状・診断名認識において再現率が低く,網羅性の点で劣っていた.語彙制限および修飾語の付加に基づく拡張マッチングでは,元の語彙資源に含まれない主要語に対応できないという限界があるため,今後の課題として,新たな主要語の獲得や,未知の主要語を認識する方法が必要である.また,NTCIR-10MedNLPに続くシェアドタスクであるNTCIR-11MedNLP2\cite{aramaki2014overview}では,表記が異なりかつ同一の対象を指す症状・診断名を同一視する「病名・症状正規化タスク」が設定されている.症例検索などの応用に向けた基礎技術として,幅広い症状・診断名を抽出することに加え,抽出した症状・診断名の表記の違いを吸収する技術の開発も重要である.\acknowledgmentNTCIR-10MedNLPタスクを主催され,MedNLPテストコレクションをご提供くださいました京都大学デザイン学ユニットの荒牧英治特定准教授ならびに関係者の皆様に感謝申し上げます.MEDIS病名マスターをご提供くださいました一般財団法人医療情報システム開発センターの関係者の皆様に感謝申し上げます.また,本研究の一部は,JSPS科学研究費補助金25330363,ならびに私立大学等経常費補助金特別補助「大学間連携等による共同研究」の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aramaki,Morita,Kano,\BBA\Ohkuma}{Aramakiet~al.}{2014}]{aramaki2014overview}Aramaki,E.,Morita,M.,Kano,Y.,\BBA\Ohkuma,T.\BBOP2014\BBCP.\newblock\BBOQOverviewofthe{NTCIR}-11{MedNLP}-2Task.\BBCQ\\newblockIn{\BemProceedingsofthe11thNTCIRWorkshopMeetingonEvaluationofInformationAccessTechnologies},\mbox{\BPGS\147--154}.\bibitem[\protect\BCAY{Collins}{Collins}{2002}]{collins2002discriminative}Collins,M.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeTrainingMethodsforHidden{Markov}Models:TheoryandExperimentswithPerceptronAlgorithms.\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing\textup{(}EMNLP\textup{)}},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Higashiyama,Seki,\BBA\Uehara}{Higashiyamaet~al.}{2013a}]{higashiyama2013clinical}Higashiyama,S.,Seki,K.,\BBA\Uehara,K.\BBOP2013a\BBCP.\newblock\BBOQClinicalEntityRecognitionusingCost-sensitiveStructuredPerceptronfor{NTCIR}-10{MedNLP}.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\704--709}.\bibitem[\protect\BCAY{Higashiyama,Seki,\BBA\Uehara}{Higashiyamaet~al.}{2013b}]{higashiyama2013developing}Higashiyama,S.,Seki,K.,\BBA\Uehara,K.\BBOP2013b\BBCP.\newblock\BBOQDeveloping{ML}-basedSystemstoExtractMedicalInformationfrom{Japanese}MedicalHistorySummaries.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNaturalLanguageProcessingforMedicalandHealthcareFields},\mbox{\BPGS\14--21}.\bibitem[\protect\BCAY{Imaichi,Yanase,\BBA\Niwa}{Imaichiet~al.}{2013}]{imaichi2013comparison}Imaichi,O.,Yanase,T.,\BBA\Niwa,Y.\BBOP2013\BBCP.\newblock\BBOQAComparisonofRule-basedandMachineLearningMethodsforMedicalInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNaturalLanguageProcessingforMedicalandHealthcareFields},\mbox{\BPGS\38--42}.\bibitem[\protect\BCAY{井上\JBA永井\JBA中村\JBA野村\JBA大貝}{井上\Jetal}{2001}]{inoue2001iryo}井上大悟\JBA永井秀利\JBA中村貞吾\JBA野村浩郷\JBA大貝晴俊\BBOP2001\BBCP.\newblock医療論文抄録からのファクト情報抽出を目的とした言語分析.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf141}(17),\mbox{\BPGS\103--110}.\bibitem[\protect\BCAY{Jiang,Chen,Liu,Rosenbloom,Mani,Denny,\BBA\Xu}{Jianget~al.}{2011}]{jiang2011study}Jiang,M.,Chen,Y.,Liu,M.,Rosenbloom,S.~T.,Mani,S.,Denny,J.~C.,\BBA\Xu,H.\BBOP2011\BBCP.\newblock\BBOQAStudyofMachine-learning-basedApproachestoExtractClinicalEntitiesandTheirAssertionsfromDischargeSummaries.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf18}(5),\mbox{\BPGS\601--606}.\bibitem[\protect\BCAY{木浪\JBA池田\JBA村田\JBA高山\JBA武田}{木浪\Jetal}{2008}]{kinami2008kango}木浪孝治\JBA池田哲夫\JBA村田嘉利\JBA高山毅\JBA武田利明\BBOP2008\BBCP.\newblock看護学分野の専門用語抽出方法の研究.\\newblock\Jem{自然言語処理},{\Bbf15}(3),\mbox{\BPGS\3--20}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo2004applying}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{Japanese}MorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing\textup{(}EMNLP\textup{)}},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{lafferty2001conditional}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning\textup{(}ICML\textup{)}},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Laquerre\BBA\Malon}{Laquerre\BBA\Malon}{2013}]{laquerre2013necla}Laquerre,P.~F.\BBACOMMA\\BBA\Malon,C.\BBOP2013\BBCP.\newblock\BBOQ{NECLA}attheMedicalNaturalLanguageProcessingPilotTask({MedNLP}).\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\725--727}.\bibitem[\protect\BCAY{McCallum\BBA\Wei}{McCallum\BBA\Wei}{2003}]{mccallum2003early}McCallum,A.\BBACOMMA\\BBA\Wei,L.\BBOP2003\BBCP.\newblock\BBOQEarlyResultsforNamedEntityRecognitionwithConditionalRandomFields,FeatureInductionandWeb-enhancedLexicons.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonNaturalLanguageLearning\textup{(}CoNLL-2003\textup{)}},\mbox{\BPGS\188--191}.\bibitem[\protect\BCAY{Miura,Ohkuma,Masuichi,Shinohara,Aramaki,\BBA\Ohe}{Miuraet~al.}{2013}]{miura2013incorporating}Miura,Y.,Ohkuma,T.,Masuichi,H.,Shinohara,E.,Aramaki,E.,\BBA\Ohe,K.\BBOP2013\BBCP.\newblock\BBOQIncorporatingKnowledgeResourcestoEnhanceMedicalInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNaturalLanguageProcessingforMedicalandHealthcareFields},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Morita,Kano,Ohkuma,Miyabe,\BBA\Aramaki}{Moritaet~al.}{2013}]{morita2013overview}Morita,M.,Kano,Y.,Ohkuma,T.,Miyabe,M.,\BBA\Aramaki,E.\BBOP2013\BBCP.\newblock\BBOQOverviewofthe{NTCIR}-10{MedNLP}Task.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\696--701}.\bibitem[\protect\BCAY{Sang\BBA\Veenstra}{Sang\BBA\Veenstra}{1999}]{sang1999representing}Sang,E.~F.\BBACOMMA\\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\173--179}.\bibitem[\protect\BCAY{Sha\BBA\Pereira}{Sha\BBA\Pereira}{2003}]{sha2003shallow}Sha,F.\BBACOMMA\\BBA\Pereira,F.\BBOP2003\BBCP.\newblock\BBOQShallowParsingwithConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguage\textup{(}HLT-NAACL\textup{)}},\mbox{\BPGS\213--220}.\bibitem[\protect\BCAY{上杉}{上杉}{2007}]{uesugi2007n-gram}上杉正人\BBOP2007\BBCP.\newblockN-gramと相互情報量を用いた医療用語抽出のための分割点の探索.\\newblock\Jem{医療情報学},{\Bbf27}(5),\mbox{\BPGS\431--438}.\bibitem[\protect\BCAY{Uzuner,South,Shen,\BBA\DuVall}{Uzuneret~al.}{2011}]{uzuner20112010}Uzuner,{\"O}.,South,B.~R.,Shen,S.,\BBA\DuVall,S.~L.\BBOP2011\BBCP.\newblock\BBOQ2010i2b2/{VA}ChallengeonConcepts,Assertions,andRelationsinClinicalText.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf18}(5),\mbox{\BPGS\552--556}.\bibitem[\protect\BCAY{Uzuner,Goldstein,Luo,\BBA\Kohane}{Uzuneret~al.}{2008}]{uzuner2008identifying}Uzuner,{\"O}.,Goldstein,I.,Luo,Y.,\BBA\Kohane,I.\BBOP2008\BBCP.\newblock\BBOQIdentifyingPatientSmokingStatusfromMedicalDischargeRecords.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf15}(1),\mbox{\BPGS\14--24}.\bibitem[\protect\BCAY{Uzuner,Luo,\BBA\Szolovits}{Uzuneret~al.}{2007}]{uzuner2007evaluating}Uzuner,{\"O}.,Luo,Y.,\BBA\Szolovits,P.\BBOP2007\BBCP.\newblock\BBOQEvaluatingtheState-of-the-artinAutomaticDe-identification.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf14}(5),\mbox{\BPGS\550--563}.\bibitem[\protect\BCAY{Uzuner,Solti,\BBA\Cadag}{Uzuneret~al.}{2010}]{uzuner2010extracting}Uzuner,{\"O}.,Solti,I.,\BBA\Cadag,E.\BBOP2010\BBCP.\newblock\BBOQExtractingMedicationInformationfromClinicalText.\BBCQ\\newblock{\BemJournaloftheAmericanMedicalInformaticsAssociation\textup{(}JAMIA\textup{)}},{\Bbf17}(5),\mbox{\BPGS\514--518}.\end{thebibliography}\appendix
\section{モダリティ素性における正規表現}
\label{sec:modal_regex}モダリティ素性において,各属性のモダリティ表現を捉えるために用いた正規表現を記載する.各正規表現の記述形式は,プログラミング言語Python\footnote{http://www.python.jp/}での正規表現に準拠している.なお,``$X|Y$''は$X$または$Y$との一致,``[$X_1X_2\dotsX_N$]''は$X_1,X_2,\dots,X_N$のいずれかとの一致,``()''はパターンのグループ化,``?''は直前のパターンの0回または1回の出現を表す.また,``(?!$\cdots$)''は否定先読みアサーションと呼ばれ,``$X$(?!$\cdots$)''として用いられた場合に,``$\cdots$''に相当する文字列が後続しない$X$にマッチする.\subsubsection*{Negationのモダリティ表現}Negation属性のモダリティ表現のために用いた正規表現を以下に示す.\begin{itemize}\item{\small[はがを]?(([認め$|$みとめ$|$見$|$み$|$得$|$え)(られ)?)?([無な](い$|$く$|$かっ)$|$せ?ず)}\item{\small[はがを]?((消失$|$除外)(?!し?(な[いかくし])$|$せず))}\item{\small[はがもの](改善$|$陰性$|$寛解)(?!し?(な[いかくし])$|$せず)}\item{\small(の(所見$|$既往)が?)?[無な](し$|$い$|$く$|$かった)}\end{itemize}\subsubsection*{Suspicionのモダリティ表現}Suspicion属性のモダリティ表現のために用いた正規表現を以下に示す.\begin{itemize}\item{\smallの?(疑い$|$うたがい)}\item{\small((の$|$である$|$であった)可能性)?[はがをもと]?(考え$|$考慮$|$思われ$|$(疑$|$うたが)[わい]$|$含め$|$高い)}\end{itemize}\subsubsection*{Familyのモダリティ表現}Family属性のモダリティ表現のために用いた正規表現を以下に示す.なお,``[父母]''に後続する``(?![指趾])''というパターンは,医療用語である「母指」や「母趾」とのマッチを防ぐために用いた.\begin{itemize}\item{\small[祖伯叔]?[父母](?![指趾])親?$|$お[じば]$|$[兄弟姉妹娘]$|$息子$|$従(兄弟$|$姉妹)}\end{itemize}
\section{修飾語の限定に用いたひらがな表現}
\label{sec:mdfy_restrict}語彙資源から修飾語を獲得する処理において,修飾語の限定の際に用いた主にひらがなから構成される表現を以下に記載する.\begin{description}\item[助詞・連語]が,の,を,に,へ,と,から,より,で,など,のみ,における\item[連体詞]その\item[接続詞]または,あるいは,および,かつ\item[助動詞]な\item[形容詞]ない,なし\item[動詞・名詞・助詞・助動詞の組合せからなる語]する,よる,ある,あり,して,した,ならない,なった,のための\item[漢字を含む表現]伴う,伴わない,生じない,疑い,著しい,その他,手当て,比較して\end{description}\begin{biography}\bioauthor{東山翔平}{2012年神戸大学工学部情報知能工学科卒業.2014年神戸大学大学院システム情報学研究科博士前期課程修了.現在,NEC情報・ナレッジ研究所に在籍.自然言語処理,情報抽出の研究に従事.}\bioauthor{関和広}{2002年図書館情報大学情報メディア研究科修士課程修了.2006年インディアナ大学図書館情報学研究科博士課程修了.Ph.D.神戸大学助教等を経て現在甲南大学知能情報学部准教授.情報検索,データマイニングの研究に従事.情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{上原邦昭}{1978年大阪大学基礎工学部情報工学科卒業.1983年同大学院博士後期課程単位取得退学.工学博士.同産業科学研究所助手,講師,神戸大学工学部情報知能工学科助教授等を経て,現在同大学院システム情報学研究科教授.人工知能,特に機械学習,マルチメディア処理の研究に従事.電子情報通信学会,計量国語学会,日本ソフトウェア科学会,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V04N01-01
|
\section{はじめに}
テキストの解釈を一意に決定することは,依然として,自然言語処理において最も難しい課題である.テキストの対象分野を限定しない場合,解釈の受理/棄却の基準を記述した拘束的条件すなわち制約だけで解釈を一意に絞り込むことは容易ではない\cite{Tsujii86,Nagao92}.このため,解釈の良さの比較基準を記述した優先的条件すなわち選好によって,受理された解釈に優劣を付け,評価点が最も高い解釈から順に選び出そうとするアプローチが取られることが多く,実際,その有効性が報告されている\cite{Fass83,Schubert84,Petitpierre87,Hobbs90}.本稿では,日英機械翻訳システムにおいてテキストの最良解釈を定義するための制約と選好を備えたテキスト文法Text-WideGrammar(TWG)\cite{Jelinek93}について,照応関係に関する制約と選好に焦点をあてて説明し,さらに,TWGに基づいて意味解析と照応解析を効率良く行なう機構について述べる.テキスト解析に必要な知識の中でも,特に,照応関係に関する制約と選好は,最良解釈の選択に大きく影響を及ぼす.照応関係は,日英機械翻訳システムでは,日本語で明示することは希であるが,英語では明示しなければならない言語形式上の必須情報を得るための重要な手がかりとなる.例えば,ゼロ照応詞\footnote{ここでは,日本語で明示する必要はないが英語では明示する必要のある照応詞をゼロ照応詞と呼ぶ.}や名詞句の人称,性,数,意味素性,定/不定性の決定は,それらが関与する照応関係を明らかにし,人称,性,数,意味素性の情報を伝播することによって行なえる.このようなことから,照応関係に関する種々の制約や選好がこれまでに提案されている\cite{Yoshimoto86,Fujisawa93,Murata93,Nakaiwa93}.また,テキスト解析で用いる選好には,照応関係に関する選好の他に,構文構造や意味的親和性に関する選好などがあるが,各選好をどのように組み合わせるかが重要な課題となる.ある選好による最良解釈と他の選好による最良解釈が相容れるとは限らないからである.TWGは,形態素,構文構造,意味的親和性,照応関係に関する制約と選好によって,テキストの可能な解釈を定義し,それらに優劣を付ける.照応関係に関する選好による評価では,テキストを構成する構造体\footnote{構造体とは,テキストであるか,構造体の直接構成要素である\cite{Jelinek65}.}がより多く照応関係に関与する解釈を優先する(\ref{sec:twg:corref}節,\ref{sec:twg:eval}節).ある構造体が他の構造体を指せるかどうかは,主に,陳述縮約に関する規範\cite{Jelinek65,Jelinek66}に基づいて決めることができる.陳述縮約に関する規範は,完全形(fullform)\footnote{書き手が記述しようとしている事柄についての知識を読み手が全く持っていないと書き手が判断したときに用いる構造体.}がゼロ形に縮約される過程を11段階に分類し,指す構造体の陳述縮約度と指される構造体の陳述縮約度の間で成り立つ制約を記述したものである.TWGでは,構文構造,意味的親和性,照応関係に関する選好による各評価点の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:twg:balance}節).TWGで定義されている形態素に関する選好の精度は十分高く,この選好による最良解釈からテキストの最良解釈が生成される可能性が高い\footnote{2000文について,形態素に関する選好による最良解釈が人間による解釈と一致するかどうかを調べたところ,94.7\%において一致していた.}ので,この選好と他の選好との相互作用は考慮しない.選好によるテキスト解析手法でのもう一つの課題は,最良解釈を効率良く選び出せる処理機構を実現することである.テキストの可能な解釈の数は,テキストが長くなるにつれ,組み合せ的に増える.解釈数の組み合せ的な増大に対処するためには,解釈を個別に表現するのではなく,まとめて表現しなければならない.また,解釈をいったんすべて求めた後その中から最良解釈を選ぶのではなく,解析の途中過程で競合する解釈の評価点を比較しながら,最終的に最良解釈になりそうな候補だけを優先的に探索し,そうでない候補の探索はできるだけ行なわないようにしなければならない.本稿の処理機構は,テキストの構文構造のすべての曖昧さをまとめて表現した圧縮共有森(packedsharedforest)\cite{Tomita85}上で,遅延評価による意味解析と照応解析を行なう(\ref{sec:lazy}節).圧縮共有森上で処理を行なうことによって,部分的解釈の再利用が可能となり重複処理を避けることができる.遅延評価によって,総合評価点が最も高い解釈を求めるために必要な処理だけの実行,それ以外の処理の保留が可能となり,不必要な処理を避けることができる.統合共有森はAND/ORグラフと等価とみなせるので,本稿では説明の便宜上,圧縮共有森をAND/ORグラフと呼ぶ.
\section{Text-WideGrammar}
\label{sec:twg}\subsection{照応関係に関する制約の定式化}\label{sec:twg:corref}テキストの適格性は,主に,テキストを構成する構造体の間で成り立つ照応関係によって生じる.\hspace{-0.3mm}ある構造体$X$\hspace{-0.1mm}で触れた事象に,\hspace{-0.3mm}他の構造体$Y$\hspace{-0.1mm}が再び言及している($Y$\hspace{-0.1mm}が\hspace{-0.1mm}$X$\hspace{-0.1mm}を指している)とき,これら二つの構造体は次の三つの制約を満たす.\begin{LIST}\item[\bf構文構造に関する制約]$X$はある構文構造上で$Y$の前方に現れる.\item[\bf意味に関する制約]$X$の意味と$Y$の意味は矛盾しない.\item[\bf陳述縮約に関する制約]$Y$は$X$を縮約した言語形式である.\end{LIST}テキストがこれらの制約に従っている限り,通常,テキストの読み手は縮約形(depredicatedform)\footnote{読み手に既知であると書き手が判断した情報を明示しない構造体.}から完全形を復元することができるので,そのテキストは適格であるとみなせる.次のテキストを例として,各制約について詳しく検討する.\begin{TEXT}\textソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任したと発表した.大統領の解任が西側の対ソ政策に重大な影響を及ぼすことは必至である.政府は,臨時の閣議を開き,この事態への対応を協議している.また,$\phi_{\SBJ}$為替相場へ及ぼす影響も懸念されている.\label{TEXT:gorb_wellform}\end{TEXT}このテキストでは,文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」と名詞句「大統領の解任」,指示連体詞「この」,ゼロ照応詞「$\phi_{\SBJ}$」の間に成り立つ照応関係によって,四つの文が結び付いている.以降の説明では,構造体$X$と$Y$はAND/ORグラフ上の節点$X$と$Y$にそれぞれ対応するものとする.\subsubsection{構文構造に関する制約}\label{sec:twg:corref:syn}節点$Y$\hspace*{-0.1mm}が\hspace*{-0.1mm}$X$\hspace*{-0.1mm}を指せるための構文構造に関する制約として,\hspace*{-0.5mm}$X$\hspace*{-0.1mm}と\hspace*{-0.1mm}$Y$\hspace*{-0.1mm}が同じ構文構造に属し,そ\\の構文構造上で$X$が$Y$\hspace*{-0.1mm}より左側(前方)に位置し,\hspace*{-0.5mm}$X$と$Y$\hspace*{-0.1mm}の間の言語心理的距離はある一定の範\\囲を越えてはならないという制約をおく\footnote{後方照応\cite{Hirst81}と,構文構造が異なる解釈間での照応関係(例えば,punning)は,ここでは扱わない.また,$X$と$Y$がある一定の距離以上離れていると$Y$は$X$を指せなくなると考えられるが,現在のところ距離の具体的な制約は設けていない.}.$X$が$Y$より左側に位置するかどうかは,AND/ORグラフ上での$X$の右位置を$R_X$,\hspace*{-0.3mm}$Y$\hspace*{-0.1mm}の左位置を$L_Y$\hspace*{-0.1mm}とする\footnote{AND/ORグラフ上のある節点$X$が,構文解析への入力である終端節点列において左から数えて第$(L+1)$番目の終端節点から第$R$番目の終端節点を覆うとき,節点$X$の左位置を$L$,右位置を$R$とする.}とき,\hspace*{-0.3mm}$R_X\leL_Y$が満たされるかどう\\かで判定する.AND/ORグラフにおける節点の先祖/子孫関係は文脈自由文法形式の構文解析規則で定義される構文範疇間の支配関係に対応するので,$R_X\leL_Y$が満たされることから,$X$\\は$Y$の先祖でも子孫でもないということが導ける.$X$と$Y$が同じ構文構造に属することを制約としているのは,テキストの構文構造を,木として個別に表しているのではなく,AND/ORグ\\ラフとしてまとめて表しているため,グラフ上の任意の二つの節点が一つの木に属するとは限らないからである.構文構造に関する制約として,さらに次の制約をおく.$X$がある用言の主語であり$Y$がその\\用言の目的語である場合,あるいは,$X$がある用言の目的語であり$Y$がその用言の主語である\\場合,少なくとも$X$と$Y$のいずれか一方は再帰名詞でなければならない.この制約は,例えば\\文「大統領を$\phi_{\SBJ}$解任する.」において,ゼロ照応詞「$\phi_{\SBJ}$」が「大統領」を指すことを禁止す\\るためのものである.\subsubsection{意味に関する制約}\label{sec:twg:corref:sem}節点$X$\hspace*{-0.1mm}と$Y$\hspace*{-0.1mm}が満たすべき意味に関する制約として,\hspace*{-0.3mm}$X$の人称,\hspace*{-0.1mm}性,\hspace*{-0.1mm}数が$Y$\hspace*{-0.1mm}の人称,性,数に\\それぞれ一致し,$X$の意味素性と$Y$の意味素性が上位下位関係になければならないという制約\\をおく.節点の意味を表現するデータ構造として,人称,性,数,意味素性を素性とする素性構\\造を用い,$X$と$Y$の素性構造が単一化できるとき,意味に関する制約が満たされるものとする.\\人称(per)は1st,2nd,3rdを区別し,性(gen)はm,f,nを,数(num)はsg,plを,それぞれ区別する.意味素性(sem)は上位下位関係を記述した意味体系上の範疇であり,A(animal),AC(action),F(food),H(human)などの区別を設ける.AND/ORグラフ上の終端節点の素性構造は,辞書に記述しておく.他方,非終端節点の素性構造は,終端節点の素性構造を合成して求めなければならないが,これは今後の課題である.しかし,非終端節点は,通常,それの主要部(head)である終端節点の素性構造を特化した素性構造を持つと考えてよい\footnote{等位構造の場合や主要部の意味を限定部が否定する場合などは,この限りではない.}.特に,非終端節点に子節点が一つしかない場合,非終端節点の素性構造は,その子節点の素性構造に一致する.例えば,動詞「解任した」は,\FEATS{3rd}{n}{sg}{AC}という素性構造を持つ.このとき,「解任した」を主要部とする文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」全体が持つ素性構造は,\FEATS{3rd}{n}{sg}{AC+$\alpha$}と表せる.\hspace{-0.3mm}ここで,\hspace*{-0.3mm}複合意味素性AC+$\alpha$は,\hspace*{-0.3mm}原子意味素性ACに何らかの意味$\alpha$が加わったAC\\の下位範疇を意味する.原子意味素性$A$が原子意味素性$B$の下位範疇であるとき,複合意味素性$A+\alpha$は$B$の下位\\範疇であると定める.また,$A$が複合意味素性$B+\beta$の下位範疇であるかどうかと,$A+\alpha$が\\$B+\beta$の下位範疇であるかどうかは不明であると定める.二つの節点$X$と$Y$の意味素性間の上\\位下位関係が不明である場合も,\hspace*{-0.3mm}$X$と$Y$は素性構造に関する制約を満たすとみなす.\hspace*{-0.3mm}ただし,\hspace*{-0.3mm}上\\位下位関係にあることが明確にわかっている場合と不明の場合とでは,評価点が異なる(\ref{sec:twg:eval}節).\subsubsection{陳述縮約に関する制約}\label{sec:twg:corref:cor}先行文脈で触れた事象に再び言及する場合には先行陳述の縮約形を用いるという制約は,「テキストの読み手が先行文脈から復元できる情報を略さずにそのまま反復すると,そのテキストは冗長で理解困難になる」という観察に基づく.仮に,テキスト\ref{TEXT:gorb_wellform}に現れる文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」を全く縮約せずに,そのまま繰り返したとする.\begin{TEXT}\textソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任したと発表した.ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任したことが西側の対ソ政策に重大な影響を及ぼすことは必至である.政府は,臨時の閣議を開き,ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任したという事態への対応を協議している.また,ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任したことが為替相場へ及ぼす影響も懸念されている.\label{TEXT:gorb_illform}\end{TEXT}テキスト\ref{TEXT:gorb_wellform}が適格であるのに対しテキスト\ref{TEXT:gorb_illform}はそうではないことから,陳述縮約は,テキストを構成する場合に従うべき規範であるといえる.テキスト\ref{TEXT:gorb_wellform}では,文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」が,まず名詞句「大統領の解任」に縮約され,次に指示連体詞「この」に,そして最後にゼロ照応詞「$\phi_{\SBJ}$」に縮約されている.完全形からゼロ形への陳述縮約が最も緩やかに進む場合,その過程は次の11段階から成る.この11段階の分類は,日英翻訳を目的とした分類であり,日本語,英語それぞれにおける縮約過程\cite{Jelinek65,Jelinek66}を合成したものである.\begin{DEPRED}\depredテキスト.一つ以上の文から成る構造体.\depred文.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{国家非常事態委員会はゴルバチョフ大統領を解任するだろう.}{\itTheNationalEmergencyCommitteewilldismissPresidentGorbachov.}\end{DEPEX}\depred直接話法.文の部分に成りうる構造体.\vspace{-0.1mm}\begin{DEPEX}\depexample委員の一人は「\underline{委員会は大統領を解任するだろう.}」と述べた.AmemberoftheCommitteesaid:``{\itTheCommitteewilldismissthePresident.}''\end{DEPEX}\depred間接話法.日本語において,この陳述縮約度の構造体内で普通体/丁寧体が区別されることは希である.英語においては,構造体内での時制の区別が時制の一致に支配されるようになり,この陳述縮約度の構造体からは元の完全文の時制が何であったかが分からなくなることもある.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{委員会が大統領を解任するだろう}と報じられた.Itwasreportedthat{\ittheCommitteewoulddismissthePresident}.\end{DEPEX}\depred日本語では初めて,英語ではさらに,構造体内での時制の区別が制限されるようになる.日本語においては,主語でない主題(theme)は希にしか構造体内で表現されなくなる.両言語において,任意格は,情報伝達に必須である場合にのみ表現されるようになる.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{委員会が大統領を解任する}前に,大統領は懸命の政治工作を行なった.Before{\ittheCommitteedismissedhim},thePresidentmadesomecourageouspoliticalmoves.\end{DEPEX}\depredこの陳述縮約度の構造体内では時制の区別が不可能になる.文法上いずれの格要素も表現可能であるが,実際には希にしか表現されなくなる.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{委員会が大統領を解任すれ}ば,為替相場へ大きな影響が出るだろう.If{\ittheCommitteedismissedthePresident},itwouldhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred構造体内でなされる文法上の区別は極めて少数となる.完全文で表現可能であった格要素のうち,いくつかは形式上表現できなくなる.\begin{DEPEX}\depexample\underline{大統領を解任する}と同時に,委員会は新大統領選びにも乗り出した.Aswellas{\itdismissingthePresident},theCommitteeembarkeduponchoosinghisreplacement.\end{DEPEX}\depred名詞,連体詞,副詞内で表現されるのと同程度の区別だけになる.構造体内での主題/解題(rheme)の区別の痕跡は,ほとんどなくなる.肯定/否定を区別することは文法上可能であるが,実際には希である.日英両言語において名詞句は名詞句を指せるが,英語では,通常,先行文脈中に現れた名詞句をそのまま反復することは文体上の理由から希であり,別の名詞句に言い換えることが多いのに対し,日本語では既出の名詞句をそのまま繰り返すことが多い.\begin{DEPEX}\depexample\underline{委員会による大統領解任}は為替相場へ大きな影響を及ぼすだろう.{\itThedismissalofthePresidentbytheCommittee}willhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred両言語において照応詞で表現される.構造体内での文法上の区別はすべてなくなる.\begin{DEPEX}\depexample\underline{これ}は為替相場へ大きな影響を及ぼすだろう.{\itThis}willhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred日本語で表現する必要はないが英語では表現する必要のある照応詞.\begin{DEPEX}\depexample\underline{$\phi_{\SBJ}$}為替相場へ大きな影響を及ぼすだろう.{\itIt}willhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred両言語においてテキスト中では表現されないが,そのテキストの理解に不可欠なすべての世界知識と状況に関する知識.現在のところ扱っていない.\end{DEPRED}以上の分類に基づき,\hspace*{-0.3mm}陳述縮約に関する制約として,\hspace*{-0.3mm}指される節点$X$と指す節点$Y$の陳述縮\\約度の間で,表\ref{tab:depredlevel}に示す関係が成り立たなければならないという制約をおく.表\ref{tab:depredlevel}は,例えば,節点$X$の陳述縮約度が9であるとき,節点$Y$の陳述縮約度は8か9でなければならないことを\\表している.AND/ORグラフ上の終端節点の陳述縮約度は辞書に,また,非終端節点の陳述縮約度は構文解析規則に記述しておく.\begin{table}[htbp]\caption{陳述縮約度に関する制約}\label{tab:depredlevel}\begin{center}\begin{tabular}{|c|r|}\hline節点$X$の陳述縮約度&\multicolumn{1}{|c|}{節点$Y$の陳述縮約度}\\\hline\hline0&1,2,3,4,5,6,7,8,9\\1&2,3,4,5,6,7,8,9\\2&3,4,5,6,7,8,9\\3&4,5,6,7,8,9\\4&5,6,7,8,9\\5&6,7,8,9\\6&7,8,9\\7&7,8,9\\8&8,9\\9&8,9\\\hline\end{tabular}\end{center}\end{table}\subsection{照応関係に関する選好による解釈の評価}\label{sec:twg:eval}節点$X$と$Y$が,\hspace*{-0.2mm}構文構造,\hspace*{-0.2mm}意味,\hspace*{-0.2mm}陳述縮約に関する制約をすべて満たしているとき,\hspace*{-0.2mm}$Y$は$X$\\を指すことができる.$Y$が$X$を指しているとき,二つの節点を,$Y$から$X$へ向かうリンクで結\\ぶ.リンクには,次の選好によって照応関係の評価点を与える.\begin{enumerate}\item$X$と$Y$の意味素性の間に上位下位関係にあるかどうかが不明である場合,評価点は0\\点とする.\item$X$と$Y$の意味素性の間に上位下位関係にあることが明確にわかっており,かつ,$X$と\\$Y$の陳述縮約度が共に7以下である場合,評価点は1点とする.\item$X$と$Y$の意味素性の間に上位下位関係にあることが明確にわかっており,かつ,$X$ま\\たは$Y$の陳述縮約度が8以上である場合,評価点は2点とする.\end{enumerate}テキストのある解釈の照応関係に関する選好による評価点は,その解釈を構成するリンクの評価点の和とし,その値が最も高い解釈を照応関係に関する選好による最良解釈とする.\subsection{解釈の総合評価}\label{sec:twg:balance}テキストの解釈は,照応関係に関する選好による評価の他に,構文構造に関する選好と意味的親和性に関する選好による評価を受ける.これら三つの選好による各評価を組み合わせた総合的な評価は,次式を用いて行なう.\begin{equation}S=W_{\SYN}\timesS_{\SYN}+W_{\SEM}\timesS_{\SEM}+W_{\COR}\timesS_{\COR}\label{eq:balance}\end{equation}ここで,$S_{\SYN}$,$S_{\SEM}$,$S_{\COR}$は,それぞれ,構文構造,意味的親和性,照応関係に関する選好に\\よる評価点であり,$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$は各評価点についての相対的重要度である.各選好による解釈の評価の間には相互に依存関係があり,それらが相容れない場合もある.すなわち,AND/ORグラフからある構文構造を選ぶと,意味的親和性に関する選好と照応関係に関する選好による評価の対象を,その構文構造に属する節点に限定したことになるが,最良の構文構造に属する節点から素性構造の最良の単一化結果を得るとは限らない.また,意味的親和性に関する選好による素性構造の単一化結果と照応関係に関する選好による素性構造の単一化結果とは,必ずしも相容れない.例えば,ある用言が[sbj:[sem:H]]\footnote{ある素性が可能な素性値のすべてをとる場合,その素性と素性値を省略する.ここでは,per,gen,numを省略した.}という格構造を持ち,その用言の主語である節点$X$が\FEATS{3rd}{\{m,f,n\}}{sg}{\{A,H\}}という素性構造を持つとする.さらに,\FEATS{3rd}{n}{\{sg,pl\}}{A}という素性構造を持ち,$X$との間で構文構造に関する制約と陳述縮約度に関する制約を満たす節点$Y$が存在するとする.このとき,$X$が$Y$と照応関係にないと解釈すると,$X$の素性構造は\\用言が要求する素性構造と単一化できるが,$X$が$Y$と照応関係にあると解釈すると,$X$と$Y$の\\素性構造を単一化した結果,$X$の素性構造は\FEATS{3rd}{n}{sg}{A}となるので用言からの要求を満たさなくなる.各選好による最良解釈が相容れない場合,どの選好による解釈を優先させるかは,主に総合評価式(\ref{eq:balance})における相対的重要度$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$に依存する.これらは経験的に決定する.
\section{意味・照応解析機構}
\label{sec:lazy}TWGに基づく意味解析と照応解析を実現するために,AND/ORグラフ上での遅延評価による優先度計算機構\cite{Tamura91,Sugiyama94}を応用する.図\ref{fig:andorstream}に示すように,AND/ORグラフの枝をストリームに対応させて,解釈をストリーム要素として表し(\ref{sec:lazy:streamelem}節),節点で行なうストリーム操作として意味解析と照応解析を実現する(\ref{sec:lazy:gen}節).ストリーム操作は遅延評価(要求駆動)によって制御する.処理の概要は次のようになる.まず,解釈を求めるための要求を根節点から終端節点へ向けて送る.要求が終端節点に到達すると,そこで初期ストリーム要素を生成し,総合評価点の降順に親節点へ送る.非終端節点では,子節点から来たストリーム要素に対して操作を行ない,その結果を総合評価点の降順に親節点へ送る.そして,根節点で得るストリームの第一要素を,AND/ORグラフ全体で総合評価点が最も高い解釈とみなす.\begin{figure}[htbp]\begin{center}\epsfile{file=andorstream.eps,width=0.45\textwidth}\end{center}\caption{AND/ORグラフとストリームの対応}\label{fig:andorstream}\end{figure}意味・照応解析系への入力であるAND/ORグラフには,ゼロ照応詞が補ってあるものとする.ただし,この段階では,どの格要素を補う必要があるかがわかっているだけである.補った格要素を具体的にどの照応詞として英訳するかは,意味・照応解析によって決まる.関係節として英訳しなければならない従属節に格要素を補う場合,その従属節を支配する主名詞が従属節内でどの格要素になるかを判定した後,すなわち適切な関係詞を選択した後でないと,従属節にどの格要素を補うかは決めることはできない.\subsection{解釈の表現}\label{sec:lazy:streamelem}ストリームの要素は,\ELEM{S_{\SYN}}{S_{\SEM}}{S_{\COR}}{D_{\SYN}}{D_{\SEM}}{D_{\COR}}という形式をした評価点と解釈の対である.解釈は,構文構造記述$D_{\SYN}$,意味的親和性記述$D_{\SEM}$,照応関係記述$D_{\COR}$から成る.総合評価点は,各記述の評価点$S_{\SYN}$,$S_{\SEM}$,$S_{\COR}$から,\\総合評価式(\ref{eq:balance})によって求める.AND/ORグラフ上の節点$X$で得るストリームの第$i$要素が,$X$で得うる全解釈のうち総合評価点が第$i$番目に高いと処理機構が判断した解釈を表す.構文構造の記述には,OR子供リスト(ORchildlist)\cite{Tamura91}を用いる.OR子供リストは,AND/ORグラフ上の各OR節点の子節点全体の部分集合を,OR節点の辞書式順序に従って並べたリストである.OR子供リストによって,AND/ORグラフの中から特定の構文構造を選び出すことができる.例えば,次の二つの文から成るテキスト\ref{TEXT:pig}から得るAND/ORグラフ\footnote{節点`4.sent'〜`7.sent'に対応する翻訳は,次の通りである.\newcounter{myctr1}\begin{list}{}{\parsep-3pt\itemsep0pt\topsep-15pt\usecounter{myctr1}\addtocounter{myctr1}{3}\renewcommand{\makelabel}{}}\itemHehasstronglikesanddislikes.\itemAsforhim,$\phi_{\SBJ}$\{have/has\}stronglikesanddislikes.\itemAsforhim,likesanddislikeshavestrongone.\itemAsforhim,likesanddislikesarestrong.\end{list}}(図\ref{fig:andor})において,実線の構文構造はOR子供リスト[4.sent,8.sent]で表せる.\begin{TEXT}\text彼は好き嫌いが激しい.豚は食べる.\label{TEXT:pig}\end{TEXT}このOR子供リストは,OR節点`2.sentence'で子節点`4.sent'を選び,OR節点`3.sentence'で子節点`8.sent'を選ぶこと,すなわち,`25.彼'を第一文の主語(`11.sbj'),`26.好き嫌い'を目的語(`13.sobj')と解釈し,`29.豚'を第二文の目的語(`19.obj')と解釈することを意味する.OR子供リストは,意味・照応解析を行なう前に,AND/ORグラフ上の各節点に与えておく.節点$X$に与えたOR子供リストは,$X$を含む構文構造を表す.すなわち,$X$より下位の構造についての局所的情報だけでなく,上位の構造についての大局的な情報も表せる.\begin{figure}[htbp]\begin{center}\epsfile{file=andor.eps,width=\textwidth}\end{center}\caption{テキスト\protect\ref{TEXT:pig}のAND/ORグラフ}\label{fig:andor}\end{figure}照応関係記述は,AND/ORグラフ上の節点間の照応関係を表す有向グラフの集合である.以降,この有向グラフを照応関係グラフと呼ぶ.ある照応関係グラフに属する節点は,意味に関する制約を満たし,どの二つの節点も互いに単一化可能な素性構造を持つ.各節点の素性構造を単一化した結果が,照応関係グラフの素性構造となる.ある照応関係グラフに属する二つの節点$X$と$Y$が,構文構造に関する制約と陳述縮約度に関する制約を満たしているとき,二つ\\の節点を$Y$から$X$へのリンクで結ぶ.一般に,照応関係グラフは次の形式で表せる.\[\left[\begin{array}{l}素性構造\\\left[\begin{array}{l}\left[\X_{1,1},\,X_{1,1}を指す節点の集合\\right]\\\multicolumn{1}{c}{\vdots}\\\left[\X_{1,p_1},\,X_{1,p_1}を指す節点の集合\\right]\end{array}\right]\\\multicolumn{1}{c}{\vdots}\\\left[\begin{array}{l}\left[\X_{n,1},\,X_{n,1}を指す節点の集合\\right]\\\multicolumn{1}{c}{\vdots}\\\left[\X_{n,p_n},\,X_{1,p_n}を指す節点の集合\\right]\end{array}\right]\end{array}\right]\]ここで,節点$X_{i,j+1}$は節点$X_{i,j}$の主要部である.以降,$X_{i,p_1}$--$X_{i,p_2}$--$\,\cdots\,$--$X_{i,p_i}$を主要部連鎖と\\呼ぶ.例えば,図\ref{fig:andor}のAND/ORグラフの根節点で得るストリームの第一要素(図\ref{fig:bestelem})の照応関係記述は,二つの照応関係グラフから成る.第一の照応関係グラフは,第二文に補った主語である主要部連鎖`22.defsbj'--`30.$\phi$'が,第一文の主語である主要部連鎖`11.sbj'--`25.彼'を指しており,素性構造の単一化によって,これら二つの主要部連鎖の素性構造を\FEATS{3rd}{m}{sg}{H}に特定できたことを意味する.\begin{figure}[htbp]\begin{center}\epsfile{file=bestelem.eps,width=0.8\textwidth}\end{center}\caption{テキスト\protect\ref{TEXT:pig}の最良解釈}\label{fig:bestelem}\end{figure}意味的親和性記述は,AND/ORグラフ上の節点間の意味的な親和性に関する選好を表す.意味的親和性に関する選好は,選択制限などから得る.用言とその格要素間の意味的親和性は,格要素が属する照応関係グラフの素性構造と用言の格構造に記述してある素性構造とが単一化できるかどうかによって表せる.単一化できる場合,その単一化結果が,格要素の属する照応関係グラフの素性構造となる.図\ref{fig:bestelem}のストリーム要素の意味的親和性記述は,`31.食べる'の目的語が持つべき素性構造[sem:F]と主要部連鎖`19.obj'--`29.豚'が属する照応関係グラフの素性構造が単一化でき,主語が持つべき素性構造[sem:\{A,H\}]と主要部連鎖`22.defsbj'--`30.$\phi$'が属する照応関係グラフの素性構造が単一化できたことを意味する.\subsection{解釈の生成}\label{sec:lazy:gen}AND/ORグラフ上の各節点では,その種類に応じて次の三種類の処理を行なう.\begin{enumerate}\item終端節点では,辞書情報などに基づいて初期ストリームを,その要素が総合評価点の降順に並ぶように生成し親節点に送る.\itemOR節点では,子節点から来るストリームを併合し,総合評価点が最も高い要素から順に親節点へ送る.\itemAND節点では,子節点から来るストリーム要素に対し,構文構造を決定する処理と節点の素性値を決定する処理を行ない,総合評価点が最も高いと処理機構が判断した要素から順に親節点へ送る.素性値を決定する処理では,意味的親和性に関する選好と照応関係に関する制約と選好を組み合わせて用いる.\end{enumerate}\subsubsection{構文構造の選択}\label{sec:lazy:gen:syn}AND/ORグラフの中から特定の構文構造を選ぶには,OR子供リストの連言を求めればよい.\hspace*{-0.5mm}節点$Z$\hspace*{-0.1mm}が子節点$X_1,\,X_2,\,\cdots,\,X_n$\hspace*{-0.1mm}を持つとき,\hspace*{-0.3mm}$Z,\,X_1,\,X_2,\,\cdots,\,X_n$\hspace*{-0.1mm}それぞれのOR子供リス\\トの連言が$Z$での構文構造記述となる.連言が空になれば,それはいかなる構文構造も表せない.構文構造に関する選好による評価点は,構文解析によって各節点に与えておく.\subsubsection{意味的親和性による素性値の選択}\label{sec:lazy:gen:sem}用言とその格要素の間の意味的親和性の照合は,用言節点からのストリームと格要素節点からのストリームが初めて出会う節点で行なう.上位下位関係を記述した意味体系を参照して,用言の格構造に記述してある選択制限と格要素の素性構造とを照合し,その結果に応じて評価点を与える.選択制限に違反する解釈も必要に応じて生成する.否定文や比喩などは選択制限に違反してもよいからである.また,照応関係に関する選好との相互作用があるからである.例えば,意味素性Hと上位下位関係にある主要部連鎖を主語に要求する用言である終端節点からは,まず\ELEM{S_{\SYN}}{10}{S_{\COR}}{D_{\SYN}}{\mbox{[[sbj:[sem:H]]]}}{D_{\COR}}というストリーム要素が来る.さらに,第二要素として\ELEM{S_{\SYN}}{-4}{S_{\COR}}{D_{\SYN}}{\mbox{[[sbj:[sem:not(H)]]]}}{D_{\COR}}が来る.この用言の主語が属する照応関係グラフの素性構造と第一要素の意味的親和性記述との照合によって,選択制限を満たす場合の解釈を生成する.素性構造と意味的親和性記述が単一化可能であれば,評価点10点を与える.第二要素を用いた処理によって,選択制限に違反する場合の解釈を生成する.\subsubsection{照応関係による素性値の選択}\label{sec:lazy:gen:cor}節点$Z$で,その子節点から来るストリーム要素の照応関係記述を結合して,新たな照応関係記述を得る問題は,一種の結婚問題とみなせる.$Z$の一方の子節点から来る照応関係記述$\{\,G_1,\,G_2,\,\cdots,\,G_g\,\}$を男性の集合とし,他方の子節点から来る照応関係記述$\{\,L_1,\,L_2,\,\cdots,\,L_l\,\}$を女性の集合とする.照応関係グラフ$G_j\,(j=1,\,2,\,\cdots,\,g)$と$L_k\,(k=1,\,2,\,\cdots,\,l)$が単一化可能な素性構造を持つとき,男性$G_j$と女性$L_k$が知合いであるということにし,各男性は何人かの女性と知合いであるとする.互いに知合いの男女は結婚することができる.ただし,重婚は認めない.結婚した$G_j$と$L_k$が新たな一つの照応関係グラフ$GL$となる.照応関係グラフ$G_j$と$L_k$の持つ素性構造を単一化して得る素性構造を,$GL$の素性構造とす\\る.$G_j$に属する節点$X$と$L_k$に属する節点$Y$が構文構造に関する制約と陳述縮約度に関する制\\約を満たしているとき,\hspace*{-0.2mm}$Y$から$X$へ向かうリンクで結ぶ.\hspace*{-0.3mm}$GL$の評価点は,\hspace*{-0.2mm}$G_j$の評価点と$L_k$の\\評価点の和に,$G_j$に属する節点と$L_k$に属する節点を結ぶ各リンクの評価点(\ref{sec:twg:eval}節)を加えた値\\である.各男女は,知合いの異性と必ず結婚しなければならないというわけではなく,独身であってもよい.節点$Z$では独身であるほうが,将来($Z$より上位の節点で),より良い(評価点が高くな\\る)異性を見つけることができるかもしれないからである.また,意味的親和性に関する選好との相互作用があるからである.節点$Z$の各子節点から来る照応関係記述を結合して得た照応関係記述に$Z$を加えたものを,最終的に$Z$での照応関係記述とする.$Z$で得た照応関係記述を構成する照応関係グラフのいずれかは,$Z$の主要部である主要部連鎖を含んでいる.この主要部連鎖に$Z$を加え,この主要部連鎖を含む照応関係グラフの素性構造と$Z$の素性構造を単一化する.ここで$Z$を照応関係記述に加えることによって,AND/ORグラフ上の非終端節点も以降の照応解析の対象となる.図\ref{fig:andor}のAND/ORグラフ上の根節点`1.text'で照応関係記述を求める処理は,次のようになる.二つの子節点`2.sentence'と`3.sentence'からは,図\ref{fig:cor}の照応関係記述が来る.これら二つの照応関係記述において,単一化可能な素性構造を持つのは,主要部連鎖`11.sbj'--`25.彼'を含む照応関係グラフと主要部連鎖`22.defsbj'--`30.$\phi$'を含む照応関係グラフである.これら二つの照応関係グラフを結合すれば,図\ref{fig:bestelem}のストリーム要素の照応関係記述を得る.なお,図\ref{fig:bestelem}では,主要部連鎖を一つしか含まず,意味的親和性記述との関連がない照応関係グラフは,簡単のため省略した.二つの照応関係グラフを結合しなければ,主要部連鎖`11.sbj'--`25.彼'と主要部連鎖`22.defsbj'--`30.$\phi$'が照応関係にないとする解釈を得る.\begin{figure}[htbp]\begin{center}\epsfile{file=cor.eps,width=0.95\textwidth}\end{center}\caption{テキスト\protect\ref{TEXT:pig}のAND/ORグラフの根節点に到達する照応関係記述}\label{fig:cor}\end{figure}\vspace*{-0.3mm}\subsection{解釈生成の保留}\label{sec:lazy:suspend}\vspace*{-0.2mm}テキスト全体での最良解釈は,テキストの断片に対する最良解釈を単純に合成したものとは限らない.ある断片に対する解釈としてはあまり良くない解釈が,テキスト全体として見ると最も相応しくなることもある.このため,全体で最良解釈を得るためには,最悪の場合,断片に対する可能な解釈をすべて生成しなければならない.しかし,人間は,テキストのある断片に膨大な解釈の可能性がある場合でも,それらを同時にすべて保持するのではなく,局所的に評価点が高い少数の解釈だけを念頭において,それ以降へ読み進む\cite{Tsujii88}.このような人間の言語処理を部分的にではあるが模倣する\footnote{本稿の処理機構は入力テキスト全体に対する構文解析が完了した後に起動されるため,形態素解析から照応解析までを統合的に実行すると考えられる人間の言語処理を完全に模倣するものではない.}ために,評価点の低い解釈の生成は必要になるまで行なわないようにする.AND節点にその親節点から,解釈を生成するよう要求が来ると,まず,AND節点で得る解釈の総合評価点を推定する.次に,解釈を一つを生成し,その総合評価点が推定値より低くなければ,その解釈を親節点に送り,残りの解釈の生成は保留する.もし総合評価点が推定値より低ければ,推定値よりも低くない総合評価点を持つ要素が現れるまで,次の解釈の生成,その次の解釈の生成と続ける.保留した処理は,次の解釈を求める要求が親節点から来たときに再開する.OR節点にその親節点から,解釈を生成するよう要求が来ると,OR節点の各子節点で得る解釈の総合評価点を推定し,それらのうち推定値が最大となる子節点での処理を優先的に行なう.
\section{実験}
\label{sec:experiment}本テキスト解析手法をSunSPARCstationIPX上でSICStusProlog2.1を用いて実装し,小規模の実験を行なった.遅延評価は,SICStusProlog2.1の{\ttblock}宣言を用いて実現した.今回の実験では,解釈の総合評価式(\ref{eq:balance})における相対的重要度$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$を,訓練用テキストの分析結果に基づいて,それぞれ21,3,1とした.また,解釈の総合評価点の推定は,次式を用いて行なった.\[E=W_{\SYN}\timesS_{\SYN}+W_{\SEM}\timesE_{\SEM}+h\timesW_{\COR}\timesE_{\COR}\]$E_{\SEM}$は,照応関係に関する選好との相互作用を考えないときの意味的親和性に関する選好による評価点の推定値である.$E_{\COR}$は,意味的親和性に関する選好との相互作用を考えないときの照応関係に関する選好による評価点の推定値であり,次のような方法で求めた.実際に照応解析\\を行なう場合,AND/ORグラフ上のすべての節点が処理の対象となるが,$E_{\COR}$を求める場合は終端節点だけを対象とした.また,実際に照応解析を行なう場合,二つの照応関係グラフ$G_j$と$L_k$を結合して得た新たな照応関係グラフ$GL$の素性構造は$G_j$\hspace*{-0.1mm}と\hspace*{-0.1mm}$L_k$の素性構造の連言である\\が,推定を行なう場合は$G_j$と$L_k$の素性構造の選言を$GL$の素性構造とした.$h$は0.4とした.訓練用テキストとは異なる五つのテキスト(表\ref{tab:text})を対象として,部分的解釈の再利用と解釈生成の保留を行なう本手法と,いずれも行なわない全解探索法,それぞれの処理時間(SICStusPrologのruntime)とメモリ使用量(globalstack)を測定した.その結果を,全解探索法に対する本手法の性能比と共に,表\ref{tab:result}に示す.表\ref{tab:result}からわかるように,処理時間は,いずれのテキストでも本手法の方が全解探索法より短く,テキストの可能な解釈の数が増えるにつれ,両手法の差は広がる.メモリ使用量は,可能な解釈の数が比較的少ないテキストc.では全解探索法のほうが少ないが,それ以外では本手法のほうが少なく,可能な解釈の数が増えるにつれ,両手法の差は広がる.\begin{table}[htbp]\caption{実験に用いたテキスト}\label{tab:text}\begin{center}\begin{tabular}{r|p{0.8\textwidth}}\hline&\multicolumn{1}{|c}{テキスト}\\\hline\hlinea.&彼は好き嫌いが激しい.豚は食べる.\\b.&トナー工場が生産を開始しました.八月にはフル稼働体制に移ります.\\c.&明日は梅雨前線が次第に北上する.このため,東日本では雨が降るだろう.\\d.&携帯電話の市場が開放されました.今後,誰でも自由に販売することができます.\\e.&学生によるボランティア活動が始まりました.学校近くの駅前広場を毎朝清掃します.\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{処理時間とメモリ使用量}\label{tab:result}\begin{center}\begin{tabular}{|r|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{c@{}|}{runtime(msec.)}&\multicolumn{3}{c@{}|}{globalstack(bytes)}\\\cline{3-8}\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{番号}}&\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{解釈総数}}&\multicolumn{1}{|c|}{全解探索}&\multicolumn{1}{|c|}{本手法}&\multicolumn{1}{|c|}{性能比}&\multicolumn{1}{|c|}{全解探索}&\multicolumn{1}{|c|}{本手法}&\multicolumn{1}{|c|}{性能比}\\\hline\hlinea.&1584&63539&2170&0.03&1689916&358452&0.21\\b.&740&10550&379&0.04&1770456&104104&0.06\\c.&32&1450&590&0.41&67792&121932&1.80\\d.&8720&247210&2900&0.01&6373792&326404&0.05\\e.&240&5379&699&0.13&423016&189280&0.45\\\hline\end{tabular}\end{center}\end{table}AND/ORグラフの根節点で得たストリームの第一要素がTWGによって定義される最良解釈に一致しているかどうかを調べたところ,テキストb.では第一要素は総合評価点が第6番目に高い解釈になっていたが,それ以外のテキストでは第一要素がTWGによる最良解釈であった.次に,TWGによる最良解釈が人間による最良解釈に一致するかどうかを調べたところ,テキストb.以外では一致していた.テキストb.の人間による最良解釈では「トナー工場」と第二文のゼロ照応詞「$\phi_{\SBJ}$」との間に照応関係が成り立つだろうが,TWGによる最良解釈では「生産」と「フル稼働体制」と「$\phi_{\SBJ}$」との間に照応関係が成り立っていた.実験に用いた意味素性の分類が91分類と粗く,「生産」と「フル稼働体制」の素性構造が単一化できることが原因である.
\section{おわりに}
\label{sec:conclusion}本稿では,構文構造,意味的親和性,照応関係に関する選好を組み合わせてテキストの可能な解釈を総合的に評価し,最良解釈を定義する文法TWGと,TWGを効率良く解釈実行するために,部分的解釈の再利用と解釈生成の保留を行なう処理機構について述べ,実験を通じて本テキスト解析手法の有効性を確認した.実験結果によれば,テキストの可能な解釈の数が増えるにつれ,本手法と全解探索法の性能差が広がることが明らかになった.本手法の有効性は,実験に用いたテキストよりも複雑で,可能な解釈の数もより多い現実の標準的なテキストの解析において,より顕著になろう.テキストの構造体の間で照応関係が成り立つかどうかをより正確に判定するためには,より詳細な意味体系を用いることと,意味合成の枠組みを実現することが必要である.より詳細な意味体系を用いれば,テキストの構造体がAND/ORグラフ上の終端節点に対応する場合に,照応関係をより正確に判定できるようになる.非終端節点の素性構造を終端節点の素性構造から求める意味合成の枠組みが実現できれば,構造体が非終端節点に対応する場合に,より正確な判定が可能となる.これまでに提案されている,式の連言結合と式に含まれる項の単一化に基づく意味合成の手法\cite{Kato91}などを本テキスト解析手法で利用できないかを検討し,意味合成の枠組みを実現することが今後の課題である.\acknowledgment第一稿に対し,有益な助言を下さった査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{twin}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)情報商品開発研究所にて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{JiriJelinek}{チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1995年退職.1992年より1996年までシャープ専任研究員.}\bioauthor{西田収}{1984年大阪教育大学教育学部中学校課程数学科卒業,同年より神戸大学工学部応用数学科の教務補佐員として勤務.1987年シャープ(株)に入社.現在は,同社の情報商品開発研究所に所属.主に,機械翻訳の研究に従事.情報処理学会会員.}\bioauthor{田村直之}{1985年神戸大学大学院自然科学研究科システム科学専攻博士課程修了.学術博士.同年,日本アイ・ビー・エム(株)に入社し東京基礎研究所に勤務.1988年神戸大学工学部システム工学科助手.講師を経て,現在同大学大学院自然科学研究科助教授.論理型プログラミング言語,線形論理などに興味を持つ.著書に「Prologプログラミング入門」(オーム社,共著).情報処理学会,日本ソフトウェア科学会,システム制御情報学会,ACM,IEEE各会員.}\bioauthor{村上温夫}{1952年大阪大学理学部数学科卒業.神戸大学理学部助手,講師,教養部助教授を経て,1968年より工学部教授.この間,UniversityofKansas客員助教授,UniversityofNewSouthWales客員教授,NanyangUniversity客員教授を併任.1992年より甲南大学理学部教授.神戸大学名誉教授.理学博士(東京大学).関数解析,偏微分方程式,人工知能,数学教育などに興味を持つ.著書に``MathematicalEducationforEngineeringStudents''(CambridgeUniversityPress)など.日本数学会,日本数学教育学会,情報処理学会,教育工学会,AMS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N04-04
|
\section{はじめに}
\label{sec-introduction}さまざまな種類のテキストや,音声認識結果が機械翻訳されるようになってきている.しかし,すべてのドメインのデータにおいて,適切に翻訳できる機械翻訳器の実現はいまだ困難であり,翻訳対象ドメインを絞りこむ必要がある.対象ドメインの翻訳品質を向上させるには,学習データ(対訳文)を大量に収集し,翻訳器を訓練するのが確実である.しかし,多数のドメインについて,対訳文を大量に収集することはコスト的に困難であるため,他のドメインの学習データを用いて対象ドメインの翻訳品質を向上させるドメイン適応技術が研究されている\cite{foster-kuhn:2007:WMT,foster-goutte-kuhn:2010:EMNLP,axelrod-he-gao:2011:EMNLP,Bisazza:SMTAdaptation2011,sennrich:2012:EACL2012,sennrich-schwenk-aransa:2013:ACL2013}.このドメイン適応は,機械翻訳を実用に供するときには非常に重要な技術である.本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案する.本稿の提案方式は,複数のモデルを対数線形補間で組み合わせる方法である.シンプルな方法であるが,機械学習分野のドメイン適応方法である素性空間拡張法\cite{daumeiii:2007:ACLMain}の考え方を流用することで,複数ドメインの利点を活かす.具体的には,以下の2方式の提案を行う.\begin{enumerate}\item複数ドメインの同時最適化を行う方法.この場合,拡張された素性空間に対して,マルチドメイン対応に変更した最適化器で同時最適化を行う.\item複数ドメインを一つ一つ個別に最適化する方法.この場合,素性空間を制限し,通常の対数線形モデルとして扱う.既存の翻訳システムへの改造が少なくても実現できる.\end{enumerate}いずれの方法も,さまざまなドメインで未知語が少ないコーパス結合モデルと,ドメインを限定した際に翻訳品質がよい単独ドメインモデルを併用する.さらに,複数モデル組み合わせ時のハイパーパラメータをチューニングする.素性空間拡張法を機械翻訳に適用した例には,\citeA{Clark:SMTAdaptation2012}がある.これは,翻訳文の尤度の算出に用いられる素性ベクトルの重みだけを適応させていて,素性関数は適応させていない.本稿の新規性は,コーパス結合モデルと単独ドメインモデルを使って,素性関数を適応させていること,および,複数モデル組み合わせ時のハイパーパラメータを適切に設定することの2点である.モデルの選択と設定を適切に行うことによって,最先端のドメイン適応と同等以上の精度が出せることを示す.なお,本稿では,事前並べ替えを使ったフレーズベース統計翻訳方式(PBSMT)\cite{koehn-och-marcu:2003:HLTNAACL,koehn-EtAl:2007:PosterDemo}を対象とする.以下,第\ref{sec-related-work}節では,統計翻訳のドメイン適応に関する関連研究を述べる.第\ref{sec-proposed-method}節では,提案方式を詳細に説明する.第\ref{sec-experiments}節では,実験を通じて本方式の特徴を議論し,第\ref{sec-conclusion}節でまとめる.
\section{統計翻訳のドメイン適応}
\label{sec-related-work}機械翻訳のドメイン適応は,翻訳対象のドメイン(内ドメイン)データが少なく,他のドメイン(外ドメイン)データが大量にある場合,内外ドメインのデータ双方を使って,内ドメインの翻訳品質を向上させる技術である.ドメイン適応には,「ニュース」「Web」のように,あらかじめデータがどのドメインに属するか決まっている場合の他に,自動クラスタリングによって仮想的に作られる場合もある.自動で分割されたドメインでも,重みを最適化することによって,トータルの翻訳品質が向上するという報告もある\cite{finch-sumita:2008:WMT,sennrich-schwenk-aransa:2013:ACL2013}.本稿では,前者のあらかじめデータのドメインが決まっている場合で議論する.\subsection{コーパス結合}最もシンプルなベースラインとして用いられている方法は,内ドメインと外ドメインのデータを結合して学習し,1つのモデルを構築する方法である(本稿ではコーパス結合方式と呼ぶ).学習された結合モデルは,各ドメインの開発セットで最適化される.一般的な機械学習では,結合されたコーパスで学習したモデルは,内ドメイン,外ドメイン双方の中間的性質を持つため,その精度も内ドメインデータのみ,外ドメインデータのみで学習されたモデル(単独ドメインモデルと呼ぶ)の中間の精度になることが多い.一方,機械翻訳の場合,コーパスを結合することにより,カバーする語彙が増加するため未知語が減少し,単独ドメインモデルより翻訳品質が向上する場合もある.最終的に翻訳品質が向上するか否かは,未知語の減少とモデルパラメータの精度低下のトレードオフになる.\subsection{線形補間,対数線形補間}統計翻訳では,翻訳に使用するサブモデル(フレーズテーブル,言語モデル,並べ替えモデルなど)が返す値(素性関数値)を,線形または対数線形結合して,翻訳文の尤度を算出する.対数線形モデルでは,以下の式で尤度$\logP(e|f)$を算出する.\begin{equation}\logP(e|f)\quad\propto\quad\mathbf{w}\cdot\mathbf{h}(e,f)\end{equation}ただし,$e$は翻訳文,$f$は原文,$\mathbf{h}(e,f)$は素性ベクトル,$\mathbf{w}$は素性関数の重みベクトルである.このとき,重みベクトル$\mathbf{w}$をドメイン毎に切り替えることで,ドメイン依存訳を生成する方法がある.たとえば,\citeA{foster-kuhn:2007:WMT}は,PBSMTのサブモデルをドメイン毎に訓練し,線形補間,対数線形補間でドメイン毎の重みを変えて翻訳を行った.彼らはパープレキシティなどを目標関数にして,独自の重み推定を行ったが,近年は,重みの推定に誤り率最小訓練法(MERT)\cite{Och:2003:ACL}などの最適化方法が用いられている\cite{foster-goutte-kuhn:2010:EMNLP}.素性空間拡張法\cite{daumeiii:2007:ACLMain}は,翻訳に限らず,機械学習全般に使われるドメイン適応方式で,素性関数の重みをドメイン毎に最適化する(\ref{sec-feature-augmentation}節参照).\citeA{Clark:SMTAdaptation2012}は,これを対数線形補間方式の一種として翻訳に適用し,効果があったと報告している.なお,彼らは単一のモデルを用い,モデルの重みのみをドメイン適応させている.\subsection{モデル適応}重みベクトルではなく,素性ベクトル$\mathbf{h}(e,f)$(素性関数)を変更することによってドメイン適応する方法は,大きく2つに分けられる.一つは,訓練済みサブモデル自身を変更する方法である.もう一つは,ドメインに適応させたコーパスからモデルを訓練する方法である.このうち,サブモデル自身を変更する方法には,fill-up法\cite{Bisazza:SMTAdaptation2011},翻訳モデル混合\cite{sennrich:2012:EACL2012},インスタンス重み付け\cite{foster-goutte-kuhn:2010:EMNLP,matsoukas-rosti-zhang:2009:EMNLP}が知られている.fill-up法は,フレーズテーブルから翻訳候補を取得する際,内ドメインの単独モデルにフレーズが存在する場合はその素性関数値を使用,存在しない場合は外ドメインの単独モデルからフレーズを取得し,その値を使用する.翻訳モデル混合は,2つのフレーズテーブルに記録された翻訳確率を重み付きで混合し,新たなフレーズテーブルを生成する.重みは開発セットのパープレキシティが最小になるように,素性関数毎に設定される.インスタンス重み付けは,フレーズテーブルのモデルパラメータ一つ一つを,内ドメインと外ドメインを識別するように内ドメインの開発セットで混合する.これらの方法は,素性関数値のみでなく,デコード時のフレーズ候補も2つのモデルのフレーズを使用するため,一般的には未知語は減少する.しかし,フレーズテーブル以外のサブモデルは,別の構築・混合法を使わなければならないというデメリットも存在する.\subsection{コーパスフィルタリング}素性ベクトル$\mathbf{h}(e,f)$を変更するもう一つの方法は,モデル訓練用コーパスをドメイン適応させる方法である.最初に述べたコーパス結合も,この一種であるが,よりドメインに適応させるには,外ドメインコーパスから対訳文を取捨選択した方がよい.この,外ドメインコーパスから対訳文を取捨選択し,内ドメインコーパスとともにモデルを作成する方式を,コーパスフィルタリングと呼ぶ.\citeA{axelrod-he-gao:2011:EMNLP}は,内ドメインに適した対訳文を,内外ドメインの交差エントロピーの差に基づき,外ドメインコーパスから取捨選択した.選択された文を内ドメインコーパスに追加してモデルを訓練することで,ドメイン適応を行った.コーパスフィルタリングは,翻訳器が使用する全サブモデルを,その種類を問わず適応させることができる点がメリットであるが,最適な追加訓練文数は,あらかじめ予想できない点がデメリットである.\subsection{その他の方法}その他の方法としては,2つの翻訳器を直列に接続し,外ドメイン翻訳器による翻訳結果を,さらに内ドメイン翻訳器を使って訂正する方法もある\cite{jeblee-EtAl:2014:ANLP20142}.これは,ドメイン依存訳の生成を一種の誤り訂正ととらえていることに相当する.
\section{マルチドメイン適応方式}
\label{sec-proposed-method}\subsection{素性空間拡張法}\label{sec-feature-augmentation}素性空間拡張法\cite{daumeiii:2007:ACLMain}は,一般的な機械学習におけるパラメータ(統計翻訳では素性の重みに対応)のドメイン適応に用いられる方式である.素性空間を共通,内ドメイン(ターゲットドメイン),外ドメイン(ソースドメイン)に分割し,素性を,それが由来するドメインごとに異なる空間に配置する.内ドメインの素性は共通空間と内ドメイン空間に,外ドメインの素性は共通空間と外ドメイン空間にコピーして配置するのが特徴である.そして,全体を最適化することにより,適応された重みベクトルを得る.素性が疎な二値素性の場合,共通空間に格納される素性は,内ドメインデータから得られる素性と,外ドメインデータから得られる素性の和(OR)になる.そのため,共通空間にある素性が,内外ドメインのお互いに欠落した素性を補完し,精度が向上する.統計翻訳のような密な実数素性の場合,共通空間を介して,外ドメインの素性が内ドメインの事前分布として作用し,より内ドメインに適合した重みに調整される(\citeA{daumeiii:2007:ACLMain}の3.2節参照).通常は,外ドメインを内ドメインに適応するために使用されるが,素性空間拡張法では,外ドメインと内ドメインを同等に扱っており,容易に$D$ドメインに拡張することができる.その場合,素性空間は共通,ドメイン1,...ドメイン$D$のように,$D+1$空間に分割される(図\ref{fig-feature-augmentation}).すなわち,\begin{equation}\mathbf{h}(f,e)=\langle\mathbf{h}_{c},\mathbf{h}_{1},\ldots,\mathbf{h}_{i},\ldots,\mathbf{h}_{D}\rangle\label{eqn-augmented-vector}\end{equation}ただし,$\mathbf{h}_{c}$は共通空間の素性ベクトル,$\mathbf{h}_{i}$はドメイン依存空間の素性ベクトルである.共通空間には常に素性が配置されるが,ドメイン依存空間には,データの属するドメインが一致する場合だけ,素性が配置される.\begin{align}\mathbf{h}_{c}&=\mathbf{\Phi}(f,e)\label{eqn-aug-common}\\\mathbf{h}_{i}&=\left\{\begin{array}{ll}\mathbf{\Phi}(f,e)&\text{if}\\mathrm{domain}(f)=i\\\emptyset&\text{otherwise}\end{array}\right.\label{eqn-aug-dependent}\end{align}ただし,$\mathbf{\Phi}(f,e)$はモデルスコア等を格納した部分ベクトルで,素性空間を拡張しない場合は,$\mathbf{h}(f,e)$と同じになる.この素性マトリクスを最適化し,重みベクトルを得る.\begin{figure}[t]\begin{center}\includegraphics{24-4ia4f1.eps}\end{center}\caption{素性空間拡張とコーパス結合モデル/単独ドメインモデルの併用}\label{fig-feature-augmentation}\end{figure}\ref{sec-experiments}節の実験では,Mosesツールキット\cite{koehn-EtAl:2007:PosterDemo}のデフォルト素性(15次元)を使用する.素性の一覧を表\ref{tbl-feature-list}に示す.これに素性空間拡張法を適用すると,共通空間では15次元,ドメイン依存空間では各14次元となる\footnote{未知語数を表す素性UnknownWordPenaltyは,重みの調整は不可とされているため,共通空間だけに配置する.}.\citeA{Clark:SMTAdaptation2012}は,アラビア語$\rightarrow$英語翻訳(ドメインはNewsとWeb),およびチェコ語$\rightarrow$英語翻訳(ドメインはFictionなど6ドメイン)について素性空間拡張法を適用し,効果が観測されたと報告している.ただし,彼らは,翻訳モデル,言語モデルなどのサブモデルは,コーパス結合モデル1種類だけを使用しており,純粋に素性関数の重みだけをドメイン最適化している.\begin{table}[t]\caption{本稿で用いる素性の一覧}\label{tbl-feature-list}\input{04table01.txt}\end{table}\subsection{提案法}\subsubsection{コーパス結合モデルと単独ドメインモデルの導入}\label{sec-concat-and-specific}機械翻訳では,素性の重みより素性関数の方が翻訳品質に対する影響が大きいため,素性空間によってモデルを切り替えるのは自然な拡張である.本稿で用いる素性関数は,実数値を返す関数であるが,その実態は,モデルファイルに記録されているインスタンスを読み込み,それに対応する値を返している.もし,訓練データ不足などの理由でモデルファイル中にインスタンスが存在しない場合,素性関数値は極小値になる.つまり,実数値の素性関数であっても,実際には二値素性と同様に,スパースネスの問題がある.そこで本稿では,二値素性の素性空間拡張法の考え方を素性関数に適用し,共通空間に対応するモデルとして,全ドメインのコーパスから作成したコーパス結合モデルを使用する.ドメイン依存空間には,それぞれの単独ドメインモデルを使用する.具体的には,\begin{itemize}\itemフレーズテーブル,語彙化並び替えモデル,言語モデルなどのサブモデルについて,単独ドメインモデルとコーパス結合モデルを作成しておく.\item素性空間拡張では,共通空間にはコーパス結合モデルのスコアを素性関数値として配置し,各ドメインの空間には,単独ドメインモデルのスコアを配置し,最適化する(図\ref{fig-feature-augmentation}).式(\ref{eqn-aug-common})(\ref{eqn-aug-dependent})は以下の式に置換される.\begin{align}\mathbf{h}_{c}&=\mathbf{\Phi}_{c}(f,e)\label{eqn-flat-common}\\\mathbf{h}_{i}&=\left\{\begin{array}{ll}\mathbf{\Phi}_{i}(f,e)&\text{if}\\mathrm{domain}(f)=i\\\emptyset&\text{otherwise}\end{array}\right.\label{eqn-flat-dependent}\end{align}ただし,$\mathbf{\Phi}_{c}(f,e)$はコーパス結合モデルから得られた素性ベクトル,$\mathbf{\Phi}_{i}(f,e)$は,単独ドメインモデル$i$から得られた素性ベクトルである.\itemデコーディングの際は,まず,単独ドメインモデルとコーパス結合モデルのフレーズテーブルをすべて検索し,翻訳仮説を生成する.探索の際には,共通空間と対象ドメインの空間の素性だけを使って尤度計算をする.\end{itemize}翻訳仮説生成にコーパス結合フレーズテーブルを使用することにより,他のドメインで出現した翻訳フレーズも利用でき,未知語の減少が期待できる.また,翻訳仮説が単独ドメインモデルに存在している場合,高い精度の素性関数値が得られると期待される.本方式は,拡張素性空間を最適化することによって,重みベクトル{$\mathbf{w}$}を適応し,コーパス結合モデルと単独ドメインモデルを併用することで,素性関数{$\mathbf{h}(e,f)$}の適応を行っている.どちらもモデルの種類に依存しないため,翻訳に使用する全サブモデルについて,適応させることができる.なお,機械翻訳では,言語モデルを大規模な単言語コーパスから作成する場合がある.このモデルは,いわば非常に多くのドメインを含むコーパス結合モデルに相当するため,共通空間に配置するとよい.このように,外部知識から得られたモデル(素性関数)を追加する場合には,共通空間の次元を増加させる.\subsubsection{empty値}本方式では,コーパス結合モデル,単独ドメインモデルのどちらか一方にのみ出現するフレーズ対が多数存在する.これらフレーズなどのインスタンスに関しても素性関数は値を返す必要がある.この値を本稿ではempty値と呼ぶ.これはいわばn-gram言語モデルにおける未知語確率に相当するものであるので,フレーズの翻訳確率分布から算出されるべきものであるが,本稿では,パイパーパラメータとして扱い,開発コーパスにおけるBLEUスコアが最高になるよう,実験的に設定する\footnote{Mosesでは,empty値として一律に$-100$を割り当てている\cite{Koehn:DomainAdaptation2007,Birch:MultipathDecoding2007}.\ref{sec-experiments}節で述べるように,これは小さすぎる値で,BLEUスコアが下がる原因となる.}.\subsection{最適化}\label{sec-optimization}\subsubsection{同時最適化}\label{sec-joint-optimization}一般的な機械学習における素性空間拡張法の利点の一つは,素性空間を操作しているだけなので,最適化アルゴリズムは既存の方法が使えるという点である.機械翻訳の場合,最適化方法には,誤り率最小訓練(MERT)\cite{Och:2003:ACL},ペアランク最適化(PRO)\cite{hopkins-may:2011:EMNLP},kベストバッチMIRA(KBMIRA)\cite{cherry-foster:2012:NAACL-HLT}が知られている.本稿では,高次元の最適化に適したKBMIRAを使用する\footnote{もう一つの理由は,予備実験において,ベースラインシステムのBLEUスコアが最も高かったためである.}.通常の機械学習における最適化と,機械翻訳の最適化の大きな相違点は,多くの機械学習の損失関数が,尤度などデコーダが出力するスコアを使用しているのに対して,機械翻訳はBLEU\cite{papineni-EtAl:2002:ACL}のような,翻訳文の自動評価値を使用する点である.この自動評価値は,翻訳文と参照訳との比較によって算出され,{\emコーパス単位に}計算される場合が多い.実際,MERT,KBMIRAは開発セットのBLEUスコアを損失関数の一部に使用している\footnote{\citeA{Clark:SMTAdaptation2012}が素性空間拡張法の最適化に使用したPROは文単位に近似したBLEUスコアを用いている.}.つまり,複数ドメインを同時に最適化する場合は,ドメイン毎にBLEUスコアを算出しないと,結果がドメイン最適にならないことを意味している.上記問題を解決するため,本稿ではKBMIRAを変更する.\citeA{cherry-foster:2012:NAACL-HLT}のアルゴリズム1に対する変更点は,以下のとおりである.\begin{enumerate}\item処理済み翻訳文のBLEU統計量(n-gram一致数など)を保存する変数$BG$を,1つからドメイン数$D$個に拡張する.\item各翻訳文のBLEUスコアは,その翻訳文のドメイン$i$の$BG_{i}$から算出する.\item素性重みを更新後,その翻訳文のBLEU統計量を$BG_{i}$に追加する.\end{enumerate}この変更によって,各ドメイン空間の素性重みは,そのドメインの開発セットに最適化される.\subsubsection{個別最適化}\label{sec-independent-optimization}同時最適化は,適応させたいドメインが限られている場合にも,すべてのドメインを最適化しなければならないので,少々非効率である.そこで,全$D$ドメインのうち,ドメイン$i$だけ適応させたい場合,ドメイン$i$に関連する空間だけに限り,最適化を行う.これを本稿では個別最適化と呼ぶ.個別最適化は,素性空間を共通空間とドメイン$i$空間に制限し,チューニングデータもドメイン$i$に関するものだけにする.すなわち,式(\ref{eqn-augmented-vector})は式(\ref{eqn-augvector-simple})に置き換える.\begin{align}\mathbf{h}(f,e)&=\langle\mathbf{h}_{c},\mathbf{h}_{i}\rangle\label{eqn-augvector-simple}\\\mathbf{h}_{c}&=\mathbf{\Phi}_{c}(f,e)\\\mathbf{h}_{i}&=\mathbf{\Phi}_{i}(f,e)\end{align}これは,一般的な対数線形モデルであるので,同時最適化を行わなくても,既存の最適化器をそのまま使うことができる.また,デコーダも,(1)複数モデルを同時に使えること,(2)empty値を設定できること,の2点を満たすものであればよいため,既存のものを少し修正するだけで利用可能となる.同時最適化に比べると,共通空間の最適化が弱くなる恐れがあるが,もともと機械翻訳は素性の重みより素性関数の影響の方が大きいため,実用上は問題は少ないと考えられる.ただし,以下の2点に関しては,同時最適化と共通に満たす必要がある.\begin{enumerate}\item共通空間の素性にコーパス結合モデルを使うこと.\itemempty値を適切に設定すること.\end{enumerate}
\section{実験}
\label{sec-experiments}\subsection{実験設定}\label{sec-experimental-settings}\subsubsection{ドメイン/コーパス}本稿では,英日/日英翻訳を対象に,以下の4つのドメインの最適化を行う.各ドメインのコーパスサイズを表\ref{tbl-corpus-size}に示す.MEDコーパスは比較的小規模で,それ以外のドメインは100万文規模である.なお,訓練文は80単語以下のものだけを使用した.\begin{itemize}\item\textbf{MED}:病院等における医師(スタッフ)と患者の疑似対話のコーパス.内部開発.\item\textbf{LIVING}:外国人が日本に旅行や在留する際の疑似対話コーパス.内部開発.\item\textbf{NTCIR}:特許コーパス.訓練コーパスと開発コーパスは国際ワークショップNTCIR-8,テストコーパスはNTCIR-9のものを使用\footnote{http://research.nii.ac.jp/ntcir/index-ja.html}.\item\leavevmode\hboxto160pt{\textbf{ASPEC}:科学技術文献コーパス}\cite{Nakazawa:ASPEC2016}\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}.ASPEC-JEのうち,対訳信頼度の高い100万文を使用.\end{itemize}\begin{table}[b]\caption{コーパスサイズ}\label{tbl-corpus-size}\input{04table02.txt}\end{table}\subsubsection{翻訳システム}各コーパスの対訳文は,内部開発の事前並べ替え(\citeA{Goto:2015:PUT:2791399.2699925}の4.5節)を適用したのちに使用した.これは,新聞,Wikipedia,旅行会話,生活会話,科学技術文,ブログなどを混合した対訳コーパスから,ランダムに500万文程度を抽出して訓練した,特定のドメインに依存しない事前並び替えである.今回は,全ドメイン,全方式について同一の事前並び替えを適用した.また,日本語に関しては,訓練,テスト等すべての文について,あらかじめ形態素解析器MeCab\cite{kudo-yamamoto-matsumoto:2004:EMNLP}で単語分割を行ってから使用した.英語に関しては,Mosesツールキット\cite{koehn-EtAl:2007:PosterDemo}付属のtokenizer,truecaserで前処理した.翻訳システムの訓練のうち,フレーズテーブル,語彙化並び替えモデルの学習にはMosesツールキットをデフォルト設定で使用した.言語モデルはKenLM\cite{heafield-EtAl:2013:Short}を用いて,訓練セットの目的言語側から5グラムモデルを構築した.最適化は\ref{sec-joint-optimization}節で述べたマルチドメインKBMIRAを使用した.デコーディングには,内部開発のMosesのクローンデコーダを使用した.デコーダの設定値はMosesのデフォルト値と同じ$\texttt{phrase\_table\_limit}=20$,$\texttt{distortion\_limit}=6$,ビーム幅200とした.なお,フレーズ候補取得の際には,複数のフレーズテーブルをすべて検索して候補を取得後,拡張素性空間で算出された尤度に従って,20個に絞り込んだ.\subsubsection{empty値}\ref{sec-concat-and-specific}節で述べたempty値は,$-3$から$-20$の間の整数値のうち,全ドメインの開発セット翻訳結果を1ドキュメント扱いしたときのBLEUスコアが最高値になる値を採用した.結果,英日翻訳に関しては$-7$,日英翻訳は$-6$となった.これを確率値とみなした場合,英日は$\exp(-7)\approx0.0009$,日英は$\exp(-6)\approx0.0025$となる.\subsubsection{評価指標}評価指標にはBLEU,翻訳編集率(TER)\cite{Snover:TER2006},Meteor\cite{denkowski:lavie:meteor-wmt:2014}(英語のみ),RIBES\cite{D10-1092}(日本語のみ)を使用し,MultEvalツール\cite{clark-EtAl:2011:ACL-HLT2011}\footnote{https://github.com/jhclark/multeval}で有意差検定を行った\footnote{RIBESに関しては,http://www.kecl.ntt.co.jp/icl/lirg/ribes/index.htmlのスクリプトと同等なものをMultEvalツールに組み込んで測定した.}.危険率は$p<0.05$とした.最適化の揺れを吸収するため,5回最適化を実施し,その平均値を使用した.なお,単純化のため,本文ではBLEUで説明する.\subsubsection{比較方式}各ドメインコーパスだけでモデルを構築,最適化,テストする単独ドメインモデル方式をベースラインにし,他の方式と比較する.従来法としては,\ref{sec-related-work}節で述べた以下の方式を使用する.\begin{itemize}\item\textbf{コーパス結合}:全ドメインのコーパス結合モデルを使用し,各ドメインの開発セットで最適化,テストした場合.\item\textbf{素性空間拡張法(Clark)}:\pagebreak共通空間,ドメイン空間共に,コーパス結合モデルの素性関数を使った素性空間拡張法.\citeA{Clark:SMTAdaptation2012}の設定と同じだが,最適化にはマルチドメインKBMIRAを使用した.\item\textbf{Fill-up法}:ドメイン適応方式にfill-up法\cite{Bisazza:SMTAdaptation2011}を用いた場合.\item\textbf{翻訳モデル混合}:ドメイン適応方式に翻訳モデル混合\cite{sennrich:2012:EACL2012}を用いた場合.Moses付属の\texttt{tmcombine}プログラムで混合した.\item\textbf{コーパスフィルタリング}:\citeA{axelrod-he-gao:2011:EMNLP}が提案した修正Moore-Lewisフィルタリングで,自分以外のドメインのコーパスから対訳文を選択し,ドメインの訓練文に加えた場合.追加文数は,10万文単位に文数を変え,各ドメインの開発セットのBLEUスコアが最高になった文数を採用した\footnote{数十万文単位で追加文数を変えながら開発セットBLEUスコアを測定し,その後,最適文数近傍で10万文単位の調整を行った.}.\end{itemize}提案法は,以下のバリエーションをテストする.\begin{itemize}\item\textbf{提案法(同時最適化)}:提案法のうち,\ref{sec-joint-optimization}節で述べた同時最適化を使用した場合.\item\textbf{提案法(個別最適化)}:提案法のうち,\ref{sec-independent-optimization}節で述べた個別最適化を使用した場合.\item\textbf{提案法($\mathbf{empty}\boldsymbol{=-100}$)}:提案法のempty値を,Mosesと同じ$-100$に設定した場合.なお,最適化は個別最適化を使用したが,同時最適化でも同じ傾向が観察された.\item\textbf{提案法(外ドメイン)}:提案法のうち,共通空間に対応するモデルとして,コーパス結合モデルではなく,内ドメインデータを取り除いた外ドメインコーパス(つまり,内ドメイン以外の3ドメインのコーパス)だけから学習したモデルを使用した場合.これも個別最適化を使用した.\end{itemize}\subsection{翻訳品質}\label{sec-experimental-quality}各方式について,英日翻訳および日英翻訳における自動評価スコアを,それぞれ表\ref{tbl-result-ej},表\ref{tbl-result-je}に示す.なお,表中太字は方式間最高値,(+)は,単独ドメインモデル方式をベースラインとしたとき有意に向上したもの,($-$)は有意に悪化したものを表す($p<0.05$).\begin{table}[t]\caption{方式別の自動評価スコア(英日翻訳)}\label{tbl-result-ej}\input{04table03.txt}\end{table}今回用いたデータは,ドメイン同士の関連性が比較的薄かったため,従来法では,適応によって翻訳品質は軒並み悪化した.たとえば,コーパス結合方式と素性空間拡張法(Clark)は,単独モデルより翻訳品質が低下する傾向が強かった.コーパス結合方式は各ドメインが平均化されたモデルが作成され,素性関数の精度が落ちたためと考えられる.Fill-up法は,コーパス結合方式に比べると翻訳品質は向上する場合が多かったが,単独ドメインモデルより悪化した.翻訳モデル混合は,ドメインによって有意に向上する場合と悪化する場合があり,この実験での有効性は確認できなかった.コーパスフィルタリングは,ASPECの英日翻訳を除き,単独ドメインモデルより有意に向上,または同等品質となった.ASPEC英日翻訳は10万文を加えただけだったが,これが悪影響しており,コーパスフィルタリングは有効だが,最適な追加文数の決定は難しいことを示している.一方,提案法は,同時最適化,個別最適化ともに,すべてのドメインにおいて単独ドメインモデルより向上あるいは同等品質となり,適切に適応できた.同時最適化に比べ,個別最適化の方が,BLEUスコアが高い傾向がある.なお,empty値を$-100$にすると,最適化時にBLEUスコアが振動して,最適化できない場合があった(表中のN/A).また,提案法でも,共通空間に使用するモデルを外ドメインモデルにすると,大部分のケースでは提案法に比べ品質が悪化した.共通空間に使用するモデルは,内ドメインを含むコーパス結合モデルの方が望ましいことを示している.\begin{table}[t]\caption{方式別の自動評価スコア(日英翻訳)}\label{tbl-result-je}\input{04table04.txt}\end{table}まとめると,提案法はドメイン適応方式の中ではほぼ最高品質を確保できた.特に,個別最適化方式のような標準的な対数線形モデルであっても,適切な設定をすれば,最先端方式と同等以上のドメイン適応が実現できることを示している.\subsection{シングルドメイン適応としての効果}\label{sec-size-experiments}ドメイン適応が必要となる場面は,新たなドメインデータの翻訳を行わなければならないにも関わらず,十分な量の訓練文が集まらない場合である.本節では,MED英日翻訳に絞って,訓練コーパスのサイズを変えて翻訳品質を測定する.なお,他のドメインについては変更せず,全訓練文を使用する.表\ref{tbl-quality-among-sizes}は,単独ドメインモデル,コーパス結合,コーパスフィルタリングと提案法(個別最適化)を比較した結果である.表中の(+)は単独ドメインモデルと比較して有意に高く,($-$)は有意に低いことを表す.(\dag)はコーパス結合と比較して有意に高く,({$\uparrow$})はコーパスフィルタリングと比較して有意に高いことを表している($p<0.05$).\begin{table}[t]\caption{訓練コーパスサイズ別BLEUスコア(MEDコーパス,英日翻訳)}\label{tbl-quality-among-sizes}\input{04table05.txt}\end{table}訓練コーパスが1,000文(1~k)しかない場合は,提案法は単独ドメインモデルに比べて非常に高い品質となっているが,コーパス結合とはほぼ同じである.訓練コーパスサイズが増えるにしたがい,全方式ともにBLEUスコアが向上するが,コーパス結合の品質向上は単独ドメインモデルより緩やかで,約10万文(100~k)で単独ドメインモデルの品質が逆転する.提案法は,3,000文(3~k)以上では常に単独ドメインモデル,コーパス結合の品質を上回っており,両者の利点をうまく融合させた方式であることを示している.コーパスフィルタリングは,提案方式とほぼ同様に,3万文(30~k)以上では,単独ドメインモデル,コーパス結合を有意に上回ったが,提案法を有意に上回ることはなかった.\ref{sec-experimental-quality}節でも述べたように,コーパスフィルタリングは,最適な追加文数の決定が難しい.実際,この実験では,10万文単位での最適な追加文数を決定するため,1試行あたり10回以上の訓練,最適化,テストを繰り返した.提案法の訓練回数は,個別最適化の場合,コーパス結合モデルと単独ドメインモデルの2回に固定されており,使いやすさの観点では提案法がコーパスフィルタリングより優れていると考える.ここで,表\ref{tbl-result-ej},\ref{tbl-result-je}に戻る.表\ref{tbl-result-ej},\ref{tbl-result-je}では,MEDコーパスにおける提案法(同時最適化,個別最適化)の翻訳品質が英日,日英ともに向上した.この理由は,MEDコーパスが約22万文と,他のコーパスに比べて小規模で,翻訳品質向上の余地を残していたためと推測できる.一方,MED以外のドメインは,100万文規模の大規模コーパスから学習しているため,必ずしも翻訳品質が向上するわけではない.しかし,特筆したいのは,大規模コーパスに提案方式を適用しても,翻訳品質が下がることがなく,データによっては向上する場合もあるという点である.その点で,提案方式はコーパスサイズに対して非常にロバストな方式といえる.\subsection{未知語}本稿の提案方式の特徴は,コーパス結合モデルと単独ドメインモデルの利点を融合させたものとまとめられる.本節では各モデルの未知語の観点から分析する.本稿では,\citeA{Irvine:MTErrors2013}に準じて,未知語を原言語未知と目的言語未知に分けて考える\footnote{原言語未知は,\citeA{Irvine:MTErrors2013}のSEENエラー,目的言語未知はSENSEエラーに相当する.}.原言語未知は入力の単語あるいはフレーズがフレーズテーブルに存在しない場合である,目的言語未知は,原言語のフレーズは存在するが,目的言語の単語あるいはフレーズが存在しないために,参照訳が生成できない場合である.これは,強制デコーディング\cite{yu-EtAl:2013:EMNLP}を行い,参照訳が生成できるかどうかで判定できる.英日翻訳におけるドメイン毎の未知語率を表\ref{tbl-unk-rate}に示す.これは,5回の最適化のうちの1試行を取り出した結果である.ドメイン毎に割合の差はあるが,単独ドメインモデルに比べ,コーパス結合は原言語未知,目的言語未知ともに減少する.たとえば,MEDコーパスでは,原言語未知は9.1\%$\rightarrow$0.9\%,目的言語未知は38.5\%$\rightarrow$16.1\%と減少し,他のドメインの単語が利用可能になっている.しかし,最終的な翻訳品質は単独ドメインモデルの方がよかったことを考えると,未知語の減少が直接品質向上に寄与したわけではない.最適化が重要であることがわかる.\begin{table}[t]\caption{未知語を含む文の割合(英日翻訳)}\label{tbl-unk-rate}\input{04table06.txt}\end{table}提案法は,NTCIRを除き,さらに未知語が減少した.提案法はコーパス結合モデルと単独ドメインモデルのフレーズテーブルをOR検索している.2つのフレーズテーブルは,重複する訓練コーパスを使用しているにも関わらず,訓練によって得られるフレーズは異なるため,結果的にカバレッジが向上したものと考えられる.\begin{table}[p]\caption{翻訳の変化例(MEDドメイン,英日翻訳,テストセット)}\label{tbl-trans-examples}\input{04table07.txt}\end{table}\subsection{ドメイン適応による翻訳の変化例}統計翻訳のモデルを変更した場合,翻訳文の変化を適切に分類するのは非常に難しい.本提案のドメイン適応に関しても,正確な分類は困難だと判断したが,翻訳品質が向上している場合,典型的には以下の3パターンが観察された.ここでは表\ref{tbl-trans-examples}に示す翻訳例を参照しながら説明する.この例はMEDドメインの英日翻訳から抜き出したものである.\begin{itemize}\item単語の翻訳がドメイン依存訳に変化したものがある.例1の``firstvisit''の翻訳に関しては,コーパス結合では「初めて」と一般的な訳になっているが,単独ドメインモデルと提案法では,「初診」となり,病院における対話に適応した訳となっている.同様に,例2では``openinghours''の訳が「診療時間」と翻訳されている.\item例3,4のように,コーパス結合では常体の翻訳文になっているが,単独ドメインモデル,提案法では敬体の翻訳文となっている.コーパス結合モデルでは,特許や論文のコーパスを用いているため,常体が多数派を占めているためだと考えられる.提案法は,コーパス結合モデルを併用しているにも関わらず,MEDの単独ドメインモデルを適切に利用して,敬体の翻訳文を生成した.これも一種のドメイン依存訳であると考えられる.\item例5,6では,単独ドメインモデルでは原言語未知になる単語があった(starvation,\linebreakSangenjaya,Shimokitazawa)が,コーパス結合,提案法ではこれが解消されている.\end{itemize}
\section{まとめ}
\label{sec-conclusion}本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案した.本稿の方式は,カバレッジが広い(未知語が少ない)コーパス結合モデルと,素性関数の精度がよい単独ドメインモデルを併用し,機械学習分野のドメイン適応方法である,素性空間拡張法の考え方を利用して両者を結合した.また,empty値をチューニング対象に追加した.実験では同時最適化を行った場合,個別最適化を行った場合ともに,単独ドメインモデルに比べ,翻訳品質が向上または同等を保持した.提案法は,当該ドメインの訓練コーパスが小規模である場合に高い効果を持ち,100万文規模の大規模コーパスを持つドメインへの適応に使用しても,翻訳品質を下げることなく,ドメインによっては品質向上の効果がある.基本的な対数線形モデルでも,モデルの選択とチューニングを慎重に行うことで,最先端方式と同等以上の適応方式になることを示した.提案方式は,対数線形モデルに基づく統計翻訳にはすべて適用可能であるので,木構造変換のような翻訳方式でも効果を確認したいと考えている.ただし,木構造変換の翻訳方式は,構文解析を利用しているため,翻訳品質は構文解析自身の精度にも影響を受ける.本稿で用いた事前並び替えも,構文解析を利用している.構文解析などの翻訳に使われているコンポーネントについては,別途ドメイン適応させる必要がある(森下,赤部,波多腰,Neubig,吉野,中村2016)が,本稿の提案方式は,コンポーネントの適応とは独立に併用可能である.\nocite{Morishita:ParsingAdaptation2016j}\acknowledgment本研究は総務省の情報通信技術の研究開発「グローバルコミュニケーション計画の推進—多言語音声翻訳技術の研究開発及び社会実証—I.多言語音声翻訳技術の研究開発」の一環として行われました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Axelrod,He,\BBA\Gao}{Axelrodet~al.}{2011}]{axelrod-he-gao:2011:EMNLP}Axelrod,A.,He,X.,\BBA\Gao,J.\BBOP2011\BBCP.\newblock\BBOQDomainAdaptationviaPseudoIn-DomainDataSelection.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\355--362},Edinburgh,Scotland,UK.\bibitem[\protect\BCAY{Birch,Osborne,\BBA\Koehn}{Birchet~al.}{2007}]{Birch:MultipathDecoding2007}Birch,A.,Osborne,M.,\BBA\Koehn,P.\BBOP2007\BBCP.\newblock\BBOQCCGSupertagsinFactoredStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\9--16},Prague,CzechRepublic.\bibitem[\protect\BCAY{Bisazza,Ruiz,\BBA\Federico}{Bisazzaet~al.}{2011}]{Bisazza:SMTAdaptation2011}Bisazza,A.,Ruiz,N.,\BBA\Federico,M.\BBOP2011\BBCP.\newblock\BBOQFill-upversusInterpolationMethodsforPhrase-basedSMTAdaptation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT)},SanFrancisco,California,USA.\bibitem[\protect\BCAY{Cherry\BBA\Foster}{Cherry\BBA\Foster}{2012}]{cherry-foster:2012:NAACL-HLT}Cherry,C.\BBACOMMA\\BBA\Foster,G.\BBOP2012\BBCP.\newblock\BBOQBatchTuningStrategiesforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\427--436},Montr{\'{e}}al,Canada.\bibitem[\protect\BCAY{Clark,Dyer,Lavie,\BBA\Smith}{Clarket~al.}{2011}]{clark-EtAl:2011:ACL-HLT2011}Clark,J.~H.,Dyer,C.,Lavie,A.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQBetterHypothesisTestingforStatisticalMachineTranslation:ControllingforOptimizerInstability.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\176--181},Portland,Oregon,USA.\bibitem[\protect\BCAY{Clark,Lavie,\BBA\Dyer}{Clarket~al.}{2012}]{Clark:SMTAdaptation2012}Clark,J.~H.,Lavie,A.,\BBA\Dyer,C.\BBOP2012\BBCP.\newblock\BBOQOneSystem,ManyDomains:Open-DomainStatisticalMachineTranslationviaFeatureAugmentation.\BBCQ\\newblockIn{\BemProceedingsofthe10thbiennialconferenceoftheAssociationforMachineTranslationintheAmericas(AMTA2012)},SanDiago,California,USA.\bibitem[\protect\BCAY{Daum{\'{e}}}{Daum{\'{e}}}{2007}]{daumeiii:2007:ACLMain}Daum{\'{e}},III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\256--263},Prague,CzechRepublic.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2014}]{denkowski:lavie:meteor-wmt:2014}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2014\BBCP.\newblock\BBOQMeteorUniversal:LanguageSpecificTranslationEvaluationforAnyTargetLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\376--380},Baltimore,Maryland,USA.\bibitem[\protect\BCAY{Finch\BBA\Sumita}{Finch\BBA\Sumita}{2008}]{finch-sumita:2008:WMT}Finch,A.\BBACOMMA\\BBA\Sumita,E.\BBOP2008\BBCP.\newblock\BBOQDynamicModelInterpolationforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\208--215},Columbus,Ohio,USA.\bibitem[\protect\BCAY{Foster,Goutte,\BBA\Kuhn}{Fosteret~al.}{2010}]{foster-goutte-kuhn:2010:EMNLP}Foster,G.,Goutte,C.,\BBA\Kuhn,R.\BBOP2010\BBCP.\newblock\BBOQDiscriminativeInstanceWeightingforDomainAdaptationinStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\451--459},Cambridge,Massachusetts,USA.\bibitem[\protect\BCAY{Foster\BBA\Kuhn}{Foster\BBA\Kuhn}{2007}]{foster-kuhn:2007:WMT}Foster,G.\BBACOMMA\\BBA\Kuhn,R.\BBOP2007\BBCP.\newblock\BBOQMixture-ModelAdaptationforSMT.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\128--135},Prague,CzechRepublic.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,\BBA\Kurohashi}{Gotoet~al.}{2015}]{Goto:2015:PUT:2791399.2699925}Goto,I.,Utiyama,M.,Sumita,E.,\BBA\Kurohashi,S.\BBOP2015\BBCP.\newblock\BBOQPreorderingUsingaTarget-LanguageParserviaCross-LanguageSyntacticProjectionforStatisticalMachineTranslation.\BBCQ\\newblock{\BemACMTransactionsonAsianandLow-ResourceLanguageInformationProcessing},{\Bbf14}(3),\mbox{\BPGS\13:1--13:23}.\bibitem[\protect\BCAY{Heafield,Pouzyrevsky,Clark,\BBA\Koehn}{Heafieldet~al.}{2013}]{heafield-EtAl:2013:Short}Heafield,K.,Pouzyrevsky,I.,Clark,J.~H.,\BBA\Koehn,P.\BBOP2013\BBCP.\newblock\BBOQScalableModifiedKneser-NeyLanguageModelEstimation.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\690--696},Sofia,Bulgaria.\bibitem[\protect\BCAY{Hopkins\BBA\May}{Hopkins\BBA\May}{2011}]{hopkins-may:2011:EMNLP}Hopkins,M.\BBACOMMA\\BBA\May,J.\BBOP2011\BBCP.\newblock\BBOQTuningasRanking.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1352--1362},Edinburgh,Scotland,UK.\bibitem[\protect\BCAY{Irvine,Morgan,Carpuat,Daum{\'{e}},\BBA\Munteanu}{Irvineet~al.}{2013}]{Irvine:MTErrors2013}Irvine,A.,Morgan,J.,Carpuat,M.,Daum{\'{e}},III,H.,\BBA\Munteanu,D.\BBOP2013\BBCP.\newblock\BBOQMeasuringMachineTranslationErrorsinNewDomains.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf1},\mbox{\BPGS\429--440}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{D10-1092}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\944--952},Cambridge,Massachusetts,USA.\bibitem[\protect\BCAY{Jeblee,Feely,Bouamor,Lavie,Habash,\BBA\Oflazer}{Jebleeet~al.}{2014}]{jeblee-EtAl:2014:ANLP20142}Jeblee,S.,Feely,W.,Bouamor,H.,Lavie,A.,Habash,N.,\BBA\Oflazer,K.\BBOP2014\BBCP.\newblock\BBOQDomainandDialectAdaptationforMachineTranslationintoEgyptianArabic.\BBCQ\\newblockIn{\BemProceedingsoftheEMNLP2014WorkshoponArabicNaturalLanguageProcessing(ANLP)},\mbox{\BPGS\196--206},Doha,Qatar.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-EtAl:2007:PosterDemo}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180},Prague,CzechRepublic.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-och-marcu:2003:HLTNAACL}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemHLT-NAACL2003:MainProceedings},\mbox{\BPGS\127--133},Edmonton,Alberta,Canada.\bibitem[\protect\BCAY{Koehn\BBA\Schroeder}{Koehn\BBA\Schroeder}{2007}]{Koehn:DomainAdaptation2007}Koehn,P.\BBACOMMA\\BBA\Schroeder,J.\BBOP2007\BBCP.\newblock\BBOQExperimentsinDomainAdaptationforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\224--227},Prague,CzechRepublic.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo-yamamoto-matsumoto:2004:EMNLP}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofEMNLP2004},\mbox{\BPGS\230--237},Barcelona,Spain.\bibitem[\protect\BCAY{Matsoukas,Rosti,\BBA\Zhang}{Matsoukaset~al.}{2009}]{matsoukas-rosti-zhang:2009:EMNLP}Matsoukas,S.,Rosti,A.-V.~I.,\BBA\Zhang,B.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeCorpusWeightEstimationforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\708--717},Singapore.\bibitem[\protect\BCAY{森下\JBA赤部\JBA波多腰\JBAG.\JBA吉野\JBA中村}{森下\Jetal}{2016}]{Morishita:ParsingAdaptation2016j}森下睦\JBA赤部晃一\JBA波多腰優斗\JBAG.Neubig\JBA吉野幸一郎\JBA中村哲\BBOP2016\BBCP.\newblock統語ベース翻訳のための構文解析器の自己学習.\\newblock\Jem{自然言語処理},{\Bbf23}(4),\mbox{\BPGS\353--376}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,\protect\mbox{Kurohashi},\BBA\\mbox{Isahara}}{Nakazawaet~al.}{2016}]{Nakazawa:ASPEC2016}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,\protect\mbox{Kurohashi},S.,\BBA\\mbox{Isahara},H.\BBOP2016\BBCP.\newblock\BBOQASEPC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10th\mbox{Edition}oftheLanguageResourcesandEvaluationConference(LREC-2016)},Portoroz,Slovenia.\bibitem[\protect\BCAY{Och}{Och}{2003}]{Och:2003:ACL}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\160--167},Sapporo,Japan.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\311--318},Philadelphia,Pennsylvania,USA.\bibitem[\protect\BCAY{Sennrich}{Sennrich}{2012}]{sennrich:2012:EACL2012}Sennrich,R.\BBOP2012\BBCP.\newblock\BBOQPerplexityMinimizationforTranslationModelDomainAdaptationinStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\539--549},Avignon,France.\bibitem[\protect\BCAY{Sennrich,Schwenk,\BBA\Aransa}{Sennrichet~al.}{2013}]{sennrich-schwenk-aransa:2013:ACL2013}Sennrich,R.,Schwenk,H.,\BBA\Aransa,W.\BBOP2013\BBCP.\newblock\BBOQAMulti-DomainTranslationModelFrameworkforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\832--840},Sofia,Bulgaria.\bibitem[\protect\BCAY{Snover,Dorr,Schwartz,Micciulla,\BBA\Makhoul}{Snoveret~al.}{2006}]{Snover:TER2006}Snover,M.,Dorr,B.,Schwartz,R.,Micciulla,L.,\BBA\Makhoul,J.\BBOP2006\BBCP.\newblock\BBOQAStudyofTranslationEditRatewithTargetedHumanAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe7thBiennialConferenceoftheAssociationforMachineTranslationintheAmericas(AMTA-2006)},\mbox{\BPGS\223--231},Cambridge,Massachusetts,USA.\bibitem[\protect\BCAY{Yu,Huang,Mi,\BBA\Zhao}{Yuet~al.}{2013}]{yu-EtAl:2013:EMNLP}Yu,H.,Huang,L.,Mi,H.,\BBA\Zhao,K.\BBOP2013\BBCP.\newblock\BBOQMax-ViolationPerceptronandForcedDecodingforScalableMTTraining.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1112--1123},Seattle,Washington,USA.\end{thebibliography}\begin{biography}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年〜2014年日本電信電話株式会社.1995年〜1998年NTTソフトウェア株式会社.2000年〜2006年ATR音声言語コミュニケーション研究所.2014年より(株)ATR-Trek所属として,国立研究開発法人情報通信研究機構(NICT)へ出向.現在NICT先進的音声翻訳研究開発推進センター主任研究員.主として自然言語処理技術の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ACL各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年(株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員.主幹研究員.室長.2007年〜現在国立研究開発法人情報通信研究機構(NICT)先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\end{biography}\biodate\end{document}
| |
V20N03-01
|
\section{はじめに}
2011年3月11日14時46分に三陸沖を震源としたマグニチュード9.0の東北地方太平洋沖地震(東日本大震災)が発生した.震源域は岩手県沖から茨城県沖までの南北約500~km,東西約200~kmという広範囲に及び,東北地方を中心に約19,000人にのぼる死者・行方不明者が発生しただけでなく,地震・津波・原発事故等の複合的大規模災害が発生し,人々の生活に大きな影響が与えた.首都圏では最大震度5強の揺れに見舞われ,様々な交通障害が発生した.都区内では自動車交通の渋滞が激しく,大規模なグリッドロック現象が発生して道路ネットワークが麻痺したことが指摘されている.また,鉄道は一定規模以上の地震動に見舞われると線路や鉄道構造物の点検のため,運行を一時中止することになっており,そのため震災発生後は首都圏全体で鉄道網が麻痺し,鉄道利用者の多数が帰宅困難者となった.(首都直下型地震帰宅困難者等対策協議会2012)によると,これらの交通網の麻痺により当日中に帰宅できなかった人は,当時の外出者の30%にあたる約515万人と推計されている.国土交通省鉄道局による(大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会2012)によると,震災当日から翌日にかけての鉄道の運行再開状況は鉄道事業者ごとに大きく異なった.JR東日本は安全確認の必要性から翌日まで運行中止を早々と宣言し,東京メトロと私鉄は安全点検を順次実施した後に安全確認が取れた路線から運転を再開するという方針を採用した.最も早く再開したのは20時40分に再開した東京メトロ半蔵門線(九段下・押上間),銀座線(浅草・渋谷間)である.また,西武鉄道,京王電鉄,小田急電鉄,東京急行電鉄,相模鉄道,東急メトロなどは終夜運行を実施した.運転再開後の新たな問題の例として,東京メトロ銀座線が渋谷駅ホーム混雑のため21:43〜22:50,23:57〜0:44に運転見合わせを,千代田線が北千住駅ホーム混雑のため0:12〜0:35まで運転見合わせを行っている.このように震災当日は鉄道運行再開の不確実性や鉄道事業者間での運行再開タイミングのずれによって多数の帰宅困難者が発生し,鉄道再開後も鉄道利用者の特定時間帯に対する過度の集中によって,運転見合わせが起こるなど,平常時に比べて帰宅所要時間が大きくなり,更なる帰宅困難者が発生したといえる.首都圏における帰宅困難者問題は予め想定された事態ではあったが,今回の東日本大震災に伴い発生したこの帰宅困難者問題は現実に起こった初めての事態であり,この実態を把握することは今後の災害対策のために非常に重要と考えられている.今回の帰宅困難者問題に対しても事後的にアンケート調査(たとえば(サーベイリサーチセンター2011)や(遊橋2012)など)が行われているものの,震災当日の外出者の帰宅意思決定がどのようになされたのかは未だ明らかにされていない.また,大きな混乱の中での帰宅行動であったため,振り返ることで意識が変化している問題や詳細な時刻・位置情報が不明であるといった問題が存在する.災害時の人々の実行動を調査する手法として上記のようなアンケートとは別に,人々が発するログデータを用いた災害時のデータ取得・解析の研究として,Bengtssonらの研究(Bengtssonetal.2011)やLuらの研究(Luetal.2012)がある.これらは2010年のハイチ地震における携帯電話のデータをもとに,人々の行動を推計するものであり,このようなリアルタイムの把握またはログデータの解析は災害時の現象把握に役立つ非常に重要な研究・分析対象となる.本研究では東日本大震災時における人々の行動ログデータとして,マイクロブログサイトであるTwitterのツイートを利用して分析を行う.Twitterのツイートデータは上記の携帯電話の位置情報ログデータやGPSの位置情報ログデータと異なり,必ずしも直接的に実行動が観測できるわけではないという特性がある.一方で,位置座標ログデータとは異なり,各時点における人々の思考や行動要因がそのツイートの中に含まれている可能性が存在する.そのため,本研究では東日本大震災時における首都圏の帰宅困難行動を対象に,その帰宅行動の把握と帰宅意思決定行動の影響要因を明らかにすることを目的とする.本稿の構成は以下の通りである.まず,2節では大規模テキストデータであるTwitterのツイートデータから行動データを作成する.ユーザーごとのツイートの特徴量を用いて,小規模な教師データから学習させた機械学習手法サポートベクターマシン(SupportVectorMachine;SVM)により,当日の帰宅行動結果を作成する.次に,3節では各ユーザーのジオタグ(ツイートに付与された緯度経度情報)から出発地・到着地間の距離や所要時間などの交通行動データを作成する.同時に,帰宅意思決定の影響要因をツイート内から抽出し,心理要因や制約条件を明らかにする.4節では2,3節で作成した行動データをもとに意思決定を表現する離散選択モデルの構築・推定を行い,各ユーザーの意思決定に影響を与えた要素を定量的に把握する.5節では仮想的な状況設定において感度分析シミュレーションを行い,災害時の望ましいオペレーションのあり方について考察を行う.
\section{TweetData$\rightarrow$BehavioralData}
\subsection{本研究の分析方針}本節ではツイートデータとそれに付随したジオタグデータから利用者の実行動データを作成する分析フレームワークについて述べる.図\ref{fig:frame}に示すように,本研究の分析フレームは(1)ツイートから行動を予測するパート,(2)言語的・非言語的説明要因を生成するパート,(3)生成された説明要因から行動結果を説明するモデルを構築するパートの$3$つに分けることができる.(1)ではツイートデータからはその行動結果を伝える発言のBagofWords(BoW)表現を特徴量化することで,機械学習的手法を用いてユーザー別の行動結果の推測を行う.(2)ではラベル化された行動結果,ここではそれを意思決定における選択肢集合と呼ぶが,その選択肢集合ごとの説明要因をジオタグデータやツイートデータから作成する.ジオタグから作成される説明要因は距離,徒歩による所要時間や鉄道による所要時間,運賃などである.また,ツイートデータから作成される説明要因は家族に対する心配や鉄道運行再開情報,自身の不安感といった外的・内的要因である.(3)では,これらの説明要因をもとに,各ユーザーの行動結果を説明する意思決定モデルを構築する.\begin{figure}[t]\begin{center}\includegraphics{20-3ia1f1.eps}\end{center}\caption{本研究の分析フレーム}\label{fig:frame}\end{figure}ここで,(1)パートと(3)パートの違いを確認しておこう.(1)では「歩いて帰ったので疲れた」「電車が動かないので会社に泊まることにした」といったツイートをそれぞれ「徒歩帰宅」「宿泊」とラベル化する処理であるのに対し,(3)では「徒歩帰宅」したのは「自宅と外出先の距離がそれほど遠くなかったから(距離的要因)」なのか「家族の様子が心配だったから(心理的要因)」なのかを定量的に明らかにする分析である.そのため,(3)で構築するモデルの説明変数(特徴量)は解釈のしやすい説明変数を選択しており,またその結果として,簡易的な感度分析としてのシミュレーションを行うことが可能である.\subsection{データ概要とサンプリング}本研究で用いるデータはTwitterJapan株式会社によって提供された東日本大震災発生時より1週間の日本語ツイートデータ(約1億8000万ツイート)である.このうち,ユーザーによってジオタグが付与されたツイートは約28万件である.その中で2011年3月11日14:00から2011年3月12日10:00までの日時にGPS座標が首都圏に含まれ,またbotを除くために利用者が20人以上のTwitterクライアント(Twitterに投稿するためのクライアントソフトウェア)からpostされたツイートデータを24,737件抽出した.この24,737ツイートのユニークなユーザー数(アカウント数)は5,281人であり,そのうち上記期間中に2つ以上ジオタグが付与されたツイートを行ったユーザー数は3,307人である.この3,307人のユーザーは震災当日から翌日にかけて首都圏における震災当日の自身の帰宅行動に関してつぶやいており,また2つ以上のジオタグによって勤務地・自宅間の近似的距離が得られる可能性が高いと考えられる.そこで,前後の文脈も参考にするために,これらのアカウントのツイートのうち,2011年3月11日12:00から2011年3月12日12:00までの24時間のツイートを抽出した.これらの総ツイート数は132,989ツイートであり,一人あたり40.2ツイートである.この3,307名,132,989ツイートを本研究で取り扱うデータセットとする.Twitterというソーシャルメディアを利用しているユーザー層と2011年3月11日に首都圏に通勤していた人々の間には当然母集団の違いがあり,またこのような方法でサンプリングが行われたデータには一定のバイアスが存在するため,別の調査データと比較することで,本研究のサンプリングデータの偏りについても考察を行う.\subsection{帰宅行動ラベリング}高々3,307名のツイートとはいえ,それらの内容を読み,人手で行動結果をラベリングすることは容易ではない.本研究では2つ以上ジオタグが付与されたユーザーのみを対象としているが,震災当日の全ツイートを対象に,ラベリングを行うとなると非常に大きな人的資源が必要となるだろう.そこで,本研究ではサポートベクターマシンを用いてラベリングを行い,当日の行動結果を推測することとする.そのための教師データ作成プロセスとして,本データセットの中からランダムに抽出した300名の3月11日,3月12日のツイートを時間軸に沿って読むことで,人手で帰宅行動結果のラベリングを行う.ラベルとしてはこの300名の結果に表れた「徒歩のみで帰宅」「鉄道を利用して帰宅」「会社等に宿泊」「その他(自動車,自転車,バイク,バス,タクシーなど)」「不明」の5種類に分類した.今後はこれらを1)徒歩,2)鉄道,3)宿泊,4)その他,5)不明と名付ける.それぞれの割合は徒歩が120名,鉄道が56名,宿泊が54名,その他が10名,不明が60名である.\subsection{形態素解析と情報利得}次に,教師データ300名を含む3,307名の2011年3月11日12:00から2011年3月12日12:00までのツイートのうち,リツイート(RT)したツイートを除く全てのツイートの形態素解析を行った.形態素解析にはMeCabを用いた.リツイート(RT)とはTwitterにおいて自分以外の他者の発言を引用する行為であり,そのユーザー個人の行動を反映しないと考えたため,上記のような処理を行っている.また,形態素解析された形態素のうち,ストップワードとなりうる助詞,記号,Twitterアカウント名,MeCabによって記号と認識されなかった記号(たとえば@)を除いた.形態素解析を用いた結果,データセットから70,364のユニークな単語が得られた.これらの形態素のうち,頻度100以上となったものは1,368,頻度50以上は2,412,頻度25以上は4,109,頻度10以上は8,244存在した.頻度が上位100位となった形態素を一例として表\ref{tab:word_list01}に示す.これらの形態素は東日本大震災当日,翌日の状況を表しうる形態素も含まれているが,単純に頻度の多い形態素も多く含まれている.そこで,教師データによる分類クラスを用いて適切な素性選択を行うことを試みる.\begin{table}[b]\caption{頻度上位100位の形態素の例}\label{tab:word_list01}\input{01table01.txt}\end{table}形態素解析によって得られた単語$w$の出現有無の情報がクラスに関するエントロピーの減少度合いを表す指標として情報利得が存在する.単語$w$に対する確率変数$X_w$を考え,対応する単語が出現した場合$X_w=1$,そうでない場合は$X_w=0$とする.クラスを表す確率変数を$C$とすると,エントロピー$H(C)$は\begin{equation}H(C)=-\sum_cP(c)\logP(c)\end{equation}と定義される.このとき,ある単語$w$が出現した場合,出現しなかった場合の条件付きエントロピーは\begin{gather*}H(C|X_w=1)=\sum_cP(c|X_w=1)\logP(c|X_w=1)\\H(C|X_w=0)=\sum_cP(c|X_w=0)\logP(c|X_w=0)\end{gather*}となる.このとき,単語$w$の情報利得$IG(w)$はエントロピーの平均的な減少量として次のように定義される.\begin{equation}IG(w)=H(C)-(P(X_w=1)H(C|X_w=1)+P(X_w=0)H(C|X_w=0))\end{equation}5つの分類クラスを用いて,頻度2以上の全て単語の情報利得をそれぞれ算出した.情報利得上位100の単語を,各単語が出現した際の分類クラスの条件付き確率が最も高いクラスごとに整理したものが表\ref{tab:word_list}である.まず,表\ref{tab:word_list01}と比べて当日の帰宅行動に関する単語が多く含まれていることが観測される.例えば,表\ref{tab:word_list}の中で1)徒歩帰宅の条件付き確率が高い単語として,現在の位置を伝える「半分」「遠い」「km」「川崎」「環」「七」や徒歩帰宅時の問題を伝える「トイレ」「ヤバイ」「疲れ」などを挙げることができる.2)鉄道帰宅に関しては「入場」のような鉄道帰宅固有の単語のみならず「なんとか」「奇跡」といった鉄道運行再開によって,帰宅できたことを示す単語が含まれる.3)宿泊の条件付き確率が高い単語には「朝」「明け」「明るく」などの会社などで一晩を過ごしたことを伝える単語,「次第」「目処」「始発」「悩む」など帰宅タイミングを示す単語が含まれている.また,翌日鉄道で帰宅した影響や待機・宿泊場所で様々なメディアから情報を入手したためか「ホーム」「運行」「混雑」「改札」「乗車」「駅員」などの鉄道に関連する単語が多く含まれていることも特徴である.\begin{table}[t]\caption{情報利得上位100位の形態素の例}\label{tab:word_list}\input{01table02.txt}\end{table}次に,興味深い結果として,個別の鉄道路線に関しては3月11日当日に運行が再開されなかった「JR」「総武線」「京浜東北」線は3)宿泊の選択者が相対的によく発言しており,当日運行を再開した「大江戸」線や「田園都市線」「京王」線は2)鉄道利用者が相対的に発言しやすいことが示された.この傾向は震災時に人々は自身の帰宅鉄道ルートについて発言しやすいことを表しており,これらの単語の出現有無は当日の帰宅行動を表す重要な単語であるといえよう.このように,情報利得の高い単語は当日の帰宅行動のラベリングに有用であると考えられるため,これらを素性として分類器を構成する.\subsection{SVM概要}サポートベクターマシン(SVM)の概要を示す.素性ベクトル$\boldsymbol{x_t}$の次元が$n$であるとすると,1つの素性ベクトルは$n$次元空間中の点として表すことができる.正・負のラベル$y_t$に対して,正例と負例はすべてこの$n$次元空間に配置したとする.このとき,正例と負例を分ける2クラス分類問題は正例と負例を分離する超平面$\boldsymbol{w}\cdot\boldsymbol{x}+b$,$(\boldsymbol{w},\\boldsymbol{x}\in\boldsymbol{R}^n)$を決める問題に帰着できる.SVMはノイズを許容しつつ,超平面に最も近い正例と負例との間のマージンを最大化するような分離平面を求めるアルゴリズムである.マージン最大化は式(\ref{eq:svm01})を式(\ref{eq:svm02})の条件で最大化する双対問題と等価であることが知られている.\begin{gather}\sum_{i=1}^{l}\alpha_i-\frac{1}{2}\sum_{i,j}^{l}y_iy_j\alpha_i\alpha_jK(\boldsymbol{x_i},\boldsymbol{x_j})\label{eq:svm01}\\\text{subjectto}\nonumber\\\sum_{i=1}^{l}y_i\alpha_i=0\\\\\\\\\0\leq\alpha_i\label{eq:svm02}\end{gather}また,カーネル関数$K(\boldsymbol{x_1},\boldsymbol{x_2})$により,入力されたデータを高次元の素性空間(featurespace)に写像し,素性空間において超平面を求めることにより,入力空間においては非線形となる分離も可能である.本論文では線形カーネルを用いた.以上のようにして得られた超平面を用いて,分類器が構成される.新たに与えられた素性ベクトルに対して,超平面の正例側をプラス,負例側をマイナスとし,超平面からの距離を正規化した値を計算することにより,分類器は与えられたデータが正,負の2クラスのどちら側に属するかを判定する.SVMは正例・負例を分類する二値分類器であるが,本研究のように3つ以上のクラスに分類する多値分類が必要な場合が存在する.その場合は多値分類に拡張するための代表的手法として,oneclassvsallother法やpairwise法がある.本論文ではpairwise法を用いた.\subsection{当日の帰宅行動の予測}前述の人手でラベリングされた$300$件のデータを教師データとして学習する.表\ref{tab:word_list}に一部示した頻度2以上の情報利得の上位500の単語を用いて,各ユーザーのツイート内のこれらの単語の出現有無をベクトル表現(BoW表現)し,それらをSVMの素性に用いている.学習ではデータを9分割交差検定(9-foldcrossvalidation)とパラメータチューニングを行った.得られたモデルの全教師データに対する正解率は$100\%$,交差検定で得られた平均正解率は$73.3\%$であった.SVMにて帰宅行動結果をラベリングされた結果を以下に示す.$3,307$名のうち,1)徒歩での帰宅者は$1,913$名,2)鉄道での帰宅者は$359$名,3)宿泊した人は$385$名,4)その他の交通手段での帰宅者が$15$名,5)不明が$635$名と予測された.この結果は不明を除く全体の$84.9\%$(徒歩$71.5\%$,鉄道$13.4\%$,その他$0.005\%$)が帰宅行動を行ったことを示している.本研究の推測結果を考察するために,図\ref{fig:svm_result}にて別主体による震災当日の帰宅行動調査結果との比較を行う.サーベイリサーチセンター(SRC)によって行われた調査(SRC2011)は2011年4月に実施された調査,遊橋による調査「東日本大震災における通信メディアと情報行動に関する定量調査」やその報告(遊橋2012)は2011年11月に実施された調査である.(SRC2011)では$2,026$名へのアンケートから,全体の$80.1\%$が当日自宅に帰ることができたという結果を得ており,(遊橋2012)も$78.6\%$が帰宅成功しているという同様の結果を得ている.それに対し,本研究での推測では$84.9\%$と5,6\%高い帰宅成功率という結果となった.\begin{figure}[t]\begin{center}\includegraphics{20-3ia1f2.eps}\end{center}\caption{本研究による予測と別調査結果の比較}\label{fig:svm_result}\vspace{-0.5\Cvs}\end{figure}これらの調査では帰宅時の交通手段について尋ねていない点とTwitterでは各ユーザーの個人属性が明らかではない点から,帰宅者の割合が多いデータの偏り要因をはっきりと明らかにすることはできない.しかし,SRCの調査では都県$\times$性年代の均等割付を行い調査を行っている点,遊橋の調査では2005年時の国勢調査に基づき人口割合を鑑みてサンプリングを行っている点を考えると,本研究で利用したTwitterデータではユーザー層が比較的若年層に偏り,また都市部での利用割合が相対的に高いと考えられるため,Twitterユーザー層特有のサンプリングバイアスであると考えられる.
\section{帰宅行動要因の分析}
\subsection{非言語的説明要因の生成}2節で得られたユーザー別帰宅意思決定の予測をもとに,非言語的・言語的説明要因をツイートデータやジオタグデータから作成し,各個人の帰宅意思決定の要因を分析する.まず,ユーザー別ジオタグデータを用いて,交通行動に関する説明要因を作成する.本研究では簡単のために発災時以降の時刻が最も早い位置座標を勤務地(出発地)位置座標,2011年3月12日12:00以前の時刻が最も遅い位置座標を自宅(到着地)位置座標と設定した.次にこれらの位置座標を用いて,道路ネットワーク距離,徒歩所要時間,勤務地最近隣駅,自宅最近隣駅,鉄道所要時間,鉄道費用,鉄道乗り換え回数を作成する.これらはすべて平常時のネットワークを用いて作成したデータである.人々の帰宅行動の空間的広がりを表現するために,図\ref{fig:locationmap}によって勤務地最近隣駅,自宅最近隣駅のそれぞれ上位30ヶ所を図示する.勤務地最近隣駅の空間的分布を見る限り,首都圏におけるオフィスが集中したエリアであることがわかるが,自宅最近隣駅の空間分布が必ずしも住宅地になっておらず,ターミナル駅が多く含まれている.ジオタグ付きツイートの傾向として,Twitterユーザーはプライバシーの問題から自宅位置のジオタグを付与することはあまり見られず,「最寄り駅に着いた」「川崎までやってきた」「ここでやっと半分」のように自分の移動軌跡の目印となる点でつぶやくことが多い.そのため,この結果はこれらはジオタグ付きツイートが自宅付近でされたのではなく,ターミナル駅や乗換で行われたことを示唆しているといえよう.しかし,全体的な傾向として,勤務地分布と自宅分布は空間的に異なる分布をしており,帰宅方向(郊外方向)へ分散していることが示された.\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f3.eps}\end{center}\caption{勤務地最近隣駅(左)・自宅最近隣駅(右)の空間的分布}\label{fig:locationmap}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f4.eps}\end{center}\caption{勤務地・自宅間距離別帰宅意思決定}\label{fig:distance_cross}\end{figure}次に,作成した勤務地・自宅間の道路ネットワーク距離による帰宅意思決定のクロス集計結果を図\ref{fig:distance_cross}に示す.この結果は自宅との距離が長くなるにつれて相対的に徒歩の割合が減少するが,$20$km以上離れていても$50\%$以上の人々が徒歩を選択したことを示している.また,鉄道の割合は10〜20~kmの人々が最も高く,それ以上の距離になると,鉄道運行停止の影響を受け,宿泊を選択する割合が高くなっていることが示された.先ほどと同様,上記の距離は必ずしも勤務地・自宅間の距離を示す値ではないが,自宅までの経路の移動途中結果を示す近似的距離であり,このネットワーク距離は帰宅意思決定行動の重要な要因である.\subsection{言語的説明要因の生成}最後に,言語的説明要因の生成を行う.前節では職場と自宅間の物理的距離が帰宅意思決定の要因であることを示したが,その他にも家族の存在や情報の有無が帰宅意思決定に影響を与えていると推測される.そこで,各ユーザーの発言から帰宅意思決定行動に影響を与える要因を抽出する.しかし,意思決定結果によって発言内容にはセルフセレクション・バイアスが生じる可能性があるため,各意思決定結果ごとの傾向をまず示す.帰宅意思決定ごとのRTを除く平均ツイート数は1)徒歩が22.6件,2)鉄道が51.8件,3)その他が80.2件,4)宿泊が61.4件,5)不明が24.1件である.サンプル数の少ないその他や不明を除くと,宿泊・鉄道選択者は徒歩選択者に比べて2.3倍から2.7倍のツイート数がある.これは職場や駅等での待機中にTwitterで発言していたためと考えられ,直感に合う結果である.しかし,発言数が多いことによって相対的に影響要因と考えられる話題のツイートも増加するため,ある話題に対する発言頻度が他の意思決定に比べて多いからといって意思決定要因であると単純に考えることはできない.そこで,全ツイート内での各話題の発言割合を用いて基準化を行い,以降の分析を行う.\begin{table}[b]\caption{影響要因の要素定義}\label{tab:element_list}\input{01table03.txt}\end{table}まず,家族との安否確認が帰宅意思決定に与えた影響について分析を行う.本研究では家族を同居の配偶者および子供と定義した.表\ref{tab:element_list}の単語による抽出を行った上で人手でアノテーションを行った結果,3,307名のうち353名が同居の家族の存在を発言していた.これらの人々の発言の中から「嫁からメール来た。ちょっと安心。」「妻と娘にやっと電話が繋がった。」や「嫁にメールが届かない」「息子の保育園と電話が通じない」といった安否確認,安否未確認のツイートを人手で抽出した.3月12日12時までのツイート内で,安否確認ツイートと安否未確認ツイートの比率は徒歩帰宅者が$62\%,38\%,鉄道帰宅者が59\%,41\%,宿泊者が60\%,40\%$と帰宅行動間でほぼ差がない結果となった.そこで,安否確認・安否未確認ツイートの時間帯の分析を行う.図\ref{fig:FamilyTIme}は徒歩,鉄道,宿泊の意思決定者別の安否確認・安否未確認ツイートの時間帯割合を示している.安否確認ツイートに関しては18時台までに徒歩は$42\%$,鉄道は$45\%$,宿泊は$65\%$が集中している.宿泊者の安否確認の割合が相対的に高いが,徒歩と鉄道では同程度の割合である.一方で,安否未確認ツイートは18時台までに徒歩は$44\%$,鉄道は$50\%$,宿泊は$68\%$であり,安否確認と同様の傾向のように思えるが,「家族と連絡が取れた」という安否確認ツイートと異なり,安否未確認ツイートは安否確認が取れるまでのどの時間帯でも行うことが可能であるため,より各個人の心理的要因が強く反映していると考えることができる.より早い時間帯に発言することがその個人にとってより重要であるという仮定に立つならば,徒歩帰宅者は鉄道帰宅者よりも家族の安否が未確認であることを問題視し,より早い時間帯での帰宅意思決定を行ったと考察される.一方で,最も早く安否未確認ツイートを行っている宿泊選択者は距離や鉄道網が動いていないことによる物理的制約の方がより大きかったと考察される.\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f5.eps}\end{center}\caption{安否確認・未確認ツイートの時間帯分布}\label{fig:FamilyTIme}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f6.eps}\end{center}\caption{鉄道再開情報の発言割合と帰宅意思決定の関係}\label{fig:trainInformation}\end{figure}次に,運行再開情報と帰宅意思決定の関係性を分析する.冒頭にも述べたように,当日の鉄道路線は20時40分以降,五月雨式に再開された.職場で待機・宿泊するか,それとも再開した鉄道を利用して帰宅するかは鉄道再開情報の入手有無に依存する.そこで,表\ref{tab:element_list}の単語を用いて人手でアノテーションを行った鉄道再開関連ツイートの各個人の発言内での割合と帰宅意思決定結果の関係を示したのが図\ref{fig:trainInformation}である.この図は鉄道選択者が鉄道再開情報を発言しやすいことを示している.これは必ずしも鉄道再開情報を入手した人が鉄道を利用したという因果関係があることを示すわけではないが,鉄道選択者が鉄道再開情報をツイートすることでフォロワー達に鉄道再開情報を拡散したことは間違いないだろう.最後に個人の心理的要因と帰宅意思決定の関係性を分析する.震災当日は「地震怖い」「不安だ」などの自分の心理状況に関する発言が多く見られた.この心理状況は他者(主に家族)に対する心配要因とは異なるため,これを自分不安と定義する.自分不安発言は表\ref{tab:element_list}の単語が含まれている発言として定義した.深夜は余震発生などによる別要因による不安要素が多く含まれるため,地震発生後から3月11日20時までの自分不安発言の発言割合と帰宅意思決定結果の関係性を図\ref{fig:anxiety}に示す.興味深いのは自分不安発言が$5\%$未満の個人は宿泊が多いのに対し,5\%以上の発言割合になると徒歩帰宅が増加している点である.発言頻度が多ければ多いほど,各個人は強くその意識をもっていると仮定するならば,少し不安感を感じた人々は会社等に宿泊して他者と一緒に過ごすのに対し,大きな不安感を感じた人は徒歩によって帰宅しやすいと考察することができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia1f7.eps}\end{center}\caption{20時までの自分不安発言の発言割合と帰宅意思決定の関係}\label{fig:anxiety}\end{figure}これまでの結果をまとめる.まず,職場・自宅間のネットワーク距離が帰宅意思決定の大きな影響要因であることを示した.次に,家族の安否確認・未確認発言ではその発言時間帯が帰宅意思決定に影響を与えた可能性を示唆している.運行再開情報の発言や自分不安発言も,それぞれの帰宅意思決定と関連があり,特にその発言の頻度割合が帰宅行動と強く相関していることが示された.
\section{行動データから意思決定モデルの構築}
\subsection{離散選択モデル}3までに作成されたデータをもとに,意思決定モデルの構築を行う.離散選択モデルの概要を示す.離散選択モデル(DiscreteChoiceModel)は計量経済学,交通行動分析,マーケティングなどの分野で用いられる計量モデルであり,ランダム効用モデル(RandomUtilityModel)とも呼ばれる(Ben-AkivaandLerman1985;Train2003).本研究で用いる多項ロジットモデル(MultinomialLogitModel;MNL)は離散選択モデルの中で最も基本的なモデルである.このモデルは数学的には多クラスロジスティック回帰モデルや対数線形モデル,最大エントロピーモデルと等価であるが,その経済学的な解釈と導出過程が異なる意思決定モデルである.また,機械学習における分類問題とは異なり,その予測精度のみを評価するのではなく,各変数(機械学習における特徴量)の係数パラメータの吟味を行い,その大小関係や正負の検討,経済学的な解釈を行う点がモデルの利用時に異なる点である.意思決定者$n$が選択肢集合$J$に直面しているとする.意思決定者は各選択肢を選択することから効用を得ることができるとし,個人$n$が選択肢$j$から得られる効用を$U_{nj},\j=1,\ldots,J$と定義する.この効用は意思決定者には観測可能であるが,分析者には観測不可能であるとする.意思決定者は効用最大化に基づき意思決定を行うので,その行動モデルは次の条件$U_{ni}>U_{nj},\\forallj\not=i$が成り立つ場合に限って,選択肢$i$を選択する.各利用者の効用は観測不可能であるが,分析者にはその一部である効用の確定効用項$V_{nj}=V(x_{nj},s_{n})$は観測可能であるとする.ここで,$x_{nj}$は個人$n$と選択肢$j$に関連する説明変数,$s_n$は個人$n$特有の説明変数である.分析者にとって観測不可能な要素を誤差項$\varepsilon$とし,効用は$U_{nj}=V_{nj}+\varepsilon_{nj}$と分解可能であるとしよう.また,$\varepsilon_n=(\varepsilon_{n1},\ldots,\varepsilon_{nJ})$とする.分析者は$\varepsilon_{nj}$がわからないため,確率変数として取り扱う.そのため,$\varepsilon_{nj}$が従う確率密度関数を$f(\varepsilon_{nj})$とすると,意思決定者$n$が選択肢$i$を選択する確率は\begin{equation}\begin{aligned}[b]P_{ni}&=\Pr(U_{ni}>U_{nj}\\forallj\not=i)\\&=\Pr(V_{ni}+\varepsilon_{ni}>V_{nj}+\varepsilon_{nj}\\forallj\not=i)\\&=\Pr(V_{ni}-V_{nj}>\varepsilon_{nj}-\varepsilon_{ni}\\forallj\not=i)\\&=\int_{\varepsilon}I(V_{ni}-V_{nj}>\varepsilon_{nj}-\varepsilon_{ni}\\forallj\not=i)f(\varepsilon_n)d\varepsilon_n\end{aligned}\end{equation}である.ここで,$I(\cdot)$は括弧内が成り立っていれば$1$,そうでなければ$0$となるindicatorfunctionである.誤差項が次の式で表されるi.i.d.なガンベル(Gumbel)分布(typeIextremevalue分布とも)に従うと仮定する.\begin{align}f(\varepsilon_{nj})&=e^{-\varepsilon_{nj}}e^{-e^{-\varepsilon_{nj}}}\\F(\varepsilon_{nj})&=e^{-e^{-\varepsilon_{nj}}}\end{align}このとき,意思決定者$n$が選択肢$i$を選択する確率は\begin{equation}P_{ni}=\frac{e^{V_{ni}}}{\sum_je^{V_{nj}}}\label{eq:DCM}\end{equation}として導かれる.このようにして導かれる選択確率をもつモデルが最も基本的な離散選択モデルである多項ロジットモデルである.MNL提案後,選択肢間の誤差項間の相関を考慮したNestedLogitモデルや更に緩和を加えたGeneralizedNestedLogitModel(WenandKoppelman2001)やnetworkGEVModel(DalyandBierlaire2006),また誤差項に正規分布を仮定したProbitモデルやProbitModelとLogitModelの良い面を合わせたMixedLogitModel(McFaddenandTrain2000)等が提案されている.本研究では分析の見通しを良くするために,基本的なモデルであるMNLを用いる.\subsection{線形効用関数とパラメータ推定}離散選択モデルでは観測可能な確定効用項$V_{ni}$を一般的に$V_{ni}=\boldsymbol{\beta}'\boldsymbol{x_{ni}}$と定義する.$\boldsymbol{\beta}$は係数ベクトル,$\boldsymbol{x_{ni}}$は個人$n$の選択肢$i$に関する説明変数ベクトルである.これより,線形効用関数として定義したMNLが数学的に対数線形モデルと等価となることが理解される.本研究ではデータセットとして,SVMによって識別された3307名のデータのうち,不明を除く2672名,選択肢集合は徒歩,鉄道,その他,宿泊の4選択肢を用いる.1)徒歩の説明変数には徒歩所要時間,自分不安ツイート割合,徒歩選択肢固有定数を採用,2)鉄道の説明変数には鉄道所要時間,職場・自宅間の距離の対数,運行再開情報ツイート割合,17時までに家族の安否確認が行えた場合1となるダミー変数,鉄道選択肢固有定数を採用,4)宿泊の説明変数には自分不安ツイート割合,待機場所ツイート割合,17時までに家族の安否確認ダミー変数,宿泊選択肢固有定数を採用した.待機場所ツイート割合は各個人のツイートのうち「会社」「職場」「学校」を含むツイートの割合である.3)その他の効用項は0に基準化している.個人$i$における各選択肢$i$の確定効用関数は上記の説明変数の線形和$V_{ni}=\boldsymbol{\beta}'\boldsymbol{x_{ni}}$として表現される.このような効用関数を定義することで,式(\ref{eq:DCM})における各選択肢の選択確率$P_{ni}$が定式化される.次に,得られたデータから効用関数の係数パラメータの推定方法について概説する.MNLモデルはclosedformで定式化されるため,伝統的な最尤推定法が適用可能であり,また大域的に凸であるため(McFadden1974),推定パラメータは一意に決定できる.MNLの対数尤度関数は次のように書くことができる.\begin{equation}LL(\beta)=\sum_{n=1}^{N}\sum_{i}\delta_{ni}\lnP_{ni}\end{equation}ここで,$\delta_{ni}$は個人$n$が選択肢$i$を選択したならば$1$,そうでなければ$0$となるクロネッカーの$\delta$である.離散選択モデルにおいては,モデルの当てはまりの良さを示すのに尤度比指標(McFaddenの決定係数とも呼ばれる)を一般的に用いる.この尤度比指標は次のように定義される.\begin{equation}\rho=1-\frac{LL(\hat\beta)}{LL(0)}\end{equation}ここで,$LL(\hat\beta)$は対数尤度関数に推定パラメータを代入した値,$LL(0)$は対数尤度関数に$0$を代入した値であり,$0\leq\rho\leq1$が成り立つ.これは0に近づけば当てはまりが悪く,$1$に近づけば当てはまりが良いと解釈できる.
\section{推定結果とシミュレーション}
\subsection{パラメータ推定結果と考察}上記の設定の下で,パラメータを推定した結果を表\ref{tab:transition_probability}に示す.まず,修正済み尤度比指標は$0.428$であり,モデル全体の当てはまりは十分に良い.また,所要時間の係数パラメータは負である点,職場・自宅間の距離が増加するにつれて鉄道の選択確率が増加する点などこれまでの基礎分析や直感に合う結果となっている.\begin{table}[b]\caption{MNLモデルの推定結果}\label{tab:transition_probability}\input{01table04.txt}\end{table}また,自分不安ツイート割合は徒歩と宿泊で異なるパラメータとして推定を行っているが,自分不安ツイート割合が徒歩選択に対してより大きな影響を与えていることがわかる.自分不安ツイートと所要時間のパラメータの比より,例えば自分不安ツイートが$5\%$増加することは$64$分の所要時間が増加しても宿泊より徒歩を選択することを示している.待機場所ツイート割合は宿泊選択を促していることから,待機場所の有無が宿泊の重要な要因であることも示された.加えて,基礎集計からも明らかになったように,運行再開ツイート割合は鉄道選択を促すことを説明している.家族との関係性については,17時まで(地震発生から2時間14分以内)に家族との安否確認が行えたことの影響は鉄道・宿泊を大幅に選択しやすくなることから,安否確認が冷静な行動(職場などでの一時的な待機)を促すことがこの結果から示された.以上より,距離や所要時間といった物理的制約と不安や家族との安否確認,待機場所の有無といった震災時特有の制約条件によって震災当日の帰宅意思決定行動をモデル化することができた.\subsection{感度分析シミュレーション}これまでの結果をもとに,感度分析シミュレーションを行おう.一つは宿泊場所の有無が災害時の帰宅行動へ与える影響の分析,もう一つは早い時間帯での家族との安否確認の有無が帰宅行動へ与える影響の分析である.その結果を示したのが図\ref{fig:simulation_result02}である.\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f8.eps}\end{center}\caption{シミュレーション結果}\label{fig:simulation_result02}\end{figure}まず,宿泊場所の確保の影響であるが,すべての外出者に対して宿泊可能な場所が提供された場合を考える.今回の感度分析では宿泊以外の選択者の待機場所ツイート割合が宿泊選択者の平均値と等しいとして全体のシェアを求めると,宿泊者は$1.18$倍に増加し,全体のシェアも$14.4\%$から$17.0\%$へ増加する.一方で,徒歩,鉄道といった帰宅行動のシェアは$3\%$減少する.$3\%$の減少は微少な影響のように一見思えるが,交通システムにおける渋滞や混雑は供給される容量の1割超えるだけで長時間の待ち行列が発生すると一般に言われている.その点から考えると,$3\%$の減少効果は少なくないだろう.また,総待ち時間の減少だけでなく,駅のホームといった容量制約のあるボトルネック箇所の安全性の面からも社会的便益がある.交通混雑や震災時の混乱を避けるために,より会社等での一時待機者・宿泊者を増加させるためには待機・宿泊場所の提供のみならず,行政や会社による待機命令が必要となる.次に,家族間での安否確認の影響を分析する.今回,2672名のうち,353名に同居の家族(配偶者または子供)がいることが発言内容から確認されている.この353名がすべて17時までに安否確認が行えた場合,図\ref{fig:simulation_result02}に示すように,鉄道・宿泊が$1.1$倍に増加し,徒歩帰宅者が$0.95$倍に減少する結果となる.言うまでもなく災害時の家族間の安否確認は緊急性と重要性が高い情報であるが,この情報が入手されないことが帰宅行動という形で首都圏全体の混乱として表出し,更なる二次災害へと繋がる危険性が今回の震災から示唆された.携帯電話や携帯メール以外の連絡手段が今回の震災では大きな貢献をしたことから,遅延が少なく需要増加に頑健な連絡手段を家族間の連絡手段に採用することで,交通ネットワークへの影響や混乱を一部防ぐことができるだろう.
\section{おわりに}
本稿ではTwitterのツイートデータとジオタグデータを用いて,東日本大震災当日の首都圏における帰宅行動の推測を行うとともに,その意思決定要因を明らかにした.帰宅行動の推測手法や意思決定モデルは既存手法であるが,2つのデータソースと手法を組み合わせることで,Twitterのつぶやきログデータのみから個人ごとの帰宅行動やその要因を示すことができた.そして仮想的なシナリオシミュレーションを実施し,災害時のオペレーションや連絡手段のあり方に対して一定の知見が得られた.本研究は現実の帰宅行動という一つのラベルに対し,Twitterでの発言内容をもとにSVMによるモデル化と離散選択モデルによるモデル化を行っている.これは帰宅行動ラベルが言語的要因のみから説明できるだけでなく,ジオタグをベースとして生成した非言語的要因からも説明ができることを示している.つまり,Twitterのツイートの中には空間的要素・行動的要素が含まれており,あるケースにおいてはジオタグのついていないツイートであったとしても,職場から自宅への距離や所要時間の情報を一部内在させているといっても過言ではないだろう.これは本研究のアプローチを半教師あり学習(たとえばSuzukiandIsozaki(2008)や小町\&鈴木(2008))を援用することによってジオタグの付いていないツイートにまで適用を広げる可能性を示唆している.震災時の行動に関する事後的な調査では,調査サンプルのオーダーが数千人程度である.また,本研究でも示したようにジオタグが付与されたツイートを行う利用者数は首都圏でも3,307名であった.しかし,ジオタグ付与ツイートを行うユーザーと通常のツイートを行うユーザーの発言類似性から通常のユーザーの勤務地・自宅間の距離が算出できれば,数万人から数十万人のオーダーで,震災当日の行動を明らかにできる可能性が存在する.このようなアプローチについては今後の課題としたい.\acknowledgment本研究は2012年9月12日から10月28日にかけて開催された東日本大震災ビッグデータワークショップにおいてTwitterJapan株式会社によって提供されたデータを用いている.TwitterJapan株式会社,ならびにWSにデータ提供を行った株式会社朝日新聞社,グーグル株式会社,JCC株式会社,日本放送協会,本田技研工業株式会社,株式会社レスキューナウ,株式会社ゼンリンデータコムに感謝の意を表する.本研究が始まったきっかけは熊谷雄介氏(NTT)とのメールでの議論であり,熊谷氏との議論がなければ本論文は生まれることがなかった.また,分析を進めるにあたって斉藤いつみ氏(NTT)から有益なコメントを頂いた.ここにお二人への感謝の意を示す.また,本論文に対して2名の匿名の査読者からは示唆に富む,非常に有益なコメントを頂いた.ここに,査読者の方々に対して感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Train}{}{2003}]{Book_02}Ben-Akiva,M.andLerman,S.\BBOP1985\BBCP.\newblock{\emDiscreteChoiceAnalysis:TheoryandApplicationtoTravelDemand}.\newblockMITPress,Cambridge,MA.\bibitem[\protect\BCAY{}{}{2011}]{Article_03}Bengtsson,L.,Lu,X.,Thorson,A.,Garfield,R.,vonSchreeb,J.\newblock\BBOP2011\BBCP.\newblock``ImprovedResponsetoDisastersandOutbreaksbyTrackingPopulationMovementswithMobilePhoneNetworkData:APost-EarthquakeGeospatialStudyinHaiti.''\newblock{\emPLoSMedicine},{\Bbf8}(8),\mbox{\BPGS\e1001083}.\bibitem[\protect\BCAY{}{}{2006}]{Article_07}Daly,A.andBierlaire,M.\newblock\BBOP2006\BBCP.\newblock``AgeneralandoperationalrepresentationofGeneralisedExtremeValuemodels.''\newblock{\emTransportationResearchPartB:Methodological},{\Bbf40}(4),\mbox{\BPGS\285--305}.\bibitem[\protect\BCAY{}{}{2012}]{Article_02}Lu,X.,Bengtsson,L.andHolme,P.\newblock\BBOP2012\BBCP.\newblock``Predictabilityofpopulationdisplacementafterthe2010Haitiearthquake.''\newblock{\emProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica},{\Bbf109}(29),\mbox{\BPGS\11576--11581}.\bibitem[\protect\BCAY{}{}{1974}]{Article_04}McFadden,D.\newblock\BBOP1974\BBCP.\newblock``Conditionallogitanalysisofqualitativechoicebehavior.''\newblock{\emFrontiersinEconometrics},AcademicPress,NewYork,\mbox{\BPGS\105--142}.\bibitem[\protect\BCAY{}{}{2000}]{Article_08}McFadden,D.andTrain,K.\newblock\BBOP2000\BBCP.\newblock``MixedMNLmodelsfordiscreteresponse.''\newblock{\emJournalofAppliedEconometrics},{\Bbf15},\mbox{\BPGS\447--470}.\bibitem[\protect\BCAY{MeCab}{}{}]{Web_05}MeCabYetAnotherPart-of-SpeechandMorphologicalAnalyzer.\\\texttt{http://mecab.sourceforge.net/}.\bibitem[\protect\BCAY{}{}{2008}]{Article_05}Suzuki,J.andIsozaki,H.\newblock\BBOP2008\BBCP.\newblock``Semi-supervisedSequentialLabelingandSegmentationUsingGiga-WordScaleUnlabeledData.''\newblock{\emInProceedingsofACL-08:HLT},\mbox{\BPGS\665--673}.\bibitem[\protect\BCAY{Train}{}{2003}]{Book_01}Train,K.\BBOP2003\BBCP.\newblock{\emDiscreteChoiceMethodswithSimulation}.\newblockCambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{}{}{2001}]{Article_06}Wen,C.-H.andKoppelman,F.\newblock\BBOP2001\BBCP.\newblock``Thegeneralizednestedlogitmodel.''\newblock{\emTransportationResearchPartB:Methodological},{\Bbf35}(7),\mbox{\BPGS\627--641}.\bibitem[\protect\BCAY{}{}{2008}]{Article_09}小町守,鈴木久美\newblock\BBOP2008\BBCP.\newblock検索ログからの半教師あり意味知識獲得の改善.\newblock人工知能学会論文誌,{\Bbf23}(3),\mbox{\BPGS\217--225}.\bibitem[\protect\BCAY{}{}{}]{Web_03}\newblockサーベイリサーチセンター\BBOP2011\BBCP.東日本大震災に関する調査(帰宅困難).\\\texttt{http://www.surece.co.jp/src/press/backnumber/20110407.html}.\bibitem[\protect\BCAY{首都圏直下型地震帰宅困難者等対策協議会}{}{}]{Web_01}\newblock首都直下型地震帰宅困難者等対策協議会\newblock\BBOP2012\BBCP.首都直下型地震帰宅困難者等対策協議会最終報告.\texttt{http://www.bousai.metro.tokyo.jp/japanese/tmg/kitakukyougi.html}.\bibitem[\protect\BCAY{国土交通省鉄道局}{}{}]{Web_02}\newblock大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会\BBOP2012\BBCP.大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会報告書.\\\texttt{http://www.mlit.go.jp/tetudo/tetudo\_fr8\_000009.html}.\bibitem[\protect\BCAY{}{}{2008}]{Article_09}遊橋裕泰\newblock\BBOP2012\BBCP.\newblock東日本大震災における関東の帰宅/残留状況と情報行動.\newblock日本災害情報学会第14回研究発表大会,{\BbfA-4-2},\mbox{\BPGS\140--143}.\end{thebibliography}\begin{biography}\bioauthor{原祐輔}{2007年東京大学工学部都市工学科卒業.2012年同大学院博士課程修了.日本学術振興会特別研究員(PD)を経て,同年,東北大学未来科学技術共同研究センター助教.交通行動分析,交通計画の研究に従事.機械学習や自然言語処理にも関心がある.土木学会,都市計画学会,交通工学研究会,電子情報通信学会各会員.}\end{biography}\biodate\end{document}
| |
V04N04-05
|
\section{はじめに}
話し言葉や対話における特徴として,旧情報や述語の一部が省略されるなど,断片的で不完全な発話が多く現れるという点をあげることができる.このような断片的あるいは不完全な発話を正しく認識/理解するためには,対話に対する適切なモデルが必要となる.また,話し言葉や対話の音声認識を考えた場合,認識候補の中には統語的にも意味的にも正しいが,対話の文脈の中では不適切な認識候補が存在する場合もある.例えば,文末の述語「〜ですか」と「〜ですが」は,お互いに誤認識されやすいが,対話モデルを用いることにより,このような誤認識を避けられたり,あるいは誤り訂正が可能となることが期待できる.文献\cite{Nagata92,Nagata94}では,発話行為タイプ(IllocutionaryForceType;IFT)のラベルが付いたコーパスから,IFTのマルコフモデルを学習し,このモデルが対話のエントロピーを大きく減少させることを示している.我々は,同様のIFT付きコーパスを用いて,対話構造を表す確率モデルを自動生成する研究を行なった.我々の研究においては,確率的対話モデルの生成に2種類の独立な方法を用いた.最初の方法では,IFT付きコーパスの話者ラベルおよび発話行為タイプの系列を,エルゴードHMM(HiddenMarkovModel)を用いてモデル化した.この方法では,モデルの構造(状態数)をあらかじめ定めておき,次にモデルのパラメータ(状態遷移確率,シンボル出力確率,および初期状態確率分布)を学習データから推定した.2番目の方法では,状態の統合化を繰り返すことにより,最適な状態数を持つモデルを自動的に生成することのできる状態マージング手法を用いた.近年,状態マージング手法に基づく確率モデルの学習アルゴリズムがいくつか提案されているが\cite{Stolcke94a,Stolcke94b},我々はCarrascoらによるALERGIAアルゴリズム\cite{Carrasco94}を用いた.以下では,2節でIFT付きコーパスの概要について説明する.3節でエルゴードHMMによる対話構造のモデル化について述べ,4節で状態マージング手法による対話構造のモデル化について述べる.
\section{IFT付きコーパス}
対話モデル作成のための基礎データとして,発話行為タイプ(IllocutionaryForceType;IFT)付きコーパス\cite{Nagata92,Nagata94,Suzuki93}を用いた.これは,ATR対話データベース中の「国際会議参加登録のタスク」の対話の各発話について,その発語内行為を分析し,陳述・命令・約束などの発話のタイプが付けられたコーパスである.このコーパスで用いられているIFTは,表層の統語的パターンと比較的直接的な対応がとれる表層IFT(SurfaceIllocutionaryForceType)と呼ばれるものである.また,各発話文には,発話者(事務局または質問者)を示すラベルが付与されている.IFT付きコーパスで用いられている表層IFTの種類および各IFTに属する例文を表\ref{Tab:IFTdef}に,IFT付きコーパスの例を図\ref{Fig:IFT-Corpus}に示す.本研究における評価実験では,IFT付きコーパスの中から,モデル会話10対話(222文)とキーボード会話50対話(1686文)を用いた.\begin{table}[p]\caption{表層IFTの分類および例}\label{Tab:IFTdef}\begin{center}\begin{tabular}{@{$\;$}l|p{6cm}|p{5.5cm}@{$\;$}}\hline表層IFT&定義&例文\\\hline\hlinephatic&挨拶などで用いられるイディオム的な表現&もしもし,\newline失礼します\\\hlineexpressive&話者の感情表現に関するイディオム的な表現&ありがとうございます,\newlineよろしくお願いします\\\hlineresponse&質問などに対する応答や合いづち&はい,\newlineわかりました\\\hlinepromise&話し手がある行為をすることを約束する表現&登録用紙を送らせていただきます\\\hlinerequest&話し手が聞き手に行為をすることを依頼する表現&地下鉄で北大路駅まで行って下さい\\\hlineinform&情報の伝達&今回は割り引きを行なっておりません\\\hlinequestionif&真偽疑問文&会議の案内書はお持ちですか\\\hlinequestionref&疑問語疑問文&どうすればよろしいですか\\\hlinequestionconf&確認&既に登録料を振り込まれておられますね\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[p]\begin{verbatim}質問者phatic:もしもしquestionif:そちらは会議事務局ですか事務局response:はいresponse:そうですquestionref:どのようなご用件でしょうか質問者inform:会議に申し込みたいのですがquestionref:どのような手続きをすればよろしいのでしょうか事務局request:登録用紙で手続きをして下さいquestionif:登録用紙は既にお持ちでしょうか質問者response:いいえinform:まだです\end{verbatim}\caption{IFT付き対話コーパスの例}\label{Fig:IFT-Corpus}\end{figure}
\section{エルゴードHMMによる対話構造のモデル化}
IFT付きコーパスの各発話には,話者ラベルおよびIFTが付与されている.話者の交替や質問・応答・確認のような対話の基本的な構造を確率・統計的にモデル化するために,コーパス中の話者ラベルおよびIFTの系列をエルゴードHMMによりモデル化することを試みた.なお,エルゴードHMMとは,自己遷移も含めすべての状態間の遷移を許す全遷移型のHMMである.本実験では,あらかじめHMMの状態数を決めておき,Baum-Welchの再推定アルゴリズムにより,エルゴードHMMの学習を行なった.初期モデルとしては,初期状態分布確率を均等確率に,また状態遷移確率および出力確率は確率値の総計が1になるようなランダムな値で初期化した.エルゴードHMMの学習データとして,モデル会話およびキーボード会話中から,以下の2つの系列を抽出した.\begin{itemize}\item[(1)]IFTのみの系列\item[(2)]話者ラベルとIFTを組み合わせたラベルの系列\end{itemize}IFTの総数は9個であり,対話コーパス中の発話者は2名(事務局あるいは質問者)であるので,上記(2)の場合のシンボル数は18個である.実験では,エルゴードHMMの構造として状態数2〜14のものを用いて学習を行なった.表\ref{Tab:HMMEntropy}に,状態数2,4,6,8,10,12,14の場合のモデルのエントロピーを示す.表\ref{Tab:HMMEntropy}で,IFTと示されているのはIFTのみの系列を用いたときの結果であり,SP-IFTは話者ラベルとIFTを組み合わせたラベルの系列を用いたときの結果である.一般的な傾向として,状態数が増えるに従いエントロピーが小さくなり,同じ状態数では話者ラベルを併用したものの方がエントロピー値が大きくなっている.\begin{table}\caption{ErgodicHMMのエントロピー}\label{Tab:HMMEntropy}\begin{center}\begin{tabular}{c|cc|cc}\hlineHMMの&\multicolumn{2}{c|}{モデル会話}&\multicolumn{2}{c}{キーボード会話}\\\cline{2-3}\cline{4-5}状態数&IFT&SP-IFT&IFT&SP-IFT\\\hline2&2.12&2.72&2.38&3.02\\\hline4&1.86&2.27&1.89&2.78\\\hline6&1.17&1.81&1.91&2.49\\\hline8&1.35&1.64&1.88&2.40\\\hline10&1.21&1.60&1.60&2.27\\\hline12&0.91&1.29&1.63&1.95\\\hline14&0.92&1.24&1.72&2.11\\\hline\end{tabular}\end{center}\end{table}文献\cite{Nagata94}の結果では,trigramモデルを使った場合,モデル会話でのSP-IFTのエントロピー値は1.26,キーボード会話でのSP-IFTの値は2.19と報告している.本実験では,12〜14状態のエルゴードHMMの場合が,trigramのエントロピー値とほぼ同等になっている.学習後のHMMの構造(状態数5の場合)を図\ref{Fig:HMM-IFT}および図\ref{Fig:HMM-IFT-SP}に示す.図\ref{Fig:HMM-IFT}はIFTのみの系列から得られたモデルであり,図\ref{Fig:HMM-IFT-SP}は話者ラベルとIFTを組み合わせたラベルの系列から得られたモデルである.図には,遷移確率および出力確率が0.1以上のもののみを記しており,矢印の太いものほど大きな遷移確率を持っていることを示している.状態遷移の一番上に書かれている確率が遷移確率であり,その下に各シンボル(IFT)の出力確率が記されている.図\ref{Fig:HMM-IFT-SP}で,Sで始まるシンボルは事務局側の発話であることを,またQで始まるシンボルは質問者側の発話であることを示している.例えば,図\ref{Fig:HMM-IFT-SP}では,状態1が初期状態であり,質問者が最初の発話「もしもし」を発話するとQphaticを出力する遷移をたどることになる.これは,状態1での自己ループあるいは状態1から状態2への遷移に対応している.「国際会議参加登録のタスク」では,事務局の「こちらは会議事務局です」という発話により対話が始まる場合もある.この場合にはSinformを出力する遷移である状態1での自己ループとなる.また,図\ref{Fig:HMM-IFT-SP}では,状態遷移が事務局側の発話と質問者側の発話で比較的きれいに分かれている.例えば,状態3から状態2への遷移は質問者側の発話によって起こり,しかもこの遷移は事務局に対する質問や依頼に対応していることが分かる.この質問や依頼に対し,状態2から状態0の遷移で事務局が応答(Sresponse,Sinform)する確率が非常に高いことも読みとることができる.以上のように,発話行為タイプ付きコーパスから得られたエルゴードHMMは,質問・応答といった基本的な構造を抽出しているということができる.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=100mm}\end{center}\caption{IFTのみの系列から得られた5状態エルゴードHMM}\label{Fig:HMM-IFT}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig2.eps,width=100mm}\end{center}\caption{話者ラベルとIFTを組み合わせたラベルの系列から得られた5状態エルゴードHMM}\label{Fig:HMM-IFT-SP}\end{figure}
\section{状態マージング手法による対話構造のモデル化}
エルゴードHMMによるモデル化では,確率モデルの学習に先立ち,モデルの構造(状態数)をあらかじめ決めておく必要がある.これに対し,近年,状態マージング手法を用いて,学習データに対し最適な構造を持つモデルを自動的に構築する研究がいくつか行なわれている\cite{Stolcke94a,Stolcke94b}.我々は,CarrascoらによるALERGIAアルゴリズム\cite{Carrasco94}を用いて,対話構造のモデルを構築することを試みた.\subsection{ALERGIAアルゴリズム}ALERGIAアルゴリズムは,与えられた学習データを受理する確率決定性有限オートマトンを構成するアルゴリズムである.詳細なアルゴリズムは,文献\cite{Carrasco94}に説明されている.以下では,ALERGIAアルゴリズムの概要について述べる.\subsubsection*{(1)接頭木アクセプタの作成}学習データから接頭木アクセプタ(PrefixTreeAcceptor;PTA)を作る.なお,接頭木アクセプタとは,学習データ中のシンボル列を受理する決定性有限オートマトンであり,トライのようにシンボル系列の接頭部分が同じものを共通の状態によって表現したものである.例えば,学習データ$S=\{\lambda,00,10,110\}$($\lambda$は空列)に対するPTAは,図\ref{Fig:PTA}のようになる.\begin{figure}[h]\begin{center}\epsfile{file=fig3.eps,width=70mm}\end{center}\caption{接頭木アクセプタの例}\label{Fig:PTA}\end{figure}\subsubsection*{(2)状態遷移確率の計算}$n_{i}$を学習データが接頭木アクセプタの各状態$q_{i}$を訪れた回数とする.もし学習データが状態$q_{i}$で受理されれば,受理されたデータの個数を$f_{i}(\#)$とする.状態$q_{i}$で受理されなければ,次の状態へ遷移するが,このとき状態遷移$\delta_{i}(a)$(状態$q_{i}$でシンボル$a$がきたときの遷移)をたどった回数を$f_{i}(a)$とする.状態遷移$\delta_{i}(a)$の遷移確率は,次のようにして求められる.\begin{equation}P_{i}(a)=\frac{f_{i}(a)}{n_{i}}\end{equation}なお,$P_{i}(\#)$は,データが状態$q_{i}$で受理される確率を表している.\subsubsection*{(3)状態のマージ}接頭木アクセプタの状態$q_{i}$と$q_{j}$が等価($q_{i}\equivq_{j}$)であれば,これら2つの状態をマージする.ここで,状態$q_{i}$と$q_{j}$が等価であるとは,すべてのシンボル$a\in\Sigma$について,遷移確率$P_{i}(a)$と$P_{j}(a)$が等しく,遷移後の状態も等価であるときをいう.即ち,状態$q_{i}$と$q_{j}$が等価であれば,次が成り立つ.\begin{equation}q_{i}\equivq_{j}\Longrightarrow\foralla\in\Sigma\left\{\begin{array}{l}P_{i}(a)=P_{j}(a)\\\delta_{i}(a)\equiv\delta_{j}(a)\end{array}\right.\end{equation}なお,状態の等価性を判断する場合,学習データに対する統計的な揺れを伴うので,2つの遷移確率の差が許容範囲にあるときに等価であるとする.ALERGIAアルゴリズムでは,以下のようにして状態の等価性を決めている.確率$p$のベルヌイ確率変数があり,$n$回の試行のうち$f$回この事象が起こったとすると,次式が成り立つ.\begin{equation}P\left(\left|p-\frac{f}{n}\right|<\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}\right)\geq1-\alpha\end{equation}ALERGIAアルゴリズムでは,学習データから推定された2つの遷移確率の差が,信頼範囲$\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}$の和の範囲内にあるときに,2つの状態を等価であるとしている.即ち,状態$i$と状態$j$が等価であるとは,すべてのシンボル$a\in\Sigma$について,次式が成り立つことである.\begin{equation}\left|\frac{f_{i}(a)}{n_{i}}-\frac{f_{j}(a)}{n_{j}}\right|\leq\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{n_{i}}}+\frac{1}{\sqrt{n_{j}}}\right)\label{Eq:AlergiaStateEq}\end{equation}\subsection{ALERGIAアルゴリズムの動作例}\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=130mm}\end{center}\caption{ALERGIAアルゴリズムの動作例}\label{Fig:ExampleAlergia}\end{figure}ALERGIAアルゴリズムの動作を,簡単な例で説明する\cite{Carrasco94}.いま,学習データとして,次の集合$S$が与えられたとする.\begin{equation}S=\{110,\lambda,\lambda,\lambda,0,\lambda,00,00,\lambda,\lambda,\lambda,10110,\lambda,\lambda,100\}\end{equation}また,$\alpha=0.8$と仮定する.\subsubsection*{(1)PTAの作成}学習データから,図\ref{Fig:ExampleAlergia}(a)のPTAを作成する.図\ref{Fig:ExampleAlergia}では,各状態の下に,その状態に到達したデータの個数およびその状態で受理されたデータの個数が示されている.また,各状態遷移には,その遷移を引き起こしたシンボル(0あるいは1)とデータ数が示されている.\subsubsection*{(2)状態$(2,1)$の等価性チェック}まず,状態2と状態1の等価性について考える.2つの状態での受理確率の差は,\begin{equation}\left|\frac{1}{3}-\frac{9}{15}\right|=0.26<\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{3}}+\frac{1}{\sqrt{15}}\right)=0.55\end{equation}また,シンボル0による遷移確率についても,\begin{equation}\left|\frac{2}{3}-\frac{3}{15}\right|=0.46<0.55\end{equation}となる.状態2と状態1が等価であるためには,更にこれらの状態の遷移先である状態4と状態2も等価である必要があるが,同様の計算により,状態4と状態2の等価性も示すことができる.状態4と状態2をマージし,更に状態2と状態1をマージすると,図(b)のオートマトンを得る.\subsubsection*{(3)状態$(3,1)$の等価性チェック}次に,状態3と状態1について考えると,両者の受理確率の差は,\begin{equation}\left|\frac{0}{3}-\frac{12}{20}\right|=0.6>\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{3}}+\frac{1}{\sqrt{20}}\right)=0.53\end{equation}となり,等価でないことが分かる.従って,状態3と状態1をマージすることはできない.\subsubsection*{(4)状態$(5,1)$の等価性チェック}以上の計算と同様にして,状態5と状態1の等価性も示すことができる.また,状態$(5,1)$の等価性を調べる過程において,状態$(7,1)$,$(8,3)$,$(10,6)$,$(11,9)$の等価性も同時に示される.これらの状態をマージすると,図(c)のオートマトンを得る.\subsubsection*{(5)状態$(6,3)$の等価性チェック}同様にして,状態6と状態3の等価性も示すことができる.状態$(6,3)$をマージすると,図(d)のオートマトンを得る.受理確率および遷移確率を計算して,最終的に図(e)のオートマトンを得る.\subsection{対話構造のモデル化}\begin{figure}\begin{center}\epsfile{file=fig5.eps,width=104mm}\end{center}\caption{状態数とパープレキシティの関係}\label{Fig:ALERGIA-STATE-ENTROPY}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig6.eps,width=140mm}\end{center}\caption{ALERGIAアルゴリズムにより得られたオートマトンの一部}\label{Fig:ALERGIA-IFT}\end{figure}上述のALERGIAアルゴリズムを用いて,IFT付きコーパスから対話構造をモデル化する実験を行なった.学習データとしては,キーボード会話50対話(1686文)を用いた.ALERGIAアルゴリズムでは,状態の等価性は式(\ref{Eq:AlergiaStateEq})により判定されるが,式(\ref{Eq:AlergiaStateEq})の右辺の値(定数$\alpha$の値)を変えることにより,様々な状態数を持つオートマトンを学習データから構成することができる.図\ref{Fig:ALERGIA-STATE-ENTROPY}に,ALERGIAアルゴリズムにより得られたオートマトンの状態数とパープレキシティの関係を示す.パープレキシティの値は,学習データに対するテストセット・パープレキシティを用いている.状態数の増加にともないパープレキシティは減少している.パープレキシティ$P$とエントロピー$H$の間には,\begin{equation}P=2^{H}\label{Eq:PerpEnt}\end{equation}なる関係があるが,式(\ref{Eq:PerpEnt})より,ALERGIAアルゴリズムで得られたモデルのエントロピーを算出してみると,エルゴードHMMと同程度の精度を達成するためには,エルゴードHMMの場合よりもはるかに多くの状態が必要となることが分かる.これは,HMMが非決定性の有限オートマトンと等価であるのに対し,ALERGIAアルゴリズムにより得られるモデルが決定性の有限オートマトンであるためである.図\ref{Fig:ALERGIA-IFT}は,話者ラベルとIFTを組み合わせたラベルの系列から得られた30状態のオートマトンの一部(16個の状態)である.このオートマトンの初期状態は状態0であり,最終状態は状態22である.図の左側には,初期状態0から状態遷移する確率の高い11個の状態(状態0,4,7,9,10,11,12,17,20,27,28)が示されている.状態0から始まり再び状態0に至る状態遷移系列(例えば,0→7→4や0→7→27→28など)が,質問・応答・確認などの対話の基本サイクルを表していると考えることができる.また,図の右側に,最終状態22に状態遷移する確率の高い5個の状態(状態1,16,21,22,23)が示されている.例えば,状態27あるいは28で,expressive(例:「ありがとうございました」)に対応する発話が現れると,最終状態へ向かう状態遷移が選択されるということが分かる.しかし,国際会議参加登録のタスクでは,expressiveやphaticというIFTの出現頻度はIFT全体の数パーセントにしか過ぎないので,状態27あるいは28から状態21へ遷移する確率は低くなっている(図中,遷移確率の小さいものは破線で示されている).\vspace*{-3mm}
\section{おわりに}
\vspace*{-2mm}本技術資料では,コーパスからの確率的対話モデルの自動生成に関する研究として,エルゴードHMMによる対話構造のモデル化とALERGIAアルゴリズムによる対話構造のモデル化の2種類の方法について述べた.モデル化実験では,ATR対話データベース中の「国際会議参加登録」に関する対話データの各発話文に発話者のラベルおよび陳述・命令・約束などの発話行為タイプを付与したものを用いた.エルゴードHMMおよびALERIGIAアルゴリズムを用いて,上記コーパス中の発話者のラベルおよび発話行為タイプの時系列のモデル化を行なうことにより,話者の交替や質問・応答・確認といった会話の基本的な構造を確率・統計的に反映した確率的対話モデルを構築した.今後は,同様の手法を用いて,対話における話題の遷移等をモデル化するための研究を行ないたいと考えている.\vspace*{-2mm}\bibliographystyle{jnlpbbl}\bibliography{kita}\begin{biography}\biotitle{略歴}\bioauthor{北研二}{1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,音声認識等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioauthor{福井義和}{1994年徳島大学工学部知能情報工学科卒業.1996年同大学院博士前期課程修了.在学中,確率・統計的自然言語処理の研究に従事.現在,富士通徳島システムエンジニアリング勤務.}\bioauthor{永田昌明}{1985年京都大学工学部情報工学科卒業.1987年同大学院修士課程修了.同年,日本電信電話株式会社入社.1989年ATR自動翻訳電話研究所へ出向.1993年日本電信電話株式会社へ復帰.現在,情報通信研究所勤務.音声翻訳,統計的自然言語処理の研究に従事.平成7年度情報処理学会論文賞受賞.情報処理学会,電子情報通信学会,人工知能学会,ACL各会員.}\bioauthor{森元逞}{1968年九州大学工学部電子工学科卒業.1970年同大大学院修士課程修了.同年,日本電信電話公社に入社.以来,同社電気通信研究所にて,オペレーティングシステム等の研究開発に従事.1987年よりATR自動翻訳電話研究所へ出向.音声言語翻訳システム,特に,音声言語統合方式,音声言語翻訳方式の研究に従事.現在,ATR音声翻訳通信研究所,第4研究室室長.電子情報通信学会,情報処理学会,人工知能学会,各会員.工博.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N05-03
|
\section{はじめに}
\label{はじめに}近年,カーナビゲーションシステムを初めとする種々の情報機器が自動車に搭載され,様々な情報通信サービスが始まりつつある.提供される情報には,交通情報,タウン情報,電子メール,ニュース記事等がある.自動車環境での情報提供では,文字表示よりも,音声による提示が重要との考えから\footnote{道路交通法第71条5の5で,運転中に画像表示用装置を注視することが禁じられている},文章データを入力して音声波形に変換するテキスト音声合成技術の重要性が増している.テキスト音声合成技術は,近年,コンピュータの性能の大幅な向上や自動車用途でのニーズの増大に牽引され,研究開発が進んでいるものの,品質面で,現在まだ,いろいろな問題が残されている\cite{山崎1995,矢頭1996,塚田1996,広瀬1997}.そのうち,韻律の制御が良くないと,不自然で,棒読みな感じを与え,悪くすると意味を取り違えることにもなる.音声の韻律には,イントネーション,ポーズ,リズム,アクセントなどが含まれる.本論文は,入力文から,ポーズ挿入位置を判定する技術において中心的な役割を果たす係り受け解析法および解析結果に基づくポーズ挿入位置判定法に関するものである.まず,文から係り受け構造を求めるための,係り受け解析では,文全体を係り受け解析する方法\cite{佐藤1999}と,局所係り受け解析する方法\cite{鈴木1995}があるが,韻律制御用途には,後述のごとく局所係り受け解析で十分なことから,計算量の面からも有利な局所解析が得策と考えられる.言語処理分野において,係り受け解析はいろいろな処理のベースとなる基本的解析手法との位置付けから,多くの研究が継続されており,近年では,コーパスからの機械学習に基づく方法が盛んである\cite{藤尾1997,白井1998,春野1998,江原1998,内元1999}.機械学習方式の場合,対象とする文章のジャンルの変更や,係り受け解析の前処理である形態素解析と文節まとめ上げ処理の変更に伴って必要となる解析規則辞書の更新が容易なため,保守と移植のコストが低いという利点を持つ.機械学習の枠組みの中で,文節間の属性の共起頻度による統計的解析手法\cite{藤尾1997}や決定木による係り受け解析手法\cite{春野1998}に比べて,最大エントロピー法(以下,ME法と略記)による係り受け解析手法\cite{江原1998,内元1999}が,最も高精度な手法と考えられている.しかしながら,ME法による係り受け解析では,学習によって得られた統計モデルを蓄えた解析辞書の容量を,設計の現場において削減することによりメモリ量と計算速度を調整するということは容易ではなく,あるいは,素性を削減して統計モデルを再構築するには,学習に膨大な計算時間を必要とする\cite{内元1999}.そのため,車載情報機器や携帯情報端末など,小型化,低価格化に厳しい要求があり,しかも極めて短い開発サイクルで設計する必要のある設計現場に向かないという問題がある.そこで,ME法と同等の精度で,かつ,メモリ容量と実行速度の調整が容易で開発現場に受け入れられやすい,という特徴を持つ係り受け解析手法を開発するため,\begin{itemize}\itemポーズ挿入位置決定の目的にあった,局所係り受け解析\itemメモリ容量と実行速度に関して容易に設定変更ができ,アルゴリズムがシンプルで移植・保守の容易な決定リスト\cite{Yarowsky1994}\end{itemize}を採用することにした.係り受け解析結果に基づくポーズ挿入位置判定では,文の構文的な構造とポーズ,イントネーションとの関係に関する研究がなされ\cite{杉藤1997,杉藤1989a},構文構造に基づいてポーズ挿入位置を決定する研究がなされている\cite{匂坂1993,海木1996,佐藤1999,清水1999}.その結果,近傍文節間の係り受け関係がポーズ挿入位置の決定に重要であることがわかってきている.近傍文節としてどの程度を考えるかに関しては,文節間距離を3文節分扱うもの\cite{鈴木1995}から距離=1,2,3,4以上の範囲を扱うもの\cite{佐藤1999}まである.また,ポーズ位置決定の要因は,係り受け構造の他にも,読点\cite{海木1996},文節の種類\cite{清水1999},生理的な息継ぎの必要性\cite{杉藤1989b}などがあり,ポーズ制御アルゴリズムの中に盛り込まれている.従来研究の中で,ポーズ挿入位置設定規則検討のための実験を最も大規模に行っているのは文献\cite{海木1996}の研究である.この研究では,アナウンサ10名によって発声させたATR音声データベースの503文のポーズ長を分析して,それに基づいてポーズ挿入規則を作成し,それを基にポーズ制御した合成音声100文と自然音声のポーズ長をそのまま使ってポーズ制御した合成音声100文を10名の被験者に提示してポーズ挿入規則の評価を行い,自然音声のポーズと同等なポーズ挿入規則が作成されたと報告されている.他の研究は,扱う文数が少なく,文献\cite{鈴木1995}では6文,文献\cite{河井1994}では5文などである.これらの従来研究では,係り受け関係を主要因としてその他いくつかの要因も加味した韻律規則が提案され,人間の発声する音声のポーズに比べて,8〜9割りの一致率を達成しているとされている.しかしながら,十分な文の数ではないため,言語構造の様々な面がポーズ制御規則に反映されているかどうかという疑問がある.本論文では,これらの研究から明らかになった,係り受け距離と句読点に基づくポーズ挿入規則をベースに作成した合成音声を用いて聴取実験を行い,悪い評価となった文を分析することによって,さらに追加すべき規則がないかどうか検討する.なお,聴取実験における文の数としては,従来研究で良好な制御と評価される文の割合が8〜9割であることを踏まえて,悪い評価となる文の数が分析に十分な数だけ得られるように,500文を用いることにする.
\section{決定リストを用いた局所解析}
\label{決定リストを用いた局所解析}\subsection{手法}\label{手法}本論文の手法は,決定リストを用いて,文節間係り受け関係を判定している.特に\cite{Yarowsky1994}で述べられた手法をベースにして決定リストを構築する.同文献の手法を単に説明する.同文献で扱っている問題は,フランス語とスペイン語の文でアクセント記号が欠落した単語(アルファベットに\^や'が付いた文字)を文脈情報を用いて復元する問題である.文脈中に証拠\(Collocation_i\)(例えば共起単語)が存在するときアクセント記号が\(Accent\_Pattern_1\)(例えば\^が必要)である条件付き確率\(Pr(Accent\_Pattern_1|Collocation_i)\)と,同じ証拠\(Collocation_i\)が存在するのに,アクセント記号が\(Accent\_Pattern_2\)(例えば\^は不要)である条件付き確率\(Pr(Accent\_Pattern_2|Collocation_i)\)から,この証拠によってアクセント記号を\(Accent\_Pattern_1\)であると推定するときの証拠能力の強さを次のように対数尤度比で計算する.\begin{displaymath}abs(\log\frac{Pr(Accent\_Pattern_1|Collocation_i)}{Pr(Accent\_Pattern_2|Collocation_i)})\end{displaymath}様々な証拠(\(Collocation_1,...\))に関して上式の尤度比を求め,大きいものから順に証拠\(Collocation_i\)と判定(\(Accent\_Pattern_1\)か\(Accent\_Pattern_2\)か)をリスト状に並べる.また,\begin{displaymath}abs(\log\frac{Pr(Accent\_Pattern_1)}{Pr(Accent\_Pattern_2)})\end{displaymath}をこのリストの下限とする.これを決定リストという.判定段階で,リストを尤度比の大きいものから順に読み込み,その証拠が入力文に合致するかどうかを調べ,合致すれば対応する判定を出力して終了し,合致しなければ,リストの次のものを調べる.このようにして順に調べ,いずれにも合致しなければリストの下限の判定を出力する.なお,証拠として何を使うかは,解析の対象が何であるかに依存し,一般論はなく,言語学上の知見や語の意味情報などを使う.次に,統計的係り受け解析を簡単に説明する.係り受け解析は,例えば,次のように,各々の文節が,どの文節に係るかを求める処理である.\begin{quote}例:ポーズ制御に大きく影響する近傍の係り受けを解析して\vspace{-2mm}─────────────────────────\vspace{-2mm}││↑↑││↑↑│↑\vspace{-2mm}│└─┘││└──┘│└──┘\vspace{-2mm}└──距離2───┘└距離2──┘\end{quote}文節間の係り受けを求めるに際して,日本語においては,通常次のような条件が成り立つことを利用する.\begin{enumerate}\item1つの文節は1つの文節に係る\item係り受け関係はお互いに交差しない\item前の文節から後ろの文節に係る\end{enumerate}通常,これらの条件を満足するいくつかの係り受け候補があるため,文節間の係りやすさの確率を統計的に求め,これを基に,文全体の最適な係り受け関係を求めるのが統計的係り受け解析である.係り受けを決定リストによって決定する方法として,従属節係り受けに決定リストを用いた解析\cite{宇津呂1999}が提案されている.同文献に示された従属節係り受けの例は次のようである.\begin{quote}値上げするが,なまじ3%なので,つい業者負担というケースがでてくるだろう\vspace{-2mm}─────────────────\vspace{-2mm}││↑↑\vspace{-2mm}│└────────────────┘│\vspace{-2mm}└─────────────────────────────┘\end{quote}我々の手法は,韻律制御において必要な局所係り受け解析に決定リストを適用したものである.ここで,本論文で取り上げる局所係り受け解析とは,係り元文節から係り先文節までの距離(文節数で定義)が1であるか2以上であるかを判定するタスクである.\begin{quote}例:ポーズ制御に大きく影響する近傍の係り受けを解析して\vspace{-2mm}─────────────────────────\vspace{-2mm}│↑\vspace{-2mm}└────┴──→‥‥\end{quote}なお,この局所解析の範囲をさらに1つ広げて,直後の文節に係るか,係り受け距離2の文節に係るか,係り受け距離3以上の文節に係るかを判定する次のタスクを考えることもできる.\begin{quote}例:ポーズ制御に大きく影響する近傍の係り受けを解析して\vspace{-2mm}─────────────────────────\vspace{-2mm}│↑↑\vspace{-2mm}└────┴───┴→‥‥\end{quote}その解析結果を韻律制御に用いて,係り受け距離の大きさが大きいほど長いポーズ長にするという制御方式もあるが,このような細かな制御の効果は薄い.そのため,以下では,係り受け距離1か2以上かの判定のタスクを局所係り受け解析として扱う.決定リストの素性(証拠)の構成に関しては,従来の統計的係り受け解析で用いられているものを参考にして,基本的な構成(素性1と称する)と複合的な構成(素性2と称する)の2タイプを定める.各々の内容を表1,表2に示す.なお,主辞は,最後の自立語として定義する.品詞と詳細品詞は,形態素解析ソフトJumanの定義に従う.\begin{figure}[t]\begin{center}\atari(105,108)\end{center}\end{figure}\setcounter{table}{2}\subsection{実験と結果}局所係り受け解析の性能評価を次の評価方法で行う.\begin{itemize}\item京大コーパスの5,000文で評価する\item「係り受け距離1ならポーズを挿入せず,2以上なら挿入する」という基準を正解とみなす\item次の定義のF値により評価する\\再現率=ポーズ挿入の正解箇所にシステムがポーズを挿入した数\\/ポーズ挿入の正解箇所の数\\適合率=ポーズ挿入の正解箇所にシステムがポーズを挿入した数\\/システムがポーズを挿入した数\\F値=(1/((1/再現率+1/適合率)/2))\\ここで,ポーズ挿入の正解とは,「係り受け距離1ならポーズを挿入せず,2以上なら挿入する」という操作を正解とみなす\item局所係り受け解析を評価するにあたり,前処理として100\%正解のものを与える.ここで,前処理とは,形態素解析と文節まとめ上げである.\end{itemize}\subsubsection{(1)人手による規則でのポーズ制御のF値}\begin{quote}人手による簡単な規則に基づく解析でどれだけのF値になるかを調べる.規則は,文献\cite{内元1999}で示された表\ref{人手規則}の規則を用いる.前述の5,000文に対するF値として,次の評価結果を得た.\\F値=75.35\%\end{quote}\begin{table*}\caption{人手規則}\label{人手規則}\begin{center}\begin{tabular}{ll}\hline{\it前文節語形の条件}&{\it係り先}\\\hlineの(接続助詞)&前文節の次の文節\\指示詞&前文節の次の文節\\連体詞&前文節の次の文節\\の(格助詞),かつ,読点あり&前文節の次の文節\\格助詞&動詞を含む最も近い文節\\は(副助詞)&動詞を含む最も近い文節\\連体形&名詞を含む最も近い文節\\タ形&名詞を含む最も近い文節\\連用形&動詞を含む最も近い文節\\テ形&動詞を含む最も近い文節\\接続詞&文末の文節\\名詞性述語接尾辞,かつ,読点あり&動詞を含む最も近い文節\\名詞性名詞接尾辞,かつ,読点あり&動詞を含む最も近い文節\\名詞性特殊接尾辞,かつ,読点あり&動詞を含む最も近い文節\\名詞性述語接尾辞&前文節の次の文節\\名詞性名詞接尾辞&前文節の次の文節\\名詞性特殊接尾辞&前文節の次の文節\\副詞&動詞を含む最も近い文節\\その他&前文節の次の文節\\\hline\end{tabular}\end{center}\end{table*}\subsubsection{(2)開発手法によるポーズ制御のF値}\ref{手法}で説明した2種類の素性,素性1,素性2を用いて決定リストを構成し,それを基にポーズ挿入位置の判定を行ったときのF値を求める.\begin{quote}素性1による結果:\\F値=88.18\%,正解率=92.22\%\\素性1と素性2を決定リストに統合した結果:\\F値=90.04\%,正解率=93.33\%\\以上の結果を図1に示す.\end{quote}\begin{figure}[t]\begin{center}\atari(56,32)\vspace{-3mm}\caption{素性の数や順序による精度の変化}\vspace{-5mm}\end{center}\end{figure}\subsubsection{(3)学習量によるF値の変化}\begin{quote}学習に用いる文の数を徐々に増加させて,正解率,F値が上昇する様子を調べる.学習の文数を1,000文から1,000文づつ1万文まで増加させる.評価は別の5,000文で行う.結果を表\ref{学習の文数と精度の関係}と図2に示す.1万文では完全に飽和はしていない.\end{quote}\begin{table*}\caption{学習の文数と精度の関係}\label{学習の文数と精度の関係}\begin{center}\begin{tabular}{rll}\hline{\it文数}&{\itF値\%}&{\it正解率\%}\\\hline1000&87.01&91.45\\2000&87.94&92.06\\3000&88.52&92.40\\4000&88.91&92.64\\5000&89.36&92.92\\6000&89.53&93.02\\7000&89.73&93.15\\8000&89.85&93.21\\9000&89.96&93.27\\10000&90.03&93.33\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}[t]\begin{center}\atari(76,58)\vspace{-3mm}\caption{学習曲線}\vspace{-5mm}\end{center}\end{figure}\subsection{辞書容量の削減}統計的言語解析手法で高い正解率を得るためには,一般に,解析辞書として多くのメモリ容量を必要とし,計算時間も長くかかる.それに対して,本法では,メモリ容量と計算速度を目的とするシステムのリソースの状況に合わせて調整することが可能である.以下にその方法を述べる.辞書データ,すなわち,決定リストは,その原理上,判定のための証拠を重要な順に並べている.よって,メモリ容量を半減したければ,決定リストの上位から半分を残してそれ以下を削除すればよい.また,計算速度に関しても,決定リストのサイズを削減してゆくと,決定リストの上位から順に条件判定をする方式のため,単調に速度が向上して行くという性質を持つ.メモリ容量を減らして,計算速度を上げれば,その代償として正解率は低下する.以下に,決定リストのサイズを1/1,1/2,1/5,1/10,1/20,1/50,1/100に変化させて,正解率と判定時間を測定し,表\ref{決定リストの辞書容量削減と精度の関係},図3に示す.なお,実験条件の詳細は以下の通りである.\begin{itemize}\item学習量は1万文固定である.\item計算時間の算出は,実測によって行った.使用したプログラミング言語はLISPで,計算機は,PentiumIII450MHzである.また,形態素解析と文節まとめ上げ済みのデータがメモリに読み込まれており,決定リストもメモリに読み込まれているという前提で,各文節から直後の文節への係り受け関係を判定して,それを基にポーズ挿入の判定を行うまでの時間を測定する.\itemメモリ容量を算出するにあたっては,決定リストの1行に現れる素性の組合わせを表現するのに必要な情報量から,1行を3バイトにコーディング可能であるため,この数値を採用して計算した.\end{itemize}\begin{table*}\caption{決定リストの辞書容量削減と精度の関係}\label{決定リストの辞書容量削減と精度の関係}\begin{center}\begin{tabular}{lrrrr}\hline{\itサイズ}&{\it行数}&{\itメモリ\(バイト\)}&{時間/文(msec)}&{F値(\%)}\\\hline1/1&20626&61878&12.1206&90.03\\1/2&10313&30939&9.8716&87.97\\1/5&4120&12360&6.9882&84.91\\1/10&2057&6171&5.1746&77.87\\1/20&1025&3075&3.9918&75.76\\1/50&404&1212&3.1610&72.82\\1/100&183&549&2.7914&71.38\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}[t]\begin{center}\atari(94,47)\caption{メモリ容量と精度(F値),計算時間の関係}\vspace{-5mm}\end{center}\end{figure}
\section{ポーズ挿入規則}
\subsection{予備検討}\cite{海木1996}において,作成された規則を基にポーズ制御した合成音声100文と自然音声のポーズ長をそのまま使ってポーズ制御した合成音声100文を10名の被験者に提示してポーズ挿入規則の評価を行っている.それに対し,我々は,従来規則の精緻化を検討するために,従来規則に基づいてポーズ挿入された合成音声を聴取実験によって収集した,悪い評価の文を,文の言語構造に着目して分析することによってポーズ挿入規則の精緻化を試みる.そのため,聴取実験においては,ベースとなるポーズ挿入規則で作った合成音声の各文の各文節間に挿入されたポーズの良し悪しを被験者に評価してもらい,評価結果を蓄積する.予備検討の結果,ポーズの挿入された個所に関して,ポーズの要不要を判定することはできるが,ポーズの挿入されていない個所に関して,ポーズに要不要を判定することは困難であることがわかった.必要なポーズが欠落している場合に,文全体が棒読みであるという印象を受けるが,どこのポーズが不足しているかを判断することは困難である.そこで,以下の聴取実験において,合成音声の各ポーズ挿入個所に関して,ポーズの要不要を判定し,あわせて,文全体としてポーズが不足しているかを判断してもらった.結果的に,文全体としてポーズが不足と評価された文はなかった.\subsection{実験方法}\begin{description}\item[対象とする文:]京大コーパスの1,000文を用いる.そのうち,500文を用いて,係り受け距離のみによるポーズ制御の評価を行う.別の500文を用いて,制御規則を精緻化したものの評価を行う.\item[被験者:]20代女性2名,20代男性1名の合計3名.ともに,文系大学生で愛知県出身2名,静岡県出身1名.\item[合成音声:]市販の音声合成システムを用いる.京大コーパスに付与された係り受け情報(解析誤りはほとんどない)を用いて,我々のポーズ制御規則に基づき,音声合成システムから出力される中間コード(韻律の制御コードを含むデータ)を変更してから,音声合成する.ヘッドホン受聴とし,音声合成される文を見てもよいとした.\end{description}次の2項目に関して官能評価する.\begin{description}\item[係り受け距離のみによるポーズ制御に基づく合成音声:]合成音声のポーズ個所に関し,ポーズが必要(合成音声のままでよい)かポーズが不要(合成音声に含まれるポーズがない方がいい)かを判断(評価対象のポーズの総数は1477個所)\item[制御規則を精緻化した合成音声:]合成音声のポーズ個所に関し,ポーズが必要(合成音声のままでよい)かポーズが不要(合成音声に含まれるポーズがない方がいい)かを判断(評価対象のポーズの総数は1584個所)\end{description}\subsection{実験結果—係り受け距離のみによるポーズ制御—}ベースとなる制御方式として,係り受け距離のみから次のようにポーズ制御する.\begin{itemize}\item係り受け距離1なら,ポーズなし.\item係り受け距離2なら,短いポーズ(以下,短ポーズと称する)\item係り受け距離3以上なら,長いポーズ(以下,長ポーズと称する)\end{itemize}\begin{table}┌ポーズ┌ポーズ\vspace{-2mm}↓↓\vspace{-2mm}例:ポーズ制御に大きく影響する近傍の係り受けに特化して\vspace{-2mm}─────────────────────────\vspace{-2mm}││↑↑││↑↑│↑\vspace{-2mm}│└d=1┘││└d=1┘│└d=1┘\vspace{-2mm}└係り受け距離d=2─┘└──d=2─┘\end{table}3名の被験者の判定結果を表\ref{係り受け距離のみに基づくポーズ制御の評価結果},図4に示す.合成音声のポーズ個所に関し,ポーズが必要(合成音声のままでよい)か不要か(合成音声に含まれているポーズがないほうがよい)かを判断してもらっているので,ポーズ必要は制御がよいことを意味し,ポーズ不要は制御が悪いことを意味する.よって,満足の割合をP/\(P+Q+N\),(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)あるいは,\(P+N\)/\(P+Q+N\),(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)で表すことができる.表\ref{係り受け距離のみに基づくポーズ制御の評価結果}にこれらの値も記載した.3名全員の満足度は,前者の指標で84.1\%,後者の指標で87.1\%である.\begin{table*}\caption{係り受け距離のみに基づくポーズ制御の評価結果}\label{係り受け距離のみに基づくポーズ制御の評価結果}\begin{center}\begin{tabular}{lrrrrr}\hline{\it被験者}&{\itP}&{\itQ}&{\itN}&{\itP/(P+Q+N)(\%)}&{\it(P+N)/(P+Q+N)(\%)}\\\hline被験者K&1325&22&130&89.7&98.5\\被験者N&1123&352&2&76.0&76.2\\被験者T&1277&197&3&86.5&86.7\\被験者全員&3725&571&135&84.1&87.1\\\hline\end{tabular}\end{center}\begin{center}(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)\\\end{center}\end{table*}\begin{figure}[t]\begin{center}\atari(85,111)\vspace{-3mm}\caption{官能評価結果}\vspace{-5mm}\end{center}\end{figure}また,被験者間の評価の重なりの割合を調べると次の通りである.\begin{quote}3名全員がPとした数/3名のいずれかがPとした数=68.1\%\\3名全員がQとした数/3名のいずれかがQとした数=1.3\%\end{quote}本節において,3通りの係り受け距離毎のポーズ制御をしているが,\ref{決定リストを用いた局所解析}章で実験した係り受け解析は,係り受け距離1か2以上かを判定するものであった.\footnote{係り受け解析の研究開発とポーズ挿入の聴取実験を同時並行で進めていたために,このような不整合が生じた}定性的には,係り受け距離が2の場合と3以上の場合で,ポーズ長を変える制御の効果は,あまり大きくはなく,聞きやすさの点で多少変わるものの,ポーズが必要か不要かの判定に影響が出るまでには至らない.これを確認するために,次のような確認実験を行った.係り受け距離2なら短ポーズ,3以上なら長ポーズという制御で作られた音声におけるポーズの必要不要の判断が,係り受け距離2以上で長ポーズという制御で作られた音声におけるポーズの必要不要の判断と異なるかを調べるには,表\ref{ポーズ長制御の有無とポーズの必要不要の判断の関係}の★印の個所で示しますような,\begin{quote}「短ポーズの個所でポーズ必要と判断されたものが,\\長ポーズであれば,ポーズ不要と判断されるか.」\end{quote}について調べれば確認できると考えられる.\begin{table*}\caption{ポーズ長制御の有無とポーズの必要不要の判断の関係}\label{ポーズ長制御の有無とポーズの必要不要の判断の関係}———————————————————————————————————\vspace{-2mm}<係り受け距離2なら短ポーズ,<係り受け距離2以上で長ポーズ>\vspace{-2mm}3以上なら長ポーズ>\vspace{-2mm}———————————————————————————————————\vspace{-2mm}<制御><判断><制御><判断>\vspace{-2mm}長ポーズ─┬→ポーズ必要……長ポーズ──→ポーズ必要\vspace{-2mm}└→ポーズ不要……長ポーズ──→ポーズ不要\vspace{-2mm}\vspace{-2mm}短ポーズ─┬→ポーズ必要★……長ポーズ─┬→ポーズ必要\vspace{-2mm}│└→ポーズ不要★\vspace{-2mm}└→ポーズ不要……長ポーズ─┬→ポーズ必要\vspace{-2mm}└→ポーズ不要\vspace{-2mm}———————————————————————————————————\end{table*}先の本実験とは異なる3名の被験者に,係り受け距離が2で短ポーズを挿入した文のポーズの必要不要を判定してもらい,同じ個所を長ポーズにして,ポーズの必要不要を判定してもらう.用いる文は,先の本実験の1名の被験者が係り受け距離2の短ポーズを必要と判断した112文(1文に複数個所,該当するポーズがある場合,初めの1つのみを対象とした)である.聴取実験の結果,3名全体で,短ポーズが必要で,長ポーズも必要と判断した数が270に対し,短ポーズが必要で,長ポーズは不要と判断した数が2であった.したがって,99.3\%の割合で,「短ポーズの個所でポーズ必要と判断されたものが,長ポーズでも,同じくポーズ必要と判断される」ことが確かめられた.以上から,本節で行った3通りの係り受け距離毎のポーズ制御を対象としたポーズの必要不要に関する判定と,\ref{決定リストを用いた局所解析}章で提案した係り受け解析に基づいて,係り受け距離1か2以上かにより長ポーズの挿入を制御した文を対象としたポーズの必要不要に関する判定は,ほとんど一致すると考えられる.\subsection{実験結果—制御規則の精緻化—}\label{実験結果—制御規則の精緻化—}先の係り受け距離によるポーズ制御に,従来研究で言われていることを次の規則にまとめ,先の係り受け距離による規則に追加する.\begin{enumerate}\item連続した複数文節の文節末にポーズがあり,それらのいずれの文節末にも句読点がない場合,初めの文節末にのみ長ポーズを入れ,その他の文節末に短ポーズを入れる\item連続した複数文節の文節末にポーズがあり,それらのいずれかの文節末に句読点がある場合,初めの句読点にのみ長ポーズを入れ,その他の文節末に短ポーズを入れる\item句読点と区切り記号「・」には,少なくとも短ポーズを入れる\end{enumerate}実行順序は,1),2)を並行して行い,その結果に対して3)を適用する.\\先の表\ref{係り受け距離のみに基づくポーズ制御の評価結果}に対応する値を求め,表\ref{精緻化したポーズ制御の評価結果},図4に示す.\begin{table*}\caption{精緻化したポーズ制御の評価結果}\label{精緻化したポーズ制御の評価結果}\begin{center}\begin{tabular}{lrrrrr}\hline{\it被験者}&{\itP}&{\itQ}&{\itN}&{\itP/(P+Q+N)(\%)}&{\it(P+N)/(P+Q+N)(\%)}\\\hline被験者K&1403&107&74&88.6&93.2\\被験者N&1457&127&0&92.0&92.0\\被験者T&1424&146&14&89.9&90.8\\被験者全員&4284&380&88&90.2&92.0\\\hline\end{tabular}\end{center}\begin{center}(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)\\\end{center}\end{table*}また,被験者間の評価の重なりの割合を調べると次の通りである.\begin{quote}3名全員がPとした数/3名のいずれかがPとした数=81.9\%\\3名全員がQとした数/3名のいずれかがQとした数=9.4\%\end{quote}\subsection{ポーズ不要判定を減らす方法の検討}ポーズ不要と判定されたものは,ポーズ挿入が良くないことを意味する.ポーズ不要の判定が少なくなるように,従来研究で指摘されていない規則まで広げてポーズ挿入規則の精緻化を検討する.まず,\ref{実験結果—制御規則の精緻化—}の聴取実験(3名×500文)でポーズ不要と判定された個所380個所に関して,その原因を人手で調査して傾向を把握する.その結果,次の5カテゴリとその他の計6カテゴリが得られた(傾向把握のための人手調査のため,厳密ではない).\begin{enumerate}\item京大コーパスの誤り14個所(係り先の誤り12,文節まとめ上げの誤り2)\item副詞55個所\\A(副詞)/B/Cで,AがCあるいはそれ以降に係る場合,Aの後にポーズが不要\\例:【すでに】(ポーズ不要)/凍結を/決め\\【首相は】(ポーズ必要)/凍結を/決め\item並列34個所\\A/(B/C)のようにBとCが並列の場合,AからCに係るがAの後にポーズが不要\\例:相手国の(ポーズ不要)/(政治、/経済情勢は)\item短い112個所\\A/B/Cにおいて文節Bが短い文節の場合,ポーズが不要\\例:日本政府に(ポーズ不要)/【強く】/指示し\item短い括弧内29個所\\文中に短い会話文が挿入されている場合,会話文中のポーズが不要\\例:「三年以内に(ポーズ不要)/結論を/出す」と/閣議決定\itemその他136個所\end{enumerate}これらのうちの(2)〜(5)は,意味解析等を必要としないため,現在の言語解析技術を用いれば実行可能な規則である.しかし,これら(2)〜(5)の条件を満たせば,ポーズを挿入しないという規則が妥当かどうかを検討する必要がある.そこで,次の条件を満たせば採用することにする.\begin{displaymath}Pr(ポーズ不要の判定|条件)>>Pr(ポーズ必要の判定|条件)\end{displaymath}なお,(4)における「文節が短い」とは,文節内に形態素が1つしかなく,かつ,文字数が,2文字以下の場合,あるいは,3文字以下の場合,あるいは,4文字以下の場合の合計3通りについて調べる.(5)における挿入会話文が短かいとは,当該文節から2文節以内で括弧が閉じられる場合とする.\ref{実験結果—制御規則の精緻化—}の聴取実験(3名×500文)の評価結果から,(2)〜(5)の条件毎にポーズの要不要の判定数を求める.表\ref{ポーズ不要判定減少のための規則}に結果を示す.条件(3)のみ,わずかにポーズ不要がポーズ必要を上回ったが,全体として,効果的な規則は得られなかった.\begin{table*}\caption{ポーズ不要判定減少のための規則}\label{ポーズ不要判定減少のための規則}\begin{center}\begin{tabular}{lrrr}\hline{\it条件}&{\itポーズ必要}&{\itポーズ不要}&{\it採否}\\\hline(2)副詞&131&49&×\\(3)並列&32&38&△\\(4)短い(4文字以下)&327&66&×\\短い(3文字以下)&276&53&×\\短い(2文字以下)&118&21&×\\(5)短い括弧内&76&25&×\\\hline\end{tabular}\end{center}\end{table*}
\section{考察}
\subsection{局所係り受け解析の精度}従来手法の中で最高性能を持つと考えられているME法に基づく係り受け解析と比較する.文献\cite{内元1999}は,本報の局所係り受けとは異なり,全係り受けを求めている.そこで,次のようにして,ME法を用いて本報のポーズ制御を行った場合のF値がどの程度かを以下のようにして推定する.同文献には,全文節の係り受けの正解率が,人手規則による場合と,ME法による場合の結果として記載されている.そこで,同文献と同じ人手規則を計算機上に実装して,人手規則による局所係り受け解析に基づくポーズ制御を行ったときのF値を求め,両者間で比率の増減量を求め,ME法の前文節の正解率にその増減量を加えることにより,ME法でポーズ制御を行うときのF値を推定する.\begin{tabbing}{\it<全文節の正解率>}\={→}\={<ポーズ制御のF値>}\\人手72.57\%\>→\>人手75.35\%\\ME法87.21\%\>→\>推測90.55\%(=87.21×75.35/72.57)\\\end{tabbing}ME法で用いた学習量は,約8000文であり,本報で学習量8000文のときのF値は89.85\%,学習量1万文のときのF値は90.3\%である.ME法は,少量の学習量でも高い精度が出るという特徴があり,同じ学習量のとき,本法は若干精度が低い.しかし,ME法は学習に膨大な計算時間がかかる点,また,メモリ容量と計算速度が変えられない点に問題がある.\subsection{メモリ容量と計算速度の可変性}本技術で,メモリ容量と計算速度を調整可能であることは,次の場面で特に効果的である.車載情報機器において,カーナビゲーション,通信を利用した情報提供サービス,音声対話による機器の操作と情報取得などの機能が盛り込まれつつある.この中で,特に,音声合成を用いた電子メール,交通情報,観光情報,ニュース情報の読み上げにおいては,構文解析を用いたポーズ,イントネーション制御が必要であるが,前述のように,車載情報機器に様々な機能が盛り込まれ,これを低価格で実現する必要があるため,各処理(音声合成,音声認識,画面表示など)に割り当てられるメモリを大きく取れないし,1つのCPUでいろいろな機能を同時に実行する(マルチタスク処理)必要があるため,計算速度に関しても厳しい要求がある.そのため,こういった要求を満たした車載情報機器全体のシステム設計を短い開発期間で行う際に,メモリ容量と計算速度の可変な処理モジュールは有用である.\subsection{ポーズ挿入規則}本論文における実験からも,従来から提案されている係り受け距離,句読点,ポーズの連続等の情報に基づくポーズ挿入規則の妥当性を確認できた.悪い評価結果の文を分析することによる規則の精緻化に関しては,並列構造の情報を使えば,有効な制御ができる可能性が見られた.この点を詳細に調べるためには,並列構造の情報を用いてポーズ制御した音声を作成して再度聴取実験を行うことが必要である.\subsection{係り受け解析とポーズ挿入規則}本論文におけるポーズ制御音声の聴取実験では,正解の係り受け情報に基づいてポーズ制御した音声を用いた.その理由は,本研究の過程における次の事情による.すなわち,1000文の聴取実験をするのに,3名の各被験者に1日2時間週2日間程度で,半年弱の期間を要したため,聴取実験と同時並行して,係り受け解析法の開発を進めた.そのため,聴取実験には,正解の係り受け解析結果に基づくポーズ制御の音声を用いた.したがって,係り受け解析の精度の評価と,係り受け解析が正しい状態でポーズ制御したときの被験者の満足度の評価を行ったが,提案手法の解析結果を用いてポーズ制御したときの被験者の満足度を,直接評価してはいない.係り受け解析の誤りによるポーズ制御の誤りが,官能評価でも誤りと評価されるものと,問題なしと評価されるものがあり得るため,今後,さらにその評価が必要である.
\section{まとめ}
局所係り受けの精度は90\%強の高い精度で,かつ,実装しやすいポーズ制御のための係り受け解析手法を開発した.開発した係り受け解析は次の特徴を持つ.\begin{itemize}\item保守や移植に有利な機械学習方式である決定リストを採用\itemポーズ挿入位置決定の目的に十分な局所係り受け解析を採用\item処理アルゴリズムがシンプルなため,いろいろなシステムへ組み込む際の移植が低コストで行える\item使用するメモリの容量と処理速度に関して設定を容易に変更できる\item学会発表されている最高性能の手法であるME法に比べて,若干精度が低いが,ME法には,本法のようなメモリ容量と計算速度の可変性はない.\end{itemize}本手法のピーク性能(辞書の大きさを最大にしたとき)は,ポーズ制御のための係り受け解析としては,十分なものであり,さらに,いろいろなタイプの車載システムに応じて,メモリ容量と計算時間を調整できるというフレキシキビリティーを持つ.次に,音声合成におけるポーズ挿入位置制御のための規則を作成し,聴取実験によって性能を確認した.この規則の中心となる主要因は係り受け距離であり,係り受け距離のみに基づく制御で,約85\%のポーズ挿入位置が挿入適当という結果であった.さらに,句読点や,ポーズの連続などの要因を取り入れて規則の精緻化を行い,その結果,約91\%のポーズ挿入位置が挿入適当という結果が得られた.\acknowledgment本研究を進めるにあたって,プログラム,実験等でご協力をいただいた当研究所,菅原朋子殿,白木伸征殿に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{梅村祥之(正会員)}{1979年岐阜大学工学部電子工学科卒業.1981年名古屋大学大学院工学研究科修士課程修了.同年,東京芝浦電気(株)入社.1988年(株)豊田中央研究所入社.自然言語処理,音響・音声処理,画像処理の研究に従事.}\bioauthor{原田義久(非会員)}{1973年名古屋工業大学計測工学科卒業,1975年東京工業大学制御工学専攻修士課程修了,工学博士(京都大学),同年(株)豊田中央研究所入社,2000年名古屋商科大学教授,IEEEICCD'84優秀論文賞,IJCNNBestPresentationAward受賞.}\bioauthor{清水司(非会員)}{1993年東北大学工学部通信工学卒業.1996年京都大学大学院人間・環境学研究科修士課程修了.同年,(株)豊田中央研究所入社,現在,音声対話システムに関する研究に従事.}\bioauthor{杉本軍司(非会員)}{1972年名古屋大学大学院工学研究科博士課程(電子工学)修了.1973年(株)豊田中央研究所入社,以後,移動ロボット,ITSの研究に従事.現在,研究推進部部長.ロボット学会,神経回路学会等会員.工博.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V19N03-01
|
\section{はじめに}
\label{sec:introduction}検索エンジンの主な目的は,ユーザの情報要求に適合する文書をランキング形式でユーザに提供することである.しかし,情報要求に見合うランキングを実現するのは容易ではない.これは,ユーザが入力するクエリが一般的に,短く,曖昧であり\cite{Jansen2000},ユーザの情報要求を推定するのが困難であることに起因する.例えば「マック\textvisiblespace\hspace{0.1zw}価格」というクエリは,「Mac(コンピュータ)」の価格とも,「マクドナルド」の価格とも,もしくは他の「マック」の価格とも解釈できる.そのため,どの「マック」に関する文書が求められているのか分からなければ,ユーザの情報要求に見合うランキングを実現するのは難しい.このような問題を解決する方法の一つとして,適合性フィードバック\cite{Rocchio1971}がある.適合性フィードバックでは,ユーザから明示的(もしくは擬似的)に得られるフィードバックを利用することで,検索結果のランキングを修正する.具体的には,次のような手続きに従ってランキングの修正を行う.\begin{enumerate}\itemクエリに対する初期検索結果をユーザに提示する.\item初期検索結果中から,情報要求に適合する文書をユーザに選択させる.\item選択された文書(フィードバック)を利用して,初期検索結果のランキングを修正する.\end{enumerate}例えば,「Mac(コンピュータ)」の価格に関する文書がフィードバックとして得られれば,ユーザがこの話題に関心を持っていると推測できる.そして,この情報を基に検索結果のランキングを修正することができる.適合性フィードバックには,ベースとするランキングアルゴリズムに応じて,様々な手法がある.Rocchioの手法\cite{Rocchio1971}やIdeの手法\cite{Ide1971}は,ベクトル空間モデルに基づくランキングアルゴリズム\cite{Salton1975}に対する適合性フィードバックの手法として有名である.確率モデルに基づくランキングアルゴリズム\cite{SparckJones2000}においては,フィードバックを用いて,クエリ中の単語の重みを修正したり,クエリを拡張することができる.言語モデルに基づくランキングアルゴリズム\cite{Ponte1998}に対しては,Zhaiらの手法\cite{Zhai2001}が代表的である.このように適合性フィードバックには様々な手法があるが,それらの根底にあるアイディアは同じである.すなわち,適合性フィードバックでは,フィードバックと類似する文書を検索結果の上位にリランキングする.ここで,既存の手法の多くは,テキスト(フィードバック及び検索結果中の各文書)に表層的に出現する単語の情報だけを用いて類似度を算出している.すなわち,テキストに含まれていない単語の情報は利用していない.しかし,表層的には出現していなくても,そのテキストに潜在的に現れうる単語の情報は,リランキングに役に立ちうると考えられる.上の「マック」の例であれば,仮にフィードバック(この例では「Mac(コンピュータ)」の価格に関する文書)に「CPU」や「ハードディスク」などの単語が含まれていなくても,これらの単語はフィードバックとよく関連しており,潜在的にはフィードバックに現れうる.検索結果中の適合文書(i.e.,「Mac(コンピュータ)」の価格に関する文書)についても同様のことが言える.仮にある適合文書にこれらの単語が含まれていなくても,これらの単語は適合文書によく関連しており,潜在的にはその文書に現れうる.このように,テキストに現れうる単語の情報があれば,フィードバックと検索結果中の各文書との類似度を算出する際に有用であると考えられる.そこで,本稿では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まずLatentDirichletAllocation(LDA)\cite{Blei2003}を用いて,テキストに潜在するトピックの分布を推定する.次に,推定された潜在トピックの分布を基に,各テキストに潜在的に現れうる単語の分布を推定する.そして,推定された潜在的な単語の分布とテキストの表層的な単語の分布の両方を用いて,フィードバックと検索結果中の各文書との類似度を算出し,これを基に検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).以降,本稿では,次の構成に従って議論を進める.\ref{sec:lm_approaches}章では,提案手法の基礎をなす,言語モデルに基づくランキングアルゴリズムについて概説する.\ref{sec:lda}章では,提案手法で使用するLDAについて解説する.\ref{sec:proposed_method}章では,提案手法について説明する.\ref{sec:experiments}章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.最後に,\ref{sec:conclusion}章で,本稿の結論を述べる.
\section{言語モデルに基づくランキング}
\label{sec:lm_approaches}本章では,言語モデルに基づくランキングアルゴリズムについて概説する.ここで紹介する技術は,\ref{sec:proposed_method}章で説明する提案手法の基礎をなしている.\subsection{概要}言語モデルに基づくランキングアルゴリズムは,三つのタイプに分類できる.すなわち,クエリの尤度に基づく方法\cite{Ponte1998},文書の尤度に基づく方法\cite{Lavrenko2001},カルバック・ライブラー情報量に基づく方法\cite{Lafferty2001}の三つである.クエリの尤度に基づく方法では,文書セット中の各文書$\bm{d}_{h}\(h=1,\dots,H)$について,$\bm{d}_{h}$を表す言語モデル$P_{\bm{d}_{h}}(\cdot)$を構築する.ユーザによってクエリ$\bm{q}$が入力されたら,各文書$\bm{d}_{h}$について,$P_{\bm{d}_{h}}(\cdot)$がクエリを生成する確率$P_{\bm{d}_{h}}(\bm{q})$を計算する.そして,$P_{\bm{d}_{h}}(\bm{q})$が高い順に各文書をランキングする.文書の尤度に基づく方法は,クエリの尤度に基づく方法と逆のアプローチを採る.すなわち,クエリ$\bm{q}$を表す言語モデル$P_{\bm{q}}(\cdot)$を構築し,文書セット中の各文書$\bm{d}_{h}$について,$P_{\bm{q}}(\bm{d}_{h})$を計算する.そして,$P_{\bm{q}}(\bm{d}_{h})$が高い順に各文書をランキングする.カルバック・ライブラー情報量に基づく方法では,$P_{\bm{q}}(\cdot)$と$P_{\bm{d}_{h}}(\cdot)$の両方を構築する.そして,各文書$\bm{d}_{h}$について,$P_{\bm{q}}(\cdot)$と$P_{\bm{d}_{h}}(\cdot)$のカルバック・ライブラー情報量$KL(P_{\bm{q}}(\cdot)||P_{\bm{d}_{h}}(\cdot))$を計算し,これが小さい順に各文書をランキングする.\subsection{言語モデルの構築方法}\label{ssec:lm_construction}クエリや文書を表す言語モデル\footnote{以降,本稿では,クエリを表す言語モデルをクエリモデルと呼ぶ.また,文書を表す言語モデルを文書モデルと呼ぶ.}は,MaximumLikelihoodEstimation(MLE)やDIRichletsmoothedestimation(DIR)\cite{Zhai2004}などの方法を用いて構築する.MLEでは,テキスト$\bm{t}$($\bm{t}$はクエリや文書)における単語$w$の生起確率$P^{MLE}_{\bm{t}}(w)$を次式によって算出する.\begin{equation}P^{MLE}_{\bm{t}}(w)=\frac{tf(w,\bm{t})}{|\bm{t}|}\label{equ:mle}\end{equation}ただし,$tf(w,\bm{t})$は$\bm{t}$における$w$の出現頻度を表す.また,$|\bm{t}|$は,$\bm{t}$に含まれる単語数を表す.一方,DIRでは,$\bm{t}$における$w$の生起確率$P^{DIR}_{\bm{t}}(w)$を次式によって算出する.\begin{equation}P^{DIR}_{\bm{t}}(w)=\frac{tf(w,\bm{t})+\muP^{MLE}_{\bm{D}_{all}}(w)}{|\bm{t}|+\mu}\label{equ:dir}\end{equation}ただし,$\bm{D}_{all}$は文書セットを表す.また,$\mu$はスムージングパラメータを表す.DIRでは,MLEと異なり,$\bm{D}_{all}$における$w$の出現頻度が加味されており,スムージングが行われている.\subsection{代表的な適合性フィードバックの手法}言語モデルに基づくランキングアルゴリズムに対する代表的な適合性フィードバックの手法として,Zhaiらの手法\cite{Zhai2001}がある.Zhaiらの手法では,フィードバックとして与えられた文書集合$\bm{F}=(\bm{f}_{1},\dots,\bm{f}_{G})$に対して,$\bm{F}$を表す言語モデル$P_{\bm{F}}(\cdot)$を構築する\footnote{以降,本稿では,フィードバックを表す言語モデルをフィードバックモデルと呼ぶ.}.次に,$P_{\bm{F}}(\cdot)$と$P_{\bm{q}}(\cdot)$(初期検索結果を得るために使用したクエリモデル)を足し合わせ,新しいクエリモデルを構築する.そして,新しいクエリモデルを用いて,初期検索結果のランキングを修正する.Zhaiらの手法は,言語モデルに基づくランキングアルゴリズムに対する基本的な適合性フィードバックの手法として重要である.しかし,彼らの手法では,テキストに表層的に存在する単語の情報しか用いられていない.これに対し,提案手法では,テキストに潜在的に現れうる単語の分布を推定し,この情報も用いて適合性フィードバックを行う.
\section{LDA}
\label{sec:lda}本章ではLDA\cite{Blei2003}について解説する.LDAは,提案手法において,各単語がテキストに潜在的に現れうる確率を推定するために用いられる.\subsection{概要}LDAは文書の生成モデルの一つである.LDAでは,文書は複数のトピックから生成されると仮定する.また,文書中の各単語は,各トピックが持つ単語の分布から生成されると仮定する.ある文書における各トピックの混合比$\bm{\theta}=(\theta_{1},\dots,\theta_{K})$は,$(K-1)$単体中の一点を取る.ただし,単体中のある一点が選択される確率は,Dirichlet分布によって決められるとする.以上の生成過程をまとめると,LDAにおける文書$\bm{d}$の生成確率は,次のようにして計算される.\begin{equation}P(\bm{d}|\bm{\alpha},\bm{\beta}_{1},\dots,\bm{\beta}_{K})=\intP(\bm{\theta}|\bm{\alpha})\Biggl(\prod_{j=1}^{J}\biggl(\sum_{k=1}^{K}P(w_{j}|z_{k},\bm{\beta}_{k})\P(z_{k}|\bm{\theta})\biggr)^{tf(w_{j},\bm{d})}\Biggr)d\bm{\theta}\label{equ:lda}\end{equation}ただし,$P(\bm{\theta}|\bm{\alpha})$は,Dirichlet分布から得られる$\bm{\theta}$の生成確率である.$\bm{\alpha}=(\alpha_{1},\dots,\alpha_{K})$は正の実数から構成される$K$次元ベクトルで,Dirichlet分布のパラメータを表す.また,$P(w_{j}|z_{k},\bm{\beta}_{k})$と$P(z_{k}|\bm{\theta})$は,多項分布から得られる$w_{j}$と$z_{k}$の生成確率である.$z_{k}$$(k=1,\dots,K)$はトピックを,$\bm{\beta}_{k}$は$z_{k}$が持つ単語の分布を表す.$J$はLDAで考慮する語彙数を表す.\subsection{パラメータの推定方法}\label{ssec:parameter_estimation}LDAでは,変分ベイズ法やギブスサンプリングなどを用いてパラメータを推定する\cite{Blei2003,Griffiths2004}.ギブスサンプリングを用いれば,より厳密な推定結果が得られる.実装も容易なため,一般的にはギブスサンプリングが用いられることが多い.しかし,ギブスサンプリングには推定に時間を要するという欠点がある.一方,変分ベイズ法は,厳密な推定結果は得られないが,高速に動作する.即時性が要求される検索というタスクの性質を考慮し,提案手法では変分ベイズ法を用いる.以下,変分ベイズ法による推定方法について説明する.まず,訓練データ中の各文書$\bm{d}_{i}$$(i=1,\dots,I)$について,変分パラメータ$\bm{\gamma}_{i}=(\gamma_{i1},\dots,\gamma_{iK})$と$\bm{\phi}_{i}=(\bm{\phi}_{i1},\dots,\bm{\phi}_{iJ})$を導入する.ただし,$\bm{\phi}_{ij}=(\phi_{ij1},\dots,\phi_{ijK})$である.そして,式(\ref{equ:phi})と式(\ref{equ:gamma})を交互に計算し,これらの値を更新する.\begin{align}\phi_{ijk}&\propto\beta_{kj}\exp\biggl(\Psi(\gamma_{ik})-\Psi\Bigl(\sum\limits_{k'=1}^{K}\gamma_{ik'}\Bigr)\biggr)\label{equ:phi}\\\gamma_{ik}&=\alpha_{k}+\sum\limits_{j=1}^{J}\phi_{ijk}\tf(w_{j},\bm{d}_{i})\label{equ:gamma}\end{align}ただし,$\Psi$はディガンマ関数を表す.次に,更新された$\bm{\gamma}_{i}$と$\bm{\phi}_{i}$を用いて,$\alpha_{k}$と$\bm{\beta}_{k}$を更新する.$\alpha_{k}$と$\bm{\beta}_{k}$の更新には,ニュートン-ラフソン法や固定点反復法を用いる\cite{Blei2003,Minka2000}.ここでは固定点反復法による$\alpha_{k}$と$\bm{\beta}_{k}$の更新式を示す.更新式は次の通りである.\begin{align}\beta_{kj}&\propto\sum\limits_{i=1}^{I}\phi_{ijk}\tf(w_{j},\bm{d}_{i})\label{equ:beta}\\\alpha_{k}&=\frac{\sum_{i=1}^{I}\{\Psi(\alpha_{k}+n_{ik})-\Psi(\alpha_{k})\}}{\sum_{i=1}^{I}\{\Psi(\alpha_{0}+|\bm{d}_{i}|)-\Psi(\alpha_{0})\}}\\alpha_{k}^{old}\label{equ:alpha}\end{align}ただし,$n_{ik}=\sum_{j=1}^{J}\phi_{ijk}\tf(w_{j},\bm{d}_{i})$,$\alpha_{0}=\sum_{k'=1}^{K}\alpha_{k'}$とする.また,$\alpha_{k}^{old}$は更新前の$\alpha_{k}$を表すものとする.以降,$\bm{\gamma}_{i}$と$\bm{\phi}_{i}$の更新と,$\alpha_{k}$と$\bm{\beta}_{k}$の更新を繰り返すことで,各パラメータの値を推定することができる.$\alpha_{k}$と$\bm{\beta}_{k}$の値が推定されれば,式(\ref{equ:lda})を用いて,文書$\bm{d}_{i}$の生成確率を求めることができる.また,$\bm{\gamma}_{i}$の値が推定されれば,次式を用いて,文書$\bm{d}_{i}$における単語$w_{j}$の生起確率$P^{LDA}_{\bm{d}_{i}}(w_{j})$を求めることができる.\begin{equation}P^{LDA}_{\bm{d}_{i}}(w_{j})\simeq\sum_{k=1}^{K}\frac{\beta_{kj}\gamma_{ik}}{\sum_{k'=1}^{K}\gamma_{ik'}}\label{equ:pwd}\end{equation}ここで,$\gamma_{ik}/\sum_{k'=1}^{K}\gamma_{ik'}$は,$\bm{d}_{i}$に潜在するトピックの分布に相当する.これに基づいて$\bm{\beta}_{kj}$を足し合わせることで,$w_{j}$が$\bm{d}_{i}$に潜在的に現れうる確率を求めることができる.\subsection{未知テキストに対する適用}\label{ssec:inference}LDAはProbabilisticLatentSemanticAnalysis(PLSA)\cite{Hofmann1999}をベイズ的に拡張したモデルと位置付けられる.PLSAに対するLDAの長所として,LDAは未知テキスト(訓練データ中に含まれないテキスト)に関する確率も推定できるという点が挙げられる.未知テキスト$\bm{t}$にLDAを適用するときは,$\bm{t}$に対して変分パラメータ$\bm{\gamma}_{t}$と$\bm{\phi}_{t}$を導入し,式$(\ref{equ:phi})$と式$(\ref{equ:gamma})$を用いてこれらの値を推定する.ただし,$\alpha_{k}$と$\bm{\beta}_{k}$には,訓練データによって推定された値を用いる.$\bm{\gamma}_{t}$が推定されれば,式$(\ref{equ:pwd})$を用いて,未知テキスト$\bm{t}$における単語$w_{j}$の生成確率$P_{\bm{t}}^{LDA}(w_{j})$を求めることができる.提案手法では,LDAのこの長所を利用して,各単語がフィードバックに潜在的に現れうる確率を求めている.\subsection{情報検索におけるLDAの利用}LDAは,自然言語処理や画像処理,音声認識など,様々な分野で利用されている\cite{Blei2003,Fei-Fei2005,Heidel2007}.情報検索の分野では,例えばWeiらが,クエリの尤度に基づくランキング手法にLDAを利用している\cite{Wei2006}.また,Yiらは文書の尤度に基づくランキング手法に,Zhouらはカルバック・ライブラー情報量に基づくランキング手法にLDAを利用している\cite{Yi2009,Zhou2009}.これらの研究は,LDAを用いて各文書の文書モデルを構築し,それぞれのスコア(e.g.,クエリの尤度)に基づいてクエリに対する検索結果を取得するものである.本研究では,さらに,ユーザからフィードバックが得られる問題(i.e.,適合性フィードバックの問題)に焦点を当てる.我々は,フィードバックに対してもLDAを用いてその言語モデルを構築し,構築されたフィードバックモデルを用いて検索結果を修正する.
\section{提案手法}
\label{sec:proposed_method}本章では,提案手法の概要と,提案手法を構成する各ステップについて詳説する.\subsection{概要}提案手法では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用して,検索結果をリランキングする.表層情報だけでなく潜在情報も考慮することで,表層的なレベルだけでなく潜在的なレベルでもフィードバックと類似する文書を検索結果の上位にリランキングする.図\ref{fig:proposed_method}に提案手法の概要を示す.以降,本稿では,テキスト$\bm{t}$の表層情報と潜在情報の両方を含む言語モデルを$P^{HYB}_{\bm{t}}(\cdot)$と表す(HYBはhybridを表す).まず,ユーザによって入力されたクエリ$\bm{q}$に対して,その初期検索結果$\bm{D}_{\bm{q}}=(\bm{d}_{1},\dots,\bm{d}_{I})$を取得する(\textbf{Step1}).次に,LDAを用いて,$\bm{D}_{\bm{q}}$中の各文書$\bm{d}_{i}$$(i=1,\dots,I)$について,$\bm{d}_{i}$に潜在的に現れうる単語の分布を推定する.そして,$\bm{d}_{i}$の表層的な単語の分布と潜在的な単語の分布の両方を考慮した言語モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$を構築する(\textbf{Step2}).ユーザからフィードバック$\bm{F}=(\bm{f}_{1},\dots,\bm{f}_{G})$が得られたら,$\bm{F}$に対してもLDAを実行し,$\bm{F}$に潜在的に現れうる単語の分布を推定する.そして,検索結果中の各文書と同様,$\bm{F}$に対しても,$\bm{F}$の表層的な単語の分布と潜在的な単語の分布の両方を考慮した言語モデル$P^{HYB}_{\bm{F}}(\cdot)$を構築する(\textbf{Step3}).最後に,構築されたフィードバックモデル$P^{HYB}_{\bm{F}}(\cdot)$と,初期検索結果$\bm{D}_{\bm{q}}$を得るために使用したクエリモデル$P^{MLE}_{\bm{q}}(\cdot)$を混合し,新しいクエリモデル$P^{NEW}_{\bm{q}}(\cdot)$を構築する.そして,検索結果中の各文書$\bm{d}_{i}$について,文書モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$と新しいクエリモデル$P^{NEW}_{\bm{q}}(\cdot)$との類似度を算出し,これに基づいて$\bm{D}_{\bm{q}}$をリランキングする(\textbf{Step4}).次節以降では,各ステップについて詳説する.\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f1.eps}\end{center}\caption{提案手法の概要}\label{fig:proposed_method}\end{figure}なお,提案手法とはそもそもの検索モデルが異なるが,テキストの潜在情報を利用するため,LatentSemanticAnalysis(LSA)を用いることも考えられる.すなわち,各文書をベクトルで表現し,文書セットに対してLSAを実行する.そして,LSAの実行結果を用いて各ベクトルを低次元の意味的空間に射影することで,各文書に潜在的に現れうる単語の情報を利用することができる.しかし,この方法では,今述べた通り,文書セット全体に対してLSAを実行する必要がある.文書セットは時に数千万〜数億文書にも及ぶため,LSAの実行には膨大な時間を要する.さらに,もし文書セットに対する文書の追加や削除があれば,LSAを実行しなおさなければならない.一方,提案手法では,検索結果中の各文書に対する$P^{LDA}_{\bm{d}_{i}}(\cdot)$やフィードバックに対する$P^{LDA}_{\bm{F}}(\cdot)$を構築するため,検索結果に対してLDAを実行する必要がある(\ref{ssec:hdm_construction}節及び\ref{ssec:hfm_construction}節で後述).しかし,検索結果は文書セットより明らかに規模が小さく,これに要する時間は問題にならない(\ref{ssec:computation_time}節で後述).このように,LSAに基づく手法と提案手法の間には,ベースとする検索モデルや効率の面で大きな違いがある.\subsection{初期検索結果の取得}\label{ssec:initial_resuls_acquisition}提案手法では,カルバック・ライブラー情報量に基づいて\cite{Lafferty2001},各文書をランキングする.まず,文書セット$\bm{D}_{all}$中の各文書$\bm{d}_{h}$$(h=1,\dots,H)$について,DIRに基づく文書モデル$P^{DIR}_{\bm{d}_{h}}(\cdot)$をあらかじめ構築しておく.ユーザからクエリ$\bm{q}$が与えられると,$\bm{q}$に対してMLEに基づくクエリモデル$P^{MLE}_{\bm{q}}(\cdot)$を構築する.そして,$\bm{D}_{all}$中の$\bm{q}$を含む各文書について,$P^{MLE}_{\bm{q}}(\cdot)$と$P^{DIR}_{\bm{d}_{h}}(\cdot)$のカルバック・ライブラー情報量を計算する.すなわち,クエリ$\bm{q}$に対する文書$\bm{d}_{h}$の重要度は,次式のように定義される.\begin{equation}initial\_score(\bm{d}_{h},\bm{q})=-KL(P^{MLE}_{\bm{q}}(\cdot)||P^{DIR}_{\bm{d}_{h}}(\cdot))\label{equ:initial_score}\end{equation}この重要度に従って各文書をランキングし,$\bm{q}$に対する初期検索結果$\bm{D_{q}}$を得る.クエリモデルの構築にMLEを用いたのは,言語モデルに基づくランキングに関する先行研究(e.g.,\cite{Zhai2001})に倣ってのことである.なお,クエリモデルの構築にMLEを用いた場合,カルバック・ライブラー情報量に基づくランキングは,クエリの尤度に基づくランキング\cite{Ponte1998}と等価になる.\subsection{文書モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$の構築}\label{ssec:hdm_construction}$\bm{D}_{\bm{q}}$中の各文書$\bm{d}_{i}$$(i=1,\dots,I)$について,$\bm{d}_{i}$の表層情報と潜在情報の両方を含む言語モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$を構築する.まず,各文書$\bm{d}_{i}$について,LDAを用いて,$\bm{d}_{i}$の潜在情報を含む言語モデル$P^{LDA}_{\bm{d}_{i}}(\cdot)$を構築する.具体的な手順は次の通りである.まず,$\bm{D}_{\bm{q}}$に対してLDAを実行し,$\bm{D}_{\bm{q}}$に対するLDAのパラメータ$\alpha_{k}$と$\bm{\beta}_{k}$$(k=1,\dots,K)$,$\bm{\gamma}_{i}$$(i=1,\dots,I)$を推定する(\ref{ssec:parameter_estimation}節参照).次に,各文書について,推定された各パラメータ及び式(\ref{equ:pwd})を用いて$P^{LDA}_{\bm{d}_{i}}(\cdot)$を構築する.$P^{LDA}_{\bm{d}_{i}}(\cdot)$は,$\bm{d}_{i}$に潜在するトピックの分布を基に構築されており,各単語が$\bm{d}_{i}$に潜在的に現れうる確率の分布になる(式(\ref{equ:pwd})参照).次に,構築された$P^{LDA}_{\bm{d}_{i}}(\cdot)$と$P^{DIR}_{\bm{d}_{i}}(\cdot)$を次式によって混合し,$P^{HYB}_{\bm{d}_{i}}(\cdot)$を構築する.\begin{equation}P^{HYB}_{\bm{d_{i}}}(w)=(1-a)P^{DIR}_{\bm{d_{i}}}(w)+aP^{LDA}_{\bm{d_{i}}}(w)\label{equ:hdm}\end{equation}ただし,$0\lea\le1$とする.$P^{DIR}_{\bm{d}_{i}}(\cdot)$は,各文書の表層的な単語の分布を基に構築される(式(\ref{equ:dir})参照).$P^{DIR}_{\bm{d}_{i}}(\cdot)$と$P^{LDA}_{\bm{d}_{i}}(\cdot)$を混合することで,$\bm{d}_{i}$の表層情報と潜在情報の両方を含む言語モデルを構築することができる.\subsection{フィードバックモデル$P^{HYB}_{\bm{F}}(\cdot)$の構築}\label{ssec:hfm_construction}フィードバック$\bm{F}$が得られたら,$\bm{F}$に対しても,$\bm{F}$の表層情報と潜在情報の両方を含む言語モデル$P^{HYB}_{\bm{F}}(\cdot)$を構築する.まず,LDAを用いて,$\bm{F}$の潜在情報を含む言語モデル$P^{LDA}_{\bm{F}}(\cdot)$を構築する.具体的な手順は次の通りである.まず,Step2で訓練されたLDAを$\bm{F}$に適用し,$\bm{F}$に対する変分パラメータ$\bm{\gamma}_{\bm{F}}$を推定する(\ref{ssec:inference}節参照).次に,推定された$\bm{\gamma}_{\bm{F}}$と式(\ref{equ:pwd})を用いて$P^{LDA}_{\bm{F}}(\cdot)$を構築する.$P^{LDA}_{\bm{F}}(\cdot)$は,$P^{LDA}_{\bm{d}_{i}}(\cdot)$と同様,各単語が$\bm{F}$に潜在的に現れうる確率の分布になる.次に,構築された$P_{\bm{F}}^{LDA}(\cdot)$と$P^{DIR}_{\bm{F}}(\cdot)$を次式によって混合し,$P^{HYB}_{\bm{F}}(\cdot)$を構築する.\begin{equation}P^{HYB}_{\bm{F}}(w)=(1-a)P^{DIR}_{\bm{F}}(w)+aP^{LDA}_{\bm{F}}(w)\label{equ:hfm}\end{equation}ただし,$P^{DIR}_{\bm{F}}(\cdot)$は式(\ref{equ:dir})を用いて構築する.$P_{\bm{F}}^{DIR}(\cdot)$と$P^{LDA}_{\bm{d}_{i}}(\cdot)$を混合することで,$\bm{F}$の表層情報と潜在情報の両方を含む言語モデルを構築することができる.\subsection{リランキング}$\bm{D}_{\bm{q}}$をリランキングするため,まず新しいクエリモデルを構築する.新しいクエリモデル$P^{NEW}_{\bm{q}}(\cdot)$は,$\bm{D}_{\bm{q}}$を得るために使用したクエリモデル$P^{MLE}_{\bm{q}}(\cdot)$と,Step3で構築したフィードバックモデル$P^{HYB}_{\bm{F}}(\cdot)$を次式のようにして混合し,構築する.\begin{equation}P^{NEW}_{\bm{q}}(w)=(1-b)P^{MLE}_{\bm{q}}(w)+bP^{HYB}_{\bm{F}}(w)\label{equ:nqm}\end{equation}ただし,$0\leb\le1$とする.最後に,$\bm{D}_{\bm{q}}$中の各文書$\bm{d}_{i}$について,$P^{HYB}_{\bm{d}_{i}}(\cdot)$と$P^{NEW}_{\bm{q}}(\cdot)$のカルバック・ライブラー情報量を算出する.すなわち,クエリ$\bm{q}$とフィードバック$\bm{F}$が与えられた下での文書$\bm{d}_{i}$の重要度を次式のように定義する.\begin{eqnarray}re\mathchar`-ranking\_score(\bm{d}_{i},\bm{q},\bm{F})=-KL(P^{NEW}_{\bm{q}}(\cdot)||P^{HYB}_{\bm{d}_{i}}(\cdot))\nonumber\end{eqnarray}この重要度に従って各文書をリランキングすることで,検索結果のランキングを修正する.
\section{実験}
\label{sec:experiments}本章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.\subsection{実験データ}\label{ssec:data}実験は,第$3$回NTCIRワークショップ\footnote{http://research.nii.ac.jp/ntcir/ntcir-ws3/ws-ja.html}で構築されたウェブ検索評価用テストセット\cite{Eguchi2002}を用いて,これを行った.テストセットは,$11,038,720$ページの日本語ウェブ文書と,$47$個の検索課題から成る.検索課題ごとに,約$2,000$文書に,その課題に対する適合度が付与されている.ただし,適合度は「高適合」「適合」「部分適合」「不適合」のいずれかである.これらの適合度が付与された文書を用いて,検索結果のランキング精度を測ることができる.図\ref{fig:ntcir_subject}に検索課題の一例を示す.各タグが表す意味内容は次の通りである.\begin{description}\itemsep=-0.1zw\item[NUM]課題番号.\item[TITLE]検索システムに入力するであろう単語.課題作成者によって$2$〜$3$語がリストアップされている.左から順に重要.\item[DESC]課題作成者の情報要求を一文で表したもの.\item[RDOC]情報要求に適合する代表的な文書のID.課題作成者によって$2$〜$3$個がリストアップされている.\end{description}\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f2.eps}\end{center}\caption{テストセットにおける検索課題の一例}\label{fig:ntcir_subject}\end{figure}実験では,$\langle$TITLE$\rangle$タグの単語をクエリとして使用した.ただし,提案手法では,検索の質を高めるため,クエリを含む文書(クエリを構成する各タームが最低でも$1$回以上出現する文書)のみをスコア付けの対象として収集する(\ref{ssec:initial_resuls_acquisition}節参照).そのため,$\langle$TITLE$\rangle$タグの全ての単語を用いると,多くの検索課題において,検索される文書数が極端に少なくなってしまった.例えば,課題番号0027,0047,0058などは,それぞれ$17$文書,$5$文書,$14$文書しか検索できなかった.課題番号0061に至っては$1$文書も検索できなかった.このように検索される文書が少ないと,適合性フィードバックの有効性が検証しにくい.すなわち,実際に適合性フィードバックによって初期検索結果のランキングが改善されても,その結果がP@10などの評価尺度の値に反映されにくく,適合性フィードバックが有効に働いたかどうかが判断しづらい.そこで,実験では,この問題を避けるため,十分な検索結果が得られるように,クエリとして使用する単語を$\langle$TITLE$\rangle$タグの最初の$2$語のみとした.ただし,「十分」の定義は「$100$文書以上」とした.また,$\langle$RDOC$\rangle$タグのIDが付与された文書を,ユーザのフィードバックとして使用した.上で述べた通り,これらは課題作成者本人によって選択された代表的な適合文書であり,フィードバックとして使用するのに最適と考えられる.これらの文書は,提案手法の初期検索結果に含まれるとは限らない.初期検索結果に含まれない場合,これらをユーザのフィードバックとして使用するのは奇異に感じられるかもしれない.しかし,これらの文書は,仮に初期検索結果に含まれていた場合も,リランキング前後のランキング精度を測定・比較する際,結局ランキングから取り除かれる(\ref{ssec:evaluation_method}節で後述).言い換えれば,これらは,初期検索結果に含まれていた場合も,初期検索結果に含まれない場合のように,検索結果中に存在していないものとして扱われる.このように,どちらの場合でも存在していないものとして扱われることを考えると,これらの文書が初期検索結果に含まれているか含まれていないかは重要ではない.以上を踏まえ,実験では,これらが初期検索結果に含まれているか含まれていないかは問題にしなかった.$47$個の検索課題のうち,$7$個の検索課題(課題番号:0011,0018,0032,0040,0044,0047,0061)については,実験で使用しなかった.これは,上で述べたようにクエリとして使用する単語を$2$語にしても,十分な文書(i.e.,$100$文書)が検索できなかったためである.さらに,残った$40$課題を,開発データと評価データに分けて使用した.開発データは,提案手法のパラメータを最適化するために使用した.評価データは,提案手法のランキング精度を測定するために使用した.開発データには$8$課題(課題番号:0008〜0017)を,評価データには$32$課題(課題番号:0018〜0063)を使用した.\subsection{実験用検索システム}実験を行うため,提案手法に従って適合性フィードバックを行う検索システムを作成した.実装の詳細は以下の通りである.検索対象とする文書セット(i.e.,$\bm{D}_{all}$)には,テストセットの$11,038,720$文書を使用した.また,文書セット中の各文書について,次の手順に従って文書モデルを構築した.\begin{enumerate}\itemShinzatoらの手法\cite{Shinzato2008}を用いて本文を抽出し,JUMAN\cite{Kurohashi1994}を用いて各文を解析する.\item解析結果及び式(\ref{equ:dir})を用いて,DIRに基づく文書モデルを構築する.ただし,先行研究\cite{Zhai2001,Wei2006,Yi2009}に倣って,$\mu=1,000$とした.\end{enumerate}クエリが与えられたら,次の手順に従ってクエリモデルを構築した.\begin{enumerate}\itemJUMANを用いてクエリを解析する.\item解析結果及び式(\ref{equ:mle})を用いて,MLEに基づくクエリモデルを構築する.\end{enumerate}LDAの実装については次の通りである.パラメータ$\alpha_{k}$$(k=1,\dots,K)$の初期値は$1$とした.また,$\bm{\beta}_{k}$$(k=1,\dots,K)$の初期値にはランダムな値を与えた.$\bm{\gamma}_{i}$と$\bm{\phi}_{i}$を更新する際の反復回数と,$\alpha_{k}$と$\bm{\beta}_{k}$を更新する際の反復回数は,それぞれ$10$回とした.LDAで考慮する語彙数$J$は$100$とした.ただし,LDAで考慮する語彙は,初期検索結果に対する重要度を基に選出した.ここで,初期検索結果$\bm{D}_{\bm{q}}$に対する単語$w$の重要度は,$df(w,\bm{D}_{\bm{q}})*\log(H/df(w,\bm{D}_{all}))$と定義した.ただし,$df(w,\bm{D})$は$\bm{D}$における$w$の文書頻度を表す.\subsection{ランキング精度の測定方法}\label{ssec:evaluation_method}適合性フィードバックの効果は,適合性フィードバック前のランキング(i.e.,初期検索結果のランキング)と,適合性フィードバック後のランキングを比較することで検証できる.このとき,フィードバックとして使用する文書の扱いに気を付けなければならない\cite{Hull1993}.例えば,適合性フィードバック前後のランキングをそのまま比較すると,後者が有利になってしまう.これは,フィードバックとして与えられた文書(適合であることが分かっている文書)が,適合性フィードバック後のランキングの上位に含まれやすいためである.そこで,適合性フィードバック前後のランキングを比較する際,フィードバックとして与えられた文書を適合性フィードバック後のランキングから取り除くという方法が考えられる.しかし,この方法だと,適合性フィードバック前のランキングが有利になってしまう.これは,適合文書が少ないときに特に問題となる.以上を踏まえ,実験では,ランキングの精度を測定する際,フィードバックとして使用した文書を各ランキングから取り除いた.これにより,適合性フィードバック前後のランキングを公平に比較することができる.ランキング精度の評価尺度には,P@10,MeanAveragePrecision(MAP),NormalizedDiscountedCumulativeGainat$10$(NDCG@10)\cite{Jarvelin2002}を用いた.ただし,P@10及びMAPを測定する際は,「高適合」「適合」「部分適合」の文書を正解,「不適合」及び適合度が付与されていない文書を不正解とした.また,NDCG@10は,「高適合」の文書を$3$点,「適合」の文書を$2$点,「部分適合」の文書を$1$点として算出した.\subsection{リランキング性能の調査}\label{ssec:experiment1}まず,提案手法が初期検索結果のランキング精度をどの程度改善できるか調査した.具体的には,初期検索結果のランキング精度と,提案手法によってリランキングを行った後のランキング精度を比較し,提案手法の有効性を検証した.実験には評価データを使用し,各検索課題の初期検索結果を取得する際は,\ref{ssec:data}節で述べたように,$\langle$TITLE$\rangle$タグの最初の$2$単語をクエリとして用いた.また,実験では,$initial\_score$(式(\ref{equ:initial_score})参照)の上位$100$件を初期検索結果とした.提案手法を実行する際は,$\langle$RDOC$\rangle$タグの最初の$2$文書をフィードバックとして用いた.なお,これらの文書に含まれる単語数は平均$3,589$語であった.提案手法に必要な$3$つのパラメータ$a$,$b$,$K$の値は,それぞれ$0.2$,$0.9$,$50$とした.これらは,\ref{ssec:experiment0}節で述べる実験の結果を基に決定した.\begin{table}[b]\vspace{-0.5\Cvs}\caption{リランキング性能の調査結果}\label{tbl:experiment1}\input{01table01.txt}\end{table}結果を表\ref{sbtbl:eRF}に示す.INITは各検索課題に対する初期検索結果のランキング精度の平均値を,OURSは提案手法実行後のランキング精度の平均値を表す.比較のため,初期検索結果に対してベースラインとなる手法を実行したときの結果も示した.ZHAIはZhaiらの手法\cite{Zhai2001}を,OURS($a=0.0$)は提案手法から潜在情報を除いた手法を表す.ただし,ZHAIとOURS($a=0.0$)は本質的にはほとんど同じ手法である.両手法とも,フィードバックの表層の単語分布を文書セット全体の単語分布で補正することでフィードバックモデルを構築し,これを用いてリランキングを行っている.違うのは単語分布の補正の仕方だけである(前者はEMアルゴリズムを用い,後者はDIRを用いて補正を行っている).OURS($a=0.0$)では,$b=0.5$とした.これも,\ref{ssec:experiment0}節で述べる実験の結果を基に決定した.DICもベースラインとなる手法を表す.提案手法の核となるアイディアは,テキスト(フィードバック及び検索結果中の各文書)に潜在的に現れうる単語の情報を適合性フィードバックに利用することである.同義語辞書や関連語辞書などの知識リソースを用いても,同様のアイディアを実現することができる.DICでは,OURS($a=0.0$)をベースに,テキスト中の各単語が同義語を持つ場合,その同義語もそのテキストに出現しているとみなした上でリランキングを行った.ただし,同義知識は,Shibataらの手法\cite{Shibata2008}を用いて例会小学国語辞典\cite{Tajika2001}と岩波国語辞典\cite{Nishio2002}から獲得した.獲得された同義知識(e.g.,「コンピュータ」=「電子計算機」,「ポテト」=「じゃが芋」=「ばれいしょ」)は$4,597$個であった.表\ref{sbtbl:eRF}を見ると,すべての尺度において,OURSがINITを大きく上回っている.例えばP@10は$27.6\%$改善しており,提案手法が初期検索結果をうまくリランキングできたことが分かる.また,提案手法は,ZHAIやOURS($a=0.0$)より高い性能を示した.ZHAIやOURS($a=0.0$)は,テキストの表層情報だけを用いて適合性フィードバックを行っている.一方,提案手法は,テキストの表層情報に加え,テキストの潜在情報も用いて適合性フィードバックを行っている.提案手法がこれらの手法を上回ったことから,潜在情報が適合性フィードバックに有用であったことが分かる.さらに,リランキング結果を調査したところ,提案手法が,テキストに表層的には出現しないが潜在的には現れうる単語の情報をうまく利用していることが確認できた.図\ref{fig:ntcir_subject}の検索課題を例に取ると,「宗教」や「祝日」「聖書」などの単語は,情報要求によく関連するが,フィードバックとして使用した文書には含まれていなかった.そのため,ZHAIやOURS($a=0.0$)では,これらの単語の情報を使用することができなかった.一方,提案手法では,これらの単語がフィードバックにおいてもある程度の確率で現れうると推定できた.具体的には,「宗教」「祝日」「聖書」は,それぞれ$0.0046$,$0.0037$,$0.0024$の確率で現れうると推定できた.なお,フィードバックに$1$回出現した単語として「クリスマス」や「EASTER」などがあったが,これらの生起確率の推定値は,それぞれ$0.0093$,$0.0060$であった.提案手法では,これらの推定結果を用いることで,これらの単語を含む検索結果中の適合文書を上位にリランキングすることができた.DICはあまり有効に機能せず,その結果はZHAIやOURS($a=0.0$)の結果を少し上回る程度であった.この原因は,我々が構築した同義語辞書のカバレッジにあると思われる.DICは,よりカバレッジの高い知識リソースが利用できれば(同義語や関連語などの知識をより多く利用できれば),より有効に機能する可能性を持つ.しかし,そのようなリソースを構築するのは容易ではない.一方,提案手法でも,単語と単語が関連するという知識を必要とする.しかし,DICと違って,何のリソースも必要としない.すなわち,提案手法では,LDAを用いることで,単語と単語が関連するという知識を検索結果から動的に獲得することができる.\ref{sec:introduction}章の「マック{\textvisiblespace}価格」というクエリを例に取ると,このクエリに対する検索結果には「CPU」や「ハードディスク」「ハンバーガー」「ポテト」などの単語が含まれると考えられる.提案手法では,検索結果に対してLDAを実行することで,「CPU」と「ハードディスク」が関連するという知識や「ハンバーガー」と「ポテト」が関連するという知識を,トピックという形で動的に獲得することができる.そして,獲得された知識を用いることで,文書に「ハードディスク」という単語が出現していなくても,「CPU」という単語が出現していれば,「ハードディスク」も潜在的にはその文書に現れうると推測できる.このように,DICと比べると,(カバレッジの高低に関わらず)何のリソースも必要としないという点で,提案手法の方が優れている.提案手法は擬似適合性フィードバックにも適用可能である.そこで,これに対するリランキング性能も調査した.擬似適合性フィードバックでは,初期検索結果の上位$n$文書を適合文書とみなし,適合性フィードバックを行う.実験では,$n=10$として初期検索結果をリランキングし,リランキング前後のランキング精度を比較した.ただし,擬似適合性フィードバックでは,明示的なフィードバック(適合であることが分かっている文書)は存在しない.そのため,ランキングの精度を測る際,他の実験のように,$\langle$RDOC$\rangle$タグの文書を各ランキングから除くことはしなかった.結果を表\ref{sbtbl:pRF}に示す.INITの値が表\ref{sbtbl:eRF}と違うのは,ランキング精度を算出する際,$\langle$RDOC$\rangle$タグの文書を除いていないからである.表\ref{sbtbl:pRF}を見ると,普通の適合性フィードバックに比べると改善の度合いは小さいが,P@10やNDCG@10の値が上昇している.例えば,P@10では$8.2\%$の改善が見られる.このことから,擬似適合性フィードバックにおいても提案手法がある程度機能することが分かる.\subsection{フィードバックが少ない状況でのリランキング性能}\label{ssec:experiment2}現実的には,ユーザが多くのフィードバックを与えてくれるとは考えにくい.そのため,適合性フィードバックの手法は,フィードバックが少ない状況でも機能するべきである.この実験では,このような状況をシミュレートし,フィードバックが少なくても提案手法が機能するかを調査した.具体的には,提案手法に与えるフィードバックを少しずつ減らしていき,リランキング性能がどのように変化するかを調査した.提案手法に与えるフィードバックの分量$G$は,$G=2^{1},2^{0},2^{-1},\dots,2^{-5}$とした.ただし,例えば$G=2^{1}$は,フィードバックとして$2$文書を用いることを意味している.また,例えば$G=2^{-1}$は,フィードバックとして$1$適合文書の半分だけを用いることを意味している.この場合,適合文書中の単語をランダムに半分抽出し,それらを用いて適合性フィードバックを行った.$G<1$の場合も調査したのは,フィードバックとして文書より小さい単位(e.g.,文書のタイトル,スニペット)が与えられた場合を想定し,このような場合にも提案手法が機能するかを調べたかったからである.\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f3.eps}\end{center}\caption{$G$によるリランキング性能の変化}\label{fig:F}\end{figure}結果を図\ref{fig:F}に示す.比較のため,提案手法から潜在情報を除いたとき(i.e.,OURS($a=0.0$))の性能の変化も示した.また,INITは初期検索結果のランキング精度を表す.図から,$G$が小さいときでも,提案手法が高い性能を示すことが分かる.例えば$G=2^{0}$のとき,提案手法は初期検索結果を$24.5\%$改善している.さらに,$G=2^{-5}$のときでも,$5.3\%$の改善が見られた.なお,$G=2^{-5}$のとき,フィードバック$\bm{F}$に含まれる単語数は平均$57$語であった.一方,OURS($a=0.0$)を見ると,$G$が小さくなるにつれ,ほとんど改善が見られなくなった.OURS($a=0.0$)ではテキストの表層情報しか利用していない.そのため,$G$が小さくなるにつれて利用できる情報が少なくなり,初期検索結果を改善できなくなったと考えられる.一方,提案手法では,表層情報だけでなく潜在情報も利用している.利用できる情報が多い分,$G$が小さいときでも,初期検索結果のランキングを改善することができたと考えられる.\subsection{パラメータとリランキング性能の関係}\label{ssec:experiment0}提案手法には$3$つのパラメータ$a$,$b$,$K$がある.$a$は$P^{DIR}_{\bm{d}_{i}}(\cdot)$と$P^{LDA}_{\bm{d}_{i}}(\cdot)$の混合比を調整するパラメータ(式(\ref{equ:hdm})及び式(\ref{equ:hfm})参照),$b$は$P^{MLE}_{\bm{q}}(\cdot)$と$P^{HYB}_{\bm{F}}(\cdot)$の混合比を調整するパラメータ(式(\ref{equ:nqm})参照),$K$はLDAのトピック数である.\ref{ssec:experiment1}節及び\ref{ssec:experiment2}節で述べた実験では,OURSのパラメータを$a=0.2$,$b=0.9$,$K=50$とした.また,OURS($a=0.0$)のパラメータを$b=0.5$とした.これらの値は予備実験の結果を基に決定した.提案手法の性能を最大限に発揮するためには,パラメータとリランキング性能の関係について知る必要がある.予備実験では,この関係を知るため,様々な$(a,b,K)$の組み合わせについて提案手法のリランキング性能を調査し,その結果を比較した.ただし,$a=0.0,0.1,\dots,1.0$,$b=0.0,0.1,\dots,1.0$,$K=10,20,\dots,100$とし,全$1,210$通りの組み合わせについて,調査を行った.開発データを用いて調査した.ある$(a,b,K)$の組み合わせに対するリランキング性能は,他の実験と同じようにして,これを測定した.すなわち,開発データ中の各検索課題について初期検索結果を取得し,提案手法を用いてこれらをリランキングした後,全課題におけるP@10の平均値を算出した.他の実験と同様,クエリには$\langle$TITLE$\rangle$タグの最初の$2$単語を,フィードバックには$\langle$RDOC$\rangle$タグの最初の$2$文書を用いた.\begin{table}[b]\caption{$(a,b)$とリランキング性能の関係}\label{tbl:experiment0}\input{01table02.txt}\end{table}結果を表\ref{tbl:experiment0}及び図\ref{fig:K}に示す.表\ref{tbl:experiment0}は,実験結果を$(a,b)$についてまとめたものである.表中の各セルの値は,各$(a,b)$の組み合わせについて,各$K$のP@10を平均したものである.例えば,$(a,b)=(0.1,0.2)$のセルは,$(a,b,K)=(0.1,0.2,10),$$(0.1,0.2,20),\dots,(0.1,0.2,100)$のP@10の平均値が$0.286$であったことを示している.各列においてもっともP@10が高いセルは,その値を太字で装飾した.また,各行においてもっともP@10が高いセルは,その値に下線を引いた.表から,$(a,b)=(0.1,0.9)$or$(0.2,0.9)$のとき,リランキング性能がもっとも良いことが分かる.また,$a=0.0$のとき(潜在情報を考慮しないとき)は,$b$が大体$0.3$〜$0.5$のとき,リランキング性能が良い.一方,$a\geq0.1$のとき(潜在情報を考慮したとき)は,$b$が大体$0.8$〜$1.0$のとき,リランキング性能が良い.$a=0.0$のときより,性能が良くなる$b$の値(及びそのときのランキング精度)が大きくなっている.これは,潜在情報を考慮することで,フィードバックモデルの信頼度が増すことを示唆している.\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f4.eps}\end{center}\caption{$K$によるリランキング性能の変化}\label{fig:K}\end{figure}図\ref{fig:K}は,$K$によるリランキング性能の変化を示している.図では,表\ref{tbl:experiment0}においてリランキング性能が良かった$3$つの$(a,b)$の組み合わせ$(a,b)=(0.1,0.9),\(0.2,0.9),\(0.3,0.9)$について,$K$による性能の変化を示した.図から,$K$が大体$50$〜$70$のとき,リランキング性能が良いことが分かる.以上の結果をまとめると,提案手法がその性能を発揮するパラメータは,$(a,b)=(0.1,0.9)$or$(0.2,0.9)$,$K$は大体$50$〜$70$となる.\subsection{LDAの実行時間}\label{ssec:computation_time}提案手法では,検索結果中の各文書に対する$P^{LDA}_{\bm{d}_{i}}(\cdot)$を構築するため,検索結果に対してLDAを実行する.また,フィードバックに対する$P^{LDA}_{\bm{F}}(\cdot)$を構築する際は,フィードバックに対してLDAを実行する.本節では,これらの処理に要する時間について考察する.実験では,各検索課題の検索結果($100$文書)に対してLDA(PerlとCを組み合わせて実装)を実行するのに,$13.1$〜$16.0$秒を要した.この程度の時間であれば,提案手法を実行する上で,問題にはならない.適合性フィードバックは,(1)システムによる検索結果の提示,(2)ユーザによる検索結果の閲覧,適合文書の選択,(3)適合文書を用いた検索結果のリランキングという三つのステップから成る.ここで,一般的に考えて,(2)には$1$分以上はかかると思われる.従って,まずユーザに検索結果を提示し,ユーザが検索結果を閲覧している裏でLDAを実行するようなシステムの構成を採れば,(3)に移る前にLDAの実行を終えることができる.このように,検索結果が$100$文書程度であれば,LDAの実行時間は問題にならない.一方,検索結果は,より大きくなり得る.検索結果が大きくなると,LDAの実行時間も大きくなってしまう.これを解決する一つの方法は,ランキングの上位だけを検索結果とすることである.例えば,多くの文書が検索されても,上位$100$文書だけを検索結果とすれば,上述の通り,LDAの実行時間は問題にならない.別の方法として,変分パラメータの推定を並列化することも考えられる.LDAの実行時間は,変分パラメータの推定に要する時間が多くを占める.ここで,各文書に対する変分パラメータは,他の文書に対する変分パラメータと独立である.従って,各文書に対する変分パラメータの推定を並列化し,LDAの実行時間を削減することができる.例えば,Nallapatiらは,$50$ノードのクラスタを用いることでLDAの実行時間を$14.5$倍高速化できたと報告している\cite{Nallapati2007}.提案手法でも並列化を取り入れることで,LDAの実行時間を削減することができると思われる.最後に,フィードバックに対してLDAを実行するのに要した時間を報告する.これは$1$秒にも満たないものであった.例えば,フィードバックが$2$文書の場合,実行に要した時間は,わずか$0.1$〜$0.2$秒であった.従って,フィードバックに対するLDAの実行時間も問題にはならない.
\section{おわりに}
\label{sec:conclusion}本稿では,テキストの表層情報と潜在情報の両方を利用する適合性フィードバックの手法を提案し,その有効性について議論した.提案手法では,LDAを用いて,フィードバックや検索結果中の各文書に潜在的に現れうる単語の分布を推定した.そして,表層的な単語の分布と潜在的な単語の分布の両方を用いてフィードバックと検索結果中の各文書との類似度を算出し,これに基づいて検索結果をリランキングした.実験では,$2$文書(合計約$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のP@10を$27.6\%$改善することを示した.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことを示した(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).今後の課題としては,ネガティブフィードバックの利用が挙げられる.提案手法は高い性能を示したが,ポジティブフィードバック(ユーザが適合と判定した文書)を扱う機構しか持ち合わせていない.ネガティブフィードバック(ユーザが不適合と判定した文書)も利用することで,さらに性能を上げることができないか検討中である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{Blei2003}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQLatentDirichletAllocation.\BBCQ\\newblock{\BemJounalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Eguchi,Oyama,Ishida,Kuriyama,\BBA\Kando}{Eguchiet~al.}{2002}]{Eguchi2002}Eguchi,K.,Oyama,K.,Ishida,E.,Kuriyama,K.,\BBA\Kando,N.\BBOP2002\BBCP.\newblock\BBOQTheWebRetrievalTaskanditsEvaluationintheThirdNTCIRWorkshop.\BBCQ\\newblockIn{\BemProceedingsofthe25thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2002)},\mbox{\BPGS\375--376}.\bibitem[\protect\BCAY{Fei-Fei\BBA\Perona}{Fei-Fei\BBA\Perona}{2005}]{Fei-Fei2005}Fei-Fei,L.\BBACOMMA\\BBA\Perona,P.\BBOP2005\BBCP.\newblock\BBOQABayesianHierarchicalModelforLearningNaturalSceneCategories.\BBCQ\\newblockIn{\BemProceedingsofthe2005IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR2005)},\mbox{\BPGS\524--531}.\bibitem[\protect\BCAY{Griffiths\BBA\Steyvers}{Griffiths\BBA\Steyvers}{2004}]{Griffiths2004}Griffiths,T.~L.\BBACOMMA\\BBA\Steyvers,M.\BBOP2004\BBCP.\newblock\BBOQFindingscientifictopics.\BBCQ\\newblockIn{\BemProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica(NAS)},\mbox{\BPGS\5228--5235}.\bibitem[\protect\BCAY{Heidel,an~Chang,\BBA\shanLee}{Heidelet~al.}{2007}]{Heidel2007}Heidel,A.,an~Chang,H.,\BBA\shanLee,L.\BBOP2007\BBCP.\newblock\BBOQLanguageModelAdaptationUsingLatentDirichletAllocationandanEfficientTopicInferenceAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe8thAnnualConferenceoftheInternationalSpeechCommunicationAssociation(INTERSPEECH2007)},\mbox{\BPGS\2361--2364}.\bibitem[\protect\BCAY{Hofmann}{Hofmann}{1999}]{Hofmann1999}Hofmann,T.\BBOP1999\BBCP.\newblock\BBOQProbabilisticLatentSemanticAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceonUncertaintyinArtificialIntelligence(UAI1999)},\mbox{\BPGS\289--296}.\bibitem[\protect\BCAY{Hull}{Hull}{1993}]{Hull1993}Hull,D.\BBOP1993\BBCP.\newblock\BBOQUsingStatisticalTestingintheEvaluationofRetrievalExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe16thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR1993)},\mbox{\BPGS\329--338}.\bibitem[\protect\BCAY{Ide}{Ide}{1971}]{Ide1971}Ide,E.\BBOP1971\BBCP.\newblock\BBOQNewExperimentsinRelevanceFeedback.\BBCQ\\newblockIn{\BemTheSMARTRetrievalSystem:ExperimentsinAutomaticDocumentProcessing},\mbox{\BPGS\337--354}.Prentice-HallInc.\bibitem[\protect\BCAY{Jansen,Spink,\BBA\Saracevic}{Jansenet~al.}{2000}]{Jansen2000}Jansen,B.~J.,Spink,A.,\BBA\Saracevic,T.\BBOP2000\BBCP.\newblock\BBOQReallife,realusers,andrealneeds:astudyandanalysisofuserqueriesontheweb.\BBCQ\\newblock{\BemInformationProcessingandManagement},{\Bbf36}(2),\mbox{\BPGS\207--227}.\bibitem[\protect\BCAY{J{\"{a}}rvelin\BBA\Kek{\"{a}}l{\"{a}}inen}{J{\"{a}}rvelin\BBA\Kek{\"{a}}l{\"{a}}inen}{2002}]{Jarvelin2002}J{\"{a}}rvelin,K.\BBACOMMA\\BBA\Kek{\"{a}}l{\"{a}}inen,J.\BBOP2002\BBCP.\newblock\BBOQCumulatedGain-BasedEvaluationofIRTechniques.\BBCQ\\newblock{\BemACMTransactionsonInformationSystems},{\Bbf20}(4),\mbox{\BPGS\422--446}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{Kurohashi1994}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsofJapaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources(SNLR)},\mbox{\BPGS\22--28}.\bibitem[\protect\BCAY{Lafferty\BBA\Zhai}{Lafferty\BBA\Zhai}{2001}]{Lafferty2001}Lafferty,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2001\BBCP.\newblock\BBOQDocumentLanguageModels,QueryModels,andRiskMinimizationforInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe24thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2001)},\mbox{\BPGS\111--119}.\bibitem[\protect\BCAY{Lavrenko\BBA\Croft}{Lavrenko\BBA\Croft}{2001}]{Lavrenko2001}Lavrenko,V.\BBACOMMA\\BBA\Croft,W.~B.\BBOP2001\BBCP.\newblock\BBOQRelevance-BasedLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe24thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2001)},\mbox{\BPGS\120--127}.\bibitem[\protect\BCAY{Minka}{Minka}{2000}]{Minka2000}Minka,T.~P.\BBOP2000\BBCP.\newblock\BBOQEstimatingaDirichletdistribution.\BBCQ\\newblock\BTR,Microsoft.\bibitem[\protect\BCAY{Nallapati,Cohen,\BBA\Lafferty}{Nallapatiet~al.}{2007}]{Nallapati2007}Nallapati,R.,Cohen,W.,\BBA\Lafferty,J.\BBOP2007\BBCP.\newblock\BBOQParallelizedVariationalEMforLatentDirichletAllocation:AnExperimentalEvaluationofSpeedandScalability.\BBCQ\\newblockIn{\BemProceedingsofthe7thIEEEInternationalConferenceonDataMainingWorkshops(ICDMW2007)},\mbox{\BPGS\349--354}.\bibitem[\protect\BCAY{Ponte\BBA\Croft}{Ponte\BBA\Croft}{1998}]{Ponte1998}Ponte,J.~M.\BBACOMMA\\BBA\Croft,W.~B.\BBOP1998\BBCP.\newblock\BBOQALanguageModelingApproachtoInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe21ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR1998)},\mbox{\BPGS\275--281}.\bibitem[\protect\BCAY{Rocchio}{Rocchio}{1971}]{Rocchio1971}Rocchio,J.~J.\BBOP{1971}\BBCP.\newblock\BBOQRelevanceFeedbackinInformationRetrieval.\BBCQ\\newblockIn{\BemTheSMARTRetrievalSystem:ExperimentsinAutomaticDocumentProcessing},\mbox{\BPGS\313--323}.Prentice-HallInc.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{Salton1975}Salton,G.,Wong,A.,\BBA\Yang,C.-S.\BBOP1975\BBCP.\newblock\BBOQAVectorSpaceModelforAutomaticIndexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(11),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{Shibata,Odani,Harashima,Oonishi,\BBA\Kurohashi}{Shibataet~al.}{2008}]{Shibata2008}Shibata,T.,Odani,M.,Harashima,J.,Oonishi,T.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQ{SYNGRAPH}:AFlexibleMatchingMethodbasedonSynonymousExpressionExtractionfromanOrdinaryDictionaryandaWebCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\787--792}.\bibitem[\protect\BCAY{Shinzato,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008}Shinzato,K.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQALarge-ScaleWebDataCollectionasaNaturalLanguageProcessingInfrastructure.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC2008)},\mbox{\BPGS\2236--2241}.\bibitem[\protect\BCAY{{Sp{\"a}rckJones},Walker,\BBA\Robertson}{{Sp{\"a}rckJones}et~al.}{2000}]{SparckJones2000}{Sp{\"a}rckJones},K.,Walker,S.,\BBA\Robertson,S.~E.\BBOP2000\BBCP.\newblock\BBOQAProbabilisticModelofInformationRetrieval:DevelopmentandComparativeExperiments.\BBCQ\\newblock{\BemInformationProcessingandManagement},{\Bbf36}(6),\mbox{\BPGS\779--808,\809--840}.\bibitem[\protect\BCAY{Wei\BBA\Croft}{Wei\BBA\Croft}{2006}]{Wei2006}Wei,X.\BBACOMMA\\BBA\Croft,W.\BBOP2006\BBCP.\newblock\BBOQLDA-BasedDocumentModelsforAd-hocRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe29thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2006)},\mbox{\BPGS\178--185}.\bibitem[\protect\BCAY{Yi\BBA\Allan}{Yi\BBA\Allan}{2009}]{Yi2009}Yi,X.\BBACOMMA\\BBA\Allan,J.\BBOP2009\BBCP.\newblock\BBOQAComparativeStudyofUtilizingTopicModelsforInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe31stEuropeanConferenceonInformationRetrieval(ECIR2009)},\mbox{\BPGS\29--41}.\bibitem[\protect\BCAY{Zhai\BBA\Lafferty}{Zhai\BBA\Lafferty}{2001}]{Zhai2001}Zhai,C.\BBACOMMA\\BBA\Lafferty,J.\BBOP2001\BBCP.\newblock\BBOQModel-basedFeedbackintheLanguageModelingApproachtoInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe20thACMConferenceonInformationandKnowledgeManagement(CIKM2001)},\mbox{\BPGS\403--410}.\bibitem[\protect\BCAY{Zhai\BBA\Lafferty}{Zhai\BBA\Lafferty}{2004}]{Zhai2004}Zhai,C.\BBACOMMA\\BBA\Lafferty,J.\BBOP2004\BBCP.\newblock\BBOQAstudyofsmoothingmethodsforlanguagemodelsappliedtoinformationretrieval.\BBCQ\\newblock{\BemACMTransactionsonInformationSystems},{\Bbf22}(2),\mbox{\BPGS\179--214}.\bibitem[\protect\BCAY{Zhou\BBA\Wade}{Zhou\BBA\Wade}{2009}]{Zhou2009}Zhou,D.\BBACOMMA\\BBA\Wade,V.\BBOP2009\BBCP.\newblock\BBOQLatentDocumentRe-Ranking.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2009)},\mbox{\BPGS\1571--1580}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{2002}]{Nishio2002}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP2002\BBCP.\newblock\Jem{岩波国語辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{田近}{田近}{2001}]{Tajika2001}田近洵一\BBOP2001\BBCP.\newblock\Jem{例解小学国語辞典}.\newblock三省堂.\end{thebibliography}\begin{biography}\bioauthor{原島純}{$2007$年京都大学工学部電気電子工学科卒業.$2009$年同大学院情報学研究科修士課程修了.現在,同大学院博士後期課程在学中.情報検索の研究に従事.}\bioauthor{黒橋禎夫}{$1989$年京都大学工学部電気工学第二学科卒業.$1994$年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,$2006$年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V17N05-01
|
\section{はじめに}
label{Chapter:introduction}近年,Webを介したユーザの情報流通が盛んになっている.それに伴い,CGM(ConsumerGeneratedMedia)が広く利用されるようになってきている.CGMのひとつである口コミサイトには個人のユーザから寄せられた大量のレビューが蓄積されている.その中には製品の仕様や数値情報等の客観的な情報に加え,組織や個人に対する評判や,製品またはサービスに関する評判等のレビューの著者による主観的な見解が多く含まれている.また,WeblogもCGMのひとつである.Weblogにはその時々に書き手が関心を持っている事柄についての記述が存在し,その中には評判情報も多数存在している.これらのWeb上の情報源から,評判情報を抽出し,収集することができれば,ユーザはある対象に関する特徴や評価を容易に知ることができ,商品の購入を検討する際などに意思決定支援が可能になる.また,製品を販売する企業にとっても商品開発や企業活動などに消費者の生の声を反映させることができ,消費者・企業の双方にとって,有益であると考えられる.そのため,この考えに沿って,文書中から筆者の主観的な記述を抽出し,解析する試みが行われている.本研究の目的は評判情報抽出タスクに関する研究を推進するにあたって,必要不可欠と考えられる評判情報コーパスを効率的に,かつ精度良く作成すると共に,テキストに現れる評判情報をより精密に捉えることにある.既存研究においても,機械学習手法における学習データや評価データに評判情報コーパスが利用されているが,そのほとんどが独自に作成された物であるために共有されることがなく,コーパスの質に言及しているものは少ない.また,コーパスの作成過程においても評価表現辞書を作成支援に用いるなど,あらかじめ用意された知識を用いているものが多い.本研究においては「注釈者への指示が十分であれば注釈付けについて高い一致が見られる」という仮説が最初に存在した.その仮説を検証するため,注釈者へ作業前の指示を行った場合の注釈揺れの分析と注釈揺れの調査を行う.\ref{sec:予備実験1の結果}節で述べるように,注釈者間の注釈付けの一致率が十分では無いと判断されたが,注釈揺れの主要な原因の一つとして省略された要素の存在があることがわかった.そのため,省略されている要素を注釈者が補完しながら注釈付けを行うことで注釈付けの一致率を向上できるという仮説を立てた.\ref{sec:予備実験2の結果}節で述べるように,この仮説を検証するために行った実験から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえないという結果が得られた.そこで,たくさんの注釈事例の中から,当該文と類似する事例を検索し提示することが,注釈揺れの削減に効果があるのではないかという仮説を立てた.この仮説に基づき,注釈事例の参照を行いながら注釈付けが可能なツールを試作した.ツールを用いて,注釈事例を参照した場合には,注釈事例を参照しない場合に比べて,高い一致率で注釈付けを行うことが出来ると期待される.また,評判情報のモデルについて,既存研究においては製品の様態と評価を混在した状態で扱っており,評価対象—属性—評価値の3つ組等で評判情報を捉えていた.本研究では,同一の様態に対してレビュアーにより評価が異なる場合にも評判情報を正確に捉えるために,製品の様態と評価を分離して扱うことを考える.そのために,項目—属性—属性値—評価の4つの構成要素からなる評判情報モデルを提案する.なお,本研究で作成する評判情報コーパスの利用目的は次の3つである.\begin{itemize}\item評判情報を構成要素に分けて考え,機械学習手法にて自動抽出するための学習データを作成する\item属性—属性値を表す様態と,その評価の出現を統計的に調査する\item将来的には抽出した評判情報の構成要素の組において,必ずしも評価が明示されていない場合にも,評価極性の自動推定を目指す\end{itemize}上記の手法により10名の注釈者が作成した1万文のコーパスについて,注釈付けされた部分を統計的に分析し,提案した評判情報モデルの特徴について実例により確認する.また,提案モデルを用いることでより正確に評判を捉えられることを示す.
\section{関連研究}
\label{sec:関連研究}乾ら\shortcite{Inui06}は「評価を記述するもの」や「賛否の表明」は意見の下位分類に含まれるとしている.本研究でも,意見の一部として評判が存在すると考える.意見は主に主観的言明全般を指しているが,物事に対する肯定や否定を表明する評判はその中の一部と考えるからである.評判情報に関連する研究は,レビュー中の意見記述部分や評判情報記述部分を特定する問題を扱う研究と,記述されている評判が肯定的か否定的かの極性を判断する問題を扱う研究の二つに大きく分かれる.評判情報記述部分を特定する問題に関連する研究の一つに,文書中のある程度まとまった範囲での意見性を判定するものと,文単位での意見性判定を行うものがある.それとは別に,評判情報記述部分を特定する問題に対するアプローチの中には,評判情報の構成要素を定義し,各構成要素組を抽出しようとするものがある.文単位での意見性判定においてはYuelal.\shortcite{Yu03}やPanget~al.\shortcite{Pang04}が評価文書中の事実文と意見文を分け,意見文を抽出している.峠ら\shortcite{Touge05}においても文単位で意見性の判定を行っている.この研究では,文中に現れる単語が意見文になりやすい単語であるか否かを学習しWeb掲示板から意見文の抽出を行っている.さらに,日本語における評判情報抽出に関する先駆けの研究でもある立石ら\shortcite{Tateishi01}の研究は,あらかじめ用意された評価表現辞書を用いて,対象物と評価表現を含む一定の範囲を,意見として抽出している.評判情報の構成要素を定義し,各構成要素組を抽出しようとする研究においては,村野ら\shortcite{Nomura03}が評価文の文型パターンを整理し,その構成要素を``対象''``比較対象''``評価''``項目''``様態''としている.また,各構成要素毎に辞書を用意することで抽出を行っている.Kobayashiet~al.\shortcite{Kobayashi07}では評判情報を``Opinionholder'',``Subject'',``Part'',``Attribute'',``Evaluation'',``Condition'',``Support''からなるものとし,対象とその属性・評価の関係を抽出している.また,構成要素組の同定に着目した研究として,飯田ら(飯田\他\2005)\nocite{Iida05}は評判情報における属性—属性値の組同定問題を,照応解析における照応詞—先行詞の組同定問題に類似した問題と捉え,トーナメント手法を用いて属性—属性値対を同定している.次に,記述されている意見の極性を判断する研究について述べる.極性を判断する単位についても文書単位,文単位など様々な範囲を対象とした研究が行われている.Turney\shortcite{Turney02}は文書中に含まれる評価表現の出現比率から評価文書全体の評価極性を求めている.Panget~al.\shortcite{Pang02}も文書単位での極性判断を行っており,これには機械学習手法を用いている.文単位の極性判断としてはYuelal.\shortcite{Yu03}が,Turney\shortcite{Turney02}と同様の手法で評価文を肯定,否定,中立に分類している.上記の研究に関連して,評判情報に関するコーパスの必要性に着目した研究も行われている.日本語の評判情報コーパスに関係する研究としては,小林ら\shortcite{kobayashi06}が,あらかじめ辞書引きにより評価値候補を与えた上での意見タグ付きコーパスの作成を行っている.この研究では,評価値候補に対する注釈者の判断はある程度一致したが,関係や根拠に対する判断の揺れは無視できるものではないことを報告している.また,Kajiet~al.\shortcite{Kaji06}では箇条書き,表,定型文などを用いてHTML文書から評価文コーパスの自動構築を行っている.また,意見分析に関するコーパス研究においてはWiebeet~al.\shortcite{Wiebe02}がMPQAコーパスを作成している.これは,新聞記事に対して,主観的な表現とその意見主が注釈付けされた大規模なコーパスである.Sekiet~al.\shortcite{Seki07}は日本語,中国語,英語の新聞記事に対し,文単位で意見文かどうかを注釈付けしている.また,意見文に対してその極性や意見主を注釈付けしている.既存研究のコーパスと本研究で作成するコーパスの違いについて述べる.MPQAコーパス\shortcite{Wiebe02}においては,主観表現に対して注釈付けを行っており,この点が本研究で作成するコーパスと関連がある.評判情報を正確に捉えるには対象の項目がどのような様態かを表している表層表現に対して主観表現であることに限らず注釈付けを行う必要があるが,MPQAコーパスでは対応していない.一方で,本研究で作成したコーパスでは客観的表現にも注釈付けを行っている.次にSekiら\shortcite{Seki07}のコーパスとの比較だが,このコーパスでは文単位で意見性の有無を注釈付けしている.評判情報の構成要素の抽出を行うためには文単位ではなく構成要素単位での注釈付けが必要であるが,これには対応していない.一方で,本研究で作成しているコーパスでは対応している.また,Kajiら\shortcite{Kaji06}のコーパスは文書源としてWebデータを用いている点では,本研究で作成したコーパスと同じだが,注釈付けの単位は文単位であり,評判情報の構成要素の単位で注釈付けはされていない.小林ら\shortcite{kobayashi06}のコーパスも文書源はWebデータである.しかし,同論文に公表されている情報によれば注釈付けされている評価値は一語単位である.また,評価値として主観的な表現のみを注釈付けしており,客観的な値は評価値として扱っておらず,評価値に付随する根拠として扱っている.本稿では主観的な値に加え,客観的な値も属性値の一部として扱っている.小林ら\shortcite{kobayashi06}では客観的な値には注釈付けがされているわけではないため,この点が異なる.さらに,様態を表す表現も全て評価値として扱われている上,評価対象間の階層構造の注釈付けは必要性を認めながらも扱っていない.これに対して,本研究のコーパスでは様態を表す属性値と評価を分離している.さらに,評価対象間の関係についてはオントロジー情報として記述を行う.加えて,本研究のコーパスでは,長い表現や客観的な表現に対しても注釈付けを行っている.製品の評価に対して一語単位でのみ注釈付けを行うと,「好き」「嫌い」「良い」「悪い」などの特定の表現のみに注釈付けが行われてしまう.しかし,レビュアーがレビューを記述する際には様々な表現を用いて肯定否定を明示している.また,製品の様態についても,レビュアーは様々な様態に着目してレビューを記述している.このため,一語単位でのみ注釈を行う場合,レビュアーが着目した製品の様態を誤って注釈付けしたり,注釈付けを落としてしまうことがあると考えられる.さらに,これらの長い表現は,表現の一部の語のみに注釈付けを行っても正しい注釈にならないため,長い表現を注釈付けする必要性があると考えた.長い表現に注釈付けを行う必要性がある例を図\ref{fig:注釈付け対象となる長い表層表現の例}に示す.\begin{figure}[t]\input{02fig01.txt}\caption{注釈付け対象となる長い表層表現の例}\label{fig:注釈付け対象となる長い表層表現の例}\end{figure}図\ref{fig:注釈付け対象となる長い表層表現の例}の例における下線部は一語だけに注釈付けを行うことはできないが,これらは製品の様態を表す値段や,評価であり評判情報の一部となる.注釈付け支援に関する研究では,野口ら(野口\他\2008)\nocite{Noguchi08}がセグメント間の関係を注釈付けするためのアノテーションツールSLATを作成している.また,洪ら\shortcite{Kou05}は対話コーパス作成の際に,事例参照を注釈付け作業の支援として用いており,有効性を報告している.他にも,翻訳の分野においては翻訳メモリと呼ばれる原文と訳文のデータベースを用いた翻訳支援が行われている.これも,ある種の事例参照と言える.本研究では,Kajiら\cite{Kaji06}や小林ら\cite{kobayashi06}のコーパスのように注釈を自動的に付与せずに,注釈事例の参照を用いた評判情報コーパスの作成を行う.注釈者が注釈付けを行う際に,あらかじめ注釈付けがなされている状態で対象の文を見てもらうと,あらかじめ付与された注釈が判断の前提となってしまうことが予想される.あらかじめ付与された注釈が注釈者の判断に与える影響に関する実験については今後の課題とし本稿では行わない.本研究では注釈者が判断に迷う場合に,事例を参照しつつも独自の判断の下で注釈付けを行ってもらうというアプローチを採用した.また,評判情報のモデル化についても,従来研究においては製品の様態と評価が混在するモデルがその多くであった.本研究では,様態に対する評価がレビュアーによって異なる場合を正確に表現するために,これを分離するモデルを提案する.本研究では製品全体やその部分について以下の2種類を様態として扱う.\begin{itemize}\item具体的な値\\例:30~cm,2~G\item他の製品との比較から得られる値など主観的であっても,特にその表層表現のみからでは肯定的や否定的といった評価が一意に決まらないもの\\例:速い,静か,明るい\end{itemize}一方,以下に示す例のように,肯定や否定といった極性が陽に記述されている部分を評価として扱う.\begin{itemize}\item陽に記述されている極性表現\\例:大満足である,いいです,ちょっと不満\end{itemize}
\section{評判情報の提案モデル}
\label{sec:評判情報の提案モデル}\subsection{4つ組による評判情報モデル}\label{sec:4つ組による評判情報モデル}本節では,本研究で提案する評判情報モデルについて説明する.提案モデルでは,評判情報は製品やサービスに対する個人の見解やその製品がどのようなものであるかが述べられたものであるとし,4つの構成要素から成るものとする.構成要素の各項を以下に示す.\begin{description}\item[項目]製品やサービスを構成する要素を意味する概念クラスやそのインスタンス\item[属性]項目の様態を表す観点\item[属性値]属性に対する様態の内容\item[評価]項目に対する極性を明示している主観的見解\end{description}提案モデルに沿った評判情報の解析例を例文1に示す.\vspace*{0.5\baselineskip}例文1:\underline{この製品}$_{項目}$は\underline{価格}$_{属性}$が\underline{安い}$_{属性値}$のが\underline{魅力です}$_{評価}$。\vspace*{0.5\baselineskip}提案モデルでは(属性,属性値)の組で表現される項目の様態が属する層と,評価の属する層との2層構造とすることで,従来の研究\shortcite{Kobayashi05-1}では混同されることが多かった対象となる項目の様態と話者の評価を分離することができる.これにより,例文2,例文3のように同一の様態に対して異なる極性の評価が記されている場合にも,評判情報を正確に捉えることが出来るようになる.\vspace*{0.5\baselineskip}例文2:\underline{このフィギュア}$_{項目}$は\underline{フォルム}$_{属性}$を\underline{忠実に再現している}$_{属性値}$のが\mbox{\underline{お気に入りです}$_{評価}$。}例文3:\underline{この製品}$_{項目}$は\underline{フォルム}$_{属性}$を\underline{忠実に再現している}$_{属性値}$ために\underline{魅力が薄い}$_{評価}$。\vspace*{0.5\baselineskip}本研究で提案するモデルにおける評価は,主観的な表現の中でもその表現のみでいかなる文脈でも変わらない極性を示す表現である.文脈に依存して異なる極性を暗示する表現は評価としない.提案モデルの構造を図\ref{fig:評判情報モデル概要}に示す.図\ref{fig:評判情報モデル概要}では製品の部分全体関係とその様態を表す層と,製品やその部分に関する評価の属する層を示している.この2層の関係は,様態を表す層に属する属性—属性値の組を評価の属する層にある評価の理由とし,様態を表す層に属する製品やその部分を対象に評価が記述することで表される.このように,製品の様態と評価を分離した2層構造にすることで,同一の属性—属性値の組からレビュアーにより異なる評価が与えられている場合には異なる評価への関連付けが可能となっている.提案モデルでは,肯定・否定は評価によってのみ決定され,属性—属性値の組についてはそれが主観性を含むものであっても,製品の様態のみを表し,評価は含まれていないとして扱う.\begin{figure}[t]\includegraphics{17-5ia2f2.eps}\caption{評判情報モデル概要}\label{fig:評判情報モデル概要}\end{figure}また,様態を表す層では,製品の項目が部分—全体関係や上位—下位関係のような階層構造を持ち,それぞれが属性,属性値を持つことを表している.これは必ずしも階層構造の葉の部分のみが属性,属性値を持つわけではなく,上位の項目の属性—属性値の組について記述されている場合もある.さらに,下位の階層の項目が持つ属性—属性値の組を理由に上位の階層の項目を評価する場合もありえる.項目が指示するモノが属する概念クラスは全体—部分関係や上位—下位関係といった階層構造を有する.この情報はいわゆるオントロジー(の一部)であり,必ずしも文書中に陽に現れるものではない.しかし,製品への評価を考えた場合に,その部分の属性や評価が全体の評価の理由になっている場合が考えられる.そのため,次の2点を目的としてオントロジーに関する情報を注釈者に記述してもらう.\begin{itemize}\item注釈者が項目間の関係をどのように捉えたかを,コーパス利用者が特定できるようにする\item注釈者が製品をどのように捉えたかについての構造を残すことで,コーパス利用者が項目と属性の切り分けを確認できるようにする\end{itemize}なお,オントロジーに関する情報は文中に付与するタグとは別に記述する方法を提案する.記述されたオントロジー情報の例を図\ref{fig:オントロジー情報の記述例}に示す.\begin{figure}[t]\input{02fig03.txt}\caption{オントロジー情報の記述例}\label{fig:オントロジー情報の記述例}\end{figure}オントロジー情報はオントロジーの木構造に現れる各ノードを先順で記述してあり,行頭にある\verb|+|は深さを,その後ろの\verb|[]|の中が各階層の概念番号を表している.この概念番号はitemタグを注釈付けする際のclass属性の値と対応している.\verb|<>|の中は表層表現であり,同一概念や指示物を表す表層表現は同一の概念番号を付与している.なお,提案モデル中ではレビューで着目している製品に対応する概念が起点になっており,それより上の側には概念の上位—下位関係が,そしてそれよりも下側には概念の全体—部分関係が記されている.図\ref{fig:オントロジー情報の記述例}の例では「この圧力鍋」が起点となっている.この方法により注釈者毎にオントロジー情報を作成してもらうことを想定している.また,各注釈者が作成したオントロジー情報を1つに統合することは想定していない.また,このモデルにおいては評価の理由となるのが属性—属性値の組であると考える.先行研究のモデルの多くでは,評価と属性値とが区別無く扱われていた.本研究ではこれらを別々に扱う.また,一般的には主観的な表層表現と評価には密接な関係がある.しかし,主観的な表層表現が必ずしも極性を一意に決定するわけではない.つまり,評価ではない.提案モデルでは肯定・否定・中立の判断にかかわる表層表現を評価と呼び,主観的な表現であっても評価の理由となる様態を表現しているものを属性—属性値と呼ぶ.例を以下に示す.\vspace*{0.5\baselineskip}例文4:\underline{ディスプレイ}$_{項目}$の\underline{画質}$_{属性}$も\underline{きれい}$_{属性値}$で\underline{いいです}$_{評価}$ね。\vspace*{0.5\baselineskip}なお,構成要素の各項は表層表現が文中で省略されている場合がある.特に,属性—属性値の組については片方が省略されている場合が多く存在する.例文を次に示す.\vspace*{0.5\baselineskip}例文5:\underline{このカメラ}$_{項目}$は\underline{小さく}$_{属性値}$て\underline{気に入っています}$_{評価}$。\vspace*{0.5\baselineskip}例文5では属性値「小さい」が単独で出現している.これは本来ならば属性として現れるべき「大きさ」や「サイズ」といった表現が省略されているものと解釈する.\subsection{評判情報を注釈付けするためのタグセット}\label{sec:評判情報を注釈付けするためのタグセット}\begin{figure}[b]\input{02fig04.txt}\caption{評判情報構成要素のタグセット}\label{fig:評判情報構成要素のタグセット}\end{figure}本研究では,前節で述べたモデルの項目をitem,属性をattribute,属性値をvalue,評価をevaluationとしてXMLのタグセットを作成した.作成したタグセットを図\ref{fig:評判情報構成要素のタグセット}に示す.itemタグは対象となる製品やその部分を表す表層表現に付与する.同様にattributeタグ,valueタグ,evaluationタグはそれぞれ,属性,属性値,評価を表す表層表現に付与する.図\ref{fig:評判情報構成要素のタグセット}には注釈付与のためのXMLタグの要素名と属性情報を示してある.なお,各タグにはそれぞれ一意に決まる識別子をid属性として付与する.attributeタグとvalueタグは片方が省略されている場合を考え,組ごとに一意に決まる識別子をそれぞれのpair属性の値として付与する.evaluationタグにはその評価の理由となるattribute-valueのpair属性の値をreason属性として付与する.また,評価の極性をpositive,neutral,negativeの3値でorientation属性として付与する.
\section{予備実験}
\label{sec:予備実験}本節では予備実験の内容について述べる.本研究の目的は人手による評判情報コーパスの作成である.大規模なコーパスの作成,将来におけるコーパスの拡張を考えた場合に,複数注釈者による注釈付け作業の並列化が不可欠であると考えた.複数注釈者による注釈付け作業を行う際には,注釈揺れが問題となる.本研究では,\ref{sec:関連研究}章で述べたように注釈付け対象となる文書に対して,事前に機械的に注釈付けすることを想定していない.注釈者に先入観を与えずに判断をしてもらう必要があると考えたためである.さらに,あらかじめ用意された辞書等の知識を注釈付けに用いるのならば,その知識を直接抽出に用いればいいと考えたためである.本研究では,特定の表現にとらわれず,注釈者には様々な表層表現に対して注釈付けを行ってもらう.ここで本稿では,注釈者には事前に指示を行い,それが十分ならば複数の注釈者が独立して注釈付けを行っても,注釈付けにおいて高い一致が見られるという,以下の仮説1を立てた.\vspace*{0.5\baselineskip}\begin{quote}仮説1:注釈者への事前の指示が十分ならば,複数の注釈者が独立して注釈付けを行っても注釈付けの高い一致が見られる.\end{quote}\vspace*{0.5\baselineskip}上記の仮説1が成立するなら,コーパスを作成するために複数の注釈者に個別に仕事を割り振り,並列作業を行うだけで十分であると言える.仮説1を確認するため,予備実験として複数注釈者による注釈付け作業を行い,注釈者間の注釈付けの一致率を調査した.\subsection{予備実験1の方法}\label{sec:予備実験1の方法}本稿では注釈付けの対象としてAmazon\footnote{http://www.amazon.co.jp}からレビュー文書を収集した.本稿の前提としては,あらゆる製品に対してレビューがあればその全てに注釈付けを行いたいと考えている.そのため,Amazonのトップページの製品分類を元に,なるべくそれらを網羅することを考えた.コーパスに用いるテキストをAmazonから収集した時点\footnote{2007年2月}ではAmazonのトップページにある製品分類は「本,ミュージック,DVD」「家電,エレクトロニクス」「コンピュータ,ソフトウェア」「ホーム\&キッチン」「おもちゃ,ゲーム,キッズ」「スポーツ,アウトドア」「ヘルス,ビューティー」の7種類であった.これらに属する製品は,製品の主要部分が有形物であるものと,無形物であるものに分類できるが,これら二つに分類される製品は互いに構造が異なるため,レビューに表れる表現が異なる.有形物のレビューにおいては,物理的な特徴に関する記述が多くなると考えられる.一方,無形物に対してはその機能や物語に対する特徴が記述される場合が多い.これに関連して,Turneyら\shortcite{Turney02}は,映画のレビュー分析において,映画は「出来事や俳優といった映画の要素」と,「様式や美術といった映画の形態」という二つの様相を持つ特徴があるため,自動車などのレビューと異なる特徴があると述べている.Amazonの製品分類において我々が有形物と分類したものは「家電,エレクトロニクス」「ホーム\&キッチン」「おもちゃ,キッズ」「スポーツ,アウトドア」「ヘルス,ビューティー」「コンピュータ」である.また,「本,ミュージック,DVD」「ソフトウェア」「ゲーム」は無形物とした.「ゲーム」を無形物としたのは,レビューの対象がボードゲームのように形を持つものではなくゲームソフトだったためである.次に,有形物の中から,複数の機能を有しそれを実現するために自動的に動作することが多い電化製品と,自ら動作することはなく人間に道具として使われる非電化製品の2つのジャンルにさらに分類した.Amazonの製品分類の中では「家電,エレクトロニクス」に加えて「コンピュータ,ソフトウェア」の中の「コンピュータ」を電化製品として分類した.残りの「ホーム\&キッチン」「おもちゃ,キッズ」「スポーツ,アウトドア」「ヘルス,ビューティー」を非電化製品とした.本稿ではこれら非電化製品の中から「ホーム\&キッチン」「おもちゃ,キッズ」を注釈付けの対象とした.無形物に対しては,ユーザが視聴,閲覧といった受動的な関わり方をするだけの映像・音楽と,操作等の能動的な関わり方をするソフトウェアの2つのジャンルにさらに分類した.実際の製品分類の中からは,「ミュージック,DVD」を映像・音楽として分類した.また,「コンピュータ,ソフトウェア」の中の「ソフトウェア」と「おもちゃ,ゲーム,キッズ」の中の「ゲーム」をソフトウェアとして分類した.「本」に関しては,事前の調査において,レビュー文章中に本の中の記述が引用されている場合が存在することが確認された.こうしたレビューについて,本の引用部分は評判情報の注釈付けの対象外であるので,引用部分に引用であることを示す別の注釈づけを行い,レビューの本文と分離して管理をする必要がある.しかし,本稿の目的はレビュー文に対する注釈付けであり,引用については本稿の目的の範囲外であると考え除外した.上記の各ジャンルについて50文,計200文を実験毎に用意し,条件を変えて次に示す予備実験1を行った.なおitemに関しては,製品名やその部分の呼称,照応表現などに限られているため,あらかじめ別の注釈者により注釈付けを行った状態で,それ以外のタグの注釈作業を行ってもらった.同時に,item間の関係を参照できるようにitemタグを注釈付けした際に作成されたオントロジー情報を各注釈者に配布した.\begin{description}\item[予備実験1]itemタグが既に付与されている文書に対して,評判情報の構成要素(すなわち,attribute,value,evaluation)を注釈者に注釈付けしてもらった.また,注釈付けの対象となるレビュー文書はあらかじめ文単位に分けてXMLファイル化し,注釈付けを行ってもらった.オントロジー情報は各注釈者が同じものを参照している.注釈付けの際に特別なツールは利用せず,テキストエディタのみを使用してもらった.注釈を行った被験者は情報工学を専攻する学生5名であり,2名は本研究との直接の関係を持つ.\end{description}また,予備実験1の際に注釈者に行った作業指示を付録\ref{sec:予備実験1における注釈者への作業指示}に示す.\subsection{予備実験1の結果}\label{sec:予備実験1の結果}予備実験において,attribute,value,evaluationの3要素について注釈者間の注釈付けの一致率を調べた.次に示す3つの場合を,注釈者間の注釈付けが一致したものと判定した.\begin{itemize}\item完全一致\item部分文字列一致\item一方ではattributeとvalueを分けているが,他方では両方を一つのvalueとしている場合\end{itemize}最初に,完全一致である.これは同一箇所の全く同一の文字列に対して同一のタグが付与されている場合である.次に,部分文字列一致である.これは完全一致ではないが,タグが付与されている両文字列に共通部分が存在する場合である.予備実験では,形態素区切りや文節区切りを明確にして注釈付けを行ったわけではないために,タグの範囲についてはわずかに異なってしまう場合がある.このような状況を許容して一致とみなすものである.\begin{figure}[b]\input{02fig05.txt}\caption{完全一致と部分文字列一致の例}\label{fig:完全一致と部分文字列一致の例}\end{figure}完全一致と部分文字列一致の例を図\ref{fig:完全一致と部分文字列一致の例}に示す.図\ref{fig:完全一致と部分文字列一致の例}における部分文字列一致の例では,「強さ」のattributeに対するvalueが「頑強」であるという点ではどちらの注釈者も注釈付けが一致している.しかし,程度を表す表現「それなりに」の部分をタグに含めているかどうかという点が異なっている.最後に,一方ではattributeとvalueを分けているが,他方では両方を一つのvalueとしている場合がある.図\ref{fig:valueの中にattributeを含んでしまっている例}に示すように,attributeタグを付与するかどうかが異なっているがvalueタグを付与した表層表現は部分一致している.これは,valueタグの注釈付け範囲の細かさの違いから起こるものである.例を図\ref{fig:valueの中にattributeを含んでしまっている例}に示す.図\ref{fig:valueの中にattributeを含んでしまっている例}の場合,注釈者Aの注釈付けが,我々が意図していた注釈付けである.この例について考えると,注釈者Bが省略されていると考えたattributeは「操作のしやすさ」である.また,注釈者Aは「操作」の表層部分が「操作しやすさ」を意味するattributeであると認識している.この点を考えると,図\ref{fig:valueの中にattributeを含んでしまっている例}の場合は2人の注釈者が「しやすい」という点では同じ認識をしていると考えられる.また,図\ref{fig:valueの中にattributeを含んでしまっている例}の揺れは「サ変名詞+する」の組み合わせである点が揺れの理由として挙げられる.その間を区切るかどうかが注釈者によって分かれている.しかし,注釈揺れに対する注釈事例参照の効果の確認実験ではこの点については注釈者に指示をしていなかった.本稿では,このような場合はvalueについて部分一致しているものとして扱った.また,一致率の評価尺度には$\kappa$値を用いた.$\kappa$値は主観が入る判定が偶然に拠らず一致する割合であり,0.41から0.60の間ならば中程度の一致,0.80を超えるとほぼ完璧な一致と考えられる.\begin{equation}\kappa値=\frac{(二人の注釈者が同じ判断をしている割合)-(偶然に一致すると期待される割合)}{(1-偶然に一致すると期待される割合)}\end{equation}\begin{figure}[b]\input{02fig06.txt}\caption{valueの中にattributeを含んでしまっている例}\label{fig:valueの中にattributeを含んでしまっている例}\end{figure}\begin{table}[b]\caption{予備実験1の注釈付けの一致率($\kappa$値)}\label{tab:予備実験1の注釈付けの一致率}\input{02table01.txt}\end{table}予備実験1における注釈付けの一致率を調べた結果を表\ref{tab:予備実験1の注釈付けの一致率}に示す.表\ref{tab:予備実験1の注釈付けの一致率}において注釈者2名の組(注釈者は全部で4名なので全6組)の中で最も高い$\kappa$値(上段)と低い$\kappa$値(下段)を示してある.一致度の高い注釈者の組では$\kappa$値で0.6以上の値となっている部分も多数あり,ある程度の一致率となっていると考えられる.しかし,一致率の低い注釈者間では$\kappa$値は0.3以下となってしまっている.これは仮説1が成り立たなかった事を意味する.次に,予備実験1で明らかになった注釈付けの揺れについて,それらが生じる場合にどのようなものがあるのかをその数とともに調査した.まず,予備実験1において注釈付けを行った200文の内,5人の注釈者全員の注釈付けが一致した文は42文,4人の注釈者のみ一致して1人一致しなかった文は42文であった.以上についてはほぼ一致していると考え,残りの116文中に存在した注釈揺れについて調査した.同一箇所の同一文字列に対する注釈揺れに注目すると,a)注釈者により同一箇所の同一文字列対する注釈付けの有無が異なる注釈揺れが存在する文が91文,b)同一箇所の同一文字列に対して異なるタグを付与されているために注釈揺れが存在する文が52文存在した.この52文の内,一方の注釈者がvalueタグを付与している箇所について,別の注釈者はevaluationタグを付与している文が47文存在した.また,注釈付けを行う範囲が異なり,場合によってはタグも異なるために注釈揺れとなっている文が17文存在した.この17文の内,c)注釈付けされた文字列の最後の文節については同じ注釈付けがなされているものが9文,d)注釈者により注釈付けの粒度が異なるために揺れが複数タグにまたがるものが8文であった.加えて,e)一方の注釈者がevaluationタグを付与している箇所について,別の注釈者はこれを二つわけてattributeとvalueの組として捉え,attributeタグならびにvalueタグを付与しているために注釈揺れとなっている文が4文存在した.なお,同一文中に複数の揺れがあり得るので,合計数は注釈付けが一致していないとした116文を超えている.それぞれの注釈揺れの例を図\ref{fig:予備実験1の結果における注釈揺れ}に示す.なお,我々のモデルでは図\ref{fig:予備実験1の結果における注釈揺れ}においては,注釈者Aのように注釈付けすることを意図している.図\ref{fig:予備実験1の結果における注釈揺れ}の「a)同一箇所の同一文字列に対する注釈付けの有無が異なる揺れの例」について述べる.この例において,本来ならば「声」にattributeを注釈付けし,「機械的」にvalueを注釈付けするのが正しいが,注釈者Bは注釈付けを行っていない.注釈者が注釈付けを行う部分が存在すると判断するかどうかが揺れている.次に,「b)同一箇所の同一文字列に対する注釈が異なる揺れの例」について述べる.ここでは,同一箇所の同一文字列に対してvalueとevaluationという異なるタグが付与されることで注釈が揺れている.この場合には本来ならば,「可愛い」という表現は必ずしも肯定的に使われるとは限らないので,valueタグを注釈付けするのが正しいが,注釈者Bはevaluationタグを付与している.「c)末尾部分が同じ注釈付けをされている例」の場合には,注釈者Aと注釈者Bは共に「すばらしい」の部分は評価であると認識している.一方で,「その日の気分によって聞ける」の部分をvalueとするか,evaluationの一部とするかが異なっている.この揺れは,注釈者により注釈付けの粒度が異なるために発生すると考えられる.「d)複数タグにまたがる注釈揺れの例」の場合,valueタグのみに注目すると部分文字列一致となっている.しかし,前のattributeタグを見ると「踊っている」をどちらのタグに含めるかが異なっている.つまり,区切りが揺れている.\begin{figure}[t]\input{02fig07.txt}\caption{予備実験1の結果における注釈揺れ}\label{fig:予備実験1の結果における注釈揺れ}\end{figure}「e)attribute-value組とevaluationの注釈付けが異なる例」の場合,極性を持たないvalueがattributeと組になることで,注釈者が極性を持つと判断し,evaluationとしてしまった事が原因となる揺れと考えられる.上記の内a),b)が最も多い.これらの注釈揺れの原因として,省略された要素の存在があるのではないかと考えた.省略された要素が注釈揺れの原因となっているのならば,注釈者が注釈を行う際に,省略されている要素を補完した上で注釈付けを行うことで,注釈付けを行おうとしている表現に対して,4つ構成要素の内のどれに当たるかを判断する際の注釈揺れを削減することが期待できる.例えば,図\ref{fig:予備実験1の結果における注釈揺れ}のb)の例では,attributeが省略されている.この例に対して「外観」をattributeとして補うことで「可愛い」がその属性値として認識されやすくなると期待される.そこで次の仮説2を立てた.\vspace{0.5\baselineskip}\begin{quote}仮説2:省略されている要素を注釈者が補完しながら注釈付けを行うことで複数注釈者間の注釈付けの一致率を向上できる.\end{quote}\vspace{0.5\baselineskip}この仮説を検証するために行った実験が予備実験2である.\subsection{予備実験2の方法}予備実験1と同様にAmazonから収集したレビュー文200文を,itemタグが付与された状態で注釈者に配布した.以下に示す条件で予備実験2を行った.\begin{description}\item[予備実験2]itemタグが既に付与されている文書に対して,attribute-valueの組については片方の要素が省略されている場合にはその要素を補完しながら注釈付けを行ってもらった.補完作業は注釈者が想像するだけでなく,実際に省略されている要素の内容がどのようなものになるかを記述してもらった.記述の方法は\ref{sec:評判情報を注釈付けするためのタグセット}節のattributeとvalueの注釈付け規則に,省略であることを明示する属性を追加し,attributeが省略されていると注釈者が判断した場合には,attributeが省略されていると思われるvalueタグの直前にattributeタグを記述し,タグの要素として省略されていると思われる表現を注釈者に記述してもらった.同様にvalueタグが省略されていると思われる場合にはvalueが省略されていたattributeタグの直後に同様に注釈者に省略されていると思われる表層表現を記述してもらった.用いた文書は予備実験1とは異なる.予備実験1と同様特別なツールは利用せず,テキストエディタのみを使用してもらった.注釈を行った被験者は本研究と直接の関係がある情報工学を専攻する学生2名であり,予備実験1に参加している.\end{description}予備実験2で作成した,省略されていた要素を補完した注釈付けの例を図\ref{fig:省略されていた要素を補完して注釈付けを行った例}に示す.また,予備実験2で利用した作業指示を付録\ref{sec:予備実験2における注釈者への作業指示}に示す.\begin{figure}[b]\vspace{-1\baselineskip}\input{02fig08.txt}\caption{省略されていた要素を補完して注釈付けを行った例(下線部が省略を補完した部分)}\label{fig:省略されていた要素を補完して注釈付けを行った例}\end{figure}\subsection{予備実験2の結果}\label{sec:予備実験2の結果}\begin{table}[b]\caption{予備実験2の注釈付けの一致率($\kappa$値)}\label{tab:予備実験2の注釈付けの一致率}\input{02table02.txt}\end{table}予備実験2を行った結果を表\ref{tab:予備実験2の注釈付けの一致率}に示す.予備実験2は注釈者が2名だったため,2名の間の$\kappa$値のみを記してある.なお,一致の評価については予備実験1と同じ方法を用いている.結果を見ると,多くの場合で$\kappa$値が0.4を超えている.このことから,中程度の一致はしていると言える.しかし,予備実験1の最低値と比較すれば一致率は良いが,最高値と比べると一致率が安定しているとはいえず,十分であるとは言えない.この結果から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえない.このため仮説2自身は成立すると思われるが,その適用範囲が限定的であると考えられる.予備実験1,2においては,各注釈者は注釈付けを行う際に,他の注釈者と相談等による情報共有をせず,それぞれが独自に注釈付けを行っている.しかし,各注釈者が独自に注釈付けを行った場合に,省略された要素の補完を各注釈者が行っても,一致率は十分とは言えなかった.さらなる注釈揺れの削減のためには,注釈者が完全に独立して注釈付けを行うのではなく,注釈付けを行う個別の場合について,注釈付けの判断に関する情報を共有した状態で注釈付けを行う必要があると考えられる.そこで以下の仮説を立てる.\vspace{0.5\baselineskip}\begin{quote}仮説3:注釈者が完全に独立して注釈付けを行うのではなく,注釈付けの判断に関する情報共有をすることで注釈付けの一致率を向上させることができる.\end{quote}\vspace{0.5\baselineskip}仮説3を実験するための具体的な方法として,次章で注釈事例の参照について述べる.
\section{注釈事例を用いた評判情報の注釈付け}
\label{sec:注釈事例を用いた評判情報の注釈付け}本章では注釈者が独立に注釈付けを行いつつも,判断に関する情報共有を行える手法を提案する.\ref{sec:予備実験}章の予備実験において一致率が十分ではなかったため,仮説3を立てた.この仮説3における注釈付けの判断に関する共有を,どのように行うかを検討した.まず,注釈者間の話し合いを定期的に設けて,注釈揺れについて議論を行う手法を検討した.しかし,主に時間的な側面からコーパス作成作業のコストが膨大になってしまう点が問題となった.そこで,本稿では過去の注釈事例を参照しながら注釈付けを行う手法を提案する.そして,仮説3を検証するために,具体的な方法として次の仮説3$'$の検証を行うこととする.\vspace{0.5\baselineskip}\begin{quote}仮説3$'$:複数注釈者間で注釈事例を共有し,これを参照しながら注釈付けを行うことで注釈揺れを減らすことが出来る.\end{quote}\vspace{0.5\baselineskip}話し合い等により注釈者間の判断を共有しない場合には,複数の注釈者間で共有する判断材料としては注釈者に対する指示が基本となる.あらゆる状況を網羅して想定した上で個別事例に対する指示を用意することが理想であるが,それは現実的ではない.そこで,個別事例に対する指示を用意するかわりに,過去の注釈事例の中から注釈付け対象となる文に「似た」事例を探し出し,文単位で提示する手法を提案する.さらに事例の中には,注釈付け作業の発注者が注釈付けを行った事例も含めることが出来るので,発注者の要求を事例として含めることも出来る.このため,個別事例に対する指示を用意するのと同様の効果が得られるのではないかと考えた.図\ref{fig:予備実験1の結果における注釈揺れ}に示される注釈揺れについて,注釈事例の参照を用いることによる注釈揺れの削減効果について考えてみる.注釈付け対象となる表現については,表層表現が一致した事例を提示することが出来れば,これは当然注釈揺れの削減に繋がると考えられる.例えば図\ref{fig:予備実験1の結果における注釈揺れ}のb)における「可愛い」やe)における「あります」などは,レビュー文に出現しやすそうな表現であるが,こういった表現に対する注釈事例を提示できれば,注釈揺れが減らせる.また,注釈付け対象となる表層表現が必ずしも完全に一致しなくても,類似した表現を事例で提示出来れば注釈者の判断の支援になると考えられる.図\ref{fig:予備実験1の結果における注釈揺れ}のa)における「機械的」やd)における「目に見える」などは類似した表現が存在する可能性が高いと思われる.さらに,注釈付けを行う対象として注目している表現の周囲の表現について見てみると,文単位で事例を提示することで,注釈付けの判断対象となる表現の周囲の表現も注釈者は参照可能となる.この周辺の表現が事例により参照可能になることで,どこまで注釈付けの範囲とするかの揺れの削減に効果があるのではないかと考える.例えば図\ref{fig:予備実験1の結果における注釈揺れ}のc)における注釈揺れにおいては,両方の注釈者が「すばらしい」の部分はevaluationだと判断しているが,その前の部分のどこまでが注釈付けの範囲となるかを判断する際の支援が可能になると思われる.また,図\ref{fig:予備実験1の結果における注釈揺れ}の例にはないが,注釈付けされたコーパスの中にある,注釈付けを含まない文も事例として登録しておき,参照できるようにしておくことにより,注釈者が注釈付けを行わないという判断を支援できると考える.すなわち,注釈者が注釈付けを行おうとしている文がそのような事例に類似しているときには,それを提示することにより注釈付けが行われていないこと注釈者が確認できるので,注釈者はあえて注釈付けを行わないという判断を下すことができる.上記のいずれの場合においても,注釈付けを行おうとしている文に対して,複数の事例を提示する事ができる.これにより,図\ref{fig:予備実験1の結果における注釈揺れ}のb)のような場合,レビュアーが記述した主観的な表現にどのような注釈付けがされているか示す過去の注釈事例を複数提示することで,valueとevaluationのどちらを注釈付けすればよいかの判断を支援する事が出来るのではないかと考えた.これは,複数注釈者間で判断を緩やかに共有することを目的とするものである.注釈事例の参照により,注釈者間の話し合いに時間をかけずに,注釈揺れを減らすことが期待される.ここでも,\ref{sec:予備実験}章冒頭で説明したように,前もって機械的な注釈付けを行うことはせず,注釈者が判断に悩む時に,事例を参照してもらうというアプローチを用いた.一方で,注釈事例の参照の利用は,注釈者が,すでに付与されている一つの注釈可能性をみるだけでなく,複数の注釈可能性が存在しうることがわかるという効果も考えられる.この点は,事例となる文の選択が適切に働けば,注釈付けの際に有効だと思われる.\subsection{注釈事例の提示機能を有する注釈付けツール}\label{sec:注釈事例の提示機能を有する注釈付けツール}本稿で我々が提案する手法は,評判情報コーパス作成に従事する注釈者へ注釈事例の提示を行うことにより,注釈揺れを削減しながら複数注釈者による注釈付けができるようにする方法である.既存のエディタや注釈付けツール(野口他2008)\nocite{Noguchi08}では事例の提示が行えないため,新たに注釈付けツールを試作した.図\ref{fig:注釈付けツールの画面}に作成した注釈付けツールの画面例を示す.\begin{figure}[b]\includegraphics{17-5ia2f9.eps}\caption{注釈付けツールの画面}\label{fig:注釈付けツールの画面}\end{figure}上段部には注釈付け対象となる文とその前後の文を表示している.注釈者は注釈付け対象となる文を順に見ていく.文中の範囲を指定し,中段部にあるタグ付与のためのボタンで注釈付けを行う.この際,下段部には編集中の文に類似した注釈付け済みの文を例示しているので,どのようなタグを注釈付けすると良さそうかを下段部の事例を参照して判断することが出来る.さらに,XMLタグの属性情報の入力を行うことにより,組となる要素の指定などを行う.試作した注釈付けツールの特徴は,注釈付けを行おうとしている文に似た過去の事例を提示することにより,注釈者が注釈付けを行う際に参考に出来る点である.これを実現するためには,注釈付け対象文に類似した注釈事例を事例集の中から検索する必要がある.事例の提示においては,注釈付け対象となっている文において,注釈付けが必要となりそうな部分と類似した表現をなるべく多く含む事例を提示することが望ましい.そのために,注釈付けが必要となる部分と同一の表層表現に対して過去に注釈付けされた例の提示を行う.本稿では類似度計算に文字bigramの一致の度合いとして定義される次式を用いた.\begin{equation}類似度=\frac{両文での文字bigramの一致数}{対象文の長さ+事例文の長さ}\end{equation}上記の式は単純なものだが,簡単な事例提示を行うだけで注釈付けの一致率が向上するのならば,事例提示の有効性が示せると考えられる.また,本稿で用いた提示事例の類似度計算においては,事例中の各文と注釈対象文との一致を文字bigramで計算しており,既に付与されたタグの有無は考慮しない.タグを付与するべきではない文を明示的に扱ってはいないが,事例中の類似度が高い文においてタグが付与されていないものが提示されれば,間接的に「現在の対象文に対してはタグを付与するべきではない」ということが例示により示せる.今後さらなる注釈付けの一致率向上を考えた際には,表層表現の一致だけではなく,意味的に類似した注釈事例の提示を行う等の,異なる文間の類似度を用いることが必要になると思われる.また,本実験で使用した事例集合では確認できなかったが,事例中に非常に似かよった文が存在する場合には,簡単な類似度計算のみでは提示される注釈事例が類似した文で埋め尽くされてしまう可能性がある.今後コーパスサイズを拡大する際には,MMR\shortcite{Carbonell98}のような手法を用いて,提示事例中の類似文を除去する必要がある.なお,現在の設定では,新たな注釈付け対象文が読み込まれる度に,事例集として指定されたファイルに含まれる文の中から注釈付け対象文との類似度が高い,上位5文を検索し表示する.また,注釈事例の提示に併せて,注釈付け対象文に注釈付けがされていた文字列が存在する場合には,強調表示するようにした.これは注釈付けの見落としを少なくするためである.現在の版のツールでは,提示事例中で注釈付けがなされている文字列と,注釈対象文の文字列との間で文字bigramが2つ以上連続して一致した部分については,注釈対象文中の文字を太字で強調表示している.上記に加え,注釈者の作業を軽減するため,タグの付与作業の支援と,各タグのid属性値の自動入力が行えるように実装した.
\section{注釈揺れに対する注釈事例参照の効果の確認実験}
\label{sec:注釈揺れに対する注釈事例参照の効果の確認実験}本節では\ref{sec:注釈事例を用いた評判情報の注釈付け}章で述べた注釈事例の参照と注釈付けツールの有効性について検証するための実験について述べる.注釈付けツールを用いない場合と用いた場合,注釈事例の参照を行った場合と行わない場合の注釈付けの一致率の変化と,予備実験1で発見された注釈揺れが,注釈事例を参照することでどのように減少するかを調査することで仮説3$'$を確認する.\subsection{注釈揺れに対する注釈事例参照の効果の確認実験の方法}\label{sec:注釈揺れに対する注釈事例参照の効果の確認実験の方法}予備実験1と同様にAmazonから収集したレビュー文書,4ジャンル200文について注釈者が注釈付けを行った.予備実験1と同様に製品についての部分—全体関係を記述したオントロジー情報があらかじめ作成してあり,itemタグがあらかじめ付与されている文書を使用した.本節で行う注釈揺れに対する注釈事例参照の効果の確認実験では,次の三つの条件で注釈者に注釈付けを行ってもらった.\begin{description}\item[条件1]ツール無し:注釈付けツールを使用しない.注釈事例の提示も行わない.\item[条件2]事例無し:注釈付けツールを使用する.しかし,注釈事例の提示は行わない.\item[条件3]事例有り:注釈付けツールを使用する.注釈事例の提示を行う.\end{description}3つの条件下での注釈付けの比較を行うため,6人の注釈者を2名ずつ3つのグループに分けて各文書について条件を変えて3回注釈付けを行ってもらった.注釈者のグループ分けと注釈付けの順番を表\ref{tab:注釈付けツールを用いた実験の手順}に示す.また,注釈揺れに対する注釈事例参照の効果の確認実験で注釈事例として使用した文書は,予備実験の過程で注釈付けされた文書の中の一人分(200文)である.\begin{table}[b]\caption{注釈付けツールを用いた実験の手順}\label{tab:注釈付けツールを用いた実験の手順}\input{02table03.txt}\end{table}表\ref{tab:注釈付けツールを用いた実験の手順}のように,注釈者1から注釈者4までには「事例有り」を最後に行ってもらい,注釈者5・6には「事例有り」を最初に行ってもらった.また,注釈揺れに対する注釈事例参照の効果の確認実験で注釈を行った被験者は情報工学を専攻する学生6名である.2名(注釈者3と注釈者4)は本研究との直接の関係を持ち,すべての予備実験に参加している.他の4名は本研究と直接の関係を持たず,その内の2名(注釈者1と注釈者2)は予備実験に参加していない.残りの2名(注釈者5と6)は予備実験に参加している.本章の実験,すなわち「注釈揺れに対する注釈事例参照の効果の確認実験」で用いた作業指示は予備実験1の指示に加えて\ref{sec:注釈事例の提示機能を有する注釈付けツール}節で紹介した注釈付けツールの使用説明書と,上述の実験の手順である.ここで,予備実験2に際して,追記された作業指示(補完に関するもの)は破棄していることに注意されたい.これは,予備実験2の結果,仮説2は成立するが,効果が少なかったためである.\subsection{注釈事例の効果に関する確認の実験結果}\label{sec:注釈事例の効果に関する確認実験の結果}本節では,評判情報の注釈付けにおいて事例参照を用いた場合と用いなかった場合を比較した時の,複数注釈者間における一致率の変化,図\ref{fig:予備実験1の結果における注釈揺れ}における注釈揺れの変化について述べる.\subsubsection{注釈者間の一致率}\label{sec:注釈者間の一致率}本節では,注釈揺れに対する注釈事例参照の効果の確認実験の結果の内,同じ条件の2名の注釈者が注釈付けした文書断片の数と,注釈付けの一致率について述べる.最初に,各注釈者が注釈付けをした文書断片の数,すなわち,付与したタグの数を調べた.結果を表\ref{tab:各注釈者が付与したタグの数}に示す.表\ref{tab:各注釈者が付与したタグの数}を見ると,注釈者1と2,注釈者3と4は,attributeタグとvalueタグについては3回目の注釈付けで最も多くの部分に注釈付けを行っている.このことから,注釈付けのために付与したタグの数については注釈者の学習による影響が懸念される.しかし,注釈者5・6が注釈のために付与されたvalueタグの数を見ると,3回目に行った「ツール無し」の場合が2回目に行った「事例無し」の場合に比べて減っている.この点から考えると,注釈者の学習による影響が全ての要因であるとは言えない.何回目に注釈付けを行ったかに関わらず,事例有りの多くの場合が注釈付けされたタグの数が最多である.このように注釈付けされた順序だけに因らないことを考慮すると,注釈事例の提示による注釈付け支援により,注釈者がより細かく注釈付けを行うことができたと推測される.\begin{table}[b]\vspace{-1\baselineskip}\caption{各注釈者が付与したタグの数}\label{tab:各注釈者が付与したタグの数}\input{02table04.txt}\end{table}次に,注釈者間の注釈付けの一致について調べた.注釈揺れに対する注釈事例参照の効果の確認実験では\ref{sec:予備実験1の結果}節と同様に次に示す3つの場合を,注釈者間の注釈付けが一致したものと判定した.\begin{itemize}\item完全一致\item部分文字列一致\item一方ではattributeとvalueを分けているが,他方では両方を一つのvalueとしている場合\end{itemize}上記の一致に関する判断基準に基づき,各被験者の組における注釈付けの一致率($\kappa$値)をタグの種類ごとに調べた.表\ref{tab:注釈付けの一致率}に結果を示す.\begin{table}[b]\caption{注釈付けの一致率($\kappa$値)}\label{tab:注釈付けの一致率}\input{02table05.txt}\end{table}注釈揺れに対する注釈事例参照の効果の確認実験の結果では,多くの場合で「事例有り」の場合に$\kappa$値が高かった.注釈者5と6におけるvalueにおいてのみ「事例無し」の結果の方がよくなっているが,これは「事例有り」の場合から先に実験を行ったグループでのことなので,注釈者が学習をしてしまった結果とも考えられる.しかし,「事例有り」から注釈付け作業を開始した注釈者の組と,「事例無し」から注釈付け作業を開始した注釈者の組の一致率に大きな違いが無い.さらに,過去に1度も予備実験に参加していない注釈者の組(注釈者1・2)を見ると,回数を重ねた2回目においても1回目と比べて安定した一致率が得られているとはいえない.しかし,注釈事例を参照した3回目においては他の組と同程度の安定した一致率が得られている.これより,注釈者が注釈付け作業を経験し学習してしまった効果よりも,事例提示を行った効果の方が大きいと考えられる.また,事例参照の有効性については,「事例有り」から注釈付け作業を開始した注釈者の組の結果に注目したい.同じデータに対して3回の注釈付け作業を行っていながら,注釈事例の参照を行わなくなることで一致率が低下している.これは,注釈者の学習効果により一致率が高まるよりも,事例を参照しなくなったことにより注釈者が独自の判断で注釈付けを行ってしまい,一致率が低くなってしまうためと考えられる.このことからも,注釈事例の参照は一致率を安定させるために有効であると言える.この結果,仮説3$'$は正しかったといえる.なお,本稿で用いた事例集合が十分に参考になる情報を提示しているかということを確認するためには本来ならば,個々の注釈付けにおいて,その都度表示された事例が有効であったかという検証を行いながら,事例集合の量と質を検証することが必要である.しかし,本稿では,相対的な結果として,本稿で用いた事例集合であっても注釈揺れの削減に効果があったという提示のみとなっている.本稿で用いた事例の量が十分であるかどうかはわからないため,事例集合の量と質の検討が今後の課題として挙げられる.\subsubsection{注釈揺れの分析}\label{sec:注釈揺れの分析}本節では注釈揺れについて,細かく分析を行う.まずは,注釈付けが一致した部分がどのように変化したかを調べるために,典型的な例である,二人の注釈者が注釈付けした結果の中で,両方の注釈者が同一の文に対して完全に一致した注釈付けを行っている場合の数を調べた.ここで,「完全に一致した注釈付け」とは文中に注釈付けがなされた箇所が存在し,複数の注釈付けがあったときにはその全てが可不足なく一致している場合である.二人の注釈者が共に注釈付けを全く行わなかった文については調査外としている.表\ref{tab:完全に一致した注釈付けが行われた文数}に結果を示す.\begin{table}[b]\caption{完全に一致した注釈付けが行われた文数}\label{tab:完全に一致した注釈付けが行われた文数}\input{02table06.txt}\end{table}表\ref{tab:完全に一致した注釈付けが行われた文数}においては,注釈事例を参照した場合が,注釈者間で完全に注釈付けが一致した文の数が最も多く,最も良い結果となっている.また注釈者がどのような順番で注釈付け作業を行った場合でも,「事例有り」の時に一致した文が増えたということは仮説3$'$を裏付けるものである.さらに,表\ref{tab:完全に一致した注釈付けが行われた文数}において,注釈者の各組について,注釈付けが完全に一致した文について分析した結果を表\ref{tab:完全に一致した注釈付けが行われた文数の変化}に示す.表\ref{tab:完全に一致した注釈付けが行われた文数の変化}の結果を見ると注釈付けが揺れていた部分については,事例の参照を行うことで注釈揺れが改善した.なお,表\ref{tab:完全に一致した注釈付けが行われた文数の変化}中の「ツール無し」の場合に一致していなかった文の内,「事例有り」で一致した文については,同一文中にて複数種類の改善が行われたために注釈付けが一致するようになった文が存在する.このため,改善の種類の内訳について文数を合計すると,一致するようになった文数よりも多くなっている場合がある.また,注釈事例の参照を行ったために新たに注釈付けが揺れるようになった文を見ても,注釈付けの範囲が変わったため一致しなくなった文については,完全一致だったものが部分一致になるという揺れであった.部分一致を正解とする判定においては,この揺れは一致率に影響を与えない.以上の各点より,全体で見ると注釈事例の参照により注釈付けの一致率の向上が見られる.次に,図\ref{fig:予備実験1の結果における注釈揺れ}に示したa)〜e)の注釈揺れが注釈事例の参照を用いることでどのように変化したかについて述べる.まず最初に,予備実験1における図\ref{fig:予備実験1の結果における注釈揺れ}の「a)注釈付けを行うかどうかが異なる揺れ」がどのように変化したかを調べるために,一方の注釈者のみがタグを付与した部分の数をタグごとに調べた数を表\ref{tab:一方の注釈者のみが注釈付けしたタグの数}に示す.\begin{table}[t]\caption{完全に一致した注釈付けが行われた文数の変化}\label{tab:完全に一致した注釈付けが行われた文数の変化}\input{02table07.txt}\end{table}この表によると,実験の順番や,ツールの有無,注釈事例の有無の各条件と,一方の注釈者のみが注釈のために付与したタグの数の間には相関が見られない.しかし,表\ref{tab:各注釈者が付与したタグの数}と比較してみても,付与されたタグの数が増えた場合に一方のみが注釈付けしたタグの数が増えているというわけではないため,注釈事例の提示による悪影響は考えられない.次に予備実験1で確認した図\ref{fig:予備実験1の結果における注釈揺れ}の「b)valueとevaluationの注釈が異なる揺れ」の変化を調べる.「b)valueとevaluationの注釈が異なる揺れ」は同一箇所の同一文字列に対して異なるタグが付与された注釈揺れの一つである.表\ref{tab:同一箇所の同一文字列に異なるタグが付与された数}に本章の実験,すなわち「注釈揺れに対する注釈事例参照の効果の確認実験」において同一箇所の同一文字列に対して異なるタグが付与された時のタグの違い方とその数を示す.\begin{table}[t]\caption{一方の注釈者のみが注釈付けしたタグの数}\label{tab:一方の注釈者のみが注釈付けしたタグの数}\input{02table08.txt}\end{table}\begin{table}[t]\caption{同一箇所の同一文字列に異なるタグが付与された数}\label{tab:同一箇所の同一文字列に異なるタグが付与された数}\input{02table09.txt}\end{table}表\ref{tab:同一箇所の同一文字列に異なるタグが付与された数}を見ると,valueタグとevaluationタグの揺れが最も多かった.これは予備実験1の結果と同じである.注釈揺れに対する注釈事例参照の効果の確認実験によると,この問題点についても必ずしも「事例有り」の場合に揺れが減っているとは言えない.しかし,これについても表\ref{tab:各注釈者が付与したタグの数}と比較して,「事例有り」で注釈付けされたタグ数が増えた場合に注釈揺れが増えているわけではない.続いて,予備実験1で確認した残りの注釈揺れの事例についても調査した.図\ref{fig:予備実験1の結果における注釈揺れ}で述べた「c)末尾部分が同じ注釈付けをされている注釈揺れ」,「d)複数タグにまたがる注釈揺れ」,「e)attribute-value組とevaluationの注釈付けが異なる揺れ」のそれぞれの数を表\ref{tab:事例を参照した場合のc),d),e)の注釈揺れの変化}に示す.表\ref{tab:事例を参照した場合のc),d),e)の注釈揺れの変化}を見ると,予備実験1でもそうであったように,この3種類の注釈揺れは図\ref{fig:予備実験1の結果における注釈揺れ}のa),b)の揺れに比べて少ない.しかし,注釈者1と注釈者2の結果を見ると事例の参照の効果がうかがえる.最後に,注釈揺れに対する注釈事例参照の効果の確認実験において問題となった注釈揺れをまとめると以下のようになる.\begin{table}[t]\caption{事例を参照した場合の図\ref{fig:予備実験1の結果における注釈揺れ}におけるc),d),e)の注釈揺れの変化}\label{tab:事例を参照した場合のc),d),e)の注釈揺れの変化}\input{02table10.txt}\end{table}\begin{description}\item[1)]{同一箇所の同一文字列に注釈を付与するかどうかの揺れ}これについては注釈者に因るところが大きく,完全に無くすことは不可能と考える.揺れを減らすために各注釈者に,なるべく細かく注釈付けを行うように依頼することとする.なお,現在行っている事例の提示は注釈付けがなされた表層表現に注目しているが,注釈付けがなされなかった表層表現にも注目して事例の提示を行うことが今後の課題として考えられる.\item[2)]{同一箇所の同一文字列に異なるタグが付与されている揺れ}特にvalueタグとevaluationタグの違いが多かった.これについては,注釈事例を増やすことで注釈揺れを減らすことが出来ると予想される.注釈事例を増やした場合の効果として,類似した表層表現を検索・提示する際のヒット率が上がる事が考えられる.また,注釈付けの判断対象となる周囲の表現についても,事例を増やすことで事例中に表示することが可能になると予想される.このような表現は注釈者間の判断を揺れなくす材料になると考えられる.\item[3)]{注釈付けの範囲が異なる}注釈付けの範囲については,表現を注釈付けに含めるか含めないかの判断が揺れている.そのため,どの場合に含め,どの場合に含めないかを示すため,注釈付け対象となる表現の周囲の文脈を提供することで,注釈揺れの削減が期待できる.しかし,十分な量の注釈事例が無く,事例の探索についても簡単な方法を用いている現在では,注釈付けの範囲についての規則を追加することが揺れを減らすために効果的と考える.\end{description}またさらに注釈揺れを減らす方法として,提案した評判情報モデルを実例に適応する際の判断の基準を洗練する等が考えられる.これは,注釈者のモデルに対する理解度の差による揺れを解消しようとするものである.これについては,注釈者の判断を確認するテスト等を行うなどの方法を今後検討する必要がある.
\section{評判情報コーパスの作成実験}
\label{sec:評判情報コーパスの作成実験}本章では試作した注釈付けツールを用いた,評判情報コーパスの作成実験について述べる.\subsection{評判情報コーパスの作成実験の方法}\label{sec:評判情報コーパスの作成実験の方法}最初に,各注釈者へ事前説明を行った.注釈者には\ref{sec:予備実験}章や\ref{sec:注釈揺れに対する注釈事例参照の効果の確認実験}章の実験と同じく\ref{sec:4つ組による評判情報モデル}節で述べた評判情報モデルについての解説をし,過去の実験で得られた注釈事例から「注釈揺れが起きた実例」と「判断が難しかった実例」を示しながら事前説明を行った.\ref{sec:注釈揺れの分析}節の分析から,注釈付けの量については,注釈付けが必要かどうか判断に迷った場合には,その部分にはなるべく注釈付けを行うように依頼した.同様に,\ref{sec:注釈揺れの分析}節において分析した注釈付けされた文字列の最後の文節における注釈揺れ,複数タグにまたがる注釈揺れの2点に関しても,注釈付けの粒度をなるべく細かくすることを注釈者に注意した.なお,これらの説明を行う際にも,\ref{sec:注釈揺れに対する注釈事例参照の効果の確認実験}章の実験で得られた注釈事例から実例を提示して説明を行った.また,当初から評判情報の構成要素が省略される場合としては,attributeが省略されvalueやevaluationが現れる場合か,attributeが記述されているがvalueが省略されevaluationが現れる場合か,もしくはattributeとvalueの両方が省略されevaluationのみが現れる場合が想定されていた.しかし予備実験1の結果attributeが記述されているにもかかわらず,valueもevaluationも記述されない場合が発見された.以下に例を示す.\vspace*{0.5\baselineskip}例文6:この製品は値段が…\vspace*{0.5\baselineskip}例文6のような場合は,文として不完全である.また,評判情報という性質上,``どのような製品であるかという記述'',``レビュアーの評価''のどちらも記述されていない部分については注釈を付与する必要性が無いと考えられる.このため,本章の実験では,最初にvalueタグもしくはevaluationタグを注釈付けする部分を探しながら注釈付けを行うように,各注釈者に指示した.また,その際にvalueとevaluationに該当する文字列がどちらも存在せずにitemやattributeのみが現れた場合には注釈付けを行わなくてもよい旨を説明した.さらに,\ref{sec:注釈揺れの分析}節で述べた注釈揺れ3)のような注釈揺れや,\ref{sec:注釈揺れに対する注釈事例参照の効果の確認実験}章の結果では部分文字列の一致に基づく一致として扱った事例を減らすために注釈付けの規則を追加した.これは\ref{sec:注釈者間の一致率}節の分析結果等から追加したものである.この規則には,本稿で提案した評判情報のモデルで意図した注釈付けを行ってもらうための規則と,注釈の範囲に関する注釈揺れを減らすための規則がある.前者について追加した規則と追加した理由を図\ref{fig:意図した注釈付けを行ってもらうために追加した規則}に示す.図\ref{fig:意図した注釈付けを行ってもらうために追加した規則}は,一方の注釈者が我々が意図しない注釈付けを行ってしまったために注釈付けの範囲が揺れている例であり,実例を示しながら注釈者への指示を指示書に追加した.\begin{figure}[b]\input{02fig10.txt}\caption{意図した注釈付けを行ってもらうために追加した規則}\label{fig:意図した注釈付けを行ってもらうために追加した規則}\end{figure}また,後者について追加した規則を図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}に示す.図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}の例は,評判情報の注釈付けという本来の目的においては,どちらでもよい.一方で,注釈付けの一貫性を保つためには,注釈付けの発注者が指示を与えて,一方の注釈付けに合わせる必要がある.図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}の規則はそのためのものである.加えてモダリティに関して追加した規則を図\ref{fig:モダリティ部分に関する規則}に示す.図\ref{fig:モダリティ部分に関する規則}の規則はモダリティを除いた命題部分のみに注釈付けしてもらうために追加した規則である.疑問については,その命題についてレビュアーが直接言及していないので除外した.上記の説明を行った後に,コーパス作成に利用するレビューとは別に,次に述べる各製品ジャンルから40文ずつ,計200文のレビューをAmazonから収集し,コーパス作成に参加する注釈者に注釈付けの練習を行ってもらった.また練習の後,注釈間違いや注釈揺れについては筆者を中心とし注釈者間で指摘をし合い,注釈者間で話し合いを行い,判断の統一を試みた.\begin{figure}[t]\input{02fig11.txt}\caption{注釈の範囲に関する注釈揺れを削減するために追加した規則}\label{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}\end{figure}\begin{figure}[t]\input{02fig12.txt}\caption{モダリティ部分に関する規則}\label{fig:モダリティ部分に関する規則}\end{figure}次に,注釈付けに用いた文書について述べる.注釈付けに用いた文書は,Amazonから収集したレビュー1万文である.使用した製品のジャンルは基本的に予備実験と同様であるが,非電化製品をAmazonの製品ジャンルを基に「ホーム・キッチン」,「ホビー・おもちゃ」の二つに分けて,電化製品,ホーム・キッチン,映像・音楽,ソフトウェア,ホビー・おもちゃの5ジャンルとした.それぞれのジャンルから2,000文ずつを収集した.さらに,1万文の内の1,000文(5ジャンルから200文ずつ)は事前に第一著者が注釈付けを行い,事例用コーパスとして用いた.注釈者は情報工学を専攻する学生10名である.注釈付けは9,000文を200文程度に分割し,作業時間に余裕がある人に順次配布していく形で行った.作業量は注釈者により2,000文から200文まで様々である.なお,過去の実験の知見を元に,本章の実験すなわち「評判情報コーパスの作成実験」における注釈者への作業指示を付録\ref{sec:評判情報コーパスの作成実験における注釈者への作業指示}に示す.\subsection{コーパス作成実験結果}\label{sec:コーパス作成実験結果}\subsubsection{コーパス修正作業}\label{sec:コーパス修正作業}10名の注釈者によるコーパス作成を行った後,注釈者の入力ミス,同一文字列に対する注釈揺れ等の明らかに分かる誤りに関しては筆者が修正作業を行った.最初に注釈者の入力ミス,入力忘れが判明した部分を修正した.入力ミスが確認されたタグは全部で705個,コーパス作成作業で注釈付けされた全タグの内の4.42\%であった.入力ミスの内容としては,「タグに付与する属性情報の入力忘れ」,「入力する属性項目が入れ替わってしまっている」,「注釈付けツール使用時にマウスの操作を誤ったために注釈範囲が誤っている」等が主なものであった.以上の入力ミスは注釈付けツールのインターフェースに起因すると思われるものもあり,注釈付け作業者の使い勝手という面から注釈付けツールの改良を検討する必要性がある.次に,同一表層表現に対し,異なるタグが注釈付けされている部分について,修正を行った.具体的には,同一表層表現に対し,異なるタグが注釈付けされている部分を確認し,正しいと考えられる注釈付けへと統一した.表\ref{tab:同一文字列の同一範囲に対する注釈揺れ}に注釈揺れの種類と数を示す.\begin{table}[b]\caption{同一文字列の同一範囲に対する注釈揺れ}\label{tab:同一文字列の同一範囲に対する注釈揺れ}\input{02table11.txt}\end{table}さらに,各注釈付けを確認し,事前説明に沿わない部分,明らかに一部の注釈者のみが異なるタグを付与している部分については修正をし,正しいと考えられる注釈付けに揃えた.次に,同一文字列に対する異なるタグの中で,上記の方法によっても一方のタグに統一することができなかった部分について述べる.itemに関連する部分では,製品の特徴を表現し得る語句が名称の一部に用いられている場合が12個で最も多かった.例を以下に示す.\vspace*{0.5\baselineskip}例文7:少なくとも観た事のあるシリーズの中では\verb|<evaluation>|ベスト\verb|</evaluation>|です.例文8:注目を集めた—彼女—の\verb|<item>|ベスト\verb|</item>|も初回盤で\verb|<value>|5040円\verb|</value>|.例文9:決して寄せ集めではない\verb|<item>|ベストアルバム\verb|</item>|.\vspace*{0.5\baselineskip}例えば,「ベスト」は一般的には評価を表す表現と考えられ,その事例は例文7のようなものである.一方で,例文8における「ベスト」という表層表現は評価を表す「ベスト」ではなく,「ベストアルバム」という商品を指し示すため用いられている.つまり,例文9と同じ商品を指して入る.この場合,例文7のように評価を示す「ベスト」にはevaluationタグを,例文8のように商品の指し示す「ベスト」にはitemタグを付与した状態を正しいものとした.同様の例として「コンパクト」,「ブラック」等が挙げられる.また,今注目しているitemが別のitemと関係をもって記述されるときにはattributeとして扱われる場合がある.その場合においては,一方のタグに統一することができないものが6個あった.同様の理由でitemとvalueが同じ表層表現になっているものが4個あった.このような問題は表現が指し示す概念が多義であるために起こると考えられる.例を図\ref{fig:視点となるitemに起因する揺れの例文}に示す.\begin{figure}[b]\input{02fig13.txt}\caption{視点となるitemに起因する揺れの例文}\label{fig:視点となるitemに起因する揺れの例文}\end{figure}\begin{figure}[b]\input{02fig14.txt}\caption{サ変動詞の省略が行われているために表層表現が同じになっている例}\label{fig:サ変動詞の省略が行われているために表層表現が同じになっている例}\end{figure}attributeとvalueについて,一方のタグに統一することが出来ずに残ったものに,サ変動詞の省略が行われているために表層表現が同じになっているものがあった.例を図\ref{fig:サ変動詞の省略が行われているために表層表現が同じになっている例}に示す.他に,動詞や形容動詞が活用形により名詞と同じ表層表現になってしまったもの,「〜的」という表現等,同音異義語,言葉の意味自体がよく分からないために修正すべきではないとした部分がある.最後に,さらに追加で行った修正について述べる.我々は作成したコーパスを教師情報とした学習型の抽出手法を用いた評判情報の構成要素の抽出を検討している.文字を単位としたチャンク同定手法を用いて,評判情報の構成要素の抽出予備実験を行ったところ,itemの抽出精度が著しく低い結果となった.評判情報コーパスの作成実験におけるコーパス作成では,「valueもevaluationも無い文には注釈付けを行わなくてもよい」と注釈者に説明したため,ある場所ではitemタグが付与されているが,別の個所に現れる同一の表層表現には付与されていない場合がった.このために学習がうまく進まなかったと考えられたため,itemに関しては全文を第一著者が見直し,追加で注釈付けを行った.修正前と修正後のitemタグの数と抽出精度を表\ref{tab:itemタグの修正前後の比較}に示す.抽出には固有表現抽出に用いられるチャンク同定手法を用いた.表に示す抽出精度は,ジャンルごとにitemの自動抽出を行った際のF値の平均である.\begin{table}[b]\caption{itemタグの修正前後の比較}\label{tab:itemタグの修正前後の比較}\input{02table12.txt}\end{table}\subsubsection{基礎統計}\label{sec:基礎統計}本節では,コーパス作成実験の結果得られたコーパスの全体的な傾向を把握するための基礎的な分析を行う.最終結果として得られた,1万文のコーパスに注釈付けされた表現の数を表\ref{tab:注釈付けされたタグ数}に示す.\begin{table}[b]\caption{注釈付けされた表現の数}\label{tab:注釈付けされたタグ数}\input{02table13.txt}\end{table}表\ref{tab:注釈付けされたタグ数}をみると,ジャンルごとに注釈のために付与されたタグの数に多少の違いがある.製品のジャンルごとの特徴を見てみると,映像・音楽におけるattributeタグを付与した回数が他ジャンルに比べてわずかに少ない.一方で,valueタグについてはソフトウェアや,ホーム・キッチンよりも多くなっている.映像・音楽については製品の性質上,製品の部分の性能について細かく説明するよりも,その製品についてどう思うかという感想が述べられやすいという特徴が注釈付けの量にも現れていると考える.\begin{table}[b]\caption{4つ組における各要素の省略}\label{tab:4つ組における各要素の省略}\input{02table14.txt}\end{table}次に,評判情報の構成要素の組について,ある要素が省略されている場合について考察する.提案モデルでは要素の省略を認めている.各要素が省略されていた場合の組数を表\ref{tab:4つ組における各要素の省略}に示す.なお,提案モデルでは要素の1対多関係も認めており,要素の組の数を延べ数で調べた結果は9,287組であった.表中の$\phi$が省略されていた要素である.実験では注釈者に,まずはvalueとevaluationのどちらかを探してから注釈付けを行うように依頼した.そのため,本来ならば,item-attribute-$\phi$-$\phi$という組は存在しないはずである.しかし,注釈者が作業中に覚書として注釈付けをした部分の消し忘れ,コーパス全体の修正作業をした際に誤って注釈付けされていたvalueを削除した際の残りである.これらについては,itemとの組は正しいので付与した情報を削除せずに残してある.その他に,製品の様態のみを記述し,評価について言及していない部分が多数存在した.これにより,コーパス全体としてvalueタグが非常に多くなる一方で,evaluationは少ない結果となった.これはレビューを書く際にはっきりと評価を書くことを避ける傾向があるためと考えられる.\begin{table}[t]\caption{attribute,value,evaluationの頻出表層表現上位10個}\label{tab:attribute,value,evaluationの頻出表層表現上位10個}\input{02table15.txt}\end{table}次に,出現回数の多い表層表現に着目する.attribute,value,evaluationの各タグに頻出した表層表現の上位10位を表\ref{tab:attribute,value,evaluationの頻出表層表現上位10個}に示す.また,各製品ジャンルごとの各タグに頻出した表層表現の上位5位を表\ref{tab:各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}に示す.各ジャンルごとに頻出している表層表現を見ると,その製品ジャンルに特徴のある表現が上位にきている.しかし,表\ref{tab:各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}で示した全コーパス中で出現回数の多い表現の中には,複数の製品ジャンルにおいて出現頻度の高い表現が多く存在する.特に,attributeに注目して見ると,「音」や「値段」のように,製品のジャンルに関わらずレビュアーがよく言及してる表現が存在していると考えられる.evaluationについては,頻出表層表現を見ても,肯定的な意見がコーパス中に多く存在しているように見える.そこで,evaluationタグのorientation属性について,値として現れるpositive,negative,neutralの個数を調べてみた.orientation属性には,対応する評判が肯定なのか否定なのかを表す値が与えられている.結果を表\ref{tab:evaluationの極性}に示す.表\ref{tab:evaluationの極性}を見ると,positiveが圧倒的に多くなっている.この理由の1つとしては,製品レビューという情報源そのものの特徴が挙げられる.すなわち,レビューを書く動機が,「この製品を他の人に紹介したい」や「この製品を他の人に勧めたい」といった,肯定的なものであることが多いからではないかと考えられる.itemについても頻出する表層表現を調査した.\ref{sec:コーパス修正作業}節で述べた修正作業により注釈付けされた部分が増え,総数としてはvalueタグに次いで多くなっている.しかし,一方でレビュアーが製品名を連呼することで頻度が上がってしまうような例もあり,統計的な傾向が記述形式に拠るところが大きい.\begin{table}[p]\caption{各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}\label{tab:各製品ジャンルにおけるattribute,value,evaluationの頻出表層表現上位5個}\input{02table16.txt}\end{table}\begin{table}[p]\caption{evaluationの極性}\label{tab:evaluationの極性}\input{02table17.txt}\end{table}最後に,同じvalueに対して異なる極性のevlauationが記述されている部分について調べた.\ref{sec:4つ組による評判情報モデル}節で述べた提案モデルでは,製品の同一の様態に対して評価が異なる場合を考慮し,valueとevaluationを分離している.同じ表層表現のvalueに対して極性の異なるevaluationが組になっている部分がコーパス中に存在する事を確認する.valueとevaluationを分離した提案モデルを用いたことにより,より正確に評判を捉えられた部分であり,提案モデルの有効性が示されている.この場合のvalueとevaluationの組を表\ref{tab:同一の様態に対する異なる極性のevaluation}に示す.\begin{table}[t]\caption{同一の様態に対する異なる極性のevaluation}\label{tab:同一の様態に対する異なる極性のevaluation}\input{02table18.txt}\end{table}評判情報コーパスの作成実験で作成したコーパス中にも,同じvalueに対して極性の異なるevaluationが組となっている部分が存在した.上記の「高い」などはattributeが「値段」と「コストパフォーマンス」の場合であり,attributeが異なるために極性が異なっている場合もある.これは組となるattributeを考慮することで極性の違いを捉えることが出来る.一方で,同種の製品の同一valueに対して異なる極性のevalutionが付与されている場合もある.例を図\ref{fig:同種の製品の同一valueに対して異なる極性が付与されている例文}に示す.このような場合には特に,製品の様態と評価を分離する提案モデルにより評判情報をより正確に捉えることができると考えられる.\begin{figure}[t]\input{02fig15.txt}\caption{同種の製品の同一valueに対して異なる極性が付与されている例文}\label{fig:同種の製品の同一valueに対して異なる極性が付与されている例文}\vspace{-1\baselineskip}\end{figure}
\section{おわりに}
\label{sec:おわりに}本稿では,製品の様態と評価を分離した評判情報のモデルを提案し,同様の様態に対する評価がレビュアーにより異なる場合にも対応可能とした.注釈付けについては,注釈事例を用いた複数注釈者の人手による評判情報コーパス作成手法を提案した.また,提案手法を用いてコーパス作成を行った.コーパス作成おける複数注釈者間の注釈揺れについては,注釈者に指示を与えるだけでは一致率が十分ではないということがわかった.省略されている要素の補完を行いながら注釈付けを行うことで一致率の向上は見られたが,十分とは言えなかった.しかし,注釈事例の参照という注釈者間の緩やかな知識共有を行うことにより注釈付けの一致率が向上することが分かった.作成したコーパスについて特徴を統計的な面から調査し,作成されたコーパス中にも,提案モデルが想定していた様態と評価の分離が必要な記述が存在したことが確認され,提案モデルにより評判情報をより正確に捉えることができた.今後は,評判情報の抽出システム等でコーパスを利用することを考えている.コーパスを教師データとする機械学習手法による評判情報の抽出において,1万文というコーパスサイズが十分なものであるかの確認を行う必要がある.さらに,本コーパスの公開についても検討している.これについては,Web上の文書を元データとする際の2次配布方法について,さらなる検討が必要と考えられる.\vspace{-0.5\baselineskip}\acknowledgment\vspace{-0.5\baselineskip}本研究の一部は,(独)独立行政法人情報通信研究機構の委託研究「電気通信サービスにおける情報信憑性検証技術に関する研究開発」プロジェクトの成果である.また,本研究の一部は横浜国立大学環境情報研究院共同研究プロジェクトの援助により行った。\vspace{-0.5\baselineskip}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carbonell\BBA\Goldstein}{Carbonell\BBA\Goldstein}{1998}]{Carbonell98}Carbonell,J.\BBACOMMA\\BBA\Goldstein,J.\BBOP1998\BBCP.\newblock\BBOQTheUseofMMR,Diversity-BasedRerankingforReorderingDocumentsandProducingSummaries.\BBCQ\\newblockIn{\BemProceedingsofthe21stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\335--336}.\bibitem[\protect\BCAY{飯田\JBA小林\JBA乾\JBA松本\JBA立石\JBA福島}{飯田\Jetal}{2005}]{Iida05}飯田龍\JBA小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出を目的とした機械学習による属性—評価値同定.\\newblock自然言語処理研究会報告\2005-NL-165-4,情報処理学会.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{Inui06}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{Kaji\BBA\Kitsuregawa}{Kaji\BBA\Kitsuregawa}{2006}]{Kaji06}Kaji,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2006\BBCP.\newblock\BBOQAutomaticConstructionofPolarity-taggedCorpusfromHTMLDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguistics(COLING/ACL2006)},\mbox{\BPGS\452--459}.\bibitem[\protect\BCAY{洪\JBA白井}{洪\JBA白井}{2005}]{Kou05}洪陽杓\JBA白井清昭\BBOP2005\BBCP.\newblock対話行為タグ付きコーパスの作成支援.\\newblock\Jem{言語処理学会第11会年次大会発表論文集},\mbox{\BPGS\815--818}.言語処理学会.\bibitem[\protect\BCAY{Kobayashi,Inui,\BBA\Matsumoto}{Kobayashiet~al.}{2007}]{Kobayashi07}Kobayashi,N.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQOpinionminingfromwebdocuments:extractionandstructurization.\BBCQ\\newblock\Jem{人工知能学会論文誌},\mbox{\BPGS\227--238}.人工知能学会.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{kobayashi06}小林のぞみ\JBA乾健太郎\JBA松本裕二\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク使用に関する考察.\\newblock自然言語処理研究会報告\2006-NL-171-18,情報処理学会.\bibitem[\protect\BCAY{小林\JBA飯田\JBA乾\JBA松本}{小林\Jetal}{2005}]{Kobayashi05-1}小林のぞみ\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2005\BBCP.\newblock照応解析手法を利用した属性-評価値対および意見性情報の抽出.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\436--439}.言語処理学会.\bibitem[\protect\BCAY{村野\JBA佐藤}{村野\JBA佐藤}{2003}]{Nomura03}村野誠治\JBA佐藤理史\BBOP2003\BBCP.\newblock文型パターンを用いた主観的評価文の自動抽出.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\67--70}.言語処理学会.\bibitem[\protect\BCAY{野口\JBA三好\JBA徳永\JBA飯田\JBA小町\JBA乾}{野口\Jetal}{2008}]{Noguchi08}野口正樹\JBA三好健太\JBA徳永健伸\JBA飯田龍\JBA小町守\JBA乾健太郎\BBOP2008\BBCP.\newblock汎用アノテーションツールSLAT.\\newblock\Jem{言語処理学会第14会年次大会発表論文集},\mbox{\BPGS\269--272}.言語処理学会.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2004}]{Pang04}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2004\BBCP.\newblock\BBOQASentimentalEducation:SentimentAnalysisUsingSubjectivitySummarizationBasedonMinimumCuts.\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\271--278}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{Pang02}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Seki,Evans,Ku,Chan,Kando,\BBA\Lin}{Sekiet~al.}{2007}]{Seki07}Seki,Y.,Evans,D.~K.,Ku,L.-W.,Chan,H.-H.,Kando,N.,\BBA\Lin,C.-Y.\BBOP2007\BBCP.\newblock\BBOQOverviewofOpinionAnalysisPilotTaskatNTCIR-6.\BBCQ\\newblockIn{\BemProceedingsof6thNTCIRWorkshop},\mbox{\BPGS\265--278}.NII.\bibitem[\protect\BCAY{立石\JBA石黒\JBA福島}{立石\Jetal}{2001}]{Tateishi01}立石健二\JBA石黒義英\JBA福島俊一\BBOP2001\BBCP.\newblockインターネットからの評判情報検索.\\newblock自然言語処理研究会報告\2001-NL-144-11,情報処理学会.\bibitem[\protect\BCAY{峠\JBA大橋\JBA山本}{峠\Jetal}{2005}]{Touge05}峠泰成\JBA大橋一輝\JBA山本和英\BBOP2005\BBCP.\newblockドメイン特徴語の自動取得によるWeb掲示板からの意見文抽出.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\672--675}.言語処理学会.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney02}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsUporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Wiebe,Breck,Buckley,Cardie,Davis,Fraser,Litman,Pierce,Riloff,\BBA\Wilson}{Wiebeet~al.}{2002}]{Wiebe02}Wiebe,J.,Breck,E.,Buckley,C.,Cardie,C.,Davis,P.,Fraser,B.,Litman,D.,Pierce,D.,Riloff,E.,\BBA\Wilson,T.\BBOP2002\BBCP.\newblock\BBOQFinalReport---MPQA:Multi-PerspectiveQuestionAnswering.\BBCQ\\newblockIn{\BemNRRCSummerWorkshoponMulti-PerspectiveQuestionAnsweringFinalReport}.NRRC.\bibitem[\protect\BCAY{Yu\BBA\Hatzivassiloglou}{Yu\BBA\Hatzivassiloglou}{2003}]{Yu03}Yu,H.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2003\BBCP.\newblock\BBOQTowardsansweringopinionquestions:SeparatingFactsfromOpinionsandIdentifyingthePolarityofOpinionSentences.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\129--136}.\end{thebibliography}\appendix
\section{予備実験1における注釈者への作業指示}
\label{sec:予備実験1における注釈者への作業指示}作業指示中にて四角で囲われている部分は,実際に注釈者への作業指示へ記述した文ではなく,本稿の他の部分に記述されている文言を挿入した部分である.\begin{screen}目的\begin{quote}Web上にある,製品レビューに対して,評判情報のモデル化に必要な要素に注釈(タグ)を付与し,コーパスの試作を行う.\\今回の作業は,注釈者間におけるタグの付与の違いを調べることが目的である.\end{quote}結果\begin{quote}・タグ付けが行われたテキストデータ\\・1ファイルごとの作業時間\\・気になる点などがあったら記録しておく\end{quote}注意点\begin{quote}・タグの付与に迷いが生じたときに,他の人に相談をしない\\・ファイルの中を一回見たら,途中でやめないでタグ付けを行う\\・配布したテキストエディタを用いて注釈付けの作業を行う\end{quote}評判情報のモデルの説明\begin{quote}\fbox{\begin{minipage}{0.9\linewidth}\ref{sec:評判情報の提案モデル}章と同一の評判情報モデルの解説\end{minipage}}\end{quote}\end{screen}次ページに続く\begin{screen}評判情報コーパスの作成手順\begin{quote}対象にはあらかじめitemタグが付与してあります.また,対象の階層構造を示したデータも一緒に用意してあります.\\\end{quote}*注意点\\itemタグが付与されるべきであろう場所にitemタグが付与されていないために,作業に支障をきたすような場合.\begin{quote}A:階層構造はすでに存在する場合→itemタグを追加してしまってかまいません.\\B:階層構造にも存在しない場合→その度,質問をしてください.\end{quote}評判情報の構成要素がテキスト中に存在する場合には,下記の注釈付けを行ってください.\begin{quote}1〜3の数字は注釈付けの順番を意味するものではありません.\end{quote}1:属性にタグを付与\begin{verbatim}<attributeid="a01"pair="p01"target="c01">属性</attribute>\end{verbatim}id:a01,a02…のようにidをつける.\\pair:p01,p02…のように属性—属性値組を示すための番号をつける.組になる属性値にも同じ番号をつける.\\target:属性を有する\verb|<item>|のclassを指定.複数指定の場合はスペースで区切って列挙.\\\\2:属性値にタグを付与\begin{verbatim}<valueid="v01"pair="p01"target="c01">属性値</value>\end{verbatim}id:v01,v02…のようにidをつける.\\pair:\verb|<attribute>|のpairを参照.\\target:\verb|<attribute>|のtargetを参照.\\3:評価にタグを付与\begin{verbatim}<evaluationid="e01"target="c01"reason="p01"orientation="positive">評価</evaluation>\end{verbatim}id:e01,e02…のようにidをつける.\\target:\verb|<evaluation>|が評価している\verb|<item>|のclassを指定する.\\reason:\verb|<evaluation>|の理由となる\verb|<attribute>-<value>|のpairの値を指定する.複数指定する場合にはスペースで区切って列挙.\end{screen}
\section{予備実験2における注釈者への作業指示}
\label{sec:予備実験2における注釈者への作業指示}予備実験2で利用した作業指示は付録\ref{sec:予備実験1における注釈者への作業指示}に以下の各項目を作業指示の末尾に追加したものである.\begin{screen}attribute-valueの組については片方の要素が省略されている場合にはその要素を補完する\begin{quote}省略されている要素の内容がどのようなものになるかを以下の方法で記述する\\attributeが省略されている場合にはattributeが省略されていると思われるvalueタグの直前にattributeタグを記述する\\valueタグが省略されている場合にはvalueが省略されていると思われるattributeタグの直後にvalueタグを記述する\\\end{quote}省略されていた要素を補完して注釈付けを行った例(下線部が省略を補完した部分)\\\verb|<itemid="i11"class="c2">|このソフト\verb|</item>|は\underline{{\ttfamily\symbol{"3C}attributeid="a101"pair="p101"}}\linebreak\underline{\mbox{\ttfamilytarget="c2"abbr="1"\symbol{"3E}重さ\symbol{"3C}/attribute\symbol{"3E}}}\verb|<valueid="v101"pair="p101"target=|\linebreak\verb|"c2">|軽く\verb|</value>|て\verb|<evaluationid="e101"target="c2"readon="p101">|気に入っている\verb|</evaluation>|.\end{screen}
\section{評判情報コーパスの作成実験における注釈者への作業指示}
\label{sec:評判情報コーパスの作成実験における注釈者への作業指示}評判情報コーパスの作成実験における注釈者の作業指示は付録\ref{sec:予備実験1における注釈者への作業指示}に以下の変更と追加を行ったものである.作業指示中にて四角で囲われている部分は,実際に注釈者への作業指示に記述した文ではなく,本稿の他の部分に記述されている文言を挿入した部分である.・予備実験1の作業指示から変更した点\begin{screen}目的\begin{quote}今回の作業は,今後利用する本コーパスの作成である.\\注釈揺れの分析を行うための作業ではない\end{quote}\end{screen}次ページに続く\begin{screen}注意点\begin{quote}タグの付与に迷いが生じたときに,注釈者間のみで相談して判断を決めずに,第一著者へ訪ねること.\\注釈付けツールを用いて注釈付けを行うこと.\\注釈付けの粒度をなるべく細かくすること.とくにattributeとvalueの粒度に注意すること.\\\fbox{\begin{minipage}{0.9\linewidth}図\ref{fig:valueの中にattributeを含んでしまっている例}をここに挿入\end{minipage}}\end{quote}注釈付け対象データの配布について\\200文の注釈付けが終わった注釈者へ次の200文を配布する.\end{screen}上述の注意点について補足説明をする.注釈揺れの分析を目的とした実験ではないので,作業者からから発注者へ質問があった場合は,発注者が質問とその回答を全注釈者へ連絡している.\\・予備実験1の作業指示から追加した点\begin{screen}注釈付けの際の規則の追加\begin{quote}\fbox{\begin{minipage}{0.9\linewidth}図\ref{fig:意図した注釈付けを行ってもらうために追加した規則},図\ref{fig:注釈の範囲に関する注釈揺れを削減するために追加した規則}と図\ref{fig:モダリティ部分に関する規則}をここに挿入\end{minipage}}\end{quote}注釈付けの順番について\begin{quote}最初にvalueタグ,もしくはevaluationタグを注釈付けする部分を探しながら注釈付けを行う.\\value,evaluationに該当する文字列がどちらも存在せずに,itemやattributeのみが現れた場合には注釈付けを行わなくてもよい.\end{quote}注釈揺れの事例の提示\begin{quote}\begin{verbatim}注釈付けが必要な場所には忘れずに注釈付けを行ってください例のような場合には注釈付けを行ってください例:○:<value>機械的</value>な<attribute>声</attribute>です×:機械的な声です\end{verbatim}\end{quote}\end{screen}次ページへ続く\begin{screen}\begin{quote}評価はその表現のみで肯定否定がいかなる場合でも決定できる表現です\\例のようなvalueだけでは肯定否定は決定できません\begin{verbatim}例:○:届いたときは<value>可愛い</value>と思わずつぶやきました×届いたときは<evaluation>可愛い</evaluation>と思わずつぶやきました○:<item>画面</item>の<attribute>色</attribute>は<value>きれい</value>×:<item>画面</item>の<attribute>色</attribute>は<evaluation>きれい</evaluation>○:<attribute>色</attribute>が<value>はっきり出て</value>いて<value>見やすい</value>×:<attribute>色</attribute>が<value>はっきり出て</value>いて<evaluation>見やすい</evaluation>○:<value>使いやすい</value>です。×:<evaluation>使いやすい</evaluation>です。\end{verbatim}\vspace{2\baselineskip}例のようなevaluationはその表現のみで肯定否定が決定できるので評価として扱い\linebreakます\begin{verbatim}例:○:<item>シール</item>の<attribute>品質</attribute>は<evaluation>かなり悪い</evaluation>×:<item>シール</item>の<attribute>品質</attribute>は<value>かなり悪い</value>○:<attribute>内容</attribute>は<evaluation>良い</evaluation>だけに<evaluation>残念</evaluation>×:<attribute>内容</attribute>は<value>良い</value>だけに<evaluation>残念</evaluation>\end{verbatim}\end{quote}\end{screen}次ページへ続く\begin{screen}\setlength{\baselineskip}{16pt}\begin{quote}様態を表す値が属性値で観点しか述べていない部分は属性です\\例の場合はattributeとして注釈付けしてください\begin{verbatim}例:○:購入の決め手としては<attribute>大きさ</attribute>と<attribute>デザイン</attribute>が挙げられます。×:購入の決め手としては<value>大きさ</value>と<attribute>デザイン</attribute>が挙げられます。○:その<attribute>シンプルさ</attribute>に<evaluation>感心してしまいます</evaluation>。×:その<value>シンプルさ</value>に<evaluation>感心してしまいます</evaluation>。注釈付けはなるべく細かく行ってください例:○:<value>その日の気分によって聞ける</value>のが<evaluation>すばらしい</evaluation>×:<evaluation>その日の気分によって聞けるのがすばらしい</evaluation>○:<value>熱を持ってしまい</value>とてもではないですが<value>手では持てなくなる</value>×:<value>熱を持ってしまい、とてもではないですが手では持てなくなる</value>属性値は様態の内容なので,観点は属性に含めてください.例:○:<attribute>茶葉が踊っている</attribute>のが<value>目に見える</value>×:<attribute>茶葉</attribute>が<value>踊っているのが目に見える</value>○:<attribute>操作が慣れるまで</attribute><value>ほんの少しかかった</value>×:<attribute>操作</attribute><value>慣れるまでほんの少しかかった</value>\end{verbatim}\end{quote}\end{screen}次ページへ続く\clearpage\begin{screen}\begin{quote}attribute-value組はそのものがどのようなモノであるかを表すだけであり,その組に対する肯定・否定は人によって異なります\begin{verbatim}例:○:<attribute>落ち着き</attribute>が<value>あります</value>×:<evaluation>落ち着きがあります</evaluation>○:<item>このディスプレイ</item>は<attribute>解像度</attribute>が<value>高い</value>×:<item>このディスプレイ</item>は<evaluation>解像度が高い</evaluation>特に属性は省略されている場合があります。省略を想定しながら注釈付けしてください例の場合は「サイズ」という属性が省略していると考えられます例:○:<item>画面</item><value>大きい</value>×:<attribute>画面</attribute><value>大きい</value>\end{verbatim}\end{quote}\end{screen}上記の作業指示に加えて,別紙にて注釈付けツールの使用説明書を配布.\begin{biography}\bioauthor{宮崎林太郎}{2002年神奈川大学理学部情報科学科卒業.2004年同大学大学院理学研究科情報科学専攻博士課程前期修了.現在,横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期在学中.自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V04N04-01
|
\section{はじめに}
連接関係の関係的意味は,接続詞,助詞等により一意に決まるものもあるが,一般的には曖昧性を含む場合が多い.一般的には,複文の連接関係の関係的意味は,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.しかし,各々の単文の意味とそれらの間の関係を理解するためには広範囲の知識が必要になる.それらの背景知識を記述して,談話理解に利用する研究\cite[など]{ZadroznyAndJensen1991,Dalgren1988}も行われているが,現状では,非常に範囲を限定したモデルでなければ実現できない.従って,連接関係を解析するためには,少なくともどのような知識が必要になり,それを用いてどのように解析するのかが問題になる.シテ型接続に関する研究\cite{Jinta1995}では,助詞「て」による連接関係を解析し,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などの意味があることを述べている.これらの関係的意味は,動詞の意志性,意味分類,アスペクト,慣用的な表現,同一主体,無生物主体などによって決まることを解析している.しかし,動詞の意志性自体が,動詞の語義や文脈によって決まる場合が多い.また,主体が省略されていることも多い.さらに,「て」以外の接続の表現に対して,同じ属性で識別できるかどうかも不明である.表層表現中の情報に基づいて,文章構造を理解しようとする研究\cite{KurohasiAndNagao1994}では,種々の手掛かり表現,同一/同種の語/句の出現,2文間の類似性を利用することによって連接関係を推定している.しかし,手掛かり表現に多義のある時は,ある程度の意味情報を用いる必要がある.日本語マニュアル文においてアスペクトにより省略された主語を推定する研究\cite{NakagawaAndMori1995}や,知覚思考,心理,言語活動,感情,動きなど述語の意味分類を用いて,「ので」順接複文における意味解析を行う研究\cite{KimuraAndNisizawaAndNakagawa1996}などがあり,アスペクトや動詞の意味分類が連接関係の意味解析に有効なことが分かる.しかし,連接関係全般について,動詞と主体のどのような属性を用いて,どの程度まで解析できるかが分からない.本論文では,「て」以外の曖昧性の多い接続の表現についても,その意味を識別するために必要な属性を調べ,曖昧性を解消するモデルを作成した.動詞の意志性については,予め単文で動詞の格パターンを適用して解析して,できるだけ曖昧性を無くすようにした.省略された主体については,技術論文,解説書,マニュアルなどの技術文書を前提にして,必要な属性を復元するようにした.
\section{連接関係の曖昧性}
接続詞,助詞等の接続の表現には曖昧性がある.特に,「て」,「ため」,「が」,「と」などで表現される従属節の関係的意味は様々である.これは,「から」,「ので」などと違って,これらの接続の表現自体が明確な固有の意味を有していないからである.従って,これらの接続の表現では,連接関係の関係的意味が,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.「〜して」形式で表される連接関係の関係的意味には,次の幾つかの例で示すように,「時間的継起」,「方法」,「付帯状態」,「原因」,「目的」,「並列」などがある.\begin{description}\item[〔例文1〕]それぞれのセグメントにTCPヘッダを加えて,相手のプロトコルモジュールに送っています.(時間的継起)\item[〔例文2〕]ネットワークを利用して,常に最新のデータを取り出すことができます.(方法)\item[〔例文3〕]そこで女中が鍵を持って,私を待っていた.(付帯状態)\item[〔例文4〕]この部屋は静かで,よく眠れる.(原因)\item[〔例文5〕]私がだれかにこの暗号を伝達する前に詳細を知ろうとして,私をつけ狙った.(目的)\item[〔例文6〕]交通は混乱して,人心は険悪である.(並列)\end{description}「〜と」形式で表される連接関係の関係的意味には,「時」,「条件」,「原因」などがある.\begin{description}\item[〔例文7〕]朝起きると,すぐシャワーを浴びる.(時)\item[〔例文8〕]同じユーザ名でもユーザIDやグループIDが異なっていると,うまくログインやファイルのコピーができません.(条件)\item[〔例文9〕]窓を開けると,寒い風が入った.(原因)\end{description}「〜ため」形式で表される連接関係の関係的意味には,「原因」と「目的」がある.\begin{description}\item[〔例文10〕]AとCは,異なったネットワークにあるため,データリンク層のプロトコルも違います.(原因)\item[〔例文12〕]異なる地域,都市,国の間を結ぶため,自分達で勝手に通信回線の敷設はできません.(目的)\end{description}「〜が」形式で表される連接関係の関係的意味には,「逆接」,「対比」,「前置き」などがある.\begin{description}\item[〔例文13〕]何度も説明しましたが,あの人は分からなかった.(逆接)\item[〔例文14〕]兄は勤勉だが,弟はずぼらだ.(対比)\item[〔例文15〕]ちょっと伺いますが,駅はどこですか.(前置き)\end{description}
\section{動詞と主体の属性と連接関係の関係的意味}
複文中の連接関係は,従属節や主節の述語の表している事象の意味タイプ,およびその組み合わせによって決まってくる.ここで,事象の意味タイプは,ある主体が行う動作または状態の分類,意志性などを表す~\cite{Jinta1995}.例えば,生物主体の姿勢変化,携帯,心的状態,使用,作成,助言などである.従って,事象の意味タイプは,動詞と名詞の属性を用いて表すことができると考えることができる.従って,動詞と名詞の意味的関係を表すために,動詞と名詞の意味分類を用いた格パターンがあると同様に,従属節と主節の連接関係にも,動詞と名詞の属性を用いた連接関係パターンが存在すると考えることができる.本論文では,従属節と主節の,動詞と主体の属性を用いて,連接関係の関係的意味を推定する方法をとった.動詞の属性として,意志性,意味分類,慣用的表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.次に,各々の属性によって,連接関係の関係的意味がどのように決まるかを,いくつかの例で示す.\subsection{動詞の意志性と主体の同一性,無生物性}従属節と主節の動詞の意志性および主体が同一かどうか,無生物主体かどうかの組み合わせによって,連接関係の関係的意味が次のように影響を受ける.ここで,主体は,動作主,経験者などを含む概念である\cite{Jinta1995}.動詞の意志性は,人間の意志的な行為を表し,誘い掛けや命令の意味を表す.生物/無生物は,生命の有る/無しではなく,情意,特に自由意志による行動可能なものを表す.「〜して」形式接続で,従属節と主節が共に意志動詞で形成され,両者の主体が同一の時は,「時間的継起」を表すことが多い.これは,同一主体による制御可能な動きは,通常,継起的に引き起こされるためである.本論文のモデルで用いた用例では,このパターンに属する連接関係の94\%が「時間的継起」を表した.ただし,後に述べる従属節の意味分類から「方法」,「付帯状態」と識別されるものは除いてある.用例の内容については\ref{section:evaluation}章で述べる.\begin{description}\item[〔例文16〕]ユーザは,IDとパスワードを指定して,OKボタンをクリックします.\end{description}「〜して」形式接続で,従属節と主節の主体が無生物で動詞が共に無意志動詞の時は,「時間的継起」を表すことが多い.自然界における無生物的な2現象が,時間的継起の下に生じることはよくある.この場合がそれに相当する.用例では,従属節の意味分類から「原因」と識別されるものを除くと,このパターンに属する連接関係の85\%が「時間的継起」を表した.\begin{description}\item[〔例文17〕]ログインが成立して,プロンプトが戻ってきます.\end{description}「〜して」形式接続で,従属節と主節が共に無意志動詞で従属節が無生物主体,主節が生物主体の時は,「原因」を表すことが多い.これは,主たる事象が人間に関するものでありながら,従属節で人間の意志で制御できない事象が生じたためである.一般に技術文書ではこのパターンは少なく,用例でも2例しかなかったが,2例の連接関係はいずれも「原因」を表した.\begin{description}\item[〔例文18〕]彼は,車が故障して,遅れた.\end{description}「〜ため」形式接続で,従属節と主節が共に意志動詞で生物主体の時は,「目的」を表すことが多い.これは,同一主体が,従属節の事象を達成する目的で,主たる事象を行うためである.用例ではこのパターンに適合する連接関係は,全て「目的」を表した.\begin{description}\item[〔例文19〕]ユーザは,FDDIでUNIXワークステーションを接続するために,通常FDDIの通信用ボードを購入しなければなりません.\end{description}「〜ため」形式接続で,従属節が無意志動詞で,主節も無意志動詞の時は「原因」を表すことが多い.これは,従属節で人間の意志で制御できない事象が生じ,それからある事象が起こったときは,その事象の原因と解釈されるためである.無意志動詞には,心的作用を表す動詞や,状態を表す動詞のほか,意志動詞に「される」が後接した受動態や,意志動詞に「ている」,「てある」が後接した「単純状態」や「変化状態の維持」のアスペクトなどを含む.このような場合を含めると,用例では,このパターンに適合する連接関係はすべて「原因」を表した.\begin{description}\item[〔例文20〕]FDDIはトークンパッシング方式を採用しているため,ネットワークトラフィックによる性能の低下がない.\end{description}「〜と」形式接続で,従属節と主節が共に意志動詞で同一主体の時は,「時」を表すことが多い.「〜と」形式接続は一般的には「条件」を表すことが多いが,同一主体による制御可能な動きの場合には,「その時」または「〜してすぐ」という意味になりやすい.主節のヴォイスが「可能」を表す時には「条件」を表すことが多いので,この場合を除くと,用例ではこのパターンに適合する連接関係は全て「時」を表した.\begin{description}\item[〔例文21〕]彼女は,部屋に入ると,窓を開けた.\end{description}\subsection{動詞の意味分類}動詞の意味分類によっても,連接関係の関係的意味が影響を受けることがある.次に,幾つかの例を挙げる.「〜して」形式接続で従属節の動詞が,姿勢変化,着脱,携帯,心的状態などの意味分類であるときは「付帯状態」を表すことが多い.「付帯状態」とは,従属節と主節の事象が時間的に同存し,同一主体で,従属節で主節の事象の実現のされ方を表しているものである.\begin{description}\item[〔例文22〕]わたしは汗で湿った服をそのまま着て,また寮に出かけていった.\end{description}「〜して」形式接続で,従属節の動詞が,使用,作成,助言などの意味分類であるときは,「方法」を表すことが多い.つまり,従属節の事象が,主節の事象を実現するための方法的要因になっている場合である.技術文書では,「〜を利用して」,「〜を作成して」などの表現が多いので,連接関係の関係的意味にも「方法」がかなりある.意味分類の定義は,基本的には分類語彙表に因った.分類語彙表の意味分類に用例を適用して,正の用例のみを含む場合は分類語彙表の分類で定義したが,負の用例を含む場合は正の用例の単語をそのまま定義に加えた.\begin{description}\item[〔例文23〕]そのケーブルを使って,データを送る必要があります.\end{description}「〜が」形式接続で,主節と従属節の動詞又は形容詞の意味分類が,反意語の時は「対比」を表すことが多い.用例では,2例だけであったが,2例とも「対比」を表した.\begin{description}\item[〔例文24〕]昨日まで寒かったが,今日から急に暖かくなった.\end{description}\subsection{ムード・アスペクト・ヴォイス}ムード・アスペクト・ヴォイスによっても連接関係の関係的意味が変わってくる.前述のように,「される」が後接した受動態や,「ている」,「てある」が後接した「単純状態」や「変化状態の維持」のアスペクトなどを含む節は無意志的に解釈されるが,そのほかにも次に示すような幾つかの例がある.「〜して」形式接続で,従属節が「〜(よ)うとして」といった将然相の形をとる場合は,「目的」を表すことが多い.主節の事象を引き起こす計画を,従属節で述べているためである.\begin{description}\item[〔例文25〕]体を鍛えようとして,毎日ジョギングをやっている.\end{description}「〜が」形式接続で,主節が疑問文の時は,「前置き」を表すことが多い.一般的には,「〜が」は「逆接」または「対比」を表すことが多いが,主節が疑問文の時は,質問に対する前提条件を表すことが多いためである.用例では,このパターンに属する連接関係は全て「前置き」を表した.\begin{description}\item[〔例文26〕]ここに鍵が置いてありますが,誰のですか.\end{description}「〜と」形式接続で,従属節が生物主体で「ている」,「かける」,「はじめる」の場合は,「時」を表すことが多い.「〜と」は一般的には,「条件」を表すことが多いが,従属節が生物主体で動作の「進行」または「開始」を表すアスペクトの場合は,「その時」または「〜してすぐ」の意味になることが多いためである.用例では,このパターンは少なかったが,適合する連接関係は全て「時」を表した.\begin{description}\item[〔例文27〕]食事をしていると,急にグラッと揺れた.\end{description}\subsection{従属節が慣用句的になっているもの}従属節が慣用句化して副詞的に用いられる場合がある.この場合は,接続の表現もそれぞれの慣用句に対応した関係的意味を持つ.「〜して」形式接続で,従属節が「体力をふり絞って」,「先を争って」,「まとまって」,「だまって」などの表現をとるときは,「付帯状態」を表す.\begin{description}\item[〔例文28〕]体力を振り絞って,走った.\end{description}
\section{複文の連接関係解析モデル}
前述のように複文の連接関係は,動詞の意志性,意味分類,ムード・アスペクト・ヴォイス,慣用表現,主体の同一性,無生物主体かどうかなどによって決まる場合が多い.これらの情報により,連接関係を解析することができる.しかし,動詞の意志性自体に曖昧性がある.また,主体が省略されていることも多い.従って,連接関係を解析する前に,これらの情報を解析しておく必要がある.複文の連接関係の解析モデルは図1に示すように,動詞と主体の属性を解析し,それらの属性を用いて,連接関係の解析を行う.\vspace*{2mm}\begin{figure}[htbp]\begin{center}\epsfile{file=fig1.eps,width=78mm}\bigskip\caption{連接関係の解析モデル}\label{fig:1}\end{center}\end{figure}本論文のモデルは連用修飾節の解析を対象としたので,「の」,「こと」などによる連体修飾節は,入力文から省いてある.連接関係パターン,格パターン,名詞の属性などをHPSG\cite[など]{PollardAndSag1987,PollardAndSag1993}の素性構造に似た形式で表し,辞書に登録した.これらの辞書の情報を用いて,動詞と主体の属性の解析,連接関係の解析を行い,複文の素性構造に相当する出力を生成する.解析は,簡単なHPSGパーザをprologで作成して行った.このパーザは,格パターンの解析と連接関係パターンの解析の機能だけを持ったもので,この目的のために作成した.辞書は,IPAL辞書\cite[など]{IPA1987,IPA1990}と分類語彙表\cite{Kokuritukokugokenkyujo1989}に基づき作成した.動詞の格パターン,動詞の意志性はIPAL辞書のものを採用した.動詞の意味分類は分類語彙表の分類を用いた.IPAL辞書の格パターンで用いている名詞の意味分類は,比較的粗い分類になっている.従って,動詞の意味分類の方が名詞の意味分類よりも詳しくなっている.名詞の生物/無生物の区分については,意味分類が「人間」と「組織」の場合を「生物」とし,それ以外を「無生物」とした.用例は,主としてネットワークプログラムの解説書からとったため,プログラムの機能説明が多数含まれていた.その中で,プログラムが生物と同様の行動をするので,プログラムも生物に分類した.コンピュータ用語でIPAL辞書にも分類語彙表にも無い用語が多数出てきたが,同じ分類の用語に準じて定義し辞書に追加した.\subsection{動詞と主体の属性の解析}複数の語義のある動詞は,語義を確定しないと,意志性を確定できない.そのため,動詞の格パターンを適用して,語義を確定するようにした.図2に,辞書における動詞の格パターンの記載例を示す.図2ではHPSGの形式で記載しているが,実際の辞書ではprologの形式に変換して格納している.この格パターンを用いて入力文を解析する過程で,適合したパターンの語義を選択し,意志性を確定した.しかし,意志動詞でも,特定の語義で無意志用法のあるものがある.\begin{description}\item[〔例文29〕]B29は工場に爆弾を落とした.(意志用法)\item[〔例文30〕]彼女はお皿を落として割ってしまった.(無意志用法)\end{description}\begin{figure}[htbp]\small(a)動詞の記載例\\[1mm]\hspace*{10mm}$\begin{ftr}&PHON&開ける&\\&&&\\[-3mm]&SYN|LOC|CAT&\begin{ftr}&HEAD&\begin{ftr}&MAJ&~V&\\&VFORM&~DICTIONARY-FORM&\\&\multicolumn{2}{l}{ADJUNCTS\{[LOC|HEAD|MAJ\;\;ADV]\}}&\\&LEX&~+&\\\end{ftr}&\\&&&\\[-3mm]&SUBCAT&\left\langle\begin{array}[c]{l}PP[NOM][\,1\,][+ANIMATE,HUMAN],\\PP[ACC][\,2\,][-ANIMATE,PRODUCT]\\\end{array}\right\rangle&\\\end{ftr}&\\&&&\\[-3mm]&SEM|CONT&\begin{ftr}&RELN&~AKERU&\\&OPENER&~[\,1\,]&\\&OPEND&~[\,2\,]&\\&VOLITION&~+&\\&SEM-TYPE&~開・閉&\\\end{ftr}&\\\end{ftr}$\\[1mm]\hspace*{15mm}注)$VP[DICTIONARY-FORM][+VOLITION]$と略記する\bigskip(b)名詞句$PP[ACC][-ANIMATE,PRODUCT]$の内容\\[1mm]\hspace*{10mm}$\begin{ftr}&PHON&箱を&\\&&&\\[-3mm]&SYN|LOC|CAT&\begin{ftr}&HEAD&\begin{ftr}&MAJ&~P&\\&PFORM&~WO&\\&CASE&~ACC&\\\end{ftr}&\\&&&\\[-3mm]&SUBCAT&\langleNP[-ANIMATE,PRODUCT]\rangle&\\\end{ftr}&\\\end{ftr}$\bigskip(c)名詞$NP[-ANIMATE,PRODUCT]$の内容\\[1mm]\hspace*{10mm}$\begin{ftr}&PHON&箱&\\&&&\\[-3mm]&SYN|LOC|CAT&\begin{ftr}&HEAD|MAJ&~N&\\&SUBCAT&~\langle\;\;\rangle&\\\end{ftr}&\\&&&\\[-3mm]&SEM|LOC|CONT&\begin{ftr}&ANIMATE&~-&\\&SEM-TYPE&~PRODUCT&\\\end{ftr}&\\\end{ftr}$\bigskip\caption{辞書における動詞の格パターンの記載例}\label{fig:2}\end{figure}ただし,技術文書を考えた場合,意志動詞の無意志用法は比較的少ない.実際に用例を調べた結果,意志動詞の無意志用法は,非常に少く2\%であったので無視することにした.従って,IPAL辞書の動詞の意志性で無意志用法の有るものは,意志動詞として分類した.主体が省略されている時には,マニュアル,技術論文などの技術文書であることを前提にして,比較的単純な方式により,生物主体か無生物主体か,同一主体か異主体かを推定するようにした.一般的に,著者や読者が主題になっているときは,先行文脈から推定可能であり,特に強調する必要があるときなど,特別の場合以外は,省略されるのが普通でる.例えば,マニュアル類では,装置の開発者が,利用者に説明することを前提にして書かれているので,開発者や利用者が省略されることが多い.技術文書でも,開発者や研究者又は読者が省略される.文全体の主題と従属節の主題が同じ時は,従属節の主題は省略される.ただし,従属節に主題でない主体があるにもかかわらず,主節の主体が省略されることは有り得る.この場合は,省略された主体は,先行文脈の主題であり,かつ,文全体が主題寄りの視点で記述されている可能性が高い~\cite{Kuno1978}.技術文書では著者又は読者寄りの視点から書かれているのが普通であるから,著者又は読者が省略されている場合が多い.省略された主体を埋める候補が意味的に矛盾しないかどうかの検証は,動詞の要求する主体が生物か無生物かによった.連接関係の解析に必要な情報は,同一主体か,無生物主体かだけであり,HPSGパーザは格パターン,連接関係パターンの順序で縦形探索を用いて解析しているので,次のような簡単な処理方法により省略された主体を推定した.\begin{enumerate}\item格パターンを適用するとき,生物主体のパターンを優先する.\label{item:animate}\item最終的に動詞の格パターンのSUBCATに残った項を,省略を復元する候補とする.\label{item:subcat}\item連接関係パターンを適用するとき,同一主体のパターンを優先する.\label{item:same}\item従属節が無生物主体で,主節の主体が省略されている時だけ特別扱いし,生物/無生物の異主体のパターンを優先する.\label{item:different}\item優先するパターンが無いときは,次に確率の高いパターンを適用する.\end{enumerate}\ref{item:animate}は,著者や読者が省略されている可能性が高い事を表す規則であり,\ref{item:same}は,次の\ref{item:different}の場合を除いて,文全体の主題と従属節の主題が同じ場合,および従属節の主体と主節の主体が同じ場合が多い事を表す規則である.\ref{item:different}は,従属節が無生物主体で,主節の主体が著者または読者の場合に相当する.従属節の動詞の意味分類によって,連接関係の関係的意味が決まってくることがある.従って,動詞が特定の意味分類に属しているかどうかを,解析する必要がある.このため,動詞の意味分類によって決まる接続の表現に対しては,辞書の連接関係パターンの記載に,その関係的意味が要求する動詞の意味分類を記載して,動詞の意味分類と単一化するようにした.動詞の意味分類は,前述のように連接関係の関係的意味を識別する必要上,名詞の意味分類より詳細になっている.従属節が慣用句化して副詞的に用いられる場合は,慣用句として辞書に記載しておき,入力文を解析する時に優先的に選択する.上記のようにHPSGパーザの解析過程で,格パターンを適用することにより,動詞と主体の属性を求め,引き続き連接関係パターンを適用することにより,連接関係を解析する.\subsection{連接関係の解析}接続の表現は,図3に示すような形式で辞書に記載される.図3には,「〜して」形式接続で,従属節と主節が共に意志動詞,主体が同一で,「時間的継起」を表す場合の連接関係パターンを示す.このような連接関係パターンが,接続の表現別,連接関係の関係的意味別に存在する.1つの関係的意味を複数のパターンで表すことも有り得る.\begin{figure}[htbp]\small\bigskip\begin{displaymath}\begin{ftr}&PHON&て&\\&&&\\[-3mm]&\multicolumn{2}{l}{SYN\;\begin{ftr}&\multicolumn{2}{l}{LOC|CAT\;\begin{ftr}&HEAD&\begin{ftr}&MAJ&~ADV&\\&JFORM&~TE&\\\end{ftr}&\\&&&\\[-3mm]&SUBCAT&\left\langle\begin{array}[c]{l}VP[ADVERVIAL-FORM][\,1\,][+VOLITION],\\SUBCAT\langlePP[NOM][\,3\,][+ANIMATE]\rangle\\\end{array}\right\rangle&\\\end{ftr}}&\\&&&\\[-3mm]&BIND|CAT|MAIN&\left\langle\begin{array}[c]{l}VP[\,2\,][+VOLITION],\\SUBCAT\langlePP[NOM][\,3\,][+ANIMATE]\rangle\\\end{array}\right\rangle&\\\end{ftr}}&\\&&&\\[-3mm]&SEM|LOC|CONT&\begin{ftr}&CONN&~SEQUENTIAL&\\&JUNCT&~\{[\,1\,],[\,2\,]\}&\\\end{ftr}&\\\end{ftr}\end{displaymath}\bigskip\caption{辞書における連接関係パターンの記載例}\label{fig:3}\end{figure}\newpage連接関係パターンで使用している素性は,表1の通りである.ただし,一般的なHPSGの素性は省いてある.\begin{table}[htbp]\begin{center}\caption{連接関係パターンの素性}\label{tab:1}\smallskip\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c}{素性}&\multicolumn{1}{|c}{値}&\multicolumn{1}{|c|}{意味}\\\hlineVOLITION&+,$-$&意志性\\ANIMATE&+,$-$&生物/無生物\\SEM-TYPE&\{使用,製造,教育\},$\cdots$&意味分類\\VOICE&PASSIVE,ACTIVE,&ヴォイス(受動/能動/使役/可能)\\&CAUSATIVE,POSSIBLE&\\ASPECT&\{TEIRU,TEARU\},$\cdots$&アスペクト\\MOOD&QUESTION,VOLITION&ムード(疑問/意志)\\IDIOM-TYPE&TE-SEQ,GA-PRE&慣用句の分類\\\hline\end{tabular}\end{center}\end{table}特定の接続の表現の連接関係パターンで,従属節の要求する素性はSUBCATで表され,主節の要求する素性はMAINで表される.解析の過程で単一化に成功したパターンが選択され,適合する連接関係の関係的意味が選択されることになる.
\section{連接関係解析モデルの評価結果}
label{section:evaluation}本論文の連接関係の解析モデルを,実際の技術文書に適用して評価した.評価結果は,表2に示す通りである.\begin{table}[htbp]\begin{center}\caption{連接関係解析モデルの評価結果}\label{tab:2}\smallskip\begin{tabular}{|l|l|r|r|r|r|}\hline\makebox[18mm][c]{接続の表現}&\makebox[18mm][c]{関係的意味}&\makebox[18mm][c]{パターン数}&\makebox[18mm][c]{文数}&\makebox[18mm][l]{正しく解析で}&\makebox[18mm][l]{正しく解析で}\\[-1mm]&&&&\multicolumn{1}{|l|}{きた文}&\multicolumn{1}{|l|}{きなかった文}\\\hlineあいだ&時&0&1&&1\\うえで&目的&1&2&2&\\が&逆説&1&12&12&\\&前置き&2&4&4&\\&対比&1&3&1&2\\から&原因&1&3&3&\\&理由&1&1&1&\\さいに&時&1&4&4&\\し&並列&1&6&6&\\&理由&1&0&&\\ため(に)&目的&2&13&13&\\&原因&2&9&8&1\\たら(ば)&条件&1&1&1&\\&理由&1&0&&\\&時&1&0&&\\たり&並列&1&4&4&\\て/で&時間的継起&3&14&10&4\\&方法&3&8&8&\\&付帯状態&1&6&6&\\&原因&2&4&4&\\&目的&1&0&&\\&並列&1&1&1&\\ても&逆接条件&1&10&10&\\と&条件&2&13&13&\\&時&2&2&2&\\&原因&1&0&&\\といえば&題材&0&1&&1\\とき&時&1&9&9&\\とともに&時&0&1&&1\\ながら&同時動作&1&1&1&\\&逆接&1&0&&\\なら(ば)&条件&1&0&&\\ので&原因&1&12&12&\\&理由&1&14&14&\\のに&逆接条件&1&2&2&\\ば&条件&1&22&22&\\&並列&1&0&&\\ばあい&条件&1&14&14&\\ように&対比&2&3&3&\\&推量&1&1&1&\\より&対比&0&1&&1\\連用中止&並列&2&28&28&\\&時間的継起&2&8&7&1\\\hline\multicolumn{1}{|c|}{合計}&&52&238&226&12\\\hline\multicolumn{1}{|c|}{比率(\%)}&&&100&95&5\\\hline\end{tabular}\end{center}\end{table}まず,接続の表現として最も多く使われる20の接続の表現を選択した.表2には,この20の表現に,評価した例文に出てきた4つの表現を追加して挙げてある.複文中の単文と単文を接続する表現を中心として選択し,複文と複文を接続する表現は除いた.また,本論文では,前述のように連用修飾節を解析の対象としたので,「の」,「こと」などによる連体修飾節に対する接続の表現は省いてある.上記20の接続の表現に対する連接関係パターンを解析した.解析のための例文としては,複文に関する論文集\cite{Jinta1995}から145文,日本語教育の参考書\cite[など]{YokobayasiAndSimomura1988,Houjou1992}から323文,ネットワークの解説書\cite{KaneutiAndImayasu1993}の前半から312文を選択した.合計780文の連接関係に適合する52の連接関係パターンを抽出した.連接関係パターンは図3に示すような構成をしており,表1に示す素性の有/無がパターン毎に異なる.各々の接続の表現毎の関係的意味に対するパターン数は表2に示す通りである.この連接関係パターンを,ネットワークの解説書の後半からとった別の238文に適用した結果が,表2の連接関係モデルの評価結果である.用意した20の接続の表現に含まれないものが4例,正しく解釈できなかったものが8例あった.合計して5\%の文は正しく解釈できなかったが,残りの95\%は正しく解析することができた.正しく解析できたかどうかの判断の基準は,「〜して」形式接続については複文に関する論文集\cite{Jinta1995},その他については日本語教育の参考書\cite[など]{YokobayasiAndSimomura1988,Houjou1992}の例文に因った.似た例文を探して,その例文の連接関係の意味を採用した.連接関係の意味が正しいかどうかの判断の結果は,3名の語学の研究者に見てもらい,異議の出たものは修正した.
\section{むすび}
本論文では,従属節と主節の,動詞と主体の属性を用いて,連接関係の関係的意味を解析するシステムを作成した.動詞と名詞の意味的関係を表すために,動詞と名詞の意味分類を用いた格パターンがあると同様に,従属節と主節の連接関係にも,各々の節を構成する動詞と主体の属性を用いた連接関係パターンが存在すると考えることができる.動詞の属性として,動詞の意志性,意味分類,慣用的表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.このシステムを,実際の技術文書に適用して評価した結果,95\%の正しい解析結果を得ることができた.今回は,連接関係パターンを手作業で抽出したが,確率モデルを採用し,パターンの属性の組み合わせを学習するシステムに拡張する事が今後の研究課題である.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{向仲\smbfkou}{1953九州大学工学部電気工学科卒業.同年,日本電気(株)入社.基本ソフトウェア開発に従事.平成5年より金沢経済大学教授.平成9年より江戸川大学教授,現在に至る.自然言語理解,エキスパートシステムの研究に従事.情報処理学会,言語処理学会,人工知能学会,ACL,ACM,IEEE各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N01-04
|
\section{はじめに}
テキスト分類学習は,スパムメールの除去,Webコンテンツのフィルタリング,ニュースの自動分類など様々な応用分野をもつ重要な技術である.一般の分類学習と同様に,テキスト分類学習においても特徴集合の選択は学習性能を決定する重要な要素である.通常,英文であればスペースによって区切られた語,日本語文であれば形態素解析によって分割された語を特徴として用いることが多いが,このような方法では二語が連接していることの情報が欠落するので,分類に役立つ熟語・複合語などの情報を取りこぼす可能性が高い.このため,この情報についてはあきらめるか辞書から得るかしなければならない.さらにこの情報を利用する場合は言語モデルの利用やstringkernelなどの特殊なカーネルを利用することにより学習アルゴリズム側で連接を考慮するといった対応を行う必要が生じる.一方,特徴選択の方法として文を文字列と見なし,全ての部分文字列を考慮することで,連接を特徴選択の際に取り込もうとするアプローチがある.このアプローチでは,熟語・複合語を取り込むための辞書や連接を考慮した学習アルゴリズムを使用する必要がないという利点があるが,部分文字列数のオーダーはテキストデータの全文字数の2乗のオーダーという非常に大きな値となってしまうため,取捨選択してサイズを縮小する必要がある.部分文字列を考慮した特徴選択の代表的なものに,Zhangらが提案した方法がある(Zhangetal.2006).彼らはsuffixtreeを利用して,出現分布が同一または類似している文字列を一つにまとめることによって特徴集合のサイズを縮小する方法を提案した.そして,この選択方法による特徴集合とサポートベクターマシンを利用したテキスト分類実験において,連接や文字列を考慮した他の代表的な方法よりも高い性能を与えることを示した.これに対して,本研究ではすべての部分文字列を考慮する点は同じものの,反復度と呼ばれる統計量を利用して,Zhangらの方法と異なる部分文字列の選択方法を提案する.反復度は文書内で繰り返される文字列は文書内容を特徴づける上で重要な語であるという仮定に基づく統計量であり,これまでキーワード抽出などに利用されている(TakedaandUmemura2002).Zhangらの方法は部分文字列の出現分布が類似したものを一つにまとめるという操作のみを行い,選択した部分文字列の文書内容を特徴づける上での重要性は学習アルゴリズムによって決めるというアプローチであるといえるが,反復度では特徴選択時にも部分文字列の重要性を考慮しており,分類に寄与しない特徴を予め取り除く効果が期待できる.本研究では,この反復度を用いた部分文字列からの特徴選択の効果を,ニュース記事を用いた分類実験,スパムメールのデータセットを用いた分類実験において検証する.そして,ニュース記事の分類実験では,提案手法である反復度を用いた特徴抽出方法がZhangらの特徴抽出方法よりも優れた結果を示し,単語を特徴集合とする方法との間には有意差が認められなかったことを報告する.一方,スパムメールの分類実験において提案手法はZhangらの方法,単語を特徴集合とする方法よりも優れた結果を示し,有意差が確認されたことを報告する.以下,2章ではZhangらの方法について詳しく説明する.また3章では本研究で利用する反復度と交差検定によるパラメータの設定方法について説明する.4章では実験方法と実験結果について述べ,5章でその結果について考察し,6章でまとめを行う.
\section{Zhangらの特徴選択方法}
ここではテキスト分類における特徴選択の先行研究として,Zhangらが提案した方法について詳しく説明する.テキスト分類に用いる機械学習アルゴリズムの多くは,学習の際のデータ表現に文書ベクトルを用いるが,通常このベクトルの値として,以下のtf値,df値を元に計算したtfidfと呼ばれる値が使用される.\begin{itemize}\itemtf(t,d):文字列tが文書dに出現する頻度\itemdf(t,D):コーパスD中で文字列tが出現する文書数\itemtfidf(t,d):tfidf(t,d)=tf(t,d)$\cdot$log($\vert$D$\vert$/df(t,D))\\{\kern-0.5zw}($\vert$D$\vert$はコーパスDの文書数を表す)\end{itemize}Zhangらは,膨大な部分文字列を削り込むために出現分布が同一または類似している文字列をまとめ,上で述べた値に違いのあるものをなるべく特徴として選択するというアプローチを採用した.ここで,出現分布が同一または類似している文字列とは,ある文字列のコーパス中におけるすべての出現場所をリストにしたとき,そのリストが別の文字列が持つ出現場所リストと等しいまたは類似している文字列のことを指す.出現分布が同一な文字列はtf値とdf値について同じ値を持つため,学習において区別する必要はなく,ひとつの特徴としてまとめてしまう.具体的な手続きとしては,出現場所のリストが等しい文字列のうち,最も文字列長が短い文字列のみを代表文字列として選択する.また,出現場所のリストが厳密に等しくなくても類似していれば,そのような文字列のtf値,df値にも大きな違いは生じないため,これらの文字列をひとつの特徴にまとめても分類結果に余り影響を与えることなく,特徴集合を減らすことができると考えられる.ただし出現場所の類似性の判定には基準が必要なので,Zhangらは類似した文字列を取り除くための条件を以下のようにした.\begin{enumerate}\itemコーパス中である文字列の次に現れる文字の種類がb種類未満の文字列は特徴集合から取り除く.\itemある文字列(S$_{1}$)が現れたとき,この文字列から始まる文字列(S$_{2}$)が出現する条件付確率P(S$_{2}\vert$S$_{1})$がp以上であるならば,後者の文字列を特徴集合から取り除く.\itemある文字列(S$_{3}$)が現れたとき,この文字列で終わる文字列(S$_{4}$)が出現する条件付確率P(S$_{4}\vert$S$_{3})$がq以上であるならば,特徴集合から後者の文字列を取り除く.\end{enumerate}また,コーパス中で出現頻度が極端に多い文字列,少ない文字列は分類に寄与しないと考え,最小頻度l未満の文字列,最大頻度h以上の文字列は特徴集合から除く.以上の処理により,特徴集合の大きさを,全部分文字列を特徴集合とした場合に比べ大幅に小さくすることができる.これらの処理を行うには5つのパラメータl,h,b,pおよびqを決定する必要があるが,これらは学習文書における交差検定法によって推定する.Zhangらは以上の処理をsuffixtreeを用いて効率的に行う方法を提案し,英語,中国語およびギリシャ語のコーパスを用いてテキスト分類の実験を行ったところ,これまでに提案されてきた主な文字列ベースのテキスト分類手法,例えば,言語モデルを利用した生成アプローチ(Peng2004)やstringkernelを利用した識別アプローチ(Lodhi2001)などの方法よりも優れた性能を示したと報告している.
\section{提案手法}
\subsection{反復度による特徴量抽出}本研究では,出現分布が同一または類似した文字列をまとめることに加え,ある文書に偏って出現する文字列をテキスト分類の重要な特徴として残すことを考え,Zhangらが用いた手法の条件(1),(2),(3)の代わりに反復度と呼ばれる統計量を用いることによって文字列を選択する方法を提案する.反復度adapt(t,D)は,語tが出現した文書のうち,2回以上繰り返し出現している文書の割合を示す統計量で以下のように定義される.\[\text{adapt}(t,D)=\frac{\text{df}_{2}(t,D)}{\text{df}(t,D)}\]ここで,df$_{2}$(t,D)はコーパスD中の文書で,文字列tが2回以上出現する文書数を表す.表1は,ある英文中における反復度の変化の様子を示したものである.ただし,「{\_}」は空白を表す.この例では,「natural{\_}gas{\_}」に1文字追加して「natural{\_}gas{\_}s」となったときに反復度が急激に減少している様子が示されている.表1に見られるように,反復度はある境界を境にそれまでほぼ一定だった値が急激に減少する統計量であり,df/$\vert$D$\vert$で計算される出現確率とは異なり,意味的に一塊の語の境界で減少することが多いことから,キーワードの自動抽出(TakedaandUmemura2002)などに利用されている.表1の例においても,「natural{\_}gas{\_}」で語が区切られることは,その意味を考えると妥当であるといえる.提案する方法では,出現分布が等しい文字列をその代表文字列だけにまとめることはZhangらと同じであるが,2章で説明した(1),(2),(3)の条件の代わりに,以下の条件を用いる.\begin{itemize}\item反復度が最小反復度a未満の文字列は特徴集合から取り除く\end{itemize}\begin{table}[t]\caption{語の境界における反復度の変化}\input{05table01.txt}\end{table}Zhangらの(1),(2),(3)の条件を用いていないため,出現分布が類似していてもひとつにまとめず別の特徴として扱う.ただし,出現分布が等しい文字列はひとつの特徴にまとめるため,表1のような1文字ずつ増加させたような文字列が必ず選ばれるわけではなく,単語中の語幹や連語単位の文字列などを特徴集合に含めることができる(平田他2007).表1の例では,「nat」と「natu」の2つ,「natural{\_}」,「natural{\_}g」,「natural{\_}ga」の3つは出現場所のリストが等しく,統計量も同じなので,それぞれ「nat」と「natural{\_}」だけを特徴として選択する.また,「natural{\_}gas」のような連語も特徴として選択される.\subsection{交差検定法によるパラメータの設定}提案手法では,最小頻度l,最大頻度hといったパラメータに加え,最小反復度aを決定する必要があるが,本研究ではZhangらと同じく交差検定法によって推定する.交差検定法とは,未知のデータに対するモデルのパラメータを推定する方法のひとつである.本研究で用いる4分割交差検定法は,学習文書を4つのブロックに分割し,それぞれのブロックをテスト文書とし,テストに使用していない残りのブロックを学習文書に使用する.この4回のテキスト分類において最も分類性能が良くなるパラメータを最適なパラメータとして推定する.以上のように,パラメータの推定のテスト文書に学習文書とは別の文書を使用し,元の学習文書のすべての文書を順にテスト文書として使用することで,過学習を防ぐパラメータを決定することができ,学習における汎化性能の向上が期待される.
\section{実験}
実験は,ニュースのトピック分類とSpam分類の2種類のタスクについて行い,それぞれのタスクについて,関連研究の手法の分類結果と反復度による特徴集合を用いた場合の分類結果の比較を行う.\subsection{ニュースのトピック分類実験}この実験には,Reuters-21578\footnote{http://www.daviddlewis.com/resources/testcollections/reuters21578/}と20newsgroups\footnote{http://people.csail.mit.edu/jrennie/20Newsgroups/}の2つの英語コーパスを使用し,各文書には前処理として,アルファベット以外の文字を空白に変換し,2文字以上空白が続く場合は空白1文字に変換するという処理を行う.テキスト分類に適用可能な分類学習器は数多くあるが,本実験では特徴選択方法の比較を行うので,適切と考えられる分類学習器について実験を行った.分類学習器にはZhangらの先行研究と同じく線形カーネルを利用したSVMを用いる.線形カーネルを利用したSVMの識別関数は次式のように表される.\[f(\mathbf{x})=\sum^{d}_{j=1}w_{j}x_{j}+b\]ここで,\textbf{x}は識別対象となる文書ベクトル,x$_{j}$は\textbf{x}の要素jの値,w$_{j}$は重みベクトル\textbf{w}の要素jの値,dは\textbf{x}の要素数,bはバイアス項である.\textbf{w}とbは学習によって決定される.我々の提案手法では,\textbf{x}の要素集合として,反復度によって特徴選択した文字列集合を用いる.また,比較対象として,2章の先行研究において説明した条件付確率によって特徴選択した文字列集合を\textbf{x}の要素集合とした方法をベースラインに用いる.また,単語を特徴集合とする方法との比較として,最小出現頻度lと最大出現頻度hで選択した単語集合を\textbf{x}の要素集合とした方法とも比較する.x$_{j}$の値は3手法ともtfidfによって計算された値を用いる.tfidfの計算式は2章で記述した式を用いる.実際のSVMの学習には,SVMツールのひとつであるSVMlight\footnote{http://svmlight.joachims.org/}を使用し,すべてデフォルトのパラメータで学習を行う.複数トピックの分類に対しては,ターゲットとするトピックに属する文書を正例,そのトピックに属さない文書を負例とした2クラスによる学習を各トピックについて行う.結果の評価には次の3つの尺度を利用する.{\allowdisplaybreaks\begin{align*}\text{適合率}&=\frac{\text{トピックに属すると分類した文書の正解文書数}}{\text{トピックに属すると分類した文書数}}\\[1zw]\text{再現率}&=\frac{\text{トピックに属すると分類した文書の正解文書数}}{\text{コーパス中の正解文書数}}\\[1zw]\text{F値}&=\frac{2\times\text{適合率}\times\text{再現率}}{\text{適合率}+\text{再現率}}\end{align*}}\subsubsection{Reuters-21578}Reuters-21578は,英語のテキスト分類の標準的なコーパスであり,先行研究でも用いられている.このコーパスのうち,「ModApte」学習・テストセットを使用し,本文のうちTITLEタグとBODYタグのついた文書を使用する.さらに,Reuter-21578の文書に含まれるトピックのうちの文書数の多い上位10トピックについてテキスト分類を行う.ただし,各文書は複数のトピックに属することがあり,その場合,正例として使用される文書は負例として同時に使用しないこととした.分類は,ひとつの文書が各トピックに対して属するか属さないかをSVMを用いて判定することによって行う.学習には,学習用文書セットの全9,603文書を使用し,テストには学習文書とは異なるテストセットの全3,299文書を使用する.表2に学習セットおよびテストセットにおける上位10トピックの正例の文書数を示す.後述の実験において,正例の文書数が少ないときに提案方法が優位であることを述べるために,このデータを示した.このコーパスに対して,次の3つの特徴集合を用いた場合のテキスト分類を行い,その結果を比較する.\begin{table}[b]\caption{学習セットの文書数}\input{05table02.txt}\end{table}\begin{itemize}\item反復度:提案手法である,反復度を用い文字列を選択した特徴集合\item条件付確率:Zhangら(ZhangandLee2006)が提案した条件付確率を用いて文字列を選択した特徴集合.ベースラインとして用いる.\item単語:スペースを区切りとした単語からなる特徴集合\end{itemize}また,各特徴集合のパラメータ設定と選択された特徴数を以下に示す.\begin{itemize}\item反復度:l=80,h=8000,a=0.3(3章参照)として7,099文字列が選択された.\item条件付確率:l=80,h=8000,b=8,p=0.8,q=0.8(2章参照)として8,438文字列が選択された.\item単語:l=10,h=8000として6,581単語が選択された.\end{itemize}条件付確率による手法のパラメータは先行研究と同様のパラメータを使用し,反復度のパラメータおよび単語の特徴選択のパラメータは学習用文書セットでの4分割交差検定法においてF値の平均が最も良くなる値を調べ決定している.ただし,文字列を特徴集合とする場合は,空白で始まる文字列は特徴集合からは除く.これは,英語の単語が空白で区切られているためである.以上の実験結果を図1,図2,図3,表3に示す.\begin{figure}[b]\begin{center}\includegraphics{17-1ia5f1.eps}\end{center}\caption{適合率}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-1ia5f2.eps}\end{center}\caption{再現率}\end{figure}図1および図2に注目して文字列に対する特徴選択を比較すると,トピック上位3つのearn,acqおよびmoney-fxについては条件付確率による特徴集合を用いたトピック分類との差が適合率,再現率ともにほとんどないが,これら以外の7トピックについては,反復度による特徴集合を用いたトピック分類の方が結果が良くなり,特に再現率が大きく改善された.図3,表3のF値でも同様に,上位3トピックのearn,acqおよびmoney-fxでは条件付確率を用いた場合と比べてF値はあまり変わらないが,これら以外のトピックでは反復度を用いた方が改善された.\begin{figure}[t]\begin{center}\includegraphics{17-1ia5f3.eps}\end{center}\caption{F値}\end{figure}\begin{table}[t]\caption{F値}\input{05table03.txt}\end{table}10個のトピックの内,反復度が優れた結果を出したものは8個であり,劣った結果であってもF値は0.20{\%}しか差が出ない.一方,マクロ平均ではF値に3.74{\%}の差があり,反復度の方が良い性能を示した.マイクロ平均ではF値に約1.39{\%}の差があり,反復度の方が良い性能を示した.ただし,このコーパスにおいてはearnとacqで全体の約65{\%}のドキュメントがあり,文書数が偏っている.これはこのテストセットに特殊なケースであり,カテゴリごとの平均で比較する方が実際の性能を反映すると考えられる.単語を特徴集合とした方法と比較すると,図3,表3のように,結果の優劣はトピック毎に異なる.10トピック中6トピックについては反復度による方法の方が,F値が良くなるという結果になった.F値のマクロ平均は反復度による方法と単語による方法を比較するとほぼ等しくなった.\subsubsection{20newsgroups}20newsgroupsは20のトピックに属する文書からなる.分類は,Reuters-21578と同様にひとつの文書が各トピックに属するか属さないかをSVMを用いて判定することによって行う.このコーパスには,学習文書11,314とテスト文書7,532文書が含まれており,トピック間での文書数の違いはあまりない.実験では,文書中のFrom,Subjectおよびニュース本文の文書から特徴に使用する部分文字列を選択し,テキスト分類を行う.この実験における,各特徴集合のパラメータ設定と選択された特徴数は以下の通りである.\begin{itemize}\item反復度:l=100,h=200000,a=0.1として69,653文字列が選択された.\item条件付確率:l=100,h=200000,b=8,p=0.8,q=0.8として24,732文字列が選択された.\item単語:l=5,h=10000として26,573単語が選択された.\end{itemize}l,h,aのパラメータは学習文書での4分割交差検定法によって再設定した.ただし,このコーパスにおいてもReuters-21578と同様に,先頭が空白で始まる文字列は特徴として用いる文字列から除外した.また,学習時に負例の文書数が正例と比べ非常に多いことがSVMのモデルに大きな影響を与えてしまったため,正例と負例の判定エラーに対するコスト比の値を文書数の比に近い値である20に設定し学習を行う.以上の条件において20のトピックに分類した結果,F値のマクロ平均は反復度による方法で76.05{\%},条件付確率による方法で74.75{\%},単語による方法で76.71{\%}となった.このように,このコーパスにおいても反復度による特徴選択の方が条件付確率による特徴選択よりも良い性能を示した.トピックごとの比較では,20トピック中10トピックにおいて反復度による方法が単語よりも良くなるという結果になった.しかしながら,その差はほとんどないといえる.\subsection{Spam分類実験}本実験ではTREC2006SpamCorpus\footnote{http://trec.nist.gov/data/spam.html}をコーパスとして用いた.このコーパスはSpam分類のために作られたもので,コーパスにはヘッダ情報が含まれ,一般的な英語文章とは異なる構造をしているという特徴がある.コーパスの資料には正確な定義はないが,コーパス作成者が主観的に有用なテキストをHam,それ以外をSpamとしたものと考えられる.これを用いた実験で分類精度が向上すれば,実際のSpam分類においても分類精度が向上すると考えられる.\subsubsection{実験方法}トレーニングデータとしてSpam,Hamそれぞれ100個,分類対象(テストデータ)として,Spam,Hamそれぞれ200個をランダムに選ぶ.記号,マルチバイト文字は前処理段階でカットし,分類に用いない.このようにして20個の文書セットを構成し,この文書セットそれぞれに対して以下の分類実験を行う.まず,学習データから次の3つの特徴集合を構成する.\begin{itemize}\item反復度を用いて特徴選択した文字列からなる特徴集合(AS)\item条件付確率を用いて特徴選択した文字列からなる特徴集合(CS)\itemスペースを区切りとした単語からなる特徴集合(WS)\end{itemize}各手法のパラメータは文書セットごとに交差検定により設定する.ただし,条件付確率による手法のパラメータは先行研究(Zhangetal.2006)と同様の値を用いることとする.また,反復度による手法のパラメータl,hは条件付き確率と同様の値に設定する.テキストの学習分類は4.1節と同様に行い,評価も4.1節と同様にF値を用いて行うこととする.\subsubsection{実験結果}4.2.1節で述べたようにトレーニング,テストデータのセットを20個作り,それぞれに対して,特徴集合としてAS,CS,WSそれぞれを用いて分類を行う.このようにして得られた分類結果を表4に示す.表4において,このF値は(SpamのF値+HamのF値)/2として得た平均値である.表5には各文書セットに対する反復度の手法のパラメータaと,単語の手法のパラメータlを示す.ここで,反復度の手法のパラメータはaを交差検定で求め,l,hはl=80,h=8000で固定し,条件付確率の手法のパラメータはl=80,h=8000,b=8,p=0.8,q=0.8で固定する.また,単語の手法のパラメータlは交差検定で求め,hはh=8000で固定とした.これは,h=8000を設定すると各文書セットで良い分類結果を示し,その付近で変化させても分類結果に影響がなかったためである.表では固定されたパラメータについては表記を省略したが,本文中に記したパラメータを使った.表4を見ると,文書セットを変えたときには平均的に反復度が優れた分類結果を示し,条件付確率がもっとも悪い結果を示していることがわかる.反復度を用いた結果は単語を用いた結果より平均1.04{\%},条件付確率を用いた結果より平均2.93{\%}だけF値が高い.表から,全20の文書セットすべての分類結果において,反復度を用いた方が条件付き確率を用いるよりも良い分類結果を示していることが分かる.このことから,反復度を用いて選択した文字列を特徴集合とするのは条件付確率を用いる方法と比較して有効であると考えられる.反復度を用いる方法と単語を用いる方法のF値を比較すると,20回の分類実験のうち,反復度が単語よりも良い結果となったのが16回で,悪い結果となったのが3回,同じ値となったのが1回であった.この結果について符号検定を行い,両手法のF値の間に有意な差があるかどうかを考える.まず,帰無仮説H$_{0}$と対立仮説H$_{1}$を以下に示すように定める.\begin{table}[t]\caption{各手法の平均F値}\input{05table04.txt}\end{table}\begin{table}[t]\caption{設定したパラメータ}\input{05table05.txt}\vspace{-0.5\baselineskip}\end{table}\begin{itemize}\itemH$_{0}$:反復度を用いる方法と単語を用いる方法のF値の間に差がない.\itemH$_{1}$:反復度を用いる方法は単語を用いる方法のF値の間に差がある.\end{itemize}両手法の結果が同じ値となった場合,単語を用いる方法の方が優れていると見なすと,\pagebreak両手法のF値の分布が等しいという仮定の下で単語を用いる方法の結果が20回の内4回反復度よりも良くなる確率は,\[\frac{1}{2^{20}}({}_{20}C_{4}+{}_{20}C_{3}+{}_{20}C_{2}+{}_{20}C_{1}+1)=0.0059089\cdots<0.01\]となるため,有意水準1{\%}で帰無仮説は棄却され,対立仮説が採択される.このことから,反復度を用いる方法は単語を用いる手法よりもF値において有意な差があると考えることができる.表5をみると,単語の手法のパラメータlはほとんどが10以下で,まれに大きな値をとることがわかる.また,反復度の手法のパラメータaは0.2から0.4程度の値をとることがわかる.
\section{考察}
\subsection{ニュースのトピック分類}まず,文字列に対する2つの特徴選択方法,提案手法である反復度による方法とベースラインである条件付確率による方法を比較する.4.1節の実験において,学習文書とテスト文書に同じ文書集合を用いてみると,F値のマクロ平均は,反復度を用いた方法では92.87{\%},条件付確率を用いた方法では95.17{\%}となり,条件付確率による特徴集合の方が全体的にF値が高くなる.学習文書とテスト文書に異なる文書集合を用いる本来の評価では,4.1節で説明したように反復度による特徴集合の方がF値が高いことから,条件付確率を用いた特徴集合では,反復度を用いた場合に比べ,過学習してしまう傾向があると考えられる.ここで,各手法で選択された文字列を比較すると,共通して選択されたのは1,400文字列で,特徴集合全体に比べて小さい.2つの手法で選択される文字列の差を直感的に理解しやすい例をこの文字列から一つ示す.トピックのひとつであるshipに注目し,このトピックに含まれる学習文書を見るとトピック名である「ship」という単語が含まれていることがわかった.それぞれの手法で選択された文字列のうちこの単語に関連する文字列を表6に示す.\begin{table}[b]\caption{特徴文字列}\input{05table06.txt}\end{table}条件付確率による特徴選択に比べて,反復度による特徴選択では,直前に現れる単語の最後の1文字加えた文字列や統計的には類似している文字列が追加で選択されている.これらのうち共通していない2文字列を特徴集合から取り除いて実験を行ったところ,shipの分類結果が75.68{\%}から73.10{\%}に減少した.これは,shipに含まれる文書中の「foreignships」や「ownshipping」のような文字列の特徴をテキスト分類に使用したためだと考えられる.連語そのものを検出しているとはいえないが,連語の情報を利用できていることが示唆される.また,単語を特徴集合とする方法に比べ,提案手法は同等の性能を示したものの有意差は認められなかった.しかしながら,提案手法は区切り文字のないデータにおいて,単語抽出を行うための事前処理が必要なく,また上記の連語などのような情報を損なうことのないといった利点がある.\subsection{Spam分類}実験結果から,部分文字列を特徴集合とする2つの方法を比較すると,反復度で特徴選択した場合の方が,分類結果が良いことがわかる.そこで,ここでは両者の特徴集合を比較し,どのような文字列によりこの差が生まれたのかについて考察する.この考察のために,4.2.1節で生成した20の文書セットの内の一つに相当する別の文書セット1個を生成した.これ一つについて分類を行い,反復度と条件付確率それぞれによる特徴集合を取り出す.さらに反復度について,特徴集合のうちサポートベクトルとして使用された文字列を抽出する.この分類実験の結果として表7に示すデータが得られた.\begin{table}[b]\begin{minipage}[t]{105pt}\caption{手法ごとのF値}\input{05table07.txt}\end{minipage}\hfill\begin{minipage}[t]{280pt}\caption{文字列集合の記号との対応と大きさ}\input{05table08.txt}\end{minipage}\end{table}このとき,各手法のパラメータは次のように設定した.\begin{itemize}\item反復度:l=80,h=8000,a=0.3\item条件付確率:l=80,h=8000,b=8,p=0.8,q=0.8\end{itemize}ここで,表8のように記号を定義する.ISはASにあってCSにはない文字列の集合であるため,この文字列の中に条件付確率を用いた場合に比べて分類結果を改善する原因となった文字列が含まれていると考えられる.ISがどれほど分類に寄与しているかと,たとえばどのような文字列が寄与しているかを調べるため以下の2つの実験([実験1],[実験2])を行い,その結果を用いて考察する.\noindent\textbf{[実験1]}ここでは,$\text{AS}-\text{IS}$を特徴集合として分類を行う.この分類の結果として表9の実験1-aに示されるF値を得た.結果を見ると,反復度で特徴抽出した場合よりも7.00{\%},条件付確率で特徴抽出した場合よりも2.00{\%}だけF値が下がっていることがわかる.このことから,ISの文字列はF値を7.00{\%}上昇させることがわかる.また,このときのF値がCSで分類したときよりも下がっていることから,反復度では捉えることができなかったが条件付確率では捉えることができた分類に役立つ文字列があったことがわかる.ただし,ISのうち実際に分類に使われるものはIS$\cap$SV(大きさは1628)であるから,IS$\cap$SVをASから取り除いた場合とISを取り除いた場合の結果は同じである.\noindent\textbf{[実験2]}実験1からIS$\cap$SVが分類結果を改善しているということがわかった.ここでは,実際にどのような文字列が分類に寄与しているのかについて調べる.まず,考察のために作成した文書セットの分類において反復度が選んだ特徴集合(AS)の内サポートベクトルとして用いられた部分文字列(SV)の重みw$_{j}$(4.1節参照)を計算する.そして,w$_{j}$が大きいほど分類に寄与していると考え,その上位50の文字列をとりだす.その集合とISの積をとり,それをASから取り除いて分類を行う.この結果として表9の実験2-aに示されるF値を得た.この結果を見ると,反復度で特徴抽出した場合よりも2.50{\%}だけF値が下がっていることがわかる.この50個の文字列を調べると,message{\_}idという文字列の一部と推測できる部分文字列12個が含まれていることが分かった.これはたとえば表10に示されるような文字列である.ここで「{\_}」は空白を意味することとする.\begin{table}[b]\hfill\begin{minipage}[t]{100pt}\caption{条件ごとのF値}\input{05table09.txt}\end{minipage}\hfill\begin{minipage}[t]{210pt}\caption{見つかったmessage{\_}idの部分文字列の一部}\input{05table10.txt}\end{minipage}\hfill\end{table}ただし,この12個の部分文字列はすべてCSに含まれていないことが分かった.これらをASから取り除いて分類するとF値は表9の実験2-bに示される値となった.このように,これを除去することでF値が下がるという結果から,明らかにこれらの部分文字列は分類に役立っていることがわかる.SV全体からmessage{\_}idの部分文字列を探したところ26個見つかり,ISとの積をとると16個の文字列が得られた.この16個の文字列をASから取り除き分類するとF値は表9の実験2-cに示される値となった.この結果からも,message{\_}idの部分文字列群は役立っていることが示唆される.ここで,CSにも含まれている10個のmessage{\_}idの部分文字列を除去した場合,F値は変化しなかった.よって,CSに含まれない16個の部分文字列はCSに含まれる10個の部分文字列をカバーするといえる.このmessage{\_}idという文字列がコーパスのSpam,Hamメールのうちどれぐらい含まれるのかを調べたところ,Spamメールの約81.9{\%},Hamメールの約99.9{\%}にこれが含まれていることがわかった.よってこれが含まれていないとほぼSpamと断定できる文字列であるということがわかり,これは分類に有用であるということは直感的に理解できる.message{\_}idという文字列の一部がCSにも含まれており(26個中10個),CSに含まれない16個の部分文字列をASから取り除き分類すると分類結果が悪くなることは先に述べた.ではなぜ10個の文字列はCSに含まれない16個をカバーできなかったのか,それらの文字列の違いについてここでは考える.考察のために,表11に反復度,条件付確率それぞれの手法が捉えたmessage{\_}idの部分文字列を示す.\begin{table}[t]\caption{反復度と条件付確率の特徴集合の比較}\input{05table11.txt}\end{table}表11を見ると,条件付確率の手法を用いたほうは一見しただけでは何の部分文字列かわからないほど短い文字列である.これは別の意図しない文字列に対しても分類結果が引きずられやすい,つまり文字列message{\_}idを意図してmeを選択してもmemberやmeatなどの別の文字の部分文字列と解釈される可能性があるということである.それに対して反復度で抽出した部分文字列は短い文字列もあるが,かなり長い文字列も捉えており,age{\_}iなど間に空白が挟まった形も捉えているため,不特定多数の文字列の一部となりえない特定のものをさす文字列の部分文字列であるといえる.このような何を指しているのかわかりやすいある程度長い部分文字列と,間に空白を挟んだ単語と単語を結ぶような形の部分文字列が分類結果を改善していると考えられる.
\section{まとめ}
文字列によるテキスト分類において,条件付確率を用いて文書の特徴集合を選択する代わりに,反復度を用いて特徴選択を行い,ニュース記事のコーパスであるReuters-21578,20newsgroupsと,スパムメールのコーパスであるTREC2006SpamCorpusのテキスト分類の結果の比較を行った.反復度によって特徴選択した特徴集合を用いると条件付確率による特徴集合を用いた場合に比べて,ニュース記事の分類では平均79.65{\%}から平均83.39{\%}と,平均3.74{\%}だけテキスト分類の結果を改善することを報告し,スパムメールの分類では分類結果を平均90.23{\%}から平均93.15{\%}と平均2.93{\%}だけ結果を改善することを報告した.このとき,その両方の実験において,提案する反復度を用いる手法と条件付確率を用いるZhangら手法の間に有意差があることを確認した.また,本実験では提案手法である反復度を用いて特徴集合を選択する方法と単語を特徴集合とする方法との比較についてもZhangらの手法との比較と同様にして行った.Reuters-21578,20newsgroupsを用いたニュース記事の分類においては両手法の間に有意差は確認できなかった.しかし,TREC2006SpamCorpusを用いたスパムメールの分類においては,反復度による特徴抽出法を用いると,単語を特徴集合とする場合に比べて分類結果を,平均92.11{\%}から平均93.15{\%}と平均1.04{\%}だけ改善するということを報告した.そして,このとき危険率1{\%}の検定を行い両手法の間に有意差があるということを確認した.この結果の一つの要因として,反復度を用いて抽出される部分文字列に,条件付き確率を用いる手法で抽出される部分文字列に比べて別の部分文字列と解釈されにくい部分文字列や,単語による方法では抽出できない単語と単語を結ぶような文字列が含まれていると言うことが考えられる.よって,本研究は意味ある結果となったといえる.\acknowledgmentこの研究は,住友電工情報システムとの共同研究の成果です.データの解析には,戦略的情報通信開発推進制度(SCOPE)の課題「実空間情報処理のためのインターユビキタスネットワークの研究」の成果の分析技術を利用しました.また,多くの有益なご指摘を頂いた査読者の方々に感謝致します.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\itemManning,C.andSchutzeH.(1999).``FoundationsofStatisticalNaturalLanguageProcessing.''MITPress,Cambridge.\itemZhang,D.andLee,W.S.(2006).``ExtractingKey-Substing-GroupFeaturesforTextClassification.''In\textit{Proceedingsofthe12thACMSIGKDDinternationalConferenceonKnowledgeDiscoveryandDataMining},pp.~474--483.\itemPeng,F.,ShuurmansD.,andWang,S.(2004).``AugmentingNaiveBayestextclassifierwithstatisticallanguagemodels.''\textit{InformationRetrieval},\textbf{7}(3-4),pp.~317--345.\itemLodhi,H.,Saunders,C.,Shawe-Taylor,J.,Cristianini,N.,andWatkins,C.(2001).``TextClassificationUsingStringKernels.''\textit{JournalofMachineLearningResearch(JMLR)},pp.~419--444.\itemGoodman,J.(2001).``Abitprogressinlanguagemodeling,extendedversion.''Technicalreport,MicrosoftResearch,pp.~403--434.\itemChurch,K.W.(2000).``EmpiricalEstimatesofAdaptation:ThechanceofTwoNoriegasisclosertop/2thanp2.''In\textit{Proceedingsof18thInternationalConferenceonComputationalLinguistics},\textbf{1},pp.~180--186.\itemCristianini,N.andShawe-Taylor,J.(2000).``AnIntroductiontoSupportVectorMachines.''CambridgeUniversityPress,Camridge.\itemDumais,S.,Platt,J.,Hecherman,D.,andSahami,M.(1998).``Inductivelearningalgorithmsandrepresentationsfortextcategorization.''In\textit{Proceedingsofthe7thACMInternationalConferenceonInformationandKnowledgeManagement},pp.~148--155.\itemMitchell,T.(1997).``MachineLearning.''McGrawHill,internationaledition.\itemGeng,Xiubo,Liu,Tie-Yan,Qin,Tao,andLi,Hang(2007).``FeatureSelectionforRanking.''\textit{SIGIR'07:Proceedingsofthe30thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},pp.~407--414.\itemTakeda,Y.andUmemuraK.(2002).``Selectingindexingstringsusingadaptation.''\textit{Proceedingsofthe25thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},pp.~11--15.\itemYiming,YangandPedersen,JanO.(1997).``Acomparativestudyonfeatureselectionintextcategorization.''\textit{ProceedingsofICML-9714thInternationalConferenceonMachineLearning},pp.~412--420.\item平田勝大,岡部正幸,梅村恭司(2007).文字列を特徴量とし反復度を用いたテキスト分類.情報処理学会研究会報告,\textbf{76},pp.~121--126.\end{thebibliography}\clearpage\appendix表4には文書セットごとの各手法の平均F値を示した.表12には文書セットごとの各手法のSpam,HamそれぞれのF値を示す.\begin{table}[h]\caption{表12各手法のSpam,HamそれぞれのF値}\input{05table12.txt}\end{table}\begin{biography}\bioauthor{尾上徹}{2009年豊橋技術科学大学工学部情報工学課程卒業.同年,同大学院入学,現在に至る.}\bioauthor{平田勝大}{2009年豊橋技術科学大学大学院工学部情報工学専攻修士課程修了.同年,NTTデータ(株)入社.}\bioauthor{岡部正幸}{2001年東京工業大学大学院総合理工学研究科知能システム科学専攻博士課程修了.博士(工学).同年科学技術振興機構(CREST)研究員,2003年豊橋技術科学大学情報メディア基盤センター助教.知的情報検索の研究に従事.人工知能学会会員.}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究系情報工学専攻修士課程修了.博士(工学).同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,2003年教授.自然言語処理,システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V07N04-09
|
\section{はじめに}
人と人,または人と計算機が音声を介してコミュニケーションを行なう際に必要となる音声対話処理における頑健性を議論する.例えば,音声を入力としてこれを翻訳し音声出力する音声翻訳などが本論文の想定する対象である.音声対話処理においては,不明瞭な発声や雑音,音声認識処理部の誤りに起因する誤りによって,言語処理部に対して誤りのない正確な入力が得られない場合があり,この結果従来の自然言語処理では問題とならなかった入力の不正確性が生じる.これに対し,従来行なわれてきた言語処理研究の主眼は,\vspace*{\baselineskip}\begin{itemize}\item如何にして入力の不正確性を除去するか\end{itemize}\vspace*{\baselineskip}\noindentという一点に集中していた.すなわち,言語処理として如何に音声認識の誤りを発見し,また訂正するか,という捉え方をしてきた.あるいはそもそも入力の不正確性は音声認識器に起因する問題であるので,理想の音声認識器を考えることで入力の不正確性に伴う問題を回避してきた.これに対し本研究では,現実的な環境を考えた場合に,音声認識誤りのない状況を仮定して言語処理を行なうことは今後しばらく賢明でないという立場を取る.あるいは音声認識の誤り訂正技術の進歩によっても,音声言語処理において誤入力のない状況を想定することは現実的な仮定でないと考える.よって,音声認識後の各処理部がこれら不正確な入力に対して性能を劣化させないという頑健性の考慮,すなわち,\vspace*{\baselineskip}\begin{itemize}\item如何にして不正確な入力に対して言語処理を行なうか\end{itemize}\vspace*{\baselineskip}\noindentが,音声言語処理においては重要である.ところで,対話においては相手と互いにコミュニケーションを取りながら進行していく.このため発話によって伝達される情報は自己完結的でなく,その結果発話の様々な要素の省略がより頻繁に起こりやすい.特に,本論文の対象である日本語対話では,その言語的性質から多くの場合に文の主語が省略される.日本語における主語の省略は,主語が必須格である英語やドイツ語などへの翻訳の際には大きな問題となり,主語の補完処理は必須の処理となる.以上のように,音声対話処理における入力誤りへの頑健性を考慮した主語補完処理は音声対話処理の実現のための重要な処理の一つである.これは田中の分類による言語表現の多様性分類\cite{田中穂積}に従えば,音響レベルにおけるエラー\footnote{田中の分類は言語表現の分類であるため音声認識誤りは考慮されていないが,処理の観点では誤発声や言い淀みと同様に考えてよいであろう.}を考慮しながら統語レベルの情報不足(省略)の問題解決をしなければならないことを意味している.実際の音声言語システムにおいてはこのように異なるレベルの多様性を同時に考慮する必要があるにもかかわらず,このような研究は従来行なわれていない.主語の補完手法に関しては,次節で述べるようにこれまで様々な手法が提案されてきた.ところが従来の主語補完手法は,誤りのない文に対して形態素解析,構文解析が成功した後に処理されることを仮定していた.このため誤りを含む可能性のある文に対する処理は考慮外であった.これに対し本論文では,入力の一部に誤りがある状況において,性能劣化を如何に最小限に抑えるかについて議論する.誤り部分が入力のどこなのかは明らかでなく,入力に誤りがないかもしれない.ただし,本研究では述語に誤りはなく,また省略の検出は正しく行なわれることを仮定する\footnote{述語が誤っている場合,及び入力文に省略があるという認識がない場合はそもそも省略補完問題として成立しないためである.}.また,属性として使用している言語外情報も,音声認識結果とは無関係の情報であるので,これも誤りはないと仮定する.本論文ではまず,本問題に関係する文献の紹介を行なった後,既提案の決定木学習に基づく主語補完手法\cite{主語補完}\footnote{文献\cite{主語補完}では主語以外の格要素に関しても考察を行なっているが,本論文では議論を主語に限定する.ただし,本論文において行なう議論はそのまま他の格要素についても同様に有効である.}を概観し,この頑健性について考察する.次に,より頑健性を持ったモデルを提案し,実験結果からこの有効性を議論する{}\cite{NLPRS99}.最後に,人工的な問題によるシミュレーションを行ない,モデルの問題依存性と属性組み合わせに関して議論する\cite{ICSLP2000}.
\section{関連研究}
前述したように,音声認識誤りを含む要素列を入力とした主語補完{}\footnote{文献によっては問題を「ゼロ代名詞補完」と呼んでいるものもあるが,ここでは「主語補完」と呼称を統一する.}手法は,これまで知られていない.最近では,河原らが音声言語処理における頑健性について\cite{河原},丸山が話し言葉の諸相について\cite{丸山},それぞれ議論を行なっているが,本論文で取り扱う音響レベル,すなわち不正確な音声認識結果に対する自然言語処理の頑健性に関しては議論されていない.本研究では,音声認識誤りを修復,訂正するのではなく,入力のどこかに誤りがあるという状況下でどのように言語処理を行なうかという議論を行なう.同様の状況を想定して言語処理を進めている研究として,脇田ら\cite{脇田}の研究が知られている.脇田らは,本研究と同様,誤りを含む入力に対して機械翻訳させるという問題に対し,音声認識誤りを訂正するのではなく,翻訳結果の意味的な尤度を計算することで音声認識の誤り部分を特定し,その部分を翻訳結果からはずすことで翻訳する手法を提案している.照応処理の頑健性に関してはAoneandBenett\cite{Aone}が議論している.ここでは語彙,文法あるいは意味知識の網羅が現実では不可能なことに対処する頑健性の必要性を議論している.ただし,この論文で議論されている頑健性はすべて,利用する情報が不足している場合における頑健性であり,音声言語処理にとって重要な入力の不正確性に関しては考慮されていない.日本語の主語補完に関しては従来から様々な研究がなされてきているが,その多くは書き言葉を対象にしたものであり,話し言葉もしくは対話を対象にしたものは比較的少ない.書き言葉を対象にしたものでは,Nakaiwaetal.{}\cite{Nakaiwa}の用言意味属性と語用論的,意味論的制約を用いて外界省略の解消を行なったものがある.また村田ら\cite{村田}は物語を対象に,補完に関係する表層的な言語現象をヒューリスティックスで得点を付与し,それらの合計によって最尤の省略内容を補完している.また,江原らの研究\cite{江原}はニュース原稿を対象にしている.ここでは,複文を単文に分割した際に生じる省略主語を補完するという人工的に問題に対して,経験的に8項目の特徴パラメータを設定して,確率モデルによる手法を提案している.Dohsaka{}\cite{Dohsaka}は,日本語において発話から語用論的制約を抽出し,制約充足プロセスに基づいて文脈の下で解釈することによる文脈省略の補完手法を提案している.
\section{主語補完手法}
本節では,日本語の格要素省略を補完する問題に対して我々が文献\cite{主語補完}において提案した手法の概要を紹介する.本論文では,このモデルをSDT(SingleDecisionTree)モデルと呼び,入力の不確かさに対する頑健性という観点から,SDTモデルがどの程度の頑健性を持つのかについて定性的な議論を行なう.さらに,入力の誤りに対して頑健な主語補完モデルを作成するためにはどうすればよいかについて検討する.\subsection{決定木を用いた補完手法}\label{節:SDTの頑健性}SDTモデルでは,決定木(DecisionTree)による知識表現手法を用いて主語補完知識の構築を行なう.決定木の学習では,(誤りのない)入力と正解となる主語情報を持った事例から,事前に用意した属性の有無によって質問を行ない,エントロピー基準によって事例の分類を行なっていく.論文\cite{主語補完}においては,一般的な決定木学習手法の一つであるC4.5\cite{Quinlan}のアルゴリズムによって二分木を作成した.本論文の設定する問題では,補完すべき主語を6種類に分類した.すなわち,一人称単数<1sg>,一人称複数<1pl>,二人称単数<2sg>,二人称複数<2pl>,照応的省略<a>,一般<g>である.決定木は,与えられた入力に対して当該省略がこのどのクラスに属するかを決定する.\begin{figure}\begin{center}\renewcommand{\baselinestretch}{}\large\normalsize\begin{boxit}\begin{verbatim}[1-1]:sem-code:here43[2-1]:sem-code:here78[3-1]:regexp:after(ておる助動詞)[4-1]:regexp:after(する補助動詞)[5-1]:speaker:here情報提供者[6-1]:regexp:before(を格助詞)...[6-2]<1pl>(5)[5-2]<1pl>(12)[4-2]:regexp:after(てる助動詞)[5-3]<1sg>(2)[5-4]:regexp:forward(ている助動詞)...[3-2]:regexp:after(か終助詞)[4-3]:regexp:before(に格助詞)[5-5]<1sg>(1)[5-6]:regexp:after(できる補助動詞)...[4-4]:regexp:after(できる補助動詞)[5-7]<1pl>(9)[5-8]:sem-code:before93...[2-2]:sem-code:here41[3-3]:regexp:after(た助動詞)[4-5]:regexp:before(を格助詞)...\end{verbatim}\end{boxit}\renewcommand{\baselinestretch}{}\large\normalsize\vspace{3mm}\caption{決定木の例}\label{表:決定木}\end{center}\end{figure}表\ref{表:決定木}に,本問題に対して作成された決定木の例を示す\footnote{図中において,説明のため決定木の各節点に[3-5]などのように識別番号を付与した.また決定木の一部を...と表記して省略した.}.この決定木では,木の根にあたる節点[1-1]で:sem-code:here43すなわち対象とする述語の意味属性(角川類語新辞典における分類番号上位2けた)が43かどうかによって学習事例が分岐し,これを満たす場合は[2-1]へ,満たさない場合は[2-2]へ進む.節点[6-2]は終端節点であり,解が<1pl>すなわち一人称複数であり,学習事例は5であったことを示す.表\ref{表:決定木}の各属性に見られるように,各属性は(属性の種類,照合位置,属性値)の三つ組によって表現される\footnote{後述するように,属性が言語外情報の場合は照合位置は必要ないが形式的に:hereという照合位置を与えている.}.以下の節では,属性の種類,照合位置について簡単に述べる.\subsection{属性集合}\label{節:属性}本論文では論文\cite{主語補完}と同様に,以下の3種類の属性を用いた.\begin{description}\item[内容語の意味属性(:sem-code)]省略の対象となる文において,どのような内容語が含まれているかに関する情報.内容語は大きく,用言に関する情報と格要素(体言)に関する情報に分かれる.内容語の意味属性としては角川類語新辞典\cite{角川類語}における中分類(100属性)を使用した.後述する照合位置が:hereと:beforeの2種類あるため,属性数は200である.\item[機能語(:regexp)]用言に後接する付属語群や終助詞,及び格助詞や接頭辞などの機能語の出現に関する情報.前述の内容語と異なり,これらの機能語は当該品詞に属する単語を直接参照した.属性数は166である.\item[言語外情報(:speaker)]言語外情報としては,発話された文の話者情報を利用した.本論文で使用するコーパスは話者が情報提供者か情報享受者の二者による対話を仮定している.例えば,ホテルにおける対話では,情報提供者であるフロントと情報享受者の客の二者による対話となる.話者によって主語省略の振る舞いが影響すると考えたため使用した.属性数は1である.\end{description}以上をまとめたものを表\ref{表:属性}に示す.全属性を用いて決定木を作成した場合,属性数は367となる.\begin{table}\begin{center}\caption{使用属性とその要素数}\label{表:属性}\vspace{3mm}\begin{tabular}{llr}\hline\hline対象&属性&属性数\\\hline内容語(用言)&意味属性&100\\内容語(格要素)&意味属性&100\\\hline機能語(格助詞)&が,に,を&9\\機能語(接続助詞)&ので,たら&21\\機能語(助動詞群)&れる,ている&132\\機能語(その他)&お,敬語動詞&4\\\hline言語外情報&話者情報&1\\\hline合計&&367\\\hline\end{tabular}\end{center}\end{table}\subsection{属性の照合方法}決定木学習時に行なう属性照合は,形態素列とのマッチングによって属性の照合を行なう.すなわち,補完対象の用言を中心にして,表\ref{表:照合位置}に示す5種類のうちどの位置に出現するかという情報をすべての属性に予め与えておく.\begin{table}\begin{center}\caption{属性の照合位置}\label{表:照合位置}\vspace{3mm}\begin{tabular}{ll}\hline\hline記号&照合位置\\\hline:before&用言の前(直前を含む)に$\cdots$という形態素を含む.\\:latest&用言の直前に$\cdots$という形態素を含む.\\:here&その用言が$\cdots$である.\\:next&用言の直後に$\cdots$という形態素を含む.\\:after&用言の後(直後を含む)に$\cdots$という形態素を含む.\\\hline\end{tabular}\end{center}\end{table}例えば,用言に関する属性は:here,格助詞に対しては:before,接頭辞に対しては:latestの位置情報を与える.意味属性に関しては,ある位置にある意味属性を持つ語が含まれているかどうかによって照合を行なう.\subsection{SDTモデルの頑健性}以上のSDTモデルの頑健性を考えた場合,以下の点において頑健性があると予想される.すなわち,入力に対して,本来の入力にはない形態素列が誤って挿入された場合における頑健性である.例えば,間投詞や言い淀みなど,音声言語に頻出する冗長語が入力の途中に挿入された場合に,SDTモデルにおいては全く悪影響を与えない.あるいは,音声認識の誤りにより内容語や機能語が挿入された場合であっても,それが偶然に決定木で照合される語句である場合以外は,補完結果が変化することはない.以上の頑健性は,属性照合の際に,ある照合範囲における特定の語句の有無のみを考慮しているために生じる.これにより,照合範囲に対象と無関係の語句が挿入された場合にも影響はなく,また照合対象である語句が照合範囲に偶然挿入される可能性は,一般には低い.ただし,以上は挿入誤りに対するある程度の頑健性のみであり,欠落誤り,置換誤りに対しては影響が出る可能性が高い.なぜなら,前述の照合方法は照合に不要な要素をいくら含んでも影響は少ないが,照合に必要な要素が欠落した場合には対応できないからである.
\section{複数決定木モデル}
\subsection{頑健性を強化するための方策}前節に示した省略補完モデルに対し,入力の不正確性に対して頑健なモデルにするにはどうすればいいかを考える.既存のモデルがある場合,このモデルに頑健性を持たせる手段として,本論文では複数の解答候補を用意し,そのうちの一つを何らかの方法によって最終的に選択する,という方策を取る.複数の解答候補を生成するには,解答に至るための情報源を別個にすればよい.すなわち,同一のモデルを使用してそのモデルの入力となる情報源を変化させることによって,各モデルに独自の判断をさせることが可能になる.これはちょうど,ある事象に対して,同一の道具で観察する視点を変化させることに相当する.ここで,以上の方策を取るためには以下の二つの問題を解決しなければならない.すなわち,\vspace*{\baselineskip}\begin{enumerate}\itemどのように別個の情報源を用意するか\item複数の解答候補からどのように最終解を選択するか\end{enumerate}\vspace*{\baselineskip}\noindentである.以上の問題点については,次節以降で述べる.\subsection{複数決定木モデル}本論文では入力の不正確性に対する頑健性を持った主語補完モデルを提案する.このモデルは,我々が文献\cite{主語補完}で提案した格要素省略補完モデルSDTを拡張したものであり,複数決定木モデルまたはMDT(MultipleDecisionTree)モデルと呼ぶ.概要を図{}\ref{fig:mdt-model}に示す.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=model.prn,width=130mm}\end{epsf}\begin{draft}\atari(129,89)\end{draft}\caption{SDTモデルとMDTモデルの比較}\label{fig:mdt-model}\end{center}\end{figure}MDTモデルは,複数の決定木を使用することによって頑健性を持たせたモデルである.このモデルでは,決定木学習の際に使用する属性集合を変化させることによって決定木を作成し,複数の解答候補を得る.図{}\ref{fig:mdt-model}に示すように,従来SDTでは単一の解$D_0$のみが得られるため,この解の信頼性が低い場合にも代替解を得ることができなかった.これに対し,本論文で提案するMDTモデルでは,複数の解,例えば($D_1$,$D_2$,$\cdots$,$D_n$)の解を得ることでき,この中から最も信頼性の高い解を選択することによって,MDTモデル全体としての頑健性が増す.ここで,各決定木の学習は,全く同一の学習事例集合に対して行なう.以下,どのように使用属性を変化させるかについては{}\ref{節:組合せ}節で,複数の解候補の中からどのようにして最終解を選択するかについては,{}\ref{節:選好}節で述べる.\vspace{2\baselineskip}\subsection{属性集合の組合せ}\label{節:組合せ}複数決定木モデルにおいては,各決定木の作成時に使用する属性を変化させる必要がある.我々は文献\cite{主語補完}における実験で,属性の種類が減少して同一種類の属性のみで決定木を作成した場合,補完精度の劣化が大きいことを確認した.すなわち主語補完のためには,様々な属性を総合的に考慮して補完する必要がある.このため表\ref{表:属性}で使用した3種類の属性をそのまま使用して各種類ごとに決定木を作成しても,(入力の不正確性とは関係なく)補完精度の劣化が大きいことが容易に予想される.そこで本論文では,これら属性集合を組み合わせることによって各決定木の属性集合を構成することにした.本論文の使用する属性は前述したように3種類であるので,図\ref{図:属性集合}に示すようにこれらの組合せによって3種類の属性集合を作成した.これにより,使用属性数の減少による各決定木の補完精度の劣化を抑えることができ,同時に複数解候補を作成することが可能になる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=attribute.prn,width=130mm}\end{epsf}\begin{draft}\atari(129,89)\end{draft}\vspace{-10mm}\caption{3種類の属性集合の関係}\label{図:属性集合}\end{center}\end{figure}\subsection{補完候補の選好基準}\label{節:選好}前節に示すように複数の属性を用意して複数の解答候補が得られたとき,このうちどれを最終的な解答とするかが第二の問題である.本節では,この問題について検討する.複数の解から一つの解を選択する際には多数決基準などが一般的であるが,本問題のように属性の組合せによって決定木を作成している場合に,多数決基準を使用するのは適当ではない.なぜなら,仮に図\ref{図:属性集合}のような状況で言語外情報が誤りを含んでいると仮定すると\footnote{前述したように,実際には言語外情報が誤ることはないという仮定をおいている.},3種類の決定木すべてが誤った解を出力する可能性があるからである.このように一属性が複数の解に影響するような組み合わせ方を行なった場合,解の多数決を取ることは適当ではないと考えた.そこで本論文では,各解答に対して信頼性を計算し,それの比較によって行なう選好基準を提案する.この際,解の信頼性に相当する値として,以下に述べる理由により,決定木学習時に解と同一の終端節点に辿り着いた事例数を用い,これが最多である解を選択する.いま,決定木のある属性において属性照合を誤ったと仮定する.この場合,本来到達すべき終端節点には到達せずに別の節点に到達する.この際,どの節点に到達したかは,これ以上の情報がない場合,一般にすべての節点が同一の確率である.ここで,誤って到達した節点の学習時の事例数を予想すると,全節点への到達可能性が同等なのだから,終端節点の学習事例数に関して最も頻出する事例数が最も可能性が高い.例えば,学習事例数$i$の終端節点が最も多い場合には,誤って到達した節点の学習時事例数は$i$の可能性が最も高いと予想するのが自然である.それでは実際にどのような事例数の終端節点が多いのかを調査したのが図\ref{fig:freq}である.図\ref{fig:freq}では,次節で述べる3種類の決定木それぞれについて,終端節点の事例数別に統計をとったものである\footnote{学習時事例数14以上はほとんど頻度がないため省略した.}.この図から明らかなように,どの決定木においても,学習時の事例数が1の節点が最も多く,その後漸減の傾向にある.すなわちこれらの決定木に関しては,学習時の事例数が少ない節点ほど誤って辿り着く確率が高い.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=freq1.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\caption{学習時事例数と節点数の関係}\label{fig:freq}\end{center}\end{figure}次に,図\ref{fig:mdt-model}に示すように,同一の学習事例集合に対して属性集合を($S_1$,$S_2$,$\cdots$,$S_n$)の$n$種類に変化させ,複数の決定木を作成することを考える.図\ref{fig:mdt-model}において,属性集合$S_1$による補完結果候補$D_1$よりも,属性集合$S_2$による補完結果候補$D_2$のほうが解の信頼性が高いと考えるのは自然である.なぜならば,これまでの議論により,属性照合を誤って解候補$D_2$に到達する可能性よりも属性照合を誤って解候補$D_1$に到達する可能性のほうが高いからである.入力に誤りがあるために本来の属性の照合ができなかった場合には,学習事例数のより少ない節点に到達する確率がより高いため,例のように学習事例数の多い節点に到達した場合には,確率的に解の信頼性が高いと見做すことができる.以上の理由により,我々は決定木学習時の終端節点の事例数によって解の選好を行なう.これにより,各決定木が出力した解答候補のうち,決定木が出力した終端節点の学習時事例数が最大の解答をMDTにおける解答とする.例えば図\ref{fig:mdt-model}では属性集合$S_2$における解答の学習時終端節点事例数が最も多いので,$D_2$をMDTとしての解答とする.\subsection{提案手法の頑健性}\label{節:定性議論}本手法の挙動を定性的に考察する.本論文の提案する手法によって入力に若干の誤りがあり,誤り箇所を特定できない場合に対して本手法は有効に機能することが予想できる.ただし選好基準から明らかなように,本手法は学習時において事例が集中した「大きな」節点に対してのみ有効に機能する.あるいはある節点に極端に事例が集中するような場合に,本論文の選好がより有効に機能する.この一方,学習時に事例数が1であった節点は,属性に誤りがあった場合に本手法では本来の正しい解を出力することが期待できない.すなわち,本手法はすべての事例に対して頑健になるわけではないが,事例が集中した節点を対象にしていることから多くの事例に対して頑健になることが予想できる.以上の議論の定量的な検証は\ref{節:定量議論}節において行なう.
\section{主語補完実験}
本論文で提案したモデルの有効性を議論するため,主語補完実験を行なった.実験は,実際の音声認識結果を入力とした実誤りに対する精度と,人工的に誤りを作成した人工誤りに対する主語補完精度を評価した.本論文では6種類のクラスによる補完精度の違いを議論するのが目的ではないため,以下の実験結果ではクラス別の補完精度を示さず,全評価事例に対する平均を示す.実験では,性能評価尺度としてF値(F-measure)を用いた.F値は,再現率(recall)と適合率(precision)の調和平均であり,$R$を再現率,$P$を適合率としたとき,以下の式で定義する.\begin{equation}F=\frac{(\beta^2+1)\timesP\timesR}{\beta^2\timesP+R}\end{equation}\vspace{3mm}ここで,パラメータ$\beta$は適合率の再現率に対する相対的な重要性である.本論文では前述の理由によりこのパラメータを$\beta=1$として,再現率と適合率の重要性を同等に扱う.\subsection{音声認識結果に対する頑健性}本稿で提案したモデルの有効性を確認するため,実際の音声認識結果を入力とした実誤りに対する補完精度を測定した.また比較のため,音声認識誤りのない正解入力に対する補完精度も測定した.訓練事例数は1401事例,実験事例数は訓練に含まれない303事例である.対象ドメインはホテルの予約もしくは解約時の二者会話であり,ATR旅行会話コーパス\cite{Takezawa98}を使用した.音声認識装置は日英音声翻訳システムATR-MATRIXにおける音声認識用音響・言語モデル\cite{内藤}を使用した.実験では,認識装置の音響尤度と言語尤度の相対的重みを変化させることによって3種類の異なる誤り傾向をもつ音声認識結果を用いて行なった.各パラメータの音声認識精度を表\ref{表:認識器}に示す.なお,表に示した3種類のパラメータのうち,パラメータP2は使用した音声認識器において最高性能を示すパラメータであり,P1とP3は局所的に最大の音声認識性能を示すパラメータである.\begin{table}\begin{center}\caption{音声認識結果の特徴}\label{表:認識器}\begin{tabular}{l|rrr}\hline\hlineパラメータ&P1&P2&P3\\\hline発話数&968&968&968\\発話平均形態素&14.9&14.9&14.9\\単語認識率(\%)&78.48&78.89&72.09\\\hline発話平均誤り&3.44&3.49&4.09\\(挿入誤り)&0.56&0.51&0.64\\(欠落誤り)&0.76&0.84&0.88\\(置換誤り)&2.12&2.14&2.57\\\hline\end{tabular}\end{center}\end{table}実験は,音声認識誤りのない正解入力と,その同一の文集合の音声認識結果の2種類について行なった.実験文数は448文である.表\ref{表:実誤り}に,実誤りに対する性能を示す.実験の結果,用意したパラメータのいずれにおいてもMDTが最高性能を示した.また,誤りのない入力に対しても,MDTは最も高い主語補完性能を示した.実験は,単独の決定木を使用して補完を行なうSDTモデルによる実験と,本稿の提案するMDTモデルの両者について行なった.SDTモデルにおける属性集合は,図\ref{図:属性集合}における集合A,集合F,集合Cの三種類に対して行なった.以下では,これをそれぞれ,SDT/A,SDT/F,SDT/Cと表記する.また,MDTモデルは,上記の属性集合A,C,Fの三つからSDTを構成した.\begin{table}\begin{center}\caption{実認識に対する主語補完性能}\label{表:実誤り}\begin{tabular}{c|ccc|c}\hline\hlineパラメータ&P1&P2&P3&正解入力\\認識精度&78.48&78.89&72.09&100\\\hlineSDT/A&77.2&76.5&76.2&81.8\\SDT/C&73.9&74.9&73.2&80.8\\SDT/F&75.5&74.2&72.2&79.5\\\hlineMDT&78.2&78.8&77.5&83.5\\\hline\end{tabular}\end{center}\end{table}\subsection{人工誤りに対する実験}次に,モデルの頑健性と誤りの傾向との関連を議論するために,以下のような人工誤りに対してモデルがどのような特性を示すのかを実験した.実験は,以下の4種類の誤りについて行なった.\begin{itemize}\item挿入誤り\item欠落誤り\item置換誤り\item(挿入,欠落,置換の)混合誤り\end{itemize}\subsubsection{挿入誤り}挿入誤りは以下のように作成した.まず,誤りのない形態素列に対して,誤りを挿入する位置を無作為に一ヶ所決定する.この位置に対し,決定木学習を行なった訓練会話の形態素集合から任意の一語を無作為に選択し,この語を挿入する.挿入される語は,訓練会話の各形態素の出現割合と同一の期待値で決定されるため,格助詞などの高頻出語が挿入される可能性が高くなる.以上が一語を挿入する過程であり,$N$語を挿入する場合には以上の過程を$N$回繰り返す.挿入誤りの個数と性能との関係を図\ref{fig:insert}に示す.図より,MDTモデルは挿入誤りに対してほとんど性能劣化のないことが明らかになった.また三種のSDTモデルに関しても,若干の精度低下はあるものの誤り語数増加に伴う程度低下割合はゆるやかである.SDTモデルが挿入誤りに対してあまり性能が落ちないのは,\ref{節:SDTの頑健性}節で議論した要素照合手法が頑健性を持っていたことを示し,挿入誤りに関してはSDTモデルにもある程度の頑健性を持っていることが確認された.また,MDTモデルにほとんど性能劣化がないのは,上記SDTが持つ頑健性に加え,意思決定を複数行なった後に選択する本手法が有効に機能しているためと考えられる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=insert.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{挿入誤りに対する補完性能}\label{fig:insert}\end{center}\end{figure}\subsubsection{欠落誤り}欠落誤りは以下のように作成した.誤りのない形態素を入力として,欠落させる形態素を無作為に選択する.ただし,省略された主語に対する動詞もしくはサ変名詞は選択の対象からはずす.なぜなら,もし当該動詞もしくはサ変名詞が欠落された形態素が音声認識結果となった場合には,省略の検出が不可能となり,補完の対象とはならないからである.このため,省略の検出を処理の対象外とする本論文の立場では,このような欠落誤りを考慮対象から除外することは妥当である.欠落誤りの個数と性能との関係を図\ref{fig:delete}に示す.欠落誤りは補完に必要な情報の一部が欠ける誤りであるため,手がかりが欠如し,挿入誤りよりも性能の劣化をもたらす.図からわかるように,MDTモデルは三種類のSDTのうち最も高精度であるSDT/Cよりも常に高精度である.なお,図においてはSDT/Cモデルがほとんど性能劣化がないが,これは欠落誤りの対象に述語が含まれていないためである.SDT/Cモデルではこの情報を主要な情報として主語を決定しているため,述語以外の形態素の欠落に対してはあまり性能劣化を起こさない.これに対し,SDT/Cモデルの精度が相対的に優れているという情報をMDTは何ら持たないにもかかわらずMDTがSDT/Cの出力する解を比較的多く採用している点から,本論文で提案した選好の有効性を確認することができる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=delete.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{欠落誤りに対する補完性能}\label{fig:delete}\end{center}\end{figure}\subsubsection{置換誤り}置換誤りは以下のように作成した.誤りのない形態素を入力として,欠落させる形態素を無作為に選択する.ただし,省略された主語に対する動詞もしくはサ変名詞は欠落誤りと同様の理由で,欠落の対象からはずす.この後,この欠落の位置に,挿入誤りと同様,決定木学習を行なった訓練会話の形態素集合から任意の一語を無作為に選択し,この語を挿入する.以上が一語を挿入する過程であり,$N$語を挿入する場合には以上の過程を$N$回繰り返す.置換誤りの個数と性能との関係を図\ref{fig:substitute}に示す.置換誤りに対する性能は,欠落誤りと類似の傾向を示した.これは,本実験での置換作成過程が(欠落+挿入)であり,前述のように挿入誤りに対しては各モデルともかなり頑健であるためであると考えられる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=substitute.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{置換誤りに対する補完性能}\label{fig:substitute}\end{center}\end{figure}\subsubsection{混合誤り}混合誤りは以下のように作成した.正解入力に対して,まず誤りの種類を決定する.誤りは,挿入,欠落,置換の三種類が同じ確率で出現するように,無作為に決定する.誤り種類が決定した後は,前述した挿入,欠落,置換誤りの処理を行なう.複数形態素の誤りの場合は,以上の処理を複数回繰り返し,その都度誤り種類を無作為に選択する.混合誤りの個数と性能との関係を図{}\ref{fig:mix}に示す.図から,混合誤りに対してもMDTモデルの優位性を見ることができる.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=mix.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{混合誤りに対する補完性能}\label{fig:mix}\end{center}\end{figure}\subsection{考察}\label{節:考察}まず,入力誤りに対する頑健性を議論する.図\ref{fig:insert}〜図\ref{fig:mix}より,本論文で提案するMDTモデルが比較手法(SDT)よりも頑健であることがわかる.特に,MDTモデルは挿入誤りに対して非常に頑健であり,10個に満たない形態素の挿入に対してはほとんど補完性能の劣化がないことが確認された.また表\ref{表:実誤り}より,実際の音声認識の結果,誤りを含んだ入力に対しても,SDTに比較して優位であることを確認した.MDTの精度は常にどのようなSDTよりも高精度であることから,MDTで採用した選好基準は,ある一定の条件下で最尤のSDTの出力を解とする性質を持っている可能性がある.もしこの仮説が正しければ,より高精度のSDTモデルを用意することでMDTとしての精度も向上することが期待できる.本研究では3種類の属性集合を用意したが,これは3種類である必要はなく,むしろ高性能であると予想されるSDTをできるだけ多く用意することで,MDT全体としてより頑健性が増すことが期待できる.どのようなSDTをどの程度用意すればよいのかについては,次節のシミュレーションで議論する.次に,入力の誤り傾向との関係を議論する.表\ref{table:recogerror}に,音声認識実験で誤った語の品詞別挿入誤りと欠落誤り数をパラメータ別に示した.この表と表\ref{表:実誤り}の比較から,内容語によるSDT/Cは普通名詞や本動詞の欠落の最も少なかったパラメータP2が,機能語によるSDT/Fは格助詞の欠落が最も少なかったパラメータP1が最も高い精度を示したと説明できる.表\ref{表:認識器}から,3種類のSDTの中で最も良好なSDT/AはP2よりもP1のほうが補完精度が高いが,MDTの補完精度はP2がP1を上回っている.これは,MDTが必ずしもSDT/Aの解を選好しているわけではないことを示している.たとえ音声認識精度が十分でなくても,ある特定の音声認識の誤りにあまり影響されないSDTを用意することができれば,それによって正解に至る解答候補を得ることができ,かつ正しく選好できる可能性が高い.\begin{table}\begin{center}\caption{各パラメータにおける誤り傾向}\label{table:recogerror}\begin{tabular}{c|rr|rr|rr}\hline\hlineパラメータ&\multicolumn{2}{c|}{P1}&\multicolumn{2}{c|}{P2}&\multicolumn{2}{c}{P3}\\誤り種類&挿入&欠落&挿入&欠落&挿入&欠落\\\hline普通名詞&336&277&270&254&335&302\\本動詞&130&99&128&107&138&119\\数詞&55&115&47&108&78&101\\\hline格助詞&102&76&104&85&123&101\\助動詞&71&63&68&60&65&73\\接頭辞&46&37&44&37&46&36\\\hline\end{tabular}\end{center}\end{table}
\section{シミュレーション}
前節の評価実験で,誤りを含む入力に対して\ref{節:属性}節の属性集合からなるMDTモデルが主語補完問題に対し有効に機能することを確認した.しかし,以上の結果はいかなる問題に対してもMDTモデルが有効なのか,あるいは本論文における属性集合の組み合わせ方が偶然有効に機能したのかは明確でない.そこで,MDTモデルの問題依存性,並びに属性集合の組み合わせ方がモデルの精度にどのような影響を与えるのか,の2点を検証,議論するため,人工的な問題を設定してMDTモデルのシミュレーションを行なった\cite{ICSLP2000}.本節ではこの内容及び結果について述べる.\subsection{問題設定とMDTの設定}問題は以下のように設定した.まず,問題の全属性数は10,分類すべきクラス数は10とした.属性値は二値としたため作成される決定木は二分木であり,枝刈りは行なわない.学習事例は,以下の2種類の方法で順に作成した.\begin{description}\item[重複事例集合($S_D$)]まず1事例を無作為に作成する.ただし既作成の事例と矛盾しないようにする.すなわち各属性の値はすべて同一であるがクラスが異なる事例は新規事例に追加しない.この事例と属性値及びクラスが全く同一のコピー事例を(1〜100)事例の範囲で作成する.(1〜100)のうちいくつ重複させるかは無作為に決定する.以上の処理を,$S_D$全体で1000事例を越えるまで繰り返す.\item[単独事例集合($S_S$)]無作為に1事例を作成する.ただし,作成される事例は$S_D$と$S_S$内のどの事例とも矛盾しない.以上の処理を1000回繰り返す.\end{description}以上のような方法で,本シミュレーションでは$S_D$が1084事例,$S_S$が1000事例の合計($S$)2084事例を作成した.各決定木は,事例集合$S$を用いて作成する.次に,使用したMDTについて述べる.MDTは以下のようにSDTを組み合わせて構成した.すなわち,使用属性数が$i$以上の全属性組み合わせについてSDTをすべて作成し,これを組み合わることで構成した.以下ではこれをMDT($i$)と記述する.例えば,MDT(9)は9属性の全組み合わせ(10種類)と10属性の全組み合わせ(1種類)に対してそれぞれ作成した11個のSDTを組み合わせたモデルである.同様にMDT(8)は56個,MDT(7)は176個のSDTからなり,最多のMDT(1)は1023個のSDTから構成される.実験は以下のように行なった.学習時に使用した事例集合$S$に対し,各事例について1ヶ所(後述の\ref{節:誤り数との関係}節では2または3ヶ所,{}\ref{節:正解入力}節では0ヶ所)の属性を無作為に選び,その属性値に誤りを起こさせたものを入力とした.すなわち,今回作成する二分木は属性が2値であるため,無作為に選ばれた属性の属性値を反転させたものを入力とした.実験は,10属性以下で構成される全組み合わせのSDT(1023個)に対して精度を測定し,これをもとに10種類のMDT($i$)($i=1〜10$)の精度を計算した.また比較対象として,多数決基準,すなわち$i$属性以上のすべてのSDTが返す解のうち最多のものを解とする選考基準での精度も測定した.\subsection{シミュレーション結果}ある乱数におけるシミュレーションの結果を図\ref{図:1誤り}に示す.異なる乱数でシミュレーションを行なった場合も全く同様の傾向が見られた.図で,実線はMDT,点線は多数決基準の精度を示し,SDT単独の精度は点で表した.任意の1属性に誤りがある入力に対し,使用可能な全10属性からなるSDTは10.4\%,9属性以上のSDTによる多数決基準は16.0\%の正解率であるのに対し,MDT(9)は57.6\%の正解率を得ることができ,MDTの優位性を確認した.またMDT(9)は9属性以上で可能な全組み合わせに対して作成したSDTを用いていることより,どうやって不要な属性を減らすか,あるいはどのような組み合わせが適当かを考慮する必要がないため,MDTモデルはこの点において,SDTモデルで使用属性を吟味して精度向上を目指すアプローチよりも優位である.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=one.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{シミュレーション結果(誤り数:1)}\label{図:1誤り}\end{center}\end{figure}ただし,図が示す通り,MDTモデルは少数属性のSDTを追加していくに従い精度が低下する.逆に多数決基準は精度が向上し7属性以下の決定木を使用した場合には両者の精度が逆転した.このことから,MDTはどのような属性数の決定木を加えても精度向上するわけではないことがわかる.最高の精度は5属性以上による多数決基準によって得られた(58.7\%)が,現実的には少数属性の決定木を大量に作成して多数決を取ることは計算量の面で有利ではない\footnote{理論上,MDT(9)に対して5属性以上の多数決基準は58倍($=638/11$),全属性の多数決基準は93倍($=1023/11$)の処理時間と記憶容量が必要である.}ため,1誤りの場合はMDT(9)が最も実用的なモデルであると言える.図において各SDTがどのような精度であるかを観察すると,属性数が減少するに伴い,平均的に徐々に精度は向上している.一方,MDT($i$)が選択するSDTを観察すると,SDTの中で最少属性のもののうちから選択されている場合が圧倒的に多い.例えば,MDT(6)は6属性のSDTのうちの一つの解を選択している場合が圧倒的に多い.一般的に,終端節点の学習事例数は,多数属性で作成した決定木のそれよりも少数属性のほうが平均的に多いためこのように少数属性のSDTが選択されやすくなるのであろうが,相対的に精度の高い少数属性のSDTを選択してもMDTの精度が低下する理由は不明である.これは今後の課題としたい.\subsection{事例集合との関係}\label{節:定量議論}\ref{節:定性議論}節で議論したように,MDTモデルは事例が集中した節点を得るのに用いた属性に誤りがある場合に有効に機能すると予想される.ここではこれを検証する.本シミュレーションでは,終端節点に集中する事例$S_D$とそれ以外の事例$S_S$の2種類の方法で事例集合$S$を作成した.事例集合$S$に誤りを含めた場合に,図\ref{図:1誤り}に示すようにMDT(9)は全体で57.6\%の精度が得られたが,これを事例集合別に分類して集計すると,$S_D$は96.5\%,$S_S$は15.5\%の精度であり,極端に精度が異なる.この結果は,頻出する現象に対しては入力に誤りがあってもかなり高い精度で正解を得ることができるのに対し,稀に出現する現象は正解を得ることが期待できないことを示し,\ref{節:定性議論}節で行なった議論が正しいことを確認した.以上の結果から本手法が有効に機能する状況が推測できる.すなわち,決定木において一部の終端節点に事例が集中するような構造を持つ場合ほど,MDTは誤りを含む入力に対して頑健であることが予想される.\subsection{誤り数との関係}\label{節:誤り数との関係}図\ref{図:1誤り}においてMDT(9)の精度が最も高いのは,各事例に対して1個の属性値に誤りを起こしているためである可能性がある.ではもし誤りが1ではなく,2もしくは3である場合,MDTはどのような傾向を示すであろうか.これを示したのが図\ref{図:2誤り}(2誤りの場合)および図\ref{図:3誤り}(3誤りの場合)である.このシミュレーションにおいては,誤り数以外の条件は全く同じであり,誤りを含める対象の事例集合$S$も,図\ref{図:1誤り}と全く同一のものを使用した.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=two.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{シミュレーション結果(誤り数:2)}\label{図:2誤り}\end{center}\begin{center}\begin{epsf}\epsfile{file=three.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{シミュレーション結果(誤り数:3)}\label{図:3誤り}\end{center}\end{figure}図が示すように,各属性に無作為に2誤りを与えた場合はMDT(8)が,3誤りの場合はMDT(7)が最も高い精度を示していることがわかる.すなわち,誤りの数と用意するSDTとの間には相関関係がありそうである.すなわち,図\ref{図:1誤り},図\ref{図:2誤り},図\ref{図:3誤り}から類推すると,属性数が$N$で誤りが高々$i$ならば属性数が($N-i$)以上のすべてのSDTでMDTを構成するのが最善であろう.\subsection{正解入力での特性}\label{節:正解入力}最後に,誤りがない場合にMDTがどのような挙動を示すのかを検証する.図\ref{図:正解入力}に,事例集合$S$に誤りを与えずに各モデルに入力した場合,すなわち学習事例と入力が全く同一の場合のテスト(closedtest)を行なった結果を示す.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=closed.eps,scale=0.6}\end{epsf}\begin{draft}\atari(76,53)\end{draft}\vspace{1mm}\caption{正解入力での特性}\label{図:正解入力}\end{center}\end{figure}この図から明らかなように,一般に属性数の減少に伴い精度は低下していくが,本提案モデルの精度の低下が最も激しい.ただし,正解入力は誤り0の入力であるので,これを前節で議論した誤り数と使用属性数の関係にあてはめると,全属性数で決定木を作成するのが最も適切であろうという予想が得られ,シミュレーション結果と一致する.本シミュレーションでは矛盾のないように属性を作成しているので,このような状況においては全属性による決定木が一つあれば十分で,入力に誤りのない場合は複数決定木モデルを使用する必要がない.ただし,主語補完問題のようにこのような状況が成立しない場合には,実験結果が示すように誤りが0であっても複数決定木モデルが有効に機能する可能性がある.これがどのような場合に有効なのかはシミュレーションでも究明することができなかった.今後の課題としたい.
\section{結論と今後の課題}
音声言語処理では,従来の自然言語処理ではほとんど問題にならなかった入力の不正確性が生じる.これに対し,入力の誤り訂正技術への努力だけでは不十分であり,入力に誤りが含まれていることを前提とした問題解決モデルの構築が,これからの音声言語処理において重要である.本論文では,対話に頻出する主語省略の補完問題を取り上げ,複数の決定木を用いたモデル(MDTモデル)による問題解決手法を提案した.また同時に,複数の補完候補からの選好基準として,学習時の終端節点事例数を使用することを提案した.実験では,音声認識結果に対して正解テキスト入力と比べて数\%程度の性能低下で抑えられ,特に挿入誤りに対して頑健であることを示した.また,問題依存性および属性組み合わせに関する議論を行なうため人工的な問題を設定したシミュレーションを行なった.この結果,本モデルは問題非依存のモデルであり,主語補完にのみ有効に機能するわけではないことを示した.本論文で行なった主語補完実験とシミュレーションにより,MDTモデルの特性が明らかになった.これをまとめると,MDTモデルは以下の状況が満たされた場合においてより有効に機能する.\begin{enumerate}\item決定木内に学習事例が集中する節点が多く存在する問題(\ref{節:定量議論}節)\item(全属性数−誤り数)以上の属性から構成される決定木の全組み合わせをモデルの構成要素とした場合(\ref{節:誤り数との関係}節)\item入力に若干の誤りのある場合(\ref{節:正解入力}節)\end{enumerate}複数決定木モデルは,特に入力列の挿入誤りに対して頑健であると結論づけることができるが,欠落,置換誤りに関しては相対的に脆弱である.これらの誤りによる性能劣化は情報の欠落が原因であるのでやむを得ない面もあるが,今後の課題として情報欠落に伴う精度劣化を最小限に抑えることを目指す.また,主語補完実験においては無誤りでもMDTのほうが高性能であったが,これがどのような状況であったためかは明確でなく,実験においても結論を出すに至らなかった.今後はこの点に関しても検証してみたい.\section*{謝辞}本研究で,シソーラスに使用した「角川類語新辞典」\cite{角川類語}を機械可読辞書の形で提供いただき,その使用許可をいただいた(株)角川書店に深謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aone\BBA\Bennett}{Aone\BBA\Bennett}{1995}]{Aone}Aone,C.\BBACOMMA\\BBA\Bennett,S.~W.\BBOP1995\BBCP.\newblock\BBOQEvaluatingAutomatedandManualAcquisitionofAnaphoraResolutionStrategies\BBCQ\\newblockIn{\BemProc.of33rdAnnualMeetingoftheACL},\BPGS\122--129.\bibitem[\protect\BCAY{Dohsaka}{Dohsaka}{1990}]{Dohsaka}Dohsaka,K.\BBOP1990\BBCP.\newblock\BBOQIdentifyingtheReferentsofZero-PronounsinJapanesebasedonPragmaticConstraintInterpretation\BBCQ\\newblockIn{\BemProc.ofEuropeanConferenceonArtificialIntelligence(ECAI)}.\bibitem[\protect\BCAY{江原,金}{江原,金}{1996}]{江原}江原暉将,金淵培\BBOP1996\BBCP.\newblock\JBOQ確率モデルによるゼロ主語の補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf3}(4),67--86.\bibitem[\protect\BCAY{河原,松本}{河原,松本}{1995}]{河原}河原達也,松本裕治\BBOP1995\BBCP.\newblock\JBOQ音声言語処理における頑健性\JBCQ\\newblock\Jem{情報処理},{\Bbf36}(11),1027--1032.\bibitem[\protect\BCAY{丸山}{丸山}{1996}]{丸山}丸山直子\BBOP1996\BBCP.\newblock\JBOQ話しことばの諸相\JBCQ\\newblock\Jem{第2回年次大会チュートリアル資料},\BPGS\41--58.言語処理学会.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{村田}村田真樹,長尾眞\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf4}(1),87--109.\bibitem[\protect\BCAY{内藤,政瀧,Harald,塚田,匂坂}{内藤\Jetal}{1998}]{内藤}内藤正樹,政瀧浩和,HaraldSinger,塚田元,匂坂芳典\BBOP1998\BBCP.\newblock\JBOQ日英音声翻訳システムATR-MATRIXにおける音声認識用音響・言語モデル\JBCQ\\newblock\Jem{春期講演論文集},\BPGS\2--Q--20.日本音響学会.\bibitem[\protect\BCAY{Nakaiwa\BBA\Shirai}{Nakaiwa\BBA\Shirai}{1996}]{Nakaiwa}Nakaiwa,H.\BBACOMMA\\BBA\Shirai,S.\BBOP1996\BBCP.\newblock\BBOQAnaphoraResolutionofJapaneseZeroPronounswithDeicticReference\BBCQ\\newblockIn{\BemProc.ofCOLING-96},\BPGS\812--817.\bibitem[\protect\BCAY{大野,浜西}{大野,浜西}{1981}]{角川類語}大野晋,浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Quinlan}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Takezawa,Morimoto,\BBA\Sagisaka}{Takezawaet~al.}{1998}]{Takezawa98}Takezawa,T.,Morimoto,T.,\BBA\Sagisaka,Y.\BBOP1998\BBCP.\newblock\BBOQSpeechandLanguageDatabaseforSpeechTranslationResearchin{ATR}\BBCQ\\newblockIn{\BemProc.of1stInternationalWorkshoponEast-AsianLanguageResourcesandEvaluation--OrientalCOCOSDAWorkshop},\BPGS\148--155.\bibitem[\protect\BCAY{田中}{田中}{1996}]{田中穂積}田中穂積\BBOP1996\BBCP.\newblock\JBOQ音声対話表現における多様性\JBCQ\\newblock\Jem{人工知能学会全国大会(第10回)論文集},\BPGS\47--50.\bibitem[\protect\BCAY{脇田,河井,飯田}{脇田\Jetal}{1998}]{脇田}脇田由実,河井淳,飯田仁\BBOP1998\BBCP.\newblock\JBOQ意味的類似性を用いた音声認識正解部分の特定法と正解部分のみ翻訳する音声翻訳手法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(4),111--125.\bibitem[\protect\BCAY{山本,隅田}{山本,隅田}{1999}]{主語補完}山本和英,隅田英一郎\BBOP1999\BBCP.\newblock\JBOQ決定木学習による日本語対話文の格要素省略補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(1),3--28.\bibitem[\protect\BCAY{Yamamoto\BBA\Sumita}{Yamamoto\BBA\Sumita}{1999}]{NLPRS99}Yamamoto,K.\BBACOMMA\\BBA\Sumita,E.\BBOP1999\BBCP.\newblock\BBOQMultipleDecision-TreeStrategyforError-TolerantEllipsisResolution\BBCQ\\newblockIn{\BemProc.ofNaturalLanguageProcessingPacific-RimSymposium(NLPRS'99)},\BPGS\292--297.\bibitem[\protect\BCAY{Yamamoto\BBA\Sumita}{Yamamoto\BBA\Sumita}{2000}]{ICSLP2000}Yamamoto,K.\BBACOMMA\\BBA\Sumita,E.\BBOP2000\BBCP.\newblock\BBOQMultipleDecision-TreeStrategyforInput-ErrorRobustness:ASimulationofTreeCombinations\BBCQ\\newblockIn{\BemProc.of6thInternationalConferenceonSpokenLanguageProcessing(ICSLP2000)}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:[email protected]}}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.ATR音声言語通信研究所主任研究員.博士(工学).自然言語処理,並列処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.{\ttE-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\end{biography}\end{document}
| |
V23N05-02
|
\section{はじめに}
日英間や日中間のような,文法構造の大きく異なる言語間における特許文書を対象とした統計的機械翻訳の精度は,利用可能な特許対訳コーパスのデータ量の増加に加え,構文解析にもとづく単語並べ替え技術(Isozaki,Sudoh,Tsukada,andDuh2010b;deGispert,Iglesias,andByrne2015)の進展によって大きく向上した(Goto,Utiyama,Sumita,andKurohashi2015).しかし特許明細書中の請求項文は,特に重要性が高いにもかかわらず,明細書中の他の文と比較しても依然として翻訳が困難である.特許請求項文は,以下の2つの特徴を持つサブ言語(Buchmann,Warwick,andShann1984;Luckhardt1991)と考えることができる.1つ目の特徴は,非常に長い単一文で構成されることであり,2つ目の特徴は,対象言語に依存しない部品のセットから構成されるということである.特許請求項翻訳の困難さは,まさにこれらの2つの特徴に根差している.1つ目の特徴である特許請求項文の長さによって,事前並べ替え等で用いられる構文解析器が解析誤りを生じる可能性が高くなり,ひいては事前並べ替えの精度が下がる.2つ目の特徴であるサブ言語に特有の文構造は,特許明細書の他の部分で学習された統計的機械翻訳を用いるだけでは正確にとらえることができない.本稿では,特許請求項文に対する統計的機械翻訳の精度を向上させるための手法について述べる.なお以降の説明では,特許請求項を構成する要素を「構造部品」と呼ぶ.我々は,前述の特許請求項文の特徴に起因する問題を解決するためのモジュールを追加した統計的機械翻訳の枠組みを構築した.サブ言語に特有の文構造に基づく我々の手法は2つの狙いがある.(1)事前並べ替えおよび統計的機械翻訳処理を,入力文全体にではなく,文の構造部品を単位として実行する.この構成により事前並べ替えおよび機械翻訳への入力を実質的に短縮し,結果として翻訳精度を向上させる.(2)特許請求項文の文構造を明示的に捉えた上で翻訳を行うことにより構造的に自然な訳文を生成できるようにする.具体的には,言語非依存の構造部品を得るための同期文脈自由文法規則および正規表現を人手で構築し,これら構造部品を非終端記号とした同期文脈自由文法を用いることによって,原文の文構造を訳文の文構造に反映させる.我々は,英日・日英・中日・日中の4言語対の翻訳について上記提案手法を適用し,その効果を定量的に評価した.提案手法を事前並べ替えと併用した場合に,英日・日英・中日・日中の4言語方向すべての翻訳実験において翻訳品質がRIBES値(Isozaki,Hirao,Duh,Sudoh,andTsukada2010a)で25ポイント以上向上した.これに加えて,英日・日英翻訳ではBLEU値が5ポイント程度,中日・日中翻訳では1.5ポイント程度向上した.英中日3言語の請求項文構造を記述するための共通の構造部品は5種類のみであり,これら構造部品を単位として記述した英日・日英・中日・日中の4言語方向の同期文脈自由文法の規則はそれぞれ10個以内である.非常に少ない数で,この翻訳精度改善を実現することができた.
\section{関連研究}
語順の大きく異なる言語間の機械翻訳の品質は,構文情報を取り込む近年の研究によって大幅に向上した(Collins,Koehn,andKucerova2005;Quirk,Menezes,andCherry2005;Katz-BrownandCollins2008;Sudoh,Suzuki,Tsukada,Nagata,Hoshino,andMiyao2013;Hoshino,Miyao,Sudoh,andNagata2013;Cai,Utiyama,Sumita,andZhang2014;Goto,Utiyama,Sumita,andKurohashi2015).この構文情報を取り込む手法を産業文書等のサブ言語を構成する文書に適用するためには,サブ言語に特有の情報を取り込む必要があると考えられている(Buchmannetal.1984;Luckhardt1991).産業文書等に見られるサブ言語の特徴としては,一文が非常に長いことと,特殊な文構造を持っていることがあげられる.このため,長文を含む入力においてサブ言語に特有の文構造を適切に扱うことが課題となる.ヨーロッパ言語間のように語順が近い言語間では,長文を構成する複数の節を連結する談話連結詞(discourseconnective)の曖昧性を解決することによって訳文の文構造が改善することがわかっている(Miltsakaki,Dinesh,Prasad,Joshi,andWebber2005;PitlerandNenkova2009;Meyer,Popescu-Belis,Zufferey,andCartoni2011;HajlaouiandPopescu-Belis2012;Meyer,Popescu-Belis,Hajlaoui,andGesmundo2012).これに対して語順の大きく異なる言語間では,談話連結詞を扱うだけでは不十分であり,例えば長い並列句を含むような原文の文構造を把握して訳文の文構造に変換するような,文構造変換を行う必要がある.文構造変換の1つの手法として,入力文に対する何らかの解析を行ってから訳文構造に変換する様々な研究が行われてきた.初期の研究では,日英翻訳における文構造変換を目的として,修辞構造理論(RST:rhetoricalstructuretheory)に基づくパーザを用いて得られた入力文の修辞構造を目標言語の構造に変換する手法が提案されている(Marcu,Carlson,andWatanabe2000).これを発展させた研究としては,RSTパーザで得られた結果から目標言語構造への変換規則を自動獲得する研究も行われている(KurohashiandNagao1994;WuandFung2009;Joty,Carenini,Ng,andMehdad2013;Tu,Zhou,andZong2013).骨格構造(skeleton)を用いる手法(Mellebeek,Owczarzak,Grobes,VanGanabith,andWay2006;Xiao,Zhu,andZhang2014)では,入力文の構文解析結果から文の骨格を形成するキー要素やキー構造を抽出し,原言語文と目的言語文それぞれから抽出した骨格構造同士を一般文同士の場合と同様の手段で学習させる.翻訳実行時には,入力文から骨格構造を抽出して骨格構造翻訳を行い,最後に骨格以下の構造を翻訳して訳文を生成する.分割翻訳(divide-and-translate)(金,江原1994;JinandLiu2010;Shinmori,Okumura,Marukawa,andIwayama2003;Xiong,Xu,Mi,Liu,andLiu2009;Sudoh,Duh,Tsukada,Hirao,andNagata2010;Bui,Nguyen,andShimazu2012)では,入力文を句や節の単位に分割してそれぞれを目標言語に翻訳し,最後にこれら翻訳された分割部品を結合して訳文を生成する手法である.ルールベース翻訳による分割翻訳では,接続構造を用いて分割を行う手法(金,江原1994)や,概念素性を用いて分割する手法(JinandLiu2010)等が提案されている.並列構造解析に基づく翻訳(Roh,Lee,Choi,Kwon,andKim2008)では,入力文の解析結果から並列構造を見つけ出し,これをもとに訳文構造への変換を行う.以上述べてきた文構造変換の手法は,パーザを用いて入力文を解析するため,特許請求項のような長文を多く含むサブ言語ではパーザの解析精度が低く,結果として訳文の品質も低くなるという問題がある.文構造変換のもう1つの手法としてはパターン翻訳の研究がある(XiaandMcCord2004;池原,阿部,徳久,村上2004;中澤,黒橋2008;Murakami,TokuhisaandIkehara2009;西村,村上,徳久,池原2010;Murakami,FujiwaraandTokuhisa2013;坂田,徳久,村上2014).パターン翻訳では,原文側と訳文側それぞれについて固定部と変数部を持つパターンを用意しておき,入力文が原文側パターンにマッチしたら変数部を自動翻訳して訳文側固定部に埋め込んで出力する.この手法は,パターンにマッチさえすれば原文全体を構文解析することなく翻訳できるため,長文におけるパーザの解析精度の問題を回避することができる反面,表層的な手がかりをもとに入力文とのマッチを行うので長文に頻出する並列構造や階層を適切に扱うことができないという問題がある.
\section{サブ言語に特有の文構造の変換}
特許請求項は,特許明細書文書の他の部分と比べて,使われている語彙や表現は共通である一方,請求項固有の記述スタイルで記述されるという特徴がある.このことから,請求項自体が1つのサブ言語を構成しているとみなす.この請求項特有の記述方法は,特許出願の歴史の中で徐々に形成され,最近では公的な特許文書の執筆基準書等でも取り上げられるようになってきた.国際特許機関WIPOの特許執筆基準(WIPO2014)によると,英語の請求項は,次の3つの部品から構成される1文として記述されなければならない.\[\mathrm{S}\rightarrow\text{PREA\TRAN\BODY}\]ここで,Sは請求項文,PREAは前提部,TRANは移行部,BODYは本体部をそれぞれ表す.図~1に英語・日本語・中国語それぞれの,前提部,移行部,本体部の例を示す.前提部は特許発明の範疇を表す導入的な要素であり,本体部は特許発明の中心部であって発明の構成要素や目的を表し,移行部は前提部と本体部を接続する役割を担っている.なお,実際の特許請求項における本体部は,発明を構成する要素である「構成要素」,もしくは発明の目的を説明する「目的部」のいずれかとして記述される.以降の図や例では,構成要素をELEMで,目的部をPURPで表す.\begin{figure}[t]\begin{center}\includegraphics[scale=0.9]{23-5ia2f1.eps}\end{center}\caption{英語・日本語・中国語の請求項の例}\label{fig01}\end{figure}図~1(a)は,典型的な英語請求項の構造の例である.この例では,本体部は構成要素から構成されている.図~1(b)は,(a)の英語請求項構造に対応した日本語請求項構造であり,図~1(c)は,(a)の英語請求項構造に対応した中国語請求項構造である.ここで,3言語の構造において用いられている構造部品のセットは共通である一方,言語によって構造部品の出現する順番は異なることがわかる.以降では,英語請求項と日本語請求項の対を例に,提案手法の概要を説明する.図~1(a)および(b)から,両言語において用いられる構造部品のセットは限定されていることがわかったが,さらに我々の調査から,両言語にはそれぞれ厳密な生成規則が存在することがわかった.図~1(a)の英語請求項文は,図~2(a)の英語生成規則によって表される.ここで,ELEMは図~1(a)における構成要素を表し,記号``$+$''は左に隣接する要素が1回以上繰り返されることを表す.図~2(b)はこれに対応する日本語規則であり,同一の構造部品セットで構成される.\begin{figure}[b]\begin{center}\includegraphics[scale=0.9]{23-5ia2f2.eps}\end{center}\caption{英語・日本語の生成規則とそこから得られたSCFG規則}\label{fig02}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f3.eps}\end{center}\caption{英日対訳の請求項文の例}\label{fig03}\end{figure}このようにして,特許請求項は言語に関わりなく文構造の規則性が高いことから,我々は言語間の構造変換のために,同期文脈自由文法(synchronouscontext-freegrammar:SCFG)を用いることとした.例えば,図~2(a)と(b)の対応する規則を接続することによって,図~2(c)のSCFGを獲得できる.ここで,添字の数字は,両木構造における対応する非終端記号間の関係を表す.我々は特許請求項の翻訳のために,このようなSCFG規則を人手で構築した.詳細については4.1節において述べる.図~3は英日対訳の請求項文の例である.ここで,PREA,TRAN,BODYはこれら請求項文の構造部品名を表すが,構造部品の出現順は英日で逆順となっていることがわかる.例えば,分割翻訳等の従来の翻訳手法では,分割して得られた入力文の分割要素をどのような順番で出力するかを制御することが困難である.請求項の翻訳では,入力文の文構造を認識し,それに対応する目的言語の文構造で出力する必要がある.
\section{請求項翻訳のための処理パイプライン}
特許請求項文は,文構造が特殊である一方,文中で使われる語彙や表現は他の特許明細書文と共通である.このため本研究の実験では,特許請求項文のための文構造変換機能を前処理モジュールとして用意し,その後段として特許明細書用にチューニングした従来の機械翻訳エンジンをつなげたパイプラインを構築した.具体的には以下に示す3ステップから構成されるパイプラインを構築し,特許請求項文が入力されると,特許請求項に対応した文構造変換が行われ,事前並べ替えを経て,統計的機械翻訳による翻訳が行われる(図~4).\begin{itemize}\item\textbf{ステップ1文構造変換}:入力文に対して,人手で構築したSCFG規則を搭載したパーザを用いて解析を行う.ここでの目的は,入力文に対する精緻な構文木を得ることではなく,図~1に示すようなサブ言語に特有の文構造を入力文の中で見つけ出し,この文構造に沿って出力の文構造を生成することにある.同時文脈自由文法を用いることにより,入力文の構造部品を認識すると同時に出力側での文構造を生成する.(図~4(a)$\to$(b),(c))\item\textbf{ステップ2事前並べ替え}:上述の各構造部品について単語の事前並べ替えを行い,原言語文の単語を,目的言語の語順に即して並べ替える.ここで使う事前並べ替えは,句構造解析をベースにしたものである.なお,上記ステップ1の出力が当事前並べ替えへの入力となるため,結果として高い解析結果が得られる.(図~4(c)$\to$(d))\item\textbf{ステップ3統計的機械翻訳による翻訳:}各構造部品について統計的機械翻訳による翻訳を行う.上述のように特許請求項文は,文構造は特殊でも語彙や表現は他の特許明細書文と共通であるため,特許明細書用にチューニングした統計的機械翻訳をそのまま用いている.ここでも,ステップ1において得られた短い文が入力となるため翻訳品質が向上する.(図~4(d)$\to$(e))\end{itemize}以降では,上記ステップ1およびステップ2の詳細について述べる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f4.eps}\end{center}\caption{翻訳パイプラインの概要}\label{fig04}\end{figure}\subsection{文構造変換}1章で述べたように,特許請求項翻訳における大きな課題は,特許明細書の他の項目を用いて学習させた統計的機械翻訳では,請求項サブ言語に特有の文構造を正確に捉えてこの文構造を目的言語に正確に伝えることができないということである.本ステップは,入力請求項文の文構造を認識し,これに対応する出力側の文構造を同時に生成することを目的とする.本ステップは,人手で作成したSCFG規則を用いて実行される.我々は,これら規則を以下の手順で作成した.最初に,開発セット中の英中日それぞれの特許請求項を人手で分析することにより,文構造を構成する構造部品は一定であること,ならびに,これら構造部品のセットは英中日の3言語で共通であることがわかった.このようにして我々が抽出した構造部品セットUは次のとおりである.\[\mathrm{U}\in\{\text{PREA,\TRAN,\BODY,\ELEM,\PURP}\}\]ここで,これら5項目(PREAは前提部,TRANは移行部,BODYは本体部,ELEMは構成要素,PURPは目的部をそれぞれ表す)はすべて前章で説明したとおりである.次に,構造部品セットUを非終端記号とする英語生成規則および日本語生成規則を作成し,対応する英語生成規則と日本語生成規則を組み合わせることによって,英日翻訳用および日英翻訳用のSCFG規則を作成した.図5は,このようにして作成した英日翻訳用のすべてのSCFG規則のセットである.同様にして,構造部品セットUから中国語生成規則を作成し,対応する中国語生成規則と日本語生成規則を組み合わせることによって,中日翻訳用および日中翻訳用のSCFG規則を作成した.日英翻訳・中日翻訳・日中翻訳のためのSCFG規則は付録を参照されたい.付録には日英翻訳のためのSCFG規則に対応する日英対訳例文も掲載している.規則の数は,英日翻訳用8個,日英翻訳用10個,中日翻訳用6個,日中翻訳用10個である.\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f5.eps}\end{center}\hangcaption{英日翻訳のためのSCFG規則一覧(日英・中日・日中翻訳のためのSCFG規則は付録に掲載している)}\label{fig05}\end{figure}図5は,英日翻訳用SCFG規則であるR$_{\mathrm{ej}2}$の処理対象となるような対訳の例である.入力英文においてPREA・TRAN・BODY・TRAN・BODYの順番で出現する構造部品が,日本語ではBODY・TRAN・BODY・TRAN・PREAの順番に並べ替えられることによって,日本語として適切な文構造となることがわかる.今回作成したSCFG規則では,規則適用で曖昧性が生じるのは終端記号に対応する規則であり,これ以外は決定的に動作する解析アルゴリズムとなっている.実際のSCFG規則の実装では,終端記号とのマッチングに正規表現を用いることによって,各規則について高々1回のマッチのみを認め,終端記号においても決定的に動作するような設計とした.決定的な動作を行うためには対象言語の主辞方向性を用いており,例えば主辞先導型言語の英語と中国語では最も文頭に近いTRAN一つを採用し,主辞後置型言語の日本語では最も文末に近いTRANを採用している.例えば,英語の入力特許請求項文中に文字列``comprising''が複数回出現する場合には,入力文中の最初の``comprising''のみとマッチするような正規表現を用意した.実際の特許請求項では,執筆者が最初の表現がTRANとなるように意識して書くことが多いため,最初のTRANを採用することでほぼ誤りなくマッチする.以下に,Perl言語風の英語と日本語の正規表現の例を示す.``$+$''は最長マッチ,``$+$?''は最短マッチを表す.\begin{gather*}\text{({\$}prea,\{\$}tran,\{\$}body)}=/\text{\textasciicircum}(.+?)(\text{comprising})(.+){\$}/;\\\text{({\$}body,\{\$}tran,\{\$}prea)}=/\text{\textasciicircum}(.+)(\text{備えることを特徴とする})(.+?){\$}/;\end{gather*}このようにして作成したヒューリスティック規則はほぼ誤りなくマッチするが,マッチしない場合には入力文をそのまま返す仕様としている.\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f6.eps}\end{center}\caption{SCFG規則R$_{\mathrm{ej2}}$に対応する英日対訳文の例}\label{fig06}\end{figure}\subsection{事前並べ替え}既存の事前並べ替え技術は,句構造解析技術に基づくもの(Isozakietal.2010b;Gotoetal.2015;Hoshino,Miyao,Sudoh,Hayashi,andNagata2015)と依存構造に基づくもの(Yang,Li,Zhang,andYu2012;LernerandPetrov2013;Jehl,deGispert,Hopkins,andByrne2014;deGispertetal.2015)が多い.以下では,句構造解析技術に基づく例で説明する.英日機械翻訳では,例えば,入力文``Helikesapples.''に対してまず,図~7に示すような二分木構造を得る.次に,分類器によって,特定の内部ノードの2つのノードを入れ替えることによって単語の並べ替えを行う.図~7の例では,分類器の判定によって,VPノードの2つの子ノードであるVBZとNPの入れ替えが行われる.子ノードを2つのみ持つすべてのノードについて,入れ替えをすべきかどうかの判定が分類器によって行われ,入れ替えが行われると,結果として``Heappleslikes.''のような日本語の語順に近い英語文が得られる.2つの子ノードを入れ替えるか否かは,ルールに基づく手法(Isozakietal.2010b)や,語順の順位相関係数$\tau$を指標として原言語文と目的言語文の語順が近くなるよう並べ替えを実現する統計的なモデル化(Gotoetal.2015;Hoshinoetal.2015)などが考えられる.評価実験では後者の統計的なモデル化を採用した.詳しくは5.3節を参照されたい.ただし,提案手法自体は特定の事前並べ替え手法に依存しない.\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f7.eps}\end{center}\caption{``Helikesapples.''の二分木構造と入れ替え結果}\label{fig07}\end{figure}1章で説明したように,請求項翻訳におけるもう1つの課題は,極端な文の長さへの対処である.上述のような事前並べ替え技術は,ある程度正しい構文解析結果が得られることを前提としているが,極めて長い文が入力された場合に構文解析が失敗し,結果として並べ替え精度が低くなる.この問題に対して,本ステップでは,長い入力文全体ではなく,前ステップで認識された各構造部品に対して既存の事前並べ替え手法を適用することによって,構文解析の精度の向上,ならびに事前並べ替えの精度の向上を図る.
\section{評価実験}
文構造変換と事前並べ替えによる翻訳品質の向上度合いを定量的に評価するための評価実験を行った.第4章でも述べているように,本実験は既存統計的機械翻訳への付加モジュールとして実現しているため,既存のフレーズベース統計的機械翻訳(Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,andHerbst2007)をベースラインとして設定した.\subsection{データ}統計的機械翻訳の学習には特許文のコーパスを使っている.中日・日中翻訳では,特許請求項文だけで大量の対訳コーパスを作ることができたが,英日・日英翻訳では,特許請求項文のみでは分量が不十分のため特許全体から作成したコーパスと特許請求項文から作成したコーパスを併用した.最終的に,英日・日英・中日・日中翻訳の4つの設定で訓練コーパスの規模(文数)が同じになるようにして実験を行った.英日・日英の統計的機械翻訳の学習には2種類のコーパスを利用した.1種類目は,NTCIR-9ワークショップの特許翻訳タスク(PatentMT)(Gotoetal.2011)において提供された約320万文対の日英特許翻訳データから無作為に抽出した300万文対である.以降,この対訳コーパスをコーパスAと呼ぶ.コーパスAを用いて統計的機械翻訳を学習させることによって,請求項翻訳においても語彙選択の面では良好な性能が得られるが,これは語彙や表現は特許文書全体で共通であり,コーパスAによって大部分がカバーされるからである.しかしながら,コーパスAは請求項文を含まないため,請求項特有の文構造を適切に扱うことができない.このため,請求項文特有の文構造を取り込むために,100万文の請求項対訳文から構成されるコーパスBを用意し,これをコーパスAと併用した.コーパスBの請求項対訳文は,文アラインメント手法(UtiyamaandIsahara2007)を用いて英日対訳特許文書から抽出したものである.英日対訳特許文書とは,日本国特許庁が提供する日本語特許明細書データと米国特許庁が提供する英語特許明細書データとを出願番号を用いて対応付けたものであり,2013年提供分までのデータを対応付けの対象としている.コーパスAとコーパスBを結合して学習コーパスを作成し,この学習データを用いて,ベースラインシステムおよび提案手法を組み込んだシステムのための統計的機械翻訳を学習させた.中日・日中の統計的機械翻訳の学習にはALAGIN言語資源・音声資源として提供されるJPO中日対訳コーパス\footnote{ALAGIN言語資源・音声資源サイトのJPO中日対訳コーパスhttps://alaginrc.nict.go.jp/resources/jpo-info/\linebreak[2]jpo-outline.html{\#}jpo-zh-ja}の特許請求項文から作成したコーパスのみを用いた.前述の英日・日英用のコーパスBと同様の方法によって中日対訳の特許請求項文から400万文対を抽出した.開発データおよびテストデータについては,英日・日英・中日・日中の4言語対について,上述の学習データとは独立に次の手順で構築した.まず,学習データより後の特定の年(2014年)の米国特許明細書データから,明細書毎に最大5個の請求項文を抽出した.具体的には,明細書中の請求項が5個以内の場合はすべての請求項を抽出し,6個以上の場合は5個目までを抽出している.次に,ここから無作為に2,000文を抽出し,機械翻訳の学習やチューニングで用いるという用途を伏せて,特許翻訳専門の翻訳者に依頼して日本語訳文および中国語訳文を作成した.このようにして作成した2,000文の英中日多言語コーパスを1,000文ずつ2つに分けて開発用とテスト用とした.なお上記翻訳作業では,各英語原文について1文の訳文を作成した.\subsection{システム}本評価実験では,統計的機械翻訳のツールキットであるMosesのフレーズベース翻訳(Koehn,Och,andMarcu2003)および階層的フレーズベース翻訳(Chiang2005)をベースラインとして用いた.文構造変換,事前並べ替えおよび両者の組み合わせについて,ベースラインとの比較を行った.すべての実験において,言語モデルの学習にKenLM(Heafield,Pouzyrevsky,Clark,andKoehn2013)を,単語アラインメントにSyMGIZA$++$(Junczys-DowmuntandSza{\l}2010)を用いた.モデルの重みづけでは,BLEU値(Papineni,Roukos,Ward,andZhu2002)を指標としてn-bestbatchMIRA(CherryandFoster2012)によるチューニングを行った.各評価実験において,重み付けチューニングを3回繰り返し,開発セットにおいて最大のBLEU値を獲得した重み設定を採用した.ベースラインとしてのフレーズベース翻訳では,歪み範囲(d)が6の場合と20の場合の測定を行った.Mosesのデフォルトの歪み範囲である6と,それに対する長めの歪み範囲として20を選んだ.なお,テストデータに対して文構造変換を行う実験構成でも,学習データに対しては文構造変換を行わずにモデルの学習を行った.文構造変換を行うためには学習データとして請求項文を用いる必要があるが,今回扱わなかった他の言語も含め,請求項文の入手可否は対象言語によって変わってくるため,比較のために一律の構成とした.この実験構成にしたことによって,Mosesの学習段階における長文除去処理で除外される文は発生する.\subsection{事前並べ替え}本評価実験では,構文解析パーザとしてBerkeleyParser(Petrov,Barret,Thibaux,andKlein2006)を用いて,提案手法によって分割された各構造部品に対して事前並べ替えを行った.この基本的な構成は,4言語方向いずれも同じである.なお,学習データは二分化されたものを用いている.BerkeleyParserのドメイン適応では自己学習の手法を用いた.具体的には,最初に,初期モデルを用いて200,000文の特許文の解析を行い,次に,得られた200,000件の構文解析結果から構文解析モデルを学習することにより,特許文に適応した解析モデルを構築した.英語の初期モデルについては,PennTreebankの文,および我々が人手で木構造を記述した3,000文の特許文を用いて学習した.日本語の初期モデルについては,EDRコーパス\footnote{EDRコーパスhttps://www2.nict.go.jp/out-promotion/techtransfer/EDR/JPN/Struct/Struct-CPS.html}の200,000文を用いて学習させた.中国語の初期モデルについては,CTB-6(ZhangandXue2012)の文を用いて学習させた.日本語および中国語のモデル学習では特許文は用いていない.並べ替えモデルの学習では,内製の大規模な特許文対訳コーパスを用いて次の手順によって事前並べ替えモデルを学習させた(deGispertetal.2015).\begin{itemize}\item[1.]対訳コーパスの原言語文を構文解析する\item[2.]対訳コーパスに対して単語アラインメントを行う\item[3.]原言語文と目的言語文の間でケンドールの順位相関係数$\tau$が最大化されるような原言語文に対する並べ替えを行う.このようにして各2分ノードは,子ノードの入れ替えを行うことを表すSWAPと,入れ替えを行わないことを表すSTRAIGHTに分類される.\item[4.]上記のデータを用いて,各ノードのSWAP,STRAIGHTを判定するためのニューラルネットワーク分類器を学習する.\end{itemize}上述のように,各ノードのSWAP,STRAIGHTの判定を二値分類問題としてニューラルネットワーク学習器に学習させるが,本実験では,ニューラルネットワーク学習器としてオープンソースのNeuralProbabilisticLanguageModelToolkit(NPLM)\footnote{NeuralProbabilisticLanguageModelToolkithttp://nlg.isi.edu/software/nplm/}を用いた.基本的な構成はデフォルト構成をそのまま使ったが,出力層ではSWAPとSTRAIGHTに対応した2個の出力を用いた.入力層では,以下を入力としている:親の親,親,自分,直前の兄弟,直後の兄弟,左の子供,右の子供,左の子供のスパンの左端の前終端記号と単語,左の子供のスパンの右端の前終端記号と単語,右の子供のスパンの左端の前終端記号と単語,右の子供のスパンの右端の前終端記号と単語.\subsection{評価指標}各システムは,BLEU(Papinenietal.2002)とRIBES(Isozakietal.2010a)の2種類の評価指標を用いて評価した.これは,n-gramベースの評価手法であるBLEUのみでは長距離の関係を十分に評価することができず,本研究が目標としている構造レベルの改善を十分に測定できないと考えたからである.RIBESは順位相関係数に基づく自動評価手法であり,評価対象の機械翻訳出力文中の語順と,参照訳中の語順の比較を行う.RIBESのこのような特性によって,語順の大きく異なる言語間で頻繁に発生する,構造部品の入れ替えを評価することができると考えられる.なお,RIBESは,NTCIR-9ワークショップの特許翻訳タスク(PatentMT)(Gotoetal.2011)等においても,英日・日英の翻訳方向において,人間評価との高い相関性が報告されている.実験で得られた各BLEU値とRIBES値は,MTEval\footnote{MTEvalToolkithttps://github.com/odashi/mteval}を用いた反復数1,000回の100分割ブートストラップ検定を行ってベースラインとの有意差を調べた.\subsection{自動評価結果}\begin{table}[p]\caption{英日翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab01}\input{02table01.txt}\vspace{-0.3\Cvs}\end{table}\begin{table}[p]\caption{日英翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab02}\input{02table02.txt}\vspace{-0.3\Cvs}\end{table}\begin{table}[p]\caption{中日翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab03}\input{02table03.txt}\vspace{-0.3\Cvs}\end{table}\begin{table}[p]\caption{日中翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab04}\input{02table04.txt}\end{table}本評価実験の結果を表~1,表~2,表~3,表~4に示す.表中,PBおよびHPBは各々,Mosesのフレーズベース翻訳および階層的フレーズベース翻訳を表し,PBにおけるdは歪み範囲の値を表す.カッコ内の数値はベースラインであるフレーズベース翻訳(P1)との差分を表す.また,P1'からP4のそれぞれについて,ベースラインに対して5{\%}水準で有意差があるものに\textdaggerを,1{\%}水準で有意差があるものに\textdaggerdblを付してある.テスト文としては5.1節で述べた1,000文を使っているが,参考情報として,この1,000文からトークン数が200以下の文を抜き出して使った場合の結果も併記している.これは,P3の事前並べ替えで用いている句構造パーザ(BerkeleyParser)に入力長制限があり,1,000文全文に対する事前並べ替えを行うことができないためである.このため,テスト文全文を使った評価ではP3は評価対象外としており,表ではこれをN/Aで表している.表から,文構造変換と事前並べ替えの組み合わせであるP4において,英日・日英・中日・日中翻訳すべての翻訳方向において,RIBES値およびBLEU値に大幅な上昇がみられる.有意差検定からも,P4のみが,すべての翻訳方向のRIBES値およびBLEU値の双方において,P1と比較して1{\%}水準で有意に上昇している.文構造解析のみを用いたP2,および事前並べ替えのみを用いたP3でもRIBES値は大幅に上昇しているが,BLEU値の上昇は限定的である.文構造解析と事前並べ替えを併用したときに大きなBLEU値の上昇がみられるが,これは文構造解析と事前並べ替えの相乗効果によるものと考えられる.参考情報として掲載した,200トークン以内の文に対する翻訳でも,全文を用いた場合と同様の傾向がみられるが,200トークンを超える長文を含まないため,ほぼすべてのシステムに対して高い評価値となっている.言語によって事前並べ替えの精度に差があり,特に日英,中日翻訳ではP3の方がP4よりも高い評価値を達成している場合がある.ただし,P4における文構造変換と事前並べ替えの組み合わせでは,P3の精度に差に関わらず安定した精度向上がみられる.\subsection{考察}前述の評価結果から,翻訳方向に関わらず,文構造解析と事前並べ替えによって翻訳品質が大幅に改善することがわかった.以下ではまず,当初の課題としてあげていた特許請求項文の長さと特有の文構造の問題が,文構造変換と事前並べ替えの導入によっていかに改善されたか分析する.また,文構造解析の副次的な効果である文短縮についても分析する.さらに,翻訳方向に固有の翻訳特性について述べる.\subsubsection{文構造変換と事前並べ替えの相補的効果}\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f8.eps}\end{center}\hangcaption{典型的な日英翻訳の例(P2とP4の部品ラベルはシステムが自動的に付与したものだが,それ以外の部品ラベルは,意味的に対応する部分に人手で付与している)}\label{fig08}\end{figure}図~8は,日英翻訳における4つの実験設定(P1,P2,P3,P4)の典型的な出力例である.図では一貫してラベル付き括弧表示を用いて請求項の構造部品を表している.文構造変換および事前並べ替えによる効果について以下に述べる.\begin{itemize}\item[1.]\textbf{文構造解析の効果}:P1では入力文と比較して構造部品の順番に変化がみられないが,P2では文構造解析を導入することによって構造部品が英語の順番に並べなおされていることがわかる.これによって,移行部である``comprising''が生成されるようになり,文全体の可読性が上がっている.一方,P1とP2を比較したときに,各構造部品の翻訳品質は顕著には向上していない.これに対して,P4ではP3と比較して2番目の要素の翻訳品質が向上している.このことから,文構造変換は事前並べ替えと併用したときに効果的に動作することがわかる.\item[2.]\textbf{事前並べ替えの効果}:従来研究でも示されているとおり,事前並べ替え手法を用いることによって,目的言語の語順に即した訳文を生成することができる.図中の例でも,P3は,P1と比較して単語がより適切に並んでおり,英語としてより自然な訳文が得られている.しかしながら,前提部が2回出現するなど,構造部品が適切に配置されておらず,文構造の観点からは不適切である.これに対して,P4のように文構造変換を用いて文構造を明示的に指定することによって,このような不適切な現象を抑制することができる.さらに,入力文をより短い構造部品に分解することにより,各構造部品中の単語が適切に並べ替えられるようになる.\end{itemize}\vspace{1\Cvs}以上の分析から,構造的かつ語順的に適切な訳文を生成する過程において,文構造変換と事前並べ替えが相補的に動作することが確認できた.\subsubsection{文短縮の効果}これまで述べたように,事前並べ替えは,入力文全体に対してよりも文構造解析で得られた構造部品に対して,より適切に機能する.文構造変換による文短縮の効果を見積もるために,まずは実験に用いた構文解析パーザの解析精度を文長毎に評価した.表~5は,英日翻訳のテストセット全文から無作為に抽出した100文を対象に,事前並べ替えで用いる英語構文解析器の解析成功率を集計した結果である.構文解析結果を目視でチェックし,文中で1か所でも誤った構成素があれば誤りとしてカウントし,すべて正しい場合に正解としてカウントした.表から,短い入力文に対する解析精度は高いものと比較して,長い入力文に対する解析精度が著しく低いことがわかる.特に,80トークンを超える長さの入力文では,正しい構文解析結果を得られた文が16文中1文のみと,きわめて正解率が低い.\begin{table}[b]\caption{英日翻訳における英語パーザの解析精度}\label{tab05}\input{02table05.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{23-5ia2f9.eps}\end{center}\caption{入力文の累積比率と文構造解析結果の累積比率}\label{fig09}\end{figure}次に,分割前であるP1と分割後であるP2の双方の実験設定において,後段処理への入力となる文字列のトークン数の分布を比較した.図~9は,(a)英語入力文,(b)日本語入力文,(c)中国語入力文のそれぞれについて,入力文の累積比率と文構造解析結果の累積比率をそれぞれ表した図である.なお,日英翻訳と日中翻訳では入力日本語文に対して同じ分割結果が得られる.例えば(a)英語入力文では,80トークンを超える長さの入力文が,分割前では全体の31{\%}を占めていたのに対して,分割後では全体の3{\%}と大幅に減少している.上述の文長毎の解析精度と併せて考えると,分割によって入力文が高精度に解析される可能性が大幅に高くなったことがわかる.\begin{table}[b]\caption{入力文および構造解析後の構造部品数}\label{tab06}\input{02table06.txt}\end{table}\begin{table}[b]\caption{文構造解析の成功数・失敗数(100文あたり)}\label{tab07}\input{02table07.txt}\end{table}なお参考情報として,表~6に,入力文数と文構造解析によって得られた構造部品の数を載せている.言語によって出現する構造部品の分布は異なるものの,いずれの言語でも入力文1,000文に対して4,000個前後の構造部品が得られており,1入力文が平均して4構造部品に分割されていることがわかる.また,表~7には,入力文100文に対する文構造解析の成功および失敗数を言語毎に載せている.英語と中国語の成功率が高いのは,これらの言語における請求項の記述の定型性の高さが要因にあると思われる.機械翻訳の精度評価では,日本語を原言語とした言語対においても,英語や中国語を原言語としたときと同等の翻訳精度が得られていることから,文構造解析の失敗は影響の少ないものが多いと考えられる.\subsubsection{言語方向による傾向}実験では,提案手法によって英日・日英・中日・日中すべての翻訳方向においてRIBES値が25ポイント以上と大幅に向上している.これは,英日・日英・中日・日中のすべての翻訳方向において構造部品の並べ替えが必要であるが,提案手法によって構造部品が適切に並べ替えられた結果,長距離の並びの適切さを反映するRIBES値に表れたものと考えられる.一方,BLEU値の向上は,中日・日中で1.5ポイント程度と十分に大きな値が得られたが,英日・日英では5ポイント程度と極めて大きな向上となった.各構造部品の内部では事前並べ替えが行われるが,中日と日中翻訳では動詞の移動が中心であるのに対して,英日と日英翻訳では動詞の移動に加えて修飾方向の移動も関わるため,事前並べ替えの難易度はより高い.このため,英日と日英翻訳において,文短縮による事前並べ替えの効果が大きく表れたものと考えられる.
\section{おわりに}
本論文では,英日・日英・中日・日中の特許請求項翻訳において,サブ言語に特有の文構造を,原言語側から目標言語側に変換するための手法について述べた.我々の手法では,これらの品質向上を,非常に少数の同期文脈自由文法規則を用いて実現した.評価実験を行ったところ,文構造変換と事前並べ替えの組み合わせを用いた場合に,英日・日英・中日・日中の4方向の翻訳においてRIBES値で25ポイントという大幅な訳質向上が見られた.これに加えてBLEU値では,英日・日中の翻訳で5ポイント程度,中日・日中の翻訳で1.5ポイントの大幅な向上が見られた.本手法により,特許請求項翻訳の翻訳品質を,特許明細書中の他の部分の翻訳品質と同水準に引き上げることができた.今後の研究では,特許請求項の中でも特に長文で複雑な,独立請求項文の翻訳に注力したい.\acknowledgment本論文は,国際会議TheMachineTranslationSummitXVで発表した論文に基づいて日本語で書き直し,説明や評価を追加したものである(Fuji,Fujita,Utiyama,Sumita,andMatsumoto2015).\begin{thebibliography}{}\itemBuchmann,B.,Warwick,S.,andShann,P.(1984).``DesignofaMachineTranslationSystemforaSublanguage.''In\textit{Proceedingsofthe9thInternationalConferenceonComputationalLinguistics},pp.334--337.\itemBui,T.H.,Nguyen,M.,L.,andShimazu,A.(2012).``DivideandTranslateLegalTextSentencebyUsingitsLogicalStructure.''In\textit{Proceedingsof7thInternationalConferenceonKnowledge,InformationandCreativitySupportSystems},pp.18--23.\itemCai,J.,Utiyama,M.,Sumita,E.,andZhang,Y.(2014).``Dependency-basedPre-orderingforChinese-EnglishMachineTranslation.''In\textit{Proceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics},pp.155--160.\itemCherry,C.andFoster,G.(2012).``BatchTuningStrategiesforStatisticalMachineTranslation.''In\textit{Proceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},pp.427--436.\itemChiang,D.(2005).``AHierarchicalPhrase-BasedModelforStatisticalMachineTranslation.''In\textit{Proceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},pp.263--270.\itemCollins,M.,Koehn,P.,andKucerova,I.(2005).``ClauseRestructuringforStatisticalMachineTranslation.''In\textit{Proceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},pp.531--540.\itemdeGispert,A.,Iglesias,G.,andByrne,B.(2015).``FastandAccuratePreorderingforSMTusingNeuralNetworks.''In\textit{ProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics-HumanLanguageTechnologies},pp.1012--1017.\itemFuji,M.,Fujita,A.,Utiyama,M.,Sumita,E.,andMatsumoto,Y.(2015).``PatentClaimTranslationbasedonSublanguage-specificSentenceStructure.''In\textit{ProceedingsoftheMachineTranslationSummitXV},pp.1--16.\itemGoto,I.,Lu,B.,Chow,K.P.,Sumita,E.,andTsou,B.K.(2011).``OverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.''In\textit{Proceedingsofthe9thNIITestCollectionforInformationResources(NTCIR)Conference},pp.559--578.\itemGoto,I.,Utiyama,M.,Sumita,E.,Kurohashi,S.(2015).``PreorderingusingaTarget-LanguageParserviaCross-LanguageSyntacticProjectionforStatisticalMachineTranslation.''In\textit{ACMTransactionsonAsianandLow-ResourceLanguageInformationProcessing},Vol.14,No.3,Article13,pp.1--23.\itemHajlaoui,N.andPopescu-Belis,A.(2012).``TranslatingEnglishDiscourseConnectivesintoArabic:ACorpus-basedAnalysisandanEvaluationMetric.''In\textit{ProceedingsoftheWorkshoponComputationalApagesroachestoArabicScript-basedLanguages},pp.1--8.\itemHeafield,K.,Pouzyrevsky,I.,Clark,J.H.,Koehn,P.(2013).``ScalableModifiedKneser-NeyLanguageModelEstimation.''In\textit{Proceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.13--21.\itemHoshino,S.,Miyao,Y.,Sudoh,K.,Hayashi,K.,andNagata,M.(2015).``DiscriminativePreorderingMeetsKendall's$\tau$Maximization.''In\textit{Proceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},pp.139--144.\itemHoshino,S.,Miyao,Y.,Sudoh,K.,andNagata,M.(2013).``Two-StagePre-orderingforJapanese-to-EnglishStatisticalMachineTranslation.''In\textit{ProceedingsoftheInternationalJointConferenceonNaturalLanguageProcessing},pp.1062--1066.\item池原悟,阿部さつき,徳久雅人,村上仁一(2004).非線形な表現構造に着目した日英文型パターン化.情報処理学会研究報告2004-NL-160(8),pp.49--56.\itemIsozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,Tsukada,H.(2010a).``AutomaticEvaluationofTranslationQualityforDistantLanguagePairs.''In\textit{Proceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},pp.944--952.\itemIsozaki,H.,Sudoh,K.,Tsukada,H.,andDuh,K.(2010b).``HeadFinalization:ASimpleReorderingRuleforSOVLanguages.''In\textit{ProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},pp.244--251.\itemJehl,L.,deGispert,A.,Hopkins,M.,andByrne,W.(2014).``Source-sidePreorderingforTranslationusingLogisticRegressionandDepth-firstBranch-and-BoundSearch.''In\textit{Proceedingsofthe14thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},pp.239--248.\itemJin,Y.andLiu,Z.(2010).``ImprovingChinese-EnglishPatentMachineTranslationUsingSentenceSegmentation.''In\textit{Proceedings2010InternationalConferenceonNaturalLanguageProcessingandKnowledgeEngineering},pp.1--6.\itemJoty,S.,Carenini,G.,Ng,R.,andMehdad,Y.(2013).``CombiningIntra-andMulti-sententialRhetoricalParsingforDocument-levelDiscourseAnalysis.''In\textit{Proceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.486--496.\itemJunczys-Dowmunt,M.andSza\l,A.(2010).``SyMGiza$++$:AToolforParallelComputationofSymmetrizedWordAlignmentModels.''In\textit{ProceedingsoftheInternationalMulticonferenceonComputerScienceandInformationTechnology},pp.397--401.\itemKatz-Brown,J.andCollins,M.(2008).``SyntacticReorderinginPreprocessingforJapanese-EnglishTranslation:MITSystemDescriptionforNTCIR-7PatentTranslationTask.''In\textit{ProceedingsoftheNTCIR-7WorkshopMeeting},pp.409--414.\item金淵培,江原暉将(1994).日英機械翻訳のための日本語長文自動短文分割と主語の補完.情報処理学会論文誌,\textbf{35}(6),pp.1018--1028.\itemKoehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,Herbst,E.(2007).``Moses:OpenSourceToolkitforStatisticalMachineTranslation.''In\textit{ProceedingsoftheAssociationforComputationalLinguisticsDemoandPosterSessions},pp.177--180.\itemKoehn,P.,Och,F.J.,andMarcu,D.(2003).``StatisticalPhrase-BasedTranslation.''In\textit{Proceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology},pp.48--54.\itemKurohashi,S.andNagao,M.(1994).``AutomaticDetectionofDiscourseStructurebyCheckingSurfaceInformationinSentences.''In\textit{Proceedingsofthe15thInternationalConferenceonComputationalLinguistics},pp.1123--1127.\itemLerner,U.andPetrov,S.(2013).``Source-SideClassifierPreorderingforMachineTranslation.''In\textit{Proceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing}.\itemLuckhardt,H.D.(1991).``SublanguagesinMachineTranslation.''In\textit{Proceedingsofthe5thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},pp.306--308.\itemMarcu,D.,Carlson,L.,andWatanabe,M.(2000).``TheAutomaticTranslationofDiscourseStructures.''In\textit{Proceedingsofthe1stNorthAmericanChapteroftheAssociationforComputationalLinguisticsConference},pp.9--17.\itemMellebeek,B.,Owczarzak,K.,Groves,D.,VanGenabith,J.,andWay,A.(2006).``ASyntacticSkeletonforStatisticalMachineTranslation.''In\textit{Proceedingsofthe11thConferenceoftheEuropeanAssociationforMachineTranslation},pp.195--202.\itemMeyer,T.,Popescu-Belis,A.,Hajlaoui,N.,andGesmundo,A.(2012).``MachineTranslationofLabeledDiscourseConnectives.''In\textit{Proceedingsofthe10thBiennialConferenceoftheAssociationforMachineTranslationintheAmericas},10pages.\itemMeyer,T.,Popescu-Belis,A.,Zufferey,S.,andCartoni,B.(2011).``MultilingualAnnotationandDisambiguationofDiscourseConnectivesforMachineTranslation.''In\textit{Proceedingsof12thSIGdialMeetingonDiscourseandDialogue},pp.194--203.\itemMiltsakaki,E.,Dinesh,N.,Prasad,R.,Joshi,A.,andWebber,B.(2005).``ExperimentsonSenseAnnotationsandSenseDisambiguationofDiscourseConnectives.''In\textit{Proceedingsofthe4thWorkshoponTreebanksandLinguisticTheories}.\itemMurakami,J.,Fujiwara,I.,andTokuhisa,M.(2013).``Pattern-BasedStatisticalMachineTranslationforNTCIR-10PatentMT.''In\textit{Proceedingsofthe10thNTCIRConference},pp.350--355.\itemMurakami,J.,Tokuhisa,M.,Ikehara,S.(2009).``StatisticalMachineTranslationaddingPattern-basedMachineTranslationinChinese-EnglishTranslation.''In\textit{Proceedingsof6thInternationalWorkshoponSpokenLanguageTranslation},pp.107--112.\item中澤敏明,黒橋禎夫(2008).自動学習された機能語の翻訳パターンを用いた用例ベース機械翻訳.言語処理学会第14回年次大会発表論文集,pp.37--40.\item西村拓哉,村上仁一,徳久雅人,池原悟(2010).文単位のパターンを用いた統計翻訳.言語処理学会第16回年次大会発表論文集,pp.676--679.\itemPapineni,K.,Roukos,S.,Ward,T.,andZhu,W.J.(2002).``BLEU:AMethodforAutomaticEvaluationofMachineTranslation.''In\textit{Proceedingsofthe40thAnnualMeetingofthe\mbox{Association}forComputationalLinguistics},pp.311--318.\itemPetrov,S.,Barrett,L.,Thibaux,R.,andKlein,D.(2006).``LearningAccurate,Compact,andInterpretableTreeAnnotation.''In\textit{Proceedingsofthe21stInternationalConferenceon\mbox{Computational}Linguisticsand44thAnnualMeetingoftheAssociationforComputational\mbox{Linguistics}},pp.433--440.\itemPitler,E.andNenkova,A.(2009).``UsingSyntaxtoDisambiguateExplicitDiscourseConnectivesinText.''In\textit{ProceedingsoftheJointconferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing},ShortPapers,pp.13--16.\itemQuirk,C.,Menezes,A.,andCherry,C.(2005).``DependencyTreeletTranslation:SyntacticallyInformedPhrasalSMT.''In\textit{Proceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},pp.271--279.\itemRoh,Y.H.,Lee,K.Y.,Choi,S.K.,Kwon,O.W.,andKim,Y.G.(2008).``RecognizingCoordi\-nateStructuresforMachineTranslationofEnglishPatentDocuments.''In\textit{Proceedingsofthe22ndPacificAsiaConferenceonLanguage,InformationandComputation},pp.460--466.\item坂田純,徳久雅人,村上仁一(2014),意味的等価変換方式による句レベルパターン翻訳方式の調査.言語処理学会第18回年次大会発表論文集,pp.1--20.\itemShinmori,A.,Okumura,M.,Marukawa,Y.,Iwayama,M.(2003).``PatentClaimProcessingforReadability---StructureAnalysisandTermExplanation---.''In\textit{ProceedingsoftheWorkshoponPatentCorpusProcessing,AssociationforComputationalLinguistics},pp.56--65.\itemSudoh,K.,Duh,K.,Tsukada,H.,Hirao,T.,andNagata,M.(2010).``DivideandTranslate:ImprovingLongDistanceReorderinginStatisticalMachineTranslation.''In\textit{ProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},pp.418--427.\itemSudoh,K.,Suzuki,J.,Tsukada,H.,Nagata,M.,Hoshino,S.,andMiyao,Y.(2013).``NTT-NIIStatisticalMachineTranslationforNTCIR-10PatentMT.''In\textit{Proceedingsof9thNTCIRConference2013},pp.294--300.\itemTu,M.,Zhou,Y.,andZong,C.(2013).``ANovelTranslationFrameworkBasedonRhetoricalStructureTheory.''In\textit{Proceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.370--374.\itemUtiyama,M.andIsahara,H.(2007).``AJapanese-EnglishPatentParallelCorpus.''In\textit{Proceedingsofthe11thMachineTranslationSummit},pp.475--482.\itemTheWorldIntellectualPropertyOrganization(WIPO)(2014).``WIPOPatentDraftingManual.''In\textit{IPAssetsManagementSeries}.\itemWu,D.andFung,P.(2009).``SemanticRolesforSMT:AHybridTwo-PassModel.''In\textit{ProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},CompanionVolume:ShortPapers,pp.13--16.\itemXia,F.andMcCord,M.(2004).``ImprovingAStatisticalMTSystemwithAutomaticallyLearnedRewritePatterns.''In\textit{Proceedingsofthe20thInternationalConferenceonComputationalLinguistics},pp.508--514.\itemXiao,T.,Zhu,J.,andZhang,C.(2014).``AHybridApproachtoSkeleton-basedTranslation.''In\textit{Proceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics},pp.563--568.\itemXiong,H.,Xu,W.,Mi,H.,Liu,Y.,andLiu,Q.(2009).``Sub-SentenceDivisionforTreebasedMachineTranslation.''In\textit{ProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsand4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessingConferenceShortPapers},pp.137--140.\itemYang,N.,Li,M.,Zhang,D.andYu,N.(2012).``ARanking-basedApproachtoWordReorderingforStatisticalMachineTranslation.''In\textit{Proceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.912--920.\itemZhang,X.andXue,N.(2012).``ExtendingandScalinguptheChineseTreebankAnnotation.''In\textit{Proceedingsofthe2ndCIPS-SIGHANJointConferenceonChineseLanguageProcessing},pp.27--34.\end{thebibliography}\appendix
\section{実験に用いたSCFG規則}
\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f10.eps}\end{center}\caption{日英翻訳のためのSCFG規則一覧}\label{fig10}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f11.eps}\end{center}\caption{中日翻訳のためのSCFG規則一覧}\label{fig11}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f12.eps}\end{center}\caption{日中翻訳のためのSCFG規則一覧}\label{fig12}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f13.eps}\end{center}\caption{日英翻訳用SCFG規則R$_{\mathrm{je2}}$に対応する日英対訳例}\label{fig13}\end{figure}本研究の実験で用いた,日英翻訳用,中日翻訳用,日中翻訳用のSCFG規則一覧を図~10,図~11,図~12に示す.なお,英日翻訳用のSCFG規則一覧は図5に掲載している.図~13には,日英翻訳用SCFG規則R$_{\mathrm{je}2}$に対応する日英対訳例を掲載している.この例では,入力日本語文で文頭と文末に重複して現れるPREAの構造部品が,対応する英語文では一つのPREAとなっているような,典型的な特許請求項の対訳文を示している.\vspace{2\Cvs}\begin{biography}\bioauthor{富士秀}{1987年英国王立ロンドン大学キングス校工学部卒業.1988年より株式会社富士通研究所研究員,シニアリサーチャー.2014年より国立研究開発法人情報通信研究機構に出向中.2015年より奈良先端科学技術大学院大学博士後期課程在学中.機械翻訳,多言語処理の研究に従事.情報処理学会,言語処理学会,AAMT,日本言語類型論学会等各会員.}\bioauthor{藤田篤}{2000年九州工業大学情報工学部卒業.2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).現在,国立研究開発法人情報通信研究機構主任研究員.自然言語処理,主に言い換え表現の生成と認識,機械翻訳の研究に従事.情報処理学会,言語処理学会等各会員.}\bioauthor{内山将夫}{1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,国立研究開発法人情報通信研究機構主任研究員.主な研究分野は機械翻訳.情報処理学会,言語処理学会等各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年((株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員,主幹研究員,室長.2007年〜国立研究開発法人情報通信研究機構(NICT),現在,先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V21N02-03
|
\section{はじめに}
\label{sc:introduction}近年,Webを情報源として,人間の情報分析や情報信憑性判断などの支援を目的としたシステム開発に関する研究が行われている\cite{Akamine2009,Akamine2010,Ennals2010,Finn2001,Kaneko2009,Miyazaki2009,Murakami2010,Shibuki2010,Shibuki2013,Kato2010,Kawai2011,Matsumoto2009,Nakano2011,Fujii2008,Yamamoto2010}.このようなシステムの開発においては,そもそも,どのような情報を提示することが効果的な支援につながるか,また,そのためにどのような処理を行う必要があるか,といった点から検討しなくてはならないことが多く,そういった検討に必要な情報が付与されたコーパスが必要となる.加えて,開発されたシステムの性能を評価するための正解情報が付与されたコーパスも必要となる.そういった情報が付与されたコーパスは,一般に利用可能でないことが多いため,開発の基礎となるコーパスを構築する研究が行われている\cite{Nakano2010,Ptaszynski2012,Radev2000,Wiebe2005,Shibuki2009,Shibuki2011b,Matsuyoshi2010,Nakano2008,Iida2010,Hashimoto2011}.我々は,これまで,「ディーゼル車は環境に良い」といった,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く言明と呼ぶこととする.}({\bf着目言明})に対して,その信憑性判断を支援するために有用なテキスト群をWeb文書から探し,要約・整理して提示する研究を行ってきており,その基礎となるコーパスを3年間で延べ4回\footnote{初年度で2回,次年度以降は年1回のペースで構築した.}構築している.研究当初,我々は,情報信憑性判断支援のための要約として,言明間の論理的関係の全体像を把握するのに有用な,論理的関係の要所に位置する言明を重要言明とみなし,それらを優先的に提示することによって情報量を抑える,サーベイレポート的な要約を考えて{いた.}この考え方の下で,着目言明に関連する重要言明をWeb文書集合から網羅するようなアノテーションを第1回と第2回のコーパス構築において行った.こうして構築されたコーパスを分析した結果,一見すると互いに対立しているようにみえる二つの言明の組が,実際には対立しておらず,ある条件や状況の下で両立可能となっている場合({\bf疑似対立})があることが分かった.また,疑似対立の場合に両立可能となる状況を第三者視点から簡潔に説明している記述が少数ではあるがWeb文書中に存在していることも分かり,そのような記述を利用者に提示することができれば,利用者の信憑性判断支援に役立つと考えた.以上の経緯から,我々は,二つの言明の組が疑似対立である場合に,第三者視点から両立可能となる状況を簡潔に説明している記述をWeb文書から見つける要約を{\bf調停要約}として提案した.以後,調停要約を信憑性判断支援のための要約の中心に位置付けて,第3回と第4回のコーパス構築を行い,調停要約を自動生成する手法を開発した.{我々は},サーベイレポート要約と調停要約を,それぞれ情報信憑性判断支援のための要約の一つとして位置づけている.情報信憑性判断支援のための要約といった比較的ユニークな研究課題に新しく取り組むに当たって,構築されるコーパスには,手法のアルゴリズム等を検討するための分析用コーパスとしての役割と,手法の性能を測るための評価用コーパスとしての役割の両方が要求される.したがって,本論文では,この要求に応えるタグセットとタグ付与の方法について述べる.また,要約対象は,Web検索等により得られた任意のWeb文書集合であるため,アノテーションの対象となる文書集合をどのように決定するかという問題が生じる.この問題に対して,我々が採った方法についても述べる.また,情報信憑性判断のための要約といった同一の研究課題で,作業内容の改良を重ねながら4回のコーパス構築を行った事例は少なく,そういった希少な事例としても報告したい.本論文では,4回にわたって構築したコーパスを,着目言明に関連する重要言明を網羅することを目的として構築された,第1回と第2回の{\bfサーベイレポートコーパス}と,調停要約に焦点を当てて構築された,第3回と第4回の{\bf調停要約コーパス}に大きく分けて説明する.また,それぞれのコーパスを構築する際に直面した課題について,我々がどのように対応したかを述べ,コーパス構築を通して得られた知見を報告する.本論文の構成は以下の通りである.\ref{sc:summary4ic}節では,コーパス構築の目的である,情報信憑性判断支援のための要約における我々の基本的な考えを述べる.\ref{sc:survey_report}節では,サーベイレポートコーパスの構築における背景を述べた後,どのような課題が存在し,我々がどのように対応しようとしたかを述べる.また,実際のコーパス構築手順とアノテーションに用いたタグセットを述べ,構築されたサーベイレポートコーパスを分析した結果について報告し,考察を行う.\ref{sc:mediatory_summary}節では,調停要約コーパスについて\ref{sc:survey_report}節と同様の記述をする.\ref{sc:related_work}節では,コーパス構築の関連研究について述べ,情報信憑性判断支援のための要約に関するコーパス構築の位置付けを明確にする.\ref{sc:conclusion}節はまとめである.
\section{情報信憑性判断支援のための要約}
\label{sc:summary4ic}Web上に存在する情報の中には,出所が不確かな情報や利用者に不利益をもたらす情報などが含まれており,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている.{情報}信憑性の判断を対象とした研究には,システムが信憑性を自動的に検証することと,利用者の信憑性判断が容易になるようシステムが支援することの2通りのアプローチが考えられる.しかしながら,情報の内容の真偽や正確性を自動的に検証することは困難である上に,その情報が意見などの主観を述べるものである場合には,利用者により考え方や受け止め方が異なることから,その真偽や正確性を検証することはさらに困難なものとなる.そのため,情報の信憑性は,最終的に個々の情報利用者が判断しなければなら{ない}と考えている.したがって,情報の信憑性を自動的に検証する技術に優先して,利用者による信憑性の判断を支援する技術の実現を目指している.情報信憑性判断を支援する技術には,着目言明に関する意見など判断の参考となる情報を抽出する技術\shortcite{Akamine2009,Akamine2010,Miyazaki2010},対立や根拠など抽出された情報間の関係を解析する技術\shortcite{Murakami2010},抽出・解析された情報を重要性の高い順に提示するといった要約・整理に関する技術\shortcite{Kaneko2009,Shibuki2010,Shibuki2013}などが存在する.我々は,この中の要約・整理に関する研究に取り組んでいる.我々が目的とする,情報信憑性判断支援のための要約は,Web文書を対象とした複数文書要約の一種である.しかしながら,従来の新聞記事等を対象とした複数文書要約\shortcite{Yoshioka2004}と比較して以下のような特徴がある.従来の複数文書要約では,どの情報も同等に信じられるとしており,言明の間にも矛盾はないとしていた.一方で,情報信憑性判断においては,原文書の情報が全て信じられるとは限らず,どの言明が本当に正しいのか分からない場合がある.その結果,言明間に矛盾が存在しうることが考えられ,サーベイレポートにおいては,利用者が根拠関係や対立関係が理解できるように,調停要約においては,疑似対立である二言明が両立可能であることを理解できるように要約する必要がある.また,複数文書要約において情報の発信者は複数存在するのが普通であるが,言明間の矛盾や対立関係を明らかにするためには情報発信者による情報の区分が重要となる.このように,情報信憑性判断支援のための要約は今まで広く行われてきた複数文書要約と異なる部分があり,アノテーションにおいても上記の点を考慮して行う必要がある.
\section{サーベイレポートコーパスの構築}
\label{sc:survey_report}\subsection{サーベイレポートコーパス構築の背景}\label{ssc:survey_report_background}研究当初の段階では,情報信憑性判断支援に資する要約とは何かということが漠然としか定まっておらず,研究の大部分が手探り状態であった.それゆえ,人間が情報信憑性判断支援のための要約を作成する際に,どのような情報を重視して要約を作成するのか,また,どのような知識が要約の作成に必要だったのかといった点から検討する必要があり,作成結果となる要約だけではなく,人間の要約作成過程を可能な限り詳細にトレースできるようなアノテーションを行う必要があった.また,システムが自動生成した情報信憑性判断支援のための要約を自動的に評価するために,正解となる参照要約を準備することもコーパス構築の目的のひとつであった.自動要約システムの理想的な正解は人間が自由記述形式で作成した要約そのものであるが,人間と違って機械が最初から文章を書き起こすことは困難である.それゆえ,要約対象文書中の記述を抜粋して要約するTextRank\shortcite{Mihalcea2004}のようなアルゴリズムを用いることを想定していた.そこで,人間が作成した要約を要約対象文書中の記述と関連付けておくことで,機械が要約を作成する際の正解の一部として利用できるようなアノテーションを行う必要があった.図\ref{fg:survey_report}に,{サーベイ}レポートの例を示す.この例では,着目言明として「朝,バナナを食べるだけでダイエットできる」が入力された場合を想定している.{我々は},着目言明の信憑性が問われる主な原因として,着目言明の内容を否定するような言明の存在があると考え,Web上で矛盾や対立などが存在する言明を論点と定義する.サーベイレポートは,{\bf利用者が{論点}を把握するため{の}要約}と{\bf利用者が{論点}を判断するのに役立つ要約}の2つに大きく分かれて{いる.}前者はさらに,{着目言明の関連情報である}{\bf関連キーワード}と{\bf背景}となる記述,{\bf各論点の主張}を理解するための記述に分かれている.関連キーワードは,着目言明と関連するWeb文書集合に現れる主たる語句,背景は着目言明の内容がWeb上で大きく話題となった日時と事件を列挙したものである.各論点の主張では,着目言明の内容を肯定するWeb上の言明と,着目言明の内容を否定するような言明({\bf対立言明})を根拠や反論の有無とともに示している.{ここで},着目言明や対立言明の根拠や反論は一般に複数あることに注意されたい.図\ref{fg:survey_report}の例では,着目言明の根拠として「酵素」と「食物繊維」の効果が挙げられている.これに対し,「バナナの酵素が代謝を高めることはない」という反論は,酵素の効果を否定しているだけであり,食物繊維の効果に対する反論としては適切ではない.反論等の信憑性判断は,適切な対応関係にある根拠等を明確にした上で行われるべきである.したがって,着目言明側と対立言明側の主張の対応関係が利用者に分かるように整理することが,利用者が論点を判断する上で役立つと考えられる.利用者が{論点}を判断するのに役立つ要約では,反論などの対立関係にある言明の組をWeb文書からパッセージ\footnote{本論文では,連続した文のまとまりをパッセージと呼ぶ.}単位で抜粋し,{\bf情報発信者}とともに提示している.本論文では,情報発信者を言明を発信している個人や組織と定義する.また,提示されたパッセージや情報発信者を元に,利用者にどのような点を判断してもらいたいかが,{言明}の組の上下に注釈として記されている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f1.eps}\end{center}\caption{サーベイレポートの例}\label{fg:survey_report}\end{figure}図\ref{fg:survey_report}に示すようなサーベイレポートをシステムが生成するにあたって,根拠や対立等の言明間の関係の把握に関しては言論マップ\shortcite{Murakami2010}の出力を,話題となった日時と事件に関しては時系列分析\shortcite{Kawai2011}の出力をそれぞれ利用することを想定していた.それゆえ,サーベイレポートコーパスの構築は,着目言明に関連する言明の抽出,情報発信者の抽出,利用者が{論点}を判断するのに役立つ要約の作成を作業の中心とすることとした.\subsection{サーベイレポートコーパス構築における課題}\label{ssc:survey_report_problems}\subsubsection{着目言明の決定}まず,コーパスに収録されるサーベイレポートのトピックとなる着目言明をどのように決定するかを考える.本研究ではWeb文書を要約対象とするため,着目言明に関連するWeb文書が存在しない場合,サーベイレポートを生成することができない.そのような場合,自動要約システムの挙動としては,関連するWeb文書が存在しなかったことを示せば良いが,開発の基礎となるコーパスを構築するという点においては,十分な分析を行える量のサーベイレポートを確保する必要がある.一方で,サーベイレポートを作成しやすい着目言明のみでコーパスを構築すると,紋切り型のサーベイレポートになり,人間の要約作成過程を観察する際の多様性が乏しくなる恐れがある.したがって,予め着目言明の候補を比較的多く作成し,着目言明に関連するWeb文書がどの程度存在しているのか,また,論点になりそうな言明はどの程度存在しているのか,といった調査をWeb検索エンジンを用いて行い,その結果を元に,多様性をもったサーベイレポートが作成できそうな着目言明を選別することとした.\subsubsection{要約作成過程の観察}{ある}着目言明が与えられた際に,その信憑性の判断を支援するための要約を人間が作成する場合を考えると,まず,着目言明に関連する文書集合をWeb検索等により収集した後,収集した文書に目を通して,要約の作成に必要な記述({\bf重要記述})がありそうな文書を選別し,最後に,文書中の重要記述を中心に要約を作成すると考えられる.言い換えると,収集した文書から要約に必要な記述を得るためには,文書の収集や選別,重要記述の抽出など何度かの絞り込みを行っていると考えられる.しかしながら,その絞り込みの方法の詳細は不明であるため,人間が実際に要約を作成する際に行う絞り込みの過程を観察できるようにする必要がある.本来であれば,如何なる制約もない自然な流れでの絞り込み過程を観察することが望ましいが,複数の人間による絞り込みの途中経過を比較することが困難になる.それゆえ,絞り込みの過程を幾つかの段階に分割し,各段階でアノテーションを行うこととした.こうすることで,各段階のアノテーション結果を参照することが可能になり,複数の人間が行う絞り込みの一致率を途中経過を含めて調査できるようになる.もしも,絞り込みの過程が作業者によって大きく異なるならば,重要だと考える基準が作業者によって大きく異なるということであり,安定した自動要約を実現するのが困難になると考えられる.作業者が絞り込みを適切に行うためには,着目言明に関する{\bf背景知識}や,さまざまな{\bf文書内の情報}が必要になると考えられる.本論文では,「背景知識」を要約対象文書以外からでも獲得できる知識,「文書内の情報」を要約対象文書中に実際に含まれる記述から獲得できる情報と定義する.着目言明に関する背景知識は,一般的には要約を作成する際に必須のものではないが,着目言明に関する問題点や,問題点に対する意見などの背景知識をもつことで,問題を判断するためにどのような情報を重要視すべきかを作業者が適切に判断できるようになる.また,サーベイレポートを読んだ人間が多角的に判断できるようにするためには,着目言明に関する文書内の情報を網羅的に提示する必要がある.どのような論点が存在するのかに関する背景知識を作業者が予めもっていれば,各論点における文書内の情報を見落とす可能性が小さくなると考えられる.したがって,背景知識が豊富な作業者であるほど,作成される要約の質が向上すると考えられる.しかしながら,事前に各作業者がもっている背景知識には差がある.それゆえ,要約の質を均一にするために,作業者が背景知識が獲得できるような作業段階を最初に設けることとした.{作業者}の労力軽減という観点からは,作業管理者等が事前に背景知識を調査しておき,それを作業者全員で共有するといった方法が考えられる.しかしながら,背景知識を共有することで,作成されるサーベイレポートや作成過程から多様性が失われる恐れがある.また,自ら調査して得た知識と他人から与えられた知識では理解の程度に差が生じ,その差が作業内容に影響を及ぼすことも考えられる.したがって,作業者間で背景知識の共有はせず,各作業者が自ら獲得するようにした.また,作業者が背景知識や文書内の情報をどのように獲得し,どの知識や情報を重視したかを観察できるような情報をアノテーションすることとした.\subsubsection{対象文書の決定}膨大なWeb文書の中から着目言明に関連する重要記述を抽出して整理する,情報信憑性判断支援のための要約は,情報検索などの情報アクセス技術の一種と捉えることができる.情報検索の分野において,利用者の情報要求と適合する文書を検索できたかどうかは,精度と再現率による検索有効性を用いて評価されるが,再現率を計算するためには,対象文書中の全適合文書数が必要となる.しかしながら,Web文書のように全数調査が不可能に近いサイズの対象文書である場合,網羅的に適合文書を調査することが困難である.この問題に対して,TREC\footnote{http://trec.nist.gov},NTCIR\footnote{http://research.nii.ac.jp/ntcir/index-ja.html},CLEF\footnote{http://www.clef-campaign.org}などの評価型ワークショップでは,プーリングによりテストコレクションを構築している\cite{Buckley2007}.プーリングとは,異なる複数の検索システムが同一の検索要求について検索を行い,その検索結果を集めて,正解文書の候補とする方法であるが,本研究のように初めて取り組む研究においては,該当するシステムが存在しないため,そのままプーリングの方法を用いることはできない.そこで,人間がシステムの代わりを務めることでプーリングに相当する結果を得られるようにした.すなわち,複数の作業者がそれぞれ着目言明に関連する文書集合を収集し,収集された文書集合をマージすることで対象文書の範囲を決定した.\subsubsection{参照要約の作成}情報信憑性判断支援のための要約を評価する上でのもう一つの問題は,参照要約をどのように作成するかという点である.要約を読んだ人間に分かりやすく伝えるには,どのような表現が適切かということを調査する必要があり,そのためには,自由記述形式で要約を作成することが望ましい.しかしながら,一般的な要約の自動評価手法であるROUGE\shortcite{Lin2003}は,N-gramの一致度により評価するため,表層的な表現の違いによる影響を受けやすい.\ref{ssc:survey_report_background}節で述べたように,我々は抜粋型の要約アルゴリズムを用いることを想定していたため,参照要約を自由記述形式とすると,表層的な表現の違いにより,不当に低く評価される恐れがあった.それゆえ,理想的な要約の表現を分析するための,自由記述形式で作成した要約({\bf自由記述要約})と,システムを評価するための,要約対象文書からの抽出物を主たる部品として作成した要約({\bf抜粋要約})の二種類の要約を作成することとした.\subsubsection{情報発信者の情報}最後に,サーベイレポートに提示すべき情報発信者の情報に関して考える.まず,匿名よりも実名の情報発信者の方が一般に信頼できると考えられるため,情報発信者の名称を提示すべきである.また,例えば,「ディーゼル車は環境に良い」という着目言明の場合,「自動車メーカー勤務の技術者」のような専門知識をもっているであろう情報発信者の方が信頼できると考えられるため,情報発信者の専門性を示す属性情報も提示すべきである.しかしながら,文書内に記述されていない情報をシステムが自動的に推測することは困難であるため,文書内の記述を抽出する形式で名称や属性情報を提示することとした.情報発信者の名称や属性情報に加えて,情報発信者の同一性の情報も言明の信憑性を判断する上で重要な情報である.例えば,ある言明が多くのWeb文書に存在していたとしても,その言明が同じ情報発信者({\bf同一発信者})によるものであった場合,多くの人々が支持する言明とみなすことはできない.したがって,仮に情報発信者の名称が異なっていても,Web文書のURLや記述のスタイルなどから同一発信者であることが推測できるのであれば,その情報を提示すべきである.それゆえ,個々の言明の情報発信者の名称と属性情報に加えて,同一発信者を識別できるようなアノテーションを行うこととした.ここで問題となるのは,アノテーションする情報発信者の単位である.情報発信者には,ウィキペディア\footnote{http://ja.wikipedia.org}や,2ちゃんねる\footnote{http://www.2ch.net}といった情報を発信した場所を示すWebページ単位の情報発信者と,掲示板における投稿やコメントごとの書き手を示す記事単位の情報発信者が存在する.出版に例えるならば,前者は{\bf発行者としての発信者},後者は{\bf著者としての発信者}とみなすことができる.どちらの情報発信者も,信憑性を判断する上で重要な情報であるが,サーベイレポートには,より詳細な単位である著者としての発信者を優先して提示すべきであると考えた.また,政府の発表や会社の広報など,発信される情報の中には,発信者個人の情報よりも企業や団体などの所属する組織の情報の方が重視されるものがあり,その観点から{\bf個人発信者}と{\bf組織発信者}に区分する必要がある.一例を挙げると,「A大学の学生である山田太郎が2ちゃんねるに書いた記述」の情報発信者は,表\ref{tb:exam_information_sender}に示す情報になる.したがって,これらの情報に関するアノテーションを行うこととした.なお,引用が存在する記述,例えば,「チョムスキーは『文法の構造』の中で『無色の緑の概念が激しく眠る』と書いた」という「2ちゃんねるでの山田太郎の記述」の場合でも,以下の理由から「2ちゃんねる」を発行者としての発信者,「山田太郎」を著者としての発信者とすることとした.『無色の緑の概念が激しく眠る』といった引用記述の情報発信者を「チョムスキー」や『文法の構造』とするためには,「チョムスキー」や『文法の構造』という情報発信者の存在や,実際に当該の記述が書かれているかといった点を確認する必要がある.こういった確認を行うためにはWeb以外の情報源にあたる必要がある上に,そもそも「隣のBさんが言った」などの現実的に確認が不可能な引用記述も存在する.一方で,引用という形式をとっていても,当該の記述を「2ちゃんねる」に「山田太郎」が書いたことは確認できる事実である.それゆえ,引用された記述の情報発信者に関しても,引用している記述の情報発信者とすることとした.\begin{table}[t]\caption{情報発信者の情報の例}\label{tb:exam_information_sender}\input{ca03table01.txt}\end{table}\subsubsection{アノテーションの質の管理}これまで述べてきたように,サーベイレポートコーパスを構築する上でアノテーションすべき項目は多岐に及ぶ.それゆえ,作業者の負担が多大なものとなり,作業の質の低下やヒューマンエラーなどを誘発することが予想された.そこで,{図}\ref{fg:SR_tool}に示す専用のアノテーションツールを開発し利用することで,作業者の負担を軽減し,質の低下やヒューマンエラーなどの問題を可能な限り回避することとした.アノテーションツールは,殆どの作業をマウス操作で行えるように設計されており,作業者が直接XMLタグ等を記述しなくとも良いようになっている.例えば,図\ref{fg:SR_tool}に示すツールの下部には,注釈対象となるWeb文書のテキストが表示されており,重要記述や情報発信者の名称の抽出作業は,作業者が抽出したい範囲のテキストをクリックすることで行うことができる.また,抜粋要約の作成作業は,抽出したテキスト群から作業者が部品となるテキストを選択し,加工して組み合わせることで行えるようになっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f2.eps}\end{center}\caption{サーベイレポート用アノテーションツール}\label{fg:SR_tool}\end{figure}{作業者}への指示は,作業を始める前に,文書として一人ひとりに配布し,口頭での説明を行った.また,事前に予想できなかった問題等が作業中に生じた場合には,問題の内容を可能な限り具体的にメモに記録すると同時に,逐次,作業管理者に報告して指示を仰ぐよう指示した.作業管理者は,報告された問題の解決方法を示すとともに,Wikiやメーリングリスト等を用いて,全ての作業者で問題と解決方法を共有できるようにした.ただし,作業管理者の出張等,指示を仰ぐことが困難な状況で,作業が長時間中断されてしまう場合には,生じた問題に対してどのように対処や解決したかを可能な限り具体的に記録することで作業を進めることを許可した.\subsection{サーベイレポートコーパス構築の手順}\label{ssc:survey_report_step}サーベイレポートコーパスの構築は,第1回と第2回のコーパス構築で行っているが,手順等が洗練された第2回のコーパス構築を中心に説明する.表\ref{tb:survey_report_task}に第2回のコーパス構築の手順を示す.3.2.2節で述べたように,絞り込みの各段階での結果を比較できるように,作業の流れはT1.からT6.へ一方向に進むものとし,作業管理者\footnote{作業管理者は第一著者が務めた.}が特別に認めた場合\footnote{アノテーションツールの不具合によるデータの消失が該当する.}を除き,前の段階の作業に戻ってはならないよう指示をした.\begin{table}[t]\caption{サーベイレポートコーパス構築作業の流れ}\label{tb:survey_report_task}\input{ca03table02.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f3.eps}\end{center}\caption{サーベイレポートコーパスにおけるWeb文書の例(一部)}\label{fg:SR_webdoc}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f4.eps}\end{center}\caption{サーベイレポートコーパスにおける抜粋要約の例(一部)}\label{fg:SR_report}\end{figure}サーベイレポートコーパスには,着目言明,Web文書集合,自由記述要約,抜粋要約,背景知識,検索クエリ,作業の疑問点等のメモが含まれている.各Web文書と抜粋要約には,作業結果を示すXML形式のタグが埋め込まれている.{Web文書}と抜粋要約のXMLタグの一覧と文書型定義を付録Aに示す.3.2.6節で述べたように,これらのタグは,専用のアノテーションツールを通して付与される.{XMLタグ}が付与されたWeb文書と抜粋要約の例を,図\ref{fg:SR_webdoc}と図\ref{fg:SR_report}にそれぞれ示す.実際の文書には,もっと多数のタグが付与されているが,紙面の都合により,各タグの代表的な例のみを示している.以下,作業の流れに従って説明する.\subsubsection{背景知識の獲得}作業者は最初に,T1.において,与えられた着目言明に関して,3.2.2節で述べた背景知識の獲得を行う.すなわち,各作業者は着目言明に関連してどのような論点が存在し,各論点においてどのような意見や根拠が存在しているかを調査する.この調査の結果は,{作業者}ごとに把握した論点を自由記述形式で記録する.これにより,後の分析において,最終的に作成されたサーベイレポートの内容と比較することで,T2.以降の作業において当初の論点からどのように変化したのか調査できるようになる.また,他の作業者が獲得した背景知識と比較することで,どの程度網羅的に論点を把握していたのか調査できるようになる.サーベイレポートコーパスに収録された背景知識{の例}として,「アスベストは危険性がない」という着目言明において,ある作業者が獲得した背景知識を表\ref{tb:exam_background}に示す.背景知識を獲得する情報源には,Web文書に限らず,新聞記事や雑誌などあらゆる媒体を許可した.サーベイレポートコーパスには背景知識自体も収録されている.\begin{table}[t]\caption{獲得された背景知識の例}\label{tb:exam_background}\input{ca03table03.txt}\end{table}\subsubsection{文書の収集}T2.では,作業者が実際にどのような文書を収集したかの情報を記録する.作業者の労力を軽減するために収集する文書数に制限を設ける一方で,ある程度の論点の多様性も保証したい.{一つの}クエリを用いて収集した場合,そのクエリが問う論点のみに偏った文書集合になる.そこで,異なる論点を問う複数のクエリを用いて文書集合を収集し,それらを1つの文書集合にマージすることで,多様な論点を含む文書集合を決定することとした.一般に,異なる論点を問うクエリで収集した文書集合同士であっても,共通の文書が存在する.そのため,マージした後の異なり文書数は,マージする前の文書集合の要素数の総和とはならない.そこで,文書の収集をT2-1.とT2-2.の二段階で行う.T2-1.で重要記述が含まれている文書集合が検索上位に来るようなクエリを調査し,T2-2.で多様な論点の重要記述が含まれている文書集合から順にマージしていくことにより,一定量の文書集合において論点の多様性を保証しようとした.T2-1.のクエリの調査には,検索エンジンTSUBAKI\cite{Shinzato2008}を利用し,少なくとも20種類以上のクエリを調査するよう指示した.重要記述を含む文書集合を絞り込むのに効果的なクエリが存在するか調査するために,着目言明の表現に囚われない自由な形式のクエリ\footnote{TSUBAKIは自然文検索とキーワード検索の両方が可能である.}を許可した.T2-2.では,クエリごとに上位100件のWeb文書を収集し,\pagebreak多様な重要記述が含まれている文書集合から順に500件以上になるまでマージするよう指示した.また,マージした文書集合を検索するのに用いたクエリには,検索に用いなかったクエリと区別できるよう記録し,サーベイレポートに含まれた論点と含まれなかった論点の分析ができるようにした.Web文書を識別するためにTSUBAKIの文書IDを利用し,{\sf$<$FileId$>$}の値としている.サーベイレポートコーパスには,T2.で調査に用いた検索クエリと収集されたWeb文書集合が収録されている.\subsubsection{重要記述の絞り込み}T3.とT4.では,T2.においてマージされた文書集合を対象に,3.2.2節で述べた重要記述の絞り込みの過程を記録する.T3.では文書単位での絞り込みの結果,T4.では文単位での絞り込みの結果をそれぞれ記録する.より詳細な過程を観察するためには,段落などの単位でも絞り込み,作業の段階数を増やすことも考えられるが,作業者の労力の観点から,二段階で記録することとした.また,文より小さい単位での絞り込みは,実際に要約を作成する段階にならないと分からないことも多いため,T4.の段階では文単位での絞り込みに留めた.絞り込みの際には,{たとえ}同一の表現を持つ文書や文であっても,異なる出典のものを網羅的に選別・抽出した.これにより,システムによる重要文書の選別や重要文の抽出などを評価する際の再現率の計算を可能にしている.T3.で選別された文書は{\sf$<$FileId$>$}の属性{\sfSelected}の値を1としており,選別されなかった文書は0としている.T4.で抽出された重要記述は{\sf$<$Passage$>$}で囲っており,属性{\sfPassageId}には文書ごとに1から通し番号を割り当てている.なお,T4.で抽出された重要記述は,アノテーションツールの内部で抽出元の文書と文書中の位置の情報を保持しており,T6.において抜粋要約を作成する際の部品となる.\subsubsection{情報発信者の抽出}T5.では,T4.で抽出された重要記述を含む文書集合を対象に,3.2.5節で述べた情報発信者に関する作業を行う.情報発信者の情報の内,同一発信者に関しては複数の文書における情報発信者を参照しなくてはならないのに対し,同一発信者以外の情報は文書内の記述を参照するだけで作業できる.それゆえ,各文書を参照して同一発信者以外の情報を抽出した後,抽出された情報発信者を参照して同一発信者と思われる情報発信者をグループ化するという流れで行った.作業者の負担を軽減するために,発行者としての発信者は文書のURLのみで識別することとした.著者としての発信者は,個人発信者と組織発信者それぞれの名称と属性情報を文書中の記述から抽出することとし,もしも文書中の記述に存在しないならば不明のままとした.{作業者には,}抽出すべき属性情報として,個人発信者であれば,役職,年齢,性別など,組織発信者であれば,業種,所在地などを例として示した.また,個人発信者と組織発信者のどちらを重視すべきかの情報を付与した.情報発信者の情報は{\sf$<$Holder$>$}に記録されており,属性{\sfLocalId}は文書ごとの番号,属性{\sfGlobalId}は全文書を通しての番号を示している.属性{\sfP1Element}と属性{\sfP2Element}は抽出された個人発信者の名称と属性情報,属性{\sfO1Element}と属性{\sfO2Element}は抽出された組織発信者の名称と属性情報をそれぞれ示しており,これらの名称または属性情報を構成する文字を,0を開始位置とした文書中の位置情報とともに示している.例えば,図\ref{fg:SR_webdoc}の4行目の{\sf$<$Holder$>$}の場合,「川口解体工業株式会社」という組織発信者の名称を構成する「川」の文字が0文目の15文字目にあることを「川\_0\_15」と示している.属性{\sfOrgHolder}の値は,組織発信者{側}を重視する場合は1,個人発信者{側}を重視する場合は0としている.属性{\sfLocalName}は,作業者がサーベイレポートで提示するのに最適と思われる情報発信者の名称を示している.同一発信者に関しては,複数の文書に及ぶ情報であるため,T6.で作成される抜粋要約中の属性{\sfSameHolder}に示している.なお,T4.の重要記述と同様に,アノテーションツールは,抽出された情報発信者に関する抽出元の文書と文書中の位置の情報を保持している.\subsubsection{要約の作成}T6.は,情報信憑性判断支援のための要約を作成する作業である.3.2.4節で述べた,自由記述要約と抜粋要約の2種類の要約を作成するため,自由記述要約を作成するT6-1.と,抜粋要約を作成するT6-2.の2段階で行う.T6-1.では,T4.で抽出した重要記述の集合を参照しながら,T6-2.で作成する抜粋要約と内容的に齟齬が生じないよう,理想とする情報信憑性判断支援のための要約を自由記述形式で作成する.一般的な要約であれば,文字数などの要約の長さに関する制約が与えられるが,情報信憑性判断支援のための要約では,読み手が信憑性を判断するための情報を得られることが何よりも優先されなくてはならない.それゆえ,作業者には,信憑性の判断に十分な情報を含むことを優先して作成することを指示し,自由記述要約,抜粋要約ともに,要約の長さに関しては指示しなかった.{図}\ref{fg:SR_freestyle}に自由記述要約の例を示す.T6-2.では,T4.で抽出した重要記述を文字単位でさらに絞り込みながら組み合わせることで抜粋要約を作成する.抜粋要約として不要な文字列を削除した記述を組み合わせて作成するため,抜粋要約は自由記述要約と表層的な表現が異なっても構わないとした.しかしながら,重要記述を組み合わせる際,逆接や対比といった重要記述間の関係を明確にするため,重要記述内には存在しない助詞や接続詞などの語句が必要となることが考えられる.そのような場合,任意の文字列を重要記述間に挿入できるようにした.作成された抜粋要約において,挿入された文字列は{\sf$<$Extra$>$}で囲み,{\sf$<$Citation$>$}で囲まれる重要記述の文字列と区別できるようにされている.また,重要記述の抽出元であるWeb文書において,実際に抜粋要約に用いられた重要記述の部分を{\sf$<$Cited$>$},不要な文字列として削除された部分を{\sf$<$Deserted$>$}で囲っている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f5.eps}\end{center}\caption{サーベイレポートコーパスにおける自由記述要約の例}\label{fg:SR_freestyle}\end{figure}\subsection{サーベイレポートコーパスの統計と分析}\subsubsection{サーベイレポートコーパス}第1回と第2回のコーパス構築で用いた着目言明を表\ref{tb:survey_report_topic}に示す.第1回の時点では,利用者が信憑性を判断したいトピックを示す単語を用いていた.しかしながら,単語を用いた場合,例えば,「マイナスイオン」のトピックにおいて,マイナスイオンが健康に良いかどうかを判断したいのか,それとも,マイナスイオンが発生するかどうかを判断したいのか,といった利用者の関心がある論点を絞り込むことができない.一般に,論点は数多く考えられるため,あらゆる論点に言及する要約を作成することとなる.そのような要約は,利用者にとって,関心がない論点の記述が多くを占めるものとなり,結果として,利用者の情報信憑性判断支援に役立たない要約となってしまう恐れがある.それゆえ,第2回では,論点が比較的絞り込まれている着目言明を用いることとした.また,「レーシック手術は安全である」と「レーシック手術は痛みがある」のように,「レーシック手術」という大きなトピックに包含される着目言明を用意することで,論点の違いによる影響を調査できるようにした.以下では,第2回のコーパスを中心に説明する.\begin{table}[t]\caption{サーベイレポートコーパス構築に用いた着目言明(トピック)}\label{tb:survey_report_topic}\input{ca03table04.txt}\end{table}1つの着目言明には,3.2.3節で述べたプーリングに相当する結果を得るために,4名の作業者を割り当てた.作業者は,情報工学を専攻する大学生及び大学院生である.1名の作業者が1つの抜粋要約を作成するために,T2.で収集したWeb文書集合の1着目言明あたりの平均文書数は532.0文書であり,収集された全Web文書の文字数を合計した値は1着目言明あたり平均して約280万文字であった.作成された抜粋要約の1着目言明あたりの平均文字数は2,564文字であるため,最終的に約0.1\%の要約率となるが,段階的に絞り込みを行っているため,実際はもっと緩やかな要約過程となる.T3.の段階で選別された文書数は平均して177文書となり,T4.の段階で抽出された文の合計文字数は1着目言明あたり平均して57,121文字にまで絞り込まれている.したがって,T4.からT6.への過程での要約率は約4.5\%となった.\subsubsection{収集された文書集合における論点の多様性に関する考察}ここで,収集されたWeb文書集合における論点の多様性について考察する.図\ref{fg:viewpoint}に,第2回のコーパス構築で用いた6つの着目言明をクエリとして,それぞれ検索した上位文書の件数と,文書中に存在する着目言明に関する論点の異なり数の関係を示す.論点の有無は,第二著者および情報工学を専攻とする大学院生2名が実際に文書を読むことで判断した.着目言明の違いによる差はあるが,全体として最初の30文書までに殆どの論点が現れており,それ以降,新しい論点は殆ど出現せず飽和状態となっている.\ref{ssc:survey_report_step}節で述べたように,T2.では,作業者が多様な論点を含むと考える複数のクエリを用いて100文書ずつ収集することにより要約対象となる文書集合を決定している.したがって,収集されたWeb文書集合は,論点の多様性をある程度保証していると考えられる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f6.eps}\end{center}\caption{検索文書数と論点の異なり数の推移}\label{fg:viewpoint}\end{figure}\subsubsection{作業者間の一致率に関する考察}次に,各作業者が収集したWeb文書集合を絞り込む過程における作業者間の一致率について考察する.3.2.2節で述べたように,絞り込みの過程が作業者によって大きく異なるならば,安定した自動要約を実現するのが困難になる.そのため,文書単位での選別を行ったT3.の段階における一致率を{Fleiss'}kappaを用いて計算した.結果として,{0.23},すなわち,低い一致率を示すこととなった.また,要約の最終過程であるT6.の段階における一致率を以下の2種類の方法で評価した.第一の方法は,ROUGE-1による評価である.ROUGE-1は,二つの要約の間で一致する1-gramの割合を示した自動評価手法であり,自動要約の評価型ワークショップであるDUC\footnote{http://duc.nist.gov/}等においても用いられている.6つの着目言明を対象として,着目言明ごとに,二つの抜粋要約の組に対してそれぞれ計算し,全ての組の値を平均した結果,0.40の値を示した.{0.40}という値は,2005年から2007年のDUCにおいて最も成績が良かった手法のROUGE-1の値と同程度の値である.本論文が人手による要約の間の一致であるのに対し,DUCが自動生成された要約と正解となる要約との一致である点を考慮する必要があるが,全体として比較的一致した要約が作成されていると考えられる.\begin{table}[t]\caption{「レーシック手術は安全である」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint}\input{ca03table05.txt}\end{table}ROUGEは表記の一致による評価であるため,論点が一致しているかどうかまでは保証しない.そこで,第二の方法として,抜粋要約間で共通している論点の数による評価を行った.評価の対象は,労力の観点から,第2回のコーパス構築で作成された抜粋要約のみを対象とした.論点が共通しているかどうかを判断する際には,論点の粒度が問題となる.例えば,「レーシック手術」などのトピックレベルの粗さで論点を捉えた場合,殆どの記述が共通の論点となってしまう.共通性を判断するのに適した粒度をトップダウン的に決定することは困難であるため,我々は,以下に述べるボトムアップ的な方法で論点を決定した.まず,実際に各々の抜粋要約を読み,「レーシック手術の種類」や「レーシック手術の方法」といったサブトピックレベルの粒度で,抜粋要約の内容を論点の候補として網羅した.次に,二つの抜粋要約を比較して,サブトピックレベルでは同じ論点の候補であっても,書き手が伝えたいであろうポイントが異なる記述が一方にしか存在しない場合は,さらに論点の細分化を行った.例えば,「レーシック手術により起こりうる合併症」というサブトピックであっても,\pagebreakその「原因」に言及する記述が,一方の抜粋要約には存在するがもう一方には存在しない場合,「レーシック手術により起こりうる合併症の原因」という論点を別に設定した.以上の論点に関する作業は,第二著者および情報工学を専攻する大学院生1名により行った.{表}\ref{tb:SR_viewpoint}に,AからDの4名の作業者が作成した「レーシック手術は安全である」に関する抜粋要約に含まれる論点の一覧と,各作業者の抜粋要約に各論点が含まれるか否かを示す.また,付録Bとして,他の5つの着目言明に関する抜粋要約に含まれる論点の一覧を収録した.表中の「○」で示される論点が抜粋要約に含まれている論点である.「レーシック手術は安全である」の場合,全部で20の論点があり,4つの抜粋要約全てに共通して含まれている論点の数は3であり,2つ以上の抜粋要約に共通している論点の数は11であった.6つの着目言明全体では,全部で65の論点があり,4つ全てに共通している論点は9,2つ以上に共通している論点は34であった.したがって,比較的共通した論点に関する要約が作成されていると考えられる.\begin{table}[t]\caption{サーベイレポートコーパスにおける情報発信者の延べ注釈数}\label{tb:SR_holder_result}\input{ca03table06.txt}\vspace{-1\Cvs}\end{table}\subsubsection{情報発信者に関する考察}{情報}発信者に関する延べ注釈数を表\ref{tb:SR_holder_result}に示す.抽出された4,061の重要記述の内,何らかの情報発信者の注釈があるものは3,067(約75.5\%)であった.また,発行者としての発信者は871,著者としての発信者は3,049であった.1つの重要記述に,発行者としての発信者と著者としての発信者の両方が注釈される可能性があることに注意されたい.したがって,特定できた情報発信者の殆どは著者としての発信者であるといえる.著者としての発信者の内,個人発信者が注釈されたものは776,組織発信者が注釈されたものは2,503であった.ここでも,個人発信者と組織発信者の両方が注釈された発信者がいることに注意されたい.したがって,著者としての発信者の多くが組織発信者であり,個人発信者は比較的少なかった.また,著者としての発信者3,049の内,作業者が組織発信者側を重視すると判断した場合も2,217存在することから,組織発信者の重要性が伺える.また,名称がある個人発信者は731,属性情報がある個人発信者は182,名称がある組織発信者は2,490,属性情報がある組織発信者は73であった.ここでも,名称と属性情報の両方が注釈された発信者がいることに注意されたい.個人発信者と組織発信者の両方で,属性情報より名称が記述されている割合が高いが,組織発信者の場合,属性情報の記述は極めて少ない(約2.9\%)といえる.また,同一発信者が存在すると注釈された個人発信者と組織発信者の数は,それぞれ139と556であった.したがって,無視できない割合で同一発信者の存在があるといえる.情報信憑性判断において,同一発信者が互いに矛盾するような主張を行っているかどうかは興味のあるところである.そこで,抜粋要約に用いられた重要記述の情報発信者を対象に,矛盾するような記述がないか調査した.6つの着目言明における全ての抜粋要約に対して調査した結果,矛盾するような記述を見つけることはできなかった.今後,全ての情報発信者を対象に調査したいと考えている.
\section{調停要約コーパスの構築}
\label{sc:mediatory_summary}\subsection{調停要約コーパス構築の背景}第1回と第2回のコーパス構築では,着目言明に関連する論点を網羅することに主眼を置いた要約を作成した.そのようにして作成された要約を分析した結果,自分の意見の正当性を主張するために,対立意見に反論するのとは異なる,第三者視点から公平に両方の意見に言及している記述が存在することが分かった.例えば,着目言明「アスベストは危険性がない」に関する要約には,「アスベストの成分は石や土と同じ成分であり舐めたり触ったりしても毒ではありません」という記述と,「人体への有毒性が指摘されているアスベスト」という記述が含まれており,一見すると互いに矛盾しているように見える.しかしながら,それらの記述とは別に,「アスベストの毒性は,その成分ではなく,その形状と通常の状態では半永久的に分解や変質しない性質によるものです」という記述を提示することで,両方の記述が,化学的性質を述べたものか,それとも,物理的性質を述べたものかという視点の違いによる疑似対立であることを読み手に伝えることができる.この疑似対立である場合に,両立できる視点や状況を示すという考え方は,従来研究にない新しい考え方であることから,両立できる視点や状況に関する記述の提示を調停要約と定義し,情報信憑性判断支援のための要約の主軸とすることとした.{なお},疑似対立であるか否かの最終的な判断は,利用者が行うことを想定している.ある調停要約を利用者が読んで,両立できる視点や状況が存在することを納得できるならば,調停要約に書かれている対立は,少なくともその視点からの調停が可能な疑似対立である.したがって,システムは,着目言明と対立言明の関係が疑似対立であると仮定して調停要約を生成し,利用者は,生成された調停要約を読んで疑似対立であるか否かを判断することを想定している.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f7.eps}\end{center}\caption{調停要約{を}中心とした情報信憑性判断支援のための要約の例}\label{fg:mediatory_summary}\end{figure}図\ref{fg:mediatory_summary}に,「朝バナナダイエットでダイエットできる」を着目言明とした場合の調停要約{を}中心とした情報信憑性判断支援のための要約の例を示す.{図\ref{fg:mediatory_summary}中の},(P),(N),(M)のボックス内の記述は,実際のWeb文書から抽出された記述であり,それ以外の記述は作例である.着目言明を肯定する根拠として「バナナは低カロリーで満腹感があります」,また,否定する根拠として「バナナは果物の中では水分が少ないためカロリーは高めです」という記述がそれぞれWeb上に存在していたので,対立関係にあるようにみえるとして,該当する記述を(P)と(N)のボックス内に表示している.また,(M)のボックス内が調停要約としてWeb上に存在する文書から抜粋された記述である.Web上には,こういった対立関係について,それらが両立可能であることを示した記述が存在していることがあり,そのような記述をパッセージ単位で抜粋して提示するというのが調停要約の基本的な考え方である.図\ref{fg:survey_report}のコメント部分の生成も将来における課題であるが,まずは調停要約の中核となる(P),(N),(M)の部分の記述を生成することを目的として,調停要約コーパスの構築を行うこととした.\subsection{調停要約コーパス構築の課題}\label{ssc:mediatory_summary_problems}\subsubsection{調停要約とサーベイレポートとの関係}調停要約は,図\ref{fg:survey_report}における,利用者が{論点}を判断する際に役立つ要約の一種である.したがって,調停要約コーパスの構築においても,\ref{ssc:survey_report_problems}節に述べたサーベイレポートコーパスの構築と同様の問題が存在し,その対応も\ref{ssc:survey_report_problems}節や\ref{ssc:survey_report_step}節で述べたのと同様に行うことができる.\subsubsection{対立関係の詳細化}調停要約を作成する上での固有の問題としては,以下の問題が挙げられる.まず,調停という性質上,網羅すべき論点として,対立関係にある言明の組が主となる.このとき,着目言明との対立関係を示す軸({\bf対立軸})は1つとは限らないことに注意されたい.例えば,「ダイエット」に関する文書集合においては,「痩せるvs.太る」という対立軸の他にも,美容観点の「美しいvs.醜い」,医療観点の「健康vs.病気」といった対立軸が考えられる.したがって,「ダイエットする」を支持する内容として,「痩せる」,「美しい」,「健康」といった記述,「ダイエットする」と対立する内容として,「太る」,「醜い」,「病気になる」といった記述を全て抽出することとした.\subsubsection{対象文書に関する変更}{調停}要約の作成における別の問題としては,{対立}関係にある言明の組を網羅するために収集した文書集合中に,調停要約として適切な記述({\bf調停記述})を含む文書が存在するかが保証されていないことが挙げられる.それゆえ,論点を網羅するための文書収集とは別に,調停記述を含む文書({\bf調停記述文書})を収集する過程が必要となる.また,調停記述文書を適切に収集するためには,作業者が事前に対立関係をどのように調停できるかに関する知識({\bf調停知識})をもっていることが望ましい.しかしながら,調停知識を得るためには,その前提として,どのような対立関係が存在するかを把握していなくてはならない.以上の考えから,着目言明と対立関係にある言明({\bf対立言明})を網羅的に抽出した後に,調停知識の獲得,および,調停記述文書の収集を行うこととした.本来であれば,サーベイレポートコーパスの構築と同様に,作業者には着目言明のみを与えて,背景知識の獲得を行った後,対立言明を網羅的に抽出するための文書の収集から作業を開始することが望ましい.しかしながら,その後に続く,調停知識の獲得,調停記述文書の収集を考慮すると作業者の負担が著しく増大する.また,対立言明の抽出対象となる文書集合が作業者間で異なる場合,作業者が把握する対立関係に差が生じるため,収集された調停記述文書の作業者間の比較が困難になると考えられる.それゆえ,着目言明に加えて,対立言明を網羅的に抽出するための初期文書集合を,{\bf4.3.1}節に述べるように与えることとした.\subsubsection{抜粋要約に関する変更}Kanekoetal.\citeyear{Kaneko2009}において,調停要約には,一つのパッセージで両立可能となる状況を明示的に説明する{\bf直接調停要約}と,状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す{\bf間接調停要約}の2種類があると定義している.間接調停要約の方が,どのようにパッセージを組み合わせるかといった点を考慮しなくてはならないため,要約生成過程において分析する項目が多くなる一方で,直接調停要約の方が,一つのパッセージで全てを説明しなくてはならないため,正解となりうるパッセージの数は少なくなる.それゆえ,第3回のコーパス構築では,要約生成過程の分析を優先して,複数のパッセージを組み合わせて抜粋要約を作成することとし,第4回のコーパス構築では,直接調停要約の正解情報作成に焦点を絞って,一つのパッセージで正解となるパッセージの抽出をもって抜粋要約を作成することとした.\subsubsection{絞り込み過程のシームレス化}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f8.eps}\end{center}\caption{調停要約用アノテーションツール}\label{fg:MS_tool}\end{figure}サーベイレポートコーパスの構築作業において,絞り込みの過程を観察するために,T3.での文書単位での選別とT4.での文単位の抽出とを別の段階での作業としていた.しかしながら,作業者からは,本文を読んで文書を選別する際に,重要記述を含む文についてもある程度判断できるため,二度手間のような作業になり,両者を区別せずに行いたいという要望が出されていた.そこで,第4回のコーパス構築に用いたアノテーションツールには,各段階の作業ログを自動的に記録する機能を実装することとした.作業ログには,対象文書や作業内容の情報に加え,マウスとキーボードの操作レベルの情報が記録されている.{図}\ref{fg:MS_tool}と図\ref{fg:log}に,第4回のアノテーションツールと作業ログの例をそれぞれ示す.図\ref{fg:log}のログから,作業者は,「飲酒は健康に良い」という着目言明のT2.(対立関係にある言明の抽出)において,ID:01217676-1の文書を開き,4文目の1文字目から48文字目までをドラッグして言明を抽出したことが分かる.図\ref{fg:MS_tool}に示すように,表示の都合上,ツール上の行番号と文番号が必ずしも一致するわけではないため,ログには文番号と文字位置に加えて,括弧内にツール上のカーソル座標を記録している.続く作業では,7文目の11文字目から34文字目,8文目の4文字目から60文字目を抽出した後,9行目までスクロールさせて,9文目の1文字目から22文字目を抽出していることが分かる.また,図\ref{fg:log}の作業者が,最初に文書全体を読んでから抽出せずに,読み進めながら逐次的に抽出している様子が読み取れる.したがって,作業ログを分析することで,どの文書のどの部分にどのような作業を行ったかといった内容を復元できる.これにより,第4回のコーパス構築では,作業者は,文書単位や文単位といった作業段階を意識することなく,自然に重要記述の絞り込みを行うことが可能となった.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA3f9.eps}\end{center}\caption{作業ログの例}\label{fg:log}\end{figure}\subsubsection{情報発信者に関する変更}第4回のコーパス構築では,情報発信者に関して,調停要約を主軸としたことによる若干の修正を加える.第3回までのコーパス構築では,3.2.5節で述べたように,幅広く情報発信者の情報の抽出を行った.しかしながら,第4回のコーパス構築では,調停要約の情報発信者として必要と思われる情報として,著者としての発信者における,名称,組織発信者か否か,専門的知識を備えている({\bf専門的発信者})か否か,調停者として第三者の立場から公平に述べている({\bf調停的発信者})か否か,の4種類に整理した.また,情報発信者として提示すべき情報に加えて,これらの情報を何を手掛かりとして抽出したかに関する情報も,システムが自動的に提示する上で必要である.それゆえ,情報発信者の情報を抽出する際に,抽出の手掛かりとなった記述も合わせて抽出することとした.\subsection{調停要約コーパス構築の手順}\label{ssc:mediatory_summary_step}調停要約コーパスの構築は,第3回と第4回のコーパス構築で行っているが,手順等が洗練された第4回のコーパス構築を中心に説明する.作成作業は表\ref{tb:task}に示す10段階で行うこととし,サーベイレポートコーパスの構築と同様に,T1.からT10.へ一方向に進む流れで作業を行った.調停要約コーパスには,着目言明,Web文書集合,調停要約文書,背景知識,調停知識,検索クエリ,作業の疑問点等のメモ,作業ログが含まれている.{Web文書}と抜粋要約のXMLタグの一覧と文書型定義を付録Cに示す.また,{実際に},XMLタグが付与されたWeb文書と調停要約文書の例を,図\ref{fg:MS_webdoc}と図\ref{fg:MS_report}にそれぞれ示す.以下,作業の流れに従って説明する.\begin{table}[t]\caption{調停要約作成作業の流れ}\label{tb:task}\input{ca03table07.txt}\end{table}\subsubsection{背景知識の獲得}{最初}に,各作業者には,着目言明と初期文書集合を与えた.初期文書集合を決定するにあたり,初期文書集合の決定する人物の意思が作業者に影響を及ぼさないよう機械的に求めることとし,着目言明をクエリとして検索した上位250件のWeb文書を初期文書集合とした.初期文書集合に含まれるWeb文書には,{\sf$<$FileId$>$}の属性{\sfCommon}の値を1として,T4.で各作業者が独自に収集するWeb文書と区別できるようにしている.T1.では,対立言明を公平な視点から網羅的に抽出できるよう,各作業者は着目言明に関連してどのような論点が存在し,各論点においてどのような意見や根拠が存在しているかの背景知識を獲得する.獲得された背景知識は,作業者ごとに自由記述形式で書かれ,調停要約コーパスに収録されている.\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3f10.eps}\end{center}\caption{調停要約コーパスにおけるWeb文書の例(一部)}\label{fg:MS_webdoc}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3f11.eps}\end{center}\caption{調停要約コーパスにおける調停要約文書の例(一部)}\label{fg:MS_report}\end{figure}\subsubsection{対立関係にある言明の抽出}T2.では,与えられた{初期}文書集合から着目言明を支持する内容の言明と対立する内容の言明を文字単位で網羅的に抽出する.抽出された言明は,{\sf$<$Text$>$}で囲まれた本文とは別の{\sf$<$Conflict$>$}内に記述され,属性{\sfSentenceId}に抽出元の文番号,属性{\sfStart}に言明の開始位置,属性{\sfLength}に言明の長さが記されている.\subsubsection{調停知識の獲得}T3.では,T2.で抽出された言明がどの対立軸に関する内容であるかに基づいて人手でクラスタリングを行った後,各クラスタの対立軸に関する調停知識の獲得を行う.クラスタリングは,1つの言明が複数の対立軸に属することを許可しており,クラスタ内の言明に対しては,着目言明を支持する内容であるか,それとも,着目言明と対立する内容であるかの極性を付与している.また,各クラスタの対立軸を表現する「ディーゼル車は環境に良いvs.ディーゼル車は環境に悪い」といった形式のラベルを付与する.以下に,クラスタリングの方法を例を用いて説明する.例えば,「ディーゼル車は環境に良い」という着目言明の初期文書集合から,「ディーゼル車排出ガスは東京の空を汚す最大の要因になっています」という言明が抽出されたとする.この言明から,作業者は「ディーゼル車は大気汚染の原因でないvs.ディーゼル車は大気汚染の原因である」といった初期文書集合中に対立する内容の記述が存在していそうな対立軸の候補を幾つか設定し,それぞれにラベルを付与する.また,当該の言明は着目言明と対立する内容であるという極性を付与して,任意の数の対立軸の候補に属させる.抽出された全ての言明を対立軸の候補に属させた後,同じ対立軸に属する言明群を一つのクラスタとした.各作業者には,対立関係の曖昧性がなくなるように任意の数の対立軸を独自に設定できるよう許可した.ただし,3つの対立軸に関しては,T4.以降の作業者間の比較を容易にするため,事前に我々が初期文書集合を調査した結果に基づいて{予め}3つの対立軸を設定し,初期文書集合と共に作業者に与えている.クラスタの情報は,調停要約文書の{\sf$<$Conflict$>$}で示され,対立軸のラベルは{\sf$<$Label$>$},クラスタ内の言明は{\sf$<$Statement$>$}に記述されている.{\sf$<$Statement$>$}の属性は,Web文書の同名タグと同一であるが,抽出元の文書番号を示す属性{\sfFileId}と,着目言明の支持/対立の極性を示す属性{\sfPolarity}が追加されている.各作業者は,独自に設定した対立軸ごとに,両立可能となりうるか,なるとすればどのような状況かといった調停知識を調査した後,疑似対立である対立軸を独自に見つけて,その中から2つを選び,与えられた3つの対立軸に追加して,計5つの{\bf{主要}対立軸}に対して調停要約を作成することとした.なお,事前に与えた3つの対立軸に対して,独自に追加する対立軸を2つに限定したのは,作業者の労力を考慮したものである.獲得された調停知識は,作業者ごとに自由記述形式で書かれ{ている}.調停要約コーパスに収録された調停知識の例として,「飲酒は健康に良い」という着目言明において,ある作業者が獲得した調停知識の一部を表\ref{tb:mediation_knowledge}に示す.表\ref{tb:mediation_knowledge}の「○」で示された対立軸は主要対立軸を示す.\begin{table}[t]\caption{獲得された調停知識の例}\label{tb:mediation_knowledge}\input{ca03table08.txt}\end{table}\subsubsection{調停記述文書の収集}4.2.3節で述べたように,{対立関係}にある言明を網羅するための初期文書集合は調停要約として適切な記述を必ずしも含んでいるとは限らない.そのため,T4.において,調停要約の記述を含むような文書集合を任意のクエリを用いて検索し,初期文書集合に加えることとした.すなわち,この段階で要約対象となる文書集合が確定し,作業者ごとに差異が現れることとなる.具体的には,T3.で選択した{主要}対立軸ごとに,TSUBAKIでの検索結果から,調停要約の対象となる文書集合を求めるのに最適と思われるクエリを1つ決定し,そのクエリによる上位50件の文書を初期文書集合に加える.したがって,5つの対立軸で250件の文書が加えられることになるが,重複する文書の存在があるため,要約対象となる文書数は最終的に500弱となる.追加されたWeb文書は,{\sf$<$FileId$>$}の属性{\sfCommon}の値を0としている.\subsubsection{調停記述の抽出}T5.では,調停要約として適切な記述を1つのパッセージ({\bf調停パッセージ})として抽出する.4.2.4節で述べたように,第4回のコーパス構築作業では,直接調停要約の正解情報となる,1つのパッセージで両立可能となる状況を明確に説明するタイプの調停要約の作成を対象としている.したがって,調停要約の一部として必要な記述ではあるが,その記述だけでは両立可能であることを明確に伝えられない記述は調停パッセージとして抽出しなかった.なお,調停要約の一部として必要な記述の抽出,および,それらを用いた調停要約の作成は,第3回のコーパス構築で行っている.また,調停パッセージの抽出の際,その記述がなぜ調停パッセージとして適切と判断したのかの手掛かりとなった文字列も抽出している.抽出された調停パッセージは,{\sf$<$Mediation$>$}内に,調停パッセージの判断の手掛かりとなった文字列は,{\sf$<$MediationKeyExpression$>$}内にそれぞれ記述され,どちらの記述も{\sf$<$Statement$>$}と同じ属性{\sfSentenceId},属性{\sfStart},属性{\sfLength}により抽出元の情報を保持している.また,{\sf$<$Mediation$>$}の属性{\sfType}の値を{\sfDirect}として直接調停要約であることを示している.\subsubsection{情報発信者の注釈}T6.では,T5.で抽出された調停パッセージを含む文書集合を対象に,情報発信者に関する情報,および,その手掛かりとなる記述の抽出を行う.情報発信者の名称となる記述を抽出し,その情報発信者が,組織発信者であるか,専門的発信者であるか,調停的発信者であるかを,それぞれ文書中の記述から判断する.また,その抽出や判断の手掛かりとなった記述もそれぞれ抽出した.情報発信者の名称は,{\sf$<$Sender$>$}内に記述され,{\sf$<$Statement$>$}と同じ属性{\sfSentenceId},属性{\sfStart},属性{\sfLength}により抽出元の情報を保持している.情報発信者が組織発信者である場合は,属性{\sfIsOrganization}の値を,専門的発信者の場合は属性{\sfIsExpert}の値を,調停的発信者の場合は属性{\sfIsMediator}の値をぞれぞれ1としている.また,名称,専門的発信者,調停的専門者の判断の手掛かりとなった記述を,{\sf$<$SenderKeyExpression$>$},{\sf$<$SenderExpe{rt}KeyExpression$>$},{\sf$<$SenderMediationKeyExpression$>$}に,抽出元の情報とともに記述している.T7.は,同一発信者と思われる情報発信者のグループ化を行うが,\ref{ssc:survey_report_step}節のサーベイレポートコーパス構築と同じ作業であるため説明を省略する.\subsubsection{調停要約の作成}T8.では,T3.で選択した{主要}対立軸ごとに,理想とする調停要約の自由記述要約を作成する.自由記述要約は,調停要約文書の{\sf$<$Mediation$>$}の一つに,属性{\sfType}の値を{\sfModel}として調停パッセージと区別できるように記述されている.T9.では,T5.で抽出した調停パッセージが,T3.で選択した{主要}対立軸の調停要約となっているかを分類する.分類は,1つの調停パッセージが複数の対立軸の調停要約となることを許可している.分類された調停パッセージは,調停要約文書の{\sf$<$Conflict$>$}内の{\sf$<$Mediation$>$}に記述されている.T10.では,T9.の対立軸ごとに分類された調停パッセージに対して,調停要約としての適切性の観点から{全て}の調停パッセージの対に対して順序を付けた.また,各パッセージに対し,T8.で作成した理想の調停要約との内容や表現などの近さを総合的に判断して,調停要約としての適切性について4段階の絶対評価を行う.ランキングされた結果は,調停要約文書の{\sf$<$Conflict$>$}内の{\sf$<$Mediation$>$}の順序として反映され{ている.}また,絶対評価は,属性{\sfEvaluation}の値として,{\sfExcellent},{\sfGood},{\sfFair},{\sfPoor}の4段階で示されている.\subsection{調停要約コーパスの統計と分析}\label{ssc:mediatory_summary_analysis}\subsubsection{調停要約コーパス}\begin{table}[t]\caption{調停要約コーパス構築に用いた着目言明}\label{tb:mediatory_summary_topic}\input{ca03table09.txt}\end{table}第3回と第4回のコーパス構築で用いた着目言明を表\ref{tb:mediatory_summary_topic}に示す.調停要約は,疑似対立である場合に両立可能となる状況を説明する要約であるため,前提として,疑似対立となる対立言明が存在している必要がある.それゆえ,調停要約に関する着目言明は,60以上の着目言明の候補を対象に疑似対立の有無の調査を行い,疑似対立が存在する候補の中で多様性に富むと思われる着目言明を選択した.{なお,}疑似対立の有無は,客観的であるか否か,科学的に証明できるか否かなどとは別の概念であることに注意されたい.例えば,「CO2は地球温暖化の原因である」という着目言明の場合,「CO2の温室効果や排出量」を示して地球温暖化の原因であるとする主張と,「氷期と間氷期のサイクル」を示して地球温暖化の原因ではないとする主張との間で疑似対立が生じている.この場合,調停要約の例としては,「20世紀後半の温暖化は人類の活動により排出されたCO2が原因であるが,20世紀前半の温暖化は自然の活動が原因である可能性が高い」といったものが考えられる.表\ref{tb:mediatory_summary_topic}に示した着目言明は,全て疑似対立が存在することを確認している.調停要約コーパスの構築作業では,1つの着目言明に対して4名の作業者を割り当てた.なお,作業者は情報工学を専攻する大学生および大学院生である.調停要約コーパスは,\ref{ssc:mediatory_summary_problems}節や\ref{ssc:mediatory_summary_step}節で述べたように,抽出の手掛かりとなった記述や,操作レベルの作業ログ等の豊富な情報を含んでいるが,まだ十分な分析が行われていない.{4.4.2}節から4.4.4節にかけて,「飲酒は健康に良い」を着目言明とした場合の注釈結果に基づき,以下の{3}点について分析を行う.1点目はT3.において各作業者が選択した対立軸に関して,2点目は調停要約の対象となる文書集合を決定するためにT4.で用いられた検索クエリに関して,3点目はT5.で抽出された調停パッセージとT8.で作成された自由記述による調停要約との差に関してである.4.4.5節と4.4.6節では,調停要約コーパス全体を対象として,情報発信者と作業ログに関する分析をそれぞれ行う.\subsubsection{対立軸に関する考察}\begin{table}[t]\caption{T3.で選択された主要対立軸}\label{tb:conflict}\input{ca03table10.txt}\end{table}各作業者が,「飲酒は健康に良い」に関して,T3.で選択した{主要}対立軸を表\ref{tb:conflict}に示す.(a)から(c)は,初期文書集合と共に与えられた作業者共通の{主要}対立軸であり,(d)と(e)が,調停要約を作成できそうな対立軸として,各作業者が任意に作成した対立軸から選択した{主要対立}軸である.主要対立軸に選択されなかった対立軸に関しては,その数だけを「他n組」のように示している.すなわち,表\ref{tb:conflict}の作業者1は,22組の対立軸を作成し,その中から(d)と(e)に示す対立軸を主要対立軸として選択している.各作業者の主要対立軸を比較すると,作業者1の(d)と作業者2の(e)を除いて,複数の作業者が共通で主要対立軸として選択している対立軸は存在しなかった.しかしながら,例えば,作業者1の(e)は,主要対立軸として選択してはいないが,作業者2,作業者3,作業者4の全員が対立軸として作成しており,ある作業者が主要対立軸として選択した対立軸は全て,表現の違いはあれど他の3名の作業者が任意に作成した対立軸の集合において存在していた.{したがって},どのような対立軸が存在しているかに関しては作業者間で共通の認識をしているが,どの対立軸が調停要約を作成する上で重要と考えるかは作業者によって異なる可能性が示唆された.\subsubsection{検索クエリに関する考察}{各}作業者が要約対象とした文書集合の重複度合いを{表}\ref{tb:overlap}に示す.表\ref{tb:overlap}は,「○」で示された作業者間に共通する文書数を表しており,1行目であれば作業者1が要約対象とした文書数が495件,5行目であれば作業者1と作業者2が共通した要約対象文書数が275件であることを示している.全作業者に共通の254文書の内,250文書は初期文書集合であるため,T4.において追加された文書集合において全作業者に共通する文書数は4であり,検索された文書集合はほとんど重複しなかった.T5.において抽出された調停パッセージを含む文書は,異なり数で203文書存在した.この203文書の内訳は,初期文書集合からが66文書,T4.で追加された文書集合からが173文書であった.要約対象とする文書集合の決定は調停要約の精度に影響する重要な処理であり,文書集合を決定するための検索クエリも重要な要素である.\begin{table}[t]\caption{要約対象文書集合の重複度}\label{tb:overlap}\input{ca03table11.txt}\end{table}各作業者がT4.で用いた検索クエリを対立軸ごとに整理したものを表\ref{tb:query}に示す.表\ref{tb:query}の対立軸の記号は表\ref{tb:conflict}の記号に対応している.TSUBAKIが自然文で検索可能であることは各作業者も理解しており,T4.において3名の作業者が調査した計57クエリの内,22クエリは自然文でのクエリであった.しかしながら,TSUBAKIを用いた場合には初期文書集合に加えた文書集合の検索に用いたクエリは表\ref{tb:query}に示すように単語列であるものが多かった.この結果について各作業者に質問したところ,「最初に自然文で入力したが,思うような文書が検索されなかったため単語列で検索した」という回答であった.この原因として「飲酒健康良い悪い」のように,良い面と悪い面の両方を記述している文書を検索するという調停要約特有の要求を満たすクエリを文の形式で表現しにくかったことが考えられる.以上から,調停要約として適切な記述を含む文書を検索するという観点からは,検索エンジンによる影響を考慮する必要があるが,単語列を用いた方が適している可能性が示唆された.ただし,「飲酒糖尿病のリスクを低下」のように単語と句を組み合わせたクエリも存在したことから,必ずしも単語列が最適というわけではない.この点に関する分析を今後さらに進めていきたい.\subsubsection{調停要約と調停パッセージに関する考察}\begin{table}[t]\caption{T4.で用いられた検索クエリ}\label{tb:query}\input{ca03table12.txt}\end{table}\begin{table}[t]\caption{各評価における調停パッセージの延べ数}\label{tb:evaluation}\input{ca03table13.txt}\end{table}表\ref{tb:evaluation}に,T10.のランキングにおける各評価の調停パッセージの延べ数を示す.\pagebreakまた,内訳として,初期文書から抽出された数と,T4.で追加された調停記述文書から抽出された数を示す.同じ調停パッセージであっても,対立軸が異なれば評価も異なり,調停要約とみなされなかった場合もあることに注意されたい.作業者によるバラツキが存在するが,全体として,{\sfFair},{\sfPoor},{\sfGood},{\sfExcellent}の順に評価された数が多く,理想の調停要約に極めて近いことを示す{\sfExcellent}と評価された調停パッセージは殆ど存在しなかった.初期文書と調停記述文書の内訳から,調停記述文書の方が比較的評価が高い調停パッセージを多く含んでいたことが分かる.しかしながら,適切な調停記述文書を自動的に検索する方法は現段階で不明であり,今後も分析を続けていきたい.\begin{table}[t]\caption{T8.で作成された自由記述による調停要約}\label{tb:freetext}\input{ca03table14.txt}\end{table}\begin{table}[t]\caption{T10.で1位にランキングされた調停パッセージ}\label{tb:extractive}\input{ca03table15.txt}\end{table}表\ref{tb:freetext}は「飲酒は健康に良いvs.飲酒は健康に悪い」の対立軸に対してT8.で作成された理想の調停要約であり,表\ref{tb:extractive}は同じ対立軸においてT10.のランキングで1位となった調停パッセージである.理想とする調停要約に関しては,作業者1と作業者3が「病気の種類」という観点からも記述しているが,基本的には4名とも「飲酒量」という観点からまとめており,多くの人に共通する調停要約の観点が存在するように思われる.一方,表\ref{tb:freetext}の調停要約と表\ref{tb:extractive}の調停パッセージを比較した場合,「飲酒量」などの大意は共通しているが細かな違いが生じている.また,作業者1の調停要約で存在した「コレステロール」や「ワイン」などの話題は,調停パッセージには存在していない.したがって,1つのパッセージを抽出して提示する直接調停要約の考え方に大きな問題はないが,より理想的な調停要約を生成するためには複数の調停パッセージを組み合わせる必要があると考えられる.\subsubsection{情報発信者に関する考察}{情報}発信者に関する延べ注釈数を表\ref{tb:MS_holder_result}に示す.注釈された3,221の情報発信者は全て著者としての発信者であり,その内,組織発信者であるのは1,990,専門的発信者であるのは840,調停的発信者であるのは759であった.ある発信者に,組織発信者,専門的発信者,調停的発信者の2つ以上が注釈される可能性があることに注意されたい.組織発信者{側}を重視する場合に限り,組織発信者を抽出しているため,表\ref{tb:MS_holder_result}における組織発信者の数は,表\ref{tb:SR_holder_result}における組織発信者{側}を重視する場合の数に相当する.したがって,著者としての発信者における組織発信者の割合は,サーベイレポート要約で約72.7\%(2,217/3,049),調停要約コーパスで約61.8\%(1,990/3,221)となり,一般に6割から7割程度であると考えられる.また,同一発信者が存在すると注釈された個人発信者と組織発信者は,それぞれ,691と1,183であった.サーベイレポートコーパスと同じく,調停要約コーパスにおいても,同一発信者は無視できない割合で存在している.\begin{table}[t]\caption{調停要約コーパスにおける情報発信者の延べ注釈数}\label{tb:MS_holder_result}\input{ca03table16.txt}\end{table}\subsubsection{作業ログに関する考察}表\ref{tb:log_num}に,作業ログを元にした,各段階における作業者の行動の回数を示す.作業ログは,図\ref{fg:log}に示すように,マウスやキーボードの操作レベルで記録されているが,表\ref{tb:log_num}では,その操作がもたらす効果のレベルで示している.また,文書から文字列を絞り込む過程に関連する作業段階と行動に限定している.\begin{table}[t]\caption{各段階における作業者の行動の回数}\label{tb:log_num}\input{ca03table17.txt}\end{table}一般に,下方向のスクロールに対する上方向へのスクロールの割合が大きいほど,文書を何度も読み返していると考えられる.対立関係にある言明を抽出するT2.では約21.0\%(39,795/189,079),調停記述を抽出するT5.では約14.9\%(39,412/265,347)であったのに対し,情報発信者を抽出するT6.では54.1\%(58,894/108,855)という高い値であった.一般に,後の作業では,前の作業で既に読んだ文書に対して作業を行うため,読み返す必要性は低下すると考えられる.T6.で上方向へのスクロールの割合が高かった理由は,以下のように考えられる.4.3.6節で述べたように,T6.では,情報発信者の名称,専門的発信者,調停的発信者を判断する手掛かりとなった表現を抽出するよう指示している.手掛かり表現は文書中に散在しているため,3種類の手掛かり表現を求めて文書内を探した結果,上方向へのスクロールの割合が高くなったと考えられる.また,どの作業段階においても,抽出した文字列を取り消す行動が無視できない割合で存在している.対立関係にある言明の抽出では約18.1\%(1,651/9,139),調停パッセージの抽出では約23.8\%(527/2,218),情報発信者の抽出では約16.7\%(664/3,978)であった.抽出した文字列を取り消すという行動は,必ずしも作業者が熟慮した上で行われているわけではないであろうが,取り消す行動の割合が高いほど,作業者の判断を揺らがせるような作業であった可能性がある.仮にそうであったとするならば,情報発信者の抽出に比べて,調停パッセージの抽出は判断が難しい作業であったといえる.
\section{関連研究}
\label{sc:related_work}コーパス構築に関する研究には以下のものがある.飯田ら\citeyear{Iida2010}は,新聞記事を対象に,述語項構造・共参照タグを付与する基準について報告し,事態性名詞のタグ付与において,具体物のタグ付与と項のタグ付与を独立して行うことで作業品質を向上させている.宮崎ら\citeyear{Miyazaki2010}は,Web文書を対象に,製品の様態と評価を分離した評判情報のモデルを提案し,評判情報コーパスを構築する際の注釈者間の注釈揺れを削減する方法について論じている.しかしながら,これらのコーパス構築の目的は,本研究の目的である情報信憑性判断支援のための要約と異なる.文書の書き手の意見を理解できるよう支援することを目的としてアノテーションを行う研究として,Weibeetal.~\citeyear{Wiebe2005},西原ら\cite{Nishihara2011},松吉ら\cite{Matsuyoshi2010}などの研究がある.Wiebeetal.~\citeyear{Wiebe2005}は,意見や感情などのprivatestateを人手でアノテーションする方法を提案し,新聞記事を対象としたMPQAコーパスにアノテーションを行った.西原ら\citeyear{Nishihara2011}は,文書の書き手の意見を理解することを支援するために,文書においてアノテーションを付与すべき文を推薦するシステムを提案した.松吉ら\citeyear{Matsuyoshi2010}は,書き手が表明する真偽判断,価値判断等の,事象に対する総合的な情報を表すタグ体系を提案し,このタグ体系に基づくコーパスを基礎とした解析システムを開発した.Wiebeetal.,西原ら,松吉らの研究の目的は,本研究の目的である信憑性判断支援と関連があるが,本研究が支援のための手段として要約を対象としている点で異なる.要約を目的としてコーパスを構築した研究としては,Radevetal.~\citeyear{Radev2000},綾ら\cite{Aya2005},伊藤ら\shortcite{Ito2004}などの研究がある.Radevetal.~\citeyear{Radev2000}は,RST(RhetoricalStructureTheory)を文書間関係に拡張したCST(Cross-documentStructureTheory)を提唱し,CSTの関係をアノテーションしたCSTBankの構築を行った.綾ら\citeyear{Aya2005}は,セマンティックオーサリングで得られたグラフを想定し,修辞関係等を明示的に与えた複数文書に対し要約を作成する手法を提案した.しかしながら,Radevetal.や綾らはWeb文書ではなく新聞記事を対象としている.伊藤ら\citeyear{Ito2004}は,汎用アノテーション記述言語MAMLを提案し,複数メール要約や動画像の検索・要約を行う研究を行っている.メーラやブラウザ等を利用する際に入力されたデータをアノテーションデータとすることで,利用者が特に意識せずともアノテーションデータを生成できるようにした.本研究では,情報信憑性判断支援のための要約という新しい要約概念を対象とするため,要約の生成過程を調査する必要があり,そのためのアノテーションを行っている点で異なる.テキストの表層的な情報を使うだけでは十分に解決できない,より深い言語処理課題においては,アノテーションの際に,アノテーションの結果だけではなく,作業者がどのような情報を利用してアノテーションを行ったかといったアノテーション中の過程にも関心を払うことの重要性が,徳永ら\shortcite{Tokunaga2013}や光田ら\shortcite{Mitsuda2013}により指摘されている.本研究では,重要記述の絞り込みの過程や,抽出の手掛かりとなった記述,作業中の疑問点のメモ,操作レベルの作業ログといった,要約作成の過程に関するアノテーションを行っており,これらの情報を分析して得られた知見に基づいて調停要約生成システムの開発を行っている.Web文書を情報源としてコーパスを構築する研究として,Ptaszynskietal.~\citeyear{Ptaszynski2012},鍜治ら\shortcite{Kaji2008},関口ら\shortcite{Sekiguchi2003}などの研究がある.Ptaszynskietal.~\citeyear{Ptaszynski2012}は,日本語のブログを自動収集して構築した,3.5億文からなるコーパスYACISに対して自動的に感情情報を付与した.鍜治ら\citeyear{Kaji2008}は,大規模なHTML文書集合から評価文を自動収集する手法を提案し,約10億件のHTML文書から約65万文からなる評価文コーパスを自動的に構築した.関口ら\citeyear{Sekiguchi2003}は,Web文書中のリンク情報を手掛かりとして連鎖的にWeb文書を収集し,単語や格フレームの異なり数の点で良質なコーパスを自動的に構築した.Ptaszynskietal.,鍜治ら,関口らの研究で構築されたコーパスは,不特定トピックのWeb文書集合を自動的に収集して構築したものであり,着目言明に関連したWeb文書集合を人手で収集して構築した本研究のコーパスと性質が異なる.アノテーションの対象となる文書集合を決定する方法として,文書そのものを新しく作成する橋本ら\citeyear{Hashimoto2011}の方法や,適合文書に必須となる情報を用いる吉岡ら\shortcite{Yoshioka2012}の方法がある.橋本ら\citeyear{Hashimoto2011}は,ブログを対象とした自然言語処理の高精度化に寄与することを目的として,81名の大学生に4つのテーマで執筆させた249記事のブログに,文境界,形態素,係り受け,格・省略・照応,固有表現,評価表現に関するアノテーションを行った.本研究でも,自由記述要約として作業者が理想の要約文書を作成しているが,同時に,表層の一致による評価を行うために,Web文書の重要記述を組み合わせた抜粋要約を作成する必要があり,要約対象となるWeb文書集合を決定する必要があった.吉岡ら\citeyear{Yoshioka2012}は,質問応答を目的としたテストコレクションの構築において,適合文書に必須の情報である回答を用いて検索することで,一定以上の網羅性を担保したテストコレクションが作成できる可能性を示した.しかしながら,本研究では,情報信憑性判断支援のための要約において必須の情報が不明であったため,適切な検索クエリを調査する必要があり,作業で用いられた検索クエリをコーパスに収録している.情報信憑性判断支援のための要約に関するコーパス構築と分析は,Nakanoetal.~\citeyear{Nakano2010},渋木ら\citeyear{Shibuki2011b}でも行っている.Nakanoetal.,渋木らの分析結果は本研究の一部と共通しているが,本研究では,さらに情報発信者や作業ログ等に関する分析を進めている.
\section{おわりに}
\label{sc:conclusion}本論文では,情報信憑性判断支援のための要約に関する研究を行う上で基礎となる分析・評価用のコーパスを3年間で延べ4回構築した結果について,{現時点}での試行の1つであるが報告した.情報信憑性判断支援のための要約では,利用者が着目する言明の信憑性を判断する上で必要となる情報をWeb文書から探し出し,要約・整理して提示する.情報信憑性判断支援のための要約{の基礎}となるコーパス構築においては,人間の要約過程を観察するための情報と,性能を評価するための正解情報が求められており,両方の情報を満たすタグセットとタグ付与の方法について説明した.また,全数調査が困難なWeb文書を要約対象とする研究において,タグ付与の対象となる文書集合をどのように決定するかといった問題に対して,評価型ワークショップのテストコレクション構築で用いられるプーリングを参考とした方法を述べた.{本論文}で構築したコーパスを一般公開することは,収集したWeb文書の再配布が著作権の観点から法律上の問題がある可能性があるため,現時点では難しい.今後,NTCIRのWEBテストコレクションや言論マップコーパス\footnote{http://www.cl.ecei.tohoku.ac.jp/index.php?Open\%20Resources\%2FStatement\%20Map\%20Corpus}の配布方法などを参考に公開の方法を検討していきたいと考えている.また,本コーパスは,人間の要約の作成過程を分析する上で豊富な情報を含んでいるが,その分析は充分に行われていない.今後は,さらに詳細な分析を行い,その結果を要約生成システムに反映させたいと考えている.\acknowledgment本研究の一部は,JSPS科研費25330254,ならびに,横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWISDOM:AWebInformationCredibilityAnalysisSystem.\BBCQ\\newblockIn{\BemtheACL-IJCNLP2009SoftwareDemonstrations},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Leon-Suematsu,Kawada,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2010}]{Akamine2010}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Leon-Suematsu,Y.~I.,Kawada,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2010\BBCP.\newblock\BBOQOrganizingInformationontheWebtoSupportUserJudgmentsonInformationCredibility.\BBCQ\\newblockIn{\Bemthe4thInternationalUniversalCommunicationSymposium(IUCS2010)},\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{綾\JBA松尾\JBA岡崎\JBA橋田\JBA石塚}{綾\Jetal}{2005}]{Aya2005}綾聡平\JBA松尾豊\JBA岡崎直観\JBA橋田浩一\JBA石塚満\BBOP2005\BBCP.\newblock修辞構造のアノテーションに基づく要約生成.\\newblock\Jem{人工知能学会論文誌},{\Bbf20}(3),\mbox{\BPGS\149--158}.\bibitem[\protect\BCAY{Buckley,Dimmick,Soboroff,\BBA\Voorhees}{Buckleyet~al.}{2007}]{Buckley2007}Buckley,C.,Dimmick,D.,Soboroff,I.,\BBA\Voorhees,E.\BBOP2007\BBCP.\newblock\BBOQBiasandtheLimitsofPoolingforLargeCollections.\BBCQ\\newblock{\BemInformationRetrieval},{\Bbf10}(6),\mbox{\BPGS\491--508}.\bibitem[\protect\BCAY{Ennals,Trushkowsky,\BBA\Agosta}{Ennalset~al.}{2010}]{Ennals2010}Ennals,R.,Trushkowsky,B.,\BBA\Agosta,J.~M.\BBOP2010\BBCP.\newblock\BBOQHighlightingDisputedClaimsontheWeb.\BBCQ\\newblockIn{\Bemthe19thInternationalWorldWideWebConference(WWW2010)},\mbox{\BPGS\341--350}.\bibitem[\protect\BCAY{Finn,Kushmerick,\BBA\Smyth}{Finnet~al.}{2001}]{Finn2001}Finn,A.,Kushmerick,N.,\BBA\Smyth,B.\BBOP2001\BBCP.\newblock\BBOQFactorfiction:ContentClassificationforDigitalLibraries.\BBCQ\\newblockIn{\BemtheSecondDELOSNetworkofExcellenceWorkshoponPersonalisationandRecommenderSystemsinDigitalLibraries},\mbox{\BPGS\18--20}.\bibitem[\protect\BCAY{藤井}{藤井}{2008}]{Fujii2008}藤井敦\BBOP2008\BBCP.\newblockOpinionReader:意思決定支援を目的とした主観情報の集約・可視化システム.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ91-D}(2),\mbox{\BPGS\459--470}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{Hashimoto2011}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評価情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2010}]{Iida2010}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{伊藤\JBA斎藤}{伊藤\JBA斎藤}{2004}]{Ito2004}伊藤一成\JBA斎藤博昭\BBOP2004\BBCP.\newblockアノテーションの副次生成とテキスト処理への応用.\\newblock\Jem{日本データベース学会論文誌DBSJLetters},{\Bbf3}(1),\mbox{\BPGS\117--120}.\bibitem[\protect\BCAY{鍜治\JBA喜連川}{鍜治\JBA喜連川}{2008}]{Kaji2008}鍜治伸裕\JBA喜連川優\BBOP2008\BBCP.\newblockHTML文書集合からの評価文の自動収集.\\newblock\Jem{自然言語処理},{\Bbf15}(3),\mbox{\BPGS\77--90}.\bibitem[\protect\BCAY{Kaneko,Shibuki,Nakano,Miyazaki,Ishioroshi,\BBA\Morii}{Kanekoet~al.}{2009}]{Kaneko2009}Kaneko,K.,Shibuki,H.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Morii,T.\BBOP2009\BBCP.\newblock\BBOQMediatorySummaryGenaration:Summary-PassageExtractionforInformationCredibilityontheWeb.\BBCQ\\newblockIn{\Bemthe23rdPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\240--249}.\bibitem[\protect\BCAY{加藤\JBA河原\JBA乾\JBA黒橋\JBA柴田}{加藤\Jetal}{2010}]{Kato2010}加藤義清\JBA河原大輔\JBA乾健太郎\JBA黒橋禎夫\JBA柴田知秀\BBOP2010\BBCP.\newblockWebページの情報発信者の同定.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(1),\mbox{\BPGS\90--103}.\bibitem[\protect\BCAY{河合\JBA岡嶋\JBA中澤}{河合\Jetal}{2007}]{Kawai2011}河合剛巨\JBA岡嶋穣\JBA中澤聡\BBOP2007\BBCP.\newblockWeb文書の時系列分析に基づく意見変化イベントの抽出.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\264--267}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{Lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\Bemthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1(NAACL'03)},\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{松本\JBA小西\JBA高木\JBA小山\JBA三宅\JBA伊東}{松本\Jetal}{2009}]{Matsumoto2009}松本章代\JBA小西達裕\JBA高木朗\JBA小山照夫\JBA三宅芳雄\JBA伊東幸宏\BBOP2009\BBCP.\newblock文末表現を利用したウェブページの主観・客観度の判定.\\newblock\Jem{第1回データ工学と情報マネジメントに関するフォーラム(DEIM),A5-4}.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{Matsuyoshi2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ93-D}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{Mihalcea\BBA\Tarau}{Mihalcea\BBA\Tarau}{2004}]{Mihalcea2004}Mihalcea,R.\BBACOMMA\\BBA\Tarau,P.\BBOP2004\BBCP.\newblock\BBOQTextRank:BringingOrderintoTexts.\BBCQ\\newblockIn{\BemtheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\404--411}.\bibitem[\protect\BCAY{光田\JBA飯田\JBA徳永}{光田\Jetal}{2013}]{Mitsuda2013}光田航\JBA飯田龍\JBA徳永健伸\BBOP2013\BBCP.\newblockテキストアノテーションにおける視線と操作履歴の収集と分析.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\449--452}.\bibitem[\protect\BCAY{宮崎\JBA森}{宮崎\JBA森}{2010}]{Miyazaki2010}宮崎林太郎\JBA森辰則\BBOP2010\BBCP.\newblock注釈事例参照を用いた複数注釈者による評判情報コーパスの作成.\\newblock\Jem{自然言語処理},{\Bbf17}(5),\mbox{\BPGS\3--50}.\bibitem[\protect\BCAY{Miyazaki,Momose,Shibuki,\BBA\Mori}{Miyazakiet~al.}{2009}]{Miyazaki2009}Miyazaki,R.,Momose,R.,Shibuki,H.,\BBA\Mori,T.\BBOP2009\BBCP.\newblock\BBOQUsingWebPageLayoutforExtractionofSenderNames.\BBCQ\\newblockIn{\Bemthe3rdInternationalUniversalCommunicationSymposium(IUCS2009)},\mbox{\BPGS\181--186}.\bibitem[\protect\BCAY{Murakami,Nichols,Mizuno,Watanabe,Masuda,Goto,Ohki,Sao,Matsuyoshi,Inui,\BBA\Matsumoto}{Murakamiet~al.}{2010}]{Murakami2010}Murakami,K.,Nichols,E.,Mizuno,J.,Watanabe,Y.,Masuda,S.,Goto,H.,Ohki,M.,Sao,C.,Matsuyoshi,S.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQStatementMap:ReducingWebInformationCredibilityNoisethroughOpinionClassification.\BBCQ\\newblockIn{\BemtheFourthWorkshoponAnalyticsforNoisyUnstructuredTextData(AND2010)},\mbox{\BPGS\59--66}.\bibitem[\protect\BCAY{中野\JBA渋木\JBA宮崎\JBA石下\JBA森}{中野\Jetal}{2008}]{Nakano2008}中野正寛\JBA渋木英潔\JBA宮崎林太郎\JBA石下円香\JBA森辰則\BBOP2008\BBCP.\newblock情報信憑性判断のための自動要約に向けた人手による要約作成実験とその分析.\\newblock\Jem{自然言語処理研究会報告2008-NL-187},\mbox{\BPGS\107--114}.\bibitem[\protect\BCAY{中野\JBA渋木\JBA宮崎\JBA石下\JBA金子\JBA永井\JBA森}{中野\Jetal}{2011}]{Nakano2011}中野正寛\JBA渋木英潔\JBA宮崎林太郎\JBA石下円香\JBA金子浩一\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock情報信憑性判断支援のための直接調停要約生成手法.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ94-D}(11),\mbox{\BPGS\1019--1030}.\bibitem[\protect\BCAY{Nakano,Shibuki,Miyazaki,Ishioroshi,Kaneko,\BBA\Mori}{Nakanoet~al.}{2010}]{Nakano2010}Nakano,M.,Shibuki,H.,Miyazaki,R.,Ishioroshi,M.,Kaneko,K.,\BBA\Mori,T.\BBOP2010\BBCP.\newblock\BBOQConstructionofTextSummarizationCorpusfortheCredibilityofInformationontheWeb.\BBCQ\\newblockIn{\Bemthe7thLanguageResourcesandEvaluationConference(LREC2010)},\mbox{\BPGS\3125--3131}.\bibitem[\protect\BCAY{西原\JBA伊藤\JBA大澤}{西原\Jetal}{2011}]{Nishihara2011}西原陽子\JBA伊藤彩\JBA大澤幸生\BBOP2011\BBCP.\newblock意見の理解を支援するアノテーションシステム.\\newblock\Jem{マイニングツールの統合と活用&情報編纂研究会(TETDM-01-SIG-IC-06-01)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Ptaszynski,Rzepka,Araki,\BBA\Momouchi}{Ptaszynskiet~al.}{2012}]{Ptaszynski2012}Ptaszynski,M.,Rzepka,R.,Araki,K.,\BBA\Momouchi,Y.\BBOP2012\BBCP.\newblock\BBOQAutomaticallyAnnotatingAFive-Billion-WordCorpusofJapaneseBlogsforSentimentandAffectAnalysis.\BBCQ\\newblockIn{\Bemthe3rdWorkshoponComputationalApproachestoSubjectivityandSentimentAnalysis},\mbox{\BPGS\89--98}.\bibitem[\protect\BCAY{Radev,Otterbacher,\BBA\Zhang}{Radevet~al.}{2004}]{Radev2000}Radev,D.,Otterbacher,J.,\BBA\Zhang,Z.\BBOP2004\BBCP.\newblock\BBOQCSTBank:ACorpusfortheStudyofCross-documentStructuralRelationships.\BBCQ\\newblockIn{\Bemthe4thInternationalLanguageResouraceandEvaluation(LREC'04)},\mbox{\BPGS\1783--1786}.\bibitem[\protect\BCAY{関口\JBA山本}{関口\JBA山本}{2003}]{Sekiguchi2003}関口洋一\JBA山本和英\BBOP2003\BBCP.\newblockWebコーパスの提案.\\newblock\Jem{情報処理学会研究報告,NL157-17/FI72-17}.\bibitem[\protect\BCAY{渋木\JBA中野\JBA宮崎\JBA石下\JBA鈴木\JBA森}{渋木\Jetal}{2009}]{Shibuki2009}渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA石下円香\JBA鈴木貴子\JBA森辰則\BBOP2009\BBCP.\newblock情報信憑性判断のための要約に関する基礎的検討.\\newblock\Jem{言語処理学会第15回年次大会発表論文集},\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{渋木\JBA中野\JBA宮崎\JBA石下\JBA永井\JBA森}{渋木\Jetal}{2011}]{Shibuki2011b}渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA石下円香\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock調停要約のための正解コーパスの作成とその分析.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\364--367}.\bibitem[\protect\BCAY{渋木\JBA永井\JBA中野\JBA石下\JBA松本\JBA森}{渋木\Jetal}{2013}]{Shibuki2013}渋木英潔\JBA永井隆広\JBA中野正寛\JBA石下円香\JBA松本拓也\JBA森辰則\BBOP2013\BBCP.\newblock情報信憑性判断支援のための対話型調停要約生成手法.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{Shibuki,Nagai,Nakano,Miyazaki,Ishioroshi,\BBA\Mori}{Shibukiet~al.}{2010}]{Shibuki2010}Shibuki,H.,Nagai,T.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Mori,T.\BBOP2010\BBCP.\newblock\BBOQAMethodforAutomaticallyGeneratingaMediatorySummarytoVerifyCredibilityofInformationontheWeb.\BBCQ\\newblockIn{\Bemthe23rdInternationalConferenceonComputationalLinguistics(COLING2010)},\mbox{\BPGS\1140--1148}.\bibitem[\protect\BCAY{Shinzato,Shibata,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008}Shinzato,K.,Shibata,T.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQTSUBAKI:AnOpenSearchEngineInfrastructureforDevelopingNewInformationAccessMethodology.\BBCQ\\newblockIn{\BemtheThirdInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{徳永\JBA飯田}{徳永\JBA飯田}{2013}]{Tokunaga2013}徳永健伸\JBA飯田龍\BBOP2013\BBCP.\newblockアノテーションのためのアノテーション.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\70--73}.\bibitem[\protect\BCAY{Wiebe,Wilson,\BBA\Cardie}{Wiebeet~al.}{2005}]{Wiebe2005}Wiebe,J.,Wilson,T.,\BBA\Cardie,C.\BBOP2005\BBCP.\newblock\BBOQAnnotatingExpressionsofOpinionsandEmotionsinLanguage.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf39}(2--3),\mbox{\BPGS\165--210}.\bibitem[\protect\BCAY{山本\JBA田中}{山本\JBA田中}{2010}]{Yamamoto2010}山本祐輔\JBA田中克己\BBOP2010\BBCP.\newblockデータ対間のサポート関係分析に基づくWeb情報の信憑性評価.\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf3}(2),\mbox{\BPGS\61--79}.\bibitem[\protect\BCAY{吉岡\JBA原口}{吉岡\JBA原口}{2004}]{Yoshioka2004}吉岡真治\JBA原口誠\BBOP2004\BBCP.\newblockイベントの参照関係に注目した新聞記事の複数文書要約.\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\257--260}.\bibitem[\protect\BCAY{吉岡\JBA神門}{吉岡\JBA神門}{2012}]{Yoshioka2012}吉岡真治\JBA神門典子\BBOP2012\BBCP.\newblockタスクを考慮した情報検索テストコレクション構築に関する考察.\\newblock\Jem{情報アクセスシンポジウム2012},\mbox{\BPGS\1--7}.\end{thebibliography}\clearpage\appendix
\section{サーベイレポートコーパスのタグ一覧と文書型定義}
サーベイレポートコーパスに収録されたWeb文書と抜粋要約のタグの一覧を,表\ref{tb:survey_report_web_tagset}と表\ref{tb:survey_report_sum_tagset}にそれぞれ示す.また,文書型定義を,図\ref{fg:survey_report_web_dtd}と図\ref{fg:survey_report_sum_dtd}にそれぞれ示す.\begin{table}[h]\caption{サーベイレポートコーパスに収録されたWeb文書のタグの一覧}\label{tb:survey_report_web_tagset}\input{ca03tableA1.txt}\end{table}\clearpage\begin{table}[p]\caption{サーベイレポートコーパスに収録された抜粋要約のタグの一覧}\label{tb:survey_report_sum_tagset}\input{ca03tableA2.txt}\end{table}\clearpage\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fa.eps}\end{center}\caption{サーベイレポートコーパスに収録されたWeb文書の文書型定義}\label{fg:survey_report_web_dtd}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fb.eps}\end{center}\caption{サーベイレポートコーパスに収録された抜粋要約の文書型定義}\label{fg:survey_report_sum_dtd}\end{figure}\clearpage
\section{抜粋要約中の論点の一覧}
3.4.3節で述べた作業者間の一致率に関する考察として行った,第2回のサーベイレポートコーパスに収録された抜粋要約中の論点数を調査した結果を,表\ref{tb:SR_viewpoint_LAS_PAIN}から表\ref{tb:SR_viewpoint_XYL_TOOTH}にそれぞれ示す.\begin{table}[h]\caption{「レーシック手術は痛みがある」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_LAS_PAIN}\input{ca03tableB1.txt}\end{table}\begin{table}[h]\caption{「無洗米は水を汚さない」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_RIC_CLEAN}\input{ca03tableB2.txt}\end{table}\clearpage\begin{table}[p]\caption{「無洗米はおいしい」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_RIC_TASTE}\input{ca03tableB3.txt}\end{table}\begin{table}[p]\caption{「アスベストは危険性がない」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_ASB_RISK}\input{ca03tableB4.txt}\end{table}\begin{table}[p]\caption{「キシリトールは虫歯にならない」に関する抜粋要約中の論点の一覧}\label{tb:SR_viewpoint_XYL_TOOTH}\input{ca03tableB5.txt}\end{table}\clearpage
\section{調停要約コーパスのタグ一覧と文書型定義}
調停要約コーパスに収録されたWeb文書のタグの一覧を表\ref{tb:mediatory_summary_web_tagset1}と表\ref{tb:mediatory_summary_web_tagset2}に,抜粋要約のタグの一覧を表\ref{tb:mediatory_summary_sum_tagset}にそれぞれ示す.また,文書型定義を,図\ref{fg:mediatory_summary_web_dtd}と図\ref{fg:mediatory_summary_sum_dtd}にそれぞれ示す.\begin{table}[h]\caption{調停要約コーパスにおけるWeb文書のタグの一覧(前半)}\label{tb:mediatory_summary_web_tagset1}\input{ca03tableC1.txt}\end{table}\clearpage\begin{table}[p]\caption{調停要約コーパスにおけるWeb文書のタグの一覧(後半)}\label{tb:mediatory_summary_web_tagset2}\input{ca03tableC2.txt}\end{table}\clearpage\begin{table}[p]\caption{調停要約コーパスにおける調停要約文書のタグの一覧}\label{tb:mediatory_summary_sum_tagset}\input{ca03tableC3.txt}\end{table}\clearpage\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fc.eps}\end{center}\caption{調停要約コーパスに収録されたWeb文書の文書型定義}\label{fg:mediatory_summary_web_dtd}\end{figure}\clearpage\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA3fd.eps}\end{center}\caption{調停要約コーパスに収録された抜粋要約の文書型定義}\label{fg:mediatory_summary_sum_dtd}\end{figure}\clearpage\begin{biography}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商業教員養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程終了.博士(経営学).現在,横浜国立大学環境情報研究院科学研究費研究員.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本認知科学会各会員.}\bioauthor{中野正寛}{2005年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.2011年同専攻博士課程後期単位取得退学.修士(情報学).2011年から2012年まで同学府研究生.この間,自然言語処理に関する研究に従事.}\bioauthor{宮崎林太郎}{2004年神奈川大学大学院理学研究科情報科学専攻博士課程前期修了.2011年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了.博士(情報学).在学中は,自然言語処理に関する研究に従事.}\bioauthor{石下円香}{2009年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了.現在,国立情報学研究所特任研究員.博士(情報学).自然言語処理に関する研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{金子浩一}{2008年横浜国立大学工学部電子情報工学科卒業.2010年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{永井隆広}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V06N07-06
|
\section{はじめに}
機械翻訳等の自然言語処理システムでの品質向上におけるボトルネックとして構文解析の問題があり,解析する文が長くなると係り受け処理で解析を誤る場合がある.このため,長文を意識した構文解析の品質向上に向け各種研究が行われているが,依然として未解決のまま残されている課題がある.そのような課題の一つに連体形形容詞に関する係りがある.この課題に対し,我々は,連体形形容詞周りの「が」格,「の」格の係り決定ルールを提案し,技術文でよく利用される形容詞に対して約97%の精度で係りを特定できることを示した(菊池,伊東~1999).しかし,そこで対象とした形容詞は技術文での出現頻度を考慮して選択したので,抽出したルールが形容詞全般に対しても有効かどうか,また,同様な考え方が形容詞全般に対しても成り立つのかどうかについては検証できていなかった.そこで,本論文では,分析対象を広げ,抽出済みルールが形容詞全般に対して妥当なものであるかどうかを検証し,必要に応じてルールの拡張を行う.用語のスパース性のため形容詞全般にルールが適用可能かどうかを調べることは\mbox{困難である.}そのため,分析対象語のカバー範囲を明確にする必要がある.そこで,国立国語研究所で行われた分析体系(西尾~1972)に基づいて,形容詞を分類し,その分類体系を網羅するように各形容詞を選び,その係りの振る舞いを調べることとした.このような分析を通し,若干のルール拡張を行い,最終的に今回拡張した形容詞群に対しても,約95%という高い精度で係りを特定できることを示す.第2章では,我々がこれまでに提案した係りに関するルールを概説し,その問題点を\mbox{整理する.}第3章では,国立国語研究所での研究に基づき形容詞全体を分類整理する尺度を定め,多様なタイプの形容詞を分析対象として抽出可能とする.また,本論文で利用するコーパスについても説明する.第4章では形容詞無依存ルールと形容詞依存ルールに分けて検証し,その精度とルールの拡張について述べる.また,今回までに,7000件を越えるデータが蓄積されたので,直感的に決定していた形容詞無依存ルールのルール間の適用順位についても検証する.第5章では,対象語の拡張に伴い,新たに検出できたルールについて説明を行い,全ルールを適用した後に得られる各形容詞の係りのDefault属性について説明する.第6章では,それらを適用した結果の係り解釈の精度と現行システムとの比較を行う.
\section{提案済ルールの概説とその問題点}
我々の研究は,連体形形容詞に先行する格助詞「が」「の」格の係り特性に関するものであり,大量コーパスを利用し,言語現象を分析して係りの特徴をルール化し,それに,統計的振る舞いを加味して係りを精度よく決めようとするものである.分析方法は,先行研究(田中,荻野~1980,荻野~1987)とは異なり,形容詞を分類のキーとして,形容詞と前後の名詞の関係から係りを決定するものである.対象とする構文は,連体形形容詞を含む「名詞1+<*の|*が>+[副詞]+<イ形容詞|ナ形容詞>+名詞2」の形式である.菊池,伊東(1999)の分析では,技術文においてある程度以上の頻度で利用されている形容詞を対象とした.その結果抽出した係り決定のためのルールは,おおむね次のようなものである.ルールは形容詞無依存のルールと形容詞依存のルールに大別され,以下のような\mbox{ものから構成}される.なお,ルールはルール番号の小さい順に適用される.\begin{description}\item[\underline{形容詞の種類に無依存のルール}]~\\ルール1:名詞1が以下のものである場合は,名詞1は形容詞には係らない.\\数詞/単位/まとめる語/時詞/位置/区切り記号がある場合\\ルール2:複合助詞(での,からの,への等)及び「等の,等が」は形容詞には係らない.\\ルール3:形式名詞は係りを強く制御する.\\ルール3−1:名詞2が形式名詞の場合,名詞1は形容詞に係る.\\ルール3−2:名詞1が形式名詞の場合,名詞1は形容詞に係らない.\\ルール4:「が」格は名詞2以降にある係助詞「は」を越えて係ることはない.\item[\underline{形容詞に依存するルール}]~\\ルール5:動きや相互関係に関連する形容詞はサ変名詞や転成名詞と結びつく.\\ルール6:「人」,「組織」,「国」などの属性を持つ名詞と特定の形容詞には係りに相関が\\ある.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない形容詞が\\ある.\\ルール6−2:名詞2が「人」の属性を持つ場合,その語と強く結びつく形容詞(若\\い)がある.\\ルール7接尾語と結びつきの強い形容詞は接尾語を持つ語と結びつく.\item[\underline{係りのDefault属性}]~\\上記のルールに該当しない場合は,各形容詞の統計的な振る舞いから決定される係りの特性(Default属性)に従って係りが決まる.\end{description}しかし,これらのルールの抽出は技術文のコーパスから行い,一定の回数以上\mbox{該当する構文で使}用されていた形容詞を対象とした.そのため,(1)対象とした形容詞に偏りがある恐れがある,(2)対象外の形容詞についての知見が得にくい等の問題が残る.この問題を解消するためには,形容詞の網羅的な分析が必要となる.そのため,まず次章で形容詞の体系的分類について説明する.
\section{形容詞選定と利用したコーパス}
\subsection{形容詞の分類体系}国立国語研究所での研究(西尾~1972)によれば,形容詞は以下のように体系化される.\mbox{ただし,}国立国語研究所の分類でもまだ分類項目が不足すると思われるものがあったため,分類項目を追加した.追加した分類項目は【】で示したものである.また,文献(菊池,伊東~1999)で分析対象とした用語を多く含む分類項目を《》で示した.これにより,どの分類項目の形容詞が分析できているかを示した.\begin{center}\framebox{\begin{minipage}{.9\textwidth}感情形容詞\\(1)感情,(2)感覚\\属性形容詞\begin{description}\item[]1.広範なものごとの属性\\(1)《存在》,(2)異同・関係,(3)《普通でないこと》,(4)危険・害の有無,\\(5)【《評価・状態・様態》】\item[]2.ものに関する属性\\(1)《空間的な量》,(2)【《数》】,(3)色,(4)音,(5)味,(6)におい,(7)【熱】,\\(8)【《動き・変化》】,(9)【《評価・状態・様態》】\item[]3.人に関する属性\item[]4.ことに関する属性\\(1)必然的な事態,(2)程度\end{description}\end{minipage}}\end{center}上記分類に属する形容詞については,付録にその詳細を示した.上記分類からも分かる\mbox{通り,文}献(菊池,伊東~1999)で分析対象とした形容詞は,ほとんどが「属性形容詞」の「広範なものごとの属性」と「ものに関する属性」に属するものであった.技術文書での使用頻度から対象語を選んだこともあり,分析対象とした形容詞に偏りがあることが分かった.これは,技術文は事実の説明が主であり,人間の感情や感覚にまつわる説明はほとんどなく,人の五感に関係する様な形容詞があまり出現していないためと思われる.今回の報告では,形容詞全般を扱えるようにするため,上記分類を網羅するよう用語を選定した.\subsection{利用したコーパスと分析対象とした形容詞}本論文の主目的は,技術文ではあまり使用されない形容詞に対して,既抽出のルールの検証と拡張を行うものである.そのため対象とするコーパスは新聞文に限定した.使用したコーパスは,毎日新聞95年度版1月,10月,12月の記事(計約24Mバイト)である.ただし,ルールの適用順位の検証には,抽出済の全例文を使用した.評価が主目的のため,コーパスはすべて評価用と位置づけ,分析用と評価用という区分けはしなかった.係りを決定するためには,一定頻度以上の形容詞を対象とする必要がある.そのため本論文でも,6件以上出現した形容詞のみを分析対象とした.その結果,183語を調べたが,出現頻度が5件以下の語が121語あり,最終的な分析対象語は表1の62語となり,該当する分析対象文総数は1273件であった.\begin{table}[h]\caption{分析対象語}\begin{center}\begin{tabular}{|l|l|}\hline分類&分析対象とした用語\\\hlineイ形容詞&青い,赤い,明るい,浅い,温かい,厚い,熱い,甘い,\\&痛い,著しい,〜色い,薄い,美しい,美味しい,遅い,\\&重い,かたい,軽い,厳しい,暗い,黒い,苦しい,濃い,\\&寂しい,白い,すごい,鋭い,狭い,楽しい,近い,\\&冷たい,つらい,遠い,苦い,鈍い,速い,早い,古い,\\&欲しい,細い,珍しい,やさしい,弱い\\\hlineナ形容詞&安全な,緩やかな,同じ,勝手な,〜急な,危険な,\\&貴重な,静かな,自由な,新鮮な,好きな,速やかな,\\&大胆な,大変な,得意な,苦手な,熱心な,不安な,\\&不自由な\\\hline\end{tabular}\end{center}\end{table}
\section{抽出済みルールの検証}
\subsection{形容詞無依存ルール}\subsubsection{ルールの検証}形容詞無依存の4つの既抽出ルールを,体系的に抽出した全ての分析対象文に適用し,その正当性を調べた.その結果を表2に示す.\begin{table}[h]\caption{形容詞無依存ルールの評価結果}\begin{center}\begin{tabular}{|l|c|c|r|}\hline適用ルール名&該当件数&正解件数&正解率\\\hlineルール1&176&176&100\%\\\hlineルール2&76&76&100\%\\\hlineルール3−1&86&83&96.5\%\\\hlineルール3−2&7&7&100\%\\\hlineルール4&2&2&100\%\\\hline\end{tabular}\end{center}\end{table}この結果,ルール3−1を除いて,形容詞無依存ルールの適用は問題がないことが分かった.ルール3−1は,「こと」に関する例であり,これらは更なるルールの拡張が必要なことを示している.これは,判定詞「だ」を伴って助動詞化するものの範疇をどのようなものとするかというものである.以下に,解釈の範囲の拡張について述べる.\subsubsection{ルールの拡張}形式名詞は,形容詞に関係なく直前の用言の振る舞いを規定する.そのため,形式名詞「こと」に関して一般的と考えられる以下のルールを追加する.{\bf\begin{description}\item[\underline{ルールの拡張}]:呼応関係にある語については,その間に挟まれる形式名詞「こと」は,呼応の前の部分を閉じる働きはしない.このような用法には以下のようなものがある.\\いかに〜ことか.\\どんなに〜ことか.\\何と〜ことか.\end{description}}但し,各々の品詞は「いかに」が副詞,「どんなに」が連体詞,「なんと」が連語とされるがここでは,呼応関係にある副詞的語として,副詞として扱う.\\例1)夫人はマスコミに曲解されることがいかに苦しいことかを分かっている.\\例2)瞬時の異変がもたらした結果の,なんとすさまじく壊滅的なことか.例2は,句読点を含む場合(ルール1)のケースであるが,それは呼応関係を中に含むことをより鮮明にしている例文である.なお,これらは,判定詞を伴って助動詞化するケース(「ことであるか」)の短縮形(「ことか」)と解釈すれば,既存のルールの範疇に納まることになる.\subsubsection{ルールの適用順位の決定}今回までの研究により,ルールの適用順位を検討できる程度の用例が蓄積された(\mbox{約7000}件).そこで,形容詞無依存ルールに対して適用順位の評価を行った.ルール間で競合が起きるのは,名詞1に関するルール(ルール1,ルール2,ルール3—2)と名詞2の関するルール(ルール3—1)の間である.評価した結果は以下のようになった.\\評価結果:ルール1>ルール3−1>ルール3−2>ルール2以下に,ルール3—1との関係で順位検証に利用した例と出現件数を示す.\begin{description}\item[ルール1(名詞1が単位)>ルール3−1(名詞2が形式名詞)](出現件数2件)\\例)野生では母子で群れに戻るまでのこの数時間が最も危険な時である.\\この例では,「数時間が」は「危険な」には係らず,「である」に係る.\item[ルール1(名詞1が時)>ルール3−1(名詞2が形式名詞)](出現件数2件)\\例)雪の降る日は囲いをし,夏の暑い時は水やりに気をつけ,・・・.\\この例では,時を表す名詞句「夏の」は,「暑い」に係らず「暑い時」に係る.\item[ルール3−1(名詞2が形式名詞)>ルール3−2(名詞1が形式名詞)](出現件数3件)\\例)それを承知で親や生徒も入学する場合が多いため,一概には非難できない.\\この例では,「ため」が形式名詞であるため,「場合」も形式名詞であるが「多い」に係っている.\item[ルール3−1(名詞2が形式名詞)>ルール2(複合助詞)](出現件数2件)\\例)前足や鼻筋,首などが白いため「なぜこの犬が黒ベエなのか」と瀬戸雄三社長が指摘.\\この例では,「ため」が形式名詞であるため,「〜などが」は複合助詞相当であるが「白い」に係っている.\end{description}最後に示した例が,ルール2とルール3−1の適用順位の決定例である.これは,文献(菊池,伊東~1999)と順位が異なっている.但し,評価に使った件数が約7000件であるので,出現件数(2件)からみても,この順位の食い違いによる影響は非常に小さいものである.しかし,この例文により適用順位の変更が必要となった.\subsection{形容詞依存ルール}自然言語では,利用される用語は多岐にわたる.そのため用語を文字列として分類するのではスパース性のために,適用範囲に制約が生じる.スパース性を解消するためにはシソーラス情報を利用する等の上位カテゴリでの分類が必須である.しかし,一般にシソーラス情報は意味的考察の上でなされており,それをそのまま係りの分類に利用できるかどうかは明確でない.そのため,ここで既存の意味的分類が,係りを規定するための有効情報となり得るか検証する.その検証手段の一つとして,類似語や反意語に対して既抽出ルールを適用し,その正当性を評価する.もしこれらが正当であれば,意味的分類がそのまま係りを決める分類として利用できることとなる.ここでは,以下に示す類似語と反意語に対して分析する.\\\begin{tabular}{l@{→→}l}(分析済み語)激しい&(類似語)早い,速い,速やかな,遅い,〜急な\\(分析済み語)深い&(反意語)浅い\\(分析済み語)強い&(反意語)弱い\\(分析済み語)広い&(反意語)狭い\end{tabular}\\各々に対して,抽出済みルールと,それの適用結果を以下で説明する.\subsubsection{「激しい」の類似語でのルールの検証}「激しい」に適用されるルールは,次の2つである.\\ルール5:動きや相互関係に関連する語はサ変名詞や転成名詞と結びつく.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.これを動作を表す語に適用した結果を表3に示す.この表の意味は,「早い」では,\mbox{ルール5に}該当する表現が6件出現し,そのうち5件は正しく解釈できたが,1件はルール5を適用すると誤った解釈をする.ルール6−1は該当するものが3件見つかり,3件とも正しく解釈されたというものである.\begin{table}[ht]\caption{類似語へのルール適用の確からしさ}\begin{center}\begin{tabular}{|l|l|l|}\hline該当語&ルール5&ルール6−1\\\hline早い&6件出現5件正解&3件出現3件正解\\\hline速い&19件出現18件正解&4件出現4件正解\\\hline速やかな&8件出現8件正解&該当例なし\\\hline遅い&1件出現1件正解&1件出現1件正解\\\hline〜急な&13件出現13件正解&1件出現1件正解\\\hline\end{tabular}\end{center}\end{table}「早い」で誤った解釈をした例は以下の通り.\\例)朝の早い仕事やから,五時すぎ電車に乗って大阪へ向かってた.この例では,「早い」は「仕事」と結びつくのでなく,「朝」に係る.このようにルールを適用すると解釈を誤る場合もあるが,ほとんどは正解であり,動作を示す形容詞には,ルール5とルール6−1が適用可能との結果を得た.なお,「朝」と「早い」は,早い朝=早朝のように,共起性の強い語とすべきものと思われるが,ここでは共起の扱いはしなかった.\subsubsection{反意語でのルールの検証}\noindent(1)「強い」の反意語「弱い」でのルールの検証「強い」に適用されるルールは,次の2つである.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.\\ルール7:接尾語(色,性,力)と結び付く.これを反意語「弱い」に適用した結果を表4に示す.\begin{table}[h]\caption{反意語「弱い」への適用精度}\begin{center}\begin{tabular}{|l|l|l|}\hline該当語&ルール6−1&ルール7\\\hline弱い&25件出現25件正解&6件出現6件正解\\\hline\end{tabular}\end{center}\end{table}表4より,反意語へのルールの適用可能性は十分にあることが分かった.ただし,「弱い」の場合,接尾語として出現したものは,「性」,「力」のみであった.コーパスの量が増えると「色」も出現するものと思われる.\vspace{.5\baselineskip}\noindent(2)「深い」の反意語「浅い」でのルールの検証「深い」に適用されるルールは,次の2つである.\\ルール5:動きや相互関係に関連する語はサ変名詞や転成名詞と結びつく.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.これを反意語「浅い」に適用する.\begin{table}[h]\caption{反意語「浅い」への適用精度}\begin{center}\begin{tabular}{|l|l|l|}\hline該当語&ルール5&ルール6−1\\\hline浅い&1件出現1件正解&3件出現2件正解\\\hline\end{tabular}\end{center}\end{table}ルール6—1の誤り例は,「横一線の浅い4人のDFラインを敷き,〜」というものである.この文では,「浅い」は「DFライン」に係るが,「4人」に係るか「DFライン」に係るかを決定することは容易ではない.我々は,直後の名詞を選択することにしているので,「4人」を「人」の属性を持つものと判断し,ルール6—1により「横一線の」は「浅い」に係ると判断した.「4人のDFライン」が正しく解析され,この語の主要語がDFラインと判別できれば,ルールの適用誤りは解消される.すなわち,反意語へのルールの適用も十分可能であることが分かった.\vspace{.5\baselineskip}\noindent(3)「広い」の反意語「狭い」でのルールの検証「広い」に適用されるルールは,次のものである.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.\\しかし,調査したコーパス中には該当する「狭い」の例がなく,このルールの正否の判断はできなかった.以上の例からも分かるように,既抽出のルールは類似語及び反意語に対して,適用可能と判断できると思われる.しかし,形容詞は各語が多面的な意味を持つので,検証なしに無条件で類似語や反意語に同じルールを適用するのは注意を要するものと思われる.\vspace{.5\baselineskip}\noindent(4)反意語と係りのDefault属性の相関「新しい」という語は形容詞依存のルールは持たないが,先行する「が」「の」格が形容詞に係らないという意味でイ形容詞としては特徴的であった.この反意語「古い」についても同様の傾向が存在するかを分析した.結果は,共起(歴史の古い〜)を除いて,48件中47件は,先行する「が」「の」格が形容詞「古い」に係らなかった.しかし,このような,係りのDefault属性は,すべての反意語に適用できる訳ではない.例えば,「自由な」−「不自由な」のペアでは,「の」格に対して,まったく係り方が異なる.「遠い」−「近い」では,「遠い」は先行する「が」「の」格が係らない傾向があるのに対し,「近い」は先行する「が」「の」格が係る傾向がある.そのため,係りのDefault属性に関しては,各語ごとに決定しなければならないことが分かった.\subsubsection{ルールの適用範囲の拡張(適用可能な語の拡張)}形容詞に依存するルールを今回抽出した語にも適用可能とするために,\mbox{ルール適用用語の拡張}をした.対象となるルールはルール5,6,7である.\vspace{.5\baselineskip}\noindent(1)「ルール5:動きや相互関係に関連する語はサ変名詞や転成名詞と結びつく」の対象となる用語の拡張サ変名詞と結びつく語には以下の様なものがある.\\軽い,早い,速い,かたい,著しい\\ただし,次の語にもこのルールは適用可能であるが,特にこのルールを適用しなくても係り決定の精度には変化がなかったため,ルール適用の対象語とはしない.\\速やかな,遅い,〜急な\vspace{.5\baselineskip}\noindent(2)「ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない形容詞」の対象となる用語の拡張人と結び付かない語には以下の様なものがある\\\begin{tabular}{l@{→}l}重さを示す語&軽い,重い\\時を示す語&古い\\色を示す語&黒い,白い\\\multicolumn{2}{l}{人の状態を示すことのある語}\\&やさしい,速い,温かい,寒い,鋭い,厚い,甘い,可愛い,\\\multicolumn{1}{l@{\protect\phantom{→}}}{}&弱い,苦しい,美しい,著しい,濃い\end{tabular}\vspace{.5\baselineskip}\noindent(3)「ルール7接尾語と結び付きの強い形容詞は接尾語のある語に結び付く」の対象となる用語の拡張接尾語と強い結びつきのある語には次のようなものがある.ここで,「色」は同等の意味合いを持つ「色彩」「色合い」にも拡張する.\\\begin{tabular}{l@{$\cdots$}l}濃い&色(色彩,色合い),度\\弱い&力,性\end{tabular}
\section{新規ルールの追加}
分析対象となる形容詞を拡張した結果,係りにおいて特徴的な振る舞いを\mbox{するものが検出でき}た.そこでそれを,新たにルールとして設定することとした.このようなものには形容詞無依存ルールと,形容詞依存ルールで各々1つ存在する.\subsection{形容詞無依存ルールの追加}網羅的に抽出した形容詞を分析した結果,次のルールも有効であることが分かった.{\bf\begin{description}\item[\underline{追加ルール1}]:「名詞1」の直前に最上級,もしくは最上級相当を示す副詞(副詞相当語)が存在する場合,形容詞に先行する「が」「の」格は形容詞に係る.\end{description}}このような副詞には以下のものがある.\\一番,最も\\これらは4例存在し,4例ともこの規則にしたがった.\\例)破防法で最も規制の厳しい解散指定を請求する.\\例)ソスコベツ第一副首相は昨年,最も批判色の濃い独立テレビの放送免許取り\\消しの可能性に言及.\\例)世界で一番森の美しい国,亜熱帯から亜寒帯までのさまざまな樹種に恵まれ\\た国が,この日本だ.\\例)一行のなかでも最も体重の重い人間を乗せて先に送ってあった.このルールは,形容詞無依存のルールである.用例数はあまり多くなくはないが,\mbox{これは係りの}非交差の原則に則るものでもあるのでルール化した.ルール適用順位は,形容詞無依存ルールとしては一番弱い順位(5番目のルール)に設定する.\subsection{形容詞依存ルール追加}「感情形容詞」の中には,目的格「を」をとると分類される特殊なものがある(西尾~1972).このような用語は係りの面からも特徴ある振る舞いをしている.そのため次のルールを追加する.{\bf\begin{description}\item[\underline{追加ルール2}]:「を」格を取る以下の感情形容詞(苦手な,好きな,得意な,欲しい)には,先行する「が」「の」格が係る.\end{description}}これらの語の係りの分析結果を表6に示す.表からも分かる通り,先行する「が」「の」\mbox{格はこ}れらの形容詞に係る確率が非常に高い.\begin{table}[h]\caption{「を」格をとる感情形容詞の係り特性}\begin{center}\begin{tabular}{|l|c|c|c|c|}\hline該当語&\multicolumn{2}{c|}{先行する「が」格が}&\multicolumn{2}{c|}{先行する「の」格が}\\\cline{2-5}&係る&係らない&係る&係らない\\\hline苦手&4&0&2&0\\\hline好きな&15&3&36&3\\\hline得意な&2&1&4&0\\\hline欲しい&6&0&6&0\\\hline\end{tabular}\end{center}\end{table}これらの形容詞が出現した場合で,「が」「の」格が係らないケースは,(1)動作主が\mbox{省略されて}いるためか,(2)複数箇所に係るため係りの強度がより強い方を係りの正解としたことにより発生したものである.たとえば,次の例では,係り先が複数個所となり,片方に対して日本語特有の省略が発生しているために「が」格が係らないと解釈したものである.\\例)ファワズさんが不得意な英語で事情聴取を受けた.\\→ファワズさんが(彼女が)不得意な英語で事情聴取を受けた.\\しかし,この文は「ファワズさんは,(彼女が)不得意な英語で事情聴取を受けた.」と解釈することが可能である.これは,ゼロ代名詞の省略の問題として解析されるべきものである.そうすると,全てのケースで,先行する「が」「の」格が係るという結果になる.ただし,意味の問題に立ち入ると,これらの語は動詞と非常に似通った振る舞いを\mbox{している.例}えば,「私は本が欲しい」という文について考察する.この文の意味は「私が本を欲する」である.すなわち,「欲しい」は「を」格を対象格としてとることを示している.ただしこの対象格は動詞の場合とは異なり,連体形形容詞との関係では,格助詞「が」「の」が表層格として使用される.この文から連体修飾を含む文を作ると「私の欲しい本を・・・」「本の欲しい私は・・・」のようになる.どちらの場合も「欲しい」には先行する「の」格が係る.しかし同じ「の」格であっても,「私の」の「の」は動作主を表し,「本の」の「の」は対象を表している.そのため,解釈を正確に行うためには,係りを正しく処理するだけでなく,各用語の意味属性を意識する必要がある.\subsection{分析対象語の係りのDefault属性の決定}以上のルールを適用することにより,係りの揺らぎに相当する部分が取り除かれる.ルール適用後の係りは各形容詞の固有の係り特性(係りのDefault属性)となる.そのようにして調べた各形容詞の係りのDefault属性を次の分類に従い表7にまとめる.\\分類1:「が」「の」格は形容詞に係る.\\分類2:「が」格は形容詞に係るが,「の」格は形容詞に係らない.\\分類3:「が」格は形容詞に係らないが,「の」格は形容詞に係る.\\分類4:「が」「の」格は形容詞に係らない.\begin{table}[h]\caption{形容詞の係りのDefault属性}\begin{center}\begin{tabular}{|l|l|}\hline分類&分析対象語\\\hline分類1&浅い,著しい,薄い,遅い,濃い,好きな,近い,得意な,\\&早い,速い,不自由な,欲しい,苦手な,鈍い,弱い\\\hline分類2&〜色い,美しい,重い,軽い,黒い,苦しい,寂しい,自由な,\\&狭い,楽しい\\\hline分類3&該当なし\\\hline分類4&青い,赤い,明るい,温かい,熱い,厚い,甘い,安全な,痛い,\\&美味しい,同じ,かたい,勝手な,危険な,貴重な,厳しい,\\&〜急な,暗い,白い,静かな,新鮮な,すごい,速やかな,鋭い,\\&大胆な,大変な,冷たい,つらい,遠い,苦い,熱心な,不安な,\\&古い,細い,珍しい,やさしい,緩やかな\\\hline\end{tabular}\end{center}\end{table}
\section{適用後の係り解釈精度と現行システムとの比較}
以上の全てのルールと係りのDefault属性を適用した結果,分析対象文総数\mbox{1273件のうち,}係りを正しく解釈したものは1217件,誤って解釈したものは56件であり,正解率は95.6%であった.すなわち,本方式を利用すれば,約95%の精度で「が」「の」格が形容詞に係るかどうかを判定することが可能となることが分かった.本方式の精度がどの程度であるかを判断する目的で,ある市販のソフトを利用して\mbox{解釈精度の}比較評価を行った.市販のソフトの場合一般に,解析の中間段階にある係りを図示することはない.そのため,出力された英文を頼りに係りの精度を検証した.しかし係りの曖昧性は,単語の持つ曖昧性に起因する場合も多々存在する.そこで入力となる文に次の様な処置を施して評価した.\begin{enumerate}\item文は本来の意味を損ねないように考慮しながらできるだけ短くした.\item未登録語になりそうな語(人名等)は明らかにその属性であると分かる語にした.\end{enumerate}このような処置をほどこして,係りを検証すると,市販システムでの連体形形容詞の係りの解釈精度は80%程度であった.以上の結果から,本報告で説明したルールの組み込みは非常に有効であると言える.
\section{まとめ}
本論文では,体系的分析に従い形容詞を網羅的に分析し,反意語や類似語には同種のルールが適用できる可能性が高いことを示した.また追加分析した用語から新たに2つの追加ルールを見出すことができた.その結果,約95%の精度で連体形形容詞に関わる係りを特定できた.今回は分析対象とする形容詞を体系的に選んだので,係りに関してはこれらのルールで形容詞全体をカバーできるものと考えている.また,現行システムの係り解釈の精度と比較し,本方式が有効であることを示した.しかし,実際に現行システムへの組み込みには費用対効果比に基づく詳細なフィージビリティ分析が必要となる.既存のシステムの改良は大変費用の掛かるものとなるが,本方式では段階的な組み込みが可能であるため,以下のような手順での組み込みが可能と思われる.\begin{enumerate}\item顕著な係りのDefault属性の組み込み\item形容詞単位でのルールの組み込み\item顕著ではない係りのDefault属性の組み込み\end{enumerate}また,本論文で提案した方式は,形容詞の「を」格や「に」格の係り分析にも利用可能である.今後は,連体形形容詞と「が」「の」格以外の格の関係について同様に係り関係を明確にしていく予定である.\section*{謝辞}本研究にあたり,多くの支援をしていただきました富士通静岡エンジニアリング\mbox{社長田口尚三}氏に心より感謝いたします.また,コーパスの利用を許諾していただきました毎日新聞社に感謝いたします.\newpage\section*{付録形容詞の意味的分類(調査対象の用語とその分類)}{\small\begin{center}\begin{tabular}{|c|l|l|l|}\hline大分類&中分類&小分類&具体的用語\\\hline感情&感情&感情&愛しい,嬉しい,気味悪い,悔しい,憎い,恥ずかしい,\\形容詞&&&安心な,嫌な,可笑しい,つらい,可愛い,懐かしい,楽しい,\\&&&苦しい,嫌いな,好きな,寂しい,心配な,悲しい,不安な,\\&&&怖い,満足な,面白い,愉快な,可哀相な,気の毒な,汚い,\\&&&恐ろしい,苦手な,得意な,美しい,有り難い,欲しい\\\cline{2-4}&感覚&感覚&痛い,痒い,眠い\\\hline属性&ものごと&存在&《無い》\\\cline{3-4}形容詞&の属性&異同・&あべこべな,同じ,逆な,さかさまな,反対な,等しい,\\&&関係&そっくりな\\\cline{3-4}&&普通で&《特殊な》《特別な》,異様な,おかしい,変な,妙な\\&&ない&\\\cline{3-4}&&危険・害&危ない,安全な,危険な,有害な\\\cline{3-4}&&評価・&《よい》《良い》《悪い》《完全な》《さまざまな》《詳細な》\\&&状態・&《複雑な》《正確な》《正しい》《難しい》《新たな》《適切な》\\&&様態&《重要な》《可能な》《不可能な》《容易な》《困難な》\\&&&《簡単な》《有効な》《容易な》《大幅な》《主な》《主要な》\\&&&《〜的な》,緩やかな,自由な,不自由な,きつい\\\cline{2-4}&ものに関&空間的な&《大きい》《大きな》《高い》《小さい》《小さな》《長い》\\&する属性&量&《低い》《広い》《深い》《短い》《〜大な》《〜規模な》,\\&&&かたい,鋭い,丸い,狭い,固い,細い,四角い,鈍い,太い,\\&&&浅い,厚い,粗い,薄い,濃い,近い,遠い\\\cline{3-4}&&数&《多い》《少ない》《豊富な》\\\cline{3-4}&&色&青い,赤い,黒い,白い,〜色い\\\cline{3-4}&&音&うるさい,けたたましい,騒がしい,静かな,静寂な,静粛な,\\&&&騒々しい,やかましい\\\cline{3-4}&&味&甘い,旨い,美味しい,からい,しつこい,渋い,淡白な,\\&&&苦い,美味な,まずい\\\cline{3-4}&&におい&かぐわしい,臭い,こうばしい\\\cline{3-4}&&熱&涼しい,ぬるい,暖かい,温かい,寒い,暑い,熱い,冷たい\\\cline{3-4}&&動き・&《激しい》《〜速な》〜急な,早い,速い,速やかな,遅い,\\&&変化&荒い,緩い,穏やかな\\\cline{3-4}&&評価・&《詳しい》《新しい》《強い》《不要な》《必要な》,古風な,\\&&状態・&新鮮な,古い,古臭い,貴い,貴重な,珍しい,軽い,重い,\\&&様態&明るい,暗い,眩しい,弱い,淡い\\\cline{2-4}&人に関す&人に関す&《若い》,あいくるしい,あどけない,うまい,内気な,\\&る属性&る属性&おおげさな,おだやかな,男らしい,おとなしい,快活な,\\&&&かしこい,勝気な,勝手な,か弱い,頑固な,几帳面な,\\&&&きびしい,器用な,気楽な,軽率な,軽薄な,元気な,健康な,\\&&&懸命な,強情な,正直な,上手な,丈夫な,真剣な,慎重な,\\&&&親切な,丹念な,貞淑な,丁寧な,柔和な,熱心な,のんきな,\\&&&本気な,敏捷な,無愛想な,真面目な,まめな,無口な,\\&&&むじゃきな,やさしい,雄弁な,利発な,冷酷な,冷淡な,\\&&&腕白な\\\cline{2-4}&ことに関&必然的な&当然な,当たり前な\\&&事態&\\\cline{3-4}&する属性&程度&著しい,すごい,甚だしい,顕著な,大変な\\\hline\end{tabular}\begin{tabular}{p{.8\textwidth}}《》は文献(菊池,伊東~1999)で分析した用語を示す.\\文脈によっては複数のカテゴリに属する用語もあるが,表層上での用語の洗い出しを主目的としたため,用語は一個所のみに現れるよう集約した.\end{tabular}\end{center}}\newpage\nocite{Kikuchi1999i,Nishio1972,Tanaka1980,Ogino1987}\bibliographystyle{jnlpbbl}\bibliography{v06n7_06}\begin{biography}\biotitle{略歴}\bioauthor{菊池浩三(正会員)}{1970年大阪大学理学部物理学科卒業.1972年大阪大学大学院修士課程修了.1973年富士通株式会社入社.1983年(株)富士通静岡エンジニアリング出向.1999年静岡大学大学院電子科学研究科博士課程修了,工学博士.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{伊東幸宏(正会員)}{1980年早稲田大学理工学部電子通信学科卒業.1987年同大学院博士後期課程修了.同年,早稲田大学理工学部電子通信学科助手.1990年静岡大学工学部情報知識工学科助教授.現在静岡大学情報科学科助教授,工学博士.自然言語理解,知的教育システムなどに興味をもつ.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会,日本認知学会,教育情報システム学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N03-03
|
\section{はじめに}
近年,テキスト自動要約の必要性が高まってきており,自動要約に関する研究が盛んに行なわれてきている\cite{okumura}.要約とは,人間がテキストの内容の理解,取捨選択をより容易にできるようにするために,元のテキストを短く表し直したものをいう.これまでの研究で提案されてきた要約手法は,主に次の3つに分類される.\begin{itemize}\item文書を対象とした,重要文抽出による要約\item文を対象とした,不要個所削除(重要個所抽出)による要約\item文を対象とした,語句の言い換えによる要約\end{itemize}どのような使用目的の要約でも作成できる万能な要約手法は存在しないため,要約の使用目的に応じた手法を選択し,時には複数の手法を併用して要約を作成することが必要となる\cite{yamamoto}.要約技術の応用はいくつか考えられている.例えば,「WWW上の検索エンジンの検索結果を一覧するための要約」を作成する場合には,元の文書にアクセスするかどうかを判断するための手掛りとしての役割から,ユーザに読むことの負担を与えないために,簡潔で自然な文が必要となる.したがって,重要文抽出によって作成した要約結果に対し,必要に応じて不要個所削除と語句の言い換えによる要約手法を用いるという方法が適切であると考えられる.また「ニュース番組の字幕生成,及び文字放送のための要約」を作成する場合には,重要文抽出による要約では文書の自然さが損なわれやすいことと情報の欠落が大きすぎること,そしてテキストをそれほど短くする必要がないことなどから,不要個所削除と語句の言い換えによる要約手法を用いることが適切だと考えられる.このように,要約の使用目的に応じて,それに適した要約手法を用いることで,より効果の高い要約を作成することができる.また,テキストの種類に応じて適切な要約手法もあると考えられる.将来,テキストの種類を自動判別し,ユーザの要求に応じられる要約手法を選択し,テキストを要約するといった要約システムを実現するためには,様々な要約手法が利用可能であることが望まれる.本論文で提案するのは,不要個所削除による要約を実現するための要素技術である,文中の省略可能な連用修飾表現を認定するために必要な知識を獲得する手法である.不要個所省略による要約手法として,山本ら\cite{yamamoto}は,一文ごとの要約ヒューリスティックスに基づいた連体修飾節などの削除を提案している.この手法は,重要文抽出による要約結果をさらに要約するという位置付けで提案されているが,単独で用いることも可能である.若尾ら\cite{wakao}や山崎ら\cite{yamasaki}は,人手で作成された字幕とその元となったニュース原稿とを人手で比較し,それによって作成した言い換え規則を用いた要約手法を提案している.また,加藤ら\cite{kato}は記事ごとに対応のとれたニュース原稿と字幕放送の原稿を用いて,言い換えに関する要約知識を自動獲得する研究を行なっている.ところが,これらの手法には次のような問題点がある.まず,不要箇所の削除や言い換えに関する規則を人手で作成するには多大な労力が掛かり,網羅性などの問題も残ることが挙げられる.また,加藤らが使用したような原文と要約文との対応がとれたコーパスは要約のための言語知識を得る対象として有用であるのは明らかであるが,一般には存在しておらず,入手するのが困難である.また,そのようなコーパスを人手で作成するには多大な作業量が必要であると予想される.このような理由から,本論文では,原文と要約文との対応がとれていない一般のコーパスから,不要個所省略による要約において利用できる言語知識を自動獲得し,獲得した言語知識を用いて要約を行なう手法を提案する.ここで不要箇所の単位として連用修飾表現に注目する.連用修飾表現の中には,いわゆる格要素が含まれている.格要素の省略は日本語の文に頻出する言語現象である.格要素が省略される現象には次の2つの原因がある.\begin{enumerate}\item格要素の必須性・任意性\item文脈の影響\end{enumerate}(1):動詞と共起する格要素には,その動詞と共起することが不可欠である必須格と,そうではない任意格があるとされている\cite{IPAL}.必須格は,主格,目的格,間接目的格など,動詞が表現する事象の内部構造を記述するものであり,任意格は,手段や理由,時間,場所などを記述するものである場合が多い.必須格がないことは読み手に文が不自然であると感じさせる.ただし,必須格でも文脈によって省略可能となる場合があり,任意格についても動詞と共起するのが任意的であるというだけで,文中の任意格が必ず省略可能となるとは限らない.(2):本論文における文脈とは,読み手が当該文を読む直前までに得ている情報のことを指す.文脈の影響により省略可能となるのは,読み手にとって新しい情報を与えない格要素,または文脈から読み手が補完するのが容易な格要素である.なお,文脈から省略可能となるのは格要素だけに限らず,格助詞を持たない連用修飾表現においても,文脈から省略可能となる可能性がある.したがって,上で述べたように必須格の格要素でも,それが読み手にとって旧情報であれば省略可能となる場合があり,任意格の格要素でも,読み手にとって新情報であれば,省略することは重要な情報の欠落につながる場合がある.格要素の必須性・任意性を求めることで,省略可能な格要素を認定する手法として,格フレーム辞書を用いた手法を挙げることができる.現在,利用できる格フレーム辞書としては,IPALの基本動詞辞書\cite{IPAL}や日本語語彙大系\cite{goi}の構文意味辞書といった人手により収集されたものがある.また,格フレームの自動獲得に関する研究も数多く行なわれてきている.例えば,用言とその直前の格要素の組を単位として,コーパスから用例を収集し,それらのクラスタリングを行なうことによって,格フレーム辞書を自動的に構築する手法\cite{kawahara}がある.この手法は,用言と格要素の組合せをコーパスから取得し,頻度情報などを用いて格フレームを生成する.その他には,対訳コーパスからの動詞の格フレーム獲得\cite{utsuro1}等がある.本論文で提案する手法は,格要素も含めた省略可能な連用修飾表現を認定する手法であり,その点が格フレーム生成の研究とは異なる.だが,これらの研究で提案されている手法により獲得した格フレームを用いても,省略可能な格要素の認定が実現可能であると考えられる.しかし,格フレームを用いた格要素の省略には次のような問題点がある.\begin{enumerate}\item格要素以外の省略可能な連用修飾表現に対応できない.例えば,節「そのために必要な措置として二百八十二の指令・規則案を定めた.」の動詞「定めた」に対する連用修飾表現「そのために必要な措置として」は文脈から省略可能だが,格要素ではないので格フレーム辞書では対応できない.特に,我々の調査の結果,格要素ではない連用修飾表現で省略可能な表現は多数(後述の実験では,省略可能な連用修飾表現のうち,約55\%が格要素ではない連用修飾表現であった)存在する.\item格フレーム辞書に記載されていない動詞に関しては,省略可能な格要素が認定できない.\item動詞の必須格,任意格は,その格の格成分によって変化する.例えば,IPAL基本動詞辞書において,動詞「進める」の格フレームに関する記述は表\ref{SUSUMERU}のようになっている.この情報からN3が「大学」である場合のみニ格が必須格になる.このように,たとえ大規模な辞書が構築できたとしても,用例によっては任意格が必須格に変化する場合があり,辞書のような静的な情報では対応できない場合がある.\begin{table}[bt]\begin{center}\caption{動詞「進める」の格フレーム}\label{SUSUMERU}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&文例\\\hline\hline1&N1ガN2ヲ(N3ニ/ヘ)&彼は船を沖へ進めた.\\2&N1ガN2ヲN3ニ&彼は娘を大学に進めた.\\3&N1ガN2ヲ&彼は会の準備を進めている.\\4&N1ガN2ヲ&政府は国の産業を進めている.\\\hline\end{tabular}\end{center}\end{table}\item格要素を省略可能と認定する場合,読み手が当該文を読む直前までに得ている情報から,省略可能と認定できる場合がある.しかし,格フレーム辞書では静的であるため,文脈を考慮した省略可能な格要素の認定ができない.\item認定対象としている連用修飾表現に重要な情報が含まれていれば,任意格であっても,そのような連用修飾表現を省略してしまえば情報欠落が大きくなる.しかし,格フレーム辞書では情報の重要度を考慮して認定することができない.\end{enumerate}そこで,本論文では,対応する要約文,もしくは格フレーム等を用いない省略可能な連用修飾表現の認定を行なう教師なしの手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.そのため,格フレームでは対処できない格要素以外の連用修飾表現に対しても省略可能かどうかの判定が可能である.また,ある連用修飾表現が省略可能かどうかの判定の際に,その内容および前後の文脈を考慮して,その連用修飾表現に含まれている情報が以前の文にも含まれている情報である場合には,省略可能と認定されやすくなる.逆に,その情報が以降の文に含まれている場合や,重要な情報が含まれている場合には省略可能と認定されにくくなるような工夫を行なっている.本手法によって抽出された省略可能と認定された連用修飾表現は,その内容および前後の文脈を考慮している上に,格要素以外の連用修飾表現も含まれている.これらは現状の格フレーム辞書にはない知識であり,要約のみならず換言や文生成にも有用であると考える.本研究でコーパスとして想定するのは,形態素情報などの付与されていない一般のコーパスである.したがってCD-ROMなどで提供されている新聞記事のバックナンバーや電子辞書,WWW上で公開されている文書などを利用することができ,コーパスの大規模化も比較的容易に実現可能である.以下,第2章では,本論文で提案する手法を説明する.第3章では,手法を実装して,それによって省略可能と認定される連用修飾表現を示す.第4章では,本手法の性能を評価し,評価結果の考察を示す.第5章では,格フレーム辞書を用いた手法と本手法によって省略可能と認定された連用修飾表現を比較した実験について述べ,実験結果について考察する.
\section{提案手法}
本手法では,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.これは「省略できる可能性のある連用修飾表現を含む節に対して,同一の動詞と類似した名詞を含み,かつ,格助詞出現の差異が認められる節が存在し,一方にしか出現しない格助詞を含む連用修飾表現は省略可能である」という仮定に基づいている.ここで,本論文における節とは,ひとつの動詞と,それに対する連用修飾表現をもつ文の構成要素である.なお,本論文では主節も従属節も節とする.以後,省略できる可能性のある連用修飾表現を含有する節を含有節とする.また,含有節と同一の動詞をもち,かつ格助詞出現の差異が認められる節を差異節とする.\subsection{含有節の取得}本手法における含有節は,ある節における動詞に対して2つ以上,連用修飾表現が係っている節であるとする.例えば,「市場統合はECが八五年から進めてきた計画.」における動詞「進める」には「ECが」と「八五年から」という2つの連用修飾表現が係っている.そのため,節「ECが八五年から進めてきた」は含有節となる.ただし,「する」「ある」「なる」の3つの動詞に関して,これらの動詞に係る連用修飾表現を省略すると情報欠落が大きい場合が多いという理由から,精度向上のため,これらの動詞を含む節は含有節としない.本手法では,精度の向上のため,連用修飾表現が1つしか係っていない動詞に対する連用修飾表現を認定対象としない.もし,そのような連用修飾表現を省略可能としてしまうと,その節は連用修飾表現が係っていない動詞になってしまい,情報欠落が大きいものと考える.日本語には,文脈や文末表現によっては連用修飾表現がかかっていない動詞も存在している.しかし,それは一般的に何かの連用修飾表現が省略されている場合であり,文脈から補完ができる情報である.そこまで精度のよい完全な文脈解析ができないため,本手法では精度の向上のため,2つ以上の連用修飾表現が係っている動詞に対する連用修飾表現を対象とする.すなわち,その動詞に2つ以上の連用修飾表現が係っている場合,最も重要な連用修飾表現以外は省略できる可能性がある.よって,本手法を適用した動詞には,少なくとも1つの連用修飾表現が必ず係ることになる.\subsection{差異節の検索}取得した含有節に対する差異節をコーパスから検索する.ここで差異節とは,先に定義したように,含有節と同一の動詞をもち,かつ,格助詞出現の差異が認められる節である.すなわち上記の例文「市場統合はECが八五年から進めてきた計画」における差異節は,動詞「進む」をもち,かつ,「ガ格」「カラ格」のうち,「ガ格」をもつ節,および,「カラ格」をもつ節である.ただし,動詞「進む」をもち「ガ格」「カラ格」を両方,含んでいる節は,節対における格助詞出現の差異が認められないため,本手法における差異節ではない.また,厳密には動詞「進む」をもち「ガ格」「カラ格」を両方持たない節も差異節ではあるが,そのような節は省略可能な連用修飾表現の認定に必要な知識の獲得に有用ではないので,本手法においては対象外とする.例えば,含有節「ECが八五年から進めてきた」に対して,節「市が整備を進めてきた」は,ガ格を含んでいるがカラ格を含んでいないので差異節である.\subsection{省略可能な連用修飾表現の認定}含有節と差異節とを比較して省略可能な連用修飾表現を認定する.ここで,ある含有節に対して$k$個の差異節が検索されたとし,以下のように,記号を定義する.\begin{description}\item[$SP(V)$:]動詞$V$をもつ含有節,\item[$DP_{i}(V)$:]$SP(V)$の差異節.なお,$i=1,2,\dots,k$\item[$C(x)$:]節$x$の動詞$V$に係る連用修飾表現において,動詞$V$に対する格助詞の集合.ただし,$x=SP(V)\or\x=DP_{i}(V)$,\item[$E(c_{j},x)$:]節$x$において格助詞$c_{j}$を含む連用修飾表現.ただし,$c_{j}\inC(x)$,\end{description}例えば,$E(c_{1},SP(V))$と$E(c_{1},DP_{1}(V))$は,含有節$SP(V)$において格助詞$c_{1}$をともなう連用修飾表現$E(c_{1},SP(V))$と,差異節$DP_{1}$において同じ格助詞$c_{1}$をともなう連用修飾表現$E(c_{1},DP_{1}(V))$という関係がある.なお,含有節の動詞$V$に対する格助詞を伴わない連用修飾表現の$c_{j}$は,その動詞$V$に係る品詞によって決定される.品詞は,動詞,名詞,副詞,形容詞,助詞,接続詞,指示詞の7つに分類した\footnote{品詞情報は形態素解析器として採用したJUMANversion3.5に準拠する.}.例えば,「ECは市場統合に続いて通貨・政治統合を推進する」という節で,「ECは市場統合に続いて」が「推進する」に係っているが,この連用修飾表現は格助詞を伴っていないうえ,「続いて」が動詞なので$c_{j}=``動詞''$と定義する.また,「参入分野としては,大蔵省が当初から認める全分野を想定している.」という節で,「参入分野としては」が「想定している」に係っているが,この連用修飾表現は,格助詞を伴っていないうえ,最後に副助詞「は」が含まれているので,$c_{j}=``助詞''$と定義する.本論文では格助詞を伴わない連用修飾表現も,格助詞のかわりに他の品詞を伴っている連用修飾表現であるものと定義している.以下,省略可能な連用修飾表現の認定手法を説明する.\begin{description}\item[Step1]含有節$SP(V)$の各連用修飾表現$E(c_{j},SP(V))$に対して,含有節における各連用修飾表現の重み$W(E(c_{j},SP(V)))$を計算する.重みが高い連用修飾表現ほど,その含有節において重要であり,省略できない連用修飾表現になる.\begin{eqnarray}W(E(c_{j},SP(V)))&=&\max_{i=1,2,\dots,k}(1+SIM(n_{E(c_{j},SP(V))},n_{E(c_{j},DP_{i}(V))}))\nonumber\\&\times&\frac{f(V,c_{j})}{f(V)}\times(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))\\B(n,SP(V))&=&\frac{1+after(n,SP(V))}{2(1+before(n,SP(V)))}\times\log\frac{P}{df(n)}\end{eqnarray}但し,\begin{description}\item[$n_{E(c_{j},x)}$:]節$x$において格助詞$c_{j}$をともなう連用修飾表現$E(c_{j},x)$において,格助詞$c_{j}$の前に出現する名詞,例えば,「欧州共同体の市場統合が十二月三十一日で完成する」という含有節$SP(V)$における連用修飾表現$E(c_{j},SP(V))$「欧州共同体の市場統合が」では,ガ格$c_{j}$の前に出現する名詞「統合」が$n_{E(c_{j},SP(V))}$である.なお,格助詞を含まない連用修飾表現では,その連用修飾表現の最後に出現する名詞とする.例えば「そのために必要な措置として」では,最後に出現する名詞「措置」が$n_{E(c_{j},SP(V))}$である.\item[$f(V)$:]含有節$SP(V)$に含まれている動詞$V$の全コーパスにおける出現頻度,\item[$f(V,c_{j})$:]全コーパスにおいて,動詞$V$が格助詞$c_{j}$と共起した頻度,\item[$N(c_{j},SP(V))$:]連用修飾表現$E(c_{j},SP(V))$に含まれる名詞の集合.ただし,複合名詞の場合は,分解せずに複合名詞で1つの名詞として扱う.例えば,連用修飾表現「欧州共同体の市場統合が」では,\{欧州共同体,市場統合\}が$N(c_{j},SP(V))$である.\item[$after(n,SP(V))$:]含有節$SP(V)$が存在する文$S$より後の文に名詞$n$が出現する頻度.ただし$n\inN(c_{j},SP(V))$,\item[$before(n,SP(V))$:]含有節$SP(V)$が存在する文$S$より前の文に名詞$n$が出現する頻度.ただし$n\inN(c_{j},SP(V))$,\item[$df(n)$:]対象とした全コーパスにおいて,名詞$n$を含んでいる文書の頻度,\item[$P$:]対象とした全コーパスにおける全文書数,\end{description}ここで,式(1)は,先に示した「含有節に対して,類似した名詞を含んだ差異節が存在し,一方にしか出現しない格助詞を含む連用修飾表現は省略可能である」という仮定に基づいて考案した.式(1)の第1項$SIM(n_{E(c_{j},SP(V))},n_{E(c_{j},DP_{i}(V))})$は,含有節$SP(V)$の格助詞$c_{j}$を伴う連用修飾表現$E(c_{j},SP(V))$における名詞$n_{E(c_{j},SP(V))}$と,差異節$DP_{i}(V)$の格助詞$c_{j}$を伴う連用修飾表現$E(c_{j},DP_{i}(V))$における名詞$n_{E(c_{j},DP_{i}(V))}$の類似度である.名詞間類似度の計算については後述する.$n_{E(c_{j},DP_{i}(V))}$は,最大で差異節の数だけ存在するが,類似度は,その中の最大値を採用する.例えば,含有節の連用修飾表現$E(c_{j},SP(V))$の名詞$n_{E(c_{j},SP(V))}$と,差異節の連用修飾表現$E(c_{j},DP_{i}(V))$の名詞$n_{E(c_{j},DP_{i}(V))}$の類似度が最も高かったとする.その場合,コーパスには連用修飾表現$E(c_{j},SP(V))$に対して同一の動詞に係り,同一の格助詞,類似した名詞をもつ連用修飾表現が存在したことになる.その最も高い類似度を乗算することで重みを大きくし,そのような連用修飾表現$E(c_{j},SP(V))$を省略されにくくする.しかし,その他の連用修飾表現(例えば,$E(c_{i},SP(V))$)は,$E(c_{j},SP(V))$の重みが大きくなることで,Step2の処理によって相対的に重みが小さくなるため省略されやすくなる.式(1)の第2項$\frac{f(V,c_{j})}{f(V)}$は,コーパス全体でその動詞$V$に対して格助詞$c_{j}$を含んだ連用修飾表現が係る割合であり,動詞$V$に対して多く係る格助詞を含む連用修飾表現ほど省略されにくくなる.式(1)の第3項$(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))$は本手法における文脈補正項と定義し,詳細は後述する.\item[Step2]$W(E(c_{j},SP(V)))$を,含有節$SP(V)$の動詞$V$に係っているいくつかの連用修飾表現の重みの最大値で正規化する.ここで,含有節$SP(V)$の動詞$V$には$m$個の連用修飾表現が係っているものとする.\begin{eqnarray}Ws(E(c_{j},SP(V)))=\frac{W(E(c_{j},SP(V)))}{\max_{i=1,2,\dots,m}W(E(c_{i},SP(V)))}\end{eqnarray}\item[Step3]$Ws(E(c_{j},SP(V)))$が,ある閾値以下の連用修飾表現を省略可能と認定する.最大値で正規化しているので,複数ある$Ws(E(c_{i},SP(V)))$のどれか1つは値が1になっており,必ず省略不可能と認定される.ただし,連用修飾表現が提題,ガ格,ヲ格であった場合は無条件に省略不可能と認定する.ここで提題とは,文における主格となる表現である.\end{description}\subsection{名詞間類似度}名詞間類似度は,コーパス内の動詞と名詞の出現に関する相互情報量からその類似度を検出するヒンドル法\cite{Hindle,jHindle}を採用した.以下,ヒンドル法について述べる.\begin{description}\item[Step1]ある格助詞$c_{j}$において,動詞$v_{i}$と名詞$n_{k}$の出現に関する相互情報量$MI(c_{j},v_{i},n_{k})$を求める.\begin{eqnarray}MI(c_{j},v_{i},n_{k})=\log\frac{\frac{f(c_{j},v_{i},n_{k})}{N}}{\frac{f(v_{i})}{N}\times\frac{f(n_{k})}{N}}\end{eqnarray}\begin{description}\item[$N$:]全コーパス中の文の総数,\item[$f(n_{k})$:]名詞$n_{k}$の出現頻度,\item[$f(v_{i})$:]動詞$v_{i}$の出現頻度,\item[$f(c_{j},v_{i},n_{k})$:]$n_{k}$が格助詞$c_{j}$を伴って$v_{i}$と共起した頻度,\end{description}\item[Step2]格助詞$c_{j}$と動詞$v_{i}$からみた名詞$n_{k},n_{l}$の類似度$RSIM(c_{j},v_{i},n_{k},n_{l})$を求める.\\$MI(c_{j},v_{i},n_{k})>0$かつ$MI(c_{j},v_{i},n_{l})>0$のとき\begin{eqnarray}RSIM(c_{j},v_{i},n_{k},n_{l})=min(MI(c_{j},v_{i},n_{k}),MI(c_{j},v_{i},n_{l}))\nonumber\end{eqnarray}$MI(c_{j},v_{i},n_{k})<0$かつ$MI(c_{j},v_{i},n_{l})<0$のとき\begin{eqnarray}RSIM(c_{j},v_{i},n_{k},n_{l})=|max(MI(c_{j},v_{i},n_{k}),MI(c_{j},v_{i},n_{l}))|\nonumber\end{eqnarray}上記以外のとき\begin{eqnarray}RSIM(c_{j},v_{i},n_{k},n_{l})=0\nonumber\end{eqnarray}\item[Step3]$n_{k}$と$n_{l}$の名詞間類似度を次式で求める.\begin{eqnarray}SIM(n_{k},n_{l})=\sum_{i}\sum_{j}RSIM(c_{j},v_{i},n_{k},n_{l})\end{eqnarray}\end{description}なお,名詞を一つも含まない連用修飾表現(例えば,「しかし」といった接続詞,「さらに」といった副詞)は,名詞間類似度が算出できない.そのため,そのような連用修飾節の$SIM(n_{E(c_{j},SP(V))},n_{E(c_{j},DP_{i}(V))})$は$0$になる.\subsection{数値表現の省略}連用修飾表現$E(c_{j},SP(V))$で,その$n_{E(c_{j},SP(V))}$が数値表現であった場合は,省略可能性の認定手法が異なる.例えば,「欧州共同体の市場統合が十二月三十一日で完成する」という節における連用修飾表現「十二月三十一日で」で,デ格の前に出現する名詞は「三十一」である.この三十一が数値表現なので,この連用修飾表現の省略可能性の認定は以下で述べる手法を用いる.数値表現の省略は,数値情報の重要性が読み手によって異なるので,省略すべきかどうかの判断が難しい.本手法では,コーパス中で数値情報が頻繁に係る動詞における数値表現は省略しないとする.これを反映させるため,数値表現が含まれている連用修飾表現については,以下のような手法をとる.\begin{description}\item[Step1]まず,数値表現は全て``Number''という表現に置き換える.\item[Step2]含有節$SP(V)$の各連用修飾表現において,その$n_{E(c_{j},SP(V))}$が``Number''であった連用修飾表現$E(c_{j},SP(V))$の重み$W(E(c_{j},SP(V)))$を以下の式で計算する.\begin{eqnarray}Ws(E(c_{j},SP(V)))&=&f('Number',c_{j},V)\times\frac{f(V,c_{j})}{f(V)}\end{eqnarray}\begin{description}\item[$f('Number',c_{j},V)$:]動詞$V$における格助詞$c_{j}$を伴う連用修飾表現で,格助詞$c_{j}$の前に出現する名詞が``Number''である頻度,\item[$f(V)$:]動詞$V$の全コーパスにおける出現頻度,\item[$f(V,c_{j})$:]全コーパスにおいて,動詞$V$が格助詞$c_{j}$と共起した頻度,\end{description}\item[Step3]$Ws(E(c_{j},SP(V)))$がある閾値以下の連用修飾表現を省略可能と認定する.\end{description}\subsection{文脈補正項について}式(1)における第3項,$(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))$を,本手法の文脈補正項と定義する.$B(n,SP(V))$は$tf\cdot{}idf$\cite{tfidf}を改良した計算式である.従来の$tf\cdot{}idf$は,名詞のある文書における重要度を算出する計算式であるが,本手法で提案する改良した計算式は,文書中における名詞の出現位置によって重要度が変化する点が従来の$tf\cdot{}idf$と異なる.例えば,名詞$n\inN(c_{j},SP(V))$が以前の文に出現している位置で$B(n,SP(V))$を計算すると,$before(n,SP(V))$の値が大きくなるので値は小さくなる.そのため,省略可能であるかどうかの認定対象となっている連用修飾表現に,それより以前の文に出現した名詞が含まれている場合は値が小さくなる.よって,そのような連用修飾表現は省略可能と認定されやすくなる.しかし,以降の文に出現する名詞が含まれている場合は値が大きくなり,省略可能と認定されにくくなる.また,重要な名詞の多い,長い連用修飾表現には情報が多く,それを省略することで情報欠落が大きくなる危険がある.しかし,重要な名詞は一般にコーパスにおける頻度が小さく,$df(n)$が小さい.よって,$B(n,SP(V))$は$\log\frac{P}{df(n)}$によって大きくなり,そのような名詞を多く含む連用修飾表現の文脈補正項$(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))$は大きくなる.そのため,重要な名詞の多い,長い連用修飾表現は省略可能と認定されにくくなる.
\section{手法の実装}
本手法を実装して,文書の要約システムを作成した.コーパスは1993年の日本経済新聞記事1月1日から3月31日までの,32729記事,278628文を採用した.この中から含有節と,それに対する差異節を検索する.なお,名詞間類似度を求めるための情報も,この範囲内で抽出し獲得する.形態素解析器としてJUMANversion3.5を,構文解析器としてKNPversion2.0b6を採用した.本手法によって省略可能と認定できる例をいくつか以下に示す.下線で示された部分が省略可能と認定された連用修飾表現である.\begin{itemize}\item{\footnotesize欧州共同体の市場統合が\underline{十二月三十一日で}完成し,十二カ国,人口三億四千万人の世界最大の単一市場が一日発足する.}\item{\footnotesizeEC域内の自由な経済活動を妨げてきた国境規制や基準の違いから生じる障壁を取り除こうというもので,\underline{そのために必要な措置として}二百八十二の指令・規則案を定めた.}\item{\footnotesize通貨・政治統合は九二年夏のデンマーク国民投票のマーストリヒト条約批准否決以来揺れているが,ECは\underline{市場統合の完成をステップに}実現を急ぐ考えだ.}\end{itemize}実際には,本手法によって省略可能と認定された連用修飾表現を文から削除することによって,削除型の文内要約を実現することができる.
\section{評価実験}
\subsection{実験方法および結果}実装したシステムを評価した.実験における対象記事は,1993年の日本経済新聞記事1月1日から3月31日までの32729記事の中から,無作為に11記事を選択した.選択した11記事には全183文が存在し,この中から含有節は$196$節(1文で2つ以上の含有節を有する文もある)存在した.つまり,この$196$節が認定対象となる.ただし,省略可能な連用修飾表現認定に必要となる差異節や,名詞間類似度を求めるための情報等は,日経新聞93年の1月1日から3月31日までの32729記事から取得した.$196$個の含有節に対する差異節は合計$76314$個存在し,1含有節あたりの平均差異節は$389$個であった.本手法によって含有節の$196$節から省略可能な連用修飾表現を認定した.評価方法は,対象記事群から省略可能な連用修飾表現の正解データを作成し,適合率,再現率で性能を評価する.ここで正解データは,対象記事群における全ての含有節から,省略しても妥当な連用修飾表現を人手で抽出し,作成した.再現率,適合率の定義を示す.\begin{eqnarray}再現率&=&\frac{本手法による結果と正解データで一致する省略可能な連用修飾表現の数}{正解データの省略可能な連用修飾表現の数}\nonumber\end{eqnarray}\begin{eqnarray}適合率&=&\frac{本手法による結果と正解データで一致する省略可能な連用修飾表現の数}{本手法によって省略可能と判定された連用修飾表現の数}\nonumber\end{eqnarray}実験結果を表\ref{Experiment_Resul}に示す.表\ref{Experiment_Resul}には本手法の$Ws(E(c_{j},SP(V)))$における閾値を0.04から0.14まで変化した場合の適合率,再現率,F値,省略認定数と,おのおのの平均値を示す.なお,$n_{E(c_{j},SP(V))}$が数値表現である場合は閾値を10倍した値を使用する.\begin{table}[bt]\begin{center}\caption{評価実験結果}\label{Experiment_Resul}\begin{tabular}{l|r|r|r|r}\hline閾値&再現率(\%)&適合率(\%)&F値&省略認定数\\\hline\hline0.04&55.5&79.5&65.3&83\\0.05&59.7&80.7&68.6&88\\0.06&61.3&79.3&69.2&92\\0.07&67.2&80.8&73.4&99\\0.08&69.7&79.0&74.1&105\\0.09&71.4&78.7&74.9&108\\0.1&71.4&77.3&74.2&110\\0.11&71.4&76.6&73.9&111\\0.12&73.1&76.3&74.7&114\\0.13&73.1&75.7&74.4&115\\0.14&73.1&74.4&73.7&117\\\hline平均&67.9&78.0&72.4&103.8\\\hline\end{tabular}\end{center}\end{table}本手法を評価するための対象記事では,閾値が$0.09$のときが最もF値が高い結果となった.しかし,対象記事によっては多少,変化するものと考える.そこで,最大のF値のときの閾値$0.09$を中心に,閾値を$0.04$から$0.14$まで変化させたときの再現率,適合率,F値,省略認定数の平均を本手法の評価結果として採用する.よって,本実験によって再現率$67.9$\%,適合率$78.0$\%を得た.\subsection{文脈補正項を導入した場合と導入しない場合との比較}本手法では,含有節において認定対象の連用修飾表現の内容および前後の文脈を考慮した文脈補正項を導入している.これによって,省略可能であるかどうかの認定対象となっている連用修飾表現に,それより以前の文に出現した名詞が含まれている場合は省略可能と認定されやすくなる.また,認定対象となっている連用修飾表現に重要な名詞が多数含まれていれば,省略可能と認定されにくくなる.この文脈補正項が,どの程度,性能に影響しているのかを調べる.そのために,計算式に文脈補正項を導入した場合としない場合との性能を比較する.表\ref{Experiment_Resul4}に文脈補正項を導入しない場合の実験結果を示す.\begin{table}[bt]\begin{center}\caption{文脈補正項を導入しない場合の性能}\label{Experiment_Resul4}\begin{tabular}{l|r|r|r|r}\hline閾値&再現率(\%)&適合率(\%)&F値&省略認定数\\\hline\hline0.04&52.9&77.8&63.0&81\\0.05&56.3&77.9&65.4&86\\0.06&61.3&78.5&68.9&93\\0.07&63.0&77.3&69.4&97\\0.08&66.4&76.7&71.2&103\\0.09&67.2&76.2&71.4&105\\0.1&67.2&76.2&71.4&105\\0.11&67.2&75.5&71.1&106\\0.12&68.9&75.9&72.2&108\\0.13&68.9&75.2&71.9&109\\0.14&70.6&74.3&72.4&113\\\hline平均&64.6&76.5&69.9&100.5\\\hline\end{tabular}\end{center}\end{table}平均を採用した場合,再現率$64.6$\%,適合率$76.5$\%,F値$69.9$を得た.\subsection{考察}評価の結果,提案手法は再現率67.9\%,適合率78.0\%の結果を得た.再現率$67.9$\%であることから,対象記事には,まだ省略できる連用修飾表現が残されているといえるので,手法には改良の余地がある.しかし,再現率よりも適合率のほうが実際に手法を適用する場合に重要であると考える.なぜなら,省略箇所の網羅性が少なくても読み手に悪影響を与えないが,間違った省略による要約は読み手に情報の欠落した情報を提供するからである.適合率は78.0\%であり,本手法によって認定された省略箇所は,概ね妥当であると考える.提案手法で,閾値を$0.1$としたときに省略可能と認定された連用修飾表現を,表層格の種類によって分類した.表\ref{result_main}に,各表層格において,省略が妥当と判定された連用修飾表現の数,妥当ではないと判定された連用修飾表現の数を挙げる.また,対象記事とした日本経済新聞1993年の1月1日から3月31日までの記事において,含有節における各表層格の出現の割合を示す.\begin{table}[bt]\begin{center}\caption{各表層格の判定の傾向と含有節における出現傾向}\label{result_main}\begin{tabular}{l|r|r|r|r}\hline表層格の種類&妥当であった数&妥当ではない数&正解データの数&出現割合(\%)\\\hline\hlineニ&9&5&19&14.16\\ヨリ&1&0&1&0.20\\デ&6&1&13&7.32\\ヘ&1&1&2&0.14\\ト&4&0&5&3.73\\カラ&8&1&9&2.51\\マデ&4&3&4&0.67\\\hline名詞&4&4&9&7.82\\接続詞&3&0&3&1.38\\副詞&14&0&15&4.09\\助詞&8&6&12&7.44\\指示詞&1&1&1&0.31\\形容詞&11&1&13&2.43\\動詞&11&1&12&2.90\\\hline\end{tabular}\end{center}\end{table}省略が妥当と判定された連用修飾表現の中で最も数が多かったのは,含有節の動詞に対する格助詞を持たない連用修飾表現であった.本論文では,そのような連用修飾表現を,動詞に係っている品詞情報を利用して「名詞」「接続詞」「副詞」「助詞」「指示詞」「形容詞」「動詞」の7つに分類した.これらの出現割合の合計は約26.4\%であり,格要素以外にも省略可能な連用修飾表現が多数,存在していることが分かる.このような連用修飾表現には「比較的順調に」といった形容動詞が変化したもの,「そのために必要な措置として」といった動詞「する」が変化したものが見られた.これらの連用修飾表現の省略可能性の判定は格フレームでは対応できず,本手法の有効性を示すと考える.しかし,省略が妥当ではないと判定された連用修飾表現の中で最も数が多かったのも,含有節の動詞に対する格助詞を持たない連用修飾表現であった.妥当ではないと判定されたものには,「イデオロギーや安全保障上の根本的な対立がない以上」のような,重要な情報を含む連用修飾表現があった.これらの連用修飾表現を省略することは,情報欠落が大きくなってしまう原因になる.本手法では,重要な名詞を多く含む連用修飾表現は省略可能と認定されにくくなるような補正項を導入している.しかし,それでも省略可能と認定されてしまう重要な情報を含む連用修飾表現が存在する.このような格助詞を持たない連用修飾表現を省略可能とすることでシステムの性能が低下してしまうとすると,格助詞を持たない連用修飾表現に対して省略可能かどうかを認定することが有害になってしまう.そこで,表層格の種類ごとに適合率,再現率を算出し,どの連用修飾表現の省略が有効であったか調べる.表\ref{result_pre}に結果を示す.\begin{table}[bt]\begin{center}\caption{各表層格の適合率,再現率}\label{result_pre}\begin{tabular}{l|r|r}\hline表層格の種類&再現率(\%)&適合率(\%)\\\hline\hlineニ&47.4&64.3\\ヨリ&100.0&100.0\\デ&46.2&85.7\\ヘ&50.0&50.0\\ト&80.0&100.0\\カラ&88.9&88.9\\マデ&100.0&57.1\\\hline名詞&44.4&50.0\\接続詞&100.0&100.0\\副詞&93.3&100.0\\助詞&66.7&57.1\\指示詞&100.0&50.0\\形容詞&84.6&91.7\\動詞&91.7&91.7\\\hline\end{tabular}\end{center}\end{table}表\ref{result_pre}によると,格助詞を持たない連用修飾表現の中では,「動詞」「副詞」「形容詞」が比較的,頻度が大きいにもかかわらず,適合率,再現率が高い.頻度が大きい格要素の中では,ニ格での適合率,再現率の低さが目立つ.その理由は以下のとおりである.ニ格は動詞に対する目的格となるものが多く,妥当ではないと判定されたニ格は,目的格を省略したため情報の欠落が大きい連用修飾表現が多かった.また,場所を表すニ格の連用修飾表現もあり,それを省略可能と認定した場合も情報欠落が大きい.そのため,妥当ではないと判定された場合が多かった.逆に,妥当であると判定されたニ格の連用修飾表現には「今月中に」「秋口に」といった時期を表す句,「絶対に」といった程度を表す連用修飾表現が多く,このような連用修飾表現は省略しても情報欠落が少なく,妥当であると判定された.つまり,ニ格に関しては,それが目的格であるかどうかが判別できれば,目的格は省略可能と認定しないという条件をつけて,適合率をより上げることができると考える.文脈補正項については,実験結果より,対象の含有節において文脈補正項によって再現率,適合率が上がり,性能への効果があったことがわかる.文脈補正項によって新たに省略可能となった連用修飾表現の数は$11$個であり,この中で省略が妥当な連用修飾表現の数は$7$個であった.一方,文脈補正項で省略不可となったのは$6$個であり,この中で省略が妥当な連用修飾表現の数は$2$個であった.文脈補正項を導入したことによって,全体の認定数の中で省略が妥当ではない連用修飾表現の数を減らし,省略が妥当な連用修飾表現の数を増やすことができた.よって,この文脈補正項は妥当であると考える.文脈補正項によって省略不可になった連用修飾表現には,「新たな財投資金の調達多様化策として」,「各省庁の許認可や審査事務の迅速化への取り組みについて」といった,重要な情報が多く含まれている表現が多かった.これは,文脈補正項の構成要素$B(n,SP(V))=\frac{1+after(n,SP(V))}{2(1+before(n,SP(V)))}\times\log\frac{P}{df(n)}$の$\log\frac{P}{df(n)}$が,高い値をとったため,省略不可と認定されたと考える.例えば,連用修飾表現「新たな財投資金の調達多様化策として」の「財投資金」や「調達多様化策」といった複合名詞はコーパスにおける頻度が少なく,$df(n)$が小さくなる.よって,このような名詞の$\log\frac{P}{df(n)}$は高くなる.そのため,文脈補正項の値は高くなり,省略不可と認定されるようになった.実際,「新たな財投資金の調達多様化策として」の重み$Ws(E(c_{j},SP(V)))$は,文脈補正項導入前で$0.038$であったが,文脈補正項導入後で$0.212$となった.しかし,既に示したように,情報が多く含まれている連用修飾表現でも省略可能と認定される場合があるので,文脈補正項は改良の余地があると考える.文脈については,該当の連用修飾表現に,以前の文に出現した名詞が含まれていた場合,重みが下がることで省略可能と認定されやすくなる.例えば,「また,単一市場の誕生で北欧や東欧を巻き込んだ欧州経済圏の結び付きが強まるのは確実で,世界の経済体制の行方にも影響しそうだ」という文において,連用修飾表現「単一市場の誕生で」は,文脈から省略可能となる.それは,以前の文に「欧州共同体(EC)の市場統合が完成し,世界最大の単一市場が一日発足する」という内容の文が存在しているからである.よって,連用修飾表現「単一市場の誕生で」の文脈補正項を計算する場合,「単一市場」の$B(n,SP(V))=\frac{1+after(n,SP(V))}{2(1+before(n,S(P)))}\times\log\frac{P}{df(n)}$における$before(n,S(P))$は,以前の文に「単一市場」が存在するため値が大きくなる.そのため,文脈補正項が小さくなり省略可能と認定されやすくなる.しかし,実際には「単一市場の誕生で」における重み$Ws(E(c_{j},SP(V)))$は,文脈補正項導入前で$0.0586$であったが,文脈補正項導入後で$0.0865$となった.これは,「単一市場」という複合名詞の$\log\frac{P}{df(n)}$が高いためであると考える.文脈から省略可能な連用修飾表現に対しては,より重みが小さくなるように,文脈補正項を改良する必要があると考える.
\section{格フレームによる手法との比較実験}
\subsection{実験方法および結果}本手法は,省略可能な連用修飾表現をコーパスの情報から認定する手法であるが,省略可能な連用修飾表現の認定は格フレーム辞書を使用することでも認定できる.すなわち,格フレームに記述されている格要素を動詞に対する必須格として省略不可能,記述されていない格要素を任意格として省略可能と認定する.実験では,格フレーム辞書を用いることによって省略可能な格要素の認定を行ない,提案手法との比較実験を行なった.認定対象,および対象記事は上記の実験と同じである.格フレーム辞書には日本語語彙大系\cite{goi}の構文意味辞書を使用した.使用した格フレーム辞書には意味素性による意味制約が記載されている.一つの動詞に複数の格フレームが記載されている場合は,格フレーム辞書に記載されている意味素性との照合を行ない,省略可能な連用修飾表現の認定を行なう.以下に格フレームを使用した場合の認定手法を示す.なお,格フレームとの照合は人手で行なった.\begin{description}\item[Step1]含有節$SP(V)$の動詞$V$に対する格フレームを格フレーム辞書から得る.\item[Step2]連用修飾表現$E(c_{j},SP(V))$の格助詞$c_{j}$と,その前に出現する名詞$n_{E(c_{j},SP(V))}$の意味素性を日本語語彙大系\cite{goi}の単語体系を利用して取得する.複数,意味素性がある場合は全て採用する.\item[Step3]まず,格フレームに記載されていない格助詞を含む連用修飾表現を省略可能と認定する.例えば,含有節「欧州共同体の市場統合が十二月三十一日で完成する」には,動詞「完成する」にガ格の「欧州共同体の市場統合が」とデ格の「十二月三十一日で」が係っているが,「完成する」の格フレームは表\ref{KANSEI}のとおりである.\begin{table}[bt]\begin{center}\caption{動詞「完成する」の格フレーム}\label{KANSEI}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&意味素性\\\hline\hline1&N1ガ&N1=*\\2&N1ガN2ヲ&N1=3主体N2=*\\\hline\end{tabular}\end{center}\end{table}格フレームにはデ格が記載されていない.よって,デ格を省略可能な格要素と認定する.\item[Step4]格フレームに記載されている格助詞を含む連用修飾表現は,格フレーム辞書に記載されている意味素性と,Step\2で取得した名詞$n_{E(c_{j},SP(V))}$の意味素性との照合を行なう.その際,Step\2で取得した名詞$n_{E(c_{j},SP(V))}$の意味素性か,その上位概念が格フレームに記載されていれば,その連用修飾表現は省略不可と認定する.しかし,記載されていない場合は,その連用修飾表現は省略可能と認定する.例えば,連用修飾表現「銀行にEC単一免許が導入される」の動詞「導入する」の格フレームは表\ref{Include}のとおりである.\begin{table}[bt]\begin{center}\caption{動詞「導入する」の格フレーム}\label{Include}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&意味素性\\\hline\hline1&N1ガN2ヲN3ニ/ヘ&N1=3主体\\&&N2=*\\&&N3=362組織388場所760人工物\\&&1001抽象物1236人間活動2054事象\\\hline\end{tabular}\end{center}\end{table}ニ格の連用修飾表現「銀行に」の名詞「銀行」の意味素性は「374企業428仕事場」である.「374企業」の上位概念に「362組織」があり,二格の格フレームと照合を行なうと,格フレームに記載されている意味素性であることがわかる.よって,連用修飾表現「銀行に」は省略不可である.ガ格の連用修飾表現「EC単一免許が」の名詞「免許」の意味素性は「1735許可1166権利」である.この上位概念に「3主体」は含まれていない.しかし,ガ格とヲ格の連用修飾表現を省略可能とすることは情報欠落が大きいので,ガ格,ヲ格に「3主体」が記載されている場合は,たとえ上位概念に「3主体」が含まれていなくても省略不可と認定する.\end{description}ただし,格フレーム辞書によって省略可能性を判定できるのは,動詞に対する格要素のみである.しかし,実際には格要素以外の省略可能な連用修飾表現が多数存在する.そのため,格フレームを使用した手法では,格助詞を伴わない連用修飾表現は全て省略可能と認定した.なお,格フレーム辞書に記載されていない動詞の格要素は,どれも省略不可能とした.また,連用修飾表現が提題である場合も省略不可能と認定した.実験結果を表\ref{Experiment_Resul2}に示す.提案手法の再現率,適合率は節4.1で得た結果である.\begin{table}[bt]\begin{center}\caption{格フレームを用いた手法との比較}\label{Experiment_Resul2}\begin{tabular}{l|r|r|r}\hline手法&省略可能と認定された数&再現率(\%)&適合率(\%)\\\hline\hline提案手法&103.8&67.9&78.0\\格フレームによる手法&150&77.3&61.3\\\hline\end{tabular}\end{center}\end{table}\subsection{格要素のみを対象とした場合の比較}節5.1の比較実験では,格助詞をともなわない連用修飾表現に対しては全て省略可能と認定した.しかし,全て省略可能としては適合率の低下が予想できる.そこで,格助詞をともなわない連用修飾表現に対しては全て省略不可とする場合と提案手法とを比較した.提案手法も,格助詞をともなわない連用修飾表現を全て省略不可とした.すなわち,格要素のみを対象に,提案手法と格フレームによる手法とを比較したことになる.この場合,正解データも格要素のみを対象として,適合率,再現率を算出した.実験結果を表\ref{Experiment_Resul3}に示す.\begin{table}[bt]\begin{center}\caption{格要素のみを対象とした場合の比較}\label{Experiment_Resul3}\begin{tabular}{l|r|r|r}\hline手法&省略可能と認定された数&再現率(\%)&適合率(\%)\\\hline\hline提案手法&45&61.8&74.5\\格フレームによる手法&49&51.9&57.1\\\hline\end{tabular}\end{center}\end{table}なお,提案手法の結果は,この実験では閾値を変化させると1.2のときF値が最も大きくなったので,閾値を0.07から0.17まで変化したときの適合率,再現率の平均を採用した.\subsection{考察}表\ref{Experiment_Resul2}によると,格フレームを用いた手法は再現率が提案手法に比べて上がっているが,適合率は下がっている.これは,格助詞をともなわない連用修飾表現を全て省略可能であると認定しているためであると考える.このことを確かめるため,格フレームを用いた手法でも,表層格の種類ごとに適合率,再現率を算出し,どの連用修飾表現の省略が有効であったかを調べる.表\ref{result_pre2}に結果を示す.\begin{table}[bt]\begin{center}\caption{格フレームを用いた手法における各表層格の適合率,再現率}\label{result_pre2}\begin{tabular}{l|r|r}\hline表層格の種類&再現率(\%)&適合率(\%)\\\hline\hlineニ&42.1&50.0\\ヨリ&0.0&0.0\\デ&92.3&70.6\\ヘ&0.0&0.0\\ト&20.0&100.0\\カラ&44.4&66.7\\マデ&75.0&60.7\\\hline名詞&100.0&60.0\\接続詞&100.0&100.0\\副詞&100.0&100.0\\助詞&100.0&36.4\\指示詞&100.0&50.0\\形容詞&100.0&86.7\\動詞&100.0&64.7\\\hline\end{tabular}\end{center}\end{table}格助詞を伴わない連用修飾表現の省略で,それぞれの再現率が100\%なのは,そのような連用修飾表現は全て省略可能としたからである.また,適合率は「名詞」以外はそれぞれ提案手法のほうが同等,もしくは良い適合率を出している.この結果から,格助詞を伴わない連用修飾表現の省略は有効であるが,全てを省略可能とすることは性能の低下を招くことが分かる.格要素のみを対象とした場合においても本手法が格フレームを用いた手法に比べて,再現率,適合率ともに上回った.この結果によって,格要素のみを対象とした場合でも従来の格フレームを用いた手法より本手法が優れていることが分かる.格フレームを用いた手法において,再現率に関しては,含有節の動詞が格フレームに記述されていなかった場合,その動詞に係る格要素を全て省略不可としたので低下したと考える.なお,全196の含有節において,格フレームに記述されていなかった動詞は41個存在した.この41個の動詞に係る格要素は省略可能かどうかの判別ができないので,全て省略不可とするしかないが,これらの中には省略可能な格要素も含まれている.よって再現率が低下したと考える.採用した格フレーム辞書は日本語語彙大系の構文意味辞書であり,現在,一般に使用できる格フレーム辞書の中でも最大規模である.しかし,実に約20\%もの動詞が記述されていなかった.本手法は格フレームに記述されていないような動詞に係る格要素でも省略可能かどうかの認定ができるので,格フレームを用いた手法より優れた手法であると考える.格フレームに記述されていない動詞の格要素は全て省略不可としたので,適合率に関しては格フレームの網羅量の影響を受けない.しかし,適合率に関しても格フレームを用いた手法より,本手法のほうがよい結果であった.これは,格フレームの質が適合率の結果に影響を与えるためである.つまり,ある動詞に関して,格フレームに記載されていない格要素を省略することで情報欠落が大きい場合があったので適合率が低下した.例えば,「当面は最大手の日住金への金利減免支援の強化を最優先する.」という文において,動詞「優先する」の必須格はガ格,ニ格と格フレームに記述してある.しかし,この文におけるヲ格「最大手の日住金への金利減免支援の強化を」を省略することは妥当ではない.他にも「大蔵省・日銀は住専支援策について,すでに一部関係金融機関に非公式に打診を始めた」という文において,動詞「始める」の必須格はガ格,ヲ格,カラ格と格フレームに記述してある.そのため,ヲ格「打診を」は省略不可であるが,ニ格「一部関係金融機関に」は省略可能となる.しかし,それは「どこに」に相当する部分を省略したことになり,省略が妥当とはいえない.この結果は,文は多様に変化し,格フレームのような静的な情報では対応に限界があることを示していると考える.
\section{結び}
本論文では,省略できる可能性のある連用修飾表現を含む節に対して,同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する手法を提案した.省略可能な連用修飾表現を認定する手法として,格フレームを用いる手法が考えられるが,格フレームでは格助詞を持たない連用修飾表現に対しては,省略可能かどうかの判定ができない.提案した手法は,そのような欠点を克服し,格助詞を持たない連用修飾表現でも省略可能かどうかの認定ができる.また,連用修飾表現の内容および前後の文脈を考慮して,重要な情報が多く含まれている連用修飾表現に対しては省略可能と認定できる可能性を低く,逆に,認定対象としている連用修飾表現に,それより以前の文に存在する情報が含まれている場合に対しては,省略可能と認定できる可能性が高くなるような工夫を施した.これにより,格フレームのような静的な情報ではなく,動的な情報で省略可能な連用修飾表現を認定できる.評価実験によって,本手法による省略可能な連用修飾表現は再現率67.9\%,適合率78.0\%を示し,比較的,良好な結果であった.これは,格フレームを用いた手法より高い値であった.さらに,格要素のみを対象とした場合も本手法のほうが良い結果であった.これは,本手法によって,省略可能な格助詞を持たない連用修飾表現を高い精度で抽出できたからであった.加えて,格フレームを用いた手法では,多様に変化する文に対して,格フレームのような静的な情報では対処しきれず,重要な情報を含む連用修飾表現を省略可能と認定した場合が多かった.これらの理由によって,本手法は格フレームを用いた手法を上回る性能を示すことができたと考える.しかし,本手法では,ニ格に関しては,他の格要素と比べて性能がよくなかった.ニ格は動詞に対して目的格となるものが多く,そのようなニ格の格要素は,多くが省略不可であった.しかし,本手法ではニ格の中で目的格であるものと,そうでないものとの判別ができず,目的格であっても省略可能と認定してしまうことがある.よって適合率が下がったと考える.本手法の適合率を上げるには,ニ格の格要素を目的格であるか,そうでないかを判別し,目的格である場合には省略不可とするような制限を加えることで,適合率を上げることができると考える.\acknowledgment言語データとして,日本経済新聞CD-ROM版の使用を許可して頂いた日本経済新聞社に深謝する.また,日本語語彙大系から意味分類を取得するために用いた形態素解析システムALT-JAWSver.2.0.の使用を許可して頂いた日本電信電話(株)に深謝する.\bibliographystyle{jnlpbbl}\bibliography{362}\begin{biography}\biotitle{略歴}\bioauthor{酒井浩之}{2002年豊橋技術科学大学大学院修士課程知識情報工学専攻修了.現在,同大学院博士後期課程電子・情報工学専攻在学中.自然言語処理,特に,検索,要約の研究に従事.{\tte-mail:[email protected]}}\bioauthor{篠原直嗣}{2001年豊橋技術科学大学大学院修士課程修了.現在,(株)リコー勤務.在学中は,自然言語処理,特に,テキスト自動要約の研究に従事.}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授.1997年同教授.アルゴリズム工学,特に,並列アルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.{\tte-mail:[email protected]}}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).同年より(株)国際電気通信基礎技術研究所(ATR)に所属し,現在はATR音声言語コミュニケーション研究所,研究員.1998年中国科学院自動化研究所,国外訪問学者.換言処理,機械翻訳,要約処理,中国語及び韓国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\tte-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N01-02
|
\section{はじめに}
自動用語抽出は専門分野のコーパスから専門用語を自動的に抽出する技術として位置付けられる.従来,専門用語の抽出は専門家の人手によらねばならず,大変な人手と時間がかかるためup-to-dateな用語辞書が作れないという問題があった.それを自動化することは意義深いことである.専門用語の多くは複合語,とりわけ複合名詞であることが多い.よって,本論文では名詞(単名詞と複合名詞)を対象として専門用語抽出について検討する.筆者らが専門分野の技術マニュアル文書を解析した経験では多数を占める複合名詞の専門用語は少数の基本的かつこれ以上分割不可能な名詞(これを以後,単名詞と呼ぶ)を組み合わせて形成されている.この状況では当然,複合名詞とその要素である単名詞の関係に着目することになる.専門用語のもうひとつの重要な性質として\cite{KageuraUmino96}によれば,ターム性があげられる.ターム性とは,ある言語的単位の持つ分野固有の概念への関連性の強さである.当然,ターム性は専門文書を書いた専門家の概念に直結していると考えられる.したがって,ターム性をできるだけ直接的に反映する用語抽出法が望まれる.これらの状況を考慮すると,以下のような理由により複合名詞の構造はターム性と深く関係してくることが分かる.第一に,ターム性は通常tf$\times$idfのような統計量で近似されるが,tf$\times$idfといえども表層表現のコーパスでの現われ方を利用した近似表現に過ぎない.やはり書き手の持っている概念を直接には表していない.第二に,単名詞Nが対象分野の重要な概念を表しているなら,書き手はNを頻繁に単独で使うのみならず,新規な概念を表す表現としてNを含む複合名詞を作りだすことも多い.このような理由により,複合名詞と単名詞の関係を利用する用語抽出法の検討が重要であることが理解できる.この方向での初期の研究に\cite{Enguehard95}があり,英語,フランス語のコーパスから用語抽出を試みているが,テストコレクションを用いた精密な評価は報告されていない.中川ら\cite{NakagawaMori98}は,この関係についてのより形式的な扱いを試みている.そこでは,単名詞の前あるいは後に連接して複合名詞を形成する単名詞の種類数を使った複合名詞の重要度スコア付けを提案していた.この考え方自体は\cite{Fung95}が非並行2言語コーパスから対訳を抽出するとき用いたcontextheterogeneityにも共通する.その後,中川らはこのスコア付け方法による用語抽出システムによってNTCIR1のTMREC(用語抽出)タスクに参加し良好な結果を出している.彼らの方法はある単名詞に連接して複合名詞を構成する単名詞の統計的分布を利用する方法の一実現例である.しかし,彼らの方法では頻度情報を利用していない.上記のように複合名詞とそれを構成する単名詞の関係がターム性を捉えるときに重要な要因であるとしても,\cite{NakagawaMori98}が焦点を当てた単名詞に連接する単名詞の種類数だけではなく,彼らが無視したある単名詞に連接する単名詞の頻度の点からも用語抽出の性能を解析してみる必要があると考える.本論文ではこの点を中心に論じ,また複合名詞が独立に,すなわち他の複合名詞の一部としてではない形で,出現する場合の頻度も考慮した場合の用語抽出について論ずる.さらに,有力な用語抽出法であるC-valueによる方法\cite{FrantziAnaniadou96}や語頻度(tf)に基づく方法との比較を通じて,提案する方法により抽出される用語の性質などを調べる.以下,2節では用語抽出技術の背景,3節では単名詞の連接統計情報を一般化した枠組,4節ではNTCIR1TMRECのテストコレクションを用いての実験と評価について述べる.
\section{用語抽出技術の背景}
単言語コーパスからの用語抽出には三つのフェーズがある.第一フェーズは,用語の候補の抽出である.第二フェーズは第一フェーズで抽出された候補に対する用語としての適切さを表すスコア付けないし順位付けである.この後に順位付けられた用語候補集合の中から適切な数の候補を用語として認定するという第三のフェーズがある.しかし,第三フェーズは認定したい用語数の設定など外部的要因に依存するところもあるので,本論文ではその技術的詳細に立ち入らないことにする.\subsection{候補抽出}西欧の言語と異なって空白のような明確な語境界がない日本語や中国語では,情報検索に使う索引語として文字N-gramも考えられる\cite{FujiiCroft93,Lam97}.しかし,専門用語という観点に立てばやはり人間に理解できる言語単位でなければならず,結果として単語を候補にせざるをえない.また,NTCIR1TMRECで使用されたテストコレクションでも単語を対象にしている.さて,単語も詳細に見ると単名詞と複合語に分かれる.関連する過去の研究では単語よりは複雑な構造である連語(Collocation)や名詞句の抽出を目標にする研究\cite{SmadjaMcKeown90,Smadja93,FrantziAnaniadou96,HisamitsuNitta96,Shimohata97}が多い.連語や複合語のような言語単位を対象にする場合には,それらはより基本的な構造から構成されることを仮定しなければならない.ここでは,単名詞を最も基本的な要素とする.用語候補が単名詞のどのような文法的構造によって構成されるかという問題も多く研究されてきた\cite{Anania94}.どのような構造を抽出するにせよ,まずコーパスの各文から形態素解析によって単語を切り出す必要がある.形態素解析の結果としては各単語に品詞タグが付けられる.よって,複合名詞を抽出するなら,連続する名詞を抽出すればよい.これまでの研究では,名詞句,複合名詞\cite{HisamitsuNitta96,Hisamitsu00,NakagawaMori98},連語\cite{SmadjaMcKeown90,daille94,FrantziAnaniadou96,Shimohata97}などを抽出することが試みられた.\subsection{スコア付け}前節で述べた用語候補抽出の後,用語候補に用語としての重要度を反映するスコア付けを行う.当然ながら,用語としての重要度はターム性を直接反映すると考えてよく,それゆえにスコアはターム性を反映したものが望ましい.しかし,ターム性というのは前にも述べたように直接計算することが難しい.このため,tf$\times$idfのような用語候補のコーパスでの頻度統計で近似することがひとつの方法である.一方,\cite{KageuraUmino96}は用語の持つべきもうひとつの重要な性質,ユニット性を提案している.ユニット性とは,ある言語単位(例えば,連語,複合語など)がコーパス中で安定して使用される度合いを表す.これを利用するスコアも用語の重要度を表す有力な方法である.例えば,Ananiadouらが\cite{FrantziAnaniadou96,Ananiadou99}で提案しているC-valueは入れ子構造を持つコロケーションからユニット性の高い要素に高いスコアを付ける有力な方法である.\cite{Hisamitsu00}は,注目する用語と共起する単語の分布が全単語分布に比べてどのくらい偏っているかをもってターム性を計ろうとしている.\cite{Kageura00}は日英2言語コーパスを用い,日本語の用語の対訳が英語のコーパスの対応する部分にも共起することがターム性を表わすというアイデアに基づいた用語抽出法を提案している.同様の考えは\cite{daille94}にも見られる.これらの研究は,用語の現れ方や使用統計に基礎をおくものである.一方,\cite{NakagawaMori98}は,単名詞と複合語の関係という用語の構造に着目してターム性を表わそうとしている.本論文の次節以降で我々は,ターム性を直接的に捉えようとする\cite{NakagawaMori98}に対して,連接する単名詞の種類数だけではなく,頻度も考慮した場合を提案し実験的比較を行った.
\section{単名詞の連接統計情報の一般化}
\subsection{単名詞の連接}2節の用語抽出技術の背景で述べた多くの研究では実質的に用語の対象にしているのは名詞である.実際,専門用語の辞典に収録されている用語も大多数は名詞である.例えば,\cite{densi,computer-sci,archi}などでは収録されているのはほとんどが名詞である.そこで本研究では対象とする用語を単名詞と,その単名詞のみで構成される複合名詞とした.実際,用語の大多数は\cite{densi,computer-sci,archi}に見られるように複合名詞である.しかし,これらの複合名詞の要素となる単名詞はあまり多数にのぼるわけではない.この考え方から,単名詞に連接して複合名詞を構成する単名詞の異なり数に着目するというアイデア\cite{NakagawaMori98}が生まれる.しかし,連接する単名詞の異なり数だけではなく,頻度など他の要素も考慮することは重要である.連接する単名詞のどのような性質に着目したときに性能の良いスコアになるかを調べるのが本論文の課題のひとつである.まず,特定のコーパスを想定したとき,単名詞$N$が連接する状況すなわち単名詞バイグラムを一般的に図\ref{fig:1}のように表わす.\begin{figure}[htbp]\hspace*{\fill}\begin{tabular}{ll}$[LN_1\hspace{1em}N](\#L_1)$&$[N\hspace{1em}RN_1](\#R_1)$\\$[LN_2\hspace{1em}N](\#L_2)$&$[N\hspace{1em}RN_2](\#R_2)$\\:&:\\$[LN_n\hspace{1em}N](\#L_n)$&$[N\hspace{1em}RN_m](\#R_m)$\\\end{tabular}\hspace*{\fill}\caption{単名詞$N$を含む単名詞バイグラムと左右連接単名詞の頻度}\label{fig:1}\end{figure}図\ref{fig:1}において,$LN_i$($i=1,...,n$)は,単名詞バイグラム$[LN_i\hspace{1em}N]$において$N$の左方に連接する単名詞($n$種類)を表わし,単名詞バイグラム$[N\hspace{1em}RN_i]$において$RN_i$($i=1,...,m$)は$N$の右方に連接する単名詞($m$種類)を表わす.また,()内の$\#L_i$($i=1,...,n$)は$N$の左方に連接する単名詞$LN_i$の頻度を表わし,$\#R_i$($i=1,...,m$)は$N$の右方に連接する単名詞$RN_i$の頻度を表わす.もちろん,単名詞バイグラム$[LN_i\hspace{1em}N]$や$[N\hspace{1em}RN_j]$はより長い複合名詞の一部分であってもよい.以下に``トライグラム''という単名詞を含む単語バイグラムがコーパスから得られた場合,そこから連接頻度を求める簡単な作例を示す.\begin{quote}{\bf例1:単名詞``トライグラム''を含む単語バイグラムの抽出例}\\トライグラム統計,トライグラム,単語トライグラム,クラストライグラム,単語トライグラム,トライグラム,トライグラム抽出,単語トライグラム統計,トライグラム,文字トライグラム\end{quote}この例を図\ref{fig:1}に示す形式で表記すると図\ref{fig:2}のようになる.\begin{figure}[htbp]\hspace*{\fill}\begin{tabular}{ll}$[$単語トライグラム$](3)$&$[$トライグラム統計$](2)$\\$[$クラストライグラム$](1)$&$[$トライグラム抽出$](1)$\\$[$文字トライグラム$](1)$&\\\end{tabular}\hspace*{\fill}\caption{単名詞``トライグラム''を含む単語バイグラムと左右連接単名詞の頻度の例}\label{fig:2}\end{figure}\subsection{単名詞バイグラムを用いた単名詞のスコア付け}\subsubsection{\bf連接種類数$\#LDN(N),\#RDN(N)$}図1において単名詞バイグラムで単名詞$N$の左方にくる単名詞の種類の異なり数,すなわち$n$を以後$\#LDN(N)$と書く.同様に,単名詞バイグラムで単名詞$N$の右方にくる単名詞の種類の異なり数,すなわち$m$を以後$\#RDN(N)$と書く.図\ref{fig:2}の例では,$\#LDN(トライグラム)=3$,$\#RDN(トライグラム)=2$である.\cite{NakagawaMori98}では,この$\#LDN(N),\#RDN(N)$を単名詞$N$のスコアにしている.$\#LDN(N),\#RDN(N)$は頻度に影響されないので,コーパスが出現する複合名詞の用語をカバーする程度に大きくなれば,もはや一定の値になる.$\#LDN(N),\#RDN(N)$は$N$が固有の分野においてどれほどたくさんの概念(複合名詞で表される)を作るときに使われるかを表す.つまり,分野における基礎概念である度合を表す.よって,$N$の持つ概念としての重要さを直接表現しているので,ターム性の重要な一面を計っているといえよう.\subsubsection{\bf連接頻度$\#LN(N),\#RN(N)$}単名詞バイグラムを特徴付ける要因には,連接単名詞の異なり数の他に頻度情報$\#L_i,\#R_j$がある.この二つの要因を組み合わせ方としては種々の方法が考えられるが,簡単なのは異なり単名詞毎の頻度の総和をとる方法であり,次式で表わされる.ただし,記法は図\ref{fig:1}の記号を用いる.\begin{eqnarray}\#LN(N)&=&\sum_{i=1}^{n}(\#L_i)\label{form1}\\\#RN(N)&=&\sum_{i=1}^{m}(\#R_i)\label{form2}\end{eqnarray}$\#LN(N),\#RN(N)$は,それぞれ$N$の左方,右方に連接して複合名詞を形成する全単名詞の頻度である.図2の例だと,$\#LN(トライグラム)=5$,$\#RN(トライグラム)=3$である.\subsection{複合名詞のスコア付け}以上のような方法で単名詞の左右に連接する単語の種類数あるいは頻度を用いたスコアを定義した.これら左右のスコアを組み合わせて単名詞そのもののスコアを定義する必要がある.一方,我々が注目している用語は単名詞だけではなく,複数の単名詞から生成される複合名詞も含まれる.先に述べたように専門用語ではむしろ複合名詞が多いので,複合名詞のスコアを定義することも必要である.複合名詞のスコア付けには,ふたつの考え方がある.第一の考え方は,複合名詞のスコアはその構成単名詞数すなわち長さに依存するというものである.この考え方に従えば,長い複合名詞ほど高いスコアがつくことが自然である.第二の考え方は,スコアは複合名詞の長さに依存しないというものである.この考え方に従えば,長さに対して依存しないような正規化が必要になる.専門用語に複合名詞が多いことは認めるにしても,長い程,あるいは逆に短い程,重要であるという根拠は今のところない.よって,我々は第二の考え方を採る.まず,前節までで導入した2つの単名詞のスコア関数を抽象化し,単名詞$N$の左方のスコア関数を$FL(N)$,右方のスコア関数を$FR(N)$と書くことにする.単名詞$N_1,N_2,...,N_L$がこの順で連接した複合名詞を$CN$とする.$CN$のスコアとして前節で定義した各単名詞の左右のスコアの平均をとれば,我々の採った第二の考えに沿った,$CN$の長さに依存しないスコアを定義できる.ここでは,相乗平均を採用する.ただし,$CN$の構成要素の単名詞のスコアが一つでも0になると$CN$のスコアが0になってしまうので,これを避けるために次式で$CN$のスコア$LR(CN)$を定義する.\begin{eqnarray}LR(CN)&=&(\prod_{i=1}^L(FL(N_i)+1)(FR(N_i)+1))^{\frac{1}{2L}}\label{form5}\end{eqnarray}例えば,図2の場合,連接頻度をスコアとすれば,$LR(トライグラム)=\sqrt{(5+1)(3+1)}\simeq4.90$である.式(\ref{form5})によれば,複合名詞と同時に単名詞のスコア付けもできている.(\ref{form5})で$CN$の長さ$L$の逆数のべき乗となっているので,$LR(CN)$は$CN$の長さに依存しない.したがって,単名詞も複合名詞も同じ基準でそのスコアを比較できる.なお,ここで定義した相乗平均の他に相加平均を用いる方法もあるが,以下では予備実験において若干性能の良かった相乗平均のみについて議論する.\subsection{候補語の出現頻度を考慮した重み付け}\label{sec35}これまでに述べてきたのは,連接種類数にせよ,連接頻度にせよ,(\ref{form5})の$LR(CN)$に関しては,抽出された用語候補集合内での統計的性質についての議論であった.一方で,用語候補が純粋にコーパス中で出現した頻度という別種の情報が存在する.つまり,前者が用語候補集合における構造の情報,後者が,コーパスにおける個別用語候補の統計的性質であり,両者は別種の情報であるといえる.したがって,この両者を組み合わせることによってスコア付け方法の性能改善が期待できる.そこで,用語候補である単名詞あるいは複合名詞が単独で出現した頻度を考慮すべく,(\ref{form5})を補正して,次のように$FLR(CN)$を定義する.\begin{eqnarray}FLR(CN)&=&f(CN)\timesLR(CN)\end{eqnarray}$f(CN)$は候補語$CN$が単独で出現した頻度である.ここで単独で出現した用語というのは,他の複合名詞に包含されることなく出現した用語のことを指す.例えば,例1(図\ref{fig:2})の場合,``トライグラム''は単独で3回出現しているので,連接頻度をスコアとすれば,$FLR(トライグラム)=3\times\sqrt{(5+1)(3+1)}\simeq14.70$となる.\subsection{MC-value}\label{sec36}比較のために,単名詞バイグラムによらない用語スコア付けとしてC-value\cite{FrantziAnaniadou96}を考える.C-valueは次式で定義される.\begin{eqnarray}\mbox{C-value}(CN)&=&(length(CN)-1)\times(n(CN)-\frac{t(CN)}{c(CN)})\end{eqnarray}ここで,\begin{quote}\begin{tabular}{ll}$CN$:&複合名詞\footnotemark\\$length(CN)$:&$CN$の長さ(構成単名詞数)\\$n(CN)$:&コーパスにおける$CN$の出現回数\\$t(CN)$:&$CN$を含むより長い複合名詞の出現回数\\$c(CN)$:&$CN$を含むより長い複合名詞の異なり数\end{tabular}\end{quote}\footnotetext{\cite{FrantziAnaniadou96}ではnestedcollocationと呼ばれる.}である.ところがこの式では,$length(CN)=1$すなわち$CN$が単名詞の場合C-valueが0になってしまい,適切なスコアにならない.C-value以前の類似の方法の\cite{kita94}では,複合語を認識するための計算コストを用語の重要度評価に用いていた.C-valueにおいても,このような背景から,一度複合名詞が切り出された後は,その構成要素の名詞数に比例する認識コストが重要度になる.ただし,複合名詞全体がすでに認識されている場合,名詞を順に認識していけば,最後の名詞を認識する手間は必要なくなる.したがって,(5)では$(length(CN)-1)$となる.しかしながら,人間が言葉を認識する上では全ての構成要素の単名詞を認識していると考えられる.そこで,我々は\cite{FrantziAnaniadou96}の定義を次のように変更した.また,変更した定義を以後,ModifiedC-value略してMC-valueと呼ぶ.\begin{eqnarray}\mbox{MC-value}(CN)=length(CN)\times(n(CN)-\frac{t(CN)}{c(CN)})\end{eqnarray}例1(図\ref{fig:2})の場合,$\mbox{MC-value}(トライグラム)=(7-7/5)=5.6$である.
\section{実験および評価}
\subsection{実験環境および方法}本節では,まず実験の主な環境となるテストコレクションについて述べる.我々が用いたのはNTCIR-1のTMRECタスクで利用されたテストコレクションである\cite{kageura99}.1999年に行われたNTCIR-1のタスクのひとつであったTMRECでは,日本語のコーパスを配布して用語抽出を行う課題が行われた.主催者側が人手で準備した用語に対して参加システムが抽出した用語の一致する度合いを評価した.ただし,これらは何らかの客観的定量的基準に基づいて人手で選択されたものではなく,抽出者の直観によるものである.翻って,ある学問分野における正しい用語とは多くの専門家の時間をかけた合意の産物であり,簡単に定義できない.さりとて,この問題に深入りしても当面大きな成果が得られる保証もないので,上記の評価方法を用いる.なお,以下ではNTCIR1で準備された用語を簡単のため正解用語と呼ぶことにする.さて,日本語コーパスは,NACSIS学術会議データベースから収集された1,870の抄録からなる.対象の分野は,情報処理である.主催者側で準備した正解用語は8,834語であり,単名詞と複合名詞が多く含まれる.参加システム側で形態素解析を行うタスクと,主催者側で予め行って形態素解析済みコーパスを配布して利用するタスクがあった.我々は,形態素解析済みで品詞タグ付きのコーパスを利用した.我々は,この品詞タグ付きのコーパスから用語候補として連続する名詞を抽出した.ただし,``的''と``性''で終了する形容詞は分野固有の複合語の用語に含まれることが多いと考え,例外として単名詞扱いしている.この結果,用語候補数は16,708になった.これらを3節に述べた諸方法でスコア付けし,スコアの降順に整列した.こうして作られた用語候補を上位から$PN$個取り出した場合について,NTCIR-1TMRECテストコレクションとして供給された正解用語と比較し,抽出正解用語数,適合率,再現率,F-値を計算し評価する.これらは次式で定義される.\begin{eqnarray}抽出正解用語数(PN)&=&上位PN候補中の正解用語数\\適合率(PN)&=&\frac{抽出正解用語数(PN)}{PN}\\再現率(PN)&=&\frac{抽出正解用語数(PN)}{\mbox{NTCIR-1TMREC}テストコレクション中の全正解用語数}\\\mbox{F-値}(PN)&=&\frac{2\times再現率(PN)\times適合率(PN)}{再現率(PN)+適合率(PN)}\end{eqnarray}\subsection{各方法の比較実験および考察}以下の各々の手法によりスコア付けをし順位を求めた場合について,$PN$が3,000語までの抽出結果を示し,考察を行なう.\begin{enumerate}\item連接種類数$\#LDN(N),\#RDN(N)$を用いた$LR$法(以下,「連接種類$LR$法」と呼ぶ.)\item連接頻度$\#LN(N),\#RN(N)$を用いた$LR$法(以下,「連接頻度$LR$法」と呼ぶ.)\item$LR$(連接頻度)法に候補語の単独出現数を考慮した$FLR$法\itemMC-value法\item単名詞,複合名詞の単独での出現頻度をスコアとする語頻度法\end{enumerate}NTCIR1のように専門用語が高い密度で現われるコーパスでは語頻度法が有効に機能すると考えられるので,比較対象の一つに加えた.もしも,語頻度法のような簡単な方法が高い精度を示すなら,ここまで検討してきた1から4のような複雑な方法は必要がないからである.\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=LRDN.eps,scale=0.47}\hspace*{\fill}\caption{連接種類LR法で抽出した候補語上位3,000語における完全一致数と部分一致数}\label{fig:LR}\end{figure}\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=seikai.eps,scale=0.47}\hspace*{\fill}\caption{語頻度法,連接頻度LR法,MC-value法,FLR法における完全一致数の変化\\(連接種類LR法との差をプロット)}\label{fig:LR1}\vspace*{10ex}\hspace*{\fill}\epsfile{file=bubun.eps,scale=0.47}\hspace*{\fill}\caption{語頻度法,連接頻度LR法,MC-value法,FLR法における部分一致数の変化\\(連接種類LR法との差をプロット)}\label{fig:LR2}\end{figure}まず,図\ref{fig:LR}に連接種類$LR$法によって抽出された候補語3,000語までの場合について,正解用語との完全一致用語数と,正解用語を含んだより長い候補語も数えた,部分一致用語数を示す.例えば,正解用語に「エキスパートシステム」という用語があって,候補語に「エキスパートシステム構築支援」というような用語が抽出された場合,これは部分一致用語数として数えられる.正解用語を含んだより長い候補語も正解とすると3,000語まではかなりの部分をカバーしていることがわかる.そこで,この連接種類$LR$法を基準として,語頻度法,連接頻度$LR$法,MC-value法,および,$FLR$法を比較する.図\ref{fig:LR1}に完全一致用語数の変化を示し,図\ref{fig:LR2}に部分一致用語数の変化を示す.いずれも,各手法の一致用語数から,基準となる連接種類$LR$法の一致用語数を減じた数を記している.例えば,図中「$FLR-$種類」と示されているプロットは,$FLR$法により求めた一致用語数と連接種類$LR$法により求めたものの差の変化を示すものである.まず,完全一致用語数では「連接頻度$-$種類」のプロットが0よりもほぼ上にあることから,連接種類数を手掛かりとするよりも連接頻度を用いる手法のほうが若干優れていることがわかる.一方,$FLR$法,MC-value法,語頻度法は,いずれも,連接頻度$LR$法,連接種類$LR$法を上回る結果となった.さらに,1,400語までは$FLR$法が最も優れた結果を示し,それ以降はMC-valueがこれを上回った.また,部分一致用語数では連接頻度$LR$法が最も優れた結果を示した.しかしながら,連接種類$LR$法と$FLR$法は,共に大差はないが,語頻度法ならびにMC-value法はこれらを大きく下回る結果となった.これらを見てもわかるように,我々の提案する手法では完全に間違った候補語は抽出されにくいのに対して,語頻度法やMC-value法は正解用語とまったく関係のない候補語も抽出される傾向にあるといえる.さらに,候補語3,000語,6,000語,9,000語,12,000語,15,000語の各々について,抽出正解用語数,再現率,適合率,F-値を求めた.表\ref{table1}に抽出正解用語数を,表\ref{table2}に再現率,適合率,F-値を示す.\begin{table}[htbp]\caption{各方法により抽出された完全一致用語数}\label{table1}\begin{center}\begin{tabular}{|r|r|r|r|r|r|}\hline$PN$&連接種類$LR$&連接頻度$LR$&$FLR$&語頻度&MC-value\\\hline3,000&1746&1784&1970&2034&2111\\\hline6,000&3270&3286&3456&3740&3671\\\hline9,000&4713&4744&4866&4834&4930\\\hline12,000&5974&6009&6090&5914&6046\\\hline15,000&7036&7042&7081&6955&7068\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{各方法により抽出された完全一致用語における再現率,適合率,F-値}\label{table2}\begin{center}\begin{tabular}{|r|r|r|r|r|r|r|}\hline$PN$&連接種類$LR$&連接頻度$LR$&$FLR$&語頻度&MC-value\\\hline3,000&.197&.202&.223&.230&.239\\&.582&.595&.657&.678&.704\\&.295&.301&.333&.343&.356\\\hline6,000&.370&.372&.391&.423&.415\\&.545&.548&.576&.623&.612\\&.441&.443&.466&.504&.496\\\hline9,000&.533&.536&.550&.547&.557\\&.524&.527&.540&.537&.548\\&.529&.532&.545&.542&.553\\\hline12,000&.676&.680&.689&.669&.684\\&.498&.501&.508&.493&.504\\&.573&.577&.584&.567&.580\\\hline15,000&.796&.796&.800&.786&.799\\&.469&.469&.472&.464&.471\\&.590&.591&.594&.583&.593\\\hline\end{tabular}\\表の各セルの内容は上段が再現率,中段が適合率,下段がF-値を表わす.\end{center}\end{table}この結果を見ると,まず単名詞バイグラムによる方法の中では,$\#LN(N),\#RN(N)$に候補語の独立出現数を補正した$FLR$のスコアが一番性能がよい.語頻度法が6,000語の場合には一番性能が良く,MC-valueは抽出用語数が3,000語,および9,000語の場合には全ての方法の中で最も性能がよい.しかし,抽出用語数が増えるにつれて$FLR$との差は小さくなり,上位12,000語および15,000語を抽出した場合には$FLR$が最高の性能を示した.単純な語頻度法は6,000語付近で最高の性能を示すが,それ以外では$FLR$あるいはMC-valueに劣ることが実験的に判明した.さて,このような傾向から見てどの方法が優れているかについて考えてみる.専門用語辞書をみると,\cite{densi,computer-sci,archi}では,各々10,000語から40,000語を収録している.よって,15,000語という多数の抽出で高い性能を示した$FLR$が有望な方法である.一方,インターネット上の情報通信用語辞典e-Words\cite{e-words}では,2002年5月時点で約3,200語を収録している.この領域ではMC-valueが最も高い性能であった.目的とする抽出語数が決まれば,採用すべき方法が決まるようにも見えるが,実際は既に述べたようにNTCIR1で主催者が用意した用語の性質にも定量的根拠が薄いので早急な結論は出しにくい.いろいろな分野への適用を通じてどの方法が望ましいかが見えてくると考える.\subsection{抽出用語の性質}さて,これまでは抽出用語の質をそのまま候補語中の正解用語数で議論してきた.しかし,テストコレクションの正解が実用的にどのくらい有効な指標になっているかは議論の余地がある.そこで抽出用語に対する直接的な評価を以下に試みる.まず,用語の長さは抽出用語の品質に密接に関係するのでこれを調べる.語頻度法,連接頻度$LR$法,$FLR$法,MC-value法の4つの手法における上位から並べた正解用語の長さを図\ref{fig:gotyou}に示す.ただし,長さは複合名詞を構成する単名詞数で表わした.なお,正解用語の平均語長は2.56である.\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=gotyou.eps,scale=0.47}\caption{各手法における100語毎の平均語長}\label{fig:gotyou}\hspace*{\fill}\end{figure}図\ref{fig:gotyou}を見ると,候補語上位1,400語付近まででMC-value法は連接頻度$LR$法や$FLR$法に比べて平均語長が短い傾向にある.すなわちMC-value法では語長の短い語が高いスコアを得る傾向にある.ところが,上位1,400語までは$FLR$が最も多くの正解用語を抽出している.上位1,400語以降,MC-valueは語長の長い語も抽出するようになるにつれて,より多くの正解用語を抽出するようになった.連接頻度$LR$,$FLR$の手法は1,000語付近まではFLRのほうが短い語を抽出しているが,それ以降は同程度の長さの語を抽出し,比較的安定している.語頻度法は安定して短い用語を抽出する傾向にある.この理由は後で述べる.次に具体的な抽出用語例を示そう.全てを示すことは紙面の関係でできないので,最上位の抽出用語を示して各スコア付けの特徴について考えてみる.\begin{table}[htbp]\hsize\textwidth\caption{スコアの最上位の15用語候補}\begin{center}\begin{tabular}{|l|c||l|c||l|c||l|c|}\hline連接種類$LR$&&$FLR$&&語頻度&&MC-value&\\\hline知識&&知識&&システム&&学習者&\\学習知識&&システム&&知識&&問題解決&\\学習&&問題&&研究&$\times$&システム&\\言語的知識&&学習&&本稿&$\times$&知識&\\知識システム&&モデル&&手法&$\times$&研究&$\times$\\学習システム&&情報&&問題&&本稿&$\times$\\問題知識&$\times$&問題解決&&論文&$\times$&手法&$\times$\\学習問題&&設計&&方法&$\times$&問題&\\言語的&&知識ベース&&学習者&&知識ベース&\\システム&&推論&&情報&&論文&$\times$\\問題&&支援&$\times$&モデル&&方法&$\times$\\論理的知識&&知識表現&&我々&$\times$&支援システム&\\学習支援システム&&エージェント&&ユーザ&&計算機&\\設計知識&&学習者モデル&&機能&$\times$&情報&\\学習問題解決システム&&構造&$\times$&対象&&モデル&\\\hline\end{tabular}\\無印:正解用語,$\times$:不正解用語\end{center}\label{table:15}\end{table}表\ref{table:15}に各手法におけるスコアの最上位15候補を示す.この結果を見ると,明らかに連接種類$LR$によるスコア付の上位候補は複合名詞が多い.一方,$FLR$,語頻度,MC-valueの各手法によるスコア付けの上位候補には単名詞が多い.$FLR$では,出現頻度の高い単名詞を優遇する補正をしているし,MC-valueでも単名詞の頻度がその単名詞を含む複合名詞の頻度を強く反映した構造になっているから,この結果は偶然ではない.MC-valueの場合``研究,論文,方法,手法''などという分野の用語でない名詞が多く抽出されているが,これも大量かつ多種類の複合名詞に含まれるであろうこと,およびMC-valueが多数かつ多種類の複合名詞に含まれる単名詞のスコアを高くつけることから得られる帰結である.一方,$FLR$法では,連接頻度を用いることにより,これらの単純に頻度が高いだけの名詞をスコアを低くする効果がある点が有利である.さて,図\ref{fig:gotyou}で見たように語頻度法が短い用語を抽出する傾向についてであるが,表\ref{table:15}を見れば,「我々」「方法」のような一般に使用される単名詞を抽出している.このような一般的な単語は高い頻度で現われるということを示しており,同時に必ずしも専門用語としては重要でないことを考えれば,語頻度法では専門用語を選択的に抽出する能力には限界があると言わざるをえない.\subsection{NTCIR-1TMRECの結果との比較}ここまで述べてきたスコア付け方法の客観的評価を行うために,NTCIR-1TMRECタスクで上位の成績を残したチームとの比較を行う.なお,NTCIR-1にはC-valueによるスコア付けをするチームも参加しているが,NTCIR-1の参加規定によりどのチームかは不明である.しかし,後で述べるように本論文で提案したC-valueを修正したMC-valueが良好な結果を示していることから,我々のC-valueの修正法には若干の独自性が認められると考えられる.NTCIR-1TMRECの上位2チームの手法を以後T1,T2と呼ぶ.T1,T2,ならびに,本論文で性能の良かった$FLR$およびMC-valueの各スコア付け方法において,上位から3,000語までの範囲で1,000語毎に求めた適合率を表\ref{table:pre}ならびに図\ref{fig:Prec1k}に示す.また,同様に上位から15,000語までの範囲で3,000語毎に求めた適合率を図\ref{fig:Prec3k}に示す.\begin{table}[htbp]\caption{NTCIR-1TMREC参加上位2チームと$FLR$,MC-valueの比較(1000語毎の適合率)}\begin{center}\begin{tabular}{|r|r|r|r|r|}\hline$PN$&$FLR$&MC-value&T1&T2\\\hline1から&.773&.754&.705&.744\\1,000&&&&\\\hline1,001から&.635&.707&.607&.584\\2,000&&&&\\\hline2,001から&.562&.640&.618&.518\\3,000&&&&\\\hline\end{tabular}\end{center}\label{table:pre}\end{table}\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=Prec1k.eps,scale=0.47}\hspace*{\fill}\caption{NTCIR1TMRECタスク参加上位2チームとFLR,MC-value方式の比較(1000語毎の適合率)}\label{fig:Prec1k}\end{figure}\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=Prec3k.eps,scale=0.47}\hspace*{\fill}\caption{NTCIR1TMRECタスク参加上位2チームとFLR,MC-value方式の比較(3000語毎の適合率)}\label{fig:Prec3k}\end{figure}表\ref{table:pre}ならびに図\ref{fig:Prec1k}によれば,スコア付け1001〜2000,2001〜3000語の部分ではMC-valueが他を上回ったが,1〜1000語部分での抽出精度は我々の提案した$FLR$によるスコア付けが,最も優れた結果を示した.また,図\ref{fig:Prec3k}に示すとおり,3,000語以降については,候補語数が多くなるにつれて,手法T1,T2は適合率を落とすが,$FLR$法とMC-value法の抽出精度の下がり方はなだらかであった.このことは$FLR$法やMC-value法が安定して正解用語を抽出していることを示している.最終的に$FLR$は候補語上位16000語のうち,7412語が正解用語であった.この結果は他の研究と比較しても高い結果といえるだろう.NTCIRの中のチームの候補語上位16,000語での抽出結果では,$T1$の正解用語数6536語が最高である.また,最も多く正解用語を抽出したチームは$T2$で,正解用語数7944語であるがこれは候補語上位23270語からマッチしたものであり,かなり低い適合率である.我々は,名詞の連続だけを取り出したが,正解用語の中には形容詞と名詞の連接や,助詞``の''によってつながった用語もある.これらを広く抽出すれば再現率は高まるが,上位のスコアの抽出後においてすら非正解用語を多数抽出してしまい,あまり好ましくない.
\section{おわりに}
本論文では,専門分野コーパスからの専門用語の抽出法について検討した.まず,用語抽出技術の背景を述べ,次に本論文の核心である単名詞$N$に連接する単名詞の頻度の統計量を利用する$N$のスコア付け方法を提案した.これらスコア付け方法を複合名詞のスコア付けに拡張した.比較対象としては,既存のC-valueを修正したMC-value法ならびに語頻度法を検討した.これらのスコア付け法をNTCIR-1TMRECタスクのテストコレクションに適用して結果を評価した.その結果,スコア上位の候補,および12,000語以上を抽出する場合においては我々の提案する$FLR$法の性能が優れていることがわかった.一方,1,500〜10,000語程度の専門語を抽出したいのであるなら,MC-value法のほうが優れた結果を示すが,正解用語を含む長めの語でよいのであれば,$FLR$法の出力は正解用語の大部分をカバーすることができることもわかった.今後の課題としては,より多様な情報,例えば文脈情報を利用して用語抽出の性能の向上を計ることが重要である.しかし,一方で,専門分野の用語として真に欲しいのはどのような性質を持つ用語なのかを定式化するという根本的問題も考察していく必要があろう.このような考察は哲学的なものというよりは,実際のコーパスの統計処理を用いた実験的なものでなければ実用性に乏しい.その意味で,このような観点から設計した用語抽出タスクを企画することも望まれる時期にきているのではないだろうか.\acknowledgment国立情報学研究所主催のNTCIRならびにそのサブタスクTMRECを企画・運営し,評価用データを作成していただいた皆様に感謝致します.また,数多くの有益なコメントを頂いた査読者の方に感謝いたします.なお,本研究の一部は文部科学省科学研究費補助金基盤研究(C)(2)(課題番号12680368)により支援を受けております.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1975年東京大学工学部電気工学科卒業.1980年同大学院博士課程修了.同年,横浜国立工学部講師,同助教授,教授を経て,1999年より東京大学情報基盤センター教授.現在に至る.自然言語処理の研究に従事.1990年1月より1年間Stanford大学CSLI客員研究員.現在,言語処理学会副会長,ACLExecutiveCommitteeMember.}\bioauthor{湯本紘彰(非会員)}{2000年横浜国立大学工学部電子情報工学科卒業.2002年同大学院工学研究科博士課程前期修了.同年4月,株式会社東芝入社.同年10月,東芝ITソリューション株式会社転籍.現在に至る.同大学院在学中,自然言語処理の研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師を経て現在,同大学大学院環境情報研究院助教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本認知科学会,ACM,AAAI各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N03-02
|
\section{はじめに}
label{hajime}一般に,手話言語は視覚言語としての側面を持つ.この視覚言語としての特性の一つは,音声言語が単語を線条的に配列し.文を構成するのに対して,単語を空間的かつ同時的に配列することで文を構成できる点である\cite{Baker1980}.また,単語の語構成においても,例えば,右手で「男」を示し,左手で「女」を同時的に空間に配置し,両手を左右から近付けることで「結婚」を,逆に「結婚」の手話表現を示し,両手を左右に引き離すことで「離婚」を表現している.すなわち,音声言語に比べて,単語を造語する際の{\gt写像性}({\iticonicity})が高い言語であると捉えることができる.また,手話単語の造語法の特徴には,この事物,事象の仕草(ジェスチャ)という写像性を持つと同時に,ある手話単語の構成要素(手の形,手の位置,手の動き)のパラメータの一部を変更したり,他の手話単語との複合表現により,別の意味を担う単語見出しに対応できる点が挙げられる\cite{Ichida1994}.例えば,日本語の単語見出し「破産」に対する日本手話の手話表現は,破産との因果関係「家が潰れる」を比喩的に表象し,「家」の手話表現,すなわち,屋根の形を構成する両手を中央で付け合わせる仕草で表現している.また,「家族」は左手で「家」の手話を構成しながら,右手で「人々」の手話を同時に提示することで表現される.さらに,「学校」は,「教える」と「家」の複合語表現として定義されている\cite{Honna1994}.このように,手話単語を構成する手指動作特徴の各パラメータは,手話単語の構造を記述する表記法として重要である\cite{Yonekawa1984}と同時に,単語の表す概念の一部を写像的に表現していると捉えることができる.これは,単語間の手指動作特徴の類似性を調べることで,その類似の特徴パラメータが示す概念特徴とは何か,すなわち,概念特徴が表現するどの部分を特徴素として抽出しているのかを解明する一つの手がかりとなると考える.さて,一般に,単語見出しは単語が担う複数の概念を表す総称的なラベルの一つである.また,意味特徴モデル\cite{Smith1974}では,概念は幾つかの特徴素の集合として表現されるとしている.この概念の特徴素には二つの種類があり,その一つは,ある概念を定義し,かつ不可欠な要素を列挙する{\gt定義的特徴}であり,他方は{\gt性格的特徴}である.例えば,日本語の単語見出し「ウグイス」の定義的特徴としては,``翼がある,飛べる,ホーホケキョと鳴く''などである.これに対して,性格的特徴は,``早春に飛来する,梅に止まる''などである.このように,性格的特徴は,ウグイスらしさを記述しているが,概念の定義として不可欠な特徴素ではない\cite{Ohsima1986}.ここで,先に示した「家」の手話表現は建物としての概念の定義的特徴を視覚的に写像しているのに対して,「破産」は,性格的特徴による表現と捉えることができる.本研究では,市販の辞書に収録されている日本手話の手話単語を対象に,複数の手話単語間に存在するであろう手指動作特徴の類似性と,その類似の手指動作特徴を含む単語間に共有される概念の特徴素とは何かを明らかにするため,手指動作特徴間の類似性による単語の部分集合(クラスタ)を求める方法について検討を行った.この類似の動作特徴を含む手話単語のクラスタの獲得は,言語学分野における,手話単語の構造や造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなると考える.例えば,日本語と手話の橋渡しとなる手話通訳システムや電子化辞書システムでは,単語の登録や検索が重要な要素技術の一つであり,手指動作特徴からの日本語単語見出しの効率の良い検索方法の実現は重要である.このように,手指動作特徴の類似性に基づく分類方法は,検索辞書の構築に有効利用できると考える.例えば,ニュース原稿を手話通訳する現場から,新たに手話単語を造語する必要性が報告\cite{Shigaki1991}されており,造語する場合の観点として,ある動作特徴の果たしている意味は何か,あるいは,類似の動作特徴を含む他の単語との整合性があるか(既に定義されている単語との競合はないか)が重要であり,これらを効率よく調べる手段を提供できる可能性がある.このような背景から,本論文では,与えられた手話単語の有限集合を手指動作特徴間の類似性に基づき,単語のクラスタ(部分集合)を求めるための一つの分類方法を提案し,その有効性を検証するために行った実験結果について述べる.本提案手法の特徴は,市販の手話辞典に記述されている日本語の手指動作記述文を手指動作パターンの特徴系列と捉え,手指動作記述文間の類似関係から同値関係を導出し,与えられた単語集合を同値類に分割する点にある.なお,関連する研究として,従来,手話単語の構造を記述する表記法に焦点を当てた研究が言語学と工学の分野から幾つか報告されている.例えば,\cite{Stokoe1976}は,ASL(Americansignlanguage)の手話単語を対象に手の形,手の位置,手の動きを手指動作特徴の特徴素とする表記法を提案し,\cite{Kanda1984,Kanda1985}は日本手話の表記法についての検討結果を報告している.また,手話の画像処理\cite{Kamata1991}や画像通信\cite{JunXU1993}の観点からの表記法も提案されている.これらの表記法は,手話の表現を厳密に再現することを目的としているため,\cite{Naitou1996}が指摘しているように,複雑なコード体系を用いている.一方,\cite{Adachi2000}は複雑なコード体系により記号化された表現ではなく,市販の辞書中に記述されており,初学者にも親しみやすい(扱いやすい)自然言語文として表現されている手指動作記述文間の類似関係を手話単語間の類似関係とみなし,手指動作記述文間の類似度を計算することで,類似の動作特徴を含む手話単語対の抽出方法を提案している.この手法の利点の一つは,データ収集の容易さと同時に対象単語数の大規模化が容易に行える可能性がある点である.本研究では,同様に単語間の類似性を手指動作記述文間の類似性とみなす考え方を採り入れ,さらに,「単語と単語」との直接的な類似関係による単語間の関係に,推移律を満たす関係式を新たに導入することで,集合の同値関係を規定し,間接的な類似関係をも考慮した「単語対と単語対」との類似関係に焦点をあて,与えられた単語集合から同値類を抽出し分類することを特徴としている.以下,2章で,手指動作記述文間の類似度の計算方法を概説し,3章で,類似関係を表す類似行列の推移行列への変換手続きによる分類方法について述べ,4章で,本提案手法の妥当性を検証するために行った実験結果を示し,5章で考察を行う.
\section{手指動作記述文間の類似度}
\subsection{手話単語間の類似度の考え方}\label{idea}一般に,パターン認識においては,構造を持つオブジェクト間の関係を計る尺度として,距離や類似度を定義する必要がある\cite{Tanaka1990}.本論文では,手話単語が$n$個の手指動作特徴を持つとし,$n$次元空間上の点で表現する.この空間上での$n$次元の特徴ベクトルのなす角を用いて,手話単語間の類似度を近似する.ここで,手話単語とそれに対応する手指動作特徴を自然言語文に写像した手指動作記述文に1対1の対応関係があるとすると、手話単語間の類似度問題は,手指動作記述文間の類似度問題と捉えることができる.\subsection{手指動作記述文間の類似度の計算方法}\ref{idea}節で示した類似度の考え方から,手話単語間の類似度を,対応する手指動作記述文間の類似度とみなす.ここでは,二つの手話単語$A,B$に対する手指動作記述文の文字列を$A=a_1a_2\cdotsa_m,B=b_1b_2\cdotsb_n$とし,両者の最長共有部分列の長さを$LCS$と表記するとき,次式で示した手話単語$A,B$の類似係数$S(A,B)$を$A,B$間の類似度とみなす\cite{Adachi1993a}.\begin{equation}\label{sim}S(A,B)=\frac{LCS(A,B)^2}{mn}=\frac{LCS(A,B)}{m}\frac{LCS(A,B)}{n}\end{equation}ここで,$LCS(A,B)$は,動的計画法を利用して次式で計算できることが知られている\cite{Thomas1990}.また,$LCS(A_i,B_j)$は部分列$A_i$と$B_j$の最長共有部分列の長さを示し,$LCS(A_i,0)=LCS(0,B_j)=0\(1\lei\lem,1\lej\len)$とする.なお,$LCS$は複数の最長共有部分列を導出する可能性があるが,その長さは一意に決定できる.\begin{equation}LCS(A,B)=LCS(A_m,A_n)\end{equation}\[LCS(A_i,B_j)=\left\{\begin{array}{ll}LCS(A_{i-1},B_{j-1})+1&a_i=b_j\\\max\{LCS(A_i,B_{j-1}),LCS(A_{i-1},B_j)\}&\mbox{otherwise}\end{array}\right.\]例えば,$A=``右手を右に倒す'',B=``右手を左に倒す''$とした場合,表\ref{lcs}に示すように$LCS(A,B)=LCS(A_{6},B_{6})=6$となり,$S(A,B)=0.73469388$となる.なお,表中の括弧で示した部分は両者の文字が一致する箇所($a_i=b_j$)を示す.\begin{table}[htb]\caption{$LCS(A,B)$の計算例}\label{lcs}\tabcolsep=3pt\footnotesize\begin{center}\begin{tabular}{c|ccccccc}&右&手&を&左&に&倒&す\\\hline右&(1)&1&1&1&1&1&1\\手&1&(2)&2&2&2&2&2\\を&1&2&(3)&3&3&3&3\\右&(1)&2&3&3&3&3&3\\に&1&2&3&3&(4)&4&4\\倒&1&2&3&3&4&(5)&5\\す&1&2&3&3&4&5&(6)\\\end{tabular}\end{center}\end{table}
\section{手話単語の分類方法}
\subsection{有限集合の同値関係}一般に,ある有限集合$X$の直積$X\timesX$における二項関係を$R(x,y)$と表記する.ここで,反射律と対称律を満たす$R(x,y)$を類似関係と呼び,その関係を行列で表現したものを類似行列と呼ぶ.\begin{eqnarray*}R(x,x)&=&1,\forallx\inX\\R(x,y)&=&R(y,x)\end{eqnarray*}さらに,類似関係が推移律を満たす場合,$R(x,y)$を同値関係と呼び,行列で表現したものを推移行列(あるいは同値関係行列)と呼ぶ.例えば,次式は推移関係を示している\cite{Ito1986}.\[R(x,z)\ge\max_{y}\min\{R(x,y),R(y,z)\}\]なお,この同値関係により,与えられた有限集合の要素を同値類に分割できることが知られている\cite{Klir1988}.本論文で提案する分類方法は,与えられた手話単語の有限集合を手指動作記述文間の類似性に基づく同値関係により,集合要素を同値類へ分割するものである.前章で定義した類似度$S(x,y)$は以下に示すように,反射律と対称律の二つの条件を満たしていることは明らかである.\begin{center}\begin{tabular}{ll}反射律&$S(x,x)=1$\\対称律&$S(x,y)=S(y,x)$\\\end{tabular}\end{center}そこで,以下の関係式を導入し,推移律を満たす同値関係を導出する.\begin{equation}\label{eq:suii}S(x,z)\ge\max_{y}\min\{S(x,y),S(y,z)\}\end{equation}すなわち,推移律は,類似度$S(x,y)$と$S(y,z)$から得られる{\gt間接}の関係と,類似度$S(x,z)$から得られる{\gt直接}の関係により一義的に定義される.次節では,具体的な例を用いて,同値関係による分類方法について詳細に述べる.\subsection{分類方法}\label{tejun}$X=\{a,b,c,d,e\}$を与えられた手話単語の有限集合とし,集合$X$の要素間の類似関係$S(x,y)$は,以下に示す類似行列$S$で表現されているとする.ここで,対称律により,例えば,$S(a,b)=S(b,a)=0.2$であり,反射律により,対角線成分はすべて1となる.\[S=\begin{array}{r@{}l}&\begin{array}{ccccc}\makebox[2.5em]{a}&b&\makebox[2.0em]{c}&d&\makebox[2.0em]{e}\end{array}\\\begin{array}{l}a\\b\\c\\d\\e\end{array}&\left(\begin{array}{ccccc}1&0.2&0.5&0.3&0.8\\0.2&1&0.3&0.5&0.3\\0.5&0.3&1&0.2&0.7\\0.3&0.5&0.2&1&0.2\\0.8&0.3&0.7&0.2&1\end{array}\right)\end{array}\]次に,手話単語$a$と$b$の関係を例として,推移関係を満たす類似度を求める手続きについて述べる.まず,$a$と$b$との間接の関係は,(1)$S(a,c)=0.5$,$S(c,b)=0.3$,(2)$S(a,d)=0.3$,$S(d,b)=0.5$,(3)$S(a,e)=0.8$,$S(e,b)=0.3$\noindentであり,それぞれの組の中で最小の類似度の集合を$S_{min}$と表記すると,$S_{min}=\{0.3,0.3,0.3\}$となり,その最大値は$0.3$となる.一方,手話単語$a$と$b$の直接の関係は,$S(a,b)=0.2$である.この直接と間接の関係にある類似度を比較して,大きい方の値を推移関係における$S(a,b)$の類似度とする.この例では間接の類似度の方が大きく,$S(a,b)=0.3$となる.ここで,類似行列$S$における類似度$S(x,z)$と区別するため,推移行列を$T$と表記し,$T$における類似度を$T(x,z)$と表記すると,式(\ref{eq:suii})は次式で表現でき,推移行列$T$は以下のように表現される.\begin{equation}\label{eq:trans}T(x,z)=\max\Bigl(S(x,z),\max_{y}\min\{S(x,y),S(y,z)\}\Bigr)\end{equation}\[T=\begin{array}{r@{}l}&\begin{array}{ccccc}\makebox[2.5em]{a}&b&\makebox[2.0em]{c}&d&\makebox[2.0em]{e}\end{array}\\\begin{array}{l}a\\b\\c\\d\\e\end{array}&\left(\begin{array}{ccccc}1&0.3&0.7&0.3&0.8\\0.3&1&0.3&0.5&0.3\\0.7&0.3&1&0.3&0.7\\0.3&0.5&0.3&1&0.3\\0.8&0.3&0.7&0.3&1\end{array}\right)\end{array}\]さらに,推移行列$T$を対角線成分に近い程,行列成分(類似度の値)が大きくなるように行列の要素間の交換を行うと,以下の推移行列$T_{sort}$が得られる.\[T_{sort}=\begin{array}{r@{}l}&\begin{array}{ccccc}\makebox[2.5em]{a}&e&\makebox[2.0em]{c}&d&\makebox[2.0em]{b}\end{array}\\\begin{array}{l}a\\e\\c\\d\\b\end{array}&\left(\begin{array}{ccc|cc}1&\multicolumn{1}{c|}{0.8}&0.7&0.3&0.3\\0.8&\multicolumn{1}{c|}{1}&0.7&0.3&0.3\\\cline{1-2}0.7&0.7&1&0.3&0.3\\\hline0.3&0.3&0.3&1&0.5\\0.3&0.3&0.3&0.5&1\end{array}\right)\end{array}\]これにより,与えられた手話単語の有限集合$X$は,ある適切な閾値$\alpha$を設定することで,$\alpha$における同値関係$T_{\alpha}$により,互いに素な部分集合に直和分割される.ここで,集合$X$の閾値$\alpha$による分割を$X/T_{\alpha}$と表記し,閾値($1\ge\alpha\ge0$)を段階的に変化させることにより,以下に示すように,$\alpha$による階層構造を構成することができる.\begin{eqnarray*}X/T_{1.0}&=&\{a,b,c,d,e\}\\X/T_{0.8}&=&\{\(a,e),\c,d,b\}\\X/T_{0.7}&=&\{\(a,e,c),\d,b\}\\X/T_{0.5}&=&\{\(a,e,c),\(d,b)\}\\X/T_{0.3}&=&X/T_{0.0}=\{\(a,e,c,d,b)\\}\end{eqnarray*}同様に,行列$T_{sort}$は以下に示すように,一般に,デンドログラム(樹系図)と呼ばれる階層的なクラスタリング結果を内包していると捉えることができる.なお,本論文では便宜上,以下に示す連分数の表現形式を用いて階層関係を表現することにする.\[\cfrac{0.3}{\dfrac{0.5}{b,d}+\cfrac{0.7}{\cfrac{0.8}{a,e}+c}}\]以上の手続きで得られた推移行列を用いると,単語対と単語対との類似度が一義的に決定される.
\section{実験と結果}
ここでは,本手法の妥当性を検証するため,与えられた手話単語の集合を同値類に分割する実験を行った結果を示し,得られた同値類に含まれる手話単語を分析し,どのような手指動作特徴の類似性により手話単語が結束しているのかを明らかにし,手指動作特徴と単語の意味との関係,すなわち,手話単語の造語法を解明する上での手がかりや手話単語の電子化辞書を構築する上での有用な情報が得られたか否かで評価を行う.\subsection{実験データ}\label{pre}議論を明確にするため,本論文では顔,特に``口''の部分を手指動作特徴の要素(手の位置)として用いる手話単語の有限集合を実験対象とし,以下の手順で実験データを準備した.最初に,手話辞典\cite{MaruyamaKoji1984}からキーワードとして,``口''または``唇''を含む手指動作記述文(以下,記述文と略記する.)を抽出し,人手により計算機に入力した.次に,表\ref{marge}に示すように,同一の記述文($S(x,x)=1$に相当)をマージし,最終的に,101記述文とその単語見出しをペアとする構造の実験データを準備した\footnote{記述文中の「唇」は,「口」と同一視し,文字の置換処理により「口」に統一した.}.なお,表\ref{marge}中の単語見出しの添字の意味は,数字が複合語を構成する記述文の出現する配列順序を示す.一方,英字は同一の単語見出しに対して,異なる手話表現が辞書に定義されていることを意味する.例えば,表\ref{marge}中の「恥ずかしい.A.1」と「恥ずかしい.B.1」は,単語見出し「恥ずかしい」に対して,二つの手話表現A,Bが辞書に定義されており,A,Bともに同一の記述文を複合語表現の最初に用いていることを示す.\begin{table}[htb]\caption{同一の手指動作記述文を含む単語群}\label{marge}\tabcolsep=3pt\footnotesize\begin{center}\begin{tabular}{|l|}\hline右手の人差指を下唇にあてて右に引く\\\hline遺伝.1,火事.1,赤十字.1,速達.2,ソ連.1,日曜日.B.1,日赤(日本赤十字社の略称).1,\\はしか.1,恥ずかしい.A.1,恥ずかしい.B.1,はにかむ.1,火.1,貧血.1,もみじ.1,りんご.1,\\火曜日.1,血液.1,錆.1,出血.1,信号.1\\\hline人差指を立てて唇にあてる\\\hline家出.1,隠す.1,スパイ.1,亡命.1\\\hline人差指と親指を伸ばしてそのつけ根を口の前におき二指を開閉する\\\hline鳥取.1,鳥.1\\\hline人差指で口のところに小さく円を描く\\\hline読話.1,口話.1\\\hline小指を下唇にあてる\\\hline海.1,しょうゆ.1\\\hline五指を折り曲げた右手を口の前でまわす\\\hline辛い,カレーライス.1\\\hline右手の親指を口の前で右から左に往復させる\\\hline通訳,紹介\\\hline\end{tabular}\end{center}\end{table}\subsection{実験方法と結果}以下では,\ref{tejun}節で述べた分類手順に従い,その過程で得られた結果を段階的に示しながら実験方法の説明を行う.まず最初に,\ref{pre}節で得られた記述文間の類似度を式(\ref{sim})で求める.表\ref{sim_kekka}は類似度$0.6$以上の単語対として抽出された25組を示す.その結果,図\ref{s_matrix1}に示すように$31\times31$の類似行列が得られる.ここで,行列は対角線成分($S(x,x)=1$)と表\ref{sim_kekka}の単語対に対応する要素成分($S(x,y)\ge0.6$)を記号``$\ast$''で示す.すなわち,図\ref{s_matrix1}に示した類似行列は,閾値$\alpha$を$0.6$に設定し,閾値$\alpha$以上の成分を1とみなし,$\alpha$未満の成分は0とした閾値行列と捉えることができる.\begin{table}[htb]\caption{類似度$0.6$以上の手話単語ペア}\label{sim_kekka}\tabcolsep=3pt\footnotesize\begin{center}\begin{tabular}{c|l||c|l}\hline類似度&手話単語ペア&類似度&手話単語ペア\\\hline\hline0.97&(梅干し.1,梅.1)&0.68&(言い訳.2,打ち消す.1)\\\hline0.94&(言う,言い訳.2)&0.66&(アドバイス.2,言葉.1)\\\hline0.89&(遺伝.1,苺.1)&0.66&(お世辞.1,打ち消す.1)\\\hline0.88&(遺伝.1,日曜日.A.1)&0.65&(渋い,唐辛子.1)\\\hline0.85&(餅.2,そば(蕎麦))&0.64&(言う,取り寄せる.1)\\\hline0.85&(読話.1,口実.1)&0.63&(辛い,こしょう.1)\\\hline0.77&(日曜日.A.1,苺.1)&0.63&(言う,お世辞.1)\\0.75&(ニュース.2,発言)&0.62&(発言,白状)\\\hline0.75&(こしょう.1,唐辛子.1)&0.62&(風邪.1,咳)\\\hline0.74&(言う,打ち消す.1)&0.62&(辛い,渋い)\\\hline0.69&(ソース.1,こしょう.1)&0.62&(赤字.1,紅茶.1)\\\hline0.69&(ラーメン.2,餅.2)&0.61&(取り寄せる.1,言い訳.2)\\\hline0.69&(恥ずかしい.B.2,はにかむ.2)&&\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[htb]\begin{center}\atari(71,121)\end{center}\caption{類似行列}\label{s_matrix1}\end{figure}次に,この類似行列を式(\ref{eq:trans})を用いて推移関係を満たす類似度を求め,図\ref{tr_matrix2}に示す推移行列が得られる.ここで,例えば.図\ref{s_matrix1}に示した類似行列の単語ラベル「辛い」に注目すると,直接的な類似関係として単語対(辛い,渋い)と(辛い,こしょう.1)の二つがあることが分かる.一方,図\ref{tr_matrix2}に示した推移行列では,間接的な類似関係(辛い−こしょう.1−ソース.1),(辛い−こしょう.1−唐辛子.1)により,新たに,単語対(辛い,ソース.1)と(辛い,唐辛子.1)の類似関係が,類似度$0.6$以上の二項関係として導出されていることが分かる.\begin{figure}[htb]\begin{center}\atari(72,120)\end{center}\caption{推移行列}\label{tr_matrix2}\end{figure}さらに,図\ref{tr_matrix2}に示した推移行列を対角線成分に近いほど類似度の値が大きくなるように成分間の交換を行い,図\ref{tr_matrix3}に示した推移行列(閾値行列)が最終的に得られ,31単語見出しは11個の同値類に結束されたことが分かる.同様に,類似度$0.5$以上では,図\ref{tr_matrix5}に示すように41単語見出しが16個の同値類に結束された.\begin{figure}[htb]\begin{center}\atari(72,120)\end{center}\caption{類似度の閾値を0.6に設定した場合の分割例}\label{tr_matrix3}\end{figure}以下では,同値類に結束された手話単語間の類似の手指動作特徴は何かを明らかにするため,単語間の記述文を比較し,類似の手指動作特徴が示す概念特徴と手話単語の造語法との関係について分析を行う.また,閾値$\alpha=0.6$と$0.5$の場合の分類結果を比較し,単語間の階層性についても議論する.\begin{figure}[htb]\begin{center}\atari(82,146)\end{center}\caption{類似度の閾値を0.5に設定した場言の分割例}\label{tr_matrix5}\end{figure}分析の結果,$\alpha=0.6$で結束された「遺伝.1」を含む同値類の手話単語は,表\ref{marge}に示した同義の手話単語見出しも含め,単語見出し「赤」に対する手話表現を複合語の構成要素とする部分集合を構成していることが分かった.また,手指動作表現は「唇の色」あるいは「口紅を引く(塗る)仕草」を表現し,``赤い''という属性概念に対応していると捉えることができる.同様な例として,単語見出し「黒」,「白」に対応する手話表現はそれぞれ「掌で頭(髪の毛)をこする」,「人差指で歯を示す」というように,「黒い髪」,「白い歯」を強調的に示すことで色に関する属性概念を表現している.一方,同値類(赤字.1,紅茶.1)は,右手で「赤」に対する手指動作を表現し,左手でそれぞれ,「帳簿」,「カップ」を示す手指動作表現を行っている.このように,左手の手指動作表現に対する記述文の差異が類似度に反映され,結果として異なる同値類を構成している.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bf赤字.1}]掌を上に向けた左手を胸の前におき右手の人差指を下唇にあてて軽く右に引く\item[{\bf紅茶.1}]わん曲させた左手を胸の前におき右手の人差指を下唇にあてて軽く右に引く\end{list}\noindentなお,図\ref{tr_matrix5}に示すように,$\alpha=0.5$では,この二つの同値類は併合され,``赤''の属性概念を示す単語集合となり,以下に示す階層関係を構成している.この場合には,片手手話と両手手話という差異を示していると捉えることができる.また,1章で述べた写像性という観点でみると,空間的かつ同時的に配列する手話の特徴を示しており,手指動作記述文では左手の特徴を記述した後に右手の特徴を記述する傾向がみられる.\[\cfrac{0.5}{\cfrac{0.6}{赤字,紅茶}+\cfrac{0.6}{遺伝,苺,日曜日,etc}}\]同様に,同値類(辛い,ソース.1,こしょう1,唐辛子.1,渋い)は「五指を折り曲げた右手を口の前で平面的に動かす」という手指動作特徴により結束され,特に,(辛い,ソース.1,こしょう.1,唐辛子.1)は回転動作を共有し,「辛い」という味覚に関する属性概念を示している.一方,「渋い」は上下の動作であり,味覚に関する別の属性値を担っている.また,$\alpha=0.5$では,この同値類に「苦い」が結束され,左右の動作を示している.この結果,この同値類に結束された単語集合は(辛い、苦い、渋い)という味覚概念を示していると同時に,手の形に共通性がある.一方,同様に味覚に関する概念を表している「甘い」は,「甘やかす.1」と結束され,「辛い」と回転動作の共通性がみられるが,手の形が五指を広げたものであり,この手の形の差異が別の同値類を構成している要因と考えられる.このように,手指動作特徴の要素である「手の形」が「甘い」と,「辛い」を代表とする``甘くない''概念を担う単語集合との対立観点と捉えることができる.以下に記述文間の類似性による階層関係を示す.\[\cfrac{0.5}{苦い+\cfrac{0.6}{辛い,渋い}}+\cfrac{0.5}{甘い}\]なお,手話表現は手指動作表現だけでなく,顔の表情や口形なども重要な単語の構成要素であるが,本論文では,手指動作特徴に焦点をあて分析を行った.他の同値類においても,例えば,同値類(ラーメン.2,餅.2,蕎麦)は,``箸で口に運ぶ仕草''を表現した手指動作特徴を共有する単語集合であり,「食べる」に関する概念を示す,また,「言う」を含む同値類は,``口から出ていく仕草''を表象し,「発言」とラベル付けが可能な概念を共有する単語集合と捉えることができ,類似の手指動作特徴により同値類を構成し,手指動作特徴が示す概念との対応関係が確認された.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bfラーメン}]=指文字ラ+箸で食べる仕草\item[{\bf蕎麦}]=箸で食べる仕草\item[{\bf餅}]=餅をつく仕草+箸で食べる仕草\end{list}\noindentこのように,本実験により得られた同値類を分析した結果,「口」を手指動作特徴の要素(手の位置)とする単語集合は,例えば,「赤」,「発言」,「味覚」,「食べる」などとラベル付けが可能な概念特徴を共有する部分集合に分類できることが分かった.このように,「口」を手の位置とする手指動作特徴を持つ単語集合の分類実験から,類似の動作特徴を含む手話単語を結束し,手指動作特徴の表す概念との関係など手話単語の造語法を明らかにする一つの手がかりを示している.また,分類結果は電子化辞書システムなどの構築に有用な知識データと捉えることができ,本提案手法の有効性を示す結果が得られたと考える.
\section{考察}
実験により,本提案手法を用いて手話単語の造語法の特徴を示す幾つかの同値類を抽出し,手指動作特徴と概念との対応関係を示す重要な手がかりの一部を提供することができたと考える.以下では,明らかになった問題点を整理し,今後の課題と利用法について考察を行う.\subsection{問題点と今後の課題}「味覚を表す概念」とラベル付けが可能な同値類として,例えば,類似度の閾値を$0.5$とした場合,(辛い,渋い,苦い)と(甘い)が異なる同値類として結束された.この両者の対立観点は,「手の形」に関する手指動作特徴と捉えることができる.すなわち,「右手の五指を折り曲げる」という手の形と「右手の五指を伸ばした」という手の形の対立である.また,(辛い,甘い)の単語対については,「回転」動作を表す手指動作特徴を共有している.一方,(辛い,渋い,苦い)の単語は,それぞれ,(回転,上下,左右)の動作を表す手指動作特徴の差異が認められる.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bf辛い}]五指を折り曲げた右手を口の前でまわす\item[{\bf渋い}]五指を折り曲げた右手を口の前で二度ほど上下する\item[{\bf苦い}]五指を折り曲げた右手を口の前におき二度ほど左右に動かす\item[{\bf甘い}]掌を口の前にあてて二度ほど回転させる\end{list}\noindentここで,記述文間の差異が類似度の値にどのように影響したかについて分析を行うと,(甘い)の手形を「掌」で表現し,(辛い)に代表される手形を「五指を折り曲げた」で表現しており,この文字列の差異が類似度に反映されている.また,回転動作に対して,(甘い)は「まわす」であり,(辛い)は「回転させる」と表現されている.本来は共通の動作を示すべき表現の差異が類似度の計算に反映されている.一方,「甘い」以外の味覚表現の単語群は,手の形に関する記述文に共通性(五指を折り曲げる)がある.また,「辛い」に対する手話表現を用いる単語見出し(ソース.1,唐辛子.1,こしょう.1)は,表\ref{marge}に示した単語見出し「カレーライス.1」と同様に,事前に同一の手話表現としてマージされるべきものであるが,``表現(表記)のゆれ''により,機械的な文字列照合での一致ができなかった.「赤」や「言う」を用いる単語についても同様である.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bfソース.1}]五指を折り曲げた右手を口の前におきぐるぐる回転させる\item[{\bf唐辛子.1}]五指を折り曲げた右手を口の前で二度ほど回転させる\item[{\bfこしょう.1}]五指を折り曲げた右手を口の前で回転させる\end{list}\noindentこのように,本論文の実験では,市販の手話辞典に記載の記述文をそのまま利用したが,記述文の記述形式を正規化する方法を今後検討したい.その際に,手指動作特徴(手の形,手の位置,手の動き)の各要素に対する記述文中での占める割合を重み付けした類似度を検討する必要があると考える.また,「赤」という属性値を持つ単語集合として結束された同値類の手話単語は,単語間の弁別要素として複合語を構成する他の手話表現を利用しているが,複合語として比較した結果,(遺伝,血液),(火,火曜日),(赤十字,日赤),(恥ずかしい,はにかむ)の単語対は同一の手話表現であった.なお,(火,火曜日)と火事は,弁別要素となる動作表現として,片手と両手で表現する差異が認められる.このように,複合語として表現される手話単語を全体として,その手指動作特徴の類似性を計算する手法についても今後の課題とする.\begin{list}{}{\setlength{\topsep}{3pt}}\item[{\bf火.2}]掌を上にしてわん曲させた右手を上にひねりながら上にあげていく\item[{\bf火事.2}]掌を向かい合わせてわん曲させた両手を炎のように動かしながら上にあげていく\end{list}\subsection{利用法について}ニュース原稿を手話通訳する現場サイドから,市販の辞書に収録されていない(未定義語としての)手話単語を新たに造語する必要性が指摘されている\cite{Shigaki1991}.その中で,「政党」と「政治団体」は明確に区別して報道する必要がある.そのため,(団体,サークル,集団)を表す手話表現の手指動作特徴の要素である手の形だけを指文字の「と」に変更して手話単語「党(とう)」を造語した事例が報告されている.また,\cite{Tokuda1998}は手話通訳システムにおける問題点の一つである日本語の単語見出しと手話単語の日本語ラベルとのギャップを解消する手話単語辞書の補完方法として,日本語辞書の概念説明文や語釈文から手話辞書に未定義の日本語単語見出しに対応する手話表現を造語(類推)する場合の問題点を指摘している.これは,\ref{hajime}章で述べたように,概念特徴として語釈文などの定義的特徴よりも性格的特徴から,視覚的な「写像」が容易な特徴素を抽出し,手話表現に利用される傾向があることを示している.例えば,「速達」や「日曜日」の手話表現に「赤」の手話表現を用いている.すなわち,``手紙に押される赤いスタンプ''や``カレンダー上で赤い数字で示される''というような性格的特徴に位置付けられる概念特徴に基づき手話単語を造語している.このように,手話単語を手指動作特徴の類似性により分類することは,既に定義されている単語の語構成を明らかにし,未定義語を類推する場合に有効利用できると考える.\cite{Honna1994}が報告しているように,新しく定義された単語と既に定義されている単語との不整合を解消するため,既存の手話単語を変更する必要性が生じる場合がある.その際に,手話単語の造語成分となる手指動作特徴の担う概念の整理と分類は今後,ますます重要になると考える.例えば,本実験に使用した手話辞典では,「赤字」は定義されているが,「黒字」が未定義語である.このような場合に,類義語として「赤字」が検索され,その語構成「赤+記帳する仕草」から「赤」を「黒」に置換することで妥当な手話表現「黒字」\cite{Ito1982}を類推することができると考える.同様な考えから,\cite{Adachi1993}は,辞書に収録(定義)されている手話単語の複合語の造語成分と構成順序に着目した分類を用いて,類義語の造語成分の一部を置換することで未定義語の手話表現を類推する方法を提案している.ここで,造語成分を分析,整理する手がかりとして本手法を有効に利用できると考える.さらに,本手法により得られた推移行列を検索辞書と捉えれば,自然言語で表現された記述文を入力とし,類似の動作特徴を含む単語集合(同値類)を提示する類似検索機構に有効利用できると考える.ここで,類似の動作特徴を含む単語を提示する類似検索の機能は,手話単語を弁別する要素と単語の造語法を理解できるなど,手話の学習効果を高める効果が期待できると考える.この検索方法の検討と実現は今後の重要な検討課題としたい.このように,市販の手話辞典の手指動作記述文間の類似性を計る尺度となる類似度の計算方法の改良や手指動作記述文の正規化など残された課題もあるが,本提案手法により与えられた単語集合を同値類に分割することで,手話単語の造語法の解明と計算機処理に有用な手がかりを比較的容易に抽出、収集することができると考える.また,対象データが市販の手話辞典から収集できることは,データ量の確保が容易であり,複雑なコード体系による表現でなく,自然言語文として表現される点は,人手による編集や分析作業を容易にする可能性が高いと考える.
\section{むすび}
本論文では,市販の手話辞典に定義されている手話単語の手指動作記述文間の類似性に着目した手話単語の分類方法を提案した.本手法の特徴は,手指動作記述文間の類似関係を手指動作特徴間の関係とみなし,同値関係に基づき手話単語を同値類に分割する点にある.具体的には,手指動作記述文間の類似度を計算し,手話単語間の類似行列を求める.次に,推移関係式により推移行列を導出し,与えられた手話単語の有限集合を同値関係による同値類に分割する.また,類似度の閾値を段階的に変化させることで,同値関係に基づく単語集合の階層分類が可能であることを示した.実験の結果,類似の手指動作特徴により結束された同値類を抽出し,手指動作特徴の類似性と手話単語の造語法との関係を解明する手がかりを示す結果が得られた.手話を対象とした自然言語処理システムにおいて,手指動作特徴に基づく手話単語の検索機能の実現は不可欠な要素技術の一つであり,同値関係に基づく推移行列を検索辞書と捉えた,手話単語の類似検索方法の検討が今後の重要な課題である.\acknowledgment本研究を進めるにあたり,有益なご示唆,ご討論を頂いた宇都宮大学鎌田一雄教授,熊谷毅助教授に心より感謝する.また,データ整理,実験等に協力頂いた研究室の学生諸氏に感謝する.なお,本研究の一部は文部省科研費,厚生省科研費,実吉奨学会,電気通信普及財団,放送文化基金,トヨタ自動車,栢森情報科学振興財団,大川情報通信基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{B}\begin{biography}\biotitle{略歴}\bioauthor{安達久博}{1981年宇都宮大学工学部情報工学科卒業.1983年同大学院工学研究科修士課程修了.同年,東京芝浦電気株式会社(現.(株)東芝)入社.同社総合研究所情報システム研究所に所属.この間,(株)日本電子化辞書研究所(EDR)に4年間出向.1992年より宇都宮大学工学部助手.現在,聴覚障害者の情報獲得を支援する手話通訳システムに関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,計量国語学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N02-05
|
\section{まえがき}
自然で自発的な発話を対象とする音声翻訳ないし音声対話システムの構築を目指している.読み上げ文を対象とする音声認識研究においては文が処理単位となっている.また,従来の音声翻訳ないし音声対話システムへの入力は,文節区切りのようなゆっくり丁寧に発話された文を単位とする音声であった\cite{Morimoto96}.ここで,音声翻訳システムや音声対話システム等の音声認識応用システムへの入力となる機械的に自動処理可能な単位を「発話単位」と呼ぶことにすると,自然で自発的な発話を対象とする音声翻訳ないし音声対話システムへの入力としての発話単位は文に限定できない.一方,言語翻訳処理における処理単位は文である.書き言葉を対象とする自然言語処理システムにおける処理単位も一般に文である.話し言葉を対象とする言語翻訳処理における処理単位も文である\cite{Furuse97}.音声対話システムにおける問題解決器のための解釈の処理単位も暗黙の内に文ないし文相当のものを想定していると考えられる.ところで,本稿では文の定義の議論はしない.例えば,文献\cite{Masuoka92}等に文に関する説明がある.また,話し言葉における文は,無音と韻律に代表される表層のレベル,構造のレベル,意味のレベルで特徴付けられると言われるが,計算機処理から見て十分な知見は得られていない\cite{Ishizaki96}.そこで,本稿では文という術語は使わず,翻訳や解釈のための自然言語処理単位という観点から「言語処理単位」と呼ぶことにする.まず,{\bf2}で一つの発話を複数の言語処理単位に分割したり,複数の発話をまとめて一つの言語処理単位に接合する必要があることを,通訳者を介した会話音声データを使って示す.次に,{\bf3}でポーズと細分化された品詞の$N$-gramを使って,発話単位から言語処理単位に変換できることを実験により示す.最後に{\bf4}で全体をまとめ,今後の展望を述べる.
\section{発話単位から言語処理単位への変換の必要性}
\subsection{音声翻訳システムへの入力としての発話単位}音声翻訳研究のために,日本語話者と英語話者の,通訳者を介した対話を収集し,データベース化している\cite{Morimoto94,Takezawa98b}.通訳の質を高めるために,日英方向と英日方向の2名の通訳者を介した.「近未来の音声翻訳システム」のための基礎資料を目指しているため,通訳者は1回の発話毎に逐次的に通訳を行う.通訳者が正確に伝えられるために,1回の発話は10秒以内とした.また,相手の話している間に割り込むことは禁止した.ホテル担当者やホテル滞在者であるという設定資料を用意し,それをもとに模擬対話を行っている.役割や設定をいろいろ変化させた上で,多くの話者に演じてもらい,多様な音声言語現象を収録した.このようにして集めた会話音声データにおいて会話参加者が逐次通訳者に渡す発話は音声認識応用システムへの入力となる機械的に自動処理可能な単位とは異なるが,機械的に振る舞う逐次通訳者に会話参加者が渡す発話を入力と仮定することは使い勝手の良い音声認識応用システムの研究開発につながるものと期待できる.そこで,機械的に自動処理可能な単位との関連も含めて,まず第一段階としてこのような会話データの調査を行うことにする.\subsection{発話単位の分割による言語処理単位への変換}句や節を単位として漸進的に翻訳処理を行う研究\cite{Mima97}も開始されているが,現段階では,言語翻訳は文を単位とすることが妥当である\cite{Furuse97}.応答の「はい」等を含む感動詞はそれだけで文を構成すると言われている\cite{Masuoka92}.しかしながら,我々のデータベースでは「はい.それで結構です.」と書き起こされていたり,「はい,それで結構です.」と書き起こされていたりする.無音区間の長さと韻律的な情報に着目するよう指示したガイドラインにより区別されているが,その都度物理量を測定することはせず,書き起こし作業者の判断に委ねられている部分もある.言語処理単位の手がかりとして,句点で区切られた節境界に注目する.まず,一つの発話を複数の言語処理単位へ分割する必要がある例を示す.ポーズの長さの情報を[]内に記す.\begin{itemize}\item[(1)]お待たせいたしました.[440ms]シングル一泊一万円のお部屋でしたね.\item[(2)]お部屋を調べます.[170ms]しばらくお待ちください.\end{itemize}例(1)(2)共に一つの発話が二つの言語処理単位で構成されている.今回調査対象としている対話音声データベースの一部を使って我々が以前に行った実験\cite{Takezawa96}では,対数パワーとゼロ交差数の二つの特徴量を用い,300~msを閾値としてポーズを自動検出したところ,促音と区別してポーズを検出できた.そこで,一応の目安として300~msを閾値として機械的に自動処理することを想定すれば,例(1)のポーズは300~msより長いので,二つの言語処理単位に分割することができる.しかし,例(2)のポーズは300~msより短いので,二つの言語処理単位に機械的に分割することはできない.したがって,無音区間に関する物理量のみで発話を言語処理単位に自動分割することは難しい.\subsection{発話単位の接合による言語処理単位への変換}次に,複数の発話を一つの言語処理単位に接合する必要がある例を示す.\begin{itemize}\item[(3)]\begin{itemize}\item[(a)]カードの番号が,[680ms]五二七九.\item[(b)]三九二零.\item[(c)]二四六九.\item[(d)]零零九八[410ms]でございますね.\end{itemize}\end{itemize}例(3)はカードの番号を確認する際に,数字の桁毎に区切って通訳者に渡した事例である.(a)(b)(c)(d)は別の発話となっており,それぞれに対して通訳が個別に挿入されている.現在の我々のデータベースでは,発話の最後は必ず句点で書き起こす決まりになっているため,(a)(b)(c)(d)の最後に句点が置かれている.文献\cite{Takezawa95}で我々が「箇条発話」と名付けたものは,話者ないし項目の数と内容により,同じ発話となったり,別の発話に分けられたりする.通訳の単位としては無理に接合しなくとも良いが,何らかの問題解決のための解釈の単位としては接合した方が良い可能性もある.接続することを明示するためには,例えば,例(3')のように書き起こせば良い.\begin{itemize}\item[(3')]\begin{itemize}\item[(a')]カードの番号が,[680ms]五二七九,\item[(b')]三九二零,\item[(c')]二四六九,\item[(d')]零零九八[410ms]でございますね.\end{itemize}\end{itemize}発話の最後に読点を挿入するか,あるいは句点を挿入しないことで,発話としては終了していたとしても,言語処理単位としては継続することを表現できる.音声翻訳ないし音声対話システムの枠組みでも,言語処理単位が終了していない発話の最後には読点を挿入するか,あるいは句点を挿入しなければ,発話の接合による言語処理単位への変換をインタフェースとして実現することができる.\begin{itemize}\item[(4)]お待たせいたしました.[1600ms]洋室は,[1130ms]一泊二食付き,[450ms]二万円で,補助ベッドが入ります.\end{itemize}既に述べたように,我々のデータベースでは通訳者に渡す発話を単位として音声波形ファイルを切り出している.したがって,例(4)は一つの単位として切り出され,データベース化されている.しかしながら,我々の目標とする自然で自発的な発話を対象とする音声翻訳システム\cite{Takezawa98a}において音声の終端検出を自動的に行う\cite{Reaves98}と,この音声波形切り出し単位は細かく分割される可能性がある.例えば,1秒より長い無音区間を終端とみなせば\cite{Reaves98},例(4)は三つの発話単位から構成される.その場合,「洋室は,」という発話単位はその次の発話単位と接合した方が良い可能性がある.\begin{itemize}\item[(5)]シングルの[390ms]シャワー付きのお部屋が$\cdots$\end{itemize}300msを閾値として発話単位に分割すると,例(5)は翻訳のための言語処理単位よりも小さい単位に分割され過ぎてしまう事例である.
\section{発話単位から言語処理単位への変換手法}
\subsection{単語・品詞並びを使った句点相当の節境界検出}英語の自然で自発的な発話を対象とする音声認識結果を構文解析する研究\cite{Lavie96}において,ロバストなパーザの探索空間を削減するために,節境界情報を利用する試みが検討されている.そこでは,確定した音声認識結果全体を入力とし,現在位置の前後2単語(合計4単語)までの範囲を参照して,その位置の節境界らしさの値を求め,それが閾値を越えれば節境界とみなしている.そこで,単語・品詞並びを使った句点相当の節境界検出手法を検討する.先行研究\cite{Lavie96}で提案されている推定式を次に示す.$\bullet$の位置が句点相当の節境界の位置である.その前に二つの単語$w_1w_2$があり,その後に二つの単語$w_3w_4$がある.\begin{equation}\tilde{F}([w_1w_2\bulletw_3w_4])=\frac{C([w_1w_2\bullet])+C([w_2\bulletw_3])+C([\bulletw_3w_4])}{C([w_1w_2])+C([w_2w_3])+C([w_3w_4])}\end{equation}ここで,$C([w_iw_j\bullet])$はバイグラム$[w_iw_j]$の右に句点相当の節境界が現れる回数であり,$C([w_iw_j])$はバイグラム$[w_iw_j]$が訓練セットに現れる総数である.他の記号も同様である.訓練データ中にバイグラムと一緒に現れる句点相当の節境界の回数から求められる個別の頻度$F([w_1w_2\bullet])$,$F([w_2\bulletw_3])$,$F([\bulletw_3w_4])$の平均や線形結合よりも効果的であったと報告されている\cite{Lavie96}.理由は,十分信頼できる情報を含んでいない低い出現頻度のバイグラムを,他の要因と同じように使わないためである.なお,$F([w_iw_j\bullet])$は次式で表される.\begin{equation}F([w_iw_j\bullet])=\frac{C([w_iw_j\bullet])}{C([w_iw_j])}\end{equation}$F([w_i\bulletw_j])$と$F([\bulletw_iw_j])$も同様に求められる.$\tilde{F}$の値が閾値より大きければそこを句点相当の節境界とする.閾値の値は人手で設定し,訓練セットに対して最良の性能が得られるように調整する.文献\cite{Lavie96}では単語のみ検討しているが,我々は日本語を対象とし,次の3通りの組合わせを調べる.\begin{enumerate}\item品詞のみ\item品詞・活用形・活用型(プレターミナル\cite{Takezawa96}と同等)\item表層表現・品詞・活用形・活用型(単語と同等)\end{enumerate}さらに,それぞれに対して,現在位置の前後2単語(合計4単語)の範囲を参照する場合(式(1))と,前2単語と後1単語の合計3単語の範囲を参照する場合(次式(3))を検討する.\begin{equation}\tilde{F}([w_1w_2\bulletw_3])=\frac{C([w_1w_2\bullet])+C([w_2\bulletw_3])}{C([w_1w_2])+C([w_2w_3])}\end{equation}\vspace{-3mm}\subsection{分割または接合による言語処理単位への変換}\vspace{-1mm}先行研究\cite{Lavie96}では長い発話を分割することのみを検討していた.我々は分割のみならず接合による言語処理単位への変換も検討する.単語・品詞並びを使った句点相当の節境界検出のための統計モデルとポーズ情報を組み合わせた手法を考える.{\bf\dg表\ref{t:combination}}において,(A)と(B)には句点「.」を挿入する.(D)には何も挿入しない.(C)は箇条発話が相当し,扱いが難しいが,原則的には読点「,」を挿入する.\begin{table}\caption{分割または接合による言語処理単位への変換}\label{t:combination}\begin{center}\begin{tabular}{|l||c|c|}\hline&\multicolumn{1}{l|}{閾値より長い無音あり}&\multicolumn{1}{l|}{閾値より長い無音なし}\\\hline\hline単語・品詞並びの統計モデルが成功する&(A)句点挿入&(B)句点挿入\\\hline単語・品詞並びの統計モデルが失敗する&(C)読点挿入&(D)挿入なし\\\hline\end{tabular}\end{center}\end{table}ATR音声言語データベース\cite{Morimoto94}の618会話から音声認識と言語翻訳を接続する評価実験用のホテル予約9会話を選択した.日本語話者が客の役割を務めているものが4会話,日本語話者がホテル担当者を務めているものが5会話である.そのホテル予約9会話には166ターン(発話権の交代),216発話あった.内容を確認したところ,体言止めの箇条発話は含まれていたが,発話を接合して言語処理単位に変換する必要のある事例はその9会話には含まれていなかった.つまり,例(3)ないし(3')のような発話の仕方はまれである.一方,その166ターン,216発話の書き起こしテキストに含まれる句点の数は289個であった.発話の最後は必ず句点で書き起こす決まりになっているので,ターンの途中にある句点の数は123個,発話の途中にある句点の数は73個である.つまり,通訳者へ渡す発話を分割する必要のある事例の頻度は多い.発話の最後が言語処理単位の最後になっているのか,それとも,言語処理単位としてはまだ継続するのかに関して,単語・品詞並びの統計モデルおよび韻律的な特徴等により判断すれば,発話の接合による言語処理単位への変換をインタフェースとして実現できる.しかしながら,発話を接合する必要のある事例は少ないので,以下では,まず,発話を分割する手法について検討する.\subsection{発話単位の分割に関する実験}\subsubsection{準備}評価実験用のホテル予約9会話以外の609会話を訓練に用いた.訓練は発話権の交代(ターン)を単位として行った.箇条発話は話者ないし項目の数と内容により同じ発話となったり,別の発話となったりするため,その影響を除くことを意図した.ターンの始めには開始記号を挿入し,ターンの終りには終了記号を挿入した.発話の開始と終了の情報は使わなかった.書き起こしテキストの句点をそのまま句点相当の正しい節境界とみなした.\subsubsection{書き起こしテキストを用いた実験結果}書き起こしテキストを用いた予備実験を行った.句点と読点を除いた形態素列を入力とした.訓練時と同様に,発話の開始と終了の情報は使わず,発話権の交代(ターン)毎に一つの入力単位とした.ターンの途中にある句点123個が評価対象となる.書き起こしテキストの句点を正解として,再現率と適合率を求め,評価する.その際,結果を三つに分類する.\begin{enumerate}\item句点相当の節境界で成功する:正解[○]\item句点相当の節境界で失敗する:誤り[×]\item句点相当の節境界ではない場所で成功する:涌き出し誤り[※]\end{enumerate}\begin{equation}再現率=\frac{○}{○+×}\end{equation}\begin{equation}適合率=\frac{○}{○+※}\end{equation}まず,閾値を0.10にそろえ,粒度および参照する範囲の違いの比較・検討を行った.結果を{\bf\dg表\ref{t:hikaku}}に示す.\begin{table}\caption{粒度および参照する範囲の違いの比較}\label{t:hikaku}\begin{center}\begin{tabular}{|l||r||r|r|r|r|r|r|}\hline&\multicolumn{1}{c||}{条件}&\multicolumn{2}{c|}{品詞のみ}&\multicolumn{2}{c|}{品詞・活用形・活用型}&\multicolumn{2}{c|}{単語}\\\cline{2-8}&閾値&再現率&適合率&再現率&適合率&再現率&適合率\\\hline\hline前後2単語&0.10&87.9\%&24.8\%&96.7\%&32.4\%&96.7\%&31.9\%\\\hline前2単語と後1単語&0.10&86.2\%&26.7\%&96.7\%&39.9\%&92.7\%&41.6\%\\\hline\end{tabular}\end{center}\end{table}粒度の違いについては,品詞・活用形・活用型の場合が最も良い結果となった.文献\cite{Takezawa96}においても,品詞では粒度が荒らすぎ,単語では被覆率の観点で良くなかったため,妥当な結果と考えられる.また,参照する範囲については,前2単語と後1単語の方が前後2単語(合計4単語)よりも良かった.そこで,品詞・活用形・活用型の並びに関して,前後2単語を参照する場合と,前2単語と後1単語を参照する場合について,さらに最適な閾値を探してみた.結果を{\bf\dg表\ref{t:result}}に示す.\begin{table}\caption{最適な閾値に基づく再現率と適合率}\label{t:result}\begin{center}\begin{tabular}{|l||r||r|r|}\hline&\multicolumn{1}{c||}{条件}&\multicolumn{2}{c|}{品詞・活用形・活用型}\\\cline{2-4}&閾値&再現率&適合率\\\hline\hline前後2単語&0.37&80.5\%&64.7\%\\\hline前2単語と後1単語&0.43&88.6\%&65.7\%\\\hline\end{tabular}\end{center}\end{table}やはり,前2単語と後1単語の品詞・活用形・活用型の並びを利用した場合が最も良い.誤りおよび涌き出し誤りの内容を次に示す.あらかじめ要約すると,その分析内容も,前2単語と後1単語の範囲を見れば十分であることを示唆している.\vspace{-1mm}\subsubsection{誤りの分析}\vspace{-1mm}閾値を0.43として,前2単語と後1単語の品詞・活用形・活用型の並びを利用した場合の誤りは14件あった.その内容を分析する.発話の途中の感動詞の直後が2件あった.発話の途中の感動詞の直後は読点で書き起こされることが多いためである.次に例を示す.行の先頭の「×」記号は誤り例を意味する.「$+$」記号は単語の区切り位置を示す.[]記号の中にポーズの長さや発話開始・終了等の情報を加えた.「$\bullet$」記号が現在位置を示す.\begin{itemize}\item[×]様$+$ありがとうございました[60ms]$\bullet$また\end{itemize}接尾辞の直後が5件あった.そのうちの3件は別の発話となっている.同じ発話に含まれるものは2件あり,そこには285msと350msのポーズがあった.例を示す.\begin{itemize}\item[×]千$+$円[発話終了]$\bullet$和室\item[×]鈴木$+$様[285ms]$\bullet$それでは\end{itemize}名詞類の直後が2件あった.そのうち1件は別の発話となっている.同じ発話に含まれる1件については,615msのポーズが挿入されていた.例を示す.\begin{itemize}\item[×]零$+$零[発話終了]$\bullet$ご\item[×]ご$+$滞在[615ms]$\bullet$零\end{itemize}接続助詞の直後が5件あった.1秒程度以上の長いポーズが挿入されるか,発話が終わらない限り,接続助詞の直後は読点で書き起こされているためと考えられる.そのうち4件は別の発話となっている.同じ発話に含まれる1件については990msのポーズが挿入されていた.例を示す.\begin{itemize}\item[×]す$+$が[発話終了]$\bullet$予約\item[×]た$+$もんですから[990ms]$\bullet$あ\end{itemize}\subsubsection{涌き出し誤りの分析}閾値を0.43として,前2単語と後1単語の品詞・活用形・活用型の並びを利用した場合の涌き出し誤りは57件あった.その内容を分析する.発話の先頭の感動詞の直後が45件あった.発話の先頭の感動詞の直後は句点で書き起こされていることが多いためである.これらの事例は句点とみなしても構わない.次に例を示す.行の先頭の「※」記号は涌き出し誤り例を意味する.他の記号は同様である.\begin{itemize}\item[※]$+$はい[640ms]$\bullet$いつ\item[※]$+$はい[110ms]$\bullet$そう\end{itemize}終助詞の直後の涌き出し誤りが7件あった.これらもすべて句点とみなしても構わない.例を示す.\begin{itemize}\item[※]す$+$か[590ms]$\bullet$じゃあ\end{itemize}その他の事例が5件あった.すべて頻度のまれな個別的な事例であった.例を示す.\begin{itemize}\item[※]し$+$た$\bullet$っけ\item[※]大変$+$申し訳ございません$\bullet$が\end{itemize}\subsubsection{ヒューリスティックス導入の効果}涌き出し誤り57件のうち,発話の先頭の感動詞の直後45件と終助詞の直後7件の合計52件については,句点相当の節境界とみなして良い.そこで,それらはすべて句点を正解と見なした場合の実験を行った.さらに既に列挙した誤りおよび涌き出し誤りに関する事例のうち,直感により普遍的に成立すると判断したものをヒューリスティックスとして導入する.その内容は次の通りである.\begin{itemize}\item感動詞の直後に接続助詞が続かない限り句点相当の節境界とする.\item感動詞の直後に接続助詞が続く場合は句点相当の節境界とはしない.\item助動詞終止形と終助詞の間は句点相当の節境界としない.\end{itemize}今回導入したヒューリスティックスはすべて細分化された品詞並びに関する情報からなるもののみである.このようにして求めた再現率と適合率を{\bf\dg表\ref{t:result2}}に示す.今回の実験は開発実験データから得られた誤りおよび涌き出し誤りの事例からヒューリスティックスを作成していることもあり,再現率,適合率ともに改善できた.さらに別の評価実験データ(オープンデータ)を用いた実験は今後の課題とする.\begin{table}\caption{ヒューリスティックス導入の効果}\label{t:result2}\begin{center}\begin{tabular}{|l||r|c|c||r|r|}\hline&\multicolumn{3}{c||}{条件}&\multicolumn{2}{c|}{品詞・活用形・活用型}\\\cline{2-6}&閾値&正解句点の追加&ヒューリスティックス&再現率&適合率\\\hline\hline前2単語と後1単語&0.43&なし&なし&88.6\%&65.7\%\\\hline前2単語と後1単語&0.43&あり&なし&92.0\%&97.0\%\\\hline前2単語と後1単語&0.43&あり&あり&97.7\%&99.4\%\\\hline\end{tabular}\end{center}\end{table}\subsection{音声認識結果への適用実験}文献\cite{Shimizu96}の音声認識器の結果を用いて,句点相当の節境界を検出する実験を行った.書き起こしテキストによる評価実験を行ったホテル予約9会話を対象とした.書き起こしテキストを用いた予備実験では発話権の交代(ターン)毎に一つの入力単位としたが,音声認識結果を対象とする場合は音声波形切り出し単位を一つの入力単位とした.第1位候補に対する例を示す.\begin{itemize}\item[(音声認識結果例1)]\item{\bf\dg書き起こし}お待たせいたしました.申し訳ございません.シングルは満室となっております.\item{\bf\dg認識結果}{\ttお+待/た/し/いた+し+ま+し+た○/申し訳ございません○/十/五/満室/に+な+っ+てお+り+ま+す○}\end{itemize}認識結果の「{\tt/}」記号は音声認識で使っている単語辞書の区切りを表す.認識結果の「{\tt+}」記号はデータベースの形態素辞書の区切りを表す.「○」は検出できた句点相当の節境界のうち,正解とみなせるものを示す.\begin{itemize}\item[(音声認識結果例2)]\item{\bf\dg書き起こし}[んー]ちょっと高いですね.もっと安い部屋は無いですか.\item{\bf\dg認識結果}{\tt二※/ちょっと/高/い/で+す+ね○/オー/で+す※/いや/な/い/で+す+か○}\end{itemize}書き起こしの[んー]は間投詞を表す.「※」は涌き出し誤りを示す.音声認識で使っている単語辞書では,話し言葉の文末表現に相当するものを一つの長い単位で扱うことが多いため,文末表現の位置に誤認識が少ない.音声認識に対する評価実験を行った結果を{\bf\dg表\ref{t:recognition}}に示す.第1位候補を対象にした.第1位の単語認識率は77.4\%(挿入誤りを除けば83.6\%)であった.今回の実験対象は,ある基準(機械的に振る舞う逐次通訳者に会話参加者が渡した発話)で音声波形が切り出されてデータベース化されているものである.そこでまず発話途中のみを対象に分割に関する数値評価を行った.また,発話末に対してもそこが境界位置かどうかに関する判定を行うことができる.そこで次にその位置も対象に含めた数値評価も行ってみた.\begin{table}\caption{音声認識結果への適用実験}\label{t:recognition}\begin{center}\begin{tabular}{|l||r|r|}\hline&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{適合率}\\\hline\hline発話途中のみを対象&95.6\%&94.8\%\\\hline発話途中と発話末を対象&98.4\%&98.1\%\\\hline\end{tabular}\end{center}\end{table}音声の終端検出を自動的に行う\cite{Reaves98}場合は分割のみならず接合する必要のある現象が出現する可能性がある.接合するかどうかの判定は発話末位置が境界になるかどうかの情報で行うことができる.\subsection{発話単位の接合に関する実験}我々が対象としている会話音声は通訳者を介したものであり,人間の通訳者がその場で対処できないような断片的な発話はデータベース化していない\cite{Morimoto94}.そのため,データベースの中には接合しなければいけないような発話は含まれていない.まず第一段階として,現時点ではこのようにして集めた会話音声を研究対象としている.さて,我々の音声翻訳実験システム\cite{Takezawa98a}においてオンラインで音声入力する場合の音声の終端検出では1秒より長い無音区間があれば終端とみなしている\cite{Reaves98}.そこで,1秒を閾値として,今回の評価実験用のホテル予約9会話の発話を自動分割してみた.例えば,先に挙げた例(4)は次の例(4')のような発話単位に分割される.\begin{itemize}\item[(4')]\begin{itemize}\item[(a)]お待たせいたしました.\item[(b)]洋室は,\item[(c)]一泊二食付き,二万円で,補助ベッドが入ります.\end{itemize}\end{itemize}1秒を閾値として分割できた発話単位のうち,その終端が句点でないものは5例あった.その5例について提案手法を適用したところ,すべて句点とはみなされなかった.したがって,{\bf\dg表\ref{t:combination}}のモデルにおいて,閾値を1秒とした場合の(C)と判断できるので,そこにはすべて読点を挿入することができる.さらに参考実験として300msを閾値とする自動分割も行ってみた.300msを閾値として分割できた発話単位のうち,その終端が句点でないものは99例あった.この99例について提案手法を適用し,句点とみなされなければ接合に成功したものとしてすべて正解と集計した\footnote{{\bf\dg表\ref{t:combination}}のモデルによれば読点が挿入される.書き起こしテキストのその位置に読点が書き起こされていても書き起こされていなくても読点で正解とみなした.}場合の結果を{\bf\dg表\ref{t:connect}}に示す.\begin{table}\caption{発話単位の接合に関する実験}\label{t:connect}\begin{center}\begin{tabular}{|l||r|r|}\hline&再現率&適合率\\\hline\hlineヒューリスティックスなし&67.0\%&84.3\%\\\hlineヒューリスティックスあり&90.8\%&86.8\%\\\hline\end{tabular}\end{center}\end{table}涌き出し誤りは,予約内容の確認の発話で名詞類を並べて発話するような箇条発話における名詞類の直後に多い.対処法としては,パワーの変化や韻律情報,さらに音韻の継続時間長等との関係を調べることが考えられる.それらは今後の課題とする.
\section{むすび}
細分化された品詞並びの統計モデルとポーズ情報を用いる句点相当の節境界を検出する手法を提案し,音声認識結果に適用する実験を行ったところ,良好な結果を得た.箇条発話の扱いが今後の課題である.パワーの変化や韻律情報,さらに音韻の継続時間長等を組み合わせることも今後の課題である.次発話予測の研究\cite{Iwadera96}で用いている発話タイプと関連付ける研究にも発展させていく.その際,韻律情報を用いた発話タイプの識別\cite{Fujio95,Fujio96}も考慮する予定である.また,音声認識過程で構文規則を利用する研究\cite{Takezawa96}と組み合わせれば,統語構造の情報を併用することも可能である.そこで用いている部分木\cite{Takezawa96}と同時通訳方式の実現に向けた処理単位\cite{Mima97}との関係も調べる予定である.なお,言語翻訳知識を利用して音声認識候補からもっともらしい部分を見つける研究\cite{Wakita97}も行われているが,そこでの入力となる言語翻訳単位はあくまで文である.したがって,文献\cite{Wakita97}と組み合わせる場合であっても,本稿で提案した処理とメカニズムは必須となる.\acknowledgment実験に協力いただいた大槻直子,林輝昭両氏に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n2_05}\begin{biography}\biotitle{略歴}\bioauthor{竹沢寿幸}{1961年生.1984年早稲田大学理工学部電気工学科卒業.1989年同大学院理工学研究科博士後期課程修了.工学博士.1987年より同大学情報科学研究教育センター助手.1989年よりATR自動翻訳電話研究所勤務.現在,ATR音声翻訳通信研究所,主任研究員.音声翻訳システムの研究に従事.インタラクションの研究に興味を持つ.情報処理学会,電子情報通信学会,人工知能学会,日本音響学会,言語処理学会各会員.}\bioauthor{森元逞}{1946年生.1970年九州大学大学院修士課程修了.同年日本電信電話公社入社.1987年よりATR自動翻訳電話研究所ならびにATR音声翻訳通信研究所に勤務.1998年福岡大学電子情報工学科教授.現在に至る.博士(工学).電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,日本音響学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V13N01-06
|
\section{はじめに}
近年,ロボットは様々な性能において躍進を遂げてきた.例えば四足で移動するペット用ロボット,ダンスを踊るロボット,走るロボット,人の顔を認識しいくつかの命令を受理できるロボットなどが挙げられる.それらに共通する未来像は「人と共存する機械」であると言えるだろう.人と共存するためには「会話」という大きなコミュニケーション要素が重要となってくると考えられる.また,ロボットが行う会話には,対人関係を円滑にし,利用者に対する精神的サポートを行うという目的が挙げられる.会話において,まず行われるのが挨拶である.挨拶は会話によるコミュニケーションを円滑にする一端を担っている.コンピュータやロボットに対しても,挨拶を行うことから次に会話が広がり人間とのコミュニケーションが円滑に行われると考える.本研究では会話処理の中でも特に挨拶処理についての仕組みを提案する.挨拶処理は従来テンプレートを適用するのみであり,あまり研究は行われていない.しかし,単に用意されたテンプレートだけを用いると応答が画一化され,設計者の作成した文章のみが出現するという問題点がある.挨拶に限らず,対話システムの多くはテンプレートを用いることが多い.対話システムの一つにEliza\cite{J.Weizenbaum1966}が挙げられる.このシステムは自然言語による対話システムであり,擬人化されたセラピストエージェントによって,カウンセリングを代行させる.Elizaでは相手の応答に対して答えを評価して返すということはせず,過去に発言した内容の一部分だけを覚えてその単語を組み込む.また,話題に関しては数種類のパターンを用意している,聞き手としてのシステムである.また,今日の対話システムに関する研究は,ある一定のタスク(達成目標)を満たすために行われる,タスク指向型対話\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}に関するものが多くを占めている.これらはテンプレートとその一部に変数となる予約語を用意しておき,ある条件が満たされるとそれに適当な文章を出力する.この様にある一定の状況下における制約条件の下,相手の応答に応じたテンプレートを導出し,テンプレート内の変数を予約語に変換する研究\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}は多数報告されている.しかし,これらはテンプレートの文章数及び予約語数に依って,出現する文章数が決定される.会話文の中でも特に挨拶文は設計者の作成した文章がそのまま使われることが多い.そこで,本稿で提案する挨拶処理システムの文章は,設計者が用意した挨拶知識ベースに存在しない新たな文章も作りだす.このことで多種多様な会話が生み出されると考えられる.
\section{挨拶処理システムの構成}
「挨拶」とは,日常会話の中において質問の応答や問題の提起を行わない「主張のない会話」だと定義する.本稿で提案する挨拶処理は相手に対する応答のみならず自ら起こす発話も対象とする.つまり,入力変数として現在状態を保持しており,入力文がある場合はその現在状態と入力文,ない場合は現在状態のみを入力変数として挨拶文を作り出す.本挨拶処理システムでは挨拶として二文を返す.一文目として返答する定型の挨拶を第一会話文,二文目として話題をふる挨拶を第二会話文とする.この例を図\ref{fig:systemoutou}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/systemoutou.eps}\caption{挨拶処理システムの応答例}\label{fig:systemoutou}\end{center}\end{figure}挨拶文となる文章として,第一会話文のための定型文と,第二会話文のための可変な文章のテンプレートからなる挨拶知識ベースを作成する.ある程度の基本的なテンプレートの文章知識を,第\ref{riyouchishiki}節で後述する概念ベースと,語種リスト(同義語・類義語・反語リスト),及び常識判断メカニズムによって大規模に拡張する.また,概念間の関連度を評価する関連度計算\cite{idutsu2002}\cite{watabe2001}・シソーラス\cite{NttThesaurus1997}・概念ベースIDF値\cite{okumura2005}を用いて精錬する.このことによって文章は人手によってテンプレートを増やすことなく機械的に大規模に拡張される.このシステム構成の概要を図\ref{fig:aisatsuSystem}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/aisatsuSystem.eps}\caption{挨拶処理システムの概略}\label{fig:aisatsuSystem}\end{center}\end{figure}また,このシステムを使った例として図\ref{fig:aisatsuSystemExam}を示す.入力文「おはよう」に対し,意図理解システムは挨拶であると判断し,現在状態「12月25日,午前7時,気温-2℃,晴れ」といった入力からは状態語「クリスマス,朝,冬,寒い,晴れ」を導く.これを用いて定型の挨拶文(第一会話文)と話題を続ける挨拶文(第二会話文)を出力する.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/aisatsuSystemExam.eps}\caption{挨拶処理システム利用例}\label{fig:aisatsuSystemExam}\end{center}\end{figure}
\section{連想知識メカニズム}
\label{riyouchishiki}人間は言葉に関する汎用的な知識を覚え,その言葉に関する常識を持った上で会話を行っている.これと同じように,挨拶処理において,様々な連想知識メカニズムを用いる.連想知識メカニズムは大きく,概念連想メカニズムと常識判断メカニズムにわかれる.これはシステムが持つ汎用的知識と常識にあたるものである.図\ref{fig:aisatsuSystem}に示すように,概念連想メカニズムはシソーラス,語種リスト(同義語・類義語・反語リスト),概念ベース,それを用いた概念ベースIDF,関連度計算などから成る.概念連想メカニズムは語と語の関係を汎用的な知識として持つ.また,常識判断メカニズムは時間判断システム,感覚判断システム等から成り,時間や感覚の観点から語を連想,判断する.本節ではこれらの連想知識メカニズムについて述べる.\subsection{概念ベース}概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$とこの属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対の集合として定義する.(式\ref{gainenbase})\begin{equation}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_n,w_n)\}\label{gainenbase}\end{equation}ここで,$a_i$を一次属性と呼ぶ.また便宜上,$A$を概念表記と呼ぶ.このような属性の定義された語(概念)を大量に集めたものを概念ベースと呼ぶ.だたし,任意の一次属性は,その概念ベース中の概念表記の集合に含まれているものとする.すなわち,属性を表す語もまた概念として定義されている.したがって,一次属性は必ずある概念表記に一致するので,さらにその一次属性を抽出することができる.これを二次属性と呼ぶ.概念ベースにおいて「概念」は$n$次までの属性の連鎖集合により定義されている.また,各概念表記に対し平均30属性が付与され,属性に付与される重みは,その概念表記に対する重要度であり,各概念表記について,その総和が1.0となるように正規化されている.初期の概念ベース(基本CB)\cite{Kasahara1997}は,約3万4千の概念表記$A$とその属性$a_i$及び重み$w_i$を複数の国語辞書の語義文から自動的に獲得した.これは辞書の見出し部の単語を概念表記,語義文に含まれる自立語を属性として抽出し,それらの属性の重みはその属性の出現頻度を基に付与する.さらに,属性の自己参照による新たな属性の追加,及び不要な属性の統計的な除去からなる精錬を行うことによって概念ベースを機械構築している.本論文で用いる概念ベースは基本CB\cite{Kasahara1997}に加え,新聞記事から新たな概念表記と属性を取得し,属性の精錬と適切な重み付け手法を施し,電子化辞書から抽出した概念を加えた約9万概念を有する概念ベース\cite{okumura2005}を用いる.\subsection{関連度計算方式}\label{keisan}関連度とは,概念と概念の関連の強さを定量的に評価するものである.概念ベースを利用した概念と概念の間にある関連性を定量的に評価する手法として,ベクトル空間モデルが広く用いられている.しかし,本稿では,概念を定義する属性集合の重みを含めた一致度を基本とした関連度計算方式を利用し,概念間の関連性評価を行っている.これは,関連度計算方式が有限ベクトル空間によるベクトル空間モデルよりも良好な結果が得られるという報告がなされているためである\cite{watabe2001}.本稿では重み比率付き関連度計算方式を使用し,実験を行う.任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,$M$個$(L<M)$とする.\begin{center}$A=\{(a_i,u_i)|i=1〜L\}$\\$B=\{(b_j,v_j)|j=1〜M\}$\end{center}このとき,概念$A$,$B$の重み比率付き一致度$MatchWR(A,B)$を以下の式で定義する.\begin{eqnarray}MatchWR(A,B)=\sum_{a_i=b_j}min(u_i,v_j)\end{eqnarray}\begin{equation}min(\alpha,\beta)=\left\{\begin{array}{ll}\alpha&(\beta>\alpha)\\\beta&(\alpha>\beta)\end{array}\right.\end{equation}このように一致度を定義するのは,$a_i=b_j$となる属性に対し,互いの属性の重みの共通部分が有意に一致すると考えるからである.次に属性の少ない方の概念を$A$とし$(L≦M)$,概念$A$の属性を基準とする.\begin{center}$A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L)\}$\end{center}そして概念$B$の属性を,概念$A$の各属性との重み比率付一致度$MatchWR(a_i,b_{xi})$の和が最大になるように並び替える.\begin{center}$B_x=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\dots,(b_{xL},v_{xL})\}$\end{center}これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の属性は無視する(この時点では組み合わせは$L$個).但し,一次属性どうしが一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約9万の概念が存在し,属性が一致することは稀であるという考えに基づく.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決めて,対応の取れた属性の組み合わせ数を$T$個とする.重み比率付き関連度とは,重み比率付き一致度を比較する概念の各属性間で算出し,その和の最大値を求めることで計算する.これを以下の数式により定義する.\begin{eqnarray}Rel(A,B)=&&\sum_{i=1}^TMatchWR(a_i,b_{xi})\\\nonumber&&\times(u_i+v_{xi})\\\nonumber&&\times(min(u_i,v_{xi})/max(u_i,v_{xi}))/2\end{eqnarray}以下,重み比率付き関連度を関連度と略し,この関連度\cite{idutsu2002}\cite{watabe2001}を用いる.関連度の値は0〜1の連続値をとり,1に近づくほど概念間の関連性が高い.概念$A$と概念$B$に対して関連度計算を行った例を表\ref{tb:kanrendoExam}に挙げる.\begin{table}[htbp]\begin{center}\caption{関連度計算の例}\label{tb:kanrendoExam}\begin{tabular}{clclc}\hline概念$A$&概念$B$&関連度の値\\\hline花&桜&0.224\\花&車&0.001\\天気&晴れ&0.446\\天気&学校&0.002\\\hline\end{tabular}\end{center}\end{table}\subsection{感覚判断システム}感覚判断システムとは名詞に対して,人間が常識的に想起でき,特徴付けられる感覚に関する語を取得するシステムである\cite{watabe2004}.この「感覚」とは五感(視覚・聴覚・嗅覚・味覚・触覚)の刺激によって得られる感覚を指す.以降,全ての形容詞,形容動詞から五感に関するものを人手で抽出した98語を感覚語と呼ぶ.感覚判断システムは名詞とその特徴である「感覚」の関係を日常的な名詞の知識ベース(感覚判断知識ベース)を構築することによって明確にし,必要な感覚語を取得する.感覚判断知識ベースはシソーラス構造をとる.感覚に関する語という観点で見た場合,名詞にはその名詞のグループが持つ感覚とその名詞固有の感覚の2種類がある.感覚判断知識ベースはこの2種類の感覚を継承できるようにするためにシソーラスのリーフとノードの関係を用いて構築されている.具体的には,日常よく使用される680語をシソーラスのリーフ(代表語)として登録し,それぞれにその語固有の感覚を付与している.また,それらをグループ化しシソーラス構造をとるための語をノード(分類語)として153語登録し,そのグループが持つ感覚を付与している.この感覚判断知識ベースのイメージ図を図\ref{fig:kankakuDB}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/koyukankakuExam.eps}\caption{感覚判断知識ベースのイメージ図}\label{fig:kankakuDB}\end{center}\end{figure}また汎用知識である概念ベースとシソーラスを用いることで,構築した感覚判断知識ベースにない語(未知語)に対しても「感覚」を想起することができる.未知語に対して感覚を付与する場合,分類語としての感覚とその未知語固有の感覚を付与する処理を行う.これは未知語に対して,関連度計算を用いて感覚判断知識ベース内に含まれる高い関連度を持つ代表語を取得し,その語群の属するシソーラスのノードから分類語としての感覚を取得する.また,概念ベースを用い,未知語の一次属性に現れる感覚語を,概念ベースの特徴を利用した自動精錬法(詳細は文献\cite{watabe2004}を参照されたい)を行った後,未知語固有の感覚として取得する.表\ref{tb:koyukankakuExam}に未知語固有の感覚取得の例を示す.表\ref{tb:koyukankakuExam}の未知語「パンダ」の例では,その属性から「白・黒・大きい」などを未知語固有の感覚として取得することができる.\begin{table}[htbp]\begin{center}\caption{未知語固有の感覚取得の例}\label{tb:koyukankakuExam}\begin{tabular}{c|clc}\hline概念&属性\\\hlineパンダ&熊,動物,{\bf白},ライオン,自然,生きる,チベット,\\&ぬいぐるみ,足,{\bf黒},山,中国,{\bf大きい},林,竹,・・・\\\hline\end{tabular}\end{center}\end{table}感覚判断システムを用いた例を表\ref{tb:kankakuExam}に示す.\begin{table}[htbp]\begin{center}\caption{感覚判断システムの使用例}\label{tb:kankakuExam}\begin{tabular}{c|clc}\hline概念&感覚語\\\hline林檎&赤い,甘い,丸い\\夕焼け&眩しい,赤い,美しい\\騒音&煩い&\\\hline\end{tabular}\end{center}\end{table}\subsection{時間判断システム}時間判断システムとは時間を表す言葉(時語)の知識ベース(時間判断知識ベース)を用いて名詞から季節や時刻などの時間を判断するシステム\cite{kobata2001}\cite{nomura2003}である.また時間判断知識ベースにない時語(未知語)に対しても,汎用知識である概念ベースを利用して補完する.時間判断知識ベースにおいて時語は大きく明示的時語と暗示的時語の二種類に分類される.明示的時語とは「クリスマス」のように明らかな時間を指す語であり,暗示的時語とは「スキー」のように暗黙に時間を連想する言葉である.前者に関して156語,後者に関しては187語格納されている.特に明示的時語の中で基本的な「春,夏,秋,冬,梅雨,朝,昼,夕方,夜」を代表語とし,全ての格納された時語に対し代表語を付加する.このシステムの使用例を表\ref{tb:timeExam}に示す.\begin{table}[htbp]\caption{時間判断システムの使用例}\begin{center}\begin{tabular}{c|clclclc}\hline概念&時語&開始時間&終了時間\\\hline桜&春&3月&5月\\西瓜&夏&6月&9月\\夕焼け&夕方&16時&18時\\\hline\end{tabular}\end{center}\label{tb:timeExam}\end{table}
\section{挨拶処理システムのための知識ベース}
挨拶処理システムは最初に入力として,入力文と現在状態を取得する.現在状態は年・月・日・時間・温度・天候を取得する.現在状態のうち,時間についてはコンピュータの内部時計を利用し,天候と気温に関しては数時間毎にWEBより取得する.入力文が意図理解システムによって挨拶と判断された場合及び空欄の場合,挨拶処理システムに応答処理を渡す.挨拶処理システムはこれに対し,二文を応答として生成する.一文目は会話の導入部となる定型の挨拶文,二文目は以降の会話展開への話題提供のための挨拶文である.この二文目はテンプレートではなく,それを元に大規模に拡張された文である.以降,一文目を第一会話文,二文目を第二会話文とする.そこで,挨拶のための知識ベースとして,第一会話文知識ベースと第二会話文知識ベースを整理・構築した.本節では挨拶処理システムで利用するために構築された挨拶知識ベースについて述べる.\subsection{第一会話文知識ベース}第一会話文知識ベースは状態語・挨拶入力文に対する定型の応答文を格納した.作成にあたっては,挨拶であると考える語とその状態を5名のアンケートによって調査した.状態語とは現在状態から連想・取得されうる「朝」「寒い」などの単語群である.これにより挨拶である文章(入力文),及び状態語の双方から定型応答語を取得することができる.状態語・入力文を応答語に対するグループに分け,グループIDを付与した.そのグループIDはそれぞれ応答語のグループIDに対応する.以下にその一部を示す.状態語とそのグループIDの格納数は25語(表\ref{tb:zyoutaigo}),入力文とそのグループIDのテーブルには182語(表\ref{tb:nyuryoku}),それらに対するグループIDと応答語を格納したテーブルには46語(表\ref{tb:outougo})を格納した.その一部を以下に示す.\begin{table}[htbp]\begin{minipage}{.48\linewidth}\begin{center}\caption{状態語テーブルの一部}\label{tb:zyoutaigo}\begin{tabular}{clc}\hline状態語&グループID\\\hline時間:朝&0001\\時間:昼&0002\\イベント:正月&0010\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{入力文テーブルの一部}\label{tb:nyuryoku}\begin{tabular}{clc}\hline入力文&グループID\\\hlineおはよう&0001\\おはよ&0001\\こんにちは&0002\\あけましておめでとう&0010\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\begin{table}[htbp]\begin{center}\caption{応答語テーブルの一部}\label{tb:outougo}\begin{tabular}{clc}\hlineグループID&応答語\\\hline0001&おはようございます\\0002&こんにちは\\0010&あけましておめでとうございます\\\hline\end{tabular}\end{center}\end{table}\subsection{第二会話文知識ベース}第二会話文知識ベースは話題を広げる可変な応答文のテンプレートを格納している.テンプレートを要素語・修飾語・程度修飾語・限定修飾語に分割し,同じ修飾語に繋がる単語群をグループ化した.全単語で92語格納し,この単語群から生成されるテンプレートは803文となる.「要素語」は拡張される基本単語となる.「要素語」はグループIDとテーマを伴う.テーマは要素語のシソーラス\cite{NttThesaurus1997}の上位ノードのうち,要素語のグループを特徴付けられるノードを選んだものである.このテーマにより,そのテンプレートの話題を大別することが可能である.このテーブルには54語を格納した.この例を表\ref{tb:youso}に示す.「修飾語」は要素語を直接修飾する語群,「程度修飾語」はその程度を強調する語群,「限定修飾語」は限定された現在の時間・空間を指し示す語群である.これらにはそれぞれグループ化するためのIDがある.修飾語テーブル(表\ref{tb:syusyokugo})は24語,程度修飾語テーブル(表\ref{tb:teidosyusyokugo})は8語,限定修飾語テーブル(表\ref{tb:genteisyusyokugo})は6語それぞれ格納している.また,これらのグループIDを連結させて文章化するためのルールもまた格納した.この連結ルールは30ルール格納し,この一部を表\ref{tb:renketu}に示す.\begin{table}[htbp]\begin{minipage}{.48\linewidth}\begin{center}\caption{要素知識テーブルの一部}\label{tb:youso}\begin{tabular}{clclc}\hline要素語&グループID&テーマ\\\hline天気&Y0001&気象\\晴れ&Y0001&気象\\雷&Y0002&気象\\嵐&Y0002&気象\\朝&Y0003&時間\\夕暮れ&Y0003&時間\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{修飾語テーブルの一部}\label{tb:syusyokugo}\begin{tabular}{clc}\hline修飾語&グループID\\\hlineいい&S0001\\穏やかな&S0001\\激しい&S0005\\凄い&S0005\\暑い&S0011\\涼しい&S0011\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\begin{table}[htbp]\begin{minipage}{.48\linewidth}\begin{center}\caption{程度修飾語テーブルの一部}\label{tb:teidosyusyokugo}\begin{tabular}{clc}\hline程度修飾語&グループID\\\hlineかなり&T0001\\本当に&T0001\\とても&T0001\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{限定修飾語テーブルの一部}\label{tb:genteisyusyokugo}\begin{tabular}{clc}\hline限定修飾語&グループID\\\hline今朝は&G0001\\今夜は&G0002\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\begin{table}[htbp]\begin{center}\caption{連結ルールの一部}\label{tb:renketu}\begin{tabular}{clc}\hlineグループID&上位連結ID\\\hlineY0001&S0001/T0001/G0000\\Y0002&S0005/T0001/G0000\\Y0003&S0011\\S0001&T0001/G0000\\S0005&T0001/G0000\\S0011&T0001/G0000\\\hline\end{tabular}\end{center}\end{table}要素知識テーブル,修飾語テーブル,程度修飾語テーブル,限定修飾語テーブルを連結ルールを用いて結合させる.この第二会話文知識ベースのイメージ図を図\ref{fig:kaiwaDB2img}に示す.それぞれの語はグループ化され,要素語にはテーマを付加している.また,連結ルールによって各々の語はつながり,テンプレートとなる.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/kaiwaDB2img.eps}\caption{第二会話文知識ベースイメージ}\label{fig:kaiwaDB2img}\end{center}\end{figure}
\section{挨拶文の生成}
本節では挨拶処理システムの仕組みについて述べる.挨拶処理システムはまず入力文と現在状態を取得する.入力文が存在する場合は入力文を挨拶知識ベースから参照し,第一会話文を決定する.入力文が存在しない場合は,現在状態から情報を取得し,その情報から挨拶知識ベースを参照し,第一会話文を決定する.その後,第二会話文を第二会話文知識ベースより拡張された文章群を用いて決定する.第二会話文はテンプレート内に存在する基本単語群(挨拶に関係する語群)を概念ベースの一次属性・関係辞書・常識判断メカニズムによって拡張し,その後,品詞・シソーラス・関連度計算・概念ベースIDF・常識判断メカニズムによって精錬する.この具体的な手法を第\ref{kakucho}節,第\ref{seidoup}節で述べる.図\ref{fig:no2kaiwa}に第二会話文拡張方法の概要を示す.\begin{figure}[htbp]\begin{center}\epsfxsize=9cm\epsfbox{./fig/no2kaiwa.eps}\caption{第二会話文拡張方法の概要}\label{fig:no2kaiwa}\end{center}\end{figure}\subsection{意図理解システム}意図理解システムとは入力文に対する応答方法の違いを区分するため,入力文をそれぞれ「挨拶」「命令」「疑問」「情報」という意図に分類するシステム\cite{ooi2002}である.このシステムは意図理解判断のために必要な知識ベースをもつ.入力文を形態素解析し,この知識ベースを参照することでそれぞれの意図に分類する.この意図理解システムによって挨拶と判断された文章は挨拶処理,命令文と判断された文章は命令解釈,疑問文と判断された文章は問題解釈,情報文と判断された文章は応答処理のための意味理解へ処理を渡す.意図理解システムの概要を図\ref{fig:itorikaiSystem}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/itorikaiSystem.eps}\caption{意図理解システム概要}\label{fig:itorikaiSystem}\end{center}\end{figure}\subsection{現在状態からの状態語の取得}人間は五感から様々な情報を得て,その情報を基に挨拶を行うことが多い.「なんて暑いのだろう」「騒がしい」と感じるとその状態を話題に上らせやすい.つまり,思考に上らせやすい状態が現在状態に存在するとより話題にしやすいと考えられる.この思考に上らせやすい“状態の単語”を以降,状態語と呼ぶ.この状態語を$A$として,現在状態から時間,気温,天候に関する状態語を取得する.天候に関してはその取得した語をそのまま用いるが,数値入力される時間と気温に関して$A$を取得する方法を次に示す.\subsubsection{時間}時間の状態語として年を表す明示的時語,日を表す明示的時語,特定の日を表す明示的時語を取得する.これらは時間判断システムで利用している時間知識ベース内の時語の始点時間と終点時間を時間軸(月,時,月日)と共に格納した明示的時語知識ベースを参考にして状態語を取得した.年を表す明示的時語とは春,夏,秋,冬などの季節を表す語である.これは時語知識ベース内の時間軸「月」に類別されている.また,日を表す明示的時語は朝,昼,夕方,夜,午前,午後などの昼夜を表す語であり,時語知識ベース内では「時」に類別される.特定の日を表す明示的時語はクリスマス,七夕などの年内イベントを表す語であり,時語知識ベース内では「月日」に類別される.時語知識ベースの一部を表\ref{tb:zigochishiki}に示す.現在状態の時間を表す月,日,時間と知識ベース内の始点時間,終点時間を比較し,時間に関する$A_{time}$を取得し,取得した語群を時間軸によって季節,昼夜,イベントに類別して保存する.これを用いることにより,月日が12月25日であれば「クリスマス」,月が6月から9月の間は「夏」といった状態語を取得することができる.\begin{table}[htbp]\begin{center}\caption{時語知識ベースの一部}\label{tb:zigochishiki}\begin{tabular}{c|clclclclc}\hline名称&ふりがな&時間軸&始&終&属性\\\hlineクリスマス&くりすます&月日&12/25&12/25&point\\夏&なつ&月&6&9&period\\午後&ごご&時&12&23&period\\\hline\end{tabular}\end{center}\end{table}\subsubsection{気温}気温の平年値を用いて気温に関する$A_{temp}$を求める.平年値とは平均的な気候の状態を表す指標である.その求め方は世界気象機関(WMO)が定めており,西暦の一位が1の年から数えて連続する30年間について累年平均値を算出したものである.2000年からは気象庁が作成・提供している1971年から2000年までの平年値が指標となっている.気温の平年値を$T_{ave}$,現在の気温を$T_{now}$とし,$A_{temp}$を以下の図\ref{fig:tempzyotai}のように定める.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/tempzyotai.eps}\caption{気温に関する状態語の取得}\label{fig:tempzyotai}\end{center}\end{figure}\subsection{第一会話文の取得}第一会話文を契機に会話は始まる.この文章は総じて定型の挨拶文であり,以降の会話を円滑にする導入部の役割を果たす.これを第一会話文知識ベース及び入力文,状態語を用いて取得する.本稿で提案する会話システムでは相手の応答に限らず,自発的に会話を作成するため,入力文が存在する場合と存在しない場合がある.入力文がある場合,これを意図理解システムに渡す.意図理解システムによって「挨拶」と判定された場合,第一会話文知識ベースの入力文テーブルを参照し,応答語テーブルから第一会話文を取得する.入力文が存在しない場合,現在状態から状態語を取得する.これを第一会話文知識ベースの状態語テーブルを参照し,応答語テーブルから第一会話文を取得する.例えば,現在状態が夜の場合,入力文がないと「こんばんは」と応答するが,対話者が「おはよう」と入力すれば「おはようございます」と応答する.相手に合わせた挨拶がコミュニケーションを円滑にする役割を果たすと考えられる.\\\subsection{第二会話文の拡張}\label{kakucho}第二会話文は話題を提供する挨拶文である.この話題は日常会話の中において質問の応答や問題の提起を行わない.話題として多く用いられるのは現在状態から連想される事柄である.例えば,気象,季節,朝夕,体感温度などが挙げられる.しかし,第二会話文を人手で作成すると,手間がかかり,設計者が設定した応答しかできない.そこである程度のテンプレートを用意し,そこから汎用知識ベースを用いて機械自身の手で連想を広げる.但し,ここでは文章を拡張することが目的であり,最終的には現在状態にマッチングする文章を応答として返すことを目指しているが,本論文では現在状態を用いて文章を選定する所までは範囲としない.本章では文章を大規模に拡張し,その文章が挨拶において文章単独として常識的であるように,文章の精錬を行う.\\\subsubsection{状態語からの拡張}現在状態から取得した状態語のうち,時間に関する状態語から時間判断システムを利用して連想し,要素語を拡張する.例えば,現在時間が“12月25日/午前7時”とした例を表\ref{tb:timekakucho}に示す.ここから状態語として“季節/冬”,“昼夜/朝”,“イベント/クリスマス”が取得できる.この状態語それぞれを時間判断システムによって連想する.冬からは“蟹”,朝からは“出勤”等の連想語が派生する.これを要素語として,それぞれのテンプレートの可変部に戻し,“蟹の季節ですね”“出勤の時間ですね”といった文章拡張を行うことができる.本論文では文章拡張の有効性を調べるため,現在状態を定めて文章を拡張するのではなく,全ての状態語を用いてそこから想起できる文章拡張を行った.\begin{table}[htbp]\caption{現在時間:12月25日/午前7時の場合の例}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&状態語&連想語&テンプレート\\\hline季節&冬&蟹,暖房,ソリ,炬燵,スキー,…&〜の季節ですね\\\hline昼夜&朝&出勤,開店,覚醒,鶏鳴,…&〜の時間ですね\\\hlineイベント&クリスマス&トナカイ,サンタクロース,…&〜の時期ですね\\\hline\end{tabular}\end{center}\label{tb:timekakucho}\end{table}\\\subsubsection{連想による修飾語の拡張}人は話題の言葉に対して想起した感覚を加えて会話にする.そこで感覚判断システムの連想によって修飾語を拡張する.ここで用いる要素語は第二会話文知識ベースの要素知識テーブルに存在するものを用いる.これらの要素語に対し,連結する基本的な修飾語は第二会話文知識ベースの修飾語テーブルに用意しているが,さらに感覚判断システムによって修飾語を拡張する.この例を表\ref{tb:kankakukakucho}に示す.まず,要素語を感覚判断システムにかけ,感覚想起を行う.感覚想起された修飾語が修飾語テーブルになかった場合,その修飾語をその要素語に対する修飾語として追加・拡張する.\begin{table}[htbp]\caption{感覚想起の例}\begin{center}\begin{tabular}{c|c}\hline要素語&感覚想起\\\hline夕焼け&眩しい,赤い,美しい\\\hline春&爽やかな,待ち遠しい,暖かい\\\hline\end{tabular}\end{center}\label{tb:kankakukakucho}\end{table}\\\paragraph{連想による要素語の拡張}汎用的な知識ベースである概念ベース及び語種リスト(反対語・同義語)を用いて要素語の連想を行う.ここで用いる要素語とは,第二会話文知識ベースの要素知識テーブルに存在する要素語54語のことである.語種リストは国語辞書等から自動構築された反対語リスト,同義語リストを持つ.反対語リストとは反対の意味を持つ語のセットを約1万6000語登録したデータベースである.同義語リストとは同義の意味を持つ語のセットを約20万セット登録したデータベースである.\\\paragraph{反対語による拡張}要素語と同系列の単語群を取得するため反対語リストを利用することによって拡張する.要素語に対する反対語とそれに対する反対語を取り続けることにより,同系列の単語群の取得が可能となる.以下のアルゴリズムで反対語による拡張語群$E$を取得する.\begin{enumerate}\item要素語$Y$の反対語群$Y_i$を取得する.$Y$と$Y_i$を語群$E$とする.\item\label{hantaigotwo}語群$E$の全ての反対語群$E_i$を取得する.\item$E_i$と$E$を比較する.$E_i$の中で$E$に含まれていない語を$N$とする.\item$N$が無ければ,$E$を反対語による拡張語群$E$として取得する.$N$が存在すれば,$E$に$N$を加えたものを新たな$E$として(\ref{hantaigotwo})を行う.\end{enumerate}\paragraph{同義語・一次属性による拡張}要素語とその反対語による拡張語群$E$を,同義語と概念ベースによってさらに拡張する.以下のアルゴリズムで同義語・一次属性による拡張語群$E$を取得する.\begin{enumerate}\item拡張語群$E$の全ての単語の同義語群$E_s$を取得する.\item拡張語群$E$の全ての単語の一次属性$E_c$を概念ベースより取得する.\item\label{dougizokuseithree}拡張語群$E$に$E_s$と$E_c$を加え,同じ語を削除する.\item(\ref{dougizokuseithree})で取得した語群を同義語・一次属性による拡張語群$E$として取得する.\end{enumerate}\subsection{精度向上}\label{seidoup}会話文が常識的に正しい文章になるように要素語の拡張語群に対し精錬を行う.\subsubsection{品詞による精錬}拡張語群$E$に対し,品詞による精錬を行う.本来の要素語$Y$が収まるようにテンプレートは作られているため,要素語$Y$と品詞が異なるものは収まりにくいからである.よって,拡張語群$E$内において要素語$Y$と同じ品詞の語を,品詞による精錬語群$S_h$として取得する.\subsubsection{シソーラスによる精錬}品詞による精錬語群$S_h$に対し,シソーラス\cite{NttThesaurus1997}による精錬を行う.語群$S_h$内には様々な多義語が含まれていることが多い.例えば要素語「山」に対して「山岳」「山鉾」「クライマックス」等の多義語が含まれる.これに対し,挨拶文として利用したいものは視界に入る自然物としての「山岳」という意味の語群である.このため,シソーラスを用いて自然物としての意味を持つものだけを取得する.このようにシソーラスによる精錬語群$S_t$を以下のアルゴリズムによって実現する.\begin{enumerate}\item要素知識ベースより,要素語$Y$のテーマ語Tを取得する.\item語群$S_h$の各単語に対し,シソーラスの全親ノードを取得する.\itemシソーラスの全親ノードとテーマ語$T$を比較し,一致するノードが存在する単語を取得し,これをシソーラスによる精錬語群$S_t$とする.\end{enumerate}\subsubsection{関連度による精錬}\label{kanrendoseiren}シソーラスによる精錬語群$S_t$に対し,関連度計算による精錬を行う.これは,テンプレートの可変部に入れるために人手で用意した適切な語群との関連度を用いる.適切な語群との関連が高ければ適切だと考えたためである.次のアルゴリズムによって適切な要素語群との関連度による精錬語群$S_r$を取得する.\begin{enumerate}\item要素語$Y$と同じグループIDを持つ語群$Y_g$を第二会話文知識ベース内要素知識ベースより取得する.\item\label{kanrendoseirentwo}語群$Y_g$と語群$Y_g$の全単語間で関連度計算を行う.\item\label{kanrendoseirenthree}(\ref{kanrendoseirentwo})の平均値を求める.これを要素語$Y$の閾値とする.\item\label{kanrendoseirenfour}語群$S_t$の各単語と語群$Y_g$の関連度計算を行う.\item\label{kanrendoseirenfive}(\ref{kanrendoseirenfour})の平均値を求める.\item(\ref{kanrendoseirenfive})と(\ref{kanrendoseirenthree})で求めた閾値を比較し,閾値以上の単語群を取得する.これを適切な要素語群との関連度による精錬語群$S_r$とする.\end{enumerate}\subsubsection{IDF値による精錬}IDF値は情報検索の分野で用いられる単語重み付け手法であり,稀に出現する語は重要であるという観点から重み付けされた対数文書頻度である.ここでは以下の方法で概念ベースIDF値を求める.\begin{enumerate}\item概念ベース内の属性全てを対象とし,概念連鎖によって三次まで展開する.\item全概念数(87242)を$N_{All}$とする.また,全概念を三次まで展開した属性群(文書空間)内での概念$t$の出現概念数を$df(t)$とし,$idf(t)$を以下の式で計算する.\begin{eqnarray}idf(t)=log\frac{N_{All}}{df(t)}\end{eqnarray}\end{enumerate}関連度による精錬語群$S_r$に対し,概念ベースのIDF値を用いて精錬を行う.汎用的な辞書の知識である概念ベース内で使用頻度の低い語は日常会話でもあまり使用されない.そこで,IDF値を用いると,概念ベース内で使用頻度の低い語として雑音を除くことができる.本来,IDF値とは出現頻度の低い語の値が大きく,重要である,という観点で重み付けされるものであるが,ここでは,「稀に出現する語は一般的でない」という観点で,そのような語を抽出するための単なる「計算式」として用いる.閾値は実験によって適切な値を求め,IDF値が閾値以下の語を語群$S_r$から抽出し,これをIDFによる精錬語群$S_i$とする.実験は閾値をIDF値0.2〜3まで0.2毎に変化させて取得した精錬語群$S_r$を用いた.$S_r$を文章化し,ランダムに100文抽出する.それを3人の目視によって常識的に正しいか否かを評価した.100文に対して常識的に正しいとした割合を算出し,その3人の平均値を精度とした.また拡張語から表現できる全文章数をその文章数とする.このときの精度と文章数のグラフを図\ref{fig:idfResult}に示す.図\ref{fig:idfResult}よりIDF値が小さくなれば精度は上がり,文章数は減少する.また,IDF値が0.8〜1.4の間,あまり精度が変わらないことがわかった.そこで,その間で最も文章数が多くなるIDF値1.4が閾値として適当であると考えられる.これをIDFによる精錬を行う際に用いる閾値とした.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/idfResult.eps}\caption{idf値の変化に伴う精度と文章数}\label{fig:idfResult}\end{center}\end{figure}\subsubsection{時間判断システムによる文章の妥当性}精錬語群$S_i$から第二会話文知識ベースを用いて文章化する.拡張前の要素語のもつ修飾語の上位IDから文章を作成する.このとき,限定修飾語と要素語の状況が全く異なることがある.例えば「今朝はきれいな夕焼けですね」「今夜は涼しい昼ですね」等である.このような文章はどのような状況であっても正しくない.時間判断システムを用いてこれらの文章を削除する.具体的には,文章化する際に,限定修飾語と拡張要素語の双方を時間判断システムにかける.限定修飾語「今朝」と要素語「夕焼け」を時間判断システムにかけた場合の例を表\ref{tb:timejudgekekka}に示す.ここで時間軸が一致(月日,月,時)し,かつ同じ時語を含まない場合,その文章を削除する.\begin{table}[htbp]\caption{時間判断システム結果の例}\begin{center}\begin{tabular}{|c|c|c|}\hline&時間判断結果(時間軸)&時間判断結果(時語)\\\hline今朝&時&今日,朝\\\hline夕焼け&時&夕方\\\hline\end{tabular}\end{center}\label{tb:timejudgekekka}\end{table}\subsection{実験結果と考察}\label{kosatsu}精錬結果と拡張された文章数について調査を行う.調査方法は,以下のとおりである.まず,精錬語群を文章化し,ランダムに300文章抽出する.それを3人の目視によって挨拶において文章単独として常識的に正しいか否かを評価した.300文に対して常識的に正しいとした割合を算出し,その3人の平均値を精度とした.また拡張語から表現できる全文章数を文章個数とする.挨拶において文章単独として常識的である,というのは,あらゆる状況下で第一会話文(おはよう,こんにちは,など)の後に続いて発する可能性のある文章を意味する.元のテンプレートも関係がないため,実験時には元になったテンプレートは被験者に提示せずに行った.拡張した文章300文のみに対し,文章として非常識でないか,及び挨拶として適当か(状況を限定せず,第一会話文の後に続いて発することが妥当か)を判断基準として評価した.\subsubsection{ここまでの実験結果と考察}\label{seidoA}第\ref{kakucho}節の拡張を行った場合(拡張のみ),第\ref{seidoup}節の精錬(品詞,シソーラス,適切な要素語群との関連度,概念ベースIDF,時間判断)を行った場合のそれぞれの精度を図\ref{fig:seido1}に,文章個数を対数グラフで表したものを図\ref{fig:number}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/seido1.eps}\caption{本手法の精度}\label{fig:seido1}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/number.eps}\caption{本手法の文章数}\label{fig:number}\end{center}\end{figure}拡張のみの精度は38%と非常に低かったにもかかわらず,精錬を経て,78%に精度向上した.また,最初のテンプレート数が803文であったのに対し,拡張と精錬によって17878文が自動拡張された.ここで不適切とされた例には,次の図\ref{fig:wrong}のようなものがあった.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/wrong.eps}\caption{不適切な文章例}\label{fig:wrong}\end{center}\end{figure}これらは修飾語と要素語が意味として連結しない形をとっている.このため,修飾語と要素語との関係を加味する必要があると考えられる.\subsubsection{新たな関連度計算の提案}上記実験結果から,修飾語と要素語との関係性を加えることの必要性が感じられたため,関連度を用いることにより,その関係性を追加する.次のアルゴリズムによってこれを実現する.\begin{enumerate}\item\label{newkanrendoseirenone}作成された文章の修飾語と同じグループ内(第二会話文知識ベースより)の語の一次属性を取得\item\label{newkanrendoseirentwo}要素語と(\ref{newkanrendoseirenone})の語の関連度計算を行い,平均値を求める\item\label{newkanrendoseirenthree}要素語が含まれるグループ全てに(\ref{newkanrendoseirentwo})を行い,最低平均値を導出\item\label{newkanrendoseirenfour}(\ref{newkanrendoseirenthree})をその要素語グループの閾値とする\item\label{newkanrendoseirenfive}拡張した単語と(\ref{newkanrendoseirenone})の語の関連度計算を行い,平均値を求める\item(\ref{newkanrendoseirenfive})が(\ref{newkanrendoseirenfour})の閾値以下なら削除する\itemこれを,修飾語の属性との関係を加味した関連度による精錬語群とする\end{enumerate}テンプレート「うっとうしい雨ですね」を用いた際の例を図\ref{fig:newRelExam}に示す.まず,修飾語「うっとうしい」と同グループに属する「うっとうしい,嫌な」の一次属性を取得する.これとテンプレートの要素語「雨」と同グループに属する「天気,曇り,雨」との関連度の平均値を計算する.「天気,曇り,雨」は人間によって修飾語との関連があると判断されたものなので,ここで最も低い値を出した関連度を必要最低限の値と考え,閾値とする.図\ref{fig:newRelExam}の場合は「雨」との関連度0.1136が最も低いため,これが閾値となる.「雨」から拡張された語群と「うっとうしい,嫌な」の一次属性との関連度の平均値がこの閾値よりも低い場合,これを削除する.図\ref{fig:newRelExam}の場合は「快晴」と「晴れ間」が除去される.このことにより,少なくとも修飾語との関連がないと考えられる語を除くことができる.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/newRelExam.eps}\caption{修飾語の属性との関係を加味した関連度による精錬方法の例}\label{fig:newRelExam}\end{center}\end{figure}ここで,第\ref{kanrendoseiren}節で行った“適切な要素語群との関連度による精錬手法”と“修飾語の属性との関係を加味した関連度による精錬手法”を入れ替えて,精度と文章個数を求めた.これを図\ref{fig:changeseido}に示す.前者の手法を使ったものを関連度1,後者の手法を使ったものを関連度2とする.すると関連度1を使った手法の精度は77%,関連度2を使った手法の精度は84%となり,関連度2の手法を用いた方が7%の向上が見られた.また,全文章個数も約18000個から約24000個に増加することがわかり,“修飾語の属性との関係を加味した関連度による精錬手法”の方がより有効であった.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/changeseido.eps}\caption{関連度1(旧手法)と関連度2(新手法)の精度と文章個数}\label{fig:changeseido}\end{center}\end{figure}次に,“適切な要素語群との関連度による精錬手法”と“修飾語の属性との関係を加味した関連度による精錬手法”の双方を行った場合の精度と文章個数を求めた.これを図\ref{fig:changeseido2}に示す.順序を入れ替えても,“修飾語の属性との関係を加味した関連度による精錬手法”だけの場合と比較して大きな差異はなく,文章個数のみが大きく減少した.このため,両方を行うのではなく,関連度による精錬を“修飾語の属性との関係を加味した関連度による精錬手法”にすることが適切であると考えられる.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/changeseido2.eps}\caption{関連度1と関連度2の両方を用いた場合の精度と文章個数}\label{fig:changeseido2}\end{center}\end{figure}この手法によってある一文のテンプレートから拡張された文章の例を表\ref{tb:kekkaExam}に示す.表\ref{tb:kekkaExam}に示した例において,「精錬文章群」が「テンプレート」に対し本提案手法を用いたシステム出力例である.また,評価実験において,評価者全員が常識的であると判断した文章例を○,常識的ではないと判断した文章例を×として示す.\ref{kakucho}節「第二会話文の拡張」において,テンプレートを拡張した当初は「精錬文章群」と「削除された文章群」の両方が混在している.これに対し,\ref{seidoup}節で提案した精度向上方法を用いることで,文章は精錬される.このときに削除された文章の例を「削除された文章群」に記載する.例えば「きれいな川ですね」というテンプレートに対し,様々な文章(拡張文章群)が生成される.しかし,提案手法によって,常識的でない(非常識な)文章が大きく削除された.挨拶として(第一会話文に続く文章として)「きれいな流れですね」「きれいな景観ですね」という文章はある状況下で可能であるのに対し,「きれいな河童ですね」「きれいな濁流ですね」といった文章は非常識である.このような文章を自動的に削除することで拡張文章群を精錬し,本提案の有効性を示すことができた.\begin{table}[htbp]\caption{一文から拡張した文章例}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&\multicolumn{4}{|c|}{拡張文章群}\\\cline{2-5}\raisebox{1.5ex}[0cm][0cm]{テンプレート}&\multicolumn{2}{|c|}{精錬文章群}&\multicolumn{2}{|c|}{削除された文章群}\\\hline\hline&きれいな流れですね&○&きれいな河童ですね&×\\&きれいな景観ですね&○&きれいな背水の陣ですね&×\\きれいな川ですね&きれいな清流ですね&○&きれいな濁流ですね&×\\&きれいな山水ですね&○&きれいな犯罪事件ですね&×\\&きれいな風光ですね&○&きれいな小川ですね&○\\\hline&美しい夕焼けですね&○&電磁波ですね&×\\&赤い夕日ですね&○&空虚ですね&×\\夕焼けですね&空模様ですね&×&赤色ですね&×\\&日没ですね&○&沈没ですね&×\\&光ですね&×&夕映えですね&○\\\hline\end{tabular}\end{center}\label{tb:kekkaExam}\end{table}
\section{おわりに}
本稿では,日常会話の中において質問の応答や問題の提起を行わない「主張のない会話」である「挨拶」の処理手法を構築した.また,話題の展開に繋がる第二会話文をテンプレートだけではなく,汎用知識ベースである概念ベースや常識判断メカニズムを用いて文章拡張し,品詞,シソーラス,関連度計算,概念ベースIDF,時間判断システムによって精錬する手法を考案し,その有効性を実験によって検証した.また,第\ref{kosatsu}節までの操作を行うことによってテンプレートは自動的に大きく拡張・精錬された.この文章群を用いて現在状態に即した第二会話文を取得することが次の課題となる.この挨拶処理手法を用いることにより,少数のテンプレートを連想により拡張し,挨拶を膨大な文章から選択することが可能となる.このことで,単調となりがちなテンプレートの会話に効果をもたらすと期待される.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{堂坂}{堂坂}{2001}]{douzaka2001}堂坂浩二\BBOP2001\BBCP.\newblock\JBOQタスク指向型対話における漸次的発話生成モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf37}(12),2190--2200.\bibitem[\protect\BCAY{井筒,東村,渡部,河岡}{井筒\Jetal}{2002}]{idutsu2002}井筒大志,東村貴裕,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ概念ベースを用いた関連度計算方式の精度評価\JBCQ\\newblock\Jem{信学技報,NCL2001-94},117--122.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{NttThesaurus1997}池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{J.Weizenbaum}{J.Weizenbaum}{1965}]{J.Weizenbaum1966}J.Weizenbaum\BBOP1965\BBCP.\newblock\JBOQELIZA−AComputerProgramFortheStudyofNaturalLanguageCommunicationBetweenManandMachine\JBCQ\\newblock{\BemCommunicationsoftheAssociationForComputingMachinery},{\Bbf9}(1),36--45.\bibitem[\protect\BCAY{神田,駒谷,尾形,奥乃}{神田\Jetal}{2004}]{Kanda2004}神田直之,駒谷和範,尾形哲也,奥乃博\BBOP2004\BBCP.\newblock\JBOQデータベース検索音声対話システムにおける履歴を考慮した検索条件の管理\JBCQ\\newblock{\BemFIT2004},LG--001,131--132.\bibitem[\protect\BCAY{笠原,松澤,石川}{笠原\Jetal}{1997}]{Kasahara1997}笠原要,松澤和光,石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),1272--1283.\bibitem[\protect\BCAY{小畑,渡部,河岡}{小畑\Jetal}{2001}]{kobata2001}小畑陽一,渡部広一,河岡司\BBOP2001\BBCP.\newblock\JBOQ短文の名詞と動詞から時間/季節を判断するメカニズム\JBCQ\\newblock\Jem{信学技報,AI2000-56},1--6.\bibitem[\protect\BCAY{野村,渡部,河岡}{野村\Jetal}{2003}]{nomura2003}野村理樹,渡部広一,河岡司\BBOP2003\BBCP.\newblock\JBOQ時間の常識的判断システムにおける未知語処理方式の検討\JBCQ\\newblock\Jem{情報科学技術フォーラム2003,E-047},191--193.\bibitem[\protect\BCAY{奥村,渡部,河岡}{奥村\Jetal}{2005}]{okumura2005}奥村紀之,渡部広一,河岡司\BBOP2005\BBCP.\newblock\JBOQ電子化新聞を用いた概念ベースの拡張と属性重み付与方式\JBCQ\\newblock\Jem{情報処理学会研究報告,2005-NL-166},55--62.\bibitem[\protect\BCAY{大井,渡部,河岡}{大井\Jetal}{2002}]{ooi2002}大井健治,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ知能ロボットの意図理解と応答制御方式\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集,A2-9},275--278.\bibitem[\protect\BCAY{杉本,岩爪,小林,岩下,菅野}{杉本\Jetal}{2002}]{Sugimoto2002}杉本徹,岩爪道昭,小林一郎,岩下志乃,菅野道夫\BBOP2002\BBCP.\newblock\JBOQ秘書エージェントのための対話管理とその適応機能\JBCQ\\newblock\Jem{人工知能学会第16回全国大会,2B3-02},131--132.\bibitem[\protect\BCAY{渡部河岡}{渡部\JBA河岡}{2001}]{watabe2001}渡部広一\BBACOMMA\河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),39--54.\bibitem[\protect\BCAY{渡部,堀口,河岡}{渡部\Jetal}{2004}]{watabe2004}渡部広一,堀口敦史,河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),73--82.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.同大学院工学研究科知識工学専攻博士前期課程在学.知識情報処理の研究に従事.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2004年同志社大学大学院工学研究科知識工学専攻博士後期課程入学.主に,常識的判断システムの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N02-02
|
\section{はじめに}
\label{sec:intro}本論文では,ウェブを利用した専門用語の訳語推定法について述べる.専門用語の訳語情報は,技術翻訳や同時通訳,機械翻訳の辞書の強化などの場面において,実に様々な分野で求めれらている.しかしながら,汎用の対訳辞書には専門用語がカバーされていないことが多く,対訳集などの専門用語の訳語情報が整備されている分野も限られている.その上,専門用語の訳語情報が整備されていたとしても,最新の用語を追加していく作業が必要になる.このため,あらゆる分野で,専門用語の訳語情報を人手で整備しようとすると,大変なコストとなる.そこで,本論文では,対象言語を英語,日本語双方向とし,自動的に専門用語の訳語推定を行う方法を提案する.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパスを用いた訳語推定法がある~\cite{Matsumoto00a}.しかしながら,パラレルコーパスが利用できる分野は極めて限られている.これに対して,対訳関係のない同一分野の2つの言語の文書を組にしたコンパラブルコーパスを利用する方法\cite{Fung98as,Rapp99as}が研究されている.これらの手法では,コーパスにそれぞれ存在する2言語の用語の組に対して,各用語の周囲の文脈の類似性を言語を横断して測定することにより,訳語対応の推定が行われる.パラレルコーパスに比べれればコンパラブルコーパスは収集が容易であるが,訳語候補が膨大となるため,精度の面で問題がある.また,この方法では,訳語推定対象の用語を構成する単語・形態素の情報を利用していない.これに対して,\cite{Fujii00,Baldwin04multi}では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を提案している.(以下,本論文では,用語の構成要素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成する方法を「要素合成法」と呼ぶ.)要素合成法による訳語推定法の有効性を調査するために,既存の専門用語対訳辞書の10分野から,日本語と英語の専門用語で構成される訳語対を617個抽出した\footnote{\ref{sec:evaluation_set}節で述べる未知訳語対集合$Y_{ST}$に対応する.}.そして,それぞれの訳語対の日本側の用語と英語側の用語の構成要素が対応しているかを調べたところ,88.5\%の訳語対で日英の構成要素が対応しているという結果が得られた.このことから,専門用語に対して要素合成法による訳語推定法を適用することは有効である可能性が高いことがわかった.(以下,本論文では,訳語対において各言語の用語の構成要素が対応していることを「構成的」と呼ぶものとする.)しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,大規模かつあらゆる分野の文書を含むウェブをコーパスとして用いるものとする.ウェブを訳語候補の検証に利用する場合,\cite{Cao02as}の様に,サーチエンジンを通してウェブ全体を利用して訳語候補の検証を行うという方法がまず考えられる.その対極にある方法として,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておくことも考えられる.サーチエンジンを通してウェブ全体を利用するアプローチは,カバレージに優れるが,様々な分野の文書が含まれるため誤った訳語候補を生成してしまう恐れもある.また,それぞれの訳語候補に対してサーチエンジンで検索を行わなければいけないため,サーチエンジン検索の待ち時間が無視できない.これに対して,ウェブから専門分野コーパスを収集するアプローチは,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補を削除する効果が期待できる.また,ひとたび専門分野コーパスを収集すれば,訳語推定対象の用語が大量にある場合でも,サーチエンジンを介してウェブにアクセスすることなく訳語推定を行うことができる.しかしながら,これまで,この2つのアプローチの比較は行われてこなかったため,本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じる.さらに,上記の2つのアプローチの比較も含めて,本論文では,訳語候補のスコア関数として,多様な関数を以下のように定式化する.要素合成法では,構成要素に対して,対訳辞書中の訳語を結合することにより訳語候補が生成されるので,構成要素の訳語にもとづいて訳語候補の適切さを評価する.これを対訳辞書スコアと呼ぶ.また,それとは別に,生成された訳語候補がコーパスに生起する頻度に基づいて,訳語候補の適切さを評価する.これをコーパススコアと呼ぶ.本論文では,この2つスコアの積で訳語候補のスコアを定義する.本論文では,対訳辞書スコアに頻度と構成要素長を考慮したスコアを用い,また,コーパススコアには頻度に基づくスコアを用いたスコア関数を提案し,確率に基づくスコア関数\cite{Fujii00}と比較する.さらに,対訳辞書スコア,コーパススコアとしてどのような尺度を用いるか,に加え,訳語候補の枝刈りにスコアを使うかどうか,コーパスとしてウェブ全体を用いるか専門分野コーパスを用いるか,といったスコア関数の設定を変化させて合計12種類のスコア関数を定義し,訳語推定の性能との間の相関を評価する.実験の結果,コーパスとしてウェブ全体を用いた場合,ウェブには様々な分野の文書が含まれるため誤った訳語候補を生成してしまうことが多い反面,カバレージに優れることがわかった.逆に,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認された.また,ウェブから収集した専門分野コーパスを用いる方法の性能を向上させるためには,専門分野コーパスに含まれる正解訳語の割合を改善することが課題であることがわかった.以下,本論文では,第\ref{sec:web_yakugosuitei}章でウェブを用いた専門用語訳語推定の枠組みを導入し,専門分野コーパスの収集方法について述べる.第\ref{sec:compo-method}章では要素合成法による訳語推定の定式化を行い,訳語候補のスコア関数を導入する.第\ref{sec:experiments}章では実験と評価について述べる.第\ref{sec:related_work}章では関連研究について述べ,本論文との相違点を論じる.
\section{ウェブを用いた専門用語訳語推定}
\label{sec:web_yakugosuitei}\subsection{概要}\begin{figure}[b]\centering\includegraphics[width=300pt]{jnlp-compo-fig-overview1.eps}\caption{ウェブを用いた専門用語訳語推定}\label{fig:overview1}\end{figure}ウェブを用いた専門用語の訳語推定の全体像を図\ref{fig:overview1}に示す.本論文では,言語$S$の専門用語が複数個が与えられたとき,それらの用語に対して,言語$T$における訳語を推定するという問題を考える.このような状況としては,例えば,ある専門分野において,まとまった数の専門文書が与えられ,それらの文書から用語を抽出し,専門用語の対訳辞書を作成する場合が考えられる.あるいは,ある専門分野の文書と既存の汎用対訳辞書があり,この文書を翻訳家が翻訳したい場合などが考えられる.ここで,一般に,与えられた複数の専門用語は,既存の汎用対訳辞書に含まれる訳語の個数にしたがって,訳語が1個である用語の集合$X_S^U$,訳語が2個以上である用語の集合$X_S^M$,そして,訳語が得られない用語の集合$Y_S$という3つの部分集合に分けられる.本論文では,既存の辞書に訳語が1個だけ含まれる用語の集合$X_S^U$の訳語は正しいと仮定し,集合$X_S^U$の用語の訳語の集合$X_T^U$を用いてウェブから専門分野コーパスを収集し,訳語推定に利用するものとする.本論文では,既存の対訳辞書で訳語が得られない用語の集合$Y_S$を訳語推定の対象とする.一方,集合$X_S^M$の用語に対しては,既存の対訳辞書にある訳語の中から最も適切なものを選択する必要がある.例えば,論理回路分野に属する日本語の専門用語「レジスタ」の訳語としては,サッカー用語の``regista''ではなく,用語``register''が選択されなければならない.この訳語選択の課題については,\cite{Tonoike05cs}において,すでに一定の成果が得られており,ウェブから収集した専門分野コーパスに生起する頻度の最も大きい訳語を選択することにより,英日方向で69\%,日英方向で75\%の正解率が得られたと報告されている.そこで,本論文では,集合$X_S^M$の用語の訳語選択の課題は取り扱わない.\subsection{専門分野コーパスの収集}\label{sec:corpus}本論文では,言語$T$の専門分野コーパスをウェブから収集して訳語推定に利用する.この専門分野コーパスを集める際には,既存対訳辞書に訳語が1つだけ存在する専門用語の訳語の集合$X_T^U$を利用する.具体的には,集合$X_T^U$に含まれる用語$x_T^U$を含むサーチエンジンのクエリーを用いてウェブから上位100ページを収集する\footnote{本論文では,サーチエンジンを用いる場合,日本語のクエリーの場合はgoo(\url{http://www.goo.ne.jp})を用い,英語のクエリーの場合はYahoo!(\url{http://www.yahoo.com/})を用いる.}.それらのページに,用語$x_T^U$がアンカーテキストとなっているアンカーが存在する場合は,そのアンカー先ページも入手する.これを,集合$X_T^U$に含まれる用語すべてに対して行い,収集されたウェブページを集めて,専門分野コーパスとする.日本語のコーパスを収集する際に用いたクエリーは,“$x_T^U$とは”,“$x_T^U$という”,“$x_T^U$は”,“$x_T^U$の”,及び,``$x_T^U$''である.一方,英語のコーパスを収集する際に用いたクエリはー,``$x_T^U$ANDwhat's'',``$x_T^U$ANDglossary'',及び,``$x_T^U$''である.ここでは,専門用語$x_T^U$について記述されている文書,例えば,オンライン用語集などを上位にランクするために,経験的にこれらのクエリーを用いている.ここで,計算コストや記憶容量の問題を考慮した上で,できるだけ訳語推定の性能を向上させるためには,訳語推定対象の分野の用語を十分に含むできるだけ小さいコーパスを収集することが望ましい.これを実現する方法として,サーチエンジンのクエリーに複数の用語を含めたり,取得すべきページ数を変更することなどが考えられる.しかしながら,本論文では,ウェブから収集した専門分野コーパスを利用する方式と,サーチエンジンを通してウェブ全体を利用する方式の比較に焦点を当てるため,訳語推定対象の分野の用語を十分に含むできるだけ小さいコーパスを収集する方式を確立することは,論文の対象外とする.この問題に関連する知見としては,\cite{Takagi05aj}の研究がある.\cite{Takagi05aj}では,評価用の正解訳語の集合を設定し,上記の方法によってウェブから収集したコーパスに,評価用の正解訳語を含む割合の評価を行った.その結果,サーチエンジンのヒット数に上限を設けてコーパス収集に使用する用語の数を絞り込むことにより,コーパス収集に使用する用語の数を少なくしても,評価用の正解訳語を含む割合が下がらないことが報告されている.また,\cite{Takagi05aj}では,訳語推定対象の用語(および評価用の正解訳語)とは異なる分野のコーパスを利用する場合についても評価を行っている.これによると,評価用の正解訳語を含む割合は,訳語推定対象の用語と近い分野のコーパスを用いた場合は低下しないが,全く異なった分野のコーパスを用いた場合は低下することを実験的に確かめている.このことは,訳語推定対象の用語の分野となるべく近い分野のコーパスを用いて訳語推定をすべきであることを示している.
\section{要素合成法による専門用語訳語推定の定式化}
\label{sec:compo-method}\subsection{概要}\begin{figure}[b]\centering\includegraphics[width=300pt]{jnlp-compo-fig-compositional.eps}\caption{日本語の専門用語「応用行動分析」の要素合成法による訳語推定}\label{fig:compositional}\end{figure}要素合成法による訳語推定の例として,日本語の専門用語「応用行動分析」の訳語推定の様子を図~\ref{fig:compositional}に示す.まず,既存の対訳辞書を参照し,日本語の見出しを検索することにより,日本語の専門用語「応用行動分析」を構成要素に分割する\footnote{ここで,既存の対訳辞書として,「英辞郎」Ver.79(\url{http://www.eijiro.jp/})と英辞郎の訳語対から作成した部分対応対訳辞書(詳細は\ref{sec:bcl}節で述べる)を用いる.}.この例の場合,構成要素分割の結果は,図~\ref{fig:compositional}に``a''で示した“応用”,“行動”,“分析”という分割及び,``b''で示した“応用”,“行動分析”という分割の2種類になる.次に,それぞれの構成要素を英語に翻訳する.それぞれの構成要素の訳語には,ある信頼度のスコアが与えられる.そして,``a'',``b''それぞれの分割に対して,それらの構成要素の訳語を結合することによって訳語候補を生成する.この例では,構成要素に与えられているスコアの乗算で訳語候補のスコアを計算する.``appliedbehavioranalysis''のように分割``a'',``b''で同じ訳語候補が生成される場合には,それぞれの分割でスコアを計算し両者のスコアを加算するものとした.分割``a''では,``applied''と``behavior''と``analysis''を結合して``appliedbehavioranalysis''が生成され,スコアは,$1.6\times1\times1=1.6$となる.また,分割``b''では,``applied''と``behavioranalysis''を結合して``appliedbehavioranalysis''が生成され,スコアは,$1.6\times10=16$となる.そして,最終的に``appliedbehavioranalysis''のスコアは,$1.6+16=17.6$と計算される.\subsection{部分対応対訳辞書の作成}\label{sec:bcl}専門用語の訳語推定をするためには,既存の対訳辞書の訳語情報だけでは不十分である.複合語中の単語はどのように訳されるのが自然かという情報が重要となる.そこで,複合語中の単語の訳し方を,既存の対訳辞書の複合語エントリから収集することを試みる.一般に対訳辞書のエントリは見出し語と1つ以上の訳語から構成される.このエントリを展開し,見出し語と訳語を一対一の語の組にしたものを本論文では訳語対と呼ぶ.本節では,\cite{Fujii00}の語基辞書の作成方法を参考にして,既存の対訳辞書(英辞郎)の複合語の訳語対から,英語及び日本語の用語の構成要素の訳語対応を推定し,このような訳語対応を集めて新たな対訳辞書を作成する方法について述べる.本論文では,この,既存の訳語対の構成要素を利用して作成された対訳辞書を部分対応対訳辞書と呼ぶ.既存の対訳辞書を部分対応対訳辞書で補う方法を,図~\ref{fig:bubunicchi-rei}の例を用いて説明する.既存の対訳辞書に“applied:応用”という訳語対自体は含まれないが,1番目の英単語が``applied''かつ1番目の日本語単語が「応用」であるような複合語の訳語対が数多く含まれていると仮定する\footnote{日本語のエントリは,形態素解析器JUMAN(\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html})で形態素列に分解されているものとする.}.このようなとき,それらの訳語対を対応付け,構成要素の訳語対応“applied:応用”を推定する.\begin{figure}[t]\small\centering\begin{tabular}{ccccc}applied&mathematics&:&応用&数学\\applied&science&:&応用&科学\\applied&robot&:&応用&ロボット\\&&$\vdots$&&頻度\\&&$\Downarrow$&&↓\\\hline\multicolumn{1}{|c}{applied}&&:&応用&\multicolumn{1}{c|}{:40}\\\hline\end{tabular}\vspace{8pt}\caption{構成要素の訳語対の推定の例(前方一致)}\label{fig:bubunicchi-rei}\end{figure}より詳細には,既存の対訳辞書から,まず,日本語及び英語の用語がそれぞれ2つの構成要素からなる訳語対を抽出し,これを別の対訳辞書$P_2$とする.次に,$P_2$中の訳語対から英語及び日本語の第一構成要素だけを抜き出して訳語対とし,これを集めて構成した対訳辞書を前方一致部分対応対訳辞書$B_P$と呼ぶ.同様に,$P_2$中の訳語対から英語及び日本語の第二構成要素だけを抜き出して訳語対とし,これを集めて構成した対訳辞書を後方一致部分対応対訳辞書$B_S$と呼ぶ.本論文では,部分対応対訳辞書$B_P$と$B_S$に,以下の2つの制約を課す.\begin{itemize}\item前方一致部分対応対訳辞書$B_P$は,用語の先頭および中間位置の構成要素の訳語を得る場合にのみ参照することとし,用語の最後尾の構成要素の訳語を得るために参照することはできない.\item後方一致部分対応対訳辞書$B_S$は,用語の中間位置および最後尾の構成要素の訳語を得る場合にのみ参照することとし,用語の先頭の構成要素の訳語を得るために参照することはできない.\end{itemize}これらの制約は,不適切な訳語候補が生成されるのを防ぐために課した.なお,\cite{Fujii00}においては,$B_P$と$B_S$を統合した部分対応対訳辞書(以下,本論文では,この辞書を部分対応対訳辞書$B$と呼ぶ)を作成しており,上記のような制約を課していない.$B_P$と$B_S$を統合すると訳語対の数が増える利点はあるが,例えば,“システム応用”という用語の訳語推定を行うときに,第二構成要素である“応用”の訳語を得るために,$B_P$に含まれる訳語対〈“応用”,``applied''〉が参照されるなど,過剰に参照される恐れがある.そこで,実際に,部分対応対訳辞書に$B_P$及び$B_S$を利用する場合と,$B$を利用する場合の比較を行った.まず,英辞郎と部分対応対訳辞書を用いて,与えられた用語に対して正解訳語が生成できるかどうかの評価を行った.詳細は\ref{sec:evaluation_set}節で述べるが,部分対応対訳辞書として$B$を用いた場合,$B_P$及び$B_S$を用いた場合に比べて,正解訳語が生成できる用語の割合は2\%程度しか上回らなかった.また,訳語推定の性能においては\footnote{詳細は\ref{sec:evaluation}節で述べるが,訳語候補のスコア付けの方法としては,ウェブから収集した専門分野コーパスを利用する方法の中では総合的に最も性能のよかった`DF-CO'というスコア関数を用いた.},英日方向では再現率は$B$を用いる場合の方が1\%程度高く,逆に精度は$B_P,B_S$を用いる場合の方が1\%弱高かった.一方,日英方向では,$B_P,B_S$を用いる場合の方が,再現率は1\%弱高く,精度は数\%高かった.この結果を総合的に判断して,本論文では,部分対応対訳辞書として$B_P,B_S$を用いることとした.表\ref{tab:entry_number}に,英辞郎,対訳辞書$P_2$,および,部分対応対訳辞書$B_P,B_S,B$における,見出し語の数\footnote{英辞郎は英日辞書であるので,本来は日本語の見出し語は存在しない.本論文では英辞郎を編集することによって日英版を作成したので,表\ref{tab:entry_number}にはその見出し語数を掲載している.}と訳語対の個数を示す.\begin{table}[t]\small\centering\caption{対訳辞書の見出し語数と訳語対数}\label{tab:entry_number}\begin{tabular}{|c|r|r|r|}\hline\multirow{2}{*}{対訳辞書}&\multicolumn{2}{c|}{見出し語数}&訳語対の個数\\\hhline{|~|--|~|}&\multicolumn{1}{c|}{英語}&\multicolumn{1}{c|}{日本語}&\\\hline英辞郎&1,292,117&1,228,750&1,671,230\\$P_2$&217,861&186,823&235,979\\$B_P$&37,090&34,048&95,568\\$B_S$&20,315&19,345&62,419\\$B$&48,000&42,796&147,848\\\hline\end{tabular}\begin{tabular}{ccl}英辞郎&:&既存の汎用対訳辞書(Ver.79)\\$P_2$&:&両言語とも2構成要素からなる英辞郎の訳語対の集合\\$B_P$&:&前方一致部分対応対訳辞書$B_P$\\$B_S$&:&後方一致部分対応対訳辞書$B_S$\\$B$&:&部分対応対訳辞書$B$\end{tabular}\end{table}\subsection{訳語候補の生成}\label{sec:generation}本節及び次節において,\ref{sec:bcl}節で準備した対訳辞書及び,\ref{sec:corpus}節で述べた専門分野コーパスまたはウェブ全体を利用して,与えられた専門用語の訳語推定を要素合成法によって行う方法の詳細を述べる.本節では,要素合成法により訳語候補を生成する過程を定式化する.そして,次節で,本論文で実際に評価した訳語候補のスコア関数の詳細について述べる.まず,$y_S$を訳語推定すべき専門用語とする.ここで,$S$が英語であれば$w_i$を単語,$S$が日本語であれば$w_i$を形態素として,$y_S$は以下のように$w_i$の列で表される.\begin{equation}\label{eq:y_S}y_S=w_1,w_2,\ldots,w_m\end{equation}例えば,$y_S$が“応用行動分析”であれば,$w_1=$“応用”,$w_2=$“行動”,$w_3=$“分析”となる.要素合成法では,対訳辞書中の訳語対の見出し語と照合する用語は,一個以上の単語もしくは形態素から構成されると考える.そして,$y_S$を一個以上の単語もしくは形態素から構成される単位に分割し,各単位の訳語を結合することにより訳語候補を生成する.以下,まず$y_S$を上記の単位$s_j$の列に分割する.\begin{equation}y_S=w_1,w_2,\ldots,w_m\equivs_1,s_2,\ldots,s_n\end{equation}ただし,各$s_j$は一個以上の$w_i$の列を表す.例えば,$y_S$を“応用行動分析”とすると,以下の3通りの分割が考えられる\footnote{\ref{sec:evaluation_set}節で導入する評価用用語集合では,訳語推定すべき用語$y_S$全体が英辞郎に含まれる用語は除外している.これを除くと,この例の場合,3通りの分割が考えられる.}.\begin{equation}\begin{array}{l}\label{eq:bunkatsu_ouyou}s_1=\mbox{“応用”,}\s_2=\mbox{“行動分析”}\\s_1=\mbox{“応用”,}\s_2=\mbox{“行動”,}\s_3=\mbox{“分析”}\\s_1=\mbox{“応用行動”,}\s_2=\mbox{“分析”}\end{array}\end{equation}また,$y_S$を``appliedbehavioranalysis''とすると,以下の3通りの分割が考えられる\begin{equation}\begin{array}{l}\label{eq:bunkatsu_applied}s_1=\mbox{``applied'',}\s_2=\mbox{``behavioranalysis''}\\s_1=\mbox{``applied'',}\s_2=\mbox{``behavior''},\s_3=\mbox{``analysis''}\\s_1=\mbox{``appliedbehavior'',}\s_2=\mbox{``analysis''}\end{array}\end{equation}次に,対訳辞書から得られた$s_i$の訳語を$t_i$とすると,$y_S$の訳語候補$y_T$は,以下のように$y_S$と同じ語順で構成される\footnote{\label{fn:of_hyphen}英語の専門用語の中には``angleofradiation''のように前置詞を含むものがある.この用語の日本語訳語は「放射角」であるが,英語用語と日本語用語の間で双方向に適切な訳語候補として生成できるようにするためには,``of''の前後の語順の入れ替えや``of''を挿入または削除する操作を考慮する必要がある.本論文では,上記の場合も含めて,以下の様な英語・日本語の用語の組において,双方向に訳語候補の生成ができるような規則を実装した.\begin{eqnarray*}\mbox{英語の用語\\\\\}&&\mbox{日本語の用語}\\\left.\begin{array}{@{\,}ll}\mbox{angleofradiation}\\\mbox{radiationangle}\end{array}\right\}&\Longleftrightarrow&\left\{\begin{array}{@{\,}ll}\mbox{放射角}\\\mbox{放射の角}\end{array}\right.\end{eqnarray*}なお,本論文では前置詞``of''のみに関してこの規則を実装した.また,〈光ファイバーケーブル,optical-fibercable〉のように,英語または日本語の用語どちらかにのみ,ハイフン記号を含む場合がある.このような場合に双方向に訳語候補生成を行うためには,ハイフンの挿入及び削除を考慮する必要がある.前置詞を含む場合と同様に,ハイフンが挿入または削除される可能性を考慮した訳語候補生成を行う規則を実装した.}.\begin{equation}y_T=t_1,t_2,\ldots,t_n\end{equation}そして,訳語候補$y_T$にスコアを与えることを考える.先行研究と同様に,本論文においても,対訳辞書を用いて$y_S$と$y_T$の対応の適切さを推定し,スコアを与える(これを対訳辞書スコアと呼ぶ.).ただし,$y_T$全体の対訳辞書スコアは,訳語対$\langles_i,t_i\rangle$のスコア$q(\langles_i,t_i\rangle)$の積で構成される.また,それとは別に,目的言語コーパス中で訳語候補$y_T$がどの程度出現するかによって$y_T$の適切さを評価し,スコアを与える(これをコーパススコア$Q_{corpus}(y_T)$と呼ぶ.).訳語候補$y_T$のスコアは,この2つのスコアの積により構成されるとする.\begin{equation}\label{eq:score_one}\prod_{i=1}^{n}q(\langles_i,t_i\rangle)\cdotQ_{corpus}(y_T)\end{equation}(ただし,訳語対のスコア$q$とコーパススコア$Q_{corpus}$の詳細は\ref{sec:score_details}節で述べる.)実際には,例(\ref{eq:bunkatsu_ouyou}),(\ref{eq:bunkatsu_applied})で示したように,$y_S$には複数の分割の仕方が考えられるので,本論文ではそれぞれの分割の仕方に対して式(\ref{eq:score_one})によりスコアを計算し,それらの和を訳語候補$y_T$のスコアとする.\begin{equation}\label{eq:score}Q(y_S,y_T)=\sum_{y_S=s_1,s_2,\ldots,s_n}\prod_{i=1}^{n}q(\langles_i,t_i\rangle)\cdotQ_{corpus}(y_T)\end{equation}例えば,$y_S=$“応用行動分析”,$y_T$=``appliedbehavioranalysis''の場合を考える.訳語対$\langley_S,y_T\rangle$が既存の対訳辞書に含まれず,かつ,訳語対〈“応用”,``applied''〉,〈“行動”,``behavior''〉,〈“分析”,``analysis''〉,〈“行動分析”,``behavioranalysis''〉が既存の対訳辞書に含まれるとき,$y_T$を生成することができる$y_S$の分割を,$y_T$の生成に用いる訳語対と共に以下に示す.\begin{itemize}\item$s_1=\mbox{“応用”,}\s_2=\mbox{“行動”,}\s_3=\mbox{“分析”}$\\〈“応用”,``applied''〉,〈“行動”,``behavior''〉,\\〈“分析”,``analysis''〉\item$s_1=\mbox{“応用”,}\s_2=\mbox{“行動分析”}$\\〈“応用”,``applied''〉,〈“行動分析”,``behavioranalysis''〉\end{itemize}$\langley_S,y_T\rangle$のスコアは,上記の2通りの分割に対して,それぞれ対訳辞書スコアとコーパススコアの積を求めたものの和となる.次に,訳語候補生成の方法を説明する.単語または形態素数の多い用語の訳語推定を行う場合,単語または形態素の訳語のすべての組み合せを生成すると,計算機のメモリ消費量が指数関数的に増えてしまう.そこで,本論文では,この問題を避けるために,動的計画法のアルゴリズムを採用し,訳語候補の生成と枝刈りを行う.式(\ref{eq:y_S})で,訳すべき用語$y_S$を以下のように単語または形態素の列で定義した.\[y_S=w_1,w_2,\ldots,w_m\]ここで,単語または形態素$w_i$の区切りの位置に,位置を表すラベル$0,\ldots,m$を付与する.\begin{equation}y_S=\_0\w_1\_1\w_2\_2\\cdots\_{m-1}\w_m\_{m}\end{equation}この位置を表すラベルを利用して,位置$i$と位置$j$の間の単語または形態素の列を表す記号$w_{j,k}$を導入する.\begin{equation}w_{j,k}\equivw_{j+1},w_{j+2},\ldots,w_{k}\end{equation}ただし,$w_{0,0}\equiv\varepsilon$とする.ここで,$\varepsilon$は空文字を表すものとし,$y$を1つ以上の単語または形態素の列とすると$\varepsilony=y$とする.まず,動的計画法による$y_S$の訳語推定の概略を述べる.先頭から$k$番目までの単語または形態素の列$w_{0,k}$に対して生成された訳語候補の集合を$Tran(w_{0,k})$とすると,$y_S=w_{0,m}=w_{1},\ldots,w_{m}$の訳語を得るには$Tran(y_S=w_{0,m})$からスコア1位の訳語候補を取り出せばよい.ここで,各$Tran(w_{0,k})$$(k=1,\ldots,m)$は以下の式に従って,再帰的に計算される.\begin{equation}\label{eq:Tran_calc}\begin{array}{ll}Tran(w_{0,k})=top(\hspace{-0.2cm}&merge(\\bigcup\limits_{i=0}^{k-1}concat(Tran(w_{0,i}),\tran(w_{i,k}))),\\&r\)\end{array}\end{equation}この式では,$w_{0,k}=w_{1},\ldots,w_{k}$をある位置$i$で$w_{0,i}=w_{1},\ldots,w_{i}$と$w_{i,k}=w_{i+1},\ldots,w_{k}$の2つに分割する.分割の場所$i$は先頭$i=0$から順に$i=k-1$まで移動させていく.それぞれの分割の仕方において,$w_{0,i}$に対しては再帰的に訳語候補の集合$Tran(w_{0,i})$を求め,$w_{i,k}$に対しては$w_{i,k}$を見出し語として対訳辞書から訳語の集合$tran(w_{i,k})$を得る.そして,両者を$concat$により結合することにより,新しい訳語候補を生成する.このとき,同一の訳語候補が複数の異なる分割の仕方から生成される場合がある.その場合は,$merge$により,それらの訳語候補のスコアがまとめられる.最後に,$top$によりスコア上位$r$個の訳語候補のみ出力することで,訳語候補の枝刈りを行い,この出力を$Tran(w_{0,k})$とする.実際に式(\ref{eq:Tran_calc})を用いて,図\ref{fig:compositional}の例をもとに$y_S$=“応用”,“行動”,“分析”の訳語候補の集合$Tran(y_S=w_{0,3})$が生成される様子を説明する.ただし,ここでは枝刈り後出力される訳語候補数$r$を3とする.式(\ref{eq:Tran_calc})の$i=0,\ldots,k-1$のループに注目すると,以下のように訳語候補が生成されていくことがわかる.\begin{description}\item[($i=0$)]$w_{0,3}$は$w_{0,0}=\varepsilon$と$w_{0,3}=$“応用”,“行動”,“分析”に分割される.$w_{0,3}=$“応用”,“行動”,“分析”は対訳辞書に訳語がないので,$concat$の出力は空集合となる.\item[($i=1$)]$w_{0,3}$は$w_{0,1}=$“応用”と$w_{1,3}=$“行動”,“分析”に分割される.$Tran(w_{0,1})$により,$w_{0,1}$の訳語候補の集合を再帰的に求め,$tran(w_{1,3})$により,対訳辞書から得られる$w_{1,3}$の訳語の集合を求める.そして,それらの訳語候補を$concat$により結合し訳語候補を生成する.$Tran(w_{0,1})=\{$``application'',``practical'',``applied''$\}$,$tran(w_{1,3})=\{$``behavioranalysis''$\}$のとき生成される訳語候補を以下に示す.\begin{itemize}\item``applicationbehavioranalysis''\item``practicalbehavioranalysis''\item``appliedbehavioranalysis''\end{itemize}\item[($i=2$)]$w_{0,3}$は$w_{0,2}=$“応用”,“行動”と$w_{2,3}=$“分析”に分割される.$Tran(w_{0,2})$により,$w_{0,2}$の訳語候補の集合を再帰的に求め,$tran(w_{2,3})$により,対訳辞書から得られる$w_{2,3}$の訳語の集合を求める.そして,それらの訳語候補を$concat$により結合し訳語候補を生成する.$Tran(w_{0,2})=\{$``appliedaction'',``appliedactivity'',``appliedbehavior''$\}$,$tran(w_{2,3})=\{$``analysis'',``diagnosis'',``assay''$\}$のとき生成される訳語候補を以下に示す.\begin{itemize}\item``appliedactionanalysis''\item``appliedactiondiagnosis''\item``appliedactionassay''\item``appliedactivityanalysis''\item``appliedactivitydiagnosis''\item``appliedactivityassay''\item``appliedbehavioranaylysis''\item``appliedbehaviordiagnosis''\item``appliedbehaviorassay''\end{itemize}\end{description}以上の操作が終了したら,$y_S$に対して複数個の訳語候補が生成された状態となる.生成された訳語候補に同じものが存在した場合,関数$merge$によりこれらがまとめられ,最後に関数$top$によりスコア上位$r$個の訳語候補が出力される.\subsection{訳語候補のスコア付け}\label{sec:score_details}\subsubsection{対訳辞書スコア}\label{sec:lexicon_score}訳語推定対象の用語$y_S$と訳語候補$y_T$の対応の適切さを対訳辞書を用いて測定するための「対訳辞書スコア」を\ref{sec:generation}節で導入した.この対訳辞書スコアは,訳語候補$y_T$を生成するときに使用した訳語対$\langles_i,t_i\rangle$のそれぞれの適切さを関数$q$により測定し,それらの積で計算されるものであった.本節では,対訳辞書に基づいて訳語対$\langles_i,t_i\rangle$のスコアを計算するための関数$q$を2種類定義する.\subsubsection*{頻度-長さ(DF)}``naturallanguageprocessing''という用語が,既存の対訳辞書に含まれないため,訳語推定の対象となる場合を考える.〈``natural'',“自然な”〉,〈``language'',“言語”〉,〈``processing'',“処理”〉の3つの訳語対から生成される“自然な言語処理”という訳語候補よりも,〈``naturallanguage'',“自然言語”〉のような単語数または形態素数の多い訳語対と〈``processing'',“処理”〉を利用して得られる訳語候補“自然言語処理”の方が信頼度が高いと思われる.また,表~\ref{tab:entry_number}の部分対応対訳辞書に含まれる訳語対は,英辞郎に含まれる複合語の訳語対から,英語及び日本語の構成要素の訳語対応を推定することにより作成された訳語対であるため,対訳辞書$P_2$に出現する頻度の少ない訳語対よりも,出現する頻度の多い訳語対の方が信頼度が高いと思われる.以上のような,訳語対の長さと頻度に基づく経験的な選好に基づいて,訳語対を順位付けする方法について述べる.まず,スコア付けの対象となる対訳辞書の訳語対は,以下のように分類できる.\begin{itemize}\item英辞郎の訳語対(利用できる情報:単語数または形態素数)\begin{itemize}\item単語数または形態素数が2以上の訳語対((a)とする)\item1単語または1形態素の訳語対((b)とする)\end{itemize}\item部分対応対訳辞書の訳語対(利用できる情報:対訳辞書$P_2$に出現する頻度)((c)とする)\end{itemize}ここではスコア付けの方針を決める問題を,上記の(a),(b),(c)で示した3種類の訳語対の間に優先順位を付けることに帰着させて考える.(a),(b),(c)の優先順位として,本論文では,まず,(a)の訳語対に与えるスコアを極めて高く設定し,(b)または(c)の訳語対のスコアを必ず上回るようにする.次に,(b)と(c)の訳語対の間のスコアの大小関係については,(c)の訳語対が対訳辞書$P_2$に出現する頻度に閾値を設け,(c)の訳語対の頻度が頻度閾値と同じであれば,(b)の訳語対のスコアと同じにし,(c)の訳語対の頻度が頻度閾値より大きければ,(b)の訳語対のスコアより大きくし,そして,(c)の訳語対の頻度が頻度閾値より小さければ,(b)の訳語対のスコアより小さくする.本論文では,この頻度閾値を10に設定した.この頻度閾値を変化させることにより,英辞郎に含まれる1単語または1形態素の訳語対のスコアと,部分対応対訳辞書に含まれる訳語対のスコアの大小関係が変化するため,訳語推定の性能にもある程度影響を与える.しかしながら,本論文の目的は,コーパスとしてウェブ全体を用いる方法と,ウェブから収集した専門分野コーパスを利用する方法の比較にあるので,最適なパラメータの値の追求は行わなかった.この優先順位を実現するため,英辞郎の訳語対のスコアには単語数または形態素数を指数とする関数を用い,部分対応対訳辞書の訳語対のスコアには頻度の対数を用いることで,単語数または形態素数が2以上の英辞郎の訳語対のスコアが,部分対応対訳辞書の訳語対のスコアよりも大きくなるようにした.訳語対$\langles,t\rangle$のスコア$q(\langles,t\rangle)$の定義として,以下の式を採用する.\begin{equation}\label{eq:DF}q(\langles,t\rangle)=\left\{\begin{array}{ll}10^{(compo(s)-1)}&\mbox{($\langles,t\rangle$in英辞郎)}\\\log_{10}f_p(\langles,t\rangle)&\mbox{($\langles,t\rangle$in}B_P\mbox{)}\\\log_{10}f_s(\langles,t\rangle)&\mbox{($\langles,t\rangle$in}B_S\mbox{)}\end{array}\right.\end{equation}ここで,$compo(s)$は$s$の単語または形態素の数を表すものとし,$f_p(\langles,t\rangle)$は,$P_2$中に第一要素として$\langles,t\rangle$が出現する回数を表すものとし,$f_p(\langles,t\rangle)$は,$P_2$中に第二要素として$\langles,t\rangle$が出現する回数を表すものとする.式(\ref{eq:DF})では,対数関数の底の値が部分対応対訳辞書の訳語対の頻度閾値に対応する.すなわち,部分対応対訳辞書の訳語対で対訳辞書$P_2$に10回出現する訳語対と,英辞郎に含まれる1単語または1形態素の訳語対のスコアが等しくなる.なお,このスコアでは,部分対応対訳辞書に一度しか現れない訳語対のスコアはゼロとなる.この場合,訳語として利用しないものとする.式(\ref{eq:DF})に示した訳語対のスコア関数の積で定義される対訳辞書スコアを,以下ではDFと呼ぶものとする.\subsubsection*{確率(DP)}\cite{Fujii00}は,対訳辞書に基づく$y_S$と$y_T$の対応の適切さを,確率$P(y_S|y_T)$を計算することにより評価した.このスコアは,条件付き確率$P(s_i|t_i)$の積で定義される.\cite{Fujii00}は対訳辞書として部分対応対訳辞書$B$のみを用いているため,同じ設定とするには,本論文でも部分対応対訳辞書$B$のみを用いなければならない.しかしながら,部分対応対訳辞書$B$のみを用いた実験を行った結果,英辞郎と部分対応対訳辞書$B$を併用する場合に比べ,訳語推定の性能(精度・再現率)が10\%前後も低いことがわかった.このため,本論文では,部分対応対訳辞書$B$に加え英辞郎も用いて,条件付き確率$P(s_i|t_i)$に基づく対訳辞書スコアを評価することとした.本論文では,英辞郎と部分対応対訳辞書$B$を併用できるようにするために,以下の式に示す拡張を行った.\begin{eqnarray}&q(\langles,t\rangle)=P(s|t)=\frac{f_{prob}(\langles,t\rangle)}{\sum_{s_j}f_{prob}(\langles_j,t\rangle)}&\label{eq:DP1}\\&f_{prob}(\langles_j,t\rangle)=\begin{cases}10&\text{($\langles,t\rangle$in英辞郎)}\\f_B(\langles_j,t\rangle)&\text{($\langles,t\rangle$inB)}\end{cases}&\label{eq:DP2}\end{eqnarray}上式では,英辞郎の訳語対の頻度は10とみなすものとした\footnote{辞書スコア`DF'では,頻度10の部分対応対対訳辞書の訳語対のスコアと,構成要素長が1の用語の英辞郎の訳語のスコアと同じにしている.これに合わせるため,英辞郎の訳語対の頻度を10とみなすものとした.}.式(\ref{eq:DP1}),(\ref{eq:DP2})に示した訳語対のスコア関数から計算される対訳辞書スコアを以下ではDPと呼ぶものとする.\subsubsection{コーパスに基づくスコア}\label{sec:corpus_score}訳語候補$y_T$の適切さを目的言語コーパスを用いて測定するための「コーパススコア」を\ref{sec:generation}節で導入した.本論文では,コーパススコアとして以下に示す3種類を評価した.\begin{itemize}\item頻度(CF):目的言語コーパスにおける訳語候補$y_T$の生起頻度\begin{equation}Q_{corpus}(y_T)=freq(y_T)\end{equation}\item確率(CP):以下のバイグラムモデルによって推定される,訳語候補$y_T$の生起確率.\cite{Fujii00}で用いられたコーパススコアの評価を目的とする.本来は$t_i$を単語または形態素とすべきであるが,実装の都合上,$t_i$を対訳辞書から得られた訳語とする.したがって,$t_i$は1つ以上の単語または形態素から構成される\footnote{前節で述べたように,\cite{Fujii00}のスコア関数の評価に際しては,対訳辞書スコアにおいて,部分対応対訳辞書$B$と英辞郎を併用している.ここで,英辞郎の訳語には複数の単語または形態素で構成されるものがあるが,このような場合,厳密には,訳語を単語また形態素に分割して,単語また形態素のバイグラムに基づいて式(\ref{eq:CP})の計算をしなければならない.しかしながら,実装上の手間を避けるため,ここでは,対訳辞書から得られた訳語をそのまま用い,$t_i$は1つ以上の単語または形態素から構成されるとした.}.\pagebreak\begin{equation}\label{eq:CP}Q_{corpus}(y_T)=P(t_1)\cdot\prod_{i=1}^{n-1}P(t_{i+1}|t_i)\end{equation}\item生起(CO):目的言語コーパスに訳語候補$y_T$が生起するかどうか\begin{equation}Q_{corpus}(y_T)=\begin{cases}1&\text{$y_T$がコーパス中に生起する}\\0&\text{$y_T$がコーパス中に生起しない}\end{cases}\end{equation}\end{itemize}\subsubsection{スコア関数}\begin{table}[b]\small\centering\caption{訳語候補のスコア関数と構成要素}\label{tab:param_method}\begin{tabular}{|c||c|c||c|c|c||c|c|}\hline&\multicolumn{2}{|c||}{対訳辞書スコア}&\multicolumn{3}{|c||}{コーパススコア}&\multicolumn{2}{|c|}{コーパス}\\\cline{2-8}スコア関数&頻度-長さ&確率&頻度&確率&生起&専門分野&ウェブ\\&(DF)&(DP)&(CF)&(CP)&(CO)&コーパス&全体\\\hline\hlineDF-CF&p/f&&p/f&&&o&\\\hlineDF-CF${\rm_f}$&p/f&&f&&&o&\\\hlineDF-CP&p/f&&&p/f&&o&\\\hlineDF-CO&p/f&&&&p/f&o&\\\hlineDF-CO${\rm_f}$&p/f&&&&f&o&\\\hlineDP-CF&&p/f&p/f&&&o&\\\hlineDP-CP&&p/f&&p/f&&o&\\\hlineCF&&&p/f&&&o&\\\hlineCP&&&&p/f&&o&\\\hline\hlineDF-CF${\rm_f}$-w&p/f&&f&&&&o\\\hlineDF-CO${\rm_f}$-w&p/f&&&&f&&o\\\hline\hlineDF&p/f&&&&&&\\\hline\end{tabular}\vspace{4pt}p(prune):枝刈りに利用,f(final):最終スコアに利用\end{table}表\ref{tab:param_method}に示すように,本論文では,辞書に基づくスコアとコーパスに基づくスコアに対して,12種類の組み合せのスコア関数を作成し評価を行った.この表において,`p(prune)'は,動的計画法のアルゴリズムを用いた訳語候補生成の過程において,式(\ref{eq:Tran_calc})の$top$を実行することで,生成された訳語候補の部分列の順位付けと枝刈りにそのスコアが用いられることを示す.`f(final)'は,生成された訳語候補の最終結果の順位付けにそのスコアが用いられることを示す.また,列`コーパス'において,`専門分野コーパス'は,あらかじめウェブから専門分野コーパスを収集し,その後,このコーパスを用いて生成された訳語候補の検証を行うことを示す.`ウェブ全体'は,サーチエンジンを通してウェブ全体を利用して訳語候補の検証を行うことを示す.スコア関数の命名方法は,`対訳辞書スコア名-コーパススコア名'の原則に基づく.例えば,スコア関数`DF-CO'は,対訳辞書スコアに`DF'を用い,コーパススコアに`CO'を用いたスコア関数である.ここで,式(\ref{eq:Tran_calc})の$top$による訳語候補の枝刈りについて考えると,不要な候補を早い段階で削減するため,基本的には対訳辞書スコアとコーパススコアの両方を用いるべきである.しかしながら,コーパスとしてウェブ全体を用いる場合は,サーチエンジンの検索に要する時間を考慮すると,訳語候補の生成過程でコーパススコアを利用することは効率的ではない.そこで,訳語候補の枝刈りにはコーパススコアを用いず,訳語候補の最終的なスコア計算のみにコーパススコアを用いる.コーパススコアを枝刈りに用いない場合は,`DF-CO${\rm_f}$'の様に,コーパススコア名の後ろに`${\rm_f}$'を付加する.そして,コーパスとしてウェブ全体を用いる場合は,`DF-CO${\rm_f}$-w'の様に,`-w'を付加する.本論文で評価したスコア関数は,コーパススコアの計算において用いるコーパスの違いにより,ウェブから収集した専門分野コーパスを用いるタイプ,サーチエンジンを通してウェブ全体を用いるタイプ,コーパスを一切用いないタイプの,3つのタイプに分けることができる.対訳辞書スコアには,訳語対が部分対応対訳辞書に出現する頻度と訳語対の構成要素長に基づく`DF'と,条件付き確率$P(s|t)$に基づく`DP'の2つがある.コーパススコアには,訳語候補がコーパスに生起する頻度に基づく`CF',訳語候補がコーパスに生起する確率に基づく`CP',訳語候補がコーパスに生起するか否かに基づく`CO'の3つがある.ここで,\ref{sec:evaluation}節で示す実験結果においては,対訳辞書`DF'を用いたスコア関数と`DP'を用いたスコア関数の間で性能に大きな差はないが,`DF'を用いた方が若干精度が高かった.そこで本論文では,精度を重視する立場に立ち,対訳辞書スコアとして主に`DF'を用いて評価を行う\footnote{本論文の焦点は,ウェブから収集した専門分野コーパスを用いる方法と,サーチエンジンを通してウェブ全体を用いる方法の比較にある.従って,定義し得るスコア関数を網羅的に評価することは行っていない.}.以下,本論文で実際に評価した辞書スコアとコーパススコアの組み合わせについて説明する.コーパスとしてウェブから収集した専門分野コーパスを用いる場合には,対訳辞書スコア`DF'を用いたスコア関数とコーパススコアとの組み合わせでは,`CF',`CP',`CO'の3種類を網羅したが,それらの性能に大差はなかった.そこで,対訳辞書スコア`DP'では,大きく性質の異なるコーパススコアである`CF',`CP'との組み合わせを評価した.ここで,スコア関数`DP-CP'は,\cite{Fujii00}で提案されたモデルに,部分対応対訳辞書に加え英辞郎自体も用いることができるように拡張を加えたスコア関数である.一方,コーパスとしてウェブ全体を用いる場合は,辞書スコアとしては`DF'を用いた.また,コーパススコア`CP'は,`CF'や`CO'と比べ,サーチエンジンの検索回数が多くなるので,評価の対象から除外した.さらに,上述したように,サーチエンジンの検索時間の都合で,コーパススコアによる枝刈りは行わない.以上をまとめると,コーパスとしてウェブ全体を用いるスコア関数としては,`DF-CF${\rm_f}$-w'と`DF-CO${\rm_f}$-w'の2種類を評価する.そして,この2つのスコア関数との直接的な比較のため,ウェブから収集した専門分野コーパスを用いるスコア関数として,コーパススコアによる枝刈りを行わないDF-CF${\rm_f}$とDF-CO${\rm_f}$についても評価を行う.最後に,対訳辞書スコアまたはコーパススコアどちらかのみを用いるスコア関数の評価のために,次のスコア関数を評価する.辞書スコアのみで訳語候補のスコア付けをした場合の評価のため,スコア関数`DF'を評価する\footnote{\ref{sec:evaluation}節の評価実験では,スコア関数`DF'は極めて低いF値であった.本論文ではスコア関数`DP'は評価していないが,同様の傾向であると思われる.}.コーパススコアのみで訳語候補のスコア付けをした場合の評価のため,スコア関数`CF'及び`CP'を評価する\footnote{スコア関数`CO'は,辞書スコアは利用せずコーパススコア`CO'のみを用いるスコア関数であるが,訳語候補のスコアが0か1となってしまい,順位付けできないので取り扱わない.}.
\section{実験と評価}
\label{sec:experiments}\subsection{評価用用語集合}\label{sec:evaluation_set}\begin{table}[b]\small\centering\caption{評価用用語の数}\label{tab:mondai_number}\begin{tabular}{|c|c|r|r|r|r|r|}\hline\multirow{2}{*}{辞書}&\multirow{2}{*}{分野}&\multirow{2}{*}{$|Y_{S}|$}&\multicolumn{2}{|c|}{$S$=英語}&\multicolumn{2}{|c|}{$S$=日本語}\\\hhline{|~|~|~|--|--|}&&&$|X_S^U|$&MBytes&$|X_S^U|$&MBytes\\\hline\hlineマグローヒル&電磁気学&30&36&28&32&99\\科学技術用語&電気工学&41&34&21&25&71\\大辞典&光学&31&42&37&22&48\\\hline岩波&プログラム言語&28&37&34&38&135\\情報科学辞典&プログラミング&28&29&33&29&110\\\hline英和コンピュータ&\multirow{2}{*}{(コンピュータ)}&\multirow{2}{*}{99}&\multirow{2}{*}{91}&\multirow{2}{*}{67}&\multirow{2}{*}{69}&\multirow{2}{*}{232}\\用語大辞典&&&&&&\\\hline&解剖学&91&91&73&33&66\\25万語&疾患&86&91&83&53&100\\医学用語大辞典&化学物質及び薬物&84&94&54&74&131\\&物理化学及び統計学&99&88&56&58&135\\\hline\hline\multicolumn{2}{|c|}{合計}&617&633&482&433&1127\\\hline\end{tabular}\end{table}実験では,図\ref{fig:overview1}で示したように,既存の対訳辞書に含まれている用語と含まれていない用語が混在した形で複数の専門用語が与えられるものとし,既存の対訳辞書に載っていない用語の訳語推定の評価を行う.本論文では,言語$\langleS,T\rangle$の組を〈英語,日本語〉または,〈日本語,英語〉とする.評価セットを作成するため,まず,表\ref{tab:mondai_number}に示す既存の4種類の日英専門用語対訳辞書「マグローヒル科学技術用語大辞典」\cite{dic-McGraw-Hill},「岩波情報科学辞典」\cite{dic-iwanami-info},「英和コンピュータ用語大辞典」\cite{dic-computer},「25万語医学用語大辞典」\cite{dic-25igaku}の10分野から,以下の条件を満たす2種類の訳語対集合を無作為に選定した.1種類目は,英辞郎にも訳語対として存在し,かつ英語用語・日本語用語共にヒット数が100以上の訳語対であり,この種類の訳語対の集合を既知訳語対集合$X_{ST}$とする.2種類目は,以下の条件を満たす訳語対$\langlet_e,t_j\rangle$の集合であり,これを未知訳語対集合$Y_{ST}$とする.ただし,$t_e$は英語の用語,$t_j$は日本語の用語を表すものとする.\begin{itemize}\item$t_e$,$t_j$共に英辞郎に見出し語として存在しない\item$t_e$は2語以上,$t_j$は2形態素以上からなる\item$t_e$及び$t_j$のヒット数は10以上\end{itemize}次に,$S=英語$,$S=日本語$,それぞれの場合において,既知訳語対集合$X_{ST}$から,英辞郎に含まれる訳語が一個の用語の集合$X_S^U$を作成した.そして,\ref{sec:corpus}節で述べた方法で,$X_S^U$の用語に対して,それら用語の英辞郎に含まれる訳語の集合$X_T^U$を利用して,各分野毎にウェブから専門分野コーパスを収集した.同様に,$S=英語$,$S=日本語$,それぞれの場合において,未知訳語対集合$Y_{ST}$から,評価用用語集合$Y_S$を作成した.そして,$Y_S$のそれぞれの用語に対して,未知訳語対集合$Y_{ST}$にもともと含まれる訳語に加えて,必要であれば人手で一個以上の正解訳語を付与した.この結果,正解訳語の個数の平均は,$S=英語$のとき1.31個,$S=日本語$のとき1.62個となった.10分野のそれぞれに対して,表~\ref{tab:mondai_number}に$X_S^U$及び$Y_{S}$に含まれる用語の個数,及び,ウェブから収集したコーパスのサイズを分野毎に示す.続いて,$Y_S$及び,それに属する用語の正解訳語の性質について述べる.$Y_S$に属する用語の構成要素数の平均は,$S$が英語のとき2.28語(2語の用語は437個で全体の70.8\%,3語以上の用語は180個で全体の29.2\%),$S$が日本語のとき2.47形態素(2形態素の用語は396個で全体の64.2\%,3形態素以上の用語は221個で全体の35.8\%)であった.また,$Y_S$の用語とその正解訳語が構成的に対応しているかどうかを調べると,$S$が英語のとき90.6\%,$S$が日本語のとき92.5\%であった\footnote{\ref{sec:intro}章では,未知訳語対集合$Y_{ST}$に含まれる訳語対が構成的かどうかを調査した結果を述べている.これに対して,本節では,未知訳語対集合$Y_{ST}$に含まれる訳語対に対して,新たに人手で正解訳語を追加したものに対して構成的かどうか評価を行っているので,\ref{sec:intro}章の結果よりも割合が増加し,また,$S$が英語のときと日本語のときで割合も異なる.}.\begin{figure}[t]\centering\includegraphics[width=300pt]{jnlp-compo-fig-benzu.eps}$t\inY_S,S(t)\mbox{は$t$の正解訳語の集合}$\begin{align*}T_g&=\{t|\existss\inS(t),s\mbox{は生成可能}\}\\T_c&=\{t|\existss\inS(t),s\mbox{はコーパスに存在}\}\\T_{gc}&=\{t|\existss\inS(t),s\mbox{は生成可能かつ}s\mbox{はコーパスに存在}\}\end{align*}\caption{正解訳語の生成可能性/コーパス中の出現による集合$Y_S$の部分集合の分類}\label{fig:benzu}\end{figure}次に,集合$Y_S$の用語のどの程度が訳語推定可能かを調べるために,$Y_S$の部分集合として,図\ref{fig:benzu}に示す$T_g$,$T_c$,$T_{gc}$を定義する.$T_g$は,対訳辞書として英辞郎と部分対応対訳辞書$B_P$,$B_S$を利用して,\ref{sec:generation}節で述べた方法で,出力される訳語候補数$r$を無限大にしたときに,正解訳語を生成可能な用語の集合である.$T_c$は,その用語が属する分野の専門分野コーパスに正解訳語が含まれている用語の集合である.$T_{gc}$は,図\ref{fig:benzu}に示したように,生成可能かつ専門分野コーパスに含まれる正解訳語が存在するという条件を満たす用語の集合である.言い換えると,英辞郎,および部分対応対訳辞書$B_P$,$B_S$を用いた訳語候補生成手法において,専門分野コーパスを利用した場合には,$T_{gc}$に属する用語に対してのみ,正解訳語を生成できる可能性がある\footnote{コーパススコア`CP'を用いた場合は,訳語推定対象の用語が$T_g$に属し,かつ,コーパススコアの確率の各項$P(t_1)$,$P(t_{i+1}|t_i)$がゼロでなければ,正解訳語そのものがコーパスに存在しなくても,正解訳語を生成できる可能性が{\linebreak}ある.}.$T_g$と$T_c$の積集合の中には,生成可能かつ専門分野コーパスに含まれる正解訳語が存在しない用語も含まれているが,このような用語に対しては正解訳語を生成することができない.$T_{gc}$は,$T_g$と$T_c$の積集合の部分集合となっていることに注意されたい.\begin{table}[t]\small\centering\caption{英辞郎と部分対応対訳辞書$B_P,B_S$における正解訳語の生成可能性と正解訳語がコーパスに存在するかどうかの調査}\label{tab:seiseika}\begin{tabular}{|c|r|r|r|r|r|r|}\hline&\multicolumn{3}{|c|}{英語→日本語}&\multicolumn{3}{|c|}{日本語→英語}\\\cline{2-7}&&コーパス&生成可能かつ&&コーパス&生成可能かつ\\\raisebox{0.5\normalbaselineskip}[0cm][0cm]{分野}&生成可能&に存在&コーパスに存在&生成可能&に存在&コーパスに存在\\&\multicolumn{1}{|c|}{($T_g$)}&\multicolumn{1}{|c|}{($T_c$)}&\multicolumn{1}{|c|}{($T_{gc}$)}&\multicolumn{1}{|c|}{($T_g$)}&\multicolumn{1}{|c|}{($T_c$)}&\multicolumn{1}{|c|}{($T_{gc}$)}\\\hline\hline電磁気学&60\%&93\%&57\%&87\%&90\%&73\%\\電気工学&71\%&78\%&59\%&71\%&68\%&51\%\\光学&61\%&65\%&35\%&71\%&68\%&52\%\\プログラム言語&86\%&93\%&79\%&82\%&100\%&82\%\\プログラミング&75\%&96\%&71\%&82\%&86\%&75\%\\コンピュータ&74\%&52\%&34\%&80\%&61\%&46\%\\解剖学&78\%&92\%&74\%&80\%&55\%&45\%\\疾患&69\%&83\%&55\%&76\%&70\%&56\%\\化学物質及び薬物&54\%&63\%&39\%&56\%&54\%&36\%\\物理化学及び統計学&85\%&71\%&58\%&80\%&61\%&53\%\\\hline全体&71.8\%&74.9\%&53.8\%&75.7\%&65.3\%&51.9\%\\\hline\end{tabular}\end{table}以上の定義をふまえて,$T_g$,$T_c$,$T_{gc}$に属する用語の割合を分野毎に調べた結果を表\ref{tab:seiseika}に示す.これより,英辞郎と部分対応対訳辞書$B_P$,$B_S$を利用して正解訳語が生成可能な用語の割合は,英日方向で71.8\%,日英方向で75.7\%であることがわかる.一方,英辞郎のみを利用して生成可能な用語の割合を評価すると,英日方向で50.4\%,日英方向で56.6\%であった.このことから,部分対応対訳辞書が有効であることがわかる.また,英辞郎,および部分対応対訳辞書$B_P$,$B_S$を用いた訳語候補生成手法において,専門分野コーパスを利用した場合には,正解訳語を生成できる用語の割合の上限は,$T_{gc}$欄より,英日方向で53.8\%,日英方向で51.9\%であることがわかる.参考として,対訳辞書として,英辞郎と部分対応対訳辞書$B$を利用して,正解訳語の生成可能性を調べた結果を表\ref{tab:fujii_seiseika}に示す.この結果を見ると,対訳辞書として,英辞郎と部分対応対訳辞書$B$を用いる方が,正解訳語を生成可能な用語数が若干多い.しかしながら,\ref{sec:bcl}節で述べたように,本論文では両者の性能を総合的に比較して,部分対応対訳辞書として$B_P,B_S$を用いている.\begin{table}[t]\small\centering\caption{英辞郎と部分対応対訳辞書$B$における正解訳語の生成可能性}\label{tab:fujii_seiseika}\begin{tabular}{|c|r|r|}\hline分野&英語→日本語&日本語→英語\\\hline\hline電磁気学&60\%&87\%\\電気工学&80\%&78\%\\光学&61\%&71\%\\プログラム言語&86\%&82\%\\プログラミング&79\%&82\%\\コンピュータ&75\%&81\%\\解剖学&79\%&81\%\\疾患&71\%&78\%\\化学物質及び薬物&55\%&57\%\\物理化学及び統計学&86\%&81\%\\\hline全体&73.6\%&77.0\%\\\hline\end{tabular}\end{table}ここで,\ref{sec:generation}節の脚注\ref{fn:of_hyphen}で述べた,前置詞``of''及びハイフンの挿入・削除に関する規則の効果について述べる.未知訳語対集合$Y_{ST}$の訳語対617個のうち,前置詞``of''を含むものは24個存在した.また,英語の用語のみにハイフンを含む訳語対は33個,日本語の用語のみにハイフンを含む訳語対は2個存在した.英日方向において,この2つの規則を加えることで,$T_g$に含まれる用語の数が27個しか増加しなかった.逆に日英方向の場合,この2つの規則を加えることで,$T_g$に含まれる用語の数が7個しか増加しなかった.$T_g$に含まれる用語数の増加が少ないのは,正解訳語を人手で付与することにより,ofやハイフンを含まない正解訳語が追加されたためである.\subsection{スコア関数の評価}\label{sec:evaluation}表~\ref{tab:param_method}に示したスコア関数を用いて,集合$Y_S$に対して訳語推定の評価実験を行った.実験の条件として,動的計画法による訳語生成過程で,保持する訳語候補の数$r$は10とした.専門分野コーパスを用いる場合は,対象の用語が属する分野の専門分野コーパスを用いる.ウェブ全体を用いる場合は,サーチエンジンとして,英日方向の場合はgooを,日英方向の場合はYahoo!を用いた.また,日英方向では,日本語の用語の分かち書きは人手で行った.\begin{table}[b]\small\centering\caption{集合$Y_S$全体に対するスコア関数の評価(再現率)}\label{tab:evaluation}\begin{tabular}{|c|r|r|r|r|}\hline&\multicolumn{2}{|c|}{英語→日本語}&\multicolumn{2}{|c|}{日本語→英語}\\\cline{2-5}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{スコア関数}&top1&top10&top1&top10\\\hline\hlineDF-CF&42.5\%&50.1\%&41.8\%&48.1\%\\DF-CF${\rm_f}$&38.2\%&41.5\%&39.5\%&44.1\%\\DF-CP&43.6\%&52.4\%&44.6\%&51.9\%\\DF-CO&44.7\%&47.6\%&43.9\%&48.6\%\\DF-CO${\rm_f}$&39.9\%&41.7\%&39.7\%&44.1\%\\DP-CF&46.0\%&54.3\%&44.7\%&51.5\%\\DP-CP&{\bf46.7\%}&56.2\%&{\bf48.9\%}&56.1\%\\CF&26.3\%&48.0\%&31.3\%&43.8\%\\CP&25.9\%&48.6\%&32.6\%&46.5\%\\\hlineDF-CF${\rm_f}$-w&{\bf52.0\%}&59.0\%&{\bf51.1\%}&65.8\%\\DF-CO${\rm_f}$-w&44.1\%&59.0\%&50.1\%&65.0\%\\\hlineDF&35.7\%&59.0\%&45.1\%&63.2\%\\\hline\end{tabular}\end{table}$Y_S$全体に対する実験の結果を表\ref{tab:evaluation}に示す.列`top1'には,スコア1位の訳語候補が正解である割合を,列`top10'には,正解訳語がスコア10位以内に含まれる割合を示す.ここで,$Y_S$全体に対して,スコア1位の訳語候補が正解である用語の割合を再現率と定義する.次に,訳語候補が1つ以上生成される用語に限定した評価の結果を表\ref{tab:precision}に示す.表の「出力あり」の欄には,訳語候補が1つ以上生成される用語数を示した.訳語候補が1つ以上生成される用語に対して,スコア1位の訳語候補が正解である割合を精度と定義する.また,「F値」の欄は,表\ref{tab:evaluation}の値を再現率として計算した.\begin{table}[t]\small\centering\caption{訳語候補が1つ以上生成される用語に対する評価}\label{tab:precision}(a)英語→日本語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{スコア関数}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hlineDF-CF&396&262&66.2\%&51.7\%&309&78.0\%&61.0\%\\DF-CF${\rm_f}$&303&236&77.9\%&51.3\%&256&84.5\%&55.7\%\\DF-CP&428&269&62.9\%&51.5\%&323&75.5\%&61.8\%\\DF-CO&379&276&72.8\%&{\bf55.4\%}&294&77.6\%&59.0\%\\DF-CO${\rm_f}$&303&246&{\bf81.2\%}&53.5\%&257&84.8\%&55.9\%\\DP-CF&455&284&62.4\%&53.0\%&335&73.6\%&62.5\%\\DP-CP&495&288&58.2\%&51.8\%&347&70.1\%&62.4\%\\CF&456&162&35.5\%&30.2\%&296&64.9\%&55.2\%\\CP&497&160&32.2\%&28.7\%&300&60.4\%&53.9\%\\\hlineDF-CF${\rm_f}$-w&481&321&{\bf66.7\%}&{\bf58.5\%}&364&75.7\%&66.3\%\\DF-CO${\rm_f}$-w&481&272&56.5\%&49.5\%&364&75.7\%&66.3\%\\\hlineDF&559&220&39.4\%&37.4\%&364&65.1\%&61.9\%\\\hline\end{tabular}\vspace{\baselineskip}(b)日本語→英語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{スコア関数}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hlineDF-CF&372&258&69.4\%&52.2\%&297&79.8\%&60.1\%\\DF-CF${\rm_f}$&317&244&77.0\%&52.2\%&272&85.8\%&58.2\%\\DF-CP&418&275&65.8\%&53.1\%&320&76.6\%&61.8\%\\DF-CO&369&271&73.4\%&{\bf55.0\%}&300&81.3\%&60.9\%\\DF-CO${\rm_f}$&317&245&{\bf77.3\%}&52.5\%&272&85.8\%&58.2\%\\DP-CF&428&276&64.5\%&52.8\%&318&74.3\%&60.9\%\\DP-CP&489&302&61.8\%&54.6\%&346&70.8\%&62.6\%\\CF&428&193&45.1\%&36.9\%&270&63.1\%&51.7\%\\CP&488&201&41.2\%&36.4\%&287&58.8\%&51.9\%\\\hlineDF-CF${\rm_f}$-w&522&315&{\bf60.3\%}&{\bf55.3\%}&406&77.8\%&71.3\%\\DF-CO${\rm_f}$-w&522&309&59.2\%&54.3\%&401&76.8\%&70.4\%\\\hlineDF&565&278&49.2\%&47.0\%&390&69.0\%&66.0\%\\\hline\end{tabular}\end{table}\subsubsection*{ウェブから収集した専門分野コーパスとウェブ全体の比較}まず,ウェブから収集した専門分野コーパスを用いる方法とウェブ全体を用いる方法の比較を行う.英日方向,日英方向で平均を取ってみると,ウェブ全体を用いるスコア関数の方が再現率が高いことがわかる.これは,表\ref{tab:seiseika}からわかるように,集合$Y_S$全体に対して,収集した専門分野コーパスに正解訳語が含まれる割合$T_c$が,英日方向で74.9\%,日英方向で65.3\%と,あまり高くないことが原因と考えられる.精度に関しては,専門分野コーパスを用いるスコア関数であれば`DF-CO${\rm_f}$'の平均79.3\%が最も高く,ウェブ全体を用いるスコア関数であれば`DF-CF${\rm_f}$-w'の平均63.5\%が最も高い.このことから,専門分野コーパスを用いるスコア関数の方が精度が高いことがわかる.これは,ウェブ全体には一般語や訳語推定対象の分野以外の用語が多数含まれており,不正解の訳語にも大きいスコアが与えられてしまうためと考えられる.F値に関しては,専門分野コーパスを用いるスコア関数であれば`DP-CO'の平均55.2\%が最も高く,ウェブ全体を用いるスコア関数であれば`DF-CF${\rm_f}$-w'の平均56.9\%が最も高い.このことから,F値には大きな差はないことがわかる.以上より,コーパスとしてウェブ全体を用いる手法は再現率を重視した手法と言える一方,専門分野コーパスを用いる手法は精度を重視した手法と言える.また,これらの考察から,ウェブから収集した専門分野コーパスを用いる方法において,精度を下げることなく,再現率を上げるためには,対象分野の用語を十分に含み,かつ,できるだけ小さなコーパスを収集する必要があることがわかる.また,両者を相補的に統合する方法としては,まず,ウェブから収集した専門分野コーパスを用いて高い精度で訳語推定を行い,訳語候補が1つも得られなかった用語に対しては,ウェブ全体を用いて訳語推定を行うことが考えられる.\subsubsection*{ウェブから収集した専門分野コーパスを用いるスコア関数の評価}次に,ウェブから収集した専門分野コーパスを用いるスコア関数を比較し評価する.まず,最も精度が高かったスコア関数は,英日方向,日英方向とも,スコア関数`DF-CO${\rm_f}$'であった.2番目に精度が高かったスコア関数は,英日方向,日英方向とも,スコア関数`DF-CF${\rm_f}$'であった.`DF-CO${\rm_f}$'や`DF-CF${\rm_f}$'のように,訳語候補の生成途中でコーパススコアを利用しないスコア関数が高い精度となったのは,辞書スコアのみを利用して生成される訳語候補のほとんどはコーパスに存在せず,最後にコーパスで検証することにより,これらがすべて消えてしまい,正解訳語が高いスコアとなって残った場合のみ,これが出力されるという現象による.このため,この2つのスコア関数の「出力あり」の個数は他のスコア関数に比べて低い値となっており,再現率は,他のスコア関数に比べ若干低い値となっている.F値で評価した場合は,他のスコア関数と大きな差はない.F値を下げずに,精度を上げたい場合は,このスコア関数が有効である.次に,辞書スコア`DF'を用いるスコア関数と辞書スコア`DP'を用いるスコア関数の比較を行う.スコア関数`DF-CF'と`DP-CF'を比較し,同様に,スコア関数`DF-CP'と`DP-CP'の比較を行う.再現率を比べると,英日方向,日英方向共に,辞書スコア`DP'を用いるスコア関数の方が再現率が若干高いことがわかる.これは,表\ref{tab:seiseika},表\ref{tab:fujii_seiseika}で示したように,対訳辞書スコア`DF'よりも対訳辞書スコア`DP'の方が,正解訳語を生成可能な用語数が多いことによると考えられる.一方,精度に関しては,対訳辞書スコア`DF'を用いるスコア関数の方が,若干高いことがわかる.F値を見た場合,対訳辞書スコア`DF'を用いるスコア関数と対訳辞書スコア`DP'を用いるスコア関数にはほとんど差がない.また,`CF',`CP',`CO'の3つのコーパススコアを用いたスコア関数の再現率を比較すると,`DF-CF',`DF-CP',`DF-CO'の間で大きな差はない.ただし,`DF-CF'と`DF-CO'を比較すると,`DF-CO'の再現率及び精度が若干高い.これは,生成された不正解の訳語が一般的な語であった場合,コーパススコア`CF'では高いスコアが与えられてしまうことが原因と考えられる.これに対して,`DF-CO'においては,訳語候補のスコアの値が対訳辞書スコア`DF'の値のみによって決定されるので,コーパス中に高頻度に出現する一般語に対して過剰に高いスコアを与えるということはない.一方,コーパススコア`CP'に注目すると,コーパススコア`CP'を用いたスコア関数`CF-CP'及び`DP-CP'の精度が他のスコア関数より低いことがわかる.コーパススコア`CP'を用いると訳語候補全体がコーパスに存在しなくても,スコアが付与されることとなり,不適切な訳語候補が数多く出力されていると考えられる.上記のコーパススコア`CP'の評価と関連して,\cite{Fujii00}で用いられた確率に基づくスコア関数の評価として,部分対応対訳辞書に加えて英辞郎自体も用いることができるように拡張を加えた`DP-CP'に注目する.このスコアは,他のスコア関数と比べ,性能に大きな差はないが,再現率が若干高く,精度が若干低い値となっている.したがって,F値でみると,他のスコア関数とほとんど差がないことがわかる.対訳辞書スコアのみを用いるスコア関数`DF'は,英日方向では再現率が他のスコア関数より低いが,日英方向では他のスコア関数に比べて遜色のない結果となった.しかしながら,精度及びF値は他のスコア関数に比べ極めて低い.このことから,訳語候補の順位付けには,コーパスに基づくスコアを用いることが必要であることがわかる.コーパススコアのみを用いるスコア関数`CF'及び`CP'に着目すると,英日方向,日英方向共に,再現率,精度,F値が最も低い.このことより,訳語候補の順位付けには,辞書に生起する頻度に基づく何らかのスコアを利用することが必要であることがわかる.\subsubsection*{前置詞とハイフンの規則の評価}\ref{sec:generation}節の脚注\ref{fn:of_hyphen}で述べた前置詞``of''とハイフンの挿入・削除に関する規則の効果について述べる.スコア関数として`DF-CO'を用いて,これらの規則の評価を行ったところ,英日方向において,この2つの規則を加えることで,正解数が18個増加した.逆に日英方向の場合,この2つの規則を加えることで,正解数が7個増加した.このことから,この2つの規則は正解数の向上に有効であることがわかる.\subsubsection*{分野別の再現率と精度に関する考察}ここでは,分野別に訳語推定の性能を評価する.まず,$Y_S$全体に対する再現率の定義と同様に,各分野に属する用語のうち,スコア1位の訳語候補が正解である用語の割合を分野別再現率と定義する.同様に,各分野に属する用語のうち,訳語候補が1つ以上生成される用語に対して,スコア1位の訳語候補が正解である割合を分野別精度と定義する.\begin{table}[b]\small\centering\caption{スコア関数`DF-CO'の分野別再現率}\label{tab:category_seikairitsu}\begin{tabular}{|c|r|r|r|r|}\hline&\multicolumn{2}{|c|}{英語→日本語}&\multicolumn{2}{|c|}{日本語→英語}\\\cline{2-5}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{分野}&top1&top10&top1&top10\\\hline\hline電磁気学&40\%&47\%&60\%&63\%\\電気工学&46\%&49\%&44\%&46\%\\光学&32\%&32\%&42\%&48\%\\プログラム言語&68\%&71\%&75\%&82\%\\プログラミング&61\%&64\%&57\%&71\%\\コンピュータ&32\%&32\%&38\%&43\%\\解剖学&52\%&57\%&36\%&41\%\\疾患&48\%&49\%&50\%&52\%\\化学物質及び薬物&35\%&37\%&33\%&35\%\\物理化学及び統計学&51\%&56\%&43\%&51\%\\\hline全体&44.7\%&47.6\%&43.9\%&48.6\%\\\hline\end{tabular}\end{table}ウェブから収集した専門分野コーパスを用いるスコア関数の中では最もF値の値が高かったスコア関数`DF-CO'を対象とし,分野別再現率を表\ref{tab:category_seikairitsu}に示す.これと,表\ref{tab:seiseika}の$T_{gc}$に属する用語の割合を比較すると,$T_{gc}$に属する用語の割合が小さい分野ほど,再現率が低くなっていることがわかる.正解訳語が生成可能な用語を増やすための対訳辞書の強化と,コーパスに正解訳語が含まれる割合の改善が課題となる.\begin{table}[t]\small\centering\caption{訳語候補が1つ以上生成される用語に対する分野別精度とF値:スコア関数`DF-CO'の結果}\label{tab:category_seido}(a)英語→日本語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{分野}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hline電磁気学&16&12&75\%&52\%&14&88\%&61\%\\電気工学&26&19&73\%&57\%&20&77\%&60\%\\光学&14&10&71\%&44\%&10&71\%&44\%\\プログラム言語&25&19&76\%&72\%&20&80\%&75\%\\プログラミング&21&17&81\%&69\%&18&86\%&73\%\\コンピュータ&53&32&60\%&42\%&32&60\%&42\%\\解剖学&64&47&73\%&61\%&52&81\%&67\%\\疾患&54&41&76\%&59\%&42&78\%&60\%\\化学物質及び薬物&36&29&81\%&48\%&31&86\%&52\%\\物理化学及び統計学&70&50&71\%&59\%&55&79\%&65\%\\\hline全体&379&276&72.8\%&55.4\%&294&77.6\%&59.0\%\\\hline\end{tabular}\vspace{\baselineskip}(b)日本語→英語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{分野}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hline電磁気学&21&18&86\%&71\%&19&90\%&75\%\\電気工学&26&18&69\%&54\%&19&73\%&57\%\\光学&16&13&81\%&55\%&15&94\%&64\%\\プログラム言語&25&21&84\%&79\%&23&92\%&87\%\\プログラミング&22&16&73\%&64\%&20&91\%&80\%\\コンピュータ&62&38&61\%&47\%&43&69\%&53\%\\解剖学&51&33&65\%&46\%&37&73\%&52\%\\疾患&51&43&84\%&63\%&45&88\%&66\%\\化学物質及び薬物&34&28&82\%&47\%&29&85\%&49\%\\物理化学及び統計学&61&43&70\%&54\%&50&82\%&63\%\\\hline全体&369&271&73.4\%&55.0\%&300&81.3\%&60.9\%\\\hline\end{tabular}\end{table}表\ref{tab:category_seido}に,訳語候補が1つ以上生成される用語に対する分野別精度を示す.スコア関数としては`DF-CO'を用いた.表\ref{tab:category_seikairitsu}において$Y_S$全体に対する分野別再現率が他の分野と比べて低かったのは「化学物質及び薬物」の分野であったが,表\ref{tab:category_seido}においては,「化学物質及び薬物」の分野の精度は英日方向,日英方向とも80\%以上という高い精度となっている.訳語候補が1つ以上生成される用語に対する評価では,$T_{gc}$に属する割合との相関はないことがわかる.\subsubsection*{翻訳ソフトによる翻訳性能との比較}$Y_S$の用語を市販の翻訳ソフトで翻訳し,その翻訳性能と表\ref{tab:evaluation}の再現率を比較する.翻訳ソフトとしては,富士通の「ATLAS翻訳パーソナル2003」,東芝の「The翻訳オフィスV6.0」,IBMの「インターネット翻訳の王様バイリンガルVersion5」の3種類を用いた.この実験は,構成要素の訳語選択がどの程度できるのかを調べるのが目的であるので,翻訳ソフトのオプションの専門用語辞書は使用しなかった.このうち最も性能が良かったのは,富士通の翻訳ソフト「ATLAS翻訳パーソナル2003」で翻訳した場合で,翻訳結果が正解であった用語の割合は英日方向26.7\%,日英方向で38.1\%であった.スコア関数`CF'及び`CP'を除くすべてのスコア関数の再現率は,翻訳ソフトによる翻訳結果が正解であった用語の割合を上回っている.\subsection{正解訳語が生成できない原因の分析}\label{sec:seiseifuka_analysis}\begin{table}[p]\small\centering\caption{生成不可の原因分析:集合$Y_S$のうち,正解訳語が生成不可能な用語を対象}\label{tab:seiseifuka}(a)英語→日本語\vspace{4pt}\begin{tabular}{|l|r|r|}\hline生成不可の主原因&個数&割合\\\hline非構成的&58&33\%\\辞書にエントリがない&73&42\%\\表記の揺れ&6&3\%\\前置詞による順序交換&6&3\%\\前置詞なし順序交換&18&10\%\\訳語に「の」が必要&2&1\%\\「性」を挿入する必要&1&1\%\\アルファベットのままにすべき&2&1\%\\正解訳語に「・」を含む&1&1\%\\複数形で辞書引き失敗&6&3\%\\ハイフンの挿入が必要&1&1\%\\\hline合計&174&100\%\\\hline\end{tabular}\vspace{\baselineskip}(b)日本語→英語\vspace{4pt}\begin{tabular}{|l|r|r|}\hline生成不可の主原因&個数&割合\\\hline非構成的&46&31\%\\辞書にエントリがない&66&44\%\\表記の揺れ&15&10\%\\前置詞による順序交換&4&3\%\\前置詞なし順序交換&13&9\%\\「性」を外す必要&2&1\%\\アルファベットのままにすべき&1&1\%\\用語に「・」を含む&1&1\%\\正解訳語が複数形&1&1\%\\訳語中に冠詞が必要&1&1\%\\\hline合計&150&100\%\\\hline\end{tabular}\par\vspace{\baselineskip}\small\centering\caption{スコア関数DF-COの訳語推定結果の分析:集合$Y_{S}$を対象}\label{tab:DF-CO}\begin{tabular}{|l||r|r|r|r|r|r|}\hline&\multicolumn{6}{|c|}{スコア1位の訳語候補}\\\hhline{|~|---|---|}&\multicolumn{3}{|c|}{英語→日本語}&\multicolumn{3}{|c|}{日本語→英語}\\\hhline{|~|---|---|}&正解&不正解&なし&正解&不正解&なし\\\hline\hline$T_{gc}$&276&30&26&271&36&13\\\hline$T_g-T_{gc}$&--&40&71&--&40&107\\\hline$\overline{T_g}$&--&33&141&--&22&128\\\hline\hline$Y_S$&276&103&238&271&98&248\\\hline\end{tabular}\end{table}本節では,対訳辞書として,英辞郎と部分対応対訳辞書$B_P$,$B_S$を用いたときに,正解訳語が生成できない場合に関して,その主原因を調査した結果について述べる.分析対象は,表\ref{tab:seiseika}に示した生成可能な用語の集合($T_g$)に属さない用語であり,英日方向で174語,日英方向で150語である.分析結果を表\ref{tab:seiseifuka}に示す.まず,用語とその正解訳語が構成的に対応しておらず,本手法では扱えないものが,英日方向で33\%,日英方向で31\%存在した.これは英日方向で,集合$Y_S$全体の9.4\%,日英方向で7.5\%に相当する.次に,辞書にエントリがないことが原因であるものが,英日方向で42\%,日英方向で44\%存在した.「ディジタル」と「デジタル」のような表記の揺れが原因であるものが,英日方向で3\%,日英方向で10\%存在した.これらに対しては,部分対応対訳辞書の強化が課題となる.英語用語中に前置詞を含まず英語と日本語で語順が異なるものが,英日方向で10\%,日英方向で9\%存在した.これらは,医学分野に多いため,特定の語が構成要素に現れた場合は,語順の入れ替えを行うという対処法が考えられる.\subsection{スコア関数`DF-CO'とスコア関数`DF-CF${\rm_f}$-w'の併用と誤り分析}\label{sec:error_analysis}\ref{sec:evaluation}節の評価では,ウェブから収集した専門分野コーパスを用いる方法は精度に優れ,ウェブ全体を用いる方法は再現率に優れることを示した.そこで,本節では,両者を相補的に統合するために,ウェブから収集した専門分野コーパスを用いるスコア関数で訳語推定を行い,その結果,訳語候補が1つも生成されない場合は,サーチエンジンを通してウェブ全体を利用するスコア関数を用いるというアプローチの評価と誤り分析を行う.ここでは,各々の方法におけるスコア関数としては,それぞれ,最もF値が大きかった`DF-CO',および,`DF-CF${\rm_f}$-w'を用いる.まず,スコア関数`DF-CO'で訳語推定を行った結果を,図\ref{fig:benzu}で示した生成可能性に関する分類を利用して整理した.その結果を表\ref{tab:DF-CO}に示す.\ref{sec:evaluation_set}節で説明したように,$T_{gc}$は生成可能かつ専門分野コーパスに含まれる正解訳語が存在する用語の集合である.$T_g$は,正解訳語を生成可能な用語の集合なので,$T_g-T_{gc}$は,いずれかの正解訳語は生成可能であるが,生成可能かつ専門分野コーパスに含まれる正解訳語は存在しない用語の集合となる.そして,$\overline{T_g}$は正解訳語が生成不可能な用語の集合である.これらの,$T_{gc}$,$T_g-T_{gc}$,及び$\overline{T_g}$に含まれる用語を,スコアが1位の訳語候補が正解か,不正解か,もしくは,訳語候補が出力されないかによって,それぞれ再分類した.\begin{table}[b]\small\centering\caption{スコア関数DF-COにおいて,$T_{gc}$中の用語に対して,正解訳語のスコアが1位とならない原因の\hspace*{32pt}分析}\label{tab:sukoa-make}\begin{tabular}{|l|r|r|r|r|}\hline&\multicolumn{2}{|c|}{英語→日本語}&\multicolumn{2}{|c|}{日本語→英語}\\\cline{2-5}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{正解訳語のスコアが1位とならない主原因}&個数&割合&個数&割合\\\hline正解訳語の辞書スコアがゼロ&13&23\%&10&20\%\\正解訳語が生成過程で枝刈りされる&25&45\%&10&20\%\\その他&18&32\%&29&59\%\\\hline合計&56&100\%&49&100\%\\\hline\end{tabular}\end{table}さらに,$T_{gc}$の用語のうち,スコア1位の訳語候補が「不正解」のものと「なし」のものに関して,正解訳語が1位とならなかった原因の分析を行った.英日方向では56個,日英方向では49個がその対象である.その結果を表\ref{tab:sukoa-make}に示す.まず,正解訳語の辞書スコアがゼロとなることが原因であるものがあった.これは,辞書スコア`DF'が,部分対応対訳辞書に一度しか現れない訳語対のスコアをゼロとするように設計されているためである.次に,正解訳語が訳語候補の生成過程で枝刈りされてしまっていることがあった.また,「その他」の理由としては,コーパス中に出現する頻度を考慮したスコア関数を用いていないことなどが挙げられる.\begin{table}[b]\small\centering\caption{スコア関数DF-COとスコア関数DF-CF${\rm_f}$-wの差分の分析:スコア関数DF-COで訳語候補が生\hspace*{32pt}成されない用語を対象}\label{tab:DF-CFf-w}\begin{tabular}{|l|r|rr|r|rr|r|}\hline\multicolumn{2}{|c}{}&\multicolumn{3}{|c|}{英語→日本語}&\multicolumn{3}{|c|}{日本語→英語}\\\hhline{|~~|---|---|}\multicolumn{2}{|c}{}&\multicolumn{3}{|c|}{正解訳語生成可能性}&\multicolumn{3}{|c|}{正解訳語生成可能性}\\\hhline{|~~|---|---|}\multicolumn{2}{|c}{}&\multicolumn{2}{|c|}{可}&不可&\multicolumn{2}{|c|}{可}&不可\\\hline\hline&&1位&63&&1位&83&\\\hhline{|~~|--~|--~|}訳語&あり&2〜10位&4&\multirow{2}{*}{39}&2〜10位&13&\multirow{2}{*}{43}\\\hhline{|~~|--~|--~|}候補&&10位以下&0&&10位以下&1&\\\hhline{|~~|--~|--~|}出力&&出力されない&8&&出力されない&16&\\\hhline{|~|-|--|-|--|-|}&なし&&22&102&&7&85\\\hline\hline\multicolumn{2}{|c|}{合計}&\multicolumn{3}{|c|}{238}&\multicolumn{3}{|c|}{248}\\\hline\end{tabular}\end{table}次に,スコア関数`DF-CO'で,訳語候補が生成されなかった用語を対象として,スコア関数`DF-CF${\rm_f}$-w'を利用して訳語推定を行い,その性能を評価した.対象は,英日方向では238個,日英方向では248個の用語である.評価結果を表\ref{tab:DF-CFf-w}に示す.ここではまず,1つ以上の訳語候補が出力されたか否かにより,「あり」と「なし」に分類している.さらに,それぞれの分類に対し,正解訳語が生成可能か否かによって,さらに分類している.そして,正解訳語が生成可能かつ,訳語候補が出力される用語に対しては,正解訳語のスコアの順位でさらに分類を行っている.ここで,正解訳語がスコア1位となったものは,英日方向で63個,日英方向で83個である.これと,スコア関数`DF-CO'の正解を合わせると,正解数は英日方向で339個,日英方向で354個となる.集合$Y_S$全体に対する再現率を求めると,英日方向で54.9\%,日英方向で57.4\%となり,他のどのスコア関数よりも高い.また,最終的に訳語候補が1つ以上出力されるものを対象にした評価を行うと,精度は,英日方向で68.8\%,日英方向で67.4\%となり,スコア関数`DF-CO'に比べて精度を大きく下げることなく,正解数を増やすことに成功した.さらに,F値は,英日方向で61.1\%,日英方向で62.0\%となり,他のどのスコア関数よりも高い.このことから,スコア関数`DF-CO'とスコア関数`DF-CF${\rm_f}$-w'を組み合わせるアプローチが有効であることがわかる.ここで,正解訳語が2位以下に出力される用語に対しては,\cite{Kida06}で提案されている用語の分野判定の技術により訳語候補の分野判定を行い,分野外の訳語候補を削除することによって,正解訳語を1位にできる可能性があると考えられる.また,正解訳語が生成不可で訳語候補が1つ以上出力されている用語に対しては,訳語候補の分野判定を行うことによって,候補数をゼロにできる可能性がある.
\section{関連研究}
\label{sec:related_work}関連研究として,\cite{Fujii00}は,言語横断情報検索の目的のために要素合成法による訳語推定法を提案した.本論文では,ここで提案されているスコア関数に対して,部分対応対訳辞書だけでなく,英辞郎自体も利用できるように拡張し(スコア関数`DP-CP'),他のスコア関数との比較を行った.その結果,スコア関数`DP-CP'は他のスコア関数と比べ,$Y_S$全体に対する評価では最も再現率が高かったが,不正解訳語も多く生成されるため,訳語候補が1つ以上生成される用語に対する評価では,精度は高くないことがわかった.そして,F値に関しては,他のスコア関数とほとんど差がなかった.\cite{Fujii00}の手法と,本論文で提案した手法の重要な違いの一つは,\cite{Fujii00}においては,訳語推定対象の用語が属する分野の文書のみを含むコーパスではなく,様々な専門分野にわたる65種類の日本の学会から出版された技術論文を集めたものをコーパスとして利用していることである.また,\cite{Fujii00}において,彼らは言語横断情報検索の性能のみを評価し,訳語推定の性能評価はしていない.\cite{Adama04}も,言語横断情報検索の性能を評価対象として,クエリー翻訳の方法を提案している.この研究では,コーパススコアはNTCIR-1\cite{Kando99-NTCIR1},または,NTCIR-2\cite{Kando01-NTCIR2-JEIR}の言語横断情報検索タスクの検索課題文書(論文等の技術文書)から求める.コーパススコアには,\cite{Fujii00}で提案されたスコアと合わせて$\chi^2$検定を用いたスコアを併用している.しかしながら,2つのコーパススコアの併用は,言語横断情報検索の精度向上には貢献しなかったと報告されている.また,カタカナ語に関しては翻字技術を適用している.\cite{Baldwin04multi}も要素合成法による訳語推定手法を提案している.コーパスに基づく8つの素性と辞書に基づく6つの素性とテンプレートに基づく2つの素性を立て,SVMを利用して訳語候補のスコア関数を学習している.この論文でも,辞書に基づく素性でのみ,もしくは,コーパスに基づく素性でのみスコア関数を構成するよりも,両者を利用した方が精度が良いことが報告されている.\cite{Baldwin04multi}の手法と,本論文で提案した手法の重要な違いは,\cite{Baldwin04multi}においては,コーパスとして,英語側ではReutersCorpusを,日本語側では毎日新聞を利用しているのに対し,本論文では,専門分野コーパスを利用した場合と,サーチエンジンを通してウェブ全体を利用した場合の比較を行っている.また,\cite{Baldwin04multi}においては,訳語推定対象の用語を,英語2単語または,日本語2形態素のものに限定している.\cite{Cao02as}もまた,複合語に対する要素合成法による訳語推定法を提案した.\cite{Cao02as}の手法では,用語の訳語候補は,用語の構成要素の訳語を結合することによって構成的に生成され,サーチエンジンを通してウェブ全体を用いて検証される.本論文では,サーチエンジン通してウェブ全体を用いて訳語候補の検証をするスコア関数を導入することによって,\cite{Cao02as}で提案されたアプローチの評価を行い,ウェブから収集した専門分野コーパスを用いる方法と比較した.その結果,訳語候補が一つ以上出力される場合においては,サーチエンジンを通してウェブ全体を用いるよりも,ウェブから収集した専門分野コーパスを用いる方が精度が良いことがわかった.その一方で,再現率に優れるのは,サーチエンジンを通してウェブ全体を用いる方法であった.そこで,この2つの方法の長所を生かすために,まず,ウェブから収集した専門分野コーパスを用いる方法で訳語推定を行い,訳語候補が一つも得られなかった場合,サーチエンジン通してウェブ全体を用いて訳語推定を行う方法を評価した.その結果,本論文で評価したどのスコア関数よりも高いF値を達成できることがわかった.なお,\cite{Cao02as}においては,英語の用語に対して中国語の訳語を推定しているが,訳語推定対象の用語は英語2単語から構成されるものに限定されている.\cite{Maeda00}は,言語横断情報検索のためのクエリー翻訳の方法を提案している.まず,要素合成法によりクエリーの訳語候補を生成する.次に,ウェブ上の頻度が一定数以上の訳語候補に対して,それぞれの訳語候補のスコアは,訳語候補の構成要素間の相互情報量を拡張した尺度で計算される.最後に,スコアの閾値を越える訳語候補を(サーチエンジンの)OR演算子で結合したものを,クエリーの翻訳結果とする.評価は言語横断情報検索の性能に関して行っているので,訳語推定結果の比較はできないが,\cite{Maeda00}らの手法は,本論文で言えば,コーパススコアのみのスコア関数を利用した手法に対応する.\cite{Kimura04}も,言語横断情報検索のために,クエリー翻訳における訳語曖昧性解消の方法を提案している.準備として,あらかじめYahoo!の日英のウェブディレクトリのそれぞれのカテゴリにおいて,特徴語の抽出と重み付与をし,日英のカテゴリの対応付けをしてしておく.検索をするときは,まず,クエリーに含まれる単語とカテゴリの特徴語を利用して適合するカテゴリを決める.次に,クエリーに含まれる各単語に対して,訳語を対訳辞書で調べる.そして,適合カテゴリの特徴語となっている訳語のうち,特徴語の重みが最も大きいものをその単語の訳語と決定する.
\section{おわりに}
\label{sec:end}本論文では,ウェブを利用した専門用語の訳語推定法について述べた.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパス・コンパラブルコーパスを用いた訳語推定法があるが,既存のコーパスが利用できる分野は極めて限られている.そこで,本論文では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を採用した.しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,ウェブをコーパスとして用いた.ウェブを訳語候補の検証に利用する場合,サーチエンジンを通してウェブ全体を利用する方法と,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておく方法が考えられる.本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じた.また,訳語候補のスコア関数として多様な関数を定式化し,訳語推定の性能との間の相関を評価した.実験の結果,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認され,高い精度を達成できることがわかった.また,ウェブ全体を用いる方法とウェブから収集した専門分野コーパスを用いる方法を相補的に結合することにより,再現率とF値を改善できることを示した.今後の課題として,訳語推定対象の分野の用語を十分に含むできるだけ小さいコーパスを収集することが挙げられる.また,本論文で提案した,ウェブを用いた要素合成法による訳語推定法を,他の訳語推定技術と相補的に用いることが挙げられる.相補的な技術としては,用語とその訳語が併記されたテキストの利用\cite{Nagata01asl,huang-zhang-vogel:2005:HLTEMNLP}や,固有名詞の翻字の技術\cite{Knight98,Oh05}などが挙げられる.また,用語の分野判定の技術\cite{Kida06}を利用することにより,不適切な訳語候補を削除することが挙げられる.応用的な課題としては,本論文で提案した専門用語の訳語推定手法を,例えば,ウェブからの関連語収集手法\cite{Sasaki06}や,論文からの用語抽出\cite{Banba06aj}の結果に対して適用することが考えられる.\bibliographystyle{jnlpbbl_1.2}\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{阿玉\JBA橋本\JBA徳永\JBA田中}{阿玉\Jetal}{2004}]{Adama04}阿玉泰宗\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2004\BBCP.\newblock\JBOQ日英言語横断情報検索のための翻訳知識の獲得\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG10(TOD23)),\mbox{\BPGS\37--48}.\bibitem[\protect\BCAY{Baldwin\BBA\Tanaka}{Baldwin\BBA\Tanaka}{2004}]{Baldwin04multi}Baldwin,T.\BBACOMMA\\BBA\Tanaka,T.\BBOP2004\BBCP.\newblock\BBOQTranslationbyMachineofCompoundNominals:GettingitRight\BBCQ\\newblockIn{\BemProc.ACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{馬場\JBA外池\JBA宇津呂\JBA佐藤}{馬場\Jetal}{2006}]{Banba06aj}馬場康夫\JBA外池昌嗣\JBA宇津呂武仁\JBA佐藤理史\BBOP2006\BBCP.\newblock\JBOQ対訳辞書とウェブを利用した専門文書中の用語の訳語推定\JBCQ\\newblock\Jem{言語処理学会第12回年次大会論文集},\mbox{\BPGS\416--419}.\bibitem[\protect\BCAY{Cao\BBA\Li}{Cao\BBA\Li}{2002}]{Cao02as}Cao,Y.\BBACOMMA\\BBA\Li,H.\BBOP2002\BBCP.\newblock\BBOQBaseNounPhraseTranslationUsing{Web}Dataandthe{EM}Algorithm\BBCQ\\newblockIn{\BemProc.19th{COLING}},\mbox{\BPGS\127--133}.\bibitem[\protect\BCAY{コンピュータ用語辞典編集委員会}{コンピュータ用語辞典編集委員会}{2001}]{dic-computer}コンピュータ用語辞典編集委員会\JED\\BBOP2001\BBCP.\newblock\Jem{英和コンピュータ用語大辞典}.\newblock日外アソシエーツ.\bibitem[\protect\BCAY{藤井\JBA石川}{藤井\JBA石川}{2000}]{Fujii00}藤井敦\JBA石川徹也\BBOP2000\BBCP.\newblock\JBOQ技術文書を対象とした言語横断情報検索のための複合語翻訳\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),\mbox{\BPGS\1038--1045}.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{Fung98as}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAn{IR}ApproachforTranslatingNewWordsfromNonparallel,ComparableTexts\BBCQ\\newblockIn{\BemProc.17th{COLING}and36th{ACL}},\mbox{\BPGS\414--420}.\bibitem[\protect\BCAY{Huang,Zhang,\BBA\Vogel}{Huanget~al.}{2005}]{huang-zhang-vogel:2005:HLTEMNLP}Huang,F.,Zhang,Y.,\BBA\Vogel,S.\BBOP2005\BBCP.\newblock\BBOQMiningKeyPhraseTranslationsfromWebCorpora\BBCQ\\newblockIn{\BemProc.HLT/EMNLP},\mbox{\BPGS\483--490}.\bibitem[\protect\BCAY{医学用電子化AI辞書研究会}{医学用電子化AI辞書研究会}{1996}]{dic-25igaku}医学用電子化AI辞書研究会\JED\\BBOP1996\BBCP.\newblock\Jem{25万語医学用語大辞典}.\newblock日外アソシエーツ.\bibitem[\protect\BCAY{Kando,Kuriyama,\BBA\Yoshioka}{Kandoet~al.}{2001}]{Kando01-NTCIR2-JEIR}Kando,N.,Kuriyama,K.,\BBA\Yoshioka,M.\BBOP2001\BBCP.\newblock\BBOQOverviewofJapaneseandEnglishInformationRetrievalTasks(JEIR)attheSecondNTCIRWorkshop\BBCQ\\newblockIn{\BemProc.2ndNTCIRWorkshopMeeting},\mbox{\BPGS\73--96}.\bibitem[\protect\BCAY{Kando,Kuriyama,\BBA\Nozue}{Kandoet~al.}{1999}]{Kando99-NTCIR1}Kando,N.,Kuriyama,K.,\BBA\Nozue,T.\BBOP1999\BBCP.\newblock\BBOQNACSIStestcollectionworkshop(NTCIR-1)\BBCQ\\newblockIn{\BemProc.22ndSIGIR},\mbox{\BPGS\299--300}.\bibitem[\protect\BCAY{木田\JBA外池\JBA宇津呂\JBA佐藤}{木田\Jetal}{2006}]{Kida06}木田充洋\JBA外池昌嗣\JBA宇津呂武仁\JBA佐藤理史\BBOP2006\BBCP.\newblock\JBOQウェブを利用した専門用語の分野判定\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ89-D}(未定).\bibitem[\protect\BCAY{木村\JBA前田\JBA宮崎\JBA吉川\JBA植村}{木村\Jetal}{2004}]{Kimura04}木村文則\JBA前田亮\JBA宮崎純\JBA吉川正俊\JBA植村俊亮\BBOP2004\BBCP.\newblock\JBOQWebディレクトリを言語資源として利用した言語横断情報検索\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG7(TOD22)),\mbox{\BPGS\208--217}.\bibitem[\protect\BCAY{Knight\BBA\Graehl}{Knight\BBA\Graehl}{1998}]{Knight98}Knight,K.\BBACOMMA\\BBA\Graehl,J.\BBOP1998\BBCP.\newblock\BBOQMachineTransliteration\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(4),\mbox{\BPGS\599--612}.\bibitem[\protect\BCAY{前田\JBA吉川\JBA植村}{前田\Jetal}{2000}]{Maeda00}前田亮\JBA吉川正俊\JBA植村俊亮\BBOP2000\BBCP.\newblock\JBOQ言語横断情報検索におけるWeb文書群による訳語曖昧性解消\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf41}(SIG6(TOD7)),\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto00a}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition\BBCQ\\newblockInDale,R.,Moisl,H.,\BBA\Somers,H.\BEDS,{\Bem{\emHandbookofNaturalLanguageProcessing}},\BCH~24,\mbox{\BPGS\563--610}.MarcelDekkerInc.\bibitem[\protect\BCAY{マグローヒル科学技術用語大辞典編集委員会}{マグローヒル科学技術用語大辞典編集委員会}{1998}]{dic-McGraw-Hill}マグローヒル科学技術用語大辞典編集委員会\JED\\BBOP1998\BBCP.\newblock\Jem{マグローヒル科学技術用語大辞典}.\newblock日刊工業新聞社.\bibitem[\protect\BCAY{長尾\JBA石田\JBA稲垣\JBA田中\JBA辻井\JBA所\JBA中田\JBA米澤}{長尾\Jetal}{1990}]{dic-iwanami-info}長尾真\JBA石田晴久\JBA稲垣康善\JBA田中英彦\JBA辻井潤一\JBA所真理雄\JBA中田育男\JBA米澤明憲\JEDS\\BBOP1990\BBCP.\newblock\Jem{岩波情報科学辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{Nagata,Saito,\BBA\Suzuki}{Nagataet~al.}{2001}]{Nagata01asl}Nagata,M.,Saito,T.,\BBA\Suzuki,K.\BBOP2001\BBCP.\newblock\BBOQUsingthe{Web}asaBilingualDictionary\BBCQ\\newblockIn{\BemProc.WorkshoponData-drivenMethodsinMachineTranslation},\mbox{\BPGS\95--102}.\bibitem[\protect\BCAY{Oh\BBA\Choi}{Oh\BBA\Choi}{2005}]{Oh05}Oh,J.\BBACOMMA\\BBA\Choi,K.\BBOP2005\BBCP.\newblock\BBOQAutomaticExtractionofEnglish-KoreanTranslationsforConstituentsofTechnicalTerms\BBCQ\\newblockIn{\BemProc.2ndIJCNLP},\mbox{\BPGS\450--461}.\bibitem[\protect\BCAY{Rapp}{Rapp}{1999}]{Rapp99as}Rapp,R.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationofWordTranslationsfromUnrelated{English}and{German}Corpora\BBCQ\\newblockIn{\BemProc.37th{ACL}},\mbox{\BPGS\519--526}.\bibitem[\protect\BCAY{佐々木\JBA宇津呂\JBA佐藤}{佐々木\Jetal}{2006}]{Sasaki06}佐々木靖弘\JBA宇津呂武仁\JBA佐藤理史\BBOP2006\BBCP.\newblock\JBOQ関連用語収集問題とその解法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\151--175}.\bibitem[\protect\BCAY{高木\JBA木田\JBA外池\JBA佐々木\JBA日野\JBA宇津呂\JBA佐藤}{高木\Jetal}{2005}]{Takagi05aj}高木俊宏\JBA木田充洋\JBA外池昌嗣\JBA佐々木靖弘\JBA日野浩平\JBA宇津呂武仁\JBA佐藤理史\BBOP2005\BBCP.\newblock\JBOQウェブを利用した専門用語対訳集自動生成のための訳語候補収集\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\mbox{\BPGS\13--16}.\bibitem[\protect\BCAY{Tonoike,Kida,Takagi,Sasaki,Utsuro,\BBA\Sato}{Tonoikeet~al.}{2005}]{Tonoike05cs}Tonoike,M.,Kida,M.,Takagi,T.,Sasaki,Y.,Utsuro,T.,\BBA\Sato,S.\BBOP2005\BBCP.\newblock\BBOQEffectofDomain-SpecificCorpusinCompositionalTranslationEstimationforTechnicalTerms\BBCQ\\newblockIn{\BemProc.2ndIJCNLP,CompanionVolume},\mbox{\BPGS\116--121}.\end{thebibliography}\begin{biography}\bioauthor{外池昌嗣}{2001年京都大学工学部情報学科卒業.2003年同大学大学院情報学研究科修士課程知能情報学専攻修了.2007年同大学大学院情報学研究科博士後期課程修了予定.自然言語処理の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻助教授.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院博士課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\end{biography}\biodate\end{document}
| |
V12N03-04
|
\section{はじめに}
label{sec:introduction}\smpt{結合価辞書の重要性}用言の下位範疇化構造や選択制限などの詳細な情報は、自然言語処理の様々な分野で利用されている。本稿では、これらの詳細な情報を結合価情報と呼び、結合価情報を持つ辞書を結合価辞書と呼ぶ。また、結合価辞書のエントリを結合価エントリ、あるいは単にエントリと呼ぶ。結合価辞書を用いたシステムには、機械翻訳システム(\altje\citep{Ikehara:1991}、PIVOT\citep{Nomura:2002j})や自動要約システム(CBsummarizer\citep{Nomura:2002j})、言い換えシステム(蔵\citep{Takahashi:01})、ゼロ代名詞照応システム(ZeroChecker\citep{Yamura-Takei:Fujiwara:Yoshie:Aizawa:2002})、質問応答システム(SAIQA-II\citep{Sasaki:2004})などがあり、多岐に渡っている。また、近年では、結合価辞書等の詳細な辞書情報とコーパスなどを利用した統計的手法を融合させる研究も行なわれている\citep{Uszkoreit:2002,Copestake:Flickinger:Pollard:Sag:1999}。例えば、\citet{Carroll:Minnen:Briscoe:1998}は、統計的統語解析器に下位範疇化構造の情報を持つ辞書を利用することで、解析精度をあげられることを示している。\smpt{言語現象を調べることに利用できる}このように、詳細な情報を持つ結合価辞書は非常に有用なため、様々な自然言語処理システムで利用されている。また、交替などの言語現象の量的な調査にも利用できる。ここで交替関係とは、異なる表層的構造によって、ほぼ同じ意味関係を表すことができるような関係である。例えば、「(店の)製品が\ul{完売する}」と「(店が)製品を\ul{完売する}」は表層的構造は異なるが、ほぼ同じ意味関係を持ち、交替している。このような交替は、英語では、\citet{Levin:1993}によって80種類以上提示されている。日本語では、\citet{Bond:Baldwin:Fujita:2002j}によって大規模に調査が行なわれている。\citet{Bond:Baldwin:Fujita:2002j}によると、最も多い交替タイプは「砂糖が\ul{溶ける}」\tot「私が砂糖を\ul{溶く}」などのように、自動詞の主語(\sbj)が他動詞の目的語(\obj)となる交替(以降、\soaltと呼ぶ)であると報告されている。\soaltは全交替の34\%を占めており、最も一般的な交替タイプであるといえる。本稿では、この、最も一般的な交替タイプである\soaltを対象とし、既存の結合価辞書を用いて交替の選択制限の対応関係等の調査を量的に行なう。また、その調査結果に基づき、交替情報を用いて新たな結合価エントリを獲得する方法を提案する。\smpt{結合価辞書の構築方法の先行研究}結合価辞書の構築方法は多く提案されており、これらの構築方法は大別して3種類に分類できる。第一に人手で作成する方法がある\citep{Shirai:1999zj}。人手で作成する方法の利点は、質の高い言語資源が獲得できるという点である。しかし、その作成にはコストと時間がかかるという問題や、作成するエントリが網羅性に欠けるという問題がある。また、内省による作成の場合、作成者や作成時期の異なりによる判断の揺れが起こり、辞書の一貫性を保つことが難しいという問題もある。第二に、コーパスから情報を学習する方法が提案されている\citep{Li:Abe:1998,Manning:1993,Utsuro:1997,Kawahara:Kurohashi:2001}。しかし、\citet{Korhonen:2002}は、コーパスからの単言語の下位範疇化構造を自動的に獲得する場合、精度は約80\%が上限である事を示している。また、\citet{Utsuro:1997}や\citet{Korhonen:2002}は、下位範疇化構造を自動的に獲得する場合でも、人手による修正が必要であると述べている。このように、自動学習では、必然的にエラーが含まれ精度が保証できないため、完全に自動構築された結合価辞書はほとんどない。第三に、言語資源を統合する方法が提案されている。例えば、既存の結合価辞書を半自動的に拡張する方法\citep{Fujita:Bond:2002a,Bond:Fujita:2003,Hong:Kim:Park:Lee:2004}、コーパスからの学習データを用いて拡張する方法\citep{Korhonen:2002}、多言語辞書を用いて単言語データを豊かにする方法\citep{Probst:2003}が提案されている。このように、言語資源を統合する方法は多様であるが、全般に人手で全て作成するよりコストが安く、コーパスから自動的に獲得するより信頼性が高いという利点がある。また、こうした方法では、様々な研究者や組織により構築されている言語資源を有効利用できるという利点もある。\smpt{提案手法}本稿で提案する結合価エントリの獲得方法は、第三の言語資源を統合する方法に分類できる。本提案手法では、交替を起こす動詞に対し、交替の片側に対応する結合価エントリが不足している場合、不足しているエントリを自動的に獲得する手法を提案する。本提案手法では、見出し語レベルでの交替情報、すなわち、「溶ける」と「溶く」は交替する、という情報と、交替の片側に対応する既存の結合価エントリを種として用いる。これらから、交替のもう一方に対応する新たな結合価エントリを獲得し、両エントリ間の対応関係を辞書に付与する。すなわち、本提案手法は、交替を起こす動詞で不足している結合価エントリを補うと共に、結合価エントリ間の交替関係の情報を付与することで結合価辞書をより豊かにすることができる。また、既存の結合価辞書が2言語の結合価情報を持つ場合、両方の言語の結合価情報も同時に獲得できる。そのため、本提案手法は特に機械翻訳において利用価値が高い。以下、\ref{sec:resource}章では、本稿で利用する言語資源を紹介する。\ref{sec:exam}章では、\soaltの調査を行なう。\ref{sec:create-method}章では、\ref{sec:exam}章の調査に基づき、交替情報を用いた結合価エントリの作成方法を提案する。\ref{sec:eva}章では本提案手法で作成した結合価エントリの評価について報告する。\ref{sec:discuss}章では、本提案手法の改良や展開について議論し、\ref{sec:conclusion}章はまとめである。
\section{利用する言語資源}
\label{sec:resource}本章では、交替を起こす動詞の特徴調査に利用する言語資源について述べる。調査に利用する言語資源は、交替を起こす動詞のリスト(以下、交替動詞リストと呼ぶ)と、既存の2言語の結合価情報を持つ結合価辞書である。また、これらの言語資源は、\ref{sec:create-method}章で提案するの結合価エントリの獲得方法でも利用する。\smpt{交替動詞リストの説明}まず、交替動詞リストとは、\soaltを起こす動詞の組み合わせのリストである。このリストは、\citet{Jacobsen:1981}と\citet{Bullock:1999}の日本語交替のデータと、日英辞書であるEDICT\citep{Breen:1995,Breen:2004}を元に我々が作成したものであり、日本語の和語動詞の自動詞と他動詞のペアと、各動詞につき一つ以上の英訳(gloss)で構成される。\citet{Jacobsen:1981}のリストには370組、\citet{Bullock:1999}のリストには190組の和語動詞が登録されている。我々がEDICTを用いて抽出したのは434組である。これらのリストから、「俯向く」「俯く」などの表記揺れを吸収し、重複を除くと571組になる。更にこの中から、\soalt{}として不適切な動詞の組み合せ、例えば、「混む」「込める」のように語義の異なる組み合わせや、「漏れる」「漏る」のような自動詞同士の組み合わせなどを人手で削除し\footnote{\citet{Jacobsen:1981}と\citet{Bullock:1999}のリストからも、主に、語義が異なるという理由で約70組が削除された。}、最終的に460組を残した。このリストの例を表\ref{tab:list}に示す。\begin{table}[htbp]\centering\begin{tabular}{ll|ll}\multicolumn{2}{c|}{\jita{自動詞}}&\multicolumn{2}{c}{\jita{他動詞}}\\\hline日本語&英訳&日本語&英訳\\\hline溶ける&dissolve&溶く&dissolve\\泣く&cry&泣かす&makecry\\上がる&rise&上げる&lift\\\end{tabular}\caption{\soaltのリストの例}\label{tab:list}\end{table}\smpt{結合価辞書(ALT)の説明}また、本稿で用いた結合価辞書は、NTTで日英機械翻訳システム\altje用に開発してきた結合価辞書\citep{GoiTaikeij}である。この結合価辞書は日本語と英語の両方の結合価情報を持っている。\altje{}の結合価辞書は、慣用表現辞書と形容詞を除き、5,062の日本語動詞と11,214の結合価エントリで構成されている。日本語側の結合価情報には項構造と選択制限の情報が含まれる。\mpt{項構造の説明}ここで項とは、動詞の意味を完結させるために必要な情報であり、用いられる表層的な格助詞、意味役割の情報を含んでいる。また多くのエントリには、必須格に加えて、曖昧性を減らすため、随格も付与されている。\begin{figure*}[htb]\begin{center}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}[t]{ll}\multicolumn{2}{l}{J-EEntry:302116}\\\\\sbj&┌\textbf{N1}:\izj{具体物}が\node{sbj}{\gm{nom}}\\\ix&├\textbf{N3}:\izj{具体物}に\node{ix1}{\gm{dat}}\\&└\textbf{Vi}:溶ける\\\\[-1ex]\\\sbj&┌\ul{\textbf{N1}}\node{Esbj}{\gm{subject}}\\&├\textbf{Vi}\ul{\eng{dissolve}}\\\ix&└\textbf{PP}\node{Eix1}{\ul{\eng{in}\textbf{N3}}}\\\end{tabular}\end{minipage}}&\framebox{\begin{minipage}[t]{0.45\textwidth}\begin{tabular}[t]{ll}\multicolumn{2}{l}{J-EEntry:508661}\\\node{erg}{\abs}&┌\textbf{N1}:\izj{人人工物}が\gm{nom}\\\node{obj}{\obj}&├\textbf{N2}:\izj{具体物}を\gm{acc}\\\node{ix2}{\ix}&├\textbf{N3}:\izj{無生物}に\gm{dat}\\&└\textbf{Vt}:溶く\\\\[-1ex]\node{Eerg}{\abs}&┌\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{dissolve}}\\\node{Eobj}{\obj}&├\ul{\textbf{N2}}\gm{directobject}\\\node{Eix2}{\ix}&└\textbf{PP}\ul{\eng{in}\textbf{N3}}\\\end{tabular}\end{minipage}}\end{tabular}\caption{\mbox{\soaltの例:\textbf{Vi}溶ける\protect\eng{dissolve}}\tot\textbf{Vt}溶く\protect\eng{dissolve}}\label{fig:toku-tokeru}\vspace*{-5mm}\end{center}\aanodecurve[r][0]{ix1}[l][0]{ix2}{10mm}\aanodecurve[r][0]{Eix1}[l][0]{Eix2}{10mm}\aanodecurve[r][0]{sbj}[l][0]{obj}{10mm}\aanodecurve[r][0]{Esbj}[l][0]{Eobj}{9mm}\end{figure*}図\ref{fig:toku-tokeru}に、\altjeの結合価辞書の例を示す。図\ref{fig:toku-tokeru}の「溶く」\tot「溶ける」は\soaltの関係を持ち、図のように項構造をリンクできる。但し図\ref{fig:toku-tokeru}では、\abs{}は他動詞側だけに現れ、自動詞側では対応する意味役割がない。また、図\ref{fig:toku-tokeru}で、N1は主格を、N2、N3は目的格を表す変数であり、本稿ではこれらN1、N2、N3等を格役割と呼ぶ。また、図\ref{fig:toku-tokeru}で、\izj{}で示したのは格の選択制限であり、意味属性か字面、あるいは、\iz{*}のリスト形式で定義されている。意味属性は2,710カテゴリを持つ日本語語彙大系\citep{GoiTaikeij}のシソーラスで定義されている。このシソーラスの上位4レベルを図\ref{fig:iz}に示す。このシソーラスは最大12レベルまでの深さを持つ非平衡型階層構造である。レベル1は\iz{名詞}であり、レベル12は\iz{農作業},\iz{出演}などの細かな意味属性を含む。レベルが深くなるにつれ、意味はより特殊化されているため、選択制限はより厳しくなる。また、字面は、特定の語とだけ一致し得ることを、\iz{*}は、あらゆる語や節を取り得ることを示している。なお、本稿では、\soalt{}における他動詞側の主格を\abs(ergative)、目的格を\obj{}、自動詞側の主格を\sbj{}と呼ぶ。また、\abs{}、\obj{}、\sbj{}以外の格は、\ix{}と呼ぶ\citep[p11]{Dixon:1991}。\smpt{調査対象と実験対象}本稿で用いる交替動詞リスト(460組)のうち、315組(68.5\%)は、図\ref{fig:toku-tokeru}のように自動詞と他動詞の両方のエントリが既存の結合価辞書に存在する。また、79組(17.2\%)は自動詞か他動詞のどちらかのみが既存の結合価辞書に存在する(図\ref{fig:venn}参照)。自動詞、他動詞共に結合価辞書に存在しないのは、66組合せ(14.3\%)である。ここで、両方のエントリが存在する315組をエントリに展開すると、381組の結合価エントリとなる。この381組の結合価エントリを利用して、\soaltの交替の特徴調査を行なう(\ref{sec:AOS-compare}章)。また、片側のエントリのみが結合価辞書に存在する79組の動詞について、欠如している結合価エントリの獲得実験を行なう(\ref{sec:create-method}章)。\begin{figure}[htbp]\fbox{\begin{pspicture}(12,4)\psset{fillstyle=solid}\psset{fillcolor=white}\psellipse(7,2)(5,1.7)\psset{fillcolor=white}\psclip{\psset{fillcolor=white}\psellipse(5,2)(4.75,1.7)}\psset{fillcolor=lightgray}\psellipse(7,2)(5,1.7)\endpsclip\rput(0.75,3.75){\shortstack{全460組}}\rput(6,2){\shortstack{自/他動詞共に存在\\315組}}\rput(1.2,2){\shortstack{他動詞のみ\\27組}}\rput(11,2){\shortstack{自動詞のみ\\52組}}\rput(6,0.05){\shortstack{自/他動詞共に存在せず\hspace{0.5cm}66組}}\end{pspicture}}\centering\caption{\soaltの交替動詞リストに対応する結合価エントリの有無}\label{fig:venn}\end{figure}{\setlength{\tabcolsep}{4.7pt}\begin{figure*}[hbtp]\begin{center}\begin{tabular}{llllllllllllllllllllllll}&&\multicolumn{10}{c}{\sa{1}{名詞}}\\[2ex]\multicolumn{7}{c}{\sa{2}{具体}}&\multicolumn{14}{c}{\sa{1000}{抽象}}\\[2ex]\multicolumn{2}{c}{\sa{3}{主体}}&\multicolumn{3}{c}{\sa{388}{場所}}&\multicolumn{2}{c}{\sa{533}{具体物}}&\multicolumn{2}{c}{\sa{1001}{抽象物}}&\multicolumn{3}{c}{\sa{1235}{事}}&\multicolumn{9}{c}{\sa{2422}{抽象的関係}}\\[2ex]\sa{4}{人\\~}&\sa{362}{組\\織}&\sa{389}{施\\設}&\sa{458}{地\\域}&\sa{468}{自\\然}&\sa{534}{生\\物\\~}&\sa{706}{無\\生\\物}&\sa{1002}{抽象物\\(精神)}&\sa{1154}{\hspace*{-1em}抽象物\\\hspace*{-1em}(行為)}&\sa{1236}{人\\間\\活\\動}&\sa{2054}{事\\象}&\sa{2304}{自\\然\\現\\象}&\sa{2423}{存\\在}&\sa{2432}{類\\・\\系}&\sa{2443}{関\\連}&\sa{2483}{性\\質}&\sa{2507}{状\\態}&\sa{2564}{形\\状}&\sa{2585}{数\\量}&\sa{2610}{場}&\sa{2670}{時\\間}\end{tabular}\nodeconnect[b]{c1}[t]{c2}\nodeconnect[b]{c1}[t]{c1000}\nodeconnect[b]{c2}[t]{c3}\nodeconnect[b]{c2}[t]{c388}\nodeconnect[b]{c2}[t]{c533}\nodeconnect[b]{c3}[t]{c4}\nodeconnect[b]{c3}[t]{c362}\nodeconnect[b]{c388}[t]{c389}\nodeconnect[b]{c388}[t]{c458}\nodeconnect[b]{c388}[t]{c468}\nodeconnect[b]{c533}[t]{c534}\nodeconnect[b]{c533}[t]{c706}\nodeconnect[b]{c1000}[t]{c1001}\nodeconnect[b]{c1000}[t]{c1235}\nodeconnect[b]{c1000}[t]{c2422}\nodeconnect[b]{c1001}[t]{c1002}\nodeconnect[b]{c1001}[t]{c1154}\nodeconnect[b]{c1235}[t]{c1236}\nodeconnect[b]{c1235}[t]{c2054}\nodeconnect[b]{c1235}[t]{c2304}\nodeconnect[b]{c2422}[t]{c2423}\nodeconnect[b]{c2422}[t]{c2432}\nodeconnect[b]{c2422}[t]{c2443}\nodeconnect[b]{c2422}[t]{c2483}\nodeconnect[b]{c2422}[t]{c2507}\nodeconnect[b]{c2422}[t]{c2564}\nodeconnect[b]{c2422}[t]{c2585}\nodeconnect[b]{c2422}[t]{c2610}\nodeconnect[b]{c2422}[t]{c2670}\caption{日本語語彙大系の上位4階層(一般名詞シソーラス)}\label{fig:iz}\end{center}\end{figure*}}
\section{\soalt{}の調査}
\label{sec:exam}\subsection{\abs\obj\sbjの選択制限の調査}\label{sec:AOS-compare}交替では、同じ意味役割が、異なる表層格(syntacticposition)に出現し得る\citep[pp118--123]{Gunji:2002}。「溶く」\tot「溶ける」の交替を例にあげると、溶かされる役は自動詞「溶ける」の主語(\sbj{})であり、かつ、他動詞「溶く」の目的語(\obj{})でもある。\citet{Baldwin:1999b}は、異なる表層格に対応する選択制限が出現すると仮定している。\citet{Dorr:1997}は、一つの表記により両方の交替のエントリを生成しており、この仮定を支持しているようである。この仮定のように、異なる表層格に同じ選択制限が用いられるのであれば、交替の片側のエントリからもう片側のエントリを作成する場合に、対応する表層格では同じ選択制限が利用できる。但し、\abs{}は空の項と交替するため、他動詞側のエントリを作成する場合の選択制限を、対応する表層格から得ることができない。しかし、\citet{Kilgarriff:1993}は、\abs{}は\izs{意識(sentient)}と\izs{意志性(volition)}を持ち、\obj{}は\izs{状態変化(changes-state)}と、\izs{影響(causallyaffected)}を受けるという特徴を持つとしている。Kilgarriffの主張のように、特に\abs{}の意味属性が特徴的であれば、他動詞側のエントリを作成する場合に、最も典型的な意味属性を用いて\abs{}を作成することができる。そこで本章では、\soaltにおける意味役割、具体的には\abs{}、\obj{}、\sbj{}の選択制限として用いられている意味属性の同一性や性質を調査する。特に\sbj{}と\obj{}に同一の選択制限が利用できるかどうか、また、\absに頻出する選択制限を調査する。まず、選択制限として用いられている意味属性の同一性を検討するため、\abs{}、\obj{}、\sbj{}の意味属性間の距離を調査する。選択制限は意味属性のリストで表されるため、2つの選択制限に含まれる意味属性間の親等\footnote{親等とは、「親族関係の親疎を測る単位。直系親では、親子の間を一世とし、その世数によって定める。〜中略〜傍系親では、それぞれの共通の祖先までの世数を合計して算出する。〜後略〜」(広辞苑第四版CD-ROM版\citep{koujien}より)}のうち、最少のものを最近距離として用いる。親等は例えば、図\ref{fig:iz}より、\izj{名詞}と\izj{具体}は1親等、\izj{名詞}と\izj{主体}は2親等、のようになる。そのため、最近距離は近ければ近いほど、それぞれの意味属性が近い事を示している。但し、利用する結合価辞書は人手で作成されたものであるため、1親等程度の差は、作成者や作成時期の異なりによる揺れの可能性もある。例えば、図\ref{fig:toku-tokeru}の\ix{}の選択制限はそれぞれ「溶ける」では\izj{具体物}、「溶く」では\izj{無生物}であり、最近距離が1となるが、これは有意な差ではないと考えられる。しかしこの場合も、最近距離は高々1であり、最近距離が近ければ近いほど、意味属性が近いことに変わりはない。図\ref{fig:sr-diff}は、意味役割が対応する\abs{}と\sbj{}、文法役割が対応する\obj{}と\sbj{}の最近距離の分布の調査結果を示している。但し、最近距離0の組み合わせのうち、選択制限が完全に同一になったものを「0(同一)」に分類し、その他のものを「0」に分類している。例えば、図\ref{fig:toku-tokeru}の「溶く」\tot{}「溶ける」では、\sbj{}と\obj{}の選択制限は共に\izj{具体物}なので、最近距離は「0(同一)」である。また、\abs{}の選択制限は\izj{人人工物}であり、図\ref{fig:iz}より\izj{人}と\izj{具体物}は3親等、\izj{人工物}と\izj{具体物}は2親等\footnote{\izj{人工物}は\izj{無生物}(図\ref{fig:iz})の子供なので、\izj{具体物}の孫である。}なので、\abs{}と\sbj{}の最近距離は2である。図\ref{fig:sr-diff}から、\obj{}と\sbj{}の選択制限は最近距離0(同一)が30.1\%、最近距離0が27.5\%であり、ここまでで、全体の57.6\%を占める。対して、\abs{}と\sbj{}では、最近距離1が26.7\%と最も多く、次が最近距離2の21.5\%である。つまり、\obj{}と\sbj{}は文法的には異なる位置にあるが、\citet{Bond:Baldwin:Fujita:2002j}が主張しているように、選択制限の一致率は高い。特に、完全に同じ選択制限でなくとも、少なくとも一部は同じ意味属性を含んでいる割合が非常に高い。一方、\abs{}と\sbj{}は文法役割は共に主語だが、\obj{}と\sbj{}に比べ、一致率は低く、選択制限は異なっている。\begin{figure}[h]\begin{center}\includegraphics[angle=0,width=100mm]{SR-taiou.eps}\caption{選択制限の最近距離}\label{fig:sr-diff}\end{center}\end{figure}次に、\abs{}、\obj{}、\sbj{}、特に\abs{}が\izs{意識}と\izs{意志性}を持つかどうかを調べる。日本語語彙大系の階層の中で、\izj{主体}配下の意味属性は\izs{意識}と\izs{意志性}を持ち、\izj{主体}配下の意味属性が含まれる割合が高いほど、その格の動作主性(agentivity)が高いといえる。\abs{}、\obj{}、\sbj{}の選択制限に、\izj{主体}配下の意味属性が含まれる割合は、\abs{}で60.1\%、\obj{}で14.1\%、\sbj{}で13.9\%であった。つまり、\citet{Kilgarriff:1993}が主張しているように、\abs{}は非常に動作主性が高いが、\sbj{}は文法的には同じ位置にあるが動作主性は低い。なお、\abs{}の選択制限として最も出現頻度が高かったのは、\izj{主体}であり、全\abs{}の41.4\%を占めた。これらの結果をまとめると、\sbjと\objは完全に一致するわけではないが、少なくとも一部の意味制限が一致する確率が高く、\sbjと\objの選択制限として同一の選択制限が利用できるといえる。また、\abs{}は\izs{意識}と\izs{意志性}を持つ割合が非常に高く、\abs{}の選択制限として最もよく利用されるのは\izj{主体}である。\subsection{日本語と英語の交替の比較調査}\label{sec:alternations}本節では、2言語間の交替比較を行なう。特に、日本語が\soaltを起こす場合に、対応する英訳の結合価情報の変化を調査する。結合価エントリ獲得の観点からすると、日本語が\soaltを起こす場合に、英語側の結合価の変化も規則的であれば、英語側の結合価情報も日本語側と同時に獲得が可能であると予測できる。この調査には、交替動詞リストを用いる。交替動詞リストは日本語は460組み合わせだが、多くの動詞は英訳が複数あるため、英訳の異なりを考慮すると、全部で839の組み合わせからなる。このリストの英訳組み合わせを分類した結果を、表\ref{tb:alternation-type}に示す。{\setlength{\tabcolsep}{2.2pt}\begin{table*}[h]\small\begin{tabular}{lllllllrr}\multicolumn{2}{c}{日本語}&\multicolumn{2}{c}{英訳}&\multicolumn{2}{c}{英語構造}&タイプ&数&(\%)\\\jita{自動詞}&\jita{他動詞}&\jita{自動詞}&\jita{他動詞}&\jita{自動詞}&\jita{他動詞}&\\\hline\hline弱まる&弱める&\sbj\ul{weaken}&\abs\ul{weaken}\obj&\eng{\sbjVi}&\eng{\absVt\obj}&\typeSO&138&30.0\\漏れる&漏らす&\sbjbe\ul{omitted}&\abs\ul{omit}\obj&\eng{\sbjbeVt-ed}&\eng{\absVt\obj}&\iz{passive}&91&19.8\\泣く&泣かす&\sbj\ul{cry}&\absmake\obj\ul{cry}&\eng{\sbjVi/beAdj}&\eng{\absVc\objVi/Adj}&\iz{synthetic}&30&6.5\\\hline亡くなる&亡くす&\sbj\ul{passaway}&\abs\ul{lose}\obj&\eng{\sbjVi}&\eng{\absVt\obj}&主辞が異なる&197&42.8\\%\eng{\absVt\obj}&じゃれる&じゃらす&\sbj\ul{play}&\abs\ul{play}with\obj&\eng{\sbjVi}&\eng{\absVtprep\obj}&構造が異なる&4&0.9\\\end{tabular}\\[1ex]\footnotesize{Vcは\eng{make,get,let,become}等の制御動詞(controlverb)。実際のエントリには随格が含まれることもある。}\caption{英語側交替タイプ分類}\label{tb:alternation-type}\end{table*}}表\ref{tb:alternation-type}の通り、英訳を5タイプに分類した。線より上は、自動詞側も他動詞側も英語の主辞が同じものである。これらは、形態変化を伴わない\typeSOタイプ、形態変化を伴う\iz{passive}タイプ、合成的に訳される\iz{synthetic}タイプの3種類からなる。\typeSO{}タイプでは、英語側も\soaltを許す非対格動詞が使われている。このタイプに分類されたものは最も多く、30.0\%を占める。\iz{passive}タイプでは、日本語の自動詞側に対応する英訳が、他動詞の受身として訳されている。このタイプに分類されたものは19.8\%を占める。\iz{synthetic}タイプでは、日本語の他動詞側に対応する英訳が、制御動詞(controlverb)が自動詞か形容詞を補語として持つ形で訳されている。用いられる制御動詞は\eng{make}が多いが、\eng{get,let,become}などの場合もある。このタイプに分類されたものは6.5\%を占める。線より下の2タイプは、英語の主辞が異なっている(42.8\%)か、\eng{\sbjplay\tot\absplaywith\obj}のように、英語の主辞は同じだが結合価の変化が上記のクラスに当てはまらないものである(0.9\%)。ただし、同じ日本語ペアに対し、英訳組み合わせが複数ある場合は「主辞が同じ」組み合わせが一つでもあればそちらに分類している。例えば、「集まる」\tot「集める」の英訳は\eng{gather\totcollect}と、\eng{begathered\totgather}の組み合わせがあるため、\iz{passive}タイプに分類している。結合価辞書構築の観点からすると、最初の3タイプのように英語の主辞が同じで、その結合価の変化を規則化できる場合、日本語の交替を作成すると同時に、英訳も自動的に生成できる。つまり、交替の片側の英訳からもう片側の交替の英訳を作成できる可能性は、表\ref{tb:alternation-type}から56.3\%(30.0\%$+$19.8\%$+$6.5\%)と見積もることができる。但し、最初の3タイプに分類されなかったものでも、他の辞書等から異なる英訳を抽出すれば、このタイプに分類される可能性がある。また、逆に、ほとんどの動詞が複数の英訳を持つ事からもわかるように、同じ主辞を用いて英訳が生成できたとしても、その英訳が最適とは限らない。\smpt{日マ}さて、本章では日英の交替の比較を行なったが、他の言語対の場合でも、多くはこのような分類になると思われる。例えば、日本語とマレー語の場合、日本語側が\soaltなら、マレー語では一般に、同じ語幹に自動詞と他動詞で違う接辞をとる交替で翻訳できる。例えば、「(砂糖が水に)溶ける」\tot「(私が砂糖を水に)溶く」における「溶ける」\tot{}「溶く」はマレー語では\eng{larut}\tot\eng{\ul{me}larut\ul{kan}}である。しかし、マレー語においてもすべての日本語の\soaltをこのように翻訳できるわけではなく、合成的に翻訳したり、違う動詞で翻訳することもある。このように、ある言語の交替が目的言語側でも似た交替を用いて翻訳できるとは限らない。そのため、目的言語の結合価情報の翻訳方法として、以下の4通りの方法が考えられる。\begin{enumerate}\item目的言語でも交替として翻訳できる場合。但し、一つの交替になるとは限らない。日英の場合、\typeSO{}タイプと\iz{passive}タイプがこれにあたる。\item目的言語では、交替の意味の差を合成的に翻訳する場合。日英の場合、\iz{synthetic}タイプがこれにあたる。\item目的言語では、違う語として翻訳する場合。日英の場合、「主辞が異なる」としたタイプがこれにあたる。\item目的言語では交替によるニュアンスの差を表すことができず、両方同じ翻訳になる場合。日英の場合、表\ref{tb:alternation-type}には、ここに分類されるものはなかった。しかし、例えば、「私に英語がわかる」「私が英語をわかる」という交替を考えると、英語では共に\eng{IcanunderstandEnglish}と訳され、日本語側の交替に対応した英訳の変化がない。\end{enumerate}
\section{結合価エントリの作成方法}
\label{sec:create-method}\ref{sec:exam}章では、\soalt{}を起こす動詞の特徴を調査した。その結果、互いに交替する項(\sbj{}と\obj{})では、選択制限は完全に一致するわけではないが、少なくとも一部の意味制限が一致する確率が高く、また、\abs{}は自動詞側には対応する項がないが、その選択制限の出現傾向には非常に偏りがあることがわかった。そこで本章では、これらの調査結果に基づいた新しい結合価エントリの作成方法を提案する。本提案手法では、交替動詞リストに載っており、交替の片側にしか対応する結合価エントリが存在しない動詞に対し、存在する方の既存のエントリを種(seed)として用い、欠如している結合価エントリを自動的に作成する。本手法で自動的に作成された結合価エントリは、最終的には人手で修正する必要があるにせよ、ベースとなる結合価エントリを獲得できると考えられる。\subsection{結合価エントリの基本的作成方法}\label{sec:basic-method}基本的な結合価エントリの作成方法は下記の通りである。\begin{enumerate}\item元の結合価エントリの、各項N$_i$に対して、\begin{description}\item[\if]\hspace{3mm}N$_i$が交替する場合\begin{description}\item[\\if]\hspace{3mm}他の項に対応する\textbf{then}対応する項に変更する\item[\\elseif]\hspace{3mm}対応する項がない\textbf{then}削除する\end{description}\item[\else]\hspace{3mm}そのまま複製する\end{description}\item新しい結合価エントリに該当する交替における必須格が不足していれば、デフォルトの必須格を追加する\end{enumerate}ここで、デフォルトとして用いる必須格の情報は、既存の同じ交替を取る結合価エントリの組合せの中で、該当する格として最も出現頻度が高いものを利用する。また、交替における必須格とは、\soalt{}の場合、\abs{}、\obj{}、\sbj{}である。\subsection{日本語側:結合価エントリ作成方法}\label{sec:Experimental_Method}\paragraph{自動詞側作成方法}\label{sec:jap-int}他動詞側エントリから自動詞側エントリを作成する方法を述べる。\obj{}と\sbj{}が交替するので、\objの選択制限を\sbjの選択制限として複製し、格助詞を「ヲ格」から「ガ格」に変更する。\absは対応する格役割がないため削除し、それ以外の項は全てそのまま複製する。図\ref{fig:kizutuku-kizutukeru}に、自動詞側エントリの作成例を示す。なお、図\ref{fig:kizutuku-kizutukeru}から\ref{fig:odoroku-odorokasu}で、[SeedEntry]は作成元の、[NewEntry]は新しく作成する結合価エントリを示している。また、図\ref{fig:kizutuku-kizutukeru}から\ref{fig:odoroku-odorokasu}には、英語側の結合価情報作成例も併記している(\ref{sec:create_eng}章参照)。\begin{figure*}[htb]\begin{center}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{NewEntryID:700030}\\\\\sbj&┌\textbf{{N1}}:\izj{人動物}\node{sbj8}{が}\\\ix&{├}\textbf{{N12}}:\izj{争い}\node{de8}{で}\\&└\textbf{Vi}:傷付く\\\\[-1ex]\sbj&{┌}\ul{\textbf{N1}}\gm{subject}\node{Esbj8}{}\\&├\textbf{Cop}\eng{be}\textbf{Vp}{\ul{\eng{injured}}}\\\ix&{└}\textbf{PP}\ul{\eng{in}\textbf{N12}}\node{Ede8}{}\\\end{tabular}\end{minipage}}&\framebox{\begin{minipage}[t]{0.45\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{SeedEntryID:760038}\\\node{erg8}{\abs}&┌\textbf{{N1}}:\izj{主体}が\\\node{obj8}{\obj}&├\textbf{{N2}}:\izj{人動物}を\\\node{de9}{\ix}&{├}\textbf{{N12}}:\izj{争い}で\\&└\textbf{Vt}:傷付ける\\[-1ex]\node{Eerg8}{\abs}&{┌}\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{injure}}\\\node{Eobj8}{\obj}&{├}\ul{\textbf{N2}}\gm{directobject}\\\node{Ede9}{\ix}&{└}\textbf{PP}\ul{\eng{in}\textbf{N12}}\\\end{tabular}\end{minipage}}\\\end{tabular}\caption{自動詞側作成例\iz{[passive]}[NewEntry]傷付く\protect\eng{\sbjbeinjuredin\ix}\lto[SeedEntry]傷付ける\protect\eng{\absinjure\objin\ix}}\label{fig:kizutuku-kizutukeru}\anodecurve[l][0]{de9}[r][0]{de8}{12mm}\anodecurve[l][0]{obj8}[r][0]{sbj8}{15mm}\anodecurve[l][0]{Ede9}[r][0]{Ede8}{10mm}\anodecurve[l][0]{Eobj8}[r][0]{Esbj8}{12mm}\end{center}\begin{center}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{SeedEntryID:504952}\\\\\sbj&┌\textbf{{N1}}:\izj{食料水}\node{sbj9}{が}\\&└\textbf{Vi}:腐る\\\\[-1ex]\sbj&{┌}\ul{\textbf{N1}}\gm{subject}\node{Esbj9}{}\\&└\textbf{Vi}\node{surp1}{\ul{\eng{spoil}}}\\\end{tabular}\end{minipage}}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{NewEntryID:750039}\\\node{erg9}{\abs}&┌\textbf{{N1}}:\izj{主体}が\\\node{obj9}{\obj}&├\textbf{{N2}}:\izj{食料水}を\\&└\textbf{Vt}:腐らす\\[-1ex]\node{Eerg9}{\abs}&{┌}\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{spoil}}\\\node{Eobj9}{\obj}&{└}\ul{\textbf{N2}}\gm{directobject}\\\end{tabular}\end{minipage}}\end{tabular}\caption{他動詞側作成例\iz{[\typeSO]}[SeedEntry]腐る\protect\eng{\sbjspoil}\rto[NewEntry]腐らす\protect\eng{\absspoil\obj}}\label{fig:kusaru-kusarasu}\anodecurve[r][0]{sbj9}[l][0]{obj9}{15mm}\anodecurve[r][0]{Esbj9}[l][0]{Eobj9}{12mm}\vspace{5mm}\begin{tabular}{ll}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{SeedEntryID:202204}\\\sbj&┌\textbf{{N1}}:\izj{主体動物}が\node{sbj2}{}\\&{├}\textbf{{N3}}:\izj{*}\ul{に}\node{ni}{}\\&└\textbf{Vi}:驚く\\[-1ex]\sbj&{┌}\ul{\textbf{N1}}\gm{subject}\node{Esbj2}{}\\&├\textbf{Cop}\eng{be}\\&|\textbf{Particle}\node{surp1}{\ul{\eng{surprised}}}\\&{└}\textbf{PP}\eng{at/\ul{by}\textbf{N3}}\node{Eni}{}\\\end{tabular}\end{minipage}}\framebox{\begin{minipage}[t]{0.40\textwidth}\begin{tabular}{ll}\multicolumn{2}{l}{NewEntryID:760038}\\\node{erg2}{\abs}&┌\textbf{{N1}}:\izj{*}が\\\node{obj2}{\obj}&├\textbf{{N2}}:\izj{主体動物}を\\&└\textbf{Vt}:驚かす\\[-1ex]\node{Eerg2}{\abs}&{┌}\ul{\textbf{N1}}\gm{subject}\\&├\textbf{Vt}\ul{\eng{surprise}}\\\node{Eobj2}{\obj}&{└}\ul{\textbf{N2}}\gm{directobject}\\\\\end{tabular}\end{minipage}}\\\end{tabular}\caption{他動詞側作成例2\iz{[synthetic]}[SeedEntry]驚く\protect\eng{\sbjbesurprisedat/by\ix}\rto[NewEntry]驚かす\protect\eng{\abs(=\ix)surprise\obj}:自動詞の「ニ格」を他動詞の\objの選択制限にする}\label{fig:odoroku-odorokasu}\end{center}\anodecurve[r][0]{ni}[l][0]{erg2}{12mm}\anodecurve[r][0]{sbj2}[l][0]{obj2}{15mm}\anodecurve[r][0]{Eni}[l][0]{Eerg2}{10mm}\anodecurve[r][0]{Esbj2}[l][0]{Eobj2}{12mm}\end{figure*}\paragraph{他動詞側作成方法}\label{sec:jap-trn}自動詞側エントリから他動詞側エントリを作成する方法を述べる。自動詞の\sbjの選択制限を\objの選択制限として複製し、格助詞を「ガ格」から「ヲ格」に変更する。それから、\absとしてデフォルトの「\izj{主体}が」を加える。これは、\ref{sec:AOS-compare}章の調査で、「\izj{主体}が」が\abs{}として、最も出現頻度が高かったためである。図\ref{fig:kusaru-kusarasu}に作成例を示す。\mpt{前提は?対象とする結合価情報で必須な物は?TT}ここまでは、日本語の格助詞と選択制限の情報のみを利用して新エントリを作成しているが、既存の結合価辞書が英語の結合価情報も持っている場合には、格役割N$_i$が新エントリ側の他の格役割に対応するかどうかの判断に、英語の結合価情報も利用できる。例えば、自動詞「N1\izj{主体動物}が\ul{N3\izj{*}に}驚く」\eng{N1besurprisedat/\ul{byN3}}からは、「\ul{N1\izj{*}が}N2\izj{主体動物}を驚かす」という他動詞が作成でき、自動詞の「ニ格」と他動詞の「ガ格」が交替する(図\ref{fig:odoroku-odorokasu})。よって、自動詞側の格助詞が「ニ格」に対応する英語の前置詞が\eng{by}の場合、自動詞側の「ニ格」の選択制限を\abs{}の選択制限として複製し、「ガ格」とすることができる。この場合は、他動詞側で不足する必須格がなくなるため、デフォルトの必須格を追加する必要はない。\subsection{英語側:結合価エントリ作成方法}\label{sec:create_eng}{\begin{figure}[hb]\begin{minipage}[t]{1.0\textwidth}\border\\\textbf{自動詞側作成方法:}\begin{itemize}\item元の項構造が制御動詞(\eng{make,have,get,cause})を取る場合\footnote{例外として、主辞が制御動詞でない\eng{have}の場合、自動詞側は\eng{Thereis}構文にする。例えば、「及ぼす」\eng{\abshave\objonX}\rto「及ぶ」\eng{Therebe\sbjonX}。}\begin{itemize}\item\absVc\objVi/Adj\rto\sbjVi/beAdj\iz{[synthetic]}\coml{\eng{\absmake\objcry\rto\sbjcry}}\end{itemize}\item制御動詞を取らない場合(元の主辞がVt)\begin{itemize}\item他動詞の主辞が\soaltを起こす場合\begin{itemize}\item\absVt\obj\rto\sbjVi\iz{[\typeSO]}\coml{\eng{\absturn\obj\rto\sbjturn}}\end{itemize}\item起こさない場合\begin{itemize}\item\absVt\obj\rto\sbjbeVt-ed\iz{[passive]}\comll{(\eng{\absinjure\objin\ix}}\comrr{\rto\sbjbeinjuredin\ix)}(図~\ref{fig:kizutuku-kizutukeru}参照)\end{itemize}\end{itemize}\end{itemize}\normalsize\textbf{他動詞側作成方法:}\begin{itemize}\item元の項構造がbe+形容詞の場合\begin{itemize}\item\sbjbeAdj\rto\absVc\objAdj\iz{[synthetic]}\comll{(\eng{\sbjbesurprisedat/by\ix}}\\\comrr{\rto\eng{\abs(=\ix)make\objsurprised)}}(図~\ref{fig:odoroku-odorokasu}参照)\end{itemize}\item元の項構造が他動詞の受身形の場合\begin{itemize}\item\sbjbeVt-ed\rto\absVt\obj\iz{[passive]}\comll{(\eng{\sbjbedefeatedby\ix}}\\\comrr{\rto\eng{\abs(=\ix)defeat\obj)}}\end{itemize}\item元の項構造の主辞が自動詞の場合\begin{itemize}\item自動詞の主辞が\soaltを起こす場合\begin{itemize}\item\sbjVi\rto\absVt\obj\iz{[\typeSO]}\coml{\eng{\sbjspoil\rto\absspoil\obj}}\end{itemize}\item起こさない場合\begin{itemize}\item\sbjVi\rto\absVc\footnote{但し、制御動詞Vcとして\eng{make}を利用}\objVi\iz{[synthetic]}\coml{\eng{\sbjrot\rto\absmake\objrot}}(図~\ref{fig:kusaru-kusarasu}参照)\end{itemize}\end{itemize}\end{itemize}\end{minipage}\border\caption{英語側作成方法}\label{fig:mk-eng}\end{figure}}英語側の結合価エントリの作成方法も、基本的には\ref{sec:basic-method}章で述べた方法と同じである。但し、\altjeの結合価辞書には、英語側には選択制限の情報は付与されていない\footnote{但し、格役割が日本語側と対応するので、格役割をキーとして日本語側に付与されている選択制限を参照できる。}。そのため、英語側の結合価エントリの作成は、主辞にあわせた項構造の変更が中心である。ここで、\ref{sec:alternations}章の調査結果から、英語側は\typeSO{},\iz{passive},\iz{synthetic}の3タイプで作成できるため、作成対象の英訳がどのタイプに分類されるかの判断が重要である。この判断は、図\ref{fig:mk-eng}に示す場合わけにより行なっている。また、図\ref{fig:mk-eng}の場合わけで、英語の主辞が\soaltを起こすかどうかの判断にはLCSデータベース(EVCA+)\citep[\url{http://www.umiacs.umd.edu/~bonnie/LCS_Database_Documentation.html}]{Dorr:1997}を利用した。EVCA+とは、\cite{Levin:1993}によって行なわれた英語の動詞分類(EVCA)を元に拡張されたもので、4,432動詞が492クラスに分類されている。EVCA+から、\soalt{}を起こす動詞として、\eng{dissolve,spoil}など659動詞を抽出し\footnote{\soalt{}を起こす動詞としては、SuffocateVerbs(40.7.ii),VerbsofLightEmission(43.1.c),VerbsofSoundEmission(43.2.d),VerbsofSubstanceEmission(43.4.e),BreakVerbs(45.1.a,45.1.b,45.1.c),BendVerbs(45.2.a,45.2.b,45.2.c),OtherChangeofStateVerbs(45.4.a,45.4.b,45.4.c),VerbsofEntity-SpecificChangeofState(45.5),RollVerbs(51.3.1.a.i),RunVerbs(51.3.2.b.i)のクラスに分類されている動詞を用いた。}、作成対象の英語の主辞がこれらの動詞に含まれるならば\soaltを起こすとし、含まれないならば\soaltを起こさないとした。例えば、自動詞作成例の図\ref{fig:kizutuku-kizutukeru}では、元の項構造が制御動詞を取らず、かつ、主辞である\eng{injure}がEVCA+から抽出した\soalt{}を起こす動詞に含まれていないので、図\ref{fig:mk-eng}の場合わけに基づき、\iz{[passive]}タイプと判断する。\clearpage
\section{交替情報に基づく結合価エントリの獲得実験と評価}
\label{sec:eva}\subsection{対象}\label{sec:experiment_target}\mpt{Opentextかどうか?NH}本実験では、\soalt{}のみを対象とする。従って、実験対象となる動詞は、他動詞側の結合価エントリがない自動詞、あるいは、自動詞側の結合価エントリがない他動詞である。\soaltを起こす動詞の組み合わせは交替動詞リストから抽出する。実験対象のエントリは、\ref{sec:AOS-compare}章の調査で用いたエントリとは別である。一般に、語は複数の語義を持ち、同じ語であっても、語義によって交替を許す場合と許さない場合がある。つまり、同じ語でも、語義によっては交替しないエントリもある。そこで、種として不適切なエントリを少しでも取り除くため、本実験では、自動詞側の見出し語としてリストに登録されているにも関わらず「ヲ格」を持つエントリと、「象は鼻が長い」のような「ハ格」と「ガ格」を両方含むエントリは対象外とする。これにより4エントリが対象外となった。本実験の対象エントリは、他動詞の81エントリ(25見出し語)と、自動詞の115エントリ(37見出し語)、合計196エントリ(62見出し語)となった\footnote{\altjeの結合価辞書の構築の初期段階において、和語動詞は集中的に登録されたため、和語動詞の未登録語は非常に少ない。よって、一般的な辞書であれば、より多くのエントリが対象となると思われる。}。これは、交替動詞リストの78組合せを占める。本実験では、他動詞のエントリから自動詞のエントリを、自動詞のエントリから他動詞のエントリを作成した。\subsection{翻訳による評価}\label{sec:eva-trans}本章では、\ref{sec:create-method}章で述べた方法で作成した結合価エントリを翻訳によって評価した。新規に作成したエントリの動詞を対象に、新聞データとWebページから1動詞につき2文を抽出し、評価対象文とした。評価対象文は、自動詞作成側50文、他動詞作成側74文、合計124文である。翻訳は、日英機械翻訳システム\altjeで行なった。作成したエントリを含む結合価辞書を利用した場合の翻訳結果(有)と、作成したエントリを含まない結合価辞書を利用した場合の翻訳結果(無)を比較し、(有)と(無)が全く同じ翻訳結果になった場合は「変化なし」に分類した。それ以外の場合は、両言語に堪能な評価者によりどちらの翻訳結果がより良いかの評価を行なっている。但し、英訳のどちらが(有)か(無)か、評価者にはわからないようランダムに表示し、\iz{A}、\iz{B}のラベルを張っている。評価者は、翻訳結果を(i)\iz{A}が\iz{B}より良い、(ii)\iz{A}と\iz{B}の翻訳品質は同等、(iii)\iz{A}が\iz{B}より悪い、の3段階に評価した。(\ref{s:70002})に評価例を示す。\begin{exe}\ex\label{s:70002}塩田喜代子さんは、毛布にくるまりながら。\trans(\iz{A})\texttt{Ms.\KiyokoShiodaiswrapped\ul{upto}ablanket.}\trans(\iz{B})\texttt{Ms.\KiyokoShiodaiswrapped\ul{in}ablanket.}\end{exe}(\ref{s:70002})では、評価は(iii)の「\iz{A}が\iz{B}より悪い」になる。実際には、(\ref{s:70002})の\iz{A}は(無)、\iz{B}は(有)なので、(有)の翻訳結果は(無)より良くなっている。表\ref{tb:eva-trans}は評価結果である。表\ref{tb:eva-trans}から、評価で最も割合が高いのは「(有)が(無)より良くなった」の46.0\%である。それに対し「(有)が(無)より悪くなった」は14.5\%であり、「良くなった」から「悪くなった」を引くと31.5\%の改善となる。すなわち、本提案手法によって作成した結合価エントリは、人手による修正を全く行なわなくとも、機械翻訳システムにとって非常に有効である。\begin{table*}[htbp]\begin{center}\begin{tabular}{l|rr|rr|rr}&\multicolumn{2}{|c|}{自動詞作成側}&\multicolumn{2}{|c|}{他動詞作成側}&\multicolumn{2}{|c}{合計}\\&No.&\%&No.&\%&No.&\%\\\hline(有)が(無)より良くなった&19&38.0&38&51.4&57&46.0\\同等&5&10.0&12&16.2&17&13.7\\変化なし&18&36.0&14&18.9&32&25.8\\(有)が(無)より悪くなった&8&16.0&10&13.5&18&14.5\\\hline差分(良$-$悪)&&+22.0&&+37.9&&+31.5\\\hline合計&50&100.0&74&100.0&124&100.0\\\end{tabular}\caption{翻訳による評価}\label{tb:eva-trans}\end{center}\end{table*}\subsection{問題事例の分析}\label{sec:eva-lex}本節では、(有)が(無)より悪くなった場合の原因を分析する。原因は大きく分類し、日本語作成側の問題と、英語作成側の問題に分類できる。日本語作成側の問題では、\mpt{1.全ての語義が交替するわけではない}全ての語義が交替するわけではないという問題があげられる。例えば、「溶ける」は次の二つの語義、(1)溶解する。固形物が液体になる。(2)液体に他の物がまざって均一な液体になる。を持つ(広辞苑第四版CD-ROM版\citep{koujien}より)。ここで、(2)の語義では、「溶ける」\tot{}「溶く」の間で、「砂糖が\ul{溶ける}」\tot{}「私が砂糖を\ul{溶く}」のように\soalt{}を起こす。しかし、(1)の語義では、「雪が\ul{溶ける}」\tot{}「*私が雪を\ul{溶く}」のように他動詞側は非文となり、交替しない。また、「雨が\ul{降る}」から「雨を\ul{降らす}」を作成する場合、\abs{}としては、デフォルトとして用いた「\izj{主体}が」より、「\izj{空雲}が」の方が適切である。詳しい議論は、\ref{sec:eva-f}章で行なう。\mpt{交替する語義か交替しない語義かのふるい分けをどうすべきか?}\mpt{英語の主辞が異なる}英語作成側の問題では、交替で作成した英訳より、異なる英語主辞が適切な場合があるという問題がある。これには、元々同じ英語主辞では翻訳できない場合と、同じ英語主辞でも翻訳はできるが、より適切な英訳が存在する場合とがある。英訳の改良に関しては、\ref{sec:eng-alter-disccussion}章で詳しく議論する。
\section{議論と今後の課題}
label{sec:discuss}本稿では、\soalt{}の特徴を量的に調査し、その結果に基づき、交替を利用して詳細な結合価エントリを作成する手法を提案した。\ref{sec:eva}章までの結果から、本提案手法は有効であることがわかった。さらに、2言語同時に結合価エントリを獲得した場合、翻訳に対して有効であることがわかった。本章では、本提案手法の改良方法と展開方法等について議論し、今後の課題について述べる。\subsection{不適切な候補の削除}\label{sec:eva-f}本手法の精度をあげるためには、語義単位で交替が行なえるかどうか、また、特にデフォルトとして利用した選択制限が各エントリで適切かどうか、の判断を自動的に行なう必要がある。このためには、まずフィルターとしてコーパスを利用する方法が考えられる。この場合、もし、そのエントリに対応する文がコーパス中になければ、そのエントリを取り除く。あるいは、頻出する意味カテゴリを用いて選択制限を修正する。この手法には、我々が対象とした和語動詞は出現頻度が低いものが多いため、正しいエントリでも必ずしもコーパス中に出現するとは限らないという問題点がある。本稿で実験対象とした和語動詞の出現頻度は、新聞16年分で平均173回だけである。また、22動詞は日本語が母国語の人にとっては馴染みのある語であるにもかかわらず、新聞16年分で一度も出現していない。これらの動詞には、「吹き飛ぶ」「貼り付く」など複合動詞が多く含まれている。もちろん、Webを利用できればこの問題に対応できる。例えば、検索エンジンgoogle\footnote{http://www.google.co.jp/}で検索したところ、「吹き飛ぶ」は26,800件、「貼り付く」は3,800件検索された\footnote{検索日は2004/9/14。4,285,199,774のウェブページから検索した。}。これらを利用できれば十分なデータが得られると思われる。\mpt{吹き飛ぶ10,600(gooq)23,800(google),貼り付く1,460(goo)3,420(google)}\mpt{22動詞の親密度チェック}もう一つの対策としては、既存の交替ペアを正例とし、訓練データとして学習することも考えられる。\subsection{英訳の分類と改良方法}\label{sec:eng-alter-disccussion}本章では、表\ref{tb:alternation-type}と同様に、自動作成した英訳(以下、「作成後」という)の分類を行なった。分類結果を表\ref{tb:alternation-type-compare}に示す。表\ref{tb:alternation-type-compare}には、更に比較対象として、表\ref{tb:alternation-type}で示した分類結果を再掲する。{\setlength{\tabcolsep}{4pt}\begin{table*}[htb]\begin{tabular}{lll|rr|rr|rr}&\multicolumn{2}{c|}{英語構造}&\multicolumn{2}{c|}{参考データ(表\ref{tb:alternation-type})}&\multicolumn{2}{c|}{\jita{自動詞作成側}}&\multicolumn{2}{c}{\jita{他動詞作成側}}\\タイプ&\jita{自動詞}&\jita{他動詞}&数&(\%)&数&(\%)&数&(\%)\\\hline\hline\typeSO{}&\eng{\sbjVi}&\eng{\absVt\obj}&138&30.0&9&11.1&24&21.7\\\iz{passive}&\eng{\sbjbeVt-ed}&\eng{\absVt\obj}&91&19.8&71&87.7&14&12.2\\\iz{synthetic}&\eng{\sbjVi/beAdj}&\eng{\absVc\objVi/Adj}&30&6.5&0&0&76&66.1\\\hline\multicolumn{3}{l|}{主辞が異なる}&191&41.5&0&0.0&0&0.0\\\hline\multicolumn{3}{l|}{構造が異なる}&10&2.2&1&1.2&0&0.0\\\hline\hline合計&&&460&100&81&100&115&100\\\end{tabular}\caption{作成後/修正後の英語側結合価エントリと参考データの英語構造の比較}\label{tb:alternation-type-compare}\end{table*}}まず、表\ref{tb:alternation-type-compare}から、\iz{synthetic}タイプは、他動詞から自動詞を作成する場合では皆無だが、自動詞から他動詞を作成する場合では非常に多いことがわかる。他動詞から自動詞を作成する場合、作成元の他動詞エントリでは制御動詞は全く使われていなかった。一般に、辞書編集者がエントリを作成する場合、合成的なエントリよりも簡単なエントリを作成する傾向がある。交替動詞リストは言語学者と辞書から作成したデータだが、そのデータでは\iz{synthetic}タイプは約6.5\%であり、皆無ではないが多くもない。一方、自動作成では、\iz{synthetic}タイプは76エントリ(66.1\%)を占め、他のどのタイプよりも多い。この内、約36\%程度は修正が必要だと思われる。例えば、作成元の自動詞側の英訳が\eng{N1beexhausted}で、既存の辞書では\eng{exhausted}が形容詞として定義されている場合、作成する英訳は\eng{N1makeN2exhausted$_{\textnormal{adj}}$}となる。しかし実際は、他動詞の\eng{exhaust}があるので、\eng{N1exhaustN2}の方が好ましい。このため、本稿で述べた手法に、形容詞と過去分詞が同じ形なら、形容詞を動詞に変換して利用できないかを調べるアルゴリズムを追加することが考えられる。最後に、日本語の他動詞と自動詞が交替するが、英語側では異なる主辞を必要とする場合について考察する。表\ref{tb:alternation-type-compare}の参考データでは、交替の41.5\%で異なる英語主辞が用いられているが、本提案手法では、異なる英語主辞は利用できない。しかし、作成したエントリの14\%程度は異なる英語主辞を用いた方が適切だと考えられる。これには例えば、「\sbjが亡くなる」\eng{\sbjpassaway}\tot「\absが\objを亡くす」\eng{\abslose\obj}(\eng{Myfriendpassedaway}\tot\eng{Ilostmyfriend})があげられる。他動詞としての\eng{passaway}も、自動詞としての\eng{lose}も存在するが、語義が異なり、「亡くす」「亡くなる」の訳としては不適切である。この問題には本提案手法では対応できない。信頼性の高い英語の統語データがあったとしても、他動詞としての\eng{passaway}や自動詞としての\eng{lose}を規則的に排除することは難しい。これを自動化するには、意味によって項構造をリンクしていて、かつ、日本語の動詞の意味にもリンクされているようなデータが必要である。これは、Papillonプロジェクト\footnote{\url{http://www.papillon-dictionary.org/}}で構築されているようなより大規模な多言語辞書を用いることで解決できると期待される。まとめると、英語側の作成精度をより高くするには、形容詞と過去分詞が同形でないかのチェック、語義による用法の異なり、特に交替についてのより詳しい英語側の情報が必要である。\subsection{語彙規則としての利用}\label{sec:lr}本稿では、辞書構築における交替の利用について詳細な調査を行なった。本稿で提案した手法は、語彙規則や翻訳規則としてシステムで直接利用できる。例えば、\citet{Shirai:Bond:Nozawa:Sasaki:Ueda:1999j}は、結合価辞書に登録されている結合価エントリと、各エントリを様々な形に展開する規則を用い、使役の受身や被害の受身の翻訳を行なっている。また、\citet{Trujillo:1995}は、語彙の翻訳に語彙規則を利用することを提案している。つまり、個々の言語に対して用意した語彙規則により、語彙の展開を行ない、更に、2言語間の語彙規則同士のリンクを作成して翻訳に利用する。本稿で提案した手法も、同様に語彙規則や翻訳規則として利用できる。しかし、同じ見出し語でもすべての語義で交替するわけではない(\ref{sec:eva-lex}章参照)。また、目的言語側も必ずしも同じ主辞を用いて規則的に翻訳できるわけではない(\ref{sec:alternations}、\ref{sec:eng-alter-disccussion}章参照)。そのため、本稿で述べてきたように、辞書のエントリとして作成・保存し、そのエントリを修正して利用する方が、より精度の高い処理が行なえる。更に、本手法による結合価エントリの獲得には、不要な揺れや矛盾を減らすことができるという利点がある。つまり、図\ref{fig:toku-tokeru}の\ix{}の選択制限(\izj{具体物}\tot\izj{無生物})に見られるような、不必要な選択制限の揺れや矛盾を減らし、その上で、必要な修正を加えることで、より一貫した辞書構築を行なうことができる(\ref{sec:AOS-compare}章参照)。また、辞書の形式にすることで、他のシステムにも適用しやすくなる。しかし一方、全ての交替のエントリを網羅的に結合価辞書に登録できているわけではないため、交替の片側の結合価エントリが辞書にない場合や、新しい見出し語の結合価エントリを追加した場合などには、語彙規則や翻訳規則で対応できるようにすることが必要である。\subsection{提案手法の展開}\mpt{作成した数が少なかった原因}本稿では和語動詞のみを対象として、結合価エントリを作成した。しかし、\altjeの結合価辞書は、構築の初期段階において、和語動詞を集中的に登録したため、未登録の和語動詞は非常に少なかった。しかし、この辞書に対しても、交替の片側にのみ対応するエントリが存在する79組の\soaltを起こす動詞組み合わせのうち、78組に対してエントリを獲得できた。そのため、\soaltの組合せに対するカバー率を、68.5\%から85.4\%(315+78/460)へと増やすことができた。他の多くの結合価辞書や新しい言語対の結合価辞書では、よりカバー率が低いことが予想されるため、より多くのエントリが対象となると思われる。また、交替の片側を人手で作成し、本手法により自動的に交替の残りのエントリを作成することも考えられる。\mpt{対象を増やすための手段}また、\soaltにはサ変動詞も多く含まれる。例えば「製品が\ul{完売した}」\tot{}「店が製品を\ul{完売した}」などである。\altjeの日本語辞書には自他動詞の品詞を付与されたサ変動詞が約2,400見出し語載っており、そのうち、約400見出し語の結合価エントリが結合価辞書に登録されている。但し、これらのサ変動詞に関する交替動詞リストはなく、人手で作成するとコストがかかる。しかし、サ変動詞は和語動詞と異なり、自動詞と他動詞で形態変化をしないので、\soalt{}を起こすかどうかを自動、あるいは、半自動的的に判断できると考えられる。まず、サ変動詞が自動詞と他動詞の両方の用法を持っているかどうかは、\altjeの日本語辞書や茶筌\cite{chasen:2.3.3j}等の品詞情報から判断できる。但し、自動詞と他動詞の両方の用法を持つサ変動詞であっても、\soalt{}以外の交替、例えば、「私が晩ご飯を\ul{料理した}」\tot「私が\ul{料理した}」を起こすものも多い(この交替を、\soalt{}に対して\saalt{}と呼ぶ)。そこで、これらのサ変動詞が\soalt{}を起こすかどうかの自動的な判断方法を以下に2つあげる。一つは、英訳を用いる方法である。まず、サ変動詞の英訳を日英の対訳辞書から取り出し、その英訳がEVCA+等のデータベースで\soalt{}を起こす動詞として分類されていれば(\ref{sec:create_eng}章参照)、日本語側のサ変動詞も\soalt{}を起こすと判断する方法である。もう一つの方法は、コーパスの解析結果を利用する方法である。この場合、\soalt{}と\saalt{}の両交替を起こすと仮定した場合の両タイプの結合価エントリを作成し、コーパスの解析に利用する。その結果、作成した結合価エントリのうち、より多く実際の解析に用いられた方の交替を起こすと判断する方法である。つまり、\soalt{}を起こすと仮定して作成した結合価エントリばかりが解析に利用されており、\saalt{}を起こすと仮定して作成した結合価エントリは全く利用されていないならば、そのサ変動詞は\soalt{}を起こすと判断できる。こうした判断方法を用いて、今後は、サ変動詞を中心に本手法を適用していきたい。なお、和語動詞に対しても、同じ語幹を持つ自動詞と他動詞に対して上記の判断方法を利用すれば、最終的に人手による確認が必要であるとしても、始めから人手で作成するより容易に交替動詞リストを作成できると思われる。\mpt{他の交替や和語動詞でも、自動的に交替動詞リストを拡張できないか?NH}また、本稿では、交替動詞リストとして\citet{Jacobsen:1981}と\citet{Bullock:1999}の\soalt{}を起こす動詞のリストを利用した。こうしたリストは\soalt{}に限らず、言語学者等によって他にも作成されている\citep{Oishi:Matsumoto:1997,Furumaki:Tanaka:2003,McCarthy:2000}。これらのリストを活用し、他の種類の交替に対しても本手法を展開してきたい。
\section{まとめ}
\label{sec:conclusion}本稿では、まず、交替についての調査・分析を行なった。また、その調査結果に基づき、交替情報を利用して既存の結合価辞書に不足しているエントリを補い、交替関係を付与する方法を提案した。対象とした交替は、自動詞の主語が他動詞の目的語となる\soalt{}である。交替についての調査・分析では、日本語の\soaltについて選択制限の対応関係と、日本語が\soaltを起こす場合の英語の交替変化を分類した。この結果、日本語の\soaltでは、\sbjと\objの選択制限の一致率が高いことと、\absの主体性が高いことがわかった。また、日本語が\soaltを起こす場合、英語は56\%が規則的な交替変化を行ない、そのうち\soaltを起こす割合は30\%であることがわかった。結合価情報の獲得実験では、上述の交替についての分析結果を踏まえ、交替情報と既存の結合価辞書から、比較的単純な置き換えにより、新しい結合価情報を自動的に獲得する方法を提案し、実験を行なった。具体的には、既存の結合価辞書が交替の自動詞側のエントリのみを持つ場合、他動詞側のエントリを自動的に作成し、他動詞側のエントリのみを持つ場合、自動詞側のエントリを作成する実験を行なった。本実験では、日本語と英語の結合価エントリを同時に獲得した。これにより、和語動詞の\soaltを83\%からほぼ100\%カバーすることができた。また翻訳評価の結果、翻訳結果の32\%が改善できた。すなわち、本提案手法は人手による修正を行なわなくとも、翻訳に対して有効であることを示した。\subsection*{謝辞}日頃熱心にご討論いただいている、中岩浩巳グループリーダーを始めとするNTTコミュニケーション科学基礎研究所自然言語研究グループの皆様、および、奈良先端科学技術大学院大学松本研究室の皆様に感謝致します。また特に、本稿をまとめるにあたり多くのコメントをいただきました、田中貴秋氏、TimothyBaldwin氏、成山重子氏に感謝致します。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldwin,Bond,\BBA\Hutchinson}{Baldwinet~al.}{1999}]{Baldwin:1999b}Baldwin,T.,Bond,F.,\BBA\Hutchinson,B.\BBOP1999\BBCP.\newblock\BBOQAValencyDictionaryArchitectureforMachineTranslation\BBCQ\\newblockIn{\BemEighthInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation:TMI-99},\BPGS\207--217\Chester,UK.\bibitem[\protect\BCAY{Bond,Baldwin,藤田}{Bond\Jetal}{2002}]{Bond:Baldwin:Fujita:2002j}Bond,F.,Baldwin,T.,藤田早苗\BBOP2002\BBCP.\newblock\BBOQDetectingAlternationInstancesinaValencyDictionary\BBCQ\\newblock\Jem{言語処理学会第8回年次大会},519--522.\bibitem[\protect\BCAY{Bond\BBA\Fujita}{Bond\BBA\Fujita}{2003}]{Bond:Fujita:2003}Bond,F.\BBACOMMA\\BBA\Fujita,S.\BBOP2003\BBCP.\newblock\BBOQEvaluationofaMethodofCreatingNewValencyEntries\BBCQ\\newblockIn{\Bem{MT}Summit{IX}},\BPGS\16--23\NewOrleans.\newblock(\url{http://www.amtaweb.org/summit/MTSummit/FinalPapers/80-Bond-final.pdf}).\bibitem[\protect\BCAY{Breen}{Breen}{1995}]{Breen:1995}Breen,J.~W.\BBOP1995\BBCP.\newblock\BBOQBuildinganelectronic{Japanese-English}dictionary\BBCQ\\newblockJapaneseStudiesAssociationofAustraliaConference(\url{http://www.csse.monash.edu.au/~jwb/jsaa_paper/hpaper.html}).\bibitem[\protect\BCAY{Breen}{Breen}{2004}]{Breen:2004}Breen,J.~W.\BBOP2004\BBCP.\newblock\BBOQ{JMDict}:a{Japanese}-MulitlingualDictionary\BBCQ\\newblockIn{\BemColing2004WorkshoponMultilingualLinguisticResources},\BPGS\71--78\Geneva.\bibitem[\protect\BCAY{Bullock}{Bullock}{1999}]{Bullock:1999}Bullock,B.\BBOP1999\BBCP.\newblock\BBOQAlternativesci.lang.japanFrequentlyAskedQuestions\BBCQ\\newblock\url{http://www.csse.monash.edu.au/~jwb/afaq/jitadoushi.html}.\bibitem[\protect\BCAY{Carroll,Minnen,\BBA\Briscoe}{Carrollet~al.}{1998}]{Carroll:Minnen:Briscoe:1998}Carroll,J.,Minnen,G.,\BBA\Briscoe,T.\BBOP1998\BBCP.\newblock\BBOQCansubcategorisationprobabilitieshelpastatisticalparser?\BBCQ\\newblockIn{\BemACL/SIGDAT-1998},\BPGS\118--126\Montreal.\bibitem[\protect\BCAY{Copestake,Flickinger,Pollard,\BBA\Sag}{Copestakeet~al.}{1999}]{Copestake:Flickinger:Pollard:Sag:1999}Copestake,A.,Flickinger,D.,Pollard,C.,\BBA\Sag,I.~A.\BBOP1999\BBCP.\newblock\BBOQMinimalRecursionSemantics:AnIntroduction\BBCQ\\newblock(manuscript\url{http://www-csli.stanford.edu/~aac/papers/newmrs.ps}).\bibitem[\protect\BCAY{Dixon}{Dixon}{1991}]{Dixon:1991}Dixon,R.M.~W.\BBOP1991\BBCP.\newblock{\BemANewApproachto{English}Grammar,onSemanticPrinciples}.\newblockOxfordUniversityPress,Oxford.\bibitem[\protect\BCAY{Dorr}{Dorr}{1997}]{Dorr:1997}Dorr,B.~J.\BBOP1997\BBCP.\newblock\BBOQLarge-ScaleDictionaryConstructionforForeignLanguageTutoringandInterlingualMachineTranslation\BBCQ\\newblock{\BemMachineTranslation},{\Bbf12}(4),271--322.\bibitem[\protect\BCAY{Fujita\BBA\Bond}{Fujita\BBA\Bond}{2002}]{Fujita:Bond:2002a}Fujita,S.\BBACOMMA\\BBA\Bond,F.\BBOP2002\BBCP.\newblock\BBOQExtendingtheCoverageofaValencyDictionary\BBCQ\\newblockIn{\BemCOLING-2002workshoponMachineTranslationinAsia},\BPGS\67--73\Taipei.\newblock(\url{http://acl.ldc.upenn.edu/coling2002/workshops/data/w07/w07-08.pdf}).\bibitem[\protect\BCAY{Furumaki\BBA\Tanaka}{Furumaki\BBA\Tanaka}{2003}]{Furumaki:Tanaka:2003}Furumaki,H.\BBACOMMA\\BBA\Tanaka,H.\BBOP2003\BBCP.\newblock\BBOQTheConsiderationof$<$N-suru$>$forConstructionoftheDynamicLexicon\BBCQ\\newblockIn{\Bem9thAnnualMeetingofTheAssociationforNaturalLanguageProcessing},\BPGS\298--301.\newblock(inJapanese).\bibitem[\protect\BCAY{Hong,Kim,Park,\BBA\Lee}{Honget~al.}{2004}]{Hong:Kim:Park:Lee:2004}Hong,M.,Kim,Y.-K.,Park,S.-K.,\BBA\Lee,Y.-J.\BBOP2004\BBCP.\newblock\BBOQSemi-AutomaticConstructionof{Korean}-{Chinese}VerbPatternsBasedonTranslaitonEquivalency\BBCQ\\newblockIn{\BemColing2004WorkshoponMultilingualLinguisticResources},\BPGS\87--92\Geneva.\bibitem[\protect\BCAY{Ikehara,Shirai,Yokoo,\BBA\Nakaiwa}{Ikeharaet~al.}{1991}]{Ikehara:1991}Ikehara,S.,Shirai,S.,Yokoo,A.,\BBA\Nakaiwa,H.\BBOP1991\BBCP.\newblock\BBOQTowardan{MT}SystemwithoutPre-Editing--EffectsofNewMethodsin{{\bfALT-J/E}}--\BBCQ\\newblockIn{\BemThirdMachineTranslationSummit:MTSummitIII},\BPGS\101--106\WashingtonDC.\newblock(\url{http://xxx.lanl.gov/abs/cmp-lg/9510008}).\bibitem[\protect\BCAY{Jacobsen}{Jacobsen}{1981}]{Jacobsen:1981}Jacobsen,W.\BBOP1981\BBCP.\newblock{\BemTransitivityintheJapaneseVerbalSystem}.\newblockPh.D.\thesis,UniversityofChicago.\newblock(ReproducedbytheIndianaUniversityLinguisticsClub,1982).\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2001}]{Kawahara:Kurohashi:2001}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2001\BBCP.\newblock\BBOQJapaneseCaseFrameConstructionbyCouplingtheVerbanditsClosestCaseComponent\BBCQ\\newblockIn{\BemProceedingsofFirstInternationalConferenceonHumanLanguageTechnologyResearch(HLT2001)},\BPGS\204--210\SanDiego.\bibitem[\protect\BCAY{Kilgarriff}{Kilgarriff}{1993}]{Kilgarriff:1993}Kilgarriff,A.\BBOP1993\BBCP.\newblock\BBOQInheritingVerbAlternations\BBCQ\\newblockIn{\BemSixthConferenceoftheEuropeanChapteroftheACL(EACL-1993)},\BPGS\213--221\Utrecht.\newblock(\url{http://acl.ldc.upenn.edu/E/E93/E93-1026.pdf}).\bibitem[\protect\BCAY{Korhonen}{Korhonen}{2002}]{Korhonen:2002}Korhonen,A.\BBOP2002\BBCP.\newblock\BBOQSemanticallyMotivatedSubcategorizationAcquisition\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponUnsupervisedLexicalAcquisition}\Philadelphia,USA.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{Levin:1993}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishVerbClassesandAlternations}.\newblockUniversityofChicagoPress,Chicago,London.\bibitem[\protect\BCAY{Li\BBA\Abe}{Li\BBA\Abe}{1998}]{Li:Abe:1998}Li,H.\BBACOMMA\\BBA\Abe,N.\BBOP1998\BBCP.\newblock\BBOQGeneralizingCaseFramesUsingaThesaurusandthe{MDL}principle\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(2),217--244.\bibitem[\protect\BCAY{Manning}{Manning}{1993}]{Manning:1993}Manning,C.~D.\BBOP1993\BBCP.\newblock\BBOQAutomaticAcquisitionofalargesubcategorizationdictionaryfromcorpora\BBCQ\\newblockIn{\Bem31stAnnualMeetingoftheAssociationforComputationalLinguistics:ACL-93},\BPGS\235--242.\bibitem[\protect\BCAY{McCarthy}{McCarthy}{2000}]{McCarthy:2000}McCarthy,D.\BBOP2000\BBCP.\newblock\BBOQUsingSemanticPreferencestoIdentifyVerbalParticipationinRoleSwitchingAlternations\BBCQ\\newblockIn{\BemProceedingsofthefirstConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics.(NAACL)}\Seattle,WA.\bibitem[\protect\BCAY{Oishi\BBA\Matsumoto}{Oishi\BBA\Matsumoto}{1997}]{Oishi:Matsumoto:1997}Oishi,A.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1997\BBCP.\newblock\BBOQDetectingtheOrganizationofSemanticSubclassesof{Japanese}Verbs\BBCQ\\newblock{\BemInternationalJournalofCorpusLinguistics},{\Bbf2}(1),65--89.\bibitem[\protect\BCAY{Probst}{Probst}{2003}]{Probst:2003}Probst,K.\BBOP2003\BBCP.\newblock\BBOQUsing`smart'bilingualprojectiontofeature-tagamonolingualdictionary\BBCQ\\newblockIn{\BemProceedingsofCoNLL2003}.\bibitem[\protect\BCAY{Sasaki,Isozaki,Suzuki,Kokuryou,Hirao,Kazawa,\BBA\Maeda}{Sasakiet~al.}{2004}]{Sasaki:2004}Sasaki,Y.,Isozaki,H.,Suzuki,J.,Kokuryou,K.,Hirao,T.,Kazawa,H.,\BBA\Maeda,E.\BBOP2004\BBCP.\newblock\BBOQ{SAIQA-II:ATrainableJapaneseQASystemwithSVM}\BBCQ\\newblock{\BemIPSJ},{\Bbf45}(2),635--646.\newblock(inJapanese).\bibitem[\protect\BCAY{Takahashi,Iwakura,Iida,Fujita,\BBA\Inui}{Takahashiet~al.}{2001}]{Takahashi:01}Takahashi,T.,Iwakura,T.,Iida,R.,Fujita,A.,\BBA\Inui,K.\BBOP2001\BBCP.\newblock\BBOQ\textsc{Kura}:atransfer-basedlexico-structuralparaphrasingengine\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\37--46.\newblock\url{http://cl.aist-nara.ac.jp/kura/doc/}.\bibitem[\protect\BCAY{Trujillo}{Trujillo}{1995}]{Trujillo:1995}Trujillo,A.\BBOP1995\BBCP.\newblock\BBOQBi-LexicalRulesforMulti-LexemeTranslationinLexicalist{MT}\BBCQ\\newblockIn{\BemSixthInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation:TMI-95},\BPGS\48--66.\bibitem[\protect\BCAY{Uszkoreit}{Uszkoreit}{2002}]{Uszkoreit:2002}Uszkoreit,H.\BBOP2002\BBCP.\newblock\BBOQNewChancesforDeepLinguisticProcessing\BBCQ\\newblockIn{\Bem19thInternationalConferenceonComputationalLinguistics:COLING-2002},\BPGS\XIV--XXVII\Taipei.\bibitem[\protect\BCAY{Utsuro,Miyata,\BBA\Matsumoto}{Utsuroet~al.}{1997}]{Utsuro:1997}Utsuro,T.,Miyata,T.,\BBA\Matsumoto,Y.\BBOP1997\BBCP.\newblock\BBOQMaximumEntropyModelLearningofSubcategorizationPreference\BBCQ\\newblockIn{\BemProc.ofthe5thWorkshoponVeryLargeCorpora},\BPGS\246--260.\bibitem[\protect\BCAY{Yamura-Takei,Fujiwara,Yoshie,\BBA\Aizawa}{Yamura-Takeiet~al.}{2002}]{Yamura-Takei:Fujiwara:Yoshie:Aizawa:2002}Yamura-Takei,M.,Fujiwara,M.,Yoshie,M.,\BBA\Aizawa,T.\BBOP2002\BBCP.\newblock\BBOQAutomaticLinguisticAnalysisforLanguageTeachers:TheCaseofZeros\BBCQ\\newblockIn{\Bem19thInternationalConferenceonComputationalLinguistics:COLING-2002},\BPGS\1114--1120\Taipei.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{GoiTaikeij}池原悟,宮崎雅弘,白井{諭},横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{新村}{新村}{1996}]{koujien}新村出\JED\\BBOP1996\BBCP.\newblock\Jem{広辞苑第四版(CD-ROM)}.\newblock岩波書店.\bibitem[\protect\BCAY{野村}{野村}{2002}]{Nomura:2002j}野村直之\BBOP2002\BBCP.\newblock\Jem{機械翻訳用の認知科学的辞書と情報検索・要約技術に関する研究}.\newblockPh.D.\thesis,九州大学.\bibitem[\protect\BCAY{白井}{白井}{1999}]{Shirai:1999zj}白井諭\BBOP1999\BBCP.\newblock\JBOQ単文の結合価パターンの網羅的収集に向けて-日英機械翻訳の観点から-\JBCQ\\newblockIn{\BemNLPSymposium}.\newblock\url{www.kinet-tv.ne.jp/~sat/data/publications/1999/s29.html}.\bibitem[\protect\BCAY{白井,Bond,野沢,佐々木~富,上田洋美}{白井\Jetal}{1999}]{Shirai:Bond:Nozawa:Sasaki:Ueda:1999j}白井諭,Bond,F.,野沢弥生,佐々木~富子,上田洋美\BBOP1999\BBCP.\newblock\JBOQ入力文と結合価パターン対辞書の照合に関する一手法\JBCQ\\newblock\Jem{言語処理学会第5回年次大会},\BPGS\80--83.自然言語処理学会.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{chasen:2.3.3j}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\Jem{形態素解析システム「茶筌」version2.3.3使用説明書}.\newblock\url{http://chasen.naist.jp/hiki/ChaSen/}.\bibitem[\protect\BCAY{郡司}{郡司}{2002}]{Gunji:2002}郡司隆男\BBOP2002\BBCP.\newblock\Jem{単語と文の構造}.\newblock現代言語学入門.岩波書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{藤田早苗}{1997年大阪府立大学工学部航空宇宙工学科卒業。1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了。同年4月よりNTT日本電信電話株式会社コミュニケーション科学基礎研究勤務。以来、自然言語処理の研究に従事。また、2003年4月より奈良先端科学技術大学院大学情報科学研究科博士後期課程に社会人学生として在学中。ACL,言語処理学会各会員。{\ttemail:sanae@cslab.kecl.ntt.co.jp}}\bioauthor{FrancisBond(フランシスボンド)}{1988年B.A.(UniversityofQueensland)。1990年B.E.(Hons)(同大学)。1991年日本電信電話株式会社入社。以来、計算機言語学、自然言語処理、特に機械翻訳の研究に従事。1999年CSLI,Stanford大学客員研究員。2001年Ph.D.(UniversityofQueensland)。2005年3ヶ月間Oslo大学招聘研究員。現在、NTTコミュニケーション科学基礎研究所主任研究員。著書「TranslatingtheUntranslatable」CSLIPublicationsにて日英機械翻訳における数・冠詞の問題を扱う。ACL,ALS,言語処理学会各会員。{\ttemail:bond@cslab.kecl.ntt.co.jp}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N05-03
|
\section{はじめに}
\thispagestyle{empty}計算機の高性能化や記憶容量の大容量化および低価格化にともない,情報のマルチメディア化が急速に進行しており,このような背景のもと,マルチメディア・コンテンツに対する情報検索技術の必要性がますます大きくなってきている.マルチメディア・コンテンツ検索では,マルチメディア情報そのものから得られる特徴量に基づき類似検索を行なうという内容型検索(content-basedretrieval)が近年の主流であるが,多くの場合,複数の特徴量を多次元ベクトルで表現し,ベクトル間の距離によりコンテンツ間の類似性を判定している.たとえば,文書検索の場合には,索引語の重みベクトルで文書や検索質問を表現することができるし\cite{Salton75,Sasaki01},画像の類似検索の場合には,カラーヒストグラム,テクスチャ特徴量,形状特徴量などから成る特徴量ベクトルにより画像コンテンツを表現する\cite{Flickner95,Pentland96}.特徴量ベクトルに基づくコンテンツの類似検索は,検索質問として与えられたベクトルと距離的に近いコンテンツ・データベース中のベクトルを見つけるという最近傍検索(nearestneighborsearch)の問題に帰着することができる.データベース中のベクトルと逐次的に比較する線形探索では,データベースの規模に比例した計算量が必要となるため,データベースが大規模化した際の検索システムの処理効率に深刻な影響を及ぼすことになる.したがって,最近傍検索を効率的に行なうための多次元インデキシング技術の開発が重要な課題として,従来より活発に研究されてきた\cite{Katayama01,Gaede98}.ユークリッド空間における多次元インデキシング手法には,R-tree\cite{Guttman84},SS-tree\cite{White96},SR-tree\cite{Katayama97}などが提案されており,また,より一般の距離空間を対象にしたインデキシング手法としては,VP-tree\cite{Yianilos93},MVP-tree\cite{Bozkaya99},M-tree\cite{Ciaccia97}などが提案されている.これらのインデキシング手法は,多次元空間を階層的に分割することにより,探索範囲を限定することを基本としている.しかし,高次元空間では,ある点の最近点と最遠点との間に距離的な差が生じなくなるという現象が起こるため\cite{Aggarwal01,Beyer99},探索する領域を限定することができず,線形探索に近い計算量が必要になってしまうという問題点がある.高次元空間における上記の問題点に対処するために,近似的な最近傍検索についても研究が進められている.たとえば,ハッシュ法に基づく近似検索手法\cite{Gionis99}や空間充填曲線(space-fillingcurve)を用いて高次元空間の点を索引付けする手法\cite{Liao00,Shepherd99}などが提案されている.我々は,現在,テキストと画像のクロスメディア情報検索に関する研究の一環として,類似画像検索システムを開発しているが\cite{Koizumi02a,Koizumi02b},クロスメディア情報検索では,ユーザとのインタラクションを通じて所望の検索結果を得ることが多々あるため,特徴量ベクトルに基づく最近傍検索の実行回数が必然的に多くなってしまう.このような場合,完全な最近傍検索は必要ではなく,むしろ高速な近似的最近傍検索のほうが望ましい.本稿では,1次元自己組織化マップを用いた,高速な近似的最近傍検索の手法を提案し,提案した手法の有効性を類似画像検索と文書検索という2種類の実験により評価する.最近傍検索を行なう際の一番のボトルネックは,2次記憶上のデータへのアクセスであるが,提案する手法は,次元数がきわめて多い場合でも効率的にディスク・アクセスを行なうことができるという利点を持っている.
\section{自己組織化マップを用いた最近傍検索}
\subsection{自己組織化マップ}自己組織化マップ(self-organizingmap;SOM)\cite{Kohonen95}は,教師なし競合学習により,高次元データを低次元データに写像する2階層型のニューラルネットワークである.自己組織化マップでは,高次元空間での近傍関係をできる限り保ちつつ,低次元空間へデータを配置するという位相的整列性と呼ばれる特徴を持っている.自己組織化マップの典型的な適用例は,多次元データの可視化であり,この場合には高次元データを2次元平面上に配置するということを行なう\cite{Kohonen00,Oja99}.図~\ref{Fig:SOM}は,$n$次元の入力データを2次元平面上に配置する自己組織化ネットワークの例を示している.ネットワークの入力層は,2次元平面上に格子状に配置されたすべてのユニットと結合されており,各ユニットには,入力層に入力されるデータと同じ次元数の参照ベクトル(referencevector)が対応している.学習の過程では,入力層に入力されたベクトルと最も近い参照ベクトルを持つユニットを探し,このユニットとその近傍にあるユニットの参照ベクトルを入力ベクトルに近づけるという操作を繰り返す.このようにして,同じような位相的特徴を持ったユニットが近傍領域に集まり,結果的に入力データの位相的特徴を反映した自己組織化マップが作られることになる.自己組織化マップの学習アルゴリズムをまとめると,以下のようになる.\begin{enumerate}\item参照ベクトル$\mathbf{m}_i$をランダムな値で初期化する.\item入力ベクトル$\mathbf{x}$に最も近い参照ベクトル$\mathbf{m}_c$を持つユニット$c$を見つける.\begin{equation}\mathbf{m}_c=\mathop{\mbox{argmin}}_{\mathbf{m}_i}||\mathbf{x}-\mathbf{m}_i||\end{equation}\itemユニット$c$および$c$の近傍領域の参照ベクトル$\mathbf{m}_i$を次式により更新する.\begin{equation}\mathbf{m}_i=\mathbf{m}_i+h_{ci}(\mathbf{x}-\mathbf{m}_i)\end{equation}ここで,$h_{ci}$はユニット$c$から離れるにつれ,小さな値になるように設定する.また,$h_{ci}$は学習が進むにつれ,単調に減少するようにする.\itemステップ2より繰り返す.\end{enumerate}\begin{figure}\begin{center}\epsfile{file=fig01.eps,scale=1.0}\end{center}\caption{自己組織化マップ}\label{Fig:SOM}\end{figure}\begin{figure*}[t]\begin{center}\epsfile{file=fig02.eps,scale=0.75}\end{center}\caption{1次元自己組織化マップを用いた多次元インデキシング}\label{Fig:SOMIndexing}\end{figure*}\subsection{自己組織化マップを用いた最近傍検索手法}上で述べたように,自己組織化マップでは,高次元空間での近傍関係をできる限り保ちつつ,入力データを低次元空間へ配置することができるという特徴を持っている.この特徴を用いると,高次元空間での最近傍検索を低次元空間での最近傍検索問題に置き換えることができると考えられる.しかし,自己組織化マップの学習には誤差がともなううえ,低次元のマップ上では,高次元空間での距離が保存されていないため,低次元マップだけを用いて最近傍検索を行なうことは不可能である.我々は,自己組織化マップにより得られた低次元空間での近傍関係から,最近傍検索の探索範囲を限定し,限定されたデータに関してだけ,元の高次元空間上で距離を計算するという方法を考えた.また,探索範囲の限定を効率的に行なうことができるように,1次元の自己組織化マップを用いることにした.以下に,1次元自己組織化マップを用いた最近傍検索手法をまとめる(図~\ref{Fig:SOMIndexing}参照).\vspace*{2mm}\noindent{\bf多次元インデキシングの作成}\begin{enumerate}\item自己組織化マップの学習アルゴリズムにより,多次元データを1次元上に配置する.ユニット数を$k$とすると,データは$k$個のクラスタに分割されることになる.\item各クラスタに属するデータを,2次記憶上の連続した領域に格納する.また,この際,1次元マップ上の各ユニットに2次記憶領域へのポインタを持たせる.なお,2次記憶領域には,元の多次元データを格納する.\end{enumerate}\noindent{\bf最近傍検索}\begin{enumerate}\item与えられた検索質問ベクトルに最も近い参照ベクトルを持つユニット$c$を見つける.\itemユニット$c$の近傍ユニットに配置されたデータに対してのみ,検索質問との距離計算を行なう.距離計算の際には,2次記憶上に格納されている多次元データを用いる.\item上記で計算された結果を,距離の小さい順にソートし,これを最近傍検索の結果として出力する.\end{enumerate}\vspace*{2mm}検索質問ベクトルと距離計算の行なわれるデータは,2次記憶上の連続した領域に格納しているため,2次記憶へのアクセスはきわめて効率的に行なうことが可能である.3節で実験結果を述べるが,1次元マップ上の各ユニットに割り当てられるデータ数が大きく偏ることはなく,概ね平均化している.したがって,2次記憶へのアクセス回数は数回程度である.なお上記では,1次元の自己組織化マップを用いたが,2次元の自己組織化マップを用いることも可能である.ただし,2次元自己組織化マップを用いる場合には,近傍ユニットに属するデータを必ずしも2次記憶上の連続した領域に格納できるとは限らないため,最近傍検索の手続きが多少複雑になる.上記で提案した多次元インデキシング手法の本質は,多次元データのクラスタリングに1次元自己組織化マップを用いている点であり,クラスタ(あるいは近傍クラスタ)内の検索は基本的に線形探索によって行われている.自己組織化マップ以外にも,他のクラスタリング手法を用いて同様のインデキシングを行うことも考えられる.たとえば,主成分分析を用いて第1主成分により1次元上にデータをマッピングすることもできるが,主成分分析はデータの分布が正規分布に近い場合には有効であるが,そうでない場合には自己組織化マップを用いたほうが近似の精度が高いという利点がある.また,ベクトル量子化は,ユニット中のセントロイド(コードブック)により入力データを近似するという点で自己組織化マップに類似しているが,ベクトル量子化では高次元空間での近傍関係を保つという位相的整列性を特別に考慮していない.提案した最近傍検索手法では,検索の際に近傍ユニットを探索することから,位相的整列性を備えた自己組織化マップを用いた手法のほうが良いと考えられる.
\section{実験結果}
自己組織化マップを用いた最近傍検索手法の有効性を調べるために,類似画像検索実験と文書検索実験を行なった.以下で実験の概要および実験結果について述べる.\subsection{類似画像検索実験}\label{Sec:ImageRetrieval}類似画像検索実験では,Corelデータベースから抽出した42,381件のカラー写真画像を用いた.また,このうち,424件(全体の1\,\%)の画像データをランダムに抽出し,検索画像とした.これらの画像データから,表~\ref{Tab:ImageFeatures}に示すような,次元数の異なる4種類の特徴量ベクトルを作成した.\begin{table*}[t]\begin{center}\caption{画像検索実験に用いた特徴量}\label{Tab:ImageFeatures}\begin{tabular}{c|r|p{10cm}}\hline\hline特徴量&次元数&\multicolumn{1}{c}{特徴量の概略}\\\hlineRGB-48&48&画像全体から256階調のR,G,Bのヒストグラムを求め,各色16次元(計48次元)に圧縮した特徴量\\\hlineHSI-192&192&画像全体から256階調の色相(hue),彩度(saturation),輝度(intensity)に関するHSI特徴量を求め,各特徴量を64次元(計192次元)に圧縮した特徴量\\\hlineHAAR-256&256&画像全体の輝度成分に対して2レベルのHaarWavelet変換を行い,高域成分のWavelet係数を$16\times16$の各部分画像領域ごと(計256次元)に加算平均した特徴量\\\hlineHSI-432&432&画像全体を$3\times3$の部分画像に分割し,各部分画像に対してHSI特徴量を求め,各部分画像のHSI特徴量を48次元(計432次元)に圧縮した特徴量\\\hline\end{tabular}\end{center}\end{table*}自己組織化マップを用いた最近傍検索の精度を調べるためには,検索された画像のうち,どれが正解であるかという情報が必要である.このため,各検索画像と全画像データとの間のユークリッド距離を線形探索により求め,距離の小さい400件を正解データとした.与えられた検索画像から,自己組織化マップを用いた最近傍検索により,上位400件の検索結果を出力し,これを正解データと比較することにより適合率を算出した.自己組織化マップを用いた最近傍検索では,検索条件によって適合率は変化する.適合率が変化する主な要因は,1次元マップ上の総ユニット数,および,検索の際に用いる近傍数である.ここで,近傍数とは,探索候補の絞り込みの際にいくつのユニットを参照したかを意味しており,具体的には,検索質問の属するユニットに加え,その近傍のユニットをいくつ参照したかを示す.以下では,検索質問の属するユニットのみを参照したときは近傍数1,検索質問の属するユニットに加え,その左右両側のユニットを参照したときは近傍数3というように表すことにする.なお,近傍数3の際,検索質問が1次元マップ上の左端(あるいは右端)のユニットに属している場合には,そのユニットの右側(あるいは左側)しか参照しない.図~\ref{Fig:ImageResults}は,ユニット数が10あるいは20,近傍数3のときの適合率曲線を示している.横軸方向は検索結果数を,縦軸方向は平均適合率を表しており,グラフは上位$n$件の結果が検索された時点での平均適合率をプロットしたものである.図から分かるように,検索結果数が増えるに連れ平均適合率は単調に減少しており,次元数が大きほど適合率が減少する度合が大きくなっている.しかし,ユニット数10,近傍数3およびユニット20,近傍数3のいずれの条件下でも,上位100件程度の近傍検索では,近似解の精度がほぼ100\,\%に達している.一方,従来の近似検索手法\cite{Gionis99,Shepherd99}での実験結果では,最も次元数が高い256次元のデータから近傍検索数10件の検索を行うのに,全データ数の約1割程度の距離計算回数を費やすことで約90\,\%の近似解の精度が得られたと報告している.このことから,他の近似検索手法と比べ,提案手法による検索精度の高さが分かる.また,表~\ref{Tab:ImageResults}は,さまざまな条件のもとでの平均$R$適合率\footnote{$R$適合率($R$-precision)とは,検索質問に適合する結果の総数を$R$とするとき,上位から$R$番目までの検索結果を出力した時点での適合率を意味する\cite{IRbook}.$R$適合率は,上位に順位付けされた検索結果の有効性を示す評価尺度である.}と検索質問1件当たりの平均距離計算回数を示している.表~\ref{Tab:ImageResults}から分かるように,同じ検索条件のもとでは,適合率は次元数が大きくなるにつれ低下する傾向にあるが,距離計算回数は次元数によらずにほぼ一定である.したがって,本手法は,次元数が増大した場合にも高速性が失われることはない.なお,距離計算回数が次元数によらず一定である理由は,各ユニットに割り当てられるデータ数が概ね平均化しているためである.図~\ref{Fig:UnitNumDat}に,ユニット数20の際に各ユニットに割り当てられたデータ数を示すが,1次元マップ上の各ユニットに割り当てられるデータ数が極端にばらついていないことを読み取ることができる.また,特徴量ベクトルから1次元自己組織化マップに基づく多次元インデキシングを行うのに要したCPU時間は,ユニット数10の場合,RGB-48に対しては525秒,HSI-192,HAAR-256,HSI-432に対してはいずれも1000秒程度であり,次元数の増加にともないインデキシング時間が極端に増加するということはなかった.なお,今回実験を行ったマシンのOSはLinux,CPUはIntelXeon2.4GHz,主記憶容量は1,024Kバイトである.参考のために,各画像特徴量に対するSR-treeの平均距離計算回数を表~\ref{Tab:SRtree}に示す.SR-treeでは,検索対象データに対する多次元インデクスを作成する際に多次元空間を木構造を用いて階層的に分割しているが,検索時には木構造の内部ノードとの距離計算も行うため,検索対象データ数よりも多くの距離計算が行われることがある.表~\ref{Tab:SRtree}では,検索対象データとの平均距離計算回数を括弧内に示している.表~\ref{Tab:SRtree}から分かるように,SR-treeの場合には,与えられた検索質問に距離的に近い検索結果を上位何件求めるかにより距離計算回数が異なるが,検索件数が増えるに従い距離計算回数は単調に増加する傾向にある.上位1件のみを求める場合には距離計算回数はきわめて少ないが,それ以外の場合にはいずれの特徴量においても自己組織化マップを用いた検索よりも計算回数が多くなっている.実際に類似検索を行う際には,上位1件のみの検索結果だけが必要であることは稀であると考えられるため,この場合には自己組織化マップを用いた提案手法のほうが高速な検索を行うことが可能である.\begin{figure*}\bigskip\begin{center}\epsfile{file=u10.eps,scale=0.75}\begin{center}(a)ユニット数10,近傍数3\end{center}\epsfile{file=u20.eps,scale=0.75}\begin{center}(b)ユニット数20,近傍数3\end{center}\end{center}\caption{画像検索の平均適合率}\label{Fig:ImageResults}\end{figure*}\begin{table*}\small\begin{center}\caption{画像検索の$R$適合率および平均距離計算回数}\vspace*{2mm}\label{Tab:ImageResults}\newcommand{\mrow}[1]{}\begin{tabular}{c|*{3}{p{17pt}|p{20pt}|p{17pt}|}p{17pt}|p{19pt}|p{17pt}}\hline\hline\multicolumn{1}{c|}{特徴量}&\multicolumn{3}{c|}{RGB-48}&\multicolumn{3}{c|}{HSI-192}&\multicolumn{3}{c|}{HAAR-256}&\multicolumn{3}{c}{HSI-432}\\\hline\multicolumn{1}{c|}{{\footnotesizeユニット数}}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c|}{20}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c|}{20}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c|}{20}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c}{20}\\\hline\multicolumn{1}{c|}{近傍数}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c}{3}\\\hline$R$適合率&0.73&0.93&0.82&0.60&0.84&0.76&0.73&0.88&0.75&0.61&0.78&0.68\\\hline平均距離&&&&&&&&&&&&\\計算回数&\mrow{8940}&\mrow{12226}&\mrow{6211}&\mrow{9320}&\mrow{11998}&\mrow{6209}&\mrow{8884}&\mrow{11190}&\mrow{6121}&\mrow{9005}&\mrow{11528}&\mrow{5989}\\\hline\end{tabular}\end{center}\end{table*}\begin{figure*}\begin{center}\epsfile{file=numdat.eps,scale=0.8}\end{center}\caption{各ユニット中のデータ数}\label{Fig:UnitNumDat}\end{figure*}\begin{table}\begin{center}\caption{SR-treeの平均距離計算回数}\label{Tab:SRtree}\begin{tabular}{|c|c|c|c|c|}\hline&RGB-48&HSI-192&HAAR-256&HSI-432\\\hline1&153.3(104.2)&79.0(48.5)&613.1(538.2)&283.4(211.7)\\5&16548.3(16162.9)&22048.0(19966.4)&41108.7(37393.8)&38885.7(31452.7)\\10&18265.2(17865.3)&23985.0(21830.6)&41430.0(37710.9)&40825.1(33283.2)\\50&22013.7(21584.7)&28387.4(26084.6)&42128.2(38398.3)&44426.9(36715.4)\\100&23723.8(23283.4)&30425.6(28060.7)&42432.8(38698.2)&45675.8(37909.2)\\200&25429.1(24976.1)&32530.8(30104.3)&42750.1(39010.7)&46736.0(38921.4)\\\hline\end{tabular}\end{center}\end{table}\begin{figure*}\begin{center}\epsfile{file=IR.eps,scale=0.8}\end{center}\caption{文書検索の平均適合率}\label{Fig:DocResults}\end{figure*}\subsection{文書検索実験}\ref{Sec:ImageRetrieval}において,類似画像検索を対象にした実験結果を示した.画像特徴量の次元数は,数10$\sim$数100次元程度であるが,これよりも次元数が大きい場合の手法の有効性を調べるために,ベクトル空間モデル(vectorspacemodel;VSM)に基づく文書検索を対象とした実験を行なった.なお,文書検索では通常,検索質問中の索引語が現われる文書しか対象にしないため,転置ファイル\cite{IRbook}に基づく方法が用いられ,この場合には高速な検索を行うことが可能である.ここでの実験は,次元数が大きい場合にも提案手法が有効かどうかを検証することを主な目的として行ったものである.ベクトル空間モデルでは,文書中から索引語を抽出し,文書を索引語の出現頻度に基づくベクトルで表現する\cite{IRbook,Salton75}.文書ベクトルの次元数は,文書集合全体にわたる索引語の総数と等しいため,次元数はきわめて大きくなる.本実験では,情報検索評価用のテストコレクションであるMEDLINEを用いた.MEDLINEは,検索対象文書1,033文書,検索質問30文書から成る小規模なコレクションであり,各検索質問には,どの文書が適合しているかという適合情報が用意されている.なお,各検索質問に対する平均適合文書数は23.2文書である.まず前処理として,MEDLINEコレクションから``a''や``about''などの不要語439単語,および全文書中に1回しか出現しなかった単語を削除した.その後,ポーター・アルゴリズム(Porteralgorithm)\cite{Porter80}によるステミングを行なった結果,4,329個の索引語が得られた.以上の処理により得られた索引語から4,329次元の文書ベクトルを構成した.この際,索引語の重み付けとして,局所的重み付けには対数化索引語頻度を,大域的重み付けにはエントロピーを,文書正規化にはコサイン正規化を用いた\cite{IRbook}.文書検索の評価では,通常のベクトル空間モデルに基づく最近傍検索(線形探索)と自己組織化マップを用いた最近傍検索の両者とも30件の検索結果を出力し,出力結果をMEDLINEの適合情報と比較することにより適合率を求めた.この際,自己組織化マップを用いた最近傍検索では,ユニット数20,近傍数3の条件で検索を行なった.図~\ref{Fig:DocResults}に,文書検索の適合率曲線を示すが,自己組織化マップを用いた検索のほうがわずかながら良い結果を与えている.なお,ベクトル空間モデルに基づく検索の$R$適合率は0.53であり,自己組織化マップを用いた検索の$R$適合率は0.58であった.また,自己組織化マップを用いた最近傍検索の平均距離計算回数は1検索質問当たり141回であり,これは線形探索の約1/7に相当する.以上はMEDLINEコレクションの適合情報に対する評価であるが,次に,自己組織化マップによる最近傍検索の近似誤差について述べる.ベクトル空間モデルの検索結果を正解とみなした場合,自己組織化マップを用いた検索結果の$R$適合率は0.68であった.したがって,上位30件までの検索では32\,\%の近似誤差が生じていることになる.しかし,近似誤差があるにもかかわらず,MEDLINEの適合情報に対する評価では,通常のベクトル空間モデルよりも適合率が高くなっている.潜在的意味インデキシング(latentsemanticindexing;LSI)\cite{Berry99}などによる検索では,次元数を削減すると検索精度が逆に向上することなどから,高次元空間そのものにおける検索が質的に良い検索結果を与えるとは限らない.我々の提案した手法の近似の程度と検索精度の関係等を調査することは,今後の課題である.
\section{おわりに}
本稿では,1次元自己組織化マップを用いた高次元データの近似的な最近傍検索手法を提案した.提案した手法では,自己組織化マップを用いて,高次元空間での近傍関係をできる限り保ちつつ,高次元データを1次元マップ上に配置することにより,最近傍検索の探索範囲を大きく削減することができる.また,本手法では,実際に距離計算の行なわれるデータは,2次記憶上の連続した領域に格納できるため,2次記憶へのアクセスを効率的に行なうことができるという大きな利点を持っている.このため,大規模なデータ集合に対しても,きわめて高速な最近傍検索を行なうことが可能である.従来のSR-tree等の正確な最近傍検索では,高次元の場合に線形探索に近い計算量が必要となってしまうという問題点があるため,現実的,応用的な場面においては,本手法のような高速な近似的最近傍検索のほうが望ましいと考えられる.\acknowledgment本研究の実験の一部に協力頂いた修士課程1年の原一眞君に感謝する.また,本研究の一部は,財団法人放送文化基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{433atari}\begin{biography}\biotitle{略歴}\bioauthor{北研二}{昭和56年,早稲田大学理工学部数学科卒業.昭和58年,沖電気工業(株)入社.昭和62年,ATR自動翻訳電話研究所出向.平成4年,徳島大学工学部講師.平成5年,同助教授.平成12年,同教授.平成14年,同大学高度情報化基盤センター教授.工学博士.自然言語処理,情報検索等の研究に従事.平成6年日本音響学会技術開発賞受賞.著書『確率的言語モデル』(東京大学出版会),『情報検索アルゴリズム』(共著,共立出版)など.}\bioauthor{獅々堀正幹}{平成3年,徳島大学工学部情報工学科卒業.平成5年,同大学院博士前期課程修了.平成7年,同大学院博士後期課程退学.同年,同大学工学部知能情報工学科助手.現在,同大学工学部知能情報工学科助教授.博士(工学).情報検索,文書処理,自然言語処理の研究に従事.情報処理学会第45回全国大会奨励賞受賞.著書『情報検索アルゴリズム』(共著,共立出版).電子情報通信学会,情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N01-08
|
\section{序論}
\label{sec:序論}近年,機械可読な言語データの整備が進んだことや,計算機能力の向上により大規模な言語データの取り扱いが可能になったことから,自然言語処理に用いる様々な知識を言語データから自動的に獲得する研究が盛んに行われている\cite{utsuro95a}.大量の言語データから自動的に獲得した知識は,人手によって得られる知識と比べて,獲得した知識が人間の主観に影響されにくい,知識作成のためのコストが低い,知識の適用範囲が広い,知識に何らかの統計情報を容易に組み込むことができる,といった優れた特徴を持っている.言語データから自動獲得される自然言語処理用知識には様々なものがあるが,その中の1つとして文法がある.文法には様々なクラスがあるが,統語解析の際に最もよく用いられるのは文脈自由文法(ContextFreeGrammar,以下CFGと呼ぶ)であり,一般化LR法,チャート法などのCFGを用いた効率の良い解析手法がいくつも提案されている.ところが,人手によってCFGを作成する場合,作成の際に考慮されなかった言語現象については,それに対応する規則がCFGに含まれていないために解析することができない.これに対して,コーパスから自動的にCFGを抽出することができれば,コーパス内に現れる多様な言語現象を網羅できるだけでなく,人的負担も極めて軽くなる.また,CFGの拡張の1つとして,文法規則に確率を付与した確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFGと呼ぶ)がある\cite{wetherell80a}.PCFGは,生成する複数の解析結果の候補(解析木)に対して,生成確率による順序付けを行うことができるという点でCFGよりも優れている.そこで本論文では,CFGをコーパスから自動抽出し,その後各規則の確率をコーパスから学習することにより最終的にPCFGを獲得する手法を提案する.CFGまたはPCFGをコーパスから自動獲得する研究は過去にもいくつか行われている.文法獲得に利用されるコーパスとしては,例文に対して何の情報も付加されていない平文コーパス,各形態素に品詞が割り当てられたタグ付きコーパス,内部ノードにラベルのない構文木が与えられた括弧付きコーパス,内部ノードのラベルまで与えられた構文木付きコーパスなど,様々なものがある.以下ではまず,文法獲得に関する過去の研究が,どのような種類のコーパスからどのような手法を用いて行われているのかについて簡単に概観する.平文コーパスからの文法規則獲得に関する研究としては清野と辻井によるものがある~\cite{kiyono93a,kiyono94a,kiyono94b}.彼らの方法は,まずコーパスの文を初期のCFGを用いて統語解析し,解析に失敗した際に生成された部分木から,解析に失敗した文の統語解析を成功させるために必要な規則(彼らは仮説と呼んでいる)を見つけ出す.次に,その仮説がコーパスの文の解析を成功させるのにどの程度必要なのかを表わす尤度(Plausibility)を計算し,高い尤度を持つ仮説を新たな規則として文法に加える.彼らは全ての文法規則を獲得することを目的としているわけではなく,最初からある程度正しいCFGを用意し,それを新たな領域に適用する際にその領域に固有の言語現象を取り扱うために必要な規則を自動的に獲得することを目的としている.タグ付きコーパスからCFGを獲得する研究としては森と長尾によるものがある~\cite{mori95a}.彼らは,前後に現われる品詞に無関係に出現する品詞列を独立度の高い品詞列と定義し,コーパスに現われる品詞列の独立度をn-gram統計により評価する.次に,ある一定の閾値以上の独立度を持つ品詞列を規則の右辺として取り出す.また,取り出された品詞列の集合に対して,その前後に現われる品詞の分布傾向を利用してクラスタリングを行い,同一クラスタと判断された品詞列を右辺とする規則の左辺に同一の非終端記号を与える.そして,得られた規則のクラスタの中からコーパス中に最もよく現れるものを選び,それらをCFG規則として採用すると同時に,コーパス中に現われる規則の右辺の品詞列を左辺の非終端記号に置き換える.このような操作を繰り返すことにより,最終的なCFGを獲得すると同時に,コーパスの各例文に構文木を付加することができる.括弧付きコーパスからCFGを獲得する研究としては,まずInside-Outsideアルゴリズムを利用したものが挙げられる.LariとYoungは,与えられた終端記号と非終端記号の集合からそれらを組み合わせてできる全てのチョムスキー標準形のCFG規則を作り,それらの確率をInside-Outsideアルゴリズムによって学習し,確率の低い規則を削除することにより新たなPCFGを獲得する方法を提案した~\cite{lari90a}.この方法では収束性の悪さや計算量の多さが問題となっていたが,この問題を解決するために,PereiraらやSchabesらはInside-Outsideアルゴリズムを部分的に括弧付けされたコーパスに対して適用する方法を提案している~\cite{pereira92a,schabes93b}.しかしながら,局所解は得られるが最適解が得られる保証はない,得られる文法がチョムスキー標準形に限られるなどの問題点も残されている.一方,括弧付きコーパスから日本語のCFGを獲得する研究としては横田らのものがある\cite{yokota96a}.彼らは,Shift-Reduceパーザによる訓練コーパスの例文の統語解析が最も効率良くなるように,コーパスの内部ノードに人工的な非終端記号を割り当てることによりCFGを獲得する方法を提案している.これは組み合わせ最適化問題となり,SimulatedAnnealing法を用いることにより解決を求めている.1000〜7500例文からCFGを獲得し,それを用いた統語解析では15〜47\%の正解率が得られたと報告している.この方法では,CFG獲得の際に統計情報のみを利用し,言語的な知識は用いていない.しかしながら,利用できる言語学的な知識はむしろ積極的に利用した方が,文法を効率良く獲得できると考えられる.構文木付きコーパスから文法を獲得する研究としてはSekineとGrishmanによるものがある~\cite{sekine95a}.彼らは,PennTreeBank~\cite{marcus93a}の中からSまたはNPを根ノードとする部分木を自動的に抽出する.解析の際には,得られた部分木をSまたはNPを左辺とし部分木の葉の列を右辺としたCFG規則に変換し,通常のチャート法により統語解析してから,解析の際に使用した規則を元の部分木に復元する.得られた解析木にはPCFGと同様の生成確率が与えられるが,この際部分木を構成要素としているため若干の文脈依存性を取り扱うことができる.しかしながら,SまたはNPがある記号列に展開されるときの構造としては1種類の部分木しか記述できず,ここでの曖昧性を取り扱うことができないといった問題点がある.また,構文木付きコーパスにおいては,例文に付加された構文木の内部ノードにラベル(非終端記号)が割り当てられているため,通常のCFGならば構文木の枝分れをCFG規則とみなすことにより容易に獲得することができる.大量のコーパスからPCFGを獲得するには,それに要する計算量が少ないことが望ましい.ところが,統語構造情報が明示されていない平文コーパスやタグ付きコーパスを用いる研究においては,それらの推測に要する計算コストが大きいといった問題がある.近年では,日本においてもEDRコーパス~\cite{edr95a}といった大規模な括弧付きコーパスの整備が進んでおり,効率良くCFGを獲得するためにはそのような括弧付きコーパスの統語構造情報を利用することが考えられる.一方,括弧付きコーパスを用いる研究\cite{pereira92a,schabes93b,yokota96a}においては,平文コーパスやタグ付きコーパスと比べて統語構造の情報が利用できるとはいえ,反復アルゴリズムを用いているために文法獲得に要する計算量は多い.本論文では,括弧付きコーパスとしてEDRコーパスを利用し,日本語の言語的特徴を考慮した効率の良いPCFG抽出方法を提案する~\cite{shirai95b,shirai95a}.本論文の構成は以下の通りである.2節では,括弧付きコーパスからPCFGを抽出する具体的な手法について説明する.3節では,抽出した文法を改良する方法について説明する.文法の改良とは,具体的には文法サイズを縮小することと,文法が生成する解析木の数を抑制することを指す.4節では,実際に括弧付きコーパスからPCFGを抽出し,それを用いて統語解析を行う実験について述べる.最後に5節では,この論文のまとめと今後の課題について述べる.
\section{括弧付きコーパスからの文法抽出}
\label{sec:文法抽出}\subsection{EDRコーパスの概要}\label{sec:EDRコーパスの概要}本論文では,言語データとしてEDR日本語コーパスを使用する.EDRコーパスに収録されている例文数は207,802である.それぞれの文には補助情報として形態素情報,構文情報,意味情報が付加されている.本論文では形態素情報(特に品詞情報)と括弧付けによる構文構造を利用する.EDRコーパスの例文,及びそれに付加された形態素情報・括弧付けによる構文構造の例を図\ref{fig:構文構造の例1}に示す.\begin{center}\atari(120,68)\figcap{EDRコーパスの構文構造}{fig:構文構造の例1}\end{center}EDRコーパスで使われている品詞は以下に挙げる15種類であり,比較的粗い品詞体系になっている.\begin{quote}名詞,動詞,形容詞,形容動詞,連体詞,副詞,接続詞,数字,感動詞,助詞,\\助動詞,語尾,接頭語,接尾語,記号\end{quote}ここで注意しなければならないのは,``動詞''という品詞は動詞語幹に対して割り当てられ,語尾には``語尾''という品詞が割り当てられている点である.同様に,``形容詞'',``形容動詞'',``助動詞''という品詞は,それぞれ形容詞語幹,形容動詞語幹,助動詞語幹に割り当てられている.\subsection{ノードへの非終端記号の付与}\label{sec:ノードへの非終端記号の付与}図\ref{fig:構文構造の例1}は図\ref{fig:基本規則}のような書き換え規則の集合とみなすことができる.図\ref{fig:構文構造の例1}のような構文構造の各ノードに対して適切なラベル(非終端記号)を割り当てることができれば,図\ref{fig:基本規則}の規則はCFG規則となる.このように,括弧付けによる構文構造の内部ノードに適切なラベルを与えることは括弧付きコーパスからCFGを抽出することと等価である.そこで,\ref{sec:ラベルの決定方法}節では構文構造の内部ノードに与えるラベルを決定する方法について考える.\begin{center}\small\smallskip\begin{tabular}[t]{ccccc}\inode{0}&$\rightarrow$&\inode{1}&記号&\hspace{3zw}\\\inode{1}&$\rightarrow$&\inode{2}&助動詞&\\\inode{2}&$\rightarrow$&\inode{3}&\inode{4}&\\\inode{3}&$\rightarrow$&名詞&助詞&\\\inode{4}&$\rightarrow$&\inode{5}&\inode{14}&\\\inode{5}&$\rightarrow$&\inode{6}&助詞&\\\inode{6}&$\rightarrow$&\inode{7}&名詞&\\\inode{7}&$\rightarrow$&\inode{8}&\inode{13}&\\\end{tabular}\hspace{5mm}\begin{tabular}[t]{ccccc}\inode{8}&$\rightarrow$&\inode{9}&助詞&\\\inode{9}&$\rightarrow$&\inode{10}&名詞&\\\inode{10}&$\rightarrow$&\inode{11}&助詞&\\\inode{11}&$\rightarrow$&\inode{12}&名詞&\\\inode{12}&$\rightarrow$&接頭語&名詞&\\\inode{13}&$\rightarrow$&動詞&語尾&\\\inode{14}&$\rightarrow$&動詞&語尾&助動詞\\\end{tabular}\bigskip\figcap{構文構造から得られる書き換え規則}{fig:基本規則}\end{center}\subsection{ラベルの決定方法}\label{sec:ラベルの決定方法}日本語の特徴として,前の要素が後ろの要素を修飾する,すなわち句の主辞はその句における一番最後の要素であるということが知られている\cite{mihara94a}.例えば,図\ref{fig:基本規則}の中の\begin{quote}\inode{12}~~$\rightarrow$~~接頭語~~名詞\end{quote}という規則について考えよう.[接頭語名詞]という句の主辞は句の一番最後にある``名詞''であると考えられる.そこで,この主辞``名詞''に``句''をつけたラベル``名詞句''を左辺のノード\inode{12}に与えることにする.同様に,\begin{quote}X~~$\rightarrow$~~形容詞句~~名詞句\end{quote}という規則が存在すると仮定し,ラベルの決定されていないノードXに非終端記号を与える場合を考える.この時,[形容詞句名詞句]という句全体の主辞もまた句の最後にある``名詞句''であると考えられる.先ほどと異なるのは主辞となる記号が非終端記号であるという点である.このような場合には,右再帰を用いて左辺ノードXにも主辞と同じ``名詞句''というラベルを与える.しかしながら,このようなラベルの与え方が常に適切であるわけではない.\begin{itemize}\item主辞にならない品詞\quad例えば,\begin{quote}X~~$\rightarrow$~~接続詞~~記号\end{quote}という規則について考える\footnote{この規則の右辺は「しかし,」などに対応している.}.[接続詞記号]という句の1番最後にある品詞は``記号''であるが,この句の主辞は``記号''ではなく``接続詞''である.したがって,左辺のノードXに与えるラベルも``記号句''ではなく``接続詞句''とすべきである.このように,``記号''は主辞にはならない品詞であるとみなし,句の一番最後にある要素が``記号''である場合には,その左隣にある要素を主辞とみなす.\item``語尾''と``助動詞''の取り扱い\quad図\ref{fig:基本規則}の中の\begin{quote}\inode{13}~~$\rightarrow$~~動詞~~語尾\end{quote}という規則について考える.今までのやり方では,[動詞語尾]という句の1番最後にある品詞は``語尾''であるので,左辺のノード\inode{13}に与えるラベルは``語尾句''となる.ところが,\ref{sec:EDRコーパスの概要}節で述べたように,EDRコーパスにおいては,``語尾''という品詞は動詞の語尾にだけではなく形容詞・形容動詞・助動詞の語尾にも割り当てられている.したがって,このようなラベルの付け方では,\begin{quote}X~~$\rightarrow$~~形容詞~~語尾\\X~~$\rightarrow$~~形容動詞~~語尾\\X~~$\rightarrow$~~助動詞~~語尾\end{quote}といった規則の左辺にも``語尾句''というラベルを与えることになる.この場合,``語尾句''というラベルを割り当てられたノードが``動詞'',``形容詞'',``形容動詞'',``助動詞''のどれを含んでいるのかを識別することができない.同様に,規則の右辺の一番最後にある要素が``助動詞''のときも,左辺に``助動詞句''というラベルを与えるのは好ましいことではない.このような理由から,句の一番最後にある要素が品詞``語尾''または``助動詞''である場合には,その左隣にある要素から左辺に与える非終端記号を導出する.\item主辞が``助詞''の場合\quad左辺に``助詞句''というラベルを与えることも考えられるが,わかりやすさのため``後置詞句''というラベルを与える.\item主辞が``接尾語''の場合\quadEDRコーパスにおいては,品詞が``接尾語''となる形態素は「月」,「日」,「メートル」など単位を表しているものが多く,他にも「区」,「氏」など全体として名詞句を形成するものがほとんどである.そこで,主辞が``接尾語''のときには左辺ノードに``名詞句''というラベルを与える.\end{itemize}以上のようないくつかの例外処理が必要ではあるが,基本的には句の一番最後にある要素を主辞とみなして,それから左辺ノードに与えるラベルを決定することにする.本節で提案した括弧付きコーパスから文法を抽出するアルゴリズムを以下にまとめる.\begin{flushleft}\vspace*{2mm}{\bf【文法抽出アルゴリズム】}\vspace*{-3mm}\end{flushleft}\begin{enumerate}\item構文構造の中で,まだラベルが割り当てられていなくて,かつその子ノードには全てラベルが割り当てられているノードを見つける.そのようなノードがなければ(3)へ.\item(1)で見つけたノードが構文構造のルートである場合には,そのノードのラベルを開始記号Sとする.それ以外は【ラベル決定アルゴリズム】(後述)を用いてノードに与えるラベルを決定する.(1)へ戻る.\item構文構造の全ての内部ノードにはラベルが与えられているはずなので,それを\begin{center}ノード\quad→\quad子ノードの列\end{center}という形に分解しCFG規則とする.\end{enumerate}\begin{flushleft}\vspace*{2mm}{\bf【ラベル決定アルゴリズム】}\vspace*{-3mm}\end{flushleft}``記号'',``語尾'',``助動詞''以外の要素で子ノードの列の最も右側にあるものを選び,それをXとする.\begin{itemize}\itemXが``助詞''の場合,左辺ノードに``後置詞句''というラベルを与える.\itemXが``接尾語''の場合,左辺ノードに``名詞句''というラベルを与える.\itemXが``助詞'',``接尾語''以外の品詞の場合,左辺ノードに``X句''というラベルを与える.例えば主辞が``名詞''の場合,``名詞句''というラベルを与える.\itemXが非終端記号の場合,左辺ノードにも同じXというラベルを与える.例えば主辞が``名詞句''の場合,左辺ノードにも同じ``名詞句''というラベルを与える.\end{itemize}\bigskip上記の方法によって図\ref{fig:構文構造の例1}の内部ノードにラベルを与えて抽出された文法規則を図\ref{fig:抽出された文法の例}に示す.この操作をコーパスの全ての構文構造に対して行うことによりCFGを抽出することができる.\begin{center}\small\smallskip\begin{tabular}{lcll}S&$\rightarrow$&助動詞句&記号\\助動詞句&$\rightarrow$&動詞句&助動詞\\動詞句&$\rightarrow$&後置詞句&動詞句\\動詞句&$\rightarrow$&動詞&語尾\\動詞句&$\rightarrow$&動詞&語尾~~~~助動詞\\後置詞句&$\rightarrow$&名詞&助詞\\後置詞句&$\rightarrow$&名詞句&助詞\\名詞句&$\rightarrow$&後置詞句&名詞\\名詞句&$\rightarrow$&接頭語&名詞\\名詞句&$\rightarrow$&動詞句&名詞\\名詞句&$\rightarrow$&名詞句&名詞\\\end{tabular}\bigskip\figcap{抽出された文法規則}{fig:抽出された文法の例}\end{center}次に,本手法の文法抽出に要する計算量について考察する.【文法抽出アルゴリズム】は,「句の主辞はその句における一番最後の要素である」という日本語の言語学的特徴を利用して括弧付けによる構文構造の内部ノードに非終端記号を与えているため,文法抽出に必要な計算量はコーパスの構文構造の内部ノード数に比例する.また,長さ$n$の文があったとき,それに対する最も内部ノード数の多い構文構造は完全な二分木であり,そのときの内部ノード数は$n-1$である.したがって,文法抽出に必要な計算量は入力文の長さ$n$にも比例する.このことは大規模なコーパスからの文法抽出を可能にしている.これに対し,本研究と同じく括弧付きコーパスを用いてCFGを獲得するPereiraらの方法~\cite{pereira92a,schabes93b}では,Inside-Outsideアルゴリズムによる規則の推定に必要な計算量は$O(n)$であり\footnote{厳密には,コーパスに付加された構文木が完全な二分木のときのみ$O(n)$となり,それ以外の場合の計算量は$O(n)$よりも多い.},しかもこの作業を反復しなければならない.また,同じく括弧付きコーパスを利用した横田らの方法~\cite{yokota96a}では,内部ノードに与える非終端記号をランダムに変化させることを繰り返すSimulatedAnnealing法を用いてCFG規則を獲得しているため,内部ノードに決定的に非終端記号を与える本手法よりも多くの計算量を必要とするのは明らかである.\subsection{規則の確率の推定}\label{sec:規則の確率の推定}前節で提案した方法により括弧付きコーパスから抽出したCFGに対して,各規則の確率を次のように推定した\cite{wetherell80a}.\newpage\begin{flushleft}\vspace*{2mm}{\bf【規則の確率の推定】}\vspace*{-3mm}\end{flushleft}\begin{enumerate}\itemコーパスからCFG規則を抽出する際に,同じ規則を抽出した回数,すなわちその規則のコーパスにおける出現頻度を数える.規則$r_i$の出現頻度を$C(r_i)$とする.\item規則$r_i\;:\;A\rightarrow\zeta_i$の確率$P(r_i)$を次式により求める.\begin{equation}\label{eq:規則の確率}\hspace*{30mm}P(r_i)\quad=\quad\frac{C(r_i)}{\displaystyle\sum_{\forallr_j\;:\;A\rightarrow\zeta_j}C(r_j)}\end{equation}すなわち$P(r_i)$は,$r_i$の出現頻度を,$A$を左辺とする全ての規則の出現頻度の和で割った値とする.\end{enumerate}以上のように規則の確率を推定することにより,括弧付きコーパスからPCFGを抽出することができる.
\section{文法の改良}
\label{sec:文法の改良}サイズの小さなコーパスを用いて,前節で説明した方法によりPCFGを抽出する予備実験を行ったところ,以下のような問題点が明らかになった.\begin{itemize}\item文法のサイズが大きい\quadEDRコーパスからランダムに選び出した3,000例文からPCFGを抽出したところ,文法規則の数は1,009となり,コーパスサイズに比べて非常に多くの文法規則が抽出されることがわかった.統語解析に要するコストを考えると,文法サイズが不必要に大きいことは望ましいことではない.\item生成される解析木の数が多い\quad抽出したPCFGを用いてEDRコーパスからランダムに選び出した100例文\footnote{PCFGを抽出した3,000例文とは別の例文である.}を統語解析したところ,解析結果の候補として生成された解析木の数は平均$1.5\times10^6$となり,非常に多くの解析木を生成することがわかった.また,メモリ不足によって解析に失敗した文は69文あった.統語解析を意味解析や文脈解析などの前処理と考えるなら,統語解析結果の候補の数はできるだけ少ないことが望まれる.\end{itemize}本節ではこれらの問題への対応策について述べる.\subsection{文法サイズの縮小}\label{sec:文法サイズの縮小}ここでは,コーパスから抽出した文法のサイズを縮小する方法を提案する.文法サイズを縮小する方法としてまず考えられるのは,出現頻度の低い規則を削除することである.しかし,単純に出現頻度の低い規則を削除した場合,その規則がコーパスの構文構造作成時の誤りによって生じた不適切な規則であればよいが,稀にしか現われない言語現象に対応した規則である場合には,そのような規則を削除することにより文法の適用範囲(coverage)が狭くなる.両者を出現頻度のみで区別することは難しく,出現頻度が低いからといってその規則を削除することは必ずしも適切ではない.予備実験で抽出した文法を調べたところ,右辺長の長い規則が多く含まれていることがわかった.予備実験で抽出した文法規則の右辺長の分布を表\ref{tab:規則の右辺長の分布}に示す.\begin{center}\tblcap{文法規則の右辺長の分布}{tab:規則の右辺長の分布}\small\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|r|r|r|r|}\hline右辺長&\makebox[4mm]{2}&\makebox[4mm]{3}&\makebox[4mm]{4}&\makebox[4mm]{5}&\makebox[4mm]{6}&\makebox[4mm]{7}&\makebox[4mm]{8}&\makebox[4mm]{9}&\makebox[4mm]{10}&\makebox[4mm]{11}&\makebox[4mm]{12}&\makebox[4mm]{13}&\makebox[4mm]{14}&\makebox[4mm]{16}\\\hline規則数&235&205&155&161&111&69&31&25&7&6&1&1&1&1\\\hline\end{tabular}\bigskip\end{center}右辺長の長い規則が多く含まれていることがわかる.そのような規則の一例を次に挙げる.\begin{center}\begin{tabular}{ccl}動詞句&$\rightarrow$&動詞~語尾~名詞~助詞~形容動詞~語尾~動詞~語尾\\\end{tabular}\end{center}これは,コーパスのある例文において,\begin{center}[~~動詞~語尾~名詞~助詞~形容動詞~語尾~動詞~語尾~~]\end{center}といった括弧付けがなされているためである.本来,その例文の構文構造を反映させるためにはもう少し細かい括弧付けが必要である.しかし,EDRコーパスの中には多くの要素を1つの括弧で括ってしまう例文も存在する.このような右辺の長い規則の存在が文法サイズを大きくしている原因の1つと考えられる.右辺の長い規則の場合,その規則を除去しても文法中の他の規則によって右辺の記号列を生成できる場合がある.例えば,文法中に次のような規則があったとする.\begin{center}\begin{tabular}{llcl}$r_b$:&動詞句&$\rightarrow$&動詞句~後置詞句~動詞句\\[-1mm]$r_{c1}$:&動詞句&$\rightarrow$&動詞~語尾\\[-1mm]$r_{c2}$:&後置詞句&$\rightarrow$&名詞~助詞\\[-1mm]$r_{c3}$:&動詞句&$\rightarrow$&形容動詞~語尾~動詞~語尾\\\end{tabular}\end{center}これら4つの規則を用いれば,非終端記号``動詞句''から``動詞~語尾~名詞~助詞~形容動詞語尾~動詞~語尾''という記号列を生成することが可能である.このことを図式化したものを図\ref{fig:冗長規則の例1}に示す.このように,ある規則を文法から除去しても,他の規則によって右辺の記号列を生成できるような場合は文法の生成能力は変わらない.\begin{center}\bigskip\atari(115,36)\figcap{複数の規則を用いた記号列の展開}{fig:冗長規則の例1}\end{center}そこで,「冗長な規則」を次のように定義する.\begin{center}\begin{minipage}{0.73\textwidth}ある規則$r_i:A_i\rightarrow\zeta_i$があるとき,文法内の$r_i$以外の規則を用いて非終端記号$A_i$を記号列$\zeta_i$に展開できるならば,すなわち$A_i\stackrel{*}{\rightarrow}\zeta_i$であるならば,$r_i$は冗長な規則である.\end{minipage}\end{center}\noindent$\stackrel{*}{\rightarrow}$は規則を1回以上適用することを示す.冗長な規則を削除する前の文法によって受理される文は,冗長な規則を削除した後の文法でも必ず受理される.したがって,冗長な規則を自動的に検出しそれを削除すれば,文法の適用範囲を狭めることなく文法サイズを縮小することができる.ここで問題となるのは,冗長な規則のコーパスにおける出現頻度をどのように取り扱うかということである.本論文では,式(\ref{eq:規則の確率})に示した通り,規則の出現頻度を規則の確率の推定に用いている.そのため,冗長な規則を文法から削除する際に,その出現頻度をも破棄してしまうのは望ましいことではない.冗長な規則を削除するのは,その規則の右辺の記号列が他の規則によって生成できることが保証されているからである.したがって,削除された冗長な規則の出現頻度は,その規則の右辺の記号列を生成するのに必要な規則の出現頻度に加えるべきである.例えば図\ref{fig:冗長規則の例1}において,$r_a$の右辺の記号列は$r_b$,$r_{c1}$,$r_{c2}$,$r_{c3}$をそれぞれ1回ずつ適用することによって生成されるので,$r_a$を文法から除去する場合には,$r_b$,$r_{c1}$,$r_{c2}$,$r_{c3}$の出現頻度に$r_a$の出現頻度をそれぞれ加えるべきである.さらに,冗長な規則の右辺を生成する規則の組\{$r_b$,$r_{ci}$\}(図\ref{fig:冗長規則の例1}においては\{$r_b$,$r_{c1}$,$r_{c2}$,$r_{c3}$\})が複数ある場合には,冗長な規則$r_a$の出現頻度を,各組の$r_b$に該当する規則の出現頻度で比例配分してから各規則に足し合わせる.また,ある規則$r_a$が冗長であるかどうかを調べる際には右辺長の長い規則から順番に行い,\{$r_b,r_{ci}$\}が冗長であるかどうかについては考慮しない.そして,$r_a$が冗長であるとわかった際には,\{$r_b,r_{ci}$\}の規則の出現回数を更新してから次の規則が冗長であるかどうかを調べる.したがって,例えば図\ref{fig:冗長規則の例1}の$r_{c3}$が冗長な規則である場合でも,$r_a$の出現頻度は$r_{c3}$の出現頻度に一旦加えられた後,$r_{c3}$の右辺の記号列を生成する規則の出現頻度にも足し合わされる.本節で提案した冗長な規則を検出しそれを削除するアルゴリズムを以下にまとめる.\begin{flushleft}\vspace*{2mm}{\bf【冗長規則削除アルゴリズム】}\vspace*{-3mm}\end{flushleft}$R,~R_{new},~C(r),~C_{new}(r)$を次のように定義する.\begin{center}\begin{tabular}{lcl}$R$&~$\cdots$~&抽出した文法規則の集合\\$C(r)$&~$\cdots$~&$R$中の規則$r$の出現頻度\\$R_{new}$&~$\cdots$~&冗長な規則を削除して作られる新しい文法規則の集合\\&&($R$の中から冗長でない規則を取り出した集合)\\$C_{new}(r)$&~$\cdots$~&$R_{new}$の各規則の出現頻度\\\end{tabular}\end{center}\begin{enumerate}\item$R_{new}$を空集合とする.\item$R$の中から右辺長の一番長い規則$r_a$を1つ抜き出す.\item以下の条件を満たす規則の組\{$r_b^j$,$r_{c1}^j$,$\cdots$,$r_{cn}^j$\}を可能な限り見つける.\begin{quote}規則$r_b^j$の右辺に含まれる非終端記号$B_i^j$を,$B_i^j$を左辺とする規則$r_{ci}^j$の右辺の記号列$\beta_i^j$に置き換えた記号列が$r_a$の右辺の記号列と一致する.\end{quote}この条件を図示すると図\ref{fig:冗長な規則のチェック}のようになる.但し,図\ref{fig:冗長な規則のチェック}において,$A,\;B_i\inN~,~~~\alpha_i,\;\beta_i\in(N+T)*$である.($N$は非終端記号の集合,$T$は終端記号の集合)\bigskip\begin{center}\atari(120,44)\figcap{冗長な規則のチェック}{fig:冗長な規則のチェック}\end{center}※このような規則の組が1つも見つからなかった場合($j=0$の場合)\begin{quote}$r_a$は冗長な規則ではない.この規則を$R_{new}$に加え,$C_{new}(r)=C(r)$とする.\end{quote}※このような規則の組が1つ以上見つかった場合($j>=1$の場合)\begin{quote}$r_a$は冗長な規則である.このときは$r_a$を$R_{new}$には加えず,出現頻度$C(r)$の更新のみを図\ref{fig:出現頻度の更新}のように行う.すなわち,見つけた規則の組の$r_b^j$に該当する規則の出現頻度で$C(r_a)$を比例配分し,それを$C(r_b^j)$,$C(r_{ci}^j)$に加える.\bigskip\begin{center}$\begin{array}{c@{\hspace*{5mm}}c@{\hspace*{5mm}}ccc@{\hspace*{10mm}}l}C(r_b^j)&\leftarrow&C(r_b^j)&+&C(r_a)\times\frac{\displaystyleC(r_b^j)}{\displaystyle\sum_j~C(r_b^j)}&for~all~~~~j\\[5mm]C(r_{ci}^j)&\leftarrow&C(r_{ci}^j)&+&C(r_a)\times\frac{\displaystyleC(r_b^j)}{\displaystyle\sum_j~C(r_b^j)}&for~all~~~i,\;j\\\end{array}$\figcap{出現頻度の更新}{fig:出現頻度の更新}\bigskip\end{center}\end{quote}\item$R$が空なら終了.それ以外は(2)へ戻る.\end{enumerate}以上のように冗長な規則を削除することにより,文法の適用範囲を狭めることなく文法サイズを縮小することができる.この方法により文法サイズをどの程度縮小することができるのかについては第\ref{sec:評価実験}節の実験で評価する.\subsection{解析木数の抑制}\label{sec:解析木数の抑制}ここでは,抽出した文法が生成する解析木の数を抑制するための3つの方法を提案する.\subsubsection{同一品詞列の取り扱い}\label{sec:同一品詞列}統語解析を行う文の中に同じ品詞が複数並んだ句が存在する場合には,生成される解析木数が増大すると予想される.例えば,``名詞''が3つ並んで構成される句の構造としては,名詞間の修飾関係に応じて図\ref{fig:複合名詞の構造3}に示す3つの構造が考えられる.\begin{center}\atari(110,24)\figcap{``名詞''が3つ並んだ句の構造}{fig:複合名詞の構造3}\end{center}ところが,これらの構造の中から正しいものを選択するためには何らかの意味的な情報が必要である\cite{kobayashi96a}.したがって,意味的な情報を用いない統語解析の段階では,これらの構造全てを解析結果の候補として生成する.一般に,生成される解析木の数は組合せ的に増大するため,同一品詞列に対して不必要な構造を無意味に生成することが解析木数を増大させる原因の1つとなっている.そこで統語解析の段階では,図\ref{fig:複合名詞の構造3}のような構造を全て生成する代わりに,図\ref{fig:右下がりの構造}のような右下がりの構造のみを出力することにし,この部分の係り受け解析については統語解析の後で行われる意味解析に任せることにした.また,他の非終端記号と区別するために,図\ref{fig:右下がりの構造}の構造の内部ノードには``X列''(例えばXが``名詞''の場合は``名詞列'')というラベルを与えることにした.\begin{center}\atari(40,23)\figcap{右下がりの構造}{fig:右下がりの構造}\end{center}\noindentこのように同一品詞列に対する構造を一意に決めれば解析結果として得られる解析木の数を減少させることができる.同一品詞列に対して図\ref{fig:右下がりの構造}のような右下がりの構造のみを生成するために,\ref{sec:ラベルの決定方法}節に述べた【文法抽出アルゴリズム】に,次の手続きを最初のステップとして追加する.\newpage\begin{flushleft}{\bf【文法抽出アルゴリズム】}\vspace*{-3mm}\end{flushleft}\begin{itemize}\item[0.]構文構造において一種類の品詞のみを支配するノードがあれば,そのノードの下の構造を図\ref{fig:右下がりの構造}のような右下がりの構造に修正する.\item[1.]$\sim$3.\hspace{5mm}変更なし.\end{itemize}\bigskip\noindentまた,【ラベル決定アルゴリズム】に次の手続きを追加する.\begin{flushleft}{\bf【ラベル決定アルゴリズム】}\vspace*{-3mm}\end{flushleft}\begin{itemize}\item子ノードが品詞``X''または非終端記号``X列''のみによって構成されている場合には,\\``X列''というラベルを与える.\end{itemize}\subsubsection{品詞の細分化}\label{sec:品詞の細分化}\ref{sec:EDRコーパスの概要}節で述べたようにEDRコーパスで使われている品詞は15種類である.したがって,コーパスから抽出した文法に含まれる終端記号(品詞セット)の数も15であるが,これは統語解析を行うのに十分であるとは言えない。例えば,コーパスの中に\begin{center}[~名詞~助詞~名詞~]\qquad(e.g.~記者席/と/傍聴席~)\end{center}という括弧付けが存在し,名詞並列を表わすCFG規則が抽出されたとする.ところが,この規則は``名詞助詞名詞''という品詞列に常に適用され,「地上/に/茅(を出す)」といった名詞並列でない入力に対しても,それが名詞並列であるといった解析結果を出力してしまう.これは全ての助詞に対して``助詞''という品詞を与えているためであり,並列助詞と他の助詞に異なる品詞を与えれば,このような誤った解析を回避することができる.そこで,EDRコーパスに用いられている品詞を細分化して生成される解析木の数を抑制することを試みた.ここでは``記号''と``助詞''の2つの品詞に着目する.\begin{itemize}\item品詞``記号''の細分化\quadEDRコーパスにおいては,記号には全て``記号''という品詞が割り当てられている.しかし,読点は文の切れ目を,句点は文の終りを表す特別な記号であり,他の記号とは区別するべきである.そこで,形態素「、」と「,」には``読点''という品詞を与えることにした.また,EDRコーパス中の例文の文末に現れる形態素のほとんどは「。」,「.」,「?」,「!」のいずれかであり,しかもこれらは文末以外に現れることはほとんどなかった.そこで,形態素「。」,「.」,「?」,「!」には``文末記号''という品詞を与えることにした.また,これらの以外の形態素が文末に現れる文,及びこれらの形態素が文末以外の場所に現れる文,合計102文を例外としてコーパスから除去した.\item品詞``助詞''の細分化\quadEDRコーパスにおいては,助詞には全て``助詞''という品詞が割り当てられているが,その助詞の持っている機能により``格助詞'',``係助詞''などの品詞を割り当てるべきである.しかしながら,助詞の中には2つ以上の機能を持っているものもあり,助詞の機能をその表層だけから判断することは一般に困難である.そこで,EDRコーパスにおいて``助詞''という品詞を割り当てられた形態素「M」については,その形態素毎に独自の品詞``助詞M''を割り当てることにした.例えば,形態素「は」が``助詞''という品詞を割り当てられていたならば,その品詞を``助詞は''に変更する.\end{itemize}PCFGの抽出は,まずコーパスの品詞を上記のように細分化し,その後で\ref{sec:ラベルの決定方法}節で提案した【文法抽出アルゴリズム】に従って行う.また,品詞の細分化に伴い\ref{sec:ラベルの決定方法}節の【ラベル決定アルゴリズム】を以下のように変更する.下線を引いた部分が変更箇所である.\begin{flushleft}\vspace*{2mm}{\bf【ラベル決定アルゴリズム】}\vspace*{-3mm}\end{flushleft}\underline{``記号'',``語尾'',``助動詞'',``読点'',``文末記号''}以外の要素で子ノードの列の最も右側にあるものを選び,それをXとする.\begin{itemize}\itemXが\underline{``助詞M''}の場合,左辺ノードに``後置詞句''というラベルを与える.\item[~](以下同じ)\end{itemize}\subsubsection{法・様相を表わす助動詞に対する構造の統一}\label{sec:助動詞に関する修正}文末に現われる助動詞は文全体の法や様態を表していることが多い.例えば,EDRコーパス中の2つの例文\begin{quote}\smallskip\begin{tabular}{ll}(a)&10月中旬には、袋から顔を出しそうだ。\\(b)&そのうえソ連は対越援助を削減しそうだ。\\\end{tabular}\smallskip\end{quote}には「そう」と「だ」という2つの助動詞が含まれている.これらは文全体にそれぞれ伝聞,断定の意味合いを持たせる働きをしている.ところがEDRコーパスにおいては,このような助動詞は,文全体に付加している構造(図\ref{fig:助動詞の2つの構造}の(a))と,文末の最後の要素に付加している構造(図\ref{fig:助動詞の2つの構造}の(b))の2通りの構造で表されている.このような2種類の構文構造を含むコーパスから抽出された文法は,文末に助動詞を含む文に対して少なくとも図\ref{fig:助動詞の2つの構造}のような2つの構造を生成し,このことが解析木の数を増加させる一因となっている.そこで,助動詞が文全体に付加された図\ref{fig:助動詞の2つの構造}の(a)のような構造を,図\ref{fig:助動詞の2つの構造}の(b)のような構造に修正してから文法を抽出することにした.助動詞に対する構造を統一することにより,生成される解析木数の減少が期待できる.統一後の構造として図\ref{fig:助動詞の2つの構造}の(a)ではなく(b)を選択したのは,(a)のような構造からは解析木数を著しく増加させる文法規則が抽出されるからである.例えば,図\ref{fig:助動詞の2つの構造}の(a)のノード\inode{1},\inode{2},\inode{3},\inode{8},\inode{10},\inode{12}には,\ref{sec:ラベルの決定方法}節の【文法抽出アルゴリズム】に従って``動詞句''という非終端記号が割り当てられ,その結果次のような規則が抽出される.\begin{quote}動詞句~$\rightarrow$~動詞句~助動詞\qquad(``\inode{1}$\rightarrow$\inode{2}助動詞''という枝分かれに対応)\end{quote}\begin{center}\atari(95,100)\figcap{助動詞に対する2つの構造}{fig:助動詞の2つの構造}\end{center}\noindentところが,この規則により``助動詞''がノード\inode{8},\inode{10},\inode{12}に付加される構造も生成されることになり,生成される解析木の数を増加させる要因の1つとなっている.これに対して,図\ref{fig:助動詞の2つの構造}の(b)のような構造からは上述のような文法規則は抽出されないため,無駄な解析木を生成することはない.\vspace{-1mm}
\section{評価実験}
\label{sec:評価実験}本論文で提案した手法の評価実験を行った.まず,EDRコーパスの207,802例文のうち,約10分の1に相当する20,000例文をランダムに選んでテストデータとし,残りを訓練データとした.そして,訓練データからPCFGを抽出し,抽出したPCFGを用いてテストデータの例文を統語解析することにより,抽出したPCFGの品質を評価した.\subsection{文法抽出実験}\label{sec:文法抽出実験}文法抽出を以下の手順で行った.\begin{enumerate}\item訓練データの例文の品詞を細分化した.(\ref{sec:品詞の細分化}節)また,文末の助動詞に対する構造を統一した.(\ref{sec:助動詞に関する修正}節)\item【文法抽出アルゴリズム】に従って訓練データからPCFGを抽出した.(\ref{sec:ラベルの決定方法}節,\ref{sec:同一品詞列}節)\item【冗長規則削除アルゴリズム】に従って冗長な規則を削除した.(\ref{sec:文法サイズの縮小}節)\item式(\ref{eq:規則の確率})より各規則の確率を推定した.(\ref{sec:規則の確率の推定}節)\end{enumerate}コーパスから抽出したPCFGの概要を表\ref{tab:抽出したPCFG}に示す.\begin{center}\tblcap{抽出したPCFG}{tab:抽出したPCFG}\begin{tabular}{|c||r|r|r|}\hline\makebox[10mm]{~}&\makebox[18mm]{非終端記号数}&\makebox[18mm]{終端記号数}&\makebox[18mm]{規則数}\\\hline$G_0$&41~~&149~~&15206~~\\\hline$G_1$&41~~&149~~&2219~~\\\hline\end{tabular}\bigskip\end{center}$G_1$は上述の手続きによって訓練データから抽出されたPCFG,$G_0$は冗長規則を削除する前のPCFGである.冗長規則を削除したことにより文法サイズを約85\%縮小することができた.\subsection{統語解析実験}\label{sec:統語解析実験}得られたPCFGを用いてテストデータの例文の統語解析を行った.統語解析は一般化LR法~\cite{tomita86a}により行った.LRパーザをSunSparcStation10/51(主記憶64Mbyte)上に実装した.結果を表\ref{tab:統語解析結果(枝刈りなし)}に示す.\begin{center}\tblcap{統語解析結果}{tab:統語解析結果(枝刈りなし)}\begin{tabular}{|r|r|r||r|}\hline\makebox[17mm][c]{受理}&\makebox[17mm][c]{不受理}&\makebox[17mm][c]{メモリ不足}&\makebox[17mm][c]{合計}\\\hline12,658文&23文&7,319文&20,000文\\\hline\end{tabular}\bigskip\end{center}「受理」はパーザが解析に成功して1個以上の解析木を出力したことを,「不受理」は解析に失敗したことを,「メモリ不足」はメモリ不足のためにパーザが解析を中断したことを示す.全体の約36\%に当たる7,319文がメモリ不足のために解析できなかった.そこで,これらの文については,生成確率の低い部分木を解析途中で破棄する枝刈りを行いながら再度統語解析を行った.その結果を表\ref{tab:統語解析結果(枝刈りあり)}に示す.\begin{center}\tblcap{枝刈りを行う統語解析結果}{tab:統語解析結果(枝刈りあり)}\begin{tabular}{|r|r|r||r|}\hline\makebox[17mm][c]{受理}&\makebox[17mm][c]{不受理}&\makebox[17mm][c]{メモリ不足}&\makebox[17mm][c]{合計}\\\hline5,822文&562文&935文&7,319文\\\hline\end{tabular}\bigskip\end{center}これにより,$12,658+5,822=18,480$文を受理することができた.受理した文の平均単語数は24.45単語であった.また,生成した解析木数の1文当たりの平均は$3.24\times10^9$であった.非常に多くの解析木が生成されているが,PCFGにより解析木の生成確率を計算し,その上位何位かを出力することによって解析結果の候補数を絞り込むことが可能である.まず,文法の適用範囲の広さを示す尺度として,受理率を次のように定義する.\[受理率~=~\frac{\displaystyle受理した文の数}{\displaystyle統語解析した文の数}\]受理率は$18480/20000~\simeq~0.924$となり,適用範囲の広い文法が得られたことがわかる.また,受理しなかった1520文のうち935文(約61.5\%)がメモリ不足によるものである.したがって,パーザの使用メモリを増やすことができれば受理率はさらに向上することが予想される.次に,パーザが出力した解析木の評価を行った.出力された解析木がどれだけ正しいかを評価するための尺度として,括弧付けの再現率,括弧付けの適合率,文の正解率をそれぞれ以下のように定義した.\smallskip\[括弧付けの再現率~=~\frac{\displaystyle正しい括弧付けの数}{\displaystyleコーパスの構文構造に含まれる括弧付けの数}\]\smallskip\[括弧付けの適合率~=~\frac{\displaystyle矛盾しない括弧付けの数}{\displaystyle解析木に含まれる全ての括弧付けの数}\]\smallskip\[文の正解率~=~\frac{\displaystyle出力した解析木の中に正しい解析木が含まれる文の数}{\displaystyle受理した文の数}\]\smallskipここで「正しい括弧付け」とは,コーパスに付加された構文構造の括弧付けと完全に一致している解析木中の括弧付けを表し,「矛盾しない括弧付け」とは,コーパスに付加された構文構造の全ての括弧付けと交差していない括弧付けを表す~\cite{pereira92a}.また「正しい解析木」とは,解析木中の全ての括弧付けが矛盾していない解析木を表す.解析木の評価方法としては,コーパスの各例文に付加された構文構造を正解とみなし,これと同じ構造を持つ解析木を正しい解析結果とする方法も考えられる.しかしながら,\ref{sec:文法サイズの縮小}節で述べたように,EDRコーパスの括弧付けの中には多くの要素を1つの括弧で括ってしまうものも含まれている.これに対し,冗長な規則すなわち右辺長の比較的長い規則を削除したPCFGは,EDRコーパスに付加された括弧付けよりも細かく括弧付けする傾向を持っている.したがって,コーパスの構文構造と単純に比較して正しい解析結果か否かを判断するのは適切であるとは言えない.「括弧付けの適合率」及び「文の正解率」を計算する際に,コーパスに付加された構文構造と完全に一致していなくても,「矛盾しない括弧付け」及び「矛盾する括弧付けを含まない解析木」を正解としたのはこのためである.まず,生成確率が1位の解析木について,括弧付けの再現率,括弧付けの適合率,文の正解率の値を計算した.結果を表\ref{tab:解析結果の評価(1位のみ)}に示す.\begin{center}\tblcap{解析結果の評価(1位のみ)}{tab:解析結果の評価(1位のみ)}\begin{tabular}{|r|r|r|}\hline\makebox[27mm][c]{括弧付けの再現率}&\makebox[27mm][c]{括弧付けの適合率}&\makebox[27mm][c]{文の正解率}\\\hline54.30\%~~&65.74\%~~&8.47\%~~\\\hline\end{tabular}\smallskip\end{center}Schabesらは,英語の括弧付きコーパス(WallStreetJournalCorpus)からInside-Outsideアルゴリズムにより獲得した文法を用いた統語解析実験を行い,20〜30単語のテスト文に対して括弧付けの適合率が71.5\%,文の正解率が6.8\%であったと報告している\footnote{彼らは括弧付けの再現率は示していない.}\cite{schabes93b}.我々の実験の結果は,括弧付けの適合率ではSchabesらの結果に劣るが文の正解率では優っている.しかしながら,本研究とは使用しているコーパスや対象言語が異なるため,単純な比較はできない.表\ref{tab:解析結果の評価(1位のみ)}では,生成確率が1位の解析木についてのみ評価を行ったが,生成確率は統語的にみた解析木の尤もらしさを示しており,係り受け関係などの意味的な関係を考えた場合,生成確率の最も高い解析木が必ずしも正しい解析結果を表わしているわけではない.正しい解析結果を選択するのには何らかの意味解析が必要であるが,統語解析の結果出力される全ての解析結果の候補に対して意味解析を行うのは現実的ではない.統語解析を,意味解析を行う解析結果の候補の数を絞り込み,意味解析にかかる負担を軽減するための前処理と考えるなら,正解となる解析木の生成確率が1位とならなくても,生成確率の上位何位かに含まれていれば十分であろう.そこで,生成確率の上位$k$位の解析木を出力し,その中から矛盾する括弧付けの最も少ない解析木を選んで評価した.結果を表\ref{tab:統語解析結果の評価(上位k位)}に示す.\begin{center}\tblcap{統語解析結果の評価(上位$k$位)}{tab:統語解析結果の評価(上位k位)}\begin{tabular}{|c||r|r|r|}\hline$k$&\makebox[27mm][c]{括弧付けの再現率}&\makebox[27mm][c]{括弧付けの適合率}&\makebox[27mm][c]{文の正解率}\\\hline\hline1&54.30\%~~&65.74\%~~&8.47\%~~\\\hline5&57.60\%~~&69.04\%~~&16.23\%~~\\\hline10&59.53\%~~&71.10\%~~&21.11\%~~\\\hline20&61.46\%~~&73.18\%~~&26.51\%~~\\\hline30&62.48\%~~&74.13\%~~&29.06\%~~\\\hline\end{tabular}\smallskip\end{center}上位30位までの解析木を出力した場合,その中に正解となる解析木が含まれている文の割合は8.47\%から29.06\%に向上することがわかった.最後に,統語解析を行う文法のサイズを変化させ,受理率と正解率および生成される解析木数との相関を調べる実験を行った.まず,$G_1$の中からある一定の閾値$P$以下の確率を持つ文法を除去し,サイズの小さい文法$G_2$〜$G_5$を抽出した\footnote{実際には,閾値以下の規則を削除した後,残された規則の出現回数をもとに各規則の確率の推定をやり直した.}.次に,テストデータの中から枝刈りなしで受理した12,658文(表\ref{tab:統語解析結果(枝刈りなし)}参照)を$G_2$〜$G_5$を用いて統語解析し,結果を比較した.テスト文をこのように限定したのは,パーザがメモリ不足によって統語解析を中断した場合には文法が生成する解析木の数を測定することができないからである.解析した文の平均単語数は19.01単語であった.実験結果を表\ref{tab:文法サイズと解析結果の変化}に示す.メモリ不足によって解析に失敗した文はなかった.括弧付けの再現率,括弧付けの適合率,文の正解率は,生成確率の1位の解析木のみについて評価した.表\ref{tab:文法サイズと解析結果の変化}により,文法サイズが小さくなるにつれて受理率が低下していることがわかる.また,受理率の低下に伴い平均解析木数も減少する傾向が見られる.これに対し,受理率が変化しても括弧付けの再現率,適合率,文の正解率はほとんど変化していない.このことから,受理率を向上させるために文法サイズを大きくして,その結果得られる解析木の数が増大しても,生成確率の上位の解析木のみを出力すれば正解率はほとんど変わらないということがいえる.\begin{center}\tblcap{文法サイズと解析結果の変化}{tab:文法サイズと解析結果の変化}\begin{tabular}{|c||r|r|r|r|r|}\hline\makebox[27mm]{文法}&\makebox[18mm]{$G_1$}&\makebox[18mm]{$G_2$}&\makebox[18mm]{$G_3$}&\makebox[18mm]{$G_4$}&\makebox[18mm]{$G_5$}\\[-1mm]\multicolumn{1}{|c||}{(閾値$P$)}&\multicolumn{1}{|c|}{(---)}&\multicolumn{1}{|c|}{($10^{-5}$)}&\multicolumn{1}{|c|}{($10^{-4}$)}&\multicolumn{1}{|c|}{($10^{-3}$)}&\multicolumn{1}{|c|}{($10^{-2}$)}\\\hline\hline非終端記号数&41&37&34&23&15\\\hline終端記号数&111&80&57&33&23\\\hline規則数&2,219&1,289&871&390&115\\\hline\hline受理率&100\%&99.39\%&95.57\%&76.74\%&34.22\%\\\hline平均解析木数&$2.730\times10^7$&$1.810\times10^7$&$1.071\times10^7$&$9.841\times10^5$&$4.485\times10^4$\\\hline括弧付けの再現率&62.71\%&62.73\%&62.66\%&62.91\%&60.11\%\\\hline括弧付けの適合率&75.59\%&75.62\%&75.68\%&76.58\%&73.64\%\\\hline文の正解率&12.07\%&12.00\%&12.25\%&13.38\%&11.45\%\\\hline\end{tabular}\smallskip\end{center}
\section{結論}
\label{sec:結論}本論文では,括弧付きコーパスから確率文脈自由文法(PCFG)を自動的に抽出する方法を提案した.PCFGの抽出は,日本語の主辞が句の一番最後の要素であるという特徴に着目し,括弧付けによる構文構造の内部ノードに適切な非終端記号を与えることによって行った.また,抽出した規則の確率はその規則のコーパスにおける出現回数から推定した.さらに,抽出したPCFGに対して2つの面から改良を加えた.1つは文法サイズの縮小,もう1つは生成される解析木数の抑制である.前者は冗長な規則を削除することにより行った.後者は同一品詞列に対する構造を右下がりの二分木のみに限定したこと,品詞を細分化したこと,文末の助動詞に対する構造を統一したことにより行った.最後に,提案した方法により抽出・改良されたPCFGを用いた統語解析実験を行ったところ受理率が約92\%となった.また,生成確率の上位30個の解析木を出力した場合,文の正解率が約29\%,括弧付けの再現率が約62\%,括弧付けの適合率が約74\%という結果が得られた.最後に本論文の今後の課題について述べる.コーパスから抽出したPCFGの問題点の1つは,\ref{sec:解析木数の抑制}節で生成される解析木の数を抑制したにも関わらず,依然として多くの解析木を生成することである.実験では,PCFGが出力する解析木数の1文当たりの平均は$3.24\times10^9$であった.生成確率の高い解析木のみを出力することにより解析結果の候補数を絞り込むことができるものの,文法が多くの解析木を生成するのは効率の面から見ても望ましいことではない.また,本論文では対象言語を日本語とし,句の主辞を特定する際に日本語の特性を考慮に入れているが,他の言語についても句の主辞を特定することができれば本手法をそのまま適用することができる.今後は,日本語以外の言語の文法を獲得することについても検討していきたい.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1970年生.1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科修士課程修了.1995年同大学院情報理工学研究科博士課程入学,現在在学中.コーパスからの自然言語処理用知識の自動獲得に関する研究に従事.情報処理学会会員.}\bioauthor{徳永健伸}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1941年生.1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N01-07
|
\section{はじめに}
\label{sec:introduction}形態素解析や構文解析など自然言語処理の要素技術は成熟しつつあり,言語理解のために意味解析・談話解析といった,より高次な言語処理の研究が盛んになりつつある.特に文の意味理解のためには「誰が」「何を」「誰に」「どうした」といった要素を同定することが重要である.「誰が」「何を」「誰に」といった名詞は\textbf{項}と呼ばれ,「どうした」のような動詞を中心とした\textbf{述語}によって結びつけられる.動詞や形容詞といった述語を対象とした項構造解析は\textbf{述語項構造解析}と呼ばれ,FrameNetやPropBankといった述語項構造解析に対する資源の整備や\cite{gildea:2002:CL}による機械学習を用いた解析手法が登場し,近年盛んに研究されている.述語項構造解析に関する自然言語処理の評価型ワークショップCoNLL2004,2005の開催に伴い,述語項構造解析研究はある程度の水準に達したが,深い言語理解をするためには,述語のみを対象とした事態性解析は十分でない.特に,文中の事態を指しうる表現としては,動詞や形容詞の他に名詞もあることが知られている\cite{grimshaw:1990}.たとえば「彼は上司の推薦で抜擢された」という文で,名詞「推薦」は「上司ガ彼ヲ推薦(する)」といった事態を指す.事態とは行為や状態,出来事を指し,述語項構造と同様の項構造を考えることができる.そこで,本稿では事態を指す用法で使われていて項を持つ名詞のクラスを\emph{事態性名詞}と呼び,事態を指す用法で使われているとき\emph{事態性}があると定義する.本研究は,事態性名詞における項構造を抽出することを目標にしている.事態性名詞の項構造解析とは,名詞に事態性があるとき項構造を決定し,項を同定する解析を指す.事態性とは文脈中で名詞がコト(事態\footnote{ここで事態性というのは名詞が特定の出来事を指している場合だけではなく,総称的に使う場合も区別せず解析の対象に含める.})を指すかモノ(物体)を指すかという意味的な違いに対応する.事態性名詞の中には「レポート」のようにレポートする行為を指すのかレポートされた結果物を表すのかといった,文脈によって事態性の有無が変化する名詞がある.そこで,文脈に応じて事態性名詞に事態性があるか否か判別する処理を\emph{事態性判別},項構造を決定して項を同定する処理のことを\emph{項同定}と呼ぶ.事態性名詞の項構造解析は,述語項構造解析と同様,文中の述語の項構造を決定し,項を同定する作業の延長と位置づけることができる.英語における動詞の名詞化や日本語におけるサ変名詞など,動詞と強いつながりを持つ名詞は数多くあり,述語項構造解析の研究成果を援用して解析を行うことが期待されている.NAISTテキストコーパス\cite{iida:2007:NL}によると,述語と名詞を含めた全事態中21.1\%が事態性名詞であり,述語項構造解析技術の次の発展方向として注目されている.事態性名詞の項構造解析は,情報抽出や自動要約,質問応答システム,言い換えや機械翻訳など,自然言語処理のさまざまな分野に応用できる要素技術の一つである.本研究の主な貢献は以下の2点である.\paragraph{(1)事態性判別の問題設定:}事態性判別,つまり事態を指しているかどうか曖昧性を判別する問題を設定し,事態性に関して曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案した.\paragraph{(2)事態性名詞の項同定に有効な素性の提案:}事態性名詞の項構造と述語の項構造の関連性に着目し,2つの種類の素性を新たに提案した.特に動詞と格要素の共起が事態性名詞の項構造解析に有効かどうか検証し,項同定\footnote{本論文では項同定の問題のうち,項構造決定の問題は扱わない.以下,項同定は項構造が決定されたあとの項同定の問題を指す.}の正解率向上に役立つことを示した.動詞と格要素の共起を用いて項同定の正解率が向上したという報告はこれまでにない.また,支援動詞構文のとき事態性名詞と述語が同じ項を共有する現象に着目し,項の対応をつけた辞書を作成して,事態性名詞の項同定に有効かどうか検証した.先行研究では明示的に支援動詞構文に関する資源を作成していないが,支援動詞辞書の整備が事態性名詞の項同定に有効であることを示した.本論文の構成は以下のようになっている.まず\ref{sec:relatedwork}節で事態性名詞の項構造解析の先行研究について紹介する.本研究では事態性名詞の項構造解析を(1)事態性判別(2)項同定の2つの処理に分けて解く.\ref{sec:method}節でこの問題を解決するための方針について議論し,\ref{sec:eventhood}節で事態性の曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案する.\ref{sec:syntax}節で項同定のための動詞と格要素の共起の活用と支援動詞構文の利用について述べる.
\section{関連研究}
\label{sec:relatedwork}\cite{grimshaw:1990}は動詞と同様事態を指す名詞のことを\emph{eventnominal}(事態名詞)と呼び,\emph{resultnominal}(結果名詞)・\emph{simpleeventnominal}(単純事態名詞)・\emph{complexeventnominal}(複雑事態名詞)の3つに分類した.結果名詞とは,「梅干」のように「梅を干してできたもの」という結果物を指す名詞であり,単純事態名詞とは「運動会」のように意味役割を持たない名詞である.「推薦」のように「誰が誰を誰に推薦した」という\emph{eventstructure}(事態構造)を持つ複雑事態名詞\footnote{本稿で扱う事態性名詞はGrimshawの複雑事態名詞に相当する.}だけが項(必須格)を持つ\footnote{「報告」のように結果名詞「報告書・報告物」としての語義と複雑事態名詞「出張の報告をした」としての語義両方を持つものもある.また「試験」のように文脈に応じて結果名詞・単純事態名詞・複雑事態名詞のいずれも取りうる名詞もある.}.このように,事態を指しかつ項を持つ名詞の存在は古くから知られていた.近年この現象に対する自然言語処理的観点からの関心が高まり,複数の言語でコーパスが整備されるに至った.以下で,英語・中国語・日本語における事態性名詞の項構造解析の関連研究について述べる.\subsection{英語における事態性名詞の項構造解析}Macleodらは1997年から動詞の名詞化に注目し,高いカバー率の情報抽出を目的とした事態性名詞の辞書NomLexの作成に着手した\cite{macleod:1997:RANLP}.NomLexは2001年に完成・公開され,NomBankプロジェクトに引き継がれる.NomBankはNomLexと同じく英語における動詞の名詞化に着目したコーパス\cite{meyers:2004:NAACL-HLT,meyers:2004:LREC}であり,PennTreebank\cite{marcus:1993:CL}に対しPropBankら\cite{palmer:2005:CL}の仕様に従って項構造が付与されている.Meyersらは2007年PennTreebankIIに対するアノテーションを終了し,NomBank1.0を公開した.2008年と2009年のCoNLL共通タスクでは,NomBankコーパスを用いた事態性名詞の項構造解析もタスクの一つとして行われた.NomBankを用いた事態性名詞の項構造解析は\cite{jiang:2006:EMNLP}や\cite{liu:2007:ACL}がある.JiangらはNomBankに対し,最大エントロピー法を用いた教師あり学習による項構造解析を行った.彼らはPropBankを用いた動詞に対する意味役割付与(Semanticrolelabeling)において有効性が確認されている素性に加え,名詞の語幹やクラスといった事態性名詞についての意味素性や,支援動詞構文を認識するための述語との位置関係といった統語素性,そして項構造を正しく認識するための項同士の依存関係に関する大域素性を用いた.LiuらはJiangらの用いた素性をベースに半教師あり学習手法のAlternatingStructureOptimization(ASO)~\cite{ando:2005:JMLR}を適用した.ASOは解くべき問題に関連する補助問題を作成することで経験リスク最小化を行う手法であり,彼らの研究では事態性名詞の項構造解析に有効なさまざまな補助問題が提案されている.自然言語処理の評価型ワークショップCoNLL2008,2009では,PropBankとNomBankを用いた述語と事態性名詞に対する項構造解析の共通タスクが行われた.CoNLL2009には20チームが参加するなど,事態性名詞の項構造解析は活発に研究されている.\subsection{英語以外の言語における事態性名詞の項構造解析}英語以外の言語における事態性名詞の包括的な研究としては,XueらによるChineseNombank~\cite{xue:2006:LREC}がある.これは英語以外における初めての大規模な事態性名詞のコーパスである.このコーパスを用いた解析として\cite{pradhan:2004:NAACL-HLT,xue:2006:HLT-NAACL}がある.日本語のサ変名詞と同様,中国語では動詞と動詞化された名詞は同じ表層形を持つため,動詞化された名詞は対応する動詞と共通の項構造を持つと仮定すると,動詞に関する資源を事態性名詞に流用することができる.\cite{xue:2006:HLT-NAACL}では,単純に動詞の事例を事態性名詞の事例に追加して実験したところ,同じ事態を指す表現であっても,動詞として使われる場合と名詞として使われる場合では語彙統語パターンが大きく違い,かえって性能が下がった,と報告している.我々は日本語を対象に,大量に自動獲得した動詞と格要素の共起を用いて事態性名詞の項同定を行い,大きく正解率を向上させることに成功した.また,事態性名詞に特徴的な語彙統語パターンを用いることでさらに性能を改善させた.一方,日本語においては\cite{kurohashi:2005}によって,京都テキストコーパス第4.0版の一部,約5,000文に事態性名詞を含む名詞間の関係タグが付与された.\cite{sasano:2005:NLJ}は自動構築された名詞の格フレーム辞書の評価として事態性名詞の項同定を行った.彼らは事態性名詞のみについての結果を報告していないため,直接比較することはできないが,我々は事態性名詞の解析に焦点を当て,事態性判別の問題を解いた点,動詞と格要素の共起の情報を用いた点,および事態性名詞に特徴的な語彙統語パターン(支援動詞構文)を用いた点が異なる.\subsection{NAISTテキストコーパス}我々は事態性名詞の項構造解析の問題に対し,NAISTテキストコーパス~\cite{iida:2007:NL}を用いた教師あり学習を行った.このコーパスでは,文章中の各事態性名詞について事態性の有無を判別し,事態性がある場合には項構造(必須格となるガ格・ヲ格・ニ格)の情報が付加されている.たとえば図\ref{fig:naisttextcorpus}のような記事に対して,\begin{figure}[b]\begin{center}\includegraphics{17-1ia8f1.eps}\end{center}\caption{NAISTテキストコーパスの事態性名詞のアノテーション}\label{fig:naisttextcorpus}\end{figure}\begin{itemize}\item[][\textsc{rel}=管理(する),ガ=〈外界〉,ヲ=リスク]\item[][\textsc{rel}=調査(する),ガ=BIS,ヲ=実態]\end{itemize}のような情報が付与されている.項に関しては,「管理」のヲ格「リスク」や「調査」のガ格「BIS」のように,項が文内に出現している場合はそれが形態素単位で指示される.また,「調査」のヲ格「実態」のように,文外に出現する項でも記事内で特定できる場合はその要素が指示される.さらに「管理」のガ格のように,必須格で,かつ文内にも記事内にも出現していない場合は特別な〈外界〉タグが付与されている.現在公開されているNAISTテキストコーパス1.4$\beta$~\footnote{http://cl.naist.jp/nldata/corpus/}は京都テキストコーパス3.0全体約4万文に対してタグ付与されており,京都テキストコーパス4.0と比較して大規模な学習を行うことができるという利点がある.\cite{taira:2008:EMNLP}はNAISTテキストコーパスを用いて構造学習を述語項構造解析および事態性名詞の項同定に適用した結果を報告しているが,彼らは事態性判別の問題を解いていない.また,比較的項同定が難しいガ格について報告せず,ヲ格とニ格に対する結果しか議論していない.
\section{事態性名詞の項構造解析へのアプローチ}
\label{sec:method}事態性名詞の項構造解析を述語項構造解析と比較すると,(1)名詞の多義性の問題(2)解析対象の問題(3)格助詞の問題がある.1つ目の多義性の問題とは,事態性名詞の中には文脈によって事態を指す用法と指さない用法といずれも持つ名詞があるため,曖昧性を解消しなければならないという問題である.たとえば「私は公衆\underline{電話}で\fbox{電話}をすることがめっきり減った」という文\footnote{以下事態性のない用例は下線,事態性のある用例は四角で囲んで示す.}では,\underline{電話}はモノとしての電話であり,これ自体はなんらかの事態を指す用法ではないが,\fbox{電話}は「電話をする」という行為であり,「私ガ(誰か)ニ電話をする」という事態を指し,後者の場合のみ項が存在する.サ変名詞に限定すると,事態性のある場合は動詞としての用法を考えたときの項構造を基本的に受け継ぐ\footnote{「動き」「薦め」などの和語動詞由来の事態性名詞も同様に扱うことができる.また,「運動会」のように事態を指すが動詞と直接の結びつきがない事態性名詞は今回扱わない.}ため,文脈中でのこれらの項を同定したい.2つ目の解析単位の問題とは,項の単位の問題である.日本語の述語項構造解析では主辞が項になるため,項候補として主辞のみを解析対象に加えればよいが,事態性名詞においては主辞以外も項になりうる.たとえば,「\underline{民間}\fbox{支援}が活性化する」では,事態性名詞\fbox{支援}の項のヲ格が同一文節内の主辞以外の形態素\underline{民間}を指しており,主辞のみを対象にするとこのような事例を解析することができない.\cite{iida:2007:NL}によると,述語は同一文節内に項が現れることはほとんどなく,特にヲ格とニ格においては8割以上係り受け関係にある文節の主辞が項になっている.一方,事態性名詞のヲ格とニ格はそれぞれ50.6\%,43.6\%が同一文節内に項を持つ.このことから,述語項構造解析で有効な統語的素性が事態性名詞の項構造解析で有効であるとは限らないことが示唆される.この問題への対策の一つとして,動詞と格要素の共起という意味的な情報を用いることが考えられる.3つ目の格助詞の問題とは,述語項構造解析では明示的に格助詞(ガ・ヲ・ニ)が出現した場合はその格助詞が項同定の強い手がかりになるのに対し,事態性名詞の項構造解析においては,ほとんどの場合項は格助詞によってマークされていない,という問題である.これは述語におけるゼロ照応解析と同様の問題であり,文の構造を利用したゼロ照応解析\cite{iida:2006:ACL}と同じく,項同定処理に文内の構造情報を用いることが有効であると考えられる.特に支援動詞構文のとき,事態性名詞と述語は項を共有するので,明示的な格助詞を伴う述語の項構造を解析に用いることができる.さて,事態性名詞の項構造解析をするに当たり,我々はまず(1)の問題に対応する事態性判別を行い,その後事態性のある事態性名詞に限って項構造解析を行うという手順で問題を解く.このようにモデルを分ける利点は,事態性判別は語義曖昧性解消の問題であり,項同定と別の素性を用いた解析が有効だと考えられ,モデルを分けることにより事態性判別に特徴的な統語素性を用いることができる点である\footnote{述語項構造解析においては項同定と項識別とで有効な素性が大きく異なり,場合によっては項同定に有効な素性が項識別ではノイズになりうる,という指摘\cite{pradhan:2005:ML}もある.}.事態性判別は文中に出現する事態性名詞を事態性あり/なしの2クラスに分類する問題なので,事態性に関する曖昧性のない事例を用いて教師なしのパターンマイニングを行うことができる.語義曖昧性解消タスクにおいては曖昧性のある単語周辺の単語の分布が有効な素性であることが知られており,大規模なコーパスから文脈素性を学習することが本タスクにおいても有効であることが期待される.そこで,本論文ではこの方法に従って事態性判別のタスクと項同定のタスクを分けて扱う手法を提案する.
\section{事態性判別}
\label{sec:eventhood}事態性名詞には,「リスク管理」や「彼の決断」のように,事態性名詞と同一文節内や係り受け関係にある文節内に項が存在することが多く,こういった名詞の出現パターンを利用することによって事態性判別の精度が向上すると考えられる.そこで,名詞の出現パターンを捉えるための手段としてBACT~\cite{kudo:2004:EMNLP}(実装はbact\footnote{http://chasen.org/\~{}taku/software/bact/})を用いて事態性のある名詞と事態性のない名詞との出現パターンを学習することを考えた.BACTは木構造の訓練事例を学習させることによってブースティングで訓練事例の判別に効果の高い重み付き部分木を順次選択するアルゴリズムであり,文の構造を木構造に変換して素性として入れることによって,訓練事例の判別に効果が高い構造をルールとして学習できる.\subsection{事態性名詞の語彙統語パターンの学習}事態性名詞の語彙統語パターンの獲得には,名詞の出現する前後3形態素,名詞の出現する文節および係り元の文節の形態素列を木構造にして分類器を作成した.事態性に関する曖昧性がない事例として,日本語語彙大系~\cite{ikehara:1997}にサ変動詞として登録されている用言のうち,一般名詞意味属性体系の「名詞-抽象-事-\{人間活動,事象\}」ノードの下にあり,かつそれ以外のノードの下にない2,253名詞を曖昧性のない事態性名詞として正例にした.ランダムに200個サンプリングして調べたところ,97\%がサ変名詞,残りの3\%が動詞由来の名詞で事態性名詞であった.また,一般名詞として登録されている名詞のうち「名詞-具体」ノードの下にあり,かつそれ以外のノードの下にない名詞と固有名詞合わせて194,098名詞を曖昧性のない非事態性名詞として負例にした.同じくランダムに200個サンプリングして調べたところ,16.5\%が一般名詞,73.5\%が固有名詞で非事態性名詞であった.たとえば「商品\fbox{取引}」の出現パターンは図\ref{fig:pattern}のような木構造になり,正例として訓練事例に追加する.\begin{figure}[b]\begin{center}\includegraphics{17-1ia8f2.eps}\end{center}\caption{「商品取引」のパターンの例}\label{fig:pattern}\end{figure}\begin{table}[b]\caption{事態性判別に有効な素性として獲得したパターンの例}\label{tab:rules}\input{08table01.txt}\end{table}学習には新聞記事約1ヶ月分\cite{mainichi:2002}(正例:117,581事例,負例:282,419事例)を使用し,正例および負例を分類するに当たっての重みが高いルール6つを獲得した.獲得したルールは表\ref{tab:rules}に示した.重みの絶対値が大きければ大きいほど,事態性判別に効果が高いと考えられる.\subsection{実験}\label{subsec:eventhood}事態性の判別には語義曖昧性解消で最もよい性能を示しているSupportVectorMachines~\cite{vapnik:1998}(実装はTinySVM\footnote{http://www.chasen.org/\~{}taku/software/TinySVM})を用い,文脈に応じた事態性名詞の事態性を学習した.多項式2次カーネルを使用し,その他のパラメータはデフォルト値を用いた.評価は精度・再現率・F値(精度と再現率の調和平均)で行い,10分割交差検定によって事態性の有無の判別性能を見た.評価事例にはNAISTテキストコーパスから新聞記事80記事(800文)を用いた.含まれる事態性名詞は1,237個(うち590個が事態性ありの事例)あった.ベースラインには各名詞に対してコーパス中で最も頻度が高い語義を正解としたモデルを用い,BACTによってマイニングした名詞の出現パターンを用いたモデルと比較した.使用した素性は表\ref{tab:eventhood:feature}にまとめた.\begin{table}[b]\caption{事態性判別に用いた素性}\label{tab:eventhood:feature}\input{08table02.txt}\end{table}\begin{table}[b]\caption{事態性判別実験結果}\label{tab:exp:eventhood}\input{08table03.txt}\end{table}教師なしでマイニングした語彙統語パターンの有効性を示すため,表\ref{tab:exp:eventhood}に事態性判別の実験結果を示した.提案手法はベースラインより再現率は劣るものの,精度を大幅に向上させ,F値で約5\%改善することができた.名詞の語彙統語パターンを用いない場合(表\ref{tab:eventhood:feature}の文節内素性と文節外素性のみを用いた場合),ベースラインより精度は上がるものの再現率は大幅に低下し,文節内の品詞情報など局所的な文法知識が事態性名詞の判別に効果が高いことを示している.\subsection{エラー分析}事態性がある事例にも関わらず事態性がないと判別を誤った事例に次のようなものがあった.\begin{itemize}\item「野良黒山の会」のリーダー、木場将弘さん方では、妻の和枝さんらが現地と\fbox{電話}のやり取りを続けた。\item自民党の渡辺美智雄元副総理・外相は四日、宇都宮市で講演、七月の参院選について「社会党と連合が独占している二十三選挙区でも自民党から候補者を擁立すべきだ。連立政権は政権。選挙は選挙だ」と述べ、選挙\fbox{協力}よりも独自候補擁立を優先すべきだとの考えを示した。\end{itemize}これらの事例はいずれも文内に項があるにも関わらず事態性判別を誤った事例であり,事態性判別に項同定の情報を用いていないために判別に失敗している.これらの事例に正解するためには,事態性判別と項同定を同時に最適化する必要がある.解決策として,\cite{iida:2006:ACL}の提案する述語のゼロ照応解析で用いられている探索先行分類モデルを適用し,まず最尤の項候補を求め項同定を先に行った上で事態性判別の一素性として用いる方法や,MarkovLogicNetworkを用いて事態性判別と項同定を同時に行う\cite{meza-ruiz:2009:NAACL-HLT}といった方法が考えられるが,どのようにするべきかは今後の課題である.
\section{事態性名詞の項同定に有効な素性の検討}
\label{sec:syntax}\ref{sec:method}節で述べたように,事態性名詞の項同定は述語の項同定と異なり,述語項構造解析で有効であった文法的素性が必ずしも有効であるとは限らない.そこで,動詞と格要素の共起といった意味的素性を用いることを提案する.また,事態性名詞の項は述語の項と違い格助詞を伴わないという問題に対し,支援動詞構文において事態性名詞と述語が項を共有する現象に着目し,支援動詞辞書を作ることにより,項の対応関係を認識する手法について述べる.\subsection{動詞と格要素の共起の利用}事態性名詞のうち,対応する動詞がある名詞,たとえばサ変名詞(例:推薦)や動詞由来の名詞(例:動き)の項構造は動詞の項構造と類似しており,事態性名詞の項同定に動詞に関する知識が有効であろうと考えられる.述語においてはヲ格の84\%とニ格の88\%が係り受けの関係にある文節に項を持つが,事態性名詞においてはそれぞれヲ格の31\%,ニ格の22\%しか係り受け関係の文節に項が存在しない\cite{iida:2007:NL}.それに加え,述語では項は普通格助詞ヲやニを伴って出現するため,表層の格助詞が大きな手がかりとなるが,事態性名詞の項は明示的に格助詞を伴わない.この問題に対処するため,まずサ変名詞とそれに対応する動詞が意味的には共通の項を持つことを仮定し,動詞と格要素の共起情報を事態性名詞の項同定に用いる\footnote{動詞由来の名詞にもこの手法は拡張可能である.}.この手法の利点は,係り受け解析器を用いることで大規模なラベルなしデータから自動的に獲得した共起を獲得し,完全に教師なしに行うことができる点である.動詞と格要素の共起のモデル化は\cite{fujita:2004:IPSJ}のモデルに従った.このモデルは,名詞$n$が格助詞$c$を介して動詞$v$に係っているときの共起確率P($\langlev,c,n\rangle$)を推定するため,$\langlev,c,n\rangle$を$\langlev,c\rangle$と$n$の共起と見なす.しかしながら,一般に動詞と格要素の共起事例は非常に疎なので,pLSI\cite{hoffman:1999}を用いてスムージングを行う.\[P(\langlev,c,n\rangle)=\sum_{z\inZ}P(\langlev,c\rangle|z)P(n|z)P(z)\]$Z$は共起に関する潜在的な意味クラスを指す確率変数で,確率分布を用いて単語行列を$|Z|$次元に圧縮していることに相当する.$P(\langlev,c\rangle|z),P(n|z),P(z)$はEMアルゴリズムによって求められる.共起尺度としては自己相互情報量~\cite{hindle:1990:ACL}を用いる.\[PMI(\langlev,c\rangle,n)=\log_2\frac{P(\langlev,c,n\rangle)}{P(\langlev,c\rangle)P(n)}\]共起尺度の利用に関しては,相対的な共起の強さを用いて項らしさを判定する.そこで,これらの共起尺度により計算されたスコアは,最尤候補に対する相対値として素性に取り込む.具体的には,項候補となる名詞句をペアに対し,それらの共起スコアの差(実数値,およびそれを離散化したもの)を素性として用いる.本論文では藤田らに倣い,新聞記事延べ19年分のコーパスから係り受け解析結果を抽出し,$|Z|=1000$としてモデルを作成した.事態性名詞と項の共起の分布を調べた予備実験において,固有名詞を中心に,動詞と格要素の共起モデル中に出現しなかった事例が全体の18\%あった.そこで,共起スコアを計算することができなかった名詞と,共起スコアが負であった名詞に関して,CaboChaの出力する固有表現ラベルおよびChaSenで品詞が固有名詞であると判定された名詞に対しては,固有表現クラスで推定した共起スコアを用いてスムージングした\footnote{固有表現クラスによるスムージングは後述する項同定の予備実験で常に高い精度だったため,以降の実験ではスムージングを用いた結果のみ報告した.}.\subsection{支援動詞辞書の作成}支援動詞構文は述語と事態性名詞が項を共有する統語パターンであり,述語に係る名詞句の格助詞の情報を使うことによって性能を向上させることができると考えられる.そこで,我々は事態性名詞と述語の間で項の対応がついた辞書(\textbf{支援動詞辞書})を作成し,支援動詞構文の認識に用いた.事態性名詞の21.7\%は支援動詞構文で使われており,述語項構造解析で有効な格助詞に関する情報を活用できると予想される.NomBankをコーパスとして用いた分析として,\cite{meyers:2004:ACL}は,多くの名詞化された動詞は支援動詞構文にあり,主動詞と項を共有することを指摘した\footnote{ここでは彼らの定義に従い,支援動詞とは最低2つの項NP$_1$とXP$_2$を取り,XP$_2$がNP$_1$の主辞の項となっている場合を指す.}.\cite{jiang:2006:EMNLP}も同じ現象に着目し,機械学習の素性として支援動詞構文を検出する素性を提案した.しかしながら,支援動詞構文となる述語は限られており,人手で書き尽くすことができるため,我々は事態性名詞と述語の間で項を共有するようなペアについて辞書を作成し,どのような項の対応関係になっているか,という情報を付与して用いることにした.たとえば,文「太郎が花子に電話をした」において,述語項構造は[\textsc{rel}=\emph{する}(した),ガ=太郎,ヲ=電話,ニ=花子]であり,事態性名詞の項構造は[\textsc{rel}=電話(する),ガ=太郎]である.この場合,述語「する」と事態性名詞「電話」は項「太郎」をそれぞれガ格で共有する.表\ref{tab:suru:template}はこの場合支援動詞辞書のどのエントリにマッチしているのか示した.また,「彼が彼女に勉強を教える」という文では,述語「教える」は事態性名詞と項を共有しているが,述語のニ格「彼女」は事態性名詞ではガ格となり(「彼女」ガ「勉強(する)」),格の交替が起きる.表\ref{tab:oshieru:template}には格交替が起きる場合の項の対応を示した.\begin{table}[b]\hangcaption{支援動詞構文の頻度上位10件.S,N,Eはそれぞれ共有された項,共有されていない名詞句,事態性名詞を表す}\label{tab:svc}\input{08table04.txt}\end{table}NAISTテキストコーパスには異なり2,173個,延べ8,190個の支援動詞構文の事例が見られた.頻度上位10件の支援動詞構文を表\ref{tab:svc}にまとめた.ここから分かるように,実際のコーパスに出現する支援動詞は,いわゆる機能動詞結合で用いられる機能動詞より広い概念である.たとえば,「太郎が電話を続ける」においては,「太郎が電話する」という事態が継続していることを示し,「続ける」は継続の意味を失っていない.このように,支援動詞構文にある事態性名詞と述語の示す事態の関係は,テンスやモダリティの付加などがあるが,このような動詞がいくつあり,どのような関係がありうるかは今後の研究課題である.\begin{table}[t]\hangcaption{「する」の支援動詞辞書項目と「太郎が花子に電話をする」の項対応.Eには共通の事態性名詞が,Sには共有される項が入る.このエントリはニ格の共有に関する情報は入っていない}\label{tab:suru:template}\input{08table05.txt}\end{table}\begin{table}[t]\hangcaption{「教える」の支援動詞辞書項目と「彼が彼女に勉強を教える」の項対応.Eには共通の事態性名詞が,Sには共有される項が入る.ニ格とガ格で格の交替が起きている}\label{tab:oshieru:template}\input{08table06.txt}\end{table}支援動詞辞書を作成するに当たって,Web5億文コーパス~\cite{kawahara:2006:LREC}から事態性名詞が直接係っている述語とその項を200万事例抽出した\footnote{依存構造解析はKNP(http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html)による.}.そのうち,頻度上位2,000件(抽出された200万事例中,延べ80\%をカバー)を対象に,事態性名詞が述語と項を共有しているかどうかを判断した.具体的には,述語と事態性名詞のそれぞれの格(ガ・ヲ・ニ)について,事態性名詞の含まれる格と,共有している場合には共有している格の対応関係の情報を付与した.項対応の判断に関しては,Webコーパス中から取得した周辺文脈を補助的に用い,周辺文脈頻度上位5件中3件以上で成り立つ場合のみ対応関係を付与した.\subsection{実験}\label{subsec:exp:syntax}事態性名詞に特徴的な語彙統語パターンの情報を用いることで,項同定の性能が向上することを示す実験を行った.述語項構造解析のトーナメントモデル~\cite{iida:2005:TALIP}を事態性名詞の項構造解析に適応し,事態性名詞の項同定システムを作成した.トーナメントモデルに用いる三つ組は事態性名詞,正解の項,そして項候補である.各三つ組に対し,このシステムは訓練時どちらの候補が勝つか,そしてそれを特徴づける素性を学習する.テスト時には項の候補を順に試し,トーナメントで最後まで勝ち残った候補をシステムの予測する項として提示する.今回ベースラインシステムと提案する3つのモデルを比較した.ベースラインシステムで用いた素性は表\ref{tab:cooc:features}に示した.使用した素性は\cite{iida:2006:ACL}に準じ,事態性名詞で計算することのできない素性\footnote{事態性名詞にはヴォイスと助動詞は定めることができない.また,センタリング理論に基づいた素性は用いていない.EDRを用いた素性は予備実験により正解率が低下したので削除した.}は使用しなかった.使用した素性は表\ref{tab:cooc:features}にまとめた.\begin{table}[b]\caption{項同定に用いた素性リスト}\label{tab:cooc:features}\input{08table07.txt}\end{table}事態性名詞の項同定は形態素単位で行うため,文節内の位置の素性,同一文節内の他の形態素の品詞列の素性を追加した.また,\cite{muraki:1990}に掲載されている機能動詞128表現を用い,事態性名詞が機能動詞に係っているかどうかの素性と,機能動詞に係っている場合に機能動詞と項が係り関係にあるかどうかの素性を追加した.本論文で新しく導入された素性にはアスタリスクを付した.また,実験に用いたデータはNAISTテキストコーパスから新聞記事1日分(137記事,延べ847個の事態性名詞,97個の支援動詞構文)を訓練事例,それとは異なる1日分(150記事,延べ722個の事態性名詞,113個の支援動詞構文)を評価事例に用いた.実験に用いた機械学習器はSupportVectorMachines\cite{vapnik:1998}であり,実装はTinySVM\footnote{http://chasen.org/\~{}taku/Software/TinySVM/},多項式2次カーネルでパラメータはデフォルト値を使用した.支援動詞辞書と共起モデルの有効性を示すため,各モデルについてそれぞれの格における正解率を求め,表\ref{tab:argument}に示した.ガ・ヲ・ニ格を対象に,それぞれ文内に項を持つ事例のみを訓練・テストに用い,項同定の正解率で評価した.「$+$共起モデル」はベースラインモデルに加え,共起のスコアを実数値の素性としてSupportVectorMachinesに適用したものであり,「$+$支援動詞辞書」はテスト事例で支援動詞辞書にマッチする項目がある場合,SVMによるトーナメントモデルを用いず,辞書に対応する述語の項をそのままシステムの出力とした\footnote{述語の項はコーパスに人手で付与された正解データを用いる.}ものである.共起モデルを用いた手法はどの格においてもベースラインより高い正解率を示した.また,支援動詞辞書を共起モデルと組み合わせたモデルはヲ格とニ格においてベースラインよりわずかながら高い正解率であった.\begin{table}[t]\caption{事態性名詞の項同定タスクの正解率}\label{tab:argument}\input{08table08.txt}\end{table}\subsection{議論}支援動詞辞書を用いてもっとも効果が高かったのはガ格であるが,これは項の共有があった格のうち92\%はガ格であるためだと考えられる.テスト事例で支援動詞構文にあったもののうち,項と述語が係り受け関係にある事例は38事例であり,75事例(66\%)は省略解析の情報をタグ付きコーパスから取得できたことが精度向上に貢献していると考えられる.ここで示した精度は述語項構造が正しく解析できた場合の上限値であり,述語項構造を自動解析した場合は精度が低下することが考えられるが,実際に省略解析をどのように行い,どのような結果を得るかは解析に採用する解析モデルに依存する.一方,ヲ格とニ格において,支援動詞辞書を用いるとベースラインシステムより性能が悪くなった.ヲ格で支援動詞辞書の効果がなかった理由としては,ヲ格の90\%が既に事態性名詞と同一文節内にあるか係り受け関係にある文節に存在し,明示的に項の交替関係をモデル化する必要がなかったということが推測される.また,支援動詞の項の共有情報を素性として用いた実験を行ったところ,ガ格とニ格ではベースラインと正解率は変わらず,ヲ格では正解率の低下が見られた.支援動詞辞書の効果が格によって異なっている原因を調べるため,支援動詞辞書のみのシステムの性能を求めた.Webコーパスから作成した支援動詞辞書のカバー率は,新聞記事分野で作成した事態タグつきコーパスに対して49\%であった.支援動詞辞書のパターン対にマッチする事態性名詞に対し,支援動詞辞書のみを用いた項同定システムの性能を計ると精度は0.72,再現率は0.35であった.ヲ格とニ格に対してはこの精度はベースラインの正解率を下回っている.そのため,支援動詞辞書の情報を用いるとヲ格とニ格に関しては,正解率が低下する可能性があることが分かった.実際,表\ref{tab:argument}では,まさにヲ格とニ格では支援動詞辞書を使うことによって正解率が低下している.この問題への対処法としては,ヲ格とニ格に対しては,精度の高い支援動詞構文のみ用いることが考えられる.どのようにして効率的に支援動詞辞書を構築するかは今後の課題である.提案手法の典型的な誤り事例は,局所的な項を適切に同定できないという誤りである.\begin{itemize}\item太郎が次郎の連勝を止めた\end{itemize}この例では正しい項構造は[\textsc{rel}=連勝,ガ=次郎]だが,システムは[\textsc{rel}=連勝,ガ=太郎]を出力した.これはこの事例が「Xを止める」という辞書項目にマッチし,同一名詞句内にある候補「次郎」を解析しなかったためである.この問題に対処するには,局所的な候補から順番に項を探し,ふさわしい候補が見つからなかった場合に探索範囲を広げていく,といった階層的なモデルを用いることが考えられる.
\section{おわりに}
本論文で,名詞句の語彙統語パターンを用いた事態性名詞の項構造解析について述べた.本論文では項構造解析のタスクを2つに分け,マイニングした語彙統語パターンを用いた事態性名詞の事態性判別手法を提案した.また,動詞と格要素の共起と事態性名詞に特徴的な語彙統語パターンが事態性名詞の項同定に有効であることを示した.提案手法では事態性判別は精度76.6\%,再現率79.6\%で行うことができる.また,項同定も文内の項ではガ格・ヲ格・ニ格それぞれ68.3\%・80.1\%・74.6\%の正解率で解析でき,ある程度実用的に項構造解析を行うことができた.まだ高速化・精度改善の余地はあるが,本研究をベースに情報抽出などの応用に用いる下地ができたと考えている.今後は形態素解析から固有表現抽出,係り受け解析までを含めて同時に最適化を行う手法の研究や,項の間の依存関係を考慮した項同定モデルの研究が課題である.\acknowledgment本研究の一部は科研費特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築」の助成を受けたものである.Webから取得した5億文データを使用させてくださった河原大輔氏に感謝する.また,新聞記事から抽出した動詞と格要素の共起モデルおよび自己相互情報量の計算プログラムを利用させてくださった藤田篤氏にお礼申し上げる.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ando\BBA\Zhang}{Ando\BBA\Zhang}{2005}]{ando:2005:JMLR}Ando,R.~K.\BBACOMMA\\BBA\Zhang,T.\BBOP2005\BBCP.\newblock\BBOQ{AFrameworkforLearningPredictiveStructuresfromMultipleTasksandUnlabeledData.}\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf6},\mbox{\BPGS\1817--1853}.\bibitem[\protect\BCAY{藤田\JBA乾\JBA松本}{藤田\Jetal}{2004}]{fujita:2004:IPSJ}藤田篤\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ自動生成された言い換え文における不適格な動詞格構造の検出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(4),\mbox{\BPGS\1176--1187}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{gildea:2002:CL}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQ{A}utomatic{L}abelingof{S}emantic{R}oles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Grimshaw}{Grimshaw}{1990}]{grimshaw:1990}Grimshaw,J.\BBOP1990\BBCP.\newblock{\Bem{A}rgument{S}tructure}.\newblockMITPress.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle:1990:ACL}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQ{N}oun{C}lassificationfrom{P}redicate{A}rgument{A}tructures.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheACL},\mbox{\BPGS\268--275}.\bibitem[\protect\BCAY{Hoffman}{Hoffman}{1999}]{hoffman:1999}Hoffman,T.\BBOP1999\BBCP.\newblock\BBOQ{P}robabilisticlatentsemanticindexing.\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualACMConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\50--57}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{ikehara:1997}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳文\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2005}]{iida:2005:TALIP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2005\BBCP.\newblock\BBOQAnaphoraresolutionbyantecedentidentificationfollowedbyanaphoricitydetermination.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf4}(4),\mbox{\BPGS\417--434}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida:2006:ACL}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQ{E}xploiting{S}yntactic{P}atternsas{C}luesin{Z}ero-{A}naphora{R}esolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL(COLING-ACL)},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田~\Jetal}{2007}]{iida:2007:NL}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblock\JBOQ{NAIST}テキストコーパス:述語項構造と共参照関係のアノテーション\JBCQ\\newblock\Jem{情報処理学会研究会報告(自然言語処理研究会)},\mbox{\BPGS\71--78}.\newblockNL-177-10.\bibitem[\protect\BCAY{Jiang\BBA\Ng}{Jiang\BBA\Ng}{2006}]{jiang:2006:EMNLP}Jiang,Z.~P.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQ{S}emantic{R}ole{L}abelingof{N}om{B}ank:{A}{M}aximum{E}ntropy{A}pproach.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara:2006:LREC}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{C}ase{F}rame{C}ompilationfromthe{W}ebusing{H}igh-{P}erformance{C}omputing.\BBCQ\\newblockIn{\BemProceedingsofthefifthInternationalConferenceonLanguageResourceandEvaluation(LREC)},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{bgh:2004}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表}.\newblock大日本図書株式会社.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2004}]{kudo:2004:EMNLP}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQ{B}oosting{A}lgorithmfor{C}lassificationof{S}emi-{S}tructured{T}ext.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\301--308}.\bibitem[\protect\BCAY{黒橋}{黒橋}{2005}]{kurohashi:2005}黒橋禎夫\BBOP2005\BBCP.\newblock\Jem{京都テキストコーパスVersion4.0}.\newblockhttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html.\bibitem[\protect\BCAY{Liu\BBA\Ng}{Liu\BBA\Ng}{2007}]{liu:2007:ACL}Liu,C.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQ{LearningPredictiveStructuresforSemanticRoleLabelingofNomBank.}\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheACL}.\bibitem[\protect\BCAY{Macleod,Meyers,Grishman,Barret,\BBA\Reeves}{Macleodet~al.}{1997}]{macleod:1997:RANLP}Macleod,C.,Meyers,A.,Grishman,R.,Barret,L.,\BBA\Reeves,R.\BBOP1997\BBCP.\newblock\BBOQ{DesigningaDictionaryofDerivedNominals.}\BBCQ\\newblockIn{\BemProceedingsofRecentAdvancesinNaturalLanguageProcessing}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{2002}]{mainichi:2002}毎日新聞社\BBOP2002\BBCP.\newblock\Jem{毎日新聞}.\newblock毎日新聞社.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{marcus:1993:CL}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQ{B}uildinga{L}arge{A}nnotated{C}orpusof{E}nglish:{T}he{P}enn{T}reebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{Meyers,Reeves,\BBA\Macleod}{Meyerset~al.}{2004a}]{meyers:2004:ACL}Meyers,A.,Reeves,R.,\BBA\Macleod,C.\BBOP2004a\BBCP.\newblock\BBOQ{NP}-{E}xternal{A}rguments:{A}{S}tudyof{A}rgument{S}haringin{E}nglish.\BBCQ\\newblockIn{\BemProceedingsoftheACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004b}]{meyers:2004:LREC}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004b\BBCP.\newblock\BBOQ{A}nnotating{N}oun{A}rgument{S}tructurefor{N}om{B}ank.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\803--806}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004c}]{meyers:2004:NAACL-HLT}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004c\BBCP.\newblock\BBOQ{T}he{N}om{B}ank{P}roject:{A}n{I}nterim{R}eport.\BBCQ\\newblockIn{\BemProceedingsoftheHLT/NAACL2004WorkshopFrontiersinCorpusAnnotation},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{Meza-Ruiz\BBA\Riedel}{Meza-Ruiz\BBA\Riedel}{2009}]{meza-ruiz:2009:NAACL-HLT}Meza-Ruiz,I.\BBACOMMA\\BBA\Riedel,S.\BBOP2009\BBCP.\newblock\BBOQ{JointlyIdentifyingPredicates,ArgumentsandSensesusingMarkovLogic}.\BBCQ\\newblockIn{\BemProceedingsofHumalLanguageTechnologies:The2009AnnualConferenceontheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL-HLT2009)},\mbox{\BPGS\i155--163}.\bibitem[\protect\BCAY{村木}{村木}{1990}]{muraki:1990}村木新二郎\BBOP1990\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{Palmer,Kingsbury,\BBA\Gildea}{Palmeret~al.}{2005}]{palmer:2005:CL}Palmer,M.,Kingsbury,P.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQ{T}he{P}roposition{B}ank:{A}n{A}nnotated{C}orpusof{S}emantic{R}oles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Pradhan,Hacioglu,Krugler,Ward,Martin,\BBA\Jurafsky}{Pradhanet~al.}{2005}]{pradhan:2005:ML}Pradhan,S.,Hacioglu,K.,Krugler,V.,Ward,W.,Martin,J.~H.,\BBA\Jurafsky,D.\BBOP2005\BBCP.\newblock\BBOQ{S}upport{V}ector{L}earningfor{S}emantic{A}rgument{C}lassification.\BBCQ\\newblock{\BemMachineLearning},{\Bbf60}(1-3),\mbox{\BPGS\11--39}.\bibitem[\protect\BCAY{Pradhan,Sun,Ward,Martin,\BBA\Jurafsky}{Pradhanet~al.}{2004}]{pradhan:2004:NAACL-HLT}Pradhan,S.,Sun,H.,Ward,W.,Martin,J.~H.,\BBA\Jurafsky,D.\BBOP2004\BBCP.\newblock\BBOQ{P}arsing{A}rgumentsof{N}ominalizationsin{E}nglishand{C}hinese.\BBCQ\\newblockIn{\BemProceedingsoftheHLT/NAACL}.\bibitem[\protect\BCAY{笹野\JBA河原\JBA黒橋}{笹野\Jetal}{2005}]{sasano:2005:NLJ}笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ名詞格フレーム辞書の自動構築とそれを用いた名詞句の関係解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\129--144}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira:2008:EMNLP}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQ{AJapanesePredicateArgumentStructureAnalysisusingDecisionLists}.\BBCQ\\newblockIn{\BemProceedingsofConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2008)},\mbox{\BPGS\522--531}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{vapnik:1998}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\Bem{T}he{S}tatistical{L}earning{T}heory}.\newblockSpringer.\bibitem[\protect\BCAY{Xue}{Xue}{2006a}]{xue:2006:LREC}Xue,N.\BBOP2006a\BBCP.\newblock\BBOQ{A}nnotatingthe{P}redicate-{A}rgument{S}tructureof{C}hinese{N}ominalizations.\BBCQ\\newblockIn{\BemProceedingsofthefifthInternationalConferenceonLanguageResourceandEvaluation(LREC)},\mbox{\BPGS\1382--1387}.\bibitem[\protect\BCAY{Xue}{Xue}{2006b}]{xue:2006:HLT-NAACL}Xue,N.\BBOP2006b\BBCP.\newblock\BBOQ{S}emantic{R}ole{L}abelingof{N}ominalized{P}redicatesin{C}hinese.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL},\mbox{\BPGS\431--438}.\end{thebibliography}\begin{biography}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.博士後期課程に進学.修士(工学).2008年より日本学術振興会特別研究員(DC2).大規模なコーパスを用いた意味解析に関心がある.言語処理学会第14回年次大会最優秀発表賞受賞.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{飯田龍}{2007年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2008年12月より東京工業大学大学院情報理工学研究科助教.現在に至る.自然言語処理の研究に従事.情報処理学会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.博士(工学).同研究科助手.九州工業大学情報工学部助教授を経て,2002年より奈良先端科学技術大学院大学情報科学研究科助教授.現在同研究科准教授,情報通信研究機構有期研究員を兼任.自然言語処理の研究に従事.ComputationalLinguistics編集委員,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.工学博士.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.現在に至る.専門は自然言語処理.人工知能学会,日本ソフトウェア科学会,情報処理学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
| |
V03N04-03
|
\section{はじめに}
自然言語では通常,相手(読み手もしくは聞き手)に容易に判断できる要素は,文章上表現しない場合が多い.この現象は,機械翻訳システムや対話処理システム等の自然言語処理システムにおいて大きな問題となる.例えば,機械翻訳システムにおいては,原言語では陽に示されていない要素が目的言語で必須要素になる場合,陽に示されていない要素の同定が必要となる.特に日英機械翻訳システムにおいては,日本語の格要素が省略される傾向が強いのに対し,英語では訳出上必須要素となるため,この省略された格要素(ゼロ代名詞と呼ばれる)の照応解析技術は重要となる.従来からこのゼロ代名詞の照応解析に関して,様々な手法が提案されている.KameyamaやWalkerらは,Centeringアルゴリズムに基づき助詞の種類や共感動詞の有無により文章中に現われる照応要素を決定する手法を提案した\cite{Kameyama1986,WalkerIidaCote1990}.また,Yoshimotoは,対話文に対して文章中にあらわれる照応要素については主題をベースとして照応要素を同定し,文章中に現われないゼロ代名詞については敬語表現やspeechactに基づき照応要素を同定する手法を提案した\cite{Yoshimoto1988}.堂坂は,日本語対話における対話登場人物間の待遇関係,話者の視点,情報のなわばりに関わる言語外情報の発話環境を用いて,ゼロ代名詞が照応する対話登場人物を同定するモデルを提案した\cite{Dousaka1994}.Nakagawaらは,複文中にあらわれるゼロ代名詞の照応解析に,動機保持者という新たに定義した語用論的役割を導入して,従属節と主節それぞれの意味的役割と語用論的役割の間の関係を制約として用いることで解析するモデルを提案した\cite{NakagawaNishizawa1994}.これらの手法は,翻訳対象分野を限定しない機械翻訳システムに応用することを考えると,解析精度の点や対象とする言語現象が限られる点,また,必要となる知識量が膨大となる点で問題があり,実現は困難である.ところで,照応される側の要素から見ると,機械翻訳システムで解析が必要となるゼロ代名詞は次のような3種類に分類できる.\begin{enumerate}\item[(a)]照応要素が同一文内に存在するゼロ代名詞(文内照応)\item[(b)]照応要素が文章中の他の文に存在するゼロ代名詞(文間照応)\item[(c)]照応要素が文章中に存在しないゼロ代名詞(文章外照応)\end{enumerate}\noindentこれら3種類のゼロ代名詞を精度良く解析するためには,個々のゼロ代名詞の種類に応じた照応解析条件を用いる必要がある.また,これら3種類のゼロ代名詞を解析するための解析ルールは,相互矛盾が起きないように,ルールの適用順序を考慮する必要がある.この3種類のうち,(b)タイプに関しては,既に,知識量の爆発を避けるための手段として,用言のもつ意味を分類して,その語のもつ代表的属性値によって,語と語や文と文の意味的関係を決定し,文章中の他の文内に現われる照応要素を決定する手法をが提案されている\cite{NakaiwaIkehara1993}.また,(c)タイプに関しては,語用論的・意味論的制約を用いることによって,文章中に存在しない照応要素を決定する手法が提案されている\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}本稿では,照応要素が同一文内に存在するゼロ代名詞((a)タイプ)に対して,接続語のタイプや用言意味属性や様相表現の語用論的・意味論的制約を用いた照応解析を行なう汎用的な手法を提案する.
\section{日英機械翻訳システム評価用例文でのゼロ代名詞の出現傾向}
\subsection{調査対象文}照応要素が同一文内に存在するゼロ代名詞の傾向を掴むために,本章では独立した文(文間文脈情報が得られない文)におけるゼロ代名詞を調査した.調査対象は,日英機械翻訳システム評価用例文3718文\cite{IkeharaShirai1990}である.この評価用例文は,日本語の性質と表現の種類,及び日本語と英語との相違に基づき体系化された約500種類の試験項目を評価するために,実用文中の表現を抽出して作成された日本語例文である.個々の文には模範となる英訳が付与されており,そのほとんどの文は文脈の情報無しに(一文単独で)翻訳が可能である(3718文中3704文)ため,個々の文を日英機械翻訳システムで翻訳し,予め用意された英訳と比較することでシステムの翻訳機能の評価が行なえる.また,個々の例文は自然な日本語文であり広範囲な表現が含まれているため,これらの例文におけるゼロ代名詞とその照応要素の出現傾向を調査することによって,同一文内に照応要素がある場合や,文中に現われない照応要素の傾向を把握することが可能と期待できる.\subsection{出現傾向}上記の試験文に対して照応解析が必要となるゼロ代名詞とその照応要素の出現傾向を調査した結果を表1に示す.照応要素の出現場所からみて,同一文内に存在する場合と,同一文内に存在しない場合に分かれる.調査結果によれば,全ゼロ代名詞512件に対して照応要素が同一文内に存在するゼロ代名詞が139件(27%)であった.また,照応要素が文中に存在しない場合が373件(73%)存在した.この373件の詳細については既に報告しているので\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995},ここでは照応要素が同一文内に存在するゼロ代名詞の詳細について述べる.照応要素が同一文内に存在するゼロ代名詞のうちでは,ガ格がゼロ代名詞化され照応要素がハ格の要素となる場合が102件と最も多い.この102件を詳細に分析してみると,このなかにはゼロ代名詞が照応要素より文中の前の部分に存在する後方照応表現が8件含まれることが分かった.この現象は,助詞の種類に基づく前方照応解析手法では解析することが出来ず,接続語のタイプ等に基づく照応解析が必要となる.ゼロ代名詞化されたものと同じ格の要素が照応要素となる(例えば,ガ格がゼロ代名詞化され同一文内のガ格が照応要素となる)場合が10件(ハ格ゼロ代名詞がハ格を照応する場合が1件,ガ格ゼロ代名詞がガ格を照応する場合が6件,ヲ格ゼロ代名詞がヲ格を照応する場合が3件)存在した.これは,接続語のタイプにより,同一文内の格要素が共有できるかが決まるという特質を用いることで解析可能となることが予想される.また,照応要素が同一文内に存在するゼロ代名詞の中で,埋め込み文又は引用文内の格要素がゼロ代名詞化されている場合が9件(ガ格の埋め込み文内が4件,ガ格の引用文内が4件,ヲ格の埋め込み文内が1件),照応要素が埋め込み文又は引用文内に存在する場合が4件(ハ格の引用文内が2件,ガ格の埋め込み文内が2件)あった.これらのゼロ代名詞を正しく解析するためには,埋め込み文や引用文と同一文内のそれ以外の表現との意味的関係を用言意味属性や様相表現,埋め込み文が修飾する名詞のタイプ等の情報を用いて決定することが必要となる.この結果から,照応要素が同一文内に存在するゼロ代名詞を解析するためには接続語のタイプや様相や用言意味属性を用いることが有効と推定できる.\begin{table}[htbp]\begin{center}\caption{ゼロ代名詞とその照応要素の出現傾向}{\footnotesize(調査対象文:日英機械翻訳システム評価用例文3718文,照\\応解析を要するゼロ代名詞が存在する文は463文,512件)}\\\vspace{2mm}\leavevmode\footnotesize\begin{tabular}{||c|c||c|c|c|c|c|c|c||c|c|c|c|c|c||c||}\hline\hline\multicolumn{2}{||c||}{ゼロ}&\multicolumn{13}{c||}{照応要素の出現場所}&\\\cline{3-15}\multicolumn{2}{||c||}{代名詞}&\multicolumn{7}{c||}{同一文内}&\multicolumn{6}{c||}{文章中になし}&小\\\cline{3-15}\multicolumn{2}{||c||}{出現}&\multicolumn{2}{c|}{は}&\multicolumn{2}{c|}{が}&&&&受&I&&人&&&計\\\cline{4-4}\cline{6-6}\multicolumn{2}{||c||}{場所}&&引用&&埋込&を&に&他&&か&you&&it&他&[件]\\\multicolumn{2}{||c||}{}&&文内&&文内&&&&身&we&&間&&&\\\hline\hline\multicolumn{2}{||c||}{は}&1&0&0&0&0&0&0&5&0&0&0&2&0&8\\\hline\multicolumn{2}{||c||}{が}&102&2&6&2&0&1&7&151&69&28&23&50&3&444\\\cline{2-16}&埋込文内&3&0&1&0&0&0&0&15&0&0&2&0&0&21\\\cline{2-16}&引用文内&4&0&0&0&0&0&0&0&0&0&0&0&0&4\\\hline\multicolumn{2}{||c||}{を}&3&0&0&0&3&1&0&0&0&0&0&11&0&18\\\cline{2-16}&埋込文内&1&0&0&0&0&0&0&0&0&0&0&0&0&1\\\hline\multicolumn{2}{||c||}{に}&1&0&0&0&0&0&0&2&2&5&0&0&2&12\\\hline\multicolumn{2}{||c||}{他}&0&0&0&0&1&0&0&0&1&1&0&1&0&4\\\hline\hline\multicolumn{2}{||c||}{小計[件]}&\multicolumn{7}{c||}{139}&\multicolumn{6}{c||}{373}&512\\\hline\hline\end{tabular}\\\end{center}\label{tab:dist}\end{table}
\section{ゼロ代名詞の同一文内照応解析}
2章で得られた結果を元に,照応要素が同一文内に存在するゼロ代名詞の解析手法について提案する.\subsection{助詞の種類を用いた文内照応解析}日本語ゼロ代名詞の文章中に存在する照応要素を決定する解析手法としては,助詞のタイプや共感動詞の有無に基づき格要素のCenterをランク付けし,単文間の話題の継承性を認定することによってゼロ代名詞の照応要素を決定するCenteringアルゴリズムが知られている\cite{Kameyama1986,WalkerIidaCote1990}.文内照応ゼロ代名詞に対しては,文中に含まれる個々の文を単文に分割することによって解析を行う.例えば,\begin{quote}(\sent{sent:1})彼は方程式を解いて(φが)答えを出した.\end{quote}\noindentという文では,文を「彼は方程式を解く」と「(φが)答えを出す」に分割し,動詞「出す」のガ格のゼロ代名詞の照応要素として助詞「は」で主題化された「彼」が認定される.また,埋め込み文を伴う\begin{quote}(\sent{sent:2})太郎はキムに[(φが)(φを)弁護する]ことを話した.\end{quote}\noindentという文では,文を「太郎はキムに話した」と「(φが)(φを)弁護する」に分割し,動詞「弁護する」のガ格のゼロ代名詞の照応要素として助詞「は」で主題化された「太郎」が,ヲ格のゼロ代名詞の照応要素としてニ格の「キム」が認定される.本手法は,アルゴリズムが極めて簡単であるため,実現が容易であるが,本アルゴリズムでは解析できないゼロ代名詞が存在する.例えば,本手法は前方照応指示を解析対象としているため,次に様な後方照応指示表現は解析不可能である.\begin{quote}(\sent{sent:3})(φが)縄を枝から枝にかけて,子供達は遊んだ.\end{quote}\noindentこの例ではゼロ代名詞の照応要素は後半の用言のハ格である「子供達」となるが,ゼロ代名詞が照応要素より前の単文にあるため,このアルゴリズムでは解析不可能となる.さらに,本来文章外照応解析が必要であったり,翻訳する際に受け身変形することによって照応解析が不要であるゼロ代名詞に対しても,このアルゴリズムでは文内照応とみなし解析してしまうという問題も存在する.例えば次の例文を見ると,\begin{quote}(\sent{sent:4})たとえ海が荒れても(φが)船を出す.\end{quote}\noindentこの文では「出す」のガ格がゼロ代名詞となっているが,この照応要素は,この文のみでは推測不可能なため決定できない.しかし,Centeringアルゴリズムでは,従文のガ格である「海」を誤って照応要素と認定する.2章での調査結果を検討すると,助詞の種類に基づく制約だけでなく,接続語のタイプや用言意味属性,様相表現をゼロ代名詞の同一文内照応格要素の推定に用いれば,より正確に照応要素が決定できると予想される.例えば,(3)の表現においても,接続語が様態を示す「て」であり,ゼロ代名詞を含む用言が動作を示すことから,子供達が遊ぶ様子を示す表現であることが推測され,ゼロ代名詞の照応要素は「子供達」であると判断できる.\newpage\subsection{論用論的・意味論的制約を用いた文内照応解析}2章の調査結果の分析によると,接続語のタイプや用言意味属性や様相表現のタイプがゼロ代名詞の文内照応要素を決定するのに有効であることが分かった.本節では,2章で調査した例文を詳細に検討することにより得られた,接続語,用言意味属性,様相表現の3種類による文内照応要素を決定するための語用論的・意味論的制約について述べる.\subsubsection{接続語による制約}接続語は,ゼロ代名詞の文内照応要素を決定するうえで最も強力な制約となることが期待される.これは,接続語のタイプに応じた格の共有に関する制約にもとづくものである.南\cite{Minami1974}や田窪\cite{Takubo1987}らが提案しているとおり,日本語の接続語は,格要素の影響範囲を制限するものがある.例えば,南は,日本語接続語をA,B,Cの3種類に分類し,主題「は」格も助詞「が」格も共有するような「つつ」や「ながら」のような継続を示す接続語をA類,「は」格は共有するが「が」格は共有しないような「ので」や「たら」のような条件を示す接続語をB類,「は」格も「が」格も共有しないような「けれど」や「けど」のような接続語C類と呼んだ.この分類によるとA類の接続語を伴う複文において,この接続語をはさんだ片方の単文のガ格がゼロ代名詞化されもう片方の単文にガ格が存在する場合には,このゼロ代名詞の照応要素はもう片方の単文のガ格の要素となる.このような,接続詞の種類による格要素の特徴を,照応要素の決定に活用することができる.表2に,実際に本手法で用いる接続語による文内照応解析条件の1部を示す.これは,南による日本語接続語の分類を,南の記述にない接続語や英語に翻訳すると接続語となるような日本語表現にも拡張し,実際の文に現れた文内照応ゼロ代名詞の分析に基づいて,接続語前後の単文内の格の共有の特性を整理しルール化したものである.\begin{table}[htbp]\begin{center}\caption{接続語によるゼロ代名詞の文内照応解析条件}\vspace{2mm}\leavevmode\footnotesize\begin{tabular}{||c|c|c||}\hline\hline接続語の例&ゼロ代名詞の条件&照応要素との関係{\scriptsize1)}\\\hline\hlineから,し,ば&ハ格&従文\(\rightarrow\)主文\\\hlineため&ハ格&従文\(\leftarrow\)主文\\\hlineまま&ハ格,ガ格&従文\(\rightarrow\)主文\\\hlineたり,て&ハ格,ガ格&従文\(\leftrightarrow\)主文\\\hlineと&ハ格,ヲ格&従文\(\rightarrow\)主文\\\hlineつつ,ながら{\scriptsize2)}&ハ格,ガ格,ヲ格&従文\(\leftrightarrow\)主文\\\hline\hline\end{tabular}\\{\scriptsize1)この矢印は,照応要素の含む文から,これと照応可能なゼロ代名詞を含む文への方向を示す\\2)``つつ'',``ながら''の場合,ヲ格はその接続関係が「逆接確定」の場合のみ補完対象となる}\end{center}\label{tab:conj}\end{table}\subsubsection{用言意味属性による制約}用言意味属性による制約は大きく以下の2種類に分かれる.\vspace{2mm}\noindent{\bf(a)用言意味属性による制約}\vspace{1mm}ゼロ代名詞又はその照応要素が,埋め込み文又は引用文内にある場合の文内照応解析は,埋め込み文又は引用文の表現と文内のその他の表現との意味的関係を認定ことが必要となる.この意味解析に,文中の用言の用言意味属性が有効となると期待される.例えば,\begin{quote}(\sent{sent:5})港区は資本参加すると(φが)言った.\end{quote}\noindentと言う表現においては,用言「言う」のガ格がゼロ代名詞化されており,その照応要素は引用文「港区は資本参加する」のハ格となる.この表現においては,引用文の用言「参加する」はガ格の属性変化を示す用言意味属性を持ち,用言「言う」はガ格の要素が引用文の内容を精神的移動させるという用言意味属性を持つ.このような用言意味属性の属性対によって,この文は「助詞ハで主題化された要素が属性変化を起こすという情報を同じハ格の要素が伝える」という意味をもつことが認定でき,このゼロ代名詞の照応要素が「港区」となると決定できる.このように,接続語のタイプで照応要素が決定できない場合でも,用言の意味属性を利用することで用言間の意味的関係が認定でき,文内照応が可能となる.\vspace{2mm}\noindent{\bf(b)用言意味属性と接続語による制約}\vspace{1mm}3.2.1で示した接続語のタイプによる格の共有による制約は,文内照応解析に極めて有効であると期待される.しかし,接続語の種類によっては1種類の接続語が複数の接続語タイプの曖昧性を持つ場合がある.例えば,接続語「て」は,接続語の前後の文の関係に関して,動作の様態を示すA類の意味,時間関係や原因を示すB類の意味,並列表現を示すC類の意味がある.例えば,(3)の文における接続詞「て」は,子供達の遊び方を示し,様態を示すAタイプの意味となる.これに対して,次の文では,\begin{quote}(\sent{sent:6})彼は成長して(φが)立派な紳士になった.\end{quote}\noindent接続詞「て」は原因理由を示し,B類の意味となる.よって,このような接続語に対しては,接続語の前後の用言意味属性,様相表現の種類の共起によって接続語の意味を特定し接続語のタイプを決定する必要がある.例えば,(3)の文では,用言「かける」用言「遊ぶ」の用言意味属性はともに身体動作であり,ハ格の要素が用言「かける」の後ろにあることから,様態の関係を示すことが決まる.同様にして,(6)の文では,用言「成長する」用言「成る」の用言意味属性はともに属性変化であることから,属性変化することによって属性変化するという関係を示す文であると認定でき,原因理由の関係を示すことが決まる.これにより,用言「成る」のガ格のゼロ代名詞の照応要素を用言「成長する」のハ格である「彼」と決めることができる.このように,意味の曖昧性を持つ接続語の解析に,用言意味属性は有効であり,これによって文内照応要素が正確に決定できる.さらに,これは,接続語を正確に機械翻訳するためにも必要な処理となる.\subsubsection{様相表現による制約}様相表現は,ゼロ代名詞の文章外照応要素を決定するうえで最も強力な制約となる\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}.例えば,ガ格がゼロ代名詞化している場合には,様相表現「〜したい(φwantto〜)」(希望)や「〜してほしい(φwantφto〜)」(三人称希望・使役)を伴うと,照応要素は``I''になり,様相表現「〜してはいけない(φmustnot〜)」(禁止)や「〜するべきだ(φshould)」(義務)を伴うと,照応要素は``you''になると言える.このような特長は,文内照応解析にも有効となる.例えば,\begin{quote}(\sent{sent:7})彼が天文クラブ員なので(φが)あの星を知っているだろう.\end{quote}\noindentという表現では,接続語「なので」がB類であるので,同一文内でガ格の要素が必ず共有するとはいえないため,接続語のタイプのみでは照応解析できない.しかし,推量を示す様相表現「だろう」が用言「知る」に伴っているので,ガ格は"I"以外の要素が来ると予測され,「彼」が照応要素となる.このように,文内照応解析においても様相表現により照応要素を決定することが出来る.\vspace*{-5mm}\subsection{アルゴリズム}3.1と3.2で示した議論を元に,同一文内に照応要素を持つゼロ代名詞の解析アルゴリズムについて提案する.但し,日本文を英訳するうえで必須要素となるゼロ代名詞のみを解析対象とする.前述の条件をアルゴリズム化する際には,照応要素が文章中に現われない場合や,他の文に現われる場合の解析精度も考慮にいれて,全体的にゼロ代名詞の解析精度が良くなるように実現する必要がある.処理アルゴリズムは,以下のとおりである.なお,各ステップにおいて文章内外の照応要素を決定する際には,アルゴリズム中に記した条件だけではなく,用言がゼロ代名詞に課す意味的制約を満たすかも検証する.\vspace*{2.5mm}\begin{enumerate}\item[Step-1]ゼロ代名詞を検出する.(例えば,\cite{NakaiwaIkehara1993}で提案した手法で検出する)\\もし検出されれば,現在解析中の文のタイプによって処理を分類する.複文・重文の場合はStep-2へ,単文の場合はStep-3へ.\item[Step-2]複文・重文におけるゼロ代名詞の照応解析を下記の順で行う.\begin{enumerate}\item[1)]用言意味属性,様相表現および接続語の種類による文内照応解析.(条件:3.2節・用言意味属性による制約(b),3.2節・様相表現による制約)\item[2)]接続語のタイプによる文内照応解析.(条件:3.2節・接続語による制約)\end{enumerate}照応要素が決定すれば解析終了,決定しなければStep-3へ.\item[Step-3]現在解析中の文に埋込文や引用文が含まれている場合,用言意味属性の制約を用いた文内照応解析.(条件:3.2節・用言意味属性による制約(a))\\照応要素が決定すれば解析終了,決定しなければStep-4へ.\item[Step-4]他の文に照応格要素が存在するか調査する.(例えば,\cite{NakaiwaIkehara1993}の手法で調査する)\\照応要素が決定すれば解析終了,決定しなければStep-5へ.\item[Step-5]ゼロ代名詞が支配する用言の用言意味属性,様相表現および接続語の種類による文章外照応解析\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}.\\照応要素が決定すれば解析終了.\item[Step-6]照応要素が決定できない場合,用言がゼロ代名詞に課す意味的制約により照応要素を推測.また受け身変形可能な場合は受け身化し解析終了.\end{enumerate}
\section{評価}
\subsection{評価の方法}3章で提案した文内照応解析の方法を,日英機械翻訳システムALT-J/Eの上に実現し,作成したルールが整合性を保ちつつ正しい解析結果を与えるか,ルールは容易に作成できるかの2点を中心に,評価を行った.実験条件は以下の通りである.\subsubsection{解析対象}日英機械翻訳システム評価用例文3718文中のゼロ代名詞512文の内,文内照応解析が必要なゼロ代名詞139件を解析対象とした.\subsubsection{照応解析ルール}上記139件のゼロ代名詞に対して,3章の方法で作成した70件の規則を使用した\footnote{現状では,構文解析等の段階で失敗する文を本技術の評価に使用するのは困難である.そこで,ここでは,提案した手法の技術的限界を見極めるため,ルールの整合性の検証を評価の第1の目的とし,ルール作成に使用した標本(デバッグされた文)を,評価に使用(ウインドウテストと)した.今後,システム全体のデバッグを待って,ブラインドテストによる評価も行っていく予定である.}.また,本手法の解析精度を客観的に調査するため,Centeringアルゴリズムを用いた場合の解析精度も調査した.\subsubsection{用言意味属性体系}図1に示すような用言の意味属性(107分類)を,日英機械翻訳システムALT-J/Eの日英構造変換用パターン対辞書(約15,000パターン)に付与し,それを利用した\cite{NakaiwaYokooIkehara1994}.\begin{figure}[htbp]\begin{center}\fbox{\epsfile{file=VSA.epsf,scale=0.65}}\end{center}\caption{用言意味属性体系}\label{fig:vsa}\end{figure}\subsubsection{ルール適用文}文内照応解析のための上記70ルールを,文内照応解析が必要な139件に加えて,文献\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}の手法で文章外照応解析が可能となるゼロ代名詞(ガ格-Iorwe,ガ格-you,ガ格-人,ガ格-it,ニ格-youの5種類,175件)および,受け身変形することにより照応解析が不要となるゼロ代名詞173件の計487件にも適用した.これにより,上記139件が正しく解析出来るかに加えて,本来,文章外照応が必要であったり,照応解析が不要であるゼロ代名詞に,誤って文内照応解析ルールが適用されないかを調査した.\subsubsection{評価項目}解析規則の種類と解析精度の関係を調べるため,以下の2項目に分けて評価した.\begin{itemize}\item照応解析のための制約条件と解析精度の関係\\接続語,用言意味属性,接続表現に関する3種類の制約条件と解析精度の関係を評価した.\item照応解析ルールの複雑さと解析精度の関係\\照応解析ルールの複雑さを定式化し,それと解析精度の関係を求めた.\end{itemize}\vspace*{-3mm}\subsubsection{評価尺度}本評価では,以下の2種類の解析精度を示す評価尺度を用いた.\begin{itemize}\item再現率\\文内照応解析が必要となるゼロ代名詞139件なかで正しい照応要素が決定できたゼロ代名詞の割合である.\item適合率\\上記70件の文内照応解析ルールを用いて文内照応であると認定され文内照応要素が決定されたゼロ代名詞のなかで,正しい照応要素が決定できたゼロ代名詞の割合である.\end{itemize}ゼロ代名詞の照応解析手法を機械翻訳システム上に実現する場合を考えると,再現率の低下と適合率の低下は異なった影響を訳文品質に与える.まず,誤って照応解析した要素の修正(後編集)という観点から考えると,再現率の低下に影響する解析誤りは,補えなかった照応要素発見しそれを補う後編集作業を必要とし,適合率の低下に影響する解析誤りは,誤って補った要素を発見しそれを正しい照応要素に置き換える後編集作業を必要とする.両者の後編集の作業量を比較すると,前者は,訳語表現が受身表現に変換されたり照応要素未定のマークが訳文中に示されるのに対し,後者は,文の流れや原言語表現を詳しく調査することが必要になるので,適合率の低下の方が再現率の低下より悪影響が大きいと言える.また,得られた訳文品質の優劣の観点から見ると,適合率の低下に影響する解析誤りは,誤って補った要素により決定的な内容の誤解が生じる恐れが大きいのに対して,再現率の低下に影響する解析誤りは,補われなかった要素の解釈が読者に任されるため,訳文品質への被害が少ないと言える.以上のことから,再現率が低い場合に比べ適合率が低い場合の方が大きく影響するため,機械翻訳システム上で実現する際には,適合率の方が再現率より重要であると言える.\subsection{評価結果}\subsubsection{照応解析の条件と解析精度の関係}照応解析条件と解析精度の関係を調べるために,3章で提案した手法の再現率と適合率を次の4種類の条件で評価した.\begin{itemize}\item接続語による制約のみを用いた場合\item接続語と用言意味属性による制約を用いた場合\item接続語と様相表現による制約を用いた場合\item接続語と用言意味属性と様相表現による制約を用いた場合\end{itemize}また,本評価では,本手法の解析精度を客観的に計るため,3.1で示したCenteringアルゴリズムを適用した場合の解析精度も評価した.表3に照応解析条件と解析精度の関係を示す.この表から,3.2に示す条件をすべて用いることにより,139件中136件のゼロ代名詞の文内照応解析がルールの不整合なしに正しく行なわれ,Centeringアルゴリズムより再現率,適合率とも精度が高いことが分かる.また,接続語による条件に用言意味属性による条件を追加することによって,再現率,適合率ともにCenteringアルゴリズムより高い値が得られることから,用言意味属性導入の効果が分かる.また,用いた条件にかかわらず本手法はCenteringアルゴリズムより高い適合率を得ている.次に,本評価結果の中から,Centeringアルゴリズムでは正しく解析できないが,提案手法では正しく解析できた例を示す.例文(4)では,照応要素がこの文だけでは決まらず文内照応解析処理としては決定する必要がないが,Centeringアルゴリズムでは,従文の「海」を照応要素と認定してしまい,適合率を低下させてしまった.しかし,我々の手法では,接続語「ても」がB類でありガ格は照応要素のならないため,文内に照応要素は存在しないと認定し,適合率の低下をまねかなかった.さらに,\begin{quote}(\sent{sent:8})土地が転売される中でどんどん(φが)値上がりする.\end{quote}\noindentでは,「土地」が用言「転売される」を修飾すると構文解析されるので,用言「値上がりする」のガ格がゼロ代名詞となる.この解析結果をもとに単文に分割すると「(φが)〜中でどんどん値上がりする」と「土地が転売される」になり,本表現はもともとは後方照応指示表現ではないが,この解析結果をもとにCenteringアルゴリズムを適用しようとすると,後方照応指示表現と等価になり,このアルゴリズムでは解析不可能となる.しかし,我々の手法では,2種類の用言の用言意味属性と様相表現より,「転売される」と「値上がりする」の意味的関係が認定され,「土地」が照応要素として正しく認定される.上記の結果より,本手法で用いたそれぞれの条件が文内照応解析に有効に働いていており,本手法は機械翻訳システム上での実現に適した手法であることが言える.\begin{table}[htbp]\begin{center}\caption{照応解析条件と解析精度の関係}\vspace{2mm}\leavevmode\footnotesize\begin{tabular}{||c|c|c||}\hline\hlineゼロ代名詞&\multicolumn{2}{c||}{解析精度}\\\cline{2-3}照応要素&再現率&適合率\\解析条件&&\\\hline\hline接続語&71\%(98/139)&96\%(98/102)\\\hline接続語+用言意味属性&88\%(123/139)&98\%(123/125)\\\hline接続語+様相表現&73\%(101/139)&97\%(101/104)\\\hline接続語+用言意味属性+様相表現&98\%(136/139)&100\%(136/136)\\\hline\hlineCenteringアルゴリズム&74\%(103/139)&89\%(103/116)\\\hline\hline\end{tabular}\\\end{center}\label{tab:eval-cond}\end{table}\subsubsection{照応解析ルールの複雑さと解析精度の関係}照応解析ルールの複雑さに対する解析精度を検討するために,3.2で提案した手法の解析精度をルールの複雑さに応じて評価した.ここでルールの複雑さCは,接続語,様相表現,用言意味属性に対する条件が1箇所あるとそれぞれ1点とし,その積算を複雑さとした.\noindentC=接続語による制約の数+用言意味属性による制約の数+接続語による制約の数\noindentこの計算によると,例えば,接続語の条件があり,主文に用言意味属性,従文に対して様相表現と用言意味属性の条件がある場合には,様相表現1点\(\times\)1+用言意味属性1点\(\times\)2+接続語1点\(\times\)1の計算により複雑さは4となる.表4に照応解析ルールの複雑さと解析精度の関係を示す.この結果によると,139種類中136種類のゼロ代名詞を照応解析するために用いられたルール数は70種類であった.また,複雑さが3以下のルール(58種類)のみを用いた場合の解析精度は再現率が88%,適合率が99%,4以下のルール(66種類)のみを用いた場合は再現率が94%,適合率が100%と,簡単なルールだけでもルール間の不整合を起こさずに高い解析精度が得られることが分かった.この結果から,接続語,用言意味属性,様相表現を用いて文内照応解析をおこなうことにより,比較的単純なルールにより高い解析精度が得られることが分かった.\begin{table}[htbp]\begin{center}\caption{照応解析ルールの複雑さと解析精度の関係}\hspace{2mm}\footnotesize\begin{tabular}{||c|c|c|c|c||c|c||}\hline\hline\multicolumn{3}{||c|}{解析条件}&ルールの&ルール数&\multicolumn{2}{c||}{解析精度}\\\cline{1-3}\cline{6-7}接続語&用言意味属性&様相表現&複雑さ&&再現率&適合率\\\hline\hline1&0&0&1&38&71\%(98)&96\%(98)\\\hline1&0&1&2&40(+2)&72\%(+1\%)(100(+2))&97\%(100/103)\\\hline1&2&0&3&57(+17)&87\%(+15\%)(121(+21))&99\%(121/122)\\\hline1&0&2&3&58(+1)&88\%(+1\%)(122(+1))&99\%(122/123)\\\hline1&2&1&4&65(+7)&94\%(+6\%)(130(+8))&100\%(130/130)\\\hline2&2&0&4&66(+1)&94\%(+1\%)(131(+1))&100\%(131/131)\\\hline2&3&0&5&68(+2)&96\%(+2\%)(134(+3))&100\%(134/134)\\\hline2&2&2&6&70(+2)&98\%(+2\%)(136(+2))&100\%(136/136)\\\hline\hline\end{tabular}\\\end{center}\label{tab:eval-comp}\end{table}
\section{まとめ}
本論文では,接続語,用言意味属性,様相表現の語用論的・意味論的制約を用いた日本語ゼロ代名詞の文内照応解析手法を提案した.本手法は,接続語のタイプ,用言意味属性,様相表現のタイプによりゼロ代名詞の同一文内に存在する照応要素が決まるという語用論的・意味論的な制約に着目し,文の表現のタイプに応じて文の意味を決定し,照応要素を決定するものである.本手法を日英翻訳システムALT-J/E上に実現して,日英翻訳システム評価用例文(3718文)中のゼロ代名詞を有する文を対象に,照応解析ルールを整備した状態で性能評価を行った.本標本実験によると,英語表現で訳出が必要な同一文内に照応要素を持つゼロ代名詞(139件)が再現率98%,適合率100%の精度で正しい照応要素を決定でき,従来の代表的な手法であるCenteringアルゴリズムを用いた場合(再現率74%,適合率89%)より高い精度が得られることがわかった.特に,適合率100%と認定した照応関係に誤りがないことから,本手法が機械翻訳システムでの実現に適することがわかった.また,照応解析条件と解析精度の関係から,それぞれの条件が文内照応解析に有効に働いていることが分かった.さらに,使用した照応解析ルールの複雑さと解析精度の関係から,高い解析精度が比較的簡単なルールを記述することで得られる(複雑さ3以下のルールで再現率87%,適合率99%)ことが分かった.以上の結果,語用論的・意味論的制約を用いた本手法の有効性が実証され,これらの制約を用いたルールを蓄積することによって,補完すべき要素が同一文内に存在する省略格要素の大半が復元できるという見通しを得た.今回の実験では,日英機械翻訳システム評価用例文を対象にウインドウテストで本手法を評価したが,今後は,本手法で提案した4種類の制約を用いた照応解析ルールをより多く蓄積し,様々な文種の例文を用いてブラインドテストによる評価を行っていきたい.また,現在,この照応解析ルールは人間による分析結果をもとに人手で作成しているが,この照応解析ルールの自動獲得に関する検討も行っていく予定である.\acknowledgment本研究を進めるにあたりご指導いただいた河岡司同志社大学教授,松田晃一NTTコミュニケーション科学研究所所長に感謝致します.また,日頃熱心に討論していただくNTTコミュニケーション科学研究所翻訳処理研究Gの皆様に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\appendix\noindent{\bf具体的な照応解析ルール}本文中で説明に利用した例文中のゼロ代名詞の照応解析に利用する具体的な文内照応解析ルールを下表にまとめる.なおここでは,文内照応解析における語用論的・意味論的制約の有効性の説明に利用した4文のルールのみについて示す.\begin{table}[htbp]\label{tab:standard1}\hboxto\hsize{\hfil\leavevmode\footnotesize\begin{tabular}{||c|c|l|l||}\hline\hline利用する制約&文番号&照応解析条件&照応要素\\\hline\hline用言意味属性&(5)&引用文の主語=「ハ格」&主文の主語の\\&&引用文の用言意味属性=「ガ格の属性変化」&ゼロ代名詞は\\&&主文の主語=「ゼロ代名詞」&引用文の主語\\&&主文の用言意味属性=&のハ格を照応\\&&「ガ格が引用文の内容を精神的移動」&\\\hline用言意味属性&(3)&接続語=「て」&従文の主語の\\+&&主文の主語=「ハ格」&ゼロ代名詞は\\接続語&&主文の用言意味属性=従文の用言意味属性&主文の主語の\\&&=「ガ格の身体動作」&ハ格を照応\\&&従文の主語=「ゼロ代名詞」&\\\cline{2-4}&(6)&接続語=「て」&主文の主語の\\&&従文の主語=「ハ格」&ゼロ代名詞は\\&&主文の用言意味属性=従文の用言意味属性&従文の主語の\\&&=「ガ格の属性変化」&ハ格を照応\\&&主文の主語=「ゼロ代名詞」&\\\hline用言意味属性&(7)&接続語=「なので」&主文の主語の\\+&&従文の主語=「ガ格」&``I''以外&ゼロ代名詞は\\接続語&&従文の用言意味属性=「ガ格がヲ格を知覚する」&従文の主語の\\+&&主文の主語=「ゼロ代名詞」&ガ格を照応\\様相表現&&主文の様相表現=「だろう」&\\\hline\hline\end{tabular}\hfil}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{中岩浩巳}{1985年法政大学工学部電気工学科卒業.1987年名古屋大学大学院工学研究科電気系専攻博士前期課程終了.同年,日本電信電話(株).以来,日英機械翻訳技術の研究に従事.現在,NTTコミュニケーション科学研究所主任研究員.1995年9月より1年間マンチェスタ工科大学(UMIST)客員研究員.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{池原悟}{1967年大阪大学工学部電気工学科卒業.1969年同大学大学院修士課程終了.同年,日本電信電話公社に入社.以来,電気通信研究所において数式処理,トラヒック理論,自然言語処理の研究に従事.1996年より鳥取大学工学部知能情報工学科教授,スタンフォード大学客員教授.工学博士.1982年情報処理学会論文賞,1993年情報処理学会研究賞,1995年日本科学技術センター賞(学術賞),1995年日本人工知能学会論文賞受賞.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N05-03
|
\section{はじめに}
句に基づく統計的機械翻訳\cite{Koehn:03}が登場し,仏英などの言語対における機械翻訳性能は大きく向上した.その一方で,文の構文構造が大きく異なる言語対(日英など)において,長距離の単語並べ替えを上手く扱うことができないという問題がある.近年,この問題を解決するため,同期文脈自由文法\cite{Wu:97,Chiang:05}や木トランスデューサ\cite{Graehl:04,Galley:06}により,構文情報を使って単語並べ替えと訳語選択を同時にモデル化する研究が活発化している.しかし,単語アライメントや構文解析のエラーを同時にモデルへ組み込んでしまうため,句に基づく手法と比較して,いつでもより良い性能を達成できているわけではない.これらの研究と並行して,事前並べ替え法\cite{Collins:05,Isozaki:12}や事後並べ替え法\cite{Sudoh:11,Goto:12}に関する研究も盛んに行われている.これらの手法は単語並べ替えと訳語選択の処理を分けてモデル化し,語順が大きく異なる言語対で,句に基づく手法の翻訳性能を大きく向上させられることが報告されている.特に,文献\cite{Isozaki:12}で提案された主辞後置変換規則による事前並べ替え法は,特許文を対象とした英日翻訳で高い性能を達成している\cite{Goto:09,Goto:10}.この規則はある言語(本稿では英語を仮定する)を日本語(主辞後置言語)の語順へと変換するものであるが,文献\cite{Sudoh:11}では,主辞後置変換規則によってできた日本語語順の英語文を元の英語文へと復元するためのモデルを構築し,主辞後置変換規則の利点を日英翻訳へと適用可能にしている(事後並べ替え法).文献\cite{Goto:12}では事後並べ替えを構文解析によってモデル化している.この手法は,1言語の上で定義されたInversionTransduction文法(ITG)\cite{Wu:97}\footnote{ITGは2言語の構文解析(biparsing)を扱う枠組みであるが,単語並べ替え問題では原言語の単語と目的言語の訳語を同じと考えることができるため,1言語の上で定義された通常の構文解析として扱える.}にBerkeley構文解析器を適用することで,単語並べ替えを行う.また,主辞後置変換規則では日英単語アライメント性能を向上させるため,データから英冠詞を除去する.そのため,翻訳結果に冠詞生成を行う必要があり,文献\cite{Goto:12}では,構文解析による単語並べ替えとは独立して,$N$-gramモデルによる冠詞生成法を提案している.文献\cite{Goto:12}の手法は,Berkeley構文解析器の解析速度の問題や冠詞生成を独立して行うことから,解析効率や精度の点で大きな問題が残る.本稿では,この構文解析に基づく事後並べ替えの新たな手法を提案し,解析効率,及び,翻訳性能の改善をはかる.提案手法はシフトリデュース構文解析法に基づいており,文献\cite{Goto:12}で利用された段階的枝刈り手法によるBerkeley構文解析\cite{Petrov:07}と比べて,次の利点を持つ.\begin{itemize}\item[1]線形時間で動作し,高速で精度の高い単語並べ替えが可能.\item[2]並べ替え文字列の$N$-gram素性(非局所素性に該当)を用いても計算量が変わらない.\item[3]アクションを追加するだけで,並べ替えと同時に語の生成操作などが行える.\end{itemize}1と2の利点は,解析効率における利点,また,2と3は翻訳性能を向上させる上での利点となる.特に,3つ目の利点を活かして,単語並べ替えと冠詞生成問題を同時にモデル化することが,提案法の最も大きな新規性と言える.本稿では,日英特許対訳データを使って,提案手法が従来手法を翻訳速度,性能の両面で上回ることを実験的に示す.以下,第2章では構文解析による事後並べ替えの枠組み,第3章では提案手法,第4章では実験結果について述べる.第5,6章では研究の位置付けとまとめを行う.
\section{構文解析による事後並べ替え}
\label{sec:post}図~\ref{fig:flow}に示すように,事後並べ替えによる機械翻訳方式\cite{Sudoh:11}は2つのステップに分けられる.最初のステップでは入力文をそのままの並びで出力言語文(中間言語文)へと翻訳する.そして,次のステップにおいて中間言語文を並べ替え,出力言語の語順になった文を生成する.文献\cite{Goto:12}はこの2番目のステップを構文解析によってモデル化し,そのための学習データを次のような手順で作成している.\begin{figure}[b]\begin{center}\includegraphics{21-5ia3f1.eps}\end{center}\caption{事後並べ替えによる機械翻訳方式の流れ}\label{fig:flow}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-5ia3f2.eps}\end{center}\caption{主辞後置変換規則による中間英語データの作成例}\label{fig:treealign}\end{figure}まず,図~\ref{fig:treealign}の左図に示すように,英語文に対して語彙化構文木を作成する.次に,主辞後置変換規則によって,図~\ref{fig:treealign}の右図に示すような木(中間英語木)へと変換する\footnote{右図からNP(telescope)$\rightarrow$N(telescope)のような単一規則は解析効率を考慮して全て除去している.}.この変換では,非終端記号に付随する主辞をその句の後方へと移動する.例えば,左図のPP(with)$\rightarrow$PR(with)NP(telescope)の辺では,PPの主辞となるwithはtelescopeの前に位置するが,右図ではPP$^{\#}$$\rightarrow$N(telescope)$^{\text{``a/an''}}$PR(with)のようにtelescopeの後ろに位置する.\#は並べ替えを意味するマークである.右図の木構造における葉ノードから成る文を中間英語文と呼ぶ.さらに,中間英語文からは冠詞(the,a,an)が消去されており,逆に,日本語の助詞(が(ga),は(wa),を(wo))が挿入されているが,これらは日本語文との単語対応をとりやすくするためである.削除された冠詞はそれが先頭に挿入される句を表す品詞ないしは非終端記号にマークしている.例えば,N(telescope)$^{\text{``a/an''}}$である.文献\cite{Goto:12}はこのような削除した冠詞のマークを行っていないが,提案手法では削除した冠詞の挿入を構文解析の枠組みとして定式化するため,このようなマークを行っている.\#や冠詞マークを使うことで,図\ref{fig:treealign}の右図に示す中間英語木から元の英語文を復元することは可能である.よって,中間英語木から学習した構文解析器によって,翻訳器が出力した中間英語文に中間英語木構造を自動推定することで,機械翻訳の単語並べ替えを行うことができる.
\section{シフトリデュース構文解析による単語並べ替えと冠詞生成}
\subsection{単一言語のInversionTransduction文法}第\ref{sec:post}節で説明した単語並べ替え(及び,冠詞生成)問題は,文献\cite{Tromble:09,DeNero:11}などで言及されているように,Inversiontrasduction文法(ITG)\cite{Wu:97}と関連付けられる.本来,ITGは2言語の構文解析(biparsing)を扱う枠組みであるが,単語並べ替え問題を扱う場合,1言語の構文解析として定式化する点に注意する(単一言語のITG).単一言語のITG$G$は$G=(V,T,P,I,\text{TOP})$から成る.ここで$V$は非終端記号,及び,品詞の集合,$T$は終端記号の集合,$P$は生成規則の集合,$I$は冠詞挿入(``the'',``a/an'',``noarticle'')を行う非終端記号及び品詞の候補集合,TOPは開始記号である.生成規則の集合$P$は\[\text{X}\rightarroww,\qquad\text{X}\rightarrow\text{Y}\text{Z},\qquad\text{X}^{\#}\rightarrow\text{Y}\text{Z},\qquad\text{TOP}\rightarrow\text{X}|\text{X}^{\#}\]の形式を持つ規則から構成される($w\inT$,X,X$^{\#}$,Y,Z$\inV$).最初の規則は単語$w$を生成する語彙生成規則,次の2つは2分生成規則,最後は終了規則である.\subsection{シフトリデュース構文解析}\label{sec:sr}単一言語のITGに対するシフトリデュース構文解析法を定義する.本稿で用いる記法は,文献\cite{Huang:10}や\cite{Zhang:11}を参考にしているため,以下の定義を読解する上で,それらを参考にすると良いだろう.シフトリデュース構文解析は状態とアクションを使って解析を進める.基本的な動作原理は,まず,入力文$W=w_{1}\dotsw_{|W|}$をバッファ$B$に積み込み(慣習に従い,左端が先頭),シフトと呼ばれるアクションによって,バッファの先頭単語に語彙生成規則を適用して,状態が持つスタックの先頭へと移す.そして,リデュースと呼ばれるアクションを使って,状態が持つスタックの先頭2つの要素に対して2分生成規則を適用して,構文木を組み上げていく.本稿ではさらに,挿入アクションを使って,冠詞の生成問題も同時にモデル化する.シフトリデュース構文解析における状態$p$は\[p:[\ell:\langlei,j,S\rangle:\pi]\]として定義され,$\ell$はステップ数,$S$はスタックを表す.スタックは$\dots|s_{1}|s_{0}$を要素に持ち,各要素は部分解析木を表現する.慣習に従い,スタックの要素は右端を先頭とし,各要素を$|$で区切る.$i$はスタック先頭要素$s_{0}$が持つ部分解析木の左端単語の$W$中での位置インデックスを表し,$j$はバッファ$B$の先頭単語の$W$中での位置インデックスを表す.$\pi$は予測前状態へのポインタ集合である.予測前状態とは,現状態の$s_{0}$が構築される直前の状態のことであり,$\pi$はそこへのバックポインタを保持する.$\pi$が集合となるのは,文献\cite{Huang:10}の動的計画法により状態の結合が起こると,$\pi$をもう一方の状態の$\pi$へと結合するからである\footnote{$\pi$の結合は,シフトで作られた状態同士が結合されたときに起こる.詳細は文献\cite{Huang:10}を参照.}.各スタックの要素は以下の部分解析木に関する変数を持つ.\[s=\langle\text{H},h,w_{left},w_{right},a\rangle.\]ここでHとは$s$が持つ部分解析木のルートにある非終端記号または品詞ラベルの変数を表す.$h$はHに付随する主辞単語の$W$中のインデックスを表す変数である,$a$は``the'',``a/an'',``noarticle'',またはnullが割り当てられる変数を示している\footnote{``noarticle''とnullを区別し,一度``noarticle''が挿入されても,``the''や``a/an''の挿入が行えるようにして\linebreakいる.}.$w_{left}$と$w_{right}$は部分解析木が覆う並べ替え文字列の左端と右端単語を表す変数である(解析時に並べ替えが起こったとき,$w_{left}$と$w_{right}$だけを明示的に並べ替えることに注意).$s$の要素$*$は$s.*$として参照する.\begin{figure}[b]\begin{center}\includegraphics{21-5ia3f3.eps}\end{center}\caption{状態定義の説明図:慣習上,スタックは右端,バッファは左端が先頭とする.}\label{fig:state}\end{figure}図\ref{fig:state}には状態の説明図を示す.以下のアクションに関する説明が煩雑になることを防ぐため,スタック要素の定義からL,R,$w_{l}$は除いたが,後述する識別モデルの素性にはこれらを利用する.LはHの左側の子供となる非終端記号,Rは右側の子供となる非終端記号,$w_{l}$はLに付随する主辞単語の$W$中の位置インデックスを表す変数である.提案手法はシフト-X,挿入-$x$,リデュースMR-X,リデュースSR-X$^{\#}$,終了の5種類のアクションを持つ.以下,各アクションは推論規則\[\frac{\text{前状態}p}{\text{後状態}p'}\\text{条件部}\]を使って定義する.条件部にはアクションの適用条件を記述し,状態$p$にアクションを適用すると,状態$p'$になることを表す.解析は初期状態$p_{0}:[0:\langle0,1,\epsilon\rangle:\emptyset]$から始まり,終了アクションによって導かれる終了状態に至るまで続ける.\begin{itemize}\item{\bfシフト-X:}バッファの先頭単語をスタックに積み,品詞を割り当てる.\[\frac{p:[\ell:\langlei,j,S|s_{0}'\rangle:\pi]}{p':[\ell+1:\langlej,j+1,S|s_{0}'|s_{0})\rangle:\{p\}]}\quad\text{X}\rightarroww_{j}\inP.\]ここで$s_{0}$はH=X,$h=j$,$w_{left}=w_{j}$,$w_{right}=w_{j}$,$a=\text{null}$となり,単語$w_{j}$に品詞Xが割当られたことを意味する.\item{\bf挿入-$x$:}現在の状態が持つスタック先頭要素の部分解析木が覆う単語列の先頭に``the'',``a/an'',``noarticles''のいずれか(変数$x$で表す)を挿入する操作を行う.\begin{multline*}\frac{p:[\ell:\langlei,j,S|s_{0}')\rangle:\pi]}{p':[\ell+1:\langlei,j,S|s_{0}\rangle:\pi]}\s_{0}'.\text{X}\inI\wedge\\(s_{0}'.a=\text{null}||\text{}x\neq\text{``noarticle''}\wedges_{0}'.a\neq\text{``the''}\wedges_{0}'.a\neq\text{``a/an''}).\end{multline*}ここで$s_{0}$はH=$s_{0}'.$H,$h=s_{0}'.h$,$w_{left}=s_{0}'.w_{left}$,$w_{right}=s_{0}'.w_{right}$,$a=x$となる.アクションの適用条件で$s_{0}'=\text{null}$は現状態でまだ一度も冠詞挿入が行われていないことを意味し,``the'',``a/an'',``noarticle''が代入できる.一方,すでに``noarticle''が挿入された位置には,条件$x\neq\text{``noarticle''}\wedges_{0}'.a\neq\text{``the''}\wedges_{0}'.a\neq\text{``a/an''}$によって,``the''か``a/an''のみ挿入可能で,そのいずれかを挿入以後,その位置には冠詞挿入は行えない.\item{\bfリデュース:}リデュースMR-XとリデュースSR-X$^{\#}$の2種類を定義する.これらは同じ形式の推論規則で表記できる.\[\frac{q:[\_:\langlek,i,S'|s_{1}'\rangle:\pi']\quadp:[\ell:\langlei,j,S|s_{0}'\rangle:\pi]}{p':[\ell+1:\langlek,j,S'|s_{0}\rangle:\pi']}\\text{X}\rightarrow\text{Y}\text{Z}\inP\wedgeq\in\pi.\]リデュースは$s_{0}'$と$s_{1}'$を文法規則X$\rightarrow$YZによって結合し,新たなスタック要素$s_{0}$を作り出す.リデュースMR-Xでは\[s_{0}=\langle\text{X},s_{0}'.h,s_{1}'.w_{left},s_{0}'.w_{right},s_{1}'.a\rangle\]を新たに作り出す.新たな非終端記号はXとなり,その主辞単語は$s_{0}.h=s_{0}'.h$として,Zの主辞単語の位置インデックスを代入する.リデュースMRは非終端記号YとZが覆う2つの句をそのままの並びで結合するため,Xが覆う句の左端は$s_{0}.w_{left}=s_{1}'.w_{left}$,右端は$s_{0}.w_{right}=s_{0}'.w_{right}$となる.冠詞変数は$s_{0}.a=s_{1}'.a$として,Yの先頭に挿入された冠詞変数が代入される.リデュースSR-X$^{\#}$はMR-Xとは逆に,文法規則X$^{\#}\rightarrow$YZによってYとZの句を並べ替えて結合し,新たなスタック要素\[s_{0}=\langle\text{X}^{\#},s_{0}'.h,s_{0}'.w_{left},s_{1}'.w_{right},s_{0}'.a\rangle\]を作り出す.新たな非終端記号はX$^{\#}$となり,その主辞単語はリデュースMR同様に$s_{0}.h=s_{0}'.h$として,Zの主辞単語の位置インデックスを代入する.リデュースSRは非終端記号YとZが覆う2つの句を並べ替えて結合するため,X$^{\#}$が覆う句の左端は$s_{0}.w_{left}=s_{0}'.w_{left}$,右端は$s_{0}.w_{right}=s_{1}'.w_{right}$となる.冠詞変数は$s_{0}.a=s_{0}'.a$として,Zの先頭に挿入された冠詞変数が代入される.\item{\bf終了:}シフトやリデュースをこれ以上適用できなくなり,終了規則が適用できる場合,\[\frac{p:[\ell:\langle0,|W|,s_{0}'\rangle:\pi]}{p':[\ell+1:\langle0,|W|,s_{0})\rangle:\pi]}\quad\text{TOP}\rightarrow\text{X}|\text{X}^{\#}\inP.\]として,終了状態$p'$を導く.ただし,$s_{0}'.\text{H}=\text{X}|\text{X}^{\#}$,$s_{0}.\text{H}=\text{TOP}$とする.終了状態$p'$からバックトレースすることで,中間英語木,または,英語文は出力できる.\end{itemize}図\ref{fig:process}に解析の例を示す.図\ref{fig:process}では,解析の過程が全て理解できるよう,スタック要素を省略せず,解析部分木を全て示した.入力文$W$が与えられたとき,初期状態$p_{0}$から終了状態に至る状態とアクションの系列を完全アクション状態系列と呼び,\begin{equation}y=((p_{0},a_{0}),(p_{1},a_{1}),\dots,(p_{|y|-1},a_{|y|-1}),(p_{|y|},-))\end{equation}と定義すると,シフトリデュース構文解析の探索問題は以下のように定式化される.\begin{equation}{\haty}=\argmax_{y\in{\calY}(W)}\sum_{\ell=0}^{|y|-1}Score(p_{\ell},a_{\ell}).\end{equation}ここで${\calY}(W)$は,$W$に対して解析可能な全ての完全アクション状態系列の集合を表す.一般に,$Score(p,a)$は識別モデルによってモデル化される.\begin{equation}Score(p,a)=\Phi(p,a)\cdot\overrightarrow{\alpha}\end{equation}素性関数$\Phi$は状態$p$とアクション$a$を素性ベクトル$\Phi(p,a)$へ写像する関数である,素性ベクトルは発火した素性が対応する次元に1,それ以外は0をとる.$\overrightarrow{\alpha}$は重みベクトルで,素性ベクトルとの内積をスコアとする.表\ref{tab:feats}には本稿の実験で使用した素性テンプレートを示す.$\circ$によって結合された要素は組み合わせ素性を表し,状態$p$が持つ要素から全て計算される.さらに,全ての素性は$a$を結合して,状態$p$でアクション$a$を行う判断をモデル化している.例えば,図\ref{fig:process}のstep5の状態でレデュースSR-VP$^{\#}$アクションを行う場合,素性テンプレートの$s_{0}.\text{H}\circs_{1}.\text{H}\circs_{1}.\text{L}$はV$\circ$NP$\circ$N$\circ$レデュースSR-VP$^{\#}$という素性になり,素性関数$\Phi$によって素性ベクトルの対応する次元へ写像される.表の最も下の行は並べ替え文字列に関わる素性で,本稿ではこれらを{\bf非局所素性}({\bfnon-localfeature,nf})と呼ぶ.\begin{figure}[t]\begin{center}\includegraphics{21-5ia3f4.eps}\end{center}\caption{中間英語文``girlwosaw''に対する提案手法の動作事例}\label{fig:process}\vspace{-1\Cvs}\end{figure}実装上では,解析性能を高めるため,ビームサーチ\cite{Y-Zhang:08}により,各ステップではスコアが上位beam個の状態をビームスタックに保持して解析を行う.\subsection{曖昧性除去によるビームサーチの効率改善}\label{sec:amb}単一言語のITGに従って,ある文字列の並べ替えを行う場合,様々な導出過程から同一の並べ替え文字列を作り出すことができる.例えば,図\ref{fig:amb}のような例である.\begin{table}[t]\caption{素性テンプレート}\input{03table01.txt}\label{tab:feats}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-5ia3f5.eps}\end{center}\caption{複数の導出による並べ替えの曖昧性}\label{fig:amb}\end{figure}これは元の文``e1e2e3e4''を並べ替えない場合のITG木が複数存在することを示している.この現象をSpuriousAmbiguityの問題と呼ぶ.文献\cite{Wu:97}ではSpuriousAmbiguityを解消するために,左分岐重視(Leftheavy)のITGを提案しているが,図\ref{fig:treealign}のような一般的な複数の非終端記号を持つ文法規則において,一意な構造に変換する方法は自明ではない.シフトリデュース構文解析におけるビームサーチでは,SpuriousAmbiguityが及ぼす問題は大きい.なぜなら,同じ並べ替え文字列を表現した冗長な状態により,ビームスタックが無駄に消費されるからである.実際にこのことは第\ref{sec:exp_amb}節の実験で示す.提案法では,この問題に対応するため,2つの手法を活用する.1つは文献\cite{Huang:10}の動的計画法に基づくシフトリデュース構文解析法を適用することである.この手法では,識別モデルの素性ベクトルが同じになる状態を結合し,ビームスタック上に不要な解を保持する必要がなくなる.そのため,冗長な状態の多くを効率的に抑えることができる\footnote{ただし,挿入によってできた状態の結合は行っていない.なぜなら,結合される状態同士の予測前状態へのポインタ集合が必ず一致することが保証されないからである\cite{Huang:10}.}.もう1つは並べ替え文字列を解析と同時に構築し,ハッシュテーブルによって同じ文字列を持つ状態を枝刈りする方法である.同じステップにある状態で,並べ替え文字列とスタック要素$s_{0}$と$s_{1}$の部分木のルート非終端記号が全て一致する場合,モデルスコアの低い方の状態を削除する.$s_{0}$と$s_{1}$のルート非終端記号を考慮するのは,解析エラーを軽減するためである.\subsection{CKY構文解析との計算量比較}シフトリデュース構文解析は最適解を求められる保証はないが,入力文長に対して,線形時間に動作するという利点がある.一方で,CKY構文解析法は最適解を求めることはできるが,1次の主辞・従属辞関係を考慮した場合,最悪計算量が$O(n^5|V|^3)$に及ぶことが知られている($n$は入力文長,$|V|$は非終端記号の集合サイズ)\cite{Eisner:99}.さらに,単一言語のITGに対して,第\ref{sec:sr}節で定義したような並べ替え単語列の左端単語$w_{left}$と右端単語$w_{right}$を特徴量(非局所素性)に考慮すると,リデュースMRに対応するCKY構文解析の推論規則は以下のようになる.\[\frac{[i,h,k,\text{X},w_{left},w_{right}]\hspace{1.5mm}[k,h',j,\text{X'},w_{left}',w_{right}']}{[i,h',j,\text{X''},w_{left},w_{right}']}\qquad\text{X''}\rightarrow\text{X}\text{X'}\inP\]ここで$[i,h,k,\text{X},w_{left},w_{right}]$はある1つのCKYアイテムを表し,$i,k$はアイテムが表現する解析結果の左端と右端のインデックス,$h$は主辞のインデックスを表す.この推論規則では,長さ$n$に対する9つの自由変数$i,h,k,h',j,w_{left},w_{right},w_{left}',w_{right}'$,非終端記号の集合$V$から3つの記号X,X',X''を考慮するため,計算量は$O(n^9|V|^3)$となる.本稿では,主辞は必ず後置することを仮定しているため,$h$と$h'$はそれぞれ$k$と$j$から参照でき,計算量は$O(n^7|V|^3)$となる.$N$-gramを考慮した構文解析がこのような高い計算量に及ぶことは,文献\cite{Z-Li:11}の係り受けと品詞タグ付けの同時解析でも言及されている(品詞タグ付けの場合,連接部分の計算量は$n$ではなく,品詞の候補数となる).CKY構文解析ではあるCKYアイテムに対して,ビタビスコア$\beta$を最大にする解をボトムアップに計算していく.\begin{multline}\beta([i,j,\text{X''},w_{left},w_{right}'])=\max_{k,w_{right},w_{left}',\text{X},\text{X'}}\{\beta([i,k,\text{X},w_{left},w_{right}])\cdot\beta([k,j,\text{X'},w_{left}',w_{right}'])\\\cdotp(\text{X''}\rightarrow\text{X}\hspace{0.5mm}\text{X'})\cdotnf(w_{right},w_{left}')\}.\label{eq:cky}\end{multline}$p$は規則のスコア,$nf$は並べ替え文字列から計算される$2$-gramモデルなどの非局所素性に関わるスコアである.$N$-gramを考慮したCKY構文解析の計算量はHookTrickと呼ばれる分配法則によってさらに削減できる\cite{huang-zhang-gildea:2005:IWPT}.HookTrickは式(\ref{eq:cky})の右辺に対して,次のような式変換を行う($\max$演算は積に対して分配的であることに従う).\pagebreak\begin{multline}\max_{k,w_{left}',\text{X'}}\bigl\{\max_{w_{right},\text{X}}\bigl\{\beta([i,k,\text{X},w_{left},w_{right}])\cdotp(\text{X''}\rightarrow\text{X}\hspace{0.5mm}\text{X'})\cdotnf(w_{right},w_{left}')\bigr\}\\\cdot\beta([k,j,\text{X'},w_{left}',w_{right}'])\bigr\}\end{multline}内部$\max$演算では$i,j,k,w_{left},w_{right},w_{left}'$とX,X',X''を考慮し,外部$\max$演算では$i,j,k,w_{left},$\\$w_{left}',w_{right}'$とX',X''を考慮する.これより計算量は$O(n^7|V|^3)$から$O(n^6|V|^3+n^6|V|^2)$となる.しかし,このような計算量は一般にコストが大きく,提案法と比較して,実用的ではない.非局所素性を考慮したCKY構文解析はCubePruningと呼ばれる近似解法\cite{Huang:07}を使うと,$O(n^3|V|^3)$のCKY構文解析として解くことはできるが,最適解が求められる保証はなくなる.これより,CKY法や同様の原理(動的計画法)に基づくBerkeley構文解析などと比較して,提案法は単語並べ替え問題において,実用性の観点から大きな利点がある.
\section{実験}
\subsection{実験データとツール}実験にはNTCIR-9とNTCIR-10の特許データを使い,日英翻訳を行った.日本語の形態素解析にはMecab\footnote{https://code.google.com/p/mecab/}を使用した.英語文の語彙化構文木を作成するため,Enju\cite{Miyao:08}を用いて全ての英語文を解析した.機械翻訳には,デコーダにMoses\cite{Koehn:07},単語アライメントにGIZA++\cite{Och:03:sys},言語モデルにSRILM\cite{Stolcke:11}を用いた.データ及びツールについては表2と表3にまとめる.\begin{table}[b]\begin{minipage}{0.5\textwidth}\caption{NTCIR-9とNTCIR-10データ}\label{tab:data}\input{03table02.txt}\end{minipage}\begin{minipage}{0.5\hsize}\caption{実験に使用したツール}\label{tab:tool}\input{03table03.txt}\end{minipage}\end{table}Enjuによって解析した語彙化構文木を文献\cite{Isozaki:12}の規則によって中間英語木へと変換した.削除した冠詞の挿入マークは,その冠詞を含む句の中で最も葉に近い非終端記号に付与した.冠詞を含む句の非終端記号がない場合,品詞に挿入マークを付与した.日本語の助詞挿入は文献\cite{Isozaki:12}に従って行った.提案手法の単語並べ替えモデルの学習は平均化パーセプトロン\cite{Collins:04}で行った.また,学習データの量が多いため,素性ハッシング\cite{Shi:09}を使って,素性計算を高速化した.提案手法,及び,比較手法での冠詞挿入によって``a/an''が挿入された場合,挿入位置の後ろに位置する単語の1文字目が母音の場合,anを挿入し,子音の場合,aを挿入して翻訳結果を出力した.日本語助詞は事後並べ替えの解析時には1単語として扱い,翻訳結果の出力時には全て取り除いた.\subsection{単語並べ替えに関する実験結果}\label{sec:exp_amb}提案手法の単語並べ替え性能を調べるため,全訓練データの中間英語木3,191,228文からランダムに300,000文を抽出し,並べ替えのための構文解析器を学習した.ただし,中間英語木において冠詞削除,及び,日本語助詞の挿入は行っておらず,ここでは並べ替えのみ(挿入アクションは用いない)を行うようにしている.なぜなら,冠詞削除や日本語助詞の挿入は翻訳時の単語アライメント性能向上を意図した操作であり,ここでは純粋に提案法の構文解析,及び,単語並べ替え性能を調べることが目的だからである.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f6.eps}\end{center}\hangcaption{学習のイテレーション回数と開発データに対するF値}\label{fig:comp}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f7.eps}\end{center}\hangcaption{学習のイテレーション回数と開発データに対するBLEUスコア}\label{fig:comp2}\end{minipage}\end{figure}図\ref{fig:comp}では提案法を学習したときの学習イテレーションと開発データに対するF値の関係,図~\ref{fig:comp2}にはBLEUスコア\cite{Papineni:02}との関係を示す.F値の計算はEVALB\footnote{http://nlp.cs.nyu.edu/evalb/}を用いて評価した\footnote{解析(品詞タグ付け)エラーによる文スキップを避けるため,性能は句読点も全て含めて評価した.}.``Base''は通常のビームサーチ,``DP''は動的計画法付きビームサーチ,``Hash''は第\ref{sec:amb}節で述べたハッシュテーブルによる枝刈りを表し,各システムはビーム幅12で訓練した.図\ref{fig:comp}と図\ref{fig:comp2}から,``DP''や``Hash''に比べて,``Base''による学習の効率が悪いことがわかる.図\ref{fig:comp3}と図\ref{fig:comp4}では``Base''のビーム幅を12,24,36にしたときの学習イテレーションと開発データに対するF値,及び,BLEUとの関係を示した.これから``Base''による学習は,``DP''や``Hash''よりもビーム幅を大きく設定しなければ,学習が円滑に行えないことがわかる.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f8.eps}\end{center}\hangcaption{``Base''法の学習時におけるビーム幅と開発データに対するF値の関係:テスト時のビーム幅は訓練時と同じに設定}\label{fig:comp3}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{21-5ia3f9.eps}\end{center}\hangcaption{``Base''法の学習時におけるビーム幅と開発データに対するBLEUスコアの関係:テスト時のビーム幅は訓練時と同じに設定}\label{fig:comp4}\end{minipage}\end{figure}\begin{table}[b]\caption{NTCIR-9テストデータに対する語順並べ替え,ITG構文解析性能と解析時間}\label{tab:f-m}\input{03table04.txt}\end{table}\begin{table}[b]\caption{非局所素性(nf.)による構文解析,及び,語順並べ替え性能への影響}\label{tab:re1}\input{03table05.txt}\end{table}表\ref{tab:f-m}は,NTCIR-9のテストデータの中間英語文を各システムによって解析したときのBLEU,RIBES\cite{Isozaki:10},構文解析性能(再現率,適合率,F値,文正解率),解析時間を示した.文献\cite{Goto:12}は論文から抜粋した数値を示す.Berkeley構文解析はデフォルト設定で学習し,6回の学習イテレーションを行った.結果からは,提案手法のうち``DP''法が他の手法に比べ,高い性能を達成できることがわかった.表\ref{tab:re1}では,表\ref{tab:feats}の非局所素性を全て取り除いた(nf.無し)モデルを学習し,nf.有りのモデルと比較した.実験結果からは,非局所素性が並べ替えの性能向上に寄与していることがわかる.表\ref{tab:re2}では,$k$-best出力時に,出力リストの中にどれだけの種類の文字列があるかを示す.表~\ref{tab:re2}には,テストデータに対して出力した各$k$-bestリスト中の文字列種類数の合計/$k$-bestリストサイズの合計を示し,分子の数が多い程,多様な並べ替え文字列を出力できることを意味する.例えば,``Base''法の$64$-bestリストには,3,4種類程度の並べ替え文字列しか存在せず,Berkeley構文解析でも同様に,同じ文字列を表す解析結果を大量に出力しているがわかる.一方,``Hash''法ではこれらの冗長な表現を排除し,多様な解析結果を出力できている.\begin{table}[t]\caption{$k$-bestリスト中に存在する文字列種類}\label{tab:re2}\input{03table06.txt}\end{table}以上の実験から,シフトリデュース法による単語並べ替え性能を向上させるには,SpuriousAmbiguityの問題に対処し,ビーム幅を効率的に活用することが極めて重要であることがわかった.よって,以下の翻訳実験では,提案法は全て``DP''法を用いて行う.``Hash''は``DP''よりも同じ文字列を多く排除できる一方で,文字列を動的に作り出す必要があり,計算コストが高い.``Hash''法のコスト削減や``DP''法との併用については,今後の課題である.\subsection{翻訳に関する実験結果}通常の日英翻訳器は,Mosesのdistortionlimitを0,6,12,20に設定し,言語モデルには訓練データの全英語文から学習した6-gram言語モデルを使用した.Mosesの学習はBLEUに対してMinimumerrorratetraining(MERT)\cite{Och:03}を行った.単語並べ替えによる翻訳実験では,学習データに中間英語木3,191,228文から抽出した中間英語文を使用し,日本語から中間英語文への翻訳モデルを作成した.中間英語文の言語モデルは6-gramまで学習し,Mosesのdistortionlimit(dist)は0に設定した.Mosesの学習はBLEUに対してMERTで行った.事後並べ替えは翻訳器から出力した中間英語文の1-bestを単語並べ替えモデルで元の英語文にし,評価を行った.表\ref{tab:mtresults}に提案手法と他の手法の実験結果を示す.表\ref{tab:mtresults}からは提案手法が文献\cite{Goto:12}のモデルを上回る性能を達成していることがわかる.文献\cite{Goto:12}の実験結果は我々の実験によるものではないが,実験に使用したツールやデータは同一のものであることを明記しておく.さらに,\ref{sec:sr}節で定義した非局所素性(nf.)を使ったモデル(nf.有り)と取り除いたモデル(nf.無し)を比較すると,非局所素性が有効であることがわかる.BLEUスコアを使って,有意水準5\%で2項検定を行ったところ,nf.無しモデルとnf.有りモデルには有意な差が確認された.また,非局所素性を使うことによる解析時間への影響も少ない.\subsection{実験結果の分析}提案手法では単語並べ替えと冠詞挿入を同時に行っているが,それらを同時解析することの利点を分析するため,様々なシステムとの比較を行った.NTCIR-9と-10のテストデータに対する実験結果は表\ref{tab:article}に示す.\begin{table}[b]\caption{システム比較}\label{tab:mtresults}\input{03table07.txt}\small解析時間は1文当たりの平均秒を示している.**は我々の実験によるものではなく,論文からの引用を意味する.\par\end{table}\begin{table}[b]\caption{単語並べ替えと冠詞挿入に関する各システムの精度比較}\label{tab:article}\input{03table08.txt}\smallJ-HFEは日本語から中間英語,J-Eは日本語から英語への翻訳を意味する.\par\end{table}\vspace{1\Cvs}\noindent\textbf{\underline{単語並べ替えと冠詞生成の同時処理の有効性(1.2.3.4.)}}2.の結果は1.の結果から冠詞を削除したときの性能を示している.冠詞を削除すると,BLEU評価尺度による翻訳精度が極端に落ちることがわかる.これはBLEUが$N$-gram単位で評価を行う尺度だからである.次に,3.の結果は,$N$-gram手法によって2.の翻訳文へ冠詞挿入を行ったときの結果を示している.$N$-gram手法は文献\cite{Goto:12}と同様の冠詞挿入手法を意味する\footnote{ここでは翻訳結果と6-gram言語モデルの有限状態トランスデューサを合成し,その結果から1bestを探索することで冠詞挿入を行った.有限状態トランスデューサには内製システムを利用した.}.この結果から,$N$-gram手法によって性能は向上するが,1.の同時解析ほどの性能は得られないことがわかる.提案手法と$N$-gram手法による翻訳結果を比較すると,提案手法の方が冠詞挿入を多く行っていることがわかった.$N$-gram手法では冠詞挿入を行う程,文が長くなるため,確率が小さくなり,なるべく短い文が選ばれてしまうためであると考察される.4.は,Mosesによって日英翻訳を行うとき,英語データから冠詞を削除し,翻訳結果出力後に$N$-gram手法で冠詞挿入した結果を示している.この結果から,単純に冠詞を後編集で挿入するだけでは,翻訳性能を改善できないことがわかる.\vspace{1\Cvs}\noindent\textbf{\underline{日英対訳データから冠詞を除去することの意味(1.5.)}}5.では,冠詞を英語文から削除せず,提案手法で単語並べ替えのみを行った結果を示している.このアプローチでは翻訳性能を向上させることができなかった.この理由は中間英語文で``thethethe''のように冠詞が連続して出現してしまうため,翻訳文にも不要な冠詞が出現してしまうからである.\vspace{1\Cvs}\noindent\textbf{\underline{Berkeley構文解析器との比較(1.2.3.6.7.)}}Berkeley構文解析器と提案手法を比較する.Berkeley構文解析器は提案手法と同様の500,000文を使って学習した.2.3.と6.7.の結果から,Berkeley構文解析器による単語並べ替え性能と提案手法による単語並べ替えの性能はほぼ同等であることがわかる.一方,1.と7.の結果に対して,BLEUスコアを使って,有意水準5\%で2項検定を行ったところ,それらには有意な差が確認できた.これは提案法の冠詞生成が$N$-gram冠詞生成法よりも高い精度であるためと言える.また,Berkeley構文解析器と提案手法の解析速度を比較すると,提案手法のビーム幅を156に設定したときにちょうど同程度の解析時間となる.さらに,提案手法は冠詞挿入も行っているのに対し,Berkeley構文解析器は$N$-gram手法による冠詞挿入を未だ行っていない時点での解析時間であり,提案法が従来法よりも効率的に動作することがわかる.
\section{関連文献}
事後並べ替え手法は須藤ら\cite{Sudoh:11}によって提案された.須藤らは日本語文から中間英語文への翻訳を行った後,再び機械翻訳によって中間英語文を英語文へと翻訳している.後藤らは中間英語文から英語文への並べ替えを構文解析によって行うことで,須藤らの手法を上回る精度を達成した.本稿でも同様に,構文解析によって事後並べ替えをモデル化した.提案法はシフトリデュース構文解析法を基盤にしており,単語並べ替えと冠詞生成を同時に処理する仕組みや非局所素性の導入を行うことで,精度と解析効率をさらに向上させた.これらの点から,提案法は後藤らの手法と明確に区別できる.文献\cite{Knight:94}では,機械翻訳の後編集において冠詞挿入を行うことの重要性を提唱し,英語文への冠詞挿入を決定木によって行った.後続的にいくつかの文献で英語文への冠詞挿入を機械学習によって解く手法が提案されているが\cite{Minnen:00,Turner:07},構文解析と冠詞挿入を同時に行う枠組みを提唱したのは,著者らの知る限り,本稿が初めてである.提案手法で採用したシフトリデュース構文解析法は様々な文法理論の構文解析に応用されている.例えば,依存文法\cite{Yamada:03,Nivre:03,Huang:10},文脈自由文法\cite{Sagae:06},組み合わせ範疇文法\cite{Zhang:11}などへの応用がある.シフトリデュース構文解析法を単一言語のITGへ応用した例は本稿が初めてである.
\section{まとめと今後の課題}
本稿では,シフトリデュース構文解析法をベースにした単語並べ替えと冠詞生成の同時逐次処理法を提案し,日英機械翻訳における事後並び替え問題に適用した.日英特許翻訳タスクを使った実験から,提案法は文献\cite{Goto:12}における事後並べ替え法の解析精度と効率の問題を改善できることがわかった.特に,解析効率の面では,理論上の計算量,及び,実際の解析速度において,従来法より優れることを示した.また,冠詞生成を単語並べ替えと同時にモデル化することが翻訳精度の向上につながることを示した.提案法は,本質的には事後並べ替えだけでなく,事前並べ替えにも適用可能である.ただし,文献\cite{Isozaki:12}の主辞後置変換規則を用いずに,モデルを学習するためのデータを作成する方法は自明ではない.よって,単語アライメントと構文木から単語並べ替え構文解析器の学習データを作るための手法開発が今後の課題である.また,提案手法は翻訳結果の$1$-bestに対して,動作する仕組みであったが,今後は多様な翻訳結果に対して動作させるため,翻訳ラティスを解析する仕組みに拡張することが課題となる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{Chiang:05}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-basedModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\263--270}.\bibitem[\protect\BCAY{Collins,Koehn,\BBA\Ku{\v{c}}erov{\'a}}{Collinset~al.}{2005}]{Collins:05}Collins,M.,Koehn,P.,\BBA\Ku{\v{c}}erov{\'a},I.\BBOP2005\BBCP.\newblock\BBOQClauseRestructuringforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\531--540}.\bibitem[\protect\BCAY{Collins\BBA\Roark}{Collins\BBA\Roark}{2004}]{Collins:04}Collins,M.\BBACOMMA\\BBA\Roark,B.\BBOP2004\BBCP.\newblock\BBOQIncrementalParsingwiththePerceptronAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPG\111}.\bibitem[\protect\BCAY{DeNero\BBA\Uszkoreit}{DeNero\BBA\Uszkoreit}{2011}]{DeNero:11}DeNero,J.\BBACOMMA\\BBA\Uszkoreit,J.\BBOP2011\BBCP.\newblock\BBOQInducingSentenceStructurefromParallelCorporaforReordering.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\193--203}.\bibitem[\protect\BCAY{Eisner\BBA\Satta}{Eisner\BBA\Satta}{1999}]{Eisner:99}Eisner,J.\BBACOMMA\\BBA\Satta,G.\BBOP1999\BBCP.\newblock\BBOQEfficientParsingforBilexicalContext-FreeGrammarsandHeadAutomatonGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe37stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\457--464}.\bibitem[\protect\BCAY{Galley,Graehl,Knight,Marcu,DeNeefe,Wang,\BBA\Thayer}{Galleyet~al.}{2006}]{Galley:06}Galley,M.,Graehl,J.,Knight,K.,Marcu,D.,DeNeefe,S.,Wang,W.,\BBA\Thayer,I.\BBOP2006\BBCP.\newblock\BBOQScalableInferenceandTrainingofContext-richSyntacticTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\961--968}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{Goto:10}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{Goto:09}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR},\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Goto,Utiyama,\BBA\Sumita}{Gotoet~al.}{2012}]{Goto:12}Goto,I.,Utiyama,M.,\BBA\Sumita,E.\BBOP2012\BBCP.\newblock\BBOQPost-orderingbyParsingforJapanese-EnglishStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--316}.\bibitem[\protect\BCAY{Graehl\BBA\Knight}{Graehl\BBA\Knight}{2004}]{Graehl:04}Graehl,J.\BBACOMMA\\BBA\Knight,K.\BBOP2004\BBCP.\newblock\BBOQTrainingTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL},\mbox{\BPGS\105--112}.\bibitem[\protect\BCAY{Huang\BBA\Chiang}{Huang\BBA\Chiang}{2007}]{Huang:07}Huang,L.\BBACOMMA\\BBA\Chiang,D.\BBOP2007\BBCP.\newblock\BBOQForestRescoring:FasterDecodingwithIntegratedLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingonAssociationforComputationalLinguistics},\lowercase{\BVOL}~45,\mbox{\BPG\144}.\bibitem[\protect\BCAY{Huang\BBA\Sagae}{Huang\BBA\Sagae}{2010}]{Huang:10}Huang,L.\BBACOMMA\\BBA\Sagae,K.\BBOP2010\BBCP.\newblock\BBOQDynamicProgrammingforLinear-timeIncrementalParsing.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1077--1086}.\bibitem[\protect\BCAY{Huang,Zhang,\BBA\Gildea}{Huanget~al.}{2005}]{huang-zhang-gildea:2005:IWPT}Huang,L.,Zhang,H.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQMachineTranslationasLexicalizedParsingwithHooks.\BBCQ\\newblockIn{\BemProceedingsoftheNinthInternationalWorkshoponParsingTechnology},\mbox{\BPGS\65--73}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{Isozaki:10}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagepairs.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\944--952}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2012}]{Isozaki:12}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2012\BBCP.\newblock\BBOQ{HPSG}-basedPreprocessingfor{English-to-Japanese}Translation.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf11}(3).\bibitem[\protect\BCAY{Knight\BBA\Chander}{Knight\BBA\Chander}{1994}]{Knight:94}Knight,K.\BBACOMMA\\BBA\Chander,I.\BBOP1994\BBCP.\newblock\BBOQAutomatedPosteditingofDocuments.\BBCQ\\newblockIn{\BemProceedingsoftheNationalConferenceonArtificialIntelligence},\mbox{\BPG\779}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,\BBA\Zens}{Koehnet~al.}{2007}]{Koehn:07}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,\BBA\Zens,R.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheACLonInteractivePosterandDemonstrationSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{Koehn:03}Koehn,P.,Och,F.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedtranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Li,Zhang,Che,Liu,Chen,\BBA\Li}{Liet~al.}{2011}]{Z-Li:11}Li,Z.,Zhang,M.,Che,W.,Liu,T.,Chen,W.,\BBA\Li,H.\BBOP2011\BBCP.\newblock\BBOQJointModelsforChinesePOSTaggingandDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1180--1191}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Minnen,Bond,\BBA\Copestake}{Minnenet~al.}{2000}]{Minnen:00}Minnen,G.,Bond,F.,\BBA\Copestake,A.\BBOP2000\BBCP.\newblock\BBOQMemory-basedLearningforArticleGeneration.\BBCQ\\newblockIn{\BemProceedingsofthe2ndworkshoponLearninglanguageinlogicandthe4thconferenceonComputationalnaturallanguagelearning-Volume7},\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Miyao\BBA\Tsujii}{Miyao\BBA\Tsujii}{2008}]{Miyao:08}Miyao,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQFeatureForestModelsforProbabilisticHPSGParsing.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\35--80}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre:03}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQAnEfficientAlgorithmforProjectiveDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponParsingTechnologies}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{Och:03}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics-Volume1},\mbox{\BPGS\160--167}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och:03:sys}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationallinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni:02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thannualmeetingonassociationforcomputationallinguistics},\mbox{\BPGS\311--318}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Petrov\BBA\Klein}{Petrov\BBA\Klein}{2007}]{Petrov:07}Petrov,S.\BBACOMMA\\BBA\Klein,D.\BBOP2007\BBCP.\newblock\BBOQImprovedInferenceforUnlexicalizedParsing.\BBCQ\\newblockIn{\BemHumanlanguagetechnologies2007:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\404--411}.\bibitem[\protect\BCAY{Sagae\BBA\Lavie}{Sagae\BBA\Lavie}{2006}]{Sagae:06}Sagae,K.\BBACOMMA\\BBA\Lavie,A.\BBOP2006\BBCP.\newblock\BBOQABest-firstProbabilisticShift-reduceParser.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACLonMainConferencePosterSessions},\mbox{\BPGS\691--698}.\bibitem[\protect\BCAY{Shi,Petterson,Dror,Langford,Smola,\BBA\Vishwanathan}{Shiet~al.}{2009}]{Shi:09}Shi,Q.,Petterson,J.,Dror,G.,Langford,J.,Smola,A.,\BBA\Vishwanathan,S.\BBOP2009\BBCP.\newblock\BBOQHashKernelsforStructuredData.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},\mbox{\BPGS\2615--2637}.\bibitem[\protect\BCAY{Stolcke,Zheng,Wang,\BBA\Abrash}{Stolckeet~al.}{2011}]{Stolcke:11}Stolcke,A.,Zheng,J.,Wang,W.,\BBA\Abrash,V.\BBOP2011\BBCP.\newblock\BBOQSRILMatSixteen:UpdateandOutlook.\BBCQ\\newblockIn{\BemProceedingsofIEEEAutomaticSpeechRecognitionandUnderstandingWorkshop}.\bibitem[\protect\BCAY{Sudoh,Wu,Duh,Tsukada,\BBA\Nagata}{Sudohet~al.}{2011}]{Sudoh:11}Sudoh,K.,Wu,X.,Duh,K.,Tsukada,H.,\BBA\Nagata,M.\BBOP2011\BBCP.\newblock\BBOQPost-orderinginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofMTSummit}.\bibitem[\protect\BCAY{Tromble\BBA\Eisner}{Tromble\BBA\Eisner}{2009}]{Tromble:09}Tromble,R.\BBACOMMA\\BBA\Eisner,J.\BBOP2009\BBCP.\newblock\BBOQLearningLinearOrderingProblemsforBetterTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing:Volume2},\mbox{\BPGS\1007--1016}.\bibitem[\protect\BCAY{Turner\BBA\Charniak}{Turner\BBA\Charniak}{2007}]{Turner:07}Turner,J.\BBACOMMA\\BBA\Charniak,E.\BBOP2007\BBCP.\newblock\BBOQLanguageModelingforDeterminerSelection.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies2007:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics;CompanionVolume,ShortPapers},\mbox{\BPGS\177--180}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Wu}{Wu}{1997}]{Wu:97}Wu,D.\BBOP1997\BBCP.\newblock\BBOQStochasticInversionTransductionGrammarsandBilingualParsingofParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(3),\mbox{\BPGS\377--403}.\bibitem[\protect\BCAY{Yamada\BBA\Matsumoto}{Yamada\BBA\Matsumoto}{2003}]{Yamada:03}Yamada,H.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQStatisticalDependencyAnalysiswithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponParsingTechnologies},\lowercase{\BVOL}~3.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2008}]{Y-Zhang:08}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2008\BBCP.\newblock\BBOQATaleofTwoParsers:InvestigatingandCombiningGraph-basedandTransition-basedDependencyParsingusingBeam-Search.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\562--571}.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2011}]{Zhang:11}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2011\BBCP.\newblock\BBOQShift-reduceCCGParsing.\BBCQ\\newblockIn{\BemProceedingsofthe49thMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\683--692}.\end{thebibliography}\begin{biography}\bioauthor{林克彦}{2013年,奈良先端科学技術大学院大学博士後期課程修了.現在,NTTコミュニケーション科学基礎研究所に所属.博士(工学).構文解析,機械翻訳に関する研究に従事.ACL,情報処理学会,言語処理学会各会員.}\bioauthor{須藤克仁}{2000年,京都大学工学部卒業.2002年,同大大学院情報学研究科修士課程修了.同年,日本電信電話株式会社入社.音声言語処理,統計的機械翻訳に関する研究に従事.ACL,情報処理学会,言語処理学会,日本音響学会各会員.}\bioauthor{塚田元}{1987年,東京工業大学理学部情報科学科卒業.1989年,同大学院理工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所に所属.統計的機械翻訳の研究に従事.ACL,電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,日本音響学会各会員.}\bioauthor{鈴木潤}{2001年,慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.同年,日本電信電話株式会社入社.2005年奈良先端大学院大学博士後期課程修了.2008〜2009年MITCSAIL客員研究員.現在,NTTコミュニケーション科学基礎研究所に所属.博士(工学).主として自然言語処理,機械学習に関する研究に従事.ACL,情報処理学会,言語処理学会各会員.}\bioauthor{永田昌明}{1987年,京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学研究所主幹研究員(上席特別研究員).博士(工学).統計的自然言語処理の研究に従事.ACL,電子情報通信学会,情報処理学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
| |
V22N03-03
|
\section{はじめに}
抽出型要約は現在の文書要約研究において最も広く用いられるアプローチである.このアプローチは,文書をある言語単位(文,節,単語など)の集合とみなし,その部分集合を選択することで要約文書を生成する.要約システムに必要とされる側面はいくつかあるが,特に重要なのが,一貫性(coherence)\cite{hobbs85,mann:88}と情報の網羅性が高い要約を生成することと,要約長に対し柔軟に対応できることである.一貫性の高い要約とは,原文書の談話構造(あるいは論理構造)を保持した要約を指す.要約が原文書の談話構造を保持していない場合,原文書の意図と異なる解釈を誘発する文書が生成されてしまうおそれがある.すなわち,原文書と似た談話構造を持つように要約文書を生成することは,要約を生成するために重要な要素である\footnote{原文書は常に一貫性を持った文書であることを仮定している.}.要約文書において談話構造を考慮するために修辞構造理論(RhetoricalStructureTheory;RST)\cite{mann:88}が利用可能である.RSTは文書の大域的な談話構造を木として表現するため,RSTの木構造を損なわぬように原文書中の抽出単位を選択することで,原文書の談話構造を保持した要約文書が生成できる\cite{marcu:98,daume:02,hirao:13}.従来のRSTを抽出型要約に組み込む従来の手法の問題点は,その抽出粒度にある.RSTで扱う文書中の最小単位はElementaryDiscourseUnit(EDU)と呼ばれ,おおよそ節に対応するテキストスパンである.従来手法は,抽出の単位をEDUとして要約の生成を行ってきたが,それが要約において必ずしも最適な単位であるとは限らない\footnote{これについては\ref{sec:unit}節で考察する.}.また,本節で後に説明するように,それなりの長さを持ったテキストスパンを抽出単位とする場合,要約長に対する柔軟性の面でも問題が生じる.情報の網羅性は,文書要約の目的そのものでもある非常に重要な要素である.要約文書は原文書の内容を簡潔にまとめている必要があり,原文書の重要な内容を網羅していることが要求される.近年,抽出型要約において,原文書から重要な抽出単位の部分集合を選択する問題を整数計画問題(IntegerLinearProgramming;ILP)として定式化するアプローチが盛んに研究されている.抽出された部分集合が原文書の情報をなるべく被覆するような目的関数を設定し,最適化問題として解くことで,原文書の情報を網羅した要約文書の生成が可能となる.実際にこれらの手法は要約文書の情報の網羅性の指標となる自動評価手法であるROUGE(Recall-OrientedUnderstudyforGistingEvaluation)\cite{lin:04}値の向上に大いに貢献してきた\cite{mcdonald:07,filatova:04,takamura:09}.RSTを要約に組み込む研究の多くはRSTで定義される修辞構造の構造木をそのまま利用したものが多かった\cite{marcu:98,daume:02}が,Hiraoら\cite{hirao:13}は,RSTの談話構造木をそのまま用いることの問題点を指摘し,EDUの依存構造木(DEP-DT)に変換し,依存構造木の刈り込みにより要約を生成する木制約付きナップサック問題\cite{johnson:83}として要約を定式化した.ILPの導入によって,高い網羅性を持った要約の生成が可能となった一方で,要約手法が持つ要約長に対する柔軟性は,情報の網羅性と密接な関係をもつようになった.文書要約では,要約文書が満たすべき上限の長さを指定することが一般的である.抽出型要約においてよく用いられる抽出単位は文であり,生成された要約の文法性が保証されるという利点がある.しかし,高い圧縮率,すなわち原文書の長さと比較して非常に短い長さの要約文書が求められている場合,文を抽出単位とすると十分な量の情報を要約文書に含めることが出来ず,情報の網羅性が低くなってしまうという問題\footnote{これは上述の通り,RSTに基づくEDUを抽出単位とした手法も同様である.EDUは文よりは細かいとはいえ,固定された抽出単位としてはかなり粗いテキストスパンである.}があった.この問題に対し,文抽出と文圧縮を組み合わせるアプローチが存在する.文圧縮とは,主に単語や句の削除により,対象となる文からより短い文を抽出する手法である.近年,こうした文圧縮技術と文抽出技術を逐次適用するのではなく,それらを同時に行うアプローチ(以降これらを同時モデルとよぶ)が盛んに研究されており,高い情報の網羅性と要約長への柔軟性を持った要約文書の生成が可能となっている.本研究の目的は,文書の談話構造に基づく,情報の網羅性と要約長への高い柔軟性を持った要約手法を開発することである.これまで,文書要約に談話構造を加える試みと,文抽出と文圧縮の同時モデルは,どちらも文書要約において重要な要素であるにもかかわらず,独立に研究されてきた.その大きな要因の一つは,両者の扱う抽出粒度の違いである.前者はEDUであり,後者の抽出粒度は文(圧縮され短くなった文も含む)である.抽出単位を文やEDUというそれなりの長さのテキストスパンにすると,ある要約長制約に対し,選択可能なテキストスパンの組合せは自ずと限られ,情報の網羅性を向上させることが困難な場合がある.我々は,文間の依存関係に基づく木構造と単語間の依存関係に基づく木構造が入れ子となった{\bf入れ子依存木}を提案し,その木構造に基いて要約を生成することでこの問題に取り組む.提案手法について,図\ref{fig:nested_tree}に示す例で説明する.本研究で提案する入れ子依存木は,文書を文間の依存関係で表した{\bf文間依存木}で表現する.文間依存木のノードは文であり,文同士の依存関係をノード間のエッジとして表現する.各文内では,文が単語間の依存関係に基づいた{\bf単語間依存木}で表現されている.単語間依存木のノードは単語であり,単語同士の依存関係をノード間のエッジとして表現する.このように,文間依存木の各ノードを単語間依存木とすることで,入れ子依存木を構築する.そして,この入れ子依存木を刈り込む,つまり単語の削除による要約生成をILPとして定式化する.生成された要約は,文間依存木という観点では必ず文の根付き部分木となっており,その部分木内の各文内,すなわち単語間依存木の観点では単語の部分木となっている.ここで,文間依存木からは必ず木全体の根ノードを含んだ根付き部分木が抽出されているのに対し,単語間依存木はそうでないものも存在することに注意されたい.従来,文圧縮を文書要約に組み込む研究では,単語間依存木の場合も必ず根付き部分木が選択されていたが,限られた長さで重要な情報のみを要約に含めることを考えると,単語の根付き部分木という制約が情報の網羅性の向上の妨げとなる可能性がある.そこで提案手法では,根付きに限らない任意の部分木を抽出するために,部分木の親を文中の任意の単語に設定できるよう拡張を加えた.\begin{figure}[t]\begin{center}\includegraphics{22-3ia3f1.eps}\end{center}\hangcaption{提案手法の概要.原文書は二種類の依存木に基づく入れ子依存木として表現される.提案手法は,文間依存木からは根付き部分木,その各ノードは単語間依存木の部分木となっているように単語を選択することで要約を生成する.}\label{fig:nested_tree}\end{figure}提案手法をRSTDiscourseTreebank\cite{carlson:01}における要約システムの評価セットで従来の同時モデルや木制約付きナップサック問題による要約手法と比較評価したところ,文書要約の自動評価指標であるROUGEにおいて最高精度が得られることを確認した.
\section{関連研究}
現在の抽出型要約の主流である文抽出,文圧縮の同時モデルでは,与えられた文書(群)から,文を単語間依存木として表現し,その根付き部分木を刈り込む,すなわち単語を削除することで要約を生成する.また,これをILPとして定式化する研究が盛んに行われている\cite{almeida:13,liu:13,morita:13,gillick:09}.しかし,文から抽出する単語列を単語依存木の根付き部分木に限ると高圧縮な要約設定において情報の網羅性が低下するおそれがある\footnote{ただし,単一の文に対し明示的に圧縮率が与えられる文圧縮タスクだけに限れば,文に複数の根を与える手法も存在する\shortcite{filippova:08}.}.さらに,これらの同時モデルでは文書が持つ談話構造を考慮しないため,情報の網羅性が高く自動評価指標のROUGEにおいて高い値を得ることができるが,一貫性に欠けた要約が生成されてしまうという欠点がある.また,同時モデルにおける文圧縮の手段として,文を依存構造木ではなく句構造木として表現し,その部分木を抽出する手法も提案されている\cite{li:14,lu:13,kirkpatrick:11}.句構造木は連続した単語列の文法的な役割を階層構造として表現した木であるため,この木を刈り込む際には連続した単語列(句)を同時に削除することが多くなる.よって,依存構造木を用いた刈り込みと比較すると要約長に柔軟な刈り込みが難しい.一方,一貫性をもった要約を生成する手法としてRSTを利用した手法が提案されている.Daum{\'e}IIIandMarcuは,RSTを利用したNoisy-channelモデルに基づく文書圧縮手法を提案した\cite{daume:02}.彼らの手法は一貫性を持った要約の生成が可能であるが,情報の網羅性という観点で最適解が得られるとは限らない.また適切な確率を計算するために大量のコーパスを必要とする上に,計算量の問題で長い文書に適用できないという欠点があった.Marcuは,RSTの構造を利用してEDUの順位を決定し,ランキング上位のEDUを要約として抽出した\cite{marcu:98}.Uz\^{e}daらは,Marcuの手法を含む合計6つの手法を組み合わせる手法を提案し,オリジナルの手法との比較評価を行った\cite{uzeda:10}.\ref{sec:rouge}節では彼らの報告にある数値も参考値として載せている.Marcuらの手法を含むEDUのランキングに基づく手法は,十分な情報の網羅性が保証されないという欠点がある.Hiraoらはこれを解決するため,EDUの依存木を構築し,その依存関係に基づいてEDUを選択する問題を木制約付きナプサック問題として定式化した\cite{hirao:13}.これらの手法はRSTにおけるテキストの最小単位であるEDUをそのまま抽出単位としていたが,EDUが文書要約においても適切な抽出単位であるかについては,要約長に対する柔軟性の面で疑問が残る.EDUは文よりも短いとはいえそれなりの長さを持ったテキストスパンである.そのため,要約に含める情報の組み合わせの自由度は比較的低く,かつEDUのようなテキストスパンを対象とした構文解析器がないため,文圧縮のような技術が適用できない.これに関しては\ref{sec:unit}節で評価実験結果をふまえて考察を行う.Hiraoらの手法は提案手法に最も強く関連している.両者の違いは,Hiraoらの手法がEDUをノードとする依存木からEDUを選択する要約手法であることに対し,提案手法は文間の依存関係と単語間の依存関係が入れ子構造を成す木から単語を選択する要約手法であるという点である.また,文重要度の決定に貢献する特徴を調べた文献\cite{louis:10}でも,RSTの有効性が示されている.これまで,文書の(大域的な)談話構造を利用した要約手法について紹介したが,隣接した文同士のつながりを評価し,文の局所的な並びを最適にすることに取り組む研究も存在する\cite{nishikawa:10,christensen:13}.これらの方法では,修辞構造解析器を必要としないため,論理構造が明確でなく自動解析の精度が期待できない文書においては有効である.一方で,文書の大域的な談話構造を考慮した要約生成はできない可能性がある.
\section{入れ子依存木の刈り込みによる要約文書生成}
本研究の目的は,要約文書の一貫性と情報の網羅性が高く,かつ要約長に柔軟な要約手法を提案することである.要約としての一貫性と要約長への柔軟性を獲得するために文書を入れ子依存木として表現し,入れ子依存木から要約文書を生成する問題を整数計画問題として定式化することで高い情報の網羅性を持った要約生成を行う.本節では,入れ子依存木の構築についての詳細と,ILPでの定式化について説明する.\subsection{修辞構造理論}\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f2.eps}\end{center}\hangcaption{RSTによる文書の表現.$\mathrm{EDU}_\text{1--10}$は具体的なテキストになっており,おおよそ節に相当する.隣り合ったテキストスパンは再帰的に修辞関係により関連付けられており,最終的に文書全体で木構造を構成する.NとSはそれぞれ核と衛星に対応し,間に書かれたラベルがそれらの間の修辞関係である.}\label{fig:rstdt}\end{figure}修辞構造理論(RhetoricalStructureTheory;RST)\cite{mann:88}は,文書の談話構造を表現するために提案された理論である.文書をEDUに分割し,連続したEDU同士(あるいは,複数のEDUをつなぎあわせたテキストスパン)を修辞関係で関連付けることで,談話構造木を構築する.構築される木は,終端ノードがEDU,非終端ノードが子ノード間の修辞関係をラベルに持つ木構造で表現される.図\ref{fig:rstdt}に,談話構造木の例を示す.図において二つの非終端ノードの間に書かれているラベルがそのノード間の修辞関係である.具体的には例示,補足,背景などの関係により,テキストスパン同士がどのような関係にあるかを表現する.今回用いたコーパスでは合計で89種類の修辞関係が存在した.また,修辞関係と共に各テキストスパンには核(Nuclear)か衛星(Satellite)のいずれかのラベルが付与される.核はその修辞関係において中心的な役割を担い,衛星は補助的な役割を持つ.例えば補足という修辞関係では,補足される方のテキストスパンが核であり,その内容を具体的に補足したテキストスパンが衛星となる.図においては,各非終端ノードのNとSがそれぞれ核と衛星を表している.なお,図\ref{fig:rstdt}の$\ast$のように,複数の核からなる多核(multinucleus)という性質を持った修辞関係も存在する.\subsection{入れ子依存木の構築}\label{sec:build_tree}\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f3.eps}\end{center}\hangcaption{依存構造に変換された文書の修辞構造.(1)HiraoらによるEDU間の依存関係を表したDEP-DTであり,図\ref{fig:rstdt}の木構造を変換したもの.なお,multinucleusの関係を持つテキストスパンを成す$\text{EDU}_4$と$\text{EDU}_5$はそれぞれ独立に一つ上の核である$\text{EDU}_3$に依存している.(2)本研究で用いる文間依存木.HiraoらのDEP-DTを変換したもの.}\label{fig:deptrees}\end{figure}Hiraoら\cite{hirao:13}はRSTの木構造を変換することで依存構造に基づくDEP-DTを構築した.DEP-DTは,EDU間の依存関係を直接表現しており,この依存木を刈り込むことで一貫性を保った要約が生成できる.図\ref{fig:deptrees}に,図\ref{fig:rstdt}の木構造から変換されたDEP-DTと本研究で用いる文間依存木を示す.Hiraoらの用いたDEP-DTは,EDUをノードとするものであったが,本研究では文間の関係をとらえた同時モデルのため,これを文をノードとした依存木へと変換する.具体的には,同じ文に属するEDU集合をまとめ,文内の親となっているEDUの依存先を,その文の依存先として採用する.依存先のEDUは他の文に属しているため,この変換規則により,文間の依存関係を持った木構造(文間依存木)を取得することができる.次に文間依存木の各ノードとなる文に対し依存構造解析を行い,単語間の依存構造(単語間依存木)を獲得する.以上の処理により,文書が文の係り受け木,各文内では単語の係り受け木により構成された{\bf入れ子依存木}を構築する.本研究では,この入れ子依存木から不要な単語を刈り込むことで要約文書を生成する.\subsection{整数計画問題による定式化}\label{sec:ilp}入れ子依存木からの単語の削除による要約文書の生成は,整数計画問題として定式化できる.具体的には,ある目的関数のもと,文間依存木の根付き部分木,根付き部分木中の各文は単語間依存木の(任意の)部分木となるように単語を選択することで要約を生成する.提案手法は次の整数計画問題で定式化できる.\begin{eqnarray}\text{max.}&\displaystyle\sum_{i}^n\sum_{j}^{m_i}w_{ij}z_{ij}\nonumber\\\text{s.t.}&\sum_{i}^n\sum_{j}^{m_i}z_{ij}\leqL;&\label{st_length}\\&x_{i}\geqz_{ij};&\foralli,j\label{st_word_in}\\&x_{\text{parent}(i)}\geqx_i;&\foralli\label{st_sent_dep}\\&z_{\text{parent}(i,j)}+r_{ij}\geqz_{ij};&\foralli,j\label{st_word_dep}\\&r_{ij}+z_{\text{parent}(i,j)}\leq1;&\foralli,j\label{st_r_is_top}\\&\sum_{j=0}^{m_i}r_{ij}=x_i;&\foralli\label{st_one_root}\\&r_{ij}\leqz_{ij};&\foralli,j\label{st_r_with_z}\\&\sum_{j\notinR_c(i)}r_{ij}=0;&\foralli\label{st_only_rc}\\&r_{i\text{root}(i)}=z_{i\text{root}(i)};&\foralli\label{st_prs_root}\\&\sum_{j=0}^{m_i}z_{ij}\geq\text{min}(\theta,m_i)x_i;&\foralli\label{st_s_has_w}\\&\sum_{j\in\text{sub}(i)}z_{ij}\geqx_i;&\foralli\label{st_has_sub}\\&\sum_{j\in\text{obj}(i)}z_{ij}\geqx_i;&\foralli\label{st_has_obj}\\&x_i\in\{0,1\};&\foralli\\&z_{ij}\in\{0,1\};&\foralli,j\\&r_i\in\{0,1\};&\foralli\label{fig:model}\end{eqnarray}$n$は対象とする原文書に含まれる文数であり,$m_i$は文$i$の単語数である.$w_{ij}$は単語$ij$($i$番目の文における$j$番目の単語)の重みである.$x_i$は,文$i$を要約に含めるときに1となる決定変数であり,$z_{ij}$は,単語$ij$を要約に含めるときに1となる決定変数である.目的関数は,要約に含まれた単語の重みの総和であり,この関数を最大にするように単語を選択する.式(\ref{st_length})は,要約として選択される単語数が$L$以下であることを保証するための制約式である.式(\ref{st_word_in})は要約に含まれていない文中の単語を要約に含めてしまうことを防ぐための制約式である.式(\ref{st_sent_dep})は文間依存木から文を選択する時に,その木構造を保つことを保証する.これは文間依存木からは必ず根を含む根付き部分木が選択されることを意味する.$parent(i)$は,文間依存木において文$i$の親となる文のインデックスを返す関数である.式(\ref{st_word_dep})から式(\ref{st_prs_root})には決定変数$r_{ij}$が含まれている.$r_{ij}$は,単語$ij$を根とした部分木を要約文書に含める場合に1となる.式(\ref{st_word_dep})は,単語間依存木から単語を選ぶ場合,その木構造を保つことを保証する.ただし,単語間依存木の根以外の単語${ij}$を根として部分木を抽出する場合は,その単語${ij}$には必ず親となる単語$parent(i,j)$が存在する.その状況では$z_{ij}$が1のまま$z_{parent(i,j)}$を0にすることが許容されなければならず,それを可能とするのが左辺第二項の$r_{ij}$である.なお,$parent(i,j)$は,文$i$に対応する単語間依存木において,単語$ij$の親となる単語のインデックスを返す関数である.ただし,このままでは,$z_{parent(i,j)}$と$r_{ij}$のどちらも1である場合も許容されてしまうため,2つの変数が同時に1となることを制限するための制約式(\ref{st_r_is_top})を追加する.同様に,このままでは$r_{ij}$のみが1となっている場合も許容されてしまう.$r_{ij}$が1である場合はその単語$ij$は必ず要約に含まれなければならないため,制約式(\ref{st_r_with_z})を追加することで対処する.本研究では文$i$が要約に含まれる場合($x_i$=1)は,そこから抽出される部分木は高々一つであるとしている.そこで,式(\ref{st_one_root})により,一つの文から複数の部分木(の根)が生じることを制限している.また,文$i$における単語間依存木の根に相当する単語($\text{root}(i)$)に関しては,根付き部分木を抽出する場合,すなわち$r_{\text{root}(i)}$が1であるときのみ要約に含めることを保証する必要があり,そのため制約式(\ref{st_prs_root})を追加している.冒頭で述べた通り,本研究では単語間依存木から部分木を抽出する際は,根となり得るのは文中の動詞と,単語間依存木全体の根となる単語に限っている.そこで,それ以外の単語が根となることを防ぐことを保証するため,制約式(\ref{st_only_rc})を追加する.ここで,$R_c(i)$は文$i$中で根の候補となる単語,すなわち動詞のインデックス集合を返す関数である.式(\ref{st_s_has_w})は,文(に対応する単語間依存木の部分木)を要約に含めるための最低の単語数を規定するための制約式である.これは,単語の削除により木を刈り込むという手法の性質上,極端に短く刈ってしまうと非文になる可能性が高くなることを防ぐ目的がある.また,要約を最適化問題としてモデル化しているので,目的関数を最大化するために要約長の限界まで単語を選択しようとして,刈り込みを無制限に許容すると,極端な例では1単語からなる部分木を選択してしまうため,それを防ぐための制約である.式(\ref{st_has_sub})は,部分木を抽出する際は必ず一つ以上の主語を含むことを保証する制約である.同様に式(\ref{st_has_obj})は,目的語を一つ以上含むことを保証する制約である.ここで,$sub(i)$と$obj(i)$は,それぞれ文$i$中の単語のうち係り受けラベルが主語,目的語である単語のインデックス集合を返す関数である.提案手法の文圧縮が単語間依存木の刈り込みに基づいている以上,その操作により非文が生成されてしまう可能性がある.ここで,非文となる部分木の生成を避けるための二種類の追加的な制約を導入する.一つ目の制約式は単語対に対するものである:\begin{equation}z_{ik}=z_{il}.\label{st_equal}\end{equation}式(\ref{st_equal})は.単語$ik$と単語$il$は必ず同時に要約に含まれることを保証する.これは,片方だけを要約に含めてしまう場合に非文となってしまうような組に対して定義される.具体的には,係り受けタグがPMOD\footnote{前置詞とその子の単語の間の関係.},VC\footnote{過去分詞形や現在進行形など,動詞が連続する時のそれらの動詞間の関係.}である単語とその親の単語,否定詞とその親の単語,係り受けタグがSUBあるいはOBJである単語とその親となっている動詞,形容詞の比較級(JJR)あるいは最上級(JJS)とその親の単語,冠詞とその親の単語,``to''とその親の単語である.二つ目の制約式は単語列に対するものである:\begin{equation}\sum_{k\ins(i,j)}z_{ik}=|s(i,j)|z_{ij}.\label{st_span}\end{equation}式(\ref{st_span})は単語の集合に対し,集合中のいずれかの単語を要約に含めるとき,集合中の他の全ての単語も要約に含めることを保証する制約である.具体的には,固有名詞列(品詞タグがPRP\%,WP\%あるいはPOSのいずれかである単語列)や,所有格とその係り先の単語,その間に含まれる全ての単語列である.ここで,$s(i,j)$は,単語$ij$と,例に上げた関係にある単語インデックスの集合を返す関数である.\vspace{-0.3\Cvs}
\section{評価実験}
\vspace{-0.5\Cvs}\subsection{実験設定}提案手法の有効性を示すために評価実験を行った.実験にはRSTDiscourseTreebank(RST-DTB)\cite{carlson:01}に含まれる要約評価用のテストセットを用いた.RST-DTBはPennTreebankコーパスの一部の文書(WallStreetJournalから収集された385記事)からなるコーパスであり,RSTに基づく木構造が人手で付与されている.さらにその内30記事について,人手で作成された要約文書(参照要約)が存在しており,それらの文書を評価用テストセットとした.実験に用いたすべての文書は,PennTokenizerによりトークンに区切った.要約システムの入力となる要約長は,参照要約の有するトークン数とした.テストセットに含まれる30記事の参照要約には,平均して原文書の25\%程度の長さの{\bflong}要約と,平均して原文書の10\%程度の長さの{\bfshort}要約の二種類が存在する.本実験では両方のテストセットについて先行研究との比較を行う.評価尺度としてはROUGE(Recall-OrientedUnderstudyforGistingEvaluation)\cite{lin:04}を用いる\footnote{評価スクリプト実行時のオプションは,ROUGE-1では``-a-m-s-n1-x'',ROUGE-2では``-a-m-s-n2-x''である.また,stopwordを含めた評価では``-s''を削除する.}.抽出粒度の妥当性について検証するため,比較手法としてEDUを単位とした木制約付きナップサック問題による要約手法\cite{hirao:13}と,文を単位とする木制約付きナップサック問題による要約手法を用意した.また,単一文書要約において強力なベースラインとなるLEAD法との比較も行った.LEAD法は,要約長に達するまで文書の冒頭から抽出単位を選択していくことで要約文書を生成する手法である.本稿ではEDUを抽出単位とするLEAD$_\text{EDU}$と,文を抽出単位とするLEAD$_\text{snt}$との比較を行う.さらに,提案手法において文(単語間依存木)から部分木を抽出する際に根付き部分木に制限する手法({\bf根付き部分木抽出})も用意し,任意の部分木を抽出対象とする提案手法({\bf任意部分木抽出})との比較を行った.本実験に用いたすべての文間依存木は,RST-DTBで人手付与されたRST構造を利用しており談話構造解析器は利用していない.考察において,談話構造解析器を用いた追加実験を行い,精度の変化について考察する.また,単語依存木はSuzukiらの提案した依存構造解析手法\cite{suzuki:09}を用いて構築した.なお,本実験では,単語の重要度$w_{ij}$として以下を用いた:\begin{equation}w_{ij}=\frac{log(1+tf_{ij})}{depth(i)^2}.\end{equation}$tf_{ij}$は文書における単語$w_{ij}$の単語頻度であり,$depth(i)$は,文書の文間依存木における文$x_i$の根からの深さである.また,制約(\ref{st_s_has_w})における$\theta$は8とした.\subsection{結果と考察}\subsubsection{ROUGEによる比較}\label{sec:rouge}表\ref{tab:results}に,各手法によるROUGE-1,2値を示す.まず,short要約,long要約セット双方において,提案手法である任意部分木抽出と根付き部分木抽出の間にROUGE値の顕著な差はみられなかった.これについては\ref{sec:subtree}節において,両手法が抽出した実際の部分木を例に定性的な考察を行う.以下では,任意部分木を提案手法とし,他の手法との比較を行う.また,表\ref{tab:results}の下3行はUz\^{e}daらによる比較実験の結果から一部の数値を引用している\footnote{\protect具体的には\cite{uzeda:10}で報告されている結果のうち,本実験に最も条件が似ているもの(TableIIの最左のカラム)の数値を引用している.}.ここで,Marcu$_\text{ours}$(0.432)とMarcuetal.(0.440)は,どちらも\cite{marcu:98}の手法による結果を示している.前者は我々による再実装の数値であり,後者は\cite{uzeda:10}において報告されていた数値である.数値が異なるのはトークナイゼーションなどの前処理の違いによるものであると考えられるが,Uz\^{e}daらの文献に前処理の詳細がないため,完全な比較とはならないことに注意されたい.とはいえ,両者の数値に大きな差異はないことから,ほぼ同じ実験条件での数値であると判断した.\begin{table}[t]\caption{各手法によるshort要約セットおよびlong要約セットにおけるROUGE-1,2値}\label{tab:results}\input{03table01.txt}\end{table}まず,short要約セットのstopwordを除去した条件(最も左のカラム)において,提案手法の評価値はホルム法による多重比較の結果,他の全ての手法を有意に上回っていることを確認した.個別の手法と比較すると,文選択手法すなわち文圧縮を一切行わない手法と比較すると,提案手法が大幅に上回っている事がわかる.これは,文をそのまま抽出する場合は,今回の要約設定(平均圧縮率が約10\%)では十分に情報を網羅できないことを示している.次に,EDU選択手法と比較しても提案手法が上回っている.EDU選択は文選択を有意に上回っていることから,文よりも細かいEDUを抽出粒度とすることで,要約文書の情報の網羅性を高めることができている.しかし,EDUという予め決められた長さのテキストスパンを抽出する手法よりも,部分木という可変長のテキストスパンを抽出できる提案手法の方がROUGE値は上回っており,その有効性がわかる.LEAD法は,報道記事の単一文書要約問題において非常に強力なベースラインである.これは,報道記事ではしばしば記事の冒頭でその記事全体の小さなまとめが書かれる傾向にあるためである.今回の実験では抽出単位の異なる二種類のLEAD法を用いたが,いずれも低い数値となった.これは要約対象となっている文書が,単純な報道記事ではなく,エッセイや社説によって構成されているためであり,冒頭に重要なまとめが記載されているわけではないことが原因である.一方,long要約セットでは,提案手法とEDU選択手法との間に顕著な差は見られなかった.これは,25\%という圧縮率が比較的緩く,いずれの手法,抽出単位でもある程度の情報が網羅できるために大きな差が生まれなかったためである.ただし,文を抽出単位とした手法(文選択およびLEAD$_{snt}$)のROUGEスコアは低いことから,情報網羅性の向上のためには,文よりも小さいテキストスパンを抽出することが重要であるとわかる.以上の結果から,提案手法のような要約長に柔軟な要約手法は,short要約セットのように比較的圧縮率の高い設定において有効であることがわかる.\subsubsection{修辞構造の自動解析による精度の変化}表\ref{tab:results}の実験結果は,人手で与えられたRSTに基づく修辞構造を用いていた.提案手法を任意の文書に適用する場合,文書の修辞構造を自動で解析する解析器が必須である.しかし,修辞構造の自動解析は難しいタスクの一つであり,人手で付与された談話構造を使用したときと比較して精度が劣化してしまうおそれがある.そこで本節では,既存の修辞構造解析器を用いて自動で解析した修辞構造を利用した場合の精度の変化を調べる.今回の実験では自動解析器として,サポートベクターマシンに基づく高い精度を持った解析器であるHILDA\cite{duverle09,hilda}を用いた.表\ref{tab:results_auto}に実験結果を示す.$_\text{HILDA}$と付いている行が,自動解析に基づく依存木を使用した場合の結果である.結果から,いずれの手法も人手で作成された修辞構造を用いたものよりROUGE値が劣化していることがわかる.short要約セットの場合は,提案手法の方が劣化が大きい.これは,提案手法がEDU単位の依存構造を文単位に変更しているためである.HILDAを始めとする自動解析器は,ボトムアップに修辞構造木を組み上げていくため,それを用いて得た修辞構造木を談話依存構造へと変換すると,距離が近いEDU間の依存関係は比較的高い精度で予測できるが,遠い依存関係の予測精度は低い.このため,遠距離の依存関係である文間の依存関係の同定に失敗し,提案手法のROUGEが大きく劣化したと考える.実際,依存先の正解率~\footnote{ここで正解率とは,自動解析による談話構造木とgoldstandardの談話構造木を\protect\ref{sec:build_tree}節の手順で依存木に変換した場合の両者の一致率である.}を計算すると,EDU単位で0.590,文単位で0.324となった.しかしながら,short要約セットにおいては,減少幅は大きいものの依然として提案手法の精度が,今回比較したどの手法の数値よりも高いことから,提案手法の有効性がわかる.\begin{table}[b]\caption{修辞構造を自動解析した場合の精度の変化}\label{tab:results_auto}\input{03table02.txt}\vspace{-1\Cvs}\end{table}long要約セットにおいては,EDU選択手法のROUGE値の減少はほとんど見られなかった.\ref{sec:rouge}節で述べた通り,long要約セットは低い圧縮率であるため比較的多くの情報を要約に含めることができる.文単位の依存関係においても,正解率自体は低くとも選択できる文数が増えるため,short要約セットよりもROUGE値の劣化が抑えられている.すなわち,short要約セットのように圧縮率の厳しい設定では,より高い精度で抽出単位の依存先を推定する必要がある.\subsubsection{単一文書要約における重要箇所同定}前節で,提案手法の有効性をROUGE値によって確認した.本節では,談話構造,すなわち文間依存木の情報が文書中の重要箇所同定に有効かという点について考察を行う.現在,文書要約において主流な問題設定は,同じトピックについて書かれた文書の集合からひとつの要約文書を生成する,複数文書要約である.冒頭で説明した文抽出と文圧縮を組み合わせる手法も全て複数文書要約に取り組んでいるのに対して,今回我々が行った実験は,一つの文書に対し一つの要約文書を生成する単一文書要約問題である.単一文書要約は複数文書要約と比較して,要約文書に含めるべき文書の重要部分の同定が難しい.なぜならば複数文書要約では文書集合全体として重要な話題は文書横断的に出現するため,その性質を利用できる\footnote{その分,複数文書要約においてはいかに冗長な情報を要約に含めないかという点が重要となる.}が,単一の文書においてそのような情報は利用できないためである.対象とする文書が報道記事である場合は,冒頭部分に記事全体の要約が書かれやすいという強力な基準があるが,そうでない場合に重要な部分を同定することは困難である\footnote{ただし,報道記事であれば必ず記事冒頭に記事全体の要約が存在しているとは限らないことも分かっており,単純に記事冒頭を機械的に抽出しても必ずしも重要箇所が得られるとは限らない\cite{yang:14}.}.今回我々が用いた単一文書要約の評価セットは,報道記事ではなく社説やエッセイのような文書で構成されているため重要部分の同定が難しい.これは表\ref{tab:results}におけるLEAD手法のROUGE値からも確認できる.\begin{table}[b]\caption{RSTに基づく文間依存木を利用しない場合の結果の変化}\label{tab:results_single}\input{03table03.txt}\end{table}文間依存木の情報が文書の重要箇所同定に与える影響について検証するため,提案手法(自動解析含む)の単語重要度から$depth^2$を取り除いたもの,すなわち単語の重要度が単にその文書における出現頻度で決まる場合と,文間依存木の情報を一切用いない従来の同時モデルについても同様に実験を行い比較した.表\ref{tab:results_single}に,それぞれの結果を示す.提案手法の単語重要度から文間依存木の情報(依存木の根からの深さ)を除いた場合に十分なROUGEスコアが得られないことから,文書の談話構造が単一文書要約における重要箇所の同定に寄与していることがわかる.なお,同時モデルと異なり,木構造の制約という形で文間依存木の情報は用いていることに注意されたい.同時モデルの結果を見ると,文抽出と文圧縮の同時最適化のみでは,本評価セットで有効に機能しないことがわかる.重要文の同定・抽出が困難であるならば,複数文書要約において盛んに取り組まれている文抽出と文圧縮の同時最適化を適用することも困難となり,要約長に柔軟な要約文書の生成も困難となる.本研究の結果は単一文書における重要部分の同定に対するひとつの手がかりとして,文書の談話構造が有効である可能性を示唆しているといえる.\subsubsection{異なる部分木抽出手法の定性評価}\label{sec:subtree}ここまで,ROUGEの観点から評価実験の結果についての考察を進めてきた.本節では,単語間依存木からその部分木を抽出する方法として,任意の部分木を抽出することの有用性を,例を示して考察する.図\ref{fig:sents}に,任意部分木抽出手法と根付き部分木抽出手法が共通して要約文書に含めた文と,そこから抽出した部分木に対応する二つの文を示す.なお,これはshort要約セットにおける例である.\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f4.eps}\end{center}\caption{二つの手法が共通して要約に選択した文と,それぞれが抽出した部分木の例}\label{fig:sents}\end{figure}ここで,$\{\cdot\}$は依存構造解析器が単語間依存木の根であると出力した語であり,$[\cdot]$は要約システムが部分木の根として選んだ語である.任意部分木抽出においては,例に示したいずれの文も解析器の根以外の単語を根として部分木を抽出している.例に見るように,目的節やthat節の内容の方が重要な情報を持つことが多いため,その部分のみを抽出することは,限られた長さで重要な情報のみ要約に含める上で有用であり,今回の実験ではこうした事例が少なかったこともありROUGEスコアで大きな差がでなかったが,特に圧縮率の高い設定\footnote{すなわち,原文書そのものの長さに対し非常に短い要約を生成する必要があるような設定.}では有効であろう.\subsubsection{抽出粒度と要約文書の文数の関係}\label{sec:unit}EDUはRSTにおける談話構造の基本単位であるが,抽出型要約の抽出単位として適切とは限らない.図\ref{fig:edus}に,ある文\footnote{この文はwsj\_1128より選択した.}とその文を構成するEDUの例を示す.図のように,EDUはおおよそ節に対応する文よりも細かな単位である.抽出単位が文よりも細かいEDUであることは,EDU抽出は,文圧縮を逐次適用した要約手法として考えることができる.つまり,EDU抽出による要約は多くの文を事前に圧縮しつつ抽出していることに相当する.このように文よりも小さな断片を組み合わせて要約を生成すると,文を組み合わせる場合よりも長さ制約をちょうど満たすように要約を生成することができる可能性が高い.よって,ROUGE値も上昇する傾向にある.しかし,EDUは文よりも短いため,たとえ一貫性があろうともそれを読んだ読者が違和感を覚えてしまうだろう.\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f5.eps}\end{center}\caption{本データセットにおける文の一例.5行全体で一つの文であり,各行が一つのEDUに対応している.}\label{fig:edus}\end{figure}抽出型要約において,文書中の多くの文から細かな断片を集めることで情報の断片化された要約の生成につながっているかどうかのは,要約文書に含まれる抽出単位集合の元となる文の数が,その一つの指標となる.言い換えると,生成された要約を構成する文の数が,参照要約すなわち人間によって生成された要約に近い方が,自然で読みやすい要約になっていると考えられる.そこで本節では各手法が生成した要約文書に含まれる原文書の文数を比較した.比較に用いた手法は提案手法である任意部分木抽出の他に,文選択とEDU選択である.文選択は原文書中の文の数,EDU選択は原文書中のEDUに対応する文の数,部分木選択は,部分木に対応する文の数である.なお,参照要約は人間が自由に生成した要約であるため,必ずしも原文書の文とは対応していないことに注意されたい.short要約セットにおいて各選択手法が選択した文について箱ひげ図を図\ref{fig:boxes_short}に示す.各々の箱の上辺と下辺は,それぞれその手法が選択した文数の第一四分位点,第三四分位点を表しており,箱の中の線は中央値を表している.箱の上下に伸びる線(ひげ)の先は,それぞれ最大値,最小値を表し,ひげよりも外側に見られる$+$印は,外れ値である.図を見ると,EDU選択手法が最も多くの文を用いて要約を生成していることがわかる.一方で文選択手法は,比較手法の中では最も参照要約の文に近いが,\ref{sec:rouge}節で示した通り情報の網羅性という点で十分な要約を作成できない.部分木抽出は文選択とEDU選択の間で,両者のように実際に抽出されるテキストスパンの長さを固定せずに要約システムが柔軟に各文から抽出する部分木を選択することができる.それにより情報の網羅性と要約としての自然さを両立出来ている.なお,部分木抽出手法の平均文数は4.73であり,中央値は4文であった.これに対し,EDU選択の平均文数は5.77で中央値は5文であった.これは提案手法の方が有意\footnote{ウィルコクソンの符号順位検定($p<0.05$).}に少ない文を用いて要約を生成していることを示している.自動解析を利用した場合も同様の傾向であるため詳細は割愛する.\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f6.eps}\end{center}\hangcaption{short要約セットにおいて各手法が使用した原文書の文の数.(HILDA)と付いているものは自動解析による修辞関係を利用している.}\label{fig:boxes_short}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f7.eps}\end{center}\caption{long要約セットにおいて各手法が使用した原文書の文の数}\label{fig:boxes_long}\end{figure}同様に,long要約セットについて図\ref{fig:boxes_long}に示す.圧縮率が低くなった場合も全体の傾向としてはshort要約セットとの大きな差異はない.全体的にばらつき(箱の縦の長さ)が大きくなっているが,これは参照要約自体の長さのばらつきがshort要約セットよりも大きいことが原因である.
\section{まとめ}
本研究では,単語間の依存構造解析に基づく単語間依存木と,RSTに基づく文間依存木から入れ子依存木を構築し,そこから要約文書に含める単語を選択する要約生成問題をILPとして定式化した.提案手法はEDUの依存木の刈り込み手法に比べ,過剰に文を区切ることなくROUGEを向上させることが確認できた.また,単語の依存木からその部分木を抽出する方法として,構文解析器が出力した根にこだわらない任意部分木抽出手法について,その有用性を定性的に分析した.さらに,人手で作成された修辞構造以外に,修辞構造解析器で推定された修辞構造も用いて,その精度への影響を確かめた.提案手法の抱える課題は,任意の文書に対して適用する際に修辞構造の自動解析を利用しており,その精度の与える影響が大きいという点である.今回はEDU単位の修辞構造解析結果を文単位の依存関係に変換して利用したが,はじめからEDU単位の依存関係を獲得する研究\cite{yoshida14}も存在する.これらを踏まえ,今後はより良い文間依存木の獲得方法を検討していく.今回はRSTから得られる情報のうち文間の依存関係のみに着目したが,各文内におけるEDU間の関係や修辞構造のラベルを考慮して文圧縮や文抽出を行うことが可能であり,今後取り組むべき課題として興味深い.今後は,他のコーパスの文書や,複数文書要約においても提案手法を適用することを考えている.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Almeida\BBA\Martins}{Almeida\BBA\Martins}{2013}]{almeida:13}Almeida,M.\BBACOMMA\\BBA\Martins,A.\BBOP2013\BBCP.\newblock\BBOQFastandRobustCompressiveSummarizationwithDualDecompositionandMulti-TaskLearning.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\196--206}.\bibitem[\protect\BCAY{Berg-Kirkpatrick,Gillick,\BBA\Klein}{Berg-Kirkpatricket~al.}{2011}]{kirkpatrick:11}Berg-Kirkpatrick,T.,Gillick,D.,\BBA\Klein,D.\BBOP2011\BBCP.\newblock\BBOQJointlyLearningtoExtractandCompress.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\481--490},Portland,Oregon,USA.\bibitem[\protect\BCAY{Carlson,Marcu,\BBA\Okurowski}{Carlsonet~al.}{2001}]{carlson:01}Carlson,L.,Marcu,D.,\BBA\Okurowski,M.~E.\BBOP2001\BBCP.\newblock\BBOQBuildingaDiscourse-taggedCorpusintheFrameworkofRhetoricalStructureTheory.\BBCQ\\newblockIn{\BemProceedingsofthe2ndAnnualSIGdialMeetingonDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Christensen,Mausam,Soderland,\BBA\Etzioni}{Christensenet~al.}{2013}]{christensen:13}Christensen,J.,Mausam,Soderland,S.,\BBA\Etzioni,O.\BBOP2013\BBCP.\newblock\BBOQTowardsCoherentMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemNAACL:HLT},\mbox{\BPGS\1163--1173}.\bibitem[\protect\BCAY{Daum{\'e}{\}III\BBA\Marcu}{Daum{\'e}{\}III\BBA\Marcu}{2002}]{daume:02}Daum{\'e}{\}III,H.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQANoisy-ChannelModelforDocumentCompression.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\449--456},Philadelphia,Pennsylvania,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{duVerle\BBA\Prendinger}{duVerle\BBA\Prendinger}{2009}]{duverle09}duVerle,D.\BBACOMMA\\BBA\Prendinger,H.\BBOP2009\BBCP.\newblock\BBOQANovelDiscourseParserBasedonSupportVectorMachineClassification.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\665--673},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{filatova:04}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Filippova\BBA\Strube}{Filippova\BBA\Strube}{2008}]{filippova:08}Filippova,K.\BBACOMMA\\BBA\Strube,M.\BBOP2008\BBCP.\newblock\BBOQDependencyTreeBasedSentenceCompression.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalNaturalLanguageGenerationConference(INLG)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Gillick\BBA\Favre}{Gillick\BBA\Favre}{2009}]{gillick:09}Gillick,D.\BBACOMMA\\BBA\Favre,B.\BBOP2009\BBCP.\newblock\BBOQAScalableGlobalModelforSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheNAACLHLTWorkshoponIntegerLinearProgrammingforNaturalLanguageProcessing(ILP)},\mbox{\BPGS\10--18}.\bibitem[\protect\BCAY{Hernault,Prendinger,duVerle,\BBA\Ishizuka}{Hernaultet~al.}{2010}]{hilda}Hernault,H.,Prendinger,H.,duVerle,D.~A.,\BBA\Ishizuka,M.\BBOP2010\BBCP.\newblock\BBOQHILDA:A\mbox{Discourse}ParserUsingSupportVectorMachineClassification.\BBCQ\\newblock{\BemDialogueandDiscourse},{\Bbf1}(3),\mbox{\BPGS\1--33}.\bibitem[\protect\BCAY{Hirao,Yoshida,Nishino,Yasuda,\BBA\Nagata}{Hiraoet~al.}{2013}]{hirao:13}Hirao,T.,Yoshida,Y.,Nishino,M.,Yasuda,N.,\BBA\Nagata,M.\BBOP2013\BBCP.\newblock\BBOQSingle-DocumentSummarizationasaTreeKnapsackProblem.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1515--1520}.\bibitem[\protect\BCAY{Hobbs}{Hobbs}{1985}]{hobbs85}Hobbs,J.~R.\BBOP1985\BBCP.\newblock{\BemOntheCoherenceandStructureofDiscourse}.\newblockCSLI.\bibitem[\protect\BCAY{Johnson\BBA\Niemi}{Johnson\BBA\Niemi}{1983}]{johnson:83}Johnson,D.~S.\BBACOMMA\\BBA\Niemi,K.~A.\BBOP1983\BBCP.\newblock\BBOQOnKnapsacks,Partitions,andaNewDynamicProgrammingTechniqueforTrees.\BBCQ\\newblock{\BemMathmaticsofOperationsResearch},{\Bbf8}(1),\mbox{\BPGS\1--14}.\bibitem[\protect\BCAY{Li,Liu,Liu,Zhao,\BBA\Weng}{Liet~al.}{2014}]{li:14}Li,C.,Liu,Y.,Liu,F.,Zhao,L.,\BBA\Weng,F.\BBOP2014\BBCP.\newblock\BBOQImprovingMulti-documentsSummarizationbySentenceCompressionbasedonExpandedConstituentParseTrees.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\691--701},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin:04}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofsummaries.\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponTextSummarizationBranchesOut},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Louis,Joshi,\BBA\Nenkova}{Louiset~al.}{2010}]{louis:10}Louis,A.,Joshi,A.,\BBA\Nenkova,A.\BBOP2010\BBCP.\newblock\BBOQDiscourseIndicatorsforContentSelectioninSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheSIGDIAL2010Conference},\mbox{\BPGS\147--156},Tokyo,Japan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mann\BBA\Thompson}{Mann\BBA\Thompson}{1988}]{mann:88}Mann,W.~C.\BBACOMMA\\BBA\Thompson,S.~A.\BBOP1988\BBCP.\newblock\BBOQRhetoricalStructureTheory:TowardaFunctionalTheoryofTextOrganization.\BBCQ\\newblock{\BemText},{\Bbf8}(3),\mbox{\BPGS\243--281}.\bibitem[\protect\BCAY{Marcu}{Marcu}{1998}]{marcu:98}Marcu,D.\BBOP1998\BBCP.\newblock\BBOQImprovingSummarizationThroughRhetoricalParsingTuning.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponVeryLargeCorpora},\mbox{\BPGS\206--215}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{mcdonald:07}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe29thEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{Morita,Sasano,Takamura,\BBA\Okumura}{Moritaet~al.}{2013}]{morita:13}Morita,H.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQSubtreeExtractiveSummarizationviaSubmodularMaximization.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\1023--1032}.\bibitem[\protect\BCAY{Nishikawa,Hasegawa,Matsuo,\BBA\Kikui}{Nishikawaet~al.}{2010}]{nishikawa:10}Nishikawa,H.,Hasegawa,T.,Matsuo,Y.,\BBA\Kikui,G.\BBOP2010\BBCP.\newblock\BBOQOpinionSummarizationwithIntegerLinearProgrammingFormulationforSentenceExtractionandOrdering.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\910--918}.\bibitem[\protect\BCAY{Qian\BBA\Liu}{Qian\BBA\Liu}{2013}]{liu:13}Qian,X.\BBACOMMA\\BBA\Liu,Y.\BBOP2013\BBCP.\newblock\BBOQFastJointCompressionandSummarizationviaGraphCuts.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1492--1502}.\bibitem[\protect\BCAY{Suzuki,Isozaki,Carreras,\BBA\Collins}{Suzukiet~al.}{2009}]{suzuki:09}Suzuki,J.,Isozaki,H.,Carreras,X.,\BBA\Collins,M.\BBOP2009\BBCP.\newblock\BBOQAnEmpiricalStudyofSemi-supervisedStructuredConditionalModelsforDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\551--560},Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Takamura\BBA\Okumura}{Takamura\BBA\Okumura}{2009}]{takamura:09}Takamura,H.\BBACOMMA\\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQTextSummarizationModelbasedontheBudgetedMedianProblem.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement(CIKM)},\mbox{\BPGS\1589--1592}.\bibitem[\protect\BCAY{Uz{\^{e}}da,Pardo,\BBA\Nunes}{Uz{\^{e}}daet~al.}{2010}]{uzeda:10}Uz{\^{e}}da,V.~R.,Pardo,T.A.~S.,\BBA\Nunes,M.D.G.~V.\BBOP2010\BBCP.\newblock\BBOQAComprehensiveComparativeEvaluationofRST-basedSummarizationMethods.\BBCQ\\newblock{\BemACMTransactionsofSpeechandLanguageProcessing},{\Bbf6}(4),\mbox{\BPGS\4:1--4:20}.\bibitem[\protect\BCAY{Wang,Raghavan,Castelli,Florian,\BBA\Cardie}{Wanget~al.}{2013}]{lu:13}Wang,L.,Raghavan,H.,Castelli,V.,Florian,R.,\BBA\Cardie,C.\BBOP2013\BBCP.\newblock\BBOQASentenceCompressionBasedFrameworktoQuery-FocusedMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1384--1394}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yang\BBA\Nenkova}{Yang\BBA\Nenkova}{2014}]{yang:14}Yang,Y.\BBACOMMA\\BBA\Nenkova,A.\BBOP2014\BBCP.\newblock\BBOQDetectingInformation-DenseTextsinMultipleNewsDomains.\BBCQ\\newblockIn{\BemProceedingsofthe28th{AAAI}ConferenceonArtificialIntelligence,July27--31,2014,Qu{\'{e}}becCity,Qu{\'{e}}bec,Canada},\mbox{\BPGS\1650--1656}.\bibitem[\protect\BCAY{Yoshida,Suzuki,Hirao,\BBA\Nagata}{Yoshidaet~al.}{2014}]{yoshida14}Yoshida,Y.,Suzuki,J.,Hirao,T.,\BBA\Nagata,M.\BBOP2014\BBCP.\newblock\BBOQDependency-basedDiscourseParserforSingle-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1834--1839},Doha,Qatar.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{菊池悠太}{2011年木更津工業高等専門学校専攻科制御・情報システム工学専攻修了.2013年東京工業大学総合理工学研究科博士前期課程修了.同年,同大学博士後期課程に進学.}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年より同准教授.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V09N02-02
|
\section{はしがき}
日本語の複文の従属節には,体言に係る連体修飾節と,用言に係る連用修飾節がある.連体修飾節は通常次の句の体言に係る場合が多く曖昧性は比較的少ない.ところが,連用修飾節は係り先に曖昧性があり,必ずしもすぐ次の節の用言に係るとは限らない.このような曖昧性を解消するために,接続助詞,接続詞など接続の表現を階層的に分類し,その順序関係により,連接関係を解析する方法\cite{shirai1995}が用いられてきた.また,連接関係を,接続の表現を基に統計的に分析し,頻度の高い連接関係を優先する方法\cite{utsuro1999}も用いられてきた.しかし,接続の表現には曖昧性があり,同じ接続の表現でも異なる意味で用いられるときは異なる係り方をする.従って,接続の表現の階層的な分類を手がかりとする方法では,達成できる精度に限界がある.本論文では,従属節の動詞と主体の属性を用いて連接関係の関係的意味を解析し,連接構造を解析する方法を用いる.本方法によりモデルを作成し,解析した結果と従来から行われてきた接続の表現の表層的な分類を用いた方法とを同じ例文を用いて比較する.ここで,主体は「複文の研究」\cite{jinta1995}で使っているのと同じ意味で使っており,後述の解析モデルでは「が格」として処理している.
\section{動詞と主体の属性と連接関係の関係的意味}
接続助詞,接続詞などの接続の表現には曖昧性がある.特に,「て」,「が」,「と」などであらわされる従属節の関係的意味はさまざまである.これは「から」,「ので」などと違って,これらの接続の表現自体が明確な固定的意味を有していないからである.従って,これらの接続の表現では,連接関係の関係的意味が,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.事象の意味は,ある主体が行う行動または状態の分類,意志性などをあらわす.たとえば,生物主体の姿勢変化,心的状態などである.従って,事象の意味は,動詞と名詞の属性を用いて表すことができると考えることができる.たとえば,助詞「て」による連接関係で,従属節と主節が共に意志動詞で形成され,両者が同一主体のときは,「時間的継起」を表すことが多い.\begin{description}\item[〔例文1〕]ユーザは,IDとパスワードを指定して,OKボタンをクリックします.\end{description}同じ助詞「て」による連接関係でも,従属節の動詞が,姿勢変化,携帯・保持,心的状態などの意味分類であるときは「付帯状態」を表すことが多い.「付帯状態」とは,従属節と主節の事象が同じ時間の中に存し,同一主体で,従属節で主節の事象の主たる動きや状態の実現され方を限定・修飾するものである.\begin{description}\item[〔例文2〕]そこで女中が鍵を持って,私を待っていた.\end{description}「て」による連接関係で,従属節と主節が共に無意志動詞で,従属節が無生物主体,主節が生物主体のときは,「原因」を表すことが多い.これは,主たる事象が人間を表すものでありながら,従属節で人間の意志で制御できない事象が生じたためである.\begin{description}\item[〔例文3〕]彼は,車が故障して,遅れた.\end{description}このような,連接関係に影響を与える動詞の属性としては,意志性,意味分類の外に,ヴォイス,アスペクト,ムード,慣用句の分類,主節と従属節動詞の類似性などがある.主体の属性としては,生物/無生物性,主節と従属節の主体の類似性を用いる.
\section{接続の表現の意味による距離}
\label{ch:meanings}従属節の係り先は,一般的には次の従属節であることが多いが,さらに先の従属節に係ることもある.例えば,次の例文を考えてみよう.\begin{description}\item[〔例文4〕]クエリーボタンを押して,メニューから実行を選択して,検索情報を表示する.\item[〔例文5〕]彼は,連絡がないかと思って,携帯電話を持って,待っていた.\end{description}\begin{figure}\hspace*{25mm}\vspace*{-3mm}\atari(79,71)\vspace{-3mm}\caption{連接関係の意味による係り方の違い}\label{fig:excohere}\end{figure}〔例文4〕では図\ref{fig:excohere}(a)に示すように,隣接する従属節に係っているが,〔例文5〕では隣接する従属節を飛び越えて主節に係っている.このように,同じ助詞「て」による連接関係でも,連接関係の意味の違いによって係り方が異なってくる.一般的に,連接関係の意味の違いによって,連接関係の距離に違いがあり,係る文の述語に「密着している」ものと「離れている」ものがある.「密着している」連接関係は,隣接する従属節に係りやすく,「離れている」連接関係はより遠くへ係りやすい.\subsection{接続の表現をA,B,Cの3分類にして解析した場合}南\cite{minami1993}は接続助詞や連用中止などの接続の表現による連用修飾節をA,B,C,の3クラスに分類して,図\ref{fig:imply}の例に示すように,AはAのみを含むことができ,BはA,Bを含むことができ,CはA,B,Cを含むことができることを示した.主節はA,B,C共に含むことができる.\begin{figure*}\hspace*{22mm}\vspace*{-3mm}\atari(100,23)\vspace*{-3mm}\caption{連用修飾節の包含関係}\label{fig:imply}\end{figure*}\begin{figure*}\hspace*{22mm}\vspace*{-3mm}\atari(100,21)\vspace*{-3mm}\caption{連用修飾節の係り受け}\label{fig:modify}\end{figure*}これに,他の連用修飾節を飛び越えることができるかどうかという関係を考慮に入れて,係り受けの関係で表すと図\ref{fig:modify}のようになる.AはA,B,Cに係ることができ,BはAを飛び越えてB,Cに係ることができ,CはA,Bを飛び越えてCに係ることができると表現することができる.すなわち,Aは「密着している」連接関係であり,隣接する従属節に係りやすく,Cは「離れている」連接関係であって,より遠くへ係りやすい.Bはその中間である.これを表\ref{table:distance}に示すように,連接関係の距離で表す.\begin{table*}\caption{連接関係の距離}\label{table:distance}\hspace*{47mm}\begin{tabular}{|c|c|}\hline\multicolumn{1}{|c|}{接続の表現のクラス}&\multicolumn{1}{c|}{距離}\\\hlineA&1\\B&2\\C&3\\\hline\end{tabular}\end{table*}連用修飾節の距離をm,係り先の節の距離をd,飛び越える節の距離をjで表したとき,連接関係のルールは次の2つの条件で表すことができる.\begin{description}\item[〔ルール1〕]連用修飾節は自身の距離以上の距離を持つ節に係る.(d≧m)\item[〔ルール2〕]連用修飾節は自身の距離より大きな距離の節を飛び越えて係ることはできない.(j<m)\end{description}このルールが実際の用例について,どの程度よく適合するかを調べた.複文に関する論文集\cite{jinta1995},日本語教育の参考書\cite{houjou1992},ネットワークの解説書\cite{kaneuti1993}の2,010文から,主節の外に連用修飾節を2つ以上含む344文を取り出して用例とした.表\ref{table:f3cm}は係り側と受け側の連接関係の頻度を調べて集計したものである.\begin{table*}\caption{用例における係り受け連接関係の頻度\\(A,B,Cの3分類で接続の表現の頻度による)}\label{table:f3cm}\hspace*{33mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{受け側}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}&\multicolumn{1}{|p{3zw}|}{主節}\\\hlineA&0&21&5&28\\\cline{2-2}B&3&197&46&414\\\cline{3-3}C&0&5&20&132\\\hline\end{tabular}\end{table*}この表に前記のルール1を適用すると,右上から対角線のセルまでがこのルールで正しく処理される連接関係であり,それより左下のセルは,このルールでは間違って処理される連接関係である.飛び越えて係る場合の連用修飾節と飛び越える節の距離が最大の節(最も離れているもの)との関係について頻度を調べて集計した結果を表\ref{table:f3cj}に示す.\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度\\(A,B,Cの3分類で接続の表現の頻度による)}\label{table:f3cj}\hspace*{33mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{隣接}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}\\\hlineA&52&0&2&0\\\cline{3-3}B&508&22&122&8\\\cline{4-4}C&58&5&91&3\\\hline\end{tabular}\end{table*}この表に,ルール2を適用すると左下から対角線までが,このルールで正しく処理される連接関係であり,それより右上のセルはこのルールでは間違って処理される連接関係である.南のA,B,Cの分類で,いくつかの接続の表現は,複数の分類に含まれる.例えば,接続助詞「て」による連接関係は,連接関係の意味の違いによってAにもBにも含まれる.表\ref{table:f3cm},表\ref{table:f3cj}の集計は,接続の表現だけを見て分類集計したものであって,同じ接続の表現が複数に分類されるときは,最も頻度の高い分類を採用した.前節で述べた連接関係の関係的意味を調べて,関係的意味によって分類し,係り受けを解析したほうが,より正確な解析結果が出るはずである.このような観点から,接続の表現を連接関係の関係的意味によって,表\ref{table:semcl3}に示すようにA,B,Cに3分類した.\begin{table*}\caption{連接関係の意味分類(A,B,Cの3分類)}\label{table:semcl3}\begin{tabular}{|c|p{12zw}|p{20zw}|}\hline\multicolumn{1}{|p{5zw}|}{意味分類}&\multicolumn{1}{|p{12zw}|}{連接関係の関係的意味}&\multicolumn{1}{|p{20zw}|}{接続の表現の例}\\\hlineA&同時動作,方法,手段,携帯,心的状態&て(付帯状態),て(方法),ながら(同時動作)\\B&継起,条件,時間,程度,原因,理由,目的&て(継起),し(継起),連用中止(継起),せず(継起),ないで(継起),と(条件),と(時),ば(条件),たら(条件),たら(時),ても(逆接条件),ばあい(時),さいに(時),さい(時),ころ(時),のに(逆接条件),ほど(程度),て(原因),て(理由),し(理由),から(原因),から(理由),ので(原因),ので(理由),ため(目的),ため(理由),たら(理由),よう(目的),ように(目的),ことで(理由)\\C&前提,前置き,逆接&が(逆接),が(前提),ように(前提),ながら(逆接)\\\hline\end{tabular}\end{table*}\newpage表\ref{table:semcl3}に基づいて前記と同じ344文の用例を分析して集計した結果が表\ref{table:freq3sm},表\ref{table:freq3sj}である.\begin{table*}\caption{用例における係り受け連接関係の頻度(A,B,Cの3分類で連接関係の関係的意味による)}\label{table:freq3sm}\hspace*{25mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{受け側}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}&\multicolumn{1}{|p{3zw}|}{主節}\\\hlineA&4&39&13&62\\\cline{2-2}B&1&160&57&372\\\cline{3-3}C&0&3&20&140\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度\\(A,B,Cの3分類で連接関係の関係的意味による)}\label{table:freq3sj}\hspace*{25mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{隣接}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}\\\hlineA&117&0&0&1\\\cline{3-3}B&461&34&90&5\\\cline{4-4}C&57&12&92&2\\\hline\end{tabular}\end{table*}これらの表から接続の表現の頻度による場合と,連接関係の関係的意味を分析した場合について,精度を計算すると表\ref{table:acc3}に示すようになる.\begin{table*}\caption{A,B,Cの3分類を用いた場合の連接構造の解析精度(単位:%)}\label{table:acc3}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|p{20zw}|}{連接関係の精度か文単位での精度かの区別}&\multicolumn{1}{|p{5zw}|}{接続の表現の頻度による解析結果}&\multicolumn{1}{|p{5zw}|}{連接関係の関係的意味による解析結果}\\\hline連接関係の精度(344文中の871の連接関係)&83.5&88.2\\主節のほかに連用従属節を2つ以上含む文での精度(344文)&62.2&72.1\\全体の文での精度(2010文)&93.5&95.7\\\hline\end{tabular}\end{table*}この表から分るとおり,主節以外に連用修飾節を2つ以上含む344文中の個々の連接関係を集計した結果では,正しく解析できなかった連接関係が16.5\%から11.8\%に改善した.これを,344文中で正しく解析できなかった文の比率で見ると,37.8\%から27.9\%に,全体の2,010文で正しく解析できなかった文の比率では,6.5\%から4.3\%に改善した.\subsection{接続の表現を5分類した場合}前期のA,B,Cの3分類で,A,Cに比べてBに含まれる接続の表現が非常に多い.これが,解析の精度が上がらない原因になっている.このため,連接関係の関係的意味により,Bを継起,条件,原因に3分類する.もともと,Aの連接関係の関係的意味は付帯状態を表し,Bは前提を表しているので,連接関係の意味分類を整理すると表\ref{table:semcl5}に示すようになる.\begin{table*}\caption{連接関係の意味分類}\label{table:semcl5}\begin{tabular}{|p{5zw}|p{12zw}|p{20zw}|}\hline\multicolumn{1}{|p{5zw}|}{意味分類}&\multicolumn{1}{|p{12zw}|}{連接関係の関係的意味}&\multicolumn{1}{|p{20zw}|}{接続の表現の例}\\\hline付帯状態&同時動作,方法,手段,携帯,心的状態&て(付帯状態),て(方法),ながら(同時動作)\\継起&継起&て(継起),し(継起),連用中止(継起),せず(継起),ないで(継起)\\条件&条件,時間,程度&と(条件),と(時),ば(条件),たら(条件),たら(時),ても(逆接条件),ばあい(時),さいに(時),さい(時),ころ(時),のに(逆接条件),ほど(程度)\\原因&原因,理由,目的&て(原因),て(理由),し(理由),から(原因),から(理由),ので(原因),ので(理由),ため(目的),ため(理由),たら(理由),よう(目的),ように(目的),ことで(理由)\\前提&前提,前置き,逆接&が(逆接),が(前提),ように(前提),ながら(逆接)\\\hline並列&並列,対比&て(並列),し(並列),が(対比),連用中止(並列),ば(並列),たり(並列),せず(並列),ように(対比),より(対比)\\\hline\end{tabular}\end{table*}表で,並列節だけは別分類にして表示してあるが,これは,並列節だけ異なったルールが適用されるためである.並列のスコープ内で,条件節などが並列節に係って並列の要素を構成するときは,並列節は前提と同じ距離で処理する.並列節が並列を構成する次の節に係るときは,並列のスコープ内で,並列節は付帯状態と同じ距離で処理する.表\ref{table:semcl5}の連接関係の意味分類に基づき接続の表現を5分類し,係り側と受け側の連接関係の頻度および係り側と飛び越える節の頻度を調べて集計した.同じ接続の表現で連接関係の関係的意味の違いにより,複数の分類に含まれる接続の表現は,最も頻度の高い分類を適用した.並列節のスコープの決定は,並列を表す接続の表現を有する節で最も狭いスコープを採用した.解析の結果を表\ref{table:freq5cm},表\ref{table:freq5cj}に示す.\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(5分類で接続の表現の頻度による)}\label{table:freq5cm}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{受け側}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}&\multicolumn{1}{|p{4zw}|}{主節}\\\hline1.付帯状態&0&9&8&4&5&28\\\cline{2-2}2.継起&3&51&26&32&22&162\\\cline{3-3}3.条件&0&21&26&30&13&138\\\cline{4-4}4.原因&0&5&0&6&11&114\\\cline{5-5}5.前提&0&1&2&2&20&132\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(5分類で接続の表現の頻度による)}\label{table:freq5cj}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{4zw}|}{隣接}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}\\\hline1.付帯状態&52&0&2&0&0&0\\\cline{3-3}2.継起&246&9&16&15&8&2\\\cline{4-4}3.条件&165&7&45&7&0&4\\\cline{5-5}4.原因&97&6&13&16&2&2\\\cline{6-6}5.前提&58&5&26&36&29&3\\\hline\end{tabular}\end{table*}連接関係の関係的意味を調べて,関係的意味により連接関係を意味分類し,係り側と受け側の頻度および飛び越える節の頻度を調べて集計した.並列節のスコープの決定は,並列を意味する接続の表現および並列節を構成する各々の節の述語,目的語などの類似度によった.すなわち,接続の表現が並列を意味し,並列を構成する各々の節の述語,目的語,主語などが上位の意味分類で同じであれば,並列を構成するものとした.解析の結果を表\ref{table:freq5sm},表\ref{table:freq5sj}に示す.\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(5分類で連接関係の関係的意味による)}\label{table:freq5sm}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{受け側}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}&\multicolumn{1}{|p{4zw}|}{主節}\\\hline1.付帯状態&4&11&11&17&13&62\\\cline{2-2}2.継起&1&39&23&20&18&117\\\cline{3-3}3.条件&0&7&27&32&23&132\\\cline{4-4}4.原因&0&2&0&10&16&123\\\cline{5-5}5.前提&0&1&1&1&20&140\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(5分類で連接関係の関係的意味による)}\label{table:freq5sj}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{4zw}|}{隣接}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}\\\hline1.付帯状態&117&0&0&0&0&1\\\cline{3-3}2.継起&193&10&3&7&4&1\\\cline{4-4}3.条件&162&12&39&5&0&3\\\cline{5-5}4.原因&106&12&16&15&1&1\\\cline{6-6}5.前提&57&12&20&40&32&2\\\hline\end{tabular}\end{table*}これらの表から,接続の表現の頻度による場合と,連接関係の関係的意味を分析した場合について,精度を計算すると表\ref{table:acc5}に示すようになる.\begin{table*}\caption{5分類を用いた場合の連接構造の解析精度(単位:%)}\label{table:acc5}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|p{20zw}|}{連接関係の精度か文単位の精度かの区別}&\multicolumn{1}{|p{5zw}|}{接続の表現の頻度による解析結果}&\multicolumn{1}{|p{5zw}|}{連接関係の関係的意味による解析結果}\\\hline連接関係の精度(344文中の871の連接関係)&89.0&95.2\\主節のほかに連用従属節を2つ以上含む文での精度(344文)&78.8&98.5\\全体の文での精度(2010文)&96.4&98.2\\\hline\end{tabular}\end{table*}この表から,5分類を採用した場合は,正しく解析できなかった連接関係の比率が,接続の表現の頻度による場合は,16.5\%から11.0\%に,連接関係の関係的意味による場合は,11.8\%から4.8\%に改善されたことが分る.連接関係の関係的意味による場合は2倍以上改善される.\subsection{接続の表現を8分類した場合}一般的に連接関係で,連用修飾節にカンマ(または読点)のある場合とない場合で,従属節間の距離に違いが出る.カンマのない節の方がより「密着している」連接関係であり,カンマのある節の方がより「離れている」連接関係であるといえる.前節の5分類の解析結果を見ると,継起,条件,原因の意味分類で誤りが多く出ていることが分る.さらに個々のケースを分析すると,個々の意味分類の差より,カンマが付くか付かないかの差の方が大きいことが分る.このため,表\ref{table:distance8}に示すように意味分類と距離を定義する.\begin{table*}\caption{8分類の連接関係の意味分類}\label{table:distance8}\hspace*{40mm}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|p{8zw}|}{意味分類}&\multicolumn{1}{|p{5zw}|}{距離}\\\hline付帯状態&1\\継起&2\\条件&3\\原因&4\\継起+カンマ&5\\条件+カンマ&6\\原因+カンマ&7\\前提&8\\\hline\end{tabular}\end{table*}表\ref{table:distance8}を用いて,接続の表現の頻度による場合と,連接関係の関係的意味による場合について,解析した結果を表\ref{table:freq8cm},表\ref{table:freq8cj},表\ref{table:freq8sm},表\ref{table:freq8sj}に示す.\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(8分類で接続の表現の頻度による)}\label{table:freq8cm}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{受け側}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}&\multicolumn{1}{|p{2zw}|}{主節}\\\hline1.付帯状態&0&0&0&1&9&8&3&5&28\\\cline{2-2}2.継起&0&2&1&0&4&7&3&1&13\\\cline{3-3}3.条件&0&0&1&1&4&1&2&2&18\\\cline{4-4}4.原因&0&0&0&0&2&0&0&2&10\\\cline{5-5}5.継起+カンマ&3&0&0&2&45&18&27&21&149\\\cline{6-6}6.条件+カンマ&0&0&0&1&17&24&26&11&120\\\cline{7-7}7.原因+カンマ&0&0&0&0&3&0&6&9&104\\\cline{8-8}8.前提&0&0&1&0&1&1&2&20&132\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(8分類で接続の表現の頻度による)}\label{table:freq8cj}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{隣接}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}\\\hline1.付帯状態&52&0&0&0&0&2&0&0&0\\\cline{3-3}2.継起&31&0&0&0&0&0&0&0&0\\\cline{4-4}3.条件&26&0&2&0&0&1&0&0&0\\\cline{5-5}4.原因&14&0&0&0&0&0&0&0&0\\\cline{6-6}5.継起+カンマ&215&9&5&5&5&11&10&3&2\\\cline{7-7}6.条件+カンマ&139&7&2&1&0&40&6&0&4\\\cline{8-8}7.原因+カンマ&83&6&1&3&1&12&13&1&2\\\cline{9-9}8.前提&58&5&3&4&2&23&32&27&3\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(8分類で連接関係の関係的意味による)}\label{table:freq8sm}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{受け側}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}&\multicolumn{1}{|p{2zw}|}{主節}\\\hline1.付帯状態&4&1&2&2&10&9&15&13&62\\\cline{2-2}2.継起&0&1&0&0&3&6&2&1&12\\\cline{3-3}3.条件&0&0&1&1&2&2&2&4&18\\\cline{4-4}4.原因&0&0&0&0&1&0&0&3&10\\\cline{5-5}5.継起+カンマ&1&0&0&1&35&17&17&17&105\\\cline{6-6}6.条件+カンマ&0&0&0&1&5&24&28&19&114\\\cline{7-7}7.原因+カンマ&0&0&0&0&1&0&10&13&113\\\cline{8-8}8.前提&0&0&0&0&1&1&1&20&140\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(8分類で連接関係の関係的意味による)}\label{table:freq8sj}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{隣接}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}\\\hline1.付帯状態&117&0&0&0&0&0&0&0&1\\\cline{3-3}2.継起&25&0&0&0&0&0&0&0&0\\\cline{4-4}3.条件&27&1&2&0&0&0&0&0&0\\\cline{5-5}4.原因&14&0&0&0&0&0&0&0&0\\\cline{6-6}5.継起+カンマ&168&10&2&4&3&1&3&1&1\\\cline{7-7}6.条件+カンマ&135&11&2&3&0&35&2&0&3\\\cline{8-8}7.原因+カンマ&92&12&2&3&1&14&12&0&1\\\cline{9-9}8.前提&57&12&3&4&3&17&36&29&2\\\hline\end{tabular}\end{table*}これらの表から,接続の表現の頻度による場合と,連接関係の関係的意味を解析した場合について,精度を計算すると表\ref{table:acc8}に示すようになる.\begin{table*}\caption{8分類を用いた場合の連接構造の解析精度(単位:%)}\label{table:acc8}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|p{20zw}|}{連接関係の精度か文単位での精度かの区別}&\multicolumn{1}{|p{5zw}|}{接続の表現の頻度による解析結果}&\multicolumn{1}{|p{5zw}|}{連接関係の関係的意味による解析結果}\\\hline連接関係の精度(344文中の871の連接関係)&91.2&96.8\\主節のほかに連用従属節を2つ以上含む文での精度(344文)&82.3&93.3\\全体の文での精度(2010文)&97.0&98.9\\\hline\end{tabular}\end{table*}表\ref{table:acc8}から,意味解析を伴わない場合は5分類の11.0\%から8.8\%に,意味解析を行った場合は5分類の4.8\%から3.2\%に改善されることが分る.意味解析を伴った場合の改善効果が大きい.
\section{連接関係の意味による連接構造の解析モデル}
連接構造の解析モデルは図\ref{fig:mocohere}に示すように,まず,動詞と主体の属性を用いて連接関係の意味解析を行い,その結果に基づいて並列節の解析,連接構造の解析を行う.\begin{figure}\hspace*{30mm}\vspace*{-3mm}\atari(64,75)\vspace{-3mm}\caption{連接構造の解析モデル}\label{fig:mocohere}\end{figure}\subsection{動詞と主体の属性を用いた連接関係の意味解析}連接関係の意味解析を行うときに動詞と主体の属性を用いるが,これらは表\ref{table:feature}に示す素性として表される.これらの素性のうちで,動詞の意志性はIPAL辞書\cite{ipa1987}のものを用いた.意味分類は分類語彙表\cite{nlri1989}の分類を用いた.\begin{table*}\caption{動詞と主体の素性}\label{table:feature}\begin{tabular}{|p{7zw}|p{12zw}|p{18zw}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{1}{|c|}{値}&\multicolumn{1}{|c|}{意味}\\\hlineVOLITION&+,-&意志性\\ANIMATE&+,-&生物/無生物\\SEM-CAT&{使用,製造,教育},...&意味分類\\VOICE&受動,能動,使役,可能&ヴォイス(受動/能動/使役/可能)\\ASPECT&{ている,てある},...&アスペクト\\MODE&平叙,疑問,命令,仮定,指示&モード(平叙/疑問/命令/仮定/指示)\\IDIOM-CAT&TE-SEQ,GA-PRE,...&慣用句の分類\\\hline\end{tabular}\end{table*}これらの属性を用いて動詞の格パターン,接続助詞の連接関係パターンをHPSGの素性構造に似た形式で表し,辞書に登録した.「疲れが出る」に対応する動詞「出る」の格パターンと後置詞句「疲れが」,名詞句「疲れ」の記載例を図\ref{fig:casepatt}に示す.接続助詞「て」が「原因」を表す場合と,「付帯状態」を表す場合の連接関係パターンの記載例を図\ref{fig:cohepatt}に示す.\begin{figure*}(a)動詞の記載例{\footnotesize\[\left\langle出る,\left[\begin{array}{ll}\verb|SYN|&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|動詞|\\\verb|VFORM|&\verb|終止形|\end{array}\right]\\\verb|ARG-ST|&\left\langle\verb|PP[が,ANIMATE-,疲労・睡眠など]|_i\right\rangle\end{array}\right]\\\verb/SEM/&\left[\verb|RESTR|\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|出る|\\\verb|SIT|&\verb|s|\\\verb|出るもの|&\verb|i|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CLASS|&\verb|出現|\\\end{array}\right]\right\rangle\right]\end{array}\right]\right\rangle\]}注)\verb|VP[終止形,VOLITION-,ANIMATE-,出現]|$_s$と略記する.(b)後置詞句:\verb|PP[が,ANIMATE-,疲労・睡眠など]|の内容{\footnotesize\[\left\langle疲れが,\left[\begin{array}{ll}\verb/SYN/&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|後置詞句|\\\verb|CASE|&\verb|が|\\\verb|MOD|&\verb|VP|\left[\begin{array}{ll}\verb|SIT|&\verb|s|\end{array}\right]\end{array}\right]\\\verb|ARG-ST|&\verb|<>|\end{array}\right]\\\verb|SEM|&\left[\begin{array}{ll}\verb|INDEX|&\verb|i|\\\verb|RESTR|&\verb|NP[ANIMATE-,疲労・睡眠など]|\end{array}\right]\end{array}\right]\right\rangle\]}(c)名詞:NP[ANIMATE-,疲労・睡眠など]の内容{\footnotesize\[\left\langle疲れ,\left[\begin{array}{ll}\verb/SYN/&\left[\begin{array}{ll}\verb/HEAD/&\verb|POS名詞|\\\verb|ARG-ST|&\verb|<>|\end{array}\right]\\\verb/SEM/&\left[\begin{array}{ll}\verb|MODE|&\verb|指示|\\\verb|INDEX|&\verb|i|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|疲れ|\\\verb|SIT|&\verb|s|\\\verb|INST|&\verb|i|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CLASS|&\verb|疲労・睡眠など|\end{array}\right]\right\rangle\end{array}\right]\end{array}\right]\right\rangle\]}\caption{辞書における動詞の格パターンの記載例}\label{fig:casepatt}\end{figure*}\begin{figure*}(a)接続助詞「て」による連接関係で「原因」を表す場合{\footnotesize\[\left\langleて,\left[\begin{array}{ll}\verb|SYN|&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|接続助詞|\\\verb|DISTANCE|&\verb|7|\\\verb|MOD|&\verb|VP[VOLITION-,ANIMATE+]|_t\\\end{array}\right]\\\verb|ARG-ST|&\left\langle\verb|VP[連用形,VOLITION-,ANIMATE-]|_s\right\rangle\end{array}\right]\\\verb/SEM/&\left[\begin{array}{ll}\verb|MODE|&\verb|none|\\\verb|INDEX|&\verb|s|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|原因|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\end{array}\right]\right\rangle\end{array}\right]\end{array}\right]\right\rangle\]}\verb|注)CONJ[原因,DISTANCE7,MOD[VOLITION-,ANIMATE+],ARG-ST[VOLITION-,ANIMATE-]]と略記する.|(b)接続助詞「て」による連接関係で「付帯状態」を表す場合{\footnotesize\[\left\langleて,\left[\begin{array}{ll}\verb|SYN|&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|接続助詞|\\\verb|DISTANCE|&\verb|1|\\\verb|MOD|&\verb|VP[ANIMATE+]|_t\end{array}\right]\\\verb|ARG-ST|&\left\langle\verb|VP[連用形,ANIMATE-,包摂・姿勢変化など]|_s\right\rangle\end{array}\right]\\\verb/SEM/&\left[\begin{array}{ll}\verb|MODE|&\verb|none|\\\verb|INDEX|&\verb|s|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|付帯状態|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\end{array}\right]\right\rangle\end{array}\right]\end{array}\right]\right\rangle\]}\verb|注)CONJ[付帯状態,DISTANCE1,MOD[ANIMATE+],ARG-ST[包摂・姿勢変化など,ANIMATE-]]と略記する.|\caption{辞書における連接関係パターンの記載例}\label{fig:cohepatt}\end{figure*}「原因」を表す連接関係は,従属節と主節が共に無意志動詞で,従属節が無生物主体,主節が生物主体を表す場合に対応する.「付帯状態」を表す連接関係は,従属節の動詞が「包摂,姿勢変化,着脱,携帯,心的変化など」の意味分類である場合に対応する.連接関係パターンは,表\ref{table:feature}の素性を用いて意味解析するもので,76の連接関係パターン\cite{mukainaka1997}を用意した.図\ref{fig:casepatt},図\ref{fig:cohepatt}ではHPSGの形式で記載しているが,実際の辞書ではprologの形式に変換して格納している.これら辞書の情報を用いて,連接関係の意味解析を行い,連接構造の解析を行って,複文の連接構造を生成する.解析は,簡単なHPSGパーザをprologで作成して行った.このパーザは,主として格パターンの解析と連接関係パターンの解析の機能だけを持ったもので,この目的のために作成した.本論文のモデルは連用修飾節の解析を対象としたもので,一部の連体修飾節は入力文から省いてある.連用修飾節「疲れが出て」に格パターンと連接関係パターンを適用して解析した例を図\ref{fig:adv-cls}に示す.\begin{figure}\hspace*{7mm}\vspace*{-3mm}\atari(100,110)\vspace{-3mm}\caption{格パターンと連接関係パターンを用いた連用修飾節の解析}\label{fig:adv-cls}\end{figure}「疲れが出る」の主体が無生物,動詞が無意志動詞であるところから,「原因」を表す接続助詞「て」の連接関係パターンが適用されて,「原因」を表す連用修飾節として解析される.この連用修飾節は,係り先に,生物主体,無意志動詞を要求する.\subsection{連接構造の解析}連用修飾節の係り受け解析は,\ref{ch:meanings}章で述べたように,係り側の連用修飾節が要求する受け側の節の属性と,連接関係の関係的意味によって決まってくる連用修飾節の距離によって行う.係り側の連用修飾節の距離が,受け側の連用修飾節の距離に等しいか小さいとき,すなわち,より密着しているときは,隣接する連用修飾節に係る.係り側の連用修飾節の距離が,大きいとき,すなわち,より離れているときは,飛び越えて先に係る.この関係を,HPSGパーザに図\ref{fig:modable}に示すようなHead-Modifierルールの制約として実装した.\begin{figure*}\[\left[\verb|phrase|\right]\to{\footnotesize\left[\begin{array}{l}\verb|phrase|\\\verb|MOD|\fbox{1}\\\verb|DISTANCE|\fbox{2}\end{array}\right]}\verb|H|\fbox{1}{\footnotesize\left[\begin{array}{l}\verb|phrase|\\\verb|DISTANCE|\fbox{3}\end{array}\right]}\verb|{modifiable[|\fbox{2},\fbox{3}\verb|]}|\]\verb|制約の定義|\verb|modifiable(1,1)|\verb|modifiable(1,2)|\verb|・|\verb|・|\verb|・|\verb|modifiable(8,9)|\caption{Head-Modifierルールに対する連接関係の距離による連接可能性の制約}\label{fig:modable}\end{figure*}〔例文6〕にこのルールを適用して,連接構造の解析を行った結果を図\ref{fig:coh-str}に示す.\begin{description}\item[〔例文6〕]昼間の疲れが出て,杏子が母親の背中に負ぶさって,眠っていた.\end{description}\begin{figure}\hspace*{20mm}\vspace*{-3mm}\atari(100,97)\vspace{-3mm}\caption{連接構造の解析}\label{fig:coh-str}\end{figure}連用修飾節「杏子が母親の背中に負ぶさって」は,動詞「負ぶさる」の意味分類が「包摂」を表すので,連接関係の関係的意味が「付帯状態」を表し,距離は1である.連用修飾節「昼間の疲れが出て」は,前述のように「原因」を表し,距離は7である.従って,「昼間の疲れが出て」は,「杏子が母親の背中に負ぶさって」を飛び越えて,主節の「眠っていた」に係る.連用修飾節の要求する主節の属性も,無意志動詞,生物主体であり一致する.主節の距離はもっとも大きく設定されているので,「杏子が母親の背中に負ぶさって」は,問題なく主節に係る.生成された意味構造を図\ref{fig:sem-str}に示す.意味構造は「SyntacticTheory」\cite{sag1999}によった.図はフラットな素性構造のリストで表されているが,INST(ANCE),SIT(UATION),ARG(UMENT)の変数により相互の関連を記述し,意味構造を表している.「原因」の連用修飾節(SITs)も,「付帯状態」の連用修飾節(SITu)も,「ARGt」と指定されており,共に主節(SITt)に係っていることが分る.\begin{figure*}{\footnotesize\[\left[\begin{array}{ll}\verb|MODE|&\verb|平叙文|\\\verb|INDEX|&\verb|s|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|眠る|\\\verb|SIT|&\verb|t|\\\verb|眠る人|&\verb|k|\\\verb|ASPECT|&\verb|ている|\\\verb|TENSE|&\verb|過去|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|包摂・姿勢変化など|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|付帯状態|\\\verb|SIT|&\verb|u|\\\verb|ARG|&\verb|t|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|負ぶさる|\\\verb|SIT|&\verb|u|\\\verb|負ぶさる人|&\verb|k|\\\verb|負ぶさる物|&\verb|m|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|包摂・姿勢変化など|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|背中|\\\verb|INST|&\verb|m|\\\verb|ANIMATE|&\verb|+|\\\verb|SEM-CAT|&\verb|胸・腹・背|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|所有|\\\verb|所有者|&\verb|l|\\\verb|所有物|&\verb|m|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|母親|\\\verb|INST|&\verb|l|\\\verb|ANIMATE|&\verb|+|\\\verb|SEM-CAT|&\verb|親・先祖|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|名前|\\\verb|NAME|&\verb|杏子|\\\verb|NAMED|&\verb|k|\\\verb|ANIMATE|&\verb|+|\\\verb|SEM-CAT|&\verb|人間|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|原因|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|出る|\\\verb|SIT|&\verb|s|\\\verb|出る物|&\verb|j|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|出現|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|疲れ|\\\verb|INST|&\verb|j|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|疲労・睡眠など|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|所有|\\\verb|所有者|&\verb|i|\\\verb|所有物|&\verb|j|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|昼間|\\\verb|INST|&\verb|i|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|朝晩|\\\end{array}\right]\right\rangle\\\end{array}\right]\]}\caption{「昼間の疲れが出て,杏子が母親の背中に負ぶさって,眠っていた.」から生成された意味構造}\label{fig:sem-str}\end{figure*}\subsection{並列節の解析}並列節に対しては,一般の連用修飾節の係り受けとは別のルールが適用される.すなわち,並列の連接関係パターンに対しては,図\ref{fig:coord}のCoordinationルールが適用される.係り側と受け側の節の動詞の意味分類,または各後置詞句を構成する名詞の意味分類のいずれかが一致するかどうかチェックされ,一致するときに並列節と解析される.Coordinationルールには,距離の制約条件がないので,並列の連接関係パターンは全ての節に適用可能である.並列節にさらに並列節が係ることも可能である.\begin{figure*}\[\left[\verb|phrase|\right]\to{\footnotesize\left[\begin{array}{ll}\verb|phrase|&\\\verb|ARG-ST|&\fbox{1}\\\verb|MOD|&\fbox{2}\\\verb|RESTR|&\left[\begin{array}{ll}\verb|RELN|&\verb|並列|\\\verb|ARG|&\verb|<|\fbox{1},\fbox{2}\verb|>|\\\end{array}\right]\end{array}\right]}\verb|H|\fbox{2}\left[\begin{array}{ll}\verb|phrase|&\\\end{array}\right]\verb|{coordinate[|\fbox{1},\fbox{2}\verb|]}|\]\verb|coordinate[|\fbox{1},\fbox{2}\verb|]:|\fbox{1},\fbox{2}を構成する各節の対応する\verb|SEM-CAT|に同じものがあるとき成立.\caption{Coordinationルール}\label{fig:coord}\end{figure*}〔例文7〕のように,条件節が係った並列節を解析する場合の例を図\ref{fig:co-ana}に示す.\begin{description}\item[〔例文7〕]必要になったときにマウントして,不要になったときにアンマウントするので,・・・・・\end{description}\begin{figure}\hspace*{5mm}\vspace*{-3mm}\atari(130,69)\vspace{-3mm}\caption{並列節の解析}\label{fig:co-ana}\end{figure}条件節と並列節の係り受けに対しては,通常のHead-Modifierルールを適用する.この場合,並列節の距離は8に設定されているので,全ての節が係り得る.係り側が並列節のときは,Coordinationルールが適用され,条件節同士の意味分類が一致しているか,並列節と受け側の原因節の意味分類が一致しているかがチェックされる.条件節の動詞の意味分類が一致しており,並列節と原因節の動詞の意味分類が一致しているので,ルールが成立し,係り受けが成立する.この場合,原因節の距離が7,並列節の距離が8であり,HeadModifierルールでは係り受けが成立しないが,Coordinationルールでは,制約条件をチェックしないので,係り受けが成立する.\newpage生成された意味構造を図\ref{fig:co-sem}に示す.並列を構成する各々の節(SITtおよびSITu)が,\verb|ARG<t,u>|により並列を構成していることが分る.\begin{figure*}{\footnotesize\[\left[\begin{array}{ll}\verb|MODE|&\verb|平叙文|\\\verb|INDEX|&\verb|u|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|原因|\\\verb|SIT|&\verb|u|\\\verb|ARG|&\verb|w|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|アンマウントする|\\\verb|SIT|&\verb|u|\\\verb|VOLITION|&\verb|+|\\\verb|SEM-CAT|&\verb|マウント・アンマウントなど|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|時|\\\verb|SIT|&\verb|v|\\\verb|ARG|&\verb|u|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|なる|\\\verb|SIT|&\verb|v|\\\verb|目標物|&\verb|j|\\\verb|TENSE|&\verb|過去|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|成立・発生|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|不要|\\\verb|INST|&\verb|j|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|必然性|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|並列|\\\verb|ARG|&\verb|<t,u>|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|マウントする|\\\verb|SIT|&\verb|t|\\\verb|VOLITION|&\verb|+|\\\verb|SEM-CAT|&\verb|マウント・アンマウントなど|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|時|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|なる|\\\verb|SIT|&\verb|s|\\\verb|目標物|&\verb|i|\\\verb|TENSE|&\verb|過去|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|成立・発生|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|必要|\\\verb|INST|&\verb|i|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|必然性|\\\end{array}\right],\right\rangle\\\end{array}\right]\]}\caption{「必要になったときにマウントして,不要になったときにアンマウントするので,・・・・・」から\\生成された意味構造}\label{fig:co-sem}\end{figure*}
\section{連接構造解析モデルの評価結果}
\ref{ch:meanings}章では,人手で解析を行ったが,同一の例文を,作成した連接構造解析モデルを用いて解析した.例文は,主節の外に連用従属節を2つ以上含む344文を用いた.モデルから生成された解析結果の意味構造を分析した結果,\ref{ch:meanings}章で解析した結果より多少悪い90.7\%の精度を得ることができた.これを,全体の2,010文に換算すると,98.4\%に相当する.間違った文を分析すると,並列の解析誤りが11\%,連接関係の関係的意味の解析誤りが17\%,その他72\%がルール1,2では正しく解析できない文であった.接続の表現の頻度によるモデルも作成して解析した.解析結果は,\ref{ch:meanings}章で解析した結果とほぼ同等の82.3\%の精度を得ることができた.これを,全体の2,010文に換算すると97.0\%に相当する.
\section{むすび}
本論文では連用修飾節の係り受けを解析し,連接構造を求めるために,連接関係の関係的意味を用いるモデルを作成し,実験した結果を述べた,接続の表現の曖昧性を解消して,連接関係の関係的意味を確立するために,動詞と主体の属性を用いて,連接関係をパターン化した.動詞の属性として,動詞の意志性,意味分類,慣用表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.本モデルを,実際の技術文書に適用して評価した結果,98.4\%の正しい解析結果を得ることができた.関係的意味を用いないで,接続の表現の分類だけによった場合は97.0\%の精度であったから本モデルの方法により誤り率が約半分に改善された.\bibliographystyle{jnlpbbl}\bibliography{coherence}\begin{biography}\biotitle{略歴}\bioauthor{向仲景\,\,\\llap{頁}}{1953九州大学工学部電気工学科卒業.同年,日本電気(株)入社.基本ソフトウェア開発に従事.平成5年より金沢経済大学教授.平成9年より江戸川大学教授,現在に至る.自然言語理解,エキスパートシステムの研究に従事.情報処理学会,言語処理学会,人工知能学会,ACL,ACM,IEEE各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N07-05
|
\section{はじめに}
日本語や中国語等においては,単語間に空白を入れる習慣がないため,これらの言語の計算機処理では,まず文を単語列に分割する処理が必要となる.単語分割は日本語処理における最も基本的かつ重要な技術であり,精度・速度ともに高い水準の性能が要求される.単語分割と品詞付けから成る日本語形態素解析法の多くは,単語辞書の登録語との照合を行い,複数の形態素解析候補がある場合はヒューリスティクス(heuristics)を用いて候補間の順位付けを行うというものである.しかし,実際に,辞書中にすべての単語を網羅するのは不可能であるため,未知語(辞書未登録語)という重大な問題が生ずる.また,ヒューリスティクスでは扱うことのできない例外的な言語現象の存在や,例外現象に対処するための規則の複雑化が問題となる.その結果,一部の規則修正が全体に与える影響を人間が把握することが困難になり,規則の保守・管理に大きな労力を必要とすることとなる.一方,英語の品詞付けでは,タグ付きコーパスを用いた確率的手法が確立されている\cite{Church88,Cutting92,Charniak93}.言語表現の出現頻度に基づく確率的言語モデルを用いる方法には,対象領域のテキストからモデルのパラメータを学習する方法が存在するという大きな利点があり,タグ付きコーパスが整備されている領域では,実験的に最も高い精度が報告されている.英語の正書法は単語間で分かち書きするため,これらの手法は,単語モデル(word-basedmodel)を用いている.英語の品詞付けは,日本語の単語分割と技術的に似ているため,英語の品詞付け手法の多くは日本語の単語分割にも適用可能となる.しかし,単語モデルを日本語に適用するためには,いくつかの問題がある.日本語では,未知語の存在が単語の同定に影響を与える上,分割が曖昧で,異なる長さの多くの分割候補があり,それらの候補を比較する必要がある\cite{Yamamoto97}.このため,単語モデルを用いるためには,分割候補の確率を正規化する必要が生じる.以上の点から,我々は文字モデル(character-basedmodel)に基づく単語分割法を提案した\cite{Oda99a,Oda99b}.文字モデルは,未知語モデルとしても機能するために,学習データに含まれていない単語に対しても対応が可能である.本論文では,より頑健な単語分割モデルを構築するために,日本語文字のクラスタリング(グループ化)を行うことを考える.日本語漢字は表意文字であり,一文字が何らかの意味を担っている.したがって,何らかの基準によりいくつかのグループ(クラス)に分類することが可能である.文献\cite{Yamamoto97}で示されている文字モデルの利点に加え,文字クラスモデルでは,文字モデルよりもさらにモデルのパラメータ数を少なくすることができるという大きな利点がある.したがって,より頑健なモデルである文字クラスモデルを単語分割へ適用した場合,未知語に対する頑健性がさらに向上すると考えられる.文字とクラスの対応関係を得るためのクラスタリング処理には,クロス・バリデーション法(cross-validation)の適用により求められる平均クロス・エントロピーを言語モデルの評価基準としたクラスタリング法\cite{Mori97}を用いる.平均クロス・エントロピーを評価基準として求められた単語bigramクラスモデルは,単語bigramモデルよりも予測力という点において優れていることが実験的に示されている\cite{Mori97,Mori98}.本論文では,この方法を日本語文字のクラスタリングに適用し,文字クラスモデルを構築する.以下,本論文では,文字クラスモデルに基づく新しい単語分割手法を提案する.まず,基本となる文字モデルに基づく単語分割モデルについて簡単に説明する.さらに,類似した文字を自動的にグループ化するクラス分類法について説明し,文字クラスモデルに基づいた単語分割モデルを提案する.ADD(ATRDialogueDatabase)コーパスを用いた評価実験において,文字モデルを用いた場合と,文字クラスモデルを用いた場合の単語分割精度を比較し,提案した手法の評価を行う.
\section{文字モデルに基づく単語分割法}
本節では,文字モデルに基づく単語分割法\cite{Oda99a,Oda99b}について説明する.まず,言語モデルとして,文字$n$-gramモデルを用いることを考える.文字$n$-gramモデルでは,言語の文字生起は,$(n-1)$重マルコフモデルで近似される.長さ$l$の文字列$c_1^l=c_1c_2\cdotsc_l$において,直前の$(n-1)$文字のみが次の文字の生起確率に影響する.実際によく用いられるモデルは,$n=2$あるいは$n=3$のモデルであり,これらはbigramモデル,trigramモデルと呼ばれている.以下では,$n=3$の文字trigramモデルを用いることで,単語分割モデルの定式化を行う.単語分割モデルの学習データとしては,単語境界位置の付与されたデータを用いる.図\ref{Fig:training}に学習データの例を示す.記号$\langle{\rmd}\rangle$は単語境界(単語間のスペース)を表す特殊記号であり,$\langle{\rms}\rangle$と$\langle{\rm/s}\rangle$はそれぞれ文頭と文末を表す特殊記号である.\begin{figure}[hbt]\begin{center}\psbox[width=0.95\textwidth]{training.eps}\end{center}\caption{学習データの例}\label{Fig:training}\end{figure}単語境界位置の付与された学習データから文字trigramモデルの確率値を推定し,これを用いて単語分割を行う.与えられた「ベタ書き」文を単語列に分割するためには,入力文中の各文字位置に対し,その文字の前で単語分割が起こるか否かを求めればよい.このために,それぞれの文字位置に対し,2つの状態1と0を仮定する.状態1はその文字の前が単語境界となることを表す状態であり,状態0は単語境界とならないことを表す状態である.文字位置$i(\ge2)$の状態の推定は次式で与えられる.なお,$P_j(c_1^i)$は文字列$c_1^i=c_1c_2\cdotsc_i$を生成して状態$j$に到達する確率を表す.\begin{eqnarray}\lefteqn{P_0(c_1^i)=\max(P_0(c_1^{i-1})A_i,~P_1(c_1^{i-1})B_i)}\label{Eq:WordSegMainNoS}\\\lefteqn{P_1(c_1^i)=\max(P_0(c_1^{i-1})C_i,~P_1(c_1^{i-1})D_i)}\label{Eq:WordSegMainS}\\[3pt]&&A_i=p(c_i|c_{i-2}c_{i-1})\nonumber\\&&B_i=p(c_i|\langle{\rmd}\ranglec_{i-1})\nonumber\\&&C_i=p(\langle{\rmd}\rangle|c_{i-2}c_{i-1})p(c_i|c_{i-1}\langle{\rmd}\rangle)\hspace{7mm}\nonumber\\&&D_i=p(\langle{\rmd}\rangle|\langle{\rmd}\ranglec_{i-1})p(c_i|c_{i-1}\langle{\rmd}\rangle)\nonumber\end{eqnarray}また,文字位置$i=1$の場合は,次式で求めることができる.\begin{eqnarray}P_0(c_1)&=&p(c_1|\langle{\rms}\rangle)\label{Eq:WordSegBeginNoS}\\P_1(c_1)&=&0\label{Eq:WordSegBeginS}\end{eqnarray}ここで,学習データ中の文字位置1の前には単語境界記号がないため,式(\ref{Eq:WordSegBeginS})を定義する.入力文$s=c_1^m$に対する最適な単語分割は,各文字位置に対する状態1と0の最適な状態遷移系列として与えられる.単語分割モデルの計算のため,実際の入力文には,文頭記号と文末記号を各々$0$番目と$m+1$番目の文字として加えて処理を行う.学習データ中の文末記号$\langle{\rm/s}\rangle$の前には単語境界$\langle{\rmd}\rangle$がないので,最適な状態遷移系列は\begin{equation}\maxP_0(c_1^{m+1})\end{equation}となるような状態遷移系列である.これを求めるためには,動的計画法の一種であるビタビ・アルゴリズム(Viterbialgorithm)を用いることができる(図\ref{Fig:viterbi}参照).\begin{figure}[hbt]\vspace{-2mm}\begin{center}\psbox[width=0.70\textwidth]{viterbij.eps}\end{center}\caption{ビタビ・アルゴリズムを用いた文の分割}\label{Fig:viterbi}\vspace{-6mm}\end{figure}求められた最尤状態遷移系列において,状態1である文字位置の前で単語分割を行う.図\ref{Fig:viterbi}において単語境界を点線で示す.文字trigramモデルを言語モデルとして用いた場合,以上の単語分割モデルにより,入力文に対して最適な単語分割を求めることができる.また,同様の考えに基づいて可変長$n$-gramモデル(variable-length$n$-grammodel)を用いた単語分割を行うことも可能である\cite{Oda99a,Oda99b}.その場合は,解探索における単語分割候補の指数的増加を避けるために,各文字位置において確率の高い候補のみを後続する文字位置での探索に用いるようにする.もし文字trigramモデルによる単語分割モデルと同様に,文字位置$i$の直前が単語境界である(状態1)か否(状態0)かの2つの仮定に対する各々の最尤解のみに関して解探索を行うならば,その探索空間は,図\ref{Fig:viterbi}に示す探索空間と同じとなる.
\section{日本語文字のクラスタリング}
\label{Sec:CharClustering}\subsection{文字$n$-gramクラスモデル}$n$-gramモデルに,クラスという概念を導入したモデルを$n$-gramクラスモデル($n$-gramclassmodel)と呼ぶ\cite{Brown92}.ここで,クラスとは$n$-gramモデルの予測単位とする文字(あるいは単語)の集合を何らかの基準でクラスタリング(クラス分類)したものを指す.本節では,特に日本語漢字が表意文字であり,一文字が何らかの意味を担っていることから,類似した文字を自動的にグループ化することを考える.文字クラス数は文字数に比べると少ないものとなるので,文字$n$-gramモデルよりも文字$n$-gramクラスモデルの方が推定すべきパラメータ数が少ないという利点がある.また,文字クラスモデルは,文字クラスを用いた一種のスムージングであり,頑健なモデルを構築することが期待できる.このため,文字$n$-gramクラスモデルは,文字$n$-gramモデルよりも必要な学習データ量が少なく,たとえ小さな学習データからでも,より信頼性のある確率値を推定することが容易となる.文字$n$-gramクラスモデルでは,次の文字を直接予測するのではなく,先行する文字クラス列から次の文字クラスを予測した上で次の文字を予測する.ここで,文字が一つのクラスにしか属さないとすると,文字の生起確率は次の式で表すことができる.\begin{equation}P(c_i|c_1^{i-1})=P(c_i|{\calC}_i)P({\calC}_i|{\calC}_{i-n+1}^{i-1})\label{Eq:CharClassModel}\end{equation}クラス${\calC}_i$は,文字$c_i$の属する文字クラスである.また,確率$P(c_i|{\calC}_i)$は次式により最尤推定できる.\begin{equation}P(c_i|{\calC}_i)=\frac{N(c_i)}{N({\calC}_i)}\label{Eq:CharClassProb}\end{equation}ここで,$N(c_i)$は学習データ中で文字$c_i$が出現した回数であり,$N({\calC}_i)$はクラス${\calC}_i$の文字が出現した回数である.さらに,本論文では,未知文字を考慮するために,未知文字のクラスを考える.未知文字クラスには,学習データ中に出現しない未知文字と,頻度の小さい文字を含めることとする(未知文字の実例の収集).未知文字$c$が未知文字クラス${\calC}$から生起する確率$P(c|{\calC})$は次式により計算することができる.\begin{equation}P(c|{\calC})=\frac{1}{|A-A_k|}\label{Eq:UnknownCharClassProb}\end{equation}ここで,$A$は対象言語の文字集合であり,$A_k$は既知文字集合である.\subsection{文字クラスタリング法}クラス分類法には様々なものが提案されている\cite{Brown92}.優れた文字クラスモデルを獲得するためには,モデルの予測力を向上させる(すなわちクロス・エントロピーの値を小さくする)文字とクラスの対応関係を発見する必要がある.しかし,クラスタリングに関する多くの先行研究では,確率値の推定に用いる学習データのエントロピーの値を評価基準とすることでクラスタリングの優劣を判定している.学習データのエントロピーを小さく(学習データを高い精度で予測)することを目的とするのであれば,モデルのパラメータ数は多いほど良いこととなる.したがって,学習データのエントロピーを評価基準としてクラスタリングの解探索を行う限り,どのような文字の組合せに対しても複数の文字を同一視することで必ず情報の損失が生じるため,文字モデルよりもエントロピーの値が小さい文字クラスモデルは解空間に存在しないこととなる.以上のように,学習データのエントロピーは,クラスタリングの評価基準としては不適切なものであり,得られた文字クラスモデルが文字モデルより優れた言語モデルであることが期待できないという重大な問題が生じる.実際,文献\cite{Brown92}の手法では,停止基準として人間が決定する閾値(クラス数)を導入し,閾値までパラメータ数を減少させた場合における最も良い(情報の損失の少ない)解を求めているが,得られたモデルの予測力は低下していることが報告されている.そもそも言語モデルの評価は確率の推定に用いない未知の評価データに対する予測力によって決められる.したがって,理想的には,対象言語の未知のデータに対してクロス・エントロピーを小さくするように文字をグループ化することが望ましい.以上の点から,文献\cite{Mori97}では,学習データ内の一部を未知の評価データとして扱い,その評価データのクロス・エントロピーが小さくなるようにクラス分類を行うアルゴリズムを提案している.このクラス分類法には,停止基準を評価基準から導き出せるという利点があり,人間の判断に委ねられる停止基準(閾値)を必要としない(詳細に関しては後述する).実際に,得られた単語bigramクラスモデルは単語bigramモデルよりも優れた性能を示すことが実験的に報告されている.そこで,本論文では日本語文字のクラスタリングに文献\cite{Mori97}の手法を適用することを考える.\subsubsection{クラスタリングの評価基準}クラスタリングの評価基準として用いる平均クロス・エントロピーについて説明する.ここで,言語モデルの性能尺度であるクロス・エントロピー$H$は以下の式で定義される.\begin{equation}H(M,T)=-\frac{\sum_{i=1}^n\logp_M(s_i)}{\sum_{i=1}^n|s_i|}\label{Eq:Entropy}\end{equation}ここで,$M$は言語モデル,$s_i$は評価データ$T$中の$i$番目の文である.$|s_i|$は文$s_i$を構成する文字の数とする.このとき,文区切りを考慮するために,$s_i$は文末記号までを含むと仮定する.学習データ内に未知の評価用データを用意して,その評価データによりクラス分類の性能を評価する.これを実現するために,削除補間(deletedinterpolation)のようにクロス・バリデーション法(cross-validation)あるいは交差検定法と呼ばれる技術を用いる.クロス・バリデーション法とは,データの役割を交替しながら繰り返し学習および評価を行う方法のことを指す.\begin{enumerate}\item学習データ$L$を$m$個の部分データ$L_1,L_2,\cdots,L_m$に分割する.\item各部分データ$(i=1,2,\cdots,m)$に対し,ステップ3,4を行う.\item学習データから$L_i$を削除し,残りの$m-1$個のデータから確率値を推定する.\item削除されたデータ$L_i$で,式(\ref{Eq:Entropy})によりクロス・エントロピーの値を計算する.\end{enumerate}以上のようにして,$m$個のクロス・エントロピーの値を得ることができるので,それらの値の平均値$\overline{H}$(平均クロス・エントロピー)を全体の評価関数とする.\begin{equation}\overline{H}=\frac{1}{m}\sum_{i=1}^mH(M_i,L_i)\end{equation}ここで,$M_i$はステップ3で$L_i$を削除した残りのデータから推定されたモデルである.平均クロス・エントロピー$\overline{H}$は確率推定に用いないデータにおけるクロス・エントロピーの平均値であるため,文字とクラスの対応関係を変更していくつかの文字を同一視するようにした場合,同一視しなかった場合に比べて$\overline{H}$の値が増加することもあれば減少することもあるという振舞をみせる.したがって,クラスタリングの解探索は$\overline{H}$が減少する場合のみクラスの変更を施せば良いという極めて自然なものとなる.以上の$\overline{H}$の値を最小とする文字とクラスの対応関係を求めることが,本論文の文字クラスタリングの最終目的となり,クラスの併合過程においてどのような併合も$\overline{H}$を減少させることができない状態に到達することがアルゴリズムの停止条件となる.\vspace{-2mm}\subsubsection{クラスタリング・アルゴリズム}\vspace{-1mm}文字クラスモデルを構築するためには,文字クラスタリングにより文字とクラスの対応関係を求めることが必要となる.文字とクラスの対応関係としては,ある文字が一定の確率で複数のクラスに属するという確率的な関係も考えられるが,解空間が広大になるので,本論文では,文字は一つのクラスのにみ属することを仮定する.以下では,文字とクラスの対応関係を返すクラス関数$f$を用いて説明する.たとえば,文字$c_1$の属するクラスとして,$f(c_1)=\{c_1,c_2,c_3\}$を返す.このとき,文字$c_2,c_3$に対するクラス関数$f$も,各々の文字が属するクラスとして同じく文字集合$\{c_1,c_2,c_3\}$を返すこととなる.ここで,クラスタリング対象文字の集合を$A_k$とすると,$A_k$中のすべての文字のクラス関数$f$の和集合は$A_k$となり,$A_k$と未知文字クラスの和集合が対象言語の文字集合$A$となる.さらに,文字のクラス分類に対する解探索を行うために,文字とクラスの対応関係の変更を表す関数$move$を定義する.移動関数$move$は,文字とクラスの関係$f$に対して,文字$c$をクラス${\calC}$に移動した結果得られる文字とクラスの関係を返す.文字は唯一のクラスに属するとしているので,$move(f,c,{\calC})$は,現在,文字$c$が属するクラス$f(c)$から,集合の要素$c$を取り除き,クラス${\calC}$に要素$c$を加えることを意味する.文字クラス分類の最適解を求めるためには,あらゆる可能な文字とクラスの対応関係を調べる必要がある.クラス分けの総数は有限であるので,理論的には総当たり戦略により最適なクラスを見つけることはできる.しかし,総当たり法は非現実的であるため,準最適なアルゴリズムを用いることとなる.文献\cite{Mori97}のアルゴリズムを以下に示す.\vspace{3mm}\begin{tabbing}{\bf文字クラスの学習アルゴリズム}\\{文字集合$A_k$中の文字を頻度の降順にソートし,$c_1,c_2,\cdots,c_n$とする}\\{\bfforeach}{$i(1,2,\cdots,n)$}\\\hspace*{2ex}\=${\calC}_i:=\{c_i\}$\\\>$f(c_i):={\calC}_i$\\{\bfforeach}{$i(2,3,\cdots,n)$}\+\\${\calC}:={\bfargmin}_{{\calC}\in\{{\calC}_1,{\calC}_2,...,{\calC}_{i-1}\}}\overline{H}(move(f,c_i,{\calC}))$\\{\bfif}$(\overline{H}(move(f,c_i,{\calC}))<\overline{H}(f))${\bfthen}\\\hspace{2ex}$f:=move(f,c_i,{\calC})$\-\end{tabbing}\vspace{3mm}上記アルゴリズムはボトムアップ型の探索を行っており,初期状態において,各文字を各々一つのクラスとみなしている.後は,頻度の高い文字の順に他のクラスへの文字の移動を仮定して,平均クロス・エントロピーの値を再計算している.このとき,平均クロス・エントロピーが減少する文字とクラスの新しい対応関係が発見できれば,クラス関数$f$を変更する.頻度の高い文字から処理を行う理由は,頻繁に出現する文字ほどクロス・エントロピーに与える影響が大きいと考えられるので,早い段階での移動が後の移動によって影響されにくく,収束がより速くなると考えられるからである.クラスタリングの処理の例を図\ref{Fig:ClusteringImage}に示す.\begin{figure}[hbt]\begin{center}\psbox[width=0.60\textwidth]{cluster.eps}\end{center}\caption{文字クラスタリングの処理の例}\label{Fig:ClusteringImage}\end{figure}
\section{文字クラスモデルに基づく単語分割法}
\vspace{-1mm}文字クラスモデルを言語モデルとして,単語分割を行う.ここで,\ref{Sec:CharClustering}節の文字クラスタリング法では,文字と文字クラスの関係が一意に定まることを考えると,一文を構成する文字列$c_1^m$がそのまま文字クラス列${\calC}_1^m$に変換できることが分かる.単語分割モデルでは,入力文の各文字間において単語境界の有無を仮定して文の生成確率を計算・比較する.ここで,式(\ref{Eq:CharClassProb})および式(\ref{Eq:UnknownCharClassProb})から分かるように,確率$p(c_i|{\calC}_i)$は単語境界の有無には影響を受けない値である.さらに,一文を構成する文字は不変であるので,$\prod_{i=1}^mp(c_i|{\calC}_i)$はどのような分割候補の確率を求める場合でも一定の値の項となる(式(\ref{Eq:CharClassModel})参照).したがって,文字trigramクラスモデルによる単語分割モデルでは,以下のようにクラス連鎖の確率のみを用いて簡単に計算することができる.\begin{eqnarray}\lefteqn{P_0(c_1^i)=\max(P_0(c_1^{i-1})A_i,~P_1(c_1^{i-1})B_i)}\label{Eq:ClassWordSegMainNoS}\\\lefteqn{P_1(c_1^i)=\max(P_0(c_1^{i-1})C_i,~P_1(c_1^{i-1})D_i)}\label{Eq:ClassWordSegMainS}\\[3pt]&&A_i=p({\calC}_i|{\calC}_{i-2}{\calC}_{i-1})\nonumber\\&&B_i=p({\calC}_i|\langle{\rmd}\rangle{\calC}_{i-1})\nonumber\\&&C_i=p(\langle{\rmd}\rangle|{\calC}_{i-2}{\calC}_{i-1})p({\calC}_i|{\calC}_{i-1}\langle{\rmd}\rangle)\hspace{7mm}\nonumber\\&&D_i=p(\langle{\rmd}\rangle|\langle{\rmd}\rangle{\calC}_{i-1})p({\calC}_i|{\calC}_{i-1}\langle{\rmd}\rangle)\nonumber\end{eqnarray}また,文字位置$i=1$の場合は,次式で求めることができる.\begin{eqnarray}P_0(c_1)&=&p({\calC}_1|\langle{\rms}\rangle)\label{Eq:ClassWordSegBeginNoS}\\P_1(c_1)&=&0\label{Eq:ClassWordSegBeginS}\end{eqnarray}上記の単語分割モデルをみれば分かるように,文字クラスモデルを用いた場合は,文字クラスの連鎖により単語境界を予測するという問題に置き換わる.文字trigramクラスモデルを用いた場合も,$\maxP_0(c_1^{m+1})$となる状態遷移系列をビタビ・アルゴリズムを用いて求めることで,入力文に対する最適な単語分割を得ることができる(図\ref{Fig:viterbi}参照).また,可変長$n$-gramクラスモデルを用いる場合でも,同様に,クラス連鎖における単語境界の出現の有無により確率比較を行い,解探索を行うこととなる.
\section{評価実験}
以上で提案した手法を評価するために,ATR対話データベースを用いた評価実験を行った.それぞれのデータの文数,単語数,文字数を表\ref{Tab:datasize}に示す.\begin{table}[hbt]\begin{center}\caption{学習データと評価データのサイズ}\label{Tab:datasize}\begin{tabular}{l|r|r}\hline\hline&学習データ&評価データ\\\hline文数&11,430&1,267\\\hline単語数&155,553&17,829\\\hline文字数&278,771&31,450\\\hline\end{tabular}\end{center}\end{table}\subsection{文字クラスモデルのクロス・エントロピー評価}前節の単語分割モデルで用いる文字クラスモデルを作成する.したがって,文字trigramクラスモデルや可変長$n$-gramクラスモデルの予測力を改善するような文字クラスを求める必要がある.しかし,文字クラスタリング・アルゴリズムの評価基準である平均クロス・エントロピーの計算を考えると,高次のモデルでは,必要な記憶容量と計算時間が大きな問題となる.そこで,本実験では,クロス・エントロピーの計算は,低次のbigram確率によって計算した.bigramモデルであれば,高速なクラスタリング処理が可能である.もし日本語における文字分類の最適解に近い解を得ることができれば,得られたクラス関数$f$はどのような次数のモデルに対してもある程度有効であると考えられる.また,本論文では,日本語文字が明らかに字種によって分類できることから,クラスタリング処理において,字種により規制を設けることを考えた.たとえば,漢字は漢字同士でグループ化するというように考えることで,文字とクラスの対応関係の変更を考える場合に必要な計算量を少なくすることができる.これにより,漢字の場合は$move$関数の移動先クラスとして漢字のクラスのみを考えることとなり,ひらがなの場合はひらがなのクラスのみとなる.以上の条件により,文字クラスタリングを行うために,学習データを9個のデータ$L_1,L_2,\cdots,L_9$に分割した.ここで,1個のデータにしか出現しない文字は未知文字とし,字種ごとに未知文字クラスを用意した.これは,クロス・バリデーション法による平均クロス・エントロピーの計算(9回の評価)において未知文字であった文字をそのまま学習データ全体における未知文字の実例の収集に用いることを意味する.したがって,クラスタリングの対象となる文字は,2個以上のデータに出現する文字となる.また,単語分割に用いる言語モデルを獲得することを念頭におくため,単語間に単語境界記号を挿入した分かち書きデータを用いた.単語境界記号自体はクラスタリングの対象ではないが,その存在により,クロス・エントロピー評価では単語境界(単語間のスペース)まで考慮するようになる.本実験において,評価データ中の未知文字(クラスタリング対象文字以外)は字種ごとに異なる特別な記号に置き換えてクロス・エントロピーの計算を行った.未知文字の扱いは文字モデルと文字クラスモデルで共通であるので,未知文字の確率はモデルの比較においては問題とならない.重要なことは,クラスタリング対象文字のグループ化によって,モデルの予測力がどのように変化するかである.以上の点から,モデルの状態は,既知文字すべて(もしくは文字クラスすべて),未知文字クラス(字種ごと),単語境界,文区切りの各々に対応することとなる.実験により得られた,文字bigramモデルと文字bigramクラスモデルのクロス・エントロピーを表\ref{Tab:CrossEntropy}に示す.\begin{table}[hbt]\begin{center}\caption{言語モデルのクロス・エントロピー}\label{Tab:CrossEntropy}\begin{tabular}{l|r}\hline\hline言語モデル&\multicolumn{1}{c}{$H$}\\\hline文字bigramモデル&3.5980\\文字bigramクラスモデル&3.5591\\\hline\end{tabular}\end{center}\end{table}本実験において,文字クラスモデルのクロス・エントロピーは文字モデルのものよりも小さく,より予測力の高い言語モデルの獲得に成功している\footnote{単語間のスペースを考慮しない「ベタ書き」の日本語データを用いた実験では,クロス・エントロピーは,文字bigramモデルでは4.3563ビット,文字bigramクラスモデルでは4.3060ビットであり,同様に,文字クラスモデルのほうが一文字当たりのクロス・エントロピーが小さいという結果が得られている.}.また,表\ref{Tab:CharClassParameters}に,クラスタリング対象文字数とそれらをクラスタリングした後の文字クラス数を示す.学習データ中には,1357種類の文字が含まれていたが,約200種類の低頻度文字が未知文字として取り扱われた.実験の結果,クラス当たりの平均要素(文字)数は1.36文字であり,最大のクラスの所属文字数は12文字であった.\begin{table}[hbt]\begin{center}\caption{文字数と文字クラス数の比較}\label{Tab:CharClassParameters}\begin{tabular}{l||r|r}\hline\hline&\multicolumn{1}{|c|}{既知文字数}&\multicolumn{1}{c}{文字クラス数}\\\hline漢字&935&675\\ひらがな&70&67\\カタカナ&78&71\\数字&10&8\\英字&42&13\\記号&23&15\\\hline合計&1,158&849\\\hline\end{tabular}\end{center}\end{table}文字クラスタリング実験により得られたクラス関数$f$が返す文字集合(文字クラス)を,図\ref{Fig:ExampleCharClass}にいくつか示す.必ずしもすべての文字クラスが言語直観から納得がいくものではないが,いくつかのノイズと思われる文字を除けば,(特に出現位置の類似という点で)ある程度良い解が得られていることが分かる.不自然な印象を受ける文字のグループが存在するのは,あくまでbigramクラスモデルの改善における準最適解を求めているからであると考えられる.\begin{figure}[hbt]\{送,乗,居,貼\}\{私,誠,娘,又\}\{思,誓\}\{今,昨\}\{部,型\}\{中,低\}\{他,皆,僕\}\\\{原,松,草\}\{山,竹,塚,吉\}\{別,誰\}\{特,既\}\{忙,楽\}\{近,多,暗\}\{渡,貸,探,押\}\\\{朝,昼\}\{市,職,命,履\}\{安,幸\}\{図,計,義\}\{島,木,川,根\}\{食,刻,飯\}\{帰,困\}\\\{女,性\}\{校,化,枠,郊\}\{映,厳,撮\}\{含,休,混\}\{購,納\}\{離,訪\}\{項,故\}\\\{戸,宮\}\{欄,横,机,縦,層,逆\}\{界,株,財\}\caption{実験により得られた文字クラスの例}\label{Fig:ExampleCharClass}\end{figure}本実験では,各文字クラスに属する文字数は少なく,文字クラスタリングによって,それほど極端にパラメータ数が減少するということにはならなかった.この原因は,今回用いたコーパスの規模が小さく,学習データに含まれる文字の種類が少なかったためであると考えられる.より多くの文字種をクラスタリングの対象とすれば,モデルのパラメータ数の減少度はさらに大きくなるであろう.\subsection{単語分割精度の比較評価}\vspace{-1.5mm}文字クラスタリング実験により得られたクラス関数$f$を用いることで,文字trigramクラスモデルや可変長$n$-gramクラスモデルを構築することができる.ここで,文字クラスタリングでは字種別にグループ化を行ったので,単語分割に用いる文字クラスモデルを作成するときに,クラス関数$f$を用いる字種を限定してみることについても試みることとした.もしあまり有効でない文字のグループ化が行われている字種があれば,それらの文字はクラス関数$f$を用いず,文字を予測単位として処理すれば,より性能の良いモデルが得られる可能性がある.また,本論文で提案した文字クラスモデルに基づく単語分割モデルは非常に簡単な構造となっており,いかにクラス連鎖により単語境界の生起を把握するかが単語分割精度の鍵となる.ここで,字種変化によるヒューリスティクスを考慮した場合,カタカナ,数字,英字はその字種同士の文字間では分かち書きされる可能性がほとんどないと考えられる.単語分割を行う場合,これらの文字は単にカタカナか数字か英字であるという情報のみでモデル化したほうが良い結果が得られる可能性がある.そこで,それらの字種に関しては字種全体を一つのクラスとみなして同一視することについても検討することとした.以上の点から,文字クラスモデルと文字モデルの比較において,表\ref{Tab:ClusteringCondition}の5つのモデルを考え,単語分割実験を行った.表中には,字種ごとに何を予測単位としてモデル化を行うかを示している.モデル1は文字モデルであり,モデル2は文字クラスタリングの結果に何も手を加えずに,すべての文字でクラス関数$f$を用いた文字クラスモデルである.モデル3,4,5は字種クラス(字種全体を一つのクラスとする)を予測単位とすることを試みたモデルであり,それらの中のモデル4とモデル5では文字クラスタリングの結果得られるクラス関数$f$を用いる文字を限定している.\begin{table}[hbt]\begin{center}\caption{字種ごとに予測単位を使い分けることを仮定したモデル}\label{Tab:ClusteringCondition}{\tabcolsep1.5mm\begin{tabular}{c||llllll}\hline\hlineモデル&漢字&ひらがな&カタカナ&数字&英字&記号\\\hline1&文字&文字&文字&文字&文字&文字\\\hline2&クラス&クラス&クラス&クラス&クラス&クラス\\\hline3&文字&文字&字種&字種&字種&文字\\\hline4&クラス&クラス&字種&字種&字種&クラス\\\hline5&クラス&文字&字種&字種&字種&文字\\\hline\end{tabular}}\end{center}\end{table}\vspace{-2mm}表\ref{Tab:PerformanceTrigram}に,文字trigramモデルと文字trigramクラスモデルに基づく単語分割モデルによる単語分割精度を示す.単語分割の性能は,再現率({\itrecall})と適合率({\itprecision})により評価する\cite{Nagata94}.ここで,Stdをコーパス中の単語数,Sysを本手法で分割された単語数,Mを照合した単語数とすると,再現率は${\rmM}/{\rmStd}$,適合率は${\rmM}/{\rmSys}$で表される.\begin{table}[hbt]\begin{center}\caption{trigramモデルとtrigramクラスモデルによる単語分割精度}\label{Tab:PerformanceTrigram}{\tabcolsep1.5mm\begin{tabular}{c||c|c|c|c}\hline\hline&\multicolumn{2}{|c|}{クローズドテスト}&\multicolumn{2}{c}{オープンテスト}\\\cline{2-5}モデル&再現率&適合率&再現率&適合率\\\hline1&98.10\%&98.56\%&95.48\%&94.11\%\\2&98.09\%&98.56\%&95.83\%&94.34\%\\3&97.82\%&98.44\%&95.91\%&94.73\%\\4&97.80\%&98.43\%&95.86\%&94.70\%\\5&97.83\%&98.44\%&96.01\%&94.74\%\\\hline\end{tabular}}\end{center}\end{table}本実験では,バックオフ・スムージング\cite{Katz87}付きのtrigram確率値を計算した.表\ref{Tab:PerformanceTrigram}のモデル1とモデル2は文字trigramモデルと文字trigramクラスモデルの精度であるが,オープンテストにおいて文字クラスモデルの精度が上回る結果となっている.また,モデル1とモデル3およびモデル2とモデル4のオープンテストの結果を比較することで,カタカナ,数字,英字を各々一つのクラスとしたほうが未知語を含むデータに対して,精度が向上していることが分かる.したがって,字種単位でのグループ化の有効な字種の存在が確認できた.全体として,オープンテストでは,漢字に関して文字クラスを用いたモデル5の場合が最も高精度であった.本実験結果より,文字クラスタリングの動機であった漢字のクラスタリングには特に良い解が得られていることが分かる.また,可変長$n$-gramモデル\cite{Oda99a,Oda99b}と可変長$n$-gramクラスモデルの比較に関する単語分割実験も行ったが,trigram同様,クラスモデルの方が高精度であった.本実験において,可変長$n$-gramクラスモデルによる探索空間はtrigramによる場合と同じものとした.文献\cite{Oda99b}において,trigramモデルによる探索空間と同じ場合に最も高い精度を達成している可変長$n$-gramモデルを用いた場合の結果を表\ref{Tab:PerformancePPMBackOff}に示す.実験結果から,可変長$n$-gramクラスモデルはtrigramクラスモデルよりもさらに高い単語分割精度を達成できることが分かる.学習データと評価データの組を変更して,可変長$n$-gramクラスモデルによる単語分割の再評価を行ったところ,オープンテストで96\%〜98\%以上のかなりの高精度を達成することを確認した.パラメータ数の少ない文字クラスモデルでは,本論文で用いたような比較的小規模の学習データからでも信頼のおける確率値を得ることが容易となり,有効な未知語モデルとして機能できることが結論できる.\begin{table}[hbt]\begin{center}\caption{可変長$n$-gramモデルと可変長$n$-gramクラスモデルによる単語分割精度}\label{Tab:PerformancePPMBackOff}{\tabcolsep1.5mm\begin{tabular}{c||c|c|c|c}\hline\hline&\multicolumn{2}{|c|}{クローズドテスト}&\multicolumn{2}{c}{オープンテスト}\\\cline{2-5}モデル&再現率&適合率&再現率&適合率\\\hline1&99.51\%&99.71\%&95.89\%&95.91\%\\2&99.50\%&99.71\%&96.30\%&96.04\%\\3&99.42\%&99.68\%&96.20\%&96.15\%\\4&99.38\%&99.67\%&96.27\%&96.17\%\\5&99.42\%&99.69\%&96.38\%&96.23\%\\\hline\end{tabular}}\end{center}\end{table}
\section{おわりに}
本論文では,日本語のような単語間で分かち書きをしない言語のための新しい単語分割モデルを提案した.入力文に対して最適な単語分割を見つけるために,本手法は文字クラスモデルを言語モデルとして用いる.ADDコーパスを用いた評価実験で,クロス・エントロピー評価によるクロス・バリデーション法を適用した文字クラスタリングを行い,モデルのパラメータ数を減少させた上で,優れた予測力を持つ頑健な文字クラスモデルを獲得できることを示した.また,提案した単語分割モデルにおいて,文字モデルを用いた場合と,文字クラスモデルを用いた場合の単語分割精度の比較を行い,文字クラスモデルによる単語分割モデルの方が未知語を含むデータに対する解析力が優れていることを示した.今後は,文字クラスモデルの有効性をさらに確認するために,高次のクラスモデルの性能を直接改善するようなクラスタリング実験を行うことを考えている.また,より多くの文字種を含む大規模コーパスでの文字クラスモデルのクロス・エントロピーおよびパラメータ数の減少度を計測し,その有効性を確認することを予定している.\bibliographystyle{jnlpbbl}\bibliography{v06n7_05}\begin{biography}\biotitle{略歴}\bioauthor{小田裕樹}{1975年生.1997年徳島大学工学部知能情報工学科卒業.1999年同大学大学院博士前期課程修了.同年,NTTソフトウェア(株)入社.在学中,確率・統計的自然言語処理の研究に従事.現在,自然言語処理,情報検索等の研究開発支援に従事.情報処理学会会員.}\bioauthor{森信介}{1970年生.1995年京都大学大学院工学研究科修士課程修了.1998年同大学大学院博士後期課程修了.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所において計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞授賞.情報処理学会会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,情報検索等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N06-05
|
\section{はじめに}
本稿は、語彙的結束性(lexicalcohesion)という文章一般に見られる現象に基づき話題の階層構成を認定する手法を提案する。この手法は、任意の大きさの話題を選択的取り出せること、大きな話題と小さな話題との対応関係を認定できること、文書の種類によらない汎用性を持つことの3つの要件を満たすよう考案した手法である。本研究の最終的な目標は、数十頁の文書に対して、1〜2頁程度の要約を自動作成することにある。これは、白書などの長い文書に関し、オンラインで閲覧中の利用者のナビゲートや、簡潔な調査レポートの作成支援などに用いることを意図している\cite{JFJ-V49N6P434}。長い文書に対して簡潔な要約を作成するには、適切な粒度の話題を文書から抽出する技術が必要になる。白書のような数十頁におよぶ報告書の場合、骨子をひとまず把握しておこうとしている利用者にとっては、1/4程度にまとめた通常の要約ではなく、1頁で主要な話題の骨子のみを取り上げた要約の方が利用価値が高い。このように原文に比べて極端に短い要約は、要約に取り込む話題を厳選しないと作成できない。例えば、新聞記事からの重要文抜粋実験\cite{NL-117-17}によれば、それぞれの話題に対して最低3文程度(120〜150文字程度)抜粋しないと内容の把握が難しい\footnote{見出し1文に本文から抜粋した2〜3文を提示すれば、雑談の話題として提供できる程度には理解できた気になれる。}。よって、1,500字程度(A4判1頁程度)の要約を作成するのであれば、要約対象の文書から10個程度以下の主要な話題を厳選して抽出しなければならない。従来の自動要約研究の多くは、新聞の社説や論文など、全体を貫く論旨の流れのはっきりした文章を対象にしてきた(例えば\cite{J78-D-II-N3P511})。あるいは、複数記事をまとめて要約する研究(例えば\cite{NL-114-7})であっても、何らかの一貫した流れ(ストーリーや事件の経過など)に沿う文章を対象にしてきた点に変わりはない。言い換えれば、ひとつの談話の流れに沿った文章を対象に、要約研究が進められてきたといえる。しかし、白書などの長い文書では、文書全体を貫く論旨の流れが存在するとは限らず、ある論旨に沿って記述された複数の文章が、緩やかな関連性の下に並べ置かれていることが多い。このような集合的文書を1頁程度に要約するためには、大局的な話題構成を認定して、要約に取り入れるべき話題を選択/抽出する必要がある。すなわち、原文書の部分を抜粋して要約を作成するのであれば、それぞれの談話の単位(修辞的な文章構造)を要約する技術に加え、個々の談話の単位を包含する大きな話題のまとまりを認定する技術と、要約に取り入れるべき適切な話題のまとまりを選択する技術の2つが必要となる。また、特に長い文書では、大きな話題まとまりの下に談話の単位が並ぶという2レベルの構造だけでなく、大きな話題から従来技術で要約可能な大きさのまとまりまで、色々なレベルで選択できるよう、多層構造の話題のまとまり、すなわち、話題の階層構成が望まれる。談話の単位を包含する大きな話題のまとまりは、文書の論理構造(章や節など)と深く関連するので、その認定を書式解析(例えば\cite{J76-D-II-N9P2042,NLC94-17})に\break\vspace*{-1mm}より行うことも考えられる。しかしながら、書式解析処理は、処理対象を限定すれば容易に実現できるものの、汎用性に問題がある。つまり、書式はある種類の文書における約束事であるため、文書の種類毎に経験的な規則を用意しなければならないという問題点がある。また、同じ章の下に並んでいる節であっても、節間の関連の程度が大きく異なる場合もあり、文書の論理構造と話題の階層構成とは必ずしも一致しない。このような場合にも的確に(大きな)話題のまとまりを認定できる手法が望まれる。そこで、本稿では、書式解析などより一般性の高い語彙的結束性という言語現象に基づき、談話の単位を包含するような話題の階層構成の認定を試みる。語彙的結束性とは、文章中の関連箇所に見られる、同一語彙あるいは関連語彙の出現による結び付きのことであり、\cite{Haliday.M-76}で、英文において文章らしさ(texture)をもたらす要因の1つとして提示されたものである。国語学においても、\cite{Nagano.M-86}が、主語(話題)の連鎖、陳述(表現態度)の連鎖、主要語句の連鎖というよく似た言語現象を、日本語の文章構造をとらえる主要な観点として、文や段落の連接、統括の2つとともにあげている。語彙的結束性に基づき文章構造を認定する手法は、文章中の関連語彙の連鎖を追跡するタイプと、文章中の同一語彙(または関連語彙)の出現密度を測定するタイプの2つに大別される。連鎖追跡タイプの研究には、\cite{CL-V17N1P21}を筆頭に、\cite{NLC93-8,NL-102-4,PNLP-2-P325}などがあり、出現密度測定タイプの研究には、提案手法のベースである\cite{PACL-32-P9}の手法\footnote{\cite{PACL-32-P9}には連鎖追跡タイプの手法も別法として示されている。}や、\cite{NLC93-7,NLC93-63}などがある。また、情報検索の立場から、文書中の要素を元の文書構造とは異なる構造にクラスタリングする研究\cite{HYPERTEXT96-P53}なども、出現密度測定タイプの一種としてとらえられる。これらの研究は、\cite{CL-V17N1P21}中の基礎的な検討と文書分類的研究\cite{HYPERTEXT96-P53}を除けば、話題の転換点だけを求める手法であり、本稿とは異なり、話題の階層構成までは認定対象としていない。また、認定対象の話題のまとまりは、基本的には数段落程度の大きさであり、大きくても新聞の1記事程度である。すなわち、本稿のように複数の記事を包含するようなまとまりを語彙的結束性だけを使って認定することは、試みられていなかった。また、連鎖追跡タイプの語彙的結束性による話題境界の認定技術と、接続詞や文末のモダリティに関わる表現などの手がかりとする文章構造解析技術\cite[など]{NL-78-15,J78-D-II-N3P511,LIS-N31P25}を併用して、大域的な構造の取り扱いを狙った研究\cite{JNLP-V5N1P59}もある。ただし、現時点で提示されているのは、語彙的結束性を修辞的な関係の大域的な制約として用いる手法だけなので、修辞的関係が働く範囲内の文章構造までしか原理的に認定できない\footnote{\cite{JNLP-V5N1P59}では、「話題レベル」の構造の上に、導入・展開・結論という役割に関する「論証レベル」という構造も想定している。実際にこのような機能構造を解析するためには、\cite{LIS-N30P1}が論じているような、分野に依存した類型的構成の知識(スキーマ)などが必要になると考えられる。}。本稿では、同一語彙の繰り返しだけを手がかりにするという単純な手法で、章・節レベルの大きさのまとまりまで認定可能かを確かめることをひとつのテーマとする。また、同一語彙の繰り返しだけを手がかりにする方法で話題の階層関係が認定できるかをもうひとつのテーマとする。以下、\ref{sect:Hearst法}章で\cite{PACL-32-P9}の手法によって章・節レベルの大きな話題の境界位置の認定を試みた実験の結果を示し、問題点を指摘する。次に、指摘した問題点を解決するために考案した提案手法の詳細を\ref{sect:話題構成認定手法}章で説明し、その評価実験を\ref{sect:評価実験}章で報告する。
\section{Hearstの手法を用いた章・節レベルの話題境界の認定}
\label{sect:Hearst法}本章では、提案手法のベースになっているHearstの話題境界認定手法\cite[以下Hearst法と称する]{PACL-32-P9}を紹介し、それを章・節レベルの大きな話題の境界の認定に適用した実験の結果を示す。そして、実験結果に基づきHearst法の問題点を議論する。\subsection{Hearst法による話題境界の認定}Hearst法では、まず、文書中の各位置の前後に、段落程度の大きさ(120語程度)の窓を設定し、その2つの窓にどれくらい同じ語彙が出現しているかにより、2つの窓内の部分の類似性を測定する。類似性は、次に示す余弦測度(cosinemeasure)\footnote{「コサイン・メジャー」とカナ書きされることも多いが、長過ぎて読みにくいので、本稿では「余弦測度」と訳した。}で測定している。\[sim(b_{l},b_{r})=\frac{\Sigma_{t}w_{t,b_{l}}w_{t,b_{r}}}{\sqrt{\Sigma_{t}w_{t,b_{l}}^{2}\Sigma_{t}w_{t,b_{r}}^{2}}}\]\noindent{}ここで、$b_{l}$,$b_{r}$は、それぞれ、左窓(文書の冒頭方向側の窓)、右窓(文書の末尾方向側の窓)に含まれる文書の部分であり、$w_{t,b_{l}}$,$w_{t,b_{r}}$は、それぞれ、単語$t$の左窓、右窓中での出現頻度である。この値は、前後の窓に共通語彙が多く含まれるほど大きくなり(最大1)、共通語彙が全くない時に最小値0をとる。つまり、この値が大きい部分は、前後の窓で共通の話題を扱っている可能性が高く、逆に、この値が小さい部分は、話題の境界である可能性が高いことになる。本稿では、この値を結束度(cohesionscore)と呼ぶことにする。また、結束度に対応する窓の境界位置を結束度の基準点(referencepoint)と称し、基準点によって結束度を並べたものを結束度系列(cohesionscoreseries)と称することにする。Hearst法は、上記の結束度を文書の冒頭から末尾まで、ある刻み幅(20語)で基準点をずらしながら測定し、極小となる位置を話題境界と認定する。ただし、結束度の細かい振動を無視するために、極小点$mp$の周囲で単調減少(極小点の左側)/単調増加(極小点の右側)している部分を切りだし、その開始点$lp$と終了点$rp$における結束度$C_{lp},C_{rp}$と結束度の極小値$C_{mp}$との差を基に以下のdepthscoreと呼ばれる値$d$を計算し、極小点における結束度の変動量の指標としている。そして、$d$が閾値$h$を越えた極小点だけを話題境界として認定している\footnote{結束度が大きく落ち込んだ部分がより話題境界である可能性が高いと考えることに相当。}。\begin{eqnarray*}d&=&(C_{lp}-C_{mp})+(C_{rp}-C_{mp})\\h&=&\bar{C}-\sigma/2\\\end{eqnarray*}\noindent{}ここで、$\bar{C},\sigma$は、それぞれ、文書全体における結束度$C_p$の平均値と標準偏差である。\subsection{Hearst法に基づく大きな話題の認定実験}\label{sect:大きな話題の認定実験}Hearst法は、上記のように、結束度計算用窓の幅の2倍の範囲における語彙の繰り返し状況を手がかりに、話題境界を認定する手法である。\cite{PACL-32-P9}では数段落程度の大きさの話題のまとまりしか認定を試みていないが、\cite{PACL-32-P9}より大きな幅の窓を用いれば大きな話題のまとまりを認定できる可能性がある。大きな話題に関連する語(特に名詞)は大きな間隔で繰り返される傾向があるので\footnote{\cite{BABA.T-86}の反復距離(繰り返される語彙の出現間隔の平均値)の分析や\cite{CL-V17N1P21}の語彙連鎖の再開(chainreturn)の観察など参照。}、窓幅を大きくとって大きな間隔で繰り返される語彙の出現状況を反映した結束度を計算すれば、大きな話題に関する話題境界が得られる可能性がある。また、窓幅を大きくとれば余弦測度の計算式の分母が大きくなり、小さい間隔で繰り返される語による結束度の変動は小さくなると考えられるので、小さい話題に関する話題境界の検出もある程度抑制できると考えられる\footnote{Hearst法の類似手法により記事境界の認定を試みた研究\cite{NLC93-63}にも、「ウィンドウサイズが大きくなると検出されるテキスト構造も大局的になるようである」とのコメントがある。}。そこで、Hearst法で大きな話題のまとまりを認定できるかを調べるために\cite{PACL-32-P9}より巨大な(10〜5倍程度)窓幅で計算した結束度により話題境界を認定する実験を行った。実験文書としては、(社)電子工業振興協会『自然言語処理システムの動向に関する調査報告書』(平成9年3月)の第4章「ネットワークアクセス技術専門委員会活動報告」(pp.~117--197)を用いた。この文書は、4.1節から4.4節の4節からなり、1,440文(延べ17,816内容語\footnote{動詞・名詞・形容詞のいずれか。詳細については\ref{sect:単語認定}節で説明する。})を含んでいる。図\ref{fig:Hearst法:1280語窓}と図\ref{fig:Hearst法:640語窓}は、この実験の結果であり、以下のグラフを文書中での位置(文書の冒頭からその位置までの延べ語数)を横軸にとって示してある。\begin{itemize}\item点線の棒グラフは、実験文書の節の開始位置である。長い点線ほど大きい節と対応する。\item折れ線グラフ(◇)は結束度系列である。結束度は、図\ref{fig:Hearst法:1280語窓}では1280語幅の窓、図\ref{fig:Hearst法:640語窓}では640語幅の窓によって、それぞれ窓幅の1/8(160語と80語)刻みで計算し\footnote{先頭の7点では、左窓に窓幅分の語数がないが、構わず左窓中の語数が少ないままで計算した。文書の末尾も同様。}、プロットした。\item実線の棒グラフ(*)は、結束度の極小点で計算したdepthscore$d$である。また、実線の水平線はdepthscoreの閾値$h$である。\end{itemize}\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=fig/88_ue_250.eps,width=120mm}\caption{窓幅1280語のHearst法による話題境界}\label{fig:Hearst法:1280語窓}\end{center}\begin{center}\leavevmode\epsfile{file=fig/88_sita_250.eps,width=120mm}\caption{窓幅640語のHearst法による話題境界}\label{fig:Hearst法:640語窓}\end{center}\end{figure}\subsubsection{Hearst法の検討}\label{sect:Hearst法の検討}これらの図に見られるように、結束度の極小点は節境界とよく一致しており、窓幅の大きい結束度を使うと大きな話題の切れ目が認定でき、窓幅の小さい結束度を使うと小さい話題の切れ目が認定できるという傾向がある。よって、大きな窓幅(の結束度)で認定した話題境界と、小さい窓幅で認定した話題境界を組み合わせれば、大きな話題(主題)のまとまりの中に、小さな話題(副主題)のまとまりがある、というような話題の階層構成が認定できる見込みがある。しかし、Hearst法には、次のような問題点がある。ひとつは、大きな話題と小さな話題の区別が難しいことである。図\ref{fig:Hearst法:1280語窓}に見られるように、depthscoreは結束度の局所的変化の激しさを示す値であるので、話題の大きさとは直接関係しない。例えば、図\ref{fig:Hearst法:1280語窓}の12,000語の手前にある4.4節の開始位置は、14,000語付近にある、4.4.2節と4.4.3節の開始位置より大きい話題の境界であると考えられるが、depthscoreの値は、後者の方が大きくなっている。これは、図の矢印で示した部分の結束度の小さな谷により、4.4節の開始位置付近の結束度の落差が2つのdepthscoreに分散してしまったことによる。また、このようなdepthscoreの不安定さにも関係して、depthscoreの閾値の設定が難しいという問題もある。図\ref{fig:Hearst法:1280語窓}、\ref{fig:Hearst法:640語窓}では、前述の閾値$h$を用いたが、図\ref{fig:Hearst法:1280語窓}を見る限り、閾値をもっと下げた方がよいように思える。例えば、もうほんの少し閾値を下げれば、2,000語の手前にある4.2.2節の開始位置なども話題境界として認定することができる。あるいは、全ての結束度の谷を話題境界と認定してもよいようにも思える。しかし、閾値を下げ過ぎてしまうと、図\ref{fig:Hearst法:640語窓}の8,000語〜10,000語付近の幅の狭い山による境界も全て話題境界として認定されてしまう。このため、話題の大きさを区別して認定する場合には、何らかの経験的制約が必要になる可能性が高い。実際、\cite{PACL-32-P9}には、60語以内の隔たりしかない境界は認めない、というヒューリスティックスが示されている。なお、depthscoreの不安定性は、Hearst自身も認識しており、結束度を平滑化\footnote{本稿で移動平均と呼んでいる操作を何回か繰り返す。}してからdepthscoreを求める手法を別の論文\cite{CL-V23N1P33}で示している。ただし、Hearstの目標が数段落程度の大きさの話題の転換点の発見にあるためか、話題の大きさの区別に関する議論は見当たらない。
\section{語彙的結束性に基づく話題の階層構成の認定手法}
\label{sect:話題構成認定手法}本章では、話題の階層構成を同一語彙の繰り返しだけを手がかりに認定する手法を提示する。本手法は、以下の手順で話題の階層構成を認定する。\begin{enumerate}\item話題境界位置の区間推定\label{item:話題境界の区間推定}ある窓幅で計算した結束度に基づき、話題境界が存在しそうな位置を、話題境界候補区間として求める。そして、大きさの異なる複数の窓幅に対してこの処理を繰り返し、大きな話題の切れ目を示す境界から小さな話題の切れ目を示す境界まで、話題の大きさ別に話題境界候補区間を求める。\item話題の階層関係の認定異なる窓幅により求めた話題境界候補区間を統合し、話題の階層構成を決定する。\end{enumerate}以下、\ref{sect:話題境界の区間推定法}節でHearst法をベースに、話題のまとまりを大きさ別に認定可能にした話題境界位置の区間推定手法の詳細を説明し、\ref{sect:話題の階層関係の認定手法}節で話題の階層関係の認定手法について説明する。\subsection{結束度の移動平均に基づく話題境界の位置の区間推定手法}\label{sect:話題境界の区間推定法}提案手法では、結束度の移動平均(movingaverage)を用いて話題境界の位置を区間推定する。移動平均は、時系列分析(timeseriesanalysis)で、細かい変動を取り除いて大局的な傾向を把握するために用いられる手法である。提案手法では、細かい変動を無視するためだけでなく、結束度系列の移動平均値を、移動平均の開始点における「順方向結束力(forwardcohesionforce)」および移動平均の終了点における「逆方向結束力(backwardcohesionforce)」とみなし、その差を話題境界候補区間の認定の直接的手がかりとしている。この手法の原理について、図\ref{fig:移動平均と結束力}を使って説明する。\subsubsection{結束度系列の定義}まず準備として、「結束度系列」を図\ref{fig:移動平均と結束力}(a)によって定義する。図\ref{fig:移動平均と結束力}(a)で、文書領域$1$〜$8$は、結束度を計算する刻み幅$tic$(語)に対応する一定幅の領域である。$c_3$は、文書中の$3$と$4$の境界を基準点として計算した窓幅$w$(語)の結束度である。次の$c_4$は、窓を一定幅$tic$分だけ右(文書の末尾方向)へずらして計算した結束度である。このようにして計算した$c_3,c_4,c_5,\ldots$を、以後、文書の冒頭から末尾へ向かう窓幅$w$の結束度系列と呼ぶ。\begin{figure}[htbp]\begin{center}\leavevmode\begin{tabular}{ccccccccc}結束度&\multicolumn{8}{c}{文書の領域}\\\cline{2-7}$c_3$&\multicolumn{1}{|c}{1}&2&\multicolumn{1}{c|}{3}&4&5&\multicolumn{1}{c|}{6}&7&8\\\cline{2-8}$c_4$&1&\multicolumn{1}{|c}{2}&3&\multicolumn{1}{c|}{4}&5&6&\multicolumn{1}{c|}{7}&8\\\cline{3-9}$c_5$&1&2&\multicolumn{1}{|c}{3}&4&\multicolumn{1}{c|}{5}&6&7&\multicolumn{1}{c|}{8}\\\cline{4-9}\multicolumn{3}{c}{}&\multicolumn{1}{l}{$\leftarrow$}&\multicolumn{1}{c}{$w$語}&\multicolumn{1}{r}{$\rightarrow$}&\multicolumn{1}{l}{$\leftarrow$}&\multicolumn{1}{c}{$w$語}&\multicolumn{1}{r}{$\rightarrow$}\\\end{tabular}\\(a)結束度の系列\\\medskip{}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline\multicolumn{1}{|c|}{結束度の}&\multicolumn{9}{|c|}{文書の領域が関与した数}\\\cline{2-10}\multicolumn{1}{|c|}{移動平均}&\multicolumn{1}{c|}{領域}&1&2&3&4&5&6&7&8\\\hline3項平均&左窓&1&2&{\bf3}&2&1&0&0&0\\\cline{2-10}$\frac{c_3+c_4+c_5}{3}$&右窓&0&0&0&1&2&{\bf3}&2&1\\\hline2項平均&左窓&1&2&{\bf2}&1&0&0&0&0\\\cline{2-10}$\frac{c_3+c_4}{2}$&右窓&0&0&0&1&{\bf2}&2&1&0\\\hline\end{tabular}\\\medskip{}(b)結束度系列の移動平均に対する文書領域の関与\\\medskip{}\caption{順方向結束力と逆方向結束力の意味}\label{fig:移動平均と結束力}\end{center}\end{figure}\subsubsection{順方向結束力と逆方向結束力の定義}順方向結束力と逆方向結束力の求め方と意味を図\ref{fig:移動平均と結束力}(b)を使って説明する。図\ref{fig:移動平均と結束力}(b)は、移動平均の値と文書領域との関係を示した表である。例えば、表の左上角の領域1の直下の値(1)は、$c_3$〜$c_5$の3項の移動平均($\frac{c_3+c_4+c_5}{3}$)に対して、文書領域$1$が1度だけ($c_3$の計算において)左窓の一部として関与したことを示している(図\ref{fig:移動平均と結束力}(a)の$c_3$の部分を参照)。結束度は、境界の前後の結び付きの強さを表す指標であるので、領域$1$を左窓に含む$c_3$を移動平均した値も、領域$1$がそれより右側の部分に結びついているかどうかを示す指標のひとつと考えられる。言い換えれば、移動平均の値は、移動平均をとった結束度の左窓部分の領域($c_3$〜$c_5$の3項平均に対しては$1$〜$5$)が文書の末尾へ向かう方向(順方向:図では右方向)に引っ張られる強さの指標(順方向結束力)とみなせる。一方、逆に、移動平均をとった結束度の右窓部分の領域(同$4$〜$8$)が文書の冒頭方向(逆方向:図では左方向)に引っ張られる強さの指標(逆方向結束力)ともみなせる。ここで、結束力と文書領域の関連性を考察すると、個々の結束度の計算において多くの窓に含まれていた領域ほど、その移動平均値である結束度への関与が強いと考えられる。また、語彙的結束性は、近傍で繰り返される語彙によるものほど強いと考えられるので、移動平均をとった結束度の基準点(左右の窓の境界)に近い領域ほど結束力に強く関与しているといえる。これに基づき、表にあげた3項平均と2項平均について、移動平均に最も強く関与している部分を選ぶと、左窓についてはどちらも$3$、右窓については、それぞれ$6$、$5$となる。以上の考察に基づき、話題境界の候補区間の認定では、結束度の移動平均を、移動平均をとった部分の最初の基準点における順方向結束力、最後の基準点における逆方向結束力として取り扱う。\subsubsection{話題境界の区間推定アルゴリズム}\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{0.95\textwidth}\leavevmode\begin{enumerate}\itemsep=0pt\item以下のパラメータを設定する:\begin{itemize}\itemsep=0pt\item結束度を計算する刻み幅(語数)$tic$\item移動平均をとる項数$n$\item移動平均をとる幅(語数)$d\equiv(n-1)\timestic$\end{itemize}\item順方向結束力と逆方向結束力の計算文書中の各位置$p$について、$p$以降$d$語の範囲で結束度系列の移動平均をとり、\\位置$p$の順方向結束力(かつ、位置$(p+d)$の左逆方向束力)として記録する。\item結束力拮抗点の認定$(順方向結束力-逆方向結束力)$の値を文書の冒頭から末尾に向かって調べ、\\負から正に変化する位置を結束力拮抗点として記録する。\item話題境界候補区間の認定それぞれの結束力拮抗点について、その直前$d$語以内の範囲で、順方向結束力が\\最小となる位置$mp$を求め、$[mp,mp+d]$を話題境界候補区間と認定する。\end{enumerate}\end{minipage}}\caption{話題境界の区間推定アルゴリズム}\label{fig:話題境界候補区間認定方法}\end{center}\end{figure}話題境界は、順方向結束力と逆方向結束力の差に基づいて、図\ref{fig:話題境界候補区間認定方法}に示した手順で認定する。話題境界の区間推定の2つの独立パラメータ、移動平均をとる幅$d$(語)と結束度系列の刻み幅$tic$(語)の目安は、$d$が窓幅の1/2〜1倍程度、$tic$が窓幅の1/8程度である。順・逆方向の結束力の差によって話題境界位置の候補区間を認定する意味を、図\ref{fig:話題境界の候補区間}を使って説明する。図では、順・逆方向の結束力の差が0になる点、すなわち結束力拮抗点(cohesionforceequilibriumpoint)を、ep1〜ep3の破線の鉛直線で示した。最初の点ep1の左側では、逆方向結束力(BC)が優勢であり、その右側から次の点ep2までは順方向結束力(FC)が優勢で、それ以後最後の点ep3までは逆方向結束力(BC)が優勢である。これは、ep1(負の結束力拮抗点)の左側の領域は、それより左側(文書の冒頭方向側)のいずれかの部分へ向かって結束し、また、ep2(正の結束力拮抗点)の近傍では、ep2へ向かって結束していることに対応する。実際、順・逆方向の結束力と共にプロットした結束度($C$)は、ep1とep3の近傍で極小値を、ep2の近傍で極大値をとっている。\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=fig/93_ue_250.eps,width=120mm}\caption{結束力拮抗点と結束度の極値との関係}\label{fig:話題境界の候補区間}\end{center}\begin{center}\leavevmode\epsfile{file=fig/93_sita_250.eps,width=120mm}\caption{調査報告書の話題構成の認定結果}\label{fig:余弦測度による話題境界}\end{center}\end{figure}話題境界候補区間\footnote{図\ref{fig:話題境界の候補区間}内の大きい矩形領域。}に結束度系列の極小点が来ることは必然である。図\ref{fig:話題境界の候補区間}で最後の結束力拮抗点ep3の前後の矢印で示した部分で結束度は極小値をとっている。よって、その部分の移動平均(図では4項平均)も通常は極小値(ブロック矢印の先の部分)をとる\footnote{移動平均区間より狭い範囲の変動では、移動平均の平滑化作用により、結束力が極小値をとらないことがある。}。また、順方向結束力(FC)は移動平均の値を移動平均の開始位置に記録したものあるので、順方向結束力の極小位置は結束度の極小位置の左になる。同様に、逆方向結束力(BC)の極小位置は結束度の極小位置の右になる。そして、結束度の変動が十分に大きければ、その間に結束力拮抗点が形成されることになる\footnote{結束度拮抗点の直前$d$語以内に順方向結束力の極小値が必ず存在することも、順・逆方向の結束力の相似性と結束力拮抗点の前後で順・逆方向の結束力の大小関係が入れ替わることから示せる(付録\ref{app:拮抗点と順方向結束力の関係})。}。図\ref{fig:余弦測度による話題境界}に、本手法で認定した話題境界の候補区間を窓幅別(縦軸)に示す。図の大きい矩形領域が話題境界候補区間であり、その中にある小さい矩形領域が結束力拮抗点である。○付きの棒グラフで示した話題境界など詳細については次節で説明する。\subsection{話題の階層関係の認定手法}\label{sect:話題の階層関係の認定手法}\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{0.95\textwidth}\begin{enumerate}\item認定に使った窓幅の大きい順に話題境界候補区間データを並べ、話題境界候補区間の系列$B^{(n)}_{p}$を作成する。$n$は、話題境界候補区間の系列番号であり、最大窓幅の結束度系列から窓幅の大きい順に$1,2,\ldots$と振る。$p$は、話題境界候補区間の系列内のデータ番号であり、結束力拮抗点の出現位置順に$1,2,\ldots$と振る。各$B^{(n)}_p$のデータに以下のように名前をつける。\begin{tabular}{ll}$B^{(n)}_p.level$&話題境界のレベル。初期値は$n$。\\$B^{(n)}_p.range$&話題境界候補区間(図\ref{fig:余弦測度による話題境界}中の大きい矩形領域)。\\$B^{(n)}_p.ep$&結束度拮抗点(図\ref{fig:余弦測度による話題境界}中の小さい矩形領域)。\\$w_n$&$B^{(n)}$の認定に使った結束度の窓幅。\\$d_n$&$B^{(n)}$の認定に使った移動平均の幅。\\\end{tabular}\item$n$の小さい順に以下の処理を行う:\begin{enumerate}\item$p$の小さい順に以下の処理を行う:\begin{enumerate}\item$B^{(n)}_p$の話題境界候補区間$B^{(n)}_p.range$中に結束力拮抗点をもつ$B^{(n+1)}_q$で、$B^{(n+1)}_q.ep$が$B^{(n)}_p.ep$に最も近いものを求める。\item$B^{(n+1)}_q$が見つからなかった場合、以下の処理を行う:$B^{(n)}_p.range$内で窓幅$w_n$の結束度の最小位置$mp$を求め、新たな$B^{(n+1)}_q$を作成し、\begin{tabbing}$B^{(n+1)}_q.ep\leftarrow[mp,mp]$\\$B^{(n+1)}_q.range\leftarrow[mp-d_{n+1}/2,mp-d_{n+1}/2]$\end{tabbing}と設定し、$B{^{(n+1)}}$の系列に挿入する。\item$B^{(n+1)}_q.level$←$B^{(n)}_p.level$\end{enumerate}\end{enumerate}\item$n$が最大(窓幅最小)の系列中のデータ$B^{(n)}_p$それぞれについて、$B^{(n)}_p.range$内における窓幅$w_n$の結束度の最小位置$mp$(図\ref{fig:余弦測度による話題境界}中の〇付き棒グラフのx座標)を求め、$mp$と$B^{(n)}_p.level$を出力する。\end{enumerate}\end{minipage}}\caption{話題の階層関係認定アルゴリズム}\label{fig:話題階層関係認定アルゴリズム}\end{center}\end{figure}話題構成認定処理は、異なる窓幅の結束度系列による話題境界候補区間を統合して、大きな窓幅の結束度系列から得られた大きな話題に関する境界と、小さい窓幅の結束度系列からのみ得られる小さい話題に関する境界を区別して出力するものである。話題境界候補区間を統合する理由は、大きな窓幅の結束度系列は、窓位置の移動に対して鈍感であり、それだけから認定すると境界位置を十分精密に求めることができないからである。図\ref{fig:話題階層関係認定アルゴリズム}に話題の階層関係認定アルゴリズムを示す。(1)の話題境界のレベル($B^{(n)}_p.level$)は、認定境界がいずれの窓幅の結束度系列に基づく境界かを記録するための変数である。この変数には、(2)の操作により、それぞれの認定境界の近傍に極小値のある結束度系列のうちで最も大きい窓幅の結束度系列の系列番号が設定される。\ref{sect:Hearst法の検討}節で示したように、大きな窓幅の結束度系列に基づく認定境界ほど、大きな話題の境界と対応するという傾向があるので、結果として、それぞれの認定境界と対応する話題の大きさに相当する値が話題境界のレベルとして設定されることになる。(2)は、大きさの異なる窓幅で認定した話題境界候補区間を統合する操作である。例えば、図\ref{fig:余弦測度による話題境界}の$B^{(2)}_4$の話題境界候補区間(図\ref{fig:余弦測度による話題境界}中の大きい矩形領域)中に結束度拮抗点(図\ref{fig:余弦測度による話題境界}中の小さい矩形領域\footnote{理論的には点であるが、順方向結束力と逆方向結束力との差の符合が反転する地点を拮抗点とするので、差が負の点と差が正の点の組になる。})のある$B^{(3)}$のデータは、$B^{(3)}_9$と$B^{(3)}_{10}$であり、$B^{(2)}_4.ep$に近いものは$B^{(3)}_{10}$であるので、$B^{(3)}_{10}.level$を次のように変更する。\[B^{(3)}_{10}.level←B^{(2)}_4.level\]図\ref{fig:余弦測度による話題境界}の○付き棒グラフは、このようにして求めた話題境界である。棒グラフのx座標が最小窓幅の結束度系列の極小値$mp$と対応し、棒グラフの長さが話題境界のレベル($B^{(n)}_p.level$)と対応(長い程がレベル小)する。例えば、最大窓幅(5120語幅)の結束度系列による最初の話題境界候補区間$B^{(1)}_1$の中に〇がある棒グラフは、最大窓幅(5120語幅)以下全ての結束度系列によって検出され、(2)の操作により統合された、話題境界のレベルが1の認定境界である。なお、図に示した最小窓幅(640語)の話題境界候補区間でも、結束度拮抗点と話題境界が大きくずれているものがあるのは、図には示さなかったより小さい窓幅\footnote{320語、160語、80語、40語の4種類。}の話題境界候補区間との統合も行っているためである。
\section{提案手法の評価}
\label{sect:評価実験}提案手法を最初の実験文書に適用した結果、図\ref{fig:余弦測度による話題境界}のように話題境界が認定できた。図でみる限り、最大窓幅(2560語幅)による話題境界が4.3節、4.4節などの大きい節の開始位置とよく対応しており、その次に大きい窓幅(1280語幅)による話題境界が4.3.2節などの次に大きな節の開始位置とよく対応している。本章では、図からは読みとり難い結果の詳細について報告する。以下、\ref{sect:評価方針}節で評価実験の趣旨を簡単に述べてから、\ref{sect:実験条件}節で実験対象文書や実験用パラメータなどについて説明し、\ref{sect:窓幅と認定境界の間隔との関係}節で結束度計算用窓幅とそれにより認定された話題境界の間隔との関係を示し、\ref{sect:話題境界の認定精度の評価}節で実験文書において文書の作成者が設定した境界(節や記事の開始位置など)と提案手法による認定境界との比較結果を示す。\subsection{評価の方針}\label{sect:評価方針}本章で示す評価は、主として、提案手法で認定した話題境界と実験対象文書中の人為的境界との一致度を比較したものである。人為的境界とは、実験対象文書の作成者が設定した節や記事の見出し行(開始位置が正解境界)、および、内容の切れ目を示すために挿入した区切り行(記号のみの行など)のことである\footnote{段落境界は提案手法の主目的が大きな話題のまとまりの認定にあり、また、形式段落の客観性には議論の余地が大きいので、比較対象としなかった。}。この評価の趣旨は、話題の大きな転換を示すシグナル(見出し行や区切り行)を書き手が読み手に送っている箇所について、その箇所をシグナルなしに語彙の繰り返し状況だけから検出できるか確かめることにある。従来の研究では\cite[など]{PACL-32-P9,NLC93-7,PNLP-2-P325}のように、見出しを取り除いた(または見出しのない)文書を対象に、複数の人間により直感的に話題境界の認定をしてもらい、その結果を正解として使って、話題境界の認定手法の精度を評価しているものが多い。今回の評価でこのような手法をとらなかったのは、次の理由による。\begin{itemize}\item[(1)]文書の読解は書き手の意図通りに読み取ることを第一の目標とすべきであり、計算機処理においても書き手の意図をうまく読み取れたかを評価すべきである。特に、著者が誤解を避けるために挿入したかもしれない区切りや見出しを無視して評価することには疑問がある。\item[(2)]提案手法が話題境界認定の手がかりとしているのは、語彙の繰り返し状況のみであり、これと、書き手が意図的にシグナルを送っている話題の転換点との関係を分析することは、人間の自然な言語運用の性質を知る上でも意義がある。\item[(3)]今回認定対象としている話題の大きさは従来研究で対象としてきたものよりかなり大きく、人間の直観による認定結果を集めるのは困難である。話題の階層構成の認定の評価を考えると、色々な粒度の話題に対して認定結果を集めなければならず、多くの人の認定結果が一致するように実験条件を設定するのは難しい。\end{itemize}\subsection{実験条件}\label{sect:実験条件}\subsubsection{実験に用いた文書}\label{sect:実験対象文書}評価実験は、提案手法の一般性などを確認するため、前述の調査報告書に性質の異なる2種類の文書を加え、以下の3種類、計21文書を用いて行った。いずれの文書も、複数の話題に関する文章が混在しているだけでなく、それぞれ文章の間に何らかの関連があるという点で、新聞記事をランダムに並べただけの実験データとは性質が異なる。以下、それぞれの文書の構成や内容について簡単に紹介する。\begin{itemize}\parindent=1zw\item調査報告書:1文書第\ref{sect:Hearst法}章で用いた実験文書「ネットワークアクセス技術専門委員会活動報告」(\ref{sect:大きな話題の認定実験}節参照)。筆者が当面の要約対象として想定している典型的な文書である。文書中の節境界(表\ref{tab:実験文書の構成}(a)参照)を評価実験の話題境界の正解データとして用いた。この報告書は、調査項目と報告書のアウトライン(ほぼ表\ref{tab:実験文書の構成}の小計より上の部分に相当)を委員会で協議・決定してから、それぞれの項目を13人の委員で分担して執筆したものである\footnote{報告書の執筆形態に関する情報は、執筆者の一人である富士通研究所の津田氏より得た。}。そのため、実験対象部分(第4章)を構成する上位3レベル目\footnote{(1)〜(6)。文書全体から見れば上位4レベル目。付録\ref{sect:実験文書の見出し}の図\ref{fig:電子協の見出し}参照。}までの節には、調査対象とした技術の分野や用途などに応じてはっきりとした区別が見られる。また、それ以下のレベル(表\ref{tab:実験文書の構成}(a)の小計から下の部分)についても、いずれの粒度で見出しを立てるかには執筆者の個性が見受けられたが、基本的に取り上げた題材を示すように見出しが立てられていることは共通していた。\item新聞の特集記事:8文書(延べ86記事)インターネット上で公開されている読売新聞\footnote{ヨミウリ・オンライン(\verb$http://www.yomiuri.co.jp/$)。}の一連の特集記事を掲載日順に並べて仮想的に1つの文書にまとめたもの(8種類の特集記事に対応する8文書)。記事境界、および記事中の小見出しの開始位置、人為的に挿入された区切り行(◇のみの行など)を正解データとして用いた\footnote{正解データとした小見出しや区切り行は、前後の文脈の目視確認により、話題の転換を示唆するために設定された行であると認められたものである。すなわち、全文書に一通り目を通して見出しらしい行に印をつけ、また、行頭の記号パタンなどに基づき抽出した候補行を全数目視確認して漏れを補った結果である。}。これらの文書は、表\ref{tab:実験文書の構成}(b)に区切り線で示した3種類のグループで記事の連載形態などに違いが見られる。これは、(i)「連載・20世紀はどんな時代だったのか」、(ii)「連載・新ニッポン人」、(iii)「医療ルネサンス」という特集記事の区分に対応する。(i)は20世紀における歴史的事件や関係者の証言などを紹介しながら20世紀という時代の特徴や歴史的意義を明らかにしていくという趣旨の連載で、「ロシア革命」などというテーマが明確なこともあり、他のグループに比べ、連載記事に一貫した流れが強くみられるという特徴がある。小見出しには、記事の題材の象徴(例えば「過ちは死で償った」)や関連する歴史的事件名(例えば「天安門事件」)などが掲げられ、また記事の書き起こしの部分やまとめの部分の前に「◇」のみからなる区切り行が多く挿入されていた(延べ31件)。(ii)(iii)は、それぞれの現代的なテーマに関連する事例をひとつの記事で一二例ずつ紹介していく連載形態をとっており、それぞれの記事の関連性は比較的緩やかである。小見出しは、それに続く数段落程度のまとまりの要旨を掲げたもの(例えば「親の扶養が問題に」)がほとんどであり、記号のみからなる行は、3記事でまとめの部分の前に挿入されていたのみであった\footnote{例外として「近頃の麻酔事情」の連載の最後に一問一答形式の記事があったので、これについては、1つの問答をひとつの話題として取り扱った。}。\item経済レポート:12文書(延べ131記事)社内で流通している経済関係のレポート\footnote{報告者はイリノイ大学の室賀教授。}。それぞれのレポートは、10程度(7〜13)の記事からなる。記事境界を正解データとして用いた。このレポートは、アメリカの計算機関連の市場動向などを1月単位でまとめて紹介するもので、「アメリカ経済の動向」という固定見出しの記事以外は、1カ月の間に話題となった新製品情報などを随時取り上げている。よって、同じ文書中の記事の関連性は(計算機関連市場の情報であるという点を除けば)あまり見られないことが多い。近年ネットワーク経由で盛んに配信されるようになったニュース速報などと似た形式であるが、記事サイズにばらつきが大きいという特徴がある。\end{itemize}それぞれの文書中に含まれる節・記事の数と大きさを表\ref{tab:実験文書の構成}に示す。節・記事の大きさは、次節で説明する「語」単位で示した。また、文書中の文の長さ\footnote{句点で終わる文を対象に集計。見出しや文書中に含まれる表などの通常の文でない部分は除外して集計した。ただし、評価実験では見出しや表などの部分も通常の文の部分と区別せずに扱っている。}と段落の大きさを、表\ref{tab:1文当たりの語数}、表\ref{tab:1段落当たりの語数}に参考情報として示す。\begin{table}[htbp]\footnotesize\begin{minipage}[b]{6.5cm}\begin{center}\leavevmode\caption{実験文書の構成}\label{tab:実験文書の構成}(a)調査報告書\par\begin{tabular}{|c|c|c|c|c|}\hline&節の&\multicolumn{2}{|c|}{節の大きさ(語)}\\\cline{3-4}節の種類&個数&平均&最小〜最大\\\hline4.1〜4.4&4&4,454&308〜6,670\\4.1.1〜4.4.4&9&1.740&744〜3,682\\参考文献&3&527&218〜854\\(1)〜(6)&35&427&63〜1,509\\\hline小計&51&980&63〜6,670\\\hline(a)〜(h)&50&190&25〜704\\(ア)〜(ケ)&30&91&12〜371\\\hline\hline総計&131&475&12〜6,670\\\hline\end{tabular}\end{center}\begin{center}{(b)新聞の特集記事}\par\leavevmode\begin{tabular}{|l|c|c|c|}\hline&記事&\multicolumn{2}{c|}{記事の大きさ(語)}\\\cline{3-4}&数&平均&最小〜最大\\%&標準偏差\\\hlineロシア革命&24&470&336〜861\\%&110\\中国革命&21&517&405〜582\\%&44\\キューバ革命&4&446&416〜460\\%&20\\イラン革命&4&455&429〜470\\%&18\\\hline働くというこ&7&340&297〜374\\%&27\\家族のかたち&8&347&311〜399\\%&27\\\hline薬剤師の役割&8&343&322〜362\\%&14\\近頃の麻酔事情&10&322&296〜366\\%&19\\\hline全体&86&428&296〜861\\%&98\\\hline\end{tabular}\end{center}\begin{center}\leavevmode{(c)経済レポート}\par\begin{tabular}{|c|c|c|c|}\hline&\multicolumn{3}{c|}{記事の大きさ(語)}\\\cline{2-4}記事数&平均&最小〜最大&標準偏差\\\hline113&385&33〜2375&361\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[b]{7.5cm}\begin{center}\leavevmode\caption{1文当たりの語数}\label{tab:1文当たりの語数}\begin{tabular}{|l|c|c|c|}\hline&平均&標準偏差&最頻値\\\hline調査報告書&12.1語&6.5語&10語(7\%)\\新聞の特集記事&12.0語&6.6語&9語(7\%)\\経済レポート&10.5語&5.5語&6語(9\%)\\\hline\end{tabular}\end{center}\begin{center}\leavevmode\caption{1段落当たりの語数}\label{tab:1段落当たりの語数}\begin{tabular}{|l|c|c|c|c|}\hline&平均&標準偏差&最頻値\\\hline調査報告書&29.2語&22.0語&24語(3\%)\\新聞の特集記事&25.8語&11.6語&22語(4\%)\\経済レポート&69.2語&49.6語&36語(2\%)\\\hline\end{tabular}\end{center}\bigskip\begin{center}\leavevmode\caption{正解境界数}\label{tab:正解境界数}\begin{tabular}{|r||r|r|r||r|}\hline\multicolumn{1}{|c||}{境界の大きさ}&\multicolumn{1}{c|}{報告書}&\multicolumn{1}{c|}{新聞}&\multicolumn{1}{c||}{レポート}&\multicolumn{1}{c|}{合計}\\\hline5,120語以上&1&0&0&1\\2,560語以上&2&0&0&2\\1,280語以上&3&0&0&3\\640語以上&12&1&1&14\\320語以上&21&70&23&114\\160語以上&44&86&54&184\\80語以上&70&174&78&322\\40語以上&97&202&104&403\\20語以上&115&216&113&444\\\hline20語未満(対象外)&15&62&0&78\\\hline\end{tabular}\end{center}\end{minipage}\end{table}また、評価実験において正解データとして用いた境界の数を表\ref{tab:正解境界数}に示す。表中、「境界の大きさ」\label{loc:境界の大きさ}というのは、境界の隔てている2つの節(記事)のうち、小さい方の節(記事)の大きさを指す\footnote{このようにして正解境界の大きさを求めたのは、大きさ別に話題が認定できたかを評価するためである。}。例えば、調査報告書の4.4節の開始位置は、4.3節と4.4節を隔てる境界であり、4.3節(6,067語)の方が4.4節(6,670語)より小さいので、4.3節の大きさを4.4節の開始位置の大きさとして扱う。4.4.1節の開始位置は、4.4節の開始位置から4.4.1節の開始位置までの部分(115語)と、4.4.1節(2,643語)を隔てる境界であるので、その大きさは、115語となる。表の最終行の対象外とした部分は、大きさが小さ過ぎるため、後述の評価に用いなかった正解境界である。このほとんどは、階層関係にある見出しが連続しているもの(例えば、調査報告書の4.2.1節の直後にある(1)の見出し)であり、その他は、階層関係にある見出しの間に1〜2文の導入部がはさまれていたもの(調査報告書の2箇所)、短い本文(1〜2文)と対応する調査報告書の6レベルの見出し(4.3.1節中の(2)(ア)、(3)(ウ)の2箇所)、短い(1〜3文)の記事のまとめの前におかれた区切り行(2箇所)のみであった。なお、表\ref{tab:正解境界数}で、新聞の境界数が記事境界の数より多くなっているのは、前述のように、◇のみの行なども正解データとして利用していることによる。また、経済レポートの境界数が記事数と同じになっているのは、それぞれの経済レポートの冒頭に、記事見出しの一覧部があることによる。\subsubsection{語彙的結束度の計算に用いた単語}\label{sect:単語認定}今回の実験では、結束度は、日本語形態素解析ツールjmor\cite{NL-112-14}を使って切り出した内容語(名詞・動詞・形容詞)を用いて計算した。jmorによって切り出される名詞には、形容動詞語幹が含まれ、機能語や数字・時詞・相対名詞(左右/上下/以上/以下など)は含まれない。また、jmorには名詞などの連続を複合語としてまとめて抽出する機能もあるが、この機能は用いず、個々の名詞を別々の語として扱った。例えば、最初の実験文書(調査報告書)の先頭の3文から以下の【】で囲まれたものが切りだされた。【】内の``/''の後ろは、活用語の終止形語尾である。結束度の計算においては、終止形語尾つきで表記が一致するものを同一の語とみなした\footnote{「い/る」は``要る''、``居る''のいずれの意味でも同一の語とみなすことになる。また、「い/る」と「要/る」のように表記が違う語は例え意味が同じでも別の語とみなした。}。\nobreak\begin{quote}4.1【調査/する】の【概要/】【インターネット/】は【予想/する】されて【い/る】た以上の【早さ/】で【急速/】に【普及/する】して【い/る】る。【業務/】はもちろん特に【家庭/】での【利用/する】が【急速/】に【広が/る】って【い/る】る。\end{quote}\subsubsection{語彙的結束度の計算に用いた窓のパラメータ}結束度は、最大窓幅5,120語から最小窓幅40語まで窓幅を1/2の比率で縮小した窓(8種類)を用いて計算した。ただし、文書サイズの1/2を超える窓幅で結束度の計算をしても意味がないと考えられるので\footnote{結束度系列中の大半の結束度の計算において左右いずれかの窓が文書からはみ出してしまうため。}、小さい実験文書については、文書サイズの1/2を超えない窓幅のみに限って処理を行った。また、結束度を計算する刻みは窓幅の1/8とし、移動平均では、この刻みの結束度系列の連続する4項の平均をとった。\subsection{結束度計算用窓幅と認定境界の間隔との関係}\label{sect:窓幅と認定境界の間隔との関係}提案手法の1つの大きな狙いは、大きな話題の切れ目と小さな話題の切れ目を区別して認定することにある。すなわち、大きな幅の窓を使って計算した結束度では大きな話題の切れ目だけを選択的に認定しようとしている。表\ref{tab:窓幅と境界間隔}は、狙い通りに、窓幅に応じた大きさの話題のまとまりが認定できているかを集計したものである。表\ref{tab:窓幅と境界間隔}から、いずれの種類の文書に対しても、結束度計算用の窓幅の1/2〜2倍程度の間隔で話題境界が認定されていることが分かる。また、それぞれの窓幅の認定境界数を、表\ref{tab:正解境界数}に示した境界の大きさ別の正解境界数と比較すると、窓幅の1/2〜1倍程度の大きさの正解境界の数と近い値になっていることが分かる。この2つ事実は、提案手法により結束度計算用の窓幅の1/2〜1倍程度の大きさの話題に由来する話題境界が認定できたことを示唆している。よって、認定境界が正しく話題境界と対応していれば、提案手法は狙い通りの機能を実現したといえる。そこで、認定境界と正解境界との対応に関する評価実験の結果を以下の節で報告する。\begin{table}[htbp]\small\leavevmode\caption{結束度計算用窓幅と認定境界の間隔との関係}\label{tab:窓幅と境界間隔}\begin{center}(a)調査報告書\\\medskip{}\begin{tabular}{|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{窓幅}&\multicolumn{1}{c|}{認定}&\multicolumn{3}{c|}{認定境界の間隔(語)}\\\cline{3-5}\multicolumn{1}{|c|}{(語)}&\multicolumn{1}{c|}{境界数}&\multicolumn{1}{c|}{平均}&\multicolumn{1}{c|}{最小〜最大}&\multicolumn{1}{c|}{標準偏差}\\\hline5,120&2&5,939&5,040〜6,666&826\\2,560&4&3,563&2,370〜5,040&978\\1,280&11&1,485&440〜2,810&746\\640&19&891&440〜1,525&297\\320&40&435&120〜860&189\\160&74&238&90〜470&89\\80&153&120&25〜275&49\\40&308&58&5〜155&25\\\hline\end{tabular}\end{center}\begin{center}(b)新聞の特集記事\\\medskip{}\begin{tabular}{|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{窓幅}&\multicolumn{1}{c|}{認定}&\multicolumn{3}{c|}{認定境界の間隔(語)}\\\cline{3-5}\multicolumn{1}{|c|}{(語)}&\multicolumn{1}{c|}{境界数}&\multicolumn{1}{c|}{平均}&\multicolumn{1}{c|}{最小〜最大}&\multicolumn{1}{c|}{標準偏差}\\\hline5,120&2&5,529&1,775〜9,073&3,568\\2,560&6&2,815&1,045〜8,033&2,144\\1,280&11&1,810&290〜3,235&820\\640&30&969&290〜1,775&318\\320&64&512&35〜1,080&226\\160&130&267&35〜585&116\\80&312&115&30〜305&46\\40&646&56&5〜145&23\\\hline\end{tabular}\end{center}\begin{center}(c)経済レポート\\\medskip{}\begin{tabular}{|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{窓幅}&\multicolumn{1}{c|}{認定}&\multicolumn{3}{c|}{認定境界の間隔(語)}\\\cline{3-5}\multicolumn{1}{|c|}{(語)}&\multicolumn{1}{c|}{境界数}&\multicolumn{1}{c|}{平均}&\multicolumn{1}{c|}{最小〜最大}&\multicolumn{1}{c|}{標準偏差}\\\hline2,560&1&1,882&1,490〜2,274&554\\1,280&14&1,509&695〜2,336&496\\640&33&978&160〜2,000&439\\320&79&483&145〜1,290&241\\160&165&249&55〜565&105\\80&360&118&30〜360&50\\40&761&57&5〜165&24\\\hline\end{tabular}\end{center}\end{table}\subsection{話題境界の認定精度の評価}\label{sect:話題境界の認定精度の評価}前節で示したように、提案手法で認定される話題境界の間隔は、認定に使う結束度計算用窓幅に大体比例している。そこで、節や記事の開始位置で、結束度計算用窓幅の1〜1/2倍の大きさ(\pageref{loc:境界の大きさ}頁参照)を持つものを、正解境界として用いた評価実験を行った。以下、まず、認定精度の評価尺度を簡単に説明し、次に、話題境界候補区間認定処理の評価結果と話題の階層関係認定処理の評価結果をそれぞれ示す。\subsubsection{認定精度の尺度とその基準値}\label{sect:基準値}以下のいずれの評価実験においても、話題境界の認定精度は、認定した話題境界と正解境界との一致度によって評価した。一致度は、情報検索で用いられる以下の2つの尺度で表した。\begin{eqnarray*}再現率(recall)&\equiv&\frac{一致正解境界数}{正解境界数}\\適合率(precision)&\equiv&\frac{一致認定境界数}{認定境界数}\\\end{eqnarray*}\noindent{}ここで、「一致」とは、認定境界と正解境界との隔たりが許容範囲に納まっていることを指す。また、「一致正解境界数」とは何らかの認定境界と「一致」した正解境界の数であり、「一致認定境界数」とは何らかの正解境界と「一致」した認定境界数\footnote{正解境界と認定境界が1対1で一致している場合は同じ数になるが、認定境界の許容範囲内に2つの正解境界が含まれる場合などには異なる数になる。}である。「一致」の許容範囲は、話題境界候補区間では候補区間そのもの(窓幅の1/2程度\footnote{話題境界の区間推定アルゴリズム(図\ref{fig:話題境界候補区間認定方法})では、移動平均をとる幅$d$(今回の実験では窓幅の3/8倍)と説明したが、実際の話題の階層関係認定処理(図\ref{fig:話題階層関係認定アルゴリズム})では、両端を$tic/2$ずつ拡張した区間(1/2窓幅)を用いている。これは、刻み幅$tic$(同1/8)分の不定性を考慮したためである。ただし、話題境界候補区間の近傍に正の結束力拮抗点がある場合の例外処理などのため、実際には窓幅の1/2より狭い区間が若干ある。})とし、話題の階層関係認定のアルゴリズムでは、±4語以内\footnote{最小窓幅(40語)の結束度の刻み幅(5語)未満という意味。}とした。また、再現率・適合率の有意性を示す基準値(baseline)として、「一致」判定の許容範囲の大きさによって計算される以下の値を用いた。\begin{itemize}\item再現率の基準値:\[\frac{一致と判定する許容範囲の大きさの合計}{文書サイズ}\]許容範囲の大きさの合計の分だけ、ランダムに文書の部分を選んだ場合に、その部分に含まれる正解境界の割合の期待値。\item適合率の基準値:\[\frac{記事境界数\times再現率の基準値}{認定境界数}\]「一致認定境界数の期待値」を「一致正解境界数の期待値」で近似して、「一致認定境界の期待値/認定境界数」の値を求めたもの。多くの正解境界がある場合に、100\%を超えてしまうことがあり、その場合には、``ALL''と示した。\end{itemize}\subsubsection{話題境界候補区間の認定処理の精度}\begin{table}[htbp]\footnotesize\begin{center}\caption{話題境界候補区間の認定処理の窓幅別精度}\label{tab:話題境界候補区間認定処理の精度}\leavevmode(a)正解境界の再現率\\\medskip{}\begin{tabular}{|r|r|r|r|r|r|r|r|r||r|}\hline\multicolumn{1}{|c|}{正解境界}&\multicolumn{9}{|c|}{結束度の計算用窓幅(語)}\\\cline{2-10}\multicolumn{1}{|c|}{の大きさ}&5120語&2560語&1280語&640語&320語&160語&80語&40語&\multicolumn{1}{|c|}{点(40語)}\\\hline5120語以上&\bf100\%&100\%&100\%&100\%&100\%&100\%&100\%&100\%&100\%\\2560語以上&\bf100\%&\bf100\%&100\%&100\%&100\%&100\%&100\%&100\%&100\%\\1280語以上&67\%&\bf67\%&\bf100\%&100\%&100\%&100\%&100\%&100\%&100\%\\\hline640語以上&31\%&23\%&\bf62\%&\bf93\%&79\%&79\%&64\%&71\%&50\%\\320語以上&21\%&23\%&28\%&\bf44\%&\bf68\%&72\%&76\%&77\%&40\%\\160語以上&23\%&22\%&30\%&33\%&\bf60\%&\bf74\%&76\%&73\%&42\%\\80語以上&19\%&24\%&29\%&30\%&45\%&\bf57\%&\bf67\%&70\%&40\%\\40語以上&20\%&22\%&27\%&28\%&42\%&50\%&\bf63\%&\bf70\%&43\%\\\hline\multicolumn{1}{|c|}{基準値}&18\%&23\%&21\%&20\%&23\%&25\%&32\%&41\%&15\%\\\hline\end{tabular}\end{center}\noindent{}\begin{center}\leavevmode(b)認定境界の適合率\\\medskip{}\begin{tabular}{|r|r|r|r|}\hline\multicolumn{1}{|c|}{認定用}&\multicolumn{3}{|c|}{正解境界の大きさ(語)}\\\cline{2-4}\multicolumn{1}{|c|}{窓幅}&5120語以上&2560語以上&1280語以上\\\hline5120語&\bf50\%(11\%)&\bf100\%(22\%)&100\%(32\%)\\2560語&25\%(5\%)&\bf50\%(11\%)&\bf50\%(16\%)\\1280語&9\%(2\%)&18\%(5\%)&\bf27\%(7\%)\\640語&5\%(1\%)&11\%(3\%)&16\%(4\%)\\320語&3\%(1\%)&5\%(1\%)&8\%(2\%)\\160語&1\%(0\%)&3\%(1\%)&4\%(1\%)\\80語&1\%(0\%)&1\%(0\%)&2\%(1\%)\\40語&0\%(0\%)&1\%(0\%)&1\%(0\%)\\\hline\end{tabular}\par\medskip{}\begin{tabular}{|r|r|r|r|r|r|}\hline\multicolumn{1}{|c|}{認定用}&\multicolumn{5}{|c|}{正解境界の大きさ(語)}\\\cline{2-6}\multicolumn{1}{|c|}{窓幅}&640語以上&320語以上&160語以上&80語以上&40語以上\\\hline5120語&67\%(86\%)&100\%(ALL)&100\%(ALL)&100\%(ALL)&100\%(ALL)\\2560語&60\%(43\%)&91\%(ALL)&100\%(ALL)&100\%(ALL)&100\%(ALL)\\1280語&\bf53\%(20\%)&69\%(57\%)&86\%(83\%)&94\%(ALL)&97\%(ALL)\\640語&\bf39\%(11\%)&\bf67\%(32\%)&73\%(46\%)&84\%(80\%)&88\%(ALL)\\320語&17\%(5\%)&\bf47\%(16\%)&\bf60\%(23\%)&72\%(41\%)&77\%(51\%)\\160語&9\%(3\%)&25\%(9\%)&\bf37\%(13\%)&\bf49\%(22\%)&53\%(28\%)\\80語&3\%(2\%)&12\%(5\%)&17\%(7\%)&\bf26\%(13\%)&\bf31\%(16\%)\\40語&2\%(1\%)&6\%(3\%)&8\%(4\%)&13\%(8\%)&\bf17\%(10\%)\\\hline\multicolumn{1}{c}{}&\multicolumn{5}{c}{※()内は候補区間の合計サイズと文書サイズとの比による基準値}\end{tabular}\end{center}\end{table}表\ref{tab:話題境界候補区間認定処理の精度}は、話題境界候補区間の精度を、結束度計算用窓幅の大きさと正解境界の大きさ別に集計したものである。太字の値は、結束度計算用窓幅と正解境界の大きさの比が1〜1/2となる部分である。(a)の「点(40語)」の列は、話題の階層関係認定処理の最後で、最小窓幅(40語)の結束度により決定した認定境界位置に関する正解境界の再現率である。なお、1,280語以上の大きさの正解境界は、最初の実験文書(調査報告書)中の6境界のみなので、これに対応する部分を区別して表示した((a)表の中程の区切り線より上の部分と(b)の表で上のもの)。(a)によれば、話題境界候補区間の認定処理は、結束度計算用窓幅程度の大きさの話題であれば、その境界の7割程度は、窓幅の1/2程度の精度で検出可能であると推定される。この値は、正解境界の大きさ程度以下の窓幅による部分では、正解境界の大きさによる違いが小さいので、信頼のおける値と考えられる。また、(b)によれば、実験で正解とした境界以外の潜在的話題境界の存在も考慮すると、ある窓幅の結束度で認定した話題境界の5割程度以上は、窓幅と同程度の大きさの話題の境界と対応すると推定される。例えば、1,280語の窓幅で認定した境界の1,280語以上の大きさの正解境界に対する適合度は、27\%と低くなっているが、これは1,280語以上の正解境界が3つ\footnote{図\ref{fig:余弦測度による話題境界}中の$B^{(2)}_1$、$B^{(2)}_2$、$B^{(2)}_3$に含まれる4.3、4.3.2、4.4の各節。}しかないこと(表\ref{tab:正解境界数})に由来している。図\ref{fig:余弦測度による話題境界}を参照すると、1,280語幅の窓による話題境界候補区間は、11個中$B^{(3)}_3,B^{(3)}_4,B^{(3)}_7,B^{(3)}_{11}$を除く7個が、実験文書中の上位2レベル以上の節(4.x節〜4.x.x節)の境界を含んでいる。よって、(b)中の値が低いのは、正解境界の選別基準とした「境界の大きさ」の求め方(\ref{sect:実験対象文書}節)の問題であり、実質的な適合率はもっと高いと考えられる。また、以上の数値は、40語窓幅による適合率以外、基準値の2倍以上になっているので、提案手法の効果は明白である。なお、再現率7割適合率5割という値は、\cite{PACL-32-P9}の値とほぼ一致しており、同論文に示されている人間同士の認定結果の食い違いや、その他の日本語の文章を対象にした話題境界の認定研究\cite[など]{NLC93-8,PNLP-2-P325}に比べても低くない値である。これらの研究との比較は、対象言語・対象文書・認定する話題の大きさなどの実験条件が異なるので、数値の直接比較に意味があるのかは微妙であるが、以下の2点は、提案手法の独自の特徴といえる。すなわち、話題の大きさ別に選択的に話題境界を認定できる点と、調整すべきパラメータがほとんどない点である。提案手法の基本的パラメータは結束度計算用窓幅と移動平均をとる項数だけであり、閾値や重みなどは設定の必要がない。また、窓幅に関しては、認定したい話題の大きさに応じて決定できるので、移動平均の項数が残されたパラメータである\footnote{移動平均の項数も、話題の階層関係認定処理において、結束度計算用の窓幅を1/2ずつ縮小するのであれば、ほぼ必然的に本稿で用いた値に落ち着くと思われる。}。\subsubsection{話題の階層関係認定処理の精度}\label{sect:話題の階層関係認定精度}表\ref{tab:大きさ別の再現率と適合率(総合)}は、話題の階層関係認定処理の精度の評価結果である。この処理で精度に影響する操作には、話題境界候補区間の統合操作(図\ref{fig:話題階層関係認定アルゴリズム}(2))と、話題境界の点推定操作(同(3))の2つがある。表の「区間推定精度」と「点推定精度」は、これらの操作に関する精度である。話題境界候補区間の統合操作は、大きな窓幅による話題境界候補区間(以下仮に「親」と呼ぶ)と、それより一回り小さい(1/2の)窓幅による話題境界候補区間(同「子」と呼ぶ)とを統合する操作である。この操作は、最大の窓幅による話題境界候補区間から始めて順次繰り返し、最小の窓幅(今回は40語幅)の話題境界候補区間まで統合し終えたところで終了する。表の「区間推定精度」は、この操作を完了した時点の認定精度、すなわち、統合された最小幅の話題境界候補区間に正解境界が含まれることを「一致」とした場合の再現率と適合率を示している。話題境界の点推定操作では、固定幅(5語)刻みに計算した結束度の極小値を手がかりに、最終的な話題境界の位置を決定する。そのため、正解境界と話題境界が完全に一致するのは、正解境界が(たまたま)5語刻みの位置にある場合だけである。そこで、表\ref{tab:大きさ別の再現率と適合率(総合)}では、認定した境界位置から±4語以内の範囲内に正解境界があることを「一致」として再現率と適合率を求めた。表\ref{tab:大きさ別の再現率と適合率(総合)}の「基準窓幅」というのは、話題境界の統合処理を開始する、話題境界候補区間の窓幅である。表\ref{tab:大きさ別の再現率と適合率(総合)}には、この基準窓幅以上の大きさをもつ正解境界との一致度を、基準窓幅別に集計した。例えば、図\ref{fig:余弦測度による話題境界}の$B^{(1)}_1,B^{(2)}_1,B^{(3)}_5$が統合された話題境界は、5,120語〜40語のどの窓幅の話題境界候補区間から統合処理を開始しても認定できる境界であるので、全ての基準窓幅の認定境界として集計した。同様に、その右の$B^{(2)}_2,B^{(3)}_6$が統合された話題境界は、2,560語以下の窓幅の話題境界候補区間から統合処理を開始した場合に認定できる境界であるので、「5,120語以上」以外の基準窓幅に対する認定境界として集計した。表\ref{tab:大きさ別の再現率と適合率(総合)}によれば、話題境界候補区間の統合操作まで完了した時の再現率と適合率(表の区間推定精度)は、それぞれ、5〜6割、2〜3割程度と推定される。また、最小窓幅の結束度による話題境界の点推定操作の後の再現率と適合率(表の点推定精度)は、それぞれ、3〜4割、2割弱程度と推定される。これらの値は、括弧内に示した基準値よりも2倍程度以上大きいので、提案手法全体の有効性は明らかであるが、前節で述べた話題境界候補区間の認定処理の値より見劣りがする。その代わり、境界位置の推定区間の大きさに相当する再現率の基準値\footnote{再現率の基準値は、話題境界候補区間の大きさ(点推定の場合は±4語幅に固定)の総和の文書サイズに対する比率である(\pageref{sect:基準値}頁参照)。}は、統合操作と点推定操作を行うことで1/4以下になっている。例えば、基準窓幅80語の場合、統合前には文書全体の32\%(表\ref{tab:話題境界候補区間認定処理の精度}(a)の「80語」の列の基準値)を占めていた境界位置の推定区間が、40語幅の結束度を使って点推定した後には文書全体の7\%(表\ref{tab:大きさ別の再現率と適合率(総合)})に縮小している。\begin{table}[htbp]\begin{center}\leavevmode\caption{基準窓幅以上の大きさの正解境界に対する話題境界の一致度}\label{tab:大きさ別の再現率と適合率(総合)}\begin{tabular}{|r||r|r||r|r||r|r|}\hline&\multicolumn{2}{c||}{境界数}&\multicolumn{2}{c||}{区間推定精度(40語窓幅)}&\multicolumn{2}{c|}{点推定精度(±4語以内)}\\\cline{2-7}基準窓幅&正解&認定&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c||}{適合率}&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{適合率}\\\hline5120語&1&2&100\%(0\%)&50\%(0\%)&100\%(0\%)&50\%(0\%)\\2560語&2&4&50\%(1\%)&25\%(0\%)&50\%(0\%)&25\%(0\%)\\1280語&3&11&67\%(1\%)&18\%(0\%)&67\%(0\%)&18\%(0\%)\\\hline640語&14&33&43\%(2\%)&18\%(1\%)&36\%(1\%)&15\%(0\%)\\320語&114&164&46\%(4\%)&32\%(3\%)&25\%(1\%)&18\%(1\%)\\160語&184&369&50\%(9\%)&25\%(4\%)&30\%(3\%)&15\%(1\%)\\80語&322&825&56\%(20\%)&22\%(8\%)&32\%(7\%)&12\%(3\%)\\40語&403&1715&70\%(41\%)&17\%(10\%)&43\%(15\%)&10\%(5\%)\\\hline\multicolumn{1}{c}{}&\multicolumn{6}{c}{※()内は一致度の許容範囲の大きさと文書サイズとの比による基準値}\end{tabular}\end{center}\end{table}\vspace{-9mm}\subsection{考察}\label{sect:考察}以上の実験によれば、提案手法は、結束度計算用の窓幅程度の大きさの話題のまとまりを選択的に認定できる。また、異なる窓幅の結束度による認定境界を統合することで、大きな話題の下に、いくつかの小さい話題が配されているような話題の階層構成を認定できる。ただし、その精度は、±4語(あわせて1文程度)以内で認定できた境界が2割弱(適合率)と高くない。話題境界候補区間に対する正解境界の再現率(表\ref{tab:話題境界候補区間認定処理の精度}(a))は、結束度計算用窓幅以上の大きさの正解境界に対しては、ほぼ一定(約7割)している。よって、話題境界の統合操作をうまく行えば、適合率(表\ref{tab:話題境界候補区間認定処理の精度}(b):5割程度以上)を落とさずに候補区間を絞り込めると考えられる。従って、話題境界候補区間の統合操作の失敗が、今回の実験における精度低下の大きな原因と考えられる。この操作で問題となるのは、統合候補(子の候補)が複数ある場合である。例えば、\ref{sect:話題の階層関係の認定手法}で説明した図\ref{fig:余弦測度による話題境界}の$B^{(2)}_4$の子を選ぶ場合である。このような場合の処理のやり方は色々と考えられるが、今回は単純に、親の結束度拮抗点に最も近い子を1つだけ選択している。この操作には、まだ工夫の余地がある。また、話題境界位置最終決定の手がかりとして、移動平均をとらない生の結束度を用いていることも、精度低下の原因のひとつと考えられる。ひとつの解決策として、提案手法を話題境界候補区間の絞り込みに使い、話題境界位置の最終決定を別の手段にまかせることが考えられる。最も簡単なのは、話題境界候補区間で、見出しなどに特徴的な書式を探すことである。話題境界候補区間を使えば、少なくとも7割程度の正解境界に関しては、文書全体の2〜3割程度\footnote{表\ref{tab:話題境界候補区間認定処理の精度}(a)の基準値。}の領域に候補範囲を絞ることができる(表\ref{tab:話題境界候補区間認定処理の精度}(a))。よって、その部分に絞って書式解析を行うのであれば、単純な条件判定でも高い精度が期待できる。あるいは、\cite{PNLP-2-P325}のように統計的な処理を行う場合であっても、話題境界候補区間に処理対象を絞れば、雑音の影響の軽減が期待できる。その他の課題として、語彙的結束性を何を単位として測定するかという問題がある。本稿では、名詞・動詞・形容詞の繰り返しによって語彙的結束度を求めたが、品詞によって結束の特性が異なると考えられる。例えば、アスペクトを示す補助用言(「(て)いる」など)の繰り返しによる結束性\footnote{英文由来の語彙的結束性という概念には本来あてはまらない結束性。}は、数段落程度の狭い範囲では有効に働いたと見られる部分が観察されたが、章をまたがるような範囲の結束に寄与するとは考えにくい。このような特性の利用は今後の課題である。また、シソーラスなどを利用して関連語の繰り返しによる結束性を手がかりとすべきか\cite{PACL-32-P9,COLING-98-P1481}という議論もある。これに関しては、少なくとも単一文書中の大きな話題を認定する場合には不要であると考えている。理由は、今回の実験でもかなり高い話題境界の検出力が確認されており、かつ、実用的には上述の書式や接続詞などの手がかりを併用した処理の方が効率の面で有利だからである。特に日本語では、複合語の末尾の構成語が上位語であることが多く、短い単位に単語を区切れば、そのような上位語(「委員会」など)の代名詞代わりの繰り返しによる結束性も含めて話題境界を認定できるので、シソーラスの利用が劇的な改善をもたらすとは思われない。ただし、用語の統一のとれていない短い文書の集合(ネットニュースなど)の話題境界を認定する場合などには、何らかの関連語の処置が必要であろう。最後に、提案手法で認定した話題構成と関連記事のまとまり方との関連についての観察結果を補足する。まず、関連記事のまとまりが比較的精度よく認定できた例として、新聞記事の特集の中から「中国革命」の記事境界の認定状況を図\ref{fig:china.result}に示す。図のp、w、xの記号の並びはその左の見出しの開始位置が、話題境界として認定されたことを示している\footnote{p、wは上述の評価で一致と判定した境界で、それぞれ、点推定、窓幅40語の結束度による区間推定に対応する。xは最終的に決定した境界位置から40語以内にある記事境界である。}。記号の並びが横に長く伸びているほど大きい窓幅で認定された境界である。この図から、大きい窓幅による認定境界ほど大きい話題の境界であるという傾向が見てとれる。例えば、最大の窓幅で認定された境界は「国共合作(上)」の開始位置であり、ついで、「毛沢東の栄光と悲惨(1)」「文化大革命(上)」「連合政府(上)」の開始位置であるというように、続き物の記事の開始位置が認定されている(図にはこの4つの開始位置に横線を加えてある)。記事中の記者の署名を見ると「中国\vspace{-1mm}革命」の連載は7人の担当記者が分担しており、続き物の記事は同じ記者が担当していることが多かった。よって、これらの認定境界は話題に対応するのでなく、あるいは、担当記者の用語の個性によるものである可能性もある。しかし、「文化大革命」に関しては、上中と下の担当記者の署名が異なっていたので用語の個性だけでは説明できない一致といえる。\begin{figure}[htbp]\small\begin{center}\leavevmode\epsfile{file=fig/107_ue_250.eps,width=120mm}\\{(a)話題境界と話題境界候補区間}\par\end{center}\begin{center}\leavevmode\begin{tabular}{l|r|cccccccc}&&\multicolumn{6}{c}{基準窓幅別認定状況}&\multicolumn{2}{r}{→大境界[語]}\\\multicolumn{1}{c|}{記事見出し}&\multicolumn{1}{c|}{開始位置}&40&80&160&320&640&1280&2560&5120\\\hline歴史再評価(上)&0&-&-&-&-&-&-&-&-\\歴史再評価(下)&405&x&x&&&&&&\\辛亥革命栄光と挫折(上)&890&x&x&x&x&&&&\\辛亥革命栄光と挫折(下)&1346&p&p&p&&&&&\\\cline{1-10}国共合作(上)&1779&p&p&p&p&p&p&p&p\\国共合作(下)&2299&w&w&&&&&&\\\cline{1-9}毛沢東の栄光と悲惨(1)&2826&w&w&w&w&w&w&w&\\毛沢東の栄光と悲惨(2)&3332&w&w&w&w&&&&\\毛沢東の栄光と悲惨(3)&3897&w&w&&&&&&\\毛沢東の栄光と悲惨(4)&4456&w&w&w&w&&&&\\整風運動&4985&x&&&&&&&\\\cline{1-9}文化大革命(上)&5567&p&p&p&p&p&p&p&\\文化大革命(中)&6080&p&p&p&&&&&\\文化大革命(下)&6602&p&p&p&p&p&&&\\\cline{1-9}連合政府(上)&7168&w&w&w&w&w&w&w&\\連合政府(下)&7676&w&w&&&&&&\\改革・開放(上)&8175&p&p&p&p&p&&&\\改革・開放(下)&8706&w&w&w&w&&&&\\中ソ対立&9231&w&w&w&w&w&w&&\\少数民族の苦悩&9757&w&w&w&w&&&&\\百年の決算&10317&p&p&p&p&&&&\\\end{tabular}\end{center}\begin{center}{(b)記事境界の認定状況}\\\end{center}\caption{「中国革命」中の話題構成の認定結果}\label{fig:china.result}\end{figure}なお、今回の実験に使った新聞の特集記事には、記事の後半に次の記事へとつなぐ話題をおき、連載記事のまとまりをつけていると見られるものがあった。例えば、「働くということ」という特集記事\footnote{記事境界の認定精度が比較的悪かった例でもある。}で、最大の基準窓幅(640語)の認定境界は、「◆プロの時代…専門磨き生き抜く」の記事境界より、その前の記事中の小見出し「◇巧みな外資系◇」の方に大きくずれている(図\ref{fig:hataraku.result}の中程の横線部分)。この部分の内容を見ると、「働く女性」の話題と「専門性」「能力主義」の話題が交錯している部分であった\footnote{前後の記事中の署名が異なっていたのであるいは偶然の一致かもしれない。}。このような話題の交錯する部分の扱いは、今後の課題である。\begin{figure}[htbp]\small\begin{center}\leavevmode\epsfile{file=fig/108_ue_250.eps,width=120mm}\\{(a)話題境界と話題境界候補区間}\par\end{center}\begin{center}\leavevmode\begin{tabular}{l|r|ccccc}&&\multicolumn{3}{c}{基準窓幅別認定状況}&\multicolumn{2}{r}{→大境界[語]}\\\multicolumn{1}{c|}{見出し(◆記事見出し/◇小見出し)}&\multicolumn{1}{c|}{開始位置}&40&80&160&320&640\\\hline◆「山一」の衝撃…「会社が消滅」生活激変&0&-&-&-&-&-\\\phantom{....}\phantom{....}◇&281&x&&&&\\◆転身…「災い」バネに新天地へ&320&x&&&&\\\phantom{....}◇専門知識の習得必要◇&505&x&x&&&\\◆年俸制…人物「時価」で評価&685&p&&&&\\\phantom{....}◇人生設計を見直し◇&851&p&p&&&\\◆女性パワー…会社支える必要条件&1018&w&w&w&w&\\\phantom{....}◇巧みな外資系◇&1176&x&x&&&\\\hline◆プロの時代…専門磨き生き抜く&1350&w&&&&\\\phantom{....}◇年功序列に疑問◇&1535&x&x&&&\\◆若者の挑戦…広がる独立・転職志向&1647&x&x&x&x&\\\phantom{....}◇二極化傾向強く◇&1921&x&x&x&&\\◆出社不要…車中に仮想オフィス&2004&p&p&&&\\\phantom{....}◇広がる裁量労働制◇&2216&x&x&x&&\\\phantom{....}\phantom{....}◇&2297&p&p&&&\\\end{tabular}\end{center}\begin{center}{(b)記事境界・節境界の認定状況}\end{center}\caption{「働くということ」中の話題構成の認定結果}\label{fig:hataraku.result}\end{figure}
\section{結論}
本稿では、語彙的結束性という文章一般に見られる現象に基いて話題の階層構成を認定する手法を提案した。そして、数十頁にわたる長い文書についても、文書サイズの1/2〜1/4程度の大きな話題のまとまりから、段落程度の大きさの話題のまとまりまで、任意の大きさの話題のまとまりを認定可能であることを示した。また、語彙的結束度を複数の窓幅で測定し、組み合わせて用いることで、話題の階層構成が認定可能なことも示した。今後の大きな課題は、話題の階層構成に基づき、長い文書に対する質の高い要約を作成できる手法の実現である。当面の課題は、重要な話題のまとまりの選別処理\cite{PNLP-4W-P72}や、重要文抜粋処理などを組み合わせて、実用レベルの要約手法を完成させることである。また、将来的課題には、文章の修辞構造解析などの複雑な処理も組み入れてより質の高い要約の作成を可能にすることや、新聞の特集記事のような関連文書を再構成して要約することなどがある。これらの実現においても、任意の大きさの話題のまとまりを語彙の繰り返しという単純な手がかりだけから認定できる提案手法は、大きな役割を果たしうると考えている。\acknowledgment実験用文書を提供して下さった電子工業振興協会のネットワークアクセス技術専門委員会の方々に感謝します。\appendix
\section{話題境界候補区間認定原理の補足}
\label{app:拮抗点と順方向結束力の関係}負の結束力拮抗点の直前の移動平均をとる幅($d$語)以内に順方向結束力の極小点が存在することを証明する(関連\ref{sect:話題境界の区間推定法}節)。まず、ある点$p$における順方向結束力と逆方向結束力をそれぞれ$FC_p,BC_p$とおくと、\[FC_p\equivBC_{p+d}\]であり、拮抗点$ep3$では順方向結束力と逆方向結束力が等しいので、\[FC_{ep3-d}(\equivBC_{ep3})=FC_{ep3}\]が成り立つ。よって、拮抗点の直前の点の値が拮抗点の値より小さければ、$ep3-d$までの部分、拮抗点の直前$d$語以内に順方向結束力の極小値がある。また、拮抗点の直前の点の値が拮抗点の値より小さくなくても、\[FC_{ep3-d-1}\equivBC_{ep3-1}>FC_{ep3-1}\geFC_{ep3}\\\]であり、同様に\begin{eqnarray*}FC_{ep3}<FC_{ep3+1}&or&\\FC_{ep3-d+1}(\equivBC_{ep3+1})&<&FC_{ep3+1}\leFC_{ep3}\end{eqnarray*}となるので、$ep3-d$から$ep3$までの間に極小値が存在することになる。(証明終り)
\section{実験文書中の見出しの例}
\label{sect:実験文書の見出し}\medskip評価実験に用いた文書の見出しの例を参考として示す。新聞の特集記事の見出しの例については、本文中の図\ref{fig:china.result}、図\ref{fig:hataraku.result}を参照。\begin{figure}[htbp]\footnotesize\begin{center}\begin{minipage}[t]{7cm}\begin{tabular}{l}4.1調査の概要\\4.2ネットワークアクセスのインタフェース\\4.2.1提言:10年後のネットワークアクセス\\\\\\\\\\インタフェースはこうなる\\\\(1)ネットワーク情報への多様なアクセス\\\\(2)個人向けインタフェースを支える\\\\\\\\\エージェント技術\\\\(3)セキュリティ・個人認証の今後\\\\(4)機械翻訳と多国語\\4.2.2現状と問題点\\\\(1)アクセスインタフェースの多様化\\\\(2)インタフェースを支える\\\\\\\\\ネットワークプログラム技術\\\\(3)セキュリティ・個人認証\\\\(4)機械翻訳・言語処理技術\\4.3ネットワーク上の検索サービス\\4.3.1検索サービスの調査\\\\(1)WWW検索サービスの概要\\\\(2)情報収集/検索方式\\\\(3)情報提示方式\\\\(4)今後の課題\\4.3.2検索技術の動向\\\\(1)キーワード抽出\\\\(2)文書自動分類\\\\(3)要約・抄録技術\\\\(4)分散検索\\\end{tabular}\end{minipage}\begin{minipage}[t]{6cm}\begin{tabular}{l}4.3.3電子出版及び電子図書館\\\\(1)電子出版\\\\(2)電子図書館\\4.4.検索エンジン\\4.4.1.日本語の全文検索技術の動向\\\\(1)文字列検索アルゴリズム\\\\(2)インデックス作成法\\\\(3)日本語の全文検索技術\\\\(4)製品化動向\\\\(5)今後の課題\\4.4.2.有限オートマトンによる\\\\\\\\\\自然言語処理技術の動向\\\\(1)有限変換器のコンパクト化\\\\(2)文字列パタン照合\\\\(3)書き換え規則,Two-levelモデル\\\\(4)形態素解析,構文解析\\\\(5)まとめ\\4.4.3情報フィルタリング技術の動向\\\\(1)内容に基づくフィルタリング\\\\(2)協調フィルタリング\\\\(3)ユーザモデリング\\\\(4)まとめ\\4.4.4情報抽出/統合技術の動向\\\\(1)検索ナビゲーション技術\\\\(2)情報統合技術\\\\(3)情報の可視化技術\\\end{tabular}\end{minipage}\caption{実験文書中の見出し:調査報告書(上位3レベルまで)}\label{fig:電子協の見出し}\end{center}\bigskip\begin{center}\begin{minipage}{12cm}\small\begin{itemize}\item[$\bigcirc$]アメリカ経済の動向(171語)\item[$\bigcirc$]フィンランドは通信技術の最先進国(94語)\item[$\bigcirc$]低下するパソコンの売れ行き(299語)\item[$\bigcirc$]Microsoftの将来は不透明(303語)\item[$\bigcirc$]ますます難局に立つApple(1523語)\item[$\bigcirc$]Netscape社の苦闘(513語)\item[$\bigcirc$]通信衛星が将来Internetアクセスの困難を解消(653語)\\()内は記事の大きさ(記事中の内容語の数)\end{itemize}\caption{実験文書中の見出し:経済レポート(97年1月分の全記事)}\label{fig:室賀教授レポートの見出し}\end{minipage}\end{center}\end{figure}\bibliographystyle{jnlpbbl}\bibliography{v06n6_04}\begin{biography}\biotitle{略歴}\bioauthor{仲尾由雄(正会員)}{1986年東京大学理学部物理学科卒業。同年(株)富士通研究所入社。1988〜1994年日本電子化辞書研究所へ出向。現在、(株)富士通研究所。自然言語処理技術を使った文書処理システムの研究開発に従事。情報処理学会会員。}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V16N02-01
|
\section{はじめに}
\label{s:はじめに}がんの患者や家族にとって,がんに関する情報(以下,「がん情報」と呼ぶ)を知ることは非常に重要である.そのための情報源として,専門的で高価な医学書に比べて,ウェブ上で提供されているがん情報は,容易に入手可能であり,広く用いられるようになってきている\cite{c1,c2}.これらWebで公開されているがん情報は,良質で根拠に基づいたものばかりではなく,悪質な商用誘導まで存在する\cite{c3,c4}.このような多量のがんに関する文書の中からその文書が何を述べているかの情報を抽出し,良質ながん情報を選別し取得されるがん情報の質を向上させることが求められている.このように,がんに関する文章について,自然言語処理を適用することにより,がんに関して有用な結果を得るための情報処理を,本稿では,がん情報処理と呼ぶ.がん情報処理のためには,がんに関する用語(以下,がん用語と呼ぶ)の網羅的なリスト,すなわち,網羅的ながん用語集合が必要である.なぜなら,もし,網羅的ながん用語集合が存在すれば,それを利用することにより,がんに関する文書の形態素解析や情報検索等のがん情報処理の精度が向上することが期待できるからである.しかし,現状では,内科学や循環器学等の分野の用語集合は,それぞれの関連学会により作成されているが,がん用語集合は存在しない.そのため,本研究では,がん用語集合を作成するとともに,がんだけでなく,がんとは別の分野における用語集合の作成にも適用できるような,用語集合作成法を提案することを目標とする.高度ながん情報処理の例としては,「胃がん」や「肺がん」などの単純な検索語から検索エンジンを用いて得られたコンテンツが,一体,どのような意味を含んでいるのかを推定することなどが想定できる.そのような処理のためには,「胃がん」や「肺がん」などのがんの病名だけをがん用語としていたのでは不十分である.少なくとも,「肝転移」や「進行度」のようながんに限定的に用いられる語から,「レントゲン写真」や「検診」のように,がんだけに用いられるわけではないが関連すると思われる語もがん用語とする必要がある.なぜなら,「胃がん」や「肺がん」で検索した文書は,既に,「胃がん」や「肺がん」に関係することは明らかであるから,そこから更に詳細な情報を獲得するには,「胃がん」や「肺がん」よりも,もっと詳細な用語を利用する必要があるからである.このように,がん情報処理のためには,「胃がん」や「肺がん」等のがんに関する中核的な用語だけでなく,がんに関連する用語や周辺的な用語も網羅的に採用すべきである.ただし,「網羅的」といっても,がんとの関連度が低すぎる語をがん用語集合に加えるのは,望ましくない.そこで,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみから,がん用語集合を作成し,それ以外の語に関してはがんとの関連性が低いと考える.このような関連の強さに基づくがん用語集合を作成するためには,まず,「がん」という疾患の性質を考慮する必要がある.「がん」は図\ref{f:001}のように,胃がん,肺がんをはじめとする複数の疾患群(50個以上の疾患)の総称であると同時に,他の疾患とも関わりがある.例えば,図\ref{f:001}の下部分に示したタバコは,肺がんの直接のリスク要因であることが知られているが,それだけでなく,動脈硬化を引き起こし,心筋梗塞や脳梗塞などの成人病を起こす危険因子としても知られている.ただし,タバコによって引き起こされる動脈硬化が原因で起こる心筋梗塞や脳梗塞は,直接肺がんとは関係しない.そのため,「タバコ」はがんに関連するが,「心筋梗塞」や「脳梗塞」はがんに関連しない.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f1.eps}\end{center}\caption{がんとがんに関する疾患の関係の例}\label{f:001}\vspace{-5pt}\end{figure}また,図\ref{f:001}の上部分に示した肝障害に関連する疾患と密接に関係する「肝がん(肝臓がん)」は,肝硬変やウィルス性肝炎から直接発病する場合もある.そのため,肝硬変やウィルス性肝炎は,がんではないが,がんに関連する疾患であり,これらの内容が記述されているコンテンツは,がん関連用語を含む可能性が高い.そのため,肝がんに関連する用語候補を得るためには,図\ref{f:001}の上の斜線で示した部分である「がん関連用語」を収集する必要がある.つまり,肝がんに直接関係する用語だけではなく,肝硬変やウィルス性肝炎などの関連する疾患に関係する用語であっても,肝がんに間接的に関係する用語は含める必要がある.(「がんに関係する」ということの定義については,\ref{s:がん用語候補集合(Cc)の作成}節で詳述する.)さらに,がんにおける用語の範囲は,それぞれのがんにより異なるためアプリオリな定義を行うことは困難である.そのため,内省により用語集合を作成するのではなく,実際に存在するコーパスから用語を収集することが望ましい.がん用語の一部は,例えば「リンパ節」や「転移」のように,一般用語辞書(例えばChaSen用のipadicver.2.7.0)や,医学用シソーラスであるMeSH\cite{c5}にも含まれている.しかし,これらに含まれるがん用語には,がんに関する用語であるとの説明がないため,これらの用語からがん用語を自動的に選択することはできない.また,がんに関するテキストから,専門用語抽出アルゴリズム\cite{c6,c7}を利用して,がん用語の候補を抽出することも考えられるが,我々の予備実験および\ref{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}節の実験によると,このような候補には,がん用語以外のものも大量に含まれる.そのため,既存の一般用語辞書や専門用語抽出アルゴリズムを利用して用語候補を抽出したとしても,妥当な用語集合にするためには,人手によるがん用語の選別が不可欠である.この選別における問題は,選別の妥当性を確保することである.さらに,選別の対象であるがん用語の候補集合が,なるべく多くのがん用語を網羅していることを保証する必要もある.がんに限らず,ある分野の用語集合の網羅性と妥当性を保証するためには,内科学や循環器学等の医学の各分野における用語集合について\ref{s:従来研究}節で示すように,学会単位で多大な人手と時間を費やして作成することが考えられる.しかし,これには多大なコストがかかる.そこで本研究では,相対的に低コストで,網羅的で妥当ながん用語集合を作成するために,まず,国立がんセンターのWebサイト\nocite{c8}(国立がんセンターhttp://www.ncc.go.jp/index.html)のコンテンツをコーパスとして,がん用語の語感を持つ医師に候補語彙を切り出させ,がん用語候補集合(Cc:CancerTermCandidates)を網羅的に作成する.この国立がんセンターのコンテンツは,同センターががんに関するわが国の最高権威の診療機関であること,50種類以上のわが国の国民の罹患する可能性のあるほぼ全てのがんに関する記述があることから,がん用語に関する信頼性と網羅性が確保できると考える.なお,国立がんセンターのWebサイトのコンテンツの信頼性に関して\ref{s:コンテンツの選定}節,がん用語の切り出しの一貫性に関して\ref{s:がん用語候補集合の作成}節でそれぞれ検討する.このように本研究では,用語集合の切り出し元とするコーパスの医学的内容の信頼性と,記述されている内容の網羅性は十分と仮定して,用語候補集合(Cc:CancerTermCandidates)を作成する.最初の切り出しの段階では,医師の語感に基づいて,用語候補をできるだけ網羅的に広く収集することによって,初期段階における用語の漏れを防ぐ.次に,これら用語候補の特徴から,がん用語の選択基準を作成し,この基準に基づいて,Ccからがん用語集合(C:CancerTerms)を抽出する.最後に,他の医師に選択基準を説明し,評価用の用語候補を分類してもらうことにより,選択基準の妥当性を評価する.ここで,この選択基準は,上で述べたように,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみを選ぶための基準である.なお,\ref{s:従来研究}節で示すが,わが国では医学のうち内科学や循環器学に関する用語集は存在するが,がん用語集はなく,本研究で作成するがん用語集は,それ自体が新規である.さらに,本研究では,がんだけでなく,他の分野の用語集合の作成にも適用できるような用語集合作成法を提案することを目標とする.なお,関連して,コーパスに基づいて辞書を作成したものとしてCOBUILDの辞書等があるが,医学用語をコーパスに基づいて収集し評価した例はない.
\section{従来研究}
\label{s:従来研究}まず,既存の公開されている医学用語集を分類し,本研究で作成するがん用語集合との相違点について述べる.次に,内科学と循環器学を例として,これらの用語選択について述べ,がん用語集合の要件について検討する.\subsection{既存の医学用語集}\label{s:既存の医学用語集}表\ref{t:001}に現在公開されている医学用語集の例を示す.これら用語集を,公開されている内容に基づいて,作成者,対象領域,公開方法,見出し語数,各用語に対する説明の有無,用語選択の基準公開の別,主な用途の7つの観点から分類した.これより,これらの用語集は和英の用語の統一を目的とした対訳辞書(対訳共有)と,概念の共有を目的とした事典の形式(知識共有)をとるものがあることが分かる.\begin{table}[b]\caption{公開されている医学用語集の例}\begin{center}\input{01table01.txt}\end{center}\label{t:001}\end{table}これらのうち最大のものは,1の日本内科学会が編集した用語集だが,この用語集は学会誌などでの学術用語としての用語を統一するために編纂されたものであり,英語—日本語の対訳辞書である.内科学は医学全般の疾患を網羅的に扱う分野であり,がん用語もこの用語に含まれると考えられるが,各用語の用例と用語別の出典が明示されておらず,がん用語かどうかを機械的に判定することはできない.同様に2,4,5,6,7,8,9,10,11,12の用語集には用語の説明と出典がないため,収録されている用語の選択基準が不明である.13の国立がんセンターの公開する「がんに関する用語集」は,患者や家族に対して,医療関係者が行う用語の理解を助けることを目的にまとめられたものであるが,項目数は約220であり,本研究の目的とする,網羅的な用語集ではない.これらの用語集と比べ,表\ref{t:001}の3の合衆国のNCI:NationalCancerInstituteの公開している``DictionaryofCancerTerms''は,項目数が約5200であること,それぞれの用語に対する説明が行われており,説明内容に基づいて用語が選択されていると考えると,本研究の目的とする,網羅性が高くかつ選択基準が明確な用語集に最も近い.しかし,合衆国とわが国では,疾患分布が異なる(例えば,胃がんは合衆国では稀な疾患である)こと,医学的技術(内視鏡技術はわが国が開発した技術である),社会制度(社会保険の制度が全く異なる)など,様々な相違がある.そのため,必要ながん用語集合が異なる可能性が高い.以上のことから,本研究では,わが国のがん情報処理を可能にするがん用語集合を,実際の用例に基づいて作成する.本研究で作成する用語集合の特徴は,表\ref{t:001}の7つの観点からは,(1)作成者は本研究の著者ら,(2)対象領域はがん,(3)公開方法は未定,(4)見出し語数は日本語約1万語,(5)用語説明はなし,(6)用語選択基準は公開,(7)用途はがん情報処理である.\subsection{用語選択基準の例について}\label{s:用語選択基準の例について}表\ref{t:001}で示した医学用語集の中で,用語選択基準の例として,日本内科学会と日本循環器学会の基準を図\ref{f:002}に示す.内科学や循環器学は,医学において歴史も古く,膨大な知識の整理の行われた結果教科書として長年にわたって出版され,それぞれ数千語以上の索引が掲載されており,これらが,用語集を作成する上での言語資源として活用されている.以下,内科学,循環器学を例としてそれぞれの選択基準について述べ,がんに関する用語選択基準について述べる.内科学会用語集は,初版(ドイツ語見出しで約9400語)に始まり,平成5年に出版された第4版(英語見出しで約27,000語)を改訂した第5版(英語見出しで約35,000語)のものである.内科学は全ての医学の基礎的領域であり,約100年近い歴史もあることから,歴史的経過で基礎となる前版の用語に学会の選任した委員(第5版の場合,平成6年に各専門分野を代表する計14名の理事・評議員)で組織された内科学用語集改訂委員会が約5年をかけて,第4版に約10000語を追加する形で平成10年に第5版を出版した.なお,今回の改訂などでの用語の出典は明示されていない.また,用語選択の基準に関しては,「内科学の分野において使用される用語および関係の深い用語」として,専門委員会が選択したものである.循環器学用語集は平成20年3月に改訂第3版が出版された.この用語集は,第2版(5,638語)に,数冊の教科書の索引語(合計19,037語)を加えて基本用語リスト(24,675語)を実務委員会が作成し,これに採用の可否を延べ59人の委員が判定し,14,858語を選択し,最終案14,476語まで合計3回の選択を行ったと記述されている.このように循環器学は心筋梗塞から高血圧までの分野があり,それぞれの細分化された領域に専門家が存在するため,学会としてコンセンサスを形成するために,長い時間と多大な労力を必要としたと考えられる.これも内科学同様,「循環器学の分野において使用される用語およびこれに関連の深い用語を採録」としており,採録の用語範囲に関する明確な選択基準は示されていない.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f2.eps}\end{center}\caption{網羅的医学用語集の選択基準}\label{f:002}\end{figure}\subsection{がん用語集合の要件}\label{s:がん用語集合の要件}これら内科学や循環器学などに比べ,がんは医学の比較的新しい領域である.この疾患群は,他の医学領域においても重要な疾患であり,各科別に専門家がそれぞれの専門領域のがんを診断治療してきた.そのため,「がん」という専門領域が認識されだしたのは新しい.日本臨床腫瘍学会が専門医試験を開始したのは平成17年からである.さらに基準となる索引を含む教科書も数少ない.そのため内科学や循環器学のように,教科書の索引をもとに,基本的な用語集合を作成するなどの方法で作成することは困難である.さらに,これら他の疾患の用語集の用語選択の基準から以下のことがわかる.\begin{itemize}\item用語集の特徴として\begin{itemize}\item主に研究者間での知識共有が目的である\item各用語の説明は与えられていない\end{itemize}\item用語選択の基準として\begin{itemize}\itemそれぞれの学問分野に関係が深いと考えられる用語が収集されている\item用語の選定方法は,内科学や循環器学という大きな学問領域の中で,細分化され専門化された各領域の専門家が素案を作成し,全体をまとめている\item人体の部位を示す解剖学用語など,たとえその分野で多用される用語であっても,他の医学領域の用語や一般語は削除されている\end{itemize}\end{itemize}これらに対して,本研究で作成するがん用語集合(C)は,がん情報処理を可能にするために,がんに関連する用語であれば,他の医学領域や一般語であっても,実際のコーパスに従って採用する必要がある.例えば,「大動脈周囲リンパ節」の場合,「大動脈」は解剖学用語,「周囲」は一般語,「リンパ節」も解剖学用語であり,この「大動脈周囲リンパ節」は解剖学用語である.ところが,「大動脈周囲リンパ節への転移」は,がん患者の状態を知るために重要ながん用語である.このような例に対応するために「大動脈周囲リンパ節」もがん関連用語として採用する必要がある.そこで,本研究では,従来研究とは異なり,解剖学用語や一般用語など範囲を限定せず,コーパスに出現するがん関連用語を網羅的に採用する.また,従来の用語集では,用語の選定にあたって,専門家が素案となる用語候補集合を作成している.この部分は,本研究では,国立がんセンターのテキストから専門家ががんに関する用語を切り出すことに相当する.国立がんセンターのテキストを利用することにより,本研究においても,従来の用語集と同様に,がんに関係の深い用語の収集が可能になると思われる.なお,本研究で作成する用語集も,用語の説明は行わない.以上のことから本研究では,国立がんセンターのテキストに出現し,かつ,専門家が,「がんに関係する」という語感によって選択した用語(名詞句)をがん用語の候補とする.その上で,各候補について,実際の用例を検討し,用語選択の基準を作成し,がん用語集合を求める.
\section{がん用語候補集合(Cc)の作成}
\label{s:がん用語候補集合(Cc)の作成}本研究では,図\ref{f:003}に示すように,がん情報に関する質の高いコーパスを選定し,これを対象として,網羅的ながん用語候補集合Ccを作成する.得られた用語候補の意味と整合性から,用語選択基準(SC:SelectionCriteria)を作成する.このとき,Ccの抽出の一貫性が十分であるかどうかを元のコーパスを用いて調べる.Cc(がん用語候補集合)をC(がん用語集合)とDc(削除用語集合)に分ける.CとDcからWt(評価用ワードセット)を作成,これを第三者に提示し,SCの妥当性を検討する.以上により,一貫性をもって抽出された妥当ながん用語集合を作成できると考える.以下,元コーパスの選定,がん用語候補集合(Cc)の作成,Ccに含まれた用語の実コーパス中での特徴,がん用語の選択基準について述べる.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f3.eps}\end{center}\caption{本研究でのがん用語の収集と評価の過程}\label{f:003}\end{figure}\subsection{コンテンツの選定}\label{s:コンテンツの選定}\ref{s:はじめに}節で述べたように,本研究では,国立がんセンターのWebサイトのコンテンツを対象として,網羅的な用語候補集合Ccを作成する.同センターは,わが国の医療情報提供に関しては,最も歴史が長く\cite{c13},その医療レベルは国内最高であるといわれている.同センターの「各種がんの説明のページ」には,患者や家族を対象として(1)病名,(2)概説,(3)症状,(4)診断,(5)病期分類,(6)治療方法,(7)期待される予後,(8)その他の説明,などの内容が記述されており,病名別に患者や家族がそれぞれの疾患の知識を系統的に得られるように工夫されている.また,当コンテンツは同センターが情報提供を開始した当初から,複数の専門家からなるPeer-reviewを導入し,コンテンツ内容に関する検討を行っている.データ量はテキストデータとして約15メガバイト,コンテンツ総量は150メガバイト(2006年10月に大幅改訂後,疾患数が53から59に増加)であり,わが国で最大の情報提供を行っている.この他に,がんに関する情報源として,世界的に有名なものとして,合衆国のNationalCancerInstitute(NCI)のPDQ\cite{c14}がある.しかし,PDQは白人などの欧米人に対しての記述であり,わが国の状況について記述したものではないので,わが国におけるがんの状況に対応した用語辞書を作成したいという目的には適さない.わが国でもこれを和訳し提供しているサイトも存在する\cite{c15}.本サイトはがん情報としては有用だが,NCIの全てを翻訳しているわけではないので,量の点で国立がんセンターに及ばない.また,医師に対する専門知識を提供する民間の有料コンテンツ\cite{c16}は,標準的な医療の指針を与える知識ベースとして広く医師に使われている.しかし,医師をはじめとする医療関係者に対して,専門用語のみで,診断方法や治療方針を説明するものであり,ウェブ上で提供されているような一般人を対象とした情報提供内容をも対象としたい今回の目的には適さない.以上のことから,国立がんセンター(www.ncc.go.jp)を信頼性の高いコンテンツとして選択する.\subsection{がん用語候補集合の作成}\label{s:がん用語候補集合の作成}がん用語候補集合の作成について述べる.まず,2006年6月に同センターが情報提供を行っているコンテンツのうち,各種がんに関して説明を行っている53疾患分「各種がんの説明のページ」(約1.5メガバイト)を,それぞれの疾患の説明別にテキストファイルを作成した.それぞれの疾患別のテキストファイルに対して,医師免許を持ち,臨床経験のある専門家である本稿の第一著者が用語の切り出しを行った.なお,わが国の医師は6年間の専門教育を受け,内科や外科を問わず全分野から出題される数百問からなる国家試験に合格していることから,一定の語感を共有しており,その用語選択はある程度の代表性を持っていると考える.ここで,用語切り出しは,「がんに関連する用語」として認識する語を幅広く網羅するように,名詞句を中心として網羅的に切り出し,がん用語候補集合Cc1を作成した.得られたCc1の異なり語数は3313語であった.なお,これらコンテンツは,1ページあたり約2000字から15000文字,ファイルサイズとして10\,K(5000文字)から30\,Kバイト(15000文字)であり,切り出しに要した時間は10\,Kバイトあたり約30〜45分であった.また,切り出し語数は1疾患あたり150〜350語であった.Cc1作成時の異なり語数の成長曲線(growthcurve)を図\ref{f:004}に示す.図\ref{f:004}の横軸が,抽出を行った「肺がん」「胃がん」などの疾患の数,縦軸がそれぞれの疾患のコンテンツから抽出した用語を足し合わせた時の異なり語数である.これによると疾患数の増加により,その疾患における固有の用語が増加分となるが,疾患数30個前後で増加率は鈍化しており,50個前後でゆるやかになっている.これは,がんに関する共通語彙の存在によると思われる.例えば,「CT検査」や「手術」「化学療法」などは,多くのがんで使用される語である.これに比べて疾患固有のものは多くないため新規語の増加率が鈍化すると考えられる.本図からも,53疾患の約半数の30疾患前後で約80\%の用語が出現している.これにより,用語の切り出しの対象とするコーパスの網羅性(本研究の場合,コーパスの説明しているがん情報の内容)を大きくすることによって,がんに関連する用語を十分網羅的に収集することができると考えた.なお,この国立がんセンターのコンテンツは,2006年10月に行われた大幅改訂に伴い,疾患数も追加され,53から59となった.そのため,より網羅性を高くすることと関連用語も含めた用語収集を目的とし,疾患別だけではなく全ページ(データ量は合計約250メガバイト,テキストとして容量約15メガバイト)から,延べ29,500語を切り出し,用語候補集合Cc2(9,451語)を得た.このようにして得られた用語候補集合Cc1,Cc2の和をとり,がん用語候補集合Cc(CancertermCandidates,10199語)を得た.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f4.eps}\end{center}\caption{Cc1作成時の疾患数別GrowthCurve}\label{f:004}\end{figure}\subsection{Ccに含まれた用語の実コーパス中での特徴}\label{s:Ccに含まれた用語の実コーパス中での特徴}ここでは,Ccに含まれる用語の特徴や性質を明らかにするために,実際のコーパスからどのような用語が収集されたか,それらはどのような特徴を持ち,どのようにがんと関連性があるのかについて述べる.\subsubsection{実コーパスからのCcへの用語収集の例}\label{s:実コーパスからのCcへの用語収集の例}本研究で用いた実コーパスの例(図\ref{f:005}の文例1)から,専門家(本稿の第一著者)が,がんに関連すると思われる用語候補(Ccに含まれる語)を,網羅的に選んだ例を図\ref{f:005}の下線により示す.\begin{figure}[p]\begin{center}\includegraphics{16-2ia1f5.eps}\end{center}\caption{がん情報提供コンテンツからの用語候補切り出し例(肺がん)}\label{f:005}\end{figure}文例1の文章全体は膨大であり,肺がんの(1)病名,(2)概説,(3)症状,(4)診断,(5)病期分類,(6)治療方法,(7)期待される予後,(8)その他の説明が含まれる.ここでは,以下の文例1-1,1-2,1-3の3つの部分を用いて説明する.文例1-1:(1)病名と(2)概説を行っている部分\par文例1-2:肺がんの組織分類(種類による分類)\par文例1-3:肺がんの原因に関して説明している部分本例では,網羅的用語収集のため,「肺がん」などの明らかにがんに関係する名詞句だけではなく,「肺がんのリスク」などの名詞句や,「空気」「ラドン」などの一般名詞,内科学会の選択基準では除外されている「肺」「気管」など解剖学用語も選んでいる.結果,文例1-1から25語,1-2から33語,1-3から21語の合計79語が切り出された.\subsubsection{Ccに含まれた用語候補の種類}\label{s:Ccに含まれた用語候補の種類}\begin{table}[b]\caption{文例1からがん用語候補として切り出された語と種別}\begin{center}\input{01table02.txt}\end{center}\label{t:002}\end{table}得られた用語を理解しやすくするために,表\ref{t:002}に各用語候補の重複を除き,どのような医学上の概念に関連するかを(医師免許をもつ第1著者が)想起したものを「種別」として付記したものを示す.これら用語の「種別」を付加することは,理解を助けるためや,用語間の整合性を調整する場合に有用である.例えば,「病名」に分類される語はがん用語の中心的な概念を示すことが多い.これに対して「一般語」は,がんに関係する用語ばかりとは限らないなどである.これらの種別をCcの用語全てに付加することは,膨大な労力を必要とし,異なる専門家間のコンセンサスを得ることが困難であるため今後の課題とするが,用語が一般的な医学的知識の中でどのような範疇に入るかを大まかに理解することが可能になること,各種別内での用語の比較が可能になり,整合性をとりやすくなることから利便性が高い.表\ref{t:002}に出現した語では,「肺がん」は病名(病名)であり,「肺」,「肺の構造」,「気管支」は人体の特定の場所を示す解剖学用語(解剖)である.また,「呼吸器系」,「肺内」は臨床医学で使用される用語(臨床)であり,「酸素」,「空気」は一般語(一般)である.これらから,表\ref{t:002}のCcに含まれる語は,これら5つの種別の想起が可能であり,9個の病名,25個の解剖用語,22個の臨床用語,3つの検査用語,16個の一般語に分類された.\subsubsection{Ccに含まれる各語のがんとの関連性分類の必要性}\label{s:Ccに含まれる各語のがんとの関連性分類の必要性}Ccに含まれる語とがんとの関連性に関して検討する.前節で述べたように,表\ref{t:002}中の「病名」は一様にがんを示すと考えられるのに対し,「一般語」はがんに関係する用語ばかりとは限らない.このようにCcは,がんと関連性が明確な「肺がん」のような語から,「空気」,「酸素」などのがんとの関連性を想起することが難しい語までを含んでいる.このようにCcに含まれる各語は,それぞれ,がんとの固有の関連性を示す.「関連性」とは,その語が,がんを起点として考えた時,「がんそのものを示す強い関連性を持つ用語」(表\ref{t:002}の語では「肺がん」「扁平上皮がん」)を起点として,「転移」や「悪性度」などの「がんを想起させる用語」から,「末端」「推計」「酸素」など関連を想起しにくい語を「関連しない語」とする場合における関連の強さを示す順序尺度である.この尺度を用いることによって,本研究では,がん用語集合を,従来研究のように各語が集合に「含まれる」か「含まれない」かの二者択一ではなく,各語に想起される関連性の強弱を示すタグを付加しておくことによって,より広い範囲の用語を含めることが可能になる.また,このような「関連性の強弱」という主観評価で用語を分類する場合,つけられたタグを第三者による評価などで客観化する必要があるため,本研究では,\ref{s:複数医師による評価}節で複数医師により,関連性の強弱の一致の度合いを確かめる.以下では,この関連性の強弱を表現するために,「ホップ」という概念を導入する.本稿では,がんに関連する語が,後掲図\ref{f:007}のようなネットワーク構造となっていると想定する.そして,このネットワーク上において「がんそのものをさし示す用語」から離れるほど,がんとの関連性が弱くなると考えている.このとき,このネットワークにおけるリンクを,「がんそのものをさし示す用語」から1段階離れるごとに,関連性が1段階弱くなると想定し,その「がんそのものをさし示す用語」からのネットワーク上における距離を,インターネットとの類推から「ホップ」と呼ぶことにする.つまり,0ホップ目が,「がんそのものを示す用語」であり,そこからリンクを1つたどるごとに,1ホップずつがんとの関連性が弱くなると考える.\subsection{がんとの関連性による用語分類と選択基準}\label{s:がんとの関連性による用語分類と選択基準}前節で述べた「がんとの関連性」(ホップ)によって用語を分類することにより,各用語の中心用語から関連用語という概念的な距離感が表現可能になる.ただし,これら関連性の分類には医学的知識が必要だが,医学的知識のみでは,一貫性を保っての用語分類は困難である.そこで,以下で述べる「がん用語の選択基準」に基づいてCcの各語を分類する.\begin{figure}[b]\begin{center}\includegraphics{16-2ia1f6.eps}\end{center}\caption{がん用語の選択基準}\label{f:006}\end{figure}まず,Ccの各語を,がんとの関連性の強いもの(T1)から弱いもの(T4)までの4段階に分類する.これらは,T1(0ホップ目):がんそのものをさし示す語,T2(1ホップ目):がんを想起させる語,T3(2ホップ目):がんを想起させる語に関連する語,T4(3ホップ以上):がんとの直接の関連を説明しにくい語である.これらに基づいて,用語選択基準を図\ref{f:006}のように決める.そして,T1,T2,T3,T4の用語候補の中で,「2ホップ目までのルール」(単に「2ホップルール」とも呼ぶ)により,T1,T2,T3をがん用語とする.本基準によって表\ref{t:002}をT1からT4に分類した結果を表\ref{t:003}に示す.文例1に出現した病名はすべてがんの病名であったためT1に,また,解剖学用語は\ref{s:T3(2ホップ目):がんを想起させる語に関連する語}節で示すようにT3に,臨床用語のうち「がん」という語句を含む語はT1,がんを想起させる「転移」や「進行」はT2に,さらに,一般語の「空気」や「二酸化炭素」はT4に分類できることがわかる.以下,T1からT4の各分類について説明する.\begin{table}[b]\caption{文例1から得たCc各用語のがんとの関連性による分類}\begin{center}\input{01table03.txt}\end{center}\label{t:003}\end{table}\subsubsection{T1(0ホップ目):がんそのものをさし示す語}\label{s:T1(0ホップ目):がんそのものをさし示す語}表\ref{t:002}の用語のうち,「肺がん」「扁平上皮がん」など「がん」を含む「病名」は,文脈なしにがんに関することが明らかな語である.また,臨床用語である「肺がんのリスク」や「肺がんのリスク要因」のように明示的に「がん」という句を含む複合語も,単なる一般語である「リスク」に「肺がんの」と限定されることによって,「病名」と同程度に,文脈なしにがんに関することが明らかな語となる.これらの,病名を含み,文脈なしにがんに関することが明らかな用語のことを本研究では,「T1:がんそのものをさし示す語」と呼ぶ.このほかに,文例1には出現していないが,Ccに含まれる語である「白血病」,「リンパ腫」,「ボーエン病」,「リヒター症候群」のように「がん」を含まないがんの病名もある.また,「ATLL細胞」,「骨髄腫細胞」,「経尿道的膀胱腫瘍切除術」等の語は,それぞれ「ATLL(急性T細胞性白血病)」,「髄膜腫」,「膀胱腫瘍」というがんの病名を含んでおり,これらも「がんそのものをさし示す語」である.\subsubsection{T2(1ホップ目):がんを想起させる語}\label{s:T2(1ホップ目):がんを想起させる語}肺がんの悪性度や性質を示す「転移」「悪性度」「進行形式」や,肺がんの最も古い診断方法の一つである「レントゲン写真」は,文中にこれらの用語が出現した場合,その文の意味が肺がんに関係することを連想させる語である.同様に,「肺門型」や「肺野型」はレントゲン写真に関する所見の記述で,肺がんの形状を示す語である.「受動喫煙」や「アスベスト」も肺がんの原因として重要であることが知られている.これら用語はT1の,がんそのものをさし示す語ではないが,文中に出現した場合,その文脈ががんの意味を含むことが多い語である.このような語のことを,「T2:がんを想起させる語」と呼ぶ.このほかに,「寛解」「寛解導入不応」「急性転化」「自家造血幹細胞移植」は,白血病にしか用いられない.また,「周囲臓器浸潤」,「遠隔転移」,「全身再発」などの,がんの状態を示す語も他の疾患で用いられることはほとんどない.抗がん剤として使用される「ブレオマイシン」「5-FU」などの薬剤名,がん特有の治療法である「自家骨移植」「ミニ移植」「温熱療法」も同様である.これらも「がんを想起させる語」である.\subsubsection{T3(2ホップ目):がんを想起させる語に関連する語}\label{s:T3(2ホップ目):がんを想起させる語に関連する語}表\ref{t:002}の「肺」,「咽頭」などの解剖学用語は,人体の特定の場所を示す語であり,解剖学者によって一義に定義されている名詞句である.2章で述べたように,従来研究において,これらの解剖学用語は,用語の重複を避けるために,内科学や循環器病学の用語集には含まれなかった.しかし,がん情報処理の場合,2.3で述べたように,解剖学用語の一部も網羅的にがん用語に含める必要がある.これら解剖学用語は,例えば図\ref{f:007}のように,「肺がん」から「転移」という1ホップ目の関連語を介して,「肺」や「リンパ節」を連想することが可能である.また,これらの連想関係は方向性を持つ.つまり,「肺がん」から「転移」という1ホップ目の関連語を介して,「肺」や「リンパ節」を連想することは可能であるが,これと逆方向の連想,すなわち,「肺」から「肺がん」あるいは「リンパ節」から「肺がん」を連想することは難しい.このように,「肺がん」と「肺」の連想関係は,「発生」「進展」「転移」など,がんの性状を示す語の仲介によって可能であり,このような解剖学用語の一部はがん用語とすべきである.このように,何らかの中間的用語を介してがんに関連する用語も,がん用語と考えることができる.そこで,これらを「T3(2ホップ目):がんを想起させる語に関連する語」と呼ぶ.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f7.eps}\end{center}\caption{肺がんを起点とした場合の各種用語の関係例}\label{f:007}\end{figure}なお,肺がんから見る場合,胃や腸は,「肺がんの胃や腸に対する転移はきわめてまれである」という医学的知識により,「転移」を仲介しても連想できない.そのため,「肺がん」を起点とした場合には,「胃」や「腸」はT3ではなく,次節のT4(がんとの関連を想起しにくい語)に分類される.しかし,胃や腸は,肺がんとの直接の関係はないが,胃がんや大腸がんでは,胃がん—発生—胃,大腸がん—発生—大腸のような想起順でT3に分類される.このように,解剖学用語は,図\ref{f:008}に示すように起点とするがんによって,T3になる場合もあれば,T4になる場合もある.胃がんや大腸がんから見た場合,明らかに胃や腸は発生部位である.このように,図\ref{f:008}に示すように,\maru{1}の肺がん—転移—胃が連想しにくいため,胃や腸は,肺がんからはT4に分類されるが,\maru{2}のように胃がんを起点とした場合,胃がん—発生—胃という想起順になるため,T3に分類できる.この場合には,「胃」の分類は,肺がんを起点としたT4ではなく,胃がんを起点とした場合のT3に分類することとする.一般に,ある用語候補に対して,T1,T2,T3,T4のうち,複数の分類が考えられるときには,最も関連性の強いものに分類する.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f8.eps}\end{center}\caption{肺がんと胃がんを起点とした場合の「胃」の分類例}\label{f:008}\end{figure}このように用語選択を行った場合,図\ref{f:008}の\maru{3}に示すように,元コーパスに出現した肺や胃以外の解剖学用語のうちで,例えば手,足,睫毛などは,本研究の元コーパスの対象とする59個のがんとの2ホップ以内として分類されないので,T4となり,がん用語集合からは除外することが可能となる.このように,解剖学用語は基礎医学用語であるため,大きく医学用語という範疇でがんと無関係とは言えないが,すべての解剖学用語ががんと関係があるとは言えないため,それを適切に反映するために,なんらかのがんと2ホップ以内に関係する解剖学用語のみをT3として分類することが有効であると考えた.\subsubsection{T4(3ホップ目):がんとの関連を想起しにくい語}\label{s:T4(3ホップ目):がんとの関連を想起しにくい語}以上の用語に対して,一般語である「酸素」や「二酸化炭素」は,肺の機能である呼吸機能に関連する語であって,肺がんには直接関係しない.これらは文例1の,「肺は身体の中に酸素を取り入れ,二酸化炭素を排出します.」という文で出現している.これは図\ref{f:007}の解剖学用語である「肺」の機能を,肺がんと独立して説明している文章である.以上より,文例1を根拠とする限り,これらの「酸素」や「二酸化炭素」は,肺がんを起点とする場合,T3である「肺」の関連語となり,「肺がん」の関連語とはいえない.以上より,これらの用語を「T4:がんとの関連を想起しにくい語」とする.\subsection{本研究で行った用語分類と用語選択基準について}\label{s:本研究で行った用語分類と用語選択基準について}以上のように,本研究では,まず,信頼できるがん情報が記述されているコーパスから,専門家の語感に基づいてがん用語の候補Ccを抽出した.つぎに,得られたCcの各語を理解しやすくすることや用語間の整合性を調整するために,各語の用例から「病名」「解剖学用語」「臨床用語」「一般語」「検査用語」などの種別を作成した.また,各語をがんとの関連性を想起しつつ分類した結果,T1(がんそのものをさし示す語),T2(がんを想起させる語),T3(がんを想起させる語に関連する語),T4(がんとの関連性を想起しにくい語)の4つに分類できた.これら「種別」とがんとの関連性を参考に,がん用語として,T1からT3までをがん用語Cとして選択するという選択基準を規定した.これにより,各がん用語には,T1からT3までの分類がつけられているので,その語ががんとの関連性が強い語かどうかの情報を得ることができるので有用である.ただし,\ref{s:T3(2ホップ目):がんを想起させる語に関連する語}節であげた肺がんと胃がんに対する胃の例のように,起点とする(0ホップ目として)想起する語が異なれば,その語の分類がT3かT4かという揺らぎが必然的に生じることが予想される.そのため,本研究ではこれら用語については,がん用語集合の網羅性を確保するために,最も強い連関を示す分類に分類した.なお,それぞれの用語に対して,例えば胃なら,肺がんからはT4,胃がんからはT3のような情報を付加することも有用であると思われるが,これについては今後の課題である.
\section{がん用語集合の特性評価}
\label{s:がん用語集合の特性評価}本節では,用語候補集合Cc(10,199語)を対象として,がん用語抽出の一貫性とがん用語選択基準の妥当性を検討する.\subsection{Ccの用語抽出の一貫性の検討}\label{s:Ccの用語抽出の一貫性の検討}本節では,作成した用語候補集合Ccが,抽出対象のテキスト中のがん用語候補を一貫性をもって抽出されたかを検討する.そのために,\ref{s:がん用語候補集合(Cc)の作成}節で人手により用語候補抽出をした人と同一の人物(本稿の第一著者,抽出者と呼ぶ)が,約1年後に,\ref{s:がん用語候補集合(Cc)の作成}節と同一のコーパスから,主要ながんのうち10疾患(ALL(急性リンパ急性白血病),腎細胞がん,膵がん,卵巣がん,肺がん,肝臓がん,グリオーマ,胃がん,大腸がん,乳がん)を対象として,\ref{s:がん用語候補集合(Cc)の作成}節と同様に人手で用語候補を抽出した.次に,得られた用語候補とCcを比較し,Ccが,2回目に抽出した用語候補を(後で定義する)再現率高く抽出しているかを調べた.もし,この再現率が高ければ,Ccは,抽出対象のテキストから,抽出したい用語候補を一貫して抽出していると考えることができる.なお,用語候補抽出の一貫性を調べるためには,同一人物ではなく,他の人物による用語候補抽出の結果と比較することが望ましい.しかし,本稿の第一著者と同様に医師免許を持ち,臨床経験のある専門家で,かつ,用語候補の抽出に協力してくれる専門家を見つけることが我々にはできなかったため,同一人物による抽出の一貫性を調べた.\subsubsection{用語抽出の一貫性に関する数量的な検討}\label{s:用語抽出の一貫性に関する数量的な検討}\begin{table}[b]\caption{Cc(10,199語)の用語抽出の一貫性に関する集計結果}\input{01table04.txt}\label{t:004}\end{table}結果を表\ref{t:004}に示す.表\ref{t:004}の\maru{1}は,それぞれの疾患別に抽出された用語候補集合の語数である.\maru{2}は,それぞれの疾患別の用語候補集合で,Ccに含まれている用語候補の数である.これらより,\maru{3}に示したように,見かけの再現率が算出される.「見かけ」とは,今回新たに人手で切り出した結果も,がん用語の網羅性を高くすることを意図していたため,今回抽出した用語候補すべてが,がん用語として適切かどうかは不明である.そのため,Ccにカバーされていない用語候補は,実際には,がん用語でない可能性もある.そこで,用語の検討のため,抽出者に自然言語処理の研究者1名(第2著者)を加え,計2名で,抽出された用語候補の中でCcに含まれていない用語候補を選別した(\maru{4}).それら用語候補の中で\ref{s:がんとの関連性による用語分類と選択基準}節の基準に相当するかどうかによって真に必要な用語数\maru{5}と,選択されたが不必要であった用語候補数\maru{6}を求めた.これより,それぞれのテキストから抽出されるべきだった用語数\maru{7}を求め,\maru{2}を分子として求めた真の再現率が\maru{8}である.Ccの再現率\maru{8}は0.94から0.995であった.これらのことから,Ccは,元コーパス中の用語を十分に網羅していると考えられた.すなわち,Ccと本節での抽出結果とを比較した結果,Ccは,本節で抽出された用語候補を十分に網羅しているといえる.これより,Ccは,抽出対象のテキストから,抽出したい用語候補を一貫して抽出していると考えることができる.なお,表\ref{t:005}には,表\ref{t:004}の\maru{5}として,Ccに含まれてはいなかったが,本検討によって採用すべきと判断した用語の例を示した.\subsubsection{再検討を必要とした各語に関する検討}\label{s:再検討を必要とした各語に関する検討}表\ref{t:004}の\maru{5}(Ccに含まれなかったが,再度抽出時に採用すべきと判断した語)は,10疾患全体で98語(1疾患あたり約10語)であった.これらの例を表\ref{t:005}に示す.また,これら98語を採用すべきと判断した4つの理由(R1からR4)について以下に説明する.\begin{table}[b]\caption{表\ref{t:004}の\textcircled{\small5}(Ccになかったが再検討時採用すべきと思われた)語数と例}\input{01table05.txt}\label{t:005}\end{table}\paragraph{R1(2ホップルール)}\label{s:R1(2ホップルール)}\ref{s:がんとの関連性による用語分類と選択基準}節図\ref{f:006}の「がん用語の選択基準」は,Ccの用語候補を整理する過程で確立されたものである.一方,\ref{s:がん用語候補集合の作成}節で述べたCcの抽出時には,この選択基準は存在しなかったため,専門家が「がんに関連する用語」として認識する語を幅広く網羅するようにCcを作成した.つまり,「Ccの抽出基準」と「がん用語の選択基準」は異なるものである.そのため,Ccの抽出時には,がんに関連しないと判断されたため切り出されなかった用語候補が,がん用語の選択基準に基づいて再検討をした結果として,用語として採用した方が良いと判断されるものがありうる.それらが表\ref{t:005}のR1として示されている.例えば,「焼灼」の意味は「焼くこと」であるため,Cc抽出時には一般医学用語と考えて切り出さなかったが,これは,肝臓がんや転移性の肝臓がんに限定して用いられるため,肝臓がんに対してT2である.また,「橋」は,単に脳の一部を示す解剖学用語であると思われたため,Cc抽出時には切り出されなかったが,神経膠腫が多発する部分であるためT3と考えられる.また,「日系移民」もCc抽出時には一般名詞と考えたが,大腸がんの発症原因である食生活の欧米化と関係するのでT3に入れるべき語である.このように,Ccの作成段階では「がんに関係するかどうか」という基準で切り出したため,がん用語選択基準である2ホップルールに照らすと用語であっても,Ccには採用されないものがあった.ただし,このような用語は25語と少数であるため,本研究のアプローチ,すなわち,まず専門家が「がんに関連する用語」として認識する語を幅広く網羅するようにCcを作成し,次に,そこから,がん用語選択基準に従って,がん用語を選択するというアプローチは有効であるといえる.\paragraph{R2(文法):切り出し時のゆれ}\label{s:R2(文法):切り出し時のゆれ}Cc作成における用語候補の切り出し時において,一つの名詞句に対して複数の用語候補が考えられるときには,一つの用語候補のみを選択して切り出したが,その選択に揺れが生じた場合である.例えば,「1年生存率」は,Ccの抽出段階では「生存率」を用語候補として選択したが,これは,「がんを発症後1年生存する率」の意味であり重症のがんで多用される用語であるため,本節では採用した.「ステージ1」についても,Cc抽出時には,がんの病期を示す「ステージ」を選択していたが,これは,「軽症のがん」の意味を示す用語であるため,本節では採用した.「消化管の再建」も,Cc抽出時には「消化管」と「再建」に分かれて抽出されていたが,これは,「消化管の再建」という一つの単位で,胃がんの主な手術である胃切除術に関連する用語として利用されるものであるので,本節では採用した.このように,Ccの抽出において,一つの名詞句に対して複数の用語候補があるときに,どの名詞句を切り出すのかについては,後の見直しで採用すべき語もあることが分かった.このような用語は69語であった.\paragraph{その他:R3(見落とし),R4(表記のゆれ)}\label{s:その他:R3(見落とし),R4(表記のゆれ)}以上の語の他に,明らかにがんに関連する語である「lymphoblasticlymphoma」(病名),「卵巣がん検診」「噴門部がん」(これら2語は文節中にがんを含んでいる)がCcに含まれていなかった.これらは切り出し時の見落としによるものであると思われた.また,「上皮がん」は,通常「上皮内がん」や,「移行上皮がん」などが一般的であり,医学的には一般的ではないためCc抽出時には採用しなかったが,本例はコーパス側における「上皮内がん」の表記のゆれであると思われるため,本節では採用すべきと考えた.\subsection{用語の削除と,がん用語集合Cの作成}\label{s:用語の削除と,がん用語集合Cの作成}\ref{s:がん用語候補集合の作成}節で得た用語候補の集合Ccから妥当ながん用語集合Cを得るために,前節同様,医師免許を保有する有資格者1名と自然言語処理の研究者1名(第1著者と第2著者)が,がん用語の選択基準に基づき,がん用語とすべき用語の範囲と選択基準の整合性を整理しつつ,1語1語を音読し,必要に応じて用例を参照して,がん用語かどうかを判断した.この判断の結果,Ccのうち9509語をがん用語として採用し,690語を除外した.表\ref{t:006}には,除外した理由別の語数を示す.表\ref{t:006}における「誤用」とは,元コーパス中で,「全脳照射」とすべきところを「全能照射」としていたなど,明らかに用語の使用が間違っている場合であり,「ミス」とは,用語候補の切り出しにあたって,用語の一部のみしか抽出しないなど,切り出しに失敗した例である.以下では,その他の理由である「固有名詞」「文法」「2ホップ」について説明する.\begin{table}[b]\caption{選択基準によりCcから除外した用語例と理由}\begin{center}\input{01table06.txt}\end{center}\label{t:006}\end{table}\subsubsection{「固有名詞」:固有名詞の削除例}\label{s:「固有名詞」:固有名詞の削除例}\ref{s:がんとの関連性による用語分類と選択基準}節の「がん用語の選択基準」では,「固有名詞」はがん用語に含めないと述べた.固有名詞として削除例に挙げた「LSG」はLymphomaStudyGroup(悪性リンパ腫研究会:わが国の悪性リンパ腫の治療法を共同研究として行っている団体),「ASCO」は``AmericanSocietyofClinicalOncology''(アメリカ臨床がん学会)ならびに「アメリカがん協会」は,がんの学会や研究会である.これらは,がんに関連する文書の中でも頻繁に出現する.しかし,「LSG」など研究会名称は,今後変更されることも予想される.また,「ASCO」や「アメリカがん協会」の呼称については,ASCO,AmericanSocietyofClinicalOncology,ASCO(AmericanSocietyofClinicalOncology),ASCO(アメリカ臨床がん学会),アメリカ臨床がん学会(協会)など,表記のゆれもある.このような,団体や研究グループなどの固有名詞は,「がんの辞典」を考える場合に項目を作成可能ではあるが,同じ用語であることの同定が専門家でも困難であることも多いため,がん用語とすることは難しい.人名であるベンス・ジョーンズは多発性骨髄腫という血液のがんに特有なベンス・ジョーンズ蛋白という物質を発見したことで有名な医師だが,がん用語としては,物質名である「ベンス・ジョーンズ蛋白」は採用するが,単独の人名では採用しない.「薬物療法部長」などの病院の役職名も,がんに関する記述の中で比較的良く用いられる呼称である.薬物療法部長が薬物治療を行う疾患はほとんどの場合,がんであり,「薬物療法部長の○○氏と面談」などの文が患者のブログなどでも出現することも予想できる.しかし,医師,看護師,薬剤師,患者などの呼称とは異なり,統一された資格者を示すものではない.また,「がん治療の3本柱」は,主に国立がんセンターで患者に対して,がんの治療法である手術・抗がん剤を用いる化学療法・放射線療法の3つをまとめて言う場合に用いられる語である.これらも,一般的用語ではないと考えられるため,ここでは「固有名詞」として扱う.これらの,普遍的な名詞句となっていない固有名詞,単純な人名(手術法等に含まれるものはそのつど採用),呼称の一定しない役職名など122語を「固有名詞」として削除するのが妥当と考えられる.\subsubsection{「文法」:文法による削除例}\label{s:「文法」:文法による削除例}Cc作成では網羅的に複合語を積極的に収集したが,3.4の「がん用語選択の基準」の文法上の理由(「〜内」,「〜外」などの連体詞的な用例は採用しない)によって,「転移を認めない」「生理以外」,「放射線治療単独」,「同種造血幹細胞移植前」,「寛解導入療法中」などの複合語を削除語とする.本研究ではこれらを削除語とするが,これらはがん情報処理に有用な場合もある.たとえば,「生理以外」は,婦人科がんの不正性器出血と呼ばれる症候に関連する語で,「生理以外の出血はありますか?」などの用例がある.この場合,「生理以外」を単独のがんに関係する句として認識することによって,この文が,がんに関するものであることを予測することができる.また,「放射線治療単独」は,化学療法や手術を複合して用いていない「単独」という限定を強調する用例で,「放射線治療だけで治療する」という意味を明示する.この場合も,「放射線治療」と「単独」に分割しては「放射線治療だけで治療する」という意味が弱くなる可能性もある.このように,一つ一つの複合語を用例に従って吟味すると,実際の用例で出現した文脈が,がんの意味を含むことを限定できる可能性もあるため,本研究では一旦削除語とするが,今後の検討を可能とするために,削除語の中でも「文法」という理由で削除したことを明記(305語)し,本研究で公開するがん用語集合の付録として公開する予定である.\subsubsection{「2ホップ」:2ホップ目までのルールでの削除例}\label{s:「2ホップ」:2ホップ目までのルールでの削除例}2ホップ目までのルールとは,2ホップよりも関連性の弱い語(T4)を削除する規則である.たとえば,表\ref{t:006}の「うがい」は,白血病治療などで感染症の危険が増加することを予防する方法のひとつである.「白血病治療」を起点として用語の連関を想起する場合,「白血病治療」は「白血球減少」を起こし,「感染予防」や「感染症の危険」を高めるから,予防方法として「うがい」を行う.そのため,「白血病治療」(0ホップ目)—「白血球減少」(1ホップ目)—「感染予防」(2ホップ目)—「うがい」(3ホップ目)という想起順となる.すなわち,「うがい」はT4に分類される.しかし,「白血病治療」—「感染予防」が,「白血球減少」のような,橋渡しを行う用語を介さずに,例えば,「白血病治療は感染症予防を行うことが肝要であり,うがいは最も重要だ.」のような用例を想起するのであれば,「白血病治療」(0ホップ目)「感染予防」(1ホップ目)「うがい」(2ホップ目)という想起順になり,この「うがい」は除外語ではなく採用語T3となる.さらに,「白血病」を起点(0ホップ目)とした場合は,「白血病」(0ホップ目)—「化学療法」(1ホップ目)—「白血球減少」(2ホップ目)—「易感染性」(3ホップ目)—「うがい」(4ホップ目)という想起順が考えられ,この場合の「うがい」は白血病から考えて4ホップ目となる.すなわち,T4である.このように,作成した選択基準の「2ホップ目まで」のルールは,0ホップ目にどのような用語を選択するか,あるいは仲介する用語として何を想起するかによって変化する.このような「2ホップ」よりも関連性が低い単語については,4.3の第三者医師による評価の項で述べるが,がんとの関連性の判断が人により異なる.そのため,本研究では,「文法」により削除された語と同様に,がん用語集合の付録としてT4に分類された語も公開する予定である.\subsubsection{削除語に関するまとめ}\label{s:削除語に関するまとめ}\begin{table}[b]\caption{選択基準によるCc(10119語)の分類結果}\begin{center}\input{01table07.txt}\end{center}\label{t:007}\end{table}以上より,Ccから抽出したT1,T2,T3の9509語をがん用語集合Cとして採用し,残りの690語を削除語とした.これらの語数を表\ref{t:007}に示す.なお,本研究により作成したがん用語集合を公開するにあたって,我々は,がん用語集合Cに加えて,削除語のなかで「文法」と「2ホップ」に相当する語については,付録として公開する予定である.その理由は,前述のように,これらの削除語については,本研究においては削除語と判断されたが,場合によっては,がん情報処理に有用な場合があると考えるからである.\subsection{複数医師による評価}\label{s:複数医師による評価}これまでに作成し分類した用語集合は,専門家が作成したものであるが,その人数が1人であるので,必ずしも,他の専門家が同意する用語集合であるとは限らない.そのため,本節では,複数医師により,上述のT1,T2,T3,T4の分類の妥当性を確認する.評価用データとして,T1,T2,T3,T4のそれぞれから無作為に約50語(合計197語)を選んだ.この評価語データを付録1に示す説明文書とともに,臨床経験15年以上の医師4名(大学院講師以上の腫瘍内科医2名,脳神経外科指導医1名,循環器内科認定医1名:以下,C1--C4と呼ぶ)に提示し,各人のそれぞれの用語に対するT1からT4の評価値を得た.本研究が付加したT1からT4の分類と,各医師による分類の比較結果を表\ref{t:008}に示す.左のカラムにある1から4のカラム(Cat)は,本研究で各用語に付与した分類値であり,T1からT4の分類を示す.これに対して,それぞれの医師C1からC4の別に,各人による分類をT1からT4で示し,それぞれの要素をクロス集計した頻度を示した.また頻度の合計をTotalとして示した.これより,対角線に近い部分の頻度が高いことがわかる.たとえば,医師C1については,本研究で付与したT1(Cat1)は,T1もしくはT2にほとんどが分類されている.また,C2については,Cat1は,46例中の38例がT1に分類されている.このことより,本研究で付与した分類が,他の医師の判定と一致することが多いことがわかる.\begin{table}[b]\caption{医師4名(C1からC4)から得た分類結果(単語数197)}\begin{center}\input{01table08.txt}\end{center}\label{t:008}\end{table}さらに,表\ref{t:008}における分類の一致の度合いを,Cohen'sKappa\cite{c18}を用いて,数値化することにより,本研究による分類と各医師による分類との一致の度合いを調べる.そのために,表\ref{t:008}から複数のクロス集計を得て,それらにおけるKappaを調べる.複数のクロス集計を得るときには,T1とT2など,隣接するカテゴリを一つのカテゴリとすることを,次に示す分割例1から7の全ての場合について試した.たとえば,被験者C1の分割例2と分割例6について,本研究の想定に対するKappaの算出対象とするクロス表について図\ref{f:009}に示す.\begin{figure}[b]\vspace{-5pt}\begin{center}\includegraphics{16-2ia1f9.eps}\end{center}\caption{被験者医師C1での分割例2と分割例6における$\kappa$値の算出対象}\label{f:009}\end{figure}\begin{tabular}{lcl}分割例1:1,2,3,4&…&表\ref{t:008}と同分類\\分割例2:1,(2,3,4)&…&1と,(2,3,4)2つに分割\\分割例3:1,(2,3),4&…&1,(2,3),4の3つに分割\\分割例4:(1,2),3,4&…&(1,2),3,4の3つに分割\\分割例5:1,2,(3,4)&…&1,2,(3,4)の3つに分割\\分割例6:(1,2),(3,4)&…&(1,2)と(3,4)の2つに分割\\分割例7:(1,2,3),4&…&(1,2,3)と4の2つに分割\\\end{tabular}Cohen'sKappaは,0.4〜0.6が中等度,0.6以上で生起反応において強い連関を示すと言われている\cite{c17}.それぞれの分割例別の本値を検討することによって,どの分割が実際の医師の持つ語感に合致するかを調べることができる.結果を表\ref{t:009}に示す.左カラムにそれぞれの分割例を示し,この分割例別にC1,C2など各人と,本研究で行った分類をそれぞれの分割例に割り付けなおし,各人の反応との間のKappaを求め,最右カラムに平均値を示した.これより,分割例1,3,4,7では,Kappa値がいずれも0.4以下であり,有意な一致とはみなせないが,分割例2(T1とそれ以外の2分割)と分割例6(T1,2とそれ以外の2分割)では0.6前後の高い一致であった.また,分割例5(T1,T2とそれ以外の3分割)でも0.5の比較的高値であった.\begin{table}[t]\caption{各分割例別のCohen'sKappa値}\begin{center}\input{01table09.txt}\end{center}\label{t:009}\end{table}これらのことから,本研究で想定した,T1(0ホップ目):がんそのものを示す語,T2(1ホップ目):がんを想起させる語までは,実際の被験者医師の語感に近いことが示された.これにより,本研究で行った一人の医師による用語の切り出しとがんとの関連性を想起した分類であっても,概念の中核となる「がんそのものをさし示す語」から,「がんを想起させる語」として感じるような距離感は,第三者医師にとっても共通する語感であることが示された.これは,国家資格を持つ専門職である医師は,一旦国家試験の段階で用語の統一が行われていること,臨床の現場では患者の診断や治療などの相談を頻繁に書面でやりとりする機会が多いこと,ほとんどの医師ががん患者を診断治療した経験を持つことなどが主な理由と思われる.これに対し,本研究でT3(2ホップ目)「がんを想起させる語の関連語」より関連性が低いと想定した語(T4も含む)に関する分類が医師によって異なるのは,4.2.3で述べたようにT3やT4の語はT2やT1に対して何らかの関連語を連想できるかどうかによって,距離感に差が生じやすいことなどが理由と思われる.T3,T4の分類について,複数医師間で一致の高いような基準を研究するのは,今後の検討課題である.これらの結果は,本研究が3.4で規定した,「Cc(10199語)の用語をがんとの関連性によってT1,T2,T3,T4と分類し,T1からT3までをがん用語Cとする」という選択基準に対して,T1からT2までは複数医師間で一致がとれていることを示している.そのため,T1とT2については,中心的で妥当ながん用語といえると考える.一方,T3とT4については,かならずしも複数医師間での一致はないが,これらの用語候補は,まず,(1)国立がんセンターのテキストに含まれているということ,(2)専門家が吟味した語であることから,がん用語集合C(T1からT3)およびその付録としての削除語のリスト(T4)として公開する価値があると考えた.\subsection{がん用語の選択基準の必要性に関する検討}\label{s:がん用語の選択基準の必要性に関する検討}\ref{s:複数医師による評価}節の実験により,\ref{s:がんとの関連性による用語分類と選択基準}節のがん用語の選択基準に従って行ったT1,T2,T3,T4への分類は,第3者医師が行った分類と有意に相関することが示された.このことから,本研究がこれまでに行った,網羅的収集によるCcの作成(\ref{s:がん用語候補集合の作成}節),収集された用語の分類と用語選択基準の設定(\ref{s:がんとの関連性による用語分類と選択基準}節)と削除語の選別(\ref{s:用語の削除と,がん用語集合Cの作成}節)に関しては,妥当性が示されたと考える.しかし,これだけではがん用語の選択基準として\ref{s:がんとの関連性による用語分類と選択基準}節で提案した2ホップルールの必要性は示していない可能性がある.すなわち,従来の用語選択基準である,単に,「がんに関係する用語か,そうでない用語か」(以下,「がん用語か否か」と表記する.)による選択でも十分である可能性がある.この問題について検討するため,用語候補集合Ccから無作為に100語を選択し用語候補集合を作成した.そして,\ref{s:複数医師による評価}節の医師4名とは別の医師6名(D1からD6:国立がんセンター研究者2名,大学医学部教授2名,ならびに内科医師2名.順不同.)を被験者として,付録2に示した依頼文と共に示した用語100語を「がん用語か否か」に分類を依頼した.なお,100語の内訳は,T1が9語,T2が24語,T3が39語,T4が28語である.また,各医師毎に,がん用語として選択した語数は,D1が61語,D2が18語,D3が53語,D4が48語,D5が33語,D6が6語である.なお,被験者D6は他の医師5名に比べ,がん用語とした語数が顕著に少ないが,除外せずに評価結果とすることとした.本節での目的は,従来の「がん用語か否か」という選択基準と,提案手法である「図\ref{f:006}のがん用語選択基準」とを比較することであるので,まず,「がん用語か否か」という選択基準によりがん用語を選択した場合における,6名の医師(D1--D6)間での$\kappa$値を表\ref{t:010}に示す.\begin{table}[b]\caption{従来法(がん用語か否か)による用語選択の被験者間の$\kappa$値}\begin{center}\input{01table10.txt}\end{center}\label{t:010}\end{table}表\ref{t:010}より,D1とD4,D5,D2とD5,D3とD4,D5,D4とD5はそれぞれ中等度以上の一致を示しており,医師間では相関する場合もあるが,D6のように,他の医師と有意な相関を示さない例もある.また,D1からD6全体としての$\kappa$値の平均値は0.32であり,がん用語を極端に少なく選択したD6を除きD1からD5までとした場合の$\kappa$値の平均値は0.39であった.これに対して,提案する選択基準による医師間の一致の度合いをみるために,表\ref{t:011}に,\ref{s:複数医師による評価}節の医師4名(C1〜C4)による197語の分類結果に対して,T1からT4の4つを仮に2つに分類すると仮定し,P1(T1とT2,T3,T4),P2(T1,T2とT3,T4),P3(T1,T2,T3とT4)の各分割例について,4名の医師間の$\kappa$値を算出した結果を示す.表\ref{t:010}に比べ,分割例P1,P2において各医師間で高い一致を示し,P1,P2,P3におけるこれら$\kappa$値の平均値はそれぞれ0.67,0.69,0.19であった.以上のことから,提示した用語集合を表\ref{t:010}のように「がん用語か否か」で分類する場合よりも,表\ref{t:011}に示した本研究の提案する「2ホップルール」により分類する場合のほうが,医師間の用語選択の一致性が高く,得られた用語集合のコンセンサスを得やすいことが示された.\begin{table}[b]\caption{提案法(2ホップルール)による用語選択の各被験者間の$\kappa$値}\begin{center}\input{01table11.txt}\end{center}\label{t:011}\end{table}\subsection{専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}\label{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}\ref{s:用語の削除と,がん用語集合Cの作成}節で得られたがん用語集合Cは,信頼できるコーパスから専門家が抽出し,その妥当性が複数の医師により確認されたものである.そのため,このがん用語集合Cを用いて,従来開発されてきた専門用語抽出アルゴリズムの性能を評価することが可能である.つまり,用語集合Cは,専門用語抽出アルゴリズムの正解データとして有用であると考える.そこで,専門用語抽出アルゴリズムの評価の一例として,中川らによって実装されている「言選Web」(http://gensen.dl.itc.u-tokyo.ac.jp/gensenweb.html)を用いて得られた用語とがん用語集合Cとを比較することにより,用語集合Cの正解データとしての有用性を検討する.比較の方法としては,\ref{s:がん用語候補集合(Cc)の作成}節と同一のコーパスから,表\ref{t:012}に示す各疾患を対象として,言選Webを利用して用語を抽出した.これをHNとする.つぎに,同じコーパスについて,用語集合Cに含まれる用語を抽出し,これを用語集合Cdとした.なお,このとき,形態素解析器Mecabを利用し,Mecabの辞書に用語集合Cを加えることにより,C中の用語が自動的に同定できるようにした.(Mecabの辞書に用語を加えるときには,その品詞とコストを試行錯誤により決定し,C中の用語がテキストにあるときには,それが解析結果に優先的に出力されるようにした.)\begin{table}[b]\vspace{-5pt}\caption{従来法(HN)とがん用語辞書で得られた用語(Cd)の比較}\begin{center}\input{01table12.txt}\end{center}\label{t:012}\end{table}これを元コーパスである国立がんセンターのWebデータの中で,肺がん,胃がん,食道がん,大腸がん,および乳がんに適用し,HNとCdに関する諸量を表\ref{t:012}に示した.表\ref{t:012}では,それぞれの疾患のコーパスにおける,\maru{1}$|\text{Cd}|$:Cによって得られた語数,\maru{2}$|\text{HN}|$:HNによって検出された数,\maru{3}$|\text{Cd}\cap\text{HN}|$:$\text{Cd}\cap\text{HN}$の語数,\maru{4}$|\text{Cd}-\text{HN}|$:CdとHNに含まれた語を比較してCdにのみ含まれた語数,\maru{5}$|\text{HN}-\text{Cd}|$:HNとCdを比較してHNにのみ含まれた語数,\maru{6}$\text{HN}-\text{Cd}$の再採用語:表\ref{t:013}に詳細を示すが\maru{5}の語で,Cdに含まれなかったが用語とすべきと思われた語数,\maru{7}$|\text{Cd}\cap\text{HN}|/|\text{HN}|$:HNに対する$\text{HN}\cap\text{C}$の語数の比,(\maru{3}/\maru{2},Cを正答とした場合のHNの精度),\maru{8}$|\text{Cd}\cap\text{HN}|/|\text{Cd}|$:Cを正答とした場合の再現率(\maru{3}/\maru{1})を示す.これより,これら疾患でのHNの再現率(\maru{8})は平均値0.86であり,HNのCに対する網羅性は高いと思われる.しかし,精度(\maru{7})は平均値で0.52であり,HNで得られた用語の約半数は人手で選択しなおす必要があることがわかる.また,HNで検出でき,Cで検出できなかった語数\maru{6}は数語であり,少数であることも分かる.すなわち,Cの網羅性は高いといえる.以上により,HNは用語切り出しに関しては本研究で専門家が行った用語抽出を高い再現率で実現する可能性を示すが,約半数の削除語とすべき語を含んでいることから,用語選択を追加して行う必要のあることを示している.\begin{table}[b]\caption{従来法(HN)によって得られた語の除外理由}\begin{center}\input{01table13.txt}\end{center}\label{t:013}\end{table}さらに,HNで得られた語とCの比較を行い,HNで検出されたがCに含まれなかった語を「除外語」として,\ref{s:用語の削除と,がん用語集合Cの作成}節表\ref{t:006}と同様に分類した結果を表\ref{t:013}に示す.表\ref{t:013}より,HNでは切り出しミス,文法(複合語など)は少数であり,大多数は,本研究で規定した2ホップルールによる除外理由である.2ホップルールによる除外例は,肺がんのコーパスでは,扁平,率,利用,要素,要因,葉,用量,有無,ハイリスク,つけ根,タイプなどであった.また,胃がんのコーパスでは,老化度,輪切り,量,両方,流れ,率,利用,陽性,有無,役割,門,目的,膜,麻酔,本国在住者,方法,変更,変化,壁,分泌,物質,部分,負担,不十分,病院,評価,表面,標準,範囲,髪の毛,発生,白人,年齢別,年単位などであった.ここで,2ホップルールによる除外というのは,専門家により,意味的に判断した結果としての除外である.すなわち,HNは,意味的な理由により除外された語を用語候補として抽出したといえるため,この点において,HNには改善の余地があるといえる.これより,今後HN法などの自動抽出アルゴリズムの教師データとして,今回作成したCを教師データとすることが有用であると考えられた.
\section{考察}
\label{s:考察}本研究で行った,がん用語集合の作成方法についてまとめる.まず,(1)がん用語集合は,がんに関連する用語をできるだけ網羅することが望ましい.ただし,あまりに関連性の小さい用語も含めると,それらが,がん情報処理に悪影響を与えることが考えられるので,好ましくない.(2)そのため,がんとの関連性が一定以上の強さの用語のみを,がん用語集合に含めるべきである.(3)そこで,本研究では,関連性の強さの指標としてホップ数を導入し,「がん用語の選択基準」としての「2ホップルール」に基づき,がん用語集合を選定した.次に,本研究と従来の用語集の作成法を比較する.まず,医学領域での多くの用語集の妥当性は,\ref{s:用語選択基準の例について}節で示したように,長い時間と多数の用語選定委員によって担保されている.ただし,これらの用語の選択基準は,それぞれの分野において「使用される用語およびこれに関連の深い用語」というものであり,ある用語について,それがその分野で使用されるかどうかや関連が深いかどうかの判断の基準については,\ref{s:用語選択基準の例について}節で示した用語集においては明示されていない.一方,本研究では,まず,国立がんセンターのWebテキストに出現した用語候補をCc抽出の対象とすることにより,抽出された用語が,医学的内容の信頼性および網羅性を持つことを仮定した.次に,専門家が,このテキストから「がんに関係する」と判断した用語候補を網羅的に抽出することにより,Ccを作成した.この段階までにおける本研究と従来の用語集との違いは,従来の用語集の用語の採取元は明示されていないが,Ccに採用された用語の採取元は明らかである点である.また,本研究においても,従来の用語集と同様「がんに関係する」という主観により,用語候補を選定している.ただし,従来の用語集においては,多くの選定委員が用語選択に関与することにより,用語の妥当性を保証しているのであるが,本研究においては,一人の専門家の語感のみによるものであるため,用語選択の妥当性は,それほど保証されていないと考えられる.(ただし,\ref{s:がん用語候補集合の作成}節で述べたように,このような語感は,国家試験などにより基本的知識を共有する専門家間では共有されていると考えた.)そこで,本研究では,がん用語候補集合Ccから,妥当ながん用語を選定するために,\ref{s:がんとの関連性による用語分類と選択基準}節で「がん用語の選択基準」を設定し,それに基づいて,がん用語を選定した.これは,「がんに関係する」という曖昧な判断基準から,Ccの整理を通して,相対的に明確な判断基準である「がん用語の選択基準」としての2ホップルールを構築し,それに基づいて,がん用語を選定したといえる.この2ホップルールの概略は以下のものである.まず,がん用語候補をT1(0ホップ目):がんそのものをさし示す語,T2(1ホップ目):がんを想起させる語,T3(2ホップ目):がんを想起させる語に関連する語,T4(3ホップ目以上):がんとの関連を想起しにくい語,の4つに分類した.そして,2ホップ目までである,T1,T2,T3をがん用語として選定するというものである.この2ホップルールに基づいて一人の専門家により選定されたがん用語集合の妥当性を検討するために,\ref{s:複数医師による評価}節では,本研究で行ったT1からT4までの分類と,複数医師の行った分類の一致性を評価し,T1からT4の間でT2までの用語選択の一致性($\kappa$値0.5から0.6)が示された.これにより,がん用語選択基準である2ホップルールの妥当性を示すことができたと考える.さらに,\ref{s:がん用語の選択基準の必要性に関する検討}節で検討したように,専門知識を有する医師であっても,ある用語が「がん用語か否か」で分類する場合の各人の一致率は,2ホップルールを明示して段階的に用語分類を行った場合に比べ低値($\kappa$値0.3〜0.4)であった.これより,本研究の提案する用語分類法である「2ホップルール」を与えたほうが,従来の「がん用語か否か」という分類を行う場合よりも,適切に専門用語を選択することが可能であることが示された.また,\ref{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}節で示したように,本研究で作成した用語集合(C)を正解データとした場合,自動抽出アルゴリズムによって得られた用語集合(HN)の再現率は約0.86を示したが,精度は0.52であった.これは,HNのアルゴリズムに改善の余地があることを示すと考える.このことから,本研究で作成した用語集合は,自動抽出アルゴリズムの評価に有用であると考える.次に,\ref{s:はじめに}節で目標としたように,本研究におけるがん用語の作成方法が,他の分野の用語集合の作成にも適用可能かについて考察する.まず,本研究におけるがん用語の選定方法を一般化すると次のようになる.(1)まず,医学的内容の信頼性と網羅性が高いコーパスを選定する.(2)次に,そのコーパスから,専門家が,対象の病気に関連すると考える用語候補を網羅的に収集する.(3)最後に,2ホップルールに基づいて,対象の病気に関係する用語を選定する.なお,2ホップルールは,より一般的には,中心的な用語から関連語までについて,T1,T2,T3,T4,…のような関連度の段階を定め,そのある段階までを,用語として認定するというものである.このような用語集合の作成法の一般化が,他の病気に対しても適用可能かを実証することは今後の課題であるが,がんという,多数の疾患からなり肺がんや胃がんのような固型がんから,白血病のような肉腫と呼ばれる疾患群までを総称する複雑な概念からなる用語集合の作成が可能であったことから,少なくとも「パーキンソン病」や「アルツハイマー病」などの難病,「糖尿病」や「高血圧」のような生活習慣病など,ほぼ医学の全分野に応用可能と思われる.また,本作成法の医学以外の分野での応用可能性(例えば,「不安」や「抑圧」などの心理学分野の症候を示す語群)に関しても,今後検討する予定である.以上,本研究における用語集作成法と従来の用語集の作成法とを比べて,本研究における新規な点は,用語選択の基準について,「がんに関係する」という曖昧な判断基準から,2ホップルールという相対的に明確な判断基準を構築し,それに基づいて,がん用語を選定したことであると述べた.次に,本研究で作成したがん用語集を実際のがん情報処理に適用するために必要と考えられる2つの拡張について述べる.これらは今後の課題である.まず,本研究においては,国立がんセンターのWebテキストから抽出した用語のみをがん用語集に採用しているが,その他のテキストから抽出した用語もがん情報処理に有効な場合が考えられる.たとえば,「がんに効果がある」と宣伝している悪質な商品誘導へのページをフィルタリングして,良質ながん情報のページを推薦するためには,本研究で作成した用語集に加えて,悪質なページに特徴的な単語を利用すると効果的と考えられる.また,ブログの検索などの応用においては,検索ユーザが頻繁に入力する単語も追加すると効果的と考えられる.また,\ref{s:「文法」:文法による削除例}節で検討した,「生理以外」等の文法的理由による削除語についても,検索等には有用であると考えられるので,本研究で提案したがん用語集合に加えて使用すると有効であると考える.次に,本研究においては,がん用語をT1,T2,T3に分類した.これは,がんとの関連性により,用語をランキングしたと考えることもできる.このランキングは,がん用語集合を選定するためには有効であるが,その他の目的に対して最適とは限らない.たとえば,がんに関係するページをWeb検索するときに,「レントゲン写真」と「急性転化」とは,どちらもT2であるが,前者ががん以外のページも上位の検索結果に含むのに対して,後者はがん(白血病)のページがほとんどである.つまり,検索結果の適合率という観点からは,「急性転化」の方が良い用語である.このように,T1,T2,T3は関連性をベースにした用語の分類であるが,目的が明確な場合には,この分類は最適とはいえない.しかし,本研究により作成したがん用語集合があれば,それを検索のためにランキングする等,目的に応じてがん用語をランキングすることも考えられる.これは,全語彙にランキングを行うよりはるかに容易である.すなわち,本研究で作成した用語集合のランキングを目的別に整備することにより,目的対応の用語集合ができる.したがって,本研究により作成したがん用語集合は有用であると考える.
\section{まとめと今後の方針}
\label{s:まとめと今後の方針}がん情報処理を補助することを目的として,その言語基盤であるがん用語辞書を,医師免許を持つ専門家が人手で作成した.わが国で生じる可能性のあるほぼ全てである59個のがんの説明用コンテンツを含む国立がんセンターのWeb文書全体(テキストファイルとして約15メガバイト)を,がんの情報に関して十分な網羅性を持つ権威あるコーパスとして選択した.これから直接人手で,がん用語として理解可能な用語を網羅的に収集し,10199語の用語候補集合Cc(CancertermCandidates)を得た.得られたCcの各語を理解しやすくすることや用語間の整合性を調整するために,各語の用例から「病名」「解剖学用語」「臨床用語」「一般語」「検査用語」などの種別を作成した.また,各語をがんとの関連性を想起しつつ分類した結果,T1(がんそのものをさし示す語),T2(がんを想起させる語),T3(がんを想起させる語に関連する語),T4(がんとの関連性を想起しにくい語)の4つに分類できた.これら「種別」とがんとの関連性を参考に,がん用語として,T1からT3までをがん用語Cとして選択するという選択基準を規定した.元コーパスに対するCcの用語候補抽出の一貫性を調べるために,コーパスから10個の疾患の説明用ページのテキストファイルを対象として,再度網羅的な用語収集を行い,得られた用語のうちCcに含まれた語の比率を調べた.その結果,これら10個の対象におけるCcの再現率は94\%から99.5\%であり,元コーパスに対するCcの再現性は十分であることが示された.さらに,選択基準をもとに,T1,T2,T3,T4の分類を,Cc(10199語)の全用語に対して人手で行い,T1,T2,T3に分類される用語を,がん用語集合Cとした.選択基準の妥当性を検討するために,T1(1637語),T2(4167語),T3(3705語),T4(221語)の中から約50語ずつを無作為に選び,評価用ワードセット(用語数197語)を作成し,これを選択基準の説明文とともに医師4名に示し,本研究で想定したT1からT4の分類と各医師の分類の比較を行った.その結果,T1,T2までの分割に対するCohen'sKappa値は約0.6であり,さらにT1,T2とそれ以外の3分割の場合でも0.5を示したことから,T1とT2までの語彙選択の妥当性が示された.以上より,本研究で行ったコーパスからの網羅的用語収集と用語選択基準の組み合わせによって,少人数で妥当性のあるがん用語集合を作成することができた.本研究のような用語集合の作成は,目的とする分野での質の高いコーパスが存在することが重要だが,今後他の医学分野においても同様の手法で,妥当性のある用語集合を作成していくことが可能と思われる.また,\ref{s:既存の医学用語集}節であげたNationalCancerInstituteのDictionaryofCancerTermsの語彙数5236語と,CcのT1とT2の合計語彙数5804語が,対象とするがんの種類や社会制度などが異なる2つの地域で同規模であることも興味深い.これら語彙の相互比較も今後の検討課題である.今後,このがん用語集合を用いたがん情報処理の実現にむけて研究を行うことが課題である.なお,本研究で収集したがん情報コーパスならびに,分類タグつきのがん用語集合は,国立がんセンターとの協議の上で公開する予定である.\acknowledgment本研究を行うに当たり用語辞書作成に御協力いただいた,元北陸先端科学技術大学院大学学生木村俊也氏,国立がんセンター中央病院若尾文彦医長,同がん対策情報センター石川ベンジャミン光一室長,滋賀医科大学藤山佳秀教授,程原佳子教授,八尾武憲博士,近畿大学医学部西尾和人教授,鹿児島大学大学院医歯学総合研究科秋葉澄伯教授,高岡医院高岡篤博士,野洲病院木築裕彦医師に謝意を表する.論文作成に御協力いただいた,情報通信研究機構主任研究員門林理恵子博士ならびに村松亜左子氏に謝意を表する.なお,本研究はNICT運営費交付金(新世代ネットワーク研究センター),平成19年度,20年度厚生労働省がん研究助成金研究総合研究「がん情報ネットワークを利用した総合的がん対策支援の具体的方法に関する研究」若尾班等の支援を得て行った.関係各位に深謝する.\section*{注}\hangafter=1\hangindent=2zw\noindent1)日本内科学会編,内科学用語集(第5版)(1998).医学書院.ISBN:978-4-2601-3641-9(4-2601-3641-0).\hangafter=1\hangindent=2zw\noindent2)循環器学用語合同委員会,循環器学用語集(第3版)(2008).丹水社.ISBN:978-4-9313-4722-9(4-9313-4722-3).\hangafter=1\hangindent=2zw\noindent3)NationalCancerInstitute(NCI).http://www.cancer.gov/dictionary/\hangafter=1\hangindent=2zw\noindent4)日本糖尿病学会(編集)(2005).糖尿病学用語集.文光堂.ISBN:978-4-8306-1363-0(4-8306-1363-7).\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{青木}{青木}{2002}]{c17}青木繁伸(2002).http://aoki2.si.gunma-u.ac.jp/lecture/Kappa/kappa.html\bibitem[\protect\BCAY{Humphrey\BBA\Miller}{Humphrey\BBA\Miller}{1987}]{c4}Humphrey,S.M.andMiller,N.E.(1987).``Knowledge-basedindexingofthemedicalliterature:theIndexingAidProject.''\textit{JAmSocInfSci},\textbf{38}(3),pp.184--196\bibitem[\protect\BCAY{国立がんセンター}{国立がんセンター}{}]{c8}国立がんセンター.http://www.ncc.go.jp/index.html\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{c18}Landis,J.R.andKoch,G.G.(1977).``Themeasurementofobserveragreementforcategoricaldata''in\textit{Biometrics}.\textbf{33},pp.159--174.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2000}]{c6}Nakagawa,H.(2000).``AutomaticTermRecognitionbasedonStatisticsofCompoundNouns.''\textit{Terminology},\textbf{6}(2),pp.195--210.\bibitem[\protect\BCAY{Nakagawa,Kimura,Itokawa,Kasahara,Sato,\BBA\Kimura}{Nakagawaet~al.}{1995}]{c13}Nakagawa,S.,Kimura,M.,Itokawa,Y.,Kasahara,Y.,Sato,T.,andKimura,I.(1995).``DevelopmentofInternet-BasedTotalHealthCareManagementSystemwithElectronicMail.''\textit{JournalofEpidemiology},\textbf{5}(3),pp.131--140.\bibitem[\protect\BCAY{{NationalCancerInstitute(NCI)}}{{NationalCancerInstitute(NCI)}}{2007}]{c14}NationalCancerInstitute(NCI)(2007).PDQ(CancerInformationPhysicianDataQueryfromNationalCancerInstitute).http://www.cancer.gov/cancerinfo/pdq/\bibitem[\protect\BCAY{{NationalLibraryofMedicine}}{{NationalLibraryofMedicine}}{2006}]{c5}NationalLibraryofMedicine(2006).\textit{MedicalSubjectHeadings(MeSH)factsheet}.\bibitem[\protect\BCAY{野口}{野口}{2000}]{c2}野口迪子(2000).医学書を探す:基本図書を主として.情報の科学と技術,\textbf{50}(11),pp.542--552.\bibitem[\protect\BCAY{佐藤\JBA佐々木}{佐藤\JBA佐々木}{2003}]{c7}佐藤理史,佐々木靖広(2003).ウェブを利用した関連用語の自動収集.情報処理学会研究報告,2003-NL-153,pp.57--64.\bibitem[\protect\BCAY{{\kern-0.5zw}(財)先端医療振興財団}{(財)先端医療振興財団}{2009}]{c15}(財)先端医療振興財団(2009),PDQ日本語版,http://cancerinfo.tri-kobe.org/\bibitem[\protect\BCAY{WendyA.~Weiger\JBA坪野}{WendyA.~Weiger\JBA坪野}{2004}]{c3}WendyA.Weiger(原著),坪野吉孝(翻訳)(2004).がんの代替療法—有効性と安全性がわかる本.法研.\bibitem[\protect\BCAY{山口\JBA北原}{山口\JBA北原}{2004}]{c16}山口徹,北原光夫(編集)(2004).今日の治療指針.医学書院.\bibitem[\protect\BCAY{山室}{山室}{2000}]{c1}山室真知子(2000).医学情報の患者へのバリアフリー.情報の科学と技術,\textbf{50}(3),pp.138--142.\end{thebibliography}\begin{biography}\bioauthor{中川晋一(正会員)}{1988年滋賀医科大学卒,医師.1996年京大院(医)終了,博士(医学).同年国立がんセンター研究所,1998年郵政省通信総合研究所(現情報通信研究機構),現在,同主任研究員,次世代インターネット技術開発に従事,IT技術の実社会への応用(情報通信医学)に興味がある.言語処理学会,情報処理学会,日本内科学会等会員}\bioauthor{内山将夫(正会員)}{1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,情報通信研究機構主任研究員.言語処理の実際的で学際的な応用に興味がある.言語処理学会,情報処理学会,ACL等会員.}\bioauthor{三角真(非会員)}{2004年北陸先端科学技術大学院大学博士前期課程修了.修士(情報科学).同年,JST重点支援協力員に採用.2006年NICT技術員に採用.2008年から東京工業大学博士後期課程在学.情報通信の研究に従事.}\bioauthor{島津明(正会員)}{1973年九州大学大学院理学研究科修士課程修了.同年,日本電信電話公社武蔵野電気通信研究所入所.1985年日本電信電話株式会社基礎研究所.1997年北陸先端科学技術大学院大学情報科学研究科教授.工学博士.}\bioauthor{酒井善則(非会員)}{1969年東京大学工学部電気工学科卒業1974年同大学院博士課程修了.工学博士.同年電電公社電気通信研究所入社1987年東京工業大学助教授1990年同教授,画像情報処理,情報ネットワークの研究に従事1994年テレビジョン学会著述賞,1998年画像電子学会論文賞,2001電子情報通信学会業績賞}\end{biography}\biodate\setcounter{section}{0}\def\thesection{}
\section{}
\begin{boiteepaisseavecuntitre}{各評価担当医師への依頼文}\begin{verbatim}用語集合分類のお願い2ページ目から4ページ目までの表に,単語が合計100個書いてあります.これを,「がんに関係する用語か,そうでない用語か」の2つに分けてください.単語を見ていただいて,がんに関係する語なら○,がんに関係ない語なら×を右側のカラムに書き入れてください.\end{verbatim}\end{boiteepaisseavecuntitre}\end{document}
| |
V07N04-11
|
\section{はじめに}
近年の高度情報化の流れにより,種々の情報機器が自動車にも搭載されるようになり,さまざまな情報通信サービスが広がりつつある.このような車載情報機器は,自動車に搭載するためにCPUの速度やRAM,ROMなどのメモリ容量の制約が非常に厳しく,また,開発期間がより短いことや保守管理の労力の低減も同時に求められている.自動車内で提供される情報通信サービスには,交通情報,観光情報,電子メール,一般情報(例えばニュース)などが含まれるが,このような情報はディスプレイ上に文字で表示するよりも,音声により提供する方が望ましいとされている.文字情報を音声に変換する技術の研究開発は進んでいるが,その合成音声の韻律は不自然という問題がある.その原因として大きな割合を占めるものはポーズ位置の誤りであり,これを改善することにより韻律の改善が可能となる.ポーズ位置を制御する手法として,係り受け解析を利用する方法が研究されている\cite{Suzuki1995,Umiki1996,Sato1999,Shimizu1999}.これらの手法の中で,海木ら\cite{Umiki1996}や清水ら\cite{Shimizu1999}の手法は係り受けの距離が2以上の文節の後にポーズを挿入するという方法であり,その有効性がすでに示されている.そしてこの手法を実現するためには,高精度な係り受け解析が必要となる.文節まとめあげは図\ref{fig:文節まとめあげ}のように,形態素解析された日本語文を文節にまとめあげる処理のことをいう.この処理は,日本語文の係り受け解析に重要となるものであるため,文節まとめあげの精度が高いことが望まれる\footnote{形態素解析の精度は,既に十分高い精度を得られている.}.本研究はこのように,係り受け解析にとって重要な位置を占めている文節まとめあげに関する研究報告である.\begin{figure}\begin{center}\begin{tabular}{cl}\fbox{日本語文}&うまく日本語文を解析する.\\$\downarrow$&$\downarrow$\\\fbox{形態素解析}&うまく,日本語,文,を,解析,する,.\\$\downarrow$&$\downarrow$\\\fbox{\bold文節まとめあげ}&うまく|日本語文を|解析する.\\$\downarrow$&$\downarrow$\\\fbox{係り受け解析}&うまく|日本語文を|解析する.\\[-2mm]~&││↑↑\\[-3mm]~&│└────┘│\\[-3mm]~&└──────────┘\\\end{tabular}\caption{文節まとめあげの処理}\label{fig:文節まとめあげ}\end{center}\end{figure}従来の文節まとめあげは,人手によりまとめあげ規則を書き下す方法と,機械学習によって得た統計情報を利用する方法の二通りに大きく分けられる.人手により作成した規則を用いる方法としてはknp\cite{knp2.0b4}があり,高い精度を得られているが,人手により規則を保守管理することは容易ではなく,車載情報機器には不向きであるといえる.機械学習を用いる方法としては村田らによる方法\cite{Murata2000}があるが,まとめあげのための情報を152通りも利用しているなど非常に複雑なアルゴリズムになっている.このため新たに車載情報機器に実装するためには長い開発期間を要し,また規則の学習にも長い時間を要するため保守管理にも時間がかかり,さらにデータ量が膨大になるなどの問題も生じるため,車載情報機器には不向きであるといえる.本研究ではこれらの問題を解決し,従来手法と比べて遜色ない精度を持ち,保守管理が容易でかつ車載情報機器の求める厳しい条件に適した,複数決定リストの順次適用による文節まとめあげという新しい手法を考案した.そしてこの手法を用いて文節まとめあげを行ったところ,最高で99.38\%という非常に高い精度が得られたことを報告する.
\section{従来の研究}
label{sec:従来の研究}文節まとめあげに関する従来の研究は,人手により文節まとめあげの規則を書き下す方法と,大規模コーパスから機械学習により得た統計情報を利用する方法の2種類に大きく分けられる.これらの手法について以下で説明する.\subsection{人手規則による文節まとめあげ}人手により作成した文節まとめあげの規則を利用する最もよく知られているツールに,knpがある.knpは文節に関する規則を人手で網羅することにより,99\%以上という非常に高精度な文節まとめあげを実現している.knpの文節まとめあげの規則は906行のファイルに148種類の規則が記述されている\footnote{knpは係り受け解析ツールであるが,係り受け解析の前に文節まとめあげを行っているため,その部分だけの数値を利用した.}.knpへの入力は形態素解析ツールjuman\cite{juman3.5}の出力に限定されており,文節まとめあげの規則もその形式に基づいて作成されている.そのため,juman以外の形態素解析ツールの出力形式で利用するためには,規則をすべて書き直す必要がある.人手規則による文節まとめあげは,このように多数の規則を人手で修正・追加を繰り返さなければならず,大きな労力が必要という問題がある.しかしながら,車載情報機器の形態素解析部の出力形式はそれぞれ機種によって異なり,knpを車載情報機器に実装するためには規則をすべて書き直さなければならず,規則の保守管理も容易ではないため,問題が大きい.\subsection{機械学習による文節まとめあげ}\label{subsec:機械学習手法}人手規則による文節まとめあげの持つ問題に対処でき,最近最も盛んに研究されているのが,大規模コーパスから機械学習により得た統計情報を利用して文節まとめあげを行う手法である\cite{Zhang1998,Asahara1999,Murata2000}.機械学習による手法は,大規模コーパスから文節区切りの規則を学習し,それにより文節まとめあげを行う.そのため人手により規則を保守管理する必要がなく,また形態素解析ツールの出力形式に依存しないという利点がある.ただし機械学習の手法でも,学習用のコーパスを準備するという労力は必要である.しかし,京大コーパス\cite{KyotoCorpus}などの大規模コーパスの構文情報を,形態素解析ツールの各出力形式に変換するのは,文節区切りの情報だけに限定するため容易である.また人手により規則を作成する場合,プログラミングの専門的な知識が必要であるうえ,規則を改良するためには多くの試行錯誤が必要となる.それに対し,コーパスの作成を行う場合は,コーパスの原文を形態素解析した結果がほぼ100\%に近い精度であり,それを文節に区切るだけでコーパスが得られるので特別に専門的知識は必要ない.また,単にコーパスの量を増やすだけで精度を向上させることができる.これらのことから,機械学習の手法は必要な労力が少ないといえる.機械学習を用いる文節まとめあげには様々な種類があるが,これまでに最も精度の高い結果を得ているのが,村田らによる研究である\cite{Murata2000}.村田らは,決定リストを用いた文節まとめあげの手法に排反な規則を組み合わせた手法を提案している.決定リストは,規則をある優先順位を決めて1次元に並べたリストのことである.そしてそのリストを順に探索して一番最初に適用された規則のみを用いて解析を行う手法である.決定リストの要素としてよく用いられるのは,大規模コーパスから学習した結果であり,それを並べる優先順位としては確率が主に用いられる.例えば,図\ref{fig:決定リスト}のような決定リストにより,「うまく,日本語,文,を,解析,する,.」という形態素解析済みの文を処理する方法について考える.「うまく(形容詞)」と「日本語(名詞)」という情報から,「うまく」+「日本語」という規則が最初に適用されるため,この部分は「文節に区切る」と決定される.リストの下位に「形容詞」+「名詞」は「文節に区切らない」という規則があるが,決定リストはリストの上位の要素から適用するため,この規則は無視される.\begin{figure}\begin{center}\begin{tabular}{r@{}c@{}l|c|c}\multicolumn{3}{c|}{規則}&確率&文節区切り\\\hline「うまく」&+&「日本語」&100\%&区切る\\「うまい」&+&「日本語」&95\%&区切らない\\&$\vdots$&&$\vdots$&$\vdots$\\「形容詞」&+&「名詞」&70\%&区切らない\\&$\vdots$&&$\vdots$&$\vdots$\\\end{tabular}\caption{決定リストの例}\label{fig:決定リスト}\end{center}\end{figure}村田らの手法は,文節に区切るあるいは区切らない確率が100\%である規則を排反な規則と呼び,決定リストの手法に排反な規則を組み合わせて文節まとめあげを行う.確率が100\%でない規則を適用するのは,あらかじめ誤る可能性のあるものを利用するということになるため,高い精度を望むことができない.そのため排反な規則を重要視しなければならない,と主張している.図\ref{fig:村田手法}のような前後4つの形態素の4種類の情報を152種類組み合わせて,それにより決定リストを作成する.決定リストの要素を並べる順序は,まず確率でソートして,同じ確率のものは頻度順にソートする.\begin{figure}\begin{center}\begin{tabular}{cccc}二つ前&一つ前&一つ後&二つ後\\\hline&情報A&情報A&\\情報A&情報B&情報B&情報A\\情報B&情報C&情報C&情報B\\&情報D&情報D&\\\end{tabular}素性$\cdots~~\left(\begin{array}{ll}情報A:&品詞\\情報B:&品詞+品詞細分類\\情報C:&品詞+品詞細分類+意味情報\\情報D:&品詞+品詞細分類+意味情報+単語表記\\\end{array}\right)$\caption{村田らの手法で用いる情報}\label{fig:村田手法}\end{center}\end{figure}例えば,ある形態素の隙間の文節区切りを決定する時に図\ref{fig:村田リスト}のような規則のパターンが一致して適用可能である場合,決定リストの手法であれば,最初の規則Aが適用されるため「文節に区切らない」と決定される.しかし規則B,C,Dを見ると,各規則ごとの頻度は規則Aと比べると小さいが,それぞれの頻度を足しあわせると規則Aの頻度よりも大きい.そのため,規則B,C,Dに従って「文節に区切る」と決定する方が望ましいと考えられる.このように,排反な規則,つまり確率が100\%となる規則の頻度を足しあわせ,その頻度により文節区切りの決定を行う.\begin{figure}\begin{center}\begin{tabular}{cccrrc}\hline規則&パターン&&確率&頻度&文節区切り\\\hlineA&a&$\Rightarrow$&100\%&34&区切らない\\B&b&$\Rightarrow$&100\%&33&区切る\\C&c&$\Rightarrow$&100\%&25&区切る\\D&d&$\Rightarrow$&100\%&19&区切る\\E&e&$\Rightarrow$&81.3\%&123&区切る\\F&f&$\Rightarrow$&76.9\%&13&区切る\\G&g&$\Rightarrow$&57.4\%&540&区切らない\\$\vdots$&$\vdots$\\\end{tabular}\caption{村田らの手法の説明}\label{fig:村田リスト}\end{center}\end{figure}この手法による文節まとめあげは,最高で99.17\%という高い精度を得ている.しかしこの手法は,図\ref{fig:村田手法}のような情報の組み合わせが152種類もある.京大コーパス中のデータは,1文平均約23の形態素の隙間があるため,1つの形態素の隙間に対して152種類の組み合せを考慮すると,1文あたり$152\times23=約3500回$もの処理をしなければならない.このようにアルゴリズムが複雑なため,新たに車載情報機器に実装するためには長い開発期間を要し,また規則の学習に長い時間を要するため保守管理にも時間がかかり,さらにデータ量が膨大になるなど様々な問題がある.そのため,車載情報機器には不向きであるといえる.\ref{sec:文節まとめあげ}章では,これらの問題を解決するために考案した新しい手法について述べる.
\section{本研究の文節まとめあげの手法}
label{sec:文節まとめあげ}\subsection{複数決定リストの順次適用による文節まとめあげ}\label{subsec:複数決定リスト}本研究では,従来手法の問題点を解決するために次の点に着目した.\begin{itemize}\item学習が容易で用いる情報の数が少ないこと\item学習結果を利用して文節をまとめる方法が従来手法より簡明であること\item精度が従来手法と同程度かそれ以上となること\end{itemize}これらを実現するために,{\bold複数決定リストの順次適用による文節まとめあげ}という新しい手法を考案した.機械学習を用いる従来手法では,大規模コーパスから得られた様々なn-gram(主に2-gramから4-gram)が利用されている.本手法では,1つの形態素の隙間に対して6種類のn-gramのそれぞれの決定リストだけを考慮するという非常に簡明な方法を用いる.具体的には,品詞,単語表記,品詞細分類,単語表記+品詞の4種類の形態素2-gramと,品詞,単語表記の2種類の形態素3-gramを要素とする決定リストを利用する\footnote{品詞細分類の3-gramと単語表記+品詞の3-gramは,予備実験を行ったところ結果に変化がなかったため用いなかった.}(図\ref{fig:本手法}).以下では,これらのn-gramを要素とする決定リストを,n-gramリストと呼ぶ.文節まとめあげの処理は,村田らと同様に形態素解析済みのテキストに対して行い,形態素の隙間ごとにその前後の形態素の情報からn-gramリストを調べて文節を区切るか区切らないかを決定する処理とした.\begin{figure}\begin{center}\begin{tabular}{l|ccccc}&二つ前&&一つ前&&一つ後\\\hline単語表記2-gram&~&&単語表記&---&単語表記\\品詞2-gram&~&&品詞&---&品詞\\品詞細分類2-gram&~&&品詞細分類&---&品詞細分類\\単語表記+品詞2-gram&~&&単語表記+品詞&---&単語表記+品詞\\単語表記3-gram&単語表記&---&単語表記&---&単語表記\\品詞3-gram&品詞&---&品詞&---&品詞\\\end{tabular}\caption{本手法で用いる情報}\label{fig:本手法}\end{center}\end{figure}例えば,2-gramの場合には$Y$,$Z$という連続する2つの単語の$Y$と$Z$の間,3-gramの場合には$X$,$Y$,$Z$という連続する3つの単語の$Y$と$Z$の間に注目し,その間の文節区切りを次のように決定する\footnote{3-gramを考慮する場合,$X$,$Y$,$Z$という3つの単語の$X$と$Y$の間も考慮する必要があると思われるが,本手法は処理が簡明であることを最大の目標としたため,ここでは考慮しない.}.\begin{enumerate}\item$X$,$Y$,$Z$の形態素を得る.\item図\ref{fig:本手法}の6種類のn-gramリストを順番に調べる\footnote{n-gramリストの適用順は\ref{sec:実験}章の実験で最適化を行う.}.\begin{enumerate}\itemn-gramリスト中に規則が見つかり,文節に区切る数が区切らない数よりも多い場合には区切りを入れ,少ない場合には区切らないこととする.この段階で$Y$と$Z$の文節区切りを確定し,処理を終了する.\itemn-gramリスト中に規則が見つからない場合,または文節に区切る数と区切らない数が等しい場合には,次のn-gramリストを調べる.\end{enumerate}\item6種類すべてのn-gramリストを調べた結果,文節に区切るか区切らないか確定しない場合,デフォルト処理として文節に区切るものとする\footnote{デフォルト処理を文節に区切らないとした場合は,予備実験により精度が下がることがわかったため,文節に区切るものとした.}.\end{enumerate}本手法の最大の特徴は,このように{\bold6種類のn-gramリストを順番に調べるだけで文節まとめあげを行う},という非常に簡明な点である.村田らの手法では\ref{subsec:機械学習手法}節で示したように,1つの形態素の隙間に対して約3500回もの処理をしなければならない.しかし,本手法では最大で$6\times23=138回$の処理でよいため,村田らの手法と比べて約$\dfrac{1}{25}$の処理量で文節まとめあげを行うことができる.\subsection{n-gramリストの取得方法}\label{subsec:n-gramリスト取得}各n-gramリストの要素は,大規模コーパスから機械学習によって得る.本研究では,学習コーパスとして京大コーパス\cite{KyotoCorpus}を利用した.京大コーパスにはあらかじめ詳細な形態素の情報と文節区切りの情報が付与されているので,形態素の隙間ごとに文節に区切る数と区切らない数を数えて,それを確率の高い順に並べて保持する.ただし,確率には文節に区切る確率か文節に区切らない確率の2種類があるが,高い方の確率を基準としてリストに並べた.つまり,リストの最下位は確率50\%となる.以上のようにして得られた品詞2-gramの学習結果の決定リストの例を図\ref{tab:学習結果例}に示す.\begin{figure}\begin{center}\begin{tabular}{rr@{}c@{}lc}確率&\multicolumn{3}{c}{規則}&区切り\\\hline100\%&「連体詞」&+&「連体詞」&区切る\\100\%&「連体詞」&+&「名詞」&区切る\\$\vdots$&&$\vdots$&&$\vdots$\\55\%&「特殊」&+&「特殊」&区切る\\52\%&「特殊」&+&「接続詞」&区切らない\\\end{tabular}\caption{品詞2-gramの決定リスト}\label{tab:学習結果例}\end{center}\end{figure}
\section{実験と考察}
label{sec:実験}\subsection{実験方法}\label{subsec:実験方法}本手法の性能を評価するため,評価システムを作成して以下の実験を行った.\begin{enumerate}\item6種類のn-gramリストを適用する数や順序を変化させる実験\item学習コーパスの量を変化させる実験\item学習結果の一部分だけ利用する実験\item比較実験\itemn-gramや条件の追加実験\end{enumerate}1.,3.,4.,5.の実験の学習コーパスには,京大コーパスの最初の10000文を利用し,2.の実験には,京大コーパスを最初から1000文ずつ10000文まで変化させて利用した.また,すべての実験のテストコーパスは京大コーパスの10001文目からの残り9956文を利用した.学習コーパス,テストコーパスの内容は表\ref{tab:京大コーパス}の通りである.\begin{table}\begin{center}\caption{京大コーパスの内容}\label{tab:京大コーパス}\begin{tabular}{l||r|r}\hline&学習コーパス&テストコーパス\\\hline\hline文の数&10,000&9,956\\\hline形態素の隙間の数&240,682&227,053\\\hline文節区切りの数&98,395&93,971\\\hline\end{tabular}\end{center}\end{table}\subsection{評価基準}\label{subsec:評価基準}本研究の文節まとめあげの評価基準には,村田らが用いたF値を採用した.F値はF-measureを意味し,適合率と再現率の調和平均から得られる.適合率と再現率は,評価システムの出力とテストコーパスの内容を比較して,次のように計算する.\begin{eqnarray}\label{eq:Eval}\begin{array}{rcl}適合率&=&\dfrac{right}{result}\\[4mm]再現率&=&\dfrac{right}{correct}\end{array}\end{eqnarray}ここで,$result$を評価システムが文節に区切った数,$correct$をテストコーパスで文節に区切られている数(正解の区切り),$right$を両者の文節区切りが一致している数とする.これらの調和平均を以下のように計算すると,F値が得られる.\begin{displaymath}F=\left(\dfrac{\dfrac{1}{適合率}+\dfrac{1}{再現率}}{2}\right)^{-1}\times100(\%)\end{displaymath}例えば,次のようなテストコーパスの文節区切りと評価システムの出力がある時のF値の計算例を示す.文中「|」により文節の区切りを表すものとする.\begin{quote}{\boldテストコーパス}:\hspace{10mm}昨日|政府は,|国会移転の|候補地を|発表した.{\bold評価システム}:\hspace{10mm}昨日政府は,|国会|移転の|候補地を|発表|した.\begin{displaymath}right=3,~~result=5,~~correct=4\end{displaymath}\begin{displaymath}適合率=\dfrac{3}{5},~~再現率=\dfrac{3}{4}\end{displaymath}\begin{displaymath}F=\dfrac{2}{\dfrac{5}{3}+\dfrac{4}{3}}\times100=66.67(\%)\end{displaymath}\end{quote}\subsection{実験結果}\label{subsec:実験結果}\subsubsection{n-gramリストを用いる数や適用する順序を変化させる実験}\label{subsubsec:n-gramの数}6種類のn-gramリストを用いる時に,n-gramリストを用いる数や適用する順序により精度が変化すると考えられる.そこで,6種類のn-gramリストを用いる数や順序を変化させて実験したところ,図\ref{fig:n-gramの数}のような結果を得た.ただし図中,n-gramリストを用いた数が1,2,3,4は4種類の2-gramリストだけを用いた結果で,数が5,6はさらに2種類の3-gramリストを加えた結果である.n-gramリストを用いた数ごとのF値は,その数における最も精度の高かった順序の結果のみを示した.また,それぞれn-gramリストを1つだけ用いた結果を表\ref{tab:n-gram1つ}に,最も精度の高かった時のn-gramリストの適用順を表\ref{tab:適用順}に示した.表\ref{tab:n-gram1つ}中のデフォルト処理とは,n-gramリスト中で規則を見つけられなかった場合に適用する処理のことを表す.本手法ではデフォルト処理として「区切る」を用いるが,比較のため「区切らない」場合の精度も示した.また,表\ref{tab:n-gram1つ}中の被覆率は,規則を適用できた割合を示す.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=graph-1-10000-jis.eps,scale=0.8}\end{epsf}\begin{draft}\atari(216,152,1bp)\end{draft}\caption{n-gramリストを用いる数や順序による精度の変化}\label{fig:n-gramの数}\end{center}\end{figure}\begin{table}\begin{center}\caption{各n-gramリストの精度}\label{tab:n-gram1つ}\begin{tabular}{l|c|c|c|c|c|c|c|}~&\multicolumn{3}{c|}{デフォルト処理:区切る}&\multicolumn{3}{c|}{デフォルト処理:区切らない}\\\cline{2-7}n-gramリスト&適合率&再現率&F値&適合率&再現率&F値&被覆率\\\hline品詞2-gram&92.91\%&96.52\%&94.68\%&92.91\%&96.51\%&94.68\%&99.99\%\\単語表記2-gram&63.08\%&99.79\%&77.30\%&99.06\%&55.20\%&70.89\%&62.08\%\\品詞細分類2-gram&96.73\%&99.48\%&98.08\%&98.27\%&98.08\%&98.17\%&98.88\%\\単語表記+品詞2-gram&62.78\%&99.95\%&77.12\%&99.51\%&54.90\%&70.76\%&61.51\%\\品詞3-gram&86.38\%&96.09\%&90.97\%&94.66\%&93.78\%&94.21\%&95.49\%\\単語表記3-gram&44.78\%&99.96\%&61.85\%&99.84\%&11.70\%&20.95\%&21.73\%\\\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{n-gramリストの最適な適用順}\label{tab:適用順}\begin{tabular}{c|l}\begin{minipage}[b]{5zw}n-gram\\リストの数\end{minipage}&\\\hline1&品詞細分類2-gram\\2&品詞細分類2-gram→品詞2-gram\\3&単語表記+品詞2-gram→品詞細分類2-gram→品詞2-gram\\4&単語表記+品詞2-gram→単語表記2-gram→品詞細分類2-gram→品詞2-gram\\5&\begin{tabular}{c}単語表記3-gram→単語表記+品詞2-gram→単語表記2-gram\\→品詞細分類2-gram→品詞2-gram\end{tabular}\\6&\begin{tabular}{c}単語表記3-gram→単語表記+品詞2-gram→単語表記2-gram\\→品詞細分類2-gram→品詞3-gram→品詞2-gram\\\end{tabular}\\\end{tabular}\end{center}\end{table}この結果から,使用するn-gramリストの数が多いほど精度が上がるが,3つ以上のn-gramリストを用いるとほぼ精度が飽和することがわかった.\subsubsection{学習コーパスの量を変化させる実験}\label{subsubsec:学習コーパス}学習コーパスの量を変化させた時に,精度がどのように変化するか調べた.学習コーパスは京大コーパスの最初から1000文ずつ増やし10000文まで変化させ,テストコーパスは京大コーパスの10001文目からの9956文で固定して実験を行った.その結果を図\ref{fig:学習量}に示した.図中,4種類は2-gramリストのみ,6種類はすべてのn-gramリストを利用した時の結果である\footnote{適用順は表\ref{tab:適用順}の結果を利用している.}.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=graph-2-10000-jis.eps,scale=0.8}\end{epsf}\begin{draft}\atari(232,152,1bp)\end{draft}\caption{学習コーパスの量による精度の変化}\label{fig:学習量}\end{center}\end{figure}この結果から,学習量が増すにつれて精度が向上することがわかった.しかし,10000文学習した段階でほぼ飽和していると考えられる.\subsubsection{学習結果の一部分だけ利用する実験}\label{subsubsec:一部利用}学習をした結果は確率順に並べられており,リストの上位は確率が高いので確信度が高いといえ,逆にリストの下位は確率が50\%に近いので確信度が低いといえる.そこで,確率の高いものだけを利用すると精度がどのように変化するか調べた.この実験で調べる内容は,車載情報機器はメモリ容量の要求が厳しいため,学習結果のデータ量はできるだけ少ないことが求められるが,データ量を減らす時にどれだけの精度が得られるか,ということである.学習結果を利用する割合を,10000文を学習した各n-gramリストの上位から10\%,20\%と10\%ずつ増やし100\%まで変化させて実験を行ったところ,図\ref{fig:一部利用}の結果を得た.図中,4種類は2-gramリストのみ,6種類はすべてのn-gramリストを利用した時の結果である\begin{figure}\begin{center}\begin{epsf}\epsfile{file=graph-3-10000-jis.eps,scale=0.8}\end{epsf}\begin{draft}\atari(232,168,1bp)\end{draft}\caption{学習結果の一部利用による精度の変化}\label{fig:一部利用}\end{center}\end{figure}この結果,およそ60\%のデータを利用すれば100\%利用した時とほぼ同等の精度を得られることがわかった.以上の実験から,車載情報機器が要求する速度・データ容量などに柔軟に対応できることを示すことができた.\subsubsection{比較実験}\label{subsubsec:比較実験}本手法は,複数の決定リストを順次適用するというものであるが,これらの複数の決定リストを大きな一つの決定リストにまとめて考えると,n-gramの種類(素性)によりソートしてから確率でソートしたリストと考えることもできる.このソートの順序は村田らの提案する手法とは逆で,村田らの手法では確率,頻度,素性という順序でソートしたリストを用いている.そこで,本手法,村田らの手法,決定リストの手法の3手法を比較するために,本手法の決定リストを大きな1つの決定リストにまとめ,それを用いて比較実験を行った.決定リストの手法では,確率,頻度,素性という順序でソートして用い,村田らの手法では,この決定リスト中の同じ確率となる規則の各頻度を足しあわせた結果により文節の区切りを判定した.これらの実験結果を表\ref{tab:比較実験}に示した.\begin{table}\begin{center}\caption{比較実験の結果}\label{tab:比較実験}\begin{tabular}{l|c|c|c|c}&n-gramリストの数&適合率&再現率&F値\\\hline本手法&4&98.92\%&99.41\%&99.16\%\\本手法&6&99.07\%&99.38\%&99.23\%\\決定リスト手法&4&98.88\%&99.16\%&99.02\%\\決定リスト手法&6&99.07\%&99.16\%&99.12\%\\村田手法&4&98.90\%&99.18\%&99.04\%\\村田手法&6&99.10\%&99.18\%&99.14\%\\\end{tabular}\end{center}\end{table}この結果から,同じ評価基準で実験を行った場合には,本手法が最も優れていることが示された.\subsubsection{n-gramや条件の追加実験}\label{subsubsec:追加実験}本手法の最大の特徴は,非常に簡明な方法で充分な精度を得られることである.非常に簡明であるので,従来手法の長所だけを組み合わせることも容易である.そのことを示すため,京大コーパスの最初の10000文を学習コーパス,残りの9956文をテストコーパスとして以下のような2種類の追加実験を行った.\begin{itemize}\item1-gramを利用する方法2-gramや3-gramだけでなく,1-gramが非常に有効となる場合も考えられる.例えば,読点や区点は前の単語に必ずつながり,次の単語とは必ず区切れる.そこで,6種類のn-gramリストに加えて1-gramリストを用いて実験を行ったところ,F値が99.31\%に上昇した.\item排反な規則を用いる方法村田らにより,排反な規則を用いる手法が高い精度を得られると報告されている\cite{Murata2000}.6種類のn-gramリストの排反な規則を考慮して実験を行ったところ,F値が99.26\%に上昇した.\end{itemize}上記2種類の手法をすべて組み合わせて実験を行ったところ,村田らの手法よりも簡明であるが,99.38\%という非常に高いF値を得られた.\subsection{処理速度}\label{subsec:処理速度}n-gramリストの学習と評価システムの処理速度の計測を行った.\ref{subsec:n-gramリスト取得}節の図\ref{tab:学習結果例}で示した品詞2-gramの学習に関しては,学習プログラムの最適化は全く行わなかったが,計算機にSunUltra1133MHzを,プログラム言語にPerlを用いたところ,10000文の学習に要した時間は58秒(1文あたり5.8ms)と非常に高速であった.また,6種類のn-gramリストすべての学習に要した時間も,216秒(1文あたり21.5ms)と高速であった.6種類のn-gramリストを学習した結果は約41万規則で,圧縮を全く行わずに図\ref{tab:学習結果例}のようにテキストベースでデータを保持すると約14.4MB,圧縮を行うと約2MBとなった.また評価システムについても同様にアルゴリズムの最適化を全く行わなかったが,\ref{subsubsec:n-gramの数}節の実験に関して,計算機にSunUltra1133MHzを,プログラム言語にPerlを用いたところ,4種類のn-gramリストを用いた処理に要した時間は225秒(1文あたり22.6ms),6種類のn-gramリストの場合には253秒(1文あたり25.4ms)と非常に高速であった.\subsection{実験のまとめ}\label{subsec:まとめ}以上の実験の結果を図\ref{fig:まとめ}のグラフにまとめた.比較のため,knp2.0b4の精度とknp2.0b6\cite{knp2.0b6}の精度も示した.knp2.0b6の精度が非常に高いのは,京大コーパスがknp2.0b4の出力を人手で修正して作成されたものであり,その修正結果をさらにknpの文節まとめあげ規則に反映したためである.つまり,knp2.0b6の結果はクローズドテストにほぼ等しい.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=all-result-jis.eps,scale=0.66}\end{epsf}\begin{draft}\atari(404,145,1bp)\end{draft}\caption{すべての実験の結果}\label{fig:まとめ}\end{center}\end{figure}本手法が従来の手法よりも優れていることは,\ref{subsubsec:比較実験}節の比較実験により示された.また,本手法が非常に簡明であること,車載情報機器への実装を最大の目標としていることを考慮すると,本手法は非常に優れているといえる.\subsection{考察}\label{subsec:考察}本手法のように非常に簡明な方法で99.38\%という高い精度を得られる理由と,本手法のロバスト性について,\ref{subsec:実験結果}節で行った実験の結果に基づいて考察する.\ref{subsubsec:n-gramの数}節の実験で,6種類のn-gramリストを適用する順序で最も高い精度を得られたのは,表\ref{tab:適用順}に示したように,\begin{center}単語表記3-gram$\rightarrow$単語表記+品詞2-gram$\rightarrow$単語表記2-gram$\rightarrow$品詞細分類2-gram$\rightarrow$品詞3-gram$\rightarrow$品詞2-gram\end{center}であった.これらのn-gramリストをそれぞれ1つだけ用いて文節まとめあげを行った場合の精度は,表\ref{tab:n-gram1つ}に示したとおりである.\ref{sec:文節まとめあげ}章で述べたように,本手法では文節に区切るか区切らないか決定できない場合のデフォルト処理を「文節に区切る」としているが,「文節に区切らない」とすると,それぞれの精度は表\ref{tab:n-gram1つ}のようになる.本手法の評価基準であるF値は,式\ref{eq:Eval}に示すように文節区切りを基準としている.そのため,デフォルト処理を文節に区切らないことにすると,得られる適合率は,n-gramリストにより「文節に区切る」と確定した個所が正しい区切りかどうか,という正確な値となる.この適合率が,表\ref{tab:n-gram1つ}の右側の中で最も注目すべき値である.この表から,先に適用されるn-gramリストほど適合率が高いことがわかる.つまり本手法の文節まとめあげ処理は次のように考えることができる.1つの形態素の隙間の文節区切りを確定するために,適合率の最も高いn-gramリストを最初に参照し,その中で見つけられれば最も高い適合率で文節区切りを確定できる.しかし,適合率が高いと再現率は低くなるため,規則を適用できる個所は少なくなる.そこで,そのn-gramリスト中で規則を見つけられなかった個所は,次に適合率の高いn-gramリストにより区切りを決定する.同様にして適合率の高い順にn-gramリストを調べることで,最終的に高い精度での文節まとめあげが可能になる(図\ref{fig:本手法の概念}).\begin{figure}\begin{center}\begin{tabular}{ccl}\fbox{1番目に高い適合率のn-gramリスト}&→適用&→確定\\↓\\非適用\\↓\\\fbox{2番目に高い適合率のn-gramリスト}&→適用&→確定\\↓\\非適用\\↓\\$\cdots$&→適用&→確定\\↓\\非適用\\↓\\\fbox{最も低い適合率のn-gramリスト}&→適用&→確定\\↓\\非適用\\↓\\確定\\(文節に区切る)\\\end{tabular}\caption{本手法の処理の概念図}\label{fig:本手法の概念}\end{center}\end{figure}低い適合率のn-gramリストを最初に適用して確定を行えば,その低い適合率が最終的な精度に大きく影響することは容易に想像できる.そのため,高い適合率のn-gramリストから順に適用するということは理想的な処理であるといえる.このことは,村田らのが100\%の確率である排反な規則を最優先に考慮するという考えを拡張してより柔軟にした,と考えることもできる.ただし,先に適用されるn-gramリスト中に51\%の確率の規則が存在する場合には,たとえ後に適用されるn-gramリスト中に100\%の確率の規則が存在しても,先のn-gramリストにより文節区切りが確定される.本手法はいかに簡明に文節まとめあげを行うか,ということを目標としていたため,この点についての考慮は行わなかった.しかし,さらに精度を向上させるためには,このような点も考慮して,決定リストの要素を並べる順序をどのようにするのが最適であるか,より詳しく調べる必要があると思われる.次に,本手法のロバスト性について考察する.本手法では,入力される形態素解析済みのデータは100\%正しいものとして扱っているが,実際には形態素解析ツールの精度は100\%ではない.そこで,形態素解析ツールの出力に誤りがある場合に,本手法の文節まとめあげの精度がどのように変化するか調べた.形態素解析ツールの出力の誤りには主に,付与する品詞の誤りや形態素の区切り誤りがある.形態素の区切りの誤りには,一つの形態素を複数に区切る誤りや,複数の形態素を一つのまとめる誤りなどがあるため非常に複雑であり,ここでは品詞の誤りがある場合についてだけ考える.ある形態素に品詞の誤りがある場合,3-gramを用いる時はその前後3個所の文節区切りに影響を及ぼし,2-gramを用いる時はその前後2個所の文節区切りに影響を及ぼす.そのため,品詞の誤りが1つ生じた場合に必ず文節区切りを誤ると仮定すると,形態素解析から文節まとめあげに至る間に誤りが増加する割合は,表\ref{tab:n-gram1つ}の被覆率と表\ref{tab:適用順}の適用順から,\begin{eqnarray*}誤りの増加率&=&3\times21.73\%+2\times(100\%-21.73\%)\times61.51\%+\cdots\\&=&2.49\end{eqnarray*}と求められる.つまり,形態素解析が99.0\%(誤りが1\%)の精度であるとすると,本手法の精度は99.38\%-2.49\%=96.89\%ということになる.従来の研究では,このような値が示されていないために単純にロバスト性を比較することはできない.しかし,形態素解析を誤ると必ず文節まとめあげを誤ると仮定していることや,他の手法が3-gram以上の情報も用いているためより多くの誤りを引き起こす可能性があることを考えると,本手法は従来の手法よりロバストであると考えられる.
\section{おわりに}
本研究で提案した文節まとめあげの手法は,車載情報機器の求める条件を満たすよう考案したものであり,複数の決定リストを順次適用して文節の区切りを行うだけ非常に簡明かつ高速である.それにもかかわらず,従来の手法と比較してより高い精度を得られることが示された.また,本手法は非常に簡明であるため,他の手法の長所のみを導入することが容易である.そのことを1-gramや排反な規則を組み合わせることにより示した.今後は,本手法を係り受け解析の技術と融合させ,より高精度な係り受け解析の技術に応用し,音声合成の品質の向上に貢献しようと考えている.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{白木伸征}{1997年京都大学工学部電気系学科卒業.1999年同大学院修士課程修了.同年,株式会社豊田中央研究所に入社,現在に至る.自然言語処理,ヒューマンインタフェースの研究に従事.}\bioauthor{梅村祥之(正会員)}{1979年岐阜大学工学部電子工学科卒業.1981年名古屋大学大学院工学研究科修士課程修了.同年,東京芝浦電気(株)入社.1988年(株)豊田中央研究所入社.自然言語処理,音響・音声処理,画像処理の研究に従事.}\bioauthor{原田義久}{1973年名古屋工業大学計測工学科卒業,1975年東京工業大学制御工学専攻修士課程修了,工学博士(京都大学),同年(株)豊田中央研究所入社,2000年名古屋商科大学教授,IEEEICCD'84優秀論文賞,IJCNNBestPresentationAward受賞.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N04-02
|
\section{はじめに}
\label{sec:intro}今日,Webからユーザーの望む情報を得る手段としてGoogleなどのサーチエンジンが一般的に利用される.しかし,ユーザーの検索要求に合致しないWebページも多数表示されるため,各ページがユーザーの望む情報を含むかどうかを判断するのに時間と労力を割かなければならない.このような負担を軽減するための検索支援手法として,検索結果をクラスタに分類して表示するWeb文書クラスタリングが挙げられる.Webページのクラスタリング手法として,WebページのHTMLタグの構造\cite{Orihara08}やWebページ間のリンク関係\cite{Ohno06,Wang02}などWebページに特有の情報を用いた手法も提案されているが,Webページの内容(Webページに含まれるテキスト・文章)に基づく手法が一般的であり,多くの手法が提案されている\cite<e.g.,>{Eguchi99,Ferragina05,Hearst96,Hirao06,Narita03,Zamir98}.Webページの内容に基づくクラスタリング手法は,{\bfWebページ間の類似度に基づく手法}と{\bf共通する語句に基づく手法}に大別できる\cite{Fung03}.前者は,ベクトル空間モデルなどを用いて各文書間の(非)類似度を計算し,k-means法などのクラスタリングアルゴリズムを適用する手法である.例えば,最初のWebページクラスタリングシステムと言われているScatter/Gather\cite{Hearst96}や江口らのシステム\cite{Eguchi99}はこの手法を用いている.類似度に基づく手法は文書クラスタリング手法として広く用いられている\cite{Kishida03}が,実時間性が要求される検索結果のクラスタリングにはあまり適していない.Webページ間の類似度を適切に計算するためには,Webページそのものを取得する必要があるが,その取得時間がかかるとともに,文書規模が大きくなると類似度計算にも時間がかかる.よって,サーチエンジンの検索結果をクラスタリングする手法として,Webページ(スニペット)集合に共通して出現する語句に基づく手法が多く用いられている\cite{Ferragina05,Fung03,Hirao06,Narita03,Zamir98}.この手法では,検索結果として得られるページタイトルやスニペットから何らかの方法を用いて基準となる語句を抽出し,それらの語句を含む文書集合をひとつのクラスタとする.一般的に,ひとつのWebページ(スニペット)には複数の頻出語句が含まれるため,この手法は本質的に非排他的なクラスタリング(ひとつの文書を複数のクラスタに割り振ることを許すクラスタリング)を行うことになる.この手法は,タイトルやスニペットの情報のみを用いるために情報の取得時間が短く,文書間の類似度を計算する必要がないために処理時間も短く,ノイズとなる単語が混ざりにくいなどの利点がある.さらに,\citeA{Zamir98}は,スニペットのみの情報を用いたクラスタリングの性能はWebページ全体を用いる場合に比べて遜色ないこと,共通語句に基づくクラスタリング手法がWebページ間の類似度に基づく手法よりも高性能であることを実験的に示している.共通語句に基づく手法で重要となるのが,クラスタのベースとなる語句の抽出手法である.既存研究では,文書頻度\cite{Hirao06,Osinski05,Zamir98},tfidf\cite{Ferragina05,Zeng04},検索結果のランキング\cite{Narita03},語句の長さ\cite{Zamir98,Zeng04}などの情報を用いて語句をランク付けし,上位の語句を選択するという手法が用いられている.しかし,この抽出方法では語句間の意味的な類似関係を考慮していないので,クラスタのベースとなる語句どうしが類似した話題を表していると,同じ文書を多く含む類似したクラスタを出力してしまうという欠点がある.特に,検索結果のWebページ集合には共通する話題が多いことを考えると,この問題点は深刻である.抽出語句からクラスタを作成した後に重複の大きいクラスタをマージする手法\cite<e.g.,>{Zamir98}も考えられているが,話題が似ているからクラスタが重複する場合(ひとつのクラスタとすべきである場合)と,複数の異なる話題が共通しているから重複する場合(別々のクラスタにすべきである場合)かの区別はできない.この問題に対して,本研究では,語句間の意味関係を考慮してクラスタのベースとなる語句を選択することによって,類似したクラスタをできるだけ出力せずにWebページを分類できると考える.さらに,作成されるクラスタに含まれる文書数はその語句の文書頻度と同じであるため,文書頻度が低い語句が重要語として多く選択される場合には,どのクラスタにも属さない文書の数が多くなってしまう.そこで抽出語句を基準にWebページ集合に含まれる単語のクラスタを作成し,単語グループから文書クラスタを作成することによって,どのクラスタにも属さないWebページを減らすことができると考えられる.本論文では,以上の考え方に基づいて,検索結果のスニペットとタイトルから互いに話題が類似しない重要語を抽出し,それらを核とした単語グループを生成し,単語グループに基づいてWebページをクラスタリングする手法を提案する.そして,実際に人手で分類したWebページ群を用いて従来手法(語句間の類似度を考慮しない方法)との比較評価を行い,本手法のほうがクラスタリング性能が高く,かつ類似したクラスタを生成してしまうという従来手法の問題点が解消できることを示す.
\section{単語グループに基づくWeb検索結果のクラスタリング手法}
\label{sec:method}\subsection{概要}\label{subsec:overview}提案する手法の概要は以下の通りである.\begin{enumerate}\itemユーザの入力したクエリを受け取り,Googleによる検索結果のタイトルとスニペットを文書として取得する.本論文の以下では,各ページのタイトルとスニペットをひとつの「文書」と呼ぶ.\item各文書に対して,茶筌(http://chasen-legacy.sourceforge.jp/)を用いて形態素解析を行う.\item形態素解析で名詞・英字と判断された単語から,複合名詞を含む名詞を抽出する.\item抽出した名詞から,クラスタの話題を表すと考えられる互いに類似していない重要語を,指定された文書クラスタ数だけ抽出する.\item手順(3)で抽出されたすべての単語に対して,各重要語から単語グループを生成する.\item単語グループを用いて,文書クラスタを生成する.\end{enumerate}以下の\ref{sec_WM}節から\ref{sec_bun}節では,上記の手順(3)から(6)の各処理の詳細を述べる.\subsection{形態素解析結果からの名詞抽出}\label{sec_WM}まず形態素解析により名詞及び英字と判断された単語を抽出する.この際に,非自立の名詞や代名詞などは除き,英字の連続はひとつの名詞とする.また,各単語$w_i$の文書頻度$df(w_i)$($w_{i}$を含む文書数)を検索結果の文書集合全体から計算し,一定値$C_W$以下の単語を除外する.さらにクエリ及びクエリの一部となる単語は,ほぼ全ての文書に出現するため,手順(4)の重要語の抽出に大きな影響を及ぼすので除外する.次に,これらの単語から構成される名詞の$n$グラム(複合名詞)を,重要語候補として抽出すべきかどうかを判断する.例えば,文書集合中で「情報」や「検索」という名詞が,ほぼ「情報検索」という複合名詞でしか用いられていない場合には,「情報検索」をひとつの単位として抽出すべきである.また,形態素解析が固有名詞と認識できないために不適切に分解されてしまう固有名詞(例:「エースコック」)を適切に抽出することも意図している.以下の手法により,重要語の候補として抽出すべき(複合名詞を含む)名詞を決定する.\begin{enumerate}\item$\Sigma_1\leftarrow$(すべての単語の集合),$n\leftarrow1$とする.\item$\Sigma_{n+1}\leftarrow\phi$とする.\item集合$\bigcup_{i=1}^n\Sigma_i$中の単語$w_{i}$と,集合$\Sigma_n$中の単語$w_{j}$のすべての組み合わせ(ただし$w_i\neq{w_j}$)に対して,以下の処理を行う.\begin{enumerate}\item2つの単語をつなぎ合わせた語句$w_{i}w_{j}$,$w_{j}w_{i}$のうちで,全文書における出現頻度が高い方を合成候補$Str$とする.ただし,一方の単語がもう一方の単語を部分文字列として含む場合には,合成はせずに長いほうの単語を$Str$とする.\item全文書における$w_{i}$,$w_{j}$及び$Str$の出現頻度(\ref{sec_weight}節の式(\ref{eqn:tf})で定義される)をそれぞれ$tf(w_i)$,$tf(w_i)$,$tf(Str)$としたとき,次式で定義される値$WM$を計算する.\[WM=\frac{tf(Str)}{\max(tf(w_i),tf(w_j))}\]\item上記で計算した$WM$が閾値$C_{WM}(>0.5)$以上ならば,$\Sigma_{n+1}\leftarrow\Sigma_{n+1}\cup\{Str\}$,$\Sigma_1\leftarrow\Sigma_1-\{w_i\}$,$\Sigma_n\leftarrow\Sigma_n-\{w_j\}$とする.つまり,$w_{i}$,$w_{j}$の代わりに$Str$を複合名詞として用いることになる.\end{enumerate}\item$\Sigma_{n+1}=\phi$ならば,$\Sigma=\bigcup_{i=1}^n\Sigma_i$を複合名詞(重要語候補)の集合として終了する.$\Sigma_{n+1}\neq\phi$ならば,$n$を1増やしてから手順(2)に戻る.\end{enumerate}閾値$C_{WM}$を適切に(0.5より大きく)設定することによって,$w_{i}$や$w_{j}$が単独で出現するよりも複合名詞$Str$として出現することが多い場合に,複合名詞として抽出することができる.なお,本論文の以下では,複合名詞を含む重要語候補($\Sigma$の要素)のことを単に「名詞」や「単語」と表記する.\subsection{重要語の抽出}\label{sec_weight}前節で得られた名詞集合$\Sigma$から,以下の手順を用いて,重要語を抽出する.\begin{enumerate}\item抽出されたすべての名詞に対して,\ref{subsubsec:weight}節で述べる重み付け手法を用いて,ランク付けする.結果として得られた名詞のランク付きリストを$S$とする.\itemリスト$S$の中でランクの最上位にある名詞を取り出して,重要語とする.\item抽出した重要語との類似度(\ref{subsubsec:cosine}節参照)が基準値$C$以上のすべての名詞をリスト$S$から取り除く.なお,\ref{subsubsec:threshold}節で述べるように,基準値$C$は文書集合に応じて自動的に決定する.\item重要語の個数が指定されたクラスタ数$n$に満たない場合には,手順(2)に戻る.\end{enumerate}上記の手順(3)において,抽出された重要語と話題が類似する名詞を重要語(クラスタのベースとなる語)としないことによって,本手法は重要語どうしの類似度が低くなるように重要語を抽出する.なお,\ref{sec:intro}章で述べた従来の手法は,手順(1)で得られるリスト$S$のランク上位$n$個をクラスタのベースとなる重要語として抽出することに相当する.\subsubsection{名詞の重み付け}\label{subsubsec:weight}上記の手順(1)における名詞の重み付け手法としては,以下の基準が考えられる.なお,\ref{sec:evaluation}章で述べる評価実験では,これらのどの基準を用いても本手法のほうが優れていることを示す.\begin{description}\item[文書頻度df]名詞$w_i$の出現する文書数である$df(w_i)$の値が大きいほど,その名詞が重要であると考える.なお,計算に用いる文書は検索結果の文書集合全体である.\item[出現頻度tf]次式で計算される文書集合中の総出現頻度$tf(w_i)$が高い名詞が重要であると考える.\begin{equation}tf(w_i)=\sum_{j=1}^{N}tf(w_i,d_j)\label{eqn:tf}\end{equation}ただし,$tf(w_i,d_j)$は文書$d_j$における単語$w_i$の出現数,$N$は文書数をそれぞれ表す.\item[tfidf]次式で定義されるtfidf値が高い(特定の文書に多く出現する)名詞が重要であると考える.\begin{align}tfidf(w_{i})&=tf(w_i)\timesidf(w_i)\\idf(w_i)&=log_{2}\left(\frac{N}{df(w_{i})}\right)+1\end{align}\item[SP,LP\cite{Narita03}]次式で定義される$SP(w_i)$もしくは$LP(w_i)$が高い,つまり検索結果のランキング上位の文書に多く含まれる名詞ほど重要であるとする指標である.\begin{align}SP(w_{i})&=\sum_{j=1}^{N}\left[tf(w_{i},d_{j})\timessin\left({\frac{\pi}{1+\sqrt{j}}}\right)\right]\timesidf(w_{i})\\LP(w_{i})&=\sum_{j=1}^{N}\left[tf(w_{i},d_{j})\timeslog_{N}\left(\frac{N}{j}\right)\right]\timesidf(w_{i})\end{align}ただし,$d_j$はサーチエンジン(本研究ではgoogle)の検索結果のランキングが$j$番目の文書を表す.\item[TR\cite{Gelgi07}]$TR(w_i)$は単語をノード,共起の有無をエッジとするグラフのPageRankのように計算される値であり,$TR(w_i)$が高い(つまり重要な)単語と多く共起している単語は重要であると考える指標である.\begin{equation}TR^{(t+1)}(w_i)=\sum_{j=0}^{N}\frac{TR^{(t)}(w_{j})corres(w_i,w_j)}{\sum_{k=0}^{N}corres(w_k,w_j)}\label{eq:TR}\end{equation}ただし,{$corres(w_i,w_j)$}は{$w_i$}と{$w_j$}の共起回数,{$t$}は繰り返し計算回数を表し,{$TR^{(0)}(w_i)=tf(w_i)$}である.\end{description}\subsubsection{名詞どうしの類似度の計算}\label{subsubsec:cosine}上記の手順(3)において,名詞どうしの類似度$sim(w_i,w_j)$(抽出された重要語とリスト$S$に含まれる名詞との類似度)には,次式のコサイン(cos)類似度を用いる.\begin{equation}sim(w_i,w_j)=cos(V_{i},V_{j})=\frac{\sum_{k=1}^{N}{tf(w_i,d_k)\cdottf(w_j,d_k)}}{\sqrt{\sum_{k=1}^{N}tf(w_i,d_k)^2}\sqrt{\sum_{k=1}^{N}tf(w_j,d_k)^2}}\label{eqn:cosine}\end{equation}つまり,名詞$w_i$を,文書$d_k$における出現頻度$tf(w_i,d_k)$を要素とする$N$次元ベクトルで表現したときのコサイン類似度に相当する.\subsubsection{基準値$C$の設定}\label{subsubsec:threshold}基準値$C$が0.05〜0.5(0.05刻み)のいずれかの値をとるものとして,それぞれの値で実際に文書クラスタリングを行い,最も多くの文書を分類できる(つまりどのクラスタにも属さない文書が最も少ない)値を基準値$C$として採用する.ただし抽出した重要語が指定したクラスタ数に満たなかった場合\footnote{\ref{sec_weight}節の手順(3)において,重要語と類似しているとして多くの単語が取り除かれる場合に,このようが現象が生じるときがある.}には,指定したクラスタ数に最も近いものの中での最適値を基準値とする.なお,この判定に用いる文書クラスタリング手法は,\ref{subsec:word_clustering}節で述べる単語グループを用いた方法ではなく,本節で述べた方法で抽出した重要語を含む文書をクラスタとする方法である.\subsection{単語クラスタリング}\label{subsec:word_clustering}前節の方法で得られた重要語に対して,以下のアルゴリズムを用いて単語グループを生成する.\begin{enumerate}\item各重要語$x_i$に対応する単語グループ$WG_i$を以下の方法で生成する.\begin{enumerate}\item重要語$x_i$とのcos類似度((\ref{eqn:cosine})式)が基準値$C'$以上の名詞(重要語は除く)をリスト$S$からすべて抽出する.\item抽出した名詞集合に対し,重要語$x_i$とのcos類似度の平均値$M$を求める.\item重要語$x_i$とのcos類似度が平均値$M$以上の名詞のみを,その重要語を核とした単語グループ$WG_i$に含める.\end{enumerate}\item複数の単語グループに含まれる名詞を,すべての単語グループから取り除く.\end{enumerate}基準値$C'$は0.05〜0.5(0.05刻み)のいずれかの値をとるものとし,それぞれの値で実際に文書クラスタリングを行い,最も多くの文書を分類できる値を基準値$C'$として採用する.この判別に用いる文書クラスタリング手法は,\ref{sec_bun}節で述べる手法を用いる.\subsection{単語グループからの文書クラスタリング}\label{sec_bun}以下のアルゴリズムを用いて,単語グループから文書クラスタを生成する.\begin{enumerate}\item単語グループ$WG_i\,(i=1,\cdots,n)$に対応する空の文書クラスタ$DC_i=\phi$を生成する.\item以下の方法で,各文書$d_j\,(j=1,\cdots,N)$がどの文書クラスタに含まれるかを決定する.\begin{enumerate}\item文書$d_j$が単語グループ$WG_i$の核となった重要語$x_i$を含んでいれば,文書$d_j$を単語グループに対応する文書クラスタ$DC_i$に含める.(複数の重要語$x_i$を含んでいれば,複数の文書クラスタに属することになる.)\item全ての単語グループ$WG_i$に対し,以下の式で定義される$S_i(d_j)$を計算する.\begin{align}S_i(d_j)&=\frac{\sum_{w_k\in{WG_i}}\delta(w_k,d_j)}{|WG_i|}\\\delta(w_k,d_j)&=\begin{cases}1&\text{(名詞$w_k$が文書$d_j$に出現する場合)}\\0&\text{(名詞$w_k$が文書$d_j$に出現しない場合)}\end{cases}\nonumber\end{align}そして,$S_i(d_j)$の値が以下の不等式を満たすならば,文書$d_j$を文書クラスタ$DC_i$に含める.\begin{equation}S_i(d_j)\geq\frac{1}{2}\sum_{k=1}^nS_k(d_j)>0\end{equation}直観的に言うと,文書$d_j$が他の単語グループよりも単語グループ$CW_i$の単語を多く含んでいれば,その文書は$CW_i$に対応する文書クラスタ$DC_i$に分類されることになる.\end{enumerate}\end{enumerate}
\section{評価実験}
\label{sec:evaluation}\subsection{評価データ}Googleの検索結果を人手により分類したものを評価用の正解データとして用いた.正解データ作成にあたり20代の男女10人に協力を頼んだ.協力者が自由にクエリを入力して,Googleの検索結果上位30件をタイトルとスニペットのみから分類してもらい,15セットの正解データ(平均クラスタ数3.6,最大クラスタ数5,最小クラスタ数2,クラスタに含まれる文書数の平均9.040)を得た.正解データ作成のために協力者が選んだクエリを表{\ref{tab:query}に示す.検索結果を30件としたのは,検索エンジンのユーザの54\%が上位10件以内,73\%が上位20件以内の検索結果しか閲覧しないという調査結果\cite{Jansen03}から,検索結果30件をクラスタリングすることで十分な情報をユーザに与えられると考えたためである.なお,情報の少なさや内容の曖昧さから協力者が分類できないと判断した文書や文書数が1であるクラスタは正解データから除外した.\begin{table}[t]\caption{評価に用いたクエリ}\label{tab:query}\input{03table01.txt}\end{table}\subsection{評価方法}本研究の手法と比較手法のそれぞれを用いて,15セットの評価データのクラスタリングを行い,その性能を比較した.比較手法は,名詞の重み上位順に(\ref{sec_weight}節の概要の(1)のリスト$S$の順に)指定されたクラスタ数だけ重要語を抽出し,重要語を含む文書集合を文書クラスタとするという,\ref{sec:intro}章で述べた従来手法\cite<e.g.,>{Hirao06,Narita03,Zamir98}とした.両手法において,名詞の重み付けには\ref{subsubsec:weight}節の手法を用いた.また,システムが出力するクラスタ(以下,システムクラスタと呼ぶ)の数$n$は各正解データセットのクラスタ数とした.なお,正解クラスタ数より少ない重要語しか抽出できなかった場合には,空のクラスタを出力したとみなして評価を行った.さらに,提案手法によるクラスタリングにおいて,\ref{sec_WM}節における閾値を$C_W=2$,$C_{WM}=0.6$と設定した.\subsection{評価基準}評価基準として,F値,CR(clusteringratio),OR(overlappingratio)を用いる.これらの値はすべて各データセットごとに計算する.クラスタリングの精度を表すF値は以下の手順で求めることができる\cite{Orihara08}.まず,システムクラスタ$SC_i\(1\leqi\leqn)$と正解クラスタ$AC_j\(1\leqj\leqn)$のすべての対に対して,F値$F(SCi,ACj)$を次式で計算する.\begin{align}F(SC_i,AC_j)&=\frac{2\timesR(SC_i,AC_j)\timesP(SC_i,AC_j)}{R(SC_i,AC_j)+P(SC_i,AC_j)}\\R(SC_i,AC_j)&=\frac{|SC_i\capAC_j|}{|AC_j|}\\P(SC_i,AC_j)&=\frac{|SC_i\capAC_j|}{|SC_i|}\end{align}次に,次式の$F(M)$が最大となるようなシステムクラスタと正解クラスタの一対一対応$M$を求め,そのときの値をこのシステムクラスタのF値とする.\begin{equation}F(M)=\sum_{(SC_i,AC_j)\in{M}}\frac{|AC_j|}{\sum_{k=1}^n|AC_k|}\F(SC_i,AC_j)\end{equation}これは,システムクラスタと正解クラスタを2つの頂点集合として,それらの間の枝の重みを$\frac{|AC_j|}{\sum_{k=1}^n|AC_k|}F(SC_i,AC_j)$とする二部グラフの最大マッチング問題を解くことに相当する.CRは文書集合のうちのどれだけの割合の文書をクラスタに分類できるかを表しており,次式で計算される\cite{Narita03}.なお,{$N$}は検索結果の文書数である.\begin{equation}CR=\frac{\displaystyle\left|\bigcup_{i=1}^nSC_i\right|}{N}\end{equation}本研究で扱っている共通の語句に基づくクラスタリング手法では,どのクラスタにも属さない文書が生じてしまう可能性がある.したがってCRが高い(1に近い)ほうが望ましい結果であると言える.ORはクラスタ間で文書が重複する割合の平均であり,次式で計算される.\begin{equation}OR=\frac{1}{{}_n{C}_2}\sum_{i=1}^n\sum_{j=i+1}^n\frac{|SC_i\capSC_j|}{|SC_i\cupSC_j|}\end{equation}この値は単純に低いほど(もしくは高いほど)望ましいというわけではなく,正解クラスタのOR値に近いほうが望ましい結果であると言える.
\section{評価結果と考察}
本章では,\ref{sec:evaluation}章で述べた評価実験について,以下の観点から評価結果を述べるとともに,考察を行う.\begin{itemize}\itemクラスタリングの精度:正しい分類をしているか\itemクラスタリングの被覆度:どのくらいの文書をクラスタリングできるか\itemシステムクラスタ間の類似度:過度に類似したクラスタを出力していないか\item単語グループの必要性:互いに類似していない重要語を抽出するだけでは不十分か\item複合名詞の抽出手法:\ref{sec_WM}節における複合名詞抽出はどの程度影響があるか\end{itemize}なお,以下で示す評価値はすべて各セットごとに求めた値の平均値を用いている.\subsection{クラスタリング精度}\label{subsec:F}クラスタリングの精度を示す評価基準であるF値の結果(全セットの平均値)を表\ref{tab_F}に示す.なお,表\ref{tab_F}(およびこれ以降の表)において,「本手法」の値として「単語グループ無」と「単語グループ有」の2種類の値が示されている.「単語グループ有」の値は,\ref{sec:method}章で述べた提案手法による評価結果を示している.一方,「単語グループ無」の値は「\ref{subsec:overview}節の概要の手順(5)の単語クラスタリング(\ref{subsec:word_clustering}節)を行わず,手順(4)で抽出した重要語を含む文書の集合を文書クラスタとする方法」による評価結果である.つまり,本研究の提案手法と従来手法の中間に位置する手法と言える.単語グループを用いずに文書クラスタリングを行った場合の評価結果を示したのは,\ref{subsec:necessity}節で単語グループの必要性(類似していない重要語の抽出だけで十分かどうか)を検証するためである.\begin{table}[t]\caption{各手法におけるF値}\label{tab_F}\input{03table02.txt}\end{table}表\ref{tab_F}より,全ての重み付け手法において,本手法のF値は従来手法よりも高くなった.また従来手法と本手法(単語グループ有)間で平均値の差の検定を行ったところ,df,tf以外での重み付け手法において有意差が見られた({$p<0.05$}).dfとtfについても平均値の差は有意傾向(df:{$p=0.061$},tf:{$p=0.067$})となった.この結果から,本手法は従来手法よりもクラスタリング精度が高い(人手に近いクラスタリングを行うのに有効である)と言える.さらに,単語グループを考慮しなくても従来手法より性能が高いことから,\ref{sec_weight}節の重要語の抽出手法そのものも有効であると言える.特に,TRは検索結果を分類するのに有用な(discriminative)単語が上位にランクされやすい指標である\cite{Gelgi07}ので,TRに従来手法を適用しただけで意味的に類似したクラスタを生成しにくくなる可能性がある.しかし,従来手法のTRのF値(0.511)は本手法よりも有意に低い値であることから,この可能性は排除できる.つまり,表\ref{tab_F}の結果は,本研究の手法に基づいて重要語を抽出するほうがTRによるランキングに基づく手法よりも性能が高いことを示している.\subsection{クラスタリングの被覆度}\label{subsec:CR}クラスタの被覆度(クラスタに含まれる文書の割合)を表す評価基準であるCRの結果(全セットの平均値)を表\ref{tab_CR}に示す.表\ref{tab_CR}より,全ての重み付け手法において,本手法のCRは従来手法よりも高くなった.また従来手法と本手法(単語グループ有)間で平均値の差の検定を行ったところ,全ての重み付け手法において有意差が見られた({$p<0.05$}).この結果から,本手法は従来手法よりも多くの文書を分類できると言える.さらに,単語グループを考慮しなくても従来手法よりCRが高いことから,互いに意味的に類似しない単語のみを抽出する本研究の重要語抽出手法そのものがより多くの文書を分類するのに有効であると言える.\begin{table}[t]\caption{各手法におけるCR}\label{tab_CR}\input{03table03.txt}\end{table}\begin{table}[t]\caption{各手法における平均クラスタサイズ}\label{tab_Size}\input{03table04.txt}\end{table}しかし,本研究では非排他的クラスタリングを行っているので,単純により多くの文書をひとつのクラスタに含めてしまえば,つまり,クラスタのサイズを大きくしてしまえば,不適切にCRを高くすることが可能である.そこで,適切なクラスタサイズを保ちつつ本手法のCRが高くなっているかどうかを調べるために,表\ref{tab_Size}に平均クラスタサイズ(各クラスタに含まれる文書数の平均)を示す.表\ref{tab_Size}を見ると,本手法(単語グループ有)のクラスタサイズは従来手法よりは大きくなっているものの,正解データの平均クラスタサイズである9.040を大幅に越えるものはない.(重み付け手法がdfの場合にクラスタサイズが大きくなっているが,これは従来手法と本手法に共通した現象であり,本手法だけが不当にクラスタサイズを大きくしているわけではない.)さらに,単語グループを考慮しない場合には従来手法よりもクラスタサイズが小さくなっている.よって,本手法は,不当にクラスタサイズを大きくせずに,より多くの文書を分類することができると結論づけられる.\subsection{クラスタ間の類似度}\ref{sec:intro}章で述べた,不適切に類似したクラスタを出力してしまうという従来手法の問題点が本手法で解決されているかどうかを評価するために,クラスタ間の重複割合の平均値であるORの結果(全セットの平均値)を表\ref{tab_OR}に示す.全ての重み付け手法において,本手法のORは従来手法よりも低い値であり,正解クラスタの値(0.029)にかなり近くなっている.したがって,本手法は従来手法よりも類似したクラスタを出力しにくく,従来手法の問題点を解決していると言える.\begin{table}[t]\caption{各手法におけるOR}\label{tab_OR}\input{03table05.txt}\vspace{-1\baselineskip}\end{table}\subsection{単語グループの必要性}\label{subsec:necessity}本節では,本手法において単語グループを用いる場合と用いない場合の評価結果を比較することによって,単語グループを用いてクラスタリングすることの必要性を検証する.表\ref{tab_F}と表\ref{tab_CR}から,重み付け手法に関係なく,単語グループを用いたほうが用いないよりもF値,CRともに高いことがわかる.この結果は,単語グループの必要性を支持している.表\ref{tab_Size}のクラスタサイズに注目すると,単語グループを用いない場合には,正解データのクラスタサイズである9.040よりかなり小さいサイズになっている.これは,本研究の重要語抽出方法が出現頻度が低い名詞を抽出しやすいためである.一方,単語グループを用いた本手法のクラスタサイズは正解データのサイズ9.040と同程度である.したがって,出現頻度が低い単語が重要語として抽出された場合でも,単語グループを用いることによって適切なクラスタサイズの文書クラスタを生成できると言える.つまり,クラスタサイズの点からも単語グループが必要であると結論できる.なお,表\ref{tab_OR}のクラスタ間の類似度ORは単語グループの有無による差はほぼなく,単語グループを用いることは類似したクラスタを出力しないという利点そのものには貢献していない.しかし,単語グループを用いない場合と同程度のクラスタ類似度のままで性能(F値,CR)を向上させていることになり,総合的に単語グループの必要性を示しているといえる.\subsection{複合名詞の抽出手法の評価}\label{subsec:marge}本節では,{\ref{sec_WM}}節で述べた複合名詞の抽出手法の性能を評価するために,この抽出手法を用いる場合と用いない場合の評価結果の比較を行う.まず,{\ref{sec_WM}}節の単語合成手法で実際に抽出された複合名詞の例を表{\ref{tab:exe_WN}}に示す.{\ref{sec_WM}}節で意図したように,「情報」や「限定」などの一般的な単語に代わり,「店舗情報」,「限定発売」などの具体的な話題を表す複合名詞が抽出されている.また,形態素解析では複数の名詞に分割されてしまう「綿陽」のような地名や「ブロードバンド」のような専門用語も正しく抽出されている.\begin{table}[b]\caption{単語合成手法で抽出された複合名詞の例(括弧内は形態素解析による区切りを表す)}\label{tab:exe_WN}\input{03table06.txt}\end{table}\begin{table}[b]\caption{複合名詞抽出の有無によるF値の比較}\label{tab:nomarge_F}\input{03table07.txt}\end{table}\begin{table}[b]\caption{複合名詞抽出の有無によるCRの比較}\label{tab:nomarge_CR}\input{03table08.txt}\end{table}次に,複合名詞抽出を行う場合と行わない場合のF値,CR,ORをそれぞれ表{\ref{tab:nomarge_F}},表{\ref{tab:nomarge_CR}},表{\ref{tab:nomarge_OR}}に示す.表{\ref{tab:nomarge_F}}より,本手法では全ての重み付け手法で複合名詞抽出を行うほうが行わないよりもF値が高いことがわかる.一方,従来手法では,重み付け手法がLP,TRのときに複合名詞抽出を行うほうがF値が高くなるものの,その他の重み付け手法では同じ値となった.また表{\ref{tab_CR}}と表{\ref{tab_OR}}より,CRとORは従来手法,本手法の全ての重み付け手法においてほぼ同じ結果となった.以上の結果から,複合名詞抽出はクラスタリングの被覆度やクラスタ間の類似度にはあまり影響を与えないが,本手法のクラスタリング精度を向上させる効果があると結論できる.また,語句間の類似度を考慮しない従来方法に対しては,複合名詞抽出はほとんど効果がないと言える.\begin{table}[b]\caption{複合名詞抽出の有無によるORの比較}\label{tab:nomarge_OR}\input{03table09.txt}\end{table}\begin{table}[b]\caption{クエリ「伊右衛門」における重要語,単語グループ,文書クラスタ}\label{tab:exe_iemon}\input{03table10.txt}\end{table}\subsection{生成されたクラスタについて}\label{subsec:qualty}本節では,評価に用いたデータセットに対するクラスタリング結果の実例を示すことによって,本手法を定性的に考察する.表{\ref{tab:exe_iemon}}〜{\ref{tab:exe_choco}}に,いくつかのクエリによる検索結果を本手法でクラスタリングした結果(重要語,単語グループ,文書クラスタ)を示す.表{\ref{tab:exe_iemon}}のクエリ「伊右衛門」による検索結果のクラスタリング例では,3種類のクラスタ(サントリーから発売されている緑茶「伊右衛門」,京極夏彦の小説「嗤う伊右衛門」,「伊右衛門」をタイトルに含むブログ)が生成されているが,これらのクラスタは正解クラスタと一致する.一方,従来手法では,どの重み付け手法でも「ブログ」に関する単語(表{\ref{tab:exe_iemon}}では「日記」)が重要語として抽出されず,代わりに緑茶に関する単語(サントリー,飲料,緑茶など)が重複して重要語として抽出されてしまう.\begin{table}[t]\caption{クエリ「四川」における重要語,単語グループ,文書クラスタ}\label{tab:exe_shisen}\input{03table11.txt}\end{table}\begin{table}[t]\begin{center}\caption{クエリ「チョコボール」における重要語,単語グループ,文書クラスタの例}\label{tab:exe_choco}\input{03table12.txt}\end{table}表{\ref{tab:exe_shisen}}や表{\ref{tab:exe_choco}}の例を見ても,表{\ref{tab:exe_iemon}}と同様に,類似する単語が重要語として選ばれておらず,それらの重要語を核とする単語グループには,同じ話題を表す同義語や関連語(例えば,表{\ref{tab:exe_shisen}}の「地震」から「震源」や「ニュース」)が適切に分類されている.また,表{\ref{tab:exe_choco}}において,重要語「エンゼル」から「金」,「銀」,「確率」といった単語が選ばれ,「金(または銀)のエンゼルが当たる確率に関するページ集合」というように,文書クラスタの内容が推測しやすくなる単語グループも見られる.しかし,「商品」や「サイト」といった広い意味を持つ一般的な単語が単語グループに含まれてしまうために,結果的に文書クラスタの精度が下がってしまう例(表{\ref{tab:exe_shisen}}の「ゲーム」における「サイト」)も見受けられる.
\section{おわりに}
本研究では,サーチエンジンの検索結果としてのWebページ集合をクラスタリングするために,検索結果のスニペットとタイトルから互いに類似していない話題(トピック)を表す重要語を抽出し,それらの重要語を元に文書中の単語をクラスタリングして,それらの単語グループから文書クラスタを生成する手法を提案した.そして,評価実験を通して,重みによるランク上位の単語を単純に取り出してその単語を含む文書をクラスタとする従来手法に比べて,提案手法はクラスタリングの精度,被覆度ともに優れていることを示した.さらに,提案手法によって生成されるクラスタのサイズや重複割合も適切であることを明らかにした.これらの結果は,本研究の提案手法の有効性を示すものである.今後の課題としては,検索支援という観点からは検索結果を階層的にクラスタリングすることが望ましいので,本手法を階層的クラスタリングに応用することである.ひとつの適用方法としては,本手法を用いて生成したクラスタから出発して,それらを凝集もしくは分割していき,階層を生成することが考えられる.また,これに関係して,適切な(初期)クラスタ数をどのように自動に決めるかという課題も残されている.さらに,検索支援の観点からは,生成されたクラスタの内容が何かを示すことも重要であり,そのためのラベル付けや説明文の生成なども興味深い課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{江口\JBA伊藤\JBA隈元\JBA金田}{江口\Jetal}{1999}]{Eguchi99}江口浩二\JBA伊藤秀隆\JBA隈元昭\JBA金田彌吉\BBOP1999\BBCP.\newblock\JBOQ漸次的に拡張されたクエリを用いた適応的文書クラスタリング法\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ82-D-I}(1),\mbox{\BPGS\140--149}.\bibitem[\protect\BCAY{Ferragina\BBA\Gulli}{Ferragina\BBA\Gulli}{2005}]{Ferragina05}Ferragina,P.\BBACOMMA\\BBA\Gulli,A.\BBOP2005\BBCP.\newblock\BBOQAPersonalizedSearchEngineBasedon{W}eb-SnippetHierarchicalClustering.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalWorldWideWebConference(WWW'05)},\mbox{\BPGS\801--810}.\bibitem[\protect\BCAY{Fung,Wang,\BBA\Ester}{Funget~al.}{2003}]{Fung03}Fung,B.,Wang,K.,\BBA\Ester,M.\BBOP2003\BBCP.\newblock\BBOQHierarchicalDocumentClusteringUsingFrequentItemsets.\BBCQ\\newblockIn{\BemProceedingsofthe2003SIAMInternationalConferenceonDataMining},\mbox{\BPGS\59--70}.\bibitem[\protect\BCAY{Gelgi,Davulcu,\BBA\Vadrevu}{Gelgiet~al.}{2007}]{Gelgi07}Gelgi,F.,Davulcu,F.,\BBA\Vadrevu,S.\BBOP2007\BBCP.\newblock\BBOQTermRankingforClusteringWebSearchResults.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalWorkshoponWebandDatabases(WebDB2007)}.\bibitem[\protect\BCAY{Hearst\BBA\Pedersen}{Hearst\BBA\Pedersen}{1996}]{Hearst96}Hearst,M.\BBACOMMA\\BBA\Pedersen,J.\BBOP1996\BBCP.\newblock\BBOQReexaminingtheClusterHypothesus:Scatter/GatheronRetrievalResults.\BBCQ\\newblockIn{\BemProceedingsofthe19thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'96)},\mbox{\BPGS\76--84}.\bibitem[\protect\BCAY{Jansen\BBA\Spink}{Jansen\BBA\Spink}{2003}]{Jansen03}Jansen,B.\BBACOMMA\\BBA\Spink,A.\BBOP2003\BBCP.\newblock\BBOQAnAnalysisofWebDocumentsRetrievedandViewed.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonInternetComputing},\mbox{\BPGS\65--69}.\bibitem[\protect\BCAY{岸田}{岸田}{2003}]{Kishida03}岸田和明\BBOP2003\BBCP.\newblock\JBOQ文書クラスタリングの技法:文献レビュー.\JBCQ\\newblock{\BemLibraryandInformationScience},{\Bbf49},\mbox{\BPGS\33--75}.\bibitem[\protect\BCAY{成田\JBA太田\JBA片山\JBA石川}{成田\Jetal}{2003}]{Narita03}成田宏和\JBA太田学\JBA片山薫\JBA石川博\BBOP2003\BBCP.\newblock\JBOQWeb文書の非排他的クラスタリング手法及びその評価手法.\JBCQ\\newblock\Jem{データベースとWeb情報システムに関するシンポジウム(DBWeb2003)論文集},\mbox{\BPGS\85--92}.\bibitem[\protect\BCAY{大野\JBA渡辺\JBA片山\JBA石川\JBA太田}{大野\Jetal}{2006}]{Ohno06}大野成義\JBA渡辺匡\JBA片山薫\JBA石川博\JBA太田学\BBOP2006\BBCP.\newblock\JBOQMaxFlowアルゴリズムを用いたWebページのクラスタリング方法とその評価.\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf47}(SIG4(TOD29)),\mbox{\BPGS\65--75}.\bibitem[\protect\BCAY{折原\JBA内海}{折原\JBA内海}{2008}]{Orihara08}折原大\JBA内海彰\BBOP2008\BBCP.\newblock\JBOQHTMLタグを用いたWebページのクラスタリング手法.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf49}(8),\mbox{\BPGS\2910--2921}.\bibitem[\protect\BCAY{Osi\'nski\BBA\Weiss}{Osi\'nski\BBA\Weiss}{2005}]{Osinski05}Osi\'nski,S.\BBACOMMA\\BBA\Weiss,D.\BBOP2005\BBCP.\newblock\BBOQAconcept-drivenalgorithmforclusteringsearchresults\BBCQ\\newblock{\BemIEEEIntelligentSystems},{\Bbf20}(3),\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Wang\BBA\Kitsuregawa}{Wang\BBA\Kitsuregawa}{2002}]{Wang02}Wang,Y.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2002\BBCP.\newblock\BBOQEvaluatingContents-linkCoupled{W}ebPageClusteringfor{W}ebSearchResults.\BBCQ\\newblockIn{\BemProceedingsofthe11th{ACM}InternationalConferenceonInformationandKnowledgeManagement(CIKM'02)},\mbox{\BPGS\499--506}.\bibitem[\protect\BCAY{Zamir\BBA\Etzioni}{Zamir\BBA\Etzioni}{1998}]{Zamir98}Zamir,O.\BBACOMMA\\BBA\Etzioni,O.\BBOP1998\BBCP.\newblock\BBOQWebCocumentClustering:AFeasibilityDemonstration.\BBCQ\\newblockIn{\BemProceedingsofthe21stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'98)},\mbox{\BPGS\46--54}.\bibitem[\protect\BCAY{Zeng,He,Chen,Ma,\BBA\Ma}{Zenget~al.}{2004}]{Zeng04}Zeng,H.,He,Q.,Chen,Z.,Ma,W.,\BBA\Ma,J.\BBOP2004\BBCP.\newblock\BBOQLearningtoCluster{W}ebSearchResults.\BBCQ\\newblockIn{\BemProceedingsofthe27thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'04)},\mbox{\BPGS\210--217}.\bibitem[\protect\BCAY{平尾\JBA竹内}{平尾\JBA竹内}{2006}]{Hirao06}平尾一樹\JBA竹内孔一\BBOP2006\BBCP.\newblock\JBOQ複合名詞に着目したWeb検索結果のクラスタリング.\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2006--NL--175},\mbox{\BPGS\35--42}.\end{thebibliography}\begin{biography}\bioauthor{仁科朋也}{2008年電気通信大学電気通信学部システム工学科卒業.2010年同大学院電気通信学研究科システム工学専攻博士前期課程修了.在学中は自然言語処理の研究に従事.}\bioauthor{内海彰}{1988年東京大学工学部反応化学科卒業.1993年東京大学大学院工学系研究科情報工学専攻博士課程修了.博士(工学).東京工業大学大学院総合理工学研究科システム科学専攻助手,同研究科知能システム科学専攻専任講師を経て,2000年から電気通信大学電気通信学部システム工学科助教授,2010年より同大学院情報理工学研究科総合情報学専攻准教授となり,現在に至る.言語を中心とした認知科学,認知修辞学,言語情報処理の研究に従事.日本認知科学会,情報処理学会,言語処理学会,人工知能学会,CognitiveScienceSociety等各会員.}\end{biography}\biodate\end{document}
| |
V21N02-04
|
\section{はじめに}
現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析には様々なタスクがあるが,その中でも文書中の要素間の関係性を明らかにする述語項構造解析と照応解析は最も基本的かつ重要なタスクである.本稿ではこの両者をまとめて意味関係解析と呼ぶこととする.述語項構造解析では用言とそれが取る項の関係を明らかにすることで,表層の係り受けより深い関係を扱う.照応解析では文章中の表現間の関係を明らかにすることで,係り受け関係にない表現間の関係を扱う.意味関係解析の研究では,意味関係を人手で付与したタグ付きコーパスが評価およびその分析において必要不可欠といえる.意味関係およびそのタグ付けを以下の例\ref{意味・談話関係のタグ付け例}で説明する.\ex.\let\oldalph\let\alph\label{意味・談話関係のタグ付け例}今日はソフマップ京都に行きました。\\\label{意味・談話関係のタグ付け例a}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}行きました$\leftarrow$ガ:[著者],ニ:ソフマップ京都\\\end{tabular}\right)$\\時計を買いたかったのですが、この店舗は扱っていませんでした。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}買いたかった$\leftarrow$ガ:[著者],ヲ:時計\\店舗$\leftarrow$=:ソフマップ京都\\扱っていませんでした$\leftarrow$ガ:店舗,ヲ:時計\label{意味・談話関係のタグ付け例b}\end{tabular}\right)$\\時計を売っているお店をコメントで教えてください。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}時計$\leftarrow$=:時計\\売っている$\leftarrow$ガ:お店,ヲ:時計\\教えてください$\leftarrow$ガ:[読者],ヲ:お店,ニ:[著者]\label{意味・談話関係のタグ付け例c}\end{tabular}\right)$\global\let\alphここでA$\leftarrow${\textitrel}:BはAに{\textitrel}という関係でBというタグを付与することを表す.{\textitrel}が「ガ」「ヲ」「ニ」などの場合はAが述語項構造の{\textitrel}格の項としてBをとることを表わし,「=」はAがBと照応関係にあることを表す.また以降の例では議論に関係しないタグについては省略する場合がある.照応関係とは談話中のある表現(照応詞)が別の表現(照応先)を指す現象である\footnote{照応に類似した概念として共参照が存在する.共参照とは複数の表現が同じ実体を指す現象であるが,照応として表現できるものがほとんどなので,本論文では特に断りがない限り照応として扱う.}.ここでは,「店舗」に「=:ソフマップ京都」というタグを付与することで,この照応関係を表現している.述語項構造は述語とその項の関係を表したもので,例\ref{意味・談話関係のタグ付け例b}の「扱っていませんでした」に対してガ格の項が「店舗」,ヲ格の項が「時計」という関係である.ここで,ヲ格の「時計」は省略されており,一般に{\bfゼロ照応}と呼ばれる関係にあるが,ゼロ照応も述語項構造の一部として扱う.またゼロ照応では照応先が文章中に出現しない{\bf外界ゼロ照応}と呼ばれる現象がある.例えば,例\ref{意味・談話関係のタグ付け例a}の「行きました」や「買いたかった」のガ格の項はこの文章の著者であるが,この著者を指す表現は文章中には出現しない.外界の照応先として[著者],[読者],[不特定-人]\footnote{以降,外界の照応先は[]で囲う.}などを設定することで,外界ゼロ照応を含めた述語項構造のタグ付けを行う.これまでの日本語の意味関係解析の研究で主に用いられてきたのは意味関係を付与した新聞記事コーパスであった\cite{KTC,NTC}.しかし,テキストには新聞記事以外にも百科事典や日記,小説など多様なジャンルがある.これらの多様なテキストの中には依頼表現,敬語表現など新聞記事ではあまり出現しない言語現象も出現し,意味関係と密接に関係している.例えば例\ref{意味・談話関係のタグ付け例}の「買いたかった」のガ格が[著者]となることは意志表現に,「教えてください」のガ格が[読者],ニ格が[著者]になることは依頼表現に密接に関係している.このような言語現象と意味関係の関係を明らかにするためには,多様なテキストからなるタグ付きコーパスの構築とその分析が必要となる.そこで本研究ではニュース記事,百科事典記事,blog,商用ページなどを含むWebページをタグ付け対象として利用することで,多様なジャンル,文体の文書からなる意味関係タグ付きコーパスの作成を行う.上述のように,本研究のタグ付け対象には新聞記事ではあまり出現しない言語現象が含まれる.その中でも特に大きなものとして文章の著者・読者の存在が挙げられる.著者や読者は,省略されやすい,モダリティや敬語などと密接に関係するなど,他の談話要素とは異なった振る舞いをする.新聞記事では,客観的事実を報じる内容がほとんどのため,社説を除くと記事の著者や読者が談話中に出現することはほとんどない.そのため,従来のタグ付け基準では[著者]や[読者]などを外界の照応先として定義していたが,具体的なタグ付け基準についてはあまり議論されてこなかった.一方,本研究で扱うWebではblog記事や通販ページ,マニュアルなど著者や読者が談話中に出現する文書が多く含まれ,その中には従来のタグ付け基準では想定していなかった言語現象および意味関係が出現する.そのため,著者・読者が出現する文書でのタグ付け上の問題点を分析し,タグ付け基準を設けることが重要となる.著者・読者が出現する文書へのタグ付けでの1つ目の問題は,文章中で著者・読者に対応する表現である.\ex.\underline{僕}は京都に行きたいのですが,\underline{皆さん}のお勧めの場所があったら\underline{教えてください}。\\\label{例:著者・読者表現}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}僕$\leftarrow$=:[著者]\\皆さん$\leftarrow$=:[読者]\\教えてください$\leftarrow$ガ:皆さん,ヲ:場所,ニ:僕\end{tabular}\right)$例\ref{例:著者・読者表現}では,「僕」は著者に対応し,「皆さん」は読者に対応した表現となっている.本研究ではこのような著者や読者に対応する表現を{\bf著者表現},{\bf読者表現}と呼ぶこととする.著者表現,読者表現は外界ゼロ照応における[著者]や[読者]と同様に談話中で特別な振る舞いをする.例えば例\ref{例:著者・読者表現}の「教えてください」のように,依頼表現の動作主は読者表現に,依頼表現の受け手は著者表現になりやすい.本研究で扱う文書は多様な著者,読者からなり,著者読者,読者表現も人称代名詞だけでなく,固有表現や役割表現など様々な表現で言及され,語の表層的な情報だけからは簡単に判別できない.そこで本研究では著者表現,読者表現をタグ付けし,著者・読者の談話中での振る舞いについて調査した.2つ目の問題は項を明示していない表現に対する述語項構造のタグ付けである.日本語では一般的な事柄に対して述べる場合には,動作主や受け手などを明示しない表現が用いられることが多い.従来の新聞記事を対象としたタグ付けでは,[不特定-人]を動作主などとすることでタグ付けを行ってきた.一方,著者・読者が談話中に出現する場合には,一般的な事項について述べる場合でも動作主などを著者や読者と解釈できる場合が存在する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{曖昧性}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{曖昧性}の「公開する」の動作主であるガ格は,不特定の人が行える一般論であるが,著者自身の経験とも読者が将来する行為とも解釈することができ,作業者の解釈によりタグ付けに一貫性を欠くこととなる.本研究ではこのような曖昧性が生じる表現を分類し,タグ付けの基準を設定した.本研究の目的である多様な文書を含むタグ付きコーパスの構築を行うためには,多数の文書に対してタグ付け作業を行う必要がある.この際,1文書あたりの作業量が問題となる.形態素,構文関係のタグ付けは文単位で独立であり,文書が長くなっても作業量は文数に対して線形にしか増加しない.一方,意味関係のタグ付けでは文をまたぐ関係を扱うため,文書が長くなると作業者が考慮すべき要素が組み合わせ的に増加する.このため1文書あたりの作業時間が長くなり,文書全体にタグ付けを行うと,タグ付けできる文書数が限られてしまう.そこで,先頭の数文に限定してタグ付けを行うことで1文書あたりの作業量を抑える.意味関係解析では既に解析した前方の文の解析結果を利用する場合があり,先頭の解析誤りが後続文の解析に悪影響を与える.先頭数文に限定したコーパスを作ることで,文書の先頭の解析精度を上げることが期待でき,全体での精度向上にも寄与できると考えられる.本論文では,2節でコーパスを構成する文書の収集について述べ,3節で一般的な意味関係のタグ付けについて述べる.4節では著者・読者表現に対するタグ付け,5節では複数の解釈が可能な表現に対するタグ付けについて述べる.6節でタグ付けされたコーパスの性質について議論し,7節で関連研究について述べ,8節でまとめとする.
\section{タグ付与対象の文書の収集}
従来,意味関係タグ付きコーパスの構築は新聞記事を中心に行われてきた\cite{KTC,NTC}.しかし,新聞記事にはほとんど出現しない言語現象も存在し,そのような言語現象を研究するためには多様な文書を対象としたコーパスを構築する必要がある.本研究ではドメインなどを限定せずにWebを利用することで多様な文書を収集する.多様性を確保するためには,1文書あたりの作業負荷を低くする必要があるので,各文書の先頭3文にタグ付けを限定する.現在1,000文書のタグ付けが完了している.タグ付け対象を先頭3文とした理由は,以下の理由による.本研究では意味関係のうち特にゼロ照応関係を重視している.ゼロ照応における照応先の位置を京都大学テキストコーパス\cite{KTC}および\cite{sasano-kurohashi:2011:IJCNLP-2011}が実験で使用したWebコーパスについて調査した結果を表\ref{照応先の出現位置}に示す.この結果から,ゼロ照応関係は1文前までで約70\%,2文前までで約80\%に出現しており,ゼロ照応関係については先頭から3文までを扱うことで,多くの現象を収集できると考えられる.そのため本研究ではタグ付けする文数を3文とした.\begin{table}[b]\caption{照応先の出現位置}\label{照応先の出現位置}\input{ca04table01.txt}\end{table}本研究では,Webに存在する文書をタグ付け対象とすることで,多様な文書からなるコーパスの構築を目的とするが,Web上に存在する日本語の現象を網羅することやWebに存在する文書の分布を反映することについては重視していない.これは,以下の2つの問題による.1つ目の問題は,Web上には意味関係タグの定義および付与が困難な文書が多数存在することである.本研究では,京都大学テキストコーパスで定義された意味関係とその拡張である著者・読者表現のタグ付けを行う.京都大学テキストコーパスでは,新聞記事をタグ付け対象としており,そのタグ付け基準は以下のようなテキストを前提としていると言える.\begin{itemize}\item本文のみで内容を理解できる\item形態素や文節の単位が認定できる程度に固い文体で記述されている\item1文書は1人の著者により記述されている\end{itemize}本研究でも同様の基準でタグ付けを行うため,上記の条件を満たす文書のみをタグ付け対象として扱う.そのため,Webに存在する文書のうち以下のような文書をタグ付けから除くこととなり,そこに含まれる言語現象については扱うことができない.\begin{description}\item[イラストや写真などを参照する必要のある文書]本文のテキストのみだけでは,意味関係を推測できない\item[AAや顔文字などが含まれる文書]AAや顔文字などはテキストで表現されるが,文をまたぐことや中に言葉が入っていることが多く,範囲の定義が困難\item[掲示板やチャットなど対話形式の文書]著者が一貫しないので,著者・読者表現のタグ付けが困難であり,発言者情報や投稿の区切りなどの情報を付与する必要がある\end{description}2つ目の問題は,Web文書の真の分布が不明なことである.Webには誰でも文書をアップロードすることができる一方でクローリングを回避する手段が存在するなど,Web上の文書を網羅的に収集することは困難である.また,網羅的に収集することができたとしても,自動生成されたテキスト,引用・盗用されたテキストの存在などにより,意味関係コーパスとして利用するには不適当なものが大量に含まれると考えられる(404notfoundのページが多数含まれるなど).これらの問題から,本研究ではタグ付け対象のWebにおける網羅性などを目指すことはせず,タグ付け可能な文書に対して効率よく大量の文書にタグ付けを行うことを目標とした.上記のようにWebに存在する文書には,コーパスとして利用するには不適切な文書も多数存在している.これらのうちテキストのみでは内容の理解が困難な文書の定義や扱いについては\ref{意味・談話関係の理解が困難な文書の判定}節にて詳しく述べる.一方,過度にくだけた文体で記述された文書などテキストの内容からタグ付けが困難な文書の定義や扱いについては\ref{タグ付けに不適切な文書の判定}節にて詳しく述べる.これらの不適な文書を全て人手で確認し,選別することは非常にコストがかかる.そのため,まず簡単なルールで自動フィルタリングを行い,その後残った文書を人手で確認しコーパスとして適切な文書についてのみタグ付けの作業を行うこととした.ルールにおける自動フィルタリングにより除外される文書にはタグ付けに適当なものも多く含まれる.しかし,Web文書には大量の不適切文書が含まれるため,自動フィルタリングを行わない場合には,作業者が大量の文書の確認を行うことになる.また,上述のように本研究の目的は偏りなくWeb文書を収集することではなく大量の文書のタグ付けを行うことである.そこで本研究では人手によるフィルタリングの作業を減らし,タグ付け作業に時間を割くために,自動フィルタリングを行う.本研究では以下の手順でコーパスの構築を行った.\begin{enumerate}\item\cite{Kawahara2006}の手法によりWebからクローリングされたHTMLファイルから日本語文を抽出.\begin{enumerate}\item文字コード情報から日本語のWebページ候補を判定.\item助詞「が」「を」「に」「は」「の」「で」を0.5\%以上含むWebページを日本語Webページと判定.\item句点および$<$br$>$,$<$p$>$タグにより文単位に分割.\itemひらがな,カタカナ,漢字の割合が60\%以上の文のみを日本語文として抽出.\end{enumerate}\item各ファイルで抽出された最初の日本語文から連続して抽出された日本語文を日本語文書として抽出する.\item抽出された日本語文書の1文目が見出しかを自動判定(\ref{意味・談話関係の理解が困難な文書の判定}節で述べる).\begin{description}\item[見出しを持つ]見出しに続く3文をタグ付け対象として抽出.見出しを除いた3文で内容が理解できるかを自動判定.\item[見出しを持たない]先頭から3文をタグ付け対象として抽出.\end{description}\item抽出された3文に対してルールによるフィルタリング(\ref{タグ付けに不適切な文書の判定}節で述べる).\item人手によるフィルタリング.\label{手順:人手フィルタリング}\item人手によるタグ付け.\label{手順:人手タグ}\end{enumerate}なお,クローリングの際には日本語のWebページかの判定は行っているが,それ以外のドメインや内容によるフィルタリングは行っていない.また,実際には(\ref{手順:人手フィルタリング})の人手によるフィルタリングは,タグ付けの際に作業者が不適と判断した文書をタグ付けしないことで行う.\subsection{テキストのみからは意味関係の理解が困難な文書の判定}\label{意味・談話関係の理解が困難な文書の判定}発話や文書などの言語使用はある場・状況において行われ,場・状況は基本的に話者・著者と聴者・読者の間で共有されている.また,発話や文書の内容は場・状況となんらかの連続性を持っている.Webページにおいては,どのようなWebサイト内に掲載された文書なのか,またサイト内でどのような位置付けにある文書なのか,などがこれにあたる.形態素・構文レベルのタグ付きコーパスでは,各文を独立に扱うので,このような場・状況との連続性を考慮する必要はない.しかし,意味関係コーパスにおいては,この問題を考慮する必要がある.本研究ではコーパスとしてはテキストだけを扱うため,このような場・状況の情報がなくても意味関係を理解可能な文書のみをコーパスに含める.例えば,ニュース記事であれば,その文体からニュース記事であることが分かり,多くの場合その記事に記載されている内容はテキストのみから理解することが可能である.一方で,製品紹介ページ内の「使用上の注意」などのページの場合には,製品自体の知識がない場合には理解することが困難なことが多く,コーパスに含む文書としては不適である.このような文書はタグ付けの前に人手によりコーパスから取り除く.テキストは見出しを持つ場合があり,その見出しは場・状況との連続性において重要な役割を持つ場合がある.しかし,見出しは名詞句の連続など通常の文として成立していないものも少なくないため本研究ではタグ付け対象から除く.本研究では,文書が見出しをもつかどうかを自動的に判定する.WebにはHTMLタグなどの構造情報があるが,見出しを指定する$<$h$>$タグ以外で見出しが記述される場合があり,一方で$<$h$>$タグでマークアップされていても見出しではない場合もある.そこでHTMLのタグを用いずテキストの内容から見出しの判定を行う.1文目が句点で終わっていない場合または体言止めの場合に1文目を見出しと判定し,それ以外の場合には見出しなしとする.見出しなしの場合には先頭3文をタグ付け対象として抽出し,1文目が見出しの文書の場合には見出しを除いた後続の3文をタグ付け対象として抽出する.ただし,見出しを除くと意味関係の理解が困難になると考えられる文書は以下の手順で除去する.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA4f1.eps}\end{center}\caption{見出しの内容語が本文中に出現しない例}\label{見出しが本文中に出現しない例}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA4f2.eps}\end{center}\caption{見出しの内容語が先頭3文中に出現する例}\label{見出しの要素が先頭3文中に出現する例}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA4f3.eps}\end{center}\caption{見出しの内容語が先頭3文以外に出現する例}\label{見出しを除くと意味・談話関係の理解が困難になる例}\end{figure}図\ref{見出しが本文中に出現しない例}のようにblog記事の見出しが日付けの場合など,見出しの内容が本文の内容にほとんど関係ない場合には,見出しを除いても本文の意味関係の理解に影響を与えないと考えられる.このように本文に関係ない見出しの場合,見出し中の内容語が以降の文書中に出現しないと考えられる.見出し中の内容語が文書中に出現する場合でも,先頭3文中に出現する場合には,見出しを除いても先頭3文の意味関係は理解できると考えられる.図\ref{見出しの要素が先頭3文中に出現する例}の例では1文目が要約の役割を果たしており,見出し中の内容語が全て先頭3文に出現している.このような場合には見出しを除いても先頭3文の理解は可能であると考えられる.一方で見出し中の内容語が先頭3文以外に出現した場合には,コーパスとして利用する先頭3文だけで見出しの情報が復元できず,意味関係の理解が困難となると考えられる.図\ref{見出しを除くと意味・談話関係の理解が困難になる例}の例では見出しに含まれる「売布神社」が6文目に出現している.しかし先頭3文には「売布神社」は出現せず,先頭3文だけでは「売布神社」に向かうという意味関係の理解が困難である.そこで見出し中の内容語が先頭3文以外に出現する文書は見出しを除くと先頭3文の意味関係の理解が困難になるとし,自動で除去する.この後残された文書に対してもタグ付けの際に人手による判定を行い,抽出された3文だけでは意味関係が理解できない場合にはコーパスから除去する.\subsection{タグ付けに不適切な文書の判定}\label{タグ付けに不適切な文書の判定}Webから収集された文書には様々なものがあり,タグ付けを行うには不適切な文書も含まれる.本研究では以下のいずれかに該当するものはタグ付けが困難であるとして,コーパスに含めない.\begin{description}\item[理解に専門知識を必要とする]理解に専門的な知識を必要とする文書は作業者が理解できない場合があり,正しいタグ付けが困難である\item[文章に意味的連続性がない]収集された文書には本来は離れた位置にレンダリングされるテキストを連続したテキストとして抽出してしまったものが含まれる.このような文書は文をまたぐ意味関係のタグ付けができない\item[過度にくだけた文体で記述されている]過度にくだけた表現はタグ付けの基本単位となる形態素のタグ付けが困難である\end{description}\begin{table}[b]\vspace{-0.5\Cvs}\caption{ストップフレーズ}\label{ストップフレーズの例}\input{ca04table02.txt}\end{table}これらを除くために,まずタグ付け対象となる先頭3文の中に以下の要素を含む文書を自動で除去する.\begin{itemize}\item体言止めの文:修辞的な文や箇条書きの一部であることが多い\item句点で終わっていない文:テキストの抜き出し誤りであることが多い\item10文節以上ある文:過度にくだけた文体や非文は形態素解析において過分割される場合が多く,文節数も過度に多くなる傾向にある\itemローマ字:略語や伏せ字,専門用語であることが多い\item表\ref{ストップフレーズの例}のストップフレーズ:自動生成ページやWeb独特の表現を除くため\end{itemize}また,ミラーページや引用ページを除去するために,編集距離が50以下の文書ペアがあった場合には一方を除去する.この作業において50字以下の文書は全て削除されるが,3文で50字以下のテキストではほとんど意味関係が理解できないため全て削除しても問題ないと考えられる.自動判定の結果残った不適切な文書はタグ付けの前に人手で除去する.
\section{タグ付け}
\label{タグ付け内容と基準}\subsection{タグ付け内容}本コーパスに対して形態素,係り受け関係,固有表現,述語項構造,照応関係のタグ付けを行う.本研究の焦点は意味関係(述語項構造,照応関係)のタグ付けであるが,そのためにはタグ付け単位の設定などのために形態素,係り受け関係のタグ付けが必要となる.固有表現は意味関係のタグ付けには必要ないが,意味関係解析の際には重要な手掛かりとなるのでタグ付けを行う.これらのタグ付けは原則的に京都大学テキストコーパス\cite{KTC}とIREX\footnote{http://nlp.cs.nyu.edu/irex/NE/df990214.txt}の基準に準拠して付与し,一部では基準を変更した.本節ではこれらの基準のうち,本コーパスにおいて重要となる部分および本コーパスで基準を変更した点について述べる.述語項構造と照応関係のタグ付けの単位として,京都大学テキストコーパスと同様に,基本句を設定する.基本句とは自立語1語を核として,前後の付属語を付加した形態素列である.例\ref{複合語の例}に基本句単位での分割の例を示す.述語項構造と照応関係の情報は基本句ごとに付与し,述語項構造の項や照応関係の照応先も基本句とする.項や照応先が複合語の場合には,その主辞の基本句を照応先とする.例\ref{複合語の例}では,下線部の「党」の照応先は「国民新党」なので,その主辞の基本句である「新党」を照応先としてタグ付けする.\ex.7月/17日、/国民/新党/災害/対策/事務/局長と/して、/\underline{党}を/代表して/現地へ/向かいました。\label{複合語の例}\\\hspace*{4ex}(党$\leftarrow$=:新党)述語項構造は基本的に京都大学テキストコーパスと同様の基準で付与する.格はガ格,ヲ格,ニ格などの表層格と時間,修飾,外の関係などの関係を表す格として定義され,項としては直接係り受け関係にある項,文章内ゼロ照応の項,外界ゼロ照応の項の3種類がある.直接係り受け関係にある項,文章内ゼロ照応の項については,文章中の基本句から選択する.外界ゼロ照応では表\ref{外界ゼロ照応の照応先}に示す5種類の照応先の中から選択する.ここで,「不特定-人」は不特定の人だけでなく,文章中で言及されていない人全てを指す.述語項構造のタグ付け対象は述語のみでなく,事態性を持つ体言に対してもタグを付与する.京都大学テキストコーパスでは,二重主語構文に対するタグ付けとしてガ2格を設定し,以下の例のようにタグ付けを行っている.\ex.彼はビールが\underline{飲みたい}。\\\hspace*{4ex}(飲みたい$\leftarrow$ガ2:彼,ガ:ビール)京都大学テキストコーパスの基準では,例\ref{象}では「象が長い」とは言えないので,「象」は「長い」のガ2格と扱わないこととなっている.「象」は「長い」の主題にあたる役割を持っているが,この基準では述語項構造として「象」と「長い」が関係を持つことを表現できない.そこで,本コーパスでは主題を表す表現の場合にはガ2格とすることとした.\ex.象は鼻が\underline{長い}。\label{象}\\\hspace*{4ex}(長い$\leftarrow$ガ2:象,ガ:鼻)\begin{table}[t]\caption{外界ゼロ照応の照応先の一覧と例}\label{外界ゼロ照応の照応先}\input{ca04table03.txt}\end{table}照応関係のタグ付けは京都大学テキストコーパスに準拠する.京都大学テキストコーパスでは,照応関係を「=」(共参照関係),「ノ」(AのBと言い換えられる橋渡し照応),「≒」(それ以外)の3つに分けてタグ付けを行っている.また,照応関係は体言同士だけでなく述語同士および体言・述語間に対してもタグ付けされている.京都大学テキストコーパスでは,ある基本句のある格に対して複数の項を付与するために「AND」「OR」「?」の3つのタイプを定義している.「AND」は「AおよびBが〜」のように付与された項が並列の関係にあり,これらが共に行われる表現に対して利用される.例\ref{AND例}では「太郎」「花子」が共に「学校に行った」のでこれらを「AND」の関係で付与する.\ex.太郎と花子は学校に\underline{行った}。\label{AND例}\\\hspace*{4ex}(行った$\leftarrow$ガ:太郎AND花子)「OR」は「AまたはBが〜」のように付与され項が並列の関係にあり,どちらかが行われる表現に対して利用される.例\ref{OR例}では「持っていく」のは「太郎」または「花子」のどちらかであるので「OR」の関係で付与する.\ex.太郎か花子が\underline{持っていきます}。\label{OR例}\\\hspace*{4ex}(持っていきます$\leftarrow$ガ:太郎OR花子)「?」は文脈だけからは,複数の候補から実際の項を特定できない場合に付与される.例\ref{?例}では,「撤廃する」の主格は「高知県」,「橋本知事」,[不特定:人](高知県議員や職員)のいずれにも解釈できるので,「?」の関係で付与する.\ex.高知県の橋本知事は$\cdots$国籍条項を\underline{撤廃する}方針を明らかにした。\label{?例}\\\hspace*{4ex}(撤廃する$\leftarrow$ガ:高知県?橋本知事?不特定:人)
\section{著者・読者表現}
\label{著者・読者表現}談話において文書の著者・読者は特別な要素であり他の談話要素と異なった振舞いをする.従来の新聞記事コーパスでは,表\ref{外界ゼロ照応の照応先}で示したように文章中に出現しない外界ゼロ照応先として著者や読者などの要素を考慮していた.しかし,著者・読者は著者・読者表現として文章中に記述される場合がある.\ex.\underline{私}の担当するお客様に褒めて頂きました。\label{文章内例}\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}褒めて頂きました$\leftarrow$ガ:私,ニ:お客様\\私$\leftarrow$=:[著者]\end{tabular}\right)$例えば,例\ref{文章内例}では「私」が著者表現として文章中に記述されている.このような場合,従来のコーパスでは他の談話要素と同様の文章内ゼロ照応として扱い,著者や読者として特別には扱ってこなかった.しかし,文章中での著者や読者の振る舞いを調査するためには,このような文章中に記述された著者・読者表現の振る舞いも調査する必要がある.本研究では,例\ref{文章内例}の「私」が著者表現であることを共参照としてタグ付けすることとする.本研究で扱う文書は多様な著者によって多様な読者に向けて記述されており,著者・読者表現は人称代名詞に限らず様々な表現で記述される.例えば例\ref{こま}の「こま」のように固有名である場合や「主婦」や「母」などのように立場や役職などである場合が存在する.\ex.\let\oldalph\let\alph\label{こま}東京都に住む「お気楽\underline{主婦}」\underline{こま}です。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}主婦$\leftarrow$=:[著者]\\こま$\leftarrow$=:主婦\\\end{tabular}\right)$\\0歳と6歳の男の子の\underline{母}をしてます。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}母$\leftarrow$=:主婦\end{tabular}\right)$\global\let\alph本研究では人称代名詞に限らず,文書の著者・読者に対応する表現全てを著者・読者表現としてタグ付けを行った.著者・読者表現に対しては外界照応のタグとして「=:[著者]」,「=:[読者]」のタグを付与する.著者・読者表現が複合語の場合にはその主辞となる基本句に対して付与する.著者・読者は各文書で1人と仮定し,文書中で「=:[著者]」,「=:[読者]」それぞれ最大でも1基本句にしか付与しないこととする.共参照関係にあり著者・読者が複数回言及されている場合には,原則として初出となる著者表現に対して付与することとする.例\ref{こま}では下線部の3つの表現が著者表現だが,「主婦」に対して「=:[著者]」とタグ付けしている.\subsection{著者表現}本節では,著者表現を付与する際に問題となる,組織やホームページを指す表現の扱いについて述べる.企業など組織のホームページでは組織自身が人格や主体性をもっているかのように記述されることが多い.そのような場合には,実際の著者はホームページの管理者などであると考えられるが,その組織を著者として扱いタグを付与することとする.例\ref{病院}ではサイト管理者が「神戸徳洲会病院」を代表して記述していると考えられるので,その主辞である「病院」に対し「=:[著者]」を付与する.\ex.\underline{神戸徳洲会病院}では地域の医療機関との連携を大切にしています。\\\label{病院}\hspace*{4ex}(病院$\leftarrow$=:[著者])\\ご来院の際は、是非かかりつけの先生の紹介状をお持ち下さい。\\紹介状を持参頂いた患者様は、優先的に診察させて頂きます。また,例\ref{結婚}のようにWebサイト自体を指す表現においても同様に扱う.\ex.\underline{結婚応援サイト}は、皆さんの素敵な人生のパートナー探しを応援します。\\\label{結婚}\hspace*{4ex}(サイト$\leftarrow$=:[著者])店舗のページなどでは店舗を表す表現と店長や店員を表す表現が共に出現する場合がある.このような場合には,店舗と店長・店員のどちらが著者的に振る舞っているかを判断してタグ付けを行う.例\ref{店員}では店舗が著者的なので「スタッフ」ではなく「館」に「=:著者」を付与する.\ex.\underline{タウンロフト館}の店舗情報をお伝えします。\\\label{店員}\hspace*{4ex}(館$\leftarrow$=:[著者])\\ご来店予定の際にアクセスでお困りでしたら、\underline{当店スタッフ}までお気軽にご連絡下さい。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}当店$\leftarrow$=:館\\スタッフ$\leftarrow$ノ:当店\end{tabular}\right)$一方,例\ref{店長}では,店長である「かおりん」が著者として店舗を紹介しているので「かおりん」に対して「=:著者」を付与する.\ex.『ソブレ』アマゾン店,店長の\underline{かおりん}です。\\\label{店長}\hspace*{4ex}(かおりん$\leftarrow$=:[著者])\\新商品の情報や、かおりん日記を相棒☆みかんと一緒に紹介します。\subsection{読者表現}本コーパスで扱う文書はWebから収集されたものであり,不特定多数の人間が閲覧できる状態である.そのため厳密に常に読者を指す表現といえるのは二人称代名詞のみといえる.例\ref{皆さん}では,「皆さん」は二人称代名詞の敬語表現であり,読者表現としてタグ付けを行う.\ex.\underline{皆さん}は初詣はどこに行かれたでしょうか?\\\label{皆さん}\hspace*{4ex}(皆さん$\leftarrow$=:[読者])一方,不特定の人が閲覧できる状態であっても,多くの文書では著者が主な読者として想定する対象が存在する.本研究ではそのような対象を指す表現も読者表現にあたると定義してタグ付けを行う.例\ref{ぽすれん}は「ぽすれん登録会員」に対するガイドラインであるので,「ぽすれん登録会員」を読者表現とし,その主辞である「会員」に「=:[読者]」を付与する.\ex.\underline{ぽすれん登録会員}がコミュニティサービスをご利用いただくには、本ガイドラインの内容を承諾いただくことが条件となります。\\\label{ぽすれん}\hspace*{4ex}(会員$\leftarrow$=:[読者])一方,例\ref{方}では「写真を撮られた方」は著者にとって想定している読者のうちの一部であり,読者全体を想定した表現ではないので「方」は読者表現としては扱わない.\ex.桜の下で写真を撮られた\underline{方}も多いのではないでしょうか。\\\label{方}
\section{複数の解釈が可能な表現に対するタグ付け}
\label{複数付与基準}日本語では用言の動作主や受け手にあたる格要素が明示されない表現が用いられることがある.京都大学テキストコーパスでは明示されていない格要素の候補が文章中に出現する場合には\ref{タグ付け内容と基準}節で説明した「?」による複数付与によってタグ付けを行っている.また,候補が文章中の表現にないような場合でも,京都大学テキストコーパスが対象とする新聞記事では[不特定-人]を格要素としてタグ付けすればよい場合がほとんどである.一方,Webテキストのように著者・読者が談話構造中に出現する場合には,この明示されていない格要素を[不特定-人]だけでなく[著者]や[読者]としても解釈できる場合が多くある.本研究では,複数の解釈ができる場合には「?」の関係で解釈可能な全ての項を付与することとする.複数解釈可能な典型的表現についてはマニュアルを作成し,作業者に例示を行った.例示した内容は付録\ref{付録:複数付与基準}に示した.本節では,[著者],[読者]および[不特定-人]を格要素として解釈する際の基準について説明する.なお,以降の例では[著者],[読者]および[不特定-人]を例として紹介するが,[著者],[読者]については\ref{著者・読者表現}節で述べた著者表現,読者表現も同様に扱うものとする.\subsection{[不特定-人]を付与する基準}行為が一般論といえる場合,著者・読者以外で文章中で言及されていない人を指す場合には[不特定-人]を付与する.例\ref{不特定-焙煎}では,一般論と言えるので動作主にあたるガ格に[不特定-人]を付与する.\ex.コーヒー生豆とは\underline{焙煎する}前の裸の状態の豆をいい、グリーンコーヒーとも呼ばれています。\label{不特定-焙煎}\\\hspace*{4ex}(焙煎する$\leftarrow$ガ:[不特定-人],ヲ:豆)例\ref{不特定-2}では,文章中で言及されていないメールマガジンの会員が受け手と言えるのでニ格に[不特定-人]を付与する.この例では「是非ご登録ください」と書かれていることから,読者はまだメールマガジンの会員でないと考えられるので,[読者]は付与しない.\ex.メールマガジンではお得な情報を\underline{お送りしています}。是非ご登録ください。\label{不特定-2}\\\hspace*{4ex}(お送りしています$\leftarrow$ガ:[著者],ニ:[不特定-人])\subsection{[著者]を付与する基準}著者自身が実行したことがある,著者自身にもあてはまると解釈できる場合には[著者]を付与する.例\ref{著者-2}では,一般論といえるが,著者(鉄道会社)にもあてはまると解釈できるのでガ格に[不特定-人]に加えて[著者]も付与する.\ex.線路は列車の安全を確保し、快適な乗り心地を維持する状態に\underline{整備しておかなければなりません}。\label{著者-2}\\\hspace*{4ex}(整備しておかねばなりません$\leftarrow$ガ:[著者]?[不特定-人],ヲ:線路,ニ:状態)例\ref{田楽}では,一般論とも言えるが,著者自身が「源流を辿った」経験があるとも解釈できるのでガ格に「[著者]?[不特定-人]」を付与する.\ex.しかし名前からも察することができるように、源流を\underline{辿れば}「田楽」に行き当たる。\label{田楽}\\\hspace*{4ex}(辿れば$\leftarrow$ガ:[著者]?[不特定-人],ヲ:源流)\subsection{[読者]を付与する基準}依頼表現など読者に働きかけをする表現,読者に対して何かを勧めている表現の場合には[読者]を付与する.何かを勧める表現の場合,対象となる用言だけでなく,周辺の文脈も含めて判断する.例\ref{読者-1}では,読者に対して依頼しているのでガ格に[読者]を付与する.\ex.メールの際は必ず名前を\underline{添えてください}。\label{読者-1}\\\hspace*{4ex}(添えてください$\leftarrow$ガ:[読者])例\ref{読者-2}は通販サイト内の文である.ここで,「選択できます」自体は一般論と言えるが,ページ全体として読者に通販の利用を勧めていると解釈できるので,ガ格に[読者]および[不特定-人]を付与する.\ex.分割払いなど、多彩なお支払い方法から\underline{選択できます}。詳しくはガイドをご参照ください。\label{読者-2}\\\hspace*{4ex}(選択できます$\leftarrow$ガ:[読者]?[不特定-人])例\ref{著者-1}では,読者に勧めていると解釈できるのでガ格に[読者]を付与している.また,一般論とも著者自身の経験とも解釈できるので[著者]および[不特定-人]も付与している.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{著者-1}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{読者-3}では著者が読者を勧誘する表現になっているので[読者]を付与する.Webサイトを通してのやりとりであるが,説明の過程で著者も同時に見ていると仮定して「AND」で付与する.\ex.まずは株式市場の分類を\underline{見てみましょう}。\label{読者-3}\\\hspace*{4ex}(見てみましょう$\leftarrow$ガ:[著者]AND[読者])
\section{作成されたコーパス}
現在までに,3人の作業者により1,000文書のタグ付け作業が終了している.本節ではコーパスを作成した手順について説明し,その後作成されたコーパスの統計量およびその性質について議論を行う.作成されたコーパスの統計量およびその性質についての議論では,まず,コーパスの基本的な統計と文体などの性質について議論する.次に,著者・読者の談話への出現とその振る舞いについて議論する.これらの議論において必要に応じて新聞記事コーパスである京都大学テキストコーパスとの比較を行う.最後に作業者間でのタグ付けの一致度について議論する.\subsection{タグ付け作業の手順および環境}タグ付け作業の際にはまず形態素解析器JUMANver.6.0\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN},構文解析器KNPver.3.01\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}のデフォルト設定により自動でタグ付けを行い,その後GUIのツールを利用してタグの付与および自動付与されたタグの修正を行った.各文書に対して一人の作業者が作業した後に別の作業者が内容の確認・修正を行った.タグ付けの際には作業者に与えられた情報は,タグ付け対象となる3文のテキストおよびそのテキストがWeb上から収集されたという情報だけである.作業者は3名であり,全員がコーパスへのタグ付け作業の経験者である.作業開始前に京都大学コーパスのマニュアル\footnote{http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/syn\_guideline.pdfおよびhttp://\linebreak[2]nlp.\linebreak[2]ist.\linebreak[2]i.\linebreak[2]kyoto-u.\linebreak[2]ac.jp/\linebreak[2]nl-resource/\linebreak[2]corpus/\linebreak[2]KyotoCorpus4.0/\linebreak[2]doc/\linebreak[2]rel\_guideline.pdf},著者・読者表現の定義および例を配布した.事前作業として,3人が同一の50文書に対してタグ付けを行い,特に著者・読者表現に対してのタグ付けの疑問点の確認および基準の修正を行った.その後,1,000記事に対してタグ付け作業を行ったところ,\ref{複数付与基準}節で述べた複数解釈可能な表現が問題となることが分かった.そこで,作業者を交えてタグ付け基準について検討し,その結果を付録\ref{付録:複数付与基準}として配布した.新たな基準に基づいて上記1,000記事の修正作業を行った.現在は5,000記事を目標として作業を進行中である.作業中においても,タグ付けの疑問点等については,筆者らと相談のうえで作業を進めている.作成されたコーパスには文書情報として文書を取得したURLを付与する予定である.なお,コーパスにタグ付けされた意味関係はテキストのみに基いており,意味関係コーパスとしてはURL情報は必須的なものではない.\subsection{コーパスの統計量}作成されたコーパス記事の統計を表\ref{コーパスの統計}に示す.比較のため京都大学テキストコーパスの統計も合わせて示した.本コーパスでは1文あたりの形態素数が約17個であり,京都大学テキストコーパスの約26個と比較して1文あたりの形態素数が少ない傾向にある.本コーパスでは意味関係のタグ付け対象である基本句のうち約2/3に対して,何らかの意味関係が付与された.\begin{table}[b]\caption{コーパスの統計}\label{コーパスの統計}\input{ca04table04.txt}\end{table}\begin{table}[b]\caption{モダリティが出現する文の割合}\label{モダリティ}\input{ca04table05.txt}\end{table}文体の差異を調査するために,両コーパスにおいてモダリティ,敬語表現を含む文の割合を表\ref{モダリティ},表\ref{敬語}に示す.なお,モダリティ,敬語表現はKNPにより自動で付与されたものである.また,「全て」はいずれかのモダリティ,敬語表現が含まれた文の割合を示す.表\ref{モダリティ}から本コーパスには依頼,勧誘,命令,意志など著者から読者への働きかけを持つモダリティが多く含まれる.意志のモダリティは京都大学テキストコーパスにも多く含まれているが,これは発言の引用内での使用が多かったためである.逆に,京都大学テキストコーパスでは評価:強や認識-証拠性などが多く含まれている\footnote{評価:強の例としては「関係を無視した暴言と\underline{言わざるを得ない}。」,認識-証拠性の例としては「海部政権誕生の願望が\underline{込められているようだ}。」がある.}.これらのモダリティは報道記事や社説で広く使われる表現であり,本コーパスとの文体の差を示していると言える.表\ref{敬語}から,本コーパスでは80\%近い文で何らかの敬語表現が使用されていることが分かる.尊敬表現,謙譲表現も高い割合で使用されており,本コーパスでは読者の存在を意識した文書が多く含まれると考えられる.\begin{table}[b]\caption{敬語が出現する文の割合}\label{敬語}\input{ca04table06.txt}\end{table}\begin{table}[b]\caption{人手による記事タイプの分類}\label{記事分類}\input{ca04table07.txt}\vspace{-1\Cvs}\end{table}本コーパスではドメインなどを限定せずに文書をWebから収集したため多様な文書が含まれている.タグ付けされた文書の傾向を調べるため,タグ付けされた文書を人手で13種類に分類した.その分類結果が表\ref{記事分類}である.表\ref{記事分類}から企業・店舗ページ,ブログ・個人ページ,辞典・解説記事を中心に多様な文書がタグ付けされたことが分かる.さらに,同じ企業・店舗ページであっても,企業のページだけでなく,学校や公共機関,地方自治体のページなど様々なページから収集された文書が含まれている.また,タグ付けされた文書の中には企業ページ内の広報用blogのような,一意にジャンル分けすることが難しいものも存在した\footnote{今回は企業・店舗ページに分類した.}.\subsection{著者・読者表現}タグ付けされたコーパスにおける著者,読者の文書ごとの出現数を表\ref{ドキュメントごとの一人称・二人称の出現}に示す.「出現あり」のうち「表現あり」は文書中に著者・読者表現としてタグ付けされた表現のある文書の数を表す.「表現なし」は著者・読者表現はないが外界ゼロ照応の照応先として出現している文書の数を表す.著者の場合は約7割,読者の場合は約5割の文書において談話に出現することが分かる.また,著者,読者ともに多くの文書において,外界ゼロ照応の照応先としてのみ出現することが分かる.\begin{table}[b]\caption{文書ごとの著者・読者の出現}\label{ドキュメントごとの一人称・二人称の出現}\begin{center}\input{ca04table08.txt}\end{table}\begin{table}[b]\begin{minipage}{0.45\hsize}\input{ca04table09.txt}\end{minipage}\begin{minipage}{0.45\hsize}\input{ca04table10.txt}\end{minipage}\vspace{-1\Cvs}\end{table}著者・読者表現として使われた語を主辞のJUMAN代表表記により調査した結果,著者表現は145種類,読者表現は25種類の表現が存在した.その例と出現回数を表\ref{著者表現の例}と表\ref{読者表現の例}に示す\footnote{代表表記は「皆様/みなさま」のような形式で表現されるが,表では「皆様」にあたる部分のみを表示している.}.なお,ここでは著者・読者表現と共参照関係にある表現も著者・読者表現として扱った\footnote{例\ref{こま}であれば,「主婦」「こま」「母」を全て著者表現とした.}.著者表現では,「私」が56回と一番多く使われている.これはブログ記事において特に多く使用されていた.「私」や「僕」などのブログで使われると思われる表現では,「わたし」「あたし」,「ぼく」「ボク」などの若干くだけた表記も用いられていた.しかし,「私」の場合「私」が56回中53回,「僕」では「僕」が11回中7回と,多くは漢字での表記が用いられていた.また,「弊社」「当社」など企業が自社を表す表現も多く見られた.「管理人」「主婦」「監督」などの立場を表す表現や「協会」「病院」などの組織を表す表現,「ローソン」「真理子」など固有名など多様な表現で出現することが分かる.またコーパス全体で1度しか出現しなかった表現が106表現,2度しか出現しなかった表現が24表現と,文書固有の著者表現も多かった.読者表現では二人称代名詞の敬語表現である「皆様」や「皆さん」が多く出現した.これはWebページで読者を想定するのは企業ページの商品販売サイトが多いため,読者に対して敬語を用いることが多いためである.これらの表現でも「皆様」であれば「みなさま」「皆さま」,「皆さん」では「みなさん」などの異表記も用いられていた.これらの表現では,上述の一人称代名詞と異なり,「皆様」が26回中17回,「皆さん」が7回中4回であり,比較的様々な表記が用いられていた.また「客」や「会員」など企業ページで想定される読者を指す表現も多く見られた.「生徒」「ドライバー」「市民」など文書特有の読者を想定する表現も見られる.著者,読者両方の表現で用いられるものとしては「自分」が見られた.\subsection{ゼロ照応関係}\begin{table}[b]\caption{本コーパスにおけるゼロ照応の個数}\label{ゼロ照応の個数}\input{ca04table11.txt}\end{table}タグ付けされたゼロ照応の個数を表\ref{ゼロ照応の個数}に示す.また,文章内ゼロ照応の照応先の内訳を表\ref{本コーパスの文章内ゼロ照応の内訳}に外界ゼロ照応の照応先の内訳を表\ref{本コーパスの外界ゼロ照応の内訳}に示す.なお,表\ref{本コーパスの文章内ゼロ照応の内訳}で著者,読者とは,ゼロ代名詞の照応先が著者,読者表現または著者,読者表現と共参照関係であることを表す\footnote{例\ref{こま}であれば,「主婦」「こま」「母」が照応詞になる場合に著者に分類される.}.表\ref{ゼロ照応の個数}から特にガ格においてゼロ照応が多いことが分かる.また,ガ格,ニ格,ガ2格において外界ゼロ照応の割り合いが高いことが分かる.表\ref{本コーパスの文章内ゼロ照応の内訳}と表\ref{本コーパスの外界ゼロ照応の内訳}から他の格に比べてガ格,ガ2格において著者が照応先になる割合が高いことが分かる.このことから用言の動作主が著者であることが多いことが分かる.一方,ニ格は他の格に比べて読者が照応先となることが多い.これは「[著者]ガ[読者]ニお勧めする」や「[著者]ガ[読者]ニ販売しています」といった,著者が読者に何らかの働きかけをする表現が多いためと考えられる.\begin{table}[b]\caption{本コーパスの文章内ゼロ照応の内訳}\label{本コーパスの文章内ゼロ照応の内訳}\input{ca04table12.txt}\end{table}\begin{table}[b]\caption{本コーパスの外界ゼロ照応の内訳}\label{本コーパスの外界ゼロ照応の内訳}\input{ca04table13.txt}\end{table}\begin{table}[b]\caption{京都大学テキストコーパスにおけるゼロ照応の個数}\label{KTCのゼロ照応の個数}\input{ca04table14.txt}\end{table}比較のために京都大学テキストコーパスにおけるゼロ照応の個数を表\ref{KTCのゼロ照応の個数}に,外界ゼロ照応の内訳を表\ref{KTCの外界ゼロ照応の内訳}に示す.京都大学テキストコーパスには著者・読者表現が付与されていないので,文章内照応の内訳は調査できなかった.この比較から,本コーパスでは外界ゼロ照応の割合が京都大学テキストコーパスに比べて非常に高いことが分かる.特にガ格,ニ格,ガ2格においてその傾向が顕著である.これらの格では外界ゼロ照応の照応先を比較すると,本コーパスにおいて[著者]や[読者]が多いが,京都大学テキストコーパスではほとんどない.新聞記事では文書の著者や読者が談話に登場することはほとんどないが,Web文書では頻繁に登場する.この違いがゼロ照応の照応先としても表れているといえる.\begin{table}[t]\caption{京都大学テキストコーパスにおける外界ゼロ照応の内訳}\label{KTCの外界ゼロ照応の内訳}\input{ca04table15.txt}\end{table}\begin{table}[t]\caption{複数付与のタグが付与された関係数}\label{複数付与数}\input{ca04table16.txt}\end{table}\ref{複数付与基準}節で示した複数の解釈が可能な表現に対するタグ付けを調査するために,[著者],[読者],[不特定-人]のいずれかが付与された項とそのうち複数が付与された項の数を表\ref{複数付与数}に示す.表\ref{複数付与数}より,[著者],[読者],[不特定-人]のいずれかが付与された項のうち約13\%が複数の解釈が可能であることが分かる.また,[不特定-人]が付与されたもののうち約半数において複数の解釈が可能となっている.\subsection{作業者間一致度}著者・読者表現および述語項構造のタグ付けの一致度を調査するために,3人の作業者が100記事に対してタグ付けを行った.これらのタグ付けに必要な形態素,構文関係および共参照関係については3人の作業者の相互確認のうえであらかじめタグ付けを行い,その後独立に著者・読者表現および述語項構造のタグ付けを行った.著者・読者表現の一致度は文書単位で一方の作業者を正解とした場合のF1スコアにより求めた.その結果を表\ref{著者・読者表現一致度}に示す.著者・読者表現が一致しなかったものを確認したところ,ほとんどの事例では作業者による作業ミスと考えられるものであった.実際の作業では全ての文書に対して異なる作業者による確認作業を行っているので,このようなものは取り除かれると考えられる.\begin{table}[t]\caption{著者・読者表現一致度}\label{著者・読者表現一致度}\input{ca04table17.txt}\end{table}一方,作業者の判断のゆれが原因と考えられるものとしては例\ref{スタッフサービス}があった.この文書では一人の作業者のみが「スタッフサービス」が著者表現と判断し,他の二人は著者表現なしと判断した.「スタッフサービス」が著者表現とした作業者は,「スタッフサービス」が人材派遣サービスの企業名だと判断し,著者表現なしと判断した作業者は派遣業一般の言い換えと判断したと考えられる.このような一般的な名詞とも著者表現ともとれる表現は3文の文脈のみからは判断が難しいことが分かる.\ex.\underline{スタッフサービス}には一般事務だけではなく、医療機関専門に派遣されるスタッフサービスメディカルもあります。\label{スタッフサービス}また,タグ付け作業時に基準を設定しなかったことによるずれとしては例\ref{猫}があった.この文書では「私」がモニターの上で過ごすと書かれていることから,猫などを擬人的に扱ったブログであると考えられる.実際の著者は飼い主であると考えられ,このような場合に著者表現をどのように扱うかを定義していなかったために,作業者間で「私」を著者として扱うかの判断が分かれた.\ex.\label{猫}台風が通り過ぎるたびに寒くなっていきますね。\underline{私}は暖かい場所を求めて会社の中を彷徨います。今日はこのモニターの上で過ごすことにしましょう。同様に,一人称視点の小説などで主人公を表す表現でも同様の問題が起こると考えられ,今後は実際の著者以外の人物が著者的に振る舞う場合の著者表現について定義する必要がある.述語項構造の一致度は格ごとに以下の式で計算した.{\allowdisplaybreaks\begin{align*}F1(B;A,\mathit{rel})&=\frac{2\times\mathit{Recall}(B;A,rel)\times\mathit{Presicion}(B;,rel)}{\mathit{Recall}(B;A,rel)+\mathit{Presicion}(B;A,rel)}\\[1ex]\mathit{Recall}(B;A,\mathit{rel})&=\frac{\displaystyle\sum^{}_{\mathit{pred}\in\textit{anno-pred}(A,rel)}\frac{|\mathit{anno}(A,\mathit{rel},\mathit{pred})\bigcap\mathit{anno}(B,\mathit{rel},\mathit{pred})|}{|\mathit{anno}(A,\mathit{rel},\mathit{pred})|}}{|\textit{anno-pred}(A,\mathit{rel})|}\\[1ex]\mathit{Precision}(B;A,\mathit{rel})&=\frac{\displaystyle\sum^{}_{\mathit{pred}\in\textit{anno-pred}(B,\mathit{rel})}\frac{|\mathit{anno}(A,\mathit{rel},\mathit{pred})\bigcap\mathit{anno}(B,\mathit{rel},\mathit{pred})|}{|\mathit{anno}(B,\mathit{rel},\mathit{pred})|}}{|\textit{anno-pred}(B,\mathit{rel})|}\end{align*}}ここで,$\textit{anno-pred}(A,\mathit{rel})$は作業者Aが\textit{rel}(e.g.,ガ,ヲ,ニ…)という格を付与した基本句の集合を表し,$\mathit{anno}(A,\mathit{rel},\mathit{pred})$は作業者Aが基本句\textit{pred}に\textit{rel}の格で付与した項の集合とする.$\mathit{anno}(A,\mathit{rel},\mathit{pred})$が複数の項からなる集合の場合,本来「AND」「OR」「?」の関係を持つが,一致度の調査では考慮しなかった.なお,$\mathit{Recall}(B;A,\mathit{rel})$,$\mathit{Precision}(B;A,\mathit{rel})$は精度と再現率の用言ごとのマクロ平均と言える.\begin{table}[b]\caption{用言の述語項構造の一致度}\label{用言一致度}\input{ca04table18.txt}\end{table}\begin{table}[b]\caption{動作性体言の述語項構造の一致度}\label{体言一致度}\input{ca04table19.txt}\end{table}表\ref{用言一致度}と表\ref{体言一致度}に用言と動作性を持つ体言に対するタグ付けの一致度の平均を示す.全体として係り受け関係にある項で一致度が高い傾向にある.特に用言のガ格,ヲ格,ニ格で高い傾向にあるが,これらの格の場合には助詞として格が明示されていることが多いためである.文章内ゼロ照応と外界ゼロ照応の項では格によって差はあるがおおむね似たような一致度であり,その一致度は係り受けのある項よりも低い.また用言の一致度に比べ動作性体言の一致度が低い傾向にあることが分かる.用言において作業者間のタグ付けが一致しないものでは,用言が取る格が一致していないものが多くあった.このようなものは大きく分けて3種類に分類することができる.一つ目は項は同じものを付与しているが,付与する格が異なるものである.例\ref{春雨}では「春雨がくせがない」「くせが春雨にない」と2通りの表現が可能なため,作業者によってタグ付けが分かれた.\ex.くせの\underline{ない}春雨は、サラダ・和えもの・炒めもの・鍋物と様々な料理に使えます。\label{春雨}\a.(ない$\leftarrow$ガ:くせ,ニ:春雨)\label{春雨a}\b.(ない$\leftarrow$ガ2:春雨,ガ:くせ)このようなずれはガ2格で多く見られたが,例\ref{降る}のようなニ格とデ格のずれなどでも見られた.\ex.唐松岳に行くつもりだったが、ライブカメラで現地の様子を確認すると、もう雨が\underline{降っている}。\label{降る}\a.(降っている$\leftarrow$ガ:雨,ニ:唐松岳)\label{降るa}\b.(降っている$\leftarrow$ガ:雨,デ:唐松岳)このようなずれがあった場合,例\ref{春雨}のようなガ2格に関するずれの場合には,ガ2格以外を優先することとし,例\ref{春雨}では\ref{春雨a}とタグ付けした.それ以外の場合には,どちらも間違いとは言えない場合には,どちらがより自然な表現かを作業者間で多数決を行うこととし,例\ref{降る}では\ref{降るa}をタグ付けした.二つ目は用言の解釈が分かれたものである.例\ref{イメージ}の「イメージさせる」では,他動詞として考えるとニ格として[不特定-人]をとる.しかし,ニ格をとらずに「色合いが海をイメージさせる」として,「色合い」の性質を表す表現としても解釈できる.そのため,作業者間ではニ格に[不特定-人]を付与するか何も付与しないかで判断が分かれた.\ex.床板には深い海を\underline{イメージさせる}色合いのガラスを落とし込んでおります。\label{イメージ}\a.(イメージさせる$\leftarrow$ガ:色合い,ヲ:海,ニ:[不特定-人])\label{イメージa}\b.(イメージさせる$\leftarrow$ガ:色合い,ヲ:海)同様に例\ref{得られた}でも「得られた」を可能と解釈するか,受け身と解釈するかでタグ付けが分かれた.\ex.ここに今までに\underline{得られた}資料の一部を公表し、広く皆さまからの資料提供を願っております。\label{得られた}\a.(得られた$\leftarrow$ガ:[著者],ヲ:資料)\label{得られたa}\b.(得られた$\leftarrow$ガ:資料)このような場合には項を取る格が多くなる方を選択することとした.これはタグ付けされる項が多い方が述語項構造の持つ情報量が多くなるためである.例\ref{イメージ}では\ref{イメージa}を,例\ref{得られた}では\ref{得られたa}をタグ付けした.三つ目は必須的な格への[不特定-人],[不特定-物]などの付与漏れである.これらは文章中に出現しない項であり,意識的に用言の格構造を考えなければ必須的な格であっても見落しやすいと考えられる.例\ref{載せたい}の「載せたい」ではニ格は必須的な格であり[不特定-物]\footnote{「載せる」対象はこのサイトであるが,文章中に表現が存在しないので[不特定-物]とする.}を付与する必要がある.タグ付けでは一人の作業者のみがニ格に何も付与しておらずこの作業者の見落しといえる.\ex.私の作詞の作品や身近の出来事や政治経済の事を\underline{載せたい}と思います。\label{載せたい}\\\hspace*{4ex}(載せたい$\leftarrow$ガ:私,ヲ:作品AND出来事AND事,ニ:[不特定-物])このような誤りについては,作業の際に複数の作業者による確認を行うことで訂正することが可能であると考えられる.本研究で定義した複数の解釈が可能な表現に対するタグ付けが一致していないものはほとんど見られなかった.一致していなかったもののうち,文脈からは判断が難しいために作業者間の解釈が分かれたものとして例\ref{サイコ}がある.例\ref{サイコ}の「判断する」では,著者が「サイコロジカルライン」を読者に勧めている,と解釈すると\ref{サイコa}のようにタグ付けすることとなる.一方,単なる「サイコロジカルライン」の説明と解釈する場合でも,「投資家」や投資についての研究者([不特定-人])が利用する手法だと解釈すれば\ref{サイコb}のようにタグ付けし,研究者のみが利用する手法だと解釈すれば\ref{サイコc}のようにタグ付けすることとなる.どの解釈が正しいかは今回タグ付け対象とした3文だけからは困難である.そこで今回はそのような場合には解釈可能なタグを全て付けることとし,\ref{サイコd}のようにタグ付けを行った.一方,文書全体にタグ付けする際などには後続文の内容から解釈が一意に定まると考えられるので,格要素が明示されていない表現へのタグ付けの基準自体には問題はないといえる.\ex.サイコロジカルとは、日本語に訳すと『心理的』という意味です。\\\label{サイコ}サイコロジカルラインは、投資家心理に基づいて、買われすぎか売られすぎかを\underline{判断する}時に利用します。\\直近12日間で、終値が前日の株価を上回った確率を示すのが一般的です。\a.(判断する$\leftarrow$[著者]?[読者]?[不特定-人])\label{サイコa}\b.(判断する$\leftarrow$[不特定-人]?投資家)\label{サイコb}\b.(判断する$\leftarrow$[不特定-人])\label{サイコc}\b.(判断する$\leftarrow$[著者]?[読者]?[不特定-人]?投資家)\label{サイコd}\z.動作性体言に対するタグ付けの一致度は用言に対するタグ付けに比べて低くなっている.これは体言は動作性を持つ場合にのみ用言としての述語項構造のタグ付けを行うが,作業者によって体言が動作性を持つかの基準が異なっていたことである.例えば例\ref{トンカツ}では一人の作業者のみが動作性を持つとして\ref{トンカツa}のように述語項構造を付与したが,他の作業者は体言として\ref{トンカツb}のようにタグを付与した.この場合にも,項を取る格が多くなる方を選択することとし\ref{トンカツa}をタグ付けした.\ex.我々日本人は、生のキャベツの千切りをトンカツの\underline{付け合わせ}にしている。\label{トンカツ}\a.(付け合わせ$\leftarrow$ガ:日本人,ヲ:千切り,ニ:トンカツ)\label{トンカツa}\b.(付け合わせ$\leftarrow$ノ:トンカツ)\label{トンカツb}
\section{関連研究}
日本語の述語項構造および照応関係タグ付きコーパスとしては,京都大学テキストコーパス\cite{KTC}とNAISTテキストコーパス\cite{NTC}があり,述語項構造解析や照応解析の研究に利用されている\cite{笹野2008b,imamura-saito-izumi:2009:Short,iida-poesio:2011:ACL-HLT2011}.これらのコーパスは1995年の毎日新聞に述語項構造および照応関係を付与したコーパスである.新聞記事は内容が報道と社説に限られており,文体も統一されているため,新聞記事以外の意味関係解析への適応には不向きである.様々なジャンルからなる日本語コーパスとしては現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}がある.このコーパスは書籍,雑誌などの出版物やインターネット上のテキストなどからなるコーパスである.このコーパスでは,書籍などについては幅広いジャンルのテキストから構築されているが,インターネット上のテキストは掲示板やブログなどに限定されている.このためインターネット上に多数存在する企業ページや通販ページなどはコーパスには含まれない.また,BCCWJに意味関係を付与する研究も行われている.一つ目は\cite{JapaneseFrameNet}によるBCCWJに日本語FrameNetで定義された意味フレーム情報,意味役割,述語項構造を記述する試みである.この研究ではBCCWJのコアデータに含まれる用言と事態性名詞に対して項構造の記述を行っている.しかしFrameNetではゼロ代名詞の有無は述語項構造に含まれるものの,先行詞が同一文内にない場合にはその照応先の情報を付与していない.また,照応関係の情報も付与されておらず,文をまたぐ意味関係の情報は付与されていない.二つ目は\cite{小町2012bccwj}による,述語項構造と照応関係のアノテーションである.この研究では,NAISTテキストコーパスと同様の基準で述語項構造と照応関係をタグ付けしている.述語項構造についてはNAISTテキストコーパスと同様にガ格,ヲ格,ニ格など限られた格にしか付与されていない.しかし,NAISTテキストコーパスでは付与されている橋渡し照応などの関係は付与されていない.日本語以外で複数のジャンルに渡って意味関係を扱ったコーパスとしては,OntoNote\cite{hovy-EtAl:2006:HLT-NAACL06-Short}やZ-corpus\cite{Z-corpus},LMC(LiveMemoriesCorpus)\cite{LMC}などがある.OntoNoteは英語,中国語,アラビア語の新聞記事,放送原稿,Webページなどからなるコーパスで,コーパスに含まれる一部のテキストは複数言語による対訳コーパスとなっている.構文木,述語項構造,語義,オントロジー,共参照,固有表現などが付与されている.Z-corpusはスペイン語の法律書,教科書,百科事典記事に対しゼロ照応の情報を付与したコーパスである.ゼロ照応のみを扱っており,前方照応や述語項構造の情報は付与されていない.スペイン語ではゼロ照応は主語のみに発生するため,述語項構造の情報とは独立にゼロ照応の情報を記述できるためである.LMCはイタリア語のWikipediaとblogに照応関係のタグ付けをしたコーパスである.照応関係としてゼロ照応も扱っているが,述語項構造は扱っていない.イタリア語もゼロ照応は主語のみに発生するので,このコーパスではゼロ照応の起こった用言を照応詞としてタグ付けしている.
\section{まとめ}
本研究ではWebを利用することで多様な文書からなる意味関係タグ付きコーパスを構築した.本研究では意味関係のタグとして,述語項構造と照応関係の付与を行った.また,文書の著者・読者に着目し,その表現に対してタグ付けを行った.タグ付けを先頭3文に限定することで1文書あたりの作業量を減らし,1,000文書へのタグ付けを行った.タグ付けされた文書を人手で確認した結果,ブログ記事,企業ページなど多様な文書が含まれていた.構築されたコーパスを分析した結果,多くの文書において談話に著者・読者が出現し,多様な著者・読者表現で記述されること,また特にゼロ照応において重要な役割を持つことを確かめた.コーパス作成は5,000文書を目標として現在も作業中である.完成後は研究利用を前提としての公開を予定している.\acknowledgment本コーパスのタグ付け作業に協力していただいた,石川真奈見氏,二階堂奈月氏,堀内マリ香氏に心から感謝致します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Hovyet~al.}{2006}]{hovy-EtAl:2006:HLT-NAACL06-Short}Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2006\BBCP.\newblock\BBOQOntoNotes:The90\%Solution.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,CompanionVolume:ShortPapers},\mbox{\BPGS\57--60},NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{NTC}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{iida-poesio:2011:ACL-HLT2011}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\804--813},Portland,Oregon,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura-saito-izumi:2009:Short}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\85--88},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{KTC}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara2006}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{小町\JBA飯田}{小町\JBA飯田}{2011}]{小町2012bccwj}小町守\JBA飯田龍\BBOP2011\BBCP.\newblockBCCWJに対する述語項構造と照応関係のアノテーション.\\newblock\Jem{日本語コーパス平成22年度公開ワークショップ},\mbox{\BPGS\325--330}.\bibitem[\protect\BCAY{小原}{小原}{2011}]{JapaneseFrameNet}小原京子\BBOP2011\BBCP.\newblock日本語フレームネットの全文テキストアノテーション:BCCWJへの意味フレーム付与の試み.\\newblock\Jem{言語処理学会第17回年次大会},\mbox{\BPGS\703--704}.\bibitem[\protect\BCAY{Rello\BBA\Ilisei}{Rello\BBA\Ilisei}{2009}]{Z-corpus}Rello,L.\BBACOMMA\\BBA\Ilisei,I.\BBOP2009\BBCP.\newblock\BBOQAComparativeStudyofSpanishZeroPronounDistribution.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalSymposiumonDataandSenseMining,MachineTranslationandControlledLanguages(ISMTCL)},\mbox{\BPGS\209--214}.\bibitem[\protect\BCAY{Rodr\'iguez,Delogu,Versley,Stemle,\BBA\Poesio}{Rodr\'iguezet~al.}{2010}]{LMC}Rodr\'iguez,K.~J.,Delogu,F.,Versley,Y.,Stemle,E.~W.,\BBA\Poesio,M.\BBOP2010\BBCP.\newblock\BBOQAnaphoricAnnotationofWikipediaandBlogsintheLiveMemoriesCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheSeventhConferenceonInternationalLanguageResourcesandEvaluation(LREC'10)},\mbox{\BPGS\157--163},Valletta,Malta.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2008}]{笹野2008b}笹野遼平\JBA黒橋禎夫\BBOP2008\BBCP.\newblock自動獲得した名詞関係辞書に基づく共参照解析の高度化.\\newblock\Jem{自然言語処理},{\Bbf15}(5),\mbox{\BPGS\99--118}.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{sasano-kurohashi:2011:IJCNLP-2011}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\758--766},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\end{thebibliography}\appendix
\section{複数解釈可能な表現の例とタグ付け基準}
label{付録:複数付与基準}\ref{複数付与基準}節で示した複数解釈可能な表現のタグ付けにおいて,典型的表現として作業者に例示したものを示す.なお\ref{複数付与基準}節と同様に[著者],[読者]は著者表現,読者表現に対しても同様に考えることとする.以降の例で文頭に括弧内で書かれている内容は,例文の書かれている文脈についての情報である.\subsection*{著者の考えや経験を述べた表現}著者の経験や考えを述べた表現において[著者]だけでなく[不特定-人]を付与するかどうかは以下のように判断する.\paragraph{[著者]のみを付与する場合:}著者のみが当てはまり,他の人にはあてはまらないと考えられる場合には動作主にあたる格に[著者]のみを付与する.具体的には,ブログにおける著者の自身の出来事や感想,謙譲表現の主体などがあたる.\ex.今回始めて\underline{訪店しましたが}、素敵なお店だと\underline{思いました}。\label{著者のみ1}\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}訪店しましたが$\leftarrow$ガ:[著者]\\思いました$\leftarrow$ガ:[著者]\\\end{tabular}\right)$\paragraph{[著者]および[不特定-人]を付与する場合:}以下のような場合には動作主にあたる格に「[著者]?[不特定-人]」を付与する.\begin{description}\item[・一般論だが著者にもあてはまる]例\ref{?著者+不特定-1}では,「整備しておかなければならない」のは一般論だが,この文書では著者は鉄道会社と考えられ,著者自身にもあてはまると解釈できる.\ex.線路は列車の安全を確保し、快適な乗り心地を維持する状態に\underline{整備しておかなければなりません}。\label{?著者+不特定-1}\\\hspace*{4ex}(整備しておかねばなりません$\leftarrow$ガ:[著者]?[不特定-人])\item[・著者自身が経験したことで,一般にもあてはまる]例\ref{?著者+不特定-2}では,著者自身が鹿を見た経験を持つと考えられるが,「できます」という表現により一般の人にもあてはまると解釈できる.\ex.(ブログ内にて)蓼科ではいたるとことで鹿を\underline{見ることができます}。\label{?著者+不特定-2}\\\hspace*{4ex}(見ることができます$\leftarrow$ガ:[著者]?[不特定-人])\item[・著者自身が実行したか分からない]例\ref{?著者+不特定-3}では,文脈だけからは乳牛を育てている著者が飼料を栽培しているのか,飼料販売会社が栽培しているのかが分からない.\ex.乳牛のエサは有機肥料を用いて\underline{栽培した}飼料を使用しています。\label{?著者+不特定-3}\\\hspace*{4ex}(栽培した$\leftarrow$ガ:[著者]?[不特定-人])\end{description}\subsection*{読むこと自体が行為の受け手となる表現}「紹介します」「お教えします」などの表現は,読むこと自体がその行為の受け手となるため特別に扱う必要がある.\paragraph{[読者]のみを付与する場合:}「紹介します」「お教えします」の具体的な内容が直後に書かれている場合には受け手にあたる格に[読者]のみを付与する.この場合には,その文章を読んだ人(読者)のみが受け手となるからである.\ex.今まで中々結婚にたどりつけなかった理由を\underline{お教えしましょう}。\label{?サービス-4}\\\hspace*{4ex}(お教えしましょう$\leftarrow$ガ:[著者],ニ:[読者])\\幸せな結婚の為にはまず、あなた自身の内面と向き合う必要があります。\paragraph{[読者]および[不特定-人]を付与する場合:}「紹介します」「お教えします」などがWebサイト全体のことを指している場合には,受け手にあたる格要素に「[読者]?[不特定-人]」を付与する.これは,Webサイトにおける「当サイトの紹介」ページなどでは,そのページを読んだだけではそのサイト全体を読んでいるとは限らないためである.\ex.このページでは、免許取得のための講座を\underline{ご紹介していきます}。\label{?サービス-1}\\\hspace*{4ex}(ご紹介していきます$\leftarrow$ガ:[著者],ニ:[読者]?[不特定-人])\ex.見ごたえのある作品を当サイトにて\underline{ご紹介させて頂いております}。\label{?サービス-2}\\\hspace*{4ex}(ご紹介させて頂いております$\leftarrow$ガ:[著者],ニ:[読者]?[不特定-人])\subsection*{勧誘的表現}\paragraph{[著者]および[読者]を付与する場合:}勧誘した行為を著者も行うと解釈できる場合には[著者]および[読者]を付与する.この場合には著者と読者が同時に行うと考えられるので「AND」の関係とする.例\ref{勧誘-1}のような場合には,著者が読者に株式市場の分類を見るように促し,また説明のため著者も見ていると考えられる.Webサイトを通してのやりとりであり実際に同時に見るわけではないが,説明の過程で同時に見ていると仮定して「AND」で付与する.\ex.まずは株式市場の分類を\underline{見てみましょう}。\label{勧誘-1}\\\hspace*{4ex}(見てみましょう$\leftarrow$ガ:[著者]AND[読者])\paragraph{[読者]のみを付与する場合:}勧誘した行為を著者が行わないと解釈できる場合には[読者]のみを付与する.例\ref{勧誘-2}や例\ref{勧誘-3}では,著者は読者に勧めているが,著者自身は実行しないと考えられるので[読者]のみを付与する.\ex.(旅行会社のサイト内で)様々な無人島が沖縄にはありますので、いろいろ\underline{チャレンジしてみましょう}。\label{勧誘-2}\\\hspace*{4ex}(チャレンジしてみましょう$\leftarrow$ガ:[読者])\ex.リフレックスで不動産を\underline{売却してみませんか}。\label{勧誘-3}\\\hspace*{4ex}(売却してみませんか$\leftarrow$ガ:[読者])\subsection*{使役的表現}使役表現や依頼表現では[読者]のみを付与する.\ex.直接\underline{予約してください}。\label{使役-1}\\\hspace*{4ex}(予約してください$\leftarrow$ガ:[読者])\ex.メールの際は必ず名前を\underline{添えてください}。\label{使役-2}\\\hspace*{4ex}(添えてください$\leftarrow$ガ:[読者])\subsection*{会員制のサービス,メールマガジン等の紹介}\paragraph{[読者]および[不特定-人]を付与する場合:}読者を会員などと仮定している場合には,そのサービスは会員である[読者]および読者以外の会員([不特定-人])が利用できるので「[読者]?[不特定:人]」を付与する.\ex.(会員制の通販のページで)分割払いなど、多彩なお支払い方法から\underline{選択できます}。詳しくはガイドをご参照ください。\label{サービス-1}\\\hspace*{4ex}(選択できます$\leftarrow$ガ:[読者]?[不特定-人])\paragraph{[不特定-人]のみを付与する場合:}読者をまだサービスに加入していない人と仮定し,そのサービスを紹介している場合には,この段階では読者はサービスを受けていないので[不特定-人]のみを付与する.\ex.メールマガジンではお得な情報を\underline{お送りしています}。是非ご登録ください。\label{サービス-2}\\\hspace*{4ex}(お送りしています$\leftarrow$ニ:[不特定-人])\subsection*{著者が読者に勧めている表現}一般的な事項であるが,著者が読者に勧めているような表現の場合には[読者]および[不特定-人]を付与する.また,そこに[著者]を加えるかは以下のように判断する.\paragraph{[著者],[読者]および[不特定-人]を付与する場合:}著者自身も実行した経験から勧めていると考えられる場合には,「[著者]?[読者]?[不特定-人]」を動作主にあたる格に付与する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{勧める-1}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:ブログ)\paragraph{[読者]および[不特定-人]を付与する場合:}著者が自社製品を紹介している場合など,著者自身は実行していないと考えられる場合には,「[読者]?[不特定-人]」を動作主にあたる格に付与する.\ex.吊るし紐付きですので、部屋に吊るして\underline{飾る}事もできます。\label{勧める-2}\\\hspace*{4ex}(飾る$\leftarrow$ガ:[読者]?[不特定-人])\begin{biography}\bioauthor{萩行正嗣}{2008年京都大学工学部電気電子工学科卒業.2010年同大学大学院情報学研究科修士課程修了.現在,同大学院博士後期課程在学中.日本語ゼロ照応解析の研究に従事.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞等を受賞.}\end{biography}\biodate\end{document}
| |
V06N04-04
|
\section{はじめに}
日本語の指示詞については豊富な研究史が存在するが,それは日本語が豊かな指示詞の体系を持ち,さまざまな興味深い振る舞いを見せてくれるからである.談話構造との関わりから眺めた場合にも,未だ充分解決されていない,重要な問題が多数浮かび上がってくる.本稿は,指示詞の分析から談話構造の理論的研究へと向かう一つの切り口を提示することを目指す.本稿で特に問題としたいのは,日本語の指示詞の体系における,指示の機能の上での等質性と異質性である.結論の一部を先取りして言えば,指示詞の3系列(コ・ソ・ア)の内,ソ系列はコ系列およびア系列に対して異質な性格を多く持っている.この異質性を突き詰めていく過程で,指示の構造に対する根底的な理解が要請されてくるのである.指示詞をコ・ア対ソという対立関係で捉えようとする見方は\citeA{horiguti},\citeA{kuroda}を先駆とするが,本稿ではこの見方を談話処理モデルの中に位置づけることを試みる.その要点は次の通りである.コ・アはあらゆる用法において基本的に直示の性質を保持している.狭義の直示とは,文字どおり眼前の対象を直接指し示すことであるが,本稿では特にこの直示の本質を,次のようにとらえたい\cite{takukin97}.\enums{{\bf直示の定義}:\\談話に先立って,言語外世界にあらかじめ存在すると話し手が認める対象を直接指し示し,言語的文脈に取り込むことである.}この定義から,次のような事柄が帰結として導かれる.まず,指示対象は言語的文脈とは独立に,言語外世界に存在するので,先行する言語的文脈に対しては基本的に自由である.まして,言語的文脈によって概念的に設定された対象を指し示すことはない.次に,直示に用いられた指示詞表現(例「この犬」)には,指示対象のカテゴリーを表す表現が付いていることがある(例「犬」)が,直示の場合,指示対象が(多くは眼前に)現に存在するということを示すことが意味の中心であるので,カテゴリーは副次的にしか機能しない.極端な例として,眼前にいるカラスを指さして「この犬」と言っても,指示は成立しているのである.加えて,直示における指示対象が基本的に確定的・唯一的であることも前提される.指示対象自体が変域を持ったり,未定・不定であるということはあり得ない.言葉を換えると,直示表現は使用された段階では変項ではありえない\fn{指示詞自体は,一般的に,それが用いられた文脈によって指示対象が変わるので,変項として扱われるのが普通である.ここでは,文脈の中で直示なり,照応なりによって指示詞の機能が確定したあとの機能について述べている}.コ系列が「近称」,ア系列が「遠称」と捉えられるように,話し手からの距離によってこれらの指示詞が特徴づけられることも,直示の本質にとって重要な点である.すなわち,対象があらかじめ言語外世界に存在するが故に,話し手はそれを「近い」とか「遠い」とか判定できるのである.コ系列・ア系列指示詞には非直示用法も存在するが,非直示用法においても上に述べた直示の性質が保持されることを本稿において示す.一方,ソはいわゆる直示用法を持つ一方で非直示用法も持つが,ソの非直示用法は直示とはまったく異なる性質を持っている.すなわち,ソのいわゆる照応用法は,言語外世界とは関係なく,先行文脈によって概念的に設定された対象を指し示す.その場合,指示対象の概念が検索の重要なキーとなるので,カテゴリーを変えると指示対象の同定が困難になる.また,指示対象が未定・不定・曖昧であったり,束縛変項のように,指示対象に変域が生じる場合がある.以上の点から,ソの非直示用法は,本来の直示とは全く異なるものであるということを主張する.本稿では,このようなコ・アとソの違いが,指示詞表現が指定する心的な領域の違いから生じるものと考える.本稿が依って立つ談話処理のモデルは,\citeA{fauconnier85}に始まる「メンタル・スペース」理論の流れを組み,\citeA{jcss},\citeA{sakahara96}等に受け継がれた談話管理に関する理論である.これらの理論に共通するのは,言語表現と外的世界とをつなぐ位置に中間構造としての心的表示を仮定する点である.\enums{言語表現$\longrightarrow$心的表示$\longrightarrow$外的世界}ここで言語表現は,心的表示への操作(登録,検索,マッピング等)の指令,あるいはモニター装置として機能する.このモニター機能によって聞き手は話し手の心の働きをある程度知ることができ,コミュニケーションの効率化を助けるのである.指示詞の研究は,この心的表示の構造や指示詞がモニターする操作の実態を明らかにすることを目標とする.このような見方のもとで,本稿は次のように議論を進めていく.まず次節で,指示詞表現一般の談話的な機能を概括し,以下の議論の準備とする.3節から5節では,主にいわゆる文脈照応用法を中心として,コ・アとソを対比する形で実際の用法を検討し,コ・アを用いる表現には常に直示の性質が備わっていること,逆にソを用いる表現には直示とは相容れない特徴が認められることを明らかにしていく.6節では直示用法について簡単に触れ,ソ系列の特異性を指摘する.最終節では,以上の議論をまとめ,併せて文脈照応用法と直示用法の関係についての課題を提示する.ソの非直示用法が本来の直示と異なるものであると考える場合,ソにおける直示と非直示の相関関係が問題になるが,この点については本稿では結論を出すことができないので,今後の方向性を最終節で提示するにとどめる.
\section{指示詞表現の意味論的・談話理論的機能}
指示詞表現は,一種の談話管理標識である.すなわち,指示対象の同定にあたって話し手が行っている心的な処理の状態をモニターしている訳である.それによって知られる話し手の心的処理に基づいて,聞き手も指示対象の同定を行うことができる.指示詞表現がモニターする心的処理を「このN」(Nは名詞)という形式を例にとって説明しよう.「このN」が表す心的処理は,「``コ''としてマークされた領域と関連づけられ,かつNによって示されるカテゴリーに属する対象を,値として指示せよ」というものである.これを\citeA{fauconnier85}が示した役割関数の考え方に基づいて\citeA{sakahara96}が用いた簡略的な記法によってしめせば,\enums{N(こ)}ということになる.ここで,「``コ''としてマークされた領域」とは,典型的な直示用法を例にとると,話し手の指差しや眼差し等の行動によって焦点化された,比較的話し手に近い眼前の空間の一部である.「領域と関連づけられる」とは,典型的には値としての個体がその領域に存在することを表す.例えば,犬を指差しながら「この犬」と言った場合,指された個体としての犬そのものが指示の値となる\fn{なお,上の例ではNは普通名詞を想定しているが,「\ul{あの}松田聖子が……」のように固有名詞など指示的な要素が置かれる場合もあるであろう.その場合は,指示詞によってマークされた領域と,Nが指示する対象とを結びつけるということになる.即ち,指定された領域におけるNの属性を強調する表現になるのである.}.しかし,時にはもう少し複雑な場合が存在する.例えば写真を見ながら「\ul{この人}は誰ですか」と言ったり,バーのマッチ箱を取り出して「\ul{この店}に行こう」と言ったり,仕出し弁当を食べながら「\ul{ここ}($=$今食べている弁当を作った店)も味が落ちたねえ」などという場合である.このような用法を「間接直示」と呼ぶことにし,4.1節で詳しく述べることにする.さらに,例えば犬を指さしながら「\ul{この犬}はシベリアが原産地だ」「\ul{この犬},うちでも飼ってる」などと言う場合がある.これは,関数「犬(この)」の値が個体ではなく「ハスキー犬」のような下位カテゴリーになっているのである.通常の,個体を値とする用法を「個体読み」,下位カテゴリーを値とする用法を「種類読み」と呼ぼう.個体読み/種類読みの分化は,指示詞表現だけでなく「同じ犬」「きのう見た犬」等の表現でも見られる,ごくあたりまえの現象である.個体読み/種類読みの差異が問題となる現象の詳細については\citeA{kinsui90}に譲り,以下では,カテゴリーも個体と同様のオブジェクトとみなし得る範囲で,個体と区別せずに扱うことにする.さらに問題となるのは,「会員と\ul{その家族}」などという場合に見られる「代行指示」用法\cite{syooho81}である.この用法も結局は「家族(その)」のような関数適用のヴァリエーションとして統一的に説明できると考えるが,ソとコ・アでかなり差が出る用法であるので,5.1節で再び考察したい.以上の分析では,すべて「このN」の形式を持った指示詞表現を扱ってきたが,他の形式でも同様に,コソアの部分は指示の領域を,コソアの後ろの部分は表現の意味的・統語的カテゴリーを表すと考えられる.例えば「ここ」は領域マーカー「こ」と,カテゴリー``場所''を表す「こ」が複合した形式であり,「こんな」は,領域マーカー「こ」と,領域からなんらかの静的な属性を抽出し,形容詞相当の語句を形成する「んな」が複合した形式であるという具合に分析できる.本稿で問題となるのは,コソアの部分が示す領域の違いであるので,後半部分の形態素が示すカテゴリーの違いについての言及は最小限にとどめる.さて,上に述べたように,日本語の指示詞表現は形態的に指示の領域と表現のカテゴリーの組み合わせとして説明できるわけであるが,後に詳しく述べるように,コ・アとソでは,領域指定の部分とカテゴリー指定の部分との重みにおいて違いがある.コ・アの指示詞表現にとっては,コ・アが指定する領域にその指示対象があらかじめ存在する,という「直示」に関わる部分が重要なのであり,カテゴリーの関数的な機能はあまり重要でない.4.4節で述べるように,実はカテゴリーは先行詞とまったく別のものになってしまっても,領域内に指示対象が存在するという含意に支えられて指示は成立する.一方,ソ系列,特にその文脈照応用法では,カテゴリーの関数としての機能,すなわちカテゴリーに合致する値を返す,という機能が重要であり,ソが領域として指定する言語的文脈は指示対象の存在を何ら保証しないのである.次節ではまず,ア系列とソ系列の文脈照応用法を比較する.\vspace{-3mm}
\section{ア系列とソ系列}
\subsection{ア系列の原型と拡張}ア系列の原型的用法は,狭義の直示用法に求めることができる.直示におけるアの領域は,眼前の空間において,コと対立する形で,話し手が直接操作できない遠方の空間を指差し,眼差し等の行為によって焦点化することによって形成される.いわゆる遠称である.さらに,ア系列は話し手の出来事記憶中の場面を領域として焦点化する用法を持つ.これを仮に「記憶指示用法」としておこう.ここで言う「出来事記憶中の場面」とは,次のような事柄を表す.「今・ここ」において眼前に広がる状況は,指示詞表現(コ・ソ・ア)と指差し・眼差し等の行為によって焦点化され,区分される.これが,狭い意味での直示用法である.時間が経過し,眼前の状況が変化するとともに,以前の眼前の状況は出来事記憶に格納される.格納された状況とは,時間・場所のインデックスがついて何らかの出来事がそこで生起する「場面」である.この,過去の記憶中の場面は,回想によって焦点化された時点でアの領域となる\fn{\citeA{jcss}では,現場の状況および出来事記憶中の要素に至るポインタを格納するデータベースを仮定し,D--領域と名付け,ア系列はD--領域の要素を指し示すと述べた.本稿では,指示詞の機能に即して分かりやすくするためにD--領域の概念は用いず,直接的に現場の状況や出来事記憶を参照するモデルにしたが,ア系列の指示詞の説明における基本的なアイディアは\citeA{jcss}で示したものと同等である.}.記憶指示用法は,この回想された場面と関連づけられた対象を値とする.場面は特定の時間・場所である場合もあるし,不特定である場合もあるが,ア系列の場合は,必ず話し手が直接体験した場面でなければならない.記憶指示一般について言えば,現に眼前に存在する対象ではないので,直示的である必然性はないが,記憶内の場面を眼前の状況と同等に扱えば,直示と同じ方法によって記憶内の要素を指示することも可能なはずである.アの記憶指示用法とは,このような拡張的な直示によるものと考えることができる.\citeA{mikami70}が,アは空間的遠方だけでなく時間的遠方も指せる,と述べた通りである.一般に,アの文脈照応用法と呼ばれるものは,すべてこの記憶指示用法である.先行文脈によって喚起された場面に,指示対象が存在することが示されているのである.一見,先行文脈に依存した表現のように見えるが,言語的文脈は聞き手の便利のためにアによって焦点化される場面を限定しているに過ぎない.\enums{きのう,山田さんに会いました.\ul{あの人},変わった人ですね.}また,先行文脈を持たない記憶指示用法も存在する.それは,(\ex{1})のような独り言や,(\ex{2})の夫婦の会話のように,生活時間を濃密に共有していて,話し手が焦点化した場面を聞き手が容易に推測できる対話者の会話においてよく現れる.\enums{神戸で食べた\ul{あの肉饅頭},おいしかったなあ.}\enums{(夫が長年連れ添った妻に)\\おい,\ul{あれ}を出してくれ.}\subsection{ソの指示対象}ソ系列がマークする領域とはどのようなものであろうか.ソ系列の典型的な用法である文脈照応用法について,本稿の仮説を述べる.言語的文脈は,話し手にとっての外的世界とは独立に,それだけで状況を形成することができる.この状況は,語彙の概念的意味,フレーム的意味と最小限の推論等によって形成される.この言語的文脈がつくる状況を,\citeA{jcss}その他に従ってI--領域と呼んでおこう.ソの照応が単に語句の一致ではなく,推論によって形成される状況を領域とすることを示す例として,次のようなものが挙げられる.\enums{小麦粉と牛乳をよく混ぜ,\ul{それ}をフライパンに注ぐ.}上記の「それ」が指し示す値は,前文に現れた名詞句「小麦粉」「牛乳」のいずれでもなく,「小麦粉と牛乳を混ぜた混合物」とでも言うべき対象である.これは言語的には現れないが,フレーム的知識と推論によって状況に導入されたものである\cite{yosimoto86}.上のようなソ系列の文脈指示用法の指示の値は,自立的なものではなく,言語的な先行文脈にのみ依存している.\subsection{久野説と黒田説について}いわゆる文脈照応用法のソ系列とア系列の違いについて述べた重要な論文として,\citeA{kuno73b}がある.久野は次のような一般化をしている.\enums{\begin{description}\item[ア--系列:]その代名詞の実世界における指示対象を,話し手,聞き手ともによく知っている場合にのみ用いられる.\item[ソ--系列:]話し手自身は指示対象をよく知っているが,聞き手が指示対象をよく知っていないだろうと想定した場合,あるいは,話し手自身が指示対象をよく知らない場合に用いられる.(185頁)\end{description}}この久野の一般化は,次のようなソとアの分布を一見きれいに説明する.\eenums{\item[A:]昨日,山田さんにはじめて会いました.\{あの/??その\}人随分変わった人ですね\item[B:]ええ,\{あの/??その\}人は変人ですよ}\eenums{\item[A:]こんど,新しい先生がくるそうよ\item[B:]\{その/*あの\}先生,独身?}\enums{\label{soko}神戸にいいイタリア料理店があるんですが,こんど\{そこ/??あそこ\}に行ってみませんか?}(\ex{-2})は話し手も聞き手も対象をよく知っている場合で,アしか許されない.(\ex{-1})のBは話し手が,(\ex{0})は聞き手が対象をよく知っていない場合で,逆にアは許されず,ソを使わなければならない.この久野の一般化に対し,\citeA{kuroda}はソとアの独立用法の観察に基づいて,次のような修正が必要であるとした.\enums{指示詞ソ・アの選択に真に本質的な要因は,話し手及び聞き手が対象を「よく知っているかいないか」ということではなく,話し手が,指示詞使用の場面において,対象を概念的知識の対象として指向するか直接的知識の対象として指向するか,ということにあるのである.\cite{kuroda}}すなわち,聞き手の知識はソとアの選択にとって本質的ではなく,対象の意味論的な差異が重要だとするのである.黒田の主張を最も端的に裏付けるのは次のような例文である.\enums{\label{kotodakara}昨日神田で火事があったよ.\{?あの/*その\}火事のことだから,人が何人も死んだと思うよ.}この文脈では,話し手はその火事のことをよく知っているが,聞き手はよく知らないので,久野の一般化はアを排除しソが適切であると予測するが,事実は逆である.ここで用いられている「〜のことだから」という表現は,それに続く判断(この場合は「人が何人も死んだ」)のための根拠を示す.アによって示される火事は話し手が直接知っている火事なので,後件の判断の根拠として適切であると感じさせるが,ソによって指し示される火事は,話し手が発話によって差しだした文字どおりの情報「昨日神田で火事があった」およびそれから最小の推論によって導かれる情報以上の情報を持たないので,「人が何人も死んだ」ことを導く根拠とはなりえないのである.この現象は,ア系列指示詞表現の直示的な性質を示すものと思われるが,それを示すために,黒田の議論を若干補っておこう.(\ex{0})で「その火事」が不適切であるのは,先行文脈に示される「その火事」の属性が「人が何人も死んだ」ことの根拠とはならないからと述べたが,次のような対比を考えてみよう.\enums{昨日神田で火事があったよ.すごい炎と煙が上がっていて,消防車が何台も来ていた.\{そんな/*その\}火事のことだから,人が何人も死んだと思うよ}(\ex{0})では,「そんな火事」は適切であるが,「その火事」は依然として不適格である.これは次のような理由によると考えられる.「NPのことだから」という表現における「NPのこと」とは,「NPの指示対象の持つ属性のすべて」を指示すると考えることができる\fn{田窪行則氏の個人的談話による.}.そしてコトダカラ文の適格性は,その後件の命題が「NPの指示対象の持つ属性のすべて」に含まれるか否か,という点で測られる.例えば\enums{田中さんのことだから,きっと時間どおりやってくるよ.}のようにNPに固有名詞が充てられる場合,未知の将来の時点における属性「時間どおりにやってくる」を「田中さん」の属性と認めうるが故にこの表現は適格と認められる.すなわち,固有名詞のような固定指示的な表現の指示対象は,言語的文脈や話し手の知識以外の状況で,同一の対象が言語的文脈や話し手の知識にない属性を持ちうるのである.一方,「その火事」のような表現の持つ属性とは,言語的文脈に依存し,そこから出ることはないので,語られていない属性を後件に持つと不適格となる.これに対し,「そんな火事」は,言語的文脈に依存しているのは「そ」の部分だけであり,「そんな火事」全体の意味は「文脈に示されたような属性を持つ火事(一般)」という範疇的・総称的な表現である.範疇的・総称的な対象は,言語的文脈に示された属性以外の属性を当然持ってよいので,その適格性は,前件から後件を導く推論の妥当性のみに依存するのである.黒田が示したこの事実は,我々が指示対象に関する知識を,少なくとも直示的・直接的なものと概念的・間接的なものに分類して持っていることを表していると考えられる.ではなぜ,(\ref{soko})では,話し手は対象を直接的知識として持っているにも関わらず,アの使用が不適切に感じられるのか.それは,\citeA{jcss}が指摘しているように,聞き手にとって新規な情報を提示する際の唯一許された方法が概念的知識をベースとした伝達であるからである.この点について,次節で詳しく述べる.既に明かなように,本稿の立場は\citeA{kuroda}に近い.黒田の言う「概念的知識/直接的知識として志向する」というアイディアを,本稿では言語的に形成された状況(I--領域),または直接的に体験した出来事記憶内の場面を介在させて指示対象へ至るという形式によって表現している.\enums{\evnup{\unitlength=1zw\begin{picture}(30,5)\put(0,4){ア}\put(2,4.5){\vector(1,0){2}}\put(5,4){出来事記憶}\put(0,0){ソ}\put(2,0.5){\vector(1,0){2}}\put(6,0){I--領域}\put(10.5,4.5){\vector(3,-1){3}}\put(15,2){(現実世界の火事)}\put(10.5,0.5){\vector(3,1){3}}\end{picture}}}\subsection{久野と黒田の再解釈}本稿の仮説に従えば,直接に経験した過去の場面に関連づけられた対象であることがア系列を使用するための必要条件である.従って,話し手が対象をよく知らない,即ち直接に経験した過去の場面とは無関係な対象(例「新しい先生」)はア系列で指し示すことができない.一方,言語的文脈によって形成された状況であるので,ソ系列には適している.\eenums{\item[A:]こんど,新しい先生がくるそうよ\item[B:]\{その/*あの\}先生,独身?}次に,話し手に知識があるが聞き手には充分な知識がない場合はどうであるか.アを使用する必要条件は満たされている.また言語的文脈を提示すれば,ソ系列の使用の条件も満たされる.このように意味論的な条件ではソもアも使用可能であるから,どちらを用いるかは語用論的な理由によって決定される.次のように説明的・提示的な文脈では,話し手は知識を持たない聞き手に合わせて,I--領域即ち言語的文脈をベースにしてコミュニケーションを行うことがいわば義務づけられていると見ることができる.\enums{神戸にいいイタリア料理店があるんですが,こんど\{そこ/??あそこ\}に行ってみませんか?}これは,基本的に相手の知らないことを新規に知らせるには言語的文脈に基づいて概念的に提示する方法しかないからで,そうでない方法を用いると,聞き手は高度な推論を起動する必要がある.これは聞き手にとって負荷のかかる処理となる.ア系列を用いて指示する方法がまさにそれで,自分にない知識に基づいて相手が話しているわけであるから,自分の知識と対立的な相手の知識を推論しなければならず,強い負荷がかかる.従って,説明的・提示的な文脈でソを使用するということは,次のような聞き手の負荷に関する語用論的な要請に基づく選択であると見ることができる.\enums{{\bf聞き手負荷制約:}\\聞き手が発話を処理する際にかかる負荷を最小にせよ.}但しこれはあくまで語用論的な制約なので,聞き手への負荷を無視してよい文脈ではアが用いられることが知られている.例えば次のような,叱責,勧め,思い出語り等の文脈である\cite{kuroda,yosimoto86}.\eenums{\item[A:]先生,この山田って誰ですか.\item[B:]君は\ul{あの}先生も知らないのか.}\enums{君は大阪に行ったら山田先生に会うといい.きっと,\ul{あの}独特な魅力にきっと魅せられると思うよ.}\eenums{\item[A:]先生がこの世界に入られた頃はどんな様子だったでしょうか.\item[B:]\ul{あの}頃は物資が窮乏していて,大変でした.}では,話し手・聞き手がともに対象についてよく知っている場合はどうか.この場合も,言語的文脈があれば,アもソも必要条件が満たされるので,両者とも使用可能である.にも関わらず,\citeA{kuno73b}によれば,アしか使用できないとされる.\eenums{\item[A:]昨日,山田さんにはじめて会いました.\{あの/*その\}人随分変わった人ですね\item[B:]ええ,\{あの/*その\}人は変人ですよ}このような場合の語彙選択も,本稿では語用論的制約に基づくものであると考える.この文脈のように聞き手負荷制約がかからない場面では,次のような原則が有効となるとするのである.\enums{{\bf直示優先の原則:}\\直示を優先せよ.}即ち,直示または直示に近い手段(拡張直示)によって対象を指示できるならば,直示を使うことが優先される.日本語の場合,それが話者にとって最も負荷の低い指示であると見ることができる.この原則は,\citeA{ktninti}で「指示トリガー・ハイアラーキー」と呼んだものである.同論文では,この原則に言語差があることも述べている.このことについて7節で再びふれる.この原則は,やはり語用論的なものなので,キャンセルされる場合がある.聞き手負荷制約が競合する場合に,聞き手負荷制約が優先されることは既に見た.また次のように,対立的な視点が有効である場合にもやはりソが使用可能になる.\eenums{\item[A:]『言語学原論』買いました.\item[B:]\ul{その本}よりも,『言語学のすべて』の方がいいぞ.}この対立的なソの使用はソの直示とも関係する.6節で再び述べる.
\section{コ系列とソ系列}
\subsection{コ系列の原型と拡張}コ系列の原型もまたア系列と同様に狭義の直示用法が原型となると考えられる.コの直示は2節ですでに述べたように,眼前の状況において指差しや眼差しによって焦点化された話し手の近傍の領域と関連づけられた要素を値とするものである.コ系列には,いわゆるコの文脈照応用法と言われるものがあるが,これは直示用法の拡張であろう.コの文脈照応用法は,\citeA{sakahara96}で述べられているように言語的文脈に明示的に導入された要素を専ら指し示し,フレーム的知識等によって間接的に導入された要素は指し示せないので,一見ソと同様に言語的文脈に依存した表現のようにも見える.しかし一方で,\citeA{kuno73b}に触れられているようにソとは異なってあたかも対象が眼前に生き生きと存在するような直示的な語感がある.本稿ではコの文脈照応用法を,言語的表現を介した,間接直示の一種と考える.間接直示とは,2節で少し触れたように,写真を見ながら「\ul{この人}は誰ですか」と言ったり,バーのマッチ箱を取り出して「\ul{この店}に行こう」と言ったり,仕出し弁当を食べながら「\ul{ここ}($=$今食べている弁当を作った店)も味が落ちたねえ」などという用法である.これらのケースでは,「写真$\rightarrow$本人」「マッチ$\rightarrow$店」「弁当$\rightarrow$弁当屋」のような一種の語用論的関数,あるいはマッピング・ルールを介在させることによって値にたどりつくことができる.直示された対象(写真,マッチ,弁当)は,最終的な真の指示対象(本人,店,弁当屋)を代表し,指示対象そのものと臨時的に同一視されている訳である.真の指示対象を代表する対象が眼前に存在することによって,真の指示対象の存在が臨時に保証されるのである.コの文脈照応用法では,マッチ箱で店を代表して直示するように,言語的表現を手がかりとして対象を直示していると考える.口頭の談話で話し手がコ系列を用いるとき,しばしば対象を指差したり手に持ったりするような身振りが見られることもこのことを裏付けるであろう\fn{ただしこの観察は実証されていない.}.言語で対象を導入することによって,あたかもその対象が目の前に存在しているかのように振る舞うのである.直示の一種であるということは,言語外世界に指示対象があらかじめ存在するということであると述べたが,それは指示対象が現実世界に「実在」するか否かということとは独立した事象である.次のように架空の対象であってもコ系列で指示できるが,対象は指差すように外在的なものとして取り扱われている.これは,ペガサスの絵を指しながら「このペガサス」と称する現象と似ている.\enums{今から,お話を作ります.主人公は医者にしましょう.名前を仮に,田中さんとします.\ul{この男}はとても腕のいい心臓外科医です.}文脈照応用法のコ系列はしばしば「談話主題」を指し示すと言われるが\cite{syooho81,iori95a},談話の主題であると言うことは,談話に先だってそれについて述べるべき指示対象が存在しなければならないということであり,先にみた直示的な性質とも一致する.以下の節では,さらに3つの証拠を挙げて,コの文脈照応が直示の一種であるという仮説を検証する.\subsection{非対称性}\cite{kuno73b}では,話し手は自分で導入した要素をコで指し示すことはできるが,相手が導入した要素はコを用いて指すコとができないとしている.次のような例である.\eenums{\label{asymmetry}\item[A:]僕の友達に山田という人がいるんですが,\ul{この男}はなかなかの理論家で……\item[B:]\{その/??この\}人は何歳くらいの人ですか?}(\ex{0})では,話者Aにとって「山田という人」は自分が導入した要素であるので「この男」で指し示せる.ところがBにとっては相手が導入した未知の要素であるので,ソで指し示すことはできるがコは使いにくい.このような特徴を,コ系列の文脈照応における話し手と聞き手の``非対称性''と呼んでおこう.この非対称性は,話し手が導入した要素であるが故にまさに話し手の近傍にあると感じられるためと説明できる.情報の受け手がコを使えないのは,対立的な視点のもとで対象が捉えられているからである.これは一種の語用論的な効果であり,次の会議の例のように,情報の受け取り手であっても,対象について自分自身の主題でもあると捉えることができれば,コの使用は可能であろう.\eenums{\item[A:]……以上で,ファッション・シティ・プロジェクトの概要の説明を終わります.\item[B:]\ul{このプロジェクト}は,いつから開始するのかね.}後者の例では,「プロジェクト」に関する資料が発話者の手元にあればより現れやすいが,その場合はもちろんまったくの間接直示である.ともあれ,情報の与え手も受け手もコが使えるのは,対象が抱合的な視点のもとで捉えられているからである.視点が対立的か,抱合的かによってコの分布が変わることは,直示用法でしばしば見られることで\cite{mikami55,ktninti},コの文脈照応用法が直示用法と近いものであることを示す証拠と考えられる.\subsection{先行詞との距離}\citeA{iori95a}によれば,ソ系列の先行詞は,基本的にその文中かまたはその直前にあるのが普通で,それより前にあると,同一指示の解釈が非常に難しくなる.これに対し,コの先行詞は1文以上前にあってもよい.次の例では,先行詞「ウラル地方の鉱山都市」と指示詞表現の間に4つの文が存在する.この場合,コ系列はまったく問題なく用いられるが,ソ系列は不適切である.\enums{「私は帝政ロシアの皇女アナスタシア」.そういい続けたアンナ・アンダーソンさんが,不遇のまま八十二歳で死んでもう八年以上たつ.イングリッド・バーグマン主演の映画『追想』のモデルにもなり,晩年は米国に住んだ.英紙サンデー・タイムズが先ごろ,{\bfウラル地方の鉱山都市}で見つかった十一体の遺骨について,最後の皇帝ニコライ二世と家族全員などであることが確実になったと報じた.遺骨に残る傷跡などが一家のものと一致したという.ところが最近になって,AP通信が「四女のアナスタシアとアレクセイ皇太子の遺骨は含まれていなかった」という米国の法医学者の分析結果を伝えた.英紙が本当なら,アンナさんは完全に偽物だし,APの報道通りなら,「兵士に助けられ,脱出した」という数奇な話が多少とも真実味を帯びてくる.ロマノフ王朝の最期は,いまだになぞめいている.一家は\{この/\#ソノ\}{\bf鉱山都市}のイバチョフ館と呼ばれる屋敷に幽閉されていた.\\(「天声人語」1992.8.10,\citeA{iori95a}より)}ところが,次のように先行詞を含む文と指示詞表現を含む文を隣接させると,ソ系列によって同一指示の解釈が可能になる.\enums{……英紙サンデー・タイムズが先ごろ,{\bfウラル地方の鉱山都市}で見つかった十一体の遺骨について,最後の皇帝ニコライ二世と家族全員などであることが確実になったと報じた.一家は\{この/ソノ\}{\bf鉱山都市}のイバチョフ館と呼ばれる屋敷に幽閉されていた.}この現象について,本稿の立場から次のように解釈できる.ソ系列がマークする領域とは,言語的文脈によって作られる状況であるが,状況の焦点化は,まさしくその文脈を発話することによって行われる.従って,状況が転換すればそれ以前の状況は領域から外れる.(\ex{-1})の例では,先行詞「ウラル地方の鉱山都市」を含む状況が提示されたあと,AP通信の報道に関する状況,および「ロマノフ王朝の最期は,いまだになぞめいている.」という背景的評価が提示される.そのことによって,「ウラル地方の鉱山都市」は焦点から外されるのである.一方コ系列の場合は,先行詞が談話主題として保持されている間は使用可能である.談話主題とは,先に述べたように,話し手が言語表現をその代理として,眼前にあるとみなしている対象である.この点から明らかになるのは,ソ系列指示詞があくまで言語的文脈に依存しているのに対し,コ系列の使用は,談話主題の指定という,談話に先だって決定される言語外的な話し手の行為に依存しているということで,これもコ系列の直示的な性質を表していると言える.では,コで指し示される談話主題はどのような条件によって決定されるのであろうか.\citeA{iori97}によれば,談話主題とは,現在話されている話題を構成するキー概念,キー状況のネットワークのようなものとして捉えられている.つまり,このネットワークが生きている間は,それに関連づけられた個々の状況が文脈の中で移り変わったとしても,ネットワーク内の概念や状況をコで指し示すことができるのである.(\ex{-1})の例で言えば,この段落全体にわたって,「帝政ロシアの皇女アナスタシア,アンナ・アンダーソン,最後の皇帝ニコライ{II}世,ウラル地方の鉱山都市,…」といったキー概念のネットワークが焦点化されていると考えられる.このネットワークは眼前にあるのと同じで,それが焦点化されている限り,いつコで指し示してもよいのである.以上が本稿における談話主題についての仮説であるが,より具体的な検証は今後の課題である.\subsection{カテゴリー転換}\citeA{sakahara96}は,日本語・英語・フランス語ともに,指示詞表現では先行詞のカテゴリーをまったく別のカテゴリーに転換できることを示している.このような現象は,英語・フランス語の定冠詞句やそれに相当する日本語の裸名詞句では起こらない.次の例では,先行詞のカテゴリー「{\bf熱帯林}」が指示詞表現では「この{\bfゆりかご}」に転換されている.\enums{{\bf熱帯林}は,恐竜の時代から氷河期を超えて生き残ってきた地球最古の森林だ.時の流れの中で,熱帯林にすむ生物は多くの種に分かれ,針葉樹林や温帯林とは異なる複雑な生態系を作った.そして無数の未知のウィルスも,\{この/??$\phi$\}{\bfゆりかご}の中に身を隠している.(朝日新聞,1995.8.3)}\citeA{sakahara96}では,このようなカテゴリー転換は,対象が属するフレームを転換する合図となっていると分析している.しかし,このような大きなカテゴリー転換が可能になるのは,日本語の場合,指示詞の中でもコ系列およびア系列であって,ソ系列ではむしろカテゴリー転換はむずかしい.このことを次の例によって確かめよう.\eenums{\item五歳の誕生日に真智子は両親に熊の{\bfぬいぐるみ}を買ってもらった.\ul{この}{\bf友人}を,真智子は一生大切にした.\item五歳の誕生日に真智子は両親に熊の{\bfぬいぐるみ}を買ってもらった.??\ul{その}{\bf友人}を,真智子は一生大切にした.}aでは,「熊のぬいぐるみ」と「この友人」の同一指示を認識することはたやすいが,bで「熊のぬいぐるみ」と「その友人」を同一とみなすことはかなり難しい.これは,次のような理由によると考えられる.ソ系列は言語的文脈によって形成され,発話によって焦点化された状況を領域とする.そして各要素が持つ属性は,言語的文脈の語彙的意味,フレーム的意味および最小限の推論によってもたらされる意味に限定される.それゆえに,大きなカテゴリー転換があると指示詞表現と先行詞を結びつけることが困難になる.一方コ系列の場合は,指示対象は言語的文脈によって提示されはするが,言語的文脈は指示対象を代表しているだけであって,言語表現とは独立に,あらかじめ存在するものとして捉えられている.それ故に,対象の同一性を保ちながら,異なるカテゴリー付けを行う,すなわち複数の異なるフレームに属するものとして扱うことができるのである.(\ex{0})に促して言えば,第1文は一般的なフレームに基づいて「ぬいぐるみ」というカテゴリーを与えられた対象が,第2文では「真智子」から見た世界のフレームに基づいて,「友人」というカテゴリーを与えられている.ソ系列では一般的なフレームの中での「ぬいぐるみ」しか参照できないのに対し,コ系列では,たまたま第1文で「ぬいぐるみ」であるような対象を,眼前に存在するかのように指し示すので,別のフレームで別のカテゴリー「友人」が与えられても指示が成立するのである\fn{本稿とは観点が異なるが,\citeA{iori96a}の「言い換え」の議論も参照になる.次のような例文である.\begin{quote}(i){\bfエリザベス・テーラー}がまた結婚した.\{この/\#その/??$\phi$\}{\bf女優}が結婚するのはこれで7回目だそうだ.\end{quote}この文でソ系列が使いにくいのは,やはり先行文脈に「女優」という属性を持つ対象が存在しないからである.}.ついで,ア系列でもカテゴリー転換が容易であることを次の例で確かめておこう.\enums{山田は{\bf主任教授の一人娘}と結婚したわけだけど,\{あの/??その\}{\bfお荷物}を背負ってよくがんばれるもんだと感心するよ.}指示対象は異なるフレームで「主任教授の一人娘」,「お荷物」という異なったカテゴリーを与えられているわけであるが,ア系列の表現はその直示性の故に同一性を表現することができる.ところがソ系列は言語的文脈で示されたフレームしか参照できないので,「お荷物」を対象と結び付けることができない.
\section{ソ系列特有の用法}
以下の節では,コ系列,ア系列にはないソ系列特有の用法を分析し,コ・アとは異なる非直示的なソ系列の特質をさらに明らかにしていく.\subsection{代行指示用法}代行指示用法とは,「会員と\ul{その家族}($=$会員の家族)」のように「そのN」の解釈が「[先行詞]のN」と一致するものである.次の対比を見て分かるように,代行指示ができるのはソ系列だけである.ア,コは当該の文脈には現れない他の特定の対象を指示しているとしか解釈できない.\eenums{\item会員は\ul{その家族}とともに宿泊することができる.(代行指示可能)\item会員は\ul{この家族}とともに宿泊することができる.(代行指示不可能)\item会員は\ul{あの家族}とともに宿泊することができる.(代行指示不可能)}ただしソ系列でも,次のような状況を見て分かるように,直示用法では代行指示的解釈が難しい.\enums{(相手が持っている蓋のない瓶を指しながら)\\\{??その蓋/それの蓋\},どこへ行った?}すなわち,代行指示用法はソ系列の文脈照応用法にのみ成立する用法であると見ることができる.本稿の立場から,その理由を考えていきたい.まず,代行指示の「そのN」は「[[そ]\sitatuki{NP}の]N」という統語構造を持ち,「それのN」と同等であると分析する考え方がある.しかしこれは,次のように「それの」がゼロ代名詞を許すのに対し,「その」が許さないという点で否定される.\enums{象の心臓はとても大きい.一方,鼠にも心臓はあるが,\{それの/*その\}$\phi$($=$鼠の心臓)はとても小さい.}これに対し,統語構造ではなく,意味的に「そ」が主名詞とは独立に指示を担うと考えることは特に否定されないが,なぜコやアはだめでソにだけそのような解釈が許されるのかという疑問に対して説明が与えられなければならない.本稿の立場では,代行指示用法も他の指示詞表現と同様に,「N(そ)」のようなカテゴリー関数に対する領域パラメータの適用として統一的に捉える.すなわち,「その」がマークする領域と関連づけられたカテゴリーNである対象を値とするのである.「会員と\ul{その家族}」であれば,目下の発話において焦点化された言語的文脈に「家族」が関連づけられるわけで,実質的には「家族(会員)」という関数適用が成立するのである.ではなぜコ・アではそれができないか.直示用法の場合,「領域と関連づける」というのは,基本的に「両域内に指示対象が存在する」ということを表す.間接直示や種類読みのように,真の指示対象が眼前にない場合でも,指示対象を代表するもの,指示対象の``現れ''が眼前にあるという点で事情は同じである.つまり,「この家族」「あの家族」等の表現では,現在焦点化されている領域に指示される「家族」またはその代表物が存在しなければならないのである.ところがソ系列の文脈照応の場合は,領域とは言語的文脈によってのみ形成されるので,そもそも対象の存在は前提されていない.それ故に,「その」が指定する文脈に「そのN」の指示対象が無くても,「そのN」という表現それ自体によって,Nである対象を新規導入できるのである.この点においても,ソ系列指示詞表現の指示対象の非直示性が現れていると言えよう.\subsection{分配的解釈}ソ系列の指示の値の特徴をよく表す現象として,分配的解釈の可否の問題がある.分配的解釈とは(\ex{1})のようなものである.\eenums{\item55\%の自動車会社が\ul{そこ}の弁護士を解雇したらしい.\itemどの会社が\ul{そこ}の弁護士を解雇したのですか.}上の例では,「そこの弁護士」は特定の会社の弁護士ではなく,トヨタはトヨタの,日産は日産の弁護士のように分配的に解釈される.このような解釈は指示詞表現の中ではソ系列のみで可能である.次のコ系列,ア系列では特定・確定的な解釈しかできない.\eenums{\item55\%の自動車会社が\{ここ/あそこ\}の弁護士を解雇したらしい.\itemどの会社が\{ここ/あそこ\}の弁護士を解雇したのですか.}(\ex{-1})の例は,いずれも「55\%の自動車会社」「どの会社」のような数量詞表現を含むものである.\citeA{ueyama97}は,分配的解釈の統語的基盤をなす依存関係にはFD(FormalDependency),ID(IndexicalDependency)の2種類があり,その分配的解釈にかかわる表現の種類や統語構造によってFDかIDのどちらが使用可能であるかが決まると主張している\fn{\citeA{ueyama97}の分析は,分配的解釈以外の照応関係も考慮に入れた上で,\citeA{hoji95}の洞察をとらえなおすことを目的としたものである.\citeA{hoji95}では分配的解釈がどのような条件のもとで可能になるかが日本語と英語の観察をもとに記述されており,構造的条件に加えて,数量詞や指示詞表現のタイプに関する言及が必要であることが指摘された.\citeA{hoji95}では,依存関係としてはFDのみを仮定して説明を試みているのに対して,\citeA{ueyama97}では依存関係に2種類あると仮定した方が文法の全体像がより明解になると論じている.FDという概念については\citeA{hoji98}も参照のこと.}.たとえば,そこでの主張によると,(\ex{-1}a)のタイプの分配的解釈はFDにもとづくことしかできないのに対して,(\ex{-1}b)における分配的解釈はFDにもとづく必要はなく,IDの例であると考えることも可能ということになる.FDは狭い意味での束縛変項照応であり,ソ系列指示詞表現が数量詞に統語的に束縛されていなければならないが,IDでは統語的な束縛は必要なく,線条的な先行が成立していれば,(\ex{1})のように文境界を越える照応でも分配的解釈が生じる\fn{(\ex{1})がIDの例であるというのは厳密には不正確な表現であるが,FDとは別の統語的基盤にもとづいているという点は変わりない.くわしくは\citeA{ueyama97}を参照のこと.}.\enums{学生たちは一生懸命論文を書いた.しかし結局だれも\ul{その論文}を教授に提出しなかった.}(\ex{0})では「その論文」は「学生たちがおのおの書いた自分の論文」という分配的な解釈ができるが,コやアの表現ではやはりそのような読みは出ない.\enums{学生たちは一生懸命論文を書いた.しかし結局だれも\{この/あの\}論文を教授に提出しなかった.}(\ex{-1})の「その論文」はいわゆるEタイプ代名詞であるが,本稿で今まで扱ってきたソの文脈照応とまったく同じものと考えられる.本稿でUeyama説の詳細について検証することはできないが,とりあえずこれらの例において分配的解釈が可能となる理由について本稿の立場から考えてみたい.上の例においてソ系列指示詞表現が参照する状況とは,\eenums{\itemどの会社(x)(xがxの顧問弁護士を解雇した)\item学生たちのだれも(x)(xがxの論文を教授に提出しなかった)}のようなもので,数量詞表現によって状況自体が変域をなしているのである.この変域付き状況を「N(そ)」という指示詞表現に関数適用すると,変域に応じて値域が生じる.つまり値は確定的でなく,可変的なのである.言うまでもなく,このように可変的な状況や値が生じるのは,それが言語的文脈によって形成されたものであるからに他ならない.直示される状況では,要素はすべて確定的で,そのような変域はありえない.コ系列やア系列に分配的な解釈が生じ得ないのはこのことから明かであろう.上の説明はIDに関するものであったが,多少不正確な言い方をすると,FDについても,ソ系列指示詞の性質そのものは,IDのそれとまったく同じであり,FDはIDよりも統語的な制約がさらに厳しい特殊なケースであると考えてよいであろう.いずれにしても,直示的なコ系列やア系列では,FDであれIDであれ,分配的解釈を表すことができないのである.なお,このソ系列の分配的解釈に関連して,「その日暮らし」「その場しのぎ」等の慣用句に触れる必要がある\cite{hoji91}.これらにおいて「その日」「その場」は名詞句の中に閉じこめられているので,直接的に関数としては機能しないが,意味としては分配的な解釈が前提となっている.「\{この/あの\}日暮らし」「\{この/あの\}場しのぎ」等の表現がないこともそれを示している.さらに,分配的な意味を表す副詞「それぞれ」も,指示詞「それ」を語源としていることを付け加えておこう.\subsection{「その気」「そのつもり」「そのはず」}次のような「その気」「そのつもり」は,動作主の意図を表すものであるが,コ系列やア系列の表現が存在しない.\enums{彼を\{その気/*この気/*あの気\}にさせるのは大変だ.}\enums{わたしは\{その/*この/*あの\}つもりがなかったのに,行きがかりで父の買い物につき合う事になった.}「その意志」「その意図」等でも同様の現象が見られる.この種の表現にコ・アが適しない理由として,「意図」というものが本来極めて概念的なものであり,直示しにくいものであるということが挙げられる.次のような「そのはず」もまた,ア系列やコ系列は生じ得ない.\eenums{\item[A:]きのう田中さんは確かに10時前には帰ったんですね.\item[B:]ええ,\{その/*あの/*この\}はずです.}「〜はずだ」という表現は,言語的表現によって示された命題について論理的妥当性を保証することを表す形式であるから,アやコで指し示されるような,すでに存在が前提されている状況とは適合しないのである.\subsection{「そんなに」「それほど」}程度を表す「そんなに」「それほど」は,「こんなに」「これほど」「あんなに」「あれほど」とは異なった用法を持っている.それは,否定対極表現として,最終的に否定されるような量を表すという点である\cite{hattoritadasi}.これには,(\ex{1})のような照応的な場合もある一方で,(\ex{2})のように照応すべき言語的文脈を持たない場合もある.\eenums{\item[A:]荷物,重そうですね.\item[B:]いえ,\{そんなに/それほど\}重くないです.}\enums{荷物は\{そんなに/それほど\}重くなかったので手に下げて歩いて帰りました.}後者の先行詞のない例は,次に述べる曖昧指示表現の一種とも見られる.重要なのは,コ系列・ア系列の表現では必ずマークされる領域が固定的に存在するので,それによって指示される程度は決して否定できないことである.例えば\enums{荷物は\{こんなに/これほど\}重くなかったので手に下げて歩いて帰りました.}では,実際に指示詞で指し示される「こんなに/これほど」重い荷物が存在するのであり,その``程度''は否定されていない.一方「そんなに/それほど」で指し示される状況は,それがあるとするならば,最終的に否定されるためだけに存在する,仮定・架空の状況である.そのような状況を指し示すことは,ソには出来ても,コやアにはできないのである.\subsection{曖昧指示のソ}ソ系列の指示詞を用いた慣用表現がいくつかあるが,それらの中には,照応すべき言語的文脈をもたない上に,指示対象がはっきり特定できないようなものがある.むしろ,特定できないことを表現効果として生かしているのである.これを仮に「曖昧指示」と呼んでおこう.曖昧指示表現におけるソ系列をコ系列やア系列に変えると,確定的な指示対象があるように解釈されてしまうので,曖昧指示表現にはならない.たとえば,次のような会話がある.\eenums{\item[A:]お出かけですか\item[B:]ええ,ちょっと\ul{そこ}まで}この表現では,話し手にとって自分の目的地はあらかじめ確定的に存在する訳であるが,上の表現は目的地を直示するように指し示してはいないであろう.例えば,次のようにア系列に変えると,聞き手は目的地がどこであるのか,推論を開始せずにはいられない.それは,聞き手に指示の値が現実世界に存在する確定的な場所として明示されているからである.\eenums{\item[A:]お出かけですか\item[B:]ええ,ちょっと\ul{あそこ}まで}「そこ」の場合は,わざと指示対象を非確定的に示しており,そのことに「目的地を言いたくない」という話し手の意図が暗然と表現されているので,聞き手もそれ以上は推論を押し進めない.話し手の立場から言えば,「行き先をそれ以上聞かないでほしい」という意志を表明しているのである.場所に関する曖昧指示にはこのほかに,「(どこか)その辺($=$不定,未詳の場所)」「そこらの/その辺の($=$ありふれた,平凡な)」等がある.\eenums{\item[A:]私のメガネ知らない?\item[B:]\ul{その辺}に置いてるんじゃないの}\enums{彼は\ul{そこらの}学者とは比較にならない学識と経験を持っている.}それぞれの意味が形成されるに至った経路については別に考えるとして,ここで注意したいのは,これらの曖昧指示にソ系列が用いられる理由である.それは,ソ系列が言語外世界に確定的な値をあらかじめ持たない,ということに他ならないであろう.コ系列やア系列に変えると,必ず特定の場所と結びつけた解釈が生じ,曖昧指示とはならないことから,それが確認できるのである.その外に,曖昧指示といえるものとして,次のような慣用表現がある.\enums{(しばらくぶりで再会した人に)\\\ul{その節}はどうもありがとうございました}この例では,話し手・聞き手が共有しているはずの過去の経験をソ系列で指しているように見える.しかし,(\ex{1})のようなア系列を用いた表現が特定の場面を指示しているのに対し,(\ex{0})はいささか具体性を欠いた文字どおり``挨拶''的な表現との印象を与えるのである.\enums{\ul{あの時}はほんとに助かりました.どうもお世話になりました.}ただし(\ex{-1})については,「その節」という表現の定形性に注意する必要がある.次のように「節」ではなく「時」というより一般的な表現に変えると,ソ系列の表現は先行文脈無しには解釈できなくなる.\enums{??\ul{その時}はどうもありがとうございました.}これは,「その節」という表現がソ系列の古い特徴を残す表現として残存しているのではないか,という可能性を示唆している.この点については,後に7節で一つの見通しを提示したい.
\section{ソ系列の直示用法}
コ系列,ア系列については,既に直示用法がその原型的用法であり,その他の用法が直示用法の拡張であるとの見方を示した.一方でソ系列にも直示用法があるが,ソの直示はコやアとはたいへん異なった,複雑で微妙な性質を持っている.眼前の状況から部分的な領域を何らかの方法で焦点化し,その領域と関連づけられた対象,典型的にはその領域に存在する対象を値として指し示す,という点はコやアとまったく同じであるが,領域の性質や指定の仕方がコやアと違っているのである.ソの直示用法には,大きく分けて人称区分的な聞き手領域指示の用法と,距離区分的な中距離指示の用法がある.(\ex{1})は聞き手領域指示,(\ex{2})は中距離指示の典型的な例である.\eenums{\item[A:](相手の着けているネクタイを見て)\ul{その}ネクタイ,いいですね.\item[B:]ああ,これはイタリアで買ってきたんです.}\enums{(タクシーの客が,運転手に)\\\ul{そこ}の信号の手前で降ろしてください.}コやアは基本的に距離区分であり,眼前の空間の認識と指差し・眼差し等のプリミティブな動作のみによって領域が焦点化される.従って話し手のみによって指示は成立するので,独り言でもコとアは用いられる.ところが聞き手領域指示は「聞き手」という空間認識とは異質なコミュニケーション上の要素が関与しているので,独り言にすると聞き手領域指示のソは現れない\cite{kuroda}.また聞き手があったとしても,空間や要素が話し手と対立的に認識される場合にのみソが使用可能となり,話し手と聞き手が接近するなどして包合的関係になると,聞き手領域のソは消失するのである\cite{mikami55}.このことは,聞き手によって指定される領域がコミュニケーション上有用になる場合に限り最小限に適用されることを示している.次に中距離指示のソであるが,``中距離''という領域は近距離,遠距離が確定した後に寄生的に成立する領域で,プリミティブとは言えない.また中距離のソはやはり独り言では現れにくく,聞き手への教導,注意喚起等に多く用いられる\fn{\citeA{sakata}が示した中距離のソの多くの用例からもそのことが伺える.}.さらに中距離のソは,「そこ」「その辺」等の場所表現がほとんどを占めるのであるが,これは空間が本来,連続的・一体的で境界を持たないために,話し手の積極的な焦点化をまって初めて区分が成立する,ということと関連するようである.場所以外の要素は,(時間は別の問題があるので措くとして)基本的に空間内に分離的・離散的に存在する.そのような対象はそれ自身が図として,地から区分されて存在しているので,それをまず近称や遠称,あるいは聞き手領域に配置させれば指示は事足りるので,あえて中距離という領域に当てはめる必要はないのである.以上の点を勘案すると,中距離のソも,聞き手領域指示のソと似て,コミュニケーション上の要請によって隙間を埋めるように適用された用法と見ることができるのである.
\section{まとめと今後の課題}
以上の考察から,次のようなことが明らかになったと考える.コ系列とア系列は,直示用法が原型的な用法であり,文脈照応用法と見られるものでも,直示的な性質を色濃く残している.ア系列の文脈照応用法と見えるものは,実際には話し手が直接経験した場面が領域となり,直接経験という点で眼前の直示と共通する性質を持つ.コ系列の文脈照応用法は,言語表現を指示対象の代表物として取扱い,あたかも対象が眼前にあるかのように指し示すものであった.コ系列にしてもア系列にしても,その指示の値は確定的・唯一的であり,発話に先だって指示対象の存在が非言語的に決定されている.一方ソ系列には,現場における直示用法,文脈照応用法および慣用的な曖昧指示用法がある.文脈指示用法は,言語的文脈によって形成される状況を指示の領域とする.指示の値は言語的文脈に依存し,その指示対象の言語外の世界における存在が直接保証される訳ではない.曖昧指示もまた,言語外世界との間接性という点で,文脈照応用法と共通する性質を持つのである.つまりソ系列の非直示用法は,アやコとは違って,直示としての性質をいっさい持たないことによって特徴づけられるのである.ところが,ソ系列には直示用法もある.直示である以上,その指示の値は当然眼前に唯一的に存在する訳であるから,非直示用法とは相反する性質を持つということになる.上記の点で,現代語のソ系列の指示詞は多義であると言わざるを得ない.問題は,このような多義性が,単一の原型からの派生として説明できるのか,できるとすればどのような派生の経路がありうるのか,という点である.ここで,ソ系列の直示の特殊性,複雑性が考慮されなければならない.ソは直示においてもさらに人称区分と距離区分に分かれるのであるが,いずれもプリミティブな用法というより,コミュニケーション上の要請により隙間を埋める充填剤的な手段として適用されているのである.このことは,直示用法がソ系列の原型的用法であるという可能性の低いことを指し示しているようである.しかしこれだけの証拠だけでは,ソ系列が直示から非直示へ拡張したのか,はたまたその逆かを決定することはできない.なぜなら,語義の変化においては,原型的な用法から派生的な用法が生じたあとで,原型的なものが衰弱して,派生的なものがかえって本来的なものに見えることがしばしばあるからである.ここから先は,歴史的資料に証拠を求め,また対照的研究をも援用しなければならないであろう.それはすでに本稿の守備範囲を超えるが,ここで,とりあえず大まかな見通しだけを述べて締めくくりとしたい.筆者の予備的調査および\citeA{okazaki97}で収集されたデータを見ると,古代語のコ系指示詞は現代語とほとんど違いがないが,中称(ソ,シ,サ,シカ等を含める)および遠称(カ,ア)の分布は現代語と異なる.要点をまとめると次の通りである.\eenums{\item中称は現代語と同様に文脈照応によく用いられ,分配的解釈もみられる一方で,文脈照応と独立した純然たる直示用法は中世末まで見られない.\item直示優先の原則が弱い.すなわち,目に見えているものでも,2度目以降に言及される場合は直示ではなく文脈照応の中称が用いられる場合がある.\item眼前になく,話し手の記憶内にある対象は,古くは中称で指し示された.時代が下るに従って,記憶指示の遠称の用法が拡大していく.}上記の特徴から考えると,日本語の中称とはもともと,直接的に,今ここで知覚に捉えられない対象を指し示す指示詞であったと捉えることができる.記憶指示に相当する表現に遠称ではなく中称が充てられる点にその特徴が端的に表れている.また,文脈照応用法とは本稿で言うI--領域指示であり,これも言語的文脈を介した間接的な指示であるので,やはりこの規定に合致するのである.ただし,直接的に知覚に捉えられる対象であっても,文脈照応的に指される場合は,「知覚に捉えられない」方の扱いになる.また直示優先ではないという点も重要である.このような体系から,現代語へといたる変化は次のようなものと考えられる.一つには遠称の直示が拡張されて記憶指示用法を発達させる過程である.また一つは,それとともに,直示優位の原則が生じ,非直示用法においてソ系列の使用範囲が狭まっていく過程である.そしてもう一つは,おそらく文脈照応用法を足がかりにして,直示用法においてソ系列の領域が確定していく過程である.記憶指示用法が発達し,直示優先の原則が成立すると,ソ系列は自然に自分の知識とは対立する情報を指し示すことが多くなる.これが,ソ系列と聞き手を結びつける契機となるのである.中距離指示の用法も,聞き手への教導,注意喚起という,自分の知覚とは対立する相手の知覚に関わる文脈に現れるという点で,聞き手領域指示と共通する基盤を持っている.ここで大いに参考になるのが,朝鮮語の状況である.朝鮮語には日本語に似た3系列の指示詞が存在し,中称が文脈照応に用いられる点も共通するが,次の3点で現代日本語と異なる.1つは,遠称指示詞(アに相当)の記憶指示用法がなく,過去の経験はすべて中称指示詞(ソに相当)で表されるという点である.たとえば,「その節はお世話になりました」は実は朝鮮語にほぼ直訳できる\fn{「\ul{ku}ttaynunkomawesseyo(\ul{その}時はありがとうございました.)」など.}.第2点は,「直示優先の原則」あるいは指示トリガー・ハイアラーキーが朝鮮語では弱く,連続した文脈において同一指示を行う場合は,直示できる対象であっても,文脈照応用法の中距離指示詞を用いることができるという点である\fn{ただし,直示優先が働かないのは遠称の場合のみで,近称と文脈照応では近称が優先される.}.第3点は,上のこととも深く関係するが,中称指示詞の現場指示的な用法が日本語よりもはるかに弱いという点である.中称による聞き手領域指示は,聞き手が実際に手に触れられるもの,身に着けているものぐらいに限定されていて,聞き手から少しでも離れると使えない.また中距離指示もない.以上の点で,朝鮮語は,現代日本語よりも古代日本語に近く,同じような出発点からやや異なる方向に発展しつつある体系であると見ることができる.上記の仮説をこれ以上検証することは既に本稿では果たせないので,今後の課題としたい.古代日本語の用法を視野に入れ,それと現代語との連続性・非連続性を明らかにしつつ,さらに朝鮮語のような外国語の状況も参照することによって,現代語日本語の体系はいっそう明らかになるものと考える.\section*{付記}本稿のドラフトに対して懇切なるご助言とご教示を賜った田窪行則氏,傍士元氏,上山あゆみ氏に対し,心から感謝の意を表します.また,朝鮮語のデータは美庚さん(慶尚北道出身,30歳,女性)の面接調査に基づいています.ご協力に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n4_04}\begin{biography}\biotitle{略歴}\bioauthor{金水敏}{1979年東京大学文学部国語学専修課程卒業.文学修士.東京大学文学部助手,神戸大学教養部講師,大阪女子大学助教授,神戸大学文学部助教授を経て,1998年より大阪大学大学院文学研究科助教授,現在に至る.専門は日本語の文法史であるが,田窪行則氏との共同研究で,現代日本語の談話管理に関する研究も行っている.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N02-01
|
\section{まえがき}
日本語文の表層的な解析には,\係り受け解析がしばしば用いられる.\係り受け解析とは,\一つの文の中で,\どの文節がどの文節に係る(広義に修飾する)かを定めることであるが,\実際に我々が用いる文について調べて見ると,\2文節間の距離とそれらが係り受け関係にあるか否かということの間に統計的な関係のあることが知られている.\すなわち,\文中の文節はその直後の文節に係ることがもっとも多く,\文末の文節に係る場合を除いては距離が離れるにしたがって係る頻度が減少する\cite{maruyama}.係り受け距離に関するこのような統計的性質は「どの文節も係り得る最も近い文節に係る」というヒューリスティクス\cite{kurohashi}の根拠になっていると思われる.しかし実際には「最も近い文節に係ることが多い」とは言え,\「最も近い文節にしか係らない」というわけではない.\したがって,\係り受け距離の統計的性質をもっと有効に利用することにより,\係り受け解析の性能を改善できる可能性がある\cite{maruyama}.本論文では,総ペナルティ最小化法\cite{matsu,ozeki}を用いて,係り受け距離に関する統計的知識の,係り受け解析における有効性を調べた結果について報告する.総ペナルティ最小化法においては,2文節間の係り受けペナルティの総和を最小化する係り受け構造が解析結果として得られる.ここでは,係り受け距離に関する統計的知識を用いない場合と,そのような知識を用いて係り受けペナルティ関数を設定するいくつかの方法について,解析結果を比較した.また,「係り得る最も近い文節に係る」というヒューリスティクスを用いた決定論的解析法\cite{kurohashi}についても解析結果を求め,上の結果との比較を行った.学習データとテストデータを分離したオープン実験の結果や統計的知識を抽出するための学習データの量が解析結果に与える効果についても検討した\cite{tyou}.
\section{係り受け距離の統計的知識}
丸山らは新聞記事データベースを用いて係り受け距離とその頻度の関係を調査し,それを表す近似式を見い出した\cite{maruyama}.我々はATR音声データベース(セットB)\cite{ATR}に含まれる503文コーパスについて丸山らと同様の調査を行った.コーパスの概要を表1に示す.全体の503文は\hspace{-0.25mm}$A〜J$\hspace{-0.25mm}までの10グループに分割されており,\hspace{-0.5mm}$A〜I$のグループには各50文,グループ$J$には53文が含まれている.各文節には,それを受ける文節との間の距離を表すラベルが付けられている.文の係り受け構造はこれらの値によって知ることができる.\begin{center}{表1\\\ATR音声データベース(セットB)中のコーパス}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|}\hline文体&文数&文節数/文&\\係り受け数\\\\\hline\hline新聞記事\,\教科書&5\0\3&6\.\8&2\9\2\3\\\hline\end{tabular}\end{center}\subsection{係り受け距離の頻度分布}文$x_1x_2...x_N$\($x_k$は文節)において\$x_i$\が\$x_j$\に係るとき,\$x_i$\と\$x_j$\の係り受け距離を\$j-i$\と定義する.また,$N-i$\を\$x_i$\のレンジと呼ぶ.表2は係り受け距離の頻度分布を距離4以下について示したものである.レンジは考慮していない.距離が11以上の係り受けは存在しなかった.このコーパスでは距離が1の係り受けが全体の64.\6\%を占めている.文の構成要素(日本語における文節や英語における単語など)が,隣接する構成要素を修飾する傾向は他の言語においても見られる.例えば,英語においても,文中の単語が直後の単語を修飾する$(Right\Association)$頻度は$67\%$\に及ぶことが報告されている\cite{Don}.\begin{center}{表2\\\係り受け距離の頻度分布}\vspace*{2mm}\\\begin{tabular}{|c|c|}\hline係り受け距離&係り受け数(相対頻度)\\\hline\hline1&1889(64.6\%)\\\hline2&487(16.7\%)\\\hline3&243(8.3\%)\\\hline4&136(4.7\%)\\\hline\end{tabular}\end{center}\subsection{係り受け距離の頻度を表す近似式}レンジごとに求めた係り受け距離の頻度分布を表3に示す.\begin{center}{\hspace*{10mm}表3\\\レンジごとの係り受け距離の頻度分布}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|c|c|}\hline\makebox[10mm]{}&\multicolumn{6}{c|}{係り受け距離}\\\cline{2-7}\makebox[10mm]{\raisebox{1.0ex}{レンジ}}&\makebox[10mm]{1}&\makebox[10mm]{2}&\makebox[10mm]{3}&\makebox[10mm]{4}&\makebox[10mm]{5}&\makebox[10mm]{6}\\\hline2&278(55.7\%)&221(44.3\%)&&&&\\\hline3&268(55.6\%)&51(10.6\%)&163(33.8\%)&&&\\\hline4&260(58.6\%)&66(14.9\%)&12(2.7\%)&106(23.8\%)&&\\\hline5&209(57.4\%)&54(14.8\%)&21(5.8\%)&10(2.8\%)&79(19.2\%)&\\\hline6&141(55.5\%)&37(14.6\%)&23(9.1\%)&6(2.4\%)&1(0.4\%)&46(18\%)\\\hline\end{tabular}\vspace*{3mm}\\\end{center}ただし,レンジが6以下のものだけを掲げた.このデータを用いて文献\cite{maruyama}と同じ方法により距離頻度の近似式\bigskip\[\hspace*{5mm}P\(k)\=\left\{\begin{array}{lll}\raisebox{2.5ex}{$\ak^{b}\,$}&\mbox{\raisebox{2.5ex}{$1≦k\≦r-1$のとき;}}&\\\raisebox{-0.5ex}{$\1-\sum_{j=1}^{r-1}P\(j)\,$}&\mbox{\raisebox{-0.5ex}{$k=r$のとき}}&\hspace*{15mm}{\raisebox{1.7ex}{(1)}}\end{array}\right.\]\\\hspace*{20mm}(\$k$\は係り受け距離,\\$r$\は係り文節のレンジ)\vspace*{3.9mm}\\\noindentをあてはめたところ$a=0.58$,$b=-1.886$が得られた.これは,丸山らの結果$a=0.54$,$b=-1.\896$と近いものである.\vspace{-0.1mm}\subsection{係り文節の種類による係り受け距離の頻度分布のちがい}\vspace{-0.1mm}前節に述べた係り受け距離の頻度分布は,文節の種類を考慮に入れずに求めた,全文節に対する平均的なものであるが,係り受け距離の頻度分布は係り文節の種類に依存することが予想される.そこで,ここでは係り文節をその末尾の形態素によって表4に示す基準により約100種類に分類し,その種類別に頻度分布を求めた.品詞属性はコーパスの説明書\cite{ATR}によった.\begin{center}表4\\\係り文節の分類基準\vspace*{2mm}\\\begin{tabular}{|l|l|l|}\hline&&活用語\:\品詞属性と活用形により分類\\\cline{3-3}末尾の&{\raisebox{1.5ex}{自立語}}&非活用語\:\品詞属性により分類\\\cline{2-3}形態素&&活用語\:\品詞属性と活用形により分類\\\cline{3-3}&{\raisebox{1.5ex}{附属語}}&非活用語\:\形態素と品詞属性により分類\\\hline\end{tabular}\end{center}\vspace*{4mm}また,受け文節はそれが文末であるか非文末であるかによって区別した.そして係り文節の種類別に,また受け文節が文末か非文末かを区別して係り受け距離の頻度を求めた.具体的な計算は4.2の{\bf3}に述べる定義式によって行なう.距離の頻度分布が係り文節の種類に大きく依存する例を表5に示す.格助詞「が」の係り受け距離の頻度分布は式(1)\($a=0.58$,$b=-1.886$)に近いが,接続助詞「が」の場合には距離2で頻度最大になり,ほかの距離の頻度は一様になっている.このような頻度分布を式(1)のような単調減少関数で近似することには無理がある.したがって,本研究では係り文節の種類別に求めた頻度分布を,そのまま係り受け解析のための情報として用いた.\begin{center}表5\\係り文節の種類により係り受け距離の頻度分布が異なる例\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|}\hline\\係り文節の種類\\&\\距離\1\\&\\距離\2\\&\\距離\3\\&\\距離\4\\\\\hline\hline格助詞「が」&67.9\%&21.9\%&5.4\%&3.1\%\\\hline接続助詞「が」&11.8\%&35.3\%&11.8\%&11.8\%\\\hline\end{tabular}\end{center}
\section{係り受け解析法}
係り受け距離の統計的性質を利用することにより,どの程度,解析性能が向上するかを調べるため,総ペナルティ最小化法\cite{matsu,ozeki}を用いて係り受け解析の実験を行った.また,これと比較するため,決定論的解析法による解析も行った.ここではこれらの解析法について簡単に説明する.\subsection{総ペナルティ最小化法}文節列が“正しい”文を構成するためには文節間に以下の条件を満たす係り受けが存在する必要があると考えられている\cite{yoshida}.\begin{description}\item[唯一性]文末の文節以外は,必ずそれより後ろにある文節のいずれか唯一に係る.\item[非交差性]係り受けは交差しない.\item[整合性]2文節間に係り受けが成立するためには,それらを構成する形態素の品詞や活用形,意味などが整合しなくてはならない.\end{description}総ペナルティ最小化法においては2文節間の整合性を程度の問題と考え,それをペナルティ関数で表す.そして,唯一性と非交差性を満たす係り受け構造の中でペナルティの総和が最小になるものすべてを解析結果として出力する.この計算は動的計画法の原理を用いることにより効率よく実行できる\cite{ozeki}.ペナルティ関数を適切に設定することにより,2文節間の種々の関係を係り受け解析に利用することができると考えられる.本研究では,後で述べるように係り受け距離の頻度分布に基づいてペナルティ関数を設定した.\subsection{決定論的解析法}この解析法\cite{kurohashi}においては,整合性を程度の問題とは捉えず,整合するかしないかのいずれかであると考える.解析は文末から順に,その文節を受ける文節を決定することにより行われる.非交差性,整合性を満たす受け文節の候補が複数個ある時は,最も距離が近い文節を採用する.解析の途中で受け文節が見出せない時には,その時点で解析不能となる.本研究で用いたアルゴリズムを図1に示す.
\section{実験と結果}
係り受け距離の頻度情報に基づいて,いくつかのぺナルティ関数を定義し,総ペナルティ最小化法による係り受け解析を行った.結果を正解検出率,一意正解率,曖昧度減少率および平均候補数によって評価し,ぺナルティ関数による結果の違いを比較検討した.また,決定論的解析法による解析も行い,総ペナルティ最小化法の結果と比較した.\begin{center}\begin{minipage}{120mm}\vspace*{3mm}\noindentN\:\文の文節数\;\\kakari\_n\:\係り文節番号(1≦kakari\_n≦N−1)\;\\uke\_n\:\受け文節番号(2≦uke\_n≦N)\;\\uke\_number\[\i\]\:\文節番号iの文節を受ける文節の番号\;\\kakari\_uke\_if\(\i\,\j\)\:\文節番号iの文節が文節番号j\の文節に係り得るか否かをチェックする関数\.\bigskip\noindentprogram\\\deterministic\_analysis\;\\\hspace*{7mm}var\\\\kakari\_n\,uke\_n\:\integer\;\\\hspace*{16mm}uke\_number\[\i\]\:\array\[\1\.\.\N\]\\of\\integer\;\\begin\\\hspace*{10mm}uke\_number\[\N\]\:=N\+\1\;\\\hspace*{10mm}uke\_number\[\N−1\]\:=N\;\\\hspace*{10mm}for\\\kakari\_n:=N−2\\\downto\\\1\\\do\\\hspace*{15mm}begin\\\hspace*{20mm}uke\_n\:=kakari\_n\+\1\;\\\hspace*{20mm}while\\(uke\_n\$<=$\N)\and\\\hspace*{35mm}(kakari\_uke\_if\(\kakari\_n\,\uke\_n)=false)\\\\\hspace*{20mm}do\\\uke\_n:=uke\_number\[\uke\_n\]\;\\\hspace*{20mm}if\hspace*{1mm}\uke\_n=N\+\1\\hspace*{3mm}\\\hspace*{20mm}then\\\begin\\\hspace*{37mm}write\(\'\failed\'\)\;\\\hspace*{37mm}uke\_number\[\kakari\_n\]\:=kakari\_n\+\1\\\\hspace*{33mm}end\\\hspace*{20mm}else\\\\uke\_number\[\kakari\_n\]\:=uke\_n\\\hspace*{15mm}end\\end\.\bigskip\begin{center}図1\\\本研究で用いた決定論的解析アルゴリズム\end{center}\end{minipage}\end{center}\subsection{係り受け規則}文献\cite{kurohashi}を参考にして,2文節間の形態素による整合条件を表6に示すように定めた.\begin{center}{\hspace*{15mm}表6\\\係り受け規則}\vspace*{2mm}\\\footnotesize\begin{tabular}{|l|c|c|c|c|c|c|c|}\hline{}&\multicolumn{7}{c|}{受け文節の頭部の形態素}\\\cline{2-8}&&&&{\raisebox{-1.0ex}{述語の}}&{\raisebox{-1.0ex}{連体形の}}&{\raisebox{-1.0ex}{連体形の}}&{\raisebox{-1.0ex}{連用形の}}\\{\raisebox{0.5ex}{係り文節の後部の形態素}}&名詞&{\raisebox{1.5ex}{名詞+}}&動詞&イ・ナ&イ&ナ&イ・ナ\\&&{\raisebox{1.5ex}{判定詞}}&&{\raisebox{0.8ex}{形容詞}}&{\raisebox{0.8ex}{形容詞}}&{\raisebox{0.8ex}{形容詞}}&{\raisebox{0.8ex}{形容詞}}\\\hline連体詞&+&&&&&&\\\hline活用語の連用形&&+&+&+&&&\\\hline活用語の基本形・タ形&+&&&&&&\\\hline副詞&&+&+&+&+&+&+\\\hline助詞&&&&&&&\\\hline\hspace*{10mm}の&+&+&+&+&+&&\\\hline\hspace*{10mm}が、に、より&&+&+&+&+&+&\\\hline\hspace*{10mm}へ&&+&+&&&&\\\hline\hspace*{10mm}を&&&+&&&&\\\hline\hspace*{10mm}他の助詞&&+&+&+&&&\\\hline\end{tabular}\end{center}\vspace*{3mm}実際には,この条件を,「受け文節の頭部の形態素」としての「名詞」,「名詞+判定詞」,「動詞」のさまざまな変形に対処できるように補強して用いる.例えば,「二時半ごろだった」(「数詞+接尾語+名詞+名詞+助動詞+助動詞」)は「名詞+判定詞」として認識されるようにしている.ここではこの条件を係り受け規則と呼ぶ.この規則は総ペナルティ最小化法と決定論的解析法の両方において共通に使用した.\subsection{ぺナルティ関数の定義}係り文節$x$,受け文節$y$\に対してぺナルティ関数$F\(x,y)$を次のように定義する.\[\hspace*{5mm}F\(x,y)=\left\{\begin{array}{lll}\raisebox{2.5ex}{$-\logP\(x,y)\,\$}&\mbox{\raisebox{2.5ex}{$P\(x,y)>0$\のとき\;}}&\\\mbox{\raisebox{-1.0ex}{c\,\}}&\mbox{\raisebox{-1.0ex}{$P\(x,y)=0$\のとき\}}&\hspace*{15mm}{\raisebox{1.7ex}{(2)}}\end{array}\right.\]ここで,\$P\(x,y)$\は\$x$\が\$y$\に係る頻度から定まる値である.その具体的な定め方は後で述べる.文節$x,\y$\が係り受け規則を満たさない場合には$P\(x,y)=0$\と定義する.このときのぺナルティ値\c\は非零の$P\(x,y)$で生成される最大ぺナルティ値より十分大きな値に設定する.これにより,文節\$x,\y$\が係り受け規則を満たさない場合には大きなぺナルティが課せられる.また,係り受け規則を満たす場合には,\$P\(x,y)$が大きい程,ぺナルティは小さくなる.$P\(x,y)$として次の4種類の関数を考え,それぞれに対して実験を行った.\begin{description}\item[1]距離情報なし\[P_1\(x,y)=α\]$α$は正の定数である.すなわち,\$(x,y)$\が一様分布することを仮定する.\item[2]距離の頻度近似式\[P_2\(x,y)=P\(d\(x,y)\)\]ここで,\$d\(x,y)$は$x$と$y$\の係り受け距離であり,\$P\(\・\)$は式(1)である.\item[3]係り文節の種類別に求めた頻度分布2.3で述べたように,\係り受け距離の頻度分布は係り文節の種類に依存する.また,係り受け距離が同じでも受け文節が文末か非文末かによって係り受け頻度は大きく異る\cite{maruyama}.そこで係り文節の種類別に,また受け文節が文末か非文末かを区別して,以下のように係り受け距離の頻度分布を求めた.係り文節の種類(表4)を番号\$m$\で表す.そして,\\$T\(m)$\を係り文節が第\$m$\種の文節であるような係り受け文節対の全体とする:\vspace*{2mm}\\\hspace*{12mm}$T(m)\=\\{\(u,v)\|\文節\u\は文節\v\に係る,\u\は第\$m$\種の係り文節\}$\vspace*{2mm}\\\$T\(m)$\の中で,\係り文節と受け文節の距離が\$k$\であり,\受け文節が文末であるようなものの全体を$S_l^{m}\(k)$,\同じく受け文節が非文末であるようなものの全体を$S_n^{m}\(k)$とする:\vspace*{2mm}\\\hspace*{10mm}$S_l^{m}\(k)=\\{\(u,v)\|\(u,v)\inT\(m),\d\(u,v)=k\,\v\は文末文節\}$\\,\vspace*{2mm}\\\hspace*{10mm}$S_n^{m}\(k)=\\{\(u,v)\|\(u,v)\inT\(m),\d\(u,v)=k\,\v\は非文末文節\}$\vspace*{2mm}\\当然,\次の関係がある:\[\T\(m)=\\cup_{k}\(S_l^{m}\(k)\\cup\S_n^{m}\(k)\)\]そして,\以下の式により文節$x$が文節$y$に係る相対頻度の推定値$P_3\(x,y)$を計算する:\vspace*{1mm}\[P_3\(x,y)=\left\{\begin{array}{l}\mbox{\raisebox{3.0ex}{$|\S_l^{m(x)}\(d\(x,y))|\\/\|T\(m(x))|$\,\yが文末文節のとき\;}}\\\mbox{\raisebox{-0.5ex}{$|\S_n^{m(x)}\(d\(x,y))|\\/\|T\(m(x))|$\,\yが非文末文節のとき\}}\\\end{array}\right.\]\vspace*{1mm}\\ここで\$m(x)$\は係り文節\$x$\の種類を表し,\$|・|$は集合の要素数を表す.すなわち,\$P_3\(x,y)$は,\\$d\(x,y)=\k$とするとき,\$x$\と同じ種類の文節を係り文節とする係り受け文節対の中で,距離が\$k$\であるようなものが,どれだけの割合で存在するかを示す量であり,\$y$が文末か非文末かに分けて計算される.ここでは,係り受け文節対の出現頻度が,係り文節の種類,係り受け距離,および受け文節が文末か非文末かの三つの変数に依存して定まる分布モデルが仮定されていることになる.\item[4]補間した頻度分布\\\hspace*{4mm}係り受け規則がコーパスを完全にカバーしていないため,ある文節を受ける文節が文末までに存在しないことがある.また係り受け規則で許されても,コーパスの希薄性によって,係り受け頻度が0となる場合がある.そこで,\$P_3$\に次のような一種の補間を施し,その結果を\$P_4\(x,y)$とする.\begin{description}\item[(1)]\上のような問題がない場合\:\[P_4\(x,y)=P_3\(x,y)\]\item[(2)]\上のような問題がある場合\:\begin{description}\item[(a)]文節$x$を受ける文節が文末までに存在しない場合:\\文節$x$がどの文節に係るかを係り受け距離の頻度分布に基づくヒューリスティクスで定める.\\すなわち,文節$x$に対して,上の\{\bf3}\で推定された係り受け頻度が最大となる後続文節を求め,\$x$がその文節に係ることを許す.また,他の文節に係ることは許さない.これは,文節\$x$が後続文節\$y$\に係ることが係り受け規則の上では許されなくても,もし文節間距離が\$d\(x,y)$に等しい係り受け文節対の出現頻度が大きければ,それを許そうという考え方である.その際,出現頻度が最も大きい後続文節だけに対して文節\$x$が係ることを許し,他の文節に対しては許さないことにする.実際の計算は次のように行なう.文節\$x$に対して,最大係り受け頻度を与える後続文節を\$z$とする:\[z=\arg\max\{\P_3\(x,y)\|\y\は\xの後続文節\}\]このような\$z$\が複数個あるときは,\それらをすべて求める.\そして,\文節$x$が後続文節\$y$\に係る頻度$P_4\(x,y)$を次のように設定する:\[P_4\(x,y)=\left\{\begin{array}{ll}\raisebox{2.0ex}{$\P_3\(x,y)$\,}&\mbox{\raisebox{2.0ex}{$y=z$\のとき;}}\\\raisebox{-1.0ex}{\0\,}&\mbox{\raisebox{-1.0ex}{$y≠z$\のとき}}\\\end{array}\right.\]\item[(b)]$xがy$\に係ることが,\係り受け規則で許されるにもかかわらず,\$P_{3}\(x,y)$が0になる場合:\[P_4\(x,y)=β\]ただし,$β$は\[\max_{u,\v}\{-\logP_3\(u,v)\\}<-\logβ<<\mbox{\c}\hspace*{20mm}(3)\]を満たすような値に設定する.ここで,\最左辺の最大値は文節$\u\が文節\v\$に係ることが係り受け規則で許されるような$u\,\v$\のすべての組についてとる.これはいわゆる底上げ(flooring)の技法である.このとき,\$x$\が\$y$\に係るペナルティは\$-\logβ$\となるが,式(3)は,このペナルティが係り受け規則により係り受けが許されない文節対のペナルティよりははるかに小さく,また,係り受け頻度から定まる最大ペナルティよりは大きくなるように\$β$\の値を設定することを意味する.\end{description}\end{description}\end{description}\subsection{解析実験}解析実験は学習データから係り受け距離の頻度情報を抽出する学習ステップと,その頻度情報に基づいて設定したペナルティ関数を用いてテストデータを係り受け解析し,結果を評価する解析ステップから成る.\\まず学習法と各種のパラメータ設定法について説明する.$P_1$を用いる場合には,頻度情報は全く使用しない,したがって学習は不要である.αはどのような値に設定しても解析結果は同じになる.$P_2$\はパラメトリックな分布モデルである.学習ステップにおいては,学習データを用いてパラメータ\$a$,\$b$\を推定する.$P_3$\はノンパラメトリックな分布モデルである.学習ステップにおいては,学習データを用いて,係り文節の種類\$m$\と\係り受け距離\$k$\に対して$S_l^{m}\(k)$と$S_n^{m}\(k)$を求め,\記憶する.解析ステップにおいては,各文節\$x$,\$y$\に対し,\$S_l^{m(x)}\(k)$と$S_n^{m(x)}\(k)$から定義式に基づいて\$P_3\(x,y)$\の値を計算し,ペナルティ関数の値を設定する.$P_4$\は基本的には$P_3$\から定まるので学習する必要はない.βの値は式(3)を満たす限りどのような値に設定しても結果に大きな差はないと考えられるので,式(3)を満たす値を任意に選んで使用した.ペナルティ関数を式(2)によって定義するとき,定数\$c$\を定める必要がある.これは文節\$x$\が文節\$y$\に係ることが係り受け規則により許されないとき,あるいは文節\$x$\が文節\$y$\に係る頻度が\0\になるとき\(\$P_4$\によって補間されない限り)文節\$x$\が文節\$y$\に係ることを禁止するような大きなペナルティを与えるためのものである.したがって,これは$\infty$とも言うべきものであり,十分大きな値に設定すれば,どのような値に設定しても解析結果に差はない.このような学習法およびパラメータ設定法を用いて次のような3種類の実験を行った.\begin{description}\item[実験1]$P_1$〜$P_4$を用いてぺナルティ関数を定義し,総ペナルティ最小化法による解析実験を行った.この実験では係り受け距離の頻度情報を抽出するための学習データとテストデータを分離せず,どちらも503文すべてを用いた.比較のため同じデータを用いた決定論的解析法による解析実験も併せて行った.\item[実験2]実験1で総合的に最も良い結果が得られたのは$P_4$\hspace{-0.25mm}で定めたぺナルティ関数である.これを用いて,学習データとテストデータを分離した解析実験を行った.10グループ$A〜J$\の一つをテストデータとし,残りを学習データとした.テストデータを$AからJ$\まで変えて10回の実験を行った.\item[実験3]学習データの量と解析結果との関係を調べるため,テストデータをグループ$J$\に固定し,学習データを$A,A\cupB,A\cupB\cupC,\cdots$と漸次増加させる実験を行った.純粋に学習データの量が解析結果に与える効果を見い出すため,補間していない$P_3$を用いてぺナルティ関数を定めた.\end{description}\subsection{解析結果}解析結果について述べるため,まず記法と用語を定義する.\begin{itemize}\item$M$\:\評価に用いるテスト文の総数\;\item$S_i$\:\番号$i$のテスト文\;\item$L_i$\:\文$S_i$の文節数\;\\\hspace*{7mm}文$S_i$\に対する係り受け構造の中の係り受けの総数は\$L_i-1$\に等しい.\item$D_i$\:\長さ$L_i$\の文節列上に存在し得る係り受け構造の総数;\\\hspace*{7mm}$D_i$\はカタラン数と呼ばれる数列になり,\次の式によって計算することができる:\[D_i=\frac{1}{L_i}\_{2(L_i-1)}C_{(L_i-1)}\]\hspace*{8mm}ここで\$_{2(L_i-1)}C_{(L_i-1)}$\は\$2(L_i-1)$個のものから\$(L_i-1)$\個のものをとる組合せの数を表す.\この式は再帰式\[D_i\=\left\{\begin{array}{ll}\{\raisebox{2.0ex}{1,}}&\mbox{\raisebox{2.0ex}{$i=1$\のとき;}}\\\\sum_{1≦j≦i-1}{D_{i-j}D_j}\,&\mbox{$i≧2$\のとき}\\\end{array}\right.\]\newlineが成り立つ\cite{ozeki}ことと\,母関数の手法\cite{JCC}を用いることにより示すことができる.\item$R_i$\:\文$S_i$の解析結果\,\すなわち係り受け構造候補の集合\;\item$K_{ij}$\:\文$S_i$に対する$j\(\1≦j≦|R_i|\)$番目の解析候補の中でコーパスのラベルに示されるものと一致する係り受けの数\.\bigskip\end{itemize}{\bf評価方法}\vspace*{1mm}\noindent結果の評価は,\\(1)\\2文節間の係り受けがどの程度正しく検出されたか,\\(2)\\係り受け構造がどの程度正しく検出されたか,という二つの観点から行った.また,文の検出率が高くても一つの文に対する解析結果の候補数が多ければ良い解析法とは言えない.このため,候補数がどれだけ絞られるかを評価することとした.さらに,解析を行うことにより,情報理論的な曖昧さがどれだけ減少するかを調べ,全体的な解析効率を評価した.これらの評価を行うため,以下のようないくつかの評価尺度を定義した.\noindent(1)係り受けの正しさに着目した評価尺度\bigskip\[\\文S_i\の係り受け検出率\=\\frac{\sum_{j=1}^{|R_i|}K_{ij}}{(L_i-1)×|R_i|}\]\bigskip\[係り受け検出率\=\\frac{\sum_{i=1}^{M}\sum_{j=1}^{|R_i|}K_{ij}}{\sum_{i=1}^{M}(L_i-1)×|R_i|}\]\newline係り受け検出率は,解析結果がラベルと部分的に一致する度合を示す数字である.このような部分的一致も,結果を意味理解に利用する場合などには有用と思われる.決定論的解析法を用いた解析実験においては,解析の途中で,ある文節を受ける文節が存在しない時には,直後の文節を受け文節として解析を続けた.その結果をもとにして係り受け検出率を計算した.\vspace*{3mm}\\(2)係り受け構造の正しさに着目した評価尺度\noindent(a)文検出数と文検出率\[文検出数_k\=\sum_{i\:\|R_i|≦k}I_i\]ここで\[I_i\=\left\{\begin{array}{ll}{\raisebox{2.0ex}{1\,}}&\mbox{\raisebox{2.0ex}{$R_i$の中にラベルで指定される係り受け構造と一致する候補が存在する場合;}}\\{\raisebox{-0.5ex}{0\,}}&\mbox{\raisebox{-0.5ex}{他の場合}}\end{array}\right.\]\vspace*{2mm}$文検出数_k$\は,出力された解析結果の候補数が\$k$\以下であり,\かつ,\その中にコーパス中のラベルで指定される係り受け構造と一致するものが含まれるようなテスト文の数である.また,これをテスト文の総数に対する比で表わしたものを,$文検出率_k$\と呼ぶ\:\bigskip\[文検出率_k\=\\frac{文検出数_k}{M}\]\newline$文検出数_\infty$,\$文検出率_\infty$\をそれぞれ単に文検出数,\文検出率という.また,\$文検出数_1$,\$文検出率_1$\をそれぞれ一意正解数,\一意正解率と呼ぶことにする.\一意正解数は解析結果が一意的に決定し,\それがコーパスのラベルと一致したテスト文の数である.\noindent(b)平均候補数\[平均候補数\=\\frac{\sum_{i=1}^{M}|R_i|×I_i}{\sum_{i=1}^{M}I_i}\]\newline\noindent(c)曖昧度減少率\\文$S_i$の係り受け構造の候補数の対数をその文の曖昧度と定義すると,\begin{table}[b]\begin{center}表7{\\\\実験1の結果}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|c|}\hline\makebox[30mm]{}&\makebox[26mm]{\raisebox{-0.5ex}{文検出数}}&\makebox[14mm]{\raisebox{-0.5ex}{平均}}&\makebox[14mm]{\raisebox{-0.5ex}{曖昧度}}&\makebox[24mm]{\raisebox{-0.5ex}{係り受け}}\\[-2mm]\makebox[30mm]{\raisebox{1.5ex}{ペナルティ関数}}&\makebox[26mm]{文検出率(\%)}&\makebox[14mm]{候補数}&\makebox[14mm]{減少率}&\makebox[24mm]{検出率(\%)}\\\hline\makebox[30mm]{$P_1(距離情報なし)$}&\makebox[26mm]{432(85.9)}&\makebox[14mm]{41.3}&\makebox[14mm]{0.40}&\makebox[24mm]{61.5}\\\hline\makebox[30mm]{$P_2(近似式)$}&\makebox[26mm]{247(49.1)}&\makebox[14mm]{2.5}&\makebox[14mm]{0.36}&\makebox[24mm]{75.2}\\\hline\makebox[30mm]{$P_3(種類別)$}&\makebox[26mm]{321(63.8)}&\makebox[14mm]{2.9}&\makebox[14mm]{0.52}&\makebox[24mm]{74.4}\\\hline\makebox[30mm]{$P_4(補間)$}&\makebox[26mm]{287(57.1)}&\makebox[14mm]{1.1}&\makebox[14mm]{0.47}&\makebox[24mm]{87.1}\\\hline\hline\makebox[30mm]{決定論的解析法}&\makebox[26mm]{193(38.4)}&\makebox[14mm]{1.0}&\makebox[14mm]{0.28}&\makebox[24mm]{81.9}\\\hline\end{tabular}\end{center}\end{table}\vspace*{2mm}\[解析前の曖昧度=\logD_i\]\[解析後の曖昧度=\left\{\begin{array}{ll}\mbox{\raisebox{1.0ex}{$\log|R_i|\,$}}&\mbox{\raisebox{1.0ex}{$R_i$の中にラベルで指定される係り受け構造と}}\\&\mbox{\raisebox{1.0ex}{一致する候補が存在する場合\;}}\\\raisebox{-0.5ex}{$\logD_i\,$}&\mbox{\raisebox{-0.5ex}{他の場合}}\end{array}\right.\]\vspace*{1mm}\\\hspace*{36mm}$=\log\(D_i+(\|R_i|-D_i\)\I_i)$\vspace*{2mm}\\となる.これを用いて,\次の量を定義する.\bigskip\[曖昧度減少率=\frac{\sum_{i=1}^{M}\logD_i-\sum_{i=1}^{M}\log\(D_i+(\|R_i|-D_i)\I_i)}{\sum_{i=1}^{M}\logD_i}\]\newline曖昧度減少率は文の統語的な曖昧さが解析により減少する度合を表す.\vspace*{1mm}\\{\bf実験結果と分析}\vspace*{1mm}\\(1)\実験1の結果を表7に示す.また,\同実験において候補数を制限したときの文検出数(率)を表8に示す.\begin{table}[t]\begin{center}表8\\\\{候補数を制限したときの文検出数(率)}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|}\hline\makebox[30mm]{}&\multicolumn{3}{c|}{$文検出数_k$\(率\%)}\\\cline{2-4}\makebox[30mm]{ペナルティ関数}&\makebox[20mm]{}&\makebox[20mm]{}&\makebox[28mm]{\raisebox{-1.0ex}{一意正解数(率)}}\\\makebox[30mm]{}&\makebox[20mm]{\raisebox{1.5ex}{$k=50$}}&\makebox[20mm]{\raisebox{1.5ex}{$k=10$}}&\makebox[28mm]{\raisebox{0.5ex}{($k=1$)}}\\\hline\makebox[30mm]{$P_1(距離情報なし)$}&\makebox[20mm]{364(72.4)}&\makebox[20mm]{235(46.7)}&\makebox[28mm]{31(6.2)}\\\hline\makebox[30mm]{$P_2(近似式)$}&\makebox[20mm]{246(48.9)}&\makebox[20mm]{244(48.5)}&\makebox[28mm]{195(38.8)}\\\hline\makebox[30mm]{$P_3(種類別)$}&\makebox[20mm]{319(63.4)}&\makebox[20mm]{315(62.6)}&\makebox[28mm]{237(47.1)}\\\hline\makebox[30mm]{$P_4(補間)$}&\makebox[20mm]{287(57.1)}&\makebox[20mm]{287(57.1)}&\makebox[28mm]{264(52.5)}\\\hline\hline\makebox[30mm]{決定論的解析法}&\makebox[20mm]{193(38.4)}&\makebox[20mm]{193(38.4)}&\makebox[28mm]{193(38.4)}\\\hline\end{tabular}\end{center}\end{table}$P_1$を用いた場合は,\他の場合と比べて,\文検出率が高い反面,\平均候補数が非常に大きい.また,\表8から$文検出率_k$\(\$k=10,\1$)は$P_2$〜$P_4$を用いた場合の方が,\$P_1$を用いた場合より高い.したがって,\係り受け距離の情報は候補数を絞るのに有効であることがわかった.$P_3$を用いた場合は,\$P_2$を用いた場合と比較して,\表7における文検出率,\および表8における$文検出率_k$\(\$k=50,\10,\1$)が高い.したがって,\係り文節の種類別に求めた係り受け距離の頻度情報は,\係り文節を分類せず全体で求めた情報よりも,\各文検出率$_k$を高めるのに有効である.また,\その結果,\曖昧度が減少している.$P_4$を用いた場合は,\$P_3$を用いた場合と比べて,\表7における係り受け検出率と表8における一意正解率が高くなっている.したがって,\補間は係り受け検出率と一意正解率を上げる効果があることが検証された.文検出率は低下したが,\$P_2$を用いた場合よりは高く,\平均候補数は$P_3$を用いた場合の半分以下になっている.したがって,\距離の頻度分布を補間することにより,\ある程度係り受け規則の不完全さとコーパスの希薄性の問題を軽減できることがわかった.また,\平均候補数は1.1まで絞られており,\87.1\%\というかなり高い係り受け検出率が得られることから,\この解析法を意味理解のための部分解析法として使用できる可能性がある.\hspace{0.25mm}決定論的解析法を用いた解析実験と比較すると,\$P_1〜P_4$を用いた場合は表7\hspace{0.1mm}の平均候補数が大きくなったかわりに文検出率がかなり向上している.さらに,\表8において,\$P_2$〜$P_4$を用いた場合は決定論的解析法を用いた場合の一意正解率を越えるともに各$文検出率_k$\が高くなっている.とくに$P_4$を用いた場合は決定論的解析法を用いた場合と平均候補数がほとんど等しく,\各$文検出率_k$\,\曖昧度減少率,\および係り受け検出率が高くなっている.したがって,\係り受け距離の統計的知識を利用した総ペナルティ最小化法により,\決定論的解析法を用いた場合に比べて解析性能を向上させることができる.\\(2)\実験2の結果を表9に示す.\begin{table}[b]\hspace*{50mm}表9\\\\{実験2の結果}\vspace*{2mm}{\small\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c|c|}\hline\begin{tabular}[c]{@{}c@{}}テスト\\[-1.1mm]グループ\\\end{tabular}&\makebox[6mm]{A}&\makebox[6mm]{B}&\makebox[6mm]{C}&\makebox[6mm]{D}&\makebox[6mm]{E}&\makebox[6mm]{F}&\makebox[6mm]{G}&\makebox[6mm]{H}&\makebox[6mm]{I}&\makebox[6mm]{J}&合計\\\hline文数&50&50&50&50&50&50&50&50&50&53&503\\\hline\hline\begin{tabular}[c]{@{}c@{}}文検出数\\[-1.1mm](率)\\\end{tabular}&25&27&20&26&25&16&26&26&29&41&261(52\%)\\\hline\begin{tabular}[c]{@{}c@{}}一意正解数\\[-1.1mm](率)\\\end{tabular}&21&22&19&19&22&13&18&24&23&37&218(43\%)\\\hline\begin{tabular}[c]{@{}c@{}}平均\\[-1.1mm]候補数\\\end{tabular}&1.3&1.3&1.1&1.5&1.1&1.2&1.4&1.1&1.2&1.1&1.2\\\hline\begin{tabular}[c]{@{}c@{}}曖昧度\\[-1.1mm]減少率\\\end{tabular}&0.39&0.41&0.30&0.49&0.33&0.28&0.41&0.42&0.44&0.68&0.42\\\hline\end{tabular}\end{center}}\end{table}この実験は学習データとテストデータを分離した,いわゆるオープン実験である.文検出率と一意正解率はクローズ実験である実験1の結果に比べると若干低下し,平均候補数もやや増加している.しかし,\1.2という平均候補数は,この解析結果に対してさらに何らかの後続処理を行う場合,処理量の上で問題となる数ではなく,\表7に示される決定論的解析法の結果と比べると,文検出数,一意正解数,曖昧度減少率など全てが高い.したがって,\未知文の係り受け解析に対しても(1)と同様の結論が導かれる.\\(3)\実験3の結果を表10に示す.これもオープン実験である.学習データの量が増加するに従って,一意正解数,曖昧度減少率が向上するともに,平均候補数は減少する.文検出数はほぼ一定に保たれる.したがって,学習データ量を増加させることはこのような解析法の性能向上に有効である.より大きなコーパスを使用することによって,更に解析性能が向上することが期待される.\begin{center}表10\\\\{実験3の結果}\vspace*{2mm}\\\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|}\hline学習データの量&{\raisebox{-1.0ex}{50}}&{\raisebox{-1.0ex}{100}}&{\raisebox{-1.0ex}{150}}&{\raisebox{-1.0ex}{200}}&{\raisebox{-1.0ex}{250}}&{\raisebox{-1.0ex}{300}}&{\raisebox{-1.0ex}{350}}&{\raisebox{-1.0ex}{400}}&{\raisebox{-1.0ex}{450}}\\[-2mm](文数)&&&&&&&&&\\\hline\hline53文の文検出数&43&43&42&41&42&41&40&43&43\\\hline一意正解数&16&24&25&25&28&29&29&29&31\\\hline平均候補数&3.8&2.2&2.0&1.9&1.7&1.5&1.5&1.5&1.5\\\hline曖昧度減少率&0.53&0.61&0.62&0.60&0.63&0.63&0.60&0.67&0.68\\\hline\end{tabular}\\\end{center}
\section{むすび}
本研究の結論は次のようにまとめることができる.\begin{enumerate}\item係り受け距離の頻度分布は係り受け解析におけるヒューリスティクスとして有効である.\item係り受け距離の頻度分布は,係り文節の種類別に求めた方がよい.\item頻度分布の補間により,係り受け規則の不完全さとコーパスの希薄性をある程度補うことができる.\item頻度分布を抽出する学習データ量を増加することにより解析性能が向上する.ここで用いた学習データよりもっと多くのデータを使用することにより,解析性能がさらに向上する可能性がある.\end{enumerate}\noindent問題点としては,\以下のことが挙げられる.\begin{description}\item{(a)}係り文節の分類は,自立語が非活用語の場合にはその品詞属性に基づいて行っている.しかし,これには次のような問題がある.コーパス中に高頻度で出現する「名詞」は,その半数程度が「連体詞」のような働きをして名詞に係る.また,「前」,「ため」などの「名詞」は「副詞」のような働きをして動詞に係ることがある.「連体詞」と「副詞」では,それを受ける文節との距離の頻度分布が大きく異なる.このような問題があるので,係り受け距離の頻度分布を求めるときの係り文節の分類基準をもっと工夫する必要がある.\item{(b)}ここで用いた係り受け規則はまだ不完全である.$P_1$を用いたときの文検出率がこの係り受け規則のカバー率を示しているが,\表7に見られるように100\%\には達していない.したがって,実際のコーパスをよりよくカバーする係り受け規則を設定する必要がある.\item{(c)}文中の部分文節列に対して,係り受け構造に曖昧さがあっても,それによる意味の曖昧さがほとんど生じない場合もある.例えば,\「両手の\\十本の\\指を」に対して,\図2の二つの係り受け構造から得られる意味の違いが実際にどれ程問題となるであろうか.\vspace*{1mm}\\\hspace*{25mm}\underline{両手の}\hspace*{25mm}\underline{十本の}\hspace*{25mm}\underline{指を}\\\put(185,20){\line(0,1){10}}\put(185,20){\line(1,0){95}}\put(280,20){\line(0,1){10}}\put(85,10){\line(0,1){20}}\put(85,10){\line(1,0){146}}\put(230,10){\line(0,1){10}}\vspace*{1mm}\\\hspace*{25mm}\underline{両手の}\hspace*{25mm}\underline{十本の}\hspace*{25mm}\underline{指を}\\\put(85,20){\line(0,1){10}}\put(85,20){\line(1,0){100}}\put(185,20){\line(0,1){10}}\put(140,10){\line(0,1){10}}\put(140,10){\line(1,0){141}}\put(280,10){\line(0,1){20}}\begin{center}図\2\end{center}本研究で行った評価法では,出力される係り受け構造がコーパスのラベルと完全に一致しない限り,文としては検出されなかったことになる.しかし,このような曖昧性を解消する意義がどれくらいあるかを考える必要があると思われる.\item{(d)}「は」のような係り助詞で終る文節がどの文節に係るとするかは,微妙な問題を含んでいる.例えば,図3は,「インタビューは」が主文の述語「及んだ」に係るような係り受け構造を示しているが,これに対して,図4のように「インタビューは」が「始まり」に係るとする係り受け構造を考えることもできる.図3は,文を文末まで見てから係り受け構造を定めたものであり,図4は,文を左から見て行き,可能な係り受けを定めて行ったものと言えるであろう.\vspace*{1mm}\\\hspace*{15mm}\underline{インタビューは}\hspace*{5mm}\underline{午後十時から}\hspace*{5mm}\underline{始まり}\hspace*{5mm}\underline{四時間に}\hspace*{5mm}\underline{及んだ}\\\put(155,30){\line(0,1){10}}\put(155,30){\line(1,0){55}}\put(210,30){\line(0,1){10}}\put(260,30){\line(0,1){10}}\put(260,30){\line(1,0){46}}\put(306,30){\line(0,1){10}}\put(183,20){\line(0,1){10}}\put(183,20){\line(1,0){100}}\put(283,20){\line(0,1){10}}\put(80,10){\line(0,1){30}}\put(80,10){\line(1,0){161}}\put(240,10){\line(0,1){10}}\begin{center}図\3\vspace*{1mm}\\\end{center}\hspace*{15mm}\underline{インタビューは}\hspace*{5mm}\underline{午後十時から}\hspace*{5mm}\underline{始まり}\hspace*{5mm}\underline{四時間に}\hspace*{5mm}\underline{及んだ}\\\put(155,30){\line(0,1){10}}\put(155,30){\line(1,0){55}}\put(210,30){\line(0,1){10}}\put(260,30){\line(0,1){10}}\put(260,30){\line(1,0){46}}\put(306,30){\line(0,1){10}}\put(80,20){\line(0,1){20}}\put(80,20){\line(1,0){103}}\put(183,20){\line(0,1){10}}\put(130,10){\line(0,1){10}}\put(130,10){\line(1,0){153}}\put(283,10){\line(0,1){20}}\begin{center}図\4\end{center}いずれか正しいかは別にして,使用したコーパスにはこの2種類の考え方に基づくラベル付けが混在しており,統一性を欠いている.これが,係り受け距離の頻度分布の推定や,解析結果の評価に影響を与えていると思われる.\end{description}以上の結果と問題点を踏まえて,今後は文節間の係り受けに関する言語現象を詳しく調査し,係り受け解析に対するより優れたぺナルティ関数の設定法について研究を進める予定である.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{張玉潔}{1983年北方交通大学情報工学科卒業.1986年中国科学技術大学大学院修士課程修了.同年中国科学院計算技術研究所に勤務.機械翻訳の研究開発に従事.国家科学技術進歩一等賞受賞.現在,電気通信大学情報工学専攻博士課程在学中.自然言語処理に興味がある.}\bioauthor{尾関和彦}{1965年東京大学工学部電気工学科卒業.同年NHK入社.1968年より1年間エジンバラ大学客員研究員.音声言語処理,パターン認識などの研究に従事.電子通信学会第41回論文賞受賞.現在,電気通信大学情報工学科教授.工学博士.電子情報通信学会,情報処理学会,日本音響学会,IEEE各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V12N03-09
|
\section{はじめに}
\label{sec:intr}インターネットの世界的な普及により,世界各国に分散したメンバーによるソフトウェア開発などが盛んになっている\cite{Jarvenpaa}.特に,アジア太平洋地域でのインターネットの普及は目覚しく\footnote{http://cyberatlas.internet.com/big\_picture/geographics/print/\\0,,5911\_86148,00.html},今後,この地域におけるソフトウェアの共同開発などが活発化すると予想される.しかし,母国語が異なる国々と共同ソフトウェアの開発などを行う場合,言葉の壁により円滑にコミュニケーションを行うことは難しい.共通言語として英語を使用することにより,コミュニケーションを行うことも可能であるが,英語で書くことは負担が大きく,コミュニケーションの沈滞を招く.異文化間でのコラボレーション参加者は母国語での情報発信を望んでいる.機械翻訳の利用はこのような異言語間におけるコミュニケーション課題を解決する1つの手段である.機械翻訳は異文化コラボレーションを行うためのコミュニケーションの道具としてどのように役に立つのか?あるいは,役立つようにするためには,どのような問題を克服する必要があるのか?このような問いに答えることは,コミュニケーションの新しい研究テーマとして有意義であるとともに,機械翻訳システム開発への有益な提言が得られる可能性が高いという意味でも重要である.また,コンピュータを介したコミュニケーションの研究は最近活発に行われているが\cite{Herring},機械翻訳を介したコミュニケーションの研究\cite{Miike}は,まだ少なく,二ヶ国語間の機械翻訳で,機械翻訳への適応が行なわれないコミュニケーションの研究が中心である.さらに,機械翻訳の研究においても,機械翻訳自体の翻訳品質の評価の研究\cite{Hovy,Papineni}は活発に行われているが,コミュニケーションという観点からの評価は行われていない.本論文では,機械翻訳を介したコミュニケーションによる母国語が異なる異文化間での共同ソフトウェア開発のためのコラボレーション実験を行うことにより,目的が明確で,かつ,利用者の機械翻訳への適応が期待できる環境において,決して十分な翻訳品質とは言えない機械翻訳に対して利用者がどのように適応を行ってコミュニケーションを成立させようとするのかを分析する.また,その適応効果はどの程度のものなのかを明らかにする.適応の翻訳言語ペアについての依存性,英訳を参照した適応の他言語への翻訳への有効性,言語ごとの適応の違いなどを中心に分析した結果を提示し,機械翻訳を介した異言語間コミュニケーション支援の方向性について述べる.
\section{ICE2002}
\label{sec:ICE2002}言葉の壁を克服するコラボレーションを目指して,日本,韓国,中国,マレーシアなど母国語が異なる異文化間での共同ソフトウェア開発\cite{Othmann:2003HCI}のコラボレーション実験ICE2002\cite{野村:2003情報処理,Nomura:2003HCI}が行われた.情報の発信はそれぞれ母国語で行い,他の国からの情報は機械翻訳を介して,母国語で読むことができる.利用者は母国語だけではなく,英語,日本語,韓国語,中国語,マレーシア語で読むことも可能であり,大多数の利用者は,母国語と英語を読む設定を行っていた.コラボレーションのための手段としては,利用者が母国語で書いたメッセージを他の参加者がその人の母国語に翻訳して読むことができる多言語電子会議システムTransBBS(図\ref{fig:ICE2002})と,HTML形式のソフトウェア開発ドキュメントを多言語に翻訳して閲覧できるTransWebを使用した\cite{船越:2004,Funakoshi:2003HCI}.本稿では,ICE2002においてTransBBS上で行われた利用者が行った機械翻訳システムに対する適応\cite{Ogura:2004}について分析を行った結果について報告する.\begin{figure}[tb]\begin{center}\epsfile{file=fig1.eps,scale=0.7}\end{center}\vspace*{-3mm}\caption{TransWEB}\label{fig:ICE2002}\end{figure}TransBBSでは,メッセージを投稿する前に,翻訳結果を確認できる機能がある.多くの実験参加者(日本:京都大学,韓国:ソウル国立大学&ハンドン大学,中国:上海交通大学,マレーシア:マラヤ大学の学生)は英語を理解することができるので,母国語を英語に翻訳し,翻訳結果を確認し,英訳が満足できるものでない場合は,原文を修正して翻訳を行い,翻訳が満足できるレベルに達するか,これ以上翻訳が改善できない時点で,メッセージの発信を行った.また,参加者は母国語に翻訳されたメッセージを読み,必要に応じて,英語や原文を参照してメッセージの理解を行った.TransBBSは,開発ソフトウェアの設計に関する意見交換や開発状況の報告などを行う目的で使用された.TransBBSで用いられた文体は話し言葉であった.ソフトウェアの設計フェーズでは,円滑なコラボレーションを行うために,人間関係を円滑にする呼びかけ,挨拶表現,激励表現が多かった.ソフトウェアの開発のフェーズでは,質問,依頼,確認の表現が多かった.また,チャットに見られるような砕けた表現は少なく,丁寧でフォーマルな表現が多かった\cite{小倉:2003IPSJ}.日英,日韓,日中間および英語から中国語へは直接翻訳している.しかし,中韓,韓英間および中国語から英語への翻訳は,いったん別の言語(日本語)に翻訳してから,その翻訳結果をさらに目的の言語に翻訳する2段翻訳を行っているので,翻訳の精度は直接翻訳に比べて低かった.
\section{利用者適応の傾向}
\label{Adaptation-actions}TransBBS利用者は,メッセージを投稿する前に,自分のメッセージを書き換えて,自分の翻訳されたメッセージを他の参加者により理解しやすくする.本稿では,この一つのメッセージを書き換える過程を「書き換え過程」と定義し,メッセージの1回の書き換えを「書き換え」と呼ぶことにする.メッセージは書き換え過程後,投稿される.書き換えには,機械翻訳システムの質の不十分さを補うためのもの(「適応」と呼ぶことにする)とメッセージの内容を充実させるためのものがある.本論文では,前者のみを分析の対象とした.一つのメッセージの1回の書き換えで,「主語の補完」,「名詞句の置き換え」など複数の部分的な書き換えが起こることがある.この部分的な書き換え一つを「リペア」と呼ぶことにする.日本語が原文である場合の典型的なリペアの例を例\ref{ex:common-repairs}に示す.\vspace*{2mm}\begin{tabular}{cll}(\example{ex:common-repairs})&書き換え前:&翻訳が\underline{復旧する}とき,\\&&私は皆様にそれを伝えます.\\&書き換え後:&翻訳が\underline{直る}とき,\\&&私は皆様にそれを伝えます.\\&&\underline{Sanny.}\underline{ごめんなさい.}\end{tabular}\vspace*{2mm}「復旧する」という述語を「直る」という同義の述語に書き換えるリペアにより,訳語の選択誤りに適応している.また,「Sanny.ごめんなさい.」という文を追加するリペアにより,謝罪の気持ちを表現し,メッセージの内容を充実することが行われている.リペアは,「置き換え」,「追加」,「削除」に分類することができる.さらに,何が書き換えられているのかによって細分することができる.本論文では,日本語原文のメッセージに関する適応について中心的に分析を行った.韓国語原文と中国語原文のメッセージに関する適応についても分析を行った.\subsection{日本語原文における利用者適応の傾向}表\ref{Table:Repairs_in_Japanese1},表\ref{Table:Repairs_in_Japanese2},表\ref{Table:Repairs_in_Japanese3}に日本人のコラボレーション実験参加者が行った機械翻訳への適応についてまとめた.表\ref{Table:Repairs_in_Japanese1},表\ref{Table:Repairs_in_Japanese2},表\ref{Table:Repairs_in_Japanese3}は,67のメッセージ(メッセージ当たりの平均文数:3.7,メッセージ当たりの平均文字数:74.6,文当たりの平均文字数:20.4)に関する書き換え過程を調査し,どのような適応リペアがどれだけ出現したかを示している.表\ref{Table:Repairs_in_Japanese1}が,「置き換え」によるリペアであるが,183件(69.6\%)あった.表\ref{Table:Repairs_in_Japanese2}が,「追加」によるリペアで,39件(14.8\%),表\ref{Table:Repairs_in_Japanese3}が,「削除」によるリペアで,41件(15.6\%)であった.リペアは基本的に「置き換え」によって行われるが,必要に応じて「追加」が行われ,翻訳がうまくできておらず,かつ,その情報がそれほど重要でない場合は,「削除」が行われていた.「述語の置き換え」や「名詞句の置き換え」に代表される語句の置き換えは,英訳で訳語選択に失敗しているような場合に,同義や類義の語句に置き換えることにより,適切な翻訳を得られるように適応したものである.36件(13.7\%)と比較的頻度の多い「文の置き換え」は,うまく翻訳できなかった文を別の言い方で言い換えてみるリペアである.「文末表現の置き換え」は,うまく翻訳できない助詞,助動詞,補助動詞などによる複雑な様相表現を,細かいニュアンスの伝達は諦めて,例\ref{ex:compact}のように簡潔な表現にすることにより,リペアを行っていた.\vspace*{2mm}\begin{tabular}{cll}(\example{ex:compact})&リペア前:&タイトルは英語で\underline{書くようにして下さい}.\\&リペア後:&タイトルは英語で\underline{書いて下さい}.\end{tabular}\vspace*{2mm}長文は係り受けの曖昧性などが指数的に増えるので,機械翻訳が難しく訳文の質が悪化する.この問題に対処するため,「文の分割」という適応が起きていた.また,「語順の変更」を行うことにより,係り受けを正しく認識させることにより,正しく翻訳させようとする適応も行われていた.「追加」で最も多いのは,「主語の補完」であった.日本語では,文脈などから推測可能で省略できる主語が,英語では必要になる場合がある.現在の翻訳システムでは適切に主語を補って翻訳することが難しいので,良い英訳にするためにはこのような補完の適応が必要になる.「削除」で最も多いのは,「副詞表現の削除」であった.副詞表現はしばしば,日本語と英語の表現方法が異なったり,句として一まとまりとして扱う必要があったり,訳語選択が動詞や名詞に比べて難しかったりすることにより翻訳が難しい.また,副詞は,動詞や名詞のような文の骨格情報ではないので,うまく翻訳できない場合は,削除してしまうことがあった.これらのリペアは,通常,英語の翻訳の良し悪しを見て行われる.しかし,利用者は機械翻訳がどのような仕組みで翻訳しているか知っているわけではないので,適応のプロセスは試行錯誤のプロセスである.試してみてうまく行かない場合は,別の適応を行うかそこで適応を諦めることになる.どのようなリペアが行われているかを詳細に調査することにより,利用者はどのような翻訳の問題には適応することができ,どのような問題には適応できなかったかを明らかにすることができた.利用者は,単純な語や句の書き換え,単純な文の言い換え,文の簡単化を行うことはできるが,機械翻訳が不得意とする特殊な構文(例えば,「リンゴは赤い\underline{の}が好きだ.」のような形式名詞「の」や「もの」を含む構文)の回避や抽象的な表現(例えば,「新しい\underline{方}が良い.」のような、抽象的な「方」や「もの」を含む表現)の回避などは行うことはできなかった.\begin{table}[htbp]\leavevmode\small\caption{日本語におけるリペア(置き換え)}\label{Table:Repairs_in_Japanese1}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline名詞句の置き換え&33&12.5\%\\述語の置き換え&21&8.0\%\\文末表現の置き換え&12&4.6\%\\副詞表現の置き換え&9&3.4\%\\助詞の置き換え&8&3.0\%\\接辞の置き換え&3&1.1\%\\\hline間投詞の置き換え&2&0.8\%\\接続表現の置き換え&2&0.8\%\\\hline修飾語の置き換え&2&0.8\%\\補助動詞の置き換え&1&0.4\%\\\hline文の置き換え&36&13.7\%\\文の分割&13&4.9\%\\語順の変更&10&3.8\%\\列挙表現の置き換え&6&2.3\%\\箇条書きのスタイルを変更&6&2.3\%\\\hline準体助詞を含む表現の置き換え&4&1.5\%\\文を簡潔化し複数文を統合&2&0.8\%\\\hline句点の変更&5&1.9\%\\表現スタイルの変更(括弧類)&4&1.5\%\\半角の句読点を全角に変更&2&0.8\%\\読点表記の変更&2&0.8\%\\\hline{\bf置き換え小計}&183&69.6\%\\\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}\begin{table}[htbp]\leavevmode\small\caption{日本語におけるリペア(追加)}\label{Table:Repairs_in_Japanese2}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline主語の補完&20&7.6\%\\助詞の補完&5&1.9\%\\修飾語の補完&4&1.5\%\\目的語の補完&2&0.8\%\\副詞表現の追加&1&0.4\%\\接辞の追加&1&0.4\%\\\hline読点の追加&4&1.5\%\\句点の追加&2&0.8\%\\\hline{\bf追加小計}&39&14.8\%\\\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}\begin{table}[htbp]\leavevmode\small\caption{日本語におけるリペア(削除)}\label{Table:Repairs_in_Japanese3}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline副詞表現の削除&9&3.4\%\\助詞の削除&5&1.9\%\\\hline非重要情報の削除&4&1.5\%\\主語の削除&3&1.1\%\\呼びかけ表現の削除&3&1.1\%\\目的語の削除&1&0.4\%\\トピックの削除&1&0.4\%\\\hline文の削除&8&3.0\%\\準体助詞を含む表現の削除&1&0.4\%\\\hline読点の削除&3&1.1\%\\括弧類の削除&2&0.8\%\\句点の削除&1&0.4\%\\\hline{\bf削除小計}&41&15.6\%\\\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}\subsection{言語による利用者適応の違い}日本人利用者による日本語を原文とする適応以外に,韓国語原文と中国語原文における適応についても調査した.韓国語は,100メッセージ(メッセージ当たりの平均文数:3.8,メッセージ当たりの平均文字数:99.6,文当たりの平均文字数:26.1),中国語は,81メッセージ(メッセージ当たりの平均文数:2.2,メッセージ当たりの平均文字数:65.6,文当たりの平均文字数:29.4)について書き換え過程を調査した.\footnote{リペアと書き換え過程の数は日本語原文における適応に比べて少ない。日本語原文は67メッセージ中59メッセージ88.1\%の適応があったのに対し,韓国語原文,中国語原文は,それぞれ,100メッセージ中18メッセージ18.0\%,81メッセージ中15メッセージ18.5\%の適応しかなかった.これは,この実験が日本が主催して行われたため,日本人参加者のモチベーションが高く,翻訳の間違いに対して敏感であったのに対し,韓国人および中国人参加者は,適応へのモチベーションが日本に比べて低かったためであると思われる.}表\ref{Table:Repairs_in_Korean}に韓国人のコラボレーション実験参加者が行った利用者の適応についてまとめた.「主語の補完」がなかったことを除くと,日本語原文の適応に傾向が似ていた.これは,日本語と韓国語が言語的に良く似ているためと思われる.\begin{table}[htbp]\leavevmode\small\caption{韓国語におけるリペア}\label{Table:Repairs_in_Korean}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline文末表現の置き換え&4&18.1\%\\述語の置き換え&3&13.6\%\\名詞句の置き換え&3&13.6\%\\\hline文の置き換え&2&9.1\%\\文の分割&2&9.1\%\\語順の変更&1&4.5\%\\\hline{\bf置き換え小計}&15&68.2\%\\\hline\hline文の削除&3&13.6\%\\副詞表現の削除&2&9.1\%\\句点の削除&2&9.1\%\\\hline{\bf削除小計}&7&16.7\%\\\hline\hline\multicolumn{1}{|c|}{\bf合計}&22&100\%\\\hline\end{tabular}\end{center}\footnotesize{通常,韓国語では文の終了は句点「.」で表現するが,今回のデータでは改行により文の終了を表していた例が多数(20例)あった.このため機械翻訳システムは文の終了を認識できず不適切に翻訳された.これを訂正するため多くの「句点の追加」の適応が行われたが,これは特殊事情と思われるので,上記集計から削除した.}\end{table}表\ref{Table:Repairs_in_Chinese}に中国人のコラボレーション実験参加者が行った利用者の適応についてまとめた.韓国語原文の場合と異なり,日本語原文の適応とはかなり傾向が異なっていた.これは日本語と中国語の言語族の違いなどが関係しているものと思われる.中国語原文の適応の特徴としては,構文解析の失敗を解消する適応が多いことが挙げられる.孤立語である中国語は語順が重要な解析の手がかりとなるが,同じ語が動詞となったり名詞となったりするので,名詞を動詞として解釈したり,動詞を名詞として解釈する解析誤りが多い.このような解析誤りへの適応として,助詞「的」を追加したり,介詞(前置詞)を削除したり,名詞句を置き換えることにより,名詞を動詞とする誤りを解消していた.また,「読点の追加」や「読点の削除」により解析を変更しようとする適応もみられた.\begin{table}[htbp]\leavevmode\small\caption{中国語におけるリペア}\label{Table:Repairs_in_Chinese}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline名詞句の置き換え&5&16.7\%\\接続表現の置き換え&1&3.3\%\\\hline文の置き換え&5&16.7\%\\語順の変更&2&6.7\%\\文の分割&1&3.3\%\\\hline{\bf置き換え小計}&14&46.7\%\\\hline\hline修飾語の補完&2&6.7\%\\述語の補完&2&6.7\%\\助詞「的」の追加&2&6.7\%\\主語の補完&1&3.3\%\\読点の追加&1&3.3\%\\句点の追加&1&3.3\%\\\hline{\bf追加小計}&9&30.0\%\\\hline\hline非重要情報の削除&3&10.0\%\\修飾部の削除&2&6.7\%\\介詞の削除&1&3.3\%\\読点の削除&1&3.3\%\\\hline{\bf削除小計}&7&23.3\%\\\hline\hline\multicolumn{1}{|c|}{\bf合計}&30&100.0\%\\\hline\end{tabular}\end{center}\end{table}
\section{利用者適応の多言語翻訳への効果}
\label{sec:Effect}\subsection{日本語原文における利用者適応の効果}表\ref{Table:Effect_of_adapation_on_MMT}に日本語原文への英語訳のための適応が,英語,韓国語,中国語の翻訳にどの程度効果があったかを調査した結果を示す.表\ref{Table:Translation_quality}に言語ペアごとの翻訳品質の違いを示す.評価は人間による3段階(↑:翻訳の質が良くなった,=:あまり変わらない,↓:悪くなった)相対評価で,中国語訳,韓国語訳については,日本語および翻訳言語に堪能な訳語のネイティブ1名と日本人1名による協同評価,英語訳については英語の堪能な日本人1名による評価結果に基づくものである.\begin{table}[htbp]\leavevmode\small\caption{適応の多言語翻訳への効果}\label{Table:Effect_of_adapation_on_MMT}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|r|r|r|}\hline\multicolumn{1}{|c|}{\bf目標言語}&\multicolumn{1}{c|}{\bf↑}&\multicolumn{1}{c|}{\bf=}&\multicolumn{1}{c|}{\bf↓}\\\hline英語&85.2\%(46)&11.1\%(6)&3.7\%(2)\\\hline韓国語&23.7\%(14)&54.2\%(32)&22.0\%(13)\\\hline中国語&42.4\%(25)&47.5\%(28)&10.2\%(6)\\\hline\end{tabular}\end{center}\footnotesize{英語は日英翻訳の翻訳システムの切り替え(TransBBSは日英翻訳に関して2つの翻訳システムのどちらを使用するかオプションで指定することが可能になっている),があった場合やネットワークの混雑などの影響で翻訳結果が得られなかった場合など5件評価できない場合があった.}\end{table}\begin{table}[htbp]\leavevmode\small\caption{言語ペアごとの翻訳品質}\label{Table:Translation_quality}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&\multicolumn{4}{c|}{\bf目標言語}\\\cline{2-5}{\bf原言語}&{\bf日本語}&{\bf英語}&{\bf韓国語}&{\bf中国語}\\\hline日本語&−&○&◎&○\\\hline英語&○&−&×&△\\\hline韓国語&◎&×&−&×\\\hline中国語&△&×&×&−\\\hline\end{tabular}\end{center}\footnotesize{市販翻訳ソフトのWebページの評価結果から.本実験では,評価ソフトもしくはそれと同等の性能を持つMTソフトを使用した.}\end{table}適応は試行錯誤の過程があるので,1回のリペアの結果を集めても適切な評価とはならない.本稿では,書き換え過程の最後でどのような効果があったかを調査した.「↑」は翻訳の質の向上がみられた場合,「=」は翻訳の質が同程度の場合,「↓」は,翻訳の質が悪化した場合である.調査した67メッセージ中適応があった59メッセージについて評価した結果である.メッセージの内88.1\%に対して何らかの適応が行われたことになり,適応率が高かったことが分かる.英語への翻訳に関しては,わずかに悪化する場合もあるが,適応の効果が大きいことが分かる.韓国語,中国語,マレーシア語を母国語とするコラボレーション参加者は英語も参照する場合が多いので,適応はコラボレーションのために有効に働いていたことになる.英訳のための日本語における適応は,韓国語への翻訳に関しては,あまり有効ではなかった.書き換え過程の後の翻訳で品質の悪化も22.0\%みられた.日韓翻訳は比較的翻訳品質が良く,日英翻訳より翻訳品質が良い.そのため,英語では翻訳の質が悪い日本語でも,韓国語の訳では質が悪くない場合も多い.そのような場合は,適応の効果はない.また,適応のために不自然な日本語に書き換えたり,情報を削除したりした場合は,訳質の悪化が起こることがあった.中国語への翻訳については,効果があったが,訳出が悪化する場合もみられる.すなわち,もともと翻訳の質が高い言語対に対しては,それより翻訳の質の低い言語対の翻訳結果に基づくシステムへの適応は効果が薄くなる傾向があることが確認できた.{\bf主なリペアの翻訳への効果}表\ref{Table:Main_repair_Effect}に日本語に対する主なリペアがどの程度翻訳に効果があったかを示す.これにより,どのようなリペアが原因になって訳質が上がったり下がったりするか詳細に知ることができる.「述語の置き換え」や「名詞句の置き換え」は,英訳には効果があるが,韓国語訳や中国語訳には,効果がなかったことが分かる.これは,日本語と英語では,対応する単語間に概念の差があり,適切な訳語選択を行うのが難しいのに対して,日本,韓国,中国は同じアジア文化を持ち,対応する単語間の概念に差があまりなく,訳語選択があまり問題にならなかった可能性がある.付録Aの「会議」を「ミーティング」に書き換える「名詞句の置き換え」では,英訳は使用された文脈では不適切な''conference''から''meeting''代わり適応の効果が見られたが,韓国語訳や中国語訳では,もともと訳に問題が生じておらず,適応の効果は見られなかった.「文末表現の置き換え」では,表現の簡潔化が行われている場合は,中国語訳に適応の効果がみられた.例えば,複合的な様相表現を含む「有効かもしれません」をより簡潔な「効果的です」に書き換えた場合,中国語訳は向上した.「文の置き換え」は英語訳でも効果が得られない場合が半数あった.効果的な「文の置き換え」を行うのは簡単ではないことが分かる.「文の置き換え」は中国語訳への効果が高い.構文解析が容易な日本語に書き換えられた場合に有効に働く傾向が見られた.また,「文の書き換え」は,悪化の危険を含むリペアであることが分かった.付録Bにリペアが悪影響を及ぼす例を挙げておく.「文の分割」は,英語訳と中国語訳に効果がみられた.韓国語訳は文を分割しても,しなくても訳に問題が生じない場合が多かった.「語順の変更」も英語訳でも効果が得られない場合が半数あった.付録Bの「語順の変更」の例はそのような場合の例となっている.韓国語訳や中国語訳ではほとんど効果が見られなかった.「主語の補完」は英訳には効果があるが,韓国語訳や中国語訳にはあまり効果がないことが分かった.英語を参照言語として行った適応は,他言語への翻訳には効果が少なく,英語を参照言語として用いることには限界があることが分かった.\begin{table}[htbp]\leavevmode\small\caption{日本語への主なリペアの効果}\label{Table:Main_repair_Effect}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|c|r|r|r|}\hline{\bfリペア}&{\bf目標言語}&{\bf↑}&{\bf=}&{\bf↓}\\\hline&英語&11&6&2\\\cline{2-5}述語の置き換え&韓国語&0&20&1\\\cline{2-5}&中国語&3&17&1\\\hline&英語&16&10&1\\\cline{2-5}名詞句の置き換え&韓国語&3&27&3\\\cline{2-5}&中国語&3&28&2\\\hline&英語&7&2&2\\\cline{2-5}文末表現の置き換え&韓国語&1&10&1\\\cline{2-5}&中国語&3&8&1\\\hline&英語&17&17&0\\\cline{2-5}文の置き換え&韓国語&2&30&4\\\cline{2-5}&中国語&9&23&4\\\hline&英語&9&1&1\\\cline{2-5}文の分割&韓国語&2&11&0\\\cline{2-5}&中国語&5&7&1\\\hline&英語&4&4&1\\\cline{2-5}語順の変更&韓国語&0&9&1\\\cline{2-5}&中国語&2&6&2\\\hline&英語&13&5&1\\\cline{2-5}主語の補完&韓国語&2&27&1\\\cline{2-5}&中国語&2&16&2\\\hline\end{tabular}\end{center}\footnotesize{英語は日英翻訳の翻訳システムの切り替えがあった場合やネットワークの混雑などの影響で翻訳結果が得られなかった場合などがあり評価できない場合があったため,韓国語・中国語に比べ評価数が少なくなっている.}\end{table}\subsection{韓国語と中国語原文における利用者適応の効果}表\ref{Table:Effect_to_Japanese}に韓国語と中国語における英訳のための適応の日本語訳への効果を示す.韓国語や中国語から英語への翻訳のための適応は,日本語訳への効果があった.韓国語における適応は,訳質の悪化もみられず,適応の効果がみられた.日本語訳への効果は,訳質向上83.3\%,訳質悪化0\%であった.中国語における適応は,効果があることが分かるが,訳質の悪化もみられた.日本語訳への効果は,訳質向上60.0\%,訳質悪化13.3\%であった.英訳を参照した日本語における適応は,効果が低かったのに対し,英訳を参照した韓国語や中国語における適応は,効果が高かったことになる.この原因としては,韓英,中英翻訳は日本語を中間言語とした翻訳であったことが考えられる.すなわち,この場合は,英語の翻訳の質を上げるためには,日本語の翻訳の質を上げる必要があったためと思われる.\begin{table}[htbp]\leavevmode\small\caption{韓国語&中国語における適応の日本語訳への効果}\label{Table:Effect_to_Japanese}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|r|r|r|}\hline\multicolumn{1}{|c|}{\bf原言語}&\multicolumn{1}{c|}{\bf↑}&\multicolumn{1}{c|}{\bf=}&\multicolumn{1}{c|}{\bf↓}\\\hline韓国語&83.3\%(15)&16.7\%(3)&0.0\%(0)\\\hline中国語&60.0\%(9)&26.7\%(4)&13.3\%(2)\\\hline\end{tabular}\end{center}\end{table}韓国語における適応では,「文の削除」や「副詞表現の削除」といった「削除」によるリペアが効果的であった.韓日翻訳では,時々,韓国語の解析失敗が起こる.この時,日本語および英語への翻訳の質は良くない.解析に失敗する部分が重要なものでない場合は,その部分を削除するによって,翻訳の質を改善していた.中国語における適応では,解析誤りに対応するリペアと「削除」によるリペアが効果的であった.リペアによる訳質悪化は,「名詞句の置き換え」,「接続表現の置き換え」,「修飾語の補完」などさまざまであるが,中国語解析の失敗が訳質悪化の原因であった.
\section{機械翻訳の品質と利用者適応やコミュニケーションとの関係}
本実験では,メッセージの送付前に機械翻訳の結果を確認できる機能により適応を行なっている.利用者が適応に利用できるのは,利用者の理解できる言語の翻訳結果であり,今回の実験では,利用者は英語への翻訳結果を確認することにより適応を行なっていた.そのため,利用者が理解できない言語(例えば,日本人にとっての韓国語)への翻訳の品質が高くても,それにより適応の回数が少なくなるということはなかった.各言語から英語への翻訳の品質が向上すれば,必要となる適応の頻度は減少しより効率良くコミュニケーションを行うことが期待できるが,本実験ではそれを確認するための実験は行っていない.翻訳の品質自体がメッセージの理解に大きく影響することは,実験後の利用者へのアンケート調査から確認されている\cite{小倉:2003IPSJ}.日本人の韓国語原文のメッセージ理解度や韓国人の日本語原文のメッセージ理解度が他のメッセージ理解度に比べて高かったのは,韓日,日韓翻訳の品質が高かったためと思われる.また,2段翻訳が利用された場合のメッセージ理解度は低く.現段階では,2段翻訳はまだまだ実用的な利用は難しいことが明らかになった.今回分析したデータは,ICE2002の第2トラックの第1フェーズ(ソフトウェア開発フェーズ)に行われたものである.第1トラックでは,適応機能は実装されていなかった.第1トラックでの経験が生かされているためか,機械翻訳の難しい長文は少なく,短い文で書かれているものが多かった.また,機械翻訳が難しい「呼びかけ」表現を含む文や箇条書き表現などは,初期の段階では現れるが,徐々に,最初から呼びかけ部分を独立の文とすることや箇条書きを行わないなど,利用者による学習による効率化の現象が見られた.
\section{おわりに}
\label{sec:conclusion}機械翻訳を介した異言語間コミュニケーションにおいて,利用者がどのような適応を行い,その適応はどの程度効果があるか示した.適応のための書き換えは翻訳言語ペアに強く依存することが確認できた.日本語から英語への翻訳の場合,日本語と英語の概念間の食い違いを補うための語句の置き換えや言語表現習慣の違いを補う主語の補完などが多く観察された.日本語と韓国語のように類似の言語では,それらの言語における適応の傾向が似ていることが分かった.中国語における適応では,中国語が孤立言語であることに由来する単語の多品詞から生ずる解析の品詞誤りに適応するものが多く見られた.日本語から英語への翻訳のための適応は,書き換えの過程後,英語訳自体には効果が大きい.メッセージ単位の評価で,訳質向上が85\%,訳質悪化が4\%である.しかし,その適応は韓国語訳にはほとんど効果がなく(訳質向上23\%,訳出悪化22\%),中国語訳への効果もそれほど多くない(訳質向上42\%,訳出悪化10\%).これは,英語訳に基づくシステムへの適応は,英語への依存性が高い適応が多く、言語依存性の高い適応は他の言語への翻訳には効果が薄いためであると思われる.韓国語や中国語から英語への翻訳のための適応は,日本語訳への効果があった.これは,英語への翻訳が,日本語を中間言語として翻訳していたためシステムへの適応が英語依存性の低い,日本語訳へ効果がある適応になっていたためと考えられる.機械翻訳を介した異言語間コミュニケーションの支援において,機械翻訳の質が急激には向上することが期待できない現状を考えると,メッセージの理解を共有するための相互作用性の向上\cite{石田:2003},すなわち,翻訳の質を向上させるための翻訳システムへの利用者による適応や相手のメッセージ内容についての確認,自国語翻訳だけでなく他言語(たとえば英語)訳の参照などを容易に行える支援が重要である.利用者による適応はある程度効果があるが,利用者に負担もかけている.適応方法に関するガイダンスの表示や,複雑な文末表現・長文・省略の自動検知・修正候補の表示機能などが有効であると思われる.また,機械翻訳がどのような表現ならば適切に翻訳でき,どのような場合には翻訳できないかが明確であれば,利用者の適応は容易になる.機械翻訳システムの透明性の向上も翻訳の質の向上とともに重要であることが確認できた.英語を参照言語として行った適応は,日本語・英語という言語ペアに関する依存性が高いため,他言語への翻訳には効果が薄く,英語を参照言語として用いることには限界があることが分かった.また,この適応方法は,英語が分からない人には適応ができないことになってしまう.この問題を解決するためには,母国語のみでの適応ができ,かつ多言語翻訳をサポートする異言語間コミュニケーションサポートツールが必要である.\citeA{坂本:2004}は母国語のみでの適応方法について検討している.日本語を英語に翻訳し,その英語をさらに日本語に翻訳する日日翻訳により,元の日本語と翻訳結果の日本語を比較することにより,適応の効果を確認するという方法である.中間言語を英語以外の韓国語や中国語にすることにより,言語依存の機械翻訳システムへの適応に対しても,母国語のみで適応できる可能性がある.今後,このような方法で多言語翻訳に対応し適応を支援する方法を検討する予定である.\bibliographystyle{jnlpbbl}\renewcommand{\baselinestretch}{}\large\normalsize\begin{thebibliography}{}\bibitem[\protect\BCAY{船越,藤代,野村,石田亨}{船越\Jetal}{2004}]{船越:2004}船越要,藤代祥之,野村早恵子,石田亨\BBOP2004\BBCP.\newblock\JBOQ機械翻訳を用いた協調作業支援ツールへの要求条件---日中韓馬異文化コラボレーション実験からの知見\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(1),112--120.\bibitem[\protect\BCAY{Funakoshi,Yamamoto,Nomura,\BBA\Ishida}{Funakoshiet~al.}{2003}]{Funakoshi:2003HCI}Funakoshi,K.,Yamamoto,A.,Nomura,S.,\BBA\Ishida,T.\BBOP2003\BBCP.\newblock\BBOQSupportingInterculturalCollaborationforGlobalVirturalTeams\BBCQ\\newblockIn{\Bem10thInternationalConferenceonHuman-ComputerInteraction(HCI-03)},\lowercase{\BVOL}~4,\BPGS\1098--1102\Crete,Greece.\bibitem[\protect\BCAY{Herring}{Herring}{2004}]{Herring}Herring,S.~C.\BBOP2004\BBCP.\newblock\BBOQComputer-mediateddiscourseanalysis:Anapproachtoresearchingonlinebehavior\BBCQ\\newblockIn{\BemDesigningforVirtualCommunitiesintheServiceofLearning}.CambridgeUniversityPress.\bibitem[\protect\BCAY{Hovy}{Hovy}{1999}]{Hovy}Hovy,E.~H.\BBOP1999\BBCP.\newblock\BBOQTowardFinelyDifferentiatedEvaluationMetricsforMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheEAGLESWorkshoponStandardsandEvaluation}\Pisa,Italy.\bibitem[\protect\BCAY{石田,林田,野村}{石田\Jetal}{2003}]{石田:2003}石田亨,林田尚子,野村早恵子\BBOP2003\BBCP.\newblock\JBOQ異文化コラボレーションに向けて—機械翻訳システムの相互作用性—\JBCQ\\newblock\Jem{電子情報通信学会人工知能と知識処理研究会},37--41.\newblockAI2003-25.\bibitem[\protect\BCAY{Jarvenpaa\BBA\Leidner}{Jarvenpaa\BBA\Leidner}{1998}]{Jarvenpaa}Jarvenpaa,S.\BBACOMMA\\BBA\Leidner,D.~E.\BBOP1998\BBCP.\newblock\BBOQCommunicationandTrustinGlobalVirtualTeams\BBCQ\\newblock{\BemJournalofComputerMediatedCommunication},{\Bbf3}(4).\bibitem[\protect\BCAY{Miike,Hasebe,Somers,\BBA\Amano}{Miikeet~al.}{1988}]{Miike}Miike,S.,Hasebe,K.,Somers,H.,\BBA\Amano,S.\BBOP1988\BBCP.\newblock\BBOQExperienceswithanOn-lineTranslatingDialogueSystem\BBCQ\\newblockIn{\BemProceedingsofthe26thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\155--162\Buffalo,NY,USA.\bibitem[\protect\BCAY{野村,石田,船越,安岡,山下}{野村\Jetal}{2003}]{野村:2003情報処理}野村早恵子,石田亨,船越要,安岡美佳,山下直美\BBOP2003\BBCP.\newblock\JBOQアジアにおける異文化コラボレーション実験2002:機械翻訳を介したソフトウェア開発\JBCQ\\newblock\Jem{情報処理},{\Bbf44}(5),2--10.\bibitem[\protect\BCAY{Nomura,Ishida,Yasuoka,\BBA\Funakoshi}{Nomuraet~al.}{2003}]{Nomura:2003HCI}Nomura,S.,Ishida,T.,Yasuoka,M.,\BBA\Funakoshi,K.\BBOP2003\BBCP.\newblock\BBOQOpenSourceSoftwareDevelopmentwithYourMotherLanguage:InterculturalCollaborationExperiment2002\BBCQ\\newblockIn{\Bem10thInternationalConferenceonHuman-ComputerInteraction(HCI-03)},\lowercase{\BVOL}~4,\BPGS\1163--1167\Crete,Greece.\bibitem[\protect\BCAY{小倉,林,野村,石田}{小倉\Jetal}{2003}]{小倉:2003IPSJ}小倉健太郎,林良彦,野村早恵子,石田亨\BBOP2003\BBCP.\newblock\JBOQ目的指向の異言語間コミュニケーションにおける機械翻訳の有効性の分析---異文化コラボレーションICE2002実証実験から---\JBCQ\\newblock\Jem{情報処理学会第65回全国大会},5\JVOL,\BPGS\5--315--5--318.\newblock2T6-4.\bibitem[\protect\BCAY{Ogura,Hayashi,Nomura,\BBA\Ishida}{Oguraet~al.}{2004}]{Ogura:2004}Ogura,K.,Hayashi,Y.,Nomura,S.,\BBA\Ishida,T.\BBOP2004\BBCP\\newblockIn{\BemFirstInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-04)},\BPGS\596--601\Sanya,HainanIsland,China.\bibitem[\protect\BCAY{Othmann\BBA\Lakhmichand}{Othmann\BBA\Lakhmichand}{2003}]{Othmann:2003HCI}Othmann,N.\BBACOMMA\\BBA\Lakhmichand,B.\BBOP2003\BBCP.\newblock\BBOQTransSMS:AMulti-LingualSMSTool\BBCQ\\newblockIn{\Bem10thInternationalConferenceonHuman-ComputerInteraction(HCI-03)}\Crete,Greece.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni}Papineni,K.~A.,Roukos,S.,Ward,T.,\BBA\Zhu,W.~J.\BBOP2002\BBCP.\newblock\BBOQBleu:amethodforautomaticevaluationofmachinetranslation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\311--318\Philadelphia,PA,USA.\bibitem[\protect\BCAY{坂本,野村,石田,井佐原,小倉,林,石川開,小谷克則,島津,介弘,畠中,富士秀,船越要}{坂本\Jetal}{2004}]{坂本:2004}坂本知子,野村早恵子,石田亨,井佐原均,小倉健太郎,林良彦,石川開,小谷克則,島津美和子,介弘達哉,畠中信敏,富士秀,船越要\BBOP2004\BBCP.\newblock\JBOQ機械翻訳システムに対する利用者適応の分析—異文化コラボレーションを目指して—\JBCQ\\newblock\Jem{電子情報通信学会人工知能と知識処理研究会},95--100.\newblockAI2003-97.\end{thebibliography}\appendix\small{\bf付録A日本語における主なリペアの例}\vspace*{3mm}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<名詞句の置き換え>}\\書き換え前:&できるだけTransBBSの上で\underline{会議}を行って下さい.\\書き換え後:&できるだけTransBBSの上で\underline{ミーティング}を行って下さい.\\効果:&\underline{conference}⇒\underline{meeting}\\&''conferece''より適切な''meeting''と翻訳できるようになった.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<述語の置き換え>}\\書き換え前:&あなたの意見を\underline{聞かせて}下さい.\\書き換え後:&あなたの意見を\underline{教えて}下さい.\\効果:&Please\underline{letlistento}youropinion.⇒\\&Please\underline{teachme}youropinion.\\&適切な述語を訳出できるようになった.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文末表現の置き換え>}\\書き換え前:&従って,タイトルは英語で\underline{書くようにして下さい}.\\書き換え後:&従って,タイトルは英語で\underline{書いて下さい}.\\効果:&Thereforeplease\underline{written}atitleinEnglish.⇒\\&Thereforeplease\underline{write}atitleinEnglish.\\&\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<副詞表現の置き換え>}\\書き換え前:&\underline{思わずそのまま}投稿して\\書き換え後:&\underline{すぐ}投稿して\\効果:&\underline{sonomamaof---}⇒{immediately}\\説明:&他の部分の影響で「思わずそのまま」の解析に失敗している.\\&解析失敗が起こらない場合も「思わず」を''asitis''\\&「そのまま」''involuntarily''と二つの副詞として翻訳してしまう.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<助詞の置き換え>}\\書き換え前:&私は日本語の勉強\underline{から}始める必要があります.\\書き換え後:&私は日本語の勉強\underline{を}始める必要があります.\\効果:&IneedtobeginfromthestudyofJapanese.⇒\\&IneedtobeginthestudyofJapanese.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の置き換え>}\\書き換え前:&\underline{ご心配に感謝します}.\\書き換え後:&\underline{ありがとう}.\\効果:&\underline{Worry-appreciates}.⇒\\&\underline{Thankyou}.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の分割>}\\書き換え前:&Bikeshは日本に来て私を助けてください!\\書き換え後:&Bikeshは日本に来て\underline{下さい.そして,}私を助けてください!\\効果:&BikeshcomestoJapanandBikesh,pleasehelpme.⇒\\&Bikesh,pleasecometoJapan.Andpleasehelpme.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<語順の変更>}\\書き換え前:&\underline{ここに}日本チームに送ったメッセージを転送します.\\書き換え後:&日本チームに送ったメッセージを\underline{ここに}転送します.\\効果:&ThemessagesenttoaJapaneseteam\underline{here}isforwarded.⇒\\&ThemessagesenttoaJapaneseteamisforwarded\underline{here}.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<列挙表現の置き換え>}\\書き換え前:&\underline{一つは}RPGのようなもので,\\&\underline{もう一つは}スケジュール管理をしてくれるものです.\\書き換え後:&\underline{一つ目は}RPGのようなもので,\\&\underline{二つ目は}スケジュール管理をしてくれるものです.\\効果:&ThethingwhichisathingsuchasRPG-oneand\\&thethingwhichscheduleadministrationhas\\&thekindnesstobemadeonemore.⇒\\&ThethingwhichisathingsuchasRPG-oneand\\&thethingwhichthesecondperformerhas\\&thekindnesstomanagetheirschedule.\\&列挙表現自体が適切に扱えていないので特に効果なし.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<箇条書きのスタイルを変更>}\\書き換え前:&Saeko\&Naomi\underline{:}コミュニケーションコーディネーター.\\&Kaname\underline{:}技術支援者.\\書き換え後:&Saeko\&Naomi\underline{は,}コミュニケーションコーディネーター\underline{です}.\\&Kaname\underline{は,}技術支援者\underline{です}.\\効果:&Saeko\&Naomi-----------------------\\&--------------\\&Kaname-------------⇒\\&Saeko\&Naomiisacommunicationcoordinator.\\&Kanameisatechnologicsupporter.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<主語の補完>}\\書き換え前:&どこで話し合いをしますか?\\書き換え後:&\underline{私たちは}どこで話し合いをしますか?\\効果:&Wheredo\underline{I}talk?⇒\\&Wheredo\underline{we}talk?\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<副詞表現の削除>}\\書き換え前:&その時に,\underline{再度},今までのメッセージを消去します.\\書き換え後:&その時に,今までのメッセージを消去します.\\効果:&Theyerasethepresentmessage\underline{twice}bythen.⇒\\&Theyerasethepresentmessagebythen.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の削除>}\\書き換え前:&対面議論ではなく,TransBBS上での活発な議論を歓迎します.\\書き換え後:&\\効果:&TheteamwelcomesanactiveargumentonTransBBS\\&thatcriesforameetingargument.⇒\{\}\\\end{tabular}\vspace*{3mm}{\bf付録B日本語へのリペアが韓国語訳や中国語訳に悪影響を与える例}\vspace*{3mm}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の置き換え>}\\書き換え前:&翻訳がおかしいです.\\書き換え後:&翻訳サービスが間違っています.\\効果:&Atranslationisamusing.\\&Atranslationserviceiswrong.\\&韓国語訳は書き換え前は正しく翻訳されていたが,\\&書き換え後は「間違っています」に相当する部分が訳語選択誤りを\\&引き起こし訳質が低下した.\\&(中国語訳は書き換え前は「おかしいです」に相当する部分が\\&訳語選択誤りを引き起こしていたが,書き換え後は正しく翻訳された.)\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の置き換え>}\\書き換え前:&ごめんなさい.\\書き換え後:&私は謝罪します.\\効果:&Theyare---times.\\&Iapologize.\\&中国語訳は書き換え前は正しく翻訳されていたが,\\&書き換え後は「謝罪」に相当する部分が訳語選択誤りを\\&引き起こし訳質が低下した.\\&(韓国語訳は書き換え前,書き換え後ともに正しく翻訳された.)\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<語順の変更>}\\書き換え前:&TransSMSはなぜSMSの数を制限する必要があるのですか?\\書き換え後:&TransSMSはSMSの数をなぜ制限する必要があるのですか?\\効果:&英訳は書き換え前,書き換え後変化なし.\\&中国語訳は「SMSの数(SMS的数)」の位置が変わって訳質が悪化した.\\&(韓国語訳も語順の変更が起こったが訳質への影響はなかった.)\\\end{tabular}\begin{biography}\biotitle{略歴}\bioauthor{小倉健太郎}{1978年慶應義塾大学工学部管理工学科卒業.1980年同大学大学院管理工学専攻修士課程修了.同年,日本電信電話公社(現NTT)入社.1987年〜1990年ATR自動翻訳電話研究所へ出向.現在,NTTサイバースペース研究所主任研究員.機械翻訳の研究に従事.1995年人工知能学会論文賞受賞,2002年電気通信普及財団賞(テレコム・システム技術賞)受賞.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,計量国語学会会員.}\bioauthor{林良彦}{1981年早稲田大学理工学部電気工学科卒業.1983年早稲田大学大学院理工学研究科博士前期課程修了.同年,日本電信電話公社入社.2004年日本電信電話株式会社退職(退職時,NTTサイバースペース研究所主幹研究員・グループリーダ).この間,1994年-1995年スタンフォード大学言語情報研究センター滞在研究員.2004年より大阪大学大学院言語文化研究科教授.現在に至る.博士(工学).自然言語処理,知的情報アクセスの研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,ACL,ACMSIG-IR各会員.}\bioauthor{野村早恵子}{2003年京大大学院情報学研社会情報学専攻指導者認定退学.同年,(独)科学技術振興機構研究員,アジアの異文化コラボレーション実験に従事.2004年よりUCSD認知科学部分散認知とHCI研究室ポスドク研究員.エスノグラフィック手法を用いた,HCI分析,CMC分析に興味を持つ.情報学博士.}\bioauthor{石田亨}{1976年京都大学工学部情報工学科卒業,1978年同大学院修士課程修了.同年日本電信電話公社電気通信研究所入所.ミュンヘン工科大学,パリ第六大学,メリーランド大学客員教授,NTTリサーチプロフェッサなどを経験.工学博士.IEEEFellow.情報処理学会フェロー.現在,京都大学大学院情報学研究科社会情報学専攻教授,上海交通大学客員教授,自律エージェントとマルチエージェント研究に15年以上の経験を持つ.現在,3次元仮想都市FreeWalk/Qの研究を行い,デジタルシティに適用を試みている.また,日中韓馬の研究者と共に,異文化コラボレーション実験に取り組む.KluwerJournalonAutonomousAgentsandMulti-AgentSystemsの編集委員,ElsevierJournalonWebSemanticsの共同編集長.}\end{biography}\end{document}
| |
V12N05-03
|
\section{はじめに}
\label{sc:1}待遇表現は日本語の特徴の一つである.敬語的な表現は他の言語にも見られるが,日本語のように,待遇表現を作るための特別な語彙や形式が体系的に発達している言語はまれである\cite{水谷1995}.日本語の待遇表現は,動詞,形容詞,形容動詞,副詞,名詞,代名詞など,ほぼ全ての品詞に見られる.特に,動詞に関する待遇表現は他の品詞に比べて多様性がある.具体的には,動詞に関する待遇表現は,以下の4つのタイプに大別できる.1)「\underline{お}話しになる」や「\underline{ご}説明する」などのように,接頭辞オもしくは接頭辞ゴと動詞と補助動詞を組み合わせる,2)「おっしゃる」と「申す」(いずれも通常表現\footnote{いわゆる``敬語"は用いず,通常の言葉を用いた表現.}は「言う」)などのように動詞自体を交替させる,3)「話し\underline{て}頂く」「話し\underline{て}下さる」「話し\underline{て}あげる」などのように助詞テを介して補助動詞が繋がる,4)「ます」「れる」「られる」などの助詞・助動詞を動詞と組み合わせる,などがある.これらの中でも1つ目のタイプ(以下,「オ+本動詞+補助動詞」を``オ〜型表現",「ゴ+本動詞+補助動詞」を``ゴ〜型表現"と呼ぶ)は,同じ本動詞を用いた場合でも,補助動詞との組み合わせによって尊敬語になる場合と謙譲語になる場合がある,という複雑な特徴を持つ.ここで,オ〜型表現とゴ〜型表現の違いについては,形式に関しては,原則的に,接頭辞ゴに続く本動詞が漢語動詞であり,接頭辞オに続く本動詞が和語動詞であるということが従来の言語学的研究で指摘されてきた.しかし,その機能に関しては,接頭辞の違いは考慮せずに同じ補助動詞を持つ表現をまとめて扱うことが多く,両者の違いについて言及されることは,これまで殆どなかった.ところが,待遇表現としての自然さの印象に関してオ〜型表現とゴ〜型表現を比較した先行研究において,それが誤用である場合にも,オ〜型表現に比べてゴ〜型表現は,概して,不自然さの印象がより弱いという傾向が見られた.そしてその理由として,待遇表現としての認識に関するオ〜型表現とゴ〜型表現の違いが議論された\cite{白土他2003}.ここでもし,待遇表現としての認識に関して,オ〜型表現とゴ〜型表現の間で本質的な違いがあるとするならば,自然さの印象だけでなく,待遇表現に関する他のさまざまな印象の違いとしても観測できるはずである.そこで,本研究では,待遇表現の最も典型的な属性である丁寧さに注目する.すなわち,本研究は,待遇表現の丁寧さの印象に関するオ〜型表現とゴ〜型表現の違いについて定量的に調べることを目的とする.
\section{待遇表現の丁寧さの定量化}
\label{sc:2}\subsection{本研究における「待遇表現の丁寧さ」の捉え方}\label{sc:2.1}待遇表現という言語現象は,(I)話し手が,その具体的な人物や場面に関わる社会的・心理的な諸要因を考慮した上で,問題の人物(話題となる人物や聞き手など)に,あるレベルの待遇を与えようとすることと(I\hspace{-.1em}I)ある待遇表現を使うことで,その人物に,あるレベルの待遇を与えることになる(という法則性がある)こと,に分けて考えることができる\cite{菊地2003}.社会言語学的立場から待遇表現を体系的に整理している研究\cite{蒲谷他1991}や,ポライトネスに関する包括的な理論としてよく知られているブラウンとレビンソンの理論\cite{Brown他1987}も同様に,(I)と(I\hspace{-.1em}I)を分けて扱っている.ここで,(I\hspace{-.1em}I)において,問題の人物に対してより高いレベルの待遇を与えるような待遇表現は,概して,人々がより丁寧な印象を持つ表現であると考えられる.本研究でも,(I)と(I\hspace{-.1em}I)を分けて扱うことができるという考えに立ち,(I\hspace{-.1em}I)で用いられる,いろいろな待遇表現の丁寧さを,場面の設定は行わずに定量化する.\subsection{丁寧さの定量化の方法}\label{sc:2.2}荻野はクロス集計表に基づく待遇表現の定量化の研究において,ほとんど全ての待遇表現の丁寧さは,一次元の値として表現出来ることを示した\cite{荻野1986}.また,この仮定に基づいてScheffe法\cite{Scheffe1952}を用いた実証例も報告されている\cite{白土他2002}.本研究では,これらの結果をふまえ,いろいろな待遇表現に対して人々が感じる丁寧さの大きさは,何らかの心理的な空間における一次元上の値として定量化できるものとする.丁寧さの定量化の方法としては,心理学的測定法として代表的な手法の一つであるScheffeの一対比較法の中屋の変法\cite{中屋1970,三浦1973,田中1977}を用いる.以下では,定量化によって得られた,表現の丁寧さを表す値を「待遇値」と呼ぶ.本研究ではScheffe法を用いているため,待遇値は間隔尺度上の値,すなわち待遇表現間の丁寧さの相対値を表す.
\section{オ〜型表現とゴ〜型表現の丁寧さに関する実験}
\label{sc:3}\subsection{本研究で注目する待遇表現のパタン}\label{sc:3.1}本研究では,表\ref{tbl:table1}に示すオ〜型表現,およびゴ〜型表現の主なパタンに注目する\cite{林他1974,菊地1997,鈴木他1984}.ただし,ここでは,オ〜型表現,およびゴ〜型表現との比較のために通常表現,および丁寧語(ただし,「ます」を用いるパタンのみ)も含めることとした.以下,通常表現,丁寧語,およびオ〜型表現を総称して「和語系表現」と呼び,通常表現,丁寧語,およびゴ〜型表現を総称して「漢語系表現」と呼ぶ.表\ref{tbl:table1}の「〜」の部分は各パタンと組み合わされる本動詞,すなわち,オ〜型のパタンでは和語動詞,ゴ〜型のパタンでは漢語動詞である\footnote{具体的には,\ref{sec:5.3}節で述べるように,オ〜型のパタンでは和語動詞の連用形,ゴ〜型のパタンでは漢語動詞の語幹,丁寧語「〜ます」のパタンでは漢語動詞の語幹,和語動詞の連用形である.}.また丁寧語「〜ます」のパタンでは和語動詞,漢語動詞の両方である.表\ref{tbl:table1}には,主な待遇表現のパタンとして二重敬語:「オ/ゴ〜になられる」も含めた.その理由は,近年では二重敬語に抵抗を感じる人が少なく\cite{文化庁文化部国語課1995},かつ待遇表現としての自然さの印象に関する研究\cite{白土他2003}においても,このパタンの表現に対しては待遇表現としての自然さの印象が強かったためである.\begin{table}[htbp]\begin{center}\caption{本研究で注目する待遇表現のパタン}\label{tbl:table1}\tabcolsep=2em\begin{tabular}{ll}\hline\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{パタン}\\\hline謙譲語&オ/ゴ〜する\\&オ/ゴ〜します\\&オ/ゴ〜できる\\&オ/ゴ〜できます\\&オ/ゴ〜致します\\&オ/ゴ〜申します\\&オ/ゴ〜申し上げます\\&オ/ゴ〜頂く\\&オ/ゴ〜頂きます\\\hline尊敬語&オ/ゴ〜なさる\\&オ/ゴ〜なさいます\\&オ/ゴ〜になる\\&オ/ゴ〜になります\\&オ/ゴ〜下さる\\&オ/ゴ〜下さいます\\&オ/ゴ〜になられる(二重敬語)\\\hline丁寧語&〜ます\\\hline通常表現&〜\\\hline\end{tabular}\end{center}\end{table}\subsection{実験刺激}\label{sc:3.2}本実験では,複数個の発話意図に共通して見られる,オ〜型表現とゴ〜型表現の違いに関する傾向を調べる.具体的な発話意図としては,その発話意図に対応した和語動詞と漢語動詞が両方とも存在し,かつ表\ref{tbl:table1}のパタンと組み合わせることが可能なものを5種類,設定した(表\ref{tbl:table2}).なお,表\ref{tbl:table2}左端には各発話意図にほぼ対応する概念を表す英単語を示した.\begin{table}[htbp]\begin{center}\caption{発話意図とそれに対応する動詞}\label{tbl:table2}\begin{tabular}{cll}\hline発話意図&和語動詞&漢語動詞\\\hline{\itanswer}&答える&回答する\\{\ituse}&使う&使用する\\{\itexplain}&話す&説明する\\{\itinform}&知らせる&連絡する\\{\itinvite}&招く&招待する\\\hline\end{tabular}\end{center}\end{table}実験に用いる表現グループは,謙譲語だけから成る表現グループと尊敬語だけから成る表現グループに分けられる.この理由は,謙譲語と尊敬語では行為主体が異なるので(例えば,謙譲語:「(私が)お答えする」,尊敬語:「(先生が)お答えになる」),両者の対が被験者に呈示された場合,比較が困難になるような状況が生じる可能性が否定できないためである.なお,通常表現および丁寧語は,謙譲語および尊敬語と行為主体が同じであると解釈することが可能であり,また,分析に用いる必要上,両方のグループに入れた.表\ref{tbl:table2}に示した各発話意図における和語動詞,漢語動詞のそれぞれに対して,表\ref{tbl:table1}における謙譲語9パタン+丁寧語1パタン+通常表現1パタン=11パタン,および表\ref{tbl:table1}における尊敬語7パタン+丁寧語1パタン+通常表現1パタン=9パタンを組み合わせて,2つの表現グループを作った(以下,それぞれの表現グループを謙譲語グループ,および尊敬語グループと呼ぶ).発話意図:{\itanswer}に対する表現グループの例を表\ref{tbl:table3.1}(謙譲語),表\ref{tbl:table3.2}(尊敬語)に示す.各行の左右の列には,同じ補助動詞(「する」,「なさる」など)を持つ表現が対として記されている(ただし,通常表現および丁寧語を除く).表の左側の列には和語系表現,右側の列には漢語系表現が記されている.各表におけるNo.は,それぞれの表現グループの中での通し番号である.表\ref{tbl:table3.1}ではNo.1とNo.12が通常表現,No.2とNo.13が丁寧語,No.3〜No.11とNo.14〜No.22が謙譲語であり,表\ref{tbl:table3.2}では,No.1とNo.10が通常表現,No.2とNo.11が丁寧語,No.3〜No.9とNo.12〜No.18が尊敬語である.表\ref{tbl:table3.1},表\ref{tbl:table3.2}と同様に,発話意図:{\ituse},{\itexplain},{\itinform}および{\itinvite}に対して作った表現グループを付表\ref{tbl2:table1.1}〜付表\ref{tbl2:table4.2}に示す.以上のように,本実験では,発話意図:5種類×謙譲語/尊敬語:2種類=計10種類の表現グループを用いた.\makeatletter\renewcommand{\thetable}{}\@addtoreset{table}{section}\makeatother\begin{table}[htbp]\begin{center}\setcounter{table}{0}\caption{発話意図:{\itanswer},謙譲語}\label{tbl:table3.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&答える&12&回答する\\\hline2&答えます&13&回答します\\\hline3&お答えする&14&ご回答する\\\hline4&お答えします&15&ご回答します\\\hline5&お答えできる&16&ご回答できる\\\hline6&お答えできます&17&ご回答できます\\\hline7&お答え致します&18&ご回答致します\\\hline8&お答え申します&19&ご回答申します\\\hline9&お答え申し上げます&20&ご回答申し上げます\\\hline10&お答え頂く&21&ご回答頂く\\\hline11&お答え頂きます&22&ご回答頂きます\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{発話意図:{\itanswer},尊敬語}\label{tbl:table3.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&答える&10&回答する\\\hline2&答えます&11&回答します\\\hline3&お答えなさる&12&ご回答なさる\\\hline4&お答えなさいます&13&ご回答なさいます\\\hline5&お答えになる&14&ご回答になる\\\hline6&お答えになります&15&ご回答になります\\\hline7&お答え下さる&16&ご回答下さる\\\hline8&お答え下さいます&17&ご回答下さいます\\\hline9&お答えになられる&18&ご回答になられる\\\hline\end{tabular}\end{center}\end{table}\subsection{実験手続き}\label{sc:3.3}実験では,上記の10種類の表現グループそれぞれにおいて,グループ内の全ての表現に対する待遇値を求めた.定量化には,前述のようにScheffeの一対比較法の中屋の変法を用いた.実験における回答形式および回答の例を図\ref{fig:figure1}に示す.被験者は関東在住の20代〜50代の男女80人(男女各40人)である.被験者は一対ずつ呈示された表現の間で丁寧さを比較し,図中のケース1〜ケース3のそれぞれに応じて回答用紙の適切な位置に○を付けるよう指示された(ケース1,ケース2と対称的なケースについても同様).ただし,回答が困難なケース(すなわち,ケース4)については×を付けることを認め,このケースについては定量化の計算に加味しないこととした.以上の実験で得られた,各表現グループにおける各表現の待遇値の,全被験者にわたる平均値を$\mu$と記す.ただし表現E$_{i}$に対する$\mu$を特定する場合は,$\mu_{i}$と記す.ここで,$i$は各表現グループの中での通し番号(例えば,表\ref{tbl:table3.1},表\ref{tbl:table3.2}中のNo.)である.\begin{figure}[htbp]\begin{center}\epsffile{./fig1.eps}\caption{回答形式および回答の例}\label{fig:figure1}\end{center}\end{figure}
\section{実験結果}
\label{sc:4}表\ref{tbl:table3.1}および表\ref{tbl:table3.2}の表現に対して得られた$\mu$を,それぞれ図\ref{fig:figure2.1}および図\ref{fig:figure2.2}に示す\footnote{\ref{sc:2.2}節で述べたように,$\mu$は,表現間の相対値であるので,その符号の正負の間で本質的な違いはない.}.図中の数字は,各表現E$_{i}$の添数$i$の値を表す.同様にして,付表\ref{tbl2:table1.1}〜付表\ref{tbl2:table4.2}の各表現に対して得られた$\mu$を,それぞれ,付図\ref{fig2:figure1.1}〜付図\ref{fig2:figure4.2}に示す.図において,$\mu_{i}$が大きい表現E$_{i}$程,それに対して平均的な被験者が感じる丁寧さの程度が大きいことを表す.本研究で用いた二重敬語(すなわち,「オ/ゴ〜になられる」)の丁寧さについては,他の表現(すなわち,規範的な表現)と同様の傾向が見られた.例えば,図\ref{fig:figure2.2},付図\ref{fig2:figure1.2},\ref{fig2:figure2.2},\ref{fig2:figure3.2},\ref{fig2:figure4.2}の全てにおいて,「オ/ゴ〜になられる」(二重敬語)の待遇値は,「オ/ゴ〜になる」(「オ/ゴ〜になられる」と最も形が似ており,かつモーラ数がより短い規範的な待遇表現)の待遇値より大きかった.これは,規範的な待遇表現に関する特徴:``モーラ数がより長い待遇表現は概して,より丁寧に感じられる"\cite{荻野1980}と一致する.また,被験者が×を付けた表現ペア,すなわち,被験者が待遇表現としての丁寧さの比較が困難と判断したものは,4,279ペアであった.これは,回答全体の2.7\%に相当する.このうち75\%は,特定の10人に偏っていた.ただし,この10人に関して,年齢や性別に関する偏りは見られなかった.さらに,比較が困難とされた表現ペアには特定の表現への偏りは見られなかった.\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig21.eps}\caption{$\mu$(発話意図:{\itanswer},謙譲語)}\label{fig:figure2.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig22.eps}\caption{$\mu$(発話意図:{\itanswer},尊敬語)}\label{fig:figure2.2}\end{center}\end{minipage}\end{tabular}\end{figure}
\section{考察}
\label{sc:5}\subsection{和語系表現と漢語系表現の比較}\label{sc:5.1}前述の通り,表\ref{tbl:table3.1},表\ref{tbl:table3.2},付表\ref{tbl2:table1.1}〜付表\ref{tbl2:table4.2}の各行には,接頭辞+本動詞,が異なり(左側の列はオ+和語動詞,右側の列はゴ+漢語動詞),補助動詞(「する」,「なさる」など)が同じである表現が対となって記されている.ここでは,このように対となる表現の間で$\mu$の差($d$と記す)を式(\ref{eqn:eqn1})で計算することによって,同じ補助動詞を持つ和語系表現と漢語系表現の間での,平均的な被験者の待遇値の違いを調べる.\begin{eqnarray}d=\mu_{i+n}-\mu_{i}(i=1,...,n)\label{eqn:eqn1}\end{eqnarray}式(\ref{eqn:eqn1})右辺第一項は漢語系表現の$\mu$,第二項は和語系表現の$\mu$である.ここで,$i$は表現E$_{i}$の添数$i$を表し,$n$は謙譲語に対しては11,尊敬語に対しては9である.すなわち,式(\ref{eqn:eqn1})では,表\ref{tbl:table4}に示す計算を行っている.\makeatletter\renewcommand{\thetable}{}\@addtoreset{table}{section}\makeatother\setcounter{table}{3}\begin{table}[htbp]\begin{center}\caption{$d$の計算方法}\label{tbl:table4}\begin{tabular}{ccc}\hlineラベル&謙譲語グループ&尊敬語グループ\\\hlineA&$\mu_{12}-\mu_{1}$&$\mu_{10}-\mu_{1}$\\B&$\mu_{13}-\mu_{2}$&$\mu_{11}-\mu_{2}$\\C&$\mu_{14}-\mu_{3}$&$\mu_{12}-\mu_{3}$\\D&$\mu_{15}-\mu_{4}$&$\mu_{13}-\mu_{4}$\\E&$\mu_{16}-\mu_{5}$&$\mu_{14}-\mu_{5}$\\F&$\mu_{17}-\mu_{6}$&$\mu_{15}-\mu_{6}$\\G&$\mu_{18}-\mu_{7}$&$\mu_{16}-\mu_{7}$\\H&$\mu_{19}-\mu_{8}$&$\mu_{17}-\mu_{8}$\\I&$\mu_{20}-\mu_{9}$&$\mu_{18}-\mu_{9}$\\J&$\mu_{21}-\mu_{10}$&-\\K&$\mu_{22}-\mu_{11}$&-\\\hline\end{tabular}\end{center}\end{table}図\ref{fig:figure2.1},および図\ref{fig:figure2.2}に示した$\mu$に対し,以上の方法で得た$d$を図\ref{fig:figure3.1},および図\ref{fig:figure3.2}に示す.図中の記号(A,B,…,K)は,表\ref{tbl:table4}のラベルに対応する.\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig31.eps}\caption{$d$(発話意図:{\itanswer},謙譲語)}\label{fig:figure3.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig32.eps}\caption{$d$(発話意図:{\itanswer},尊敬語)}\label{fig:figure3.2}\end{center}\end{minipage}\end{tabular}\end{figure}図\ref{fig:figure3.1}および図\ref{fig:figure3.2}のいずれも,A(通常表現)およびB(丁寧語)の$d$が正,すなわち漢語系表現の$\mu$が和語系表現の$\mu$より大きいことを示す.他の全ての表現グループにおいても,これと同様の傾向が見られた(付図\ref{fig2:figure5.1}〜付図\ref{fig2:figure8.2}).[結果(1)]一方,A(通常表現)およびB(丁寧語)以外の語(すなわち,尊敬語や謙譲語)の$d$は,値の正負に関する一貫した傾向はなかった.他の全ての表現グループにおいても,これと同様であった(付図\ref{fig2:figure5.1}〜付図\ref{fig2:figure8.2}).\subsection{通常表現からの変化に関する,オ〜型表現とゴ〜型表現の比較}\label{sc:5.2}前節で述べたように,同じ補助動詞を持つオ〜型表現(「オ+和語動詞+補助動詞」)とゴ〜型表現(「ゴ+漢語動詞+補助動詞」)の間では,通常表現および丁寧語を除き,両者の$\mu$の差,すなわち$d$に関する一貫した傾向は見られなかった.しかし,$d$は「オ+〜+補助動詞」と「ゴ+〜+補助動詞」の違いのみならず,「〜」の部分,すなわち,和語動詞と漢語動詞の違いを反映した指標であるため,ここでは,和語動詞と漢語動詞の違いの影響をできるだけ排除して,オ〜型表現とゴ〜型表現の間で丁寧さの印象に関する特性の違いをさらに調べることとする.このためには,表現全体としての$\mu$ではなく和語動詞単体(通常表現)から「オ+和語動詞+補助動詞」に変化させたことによる$\mu$の変化量,および漢語動詞単体(通常表現)から「ゴ+漢語動詞+補助動詞」に変化させたことによる$\mu$の変化量の間で比較を行えば良い.すなわち,各表現(通常表現を除く)の$\mu$をその通常表現の$\mu$からの変化量として補正した値(これを$\mu'$と記す)に関して,オ〜型表現とゴ〜型表現の差($\delta$と記す)を次式で計算する.\begin{eqnarray}\delta=\mu'_{i+n}-\mu'_{i}(i=2,...,n)\label{eqn:eqn2}\end{eqnarray}ただし,$\mu'_{i+n}=\mu_{i+n}-\mu_{n+1}$(漢語動詞.$\mu_{n+1}$は通常表現の$\mu$),$\mu'_{i}=\mu_{i}-\mu_{1}$(和語動詞.$\mu_{1}$は通常表現の$\mu$),$n$は式(\ref{eqn:eqn1})と同様,謙譲語に対しては11,尊敬語に対しては9である.すなわち,式(\ref{eqn:eqn2})では,表\ref{tbl:table5}に示す計算を行っている.なお,ラベルBの$\delta$は丁寧語であるため接頭辞オ/ゴは含まないが,オ〜型表現,およびゴ〜型表現との比較のため示した.\begin{table}[htbp]\begin{center}\caption{$\delta$の計算方法}\label{tbl:table5}\begin{tabular}{ccc}\hlineラベル&謙譲語グループ&尊敬語グループ\\\hlineB&$(\mu_{13}-\mu_{12})-(\mu_{2}-\mu_{1})$&$(\mu_{11}-\mu_{10})-(\mu_{2}-\mu_{1})$\\C&$(\mu_{14}-\mu_{12})-(\mu_{3}-\mu_{1})$&$(\mu_{12}-\mu_{10})-(\mu_{3}-\mu_{1})$\\D&$(\mu_{15}-\mu_{12})-(\mu_{4}-\mu_{1})$&$(\mu_{13}-\mu_{10})-(\mu_{4}-\mu_{1})$\\E&$(\mu_{16}-\mu_{12})-(\mu_{5}-\mu_{1})$&$(\mu_{14}-\mu_{10})-(\mu_{5}-\mu_{1})$\\F&$(\mu_{17}-\mu_{12})-(\mu_{6}-\mu_{1})$&$(\mu_{15}-\mu_{10})-(\mu_{6}-\mu_{1})$\\G&$(\mu_{18}-\mu_{12})-(\mu_{7}-\mu_{1})$&$(\mu_{16}-\mu_{10})-(\mu_{7}-\mu_{1})$\\H&$(\mu_{19}-\mu_{12})-(\mu_{8}-\mu_{1})$&$(\mu_{17}-\mu_{10})-(\mu_{8}-\mu_{1})$\\I&$(\mu_{20}-\mu_{12})-(\mu_{9}-\mu_{1})$&$(\mu_{18}-\mu_{10})-(\mu_{9}-\mu_{1})$\\J&$(\mu_{21}-\mu_{12})-(\mu_{10}-\mu_{1})$&-\\K&$(\mu_{22}-\mu_{12})-(\mu_{11}-\mu_{1})$&-\\\hline\end{tabular}\end{center}\end{table}図\ref{fig:figure2.1}および図\ref{fig:figure2.2}に示した$\mu$に対し,以上の方法で得た$\delta$を図\ref{fig:figure4.1}および図\ref{fig:figure4.2}に示す.\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig41.eps}\caption{$\delta$(発話意図:{\itanswer},謙譲語)}\label{fig:figure4.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./fig42.eps}\caption{$\delta$(発話意図:{\itanswer},尊敬語)}\label{fig:figure4.2}\end{center}\end{minipage}\end{tabular}\end{figure}図\ref{fig:figure4.1}および図\ref{fig:figure4.2}を見ると,B(丁寧語)に対する$\delta$を除き,全ての$\delta$の値は負であることが分かる.他の全ての表現グループにおいても,1つの例外(付図\ref{fig2:figure11.2}のC)を除き,全ての$\delta$は負であった(付図\ref{fig2:figure9.1}〜付図\ref{fig2:figure12.2}).そこで,各表現グループにおいて,帰無仮説:$\bar{\delta}=0$の検定\cite{石村1989}を行った(表\ref{tbl:table6}).ここで,$\bar{\delta}$は,各表現グループにおいて,B(丁寧語)を除く全ての表現にわたる$\delta$の平均を表す.表\ref{tbl:table6}は,10種類の表現グループいずれにおいても帰無仮説:$\bar{\delta}=0$が棄却されることを示す(有意水準1\%).かつ,$\bar{\delta}$は負である.従って,$\bar{\delta}$は有意に0より小さい.これは,通常表現からの変化量$\mu'$に関し,ゴ〜型表現の平均的な$\mu'$は,それに対応する(すなわち,同じ補助動詞を持つ)オ〜型表現の平均的な$\mu'$より有意に小さいことを示唆する.[結果(2)]\begin{table}[htbp]\begin{center}\caption{$\bar{\delta}$=0の検定結果}\label{tbl:table6}\begin{tabular}{|c|c|r|r|r|}\hline発話意図&謙譲語/尊敬語&\multicolumn{1}{|c|}{$\bar{\delta}$}&\multicolumn{1}{|c|}{検定量$T$}&\multicolumn{1}{|c|}{自由度}\\\hline\raisebox{-.5zh}[0cm][0cm]{\itanswer}&謙譲語&-0.264&13.4&8\\\cline{2-5}&尊敬語&-0.156&5.8&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\ituse}&謙譲語&-0.194&7.1&8\\\cline{2-5}&尊敬語&-0.220&12.7&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\itexplain}&謙譲語&-0.110&5.9&8\\\cline{2-5}&尊敬語&-0.171&11.5&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\itinform}&謙譲語&-0.103&8.4&8\\\cline{2-5}&尊敬語&-0.114&4.2&6\\\hline\raisebox{-.5zh}[0cm][0cm]{\itinvite}&謙譲語&-0.271&13.3&8\\\cline{2-5}&尊敬語&-0.301&14.8&6\\\hline\end{tabular}\end{center}\end{table}また,図\ref{fig:figure4.1}および図\ref{fig:figure4.2}のいずれも,B(丁寧語)の$\delta$が正であることを示す.図\ref{fig:figure4.1},図\ref{fig:figure4.2},付図\ref{fig2:figure9.1}〜付図\ref{fig2:figure12.2}と合わせ,全部で10個の表現グループのうち,5個(50\%)においてB(丁寧語)の$\delta$が正であった[結果(3)].\subsection{オ〜型表現とゴ〜型表現に差異が生じた理由}\label{sec:5.3}前節の結果(2)に示したように,ゴ〜型表現の平均的な$\mu'$(通常表現の$\mu$からの変化量)は,それに対応する(すなわち,同じ補助動詞を持つ)オ〜表現の平均的な$\mu'$より小さいことが示唆された.以下では,この理由について考察する.\\\\解釈1)一体感の違いに基づく解釈オ〜型表現とゴ〜型表現の丁寧さの印象の差異は,それぞれの本動詞の活用形(和語動詞の場合は和語動詞連用形,漢語動詞の場合は漢語動詞語幹)が動詞転成名詞の語形と一致していることに起因すると考えられる.ここで,動詞転成名詞とは,和語動詞の場合は和語動詞連用形が名詞の性質を持ったものである.漢語動詞の場合は漢語動詞(サ変動詞)語幹が名詞の性質を持ったものであり,いわゆるサ変名詞に相当する.具体的には,ゴ〜型表現は「ゴ回答」「ゴ招待」のように「ゴ+漢語動詞語幹」のみで独立した表現(すなわち,サ変名詞としての用法)として用いられることが多い.このため,「ゴ+漢語動詞語幹」が現れた時に,その表現だけで動詞転成名詞としての待遇表現が成立していると認識し,後続する表現,すなわち補助動詞への意識が低くなっている可能性がある.一方,オ〜型表現の場合,「オ+和語動詞連用形」は動詞転成名詞であり形としては正しいが,「オ使い」「オ招き」のように,「オ+和語動詞連用形」の部分だけでは,動詞転成名詞としては,ゴ〜型表現に比べて,あまり用いられないことが考えられる.このため,「オ+和語動詞連用形」が現れた時に,その表現だけで待遇表現が成立しているとは認識せずに,後続する表現,すなわち補助動詞に意識が及びやすくなっている可能性がある.つまり,オ〜型表現では,接頭辞と本動詞だけでなく,補助動詞まで確認した上で表現としての適切さや丁寧さの程度を判断しようとしていると言える.このことは,接頭辞オと接頭辞ゴの間には,本動詞との一体感の印象に差異がある,すなわち,ゴと漢語動詞の一体感は,オと和語動詞の一体感より強いことを示唆する.ゴ〜型表現の方が接頭辞と本動詞の一体感がより強いため,通常表現に接頭辞が付いて待遇表現になったことへの印象がオ〜型表現に比べて弱かったと考えられる.そしてその結果,通常表現からの待遇値の変化量がより小さくなったと考えられる.しかし,この解釈の他に次の解釈も可能である.\\\\解釈2)ある種の飽和現象の仮定に基づく解釈前述のように結果(2)は,通常表現からの待遇値の変化量$\mu'$に関するオ〜型表現とゴ〜型表現の比較による.このため,ある種の飽和現象:``通常表現の待遇値$\mu$が大きい程,通常表現に接頭辞や語尾(丁寧語の場合は語尾のみ)を付加してモーラ数を長くした時の$\mu$の変化量は小さくなる(変化量が鈍化する)",が存在すると仮定するならば,今回の実験では,全ての表現グループにおいて漢語動詞は和語動詞に比べ通常表現の$\mu$の値が大きかった(結果(1))ため,通常表現の$\mu$がより大きいゴ〜型表現の$\mu'$が,通常表現の$\mu$がより小さいオ〜型表現の$\mu'$より小さくなった,という説明が可能である.しかし,この解釈は結果(3)(10個の表現グループのうち,5個(50\%)においてB(丁寧語)の$\delta$が正であった)とは必ずしも一致しない.すなわち,結果(3)のうち,丁寧語(接頭辞を用いない表現)で$\delta$が正になった(すなわち,漢語系表現の$\mu'$が和語系表現の$\mu'$より大きかった)表現グループ(全体の50\%)に対しては,この解釈では説明できない.以上のことから,解釈1は本実験結果に対するより妥当な解釈であると考えられる.すなわち動詞待遇表現に関しては,後続する本動詞との一体感に関する接頭辞ゴと接頭辞オの違いが,通常表現からの待遇値の変化量に関するオ〜型表現とゴ〜型表現の違いとして現れたと解釈できる.\subsection{同じグループに属する表現間の丁寧さの印象のばらつきに関する,オ〜型表現とゴ〜型表現の比較}\label{sc:5.4}前節に述べた解釈1からは,ゴ〜型表現グループはオ〜型表現グループに比べて,同じ表現グループに属する表現間を区別して認識する度合いがより小さいことが予測される.この時,ゴ〜型表現グループの方がオ〜型表現グループより,同じ表現グループに属する表現間の待遇値$\mu$の違いが小さくなることが予測される.この予測を確かめるため,ここでは,ゴ〜型表現グループとオ〜型表現グループの間で,グループ内の表現の$\mu$に関する不偏分散($s^{2}$と記す)を比較する.この時,$s^{2}$が大きい程,そのグループにおける表現間での$\mu$の違いが大きいことを意味する.従って,オ〜型表現にわたる$s^{2}$とゴ〜型表現にわたる$s^{2}$とを比較することによって,それぞれの表現型に属する表現の間での丁寧さの印象の違いを,オ〜型表現とゴ〜型表現との間で比較することができる.各表現グループにおいて,$\mu$の全てのオ〜型表現にわたる$s^{2}$($s^{2}$(オ)と記す)および,$\mu$の全てのゴ〜型表現にわたる$s^{2}$($s^{2}$(ゴ)と記す)をそれぞれ求めた結果を表\ref{tbl:table7}に示す.\begin{table}[htbp]\begin{center}\caption{オ〜型表現とゴ〜型表現の比較}\label{tbl:table7}\begin{tabular}{|c|c|c|c|}\hline発話意図&謙譲語/尊敬語&オ〜型/ゴ〜型&$s^{2}$(普遍分散)\\\hline\raisebox{-2zh}[0cm][0cm]{\itanswer}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.279\\\cline{3-4}&&ゴ〜型&0.289\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.110\\\cline{3-4}&&ゴ〜型&0.106\\\hline\raisebox{-2zh}[0cm][0cm]{\ituse}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.225\\\cline{3-4}&&ゴ〜型&0.221\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.078\\\cline{3-4}&&ゴ〜型&0.082\\\hline\raisebox{-2zh}[0cm][0cm]{\itexplain}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.353\\\cline{3-4}&&ゴ〜型&0.303\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.130\\\cline{3-4}&&ゴ〜型&0.109\\\hline\raisebox{-2zh}[0cm][0cm]{\itinform}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.328\\\cline{3-4}&&ゴ〜型&0.334\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.118\\\cline{3-4}&&ゴ〜型&0.116\\\hline\raisebox{-2zh}[0cm][0cm]{\itinvite}&\raisebox{-.5zh}[0cm][0cm]{謙譲語}&オ〜型&0.342\\\cline{3-4}&&ゴ〜型&0.332\\\cline{2-4}&\raisebox{-.5zh}[0cm][0cm]{尊敬語}&オ〜型&0.118\\\cline{3-4}&&ゴ〜型&0.103\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:table7}を見ると,10個の表現グループのうち7個の表現グループで,$s^{2}$(オ)>$s^{2}$(ゴ)であることが分かる.この結果は,概して,オ〜型表現に比べてゴ〜型表現は,同じグループに属する表現間の待遇値$\mu$の違いの差が小さいことを示唆する.これは先の予測と一致する.従って,この結果は解釈1の妥当性を支持する.このことから,同じ表現グループに属する表現間での丁寧さの印象(待遇値)に関する比較によっても,オ〜型表現とゴ〜型表現の間には,接頭辞と後続の語との一体感の違いに起因する心理的印象の違いが生じていることが示唆された.
\section{おわりに}
\label{sc:6}待遇表現に対する丁寧さの印象に関し,オ〜型表現(「オ+和語+補助動詞」)とゴ〜型表現(「ゴ+漢語+補助動詞」)の違いを定量的に調べた.その結果,丁寧さの大きさに関し,オ〜型表現に比べてゴ〜型表現は,\begin{itemize}\item{通常表現からの変化量がより小さいこと}\item{その表現グループに属する表現間の違いがより小さいこと}\end{itemize}が示唆された.その原因として,待遇表現としての認識に関する両者の違いが示唆された.すなわち,従来,同じ補助動詞の場合には,まとめて扱われることの多かったオ〜型表現とゴ〜型表現の間には,接頭辞と後続の語との一体感の違いに起因する心理的印象の違いが生じていることが示唆された.待遇表現の自然さの印象\cite{白土他2003}だけでなく,待遇表現の丁寧さの印象に関しても,オ〜型表現とゴ〜型表現の間に差異が見られたことから,両者の間には,本質的な違いがあると考えられる.これが適切だとすると,待遇表現に関する教育においても,両者に違いがあるということを考慮する必要があるのではないか.すなわち,ゴ〜型表現はオ〜型表現に比べ,表現間の区別のしにくさに起因した誤用が多いことから,オ〜型表現とゴ〜型表現を学習させる場合には,両者を接頭辞だけが異なり,他は等価なものとして教えるのではなく,ゴ〜型表現の方が区別がしにくく間違いやすい,ということを教えた方が良い可能性がある.このように本研究での知見は,教育上の一つの指針になりうる.本研究で対象としたようなオ/ゴ〜型表現は,``〜"の部分に様々な動詞を当てはめることができ,かつ動詞に続く様々な補助動詞と組み合わせることができるため,非常に多くのバリエーションが存在する.今回はオ/ゴ〜型表現のうち,一部の表現のみを対象としたが,本稿で述べた手法を用いて,より多くのオ/ゴ〜型表現,``〜"の部分(動詞)の終止形,および``〜"の動詞を交替した表現(例:「言う」に対する「おっしゃる」)の丁寧さの程度の数値化を行うことにより,多くの表現に関してその表現と丁寧さの程度との対応データが作成できる.このデータは,例えば文生成の研究において,様々な丁寧さを持つ様々な待遇表現を柔軟に生成する際に役に立つと考えられる.この際,本研究で得られた知見に基づくと,例えば,同じ程度の丁寧さを持った表現を数多く生成するためにはゴ〜型表現を優先的に用い,一方,丁寧さの違いが大きい表現を数多く生成するためには,オ〜型表現を優先的に用いる,などのように対処すれば良いと考えられる.待遇表現としての認識は,被験者の年齢や性別などにも依存する可能性がある.従って今後は,これらの被験者属性への依存性について検討する予定である.\newpage\newcounter{appndnum}\def\appndnum{}\setcounter{appndnum}{1}\renewcommand{\figurename}{}\renewcommand{\tablename}{}\makeatletter\renewcommand{\thetable}{}\@addtoreset{table}{section}\makeatother\makeatletter\renewcommand{\thefigure}{}\@addtoreset{figure}{section}\makeatother\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\ituse},謙譲語}\label{tbl2:table1.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&使う&12&使用する\\\hline2&使います&13&使用します\\\hline3&お使いする&14&ご使用する\\\hline4&お使いします&15&ご使用します\\\hline5&お使いできる&16&ご使用できる\\\hline6&お使いできます&17&ご使用できます\\\hline7&お使い致します&18&ご使用致します\\\hline8&お使い申します&19&ご使用申します\\\hline9&お使い申し上げます&20&ご使用申し上げます\\\hline10&お使い頂く&21&ご使用頂く\\\hline11&お使い頂きます&22&ご使用頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\ituse},尊敬語}\label{tbl2:table1.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&使う&10&使用する\\\hline2&使います&11&使用します\\\hline3&お使いなさる&12&ご使用なさる\\\hline4&お使いなさいます&13&ご使用なさいます\\\hline5&お使いになる&14&ご使用になる\\\hline6&お使いになります&15&ご使用になります\\\hline7&お使い下さる&16&ご使用下さる\\\hline8&お使い下さいます&17&ご使用下さいます\\\hline9&お使いになられる&18&ご使用になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-2.5\baselineskip}\addtocounter{appndnum}{1}\setcounter{table}{0}\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itexplain},謙譲語}\label{tbl2:table2.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&話す&12&説明する\\\hline2&話します&13&説明します\\\hline3&お話しする&14&ご説明する\\\hline4&お話しします&15&ご説明します\\\hline5&お話しできる&16&ご説明できる\\\hline6&お話しできます&17&ご説明できます\\\hline7&お話し致します&18&ご説明致します\\\hline8&お話し申します&19&ご説明申します\\\hline9&お話し申し上げます&20&ご説明申し上げます\\\hline10&お話し頂く&21&ご説明頂く\\\hline11&お話し頂きます&22&ご説明頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itexplain},尊敬語}\label{tbl2:table2.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&話す&10&説明する\\\hline2&話します&11&説明します\\\hline3&お話しなさる&12&ご説明なさる\\\hline4&お話しなさいます&13&ご説明なさいます\\\hline5&お話しになる&14&ご説明になる\\\hline6&お話しになります&15&ご説明になります\\\hline7&お話し下さる&16&ご説明下さる\\\hline8&お話し下さいます&17&ご説明下さいます\\\hline9&お話しになられる&18&ご説明になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-2.5\baselineskip}\addtocounter{appndnum}{1}\setcounter{table}{0}\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinform},謙譲語}\label{tbl2:table3.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&知らせる&12&連絡する\\\hline2&知らせます&13&連絡します\\\hline3&お知らせする&14&ご連絡する\\\hline4&お知らせします&15&ご連絡します\\\hline5&お知らせできる&16&ご連絡できる\\\hline6&お知らせできます&17&ご連絡できます\\\hline7&お知らせ致します&18&ご連絡致します\\\hline8&お知らせ申します&19&ご連絡申します\\\hline9&お知らせ申し上げます&20&ご連絡申し上げます\\\hline10&お知らせ頂く&21&ご連絡頂く\\\hline11&お知らせ頂きます&22&ご連絡頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinform},尊敬語}\label{tbl2:table3.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&知らせる&10&連絡する\\\hline2&知らせます&11&連絡します\\\hline3&お知らせなさる&12&ご連絡なさる\\\hline4&お知らせなさいます&13&ご連絡なさいます\\\hline5&お知らせになる&14&ご連絡になる\\\hline6&お知らせになります&15&ご連絡になります\\\hline7&お知らせ下さる&16&ご連絡下さる\\\hline8&お知らせ下さいます&17&ご連絡下さいます\\\hline9&お知らせになられる&18&ご連絡になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-2.5\baselineskip}\addtocounter{appndnum}{1}\setcounter{table}{0}\begin{table}[htbp]\begin{center}{\scriptsize\begin{tabular}{cc}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinvite},謙譲語}\label{tbl2:table4.1}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&招く&12&招待する\\\hline2&招きます&13&招待します\\\hline3&お招きする&14&ご招待する\\\hline4&お招きします&15&ご招待します\\\hline5&お招きできる&16&ご招待できる\\\hline6&お招きできます&17&ご招待できます\\\hline7&お招き致します&18&ご招待致します\\\hline8&お招き申します&19&ご招待申します\\\hline9&お招き申し上げます&20&ご招待申し上げます\\\hline10&お招き頂く&21&ご招待頂く\\\hline11&お招き頂きます&22&ご招待頂きます\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}[t]{0.5\hsize}\begin{center}\caption{発話意図:{\itinvite},尊敬語}\label{tbl2:table4.2}\begin{tabular}{|c||l|c||l|}\hlineNo.&\multicolumn{1}{|c|}{和語系表現}&No.&\multicolumn{1}{|c|}{漢語系表現}\\\hline1&招く&10&招待する\\\hline2&招きます&11&招待します\\\hline3&お招きなさる&12&ご招待なさる\\\hline4&お招きなさいます&13&ご招待なさいます\\\hline5&お招きになる&14&ご招待になる\\\hline6&お招きになります&15&ご招待になります\\\hline7&お招き下さる&16&ご招待下さる\\\hline8&お招き下さいます&17&ご招待下さいます\\\hline9&お招きになられる&18&ご招待になられる\\\hline\end{tabular}\end{center}\end{minipage}\end{tabular}}\end{center}\end{table}\vspace{-\baselineskip}\setcounter{appndnum}{0}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa11.eps}\caption{$\mu$(発話意図:{\ituse},謙譲語)}\label{fig2:figure1.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa12.eps}\caption{$\mu$(発話意図:{\ituse},尊敬語)}\label{fig2:figure1.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa21.eps}\caption{$\mu$(発話意図:{\itexplain},謙譲語)}\label{fig2:figure2.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa22.eps}\caption{$\mu$(発話意図:{\itexplain},尊敬語)}\label{fig2:figure2.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa31.eps}\caption{$\mu$(発話意図:{\itinform},謙譲語)}\label{fig2:figure3.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa32.eps}\caption{$\mu$(発話意図:{\itinform},尊敬語)}\label{fig2:figure3.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa41.eps}\caption{$\mu$(発話意図:{\itinvite},謙譲語)}\label{fig2:figure4.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa42.eps}\caption{$\mu$(発話意図:{\itinvite},尊敬語)}\label{fig2:figure4.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa51.eps}\caption{$d$(発話意図:{\ituse},謙譲語)}\label{fig2:figure5.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa52.eps}\caption{$d$(発話意図:{\ituse},尊敬語)}\label{fig2:figure5.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa61.eps}\caption{$d$(発話意図:{\itexplain},謙譲語)}\label{fig2:figure6.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa62.eps}\caption{$d$(発話意図:{\itexplain},尊敬語)}\label{fig2:figure6.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa71.eps}\caption{$d$(発話意図:{\itinform},謙譲語)}\label{fig2:figure7.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa72.eps}\caption{$d$(発話意図:{\itinform},尊敬語)}\label{fig2:figure7.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa81.eps}\caption{$d$(発話意図:{\itinvite},謙譲語)}\label{fig2:figure8.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa82.eps}\caption{$d$(発話意図:{\itinvite},尊敬語)}\label{fig2:figure8.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa91.eps}\caption{$\delta$(発話意図:{\ituse},謙譲語)}\label{fig2:figure9.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa92.eps}\caption{$\delta$(発話意図:{\ituse},尊敬語)}\label{fig2:figure9.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa101.eps}\caption{$\delta$(発話意図:{\itexplain},謙譲語)}\label{fig2:figure10.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa102.eps}\caption{$\delta$(発話意図:{\itexplain},尊敬語)}\label{fig2:figure10.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa111.eps}\caption{$\delta$(発話意図:{\itinform},謙譲語)}\label{fig2:figure11.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa112.eps}\caption{$\delta$(発話意図:{\itinform},尊敬語)}\label{fig2:figure11.2}\end{center}\end{minipage}\end{tabular}\end{figure}\addtocounter{appndnum}{1}\setcounter{figure}{0}\begin{figure}[htbp]\begin{tabular}{cc}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa121.eps}\caption{$\delta$(発話意図:{\itinvite},謙譲語)}\label{fig2:figure12.1}\end{center}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\epsfxsize=0.8\hsize\epsffile{./figa122.eps}\caption{$\delta$(発話意図:{\itinvite},尊敬語)}\label{fig2:figure12.2}\end{center}\end{minipage}\end{tabular}\end{figure}\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown.\BBA\Levinson.}{Brown.\BBA\Levinson.}{1987}]{Brown他1987}Brown.,P.\BBACOMMA\\BBA\Levinson.,S.\BBOP1987\BBCP.\newblock{\BemPoliteness-Someuniversalsoflanguageusage-}.\newblockCambridge.\bibitem[\protect\BCAY{文化庁文化部国語課}{文化庁文化部国語課}{1995}]{文化庁文化部国語課1995}文化庁文化部国語課\BBOP1995\BBCP.\newblock\Jem{国語に関する世論調査平成7年4月調査}.\newblock大蔵省印刷局.\bibitem[\protect\BCAY{林\JBA南}{林\JBA南}{1974}]{林他1974}林四郎\JBA南不二男編集\BBOP1974\BBCP.\newblock\Jem{敬語講座1敬語の体系}.\newblock明治書院.\bibitem[\protect\BCAY{石村}{石村}{1989}]{石村1989}石村貞夫\BBOP1989\BBCP.\newblock\Jem{統計解析のはなし}.\newblock東京図書.\bibitem[\protect\BCAY{蒲谷\JBA川口\JBA坂本}{蒲谷\Jetal}{1991}]{蒲谷他1991}蒲谷宏\JBA川口義一\JBA坂本恵\BBOP1991\BBCP.\newblock\JBOQ待遇表現研究の構想\JBCQ\\newblock\Jem{早稲田大学日本語研究教育センター紀要3},\BPGS\1--22.\bibitem[\protect\BCAY{菊池}{菊池}{1997}]{菊地1997}菊池康人\BBOP1997\BBCP.\newblock\Jem{敬語}.\newblock講談社.\bibitem[\protect\BCAY{菊池}{菊池}{2003}]{菊地2003}菊池康人\BBOP2003\BBCP.\newblock\JBOQ敬語とその主な研究テーマの概観\JBCQ\\newblock\Jem{朝倉日本語講座8敬語}.朝倉書店.\bibitem[\protect\BCAY{三浦}{三浦}{1973}]{三浦1973}三浦新他編\BBOP1973\BBCP.\newblock\Jem{官能検査ハンドブック}.\newblock日科技連.\bibitem[\protect\BCAY{水谷}{水谷}{1995}]{水谷1995}水谷静夫\BBOP1995\BBCP.\newblock\Jem{待遇表現提要}.\newblock計量計画研究所.\bibitem[\protect\BCAY{中屋}{中屋}{1970}]{中屋1970}中屋澄子\BBOP1970\BBCP.\newblock\JBOQScheffeの一対比較法の一変法\JBCQ\\newblock\Jem{第11回官能検査大会報文集}.日本科学技術連盟.\bibitem[\protect\BCAY{荻野}{荻野}{1980}]{荻野1980}荻野綱男\BBOP1980\BBCP.\newblock\JBOQ敬語表現の長さと丁寧さ札幌における敬語調査から(3)\JBCQ\\newblock\Jem{計量国語学},{\Bbf12}(6),264--271.\bibitem[\protect\BCAY{荻野}{荻野}{1986}]{荻野1986}荻野綱男\BBOP1986\BBCP.\newblock\JBOQ待遇表現の社会言語学的研究\JBCQ\\newblock\Jem{日本語学},{\Bbf5}(12),55--63.\bibitem[\protect\BCAY{Scheffe}{Scheffe}{1952}]{Scheffe1952}Scheffe,H.\BBOP1952\BBCP.\newblock\BBOQAnanalysisofvarianceforpairedcomparisons\BBCQ\\newblock{\BemJ.Am.Statist.Assoc.},{\Bbf47},381--400.\bibitem[\protect\BCAY{白土\JBA井佐原}{白土\JBA井佐原}{2002}]{白土他2002}白土保\JBA井佐原均\BBOP2002\BBCP.\newblock\JBOQ待遇表現選択ストラテジの数値モデル\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ85-A}(3),389--397.\bibitem[\protect\BCAY{白土\JBA丸元\JBA井佐原}{白土\Jetal}{2003}]{白土他2003}白土保\JBA丸元聡子\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ敬語に対する認識の混乱に関する定量的分析\JBCQ\\newblock\Jem{計量国語学},{\Bbf24}(2),65--80.\bibitem[\protect\BCAY{鈴木\JBA林}{鈴木\JBA林}{1984}]{鈴木他1984}鈴木一彦\JBA林巨樹編\BBOP1984\BBCP.\newblock\Jem{研究資料日本文法9敬語法編}.\newblock明治書院.\bibitem[\protect\BCAY{田中良久}{田中良久}{1977}]{田中1977}田中良久\BBOP1977\BBCP.\newblock\Jem{心理学的測定第2版}.\newblock東京大学出版会.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{丸元聡子}{1996年東京女子大学文理学部日本文学科卒業.同年,財団法人計量計画研究所入所,2000年--2001年,通信・放送機構/通信総合研究所(現:情報通信研究機構)に出向.現在,財団法人計量計画研究所言語情報研究室研究員.自然言語処理の研究に従事.言語処理学会,計量国語学会,電子情報通信学会,各会員.}\bioauthor{白土保}{電気通信大計算機科学科卒.1986年電波研究所(現NICT)入所.鹿島センター,平磯センター,関西先端研究センター,けいはんなセンター,総務省情報通信政策局勤務を経てけいはんなセンター勤務.主任研究員.専門分野は,言語心理,音楽音響,感性情報処理.日本音響学会,電子情報通信学会,各会員.工学博士.}\bioauthor{井佐原均}{1980年京都大学大学院修士課程修了.博士(工学).同年,通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構けいはんな情報通信融合研究センター自然言語グループリーダーおよびタイ自然言語ラボラトリー長.自然言語処理,語彙意味論の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N03-03
|
\section{はじめに}
単語の意味を判別し,多義曖昧性を解消する技術(語義曖昧性解消;WordSenseDisambiguation)は,機械翻訳や情報検索,意味・構文解析など,自然言語処理のあらゆる分野において必要である\cite{ide:98}.これは一般に,テキストに現れた単語の語義が辞書などであらかじめ与えられた複数の語義のいずれに該当するかを判定する分類問題である.ただし,曖昧性解消をどのような応用に利用するかに依存して,どのような語義分類を与えるのが適切であるかは異なる.そして,分類の粒度や語義定義の与え方に応じて,最適な分類手法は異なってくることが予想される.それゆえ,具体的な応用に沿った語義曖昧性解消課題を設定して解決手法を研究することは有用である.2001年に開催された語義曖昧性解消国際コンテスト{\scSenseval}-2\footnote{cf.\{\tthttp://www.sle.sharp.co.uk/senseval2/}}\では,このような考え方に基づき,日本語翻訳タスクが実施された.本タスクは,日本語単語(対象語)320語に対して,1語あたり約20の日英対訳用例を収集した翻訳メモリを語義分類の定義と見なし,新たな日本語表現に含まれる対象語の語義を翻訳メモリ中の適切な用例を選択することで分類する課題である\cite{kurohashi:01a}.各対象語の語義分類は,翻訳メモリとして収集された日英の表現対であるが,語義を決定している重要な要因が日本語表現に現れる周辺文脈であるとみなすことにより単言語の語義曖昧性解消課題と捉えることができる.この種の問題は,一般に,正解タグを付与した訓練データを用い,各分類に属する表現例の対象語周辺文脈の性質を機械学習によって獲得することで解決できる.正解タグを付与した訓練データの作成のために,さまざまな全自動/半自動の訓練データ構築手法が提案されてきた\cite{dagan:94,yarowsky:95,karov:98}.しかし,本タスクには,以下のような問題点がある.\begin{itemize}\item翻訳メモリ中には,各語義分類ごとに1つしか正解例が与えられない.また,正解タグを付与した訓練データも(タスクの配布物としては)与えられない.\item翻訳メモリ中の表現は,(人間の感覚で)最低限語義を分別できる程度の,たかだか数語の文脈しか持たない.\item語義分類間の違いがしばしば非常に微妙である.\end{itemize}本タスクでは,上記の問題点のため,正解例を機械的に拡張するための手がかりは乏しく,これを精度よく行うことは難しい.このため,我々は,入力表現を直接的に翻訳メモリの各日本語表現と比較して表現間の類似度を計算し,用例を選択する手法を採用した.我々は,情報抽出や文書分類の分野でよく用いられるベクタ空間モデル(VectorSpaceModel)による文書間比較\cite{salton:83}の手法に着目し,Sch\"utzeによる,目的語の近傍に出現する単語の情報をベクタ(共起ベクタ)に表現して共起ベクタ間の余弦値を類似度の尺度とする手法\cite{schutze:97}を用いた.ベクタ空間モデルでは,通常,ベクタの各次元に文書中の単語の出現(真偽値)や出現頻度を配置する.しかし本タスクへの適用を考えた場合,翻訳メモリの日本語表現中に対象語と共に出現する単語は非常に少ないため,単純に表層的な単語出現情報を用いるだけでは表現の特徴(表現間の差異)をつかみきれない.またデータスパースネスの影響も深刻である.そこで我々は,単語の代わりに対象語周辺の各種素性({\bf文脈素性})の出現を各次元に配置したベクタ({\bf文脈素性ベクタ})を用いることとした.各文脈素性は,対象語周辺文脈を特徴づける要素を表すもので,表現中に出現する内容語の\begin{enumerate}\item[a)]対象語との構文的/位置的関係(構文解析の結果から獲得)\\例:対象語にガ格でかかる,対象語より前にある,任意の位置,\ldots\item[b)]形態的/意味的属性(形態素解析の結果とシソーラスから獲得)\\例:標準形=\hspace*{-.25zw}「子供」,品詞=\hspace*{-.25zw}「名詞」,シソーラス上の意味コード=\hspace*{-.25zw}「名\kern0pt86」,\ldots\end{enumerate}を任意に組み合わせたものである.これは,対象語周辺の単語の出現をさまざまな抽象化のレベルで捉えることを意味する.これにより,文脈素性ベクタは,表現間の微妙な違いを表現すると同時に,適応範囲の広い文脈特徴量となることが期待できる.本稿では,まず\ref{sec:task}~章で{\scSenseval}-2日本語翻訳タスクの特徴について述べるとともに,本タスクを解決するシステムの設計方針について述べる.次に\ref{sec:method}~章で文脈素性ベクタを用いた翻訳選択の手法を説明する.そして\ref{sec:senseval_result}~章で{\scSenseval}-2参加システムの諸元と,コンテスト参加結果を紹介する.\ref{sec:vector_component}~章では,\ref{sec:method}~章で各種文脈素性の翻訳選択性能への寄与について調査した結果を報告し,考察を行う.最後に\ref{sec:conclusion}~章でまとめと今後の課題について述べる.
\section{S{\normalsize\bfENSEVAL}-2日本語翻訳タスクの特徴とシステム設計方針}
\label{sec:task}{\scSenseval}-2日本語翻訳タスクは,対訳用例に基づく翻訳アプリケーションにおいて,ある対象語を含んだ表現の翻訳として適切な対訳用例を選択する問題を,語義曖昧性解消の問題と見なした課題である\cite{kurohashi:01a}.コンテスト参加者は,あらかじめ配布される対訳用例集「翻訳メモリ」に基づいて翻訳を選択するシステムを構築する.そして,後に評価データが配布されると,システムを用いてデータ中の指定された対象語の翻訳を翻訳メモリ中の用例から選択する.本章では,配布された翻訳メモリと評価データの概要を説明し,タスクの特徴とそれに適したシステムの設計について考察する.\subsection{翻訳メモリ}\label{sec:TM}語義分類の定義として与えられる翻訳メモリは,毎日新聞9年分の記事から収集された用例を元に作成されたもので,各対象語に対して,図~\ref{fig:TM_entry}のような形式で与えられる.\begin{figure}[tp]\begin{center}\begin{minipage}{.8\textwidth}\epsfile{file=figs/fig1.eps,scale=1.0}\end{minipage}\end{center}\caption{翻訳メモリの例}\label{fig:TM_entry}\end{figure}各語義分類(\verb|<sense>|)を定義する用例は,1対の対象語を含む日本語表現(\verb|<jexpression>|)とその表現全体の対訳である英語表現(\verb|<eexpression>|),それに用例作成時に対訳作成者によって付与された補足情報(\verb|<transmemo>|)などからなっている.配布された翻訳メモリは320対象語に対して合計6,920用例(1対象語平均21.6用例)であった.用例中の日本語表現は,図~\ref{fig:TM_entry}の例のように,一般に短く,人間が見て最低限語義を分別できる程度の文脈しか与えられていない(日本語表現の平均単語数は4.5語).また分類間の日本語表現の違いは微妙なものも多く,図~\ref{fig:TM_entry}の用例\verb|14-19|〜\verb|14-21|のように,全く同じ日本語表現が複数の異なる翻訳に分類されていることもある.このように分類間の日本語表現の違いが微妙な場合に,補足情報が分類を行う上で決定的な情報を持っているものもある(図~\ref{fig:TM_entry}の用例\verb|14-20|,\verb|14-21|が一例).\subsection{評価データ}評価データは,毎日新聞1994年の記事の中から選ばれたものである.翻訳メモリに存在する対象語から動詞・名詞20語ずつが選ばれ,この対象語を持つ記事が各対象語につき30記事ずつ選ばれた.評価記事は図~\ref{fig:eval_entry}のように,記事全体が形態素解析されており,対象語に印(\verb|<head>|)がつけられている.\begin{figure}[tp]\begin{center}\begin{minipage}{.8\textwidth}\footnotesize\begin{verbatim}<instanceid="ataeru.001"docsrc="00004730"topic="(046)341.241.2(4+73)"><context><morpos="7"rd="トウオウ">東欧</mor><morpos="1"rd="キキ">危機</mor><morpos="457"rd="ナラ"bfm="だ">なら</mor><morpos="1"rd="キンキュウ">緊急</mor><morpos="1"rd="キョウギ">協議</mor><morpos="490"rd=""></mor><morpos="1"rd="ソウキ">早期</mor><morpos="1"rd="カメイ">加盟</mor><morpos="423"rd="ハ">は</mor><morpos="13"rd="サキオクリ">先送り</mor><morpos="468"rd="−−">−−</mor><morpos="2"rd="エヌエイティーオー">NATO</mor><morpos="1"rd="シュノウ">首脳</mor><morpos="1"rd="カイギ">会議</mor><morpos="1"rd="サイシュウ">最終</mor><morpos="1"rd="ブンショ">文書</mor><morpos="1"rd="ゲンアン">原案</mor>\end{verbatim}\vspace*{-1.5\baselineskip}\hspace*{5em}$\vdots$\vspace*{-.5\baselineskip}\begin{verbatim}<morpos="7"rd="トウオウ">東欧</mor><morpos="22"rd="ショ">諸</mor><morpos="24"rd="コク">国</mor><morpos="419"rd="ノ">の</mor><morpos="1"rd="ケネン">懸念</mor><morpos="419"rd="ニ">に</mor><morpos="468"rd=",">,</mor><morpos="1"rd="シンリ">心理</mor><morpos="24"rd="テキ">的</mor><morpos="1"rd="ホショウ">保証</mor><morpos="419"rd="ヲ">を</mor><morpos="102"rd="アタエ"bfm="与える"><head>与え</head></mor><morpos="454"rd="タ"bfm="た">た</mor><morpos="420"rd="ト">と</mor><morpos="103"rd="イエル"bfm="いえる">いえる</mor><morpos="468"rd=".">.</mor>\end{verbatim}\vspace*{-1.5\baselineskip}\hspace*{5em}$\vdots$\vspace*{-.5\baselineskip}\begin{verbatim}</context></instance>\end{verbatim}\end{minipage}\end{center}\caption{評価データの一例}\label{fig:eval_entry}\end{figure}対象語は記事本文中に設定されていることが多いが,記事先頭にある見出しに設定されていることもある.\subsection{タスクの特徴とシステム設計方針}語義曖昧性解消問題の解法には,決定木学習\cite{tanaka:94}や決定リスト学習\cite{yarowsky:95}のような,正解例からの学習に基づく手法がしばしば用いられる.しかし本タスクのように,どの分類に対しても正解例が1例しか与えられていないような問題を解くには適していない.半自動的に正解例を拡張しようという試みも,本タスクの翻訳メモリのように,対象語あたりの語義数が非常に多く,かつそれぞれの違いが微妙で文脈情報も少ない場合には精度よく行うことは難しい.このため,我々は,入力表現を直接的に翻訳メモリの各日本語表現と比較して表現間の類似度を計算し,用例を選択する手法が適切であると考えた.類似度に基づく手法は,類似度をどのように定めるかが重要である.表現間の類似度の尺度には,従来から数多くの提案がされてきた.田中らは,表現中の内容語の一致数と,一致した内容語間の距離(文字数)に基づいて,類似度を定義している\cite{tanaka:99}.また黒橋らは,表現中の各文節の類似度を字面や品詞,シソーラスの意味コードの一致度などを用いて求め,動的計画法を用いて表現間の類似文節列を発見している\cite{kurohashi:92}.これらは表現間の類似度を直接計算する手法であるが,本タスクで必要な,ある対象語を中心とした類似性を測定する手法とはやや異なる.一方Sch\"utzeは,ベクタ空間モデルを用いて単語の語義曖昧性解消を行っている.コーパスから目的語の近傍に出現する単語の情報を単語ベクタとして収集し,それらを語義ごとに足し合わせることで,語義を表す文脈ベクタを作成している.そして,入力表現を表す単語ベクタと各語義の文脈ベクタとの間の余弦値を求めることにより,入力表現がどの語義に一番近いかを求めている\cite{schutze:97}.またFujiiは,日本語の動詞の語義曖昧性を解消するためにある語義に属する用例表現集合と入力表現を比較する際,動詞の格スロットに入る名詞の類似度を求めている.この類似度は,シソーラスの意味コードの一致度,またはベクタ空間モデルによって計算する\cite{fujii:98}.これらの手法は,ある対象語を中心とした類似性を測定しているが,数多くの正解例の存在を前提にしており,そのままでは本タスクに適用できない.そこで我々は,Sch\"utzeの手法の文脈ベクタに相当する{\bf文脈素性ベクタ}を,ただ1つの正解例から構築することを目指した.文脈ベクタは,単語ベクタを足し合わせることで周辺語の意味的な性質を表現していたが,文脈素性ベクタではシソーラスを用い,直接的に周辺語の意味属性を表現する.また,周辺語の出現を,目的語との関係(係り受け関係など)と併せて表現することで,格スロットの類似性の観点を取り入れる.
\section{文脈素性ベクタを用いた翻訳選択}
\label{sec:method}本章では,対象語周辺の文脈を多角的に表現するための{\bf文脈素性}の考え方を説明する.そして,これを用いてベクタ空間モデルによって表現間の類似度を計算し,翻訳選択を行う手法について述べる.\subsection{文脈素性}対象語から見て構文的/位置的関係$r$にある単語(群)が持つ形態的/意味的属性$t$=$v$(属性種別が$t$でその値が$v$)を指して,{\bf文脈素性}$r$:$t$=$v$と呼ぶ.一例として,翻訳選択の対象語(対象語)が「間」であるような表現$e_1$:\begin{center}「夫婦の\mbox{}\underline{間}\mbox{}に子供が産まれる」\end{center}を考える.\begin{figure}[tp]\begin{center}\epsfile{file=figs/expression-j.EPS,scale=1.0}\end{center}\caption{表現$e_1$とその文脈情報(抜粋)}\label{fig:expression-j}\end{figure}図~\ref{fig:expression-j}のように,この表現には,対象語「間」の周辺に内容語「夫婦」「子供」「産まれる」が存在している.これら周辺語は,対象語との間に図中{\sfa)}に示すような構文的/位置的関係にある.また各単語は,それぞれ図中{\sfb)}に示すような形態的/意味的属性を持つ.この表現$e_1$は,対象語の周囲に図~\ref{fig:e1-context_feature}のような文脈素性を持っている.\begin{figure}[tp]\begin{center}\begin{minipage}{.75\textwidth}\begin{center}\footnotesize\begin{tabular}{r@{\,:\,}l}対象語にノ格でかかる&基本形=\hspace*{-.25zw}「夫婦」\\対象語にノ格でかかる&基本形読み=\hspace*{-.25zw}「ふうふ」\\対象語にノ格でかかる&出現形=\hspace*{-.25zw}「夫婦」\\対象語にノ格でかかる&出現形読み=\hspace*{-.25zw}「ふうふ」\\対象語にノ格でかかる&品詞=\hspace*{-.25zw}「名詞」\\対象語にノ格でかかる&意味コード=\hspace*{-.25zw}「名\kern0pt74」\\対象語より前にある&基本形=\hspace*{-.25zw}「夫婦」\\対象語より前にある&基本形読み=\hspace*{-.25zw}「ふうふ」\\\multicolumn{2}{c}{$\vdots$}\\任意の周辺位置にある&基本形=\hspace*{-.25zw}「夫婦」\\任意の周辺位置にある&基本形読み=\hspace*{-.25zw}「ふうふ」\\\multicolumn{2}{c}{$\vdots$}\\対象語&基本形=\hspace*{-.25zw}「間」\\対象語&基本形読み=\hspace*{-.25zw}「あいだ」\\\multicolumn{2}{c}{$\vdots$}\\対象語より後にある&基本形=\hspace*{-.25zw}「子供」\\対象語より後にある&基本形読み=\hspace*{-.25zw}「こども」\\\multicolumn{2}{c}{$\vdots$}\\対象語がニ格で係る&基本形=\hspace*{-.25zw}「産まれる」\\対象語がニ格で係る&基本形読み=\hspace*{-.25zw}「うまれる」\\\multicolumn{2}{c}{$\vdots$}\\対象語より後にある&基本形=\hspace*{-.25zw}「産まれる」\\対象語より後にある&基本形読み=\hspace*{-.25zw}「うまれる」\\\multicolumn{2}{c}{$\vdots$}\end{tabular}\end{center}\end{minipage}\end{center}\caption{表現$e_1$の持つ文脈素性(抜粋)}\label{fig:e1-context_feature}\end{figure}\subsection{文脈素性ベクタの作成}文脈素性ベクタは,以下の手順で作成する.\begin{enumerate}\item翻訳メモリ中の日本語表現と入力表現の各々を行成分に,各文脈素性を列成分に持つ行列({\bf文脈素性共起行列})を作成する(\ref{sec:appearance}~節).\item文脈素性のうちシソーラス上の意味コードを属性に持つものに対応する要素(意味属性要素)を,それぞれ上位概念まで拡張する(\ref{sec:expand_sense}~節).\item各要素に対して文脈素性種別に応じた重みづけをする(\ref{sec:weight}~節).\item行列の各行ベクタを文脈素性ベクタと見なす.\end{enumerate}以下では,図~\ref{fig:expression-j}の表現$e_1$を例にとり,上記の各手順を説明する.\subsubsection{文脈素性共起行列の作成}\label{sec:appearance}{\bf文脈素性共起行列}$A$は,翻訳メモリ中の日本語表現と入力表現の各々を行成分に,各日本語表現が持つすべての文脈素性を列成分に持つ行列である.行列の要素$a_{e,\mbox{\scriptsize$r$:$t$=$v$}}$は,表現$e$中,対象語の周辺に文脈素性$r$:$t$=$v$が出現しているか(真偽値)を表している.例えば,図~\ref{fig:expression-j}の表現$e_1$に対応する行列の行成分は,表~\ref{tab:appearance}に示される表現の行のようになる\footnote{誌面の都合上,多くの本来出現している要素を割愛している.}.\begin{table}[tp]\caption{表現$e_1$の文脈素性共起行列(抜粋)}\begin{flushleft}\footnotesize\tabcolsep3pt\begin{tabular}{r|c||c|c|c|c|c|c|c|c|c|c|c|c|c|c|c|c}\multicolumn{1}{c}{}&\multicolumn{17}{c}{文脈素性}\vspace*{.1zh}\\\cline{3-18}\multicolumn{2}{r|}{a)}&\multicolumn{7}{c|}{対象語にノ格でかかる}&\hspace*{3pt}$\cdots$\hspace*{3pt}&\multicolumn{7}{c|}{対象語がニ格でかかる}&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\cline{3-18}\multicolumn{2}{r|}{\raisebox{-.5zh}[0pt][0pt]{b)}}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\hspace*{3pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\\multicolumn{2}{r|}{}&&\hspace*{-.5zw}「夫婦」\hspace*{-.5zw}&&\hspace*{-.5zw}「名詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&&&&\hspace*{-.5zw}「産まれる」\hspace*{-.5zw}&&\hspace*{-.5zw}「動詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「用\kern0pt26」\hspace*{-.5zw}&\\\cline{3-18}\multicolumn{1}{r}{}\vspace*{-7.9pt}\\\cline{2-18}\hspace*{-3pt}表現&$e_1$&$\cdots$&1&$\cdots$&1&$\cdots$&1&$\cdots$&$\cdots$&$\cdots$&1&$\cdots$&1&$\cdots$&1&$\cdots$&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\cline{2-18}\end{tabular}\end{flushleft}\begin{center}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c|c|c|c|c|c|c|c|c}\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&\multicolumn{10}{c|}{対象語と係り関係がある}&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{3pt}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&\hspace*{3pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\&&\hspace*{-.5zw}「夫婦」\hspace*{-.5zw}&\hspace*{-.5zw}「産まれる」\hspace*{-.5zw}&&\hspace*{-.5zw}「名詞」\hspace*{-.5zw}&\hspace*{-.5zw}「動詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「用\kern0pt26」\hspace*{-.5zw}&\\\hline\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&$\cdots$&1&1&$\cdots$&1&1&$\cdots$&1&1&$\cdots$&\hspace*{3pt}$\cdots$\hspace*{-6pt}\\\hline\end{tabular}\end{center}\begin{flushright}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c|c|c|c|c|c|c|c|c|c|}\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&\multicolumn{12}{c|}{任意の周辺位置にある}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{3pt}&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&基本形&基本形&基本形&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&品詞&品詞&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\vspace*{-.1zh}\\&&\hspace*{-.5zw}「夫婦」\hspace*{-.5zw}&\hspace*{-.5zw}「子供」\hspace*{-.5zw}&\hspace*{-.5zw}「産まれる」\hspace*{-.5zw}&&\hspace*{-.5zw}「名詞」\hspace*{-.5zw}&\hspace*{-.5zw}「動詞」\hspace*{-.5zw}&&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt86」\hspace*{-.5zw}&\hspace*{-.5zw}「用\kern0pt26」\hspace*{-.5zw}&\\\hline\hline\hspace*{-6pt}$\cdots$\hspace*{3pt}&$\cdots$&1&1&1&$\cdots$&1&1&$\cdots$&1&1&1&$\cdots$\\\hline\end{tabular}\end{flushright}\label{tab:appearance}\end{table}周辺語の多くは対象語に対して複数の構文的/位置的関係に解釈できるので,ある1つの周辺語中に現れる形態的/意味的属性は,一般に複数の文脈素性要素となって行成分中に出現することに注意されたい.\subsubsection{意味属性要素の拡張}\label{sec:expand_sense}前節で作成した行列の各行ベクタをそのまま文脈素性ベクタと見なし,ベクタ間の角度の余弦値を計算して表現間の類似度を求めることができる.しかし,それはデータスパースネスの克服という点で十分でない.なぜならこのままでは,シソーラス上の意味コードを属性に持つ文脈素性の出現の一致を,単純な真偽で測ることになってしまうからである.階層構造を持つシソーラス上の2つの意味コードに対しては,単純な意味コードの一致による真偽値ではなく,一致している階層の深さを考慮した一致度を決めることができる.我々が用いる日本語語彙体系のように階層構造を持つシソーラスの場合,その概念から最上位概念までの上位概念を共有している度合を意味コードの一致度と見なすことができる.我々は,形態的/意味的属性として意味コードを持つ文脈素性に対応する行列要素(意味属性要素)の出現の各々について,その上位概念である意味コードの文脈素性も出現していると見なす拡張を行うことにした.具体的には,以下の通りである.\begin{quote}シソーラス上のある概念に対して,最上位から$n$~階層目の概念を表す意味コードを$s_n$とする.各上位概念の意味コードは,上から$s_1,s_2,\ldots,s_{n-1}$で表される.表現$e$中に,構文的/位置的関係$r$と組み合わされた文脈素性`\mbox{$r$:意味コード=$s_n$}'が出現している(要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}=1$である)とき,これの代わりに,要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_1$}},a_{e,\mbox{\scriptsize$r$:意味コード=$s_2$}},\ldots,a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}$の各々に等しく$\frac{1}{\sqrt{n}}$を与える.\end{quote}これは,意味コードを含む部分的な文脈素性ベクタが以下の性質を保持することを期待している.\begin{itemize}\item2つの意味コードが概念階層を共有している度合は,ベクタの意味属性成分どうしの余弦値に一致する.\item拡張後の全ての意味属性要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_1$}},a_{e,\mbox{\scriptsize$r$:意味コード=$s_2$}},\ldots,a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}$からなる部分ベクタの大きさ\[\sqrt{(a_{e,\mbox{\scriptsize$r$:意味コード=$s_1$}})^2+(a_{e,\mbox{\scriptsize$r$:意味コード=$s_2$}})^2+\ldots+(a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}})^2}\]を拡張前の意味属性要素$a_{e,\mbox{\scriptsize$r$:意味コード=$s_n$}}$と等しくすることで,概念階層の深さにかかわらず余弦値計算への寄与を一定に保つ.\end{itemize}一例として,表~\ref{tab:appearance}の文脈素性\begin{center}\begin{tabular}{r@{\,:\,}l}任意の周辺位置にある&意味コード=\hspace*{-.25zw}「名\kern0pt74」\\任意の周辺位置にある&意味コード=\hspace*{-.25zw}「名\kern0pt86」\end{tabular}\end{center}に対応する要素を拡張してみる.概念「名\kern0pt74」と「名\kern0pt86」は,日本語語彙体系上に図~\ref{fig:thesaurus}のように位置している.\begin{figure}[tp]\begin{center}\epsfile{file=figs/thesaurus.EPS,scale=1.0}\end{center}\caption{日本語語彙体系上での概念「名\kern0pt74」「名\kern0pt86」}\label{fig:thesaurus}\end{figure}従って,2つの要素は表~\ref{tab:expand_sense}のように拡張される.\begin{table}[tp]\caption{意味属性要素の上位概念の展開}\begin{center}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c}\hline\multicolumn{4}{c}{\makebox[0pt]{任意の周辺位置にある}}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt86」\hspace*{-.5zw}&\\\hline\hline\hspace*{-6pt}$\cdots$&1&1&$\cdots$\hspace*{-6pt}\\\hline\end{tabular}\end{center}\begin{center}$\Downarrow$\end{center}\begin{center}\footnotesize\tabcolsep3pt\begin{tabular}{c|c|c|c|c|c|c|c|c|c|c}\hline\multicolumn{11}{c}{任意の周辺位置にある}\\\hline\hspace*{-6pt}\raisebox{-.5zh}[0pt][0pt]{$\cdots$}&意味&意味&意味&意味&意味&意味&意味&意味&意味&\raisebox{-.5zh}[0pt][0pt]{$\cdots$}\hspace*{-6pt}\vspace*{-.1zh}\\&\hspace*{-.5zw}「名\kern0pt1」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt2」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt3」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt4」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt5」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt72」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt74」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt85」\hspace*{-.5zw}&\hspace*{-.5zw}「名\kern0pt86」\hspace*{-.5zw}&\\\hline\hline&\multicolumn{1}{c|}{\rule[-2ex]{0pt}{5.5ex}\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{7}}$}}&&&\\\hspace*{-6pt}$\cdots$&$\lor$&$\lor$&$\lor$&$\lor$&$\lor$&$\lor$&&&&$\cdots$\hspace*{-6pt}\vspace*{-.5ex}\\&\multicolumn{1}{c|}{\rule[-3ex]{0pt}{4.5ex}$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{$\frac{1}{\sqrt{8}}$}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{}&\multicolumn{1}{@{\protect\makebox[0pt]{$-$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{8}}$}}&\multicolumn{1}{@{\protect\makebox[0pt]{$\leftarrow$}\hspace*{3pt}}c|}{\fbox{$\frac{1}{\sqrt{8}}$}}&\\\hline\end{tabular}\end{center}\label{tab:expand_sense}\end{table}このとき,同じ構造的/位置的関係に複数の意味コードが与えられた文脈素性が存在することがあり,これらの展開の結果,上位の意味コードを含む文脈素性に対してそれぞれ異なった値を配置しようとする要素があるが,その場合は大きい方の値を採用する.\subsubsection{文脈素性要素の重みづけ}\label{sec:weight}2つの文脈素性ベクタを比較して類似度を測る際に,文脈素性の出現の一致が類似性に寄与する度合は,文脈素性によって異なると考えられる.例えば,表~\ref{tab:appearance}で表現$e_1$の文脈素性として出現しているもののうち,\begin{center}任意の周辺位置にある\,:\,意味コード=\hspace*{-.25zw}「名\kern0pt74」\end{center}の一致は\begin{center}任意の周辺位置にある\,:\,品詞=\hspace*{-.25zw}「名詞」\end{center}より類似性への寄与が大きいであろうし,さらに\begin{center}対象語にノ格で係る\,:\,意味コード=\hspace*{-.25zw}「名\kern0pt74」\end{center}の一致は\begin{center}任意の周辺位置にある\,:\,意味コード=\hspace*{-.25zw}「名\kern0pt74」\end{center}より類似性への寄与が大きいであろう.すなわち,{\bf文脈素性種別}$r$:$t$が類似性への寄与の度合を決定しているのではないかと考えられる.ベクタ空間モデルを用いた文書間比較においては,一般に索引語が文書の内容に寄与する度合(重要度)で索引語の重みづけを行う.我々は,同様の枠組で文脈素性ベクタの各文脈素性要素の出現に重みづけをすることにした.先の考察結果を実現するために,各要素に対して以下のように重みづけを行うことにする.\begin{quote}表現$e$中の文脈素性$r$:$t$=$v$を考える.重みづけ前の文脈素性共起行列$A$の要素$a_{e,\mbox{\scriptsize$r$:$t$=$v$}}$に対して,\\重みづけ後の文脈素性共起行列$A'$の要素$a'_{e,\mbox{\scriptsize$r$:$t$=$v$}}$は次のように計算する.\[a'_{e,\mbox{\scriptsize$r$:$t$=$v$}}=\sqrt{w(\mbox{$r$:$t$})}\cdot\frac{a_{e,\mbox{\scriptsize$r$:$t$=$v$}}}{\displaystyle\sqrt{\sum_{v\inV}(a_{e,\mbox{\scriptsize$r$:$t$=$v$}})^2}}\]ここで,$V$は文脈素性種別$r$:$t$に対してありうる全ての形態的/意味的属性の値,$w(\mbox{$r$:$t$})$は,文脈素性種別$r$:$t$に応じて決まる重みである.\end{quote}この重みづけの結果,文脈素性ベクタ中,ある文脈素性種別$r$:$t$に属する要素からなる部分ベクタの大きさは$\sqrt{w(\mbox{$r$:$t$})}$に正規化される.これは直感的には,2つの文脈素性ベクタの類似度を計算するとき,ある文脈素性種別$r$:$t$に属する要素成分の類似度が全体の類似度に寄与する度合が次の式のようになる.\begin{quote}\[\frac{w(\mbox{$r$:$t$})}{\displaystyle\sum_{\mbox{\footnotesize$r$:$t$\/}\inR\timesT}\!\!w(\mbox{$r$:$t$})}\]ここで,$R$はありうる全ての構文的/位置的関係,\\$T$はありうる全ての形態的/意味的属性種別\end{quote}つまり文脈素性種別ごとの寄与度の比が$w$の比になることを意味する.{\scSenseval}-2日本語翻訳タスクへの参加システムではこの解釈に基づき,文脈素性種別ごとの$w$を,その種別の意味づけを考慮したうえで直感的に決定した.\subsection{表現間の類似度の計算}\label{sec:candidate}ある対象語を含む日本語入力表現に対して,その語の適切な翻訳を選択するためには,入力表現の文脈素性ベクタを,その対象語に対応する翻訳メモリ中の全ての選択肢中の日本語表現の文脈素性ベクタと比較する.そして,入力表現のベクタとのなす角が最も小さい(余弦値が最も大きい)選択肢を採用する.文脈素性ベクタ間の比較を行うためには,当然両方のベクタは一意に決まっている必要がある.しかし,対象語周辺語は一般に多義であり,シソーラス上の意味コードには複数の候補がある.対象語の曖昧性解消にあたって,全ての周辺語の曖昧性を解消しておく必要があるというのは,手法として適切でない.そこで我々は,文脈素性ベクタ間の比較に先立って周辺語の曖昧性の解消は行わないことにした.代わりに,曖昧性を持つ周辺語の全ての候補の組み合わせについて文脈素性ベクタを計算し,その全てを「文脈素性ベクタ候補」として持つことにする.そして,文脈素性ベクタ間の類似度の計算の際には,お互いの全ての候補の組み合わせについて類似度を求め,値が最も大きな組み合わせを採用する.これによって,周辺語の多義性解消を対象語の翻訳選択と同時に行うことができる.
\section{S{\normalsize\bfENSEVAL}-2日本語翻訳タスク参加システム}
\label{sec:senseval_result}我々の開発した{\scSenseval}-2参加システムは,翻訳メモリ中の各日本語表現,評価データ,それぞれに対して,以下の手順で文脈素性となる情報を付与し,文脈素性ベクタを作成している.\begin{center}\begin{tabular}{p{7zw}l}{\bf形態素解析}&JUMANversion.\3.61\cite{kurohashi:98-1}\\\hspace*{2zw}$\Downarrow$\\{\bf構文解析}&KNPversion.\2.0~b6\cite{kurohashi:98-2}\\\hspace*{2zw}$\Downarrow$\\\multicolumn{2}{l}{\bfシソーラスによる内容語への意味コード付与}\\\hspace*{2zw}$\Downarrow$&日本語語彙体系\cite{ikehara:97}\\\multicolumn{2}{l}{\bf文脈素性ベクタ作成}\end{tabular}\end{center}以下ではシステムの諸元を説明し,コンテスト参加の結果を紹介する.\subsection{システムの諸元}\subsubsection{文脈を考慮する範囲}翻訳メモリ中の表現が非常に短いのに対し,評価データはそれぞれ新聞記事1記事分と非常に長い.できるだけ長さをそろえるために,評価データの方は対象語を含む1文のみを用いることにした.\subsubsection{文脈素性・種別ごとの重み}\label{sec:params}対象語周辺の文脈素性を形成するものとして採用した,構文的/位置的関係と形態的/意味的属性の一覧を表~\ref{tab:params}に示す.\begin{table*}[t]\caption{{\scSenseval}-2参加システムが採用した文脈素性要素と,種別ごとの重み}\begin{center}\begin{tabular}[t]{l|r@{\hspace*{1em}}}\hline構文的/位置的関係種別$r$&\multicolumn{1}{c}{$w_r(r)$}\\\hline対象語に係る\footnotemark\hspace*{\fill}(格関係:特定)&3\\\hspace*{\fill}(格関係:不特定)&1\\対象語を受ける\addtocounter{footnote}{-1}\footnotemark\(格関係:特定)&3\\\hspace*{\fill}(格関係:不特定)&1\\対象語と係り受け関係がある\addtocounter{footnote}{-1}\footnotemark&1\\対象語&2\\対象語文節中&2\\対象語より前&1\\対象語より後&1\\任意の周辺文脈&2\\\hline\end{tabular}\hspace*{3zw}\newlength{\zerowidth}\settowidth{\zerowidth}{0}\begin{tabular}[t]{l|r@{\hspace*{1em}}}\hline形態的/意味的属性種別$t$&\multicolumn{1}{c}{$w_t(t)$}\\\hline出現形&1\\出現形読み&1\\標準形&4\\標準形読み&4\\品詞&\protect\makebox[\zerowidth][l]{0\footnotemark}\\活用&\protect\makebox[\zerowidth][l]{0\addtocounter{footnote}{-1}\footnotemark}\\意味&12\\\hline\end{tabular}\end{center}\label{tab:params}\end{table*}また,\ref{sec:weight}~節で説明した,文脈素性種別$r$:$t$ごとに与える重みは,表~\ref{tab:params}の$w_r(r)$と$w_t(t)$を用いて\[w(\mbox{$r$:$t$})=w_r(r)\cdotw_t(t)\]と与えることにした.これは,表中全ての$r$:$t$の組み合わせについて人手で直感的に値を定めるのは困難なためである.\subsubsection{形態素・構文解析結果の誤りの扱い}\label{sec:error_correct}形態素・構文解析結果の誤りは,次のように扱った.\newpage\begin{enumerate}\item翻訳メモリ中の各表現の文脈素性ベクタを作成する際には,誤りを人手で修正した.\item評価セットの各表現の文脈素性ベクタを作成する際\footnotemarkには,修正は行わなかった.\end{enumerate}\addtocounter{footnote}{-2}\footnotetext{対象語がその文節の主辞(一番最後の自立語)でないときには,これらの構文的関係は考慮しない.}\addtocounter{footnote}{1}\footnotetext{「品詞」と「活用」の属性種別は,選択に有効な属性ではないのではないかと予測した.このため,{\scSenseval}-2参加システムでは,実験時間の削減の必要もあり,これらを利用しなかった.}\addtocounter{footnote}{1}\footnotetext{評価セットには形態素解析結果(単語境界,品詞コード)のタグが与えられていたが,我々はその情報を利用せず,新たに形態素・構文解析を行った.}\subsubsection{翻訳メモリ中の補足情報の扱い}配布された翻訳メモリには,日英表現対のいくつかに,作成者が加えた日本語による補足情報,例えば補足的な表現例やコメントなど,が含まれていた(\ref{sec:TM}~節参照).これらは以下のように扱う.\begin{enumerate}\item\label{enum:add_expr}対象語が含まれているならば,日英表現対の日本語表現と同等に扱う.すなわち,日英表現対の日本語表現と補足情報の両方に対して文脈素性ベクタを作成し,それらの全てを,\ref{sec:candidate}~節で述べた文脈素性ベクタ候補と扱う.\item\label{enum:add_context}対象語が含まれないならば,それらに含まれる全ての内容語を,対応する日本語用例で対象語の「任意の周辺文脈」に属しているものと見なし,該当する文脈素性要素に組み入れる.\end{enumerate}各補足情報の上記\ref{enum:add_expr}と\ref{enum:add_context}への分類,および\ref{enum:add_expr}の場合の対象語へのマーキングは,全て人手で行った.\subsubsection{シソーラスの検索}「日本語語彙体系」は,一般名詞,固有名詞,用言の3つの体系からなる.そして,収録されている各単語には標準形と読みの情報がある.「日本語語彙体系」から各単語の意味コードを取得するときには,以下の手順に従った.\begin{enumerate}\item\label{enum:yomi_trust}翻訳メモリ中の各表現の文脈素性ベクタを作成するときには,表現の形態素解析結果は人手で修正済である(\ref{sec:error_correct}~節)ので,修正済の形態素解析結果と完全に一致する単語のみを(複数あれば全てを候補に)採用する.すなわち,形態素解析結果の品詞情報を基に体系(一般名詞/固有名詞/用言)を選択し,その中で標準表記と読みが一致するものを選ぶ.一方,評価セットの場合は形態素解析結果の修正は行わないため,読みや品詞分類が誤っている場合がある.そのため,体系の選択を行うときには一般名詞と固有名詞の区別は行わず,標準表記が一致する語を全て選択する.\item翻訳メモリ中には,例えば「〜\usebox{\mykern}(人)に手をあげる」のように,単語が特定されず,その概念を表す語が添えられている用例がある.この語には,その概念語に対する一般名詞を検索し,その意味コードを当てる.\item数詞には全て意味コード「名\kern0pt2585(数量)」を割り当てる.\item\label{enum:nonexist}体系中に存在しない単語には,該当する体系の最上位の意味コードを1つ割り当てる.\item上記\ref{enum:yomi_trust}~〜~\ref{enum:nonexist}で一般名詞の意味コードを割り当てた場合,「日本語語彙体系」の「一般名詞と固有名詞の意味属性対応表\cite[pp.~1:89--91]{ikehara:97}」に相当する項目があれば,得られる固有名詞の意味コードも併せて候補にする.固有名詞から一般名詞への拡張も同様に行う.\end{enumerate}\subsection{参加システムの翻訳選択精度}我々の参加システムが評価データに対して行った翻訳選択実験の,正解データ(goldstandard)に対する精度・再現率\footnote{\ref{sec:candidate}~節で述べたように,翻訳選択は翻訳メモリ中の表現と入力表現それぞれの文脈素性ベクタ候補の総当たりで余弦値を計算して決定する.ここで,余弦値が0より大きくなる組み合わせが1つもないときには,システムは結果を「判定不能(UNASSIGNABLE)」とし,選択は行わない.このとき,精度はこれを評価セットから除いたときの正解率,再現率はこれを失敗としたときの正解率である.}\は,ともに45.8\,\%であった(goldstandard作成者間の一致度は86.0\,\%,baseline(無作為に1つを選択)の精度は36.8\,\%).ただ,参加システムにはベクタの正規化などに重大な不具合があった.この点を修正し,参加システムと同じ文脈素性種別の重みを用いて再度実験を行った.その精度・再現率はともに49.3\,\%(名詞:50.0\,\%,動詞:48.5\,\%)であった.
\section{文脈素性種別と翻訳選択性能との関係}
\label{sec:vector_component}本システムの開発にあたって,各種の文脈素性が表現の類似性を異なる観点から表現し,それぞれ類似性への寄与の度合が異なるという前提があった.従って,システムの翻訳選択性能は,文脈素性種別ごとの重みづけに本質的に依存すると言える.{\scSenseval}-2参加システムではこの重みを直感的に定めたが,より適切な重みを正解データから獲得することで性能の向上が期待できる.本章では,最適な重みの正解データからの学習の前段階として,文脈素性が種別ごとに翻訳選択性能にどのように寄与しているかを調査した.\subsection{実験}各文脈素性種別$r$:$t$について,それぞれ重み$w(\mbox{$r$:$t$})$のみを1,残りを全て0にした重み集合を用いて翻訳選択実験を行い,性能を比較した.実験時間の節約のため,対象語との構文的/位置的関係が\begin{itemize}\item任意の周辺位置にある\item対象語より前にある\item対象語より後にある\end{itemize}である文脈素性要素については,対象語から内容語5~語分より遠くにあるものを対象から外した\footnote{この条件で{\scSenseval}-2参加システムと同じ文脈素性種別の重みを用いて評価実験を行った結果の精度/再現率は,52.1\,\%/51.3\,\%(名詞:54.4\,\%/53.6\,\%,動詞:49.7\,\%/49.0\,\%)であった.}.実験の結果得られた,各文脈素性種別ごとの精度/再現率を図~\ref{fig:prec_rec}に示す.また,得られた精度/再現率の総合的な指標として,各々のF-尺度:\[F=\frac{(\beta+1)PR}{\betaP+R}\]を$\beta=1$として計算したものの上位を表~\ref{tab:f_measure}に示す.\subsection{分析}\begin{figure}[p]\begin{center}\begin{tabular}{c}\epsfile{file=figs/all.eps,scale=1.0}\\(1)全対象語\\\vspace*{.15\baselineskip}\\\epsfile{file=figs/noun.eps,scale=1.0}\\(2)名詞\\\vspace*{.15\baselineskip}\\\epsfile{file=figs/verb.eps,scale=1.0}\\(3)動詞\\\multicolumn{1}{r}{\epsfile{file=figs/legend.eps,scale=1.0}}\\\end{tabular}\end{center}\vspace*{-.4\baselineskip}\caption{文脈素性種別ごとの精度/再現率}\label{fig:prec_rec}\end{figure}\begin{table}[tp]\caption{文脈素性種別とF-尺度(上位抜粋)}\label{tab:f_measure}\begin{center}\small(1)全対象語\\\begin{tabular}[t]{r@{\,:\,}l|c}\hline\protect\makebox[14zw][r]{構文的/位置的関係}&形態的/意味的属性種別&F-尺度\\\hline任意の周辺文脈&意味&0.454\\対象語と係り受け関係にある&意味&0.423\\対象語より前&意味&0.421\\任意の周辺文脈&品詞&0.385\\対象語&意味\footnotemark&0.384\\対象語&標準形読み\addtocounter{footnote}{-1}\footnotemark&0.383\\対象語と係り受け関係にある&品詞&0.377\\\hline\end{tabular}\end{center}\vspace*{.25\baselineskip}\begin{center}\small(2)名詞\\\begin{tabular}[t]{r@{\,:\,}l|c}\hline\protect\makebox[14zw][r]{構文的/位置的関係}&形態的/意味的属性種別&F-尺度\\\hline対象語より後&意味&0.465\\任意の周辺文脈&意味&0.452\\対象語と係り受け関係にある&意味&0.407\\対象語より後&品詞&0.396\\対象語&出現形読み\addtocounter{footnote}{-1}\footnotemark&0.390\\対象語&出現形\addtocounter{footnote}{-1}\footnotemark&0.390\\対象語&意味\addtocounter{footnote}{-1}\footnotemark&0.390\\\hline\end{tabular}\end{center}\vspace*{.25\baselineskip}\begin{center}\small(3)動詞\\\begin{tabular}[t]{r@{\,:\,}l|c}\hline\protect\makebox[14zw][r]{構文的/位置的関係}&形態的/意味的属性種別&F-尺度\\\hline対象語に係る(格関係:特定)&意味&0.457\\任意の周辺文脈&意味&0.456\\対象語より前&意味&0.455\\対象語に係る(格関係:不特定)&意味&0.442\\対象語と係り受け関係にある&意味&0.440\\対象語より前&品詞&0.387\\任意の周辺文脈&品詞&0.384\\\hline\end{tabular}\end{center}\end{table}前節の実験結果を分析し,以下の考察を行った.\begin{description}\item[精度と再現率の関係]図~\ref{fig:prec_rec}が示すように,ある素性を用いて翻訳選択を行ったときの選択精度と再現率は両立しない.例えば,構文的/位置的関係が「対象語文節中」や「対象語に係る」「対象語を受ける」である素性や,形態的/意味的属性種別が「出現形(読み)」「基本形(読み)」である素性など,限定的な素性を用いると,精度は高くなるが再現率が低くなる.逆に,構文的/位置的関係が「任意の周辺文脈」や「対象語より前/後」である素性や,形態的/意味的属性種別が「意味」「品詞」である素性などでは,再現率は高くなるが精度があまり高くない.\footnotetext{対象語に相当する部分が形態素解析の結果得られる単語より小さく,単語の中に含まれてしまう場合,システムはその含む単語全体を対象語として扱う(例えば対象語「味」に対する「味わい」).そのため,この大きな対象語の「意味」や「標準形」属性などで選択が可能なことがある.}その中で比較的精度と再現率を両立しているのは,表~\ref{tab:f_measure}のF-尺度が示すように,形態的/意味的属性種別が「意味」である素性が多い.シソーラスの意味情報が翻訳選択性能に貢献していることが分かる.\item[名詞と動詞の違い]図~\ref{fig:prec_rec}(3)の再現率のグラフを見ると,動詞では,構文的/位置的関係が「対象語に係る」や「対象語より前」である素性と,「対象語を受ける」や「対象語より後」である素性とで,再現率が二分されることが分かる.このうち再現率が高い方のグループである「対象語に係る(格関係:特定)」「対象語に係る(格関係:不特定)」「対象語より前」の3種類について,形態的/意味的属性種別が同じ素性を用いたときの性能を比較してみると,再現率はどれもほとんど同じであるが,精度は「対象語に係る(格関係:特定)」が高い.つまり,動詞の場合は,対象語と特定の格関係にある(格スロットに入る)単語の類似性が性能に貢献すると言える.この傾向は,表~\ref{tab:f_measure}(3)のF-尺度によっても裏付けられる.一方,図~\ref{fig:prec_rec}(2)の再現率のグラフを見ると,名詞では動詞に比較して,構文的/位置的関係が「任意の周辺」や「対象語より前/後」である素性を用いたときに再現率が高くなっている.また,表~\ref{tab:f_measure}(2)のF-尺度を見ても,「対象語より後\,:\,意味」「任意の周辺文脈\,:\,意味」の上位2素性が抜きん出ている.全般には,名詞の場合,係り受け関係は性能にあまり貢献せず,対象語より後の文脈の方が性能に貢献する度合が高いと言える.\end{description}また,前節表~\ref{tab:params}で決めた文脈素性分類ごとの重みを全て与えて翻訳選択実験を行ったときの性能は,F-尺度で0.517であり,表~\ref{tab:f_measure}で最大のF-尺度を持つものより大きい.このことから,提案の枠組による各種文脈情報の統合は効果があったと言える.
\section{まとめ}
\label{sec:conclusion}本稿では,ベクタ空間モデルを用いた翻訳選択手法を提案し,本手法を用いたシステムで{\scSenseval}-2日本語翻訳タスクに参加した結果を報告した.ある対象語を含む対訳用例の中から最適な翻訳を選択する問題を,対象語周辺の詳細な文脈情報を表す文脈素性ベクタの類似した用例を選択することで解決する.本手法を用いた{\scSenseval}-2日本語翻訳タスク参加システムは,不具合修正後の精度が49.3\,\%であった.本手法で利用した各種文脈素性が翻訳選択性能に寄与する度合を調査したところ,シソーラスの意味情報が大きく貢献していることが分かった.また構文的制約の緩い素性の方が全般に頑強であった.今後の課題として,以下の2点を挙げる.\begin{itemize}\item表現間の類似度を計算するとき,周辺語の意味がシソーラス上で一般に複数の語義を持つために,語義曖昧性の数だけ「文脈素性ベクタ候補」を作成し,総当たりで類似度を求めている(\ref{sec:candidate}~節).このため,周辺語の数が増えるにしたがって計算時間が指数関数的に増大する.何らかの枝刈りを検討したい.\item正解データに基づく,最適な文脈素性種別ごとの重みの学習方法を検討したい.\end{itemize}\vspace{\baselineskip}\acknowledgment訓練データの整備に協力していただいた,大阪大学(現通信総合研究所)の森本郁代氏に感謝いたします.本研究は,通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものである.\bibliographystyle{jnlpbbl}\bibliography{kumano}\begin{biography}\biotitle{略歴}\bioauthor{熊野正}{1993年東京工業大学工学部情報工学科卒業.1995年同理工学研究科情報工学専攻修士課程修了.同年,日本放送協会に入局.同放送技術研究所に勤務.2000年よりATR音声言語通信研究所(現ATR音声言語コミュニケーション研究所)に勤務.第4研究室研究員.自然言語処理,情報検索,機械翻訳,人工知能の研究に従事.電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioauthor{柏岡秀紀}{1993年大阪大学大学院基礎工学研究科博士後期課程修了.博士(工学).同年ATR音声翻訳通信研究所入社.1998年同研究所主任研究員.1999年奈良先端科学技術大学院大学情報学研究科客員助教授.2000年ATR音声言語通信研究所主任研究員.2001年ATR音声言語コミュニケーション研究所主任研究員.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会各会員.}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年,日本放送協会に入局.1987年同放送技術研究所勤務.1997年より2年間ATRエイ・ティ・アール音声翻訳通信研究所に勤務.1999年NHK放送技術研究所に復帰.2000年よりATR音声言語通信研究所(現ATR音声言語コミュニケーション研究所)に勤務.現在,第4研究室室長.機械翻訳,機械学習,情報検索の研究に従事.工学博士.言語処理学会,情報処理学会,映像情報メディア学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N03-03
|
\section{はじめに}
統計情報に基づく自然言語処理では,訓練データとしてのコーパスの影響は非常に大きい.形態素情報や品詞情報等の情報を付加したコーパスを利用することで処理の精度の向上や処理の簡略化等が期待できるが,情報を付加する段階での労力が大きく,その精度に結果が大きく左右されるという問題がある.生コーパスをそのまま利用する場合には,コーパスの取得が容易であるため,目的に合ったドメインのコーパスを大量に入手できるという利点がある.しかし,生コーパスは未登録語や未知の言い回し,非文とされるような文の出現等を多く含むことがほとんどであり,これらが処理の精度の低下を招くという問題がある.コーパスから得た情報を利用するようなシステムの場合,処理の基本は意味のある言語単位であるから,まずこれを正しく認識することが先の処理の精度の向上に必要である.日本語のように意味のある言語単位ごとの区切り目が明らかでない言語では,まずこれを認識することが処理の第一段階であると言っても過言ではない.そこで,本稿では,生コーパス中の意味のある文字列を推測し認識することで結果的にコーパス中の未登録語を推定するシステムを提案する.本システムは,対象となるドメインの訓練用コーパスから取得した文字間共起情報を利用して,入力コーパス中の意味のある文字列を認識しこれを出力する.訓練用コーパス,テストコーパスともに事前のタグ付けは必要としない.
\section{日本語における語句抽出}
\subsection{自然言語処理における処理単位}自然言語処理の処理単位としては,単語を基本とするものが一般的である.しかし,単語は多義性を持つものも多く,文脈の中では一意に意味を決められる場合でも単語ごとに分割した時点でその語の持つ意味を特定できなくなる場合があり,単語が最適な処理単位と言えるかには疑問が残る\cite{fung98}.処理の単位として意味的な塊としての語句をとった場合,このような多義性の問題等はある程度抑えることができる.従って,意味的な塊としての語句の認識は,自然言語処理の精度の向上の点で,重要な課題である.現在研究されている語句抽出システムは,ほとんどが名詞句を対象としたものである.構文情報を基に名詞句を推定する方法および大規模コーパスからのドメイン固有の語句の抽出とが主に研究されている.Argamonらは,サブパターンの概念を利用して名詞句をパターンとして認識する,記憶ベースの手法を提案している\cite{argamon98}.また,Ananiadouは語句の組成についての形態論的ルールを利用して語句の認識を行なう手法を提案している\cite{ananiadou94}.\subsection{日本語における語句抽出}英語のように単語間に区切りを置く言語では,語句の認識は,区切りによって分けられた語を連結する作業となる.それに対し,日本語は単語間に区切りを置かない言語であるため,日本語においては,単語の抽出プロセスは,文の切り分け作業となる.日本語は日常的に利用される文字が数千文字と非常に多い.また,数種類の字種を同時に利用するという点でも,日本語は特徴的である.文字の共起情報を利用する手法としては,$n$-gramの画期的な抽出法を提案した長尾らによるもの\cite{nagao94}やOdaらの$n$-gramを利用した手法\cite{oda99}が挙げられる.また,Kashiokaらは,文字の相互情報量を利用した文字クラスタリングシステムを提案し,これを利用した切り分け処理およびタグ付け処理を行なっている\cite{kashioka98}.Kashiokaらの手法では処理に必要な情報を得るため,事前に訓練コーパスの単語への切り分けが必要とされる.単語の共起情報を利用する手法として,Borthwickは,最大エントロピ法に基づく固有名詞抽出の手法を提案している\cite{borthwick99}.Borthwickの手法ではあらかじめJumanを用いて切り分けおよびタグ付けを行なっている.
\section{システム概要}
\subsection{本システムの概要}本システムは入力として日本語文一文を採り,訓練コーパスから事前に抽出した文字共起情報を基に文中に含まれる文字列を調べ,意味のある文字列と認めたものを出力する.以下にシステムの処理の流れを示す(図\ref{fig:flo}).\begin{figure}[hbt]\begin{minipage}{\textwidth}\begin{center}\begin{tabular}{ccc}\hline\hline訓練フェーズ&&抽出フェーズ\\\hline入力(文単位)&&入力(文単位)\\$\Downarrow$&&$\Downarrow$\\d-bigram&$\longrightarrow$&文字ペアそれぞれについて\\&&有繋評価値算出\\&&$\Downarrow$\\&&意味のある文字列抽出\\&&$\Downarrow$\\&&出力(文字列単位)\\\hline\hline\end{tabular}\caption{システムの処理の流れ}\label{fig:flo}\end{center}\end{minipage}\end{figure}本システムは入力されたテストコーパスを一文単位で処理する.入力文中の隣り合う文字ペアそれぞれについて,訓練コーパスから抽出された文字単位共起情報を基に,その二文字の繋がりやすさを示す有繋評価値を算出し,これに基づいてこの二文字が同じ文字列に含まれるものであるかを推測する.この結果一繋がりと判断された文字列について,その有繋評価値が十分に高いものを統計情報に基づいて意味がある文字列と判断し,これを抽出結果として出力する.\subsection{コーパス}\label{sec:corpus_form}本システムの処理単位は文である.従って,訓練コーパスから文字単位共起情報を取得する際も,余分な情報を取得しないよう文単位で処理を行なう.文末は,原則として,文末記号によって決める.文末記号としては「.」「!」「?」の他,「……」や「♪」,「★」等文末を示すと認められるものはすべて認める.また,複数の文末記号が続く場合,その最後の文末記号までを一文とする.文末記号が現れても,それが引用中である等,文の途中であると認められるような場合にはそこで文を切らない.e.g.「こんにちは.」と言った.また,文末記号がない場合でも,明らかに文の区切り目であると考えられる場合は,文末記号を置かないまま文末とした.\subsection{文字間統計情報}\label{sec:scoring}隣接bigramだけでは,{\itAXYB}に現れる事象{\itXY}と{\itCXYD}に現れる{\itXY}とを区別することはできない.日本語のように形態素間の区切り目が明らかでない言語では,単純隣接bigramを利用することで捨てられるこれらの文脈情報が重要な役割を果たすことがある.本稿では,共起情報を取得する際の確率モデルとしてd-bigramを採用した.d-bigramとは,事象間の距離を考慮したbigramモデルである\cite{tsutsumi93}.\subsubsection{d-bigram確率モデル}\label{sec:d-bigram}d-bigramモデルは,2つの事象および事象間の距離の3つのパラメータから成っている.2事象間の距離は,この2事象が隣接して並んでいる時1とする.例えば,{\itABBC}という事象列からは6種類のd-bigramが取得できる.距離を考慮しない通常のbigramモデルでは({\itA},{\itB})が2回カウントされるが,d-bigramモデルの場合,隣り合って出現している({\itA},{\itB};1)と一事象間に置いて出現している({\itA},{\itB};2)は別の事象として扱われる.\subsubsection{有繋評価値}\label{sec:linkyscore}Nobesawaらは文中のある文字の並びが意味のある塊を成すことの起こりやすさを算出するシステムを提案している\cite{nobesawa96coling}.この手法は語彙についての知識を一切必要とせず,文字間共起情報のみで文を意味のある塊に切り分けることが可能であることを示した.実験は日本語について行なわれ,日本語の各文字の共起関係の情報は文中での文字の繋がり方を示すのに十分な情報を持っていることを示した.本稿ではこの点に着目し,文字間の共起関係を利用して意味のある文字列を推測し自動抽出するシステムを提案することで,辞書等の語彙を非常に小さい労力で補う手法を提案する.本システムは,有繋評価値と呼ばれる評価値\cite{nobesawa96coling}を導入する.有繋評価値とは,隣り合った二文字が一塊の文字列に属する事象の起こりやすさを示す値であり,この値が高いほど,対象となっている隣接二文字ペアが同じ文字列に属する可能性が高い.有繋評価値は統計情報のみに基づいて算出する値である.Nobesawaらは有繋評価値の計算にd-bigramを利用することで文脈情報を影響させている.文中の$i$番目の文字と$i+1$番目の文字の間の有繋評価値の算出式を式(\ref{exp:uk})に示す.ただし,$w_i$はある事象(本システムでは,文$w$の$i$番目の文字),$d$は2事象間の距離(d-bigramの定義による距離),$d_{max}$は有繋評価値の算出に利用されるd-bigramの距離$d$の最大値(本稿で紹介する実験では$d_{max}=5$とした),$g(d)$は距離の影響に対する重み付け関数\footnote{距離が遠いほど事象の影響が小さくなるとする主張\cite{church89acl}を実装したものであり,本稿で紹介する実験では$g(d)=d^{-2}$\cite{sano96}としている.}とする.\begin{eqnarray}\label{exp:uk}UK(i)=\sum_{d=1}^{d_{max}}\sum_{j=i-(d-1)}^{i}MI_d(w_j,w_{(j+d)};d)\timesg(d)\end{eqnarray}また,2事象間の相互情報量の計算式をd-bigramに対応するよう拡張したものとして式(\ref{exp:mid})を利用した.ただし,$x$,$y$は各事象,$d$は2事象間の距離,$P(x)$は事象$x$が起こる確率,$P(x,y;d)$はd-bigram($x$,$y$;$d$)が起こる確率とする.\begin{eqnarray}\label{exp:mid}MI_d(x,y;d)=log_2\frac{P(x,y;d)}{P(x)P(y)}\end{eqnarray}図\ref{fig:scoring}に文脈情報の影響のイメージを示す.ある隣接2文字$w_i$と$w_{i+1}$の間の有繋評価値の算出には,この2文字ペアの共起情報だけでなく,その周りに現れる文字ペアの共起情報(例えば($w_{i-1}$,$w_{i+2}$;3)等)が影響する.\begin{figure}[htb]\begin{minipage}{\textwidth}\begin{center}\atari(100,41)\caption{d-bigramを用いた有繋評価値の算出\cite{nobesawa96coling}}\label{fig:scoring}\end{center}\end{minipage}\end{figure}\vspace*{5mm}\subsection{文字列抽出}本稿で用いるシステムは文字間共起情報を利用して算出する有繋評価値を基に抽出すべき文字列の選択を行なう.図\ref{fig:scoregraph}に有繋評価値のグラフの例を挙げる.「ABCDEFGHIJK!」という12文字から成る文字列を入力文としたとし,グラフ中のX軸上のアルファベットはそれぞれ文中の各文字を示す.末尾の「!」は文末記号を表す.\begin{figure}[htb]\begin{minipage}{\textwidth}\begin{center}\atari(70,35)\caption{有繋評価値スコアグラフ\cite{nobesawa96coling}}\label{fig:scoregraph}\end{center}\end{minipage}\end{figure}\vspace{-4mm}有繋評価値は隣り合う文字ペアそれぞれについて算出される.グラフ中では,各文字ペア間の有繋評価値をY軸で表している.有繋評価値は文字間共起情報を基にしており,共起する確率が高い場合ほど値が高くなる.スコアグラフが山状になっている部分は文字間の繋がりの強い文字の並びであり,この部分は一塊の意味を成すとみなすことが可能である.有繋評価値の算出には該当文字ペアだけでなくその周りの文字との共起情報も利用されるため,長い文字列では,その文字列に含まれる文字それぞれの共起関係の相乗効果により,文字列の有繋評価値が高くなる傾向がある.偶然隣り合って並んだ文字ペア\footnote{対象が言語であるため,「偶然」という表現は実際には適切でない.ここでは,必ずしも隣り合う可能性が高いとは言えない2単語の境界にある2文字ペアを指して偶然の並びと言っている.}の場合,有繋評価値は相対的に低くなり,スコアグラフ上では谷を成す.本システムでは,スコアグラフで言うところの山状の部分に相当する文字列を有繋文字列(有繋評価値に基づいて一塊と判断された文字列\cite{nobesawa96coling})として抽出する.図\ref{fig:scoregraph}の例では,{\gtAB},{\gtCDEF}および{\gtHIJK}がそれぞれ一塊の文字列として出力される.この手法では,どこまでを山とするかの基準が必要になる.抽出に際しての基準として,有繋評価値に閾値を設けこの値を越えたものを山とみなす方法と,山の部分の勾配について閾値を設けて前後の文字列との区切り目が明らかなものを山とみなす方法が挙げられる.この閾値を操作することで,抽出する文字列の種類や精度をある程度調節することが可能である.確実に一塊となる文字列のみを抽出したい場合には,抽出対象を選出する際の基準を高く設定すればよい.閾値が高い場合,有繋文字列として出力される文字列の長さが短くなる傾向がある.これは,例えば複合語等が単語に切り分かれる\footnote{複合語は,一般的に,複数の山が連なって一つの大きな山を構成するような形状となる.閾値が高くなると,それぞれの山(大抵の場合,単語)の切れ目の谷の部分で切り分けられる場合が増え,結果的に複合語を構成する単語がそれぞれに抽出される.}等,確実に一塊となる部分のみを残そうとする作用が強くなるためである.
\section{実験}
本稿では,与えられた訓練コーパスから得た文字間共起情報のみを利用した文字列抽出実験の結果を報告する.本稿では,口語文を実験対象とし,これに含まれる頻出文字列を抽出することで,口語文に多く含まれその処理を困難にする要因となっている辞書未登録語の自動認識および自動抽出を行なうことを目的とする.本稿で報告する実験では,その結果を評価するため,同じ入力コーパスを日本語形態素解析ツール茶筌ver.1.51\cite{chasen97}で処理した結果と比較し,茶筌が未登録語とした文字列および茶筌が解析に失敗した文字列について,これを本システムで抽出できたかについて調査する.\subsection{コーパス}\label{sec:corpus}本実験では,コーパスとして電子メール文書を利用した.口語の記述文としては対話コーパス等他にも利用可能な文書が存在するが,これらはほとんどの場合話し言葉を他者が記述したものであり,その正確性や発話者の意図の反映等の点では電子メール文書が優ると考える.また,電子メール文書の場合,特に口語で記述されるものは一般の文書に比べて未登録語が多いためかな漢字変換等の失敗が多く,他の文書を対象にしたものに比べてユーザの不満が多いと推測される.従って,一般の辞書では未登録語とされるような頻出文字列が自動的にユーザ辞書等の形で組み込まれるシステムへのニーズは大きい.さらに,電子メール文書はそのままで機械処理可能な状態で存在しかつある程度の量を収集することが少なくとも物理的には簡単である\footnote{電子メールの利用はプライバシーの問題等がある.}ことも,電子メール文書を実験コーパスとして選択したことの大きな理由に挙げられる.統計情報を利用した処理システムの場合,十分な量のコーパスの確保が問題になることを考えると,ほとんど労力を掛けずに大量のコーパスを取得できる電子メールは非常に有用である.なお,電子メールでは他のメールの引用が含まれることが多いが,同じ文を複数回記録することを避けるため,本実験で用いたコーパスでは引用部分はすべて削除した.\subsubsection{訓練コーパス}\label{sec:trcorpus}有繋評価値の算出に利用する共起情報を得るための訓練コーパスとして,本実験では,1998年から1999年にかけて友人宛てに書かれた口語調の電子メールを利用した.送信者は17人(全員10代から30代の女性)で,送られたメールはすべて同一の受信者(女性)に宛てたものである.本コーパスは351の電子メール中の7,865文から成っており,含まれる文字数は176,380(一文当たりの平均文字数22.4)である.\subsubsection{テストコーパス}\label{sec:tscorpus}テストコーパスは,1999年に友人宛てに書かれた口語調のメール文書を利用した.送信者は3人(訓練コーパスの送信者の一部)であり,同一の受信者(訓練コーパスの受信者と同じ)に宛ててメールを書いている.テストコーパスは訓練コーパスの一部ではなく,独立したものである.テストコーパスは1,118文24,160文字から成っており,一文当たりの平均文字数は21.6である.\subsection{実験結果}\subsubsection{有繋評価値の分布}本実験における有繋評価値の分布を図\ref{fig:scoredistribution}に示す.有繋評価値の平均値は$0.34$であった.この値を受けて,文字列抽出実験では,抽出の閾値を$0.50$に設定した.\begin{figure}[htb]\begin{minipage}{\textwidth}\begin{center}\atari(55,83)\caption{有繋評価値の分布}\label{fig:scoredistribution}\end{center}\end{minipage}\end{figure}\subsubsection{文字列抽出結果}本システムが抽出した文字列を分類すると,表\ref{tab:over05seq}のようになった.ここで,「抽出成功」とは単語や熟語のような文字列が過不足なく抽出された数,「過接合」とは複数の単語等が一つの文字列として抽出されたものおよび意味のある文字列にその前後の文字列の要素である文字が付着した形で抽出されたもの,「過分割」とは文字列が途中で分割されたもののうち元の文字列が推測できるもの,「抽出失敗」とは過分割・過接合のため意味をなさなくなったものを指す.文字列の例のうち,過分割,抽出失敗として挙げたものは,抜け落ちた部分を括弧内に示した.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{本システムの抽出文字列}\label{tab:over05seq}\begin{tabular}{crrl}\hline\hline&文字列数&割合&文字列の例\\\hline抽出成功&1920&42.76\%&「やっぱり」「北海道」「html形式」「24時間」「トモダチ」\\過接合&1876&41.78\%&「メールを」「にお手紙書く」「いいねー!」「私は」\\過分割&564&12.56\%&「メーラ(ー)」「(O)utlook」「ゴールデンウイ(ーク)」\\抽出失敗&130&2.90\%&「を遣(わせる)」「が起こ(った)」「(つか)めてないっ(す)」\\\hline\multicolumn{1}{r}{計}&4490&&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}定義にあるように,過接合とは複数の文字列が接合した形であり,頻出文字列の抽出を行なう本システムの手法では多く抽出されるものである.過接合文字列は,複数の文字列が繋がる場合と,文字列の前後に他の文字列が付着する場合とに大きく二つに分類できる.\begin{itemize}\item複数の文字列の有意味な繋がり\begin{itemize}\item頻出文\item頻出言い回し\end{itemize}\item文字列の前後に他の文字列の全部または一部分が付着したもの\begin{itemize}\item助詞,文末記号の付着\item前後の文字列が過分割され付着\end{itemize}\end{itemize}これらのうち,頻出文,頻出言い回しが一塊として抽出されることは,本システムの手法を考えると自然であり,失敗とは言えない.また,文字列の前後に助詞や文末記号が付着することは,例えば「と思う」の助詞「と」の付着のように,その文字列の主たる利用法によるものであり,頻出言い回しの一種と考えることができる.表\ref{tab:over05u}に,過接合とされた文字列の内訳を示す.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{抽出文字列中の過接合文字列}\label{tab:over05u}\begin{tabular}{crrl}\hline\hline&文字列数&割合&文字列の例\\\hline文&339&18.08\%&「今年もよろしくね♪」「あははははは.」\\&&&「メール遅くなってごめんね.」\\有意味文字列&192&10.24\%&「関西方面」「新バージョン」「いい人」「ちょっと不安」\\&&&「でもやっぱり」「メール送らないで」\\助詞付着\&記号付着&198&10.56\%&「で大変です.」「といいます.」\\助詞のみ付着&337&17.97\%&「それは」「と一緒」「メールを」\\記号のみ付着&523&27.89\%&「だけど,」「だよ.」「です.」\\その他&287&15.30\%&「って感じ」「かったらハッキリ」\\\hline\multicolumn{1}{r}{計}&1876&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}文の形をしたもの等意味のある文字列が過接合とされたのは531例であり,これらを含めた有意味文字列の抽出文字列全体に対する割合は54.59\%となる.この割合は,本システムの適合率と考えてよい.さらに,文末記号・助詞付着を原因とする過接合をも加えると,その割合は84.70\%に上がる.表\ref{tab:over05seq}にある「過分割」は,そのほとんどが動詞である.これは,動詞についての判定を,助動詞等まで含めた一塊を抽出した場合にのみ抽出成功としたためである.本稿では,複合動詞「書き直す」が二つの動詞に切り分けられた例や「言っちゃった」のように活用し助動詞等が付着した文字列で「っちゃった」等付着部分が切り分けられた例等もすべて過分割に分類している.\subsubsection{頻出文字列}表\ref{tab:strongstring2}に,高い有繋評価値を示した隣接文字ペアの一部を示す.ここに挙げられた隣接文字ペアは有繋評価値の値が$10.00$を越えたものであり,表中の数字はそのペアが評価値$10.00$以上で出現した頻度を示す.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{有繋評価値の高い隣接文字ペア}\label{tab:strongstring2}\begin{tabular}{crl|crl}\hline\hline文字ペア&頻度&&文字ペア&頻度&\\\hlineワタ&19&「ワタシ」の一部&00&7&\\ット&12&「ネット」「ペット」等の一部&友達&6&\\ネッ&11&「ネット」の一部&返事&4&\\タシ&11&「ワタシ」の一部&登録&4&\\ポス&10&「ポスト」の一部&絶対&4&\\遊び&9&&示板&4&「掲示板」の一部\\関西&8&&掲示&4&「掲示板」の一部\\誕生&7&&HP&4&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:strongstring2}に挙げたような特に評価値の高い隣接文字ペアは,評価値の高い文字列の一部であることが多い(表\ref{tab:over5seq}).表\ref{tab:over5seq}に本システムが抽出した文字列の一部を示す.ここでは,文字列に含まれるすべての隣接文字間の評価値が$5.00$以上の文字列のみを示し,この場合の頻度のみを掲載した.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{共起関係の強い文字列}\label{tab:over5seq}\begin{tabular}{lc|lc|lc}\hline\hline文字列&頻度&文字列&頻度&文字列&頻度\\\hline・・・&72&(笑)&36&ネット&20\\そう&52&ワタシ&29&!!&16\\けど&48&それ&26&リンク&15\\から&43&・・・・&25&友達&13\\メール&39&自分&20&&\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}\subsection{茶筌における未登録語}\label{sec:chasenunk}未登録語として扱われる文字列のカテゴリとしては以下のものが挙げられる.\begin{itemize}\item新しい語句\begin{itemize}\item新語\item俗語\item固有名詞\end{itemize}\item既存の語句の異表記\begin{itemize}\itemカタカナ表記(「私」を「ワタシ」と表記する等)\itemアルファベット表記(「グッド」を「GOOD」と表記する等)\item発音変化に伴う表記変化\end{itemize}\item擬音語,擬態語等\item解析エラー\end{itemize}比較に用いた日本語形態素解析ツール茶筌は辞書ベースのシステムであり,未登録語は「未定義語」のタグを付加して出力される.表\ref{tab:unk}は,テストコーパスを茶筌にかけた結果未定義語タグを付加されて出力された文字列を出現頻度毎にまとめたものである.本稿で利用するシステムでは品詞タグを利用しないため,茶筌の品詞タグ付けエラー(文字列の切り出し方は正しいが付加された品詞タグが不適切なもの)については無視し,未定義語タグが付加された文字列および切り分けに失敗した文字列のみを茶筌における抽出失敗とみなす.表\ref{tab:unk}では,茶筌が未定義語タグを付加して出力した文字列の本システムでの抽出状況についても示している.「抽出成功」とは本システムが抽出に成功した文字列の数,「抽出失敗」は本システムが認識できなかった文字列の数,「部分抽出」とした欄は文字列の一部が認識されなかった文字列の数を示す.茶筌は,テストコーパスの形態素解析処理の結果627の未定義語タグ付き文字列を出力した.テストコーパスは1,118文から成っているため,単純に平均すると56.08\%の文に未登録語が含まれていたことになる.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌が未定義語タグを付加した文字列の扱い}\label{tab:unk}\begin{tabular}{crrrr}\hline\hline\multicolumn{2}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\出現頻度&総出現数&抽出成功&部分抽出&抽出失敗\\\hline10以上&281&230&7&44\\3〜9&143&100&13&30\\2&56&43&4&9\\1&147&60&44&43\\\hline\multicolumn{1}{r}{計}&627&433&68&126\\&&69.06\%&10.85\%&20.10\%\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:unk}に示すように,本稿で提案する手法により,茶筌が未定義語タグを付加した文字列の69.06\%を回復することが可能である.この割合は,本システムの再現率に相当する値である.本システムは,頻度の高い文字列についてさらによい結果を示す(表\ref{tab:unk}).茶筌が未定義語タグを付加した文字列のうち,テストコーパスでの出現頻度が10回を越す文字列では,81.85\%が正しく抽出されている.本実験で用いたテストコーパスは訓練コーパスの一部ではないが,条件が近いものであるため,テストコーパスでの出現頻度は訓練コーパスとある程度似ているものと考えることができる.テストコーパス中に二度以上出現した未登録語に限った場合,本システムでの抽出成功の割合は77.71\%となる.テストコーパスに一度しか現れていない未登録語も,本システムを用いることで40.82\%を抽出することができた.本システムが抽出した意味のある文字列中,茶筌が未定義語タグを付加した文字列の割合は11.22\%であった.抽出の閾値を上げると,出現頻度の低い文字列の抽出に失敗する可能性が高くなるが,この割合の値は大きくなる.茶筌が未定義語タグを付加して出力した文字列のうち,本システムが抽出に成功したものの有繋評価値の平均は6.11であり,実験の閾値0.50を大きく上回る.有繋評価値の分布(図\ref{fig:scoredistribution})から見ても,この数値は十分高いものである.表\ref{tab:unk-category}は,茶筌が未登録語とした文字列を分類しそれぞれについての本システムでの抽出結果を示したものである.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌が未定義語タグを付加した文字列の分類}\label{tab:unk-category}\begin{tabular}{lrrrr}\hline\hline\multicolumn{2}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\カテゴリ&計&抽出成功&一部抽出&抽出失敗\\\hline固有名詞&60&39&17&4\\新語(固有名詞を除く)&70&48&12&10\\文字挿入&119&89&4&26\\表記変化&276&194&28&54\\文末記号&58&43&0&15\\スマイリー&15&9&6&0\\その他&29&12&1&16\\\hline\multicolumn{1}{r}{計}&627&433&68&126\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:unk-category}が示すように,未登録語の最大の原因は表記の変化である.口語調の文章では,文字列を強調する等の場合にその表記方法を変えることがあり,これによって,辞書に載っている語でも見出し語と異なる表記のために辞書とマッチせず未登録語とされる.文字挿入も,強調等の目的で行なわれることが多く,その意味では表記変化の一部と見ることができる.この2種類を足し合わせると,茶筌が未登録語として出力した627文字列のうち356個,56.78\%が表記の変化によるものということになる.文末記号が一部未登録語とされたのは,(1)記号が文末記号の代わりに用いられた事例と(2)複数の文末記号が並んで使われた事例の2種類の場合であった.文末記号として頻繁に利用された記号には「♪」や「…」等がある.本システムは辞書を利用せず訓練コーパスから得た共起情報のみを用いるため,これらの記号も他の通常の文末記号と同様に文末に来る確率が高い文字列として抽出している.また(2)では「!!」や「??」等,同じ記号を並べて利用することが多い.並ぶ個数には規則はないが,記号同士の並び方(「!?」や「…!」は頻繁に起こるが「!.」は起こらない,等)にはある程度規則があり,d-bigram共起情報を利用することで習得可能である.表\ref{tab:unk-category}のカテゴリ中未登録語とされるべきものは新語および固有名詞だが,これは未登録語全体の20.73\%であった.本実験ではこれらのうち66.92\%を正しく抽出することに成功した.\subsubsection{未登録語に含まれる字種}\label{sec:unk-lettertype}表\ref{tab:unk-lettertype}に,茶筌が「未登録語」とした文字列に含まれる文字の字種を示す.数字は各字種の文字の数であり,文字種とあるのはその字種に該当する文字の異なり数である.茶筌が未登録語として出力した627語(表\ref{tab:unk})は,合計1,493の文字から成っており,平均文字数は2.38であった.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌が未定義語タグを付加した文字の字種}\label{tab:unk-lettertype}\begin{tabular}{lrrrrr}\hline\hline\multicolumn{3}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\字種&文字種&計&抽出成功&一部抽出&抽出失敗\\\hline漢字&1&19&19&0&0\\ひらがな&12&200&155&7&38\\カタカナ&73&1051&712&188&151\\アラビア数字&1&1&0&1&0\\アルファベット&23&122&43&72&7\\記号&22&100&39&37&24\\\hline\multicolumn{2}{r}{計}&1493&968&305&220\\&&&64.84\%&20.43\%&14.74\%\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}未定義語タグを付加された文字列に含まれる文字の70.40\%はカタカナであった.漢字および数字については,それぞれ1つずつしか未登録語とされていない.数字は一文字一文字を独立した数字として扱うことが可能であり,このため,未登録語となる可能性が非常に低い.また,漢字は表意文字であり,一文字でもなんらかの意味を持つ.そのため,誤分割によって一文字だけ独立して切り分けられた場合でも,その一文字で一つの文字列と扱われることがあり,その結果,未登録語として出力される可能性が低くなっている.例えば,「この世界」を「この世」と「界」とに切り分けた例があったが,この場合,「界」は「文学界」等に見られるような名詞接尾語とされていた.このように,漢字文字列の未登録語は,未登録語とされずに無理な切り分けをされ,タグ付けの誤りを引き起こす原因となっている.\subsubsection{異表記に起因する未登録語}\label{sec:unkrep}表\ref{tab:unkrep}に,茶筌が未登録語としたもののうち,表記変化が原因となっているものを示す.ほとんどの辞書は,基本的に,それぞれの語について見出し語を一つしか持たないため,例えば同じ語をカタカナで表記された場合これを同じと判定することは困難である.しかし,口語表現等では語の強調や表記の簡素化等のため,基本的な表記を用いずかなで表記することも多い.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{表記変化に起因する未登録語}\label{tab:unkrep}\begin{tabular}{lrrrr}\hline\hline\multicolumn{2}{c}{未定義語タグ}&\multicolumn{3}{c}{本システムでの抽出結果}\\サブカテゴリ&計&抽出成功&一部抽出&抽出失敗\\\hline語形変化&40&33&3&4\\カタカナ表記&137&102&12&23\\語形変化\&カタカナ表記&55&34&10&11\\その他&44&25&3&16\\\hline\multicolumn{1}{r}{計}&276&194&28&54\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}\subsubsection{発音延長に起因する未登録語}\label{sec:pronunciation-extension}日本語では「ん」以外の音がすべて母音を伴うため,ある音を伸ばす場合にはその音の含む母音をさらに付加する.表\ref{tab:unkrepsmall}に,発音の延長のために添付された文字が未登録語となった119例について,本システムによるその抽出結果を示す.未登録語とされた添付文字は7種類の小字および「ン」の8種類である.表\ref{tab:unkrepsmall}の「抽出失敗」は,添付文字は文字列に付加されたが,文字列自体の抽出に失敗したものを示す.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{添付文字が未登録語とされた例}\label{tab:unkrepsmall}\begin{tabular}{crrrrrrrrr}\hline\hline文字&ぁ&ぃ&ぅ&ぇ&ぉ&っ&ッ&ン&計\\\hline付加成功&39&2&5&32&7&3&1&0&89\\抽出失敗&0&0&0&0&0&4&0&0&4\\付加失敗&5&1&4&2&1&7&5&1&26\\\hline\multicolumn{1}{r}{計}&44&3&9&34&8&14&6&1&119\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}表\ref{tab:unkrepsmall}に示すように,本システムを利用することで,茶筌で未登録語とされた添付文字の74.79\%が元の文字列に添付された形で抽出された.これにより,添付文字に起因する未登録語のおよそ75\%が,未登録語としてでなく,文字列の一部として抽出することが可能になった.この場合,抽出される文字列は添付文字を付けた形であり辞書の見出し語と異なるが,これは見出し語が変形したものであり,添付文字まで含めて一塊の文字列であることは否めない.従って,語形変化した文字列と見出し語とを結びつけることができれば,語形変化した文字列を辞書に登録することが可能である.未登録語とされた文字と元の文字列との関係が明らかになり元の文字列の語形変化であることが示されれば,元の文字列の属性を継承することで語形変化した文字列に十分な情報を与えることが可能である.例えば,「すごく」を強調するため添付文字「っ」を挿入して「すっごく」とした場合,茶筌のような辞書ベースのツールでは,「す」「っ」「ごく」等分割されて出力される.この時,挿入された「っ」は未登録語とされる.本システムでは辞書とは関係なく文字単位の共起情報を基に文字列を抽出するため,頻出語である「すっごく」は一塊の文字列として抽出される.ここで,「っ」が茶筌では未登録語とされていること,この「っ」を抜かした「すごく」が辞書に登録されていること,周りの語句との共起情報等から,「すっごく」が「すごく」の語形変化であることを推測することが可能となる.\subsection{茶筌の解析誤り}\label{sec:chasenfail}表\ref{tab:fail-category}に,茶筌が解析に失敗した文字列の抽出結果を示す.本システムは茶筌が解析に失敗した文字列のうち70.88\%の認識に成功した.\begin{table}[hbt]\begin{minipage}{\textwidth}\begin{center}\caption{茶筌による解析失敗}\label{tab:fail-category}\begin{tabular}{clrrrr}\hline\hline\multicolumn{3}{c}{解析失敗}&\multicolumn{3}{c}{本システムでの抽出結果}\\&カテゴリ&計&抽出成功&一部抽出&抽出失敗\\\hlineA&英文字を含むもの&42&41&1&0\\B&数字を含むもの&60&35&10&15\\C&固有名詞&92&81&5&6\\D&新語(固有名詞以外)&11&2&5&4\\E&言い回し&8&4&3&1\\F&表記変化&176&106&37&33\\G&字種変化&19&10&5&4\\H&強調表現&257&154&73&30\\I&文末記号&253&233&6&14\\J&解析誤り&115&82&19&14\\\hline\multicolumn{2}{r}{計}&941&667&159&115\\&&&70.88\%&16.90\%&12.22\%\\\hline\hline\end{tabular}\end{center}\end{minipage}\end{table}カテゴリBは数字を含む文字列であり,このカテゴリに含まれる文字列はすべて数字に助数詞が付加された形になっている.本システムは25の文字列の抽出に失敗しているが,「30日」が「30」と「日」に切り分けられたもの等,25のうち12は助数詞が切り分けられてしまったものである.カテゴリFとGとHが,文字列の語形変化に起因する誤りである.カテゴリFは,口語での利用等のための発音変化に起因する表記変化のため茶筌が認識に失敗した文字列である.「やはり」の口語化である「やっぱ」等がこのカテゴリに入る.カテゴリGは強調等のため他の字種で書かれた文字列である.カテゴリJは解析誤りによる失敗である.本システムでは解析誤りのため茶筌が切り分けに失敗した文字列のうち71.30\%の認識に成功した.カテゴリHで,本システムで抽出に失敗した103の文字列のうちの53個は,長音化のための附属文字が欠落したものであり,抽出された文字列は意味的に正しいものであった.口語等で強調のために添付する文字は,複数個になることもある.例えば,「まさか」を強調するために「まさかーーー」等と長音記号を複数添付することも可能だが,この場合,添付する文字の個数には特に制限がない.本システムでは,例えば長音記号は複数回並ぶ可能性がある,という情報をd-bigramの形で保有しているため,このような複数個の文字の添付に対応可能である.これは添付文字に限ったことではなく,例えば笑い声を示す「ははははは」や文末の「!!!」等の抽出も可能である.\subsection{茶筌への語句登録}\label{sec:chasenentory}辞書ベースのツールでは一般に語句の登録を許しているが,その登録は主に人手によるものである.本システムは,辞書ベースの解析ツールのための辞書作成支援システムとして利用することが可能である.本手法は文字間の統計情報のみを利用して自動的に文字列の抽出を行なうため過分割・過接合の問題があるが,文字列抽出の閾値を上げることでかなり抽出文字列を絞ることが可能である.例えば茶筌では,新規ファイルを用意し図\ref{fig:chasendic}のフォーマットで各語句を記述することで,語句の登録を行なうことができる\cite{chasen97}.\begin{figure}[hbt]\begin{minipage}{\textwidth}\begin{center}\begin{tabular}{c}\hline\hline\\(品詞(名詞固有名詞人名一般))((見出し語(竹取の翁2000))(読みタケトリノオキナ))\\\\\hline\hline\end{tabular}\caption{茶筌の辞書項目の記述}\label{fig:chasendic}\end{center}\end{minipage}\end{figure}茶筌の辞書の見出し語に付加されている数値は単語コストである.この値の決定には,本システムが文字列抽出に際して計算した有繋評価値を加工して利用することが可能である.本システムでは読みがなや品詞の決定はできないが,読みがな付加に関してはKAKASI\footnote{KAKASI漢字-かな(ローマ字)変換プログラム.http://kakasi.namazu.org/}等のツールを利用も可能である.未登録語とされる文字列のうち,カタカナ表記に起因するものについては,カタカナとひらがなは一対一に対応するので,読みがな付加は容易である.また品詞情報については,既存の辞書の情報との差別化が必要な場合,本システムの出力した文字列を対象とした新たな品詞名を設定すればよい.品詞情報を必要としないシステムでは,本システムの出力結果をそのまま,あるいは人手による選別を得て,利用することが可能である.特に,かな漢字変換システム等では,本システムの利用により頻出言い回しの登録が容易となることで精度の向上が期待できる.\subsection{他の手法との比較}\label{sec:comparison}日本語における語句抽出の研究は,主に,名詞句の抽出,固有名詞の抽出,および語句切り分けに関するものである.統計情報を利用した語句抽出の手法は,主として品詞情報を利用するもの,単語の共起情報を利用するもの,文字の共起情報を利用するものに大別できる.Nagaoらは$n$-gram頻度を用いた文字列抽出を提案した\cite{nagao94}.$n$-gramは$n$の値が大きくなるにしたがって出現頻度が低下するが,有意味文字列は他の文字列に比べて高い頻度で出現する.Nagaoらの手法はこの性質を利用したものであり,本稿と同様品詞等の情報を利用せずに文字列の抽出を行なっている.Kitaniらは固有名詞全般を対象に,固有名詞の前後に出現しやすい語を接辞として扱うことで固有名詞の抽出を行なっている\cite{kitani94}.また,久光らは対象を人名に絞り,辞書と共起情報を利用した手法を提案している\cite{hisamitsu97}.久光らの手法でも,人名の直後に現れる接辞を手がかりとして抽出を行なっており,さらに,人名接辞の獲得支援や,姓と名との分割・判別についても提案している.また,福本らは,接辞の他,固有名詞の特性に基づいたヒューリスティクスを導入し精度の向上を図っている\cite{fukumoto98}.また,Chaらは韓国語を対象として,構文解析中に出現した未登録語の抽出を行なっている\cite{cha98}.Chaらは,未登録語発見のための形態素パターン辞書を利用して,未登録語に対しても他の語と同様にタグ付けを行なうという手法を提案している.単語間共起情報や品詞情報を利用する手法では,前処理として切り分けおよびタグ付けが必要となる.辞書を利用した手法では未登録語の問題は避けられないが,未登録語に起因する解析エラーがその後の処理の精度を下げるという問題が生じる.本稿で提案する手法では,辞書を利用せず,前処理にあたる訓練フェーズも文字単位の共起情報の取得だけであるため完全に自動的に行なうことが可能である.
\section{まとめ}
辞書ベースの自然言語処理では未登録語が大きな問題の一つである.本稿では,処理対象となるドメインの生コーパスを訓練コーパスとして取得した文字共起データのみを利用して対象ドメインの頻出文字列の自動抽出を行なう手法を提案し,口語を多く含む電子メール文書に対して適用しその有効性を示した.本稿で利用したシステムでは,純粋に二文字間の共起情報のみを利用し,与えられた入力コーパス内の各隣接文字間の関係を推測することで,文中の意味のある文字列の認識を行なっている.本稿では,口語を多く含む電子メール文書をコーパスとし,コーパス中に頻出する口語表現および異表記表現等の抽出を行なった.これらの口語表現,異表記表現は一般的な辞書に登録されていないものが多く,辞書ベースの解析の際にノイズとなるものである.本稿で示した実験では,辞書ベースの形態素解析ツールである茶筌が未登録語と判断した文字列の69.06\%を正しく認識した.また,茶筌がなんらかの解析結果を出力した文字列についても,解析誤りのため正しく切り分けが行なわれなかった文字列のうち70.88\%について,本システムは正しい切り分けを行なった.本システムは品詞タグを利用しないため,この数字は切り分け誤りについてのものであり,本システムを利用することによって正しく認識された文字列を辞書に組み込むことで,切り分け誤りだけでなく,品詞タグ付けの誤りについても,減少を図ることができると期待する.\bibliographystyle{jnlpbbl}\bibliography{260}\nocite{nobesawa00coling}\begin{biography}\biotitle{略歴}\bioauthor{延澤志保}{1994年慶應義塾大学理工学部数理科学科卒業.1996年同大学院理工学研究科計算機科学専攻修士課程修了.同年,慶應義塾大学理工学研究科博士課程進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{斎藤博昭}{1983年慶應義塾大学理工学部数理科学科卒業.工学博士.慶應義塾大学理工学部専任講師.}\bioauthor{中西正和}{1966年慶應義塾大学工学部管理工学科卒業.工学博士.慶應義塾大学理工学部教授.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V18N03-03
|
\section{はじめに}
\label{sec:intro}SemEval-2010において,日本語の語義曖昧性解消タスクが行われた\cite{SemEval2:JWSD}.本タスクは,コーパス中に出現する対象語に対し,辞書で定義された語義のうち適切な語義を推定することが課題である.日本語を対象とした類似のタスクとしては,2001年に開催されたSENSEVAL-2の日本語辞書タスクがあげられる.ただし,SENSEVAL-2における日本語辞書タスクとは,2つの点で大きく異なっている.すなわち,対象コーパスの分野が多岐にわたる点,および,辞書に定義されていない語義が出現することもあるという点で異なっている.語義曖昧性解消は,非常に古くから取り組まれてきている課題であり,さまざまな手法が提案されてきている\cite{Navigli:2009}.教師なし学習法も,クラスタリングに基づく手法\cite{Pedersen:2006}や,辞書定義文を利用した手法\cite{Lesk:1986,Baldwin:Kim:Bond:Fujita:Martinez:Tanaka:2010}などが提案されているが,一般に訓練データが存在する場合には,教師あり学習法による精度の方が高い\cite{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}.SENSEVAL-2,および,SemEval-2010での日本語語義曖昧性解消タスクでも,教師あり学習法による手法が最も高い精度を出している\cite{SemEval2:JWSD,Murata:Utiyama:Uchimoto:Ma:Isahara:2003j}.そこで,本稿でも,教師あり学習法をベースとした実験を行った.しかし,本タスクにおいて,訓練データとして与えられたのは,各対象語につき50例ずつであり,十分な量とはいい難い.実際,評価データにしか出現しない語義(未知語義)も存在する.そのような未知語義は,訓練データのみを用いた学習では推測できない.また,コンテストに参加したチームで,ドメイン適合性に着目した実験を行ったチームもあるが,ドメイン適合性はいずれのチームでもあまり有効に機能していない\cite{Shirai:Nakamura:2010,Fujita:Duh:Fujino:Taira:Shindo:2010}.我々は,その原因が,訓練データの少なさにあると考え,訓練データの自動獲得による精度向上を試みた.本稿ではその報告を行う.訓練データを自動的に増やす方法としては,まず,Bootstrapping法があげられる.Bootstrapping法では,まずラベル(語義)の付与された訓練データで学習し,ラベルなしデータのラベルを推定し,ある基準において最も信頼できるものをラベルありデータに追加する\cite{Mihalcea:2002,Mihalcea:2004}.ここで,ラベルなしデータのラベル推定を決定木で行う研究もある\cite{Yarowsky:1995}.しかしこれらの方法の場合,ラベルなしデータから,いくら訓練データを追加したところで,もともとの訓練データに出現しないような語義を推測することはできない,という問題がある.そのため,この方法でも未知語義には対応できない.また,訓練データを自動的に増やす他の方法として,単義の同義語を利用する方法も提案されている\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}.彼らは,WordNetの同義語(synset)のうち,単義語(例えば,\eng{``$remember_1$''}に対して\eng{``recollect''}など)や,定義文(gloss)の中のユニークな表現(例えば,\eng{``$produce_5$''}に対して,glossの一部である\eng{``bringontothemarket''}など)を検索語としてWeb検索を行い,獲得したスニペット中の対象語に語義を付与し,訓練データに追加している.この方法であれば,未知語義の訓練データを得て,推定できる可能性がある.そこで,本稿では,基本的に後者の方法に近い方法を導入する.ただし,\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}らは,WordNetから同義語等を得ることができたが,本タスクの語義は岩波国語辞典によるため,WordNetのsynsetのような同義語を直接獲得することは難しい.そこで,定義文中から比較的抽出しやすい例文に着目し,例文を利用した訓練データの獲得を行う.また,本稿では,既存のコーパスの利用も考える.本稿では,まず\ref{sec:data}章で,本タスクで配布されたデータ,および,それ以外に本稿で利用したデータについて紹介する.次に\ref{sec:system}章では,本稿で利用する素性,学習方法について述べる.\ref{sec:result}章では実験の結果とそれに基づく議論,\ref{sec:eva-addex}章では自動獲得した訓練データの評価について,\ref{sec:conclusion}章では結論を述べる.
\section{データ}
\label{sec:data}\subsection{SemEval-2010:JapaneseWSDタスク配布データ}\label{sec:jwsd}\ref{sec:intro}章で述べたように,SemEval-2010:JapaneseWSDタスクは,対象コーパスの分野が多岐にわたるという特徴がある.訓練データは,白書(以下,\OW{}),新聞(\PN),本や雑誌(\PB)の分野から成り,評価データは,更に,Web上のQ\&Aサイトである,Yahoo!知恵袋(以下,\OC{})のデータも含んでいる.これらのデータは,現代日本語書き言葉均衡コーパス(\bccwj)\footnote{http://www.ninjal.ac.jp/kotonoha/}のうち,形態素解析の誤りを人手で修正したコアデータと呼ばれる部分から抽出されている.なお,形態素解析は,\unidic\footnote{http://www.tokuteicorpus.jp/dist/}に基づいて行われている.また,本データには,岩波国語辞典\cite{Nishio:Iwabuchi:Mizutani:1994j}の語義を元に,語義IDが付与されている.岩波国語辞典に定義されていない新語義(以下,\X{})も付与されている場合があり,それらの新語義を推定することも,課題の一つである.対象語は50語で,辞典に定義された語義数は219だった.訓練データでは,2種類の新語義(\X)が出現している.訓練データと評価データは,各語50文ずつ与えられた.図~\ref{fig:iwanami}は,本タスクで配布された岩波国語辞典の例である.図~\ref{fig:iwanami}に示すように,各エントリは,表記,品詞,定義文や例文などの情報を含んでいる.図~\ref{fig:trnORG}は,訓練データの例である.ここで,sense=""で示される部分が,付与されている語義IDを示している.例えば,図~\ref{fig:trnORG},6行めの形態素「取っ」の場合,語義ID'37713-0-0-1-1'が付与されている.但し,図~\ref{fig:trnORG}において,lemma=""の部分は,配布データには存在していなかった.これは,各形態素の基本形を示しており,カタカナによる基本形(bfm)や,出現形から推測し,我々がほぼ自動的に付与したものである.また,図~\ref{fig:trnORG}において,各行頭に付与した番号は,参照用に便宜的に付与したものである.\begin{figure}[t]\includegraphics{18-3ia3f1.eps}\caption{岩波国語辞典の例:「とる」から抜粋}\label{fig:iwanami}\end{figure}\begin{figure}[t]\includegraphics{18-3ia3f2.eps}\caption{訓練データの例}\label{fig:trnORG}\end{figure}\subsection{岩波国語辞典の例文}\label{sec:iwanami-ex}本稿では,まず,岩波国語辞典の例文を抽出する.図~\ref{fig:iwanami}の例のように,「」で囲まれた部分は,各語義の例文になっている.そこで,「」で囲まれた部分を例文として抽出する.ここで,``—''の部分は,見出し語を補完することができる.それにより,例えば,図~\ref{fig:iwanami}に示した見出し語「とる」の場合,37713-0-0-1-1の例文として(\ref{s:toru:ex1}),37713-0-0-3-1の例文として(\ref{s:toru:ex3}),37713-0-0-6-3の例文として(\ref{s:toru:ex6})などが獲得できる.また,岩波国語辞典の場合,例文の前方や後方が,``…''という記号によって省略される場合がある.例えば,「…に—って」のような形(図~\ref{fig:iwanami}の37713-0-0-3-3)である.こうした``…''は,取り除き,(\ref{s:toru:ex3-3})のような形にした\footnote{Fujitaら(2010)では,岩波国語辞典の例文をそのまま追加した場合,精度はむしろ低下する傾向にあった.この原因は,``…''等で表される省略記号などを取り除かず,そのまま利用したこと,例文そのものは非常に短いものが多く,切れ切れになってしまうことなどが考えられる.}.\begin{exe}\ex\label{s:toru:ex1}手を\ul{取}って導く(37713-0-0-1-1)\ex\label{s:toru:ex3}責任を\ul{取る}(37713-0-0-3-1)\ex\label{s:toru:ex6}数を\ul{取る}(37713-0-0-6-3)\ex\label{s:toru:ex3-3}に\ul{とっ}て(37713-0-0-3-3)\end{exe}こうして抽出した例文は,形態素解析器Mecab\footnote{http://mecab.sourceforge.net/}の\unidic{}バージョンで解析する.また,例文(\ref{s:toru:ex1})--(\ref{s:toru:ex6})において,``—''によって見出し語を補完した部分(\ul{下線部})には,例文を抽出した語義のIDを付与する.但し,本タスクで推定する語義の粒度は,中語義(-で区切られた数字の,最後の部分を除いたもの.37713-0-0-1,37713-0-0-3等)なので,実際には,中語義に集約して抽出している.つまり,例文(\ref{s:toru:ex1})は37713-0-0-1,(\ref{s:toru:ex3}),(\ref{s:toru:ex3-3})は37713-0-0-3,(\ref{s:toru:ex6})は37713-0-0-6の例文として利用する.\subsection{センスバンク:檜}\label{sec:hinoki}本稿では,更に数種類の言語資源を利用した.\begin{table}[b]\caption{「檜」に付与された語義数}\label{tab:words-counts}\input{03table01.txt}\end{table}まず,基本語意味データベース\lxd\cite{Lexeed:2004j},および,センスバンク「檜」\cite{Bond:Fujita:Tanaka:2006}を利用する.\lxd{}は,日本人にとって最も馴染みの深い28,270語を収録した辞書である.収録語は,心理実験によって選定されており,語義毎に語義文と例文がある.また,各語義文と例文の内容語には,\lxd{}自身の語義が付与されている.更に,京都大学テキストコーパス\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}の内容語に対しても,\lxd{}の語義が付与されている.これらの,\lxd{}によって語義付与されたセンスバンクを「檜」\cite{Bond:Fujita:Tanaka:2006}と呼んでいる.檜のサイズを表~\ref{tab:words-counts}に示す.なお,檜には構文情報も付与されているが,本稿では利用していない.ここで,\lxd{}と岩波国語辞典の語義は,語義文の類似度の高いもの同士がリンクされている\cite{Dridan:Bond:2006}.そのため,リンクが存在する語義なら,檜で付与されている\lxd{}の語義を岩波国語辞典の語義に置き換えて,訓練データとして利用することができる.例えば,岩波国語辞典の「とる」37713-0-0-6-3の語義文は「数える.測る.」であり,\lxd{}の19036420-49の語義文「数える.測定する.」と,非常に類似しており,リンクされている.このリンクを用いることで,例えば,\lxd{}の19036420-49の例文(\ref{s:toru:lxd})を,岩波国語辞典の37713-0-0-6(-3)の訓練データに追加できる.但し,檜はIPA品詞体系に基づいた形態素解析が行われているため,\unidic{}によって形態素解析をやりなおし,語義IDのみを\ul{対応箇所}に付与しなおした.\begin{exe}\ex\label{s:toru:lxd}そこで、医者は患者の顔色を診ながら脈を\ul{取っ}た。\end{exe}\subsection{現代日本語書き言葉均衡コーパス}\label{sec:bccwj}\ref{sec:jwsd}章で述べたように,本タスクのデータは,現代日本語書き言葉均衡コーパス(\bccwj)のコアデータから抽出されている.\bccwjのデータは,モニター公開データとして利用可能である.但し,コアデータには,人手修正された形態素解析結果が付与されているが,コアデータ以外の\bccwjには形態素解析結果は付与されていない.本稿では,\bccwjの2009年度版モニター公開データを利用する.Readmeによると,\bccwj2009年度版モニター公開データには4,300万語が含まれている.このデータから,\ref{sec:iwanami-ex}章で抽出した岩波国語辞典の例文を利用し,訓練データを獲得する.まず,\ref{sec:iwanami-ex}章で獲得した例文を文字の列として完全に含む文を抽出し,形態素解析を行う.更に,対象例文の見出し語と,基本形,および,品詞大分類が一致する形態素に,該当する例文の語義IDを付与する.例えば,37713-0-0-3-3の例文「にとって」(図~\ref{fig:iwanami}参照)を含む文として,Yahoo!知恵袋(\OC{})から,文(\ref{s:toru:oc})を獲得できる.文(\ref{s:toru:oc})の\ul{下線部}は,\ref{sec:iwanami-ex}章で抽出した例文(\ref{s:toru:ex3-3})と一致した部分である.また,これを形態素解析したものが,図~\ref{fig:getOC}である.\begin{exe}\ex\label{s:toru:oc}地運の相性を見ても彼はあなた\ul{にとって}最高の相手ですが、\end{exe}このように,本手法によって獲得した文はラベルあり訓練データとして追加する.但し,\bccwj{}には,評価対象文が含まれるので,評価対象文と同一の文は利用しないという制限を設けた.また,新聞データ2年分(日本経済新聞(以下,\NIK{}),毎日新聞(\MAI))からも,同様に訓練データを抽出した.\subsection{未知語義数,および,獲得データサイズ}\label{sec:get-size}表~\ref{tb:wsnum-test}に,評価データに出現する語義のうち,訓練データにも出現する語義と,評価データにのみ出現する語義の数を示す.辞書に定義された全語義は219語義だが,評価データに出現する語義は,新語義(\X)を除くと,142語義($=150-8$)であり,辞書に定義された全語義の64.8\%だった.また,評価データにのみ出現する語義は9語義($=15-6$),18例($=34-16$)だった.\begin{figure}[t]\includegraphics{18-3ia3f3.eps}\caption{新たに獲得した訓練データの例}\label{fig:getOC}\vspace{1\baselineskip}\end{figure}\begin{table}[t]\caption{評価データに出現する語義の種類と出現回数}\label{tb:wsnum-test}\input{03table02.txt}\vspace{1\baselineskip}\end{table}また,\ref{sec:iwanami-ex}章から\ref{sec:bccwj}章で紹介した方法で獲得した訓練データのサイズを,表~\ref{tb:get:size}に示す.表~\ref{tb:get:size}から,評価データにのみ出現する9語義に対しても,例文(\EX),檜の両方から訓練データが獲得できることがわかる.また,表~\ref{tb:get:size}には,参考のため,訓練データの数値も表示している.本提案手法では,新語義(\X)の訓練データは獲得できない.また,それ以外の語義に対しても,評価データに出現する語義の異なりに対して,訓練データほどのカバー率はない.但し,すべてのコーパスを利用すれば,ほぼ,訓練データに近いカバー率を得ることができている.なお,表~\ref{tb:get:size}は,獲得傾向を確認するために,評価データに出現する語義かどうかを分けて表示しているが,実験では当然,評価データに出現しない語義の例文であっても区別せずに利用している.\begin{table}[t]\caption{新たに獲得した訓練データの数}\label{tb:get:size}\input{03table03.txt}\end{table}
\section{実験}
\label{sec:system}\subsection{学習器}\label{sec:exp}学習には,代表的な識別モデルの一つであり,ラベルありデータを用いて教師あり学習を行う最大エントロピーモデル(MaximumEntropyMethod:\MEM,\cite{Nigam:Lafferty:McCallum:1999})を用いた.これは,Fujitaら(2010)によると,SupportVectorMachine(\SVM,\cite{libsvm})より,\MEM{}の精度がはるかに良かったためである.\subsection{素性}\label{sec:fea}{\bf[基本素性]}まず,語義曖昧性解消タスクで一般的に利用される素性を,基本素性として利用する.各対象語$w$に対し,出現形,基本形,品詞,品詞大分類(名詞,動詞,形容詞など)を利用する.また,対象語が$i$番目の語だとすると,前後2語($i-2$,$i-1$,$i+1$,$i+2$)の同じ情報も利用する.更に,前後3語以内のbigrams,trigrams,skipbigramsも利用する.これらの素性を利用したモデルを\bl{}とする.{\bf[Bag-of-Words]}各対象語$w$に対し,同一文内に出現する全内容語の基本形を素性として利用する.これらの素性を利用したモデルを\bows{}とする.{\bf[トピック素性]}SemEval-2007EnglishWSDタスクでは,トピック情報を利用したシステムが,最も高い精度を得ている\cite{Cai:Lee:Teh:2007}.Caiら(2007)の研究を参考に,トピック情報を利用した素性を導入した.Caiらは,Bayesiantopicmodels(LatentDirichletAllocation:LDA)を用いて教師なし状態でトピック分類を行い,推定したトピックを素性として利用している.本稿では,訓練データと評価データにgibbslda++\footnote{http://gibbslda.sourceforge.net/}を適用し,文書(ファイル)単位でトピック分類を行った.但し,新聞(\PN)の場合のみ,記事毎に分類した.これは,新聞の場合は,記事毎に,内容ががらりと変わることがあるが,それ以外の文書(書籍やYahoo!知恵袋,白書など)では,がらりと変わると思われなかったためである.また,一つの文書,あるいは記事は,複数のトピックに含まれることがある.本稿では,対象語が属する文書,あるいは記事の含まれるトピック分類を素性として利用し,これらの素性を利用したモデルを\tp{X}とする.ここで,Xは,トピック数であり,Xが多ければ多いほど,分類が細かいことになる.
\section{結果と議論}
\label{sec:result}\subsection{配布データのみを利用}\label{sec:result-given}Fujitaら(2010)によると,対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練データを学習に用いる方が精度が良い.学習器は,前述のように\MEM{}を用いる.表~\ref{tb:result-given}に,すべての訓練データを学習に用い,素性の組合せを変えた場合の結果を示す.パラメータは,訓練データにおける対象語毎の交差検定で最も良い精度を出したものを用いている.また,表~\ref{tb:result-given}には,参考として,SemEval-2010でのBestresult(RALI-2\cite{Brosseauvilleneuve:Kando:Nie:2010})も掲載している.更に,対象語を難易度毎に分けて傾向を分析する.そのため,SENSEVAL-2の日本語辞書タスクと同様に,訓練データにおける語義の頻度分布のエントロピー$E(w)$(式(\ref{s:entropy}))を,単語の難易度の目安として利用し,対象語を,高難易度($D_{diff}$,$E(w)\geq1$),中難易度($D_{mid}$,$0.5\leqE(w)<1$),低難易度($D_{easy}$,$E(w)<0.5$)の3つにわけた\cite{Shirai:2003j}.式(\ref{s:entropy})において,$p(s_{i}|w)$は,単語$w$の語義が$s_i$となる確率を表している.\begin{equation}\label{s:entropy}E(w)=-\sum_{i}^{}p(s_{i}|w)\log{p(s_{i}|w)}\end{equation}各難易度に含まれる対象語の数は,それぞれ,$D_{diff}$で9語,$D_{mid}$で20語,$D_{easy}$で21語だった.対象語の詳細を,表~\ref{tb:wd-diff}に示す.\begin{table}[t]\caption{難易度毎の対象語}\label{tb:wd-diff}\input{03table04.txt}\end{table}\begin{table}[t]\caption{素性毎の精度(Precision,\%)}\label{tb:result-given}\input{03table05.txt}\end{table}表~\ref{tb:result-given}によると,基本素性(\bl)だけを利用した場合でも,SemEval-2010のBestresult(76.4\%)より高い精度(77.7\%)が得られた.最も精度が高かったのは,トピック素性を利用した場合(\bl+\tp{200})(78.0\%)だった.\bow{}を素性として利用する場合は,精度はかえって低下する傾向にある\footnote{但し,有意水準5\%のt-検定を行ったところ,いずれも有意差はなかった.}.なお,\bl+\tp{200}で最も精度が高かった対象語は,「外」(精度100\%),「経済」(98\%),「考える」(98\%),「大きい」(98\%),「文化」(98\%)などである.一方,最も精度の低かった語は,「取る」(36\%),「良い」(48\%),「上げる」(48\%),「出す」(50\%),「立つ」(54\%)などである.\subsection{自動獲得した訓練データも利用}\label{sec:result-add}本節では,自動獲得した訓練データ(表~\ref{tb:get:size}参照)を利用した場合の結果について紹介する(表~\ref{tb:result-add}).表~\ref{tb:result-add}では,素性は基本素性(\bl)のみ利用し,学習器は\MEM{}を利用した.基本素性(\bl)を用いて,配布された訓練データのみで学習した場合の精度を基準とすると,難易度別に傾向が非常に異なることがわかる.低難易語の場合,訓練データを追加すると,ほとんどの場合で精度が低下している.それどころか,精度が最も高いのは,最頻語義を利用したBaseLineである.しかし,中難易語では,精度向上する場合の方が多くなり,高難易語では,すべての場合で,精度が向上している.特に,自動獲得したすべての訓練データを追加した場合,低難易語では最も精度が低くなり,高難易語では最も精度が高くなっている.\begin{table}[t]\caption{自動獲得した訓練データも利用した場合の精度(\%)(基本素性(\bl)のみ利用)}\label{tb:result-add}\input{03table06.txt}\end{table}これはつまり,そもそも低難易語の場合には,誤りを含むかもしれない訓練データの追加は,むしろマイナスに働く可能性が高いが,中・高難易語の場合,訓練データに含まれる誤りによる悪影響より,訓練データが増えることによる好影響の方が強いことが伺える.また,表~\ref{tb:result-add}には,配布訓練データを用いず,自動獲得したすべての訓練データだけを用いた場合の実験結果も載せている.それによると,低・中難易度では,配布訓練データを用いた精度に及ばないが,高難易度では,配布訓練データのみを用いる場合より高い精度を得ることができた.このように,自動獲得した訓練データのみを利用した場合も善戦はしているが,配布訓練データも利用した場合の方が相当精度が高い(最大11.1ポイント差).この原因は,(1)特に\bccwjと新聞データは,岩波の例文を含む文のみを抽出しているため,訓練データのバリエーションに乏しい,(2)例文によって,獲得できる訓練データ数に非常にばらつきがあり,自然な分布にならない,(3)自動獲得しているため誤りが含まれる,などが考えられる.また,岩波の例文そのものを追加した場合,精度は若干低下する.しかし,例文を用いて訓練データを追加した,\bccwj{}も新聞も,\OW{}を除いて,精度向上が見られる.これは,例文そのものは非常に短いものが多く,切れ切れになってしまうが,例文を含む文全体を追加することで,もう少し広い前後の語などの情報も利用できるために,精度が向上したのだと考えられる\footnote{但し,有意水準5\%のt-検定を行ったところ,いずれも有意差はなかった.}.また,本手法の利点の一つに,訓練データで出現しない語義に対しても,訓練データを追加できることがある.そこで,評価データにしか出現しなかった未知語義(9語義18例,\ref{sec:get-size}節参照)に対する精度のみを確認した.訓練データに出現しない語義なので,訓練データのみ利用した場合,精度は0\%である.表~\ref{tb:result-unseen}に,改良があった結果のみ表示する.表~\ref{tb:result-unseen}によると,すべて追加した場合でも,2例正解しただけであるが,訓練データだけでは絶対に正解できなかった部分であり,意義は大きい.\begin{table}[b]\caption{未知語義(18例)に対する精度(基本素性)}\label{tb:result-unseen}\input{03table07.txt}\end{table}\subsection{学習曲線}\label{sec:result-lc}前節では,各コーパスから追加可能な文はすべて追加して学習した.本節では,過学習していないか調べるため,追加する文数と精度との関連を調べた.\bccwj{}や新聞データの場合,岩波の例文を完全に含む文を追加するため,例文毎に追加できる最大の文数を設定し,精度との関係を調べた.つまり例えば,最大追加文数を5文と設定する場合,例文(\ref{s:toru:ex1})--(\ref{s:toru:ex3-3})のそれぞれに対し,条件を満たす文のうち,最初に出てきた5文までを訓練データとして追加する.但し,当然,最大の文数まで獲得できない場合もある.表~\ref{tb:result-lc-BK}は,表~\ref{tb:result-add}で最も良い精度を出した\PB{}を用いた場合の結果である.また,参考までに,図~\ref{fig:result-lc-BK}に学習曲線を示した.表~\ref{tb:result-lc-BK}および図~\ref{fig:result-lc-BK}から,難易度によって,学習曲線が大きく異なることがわかる.低難易語の場合,10文追加までは,かろうじて精度が向上している.しかし,その後は,訓練データを追加すればするほど,精度が低下している.一方で,中・高難易語に対しては,訓練データを追加した方が精度は向上する.特に,高難易語での精度向上が大きい\footnote{有意水準5\%のt-検定を行ったところ,追加文数を制御したすべての場合で配布訓練データのみを利用する場合に対して有意差があった.}.\begin{table}[t]\caption{岩波例文毎に追加する最大文数を制限する場合(難易度別,基本素性利用,\BK)(\%)}\label{tb:result-lc-BK}\input{03table08.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{18-3ia3f4.eps}\end{center}\caption{岩波例文毎に追加する最大文数を制限する場合(基本素性,\BK)}\label{fig:result-lc-BK}\end{figure}この結果から,低難易語には訓練データをほとんど追加せず,中・高難易語には訓練データを追加する方がいいことがわかる.表~\ref{tb:result-lc-BK}の「参考」に,中・高難易語にのみ,300文を上限に訓練データを追加した場合の結果を示す.但し,本稿の手法の利点の一つは,訓練データに出現しなかった語義にも訓練データを獲得できることであるため,訓練データに出現していない語義に対しては,低難易語であっても訓練データを5文を上限として追加している.この場合,低難易語の精度は下がらず,全体精度は80.0\%を達成,未知語義も1例正解できた.
\section{自動獲得した訓練データの評価}
\label{sec:eva-addex}本節では,\ref{sec:bccwj}章の訓練データの自動獲得方法で獲得した訓練データに正しい語義が付与されているかどうかを評価した.評価対象には,前節(\ref{sec:result-lc}節)で利用した\BK{}において,追加できる最大文数を5文とした場合に獲得されたデータを用いた.この条件では,47語,114語義に対し,1,038文が獲得されている.人手評価の結果,正しい訓練データだったものは979文(94.3\%),誤っていたものは59文(5.7\%)だった.このように5.7\%の誤りを含んでいたものの,表~\ref{tb:result-lc-BK}によると,全体で1.4\%の精度の向上が見られており追加の効果は高い.誤った訓練データを獲得した原因で最も多かったのは,慣用表現である.例えば,語義ID20676-0-0-1「ある時刻と他の時刻との間(の長さ).」の例文「時間の問題」は慣用的な表現である\footnote{(その物事の結着まで長くはかかるまいという情況にまで立ち至ったこと)との注釈がある}.しかし,獲得された5文のうち,1文は,文(\ref{s:toru:error3})であり,語義ID20676-0-0-3「空間と共に,物体界を成り立たせる基礎形式と考えるもの.」の方がふさわしいだろう.\begin{exe}\ex\label{s:toru:error3}この本はむずかしい\ul{時間の問題}を、抽象的な時間論というかたちではなく、...\end{exe}慣用表現かどうかの判定は非常に難しく\cite{Hashimoto:2008j},本稿の手法で,慣用表現による誤りを取り除くことは困難である.すべての誤りを取り除くには,慣用表現辞書\cite{Hashimoto:2008bj}などを利用し,慣用表現と思しき表現を利用しないことにするか,最終的に人手による判断が必要だろう.次に多かった誤りは,対象語以外の形態素区切りの不一致によるものだった.例えば,37713-0-0-6の例文「数を取る」の場合,文(\ref{s:toru:error1})が獲得されている.しかし,37713-0-0-6は「数える」という意味なので,文(\ref{s:toru:error1})は誤りである.\begin{exe}\ex\label{s:toru:error1}ペーパーテストではいい点\ul{数を取る}のかもしれませんがね。\end{exe}\ref{sec:bccwj}節で述べたように,訓練データの追加条件は,例文を完全に含むこと以外にも,「対象例文の見出し語と,基本形,および,品詞大分類が一致する形態素に,該当する例文の語義IDを付与する.」という条件がある.しかし,見出し語以外は,形態素解析結果が一致するかは確認していない.だが,文(\ref{s:toru:error1})の場合,動詞「取る」の目的語部分(「数」と「点数」)は異なっているため,例文側も形態素解析し,前後の形態素も含めて一致する文だけを訓練データに追加すれば,排除できる誤りである.ここまで述べたように,自動獲得した訓練データには誤りが含まれる.しかし,1,038文の正誤評価には1日とかからなかったので\footnote{正誤評価のときには,対象語と定義文,例文を提示し,例文毎に,自動獲得したデータをまとめて表示した.また,例文に一致した部分にはマークをつけ,わかりやすく表示した.},慣用表現のような,人手判断が必要な表現であっても,1日の人手作業で,正しい訓練データを4割近く増やすことができることになる.また,自動獲得では間違いやすい部分のみ,人手作業を行うことも可能である.そのようにして,効率的に正確な訓練データを増やすことも,今後,選択肢の一つになると考えられる.
\section{おわりに}
\label{sec:conclusion}本稿では,訓練データの自動拡張による語義曖昧性解消の精度向上方法について述べた.評価対象として,SemEval-2010日本語語義曖昧性解消タスクを利用した.本稿では,辞書の例文,配布データ以外のセンスバンク(檜),ラベルなしコーパス(\bccwj),新聞データなど,さまざまなコーパスを利用して,訓練データの自動拡張を試みた.配布データ以外のセンスバンク(檜)を利用する場合,語義が定義された辞書同士のリンクを経由して,訓練データを獲得した.辞書同士のリンクは,定義文同士の類似度によって構築されている.檜を追加した場合,78.8\%の精度を得ることができた.これは,配布データのみを利用した場合の結果(77.7\%)より,+1.2\%の改良である.このように,異なる品詞体系,異なる辞書(語義)に基づいて構築されたセンスバンクであっても,自動的に訓練データに追加し,精度向上に寄与できることを示した.人手で構築する言語資源は,構築のための時間と費用が非常にかかるため,こうした既存言語資源の有効利用は,ますます重要になると考えれられる.また,センスバンク以外のラベルなしデータを用いる場合,辞書の例文を文字の列として完全に含み,かつ,形態素解析の結果,対象語と,基本形,および,品詞大分類が一致するものを訓練データとして追加した.最も良い精度を出したラベルなしデータは,書籍(\bccwj{}の\BK{})であり,79.5\%(+1.8\%)の精度を得た.ここで,追加した例文のうち,1,038文をサンプリング評価したところ,94.3\%に正しい語義が付与されていた.このように,自動獲得した訓練データには誤りも含まれるものの,例文そのものを追加するより,本稿の提案手法のように,例文を完全に含む,より自然な文を利用する方が効果が高いことを示した.難易度に基づいて傾向を分析した結果,低難易語には訓練データを追加せず,中・高難易語には訓練データを追加する方がいいことがわかった.そのため,中・高難易語と未知語義にのみ訓練データを追加した場合,最高80.0\%の精度を得た.このように,本稿で紹介したような訓練データの追加は,非常に有効であると言える.最後に,今後の課題として以下の3点を挙げる.\begin{enumerate}\item訓練データを追加する場合(\ref{sec:result-add}章参照)も,トピック素性を利用して実験を行う.配布データのみを利用した場合には,トピック素性を利用した場合がもっとも良かった(\ref{sec:result-given}章参照)ためである.\item辞書定義文から同義語を獲得し,\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}らと同様に,同義語を用いた訓練データの拡張も行う.本稿では,辞書の例文に完全一致する語を訓練データとして追加したが,本手法の場合,そもそも辞書に全く例文がない場合には,新しい訓練データは獲得できない.同義語も利用すれば,例文のみでは訓練データを新たに獲得できなかった語義についても新しい訓練データを追加できるかもしれない.また,例文に完全一致する文のみの追加では,訓練データに偏りが出る恐れがあるが,その点を補完できると期待できる.\itemラベルなしデータを利用した半教師あり学習法\cite{Fujino:Ueda:Saito:2008}による精度向上を図る.半教師あり学習を適用する場合でも,始めに与える訓練データにない語義は,ラベルなしデータをいくら与えたところで推定できない.そのため,本稿のようにあらかじめ低頻度語の訓練データを追加しておくことは重要だと思われる.\end{enumerate}\acknowledgmentSemEval-2010JapaneseWSDtaskに関しまして,データ整備,運営,開催等にご尽力された皆様に感謝いたします.また,「『現代日本語書き言葉均衡コーパス』モニター公開データ(2009年度版)」に関しまして,使用を許可して下さった独立行政法人国立国語研究所に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\Martinez}{Agirre\BBA\Martinez}{2000}]{Agirre:Martinez:2000}Agirre,E.\BBACOMMA\\BBA\Martinez,D.\BBOP2000\BBCP.\newblock\BBOQ{ExploringAutomaticWordSenseDisambiguationwithDecisionListsandtheWeb.}\BBCQ\\newblock{\BemCoRR},\mbox{\BPGS\11--19}.\bibitem[\protect\BCAY{Baldwin,Kim,Bond,Fujita,Martinez,\BBA\Tanaka}{Baldwinet~al.}{2010}]{Baldwin:Kim:Bond:Fujita:Martinez:Tanaka:2010}Baldwin,T.,Kim,S.~N.,Bond,F.,Fujita,S.,Martinez,D.,\BBA\Tanaka,T.\BBOP2010\BBCP.\newblock\BBOQ{AreexaminationofMRD-basedwordsensedisambiguation.}\BBCQ\\newblock{\BemTransactionsonAsianLanguageInformationProcess,AssociationforComputingMachinery(ACM)},\textbf{9}(1),\mbox{\BPGS\1--21}.\bibitem[\protect\BCAY{Bond,Fujita,\BBA\Tanaka}{Bondet~al.}{2006}]{Bond:Fujita:Tanaka:2006}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2006\BBCP.\newblock\BBOQ{ThehinokisyntacticandsemantictreebankofJapanese.}\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},\textbf{40}(3/4),\mbox{\BPGS\253--261}.\newblock(SpecialissueonAsianlanguagetechnology).\bibitem[\protect\BCAY{Brosseau-Villeneuve,Kando,\BBA\Nie}{Brosseau-Villeneuveet~al.}{2010}]{Brosseauvilleneuve:Kando:Nie:2010}Brosseau-Villeneuve,B.,Kando,N.,\BBA\Nie,J.-Y.\BBOP2010\BBCP.\newblock\BBOQ{RALI:AutomaticWeightingofTextWindowDistances.}\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\375--378}.\bibitem[\protect\BCAY{Cai,Lee,\BBA\Teh}{Caiet~al.}{2007}]{Cai:Lee:Teh:2007}Cai,J.~F.,Lee,W.~S.,\BBA\Teh,Y.~W.\BBOP2007\BBCP.\newblock\BBOQNUS-ML:ImprovingWordSenseDisambiguationUsingTopicFeatures.\BBCQ\\newblockIn{\BemProceedingsoftheFourthInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\249--252}.\bibitem[\protect\BCAY{Chang\BBA\Lin}{Chang\BBA\Lin}{2001}]{libsvm}Chang,C.-C.\BBACOMMA\\BBA\Lin,C.-J.\BBOP2001\BBCP.\newblock{\Bem{LIBSVM}:alibraryforsupportvectormachines}.\newblockSoftwareavailableathttp://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm.\bibitem[\protect\BCAY{Dridan\BBA\Bond}{Dridan\BBA\Bond}{2006}]{Dridan:Bond:2006}Dridan,R.\BBACOMMA\\BBA\Bond,F.\BBOP2006\BBCP.\newblock\BBOQ{SentenceComparisonusingRobustMinimalRecursionSemanticsandanOntology}\BBCQ\\newblockIn{\BemWorkshoponLinguisticDistances},\mbox{\BPGS\35--42}.\bibitem[\protect\BCAY{Fujino,Ueda,\BBA\Saito}{Fujinoet~al.}{2008}]{Fujino:Ueda:Saito:2008}Fujino,A.,Ueda,N.,\BBA\Saito,K.\BBOP2008\BBCP.\newblock\BBOQSemi-supervisedlearningforahybridgenerative/discriminativeclassifierbasedonthemaximumentropyprinciple\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence(TPAMI)},\textbf{30}(3),\mbox{\BPGS\424--437}.\bibitem[\protect\BCAY{Fujita,Duh,Fujino,Taira,\BBA\Shindo}{Fujitaet~al.}{2010}]{Fujita:Duh:Fujino:Taira:Shindo:2010}Fujita,S.,Duh,K.,Fujino,A.,Taira,H.,\BBA\Shindo,H.\BBOP2010\BBCP.\newblock\BBOQMSS:InvestigatingtheEffectivenessofDomainCombinationsandTopicFeaturesforWordSenseDisambiguation.\BBCQ\\newblockIn{\Bemthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\383--386}.\bibitem[\protect\BCAY{橋本\JBA河原}{橋本\JBA河原}{2008a}]{Hashimoto:2008bj}橋本力\JBA河原大輔\BBOP2008a\BBCP.\newblock慣用句の検出と格解析のための言語資源の構築.\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\1148--1151}.\bibitem[\protect\BCAY{橋本\JBA河原}{橋本\JBA河原}{2008b}]{Hashimoto:2008j}橋本力\JBA河原大輔\BBOP2008b\BBCP.\newblock日本語慣用句コーパスの構築と慣用句曖昧性解消の試み.\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{笠原\JBA佐藤\JBAFrancis\JBA田中\JBA藤田\JBA金杉\JBA天野}{笠原\Jetal}{2004}]{Lexeed:2004j}笠原要\JBA佐藤浩史\JBAFrancisBond\JBA田中貴秋\JBA藤田早苗\JBA金杉友子\JBA天野昭成\BBOP2004\BBCP.\newblock「基本語意味データベース:Lexeed」の構築\\newblock\Jem{情報処理学会自然言語処理研究会(2004-NLC-159)},\mbox{\BPGS\75--82}.\bibitem[\protect\BCAY{Lesk}{Lesk}{1986}]{Lesk:1986}Lesk,M.\BBOP1986\BBCP.\newblock\BBOQAutomaticSenseDisambiguationusingMachineReadableDictionaries:HowtoTellaPineConefromanIceCreamCone.\BBCQ\\newblockIn{\BemProceedingsofthe5thAnnualInternationalConferenceonSystemsDocumentation},\mbox{\BPGS\24--26}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2002}]{Mihalcea:2002}Mihalcea,R.\BBOP2002\BBCP.\newblock\BBOQBootstrappingLargeSenseTaggedCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC-2002)},\mbox{\BPGS\1407--1411}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2004}]{Mihalcea:2004}Mihalcea,R.\BBOP2004\BBCP.\newblock\BBOQCo-trainingandSelf-trainingforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonNaturalLanguageLearning(CoNLL-2004)},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{Mihalcea\BBA\Moldovan}{Mihalcea\BBA\Moldovan}{1999}]{Mihalcea:Moldovan:1999}Mihalcea,R.\BBACOMMA\\BBA\Moldovan,D.\BBOP1999\BBCP.\newblock\BBOQAnAutomaticMethodforGeneratingSenseTaggedCorpora.\BBCQ\\newblockIn{\BemProceedingsoftheAmericanAssociationforArtificialIntelligence(AAAI-1999)},\mbox{\BPGS\461--466}.\bibitem[\protect\BCAY{村田\JBA内山\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{2003}]{Murata:Utiyama:Uchimoto:Ma:Isahara:2003j}村田真樹\JBA内山将夫\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP2003\BBCP.\newblock技術資料{SENSEVAL-2J}辞書タスクでの{CRL}の取り組み—日本語単語多義性解消における種々の機械学習手法と素性の比較.\newblock\Jem{自然言語処理},\textbf{10}(3),\mbox{\BPGS\115--134}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2009}]{Navigli:2009}Navigli,R.\BBOP2009\BBCP.\newblock\BBOQWordsensedisambiguation:Asurvey.\BBCQ\\newblock{\BemACMComput.Surv.},\textbf{41}(2),\mbox{\BPGS\1--69}.\bibitem[\protect\BCAY{Nigam,Lafferty,\BBA\McCallum}{Nigamet~al.}{1999}]{Nigam:Lafferty:McCallum:1999}Nigam,K.,Lafferty,J.,\BBA\McCallum,A.\BBOP1999\BBCP.\newblock\BBOQUsingMaximumEntropyforTextClassification.\BBCQ\\newblockIn{\BemIJCAI-99WorkshoponMachineLearningforInformationFiltering},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{Nishio:Iwabuchi:Mizutani:1994j}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{SemEval2:JWSD}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Pedersen}{Pedersen}{2006}]{Pedersen:2006}Pedersen,T.\BBOP2006\BBCP.\newblock{\BemWordSenseDisambiguation:AlgorithmsandApplications},\textbf{33},\BCH~6,\mbox{\BPGS\133--166}.\newblockSpringer.\bibitem[\protect\BCAY{Shirai\BBA\Nakamura}{Shirai\BBA\Nakamura}{2010}]{Shirai:Nakamura:2010}Shirai,K.\BBACOMMA\\BBA\Nakamura,M.\BBOP2010\BBCP.\newblock\BBOQ{JAIST:ClusteringandClassificationBasedApproachesforJapaneseWSD.}\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation(SemEval-2010)},\mbox{\BPGS\379--382}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{Shirai:2003j}白井清昭\BBOP2003\BBCP.\newblock{SENSEVAL-2}日本語辞書タスク.\\newblock\Jem{自然言語処理},\textbf{10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{Tanaka,Bond,Baldwin,Fujita,\BBA\Hashimoto}{Tanakaet~al.}{2007}]{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}Tanaka,T.,Bond,F.,Baldwin,T.,Fujita,S.,\BBA\Hashimoto,C.\BBOP2007\BBCP.\newblock\BBOQ{WordSenseDisambiguationIncorporatingLexicalandStructuralSemanticInformation}.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL-2007)},\mbox{\BPGS\477--485}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky:1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-93)},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{藤田早苗}{1997年大阪府立大学工学部航空宇宙工学科卒業.1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年4月よりNTT日本電信電話株式会社コミュニケーション科学基礎研究勤務.以来,自然言語処理の研究に従事.また,2009年3月奈良先端科学技術大学院大学にて博士号(工学)取得.ACL,言語処理学会各会員.}\bioauthor[:]{KevinDuh}{KevinhasbeenaresearchassociateatNTTCSLabssince2009/09.HereceivedhisB.S.fromRiceUniversity(USA)in2003,andPhDfromtheUniversityofWashington(USA)in2009,bothinElectricalEngineering.Heisinterestedinnaturallanguageprocessing,informationretrieval,andmachinelearningresearch.}\bioauthor{藤野昭典}{1995年京都大学工学部精密工学科卒業.1997年同大学大学院修士課程修了.2009年同大学大学院博士課程修了.博士(情報学).1997年NTT入社.機械学習,テキスト処理などの研究に従事.現在,NTTコミュニケーション科学基礎研究所研究主任.電子情報通信学会PRMU研究奨励賞(2004年度),FIT論文賞(2005年)等受賞.電子情報通信学会,情報処理学会,IEEE各会員.}\bioauthor{平博順}{1994年東京大学大学理学部化学科卒業.1996年同大学院理学系研究科化学専攻修士課程修了.同年,日本電信電話株式会社,NTTコミュニケーション科学研究所入所.意味理解,文書自動分類,バイオインフォマティクスの研究に従事.2002年奈良先端大学院大学情報学専攻博士後期課程修了.博士(工学).2005年〜2007年株式会社NTTデータ技術開発本部研究主任.2007年よりNTTコミュニケーション科学基礎研究所研究員,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.人工知能学会編集委員.}\bioauthor{進藤裕之}{2009年早稲田大学大学院先進理工学研究科修士課程修了.同年NTT入社.統計的自然言語処理の研究に従事.現在,NTTコミュニケーション科学基礎研究所研究員.ACL会員.}\end{biography}\biodate\end{document}
| |
V14N03-12
|
\section{はじめに}
近年,機器の高機能化がますます進み,我々の生活は非常に便利になってきている.しかし一方では,それらの機器を使いこなせないユーザが増えてきていることもまた事実である.この原因としては,高機能化に伴い,機器の操作が複雑化していることが考えられる.この問題を解決する一つの手段に,新しいユーザインタフェースの開発を挙げることができる.これまでにも,音声認識や手書き文字認識など,日常生活で慣れ親しんでいる入力を扱うことによる使いやすい機器の開発がなされており,一定の成果を挙げてはいるが,未だ万人に受け入れられるインタフェースとしては完成していない.これは,入力されたデータを規則に沿って処理しているだけであり,ユーザが置かれている状況や立場・気持ちを理解することなく,単純に処理していることにより,便利であるはずのインタフェースが,かえって人に不便さや不快感を与える結果になっていることが原因であると考えられる.そこで,我々は,新しいインタフェースとして,人間のコミュニケーションの仕組み,特に,常識的な判断の実現を目標に研究を行っている.人間はコミュニケーションにおいて,あいまいな情報を受け取った場合にも,適宜に解釈し円滑に会話を進めることができる.これは,人間が長年の経験により,言語における知識を蓄積し,その基本となる概念に関する「常識」を確立しているからである.人間が日常的に用いている常識には様々なものがある.例えば,言葉の論理性に関する常識,大きさや重さなどの量に関する常識,季節や時期などの時間に関する常識,暑い・騒がしい・美味しい・美しいといった感覚に関する常識,嬉しい・悲しいといった感情に関する常識などを挙げることができる.これらの常識を機器に理解させることができれば,ユーザは人とコミュニケーションをとるように機器をごく自然に使いこなすことができると考えられる.これまでにも,前述した常識に関する判断を実現する手法についての研究がなされている\cite{horiguchi:02,watabe:04,kometani:03,tsuchiya:05}.そこで本稿では,これらの常識の中の感情に着目し,ユーザの発話文章からそのユーザの感情を判断する手法を確立し,実システムによりその有効性を検証する.本システムにより例えば,提供しようとしている内容にユーザが不快感を覚える表現や不快な事象を想起させるような内容が含まれている場合に,別の適切な表現に変更することができるなどの効果が期待できる.本稿のように,感情に主眼を置いた研究はこれまでにもなされている.例えば,イソップワールドを研究の対象に置き,「喜び」,「悲しみ」など8種類の感情に応じた特徴を現在の状況から抽出し,それら複数の特徴を組み合わせることによってエージェントの感情を生成させる研究がある\cite{okada:92,okada:96,tokuhisa:98}.この手法では,エージェントの処理を内部から監視することによって,感情生成のための特徴を抽出している.また,\cite{mera:02}では,語彙に対する好感度を利用し,発話文章から話者の快・不快の感情を判断している.これらの先行研究では,あらかじめ知識として獲得している語彙以外は処理を行うことができない.また,判断できる感情の種類が少なく,表現力に乏しいという問題点が挙げられる.一方,本稿で提案する手法では,連想メカニズムを利用することにより,知識を獲得している語彙との意味的な関連性を評価することができ,知識として獲得していない語彙に関しても適切に処理を行うことが可能であると共に,多彩な感情を判断できることに独自性・優位性があると考えられる.
\section{感情判断システム}
label{system}\begin{figure}[b]\begin{center}\includegraphics[width=6cm]{14-3ia12f1.eps}\end{center}\caption{感情判断システムの構成}\label{emotion_judgment_system}\end{figure}\begin{table}[b]\caption{本研究で対象とする発話文章の例}\label{example_of_hatsuwabunnshou}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline発話文章&主体語&修飾語&目的語&変化語\\\hline\hline私は綺麗な宝石を貰う&私&綺麗な&宝石&貰う\\\hline私はお化けが怖い&私&-&お化け&怖い\\\hline\end{tabular}\end{center}\end{table}構築した感情判断システムの構成を図\ref{emotion_judgment_system}に示す.本研究はまだ初期段階であることから,その基本となる条件の下で研究を遂行した.そのため,話者の感情を判断するための発話文章の形式を「主体語」,「修飾語」,「目的語」,「変化語」の4要素に限定した.表\ref{example_of_hatsuwabunnshou}に本研究で処理の対象とする発話文章の例を示す.「主体語」とは,発話文章の主体となる名詞である.本研究では,今後,研究を発展する際に基本となる発話者自身,つまり,「私」を主体とする文章に限定した.「修飾語」とは,後に続く「目的語」を修飾する形容詞・形容動詞である.「修飾語」に関しては,文章表現において必ずしも必要でない場合があるため,省略を許可している.「目的語」とは,主体の行為・行動・状態の対象となる名詞である.以下,先に説明した「修飾語」と「目的語」を合わせて「対象語」と呼ぶ.「変化語」とは,主体の行為・行動・状態を表現する動詞や形容詞・形容動詞である.これらの「主体語」,「対象語」,「変化語」を基に発話者の感情を判断する.感情判断知識ベースには,「対象語」の「修飾語」,「変化語」,「感情判断」に関する少数の知識が登録されており,これを基に,語の連想を行うことにより,知識を常識の範囲で拡張し,多くの表現に対応している.語の連想は,複数の電子化辞書等から機械的に自動構築された大規模なデータベースである概念ベース\cite{hirose:02,kojima:02}と,語と語の間にある関連性を評価する関連度計算法\cite{watabe:01}(以下,これらを合わせて連想メカニズムと呼ぶ)を用いることにより実現している.「対象語」の「目的語」に関しては,名詞が持っている感覚・知覚の特徴を抽出することができる感覚・知覚判断メカニズム\cite{horiguchi:02,watabe:04,kometani:03}を用いて処理を行っている.人間の抱く感情はこれまで,心理学者や哲学者などによって数多く研究されてきた\cite{hukui:90,saitou:86,rita:99,suzan:01}.しかし,感情には実態がなく,非常にあいまいなものであるため,研究者ごとに解釈が異なり,定義する感情モデルも皆様々である.例えば,「嫌悪」,「恐怖」,「怒り」,「愛」を感情の基本と置き,色を混ぜ合わせるように感情を多様に表現できると定義するもの\cite{rita:99}や,人間が表現できる顔の表情から「悲しみ」,「満足」,「嫌悪」,「怒り」,「恐怖」が基本的な感情であると定義するもの\cite{suzan:01}などがある.そこで,我々は,「あるアクションが起こった際に瞬間的に感じる」ものを感情とみなし,判断する感情を「喜び」,「悲しみ」,「怒り」,「安心」,「恐れ」,「落胆」,「恥」,「後悔」,「罪悪感」と「感情なし」の計10種類と定義した.なお,我々は常識的な判断を実現するシステムの開発を目指しているため,人の好き嫌いに左右される「嫌悪」は判断の対象として扱わないことにした.また,これら10種類の感情を基本感情と定義し,より詳細な感情表現を可能とする手法も提案する.これについては,\ref{jugdement_emotion}章で詳しく説明する.\ref{association_mechanism}章で連想メカニズム,\ref{taishougo}章で対象語,\ref{hennkago}章で変化語,\ref{jugdement_emotion}章で感情判断について述べ,\ref{result_of_emotion_judgement_system}章で感情判断システムの性能評価を行う.なお,本研究では,人間の常識を機器上で表現し,扱うことを目標にしているため,人間の常識的な考え方・感じ方を基準にデータベースの構築や評価を行っている.また,処理性能としては,正答率8割以上を目標値として設定している.
\section{連想メカニズム}
label{association_mechanism}連想メカニズムは概念ベースと関連度計算法により構成されており,概念ベース\cite{hirose:02,kojima:02}は,ある語から語意の展開を行い,関連度計算法\cite{watabe:01}は,語意の展開結果を利用し,語の間にある関連性を数値として表す手法である.\subsection{概念ベース}\label{consept_base}概念ベースは,複数の電子化辞書などから各見出し語を概念,その見出し語の説明文中の自立語を概念の属性として,機械的に自動構築された大規模なデータベースである.本研究では,機械的に構築した後,人間の感覚からは不適切である属性を削除し,必要な属性を追加する自動精錬処理を行った概念ベース(概念数約9万)\cite{hirose:02}を利用している.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f2.eps}\end{center}\caption{概念「電車」を二次属性まで展開した場合の例}\label{concept_base}\end{figure}概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$と,この属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対で表現される.概念$A$の属性数を$N$個とすると,概念$A$は以下のように表すことができる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\[A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\]概念$A$の一次属性$a_i$は概念ベースに定義されている概念としているため,$a_i$からも同様に属性を導くことができる.$a_i$の属性$a_{ij}$を概念$A$の二次属性と呼ぶ.概念「電車」を二次属性まで展開した様子を図\ref{concept_base}に示す.\subsection{関連度計算法}\label{ra}関連度とは,概念と概念の関連の強さを定量的に評価するものであり,具体的には概念連鎖により概念を二次属性まで展開したところで,最も対応の良い一次属性同士を対応付け,それらの一致する属性の重みを評価することにより算出するものである.概念$A$と$B$の関連度$ChainW(A,B)$は以下のアルゴリズムにより計算する\cite{watabe:01}.\begin{enumerate}\itemまず,2つの概念$A$,$B$を一次属性$a_i,b_j$と重み$u_i,v_j$を用いて,{\allowdisplaybreaks\begin{align*}A&=\{(a_i,u_i)|i=1\simL\}\\B&=\{(b_j,v_j)|j=1\simM\}\end{align*}}と定義する.ここで,属性個数は重みの大きいものから30個を上限(実験的に検証された)\cite{watabe:01}として展開するものとする.\item一次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の一次属性の並びを固定する.\[A=((a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L))\]\item概念$B$の各一次属性を対応する概念$A$の各一次属性との一致度($MatchW$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の一次属性($(b_{x_j},v_{x_j}),\j=L+1,\cdots,M$)は無視する.\[B_x=((b_{x_1},v_{x_1}),(b_{x_2},v_{x_2}),\cdots,(b_{x_L},v_{x_L}))\]\item概念$A$と概念$B$との関連度$ChainW(A,B)$は,\begin{align*}ChainW(A,B)&=(s_A/n_A+s_B/n_B)/2\label{Echain}\\s_A&=\sum_{i=1}^Lu_iMatchW(a_i,b_{x_i})\\s_B&=\sum_{i=1}^Lv_{x_i}MatchW(a_i,b_{x_i})\\n_A&=\sum_{i=1}^Lu_i\\n_B&=\sum_{j=1}^Mv_j\end{align*}とする.\end{enumerate}また,概念$A$と概念$B$の一致度$MatchW(A,B)$は,一致する一次属性の重み(すなわち,$a_i=b_j$なる$a_i,b_j$の重み)の合計をそれぞれ$w_A,w_B$とするとき,次式で定義する.\[MatchW(A,B)=(w_A/n_A+w_B/n_B)/2\]この式は,概念Aと概念Bの一致割合を評価する一つの方式として,概念$A$から見たときの一致している属性の重みの割合$w_A/n_A$と概念$B$から見たときの一致している属性の重みの割合$w_B/n_B$の平均を採用している.
\section{対象語の処理}
label{taishougo}対象語は発話者の行為・動作・状態の対象となり,修飾語(形容詞・形容動詞)と目的語(名詞)で構成される.修飾語は主に感情判断知識ベースを用いて意味分類の処理を行い,多義性の判断が処理のポイントである.目的語については,別の研究成果である感覚・知覚判断手法\cite{horiguchi:02,watabe:04,kometani:03}をサブシステムとして用いることで意味分類の処理を行う.\subsection{修飾語の処理}修飾語は,日常使用する語数が比較的少ないため(6358語),その全てを修飾の方法によって以下の4種類に分けて扱う.直接修飾型,依存修飾型については,それらを表現する形容詞(後述する感覚・知覚判断システムが判断する感覚語(目的語の意味分類)203分類)により意味的に分類し,感情判断知識ベースに登録している.(1)直接修飾型(785語):感情判断に直接関与し,後に続く名詞の意味分類を修飾語の意味分類に変換するもの(表\ref{example_of_direct_shuushoku}).\begin{table}[b]\caption{直接修飾型の「修飾語」の例}\label{example_of_direct_shuushoku}\begin{center}\begin{tabular}{|c|c|}\hline修飾語(785語)&修飾語の意味分類(203分類)\\\hline\hline綺麗な&美しい\\\hline不潔な&汚い\\\hline…&…\\\hline\end{tabular}\end{center}\end{table}(2)依存修飾型(54語):修飾される名詞によって意味分類が変化するもの(表\ref{Example_of_dependence_modification}).次節で処理方法を詳しく述べる.\begin{table}[b]\caption{依存修飾型の「修飾語」の例}\label{Example_of_dependence_modification}\begin{center}\begin{tabular}{|c|c|c|}\hline修飾語(54語)&修飾語の意味分類(203分類)&修飾する名詞\\\hline\hline&心強い&握手,誓い,…\\かたい&憂鬱な&頭,雰囲気,…\\&なし&食べ物,石,…\\\hline…&…&…\\\hline\end{tabular}\end{center}\end{table}(3)無修飾型:名詞の意味分類に影響を及ぼさないもの(例:丸い,赤い,…).(4)程度表現型:後に続く名詞に関する強さ(程度)を表現するもの(例:深い,大きい,…).本研究では,これら4種類の修飾語の内,直接修飾型と依存修飾型の修飾語のみを扱うことにした.これは,無修飾型と程度表現型の修飾語は,感情の程度を増減させる効果を持ち,感情そのものには影響を及ぼさないからである.\subsubsection{修飾語の多義性判断}\label{judgement_of_shuushokugo}直接修飾型の修飾語は感情判断知識ベースに登録されている知識を参照することにより,容易に意味分類の処理を行うことができる.依存修飾型の修飾語は,その後に続く名詞(目的語)によって,表現する意味が変化する.そこで,表\ref{Example_of_dependence_modification}に示すように,修飾語とその意味分類の他に,修飾する名詞で代表的な語を関連付けて感情判断知識ベースに登録している.多義性の判断は,この修飾する名詞と処理対象である修飾語の後に続く名詞との関連度(\ref{ra}節)を算出し,算出された関連度が最大となる名詞が関連付けられている修飾語の意味分類とすることで実現する.\subsubsection{多義性判断の性能評価}\label{result_of_shuushokugo}大学生40名に対して,「依存修飾語」を提示し,それに修飾される「名詞」を思いつくだけ挙げてもらうことにより収集したデータから,無作為に200組を抽出し評価データとして使用した.なお,関連度の有効性を評価するため,関連度計算法と同じように単語間の関連性を数値化する別の手法との比較を行う.本論文では,関連度の算出過程で用いる\ref{ra}節で説明した一致度($MatchW$)と\cite{nagao:96}で紹介されている以下の算出式によりシソーラス上の距離を定量化することで単語間の類似度を求める手法を比較対象とした.\[sim(n_1,n_2)=2d(c)/(d(n_1;c)+d(n_2;c))\]ここで,$d(a)$は$a$の深さ,すなわち,シソーラスのルートノードからノード$a$への最短パス長であり,$d(a;b)$は$b$を経由する$a$の深さ,すなわち,シソーラスのルートノードからノード$b$を経由してノード$a$へ至るパスの最短パス長である.また,実験に使用したシソーラスは,日本語語彙体系\cite{ntt:97}を使用した.多義性の判断についての処理結果を表\ref{result_of_shuushokugo_table}に示す.関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて16.5{\kern0pt}%,一致度を用いた処理に比べて3.0{\kern0pt}%正答率が向上している.また,関連度を用いた処理のみ正答率が目標値を越えており,効果のある処理手法であると考えられる.\begin{table}[b]\caption{依存修飾型の修飾語における多義性判断の結果}\label{result_of_shuushokugo_table}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&シソーラス距離&一致度&関連度\\\hline\hline正答率&64.5{\kern0pt}%&78.0{\kern0pt}%&81.0{\kern0pt}%\\\hline\end{tabular}\end{center}\end{table}\subsection{目的語の処理}目的語の意味分類については,別の研究成果である感覚・知覚判断システム\cite{horiguchi:02,watabe:04,kometani:03}を用いて処理を行う.感覚・知覚判断システムは,ある語(名詞)に対して人間が常識的に抱く特徴を形容詞・形容動詞の形で判断するシステムである.「痛い」「臭い」などの人間が五感で感じる特徴を『五感感覚語』,「めでたい」,「不幸な」などの五感以外で感じる特徴を『知覚語』と呼ぶ.また,この2種類を総称して『感覚語』と呼び,計203語を定義している.感覚・知覚判断システムの処理は,語とその特徴である感覚・知覚の関係に関する代表的な知識を感覚・知覚判断知識ベース(図\ref{sense_judgment_knowledge_base_image})に登録し,その知識を基に\ref{association_mechanism}章で説明した連想メカニズムを用いて,あらゆる単語に関する感覚語を精度良く判断できるよう工夫されている.\begin{figure}[b]\begin{center}\includegraphics[width=8.5cm]{14-3ia12f3.eps}\end{center}\caption{感覚判断知識ベースのイメージ図}\label{sense_judgment_knowledge_base_image}\end{figure}なお,感覚・知覚判断システムが判断する感覚語203語により目的語を意味的に分類する.また,この203語の感覚語は前述した修飾語の意味分類と共通化させている.つまり,対象語の意味分類として感覚語203語を用いている.\subsubsection{感覚・知覚判断の処理手法}ここでは,感覚・知覚の判断についての処理手法を簡単に述べる.なお,詳細については参考文献\cite{horiguchi:02,watabe:04,kometani:03}を参照されたい.感覚・知覚判断知識ベースは,シソーラス構造をとっており,代表的な語(名詞)に対して,その語から想起される感覚・知覚を人手により付与している.感覚・知覚判断知識ベースに登録されていない未知語が処理の対象になった場合には,感覚・知覚判断知識ベースに登録されている既知語との関連度を算出し,関連性の強い語に帰着する.これにより,大まかな感覚・知覚を得ることができる.さらに,概念ベースの属性を参照することにより,その語特有の感覚・知覚を得る.概念ベースの属性にはその構成上,想起する感覚・知覚として不適切な語も含まれるため,関連度の考え方を用いて,適切な感覚・知覚を得る工夫をしている.\subsubsection{感覚・知覚判断システムの性能評価}感覚に関しては447語,知覚に関しては500語の目的語(名詞)を無作為に抽出し,評価データとして使用した.評価は,大学生3名を被験者として行った.処理対象の名詞に対して,意味的に関連が強い感覚・知覚を正しく判断すると「常識的(正答)」,誤った判断をすると「非常識(誤答)」とする.また,意味的な関連は強くないが,判断結果として不適切でないもの(感覚・知覚の観点から一般的に不適切でないもの)は「非常識ではない」とする.例えば,「林檎」の場合,「赤い」は常識的,「明るい」は非常識,「緑」は非常識ではない解と判断する.目的語における感覚の判断結果を図\ref{result_of_kannkaku}に,知覚の判断結果を図\ref{result_of_chikaku}に示す.なお,\ref{result_of_shuushokugo}節で述べた修飾語における多義性判断の性能評価方法と同様に,関連度の代わりに一致度とシソーラス距離を用いた場合の結果を比較対象として評価する.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f4.eps}\end{center}\caption{目的語における感覚判断の結果}\label{result_of_kannkaku}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=10cm]{14-3ia12f5.eps}\end{center}\caption{目的語における知覚判断の結果}\label{result_of_chikaku}\end{figure}常識的な解において,関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて約10〜12{\kern0pt}%,一致度を用いた処理に比べて約3〜5{\kern0pt}%向上している.また,関連度を用いた場合,常識的な解は,感覚・知覚判断においてそれぞれ84.6{\kern0pt}%と70.8{\kern0pt}%であり,非常識ではない解も正答に含めると98.0{\kern0pt}%と88.4{\kern0pt}%と非常に高い正答率となっており,連想メカニズムを用いた感覚・知覚判断システムは,感情判断システムにおける目的語の意味分類処理において有効であるといえる.
\section{変化語の処理}
label{hennkago}変化語は,発話者の行為・行動・状態を表現する語であり,動詞の他に,形容詞・形容動詞が対象となる.例えば,「私はお腹が痛い」という発話文章の場合,変化語は形容詞「痛い」である.変化語には,対象語から想起される感覚・知覚に関する特徴を変換する効果がある.感覚・知覚的に表現される特徴には大きくプラス的表現とマイナス的表現の2種類に分類できる.例えば,プラス的表現としては,「美しい」や「大切な」,マイナス的表現としては,「痛い」や「汚い」などを挙げることができる.また,感情も同じくプラスとマイナス的な感情の2種類に大別できる.「喜び」と「安心」がプラス的感情,「悲しみ」や「怒り」がマイナス的感情とすることができる.すると変化語には,4種類の作用を見出すことができる(図\ref{sayou_of_hennkago}).\begin{figure}[b]\begin{center}\includegraphics[width=7cm]{14-3ia12f6.eps}\end{center}\caption{変化語における4種類の作用のイメージ図}\label{sayou_of_hennkago}\end{figure}ここで,図\ref{sayou_of_hennkago}における【A】及び【B】は,対象語の情報に依存せず,変化語のみで一意に感情が決定する働きをもつ.【A】に関しては「喜ぶ」や「楽しむ」等が,【B】に関しては「悲しむ」や「恐れる」等を例として挙げることができる.また,【C】【D】の場合,対象語の意味分類により判断される感情が異なり,【C】の場合,対象語の意味分類を『継承』した感情を判断する.逆に【D】の場合では対象語の意味分類を『逆転』する感情を判断する.【C】に関しては「見る」「貰う」等が,【D】に関しては「失う」「捨てる」等が相当する.以下,【A】【B】の変化語を【感情一意想起型】,【C】【D】を【対象語依存型】と呼ぶ.また,感情一意想起型の変化語に関しては,「喜び」の感情を判断する〔喜び型〕,「悲しみ」の感情を判断する〔悲しみ型〕等のように,判断する感情として定義した10種類に細分類することができる.変化語に関する知識は,動詞を動作や状態によって体系付けられたシソーラス\footnote{学研シソーラス(類義語辞典)辞書,学研メディア開発事業部編}を利用して構築しており,自立語の動詞,及び,動作や状態を表す名詞(サ変接続名詞)17,676語をすべて感情判断知識ベースに登録している.動詞のシソーラスを用いることにより容易に且つ大量に分類作業を行うことができる.なお,形容詞・形容動詞については,修飾語の知識を流用する.\subsection{変化語における多義性判断}名詞の場合,語彙数は膨大であるが,多義性が少ないのに対し,動詞の場合,語彙数は少ないが,多義性が激しいという特徴がある.そのため,多くの動詞は複数の意味を有している.例えば,動詞「上がる」には,「継承」に分類される「低い所から高い所へ移動する」意味や「逆転」に分類される「終了する」意味,「喜び」の「地位が進む」意味,「悲しみ」の「費用が増える」意味など多岐に渡る.変化語単体では多義性を判断することができないため,修飾語の多義性判断と同様に,対象語の目的語の意味分類を利用する.そこで,国語辞書に記載されている変化語に対する解説文章から自立語を抽出し,対象語の目的語との関連度(\ref{ra}節)を算出する.算出された関連度が最大の自立語を含む説明文章が記載されている分類を変化語に対する多義性判断の結果とする.\subsection{変化語における多義性判断の性能評価}感情を想起できる「名詞」と「動詞」の組み合わせを大学生40名から収集し,無作為に370セットを抽出し,評価データとして使用した.各セットに対しては,多義性の判断結果として期待する「変化語の分類」をあらかじめ3名の被験者の多数決により決定した.変化語における多義性判断の結果を表\ref{result_of_doushi}に示す.なお,\ref{result_of_shuushokugo}節と同様に比較評価を行った.\begin{table}[b]\caption{変化語における多義性判断の結果}\label{result_of_doushi}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&シソーラス距離&一致度&関連度\\\hline\hline正答率&66.5{\kern0pt}%&70.5{\kern0pt}%&77.0{\kern0pt}%\\\hline\end{tabular}\end{center}\end{table}関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて10.5{\kern0pt}%,一致度を用いた処理に比べて6.5{\kern0pt}%正答率が向上している.
\section{感情判断の処理}
label{jugdement_emotion}\ref{system}章で述べたように,人間が感じる感情の定義には様々な見解がある.そこで,我々は,「あるアクションが起こった際に瞬間的に感じる」ものを感情とみなし,判断する感情を「喜び」,「悲しみ」,「怒り」,「安心」,「恐れ」,「落胆」,「恥」,「後悔」,「罪悪感」と「感情なし」の計10種類と定義した.しかし,人間の感情は非常に複雑であり,高々10種類の感情だけでは,話者の感情を柔軟に判断することは困難である.そこで,先に述べた人手で定義した10種類の感情を基本感情と位置付け,より詳細に感情を表現するために機械的に多くの表現を付与する処理を行う.機械的に付与された詳細な感情を補足感情と呼ぶ.これにより作業量を最小限に抑え,且つ,より豊かに感情を表現することができる.感情判断には対象語の意味分類(203分類)と変化語の分類(継承と逆転の2分類)の組み合わせ計406種類について,想起する感情を人手で定義して感情判断知識ベースに登録している(表\ref{example_of_emotion_table}).なお,変化語の他の10種類の分類については,「喜び」や「怒り」など感情を直接表現しているため,感情判断の規則として感情判断知識ベースには登録していない.\begin{table}[b]\caption{感情判断のための知識の例}\label{example_of_emotion_table}\begin{center}\begin{tabular}{|c|c|c|}\hline対象語の意味分類(203分類)&変化語の分類(2分類)&判断感情\\\hline\hlineめでたい&継承&喜び\\\hlineめでたい&逆転&悲しみ\\\hline不吉な&継承&恐れ\\\hline…&…&…\\\hline\end{tabular}\end{center}\end{table}また,これらの組み合わせに対して,より柔軟に人間の感情を判断するために,補足感情を定義する必要がある.ここで問題になるのは,対象語の意味分類と補足感情との組み合わせ数が膨大になり,各組み合わせに対して手作業を行うことは効率が悪く,また主観による知識の偏りが生じる恐れがあることである.そこで,\ref{ra}節の関連度を利用して,対象語の意味分類と関連性が強い補足感情を機械的に定義する.なお,本研究において,扱う補足感情としては,唯一日本人の感情をモデル化した「情緒の系図」\cite{iki:91}に定義されている感情を用いることにした.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f7.eps}\end{center}\caption{関連度の分布}\label{degree_of_assosiation_average_example}\end{figure}ここで,意味的な関連が強いと判断するための閾値の設定方法を述べる.概念に関する関連度合いを「女性−婦人」,「山−丘」などの極めて密接な関係,「山−川」,「夕焼け−赤い」などの密な関係,「山−机」,「電車−眼鏡」などの疎な関係の3種類に分類する教師データを概念ベース全体の中から人手で無作為に抽出した.それらの関係について被験者4名で評価を行い,4名が共にその関係が正しいと判断したものを200セット(計600データ)使用し,それらの関連度の平均を求め,これを関連の強さの判断に利用する.ある概念と極めて密接な関係,密な関係,疎な関係にある語の関連度の平均は,0.47,0.16,0.01であり,図\ref{degree_of_assosiation_average_example}のように各関係の間には関連度に十分有意な差が見られる.そこで,各関係における関連度平均の中間値である0.32,0.09を閾値と設定した.対象語の意味分類と補足感情との関連度が関連度平均0.32以上の場合は,意味的な関連が極めて強いと判断し機械的に関連付け,関連度平均0.32未満0.09以上の場合は,意味的な関連が強いと判断し手作業で関連付ける.また,関連度平均0.09未満の場合は,意味的な関連が弱いと判断し関連付けを行わない.このようにして定義した補足感情は,「愛」,「哀しみ」,「怨」,「恩」,「怪しい」,「悔しい」,「懐かしい」,「楽しい」,「希望」,「驚き」,「苦」,「誇り」,「寂しい」,「心配」,「親しみ」,「憎」,「妬み」,「美」,「満足」,「不安」,「不満」,「蔑み」,「憐れみ」,「なし」の計24種類であり,基本感情とは完全に独立した関係になっている.また,補足感情は,基本感情の定義方法と異なり,対象語の意味分類のみを基に定義している.つまり,変化語の意味分類が「継続」であることを前提として定義している.そこで,変化語の意味分類が「逆転」の場合,表\ref{pair_of_supplementation_emotion}に示す補足感情については感情を反転させる処理(プラス的感情を対応するマイナス的感情に変換,または,その逆の処理)を行う.\begin{table}[t]\caption{対となる補足感情}\label{pair_of_supplementation_emotion}\begin{center}\begin{tabular}{|c|c|}\hlineプラス的感情&マイナス的感情\\\hline\hline満足&不満\\\hline楽&苦,哀しい\\\hline希望&不安,心配\\\hline愛&憎\\\hline恩&怨\\\hline親しみ&寂しい\\\hline誇り&悔しい\\\hline\end{tabular}\end{center}\end{table}\ref{taishougo}章から本章までの各処理により感情を判断する流れを図\ref{flow_of_emotion_generation}に示す.発話文章の主体語は「私」に限定しているため,主体語について特別な処理は行わない.対象語について,修飾語がある場合には,修飾語により対象語の意味分類を行う.依存型修飾語の場合は,多義性の判断処理を行い対象語の意味分類を決定する.その他の修飾語の場合は,感情判断知識ベースを参照することにより対象語の意味分類を導き出す.修飾語がない場合には,目的語から対象語の意味分類を決定する.目的語の処理には,感覚・知覚判断システムを利用する.対象語の意味分類は203分類であるが,これは,感覚・知覚判断システムが判断可能な意味分類である203分類を用いている.つまり,修飾語の意味分類も同様の203分類を用いている.変化語については,すべての語を対象に多義性判断の処理を行い,変化語の意味分類を決定する.このように判断した対象語の意味分類と変化語の意味分類を用いて基本感情と補足感情を判断する.なお,基本感情と補足感情は階層構造などをとらず,完全独立なものとして定義している.\begin{figure}[t]\begin{center}\includegraphics[width=9cm]{14-3ia12f8.eps}\end{center}\caption{感情判断の流れ}\label{flow_of_emotion_generation}\end{figure}
\section{感情判断システムの性能評価}
label{result_of_emotion_judgement_system}感情判断システムの判断感情の妥当性を評価するために,大学生40名から感情が想起される対象語と変化語のセットを収集し,無作為に抽出した200セットを評価データとして使用した.評価としては,5名の被験者にシステムが判断した感情が常識的か非常識かを判断してもらい,4名以上が常識的と答えたものは「常識的な解(正答)」,2名以上3名以下が常識と判断したものは「非常識ではない」,1名以下が常識的と判断したものは「非常識な解(誤答)」とした.また,複数の感情が判断される場合には,すべての感情が常識的であれば「常識的な解(正答)」,一つでも非常識な感情があれば「非常識な解(誤答)」と判断し,その他は「非常識ではない」としている.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f9.eps}\end{center}\caption{基本感情のみを判断した際の感情判断結果}\label{result_of_base_emotion_judgement}\end{figure}\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f10.eps}\end{center}\caption{基本感情と補足感情の両方を判断した際の感情判断結果}\label{result_of_supplementation_emotion_judgement}\end{figure}図\ref{result_of_base_emotion_judgement}に基本感情のみを判断した際の感情判断結果を,図\ref{result_of_supplementation_emotion_judgement}に基本感情と補足感情の両方を判断した際の感情判断結果を示す.両方の感情を判断する際には,基本感情と補足感情の両方が常識的なら常識的,どちらか一方でも非常識ならば非常識と評価している.なお,\ref{result_of_shuushokugo}節と同様に比較評価を行った.常識的な解において,関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて9〜14{\kern0pt}%,一致度を用いた処理に比べて3.5〜4.5{\kern0pt}%向上している.また,図\ref{result_of_base_emotion_judgement}と図\ref{result_of_supplementation_emotion_judgement}を比較すると,正答率に差がないことが分かる.基本感情と補足感情は前述したように完全独立して定義している.そのため,基本的には両方の感情を判断する方が正解率は低下する.このことは,シソーラス距離を用いた処理結果から読み取ることができる.本節の結果で正答率に差が生じなかったことは偶然の結果であるが,半機械的に構築した補足感情を利用することにより,人手ですべてを定義した基本感情における感情判断結果の正答率を極力低下させることなく,判断する感情の表現を多様化し,感情をよりきめ細かに表現できたと考えている.\begin{table}[b]\caption{評価データと感情生判断の結果の例}\label{example_of_result}\begin{center}\begin{tabular}{|c|c|c|c|}\hline評価データ&基本感情&補足感情&評価結果\\\hline\hline私はつまらない映画を見る&落胆&不満&常識的な解\\\hline私は豊かな生活を送る&喜び&満足&常識的な解\\\hline私は一人ぼっちで生活する&悲しみ&寂しい,不安&常識的な解\\\hline私は貧しい生活を送る&恥&苦&常識的な解\\\hline私は珍しい現象に遭遇する&なし&驚き&常識的な解\\\hline私はいたずら電話をする&罪悪感&憎&常識的な解\\\hline私は優勝をする&喜び&楽しい,誇り&常識的な解\\\hline私は赤ん坊を出産する&喜び&愛&常識的な解\\\hline私は別れを告げる&悲しみ&苦,寂しい,不安&常識的な解\\\hline私は幽霊を見る&恐れ&怪しい,驚き&常識的な解\\\hline私は娘を出産する&喜び,悲しみ&愛,親しみ,不安&非常識ではない解\\\hline私は不正を見逃す&安心,喜び&なし&非常識な解\\\hline\end{tabular}\end{center}\end{table}評価データとその結果の例を表\ref{example_of_result}に示す.常識的と判定された例である「私はつまらない映画を見る」という評価データでは,基本感情が「落胆」であったが,「不満」という補足感情を判断することにより,話者の感情をより詳細に表現しているといえる.このように,基本感情のみでは,10種類の感情による表現であったものが,補足感情を用いることでより多様な感情を表現することができた.また,正答率は,両者共に76.5{\kern0pt}%であり,非常識ではない解を正答率に含めるとそれぞれ89.0{\kern0pt}%,88.0{\kern0pt}%と非常に高い結果であり,本システムは有効であると言える.
\section{おわりに}
本稿では,人間がコミュニケーションの中で自然に行っている常識的な判断の一つである感情に着目し,「主体語」,「修飾語」,「目的語」,「変化語」の4要素から成るユーザの発話文章から,そのユーザの感情を基本感情10種類,補足感情24種類で判断する手法を提案した.また,実システムによりその性能を評価した結果,常識的な解の正答率は76.5{\kern0pt}%であり,非常識ではない解を正答率に含めると88.0{\kern0pt}%となった.このことから,本研究で構築した感情判断システムは非常に高い性能であり,提案した処理手法は有効であると言える.\vspace{0.5\baselineskip}\acknowledgment本研究は,文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\vspace{0.5\baselineskip}\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose:02}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock\Jem{信学技報,NLC2001-93},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{Horiguchi,Tsuchiya,Kojima,Watabe,\BBA\Kawaoka}{Horiguchiet~al.}{2002}]{horiguchi:02}Horiguchi,A.,Tsuchiya,S.,Kojima,K.,Watabe,H.,\BBA\Kawaoka,T.\BBOP2002\BBCP.\newblock\BBOQConstructingaSensuousJudgmentSystemBasedonConceptualProcessing\BBCQ\\newblock{\BemComputationalLinguisticsandIntelligentTextProcessing(Proc.ofCICLing-2002)},\mbox{\BPGS\86--95}.\bibitem[\protect\BCAY{齊藤}{齊藤}{1986}]{saitou:86}齊藤勇\BBOP1986\BBCP.\newblock\Jem{感情と人間関係の心理}.\newblock川島書店.\bibitem[\protect\BCAY{福井}{福井}{1990}]{hukui:90}福井康之\BBOP1990\BBCP.\newblock\Jem{感情の心理学}.\newblock川島書店.\bibitem[\protect\BCAY{九鬼}{九鬼}{2001}]{iki:91}九鬼周造\BBOP2001\BBCP.\newblock\Jem{「いき」の構造}.\newblock岩波書店.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法−属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{米谷\JBA渡部\JBA河岡}{米谷\Jetal}{2003}]{kometani:03}米谷彩\JBA渡部広一\JBA河岡司\BBOP2003\BBCP.\newblock\JBOQ常識的知覚判断システムの構築\JBCQ\\newblock\Jem{人工知能学会全国大会,3C1-07}.\bibitem[\protect\BCAY{目良\JBA市村\JBA相沢\JBA山下}{目良\Jetal}{2002}]{mera:02}目良和也\JBA市村匠\JBA相沢輝昭\JBA山下利之\BBOP2002\BBCP.\newblock\JBOQ語の好感度に基づく自然言語発話からの情緒生起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(3),\mbox{\BPGS\186--195}.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao:96}長尾真\BBOP1996\BBCP.\newblock\Jem{岩波講座ソフトウェア科学15自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{ntt:97}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{Okada}{Okada}{1996}]{okada:96}Okada,N.\BBOP1996\BBCP.\newblock\BBOQIntegratingVision,MotionandLanguagethroughMind\BBCQ\\newblock{\BemArtificialIntelligenceReview},{\Bbf10},\mbox{\BPGS\209--234}.\bibitem[\protect\BCAY{Okada\BBA\Endo}{Okada\BBA\Endo}{1992}]{okada:92}Okada,N.\BBACOMMA\\BBA\Endo,T.\BBOP1992\BBCP.\newblock\BBOQStoryGenerationBasedonDynamicsoftheMind\BBCQ\\newblock{\BemComputationalIntelligence},{\Bbf8}(1),\mbox{\BPGS\123--160}.\bibitem[\protect\BCAY{リタ・カーター}{リタ・カーター}{1999}]{rita:99}リタ・カーター\BBOP1999\BBCP.\newblock\Jem{脳と心の地形図}.\newblock原書房.\bibitem[\protect\BCAY{スーザン・グリーンフィールド}{スーザン・グリーンフィールド}{2001}]{suzan:01}スーザン・グリーンフィールド\BBOP2001\BBCP.\newblock\Jem{脳の探究}.\newblock無名舎.\bibitem[\protect\BCAY{徳久\JBA岡田}{徳久\JBA岡田}{1998}]{tokuhisa:98}徳久雅人\JBA岡田直之\BBOP1998\BBCP.\newblock\JBOQパターン理解的手法に基づく知能エージェントの情緒生起\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(8),\mbox{\BPGS\2440--2451}.\bibitem[\protect\BCAY{土屋\JBA奥村\JBA渡部\JBA河岡}{土屋\Jetal}{2005}]{tsuchiya:05}土屋誠司\JBA奥村紀之\JBA渡部広一\JBA河岡司\BBOP2005\BBCP.\newblock\JBOQ連想メカニズムを用いた時間判断手法の提案\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\111--129}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{watabe:04}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),\mbox{\BPGS\73--82}.\end{thebibliography}\vspace{\baselineskip}\begin{biography}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.工学博士.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.2006年同大学院工学研究科知識工学専攻博士前期課程修了.同年,大学院工学研究科知識工学専攻博士後期課程入学.主に,知識情報処理の研究に従事.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\vspace{\baselineskip}\biodate\end{document}
| |
V10N01-01
|
\section{はじめに}
本研究の目的は,情報抽出のサブタスクである固有表現抽出(NamedEntityTask)の難易度の指標を定義することである.情報抽出とは,与えられた文章の集合から,「人事異動」や「会社合併」など,特定の出来事に関する情報を抜き出し,データベースなど予め定められた形式に変換して格納することであり,米国のワークショップMessageUnderstandingConference(MUC)でタスクの定義・評価が行われてきた.固有表現(NamedEntity)とは,情報抽出の要素となる表現のことである.固有表現抽出(NamedEntityTask)はMUC-6\cite{MUC6}において初めて定義され,組織名(Organization),人名(Person),地名(Location),日付表現(Date),時間表現(Time),金額表現(Money),割合表現(Percent)という7種類の表現が抽出すべき対象とされた.これらは,三つに分類されており,前の三つがentitynames(ENAMEX),日付表現・時間表現がtemporalexpressions(TIMEX),金額表現・割合表現がnumberexpressions(NUMEX)となっている.1999年に開かれたIREXワークショップ\cite{IREXproc}では,MUC-6で定義された7つに加えて製品名や法律名などを含む固有物名(Artifact)というクラスが抽出対象として加えられた.固有表現抽出システムの性能は,再現率(Recall)や適合率(Precision),そしてその両者の調和平均であるF-measureといった客観的な指標\footnotemark{}によって評価されてきた.\footnotetext{再現率は,正解データ中の固有表現の数(G)のうち,正しく認識された固有表現表現の数(C)がどれだけであったかを示す.適合率は,固有表現とみなされたものの数(S)のうち,正しく認識された固有表現の数(C)がどれだけであったかを示す.F-measureは,両者の調和平均である.それぞれの評価基準を式で示せば以下のようになる.\begin{quote}再現率(R)=C/G\\適合率(P)=C/S\\F-measure=2PR/(P+R)\end{quote}}しかし,単一システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.例えば,あるコーパスについて,あるシステムが固有表現抽出を行い,それらの結果をある指標で評価したとする.得られた評価結果が良いときに,そのシステムが良いシステムなのか,あるいはコーパスが易しいのかを判断することはできない.評価コンテストを行い,単一のシステムでなく複数のシステムが同一のコーパスについて固有表現抽出を行い,それらの結果を同一の指標で評価することで,システムを評価する基準を作成することはできる.しかしながら,異なるコーパスについて,複数の固有表現抽出システムの評価結果を蓄積していくことは大きなコストがかかる.また,継続して評価を行なっていったとしても,評価に参加するシステムは同一であるとは限らない.異なるコーパスについて,個別のシステムとは独立に固有表現抽出の難易度を測る指標があれば,コーパス間の評価,また固有表現抽出システム間の評価がより容易になると考えられる.本研究は,このような指標を定義することを目指すものである.\subsection{固有表現抽出の難易度における前提}異なる分野における情報抽出タスクの難易度を比較することは,複数の分野に適用可能な情報抽出システムを作成するためにも有用であり,実際複数のコーパスに対して情報抽出タスクの難易度を推定する研究が行われてきている.Baggaet.al~\cite{bagga:97}は,MUCで用いられたテストコーパスから意味ネットワークを作成し,それを用いてMUCに参加した情報抽出システムの性能を評価している.固有表現抽出タスクに関しては,Palmeret.al~\cite{palmer:anlp97}がMultilingualEntityTask~\cite{MUC7}で用いられた6カ国語のテストコーパスから,各言語における固有表現抽出技術の性能の下限を推定している.本研究では,固有表現抽出の難易度を,テストコーパス内に現れる固有表現,またはその周囲の表現に基づいて推定する指標を提案する.指標の定義は,「表現の多様性が抽出を難しくする」という考えに基づいている.文章中の固有表現を正しく認識するために必要な知識の量に着目すると,あるクラスに含まれる固有表現の種類が多ければ多いほど,また固有表現の前後の表現の多様性が大きいほど,固有表現を認識するために要求される知識の量は大きくなると考えられる.あらゆるコーパスを統一的に評価できるような,固有表現抽出の真の難易度は,現在存在しないので,今回提案した難易度の指標がどれほど真の難易度に近いのかを評価することはできない.本論文では,先に述べた,「複数のシステムが同一のコーパスについて固有表現抽出を行った結果の評価」を真の難易度の近似と見なし,これと提案した指標とを比較することによって,指標の評価を行うことにする.具体的には,1999年に開かれたIREXワークショップ\cite{IREXproc}で行われた固有表現抽出課題のテストコーパスについて提案した指標の値を求め,それらとIREXワークショップに参加した全システムの結果の平均値との相関を調べ,指標の結果の有効性を検証する.このような指標の評価方法を行うためには,できるだけ性質の異なる数多くのシステムによる結果を得る必要がある.IREXワークショップでは,15システムが参加しており,システムの種類も,明示的なパタンを用いたものやパタンを用いず機械学習を行ったもの,またパタンと機械学習をともに用いたものなどがあり,機械学習の手法も最大エントロピーやHMM,決定木,判別分析などいくつかバラエティがあるので,これらのシステムの結果を難易度を示す指標の評価に用いることには一定の妥当性があると考えている.\subsection{\label{section:IREX_NE}IREXワークショップの固有表現抽出課題}\begin{table}[t]\small\caption{\label{table:preliminary_comparison}IREX固有表現抽出のテストコーパス}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}&予備試験&総合課題&限定課題\\\hline記事数&36&72&20\\単語数&11173&21321&4892\\文字数&20712&39205&8990\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出課題では,予備試験を含め,3種類のテストコーパスが評価に用いられた.表\ref{table:preliminary_comparison}に各々の記事数,単語数,文字数を示す.単語の切り分けにはJUMAN3.3~\cite{JUMAN33}を用い,単語の切り分けが固有表現の開始位置・終了位置と異なる場合には,その位置でさらに単語を分割した.IREXワークショップに参加した固有表現抽出システムの性能評価はF-measureで示されている.表\ref{table:F-measures}に各課題におけるF-measureの値を示す.本試験の評価値は,IREXワークショップに参加した全15システムの平均値である.一方,予備試験においては,全システムの評価は利用できなかったため,一つのシステム\cite{nobata:irex1}の出力結果を評価した値を用いている.このシステムは,決定木を生成するプログラム\cite{quinlan:93}を用いた固有表現抽出システム\cite{sekine:wvlc98}をIREXワークショップに向けて拡張したものである.IREXでは,8つの固有表現クラスが定義された.表\ref{table:F-measures}から,最初の4つの固有表現クラス(組織名,人名,地名,固有物名)は残り4つの固有表現クラス(日付表現,時間表現,金額表現,割合表現)よりも難しかったことが分かる.以下では,両者を区別して議論したいときには,MUCでの用語に基づき前者の4クラスを「ENAMEXグループ」と呼び,後者の4クラスを「TIMEX-NUMEXグループ」と呼ぶことにする.\begin{table}[t]\small\caption{\label{table:F-measures}IREX固有表現抽出の性能評価}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&55.6&57.3&55.2\\\hline人名&71.3&67.8&68.8\\\hline地名&65.7&69.8&68.1\\\hline固有物名&18.8&25.5&57.9\\\hline日付表現&83.6&86.5&89.4\\\hline時間表現&69.4&83.0&89.8\\\hline金額表現&90.9&86.4&91.4\\\hline割合表現&100.0&86.4&---\\\hline\hline全表現&66.5&69.5&71.7\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の概要}以下,本稿では,まず固有表現内の文字列に基いて,固有表現抽出の難易度を示す指標を提案する.ここで提案する指標は2種類ある.\begin{itemize}\itemFrequencyoftokens:各固有表現クラスの頻度と異なり数を用いた指標(\ref{section:FT}節)\itemTokenindex:固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度を用いた指標(\ref{section:TI}節)\end{itemize}これらの指標の値を示し,それらと実際のシステムの評価結果との相関を調べた結果について述べる.次に,固有表現の周囲の文字列に基いた指標についても,固有表現内の文字列に基いた指標と同様に2種類の指標を定義し,それらの値とシステムの評価結果との相関の度合を示す(\ref{section:CW}節).
\section{\label{section:FT}Frequencyoftokens}
本節では,固有表現クラスに含まれる文字列の頻度と異なり数とを用いて,固有表現抽出の難易度を示す指標について述べる.このような指標は,ある固有表現クラス内において,異なる文字列が数多く現れるならば,そのクラスの固有表現を認識することは難しくなる,という仮定に基づいている.頻度や異なり数を考慮する文字列の単位には,固有表現そのもの,単語,また単一の文字をとることができる.\subsection{\label{subsec:FE}固有表現を単位とする指標}まず,固有表現そのものを単位として分析を行なう.表\ref{table:FE_first}に,各クラスがもつ固有表現の異なり数を示す.予備試験と本試験の総合課題では,全表現の異なり数が各クラスの異なり数の合計よりも少ない.これは,複数のクラスに分類される固有表現がそれぞれ3個ずつあったからである.また,限定課題には割合表現が現われなかったので,数値が入っていない.\begin{table}[t]\small\caption{\label{table:FE_first}各クラスの固有表現の異なり数}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&131&187&48\\\hline人名&113&217&71\\\hline地名&89&191&78\\\hline固有物名&31&39&9\\\hline日付表現&71&126&49\\\hline時間表現&16&32&15\\\hline金額表現&28&13&7\\\hline割合表現&6&16&-\\\hline\hline全表現&482(485)&818(821)&277\\\hline\end{tabular}\end{center}\end{table}異なり数を指標として用いるには,コーパスサイズの影響を除く必要がある.最初に定義する指標は,各クラスについて固有表現の異なり数を出現頻度で正規化したものである.以下これをFE(FrequencyofEntities)と呼ぶ.FEの定義を式で示せば式\ref{eq:FE}となる.\(D_E\)は各クラスに含まれる固有表現の異なり数,\(N_E\)は各クラス内の固有表現の総出現数である.FEは,あるクラス内の固有表現を抽出することが難しいときに,指標の値が大きくなることを意図して定義されている.\begin{equation}\label{eq:FE}\mbox{\itFE}=\frac{D_E}{N_E}\end{equation}FEの値を求める際には,文章中に現れる数字を全て文字``#''で置き換えた.これは,各数字を異なる表現とみなすよりも同一の表現とみなす方が固有表現の多様性を捉える際にはより適切であるという判断による.数字を同一の文字とみなすことによってTIMEX-NUMEXグループに含まれる固有表現クラスのFEの値は小さくなるが,これはTIMEX-NUMEXグループの認識精度が非常に高いという結果に合致する.FEの値を表\ref{table:FE_second}に示す.\begin{table}[t]\small\caption{\label{table:FE_second}各クラスのFEの値}\begin{center}\begin{tabular}{|l||l|l|l|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&0.61&0.48&0.65\\&(=131/214)&(=187/389)&(=48/74)\\\hline人名&0.67&0.61&0.73\\&(=113/169)&(=217/355)&(=71/97)\\\hline地名&0.46&0.46&0.75\\&(=89/192)&(=190/416)&(=78/106)\\\hline固有物名&0.71&0.80&0.69\\&(=30/42)&(=39/49)&(=9/13)\\\hline日付表現&0.33&0.18&0.24\\&(=36/110)&(=51/277)&(=17/72)\\\hline時間表現&0.46&0.27&0.53\\&(=11/24)&(=16/59)&(=10/19)\\\hline金額表現&0.09&0.13&0.13\\&(=3/33)&(=2/15)&(=1/8)\\\hline割合表現&0.50&0.29&---\\&(=3/6)&(=6/21)&---\\\hline\hline全表現&0.53&0.45&0.60\\&(=415/790)&(=706/1581)&(=235/389)\\\hline\end{tabular}\end{center}\end{table}\subsection{\label{subsec:FW}単語,文字単位の指標}前節では固有表現そのものを指標を計算する単位として用いたが,単語や文字を単位としても同様に指標を定義することができる.固有表現よりも短かく頻度の大きい単語や文字を単位にすることで,よりコーパスサイズの影響を受けにくい指標が得られると期待される.以下,単語単位の指標をFW,文字単位の指標をFCと呼ぶ.FW,FCの定義はFEと同様に,それぞれ式\ref{eq:FW},式\ref{eq:FC}によって表わせる.\begin{eqnarray}\label{eq:FW}\mbox{\itFW}&=&\frac{D_W}{N_W}\\&\mbox{但し:}&\nonumber\\&D_W&\mbox{各固有表現クラスに含まれる単語の異なり数}\nonumber\\&N_W&\mbox{各固有表現クラスに含まれる単語の総出現数}\nonumber\end{eqnarray}\begin{eqnarray}\label{eq:FC}\mbox{\itFC}&=&\frac{D_C}{N_C}\\&\mbox{但し:}&\nonumber\\&D_C&\mbox{各固有表現クラスに含まれる文字の異なり数}\nonumber\\&N_C&\mbox{各固有表現クラスに含まれる文字の総出現数}\nonumber\end{eqnarray}FEと同様に,FW・FCにおいても数字は同一の文字とみなして値を求めた.FWとFCの値の傾向は似通っているので,ここではFCの値のみを示す(表\ref{table:FC}).FCではクラス間の差がFEよりも際だっており,特にTIMEX-NUMEXグループ内のクラスに対するFCの値はきわめて小さい.\begin{table}[t]\small\caption{\label{table:FC}各クラスのFCの値}\begin{center}\begin{tabular}{|l||l|l|l|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&0.29&0.20&0.38\\&(=258/883)&(=365/1792)&(=139/365)\\\hline人名&0.39&0.26&0.48\\&(=222/575)&(=319/1228)&(=148/311)\\\hline地名&0.30&0.19&0.34\\&(=186/618)&(=284/1491)&(=155/462)\\\hline固有物名&0.53&0.50&0.58\\&(=131/245)&(=175/347)&(=34/59)\\\hline日付表現&0.16&0.07&0.07\\&(=44/282)&(=54/737)&(=15/226)\\\hline時間表現&0.18&0.09&0.14\\&(=12/66)&(=16/182)&(=10/71)\\\hline金額表現&0.06&0.09&0.13\\&(=4/72)&(=3/34)&(=2/16)\\\hline割合表現&0.38&0.10&---\\&(=5/13)&(=7/58)&---\\\hline\hline全表現&0.20&0.12&0.24\\&(=555/2754)&(=717/5869)&(=355/1510)\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の有効性}指標の有効性を確かめるために,各指標がシステムの評価結果とどの程度相関しているかを調べる.まず,各固有表現クラスに対するFE・FW・FCの値とF-measureとの散布図を予備試験(図\ref{figure:scatter_diagram_dryrun}),本試験の総合課題(図\ref{figure:scatter_diagram_general}),限定課題(図\ref{figure:scatter_diagram_arrest})それぞれについて示す.どの図においても,縦軸に指標の値,横軸にF-measureの値をとっている.各クラスに対応するF-measureの値には,以下のような,クラス名を示す英字3文字のラベルを付した:\begin{quote}組織名(ORG),人名(PRS),地名(LOC),固有物名(ART),\\日付表現(DAT),時間表現(TIM),金額表現(MON),割合表現(PRC)\end{quote}予備試験と総合課題においては,TIMEX-NUMEXグループが右下にまとまり,固有物名を除いたENAMEXグループがややその左上に位置する.その左上に位置しているのは,固有物名である.限定課題においては,固有物名は他のENAMEXグループに属するクラスと同様の位置にある.F-measureの値においても,指標の値においても,値の傾向としてはほぼ同様であるといえる.各クラスごとにFE・FW・FCの値とF-measureとの相関係数を求めた結果を表\ref{table:FEWC_CC}に示す.これらの指標は,固有表現の抽出が難しいときに値が大きくなることを意図して定義されたものである.即ち,F-measureの値との負の相関が高くなることを意図して作成された指標である.\begin{table}[t]\small\caption{\label{table:FEWC_CC}指標とF-measureとの相関}\begin{center}\begin{tabular}{|l||r|r|r|}\hline課題&FE&FW&FC\\\hline\hline予備試験&-0.66&-0.63&-0.61\\\hline本試験(総合)&-0.91&-0.92&-0.97\\\hline本試験(限定)&-0.80&-0.87&-0.89\\\hline\end{tabular}\end{center}\end{table}表\ref{table:FEWC_CC}から,FW・FCは予備試験のコーパスにおいてはFEよりも相関が弱いが,本試験のコーパスにおいては総合・限定課題どちらにおいてもFEより相関が強いことが分かる.予備試験に対するシステムの評価結果は1つのシステムによるものであることを考慮すると,本試験の二つの課題に対して相関が強いほうが指標としてより信頼できる.本試験のコーパスに対する結果から,固有表現よりも単語の方が,単語よりも文字の方が指標の値を求める単位としては安定しているといえる.\begin{figure}[hb]\small\begin{center}\epsfile{file=dryrun_scatter_diagram.eps,scale=0.9}\end{center}\caption{\label{figure:scatter_diagram_dryrun}指標とF-measureとの散布図(予備試験)}\end{figure}\begin{figure}[htp]\small\begin{center}\epsfile{file=general_scatter_diagram.eps,scale=0.9}\end{center}\caption{\label{figure:scatter_diagram_general}指標とF-measureとの散布図(総合課題)}\begin{center}\epsfile{file=arrest_scatter_diagram.eps,scale=0.9}\end{center}\caption{\label{figure:scatter_diagram_arrest}指標とF-measureとの散布図(限定課題)}\end{figure}\newpage
\section{\label{section:TI}Tokenindex}
本節では,固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度との関係に基いて固有表現抽出の難易度を示すことを考える.これは,あるクラスに相対的に関連の強い文字列が多いほど,そのクラスの固有表現を抽出することはより易しくなるという仮定に基づいている.先に定義した指標では,クラス内の頻度のみを用いており,個々の固有表現内の文字列については考慮していなかった.本節で考える指標では,ある文字列の固有表現クラスとの関連の強さを,その文字列のクラス内での頻度とコーパス全体の頻度の双方を用いて定義する.つまりある文字列の頻度が高く,かつそのほとんどが特定の固有表現クラス内に限られるならば,その文字列はそのクラスと関連が強くなり,そのような文字列が多いほどそのクラスにおける固有表現の抽出は易しくなるという仮定に基づく.\subsection{\label{subsec:CI}文字単位の指標}以下では,文字を単位として指標を定義する.文字を単位として選んだのは,先に定義された指標の中では,文字を単位とした指標が最もシステムの評価結果との相関が強かったためである.まず,各文字ごとの指標CI$_c$を定義する.文字\(c\)のクラス\(L\)に対するCI$_c$の値は,式\ref{eq:character_index_each}によって与えられる.\(n_L(c)\)は文字\(c\)のクラス\(L\)における頻度,\(n_{(c)}\)はコーパス全体での頻度を現わす.\(N_{C^L}\)はクラス\(L\)内の総文字数である.つまり,右辺第1項\(\frac{n_L(c)}{N_{C^L}}\)はクラス\(L\)での文字\(c\)の相対頻度を示し,第2項\(\frac{n_L(c)}{n(c)}\)は文字\(c\)がクラス\(L\)にどれだけ偏って現れるかを示しているので,CI\(_c\)は文字\(c\)のクラス\(L\)における偏りを相対頻度で正規化したものとなる.\begin{equation}\label{eq:character_index_each}\mbox{CI$_c$}=\frac{n_L(c)}{N_{C^L}}\frac{n_L(c)}{n(c)}\end{equation}各固有表現クラスに現れる全文字のCI$_c$の値を合計した値を,新たな指標CI(CharacterIndex)として用いることにする.\begin{equation}\label{eq:character_index}\mbox{CI}=\sum_{c\inC^L}\mbox{CI$_c$}\end{equation}この指標は,固有表現の抽出が易しいときに値が大きくなることを意図して定義されたものである.従って,システムの評価結果との正の相関が強ければ,指標として優れていることになる.CI\(_c\)は,クラス\(L\)の表現に文字\(c\)が生じる条件付き確率\(p(c\vertL)\)と,文字cがあったときにそれがクラス\(L\)の表現の一部である条件付き確率\(p(L\vertc)\)との積を推定する式となっている.\[\mbox{CI$_c$}=p(c\vertL)\cdotp(L\vertc)\]CI\(_c\)は,文字\(c\)の出現確率\(p(c)\),クラス\(L\)内の文字が出現する確率\(p(L)\),文字\(c\)とクラス\(L\)の同時確率\(p(c,L)\)を用いて次のように変形できる.\[\mbox{CI$_c$}=\frac{p(c,L)^2}{p(c)\cdotp(L)}\]これは,文字\(c\)とクラス\(L\)に対する相互情報量に基づく尺度(式\ref{eq:mutual_information})に類似する.\begin{equation}\label{eq:mutual_information}\mbox{MI$_c$}=\log_2\left(\frac{p(c,L)}{p(c)\cdotp(L)}\right)\end{equation}異なる点は,\(log\)を取っていないことと,同時確率\(p(c,L)\)が二乗になっていることである.この違いによって,文字\(c\)がクラス\(L\)にのみ出現する場合,相互情報量に基づく尺度では,その文字の頻度に関わらず一定値になるのに対し,CI\(c\)の値では,さらにその文字がクラス\(L\)の全表現のうちどのくらいの割合を占めるかを指標として含むことができる.また,CI\(_c\)の定義は,CI\(_c\)の総和としてCIを求める際に必要な正規化となっており,クラス\(L\)内の全ての文字が\(L\)にのみ現れるならば,CIは最大値1をとる.これに対し,相互情報量に基づく尺度では,そのクラス内での文字の分布により最大値は一定でない.\begin{table}[tb]\small\caption{\label{table:CI}各クラスのCIの値}\begin{center}\begin{tabular}{|l||l|l|l|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&0.34&0.31&0.45\\\hline人名&0.51&0.45&0.59\\\hline地名&0.38&0.40&0.56\\\hline固有物名&0.21&0.15&0.27\\\hline日付表現&0.39&0.48&0.60\\\hline時間表現&0.36&0.40&0.47\\\hline金額表現&0.47&0.51&0.51\\\hline割合表現&0.33&0.27&---\\\hline\hline全表現&0.57&0.58&0.71\\\hline\end{tabular}\end{center}\end{table}\subsection{CIの有効性}表\ref{table:index_CC_CI}に,CIとシステムの評価結果との相関係数の値を示す.CIとシステムの評価との相関は先に定義した指標のそれと比べると低く,指標としては十分でないことを示している.相関が低い理由の一つとしては,CIの値が,各固有表現クラスに含まれる全文字のCI$_c$の値を合計した値であることが考えられる.CI$_c$の値が低い文字はそのクラスに含まれる固有表現を抽出するのに有用であるとはいえないので,そのような文字はCIを求める際に取り除く必要がある.CI$_c$の値に対する閾値を設け,閾値以上の値についてのみCIの値に加えることで,CIの値をより指標として優れたものにできると考えられる.図\ref{figure:CI}は,CI$_c$に対する閾値と相関係数との関係を示すグラフである.CI$_c$に対する閾値を示す軸には対数軸を取っている.グラフから,3種類のテストコーパス全てについて相関係数の値は一旦上昇し,その後低下していることが分かる.各々の相関係数の最大値と,それに対応する閾値は表\ref{table:index_CC_CI}に示してある.これらの値は前節で提示した指標の相関係数と同程度になっている.もっとも,相関係数の最大値を与える閾値は,システムの評価結果を用いて初めて明らかになるので,新しいタスクのテストコーパスにおいては,事前に閾値を何らかの方法で決定する必要がある.新しいタスクにおいて閾値を求める方法の一つとしては,予め閾値を求めるために本当に評価したいコーパスと同じ種類のデータを用意し,同じ固有表現クラスの定義を用いて複数の参加システムについて実験をしておき,そこで得られた閾値を,本当に評価したいコーパスについて用いることが考えられる.例えば,性質の似た2種類のコーパスを用いて予備試験と本試験を行い,それぞれについて複数システムの評価結果を得ることができれば,予備試験の結果から閾値を得て本試験に用いることができる.今回の実験においては,予備試験に対して1システムの結果のみを用いているが,それでもその結果から得られた閾値を本試験のコーパスに対して用いるならば,表\ref{table:index_CC_CI}の最後の行に示すように,最大値に近い相関係数の値が得られるので,この方法によって妥当な閾値が得られたといえる.CIの値の振舞いをより詳しく調べるために,固有表現クラスをENAMEXグループとTIMEX-NUMEXグループの二つに分け,各々についてCI$_c$の値が大きい順に文字を並べてCI$_c$の値の変化を示したのが図\ref{figure:CI}である.TIMEX-NUMEXグループにおいてはCI$_c$の値が他に比べて極立って大きい文字がいくつか存在するのに対し,ENAMEXグループにはそのような文字は存在せず,なだらかにCI$_c$の値が変化していくことがグラフから見てとれる.このことは,ENAMEXグループの固有表現には多くの文字がほぼ同程度に関連しているが,極立って強い関連を持つものはなく,固有表現を抽出する際にはほぼ全ての文字を考慮する必要があること,一方NUMEX-TIMEXグループの固有表現には,少数の文字が非常に強く関連していることを示唆している.\begin{table}[t]\small\caption{\label{table:index_CC_CI}CIとF-measureとの相関}\begin{center}\begin{tabular}{|l|rr|rr|rr|}\hlineCIに対する条件&\multicolumn{2}{c|}{予備試験}&\multicolumn{2}{c|}{本試験(総合)}&\multicolumn{2}{c|}{本試験(限定)}\\\hline\hline閾値なし&0.62&&0.75&&0.49&\\\hline最大値(CI$_c$への閾値)&0.86&(0.005)&0.88&(0.004)&0.96&(0.009)\\\hline予備試験の閾値に対する値&\multicolumn{2}{c|}{-}&0.86&(0.005)&0.95&(0.005)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tb]\small\begin{center}\epsfile{file=CI_graph.eps,scale=0.8}\end{center}\caption{\label{figure:CI}CIとF-measureとの相関の変化}\end{figure}\subsection{CI$_c$による文字の重要度}本節では,CI$_c$の値に基づいて,固有表現を抽出する際に有用と思われる文字を具体的に挙げて述べる.表\ref{table:characters_with_CIc_numex}にTIMEX-NUMEXグループにおいてCI$_c$の値が大きい文字を示す.対象課題は本試験の総合課題である.「#」は数字全体を示している.前節で見たように,TIMEX-NUMEXグループには,CI$_c$の値が非常に大きい文字がいくつか存在する.これらの文字がそのクラスに属する表現と強く結びついていることは人間の直観から見ても妥当だといえる.実際,金額表現クラスにおける「円」,割合表現クラスにおける「%」のCI$_c$の値は非常に大きく,各クラスに対するCIの値の半分以上を占めている.一方,コーパス中の数字の頻度は非常に大きいが,TIMEX-NUMEXグループ内の各クラスに同様に現れるため,日付表現以外ではCI$_c$の値は小さい.\begin{table}[tb]\small\caption{\label{table:characters_with_CIc_numex}TIMEX-NUMEXグループ内でCI$_c$の値が大きい文字}\begin{center}\begin{tabular}{|l||r|r|l|}\hlineクラス&CI$_c$&\(n_L(c)\)&文字\\\hline\hline日付表現&0.1113&277&#\\\cline{2-4}&0.1071&143&日\\\cline{2-4}&0.0931&75&月\\\cline{2-4}&0.0893&98&年\\\cline{2-4}&0.0421&31&昨\\\hline\hline時間表現&0.1868&34&午\\\cline{2-4}&0.0586&32&時\\\cline{2-4}&0.0368&23&後\\\cline{2-4}&0.0352&8&夜\\\cline{2-4}&0.0330&6&夕\\\hline\hline金額表現&0.4412&15&円\\\cline{2-4}&0.0588&2&銭\\\cline{2-4}&0.0091&17&#\\\hline\hline割合表現&0.1379&8&%\\\cline{2-4}&0.0616&5&倍\\\cline{2-4}&0.0276&4&半\\\cline{2-4}&0.0212&4&割\\\cline{2-4}&0.0134&27&#\\\hline\end{tabular}\end{center}\end{table}次に,ENAMEXグループにおける各文字のCI$_c$の値の傾向を調べる.表\ref{table:characters_with_CIc_enamex}に,ENAMEXグループにおいてCI$_c$の値が大きい文字を示す.対象課題は同様に本試験の総合課題である.これを見ると,人名以外の3つのクラスにおいては,接尾辞として用いられる文字においてCI$_c$の値が比較的大きいことが分かる.これをより明確に示すために,ENAMEXグループにおいてCI$_c$を文字bi-gramについて求めた結果を表\ref{table:characters_with_CIc_bigram_enamex}に示す.{\tt[BOE]}は固有表現の開始,{\tt[EOE]}は終了を示す.文字bi-gramに対する結果からは,組織名クラスにおける「党」や「銀」,固有物名における「法」,地名における「市」や「国」など,いくつかの接尾辞に対して高いCI$_c$の値が得られた.これらの接尾辞が,特定の固有表現クラスに属する表現と強く結びついていることは人間の直観から見て妥当だといえる.今回の実験では,固有表現中の先頭にあるか末尾にあるかといった位置の情報は用いなかったが,このような位置情報を取り入れることで,指標の値から固有表現抽出に必要な知識の一部をより効率良く得ることができると考えられる.\begin{table}[htbp]\small\caption{\label{table:characters_with_CIc_enamex}ENAMEXグループ内でCI$_c$の値が大きい文字}\begin{center}\begin{tabular}{|l|c|r|l|}\hlineクラス&CI$_c$&\(n_L(c)\)&文字\\\hline\hline組織名&0.0177&41&銀\\\cline{2-4}&0.0159&43&党\\\cline{2-4}&0.0108&22&庁\\\cline{2-4}&0.0106&19&衆\\\cline{2-4}&0.0087&22&A\\\hline\hline人名&0.0200&34&原\\\cline{2-4}&0.0172&35&田\\\cline{2-4}&0.0155&19&郎\\\cline{2-4}&0.0126&18&藤\\\cline{2-4}&0.0109&21&山\\\hline\hline地名&0.0323&51&米\\\cline{2-4}&0.0161&36&市\\\cline{2-4}&0.0151&30&京\\\cline{2-4}&0.0125&24&ボ\\\cline{2-4}&0.0124&33&東\\\hline\hline固有物名&0.0206&20&法\\\cline{2-4}&0.0080&6&商\\\cline{2-4}&0.0058&2&仙\\\cline{2-4}&0.0043&3&賞\\\cline{2-4}&0.0038&2&鳳\\\hline\end{tabular}\end{center}\caption{\label{table:characters_with_CIc_bigram_enamex}ENAMEXグループ内でCI$_c$の値が大きい文字bi-gram}\begin{center}\begin{tabular}{|l|c|r|l|}\hlineクラス&CI$_c$&\(n_L(c)\)&文字bi-gram\\\hline\hline組織名&0.0125&39&党{\tt[EOE]}\\\cline{2-4}&0.0119&27&長銀\\\cline{2-4}&0.0111&26&銀{\tt[EOE]}\\\cline{2-4}&0.0110&24&自民\\\cline{2-4}&0.0101&22&民党\\\hline\hline人名&0.0126&20&上原\\\cline{2-4}&0.0120&19&郎{\tt[EOE]}\\\cline{2-4}&0.0107&17&原{\tt[EOE]}\\\cline{2-4}&0.0074&24&{\tt[BOE]}上\\\cline{2-4}&0.0069&11&佐藤\\\hline\hline固有物名&0.0146&14&法{\tt[EOE]}\\\cline{2-4}&0.0130&6&商法\\\cline{2-4}&0.0057&5&{\tt[BOE]}商\\\cline{2-4}&0.0057&3&ドラ\\\cline{2-4}&0.0051&2&鳳仙\\\hline\hline地名&0.0252&49&{\tt[BOE]}米\\\cline{2-4}&0.0163&31&米{\tt[EOE]}\\\cline{2-4}&0.0139&46&{\tt[BOE]}日\\\cline{2-4}&0.0136&36&本{\tt[EOE]}\\\cline{2-4}&0.0121&36&日本\\\cline{2-4}&0.0110&21&京都\\\cline{2-4}&0.0104&26&市{\tt[EOE]}\\\cline{2-4}&0.0100&44&国{\tt[EOE]}\\\hline\end{tabular}\end{center}\end{table}\newpage
\section{\label{section:CW}固有表現周囲の文字列に基づく指標}
固有表現内の文字列に関する分析だけでは,難易度を調べるのに十分ではない.あるクラス内の固有表現が多様であったとしても,その周囲の表現が定まっているならば,そのクラスの固有表現抽出に関する難易度は小さくなると考えられる.本節では,固有表現の周囲の表現に着目して新たな指標を定義し,その有効性を先に定義した指標と同様に検証する.以下では指標を求める際の文字列の単位としては全て単語を用いている.\subsection{Frequencyofcontextwords}まず,FE・FW・FCと同様に,固有表現の周囲の単語について,その頻度と異なり数に基づいた指標FCW(Frequencyofcontextwords)を定義する.FCWは固有表現クラスの周囲\(m\)語以内の単語を対象とする指標であり,式\ref{eq:FCW}のように定義される.\begin{eqnarray}\label{eq:FCW}\mbox{\itFCW}&=&\frac{DCW_{m}}{NCW_{m}}\\&\mbox{但し:}&\nonumber\\&DCW_{m}&\mbox{各固有表現クラスの周囲\(m\)語以内に現れる単語の異なり数}\nonumber\\&NCW_{m}&\mbox{各固有表現クラスの周囲\(m\)語以内に現れる単語の総出現数}\nonumber\end{eqnarray}周囲の単語とみなす範囲\(m\)を,固有表現の直前または直後1単語から最大4単語まで変化させ,指標の値を求めた.また,固有表現の直前に現われる単語に関する指標{\itFCWpre}と,固有表現の直後に現れる単語に関する指標{\itFCWfol}とをそれぞれ求めた.\begin{eqnarray}\label{eq:FCWpre}\mbox{\itFCWpre}&=&\frac{DCW\mbox{\itpre}_{m}}{NCW\mbox{\itpre}_{m}}\\&\mbox{但し:}&\nonumber\\&DCW\mbox{\itpre}_{m}&\mbox{各固有表現クラスの直前\(m\)語以内に現れる単語の異なり数}\nonumber\\&NCW\mbox{\itpre}_{m}&\mbox{各固有表現クラスに直前\(m\)語以内に現れる単語の総出現数}\nonumber\end{eqnarray}\begin{eqnarray}\label{eq:FCWfol}\mbox{\itFCWfol}&=&\frac{DCW\mbox{\itfol}_{m}}{NCW\mbox{\itfol}_{m}}\\&\mbox{但し:}&\nonumber\\&DCW\mbox{\itfol}_{m}&\mbox{各固有表現クラスの直後\(m\)語以内に現れる単語の異なり数}\nonumber\\&NCW\mbox{\itfol}_{m}&\mbox{各固有表現クラスに直後\(m\)語以内に現れる単語の総出現数}\nonumber\end{eqnarray}指標とシステムの評価結果との相関を表\ref{table:index_CC_FCW}に示す.負の相関が強いほどこの指標の値がシステムの結果とよく合致していることになるが,相関係数の値から,FCWは指標として適切であるとはいえない.\begin{table}[t]\small\caption{\label{table:index_CC_FCW}FCWとF-measureとの相関}\begin{center}\begin{tabular}{|l||rrrr|}\hline&\multicolumn{4}{|c|}{FCWpre:直前の単語}\\\cline{2-5}課題&1語&2語&3語&4語\\\hline\hline予備試験&0.50&0.22&0.20&0.18\\\hline本試験(総合)&0.16&-0.05&0.01&0.01\\\hline本試験(限定)&-0.56&-0.36&0.00&0.16\\\hline\hline&\multicolumn{4}{|c|}{FCWfol:直後の単語}\\\cline{2-5}課題&1語&2語&3語&4語\\\hline\hline予備試験&0.58&0.50&0.49&0.46\\\hline本試験(総合)&0.34&0.43&0.23&0.26\\\hline本試験(限定)&0.06&0.13&0.34&0.49\\\hline\end{tabular}\end{center}\end{table}\subsection{Contextwordindex}\label{section:CWI}固有表現の周囲の単語を用いた新たな指標として,CIと同様にCWI(ContextWordIndex)を定義する.CWIの定義は式\ref{eq:context_word_index}で与えられる.\begin{eqnarray}\label{eq:context_word_index}\mbox{CWI}_w&=&\frac{1}{m}\frac{n_L(w)}{N_{W^L}}\frac{n_L(w)}{n(w)}\nonumber\\\mbox{CWI}&=&\sum_{w\inW^L_{m}}\mbox{CWI}_w\end{eqnarray}\(m\)は固有表現の周囲の単語とみなされる語の範囲を示し,右辺第1項\(\frac{1}{m}\)は,範囲\(m\)を大きくしたときに頻度を補正するための項である.\(W^L_m\)は,固有表現クラス\(L\)の周囲\(m\)語以内に現れる単語の集合を示す.\(n_L(w)\)は,単語\(w\)がクラス\(L\)の固有表現の周囲\(m\)語以内に現れる頻度,\(n_{(w)}\)はコーパス全体での頻度を現わす.\(N_{W^L}\)はクラス\(L\)の固有表現周囲に現れる単語の総数である.すなわち,右辺第2項\(\frac{n_L(w)}{N_{W^L}}\)はクラス\(L\)に対する単語\(w\)の相対頻度を示し,第3項\(\frac{n_L(w)}{n(w)}\)は単語\(w\)がクラス\(L\)に属する表現の周囲\(m\)語以内にどれだけ偏って現れるかを示す.表\ref{table:CWI}に,\(m=1\)のときの各クラスにおけるCWIの値を示す.FCWと同様に,直前の単語に関する指標CWIpreと直後の単語に関する指標CWIfolとを別々に求めた.各課題における指標の値のうち,クラス間で最も大きいものを太字で示した.\begin{table*}[t]\small\caption{\label{table:CWI}各クラスのCWIの値\((m=1)\)}\begin{center}\begin{tabular}{|l||c|c|c|c|c|c|}\hline&\multicolumn{2}{|c|}{予備試験}&\multicolumn{2}{|c|}{総合課題}&\multicolumn{2}{|c|}{限定課題}\\\cline{2-7}クラス&CWIpre&CWIfol&CWIpre&CWIfol&CWIpre&CWIfol\\\hline\hline組織名&0.23&0.30&0.16&0.22&0.15&0.20\\\hline人名&0.18&{\bf0.47}&0.17&{\bf0.53}&0.16&{\bf0.58}\\\hline地名&0.22&0.35&0.20&0.21&0.29&0.27\\\hline固有物名&0.09&0.10&0.05&0.18&0.02&0.56\\\hline日付表現&0.13&0.25&0.15&0.22&0.14&0.33\\\hline時間表現&{\bf0.29}&0.07&{\bf0.29}&0.20&{\bf0.44}&0.40\\\hline金額表現&0.14&0.20&0.25&0.28&0.37&0.45\\\hline割合表現&0.07&0.04&0.12&0.27&---&---\\\hline\hline全表現&0.32&0.41&0.30&0.36&0.34&0.43\\\hline\end{tabular}\end{center}\end{table*}\subsection{CWI$_w$による単語の重要度}固有表現の周囲の単語とみなす範囲を,固有表現の直前または直後1単語から最大4単語まで変化させ,システムの評価結果との相関を調べた.結果を表\ref{table:index_CC_CWI}に示す.ここでは正の相関が強いほどシステムの結果とよく合致していることを表わす.CWIの指標としての有効性はFCWよりは高いが,その他の指標と比べると低い.CWIは固有表現の周囲の表現がもつ情報を十分に利用しているとはいえないが,しかし課題や固有表現クラスによっては,人間の直観に沿うような結果が得られている.\(m=1\)のときの結果から,具体的な単語の例を表\ref{table:timeCWIpres},表\ref{table:personCWIfols},また表\ref{table:arrestCWIfols}に示す.これらの表において単語に添えられている値は,単語ごとの指標CWI$_w$と,あるクラスに属する固有表現の前または後に現われた頻度\(n_L(w)\)である.\begin{table}[tbp]\small\caption{\label{table:index_CC_CWI}CWIとF-measureとの相関}\begin{center}\begin{tabular}{|l||rrrr|}\hline&\multicolumn{4}{|c|}{CWIpre:直前の単語}\\\cline{2-5}課題&\(m=1\)&\(m=2\)&\(m=3\)&\(m=4\)\\\hline\hline予備試験&-0.07&-0.34&-0.53&-0.49\\\hline本試験(総合)&0.66&-0.01&-0.01&-0.04\\\hline本試験(限定)&0.67&0.39&0.46&0.20\\\hline\hline&\multicolumn{4}{|c|}{CWIfol:直後の単語}\\\cline{2-5}課題&\(m=1\)&\(m=2\)&\(m=3\)&\(m=4\)\\\hline\hline予備試験&-0.01&-0.24&-0.07&-0.09\\\hline本試験(総合)&0.14&0.29&0.00&0.02\\\hline本試験(限定)&0.06&0.46&0.36&0.10\\\hline\end{tabular}\end{center}\caption{\label{table:timeCWIpres}総合課題の時間表現に対してCWIpre$_w$の値が大きい単語}\begin{center}\begin{tabular}{|r|r|l|}\hlineCWIpre$_w$&\(n_L(w)\)&単語\\\hline\hline0.1805&35&#日\\\hline0.0920&8&同日\\\hline0.0086&1&#年#月#日\\\hline0.0067&5&同\\\hline0.0057&1&昨年#月#日\\\hline\end{tabular}\end{center}\caption{\label{table:personCWIfols}人名に対してCWIfol$_w$の値が大きい単語}\begin{center}\begin{tabular}{|l||r|r|p{1.5cm}|}\hline課題&CWIfol$_w$&\(n_L(w)\)&単語\\\hline\hline本試験(限定)&0.0471&30&容疑者\\\hline本試験(限定)&0.0407&33&(\\\hline予備試験&0.0406&28&氏\\\hline本試験(総合)&0.0370&54&さん\\\hline本試験(限定)&0.0340&13&さん\\\hline予備試験&0.0228&17&さん\\\hline本試験(総合)&0.0214&29&氏\\\hline本試験(総合)&0.0170&28&】\\\hline本試験(総合)&0.0164&25&被告\\\hline\end{tabular}\end{center}\caption{\label{table:arrestCWIfols}限定課題においてCWIfol$_w$の値が大きい単語}\begin{center}\begin{tabular}{|l||r|r|p{1.5cm}|}\hlineクラス&CWIfol&CWIfol$_w$&単語\\\hline\hline固有物名&0.5640&0.5470&違反\\\hline時間表現&0.4015&0.3876&ごろ\\\hline金額表現&0.4460&0.3750&相当\\\hline\end{tabular}\end{center}\end{table}表\ref{table:CWI}から3種類の課題全てにおいて時間表現クラスは他のクラスよりCWIpreの値が大きいことが分かるが,これは表\ref{table:timeCWIpres}に示すように,時間表現の直前には日付表現がよく現われていることによる.この逆が成り立たないことは,日付表現クラスのCWIfolの値が時間表現のCWIpreの値ほど高くないことから分かる.日付表現クラスは時間表現クラスとともに現れることも多いが,単独で現れることも多いからである.人名クラスについても同様に,どの課題でも他のクラスよりCWIfolの値が大きいことが表\ref{table:CWI}から分かる.表\ref{table:personCWIfols}にCWIfol$_w$の値が大きい単語を示す.どの課題においても敬称や呼称が人名の直後によく現れており,これらの単語は人名を抽出する際に有用であることが分かる.固有物名,金額表現,時間表現クラスはそれぞれ本試験の限定課題においてCWIfolの値が大きい.表\ref{table:arrestCWIfols}に示すように,そのほとんどが特定の一単語がもつCWIfol$_w$の値によるものである.これは,限定課題におけるコーパスが逮捕に関する記事のみから成っており,単語の用いられ方が他の種類の記事に比べてより固定されていることが理由であると考えられる.
\section{個々のシステムとの相関}
\begin{figure}[tb]\begin{center}\epsfile{file=hist_graph_g_in.eps,scale=0.55}\epsfile{file=hist_graph_g_ex.eps,scale=0.55}\end{center}\caption{\label{figure:hist_graphs_g}指標とシステムの評価結果との相関係数(総合課題)}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=hist_graph_a_in.eps,scale=0.55}\epsfile{file=hist_graph_a_ex.eps,scale=0.55}\end{center}\caption{\label{figure:hist_graphs_a}指標とシステムの評価結果との相関係数(限定課題)}\end{figure}IREXワークショップに参加した全システムの性能について,その平均値との相関を調べることによって指標の結果の有効性を検討してきた.本節では,各システムの性能と指標との相関について示す.IREXで行なわれた本試験の総合課題・限定課題それぞれについて,定義した指標と参加した各システムの評価結果との相関係数を調べた結果を図\ref{figure:hist_graphs_g},\ref{figure:hist_graphs_a}に示す.指標の種類はFE,FW,FC,CI,CWIpre,CWIfolの全6種類である.CIについては,図\ref{figure:CI}から得られたしきい値を用いた結果を示した.固有表現内の文字列を用いた指標(FE,FW,FC,CI)との相関は,どちらの課題においても,ほとんどのシステムで高い.固有表現の周囲の単語を用いた指標(CWIpre,CWIfol)との相関はそれに比べると低いことが分かる.特に限定課題では,固有表現の周囲の単語を用いた指標との相関はシステムによって大きくばらつきがある.表\ref{table:each_system_fmeasure}に,個々のシステムについて,そのF-measureの値と手法の特徴をまとめた.括弧内に示した値は,各々のシステムのF-measureについて,それ以外の全システムのF-measureの平均との相関係数をとったものである.また,表\ref{table:each_system_index_general},表\ref{table:each_system_index_arrest}に,IREXで行なわれた本試験の総合課題・限定課題それぞれについて,定義した指標と参加した各システムの評価結果との相関係数を調べた結果を示す.これは,図\ref{figure:hist_graphs_g},図\ref{figure:hist_graphs_a}を記述するのに用いたものである.固有表現の周囲の単語を用いた指標は,どのシステムにおいても相関係数の値が低く,また,バラツキが大きいので以下の考察ではふれない.総合課題においては,各システムの評価と全体との相関は,システムOを除いて非常に高い.限定課題においては,システムE,F,Oにおいて,全体との相関が低くなっている.固有表現内の文字列を用いた指標(FE,FW,FC,CI)との相関は,両課題においてほぼシステム全体との相関に類似した結果になっている.システムE,F,Oはそれぞれ異なる機械学習手法を用いており,また評価結果も互いに近い値ではないので,手法の特徴が指標との相関に影響しているとはいえないが,システムFとOについては,評価時に用いたプログラムやデータに不備があり,本来の性能が発揮されていなかったことがワークショップにて発表された.このことが,F-measureの値や指標の値の双方において,他のシステムとの相関が低い原因になっていると考えられる.システムEについては,総合課題においては相関が高いが,限定課題では相関が低くなっている.システムの各クラスごとの評価を見ると,とくに固有物名・組織名での結果が平均に比べて高く,この差が相関が低くなった原因と考えられる(表\ref{table:system_E}).システムEは,限定課題用にチューニングは行っていないが,手作業および自動生成によって得られたNグラムパタンを用いており,これらのパタンが,限定課題の固有物名としてよく現れる法律名などに対応していたと考えられる.\begin{table}\begin{center}\caption{システムEの各クラスごとの評価結果}\label{table:system_E}\begin{tabular}{l|rrr}\hlineクラス&全平均&システムE&値の差\\\hline組織名&55.2&74.2&(+19.0)\\人名&68.8&68.9&(+0.1)\\地名&68.1&61.2&(-6.8)\\固有物名&57.9&91.7&(+33.8)\\日付表現&89.4&91.2&(+1.8)\\時間表現&89.8&89.5&(-0.3)\\金額表現&91.4&100.0&(+8.6)\\\hline全表現&71.7&74.6&(+2.9)\\\hline\end{tabular}\end{center}\end{table}総じて,固有表現内の文字列に基づいた指標と各システムの性能との相関は,ほぼ全システムの平均との相関と同じ傾向を示しているが,固有表現の周囲の単語を用いた指標は改善の必要があるといえる.\begin{table*}\begin{center}\small\caption{各システムの性能評価・手法の特徴:\\システムの評価はF-measureの値.括弧内の数字は,各システムのF-measureと,\\それ以外の全システムのF-measureの平均との相関係数.}\label{table:each_system_fmeasure}\begin{tabular}{c|rr|rr|cl}\hline&\multicolumn{4}{|c|}{各システムの評価}&\multicolumn{2}{c}{手法の特徴}\\\cline{2-7}システム&\multicolumn{2}{|c|}{総合課題}&\multicolumn{2}{|c|}{限定課題}&パタンの使用&機械学習の手法\\\hlineA&57.69&(0.956)&54.17&(0.972)&Y&-\\B&80.05&(0.989)&78.08&(0.901)&Y&有限状態変換器\\C&66.60&(0.969)&59.87&(0.756)&Y&-\\D&70.34&(0.973)&80.37&(0.927)&N&決定木\\E&66.74&(0.975)&74.56&(0.520)&Y&Nグラムパタン\\F&72.18&(0.876)&74.90&(0.493)&N&最大エントロピー\\G&75.30&(0.967)&77.61&(0.901)&Y&-\\H&77.37&(0.990)&85.02&(0.905)&N&最大エントロピー\\I&57.63&(0.901)&64.81&(0.908)&Y&-\\J&74.82&(0.961)&81.94&(0.820)&Y&-\\K&71.96&(0.975)&72.77&(0.923)&Y&決定木\\L&60.96&(0.984)&58.46&(0.882)&N&隠れマルコフモデル\\M&83.86&(0.892)&87.43&(0.933)&Y&-\\N&69.82&(0.932)&70.12&(0.779)&Y&-\\O&57.76&(0.424)&55.24&(0.229)&Y&パタン学習と判別分析\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\begin{center}\small\caption{指標とシステムの評価結果との相関係数(総合課題)}\label{table:each_system_index_general}\begin{tabular}{c|cccc|cc}\hlineシステム&FE&FW&FC&CI&CWIpre&CWIfol\\\hlineA&-0.927&-0.935&-0.906&0.894&0.570&0.156\\B&-0.944&-0.943&-0.984&0.877&0.699&0.223\\C&-0.923&-0.931&-0.979&0.806&0.625&0.122\\D&-0.870&-0.897&-0.914&0.821&0.572&0.205\\E&-0.922&-0.938&-0.942&0.925&0.661&0.270\\F&-0.676&-0.704&-0.821&0.629&0.384&0.343\\G&-0.836&-0.881&-0.905&0.832&0.645&0.275\\H&-0.900&-0.908&-0.967&0.883&0.737&0.344\\I&-0.899&-0.854&-0.904&0.770&0.471&0.150\\J&-0.832&-0.825&-0.922&0.755&0.504&0.318\\K&-0.913&-0.902&-0.920&0.906&0.616&0.316\\L&-0.896&-0.920&-0.965&0.865&0.704&0.274\\M&-0.733&-0.704&-0.884&0.725&0.630&0.579\\N&-0.966&-0.979&-0.942&0.894&0.681&0.038\\O&-0.369&-0.342&-0.494&0.556&0.767&0.751\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\begin{center}\small\caption{指標とシステムの評価結果との相関係数(限定課題)}\label{table:each_system_index_arrest}\begin{tabular}{c|cccc|cccc}\hlineシステム&FE&FW&FC&CI&CWIpre&CWIfol\\\hlineA&-0.753&-0.855&-0.894&0.923&0.726&0.483\\B&-0.756&-0.687&-0.684&0.886&0.444&0.547\\C&-0.721&-0.884&-0.929&0.787&0.744&0.096\\D&-0.771&-0.792&-0.770&0.870&0.646&0.344\\E&-0.767&-0.535&-0.451&0.622&0.133&0.058\\F&-0.267&-0.355&-0.484&0.582&0.110&0.682\\G&-0.729&-0.684&-0.679&0.869&0.482&0.547\\H&-0.754&-0.841&-0.906&0.886&0.708&0.345\\I&-0.904&-0.852&-0.818&0.926&0.509&0.353\\J&-0.587&-0.776&-0.858&0.775&0.802&0.322\\K&-0.959&-0.886&-0.886&0.958&0.519&0.383\\L&-0.575&-0.791&-0.868&0.838&0.758&0.452\\M&-0.672&-0.709&-0.725&0.832&0.704&0.503\\N&-0.671&-0.701&-0.646&0.770&0.492&0.315\\O&0.135&0.035&-0.023&0.260&-0.085&0.570\\\hline\end{tabular}\end{center}\end{table*}
\section{結論}
本論文では,固有表現抽出の難易度を示す指標を定義し,IREXワークショップで行なわれた課題についてそれらの指標を適用し,参加したシステムの評価結果と相関を調べることで,その有効性を検証した.指標を定義するために,固有表現内の文字列,あるいは固有表現周囲の文字列に対して,固有表現クラスごとの頻度・異なり数や,個々の表現のクラス内における頻度とコーパス全体における頻度を用いた.定義された指標のうち,固有表現内の文字列に基いた指標に対しては非常に高い相関が得られた.また,個々の表現に対する指標の値と固有表現抽出における有効性との関係を具体例から考察した.今後の課題としては,まず固有表現の周囲の表現に基づいた指標を改良して指標としての有効性を高めることが挙げられる.また,固有表現内の文字列に基づいた指標に位置情報を加え,接頭辞や接尾辞などの有効性を測れるようにすることも考えられる.最終的には,指標による分析を通して,与えられた分野の固有表現抽出に有用な情報を自動的に獲得したいと考えている.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bagga\BBA\Biremann}{Bagga\BBA\Biremann}{1997}]{bagga:97}Bagga,A.\BBACOMMA\\BBA\Biremann,A.~W.\BBOP1997\BBCP.\newblock\BBOQ{AnalyzingtheComplexityofaDomainWithRespectToAnInformationExtractionTask}\BBCQ\\newblockIn{\BemTheTenthInternationalConferenceonResearchonComputationalLinguistics(ROCLINGX)},pp.~175--184.\bibitem[\protect\BCAY{DARPA}{DAR}{1995}]{MUC6}DARPA\BBOP1995\BBCP.\newblock{\Bem{ProceedingsoftheSixthMessageUnderstandingConference(MUC-6)}},Columbia,MD,USA.MorganKaufmann.\bibitem[\protect\BCAY{DARPA}{DAR}{1998}]{MUC7}DARPA\BBOP1998\BBCP.\newblock{\Bem{ProceedingsoftheSeventhMessageUnderstandingConference(MUC-7)}},Fairfax,VA,USA.\bibitem[\protect\BCAY{IREX}{IREX}{1999}]{IREXproc}IREX実行委員会\JED\\BBOP1999\BBCP.\newblock\Jem{{IREXワークショップ予稿集}}.IREX実行委員会.\bibitem[\protect\BCAY{松本,黒橋,山地,妙木,長尾}{松本\Jetal}{1997}]{JUMAN33}松本裕治,黒橋禎夫,山地治,妙木裕,長尾真\BBOP1997\BBCP.\newblock\Jem{日本語形態素解析システムJUMAN(version3.3)}.\newblock京都大学工学部,奈良先端科学技術大学院大学.\bibitem[\protect\BCAY{野畑}{野畑}{1999}]{nobata:irex1}野畑周\BBOP1999\BBCP.\newblock\JBOQ決定木を用いた学習に基づく固有表現抽出システム\JBCQ\\newblock\Jem{IREXワークショップ予稿集},pp.~201--206.\bibitem[\protect\BCAY{野畑,関根,辻井}{野畑\Jetal}{2000}]{nobata:nlp2000}野畑周,関根聡,辻井潤一\BBOP2000\BBCP.\newblock\JBOQ固有表現抽出技術の難易度に関する分析\JBCQ\\newblock\Jem{言語処理学会第6回年次大会併設ワークショップ}.\bibitem[\protect\BCAY{NOBATA,SEKINE\BBA\TSUJII}{NOBATAet~al.}{2000}]{nobata:acl2000}Nobata,C.,Sekine,S.\JBA\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQDifficultyIndicesfortheNamedEntitytaskinJapanese\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingofAssociationforComputationalLinguistics(ACL2000)},pp.~344--351.\bibitem[\protect\BCAY{Palmer\BBA\Day}{Palmer\BBA\Day}{1997}]{palmer:anlp97}Palmer,D.~D.\BBACOMMA\\BBA\Day,D.~S.\BBOP1997\BBCP.\newblock\BBOQ{AStatisticalProfileoftheNamedEntityTask}\BBCQ\\newblockIn{\BemProceedingsoftheFifthConferenceonAppliedNaturalLanguageProcessing(ANLP'97)},pp.~190--193.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{quinlan:93}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmannPublishers,Inc.,SanMateo,California.\bibitem[\protect\BCAY{Sekine,Grishman\BBA\Shinnou}{Sekineet~al.}{1998}]{sekine:wvlc98}Sekine,S.,Grishman,R.\BBA\Shinnou,H.\BBOP1998\BBCP.\newblock\BBOQA{D}ecision{T}ree{M}ethodfor{F}indingand{C}lassifying{N}amesin{J}apanese{T}exts\BBCQ\\newblockIn{\BemProceedingsoftheSixthWorkshoponVeryLargeCorpora},pp.~171--178\Montreal,Canada.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{野畑周}{1995年東京大学理学部情報科学科卒業.2000年東京大学大学院理学系研究科博士課程修了.博士(理学).同年通信総合研究所関西先端研究センター知的機能研究室非常勤研究員.2001年より,同けいはんな情報通信融合研究センター自然言語グループ専攻研究員.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{関根聡}{AssistantResearchProfessor,NewYorkUniversity.1987年東京工業大学応用物理学科卒業.同年松下電器東京研究所に入社.1990年〜1992年UMIST客員研究員.1992年UMIST計算言語学科修士.1994年からNYU,ComputerScienceDepartment,AssitantResearchScientist.1998年Ph.D..同年から現職.自然言語処理の研究に従事.コーパスベース,パーザー,分野依存性,情報抽出,情報検索等に興味を持つ.言語処理学会,人工知能学会,ACL各会員.}\bioauthor{辻井潤一}{京都大学大学院工学博士.1971年京都大学工学部電気工学科卒業,1973年同大学大学院修士課程修了.同年4月より,同大学電気工学第2教室助手,助教授を経て,1988年から英国UMIST(UniversityofManchesterInstituteofScienceandTechnology)の教授.同大学の計算言語学センター所長などを経て,1995年より東京大学大学院理学系研究科情報科学専攻・教授.組織変更により,現在は,同大学院情報理工学系研究科・コンピュータ科学専攻教授.また,1981年〜1982年,フランスCNRS(グルノーブル)の招聘研究員.言語処理学会,情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N01-06
|
\section{はじめに}
自然言語処理を進める上で,形態素解析器をはじめとする言語解析器は,コーパスなどの言語資源と同様に最も重要な道具である.近年では,この重要性は研究者間でほぼ認識されており,英語や日本語に対する形態素解析器と構文解析器はいずれも複数のものが作成,そして公開または市販され,我々研究者はその恩恵に預かっている.ところが,中国語に関しては以上の状況は同じではない.我々の知る限り,日本国内はもちろん,中国においても誰もが手軽に使える中国語解析器が研究者の間で広範に知られている,という状況にはなく,まだ十分に解析器が整備されているとは言えない.この背景の一つは,中国語解析の困難性であると考える.中国語は英語のように概ね単語ごとに分かち書きされてはおらず,単語分割が必要である.また,文字種が単語分割のための大きな情報を持つ日本語とは異なり,ほぼ単一文字種(漢字)である.さらに,複数品詞を持つ語が多いため品詞付与も容易ではない.たとえば,中国語の介詞(前置詞)のほとんどは動詞からの転成であるため日本語や英語にはほとんど存在しない内容語と機能語との間で品詞付与の曖昧性が生じる.たとえば``\lower.25ex\hbox{\underline{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/le.eps}}''(北京に着いた)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は動詞(到着する)であるが``\underline{\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}}\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/qu.eps}}''(北京に行く)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は介詞($\cdots$に)であり,すなわち``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}}''だけでは``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''の品詞は決定できない.また日本語における「−する」(動詞)「−い」(形容詞)などの明確な文法標識を持たないため,内容語間の曖昧性も比較的多い.たとえば中国語の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dan.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/xin.eps}}''は日本語の「心配(名詞)/心配する(動詞)/心配だ(形容詞)」のすべてに相当する.我々は現在,中日翻訳,並びに中国語換言処理の研究を行っている\cite{張2002}.これらの処理は中国語が入力であるため,表層処理を行わない限り中国語解析器が必要である.このため我々は,現在入手可能な解析器や言語資源を組み合わせて中国語解析を行うことを試みた.ここで,中国語構文木コーパスとしては,現在一般的なPennChineseTreebank(以下,CTBとする)を使用した.一方,解析器としてはサポートベクトルマシン(SupportVectorMachine,以下,SVM)に基づくYamChaを使用した.SVMならびにYamChaについては\ref{節:YamCha}節でその概要を述べる.本報告では,形態素解析と基本句同定解析(basephrasechunking)の2種類を行った.\ref{節:形態素解析}節で形態素解析について,\ref{節:基本句同定解析}節で基本句同定解析について述べる.それぞれの解析で,学習文テストと未知文テストの2種類の解析精度を測定し,考察を行った.形態素解析実験では,連接コスト最小法に基づく形態素解析器MOZを使用して,解析精度の比較を行った.さらに,日本語と比較してどの程度中国語の形態素解析が難しいのかを調べるために京都大学テキストコーパスを用いて実験した.また,品詞タグ付けに限定すれば,CTBよりも大きなコーパスが入手可能であることから,CTBの約11倍の大きさを持つ人民日報タグ付きコーパスを用いての形態素解析実験も行った.本報告の主な目的は,上記の解析器と言語資源を用いて中国語解析器を構築した場合,どの程度の解析精度が得られるのかを報告することにある.すなわち,この解析器にどのような問題がありどのような改善が可能かを提案するという提供者の視点ではなく,使用者の視点,すなわち中国語処理に携わる研究者にとってこの解析器がどの程度有用であり,使用の際にはどのような点に注意が必要か,などを報告することに主眼がある.いずれも容易に得られるツールと言語資源を組み合わせた場合にどのような精度が得られるかを測定,報告することは誰にでもできる作業である.しかし,研究者が研究の必要性のためできるだけ高精度の解析器を求める状況にある場合,本報告のような報告によって解析の期待精度を予め知った上で同一の解析器を構築できる.あるいは,研究上より高精度の解析器が必要な場合は最初から別の選択肢を考えることもできる.このように,我々は中国語処理を行う研究者への有益性を考え,我々で測定した解析精度を技術資料として報告することにした.
\section{中国語解析のための言語資源と解析環境}
本節では,我々の実験で使用した言語資源と解析環境の概略を述べる.\subsection{中国語構文木コーパス}\label{節:CTB}我々は,入手可能な中国語言語資源として,現在最も一般に知られていると考えられるPennChineseTreebank(CTB)を使用した.CTBは,米国ペンシルバニア大学(UniversityofPennsylvania)のChineseTreebankProjectにより作成された構文木コーパスである.このコーパスの概要ならびに入手方法を付録\ref{CTB_CORPUS}に示す.以下に述べる実験では,このプロジェクトの最終版であるLDC2000T48を用いた.また,CTBで定義されている中国語品詞数は33,句情報の数は17である.この一覧を巻末の付録\ref{tagset}に示す.\subsection{SVMによる同定解析}\label{節:YamCha}SVMは,$d$次元の特徴ベクトル(パターン)$\bf{x}$を定められた二つのクラス(A,B)のいずれかに識別する2値クラスの線形識別器である.また,SVMでは,カーネルトリックと呼ばれる計算技術によって非線形識別器を実現できる.従来の手法と比べて多くの面で優位性を示し,文字認識や画像認識など,様々な分野で応用されている.識別器は,識別関数$f(\bf{x})$の形によって与えられ,$f$が正ならクラスA,$f$が負ならクラスBに識別される.$f(\bf{x})=0$を満たす$\bf{x}$の集合を識別面と呼ぶ.SVMの大きな特徴の一つは,マージン最大化である.マージンとは,識別面と特徴ベクトル間の最小距離であり,マージンが大きいほうが,汎化能力が高く,テストパターンを精度良く識別できる.一般に,学習パターンを識別する超平面は複数存在する.SVMでは,上に述べた理由から超平面と学習パターンとの最小距離を最大にする超平面を求め,これを識別面とする.決定した超平面からの最小距離に対応する特徴ベクトルをサポートベクトルと呼ぶ.またサポートベクトル以外の特徴ベクトルは最終的に得られる識別関数に一切影響を及ぼさない.したがって,出現頻度などの統計量を用いる識別器(たとえば決定木など)とは性質が異なる.SVMを用いることの短所は,(1)2値クラス識別器であるため多クラスを考慮に入れた識別関数の最適化ができない(2)計算量が大きい(3)問題に適したカーネルトリック(カーネル関数)の明確な選択方法は知られていない,などである\cite{Maeda2001}.自然言語処理における同定解析(chunking)とは,与えられた言語的な要素列(文字列,単語列など)をより上位概念の言語的要素(単語,句,文など)にまとめあげるために,各要素に情報を付与する一連の処理を指す.たとえば,単語の分かち書きや形態素解析,文節まとめあげ,テキストセグメンテーション,文書分類などはすべて同定解析とみなすことができる.工藤は,SVMに基づく汎用的な同定解析器としてYamCha(YetAnotherMultipurposeCHunkAnnotator)\footnote{\tthttp://cl.aist-nara.ac.jp/\~{}taku-ku/software/yamcha/}を公開している.YamChaは同定解析を各要素に対する情報付与と見なすため,一般的な解析器として用いることが可能である.SVMは2値識別器であるため,情報付与(tagging)のような多値クラスの識別問題を扱うためには,何らかの拡張を行う必要がある.これに対してYamChaでは,{\itpairwiseclassification}\cite{Kressel99}(一対比較分類)と呼ばれる手法を採用している.これは,$K$クラスの識別問題を解くために,各クラス2つの組み合わせを識別する$K\times(K-1)/2$種類の識別器を作成し,最終的にそれらの多数決でクラスを決定する手法である.SVMを用いた自然言語解析の例として英文の基本句同定実験\cite{Kudo2000b}や,日本語の係り受け解析実験\cite{Kudo2002b}があり,従来手法と比較して高い解析結果を示している.また,平と春野は,SVMを用いた文書分類について,高い分類精度を得るためには品詞によるフィルタリングをした後,全単語を入力として用いればよいことを示している\cite{Taira2000}.
\section{YamChaによる形態素解析}
\label{節:形態素解析}SVMを用いた中国語の解析器として,我々はYamChaを用いた.この節ではYamChaによる中国語の形態素解析について述べる.形態素解析を文字のならびを形態素へまとめあげる同定解析と見なす.したがって,各文字がチャンク(chunk)を構成する1要素に相当する.チャンクとは,同定解析における同定単位を指し,ここでは形態素に相当する.SVMの学習のためにCTBを正解データとして用いる.\subsection{YamChaの準備}YamChaで扱うデータ形式は,複数のトークンと複数のカラムから構成される.各行は入力のトークンに対応する.形態素解析を行う場合は,1トークンが1文字に対応する.各カラムにはトークンに付与された属性が記述される.また,各カラムはタブまたはスペースによって区切られている必要がある.YamChaによって推定(学習)すべき属性は最後のカラムに与える.ここでは,形態素解析を行うので,第1カラムには,形態素の要素である1文字を記述し,第2カラムには,YamChaで推定する情報を記述する.この情報には,形態素の区切り位置を示す情報と,形態素に付与する品詞情報の両方が含まれる.また,文と文の境界は,EOSと記述した行,もしくは空行を付与することで同定する.トークンがチャンクに含まれるか否かの状態を示すためにIOB2モデルを用いた\cite{Sang99}.これは,あるトークンがチャンクの先頭ならばBタグを付与し,チャンクに含まれる先頭以外のトークンならばIタグを付与し,チャンクに含まれない場合にはOタグを付与するモデルである.一方,本実験ではすべてのトークンが何らかのチャンクに含まれるためOタグは用いられない.付与する品詞タグセットはCTBのタグセットと同一である.また,CTBにおいて品詞が``-NONE-''の形態素は構文構造上形式的に配置され,実体を持たないため対象外とする.最終的にトークンに付与されるタグはB/Iタグと品詞タグを``--''で結んだものとなる.CTBからYamChaで中国語形態素解析を行うための書式へ変換する概要を図\ref{YamChaFormat}に示す.\begin{figure}[htb]\begin{center}\epsfxsize=30zw\epsfbox{Figures/yamcha_format.eps}\caption{YamCha用中国語形態素解析データ書式}\label{YamChaFormat}\end{center}\end{figure}以上の処理で得られた学習データをYamChaに与え,SVMのモデルを作成する.その際に,素性として使用したデータはYamChaの標準設定に従った.すなわち,推定するトークンと,その前方,および後方2トークンの計5トークンにおける文字データと前方2トークンの推定タグを素性として学習した.解析方向は前方からである.これは,使用する素性を変化させた場合の精度を検討した予備実験の結果において,YamChaの標準設定が最も高い精度であったためである.これらの関係を図\ref{features}に示す.また,YamChaで学習を行うために用いたSVMの実装は同じく工藤が公開しているTinySVM0.08\footnote{\tthttp://cl.aist-nara.ac.jp/\~{}taku-ku/software/TinySVM/}である.\begin{figure}[htb]\begin{center}\epsfxsize=15zw\epsfbox{Figures/features.eps}\end{center}\caption{学習素性}\label{features}\end{figure}\subsection{形態素解析器MOZ}本報告では,YamChaと同程度の時間的コストで実現できる中国語形態素解析器としてMOZ\footnote{\tthttp://cl.aist-nara.ac.jp/student/tatuo-y/ma/}\cite{Yamasita2000}をとりあげ,両者の比較を行う.本節では,MOZに関する概略を述べる.MOZで形態素解析を行うためには,形態素辞書と接続表が必要となる.MOZはコスト最小法に基づく解析器であるので,形態素辞書と接続表にはそれぞれコストを与えなければならない.ここでは,CTBから得られる情報(品詞2つ組の頻度や形態素の頻度など)から形態素辞書と接続表,ならびにそれらのコストを求める.すなわち,形態素辞書は形態素とその出現確率から,品詞接続表は品詞bi-gramによって与える.MOZでは,品詞接続表にtri-gram以上のデータを用いることができるが,データ過疎性(datasparseness)による精度低下を避けるために本実験では品詞bi-gramのみを用いた.形態素を$w_i$,品詞を$POS_i$,$x$の頻度を$C(x)$と表記すると品詞が$POS_i$である形態素$w_i$の出現確率を式(\ref{mor_p})で与える.ここで,$C(w_i,\POS_i)$は形態素$w_i$,かつその品詞が$POS_i$である頻度を示している.\begin{equation}p(w_i\|\POS_i)=\frac{C(w_i,\POS_i)}{C(POS_i)}\label{mor_p}\end{equation}また,品詞接続表の確率は式(\ref{con_p})で与える.ここで$C(POS_i,\POS_j)$は品詞$POS_i$のあとに品詞$POS_j$が出現した頻度である.\begin{equation}p(POS_j\|\POS_i)=\frac{C(POS_i,\POS_j)}{C(POS_i)}\label{con_p}\end{equation}システムで扱う最高コストを128として,コスト化係数を求める.コスト化係数は式(\ref{cost_co})により与えられる.ここで最小確率は,すべての$p(w_i\|\POS_i)$および$p(POS_j\|\POS_i)$における最小値である.\begin{equation}コスト化係数=|\最高コスト/\log(最小確率)|\label{cost_co}\end{equation}形態素辞書ならびに接続表のコストはそれぞれの確率から式(\ref{costing})により与えられる.\begin{equation}コスト=\big\lceil|\log(確率)\timesコスト化係数|\big\rceil\label{costing}\end{equation}以上述べた方法により形態素辞書ならびに接続表のコストを計算する.\subsection{学習文テスト}まず,CTB全体を学習データ(4181文\footnote{CTBの説明には4185文とあるが,我々が発見した明らかな誤り,たとえば句点のみを1文とするなど,を除くと4181文となった.})とし,この中から無作為に抽出した1割の文(418文)を解析する学習文テスト(closedtest)を行った.具体的には,YamChaとMOZをそれぞれ用いて,418文からなるテストデータを解析し,その結果をCTBの正解と比較し,評価した.その結果から,再現率(recall)と適合率(precision)を算出した.再現率と適合率はそれぞれ式(\ref{recall})および式(\ref{precision})とした.\begin{equation}再現率=解析結果中の正解形態素数/正解形態素数\label{recall}\end{equation}\begin{equation}適合率=解析結果中の正解形態素数/解析結果の形態素数\label{precision}\end{equation}再現率と適合率からF値(F-measure)も求めた.F値は再現率$R$と適合率$P$の調和平均であり,式(\ref{F-measure})によって与えられる.\begin{equation}F値=\frac{2\timesR\timesP}{R+P}\label{F-measure}\end{equation}ただし,本実験では正解形態素数を求める場合に形態素分割のみ正解の場合と,分割ならびに品詞の両方の2段階の条件を設けて評価した.この結果を表\ref{MorclosedTest}に示す.また,品詞誤りの上位10件を表\ref{MorclosedResult2}に示す.ここで,出現率とは誤りの総数に対する各誤りの割合を示す.\begin{table}[htb]\begin{center}\caption{学習文テストの正解率}\label{MorclosedTest}\begin{tabular}{ll|rrr|rrr}\hline&&\multicolumn{3}{c}{分割のみ}&\multicolumn{3}{|c}{分割と品詞付与}\\\hline対象&解析器&再現率&適合率&F値&再現率&適合率&F値\\\hlineCTB&YamCha&99.91\%&99.93\%&99.92\%&99.58\%&99.60\%&99.59\%\\&MOZ&97.78\%&98.82\%&98.82\%&93.74\%&94.73\%&94.23\%\\\hlinePKU&YamCha&99.95\%&99.94\%&99.94\%&99.76\%&99.75\%&99.75\%\\&MOZ&98.72\%&99.17\%&98.94\%&94.71\%&95.14\%&94.92\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{学習文テスト(CTB)における品詞誤りの上位10件}\begin{tabular}{r@{-}l|r|r@{-}l|r}\hline\multicolumn{3}{c|}{YamCha}&\multicolumn{3}{c}{MOZ}\\\hline正解&解析&出現率&正解&解析&出現率\\\hlineNN&NR&14/33&VV&NN&84/401\\NR&NN&6/33&DEC&DEG&78/401\\VV&NN&5/33&NN&VV&38/401\\AD&JJ&2/33&NN&NR&19/401\\AD&NN&1/33&VV&P&14/401\\NN&VV&1/33&CC&AD&13/401\\JJ&AD&1/33&NN&JJ&12/401\\CD&OD&1/33&JJ&NN&10/401\\SP&DEC&1/33&AD&JJ&9/401\\DEC&DEG&1/33&JJ&AD&7/401\\---&---&---&P&AD&7/401\\\hline\end{tabular}\label{MorclosedResult2}\end{center}\end{table}\subsection{未知文テスト}次に,CTB全体を母集団とする10分割交差検定(crossvalidation)による未知文テスト(opentest)を行った.まず,CTB全体(4181文)を無作為に10等分し,1割をテストデータ,残りの9割を学習データとする.この方法で10組の学習データとテストデータを作成した.YamChaとMOZそれぞれに対して,10組の学習データとテストデータを用いて学習ならびにテストを行い,平均値を求めた.実験結果を表\ref{MOR_Opentest}に示す.また,品詞誤りの上位10件の内訳を表\ref{MoropenResult2}に示す.表中のnullは未知語のために付与されたタグを示している.\begin{table}[htb]\begin{center}\caption{未知文テスト結果}\label{MOR_Opentest}\begin{tabular}{ll|rrr|rrr}\hline&&\multicolumn{3}{c}{分割のみ}&\multicolumn{3}{|c}{分割と品詞付与}\\\hline対象&解析器&再現率&適合率&F値&再現率&適合率&F値\\\hlineCTB&YamCha&93.04\%&93.71\%&93.37\%&87.58\%&88.20\%&87.89\%\\&MOZ&92.19\%&85.89\%&88.93\%&86.32\%&80.42\%&83.26\%\\\hline京大&YamCha&92.02\%&93.23\%&92.62\%&88.17\%&89.33\%&88.74\%\\(10万語)&JUMAN&98.97\%&98.65\%&98.80\%&93.49\%&93.19\%&93.34\%\\\hlinePKU&YamCha&86.66\%&87.52\%&87.09\%&80.19\%&80.99\%&80.59\%\\(10万語)&MOZ&90.05\%&80.58\%&85.05\%&84.57\%&75.67\%&79.87\%\\\hlinePKU&YamCha&95.19\%&95.19\%&95.19\%&91.72\%&91.72\%&91.72\%\\&MOZ&95.68\%&93.42\%&94.58\%&89.87\%&87.75\%&88.72\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{未知文テストにおける誤り品詞の上位10件}\label{MoropenResult2}\begin{tabular}{r@{-}l|r|r@{-}l|r}\hline\multicolumn{3}{c|}{YamCha}&\multicolumn{3}{c}{MOZ}\\\hline正解&解析&出現率&正解&解析&出現率\\\hlineVV&NN&1037/5447&VV&NN&1016/5859\\NN&VV&579/5447&DEC&DEG&933/5859\\DEC&DEG&578/5447&NN&VV&701/5859\\JJ&NN&402/5447&NN&NR&263/5859\\DEG&DEC&334/5447&DEG&DEC&186/5859\\NR&NN&323/5447&VV&P&184/5859\\NN&NR&266/5447&NN&JJ&126/5859\\VA&NN&174/5447&JJ&AD&118/5859\\AD&NN&126/5447&NN&null&116/5859\\AD&VV&115/5447&CC&AD&100/5859\\\hline\end{tabular}\end{center}\end{table}未知文テストにおいてYamChaが1学習データを学習するために要した処理時間と1テストデータを解析するために要した処理時間などを表\ref{MorTime}に示す.測定時は,CPU:PentiumIII600MHz,メモリ:256MB,OS:Linuxの計算機を用いた.ただし,YamChaで解析を行うためには,アーキテクチャ非依存のテキスト形式のモデルファイル(学習結果を格納するファイル)をアーキテクチャ依存のバイナリ形式にコンパイルする必要がある.その際にテキスト形式のモデルをメモリ上に展開するため大量のメモリを必要とする.この実験では,約650MBのメモリを必要としたため,コンパイル作業だけは,CPU:PentiumIII733MHz,メモリ:960MBの計算機を使用した.このコンパイルに要した時間は約5分であった.本実験のあと,コンパイルに必要なメモリ量を抑える目的からプログラムを修正した.その結果,速度を少々犠牲にするが,80MB程度のメモリで,上記のモデルファイルをコンパイル可能となった.処理時間は,CPU:PentiumIII600MHz,メモリ:256MBの計算機で約7分であった.このYamCha0.1に対するプログラムの差分はWWWページ\footnote{\tthttp://www.slt.atr.co.jp/\~{}kohtake/}にて公開している\footnote{2002年11月に公開されたYamCha0.2では,この修正が反映されておりプログラムの差分を適用する必要はない.}.\begin{table}[htb]\begin{center}\caption{YamChaでの処理時間}\begin{tabular}{l|ll}\hline&学習&解析\\\hlineタグの種類&53&---\\文数&約3700&約400\\トークン数&約15万8千&約1万7千\\処理時間&約6時間&約35分\\\hline\end{tabular}\label{MorTime}\end{center}\end{table}一方,MOZが学習データ(約3700文)から形態素辞書と接続表のコストを求めるために必要とした時間は約3秒であり,1テストデータ(約400文)を解析するために必要とした時間は約1秒であった.\subsection{未知語の性質}次に,テストデータに含まれる形態素のうち,学習データに含まれていないものを未知語と定義し,その性質を調べた.未知文テストにおける平均未知語率などを求めた.結果を表\ref{OpenUnknown}に示す.未知語率とはテストデータの単語数に占める未知語数の割合を指し,平均未知語率とはテストセット全体での未知語率の平均を示している.\begin{table}[htb]\begin{center}\caption{未知文テストにおける平均未知語率など}\label{OpenUnknown}\begin{tabular}{l|ccccc}\hline&平均未知語率&&&\multicolumn{2}{c}{形態素数}\\対象&[異なり/のべ](\%)&平均文長&平均形態素長&異なり&のべ\\\hlineCTB(10分割)&21.74/7.05&41.10字&1.72字&12079&103901\\京大10万語(10分割)&24.18/8.38&43.91字&1.77字&14613&102310\\PKU10万語(10分割)&26.85/10.87&40.71字&1.64字&16810&102741\\PKU(11分割)&15.79/2.84&41.85字&1.64字&61846&1118794\\\hline\end{tabular}\end{center}\end{table}未知語に対する解析器の性質をより詳しく調べるため,以下の実験を行った.まず,CTBから40記事を無作為に選択する.そのうち30記事を学習データ,残り10記事をテストデータとする.次にテストデータから順に1記事ずつ学習データに加えていき,計11個の学習データを作成する.それぞれの学習データに基づく解析器で同一のテストデータ10記事を解析した.以上の実験概要を図\ref{UnknownWordExp}に示す.\begin{figure}[htb]\begin{center}\epsfxsize=50mm\epsfbox{Figures/UkW_Exp.eps}\caption{未知語と解析精度に関する実験の概要}\label{UnknownWordExp}\end{center}\end{figure}テストデータに含まれる単語数は1111,のべ語数は2954である.11のテストセットにおける学習データの単語,未知語数ならびに未知語率を表\ref{UkTEST}に示す.\begin{table}[htb]\begin{center}\caption{未知語と解析精度に関する実験におけるテストセットの単語数}\label{UkTEST}\begin{tabular}{c|rrrrrr}\hline&\multicolumn{2}{c}{単語数}&\multicolumn{2}{c}{未知語数}&\multicolumn{2}{c}{未知語率(\%)}\\テストセット&異なり&のべ&異なり&のべ&異なり&のべ\\\hline0&2809&10819&572&770&51.49&26.07\\1&2892&11402&489&639&44.01&21.63\\2&2921&11512&460&594&41.40&20.11\\3&3044&11929&337&442&30.33&14.96\\4&3075&12134&306&406&27.54&13.74\\5&3127&12402&254&337&22.86&11.41\\6&3190&12764&191&252&17.19&8.53\\7&3265&12993&116&150&10.44&5.08\\8&3293&13274&88&115&7.92&3.89\\9&3319&13393&62&75&5.58&2.54\\10&3381&13773&0&0&0.00&0.00\\\hline\end{tabular}\end{center}\end{table}各テストセットにおける未知語率(異なり)と解析精度の関係を図\ref{MorCrbyUk}に示す.図では,解析精度をF値で示す.なお,未知語率(のべ)と精度の関係を図示していないが,図\ref{MorCrbyUk}とほぼ同一の図となるため省略する.\begin{figure}[htb]\begin{center}\epsfxsize=20zw\epsfbox{Figures/UK_plots.eps}\caption{未知語率[異なり]と解析精度}\label{MorCrbyUk}\end{center}\end{figure}次に,未知語がある場合の解析結果を調査した.テストセット$t_i$における未知語の集合を$UK(t_i)$,$w\inUK(t_i)$のうち形態素分割に成功した形態素の集合を$USeg(t_i)$とする.さらに,$w\inUSeg(t_i)$のうち品詞も正しく解析された形態素の集合を$USP(t_i)$とする.これらの集計結果を表\ref{UK_Analyze_table}に示す.また,MOZでは入力に未知語が含まれる場合,解析不能で停止することはないが,最終的に未知語と判断された文字列を1文字ずつ,nullという品詞を与えて出力する.したがって,MOZでの解析で$|USP(t_i)|$を示していないのは,MOZでは未知語がnullと解析されるため,$USP(t_i)$は空集合となるためである.一方,MOZでの解析において$USeg(t_i)$が得られるのは,正解が1文字の形態素である場合に形態素分割が成功したと見なすからである.\begin{table}[htb]\begin{center}\caption{未知語とその解析結果}\label{UK_Analyze_table}\begin{tabular}{cc|rr|r}\hline&&\multicolumn{2}{c|}{YamCha}&MOZ\\\cline{3-5}$t_i$&$|UK(t_i)|$&$|USeg(t_i)|$&$|USP(t_i)|$&$|USeg(t_i)|$\\\hline0&572&376&249&87\\1&489&319&212&78\\2&460&299&199&77\\3&337&225&157&56\\4&306&202&147&47\\5&254&174&127&35\\6&191&135&95&27\\7&116&82&59&18\\8&88&60&43&15\\9&62&47&35&10\\\hline\end{tabular}\end{center}\end{table}\subsection{言語依存性とコーパスの大きさ}これまで,CTBをコーパスとして,中国語の形態素解析について2つの解析器,YamChaとMOZを比較してきた.しかしその未知文テストの結果は,表\ref{MOR_Opentest}に示す通り,これまでに報告されている日本語の形態素解析器の精度より低い.ここでは,その原因が,中国語の言語としての解析の難しさにあるのか,コーパスの量にあるのかを検討する.\subsubsection{日本語形態素解析におけるYamCha}CTBで用いられているのは,新華社通信の新聞記事である.そこで,SVMに基づく形態素解析器の日本語に対する精度を検証するために我々は,京都大学テキストコーパス第3.0版(以下,京大コーパスと呼ぶ)を用いて実験を行った.このコーパスの詳細については付録\ref{KYODAI_CORPUS}を参照されたい.CTBの大きさが約10万語であるところから,我々は,京大コーパスのうち1月1,3,4,5日の記事,4117文,102310単語を用いることにした.CTB全体では,4181文,99720単語である.我々が選択した京大コーパスの一部についてCTBに対する実験と同様に,10分割交差検定を実施した.この検定における平均未知語率などを表\ref{OpenUnknown}に示す.京大コーパスを用いた実験における品詞は,JUMAN\footnote{\tt{http://www-nagao.kuee.kyoto-u.ac.jp/nl-resource/juman.html}}が定義する品詞のうち品詞細分類までを含めたものとした.この結果,タグセットの大きさは,41となり,CTBの33より大きい.YamChaの学習に用いたデータの例を以下に示す.\vspace*{5mm}\begin{quote}\begin{verbatim}今B-名詞-時相名詞話B-名詞-普通名詞年I-名詞-時相名詞題I-名詞-普通名詞のB-助詞-接続助詞のB-助詞-接続助詞大B-名詞-普通名詞力B-名詞-普通名詞相I-名詞-普通名詞士I-名詞-普通名詞撲I-名詞-普通名詞たB-接尾辞-名詞性名詞接尾辞をB-助詞-格助詞ちI-接尾辞-名詞性名詞接尾辞支B-動詞えI-動詞るI-動詞\end{verbatim}\end{quote}\vspace*{5mm}実験結果を表\ref{MOR_Opentest}に示す.参考までに我々が選択した京大コーパスの一部をJUMANで形態素解析した結果もあわせて示す.日本語を対象とした実験でも,同程度の大きさのコーパスでは,同程度の精度となった.\subsubsection{コーパスの大きさと解析精度}CTBは既に述べた通り4181文,99720単語からなるコーパスだが,大きいとは言えない.そのため,10分割交差検定を行っても,テストセットにおける未知語率が非常に大きくなり,精度が低くなる.品詞タグ付けされたコーパスがあれば,それを形態素解析器のために利用することが可能である.CTBのように構文木を備えている必要はない.品詞タグ付けされた中国語のコーパスはいくつかあるが,我々は,CTBよりも大きく,そして同じ新聞記事という点から人民日報タグ付きコーパスを使用した.人民日報タグ付きコーパスに関しては,付録\ref{PKU_CORPUS}にその概要等を示す.ただし,我々は人民日報半年分であるコーパス全てではなく,無償公開している1ヶ月分のデータを用いた.人民日報タグ付きコーパス1ヶ月分(以下,PKUと呼ぶ)は,44011文,1121447単語からなるコーパスである.定義されているタグセット\footnote{\tthttp://www.icl.pku.edu.cn/research/corpus/addition.htm}の大きさは39である.しかしながら,実際のPKUにはここに定義されていないタグが7種類(Bg:8,Mg:7,Rg:10,Yg:1,na:1,nx:459,vvn:1,コロンの後の数値は頻度を示す)出現する.ここで,nxは,定義されているタグxに該当することがわかったので,nx以外の6種類のタグを含む文を除いた.その結果,PKUは,43913文,1118794単語からなるコーパスとなった.PKUはCTBの約11倍の大きさを持つ.まず,同程度のコーパスの大きさでの精度を検証した.PKUをランダムに文単位で11等分し,そのうちの1つ(約10万語)を用いて10分割交差検定を行った.結果を表\ref{MOR_Opentest}に示す.以下,このPKUの10万語のコーパスをPKU10万語と表記する.PKU10万語を用いての未知文テストとCTBでの未知文テストでの精度の違いは,両者のコーパスの違いに起因する.両者はともに約10万語のコーパスであるが,表\ref{OpenUnknown}から,PKUの方が未知語が多く,なおかつ1文あたりの平均形態素数がCTBより約1単語多いことがわかる(CTBでの1文平均形態素数$=41.10/1.72=23.90$,PKU10万語での1文平均形態素数$=40.71/1.64=24.82$).さらに,PKUは,CTBと比較してタグセットが大きく,タグ一種類あたりの学習データが少なくなることからタグの推定がより難しくなっている.したがって,PKU10万語での結果は,同じ10万語のCTBと比較して精度が大きく低下したと考える.MOZが再現率の面でYamChaを上回るのは,辞書を用いる利点が活かされていると考える.YamChaは1文字単位でタグの推定を行う.タグの推定に用いるのは推定対象文字とその前後2文字,さらに直前に推定した2つのタグの計7つの素性である.したがって,学習量が不十分な状態では,ある形態素が学習,テストコーパスの両方に含まれている場合でも,テストデータにおける当該形態素とその周辺文字列の組合せを素性として学習している可能性は低いためSVMが誤る可能性が大きくなる.一方,MOZでは,一度辞書に登録された形態素は,形態素分割および品詞の曖昧性が生じない限り正しく再現される.さらに学習コーパスが大きくない場合では,これらの曖昧性が発生する頻度は低いと予想する.したがってMOZが再現率の面で,YamChaを上回ったと考える.次に,PKU全てを学習コーパスとし,学習文テストを行った.テストデータとしてPKUから無作為に抽出した3993文,101218単語を解析した.なお,学習に用いるコーパスが大きくなることから,より大きな分解能が必要になると考え,MOZのコスト化係数を128から1024へと変更した.実験結果を表\ref{MorclosedTest}に示す.この結果から,学習コーパスが100万語を越えても,YamChaは変わらず高い性能を示していることがわかる.学習に用いるコーパスの大きさが非常に大きくなった場合の2つの解析器のふるまいを検討するために,11等分したデータを用いて11分割交差検定を行った.結果を表\ref{MOR_Opentest}に示す.\subsection{形態素解析結果に関する考察}以上得られた形態素解析に関する実験結果について考察する.まず,YamChaとCTBを使用した場合の未知文に対する形態素解析(分割と品詞付与)精度(F値)は87.9\%であった.同条件でMOZが83.3\%であることを考えると,言語資源としてCTBしか得られない条件下ではYamChaを使用したほうが高精度な解析器を実現できる.次に,解析時間についてはYamChaが極端に遅い.学習時間も同様である.よって解析時に実時間性を問われる状況においてはMOZを使用すべきである.YamChaでは,既に述べたように,一対比較分類に基づき品詞付与を行うため,品詞数が大きくなると,その2乗に比例するSVMが必要となる.そのため,品詞数の増加とともに,学習,解析時間が増大する.品詞付与誤りの傾向では,1節で述べたように中国語において本質的に解析の難しいと予想される箇所で両解析器共に誤っており,解析器としての誤りのくせはあまり見受けられない.未知語に対する頑健性については,YamChaのほうが優れる.実験では,YamChaは未知語の約4割を正しく解析しており,頑健性を確かめられた.この割合は,未知語率が変化しても,大きく変化することはなく,実験した範囲の未知語率(51.5\%から6.4\%)で,40\%から45\%程度であった.このことから,未知語率が大きくなったからといってそれに影響されて極端に精度が低下することはないと予想する.一方,MOZは,未知語に対して1文字ずつにnullという品詞を付与して出力するのみであるため,何らかの拡張を行わない限り品詞の推定を行えない.したがって,再現率に対して適合率が低くなる傾向がある.また,YamChaにはこのような傾向はなく,適合率が再現率を若干上回る傾向を示す.これらのことから,入力文中に多くの未知語の存在が予想される場合,あるいは学習データの語彙傾向と異なる入力文を解析する場合はYamChaを用いたほうがよい.ただし,一般的な状況としてコーパスとは別個に単語集合を入手できる場合がある.この場合にはMOZを使うべきだろう.YamChaでは単語集合があってもこの情報を学習に反映させることができず,コーパス中の出現単語のみが学習対象であるためである.言語資源をより活用しているのはYamChaであるが,辞書を用いないことから語彙的整備ができない.また人間の内省による知見を反映させにくい.したがって,既に大量のタグ付きコーパスが存在する状況では,MOZのような,接続コストを統計的言語モデルに基づいて推定する手法が頑健で,整備しやすい解析器となる.逆に,タグ付きコーパスが充分に整備されていない言語の解析器を必要とする場合,あるいは,新たに定義した品詞に対する解析器が,その品詞で解析されたコーパスが充分に存在しない状況で必要となる場合にはYamChaが有効である.また,中国語に固有の解析の難しさが考えられるが,日本語を対象とした実験の結果から,同程度のコーパスならびにそのタグセットの大きさの場合では顕著な違いは見られなかった(表\ref{MOR_Opentest}).しかしながら,京大コーパスの平均未知語率が,CTBのそれと比較して大きく(表\ref{OpenUnknown}),さらに,京大コーパスのタグセット(41)がCTBのそれ(33)より大きい.これは,日本語解析の実験条件が中国語解析の条件に比べ,厳しいことを示す.それにもかかわらず,実験結果は同程度の精度を示した.これらのことから中国語解析が,日本語解析に比べて難しいと判断する.さらに,表\ref{MOR_Opentest}は,京大コーパスの解析結果とCTBの解析結果において単語分割のみと分割と品詞付与との間の逆転現象があることを示している.これは,中国語解析の困難な点は,品詞付与にあるという我々の予見を裏付ける結果と考える.一方で,より大きなコーパスを用いることにより,高精度な解析器が実現可能であることが,表\ref{MOR_Opentest}からわかる.また,表\ref{MorclosedTest}に示した学習文テストの結果から,学習コーパスをさらに大きくするとYamChaはさらに精度を向上させる可能性がある.それに対し,MOZは,PKU(100万語以上の大きさを持つコーパス)を用いての学習文テスト結果において分割と品詞付与のF値が約95\%(表\ref{MorclosedTest})だったことから,現状の枠組のままでは,F値で95\%程度がその性能の限界だと考える.これをさらに向上させるためには,接続表へのtri-gram規則の適用ならびにその補完などが可能である.しかし,浅原らは,中国語の場合には,tri-gramの規則自体があまり有効ではなく,品詞体系の詳細化が精度の向上に寄与することを実験結果から予測している\cite{Asahara2002a}.
\section{YamChaによる基本句同定解析}
\label{節:基本句同定解析}本節では,YamChaを用いた基本句同定解析(basephrasechunking)実験について述べる.基本句同定解析とは,形態素解析結果すなわち品詞付与された単語列を入力として,最も下位の構造を同定し,その構造に対して構文的情報を付与する処理である.ここで,最も下位の構造を基本句,基本句に対する構文的情報を句情報と本報告では呼ぶことにする.このように,基本句同定解析は一段階の構文解析と考えることができる.したがって,構文解析は同定解析を繰り返すことで実現できる\cite{Abney91}.工藤らは,SVMに基づく同定解析の段階適用が,日本語の係り受け解析に有効であることを示している\cite{Kudo2002b}.\subsection{学習データ}同定解析の学習データは,形態素解析と同様にCTBを用いた.CTBが表現する構文木では,葉が形態素に相当する.基本句同定解析では,葉に最も近い位置に付与されている構造が基本句であり,形態素が基本句を構成する要素に該当する.すなわち,形態素情報を入力として基本句の区切り位置と句情報を推定する.\subsection{学習文テスト}CTB全体(3572文\footnote{形態素解析実験と異なる理由は,見出しなどを対象から除いているためである.})を学習データとして無作為に抽出した1割の文(357文)を解析する学習文テストを行った.この結果を表\ref{BP_close}に示す.学習文テストにおけるテストデータは7746の基本句からなる.そのうちYamChaは7745の基本句を同定した.このうち7741の基本句の同定に成功し,そのうち句情報も正解だったものは7740であった.すなわち,学習文テストではYamChaはほとんどすべての解析に成功した.\begin{table}[htb]\begin{center}\caption{基本句同定解析の学習文テストの結果}\label{BP_close}\begin{tabular}{l|ccc}\hline&再現率(\%)&適合率(\%)&F値(\%)\\\hline基本句同定のみ&99.94&99.95&99.94\\基本句同定と句情報付与&99.92&99.94&99.93\\\hline\end{tabular}\end{center}\end{table}\subsection{未知文テスト}次に,形態素解析実験と同様に,10分割交差検定による未知文テストを行った.学習の素性は,形態素の文字列情報,品詞情報,基本句の区切りを示すIOBタグとその基本句の句情報である.すべての学習条件はYamChaの標準設定に従っている.形態素解析実験と同様に再現率と適合率を求めた.未知文テストの結果を表\ref{BphopenResult1}に示す.なお,正解基本句数の平均は7734.4であり,YamChaが出力した基本句数の平均は7691.9である.\begin{table}[htb]\begin{center}\caption{基本句同定解析の未知文テストの結果}\begin{tabular}{l|ccc}\hline&再現率(\%)&適合率(\%)&F値(\%)\\\hline基本句同定のみ&94.61&95.12&94.86\\基本句同定と句情報付与&93.44&93.94&93.69\\\hline\end{tabular}\label{BphopenResult1}\end{center}\end{table}基本句同定,句情報付与共に比較的高い精度を得られることがわかった.また,句情報付与における誤りのうち出現率の大きい上位5種を表\ref{BphopenResult2}に示す.\begin{table}[htb]\begin{center}\caption{誤りパターンの上位5種}\begin{tabular}{r@{-}l|r}\hline正解&解析&出現率(\%)\\\hlineIP&VP&47.58(432/908)\\VP&IP&35.35(321/908)\\IP&NP&2.31(21/908)\\UCP&IP&2.20(20/908)\\PRN&IP&1.98(18/908)\\\hline\end{tabular}\label{BphopenResult2}\end{center}\end{table}1テストセットあたりの学習・解析時間は,表\ref{BphTime}の通りである.なお,形態素解析実験と同一の計算機を使用した場合,モデルファイルのコンパイルに要した時間は約1分だった.\begin{table}[htb]\begin{center}\caption{基本句同定解析の処理時間}\begin{tabular}{l|ll}\hline&学習&解析\\\hlineタグの種類&29種類&---\\文数&約3200&約350\\トークン数&約8万6千&約9500\\処理時間&約2時間&約3分\\\hline\end{tabular}\label{BphTime}\end{center}\end{table}基本句同定解析は,形態素解析と比べて高い解析精度を得た.また,学習・解析に要する時間がいずれも短い.これは付与する情報の種類が少ない,およびトークン数が少ないためである.
\section{まとめ}
本報告では,SVMに基づく言語解析器を用いて,PennChineseTreebankを言語資源とした時にどの程度の中国語解析精度が得られるかを報告した.以下にその結果をまとめる.\begin{itemize}\itemSVMに基づく解析器(YamCha)による形態素解析精度は単語単位で約88\%であり,コスト最小法に基づく解析器(MOZ)よりも4\%以上高い.未知語の約4割を正しく解析でき,未知語に対する頑健性は高い.ただし計算量に問題があり,解析時間,学習時間共に非常に長い.大量のタグ付きコーパスが入手できる場合は,YamCha,MOZのいずれを用いても,さらに高精度の解析器(110万語のコーパスの場合,F値でそれぞれ約92\%,89\%)を実現できる.そのような場合には,解析,学習にかかる時間を考慮すると,MOZを用いるべきである.なお,中国語形態素解析は日本語のそれと比較して顕著な困難さは見られなかった.\item基本句同定解析(basephrasechunking)の精度は約93\%.約3200文の学習に約2時間,357文の解析に約3分を要する.\end{itemize}\vspace*{8mm}\acknowledgment本研究は,通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものです.\newpage\bibliographystyle{jnlpbbl}\bibliography{ca_svm}\newpage\appendix\vspace*{-1em}
\section{CTBのタグセット}
\vspace*{-1em}\label{tagset}CTBにおける全品詞の説明と,全ての句情報の説明をCTBのタグ付与指針\cite{CTB_guide2000}から転記する.\begin{center}\begin{tabular}{llll}\multicolumn{2}{l}{\bf品詞情報:}&&\\AD&adverbs&M&measureword(includingclassifiers)\\AS&aspectmarker&MSP&someparticles\\BA&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/ba.eps}}inba-const&NN&commonnouns\\CC&coordinatingconj&NR&propernouns\\CD&cardinalnumbers&NT&temporalnouns\\CS&subordinatingconj&OD&ordinalnumbers\\DEC&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de.eps}}forrelative-clauseetc.&ON&onomatopoeia\\DEG&associative\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de.eps}}&P&prepositions(excluding\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/ba.eps}}and\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei4.eps}})\\DER&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de_toku.eps}}inV-deconst.andV-de-R&PN&pronouns\\DEV&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/de_ti.eps}}astheheadofDVP&PU&punctuation\\DT&determiner&SB&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei4.eps}}inshortbei-construction\\ETC&tagsfor\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/deng.eps}}and\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/deng.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/deng.eps}}&SP&sentence-finalparticle\\&incoordinationphrases&VA&predicativeadjective\\FW&foreignwords&VC&copula\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/shi.eps}}\\IJ&interjection&VE&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/you.eps}}asthemainverb\\JJ&noun-modifierotherthannouns&VV&otherverbs\\LB&\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei4.eps}}inlongbei-construction&&\\LC&localizer&&\\\end{tabular}\end{center}\vspace*{-1em}\begin{center}\begin{tabular}{llll}\multicolumn{2}{l}{\bf句情報:}&&\\ADJP&adjectivephrase&LCP&phraseformedby``XP+LP''\\ADVP&adverbialphraseheaded&LST&listmarker\\&byAD(adverb)&NP&nounphrase\\CLP&classifierphrase&PP&prepositionphrase\\CP&clauseheadedbyC(complementizer)&PRN&parenthetical\\DNP&phraseformedby``XP+DEG''&QP&quantifierphrase\\DP&determinerphrase&UCP&unidenticalcoordinationphrase\\DVP&phraseformedby``XP+DEV''&VP&verbphrase\\FRAG&fragment&&\\IP&simpleclauseheadedbyI(INFL)&&\\\end{tabular}\end{center}
\section{本報告で用いた言語情報資源}
以下に,本報告で用いた言語情報資源についてまとめる.\subsection{PennChineseTreebank}\label{CTB_CORPUS}米国ペンシルバニア大学(UniversityofPennsylvania)のChineseTreebankProjectにより作成された構文木コーパスである.このプロジェクトは1998年夏に始まり,最終版(LDC2000T48)を2000年12月に,また同一内容で誤りを修正したPennChineseTreebankVersion2.0(LDC2001T11)を2001年に公開した.新華社通信(\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/xinhua_news.eps}},XinhuaNewsAgency)の1994年から1998年の325記事から構成される,約10万語の大きさのコーパスである.CTBは\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/xinhua_news.eps}}の325記事に対して,単語分割,品詞付与,構文情報付与されたコーパスである.コーパス作成作業は,(1)作業者1名が全情報を付与する(2)別の作業者1名が点検する,という方法で行った.文字コードにはGBコードを使用し,データの書式はEnglishPennTreebankとほぼ同一である.\subsubsection*{入手方法}LinguisticDataConsortium(LDC)より出版されている.そのため,入手方法は通常のLDCのコーパスを入手する方法と同じである.本報告で使用したLDC2000T48は2000年のメンバーに配布可能である.メンバー以外であっても,US\$100にて入手することができる.関連URIを以下に示す.\begin{tabular}{ll}{ChineseTreebankProject}&{\tt\smallhttp://www.ldc.upenn.edu/ctb/}\\LDC&{\tt\smallhttp://www.ldc.upenn.edu/}\\CTB最終版&{\tt\smallhttp://www.ldc.upenn.edu/Catalog/LDC2000T48.html}\\CTBVersion2.0&{\tt\smallhttp://www.ldc.upenn.edu/Catalog/LDC2001T11.html}\\\end{tabular}\subsection{人民日報タグ付きコーパス}\label{PKU_CORPUS}富士通研究開発中心有限公司(\lower.25ex\hbox{\epsfxsize=14.3zw\epsfbox[010124790]{Chinese_Chars/fujitu.eps}})と,北京大学(\lower.25ex\hbox{\epsfxsize=4.4zw\epsfbox[01038690]{Chinese_Chars/beijingdaxue.eps}})および人民日報社(\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/renminribao.eps}})が協力し作成した,中国で最も権威を持ち影響力のある中国全国紙のタグ付きコーパスである.\lower.25ex\hbox{\epsfxsize=4.4zw\epsfbox[01038390]{Chinese_Chars/renminribao_4char.eps}}の1998年の新聞記事半年分,約1,300万文字=約730万単語からなる.\lower.25ex\hbox{\epsfxsize=5.5zw\epsfbox[01048290]{Chinese_Chars/renminribao.eps}\epsfxsize=6.6zw\epsfbox[01058190]{Chinese_Chars/xinwenxinxi_center.eps}}から,大学や研究所などでの研究利用に限定して,人民元2,000元(約3万円,実費)にて有償公開している.また,この内1ヶ月分を無償公開している.\subsubsection*{入手方法}正規版の入手に関しては,WWWページ\footnote{\tt{http://www.fujitsu.com.cn/support/}}に記載されている連絡先へ問いあわせる.また,本報告で用いた無償公開版は,\lower.25ex\hbox{\epsfxsize=13.4zw\epsfbox[010115490]{Chinese_Chars/beijingdaxue_keisan.eps}}の公開ページ\footnote{\tt{http://www.icl.pku.edu.cn/research/corpus/dwldform1.asp}}にある必要項目を満たすことにより入手できる.その他,関連URIを以下に示す.\noindent\begin{tabular}{ll}\multicolumn{2}{l}{日本語による説明:{\tt\smallhttp://pr.fujitsu.com/jp/news/2001/08/28.html}}\\\lower.25ex\hbox{\epsfxsize=13.4zw\epsfbox[010115490]{Chinese_Chars/beijingdaxue_keisan.eps}}:&\\\multicolumn{2}{r}{{\tt\smallhttp://www.icl.pku.edu.cn/Introduction/corpustagging.htm}}\\\multicolumn{2}{l}{タグセット一覧:{\tt\smallhttp://www.icl.pku.edu.cn/research/corpus/addition.htm}}\\\end{tabular}\subsection{京都大学テキストコーパス}\label{KYODAI_CORPUS}京都大学テキストコーパスは,毎日新聞1995年1月1日から17日までの全記事,約2万文,1月から12月までの社説記事,約2万文,計約4万文に対して,京都大学の形態素解析システム(JUMAN),構文解析システム(KNP)で自動解析を行い,その結果を人手で修正したコーパスである.ただし,コーパスとして含んでいるのは形態素・構文の付加情報のみであり,毎日新聞の記事そのものは含まれていない.そのためコーパス本来の形式とするためには別途毎日新聞CD-ROMが必要である.毎日新聞CD-ROMを用意し,京都大学テキストコーパスの配布パッケージに含まれるプログラムを使用して完全なコーパスの形式へ変換する.\subsubsection*{入手方法}以下のページより入手できる.\noindent{\tthttp://www-nagao.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}\newpage\begin{biography}\biotitle{略歴}\bioauthor{吉田辰巳}{1979年生.2002年豊橋技術科学大学工学部知識情報工学課程卒業.現在,豊橋技術科学大学大学院工学研究科修士課程知識情報工学専攻在学中.自然言語処理,特にテキスト自動要約の研究に従事.\\{\tte-mail:[email protected]}}\bioauthor{大竹清敬}{1973年生.2001年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).同年より国際電気通信基礎技術研究所(ATR)に所属し,現在,音声言語コミュニケーション研究所研究員.自然言語処理,特に換言処理,要約処理,機械翻訳の研究に従事.言語処理学会,人工知能学会,情報処理学会各会員.\\{\tte-mail:[email protected]}}\bioauthor{山本和英}{1969年生.1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).同年より国際電気通信基礎技術研究所(ATR)に所属し,現在音声言語コミュニケーション研究所客員研究員(非常勤).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系講師.換言処理,要約処理,機械翻訳,中国語及び韓国語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.\\{\tte-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N02-01
|
\section{はじめに}
label{sc:introduction}Web上には出所が不確かな情報や利用者に不利益をもたらす情報などが存在するため,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている.しかしながら,情報の内容の真偽や正確性を自動的に検証することは困難であるため,我々は,情報の信憑性は利用者が最終的に判断すべきであると考え,そのような利用者の信憑性判断を支援する技術の実現に向けた研究を行っている.現在,ある情報の信憑性をWebのみを情報源として判断しようとした場合,Web検索エンジンにより上位にランキングされた文書集合を読んで判断することが多い.しかしながら,例えば,「ディーゼル車は環境に良いか?」というクエリで検索された文書集合には,「ディーゼル車は環境に良い」と主張する文書と「ディーゼル車は環境に悪い」と主張する文書の両方が含まれている場合があり,その対立関係をどのように読み解くべきかに関する手がかりを検索エンジンは示さない.ここでの対立関係の読み解き方とは,例えば,一方の内容が間違っているのか,それとも,両方の内容が正しく両立できるのか,といった点に関する可能性の示唆であり,もしも両立できるのであれば,何故対立しているようにみえるのかに関する解説を提示することである.互いに対立しているようにみえる関係の中には,一方が本当でもう一方が嘘であるという真に対立している関係も存在するが,互いが前提とする視点や観点が異なるために対立しているようにみえる関係も存在する.例えば,「ディーゼル車は環境に良い」と主張する文書を精読すると「$\mathrm{CO_2}$の排出量が少ないので環境に良い」という文脈で述べられており,「ディーゼル車は環境に悪い」と主張する文書を精読すると「$\mathrm{NO_x}$の排出量が多いので環境に悪い」という文脈で述べられている.この場合,前者は「地球温暖化」という観点から環境の良し悪しを述べているのに対して,後者は「大気汚染」という観点から述べており,互いの主張を否定する関係ではない.つまり,前提となる環境を明確にしない限り「ディーゼル車は環境に良いか?」というクエリが真偽を回答できるような問いではないことを示しており,「あなたが想定している『環境』が地球温暖化を指しているなら環境に良いが,大気汚染を指しているならば環境に悪い」といった回答が,この例では適切であろう.我々は,このような一見対立しているようにみえるが,実際はある条件や状況の下で互いの内容が両立できる関係を{\bf疑似対立}と定義し,疑似対立を読み解くための手掛かりとなる簡潔な文章を提示することで利用者の信憑性判断を支援することを目的としている.ところで,Web上には,こういった疑似対立に対して,「ディーゼル車は二酸化炭素の排出量が少ないので地球温暖化の面では環境に良いが,粒子状物質や窒素酸化物の排出量が多いので大気汚染の面では環境に悪い.環境に良いか悪いかは想定している環境の種類による.」といった第三者視点から解説した文章が少数ながら存在していることがある.このような文章を,Web文書中から抽出,整理して利用者に提示することができれば,上述の回答例と同様に「環境の種類を明確にしない限り単純に真偽を判断できない」ということを気付かせることができ,利用者の信憑性判断を支援することができる.我々は,この疑似対立を読み解くための手掛かりとなる簡潔な文章を{\bf調停要約}と定義し,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く{\bf言明}と呼ぶこととする.}(以降,{\bf着目言明})が入力された場合に,着目言明の疑似対立に関する調停要約を生成するための手法を提案している\cite{Shibuki2011a,Nakano2011,Ishioroshi2011,Shibuki2010,Kaneko2009,Shibuki2011b}.なお,Kanekoetal.\citeyear{Kaneko2009}において,調停要約には,一つのパッセージで両立可能となる状況を明示的に説明する直接調停要約と,状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す間接調停要約の2種類が定義されているが,本論文では直接調停要約を対象としており,以後,直接調停要約を単に調停要約と記す.調停要約の生成は,調停という性質上,対立関係にある2言明の存在を前提として行われる.中野らの手法\cite{Nakano2011}では,着目言明と対立関係にある言明を見つけるために,着目言明中の単語を対義語で置換したり,用言を否定形にしたりすることで,対立言明を自動的に生成している.また,石下らの手法\cite{Ishioroshi2011}では,言論マップ\cite{Murakami2010}を利用することで対立言明を見つけている.しかしながら,検索された文書集合には,「ディーゼル車は環境に良いvs.ディーゼル車は環境に悪い」といった,着目言明を直截的に否定する対立点以外にも,例えば「ディーゼル車は黒煙を出すvs.ディーゼル車は黒煙を出さない」といった,異なる幾つかの対立点が存在することがあり,中野らや石下らによる従来の調停要約生成手法では,どの対立点に関する調停要約であるかを明示せずに調停要約を生成していた.利用者が信憑性を判断したい対立点({\bf焦点})であることを明確にした調停要約でなければ真に利用者の役には立たないと考えられる.それゆえ,この問題を解決するために,我々は,最初に検索された文書集合を利用者に提示し,それを読んだ利用者が焦点とする対立関係にある2文を明示した後に調停要約を生成するという対話的なアプローチを解決策の一つとして採ることとした.以上の背景から,本論文では,利用者が対立の焦点となる2文を対話的に明確化した状況下で調停要約を生成する手法を提案する.また,調停要約生成の精度を向上させるために,逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮した新しいスコアリングの式を導入し,従来の調停要約生成手法と比較した結果について考察する.さらに,以下の理由から,利用者が焦点とする2文を明確化する方法に関しても考察する.利用者が焦点とする2文を明確化する方法として,以下の2つの方法が考えられる.一つは,利用者が自ら焦点とする2文を生成する方法であり,もう一つは,提示された文書集合から,焦点とする2文に相当する記述を抽出する方法である.前者の方法が利用者の焦点をより正確に反映できると考えられるが,明確化に要する利用者の負担を軽減するという観点からは後者の方法が望ましい.従って,焦点とする2文を明確化する方法として,どちらの方法が適しているかに関しても実験を行い考察する.本論文の構成は以下の通りである.まず,\ref{sc:relatedwork}章で関連研究について述べる.\ref{sc:concept}章で調停要約生成における基本的な考え方を説明する.\ref{sc:proposedmethod}章で提案する対話型調停要約生成手法を述べる.\ref{sc:corpus}章で本論文の実験で用いる{\bf調停要約コーパス}に関して説明する.\ref{sc:experiment}章で従来の調停要約生成手法との比較実験を行い,その結果について考察する.また,焦点とする2文を明確化する方法に関しても考察する.最後に\ref{sc:conclusion}章で本論文のまとめを行う.
\section{関連研究}
\label{sc:relatedwork}\subsection{情報信憑性判断支援における調停要約の位置づけ}利用者の情報信憑性判断を支援する技術には幾つかのアプローチが考えられる.まず,利用者が着目する話題や言明に関連するWeb文書に対して,対立の構図や根拠関係などを多角的に俯瞰することを支援する技術がある.Akamineetal.\cite{Akamine2010,Akamine2009}は,利用者が入力した分析対象トピックに関連するWebページに対して,主要・対立表現を俯瞰的に提示するシステムWISDOMを開発している.Murakamietal.\citeyear{Murakami2010}は,Web上に存在するさまざまなテキスト情報について,それらの間に暗に示されている同意,対立,弱い対立,根拠などの意味的関係を解析する言論マップの生成課題を論じている.藤井\citeyear{Fujii2008}は,Web上の主観情報を集約し,賛否両論が対立する構図を論点に基づいて可視化している.Akamineetal.\citeyear{Akamine2010,Akamine2009}やMurakamietal.\citeyear{Murakami2010}や藤井\citeyear{Fujii2008}の手法では,対立関係にある記述を網羅的に提示することに焦点があり,提示された対立関係の読み解き方に関しては対象としていない.対立関係の把握が容易になるような要約を利用者に提示できれば,着目言明に関連する話題や言明群の全体像が把握しやすくなると考えられる.山本ら\cite{Yamamoto2010}は,分析対象となるWeb情報とその関連情報をデータ対で表現し,データ対間のサポート関係を分析することでWeb情報の信憑性を評価する汎用的なモデルを提案している.これは,対象データ対をサポートする関係にあるデータ対が多く存在するほど対象データ対の信憑性が高まる,という仮説に基づいている.しかしながら,Web上には,ある特殊な条件や状況下でのみ真実となるような内容に言及している記述も存在しており,そのような記述は,おそらく一般論を述べているであろう多数の記述からサポートされるとは限らない.調停要約は,一見すると矛盾するような情報が,ある条件や状況の下では成立する場合があることを利用者に示すことを目的としており,我々は,そういった特殊な条件や状況があることを示すことも利用者の信憑性判断を支援する上で必要であると考えている.Finnetal.\cite{Finn2001}は,Web上の新聞記事を対象として,コラム等の主観的な記事と事実を伝える客観的な記事に分類する研究を行っている.また,松本ら\cite{Matsumoto2009}は,文末表現を用いて,Webページが主観と客観のどちらの情報を中心として構成されているかを推定する研究を行っている.好悪といった主観に依存する言明間の対立関係の場合,互いの内容は両立することができるため,主観的であるか否かの情報は対立関係の読み解き方に役立つと考えられる.しかしながら,ディーゼル車の例のように客観的な内容の対立関係においても疑似対立となる場合があり,客観的な内容の疑似対立となる場合の読み解き方を調停要約は対象としている.他にも,利用者が着目する言明に対するWeb上の意見の変遷と意見が変わった要因を提示する河合らの研究\cite{Kawai2011},Webページのレイアウト情報を利用して情報発信者の名称を抽出するMiyazakietal.の研究\cite{Miyazaki2009},Webページの情報発信構成の考え方に基づいて情報発信者の同定を行う加藤らの研究\cite{Kato2010}等がある.河合ら\cite{Kawai2011}やMiyazakietal.\citeyear{Miyazaki2009}や加藤ら\cite{Kato2010}の研究は,発信された情報の内容ではなく,「いつ」「誰が」発信したかといった面から利用者の判断を支援するアプローチを取っている.したがって,調停要約の元文書の情報発信者を提示することで,さらに利用者への支援が容易になると考えられる.\subsection{従来の要約手法との比較}調停要約は,複数文書を対象とした抜粋型の報知的要約の一つである.その中でも,橋本ら\cite{Hashimoto2001}の研究のような,要約対象文書群から「まとめ文章」を取り出すことにより要約する手法に属する.橋本ら\cite{Hashimoto2001}は,新聞記事を対象にしており,複数文書の記述内容に齟齬があることは想定せずに,複数記事の内容をそのまままとめることが目的である.一方で調停要約では,まず,様々な立場の人物や組織が互いに対立した主張をしているようにみえる記述を含む文書集合を要約対象にしている点が異なる.さらに,得られる要約の中に,疑似対立とその読み解き方が含められるようにすることで,情報信憑性の判断に寄与することを目的としている.利用者の知りたい事柄に焦点を当てて要約する手法としては,TombrosandSandersoni\citeyear{Tombros1998}の提案するQuery-biasedsummarizationがある.これは文書検索結果に対する要約を行なう場合に,利用者が文書検索に用いたキーワードの重要度を高くして重要文抽出を行なうものである.また,利用者が質問文を与えた場合にそれを考慮した要約を提示する研究もあり,平尾ら\cite{Hirao2001}の質問が問うている事物の種類の情報を用いる手法や,Morietal.\cite{Mori2005}の質問文により焦点が与えられた場合にQAエンジンを用いて要約を行う手法などが提案されている.従来の調停要約生成手法においても,利用者から与えられた着目言明に基づいて要約を生成しており,Query-biasedsummarizationの一種であるといえる.平尾ら\cite{Hirao2001}やMorietal.\citeyear{Mori2005}の手法では,処理の直前に1回だけ利用者の興味が入力され,それに対する要約を提示した時点で処理は完結する.一方,提案する対話型調停要約生成手法では,着目言明に基づいて提示された文書群に対して利用者が対立の焦点となる2文を明示することで,さらに利用者が信憑性を判断したい対立点に焦点を当てた調停要約を提示することができる.酒井ら\cite{Sakai2006}は,利用者の要約要求を反映した要約を生成するために,利用者とのインタラクションを導入した複数文書要約システムを提案している.酒井ら\cite{Sakai2006}のシステムでは,システムが要約対象文書集合から自動的に抽出したキーワードの中から,利用者が要約要求と関連するキーワードを選択するという方法で利用者とのインタラクションを実現しているが,我々のシステムでは,提示された文書集合に対して利用者が対立関係にある任意の2文を直接選択することを想定している.キーワードではなく文によるインタラクションを行う理由として,キーワードとの関連性だけでは適切な調停要約の生成が不十分となることがあげられる.例えば,「ディーゼル車は黒煙を出す」ことに関する事例や根拠のみが書かれた記述は,「ディーゼル車」,「黒煙」,「出す」といったキーワードとの関連性が高くなると考えられる.しかしながら,そのような記述は,利用者が「ディーゼル車は黒煙を出す」という言明の信憑性を判断する材料として不十分である.利用者が正しい判断をできるようにするためには,対立関係にある「ディーゼル車は黒煙を出さない」ことに関する事例や根拠,黒煙を出す場合と出さない場合とが両立できる状況も示す必要がある.したがって,調停要約の生成には,命題レベルでの対立関係を扱う必要があり,利用者が文書集合中の任意の2文を直接選択することで,利用者が焦点とする対立点を明確化することとした.システムが提示したテキストに利用者が直接操作を加えることで,直観的かつ簡単に利用者が必要とする情報を要求するという対話的な要約生成手法としては,村田ら\cite{Murata2007}の手法がある.村田ら\cite{Murata2007}は,Scatter/Gather法\cite{Cutting1992}を要約提示の観点から捉え直す事により,提示した要約文章そのものに対し利用者が操作を行ない,それによって利用者の興味を反映した新たな要約を提示する手法を提案している.提案手法も同様の考え方に基づいており,提示された文章群の中で信憑性を判断したい対立関係にある2文を利用者がマウス操作等により明確化するという操作を行うことで,利用者が焦点とする対立関係を反映した調停要約を生成する.\subsection{質問応答システムとの比較}利用者が入力したクエリに対して簡潔な文章を出力するという枠組みは,Non-Factoid型の質問応答システム\cite{Fukumoto2007}と類似している.質問応答として捉えると,着目言明を入力としてその真偽を問うYes/No型の質問応答となることが考えられるが,調停要約の場合には,単純にYes/Noで回答できる質問ではないということを気付かせる文章を出力するという点で質問応答の考え方とは異なっている.したがって,質問応答システムにおいてYesとNoの両方の解が得られるような場合に調停要約を提示するといった利用が考えられるが,本論文では,質問応答システムとの連携は今後の課題として,単純にYes/Noでは回答できない質問が入力されることを前提としている.
\section{調停要約}
\label{sc:concept}\subsection{目標とアプローチ}\label{ssc:approach}\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f1.eps}\end{center}\caption{対話的アプローチにおける調停要約の生成例}\label{fg:survey_report}\end{figure}利用者が「朝バナナダイエットでダイエットできる」という言明に着目してその真偽を調べたい場合の,我々が目標とする調停要約と調停要約を対話的に生成する流れの例を図\ref{fg:survey_report}に示す.まず,利用者が着目言明である「朝バナナダイエットでダイエットできる」を入力し,システムは着目言明に関連するWeb文書集合を提示する.提示された文書集合中には,「バナナは高い栄養価なのに低カロリーの果物で,腹持ちに優れているのが特徴です.」という着目言明に肯定的な内容の記述と,「バナナは果物の中では水分が少ないためカロリーは高めです.」という否定的な内容の記述が存在しており,バナナのもつカロリーに関して互いに対立関係にあるようにみえる.そのため,利用者はこの2文を選択することで,バナナのカロリーが対立の焦点であることをシステムに伝え,システムは,バナナのカロリーに関する調停要約を生成し出力する.Web上には,ある対立関係について,それらが両立可能であることを示した記述が存在していることがあり,そのような記述をパッセージ単位で抜粋して提示するというのが調停要約の基本的な考え方である.なお,本論文では,文書中の一つ以上の文の連続をパッセージと定義する.この例では,バナナのもつカロリーに関しての疑似対立と調停要約が示されているが,着目言明に関連する疑似対立は一つとは限らない\footnote{例えば,バナナのカロリー以外では,バナナの種類や食べる時間等に関する疑似対立がある.}ため,それぞれの疑似対立に対応する調停要約を利用者に提示することが前提となる.しかしながら,それらの調停要約を疑似対立ごとに明示的に区別せずに提示してしまうと,利用者が焦点とする疑似対立以外の調停要約が,焦点とする疑似対立に対する利用者の判断を妨げてしまう恐れがある.それゆえ,本論文では,最初に利用者に文書集合を提示し,文書集合中で互いに矛盾しているようにみえる2文を利用者が選択した後に調停要約を生成するという対話的なアプローチを採ることで,利用者が焦点とする疑似対立に適合した調停要約を提示できると考えた.なお,利用者に提示される文書集合から,互いに矛盾しているようにみえる2文が実際に選択できるかどうか,12の着目言明\footnote{\ref{sc:experiment}節の実験で用いた6言明と,中野ら\cite{Nakano2011}の実験Aで用いた6言明の計12言明である.}を対象として以下の予備調査を行った.予備調査は,情報工学を専攻する大学生5名を対象として行い,着目言明をクエリとしてGoogle\footnote{http://www.google.co.jp/}を用いて検索されたタイトルとスニペットを上位から順に読んでもらい,互いに矛盾しているようにみえる2文を選択させた.選択された2文がそれぞれ何位の検索結果に記述されていたかを調査し,両方の文が選択された時点の順位,すなわち下位の方の順位を平均した結果,15.6位となり,殆どの場合,20位までのタイトルとスニペットを読むと,その中から互いに矛盾しているようにみえる2文を選択できたことを確認した.ただし,本研究の目的は利用者の信憑性判断を支援することであるため,最初に提示された文書集合を読んで,利用者の観点から互いに矛盾しているような記述がないならば,調停要約を生成する必要はないと考えている.また,互いに矛盾しているようにみえる2文が疑似対立であるかどうかの最終的な判断も利用者が行うべきであると考えており,調停要約生成システムでは選択された2文が疑似対立にあるものと仮定して生成した調停要約を提示することとした.\subsection{調停要約の特徴}\label{ssc:feature}我々がこれまで人手で作成した調停要約を分析した結果,調停要約として適切な記述には以下の三つの特徴があることが分かっている.第一の特徴は,着目言明や,焦点とする疑似対立との{\bf関連性}が高いことである.第二の特徴は,{\bf公平性}が高い,すなわち,着目言明を肯定する意見や根拠等と否定する意見や根拠等の両方に等しく言及していることである.調停要約は,疑似対立を読み解くための手掛かりとなる記述であるので,肯定側と否定側の双方の主張が含まれるパッセージはより適切であると考えられる.第三の特徴は,要約としての{\bf簡潔性}が高いことである.ここでの簡潔性とは,単純に短く記述されているというだけはなく,利用者の信憑性判断を支援するための材料を端的に示しているという意味も含んでいる.したがって,我々は,あるパッセージの関連性,公平性,簡潔性の度合いを計算することで,そのパッセージが調停要約として適切であるかどうかを判断できると考えた.\subsection{焦点となる2文を明確化した状況下での調停要約生成タスク}焦点となる2文が明確化した状況下での調停要約生成タスクでは,入力として,着目言明と,文書集合中の焦点となる疑似対立にある2文が利用者により与えられるものとする.通常の要約生成タスクでは,入力として要約対象となる文書集合が与えられるが,調停要約生成タスクでは,着目言明の真偽判断の材料となる文書を収集することもタスクの一部であると考えている.そのため,与えられた着目言明や焦点とする2文に関連した文書群をWeb上から検索して,要約対象とする必要がある.本論文では,最初に着目言明で検索された文書集合を利用者に提示してから,それを読んだ利用者が焦点とする対立関係にある2文を明示した後に調停要約を生成するというアプローチを採ることから,着目言明をクエリとして検索した文書集合を要約対象文書集合とすることとした.また,出力として,着目言明のトピックにおける焦点となる疑似対立の読み解き方の手掛かりを示すパッセージ群を抜粋して提示する.
\section{提案手法}
\label{sc:proposedmethod}\subsection{提案手法の概要}\label{ssc:outline}我々は,\ref{ssc:feature}節で述べた関連性,公平性,簡潔性の3つの特徴をもつパッセージを調停要約として抽出するために,以下の4種類の特徴語と3種類の手掛かり表現に基づく手法を提案する.まず,関連性に関する特徴量を,着目言明のトピックとの関連度と,焦点とする疑似対立との関連度に細分化し,それぞれの値を求めるために,{\bfトピック特徴語}と{\bf焦点特徴語}という2種類の特徴語を定義する.従来手法\cite{Shibuki2011a,Nakano2011,Shibuki2010}では,トピック特徴語のみを関連性の尺度として用いていたが,焦点とする疑似対立との関連性が低いパッセージも調停要約として出力されてしまうことがあった.それゆえ,利用者が焦点とする疑似対立への関連度をより確実に判断するため,焦点特徴語の概念を導入することとした.例えば,図\ref{fg:survey_report}の「朝バナナダイエットでダイエットできる」という着目言明において「バナナは低カロリーで満腹感がありますvs.バナナは果物の中では水分が少ないためカロリーは高めです」という疑似対立が焦点である場合,トピック特徴語は「バナナ」,焦点特徴語は「カロリー」となり,「バナナ」というトピックの中の「カロリー」の高低に焦点があることを考慮して処理できるようにした.次に,公平性に関する特徴量を,語彙的な観点と構造的な観点の両方から求めることとし,語彙的な観点からの特徴量を求めるために,{\bf肯定側特徴語}と{\bf否定側特徴語}という2種類の特徴語を,構造的な観点からの特徴量を求めるために,{\bf逆接表現}と{\bf限定表現}の2種類の手掛かり表現をそれぞれ定義する.従来手法では,着目言明を肯定または否定する意見や根拠等に現れやすい単語を肯定側特徴語および否定側特徴語として定義し,要約対象となる文書集合から統計的偏りに基づいて抽出していたが,提案手法では,焦点となる対立関係にある2文が与えられることから,2文の一方にのみ現れる単語を肯定側特徴語および否定側特徴語として定義して用いることとする.図\ref{fg:survey_report}の例であれば「低い」と「高い」が肯定側特徴語と否定側特徴語となる.また,これらの肯定側特徴語と否定側特徴語が調停要約の中でどのような構造を伴って現れるかを考えた場合,「ご飯やケーキよりは低いがオレンジやグレープフルーツよりは高い」といったように対比構造を伴っていることが多いと考えられる.そこで,対比構造を見つける手掛かり表現として,「しかし」などの逆接表現と「○○の場合に限り」などの限定表現を用いることとした.しかしながら,例えば,冒頭が「しかし」から始まるようなパッセージであった場合,その前の文脈が不明であるため逆接としての意味をなさない.それゆえ,パッセージ中に現れる位置を考慮して,これらの手掛かり表現を用いることとした.最後に,簡潔性に関する特徴量を求めるための手掛かり表現として{\bf結論表現}を定義する.従来手法で生成された調停要約の中には,「バナナ84~kcal,オレンジ24~kcal,ご飯168~kcal」のように,「ご飯やケーキよりは低いがオレンジやグレープフルーツよりは高い」といった結論を理解した上で読まないと何を主張している文章なのか理解が困難なパッセージが存在していた.提案手法では,主張が明確に述べられているかどうかを求めるために,「つまり」や「結論として」などの結論を導く表現を手掛かりとし,このような表現を結論表現と定義して用いることとした.また,パッセージ中に信憑性判断支援に寄与しない記述,例えば,商品一覧やリンク集といった名詞のリストや「TOPへ戻る」などのサイト内機能を表す文字列などが含まれていると,可読性の低下と共に利用者の理解を妨げてしまうことから,そのような不要な記述を含まないことも簡潔性を計算する上で必要な因子であると考えられる.本来であれば,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の4種類全ての特徴語を全て含み,逆接表現,限定表現,結論表現の3種類の手掛かり表現を全てパッセージ中の適切な位置に含み,調停要約に不要な記述を一切含まないパッセージが調停要約として理想である.しかしながら,上記の因子を全て含むパッセージが要約対象文書集合中に存在する可能性は低いと思われる.また,全ての因子を含まなくとも調停要約として適切なパッセージが存在することがある.従って,提案手法では,全ての因子を含むパッセージが存在しない場合でも,可能な限り多くの因子を含むパッセージを上位にランキングできるようにする.\ref{ssc:flowchart}節で提案手法の全体の流れを述べた後,\ref{ssc:keyword_extraction}節で特徴語の抽出方法を,\ref{ssc:passage_extraction}節で各因子の定式化とパッセージのスコア付けの方法を説明する.\subsection{全体の流れ}\label{ssc:flowchart}\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f2.eps}\end{center}\caption{提案手法の全体の流れ}\label{fg:outline}\end{figure}提案手法の全体の流れを図\ref{fg:outline}に示す.利用者は最初に「ディーゼル車は環境に良い」といった着目言明を入力し,システムは着目言明をクエリとして検索したWeb文書集合を利用者に提示する.利用者は提示された文書集合を読み,互いに矛盾しているように見えるために信憑性が疑わしく思える2文をマウス操作等によりマーキングする.ここで,マーキングされた2文の内,利用者が着目言明の内容を肯定する記述としてマーキングした方を{\bf肯定側記述},否定する記述としてマーキングした方を{\bf否定側記述}と定義する\footnote{便宜上,肯定側と否定側を明確にして定義しているが,本手法において両者の間に本質的な違いはない.インターフェイスにおいても,利用者は対立しているようにみえる2文の内,どちらが肯定側記述かといったことを意識することなくマーキングすることを想定している.}.システムは,着目言明,肯定側記述,否定側記述を基に,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の4種類の特徴語を抽出する.その後,抽出された特徴語と,逆接表現,限定表現,結論表現といった手掛かり表現を用いて,調停要約としての適切性を示すスコアを計算し,検索された文書集合を対象に,調停要約として適切なパッセージを抽出する.最後に,抽出されたパッセージをスコア順にランキングして利用者に提示する.従来の調停要約生成手法では,肯定側特徴語と否定側特徴語を抽出するために,対義語辞書や用言の否定形を用いて着目言明の対立言明を自動生成し,その対立言明により検索されたWeb文書集合を利用していた.しかしながら,自動生成された対立言明の精度の問題や,対立言明で検索される文書が存在しないといった問題があった.提案手法では,利用者が肯定側記述と否定側記述を直接マーキングするため,このような問題を回避することができる.また,利用者が直接マーキングすることは,調停要約の前提である,信憑性を判断したい対立点を利用者に認識させる効果がある.さらに,システムの要約生成においても,着目言明に加えて参照できる情報が増えることから精度向上につながると考えられる.しかしながら,検索文書中のテキストに利用者が直接マーキングすることに対して,以下の問題も懸念される.本来,調停要約の生成において必要な情報は,「ディーゼル車は黒煙を出すvs.ディーゼル車は黒煙を出さない」といった構文レベルで明瞭な対比構造をもった2文であるが,そのような対比構造が肯定側記述と否定側記述の間に必ずしも存在するとは限らない.また,対比構造以外の部分に含まれる語句が精度に悪影響を及ぼす可能性もある.\ref{sc:experiment}節では,この点を調査する実験を行う.\subsection{特徴語の抽出}\label{ssc:keyword_extraction}\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f3.eps}\end{center}\caption{特徴語抽出の流れ}\label{fg:keyword}\end{figure}利用者により入力された着目言明,肯定側記述,否定側記述を用いて特徴語の抽出を行う.着目言明が「ディーゼル車は環境に良い」,肯定側記述が「ディーゼル車は黒煙を出さない」,否定側記述が「ディーゼル車は黒煙を出す」とした場合の特徴語の抽出の流れを図\ref{fg:keyword}に示す.最初に,MeCab\footnote{http://mecab.sourceforge.net/}を用いて,着目言明,肯定側記述,否定側記述の形態素解析を行い,それぞれに含まれる内容語を抽出する.本論文では,以下の3つの条件を満たす語を内容語と定義した.(1)品詞が,`名詞',`動詞',`形容詞'のいずれかであり,(2)品詞細分類1が,`非自立',`接尾',`数',`代名詞',`特殊',`副詞可能'以外であり,(3)原形が`する',`なる',`できる',`ある',`いる',`ない'以外の単語である.内容語を抽出した後,各内容語が存在する文節内に存在する「不」などの接頭辞や「ない」などの助動詞により,否定の意味で用いられているかどうかも判断する\footnote{「効果がない」のような文は2文節として解析されてしまうが,「効果ない」と同値となるよう処理をしている.}.次に,抽出された肯定側記述の内容語と否定側記述の内容語を比較して,差分となる内容語(「出さない」と「出す」)をそれぞれ肯定側特徴語と否定側特徴語とする.内容語が同じであるかどうかを判定する際には,分類語彙表\cite{BunruiGoiHyou2004}による類義語拡張を行っている.最後に,肯定側記述と否定側記述に共通の内容語(「ディーゼル」,「車」,「黒煙」)と着目言明の内容語を比較して,着目言明に含まれない内容語(「黒煙」)を焦点特徴語とし,共通の内容語(「ディーゼル」,「車」)をトピック特徴語とする.このようにすることで,「ディーゼル車」というトピックにおける「黒煙」を「出す」か「出さない」かという対立点を明確に捉えることができると考えられる.\subsection{パッセージの抽出とランキング}\label{ssc:passage_extraction}調停要約となるパッセージの抽出は,従来手法\cite{Shibuki2011a,Nakano2011,Shibuki2010}と同様に以下の手順で行う.まず,抽出された特徴語を用いて,文単位で調停要約らしさのスコアを計算する.次に,各文のスコアを平滑化した後,平滑化されたスコアに基づいてパッセージの切り出しを行う.最後に,切り出されたパッセージ単位で調停要約らしさのスコアを計算し,ランキングする.ただし,\ref{sc:experiment}節では,既に正解パッセージが切り出されている調停要約コーパスを用いて評価することを想定していることから,パッセージ単位でのスコア計算に関してのみ記述する.調停要約として適切なパッセージには,\ref{ssc:outline}節で述べたように,(a)全ての種類の特徴語が多く存在し,(b)逆接,限定,結論などの手掛かり表現が適切な位置にあり,(c)不要な文が存在しない,といった特徴があると考えられるため,これらの特徴に基づいてパッセージのスコアを計算する.まず,各特徴語がパッセージ中にどれだけ多く存在しているかを求めるために,パッセージ$p$の,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語によるスコアをそれぞれ$sc_{tk}(p)$,$sc_{fk}(p)$,$sc_{pk}(p)$,$sc_{nk}(p)$とし,以下の式に従って計算する.{\allowdisplaybreaks\begin{gather}sc_{tk}(p)=\frac{N_{tk}(p)}{T_{tk}}+1\\sc_{fk}(p)=\frac{N_{fk}(p)}{T_{fk}}+1\\sc_{pk}(p)=\frac{N_{pk}(p)}{T_{pk}}+1\\sc_{nk}(p)=\frac{N_{nk}(p)}{T_{nk}}+1\end{gather}}$N_{tk}(p)$,$N_{fk}(p)$,$N_{pk}(p)$,$N_{nk}(p)$はパッセージ$p$中に含まれる各特徴語の異なり数であり,$T_{tk}$,$T_{fk}$,$T_{pk}$,$T_{nk}$は抽出された各特徴語の総異なり数である.また,各スコアの値を1から2の範囲に正規化するために1を加えている.調停要約は,調停という性質上,肯定意見と否定意見の両方に公平に言及していることが求められる.そのような互いに対立する意見に言及する文章では,両方の意見を対比する構造が存在しており,また,対比構造は一般に「しかし」などの逆接表現を伴って書かれることが多い.さらに,公平性という観点からは,両方の意見に対して等量の記述があることが望ましい.したがって,逆接表現がパッセージの中央に存在する場合にスコアが高くなるよう,逆接表現によるスコア$sc_{ae}(p)$を以下の式に従って計算する.\begin{equation}sc_{ae}(p)=2-\frac{|\frac{1}{2}N_{ts}(p)-FP_{ae}(p)|}{\frac{1}{2}N_{ts}(p)}\end{equation}$N_{ts}(p)$はパッセージ$p$に含まれる文数であり,$FP_{ae}(p)$は表\ref{tb:adversative_expression}に示すいずれかの逆接表現が$p$中で最初に現れた文の位置である.なお,表中の分類は,MeCabのIPA辞書の品詞体系に基づいている.\begin{table}[t]\caption{逆接表現の一覧}\label{tb:adversative_expression}\input{01table01.txt}\end{table}\begin{table}[t]\caption{限定表現の一覧}\label{tb:proviso_expression}\input{01table02.txt}\end{table}逆接表現を伴わない対比構造の表現方法の一つとして,「但し○○の場合に限る」といった一方の意見を限定する表現により,暗黙の内に対立するもう一方の意見の状況を示す方法がある.また,このような但し書きは文章の最後にあることが多いと考えられる.したがって,限定表現がパッセージの最後に存在する場合にスコアが高くなるよう,限定表現によるスコア$sc_{pe}(p)$を以下の式に従って計算する.\begin{equation}sc_{pe}(p)=\frac{N_{ts}(p)-LP_{pe}(p)}{N_{ts}(p)}+1\end{equation}$LP_{pe}(p)$は表\ref{tb:proviso_expression}に示すいずれかの限定表現が$p$中で最後に現れた文の位置である.信憑性判断を支援するという目的上,結論部分が明確に記述されていることが求められる.そのような結論部分は,「つまり」や「結論として」といった文章全体を総括する表現により書かれていることが多い.また,利用者の立場からは,唐突に結論だけを示されてもその結論が正しいかどうか判断が困難になると考えられるため,結論に至る根拠や前提が示されていることが望ましい.したがって,結論表現がパッセージの最後に存在する場合にスコアが高くなるよう,結論表現によるスコア$sc_{ce}(p)$を以下の式に従って計算する.\begin{equation}sc_{ce}(p)=\frac{N_{ts}(p)-LP_{ce}(p)}{N_{ts}(p)}+1\end{equation}$LP_{ce}(p)$は表\ref{tb:conclusive_expression}に示すいずれかの結論表現が$p$中で最後に現れた文の位置である.\begin{table}[t]\caption{結論表現の一覧}\label{tb:conclusive_expression}\input{01table03.txt}\end{table}調停要約は要約の一種であるため,重要性や関連性が低い部分を可能な限り省いた文章を提示することが求められる.本論文では,特徴語や手掛かり表現を含んでいない文を不要な文として,不要な文が少ないパッセージほどスコアが高くなるようにした.パッセージ$p$中に含まれる不要な文の数を$N_{rs}(p)$として,不要な文に関するスコア$sc_{rs}(p)$を以下の式に従って計算する.\begin{equation}sc_{rs}(p)=\frac{N_{ts}(p)-N_{rs}(p)}{N_{ts}(p)}\end{equation}最終的なパッセージ$p$のスコア$sc(p)$は以下の式に従って計算する.\begin{equation}sc(p)=sc_{tk}(p)\timessc_{fk}(p)\timessc_{pk}(p)\timessc_{nk}(p)\timessc_{ae}(p)\timessc_{pe}(p)\timessc_{ce}(p)\timessc_{rs}(p)\label{eq:final_score}\end{equation}各スコアの積を最終的なスコアとすることで,各特徴語,手掛かり表現,不要な文に関する条件を全て満たしているパッセージが上位にランキングされるようにした.
\section{調停要約コーパス}
\label{sc:corpus}調停要約コーパスは,渋木ら\cite{Shibuki2011b}において,調停要約の分析及び評価を目的として構築されたコーパスである.調停要約コーパスには,「コラーゲンは肌に良い」,「飲酒は健康に良い」,「炭酸飲料はからだに悪い」,「原発は地震でも安全である」,「車内での携帯電話の使用は控えるべきである」,「嘘をつくのは悪いことである」の6つの着目言明に対して,要約対象となる500程度のWeb文書集合と,人手で作成した調停要約が収録されている.各着目言明には,「コラーゲンは肌に良いvs.コラーゲンは肌に良いとは限らない」といった着目言明そのものに関する対立点と,「動物性のコラーゲンは良くないvs.動物性のコラーゲンは良い」や「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」といった関連する4つの対立点の計5つの対立点が設定されている.各着目言明には4名の作業者が割り当てられ,各作業者は対立点ごとに要約対象のWeb文書集合から,肯定側の意見と思われる記述,否定側の意見と思われる記述,調停要約として適切なパッセージのそれぞれの集合を抽出している.渋木ら\cite{Shibuki2011b}は調停要約コーパスの構築作業のために専用のタグ付けツールを開発しており,全ての作業をツール上で行うことで,タグ付け労力の軽減とヒューマンエラーの抑制を行っている.\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f4.eps}\end{center}\caption{調停要約コーパス中に収録されている調停要約の例}\label{fg:corpus}\end{figure}図\ref{fg:corpus}に,着目言明「コラーゲンは肌に良い」に対して,ある1名の作業者が作成した調停要約の一部を示す.調停要約に関する情報はXML形式で付与されている.各対立点は{\sf$<$Conflict$>$}タグにより区切られており,図\ref{fg:corpus}中のボックスでは3番目の対立点が示されている.各{\sf$<$Conflict$>$}タグ内には,一つの{\sf$<$Label$>$}タグ,複数の{\sf$<$Statement$>$}タグ,複数の{\sf$<$Mediation$>$}タグが存在する.{\sf$<$Label$>$}タグは,「コラーゲンは食べると良い⇔コラーゲンは塗ると良い」といった,対立点を表す,人手で作成されたラベルを示している.{\sf$<$Statement$>$}タグは,Web文書から抽出された,肯定側または否定側の意見と思われる記述を示しており,{\sfPolarity}属性の値が{\sf`POSITIVE'}か{\sf`NEGATIVE'}かで肯定側の意見か否定側の意見かを示している.{\sf$<$Statement$>$}タグの記述は,「コラーゲンドリンクで効いてる実感ってなかったけど,このコラーゲンは高純度っていうだけあってスゴイ」や「コラーゲンには保湿効果があるので,ヘアパックなどにも用いられることがあります」といったものであり,肯定側と否定側の記述でペアを作成しても,{\sf$<$Label$>$}タグの記述のように明瞭な対比構造をなすことは殆どない.{\sf$<$Mediation$>$}タグは,調停要約としてWeb文書から抽出されたパッセージを示している.なお,どの着目言明においても,1番目の対立点は,「コラーゲンは肌に良い⇔コラーゲンは肌に良いとは限らない」といった着目言明そのものに関する対立点となっている.また,2番目から5番目の対立点以外にも着目言明に関連する対立点は存在しているため,1番目の対立点の{\sf$<$Mediation$>$}タグの集合が,2番目から5番目の対立点の{\sf$<$Mediation$>$}タグの和集合と等しくなるわけではない.
\section{実験}
\label{sc:experiment}\subsection{目的と評価方法}\label{ssc:evaluation}本論文では,以下の3点を目的とした実験を行う.1点目は,提案する対話型調停要約生成手法の有効性を確認することである.2点目は,利用者が焦点とする2文を明確化する方法として,利用者が自ら生成する方法と,提示された文書集合から抽出する方法のどちらが適しているかを考察することである.3点目は,パッセージのスコア計算に用いられる各因子が,調停要約の精度にどの程度寄与しているかを調査することである.まず,対話型調停要約生成手法の有効性を確認するために,従来の調停要約生成手法である渋木ら\cite{Shibuki2011a}との比較を第一の実験として行う.次に,焦点とする2文を明確化する方法に関してであるが,提案手法における特徴語の抽出は,\ref{ssc:keyword_extraction}節で述べたように,肯定側記述と否定側記述の間の構文レベルでの対比構造に基づいて行われる.一方,肯定側記述と否定側記述は,\ref{ssc:flowchart}節で述べたように,提示された文書集合からマウス操作等により直接マーキングされることを想定しており,構文レベルで明瞭な対比構造をもたないと考えられる.それゆえ,第二の実験では,焦点とする2文を人手により生成した場合とマーキングの結果に基づきWeb文書から抽出した場合の影響を調査する.また,\ref{ssc:passage_extraction}節で述べたように,パッセージのスコアは,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語,逆接表現,限定表現,結論表現,不要な文の8種類の因子により計算されている.第三の実験では,これらの各因子が,調停要約の精度にどの程度寄与しているかを調査する.要約の評価手法としてROUGE\cite{Lin2003}が一般的であるが,N-gramによる再現度のスコア付けでは肯定側の記述と否定側の記述を区別せず,\ref{ssc:feature}節で述べた公平性を考慮することが困難であるため,調停要約の評価手法として適切ではない.提案手法の中核をなす処理は,\ref{ssc:passage_extraction}節に述べたパッセージの抽出とランキングであるため,正解パッセージと不正解パッセージからなる集合を作成し,正解パッセージ群を不正解パッセージ群よりも上位にランキングできるかどうかにより手法の評価を行うこととした.調停要約コーパスから以下の手順で実験データを作成した.まず,{\sf$<$Mediation$>$}タグの記述集合を正解のパッセージ集合とする.コーパスに収録されているWeb文書には,{\sf$<$Mediation$>$}タグ以外のパッセージ境界がないため,正解パッセージ集合の平均文字長を計算し,分割したパッセージの平均長が正解パッセージの平均長に近くなるよう,各文書の先頭から平均文字長$-\alpha$を超えた文境界で分割する.このとき,{\sf$<$Mediation$>$}タグを含む文書を分割対象外として,分割されたパッセージ集合を不正解のパッセージ集合とした.正解および不正解のパッセージ集合の中には,平均文字長との差が極めて大きいものがあるため,平均文字長$\pm\alpha$の範囲にない長さのパッセージを実験データから除外した.平均文字長は230であり,$\alpha$の値は経験則的に30とした.着目言明ごとの総パッセージ数と正解パッセージ数は,表\ref{tb:query_statement}の総数と正解に示す値となった.表\ref{tb:query_statement}の値から,調停要約生成は7,000以上のパッセージ中に数十程度しか存在しない正解パッセージを見つけ出すという困難なタスクであり,また,正解となるパッセージ数は非常に少ないが0ではなく,そのようなパッセージを抽出するという提案手法のアプローチに妥当性があるということが言える.\begin{table}[t]\caption{着目言明ごとのパッセージ数}\label{tb:query_statement}\input{01table04.txt}\end{table}評価指標として適合率と再現率を用いた.調停要約として適切なパッセージは,コーパスに収録されているWeb文書集合から網羅的に抽出しているため,コーパス中のWeb文書を要約対象文書として処理を行うと再現率を計算することができる.また,調停要約として適切なパッセージ群が可能な限り多く上位にランキングされているか調査するために,TREC\footnote{http://trecnist.gov/}やNTCIR\footnote{http://research.nii.ac.jp/ntcir/index-ja.html}の情報検索タスクで広く用いられている平均精度を用いた.第$r$位の適合率$\mathrm{Pre}(r)$と再現率$\mathrm{Rec}(r)$,および平均精度$\mathrm{AP}$は,それぞれ以下の式により計算される.\begin{gather}\mathrm{Pre}(r)=\frac{correct(r)}{r}\\\mathrm{Rec}(r)=\frac{correct(r)}{R}\\\mathrm{AP}=\frac{1}{R}\sum_rI(r)\mathrm{Pre}(r)\label{eq:average_precision}\end{gather}$R$は正解パッセージの総数,$correct(r)$は第$r$位までの出力パッセージに含まれる正解パッセージ数,$I(r)$は第$r$位のパッセージが正解ならば1,不正解ならば0を返す関数である.\subsection{従来手法との比較実験}\begin{table}[t]\caption{着目言明ごとの平均精度}\label{tb:average_precision}\input{01table05.txt}\end{table}\begin{table}[t]\caption{上位$r$件の適合率と再現率}\label{tb:precision_recall}\input{01table06.txt}\end{table}利用者が焦点とする2文を対話的に明確化した状況下における提案手法の有効性を示すために,本実験と同じ正解データを用いている従来手法\cite{Shibuki2011a}と比較した結果を表\ref{tb:average_precision}と表\ref{tb:precision_recall}にそれぞれ示す.従来研究\cite{Shibuki2011a}では,焦点とする2文が不明瞭な状況下で着目言明のみを入力としているため,1番目から5番目の全ての対立点における{\sf$<$Mediation$>$}タグの記述の和集合を正解データとして評価している.本論文では,提案手法と直截比較するため,対立の観点が明示されている2番目から5番目までの各対立点における{\sf$<$Mediation$>$}タグの集合を正解データとして適合率,再現率,平均精度を計算し,その値を平均した値を従来手法の評価とした.同様に,提案手法も2番目から5番目までの対立点ごとの{\sf$<$Mediation$>$}タグの集合を正解データとして評価した後,4つの対立点の値を平均している.一方,入力に関しては,従来手法が着目言明のみを与えたのに対し,提案手法は着目言明と焦点となる2文を与えている.焦点となる2文として,{\sf$<$Label$>$}タグの記述,または,{\sf$<$Statement$>$}タグの記述を用いることが考えられるが,表\ref{tb:average_precision}および表\ref{tb:precision_recall}の値は,着目言明と{\sf$<$Label$>$}タグの記述を用いた場合の結果と,着目言明と{\sf$<$Statement$>$}タグの記述を用いた場合の結果を平均した値である.表\ref{tb:average_precision}において,焦点となる2文を与える提案手法の方が従来手法よりも全体的に高い値を示している.なお,着目言明そのものに関する,第一の対立点の{\sf$<$Label$>$}タグを用いた場合でも,例えば,「コラーゲンは肌に良いとは限らない」といった対立言明が明確になるため,「コラーゲンは肌に良い」という着目言明のみを用いる従来手法よりも提案手法の方が入力される情報量は多くなる.表\ref{tb:precision_recall}の値は全ての着目言明の平均値を示している.表\ref{tb:average_precision}に示すように,正解パッセージ数は数十程度であるため,達成可能な適合率が必ずしも100\%になるとは限らない.それゆえ,表\ref{tb:precision_recall}では,正解パッセージをより上位に,より多く出力する方が優れた手法であると考える.従来手法と比較すると,上位10件の適合率が0.050から0.231に向上しており,下位まで評価範囲を広げた場合においても全体的に精度の改善が見られる.再現率に関しても,従来手法では上位1,000件において半分に達しなかった再現率が0.678に向上しており,網羅性の点で大きく改善されたと考えられる.\subsection{焦点とする2文の対比構造が精度に及ぼす影響に関する実験}焦点とする2文を人手により生成する場合とWeb文書から抽出する場合の影響を調査するために,{\sf$<$Label$>$}タグと{\sf$<$Statement$>$}タグを用いて,肯定側記述と否定側記述の入力を以下のように変えた場合の平均精度を求めた.人手により生成する場合の肯定側記述と否定側記述には,{\sf$<$Label$>$}タグの記述を利用することとし,Web文書から抽出する場合の肯定側記述と否定側記述には,{\sfPolarity}属性の値が{\sf`POSITIVE'}と{\sf`NEGATIVE'}である{\sf$<$Statement$>$}タグの記述をそれぞれ利用することとした.例えば,図\ref{fg:corpus}に示した,着目言明「コラーゲンは肌に良い」における3番目の対立点が焦点となる場合,人手により生成する場合の肯定側記述は,{\sf$<$Label$>$}タグの記述「コラーゲンは食べると良い⇔コラーゲンは塗ると良い」を用いて「コラーゲンは食べると良い」となり,否定側記述は「コラーゲンは塗ると良い」となる.また,{\sf$<$Statement$>$}タグの記述を用いて,Web文書から抽出する場合の肯定側記述は「コラーゲンドリンクで効いてる実感ってなかったけど,このコラーゲンは高純度っていうだけあってスゴイ」,否定側記述は「コラーゲンには保湿効果があるので,ヘアパックなどにも用いられることがあります」となる.なお,{\sf$<$Statement$>$}タグは複数存在し,全ての組み合わせを考慮すると膨大な数になるため,ランダムに組み合わせた5組を用いて実験を行った.表\ref{tb:focus_affect}に結果を示す.表\ref{tb:focus_affect}の値は,肯定側記述と否定側記述の組を入力とした時の平均精度の値を,全ての着目言明における全ての対立点について平均したものである.明瞭な対比構造をもつ,{\sf$<$Label$>$}の記述を用いた場合よりも,{\sf$<$Statement$>$}タグの記述を用いた方が良いという結果となった.したがって,提示された文書集合から焦点とする2文を選択するという対話的なアプローチを採ることが精度の面で問題ないと言える.このような結果になった理由として,まず,抽出される特徴語が増加したことによる焦点の明確化および焦点に関連するパッセージの絞り込みが容易になったことが考えられる.一方で,{\sf$<$Statement$>$}タグの記述を用いた場合には,「実感」や「スゴイ」といった,着目言明や焦点と無関係な語も特徴語として抽出されてしまうが,これらの語による悪影響が小さかった理由としては,手掛かり表現による制約が有効に働いたためと考えられる.\begin{table}[t]\caption{焦点となる2文の違いによる平均精度への影響}\label{tb:focus_affect}\input{01table07.txt}\end{table}\subsection{特徴語と手掛かり表現が精度に及ぼす影響に関する実験}調停要約としての適切性の計算には,式(\ref{eq:final_score})に示すように,トピック特徴語に関するスコア$sc_{tk}$,焦点特徴語に関するスコア$sc_{fk}$,肯定側特徴語に関するスコア$sc_{pk}$,否定側特徴語に関するスコア$sc_{nk}$,逆接表現に関するスコア$sc_{ae}$,限定表現に関するスコア$sc_{pe}$,結論表現に関するスコア$sc_{ce}$,不要文に関するスコア$sc_{rs}$の8種類の因子に関するスコアが用いられている.そこで,ある1種類の因子に関するスコアを考慮せずに,他の7種類の因子に関するスコアのみを用いて調停要約としての適切性を計算した場合の結果と比較することで,各因子が調停要約生成の精度にどの程度寄与しているかを調査した.着目言明ごとの平均精度への影響を表\ref{tb:average_precision_by_keywords}と表\ref{tb:average_precision_by_expressions_and_redundant}に示す.また,適合率と再現率への影響を表\ref{tb:influence1}と表\ref{tb:influence2}にそれぞれ示す.各列は,ある1種類の因子に関するスコアを考慮せずに,例えば,$-sc_{tk}$であればトピック特徴語に関するスコアを考慮せずに,調停要約の適切性を計算した場合の平均精度を示している.表\ref{tb:average_precision}や表\ref{tb:precision_recall}の提案手法の値と比較して低いほど,その因子が精度に寄与した割合が高いと考えられる.8因子の中で最も低下した因子の結果を太字で示している.また,考慮しない方が上昇している因子の結果を斜字体で示している.着目言明によってばらつきがあるものの,トピック特徴語,逆接表現,限定表現による影響が大きいことが分かる.特徴語の場合,「炭酸飲料はからだに悪い」の否定側特徴語を除いて,基本的に精度の向上に寄与しているが,手掛かり表現と不要な文の場合,着目言明によっては,考慮しない方が良い結果をもたらす場合があった.しかしながら,表\ref{tb:influence1}と表\ref{tb:influence2}の上位10件において値の低下が見られることから,総合的には全ての因子が調停要約の適切性を判定するのに必要であると考えられる.\begin{table}[t]\caption{特徴語による平均精度への影響}\label{tb:average_precision_by_keywords}\input{01table08.txt}\end{table}\begin{table}[t]\caption{手掛かり表現と不要な文による平均精度への影響}\label{tb:average_precision_by_expressions_and_redundant}\input{01table09.txt}\end{table}\begin{table}[t]\caption{特徴語,手掛かり表現,不要な文による適合率への影響}\label{tb:influence1}\input{01table10.txt}\end{table}\begin{table}[t]\caption{特徴語,手掛かり表現,不要な文による再現率への影響}\label{tb:influence2}\input{01table11.txt}\end{table}\subsection{事例の分析}従来手法と比較して,提案手法により精度の改善につながった例を表\ref{tb:success_examples}に示す.\begin{table}[t]\caption{提案手法により改善されたパッセージの例}\label{tb:success_examples}\input{01table12.txt}\end{table}着目言明「コラーゲンは肌に良い」におけるパッセージは,「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」という疑似対立を調停している理想的な正解の出力例である.このパッセージは,従来手法において63位にランキングされていたが,「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」という,焦点とする2文が与えられたことにより,肯定側特徴語「食べる」や否定側特徴語「塗る」に関するスコアが他のパッセージに比べて相対的に高くなり,1位にランキングされた.また,逆接表現「しかし」がパッセージの中程に現れていることも1位にランキングされる要因の1つとなった.着目言明「飲酒は健康に良い」における例は,「飲酒」に関連した記述ではあるが調停要約として相応しくないパッセージである.従来手法では,「飲酒」や「健康」といった特徴語を含んでいるため,950位にランキングしていたが,提案手法では,手掛かり表現や不要な文に関するスコアが低いことを考慮することで,調停要約として適切ではないと判定して4,265位にランキングすることができた.提案手法により改善できなかった例を表\ref{tb:fail_examples}に示す.着目言明「嘘をつくのは悪いことである」の例は,調停要約として適切な内容のパッセージであるが,提案手法では1,382位にランキングされることとなった.これは,着目言明や焦点とする2文では「嘘」と漢字で表記されていたのに対して,パッセージ中では「うそ」と仮名で表記されていたため,トピック特徴語「嘘」がパッセージ中に存在しないと判定されたことが原因であった.提案手法では,分類語彙表による類義語の処理しか行っていなかったため,今後,表記ゆれの処理を行うことで対処したいと考えている.\begin{table}[t]\caption{提案手法により改善されなかったパッセージの例}\label{tb:fail_examples}\input{01table13.txt}\end{table}着目言明「飲酒は健康に良い」の例は,飲酒と癌になるリスクとの関係に関する調停要約として適切なパッセージであるが,「飲酒は心臓病のリスクを上げるvs.飲酒は心臓病のリスクを上げない」という疑似対立に対する調停要約としては不適切なパッセージである.提案手法では,パッセージ中に,トピック特徴語「飲酒」,焦点特徴語「リスク」,逆接表現「一方」等が含まれていたため,63位にランキングされることとなった.また,焦点特徴語として「心臓病」と「リスク」の2語が抽出されたが,どちらの特徴語も同等の重みで処理をしている.しかしながら,癌のリスクではなく心臓病のリスクに焦点を当てるためには「心臓病」を「リスク」よりも重視した処理を行う必要がある.「リスク」の方が「心臓病」よりも一般的な語であることから,tf-idf法\cite{dictionary2010}等により単語の一般性を計算し,抽出された特徴語の重みに反映させることで,この問題に対処したいと考えている.着目言明「車内での携帯電話の使用は控えるべきである」の例は,車内での携帯電話の使用を話題としたパッセージであるが,単に札幌の地下鉄での現状とそれに対する個人の推測を述べているだけであり調停要約としては不適切なパッセージである.提案手法では,パッセージ中にトピック特徴語「車内」や「携帯電話」,逆接表現「しかし」等が含まれていることから全体的にスコアが高くなり,4位にランキングされることとなった.このパッセージが不適切である理由は,否定側記述の内容を行う人間の心理を推測しているだけであり,両立可能となる客観的な根拠や条件を示していないからだと考えられる.従って,今後,主観性判断\cite{Finn2001,Matsumoto2009}やモダリティ解析\cite{matsuyoshi2010}等を活用することで,この問題に対処していきたいと考えている.
\section{おわりに}
\label{sc:conclusion}本論文では,利用者が対立の焦点となる2文を対話的に明確化した状況下で調停要約を生成する手法を提案した.提案手法は,着目言明により検索された文書集合を最初に利用者に提示し,文書集合中で互いに矛盾しているようにみえる2文を利用者が選択した後に調停要約を生成するという対話的なアプローチを採ることで,利用者が焦点とする疑似対立に適合した調停要約を提示する.また,パッセージの関連性,公平性,簡潔性の3つの特徴量を,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の4種類の特徴語と,逆接表現,限定表現,結論表現の3種類の手掛かり表現が含まれる位置と,特徴語も手掛かり表現も含まない不要な文の数を用いて求めることで,調停要約として適切なパッセージを抽出する.提案手法の有効性を確認するために,構文レベルで明瞭な対比構造をもたない2文を焦点とした場合と,計算で用いた8種類の各因子を除いた場合に,生成される調停要約の精度にどの程度影響を与えるかを調停要約コーパスを用いてそれぞれ調査した.その結果,明瞭な対比構造をもつラベルを用いた場合の平均精度0.022よりも,明瞭な対比構造をもたない,実文書から抽出された記述を用いた平均精度0.125の方が良い結果となったことから,対話的なアプローチを採ることの妥当性を確認した.また,着目言明により差があるものの,総合的に各因子を除くと精度が低下することから,全ての因子が調停要約の適切性を判定するのに必要であることを確認した.さらに,従来手法と比較した場合,上位10件の適合率が0.050から0.231に,上位1,000件での再現率が0.429から0.678にそれぞれ向上したことを確認した.今後は,誤り分析により明らかになった問題を解決することで,さらなる改善につなげたいと考えている.\acknowledgment本研究の一部は,科学研究費補助金(No.~22500124,No.~25330254),ならびに,横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWISDOM:AWebInformationCredibilityAnalysisSystem.\BBCQ\\newblockIn{\BemtheACL-IJCNLP2009SoftwareDemonstrations},pp.1--4.\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Leon-Suematsu,Kawada,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2010}]{Akamine2010}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Leon-Suematsu,Y.~I.,Kawada,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2010\BBCP.\newblock\BBOQOrganizingInformationontheWebtoSupportUserJudgmentsonInformationCredibility.\BBCQ\\newblockIn{\Bemthe4thInternationalUniversalCommunicationSymposium(IUCS2010)},pp.123--130.\bibitem[\protect\BCAY{Cutting,Karger,Pedersen,\BBA\Tukey}{Cuttinget~al.}{1992}]{Cutting1992}Cutting,D.~R.,Karger,D.~R.,Pedersen,J.~O.,\BBA\Tukey,J.~W.\BBOP1992\BBCP.\newblock\BBOQScatter/Gather:ACluster-BasedApproachtoBrowsingLargeDocumentCollections.\BBCQ\\newblockIn{\Bemthe15thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'92)},pp.318--329.\bibitem[\protect\BCAY{Finn,Kushmerick,\BBA\Smyth}{Finnet~al.}{2001}]{Finn2001}Finn,A.,Kushmerick,N.,\BBA\Smyth,B.\BBOP2001\BBCP.\newblock\BBOQFactorfiction:Contentclassificationfordigitallibraries.\BBCQ\\newblockIn{\BemtheSecondDELOSNetworkofExcellenceWorkshoponPersonalisationandRecommenderSystemsinDigitalLibraries},pp.18--20.\bibitem[\protect\BCAY{藤井}{藤井}{2008}]{Fujii2008}藤井敦\BBOP2008\BBCP.\newblockOpinionReader:意思決定支援を目的とした主観情報の集約・可視化システム.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ91-D}(2),\mbox{\BPGS\459--470}.\bibitem[\protect\BCAY{Fukumoto,Kato,Masui,\BBA\Mori}{Fukumotoet~al.}{2007}]{Fukumoto2007}Fukumoto,J.,Kato,T.,Masui,F.,\BBA\Mori,T.\BBOP2007\BBCP.\newblock\BBOQAnOverviewofthe4thQuestionAnsweringChallenge(QAC-4)atNTCIRWorkshop6.\BBCQ\\newblockIn{\Bemthe6thNTCIRWorkshopMeeting},pp.433--440.\bibitem[\protect\BCAY{言語処理学会}{言語処理学会}{2010}]{dictionary2010}言語処理学会\JED\\BBOP2010\BBCP.\newblock\Jem{デジタル言語処理学事典}.\newblock共立出版.\bibitem[\protect\BCAY{橋本\JBA奥村\JBA島津}{橋本\Jetal}{2001}]{Hashimoto2001}橋本力\JBA奥村学\JBA島津明\BBOP2001\BBCP.\newblock複数記事要約のためのサマリパッセージの抽出.\\newblock\Jem{言語処理学会第7回年次大会発表論文集},pp.285--288.\bibitem[\protect\BCAY{平尾\JBA佐々木\JBA磯崎}{平尾\Jetal}{2001}]{Hirao2001}平尾努\JBA佐々木裕\JBA磯崎秀樹\BBOP2001\BBCP.\newblock質問に適応した文書要約手法とその評価.\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),\mbox{\BPGS\2259--2269}.\bibitem[\protect\BCAY{石下\JBA渋木\JBA中野\JBA宮崎\JBA永井\JBA森}{石下\\Jetal}{2011}]{Ishioroshi2011}石下円香\JBA渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock直接調停要約自動生成システムHERMeSの言論マップとの連携.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},pp.~208--211.\bibitem[\protect\BCAY{Kaneko,Shibuki,Nakano,Miyazaki,Ishioroshi,\BBA\Morii}{Kanekoet~al.}{2009}]{Kaneko2009}Kaneko,K.,Shibuki,H.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Morii,T.\BBOP2009\BBCP.\newblock\BBOQMediatorySummaryGenaration:Summary-PassageExtractionforInformationCredibilityontheWeb.\BBCQ\\newblockIn{\Bemthe23rdPacificAsiaConferenceonLanguage,InformationandComputation},pp.240--249.\bibitem[\protect\BCAY{加藤\JBA河原\JBA乾\JBA黒橋\JBA柴田}{加藤\Jetal}{2010}]{Kato2010}加藤義清\JBA河原大輔\JBA乾健太郎\JBA黒橋禎夫\JBA柴田知秀\BBOP2010\BBCP.\newblockWebページの情報発信者の同定.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(1),\mbox{\BPGS\90--103}.\bibitem[\protect\BCAY{河合\JBA岡嶋\JBA中澤}{河合\Jetal}{2007}]{Kawai2011}河合剛巨\JBA岡嶋穣\JBA中澤聡\BBOP2007\BBCP.\newblockWeb文書の時系列分析に基づく意見変化イベントの抽出.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},pp.264--267.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{BunruiGoiHyou2004}国立国語研究所\JED\\BBOP2004\BBCP.\newblock\Jem{分類語彙表—増補改訂版}.\newblock大日本図書刊.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{Lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\Bemthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology---Volume1(NAACL'03)},pp.71--78.\bibitem[\protect\BCAY{松本\JBA小西\JBA高木\JBA小山\JBA三宅\JBA伊東}{松本\Jetal}{2009}]{Matsumoto2009}松本章代\JBA小西達裕\JBA高木朗\JBA小山照夫\JBA三宅芳雄\JBA伊東幸宏\BBOP2009\BBCP.\newblock文末表現を利用したウェブページの主観・客観度の判定.\\newblock\Jem{第1回データ工学と情報マネジメントに関するフォーラム(DEIM)},A5-4.\bibitem[\protect\BCAY{Matsuyoshi,Eguchi,Sao,Murakami,Inui,\BBA\Matsumoto}{Matsuyoshiet~al.}{2010}]{matsuyoshi2010}Matsuyoshi,S.,Eguchi,M.,Sao,C.,Murakami,K.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAnnotatingEventMentionsinTextwithModality,Focus,andSourceInformation.\BBCQ\\newblockIn{\BemtheSeventhInternationalConferenceonLanguageResourcesandEvaluationConference(LREC2010)},pp.1456--1463.\bibitem[\protect\BCAY{Miyazaki,Momose,Shibuki,\BBA\Mori}{Miyazakiet~al.}{2009}]{Miyazaki2009}Miyazaki,R.,Momose,R.,Shibuki,H.,\BBA\Mori,T.\BBOP2009\BBCP.\newblock\BBOQUsingWebPageLayoutforExtractionofSenderNames.\BBCQ\\newblockIn{\Bemthe3rdInternationalUniversalCommunicationSymposium(IUCS2009)},pp.181--186.\bibitem[\protect\BCAY{Mori,Nozawa,\BBA\Asada}{Moriet~al.}{2005}]{Mori2005}Mori,T.,Nozawa,M.,\BBA\Asada,Y.\BBOP2005\BBCP.\newblock\BBOQMulti-Answer-FocusedMulti-DocumentSummarizationUsingaQuestion-AnsweringEngine.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf4}(3),\mbox{\BPGS\305--320}.\bibitem[\protect\BCAY{Murakami,Nichols,Mizuno,Watanabe,Masuda,Goto,Ohki,Sao,Matsuyoshi,Inui,\BBA\Matsumoto}{Murakamiet~al.}{2010}]{Murakami2010}Murakami,K.,Nichols,E.,Mizuno,J.,Watanabe,Y.,Masuda,S.,Goto,H.,Ohki,M.,Sao,C.,Matsuyoshi,S.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQStatementMap:ReducingWebInformationCredibilityNoisethroughOpinionClassification.\BBCQ\\newblockIn{\BemtheFourthWorkshoponAnalyticsforNoisyUnstructuredTextData(AND2010)},pp.59--66.\bibitem[\protect\BCAY{村田\JBA森}{村田\JBA森}{2007}]{Murata2007}村田一郎\JBA森辰則\BBOP2007\BBCP.\newblock利用者の興味を反映できる複数文書要約.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},pp.744--747.\bibitem[\protect\BCAY{中野\JBA渋木\JBA宮崎\JBA石下\JBA金子\JBA永井\JBA森}{中野\Jetal}{2011}]{Nakano2011}中野正寛\JBA渋木英潔\JBA宮崎林太郎\JBA石下円香\JBA金子浩一\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock情報信憑性判断支援のための直接調停要約生成手法.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ94-D}(11),\mbox{\BPGS\1019--1030}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2006}]{Sakai2006}酒井浩之\JBA増山繁\BBOP2006\BBCP.\newblockユーザの要約要求を反映するためにユーザとのインタラクションを導入した複数文書要約システム.\\newblock\Jem{ファジィ学会論文誌},{\Bbf18}(2),\mbox{\BPGS\265--279}.\bibitem[\protect\BCAY{Shibuki,Nagai,Nakano,Miyazaki,Ishioroshi,\BBA\Mori}{Shibukiet~al.}{2010}]{Shibuki2010}Shibuki,H.,Nagai,T.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Mori,T.\BBOP2010\BBCP.\newblock\BBOQAMethodforAutomaticallyGeneratingaMediatorySummarytoVerifyCredibilityofInformationontheWeb.\BBCQ\\newblockIn{\Bemthe23rdInternationalConferenceonComputationalLinguistics(COLING2010)},pp.1140--1148.\bibitem[\protect\BCAY{渋木\JBA中野\JBA石下\JBA永井\JBA森}{渋木\Jetal}{2011a}]{Shibuki2011a}渋木英潔\JBA中野正寛\JBA石下円香\JBA永井隆広\JBA森辰則\BBOP2011a\BBCP.\newblock調停要約生成手法の改善と調停要約コーパスを用いた評価.\\newblock\Jem{第10回情報科学技術フォーラム(FIT2011)},RE-003.\bibitem[\protect\BCAY{渋木\JBA中野\JBA宮崎\JBA石下\JBA永井\JBA森}{渋木\Jetal}{2011b}]{Shibuki2011b}渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA石下円香\JBA永井隆広\JBA森辰則\BBOP2011b\BBCP.\newblock調停要約のための正解コーパスの作成とその分析.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},pp.364--367.\bibitem[\protect\BCAY{Tombros\BBA\Sandersoni}{Tombros\BBA\Sandersoni}{1998}]{Tombros1998}Tombros,A.\BBACOMMA\\BBA\Sandersoni,M.\BBOP1998\BBCP.\newblock\BBOQAdvantagesofQueryBiasedSummariesinInformationRetrieval.\BBCQ\\newblockIn{\Bemthe21stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'98)}.pp.2--10.\bibitem[\protect\BCAY{山本\JBA田中}{山本\JBA田中}{2010}]{Yamamoto2010}山本祐輔\JBA田中克己\BBOP2010\BBCP.\newblockデータ対間のサポート関係分析に基づくWeb情報の信憑性評価.\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf3}(2),\mbox{\BPGS\61--79}.\end{thebibliography}\begin{biography}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商業教員養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程終了.博士(経営学).現在,横浜国立大学環境情報研究院科学研究費研究員.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本認知科学会各会員.}\bioauthor{永井隆広}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{中野正寛}{2005年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.2011年同専攻博士課程後期単位取得退学.修士(情報学).2011年から2012年まで同学府研究生.この間,自然言語処理に関する研究に従事.}\bioauthor{石下円香}{2009年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了.現在,国立情報学研究所特任研究員.博士(情報学).自然言語処理に関する研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{松本拓也}{2012年横浜国立大学工学部電子情報工学科卒業.現在,同大学大学院環境情報学府情報メディア環境学専攻博士課程前期在学中.自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V18N02-06
|
\section{はじめに}
近年の自然言語処理技術は,新聞記事等のフォーマルな文章だけでなく,ブログ等のインフォーマルな文章をもその射程に入れつつある\cite{ICWSM:2008,ICWSM:2009}.この背景の一つには,世論や消費者のニーズ等をブログを含めたWeb文書から取り出そうとする,自然言語処理技術を援用した情報アクセス・情報分析研究の盛り上がりがある\cite{Sriphaew:Takamura:Okumura:2009,Akamine:Kawahara:Kato:Nakagawa:Inui:Kurohashi:Kidawara:2009,Murakami:Masuda:Matsuyoshi:Nichols:Inui:Matsumoto:2009}.近年の自然言語処理技術は,機械学習等のコーパスベースの手法の発展により高い精度が得られるようになったが,これらの手法の成功の鍵は,処理対象の分野/ジャンルの解析済みコーパスの充実にある\cite{McClosky:Charniak:Johnson:2006}.ブログに自然言語処理技術を高精度に適用するには,同様に,解析済みのブログコーパスの整備/充実が必須である.我々は,ブログを対象とした自然言語処理技術の高精度化に寄与することを目的とし,249記事,4,186文からなる解析済みブログコーパス(以下,KNBコーパス\footnote{\textbf{K}yotoUniversityand\textbf{N}TT\textbf{B}logコーパス})を構築し,配布を開始した.本研究でアノテーションしている言語情報は,多くの自然言語処理タスクで基盤的な役割を果たしている形態素情報,係り受け情報,格・省略・照応情報,固有表現情報と,文境界である.これらのアノテーションの仕様は,コーパスユーザの利便性を重視し,世の中に広く浸透している京都大学テキストコーパス\cite{Kawahara:Kurohashi:Hashida:2002j}\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}(以下,京大コーパス)と極力互換性のあるものにした.これらのアノテーションに加えて,ブログを対象とした情報アクセス・情報分析研究にとっての要となる評価表現情報もKNBコーパスのアノテーション対象に含めた.ブログ記事は,京都の大学生81名に「京都観光」「携帯電話」「スポーツ」「グルメ」のいずれかのテーマで執筆してもらうことで収集した.執筆者らは記事執筆に際し,記事の著作権譲渡に同意しているため,アノテーションだけでなく本文も併せてKNBコーパスとして無料配布している.KNBコーパス構築の過程で,我々は次の問題に直面した.\setlength{\widelabel}{18pt}\eenumsentence{\item不明瞭な文境界\item構文構造の解析を困難にする文中の括弧表現\item誤字,方言,顔文字等の多様な形態素}これらは,校閲等の過程を経た上で世に公開される新聞記事等のフォーマルな文章とは異なる,ブログ記事,あるいはCGM(ConsumerGeneratedMedia)テキストの特徴と言える.KNBコーパス構築の際には,このようなブログ記事特有の現象を可能な限りそのままの形で残すよう心がけた.一方で,新聞記事を対象にして作られた京大コーパスとの互換性も重視した.本稿では,KNBコーパスの全容とともに,京大コーパスとの互換性の保持と,ブログの言語現象の正確な記述のために我々が採用した方針について詳述する.なお本稿では,京大コーパスの仕様からの拡張部分に焦点を当てる.本稿に記述されていない詳細については,京大コーパスに付属のマニュアル\cite{KUCorpus:syn:2000,KUCorpus:rel:2005}を参照されたい.以下,\ref{sec:related-work}節で関連研究について述べた後,\ref{sec:spec}節でKNBコーパスの全体像を具体例とともに詳述する.\ref{sec:construction}節で記事収集から構築,配布までの過程を説明し,\ref{sec:conclusion}節で結論を述べる.
\section{関連研究\label{sec:related-work}}
近年,コーパスベースの手法の発展とともに,言語やタスクを問わず,自然言語処理技術の精度は向上してきた.本稿では,コーパスベースの技術とは,人手で正解が付与されたコーパスから機械学習に基づき言語処理システムを実現するアプローチと捉える.例えば英語の品詞タグ付けではLaffertyら\cite{Lafferty:McCallum:Pereira:2001}が,日本語の形態素解析では工藤ら\cite{Kudo:Yamamoto:Matsumoto:2004}がConditionalRandomFieldsを用いてそれぞれのタスクで高精度化を果たした.また,言語に依存しない係り受け解析として,SVMによる機械学習を用いたNivreらの手法\cite{Nivre:Hall:Nilsson:senEryigit:Marinov:2006}やMiraによる機械学習を用いたMcDonaldらの手法\cite{McDonald:Lerman:Pereira:2006}が注目されている.これら解析技術の高精度化は,人手でアノテーションされた解析済みコーパスに支えられてきた.日本語の代表的な解析済みコーパスとして,京大コーパスとNAISTテキストコーパス\cite{NAISTCorpus:2007}がある.前者は,新聞記事を対象に,4万文に対して形態素・構文情報を,5,000文に対して格関係,照応・省略関係,共参照の情報を付与したものである.加えて,IREX\cite{IREX:2000}において,京大コーパス中の1万文に対する固有表現アノテーションが配布されている.後者は,京大コーパスの4万文に対して,述語と表層格の関係,事態性名詞と表層格の関係,名詞間の共参照関係の情報を付与したものである.これらのコーパスは新聞記事から作られているため,それらによって訓練された解析器は,新聞記事あるいはそれに文体が近い文章は高精度で解析できるが,ブログやWWW上の掲示板等の,文体が新聞記事とは大きくかけ離れている文章の解析は不得手となることが知られている\cite{McClosky:Charniak:Johnson:2006}.一方,自然言語処理技術の適用領域は,WWWの爆発的な拡大とともに,ブログやWWW上の掲示板等の文章へと広がりを見せている.ブログを対象とした自然言語処理技術の高精度化の鍵は,解析済みブログコーパスを充実させることができるかどうかにかかっている.そして,解析済みブログコーパスを充実させるためには,構築ノウハウの蓄積と実際に構築した解析済みブログコーパスの流通が欠かせない.我々はこの役割を担うべく,KNBコーパスとして,ブログ記事に各種言語情報(文境界,形態素,係り受け,格・省略・照応,固有表現,評価表現)をアノテーションした.アノテーションの仕様は,ブログ特有の現象に対応するため一部KNBコーパス独自の仕様を策定したが,京大コーパスのものと極力互換性のあるものとした.KNBコーパスの独自仕様の一部には,話し言葉を対象とした代表的な解析済みコーパスである日本語話し言葉コーパス\cite{日本語話し言葉コーパスの構築法:2006}\footnote{http://www.kokken.go.jp/katsudo/seika/corpus/}(以下,CSJ)の仕様と類似したものが含まれている.\ref{sec:spec}節でKNBコーパスの仕様を述べる際,話し言葉と類似する現象のアノテーションに関しては,適宜CSJの仕様と比較する.ブログを対象とした既存のコーパスとして,Spinn3rBlogDataset\cite{ICWSM:2009}\footnote{http://www.icwsm.org/2009/data/}がある.これは44,000,000記事からなる大規模なものだが,係り受けや照応等の言語情報は付与されていない.KNBコーパスには,京大コーパスにはない評価表現のアノテーションがなされている.既存の評価表現コーパスとしてNTCIR-6意見分析パイロットタスクのテストコレクション\footnote{http://research.nii.ac.jp/ntcir/permission/ntcir-6/perm-ja-OPINION.html}や,小林ら\cite{Kobayashi:Inui:Matsumoto:2007},宮崎ら\cite{宮崎:森:2008},川田ら\cite{評価情報タグ付与基準:2009}のものがあるが,本コーパスの評価表現アノテーションは,評価表現を「当為」「要望」「採否」等の意味的なタイプに分類する川田らの仕様に基づく.
\section{コーパスの全体像\label{sec:spec}}
一般に,コーパスを設計する際は少なくとも次の点を考慮する必要がある.\begin{enumerate}\itemコーパスの使用目的は何か.\item文章に対してどのような言語情報をアノテーションするか.\item何をコーパスの素材(元となる文章)にするか.\itemどのような仕様でアノテーションするか.\end{enumerate}KNBコーパスは,ブログを対象とした自然言語処理技術のためのデータの提供を目的としている.具体的には,多くの自然言語処理タスクで基盤的な役割を果たしている形態素解析,係り受け解析,格・省略・照応解析,固有表現抽出と,ブログを対象とする場合に重要になる文境界の検出,情報アクセス・情報分析研究にとっての要となる評判分析を対象としている.従って,KNBコーパスにアノテーションする言語情報は,形態素情報,係り受け情報,格・省略・照応情報,固有表現情報,文境界位置,評価表現情報となる.次に,何をKNBコーパスの素材とするかであるが,選択肢としては,WWW上に既に存在するブログ記事を用いるか,本研究のために新たにブログ記事を執筆するかの2つが考えられる.前者の場合,記事を大量に収集できるが,記事の著作権処理が困難になることが予想される.後者は逆に,記事の著作権譲渡にあらかじめ同意してもらうことで,著作権に関する問題はクリアできるが,収集できる記事の量が前者に比べて大幅に少なくなることが予想される.結局,我々は,多数の大学生にアルバイトとして記事を執筆してもらうことで,ある程度の記事数を確保できる見通しが得られたため,後者のアプローチを採用した.記事のテーマは執筆者である大学生に自由に決めてもらうことも可能だが,我々は,アノテーション対象の評価表現が文中に含まれやすく,かつ,大学生にとって比較的身近であると考えられる「京都観光」\inhibitglue\footnote{執筆者である大学生は皆,京都の大学に在籍している.}「携帯電話」「スポーツ」「グルメ」の4つのテーマをあらかじめ設定した.執筆してもらったブログ記事は全て文章のみであり,画像や動画等は含まれていない.\begin{table}[b]\caption{テーマごとの記事数,文数,形態素数}\label{tab:breakdown}\input{06table01.txt}\vspace{-1\baselineskip}\end{table}アノテーション仕様については,選択肢として,KNBコーパス用に新規に設計するか,既存のタグ付きコーパスの仕様を流用,拡張するかの2つが考えられる.前者にはコーパスをブログ記事に特化したものにすることができるという利点があるが,コーパスユーザにとっては,全く新規の仕様は広く流通している既存のコーパスの仕様に比べて扱いにくいものとなることが予想される.後者の場合,ユーザにとって扱いやすいコーパスとなるが,既存の仕様ではカバーできないブログの言語現象が存在する恐れがある.我々は当初,既存の仕様を用いる場合,評価表現に関しては川田らのものを,それ以外のアノテーションには京大コーパスのものを第一候補として考えていた.川田らの仕様は,他の評価表現アノテーションの仕様と異なり,評価表現を単にマークするだけでなく,「当為」「要望」「採否」等の意味的な細分類を付与する.この細分類情報は,従来以上に詳細な情報分析技術を実現するための重要な要素であると我々は考えている.一方,京大コーパスの仕様は,京大コーパスだけでなく,近年盛んに研究利用されている日本語WWWコーパスのアノテーションにも使用されており\cite{新里:橋本:河原:黒橋:2007},解析済みコーパスの仕様の中でもっとも広く流通しているものということができる.そこで我々は,川田らの評価表現アノテーションの仕様と京大コーパスの仕様をブログ記事に予備的に適用し,記述しきれない言語現象が存在するかを調査した.その結果,後述するように,誤変換,脱字,衍字,口語的表現などの形態素に関する仕様の追加と,係り受けに関しての若干の仕様拡張,文境界と括弧表現についての仕様の策定を行えば,ほぼ対応可能であるという見通しが得られた.最終的に,川田らの仕様と京大コーパスの仕様をベースに,以降で述べるいくつかの拡張を加えることでKNBコーパスのアノテーション仕様とすることに決定した\footnote{WWW上に存在するブログ記事の中には,文章の他,本文と密接に関連した画像や動画等が掲載されていることがある.そのような記事の文章の構造や意味的な情報を十分に記述するためには,既存の解析済みテキストコーパスの仕様では明らかに不十分であり,画像や動画等の他のメディアの情報を本文と統一的に記述する枠組みが必要である.上述の通り,KNBコーパスは文章のみを対象としたコーパスであるため既存のテキストコーパスの仕様を用いることができたが,今後,WWW上に存在する多様なブログ記事をありのままの姿で解析済みコーパスに収録していくには,他メディアの掲載を許し,その情報を十分に記述できるような仕様を開発する必要がある.}.完成したKNBコーパスは249記事,4,186文から成る.テーマごとの記事数,文数,形態素数は表\ref{tab:breakdown}の通りである.執筆に加わった大学生は計81名である.京都観光について執筆したのは計72名,携帯電話については計67名,グルメについては計34名,スポーツは計18名である.以下では,KNBコーパスへアノテーションされている各種言語情報の仕様について例とともに説明する.\subsection{文境界}新聞記事とは違い,ブログ記事では,例文(\ex{1})のような境界が明確な文だけでなく,例文(\ex{2})にあるような境界が不明確な文もある(以下,\eos{}はアノテーションされた文境界を,\lf{}は元の記事における改行を表す).\eenumsentence{\item私はプリペイド携帯をずっと使っている.\eos{}\itemヒマな大学生の人はチケット買って西京極でボクと握手!\lf\\eos{}}\eenumsentence{\itemなぜか清水寺に着きました笑\\eos{}\footnote{元の記事では「着きました笑」の後に空白が挿入されている.}\item京都のほうだったような・・・\\eos{}まぁ観光スポット多いですもんね?京都は.\\eos{}}KNBコーパスでは,原則的には,母語話者の直観に基づき一文として最も適切だと思われる個所で文を区切った.それ以外に,(\ex{1})に挙げる個別的な方針を導入した.\eenumsentence{\item{日付だけからなる行も一文とする}\begin{itemize}\item2006年10月09日\lf\\eos{}\end{itemize}\item{URLだけからなる行も一文とする}\begin{itemize}\itemhttp://www.shigureden.com/\lf\\eos{}\end{itemize}\item{箇条書きの一行一行をそれぞれ一文とする}\begin{itemize}\item[]・藤井大丸\lf\\eos{}\item[]・紀伊國屋書店\lf\\eos{}\end{itemize}\item{途中にURLが含まれていても,全体を一文とする}\begin{itemize}\itemhttp://url/とでも入力すると,\lf\http//url/\lf\と出ます.\eos{}\end{itemize}\item{途中に文末によく現れる記号があっても,明らかな一文である場合は区切らない}\begin{itemize}\item散歩??かな.\lf\\eos{}\end{itemize}\item{文頭,文末の記号は一文に含める}\footnote{文頭と文末の空白文字はブログ記事をHTMLからテキストに変換する際に削除した.}\begin{itemize}\itemそんな日本語ないか.\underline{笑}\lf\\eos{}\item脱力.\underline{ORZ}\lf\\eos{}\item\underline{P.S.}数年前,電車の...\eos{}\end{itemize}}CSJでは,対象が話し言葉であり,文の終わりが不明確であるという特徴がより顕著である.そこで「節単位」という「文」に概ね相当する単位を規定し,文境界アノテーションを施している\cite{丸山:高梨:内元:2006}.\subsection{括弧表現}京大コーパスでは括弧表現は削除されていたが,ブログ記事の括弧表現は,新聞記事と比べると,本文と密接不可分な内容のものが多く無視できない.例文(\ex{1})はKNBコーパスの括弧表現の例である.\eenumsentence{\itemここもFood\key{(}パンメインでカレーとか\key{)}の量は少なかったなー\item貴重な\key{(}まぁどのへんが貴重なのかはわからないけど\key{)}時間を無駄にしてしまう.\itemどでかい神楽松明\key{(}激しく燃えている!\key{)}を担いで,狭い鞍馬街道をどこからともなく練り歩き出す.}一方で,ブログ記事の括弧表現は多種多様で,文内に埋め込まれたままだと,係り受け等のアノテーションが困難になる.そこで,括弧表現を文中から取り出して一つの独立した文とした.例文(\ex{2})は例文(\ex{1})から括弧表現を抽出したものである.\enumsentence{{\small{\#S-ID:KN012\_Gourmet\_6-1-23}}\\ここもFood\key{(}パンメインでカレーとか\key{)}の量は少なかったなー}\eenumsentence{\item{\small{\#S-ID:KN012\_Gourmet\_6-1-23-01}}\\ここもFoodの量は少なかったなー\item{\small{\#S-ID:KN012\_Gourmet\_6-1-23-02\括弧タイプ:例示\括弧位置:7\括弧始:(\括弧終:)}}\\パンメインでカレーとか}「\#」の行には文IDを表すS-IDをはじめ,直下の文の各種情報が記述されている.抽出され一文になった括弧表現は,元の文の直後に置かれ,新たに文IDが与えられる.具体的には,元の文のID末尾に「-01」を付与し,抽出されて別の文となった文のIDには「-02」「-03」「-04」等を付与する.例えば例文(\ex{-1})はIDが「KN012\_Gourmet\_6-1-23」だが,括弧抽出後は,「KN012\_Gourmet\_6-1-23-01」(\ex{0}a)と「KN012\_Gourmet\_6-1-23-02」(\ex{0}b)の二文になる.なお,括弧表現の元の文における位置情報が記録されており,復元も可能である.例文(\ex{0}b)における「括弧位置:7」がその情報にあたり,「7」は括弧の開始位置を字数により示している.さらに,抽出された括弧文には,読み,日付,金額,場所,同義,例示,その他のいずれかの括弧タイプが与えられる.以下にKNBコーパスにおける括弧タイプとその例を挙げる.\enumsentence{\begin{description}\item[読み:]印象に残ったのは,「御髪(みかみ)神社」.\item[日付:]ソフトバンクが前夜に予想外割を発表したこともあって,この日(10月24日)の情報通信株は面白いことになりそうという意識があった.\item[金額:]また付いてくる麦飯とキャベツと赤だしの味噌汁がおかわり自由で,私は豚カツ120g(1050円)と一緒に,ごはんを4杯,みそしるを2杯,キャベツをもともとよそられていた量のの1.3倍は食べてしまう.\item[場所:]まずは自転車で三条口(西大路三条)へと向かう.\item[同義:]15〜20,ブル(ど真ん中)を狙って例えば15を三回あてれば自分の陣地になりそっから点数が入る,というものである.\item[例示:]Webが使えない,通話料がやけに高いので電話をわざわざ公衆電話からかけたりする,携帯会社が謳うオトクげなサービス(誕生日割りなど)をほとんど受けられない...\item[その他:]私は携帯電話が嫌いで(高校入学時に買わされたが),電源を入れているときの方が少ない.\end{description}}括弧表現はコーパス全体で137回出現した.その内訳を表\ref{tab:paren-breakdown}に挙げる.「その他」に分類される括弧文のほとんどは,上の例にあるような,本文に対する補足説明と呼べるものだった.\begin{table}[b]\caption{括弧表現の出現数}\label{tab:paren-breakdown}\input{06table02.txt}\end{table}なお,表\ref{tab:breakdown}では,抽出された括弧表現も一文としてカウントしている.\subsection{形態素}形態素アノテーションでは,形態素と呼ばれる,当該言語において意味をもつ最小の単位に文を分割し,各形態素に読み,原形,品詞,活用型,活用形を付与する.形態素は,文の構造を解析する上での最も基本的な単位である.KNBコーパスでは京大コーパスと同様に,形態素単位,タグ単位,文節単位の3段階で階層的に文を分割している.タグ単位とは,基本的に自立語1語を核として,その前後に存在する接頭辞,接尾辞,助詞,助動詞などの付属語をまとめたものである.タグ単位は,格・省略・照応関係と係り受け関係のアノテーションで使用される.文節単位は,1語あるいは複数の自立語を核として,その前後に存在する接頭辞,接尾辞,助詞,助動詞などの付属語をまとめたものであり,係り受け関係のアノテーションで使用される\footnote{つまり,\ref{sec:dep}節で述べるように,係り受け関係はタグ単位と文節単位の両方でアノテーションされる.}.また,文節境界はタグ単位境界でもある.例として表\ref{tab:morph}に,「半年ほど前に携帯電話の機種変更をしました.」という文を対象にした形態素,タグ単位,文節単位のアノテーションを示す.\begin{table}[b]\caption{形態素,タグ単位,文節単位アノテーションの例}\label{tab:morph}\input{06table03.txt}\end{table}形態素単位と文節単位の他にタグ単位を用意するのは,格・省略・照応アノテーションの際,形態素より大きく文節より小さい単位でアノテーションする必要があるためである.例えば「500メートル地点」という表現に対しては,「500メートル」と「地点」の間に修飾格関係が成立する旨をアノテーションするが,「500メートル地点」は全体で1文節であり,また,「500メートル」は「500」と「メートル」の2つの形態素に分かれる.このため,「500メートル」を1つの単位としてまとめるタグ単位の導入が必要になる.KNBコーパスの形態素アノテーションは,品詞・活用体系,フォーマットともに京大コーパスの仕様に準拠しているが,次のようなブログの特徴に対応するため仕様を拡張した.\eenumsentence{\item誤変換,脱字,衍字\footnote{衍字とは,語句の中に間違って入り込んでいる,あるいは,語句の前後に間違って隣接している不必要な文字のことである.}\item口語的表現(方言,外国語,擬音・擬態語,言い淀み)\item創造的表現(記号,Webで頻出のスラング)}以下,それぞれについて詳述する.\subsubsection{誤変換,脱字,衍字}下に例を挙げる.矢印$\to$の右側が誤変換,脱字,衍字の例である.\eenumsentence{\item誤変換:「通信機能が\underline{内蔵}されたもの」$\to$「通信機能が\underline{内臓}されたもの」\item脱字:\begin{enumerate}\item「早めに\underline{行かないと}」$\to$「早めに\underline{かないと}」\item「属する\underline{ように}なり」$\to$「属する\underline{よう}なり」\end{enumerate}\item衍字:\begin{enumerate}\item「何が安いのか,考えて\underline{買って}いきます.」$\to$「何が安いのか,考えて\underline{買いって}いきます.」\item「高級な\underline{料亭}や,焼肉屋,$\cdots$ダイニングも多い.」$\to$「高級な\underline{り料亭}や,焼肉屋,$\cdots$ダイニングも多い.」\end{enumerate}}誤変換あるいは脱字を含む文は,元の誤った表現を残しつつ,正式な書き方・表現に基づいてアノテーションすることとした.例えば「早めにかないと」なら「早めに行かないと」としてアノテーションした.加えて,コーパス中に用意されているメモ欄に,「ER:(正しい書き方)」のように,誤りフラグERと正しい書き方を記載することとした.このメモはタグ単位に与えられている.表\ref{tab:misspelling}左に脱字のアノテーション例を挙げる\footnote{表\ref{tab:misspelling}ではタグ単位境界と文節境界が一致しているため,タグ単位境界は明示していない.}.\begin{table}[t]\caption{脱字,衍字のメモ例}\label{tab:misspelling}\input{06table04.txt}\end{table}衍字を含む文は,衍字が語句の内部にある場合と,語句の前あるいは後ろに接している場合の2通りに分けて対応した.前者の場合,上述した誤変換あるいは脱字の場合と同様にアノテーションする.つまり,元の表現を残しつつ,正式な書き方・表現に基づいてアノテーションし,メモ欄には誤りフラグERと正しい書き方を記載する.後者の場合,衍字とそれが接している語句を別々の形態素としてアノテーションし,メモ欄には誤りフラグERと正しい書き方を記載する.一方,タグ単位としては1つにまとめる.表\ref{tab:misspelling}右に衍字のアノテーション例を挙げる.KNBコーパス全体では,誤変換,脱字,あるいは衍字が102回出現した.その内訳は,「京都観光」では43回,「携帯電話」では30回,「グルメ」では20回,「スポーツ」では9回である.\subsubsection{口語的表現}方言や外国語,擬音・擬態語,意図的な言い淀み等がこれに該当する.後述するように,結局これらの表現は元の形のままでアノテーションしている.CSJにおいても,融合,省略,フィラー,断片化といった口語表現特有の現象を,元の表現そのままでアノテーションしており,元のテキストを可能な限りそのままの形で正確に記述するという我々の方針と一致している.\textbf{方言}では活用をどう記述するかが問題となる.我々は,京大コーパスとの互換性と文法記述の正確性を最大限確保するため,既存の活用に該当しない方言に対して,形態素解析器JUMAN\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}の活用記述法に準拠しつつ,新たな活用を定義した.例として,関西方言の「や」に関連するものと,それに対応する標準語の(つまりJUMANに既存の)活用情報を例文(\ex{1})に挙げる\footnote{下線の形態素の活用情報を記載している.}.\eenumsentence{\item「\underline{面倒や}ん」$\cdots$ナ形容詞ヤ列基本形\item[](「\underline{面倒だ}」$\cdots$ナ形容詞基本形)\item「悲しくなったりする\underline{んやろ〜}?」$\cdots$ナ形容詞ヤ列基本推量形異表記\item[](「悲しくなったりする\underline{んだろう}?」$\cdots$ナ形容詞ダ列基本推量形)\item「小さいもん\underline{や}のに」$\cdots$判定詞ヤ列基本連体形\item[](「小さいもの\underline{な}のに」$\cdots$判定詞ダ列基本連体形)\item「もの大切にしい\underline{や}」$\cdots$(終助詞につき無活用)}また,全ての方言に対して,メモ欄に「DI」(dialect)と記載した.方言は全体で114回出現した.その内訳は,「京都観光」では40回,「携帯電話」では45回,「グルメ」では3回,「スポーツ」では26回である.本研究における\textbf{外国語}とは,固有表現やURL(の一部),日本語として日常的に用いられている名詞(「HDD」「PDF」等)を除く,外国語の表現全てを指す.例として,「今日は3限をさぼらせて友達を連れて祇園界隈へGO!!」という文における「GO」がある.外国語のアノテーションでは,どのような日本語の品詞を割り当てるべきかが問題になる.KNBコーパスでは,外国語の形態素に対し,原則として,サ変名詞,普通名詞,形容詞のいずれかを割り当てることとした.\eenumsentence{\itemサ変名詞:「祇園界隈へ\underline{GO}!!」\item普通名詞:「予想\underline{GUY}」\item形容詞:「京都\underline{LOVEな}ので」(ナ形容詞ダ列基本連体形)}読みは英単語アルファベットそのままとした.外国語のフレーズは,1単語1形態素とし,フレーズ全体で1タグ単位とした.例えば「with\kuuhaku{}my\kuuhaku{}friend」なら,3つの形態素と2つの空白から成る1フレーズなので,5形態素1タグ単位となる.アルファベットで書かれたものに限定してKNBコーパスにおける外国語を集計した結果,外国語に該当する表現が16個存在した.テーマ別に見ると,「京都観光」には8表現,「携帯電話」には3表現,「グルメ」には5表現で,「スポーツ」には存在しなかった.\textbf{擬音語・擬態語}として,KNBコーパスでは,辞書には登録されていない,『ピリリリリリ』『ポフュー』等が出現した.\eenumsentence{\item「携帯『ピリリリリリ』」\item「『ポフュー』って粉が出て」}JUMANでは,「ごくごく(飲む)」や「どしどし(応募する)」のような既知の擬音語・擬態語を副詞としているため,KNBコーパスでもこれに倣い,これらを全て副詞とした.JUMANに未登録の擬音語・擬態語をKNBコーパスから抽出したところ,16語が得られた.テーマ別に見ると,「京都観光」から3語,「携帯電話」から8語,「グルメ」から2語,「スポーツ」から3語が得られた.\textbf{言い淀み}の例を以下に挙げる.\eenumsentence{\item牛乳を入れて$\cdots$\underline{ぎゅうにゅ}$\cdots$\underline{にゅ}$\cdots$牛乳ねぇぇぇー!\item現\underline{voda}$\cdots$もといソフトバンクモバイル}これらは未定義語として,メモ欄に「言い淀み」と記載する.KNBコーパス全体で言い淀みは4回出現した.その内訳は,「携帯電話」では1回,「グルメ」では2回,「スポーツ」では1回である.\subsubsection{創造的表現}顔文字等の記号や,「サーバ」を意味する「鯖」等のWeb上で多用されるスラングはブログ特有の表現といえるが,これらを創造的表現と呼ぶことにする.KNBコーパスにおけるスラングは,「サーバ」を意味する「鯖」と,「マスコミ」を意味する「マスゴミ」,「終わった」を意味する「オワタ」があった.\eenumsentence{\itemMNP\underline{鯖}が落ちているから.\item\underline{マスゴミ}で報道されてしまったし,}スラングも,他の表現と同様に京大コーパスとの互換性を最大限保つよう配慮する.例えば上記の「鯖」は,普通名詞として扱う.なおスラングには,メモ欄に「スラング:(正式あるいは一般的な表記)」を付記している.KNBコーパス全体におけるスラングの出現回数は3回で,いずれも「携帯電話」に関する記事において出現した.人がうなだれている姿を現す「orz」や顔文字,「!!」「...」のような同じ記号の連続は1形態素の記号とした.\eenumsentence{\item自分の部屋で紅茶をいれ,一人で味わいました\underline{orz}\item京都大好きな人が増えていけばいいなと密かに思ってます\underline{\mbox{(*^-^*)}}\item住んでみて改めて思います\underline{!!}\item厳かさに畏れを抱く\underline{...}}「orz」(変種も含む)と顔文字の出現頻度を調べたところ,KNBコーパス全体では26回だった.テーマ別で見ると,「京都観光」では11回,「携帯電話」では8回,「グルメ」では5回,「スポーツ」では2回だった.一方,「ー」「〜」などの長音記号は,それを含む形態素,あるいは直前の形態素の一部とし,独立した記号とはしない.また,長音記号付きの形態素は,対応する標準的な表現の異表記としてアノテーションした.\eenumsentence{\item気分悪くなってきたのでやめ\underline{まーす}笑\item[]動詞性接尾辞ます型基本形異表記\item[](cf.「(やめ)ます」は「動詞性接尾辞ます型基本形」)\item誰か一緒に\underline{いこ〜}!!\item[]子音動詞カ行促音便形意志形異表記\item[](cf.「(一緒に)行こう」は「子音動詞カ行促音便形意志形」)}長音記号に関するもの以外で,標準的表現の異表記としてアノテーションされている表現として「分厚っ」や「すげぇ」,「大好きだあ」などがある.これら標準的表現の異表記を集計したところ,KNBコーパス全体では38表現存在した.その内訳は,「京都観光」が15表現,「携帯電話」が8表現,「グルメ」が11表現,「スポーツ」が4表現である.\subsection{係り受け\label{sec:dep}}係り受けアノテーションでは,タグ単位間と文節間の2種類の係り受け関係を京大コーパスに準拠する形式でアノテーションした.係り受け関係は,自然言語処理において,文の構文的意味的構造を表す最も一般的な手段である.タグ単位間と文節間の係り受け関係の例を図\ref{fig:dep-tag}と図\ref{fig:dep-bunsetsu}に挙げる.係り受け関係として,京大コーパスと同様,通常の係り受け関係の他に,並列関係と同格関係がある.\begin{figure}[b]\begin{center}\includegraphics{18-2ia6f1.eps}\end{center}\caption{タグ単位間の係り受け}\label{fig:dep-tag}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-2ia6f2.eps}\end{center}\caption{文節間の係り受け}\label{fig:dep-bunsetsu}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-2ia6f3.eps}\end{center}\hangcaption{CSJにおける倒置の係り受けの例(「これは」が倒置され,左の文節「耐えられないんです」に係っている)}\label{fig:dep-csj-inversion}\end{figure}CSJでは話し言葉特有の現象に対応すべく独自の仕様を設けている.例えば,文節の倒置に対応するために右から左への係り受けを許し(図\ref{fig:dep-csj-inversion}の実線.「これは」が倒置され,左の文節「耐えられないんです」に係っている)\inhibitglue\footnote{図\ref{fig:dep-csj-inversion}と図\ref{fig:dep-csj-nejire}における破線は,KNBコーパスの仕様に基づく係り受けアノテーションを示している.},また,言い差し,ねじれに対応するために係り先のない文節を認めている(図\ref{fig:dep-csj-nejire}の実線.「目標は」の係り先として適切なものがない)\inhibitglue\footnote{図\ref{fig:dep-csj-inversion}と図\ref{fig:dep-csj-nejire}の例はCSJの係り受けアノテーションマニュアル\cite{CSJ:係り受けマニュアル}から引用した.}.KNBコーパスでは,京大コーパスとの互換性を重視し,上記のような特殊な仕様は避けることとした.つまり図\ref{fig:dep-csj-inversion}と図\ref{fig:dep-csj-nejire}に相当する現象に対しても,図中の破線にあるように,左から右へ,最も適切と思われる文節に係るようにアノテーションするという方針にした.例えば,例文(\ex{1})(図\ref{fig:dep-knb-nejire})のように,記事の執筆者の誤りによって係り先の文節が括弧に入れられ,括弧抽出処理によって別の文になっている場合があった\footnote{つまり,本来なら「前に」の直前に「)」が来るべきところが,ここでは後に来ている.}.\enumsentence{壊れる(画面が見えなくなる前に)他の携帯を手に入れようと}\begin{figure}[t]\begin{center}\includegraphics{18-2ia6f4.eps}\end{center}\caption{CSJにおけるねじれの係り受けの例(「目標は」の係り先として適切なものがない)}\label{fig:dep-csj-nejire}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-2ia6f5.eps}\end{center}\hangcaption{KNBコーパスにおけるねじれの係り受けの例(「壊れる」の係り先として適切なものが括弧抽出により無くなっている)}\label{fig:dep-knb-nejire}\end{figure}この例文は括弧抽出処理を経て次のように分けられる.\eenumsentence{\item壊れる他の携帯を手に入れようと\item画面が見えなくなる前に}つまり,閉じ括弧位置の間違いのため,「壊れる」の本来の係り先「前に」がなくなっている.これに対して,上記方針に従い,抽出された本来の係り先文節(例文(\ex{0})の「前に」)の係り先文節(「入れようと」)に係るものとした.\subsection{格・省略・照応\label{sec:case-ellipsis-anaphora}}京大コーパスに準拠する形式で,格・省略・照応のアノテーションを付与した.これらの情報は,係り受け関係よりさらに踏み込んだ文の意味構造や,文よりさらに大きい単位である談話の構造について知る手段となる.格アノテーションでは,用言の場合,その用言に係る要素との間の意味的関係を当該用言に付与する.ここでいう意味的関係とは,ガ格,ヲ格,ニ格,ト格,デ格,カラ格などの格助詞に対応する関係や,「〜を通じて」「〜として」などの複合辞に対応する関係,さらには,格助詞や複合辞に対応するものが無い「外の関係」と呼ばれる関係がある\footnote{我々は,日本語の格助詞は用言とその用言に係る要素の意味的関係を(比較的荒い粒度で)表していると考える.しかし,査読者が指摘した通り,日本語の格助詞はいわゆる深層格を表すものではないという点で意味的関係の表現としてさらなる詳細化の余地が残されている.用言とその用言に係る要素の意味的関係の表現方法の洗練は今後の課題とする.}.「は」や「も」などの副助詞でマークされる要素に対しては,例文(\ex{2})のように,これらのいずれかの関係のうち意味的に合致するものが選ばれる.格アノテーションは体言間の意味的関係も対象とする.その場合,体言の必須格を表すノ格や体言の補足的情報を表す修飾格などが付与される.例文(\ex{1})と(\ex{2})に用言格アノテーションの例を,例文(\ex{3})と(\ex{4})に体言格アノテーションの例を挙げる.下線が引いてある用言あるいは体言への格アノテーションが括弧内に書かれている.\enumsentence{一ユーザとしては,かなり使いでが\underline{ある.}(ガ格:使いで,トシテ格:ユーザ)}\enumsentence{Foodは量が\underline{少ない}.(ガ格:量,外の関係:Food)}\enumsentence{フツウの携帯ユーザーの\underline{仲間}入り(ノ格:ユーザー)}\enumsentence{年間最大\underline{1万8千円程度}(修飾:年間,修飾:最大)}省略アノテーションは,それと係り受け関係にあるはずの要素が省略されている場合,その要素の指示対象と意味的関係を付与する.意味的関係は格アノテーションのものと同様である.以下に省略アノテーションの例を挙げる.\enumsentence{4,5回しか\underline{行ったことないけど}.(ガ格:一人称)}\enumsentence{だって携帯の会社変えたらアドレスとか全部変わるもんね.\underline{面倒やん.}(ガ格:変わる)}\enumsentence{\label{ex:sigureden}時雨殿に行った.$\cdots$残念ながら\underline{閉館}していたので…(ガ格:時雨殿)}\enumsentence{\label{ex:yokosen}私の使っている携帯電話に最近原因不明の黒い横線が入るようになってしまった.…もちろんプリペイド携帯電話.…現実の\underline{使用}の上ではそんなに困ることもない…(ガ格:私,ヲ格:電話)}表\ref{tab:cases-breakdown}に,格・省略アノテーションの結果明らかになった,KNBコーパスにおける最頻出の意味的関係上位5つの出現回数を挙げる.いずれのテーマにおいても,ガ格,ヲ格,ニ格,ノ格,修飾格が上位5つを占めた.照応アノテーションでは,ある表現が既出のものと同じ対象を指示している場合,その表現(照応表現と呼ぶ)に対して対応する既出表現の位置情報を付与する.例文(\ex{1}),(\ex{2}),(\ex{3})に照応アノテーションの例を挙げる.\enumsentence{父と野球.\underline{父}は野球が好きだった.(父$=$1文前)}\enumsentence{実は,この2大勢力時代という表現は正確ではない.本当はもう1勢力あるのだ.\underline{それ}が『ネギ』である.(勢力$=$1文前)}\enumsentence{困ったことに,友人たちの間では僕は携帯電話を持ち歩かないことで有名だ.が,それは事実とは反している.\underline{携帯}は持ち歩いている.(電話$=$2文前)}\begin{table}[t]\caption{意味的関係の出現数(出現頻度上位5)}\label{tab:cases-breakdown}\input{06table05.txt}\end{table}例文(\ex{0})に関して,下線の「携帯」は2文前の「携帯電話」と同じ対象を指示しているが,照応アノテーションの単位はタグ単位なので,「電話」のみと$=$で結んでいる.照応アノテーションは,明示的に書かれている表現に対してだけでなく,省略された表現に対してもなされる.例えば,例文(\ref{ex:sigureden})と(\ref{ex:yokosen})に対しては,それぞれ例文(\ex{1})と(\ex{2})のようにアノテーションする.\enumsentence{時雨殿に行った.…残念ながら\underline{閉館}していたので…(時雨殿$=$1文前)}\enumsentence{私の使っている携帯電話に最近原因不明の黒い横線が入るようになってしまった.…もちろんプリペイド携帯電話.…現実の\underline{使用}の上ではそんなに困ることもない…(私$=$2文前,電話$=$2文前)}結局,照応アノテーションでは,形態素や係り受けのアノテーションと違い,京大コーパスからの仕様拡張の必要は無かった.KNBコーパス全体における照応表現の出現回数は9,881回だった.テーマ別に見ると,「京都観光」では3,620回,「携帯電話」では3,146回,「グルメ」では1,939回,「スポーツ」では1,176回だった.\subsection{固有表現}固有表現アノテーションでは,文中の人名や地名,日付,時間表現等をマークする.固有表現は解析システムの辞書に登録されていない場合が多く,何も手段を講じなければ未知語として扱われ,解析誤りを引き起こしうる.解析システムをより頑健にするには,本コーパスの固有表現アノテーションのような,固有表現自動抽出を学習するためのデータが必要である.KNBコーパスの固有表現は,京大コーパスと同様に,IREXの仕様に準拠してアノテーションされている.固有表現は次の8つのいずれかに分類される.\eenumsentence{\itemORGANIZATION…組織名\itemLOCATION…地名\itemPERSON…人名\itemARTIFACT…固有物名\itemPERCENT…割合表現\itemMONEY…金額表現\itemDATE…日付表現\itemTIME…時間表現}上記分類以外に,それら分類のいずれにも属さない,あるいは判定が困難な場合に用いるOPTIONALという分類基準がある.例文(\ex{1})に例を挙げる.\eenumsentence{\item\underline{近鉄}ファンだった.(近鉄:ORGANIZATION)\item\underline{京都}を回ってみようと思います☆(京都:LOCATION)\itemあの\underline{孫}社長が携帯業界に参入してきた.(孫:PERSON)\item初めて\underline{バンホーテンココア}を飲んだときも衝撃でしたが,(バンホーテンココア:ARTIFACT)\item乗車率\underline{90%}程度だろうか.(90%:PERCENT)\item蕎麦の一杯や定食の一人前が\underline{800円}から\underline{1000円}もする.(800円:MONEY,1000円:MONEY)\item\underline{来シーズン}もプロ野球戦線が盛り上がるといいですね〜.(来シーズン:DATE)\item\underline{9時}過ぎに出発する.(9時:TIME)}\ref{sec:case-ellipsis-anaphora}節の格・省略・照応アノテーションと同様,固有表現アノテーションにおいても,京大コーパス(IREX)の仕様の拡張は必要なかった.\begin{table}[b]\caption{固有表現の出現数}\label{tab:NE-breakdown}\input{06table06.txt}\end{table}アノテーションの結果,KNBコーパスには固有表現が2,073個含まれていることが分かった.その内訳を表\ref{tab:NE-breakdown}に挙げる.\subsection{評価表現\label{sec:evalexp}}KNBコーパスにおける評価とは,ある対象に対して述べられた肯定的,もしくは否定的判断や態度,叙述を指す.典型的には,「お酒は美味しかったですよ.」のような,ある対象に対する肯定的/否定的な判断や態度がそれにあたる.また,「昼食が2万3千円〜だった.」のような事実的な言明であっても,その事実がある対象への肯定的/否定的評価に結びつくなら,それも評価に含める.評価表現アノテーションでは,川田ら(川田他2009)に基づき,何らかの評価を含む文に対して次の情報を付与する.\eenumsentence{\item評価保持者:その文における評価を発信している人や団体.\item評価表現:文中での評価を表している部分.\item評価タイプ:評価の種類と評価の極性.極性は,「$+$」が肯定的評価で「$-$」が否定的評価を表す.\begin{description}\item[当為:]評価保持者による提言や助言,対策を表す言明である.典型的には,「〜すべきだ」「〜しましょう」といったものがこれにあたる.\item[要望:]評価保持者の要望や要請を表す言明である.典型的には,「〜してほしい」「〜を求める」などがこれにあたる.\item[感情$+/-$:]評価保持者の欲求や喜怒哀楽,好き嫌いといった感情を表す言明である.典型的には,「〜が好き」「〜が悲しい」などがこれにあたる.\item[批評$+/-$:]評価保持者による賛成や反対,称賛,批判などの感情の言明がこれにあたる.典型的には,「〜が素晴らしい」「〜が納得できない」などがこれにあたる.\item[メリット$+/-$:]評価保持者による,評価対象に対する利点や欠点,特徴や課題について述べた言明である.典型的には,「〜効果がない」「〜がうるさい」などがこれにあたる.\item[採否$+/-$:]評価保持者が評価対象を積極的に利用したり,新たな製品や制度などを採用する姿勢を述べた言明である.典型的には,「〜を利用する」「〜を導入する」「〜を採用する」などがこれにあたる.\item[出来事$+/-$:]評価対象によって引き起こされた良い/悪い状況や個別的経験について述べられた言明である.典型的には,「〜が壊れた」「〜を受賞した」などがこれにあたる.\end{description}\item評価対象:評価の対象.}例文(\ex{1})と(\ex{2})に,「おかきやせんべいの店なのだが,これがオイシイ.」と「貧乏人臭い,なんか怪しげな人っぽいといった類のものです.」という文への評価表現アノテーションを挙げる.\eenumsentence{\item[]\hspace*{-5mm}おかきやせんべいの店なのだが,これがオイシイ.\item評価保持者:[著者]\item評価表現:オイシイ\item評価タイプ:批評$+$\item評価対象:おかきやせんべい}\eenumsentence{\item[]\hspace*{-5mm}貧乏人臭い,なんか怪しげな人っぽいといった類のものです.\item評価保持者:[不定]\item評価表現:貧乏人臭い,なんか怪しげな人っぽいといった類のものです.\item評価タイプ:批評$-$\item評価対象:[プリペイドユーザー]}[$\cdots$]でマークされているものは,文中に存在しない評価保持者,評価対象である\footnote{(\ex{0})で評価対象が[プリペイドユーザー]となっているが,これは直前の文が「加えて,プリペイドユーザーというものが持つ社会に対するマイナスイメージも考えてみました.」だったためである.}.(\ex{0})で評価保持者が[不定]となっているのは,その評価が執筆者や特定の個人,団体によるものではなく,世間一般の評価であることを示している.一文に複数の評価が含まれていることもある.次の例では,「しょぼかった」「画面も小さかった」「音も3和音とかやった」の3つの評価表現が一文に含まれている.\eenumsentence{\item[]最初はカメラもしょぼかったし,画面も小さかったし,音も3和音とかやった.\item評価保持者:\begin{enumerate}\item[著者]\item[著者]\item[著者]\end{enumerate}\item評価表現:\begin{enumerate}\itemしょぼかった\item画面も小さかった\item音も3和音とかやった\end{enumerate}\item評価タイプ:\begin{enumerate}\item批評$-$\itemメリット$-$\itemメリット$-$\end{enumerate}\item評価対象:\begin{enumerate}\itemカメラ\item画面\vspace{-0.5pt}\item音\end{enumerate}}(\ex{0})の(1)(2)(3)は対応しており,例えば,評価「しょぼかった」の評価保持者は「[著者]」,評価タイプは「批評$-$」,評価対象は「カメラ」となる.評価表現アノテーションは一文内で完結しない場合が頻繁にある.例えば例文(\ex{1})のように,評価の対象と評価表現が(近接する)異なる文に書かれている場合がそうである.例文(\ex{1})の2文目は,1文目に書かれている対象「ココア・オレ」に対する評価を述べている\footnote{(\ex{1})のaからdは2文目に付与される情報である.}.\eenumsentence{\item[]私はココア・オレを買います.\\これは何度飲んでも衝撃です.\item評価保持者:[著者]\item評価表現:衝撃です\item評価タイプ:感情$+$\item評価対象:[ココア・オレ]}異なる文に分断された評価対象と評価表現は多くの場合,格・省略・照応関係で結ばれている.従って評価表現アノテーションは,格・省略・照応関係のアノテーションと合わせてなされるべきである.\ref{sec:case-ellipsis-anaphora}節で述べた通り,KNBコーパスでは格・省略・照応関係もアノテーションされており,例文(\ex{0})の2文は照応表現「これ」を介して次のように関連づけられる.\eenumsentence{\item[]私はココア・オレを買います.\item[]\underline{これ}は何度飲んでも衝撃です.(これ$=$ココア・オレ)}\begin{table}[b]\caption{評価表現の出現数}\label{tab:eval-breakdown}\input{06table07.txt}\end{table}KNBコーパス全体を評価表現アノテーションした結果,2,045文(48.85\%)の文に何らかの評価表現が含まれていた.その内訳は表\ref{tab:eval-breakdown}の通りである\footnote{評価表現を含む文の総数が2,045なのに対し,表\ref{tab:eval-breakdown}の合計が2,510となっているが,これは複数の評価表現を含む文が存在するためである.}.表において,「当」「要」「感$+$」等はそれぞれ「当為」「要望」「感情$+$」等を表す.\subsection{アノテーション可視化HTMLファイル}以上で述べた通り,KNBコーパスのアノテーションは多岐にわたり,そのままでは(人間にとって)可読性が低い.そこで,アノテーションを可視化したHTMLファイルを別途用意した.図\ref{fig:visualize}は,「悩んだ末,カシオのG’zoneという,衝撃や水濡れに強いのがウリの機種に決めました.」という文へのアノテーションを可視化した例である.図\ref{fig:visualize}の上段が,係り受けと格・省略・照応,固有表現,評価表現\footnote{アノテーション可視化HTMLファイル中では「評判表現」となっている.}のアノテーションを可視化したもので,下段が形態素のアノテーションを可視化したものである.\begin{figure}[t]\begin{center}\includegraphics{18-2ia6f6.eps}\end{center}\caption{アノテーション可視化HTMLファイル}\label{fig:visualize}\end{figure}係り受け関係はタグ単位に基づくものを可視化している.また,「濡れに」に係っている「衝撃や」と「水」は並列関係にあるとアノテーションされているので「P」(Parallel)とラベル付けされている.格・省略アノテーションに関して,例えば「決めました.」はガ格とニ格を取り,それぞれ,省略されている一人称と,直前のタグ単位「機種」がそれらの要素となっている.加えて,「(悩んだ)末」という時間格を取る.照応アノテーションの例として,「機種」が一文前の「機種」と照応関係にあるとアノテーションされている.固有表現として「カシオ」と「G’zone」の2つがこの例文中にある.前者は企業名なので「ORGANIZATION」,後者は製品名であり「ARTIFACT」となる.この例文中の評価情報として「衝撃や水濡れに強いのがウリの機種に決めました」がある.この評価保持者は[著者]である.評価保持者が[著者]あるいは[不定]の場合,可視化HTML中では明示しない.評価タイプは「採否$+$」であり,評価対象は「衝撃や水濡れに強いのがウリの機種」となる.評価表現は「衝撃や水濡れに強いのがウリの機種に決めました」で,この箇所は係り受けの可視化において当該文字列が黄色でマークされている.図\ref{fig:visualize}下段の形態素アノテーションの可視化では,形態素ごとに,表出形,読み,原形,品詞,活用型と活用形を示している.また,文節境界とタグ単位境界もこの箇所で明記している.
\section{構築から配布まで\label{sec:construction}}
KNBコーパスの構築から配布までの手順は次の通りである.\begin{enumerate}\item記事の収集\item文境界/括弧抽出アノテーション\item形態素/係り受け/格・省略・照応/固有表現アノテーション\item評価表現アノテーション\item誹謗・中傷・宣伝的内容の削除\itemアノテーション可視化HTMLの生成\end{enumerate}記事の収集は,独自にブログサーバを設置し,大学生にアルバイトとして記事を書いてもらうことで収集した.その際,記事執筆にあたった全ての大学生から記事の著作権譲渡の承諾を得た.手順(2)と(3)は,自動でアノテーションした後,人手修正を施した.(3)の自動アノテーションでは,京大コーパスと同様,JUMAN/KNP\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html}を用いた.一方,(4)は全て人手で行った.また(2)(3)(4)に関して,京大コーパスと同様,アノテーション基準の見直しと再アノテーションというサイクルを何度か繰り返して行った.その後,元のブログ記事にある,特定の個人,団体に対する誹謗や中傷,宣伝的な内容を人手でチェックし,削除,あるいは伏せ字化した.最後に,全てのアノテーションを可視化したHTMLファイルを自動生成した.完成したKNBコーパスのパッケージ(4.2~MB)は,京都大学情報学研究科—NTTコミュニケーション科学基礎研究所共同研究ユニットのホームページ\footnote{http://nlp.kuee.kyoto-u.ac.jp/kuntt/}からダウンロードできる.京大コーパスとは異なり,コーパスのパッケージには,アノテーションだけでなく記事の本文も含まれている.
\section{おわりに}
\label{sec:conclusion}本稿では,我々が構築した,他に類を見ない,解析済みブログコーパスについて報告した.特に,ブログ特有の現象とそれらの正確な記述,京大コーパスとの互換性の重視について述べた.今後は,コーパスの大規模化と,KNBコーパスを用いた各種解析システム(形態素解析器や構文解析器等)のブログドメインへの適応を試みる予定である.自然言語処理技術のブログへの適用が今後ますます活発化することは明らかである.その成否は,本コーパスのような解析済みブログコーパスを充実させることが出来るかどうかにかかっている.一方,解析済みブログコーパスの充実にとって欠かせないのは,本稿で述べたような構築ノウハウの蓄積と構築されたコーパスの流通である.本研究の貢献はこの点にある.\acknowledgment本研究は,京都大学情報学研究科—NTTコミュニケーション科学基礎研究所共同研究ユニット「グローバルコミュニケーションを支える言語処理技術」の活動の一環として行われました.共同研究ユニットのメンバーの方々に感謝申し上げます.また,評価情報のアノテーションについて御協力いただいた情報通信研究機構知識処理グループのメンバーの方々に感謝申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Adar,Hurst,Finin,Glance,Nicolov,\BBA\Tseng}{Adaret~al.}{2008}]{ICWSM:2008}Adar,E.,Hurst,M.,Finin,T.,Glance,N.,Nicolov,N.,\BBA\Tseng,B.\BBOP2008\BBCP.\newblock{\BemProceedingsofthe2ndInternationalConferenceofWeblogsandSocialMedia}.\newblockTheAAAIPress.\bibitem[\protect\BCAY{Adar,Hurst,Finin,Glance,Nicolov,\BBA\Tseng}{Adaret~al.}{2009}]{ICWSM:2009}Adar,E.,Hurst,M.,Finin,T.,Glance,N.,Nicolov,N.,\BBA\Tseng,B.\BBOP2009\BBCP.\newblock{\BemProceedingsofthe3rdInternationalConferenceofWeblogsandSocialMedia}.\newblockTheAAAIPress.\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine:Kawahara:Kato:Nakagawa:Inui:Kurohashi:Kidawara:2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWISDOM:AWebInformationCredibilityAnalysisSystematic.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009SoftwareDemonstrations},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2007}]{NAISTCorpus:2007}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblock{NAIST}テキストコーパス:述語項構造と共参照関係のアノテーション(解析・対話)\inhibitglue.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},\mbox{\BPGS\71--78}.社団法人情報処理学会.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara:Kurohashi:Hashida:2002j}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{KUCorpus:rel:2005}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一\BBOP2005\BBCP.\newblock\Jem{格・省略・共参照タグ付けの基準}.\newblockhttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/rel\_guideline.pdf.\bibitem[\protect\BCAY{川田\JBA中川\JBA赤峯\JBA森井\JBA乾\JBA黒橋}{川田\Jetal}{2009}]{評価情報タグ付与基準:2009}川田拓也\JBA中川哲治\JBA赤峯亨\JBA森井律子\JBA乾健太郎\JBA黒橋禎夫\BBOP2009\BBCP.\newblock\Jem{評価情報タグ付与基準}.\newblockhttp://www2.nict.go.jp/x/x163/project1/eval\_spec\_20090901.pdf.\bibitem[\protect\BCAY{Kobayashi,Inui,\BBA\Matsumoto}{Kobayashiet~al.}{2007}]{Kobayashi:Inui:Matsumoto:2007}Kobayashi,N.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQOpinionminingfromwebdocuments.\BBCQ\\newblock{\BemTransactionsofJSAI},{\Bbf22}(2),\mbox{\BPGS\227--238}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2006}]{日本語話し言葉コーパスの構築法:2006}国立国語研究所.\newblock日本語話し言葉コーパスの構築法(国立国語研究所報告書124)\inhibitglue.\\newblock\Turl{http://www.kokken.go.jp/katsudo/seika/corpus/csj\_report/CSJ\_rep.pdf}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo:Yamamoto:Matsumoto:2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\Bem2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{黒橋\JBA居蔵\JBA坂口}{黒橋\Jetal}{2000}]{KUCorpus:syn:2000}黒橋禎夫\JBA居蔵由衣子\JBA坂口昌子\BBOP2000\BBCP.\newblock\Jem{形態素・構文タグ付きコーパス作成の作業基準version1.8}.\newblockhttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/syn\_guideline.pdf.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:McCallum:Pereira:2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsoftheEighteenthInternationalConferenceonMachineLearning(ICML2001)},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{丸山\JBA高梨\JBA内元}{丸山\Jetal}{2006}]{丸山:高梨:内元:2006}丸山岳彦\JBA高梨克也\JBA内元清貴\BBOP2006\BBCP.\newblock第5章節単位情報.\\newblock\Jem{日本語話し言葉コーパスの構築法(国立国語研究所報告書124)\inhibitglue},\mbox{\BPGS\255--322}.国立国語研究所.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2006}]{McClosky:Charniak:Johnson:2006}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2006\BBCP.\newblock\BBOQRerankingandSelf-TrainingforParserAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL'06)},\mbox{\BPGS\337--344}.\bibitem[\protect\BCAY{McDonald,Lerman,\BBA\Pereira}{McDonaldet~al.}{2006}]{McDonald:Lerman:Pereira:2006}McDonald,R.,Lerman,K.,\BBA\Pereira,F.\BBOP2006\BBCP.\newblock\BBOQMultilingualDependencyAnalysiswithaTwo-StageDiscriminativeParser.\BBCQ\\newblockIn{\BemProceedingsofCoNLL-X},\mbox{\BPGS\216--220}.\bibitem[\protect\BCAY{宮崎\JBA森}{宮崎\JBA森}{2008}]{宮崎:森:2008}宮崎林太郎\JBA森辰則\BBOP2008\BBCP.\newblock製品レビュー文に基づく評判情報コーパスの作成とその特徴の分析.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告2008(90)},\mbox{\BPGS\99--106}.\bibitem[\protect\BCAY{Murakami,Masuda,Matsuyoshi,Nichols,Inui,\BBA\Matsumoto}{Murakamiet~al.}{2009}]{Murakami:Masuda:Matsuyoshi:Nichols:Inui:Matsumoto:2009}Murakami,K.,Masuda,S.,Matsuyoshi,S.,Nichols,E.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQAnnotatingSemanticRelationsCombiningFactsandOpinions.\BBCQ\\newblockIn{\BemProceedingsoftheThirdACLWorkshoponLinguisticAnnotationWorkshop},\mbox{\BPGS\150--153}.\bibitem[\protect\BCAY{新里\JBA橋本\JBA河原\JBA黒橋}{新里\Jetal}{2007}]{新里:橋本:河原:黒橋:2007}新里圭司\JBA橋本力\JBA河原大輔\JBA黒橋禎夫\BBOP2007\BBCP.\newblock自然言語処理基盤としてのウェブ文書標準フォーマットの提案.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\602--605}.\bibitem[\protect\BCAY{Nivre,Hall,Nilsson,senEryi~git,\BBA\Marinov}{Nivreet~al.}{2006}]{Nivre:Hall:Nilsson:senEryigit:Marinov:2006}Nivre,J.,Hall,J.,Nilsson,J.,senEryi~git,G.,\BBA\Marinov,S.\BBOP2006\BBCP.\newblock\BBOQLabeledPseudo-ProjectiveDependencyParsingwithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofCoNLL-X},\mbox{\BPGS\221--225}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{IREX:2000}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQIREX:IRandIEEvaluation-BasedProjectinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation(LREC2000)},\mbox{\BPGS\1475--1480}.\bibitem[\protect\BCAY{Sriphaew,Takamura,\BBA\Okumura}{Sriphaewet~al.}{2009}]{Sriphaew:Takamura:Okumura:2009}Sriphaew,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQCoolBlogClassificationfromPositiveandUnlabeledExamples.\BBCQ\\newblockIn{\BemAdvancesinKnowledgeDiscoveryandDataMining,13thPacific-AsiaConference(PAKDD)},\mbox{\BPGS\62--73}.\bibitem[\protect\BCAY{内元\JBA丸山\JBA高梨\JBA井佐原}{内元\Jetal}{2004}]{CSJ:係り受けマニュアル}内元清貴\JBA丸山岳彦\JBA高梨克也\JBA井佐原均\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』における係り受け構造付与}.\newblockhttp://www.kokken.go.jp/katsudo/seika/corpus/public/manuals/dependency.pdf.\end{thebibliography}\begin{biography}\bioauthor{橋本力}{1999年福島大学教育学部卒業.2001年北陸先端科学技術大学院大学博士前期課程修了.2005年神戸松蔭女子学院大学大学院博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2007年山形大学大学院理工学研究科助教,2009年より独立行政法人情報通信研究機構専攻研究員.現在に至る.自然言語処理の研究に従事.博士(言語科学).情報処理学会,言語処理学会,各会員.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程終了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,ACM,各会員.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員を経て,2006年より独立行政法人情報通信研究機構研究員.現在,同主任研究員.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,ACL,各会員.}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(情報科学).同年10月より京都大学大学院情報学研究科特任助教.2009年4月より特定研究員.2011年4月より楽天技術研究所研究員.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所主幹研究員.工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V15N01-04
|
\section{はじめに}
近年,コンピュータを含め,機械は我々の生活・社会と密接に関与し,必要不可欠な存在となっている.そのため,機械の目指すべき姿は「人と共存する機械(ロボット)」だと言えるだろう.この夢は,二足歩行ができる,走ることができる,踊ることができるなど,身体能力に長けたロボット\cite{HumanRobot1999}\cite{RoBolution2001}が数多く開発されたことにより,その一部が実現されつつある.今後,機械が真に「人と共存」するためには,優れた身体能力を持った機械に「知能」を持たせ,人間と自然な会話を行う能力が必要になる.機械が人間を主体としたスマートな会話を行うことにより,人と機械の円滑なコミュニケーションが可能となる.そこで,自然な会話を行うための自然言語処理の研究が注目を浴びている.しかしながら,従来の自然言語処理では,文の表層的な形式を重視し,ある限定された目的や特定の状況下での会話処理(タスク処理型会話)に重点を置いた研究が主流となっている.コンピュータ技術の進展に伴って,応答事例を大量に収集し知識ベース化する傾向が強い.このような方法はユーザの発した言葉の理解が,構築した知識ベースの大きさやシステム設計者の取得したデータに束縛されてしまうため,パターンに一致する会話事例が随時必要とされたり,限定された応答となってしまう.このような理由により,コンピュータとの人間らしい会話のためには,ただ応答事例や知識を大量に集めるだけでは対応しきれないと考えられる.そこで,コンピュータ自身によって会話文を生成する必要がある.人間は,基本的な文章の言い回し(応答事例)を元に,臨機応変に文章の可変部を変化させ,組み合わせることで文章を生成している.このように,コンピュータにおいても,基本的な応答事例を知識として与え,文章の可変部を連想によって変化させることができれば,より柔軟で多種多様な会話ができると考えられる.この考えに基づき,コンピュータによる会話文生成\cite{Yoshimura2006}が研究された.しかし,\cite{Yoshimura2006}は機械的な語の組み合わせに起因する一般的に見て不自然な語の組み合わせの応答を生成する恐れがある.例として次の会話を挙げる.A「休暇にサハラ砂漠へ行ってきました.」B「砂漠はさぞ暑かったでしょう.」\noindentこの応答を生成する場合,「雪国はさぞ寒かったでしょう」という文章事例(知識)より,[雪国]と[寒い]という可変部を連想によって変化させることで,「砂漠はさぞ暑かったでしょう」という文章を生成することができる.しかし,機械的に語を組み合わせることにより,「砂漠はさぞ寒かったでしょう」や「砂漠はさぞ涼しかったでしょう」のような人間が不自然と感じる組み合わせの応答をも生成する.そこで,このような違和感のある組み合わせの語の検出能力が必要となる.このため,本稿では,この違和感のある組み合わせの語の検出方式について論じる.本稿における「違和感表現」とは,聞き手が何らかの違和感を覚えたり,不自然さを感じる表現として用いる.違和感表現には以下のような表現が挙げられる.\begin{enumerate}\item\label{item:bunpo}文法的知識が必要な違和感表現\\「水が飲む」「本が読む」\item\label{item:joshiki}意味に関する常識的知識が必要な違和感表現\\「黒い林檎を食べた」「7月にスキーに行った」「歯医者へ散髪に行く」\end{enumerate}(\ref{item:bunpo})の表現を理解するには,助詞の使い方や動詞の語尾変化に関する文法的知識が必要である.コンピュータに文法的な知識を与えることで.「水が飲む」という表現を「水を飲む」,「本が読む」という表現を「本を読む」の誤りであると検出し,訂正することが可能になる.これは,文法的な知識や大規模コーパス等\cite{Kawahara2006}を用いることにより,検出可能と考えられる.本稿では,この範囲については扱わないものとする.これに対し,(\ref{item:joshiki})のような表現は,文法的な知識や事例を集めたコーパスだけでは対応できない.文法的にも,助詞の使い方や動詞の語尾変化に関しても誤りではないからである.しかし,人間は「黒い林檎を食べる」と聞けば,「林檎」が「黒い」ことに違和感を覚える.また,「7月にスキーに行った」という表現では,「スキー」を「夏」である「7月」に行ったということに違和感を覚え,「歯医者に散髪に行く」と聞けば,「散髪に行く」ためには「美容院」等に行くはずなのに歯を治療する場所である「歯医者」に行ったことに不自然さを感じる.これらの文章を理解するには,文法的な知識だけでなく,我々が経験上蓄積してきた,語に対する常識を必要とする.このような違和感表現を検出することができれば,応答合成だけでなく,人間が表現する違和感のある会話に柔軟に応答できると期待される.何故ならば,人間はこれらの文章に違和感を覚え,その違和感について話題を展開することで,会話を進めていくことができる.「7月にスキーに行った」のは,南半球の国や年中雪のある北国かもしれない.また,単なる言い間違いや聞き間違いかもしれない.人間は違和感のある表現を検出したとき,この疑問を具体的に相手に尋ねるような応答をする.これが人間らしい会話の一因となる.しかし,従来の機械との会話は質問応答が基本であり,違和感は考慮されていない.人間ならばどこがどのように不自然かをすぐに判別できる.これは人間が語の意味を知り,語に関する常識を持っているからである.しかし,機械は人間の持つ「常識」を持たず,理解していない.そこで,機械が「不自然だ」「一般的でない表現だ」と気づくためには,機械にも,一般的で矛盾のない表現を識別できる機能が必要だと考えられる.自然な応答を返すことは,機械が意味を理解し,常識を持って会話を行っていることを利用者に示すことになる.つまり,このような文章に対応できるシステムは聞き返すことで,話し相手としての存在感を強調し,人間らしい柔軟な会話ができると期待される.そこで,違和感表現を検出する手法の開発が必要となる.違和感表現には時間,場所,量,感覚などの様々な観点が存在する.\begin{itemize}\item\label{item:time}時間に関する違和感表現\\「7月にスキーに行った」\item\label{item:basyo}場所に関する違和感表現\\「歯医者へ散髪に行った」\item\label{item:ryo}量に関する違和感表現\\「机に家を入れました」\item\label{item:kankaku}感覚に関する違和感表現\\「黒い林檎を食べました」\end{itemize}このような違和感表現を検出するにはそれぞれの観点での常識に着目することが必要となるが,本稿では,その中でも,感覚に着目した違和感表現検出手法について述べる.これは,ある名詞に対する一般的な感覚を必要とする形容語に関する矛盾を判断する.つまり,「黒い」「林檎」などのように,名詞とそれを形容する語(以降,形容語)との関係の適切さを判断する.形容語とはある名詞を形容する形容詞・形容動詞・名詞(例:黒い,大きな,緑の)を指す.
\section{名詞と形容語の関係}
label{sec:bunrui}本論文では,提案する違和感表現検出処理のために,違和感の有無の観点から名詞と形容語の関係を整理し,どのような語が違和感の無い語であるかについて考察する.そこで,「林檎」という対象物を例に出す.「林檎」から人間が一般的に想起する形容語には「赤い,甘い,丸い」が存在する.この形容語は「林檎」を表現する上で特徴的な形容語であると言える.これらの形容語と「林檎」の関係は違和感がない.しかし,「赤い」と同様に,色を表現する形容語である「黒い」「白い」と,「林檎」の関係は違和感を覚える.このようなある対象物に対して人間が一般的に連想できる形容語の表現に対し,その対象物に対して連想は行われないが論理的に正しい形容語の表現が存在する.例えば,「重い林檎」「軽い林檎」という表現には人間は違和感を覚えない.この「重い,軽い」は「林檎」を特徴的に表現する形容語ではないため,人間は「林檎」から連想しない.ところが,「林檎」は質量を持つ物体であるため,「重い,軽い」という表現は論理的に正しく,違和感を覚えない表現だと言える.そこで,このような名詞と形容語の関係を整理するため,下記の4グループに分類した.\begin{description}\item[特徴的]対象物の特徴的な形容語\\赤い林檎,黄色いバナナ,丸い地球,広い海など\item[反特徴的]対象物の特徴的な形容語の反対の性質の形容語\\黒い林檎,黒いバナナ,四角い地球,狭い海など\item[論理的]対象物に対する形容語として論理的な矛盾のない形容語(対象物の特徴的な形容語ではない性質の形容語)\\黒い車,赤い風船,古い雑誌,重い扉など\item[非論理的]対象物に対する形容語として論理的に矛盾する形容語(対象物が取らない性質の形容語)\\暑い林檎,四角い病気,からい夕焼け,低い手袋など\end{description}この4グループをそれぞれ「特徴的」「反特徴的」「論理的」「非論理的」と呼ぶこととする.先に述べた例において,「特徴的」と「反特徴的」はその対象物に対して人間が一般的に連想する形容語に関係する表現である.これに対し,「論理的」「非論理的」はその対象物に対して人間が一般的に連想はしないが論理的に正しい形容語に関係する表現である.「論理的」の関係では,「黒い」「車」のように,対象物「車」に対し,一般的に想起する特徴的な性質(色)の形容語は存在しないが,その性質(色)を対象物は表現できる.これに対し,「非論理的」の関係は,「四角い」「病気」のように,対象物「病気」に対し,その性質(形)を対象物が持たない場合である.これらの「特徴的」「反特徴的」「論理的」「非論理的」の名詞と形容語の関係について,一般的に人間がどのように感じるかについて調べる必要がある.これについて実験を行った.\subsection{人間による評価実験}\label{sec:humanjikken}\ref{sec:bunrui}節で分類した「特徴的」「反特徴的」「論理的」「非論理的」の4パターンそれぞれについて,形容語と名詞のセットを各50セットずつ,全200セット用意した.この評価セットはシステム設計者とは異なる複数人物から「特徴的」「反特徴的」「論理的」「非論理的」の説明を行った上で,アンケートによって収集したものである.この形容語と名詞のセットをランダムな順番で表示し,被験者5名に「違和感なし」「どちらともいえない」「違和感あり」の3分類に分けてもらった.評価に用いた形容語と名詞のセット例と結果を表\ref{tb:humanhyoka}に示す.\subsection{実験結果と考察}\label{sec:humanjikkenkekka}あるセットに対し,5名中3名以上が分類した項目を一般的な感覚の分類項目として,採用する.各50セットの人間による分類は表\ref{tb:humanhyoka}のようになった.全てのセットにおいて,偏りが見られ,3項目に対し,2名・2名・1名のように分散することは無かった.\begin{table}[t]\caption{形容語と名詞の4分類に関する人間による評価}\label{tb:humanhyoka}\input{03table1.txt}\end{table}表\ref{tb:humanhyoka}を見ると,「特徴的」「論理的」「非論理的」の関係については特に顕著な偏りが見られることがわかる.そこで,「特徴的」「論理的」の関係については違和感なしの表現,「非論理的」の関係については違和感表現と機械が判断してもよいと考えられる.しかし,反特徴的にはある程度の揺れが見られた.例えば,西瓜の形状は一般的に,球形〜楕円形だが,近年では成長過程で枠にはめてしまう「四角い西瓜」というものが贈答用などで作られている.この「四角い西瓜」という表現のように,西瓜は丸いものだという通常観念があるにも関わらず,特殊な場合として存在する可能性があるために反特徴的には揺れが見られたと考えられる.このような表現は「美味しい関係」や「黒いバナナ」のように,日常会話では一般的ではないが,それゆえに,話題性があり,小説の題,広告の宣伝文句などに用いられ,目にした人をひき付ける効果を持つ.これは表現に違和感を覚えるからこそ,ひきたつと考えられる.本稿における違和感表現の検出は,文章の機械的合成において違和感表現を排除することや,相手の会話文に違和感を覚えることで相手に聞き返しを行うという目的に則り,このような表現に対しても違和感があるとして検出する.このため,「どちらともいえない」と「違和感あり」の項目をあわせると,「反特徴的」の関係については,90\%の割合で違和感表現であるといえる.そこで,この「反特徴的」の関係について機械は違和感表現と判断してよいと考える.
\section{違和感表現検出}
label{sec:Hijyoshiki}違和感表現を検出する手法として,言葉の統計情報を利用したデータベースを利用する方法(例:WEBを用いた大規模格フレーム,WEB検索システム)と,人間が記述したデータベースを用いる方法(IPAL形容詞版\cite{iPAL1990})の二手法が考えられる.まず,言葉の統計情報を利用したデータベースはWEBなどを用いるため,規模が大きく,一般的に利用されている語が多く存在する.このため,形容語と名詞のセットを検索することで違和感表現を検出できると考えられる.しかし,この手法はその表現の出現の有無で検出するしかない.つまり,一度でもその表現が出現すれば,一般的な表現と判断することになる.この手法では,\ref{sec:humanjikkenkekka}節で述べた,常識として一般的ではないが,それゆえに,小説の題,広告の宣伝文句などに用いられるような違和感表現には対応できない.対応案として,出現数の低い表現を違和感表現とする方法も考えられるが,語によって適切な閾値が異なり,適切な閾値の設定に根拠が存在しない.次に,人間が記述したデータベース,IPAL形容詞版(語彙体系上ならびに使用頻度上重要であると考えられる基本的な形容詞(136語)について,意味及び統語的な特徴を記述)のような,形容語と名詞との関係を格納したデータを用いる方法が考えられる.IPAL形容詞版では,ある形容語に対し,一般的に繋がりやすい名詞を記述している(例:青い−海,空,葱,瞳).これは「特徴的」の関係であり,このような関係を網羅的に把握することができれば,「特徴的」の文章を切り出すことが可能となる.しかし,人間が作成したデータベースにおいて網羅的にデータを格納することは不可能であり,また人により入れる名詞が異なると考えられる.更に,このようなデータベースにおいて記述される,ある形容語(例:青い)に関係する名詞(例:海,空,葱,瞳)は,我々が利用する頻度に関係する.つまり,よく使われる語の関係ほど想起されやすく,データベースに含まれやすい.しかし,特徴的ではないが論理的に正しい関係は,頻度としては低いが違和感はないにも関わらず,データベースに含まれにくい.このような関係を検出するためには,違和感という観点で整理した知識ベースが必要となる.そこで,本論文で提案する形容語に関する違和感表現の検出の方法は,感覚判断システム\cite{Watabe2004},\cite{Kometani2003}と形容語属性付きシソーラスを組み合わせている.後に\ref{sec:iwakanknowledge}節で感覚判断システムと形容語属性付きシソーラスについて説明する.違和感表現検出の方法の全体的な流れとして,まず,入力された文章から,判断対象となる名詞と形容語を取得する.このために,後述する意味理解システムを用いて文章を解析し,比較・判断対象となる可能性のある二語の対を全て取得する.更に,対象となる二語について,名詞・形容語の関係を「特徴的」「反特徴的」「論理的」「非論理的」のどれかに分類する.前述した実験より,「特徴的」「論理的」を違和感なしの表現,「反特徴的」「非論理的」を違和感表現と判断し,判断結果を取得する.\subsection{判断対象取得知識}違和感ありの表現の検出処理を行うためには,まず,文章中から判断対象となる名詞と形容語を取得する必要がある.対象となる名詞と形容語の出現を整理すると,以下のような一定のパターンが存在することがわかった.\begin{itemize}\item「形容語+名詞」節\\ex.赤い林檎,緑の西瓜,簡単な問題\item「名詞」が(は)「形容語」(主格に対象となる名詞,用言に形容語)\\ex.林檎は赤い,西瓜は緑だ.\end{itemize}形容語は,形容詞・形容動詞・名詞を含む.文章構造解析を行い,文章構造パターンを用意することで,これらのパターンを見つけ,判断対象となる名詞と形容語を取得する.文章構造解析のために,意味理解システム\cite{Shinohara2002}を利用する.本稿における意味理解システムとは機械が文章の内容を把握するために整理するものである.これは,複文や重文を含まない入力文(単文)を6W1H+用言(verb)のフレームに分割して格納する.意味理解システムを用いた例を図\ref{fig:Imirikai}に挙げる.\begin{figure}[t]\begin{center}\includegraphics{15-1ia3f1.eps}\caption{意味理解システム動作例}\label{fig:Imirikai}\end{center}\end{figure}\begin{table}[t]\caption{文章構造パターン}\label{tb:KankakuStructure_Pattern}\input{03table2.txt}\end{table}違和感表現検出処理を行うために,文章中から判断対象となる名詞と形容語を見つけるための文章構造パターンを用意した.そのパターンを表\ref{tb:KankakuStructure_Pattern}に示す.表\ref{tb:KankakuStructure_Pattern}において,「who-verb」は意味理解システムによって6W1Hに分類されたフレームのうち,whoフレームとverbフレームが一文中に共に存在しているという条件を示す.また,「allframe」は全てのフレームのうちどれかが存在しているという条件を示す.更に,条件を詳細化し,それぞれのフレームが取るべき品詞の条件を詳細情報として表\ref{tb:KankakuStructure_Pattern}のように格納している.また,どの二語が対象となる名詞とそれを形容する語であるかを共に格納している.この比較対象の二語は「情報フレーム内の条件」の語に準拠する.入力文が文章構造パターンに合致した場合,「対象語」とその語を形容する「対象語の形容語」を取得する.\subsection{違和感表現判断知識}\label{sec:iwakanknowledge}対象語と形容語の関係を知るために対象物に対する一般的な性質に関する知識構造が必要となる.例えば,「林檎」は「赤い」,「丸い」,「甘い」という具体的な特徴を持ち,「色」,「形」,「味」,「匂い」,「重さ」という性質を持ち,「明暗」「音」という性質は持たないという常識を知っておく必要がある.上記の「特徴」と「性質」の考え方はシソーラス構造を使い効率よく表現できる.対象概念の性質は親ノードから継承され,子ノードや個々のリーフには具体的な特徴を持たせる.例えば,「食料」というノードには「味」という性質を持たせる.このため,「食料」を継承する子ノード,リーフは「味」の形容語である「美味しい」や「まずい」などの語で形容できることを表現できる(例:美味しい林檎).一方,「味」という性質を継承しない別ノードであれば,「味」の形容語である「美味しい」や「まずい」などの語では形容できないことを表現する(例:美味しい辞書).以降,このような問題の追究を論理的矛盾の追究と呼ぶ.これに対し,例えば,「食料」を継承するリーフ「レモン」には具体的な特徴「酸っぱい」を持たせる.これにより,「レモン」は「酸っぱい」で形容できることを表現する(酸っぱいレモン).一方,「辛い」「甘い」「塩辛い」などの「レモン」に対して一般的でない特徴は「レモン」に持たせない.これにより,このような語では形容が難しいことを表現できる.以降,このような問題の追究を感覚的矛盾の追求と呼ぶ.つまり,「論理的」「非論理的」の名詞と形容語の関係は論理的矛盾の追究であり,「特徴的」「反特徴的」の名詞と形容語の関係は感覚的矛盾の追究であるといえる.このように,「特徴」と「性質」の概念はシソーラス構造で表記できる.そこで,NTTシソーラスを元にして作成された,感覚判断システム\cite{Watabe2004}と形容語属性付きシソーラスを利用することによってこのデータ構造を表現する.感覚的矛盾の追及のために,感覚判断システムを用いる.名詞から,感覚判断システムによって得られた結果をその名詞の「特徴」とする.更に,論理的矛盾の追及のために形容語属性付きシソーラスを利用し,その名詞の親ノードから「性質」を導き出す.感覚判断システム\cite{Watabe2004},\cite{Kometani2003}とは,ある名詞に対して人間が一般的に連想でき,特徴付けられる感覚(形容語)を取得するシステムである.感覚判断システムは自然会話において感覚という観点で言葉を扱うために開発された.この「感覚」とは視覚・聴覚・嗅覚・味覚・触覚の刺激によって得られる「五感」と,人間が一般的に抱く印象である「知覚」の2つを指す.感覚判断システムにおいて,全ての形容詞,形容動詞から五感に関する形容語(熱い,寒いなど)を人手で抽出した98語を感覚語,知覚に関する形容語(なつかしい,寂しいなど)を人手で抽出した114語を知覚語と呼ぶ.感覚判断システムはこの感覚語と知覚語の両方を用いて構築される.感覚判断システムは名詞とその特徴である感覚の関係を日常的な名詞の知識ベース(感覚判断知識ベース)を構築することによって明確にし,必要な感覚(感覚語及び知覚語)を取得する.感覚判断知識ベースはシソーラス構造をとる.感覚に関する語という観点で見た場合,名詞にはその名詞のグループが持つ感覚とその名詞固有の感覚の2種類がある.感覚判断知識ベースはこの2種類の感覚を継承できるようにするためにシソーラスのリーフとノードの関係を用いて構築されている.具体的には,日常よく使用される680語をシソーラスのリーフ(代表語)として登録し,それぞれにその語固有の感覚を付与している.また,それらをグループ化しシソーラス構造をとるための語をノード(分類語)として153語登録し,そのグループが持つ五感の感覚を付与している.この感覚判断知識ベースのイメージ図を図\ref{fig:kankakuDB}に示す.しかし,人間が登録した代表的な名詞と形容語の関係を格納した感覚判断知識ベースは,全ての単語を網羅しているわけではない.そこで,感覚判断システムは,汎用知識である概念ベース\cite{Hirose2002}とNTTシソーラス\cite{NttThesaurus1997}を用いることで,構築した感覚判断知識ベースにない語(未知語)に対しても感覚の連想を行う(未知語処理方法の詳細は文献\cite{Tsuchiya2002}を参照されたい).このことによって,単に人間が記述したデータベースよりも網羅できる範囲を拡大することができる.感覚判断システムを用いた例を表\ref{tb:Kankaku_JudgementSystem}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f2.eps}\caption{感覚判断知識ベースのイメージ図}\label{fig:kankakuDB}\end{center}\end{figure}\begin{table}[b]\caption{感覚判断システムの判断例}\label{tb:Kankaku_JudgementSystem}\input{03table3.txt}\end{table}感覚判断システムにおける感覚判断知識ベースはある名詞に対し,特徴的な感覚の形容語を取得するという観点で作成された.この考え方を基とし,論理的な形容語と名詞の関係を検出するために作成したのが形容語属性付きシソーラスである.論理的矛盾の追究のためにこの形容語属性付きシソーラスを用いる.感覚判断知識ベースと同じシソーラスのデータ構造を持つが,それぞれのノードの持つ固有の形容語ではなく,更に一般的な性質の形容語を付与している.例えば,[具体物]ノードには重量(重い,軽い)があり,[人]ノードには老若(若い,年老いた)が付与されている.シソーラス構造を用いることで,ノードの性質を表した形容語は下位ノードに継承することが可能となる.形容語属性付きシソーラスのイメージ図を図\ref{fig:keiyou}に示す.図\ref{fig:keiyou}はイメージ図であり,実際には感覚判断知識ベースに追記する形で格納した.また,主な感覚(112語)に対し分類語(五感語(5語)と五感度語(10語))を格納した五感知識ベースを用意した.五感語は視覚・聴覚・触覚・味覚・嗅覚の5つに大別した語であり,五感度語は更に詳細に分類した語である.五感知識ベースの一部を表\ref{tb:Gokan_KnowledgeBase}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f3.eps}\caption{形容語属性付きシソーラスのイメージ図}\label{fig:keiyou}\end{center}\end{figure}\begin{table}[b]\caption{五感知識ベースの一部}\label{tb:Gokan_KnowledgeBase}\input{03table4.txt}\end{table}また,本論文における提案手法では,人間で作成した代表的な知識だけでは補えない部分を汎用的な知識ベースである概念ベースとそれを用いた関連度計算によって,知識に一般性を持たせる.この概念ベース\cite{Hirose2002}と関連度計算\cite{Watabe2006}について,説明を加える.概念ベースとは,複数の国語辞書や新聞等から機械的に自動構築した,語(概念)とその意味を表す単語集合(属性)からなる知識ベースのことである.この概念と属性のセットにはその重要性を表す重みが付与される.任意の概念$A$は,概念の意味特徴を表す属性$a_i$とこの属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対の集合として定義する.\begin{equation}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\end{equation}属性$a_i$を概念$A$の一次属性と呼ぶ.これに対し,$a_i$を概念とした場合の属性を$A$の二次属性と呼ぶ.展開していけば一つの概念は任意の次数までその属性を持つことができる.当初の概念ベースは,複数の電子化国語辞書を用いて機械的に自動構築されたもの\cite{Kojima2002}である.この概念ベースは人間の感覚では必要な属性が抜け落ち,明らかにおかしい属性が雑音として含まれている.このため本稿では,不適切なデータを削除し,必要なデータを追加する自動精錬処理を行った概念ベース(概念数約9万語)\cite{Hirose2002}を利用する.また,関連度とは,概念と概念の関連の強さを定量的に評価するものである.関連度の計算方式は,それぞれの概念を二次属性まで展開し,重みを利用した計算によって最適な一次属性の組み合わせを求め,それらの一致する属性の重みを評価することで算出する.この関連度の値は0〜1の実数値をとり,値が高いほど関連の深い語であることを意味する.概念$A$と概念$B$に対して関連度計算を行った例を表\ref{tb:kanrendoExam}に挙げる.\begin{table}[t]\begin{center}\caption{関連度計算の例}\label{tb:kanrendoExam}\input{03table5.txt}\end{table}\subsection{違和感表現検出手法}これまでの考え方と知識構造を用いて,名詞と形容語の関係を判断する違和感表現検出手法を提案する.大きく3つの部分に分けられる.まず,文章から判断対象となる「対象語」と「形容語」を取り出す.次に,論理的矛盾を追及するため,「形容語」から「対象語」の適合性を判断する.最後に,感覚的矛盾を追及するため,「対象語」から「形容語」の適合性を判断する.アルゴリズムは以下の通りである.\begin{enumerate}\item文章を意味理解システムにかけ,文章を解析する.\item文章の解析結果と文章構造パターンを比較し,一致するパターンを探す.\item一致するパターンがなければ,判断対象の文であると判断しない.\item一致するパターンがあれば,文章から対象となる名詞「対象語」と形容する語「形容語」を取得する.\end{enumerate}以上が,文章から比較対象となる「対象語」と「形容語」を取り出す部分である.例えば,「林檎は赤い」という文章を,意味理解システムにかけて解析すると「who:林檎(名詞),verb:赤い(形容詞)」という結果が得られる.これは文章構造パターンに一致するため.対象語として「林檎」,形容語として「赤い」を取得する.一方,例えば,「林檎が転がる」という文章では,「who:林檎(名詞),用言:転がる(動詞)」という結果が得られる.これは文章構造パターンに一致するパターンがないため,判断対象の文ではないと判断する.取得した「対象語」と「形容語」に対し,論理的矛盾を追及する.\begin{enumerate}\item「形容語」と五感知識ベース内の全ての「感覚」を比較する.比較には,関連度計算を用い,最高関連度を示した語の関連度の値を取得する.\item関連度の値が閾値未満の場合,判断対象であると判断しない.\item関連度の値が閾値以上の場合,その「感覚」の分類語を取得する.\item取得した分類語を形容語属性付きシソーラスのノードに与えられた「性質」と比較する.一致する「性質」を持つ全ノードを取得する.\item取得した全ノードと「対象語」のシソーラスノードを比較する.\item一致するノードがなければ,「非論理的」の関係であると判断し,「違和感表現」と判断する.\item一致するノードがあれば,次の処理へ移る.\end{enumerate}以上により,対象語と形容語の論理的矛盾を調べる.この処理の具体例を図\ref{fig:RonritekiMujun}を用いて説明する.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f4.eps}\caption{論理的矛盾の処理例}\label{fig:RonritekiMujun}\end{center}\end{figure}対象語「林檎」,対象語の形容語「蒸し暑い」の場合(蒸し暑い林檎)を例とする.まず,形容語「蒸し暑い」と五感知識ベース内の全ての感覚を比較し,対応する語を探す.比較には関連度計算を用い,最高関連度の値が閾値以上を示した場合,その感覚を形容語と対応する語と考える.この場合,「蒸し暑い」は「暑い」と対応する.対応する語が取れない場合には判断対象とは判断しない(例:右の道).対応がとれた場合は,その感覚「暑い」の分類語「気温」を五感知識ベースより得ることができる.分類語「気温」と形容語属性付きシソーラスのノードに与えられた「性質」と比較し,一致する性質を持つ全ノード「熱」「風」「季節」「衣服」を取得する.この取得したノードと,対象語「林檎」のシソーラスノード「……植物—樹木—果実」を比較する.すると,一致するノードが存在しないため,「非論理的」の関係であると判断し,「違和感表現」であると判断できる.一致するノードがある場合には,以下のように感覚的矛盾を追及する.\begin{enumerate}\item「対象語」に対し,感覚判断システムによって「感覚」を取得する.\item取得した「感覚」と「形容語」を比較する.比較には関連度計算を用いる.\item閾値以上の関連度を示した場合,「特徴的」と判断し,「違和感なしの表現」である,と判断する.\item関連度が閾値未満であれば,「感覚」の分類語を取得する.\item五感知識ベース内で同じ分類語を持つ全ての語(取得した「感覚」以外)を取得する.\item(5)と「形容語」を比較する.比較には,関連度計算を用い,最高関連度を示した語の関連度の値を取得する.\item関連度の値が閾値以上の場合,「反特徴的」と判断し,「違和感表現」と判断する.\item関連度の値が閾値未満の場合,「論理的」と判断し,「違和感なしの表現」と判断する.\end{enumerate}ここで,「違和感なしの表現」はデータとの対応のとれない表現を含む.今回の提案手法は応答文の機械的拡張における違和感表現検知,人間の発話における違和感表現検知が背景にあるため,違和感表現を抽出することが目的であり,違和感なし表現を取り出すことが目的ではない.違和感がある,ないという判断はその中間地点においては曖昧であり,人間でも完全に白黒つけられるものではないと考えられる.この理由としては,流行や新しい価値観,もしくはその人自身に知識がない(機械に置き換えた場合,データが存在しない)ことに関わってくる.この曖昧な部分については解決が困難であるため,提案手法では「違和感表現である」と言える表現のみの抽出を試みた.データが存在しない場合は,必ずしも違和感表現であるとは言い切れない.このため,違和感なしの表現には違和感があるとは言えない表現も含ませた.以上の手法により,対象語と形容語の感覚的矛盾を調べる.この処理の具体例を図\ref{fig:KankakutekiMujun}を用いて説明する.\begin{figure}[t]\begin{center}\includegraphics{15-1ia3f5.eps}\caption{感覚的矛盾の処理例}\label{fig:KankakutekiMujun}\end{center}\vspace{-0.5\baselineskip}\end{figure}対象語「林檎」,対象語の形容語「真っ黒」の場合(真っ黒な林檎)を例とする.対象語「林檎」を感覚判断システムにかける.すると,「赤い」という感覚が得られる.得られた感覚「赤い」と対象語の形容語「真っ黒」を比較する.関連度が閾値以上の値であれば,「特徴的」と判断し,「違和感なしの表現」であると判断する(例:赤い林檎).しかし,「赤い」と「真っ黒」の関連度は閾値を超えない.そこで,感覚「赤い」の分類語「色」を取得する.この分類語「色」と同じ分類語を持つ\pagebreak全ての語「白い」「黒い」「青い」「黄色い」を取得する(対象語の感覚「赤い」は除く).「赤い」以外の「色」に関する感覚と形容語「真っ黒」を比較し,対応する語を探す.比較には関連度計算を用い,最高関連度の値が閾値以上を示した場合,その感覚を形容語と対応する語と考える.この場合,「真っ黒」は「黒い」と対応する.対応する語が取れない場合には「論理的」と判断し,感覚に関して「違和感なしの表現」と判断する(例:赤い車).この場合は対応する語がとれるため,「反特徴的」と判断し,「違和感表現」と判断する.「赤い車」の場合,直前の論理的矛盾処理において違和感表現から除かれている.感覚的矛盾では,まず「車」の感覚「速い,便利な」を感覚判断によって導く.この「速い」(もしくは「便利な」)と「赤い」との関連性をみて,関連が低いと判断する.そこで,「遅い」(「速い」と同じ分類の語)と「赤い」との関連性もみるが,これも関連が低いと判断する.つまり,「赤い」は「車」の特徴である語との関連性は特に無いということを表す.そこで,論理的矛盾を持たず(車は色属性を持つ),感覚的矛盾が無い(「赤い」は「車」の特徴に違反しない)ことから,「赤い車」は違和感なし表現であると判断する.このアルゴリズムを用いることで,「形容する語」が知識ベース内に存在しなくとも,意味的に非常に近い感覚に代替することができる.意味的に近い語への代替のために用いる関連度計算の閾値の設定にはX-ABC評価セットを用いた関連度計算の実験値を指標とする.X-ABC評価セットとは,概念Xに対し,人間が常識的に判断して高関連の語(X-A),中関連の語(X-B),無関連の語(X-C)を集めた評価セット(1780セット)である.本稿で用いた関連度計算方法では,概念Xに対して高関連の語(X-A)の関連度の平均値が実験的に0.335と求められた.そこで,本稿では,意味的に近い語に代替するための閾値の値としてこのX-Aの関連度の平均値を用いる.
\section{実験と評価}
\subsection{実験方法}\subsubsection{システム全体評価}\label{sec:systemHyoka}対象語とそれを形容する語を含む文章について,人間が不自然に感じる違和感表現の文章と違和感なしの表現の文章を100文ずつ,計200文章用意した.これらの文章に対し,違和感表現検出処理を行い,正しく判断できる割合を評価する.また,この評価文章は,\ref{sec:humanjikken}節で使った文章と同じ文章を用いる.これは,「特徴的」「反特徴的」「論理的」「非論理的」について各50文章ずつに分類し,人間の評価との比較を行うためである.\subsubsection{他手法との比較}\label{sec:otherHyoka}\ref{sec:humanjikken}節と同様の評価文章を用い,他手法との比較評価を行う.\ref{sec:Hijyoshiki}節で記述したように,違和感表現の検出には言葉の統計情報を利用したデータベースを利用する方法と,人間が記述したデータベースを用いる方法の二手法が考えられる.そこで,WEB検索システムを用いた手法(googleを利用)とIPAL形容詞版\cite{iPAL1990}を用いた手法の二手法と本提案システムとの比較を行う.WEB検索システムを用いた手法では,WEB上から評価文章中の形容語と名詞を検索し,検索結果が0件の場合を違和感表現とする.これは,WEB空間上において使用されない語が違和感表現であるという意味と同時に,利用頻度は低いが正しい表現の検索結果に意味のある閾値を設定できないためである.また,評価文章のうち,特徴的・論理的の文章は必ずWEB上に検索結果が存在し,意味のある分類はできないため,WEB検索システムを用いた手法では,反特徴的・非論理的の評価文章に対して違和感表現を検出する評価を行った.そのため,本論文での提案手法の評価もこれに対応した反特徴的・非論理的の評価文章に対する評価とした.また,IPAL形容詞版を用いた手法では,IPAL形容詞版のデータベース内に評価文章の形容語と名詞が存在すれば,違和感のない表現であるとする.評価文章のうち,反特徴的・非論理的の評価文章に関する情報をIPAL形容詞版は持たずこれらの評価文章に対して適切な判断ができない.このため,IPAL形容詞版を用いた手法では,特徴的・論理的の評価文章に対して違和感のない表現を検出する評価を行った.そのため,本論文での提案手法の評価もこれに対応した特徴的・論理的の評価文章に対する評価とした.更に,全体的な評価の比較のため,反特徴的・非論理的の評価文章に対してWEB検索システムを用い,特徴的・論理的の評価文章に対してIPAL形容詞版を用いた手法と本提案手法との比較を行う.\subsubsection{手法評価}\ref{sec:humanjikken}節と同様の評価文章を用い,システム内の各手法の評価を行う.提案手法では,一連の手法を説明しているが,実験のため,手法を分割する.まず,関連度計算による意味的に近い語への代替を行わず,表記一致によって行う感覚的矛盾の判断手法のみを用いた場合を評価する.同様に,関連度計算による意味的に近い語への代替を行わず,表記一致によって行う論理的矛盾の判断手法のみを用いた場合を評価する.次に,同様に表記一致によって行う感覚的矛盾と論理的矛盾の判断手法双方を用いた場合を評価する.最後に,提案手法に沿って,感覚的矛盾と論理的矛盾の判断手法に関連度計算を用いた場合の4方法を評価する.\subsection{実験結果}\label{HyokaKekka}\subsubsection{全体評価}\label{sec:allHyoka}違和感表現検出処理の評価を図\ref{fig:Result},「特徴的」「反特徴的」「論理的」「非論理的」に分類した詳細結果及び,人間の評価との比較を表\ref{tb:ResultHikaku}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-1ia3f6.eps}\caption{全体評価}\label{fig:Result}\end{center}\end{figure}図\ref{fig:Result}において,違和感表現の文章を違和感表現と判断した結果を「F→F」,違和感なしの表現の文章を違和感なしの表現と判断した結果を「T→T」,違和感表現の文章を違和感なしの表現と判断した結果を「F→T」,違和感なしの表現の文章を違和感表現と判断した結果を「T→F」として表す.本稿では「F→F」と「T→T」の割合が全体の何割を占めているかを精度とする.表\ref{tb:ResultHikaku}では,評価文章を「特徴的」「反特徴的」「論理的」「非論理的」の4観点で分類した評価文章に対するシステムの評価結果を示した.これにより,人間の評価との比較を行う.人間の評価結果は表\ref{tb:humanhyoka}と同じであるが,比較の簡便化のため,表\ref{tb:ResultHikaku}では「どちらともいえない」と「違和感表現」を合わせて「違和感表現」と表記する.\begin{table}[t]\caption{提案手法と人間の評価比較}\label{tb:ResultHikaku}\input{03table6.txt}\vspace{-1\baselineskip}\end{table}\subsubsection{他手法との比較}他手法との比較結果を図\ref{fig:otherResult}に示す.\ref{sec:otherHyoka}節で記述したように,反特徴的・非論理的の評価文章に対してWEB検索システムを用いた手法(他手法)と提案手法との比較を行い,特徴的・論理的の評価文章に対してIPAL形容詞版(他手法)と提案手法との比較を行った.\begin{figure}[h]\begin{center}\vspace{-1\baselineskip}\includegraphics{15-1ia3f7.eps}\caption{他手法との比較}\label{fig:otherResult}\end{center}\vspace{-1\baselineskip}\end{figure}\subsubsection{手法評価}図\ref{fig:howResult}に感覚的矛盾と論理的矛盾の手法評価,図\ref{fig:howResult2}に表記一致と関連度を用いた手法の評価結果を示す.数値はそれぞれの割合を示している.図\ref{fig:howResult},図\ref{fig:howResult2}における表記番号は以下に準ずる.\begin{figure}[t]\begin{minipage}{.48\linewidth}\begin{center}\includegraphics{15-1ia3f8.eps}\caption{感覚的矛盾と論理的矛盾の手法評価}\label{fig:howResult}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\includegraphics{15-1ia3f9.eps}\caption{表記一致と関連度を用いた手法の評価}\label{fig:howResult2}\end{center}\end{minipage}\end{figure}\begin{description}\item[1]感覚的矛盾の判断手法のみを用いた場合(表記一致)\item[2]論理的矛盾の判断手法のみを用いた場合(表記一致)\item[3]感覚的矛盾と論理的矛盾の判断手法双方を用いた場合(表記一致)\item[4]感覚的矛盾と論理的矛盾の判断手法双方を用いた場合(関連度計算による意味的に近い語への代替)\end{description}システムが判断しなかったセット数の割合をUNKNOWNとし,判断した中で「F→F」と「T→T」の割合が全体の何割を占めているかを正解率,「F→T」と「T→F」の割合が全体の何割を占めているかを不正解率とする.補足となるが,図\ref{fig:Result}や図\ref{fig:otherResult}の評価では,UNKNOWNは全て違和感表現として判断し,精度として評価した.このため,正解率と精度は一致しない.\subsection{考察}図\ref{fig:Result}より,87\%の高い精度で判断を行うことが出来た.表\ref{tb:ResultHikaku}を見ると,特に「特徴的」「反特徴的」の関係の文章を非常に高い精度で分類できていることがわかる.また,図\ref{fig:otherResult}より,本提案手法は他手法を用いるよりも高い評価を得られた.これは,他手法が本論文で目的とする文章の機械的合成において違和感表現を排除することや,相手の会話文に違和感を覚えることで相手に聞き返しを行うという観点における違和感表現を考慮できていないという理由が挙げられる.そのため,本提案手法はこれらの目的に則った利用価値のある手法だと考える.また,図\ref{fig:howResult}より,感覚的矛盾と論理的矛盾の判断手法双方を用いると,正解率が上昇することがわかる.これは,感覚的矛盾と論理的矛盾の判断する対象が異なり,両方を使うことで相乗効果を生み出しているからである.それぞれの観点において成功した例と失敗した例を表\ref{tb:JudgeResult}に示す.表内の「F→F」等の表記は図\ref{fig:Result}の表示の説明に準じる.失敗した文章の原因を調べると,論理的矛盾と感覚的矛盾を調べる知識ベース及びシステムが全てを網羅していないことが挙げられる.人間が連想する個数に対して感覚判断システムが連想する個数の比率である想起率は,\cite{Watabe2004}より,63.64\%(内,未知語の場合は34.94\%,代表語の場合は84.35\%)であることが判っている.感覚的矛盾を調べる「特徴的」「反特徴的」の精度はこの想起率に依存する.対象語の特徴が連想されなければ「特徴的」の関係の文章は論理的矛盾の判定へと進んでしまう.精度がこの想起率より比較的高かったのは,評価対象文内の対象語に未知語が少なかったためであると考えられる.詳しく見ると,「特徴的」の関係の評価文では,40文(50文中),「反特徴的」の関係の評価文では42文(50文中)が,感覚判断システムの代表語を対象語とする文であった.評価対象文はシステムの内部を見ることなく,システム設計者とは異なる人物が集めた文章群であるため,感覚判断システムの代表語は一般的に使われる語を多く含んでいる.そのため,「特徴的」「反特徴的」の関係は,完全網羅されていないものの,ほぼ一般的な語に関して有効であるといえる.更に,代表語に含まれていない未知語に対してもある程度の結果が得られたため,ただ人間によって記述されただけのデータより広い網羅性を持つことができた.\begin{table}[t]\caption{評価結果の一部}\label{tb:JudgeResult}\begin{center}\begin{tabular}{|l|l|l|l|l|}\hline&\multicolumn{2}{c|}{成功例}&\multicolumn{2}{c|}{失敗例}\\\hline特徴的&T→T&真っ赤な苺を貰ったよ&T→F&白い御飯を食べました\\\hline反特徴的&F→F&ドライアイスは暖かいですね&F→T&四角いトマトを買ったのですね\\\hline論理的&T→T&古い雑誌を読みました&T→F&深い森で迷ってしまいました\\\hline非論理的&F→F&低い財布を使いました&F→T&丸い学校へ通います\\\hline\end{tabular}\end{center}\end{table}これに対し,論理的矛盾を調べる「論理的」「非論理的」の関係の判断精度は形容語属性付きシソーラスの網羅性に依存する.形容語属性付きシソーラスのすべての感覚情報は人手によって作成され,検証されているが,少数の人間によって作成したため,適切な感覚が全て登録されているとは限らない.このため,失敗することがあると考えられる.しかし,図\ref{fig:howResult2}より,単なるデータの一致である表記一致の正解率が79\%であったのに対し,本提案手法を用いれば84.5\%の正解率を得ることができた.違和感表現検出処理結果においてUNKNOWNとは,判断対象とならなかった文章であり,更に本提案手法を用いることで,この率を下げることに成功している.これは,知識ベースにないために判断対象に含まれなかった語に対しても,判断が可能になったということを意味している.このことから,本手法は有効な手法であると言える.本稿で扱った形容語は「形容詞・形容動詞・名詞+の」であるが,これ以外にも動詞に関する表現(例:走る車,曲がった線,太っている人,慣れない道)が存在する.このような動詞に関する表現は膨大に存在し,その活用形によっても場合が異なる.このため,今回の提案手法のように,人手でデータを付与することが困難である.今後の課題として,このような動詞に関する表現に対応することが必要だと考えられる.
\section{まとめ}
本稿では,コンピュータによる自然な会話の実現を目指して,\pagebreak違和感表現検出手法を提案した.対象語と形容語の関係に注目し,その関係を整理することで,違和感のある形容語を検出するための知識構造をモデル化した.更に,その知識構造を用いて,形容語の使い方に着目した違和感表現検出手法を提案した.本稿の手法を用いることで,形容語の違和感のある使い方の判定に関し,87\%の高い精度を得,有効な手法であることを示した.違和感表現に対応できるシステムを構築することにより,機械が常識を持ち,会話を理解していることを利用者にアピールすることができ,人間らしい会話に一歩近づくことができた.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{Hirose2002}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock\Jem{信学技報,TL2001-49},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{NttThesaurus1997}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1990}]{iPAL1990}情報処理振興事業協会技術センター\JED\\BBOP1990\BBCP.\newblock\Jem{計算機用日本語基本形容詞辞書IPAL(BasicAdjectives)}.\newblock情報処理振興事業協会技術センター.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2006}]{Kawahara2006}河原大輔\JBA黒橋禎夫\BBOP2006\BBCP.\newblock\JBOQ高性能計算環境を用いたWebからの大規模格フレーム構築\JBCQ\\newblock\Jem{情報処理学会,自然言語処理研究会171-12},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{Kojima2002}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{米谷\JBA渡部\JBA河岡}{米谷\Jetal}{2003}]{Kometani2003}米谷彩\JBA渡部広一\JBA河岡司\BBOP2003\BBCP.\newblock\JBOQ常識的知覚判断システムの構築\JBCQ\\newblock\Jem{第17回人工知能学会全国大会論文集3C1-07}.\bibitem[\protect\BCAY{日経メカニカル\JBA日経デザイン共同編集}{日経メカニカル\JBA日経デザイン共同編集}{2001}]{RoBolution2001}日経メカニカル\JBA日経デザイン共同編集\JEDS\\BBOP2001\BBCP.\newblock\Jem{RoBolution(ロボリューション)—人型二足歩行タイプが開くロボット産業革命}.\newblock日経BP社.\bibitem[\protect\BCAY{篠原\JBA渡部\JBA河岡}{篠原\Jetal}{2002}]{Shinohara2002}篠原宜道\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ常識判断に基づく会話意味理解方式\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集,A2-9},\mbox{\BPGS\275--278}.\bibitem[\protect\BCAY{土屋\JBA小島\JBA渡部\JBA河岡}{土屋\Jetal}{2002}]{Tsuchiya2002}土屋誠司\JBA小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ常識的判断システムにおける未知語処理方式\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(6),\mbox{\BPGS\667--675}.\bibitem[\protect\BCAY{早稲田大学}{早稲田大学}{1999}]{HumanRobot1999}早稲田大学ヒューマノイドプロジェクト編著\JED\\BBOP1999\BBCP.\newblock\Jem{人間型ロボットのはなし}.\newblock日本工業新聞社.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{Watabe2004}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),\mbox{\BPGS\73--82}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{Watabe2006}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{吉村\JBA土屋\JBA渡部\JBA河岡}{吉村\Jetal}{2006}]{Yoshimura2006}吉村枝里子\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ連想知識メカニズムを用いた挨拶文の自動拡張方法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\117--141}.\end{thebibliography}\begin{biography}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.2006年大学院工学研究科知識工学専攻博士前期課程修了.同大学院工学研究科知識工学専攻博士後期課程在学.知識情報処理の研究に従事.言語処理学会会員.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.工学博士.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
| |
V25N03-01
|
\section{はじめに}
\label{section:first}語義曖昧性解消はコンピュータの意味理解において重要であり,古くから様々な手法が研究されている自然言語処理における課題の一つである\cite{Navigli:2009:WSD:1459352.1459355,Navigli2012}.語義曖昧性解消の手法には大きく分けて教師あり学習,教師なし学習,半教師あり学習の3つが存在する.教師なし学習を用いるものにはクラスタリングを用いた手法\cite{UnsupervisedWSDClustering}や分散表現を用いた手法\cite{wawer-mykowiecka:2017:SENSE2017}などが存在するが,どの手法においても精度は高くなく実用的な性能には至っていない.知識ベースを用いた教師なし学習の手法についても,単純な教師なし学習よりは高いものの教師あり学習を用いる手法と比べると精度が劣ることが報告されている\cite{raganato-camachocollados-navigli:2017:EACLlong}.それらに対して,教師あり学習を用いた語義曖昧性解消は比較的高い精度を得られることが知られており,SemEval2007\cite{pradhan-EtAl:2007:SemEval-2007}やSenseval3\cite{MihalceaEtAl2004}の英語語義曖昧性解消タスクにおいても教師あり学習を用いた手法が最も良い精度を記録している.一方,教師あり学習を用いて語義曖昧性解消を行う上で「訓練データが不足する」という問題が存在する.教師あり学習での語義曖昧性解消では訓練データの作成に人手での作業が必要になるため,コストの問題から大きなデータセットを用意することは難しい.語義曖昧性解消において周辺の文脈情報は有効な手掛かりであることが知られており,訓練データを増やし様々なパターンを学習させることが精度を上げる上で必要になる\cite{yarowsky:1995:ACL}.しかしながら,上述のSemEval2007Task17語義曖昧性解消タスクのLexicalSampleTaskにおいて,訓練データの1単語あたりの平均訓練事例数は約222と決して多い数字とは言えない.SemEval2010の日本語語義曖昧性解消タスク\cite{okumura-EtAl:2010:SemEval}に至っては1単語あたりの訓練事例数がおよそ50であり,圧倒的に訓練データが足りていないと言える.また,訓練データの不足に関連してデータスパースネスも語義曖昧性解消において大きな問題となる.先に述べたように周辺の文脈パターンを語義ごとに学習させるためには非常に大量の訓練事例が必要となりコストの問題から現実的でない.これらの問題を解決するため,半教師あり学習によって確度の高いデータを訓練データとして追加し学習を行う方法が研究されており,日本語語義曖昧性解消タスクにおいて高い精度が得られたことが報告されている(藤田,Duh,藤野,平,進藤2011;FujitaandFujino2013;井上,斎藤2011).\nocite{KevinDuh2011}\nocite{Fujita:2013:WSD:2461316.2461319}\nocite{2011inoue}また,これらを解決する別のアプローチとして語の分散表現を教師ありの語義曖昧性解消に用いる研究があり\cite{sugawara:2015:pacling,weko_146217_1,iacobacci-pilehvar-navigli:2016:P16-1},既存の素性と組み合わせることによって高い精度が得られたことを報告している.ところで,日本語の言語処理にはかな漢字換言というタスクがある.これは,入力された文中のひらがなについて漢字に換言できる対象がある場合,その周辺の文脈を考慮して正しい漢字に換言するというものである.例えば「私は犬を\underline{かって}いる」という文があった際,犬という単語から「かって」というひらがなが「買って」ではなく「飼って」を意味することは容易に理解できる.このようなひらがな語について漢字に換言を行うタスクを我々はかな漢字換言と呼んでおり,以前から研究を行ってきた\cite{Kazuhide2016}.ここで行っていることは語義曖昧性解消そのものであり,かな漢字換言の誤り分析を行うことは日本語語義曖昧性解消タスクにおいて誤り分析することとほぼ同義であると考えられる.また,通常の語義曖昧性解消タスクに比べかな漢字換言の訓練データは大量のコーパスから自動で構築することが可能なため,訓練データの増減による精度の変化や誤り分析などが容易に行えるという利点がある.本論文では日本語語義曖昧性解消タスクにおける問題点についてかな漢字換言タスクを通して確認し,既存の手法において何が不足しているのかを明らかにする.本論文の構成は以下の通りである.\ref{section:related-works}章にて本論文に関連する研究および本研究の位置付けについて述べ,\ref{section:kanakanji-conversion}章にて我々が今回行うかな漢字換言タスクについて日本語語義曖昧性解消タスクと比較しながら詳細を述べる.\ref{section:proposed-method}章では提案手法について既存手法との比較を行いながら説明をする.\ref{section:experimentation}章ではそれらの手法を用いてかな漢字換言と通常の語義曖昧性解消タスクにおける提案手法の有効性の検証を行い,語義曖昧性解消タスクにおける問題点を明確にする.\ref{section:conclusion}章にて結論を述べる.
\section{関連研究}
\label{section:related-works}本章ではまず教師あり学習に基づく語義曖昧性解消について先行研究を概観する.さらに,かな漢字換言タスクにおいて我々が以前行っていた研究について先行研究として併せて概観し,最後に本研究が本論文を通して明らかにしたいことについて示す.\subsection{教師あり語義曖昧性解消}\label{subsection:supervised-wsd}Yarowskyらの報告\cite{yarowsky:1995:ACL}によると教師あり学習に基づく語義曖昧性解消では周辺の文脈情報が有効だと言われている.そのため,教師あり学習での語義曖昧性解消では従来周辺に出現した単語を主に素性として用い,さらに品詞や文の構造情報,Bag-of-Words(BoW)等を素性として加えることで精度を向上させてきた\cite{Navigli:2009:WSD:1459352.1459355}.日本語の語義曖昧性解消においても同じであり,SemEval2010の日本語語義曖昧性解消タスクにおいて使われたベースラインのシステムでは対象単語前後の単語や品詞,係り受け関係などを素性として用い,高い精度を得ている\cite{okumura-EtAl:2010:SemEval}.また近年では単語のベクトル表現を用いて精度向上を図ろうとする取り組みも存在する\cite{cai-lee-teh:2007:EMNLP-CoNLL2007}.これらのベクトル表現は単語の意味的な特徴を捉えており,特にMikolovらが考案したWord2Vec\cite{DBLP:journals/corr/MikolovSCCD13}では,CountinuousBag-of-WordsとSkip-gramの各手法によって得られる単語のベクトルが従来のカウントモデルに比べて秀でた性能を持っていることが知られている\cite{baroni-dinu-kruszewski:2014:P14-1}.そのため,Word2Vecは語義曖昧性解消だけでなく係り受け解析\cite{bansal-gimpel-livescu:2014:P14-2}等様々なタスクにおいて利用されている.教師あり学習の語義曖昧性解消に対して単語の分散表現を用いる手法の研究にはSugawaraらの研究\cite{sugawara:2015:pacling}と山木らの研究\cite{weko_146217_1},Iacobacciらの研究\cite{iacobacci-pilehvar-navigli:2016:P16-1}がある.Sugawaraらの先行研究では曖昧性解消の対象となる単語の前後N単語の単語ベクトルをつなぎ合わせたものを素性とするContext-Word-Embeddings(CWE)という手法を提案し,BoWに比べて高い精度が得られたことを報告している.それに対し,山木らはCWEの手法における「単語の位置が規定される」点と「自立語以外の単語を考慮している」点について問題点として上げ,分散表現から得られる用例間類似度を用いる手法を提案している.この手法では既存の素性と組み合わせることで従来よりも高い精度が得られたことを報告している.またIacobacciらの論文では周辺単語のベクトルを足し合わせる際に単語間の距離を考慮する手法について提案し,SemEval2007等のデータセットで有効性を確認した結果最も良い性能が得られたことを報告している.\subsection{かな漢字換言}かな漢字換言は\ref{section:first}章で述べたように文中の一部のひらがなを漢字に直すタスクである.我々は以前,自己相互情報量(PointwiseMutualInformation;PMI)を用いて対象となるひらがなの換言候補の中で最もPMIが高い漢字について換言するという手法を実装している\cite{Kazuhide2016}.ここでは精度よく換言できないひらがなと漢字の対については換言対象から外す処理をしているが,換言対象となった71語の換言精度は94.1\%と非常に高いことを報告している.この換言手法は語義曖昧性解消に必要な情報が周辺単語1単語で決定できるという考察に基づいたものであるが,この論文中では周辺単語から換言を行えると考えられる対象のみを換言対象としていたため,すべての漢字に当てはめたときの精度は不明であり,語義曖昧性解消の分析としては不十分である.\subsection{本研究の目的}我々が本論文において明らかにしたい問題は主に3つである.1つ目は素性選択の手法である.従来,日本語語義曖昧性解消の手法として提案されてきたものの多くが素性として主に対象単語前後2単語の情報を使い,そこに係り受け関係やLDAの結果などを追加する形で精度を向上させてきた(Okumuraetal.2010;藤田他2011).分散表現を用いたSugawaraらの語義曖昧性解消においては対象単語前後5単語の分散表現を使い実際に精度が向上したことが報告されているが,日本語語義曖昧性解消において考慮する周辺単語の窓幅によって精度がどのように変化するのか調査した文献は存在しない.また,新納らは論文中で「特に対象単語からかなり離れた後方位置にある単語が対象単語の語義の選択に影響を与えているとは考えづらい」と述べている\cite{weko_182711_1}.我々はこれらについて改めて調査,報告を行った上で新たに自己相互情報量を用い,対象単語から離れた位置の単語を考慮する手法を提案する.2つ目は訓練データのサイズである.\ref{subsection:supervised-wsd}節で述べたように教師ありの語義曖昧性解消ではその精度評価として規模の小さい訓練データが使われることが多い.その為,曖昧性解消の精度が低い主な理由について「訓練データが不足している」と考察している論文も少なくない(藤田他2011;新納,村田,白井,福本,藤田,佐々木,古宮,乾2015).\nocite{新納浩幸2015}一方でそれらの論文中でどれくらいの訓練データが必要になるのかの考察はほぼ行われておらず,少ない訓練データを用いて精度の改善を行うことにのみ注力しているように見える.どのくらいの規模の訓練データを用意すれば十分な精度が得られるのかが明確に示されているのならば,まず訓練データを増やすことができるはずである.逆に訓練事例の数によって精度の差がないのであれば現状のタスクにおいてより精度を出せる手法を検討していくことが重要となる.そこで,我々はかな漢字換言の特性を活かして非常に大規模なデータを用意し,訓練データを増減させたときの精度の変化を調査する.3つ目は訓練データのドメインについてである.Fujitaらは対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練データを学習に用いる方が精度が良いと報告をしているが\cite{fujita-EtAl:2010:SemEval},ドメインごとに同量の訓練データを用いた際の精度の変化についてそれぞれ比較を行い,どのような訓練データがどの程度精度に寄与するのかを明らかにする.以上3点についてが,本論文において我々が報告したい内容である.
\section{かな漢字換言}
\label{section:kanakanji-conversion}\subsection{概要}かな漢字換言は文章中の特定のひらがなを漢字に換言するタスクである.例えば「私は犬を\underline{かって}いる」という文が存在した場合,ここでの「かって」という単語は「買う」ではなく「飼う」という意味での使われ方をしている.一方「購買でノートを\underline{かう}」という文の場合,ここでの「かう」という単語が「買う」という意味を示していることは容易く理解できる.このような換言対象となるひらがな語を含む文についてひらがな語を該当する漢字に同定するタスクを我々はかな漢字換言と呼んでいる.意味の曖昧性を持つひらがな語を特定の漢字に同定する処理はそのひらがな語の語義曖昧性を解消することに相当する.また,この換言はひらがな語と漢字語の表記ゆれ解消にもなっている.つまり,本タスクは語義曖昧性解消,換言処理,表記ゆれ解消のいずれにも該当する.我々が通常の語義曖昧性解消タスクではなくかな漢字換言による語義曖昧性解消で分析を行う理由に,その訓練データの作りやすさがある.通常の語義曖昧性解消では訓練データをコストをかけて人手で作る必要があるが,かな漢字換言では対象となる漢字さえ分かれば大量のコーパスから自動的に訓練データを増やすことが可能であり,訓練データの増減による精度の検証が容易い.そのため,今回我々はかな漢字換言を通して語義曖昧性解消の分析を行うこととした.かな漢字換言の対象となるひらがな語は同じ読みで異なる語義を持つ漢字が複数存在するものである.以前Yamamotoらが実装したかな漢字換言では換言の対象を手動にて抽出しているが\cite{Kazuhide2016},我々はかな漢字換言を通して日本語語義曖昧性解消について分析を行うため,語義の定義について形態素解析辞書UniDic\footnote{http://pj.ninjal.ac.jp/corpus\_center/unidic/}の語彙素を用いた.UniDicでは語彙素を選定する際の同語異語判別に明確な基準を設けている\cite{Corpus2010}.基準の一つとして「漢字表記の頻度よりも仮名表記の頻度が非常に高い場合,一つの語彙素にまとめることを優先する」というものがあり,これは例えば「収まる」や「治まる」の語彙素が「収まる」にまとめられるようなものである.この基準は通常のかな漢字換言では「収まる」と「治まる」のような漢字を対象にすることができないため不適当である.しかし,本論文の目的はかな漢字換言を通した日本語語義曖昧性解消の分析であるため,大規模なコーパスからデータセットを自動的に抽出する際,十分な訓練事例を用意できないこれらの語義を解析対象とするのは適当でない.さらに,明確に使い分けされていないこれらの漢字をデータセットとして抽出することは誤解析の原因となる.そのため,ここではこれらの語義を明確に分けている形態素解析辞書UniDicを用いている.かな漢字換言において活用を持つ動詞に関してはその語の形を用いることで一意に意味を決定できる場合がある.例えば「寝る」「練る」のような単語に関して「寝る」の未然形は「ね」なのに対し「練る」の未然形は「ねら」である.そのため,「私は蕎麦をねらない」といった文に含まれる「ねらない」は一意に「練らない」に変換することが可能である.しかし,本論文中ではかな漢字換言を通して語義曖昧性解消について分析することが目的であるため,語の形は素性として使わないこととした.以後の実験において使用する訓練データとテストデータについて,我々は現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://pj.ninjal.ac.jp/corpus\_center/bccwj/}に含まれる全文章の中から換言の対象となる文を,訓練データでは1語義あたり200文を,テストデータでは1語義あたり50文を無作為に抽出した.出現頻度が250文に満たない漢字については換言対象から除外している.抽出の対象となる文は日本語解析システム雪だるま\cite{40020961332}\footnote{http://snowman.jnlp.org/snowman}の出力単語が15語以上のものとした.文長を15語以上に制限する理由は「窓幅と素性の選び方」について調査する上で窓幅による精度への影響を調査しやすくするためである.換言対象のひらがなは計311語,換言の候補となる漢字は計734語である.換言対象のひらがな語はBCCWJ中において438,360回出現し,全約600万文章中約13.5文に1回出現する計算となる.以後の実験では特筆しない場合上記のデータセットを用いて行う.なお対象となったひらがなと漢字の対に関しては付録\ref{appendix:kanakanji-target}に記している.実際にデータセットとして抽出された文の一部を表\ref{tab:kanakanji-conversion-data}に示す.表中の下線部が換言の対象となるひらがなである.\begin{table}[t]\caption{かな漢字換言データセットの一部}\label{tab:kanakanji-conversion-data}\input{01table01.tex}\end{table}\subsection{他タスクとの比較}通常,語義曖昧性解消タスクの多くはWordNetや辞書などに存在する語義の定義に併せて単語を分類することが多い\cite{LNC3:LNC3131}.これらの語義曖昧性解消の語義タグは比較的細かいことから,実アプリケーションへの実装を考えた際にその粒度が問題となることが指摘されており\cite{lopezdelacalle-agirre:2015:*SEM2015},近年ではより粗い粒度を語義曖昧性解消へ用いる動きも見られる\cite{navigli-litkowski-hargraves:2007:SemEval-2007}.また,拡張固有表現階層を用いて構築した意味カテゴリに基づく語義曖昧性解消のアプローチも存在し,これは荒い粒度の語義曖昧性解消と同等だと考えられる\cite{weko_79539_1}.かな漢字換言では前述の通り語義が完全に異なる漢字のみを対象としており,語義同士の距離が近い漢字を曖昧性解消の対象としていないことから,かな漢字換言はこれらの語義曖昧性解消タスクと同等,またはそれ以上に粗い曖昧性解消と考えることが可能である.今回の分析に用いるかな漢字換言のデータと通常の語義曖昧性解消の間のその他の違いとして文長が考えられる.前節にて抽出したデータセットでは1文が15単語以上のものを語義曖昧性解消の対象として選択している.一方で,日本語語義曖昧性解消タスクでは文章自体は長いが1文1文がかな漢字換言のデータに比べて短くなっている.つまり1文のみを使うことによる語義曖昧性解消の難易度はかな漢字換言の方が易しいと考えられる.ここではかな漢字換言タスクと通常の語義曖昧性解消タスクとの関連性を調べるため,\linebreakSemeval2010の日本語語義曖昧性解消タスクとの比較を行う.白井らは語義曖昧性解消の難しさについて語義の頻度分布のエントロピーを用いて分析を行っている\cite{20033}.頻度分布のエントロピー$E(w)$は次式で求めることができる.\begin{equation}E(w)=-\sum_{i}p(s_{i}|w)\log{}p(s_{i}|w)\end{equation}ここで$p(s_{i}|w)$は単語$w$の語義が$s_{i}$である確率を表す.表\ref{tab:compare-kanakanji}に各タスクにおける平均語義数,頻度分布のエントロピーを示す.なおSemEval2010のタスクについては語義の頻度分布のエントロピーを用いて決められた難易度ごとのデータについても記す\cite{2011semeval}.前節で作成したかな漢字換言のデータセットでは各語義のデータ数を揃えているため,今回はエントロピーの計算にBCCWJの漢字の出現回数をカウントし用いている.各タスクにおける平均語義数を比較するとかな漢字換言の平均語義数は日本語語義曖昧性解消タスクの$D_{easy}$に相当することがわかる.一方でかな漢字換言のエントロピーの値は$0.87$と$D_{mid}$と同じ程度の値を取っている.かな漢字換言では対象となる漢字をコーパス中で250回以上出現するものに限定しているため,偏りが少なくなったことでエントロピーの値が大きくなったのだと考えられる.\begin{table}[b]\caption{各データセットの比較}\label{tab:compare-kanakanji}\input{01table02.tex}\end{table}これらを踏まえると,かな漢字換言タスクは日本語語義曖昧性解消タスクにおける$D_{easy}$と同等かそれ以上に簡単なものであると考えられる.白井らの報告によれば新聞記事中に出現する出現頻度10以上の単語に対して付与された語義タグの異なり数の多くは2であり,エントロピーに関しても1以下の形態素が多い\cite{110002935282}.それゆえに,$D_{easy}$相当と考えられるかな漢字換言は日本語の語義曖昧性解消の大きな部分タスクの一つであるとみなせる.
\section{提案手法}
\label{section:proposed-method}本章では,Yamamotoらが実装したPMIを用いたかな漢字換言\cite{Kazuhide2016}について改めて実験を行った結果を\ref{subsection:pmi-method}節に示し,その結果に基づいて提案した手法について\ref{subsection:embeddings-method}節にて説明する.\subsection{PMIのみを用いたかな漢字換言}\label{subsection:pmi-method}\subsubsection{手法の説明}以下に以前Yamamotoらが実装を行ったPMIに基づくかな漢字換言の手法について以下に説明を述べる\cite{Kazuhide2016}.また,その概略図を図\ref{fig:pmi-conversion}に示す.\begin{screen}\begin{enumerate}\item文全体を検索し,換言対象が含まれているかどうかを調べる.\item換言対象が含まれている場合対象から前後4単語の内容語と換言対象の漢字のPMIを計算する.\itemPMIが5以上の漢字の中から最もPMIが高い漢字の換言対象についてその漢字を出力する.\item計算結果がすべてPMI5以下である場合は換言を行わない.\end{enumerate}\end{screen}図\ref{fig:pmi-conversion}の各工程について詳しく説明していく.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f1.eps}\end{center}\caption{PMIを用いたかな漢字換言の換言過程}\label{fig:pmi-conversion}\end{figure}まず,入力文に対する手掛かりの選定を行う.この手法ではPMIが高い単語を用いてかな漢字換言を行っている.そのため,どの文においても頻出しPMIの値が低くなる助詞や記号等の機能語は計算から省いてしまっても結果に影響しないと考え,換言に用いる手掛かり語を内容語のみに絞ってPMIの計算を行うこととしている.また換言対象の前後4単語について手掛かりとする語の選定に用いているが,この数字は我々の経験に基づいて決めた数字である.2番目の工程として漢字候補の読み込みを行うが,ここでは\ref{section:kanakanji-conversion}章で説明したようにBCCWJとUniDicを用いて作成された日本語解析システム雪だるま\cite{40020961332}の辞書を基に手動で候補を作成しているため,候補の作り方の詳細な説明は省く.次に自己相互情報量の計算を行う.この換言方法において我々は共起する確率が高い漢字ほどそのかな漢字換言の候補として適切だと考え,共起する組み合わせを数値化するためにPMIを用いた.$p(x,y)$を$x$と$y$が同時に出現する確率,$p(x)$を$x$が出現する確率とした時2つの語$x,y$における自己相互情報量$PMI(x,y)$は次式で表される.\begin{equation}\label{equ:pmi}PMI(x,y)=\log{}\frac{p(x,y)}{p(x)p(y)}\end{equation}式(\ref{equ:pmi})から分かる通り自己相互情報量の計算にはそれぞれの出現確率が必要になる.出現確率はなるべく大量の文章から正しい頻度を数え正しい数字を計算する必要があるが,非常に大規模なテキストを用意するのは難しい.そのため,我々はWeb日本語Nグラム(第1版)\footnote{http://www.gsk.or.jp/catalog/gsk2007-c/}を利用し,擬似的に各単語の出現確率とそれぞれの単語の組み合わせが共起する確率の計算を行った.Web日本語Nグラムでは200億文について頻度が20回以上のngramを収録しており,頻度の計算としては十分な規模を持つ.ここで利用するのは7gramのデータであり,単語間の距離が7以内である場合にその単語ペアを共起したとみなし頻度の計算を行っている.PMIには閾値を設け,周辺単語と換言対象の漢字のペアのPMIすべてが閾値を下回った場合換言を行わないようにしているが,これは低いPMIの値の漢字を出力することによる換言器の精度低下を防ぐためである.以前の実装において我々は事前の調査からその閾値を5に設定している.今回,我々は改めて上記の手法を用いてかな漢字換言の精度を改めて調査することとした.以下にこの実験において調査した内容について示す.\begin{itemize}\itemPMIの閾値5は正しい設定なのか\item窓幅4の設定は正しい設定なのか\end{itemize}PMIの閾値の設定を上げることでその換言の適合率をあげられるのであれば,PMIが高い単語が含まれている文ではその単語を素性として使うことでより高精度な換言が行えるはずであり,逆に閾値の設定によらず適合率が上がらないのであればPMIのみを用いて語義曖昧性解消を行う手法があまり適さないということを明らかにできる.窓幅の設定に関する実験もまた重要である.これまでの語義曖昧性解消では周辺の2から5単語程度を素性とした手法が多く文全体を考慮する手法は少なかったが,それらの窓幅の設定が本当に正しいのかをこの実験で明らかにすることができ,今後の教師あり語義曖昧性解消において重要な設定の一つを明確にすることができる.\subsubsection{実験}\ref{section:kanakanji-conversion}章にて作成したかな漢字換言のテストデータを用いて周辺単語として考慮する単語の窓幅を変化させたときの精度と,PMIの閾値を変化させたときの精度を確認した.窓幅に関する実験の際はPMIの閾値を5に設定し窓幅を2から20まで1刻みで変化させたときの適合率と再現率,F値の変化を見る.PMIに関する実験の際は窓幅を20に固定し,PMIの閾値を0から20まで1刻みで変化させたときの適合率と再現率,F値の変化を見る.PMIの計算には前項での説明と同様にWeb日本語Nグラムの7gramから擬似的に計算した頻度情報を用いた.\begin{figure}[b]\noindent\begin{minipage}{201pt}\includegraphics{25-3ia1f2.eps}\caption{PMIの閾値を変化させたときの各値の変化}\label{fig:accuracy-minpmi-pmi}\end{minipage}\hfill\begin{minipage}{201pt}\includegraphics{25-3ia1f3.eps}\caption{窓幅を変化させたときの各値の変化}\label{fig:accuracy-windowsize-pmi}\end{minipage}\end{figure}図\ref{fig:accuracy-minpmi-pmi}にPMIの閾値を変化させたときの結果,図\ref{fig:accuracy-windowsize-pmi}に窓幅を変化させたときの結果を示す.まず,窓幅を固定しPMIの閾値を変化させていったときの影響について考察をする.図\ref{fig:accuracy-minpmi-pmi}を見ると,PMIの閾値が3までに関しては再現率と適合率がほぼ同じ値になっている.これは対象のひらがなの前後の内容語にPMIが3以下のものがなかったため,すべての文において何らかの換言が行われたからである.PMIの閾値を3より上げていくと再現率は下がり,それに対応してPMIが10まで適合率が上がっており,PMIが10を超えると換言の精度は95\%を超え高い精度での換言が行えていることが見て取れる.一般に閾値を上げることでよりPMIの高い候補を持つひらがなのみが換言されることから適合率は上がると考えられるが,この実験結果はそれが正しいことを示した形になる.一方で再現率はそれを上回る勢いで減少しており,結果としてF値は減少している.この結果は一部の単語についてPMIが高い語を素性として用いる方法が精度を上げる上で効果的であるということを示唆するものである.次にPMIの閾値を固定し窓幅を変化させていったときの影響について考察する.図\ref{fig:accuracy-windowsize-pmi}を見ると窓幅を上げることで再現率,F値をともに上げることができていることがわかる.これは換言対象の単語から遠いところにも素性となる単語が現れていることを示し,文全体を考慮することでより正しく多くのひらがなを換言することができている.しかしながら適合率の値は窓幅を大きくすることで減少しており,単純にPMIが高い単語を選ぶ方法では素性としては不充分であり,前後の文脈なども同時に考慮する必要があるといえる.\subsection{分散表現とPMIを用いたかな漢字換言}\label{subsection:embeddings-method}前節の結果から我々は分散表現とPMIを用いることで文全体の文脈を考慮してより正確にかな漢字換言を行う手法を提案する.ここで提案する手法はSugawaraらの提案手法に対して改善を加え,山木らが上げた「単語の位置が規定される」という問題を解消するものである.まずSugawaraらの手法について説明をする.Sugawaraらは周辺の単語の分散表現を用いて語義曖昧性解消を行う手法としてAVEとCWEの2手法を提案している.AVEは対象単語の周辺単語について分散表現を平均し素性として用いる手法である.CWEは周辺単語の分散表現をつなぎ合わせる手法である.具体的には,窓幅$N$を5,換言対象前の単語を$w_{-N},w_{-N+1},...,w_{N-1},w_{N}$とし,それらの分散表現を表すベクトルを$v_{w_{-N}},v_{w_{-N+1}},...,v_{w_{N-1}},v_{w_{N}}$とした時にAVEは素性$v_{ave}$(式\ref{equation:ave})を,CWEでは素性$v_{cwe}$として周辺の単語ベクトルをつなぎ合わせたベクトル(式\ref{equation:cwe})を素性として用いる手法である.この素性の次元は分散表現の次元を$L$とするとAVEでは$L$,CWEでは$2\timesN\timesL$となる.\begin{gather}v_{ave}=\frac{v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}}{2N}\label{equation:ave}\\v_{cwe}=v_{w_{-N}},v_{w_{-N+1}},\ldots,v_{w_{N-1}},v_{w_{N}}\label{equation:cwe}\end{gather}Sugawaraらはこれらの素性を用いた手法について実験を行い,AVEよりもCWEのほうがより高い精度が得られたことを報告している.また,その理由としてAVEでは周辺の文脈情報が落ちるため精度が出ないとし,CWEは単語の位置が考慮できるためより精度が高くなったと考察している.しかし,山木らが挙げたようにCWEでは単語の位置が規定されるため,訓練データにおいて出現した単語がテストデータに出現したとしても,出現位置によってはその類似性が反映されないという問題があると考えられる.そこで我々はこの問題を解消する新たな手法を提案する.一つはCWEで素性として用いる周辺の単語ベクトルに対して,周辺単語の分散表現の平均ベクトルAVEを足し合わせる手法である.CWE,AVEの頭文字を取ってこの手法をCAと呼ぶ.換言対象前の単語を$w_{-N},w_{-N+1},...,w_{N-1},w_{N}$としたとき,それらのベクトルを足し合わせた$v_{w_{-N}}+v_{w_{-N+1}}+...+v_{w_{N-1}}+v_{w_{N}}$のベクトルは周辺単語のコンテキストをよく表すベクトルになっている.そこで我々はCWEの手法の各ベクトルに対してこのベクトルの平均AVEを足し合わせることによって単語の位置が規定され,精度が落ちるという問題に対処できると考えた\footnote{CWEに対して平均ベクトルAVEをつなぎ合わせる手法も考えられるが,\ref{section:experimentation}章と同等の条件で実験を行った結果精度の向上が見られなかったためここでは手法の説明について省略している.}.具体的には周辺単語の平均ベクトルとして考慮する窓幅を$N_{ave}=5$とし周辺単語の平均ベクトルを式\ref{equation:ave2}とした際に式\ref{equation:cweave}を素性として使う手法である.平均ベクトルとして考慮する単語の数は$N_{ave}\times2$となる.これによって各単語の位置を考慮しつつ周辺単語のコンテキストを考慮することができる.\begin{gather}v_{ave}=\frac{v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}}{2N_{ave}}\label{equation:ave2}\\v_{CA}=v_{w_{-N}}+v_{ave},v_{w_{-N+1}}+v_{ave},\ldots,v_{w_{N-1}}+v_{ave},v_{w_{N}}+v_{ave}\label{equation:cweave}\end{gather}しかしながら,この手法でも窓幅の大きさ分しか周辺単語を考慮することができず,また窓幅を闇雲に大きくしても機能語などの本質的に文の周辺文脈と関係のないノイズ成分が増えてしまうため精度の向上は見込めない.そこでそれらの素性に対してさらに文中でPMIの大きい単語のベクトルを末尾につなぎ合わせる手法を提案する.CWE,AVE,PMIの頭文字を取ってこの手法をCAPと呼ぶ.これは対象となる文全体の中から換言候補となる漢字とPMIが最も高い単語の分散表現を末尾につなぎ合わせるという手法である.図\ref{fig:pmi-conversion}を例として説明すると,計算によって「ノート」と換言候補の「買う」が最もPMIが高くなった場合,単語「ノート」の分散表現を末尾につなぎ合わせる.かな漢字換言ではなく通常の語義曖昧性解消の場合,換言候補となる単語と周辺単語の間のPMIを計算し,最もPMIが高い単語を素性として選ぶ.これにより語義曖昧性解消において重要な単語のコンテキストを考慮することができ,かつ分散表現を用いることで似ている単語がテストデータに出てきた場合にも対応できると考えられる.これをまとめると,CAPで用いる素性は文中で最もPMIが高い単語のベクトルを$v_{w_{maxpmi}}$とすると式\ref{equation:cweavepmi}となり,素性の次元数は$(2\timesN+1)\timesL$となる.\begin{equation}v_{CAP}=v_{w_{-N}}+v_{ave},v_{w_{-N+1}}+v_{ave},\ldots,v_{w_{N-1}}+v_{ave},v_{w_{N}}+v_{ave},v_{w_{maxpmi}}\label{equation:cweavepmi}\end{equation}提案した素性についての説明図を図\ref{fig:exapmle-of-feature}に示す.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f4.eps}\end{center}\caption{分散表現を用いた各手法における素性の例}\label{fig:exapmle-of-feature}\end{figure}
\section{実験}
\label{section:experimentation}本章ではまず前章において提案した手法についてかな漢字換言タスクにおける評価を行う.続いて日本語語義曖昧性解消タスクでも同様に評価を行い提案手法の有効性を実証する.その後,教師データを増減させることによる精度への影響,データのドメインによる精度への影響について調査,考察する.\subsection{かな漢字換言による実験}\label{subsection:experiment-kanakanji-conversion}\subsubsection{実験設定}\ref{section:proposed-method}章で説明した素性を用いて既存の手法との精度の比較を行う.データセットには\ref{section:kanakanji-conversion}章でBCCWJとUniDicから抽出したデータを用い,分散表現の構築に用いるコーパスは2016年3月5日にダンプされた日本語のWikipediaのデータ\footnote{https://ja.wikipedia.org/wiki/Wikipedia:データベースダウンロード}からwp2txt\footnote{https://github.com/yohasebe/wp2txt}を用いて作成したものを用いる.単語分割に用いる解析器には我々の研究室で開発,研究している日本語解析システム雪だるま\cite{40020961332}を用いる.この解析器はUniDicを辞書として用いたMeCabのラッパーとして開発されており,その特徴として活用を持つ単語に関しては活用を落として出力し,活用は活用形態素と言う形で活用を持つ単語の後ろに対して1形態素として出力をするようになっている.また,「サ変名詞+する」のような組み合わせの単語を1単語として出力するようになっている.活用形態素を考慮するかしないかによって語義曖昧性解消の精度が変化する可能性は存在するが本論文の主旨からそれてしまうため,ここでの実験では活用を考慮せずに行う.作成したWikipediaコーパスを雪だるまにて解析し,それらをgensim\footnote{https://radimrehurek.com/gensim/}のWord2Vecの実装で学習させ単語の分散表現として使う.Word2Vecの学習ではSkip-gramを用い階層的ソフトマックスとネガティブサンプリング両方を使用する.学習に使用する窓幅の設定は5とし,ネガティブサンプリングの値は5,ダウンサンプリングの割合は$10^{-3}$に設定し各ベクトル表現はすべて200次元に設定した.分類器にはScikit-learn\footnote{http://scikit-learn.org/}で実装されているSupportVectorMachine(SVM)のLinearSVCを使用し,正則化パラメータとして$C=1.0$を使用した.比較する素性として対象単語の周辺単語の分散表現をつなぎ合わせるCWE,対象単語の周辺単語のベクトルを足し合わせるAVE,CWEに対して周辺単語のBoWを素性として加えたCWE+BoW,\ref{section:proposed-method}章にて提案したCWEとAVEを組み合わせる手法(CA),さらにPMIを組み合わせた手法(CAP)に関して精度の比較を行う.\subsubsection{結果}前項で説明した各素性を用いた手法について実験を行った.窓幅を2から20まで変化させたときの換言精度の変化を示したグラフを図\ref{fig:accuracy-windowsize}に示す.また,各手法について,一番精度が良かったときの窓幅の大きさとその時の精度を表\ref{tab:kanji-conversion-result-tab}に示す.なおグラフ中のAVE(CW)はAVEで足し合わせる単語を内容語のみに制限した時の結果となっている.\begin{figure}[b]\begin{center}\includegraphics{25-3ia1f5.eps}\end{center}\caption{各素性を用いたかな漢字換言精度}\label{fig:accuracy-windowsize}\end{figure}\begin{table}[t]\caption{素性ごとのかな漢字換言の精度比較}\label{tab:kanji-conversion-result-tab}\input{01table03.tex}\end{table}CAやCAPの手法において,足し合わせて使う周辺単語の窓幅は訓練データを用い4分割交差検定にて最も精度の良かった3に固定してある.結果として,CWEやAVE,CWE+BoWの精度をCAの精度が1ポイント以上上回り,さらにPMIを組み合わせたCAPの手法が最も高い精度を示した.CWEでは単語ごとのベクトルを並べることによって単語の出現位置を考慮することができているが,単語の位置が規定されることによって周辺単語のコンテキストを考慮することができなかった.これらの手法に対してCWE+BoWはBoWを素性として加えることで単語の位置が規定される問題を若干解消しているが精度の向上はあまり大きくない.一方CWEに対してAVEを加えた手法では大きく精度が向上している.これはAVEを素性として加えることにより似た文脈を持つ文などをより考慮することができるようになったからと考察できる.一般にBoW等のcountモデルに比べてWord2Vecなどのpredictモデルは性能が良いと言われており\cite{baroni-dinu-kruszewski:2014:P14-1}より密になったベクトルを使うことでモデルが特徴を学習しやすくなったのだと考えられる.また,それらの手法に対してPMIの高い単語の分散表現を加えた手法(CAP)では,周辺単語だけではなく対象単語から遠い位置にある重要な単語に関して考慮することができていることからより高い精度を示している.窓幅の設定に関して,窓幅をある一定まで増やしていくと顕著に精度が上がっていくが,ある程度の窓幅がある場合はそれ以上窓幅を大きくしても精度が上がらないことが見て取れ,一定以上の窓幅があればそれらから似た文脈を持つ文の語義曖昧性も解消できるということを表している.またAVEに関しては窓幅4までは精度が上がっているがそれ以降は精度が下がっている.AVEでは窓幅内の単語について分散表現をすべて平均する手法になっているため,対象単語から離れた機能語などが多く足し合わさることによって雑音が増え,正しく分類できない文が増えたからだと考えられる.実際に内容語のみを足し合わせた手法のグラフを確認すると内容語のみを足し合わせることで精度の低下が起こらなくなっていることがわかる.しかしその精度が通常のAVEに比べ非常に低いことから,対象単語の周辺の機能語が語義曖昧性解消において重要であることをこの結果は示している.次に実際にどのような文が正解に変わり,どのような文が換言できなかったのかについて誤り分析を通して考察をしていく.窓幅を10に設定した際にCWEで正しく換言できなかった文についてランダムに100文抽出しそれらに対して各手法における分析を行った.表\ref{tab:error-analysis}に入力文と各システムが出力した漢字の一部を示す.表内のHの列に関しては人間が同じ文を見たときに換言できるかどうかを著者が個人の主観で判断したものである.抽出した100文中人間の目で見て正しい漢字が選択できた対象は67文であり,その67文中CAPの手法で正しい漢字を選択できるようになった文は45文であった.\begin{table}[b]\caption{入力文とシステムが実際に出力した漢字}\label{tab:error-analysis}\input{01table04.tex}\end{table}表\ref{tab:error-analysis}中の1,2の例ではCWEに対してAVEの素性を組み合わせることで解けるようになっていることがわかる.例1においてCWEでは単語の位置が規定されることによって「勤め」という単語から帰るという言葉が連想されることを学習できずに「返る」という単語を出力してしまっているが,AVEの素性を足すことによって正しく換言が行えるようになったのだと推察できる.2に関しても同様でCWEでは「アダージオ」という音楽用語から本来は「弾く」という意味を導けていないが,AVEを素性として加えることで単語の位置が規定されるという問題を解消し正しい漢字が導けていることがわかる.3,4の例はPMIを素性として加えることで正しい漢字を導けている例である.3の例では窓幅10の設定では「練る」という単語を導くために必要な「構想」という単語を考慮することができないが,PMIを用いることで「構想」単語の分散表現を素性として加えることができるようになっている.そのため正解である「練る」という漢字を導けるようになったものだと考察できる.4の例も同様で人間が「共生」という漢字を導くために必要な「サンゴ」や「褐虫藻」といった単語は窓幅10では考慮できないがPMIを用いることで位置が離れた単語でも素性として使え,結果として正しい漢字が出力できるようになったのだと推察できる.実際にPMIによって素性として選ばれた単語は「褐虫」であった.一方で5,6の例はどの手法でも正しく換言できなかった文である.例5に関しては「暖かい」といった単語や「柔らかい」という単語に引っ張られて「感性」という単語をどの手法においても出力しているが,「部屋」を完成させていることが人間の場合わかるため「完成」が正しい漢字であることを我々は認識できる.このような例に関しては構文情報などのより高度な意味理解が必要になる.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{25-3ia1f6.eps}\end{center}\caption{PMIによって選ばれた単語の換言対象単語との距離}\label{fig:histogram-pmi-kanakanji}\end{figure}7,8は著者の主観では正しい漢字を導くことができなかった例である.例7に関しては「二五世紀の戦士」という固有名詞を認識し知識として学習させる必要があるため,このような対象は我々の手法では正しく解けない.そもそも固有名詞に関しては一部をひらがなで書くということはほぼ状況として無く,これらは固有表現抽出の問題になるはずである.例8に関しては「創作」「捜索」どちらの漢字が割り当てられても文としては自然なため曖昧性を解くのに必要な周辺文脈が不十分であることがわかる.最後にPMIによって選ばれた単語の換言対象単語との距離について考察をする.換言対象単語とPMIによって素性として選択された単語の距離のヒストグラムを図\ref{fig:histogram-pmi-kanakanji}に示す.図\ref{fig:histogram-pmi-kanakanji}を見るとPMIが高い単語の多くが周辺2単語に存在していることがわかる.PMIの計算時に使う頻度情報として距離が7単語以内に出現した単語を共起したとみなして計算しているため,距離が近いところにPMIが高い単語が出てくるのは当然であるが,それを考慮しても周辺2単語以内によく共起する単語が出現している.周辺2単語以内に最もPMIが高い単語が出現した割合は訓練データ中では約37\%であった.一方で換言対象からの距離が10以上と遠い位置でもPMIの高い単語がかなりの割合で出現しており,これらを素性として加えることで一部の文において正しいコンテキストを選択できるようになり,かな漢字換言の精度が0.8ポイント向上したのだと言える.距離10より大きい位置に最もPMIが高い単語が出現した文の割合は全データ158,750件中52,337件と約33\%の割合を占める.この結果からもより精度の高い語義曖昧性解消を行う際にはより幅広い周辺文脈から重要な素性を選択する必要があると言える.\subsection{日本語語義曖昧性解消タスクによる実験}\subsubsection{実験設定}続いて提案手法の日本語語義曖昧性解消タスクでの有効性を調査する.各手法を比較するために用いるデータとしてSemEval2010の日本語語義曖昧性解消タスク\cite{okumura-EtAl:2010:SemEval}を使用し検証を行う.SemEval2010のデータでは語義曖昧性解消の対象となる単語は50単語であり1語あたりの事例数は訓練データ,テストデータでそれぞれ50事例となっている.この数字は1語義あたり200の訓練事例があるかな漢字換言タスクに比べて非常に規模が小さい.また,\ref{section:kanakanji-conversion}章で述べたように日本語語義曖昧性解消タスクはかな漢字換言に比べ1語あたりの平均語義数が多く,頻度分布のエントロピーも大きいことからかな漢字換言よりも難しいと言える.実験設定は基本的に前節と同様のものを用いる.なお,データセット自体が単語分割されているため,単語分割について雪だるまは使用していない.比較する素性として前節同様対象単語の周辺単語の分散表現をつなぎ合わせるCWE,対象単語の周辺単語のベクトルを足し合わせるAVE,CWEに対して周辺単語のBoWを素性として加えたCWE+BoW,\ref{section:proposed-method}章にて提案したCWEとAVEを組み合わせる手法(CA),さらにPMIを組み合わせた手法(CAP)に関して精度の比較を行う.\subsubsection{結果}\ref{subsection:experiment-kanakanji-conversion}節で用いた素性を使用して日本語語義曖昧性解消タスクでの実験を行った.各素性において窓幅を変化させていったときの精度の変化のグラフを図\ref{fig:accuracy-windowsize-japanese}に示す.また,各素性において最も精度が良かったときの数字とその時の窓幅を表\ref{tab:japanese-wsd-result}に示す.なお,CAやCAPの手法において,足し合わせて使う周辺単語の窓幅は訓練データで5分割交差検定を行い最も精度の良かった2に固定してある.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f7.eps}\end{center}\caption{各素性を用いた日本語の語義曖昧性解消}\label{fig:accuracy-windowsize-japanese}\end{figure}\begin{table}[t]\caption{素性ごとの語義曖昧性解消の精度比較}\label{tab:japanese-wsd-result}\input{01table05.tex}\end{table}まず,図\ref{fig:accuracy-windowsize-japanese}から見て分かる通り,どの手法においても窓幅が小さい時の精度が非常に高く,窓幅を広げていくとその精度が落ちていっていることがわかる.この結果は粒度の粗いかな漢字換言と違い,細かい粒度の語義は前後の単語から決定的に行えるということを示している.CWEとCAの間に大きな精度の差が見られなかったのはこれが一つの理由であると考えられる.窓幅が小さい際は「単語の位置が規定される」という問題が少なく,周辺語の出現パターンを比較的少ない訓練事例で学習することが可能である.そのため2つの素性の間に差が生まれなかったのだと考察できる.一方でCWEに比べPMIを組み合わせた手法は約$1$ポイント精度が向上している.これは先程の考察の一方で一部の語義の決定には曖昧性解消の対象となる単語から離れた単語も有効であるということを示している.CAPの素性においてPMIで選んだ単語の曖昧性解消の対象となる単語の距離のヒストグラムは図\ref{fig:histogram-pmi-japanese}になっている.図\ref{fig:histogram-pmi-japanese}を見るとかな漢字換言での検証と同様,PMIが高い単語は前後2単語に集中していることがわかる.周辺2単語以内に最もPMIが高い単語が出現した割合は訓練データ中では約26\%であった.一方で換言対象からの距離が3以上のものも一定数出現しておりこれらを素性として加えることで一部の語義が正しく導くことができ,精度が約$1$ポイント向上したのだと考えられる.距離3以上の位置に最もPMIが高い単語が出現した文の割合は約74\%である.この結果からも日本語の語義曖昧性解消において遠くの位置の単語が語義を決定するのに有効であると言える.また,SemEval2010の日本語語義曖昧性解消タスクでは1文ではなく文章全体からPMIによって素性を選ぶ手法についても検討することができる.従来の日本語の語義曖昧性解消は1文単位での手法がほとんどである.しかしながら,同文章中であれば似た文が多く含まれていると考えられるため,精度の向上に寄与する可能性がある.図\ref{fig:accuracy-windowsize-pmethodpmi}に語義曖昧性解消の対象単語が含まれる文章を用い,PMIで考慮する窓幅を変化させていった時の精度の変化を示す.\begin{figure}[t]\setlength{\captionwidth}{208pt}\begin{minipage}[t]{212pt}\includegraphics{25-3ia1f8.eps}\hangcaption{PMIによって選ばれた単語の語義曖昧性解消の対象単語との距離}\label{fig:histogram-pmi-japanese}\end{minipage}\hfill\begin{minipage}[t]{206pt}\includegraphics{25-3ia1f9.eps}\caption{PMIの窓幅を変化させたときの精度の変化}\label{fig:accuracy-windowsize-pmethodpmi}\end{minipage}\end{figure}図\ref{fig:accuracy-windowsize-pmethodpmi}を見ると窓幅50以下でCWE等の手法に比べて高い精度を記録していることが見て取れる.また窓幅40において精度78.6\%を記録しており,PMIでの窓幅を適切に考慮することで1文ではなく文章単位でも精度を向上させることが可能であると言える.一方で,ある一定以上PMIの窓幅を上げていくとその精度は低下していき,その他の手法とあまり変わらない値となっている.これは距離が遠すぎる単語は対象単語を含む文と比べて周辺文脈が大きく変わっており,PMIが大きい単語でも曖昧性解消の素性として効果がないからであると言える.結論として日本語の語義曖昧性解消では,広い窓幅から重要な単語を適切に素性として加えることで一定の精度の向上が見込めることがわかる.\subsection{訓練データの増減による換言精度の変化}\subsubsection{実験設定}ここでは前節で有効性が確認できた各手法において,訓練データを増やすことによる換言精度への影響について調査する.Marquezらは訓練データの規模を1語義あたり200件以上に増やすことで分類精度が向上することを報告しているが\cite{SupervisedWSDDataSize},それ以上に規模を大きくした論文については存在しない.しかし,かな漢字換言を通した語義曖昧性解消の調査では訓練データを自動で抽出することが可能である.そこで今回,我々はかな漢字換言の特性を活かして訓練データを1語義あたり5,000件用意し,規模を増加させたときの精度の変化を確認した.訓練データを抽出する上でBCCWJではそのコーパスの大きさが不十分で,すべての漢字の例について十分な規模の訓練データを抽出することができなかったため,本実験ではすべて日本語ウェブコーパス(2010)\footnote{http://s-yata.jp/corpus/nwc2010/}のテキストアーカイブから\ref{section:kanakanji-conversion}章で抽出した方法と同様にして抽出したものを使った.BCCWJの規模はテキスト形式でおよそ600~MBであるがウェブコーパスの規模は396~GBであり,またその文数はBCCWJ約600万文に対してウェブコーパスでは約56億文と,かな漢字換言の訓練データ作成において十分な量である.訓練データには\ref{section:kanakanji-conversion}章で構築した1語義あたり200件の訓練データは使わず,全てウェブコーパスから抽出したもののみを使う.これはドメインの違うデータを用いることによる精度の変化の影響を排除するためである.語義曖昧性解消において訓練データはその大きさだけではなく多様性によっても左右される.そのため,より多様性に富んだデータを意図的に抽出することで訓練データを増やしていった時の精度をより向上させることが可能であると考えられる.しかし,ここでの調査は訓練データの大きさによる精度への影響を調べることに焦点を当てるため,恣意的に抽出するデータを選ぶようなことはせずウェブコーパスのみから無作為に訓練データを選択している.テストデータには\ref{section:kanakanji-conversion}章で構築したものと同じものを使用する.\subsubsection{実験結果}訓練事例数を増やしていった際のかな漢字換言における各手法の精度の変化を図\ref{fig:accuracy-datasize}に示す.なお,訓練データの規模を示す横軸は対数表示である.またグラフ中のCAP$_{J}$はSemEval2010の日本語語義曖昧性解消タスクについて訓練データを制限した際の数値を示す.かな漢字換言では横軸の値は1語義あたりの訓練事例なのに対し,日本語語義曖昧性解消タスクでは横軸の値は1単語あたりの訓練事例であることに注意されたい.また,日本語語義曖昧性解消タスクでは純粋な訓練事例の変化による精度を確認するため,訓練データ中の各語義のバランスを考慮し各語義の訓練データを順に追加している.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f10.eps}\end{center}\caption{訓練データの大きさによる精度の変化}\label{fig:accuracy-datasize}\end{figure}グラフを見ると,かな漢字換言においてある程度まではデータが増えることによって大きく精度が変わっているが,徐々にその傾きが緩やかになっていき,1語義あたりの訓練データが5,000件前後になるとほぼ精度が変わらなくなることがわかる.このことから,訓練データの規模は大きければ大きいほどよいが,1語義あたり1,000から5,000件程度訓練事例を用意することで精度が収束すると言える.また,訓練データが少ない10から100までの間では訓練データサイズの変化に応じて精度が大きく向上しており,このことからも一定量の訓練データを用意することが語義曖昧性解消において非常に重要であることを示している.日本語語義曖昧性解消タスクにおいてデータを制限した際の学習曲線においても訓練事例の増加に伴って精度の向上が確認できる.かな漢字換言に比べ学習曲線が緩やかになっているものの,データ数を指数関数的に増やすことによって一定の精度向上が見られる.かな漢字換言では横軸が1語義あたりのデータ数なのに対し日本語語義曖昧性解消タスクでは1単語あたりのデータ数である.平均語義数が多い日本語語義曖昧性解消タスクでは語義あたりのデータの増加量がかな漢字換言に比べ緩やかになっていると考えられ,グラフの傾きが緩やかになっているのだと考えられる.また,かな漢字換言と違い語義曖昧性解消タスクでの検証ではデータに語義の偏りが存在するためここでの比較は公平ではないが,訓練事例を指数関数的に増加させることが精度向上に寄与することはこのグラフから読み取ることができる.使う素性によってグラフの傾きも変わり,CAPのグラフは教師データが非常に少ない場合でもCWE単体に比べて10ポイント近く高い精度を示している.このことからCAPは分散表現の特徴をうまく捉え,似た文脈に関しても正しい漢字を予測することができていることがわかる.逆に教師データの量が大きければ大きいほど各手法の差は小さくなっている.訓練事例を1語義あたり10事例用意した際のCWEとCAPの精度の差は9.7ポイントであり,訓練事例を5,000事例用意した際の精度の差は1.2ポイントである.これは,CWEで問題であった単語の位置が規定されるという問題が,教師データの規模を非常に大きくすることで無理やり解消できたからだと考えられる.この結果からも一定数の訓練データを用意した上で手法の有効性を評価することが,実用的な語義曖昧性解消の検証につながると考えられる.また,ここでの実験では訓練データの多様性は考慮していないためこのような結果になっているが,より多様性を考慮したデータセットを作ることでより少ない訓練事例で精度が収束することも考えられる.しかしながら語義曖昧性解消のデータセットとして1語義あたり1,000事例の非常に大きな訓練データを作るのは非常にコストがかかるため現実的ではない.この結果からある一定量のデータと精度よく曖昧性解消できる手法を組み合わせることが最も高い精度を出すために重要であると言える.また,小規模な訓練データを用いて確度の高いデータを訓練データに追加し学習を行っていく半教師あり学習が語義曖昧性解消に有効であると考えられる.\subsection{訓練データのドメインによる精度の変化の確認}\subsubsection{実験設定}この節では訓練データのドメインとテストデータのドメインによって精度がどの程度変わるかを検証する.一般に異なるドメインのデータで学習させたモデルを,別のドメインのテストデータに合うようにチューニングすることは領域適応と呼ばれ構文解析や語義曖昧性解消において精度を上げる上で重要な研究の一つになっている\cite{mcclosky-charniak-johnson:2010:NAACLHLT}.また語義曖昧性解消において訓練データの多様性を考慮することは周辺の文脈パターンをモデルにより幅広く学習させることができ,精度の向上が期待できる.異なるドメインのデータを用いて語義曖昧性解消を行う実験は新納ら\cite{新納浩幸2013}などが行っているが,ここで使われているSemEval2010の日本語語義曖昧性解消タスクではドメインごとに訓練データのサイズが異なるため,単純なドメインの変化による精度の影響の調査としては不十分である.そこで,訓練データを大量のテキストから自動で作れるかな漢字換言の特性を活かし,異なるドメインのデータで学習したモデルを別のドメインのテストデータで用いた際の精度について検討する.また,複数ドメインの訓練データを混ぜて学習させることによる精度への影響についても検討する.この実験では訓練データ,テストデータとして使用するドメインの異なるデータセットとして\ref{section:kanakanji-conversion}章にてBCCWJより構築したデータセットと,2016年3月5日にダンプされた日本語のWikipediaのデータから抽出したテキストを元に\ref{section:kanakanji-conversion}章と同じ方法で構築したデータセットを用いる.BCCWJには新聞やWebデータなど様々なドメインの文章が含まれているが,Webデータとして使われているものはYahoo!知恵袋とYahoo!ブログから収集されたテキストデータである.そのため,Wikipedia等の事物を説明するための文章とは異なるドメインであると考え,実験を行う.訓練データ,テストデータの大きさはどちらのデータセットにおいても同じ量になっている.その他の実験設定は\ref{subsection:experiment-kanakanji-conversion}節と同じものを使用する.比較のための手法には\ref{subsection:experiment-kanakanji-conversion}節で最も精度の良かったCAPを用いる.周辺単語の分散表現を足し合わせる際の窓幅は3,分散表現をつなぎ合わせて考慮する窓幅の設定は10としている.\subsubsection{実験結果}BCCWJ,Wikipediaより構築された訓練データを用いてモデルを学習させ,それぞれ異なるテストセットで評価を行った.実験結果を表\ref{tab:experiment-domein-result}に示す.表中のBCCWJ+Wikipediaはそれぞれの訓練データ200件のうち,ランダムで100件ずつ抽出し統合したものを訓練データとして使用した場合となっている.\begin{table}[b]\caption{ドメイン変化時の精度}\label{tab:experiment-domein-result}\input{01table06.tex}\end{table}表を見るとそれぞれのドメインで学習させて同じドメインのテストデータで評価したものに比べて,相互にテストデータを入れ替えた結果は精度が落ちていることがわかる.特に訓練データとしてWikipediaから抽出したデータを使いBCCWJで曖昧性解消をしたものは約5ポイントほど精度が低下している.このことから,語義曖昧性解消においてドメインごとにあった訓練データを用いることが精度向上に大きく寄与するといえる.一方でBCCWJから抽出したデータを使いWikipediaのテストデータで評価したものは精度の減少はあるものの約1.2ポイントと少なくなっている.これはBCCWJが均衡コーパスであり様々なドメインのデータを含んでいるため多様性に富んでいるからだと考えられる.これは多様性に富んだ訓練データを用いることが精度向上に貢献することを示唆するものである.また,それぞれのドメインの訓練データを混ぜ学習させたモデルはBCCWJ,Wikipediaから作成したテストデータ両方において高い精度が発揮できており,それぞれのドメインの訓練データのみを学習させ,同ドメインのテストデータで評価したときの精度とほぼ変わらない値を得ることができている.この結果からも語義曖昧性解消で用いる訓練データは広いドメインから幅広い文を対象に抽出したほうが訓練データの多様性を考慮でき,より高い精度での曖昧性解消が期待できることを表している.また,この結果は「対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練データを学習に用いる方が精度が良い」というFujitaらの報告\cite{fujita-EtAl:2010:SemEval}が,訓練データの大きさが同じ場合でもほぼ変わらない精度を得ることができることを示している.結論として,\pagebreak語義曖昧性解消においてテストデータにあった訓練データを用いることが精度向上に大きく寄与する一方で,訓練データの多様性を考慮することで様々なドメインのデータにも対応できると言える.
\section{結論}
\label{section:conclusion}本論文ではかな漢字換言を通して日本語の語義曖昧性解消において幾つかの問題点を明らかにした.まず素性として使う単語の選び方である.我々は事前の実験を通して文全体を見て文中から正しく素性を選ぶことが重要であることを示し,分散表現とPMIを用いて周辺文脈と曖昧性解消の対象となる単語から離れた単語について考慮する手法を考案した.手法の有効性に関してBCCWJから作成したかな漢字換言のデータセットを用いて実験を行ったところ,ベースラインとなる単純な単語の分散表現のつなぎ合わせに比べ約2ポイント高い精度を得ることができた.また考慮する窓幅についても検討したところ,周辺5単語以上を考慮することでより高い精度を得ることができることを確認した.このことからより文中の様々な単語を考慮することがかな漢字換言において重要であるということを明らかにした.さらに日本語の語義曖昧性解消タスクを用いて提案手法の有効性について検証した.その結果,単純な単語の分散表現のつなぎ合わせに対して周辺単語の平均ベクトルを足し合わせる方法の有効性は確認できなかったが,PMIを用い文全体から適切な単語の分散表現を素性として加えることが有効であることを確認した.また,我々は訓練データの大きさによる語義曖昧性解消への影響も調査した.訓練データを10件から5,000件まで増やしていったときのかな漢字換言の精度を確認し,分散表現を用いた各手法で実験を行った.その結果,分散表現を用いた手法では,非常に大きな規模の訓練データを用意することでどの手法においてもほぼ変わらない精度を得られることを確認した.その一方で高い精度を得るために必要なデータは指数関数的に増えていくため,より少ないデータで高い精度を得られる手法が教師ありの語義曖昧性解消において重要であることを確認した.さらに我々は訓練データのドメインについても調査を行った.BCCWJとWikipediaから作成した訓練データとテストデータを相互に使い実験し,各ドメインにあった訓練データを使うことが精度向上において重要であることを確認した.また,各ドメインの訓練データを混ぜて学習させた結果から,幅広いドメインの文章から多様性に富んだ語義曖昧性解消のデータセットを作ることが語義曖昧性解消に対して有効であることを確認した.語義曖昧性解消はコンピュータの意味理解において重要な役割を果たすため,より精度の高い手法やツールが求められるはずである.本論文を通して自然言語処理における語義曖昧性解消という問題が少しでも解消できればいいと願う.\acknowledgment本研究は,平成27〜31年科学研究費補助・基盤(B)課題番号15H03216,課題名「日本語教育用テキスト解析ツールの開発と学習者向け誤用チェッカーへの展開」,及び平成29〜31年科学研究費助成事業挑戦的萌芽課題番号17K18481,課題名「やさしい日本語化実証実験による言語資源構築と自動平易化システムの試作」の助成を受けています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bansal,Gimpel,\BBA\Livescu}{Bansalet~al.}{2014}]{bansal-gimpel-livescu:2014:P14-2}Bansal,M.,Gimpel,K.,\BBA\Livescu,K.\BBOP2014\BBCP.\newblock\BBOQTailoringContinuousWordRepresentationsforDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\809--815},Baltimore,Maryland.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Baroni,Dinu,\BBA\Kruszewski}{Baroniet~al.}{2014}]{baroni-dinu-kruszewski:2014:P14-1}Baroni,M.,Dinu,G.,\BBA\Kruszewski,G.\BBOP2014\BBCP.\newblock\BBOQDon'tCount,Predict!ASystematicComparisonofContext-Countingvs.Context-PredictingSemanticVectors.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\238--247},Baltimore,Maryland.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cai,Lee,\BBA\Teh}{Caiet~al.}{2007}]{cai-lee-teh:2007:EMNLP-CoNLL2007}Cai,J.,Lee,W.~S.,\BBA\Teh,Y.~W.\BBOP2007\BBCP.\newblock\BBOQImprovingWordSenseDisambiguationUsingTopicFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\1015--1023},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{藤田\JBA{Duh,K.}\JBA藤野\JBA平\JBA進藤}{藤田\Jetal}{2011}]{KevinDuh2011}藤田早苗\JBA{Duh,K.}\JBA藤野昭典\JBA平博順\JBA進藤裕之\BBOP2011\BBCP.\newblock日本語語義曖昧性解消のための訓練データの自動拡張.\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\273--291}.\bibitem[\protect\BCAY{Fujita,Duh,Fujino,Taira,\BBA\Shindo}{Fujitaet~al.}{2010}]{fujita-EtAl:2010:SemEval}Fujita,S.,Duh,K.,Fujino,A.,Taira,H.,\BBA\Shindo,H.\BBOP2010\BBCP.\newblock\BBOQMSS:InvestigatingtheEffectivenessofDomainCombinationsandTopicFeaturesforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\383--386},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Fujita\BBA\Fujino}{Fujita\BBA\Fujino}{2013}]{Fujita:2013:WSD:2461316.2461319}Fujita,S.\BBACOMMA\\BBA\Fujino,A.\BBOP2013\BBCP.\newblock\BBOQWordSenseDisambiguationbyCombiningLabeledDataExpansionandSemi-SupervisedLearningMethod.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf12}(2),\mbox{\BPGS\7:1--7:26}.\bibitem[\protect\BCAY{Iacobacci,Pilehvar,\BBA\Navigli}{Iacobacciet~al.}{2016}]{iacobacci-pilehvar-navigli:2016:P16-1}Iacobacci,I.,Pilehvar,M.~T.,\BBA\Navigli,R.\BBOP2016\BBCP.\newblock\BBOQEmbeddingsforWordSenseDisambiguation:AnEvaluationStudy.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\897--907},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{井上\JBA斎藤}{井上\JBA斎藤}{2011}]{2011inoue}井上裁都\JBA斎藤博昭\BBOP2011\BBCP.\newblockラベルなしデータの二段階分類とアンサンブル学習に基づく半教師あり日本語語義曖昧性解消.\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\247--271}.\bibitem[\protect\BCAY{Lopez~deLacalle\BBA\Agirre}{Lopez~deLacalle\BBA\Agirre}{2015}]{lopezdelacalle-agirre:2015:*SEM2015}Lopez~deLacalle,O.\BBACOMMA\\BBA\Agirre,E.\BBOP2015\BBCP.\newblock\BBOQAMethodologyforWordSenseDisambiguationat90\%basedonLarge-scaleCrowdSourcing.\BBCQ\\newblockIn{\BemProceedingsofthe4thJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\61--70},Denver,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Marquez,Escudero,Martinez,\BBA\Rigau}{Marquezet~al.}{2006}]{SupervisedWSDDataSize}Marquez,L.,Escudero,G.,Martinez,D.,\BBA\Rigau,G.\BBOP2006\BBCP.\newblock{\BemWordSenseDisambiguation:AlgorithmsandApplications},\BCH~7,\mbox{\BPGS\184--195}.\newblockSpringer.\bibitem[\protect\BCAY{McCarthy}{McCarthy}{2009}]{LNC3:LNC3131}McCarthy,D.\BBOP2009\BBCP.\newblock\BBOQWordSenseDisambiguation:AnOverview.\BBCQ\\newblock{\BemLanguageandLinguisticsCompass},{\Bbf3}(2),\mbox{\BPGS\537--558}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2010}]{mcclosky-charniak-johnson:2010:NAACLHLT}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2010\BBCP.\newblock\BBOQAutomaticDomainAdaptationforParsing.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\28--36},LosAngeles,California.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mihalcea,Chklovski,\BBA\Kilgarriff}{Mihalceaet~al.}{2004}]{MihalceaEtAl2004}Mihalcea,R.,Chklovski,T.,\BBA\Kilgarriff,A.\BBOP2004\BBCP.\newblock\BBOQTheSenseval-3EnglishLexicalSampleTask.\BBCQ\\newblockIn{\BemProceedingsofSenseval-3:3rdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText,Barcelona,Spain,July2004}.AssociationforComputationalLinguistics(ACL).\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{DBLP:journals/corr/MikolovSCCD13}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1310.4546}.\bibitem[\protect\BCAY{村本\JBA鍜治\JBA吉永\JBA喜連川}{村本\Jetal}{2011}]{weko_79539_1}村本英明\JBA鍜治伸裕\JBA吉永直樹\JBA喜連川優\BBOP2011\BBCP.\newblockWebテキストを対象とした語義曖昧性解消のための言語資源の半自動構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3338--3348}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2009}]{Navigli:2009:WSD:1459352.1459355}Navigli,R.\BBOP2009\BBCP.\newblock\BBOQWordSenseDisambiguation:ASurvey.\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf41}(2),\mbox{\BPGS\10:1--10:69}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2012}]{Navigli2012}Navigli,R.\BBOP2012\BBCP.\newblock{\BemAQuickTourofWordSenseDisambiguation,InductionandRelatedApproaches},\mbox{\BPGS\115--129}.\newblockSpringerBerlinHeidelberg,Berlin,Heidelberg.\bibitem[\protect\BCAY{Navigli,Litkowski,\BBA\Hargraves}{Navigliet~al.}{2007}]{navigli-litkowski-hargraves:2007:SemEval-2007}Navigli,R.,Litkowski,K.~C.,\BBA\Hargraves,O.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task07:Coarse-GrainedEnglishAll-WordsTask.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\30--35},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{小椋\JBA原\JBA小木曽\JBA小磯\JBA宮内}{小椋\Jetal}{2010}]{Corpus2010}小椋秀樹\JBA原裕\JBA小木曽智信\JBA小磯花絵\JBA宮内佐夜香\BBOP2010\BBCP.\newblock形態素解析辞書UniDicにおける同語異語判別について.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\486--489}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{okumura-EtAl:2010:SemEval}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\69--74},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{2011semeval}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{Petersen}{Petersen}{2006}]{UnsupervisedWSDClustering}Petersen,T.\BBOP2006\BBCP.\newblock{\BemWordSenseDisambiguation:AlgorithmsandApplications},\BCH~6,\mbox{\BPGS\133--166}.\newblockSpringer.\bibitem[\protect\BCAY{Pradhan,Loper,Dligach,\BBA\Palmer}{Pradhanet~al.}{2007}]{pradhan-EtAl:2007:SemEval-2007}Pradhan,S.,Loper,E.,Dligach,D.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task-17:EnglishLexicalSample,SRLandAllWords.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\87--92},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Raganato,Camacho-Collados,\BBA\Navigli}{Raganatoet~al.}{2017}]{raganato-camachocollados-navigli:2017:EACLlong}Raganato,A.,Camacho-Collados,J.,\BBA\Navigli,R.\BBOP2017\BBCP.\newblock\BBOQWordSenseDisambiguation:AUnifiedEvaluationFrameworkandEmpiricalComparison.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics:Volume1,LongPapers},\mbox{\BPGS\99--110},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{新納\JBA古宮\JBA佐々木}{新納\Jetal}{2017}]{weko_182711_1}新納浩幸\JBA古宮嘉那子\JBA佐々木稔\BBOP2017\BBCP.\newblock順方向多層LSTMと分散表現を用いた教師あり学習による語義曖昧性解消.\\newblock\JTR~4,茨城大学工学部情報工学科.\bibitem[\protect\BCAY{新納\JBA村田\JBA白井\JBA福本\JBA藤田\JBA佐々木\JBA古宮\JBA乾}{新納\Jetal}{2015}]{新納浩幸2015}新納浩幸\JBA村田真樹\JBA白井清昭\JBA福本文代\JBA藤田早苗\JBA佐々木稔\JBA古宮嘉那子\JBA乾孝司\BBOP2015\BBCP.\newblockクラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け.\\newblock\Jem{自然言語処理},{\Bbf22}(5),\mbox{\BPGS\319--362}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2013}]{新納浩幸2013}新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockk近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\707--726}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{20033}白井清昭\BBOP2003\BBCP.\newblockSENSEVAL-2日本語辞書タスク.\\newblock\Jem{自然言語処理},{\Bbf10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{白井\JBA柏野\JBA橋本\JBA徳永\JBA有田\JBA井佐原\JBA荻野\JBA小船\JBA高橋\JBA長尾\JBA橋田\JBA村田}{白井\Jetal}{2001}]{110002935282}白井清昭\JBA柏野和佳子\JBA橋本三奈子\JBA徳永健伸\JBA有田英一\JBA井佐原均\JBA荻野紫穂\JBA小船隆一\JBA高橋裕信\JBA長尾確\JBA橋田浩一\JBA村田真樹\BBOP2001\BBCP.\newblock岩波国語辞典を利用した語義タグ付きテキストデータベースの作成.\\newblock\Jem{情報処理学会研究報告自然言語処理(NL)},{\Bbf2001}(9),\mbox{\BPGS\117--124}.\bibitem[\protect\BCAY{Sugawara,Takamura,Sasano,\BBA\Okumura}{Sugawaraet~al.}{2015}]{sugawara:2015:pacling}Sugawara,H.,Takamura,H.,Sasano,R.,\BBA\Okumura,M.\BBOP2015\BBCP.\newblock\BBOQContextRepresentationwithWordEmbeddingsforWSD.\BBCQ\\newblockIn{\BemInternationalConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\108--119}.\bibitem[\protect\BCAY{Wawer\BBA\Mykowiecka}{Wawer\BBA\Mykowiecka}{2017}]{wawer-mykowiecka:2017:SENSE2017}Wawer,A.\BBACOMMA\\BBA\Mykowiecka,A.\BBOP2017\BBCP.\newblock\BBOQSupervisedandUnsupervisedWordSenseDisambiguationonWordEmbeddingVectorsofUnambigousSynonyms.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponSense,ConceptandEntityRepresentationsandtheirApplications},\mbox{\BPGS\120--125},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{山木\JBA新納\JBA古宮\JBA佐々木}{山木\Jetal}{2015}]{weko_146217_1}山木翔馬\JBA新納浩幸\JBA古宮嘉那子\JBA佐々木稔\BBOP2015\BBCP.\newblock分散表現を用いた教師あり機械学習による語義曖昧性解消.\\newblock\JTR~17,茨城大学工学部情報工学科.\bibitem[\protect\BCAY{Yamamoto,Gumizawa,\BBA\Mikami}{Yamamotoet~al.}{2017}]{Kazuhide2016}Yamamoto,K.,Gumizawa,Y.,\BBA\Mikami,Y.\BBOP2017\BBCP.\newblock\BBOQWordSenseImplantationbyOrthographicalConversion.\BBCQ\\newblock{\BemInternationalJournalofAsianLanguageProcessing},{\Bbf27}(2),\mbox{\BPGS\79--94}.\newblockChineseandOrientalLanguagesInformationProcessingSociety(2017.12).\bibitem[\protect\BCAY{山本\JBA高橋\JBA桾澤\JBA西山}{山本\Jetal}{2016}]{40020961332}山本和英\JBA高橋寛治\JBA桾澤優希\JBA西山浩気\BBOP2016\BBCP.\newblock日本語解析システム「雪だるま」(第2報)進捗報告と活用形態素の導入(言語理解とコミュニケーション)—(第9回テキストマイニング・シンポジウム).\\newblock\Jem{電子情報通信学会技術研究報告},{\Bbf116}(213),\mbox{\BPGS\63--68}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{yarowsky:1995:ACL}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingonAssociationforComputationalLinguistics},ACL'95,\mbox{\BPGS\189--196},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\end{thebibliography}\clearpage\appendix
\section{換言対象となるひらがなと漢字候補}
\label{appendix:kanakanji-target}\input{01tableA01.tex}\normalsize\clearpage\begin{biography}\bioauthor{桾澤優希}{2017年長岡技術科学大学工学部電気電子情報工学課程卒業.同年,同大学工学研究科修士課程電気電子情報工学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{山本和英}{1996年3月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員.1998年中国科学院自動化研究所国外訪問学者.2002年から長岡技術科学大学,現在准教授.自然言語処理,人工知能(知識構築),日本語教育(支援ツール作成)の研究開発に従事.2012〜2014年電子情報通信学会言語理解とコミュニケーション(NLC)研究会委員長,2016年から言語処理学会理事.言語処理学会,人工知能学会,日本語教育学会,情報処理学会,電子情報通信学会,言語資源協会,アジア太平洋機械翻訳協会各会員.}\end{biography}\biodate\clearpage\clearpage\clearpage\end{document}
| |
V26N02-05
|
\section{はじめに}
Twitterに代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する.例として,Twitterから抜粋した以下の文における単語「鯖」の使われ方に着目する.\quad(1)\space今日、久々に{\bf鯖$_1$}の塩焼き食べたよとても美味しかった\quad(2)\spaceなんで、急に{\bf鯖$_2$}落ちしてるのかと思ったらスマップだったのか(^q^)\noindent文(1)と文(2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖$_1$は,青魚に分類される魚の鯖を示しているのに対し,文(2)における鯖$_2$は,コンピュータサーバのことを意味している.ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と「サーバ」の読み方が似ているためである.このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名AppleInc.を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い.文(2)における鯖$_2$のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合,多くの人は文脈から辞書に載っている用法\footnote{本研究では,一般的な辞書に採録されている単語の用法を一般的,そうでないものを一般的ではないとする.}と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に,インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある\cite{yamada}.しかし,全体として,どのような単語が一般的ではない意味で使われているかということを把握することは難しい.本研究では,このような性質を持つ単語の解析の手始めとして,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソーシャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む.ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の枠組みでこの問題に取り組む.検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する.具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と,着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ.非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コーパスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する.また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には,Skip-gramNegativeSampling\cite{Mikolov2013nips}によって学習された単語ベクトルを使用する.
\section{評価データの作成}
本研究では,一般的ではない用法が存在する単語を対象として,文中における対象単語が一般的な用法かそうでないかをアノテートしたデータセットを新たに作成した.作成したデータセットは,コンピュータ,企業・サービス名,ネットスラングのドメインに出現した語から,非一般的用法として使用されることのある40語を含んだデータセットである.データのソースとしてTwitterを使用し,2016年1月1日から2016年1月31日に投稿されたツイートを対象としてデータセットを作成した.Twitterをデータのソースとして選択した理由は,Twitterにおいては,ある語が一般的な用法として使われる場合とそうでない場合が混在していると考えたためである.データセットの作成に先立ち,以下の条件を全て満たす語を対象語を選定した.\begin{enumerate}\itemコンピュータ,企業・サービス名,ネットスラングのドメインにおいて一般的ではない用法として使用される場合があることが分かっている語\itemウェブ上に一般的ではない用法の説明が存在している語\item均衡コーパスにおける出現頻度が100以上の語\end{enumerate}本研究では,コンピュータ,企業・サービス名からそれぞれ10語ずつ,ネットスラングから20語,合計40語を対象語として選定した.選定した40語の一覧を表\ref{tb:word_list}に示す.\begin{table}[p]\caption{選定した40語とその一般的ではない用法の説明}\label{tb:word_list}\input{05table01.tex}\end{table}データセットの作成においては,まず,選定した40語が含まれるツイートに対して形態素解析を行い,選定した単語が一般名詞であると解析されたツイートを無作為に100ツイート選択した.形態素解析には,MeCab\footnote{http://taku910.github.io/mecab/}を使用し,IPA辞書\footnote{http://ipadic.osdn.jp/}を用いた.次に,選択したツイートにおいて,選定した単語が一般的な用法として用いられているか,固有表現の一部となっているか,一般的ではない用法として用いられているかという判断を2人のアノテータによって人手で行った.固有表現の一部となっている事例というのは,例えば「井ノ尻」の中の「尻」のような事例を示す.また,いずれかのアノテータが,与えられた情報だけからはツイート中で使用されている対象語の用法を決定できないと判断したツイート(96ツイート)\footnote{「(*´茸`*)」の中の「茸」のような,顔文字の一部となっている事例などが含まれる.}は,データセットから除外した.アノテーションが一致したツイートのうち,2人のアノテータが一般的な用法として用いられていると判断した事例と,一般的ではない用法として用いられている判断した事例の集合を最終的なデータセットとした\footnote{固有表現の一部となっている事例を除いたのは,将来的に固有表現認識を行うことにより機械的に除外できると考えたためである.}.本アノテーションにおけるカッパ係数は0.808であった.表\ref{tb:dataset}に,作成したデータセットの概要を示す.\begin{table}[b]\caption{作成したデータセットの概要}\label{tb:dataset}\input{05table02.tex}\end{table}作成したデータセットでは,単語ごとにラベルの偏りが見られた.アノテーションの結果に基づいて,40語を,一般的な用法の事例が多い単語,非一般的用法として用いられている事例が多い単語,それ以外の単語の3つに分類した.具体的には,7割以上が一般的用法としてアノテーションされた単語を一般的ラベル優勢,7割以上が非一般的用法としてアノテーションされた単語を非一般的ラベル優勢,それ以外をラベル偏りなしとしてクラス分けを行った.表\ref{tb:dataset_annotation}に,アノテーション対象とした語の一覧をクラスごとに示す.また,表\ref{tb:dataset_class}に,各クラスごとにアノテーションされた一般的用法,非一般的用法の内訳を示す.\begin{table}[b]\caption{アノテーション対象とした40語の内訳}\label{tb:dataset_annotation}\input{05table03.tex}\end{table}作成したデータセットは各単語に対する学習データ数が少ないため,教師あり学習のための学習コーパスとして使用するには,データ量の観点から適切ではないと考える.そのため,本研究では,教師なし学習に基づいた単語の一般的ではない用法の検出手法を提案し,本データセットを評価用のデータセットとして用いる.\label{seq:dataset}\begin{table}[t]\caption{クラスごとのデータセット内訳}\label{tb:dataset_class}\input{05table04.tex}\end{table}
\section{単語の一般的ではない用法の検出}
提案手法では,もしある単語が一般的ではない用法として使われた場合,その周辺単語は一般的な用法として使われた場合の周辺単語と異なるという考えに基づき,単語の一般的ではない用法の検出を行う.提案手法は単語の分散表現を活用したものであるため,本節では,まず,単語の分散表現を学習する手法として広く使われているSkip-gramの説明を行い,その後に提案手法の具体的なモデルの説明を行う.\subsection{Skip-gramwithNegativeSampling(SGNS)}Skip-gram\cite{Mikolov2013nips}とは,単語の分散表現を学習する手法の一つとして広く使われており,学習コーパスから主に単語の共起情報を学習し,学習コーパス内に出現した単語をベクトルとして表現する手法である.\label{seq:skipgram}Skip-gramでは,訓練データにおける単語列を$w_1$,$w_2$,...,$w_T$,窓幅を$m$とした時,$\frac{1}{T}\sum^T_{t=1}\sum_{-m\leqi\leqm,i\neq0}\logp(w_{t+i}|w_t)$が大きくなるように学習される.{\itW}を訓練データにおける語彙とした時,$p(w_k|w_t)$は次の式によって表される:\[p(w_k|w_t)=\frac{\exp(v_{w_t}^{IN}\cdot{v_{w_k}^{OUT}})}{\sum^{}_{w\inW}\exp(v_{w_t}^{IN}\cdot{v_{w}^{OUT}})}.\]Skip-gramは,着目単語の周辺単語を予測するモデルである.各単語は入力側の単語ベクトル$v^{IN}$と出力側の単語ベクトル$v^{OUT}$で表現され,確率値の計算には,これらが使用される.\citeA{Mikolov2013nips}は,Skip-gramの学習時における計算コストを削減するためにSkip-gramwithNegativeSampling(SGNS)を提案した.SGNSでは,学習コーパス内で単語$w_t$が$w_k$の近くに出現していた場合,$\log{\sigma({v_{w_t}^{IN}}\cdot{v_{w_k}^{OUT}})}+\sum^{N}_{n=1}\mathbb{E}_{w_n\simZ(w)}\log{\sigma({v_{w_t}^{IN}}\cdot{-v_{w_n}^{OUT}}})$が大きくなるようにそれぞれの単語に対応するベクトルが学習される.ただし,$\sigma$はシグモイド関数を表す.SGNSでは,$N$個の単語を確率分布$Z$から抽出し,これらを学習における負例単語として扱う.その結果,単語$w_t$と単語$w_t$の近くに出現した単語$w_k$については,$\log{\sigma(v_{w_t}^{IN}\cdot{v_{w_k}^{OUT}})}$の値が大きくなるようにそれぞれのベクトルが学習され,単語$w_t$と負例単語$w_n$については,$\log{\sigma({v_{w_t}^{IN}}\cdot{v_{w_n}^{OUT}}})$が小さくなるように学習される.単語間の類似度を測定するのにあたっては,入力側の単語ベクトル$v^{IN}$間における類似度を測る手法が広く用いられている.入力側の単語ベクトル$v^{IN}$は多くの研究で広く活用されているのに対して,\citeA{DBLP:journals/corr/MitraNCC16}や\citeA{eacl17oflr}などのように,出力側の単語ベクトル$v^{OUT}$を効果的に活用している研究は少ない.一方で,Levyら\cite{NIPS2014_5477}は,ShiftedPositivePointwiseMutualInformation(SPPMI)とSGNSの等価性を示しており,これによると,SGNSにおいて$v^{IN}$と$v^{OUT}$を使用することは,SPPMIを学習した際の単語の共起情報を参照することに関連し,これはある着目単語とその周辺単語のつながりの強さを計算することを意味する.以上より,これまで述べたような入出力単語ベクトルの学習過程およびSPPMIとSGNSの等価性を考慮すると,ある単語$w_t$が訓練データ内で単語$w_k$が共起されやすいかどうかを測るためには,従来の研究で多く見られるような$v_{w_t}^{IN}$と${v_{w_k}^{IN}}$を用いた余弦類似度を用いる手法だけではなく,入力側と出力側の単語ベクトルを用いた${\sigma(v_{w_t}^{IN}\cdotv_{w_k}^{OUT})}$を活用する手法も,単語間の類似度を計算する上では考慮するべきであると考えられる.\subsection{提案手法}本研究では,SGNSの学習メカニズムを考慮して,非一般的用法の検出を試みる.具体的には,まずSGNSを用いて均衡コーパスから単語の分散表現を学習し,続いて学習したベクトルを用いて着目単語とその周辺単語のベクトル間の内積値を算出し,その値が小さい場合,その着目単語の用法は一般的ではないと判断する.均衡コーパスは,言語全体を把握するために偏りなくサンプリングされたテキストの集合であることから,均衡コーパスを用いることで,単語の用法の一般性がより反映された単語ベクトルの学習が行われると考えられ,上述の内積値が高い事例は一般的,低い事例は一般的ではない用法と判断することができると考えられる.図~\ref{fig:method}に提案手法の概要を示す.\begin{figure}[t]\begin{center}\includegraphics{26-2ia5f1.eps}\end{center}\caption{提案手法の概要}\label{fig:method}\end{figure}提案手法では,SGNSによって単語ベクトルを学習し,学習された着目単語の入力側の単語ベクトル$v^{IN}$と,周辺単語の出力側の単語ベクトル$v^{OUT}$の類似度の加重平均に基づいて,単語の非一般的な用法を検出する.この過程で計算される類似度の加重平均を,単語の使われ方に対する一般性スコアと定義する.一般性スコアとして,着目単語とその周辺単語との類似度の加重平均を採用している理由は,本研究で使用したSGNSの学習過程では,着目している単語と距離の近い単語に重みを付けた学習が行われているためである\cite{levy2015}.窓幅を$m$,着目単語との距離を$d$と定義すると,加重平均の重み$\alpha$は,$\alpha=m+1-d$によって計算される整数値とする.ただし,$d$は,着目単語を基準として,何単語離れているかを表す整数値である.文中の着目単語を${w_t}$とし,着目単語の入力側の単語ベクトルを${v_{w_t}^{IN}}$,$w_t$を基準として前後$m$単語の単語集合を${\bfw_c}$,各周辺単語${w_j\in{\bfw_c}}$の出力側の単語ベクトルを$v_{w_j}^{OUT}$,その重みを$\alpha_{w_j}$と表すと,提案手法では,次の式(1)で計算されるスコアによって,着目単語$w_t$が一般的な使われ方かどうかを判断する:\begin{equation}\frac{\sum_{w_j\in{\bfw}_c}\sigma({v_{w_t}^{IN}}\cdotv_{w_j}^{OUT})\times\alpha_{w_j}}{\sum_{w_j\in{\bfw}_c}\alpha_{w_j}},\end{equation}ただし,式(1)における$\sigma$はシグモイド関数を表す.窓幅内に出現した未知語に対しては,未知語のトークンに対応する単語ベクトル$v_{unk}^{OUT}$を用いる.なお,この$v_{unk}$は,単語ベクトルの学習に使用したコーパス内における低頻度語に対応する単語ベクトルである.式(1)において,シグモイド関数を使用している理由は,SGNSの学習過程における非線形関数としてシグモイド関数が使用されていたためである\footnote{https://code.google.com/archive/p/word2vec/}.算出された一般性スコアが小さい場合,着目単語の使われ方は非一般的であり,また反対に大きい時には,その使われ方は一般的であるとみなす.\label{seq:method}\subsection{比較手法}本研究における提案手法には,3つの特徴がある.一つ目は単語ベクトルを学習する際に均衡コーパスを使用する点,二つ目は一般性スコアを計算する際に使用する単語ベクトルとして$v^{IN}$だけではなく$v^{OUT}$も使用する点,三つ目は一般性スコアの計算に加重平均を採用している点である.これらの特徴が非一般的な用法を検出するにあたり有用であるかを,比較実験を通して検証する.提案手法では,学習コーパスの用法と評価用データセットにおける用法との差異を一般性スコアとして計算している.この学習コーパスに含まれる単語の用法が非一般的用法検出を行う際の基準となるため,検出精度に大きく影響すると考えられる.そこで,本研究では,4種類の異なる性質のコーパスを用意し,どのコーパスで単語ベクトルを学習するのが本タスクにより適しているかを調査する.表\ref{tb:corpus}に,各コーパスの内容を示す\footnote{Webコーパスの収集には,\citeA{WEBcrawl}の手法を用いた.Wikipediaは,2016年7月時点でのWikipediaの記事を{https://dumps.wikimedia.org/jawiki/}からダウンロードしたものである.新聞については,毎日新聞,日経新聞,読売新聞を対象とした.}.\begin{table}[b]\caption{学習に使用したコーパスの内容}\label{tb:corpus}\input{05table05.tex}\end{table}提案手法は,一般的に使用される$v^{IN}$だけではなく,$v^{OUT}$も使用している.$v^{OUT}$の有用性を検証するため,従来研究\cite{neelakantan-EtAl:2014:EMNLP2014,MWEemb}で用いられている手法と同様に,$v^{IN}$のみを用いた手法との比較を行った.この比較手法では,式(1)における$\sigma(v_{w_t}^{IN}\cdotv_{w_j}^{OUT})$を,余弦類似度$\frac{{v_{w_t}^{IN}}^\topv_{w_j}^{IN}}{||{v_{w_t}^{IN}}||\times||v_{w_j}^{IN}||}$として一般性スコアを計算した.さらに,SGNS以外の手法で学習した単語ベクトルでの実験結果を比較するために,相互情報量を用いて学習した単語ベクトルに対して,特異値分解(SVD)によって次元削減を行った単語ベクトルを使用した手法\cite{levy2015,hamilton-EtAl:2016:EMNLP2016}による実験も行った.この時,式(1)における$v_{w_t}^{IN}$,$v_{w_j}^{OUT}$は,それぞれ,SVDによって特異値分解されたあとの$t$成分,$j$成分の値とする.相互情報量には,PositivePointwiseMutualInformation(PPMI)を使用した.また,SVDを用いた手法においても,一般性スコアの計算には余弦類似度を用いた\footnote{$v^{IN}$のみを用いた手法およびSVDを用いた手法において,類似度関数として余弦類似度の代わりにシグモイド関数を使用した場合においても実験を行ったが,この時の評価値は余弦類似度を用いた場合よりも低い値となった.}.\ref{seq:method}節で述べたように,式(1)の$\alpha$は,着目単語を基準とした時の,周辺単語との距離に対する重みである.この重み付けの有効性を調査するため,重み付けを行わず,式(1)において$\alpha=1$とした場合との比較実験を行った.これらに加えて,式(1)における周辺単語$\bfw_c$から,機能語である助詞,助動詞,接続詞として使われている単語を除いた条件での実験も行った.図\ref{fig:method}にも示した通り,実際のテキストにおける周辺単語$w_j$は,助詞をはじめとする機能語にもなり得る.しかし,機能語の単語ベクトルと着目単語の単語ベクトルとの類似度は,着目単語の用法の判断において効果的な要素ではない可能性が考えられる.そこで,周辺単語${w_j\in{\bfw_c}}$から機能語を排除した時の部分集合${{\bfw_{c^{'}}}\subseteq{\bfw_c}}$を用いて式(1)を計算するモデルにおいても実験を行った.\cite{Mikolov2013nips}は,高頻度語のもつ情報量は低頻度語のもつ情報量よりも少ないという仮定に基づき,Skip-gramの学習時にサブサンプリングによって学習コーパス中に出現する単語の出現頻度に応じて文中からコーパス内の単語それぞれを確率的に除外した上で学習を行っているが\footnote{\citeA{Mikolov2013nips}における2.3節に詳細が記述されている.},多くの機能語は高頻度語に該当することから類似した処理であると言える.さらに,ニューラルネットの層の深さが検出精度に関係するか調査するため,文脈をベクトル化する手法として提案されているcontext2vec\cite{context2vec}との比較も行う.提案モデルが1層の浅いニューラルネットモデルであるのに対して,context2vecはBi-directionalLSTM(Bi-LSTM)を活用した多層のモデルである.また,Skip-gramが,着目単語の前後窓幅分の周辺単語を用いて着目単語を予測するのに対して,context2vecでは,入力文の左から着目単語まで,および右から着目単語までを使用して予測を行うという違いがある.context2vecでは,文全体の単語埋め込みをBi-LSTMに入力し,着目単語の左側,および右側のBi-LSTMの出力層を結合し,2層の多層パーセプトロンに入力し,その出力層(文脈ベクトル)を用いて,着目単語を予測するモデルである.本タスクにおいては,文脈ベクトルと着目単語の単語ベクトルの内積に対してシグモイド関数を適用した値を一般性スコアとして扱う.
\section{実験}
\subsection{実験設定}単語ベクトルの学習にあたっては,次元を300とした.また,各コーパスにおいて,出現頻度が5回未満の単語は,$<$unk$>$に置き換えて学習を行った.SGNSによる単語ベクトルの学習には,Pythonライブラリの一つである{\small\verb|gensim|}\cite{rehurek_lrec}による実装を使用し,ネガティブサンプリングの数を10とした.SVDによる単語ベクトルの学習には,\citeA{levy2015}の実装\footnote{https://bitbucket.org/omerlevy/hyperwords}を使用した.学習epoch数は5とした.また,単語ベクトルを学習する際の窓幅は2,5,10としてそれぞれ実験を行った.context2vecの学習にあたっては,ネガティブサンプリング数を10,最適化手法にはAdam\cite{adam}を使用した.学習率は$10^{-3}$として学習を行った.その他の隠れ層や単語ベクトルの次元などの詳細なパラメータを表\ref{tb:c2v_param}に示す.また,学習の効率化のため,実験に使用するコーパスのうち,BCCWJとWebは中規模,WikipediaとNewspaperは大規模なコーパスであるとみなし,中規模コーパスで学習する際には,ミニバッチ数100,学習epoch数10,5回未満の出現頻度の単語を$<$unk$>$と置き換えて学習を行い,大規模コーパスで学習する際には,ミニバッチ数500,学習epoch数5,10回未満の出現頻度の単語を$<$unk$>$と置き換えて学習を行った.\begin{table}[t]\caption{context2vecのパラメータ}\label{tb:c2v_param}\input{05table06.tex}\end{table}評価には,テストセットの各事例で計算された一般性スコアを昇順にソートし,一般性スコアが低い順に非一般的用法として分類した時の平均適合率を使用する.さらに,これらの実験に加えて,3.3節に示した機能語を使用しない場合における実験も行う.また,誤り分析を行うため,任意の値を閾値として設定し,計算された一般性スコアが閾値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った.閾値には,分類時に非一般的用法を正例とした時に計算されるF値が最も大きくとなるような閾値を使用した.\subsection{結果}表\ref{tb:res}に実験結果を示す.表\ref{tb:res}におけるweightedおよびuniformは,それぞれ,着目単語の周辺単語に対する重み付けを行った場合,行わない場合に対応する.また,ダガー($\dagger$)は,提案手法であるBCCWJを用いた時のSGNSIN-OUTweightedモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.太字は,SGNSIN-OUT,SGNSIN-IN,SVDモデルによって得られた平均適合率のうち,設定された各窓幅2,5,10ごとでの実験結果を比較した際に最も平均適合率が高いことを示す.\begin{table}[t]\caption{各モデルによる平均適合率}\label{tb:res}\input{05table07.tex}\end{table}\subsubsection{各モデルごとの実験結果の比較}表\ref{tb:res}より,最も高い平均適合率を達成したモデルは,学習コーパスとしてWikipediaを使用した時のcontext2vecであり,その値は0.845であった.提案手法であるSGNSIN-OUTweightedモデルは,学習コーパスとしてBCCWJを使用し,窓幅を5と設定した時に最も高い平均適合率を達成し,その値は0.839であった.context2vecを用いた場合の平均適合率は0.803から0.845と高い値で安定していることがわかるため,ニューラルネットの層の深さは検出精度に貢献すると考えられる.実験結果から,提案手法であるSGNSIN-OUTのような層が浅いモデルでも,単語ベクトルの学習手法,学習された単語ベクトルの扱い方,学習コーパスを適切に選択することで,層が深いモデルと同等の性能を達成できることがわかった.次に,設定された各窓幅ごとでの性能を比較する.表\ref{tb:res}において,各モデルによって得られた平均適合率のうち,窓幅2,5,10ごとでの実験結果を比較すると,それぞれで最も平均適合率が高かったモデルは,全てBCCWJを学習コーパスとして使用した際のSGNSIN-OUTモデルであった.これより,BCCWJとSGNSIN-OUTを用いることによって,単語ベクトルの学習に使用する窓幅に関わらず高い平均適合率を達成する傾向があるといえる.また,窓幅を2と設定した場合の実験結果では,全12モデル中11モデルにおいて,重み付けによる平均適合率の減少が見られた.モデルが参照できる周辺単語が少ない場合では,重み付けによって着目単語周辺の機能語が強調されてしまい,これが悪影響となって平均適合率が減少した可能性が高い.この点は,後述の機能語を使用しないモデルにおける実験結果との関連があると考えられる.\label{seq:main_res}\subsubsection{機能語を使用しないモデルにおける実験結果}表\ref{tb:res_filter}に,一般性スコアの計算時に機能語を使用しないモデルにおける平均適合率を示す.ダガー($\dagger$)は,提案手法であるBCCWJを用いた時のSGNSIN-OUTweightedモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.表\ref{tb:res_filter}より,機能語を使用しない場合においては,提案手法であるSGNSIN-OUTweightedモデルが最も高い平均適合率を達成した.これは,窓幅を5と設定し,学習コーパスとしてBCCWJ使用したモデルであり,平均適合率は0.857であった.\begin{table}[b]\caption{機能語を使用しないモデルにおける平均適合率}\label{tb:res_filter}\input{05table08.tex}\end{table}\begin{table}[b]\caption{機能語を使用するモデルと使用しないモデルでの平均適合率に統計的有意差が見られたモデル}\label{tb:filter_test}\input{05table09.tex}\end{table}表\ref{tb:res},表\ref{tb:res_filter}より,一般性スコアの計算時に機能語を使用しないことで,全76モデル中48モデルにおいて,平均適合率の向上が確認された.このうち,12モデルにおいて,機能語を使用しない場合の平均適合率と,機能語を使用した場合の平均適合率との間に統計的有意差が確認された.この有意差が確認されたモデルを表\ref{tb:filter_test}に示す.なお,26モデルでは,機能語を使用しないことで平均適合率の値が減少し,2つのモデルでは,平均適合率に変化がなかった.特に,context2vecを用いた4モデルでは機能語を使用しないことで平均適合率が減少する傾向にある.context2vecは,単語埋め込みを行った後,その情報をBi-LSTM,多層パーセプトロンに入力し着目単語の予測を行うモデルである.この時に,機能語を使用しないことによって,Bi-LSTMの言語モデルとしての働きを弱め,結果として予測がうまくいかなかったと考えられる.最もスコアが向上したモデルは,窓幅を10と設定し,学習コーパスとしてWebを用いた時のSVDweightedモデルであり,0.144ポイントの向上が見られた.また,最もスコアが減少したモデルは,学習コーパスとしてWebを用いた時のcontext2vecで,0.414ポイントの減少が見られた.以上の実験結果より,機能語の扱い方を考慮することが平均適合率の向上に貢献する可能性が高いと考えられる.次に,設定された各窓幅ごとでの性能を比較する.表\ref{tb:res_filter}において,各モデルで得られた平均適合率のうち,窓幅2,5,10ごとでの実験結果を比較した際に,最も平均適合率が高かったモデルは,それぞれBCCWJを学習コーパスとして使用した際のSGNSIN-OUTモデルであり,実験結果の大まかな傾向は\ref{seq:main_res}項にあるものと同様であることがわかる.また,窓幅を2と設定した場合の実験結果に着目すると,重み付けによる平均適合率の減少が見られたモデルは,全12モデル中3モデルであり,\ref{seq:main_res}項で見られた重み付けによる悪影響が軽減していることがわかる.これは,窓幅が小さい設定においては,機能語による悪影響があったことを示唆している.\subsubsection{重み付けの有無に関する実験結果の比較}表\ref{tb:res}より,重み付けを行うモデル(weighted)と行わないモデル(uniform)間における平均適合率の変化を調査すると,36モデル中22モデルが重み付けを行うことによって平均適合率が向上している.また,13モデルでは平均適合率が減少し,1つのモデルでは平均適合率の変化が見られなかった.表\ref{tb:res_filter}に示した機能語を使用しない条件での実験結果では,重み付けを行うことによって36モデル中30モデルにおいて平均適合率が向上した.4モデルにおいては平均適合率が減少し,2つのモデルでは平均適合率の変化が見られなかった.重み付けの有意性を調査するため,これらの実験結果に対して検定を行ったところ,重み付けを行うモデルによって得られた平均適合率と,行わないモデルによって得られた平均適合率との間に統計的有意差が確認されたのは,72ペアのうち36ペアだった.検定結果を表\ref{tb:weight}に示す\footnote{表\ref{tb:weight}における「w/機能語」は機能語を使用するモデル,「w/o機能語」は機能語を使用しないモデルに該当する.チェックマーク(\checkmark)は,重み付けを行うモデルによって得られた平均適合率が,行わないモデルによって得られた平均適合率よりも統計的に有意であることを表す.ただし,ダブルダガー($\ddagger$)は,重み付けを行わないモデルによって得られた平均適合率が,重み付けを行うモデルによって得られた平均適合率よりも統計的に有意であることを示す.}.全てのパターンで統計的な有意差は見られなかったものの,提案手法を使用するにあたっては,着目単語からより近い周辺単語が本タスクを解く上での手がかりとなっていることがわかった.\begin{table}[b]\caption{重み付けによる統計的有意性の調査}\label{tb:weight}\input{05table10.tex}\end{table}\subsubsection{各モデルにおける平均適合率の最高値の比較}表\ref{tb:best_results}に,これまでの実験において各モデルで達成した平均適合率の最高値と実験設定をまとめる.ダガー($\dagger$)は,提案手法であるSGNSIN-OUTによって得られた実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.提案手法であるSGNSIN-OUTモデルで得られた平均適合率と比較手法で得られた平均適合率との間に,統計的有意差が確認されたのはSVDモデルとSGNSIN-INモデルであった.これらの結果から,本タスクにおいては,$v^{IN}$だけではなく$v^{OUT}$も使用することが平均適合率の向上に寄与していることがわかる.また,SGNSIN-INモデルとSVDモデルにおける平均適合率の間で検定を行ったところp値は0.089であった.実験結果では,SGNSを用いた手法の方がより高い平均適合率を達成する傾向にあるが,その差は有意なものではなかった.\begin{table}[b]\caption{各モデルにおいて平均適合率が最も高かった時の実験設定}\label{tb:best_results}\input{05table11.tex}\end{table}続いて,各手法ごとでの実験設定に着目する.SGNSを用いる手法では,学習コーパスとしてBCCWJを使用,重み付けを適用し,機能語を使用しないことで,高い平均適合率を達成する傾向にある.また,SVDおよびcontext2vecを用いる手法ではWikipediaを学習コーパスとして使用し,機能語を使用することで最も高い平均適合率を達成している.より高い平均適合率が達成することができる学習コーパスは,単語ベクトルの学習手法ごとに異なることから,各手法に適した学習コーパスを選択することが必要であると考えられる.\subsection{誤り傾向と正解例・誤り例の分析}これまでの実験では,評価データ中の文書に対して,各手法によって計算された一般性スコアを用いてソートした時のランキングに対する評価を行った.本節では,誤り分析のため,ある閾値を設定し,計算された一般性スコアが閾値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った.本実験では,閾値を0.001から1.000の範囲で0.001刻みで設定し,それぞれの値をもって分類を行った時,分類時に計算されるF値が最も大きくとなるような閾値を使用した.表\ref{tb:classification}に,各モデルごとで上述の閾値を用いた場合に計算される適合率,再現率,F値を示す.太字は,各評価指標において最も性能が高いことを示し,ダガー($\dagger$)は,提案手法であるSGNSIN-OUTモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.なお,実験には表\ref{tb:best_results}に示したモデルを使用した.実験結果から,提案手法によって得られたF値が,各モデルによって得られたF値の中で最も高く,その値は0.796であった.また,適合率が最高値となったモデルは,提案手法であるSGNSIN-OUTであり,再現率が最高値となったモデルはcontext2vecを用いた手法であった.\begin{table}[b]\caption{各モデルによって計算された非一般的ラベルに対する適合率・再現率・F値}\label{tb:classification}\input{05table12.tex}\end{table}次に,表\ref{tb:dataset_annotation}に示したそれぞれのクラスごとに対する評価値を調査する.作成したデータセットでは,単語ごとにラベルの偏りが見られ,表\ref{tb:dataset_annotation}では,アノテーション対象とした40語がどちらのラベルに偏りがあったか,もしくは偏りがなかったかの3クラスを示した.クラスごとでの各評価値の変化を調査するため,各クラスごとでの適合率,再現率,F値を計算した.なお,実験に使用した閾値は上述の実験と同値である.これらの結果を表\ref{tb:results_for_each_label}に示す.ダガー($\dagger$)は,提案手法であるSGNSIN-OUTモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.非一般的ラベル優勢クラスにおける適合率はそれぞれのモデルにおいて高い傾向にある一方で,一般的ラベル優勢クラスにおける適合率は低い傾向にあり,評価値の偏りが見られた.これらの結果より,全体のF値が大きくなるような閾値を設定すると,多くの人が一般的ではない用法として扱うような単語に対する検出はうまくいくものの,少数の人のみが使用しているような用法を持つ単語については,誤検出が多いということがわかった.\begin{table}[t]\caption{各クラスごとの適合率・再現率・F値}\label{tb:results_for_each_label}\input{05table13.tex}\end{table}続いて,提案手法による実験結果に対する定性的評価を行う.提案手法によって検出できた一般的ではない用法の例を次に示す.\quad(i)\spaceうちの場合\textbf{\underline{林檎}}は父が触ったことないし、Android端末いっぱい買って...\quad(ii)\space...国立\textbf{\underline{駅弁}}よりすこし高いくらいかなでもそこにいったって好きな研究室いけるとも...\quad(iii)\space光村雨チケ今回何枚取れるかなー久しぶりだから\textbf{\underline{泥}}率上げてくれるよね…?\quad(iv)...やっぱりLTで他全員でガン\textbf{\underline{芋}}してるのが一番強いんじゃないかな\quad(v)\space\textbf{\underline{鯖}}落ちだあああああああああああああああガチマに潜るなああああああああああ\\(i),(ii)の中の「林檎」や「駅弁」は,一般的ラベル優勢の単語に対しても一般的ではない用法を検出することができた例である.また,(iii),(iv)中の「泥」や「芋」のように,表\ref{tb:dataset}に示したような用法とは異なる一般的ではない用法に対しても,これを正しく検出することができた\footnote{この時の「泥」は,主にソーシャルゲームにおける「ドロップ」,「芋」は主にオンラインゲームにおける「スナイパー」を意味する.}.(v)の例は,context2vecを用いた手法で検出できなかったが,提案手法において検出が成功した事例である.context2vecは入力文全体を考慮する手法であるが,この事例は,全体を考慮することによって誤りとなった事例だと考えられる.一方で,提案手法は,着目単語の前後窓幅分の周辺単語に着目するため,周辺単語以外の情報に影響されずに,正しく検出することができたと考えられる.次に,提案手法によって検出できなかった一般的ではない用法を示す.\quad(vi)\spaceニコ動で実況者がワードバスケットやってて\textbf{\underline{草}}\quad(vii)\space55連でテレーゼ、エクセ、ユイ、\textbf{\underline{虹}}星1。引きは微妙だけど一番欲しかった...\quad(viii)\spaceあ〜、なんだこの気持ち。変なの\textbf{\underline{藁}}藁。醜い感情は押し殺せばいいか\quad(ix)\space零十サンの規制してしまった時用\textbf{\underline{垢}}。本垢フォローもよろしくでっす!!\quad(x)\space\textbf{\underline{養分}}辞めたい吸収される側から…する側になるためには…カネが…カネが必要…!\\(vi)の例のように,着目単語の周辺単語が少ない場合において,検出できなかった事例を確認した.しかし,(v)の例のように,周辺単語が少ないにも関わらず検出できた例も確認されているため,周辺単語の情報が少ない場合には,モデルの出力が不安定となると考えられる.次に,(vii)中の,「ユイ」,「エクセ」などのように,着目単語の近くの周辺単語が低頻度語・未知語に該当する場合において,検出できない事例を確認した.提案手法では,未知語が出現した場合には,予め学習された未知語に該当する単語ベクトルを使用しているが,このような事例に対応するためには,未知語の性質を考慮した個別な処理等が必要とされる.続いて,(viii),(ix)の例のように,着目単語の周辺単語として着目単語そのものが出現していた場合に,検出に失敗する傾向が見られた.これは,SGNSの学習過程より,着目単語自身の$v^{IN}$と$v^{OUT}$の内積値が高く計算される傾向にあることから\footnote{ランダムにサンプリングした10,000語を対象として,学習した単語ベクトルを用いて$v^{IN}$と$v^{OUT}$の内積値を計算したところ,ある着目単語自身の$v^{IN}$と$v^{OUT}$の内積値は,着目単語の$v^{IN}$とそれ以外の単語の$v^{OUT}$の内積値の平均値よりも高い傾向にあった.該当した事例は,10,000件中9,997件であった.なお,任意の単語自身の$v^{IN}$と$v^{IN}$の余弦類似度は常に1であるため,SGNSIN-INモデルにおいても本文中と同様の問題がある.},全体的な一般性スコアが高く計算され,これが要因となって検出に失敗したと考えられる.また,(x)の例は,提案手法で検出できなかったが,context2vecを用いた手法において検出が成功した事例である.提案手法は着目単語から固定窓幅分の周辺単語しか考慮しない手法である.そのため,(x)の例のように,着目単語と離れた位置にある「カネ」のような,単語の用法を判断する上で手がかりとなる要素を考慮することができず,検出に失敗したと考えられる.一方で,context2vecは,文脈全体を考慮するモデルであるため,検出に成功したと考えられる.\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\caption{提案手法における混同行列}\label{tb:confusion_proposed}\input{05table14.tex}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{context2vecにおける混同行列}\label{tb:confusion_context2vec}\input{05table15.tex}\end{minipage}\end{table}\subsection{混同行列による誤りの傾向分析}本節では,表\ref{tb:classification}に示した実験結果に対して,混同行列を用いた誤りの傾向分析を行う.ここでは,提案手法に加えて,表\ref{tb:best_results},\ref{tb:classification}より,これまでの実験で性能が高かったcontext2vecにおける分析も行う.表\ref{tb:confusion_proposed},\ref{tb:confusion_context2vec}に,それぞれの実験結果に対する混同行列を示す.本タスクにおける誤りとしては,表中の右上に該当する非一般的用法であるにも関わらずこれを検出できないような「見逃し」と,表中の左下に該当する一般的用法であるにも関わらず非一般的用法として判断してしまう「誤検出」の2パターンが存在する.表\ref{tb:confusion_proposed}より,提案手法では,見逃しが220件,誤検出が332件であった.また,表\ref{tb:confusion_context2vec}より,比較手法であるcontext2vecを用いた手法では,見逃しが192件,誤検出が384件であった.これらを比較すると,提案手法は,見逃しが多く誤検出が少ない手法,context2vecを用いた手法は,反対に,誤検出が多く見逃しが少ない手法であると言える.本タスクにおける誤りパターンである「見逃し」と「誤検出」のどちらがリスクとみなすかは,本研究を適用するアプリケーションに依存する.例として,本研究を一般的ではない用法の辞書の作成に応用した場合を考える.このような辞書の作成においては,見逃された用法をコーパスから探すことは難しい一方で,誤って一般的ではないと判断された語を人手で確認することは容易である.したがって,本研究を一般的ではない用法の辞書作成に応用した場合には,相対的に「見逃し」が少ない手法が望ましいと考えられる.次に,本研究を一般的ではない用法も解釈するような対話システムの作成に応用した場合を考える.このような対話システムでは,一般的ではない用法を検出できなかった場合と比べ,一般的な用法を誤って解釈した場合の方が,システムへの信頼性が低下しやすいと考えられる.したがって,対話システムに応用した場合には「誤検出」の少ない手法の方が望ましいと考えられる.\subsection{提案手法・context2vecにおいてともに誤りを出力した事例}本節では,4.3節で行った実験結果のうち,提案手法およびcontext2vecを用いた手法において,両方のモデルで共通した誤り事例に対する分析を行う.両モデルにおける共通の誤り事例は235件あり,そのうち,「見逃し」に該当するものが84件,「誤検出」に該当するものが151件であった.例として,表\ref{tb:false_all}に,誤りを出力した20件を示す.\begin{table}[t]\caption{提案手法およびcontext2vecを用いた手法において誤りを出力した事例}\label{tb:false_all}\input{05table16.tex}\end{table}まず,表中において「見逃し」に該当する(1)〜(10)に着目する.(1)〜(3)は,着目単語が文の後半に位置していた事例である.このような事例に対して,提案手法においては,扱える周辺単語の情報が少ないため,モデルの出力が不安定となることが検出失敗の要因であると推測される.context2vecを用いた手法では,入力ツイート中の文脈を考慮することができると考えられるが,周辺単語の情報量の不足による影響が少なからずあったと推測される.また,(4)〜(6)中の「シャロン」,「ノンノ」,「グラブル」など,着目単語の周辺単語として,学習コーパス中における未知語または低頻度語に該当する単語が出現した場合に,モデルが正しく検出できない傾向が見られた.これは,提案手法およびcontext2vecに限らず,機械学習を用いた手法における未知語の扱い方に関連する問題だと考えられる.この点については,例えば固有表現解析,係り受け解析,形態素解析などによって得られた結果を追加情報を活用することで,未知語による悪影響を軽減できる可能性がある.さらに,(7)〜(8)のように,着目単語の周辺単語として,着目単語自身が出現している場合にも検出に失敗しやすいことがわかった.このような場合において,4.3節の実験結果では,提案手法による一般性スコアが高く計算される傾向にあることを示したが,context2vecを用いた手法においても同様の問題があった.また,評価データ中のアノテーションにはミスが見られ,これによって誤りと判定される事例が確認された.(9)中の「尼」は固有表現の一部であり,(10)中の「安価」は一般的用法として扱われていると考えられる.次に,「誤検出」に該当する(11)〜(20)に着目する.(11)〜(13)は,「見逃し」のパターンと同様に,着目単語の周辺単語の情報が少ない場合において誤りとなった事例であり,このような場合には,モデルの出力が不安定となることがわかった.(14)〜(18)のように,着目単語の周辺単語として,人名や地名などの固有表現が出現した際に,モデルが誤りを出力する事例を確認した.これは,学習モデルにおける未知語や低頻度語の扱い方に関連する問題であると考えられる.この点については,文脈中に出現する固有表現に関する知識など,何らかの追加情報を活用することで,このような事例を正しく判断することができると考えられる.また,(9),(10)の事例と同様に,アノテーションのミスによって誤りと判定されている事例が確認された.(19)中の「蔵」は固有表現の一部であり,(20)中の「草」は非一般的用法として扱われていると考えられる.
\section{関連研究}
本研究と関連している自然言語処理の研究分野として,新語義検出\cite{sinnou:2012}や新語義の用例のクラスタリング\cite{lau-EtAl:2012:EACL2012}が挙げられる.しかし,本研究で扱う表現は,特定のドメインにおいて語義が変化するという性質を持つため,これらの一般的な語義に着目した研究とは枠組みが異なる.また,\citeA{bamman-dyer-smith:2014:P14-2}は,話者の地域によって,語の持つ意味が異なるという点に着目し,状況に応じた語の意味表現ベクトルを獲得する手法を提案している.本研究も同様に,同一語の用法の違いに着目しているが,Bammanらが地域ごとの語の使われ方の違いに着目しているのに対し,本研究では語の使われ方が一般的であるかそうでないかに着目する.また,Multi-WordExpressionやイディオムのような形で表される単語の用法分類も行われてきた\cite{kiela-clark:2013:EMNLP,salehi-cook-baldwin:2015:NAACL-HLT,li2010}.本研究では,単語の用法の一般性という点に着目しているため,対象としている現象の性質という点で,これらは本研究とは異なる.Web上で使用される単語の一般的ではない用法に関する研究もいくつか存在する.\citeA{cook-EtAl:2014:Coling}は,辞書に採録されていないような単語の用法の検出を行っている.CookらがWeb上のテキストを対象としているのに対して,本研究では,ソーシャルメディアにおける単語の非一般的用法に着目している.\citeA{sboev:2016}は,インターネットにおいてのみ使われる中国語の俗語表現の分析を行った.\citeA{yamada}は,有害情報を表す隠語に焦点を当てて,隠語を概念化するフレームワークを提案し,隠語表現の分類を行った.山田らは,隠語の知識を含んだ辞書を作成し,分類タスクを解いたが,作成した辞書のみでは隠語表現の多様性の対応に不十分であったと報告している.本研究は,単語の一般的ではない用法の検出を行うことに主眼をおいているため,表現の分析に重きをおいているSboevの研究とは目的が異なる.また,山田らが有害情報を表す隠語に着目しているのに対して,本研究では,隠語のみならず,俗語や若者言葉のような,本来の単語の意味が変化して使われるようになった表現に着目している.加えて,山田らがドメインに特化した知識を用いているのに対し,本研究で提案する手法ではそのような知識を必要としないという違いがある.\citeA{matsumoto2017WII-A}は,若者言葉を代表とする俗語を対象として,それを感性評価軸とその俗語が持っている意味ベクトルを用いることによって,俗語を標準語へ変換する手法を提案した.松本らが着目している単語は,臆病の意味で使用される「チキン」というように,その表現の意味する概念に対して感性的要素が含まれるような単語であった.しかし,本研究で着目している単語については,「サーバ」の意味で使用される場合の「鯖」など,必ずしも感性的な印象が付与されるとは限らないため,この点で松本らの研究と着目対象とする単語の性質が異なる.また,近年,単語の分散表現を活用した研究は多肢に渡っており,時間変化による意味変化や地域による単語の使われ方の変化,単語の持つ感情極性の変化を分析するような研究でも広く使われている技術である\cite{mitra-EtAl:2014:P14-1,kulkarni2015statistically,TACL796,eisenstein-EtAl:2010:EMNLP,hamilton-EtAl:2016:EMNLP2016,yang2016sentiment}.さらに,一般的な多義性を扱うための分散表現\cite{neelakantan-EtAl:2014:EMNLP2014,gaussian_emb_1,gaussian_emb_2,topic_emb}や文脈をうまく表現するための分散表現\cite{context2vec,elmo}なども研究されてきたが,本研究の目的は,ある特定領域で別の意味を持つ単語の検出であるため,これらの研究とは目的が異なる.本研究で着目する出力側の単語ベクトル$v^{OUT}$を活用した研究は少ないが,$v^{OUT}$を効果的に使うことで,文書のランキングや\cite{DBLP:journals/corr/MitraNCC16}言語モデルの改善\cite{eacl17oflr,kobayashi-okazaki-inui:2017:I17-1}に有効だったと報告されている.また,\citeA{TACL1065}は本研究で用いたSGNSを単語に対する知識表現も学習できるように拡張し,$v^{IN}$は単語ベクトルを,$v^{OUT}$は$v^{IN}$に対応する単語の知識表現を学習することによって,SemanticTextualSimilarity,EntityLinking,そしてFactoid型質問応答の3つのタスクにおいてState-of-the-artを達成している.
\section{まとめ}
本研究では,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,単語の一般的ではない用法の自動検出を行った.提案手法では,Skip-gramwithNegativeSamplingを用いて均衡コーパスから学習した単語ベクトルを用いて,着目単語の単語ベクトルと着目単語の周辺単語の単語ベクトルの内積に対してシグモイド関数を適用した値の加重平均を,着目単語の用法の一般性スコアとして扱い,一般性スコアが高い場合に一般的,低い場合に非一般的と判断する.この際,従来の研究で一般的に用いられている$v^{IN}$だけではなく,$v^{OUT}$を組み合わせて使用した.事前に選定した40語を対象に,与えられた文における用法が一般的であるかそうでないかアノテーションしたデータセットを用いた評価実験の結果,均衡コーパスから学習されたベクトルを使用し,さらに$v^{OUT}$ベクトルと加重平均を一般性スコアの計算に活用することで,高い精度を達成できることを示した.この結果,出力側単語ベクトル$v^{OUT}$が,文中のある単語とその周辺単語を参照するようなタスクにおいて有用であることを可能性を示している.また,着目単語の周辺単語に対して,それらと着目単語との距離に応じて,単語ベクトルの重み付けを行うことによって評価値の向上が見られたことから,着目単語と距離の近い周辺単語が一般的ではない用法の検出において,より重要な手がかりとなっていると考えられる.さらに,提案手法においては,一般性スコアの計算時に機能語を使用しないことで評価値の向上が見られたから,機能語が持つ情報は一般的ではない用法の検出においては重要ではない可能性があると思われる.本研究は,ソーシャルメディア上で一般的ではない使われ方がされている語の分析の手始めとして取り組んだ.本研究で提案した手法を拡張することにより,ソーシャルメディアにおける単語の用法の分析に貢献できると期待される.本研究における評価実験は,作成したデータセットを用いたクローズドな問題設定だったが,提案手法によって計算された一般性スコアに対して閾値推定を施すことにより,未知のデータから一般的ではない用法を抽出するなど,オープンな問題設定に対しても適用可能だと考えられる.ソーシャルメディアにおいて,どのくらいの語が非一般的用法で用いられているかの分析や,単語の一般的ではない用法の検出だけではなく,その意味の自動獲得などが,本研究のさらなる発展として考えられる.\acknowledgment本論文の一部は,The2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2017)で発表したものです\cite{tatsuo}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aoki,Sasano,Takamura,\BBA\Okumura}{Aokiet~al.}{2017}]{tatsuo}Aoki,T.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2017\BBCP.\newblock\BBOQDistinguishingJapaneseNon-standardUsagesfromStandardOnes.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'17},\mbox{\BPGS\2323--2328}.\bibitem[\protect\BCAY{Athiwaratkun\BBA\Wilson}{Athiwaratkun\BBA\Wilson}{2017}]{gaussian_emb_2}Athiwaratkun,B.\BBACOMMA\\BBA\Wilson,A.\BBOP2017\BBCP.\newblock\BBOQMultimodalWordDistributions.\BBCQ\\newblockIn{\BemProceedingsofACL'17},\mbox{\BPGS\1645--1656}.\bibitem[\protect\BCAY{Bamman,Dyer,\BBA\Smith}{Bammanet~al.}{2014}]{bamman-dyer-smith:2014:P14-2}Bamman,D.,Dyer,C.,\BBA\Smith,N.~A.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofGeographicallySituatedLanguage.\BBCQ\\newblockIn{\BemProceedingsofACL'14},\mbox{\BPGS\828--834}.\bibitem[\protect\BCAY{Cook,Lau,McCarthy,\BBA\Baldwin}{Cooket~al.}{2014}]{cook-EtAl:2014:Coling}Cook,P.,Lau,J.~H.,McCarthy,D.,\BBA\Baldwin,T.\BBOP2014\BBCP.\newblock\BBOQNovelWord-senseIdentification.\BBCQ\\newblockIn{\BemProceedingsofCOLING'14},\mbox{\BPGS\1624--1635}.\bibitem[\protect\BCAY{Eisenstein,O'Connor,Smith,\BBA\Xing}{Eisensteinet~al.}{2010}]{eisenstein-EtAl:2010:EMNLP}Eisenstein,J.,O'Connor,B.,Smith,N.~A.,\BBA\Xing,E.~P.\BBOP2010\BBCP.\newblock\BBOQALatentVariableModelforGeographicLexicalVariation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'10},\mbox{\BPGS\1277--1287}.\bibitem[\protect\BCAY{Fadaee,Bisazza,\BBA\Monz}{Fadaeeet~al.}{2017}]{topic_emb}Fadaee,M.,Bisazza,A.,\BBA\Monz,C.\BBOP2017\BBCP.\newblock\BBOQLearningTopic-SensitiveWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofACL'17},\mbox{\BPGS\441--447}.\bibitem[\protect\BCAY{Frermann\BBA\Lapata}{Frermann\BBA\Lapata}{2016}]{TACL796}Frermann,L.\BBACOMMA\\BBA\Lapata,M.\BBOP2016\BBCP.\newblock\BBOQABayesianModelofDiachronicMeaningChange.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{Gharbieh,Virendra,\BBA\Cook}{Gharbiehet~al.}{2016}]{MWEemb}Gharbieh,W.,Virendra,B.,\BBA\Cook,P.\BBOP2016\BBCP.\newblock\BBOQAWordEmbeddingApproachtoIdentifyingVerb-NounIdiomaticCombinations.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponMultiwordExpressions},\mbox{\BPGS\112--118}.\bibitem[\protect\BCAY{Hamilton,Clark,Leskovec,\BBA\Jurafsky}{Hamiltonet~al.}{2016}]{hamilton-EtAl:2016:EMNLP2016}Hamilton,W.~L.,Clark,K.,Leskovec,J.,\BBA\Jurafsky,D.\BBOP2016\BBCP.\newblock\BBOQInducingDomain-SpecificSentimentLexiconsfromUnlabeledCorpora.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'16},\mbox{\BPGS\595--605}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{WEBcrawl}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHighPerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofLREC'06},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kiela\BBA\Clark}{Kiela\BBA\Clark}{2013}]{kiela-clark:2013:EMNLP}Kiela,D.\BBACOMMA\\BBA\Clark,S.\BBOP2013\BBCP.\newblock\BBOQDetectingCompositionalityofMulti-WordExpressionsusingNearestNeighboursinVectorSpaceModels.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'13},\mbox{\BPGS\1427--1432}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofICLR'15}.\bibitem[\protect\BCAY{Kobayashi,Okazaki,\BBA\Inui}{Kobayashiet~al.}{2017}]{kobayashi-okazaki-inui:2017:I17-1}Kobayashi,S.,Okazaki,N.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQANeuralLanguageModelforDynamicallyRepresentingtheMeaningsofUnknownWordsandEntitiesinaDiscourse.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP'17},\mbox{\BPGS\473--483}.\bibitem[\protect\BCAY{Kulkarni,Al-Rfou,Perozzi,\BBA\Skiena}{Kulkarniet~al.}{2015}]{kulkarni2015statistically}Kulkarni,V.,Al-Rfou,R.,Perozzi,B.,\BBA\Skiena,S.\BBOP2015\BBCP.\newblock\BBOQStatisticallySignificantDetectionofLinguisticChange.\BBCQ\\newblockIn{\BemProceedingsofWWW'15},\mbox{\BPGS\625--635}.\bibitem[\protect\BCAY{Lau,Cook,McCarthy,Newman,\BBA\Baldwin}{Lauet~al.}{2012}]{lau-EtAl:2012:EACL2012}Lau,J.~H.,Cook,P.,McCarthy,D.,Newman,D.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQWordSenseInductionforNovelSenseDetection.\BBCQ\\newblockIn{\BemProceedingsofEACL'12},\mbox{\BPGS\591--601}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{NIPS2014_5477}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralWordEmbeddingasImplicitMatrixFactorization.\BBCQ\\newblockIn{\BemProceedingsofNIPS'14},\mbox{\BPGS\2177--2185}.\bibitem[\protect\BCAY{Levy,Goldberg,\BBA\Dagan}{Levyet~al.}{2015}]{levy2015}Levy,O.,Goldberg,Y.,\BBA\Dagan,I.\BBOP2015\BBCP.\newblock\BBOQImprovingDistributionalSimilaritywithLessonsLearnedfromWordEmbeddings.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\211--225}.\bibitem[\protect\BCAY{Li\BBA\Sporleder}{Li\BBA\Sporleder}{2010}]{li2010}Li,L.\BBACOMMA\\BBA\Sporleder,C.\BBOP2010\BBCP.\newblock\BBOQLinguisticCuesforDistinguishingLiteralandNon-LiteralUsages.\BBCQ\\newblockIn{\BemProceedingsofCOLING'10},\mbox{\BPGS\683--691}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{BCCWJ}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofLREC'10},\mbox{\BPGS\1483--1486}.\bibitem[\protect\BCAY{松本\JBA土屋\JBA芋野\JBA吉田\JBA北}{松本\Jetal}{2017}]{matsumoto2017WII-A}松本和幸\JBA土屋誠司\JBA芋野美紗子\JBA吉田稔\JBA北研二\BBOP2017\BBCP.\newblock感性を考慮した日本語俗語の標準語変換.\\newblock\Jem{人工知能学会論文誌},{\Bbf32}(1),\mbox{\BPG\WII{\Hy}A\_1{\Hy}12}.\bibitem[\protect\BCAY{Melamud,Goldberger,\BBA\Dagan}{Melamudet~al.}{2016}]{context2vec}Melamud,O.,Goldberger,J.,\BBA\Dagan,I.\BBOP2016\BBCP.\newblock\BBOQcontext2vec:LearningGenericContextEmbeddingwithBidirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsofCoNLL'16},\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov2013nips}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS'13},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mitra,Nalisnick,Craswell,\BBA\Caruana}{Mitraet~al.}{2016}]{DBLP:journals/corr/MitraNCC16}Mitra,B.,Nalisnick,E.~T.,Craswell,N.,\BBA\Caruana,R.\BBOP2016\BBCP.\newblock\BBOQADualEmbeddingSpaceModelforDocumentRanking.\BBCQ\\newblock{\BemarXiv:1602.01137}.\bibitem[\protect\BCAY{Mitra,Mitra,Riedl,Biemann,Mukherjee,\BBA\Goyal}{Mitraet~al.}{2014}]{mitra-EtAl:2014:P14-1}Mitra,S.,Mitra,R.,Riedl,M.,Biemann,C.,Mukherjee,A.,\BBA\Goyal,P.\BBOP2014\BBCP.\newblock\BBOQThat'sSickDude!:AutomaticIdentificationofWordSenseChangeAcrossDifferentTimescales.\BBCQ\\newblockIn{\BemProceedingsofACL'14},\mbox{\BPGS\1020--1029}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2014}]{neelakantan-EtAl:2014:EMNLP2014}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2014\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'14},\mbox{\BPGS\1059--1069}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{elmo}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL:HLT'18},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Press\BBA\Wolf}{Press\BBA\Wolf}{2017}]{eacl17oflr}Press,O.\BBACOMMA\\BBA\Wolf,L.\BBOP2017\BBCP.\newblock\BBOQUsingtheOutputEmbeddingtoImproveLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofEACL'17},\mbox{\BPGS\157--163}.\bibitem[\protect\BCAY{{\v{R}}eh{\r{u}}{\v{r}}ek\BBA\Sojka}{{\v{R}}eh{\r{u}}{\v{r}}ek\BBA\Sojka}{2010}]{rehurek_lrec}{\v{R}}eh{\r{u}}{\v{r}}ek,R.\BBACOMMA\\BBA\Sojka,P.\BBOP2010\BBCP.\newblock\BBOQSoftwareFrameworkforTopicModellingwithLargeCorpora.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponNewChallengesforNLPFrameworks},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{Salehi,Cook,\BBA\Baldwin}{Salehiet~al.}{2015}]{salehi-cook-baldwin:2015:NAACL-HLT}Salehi,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2015\BBCP.\newblock\BBOQAWordEmbeddingApproachtoPredictingtheCompositionalityofMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofNAACL-HLT'15},\mbox{\BPGS\977--983}.\bibitem[\protect\BCAY{Sboev}{Sboev}{2016}]{sboev:2016}Sboev,A.\BBOP2016\BBCP.\newblock\BBOQTheSourcesofNewWordsandExpressionsintheChineseInternetLanguageandtheWaysbyWhichTheyEntertheInternetLanguage.\BBCQ\\newblockIn{\BemProceedingsofPACLIC'16},\mbox{\BPGS\355--361}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2012}]{sinnou:2012}新納浩幸\JBA佐々木稔\BBOP2012\BBCP.\newblock外れ値検出手法を利用した新語義の検出.\\newblock\Jem{自然言語処理},{\Bbf19},\mbox{\BPGS\303--327}.\bibitem[\protect\BCAY{Vilnis\BBA\McCallum}{Vilnis\BBA\McCallum}{2015}]{gaussian_emb_1}Vilnis,L.\BBACOMMA\\BBA\McCallum,A.\BBOP2015\BBCP.\newblock\BBOQWordRepresentationsviaGaussianEmbedding.\BBCQ\\newblockIn{\BemProceedingsofICLR'15}.\bibitem[\protect\BCAY{山田\JBA安彦\JBA長谷川\JBAMichal\JBA中村\JBA佐久田}{山田\Jetal}{2016}]{yamada}山田大\JBA安彦智史\JBA長谷川大\JBAMichalPtaszynski\JBA中村健二\JBA佐久田博司\BBOP2016\BBCP.\newblockID交換掲示板における書き込み有害性評価に向けた隠語概念化手法の提案.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\49--50}.\bibitem[\protect\BCAY{Yamada,Shindo,Takeda,\BBA\Takefuji}{Yamadaet~al.}{2017}]{TACL1065}Yamada,I.,Shindo,H.,Takeda,H.,\BBA\Takefuji,Y.\BBOP2017\BBCP.\newblock\BBOQLearningDistributedRepresentationsofTextsandEntitiesfromKnowledgeBase.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\397--411}.\bibitem[\protect\BCAY{Yang\BBA\Eisenstein}{Yang\BBA\Eisenstein}{2016}]{yang2016sentiment}Yang,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2016\BBCP.\newblock\BBOQOvercomingLanguageVariationinSentimentAnalysiswithSocialAttention.\BBCQ\\newblock{\BemarXiv:1511.06052}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{青木竜哉}{2016年筑波大学情報学群情報メディア創成学類卒業.2018年東京工業大学工学院博士前期課程修了.同年より,同大学院博士後期課程に在籍.}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).自然言語処理,特に述語項構造解析に関する研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在は,科学技術創成研究院教授.2017年より,理化学研究所革新知能統合研究センター(AIP)客員研究員を兼務.工学博士.自然言語処理,テキスト要約,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V16N05-01
|
\section{はじめに}
一般的な分野において精度の高い単語分割済みコーパスが利用可能になってきた現在,言語モデルの課題は,言語モデルを利用する分野への適応,すなわち,適応対象分野に特有の単語や表現の統計的振る舞いを的確に捉えることに移ってきている.この際の標準的な方法では,適応対象のコーパスを自動的に単語分割し,単語$n$-gram頻度などが計数される.この際に用いられる自動単語分割器は,一般分野の単語分割済みコーパスから構築されており,分割誤りの混入が避けられない.特に,適切に単語分割される必要がある適応対象分野に特有の単語や表現やその近辺において誤る傾向があり,単語$n$-gram頻度などの信頼性を著しく損なう結果となる.上述の単語分割誤りの問題に対処するため,確率的単語分割コーパスという概念が提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この枠組では,適応対象の生コーパスは,各文字の間に単語境界が存在する確率が付与された確率的単語分割コーパスとみなされ,単語$n$-gram確率が計算される.従来の決定的に自動単語分割された結果を用いるより予測力の高い言語モデルが構築できることが確認されている.また,仮名漢字変換\cite{無限語彙の仮名漢字変換}や音声認識\cite{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}においても,従来手法に対する優位性が示されている.確率的単語分割コーパスの初期の論文では,単語境界確率は,自動分割により単語境界と推定された箇所で単語分割の精度$\alpha$(例えば0.95)とし,そうでない箇所で$1-\alpha$とする単純な方法により与えられている\footnote{前後の文字種(漢字,平仮名,片仮名,記号,アラビア数字,西洋文字)によって場合分けし,単語境界確率を学習コーパスから最尤推定しておく方法\cite{生コーパスからの単語N-gram確率の推定}も提案されているが,構築されるモデルの予測力は単語分割の精度を用いる場合よりも有意に低い.後述する実験条件では,文字種を用いる方法によって構築されたモデルと単語分割の精度を用いる方法によって構築されたモデルによるエントロピーはそれぞれ4.723[bit]と3.986[bit]であった.}.実際には,単語境界が存在すると推定される確率は,文脈に応じて幅広い値を取ると考えられる.例えば,学習コーパスからはどちらとも判断できない箇所では1/2に近い値となるべきであるが,既存手法では1に近い$\alpha$か,0に近い$1-\alpha$とする他ない.この問題に加えて,既存の決定的に単語分割する手法よりも計算コスト(計算時間,記憶領域)が高いことが挙げられる.その要因は2つある.1つ目は,期待頻度の計算に要する演算の種類と回数である.通常の手法では,学習コーパスは単語に分割されており,これを先頭から単語毎に順に読み込んで単語辞書を検索して番号に変換し,対応する単語$n$-gram頻度をインクリメントする.単語辞書の検索は,辞書をオートマトンにしておくことで,コーパスの読み込みと比較して僅かなオーバーヘッドで行える\cite{DFAによる形態素解析の高速辞書検索}.これに対して,確率的単語分割コーパスにおいては,全ての連続する$n$個の部分文字列($L$文字)に対して,$L+1$回の浮動小数点数の積を実行して期待頻度を計算し,さらに1回の加算を実行する必要がある(\subref{subsection:EF}参照).2つ目の要因は,学習コーパスのほとんど全ての部分文字列が単語候補になるため,語彙サイズが非常に大きくなることである.この結果,単語$n$-gramの頻度や確率の記憶領域が膨大となり,個人向けの計算機では動作しなくなるなどの重大な制限が発生する.例えば,本論文で実験に用いた44,915文の学習コーパスに出現する句読点を含まない16文字以下の部分文字列は9,379,799種類あった.このうち,期待頻度が0より大きい部分文字列と既存の語彙を加えて重複を除いた結果を語彙とすると,そのサイズは9,383,985語となり,この語彙に対する単語2-gram頻度のハッシュによる記憶容量は10.0~GBとなった.このような時間的あるいは空間的な計算コストにより,確率的単語分割コーパスからの言語モデル構築は実用性が高いとは言えない.このことに加えて,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などのすでに提案されている様々な言語モデルの改良を試みることが困難になっている.本論文では,まず,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案する.さらに,確率的単語分割コーパスを通常の決定的に単語に分割されたコーパスにより模擬する方法を提案する.最後に,実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが大幅に削減可能であることを示す.これにより,高い性能の言語モデルを基礎として,既存の言語モデルの改良法を試みることが容易になる.
\section{確率的単語分割コーパスからの言語モデルの推定}
\label{section:raw}確率的言語モデルを新たな分野に適応する一般的な方法は,適応分野のコーパスを用意し,それを自動的に単語分割し,単語の頻度統計を計算することである.この方法では,単語分割誤りにより適応分野のコーパスにのみ出現する単語が適切に扱えないという問題が起こる.この解決方法として,適応分野のコーパスを確率的単語分割コーパスとして用いることが提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この節では,確率的単語分割コーパスからの確率的言語モデルの推定方法について概説する.\subsection{確率的単語分割コーパス}\label{subsection:EM}確率的単語分割コーパスは,生コーパス$C_{r}$(以下,文字列$\Bdma{x}_1^{n_{r}}$として参照)とその連続する各2文字$x_{i},x_{i+1}$の間に単語境界が存在する確率$P_{i}$の組として定義される.最初の文字の前と最後の文字の後には単語境界が存在するとみなせるので,$i=0,\;i=n_{r}$の時は便宜的に$P_{i}=1$とされる.確率変数$X_{i}$を\[X_{i}=\left\{\begin{array}{rl}1&\mbox{$x_{i},x_{i+1}$の間に単語境界が存在する場合}\\0&\mbox{$x_{i},x_{i+1}$が同じ単語に属する場合}\end{array}\right.\]とし($P(X_{i}=1)=P_{i},\;P(X_{i}=0)=1-P_{i}$),各$X_0,X_1,$$\dots,X_{n_r}$は独立であることが仮定される.文献\cite{確率的単語分割コーパスからの単語N-gram確率の計算}の実験で用いられている単語境界確率の推定方法は次の通りである.まず,単語に分割されたコーパスに対して自動単語分割システムの境界推定精度$\alpha$を計算しておく.次に,適応分野のコーパスを自動単語分割し,その出力において単語境界であると判定された点では$P_{i}=\alpha$とし,単語境界でないと判定された点では$P_{i}=1-\alpha$とする.後述する実験の従来手法としてこの方法を採用した.\subsection{単語$n$-gram頻度}\label{subsection:EF}確率的単語分割コーパスに対して単語$n$-gram頻度が以下のように定義される.\begin{description}\item[単語0-gram頻度]確率的単語分割コーパスの期待単語数として以下のように定義される.\begin{equation}\label{equation:0-gram}f(\cdot)=1+\sum_{i=1}^{n_{r}-1}P_{i}\end{equation}\item[単語1-gram頻度]確率的単語分割コーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が$l=k-i$文字からなる単語$w=\Bdma{x'}_{1}^{l}$である必要十分条件は以下の4つである.\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語$w$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が文字列中にない.\item文字$x_{k}$の直後に単語境界がある.\end{enumerate}したがって,確率的単語分割コーパスの単語1-gram頻度$f_{r}$は,単語$w$の表記の全ての出現$O_{1}=\{(i,k)\,|$$\Bdma{x}_{i+1}^{k}=w\}$に対する期待頻度の和として以下のように定義される.\begin{equation}\label{eqnarray:1-gram}f_{r}(w)=\sum_{(i,k)\inO_{1}}P_{i}\left[\prod_{j=i+1}^{k-1}(1-P_{j})\right]P_{k}\end{equation}\item[単語$n$-gram頻度($\Bdma{n\geq2}$)]$L$文字からなる単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$の確率的単語分割コーパス$\Bdma{x}_{1}^{n_{r}}$における頻度,すなわち単語$n$-gram頻度について考える.このような単語列に相当する文字列が確率的単語分割コーパスの$(i+1)$文字目から始まり$k=i+L$文字目で終る文字列と等しく($\Bdma{x}_{i+1}^{k}=\Bdma{x'}_{1}^{L}$),単語列に含まれる各単語$w_{m}$に相当する文字列が確率的単語分割コーパスの$b_{m}$文字目から始まり$e_{m}$文字目で終る文字列と等しい($\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},\;1\leq\forallm\leqn$;$e_{m}+1=b_{m+1},\;1\leq\forallm\leqn-1$;$b_{1}=i+1$;$e_{n}=k$)状況を考える(\figref{figure:SSC}参照).確率的単語分割コーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$である必要十分条件は以下の4つである.\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が各単語に対応する文字列中にない.\item単語境界が各単語に対応する文字列の後にある.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{16-4ia6f1.eps}\end{center}\caption{確率的単語分割コーパスにおける単語$n$-gram頻度}\label{figure:SSC}\end{figure}確率的単語分割コーパスにおける単語$n$-gram頻度は以下のように定義される.\begin{equation}\label{eqnarray:n-gram}f_{r}(\Bdma{w}_{1}^{n})=\sum_{(i,e_{1}^{n})\inO_{n}}P_{i}\left[\prod_{m=1}^{n}\left\{\prod_{j=b_{m}}^{e_{m}-1}(1-P_{j})\right\}P_{e_{m}}\right]\end{equation}ここで\begin{align*}e_{1}^{n}&=(e_{1},e_{2},\cdots,e_{n})\\O_{n}&=\{(i,e_{1}^{n})|\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},1\leqm\leqn\}\end{align*}である.\end{description}\subsection{単語$n$-gram確率}確率的単語分割コーパスにおける単語$n$-gram確率は,単語$n$-gram頻度の相対値として計算される.\begin{description}\item[単語1-gram確率]以下のように単語1-gram頻度を単語0-gram頻度で除することで計算される.\begin{equation}\label{equation:1-gram}P_r(w)=\frac{f_r(w)}{f_r(\cdot)}\end{equation}\item[単語$n$-gram確率($\Bdma{n\geq2}$)]以下のように単語$n$-gram頻度を単語$(n-1)$-gram頻度で除することで計算される.\begin{equation}\label{equation:n-gram}P_r(w_{n}|\Bdma{w}_{1}^{n-1})=\frac{f_r(\Bdma{w}_{1}^{n})}{f_r(\Bdma{w}_{1}^{n-1})}\end{equation}\end{description}\subsection{単語$n$-gram頻度の計算コスト}ある単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$($n\geq1$)のある1箇所の出現位置に対する期待頻度の計算に必要な演算は,\equref{eqnarray:1-gram}や\equref{eqnarray:n-gram}から明かなように,$L-n$回の浮動小数点に対する減算と$L+1$回の浮動小数点に対する乗算である.動的に単語$n$-gram確率を計算する方法では,この演算が文字列$\Bdma{x'}_{1}^{L}$の出現回数だけ繰り返される.通常の決定的単語分割コーパスの場合には,単語列の出現回数がそのまま頻度となるので,上述の浮動小数点に対する演算が全て付加的な計算コストであり,言語モデルの応用の実行速度を大きく損ねる.あらかじめ単語$n$-gram確率を計算しておく場合は,ある文(文字数$h$)に出現する全ての$n$個の連続する部分文字列に対して行う必要がある.上述の減算や乗算が重複して行われるのを避けるために,まず文の両端を除く全ての位置に対して$1-P_{i}$を計算($h-1$回の減算)し,さらにこれら$h-1$個の$1-P_{i}$のうちの任意個の連続する位置に対する積$\prod_{j=b}^{e}(1-P_{j})$($b<e$)を計算($\sum_{i=1}^{h-2}=(h-1)(h-2)/2$回の乗算)しておく.ある単語$n$-gramの出現位置は,文に$n+1$個の単語境界を置くことで決るので,$h$文字の文には重複を含め${}_{h-1}C_{n+1}$個の単語$n$-gramが含まれる.このそれぞれの期待頻度は,左端の$P_{i}$に$n$個の$\prod_{j=e_{k-1}+1}^{e_{k}}(1-P_{j})$と$n$個の$P_{e_{k}}$の積($2n$回の乗算)として得られる.この場合に必要な計算コストも,決定的単語分割コーパスの場合の単語数と同じ回数のインクリメントに比べて非常に大きい\footnote{後述の実験での条件では,自動分割結果(決定的単語分割)からの頻度計算におけるインクリメントは1,377,062回で,確率的単語分割に対する$n=2$の乗算回数の理論値は20,181,679,570となる.浮動小数点数に対する乗算とインクリメントでは,計算のコストが異なるが,回数を単純に比較しても実に14,656倍となる.実際の計算時間には,さらに,入力文の読み込みや文字列(単語表記)から語彙番号への変換が含まれるので,この比率にはならない.}.このように,確率的単語分割コーパスに対する単語$n$-gram頻度の計算のコストは,従来の決定的単語分割コーパスに対する計算コストに比べて非常に大きくなる.文の長さの分布を無視すれば,計算回数はコーパスの文数に対しては比例する.文毎に独立なので複数の計算機による分散計算も可能であるが,ある程度の大きさのコーパスからモデルを作成する場合にはこの計算コストは問題になる.また,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などの様々な言語モデルの改良においては,最適化の過程において言語モデルを何度も構築する.確率的単語分割コーパスにおける単語$n$-gram頻度の計算のコストによって,これらの改良を試みることが困難になっている.
\section{最大エントロピー法による単語境界確率の推定}
この節では,最大エントロピー法による単語分割器を単語境界確率の推定に用いる方法について述べる.\subsection{単語境界確率の推定}\label{subsection:ME}日本語の単語分割の問題は,入力文の各文字間に単語境界が発生するか否かを予測する問題とみなせる\cite{教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル,Training.Conditional.Random.Fields.Using.Incomplete.Annotations}.つまり,文$\Bdma{x}=\Conc{x}{m}$に対して,$x_{i}x_{i+1}$の間が単語境界であるか否かを表すタグ$t_{i}$を付与する問題とみなす.付与するタグは,単語境界であることを表すタグ{\bfE}と,非単語境界であることを表すタグ{\bfN}の2つのタグからなる.各文字間のタグがこのいずれかであるかは,単語境界が明示されたコーパスから学習された点推定の最大エントロピーモデル(MEmodel;maximumentropymodel)により推定する\footnote{文献\cite{Training.Conditional.Random.Fields.Using.Incomplete.Annotations}のようにCRF(ConditionalRandomFields)により推定することもできるが,計算コストと記憶領域が大きくなる.これらの差は,スパースな部分的アノテーションコーパスからの学習において顕著となる.つまり,CRFのように系列としてモデル化する方法では,アノテーションのない部分も考慮する必要があるのに対して,点推定の最大エントロピーモデルでは,アノテーションのある部分のみを考慮すればよい.このような考察から,本論文では計算コストの少ない最大エントロピーモデルを用いる.}.その結果,より高い確率を与えられたタグをその文字間のタグとし,単語境界を決定する.すなわち,以下の式が示すように,最大エントロピーモデルにより,単語境界と推定される確率が非単語境界と推定される確率より高い文字間を単語境界とする.\[t_{i}=\left\{\begin{array}{ll}\mbox{\bfE}&\mbox{if}\;P_{ME}(t_{i}={\bfE}|\Bdma{x})>P_{ME}(t_{i}={\bfN}|\Bdma{x})\\\mbox{\bfN}&\mbox{otherwise}\end{array}\right.\]これにより,入力文を単語に分割することができる.本論文では,以下のように,タグ$t_{i}$の出現確率を確率的単語分割コーパスにおける単語境界確率$P_{i}$として用いることを提案する.\begin{displaymath}P_{i}=P_{ME}(t_{i}={\bfE}|\Bdma{x})\end{displaymath}これにより,注目する文字の周辺のさまざまな素性を参照し,単語境界確率を適切に推定することが可能になる.\subsection{参照する素性}後述する実験においては,$x_{i}x_{i+1}$の間に注目する際の最大エントロピーモデルの素性としては,$x_{i-1}^{i+2}$の範囲の文字$n$-gramおよび字種$n$-gram($n=1,2,3$)をすべて用いた\footnote{字種は,漢字,ひらがな,カタカナ,アルファベット,数字,記号の6つとした.}.ただし,以下の点を考慮している.\begin{itemize}\item素性として利用する$n$-gramは,先頭文字の字種がその前の文字の字種と同じか否か,および,末尾文字の字種がその次の文字の字種と同じか否かの情報を付加して参照する\footnote{パラメータ数の急激な増加を抑えつつ素性の情報量を増加させる.これにより,参照範囲を前後1文字拡張して$x_{i-2}^{i+3}$の範囲の$n$-gram($n=3,4,5$)を参照する.}.\item素性には注目する文字間の位置情報を付加する.\end{itemize}たとえば,文字列「文字列を単語に分割する」の「語」「に」の文字間の素性は,\{$-$単$+|$,$+$語$|-$,$-|$に$-$,$|-$分$+$,$-$単語$|-$,$+$語$|$に$-$,$-|$に分$+$,$-$単語$|$に$-$,$+$語$|$に分$+$,$-$K$+|$,$+$K$|-$,$-|$H$-$,$|-$K$+$,$-$KK$|-$,$+$K$|$H$-$,$-|$HK$+$,$-$KK$|$H$-$,$+$K$|$HK$+$,\}となる.「$|$」は注目する文字間を表す補助記号であり,「$+$」と「$-$」は前後の文字が同じ字種である($+$)か否($-$)かを表す補助記号である.「H」と「K」は字種の平仮名と漢字を表している.なお,実験においては,パラメータ数を減らすために,学習データで2回以上出現する素性のみを用いた.また,最大エントロピーモデルのパラメータ推定には,GISアルゴリズム\cite{Generalized.Iterative.Scaling.For.Log-Linear.Models}を使用した.
\section{疑似確率的単語分割コーパス}
確率的単語分割コーパスに対する単語$n$-gram頻度は,高いコストの計算を要する.また,確率的単語分割コーパスは,頻度計算の対象となる単語や単語断片(候補)を多数含む.ある単語$n$-gramの頻度の計算に際しては,その単語の文字列としてのすべての出現に対して,頻度のインクリメントではなく,複数回の浮動小数点演算を実行しなければならない.この計算コストにより,より長い履歴を参照する単語$n$-gramモデルや単語クラスタリングなどの言語モデルの改良が困難になっている.上述の困難を回避する方法として,単語分割済みコーパスで確率的単語分割コーパスを近似する方法を提案する.具体的には,確率的単語分割コーパスに対して以下の処理を最初の文字から最後の文字まで($1\leqi\leqn_{r}$)行なう.\begin{enumerate}\item文字$x_{i}$を出力する.\item0以上1未満の乱数$r_{i}$を発生させ$P_{i}$と比較する.$r_{i}<P_{i}$の場合には単語境界記号を出力し,そうでない場合には何も出力しない.\end{enumerate}これにより,確率的単語分割コーパスに近い単語分割済みコーパスを得ることができる.これを疑似確率的単語分割コーパスと呼ぶ.上記の方法では,文字列としての出現頻度が低い単語$n$-gramの頻度が確率的単語分割コーパスと疑似確率的単語分割コーパスにおいて大きく異なる可能性がある.そもそも,出現頻度が低い単語$n$-gramの場合,単語分割が正しいとしても,その統計的振る舞いを適切に捉えるのは困難であるが,近似によって誤差が増大することは好ましくない.従って,この影響を軽減するために,上記の手続きを$N$回行ない,その結果得られる$N$倍の単語分割済みコーパスを単語$n$-gram頻度の計数の対象とすることとする.このときの$N$を本論文では倍率と呼ぶこととする.疑似確率的単語分割コーパスは,一種のモンテカルロ法となっている.モンテカルロ法による$d$次元の単位立方体上$[0,d]^{d}$上の定積分$I=\int_{[0,1]^{d}}f(x)dx$の数値計算法では,単位立方体$[0,d]^{d}$上の一様乱数$\Stri{x}{N}$を発生させて$I_{N}=\sum_{i=1}^{N}f(x_{i})$とする.このとき,誤差$|I_{N}-I|$は次元$d$によらずに$1/\sqrt{N}$に比例する程度の速さで減少することが知られている.疑似確率的単語分割コーパスにおける単語$n$-gram頻度の計算はこの特殊な場合であり,$n$の値や文字数によらずに$1/\sqrt{FN}$に比例する程度の速さで減少する.ここで$F$は単語$n$-gramの文字列としての頻度である.
\section{評価}
単語境界確率の推定方法の評価として,言語モデルの適応の実験を行なった.まず,適応対象文野の大きな生コーパスに既存手法と提案手法のそれぞれで単語境界確率を付与した.次に,その結果得られる確率的単語分割コーパスから単語2-gramモデルを推定し,これを一般分野の単語分割済みコーパスから推定された単語2-gramモデルと補間した.最後に,適応分野のテストコーパスに対して,予測力と仮名漢字変換\cite{無限語彙の仮名漢字変換}の精度の評価を行なった.後者は,理想的な音響モデルを用いた場合の音声認識と考えることも可能である.この節では,実験の結果を提示し,評価を行なう.\subsection{実験の条件}実験に用いたコーパスは,「現代日本語書き言葉均衡コーパス」モニター公開データ(2008年度版)中の人手による単語分割の修正がなされている文(一般コーパス)と医療文書からなる適応対象のコーパスである.一般コーパスの各文は正しく単語に分割され,各単語に入力記号列(読み)が付与されている.これを10個に分割し,この内の9個を学習コーパスとし,残りの1個をテストコーパスとした(\tabref{table:corpus}参照).自動単語分割器や単語境界確率の推定のための最大エントロピーモデルはこの学習コーパスから構築される.一方,適応対象のコーパスは大量にあるが,単語境界情報を持たない.この内の7,000文に入力記号列(読み)を付与しテストコーパスとし,残りを確率的単語分割コーパスとして言語モデルの学習に用いた(\tabref{table:raw-corpus}参照).テストコーパスの内の1,000文には,単語境界情報も付与し,言語モデルの予測力の評価に用いた.\subsection{評価基準}確率的言語モデルの予測力の評価に用いた基準は,テストコーパスにおける単語あたりのパープレキシティである.まず,テストコーパス$C_{t}$に対して未知語の予測も含む文字単位のエントロピー$H$を以下の式で計算する\cite{日本語の情報量の上限の推定}.\begin{displaymath}H=-\frac{1}{|C_{t}|}\log_{2}\prod_{\Bdma{w}\inC_{t}}M_{w,n}(\Bdma{w})\end{displaymath}ここで,$M_{w,n}(\Bdma{w})$は単語$n$-gramモデルによる単語列$\Bdma{w}$の生成確率を,$|C_{t}|$はテストコーパス$C_{t}$の文字数を表す.次に,単語単位のパープレキシティを以下の式で計算する.\begin{displaymath}PP=2^{H\times\overline{|\Bdma{w}|}}\end{displaymath}ここで$\overline{|\Bdma{w}|}$は平均単語長(文字数)である.これらの計算に際しては,単語境界情報が付与された1,000文を用いた\footnote{本論文での言語モデルの予測力の評価は,文字列の予測のみならず,人手で付与された単語境界の予測も含まれている.これは,言語モデルの応用を考慮してのことである.純粋に予測力が高いモデルが必要な場合は,既存の単語単位を用いず,文字単位でモデル化する方がよいと考えられる\cite{予測単位の変更によるn-gramモデルの改善,ベイズ階層言語モデルによる教師なし形態素解析}.}.\begin{table}[t]\begin{minipage}[t]{0.47\textwidth}\caption{一般コーパス(単語分割済み)}\label{table:corpus}\input{03table01.txt}\end{minipage}\hfill\begin{minipage}[t]{0.47\textwidth}\caption{適応対象コーパス(単語境界情報なし)}\input{03table02.txt}\label{table:raw-corpus}\end{minipage}\end{table}仮名漢字変換の評価基準は,文字誤り率である.文字誤り率は$\mbox{CER}=1-N_{LCS}/N_{COR}$と定義される.ここで,$N_{COR}$は正解に含まれる文字数であり,$N_{LCS}$は各文を一括変換することで得られる最尤解と正解との最長共通部分列(LCS;LongestCommonSubsequence)\cite{文字列中のパターン照合のためのアルゴリズム}の文字数である.\subsection{単語境界確率の推定方法の評価}単語境界確率の推定方法の差異を調べるために,以下の2つの確率的単語分割コーパスを作成しそれらから推定された単語2-gramモデルの能力を調べた.\begin{itemize}\item[\bfBL:]\従来手法\\各単語境界確率は,単語2-gramモデルに基づく自動単語分割器の判断に応じて$\alpha$又は$1-\alpha$とする.ここで,$\alpha=67372/68039$は一般分野のテストコーパスにおける単語境界推定精度である(\subref{subsection:EM}参照).\item[\bfME:]\提案手法\\各単語境界確率は,最大エントロピーモデルを用いて文脈に応じて推定される(\subref{subsection:ME}参照).\end{itemize}適応対象分野のテストコーパスにおける予測力と文字誤り率を\tabref{table:result1}に示す.この結果から,本論文で提案する最大エントロピー法による単語境界確率の推定方法により約11\%のパープレキシティの削減が実現されている.この結果から,最大エントロピー法により推定された単語境界確率を持つ確率的単語分割コーパスを用いることで適応対象分野における単語2-gram確率がより正確に推定されていることがわかる.応用の仮名漢字変換においても,文字正解率の比較から,提案手法により,従来手法の文字誤りの約3.1\%が削減さた.検定の結果,有意水準5\%で有意差があるとの結果であった.この点からも言語モデルが改善されていることが確認される.従来手法の文字正解率は97.51\%と高いので,提案手法により実現された誤りの削減は十分有意義であろう.\begin{table}[t]\caption{単語境界確率の推定方法と言語モデルの能力の関係}\input{03table03.txt}\label{table:result1}\end{table}\begin{table}[t]\caption{1/1のサイズの疑似確率的単語分割コーパスから推定された言語モデルの能力}\input{03table04.txt}\label{table:result2}\end{table}\subsection{疑似確率的単語分割コーパスの評価}本論文のもう一つの論点は,単語分割済みコーパスによる確率的単語分割コーパスの近似である.この評価として,3種類の大きさ(1/1,1/2,1/4)の適応分野の疑似確率的単語分割コーパスから推定した言語モデルのテストコーパスに対するパープレキシティと文字正解率を複数の倍率($N=1,2,4,\cdots,256$)に対して計算した.\tabref{table:result2}〜\tabref{table:result4}はその結果である.まず,自動分割の結果を決定的単語分割コーパスとして用いる場合についてである.これと,確率的単語分割コーパスとして用いる場合との比較では,文献\cite{確率的単語分割コーパスからの単語N-gram確率の計算}の報告と同じように確率的単語分割により予測力が向上し,文献\cite{無限語彙の仮名漢字変換}の報告と同じように仮名漢字変換の文字正解率も向上している.さらに,本論文で提案する倍率が1の疑似確率的単語分割は,決定的単語分割に対して,予測力と文字正解率の双方において優れていることが分る.倍率が1の疑似確率的単語分割と決定的単語分割の唯一の違いは,自動単語分割の際に単語境界確率を0.5と比較するか,0から1の乱数と比較するかであり,モデル構築の計算コストはほとんど同じである.にもかかわらず,予測力と文字正解率の双方が向上している点は注目に値するであろう.次に,確率的単語分割と疑似確率的単語分割の比較について述べる.倍率が1の場合は,予測力や文字正解率は,確率的単語分割コーパスから推定された言語モデルに対して少し低く,倍率を上げることによりこれらは確率的単語分割コーパスによる結果に近づいていくことがわかる.これは,疑似確率的単語分割がモンテカルロ法による数値演算の一種になっていることを考えれば当然の結果である.このことから,ある程度の倍率の疑似確率的単語分割コーパスは,確率的単語分割コーパスのよい近似となっているといえる.適応分野のコーパスの大きさに係わらず,倍率が256の場合の疑似確率的単語分割による結果は,確率的単語分割の結果とほぼ同じといえる.\begin{table}[t]\caption{1/2のサイズの疑似確率的単語分割コーパスから推定された言語モデルの能力}\input{03table05.txt}\label{table:result3}\end{table}\begin{table}[t]\caption{1/4のサイズの疑似確率的単語分割コーパスから推定された言語モデルの能力}\input{03table06.txt}\label{table:result4}\end{table}最後に,確率的単語分割と疑似確率的単語分割の計算コストの比較について述べる.確率的単語分割の語彙サイズは,適応対象の学習コーパスにおける期待頻度が0より大きい16文字以下の部分文字列と一般コーパスの語彙の合計9,383,985語であった.この語彙に対する単語2-gram頻度をハッシュ(BerkeleyDB4.6.21)を用いてファイルに出力すると10.0~GBとなった.これをRAMディスク上で計算するのに61147.45秒(約17時間)を要した\footnote{この計算に用いた計算機の中央演算装置はIntelCore2Duo3.91~GHzであり,主記憶は4~GBである.}.同じ計算機で,16倍の疑似確率的単語分割コーパスから単語2-gram頻度をRAMディスク上で計算すると,語彙サイズが46,777語であり,単語2-gram頻度のファイルサイズは9.98~MBであり,計算時間は1009.95秒(約17分)と約61分の1となった.疑似確率的単語分割コーパスを用いた場合には,倍率が256の場合でも20.2~MBと,ファイルサイズが大きくないので,現在の多くの計算機で主記憶上で計算が可能である(主記憶上での計算時間は303.29秒).これに対して,確率的単語分割コーパスからの推定では,一部の計算機においてのみ主記憶上での計算が可能である.さらに,実験で用いた適応対象の分野のコーパスは44,915文と決して大きくはなく,適応分野によっては1桁か2桁ほど大きい学習コーパスが利用できることも十分考えられる.この場合には,確率的単語分割では2次記憶(RAMディスクかハードディスク)上での計算が避けられず,モデル作成にかかる計算時間の違いは非常に大きくなる.したがって,本論文で提案する疑似確率的単語分割は,この点から有用であると考えられる.疑似確率的単語分割において,どの程度の倍率がよいかは要求する精度と利用可能な計算機資源との兼ね合いである.例えば倍率が16の場合は,単語に分割された718,640文から言語モデルを推定することになる.モデル構築に要する計算時間は,決定的単語分割の場合の16倍程度であり,現在の計算機はこの大きさのコーパスを処理する能力が十分ある.したがって,疑似確率的単語分割により,単語3-gramモデルや可変長記憶マルコフモデル,あるいは言語モデルのための単語クラスタリングなどさらなる言語モデルの改善を容易に試みることが可能となる.
\section{おわりに}
本論文では,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案した.実験の結果,提案手法により約11\%のパープレキシティの減少と約3.1\%の文字誤りの削減が確認された.さらに,確率的単語分割コーパスを通常の決定的単語分割コーパスにより模擬する方法を提案した.実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが削減可能であることを示した.\acknowledgment査読者から有意義なコメントを頂きました.心より感謝致します.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aho}{Aho}{1990}]{文字列中のパターン照合のためのアルゴリズム}Aho,A.~V.\BBOP1990\BBCP.\newblock\JBOQ文字列中のパターン照合のためのアルゴリズム\JBCQ\\newblock\Jem{コンピュータ基礎理論ハンドブック},I:形式的モデルと意味論\JVOL,\BPGS\263--304.ElseveirSciencePublishers.\bibitem[\protect\BCAY{Brown,Pietra,deSouza,Lai,\BBA\Mercer}{Brownet~al.}{1992}]{Class-Based.n-gram.Models.of.Natural.Language}Brown,P.~F.,Pietra,V.J.~D.,deSouza,P.~V.,Lai,J.~C.,\BBA\Mercer,R.~L.\BBOP1992\BBCP.\newblock\BBOQClass-Based$n$-gramModelsofNaturalLanguage\BBCQ\\newblock{\BemComputationalLinguistics},\textbf{18}(4),pp.~467--479.\bibitem[\protect\BCAY{Darroch\BBA\Ratcliff}{Darroch\BBA\Ratcliff}{1972}]{Generalized.Iterative.Scaling.For.Log-Linear.Models}Darroch,J.\BBACOMMA\\BBA\Ratcliff,D.\BBOP1972\BBCP.\newblock\BBOQGeneralizedIterativeScalingForLog-LinearModels\BBCQ\\newblock{\BemTheannualsofMathematicalStatistics},\textbf{43}(5),pp.~1479--1480.\bibitem[\protect\BCAY{風間,宮尾,辻井}{風間\Jetal}{2004}]{教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル}風間淳一,宮尾祐介,辻井潤一\BBOP2004\BBCP.\newblock\JBOQ教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル\JBCQ\\newblock\Jem{自然言語処理},\textbf{11}(4),pp.~3--24.\bibitem[\protect\BCAY{Kurata,Mori,\BBA\Nishimura}{Kurataet~al.}{2006}]{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}Kurata,G.,Mori,S.,\BBA\Nishimura,M.\BBOP2006\BBCP.\newblock\BBOQUnsupervisedAdaptationofaStochasticLanguageModelUsingaJapaneseRawCorpus\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonAcoustics,Speech,andSignalProcessing}.\bibitem[\protect\BCAY{森}{森}{1997}]{DFAによる形態素解析の高速辞書検索}森信介\BBOP1997\BBCP.\newblock\JBOQDFAによる形態素解析の高速辞書検索\JBCQ\\newblock\Jem{EDR電子化辞書利用シンポジウム}.\bibitem[\protect\BCAY{森}{森}{2007}]{無限語彙の仮名漢字変換}森信介\BBOP2007\BBCP.\newblock\JBOQ無限語彙の仮名漢字変換\JBCQ\\newblock\Jem{情報処理学会論文誌},\textbf{48},pp.~3532--3540.\bibitem[\protect\BCAY{森\JBA山地}{森\JBA山地}{1997}]{日本語の情報量の上限の推定}森信介,山地治\BBOP1997\BBCP.\newblock\JBOQ日本語の情報量の上限の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},\textbf{38}(11),pp.~2191--2199.\bibitem[\protect\BCAY{森,山地,長尾}{森\Jetal}{1997}]{予測単位の変更によるn-gramモデルの改善}森信介,山地治,長尾真\BBOP1997\BBCP.\newblock\JBOQ予測単位の変更による$n$-gramモデルの改善\JBCQ\\newblock\Jem{情報処理学会研究報告},SLP19\JVOL,\BPGS\87--94.\bibitem[\protect\BCAY{森\JBA宅間}{森\JBA宅間}{2004}]{生コーパスからの単語N-gram確率の推定}森信介,宅間大介\BBOP2004\BBCP.\newblock\JBOQ生コーパスからの単語N-gram確率の推定\JBCQ\\newblock\Jem{情報処理学会研究報告},NL162\JVOL.\bibitem[\protect\BCAY{森,宅間,倉田}{森\Jetal}{2007}]{確率的単語分割コーパスからの単語N-gram確率の計算}森信介,宅間大介,倉田岳人\BBOP2007\BBCP.\newblock\JBOQ確率的単語分割コーパスからの単語N-gram確率の計算\JBCQ\\newblock\Jem{情報処理学会論文誌},\textbf{48},pp.~892--899.\bibitem[\protect\BCAY{持橋,山田,上田}{持橋\Jetal}{2009}]{ベイズ階層言語モデルによる教師なし形態素解析}持橋大地,山田武士,上田修功\BBOP2009\BBCP.\newblock\JBOQベイズ階層言語モデルによる教師なし形態素解析\JBCQ\\newblock\Jem{情報処理学会研究報告},NL190\JVOL.\bibitem[\protect\BCAY{Ron,Singer,\BBA\Tishby}{Ronet~al.}{1996}]{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}Ron,D.,Singer,Y.,\BBA\Tishby,N.\BBOP1996\BBCP.\newblock\BBOQThePowerofAmnesia:LearningProbabilisticAutomatawithVariableMemoryLength\BBCQ\\newblock{\BemMachineLearning},\textbf{25},pp.~117--149.\bibitem[\protect\BCAY{Tsuboi,Kashima,Mori,Oda,\BBA\Matsumoto}{Tsuboiet~al.}{2008}]{Training.Conditional.Random.Fields.Using.Incomplete.Annotations}Tsuboi,Y.,Kashima,H.,Mori,S.,Oda,H.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQTrainingConditionalRandomFieldsUsingIncompleteAnnotations\BBCQ\\newblockIn{\BemProceedingsofthe22thInternationalConferenceonComputationalLinguistics}.\end{thebibliography}\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.工学博士.同年日本アイ・ビー・エム(株)入社.2007年5月より京都大学学術情報メディアセンター准教授.1997年情報処理学会山下記念研究賞受賞.情報処理学会会員.}\bioauthor{小田裕樹}{1999年徳島大学大学院工学研究科博士前期課程知能情報工学専攻修了.工学博士.同年NTTソフトウェア(株)入社.言語処理・情報検索システム等の開発,コンサルティング業務に従事.確率・統計的自然言語処理およびその応用に興味を持つ.情報処理学会会員.}\end{biography}\biodate\end{document}
| |
V06N05-01
|
\section{はじめに}
従来,日本語記述文の解析技術は大きく進展し,高い解析精度~\cite{miyazaki:84:a,miyazaki:86:a}が得られるようになったが,音声会話文では,助詞の省略や倒置などの表現が用いられること,冗長語や言い直しの表現が含まれることなどにより,これを正しく解析することは難しい.省略や語順の変更に強い方法としては,従来,キーワードスポッテイングによって文の意味を抽出する方法\cite{kawahara:95:a,den:96:a,yamamoto:92:a}が考えられ,日常会話に近い「自由発話」への適用も試みられている.冗長語に対しては,冗長語の出現位置の前後にポーズが現れることが多いこと,また冗長語の種類がある程度限定できることから,頻出する冗長語を狙い撃ちして抽出する方法や上記のキーワードスポッテイングの方法によってスキップする方法などの研究が行なわれている\cite{nakagawa:95:a,murakami:91:a,murakami:95:a}.言い直し表現の抽出では,冗長語の場合のように予め言い直しのタイプを限定することが難しいが,音響的な特徴に基づく解析や言語的な特徴に基づく解析が試みられている.このうち,音響的特徴による方法としては,DPマッチングによるワードスポッテイングを用いた方法が提案されているが,繰り返し型の言い直しを対象にした実験では,40\%程度の抽出精度しか得られておらず~\cite{nakagawa:95:a},また音素モデルにガーベージモデルを使用した方法では,180文中に言い直し表現が21件存在する場合の実験結果は,67\%の抽出精度に留まっている\cite{inoue:94:a}.これらの研究結果に見られるように,音響的な情報に基づいて抽出するだけでは限界があるために,言語の文法や意味的な情報を用いることが期待される.従来,言語的な特徴による方法としては,英語では,発話を記録したテキストを対象に,音響的な特性を利用して言い直し表現を抽出する方法が提案され,90\%の抽出精度が得られており~\cite{shriberg:92:a,nakatani:94:a},日本語では,漢字かな混じり表記の文を対象に,文法的な解析によって言い直し表現を抽出する方法が提案され,108個所の言い直し抽出実験では70\%の精度が得られている~\cite{sagawa:94:a}.さらに,対話文中に含まれる言い直し表現の言語的な構造を詳細に調べる方法\cite{nakano:97:a,den:97:a}が考えられている.しかし,このような漢字かな混じり文を対象とした方法は,言い直しの検出に単語品詞情報や構文解析情報などを利用しているために,音声認識されたかな文字列(言い直し表現を含めた対話文)に対してそのまま適用することが困難である.これに対して,音素モデルの単語trigramなどを利用して言い直し部分をスキップさせる方法や未知語抽出の単語モデルを用いて未知語を言い直しとして抽出する方法がある~\cite{wilpon:90:a,asadi:91:a,murakami:95:a}.この方法は単語数が制限されることが問題である.本論文では,音響処理によって得られたべた書き音節文を対象に,言語的な情報の一部である音節の連鎖情報に着目して,言い直し音節列を抽出する方法を提案する.この方法は,単語数が限定されない利点をもつ.具体的には,次の2段階の処理によって言い直しの抽出を行なう.まず,最初の第1段階では,言い直しの音節列が文節境界に挿入されることが多いことに着目して,言い直しを含んだべた書き音節文の文節境界を推定する.音節文字列の文節境界の推定では,すでにマルコフ連鎖を用いた方法が提案されているが,言い直しを含む音節列では,言い直し音節列の近傍で音節連鎖の結合力が弱くなる傾向があるため,この方法では,正しく文節境界位置を求めることが難しくなると予想される.そこで,この問題を解決するために,すでに提案された方法~\cite{araki:97:a}を,前方向・後方向の双方向から音節連鎖の結合力が評価できるように改良する.次に第2段階では,第1段階で得られた文節境界を用いて文節を抽出し,抽出した文節を相互に比較して言い直し音節列を抽出する.マッチングの方法としては,(i)1つの文節境界を起点に,繰り返し部分を含む文字列を抽出する方法,(ii)連続した2つの文節境界のそれぞれを起点とする文字列を比較する方法,(iii)連続した3つのすべての文節境界を用いて,抽出された2文節を比較する方法の3種類を提案する.また,これらの方法を「旅行に関する対話文(ATR)」~\cite{ehara:90:a}のコーパスに適用し,個別実験結果から得られる言い直し表現の抽出精度を計算によって推定すると共に,その結果を総合的な実験結果と比較して,提案した方法の効果を確認する.
\section{言い直し表現の特徴と抽出の方針}
\subsection{言い直し表現の特徴}言い直し(以下では「換言」とも言う)とは,下記の例に示すように,前に言ったことの誤りを訂正してもう一度言ったり,話の途中で言い淀んでしまってもう一度言うといった表現を示す.\Vspace「はい,(かしこ)\(\underline{かしこまり}\)ました.」「(わたし)\(\underline{わたくし}\)鈴木が承りました.」\Vspace以下では,言い直しによって訂正される対象となる部分(括弧で示した部分)を「換言前音節列(又は換言前文節)」と呼び,また言い直しによって訂正された部分(下線で示した部分)を「換言後音節列(換言後文節)」と呼ぶ.さて,言い直し表現の出現位置と種類について考える.換言前音節列は,後で換言後音節列によって訂正される部分であるから,一種の誤りと見なすことができ,それを削除すれば発話者の意図した文になると考えられる.このような観点から,会話テキストデータベース(ATR音声翻訳通信研究所)に収録された「旅行に関する対話」の対話例を対象に,言い直し表現が出現した位置を分類すると表1の通りとなる.この表から,換言前の音節列の約80%が正しい文の文節境界の位置に挿入された形になっていることが分かる.\begin{table}[htbp]\begin{center}\caption{言い直しの出現位置の傾向}\label{tab:1}\medskip\epsfile{file=fig/6.eps,height=99mm}\end{center}\end{table}次に,換言前音節列と換言後音節列が連続する場合について,言い直しのタイプを分類すると表2の結果を得る.この表から,言い直しの大半(表2の中の切り捨てタイプと置き換えタイプを除く約60%が該当)は,間違った表現をそれと同一内容を表す正しい表現への言い換えとなっており,繰り返しの構造を持っていることが分かる.\subsection{言い直し表現抽出の方針}前節の考察に従い,本論文では言い直し表現抽出の第1ステップとして,文節境界位置に現れる繰り返しタイプの言い直し表現を対象にその抽出法を考える.ところで,抽出の対象とする言い直し表現は文節境界に現れることから,言い直し表現自体は文節で,換言前表現の始点,終点は共に文節境界であると考えることができる.また,繰り返しタイプの言い直しでは,換言前音節列と換言後音節列は連続しており,両者は類似した音節を持つ可能性が高いから,隣接した2つの文節の音節を比較すれば,言い直し表現が抽出できると期待される.\begin{table}[htbp]\begin{center}\caption{言い直しパターンのタイプ}\label{tab:2}\medskip\epsfile{file=fig/7.eps,height=161mm}\vspace*{-3mm}\end{center}\end{table}以上から,ここでは,図1に示すように,以下の2つの段階に分けて言い直し表現を抽出する.\noindent{\bf第1段階}:言い直しを含む音節文の文節境界を推定する.\begin{figure}[bp]\bigskip\bigskip\begin{center}\epsfile{file=651_8.eps}\medskip\caption{言い直し対象の検出の概要}\label{fig:1}\end{center}\end{figure}\noindent{\bf第2段階}:連接する2つの文節間で音節列を比較し,類似性の高い文節の組の前方の文節を「換言前音節列」と判定する.
\section{言い直し表現の抽出法}
\subsection{言い直しを含む文節境界の推定}\subsubsection{文節境界推定の基本的考え方}言い直しを含む音節列の文節境界を推定する方法について考える.従来,べた書きされた日本語かな文の文節境界を推定する方法として,マルコフ連鎖モデルを用いた方法~\cite{araki:97:a}が提案されている.この方法は,図2-(i)に示すように,文節内では文字間の連鎖強度が高いことに着目して,文字連鎖確率値が落ち込むところを仮文節境界と推定するもので,具体的には,文節境界は以下の2つの手順で決定される.\Vspace\begin{enumerate}\itemかな文字列の前方から順にマルコフ連鎖確率を求め,連鎖確率がある閥値以下(落ち込み)となる文字を$x_i$とする.($x_i$の直前に文節境界がある可能性が高い)\item文字$x_i$の直前に文節境界記号bを挿入し,この記号と前方文字との連鎖確率を求める.確率がある閥値以上(立ち上がり)になったとき,bの位置を文節境界と判定する.\end{enumerate}\Vspaceなお,(1),(2)共に,連鎖確率の評価では,正しく文節境界記号の挿入されたべた書きかな文から得られた連鎖確率を使用する.ところで,この方法は,文法的にも意味的にも正しい日本文を対象に提案された方法である.言い直しを含む文では,換言前音節列の部分で発話の中断や言い誤りが起こっているため,仮文節境界の判定に用いた連鎖確率の「落ち込み」や「立ち上がり」が必ずしもシャープには現れない危険性があり,上記の方法を,言い直しを含む文にそのまま適用するのは適切でないと考えられる.そこで,言い直し音節列の挿入された文節境界の性質について考えると以下のことが分かる~\cite{araki:96:a}.まず,換言前音節列の始点に当たる文節境界では,その境界の直前の文字列は正しい文字列であるので,前方向(順方向)のマルコフ連鎖確率値が落ち込む位置を求めれば,その位置が換言前音節列の始点となっている可能性が高い.これに対して,換言前音節列の終点に当たる文節境界では,その境界の直前の文字列は言い直し対象の一部(言い誤りなど)であるので,前方向(順方向)のマルコフ連鎖確率値が必ずしも落ち込むとは限らない.しかし,その境界の後方の音節列は正しく言い直された音節列であるので,後方向(逆方向)のマルコフ連鎖を使用すれば,連鎖確率の落ち込みによってその位置を抽出できる可能性が高い.以上から,本論文では,図2-(iv)のように前方向(順方向)と後方向(逆方向)のマルコフ連鎖確率値を組み合わせることによって文節境界を判定する.\vfill\begin{figure}[p]\begin{center}\epsfile{file=fig/10.eps,height=180mm}\medskip\caption{言い直し列を含んだ音節文の仮文節境界の推定法}\label{fig:2}\end{center}\end{figure}\subsubsection{文節境界の推定}文節境界の推定では,前方法,後方向のマルコフ連鎖モデルを使用することを述べたが,ここではさらに,文節境界をまたがる文字連鎖の確率をも考慮し,3つの方法を考える.以下では,\cite{araki:97:a}で用いられた下記の記号を用いて,各方法を定義する.\Vspace\begin{enumerate}\itemFBL:文節境界記号bと前方文字との連鎖確率の「立ち上がり」を順方向に評価する方法\itemBBL:文節境界記号bと後方文字との連鎖確率の「立ち上がり」を逆方向に評価する方法\itemFL:文節間をまたがる音節間の結合力(「落ち込み」のみ)を順方向に評価する方法\itemBL:文節間をまたがる音節間の結合力(「落ち込み」のみ)を逆方向に評価する方法\end{enumerate}\Vspaceなお,ここでは,マルコフ連鎖確率として3重マルコフモデルを用いる.また,以下では,複数の方法を組み合わせて使用するときの文節境界の判定条件を記号「・(and)」,「+(or)」で表す.\Vspace\begin{enumerate}\item{\bf第一の方法}:《単純な双方向型の推定》(FBL+BBL法:図3-(i))\\連鎖確率の小さいところを抽出し,その位置に文節境界を表す記号bを挿入したとき,記号bについての双方向のマルコフ連鎖確率値の少なくともどちらか一つが,ある閾値より大きくなるところを文節境界と推定する.\item{\bf第二の方法}:《順方向挟み込み型を併用した双方向型の推定》(FL・(FBL+BBL)法:図3-(ii))\\第一の方法に加えて,文節境界をまたがる文字間の連鎖確率を順方向に評価する.\item{\bf第三の方法}:《双方向挟み込みを併用した双方向型の推定》(FL・BL・(FBL+BBL)法:図3-(iii))\footnote{3.1.3で後述するように,1つの文節境界だけを用いてマッチングを行う方式1の場合には,文節境界の中で換言前音節列の始点に当たる文節境界の検出精度を高くすることが必要となる.その場合には,換言前音節列は一種の誤り文字列と見なすことができるから,逆方向のマルコフ連鎖モデルとしてBBLを用いる効果は少ないが,BLを用いる効果は大きい(誤り文字列の場合はBLが落ち込む)と考えられることから,FL・BL・(FBL+BBL)法よりもFL・BL・FBL法が有効と考えられる.両者の比較については,5.の実験結果で議論される.}\\第一の方法に加えて,文節境界をまたがる文字間の連鎖確率を順方向と逆方法から評価する.\end{enumerate}\Vspace\subsubsection{言い直し音節列の判定}第1段階の方法で得られた文節境界のうち,任意の境界から始まる3つの連続した文節境界を順に,第1,第2,第3文節境界と呼ぶ.連続した文節の類似性を判定するには,これらの文節境界に挟まれた文字列を比較すればよいが,これらの文節境界は必ずしも正しいとは保証されない.\begin{figure}[tbp]\begin{center}\epsfile{file=fig/12.eps,height=140mm}\medskip\caption{マルコフモデルによる文節境界の推定方法}\label{fig:3}\end{center}\end{figure}特に,3つの文節境界が共にすべて正しい確率は,一つの境界が正しい場合よりも低下するから,なるべく少ない数の境界を使用して言い直し表現を抽出できるのが望ましい.しかし,逆に,使用できる文節境界が少ない場合は,文節間の類似性判定の精度が低下する恐れがある.これらの点を考慮して,ここでは,文節間の類似性を判定する方法(マッチング法)として,以下の3つの方法を考える.\newpage\begin{enumerate}\item{\bf方式1}:1つの文節境界だけを使用する方法\item{\bf方式2}:連続した2つの文節境界を使用する方法\item{\bf方式3}:連続した3つの文節境界を使用する方法\end{enumerate}\Vspace以下,これらの3つの方法の詳細を述べる.まず,隣接する任意の2つの文節候補をそれぞれ,$B_1=x_1x_2\cdotsx_m$,および,$B_2=x_{m+1}x_{m+2}\cdotsx_{m+n}$とする.\bigskip{\bf【方式1のマッチング方法】}\Vspace\begin{enumerate}\item与えられた文節の先頭を始点として,長さ$l$文字($l$は平均文節長の2〜3倍程度)の\break音節列$X=x_1x_2\cdotsx_l$(但し,$X$の中に先頭文字$x_1$と等しい文字$x_i$が存在する.すなわち,$x_1=x_i$)を取り出す.\item$x_1$,$x_2$,$\cdots$,$x_l$を図4のように横と縦にならべたマトリックスを考え,$x_1=x_i$となる$x_i$\breakの位置$i$(但し,$2\lei\lel$)を換言後文節の開始点とする.\item換言前文節候補の$i-1$個の音節列$x_1x_2\cdotsx_{i-1}$の少なくとも$j=(i-1)-k$個の$j$(ここで,$1\lej\lei-1$)に対して,式$x_j=x_{j+i-1}$が成り立つ時,$i-1$個の音節列$x_1x_2\cdotsx_{i-1}$を換言前音節列として抽出する.ここで,$k$はハミング距離であり,実験的に最適値を定める.\end{enumerate}\bigskip{\bf【方式2のマッチング法】}\Vspace\begin{enumerate}\item2つの文節候補$B_1$と$B_2$において,$B_1$を換言前文節候補とし,$B_2$の文字列の中からその部分列として,$B_1$の文節長$m$と同じ長さの音節列$B_2=x_{m+1}x_{m+2}\cdotsx_{2m}$を取\breakり出す.\item$m-k$個以上の$j$(ここで,$1\lej\lem$)について$x_j=x_{m+j}$である場合に,$B_1$を換言\break前音節列とする.ただし,$x_j$と$x_{m+j}$はそれぞれ文節$B_1$と$B_2$の中の$j$番目の音節を\break表す.\end{enumerate}\bigskip{\bf【方式3のマッチング法】}\Vspace\begin{enumerate}\item[~]第1,第2,および第3の文節境界によって決定される音節列$B_1$および,$B_2$の組に対して,少なくとも$m-k$個の$j$(但し,$j$は$n$と$m$の中で小さい方の値に対して,$1\lej\lem$(または$n$))について$x_j=x_{m+j}$となる場合に,$B_1$を換言前音節列とする.\end{enumerate}\begin{figure}[htbp]\begin{center}\epsfile{file=fig/14.eps,height=190mm}\medskip\caption{マッチングによる言い直し対象の検出方法}\label{fig:4}\end{center}\end{figure}
\section{言い直し表現の抽出精度の推定}
前章で述べた方法は,文節境界の推定と文節間の類似性判定の2つの手順から構成される.そこで,本章では,文節境界の推定精度(適合率$P_b$と再現率$R_b$),及び,文節間の類似性の推定精度(適合率$P_m$と再現率$R_m$)が与えられた時,最終的に抽出される言い直し表現の抽出精\break度(適合率$P_t$と再現率$R_t$)を推定する方法について考える.\subsection{文節抽出精度の推定}文節境界推定の結果から,マッチングの3方式に必要な文節がどれだけ正確に抽出できるか考える.\begin{flushleft}\bf(1)任意の文節の先頭位置が正しい確率\end{flushleft}まず,実験標本に含まれている正しい文節境界の数を$n$,文節境界の候補として検出した境界の数を$n_1$,そのうち正しい文節境界の数を$n_0$とすると,推定された文節境界の適合率$P_b$,再現率$R_b$は,それぞれ,\begin{equation}P_b=n_0/n_1,R_b=n_0/n\end{equation}であるから,正しく推定された文節境界の数を$N_{1max}$と置くと,$N_{1max}$は$n_0$に等しく,\begin{equation}N_{1max}=n_0=nR_b\end{equation}\begin{flushleft}\bf(2)正しく取り出される文節の数\end{flushleft}推定された文節境界から,どれだけの数の文節が正しく取り出せるかを考える.正しい文節は,連続する2つの文節境界が正しい時に得られる.そこでまず,先頭の文節境界を考えると,(1)から,そのような境界は,$n_0$個得られる.次に,これらの$n_0$個の境界に続く文節境界がどれだけ正しく決定されているかを考える.但し,ここでは,$n$,$n_0$,$n_1$はいずれも1より十分大きい値とする.ある正しく決定された文節境界(始点)の後に初めて現れる文節境界としては,\Vspace\begin{enumerate}\item正しく文節境界として検出されたもの($n_0$)\item誤って文節境界と判定されたもの($n_1-n_0$)\item見過ごされてしまったもの($n-n_0$)\end{enumerate}\Vspaceの3種が考えられる.全体では,$n_0+(n_1-n_0)+(n-n_0)=n+n_1-n_0$通りの可能性があるが,このうち(1)の場合のみ正しい文節が得られる.どの可能性も文節開始点と独立に現れると仮定すると,(1)が現れる確率は$n_0/(n+n_1-n_0)$である.以上から,正しく抽出された文節の数は,$N_{2max}$は,\begin{equation}N_{2max}=n_0\timesn_0/(n+n_1-n_0)\end{equation}と推定される.ここで,(1)および(2)式を用いて書き替えると,\begin{equation}N_{2max}=n\timesR_b\times\gamma\end{equation}但し$\gamma=P_bR_b/(R_b+P_b-R_bP_b)$.\begin{flushleft}\bf(3)連続して正しく取り出せる文節の組の数\end{flushleft}この場合は,連続した3つの文節境界が正解であることが必要である.連続する2つの文節境界が正しい文節境界の組みの数は(3)式で与えられるから,連続した3つの文節境界が正解となる組の数$N_{3max}$は,(2)と同様の議論によって,$N_{2max}$の$\gamma$倍となるから,\begin{equation}N_{3max}=n\timesR_b\times\gamma^2\end{equation}\subsection{言い直し表現の抽出精度の推定}\begin{flushleft}\bf(1)言い直し表現の総合的な抽出精度\end{flushleft}文節間の音節類似性を判定するマッチング処理で,言い直し表現が正しく言い直しとして抽出できるのは,正しい文節境界を持つ文節候補の中からのみと考えられる.これに対して,誤った言い直し表現は,文節境界が正しい場合からも,また,文節境界が誤った場合からも抽出さ\breakれる.そこで,正しい文節境界を持つ文節に含まれる言い直し表現が,正しく言い直しと判定\breakされる割合を$\alpha$とし,言い直しでない文節を間違って言い直しと判定する割合を$\beta$とする.また,\break文節境界推定実験で得られた文節の数を$N$,その中の正しい文節境界を持つ文節に含まれる言い直し表現の数を$M$とする.この時,マッチング実験において正しく言い直しと判定されるものは,$\alphaM$件,誤って言い直しと判定されるものは,$\beta(N-M)$件であるから,総合的な(第1段階と第2段階を組み合わせたときの)言い直し表現の抽出精度(適合率$P_t$と再現率$R_t$)は,\begin{equation}P_t=\alphaM/\{\alphaM+\beta(N-M)\}\end{equation}\begin{equation}R_t=\alphaM/m\end{equation}となる.但し,$m$は標本全体に含まれる言い直し文節の数を示す.ここで,$m$は既知としてよいから,$N$,$M$,$\alpha$,$\beta$の4つのパラメータの値が分かれば,$P_t$,$R_t$は計算できる.そこで,以下では,これらの値を求める.\begin{flushleft}\bf(2)文節数とその中の換言文節数(NとM)\end{flushleft}ここで,第1段階の文節境界の推定で得られる言い直し文節候補の数$N$とその中に含まれる言い直し表現の数$M$を考える.$N$は,3つのマッチング方式いずれの場合も共通で,\begin{equation}N=n_1=nR_b/P_b\end{equation}次に,標本内の文節のうち,言い直し表現の含まれる割合を$a(=m/n)$とする.第2段階では,第1段階で正しく抽出された文節($N_{1max}$,$N_{2max}$,$N_{3max}$)の中に含まれた言い直しのみが抽出の可能性を持つ.そこで,第1段階で抽出された文節も同じ割合で言い直し文節を含むと仮定すれば,その数$M$は,\begin{equation}M=a\timesN_{imax}(但し,i=1,2,3)\end{equation}となる.\begin{flushleft}\bf(3)言い直し判定の確率($\alpha$と$\beta$)\end{flushleft}ここで,すべての文節境界$N$が正しい場合を考え,正しい文節境界を持つ$N$個の文節の中に,$m$個の言い直し表現が含まれていたとする.また,この標本に対して文節のマッチング処理によって,$m_1$個の文節が言い直しと判定され,そのうち正しく判定されたものは$m_t$個だったとすると,マッチングの精度(適合率$P_m$と再現率$R_m$)は,\begin{equation}P_m=m_t/m_1,R_m=m_t/m\end{equation}で与えられる.この時,$\alpha$は,定義により,$\alpha=R_m$である.また,$\beta$は,以下のように求められる.すなわち,言い直しでない文節数は$N-m$件存在するのに対して,このうちの$m_1-m_t$件を言い直しと判定したことになるから,$\beta=(m_1-m_t)\;$/$\;(N-m)$.ここで,全文節$N$に含まれる言い直し文節$m$の割合を$a(=m/N)$とおき,(10)式を使用すると,$\beta$は,\begin{equation}\beta={}\frac{\alphaR_m(1-P_m)}{P_m(1-\alpha)}\end{equation}以上で,第1段階と第2段階の方法の精度(それぞれ,$P_b$,$R_b$および$P_m$,$R_m$)が分かれば,それを結合した総合的な抽出精度($P_t$,$R_t$)が推定できる.
\section{実験結果と考察}
\subsection{実験の条件}本実験では,以下に示すような入力文とマルコフ連鎖確率辞書を用いた.\bigskip\begin{description}\item[(1)]実験入力文\Vspace\renewcommand{\labelenumi}{}\begin{enumerate}\item文の内容:旅行に関する会話\item文の表記:文音節列\item総文数:100文(標本外,文節境界位置に出現する単純な繰り返しタイプの言い直しが少なくとも一つ存在するもの)\item総文節境界数:346境界(うち,言い直し対象の始点106,終点106)\end{enumerate}\Vspace\newpage\item[(2)]マルコフ連鎖確率辞書の統計データ\Vspace\begin{enumerate}\itemデータの内容:旅行に関する会話\itemデータの表記:文節音節列(空白記号付き,言い直しは含まない)\begin{enumerate}\item[(a)]総文節数:27,120文節\item[(b)]総音節数:236,705音節(空白記号を除くと155,345音節)\end{enumerate}\end{enumerate}\Vspace\item[(3)]マルコフ連鎖確率辞書のタイプ\Vspace\renewcommand{\labelenumi}{}\begin{enumerate}\item種類:文節マルコフ連鎖確率\Vspace\begin{enumerate}\item次数:4次(3重)\item方向のタイプ:順方向と逆方向\end{enumerate}\end{enumerate}\end{description}\subsection{文節境界推定実験の結果}3.1節で述べた3つの文節境界推定法について,閾値を変化させた時の再現率と適合率の値を図5に示す.この図と4章の結果((2)式,(3)式,(5)式)を用いれば,それぞれのマッチン\breakグの方法に適したように,$N_{imax}$を最大とするような$P_b$,$R_b$を選択することができる.その結果を求めると,いずれの場合も,その値は$P_b$と$R_b$の調和平均を最大とする値の近傍(±1\%以内)にあるため,ここでは,$P_b$と$R_b$の調和平均が最大となる場合について,各方式の精度を表\break3に示す.また,各推定法によって推定された文節境界の例を表4に示す.これより以下のことが分かる.\Vspace\begin{enumerate}\item提案した3つの文節境界推定法のうち,第3の方法が最も優れており,言い直し表現を含まない場合と同程度の精度(適合率88.0\%,再現率89.6\%)が得られる.\vspace{0em}\item換言前音節列の始点の再現率(85.8\%)\footnote{換言前音節列の始点の再現率だけに限って言えば,第3の方法よりもFL・BL・FBL法を用いた方が,換言前音節列の始点の再現率は,約5\%高い値(90.6\%)が得られる(図6参照).}は,全体の文節境界の再現率(89.6\%)より,約4\%低い.またその終点の再現率(77.4\%)はさらに約8\%低い.\end{enumerate}\begin{figure}[tbp]\begin{center}\epsfile{file=fig/19.eps,height=106mm}\medskip\caption{言い直しを考慮した文節境界の推定結果}\label{fig:5}\end{center}\end{figure}\subsection{文節マッチング法の実験結果}文節境界精度がすべて正しい場合について,3.2で述べた3種のマッチング方法を用いて言い直し音節列抽出実験を行なった.その際,マッチングで用いたハミング距離$k$については,$k=0$から$m-1$の範囲で実験を行い,$P_m$,$R_m$が共に大きくなる値(今回の実験では,$k=1$)に設定した.実験の結果を表5の(2)の欄に示す.また,3通りのマッチング方式による言い直し音節列の抽出結果の例を表6に示す.表5の(2)の欄から以下の観察が得られる.\Vspace\begin{enumerate}\item方式2,3の適合率(共に約99\%)は,方式1(約86\%)に比べて10\%以上,適合率が高い.\item逆に,方式2,3の再現率(84〜85\%)は,方式1(約89\%)に比べて4〜5\%低い.\end{enumerate}\begin{table}[tbp]\vspace{-3mm}\begin{center}\caption{3つの方法による文節境界の推定結果の比較}\label{tab:3}\epsfile{file=fig/20_ue.eps,width=130mm}\bigskip\caption{文節境界の推定結果の例の一覧}\label{tab:4}\smallskip\epsfile{file=651_20.eps}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{文節境界抽出精度,マッチング精度及び言い直し音節検出精度の計算値と実験値}\label{tab:5}\medskip\epsfile{file=fig/21.eps,width=139mm}\end{center}\end{table}\bigskipこのうちの(1)から,第2の文節境界が正しく決定できることは,マッチングの精度を上げる上で有効であるが,第3の文節境界の情報はあまり価値を持たないことが推定される.また,(2)の差は,方式1のマッチング法では,方式2,方式3のマッチング法よりも甘い基準で言い直しを判定していることから生じたものと考えられる.\subsection{総合実験結果と推定値の比較}4章の方法を用いて,第1段階の実験結果(5.2節)と第2段階の実験結果(5.3節)から,総合的な言い直し表現の抽出精度を推定した結果を表5に示す.これと比較して,実際に第1段階の文節境界推定の方法と(第3の方法)と第2段階のマッチング処理を組み合わせて行った言い直し音節列抽出実験の結果を同じ表に示す.また,総合的な適合率と再現率の関係を\protect{図~6}に示す.これらの結果から以下のことが分かる.\begin{table}[htbp]\begin{center}\caption{3通りの方式による言い直し音節列抽出結果の例}\label{tab:6}\epsfile{file=651_22.eps}\end{center}\end{table}\smallskip\noindent{\bf<実験値の特性>}\smallskip\begin{enumerate}\item方式1は,他の方式と比べて再現率が高い($R_t$=75.5\%)のに対し,方式2や方式3\breakは逆に適合率が高い($P_t$=93.5〜94.9\%).\item方式2と3には,大差は認められない.\end{enumerate}\smallskip(1)は5.3節の実験結果から予測された通りである.また(2)も,第1文節境界に比べて第2文節境界の推定が低いこと,第3文節境界の情報はあまり影響しないことから予測された通りといえる.\begin{flushleft}\bf<推定値との比較>\end{flushleft}\begin{enumerate}\item総合実験における精度($P_t$,$R_t$)は,一部を除いて,実験値が推定値より,3〜6%低くなっている.\\[\LH]\hspace*{2ex}これは,推定値の計算では「言い直し文節とその他の正しい文節の境界が同じ精度で決定できる」と仮定していたが,実際の言い直し表現では,「言い直し文節の境界はその他の文節境界より決定しにくい」ことが原因と考えられる.上記の差が方式1に比べて方式2で顕著であるのは,特に,第2文節境界決定が困難であるためと思われる.\item方式3では,$R_t$の値は,(1)とは逆に実験値の方が推定値よりも高い.\\[\LH]\hspace*{2ex}最終的に抽出される言い直し表現は,換言前文節(第1,第2文節境界で囲まれた範囲)であり,換言後文節は抽出されないこと,従って,第1段階の文節境界の推定で,第2文節が正しく判定されなかった場合でも,言い直し表現が抽出できることがあるためと考えられる.\item適合率$P_t$は,方式3が最も高く,方式1が最も低いと考えられるが,推定値は,方式2と方式3でこの関係が逆転している.\\[\LH]\hspace*{2ex}この理由は以下の通りと考えられる.すなわち,方式3は,方式2に比べて第1段階で得られた文節候補中に含まれる言い直し文節候補が少ない.このため,言い直し文節と正しく判定できる文節は限られている.これに対して,正しい文節境界を持たない文節候補が多いため,第2段階のマッチングでは,より多くの正しくない文節が言い直しと判定される(すなわちごみが増える)ためと考えられる.\end{enumerate}\medskip以上の換言前音節列の抽出結果は,各方式とも第1段階において,5.2で述べた第3の方法を用いて文節境界を推定していた.しかし,マッチング方式1の場合には,文節境界の中で特に,換言前音節列の始点に当たる文節境界の精度が高いことが要求されることから,FL・BL・FBL法を用いた方が換言前音節列の抽出精度が高くなると考えられる(3.1および5.2の脚注参照).実際に,その実験結果を図6に示すと,換言前音節列の適合率=84.2\%,再現率=80.2\%となり,上記の場合よりも適合率で約$\!$3\%,再現率で約$\!$5\%高くなること,また,これらの値は計算\break値によく合致することがわかった.\begin{figure}[htbp]\begin{center}\epsfile{file=fig/23.eps,width=110mm}\medskip\caption{換言前音節列の抽出実験結果}\label{fig:6}\end{center}\end{figure}\vspace*{-15mm}\subsection{結論}マルコフ連鎖モデルによる文節境界推定の方法と文節間の文字列比較の方法を組み合わた方法により,会話文に現れた繰り返し型の言い直し表現は,適合率84〜95\%,再現率53〜80\%の精度で抽出することができる.具体的には,\Vspace\begin{enumerate}\item再現率を重視する場合には,第1文節境界のみを用いてマッチングにより言い直し音節列を判定する方法が適しており,再現率=80.2\%(適合率=84.2\%)の精度が得られる.\item逆に,適合率を重視する場合には,第2および第3の文節境界をも用いて文節を抽出し,文節間の音節列を比較する方法が適しており,適合率=94.9\%(再現率=52.8\%)の精度が得られる.\end{enumerate}本方式によって得られた結果にさらに文法情報などを適用して,言い直し表現の抽出精度を上げようとする場合は,再現率の高い(1)の結果を使用することが望ましいと考えられる.上記の実験結果では,かなり高い精度(80\%)で言い直し表現を抽出できることが分ったが,これは言語としての音節連鎖の持つ情報が,言い直しの言語的な特徴(誤り文字列の特性や繰り返しの構造など)をよく反映していること,これを使用すれば従来の音響的な情報以上の効果が得られることを意味している.今後,抽出精度を向上するには,音節の連鎖情報に加えて,従来の音響的な情報を有機的に組み合わせていくこと,また言語情報からみても,さらに文法的な情報を加えていくことが期待される.
\section{あとがき}
本論文では,音響処理によってべた書きの音節列に変換された会話文に対して,それに含まれる繰り返し型の言い直し表現を抽出する方法を提案した.この方法は,日本語音節列の持つ確率的情報を利用したもので,以下の2つの処理から構成される.すなわち,第1の処理は,言い直しの音節列が文節境界に挿入されることが多いことに着目し,言い直しを含む対話文を文節単位に分割するもので,従来のマルコフ連鎖モデルを用いた文節境界の推定法を言い直しを含む音節列に適すように改良した.第2の処理は,第1の方法で得られた文節境界を手がかりに,隣り合う2つの文節間で音節列の類似性を判定するマッチング処理であり,文節境界の使い方の異なる3つの方法を提案した.また,提案した方法の精度を推定するため,第1の処理と第2の処理の精度から,それを組み合わせたときの精度を計算する方法を示した.これらの方法をATRの「旅行に関する対話文」データ(その内,言い直しは106個所)に適用した実験結果から,以下のことが分かった.\smallskip\begin{enumerate}\item第1の処理では,従来のマルコフ連鎖モデルを組み合わせて使用すれば,言い直しを含む音節列でも,言い直しを含まない場合と同程度の精度(再現率約90\%,適合率88\%)で文節境界が推定できる.\itemこれにより,会話文に現れた繰り返し型の言い直し表現は,適合率84〜95\%,再現率53〜82\%の精度で抽出することができる.\smallskip\end{enumerate}本方式によって得られた結果にさらに文法情報などを適用して,言い直し表現の抽出精度を上げようとする場合は,再現率の高い方法が望まれる.その場合は,第1の処理で得られたすべての文節境界を起点に,それ以降数文節相当の音節列を調べる方法が適しており,その場合,再現率=80.2\%(適合率=84.2\%)の精度が得られる.なお,今後の課題としては,文節境界が未抽出の言い直し表現の抽出方法,付け加え型や繰り返しを伴う置き換え型の言い直し表現へ適用するための拡張方法,単語境界位置に出現する言い直し表現の抽出方法などの検討が挙げられる.\Vspace\acknowledgment本研究を進めるにあたり,ATR音声言語データベースを提供下さいましたATRの関係各位ならびに音声翻訳研究所森元逞元第四研究室長に感謝いたします.\vspace*{-3mm}\nocite{*}\bibliographystyle{jnlpbbl}\bibliography{v06n5_01}\begin{biography}\biotitle{略歴}\bioauthor{荒木哲郎}{1948年生.1976年福井大学工学部電気工学科卒業.1981年東北大学大学院博士課程修了.同年,日本電信電話公社入社,1990年NTT退社,同年福井大学工学部電子工学科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.電子情報通信学会,情報処理学会,言語処理学会,IEEE,各会員.}\bioauthor{池原悟}{1944年生.1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程修了.同年,電信電話公社に入社.数式処理,トラヒック理論,自然言語処理の研究に従事.1996年より,スタンフォード大学客員教授.現在,鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同研究賞.1995年日本科学技術センタ賞(学術賞),同年人工知能学会論文賞.電子情報通信学会,人工知能学会,言語処理学会,各会員.}\bioauthor{橋本昌東}{1972年生.1995年福井大学工学部電子工学科卒業.1999年同大学大学院博士前期課程修了.同年4月日本電気株式会社に入社.現在,第2パーソナルC\&C事業部に勤務.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V19N05-01
|
\section{はじめに}
オノマトペとは,「ハラハラ」,「ハキハキ」のような擬音語や擬態語の総称である.文章で物事を表現する際に,より印象深く,豊かで臨場感のあるものにするために利用される.日本語特有の表現方法ではなく,様々な言語で同じような表現方法が存在している\addtext{{\cite{Book_03}}}.このようなオノマトペによる表現は,その言語を\addtext{母語}としている人であれば非常に容易に理解することができる.また,オノマトペは音的な情報から印象を伝えるため,ある程度固定した表現もあるが,音の組み合わせにより様々なオノマトペを作ることも可能であり,実際様々なオノマトペが日々創出されている\addtext{{\cite{Book_05,Book_06}}}.そのため,国語辞書などにあえて記載されることは稀なケースであり,また,記載があったとしても,使用されているオノマトペをすべて網羅して記載していることはない\addtext{{\cite{Book_04}}}.そのため,その言語を\addtext{母語}としない人にとっては学習し難い言語表現である.特に,オノマトペを構成する文字が少し異なるだけでまったく異なる印象を与えることも学習・理解の難しさを助長していると考えられる.例えば先の例の「ハラハラ」という危惧を感じる様子を表現するオノマトペの場合,「ハ」を濁音にすると「バラバラ」となり,統一体が部分に分解される様子を表現し,また,半濁音の「パ」にすると「パラパラ」となり,少量しか存在しない様子を表現する.さらに,「ハラハラ」の「ラ」を「キ」にした「ハキハキ」では,物の言い方が明快である様子を表現するオノマトペになる.これらのオノマトペの特徴は,人が学習するときだけでなく,コンピュータで扱う際にも困難を生じさせる.そこで本稿では,オノマトペが表現する印象を推定する手法を提案する.日本語を対象に,オノマトペを構成する文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定する.\addtext{例えば,「チラチラ」というオノマトペの印象を知りたい場合,本手法を用いたシステムに入力すると「少ない」や「軽い」などという形容詞でその印象を表現し出力することができる.}これにより,日本語を\addtext{{母語}}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.また,機械翻訳や情報検索・推薦の分野でも活用することができると考えられる.
\section{関連研究と本研究の位置づけ}
\addtext{オノマトペは,感覚と強く関連する言葉であることから,心理学や認知科学など幅広い分野で研究対象とされている.例えば,映像などの視覚や音などの聴覚から感じる印象をオノマトペを用いて調査し,人が感じる印象とオノマトペとの関係性を抽出したり}\addtext{{\cite{Article_10,Article_11,Article_12,Article_13}},味覚の官能評価においてその評価項目としてオノマトペが利用され,オノマトペと食品の硬さを示}\addtext{す応力との関連性を評価したりしている{\cite{Article_14,Article_15}}.}本稿で対象とする言語処理の分野におけるオノマトペに関する関連研究として,オノマトペ辞書の構築\cite{Article_01,Article_02}やオノマトペの自動分類手法\cite{Article_03}などが提案されている.前者では,大規模なWebの情報を利用し,主に用例や動詞による同義表現などが調べられるオノマトペ辞書を自動で構築している.高い精度で用例を抽出できているが,新たなオノマトペが日々創出され続け,用法も変化していくため,辞書も構築し続けなければならないという問題はある.また,本稿で対象にしているオノマトペが表現する印象を扱うことはできない.後者では,10種類の意味を動詞で表現し,292語のオノマトペがどの意味であるかを自動分類している.Webの情報から算出した共起頻度と子音と母音の出現頻度を用い,クラスタリングすることで自動分類を実現している.しかし,オノマトペ中のモーラの並びなどオノマトペの構造に深く着目した処理とはなっていない.また,定義している意味や分類するオノマトペの数が少ないという問題がある.本稿では,未知のオノマトペが表現する印象は,類似したオノマトペが表現する印象と似ているという考えに基づき,類似度計算により類似したオノマトペを特定し,そのオノマトペが表現する印象を推定する.しかし,前述したように,オノマトペを構成する文字が少し異なるだけでまったく異なる印象を与えることもオノマトペの特徴である.そこで,既に出版されているオノマトペ辞書\cite{Book_01}に掲載されているオノマトペ1,058語を基に,オノマトペを構成する文字列とその構造を解析し,オノマトペが表現している印象を自動推定できる手法を提案する.具体的には,オノマトペ中のモーラの並びとモーラを構成する各音素が表現する印象をベクトル化した音象徴という2種類の特徴を利用することにより,先の問題を解決できる類似度計算を提案する.これにより,大規模な辞書を作成・利用することなく,新たに創出される未知のオノマトペの印象も推定することができる.また,推定する印象は48種類の形容詞で定義し,より詳細にオノマトペを理解できるようにしている.
\section{オノマトペの印象の推定方法}
本論文では,既に出版されているオノマトペ辞書に掲載されているオノマトペにそれらが表現している印象を事前に人手で付与したデータを用い,類似したオノマトペに付与されている印象を推定結果として出力する.ここで重要になるのが,「類似度の計算方法」と「印象語の出力方法」である.以下,順に説明する.\subsection{類似度の計算方法}オノマトペから抱く印象は,主にオノマトペの表記に使用されているモーラ自体やモーラの並び方に影響すると考えられる\cite{Article_05,Article_04}.そこで以下に,4種類の類似度算出手法を提案する.\subsubsection{オノマトペ中のモーラの並びに基づく類似度}オノマトペには,「フワフワ」,「チラチラ」のようにモーラの並び方にいくつかのパターンがあり,そのパターンによって表現する印象が変化する\cite{Article_04}.そこで,モーラの並びのパターンに着目した類似度を以下に2種類定義する.\begin{enumerate}\item\textbf{抽象化した型表現間の類似度}オノマトペの表記をモーラの並びを表す型表現\cite{Article_04}に変換し,その型表現同士のレーベンシュタイン距離を元に類似度を計算する.型表現への変換は,オノマトペ内の1モーラを1つの記号へと変換する.特定のモーラに``X'',``Y''等の記号を割り振るが,一部の特徴的なモーラには特別な記号を付与する.オノマトペの型表現に用いられる記号のリストを表\ref{type-symbol}に,オノマトペの型表現への変換例を表\ref{type-example}に示す.ここで,``t'',``r'',``n''については,オノマトペの表記中で基本とみられる表現(例えば「パチ」)に対して付与されるモーラ(「パチッ」,「パチリ」,「パチン」)に対してのみ用いられ,基本とみられる表現内のモーラ(「キリキリ」内の「リ」等)には用いられない(この場合,通常のモーラと同様,``X''等が用いられる).例えば「フワフワ」「チラチラ」はいずれも``XYXY''と変換される.\begin{table}[b]\hfill\begin{minipage}{189pt}\caption{オノマトペの型表現に用いられる記号}\label{type-symbol}\input{01table01.txt}\end{minipage}\hfill\begin{minipage}{162pt}\caption{オノマトペの型表現への変換例}\label{type-example}\input{01table02.txt}\end{minipage}\hfill\end{table}このように変換された型表現同士のレーベンシュタイン距離を算出し,更に類似度に変換する.本論文では,記号の置換・挿入・脱落をそれぞれ距離1としてレーベンシュタイン距離の計算を行うため,系列長がそれぞれ$l_{x}$,$l_{y}$である2つの系列$x$,$y$のレーベンシュタイン距離の最大値$\hat{d}(x,y)$は,\begin{equation}\hat{d}(x,y)=\max(l_{x},l_{y})\end{equation}となる.そこで,2つの系列$x$,$y$のレーベンシュタイン距離を$d(x,y)$として,2つのオノマトペ間の型表現による類似度$T(x,y)$を\begin{equation}T(x,y)=\frac{\hat{d}(x,y)-d(x,y)}{\hat{d}(x,y)}\label{eq:leven}\end{equation}と定義する.この類似度は,全く同じ系列同士の時に最大値1を,全く異なる系列同士の時に最小値0をとる.\item\textbf{モーラ系列間の類似度}前項ではオノマトペの表記を型表現に変換し,その系列間の類似度を計算していたが,ここでは,より直接的にオノマトペ内のモーラ系列間の類似度を計算する.オノマトペをモーラに分解し,モーラ系列間のレーベンシュタイン距離を算出する.その後,式(\ref{eq:leven})を用いて類似度を計算する.なお,この計算方法は,前項の型表現に使用した記号の代わりにモーラを直接用いる点を除き,その他はまったく同じ計算である.ここで得られる類似度を以降,$H(x,y)$と表記する.前項の型表現間の類似度では「フワフワ」と「チラチラ」はどちらも``XYXY''に変換されるため,類似度は1となるが,本項のモーラ系列間の類似度では0となる.そのため,モーラの並びが持つ印象の違いに加えて,モーラ自体が持つ印象の違いも考慮した類似度であると言える.\end{enumerate}\subsubsection{音象徴に基づく類似度}オノマトペに使用されている様々なモーラを構成する各音素には,その音自体が印象を持っていることが知られている.\addtext{この各音素が表現する印象をベクトルとして表現したものに音象徴{\cite{Article_05}}がある.そこで,音象徴を基に類似度を計算する.なお,音象徴}\addtext{ベクトルは,「強さ」,「硬さ」,「湿度」,「滑らかさ」,「丸さ」,「弾性」,「速さ」,「温かさ」の8次元の属性を有し,各属性に$-2$から2までの5段階の数値を与えることで音素が表現する印象を定義している.}まず,音素ごとに定義された音象徴ベクトルを用い,あるモーラの音象徴ベクトルをそのモーラを構成するすべての音素に対応する音象徴ベクトルの総和として定義する.この時,モーラが表現する印象として,母音と比較して子音の方がより強く影響することが知られている\cite{Article_05}ことから,子音の音象徴ベクトルを$w_{c}$倍してから和をとる.このようにして得られたモーラの音象徴ベクトル$\vec{a}$,$\vec{b}$間の類似度は,以下の式で計算される正規化されたコサイン類似度$c(\vec{a},\vec{b})$により計算する.\begin{equation}c(\vec{a},\vec{b})=\frac{1}{2}\frac{\vec{a}\cdot\vec{b}}{|\vec{a}||\vec{b}|}+\frac{1}{2}\label{eq:cosine}\end{equation}この式では,値域が0〜1になるように通常のコサイン類似度に対して正規化を行っている.本論文では,音象徴ベクトルに基づく類似度として,以下の2種類の類似度算出手法を提案する.\begin{enumerate}\item\textbf{モーラの\addtext{並び順と長さ}を考慮した類似度}\addtext{オノマトペの表記中のモーラの並び順と長さを考慮するため,2つのオノマトペのモーラ系列間の類似度を動的計画法(DP)を用いたDTW(DynamicTimeWarping)で計算する.DTWは2つのシンボル系列において,各シンボル間に定義された類似度をもとに,系列同士の類似度を求める方法である.2つのシンボル系列{$A=a_{1}a_{2}\cdotsa_{I}$}と{$B=b_{1}b_{2}\cdotsb_{J}$}({$I,J$}は各系列の長さ)があった時,あらかじめ各シンボル間の類似度{$d(a_{i},b_{j})$}を定義しておき,シンボルの順序を保存する(シンボル{$a_{i}$}が{$b_{j}$}と対応したとすると,{$a_{i+k}$}({$k>0$})は必ず{$b_{j+m}$}({$m\geq0$})と対応づけがなされる)という制約のもとで,対応するシンボル間の類似度の総和が最大になるような対応づけを求める.この時,{$a_{1}$}は{$b_{1}$}と,{$a_{I}$}は{$b_{J}$}と対応づけを行うこととする.最適な対応づけの探索は動的計画法を用いて効率よく計算され,結果として非線形に伸縮する系列間の類似度を計算することが可能となる.}\addtext{ここでは,各オノマトペをモーラの系列と捉え,2つのモーラ系列間の類似度をDTWで計算する.この時,各モーラ間の類似度は式({\ref{eq:cosine}})で計算される正規化されたコサイン類似度を用いる.こうして得られた類似度の最大値を,{$D(x,y)$}と表記する.}\item\textbf{全体の音象徴ベクトルによる類似度}オノマトペの表記中のモーラの並びを考慮せず,各モーラの音象徴ベクトルをすべて加算することでオノマトペの音象徴ベクトルを計算し,その正規化コサイン類似度を式(\ref{eq:cosine})を用いて計算する.ここで得られた類似度を,$M(x,y)$と表記する.\end{enumerate}\subsubsection{オノマトペ同士の類似度}前節までに定義した4種類の類似度を用い,オノマトペ同士の類似度を計算する.ここでは,4種類の類似度の重み付き和を計算することで,2つのオノマトペ$x$,$y$間の類似度$S(x,y)$を算出する.\begin{equation}S(x,y)=w_{T}T(x,y)+w_{H}H(x,y)+w_{D}D(x,y)+w_{M}M(x,y)\end{equation}ここで,$w_{T}$,$w_{H}$,$w_{D}$,$w_{M}$はそれぞれの類似度に対する重みであり,モーラの音象徴ベクトルを計算する際に子音に与える重み$w_{c}$と合わせて調整可能なパラメータである.\addtext{各類似度はすべて,全く同じもの同士の時が1,全く異なるもの同士の時に0となるように正規化されている.しかし,各類似度がオノマトペの印象を推定する上でどの程度重要であるかはわからないため,各類似度の重要度を変化させるためのパラメータとして重みを用い,実験的に最適な値を探索することとする.}\subsection{印象語の出力}本論文での提案手法の基本的な考え方は,入力されたオノマトペと高い類似度を持つオノマトペを辞書内から検索し,それに付与されている印象語を出力するというものである.しかし,常に最も類似したオノマトペに付与された印象語だけを出力するだけではなく,2位以下のオノマトペに付与されている印象語ついても,その類似度に比例した重みで考慮する必要があると思われる.そこで,以下の手順で検索を行い,最終的な印象語を出力する.\begin{enumerate}\item辞書内のすべてのオノマトペと類似度計算を行い,上位$n$個のオノマトペを抽出する.\item抽出された各オノマトペに付与されているすべての印象語について,類似度に比例した得点を与える.具体的には,最も類似度の高いオノマトペに付与されているすべての印象語に対して,類似度と同じ値の得点をそれぞれ与える.また,2位のオノマトペに付与されているすべての印象語についても同様に得点を与える.この時,1位と2位のオノマトペ双方に同じ印象語が付与されていれば,その印象語には1位の類似度と2位の類似度が加算された得点が与えられることになる.以下同様に,$n$位のオノマトペに付与された印象語まで得点を与えていく.\item得られた印象語を得点の高い順に並べかえ,最も高い得点を$s$とした時,$s\timesr$以上の得点を持つすべての印象語を出力する.\end{enumerate}ここで,$r$は0〜1の値であり,$n$とあわせて実験的に決定するパラメータである.
\section{評価と考察}
評価データには,オノマトペ辞書\cite{Book_01}に掲載されているオノマトペ1,058語を用いた.この辞書には,見出し語と共に用例や解説などが記載されている.しかし,本論文で焦点を当てるオノマトペが持っている印象については,明確に定義されていない.そこで,形状,質感,量・感覚的概念,心理的状態を表現する形容詞を24対,計48種類選出し,それらを推定する印象と定義した.選出した形容詞対を表\ref{table01}に示す.\addtext{なお,推定する印象として使用する形容詞は,複数の文献{\cite{Book_02,Article_06}}}\addtext{{\cite{Article_07,Article_08}}}\addtext{{\cite{Article_09}}を参考に,討議の上決定した.}オノマトペが表現していると思われる印象を選出した形容詞対から独自に判断し,すべてのオノマトペに対して人手で印象を付与した.なお,オノマトペは多義であることが多いため,複数の印象を付与することを許容している.\addtext{例えば,「チラチラ」というオノマトペの印象は,「速い」,「小さい」,「少ない」,「軽い」という形容詞の集合で表現される.}\begin{table}[b]\caption{オノマトペの印象を表現する形容詞対}\label{table01}\input{01table03.txt}\end{table}\subsection{人間同士の印象推定結果}\label{re}オノマトペから抱く印象は人によってある程度の範囲でゆれが生じると考えられる.そこで,印象の付与は2名の評価者がそれぞれの感覚で独立に作業を行った.\addtext{なお,表{\ref{table01}}の左上から右下の順に横方向に5対ずつ並べてディスプレイに表示させた形容詞対とオノマトペ辞書の見出し語のみを参照しながら印象の付与作業を行った.}それぞれの評価者が作成した印象ラベル間の一致率を検証するため,一方の評価者が作成した評価データを正解とし,他方の評価者が作成した評価データの適合率と再現率ならびにF値を算出した.結果を表\ref{table02}に示す.なお,印象の平均付与数は評価者Aが3.40語,評価者Bが2.45語となった.\addtext{また,各形容詞ごとに「その形容詞が選択されたか否か」という2カテゴリ選択問題として人間同士の回答のカッパ係数を求めたところ,最大で0.602,最小で$-0.006$であり,48形容詞の平均で0.332であった.}\begin{table}[b]\caption{評価者間におけるオノマトペから抱く印象のゆれの検証結果}\label{table02}\input{01table04.txt}\end{table}この結果から,オノマトペから抱く人の印象にゆれが生じることが確認された.つまり,人間であっても100\%印象を特定することはできないと言える.\addtext{この結果は2名の評価者だけからの結果であるため,あくまでも参考程度の値ではあるが,本論文では,人間同士の一致率にあたるF値0.427を提案方法の性能評価を行う際の目安として用いることとする.}\subsection{提案手法の印象推定結果}前述のオノマトペ1,058語に対し,1語をテストデータ,残りの1,057語を辞書データとして印象語を出力する実験をテストデータを変更しながら行った.各種パラメータについては,$w_{c}$は「1,2,3」の3種類,$w_{T}$,$w_{H}$,$w_{D}$,$w_{M}$は「0,1,2,5,10,20」の6種類,$n$は「1,3,5,10,20」の5種類,$r$は「1,0.8,0.6,0.4,0.2,0」の6種類を設定し,最適なパラメータを探索した.各類似度の有効性を検証するため,それぞれの類似度を用いる場合と用いない場合のそれぞれについて,すべてのパターンで性能を比較した.\addtext{各評価者が付与した印象語を正解とし,それぞれに対するF値を平均した値が最も高くなるように}パラメータを事後的に設定した時の結果を表\ref{results}に示す.ここで,「類似度に対する重み」が``\inzero''であるものは,その類似度を使用しないために強制的に重みを0としたことを,また``0''であるものは,その類似度に対する重みを変化させながら実験した結果,最終的に重みが0(その類似度は使用しない)の時が最も性能が良かったことを示す.なお,各種パラメータについては,最も性能が良かったもののみをその値とともに示している.``\indc''は,そのパラメータが使われなかったことを示す.\begin{table}[t]\caption{提案手法によるオノマトペの印象推定結果}\label{results}\input{01table05.txt}\end{table}\subsection{考察}2名の評価者に対する結果から最適にパラメータ調整すると提案手法のオノマトペの印象推定性能は,F値0.345であった.\addtext{この数値は,{\ref{re}}節で述べた本論文の参考値である人間同士の一致率にあたるF値0.427の8割程度にあたり,有効な手法であるといえる.}詳細に分析すると,モーラ系列間のレーベンシュタイン距離($H(x,y)$)と音象徴ベクトル($M(x,y)$)を用いる場合が最も性能が良く,この場合,子音に重みを与える必要があった.この手法では,モーラ系列間のレーベンシュタイン距離でオノマトペの構造パターンを音象徴ベクトルで音的な特徴をうまく捉えて扱うことができていると思われる.次に良い性能であったのは,モーラ系列間のレーベンシュタイン距離とモーラの並び($D(x,y)$)を用いる手法であった.この手法の場合,印象語を出力する際に上位10位までのオノマトペに付与された印象語を対象にする必要がある.また,3番目に良い性能であった手法は,モーラ系列間のレーベンシュタイン距離のみを用いたもので,この場合,上位20位までの印象語を対象にする必要がある.これは,多くの印象語の候補を扱うことで音的な特徴から推定される印象語を補完しようと働いていると考えられる.\begin{table}[b]\caption{類似度の使用の有無による印象推定性能の違い}\label{karnaugh}\input{01table06.txt}\end{table}さらに,表\ref{results}からF値だけを抜き出し,4種類の類似度を使用するか否かという条件により分類したものを表\ref{karnaugh}に示す.これより,以下のことが分かった.\begin{itemize}\item$H(x,y)$が最も重要であるモーラ系列間のレーベンシュタイン距離に``○''が付いている列は``×''の列より全体的にF値が高くなっていることから,最も重要な考え方であることが分かる.\item$M(x,y)$は$H(x,y)$と組みあわせると性能が向上する音象徴ベクトルは,モーラ系列間のレーベンシュタイン距離と組み合わせた時のみ性能が向上しており,良い補完関係になっているといえる.この2種類を組み合わせた手法が最も良い組み合わせである.\item$D(x,y)$は$H(x,y)$と組みあわせると性能が少しだけ向上する\item$D(x,y)$は$M(x,y)$と組みあわせると性能が向上するが,$H(x,y)$がある場合は不要であるモーラの並びは,モーラ系列間のレーベンシュタイン距離または音象徴ベクトルと組み合わせると少し性能向上に寄与する.しかし,モーラの並びとモーラ系列間のレーベンシュタイン距離は同じような特徴を捉えているため,より性能の良いモーラ系列間のレーベンシュタイン距離を用いる方が効率的である.\item$T(x,y)$は不要であるオノマトペを抽象化した型表現は,用いたとしてもすべての組み合わせで性能が向上しないことから不用であるといえる.型表現では,オノマトペの特徴をうまく捉えることができないためであると思われる.\end{itemize}\addtext{本稿では,日本語を対象にオノマトペの印象推定を行ったが,オノマトペの表記内のモーラ系列間の類似度とオノマトペの表記全体の音象徴ベクトルによる類似度を用いた手法が最も良い推定結果となったことから,他の言語への対応も可能であると考えられる.他の言語では日本語程に多くのオノマトペを頻繁に利用するわけではないが{\cite{Book_03}},例えば,中国語では日本語と良く似た構造のオノマトペが利用されており,また,英語では日本語で多く見られる反復する形ではないオノマトペが利用されているが,実際に聞こえる音をアルファベットの発音に照らし合わせてオノマトペとして表現するため,日本語と同様の関連性を見出すことができると思われる.}
\section{おわりに}
本稿では,日本語のオノマトペ辞書を基に,文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定できる手法を提案した.これにより,大規模な辞書を作成・利用することなく,新たに創出される未知のオノマトペの印象も推定することができる.また,日本語を\addtext{母語}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.さらには,機械翻訳や情報検索・推薦の分野でも活用するなどの展開が考えられる.計4種類の類似度計算手法を提案し,7つのパラメータを実験的に調整し最適値を探索した.結果として,オノマトペの表記内のモーラ系列間の類似度とオノマトペの表記全体の音象徴ベクトルによる類似度を用いた手法が最も良い推定結果となり,\addtext{参考値である人間同士の一致率の8割程度にまで近づくことができた.}本稿では,評価者が2名と少数であったことから,今後さらに評価者を増やして辞書構築を行い,ゆれの少ない辞書を構築する必要があると思われる.\acknowledgment本研究の一部は,科学研究費補助金(若手研究(B)24700215)の補助を受けて行った.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅賀\JBA渡辺}{浅賀\JBA渡辺}{2007}]{Article_02}浅賀千里\JBA渡辺知恵美\BBOP2007\BBCP.\newblockWebコーパスを用いたオノマトペ用例辞典の開発.\\newblock\Jem{電子情報通信学会第18回データ工学ワークショップ},{\BbfD9}(2).\bibitem[\protect\BCAY{池田\JBA早川\JBA神山}{池田\Jetal}{2006}]{Article_15}池田岳郎\JBA早川文代\JBA神山かおる\BBOP2006\BBCP.\newblockテクスチャを表現する擬音語・擬態語を用いた食感性解析.\\newblock\Jem{日本食品工学会誌},{\Bbf7}(2),\mbox{\BPGS\119--128}.\bibitem[\protect\BCAY{市岡\JBA福本}{市岡\JBA福本}{2009}]{Article_03}市岡健一\JBA福本文代\BBOP2009\BBCP.\newblockWeb上から取得した共起頻度と音象徴によるオノマトペの自動分類.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ92-D}(3),\mbox{\BPGS\428--438}.\bibitem[\protect\BCAY{芋阪}{芋阪}{1999}]{Book_06}芋阪直行\BBOP1999\BBCP.\newblock\Jem{感性の言葉を研究する—擬音語・擬態語に読む心のありか}.\newblock新曜社.\bibitem[\protect\BCAY{奥村\JBA齋藤\JBA奥村}{奥村\Jetal}{2003}]{Article_01}奥村敦史\JBA齋藤豪\JBA奥村学\BBOP2003\BBCP.\newblockWeb上のテキストコーパスを利用したオノマトペ概念辞書の自動構築.\\newblock\Jem{情報処理学会研究報告自然言語処理研究会報告},{\Bbf23},\mbox{\BPGS\63--70}.\bibitem[\protect\BCAY{加藤\JBA青山\JBA福田}{加藤\Jetal}{2005}]{Article_09}加藤雅士\JBA青山憲之\JBA福田忠彦\BBOP2005\BBCP.\newblock映像視聴時における感情と生体信号の関係の分析.\\newblock\Jem{ヒューマンインタフェースシンポジウム2005},{\Bbf1}(3334),\mbox{\BPGS\885--888}.\bibitem[\protect\BCAY{小松\JBA秋山}{小松\JBA秋山}{2008}]{Article_05}小松孝徳\JBA秋山広美\BBOP2008\BBCP.\newblockユーザの直感的表現を支援するオノマトペ意図理解システム.\\newblock{\BemHuman-AgentInteractionSymposium2008},{\Bbf2A}(4).\bibitem[\protect\BCAY{米谷\JBA渡部\JBA河岡}{米谷\Jetal}{2003}]{Article_07}米谷彩\JBA渡部広一\JBA河岡司\BBOP2003\BBCP.\newblock常識的知覚判断システムの構築.\\newblock\Jem{人工知能学会全国大会},{\Bbf3C1}(7).\bibitem[\protect\BCAY{丹野}{丹野}{2004}]{Article_04}丹野眞智俊\BBOP2004\BBCP.\newblockOnomatopoeia(擬音語・擬態語)に関する音韻分類.\\newblock\Jem{神戸親和女子大学児童教育学研究},{\Bbf23}(1),\mbox{\BPGS\11--26}.\bibitem[\protect\BCAY{土田}{土田}{2005}]{Article_10}土田昌司\BBOP2005\BBCP.\newblockオノマトペによる映像の感性評価—感性検索への応用可能性—.\\newblock\Jem{感性工学研究論文集},{\Bbf5}(4),\mbox{\BPGS\93--98}.\bibitem[\protect\BCAY{得猪}{得猪}{2007}]{Book_03}得猪外明\BBOP2007\BBCP.\newblock\Jem{へんな言葉の通になる—豊かな日本語,オノマトペの世界}.\newblock祥伝社.\bibitem[\protect\BCAY{早川}{早川}{2000}]{Article_14}早川文代\BBOP2000\BBCP.\newblock性別・年齢別にみた食感覚の擬音語・擬態語.\\newblock\Jem{日本家政学会誌},{\Bbf53}(5),\mbox{\BPGS\437--446}.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{2001}]{Book_02}飛田良文\JBA浅田秀子\BBOP2001\BBCP.\newblock\Jem{現代形容詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{2002}]{Book_01}飛田良文\JBA浅田秀子\BBOP2002\BBCP.\newblock\Jem{現代擬音語擬態語用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{前川\JBA吉田}{前川\JBA吉田}{1998}]{Article_08}前川純孝\JBA吉田光雄\BBOP1998\BBCP.\newblockSD法による流行歌の聴取印象評価—探索的・検証的因子分析—.\\newblock\Jem{国際関係学部紀要},{\Bbf1}(23),\mbox{\BPGS\93--108}.\bibitem[\protect\BCAY{村上}{村上}{1980}]{Article_12}村上宣寛\BBOP1980\BBCP.\newblock音象徴仮説の検討:音素,SD法,名詞及び動詞の連想語による成分の抽出と,それらのクラスター化による擬音語・擬態語の分析.\\newblock\Jem{教育心理学研究},{\Bbf28}(3),\mbox{\BPGS\183--191}.\bibitem[\protect\BCAY{山内\JBA岩宮}{山内\JBA岩宮}{2005}]{Article_13}山内勝也\JBA岩宮眞一郎\BBOP2005\BBCP.\newblock周波数変調音の擬音語表現とサイン音としての機能イメージ.\\newblock\Jem{日本生理人類学会誌},{\Bbf10}(3),\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{山口}{山口}{2003}]{Book_04}山口仲美\BBOP2003\BBCP.\newblock\Jem{暮らしのことば—擬音・擬態語辞典}.\newblock講談社.\bibitem[\protect\BCAY{湯澤\JBA松崎}{湯澤\JBA松崎}{2004}]{Book_05}湯澤質幸\JBA松崎寛\BBOP2004\BBCP.\newblock\Jem{音声・音韻探求法}.\newblock朝倉書店.\bibitem[\protect\BCAY{吉村\JBA関口}{吉村\JBA関口}{2006}]{Article_11}吉村浩一\JBA関口洋美\BBOP2006\BBCP.\newblockオノマトペで捉える逆さめがねの世界.\\newblock\Jem{法政大学文学部紀要},{\Bbf54}(1),\mbox{\BPGS\67--76}.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{Article_06}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock常識的感覚判断システムにおける名詞からの感覚想起手法理解システム.\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),\mbox{\BPGS\73--82}.\end{thebibliography}\begin{biography}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.博士(工学).2009年同志社大学理工学部インテリジェント情報工学科助教.2011年同准教授.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,電子情報通信学会各会員.}\bioauthor{鈴木基之}{1993年東北大学工学部情報工学科卒業.1996年同大大学院博士後期課程を退学し,同大大型計算機センター助手.2006年〜2007年英国エジンバラ大学客員研究員.2008年徳島大学大学院ソシオテクノサイエンス研究部准教授,現在に至る.博士(工学).音声認識・理解,音楽情報処理,自然言語処理,感性情報処理等の研究に従事.電子情報通信学会,情報処理学会,日本音響学会,ISCA各会員.}\bioauthor{任福継}{1982年北京郵電大学電信工程学部卒業.1985年同大学大学院計算機応用専攻修士課程修了.1991年北海道大学大学院工学研究科博士後期課程修了.博士(工学).広島市立大学助教授を経て,2001年より徳島大学工学部教授.現在に至る.自然言語処理,感性情報処理,人工知能の研究に従事.情報処理学会,人工知能学会,言語処理学会,電気学会,AAMT,IEEE各会員.日本工学会フェロー.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\end{biography}\biodate\end{document}
| |
V22N01-01
|
\section{はじめに}
述語項構造解析(predicate-argumentstructureanalysis)は,文から述語とその格要素(述語項構造)を抽出する解析タスクである.述語項構造は,「誰が何をどうした」を表現しているため,この解析は,文の意味解析に位置付けられる重要技術の一つとなっている.従来の述語項構造解析技術は,コーパスが新聞記事であるなどの理由で,書き言葉で多く研究されてきた\cite{carreras-marquez:2004:CONLL,carreras-marquez:2005:CoNLL,Matsubayashi:PredArgsData2014j}.一方,近年のスマートフォンの普及に伴い,Apple社のSiri,NTTドコモ社のしゃべってコンシェルなど,音声による人とコンピュータの対話システムが,身近に使われ始めている.人・コンピュータの対話システムを構築するためには,人間の発話を理解し,システム発話とともに管理する必要があるが,述語項構造は,対話理解・管理に対しても有効なデータ形式であると考えられる.しかし,新聞記事と対話では,発話人数,口語の利用,文脈など,さまざまな違いがあるため,既存の新聞記事をベースとした述語項構造解析を対話の解析に利用した際の問題は不明である.たとえば,以下の対話例を考える.\vspace{1\Cvs}\begin{center}\begin{tabular}{|lp{60mm}|}\hlineA:&$\left[\mathit{iPad}\right]_{\text{ガ}}$が\textbf{ほしい}な.\\B:&いつ$\phi_{\text{ガ}}\phi_{\text{ヲ}}$\textbf{買う}の?\\\hline\end{tabular}\end{center}\vspace{1\Cvs}\noindentこの例では,最初の発話から,述語が「ほしい」,そのガ格が「iPad」である述語項構造が抽出される.2番目の発話では,述語が「買う」であることはわかるが,ガ格,ヲ格が省略されているため,述語項構造を得るためには,ガ格が発話者A,ヲ格が「iPad」であることも併せて解析する必要がある.このように,対話では省略がごく自然に出現する(これをゼロ代名詞と呼ぶ)ため,日本語の対話の述語項構造解析には,ゼロ代名詞照応解析処理も必要となる.本稿では,人とコンピュータの対話システム実現のため,従来に比べ対話を高精度に解析する述語項構造解析を提案する.本稿で対象とするタスクは,以下の2点をともに解決するものである.\begin{enumerate}\item日本語で必須格と言われているガ格,ヲ格,ニ格に対して,述語能動形の項を決定する.\itemゼロ代名詞照応解析を行い,文や発話内では項が省略されている場合でも,先行した文脈から項を決定する.\end{enumerate}本稿の提案骨子は,対話のための述語項構造解析器の構築を,新聞から対話へのドメイン適応とみなすことである.具体的には,新聞記事用に提案されたゼロ代名詞照応機能付き述語項構造解析を,話題を限定しない雑談対話に適応させる.そして,対話と新聞のさまざまな違いを,個々の違いを意識することなく,ドメイン適応の枠組みで包括的に吸収することを目指す.\citeA{Marquez:SRLSurvay2008,Pradhan:SRLAdaptation2008}は,意味役割付与のドメイン適応に必要な要素として,未知語対策とパラメータ分布の違いの吸収を挙げている.本稿でも,未知語およびパラメータ分布の観点から対話に適応させる.そして,新聞記事用より対話に対して高精度な述語項構造解析を提案する.我々の知る限り,ゼロ代名詞を多く含む対話を,高精度に解析する述語項構造解析器は初である.以下,第\ref{sec-related-work}章では,英語意味役割付与,日本語述語項構造解析の関連研究について述べる.\ref{sec-char-dialogs}章では,我々が作成した対話の述語項構造データと新聞の述語項構造データを比較し,対話の特徴について述べる.第\ref{sec-basic-strategy}章では,今回ベースとした述語項構造解析方式の概要を述べ,第\ref{sec-adaptation}章では,これを対話用に適応させる.実験を通じた評価は\ref{sec-experiments}章で述べ,第\ref{sec-conclusion}章でまとめる.
\section{関連研究}
\label{sec-related-work}近年の日本語の述語項構造解析は,教師あり学習をベースにしている.これは,英語の意味役割付与の考え方を参考にし,日本語の問題に当てはめたものである.英語の意味役割付与も,近年は意味役割として,述語とその項(格要素ごとの名詞句)に関する情報を付与しており,述語項構造解析と非常に似たタスクとなっている.\subsection{英語の意味役割付与}英語の意味役割付与は,\citeA{Gildea:PredArgs2002}が教師あり学習を用いた方式を提案して以来,コーパスが整備されてきた.国際ワークショップCoNLL-2004,2005で行われた共有タスク\cite{carreras-marquez:2004:CONLL,carreras-marquez:2005:CoNLL}では,PropBank\cite{Palmer:PropBank2005}を元にした評価が行われた.PropBankは,文に対して,述語とその項を注釈付けしたコーパスで,文自体は,PennTreebank(元記事はWallStreetJournal)から取られているため,ここで行われた評価も新聞記事に対するものである(このあたりの経緯は,\citeA{Marquez:SRLSurvay2008}が整理している).OntoNotes\cite{hovy-EtAl:2006:HLT-NAACL06-Short}は,ニュース記事,ニュース放送,放送における対話など,複数のジャンルを含んだコーパスである.付与された情報には,意味役割も含んでいるが,現在は共参照解析のデータとして使用されるに留まり\cite{conll2012-shared-task},対話解析への適用はこれから期待されるところである.意味役割付与は,タスク指向対話の意味理解にも利用される場合がある\cite{Tur:UnderstandingSRL2005,coppola-moschitti-riccardi:2009:NAACLHLT09-Short}.\citeA{Tur:UnderstandingSRL2005}は,電話のコールセンタにおけるユーザとオペレータとの対話において,述語と項の対を素性としたコールタイプ分類器を構築している.ここで,述語・項の対は,ユーザ発話をPropBankベースの意味役割付与器で解析することで得ている.彼らの実験は,素性として用いる場合は新聞記事用の意味役割付与器でも効果があることを示したが,本稿では,対話における述語項構造解析自体の精度向上を狙っている.\citeA{coppola-moschitti-riccardi:2009:NAACLHLT09-Short}は,同じくコールセンタ対話に対して,FrameNet\cite{RuppenhoferEtAl2006:ExtTeoryAndPractice}に準拠する意味役割付与を行っている.彼らは,コールセンタ対話を解析するため,分野依存の意味フレームをFrameNetに追加して,スロット(フレーム要素)の穴埋めを行っている.コールセンタ対話のように,意味役割が非常に限定される場合は,フレーム追加で対応できるが,タスクを限定しない雑談対話の場合は,分野依存フレームの追加は困難である.なお,述語だけでなく,事態性名詞(例えば,動詞`\textit{decide}'に対する事態性名詞`\textit{decision}')に対する意味役割付与の研究もある\cite{jiang-ng:2006:EMNLP,Gerber:NomPredArgs2012,laparra-rigau:2013:ACL2013}.事態性名詞の場合,英語でも格要素を省略して表現することがあるため(たとえば,``\textit{thedecision}''の対象格は省略されている),日本語のゼロ代名詞と同様の問題を解決する必要がある.\subsection{日本語の述語項構造解析}日本語では,奈良先端大が,述語項構造と照応データを新聞記事に付与したNAISTテキストコーパス\footnote{http://cl.naist.jp/nldata/corpus/}を公開している\cite{iida-EtAl:2007:LAW,Iida:NAISTCorpus2010j}.NAISTテキストコーパスは,毎日新聞の記事に対して,日本語で必須格と言われているガヲニ格の名詞句を,各述語に付与したものである.名詞句は,述語能動形の格に対して付与されている.また,名詞句は述語と同じ文内に限らず,ゼロ代名詞化されている場合は,先行詞までさかのぼって付与されている.述語項構造解析も,上記コーパスを利用したものが多く提案されている\cite{Komachi:PredArgs2007,taira-fujita-nagata:2008:EMNLP,imamura-saito-izumi:2009:Short,Yoshikawa:PredArgs2013j,Hayashibe:PredArgs2014j}.日本語の場合,ゼロ代名詞が存在するため,述語項構造解析時に,文をまたがるゼロ代名詞照応も解釈する場合がある(たとえば\cite{taira-fujita-nagata:2008:EMNLP,imamura-saito-izumi:2009:Short,Hayashibe:PredArgs2014j}).新聞記事以外を対象とした述語項構造解析研究には,以下のものがある.\citeA{Hangyo:ZeroAnaphra2014j}は,ブログなどを含むWebテキストを対象に,特に一人称・二人称表現に焦点を当てた照応解析法を提案している.彼らは同時に述語項構造解析も行っており,本稿のタスクと類似している.彼らはWebテキストを解析するにあたり,外界照応(記事内に項の実体が存在しない)を著書(一人称),読者(二人称),その他の人,その他に分けるという拡張を行っている.本稿でも,NAISTテキストコーパス(バージョン1.5)の分類に従い,外界照応を一人称,二人称,その他に分け,項の推定を行う.また,\citeA{Taira:PredArgs2014j}は,ビジネスメールを対象とした述語項構造解析を試みている.彼らは新聞記事用の述語項構造解析器をそのままビジネスメール解析に適用したが,一人称・二人称外界照応は,ほとんど解析できなかったと報告している.英語,日本語いずれも,現状の意味役割付与,述語項構造解析は新聞記事のような正書法に則って記述されたテキストやWebテキスト,メールを対象としている.非常に限定されたタスクを扱うコールセンタ対話の例はあるが,タスクを限定しない雑談対話を解析した際の精度や問題点については不明である.
\section{雑談対話の特徴}
\label{sec-char-dialogs}まず我々は,2名の参加者による雑談対話を収集し,その対話に述語項構造データの付与を行った.雑談対話は,参加者が自由なテーマ(話題)を設定し,キーボード対話形式で収集した.したがって,音声対話に含まれるような相槌や言い直しは少ない.参加者の話題は,食事,旅行,趣味,テレビ・ラジオなどである.述語項構造アノテーションは,NAISTテキストコーパス\cite{iida-EtAl:2007:LAW,Iida:NAISTCorpus2010j}に準拠する形で行った.雑談対話と,その述語項構造解析アノテーションの例を図\ref{fig-chat-dialog}に示す\footnote{対話中に一人称・二人称代名詞が陽に出現する場合,アノテータに対してexo1/exo2との区別は指示しなかった.しかし,述語と同一発話内ではその代名詞を項に使う場合が多く,異なる発話の場合,出現した代名詞をゼロ代名詞照応先とするのではなく外界照応(exo1/exo2)とする傾向が高かった.}.\begin{figure}[b]\input{01fig01.txt}\caption{雑談対話とその述語項構造アノテーションの例}\label{fig-chat-dialog}\par\small太字は述語,$[]$は文内の項,$()$は文間の項または外界照応を表す.\\また,\texttt{exo1},\texttt{exo2},\texttt{exog}はそれぞれ一人称/二人称ゼロ代名詞,それ以外の外界照応を表す.\end{figure}\begin{table}[b]\caption{コーパスサイズ}\label{tbl-corpus-size}\input{01table01.txt}\end{table}今回作成した雑談対話コーパスと,NAISTコーパス\footnote{NAISTコーパスはバージョン1.5を用い,文節化の前処理を行った上で使用した.1文節に複数の述語が含まれている場合は,前方に出現した述語のみを対象とした.}の統計量を表\ref{tbl-corpus-size}に示す.対話コーパスは,NAISTコーパスの約1/10のサイズである.また,1文/発話の長さ(形態素数)は,雑談対話コーパスはNAISTコーパスの1/3程度と短い.NAISTコーパスは,訓練,開発,テストに3分割したのに対し,対話コーパスは訓練とテストの2分割とした.対話の特徴を分析するため,この2つのコーパスの比較を行った.表\ref{tbl-arg-distrib}は,訓練セットにおける項の分布を示したものである.各項は,述語との位置関係や文法関係などにより問題の難しさが異なるため,以下の6タイプに分類した.最初の2つ(係受および文内ゼロ)は述語と項が同じ文に存在する場合である.\begin{table}[t]\caption{訓練セットにおける項の分布}\label{tbl-arg-distrib}\input{01table02.txt}\end{table}\begin{itemize}\item\textbf{係受:}述語と項が直接の係り受け関係にある場合\item\textbf{文内ゼロ:}述語と項が同じ文(発話)内にあるが,直接の係り受け関係がない場合\item\textbf{文間ゼロ:}述語と項が異なる文にある場合\item\textbf{exo1/exo2/exog:}項が記事(対話)内に存在しない外界照応.それぞれ,一人称ゼロ代名詞,二人称ゼロ代名詞,それ以外(一般)を表す.\end{itemize}これを見ると,対話ではすべての格で,係受タイプの項が減少している.それ以外のタイプについては,ガ格と,ヲ格ニ格で傾向が異なっている.ガ格では,文内ゼロ代名詞も対話の場合に減少し,減少分は一人称・二人称外界照応(exo1,exo2)に割り当てられている.つまり,ガ格では,文内の項が減少し,ゼロ代名詞が新聞に比べて頻発する.ただし,その先行詞は一人称・二人称代名詞である可能性が高いと言うことができる.ヲ格ニ格では,係受タイプの項の減少分は,文間ゼロ代名詞またはその他の外界照応(exog)に割り振られている.つまり,新聞記事では,大部分は述語と同じ文内に現れていたヲ格ニ格の項が,対話では別の発話に現れることが多くなり,1文に閉じない照応解析が重要となる.
\section{ゼロ代名詞照応付き述語項構造解析}
\label{sec-basic-strategy}\subsection{基本方式}\label{sec-architecture}本稿でベースとする述語項構造解析は,\citeA{imamura-saito-izumi:2009:Short}の方法である.これは,新聞記事を対象とした方法であるが,文内に存在する項,文間の項,外界照応を同時に解析できるという特徴があるため,対話の解析にも適していると判断した.処理は,記事(対話)全体を入力とし,各文(発話)ごとに以下のステップを実行する.\pagebreak\begin{enumerate}\item入力文を形態素・構文解析する.構文解析時には,同時に文節とその主辞を特定しておく.なお,今回は対話コーパスに関しては,形態素解析器MeCab\cite{kudo-yamamoto-matsumoto:2004:EMNLP},構文解析器CaboCha\cite{Kudo:Cabocha2002}で形態素・文節係り受け・主辞情報を自動付与した.NAISTコーパスに関しては,NAISTコーパス1.5付属のIPA体系の形態素・構文情報を利用した\footnote{NAISTコーパス1.5は,IPA体系の形態素,文節,主辞情報を含んだ形で配布されている.京都大学テキストコーパス4.0(http://nlp.ist.i.kyoto-u.ac.jp/index.php?京都大学テキストコーパス)と,毎日新聞1995年版記事データを合成することで,係り受け情報を含む完全なNAISTコーパスが構成できるようになっている.}.\item文から述語文節を特定する.今回は評価のため,コーパスの正解述語を用いたが,対話システム組み込みの際には,主辞が動詞,形容詞,形容動詞,名詞+助動詞「だ」の文節を述語文節とし,品詞パターンで決定する.\item対象述語の存在する文,およびそれより前方の文から,項の候補となる文節を取得する.文節の内容語部を候補名詞句とする.具体的には,以下の文節が候補となる.\begin{itemize}\item対象述語の文に含まれる,内容語部が名詞句であるすべての文節を文内の候補とする.その際,述語文節との係り受け関係は考慮しない.\item対象述語より前方の文から,文脈的に項の候補となりうる文節を加え,文間の候補とする.詳細は\ref{sec-context-processing}節で述べる.\item記事内に実体を持たない疑似候補として,外界照応(exo1,exo2,exog)と,任意格のため格を必要としない(NULL)を特殊名詞句として加える.\end{itemize}\item述語文節,項の候補名詞句,両者の関係を素性化し,ガ,ヲ,ニ格独立に,候補からもっとも各格にふさわしい名詞句を選択器で選択する(図\ref{fig-struct}).\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{22-1ia1f2.eps}\end{center}\caption{項選択の例}\label{fig-struct}\end{figure}本稿では,\citeA{imamura-saito-izumi:2009:Short}の方式から,若干の変更を行っている.変更点は以下のとおりである.\begin{itemize}\item\citeA{imamura-saito-izumi:2009:Short}では,特殊名詞句は1種類(NULLのみ)であったが,本稿では4種類(NULL,exo1,exo2,exog)に拡張した.\citeA{Hangyo:ZeroAnaphra2014j}は,外界照応を含む一人称,二人称ゼロ代名詞(論文では著者・読者表現)の照応解析を行うことで,それ以外のゼロ代名詞の照応解析精度も向上したと報告している.本稿でも,特殊名詞句の種別を増やすこととする.\item素性が異なる.本稿では,\ref{sec-features}節で述べる素性を使用したが,これは\citeA{imamura-saito-izumi:2009:Short}の基本素性を拡張,追加したものである.また,文脈を考慮する素性(文献ではSRLOrder,Used)は使用せず,簡略化した.これは,文脈管理を外部モジュールに任せるためで,詳細は\ref{sec-context-processing}で述べる.\item係り受け言語モデル(\ref{sec-dependency-lm}節参照)を1種類から3種類に拡張した.\end{itemize}\subsection{選択器のモデル}\label{sec-selector-models}選択器のモデルは,最大エントロピー分類に基づく.具体的には,選択器は記事内の述語$v$ごとに,候補名詞句集合$\textbf{N}$から,以下の式を満たす名詞句$\hat{n}$を選択する.\begin{align}\hat{n}&=\mathop{\rmargmax}_{n_j\in\textbf{N}}P(d(n_j)=1|X_j;M_c)\\P(d(n_j)=1|X_j;M_c)&=\frac{1}{Z_{c}(X)}\exp\sum_{k}\{\lambda_{ck}f_k(d(n_j)=1,X_j)\}\\Z_{c}(X)&=\sum_{n_j\in\textbf{N}}\exp\sum_k\{\lambda_{ck}f_k(d(n_j)=1,X_j)\}\label{eqn-normalizer}\\X_j&=\langlen_j,v,A\rangle\end{align}ただし,$n$は1つの候補名詞句,$\textbf{N}$は候補名詞句集合,$d(n_j)$は,名詞句$n_j$が項となったときのみ1となる関数,$M_c$は格$c$(ガ,ヲ,ニのいずれか)のモデルである.また,$f_k(d(n_j)=1,X_j)$は素性関数,$\lambda_{ck}$は格毎の素性関数の重み,$v$,$A$はそれぞれ述語,および形態素・構文解析済みの記事全体である.訓練時には,ある述語の候補名詞句集合ごとに,正解の名詞句と,それ以外のすべての候補名詞句との事後確率差を大きくするように学習する.具体的には,以下の損失関数を最小化するモデル$M_c$を,格ごとに学習する.\begin{align}\ell_{c}&=-\sum_{i}\logP(d(n_i)=1|X_i;M_c)+\frac{1}{2C}\sum_{k}||\lambda_{ck}||^{2}\label{eqn-loss-function}\end{align}ただし,$n_i$は,訓練セットの$i$番目の述語に対する正解名詞句,$X_i$は,訓練セットの$i$番目の正解名詞句,述語,記事の組$\langlen_i,v_i,A_i\rangle$,$C$は過学習を制御するためのハイパーパラメータで,開発セットにおける精度が最高になるように,あらかじめ設定しておく.式(\ref{eqn-normalizer})で,述語の候補名詞句集合毎に正規化を行っているため,(\ref{eqn-loss-function})式では,候補名詞句集合から,正解名詞句が選ばれた時に確率1.0,それ以外の名詞句では確率0.0に近づくようにモデルが学習される.\subsection{素性}\label{sec-features}選択器で使用する素性に関しては,英語の意味役割付与に関する研究(たとえば\citeA{Gildea:PredArgs2002})と同様に,(1)述語に関する素性,(2)名詞句に関する素性,(3)両者の関係に関する素性を使用する.詳細を表\ref{tbl-feature-list}に示す.\begin{table}[b]\caption{素性テンプレート一覧}\label{tbl-feature-list}\input{01table03.txt}\end{table}二値の素性関数は,テンプレートの引数が完全一致したときのみ1,それ以外では0を返す関数である.たとえばPred素性において,主辞形態素の見出しが1万種類あったとすると,1万の二値関数が定義され,主辞形態素の見出しと一致した関数だけが1を返す.実数値の素性関数は,テンプレートの引数に応じた実数を返す.なお,これらは名詞句の選択用モデルの素性であるので,名詞句Nounと,すべての二値素性を組み合わせた素性も使用している.本稿で特徴的な素性は,大規模データから自動構築した必須格情報Frameと係り受け言語モデル(3種類)であるが,これらについては\ref{sec-large-resources}節で述べる.\subsection{文脈処理}\label{sec-context-processing}本稿では,人とコンピュータの対話システム実現のための解析器を想定している.この対話システムは,ユーザとシステムが交互に発話するもので,システムに組み込まれた対話管理部が両者の発話履歴や,現在話されている話題(焦点)を管理する.述語項構造解析部はユーザ発話を解析し,発話生成部がシステム発話を生成するというものである.従来の述語項構造解析器も,現在の解析対象文より以前の文を文脈として利用し,ゼロ代名詞照応解析に利用している.\citeA{imamura-saito-izumi:2009:Short}は,解析器内部で以前の文や話題(焦点)の管理(これを文脈管理と呼ぶ)を行っていた.しかし,述語項構造解析器内部で文脈管理を行うより,対話システムの対話管理部が文脈管理を行った方が,ユーザ発話とシステム発話を協調的に管理できる可能性が高い.本稿ではこのように考え,文脈管理は外部モジュールの担当と位置付ける.そして評価用に,新聞記事と対話で同じ文脈管理方法を使用する.なお,本稿の方式は,選択器に与える文間の候補名詞句を取捨選択することによって文脈の制御を行っているので,候補名詞句を外部モジュールから陽に与えることで,文脈管理方法を変更することができる.今回使用した文脈管理方法は,具体的には以下のとおりである.\begin{itemize}\item対象述語の発話より以前の発話をさかのぼり,他の述語を含む発話(これを有効発話と呼ぶ)を見つける.これは,述語を含まない発話を無視するためである.\item有効発話と対象述語の発話の間に出現した全名詞句と,有効発話の述語で項として使われた名詞句(有効発話内の場合もあれば,それ以前の発話の名詞句の場合もある)を候補として加える.項として使われた名詞句は,その後も繰り返し使われることが多く,これに制限することで,効率的に候補を削減することができるという観察結果に基づく\cite{imamura-saito-izumi:2009:Short}.また,項として使われている限り,さかのぼる文数に制限がないため,広い文脈を見ることができる.\end{itemize}
\section{雑談対話への適応}
\label{sec-adaptation}前節で述べた方法は,対話,新聞記事に共通の処理である.これを対話解析に適したものにするため,パラメータの適応,および大規模コーパスから自動獲得した知識の適用を行う.\subsection{モデルパラメータの適応}NAISTコーパスと対話コーパスの項分布の差異は,選択器のモデルパラメータをドメイン適応することで調整する.本稿では,モデルパラメータの適応手法として,素性空間拡張法\cite{daumeiii:2007:ACLMain}を用いる.これは,素性空間を3倍に拡張することで,ソースドメインデータをターゲットドメインの事前分布とみなすのと同じ効果を得る方法である.具体的には,以下の手順で選択器のモデルを学習・適用する.\begin{enumerate}\itemまず,素性空間を共通,ソース,ターゲットの3つに分割する.\itemNAISTコーパスをソースドメインデータ,対話コーパスをターゲットドメインデータとみなし,NAISTコーパスから得られた素性を共通とソース空間にコピーして配置する.対話コーパスから得られた素性は共通とターゲット空間にコピーして配置する.\item拡張された素性空間上で,通常通りパラメータ推定を行う.結果,ソース・ターゲットデータ間で無矛盾な素性は,共通空間のパラメータが強調され(絶対値が大きくなる),ドメインに依存する素性は,ソースまたはターゲット空間のパラメータが強調される.\item選択器が項を選択する際は,ターゲット空間と共通空間の素性だけ用いる.この空間のパラメータは,ターゲットドメインに最適化されているだけでなく,ソースドメインデータだけに現れた共通空間の素性も利用して,項選択ができる.\end{enumerate}\subsection{大規模コーパスからの知識獲得}\label{sec-large-resources}本稿では,訓練コーパスに含まれない未知語への対策として,大規模コーパスから自動獲得した2種類の知識を利用する.どちらも大規模平文コーパスを自動解析して,集計やフィルタリングをすることで獲得する\cite{Kawahara:CaseFrame2005j,sasano-kawahara-kurohashi:2008:PAPERS,sasano-EtAl:2013:EMNLP}.当然誤りも含むが,新出語に対しても,ある程度の確かさで情報を与えることができる.これらを選択器の素性として使い,モデルを学習することにより,情報の信頼度に応じたパラメータが学習される.\subsubsection{必須格情報(Frame素性)}\label{sec-case-lex}格フレームは,述語の必須格と,その格を埋める名詞句の種類(通常は意味クラス)を保持するフレーム形式の情報で,述語項構造解析や意味役割付与の重要な手がかりとなる.本稿で使う必須格情報は,格フレームのうち,格が必要か否か(必須格か任意格か)だけについて情報を与える辞書である.本稿の必須格情報は,大規模平文テキストコーパスから,以下の方法で自動構築する.これは,(1)項が述語と直接係り受け関係にある場合,述語に対する項の格は,項の名詞句に付随する格助詞と一致することが多い,(2)必須格なら,その格の出現率は他の述語より平均的に高い\footnote{ゼロ代名詞化されている場合は,項が述語と同じ文に現れないため,必須格であっても,出現率は100\%にはならない.そのため,出現した/しないという二値では,必須格性は判断できないと考えた.},という仮定をもとにしている.\begin{itemize}\itemまず,本稿の述語項構造解析と同様(\ref{sec-architecture}節参照)に,平文を形態素・構文解析し,品詞パターンで述語文節とその主辞を特定する\footnote{ただし,受身・使役の助動詞が述語文節に含まれる場合は,別述語として扱うように,助動詞と合成した述語を新たに生成した.}.\item述語文節に直接係る文節を取得し,機能語部に格助詞を持つ文節だけを残す.もし,そのような文節が1つ以上あるなら,その述語を集計対象として,述語頻度,格助詞の出現頻度を集計する.\item述語に関しては,高頻度述語から順番に,最終的な辞書サイズを考慮して選択する.個々の格に関しては,以下の条件をすべて満たす格を,必須格とみなす.\begin{itemize}\item$\langle\text{述語}v,\text{格}c\rangle$が,対数尤度比検定において,危険率0.1\%以下で有意に多く共起していること($p\leq0.001$;$\text{対数尤度比}\geq10.83$).\item各述語における格$c$の出現率が,全述語における格の出現率(平均)より10\%以上高いこと.\end{itemize}\end{itemize}以上の方法で,2種類の必須格情報辞書を作成した.一つは,ブログ約1年分(約23億文.以下Blogコーパスと呼ぶ)から,48万述語の情報を獲得した(これをBlog辞書と呼ぶ).もう一つは新聞記事12年分(約770万文.以下Newsコーパスと呼ぶ)から約20万述語の情報を獲得した(同News辞書).\begin{table}[b]\caption{必須格辞書の述語カバー率と精度(対話コーパス訓練セットで測定した場合)}\label{tbl-oci-dict}\input{01table04.txt}\end{table}表\ref{tbl-oci-dict}は,雑談対話コーパス訓練セットの正解述語項構造と必須格情報辞書を比較し,必須格情報辞書の述語カバー率と格毎の精度を算出したものである.述語カバー率は,対話コーパスに出現した述語が必須格情報辞書に含まれている場合,カバーしたと判断した.結果,Blog辞書で98.5\%,News辞書で96.4\%で,ほぼ等しかった.また,格毎の精度は,正解の述語項構造に格が付与されているか否かと,必須格情報上の必須格性が一致しているかどうかを測定したもので,Blog辞書,News辞書でほぼ同じ傾向を示している.格毎に見ると,ガ格の精度が低いが,これは,雑談対話コーパスでは,ほぼすべての述語に対してガ格が付与されている(つまり,ガ格が必須)にも関わらず,BlogコーパスやNewsコーパスではそれがゼロ代名詞化されているため,自動獲得では必須格とは判断できなかったためである.ヲ格の全体精度は91\%以上と,格によっては高い精度を持つ辞書となっている.\subsubsection{係り受け言語モデル}\label{sec-dependency-lm}係り受け言語モデル(languagemodel;LM)は,三つ組$\langle\text{述語}v,\text{格}c,\text{名詞句}n\rangle$の共起のしやすさを表現するモデルである.頻出表現に高いスコアを与えることによって,出現する単語間に意味的関連が存在することを表現する意図がある.ここでは,述語$v$,格$c$,名詞句$n$それぞれの生成確率をn-gramモデルで算出し,選択器の識別モデルで全体最適化を行う.具体的には,以下の実数値を算出し,表\ref{tbl-feature-list}の係り受け言語モデル素性の素性関数値として使用する.その結果,選択器は,候補名詞句集合から,頻出表現に含まれる名詞句$n$を優先して選択することになる.なお,未知語を表す特殊単語\texttt{<unk>}を含む確率で補正してる理由は,対数確率({$-\infty$〜$0.0$}の範囲)を正の値に補正するためである.\begin{itemize}\item$\logP(n|c,v)-\logP(\texttt{<unk>}|c,v)$\item$\logP(v|c,n)-\logP(v|c,\texttt{<unk>})$\item$\logP(c|n)-\logP(c|\texttt{<unk>})$\end{itemize}本稿の係り受け言語モデルは,\citeA{imamura-saito-izumi:2009:Short}が1種類({$\logP(n|c,v)$}相当)のみ使用していたのに対し,識別モデルが互いに依存しあう素性を含めることができるという特徴を利用し,3種類に拡張している.また,述語$v$から見た格$c$の生成確率({$\logP(c|v)$})は,述語ごとに格を必要とする度合であり,必須格情報と重なるため,係り受け言語モデルからは除外した.3種類の係り受け言語モデルは,\ref{sec-case-lex}節で抽出した述語,格,名詞句を集計し,SRILM\cite{Stolcke:SRILM2011}でバックオフモデルを構築した.係り受け言語モデルも,Blogコーパス,Newsコーパスからそれぞれ作成した.これを,それぞれBlog言語モデル,News言語モデルと呼ぶ.言語モデルのカバー率を,雑談対話コーパス訓練セットに出現する三つ組が係り受け言語モデルの元になった三つ組に含まれるかどうかで測定すると,Blog言語モデルの場合,76.4\%をカバーしていた.一方,Newsの言語モデルの場合,カバー率は38.3\%だった.News言語モデルに比べ,Blog言語モデルは対話コーパスに出現する係り受けの三つ組のカバレッジが高い\footnote{バックオフモデルの場合,モデル中に三つ組が存在しなくても,二つ組を組み合わせるなどして,素性関数としては何らかの値を返すことができる.}.
\section{実験}
\label{sec-experiments}本節では,表\ref{tbl-corpus-size}に示したコーパスを用い,対話における述語項構造解析の精度を,パラメータ適応,大規模コーパスから自動獲得した知識の効果という観点から評価する.評価はすべて雑談対話コーパステストセットで行う.評価指標には,項の適合率,再現率から算出したF値を用いる.\subsection{実験1:パラメータ適応の効果}\label{sec-exp-parameter-adaptation}まず,パラメータ適応の効果を測定するため,訓練方法を変えた3方式の比較を行った.表\ref{tbl-result-dialog}の(a),(b),(c)カラムがその結果で,それぞれ(a)素性空間拡張によるドメイン適応を行った場合(適応.提案法),(b)NAISTコーパスだけで訓練した場合(NAIST訓練.従来の新聞記事用解析に相当),(c)対話コーパスだけで訓練した場合(対話訓練)を表す.\begin{table}[b]\caption{対話テストセットにおける方式・必須格情報・係り受け言語モデルごとのF値}\label{tbl-result-dialog}\input{01table05.txt}\par\vspace{8pt}\small表中の太字は,全方式のうち,F値最高を指す.また,記号$\heartsuit$,$\diamondsuit$,$\spadesuit$,$\clubsuit$は,(a)と,それぞれ(b)(c)(d)(e)の比較で,有意によかったものを表す.有意差検定は,ブートストラップ再サンプリング法(1,000回測定)を使用し,危険率を5\%とした.\end{table}まず,(a)適応と(b)NAIST訓練を比較すると,多くの場合,適応の方が有意に精度がよいという結果になった($\heartsuit$記号が有意差ありを表す).特に合計の精度では,すべての格で適応が有意に勝っている.タイプ別の精度を見ると,特徴的なのは,ガ格の一人称,二人称外界照応(exo1,exo2)である.これらはガ格の項のうちの約28\%を占めているが,exo1で70.2\%,exo2で46.8\%のF値で解析可能となった.他にも,ヲ格ニ格の文間ゼロ,exogなど,NAIST訓練ではほとんど解析できなかったタイプの項が解析できるようになった.(a)適応と(c)対話訓練を比較すると($\diamondsuit$参照),雑談対話コーパスは訓練セットのサイズが小さいにも関わらず,両者の精度が近くなった.適応の合計精度が有意に良かったのは,ニ格のみである.これには2つの理由が考えられる.\begin{itemize}\item対話コーパス量が十分であり,NAISTコーパスの影響をほとんど受けない場合.\item適応がNAISTコーパスの知識を活かしきっていない場合.言い換えると,NAISTコーパスに出現する言語現象と,対話に出現する言語現象に重なりが少ないため,NAISTコーパスが影響しない場合.\end{itemize}前者の場合,コーパスサイズに対する学習曲線が今回のデータ量で飽和していることで検証できる.本稿で作成した対話コーパスはNAISTコーパスの約1/10の訓練セットであるため,学習曲線は描かなかった.後者の場合,対話コーパスサイズを大きくすると,述語項構造解析の精度も向上する.今後,さらに対話コーパスを作成し,検証する必要がある.\subsection{実験2:自動獲得知識の比較}表\ref{tbl-result-dialog}の(a)(d)(e)は,提案方法(適応)の評価結果である.ただし,必須格情報および係り受け言語モデルは,それぞれ(a)$\langle$Blog,Blog$\rangle$,(d)$\langle$News,Blog$\rangle$,(e)$\langle$Blog,News$\rangle$に変えて評価している.まず,必須格情報辞書を(a)Blogから(d)Newsに変えた場合を比較すると($\spadesuit$参照),両者の間で有意差があったのは,ヲ格の文内ゼロのみで,ほぼすべての場合で有意差はなかった.一方,係り受け言語モデルを(a)Blogから(e)Newsに変更すると($\clubsuit$参照),若干精度に差が出た.特に,文法関係より意味関係を重視する文内・文間ゼロでは,有意に精度が悪化したものが多く(ガ格の文間ゼロ,ヲ格の文内・文間ゼロ,ニ格の文内ゼロ),その結果,合計の精度でも,ヲ格は約3ポイント低下した.ゼロ代名詞照応のように,述語と項の間に文法的な関係が弱い場合,意味的関連性を共起から判断する係り受け言語モデルが相対的に重要となる.そのため,係り受け言語モデルの違いが精度に影響しやすい.図\ref{fig-coverages}は,適応方式において,それぞれ必須格情報辞書の述語カバー率,係り受け言語モデルの三つ組$\langle\textrm{述語}v,\textrm{格}c,\textrm{名詞句}n\rangle$のカバー率を意図的に変化させて,述語項構造解析のF値を測定したグラフである.必須格情報,係り受け言語モデルともに,Blogコーパスから作成したものを利用した.必須格情報のカバー率は高頻度述語から順番に,雑談対話コーパス訓練セットの述語のカバー率が指定した割合になるまで選択した.係り受け言語モデルの三つ組は,同じく雑談対話コーパス訓練セット上での三つ組カバー率が指定した割合になるまで,ランダムに選択した\footnote{係り受け言語モデルは,確率モデルであるため,三つ組の頻度を基準に取捨選択すると,確率分布が変化する.確率分布を変えずにカバー率を変えるため,ランダム選択とした.}.グラフに示したF値は,格の合計である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia1f3.eps}\end{center}\caption{自動獲得知識のカバレッジと述語項構造解析精度}\label{fig-coverages}\end{figure}図\ref{fig-coverages}(a)をみると,必須格情報については,格の種類にかかわらず,述語カバー率を変えてもほぼ同じ精度となった.この理由を分析したところ,テストセットに出現する大部分の述語は,訓練セットに出現したためであった.実際,雑談対話テストセットに出現する5,333述語のうち,4,442述語(83.3\%)は雑談対話コーパス訓練セット,またはNAISTコーパス訓練セットに出現していた.つまり,訓練セットだけでテストセットの大部分をカバーできており,それ以外の述語しか,必須格情報が有効に作用しなかったため,カバー率の影響がほとんど出なかったと考えられる.一方,係り受け言語モデルの三つ組は,雑談対話テストセットに出現した5,056組(外界照応\texttt{exo1},\texttt{exo2},\texttt{exog}は除く)のうち,訓練セットがカバーしたのは1,063組(21.0\%)であった.そのため,図\ref{fig-coverages}(b)のように,係り受け言語モデルのカバー率を上げると,述語項構造解析の精度も向上した.ただし,ガ格に関しては,自動獲得元コーパスにおいてもガ格がゼロ代名詞化され,自動獲得精度が十分ではなかったため,カバー率を上げても述語項構造解析精度は向上しなかった.まとめると,自動獲得した知識は,訓練コーパスのカバレッジが高い部分では効果がほとんどなく,低い部分を補完するのに有効である.そのため,雑談対話のように幅広い話題を対象とする対話には適している.\subsection{雑談対話コーパスを使用せずに適応する場合}ドメイン適応のシチュエーションとして,新聞記事コーパスしか存在しない状況で,述語項構造解析器を対話に適応させなければならない場合が考えられる.本節では,NAISTテキストコーパスと自動獲得知識だけでモデルを学習し,自動獲得知識がどの程度有効か,検証する.表\ref{tbl-effect-of-knowledge}は,NAISTコーパス訓練セットでモデルを学習し,雑談対話コーパステストセットでF値を測定した結果である.ただし,自動獲得知識の組み合わせ{$\langle\text{必須格情報},\text{係り受け言語モデル}\rangle$}は,(b){$\langle\text{Blog},\text{Blog}\rangle$},(b-1){$\langle\text{なし},\text{Blog}\rangle$},(b-2){$\langle\text{Blog},\text{なし}\rangle$},(b-3){$\langle\text{なし},\text{なし}\rangle$}に変えている.(b)は,表\ref{tbl-result-dialog}の再掲である.\begin{table}[b]\caption{NAIST訓練における自動獲得知識の効果(自動獲得知識はBlog)}\label{tbl-effect-of-knowledge}\input{01table06.txt}\par\vspace{8pt}\small表中の記号$\dag$,$\S$,$\ddag$は,(b)と,それぞれ(b-1)(b-2)(b-3)との比較で,有意によかったものを表す.有意差検定は,ブートストラップ再サンプリング法(1,000回測定)を使用し,危険率を5\%とした.なお.(b)は,表\ref{tbl-result-dialog}の再掲である.\end{table}これを見ると,多くの場合で(b){$\langle\text{Blog},\text{Blog}\rangle$}が有意に勝っており,自動獲得知識が有効に作用していると言ってよい.しかし,これらはすべてNAIST訓練の結果であり,ほとんど(またはまったく)解析できなかったタイプの項(たとえば,ガ格のexo1,exo2,ヲ格の文間ゼロ,ニ格の文内・文間ゼロ)は,必須格情報辞書,係り受け言語モデルをどのように変えようとも,ほとんど解析できない状況には変わりはなかった.本稿の提案方式である表\ref{tbl-result-dialog}の(a)適応は,NAIST訓練では解析できなかったタイプの項も解析できるようにする効果があった.自動獲得した知識は,すでに解析できるタイプの項の精度改善には効果があるが,対話で新たに出現したタイプの項を解析する効果はない.したがって,たとえ少量でも対話の述語項構造データを作成し,適応させることが望ましい.\subsection{対話解析例}\label{sec-err-analysis}図\ref{fig-analysis-example}は,旅行に関する雑談対話の一部について,正解述語項構造,(a)適応方式,(b)NAIST訓練方式,(b-3)NAIST訓練(ただし,必須格情報辞書,係り受け言語モデルなし)の出力を並べて表示したものである.発話ごとに差異を分析すると,以下の特徴が得られた.\begin{figure}[p]\input{01fig04.txt}\caption{対話例と,正解述語項構造および述語項構造解析結果(*は解析誤りを表す)}\label{fig-analysis-example}\end{figure}\begin{itemize}\item発話番号1で,正解がexogになっているのは,アノテータは,「話した」のは発話者ABの両方であると判断したためである.本発話の解釈によっては,exo1でも誤りではないと思われる.\item発話番号2のガ格の正解はexo2である.しかし,(a)適応は,exo1を選択した.日本語の場合,一人称・二人称は,文末表現(この例では「下さい」)に特徴が現れるが,選択器にSuffix素性があるにも関わらず,正しく選択できなかった.\item発話番号3のガ格の正解はexo1である.(a)適応は正しく選択したが,(b)(b-3)NAIST訓練は,一人称/二人称の外界照応をほとんど選択しないため,発話番号1に現れた「私」を選択した.しかし,発話番号1の「私」は発話者Aを示しており,発話番号3のexo1(発話者B)とは異なる.もし文間ゼロタイプの項を割り当てるとすると,発話番号2の「あなた」が正解となる.本稿では,外界照応と人称代名詞を別に扱っているが,本来は共参照解析を導入して,exo1/exo2と「私」「あなた」が同一実体であることを認識すべきである.その際,発話者がどちらなのか意識して,同一性を判断する必要がある.\\発話番号6にも同様な現象が現れているが,ガ格正解exo2に相当する表現が発話番号2「あなた」まで遡らなければならないため,(b)(b-3)NAIST訓練では,exogとなった.\item発話番号3のニ格の正解は「海外旅行」だが,(b-3)NAIST訓練(自動獲得知識なし)では,NULLと誤った.「海外旅行にはまる」は,NAISTコーパス訓練セットには出現せず,係り受け言語モデルの三つ組に出現する表現だったため,係り受け言語モデルなしのNAIST訓練では解析に失敗した.\item発話番号5のニ格の正解は,「スペインとポルトガル」であるべきだが,本稿の方式は文節を単位に処理するため,2文節以上にまたがる名詞句は,主辞だけを付与する仕様である.\\また,発話番号4のガ格の正解は,直前発話(発話番号3)全体と考えることもできる.しかし,文節単位に格要素を割り当てるため,アノテータはもっとも近い表現「海外旅行」を正解として割り当てた.\item発話番号6において,(a)適応は,ニ格「ポルトガル」を前文から正しく補完した.なお,「ポルトガルに行く」は,NAISTコーパス訓練セットには存在しないが,係り受け言語モデルの三つ組には存在する表現である.\end{itemize}
\section{まとめ}
\label{sec-conclusion}本稿では,対話解析のための述語項構造解析を提案した.われわれはこれを新聞から対話への一種のドメイン適応とみなし,従来新聞記事で研究されていた述語項構造解析を,対話に適用した.対話と新聞記事では項の分布が異なるため,素性空間拡張法を用いて,モデルパラメータを適応させた.また訓練コーパスに現れない未知語を補完するため,大規模平文データから,必須格情報,係り受け言語モデルを自動獲得し,項選択器のモデルに適用した.結果,少量でも対話コーパスを訓練に加えることで,新聞記事のコーパスだけでは解析できなかったタイプ(ガ格の一人称・二人称ゼロ代名詞や,文間ゼロ代名詞,外界照応)も解析可能となった.ただし,パラメータ適応自体の効果は限定的であった.また,自動獲得知識の有効性は,訓練セットがテストセットをどの程度カバーしているかに依存する.必須格情報は,テストセットに出現する述語の大部分が訓練セットに出現していたため,必須格情報のカバレッジの影響はほとんどなかった.一方係り受け言語モデルでは,テストセットに出現する述語,格,名詞句の三つ組の21\%しか訓練セットでカバーしていなかったため,カバレッジの高いモデルの精度が向上した.特に,ヲ格ニ格に関しては,三つ組カバレッジが高い方が,ゼロ代名詞照応解析精度の向上に寄与することを確認した.なお,必須格情報および係り受け言語モデルは,格フレームの選択選好とみなすこともできる.格フレームは,大規模コーパスから自動獲得したものが存在するので\cite{Kawahara:CaseFrame2005j},これを利用する方法もある.両者の比較は,今後検討してゆきたい.今回は,パラメータ分布の差異,語彙のカバレッジに着目したが,新聞と対話では,他にもさまざまな違いがあると考えられる.たとえば,話者交替は対話特有の現象であるが,それが述語項構造やゼロ代名詞にどう影響するかなどは,本稿では扱わなかった.また,われわれは文脈管理に,対話システムの発話管理機能を利用することを考えているが,対話システムとしての有効性評価も実施する予定である.\acknowledgment本論文の一部は,the25thInternationalConferenceonComputationalLinguistics(COLING2014)で発表したものである\cite{imamura-higashinaka-izumi:2014:Coling}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carreras\BBA\M{\`{a}}rquez}{Carreras\BBA\M{\`{a}}rquez}{2004}]{carreras-marquez:2004:CONLL}Carreras,X.\BBACOMMA\\BBA\M{\`{a}}rquez,L.\BBOP2004\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2004SharedTask:SemanticRoleLabeling.\BBCQ\\newblockIn{\BemHLT-NAACL2004Workshop:8thConferenceonComputationalNaturalLanguageLearning(CoNLL-2004)},\mbox{\BPGS\89--97},Boston,Massachusetts,USA.\bibitem[\protect\BCAY{Carreras\BBA\M{\`{a}}rquez}{Carreras\BBA\M{\`{a}}rquez}{2005}]{carreras-marquez:2005:CoNLL}Carreras,X.\BBACOMMA\\BBA\M{\`{a}}rquez,L.\BBOP2005\BBCP.\newblock\BBOQIntroductiontothe{CoNLL}-2005SharedTask:SemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonComputationalNaturalLanguageLearning(CoNLL-2005)},\mbox{\BPGS\152--164},AnnArbor,Michigan,USA.\bibitem[\protect\BCAY{Coppola,Moschitti,\BBA\Riccardi}{Coppolaet~al.}{2009}]{coppola-moschitti-riccardi:2009:NAACLHLT09-Short}Coppola,B.,Moschitti,A.,\BBA\Riccardi,G.\BBOP2009\BBCP.\newblock\BBOQShallowSemanticParsingforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics,CompanionVolume:ShortPapers},\mbox{\BPGS\85--88},Boulder,Colorado,USA.\bibitem[\protect\BCAY{Daum\'{e}}{Daum\'{e}}{2007}]{daumeiii:2007:ACLMain}Daum\'{e},III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\256--263},Prague,CzechRepublic.\bibitem[\protect\BCAY{Gerber\BBA\Chai}{Gerber\BBA\Chai}{2012}]{Gerber:NomPredArgs2012}Gerber,M.\BBACOMMA\\BBA\Chai,J.~Y.\BBOP2012\BBCP.\newblock\BBOQSemanticRoleLabelingofImplicitArgumentsforNominalPredicates.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(4),\mbox{\BPGS\755--798}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{Gildea:PredArgs2002}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticLabelingofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{萩行\JBA河原\JBA黒橋}{萩行\Jetal}{2014}]{Hangyo:ZeroAnaphra2014j}萩行正嗣\JBA河原大輔\JBA黒橋禎夫\BBOP2014\BBCP.\newblock外界照応および著者・読者表現を考慮した日本語ゼロ照応解析.\\newblock\Jem{自然言語処理},{\Bbf21}(3),\mbox{\BPGS\563--600}.\bibitem[\protect\BCAY{林部\JBA小町\JBA松本}{林部\Jetal}{2014}]{Hayashibe:PredArgs2014j}林部祐太\JBA小町守\JBA松本裕治\BBOP2014\BBCP.\newblock述語と項の位置関係ごとの候補比較による日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\3--25}.\bibitem[\protect\BCAY{Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Hovyet~al.}{2006}]{hovy-EtAl:2006:HLT-NAACL06-Short}Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2006\BBCP.\newblock\BBOQOntoNotes:The90\%Solution.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,CompanionVolume:ShortPapers},\mbox{\BPGS\57--60},NewYork,USA.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{Iida:NAISTCorpus2010j}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida-EtAl:2007:LAW}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},\mbox{\BPGS\132--139},Prague,CzechRepublic.\bibitem[\protect\BCAY{Imamura,Higashinaka,\BBA\Izumi}{Imamuraet~al.}{2014}]{imamura-higashinaka-izumi:2014:Coling}Imamura,K.,Higashinaka,R.,\BBA\Izumi,T.\BBOP2014\BBCP.\newblock\BBOQPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolutionforDialogueSystems.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\806--815},Dublin,Ireland.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura-saito-izumi:2009:Short}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\85--88},Singapore.\bibitem[\protect\BCAY{Jiang\BBA\Ng}{Jiang\BBA\Ng}{2006}]{jiang-ng:2006:EMNLP}Jiang,Z.~P.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQSemanticRoleLabelingofNomBank:AMaximumEntropyApproach.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\138--145},Sydney,Australia.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara:CaseFrame2005j}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{Komachi:PredArgs2007}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearning-BasedArgumentStructureAnalysisofEvent-NounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics(PACLING)},\mbox{\BPGS\208--215},Melbourne,Australia.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo:Cabocha2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemCoNLL2002:Proceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69},Taipei,Taiwan.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo-yamamoto-matsumoto:2004:EMNLP}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\230--237},Barcelona,Spain.\bibitem[\protect\BCAY{Laparra\BBA\Rigau}{Laparra\BBA\Rigau}{2013}]{laparra-rigau:2013:ACL2013}Laparra,E.\BBACOMMA\\BBA\Rigau,G.\BBOP2013\BBCP.\newblock\BBOQImpAr:ADeterministicAlgorithmforImplicitSemanticRoleLabelling.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1180--1189},Sofia,Bulgaria.\bibitem[\protect\BCAY{M\`arquez,Carreras,Litkowski,\BBA\Stevenson}{M\`arquezet~al.}{2008}]{Marquez:SRLSurvay2008}M\`arquez,L.,Carreras,X.,Litkowski,K.~C.,\BBA\Stevenson,S.\BBOP2008\BBCP.\newblock\BBOQSemanticRoleLabeling:AnIntroductiontotheSpecialIssue.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(2),\mbox{\BPGS\145--159}.\bibitem[\protect\BCAY{松林\JBA飯田\JBA笹野\JBA横野\JBA松吉\JBA藤田\JBA宮尾\JBA乾}{松林\Jetal}{2014}]{Matsubayashi:PredArgsData2014j}松林優一郎\JBA飯田龍\JBA笹野遼平\JBA横野光\JBA松吉俊\JBA藤田篤\JBA宮尾祐介\JBA乾健太郎\BBOP2014\BBCP.\newblock日本語文章に対する述語項構造アノテーション仕様の考察.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\333--377}.\bibitem[\protect\BCAY{Palmer,Gildia,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer:PropBank2005}Palmer,M.,Gildia,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--105}.\bibitem[\protect\BCAY{Pradhan,Moschitti,\BBA\Xue}{Pradhanet~al.}{2012}]{conll2012-shared-task}Pradhan,S.,Moschitti,A.,\BBA\Xue,N.\BEDS\\BBOP2012\BBCP.\newblock{\BemJointConferenceonEMNLPandCoNLL:ProceedingoftheSharedTask:ModelingMultilingualUnrestrictedCoreferenceinOntoNotes},Jeju,Korea.\bibitem[\protect\BCAY{Pradhan,Ward,\BBA\Martin}{Pradhanet~al.}{2008}]{Pradhan:SRLAdaptation2008}Pradhan,S.~S.,Ward,W.,\BBA\Martin,J.~H.\BBOP2008\BBCP.\newblock\BBOQTowardsRobustSemanticRoleLabeling.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(2),\mbox{\BPGS\289--310}.\bibitem[\protect\BCAY{Ruppenhofer,Ellsworth,Petruck,Johnson,\BBA\Scheffczyk}{Ruppenhoferet~al.}{2006}]{RuppenhoferEtAl2006:ExtTeoryAndPractice}Ruppenhofer,J.,Ellsworth,M.,Petruck,M.~R.,Johnson,C.~R.,\BBA\Scheffczyk,J.\BBOP2006\BBCP.\newblock{\BemFrameNetII:ExtendedTheoryandPractice}.\newblockInternationalComputerScienceInstitute,Berkeley,California.\newblockDistributedwiththeFrameNetdata.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano-kawahara-kurohashi:2008:PAPERS}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING2008)},\mbox{\BPGS\769--776},Manchester,UK.\bibitem[\protect\BCAY{Sasano,Kawahara,Kurohashi,\BBA\Okumura}{Sasanoet~al.}{2013}]{sasano-EtAl:2013:EMNLP}Sasano,R.,Kawahara,D.,Kurohashi,S.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQAutomaticKnowledgeAcquisitionforCaseAlternationbetweenthePassiveandActiveVoicesinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1213--1223},Seattle,Washington,USA.\bibitem[\protect\BCAY{Stolcke,Zheng,Wang,\BBA\Abrash}{Stolckeet~al.}{2011}]{Stolcke:SRILM2011}Stolcke,A.,Zheng,J.,Wang,W.,\BBA\Abrash,V.\BBOP2011\BBCP.\newblock\BBOQSRILMatSixteen:UpdateandOutlook.\BBCQ\\newblockIn{\BemProceedingsofIEEEAutomaticSpeechRecognitionandUnderstandingWorkshop(ASRU2011)},Waikoloa,Hawaii,USA.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira-fujita-nagata:2008:EMNLP}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisusingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\523--532},Honolulu,Hawaii,USA.\bibitem[\protect\BCAY{平\JBA田中\JBA藤田\JBA永田}{平\Jetal}{2014}]{Taira:PredArgs2014j}平博順\JBA田中貴秋\JBA藤田早苗\JBA永田昌明\BBOP2014\BBCP.\newblockビジネスメールに対する日本語述語項構造解析の検討.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\1019--1022},札幌.\bibitem[\protect\BCAY{Tur,Hakkani-T{\"{u}}r,\BBA\Chotimongkol}{Turet~al.}{2005}]{Tur:UnderstandingSRL2005}Tur,G.,Hakkani-T{\"{u}}r,D.,\BBA\Chotimongkol,A.\BBOP2005\BBCP.\newblock\BBOQSemi-SupervisedLearningforSpokenLanguageUnderstandingUsingSemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofAutomaticSpeechRecognitionandUnderstandingWorkshop(ASRU2005)},\mbox{\BPGS\232--237},SanJuan,PuertoRico.\bibitem[\protect\BCAY{吉川\JBA浅原\JBA松本}{吉川\Jetal}{2013}]{Yoshikawa:PredArgs2013j}吉川克正\JBA浅原正幸\JBA松本裕治\BBOP2013\BBCP.\newblockMarkovLogicによる日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\251--271}.\end{thebibliography}\begin{biography}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年〜2014年日本電信電話株式会社.1995年〜1998年NTTソフトウェア株式会社.2000年〜2006年ATR音声言語コミュニケーション研究所.2014年より株式会社ATR-Trek所属として,独立行政法人情報通信研究機構(NICT)へ出向.現在NICT先進的音声翻訳研究開発推進センター専門研究員.主として自然言語処理技術の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ACL各会員.}\bioauthor{東中竜一郎}{1999年に慶應義塾大学環境情報学部卒業,2001年に同大学大学院政策・メディア研究科修士課程,2008年に博士課程修了.博士(学術).2001年に日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所にて勤務.音声言語メディアプロジェクトにて,質問応答システム・音声対話システムの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,各会員.2004年から2006年にかけて,英国シェフィールド大学客員研究員.}\bioauthor{泉朋子}{2005年北海道教育大学国際理解教育課程卒業,2007年ボストン大学大学院人文科学部応用言語学科修了,2008年日本電信電話株式会社入社.2014年京都大学大学院情報学研究科博士後期課程修了.博士(情報学).現在,NTTメディアインテリジェンス研究所研究員,自然言語処理研究開発に従事.言語処理学会会員.}\end{biography}\biodate\end{document}
| |
V07N04-04
|
\section{はじめに}
label{hajimeni}本論文では,表現``$N_1のN_2$''が多様な意味構造を持つことを利用して,動詞を含む連体修飾節を表現``$N_1のN_2$''に言い換える手法を提案する.自然言語では,一つの事象を表すために多様な表現を用いることが可能であり,人間は,ある表現を,同じ意味を持つ別の表現に言い換えることが,しばしばある.言い換えは,自然言語を巧みに操るために不可欠な処理であり\cite{sato99},それを機械によって実現することは有用であると考えられる.例えば,文書要約において,意味を変えずに字数を削減するためや,文章の推敲を支援するシステムにおいて,同一の表現が繰り返し出現するのを避けるために必要な技術である.また,ある事象が様々な表現で表されているとき,それらの指示対象が同一であると判定するためにも必要である.{}\ref{kanren}節で述べるように,近年,言い換え処理の重要性はかなり認識されてきたと考えられるが,適切な問題の設定を行うことが比較的困難なため,言い換え処理の研究はそれほど進んでいない.佐藤\cite{sato99}は,「構文的予測の分析」から「構文的予測を分析する」への言い換えのように,動詞を含む名詞句を述語の形式に言い換える問題を設定している。また近藤ら\cite{kondo99}は,「桜が開花する」から「桜が咲く」への言い換えのように,サ変動詞を和語動詞に言い換える問題設定をしている.この他,「〜を発表しました.」から「〜を発表.」のような文末表現の言い換えや,「総理大臣」から「首相」のような省略形への言い換えなどを,言い換えテーブルを用意することによって実現している研究もある\cite{wakao97,yamasaki98}.これに対し我々は,名詞とそれに係る修飾語,すなわち連体修飾表現を異形式の連体修飾表現に言い換えるという問題設定を提案する.\ref{taishou}節に述べるように,我々は連体修飾表現を言語処理の観点から3分類し,これらの相互の変換処理を計算機上で実現することを研究の最終目標として設定し,このうち本論文において動詞型から名詞型へ変換する手法を議論する.連体修飾表現を対象にした本論文のような問題設定は従来見られないが,表現が短縮される場合は要約などに,また逆に言い換えの結果長い表現になる場合は機械翻訳などの処理に必要な処理であると考える.本問題においても,従来研究と同様言い換えテーブルを用意することで言い換え処理を実現する.しかし本論文では,その言い換えテーブルを如何にして作成するかについて具体的に述べる.連体修飾表現の言い換え可能な表現は非常に多く存在することが容易に想像でき,これらをすべて手作業で作成することは現時点においては困難である.このため,現実的な作業コストをかけることで言い換えテーブルを作成する手法を示す.本提案処理の一部にはヒューリスティックスが含まれているが,これらについても一部を提示するにとどめず,具体例をすべて開示する.本論文で言い換えの対象とする表現``$N_1のN_2$''は,2つの語$N_1$,$N_2$が連体助詞`の'によって結ばれた表現である.表現``$N_1のN_2$''は,多様な意味構造を持ち,さまざまな表現をそれに言い換えることが可能である.また,動詞を含む連体修飾節は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象とされている.しかし,連体修飾節すべてを削除することにより,その名詞句の指す対象を読み手が同定できなくなる場合がある.このとき,それを``$N_1のN_2$''という表現に言い換えることができれば,名詞句の指示対象を限定し,かつ,字数を削減することが可能となる.表現``$N_1のN_2$''は多様な意味を持ちうるため,たとえ適切な言い換えがされたとしても,曖昧性が増す場合がある.しかしながら,言い換えが適切であれば,読み手は文脈や知識などを用いて理解が可能であると考えられる.以下,\ref{taishou}~節で,連体修飾表現を分類し,本論文で対象とする言い換えについて述べる.\ref{kousei}~節から\ref{NNpair}節で本手法について述べ,\ref{hyouka}~節では主観的に本手法を評価する.\ref{kousatsu}~節では,評価実験の際に明らかになった問題点などを考察する.また\ref{kanren}~節では,本論文の関連研究について論じる.
\section{連体修飾表現の言い換え}
label{taishou}\begin{figure}[hbt]\begin{center}\begin{tabular}{rl}\hline動詞型連体修飾&$N_1$(が/を/…)$V$-する$N_2$\\名詞型連体修飾&$N_1のN_2$\\&$N_1\N_2$\\形容詞型連体修飾&$N_1$(が/を/…)$A$-い$N_2$\\&$N_1$(が/を/…)$A$-な$N_1$\\\hline\end{tabular}\\\vspace{0.5mm}$N_1,N_2$:名詞,$V$-する:動詞,$A$-い,$A$-な:形容詞\\\caption{連体修飾表現の分類}\label{bunrui}\end{center}\end{figure}\begin{figure}[hbt]\begin{center}\epsfile{file=iikae.eps}\\\caption{型を変換する言い換え}\label{katahenkan}\end{center}\end{figure}本節では,連体修飾表現の言い換えという問題設定を,我々が如何にして行うかについて述べ,このうち本論文で対象とする問題の定義を行う.まず自然言語処理の観点から,連体修飾表現の分類として,図~\ref{bunrui}~のように,動詞型,名詞型,形容詞型の3種類の型を定義する.名詞を修飾するという同じ役割に対して,さまざまな表現が可能である.例えば図~\ref{katahenkan}~のように,異なる型においても,ほぼ同一の意味を持つ表現が存在する.人間ならば,これらの表現が同一の意味を持つと理解した上で,互いに言い換えることが可能である.そこで本研究では,これを計算機で行うことを目指す.すなわち,ある型の連体修飾表現を,如何にして他の型の連体修飾表現に変換するか,という型変換処理の形で問題を設定する.機械によって,それぞれの表現の意味を理解し,言い換え可能であるか判定することは現状の技術では困難であり,何らかの表層表現を手がかりにした近似的な手法を考案する必要がある.よって我々は,それぞれの型変換における表層的な特徴を利用して言い換えを実現する.図~\ref{katahenkan}~のうち本論文で対象とするのは,動詞型連体修飾表現を名詞型連体修飾表現``$N_1のN_2$''へ言い換えるものである.他の型の表現を``$N_1のN_2$''に言い換えることで,要約において,文の冗長さを減少させることや,文章推敲を支援するシステムにおいて,文章中に同一の表現が続くことを避けることなどが可能である.\begin{center}\begin{tabular}{lcl}{\bf例1}&&\\A国で起きたクーデター事件&$\to$&A国のクーデター事件\\\end{tabular}\end{center}動詞型連体修飾表現は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象となっている.しかし上の例1のように,連体修飾表現を削除すると,読み手が,その名詞句の指す対象を同定することが困難になる場合も存在する.こういった連体修飾表現を表現``$N_1のN_2$''に言い換えることによって,可能な限り字数を削減することができ,かつ,その指示対象の同定を容易にすることができる.本論文で提案する手法によって,``$N_1N_2$''への言い換えも,同様に可能であると考える.\begin{center}\begin{tabular}{lcc}{\bf例2}&&\\外国で製作された映画&$\to$&外国の映画\\&$\to$&外国映画\\\end{tabular}\end{center}しかし,この言い換えを行う場合,以下の点を判定する必要があり,本論文では,この言い換えは扱わない.\begin{itemize}\vspace{-2mm}\item$N_1$,$N_2$を連結し,複合名詞``$N_1N_2$''として扱うことが可能か.\\\begin{center}\begin{tabular}{lcc}{\bf例3}&&\\太郎が持つ考え&$\to$&太郎の考え\\&$\to$&(?)太郎考え\\\end{tabular}\end{center}\item``$N_1のN_2$''が指す対象と,``$N_1N_2$''のそれとが同一であるか.\begin{center}\begin{tabular}{lcc}{\bf例4}&&\\日本にある大学&$\to$&日本の大学\\&$\to$&(?)日本大学\\\end{tabular}\end{center}\end{itemize}\vspace{5mm}なお,本論文でいう動詞には,``サ変名詞$+$する''を含み,``する'',``なる'',``である''など\footnote{その他は,``よる'',``できる'',``関する'',``対する'',``いう'',``つく'',``伴う''.}を含まない.
\section{本手法の構成}
label{kousei}本手法は,以下に示す部分から成る.また,本手法の概念図を図~\ref{gainen}~に示す.\begin{description}\item[削除動詞判定部]\動詞型連体修飾表現に含まれる動詞が,2種類の方法で定義した削除可能な動詞であるか否かを判定する.\item[言い換え表現絞り込み部]\コーパスに出現しない表現``$N_1$の$N_2$''に言い換えることがないよう言い換えに制限を加える.\end{description}\begin{figure}\begin{center}\epsfile{file=gainen.eps,width=143mm,height=70mm}\caption{本手法の概念図}\label{gainen}\end{center}\end{figure}表現``$N_1のN_2$''の中には,語$N_1$と$N_2$を結ぶ述語が省略されている,連体修飾節の短縮形と考えられるものが存在する\cite{hirai86,kurohashi99,shimadu85}.この省略されうる述語として,本論文では図~\ref{gainen}~に示すように2種類の``削除可能な動詞''を定義する\cite{kataoka99nlprs}.表現``$N_1のN_2$''の意味解析に関する既存の研究では,語$N_1$,$N_2$の意味関係を幾つかのクラスに分類することを試みている\cite{hirai86,kokugo51}.これらの意味構造に対応する動詞は,削除可能であると考えられる.一方,表現``$N_1のN_2$''には,$N_1$,$N_2$間の意味関係を示す動詞を,語$N_1$,または,$N_2$から連想できる場合がある.この場合,連想される動詞は,その語と共起したときのみ表現``$N_1のN_2$''の意味構造に対応するため,常に既存の分類と対応するとは限らない.どの動詞が連想されるかは,日常的な語の使われ方によって決まるため,その情報は,コーパスから得ることが適切である.よって,以下の2種類の方法により,削除可能な動詞を定義する.\begin{itemize}\itemシソーラスを用いて,表現``$N_1のN_2$''の意味構造に対応する動詞を選択する.\itemコーパスから,名詞と動詞の対を抽出し,共起頻度の高い対の名詞から動詞が連想可能であると判定する.\end{itemize}これらの削除可能な動詞を用いることで,動詞を含む連体修飾節が表現``$N_1のN_2$''に言い換えられることを示す.一般に言語現象は複雑であり,問題解決のための規則を人間が記述する規則利用型(rule-based)処理において,すべての現象をとらえられる規則を記述するのは困難である.一方,用例利用型(example-based)処理では,コーパスに類似した用例が出現しない場合,問題に対処することができない.これらの理由から,本論文では,2種類の方法によって削除可能な動詞を定義する.
\section{削除可能な動詞}
label{deletable_verb}名詞型連体修飾``$N_1のN_2$''の意味解析に関する研究は,従来から多く行われている\cite{hirai86,kokugo51,kurohashi99,shimadu85,tomiura95}.平井ら\cite{hirai86}は,表現``$N_1のN_2$''に,$N_1$と$N_2$を結ぶ述語が省略されているものが存在するとしている.また,この種の``$N_1のN_2$''の意味を理解するためには,読み手が,省略された述語を推定できなければならないことから,それらの述語は非常に基本的な関係を示すものであるとしている.また,英語の複合名詞句において,2つの名詞間の意味関係を9種の深層レベルの述語RDP(RecoverablyDeletablePredicate)\footnote{具体的には,CAUSE,HAVE,MAKE,USE,BE,IN,FOR,FROM,ABOUTの9種.}によってとらえる研究もある\cite{levi78}.これらの研究でも示されているように,``$N_1のN_2$''という表現や,複合名詞では,述語が省略されているものが存在する.逆に言うと,この省略されうる述語を含む連体修飾``$N_1$(が/を/…)$V$-する$N_2$''は,表現``$N_1のN_2$''に言い換えることが可能である.以下の例5では,動詞``発表する''を削除して,``$N_1のN_2$''と言い換えることができるが,動詞``批判する''を削除して言い換えることはできない.これは,語$N_1$と$N_2$が``発表する''によって結ばれた場合,その意味関係は``$N_1のN_2$''の意味構造に対応するが,``批判する''によって結ばれた場合,それに対応しないからだと考えられる.\begin{center}\begin{tabular}{lcc}{\bf例5}&&\\首相が発表した法案&$\to$&首相の法案\\首相が批判した法案&$\to$&(?)首相の法案\end{tabular}\end{center}本論文では,この``発表する''のような省略されうる動詞を``削除可能な動詞''と呼び,2種類の方法により定義する.\subsection{``$N_1のN_2$''の意味構造から得られる動詞}\label{byruigo}国立国語研究所は,``$N_1のN_2$''の意味構造を人手により分類している\cite{kokugo51}.その中で,述語が省略されていると考えられる分類を抜き出し\footnote{なお,これらの分類は,必ずしも並列ではない.},以下に示す.\begin{itemize}\item所有主.\\(例:太郎のボール)\item執筆者,発信者,主催者,主演者など,後ろの体言の作成行為をなした者.\\(例:漱石の小説,首相の談話)\item所属の団体.\\(例:A社の役員)\item存在の場所・位置.\\(例:奈良の東大寺)\end{itemize}これらの意味関係を示す動詞を,削除可能な動詞であると考える.また,削除可能な動詞は,平井らが述べているように「非常に基本的な関係を示す述語」でなければならないため,新聞記事に出現する頻度が上位の動詞だけを含める.よって,以下の条件1を満たす動詞を削除可能な動詞であると定義する.\begin{quote}\begin{itemize}\item[{\bf条件1:}]\itemシソーラス\cite{k_ruigo}において,上記の意味関係を示すと考えられる分類に含まれる.かつ,\itemコーパスに出現した動詞のうち,出現頻度が上位である.\end{itemize}\end{quote}上記の意味関係に対応するシソーラスの分類としては,\``所有'',``生成'',``開始'',``表現'',\\``実行'',``生産''など,末端の分類で30分類を選択した.また,コーパスとして日本経済新聞1993年の全記事を使用し,それらに出現した動詞(約2万語)を観察した結果,上位10\%に当たる2000位以上の動詞を出現頻度が上位であると判断した.その結果,削除可能な動詞を,``発表(する)'',``始める'',``まとめる'',``開く'',``実施'',``決める'',``開始'',``建設'',``行う''など,245個登録した.付録Aに,選択した30分類,および,削除可能な動詞の一部を示す.なお,これらの動詞の中には,削除可能な動詞として不適切な動詞``偽造(分類:製造)'',``冷蔵(分類:保有)''なども含まれているが,客観性を保つため,それらを人手で除去することは行わなかった.\subsection{語から連想される動詞}\label{rensou}前節では,削除可能な動詞をシソーラスを用いて定義した.しかし,これら以外の動詞であっても,文脈によって削除可能となる場合がある.以下の例6では,動詞``着る''や``降る''を削除して``$N_1のN_2$''と言い換えることができる.\begin{center}\begin{tabular}{lcl}{\bf例6}&&\\着物を着た女性&$\to$&着物の女性\\雨が降った日&$\to$&雨の日\end{tabular}\end{center}これは,名詞``着物'',``雨''から,それぞれの動詞を連想できるためと考えられる.``$N_1のN_2$''の意味解析に関する研究\cite{hirai86,kurohashi99,shimadu85,tanaka98b}においても,語$N_1$,または,$N_2$から連想される動詞を補完することで,その意味関係がとらえられる場合があるとしている.これらの動詞は,前述の定義では削除可能な動詞として定義されない.これらの動詞を削除可能であると判定するためには,ある名詞から連想される動詞を判定する必要がある.そこで,新聞記事において,ある名詞と,それが係る動詞との対を抽出する.ある名詞が与えられたとき,抽出した対の中で,その名詞と共起頻度の高い動詞を連想される動詞であると判定する.\subsubsection{$NV対$の抽出}\label{nvchushutsu}以下の手順により,新聞記事から名詞と動詞との対を抽出する.この抽出される対を,``$NV対$''と定義し\footnote{田中ら\cite{tanaka98b}は,一部の``$N_1のN_2$''の意味推定の際に,本論文と同様,コーパスにおける名詞と動詞の共起関係を用いている.},``$\langlen,v\rangle$''と表記する.\begin{enumerate}\item記事に対して形態素解析,および構文解析を行う.形態素解析器はJUMAN\footnote{http://pine.kuee.kyoto-u.ac.jp/nl-resource/}を用いた.また,構文解析器は,Perl言語を用いて独自に実装し,基本的に,すべての助詞は最も近い後方の用言に係ると判定した.解析結果の人手による修正は行わない.\item解析結果から,以下を$NV対$として抽出する.\begin{itemize}\item動詞($v$)と,その格要素の主辞($n$)\item修飾表現内の動詞($v$)と,その被修飾部の主辞($n$)\end{itemize}ただし,本論文では,名詞,または,接尾辞が連続している部分のうち最も後方の形態素を,主辞と定義する.また,$n$の品詞(JUMANの解析結果)が数詞,人名,地名,組織名のいずれかであるならば,それぞれの品詞名を$n$として抽出する.\end{enumerate}例えば,``東京で開かれた国際会議に出席する.''という文からは,$\langle地名,開く\rangle$,$\langle会議,開く\rangle$,$\langle会議,出席\rangle$という$NV対$が抽出される.$NV対$を抽出する際に,$v$に対して$n$がとる格を考慮することが考えられる.ところが,連体修飾表現``$V$-する$N_2$''においては,被修飾語$N_2$がとる格を表層表現から得ることができない.また,文型によって表層格が変化しても同一の$NV対$として抽出することが望ましい.これらの理由から,表層的な情報のみを扱う本論文では,$NV対$において,格の情報は扱わない.また,前述の抽出法では,連体修飾表現が「外の関係」\footnote{被修飾語が修飾部の用言の格要素とならない\cite{teramura75}.格要素となる場合を「内の関係」と呼ぶ.}である場合,動詞の格要素ではない名詞が抽出される.しかし一般に,ある連体修飾表現が「内の関係」であるか「外の関係」であるかを機械的に判定することは困難であるため,本論文ではその判定は行わない.日本経済新聞1993年の全記事(約15万記事)に対して抽出を行った結果,約470万の$NV対$が抽出された(表~\ref{chushutsukekka}~).\begin{table}[hbt]\caption{$NV対$の抽出結果}\label{chushutsukekka}\vspace{-4mm}\begin{center}\begin{tabular}{|rl|}\hline抽出対象&約15万記事\\$NV対$の延べ数&約470万\\$NV対$の異なり数&約140万\\$N$の異なり数&約62,000\\$V$の異なり数&約15,000\\\hline\end{tabular}\end{center}\end{table}\subsubsection{$NV$対による削除動詞の判定}\label{nvhantei}抽出された$NV対$を用いて,連想される動詞の判定を行う.まず,名詞$n$と動詞$v$の共起率$CR_n(v)$を次式によって定義する.$$CR_{n}(v)=\frac{F(n,v)}{\displaystyle{\sum_{for\all\i}{F(n,v_{i})}}}$$$$F(n,v):\langlen,v\rangleの出現頻度$$ある名詞に対して最も高い共起率を持つ動詞を,連想される動詞として定義する.つまり,$\langlen,v\rangle$が以下の条件2を満たすとき\footnote{条件2は,$CR_n(v)$を用いず,$F(n,v)$によっても同等の定義が可能である.},名詞$n$から動詞$v$が連想されると判定する.\vspace{5mm}\begin{quote}\begin{itemize}\item[\bf条件2:]$\forall\i,\CR_n(v)\geqCR_n(v_{i})$\end{itemize}\end{quote}\vspace{5mm}前節で抽出された$NV対$に対して判定を行った結果,異なり数で約12万対が条件2を満たし,名詞から動詞が連想されると判定された.表~\ref{saiyo}~に,条件2を満たす$NV対$について延べ数などを示し,付録~B~にその例を示す.表~\ref{saiyo}~において,$N$の異なり数と,$NV対$の異なり数とが一致していない.これは,ある名詞に対して,条件を満たす$NV対$が複数存在する場合,それらの動詞すべてを,その名詞から連想される動詞として判定しているからである.\begin{table}[hbtp]\begin{center}\caption{条件2を満たす$NV対$}\label{saiyo}\begin{tabular}{|rl|}\hline延べ数&約67万\\&(全$NV対$の14.2\%)\\異なり数&約12万\\$N$の異なり数&約62,000\\$V$の異なり数&約7,000\\\hline\end{tabular}\end{center}\end{table}ある動詞が,\ref{byruigo}節,および,本節の2つの方法で重複して削除可能と判定される場合もある.条件2を満たす12万対のうち,シソーラスを用いた定義によっても削除可能と判定されるものは約2万対であった.重複して判定される動詞の例を表~\ref{chofuku}~に示す.表中の$NV対$の動詞は,シソーラスを用いても削除可能であると判定される.\begin{table}[hbtp]\begin{center}\caption{重複して削除可能と判定される動詞}\label{chofuku}\begin{tabular}{|crc|}\hline\multicolumn{1}{|c}{$NV対$}&頻度&$CR_{n}(v)$\\\hline\hline$\langle社債,発行\rangle$&230&\multicolumn{1}{r|}{44.8\(\%)}\\$\langle結論,出す\rangle$&496&40.6\\$\langle会議,開く\rangle$&1995&24.8\\$\langle教書,発表\rangle$&11&19.6\\$\langle伸び,示す\rangle$&468&13.9\\\hline\end{tabular}\end{center}\end{table}$NV対$の抽出,および,それによる削除動詞の判定において,\ref{nvhantei}~節に述べた理由から,名詞と動詞の格関係を考慮していない.そのため,以下の状況が生じうる.まず,$CR_n(v,c)$を,名詞$n$と動詞$v$が格関係$c$によって係る割合\footnote{分母は,$CR_n(v)$の定義と同様,$n$の出現頻度.}とする.ある$\langlen,v\rangle$が,条件2を満たすとしても,$CR_n(v,c_i)$を最大にする格関係$c$において,$CR_n(v,c)<CR_n(v',c)$である$v'$が存在する可能性がある.格関係が異なる$n$,$v$は,異なる意味関係で共起していると考えることもでき,この状況では,$n$から連想される動詞として$v$が適切であるとは限らない.しかし,$\langlen,v\rangle$が条件2を満たす際には,ある特定の格関係が$CR_n(v)$に大きく寄与していると考えられる.すなわち,$CR_n(v,c_i)$を最大にする格関係$c$において,$CR_n(v,c)\simeqCR_n(v)$となることが多く,前述の状況は生じにくい.例えば,$\langle犯人,逮捕\rangle$という例では,その格関係はヲ格(対象)のみと考えるのが自然である.本論文において,名詞から動詞が連想されると判定された$NV対$を観察したところ,名詞と動詞の格関係は一定の場合が多かったことから,前述の状況となる$NV対$は少ないと考えられる.一方,複数の格関係が$CR_n(v)$に寄与しうる例として,$\langle本,読む\rangle$が挙げられる.ところが,深層格が異なる``本を読む'',``本で読む''という表現において,同一の$NV$対が抽出され,``本''から``読む''が連想されると判定されても問題はない.格関係が異なっているとしても,係り受け関係を持って共起していることから,連想される動詞としての意味的な関係は,ある程度妥当である場合が多いと考えられる.以上の議論から,本論文において$NV対$に格の情報を含めなかったことが,精度に与える影響は小さいと予想する.\ref{nvchushutsu}~節~で述べた理由によって$NV対$のデータ量を確保するという観点から,格の情報を考慮しないことが現実的には有利な選択であろう.
\section{言い換え可能表現の絞り込み}
\label{NNpair}}連体修飾表現の動詞が慣用句の一部である場合など,たとえ動詞が削除可能な動詞であっても,``$N_1のN_2$''と言い換えると不自然となることがある.以下の例7では,慣用句``力を入れる''の動詞を削除して言い換えると意味が分からない表現となる.\begin{center}\begin{tabular}{lcc}{\bf例7}&&\\力を入れる交渉&$\to$&(?)力の交渉\\\end{tabular}\end{center}また,$V$が同じ語であっても,$N_1$,$N_2$の格が異なれば,言い換えが不自然になる例がある.\begin{center}\begin{tabular}{lcc}{\bf例8}&&\\裁判長が出した勧告&$\to$&裁判長の勧告\\勧告を出した裁判長&$\to$&(?)勧告の裁判長\\\end{tabular}\end{center}このような不自然な言い換えを避けるため,動詞型連体修飾``$N_1$(が/を/に/…)$V$-する$N_2$''の言い換えにおいて,語$N_1$,$N_2$がコーパス中に``$N_1のN_2$''の形で出現している場合にのみ,言い換えを行う.例7,8では,言い換え後の表現である``力の交渉'',``勧告の裁判長''は,コーパスに出現しないと考えられることから,不自然な言い換えを回避できる.\subsection{$NN対$の抽出}コーパス中に``$N_1のN_2$''の形で出現する名詞句に含まれる語$N_1$,$N_2$の対を$NN対$として定義し,[$n_1$,$n_2$]と表記する.新聞記事から,以下の手順により$NN対$を抽出する.\begin{enumerate}\item記事に対してJUMANによる形態素解析を行う.解析結果の人手による修正は行わない.\item接続助詞`の'による修飾表現のうち,修飾部の主辞($n_1$)と,被修飾部の主辞($n_2$)を抽出する.ただし,$n_1$,$n_2$の品詞(JUMANによる解析結果)が人名,組織名,地名,数詞のいずれかの場合は,それぞれ品詞名を$n_1$,あるいは,$n_2$として抽出する.\end{enumerate}例えば,``形態素解析の実行結果''という表現からは,[解析,結果]という$NN対$が得られる.また,``$N_1のN_2$の$N_3$''という形の表現において,語$N_1$が$N_2$に係るか,あるいは,$N_3$に係るかを,表層的な情報から判定することは困難である.$NN対$は,言い換えの際の誤りを排除するという目的から,正しいもののみが収集されていることが望ましい.よって,``$N_1のN_2$の$N_3$''という形の表現からは,$NN対$として[$N_2$,$N_3$]のみを抽出する.日本経済新聞1993年の記事から抽出を行った結果,延べ数で約105万,異なり数で約43万の$NN対$が抽出された.\subsection{$NN対$の汎化処理}日本語では,名詞のうち多くのものを接続助詞`の'によって結合することができ,その結果,多くの表現を生成することが可能である.よって,コーパスから抽出した$NN対$データのスパース性が問題となる.これには,コーパス量を増やすことで対応することも考えられるが,本論文では,$NN対$に対してシソーラスを用いた汎化を行う.$NN対$の各語を,シソーラス\cite{k_ruigo}中の末端の分類に置き換えた.その際,複数の意味カテゴリに分類されている単語は,各分類ごとに汎化した$NN対$を作成し,また,シソーラスに記載されていない単語に対しては,汎化を行わない.
\section{評価}
label{hyouka}\subsection{評価方法}日本経済新聞1994年の記事から,動詞型連体修飾``$N_1$(が/を/に/…)$V$-する$N_2$''を人手で抽出し,本手法の有効性を検討する.本実験では,動詞$V$が格要素を一つ取っている表現のみを対象とした.これは,以下の理由による.例えば,``$N_1$が$N_2$を$V$-する$N_3$''という表現を言い換える際に,``$N_1$の$N_3$'',``$N_2$の$N_3$'',``$N_1$の$N_2$の$N_3$''のいずれの表現に言い換えるか,文脈に応じて適切な表現を選択する必要がある.本論文は,言い換えを行う際に削除できる動詞を判定する手法を提案するものであり,いずれの格要素を残すべきかの選択は対象外とする.記事より,動詞型連体修飾表現を無作為に500個抽出した.これらの表現に対して,人間,および,本手法によって言い換えを行い,再現率,適合率で評価する.$$再現率:R=C/H×100(\%),\\適合率:P=C/M×100(\%)$$ここで,$H$は,筆者が主観によって,``$N_1$の$N_2$''に言い換えられるかどうかを判定し,言い換え可能と判定された表現の数を示す.また,$M$は,本手法によって言い換え可能と判定された表現の数を示し,$C$は,人間と本手法とで共に言い換え可能と判定された表現の数を示す.$NN$対による絞り込みでは,以下の3種類の制限を用いて実験を行った.\begin{itemize}\item(制限無し)制限を設けない\item(制限1)[$n_1$,$n_2$]の頻度が1以上ならば言い換える\item(制限2)汎化した[$n_1$,$n_2$]の頻度が1以上ならば言い換える\end{itemize}\subsection{評価結果}\label{kekka}表~\ref{hyokakekka}~に,評価結果を示す.表中の$M$,$C$列に示す括弧で括られた2つの数(a,b)は,それぞれ,\begin{itemize}\item[a:]シソーラスを用いて定義された動詞によって言い換えられた表現の数\item[b:]連想可能な動詞と判定された動詞によって言い換えられた表現の数\end{itemize}を表す.また,削除可能な動詞が正しく判定され,言い換えられた動詞型連体修飾の例(制限無し)を表~\ref{iikaerei}~に示す.シソーラスを用いた定義により判定されたものには動詞の意味分類を示し,連想可能と判定されたものには$NV対$と$CR_{n}(v)$を示す.\begin{table}[tbp]\begin{center}\caption{評価結果}\label{hyokakekka}\renewcommand{\arraystretch}{}\begin{tabular}{|l||c|c|c|c|c|}\hline&\$H$\&$M$&$C$&\$R\(\%)$\&\$P\(\%)$\\\\hline\hline制限無し&\152\&158&97&63.8&61.4\\&&{\small(93,86)}&{\small(61,53)}&&\\制限1&152&35&29&19.1&82.9\\&&{\small(27,16)}&{\small(23,13)}&&\\制限2&152&83&64&42.1&77.1\\&&{\small(57,40)}&{\small(44,32)}&&\\\hline\end{tabular}\\\end{center}\end{table}\begin{table}[tbp]\begin{center}\caption{正しく判定された例}\label{iikaerei}\begin{small}\begin{tabular}{|ccccc|}\hline\multicolumn{1}{|c}{{\bf言い換え前}}&{\bf言い換え後}&{\bf動詞の分類}&{\bf$NV対$}&{\bf$CR_{n}(v)$}\\\hline\hline高シェアを持つ会社&高シェアの会社&所有&---&---\\\hline組合で作る連合会&組合の連合会&生成&---&---\\\hline一日に開く会議&一日の会議&挙行,開始&$\langle会議,開く\rangle$&24.8\\\hline大賞を受賞したAさん&大賞のAさん&---&$\langle大賞,受賞\rangle$&23.5\\\hline賛成に回る議員&賛成の議員&---&$\langle賛成,回る\rangle$&22.7\\\hline低迷が続く業績&低迷の業績&---&$\langle低迷,続く\rangle$&18.3\\\hline\end{tabular}\end{small}\end{center}\end{table}
\section{考察}
label{kousatsu}本論文では,動詞の表層的な情報のみに基づく判定によって,``$N_1のN_2$''への言い換えを行ったが,$NN対$による制限を加えない場合,再現率63.8\%,適合率61.4\%とおおむね良好な結果が得られた.本手法では,2種類の方法により削除可能な動詞を定義した.シソーラスによる定義のみで,あるいは,連想される動詞のみで言い換えを行うと仮定すれば,それぞれ再現率が30--40\%程度となることから,2種類の方法を併用して定義したことが有効であったといえる.まず,$NN対$による制限無しの場合に,再現率,適合率を低下させた原因について考察する.再現率を下げた原因には,以下のことが挙げられる.\begin{itemize}\item``手掛ける'',``抱える''など,新聞記事においては``実施'',``所有''などの意味を示しうるが,\ref{byruigo}節で選択したシソーラスの分類には含まれていない動詞があった.\item$NV対$は比較的高頻度で出現するが,その名詞に対して最も共起頻度が高い動詞ではなかったため,連想される動詞として判定されなかった.\end{itemize}再現率を上昇させるために,シソーラスを用いた削除可能な動詞の定義において,選択する意味分類を,対象コーパスに適応させることが考えられる.しかし,コーパスにおける動詞の使用状況を調査する必要があるなど,その実現は容易ではない.もちろん,実験によって発見された動詞を,削除可能な動詞として新たに加えることは可能である.また,$NV対$による削除動詞の判定において,高い$CR_n(v)$を持つ$NV対$を採用することによっても再現率の上昇が期待できる.しかし,その閾値は実験により求める他になく,決定は困難である.適合率を低下させた原因には,以下のことが挙げられる.これらは,$NN対$を用いた絞り込みによっても排除することができない.\begin{itemize}\item本実験では,新聞記事から$NV対$を抽出した.そのため,$\langle前年,上回る\rangle$,$\langle経費,削減\rangle$といった$NV対$の出現頻度が高くなった.これらは,新聞記事において頻出するが,その名詞から動詞が連想可能とは言えない.$NN対$を用いた制限を行っても,例えば,``前年の成績''という表現がコーパスに出現していれば,``前年を上回る成績''をそれに言い換えてしまう.この問題に対しては,新聞記事に限定せず,多様なコーパスから$NV対$を抽出することで避けられると考えている.\item$\langle質問,答える\rangle$,$\langle費用,かかる\rangle$なども出現頻度が高く,直観的に名詞から動詞が連想可能であると言える.しかし,以下のような動詞型連体修飾として出現した場合,動詞を削除すると意味が変化する.\\\begin{center}\begin{tabular}{lcc}{\bf例9}&&\\質問に答えた結果&$\to$&(?)質問の結果\\費用がかかる調査&$\to$&(?)費用の調査\\\end{tabular}\end{center}\noindentところが,以下のような文脈を考えることで,同様の言い換えは許容されると考えられる.\\\begin{center}\begin{tabular}{lcl}{\bf例10}&&\\Aは,Bの質問に答えた結果,…&$\to$&Aは,Bの質問の結果,…\\莫大な費用がかかる調査&$\to$&莫大な費用の調査\\\end{tabular}\end{center}\noindentよって,これらの例は,本研究における評価では失敗としたが,$NV対$から得られる連想可能な動詞に対する反例であるとは考えていない.実際には,``$N_1のN_2$''は単独で出現するのではなく,必ず文章中の他の語と共起して出現するため,文脈を考慮した判定,評価が必要である.しかしながら,考慮に入れるべき文脈の範囲を決定することは容易でなく,また,現在の技術では,正確な文脈解析を期待できない.したがって本論文では,修飾表現内で観測可能な現象のみを対象とした.\end{itemize}なお,シソーラスを用いて定義された動詞が原因で,不適切な言い換えを行い,$NN対$による制限によっても排除できなかった例も存在する.上述したように,実験によって発見された,これらの動詞を除くことは可能である.次に,$NN対$による制限を加えた場合について考察する.制限を加えることで,適合率が上昇し,言い換えの誤りを除くという目的を達成することはできた.しかし,その一方で再現率が減少する.制限によって再現率が大幅に減少するのは,$NN対$データのスパース性が影響しているためとも考えられる.しかし,コーパス量を2倍(日本経済新聞2年分)として$NN$対を抽出しても再現率は数\%程度しか上昇しなかった.したがって,$NN対$を汎化する際に意味レベルをどのように設定するかの影響が強いと考えられる.最適な汎化レベルを求めることは,シソーラスの編集方針に依存するため容易ではない.また新聞記事では,\begin{itemize}\item``$N_1$の$N_2$''に言い換え可能な表現は,初めからそれで表現される,\item``$N_1$の$N_2$''によって表現すると曖昧さが残るものは,動詞型連体修飾で表現される\end{itemize}と考えられる.そのため,動詞型連体修飾表現に出現する$N_1$,$N_2$と,``$N_1$の$N_2$''との間に重複が少なく,適切な$NN対$が収集されなかった可能性がある.また,$NN対$を汎化する際,複数の意味カテゴリに分類されている名詞は,各分類ごとに汎化を行った.この汎化処理では,名詞が,その意味では使用されていないカテゴリへ誤って汎化される恐れがある.しかし,誤った汎化を行ったとしても,それに対応する表現が絞り込みの対象とならない限り影響はない.実験では,汎化処理を行った絞り込み(制限2)における適合率の減少は5\%程度と高くはないことから,誤った汎化の影響を受ける``$N_1のN_2$''が絞り込みの対象となる確率は低いと考えられる.また,汎化を行った結果,再現率が20\%程度改善されている.$NN対$データのスパース性に対処するという目的で汎化を行っており,また,適合率の減少は再現率の上昇と比較して微小であることから考えて,誤った汎化の回避は,優先して取り組むべき課題ではないと考えている.
\section{関連研究}
label{kanren}まず,言い換えに関する既存の研究について論じる.{}\ref{hajimeni}節で挙げた研究の他では,加藤ら\cite{kato99}は,原文とその要約文との対応がとれたコーパスを用いて,言い換えが行われている部分を照合により特定し,それを言い換えの知識として自動的に得る手法を提案している.また,Hovyら\cite{hovy97},近藤ら\cite{kondo96}は,シソーラスを用いて,意味が類似した複数の語句を,より抽象的な一つの語句に言い換える手法を提案している.また,近藤ら\cite{kondo00}は,「犬が彼に噛み付く」から「彼が犬に噛み付かれる」のような,単文中の非ガ格要素をガ格化する言い換えを実現するための規則を提案している.連体修飾節を対象とした言い換えに関しては,これまで,ほとんど研究されていなかったが,野上ら\cite{nogami00}によって,「1742年に創立されたコスタは,スウェデーン最古の工場だ.」から「コスタは,スウェデーン最古の工場だ.1742年に創立された.」への言い換えのように,連体修飾節を主文から切り離す言い換えが取り上げられている.次に,本論文における削除可能な動詞,および,その定義に関連する研究について論じる.田中ら\cite{tanaka98b}は,``$N_1$の$N_2$''の意味関係を推定するために,「一般的な意味関係」\footnote{「一般的な意味関係」は,さらに,7つに分類される.}と「名詞固有の意味関係」を定義している.この中で,本論文における$NV対$の定義,および,それによる連想される動詞の判定は,田中らが「名詞固有の意味関係」を得る際に行う処理とほぼ同一である.田中らの概念は,冨浦ら\cite{tomiura95}による意味推定において曖昧性が残る``$N_1のN_2$''を対象としている.一方,本論文では,言い換えを行う際の削除動詞を決定するという立場から,言い換え可能な``$N_1のN_2$''すべてを対象としている.そのため,「連想される動詞」によって言い換えられる``$N_1のN_2$''は,田中らの「名詞固有の意味関係」と,必ずしも一致しない.また田中らの概念では,意味推定という立場から,対象としている``$N_1のN_2$''は,2つの概念のいずれかに分類される.一方,本論文における2つの概念は互いに排他的ではなく,\ref{nvhantei}~節で議論したように,両者の概念によって定義される動詞も存在する.これらの相違は,田中らが意味推定,本論文においては言い換え,と異なる目的のために2つの概念を定義し,利用していることにあるといえる.また,村田ら\cite{murata98a},山本ら\cite{yamamoto98}は,名詞や動詞の省略補完において,本論文と同様に,コーパスから取得した用例を利用している.ただし,村田らの手法\cite{murata98a}では,コーパスに対して形態素解析や構文解析をせず,単なる文字列として最長に一致する部分を用例と認定している.また山本らの手法\cite{yamamoto98}では,名詞と動詞との係り受け関係に関する情報は格フレーム辞書から得ている.これらの手法も,田中らと同様,表層的には存在しない動詞を推定することを目的とする.よって,用例を利用している点では本論文と類似するが,目的は異なる.
\section{おわりに}
本論文では,動詞型連体修飾``$N_1$(が/を/に/…)$V$-する$N_2$''を,名詞型連体修飾``$N_1$の$N_2$''に言い換える手法を提案した.``$N_1のN_2$''の中には,動詞型連体修飾において動詞が省略された短縮形と考えることができるものがあり,その省略されうる動詞を削除可能な動詞として2種類の方法によって定義した.これらの削除可能な動詞を利用することで,動詞の表層的な情報のみを利用して,``$N_1のN_2$''への言い換えが実現可能であることを示した.また,コーパスに``$N_1$の$N_2$''の形で出現するもののみを言い換えることで,削除可能な動詞の判定の際の誤りを排除し,適合率を上げることが可能であることを示した.今後の課題として,文脈を考慮して削除可能な動詞を判定すること,複数の格要素を持つ動詞型連体修飾表現を言い換えること,などが挙げられる.\section*{謝辞}本研究で使用した「角川類語新辞典」を機械可読辞書の形で提供いただき,その使用許可をいただいた(株)角川書店に深謝する.また,本研究で言語データとして使用した日経新聞CD-ROM,1994年版の使用許可をいただいた(株)日本経済新聞社に深謝する.\appendix削除可能な動詞の例を示す.付録Aに,シソーラスを用いて定義された動詞の例を,付録Bに,名詞から動詞が連想可能であると判定された$NV対$の例を示す.\section*{Aシソーラスにより定義された動詞の例}\label{a}\begin{center}\begin{tabular}{|c|p{10cm}|}\hline分類&\multicolumn{1}{c|}{動詞}\\\hline\hline所有&共有,持つ,所有,占める,占領,独占,備える\\\hline\hline保有&確保,保つ,保管,保有,冷蔵\\\hline\hline生成&形成,結ぶ,結晶,構成,作り出す,作る,作成,成り立つ,成る,生じる,生まれる,生み出す,生む,組み立てる,創作,創造,造る,誕生,発生,編成\\\hline\hline挙行&開く,開催,挙げる,共催,行う,催す,執行,主催\\\hline\hline建造&改築,建つ,建てる,建設,建造,建築,構える,構築,再建,新築,組み立てる,増築,築く\\\hline\hline存在&既存,共存,潜在,存在,分布\\\hline\end{tabular}\end{center}\vspace{0.5cm}\noindent{\bfその他の分類}\begin{quote}従属,発生,開始,進捗,提示,表現,叙述,描写,書き,執筆,発言,言明,総括,実行,遂行,設置,設備,生産,製造,架設,決定,施設,発表,発行\end{quote}\section*{B連想可能な動詞の例}\label{b}\begin{center}\begin{tabular}{|crc|}\hline$NV対$&頻度&$CR_{n}(v)$\\\hline\hline$\langle平行線,たどる\rangle$&137&\multicolumn{1}{r|}{88.3\(\%)}\\$\langle注目,集める\rangle$&781&73.8\\$\langleけじめ,つける\rangle$&98&67.5\\$\langle長期間,わたる\rangle$&57&57.5\\$\langleボタン,押す\rangle$&86&50.0\\$\langle汗,流す\rangle$&144&41.0\\$\langle役割,果たす\rangle$&1155&39.5\\$\langle損害,与える\rangle$&131&38.1\\$\langleたばこ,吸う\rangle$&73&33.4\\$\langle白紙,戻る\rangle$&53&29.6\\$\langleうわさ,流れる\rangle$&131&27.9\\$\langle賞,受賞\rangle$&265&25.5\\$\langle被害,受ける\rangle$&451&24.1\\$\langle材,使う\rangle$&169&18.9\\$\langle小説,書く\rangle$&53&16.0\\$\langle赤字,転落\rangle$&494&15.1\\$\langle治療,受ける\rangle$&88&14.9\\$\langleメッセージ,送る\rangle$&62&14.9\\$\langle役,務める\rangle$&178&12.9\\$\langle抵抗,あう\rangle$&52&11.8\\$\langle画面,表示\rangle$&93&11.0\\\hline\end{tabular}\end{center}\begin{thebibliography}{}\bibitem[\protect\BCAY{平井北橋}{平井\JBA北橋}{1986}]{hirai86}平井誠\BBACOMMA\北橋忠宏\BBOP1986\BBCP.\newblock\JBOQ日本語文における「の」と連体修飾の分類と解析\JBCQ\\newblock\Jem{情報処理学会研究報告NL-58-1}.\bibitem[\protect\BCAY{Hovy\BBA\Lin}{Hovy\BBA\Lin}{1997}]{hovy97}Hovy,E.\BBACOMMA\\BBA\Lin,C.-Y.\BBOP1997\BBCP.\newblock\BBOQAutomatedtextsummarizationin{SUMMARIST}\BBCQ\\newblockIn{\BemProc.oftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\18--24.\bibitem[\protect\BCAY{Kataoka,Yamamoto,\BBA\Masuyama}{Kataokaet~al.}{1999}]{kataoka99nlprs}Kataoka,A.,Yamamoto,K.,\BBA\Masuyama,S.\BBOP1999\BBCP.\newblock\BBOQSummarizationbyShortening{J}apaneseNounModifiersintoExpression``{A}{\itno}{B}''\BBCQ\\newblockIn{\BemProceedingsofNLPRS99},\BPGS\409--414.\bibitem[\protect\BCAY{加藤浦谷}{加藤\JBA浦谷}{1999}]{kato99}加藤直人\BBACOMMA\浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(7),73--92.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1951}]{kokugo51}国立国語研究所\BBOP1951\BBCP.\newblock\Jem{現代語の助詞・助動詞-用法と実例-}.\newblock秀英出版.\bibitem[\protect\BCAY{近藤奥村}{近藤\JBA奥村}{1996}]{kondo96}近藤恵子\BBACOMMA\奥村学\BBOP1996\BBCP.\newblock\JBOQ言い替えを使用した要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-116-20},\BPGS\137--142.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{1999}]{kondo99}近藤恵子,佐藤理史,奥村学\BBOP1999\BBCP.\newblock\JBOQ「サ変名詞+する」から動詞相当句への言い換え\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(11),4064--4074.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{2000}]{kondo00}近藤恵子,佐藤理史,奥村学\BBOP2000\BBCP.\newblock\JBOQ格変換による単文の言い換え\JBCQ\\newblock\Jem{情報処理学会研究報告NL-135-16},\BPGS\119--126.\bibitem[\protect\BCAY{黒橋酒井}{黒橋\JBA酒井}{1999}]{kurohashi99}黒橋禎夫\BBACOMMA\酒井康行\BBOP1999\BBCP.\newblock\JBOQ国語辞典を用いた名詞句「{A}の{B}」の意味解析\JBCQ\\newblock\Jem{情報処理学会研究報告NL-129-16},\BPGS\109--116.\bibitem[\protect\BCAY{Levi}{Levi}{1978}]{levi78}Levi,J.~N.\BBOP1978\BBCP.\newblock{\BemTheSyntaxandSemanticsofComplexNominals}.\newblockAcademicPress.\bibitem[\protect\BCAY{三上,増山,中川}{三上\Jetal}{1999}]{mikami99}三上真,増山繁,中川聖一\BBOP1999\BBCP.\newblock\JBOQニュース番組における字幕生成のための文内短縮による要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),65--81.\bibitem[\protect\BCAY{村田長尾}{村田\JBA長尾}{1998}]{murata98a}村田真樹\BBACOMMA\長尾真\BBOP1998\BBCP.\newblock\JBOQ日本語文章における表層表現と用例を用いた動詞の省略の補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(1),119--133.\bibitem[\protect\BCAY{野上,藤田,乾}{野上\Jetal}{2000}]{nogami00}野上優,藤田篤,乾健太郎\BBOP2000\BBCP.\newblock\JBOQ文分割による連体修飾節の言い換え\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\215--218.\bibitem[\protect\BCAY{大野浜西}{大野\JBA浜西}{1981}]{k_ruigo}大野晋\BBACOMMA\浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato99}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),2937--2945.\bibitem[\protect\BCAY{島津,内藤,野村}{島津\Jetal}{1985}]{shimadu85}島津明,内藤昭三,野村浩郷\BBOP1985\BBCP.\newblock\JBOQ日本語文意味構造の分類-名詞句構造を中心に-\JBCQ\\newblock\Jem{情報処理学会研究報告NL-47-4}.\bibitem[\protect\BCAY{田中,冨浦,日高}{田中\Jetal}{1998}]{tanaka98b}田中省作,冨浦洋一,日高達\BBOP1998\BBCP.\newblock\JBOQ統計的手法を用いた名詞句「{NP}の{NP}」の意味関係の抽出法\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告NLC-98-4},\BPGS\23--29.\bibitem[\protect\BCAY{寺村}{寺村}{19751978}]{teramura75}寺村秀夫\BBOP1975--1978\BBCP.\newblock\JBOQ連体修飾のシンタクスと意味(1)--(4)\JBCQ\\newblock\Jem{日本語・日本文化vol.4--7}.大阪外国語大学研究留学生別科.\bibitem[\protect\BCAY{冨浦,中村,日高}{冨浦\Jetal}{1995}]{tomiura95}冨浦洋一,中村貞吾,日高達\BBOP1995\BBCP.\newblock\JBOQ名詞句「{NP}の{NP}」の意味構造\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(6),1441--1448.\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1997}]{wakao97}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\JBOQテレビニュース番組の字幕に見られる要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-122-13},\BPGS\83--89.\bibitem[\protect\BCAY{山本,村田,長尾}{山本\Jetal}{1998}]{yamamoto98}山本専,村田真樹,長尾真\BBOP1998\BBCP.\newblock\JBOQ用例による換喩の解析\JBCQ\\newblock\Jem{言語処理学会第4回年次大会発表論文集},\BPGS\606--609.\bibitem[\protect\BCAY{山本,増山,内藤}{山本\Jetal}{1995}]{yamamoto95}山本和英,増山繁,内藤昭三\BBOP1995\BBCP.\newblock\JBOQ文章内構造を複合的に利用した論説文要約システム{GREEN}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(1),39--56.\bibitem[\protect\BCAY{山崎,三上,増山,中川}{山崎\Jetal}{1998}]{yamasaki98}山崎邦子,三上真,増山繁,中川聖一\BBOP1998\BBCP.\newblock\JBOQ聴覚障害者用字幕生成のための言い替えによるニュース文要約\JBCQ\\newblock\Jem{言語処理学会第4回年次大会発表論文集},\BPGS\646--649.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{片岡明}{2000年豊橋技術科学大学大学院工学研究科知識情報工学専攻修士課程修了.同年,西日本電信電話(株)入社.現在,日本電信電話(株)コミュニケーション科学基礎研究所勤務.在学中は,自然言語処理,特にテキスト要約の研究に従事.現在は,機械翻訳の研究に従事.{\ttE-mail:[email protected]}}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.{\ttE-mail:[email protected]}}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N01-02
|
\section{はじめに}
一つ一つの単語はしばしば複数の品詞(即ち,品詞の曖昧性)を持ち得る.しかしながら,その単語が一旦文に組み込まれば,持ち得る品詞はその前後の品詞によって唯一に決まる場合が多い.品詞のタグづけはこのような曖昧性を文脈を用いることによって除去することである.品詞タグづけの研究は,特に英語や日本語などにおいて多数行なわれてきた.これらの研究を通じ,これまで主に四つのアプローチ,即ち,ルールベースによるもの~\cite{garside,hindle,brill},HMMやn-gramを用いた確率モデルに基づいたもの~\cite{church,derose,cutting,weischedel,merialdo,schutze},メモリベースのもの~\cite{daelemans:96,marquez},そしてニューラルネットを用いたもの~\cite{nakamura,schmid,ma}が提案された.これらの研究では,大量の訓練データ(例えば\cite{schmid}においては1,000,000個のデータ)を用いれば,そのいずれの手法を用いても,未訓練データへのタグづけを95\%以上の正解率で行なえることを示した.しかしながら,実際,英語や日本語などを除いた数多くの言語(例えば本稿で取り上げたタイ語)に関しては,コーパス自体もまだ整備段階にあるのが現状で,予め大量の訓練データを得るのが困難である.従って,これらの言語にとっては,如何に少ない訓練データで十分実用的で高い正解率の品詞タグづけシステムを構築するかが重要な課題となる.これまで提案された確率モデルやニューラルネットモデルのほとんどはタグづけに長さが固定の文脈を用いるものであり(HMMモデルにおいても状態遷移を定義するのに固定されたn-gramベースのモデルを用いる),入力の各構成部分は同一の影響度を持つものとされていた.しかし,訓練データが少ない場合,タグづけ結果の確信度を高めるために,まずできるだけ長い文脈を用い,訓練データの不足から確定的な答えが出ない場合に順次文脈を短くするといったようにフレキシブルにタグづけすることが必要とされよう.そして,客観的な基準で入力の各構成部分の品詞タグづけへの影響度を計り,その影響度に応じた重みをそれぞれの構成部分に与えればより望ましいであろう.そこで,シンプルで効果的と思われる解決法はマルチモジュールモデルを導入することである.マルチモジュールモデルとは,複数のそれぞれ異なった長さの文脈を入力としたモジュールとそれらの出力を選別するセレクターから構成されるシステムのことである.しかし,このようなシステムを例えば確率モデルやメモリベースモデルで実現しようとすると,それぞれ以下に述べる不具合が生じる.確率モデルは,比較的短い文脈を用いる場合には,必要とされるパラメターの数はそれほど多くならない.しかし,ここで提案しているような複数のモジュールを場合に応じて使い分けるようなシステムでは,ある程度の長さの文脈を用いることが必要となり,確率モデルのパラメターの数が膨大になる.例えば,品詞が50種類ある言語を左右最大三つの単語の情報を文脈としてタグづけを行なう場合,その最長文脈を入力としたn-gramベース確率モデルにおいては,サイズが$50^7=7.8\times10^{11}$のn-gramテーブルを用意しなければならない.一方,IGTreeのようなメモリベースモデル\cite{daelemans:96}においては,品詞タグづけに実際に用いる特徴の数はそのツリーを張るノード(特徴)の範囲内で可変であり,各特徴のタグづけへの影響度もそれらを選択する優先順位で反映される.しかしながら,特徴の数を大きく取った場合,この手法によるタグづけの計算コストが非常にかかってしまうケースが生じる.実際,Daelmansらのモデル~\cite{daelemans:96}においてはノードの数は僅か4に設定されており,実質的に固定長さの文脈を用いていると見てもよい.本稿では,複数のニューラルネットで構成されるマルチニューロタガーを提案する.品詞のタグづけは,長さが固定の文脈を用いるのではなく,最長文脈優先でフレキシブルに行なわれる.個々のニューラルネットの訓練はそれぞれ独立に行なわれるのではなく,短い文脈での訓練結果(訓練で獲得した重み)を長い文脈での訓練の初期値として使う.その結果,訓練時間が大幅に短縮でき,複数のニューラルネットを用いても訓練時間はほとんど変わらない.タグづけにおいては,目標単語自身の影響が最も強く,前後の単語もそれぞれの位置に応じた影響度を持つことを反映させるために,入力の各構成部分は情報量最大を考慮して訓練データから得られるインフォメーションゲイン(略してIGと呼ぶ)を影響度として重み付けられる,その結果,訓練時間が更に大幅に短縮され,タグづけの性能も僅かながら改善される.計算機実験の結果,マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,どの固定長さの文脈を入力としたシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.以下,2章では品詞タグづけ問題の定式化,3章ではインフォメーションゲイン(IG)の求め方,4章ではマルチニューロタガーのアーキテクチャ,そして5章では計算機実験の結果について順に述べていく.
\section{品詞タグづけ問題}
表1は品詞をタグづけされたタイ語コーパスの例を示す.記号`@'や`/'で区分されている記号列(例えばNCMNやPPRS)はその前にある単語が持ち得る品詞を表し,記号`@'の直後の記号列はその文において唯一に決まった品詞を表している.本稿で用いるタイ語の単語カテゴリの分類法に47種類の品詞が定義されている~\cite{charoenporn}.\begin{table*}\begin{center}表1品詞をタグづけされたタイ語コーパスの例\\[2mm]\smallskip\epsfile{file=32.eps,width=14.3cm}\end{center}\end{table*}入力されるタイ語テキストは電子辞書を用いて単語に分割され,各単語の持ち得る品詞もリストアップされるため,品詞のタグづけ問題は以下に示すような文脈を用いた品詞の曖昧性除去あるいは一種のクラス分け問題と見なせる.\begin{equation}IPT:(ipt\_l_{l},\cdots,ipt\_l_{1},ipt\_t,ipt\_r_{1},\cdots,ipt\_r_{r})\RightarrowOPT:POS\_t\end{equation}ここで,$ipt\_x$($x=l_{i},t,r_{j}$,$i=1,\cdots,l$,$j=1,\cdots,r$)を入力$IPT$の構成部分と呼ぶ.具体的には,$ipt\_t$は目標単語の取りうる品詞に関するもの,$ipt\_l_{i}$と$ipt\_r_{j}$はそれぞれ目標単語から左へ$i$番目と右へ$j$番目の単語の取りうる品詞(文脈)に関するもの,そして,$POS\_t$は目標単語がその文脈で取る正しい品詞を表すものである.
\section{インフォメーションゲイン(IG)}
インフォメーションゲイン(IG)は,特徴ベクトルで定義されるデータセットの情報量がある特定の特徴の値を知ることによってどれだけ増えるかを表す量である~\cite{daelemans:92,quinlan}.より具体的に言えば,ある特徴のIGとはその特徴がデータのクラス同定にどれだけ重要かを反映する量である.ここで,特徴を入力の構成部分,特徴の値をその構成部分の取りうる品詞,データの属するクラスを目標単語の取りうる品詞にそれぞれ置き換えてやれば,各構成部分のIGはその構成部分の品詞タグづけへの影響度として考えることができる.従って,(1)における入力の各構成部分$ipt\_x$($x=l_{i},t,\\mbox{or}\r_{j}$)はそれぞれタグづけへの影響度に応じた重み$w\_x$を持つと仮定すれば,その重みは以下のように求められる.ここで訓練データセットを$S$,$i$番目のクラス,あるいは$i$番目の品詞($i=1,\cdots,n$,但し,$n$は品詞の数)を$C_{i}$で表す.セット$S$のエントロピー,即ち,$S$の中の一つのデータのクラス(品詞)を同定するのに必要とされる情報の平均量は\begin{equation}info(S)=-\sum_{i=1}^{n}\frac{freq(C_{i},S)}{|S|}\timesln(\frac{freq(C_{i},S)}{|S|})\end{equation}である.但し,$|S|$は$S$の中のデータの数,$freq(C_{i},S)$はそのうちクラス$C_{i}$に属するデータの数である.セット$S$が構成部分$ipt\_x$の持ちうる品詞によって$h$個のサブセット$S_{i}$($i=1,\cdots,h$)に分割されたとき,新しいエントロピーはこれらのサブセットのエントロピーの重みつき総和で求められる.即ち,\begin{equation}info_{x}(S)=\sum_{i=1}^{h}\frac{|S_{i}|}{|S|}\timesinfo(S_{i})\end{equation}この分割(即ち,構成部分$ipt\_x$の品詞を知ること)による情報の増益(IG)は以下になる.\begin{equation}gain(x)=info(S)-info_{x}(S)\end{equation}従って,構成部分$ipt\_x$のタグづけへの影響度に応じた重みは以下のように設定できる.\begin{equation}w\_x=gain(x)\end{equation}
\section{マルチニューロタガー}
\subsection{シングルニューロタガー}\begin{center}\begin{minipage}[t]{8cm}\epsfile{file=33.eps,width=12cm}\bigskip\end{minipage}\\図1シングルニューロタガー(SNT)\end{center}図1は固定長さの文脈を用いて品詞タグづけをするニューラルネット(シングルニューロタガー,略してSNTと呼ぶ)を示す.単語$x$が入力の位置$y$($y=t$,$l_{i}$,or$r_{j}$)に与えられた時,入力$IPT$の構成部分$ipt\_y$は以下のように重み付けされたパターンで定義される.\begin{equation}ipt\_y=w\_y\cdot(e_{x1},e_{x2},\cdots,e_{xn})=(I_{x1},I_{x2},\cdots,I_{xn})\end{equation}但し,$w\_y$は(5)で求められた重み,$n$はタイ語に定義された品詞の数,$I_{xi}=w\_y\cdote_{xi}$($i=1,\cdots,n$)である.もし単語$x$が既知のもの,即ち,訓練データに出現するならば,各ビット$e_{xi}$は以下のように得られる.\begin{equation}e_{xi}=Prob(POS_{i}|x)\end{equation}ここで,$Prob(POS_{i}|x)$は単語$x$の品詞が$POS_{i}$である確率で,訓練データから以下のように推定される.\begin{equation}Prob(POS_{i}|x)=\frac{|POS_{i},x|}{|x|}\end{equation}ここで,$|POS_{i},x|$は全訓練データを通じ,$x$が品詞$POS_{i}$を取る回数で,$|x|$は$x$が出現する回数である.一方,もし単語$x$が未知のもの,即ち,訓練データに出現しないならば,各ビット$e_{xi}$は以下のように得られる.\begin{equation}e_{xi}=\left\{\begin{array}{ll}\frac{1}{n_{x}}&\mbox{$POS_{i}$が$x$の取りうる品詞の場合}\\0&\mbox{その他}\end{array}\right.\end{equation}ここで,$n_{x}$は単語$x$が持ちうる品詞の数である.出力$OPT$は以下のように定義されるパターンである.\begin{equation}OPT=(O_{1},O_{2},\cdots,O_{n})\end{equation}$OPT$はデコードされ,目標単語の品詞として最終結果$RST$が得られる:\begin{equation}RST=\left\{\begin{array}{ll}POS_{i}&\mbox{$O_{i}=1$,すべての$O_{j}=0$($j\neqi$)の場合}\\Unknown&\mbox{その他}\end{array}\right.\end{equation}文の各単語を左から右へ順にタグづけしていくとき,左側の単語はつねにタグづけ済みと考えられるため,それらの単語に関する入力を構成するとき,より多くの情報が活用できる.具体的には,(6)-(9)を用いる代わりに,入力は次のように構成される.\begin{equation}ipt\_l_{i}(t)=w\_l_{i}\cdotOPT(t-i)\end{equation}ここで,$t$は目標単語の文における位置であり,$i=1,2,\cdots,l$for$t-i>0$.しかしながら,訓練過程においてはタガーの出力はまだ正確ではないため,それらを直接入力にフィードバックして使うことができない.そのために,訓練過程における入力は以下のように実際の出力と目標出力の重みづき平均を用いて構成する.\begin{equation}ipt\_l_{i}(t)=w\_l_{i}\cdot(w_{OPT}\cdotOPT(t-i)+w_{DES}\cdotDES)\end{equation}ここで,$DES$は目標出力で,$w_{OPT}$と$w_{DES}$はそれぞれ次のように定義される.\begin{equation}w_{OPT}=\frac{E_{OBJ}}{E_{ACT}}\end{equation}\begin{equation}w_{DES}=1-w_{OPT}\end{equation}ここで,$E_{OBJ}$と$E_{ACT}$はそれぞれ目標誤差と実際の誤差を表す(それらの詳細は4.3節で述べる).従って,訓練の始めの入力構成では目標出力の比重が大きく,時間が立つにつれゼロへ減っていく.逆に,実際の出力の比重は最初小さく,時間が立つにつれて大きくなっていく.\subsection{マルチニューロタガー}図2に示すように,マルチニューロタガーはエンコーダー/デコーダー,複数のシングルニューロタガーSNT$_{i}$($i=1,\cdots,m$),そして最大文脈優先セレクターで構成される.SNT$_{i}$は入力$IPT_{i}$を持つ.入力$IPT_{i}$の長さ(即ち,構成部分の数:$l+1+r$)$l(IPT_{i})$は次の関係を持つ:$l(IPT_{i})<l(IPT_{j})$for$i<j$.\begin{center}\epsfile{file=35.eps,width=12cm}\\図2マルチニューロタガー\end{center}\vspace{3mm}目標単語$word\_t$を中心とした,最大長さ$l(IPT_{m})$の単語列($word\_l_{l}$,$\cdots$,$word\_l_{1}$,$word\_t$,$\cdots$,$word\_r_{r}$)がマルチニューロタガーに与えられた時,それぞれ同じく単語$word\_t$を中心とした長さ$l(IPT_{i})$の部分単語列が前節に述べた方法で$IPT_{i}$に符号化され,個々のシングルニューロタガーSNT$_{i}$($i=1,\cdots,m$)に入力される.それらの入力に対し,個々のSNT$_{i}$はそれぞれ独立に品詞タグづけを行ない,出力$OPT_{i}$を得る.出力$OPT_{i}$は前節に述べた方法で$RST_{i}$にデコードされる.$RST_{i}$は更に最大文脈優先セレクターに入力され,最終結果は次のように得られる.\begin{equation}POS\_t=\left\{\begin{array}{ll}RST_{i}&\mbox{\hspace{-5.9cm}$RST_{i}$が$Unknown$でなく,すべての}\\\mbox{\hspace{2.68cm}$RST_{j}$($j>i$)が$Unknown$である場合}\\Unknown&\mbox{\hspace{-5.9cm}その他}\end{array}\right.\end{equation}この式は,タグづけの最終結果はできるだけ長い文脈で得られた出力を優先的に用いることを意味する.\subsection{三層パーセプトロン}図1に示すように,シングルニューロタガーは三層パーセプトロン(詳細は\cite{haykin}を参照)で構成される.三層パーセプトロンは誤差逆伝播学習アルゴリズム~\cite{rumelhart}を用いて品詞のタグづけ済みの訓練用データを学習することによって品詞タグづけ能力を学習できる.訓練段階においては,各訓練データーのペア$(IPT^{(b)},DES^{(b)})$は順番にネットワークに与えられる.但し,上つき記号$b$はデータの番号を表し,$b$=$1,\cdots,P$,$P$は訓練データの数である.$b$番目の訓練データ$IPT^{(b)}$と$DES^{(b)}$は次のようなパターンとされる.\[IPT^{(b)}=(ipt\_l_{l}^{(b)},\cdots,ipt\_l_{1}^{(b)},ipt\_t^{(b)},ipt\_r_{1}^{(b)},\cdots,ipt\_r_{r}^{(b)})\]\begin{equation}=(I^{(b)}_{1},\cdots,I^{(b)}_{p})\end{equation}\begin{equation}DES^{(b)}=(D^{(b)}_{1},\cdots,D^{(b)}_{n})\end{equation}但し,$p=(l+1+r)\cdotn$である.$IPT^{(b)}$の各ビット$I^{(b)}_{i}$は(6)-(9)或は(12)-(15)を用いて得られる.$DES^{(b)}$の各ビット$D^{(b)}_{i}$は次のように与えられる.\begin{equation}D^{(b)}_{i}=\left\{\begin{array}{ll}1&\mbox{$POS_{i}$が正解の場合}\\0&\mbox{その他}\end{array}\right.\end{equation}訓練は全訓練データに対し平均出力誤差が目標値以下になるまで繰り返して行なわれる.ここで$k$回目の繰り返し訓練において$b$番目の訓練データのペアが提示されたとする.その時,ネットワークは,入力層に与えられた入力パターン$IPT^{(b)}$を以下の(20)-(24)を用いて出力層へ前向きに伝播しながら変換する.入力層はまず以下のようにセットされる.\begin{equation}y_{i}(k)=I^{(b)}_{i}\\mbox{and}\y_{0}(k)=1\end{equation}但し,$i=1,\cdots,p$,$y_{i}(k)$は入力層のユニット$i$の出力,$i=0$はバイアスユニットを表す.ここで,次の層(中間層或は出力層)のユニット$j$の出力は次のように得られる.\begin{equation}y_{j}(k)=\phi(v_{j}(k))\end{equation}但し,$v_{j}(k)$はユニット$j$の内部活動度と呼ばれるもので次のように得られる.\begin{equation}v_{j}(k)=\sum_{i=0}^{q}w_{ji}(k)y_{i}(k)\end{equation}ここで,$y_{i}(k)$と$q$はそれぞれ前の層のユニット$i$の出力とユニットの総数である(入力層においては$q=p$).また,$\phi(\cdot)$は次のように定義される.\begin{equation}\phi(x)=\frac{1}{(1+exp(-x))}\end{equation}出力層のユニット$j$の出力には別な記号$O^{b}_{j}$を用いる,即ち,\begin{equation}O^{(b)}_{j}(k)=y_{j}(k)\end{equation}出力$O^{(b)}_{j}(k)$が得られた後,その出力と目標出力間の二乗誤差$E^{(b)}$は次のように計算される.\begin{equation}E^{(b)}(k)=\frac{1}{2}\sum_{j=1}^{n}(D^{(b)}_{j}-O^{(b)}_{j}(k))^2\end{equation}そこで,その誤差を出力から入力へ逆伝播して誤差を減らすようにネットワークの重みを次のように修正する.\begin{equation}w_{ji}(k+1)=w_{ji}(k)+\eta\Deltaw_{ji}(k)+\alpha\Deltaw_{ji}(k-1)\end{equation}但し,$\eta$は重みの更新量を決める学習率で,$\alpha$は慣性率である.$\Deltaw_{ji}(k)$は最急降下法で次のように計算される.\begin{equation}\Deltaw_{ji}(k)=-\frac{\partialE^{(b)}(k)}{\partialw_{ji}(k)}\end{equation}このように(20)-(27)を通じて$k$回目の繰り返し訓練においての$b$番目のデータの処理が終る.訓練は,下の条件が満足されるまで,即ち,各訓練データと各出力ユニットに対する平均誤差$E_{ACT}(k)$が目標誤差$E_{OBJ}$以下になるまで,全訓練データを通じて繰り返して行なわれる:\begin{equation}E_{ACT}(k)=\frac{\sum_{b=1}^{P}\sum_{j=1}^{n}|D^{(b)}_{j}-O^{(b)}_{j}(k)|}{nP}\leqE_{OBJ}\end{equation}品詞タグづけ段階においては,入力$IPT=(I_{1},\cdots,I_{p})$が与えられた時,ネットワークはその入力パターンを(20)-(24)を用いて入力層から出力層へ前向きに伝播しながら変換する.ここで$k$は1にセットされ,上つき記号$b$が取り除かれる.最終的に,出力$OPT=(O_{1},\cdots,O_{n})$が(24)の代わりに次のように得られる.\begin{equation}O_{j}=1(y_{j}(1)-\theta)\end{equation}ここで$\theta$は出力の閾値で,$1(\cdot)$は以下のように定義される.\begin{equation}1(x)=\left\{\begin{array}{ll}1&\mbox{$x>0$の場合}\\0&\mbox{その他}\end{array}\right.\end{equation}\subsection{訓練}品詞タグづけにニューラルネットモデルを用いる主な欠点は訓練コストが高い(即ち,訓練に時間がかかる)ことである.この欠点は複数のニューラルネットの導入によって更に強調されてしまう.しかしながら,実際,もし短い入力のSNT$_{i}$の訓練結果(訓練で獲得した重み)を長い入力のSNT$_{i+1}$($i=1,\cdots,m-1$)にコピーして初期値として使えば,SNT$_{i+1}$($i=1,\cdots,m-1$)の訓練時間を大幅に短縮できる.従って,この方法を用いればマルチニューロタガーをシングルニューロタガーとほとんど変わらないコストで訓練することができる.図3にSNT$_{1}$(入力の長さ3)とSNT$_{2}$(入力の長さ4)の場合の例を示す.この図では実線部分でSNT$_{1}$を示し,点線部分を含む全体でSNT$_{2}$を示している.図に示しているように,SNT$_{1}$が訓練された後,その重み$w_{1}$と$w_{2}$はSNT$_{2}$の対応するところにコピーされ,SNT$_{2}$の初期値として使われている.\begin{center}\begin{minipage}[t]{8cm}\epsfile{file=38.eps,width=9cm}\\\end{minipage}\\図3シングルニューロタガーSNT$_{2}$の訓練\end{center}\subsection{特徴}例えば品詞が50種類ある言語を左右それぞれ三つの単語の情報を文脈としてタグづけを行なう場合,n-gramベースの確率モデルは$50^{7}=7.8\times10^{11}$個のn-gram(パラメータ)を推定しなければならない.それに対し,例えば中間層のユニット数が入力層の半分であるような三層パーセプトロンを用いたニューロタガーの場合,必要とされるパラメータ(ユニット間の結合)の数は僅か$n_{ipt}\cdotn_{hid}+n_{hid}\cdotn_{opt}$$=$$350\times175+175\times50=70,000$である.ここで,$n_{ipt}$,$n_{hid}$,と$n_{opt}$はそれぞれ入力層,中間層,及び出力層のユニットの数で,$n_{hid}=\frac{n_{ipt}}{2}$である.一般的に,システムに必要とされるパラメータの数が少なければ,それらを正しく同定するのに必要な訓練データの数も少なくてよい.そのために,ニューラルネットモデルのタグづけ性能は確率モデルのそれに比べ訓練データの数の少なさに影響されにくい~\cite{schmid}.また,他モデルに比べ,ニューラルネットモデルは訓練時間がかかる一方,タグづけ速度が非常に速いことも特徴の一つである.\vspace*{-3.5mm}
\section{実験結果}
\vspace*{-2.5mm}実験用データはすでに品詞のタグづけされたタイ語コーパスから得られた10,452の文であった.それを無作為に8,322文と2,130文に分けてそれぞれ訓練とテストに使った.訓練文においては22,311個の単語が複数の品詞を持ち,テスト文においては6,717個の単語が複数の品詞を持ちえた.タイ語には47種類の品詞が定義されているため,式(6),(10),(18)の中の$n$は47となる.マルチニューロタガーは五つの(入力に用いられる左右の単語の数がそれぞれ$(l,r)=(1,1),(2,1),(2,2),(3,2),(3,3)$の)シングルニューロタガーSNT$_{i}$から構成された.個々のタガーSNT$_{i}$は入力長さ$l(IPT_{i})$($=l+1+r$)で入力層$-$中間層$-$出力層に$p-\frac{p}{2}-n$個のユニットを持つ三層パーセプトロンであった.但し,$p=n\cdotl(IPT_{i})=n\cdot(l+1+r)$である.SNT$_{i}$の出力の閾値$\theta$[式(29)]は0.5に設定された.また,重みの更新量を決める学習率$\eta$と慣性率$\alpha$[式(26)]はそれぞれ0.1と0.9に,訓練を止める基準である目標誤差$E_{OBJ}$[式(28)]は0.005に設定された.訓練セットから得られた各入力部分の重み[式(5)]は($w\_l_{3}$,$w\_l_{2}$,$w\_l_{1}$,$w\_t$,$w\_r_{1}$,$w\_r_{2}$,$w\_r_{3}$)=(0.575,0.524,0.749,2.667,0.801,0.575,0.649)であった.表2はテストデータへの品詞タグづけ結果を示す.マルチニューロタガーはIGの有無とは関係なく,その正解率はどのシングルニューロタガーのそれよりも高かった.従って,マルチニューロタガーを用いることによって,文脈の長さを事前に経験的に選ぶ必要がなく,いつも状況に応じて適切な長さの文脈を自動的に選んでいると言える.IGを用いる場合,タグづけの正解率は短い文脈を用いた場合では下がり,長い文脈(入力長さが5以上)を用いた場合では上がった.この表は更にシングルニューロタガーだけを用いてもかなり高い正解率でタグづけすることができることを示した.実際,\cite{schmid}によれば,英語タガーを10,000オーダーのデータを用いて訓練させた場合,タグづけの正解率は僅か85\%程度であった.両者の違いはそもそもタイ語のタグづけ問題が英語のそれより容易であることにあるかもしれない.しかしながら,少なくとも訓練そのものに関してはタイ語のほうが英語より難しいと考えられる.なぜならば,英語の場合は線形分離可能な問題しか解決できない二層パーセプトロンでタグづけ問題を学習できたのに対し,タイ語の場合は三層以上でなければ学習が正しくできなかった.\begin{center}表2テストデータへの品詞タグづけ結果\bigskip\begin{tabular}{lcccccccc}\hline&\multicolumn{5}{c}{シングルタガー}&\multicolumn{1}{c}{マルチタガー}\\\hline$l(IPT_{i})$\hspace{0.0cm}&3\hspace{0.0cm}&4\hspace{0.0cm}&5\hspace{0.0cm}&6\hspace{0.0cm}&7\hspace{0.0cm}\\\hlineIGあり\hspace{0.0cm}&0.915\hspace{0.0cm}&0.920\hspace{0.0cm}&0.929\hspace{0.0cm}&0.930\hspace{0.0cm}&0.933\hspace{0.0cm}&0.943\\\hlineIGなし\hspace{0.0cm}&0.924\hspace{0.0cm}&0.927\hspace{0.0cm}&0.922\hspace{0.0cm}&0.926\hspace{0.0cm}&0.926\hspace{0.0cm}&0.941\\\hline\end{tabular}\end{center}\vspace*{4mm}一般的に,訓練データの数が十分でない場合,タグづけの正解率は用いる文脈が長くなるにつれて確定的な答えが少なくなるために落ちていく.しかしながら,本実験ではこのような現象が現れなかった.その理由は新しい訓練方法,即ち,長い入力のタガーの訓練は短いタガーの訓練結果に依存すること,にあると考えられる.これを確かめるために,$l(IPT_{i})=6$でIGなしのシングルニューロタガーSNT$_{4}$を改めて前の結果を利用せずに訓練し直した.その結果,SNT$_{4}$のタグづけの正解率は91.1\%まで下がった.これは短い入力のシングルニューロタガーSNT$_{i}$($i=1,2,3$)のいずれよりも低い数字であった.\begin{center}\epsfile{file=40.eps,width=11cm}\\図4SNT$_{4}$の異なる条件での訓練曲線\end{center}図4は異なる条件でのSNT$_{4}$の訓練曲線を示す.太い実線,細い実線,そして点線はそれぞれSNT$_{3}$の訓練結果を利用した場合,SNT$_{3}$の訓練結果を利用しない場合,そしてSNT$_{3}$の訓練結果を利用せず,IGも用いない場合である.この図は,訓練時間の大幅な短縮には前の訓練結果の利用だけでなくIGの利用も効果的であることを示している.\vspace*{-3.5mm}
\section{結び}
\vspace*{-2.5mm}情報量最大を考慮し最長文脈優先に基づいて長さ可変文脈で品詞タグづけを行うマルチニューロタガーを提案した.マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,どのシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.効率的な訓練方法,即ち,短い文脈での訓練結果を長い文脈での初期値として使うこと,を用いることにより,マルチニューロタガーをシングルニューロタガーとほとんど変わらないコストで訓練することができた.インフォメーションゲイン(IG)を導入することにより,訓練時間は更に大幅に短縮され,タグづけの性能も僅かながら改善された.\begin{thebibliography}{99}\bibitem[\protect\BCAY{Brill}{Brill}{1992}]{brill}Brill,E.(1992).``Asimplerule-basedpart-of-speechtagger.''{\itProc.3rdACLAppliedNLP},Trento,Italy,pp.152-155.\bibitem[\protect\BCAY{Charoenporn,Sornlertlamvanich,\BBA\Isahara}{Charoenpornet~al.}{1997}]{charoenporn}Charoenporn,T.,Sornlertlamvanich,V.,andIsahara,H.(1997)``BuildingalargeThaitextcorpus-partofspeechtaggedcorpus:ORCHID.''{\itProc.NaturalLanguageProcessingPacificRimSymposium1997},Phuket,Thailand.\bibitem[\protect\BCAY{Church}{Church}{1988}]{church}Church,K.(1988).``Astochasticpartsprogramandnounphraseparserforunrestrictedtext.''{\itProc.2ndACLAppliedNLP},Austin,Texas,pp.136-143.\bibitem[\protect\BCAY{Cutting,Kupiec,Pederson,\BBA\Sibun}{Cuttinget~al.}{1992}]{cutting}Cutting,D.,Kupiec,J.,Pederson,J.,andSibun,P.(1992).``Apracticalpartofspeechtagger.''{\itProc.3rdACLAppliedNLP},Trento,Italy,pp.133-140.\bibitem[\protect\BCAY{Daelemans\BBA\Van~den~Bosch}{Daelemans\BBA\Van~den~Bosch}{1992}]{daelemans:92}Daelemans,W.andVandenBosch,A.(1992).``Generalisationperformanceofbackpropagationlearningonasyllabificationtask.''InM.Drossaers\&A.Nijholt(Eds.),{\emTWLT3:ConnectionismandNaturalLanguageProcessing}.Enschede:TwenteUniversity,pp.27-38.\bibitem[\protect\BCAY{Daelemans,Zavrel,Berck\BBA\Gillis}{Daelemanset~al.}{1996}]{daelemans:96}Daelemans,W.,Zavrel,J.,Berck,P.,andGillis,S.(1996).``MBT:Amemory-basedpartofspeechtagger-generator.''{\itProc.4thWorkshoponVeryLargeCorpora},Copenhagen,Denmark.\bibitem[\protect\BCAY{DeRose}{DeRose}{1988}]{derose}DeRose,S.(1988).``Grammaticalcategorydisambiguationbystatisticaloptimization.''{\itComputationalLinguistics},Vol.14,No.1,pp.31-39.\bibitem[\protect\BCAY{Garside,Leech\BBA\Sampson}{Garsideet~al.}{1987}]{garside}Garside,R.,Leech,G.,andSampson,G.(1987).{\itThecomputationalanalysisofEnglish:Acorpus-basedapproach},London:Longman.\bibitem[\protect\BCAY{Haykin}{Haykin}{1994}]{haykin}Haykin,S.(1994).{\itNeuralNetworks},MacmillanCollegePublishingCompany,Inc.\bibitem[\protect\BCAY{Hindle}{Hindle}{1989}]{hindle}Hindle,D.(1989).``Acquiringdisambiguationrulesfromtext.''{\itProc.ACL'89},VancouverBC,pp.118-125.\bibitem[\protect\BCAY{Ma,Isahara,\BBA\Ozaku}{Maet~al.}{1996}]{ma}Ma,Q.,Isahara,H.,andOzaku,R.(1996).``Automaticpart-of-speechtaggingofThaicorpususingneuralnetworks,{\itProc.Intel.Conf.ArtificialNeuralNetworks(ICANN'96)},LectureNotesinComputerScience1112,Springer,pp.275-280.\bibitem[\protect\BCAY{MarquezandPadro}{MarquezandPadro}{1997}]{marquez}Marquez,L.andPadro,L.(1997).``AflexiblePOStaggerusinganautomaticallyacquiredlanguagemodel.''{\itProc.ACL-EACL'97},Madrid,Spain,pp.238-252.\bibitem[\protect\BCAY{Merialdo}{Merialdo}{1994}]{merialdo}Merialdo,B.(1994).``TaggingEnglishtextwithaprobabilisticmodel.''{\emComputationalLinguistics},Vol.20,No.2,pp.155-171.\bibitem[\protect\BCAY{Nakamura,Maruyama,Kawabata,\BBA\Shikano}{Nakamuraet~al.}{1990}]{nakamura}Nakamura,M.,Maruyama,K.,Kawabata,T.,andShikano,K.(1990).``NeuralnetworkapproachtowordcategorypredictionforEnglishtexts.''{\itProc.COLING'90},HelsinkiUniversity,pp.213-218.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{quinlan}Quinlan,J.(1993).{\itC4.5:ProgramsforMachineLearning},SanMateo,CA:MorganKaufmann.\bibitem[\protect\BCAY{Rumelhart,McClelland,\BBA\PDP~Research~Group}{Rumelhartet~al.}{1984}]{rumelhart}Rumelhart,D.E.,McClelland,J.L,andthePDPResearchGroup(1984).{\itParallelDistributedProcessing},theMITPress.\bibitem[\protect\BCAY{Schmid}{Schmid}{1994}]{schmid}Schmid,H.(1994).``Part-of-speechtaggingwithneuralnetworks.''{\itProc.COLING'94},Japan,pp.172-176.\bibitem[\protect\BCAY{SchutzeandSinger}{SchutzeandSinger}{1994}]{schutze}Schutze,H.andSinger,Y.(1994).``Part-of-speechtaggingusingavariablememorymarkovmodel.''{\itProc.ACL'94},LasCruces,NewMexico,pp.181-187.\bibitem[\protect\BCAY{Weischedel,Metter,Schwartz,Ramshaw,\BBA\Palmucci}{Weischedelet~al.}{1993}]{weischedel}Weischedel,R.,Metter,M.,Schwartz,R.,Ramshaw,L.,andPalmucci,J.(1993).``Copingwithambiguityandunknownwordsthroughprobabilisticmodels.''{\itComputationalLinguistics},Vol.19,No.2,pp.359-382.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.神経回路モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.工学博士.同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.情報処理学会,言語処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.