id
stringlengths
9
9
text
stringlengths
8.54k
92.7k
title
stringclasses
1 value
V14N01-03
\section{はじめに} コンピュータに自然言語の意味を理解させるためには,文の述語とその項の意味的な関係を表現する必要がある.竹内は,述語と項の深層関係を表現する手法としての語彙概念構造に着目,これに基づく辞書を提案している\cite{takeuchi04,takeuchi05}.語彙概念構造は述語と項の深層関係を抽象化するため,言い換えの分野で有効性が示されている\cite{furuhata04}.河原らは,用言とその直前の格要素の組を単位とした用例ベースの辞書,格フレーム辞書を提案し,それに基づく格解析モデルを提案している\cite[など]{kawahara05_1,kawahara05}.照応や省略の解析に格フレーム辞書の有効性が示されている\cite[など]{sasano04,kawahara04,kawahara03}.格フレーム辞書は表層格を表現・区別し,語彙概念構造は表層格および深層関係を抽象化するものであり,表層格で区別できない述語と項の意味関係を個々の項について詳細に表現することはできない.これに対し,述語と項との詳細な意味関係を典型的場面についての構造化された知識である意味フレームに即して表現した体系として,日本語フレームネットが提案されている\cite[など]{ohara05}.日本語フレームネットは英語語彙情報資源FrameNet\footnote{http://framenet.icsi.berkeley.edu}と同様にフレーム意味論\cite{fillmore82}に基づく日本語語彙情報資源で,意味フレーム別に,その意味要素である詳細な意味役割を定義し,その意味フレームに関与する述語項構造の述語となる語彙項目をリストアップしている.格フレーム辞書,語彙概念構造辞書および日本語フレームネットによる,述語「払う」に対する記述を図\ref{fig:resource_comparison}に示す.\begin{figure}[p]\setlength{\tabcolsep}{1.3mm}\begin{tabular}{llllllllllll}\hline\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf格フレーム辞書}$^{*1}$}\\&\multicolumn{11}{l}{払う:動1}\\&&\multicolumn{2}{r}{*$\langle$ガ格$\rangle$}&\multicolumn{8}{l}{私:393,人:246,者:215,俺:168,自分:158,僕:101,あなた:38,$\langle$数量$\rangle$人:37,...}\\&&\multicolumn{2}{r}{*$\langle$ヲ格$\rangle$}&\multicolumn{8}{l}{金:18570,料:7522,料金:4101,税金:2872,$\langle$数量$\rangle$円:2726,費:1643,税:1340,...}\\&&\multicolumn{2}{r}{*$\langle$ニ格$\rangle$}&\multicolumn{8}{l}{$\langle$補文$\rangle$:336,人:250,者:233,会社:211,業者:127,店:95,NTT:72,屋:68,...}\\&&\multicolumn{2}{r}{*$\langle$デ格$\rangle$}&\multicolumn{8}{l}{レジ:106,$\langle$時間$\rangle$:75,受付:74,入り口:63,税金:63,$\langle$補文$\rangle$:56,コンビニ:55,...}\\&&\multicolumn{2}{r}{*$\langle$無格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:2739,$\langle$数量$\rangle$ドル:371,$\langle$数量$\rangle$回:363,$\langle$数量$\rangle$元:102,$\langle$数量$\rangle$人:96,...}\\&&\multicolumn{2}{r}{$\langle$時間$\rangle$}&\multicolumn{8}{l}{$\langle$時間$\rangle$:677}\\&&\multicolumn{2}{r}{$\langle$ノ格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:963,$\langle$時間$\rangle$:499,$\langle$数量$\rangle$:260,$\langle$数量$\rangle$ドル:164,$\langle$数量$\rangle$倍:153,...}\\&\multicolumn{11}{l}{払う:動2}\\&&\multicolumn{10}{l}{$\vdots$}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf語彙概念構造}$^{*2*3}$}\\&\multicolumn{3}{l}{払う}&\multicolumn{8}{l}{[[~]xCONTROL[BECOME[[~]yBEAT[FILLED]z]]]}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf日本語フレームネット}$^{*4*5}$}\\&\multicolumn{11}{l}{払う.v}\\&&\multicolumn{2}{l}{Frame:}&\multicolumn{8}{l}{Commerce\_pay}\\&&\multicolumn{2}{l}{Definition:}&\multicolumn{8}{l}{IPAL:相手に受け取る権利のある金を渡す.}\\&&\multicolumn{10}{l}{FrameElements:}\\\cline{4-11}&&&\multicolumn{2}{l}{FrameElement}&\multicolumn{6}{l}{Realizations}&\\\cline{4-11}&&&\multicolumn{2}{l}{\itBuyer}&DNI.--.--&INC.--.--&INI.--.--&NP.Ext.--&NP.Ext.ガ&&\\&&&\multicolumn{2}{l}{\itCircumstances}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itGoods}&NP.Obj.ヲ&&&&&&\\&&&\multicolumn{2}{l}{\itMeans}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itMoney}&NP.Obj.ヲ&DNI.--.--&NP.Obj.ハ&NP.Dep.--&NP.Obj.--&NP.Obj.モ&\\&&&\multicolumn{2}{l}{\itPlace}&NP.Dep.ニ&NP.Dep.デ&NP.Dep.ハ&&&&\\&&&\multicolumn{2}{l}{\itRate}&AVP.Dep.--&&&&&&\\&&&\multicolumn{2}{l}{\itReason}&AVP.Dep.--&Sfin.Dep.--&NP.Dep.カラ&&&&\\&&&\multicolumn{2}{l}{\itSeller}&DNI.--.--&NP.Dep.ヘ&INI.--.--&NP.Ext.ハ&&&\\&&&\multicolumn{2}{l}{\itTime}&NP.Dep.ニ&NP.Dep.モ&&&&&\\\cline{4-11}&&&&&&&&&&&\\\hline\hline\multicolumn{12}{r}{\begin{minipage}[t]{0.8\textwidth}\footnotesize\begin{itemize}\item[\hspace*{3mm}*1]\texttt{http://reed.kuee.kyoto-u.ac.jp/cf-search/}で検索した結果の一部を引用した.\item[\hspace*{3mm}*2]\texttt{http://cl.it.okayama-u.ac.jp/rsc/lcs/}から引用した.\item[\hspace*{3mm}*3]この例では,\texttt{x,y,z}は表層ではそれぞれ「が」「を」「に」格,深層ではそれぞれAgent,Theme,Goalに対応している.\item[\hspace*{3mm}*4]ここに示した日本語フレームネットデータは2006年8月現在のものである.\item[\hspace*{3mm}*5]表において,``FrameElement''(フレーム要素)はいわゆる深層格に当たる.\end{itemize}\end{minipage}}\\\end{tabular}\vspace{4pt}\caption{格フレーム辞書,語彙概念構造および日本語フレームネットにおける述語「払う」の記述}\label{fig:resource_comparison}\end{figure}FrameNetは機械翻訳や語義曖昧性解消の分野で有効と考えられており,将来の適用に向けて,FrameNet意味役割を自動推定するタスクのコンテストも開催されている\footnote{http://www.lsi.upc.edu/$\tilde{~}$srlconll/home.htmlならびにhttp://www.senseval.org/}\cite{litkowski04}.FrameNetに基づく意味役割自動推定は,述語の各項に対し,詳細な意味役割に相当する,フレーム意味論における「フレーム要素(FrameElement)」を付与する試みである.この研究はGildeaらの提案に端を発する\cite{gildea02}.Gildeaらは,条件付き確率モデルを用いた意味役割推定に加え,確率モデルの学習に必要な訓練事例の自動生成手法も提案した.Gildeaらの提案は,形式意味論の枠組みに沿って述語と項の意味的な関係を表現するPropBank\cite[など]{kingsbury02}を背景とした意味役割推定手法においても参照され,その改良として,確率モデルの獲得手法に最大エントロピー(ME)法\cite{berger96}やサポートベクタマシン(SVM)\cite{vapnik99}を用いた意味役割推定が複数提案された\cite[など]{kwon04,pradhan04,bejan04}.また,文中のどの部分が項であるかを同定するため,形態素の品詞や句の文法機能を用いて項を抽象化し,頻出するものを項とする手法も提案された\cite{baldewein04}.日本語フレームネットではFrameNetの枠組や方法論をふまえ,日英の比較対照を考慮した日本語語義記述が実践されているが,日本語フレームネットを用いた,日本語を対象とした意味役割の自動推定に関する研究は行われていない.そこで本稿では,日本語フレームネットに基づき,述語項構造における項の意味役割を推定するモデルを提案する.日本語フレームネットは現在作成中であり,現時点では語彙資源の規模が非常に小さい\footnote{2006年8月現在,FrameNetの注釈付き事例数約150,000に対し,日本語フレームネットの注釈付き事例数は1,756.}.そのため,日本語の意味役割推定にはある程度規模の大きい英語FrameNetを対象とした既存の手法をそのまま適用できず,小規模の語彙資源でも十分な精度で推定可能な手法を新たに考える必要がある.本稿では以上を踏まえ,日本語フレームネットの注釈付き事例に基づく機械学習を用いて,意味役割を推定するモデルの獲得手法を提案する.意味役割推定モデルは,文と述語から述語項構造を同定,意味役割を付与すべき項を抽出し,それらに適切な意味役割を付与するという3つのタスクを担う.モデルの獲得には最大エントロピー法ならびにサポートベクタマシンを用い,項候補の獲得には構文情報を利用する.同時に,モデルの学習に必要な訓練事例の自動生成も行う. \section{モデルの定義} label{sec:models_def_proposal}本稿で提案する意味役割推定モデルは,与えられた文と述語に対して取り得る全ての意味役割注釈パタン\footnote{文中のどの部分が述語の項に当たるか,またそれぞれの項がどの意味役割を持つのか,の2点に対する1つの可能性を意味役割注釈パタンと呼ぶ.}についての尤度を計算し,尤度が最も高い注釈パタンを出力するモデルである.すなわち,入力文$T$と述語$t$が与えられた時の意味役割注釈パタン$L$の確率$P(L|t,T)$を最大にする意味役割注釈パタン$L_{best}$が最終的な出力となる.\begin{eqnarray}\label{eqn:rolelabeling0_proposal}L_{best}&=&\argmax{L}\:P(L|t,T)\end{eqnarray}注釈パタン$L$はフレーム$f$,項候補集合$S$,項候補-意味役割対応関係$C$により一意に決定されるため,式(\ref{eqn:rolelabeling0_proposal})右辺$P(L|t,T)$を以下のように定義した.\begin{eqnarray}P(L|t,T)&\approx&P(C,S,f|t,T)\nonumber\\\vspace*{-2mm}\label{eqn:rolelabeling1_proposal}&=&P(C|S,f,t,T)\timesP(S|f,t,T)\timesP(f|t,T)\end{eqnarray}本稿では式(\ref{eqn:rolelabeling1_proposal})右辺を第1項からそれぞれ,対応付けモデル,項候補獲得モデル,フレーム選択モデルと呼ぶ\footnote{対応付けモデルはKwonらの手法\cite{kwon04}におけるSemanticRoleTaggingに対応し,項候補獲得モデルはSentenceSegmentationおよびArgumentIdentificationに対応する.}.図\ref{fig:flow}に,これらのモデルの概要を示す.図\ref{fig:flow}中の各モデルについては以下で詳説する.ただし,項候補獲得モデル中の項候補同定モデル,および対応付けモデル中の自項独立/他項依存意味役割同定モデルの詳細は\ref{sec:outline_proposal}節で述べる.\begin{figure}[t]\begin{center}\includegraphics[width=0.55\textwidth]{overview2.eps}\caption{意味役割推定の流れ}\label{fig:flow}\end{center}\end{figure}\subsection{フレーム選択モデル}フレーム選択モデルは与えられた文と述語から,項に付けられる注釈となるべき意味役割が定義された意味フレームを獲得するモデルである.我々はフレーム選択モデルを,$t$が$f$の見出し語に含まれる場合に$1$を,それ以外で$0$を返す関数$R(f,t)$を用い,以下のように定義した.\begin{eqnarray}\label{eqn:frameselection0_proposal}P(f|t,T)&\approx&R(f,t)\end{eqnarray}フレーム選択モデルの例を図\ref{fig:frameselection}に示す.\begin{figure}[t]\begin{center}{\small\setlength{\tabcolsep}{0mm}\renewcommand{\arraystretch}{}\begin{tabular}{ccccc}\multicolumn{2}{r}{\noroleb{バッグ内の$\;\;$現金は}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{2}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\multicolumn{5}{c}{$\downarrow$}\\\hline\multicolumn{5}{|c|}{{\bfフレーム選択モデル}}\\\hline\multicolumn{5}{c}{$\downarrow$}\\\multicolumn{5}{l}{{\bfTheftフレーム}$R_{f}\leftarrow\{r_{0}=Goods,r_{1}=Perpetrator,r_{2}=Source,r_{3}=Victim,...\}$}\\[1mm]\end{tabular}}\caption{フレーム選択モデル}\label{fig:frameselection}\end{center}\end{figure}\subsection{項候補獲得モデル}項候補獲得モデルは与えられた文と述語およびフレームから,意味役割を注釈付けする項(断片)を獲得するモデルである.項候補の獲得手法を以下に示す.\vspace{6pt}\begin{enumerate}\item$T$を構文解析し,$t$と直接係り受け関係にある部分木の集合$S'''$を得る.\label{enum:foo_parse}\item$S'''$の各要素$s'''_{i}$について,形態素ならびに文節の単位で前後に短縮伸長し,項候補の候補(断片候補)$s''_{ij}$を生成,断片候補集合$S''_{i}$を得る(断片候補生成).\item$S''_{i}$の各要素$s''_{ij}$に関し,$P(s''_{ij}|f,t,T)$が$\lambda$を越える要素を$s'_{ij}$として集め,断片候補集合$S'_{i}$を得る.尤度$P(s''_{ij}|f,t,T)$は項候補同定モデル(\ref{sec:proposal_argument}節)により得られる.\label{enum:foo_cand_proposal}\item$S'_{i}$の各要素$s'_{ij}$について,(\ref{enum:foo_cand_proposal})の尤度$P(s''_{ij}|f,t,T)=P(s'_{ij}|f,t,T)$が最大となる$s'_{ij}$を$s_{i}$とし,項候補集合$S$を得る.\end{enumerate}以上より,我々は項候補獲得モデルを以下のように定義した.\begin{equation}\label{eqn:candidating0_proposal}\{S'_{i}\;|\;s'_{ij}\inS'_{i},s'_{ij}=\left\{\begin{array}{ll}s''_{ij}&if\;\;\;P(s''_{ij}|f,t,T)>\lambda\\nil&otherwise\\\end{array}\right\},s''_{ij}\inS''_{i}\}\end{equation}\begin{equation}\label{eqn:candidating1_proposal}\{S\;|\;s_{i}\inS,s_{i}=\argmax{s'_{ij}}{P(s'_{ij}|f,t,T)},s'_{ij}\inS'_{i}\}\end{equation}\begin{eqnarray}\label{eqn:candidating2_proposal}P(S|f,t,T)&\approx&\prod_{s_{i}\inS}{P(s_{i}|f,t,T)}\end{eqnarray}項候補獲得モデルの例を図\ref{fig:candidating}に示す.\begin{figure}[t]\begin{center}{\small\setlength{\tabcolsep}{0mm}\renewcommand{\arraystretch}{}\begin{tabular}{cccccc}\multicolumn{2}{r}{\noroleb{バッグ内の$\;\;$現金は}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{3}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\multicolumn{6}{l}{{\bfTheftフレーム}$R_{f}\leftarrow\{r_{0}=Goods,r_{1}=Perpetrator,r_{2}=Source,r_{3}=Victim,...\}$}\\[-1mm]\multicolumn{6}{c}{$\downarrow$}\\\hline\multicolumn{6}{|c|}{{\bf項候補獲得モデル}}\\\multicolumn{1}{|l}{(1)$\;$}&\multicolumn{5}{l|}{$S'''\leftarrow\{s'''_{0}=バッグ内の現金は,s'''_{1}=無事\}$}\\\cline{2-5}\multicolumn{1}{|l}{(2)$\;$}&\multicolumn{4}{|c|}{\bf断片候補生成}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{4}{l}{$S''_{0}\leftarrow\{s''_{00}=バッグ内の現金は,s''_{01}=内の現金は,s''_{02}=の現金は,s''_{03}=現金は\}$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{l}{$S''_{1}\leftarrow\{s''_{10}=無事\}$}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{(3)$\;$}&\multicolumn{4}{|c|}{\bf項候補同定モデル}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(s''_{00}|f,t,T)=0.576,P(s''_{01}|f,t,T)=0.171,P(s''_{02}|f,t,T)=0.231,$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(s''_{03}|f,t,T)=0.210,P(s''_{10}|f,t,T)=0.361$}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{5}{l|}{$S'_{0}\leftarrow\{s''_{00}=バッグ内の現金は\},S'_{1}\leftarrow\{\}$}\\\multicolumn{1}{|l}{(4)$\;$}&\multicolumn{5}{l|}{$S\leftarrow\{s_{0}=バッグ内の現金は\}$}\\\hline\multicolumn{6}{c}{$\downarrow$}\\[-1mm]\multicolumn{2}{r}{\roleb{バッグ内の$\;\;$現金は}{項候補}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{2}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\end{tabular}}\vspace{4pt}\caption{項候補獲得モデル}\label{fig:candidating}\end{center}\end{figure}我々は,述語項構造における項が文節を基本に構成された語句であると仮定し,構文解析結果に基づいた項候補獲得手法を提案する.一方,河原らの格フレーム辞書構築の取り組みは,項の意味が表層格で抽象化されて表現されることを根拠とする\cite[など]{kawahara05_1,kawahara05}.また,Baldeweinらは構文情報を用いた項の抽象化手法を提案している\cite{baldewein04}.我々の仮定はそれらと同様,項が構文情報によって抽象化できることを前提としている.\subsubsection*{断片候補生成}本稿で提案した項候補獲得手法では,項候補となるための要件を過不足なく満たす最適な断片候補を獲得するため,述語と直接係り受け関係にある文節から複数の断片候補を生成し,それらを確率モデルを用いて順位付けする.断片候補生成手法は以下の通りである.\begin{enumerate}\item述語と直接係り受け関係にある文節を獲得する\label{enum:extend_rule1_proposal}\item獲得した文節から,それが1つ以上の内容語を含むという前提の下,以下に適合する形態素の列を獲得する\label{enum:extend_rule2_proposal}\begin{description}\item[係り文節]その文節に係る全ての文節に含まれる形態素の列\item[受け文節]その文節の先頭から連続する名詞形態素の列\end{description}\item獲得した各形態素列に対して,それが1つ以上の内容語を含むという前提の下,以下の各ル−ルに基づいて断片候補を生成する\label{enum:extend_rule3_proposal}\begin{description}\item[係り形態素列]$\;$\\\vspace*{-6mm}\begin{itemize}\item文節数を減らさない範囲で先頭から形態素を1つずつ短縮\item先頭から文節を1つずつ短縮\item末尾文節の範囲で先頭から形態素を1つずつ短縮\end{itemize}\item[受け形態素列]$\;$\\\vspace*{-6mm}\begin{itemize}\item文節数を減らさない範囲で末尾から形態素を1つずつ短縮\item末尾品詞が「助詞-連体化\footnote{「学生の質問」の「の」など,先行する品詞を後続体言の修飾語に変化させる機能を持つ助詞.}」の場合に文節数を最大1増加させる範囲で末尾に形態素を1つずつ伸長(ただし,最初に伸長した形態素が名詞の場合は後続形態素を名詞に限定)\end{itemize}\end{description}\end{enumerate}\subsection{対応付けモデル}対応付けモデルは,与えられた文,述語,フレームならびに項候補から,項候補と意味役割の対応付けを行うモデルである.項と意味役割の対応付け手法は以下の通りである.\begin{enumerate}\item項候補集合$S$の各要素$s_{i}$について,$f$に定義された意味役割$r_{k}\inR_{f}$($R_{f}$は$f$に定義された意味役割の集合)が対応付けられる確率$P(r_{k}|s_{i},S,f,t,T)$を算出する.$P(r_{k}|s_{i},S,f,t,T)$は自項独立意味役割同定モデル(\ref{sec:proposal_srt_indep}節)により得られる.\label{enum:foo_corr_proposal}\item$S$の各要素$s_{i}$について,(\ref{enum:foo_corr_proposal})の尤度$P(r_{k}|s_{i},S,f,t,T)$を$P(c'_{ik}|S,f,t,T)$とし,$i$について重複のないように$c'_{ik}$を集めたものを項候補-意味役割対応関係$C'$とする.\label{enum:bar_corr_proposal}\item$C'$の各要素$c'_{ik}$について,(\ref{enum:bar_corr_proposal})の尤度$P(c'_{ik}|S,f,t,T)$の積が最大となる意味役割対応付け$C'_{best}$を得る.\item$S$の各要素$s_{i}$について,$C'_{best}$を考慮した上で意味役割$r_{k}$が対応付けられる確率\linebreak$P(r_{k}|s_{i},C'_{best},S,f,t,T)$を算出する.$P(r_{k}|s_{i},C'_{best},S,f,t,T)$は他項依存意味役割同定モデル(\ref{sec:proposal_srt_dep}節)により得られる.\label{enum:buz_corr_proposal}\item$S$の各要素$s_{i}$について,(\ref{enum:buz_corr_proposal})の尤度$P(r_{k}|s_{i},C'_{best},S,f,t,T)$を$P(c_{ik}|C'_{best},S,f,t,T)$とし,$i$について重複のないように$c_{ik}$を集めたものを$C$とする.\end{enumerate}以上より,我々は対応付けモデルを以下のように定義した.\begin{eqnarray}\label{eqn:corresponding0_proposal}P(C'|S,f,t,T)&=&\prod_{s_i\inS}{P(c'_{ik}|S,f,t,T)}\nonumber\\&=&\prod_{s_i\inS}{P(r_{k}|s_{i},S,f,t,T)}\\\label{eqn:corresponding1_proposal}C'_{best}&=&\argmax{C'}{P(C'|S,f,t,T)}\\\label{eqn:corresponding2_proposal}P(C|S,f,t,T)&=&\prod_{s_i\inS}{P(c_{ik}|C'_{best},S,f,t,T)}\nonumber\\&=&\prod_{s_i\inS}{P(r_{k}|s_{i},C'_{best},S,f,t,T)}\end{eqnarray}対応付けモデルの例を図\ref{fig:corresponding}に示す.\begin{figure}[t]\begin{center}{\small\setlength{\tabcolsep}{0mm}\renewcommand{\arraystretch}{}\begin{tabular}{cccccc}\multicolumn{2}{r}{\roleb{バッグ内の$\;\;$現金は}{項候補}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{3}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\multicolumn{6}{l}{{\bfTheftフレーム}$R_{f}\leftarrow\{r_{0}=Goods,r_{1}=Perpetrator,r_{2}=Source,r_{3}=Victim,...\}$}\\[-1mm]\multicolumn{6}{c}{$\downarrow$}\\\hline\multicolumn{6}{|c|}{{\bf対応付けモデル}}\\\multicolumn{1}{|l}{(1)$\;$}&\multicolumn{5}{l|}{$S\leftarrow\{s_{0}=バッグ内の現金は\}$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{4}{|c|}{\bf自項独立意味役割同定モデル}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{0}|s_{0},S,f,t,T)=0.590,P(r_{1}|s_{0},S,f,t,T)=0.361,$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{2}|s_{0},S,f,t,T)=0.257,P(r_{3}|s_{0},S,f,t,T)=0.254,...$}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{(2)$\;$}&\multicolumn{5}{l|}{$C'\leftarrow\{c'_{00}\},C'\leftarrow\{c'_{01}\},C'\leftarrow\{c'_{02}\},C'\leftarrow\{c'_{03}\}$}\\\multicolumn{1}{|l}{(3)$\;$}&\multicolumn{5}{l|}{$C'_{best}\leftarrow\{c'_{00}\}$}\\\multicolumn{1}{|l}{(4)$\;$}&\multicolumn{5}{l|}{$S\leftarrow\{s_{0}=バッグ内の現金は\}$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{4}{|c|}{\bf他項依存意味役割同定モデル}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{0}|s_{0},C'_{best},S,f,t,T)=0.650,P(r_{1}|s_{0},C'_{best},S,f,t,T)=0.344,$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{2}|s_{0},C'_{best},S,f,t,T)=0.231,P(r_{3}|s_{0},C'_{best},S,f,t,T)=0.254,...$\hspace*{18mm}}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{(5)$\;$}&\multicolumn{5}{l|}{$C\leftarrow\{c_{00}\},C\leftarrow\{c_{01}\},C\leftarrow\{c_{02}\},C\leftarrow\{c_{03}\}$}\\\hline\multicolumn{6}{c}{$\downarrow$}\\[-1mm]\multicolumn{2}{r}{\roleb{バッグ内の$\;\;$現金は}{Goods}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{2}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\end{tabular}}\vspace{8pt}\caption{対応付けモデル}\label{fig:corresponding}\end{center}\end{figure} \section{モデルの獲得} label{sec:outline_proposal}次に,\ref{sec:models_def_proposal}節で定義した意味役割推定モデルを構築する手法について述べる.本稿で提案する手法は,大きく6つのステップで構成されている.\begin{enumerate}\item日本語フレームネットから,意味フレーム定義,意味役割定義,品詞定義,見出し語,ならびに意味役割注釈付き事例を抽出する.\label{enum:domain2instance_proposal}\itemフレーム意味論に反しない2つの仮定の下,抽出した事例から新しい事例を作成する.\label{enum:boost_proposal}以下の仮定は,いかなる事例に適用しても言語的に不自然にならないものとして設定したもので,我々はこれらの仮定を妥当なものと考える.\begin{itemize}\item述語に直接係る主語句(ガ格を末尾に持つ文節の全部分木)を削除しても,他の項の意味役割は変化しない.\label{enum:boost_assume0_proposal}\item文の主辞となる述語の項は削除しても,他の全ての項の意味役割が変化しない解釈が可能.\label{enum:boost_assume1_proposal}\end{itemize}\item事例から確率モデルを学習する.\item意味役割推定モデルに基づくシステムを構築する.\label{enum:system_proposal}\item日本語フレームネットに定義された見出し語が述語の文をコーパスから抽出する.\label{enum:subcorpus_proposal}\item抽出した文の項の意味役割を推定する.\label{enum:label_proposal}\end{enumerate}本手法では,\ref{sec:models_def_proposal}節で定義した意味役割推定モデルのうち,以下の3つのモデルを機械学習により獲得する.\begin{itemize}\item{\bf項候補同定モデル}(式(\ref{eqn:candidating0_proposal})条件$P(s''_{ij}|f,t,T)$):\\項候補獲得モデルにおいて断片候補が項候補となるかどうかを判定する.\item{\bf自項独立意味役割同定モデル}(式(\ref{eqn:corresponding0_proposal})右辺$P(r_{k}|s_{i},S,f,t,T)$):\\対応付けモデルにおいて,ある項候補にある意味役割が割り当てられるかを,他項の意味役割を考慮せずに判定する.\item{\bf他項依存意味役割同定モデル}(式(\ref{eqn:corresponding2_proposal})右辺$P(r_{k}|s_{i},C'_{best},S,f,t,T)$):\\対応付けモデルにおいて,ある項候補にある意味役割が割り当てられるかを,他項の意味役割を考慮した上で判定する.\end{itemize}我々は機械学習に,最大エントロピー法とサポートベクタマシンを用いた.最大エントロピー法の実装にはツールmaxent\footnote{http://www2.nict.go.jp/jt/a132/members/mutiyama/software.html}を用い,サポートベクタマシンの実装にはTinySVM\footnote{http://cl.aist-nara.ac.jp/$\tilde{~}$taku-ku/software/TinySVM/}を用いた.サポートベクタマシンの出力は,シグモイド関数に代入することで確率値とみなした\cite{pradhan04}.なお,構文解析器にはCaboCha\cite{kudo02_cabocha}を用いた.以下に,各モデルの詳細を述べる.\subsection{項候補同定モデル}\label{sec:proposal_argument}項候補同定モデルは,断片候補$s''_{ij}$が断片すなわち項候補となるかを判定するモデルであり,項候補獲得モデルに定義されている.項候補同定モデルが定義された式(\ref{eqn:candidating0_proposal})には,断片候補が項候補となるための閾値$\lambda$が定義されており,最大エントロピー法およびサポートベクタマシンの出力に対する正当性から,今回はそれを$0.5$とした\footnote{精度を再現率よりも重視する場合はこれを$0.5$より大きい値に,逆の場合は$0.5$より小さい値に設定すればよい.}.学習に必要な正事例には日本語フレームネットから抽出した注釈付き事例を用い,負事例は抽出した事例と正事例を基に以下の2通りの方法を用いて準備した.\begin{description}\setlength{\itemindent}{-6mm}\item[正解項候補の短縮伸長]$\;$\\はじめに,正事例の正解項候補に対して\ref{sec:models_def_proposal}節・項候補獲得モデル・断片候補生成手法(\ref{enum:extend_rule3_proposal})を適用した.その結果得られた断片候補を不正解項候補とした.\item[非対象述語項の抽出と短縮伸長]$\;$\\まず,抽出事例で述語に指定されていない全ての動詞に対して,\ref{sec:models_def_proposal}節・項候補獲得モデル・断片候補生成手法(\ref{enum:extend_rule1_proposal})〜(\ref{enum:extend_rule3_proposal})を適用した.その結果得られた断片候補のうち,指定述語に対して同様の手順を適用して得られた断片候補および正事例に含まれる正解項候補と範囲が重複しない断片候補を不正解項候補とした.\end{description}また,学習には以下の素性を用いた\footnote{学習事例の数に依存するが,おおよそ1500〜3000個の素性値が得られる.}.\begin{description}\setlength{\itemindent}{-6mm}\item[対象述語の素性]$\;$\\対象述語の原形や活用形と,機能語を構成する各形態素の原形や品詞を用いた.\item[対象断片候補の素性]$\;$\\固有表現,未知語,対象述語からの文節を単位とした相対距離,機能語列とそれを構成する各形態素の品詞を用いた.また,NTT日本語語彙大系\footnote{http://www.kecl.ntt.co.jp/icl/mth/resources/GoiTaikei}から検索した主辞の概念クラスも用いた.加えて,断片候補の直前に連接する形態素の原形と品詞も利用した.\end{description}\subsection{自項独立意味役割同定モデル}\label{sec:proposal_srt_indep}自項独立意味役割推定モデルは,ある項候補にある意味役割が注釈付けられるかを判定するモデルであり,対応付けモデルに定義されている.対応付けモデルの定義式(\ref{eqn:corresponding0_proposal})(\ref{eqn:corresponding1_proposal})より明らかなように,本モデルは複数の意味役割候補から一つを選択する多値分類タスクと考えることができる.我々は機械学習に最大エントロピー法とサポートベクタマシンを用いたが,このうちサポートベクタマシンでは,多値分類にonevs.rest法を用いた.学習の素性には,項候補同定モデルの学習に用いた素性に加え,以下を利用した\footnote{学習事例の数に依存するが,おおよそ1500〜3000個の素性値が得られる.}.\begin{description}\setlength{\itemindent}{-6mm}\item[対象項候補の素性]$\;$\\項候補同定モデルの学習のために対象断片候補から抽出した素性のうち,直前の形態素に関するものを除いた全ての素性を利用した.加えて,項候補同定モデルが対象項候補に対して出力した値と,項候補を単位とした対象述語からの相対距離も併せて利用した.\item[非対象項候補の素性]$\;$\\項候補同定モデルが非対象項候補に対して出力した値を用いた.\end{description}\subsection{他項依存意味役割同定モデル}\label{sec:proposal_srt_dep}他項依存意味役割同定モデルは,他項に注釈付けられた意味役割を考慮した上で,項候補にある意味役割が注釈付けされるかを判定するモデルであり,対応付けモデルに定義されている.対応付けモデルの定義式(\ref{eqn:corresponding2_proposal})ならびに意味役割推定モデルの定義式(\ref{eqn:rolelabeling1_proposal})より明らかなように,本モデルも複数の意味役割候補から一つを選択する多値分類タスクと見なすことができ,自項独立意味役割同定モデル同様,サポートベクタマシンではonevs.rest法を適用した.学習の素性には,自項独立意味役割同定モデルの学習に用いた素性に加え,以下を利用した\footnote{学習事例の数に依存するが,おおよそ1500〜3000個の素性値が得られる.}.\begin{description}\setlength{\itemindent}{-6mm}\item[対象項候補の素性]$\;$\\自項独立意味役割同定モデルの出力が最も大きかった意味役割とその値を利用した.\item[非対象項候補の素性]$\;$\\自項独立意味役割同定モデルが各非対象項候補に対して出力した値が最も大きかった意味役割とその値,およびその意味役割と機能語の組み合わせ,その意味役割と項候補を単位とする対象述語からの相対距離との組み合わせを利用した.\end{description} \section{評価} label{sec:metrix_experiment}定義した意味役割推定モデルの有効性を確認するために,獲得したモデルを用いて意味役割推定を行った.評価に際し,モデルへの入出力にそれぞれ3通りの条件を設定した.入力条件とその目的は以下の通りである.\begin{enumerate}\item文と述語$\rightarrow$システム全体を評価\label{enum:metrix0_experiment}\item文と述語,正しい断片候補(項候補の候補)$\rightarrow$項候補獲得モデルを評価\label{enum:metrix1_experiment}\item文と述語,正しい項候補$\rightarrow$対応付けモデルを評価\label{enum:metrix2_experiment}\end{enumerate}また,出力条件は以下の通りである.\begin{enumerate}\item獲得した断片集合$S$についての正誤判定を行う.\label{enum:metrix3_experiment}\item獲得した項候補-意味役割対応関係$C$についての正誤判定を行う.\label{enum:metrix4_experiment}\item獲得した$c_{ik}$のうちで,尤度$P(c_{k}|C'_{best},S,f,t,T)$が$0.5$を越えるものを出力し正誤判定を行う.\label{enum:metrix5_experiment}\end{enumerate}出力条件(\ref{enum:metrix5_experiment})は,出力条件(\ref{enum:metrix4_experiment})において出力される意味役割注釈パタンのうち,この注釈パタンに含まれるものの意味役割が付与される確率が低い項候補については「項でない」とみなして出力することを意味する\footnote{これは我々が機械学習に利用したサポートベクタマシンの特徴を考慮した評価であり,最大エントロピー法を用いた場合もこれに準ずるとした.}.我々は,以上の9通りの組合せ(入力3条件$\times$出力3条件)について,機械学習に用いた最大エントロピー法を用いた場合とサポートベクタマシンを用いた場合の2通りで,交差検定法により評価した\footnote{実験では,毎日新聞1992〜2002年版の記事に人手で注釈付けを行ったものを事例として用いた.図\ref{fig:syn_analyze_discussion0}〜\ref{fig:candidating_discussion3}に示した例はその一部である.}.評価実験の対象フレームを表\ref{tbl:domain_experiment}に,実験時に設定した各種パラメータを表\ref{tbl:param_experiment}に示す.また,評価実験の結果を表\ref{tbl:result_all_experiment_me},\ref{tbl:result_all_experiment_svm}に示す.\begin{table}[t]\setlength{\baselineskip}{13pt}\begin{center}\caption{対象意味フレーム}\label{tbl:domain_experiment}\begin{tabular}{rl}\hline意味フレーム&{\bfArriving}\\意味役割&{\itGoal,Theme,Cotheme,Depictive,Goal\_conditions,Manner,Means,}\\&{\itMode\_of\_transportation,Path,Source,Time}\\見出し語&至る,入る\\注釈付き事例&107文\\\hline意味フレーム&{\bfCommerce\_pay}\\意味役割&{\itBuyer,Goods,Money,Rate,Seller,Manner,Means,Place,Purpose,Reason,}\\&{\itTime,Unit}\\見出し語&払う,支払う\\注釈付き事例&55文\\\hline意味フレーム&{\bfDeparting}\\意味役割&{\itSource,Theme,Area,Cotheme,Depictive,Distance,Frequency,Goal,Journey,}\\&{\itManner,Means,Mode\_of\_transportation,Path,Purpose,Reason,Speed,Time}\\見出し語&去る,抜ける\\注釈付き事例&111文\\\hline意味フレーム&{\bfRisk}\\意味役割&{\itAction,Agent,Asset,Bad\_outcome,Chance,Gain,Purpose,Reason,Situation}\\見出し語&賭ける\\注釈付き事例&60文\\\hline意味フレーム&{\bfTheft}\\意味役割&{\itGoods,Perpetrator,Source,Victim,Event,Frequency,Instrument,Manner,Means,}\\&{\itPlace,Purpose,Reason,}\\見出し語&奪う,盗む,くすねる\\注釈付き事例&65文\\\hline意味フレーム&{\bfTraversing}\\意味役割&{\itArea,Direction,End\_points,Goal,Path,Path\_shape,Source,Theme,}\\&{\itCircumstances,Consecutive,Containing\_event,Coordinated\_event,Cotheme,}\\&{\itDegree,Depictive,Distance,Duration,Explanation,Frequency,Manner,Means,}\\&{\itPlace,Purpose,Re\_encoding,Reciprocation,Result,Speed,Time,Vehicle}\\見出し語&渡る\\注釈付き事例&92文\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{実験で使用したパラメータ}\label{tbl:param_experiment}\begin{tabular}{lll}\hline交差検定法&&5サブセット\\\hline最大エントロピー法&終了条件&0.0001\\&スムージング係数&1.0\\&パラメータ推定アルゴリズム&gaussian\\\hlineサポートベクタマシン&カーネル&2次多項式\\&ペナルティ項&0.01\\\hline\end{tabular}\par\vspace{20pt}\caption{結果(ME)}\label{tbl:result_all_experiment_me}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.73&0.61&0.66&&(0.78)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.52&0.43&0.47&0.72&0.56&0.63&&(0.72)&\\出力条件(\ref{enum:metrix5_experiment})&0.63&0.43&0.51&0.78&0.54&0.64&0.77&0.68&0.73\\\hline\end{tabular}\par\vspace{20pt}\caption{結果(SVM)}\label{tbl:result_all_experiment_svm}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.73&0.58&0.64&&(0.74)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.51&0.40&0.45&0.70&0.52&0.60&&(0.68)&\\出力条件(\ref{enum:metrix5_experiment})&0.65&0.38&0.48&0.78&0.49&0.60&0.76&0.63&0.69\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|lllll|}\hline\norole{93年に}{15mm}&\roleb{単身で}{Depictive}{20mm}&\norole{天津市に}{15mm}&\targetb{渡り}{}{15mm}&\\&&&&\vspace{-4mm}\\&\roleb{強制連行やさまざまな事情で}{Explanation}{52mm}&\norole{朝鮮半島から}{22mm}&\targetb{渡っ}{て}{15mm}&\norole{きた}{20mm}\\&&&&\vspace{-4mm}\\\norole{横断歩道を}{20mm}&\roleb{自転車で}{Means}{20mm}&\targetb{渡っ}{て}{20mm}&\norole{いた}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfTraversing})・同一表層格(デ)での意味役割の区別}\label{fig:samecase_differentrole_discussion}\par\vspace{20pt}\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|p{6mm}llllp{5mm}|}\hline$\;$&&\norole{新聞記事によると,}{32mm}&\roleb{車は}{Goods}{20mm}&\targetb{盗ん}{だ}{15mm}\norole{らしい}{15mm}&$\;$\\&&\norole{新聞記事によると,}{32mm}&\roleb{彼は}{Perpetrator}{20mm}&\targetb{盗ん}{だ}{15mm}\norole{らしい}{15mm}&\\&\norole{新聞記事によると,}{32mm}&\roleb{彼は}{Perpetrator}{20mm}&\roleb{車は}{Goods}{20mm}&\targetb{盗ん}{だ}{15mm}\norole{らしい}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfTheft})・同一表層格(ハ)での意味役割の区別}\label{fig:samecase_differentrole_discussion1}\end{figure}評価実験の結果,本手法は(1)意味役割が付与されるべき項が分かっている文に対して精度77%,再現率68%,(2)意味役割が付与されるべき項がわかっていない文に対して精度63%,再現率43%の意味役割推定を実現した.計490文という少ない注釈付き事例を用いて,大規模な学習事例を用いた英語の意味役割手法に迫る精度\footnote{英語を対象とした意味役割推定手法では約50,000文の注釈付き事例を用いており,Gildeaらの手法では(1)で精度82%,(2)で精度65%,再現率61%という結果が得られている\cite{gildea02}.また,Kwonらの手法による結果は(2)で精度66%,再現率57%である\cite{kwon04}.}を得ることができており,本手法の有効性を示した.また本手法は,図\ref{fig:samecase_differentrole_discussion}〜\ref{fig:samecase_differentrole_discussion3}のような,表層格では区別できない意味の区別を実現した.なお,図\ref{fig:samecase_differentrole_discussion1}〜\ref{fig:samecase_differentrole_discussion3}は,同一の表層格を持つ項に対する本手法の意味役割推定を評価するために用意した入力に対する結果である.\clearpage\begin{figure}[t]\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|p{17mm}llllp{16mm}|}\hline$\;$&&\roleb{彼が}{Theme}{20mm}&\roleb{部屋に}{Goal}{20mm}&\targetb{入る}{}{15mm}\norole{予定です}{15mm}&$\;$\\&\roleb{彼が}{Theme}{20mm}&\roleb{正午に}{Time}{20mm}&\roleb{部屋に}{Goal}{20mm}&\targetb{入る}{}{15mm}\norole{予定です}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfArriving})・同一表層格(ニ)での意味役割の区別}\label{fig:samecase_differentrole_discussion2}\par\vspace{20pt}\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|p{5mm}llllp{4mm}|}\hline$\;$&&\rolebX{チャンスをつかもうと}{Purpose}{40mm}{,}&\roleb{アメリカに}{Goal}{20mm}&\targetb{渡っ}{た}{15mm}&$\;$\\&\rolebX{チャンスをつかもうと}{Purpose}{40mm}{,}&\roleb{海を}{Path}{20mm}&\roleb{西に}{Direction}{20mm}&\targetb{渡っ}{た}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfTraversing})・同一表層格(ニ)での意味役割の区別}\label{fig:samecase_differentrole_discussion3}\end{figure}\subsection*{項候補獲得モデル}\ref{sec:models_def_proposal}節で述べたように,項候補獲得モデルでは,日本語における深層的意味の保持単位が文節にあるとし,構文解析結果に基づいて項候補の獲得を試みた.結果,精度73%,再現率61%の性能で項候補の獲得に成功した.また本モデルは,構文解析誤りなどの理由から,述語と直接係り受け関係をもつ部分木が必ずしも項候補とならないことを考慮し,部分木が示す断片候補を短縮および伸長することで新たな断片候補を生成,それらの断片候補群から最適な断片候補を項候補とすることを戦略とした.結果,図\ref{fig:syn_analyze_discussion0}のような構文解析結果を得た文について,図\ref{fig:candidating_discussion0}に示した項候補の獲得を実現した.\begin{figure}[b]\framebox(420,70)[c]{\parbox{90pt}{\hfill菊地さん\texttt{-D}\hspace*{18.49986pt}\\\hfill,14回目の\texttt{-D}\hspace*{12.33324pt}\\\hfill優勝を\texttt{-D}\hspace*{6.16662pt}\\\hfill賭けて\texttt{-D}\\\hfill決勝戦進出である.}}\caption{項候補獲得モデル検証:構文解析結果}\label{fig:syn_analyze_discussion0}\par\vspace{20pt}\framebox(420,28)[c]{\rolebX{菊地さん}{項候補}{20mm}{,}\roleb{14回目の優勝を}{項候補}{32mm}\targetb{賭け}{て}{15mm}\norole{決勝戦進出である.}{30mm}}\caption{項候補獲得モデル検証:正解項候補}\label{fig:candidating_discussion0}\end{figure}一方,本稿で提案した意味役割推定モデル全体の性能,特に再現率は,本項候補獲得モデルの性能に上限を狭められている.そのため,項候補獲得モデルの改良により,全体の性能が向上すると考えられる.以下では,項候補獲得モデルにおける失敗の原因と改善可能性を考察する.\subsubsection*{断片候補生成}断片候補生成手法の性能は,表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix0_experiment})(\ref{enum:metrix1_experiment})における出力条件(\ref{enum:metrix3_experiment})の再現率(正解率)を比較することで推測できる.具体的には,入力条件(\ref{enum:metrix1_experiment})の正解率に対する入力条件(\ref{enum:metrix0_experiment})の再現率の低下が,断片候補生成手法に起因した性能低下を表していると考えることができる.\ref{sec:models_def_proposal}節で述べたように,本稿で提案する断片候補生成手法では,構文解析の結果から,述語文節と直接係り受け関係にある部分木を断片候補生成の基とし(以後,ベース断片候補と呼ぶ),それらを伸縮することで断片候補を生成する.そのため,断片候補生成手法における性能は,以下の原因で低下する.\begin{enumerate}\item構文解析結果が述語と項の意味的な関係を反映していない場合\label{enum:cand_foo_discussion}\item述語と直接係り受け関係にある部分木が項でない場合\label{enum:cand_bar_discussion}\end{enumerate}これらの原因に起因する誤りは,表\ref{tbl:cand_discussion}に示す割合で現れた.表\ref{tbl:cand_discussion}は原因(\ref{enum:cand_foo_discussion})ならびに(\ref{enum:cand_bar_discussion})の発生率を文単位で算出したものである.表\ref{tbl:cand_discussion}からも明らかなように,65%の文では構文解析結果に基づく断片生成が適切であった.しかしながら同時に,本断片候補生成手法が意味役割推定全体の性能の上限に影響していることも明らかとなった.\begin{table}[b]\begin{center}\caption{断片候補生成検証:誤り発生率}\label{tbl:cand_discussion}\begin{tabular}{lrrrr}\hline意味フレーム&原因(\ref{enum:cand_foo_discussion})&原因(\ref{enum:cand_bar_discussion})&原因(\ref{enum:cand_foo_discussion})\&(\ref{enum:cand_bar_discussion})&(正解)\\\hline{\bfArriving}&0.21&0.08&0.05&(0.66)\\{\bfCommerce\_pay}&0.27&0.05&0.02&(0.65)\\{\bfDeparting}&0.24&0.02&0.05&(0.68)\\{\bfRisk}&0.10&0.23&0.02&(0.65)\\{\bfTheft}&0.23&0.03&0.19&(0.55)\\{\bfTraversing}&0.18&0.08&0.10&(0.64)\\\hline総合&0.21&0.08&0.07&(0.65)\\\hline\end{tabular}\end{center}\end{table}原因(\ref{enum:cand_foo_discussion})による誤りの一つは,構文解析そのものの誤りに起因する.本稿が提案する断片候補生成手法は,単一のベース断片候補を切断して複数の断片候補を生成することがない.そのため,構文解析(文節区切りの同定)が誤った例では,適切な断片候補が生成されなかった.原因(\ref{enum:cand_foo_discussion})に起因する誤りには,意味の曖昧性のため,構文解析結果が構文的には正しくても,意味的には誤ってしまったものもある.図\ref{fig:syn_analyze_discussion3}に示した文の構文解析では,``錨がぶつかるゴンという音がした直後,{\kern-0.5zw}''が``なった''に係っている.一方,日本語フレームネットにおいては,この従属節は図\ref{fig:candidating_discussion3}のように対象述語「入っ(て)」の項候補とされている.すなわち,``錨がぶつかるゴンという音がした直後,{\kern-0.5zw}''は``入っ(て)''に係っているとされている.このように,意味を考慮しない構文解析では,文に意味的な曖昧性があり複数の係り先が考えられる場合に,係り受け関係の解析を誤ることがある.この場合,本稿が提案する断片候補生成手法では適切なベース断片を生成することができず,結果として項候補の獲得に失敗した.\begin{figure}[t]\framebox(420,168)[c]{\parbox{135pt}{\hfil錨が\texttt{-D~~~~~~~~~~~~~~~~~~~~}\\\hfilぶつかる\texttt{-D~~~~~~~~~~~~~~~~~~}\\\hfilゴンという\texttt{-D~~~~~~~~~~~~~~~~}\\\hfil音が\texttt{-D~~~~~~~~~~~~~~}\\\hfilした\texttt{-D~~~~~~~~~~~~}\\\hfil直後,\texttt{-----------D}\\\hfil窓から\texttt{---D~~~~~|}\\\hfil高波が\texttt{-D~~~~~|}\\\hfil入ってきて,\texttt{-----D}\\\hfil頭から\texttt{-D~|}\\\hfilずぶぬれに\texttt{-D}\\\hfilなった.}}\caption{断片候補生成検証:構文解析結果}\label{fig:syn_analyze_discussion3}\par\vspace{20pt}\framebox(420,47)[c]{\parbox{340pt}{\rolebX{錨がぶつかるゴンという音がした直後}{項候補}{65mm}{,}\roleb{窓から}{項候補}{16mm}\roleb{高波が}{項候補}{16mm}\targetb{入っ}{てきて}{54pt}\\[0.5\baselineskip]\hfill\norole{頭からずぶぬれになった.}{108pt}}}\caption{断片候補生成検証:正解項候補}\label{fig:candidating_discussion3}\end{figure}次に,原因(\ref{enum:cand_bar_discussion})に起因する誤りについて述べる.この誤りの代表は,複文における代名詞の省略もしくはゼロ代名詞に起因するものである.特に,対象述語が後文に属する場合,その項は省略される傾向がある.このような例においては,省略解析や照応解析を行わない本断片候補生成手法では,適切な断片候補を獲得できなかった.原因(\ref{enum:cand_bar_discussion})に起因する別の誤りには,並列の扱いに起因するものも存在した.本稿で提案する断片候補生成手法は文節の同格を考慮せず,かつ,ベース断片候補が伸長されても別のベース断片候補と重複することはない.そのため,対象述語に係っている同格の複数文節を,単一の断片候補として適切に扱うことができなかった.以上より,本断片候補生成手法は,構文解析そのものを改良することにより性能が向上すると考えられる一方,構文解析結果に基づいて断片を生成する戦略そのものを再考することで,性能が向上する可能性があることが分かった.加えて,省略解析\cite{sasano04}や,文節の並列の考慮などにより,性能が向上する余地があることも明らかとなった.\subsubsection*{項候補同定モデル}表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix1_experiment})・出力条件(\ref{enum:metrix3_experiment})の正解率78%は,\ref{sec:models_def_proposal}節で詳述した項候補同定モデル単独の性能を示している.本手法において項候補同定モデルの性能に寄与する部分は,学習事例準備法,特に負事例の準備法と,学習に用いる素性の選択である.項候補同定失敗の原因を素性空間で考えると,本来正解であるべき部分空間に負事例が配置されていることが推測される.これはつまり,負事例の準備法に問題があることを示す.\ref{sec:models_def_proposal}節・学習事例準備で述べた負事例の準備は,正解項候補の短縮伸長と,非対象述語項の抽出と短縮伸長の2通りの組み合わせで行われているが,これはそれぞれ,以下の2通りの不正解項候補を排除するために設定したものである.\begin{itemize}\item「の機会を」などの切り分けが不適切な断片\item対象述語の項ではない断片\end{itemize}このことから,項候補同定モデルが不正解とすべき事例で誤った素性の組み合わせを学習し,結果的に負事例が正解空間にはみ出す形になったと考えられる.例えば,上述の不正解項候補において,素性値$A\capB$が前者の組み合わせに,素性値$A\capC$が後者の組み合わせに該当し,素性値$B\capC$は双方において正解項候補に特有であるとする.しかしながら,本稿で提案した項候補同定モデルは上述の2通りの不正解項候補を同時に学習するため,同モデルが推定する素性値$B\capC$の不正解らしさが大きくなったと推測する.つまり,上述の2つの目的に対処する唯一のモデルを学習するのではなく,それぞれの目的に特化した2つのモデルを学習し,意味役割推定に利用する必要があると考える.次に,項候補同定モデルの学習に用いた素性の有効性を検証する.素性の有効性は,特定の素性値を除いた残りの素性値でモデルを再学習し,その結果得られたモデルの性能の劣化度を利用するのが一般的である.しかしながら,多くの素性値から学習したモデルの再学習にはコストがかかる.また,本手法のように多くのモデルを単一の手法で学習する場合には,有効な素性値をモデル別に検証するのではなく,どのようなモデルにも有効な素性値を多く含む素性の検証を行うことが重要と考えられる.そこで本稿では,素性の寄与度という新たな評価尺度を導入する.寄与度の算出方法を図\ref{fig:contalgo}に示す.図\ref{fig:contalgo}の算出法から明らかなように,寄与度は特定の素性値の有効性ではなく,複数の素性値からなる素性の有効性を表す.寄与度とは,その素性がどの程度汎用的に有効であるかを表したものであり,寄与度$0.3$とはすなわち,その素性の特定の素性値が全体の30%のモデルで有効であることを示している.加えて,特定のモデルにのみ有効な素性も同様に重要であることから,寄与度は数値そのものの比較と同時に,寄与度が$0.0$か否かも評価の対象となる.\begin{figure}[t]\begin{center}\begin{tabular}{rl}1.&モデルの集合を$\{M|m_{i}\inM\}$とする.\\2.&$m_{i}$の学習事例に出現した全ての素性値の集合を$\{\Phi_{i}|\phi_{ij}\in\Phi_{i}\}$とする.\\3.&$\phi_{ij}$のみを素性値に持つ事例の尤度$P_{ij}$を獲得する.\\4.&素性値を持たない事例の尤度$P'_{i}$を獲得する.\\5.&$m_{i}$における$\phi_{ij}$の寄与度として,$P'_{i}$と$P_{ij}$の差の絶対値$D_{ij}$を獲得する.\\6.&$D_{ij}$の最大値を$D'_{i}$としたとき,$D'_{i}\times0.5\leqD_{ij}$を満たす$\phi_{ij}$が$m_{i}$において有効で\\&あるとし,その集合$\Upsilon_{i}$を獲得する.\\7.&$m_{i}$における素性$\psi_{k}\in\Psi$の寄与度$I_{ik}$を,$\psi_{k}$の素性値が$\Upsilon_{i}$に含まれる場合に$1.0$,\\&そうでない場合に$0.0$とする.\\8.&$I_{ik}$の平均値$I_{k}=(\sum_{i}{I_{ik}})/|M|$を,全モデルに横断的な$\psi_{k}$の寄与度$I_{k}$とする.\\\end{tabular}\end{center}\caption{寄与度算出法}\label{fig:contalgo}\end{figure}表\ref{tbl:fenil_feature_discussion}は,サポートベクタマシンを用いて獲得した項候補同定モデルにおける各素性の寄与度である.表\ref{tbl:fenil_feature_discussion}より,項候補同定モデルでは,項の直前形態素の情報の寄与が強いことが明らかとなった.このことは,項候補同定モデルが不適切に切り分けられた断片の排除に特に有効に働いていることを示すものである.また,項候補同定モデルでは,述語と項の位置関係の寄与度が大きいことが明らかとなった.この素性は,対象の断片が述語の前にあるか後ろにあるかのみを反映するものであり,本来であれば述語項構造の判定に大きな影響は与えないと考えられる.\\そこで,述語と断片の位置関係をより詳細に表す素性,例えば構文解析結果に基づく述語・断片間の経路情報などを代替素性として利用することが,性能向上につながると考えられる.\begin{table}[t]\begin{center}\caption{項候補同定モデル素性寄与度(上位5素性/全44素性)}\label{tbl:fenil_feature_discussion}\begin{tabular}{lr}\hline素性&寄与度\\\hline項の直前の形態素が内容語でない場合の表層文字列&1.00\\述語項間文節位置&0.83\\項の直前の形態素の品詞&0.70\\項の先頭形態素の品詞&0.13\\項の直後の形態素の品詞&0.03\\\hline\end{tabular}\end{center}\end{table}なお,ここで議論した表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix1_experiment})・出力条件(\ref{enum:metrix3_experiment})の正解率78%は「正解を正解と判定する割合」であり,「不正解を不正解と判定する割合」(以後これを偽陽性率と呼ぶ)は含まないため,正確にはこの数字だけで項候補同定モデルの評価をすることはできない.例えば,正解率が100%に近付くように負事例準備法を調節することで入力条件(\ref{enum:metrix1_experiment})における正解項候補の欠落が少なくなることから,対応付け部における性能の上限が上がり,全体の性能が向上して見えると考えられる.しかし,同時に,意味役割推定モデル全体の評価となる入力条件(\ref{enum:metrix0_experiment})での出力条件(\ref{enum:metrix3_experiment})において偽陽性率が低くなることが予測され,結果的に誤った項候補が選択されると考えられる.\subsection*{対応付けモデル}\ref{sec:models_def_proposal}節で述べたように,対応付けモデルは,与えられた文,述語,フレームおよび項候補から,項候補と意味役割の対応付けを行うモデルである.結果,正解率72%の性能で,また,尤度が0.5以上のもののみを選択した場合は精度77%,再現率68%で意味役割の対応付けに成功した.なお,尤度が0.5以上のもののみを選択することによる再現率の低下は最大エントロピー法で2ポイント,SVMで3ポイントに留まっており\footnote{表\ref{tbl:result_all_experiment_me}ならびに表\ref{tbl:result_all_experiment_svm}の入力条件(\ref{enum:metrix1_experiment})における出力条件(\ref{enum:metrix4_experiment})と(\ref{enum:metrix5_experiment})との比較による.},精度はそれぞれ6ポイントおよび8ポイント上昇した.機械学習の特徴を考慮することで,より正確な対応付けが可能となった.表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix2_experiment})・出力条件(\ref{enum:metrix4_experiment})の正解率72%は,\ref{sec:models_def_proposal}節で述べた自項独立意味役割同定モデルと他項依存意味役割同定モデルの組み合わせの性能を示している.本手法において,これらのモデルの性能に寄与する部分は,学習に用いる素性の選択である.\newcounter{tablea}\addtocounter{table}{1}\setcounter{tablea}{\thetable}\newcounter{tableb}\addtocounter{table}{1}\setcounter{tableb}{\thetable}表{\thetablea}は,サポートベクタマシンを用いて獲得した自項独立意味役割同定モデルの出力に関し,寄与が大きいと考えられる素性を示したものである.また,表{\thetableb}は,同じくサポートベクタマシンを用いて獲得した他項依存意味役割同定モデルの出力の寄与度を示したものである.表中の数値は図\ref{fig:contalgo}で述べた手法により算出した.\begin{table}[b]\begin{center}\begin{tabular}{p{50mm}r}\multicolumn{2}{l}{\parbox[b]{10mm}{\bf表$\$\thetablea}自項独立意味役割同定モデル素性寄与度}\\\multicolumn{2}{l}{\parbox[b]{10mm}{$\;$}(上位10素性/全38素性)}\\\hline素性&寄与度\\\hline項の機能文字列&0.78\\項の機能語の表層文字列&0.77\\項の末尾付属語の表層文字列&0.77\\項の機能語の品詞&0.40\\項の主辞形態素の品詞&0.39\\項の末尾付属語の品詞&0.38\\述語項間文節位置&0.32\\項の主辞形態素の概念クラスの集合&0.29\\述語項間項位置&0.26\\述語文節の機能文字列&0.25\\\hline\end{tabular}\begin{tabular}{p{50mm}r}\multicolumn{2}{l}{\parbox[b]{10mm}{\bf表$\$\thetableb}他項依存意味役割同定モデル素性寄与度}\\\multicolumn{2}{l}{\parbox[b]{10mm}{$\;$}(上位10素性/全44素性)}\\\hline素性&寄与度\\\hline自項の意味役割&0.97\\項の機能文字列&0.36\\項の機能語の表層文字列&0.36\\項の末尾付属語の表層文字列&0.34\\項の機能語の品詞&0.14\\項の末尾付属語の品詞&0.13\\他項の項候補同定モデルの値&0.13\\述語項間文節位置&0.13\\他項の機能文字列&0.13\\項の主辞形態素の品詞&0.12\\\hline\end{tabular}\end{center}\end{table}表{\thetablea}から,自項独立意味役割同定モデルでは,項の機能語だけでなく,項の主辞形態素の概念クラスが大きく寄与していることが明らかとなった.このことは,本稿が提案した対応付けモデルが,項の機能語すなわち表層格では区別できない深層的意味に基づいて意味役割を同定していることを示すものである.自項独立意味役割同定モデルでは,また,述語文節の機能語の寄与度が強いことが明らかとなった.これは,態の変化による意味役割の変化を学習できたことを示唆している.一方,表{\thetableb}より,他項依存意味役割同定モデルでは,自項独立意味役割同定モデルによって推定した意味役割に加え,他項の情報が強く寄与していることが明らかとなった.これは,本研究で提案した対応付けモデルに他項依存意味役割同定モデルを定義したことの有効性を示唆するものである.また,自項独立意味役割同定モデルと同様に,項の機能語や項の主辞の概念クラス(0.11:11位),述語文節(0.09:13位)の寄与度も大きいことが分かった.\subsection*{事例自動作成}次に,\ref{sec:outline_proposal}節・ステップ(\ref{enum:boost_proposal})で述べた事例自動作成について考察する.作成した事例の数を表\ref{tbl:boost_result_discussion}に示す.また,ステップ(\ref{enum:boost_proposal})を実行せずに意味役割推定モデルを獲得,意味役割推定システムを構築した場合の評価実験の結果を表\ref{tbl:result_allnb_experiment_me},\ref{tbl:result_allnb_experiment_svm}に示す.\begin{table}[b]\begin{center}\caption{事例自動作成結果}\label{tbl:boost_result_discussion}\begin{tabular}{lrrr}\hline意味フレーム&抽出事例数&作成事例数&作成率\\\hline{\bfArriving}&107&58&0.54\\{\bfCommerce\_pay}&55&32&0.58\\{\bfDeparting}&111&142&1.28\\{\bfRisk}&60&24&0.40\\{\bfTheft}&65&25&0.38\\{\bfTraversing}&92&124&1.35\\\hline総合&490&405&0.83\\\hline\end{tabular}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{結果(ME:ステップ(\ref{enum:boost_proposal})なし)}\label{tbl:result_allnb_experiment_me}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.71&0.62&0.66&&(0.80)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.50&0.44&0.47&0.71&0.57&0.63&&(0.71)&\\出力条件(\ref{enum:metrix5_experiment})&0.62&0.41&0.50&0.79&0.54&0.64&0.79&0.67&0.72\\\hline\end{tabular}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{結果(SVM:ステップ(\ref{enum:boost_proposal})なし)}\label{tbl:result_allnb_experiment_svm}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.71&0.59&0.64&&(0.77)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.50&0.41&0.45&0.70&0.54&0.61&&(0.69)&\\出力条件(\ref{enum:metrix5_experiment})&0.67&0.37&0.48&0.80&0.49&0.61&0.80&0.62&0.70\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:result_all_experiment_me},\ref{tbl:result_all_experiment_svm}と表\ref{tbl:result_allnb_experiment_me},\ref{tbl:result_allnb_experiment_svm}の比較から,ステップ(\ref{enum:boost_proposal})における事例自動生成が項候補獲得部・項候補同定モデルの偽陽性率の向上に貢献していることが明らかとなった.すなわち,ステップ(\ref{enum:boost_proposal})で自動生成された事例が,項候補同定モデルの学習事例,特に負事例の網羅性を向上させ,性能の良いモデルの学習に繋がったと考えられる.このことからも,ステップ(\ref{enum:boost_proposal})における事例自動生成の有効性が明らかとなった.\subsection*{機械学習法}我々は,機械学習に最大エントロピー法とサポートベクタマシンの2つを用い,それぞれを用いて意味役割推定モデルを獲得した.結果,意味役割を付与すべき項が分かっていない文に対して,最大エントロピー法を用いた場合は精度63%,再現率43%で意味役割付与を実現,サポートベクタマシンを用いた場合は精度65%,再現率38%で意味役割付与を実現した.それらの数値を比較した結果として,本論文では,そこに有意な差は見られなかったと結論する.というのも,最大エントロピー法,サポートベクタマシンの双方にチューニング可能なパラメータが多いほか,素性選択,学習事例準備など,多くのステップで最適解を求める余地が残っていると考えるためである.一方,評価実験結果および事例自動生成検証結果を考察すると,最大エントロピー法に比べサポートベクタマシンは精度に焦点化しており,特に項候補同定モデルにおいて偽陽性率に関して優れていることが見てとれる.言い換えれば,サポートベクタマシンは最大エントロピー法と比して,同モデル学習のために準備した負事例の特徴量をよく反映したと考えることができる.我々は,最大エントロピー法とサポートベクタマシンの双方に,同一の負事例準備法を適用して項候補同定モデルを学習した.しかしながら以上を考慮すると,採用する機械学習法に応じて負事例の準備の方法を変化させる必要があり,また,モデルの目的に応じて,最適な機械学習法を選択することが必要になると考える. \section{おわりに} label{sec:conc}本稿では,日本語フレームネットを背景とし,項の意味役割を推定する統計モデルの定義,ならびに獲得手法を提案した.結果,提案した意味役割推定モデルの尤度が0.5を超えるもののみを付与する条件の下,意味役割が付与されるべき項が分かっていない文に対して精度63%,再現率43%の意味役割推定を,意味役割が付与されるべき項が分かっている文に対して精度77%,再現率68%の意味役割推定を実現し,本手法の有効性を示した.また,日本語フレームネットを背景としたことにより,表層格では区別できない意味の区別を実現した.今後は,語義曖昧性解消問題や機械翻訳の要素技術として本稿の提案手法を適用すると共に,現在進行中の日本語フレームネットの新たな事例について,再度本手法の検証を行っていく予定である.\nocite{mainichi:_cd}\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldewein,Erk,Pado,\BBA\Prescher}{Baldeweinet~al.}{2004}]{baldewein04}Baldewein,U.,Erk,K.,Pado,S.,\BBA\Prescher,D.\BBOP2004\BBCP.\newblock\BBOQSemanticRoleLabellingWithChunkSequences\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL'04sharedtask}.\bibitem[\protect\BCAY{Bejan,Moschitti,Mor{\ua}rescu,Nicolae,\BBA\Harabagiu}{Bejanet~al.}{2004}]{bejan04}Bejan,C.~A.,Moschitti,A.,Mor{\ua}rescu,P.,Nicolae,G.,\BBA\Harabagiu,S.\BBOP2004\BBCP.\newblock\BBOQSemanticParsingBasedonFrameNet\BBCQ\\newblockIn{\BemSENSEVAL-3,ThirdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText/ACL'04},\mbox{\BPGS\73--76}.\bibitem[\protect\BCAY{Berger,{DellaPietra},\BBA\{DellaPietra}}{Bergeret~al.}{1996}]{berger96}Berger,A.~L.,{DellaPietra},S.~A.,\BBA\{DellaPietra},V.~J.\BBOP1996\BBCP.\newblock\BBOQAMaximumEntropyApproachtoNaturalLanguageProcessing\BBCQ\\newblock{\BemComputationalLinguistics}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1982}]{fillmore82}Fillmore,C.~J.\BBOP1982\BBCP.\newblock\BBOQFramesemantics\BBCQ\\newblockIn{\BemLinguisticsintheMorningCalm},\mbox{\BPGS\111--137}.\bibitem[\protect\BCAY{降幡\JBA藤田\JBA乾\JBA松本\JBA竹内}{降幡\Jetal}{2004}]{furuhata04}降幡建太郎\JBA藤田篤\JBA乾健太郎\JBA松本裕治\JBA竹内孔一\BBOP2004\BBCP.\newblock\JBOQ語彙概念構造を用いた機能動詞結合の言い換え\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\504--507}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{gildea02}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticLabelingofSemanticRoles\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2003}]{kawahara03}河原大輔\JBA黒橋禎夫\BBOP2003\BBCP.\newblock\JBOQ自動構築した格フレーム辞書に基づく省略解析の大規模評価\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\mbox{\BPGS\589--592}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2004}]{kawahara04}河原大輔\JBA黒橋禎夫\BBOP2004\BBCP.\newblock\JBOQ自動構築した格フレーム辞書と先行詞の位置選好順序を用いた省略解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005a}]{kawahara05_1}河原大輔\JBA黒橋禎夫\BBOP2005a\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005b}]{kawahara05}河原大輔\JBA黒橋禎夫\BBOP2005b\BBCP.\newblock\JBOQ大規模格フレームに基づく構文・格解析の統合的確率モデル\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\923--926}.\bibitem[\protect\BCAY{Kingsbury\BBA\Palmer}{Kingsbury\BBA\Palmer}{2002}]{kingsbury02}Kingsbury,P.\BBACOMMA\\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQFromTreebanktoPropBank\BBCQ\\newblockIn{\BemProceedingsofLREC'02}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{kudo02_cabocha}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{Kwon,Fleischman,\BBA\Hovy}{Kwonet~al.}{2004}]{kwon04}Kwon,N.,Fleischman,M.,\BBA\Hovy,E.\BBOP2004\BBCP.\newblock\BBOQFrameNet-basedSemanticParsingusingMaximumEntropyModels\BBCQ\\newblockIn{\BemProceedingsofCOLING'04},\mbox{\BPGS\1233--1239}.\bibitem[\protect\BCAY{Litkowski}{Litkowski}{2004}]{litkowski04}Litkowski,K.~C.\BBOP2004\BBCP.\newblock\BBOQSENSEVAL-3TaskAutomaticLabelingofSemanticRoles\BBCQ\\newblockIn{\BemSENSEVAL-3,ThirdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText/ACL'04},\mbox{\BPGS\111--137}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{}]{mainichi:_cd}毎日新聞社.\newblock\JBOQCD-毎日新聞(データ集)\JBCQ\\newblock1992--2002年版.\bibitem[\protect\BCAY{小原\JBA大堀\JBA鈴木\JBA藤井\JBA斎藤\JBA石崎}{小原\Jetal}{2005}]{ohara05}小原京子\JBA大堀壽夫\JBA鈴木亮子\JBA藤井聖子\JBA斎藤博昭\JBA石崎俊\BBOP2005\BBCP.\newblock\JBOQ日本語フレームネット:意味タグ付きコーパスの試み\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\1225--1228}.\bibitem[\protect\BCAY{Pradhan,Ward,Hacioglu,Martin,\BBA\Jurafsky}{Pradhanet~al.}{2004}]{pradhan04}Pradhan,S.,Ward,W.,Hacioglu,K.,Martin,J.~H.,\BBA\Jurafsky,D.\BBOP2004\BBCP.\newblock\BBOQShallowSemanticParsingusingSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsofHLT/NAACL'04}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2004}]{sasano04}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQAutomaticConstructionofNominalCaseFramesanditsApplicationtoIndirectAnaphoraResolution\BBCQ\\newblockIn{\BemProceedingsofCOLING'04},\mbox{\BPGS\1201--1207}.\bibitem[\protect\BCAY{竹内}{竹内}{2004}]{takeuchi04}竹内孔一\BBOP2004\BBCP.\newblock\JBOQ語彙概念構造による動詞辞書の作成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\576--579}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田\JBA竹内\JBA阿部}{竹内\Jetal}{2005}]{takeuchi05}竹内孔一\JBA乾健太郎\JBA藤田篤\JBA竹内奈央\JBA阿部修也\BBOP2005\BBCP.\newblock\JBOQ分類の根拠を明示した動詞語彙概念構造辞書の構築\JBCQ\\newblock\Jem{情報処理学会研究報告:自然言語処理},{\Bbf169}(9),\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{vapnik99}Vapnik,V.~N.\BBOP1999\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory\/}(2nd\BEd).\newblockSpringer.\end{thebibliography}\begin{biography}\bioauthor{肥塚真輔}{慶應義塾大学理工学部情報工学科卒業.現在,証券会社にてプログラム開発等の業務に従事.工学修士.}\bioauthor{岡本紘幸}{慶應義塾大学理工学部情報工学科卒業.現在,同大学理工学研究科後期博士課程在学中.自然言語処理の研究に従事.言語処理学会,情報処理学会各学生会員.}\bioauthor{斎藤博昭(正会員)}{慶應義塾大学工学部数理工学科卒業.現在,同大理工学部情報工学科助教授.工学博士.自然言語処理,音声言語理解などに興味を持つ.情報処理学会,言語処理学会,日本音響学会,電子情報通信学会,ACL各会員.}\bioauthor{小原京子}{カリフォルニア大学バークレー校言語学科博士課程修了.現在,慶應義塾大学理工学部助教授,InternationalComputerScienceInstituteならびにカリフォルニア大学バークレー校言語学科客員研究員.Ph.D.(言語学).認知言語学,コーパス言語学の研究に従事.LinguisticSocietyofAmerica(LSA),ACL,InternationalCognitiveLinguisticsAssociation(ICLA),InternationalPragmaticsAssociation(IPrA),日本英語学会,日本言語学会,日本認知言語学会,日本認知科学会各会員.}\end{biography}\biodate\end{document}
V30N02-09
\section{はじめに} \label{sec:introduction}ニューラルエンコーダ・デコーダは,機械翻訳や自動要約などの様々な系列変換タスクにおいて顕著な性能を達成している\cite{DBLP:journals/corr/BahdanauCB14,rush-etal-2015-neural,NIPS2017_3f5ee243}.近年の研究においてニューラルネットワークを用いた手法の性能は訓練データ量に対数比例することが指摘されており\cite{NEURIPS2020_1457c0d6},系列変換タスクにおいても高い性能を達成するためには,大規模な並列コーパスが必要である\cite{koehn-knowles-2017-six}.本稿では,生成型要約タスクにおけるニューラルエンコーダ・デコーダの性能を向上させるために,訓練データを拡張することに取り組む.人手による並列コーパスの構築はコストが高いため,既存研究では疑似訓練データを自動的に構築する方法が検討されている.疑似訓練データを構築する方法としては,逆翻訳\cite{sennrich-etal-2016-improving}が広く用いられている.翻訳タスクにおける逆翻訳では,翻訳先の言語の文から翻訳元の言語の文を生成するモデルを学習し,得られたモデルを翻訳先の言語のコーパスに適用し,翻訳元の言語の疑似コーパスを生成する.また,機械翻訳以外にも,文法誤り訂正\cite{kiyono-etal-2019-empirical}や要約\cite{parida-motlicek-2019-abstract}タスクにおいても,逆翻訳が利用されている.しかしながら,この逆翻訳手法を要約タスクに適用する場合にモデルは,要約から原文を生成する必要があるため,要約タスクにおける逆翻訳は本質的に非合理的である(付録\ref{sec:appendix-backtranslation}).Heら\cite{He2020Revisiting}は,自己学習が機械翻訳や要約タスクの性能を向上させることを示した.自己学習では教師モデルを学習し,そのモデルを入力側のコーパスに適応し,出力側の疑似コーパスを生成する.逆翻訳が非合理的な処理であったのに対し,自己学習による疑似要約の生成は合理的である.しかしながら,自己学習を適用した場合,多様な要約の生成が困難であると指摘されている\cite{gu2018non}.これらの問題に加え,自己学習や逆翻訳において高品質な疑似データを得るためには,大量の訓練データで教師モデルや逆翻訳モデルを学習しておく必要があるため,データ構築のコストが高い.そこで,本研究では生成型要約の疑似訓練データを構築する新たなアプローチとして抽出型要約と言い換えの組み合わせによる手法(ExtractionandParaphrasing;\textbf{ExtraPhrase})を提案する.ExtraPhraseの抽出型要約では,原文の統語構造を基に,ヒューリスティックな手法で重要な部分を要約として残し,原文を圧縮する.このため,逆翻訳や自己学習と異なり,疑似訓練データ作成のためだけにニューラルモデルを構築する必要がない.圧縮された要約に対し,既存のモデルを活用した言い換え手法を適用し,多様な疑似要約を得る.本研究では見出し生成タスクと文書要約タスクで実験を行う.実験を通して,ExtraPhraseによる疑似訓練データは両タスクにおいて性能を向上させることを確認した.具体的には,疑似データを用いることにより両タスクのROUGEF1スコアが0.50以上向上した.提案手法は真の訓練データが少ない低リソースの設定においても頑健であることが確認された(\ref{sec:appendix-lowresource}節).また,生成された疑似データの性質を分析し(\ref{sec:pseudo-diversity}節),提案手法による疑似データの生成が従来手法より効率的であることを示した(\ref{sec:pseudo-efficiency}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法:ExtraPhrase} \label{sec:proposed-method}\ref{sec:introduction}節で述べたように,提案手法は抽出型要約の手法である文圧縮と言い換えの2つのモジュールから構成される.以降では,提案手法の抽出型要約を文圧縮と呼ぶことにする.図\ref{fig:proposed-method}に提案手法の概要を示す.提案手法は単文を入力とし,その文に対応する疑似要約文を生成する.複数の文からなる文書の場合は,各文に対して独立に文圧縮と言い換えを行い,その出力を連結することより,疑似要約を作成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia8f1.pdf}\end{center}\caption{提案手法による疑似データの生成過程の例.}\label{fig:proposed-method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文圧縮}\label{sec:proposed-extractive}文圧縮のモジュールでは,原文の中から重要な部分を獲得する.先行研究ではルールベースの手法\cite{dorr-etal-2003-hedge},構文木から重要部分を検出するアプローチ\cite{filippova-altun-2013-overcoming},ニューラルネットワークを用いた手法\cite{filippova-etal-2015-sentence,kamigaito-etal-2018-higher}などの圧縮方法が提案されている.本研究では,コストの少ない手法,すなわち,新たにモデルを構築する必要のない手法として,与えられた文の構文木を基に文圧縮を行う.本研究では,文の重要な部分は与えられた文の構文木の根付き部分木であると定義する.まず,与えられた文を係り受け解析し,その係り受け木を得る.次に,係り受け木の深いノード,すなわち,末端に近いノードを刈り,元の構文木よりも深さの小さい根付き部分木を得る.本手法では部分木の深さによって,出力要約の長さ(単語数)を調整することができる.最後に,圧縮された根付き部分木を元の文の語順に従って線形化し,与えられた文の要約を得る.図\ref{fig:proposed-method}の下段(左)に本モジュールで行われる処理の例を示す.この例では,係り受け木の深さの半分より深いノードを刈り,根付き部分木を得る.本研究では,文書要約において,先頭の3文を抽出したうえで,その3文に対して上記の処理を適用し,その出力を連結したものを文書の圧縮された要約とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言い換え}\label{sec:proposed-paraphrasing}文圧縮で得られた要約は原文に含まれる単語のみで構成されている.要約の多様性を高めるために要約に言い換えの手法を適用する.高品質なニューラル機械翻訳モデルが公開されているため,言い換えには機械翻訳モデルを用いたアプローチ\cite{mallinson-etal-2017-paraphrasing}を採用する.具体的には,ある文を別の言語に翻訳し,その翻訳文を元の言語に翻訳するという折り返し翻訳を行うことで言い換え表現を得る方法である.このアプローチは様々な言い換えを生成できるため,データ拡張として利用する研究もある\cite{wei2018fast}.そこで,この言い換えのモジュールでは,圧縮された要約に,一般に公開されているニューラル機械翻訳モデルを適用し,翻訳された文章を逆翻訳モデルによって元の言語に翻訳する.文圧縮と同様に,要約に複数の文が含まれる場合は,各文に対して1つずつ言い換えを生成する.図\ref{fig:proposed-method}の右下段に本モジュールの処理の例を示す.この例では,圧縮された要約をドイツ語に翻訳し,翻訳された文を元の英語に翻訳する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}%\caption{データセットの統計.}\label{tab:datasets}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiment}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}\label{sec:exper-dataset}ExtraPhraseの効果を調べるため,見出し生成と文書要約の2つの要約タスクで実験を行った.表\ref{tab:datasets}はデータセットの統計を示している.見出し生成タスクではGigawordデータセット\cite{rush-etal-2015-neural}を用いた.このデータセットには,英語Gigawordコーパスから抽出された約380万の文書の1文目と見出し文の対が訓練データとして含まれる.本実験では,訓練セット,検証セット,およびテストセットの分割はRushら\cite{rush-etal-2015-neural}の設定と同じものを使用した.文書要約タスクでは,広く利用されているCNN/DailyMailデータセット\cite{sennrich-etal-2016-neural}を用いた.このデータセットには,CNNとDailyMailのウェブサイトから抽出されたニュース記事と要約の28万対が訓練データとして含まれている.両データセットにおいて,BytePairEncoding\cite{sennrich-etal-2016-neural}を用い,入力側と出力側で語彙を共有した,サイズ32,000の語彙セットを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}\label{sec:comparison-method}既存研究で提案されてきた代表的な訓練データ拡張手法との比較を行った.疑似データの構築は各データセットの訓練データをもとに行った.なお,Caswellら\cite{caswell-etal-2019-tagged}に従い,全ての疑似訓練データについて,入力の先頭に\verb|<Pseudo>|の特殊トークンを付加した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{オーバーサンプリング}訓練データから原文書と要約の対をサンプリングし,訓練データに追加した.すなわち,この手法で構築される訓練データには,真の訓練データのみが含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{逆翻訳}真の訓練データを用いて,要約から原文を生成するニューラルエンコーダ・デコーダの学習を行った.次に,このモデルを訓練データ内の要約に適用し,対応する原文書を生成した.生成された原文書と真の要約の対を疑似訓練データとして使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{自己学習}各真の訓練データを用いて,原文書から要約を生成するニューラルエンコーダ・デコーダを学習した.次に,訓練データの原文をニューラルエンコーダ・デコーダに入力し,対応する要約を生成した.真の原文書と生成された要約の対を疑似訓練データとして使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ExtraPhrase}各訓練データに対して提案手法のExtraPhraseを適用した.\ref{sec:proposed-method}節で説明したように,提案手法は文単位で疑似要約を生成した.ニューラルエンコーダ・デコーダでは先頭の数文を入力とすることが多いことにならい,文書要約タスクでは,原文書に含まれる冒頭の3文(Lead-3)を提案手法への入力とし,各文の要約を元の順序で連結して原文書の要約とした.文圧縮での係り受け解析には,spaCy\footnote{\url{https://spacy.io/}}を使用した.本実験では,文圧縮のモジュールにおいて,入力文の係り受け木の深さの半分より深いノードを刈った.言い換えでは,Ngら\cite{ng-etal-2019-facebook}が構築した英独・独英翻訳モデル\footnote{\url{https://github.com/pytorch/fairseq/tree/main/examples/translation}}を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エンコーダ・デコーダ}\label{sec:exper-encdec}本実験では,ニューラルエンコーダ・デコーダモデルとして,Transformer\cite{NIPS2017_3f5ee243}を用いた.各生成要約のモデルに加えて,逆翻訳手法の逆翻訳モデルと自己学習手法の教師モデルもTransformerを使用した.モデルの設定として,\citeA{NIPS2017_3f5ee243}に記載されているTransformer-baseの設定を採用した.この設定は,機械翻訳に関する研究において広く用いられている\cite{NIPS2017_3f5ee243,ott-etal-2018-scaling}.詳細には,fairseq\footnote{\url{https://github.com/pytorch/fairseq}}\cite{ott-etal-2019-fairseq}の実装を実験に利用し,学習時のハイパーパラメータは既存研究\cite{NIPS2017_3f5ee243}で使われている設定を用いた.詳細な設定は付録\ref{sec:appendix-hyper}に示されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{08table02.tex}%\caption{見出し生成タスクにおけるROUGEF1スコア.丸括弧の中は真の訓練事例数を示す.}\label{table:main-result-headline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{08table03.tex}%\caption{文書要約タスクにおけるROUGEF1スコア.丸括弧の中は真の訓練事例数を示す.}\label{table:main-result-docsum}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}\label{sec:main-result}表\ref{table:main-result-headline}と\ref{table:main-result-docsum}に,見出し生成タスクと文書要約タスクにおける真の訓練データのみを用いた場合と,各データ拡張手法を用いた場合のROUGEスコア\cite{lin-2004-rouge}を示す.オーバーサンプリングは拡張を行わない場合よりも高いスコアを達成した.この結果は,訓練データ量が増えるほど,重複した学習事例であってもニューラルエンコーダ・デコーダの性能が向上することを示唆している.逆翻訳と自己学習は拡張を行わない場合よりも性能は高いが,オーバーサンプリングと同程度のスコアであった.これらの結果は,性能改善は両者が生成する疑似データの品質ではなく,訓練データの増加によってもたらされたことを示唆している.逆翻訳と自己学習は疑似データの生成に別のモデルを学習する必要があるため,そのコストを考慮するとオーバーサンプリングが優れている.一方,見出し生成と文書要約の両方のタスクで,ExtraPhraseは他のデータ拡張手法よりも高い性能を達成した.見出し生成タスクにおいて,ExtraPhraseによるデータ拡張は,データ拡張を行わない場合から,全てのROUGEスコアで$0.50$ポイント以上を向上させた.ExtraPhraseは,逆翻訳と自己学習の既存の拡張法と比較し,ROUGE-1とROUGE-Lでは要約性能の向上幅が小さいが,ROUGE-2スコアで性能の大幅な向上が見られた.文書要約において,提案手法によるデータ拡張は,拡張を行わない場合と比較して全てのROUGEスコアを有意に向上させた\footnote{スチューデントのt検定で$p<0.05$.}.これらの結果から,ExtraPhraseはオーバーサンプリング,逆翻訳,自己学習を含む既存のデータ拡張手法よりも,生成型要約タスクのための疑似データを構築するのに有効であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{08table04.tex}%\caption{見出し生成タスクにおけるアブレーション.丸括弧の中は真の訓練事例数を示す.}\label{table:analysis-headline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{08table05.tex}%\caption{文書要約タスクにおけるアブレーション.丸括弧の中は真の訓練事例数を示す.}\label{table:analysis-docsum}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アブレーション}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文圧縮と言い換えの効果}表\ref{table:analysis-headline}(a)と表\ref{table:analysis-docsum}(a)において,「w/o言い換え」と「w/o文圧縮」は,\ref{sec:proposed-method}節で述べた文圧縮のみと言い換えのみを適用し,疑似要約を得た手法である.見出し生成タスクでは,「w/o言い換え」は拡張なしの設定よりも高い性能を達成した.また,小さな差ではあるが,ROUGE-1,ROUGE-Lにおいて,「w/o言い換え」はExtraPhraseよりも高いスコアを示した.「w/o文圧縮」は,ExtraPhraseと比較してROUGE-1およびROUGE-Lのスコアは同等であるが,ROUGE-2のスコアは低下した.この結果から,見出し生成タスクにおいて,文圧縮と言い換えの各モジュールが性能の向上に貢献したと考えられる.文書要約において,冒頭の3文を提案手法を適用せずに疑似要約として扱う場合の結果を,表\ref{table:analysis-docsum}の「Lead-3による拡張」に示した.表\ref{table:analysis-docsum}により,「w/o言い換え」と「w/o文圧縮」の場合は,「Lead-3による拡張」よりも高いスコアを達成した.これらの結果から,文書要約タスクにおいても,ExtraPhraseの各モジュールが要約性能の向上に貢献していることを示唆している.また,表\ref{table:analysis-docsum}(a)の比較から,各モジュールのみを用いた場合は,ExtraPhraseより性能が低い.そのことから,ExtraPhraseは,各モジュールを単独で使用した場合よりも優れていることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文圧縮率の効果}本節では,ExtraPhraseの文圧縮モジュールにおける圧縮率,すなわち,枝刈りの深さが性能に与える影響を調べた.文圧縮の圧縮率を変化させ,疑似要約を生成した際の実験結果を表\ref{table:analysis-headline}(b)と表\ref{table:analysis-docsum}(b)に示した.見出し生成と文書要約の両タスクにおいて,圧縮率が$0.5$の場合が一番高い性能が達成した.圧縮率が$0.3$の場合は,$0.5$の場合より性能が低く,拡張なしの場合と同等の結果が確認された.この低い性能は,圧縮率が小さい枝刈りでは非常に短い疑似要約が出力されることによるものと考えられる.本手法の文圧縮モジュールでは,単文を入力としているため,$0.3$のような小さい圧縮率で枝刈りした際には,構文木の根周辺のみが残され,疑似要約の質低下に影響すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{疑似訓練事例数の効果}本節では,ExtraPhraseの疑似訓練事例数による要約性能への影響を調べた.疑似データを増やすため,ExtraPhraseの言い換えモジュールでの機械翻訳の各ステップにおいて,翻訳モデルに複数の候補翻訳文を出力させ,一つの原文に対し,複数の疑似要約を取得した.表\ref{table:analysis-headline}(c)と表\ref{table:analysis-docsum}(c)には,疑似訓練事例数を4倍にするために,言い換えモジュールの折り返し翻訳の各翻訳フェーズにおいて,2best翻訳の出力を用いることで,4つの疑似要約を得た「4best翻訳」が示されている.表\ref{table:analysis-headline}(c)と表\ref{table:analysis-docsum}(c)から,「4best翻訳」により疑似訓練事例数を4倍にした際,見出し生成と文書要約の両方のタスクにおいて,「1best翻訳」の場合より高い性能が確認された.この結果から,疑似訓練事例の増加が性能の向上に貢献していることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{低リソース設定}\label{sec:appendix-lowresource}ExtraPhraseは,疑似訓練データを生成するためにニューラルモデルを訓練する必要がないため,真の訓練データの量が少ない場合でも,頑健であると予想される.この仮説を調べるために,低リソースな訓練データの設定で実験を行った.見出し生成タスクと文書要約タスクの各訓練セットから,1千件の事例を抽出した.抽出された事例は,真の訓練データとし,残りの事例を疑似データの生成に利用した.比較手法と実験設定は\ref{sec:experiment}節と同様である.表\ref{table:lowresource-gigaword-result}と\ref{table:lowresource-cnndm-result}に,見出し生成タスクと文書要約タスクにおける各手法のROUGEF1スコアを示す.両タスクにおいて,オーバーサンプリングは拡張なしを上回る性能を示した.このように,重複した学習データはニューラルエンコーダ・デコーダモデルの性能を向上させた.この結果は,\ref{sec:main-result}の結果と整合性がある.表\ref{table:lowresource-gigaword-result}により,見出し生成では,逆翻訳がオーバーサンプリングより高いスコアを達成した.また,表\ref{table:lowresource-cnndm-result}により,文書要約では自己学習がオーバーサンプリングより優れていることが分かった.この結果は,適切なタスクに適用すれば,既存のアプローチがオーバーサンプリングよりも効果的である可能性を示している.一方,ExtraPhraseは両タスクにおいて他の手法より有意に高い性能を発揮した.よって,ExtraPhraseは真の訓練データの量が少ない場合にも有効であることが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{08table06.tex}%\caption{低リソース設定における見出し生成タスクの結果.丸括弧の中は真の訓練事例数を示す.}\label{table:lowresource-gigaword-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{08table07.tex}%\caption{低リソース設定における文書要約タスクの結果.丸括弧の中は真の訓練事例数を示す.}\label{table:lowresource-cnndm-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似データの多様性}\label{sec:pseudo-diversity}\ref{sec:introduction}節で述べたように,ExtraPhraseは自己学習より多様な要約を生成するために言い換えを行っている.この効果を検証するために,自己学習と提案手法により生成された疑似要約を比較する.表\ref{table:bleu-bert}は各訓練データにおける真の要約と生成された疑似要約のBLEUスコアを示している.また,意味的類似性の指標としてF1ベースのBERTScore\cite{DBLP:journals/corr/abs-1904-09675}も示している.この表から,自己学習とExtraPhraseのBERTScoreは高いことがわかる.この結果は生成された要約が真の要約と意味的に類似していることを意味する.このことから,いずれの方法で生成された要約も疑似データとして意味的に適していると言える.一方,ExtraPhraseのBLEUスコアは自己学習のスコアよりも低い.この結果は,自己学習と比較して提案手法が真の要約と異なるフレーズを多く含んだ疑似要約を生成していることを示している.すなわち,提案手法で構築した訓練データは自己学習よりも多様な要約を含むことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{08table08.tex}%\caption{生成された疑似要約の真の要約に対するBLEUとF1BERTScores.}\label{table:bleu-bert}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{08table09.tex}%\caption{生成された疑似要約の真の要約に対するBLEUとF1BERTScores.}\label{table:aws-cost}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似データ生成の効率}\label{sec:pseudo-efficiency}ExtraPhraseは公開されている翻訳モデルをそのまま用いることができるため,逆翻訳や自己学習のように翻訳・生成モデルを学習する必要はない.そのため,既存手法と比較すると低コストで疑似データを構築できる.表\ref{table:aws-cost}は各疑似データの構築手法の所要時間\footnote{消費時間は1GPUの場合で計算している.}を示す.また,クラウドコンピューティングサービスであるAmazonEC2を用いて疑似データを構築した場合に必要な費用も示している.表\ref{table:aws-cost}から,逆翻訳と自己学習はモデルの学習に多くの時間を要することがわかる.一方,ExtraPhraseでは学習を必要としないため,他の手法と比較して1/10以下の金額で疑似データを構築できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 系列変換タスクのデータ拡張手法として,逆翻訳と自己学習は広く使われている手法である\cite{sennrich-etal-2016-improving,kiyono-etal-2019-empirical,He2020Revisiting}.Sennichら\cite{sennrich-etal-2016-improving}は,出力側の言語のデータから入力側の言語に翻訳して疑似データを生成し,機械翻訳の訓練データを拡張する逆翻訳アプローチを提案した.Edunovら\cite{edunov-etal-2018-understanding}は,機械翻訳のための大規模なモノリンガル設定における逆翻訳アプローチの有効性を報告した.また,Hoangら\cite{hoang-etal-2018-iterative}は,逆翻訳を複数回繰り返し適用する反復逆翻訳手法を紹介した.逆翻訳は機械翻訳において有効なアプローチであるが,\ref{sec:introduction}節で述べたように,要約タスクに適用するのは非現実的である.自己学習では,真の訓練データでモデルを学習し,それを応用して疑似データを生成する.Zhangら\cite{zhang-zong-2016-exploiting}は,ニューラル機械翻訳用の並列コーパスを拡張するために自己学習を適用した.Heら\cite{He2020Revisiting}は,自己学習において,デコード中にドロップアウトをノイズとして用いるノイズ自己学習を導入した.これらの研究では,自己学習は機械翻訳や要約タスクにおいて有効な手法と報告されているが,多様な疑似データを生成することは困難である\cite{gu2018non}ため,性能の向上に限界がある.他のデータ拡張法として,訓練データとの差異が小さい摂動を用いて性能改善を行う手法はある\cite{kobayashi-2018-contextual}.Takaseら\cite{takase-kiyono-2021-rethinking}は,単語ドロップアウトや単語置換のような単純な手法は敵対的摂動よりも効率的に性能を向上させられることを示した.これらの摂動は本研究の提案手法と独立しているため,組み合わせることでさらに性能向上が期待できる.近年の研究においては,大規模な事前学習モデルを利用することにより要約の性能が向上することが報告されている\cite{lewis-etal-2020-bart,JMLR:raffel-T5,zhang-pegasus}.しかしながら,BART\cite{lewis-etal-2020-bart}やT5\cite{JMLR:raffel-T5}などの汎用事前学習モデルを利用する場合,要約タスクに合わせたファインチューニングが必要であり,そのために学習データを準備する必要がある.PEGASUS\cite{zhang-pegasus}のような要約タスクに特化した事前学習モデルを用いる場合でも,事前学習とファインチューニングの学習データが必要である.このような状況において,提案手法は,事前学習モデルのファインチューニングを行う学習データを拡張する手法として用いることができる.また,提案手法は構文木を用いているため,事前学習モデルの対象言語やドメインに依存せず柔軟に適用できる.提案手法では文圧縮の手法が用いられている.Dorrら\cite{dorr-etal-2003-hedge}は言語学的に動機づけられたヒューリスティックを用いたルールベースの文圧縮手法を提案した.Filippovaら\cite{filippova-altun-2013-overcoming}は訓練データから重要な部分木を学習する教師あり文圧縮法を提案した.また,近年ではニューラルネットを用いた文圧縮の研究も行われている\cite{filippova-etal-2015-sentence,kamigaito-etal-2018-higher}.本研究では教師ありモデルや学習コーパスを必要としない,文の構文木に基づくルールベースの手法を採用し文の圧縮を行った.Nikolovら\cite{nikolov-hahnloser-2020-abstractive}は要約の教師なし手法として文の抽出と言い換えを組み合わせたアプローチを提案した.本研究の目的は疑似訓練データを構築することであり,新しい教師なし手法を提案することではない.提案手法は圧縮された要約に対して言い換えを行い,疑似データの多様性を高めている.Bolshakovら\cite{10.1007/978-3-540-27779-8_27}は辞書に基づき単語を同義語に置き換えることで,言い換えを行う手法を提案した.最近では,言い換えタスクを系列変換タスクとして定式化することにより,ニューラルベースの言い換え生成を行う手法が提案されている\cite{prakash-etal-2016-neural}.また,機械翻訳モデルを用いた折り返し翻訳による言い換え文生成も提案されている\cite{mallinson-etal-2017-paraphrasing}.近年は高性能な機械翻訳モデルは公開されているため,本研究では言い換え生成の手法として折り返し翻訳を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,生成型要約タスクのための疑似データを生成する新しい手法を提案した.提案手法は文圧縮と言い換えの2つのモジュールから構成される.文圧縮により入力の重要な部分を獲得し,言い換えにより多様な表現を得る.実験の結果,提案手法は逆翻訳や自己学習の疑似データ生成手法と比較して,より効果的であることが示された.また,提案手法は疑似データ生成において追加でモデルを学習する必要がないため,他の手法に対して,コストの面でも優れていることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{逆翻訳による疑似データ} \label{sec:appendix-backtranslation}\ref{sec:introduction}節で述べたように,生成型要約タスクにおける逆翻訳アプローチは,要約から原文を復元する必要があるため,本質的に不可能である.そこで,逆翻訳により生成された原文の性質を調べた.表\ref{table:rouge-BT}は,逆翻訳により生成された原文の長さ(トークン数)の比率と差とを示す.生成された原文は元の原文より短いことが分かる.この結果は,逆翻訳が真の原文の情報を完全に復元できていないことを示している.つまり,要約から原文を生成することが難しいことを意味している.また,逆翻訳により生成された原文が真のデータに対応しているかを調べるために,真の原文を正解と見なした場合のROUGEスコアを表\ref{table:rouge-BT}に示す.文書要約の場合,ROUGEスコアは極めて低くなっている.この結果からも,逆翻訳は原文の生成に失敗していることがわかる.一方,見出し生成のROUGEスコアは文書要約のROUGEスコアと比較して高い.この結果は,逆翻訳は要約から原文の核となる部分を復元できる可能性を示している.見出し生成タスクは,与えられた文章から見出しを生成するタスクであるため,要約(見出し)には原文の主要な部分が含まれていることが多い.このような性質が高いROUGEスコアの要因になっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{08table10.tex}%\hangcaption{逆翻訳により生成された原文と真の原文とのROUGEF1スコア.比率と差は,生成された原文と真の原文に含まれるトークン数の比較である.}\label{table:rouge-BT}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{08table11.tex}%\caption{要約と逆翻訳で用いられたTransformerモデルの構成.}\label{table:transformer-config}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定の詳細} \label{sec:appendix-hyper}本研究では,要約モデルと逆翻訳モデルでTransformer(base)\cite{NIPS2017_3f5ee243}のアーキテクチャを用いた.モデルの詳細な構成を表\ref{table:transformer-config}に示す.また,学習時の詳細な設定を表\ref{table:training-config-giga}と表\ref{table:training-config-cnndm}に示す.各設定は,4枚のGPUで実施した実験を想定している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{08table12.tex}%\caption{見出し生成タスクにおけるデータ拡張なしとデータ拡張あり場合の学習設定.}\label{table:training-config-giga}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{08table13.tex}%\caption{文書要約タスクにおけるデータ拡張なしとデータ拡張あり場合の学習設定.}\label{table:training-config-cnndm}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSPS科研費19H01118およびJP21K17800の助成を受けたものです.本研究成果の一部は,独立行政法人情報通信研究機構(NICT)の委託研究(No.~225)により得られたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{08refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor[:]{MengsayLoem}{%2022年東京工業大学情報理工学院情報工学系卒業.同年4月より情報理工学院情報工学系知能情報コース修士課程に在学中.}\bioauthor{高瀬翔}{%2012年東北大学工学部卒業.2014年東北大学大学院情報科学研究科博士前期課程修了.2017年東北大学大学院情報科学研究科博士後期課程修了.博士(情報科学).NTTコミュニケーション科学基礎研究所でのリサーチアソシエイト,東京工業大学での研究員,東京工業大学情報理工学院助教を経て,2022年10月よりシニアリサーチャーとしてLINE株式会社に所属.言語処理学会,ACL各会員.}\bioauthor{金子正弘}{%2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京(現東京都立大学)システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,首都大学東京システムデザイン研究科博士後期課程に進学.2019年より日本学術振興会特別研究員(DC2)を経て,2021年博士後期課程修了.博士(情報科学).同年より東京工業大学情報理工学院研究員.現在に至る.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V10N05-05
\section{はじめに} インターネットが急速に広まり,その社会における重要性が急速に高まりつつある現在,他言語のウェブ情報を閲覧したり,多言語で情報を発信するなど,機械翻訳の需要は一層高まっている.これまで,機械翻訳の様々な手法が提案されてきたが,大量のコーパスが利用可能となってきたことにともない用例ベース翻訳\cite{Nagao1984}や統計ベース翻訳\cite{Brown1990}が主な研究対象となってきている.本稿は前者の用例ベース翻訳に注目する.用例ベース翻訳とは,翻訳すべき入力文に対して,それと類似した翻訳用例をもとに翻訳を行なう方式である.経験豊かな人間が翻訳を行う場合でも用例を利用して翻訳を行っており,この方式は他の手法よりも自然な翻訳文の生成が可能だと考えられる.また,用例の追加により容易にシステムを改善可能である.以上のような利点を持つものの,用例ベース方式は翻訳対象領域をマニュアルや旅行会話などに限定して研究されている段階であり,ウェブドキュメント等を翻訳できるような一般的な翻訳システムは実現されていない.その実現が困難な理由の一つに,用例の不足が挙げられる.用例ベース翻訳は入力文とできるだけ近い文脈をもつ用例を使うため,用例は対訳辞書のように独立した翻訳ペアではなく,まわりに文脈を持つことが必要である.つまり,用例中のある句が相手側言語のある句と対応するというような対応関係が必要となる.用例ベース翻訳を実現するためには大量の用例が必要だが,人手でこのような用例を作成するのは大量のコストがかかる.そこで,対訳文に対して句アライメントを行い用例として利用できるように変換する研究が90年代初頭から行われてきた.当初は,依存構造や句構造を用いた研究が中心であったが\cite{Sadler1990,Matsumoto1993,Kaji1992},構文解析の精度が低いために実証的な成果が上がらなかった.その後には,構造を用いず用例を単なる語列として扱った統計的手法が研究の中心となっている\cite{北村1997,Sato2002}.統計的手法によって対応関係を高精度に得ることは可能だが,そのためには大量の対訳コーパスが必要となる.近年は構文解析の精度が日英両言語で飛躍的に向上し,再び構造的な対応付けが試みられている.Menezes等\cite{Menezes2001}は,マニュアルというドメインで依存構造上の句アライメントを行なっている.今村\cite{今村2002}は,旅行会話というドメインで句構造的上の句アライメントを行なっている.これらの先行研究は,限定されたドメインのパラレリズムが高いコーパスを扱っており,一般的なコーパスが用いられていない.本稿はコーパスに依存しない対応付けを実現するために依存構造上の位置関係を一般的に扱い,対応全体の整合性を考慮することにより対応関係を推定する.これは,\cite{Watanabe2000}を基本句の概念を導入して発展させたものである.本稿の構成は以下のとおりである.2章で提案手法について述べる.3章で実験と考察を述べ,4章にまとめを付す. \section{提案手法} 提案手法は,対訳文を入力とし,両言語に含まれている{\bf基本句}(次節にて定義)間の対応関係を推定する.提案手法の本質的な部分は対象とする言語ペアに依存しないが,実験は日英間で行なったため,以下の章では日英を対象として手法を説明する.提案手法の大まかな流れは次のようになる.\vspace{1ex}\begin{enumerate}\item{\bf基本句を単位とした依存構造への変換}:日英両言語の文を構文解析し,語をまとめることにより,基本句を単位とした依存構造を得る.\item{\bf辞書の情報による対応関係の推定}:日英対訳辞書(以下,{\bf辞書}とよぶ)を利用し基本句対応を推定する.\item{\bf未対応句の処理}:辞書の情報では対応のつかなかった基本句(以下,このような句を{\bf未対応句}とよぶ)を含んだ基本句対応を推定する.\end{enumerate}\vspace{1ex}\subsection{基本句}日本語では,語(形態素)という単位の基準が曖昧であり,高精度に自動検出することができる文節が統語解析の単位として一般的に用いられてきた.一方,英語においては,語の基準が明確であるため,文節に相当する単位は通常用いられない.これら両言語の言語の構造を照合する際には,従来,語を単位とした構造照合が行われてきた\cite{Matsumoto1993,Kaji1992}.提案手法では,文節に相当する単位を英語に導入し,両言語の構造を文節に相当する単位で照合する.英語には,文節に相当する単位は存在しないため,本稿では,この単位を{\bf基本句}とよぶ.基本句を対応の単位とすることのメリットは次のようにまとめられる.\vspace{1ex}\begin{enumerate}\item複合名詞などにおける基本句の内部の結びつきは強い結び付きであるので,対応の整合性を調べる際の強い手がかりとできる.\item機能語は各言語固有の振る舞いがあり,それをバラバラに扱うと問題が複雑になってしまう.基本句を単位とすることにより内容語中心の取り扱いとなり,問題が単純化される.\itemある対応が周辺と整合的であるかどうかを計算する場合に,まわりとの距離の尺度が必要であるが,単語を単位として考えるよりも,基本句を単位とする方が妥当な尺度となる.\end{enumerate}\vspace{1ex}\subsection{基本句を単位とした依存構造への変換}\begin{figure}\begin{center}\leavevmode\epsfxsize=12cm\epsfysize=8.2cm\epsfbox{f_kihonnku2.eps}\caption{基本句を単位とした依存構造}\label{f_kihonnku2.eps}\end{center}\end{figure}まず,対訳文中の両言語の文を統語解析し,その結果を基本句を単位とした依存構造に変換する.これは日英それぞれ次のように行なう.日本語の文については,KNP\cite{Kurohashi1994}を用いて統語解析を行なう.その結果得られる「$(接頭辞*)(内容語+)(機能語*)$」という構造を持つ文節を基本句とする(*は0回以上の繰り返し,+は1回以上の繰り返し).文節と異なる点は,「(〜に)ついて」や「(〜に)おいて」など,機能的表現となっている内容語を直前の文節にまとめることである.ここでいう機能的表現となる文節は,人手で登録した文節パターン約30に当てはまる文節と,KNPの解析結果が<複合辞>となる文節とする.英語の文については,Charniakの統語解析システム\cite{Charniak2000}を用いて解析を行なう.これは句構造を出力するので,各句構造規則に主辞を定義することにより依存構造に変換する.次に内容語を中心にして,その前後の機能語(前置詞・冠詞・不定詞など)をまとめる.これには次の規則を用いた.\vspace{1ex}\begin{enumerate}\item複合名詞をまとめる(例:the\underline{oilcrises})\item機能語を内容語とまとめる(例:\underline{atthis}meeting)\item助動詞や助動詞的表現を主動詞とまとめる(例:\underline{hadbetter}study)\end{enumerate}\vspace{1ex}図\ref{f_kihonnku2.eps}に,両言語の文を基本句を単位とした依存構造に変換した例を示す.日本語側の「役割に向け」の「向け」や,「踏み出すことになる」と」の「ことになる」が機能的表現であるために直前の文節にまとめられて基本句となっている.英語側では,(1)〜(3)の規則により,図\ref{f_kihonnku2.eps}右のように語がまとめられる.日本語側との大きな相違点は,基本句をまとめる際に表層の文字列上でギャップが発生する場合があることである.例えば,``〜towardanewNATO〜''は,``toward''と``a''をその係り先である``NATO''にまとめた結果,``towardaNATO'と``new''に分けて基本句となる.このように基本句でもとの語順が保存されない場合は,本稿中では,``an_step'',``(important)''のように表記する.\subsection{辞書の情報による対応関係の推定}\subsubsection{辞書対応リンクの付与}\begin{figure}\begin{center}\leavevmode\epsfxsize=11cm\epsfysize=8.2cm\epsfbox{f_d-link.eps}\end{center}\caption{辞書対応リンク}\label{f_d-link.eps}\end{figure}辞書(日本語の見出し語:約14万語)を用いて日英の内容語間に対応をつける.辞書には単語間あるいは単語列間(例:「寝る」$\Leftrightarrow$``gotobed'',「事務総長」$\Leftrightarrow$``secretarygeneral''など)の対応関係が記述されており,対訳文中の両言語の語(列)と一致するものがあれば,対訳文中の両言語の語(列)同士をリンク付ける(以下,このリンクを{\bf辞書対応リンク}とよぶ).両言語とも内容語を含まない対応関係(例:「で」$\Leftrightarrow$``at''など)や,片側の言語で内容語を含まない対応関係(例:「進行中の」$\Leftrightarrow$``on''など)については,曖昧性が高いために辞書対応リンクを付与しない.ある語(列)の訳語が相手側言語に複数存在すれば,語(列)は複数の辞書対応リンクを持つ.以降,このような辞書対応リンクを{\bf曖昧な}辞書対応リンクよぶ.一方,辞書対応リンクが1本だけ付与されている単語(列)において,その辞書対応リンクを{\bf一意な}辞書対応リンクよぶ.図\ref{f_d-link.eps}は先の図\ref{f_kihonnku2.eps}の対訳文に張られる辞書対応リンクの例である.\subsubsection{辞書の情報による基本句対応の推定}\begin{figure}\begin{center}\leavevmode\epsfxsize=11cm\epsfysize=8.2cm\epsfbox{f_kouho4.eps}\end{center}\caption{辞書対応リンクと基本句対応の候補}\label{f_kouho4.eps}\end{figure}次に辞書対応リンクを用いて,基本句の対応({\bf基本句対応})を推定する.これは次のような手続きで行なう.まず,基本句が辞書対応リンクで接続されており,かつ,日英それぞれで依存関係で接続されていることを条件に,対訳文中からあらゆる基本句対応の候補(以降,{\bf候補}とよぶ)を生成する.例えば,図\ref{f_d-link.eps}の例では,7つの候補を生成する(図\ref{f_kouho4.eps}の候補1〜7).ここで,候補7に含まれている語(列)には,曖昧な辞書対応リンクを持ったものがない.このような候補(以降,{\bf一意な候補}とよぶ)を採用して基本句対応とする.候補1〜6には,曖昧な辞書対応リンクをもった語(列)が存在する.このような候補(以降,{\bf曖昧な候補}とよぶ)については次の手順で採用する候補を判定する.\vspace{1ex}\vspace{1ex}\begin{description}\itemstep1:曖昧な候補のスコア計算\itemstep2:最高スコアを持つ候補を採用\itemstep3:採用した候補と重複する候補は削除.候補が残っているならstep1へ,残っていないならstep4へ.\itemstep4:基本句対応の棄却判定\end{description}\vspace{1ex}\vspace{1ex}step1では曖昧な候補にスコアを付与する.スコアは次の2つの整合性を用いて以下のように定義する.\vspace{1ex}\begin{description}\item{\bf内的整合性}:対応内部に含まれる辞書対応リンクの整合性\item{\bf外的整合性}:近傍のすでに採用された基本句対応の整合性\end{description}\vspace{1ex}\[(基本句対応候補のスコア)=(内的整合性)\timesC+(外的整合性)\times(1-C)\]Cは定数であり,どちらの情報をより重視するかのパラメータである.\subsubsection*{\underline{内的整合性}}基本句対応の候補内に辞書対応リンクを多く持っている場合,その候補は信頼性が高い.そこで,候補内の辞書対応リンクの情報を内的整合性として,以下のように定義する.\[(内的整合性)=\frac{D_j+D_e}{W_j+W_e}\times\log(D_j+D_e)\]ただし,$W_j$は候補内の日本語の内容語の数,$W_e$は英語の内容語の数である.$D_j$は辞書対応リンクを付与されている日本語の内容語の数,$D_e$は辞書対応リンクを付与されている英語の内容語の数である.$\frac{D_j+D_e}{W_j+W_e}$は,候補内の辞書対応リンクの充足の度合いを示しており,候補内のすべての内容語が辞書対応リンクを付与されている場合に最大値である1をとる.ここで,すべての内容語が辞書対応リンクで接続されていても,内容語数が1:1の候補と,2:2の候補では,後者の候補の方が候補内の辞書対応リンクがお互いに支持しあっており,信頼性が高いと考えられる.そこで後者を優先するために,log$(D_j+D_e)$により重み付けをしている.例えば,図\ref{f_kouho4.eps}の候補3は内容語数が9つ(日本語側4つ,英語側5つ)であり,そのうちの8つが辞書対応リンクをもつ.よって,内的整合性は1.84(=$\frac{4+4}{4+5}×\log(4+4)$)となり,候補1〜6の中でもっとも高い値となる.\subsubsection*{\underline{外的整合性}}\begin{figure}\begin{center}\leavevmode\epsfxsize=8cm\epsfysize=5.6cm\epsfbox{f_gaiteki2.eps}\end{center}\caption{外的整合性}\label{f外的整合性}\end{figure}候補の近傍に基本句対応が多く存在すればするほど,その候補は他の基本句対応に支持されており確かだと考えられる.本稿ではこの支持を外的整合性とよぶ.外的整合性は,候補の近傍の基本句のうち,基本句対応に含まれるものの割合を用いて以下のように定義する.\[(外的整合性)=\frac{\sum_i(C_iによる候補への支持)}{\#(N_j)+\#(N_e)}\\\]{\small\[(C_iによる候補への支持)=\left\{\begin{array}{@{\hspace{0.6mm}}ll}\#(C_{ij}\capN_j)+\#(C_{ie}\capN_e)&\\mbox{if}\\#(C_{ij}\capN_j)>0かつ\#(C_{ie}\capN_e)>0\\0&\\mbox{otherwise}\\end{array}\right.\]}ただし,$N_j$は候補の日本語側の近傍に存在する基本句の集合,$N_e$は候補の英語側の近傍に存在する基本句の集合,$C_{ij}$は基本句対応$C_i$の日本語側の基本句の集合,$C_{ie}$は基本句対応$C_i$の英語側の基本句の集合である.\#は集合の要素数を示す.{\bf近傍}とは,依存構造上で基本句間の距離が2以内に含まれる基本句の集合と定義する\footnote{近傍を依存構造上で基本句間の距離1〜3と変化させて実験を行ったが,距離2が高い精度を示した.よって,ここでは依存構造上で基本句間の距離2を近傍とした.どの範囲を近傍と扱うのがよいかは対訳コーパスに依存し,本稿では詳細に取り扱わなかった.}.例えば,図\ref{f外的整合性}で「NATOは」$\Leftrightarrow$``towarda_NATO''という候補に注目してみと,日本語側の「NATOは」近傍には4つの基本句があり,英語側の``towarda_NATO''近傍にも4つの基本句がある.この近傍の基本句対応は「一歩を」$\Leftrightarrow$``an_step''だけなので,外的整合性は,0.25(=$\frac{2}{4+4}$)となる.\vspace{1ex}\vspace{1ex}\vspace{1ex}\vspace{1ex}step2では,曖昧な候補のうち最も高いスコアを持つものを採用し,候補を基本句対応とする.この際,基本句対応を次の4つに分類しておく.この分類は後の処理で利用する.\vspace{1ex}\begin{enumerate}\item{\bf充足対応}:内的整合性が1である基本句対応.この基本句対応は対応内のすべての内容語が辞書対応リンクを付与されている.\item{\bf日本語過剰対応}:基本句対応内の英語側の内容語はすべて辞書対応リンクが付与されており,日本語側の内容語の一部が辞書対応リンクを付与されていない基本句対応.\item{\bf英語過剰対応}:基本句対応内の日本語側の内容語はすべて辞書対応リンクが付与されており,英語側の内容語の一部が辞書対応リンクを付与されていない基本句対応.\item{\bf不安定対応}:基本句対応内の日英いずれの言語側にも辞書対応リンクを付与されていない内容語が含まれている基本句対応.\end{enumerate}\vspace{1ex}step3では,基本句対応が持つ基本句と候補が持つ基本句が重複していれば,その候補を削除する.例えば図\ref{f_d-link.eps}の下例では候補3を採用すると,候補1〜2,4〜6は削除する.まだ候補が残っているならば,次の候補を採用するためにstep1に戻る.候補が存在しないならば,step4に移る.step4では,すべての基本句対応について外的整合性を計算し,外的整合性が0であれば,その基本句対応を棄却する.この処理を行なう理由は次のようになる.先に一意な候補は外的整合性がなくても無条件に採用した.また,曖昧な候補についても,内的整合性が高ければ外的整合性がなくても採用されうる.しかし,外的整合性が小さい基本句対応は誤っている可能性が高く,ここで外的整合性の有無を手がかりとして基本句対応の棄却を行なう.\subsection{未対応句の処理}\begin{figure}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=8.2cm\epsfbox{f_kisoku.eps}\end{center}\caption{未対応句の推定規則}\label{f_kisoku.eps}\end{figure}先の処理で推定された基本句対応だけでは,対応付けられていない基本句が残る場合がある.このような未対応句を対応付ける場合,次の2通りの可能性がある.\vspace{1ex}\begin{enumerate}\item未対応句同士を基本句対応とする(以降,{\bf新規対応}とよぶ)\item未対応句をすでに推定された基本句対応に含めて新たな基本句対応とする(以降,{\bf拡張対応}とよぶ)\end{enumerate}\vspace{1ex}そこで,コーパスを調査して図\ref{f_kisoku.eps}のような新規対応と拡張対応を推定する規則を作成した.未対応句の対応付けは規則に適合した場合に行なう.新規対応の規則は,日本語側のn個の未対応句(以降,{\bf未対応句群}とよぶ)と英語側のm個の未対応句群が,それぞれの親方向,子方向が対応付けられている,あるいは端点となっている場合に,それらを基本句対応とする.ただし,未対応句群に含まれる未対応句は依存構造上で連続していることを条件とする.\vspace{1ex}\begin{description}\item{\bf新規-a}:両言語の未対応句群の親同士が対応付けられていおり,子同士が対応付けられている場合.ただし,子が複数ある場合は,いずれかの子同士が対応付けられていればよいものとする.\item{\bf新規-b}:両言語の未対応句群がともに依存構造上の葉である場合,両言語の未対応句群の親同士が対応付けられており,かつ,兄弟がすべて基本句対応に含まれている場合.ただし,兄弟同士が対応付けられている必要はない.\item{\bf新規-c}:両言語の未対応句群がともに依存構造上の根であり,子同士が対応付けられている場合.ただし,子が複数ある場合はいずれかの子同士が対応付けられていればよいものとする.\end{description}\vspace{1ex}\vspace{1ex}拡張対応も新規対応と同様に,未対応句群の親方向,子方向が対応付けられている,あるいは端点となっている場合に未対応句群の対応付けを行なうが,未対応句群が片方の言語側だけに存在する点が異なる.ここで,基本句対応を不適切に拡張対応としてしまわないように,拡張対応は次の2つの条件のいずれかを満たすものとする.条件のいずれかを満たした上で以下の規則に適合すれば拡張対応を推定する.\vspace{1ex}\begin{description}\item条件1:英語過剰対応の日本語側に未対応句群が拡張される場合.または,日本語過剰対応の英語側に未対応句群が拡張される場合\item条件2:不安定対応に未対応句群を拡張する場合\end{description}\vspace{1ex}\vspace{1ex}\vspace{1ex}\begin{description}\item{\bf拡張-a}:2つの基本句対応が,片方の言語側で依存構造で接続されており,他方の言語側では未対応句群を挟んで接続されている場合に,未対応句群をいずれかの基本句対応に加える.どちらの基本句対応を拡張対応とするかの判定は,条件1の基本句対応を条件2の基本句対応よりも優先する.また,条件1同士や,条件2同士の判定は,内的整合性の低い基本句対応を優先する.\item{\bf拡張-b}:未対応句群が依存構造上の葉である場合,親と兄弟すべてが基本句対応に含まれており,親の対応先が葉であれば,未対応句群を親の基本句対応に加える.\item{\bf拡張-c}:未対応句群が依存構造上の根である場合,子が基本句対応に含まれており,かつ,子の対応先が根であれば,未対応句群を子の基本句対応に加える.\end{description}\vspace{1ex}規則に適合する未対応句群が存在しなくなると,未対応句の処理は終了する. \section{実験と考察} \subsection{コーパスと実験環境}\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline日本語の平均文字数&8.18文字&12.4文字&51.7文字\\英語の平均語数&4.98語&6.0語&21.4語\\\hline\end{tabular}\caption{各コーパスの文の長さ}\label{文長}\end{center}\end{table}実験には以下の3種類の対訳コーパスを使用した.\vspace{1ex}\begin{description}\item(2){\bf翻訳用例コーパス}:SENSEVAL2のtranslationtask\cite{Kurohashi2001}にて作成されたもので,文以下のサイズの対訳表現からなる.\item例:「私はそれについて多くを知らない.」/``Idonotknowmuchaboutit.''\vspace{1ex}\vspace{1ex}\item(1){\bf辞書用例コーパス}:短文であり,平易な表現が多い.\item例:「危なくて仕方がない」/``tobenothingbutdanger''\vspace{1ex}\vspace{1ex}\item(3){\bf白書コーパス}:科学技術庁及び経済の白書.文長が長く,専門用語が多く含まれている.\item例:「年1回,過去12回開催され,我が国は第6回より参加している.」/``Theconferencehasbeenheldannuallyfor12years,andJapanhasparticipatedsincethe6thmeeting.''\end{description}\vspace{1ex}\vspace{1ex}\vspace{1ex}それぞれのコーパスの平均文長を表\ref{文長}に示す.実験にあたっては3つのコーパスから,それぞれ100対訳文ずつ計300対訳文を無作為抽出した.使用した統語解析システムは日本語においてはKNP\cite{Kurohashi1994},英語においてはCharniakのnl-parser\cite{Charniak2000}である.内的整合性と外的整合性の比であるパラメータ$C$は0.2とした\footnote{実験の結果,この値がもっともよい精度を示した.}.未対応句の処理で未対応句群を扱う個数は日英とも1とした.\subsection{基本句対応の評価}システムが推定した基本句対応を評価するために,正しい対応関係を内容語単位で作成した(以降,この対応を{\bf内容語対応}とよぶ).これは,内容語を基本句にまとめる規則が変化した場合も評価を可能にするためである.具体的な記述例を以下に示す.\vspace{1ex}\begin{description}\item対訳文1「主要国の科学技術政策動向」/``Trendsamongthemajorcountries''\item内容語対応(1)主要$\Leftrightarrow$major,(2)国$\Leftrightarrow$countries,(3)動向$\Leftrightarrow$Trends\vspace{1ex}\vspace{1ex}\item対訳文2「可能性は限りなくゼロに近い」/``Itisalmostimpossible''\item内容語対応(1)可能性は限りなくゼロに近い$\Leftrightarrow$Itisalmostimpossible\end{description}\vspace{1ex}\vspace{1ex}対訳文2のように個々の内容語のレベルでは対応がつかない場合は,$n$語:$m$語の内容語対応を記述した($n\geq$1,$m\geq$1).作成された内容語対応のサイズを表\ref{tb正解サイズ}に示す.各コーパスで8割以上が1語:1語の対応となった.\begin{table}\begin{center}\begin{tabular}{llll}\hline対応のサイズ&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline1:1&205(81\,\%)&303(84\,\%)&637(80\,\%)\\2:1&23(9.1\,\%)&23(6.4\,\%)&79(9.9\,\%)\\2:2&3(1.1\,\%)&10(2.7\,\%)&34(4.2\,\%)\\それ以上&21(8.3\,\%)&23(6.4\,\%)&42(5.3\,\%)\\\hline合計&252&359&792\\\hline\end{tabular}\caption{内容語対応のサイズ}\label{tb正解サイズ}\end{center}\end{table}\begin{figure}\begin{center}\leavevmode\epsfxsize=11cm\epsfysize=2.2cm\epsfbox{f_seikai.eps}\end{center}\caption{内容語対応による評価}\label{評価}\end{figure}評価は内容語対応を用いて情報検索と同様に適合率と再現率の2つの尺度で行なった.ただし,出力は基本句対応であるのに対して正解は内容語対応なので,適合率は基本句対応の適合率,再現率は内容語対応の再現率とした.\vspace{1ex}\vspace{1ex}(基本句対応)適合率は以下のように定義した.\[(基本句対応)適合率=\frac{(内容語対応を完全に含んでいる基本句対応の数)}{(システムが推定した基本句対応の数)}\]例えば,図\ref{評価}の3つの基本句対応のうち基本句対応(a)と(b)は内容語対応を完全に含んでいるが,基本句対応(c)は1つの内容語対応を含んでいない.よって,3つの基本句対応の適合率は0.66(=2/3)となる.この定義では大きなサイズの基本句対応を推定すれば,適合率が高くなる.しかし,表\ref{tb具体例}の出力例が示すように提案手法は不当に大きなサイズの対応を推定する性質を持っていない.\vspace{1ex}\vspace{1ex}(内容語対応)再現率は以下のように定義した.\[(内容語対応)再現率=\frac{(基本句対応に完全に含まれている内容語対応の数)}{(内容語対応の数)}\]例えば図\ref{評価}では,5つの内容語対応のうち4つだけが基本句対応に含まれており,再現率は0.8(=4/5)となる.\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline(基本句対応)適合率&82.2\,\%(134/163)&90.6\,\%(253/279)&92.8\,\%(454/489)\\\hline(内容語対応)再現率&81.7\,\%(206/252)&86.3\,\%(310/359)&76.7\,\%(608/792)\\\hline\end{tabular}\caption{コーパスと精度}\label{tbコーパスと精度}\end{center}\end{table}\vspace{3ex}提案手法の(基本句対応)適合率と(内容語対応)再現率は表\ref{tbコーパスと精度}に示す.また,見つかった基本句対応を次の3つに分類し,それぞれの適合率を調べた結果を表\ref{tb基本句対応の分類と適合率}に示す.\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline辞書対応&91.5\,\%(108/118)&95.7\,\%(199/208)&94.6\,\%(421/445)\\拡張対応&76.2\,\%(48/63)&76.2\,\%(32/42)&80.0\,\%(40/50)\\新規対応&66.7\,\%(20/30)&73.8\,\%(31/42)&72.7\,\%(16/22)\\\hline\end{tabular}\caption{基本句対応の分類と適合率}\label{tb基本句対応の分類と適合率}\end{center}\end{table}\vspace{1ex}\begin{description}\item{\bf辞書対応}:未対応句が含まれない基本句対応.\item{\bf拡張対応}:辞書対応を未対応句によって拡張した基本句対応.\item{\bf新規対応}:未対応句同士の基本句対応.または,それを拡張したもの.\end{description}\vspace{1ex}拡張対応と新規対応の精度は辞書対応に比べて低いが,再現率をあげるために重要である.対訳コーパスは一言語のコーパスと比べて量が少なく貴重であるため,再現率の高さは重要である.\subsection{基本句対応についての考察}コーパスには,しばしば対応すべき内容の表現が異なっていたり,依存構造が異なっている対訳文が含まれる.例えば,白書コーパスでは,図\ref{f_f3.eps}のように日本語側の「わが国」が英語側で``Japan''と訳されている.このように,対応すべき表現の対応関係が辞書で得られないような現象を,ここでは表現の異なりとよぶ.また,この対訳文では,日本語側が「わが国を取り巻く国際的状況は〜問題をはらんでいる」と対応する部分が,英語側で``Japanisconfronting〜intheinternationalarena.''となっており,「わが国」と``Japan''の係り先が異なる.このような対応すべき表現の係り先が異なる現象を構造の異なりとよぶ.表現の異なりと依存構造の異なりのいずれか一方だけが起こっている場合には,提案手法は対応関係を正しく推定できる.例えば,図\ref{f_f4.eps}の対訳文では構造が一致しているため,表現が異なる「わが国」と``Japan''の対応関係を推定できている.一方,表現の異なりと構造の異なりが同時に起こっている場合は,対応関係を正しく推定できず,誤りの主要な原因となっている.これは,提案手法では,表現の異なる部分(未対応句)の対応関係を構造を手がかりとした規則で処理しているからである.提案手法だけではこの問題の解決は困難であるが,白書コーパスでは「わが国」が``Japan''と訳される頻度は多く,提案手法に重み付きダイス係数などの統計量を用いることで,ドメイン特有の表現の異なりをある程度吸収できると考えられる.また,構造の異なりが統語解析結果の誤りによって引き起こされる場合がある.この場合は文献\cite{Matsumoto1993}にて両言語の解析結果を照合し,適切な統語解析を選択するという手法が提案されており,提案手法に導入することで精度の向上が期待できる.\begin{figure}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=4.6cm\epsfbox{f_f3.eps}\end{center}\caption{構造の異なりと表現の異なり}\label{f_f3.eps}\end{figure}\begin{figure}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=4cm\epsfbox{f_f4.eps}\end{center}\caption{表現の異なり}\label{f_f4.eps}\end{figure}\subsection{辞書対応リンクの曖昧性解消の評価}本節では,2.3節で述べた辞書対応リンクの曖昧性を解消する部分のみの精度を調べ,考察した結果を述べる.精度は,基本句の単位を導入した場合(提案手法)と,語を単位とした場合(ベースライン)の精度を比較した.ベースラインでは,語を単位とした依存構造上で近傍(4語以内)に存在するすでに採用された他の辞書対応リンクの多いものを採用することによって,辞書対応リンクの曖昧性の解消を行なう.近傍を4語以内としたのは,提案手法とほぼ同じ範囲の情報を用いるためである(提案手法は近傍の2基本句の情報を用いており,1つの基本句は約2語から構成されている).また,提案手法が,外的整合性が0となる辞書対応リンク(近傍2基本句以内に他の辞書対応リンクが存在しない辞書対応リンク)を採用しないように(2.3節のstep4),ベースラインも近傍4語以内に他の辞書対応リンクが存在しない場合は採用しないものとする.評価は,採用した辞書対応リンクのうち曖昧性のあるものが,人手による内容語対応が一致していれば正解とし,そうでない場合は不正解とした.実験の結果は表\ref{tb辞書引き精度}のようになった.翻訳用例コーパスや辞書用例コーパスでは,文長が短いため曖昧な辞書対応リンクは少数であり,精度の違いについて有意な議論はできない.一方,文長の長い白書コーパスでは曖昧な辞書対応リンクの数は多く,曖昧性解消が重要な問題となっている.この白書コーパスにおいて,提案手法の精度は94.4\,\%であり,ベースラインの精度の89.9\,\%よりも高い.ベースラインと提案手法は依存構造のほぼ同じ範囲の対応情報を利用しているため,提案手法の精度が高い理由は基本句という単位を導入した効果と考えられる.\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline提案手法&100\,\%(5/5)&70.5\,\%(12/17)&94.4\,\%(170/180)\\ベースライン&50.0\,\%(2/4)&76.9\,\%(10/13)\,\%&89.9\,\%(143/159)\\\hline\end{tabular}\caption{辞書対応リンクの精度}\label{tb辞書引き精度}\end{center}\end{table} \section{まとめ} 本稿は,句アライメントの推定において基本句の概念と辞書を用いた新しい手法を提案した.本手法が解決すべき問題は次の2つにまとめられる.(1)辞書による対応に曖昧性があった場合に,その曖昧性を解消する問題(2)辞書で対応つかない場合に,対応関係を推定する問題(1)に関しては,基本句の導入で高い精度を得ることができ,また,精度も高いことから問題は解決したと考えられる.(2)に関しては,十分な精度は得れなかった.しかし,人手による修正が可能な範囲の精度であり,また,本手法に統計量等の手がかりを導入することで,今後精度を上げることが可能だと考えられる.\begin{table}\begin{center}\begin{tabular}{ll}\hline\hline辞書対応&\\\hline示さ,れて,いる&is,indicated\\使命,である&is,an,mission\\科学,技術,局,が&the,Office,of,Science,and,Technology\\政府,の,施策,の&government,policy\\世界,規模,で&on,a,global,scale\\踏まえ,、&Based,on\\国際,協力,へ,の&toward,international,cooperation\\先進国,間,の&among,advanced,countries\\政策,担当,者,を&The,policy,makers\\\hline\hline新規対応&\\\hline全,要素,生産性,が&of,TFP\\先進,7,カ国,の&of,the,G7,nations\\策定,に,加え,、&In,addition,to,the,formulation\\発足,した&came,into,power\\上げる,こと,だけ,で,なく,、&is,not,only,to,improve\\終わった&are,over\\ただちに&lost,no,time\\かって,もらった&have,cut\\\hline\hline拡張対応&\\\hline冷戦,終結,後,の,世界,に,おいて,は&in,the,post,Cold,War,years\\雇用,創出,に,おいて&and,job,creation\\有形,固定,資産,購入,費,の&of,expenditures,on,tangible,fixed,assets\\転換,期,に,おける&during,the,period,of,transition\\グローバル,化,の,進展,の,中,で,、&Amid,globalization\\輸送,用,機械,工業,の,出超,は&The,surplus,in,the,transport,equipment,industry\\勉強,し,さえ,すれば,よい&have,to,study\\それ,を,して,しまう,でしょう&will,have,done,it\\健康です&in,good,health\\まだ,有効だ&still,holds,good\\\hline\end{tabular}\caption{基本句対応の具体例}\label{tb具体例}\end{center}\end{table}\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{荒牧英治}{1998年京都大学総合人間学部基礎科学科卒業.2002年京都大学情報学研究科修士課程修了.現在,東京大学大学院情報理工学系研究科博士課程在学中.機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1992年同大学院修士課程修了.現在,京都大学大学院情報学研究科知能情報学専攻助教授.}\bioauthor{渡辺日出雄}{1984年京都大学工学部電気工学第二学科卒業.1986年同大学院修士課程修了.京都大学工学博士.1986年日本アイ・ビー・エム株式会社に入社,現在同社東京基礎研究所にて専任研究員及びグループリーダー.機械翻訳や自動要約などの自然言語処理研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V16N01-02
\section{はじめに} 本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別(母語話者性の判別)を高精度で行う手法を提案する.WWW上の英文書を英語教育や英文書作成支援に利用する研究が盛んに行われている\cite{大鹿,佐野,大武}.WWW上にはオーサライズされた言語コーパスとは比べものにならないくらいの大量の英文書が存在するため,これを言語データとして活用することで,必要な言語データの量の問題をかなり克服できる.しかし,WWW上の英文書の質は様々であり,英語を母語とする者あるいはそれと同等の英語運用能力を有する者が書いた英文書(本論文では母語話者文書と呼ぶ)と英語を母語としない者が書いた誤りや不自然な表現を含む英文書(本論文では非母語話者文書と呼ぶ)とが混在している.WWW上の英文書を英語学習教材として使用する場合,あるいは,英語表現の用例集として使用する場合は,使用する英文書を母語話者文書に制限するのが望ましい.また,非母語話者に特有の文法的特徴や使用語彙の傾向を調査したり,非母語話者が犯しがちな不自然な表現を収集するには,大量の母語話者文書および非母語話者文書を必要とする.したがって,英語教育や英文書作成支援を目的としてWWW上の英文書を使用する場合,英文書の母語話者性判別を行う技術は非常に重要である.本論文で提案する英文書の母語話者性判別手法では,品詞$n$-gramモデルを言語モデルとし,判別対象の文書の品詞列(文書中の単語をその品詞で置き換えた列)の母語話者言語モデルによる生起確率と非母語話者言語モデルによる生起確率との比に基づいて判別を行う.$n=5,6,7$といった比較的大きな$n$-gramモデルを言語モデルとすることで,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる.しかしその反面,両言語モデルのパラメタ($n$-gram確率)を最尤推定した場合,母語話者/非母語話者文書間で品詞$n$-gramモデルのパラメタ値に大きな違いがあるのか,学習データの統計的な揺らぎに起因するものなのかが区別できない.$n=3$という条件部が短い$n$-gramモデルを用いて判別を行う場合でさえ,ゼロ頻度問題およびスパースネスの問題に対処するために,通常なんらかのスムージングを行う.これに対し,提案手法では,仮説検定に基づいた方法で両言語モデルにおける文書の生起確率の比を推定する. \section{文書クラス識別の枠組み} \label{節:文書クラス識別の枠組み}本研究で扱う母語話者性の判別問題は,文書$d$が属すクラスの識別問題の一種である.本節では,文書が属すクラスの識別の枠組みについて,その一般論を述べておく.文書が属す可能性のあるクラスとして,$C_1,C_2,\cdots,C_M$があるとする.文書$d$がクラス$C$に属す文書である尤もらしさ(尤度)$Lh(d,C)$を何らかの方法で設定し,$Lh(d,C)$が最大の$C$,つまり,\[\arg\max_{C\in\{C_1,C_2,\cdots,C_M\}}Lh(d,C)\]を文書$d$が属すクラスとして識別する.文書$d$のどのような構成要素(特徴)を用いて$Lh(d,C)$をどのように定義するかにより,どのようなクラスの識別ができるか,および,その識別精度が異なって来る.次節で述べる言語識別,本論文で扱う母語話者性の判別の他,ジャンルの識別,著者識別,さらに迷惑メールの判別(spamfilter)もこの枠組みで議論することができる.文書$d$の属すクラスが$C$である尤度$Lh(d,C)$を$d$が与えられたときのクラス$C$の事後確率$P(C|d)$とし,文書$d$の属すクラスを,\begin{equation}\label{式:ベイズ識別1}\arg\max_{C\in\{C_1,C_2,\cdots,C_M\}}P(C|d)\end{equation}と推定することもできる.これは,統計的パターン認識で用いられる事後確率最大化識別(ベイズ識別)\cite{パターン認識テキスト}である.文書$d$の生起確率を$P(d)$,クラス$C$での$d$の生起確率(クラス$C$に属す文書が生起するときにその文書が$d$である条件付き確率)を$P_C(d)$,クラス$C$に属す文書の生起確率($C$の事前確率)を$P(C)$とすると,上記の事後確率$P(C|d)$は\[P(C|d)=\frac{P(C)P_C(d)}{P(d)}\]と表せるので,式(\ref{式:ベイズ識別1})は,\begin{equation}\label{式:ベイズ識別2}\arg\max_{C\in\{C_1,C_2,\cdots,C_M\}}P(C)P_C(d)\end{equation}と等しい.適当な統計的言語モデルを設定し,各クラス$C_i$の文書集合($C_i$の学習データ)を用いて,$C_i$の言語モデルのパラメタを推定すれば,式(\ref{式:ベイズ識別2})を用いて$d$が属すクラスの識別をすることができる.代表的な統計的言語モデルとして,$n$-gramモデルがある.一般に,ある時点で生起する事象の確率が,その直前の$n$個の時点で生起した事象だけの影響を受けるとき,これを$n$重マルコフ過程と呼び,$n$-gramモデルは,記号の生起を$(n-1)$重マルコフ過程で近似したモデルである\cite{確率的言語モデルテキスト}.特に,$n=1$の場合をuni-gramモデル,$n=2$の場合をbi-gramモデル,$n=3$の場合をtri-gramモデルと呼ぶ.$n$-gramモデルでは,記号列$\vec{a}=a_1a_2\cdotsa_\ell$の生起確率は,\[P(\vec{a})=\prod_{i=1}^{\ell+1}P(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\]で表される.ただし,$j\leq0$のとき$a_j=@_s$であり,$@_s$は文頭を表す特殊記号である.また,$a_{\ell+1}=@_e$であり,$@_e$は文末を表す特殊記号である.記号としては,文字,単語,品詞などが考えられる.本論文では,記号が文字であるものを文字$n$-gramモデル,記号が品詞であるものを品詞$n$-gramモデルと呼ぶことにする.条件付き確率$P(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$は$n$-gram確率と呼ばれる.本論文では,言語クラス$C$の$n$-gram確率を$P_C(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$と添え字を付けて表す.学習データの生起確率を最大にするようにモデルのパラメタを推定する最尤推定\cite{統計テキスト}では,$P_C(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$は\begin{equation}\label{式:n-gram確率の最尤推定値}\frac{f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1}\,a_i)}{\sum_{a\inA}f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1}\,a)},\end{equation}すなわち,\[\frac{f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1}\,a_i)}{f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1})}\]と推定される.$f_C(\vec{a})$は言語クラス$C$の学習データにおける記号列$\vec{a}$の出現頻度であり,$A$は記号の全体集合である.しかし,$n$が大きい場合,$n$-gram確率を単純に式(\ref{式:n-gram確率の最尤推定値})により推定すると,学習データ中に出現しない記号列$a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}\,a_i$に対して,$P_C(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$を0と推定してしまうという大きな問題がある.また,たとえ学習データ中に出現したとしても,条件部の記号列$a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}$の出現頻度が小さい場合は,統計的に信頼性のある確率値を推定するのが難しい.前者はゼロ頻度問題,後者はスパースネスの問題と呼ばれている\cite{確率的言語モデルテキスト}.したがって,これらの問題に対処するために,通常は$n$-gram確率のスムージングを行う.代表的なスムージング手法としては,加算スムージング,線形補間などがある\cite{確率的言語モデルテキスト}.一般に,線形補間の方が加算スムージングより精度が高いと言われている.また,多くの識別問題で高い性能を実現している2クラスの識別器であるSupportVectorMachine\cite{パターン認識テキスト}を使って,文書$d$の属すクラスを識別することもできる. \section{関連研究} \label{節:関連研究}文書の母語話者性の判別と関連の深い研究分野として,文書の記述言語を推定する言語識別がある.Cavnarらは,出現頻度上位の文字列とその順位を言語および文書の特徴と考える言語識別を行っている\cite{cavnar}.各言語$L_i$の学習データ文書中での1〜5の長さの文字列のうち出現頻度上位300個の文字列とその順位を求めて,言語$L_i$における順位表を作成しておく.同様に,識別対象文書$d$に対しても順位表を作成する.$d$の順位表中の各文字列の順位と$L_i$の順位表での順位との差の絶対値の和を$d$と$L_i$の非類似度$dissim(d,L_i)$と考え,$dissim(d,L)$が最小の言語$L$を$d$の記述言語として識別する.これは,前節で述べた枠組みに対して,$dissim(d,L_i)$の逆数を尤度$Lh(d,L_i)$と考えたことに相当する.また,前田らは,長さ2の文字列の出現頻度分布をユークリッド空間上のベクトル(頻度ベクトル)であると考え,識別対象文書$d$の頻度ベクトルと各言語$L_i$の学習データ文書の頻度ベクトルとの余弦を,$d$と言語$L_i$の類似度$sim(d,L_i)$とする言語識別を行っている\cite{前田}.これは,前節で述べた枠組みに対して,$sim(d,L_i)$を尤度$Lh(d,L_i)$と考えたことに相当する.行野らは,長い文字列の頻度は統計的な揺らぎが大きいものの,言語を特定する能力が高いと考え,1〜7の長さの文字列を言語および文書の特徴と考える言語識別の手法を提案している\cite{行野}.彼らの手法は,識別対象文書$d$に出現する1〜7の長さの文字列集合と言語$L_i$の学習データに出現する1〜7の長さの文字列集合の積集合の大きさを$Lh(d,L_i)$とする手法である.長い文字列を特徴として使用した結果,類似言語間の識別や識別対象文書が極めて短い場合の識別でも,Cavanrらの手法,前田らの手法に比べ高い識別精度を実現したと報告している.Dunningは文字$n$-gramモデルにより$P_{L_i}(d)$を求め,言語の事前確率を等確率($P(L_i)=P(L_j)$)と仮定して,ベイズ識別により,$d$の属す言語の識別を行っている\cite{dunning}.ただし,ゼロ頻度問題に対処するため,加算スムージングによる$n$-gram確率のスムージングを行っている.$n=1\sim5$を試した結果,$n=2$の場合,つまり,bi-gramモデルの場合が最も識別精度が高かったと報告している.Sibunらは,長さ$n$の文字列の確率分布を言語および文書の特徴と考え(実際には$n=1$または$n=2$を採用している),確率分布間の相違尺度であるKL-Divergenceに基づいた言語識別手法を提案している\cite{sibun}.確率分布$P$と$Q$のKL-Divergence(Kullback-Leibler距離)$D_{KL}(P||Q)$は\[D_{KL}(P||Q)=\sum_{x\in{\calX}}P(x)\log\frac{P(x)}{Q(x)}\]で定義される\cite{確率的言語モデルテキスト}.Sibunらの手法は,$D_{KL}(P_d||P_{L_i})$が最小の$L_i$を$d$の記述言語として識別する手法である.ただし,$P_d(\vec{a})$は文書$d$における文字列$\vec{a}$の生起確率,$P_{L_i}(\vec{a})$は言語クラス$L_i$における文字列$\vec{a}$の生起確率である.$P_d(\vec{a})$は\[P_d(\vec{a})=\gamma\cdotf_d(\vec{a})\qquad\text{ただし,}\gamma=\frac{1}{\sum_{\svec{a}\inA^n}f_d(\vec{a})}\]と推定されるので($f_d(\vec{a})$は$d$での文字列$\vec{a}$の出現頻度,$A$は記号の全体集合,$A^n$は可能な$n$長さの文字列の全体の集合),言語$L_i$における文書$d$の生起確率$P_{L_i}(d)$を\begin{equation}\label{式:文書の生起確率の大胆な近似}P_{L_i}(d)=\prod_{\svec{a}\inA^n}P_{L_i}(\vec{a})^{f_d(\vec{a})}\end{equation}と大胆に近似するならば,\[D_{KL}(P_d||P_{L_i})=\sum_{\svec{a}\inA^n}P_d(\vec{a})\log\frac{P_d(\vec{a})}{P_{L_i}(\vec{a})}=-\gamma\cdot\logP_{L_i}(d)+\sum_{\svec{a}\inA^n}P_d(\vec{a})\logP_d(\vec{a})\]となる.つまり,$D_{KL}(P_d||P_{L_i})$が最小の$L_i$を$d$の記述言語として識別するSibunらの手法は,式(\ref{式:文書の生起確率の大胆な近似})の近似を行った上で,言語の事前確率を等確率と仮定して,ベイズ識別により,$d$の属す言語の識別を行うことと等価である.なお,Sibunらもゼロ頻度問題に対処するために,$P_{L_i}(\vec{a})$は\begin{equation}\label{式:Sibun加算スムージング}P_{L_i}(\vec{a})=\frac{f_{L_i}(\vec{a})+\delta}{\sum_{\svec{a}\inA^n}\{f_{L_i}(\vec{a})+\delta\}}\end{equation}のように,加算スムージングによりスムージングしている($\delta$は非負の定数).次に,本論文で扱う文書の母語話者性判別に関する従来研究について述べる.Tomokiyoらは,長さ$n$($n=1,2,3$)の記号列(記号としては,単語,品詞,および単語品詞混合の3種を試している)を言語および文書の特徴と考え,文書(あるいは,文書を構成する単語をその品詞に置き換えたもの,文書を構成する一部の単語を品詞に置き換えたもの)の生起確率を式(\ref{式:文書の生起確率の大胆な近似})で近似し,ベイズ識別に基づく母語話者/非母語話者クラスの判別を行っている\cite{Tomokiyo}.しかし,彼らは,子供用ニュース記事の音読による発話や観光などに関する自発的発話を,音声認識器によりテキストにした文書,および,人手で書き起こした文書を対象としている.音読では読み間違いが非母語話者の大きな特徴であり,自発的発話では,使用語彙が母語話者/非母語話者の間の大きな違いである.一方,我々は,論文などのように十分推敲して作成されているフォーマルな文書を対象としており,母語話者/非母語話者判別に有効な特徴量も異なってくるため,彼らの判別実験結果と直接比較することはできない.藤井らは,品詞tri-gramモデルを言語モデルとし,ゼロ頻度問題に対処できるSkewDivergenceを用いて英文書の母語話者性の判別を行っている\cite{藤井}.以下で定義される判別対象文書$d$と言語クラス$C$($\in\{N,\NN\}$,$N$:母語話者言語クラス,$\NN$:非母語話者言語クラス)との相違度$ED(d\:;\:C)$\[ED(d\:;\:C)=\sum_{\tuple{ab}\inH^2}f_d(ab)D(P_d^\tuple{ab}\:||\:P_C^\tuple{ab})\]を求め,$ED(d\:;\:C)$を最小にする$C(\in\{N,\NN\})$を$d$が属すクラスとして推定する.ただし,$H$は品詞の全体集合,$P_d^\tuple{ab}$は文書$d$における条件を$ab$とする品詞tri-gram分布,$P_C^\tuple{ab}$はクラス$C$における条件を$ab$とする品詞tri-gram分布\footnote{つまり,$P_d^\tuple{ab}(x)$は文書$d$において,品詞列$ab$の次に品詞$x$が生起する確率$P_d(x|ab)$,$P_C^\tuple{ab}(x)$は言語クラス$C$において,品詞列$ab$の次に品詞$x$が生起する確率$P_C(x|ab)$である.},$D$は確率分布間の相違度である.確率分布間の相違度$D$としてKLDivergenceを用いた場合,$ED(d\:;\:C)$を最小にする$C(\in\{N,\NN\})$は,文書$d$の各単語をその品詞で置き換えた品詞列の生起確率を最大にする言語クラスである.したがって藤井らの手法は,品詞tri-gramモデルを言語モデルとし,言語の事前確率を等確率と仮定して,Bayes識別に基づいて$d$が属すクラスを判定する方法と本質的には同じである.藤井らの手法の特徴は,分布間の相違度$D$としてKLDivergenceを用いるのではなく,以下で定義されるSkewDivergence\cite{Lee}を用いている点にある.\[D_{skew}(p\:||\:q)=\sum_{x\in{\calX}}p(x)\log\frac{p(x)}{\alpha\cdotq(x)+(1-\alpha)\cdotp(x)}\]SkewDivergenceはゼロ頻度問題に弱いKLDivergenceを改良したものである.藤井らは,$\alpha$を,分布$q$(つまり,$P_N^\tuple{ab}$,$P_{\NN}^\tuple{ab}$)の推定に用いた学習データのサイズに応じて,$ab$毎に\begin{equation}\label{Skew:α}\alpha(ab)=1-\exp\left(-\sqrt{\beta\cdot\min(f_N(ab),f_{\NN}(ab))}\right)\end{equation}と設定している.彼らは,SkewDivergenceを用いることで,線形補間を施した品詞tri-gram分布によるKLDivergenceを用いた手法および多くの識別問題で高い精度を実現しているSupportVectorMachineを用いた手法よりも有意に高い判別精度を実現できたと報告している.英文書の母語話者性判別は,母語話者英語,非母語話者英語という類似した言語の識別問題と捉えることもできる.青木らは,文書を,それを構成する単語を品詞で置き換えた品詞列と見なし,基本的にはKL-Divergenceを用いたSibunらの言語識別手法に基づいて,文書の母語話者性の判別を行っている\cite{青木}.「長い文字列も言語特徴とすることで類似言語の識別精度が向上する」という行野らの知見からの予想通り,長い品詞列の頻度情報を利用した場合の判別精度が高く($n=6$のときが最も精度が高い),藤井らの手法より高精度で母語話者性を判別できたと報告している.著者らは,青木らの主張と同じく,長い品詞列の頻度情報も利用することが文書の母語話者性判別に有効であると考えている.藤井らの手法は言語モデルを$n>3$の品詞$n$-gramモデルとしてもそのまま適用できる.しかし,藤井らは,式(\ref{Skew:α})を\begin{itemize}\item$\alpha$は$f=\min(f_N(ab),f_{\NN}(ab))$の単調増加関数,\item$\lim_{f\rightarrow\infty}\alpha=1$,$\lim_{f\rightarrow0}\alpha=0$\end{itemize}を満たす$\alpha$の設定法の一例として用いたに過ぎず,$n$を大きくした場合に,式(\ref{Skew:α})で良いのかどうかは疑問である.さらに,$n$を大きくしたとき,式(\ref{Skew:α})では高い精度が得られない場合に,式(\ref{Skew:α})に代えて,上記の性質を満たす$f=\min(f_N(ab),f_{\NN}(ab))$のどのような関数を$\alpha$の設定に用いればよいのかも明らかではない.一方,青木らの手法は,統計的パターン認識の立場で見るならば,近似式(\ref{式:文書の生起確率の大胆な近似})を仮定したベイズ識別による判別法である.しかし,品詞$n$-gramモデルに比べ,式(\ref{式:文書の生起確率の大胆な近似})は,近似としては非常に粗い.$n$が大きな品詞$n$-gramモデルを言語モデルとして使用し,かつ,ゼロ頻度問題およびスパースネスの問題を克服する新たな母語話者性判別手法を次節で述べる. \section{提案手法} 本論文で提案する母語話者性判別手法は,長い品詞列の頻度情報を利用することで,より高精度で判別を行うことをねらったもので,長い品詞列の頻度情報を使うことによる信頼性の低下を防ぐために仮説検定を利用しているのが大きな特徴である.藤井らおよび青木らの研究と同じく,文書をそれを構成する単語を品詞で置き換えた品詞列とみなす.品詞$n$-gramモデルを言語モデルとし,文書内の各文が独立に生起すると仮定すると,品詞列に変換した文書$d$のクラス$C$での生起確率$P_C(d)$は,\begin{equation}\label{式:文書の生起確率}P_C(d)=\prod_{\svec{a}\ind}\prod_{i=1}^{\ell(\svec{a})+1}P_C(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\end{equation}と表せる.ただし,$\ell(\vec{a})$は文(品詞列)$\vec{a}$の長さであり,$a_i$は$\vec{a}$の$i$番目の品詞である.また,$j\leq0$のとき$a_j=@_s$であり,$a_{\ell(\svec{a})+1}=@_e$である(\ref{節:文書クラス識別の枠組み}節参照).Bayes識別に基づく文書$d$の母語話者性判別では,母語話者文書と非母語話者文書の事前確率を$0.5$とすると\footnote{事前確率は,どの分野や範囲の文書を判別したいかで異なってくるため,一般には不明である.そこでDunningや藤井らの研究と同様,事前確率を等確率とした.},\[\begin{array}{lcl}\displaystyle\frac{P_N(d)}{P_{NN}(d)}>1&\Longrightarrow&\mbox{母語話者文書クラス($N$)}\\[4mm]\displaystyle\frac{P_N(d)}{P_{NN}(d)}<1&\Longrightarrow&\mbox{非母語話者文書クラス($N\!N$)}\\[4mm]その他&\Longrightarrow&\mbox{未定}\end{array}\]と判別することになる.生起確率の比の対数を取り,文書(品詞列)の生起確率を式(\ref{式:文書の生起確率})を用いて展開すると,\begin{equation}\label{判別式}\log\frac{P_N(d)}{P_{\NN}(d)}=\sum_{\svec{a}\ind}\sum_{i=1}^{\ell(\svec{a})+1}\log\frac{P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}{P_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}\end{equation}となる.上式が正ならば$d$は母語話者文書,負ならば$d$は非母語話者文書と判別することになる.より大きな$n$における品詞$n$-gramモデルは,母語話者英語と非母語話者英語における品詞列の生起確率の相違をより良く取り扱うことができると予想される.しかし,現実的なサイズの学習データから最尤推定により求めた品詞$n$-gram確率による\begin{equation}\label{式:n-gram確率の比}\frac{P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}{P_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}\end{equation}では,この値が1から大きくずれる場合に,これが両言語の大きな相違を示しているのか,統計的な揺らぎに起因するものかが分からない(ゼロ頻度問題,スパースネスの問題).そこで,式(\ref{式:n-gram確率の比})を仮説検定に基づいた以下に述べる2種類の手法により控えめに(最尤推定値を用いた場合の比より1に近い値として)推定し,これを用いて式(\ref{判別式})の計算を行い母語話者性の判別を行う.\subsection{手法1}手法1では,式(\ref{式:n-gram確率の比})の値を以下のようにして推定する.ただし,$\widehat{P}_C(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$を$P_C(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の最尤推定値とする.\begin{itemize}\item[(A)]$\widehat{P}_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})>\widehat{P}_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\leq\mu\cdotP_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})>\mu\cdotP_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$n$-gram確率の比(\ref{式:n-gram確率の比})を$\mu$と推定し,$\mu\leq1$(つまり,$P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$が$P_{N\!N}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$より有意に大きいと言えない)ならば1と推定する.$f_C(\vec{a})$を言語クラス$C$($\in\{N,\NN\}$)のモデルの学習データにおける品詞列$\vec{a}$の出現頻度とすると,上記の$\mu$は,\begin{align*}x&=f_N(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}\,a_i),&y&=f_{\NN}(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}\,a_i),\\m&=f_N(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}),&n&=f_{\NN}(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\end{align*}として,付録\ref{付録:estimateMu}の$\widehat{\mu}(x,m,y,n)$で求めることができる.\item[(B)]$\widehat{P}_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})<\widehat{P}_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&\mu\cdotP_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\geqP_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&\mu\cdotP_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})<P_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$n$-gram確率の比(\ref{式:n-gram確率の比})を$1/\mu$と推定し,$\mu\leq1$(つまり,$P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$が$P_{N\!N}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$より有意に小さいと言えない)ならば1と推定する.このような$\mu$は,$x$,$m$,$y$,$n$を前述(A)のように定めると,$\widehat{\mu}(y,n,x,m)$として求めることができる.\item[(C)]$\widehat{P}_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})=\widehat{P}_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の場合$n$-gram確率の比(\ref{式:n-gram確率の比})を1と推定する.\end{itemize}\begin{table}[b]\caption{$n$-gram確率の比の推定例}\label{表:n-gram確率の比の推定例}\input{02table01.txt}\end{table}つまり,頻度情報の統計的揺らぎを考慮し,$1-\alpha$の信頼度で,$n$-gram確率の比(\ref{式:n-gram確率の比})を控えめに(最尤推定値を用いた場合の比より1に近い値として)推定する.一方の$n$-gram確率が他方より有意に大きいと言えない場合,両$n$-gram確率に大きな違いはないということで,この$n$-gram確率の比を1と推定し,母語話者性判別に影響しないようにする.表\ref{表:n-gram確率の比の推定例}に$n$-gram確率の比の推定例を示す(有意水準$\alpha=0.05$).例(a)は頻度が小さいため有意水準0.05で一方の$n$-gram確率が他方の$n$-gram確率より大きいと判断できない場合で,比を1と推定している.例(b)〜(e)は最尤推定値を用いた場合より1に近い値を推定している(つまり,スパースネスの問題に対処できている).例(f)(g)は,最尤推定値を用いると$n$-gram確率の比がそれぞれ$\infty$,$0$となってしまう場合であるが,有意水準0.05での推定では0より大きな有限の値となっており,母語話者性の判別に決定的な影響を与えることを避けている(つまり,ゼロ頻度問題にも対処できている).\subsection{手法2}手法2は,手法1を拡張し,$n$-gram確率の比(\ref{式:n-gram確率の比})の推定において,有意水準$\alpha$では両言語モデルにおける$n$-gram確率の一方が他方より有意に大きいと判断できない場合に,$3\leqk<n$の$k$-gram確率の比の推定値を用いるものである\footnote{$2\leqk<n$も実験では試してみたが,$3\leqk<n$の場合より,若干精度が低下した.これは,bi-gramモデルでは母語話者/非母語話者文書の相違を扱うにはモデルが単純過ぎることを意味している.}.\begin{enumerate}\item$k\longleftarrown$\item\label{手法2繰り返し}以下の3つの場合に応じて,\begin{equation}\label{式:n-gram確率の比(手法2)}\frac{P_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})}{P_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})}\end{equation}を推定する.\begin{itemize}\item[(A)]$\widehat{P}_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})>\widehat{P}_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&P_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\leq\mu\cdotP_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&P_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})>\mu\cdotP_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})を$\mu$と推定し,$\mu\leq1$ならば1と推定する.\item[(B)]$\widehat{P}_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})<\widehat{P}_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&\mu\cdotP_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\geqP_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&\mu\cdotP_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})<P_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})を$1/\mu$と推定し,$\mu\leq1$ならば1と推定する.\item[(C)]$\widehat{P}_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})=\widehat{P}_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})$の場合$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})を1と推定する.\end{itemize}\item推定した$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})が1で,かつ,$k>3$ならば,$k\longleftarrowk-1$として(\ref{手法2繰り返し})へ.そうでないならば,この推定値を式(\ref{式:n-gram確率の比})の推定値とする.\end{enumerate} \section{実験} 2つの提案手法,つまり,\begin{itemize}\item式(\ref{式:n-gram確率の比})の値の推定を手法1で行う判別手法(Hypo1),\item式(\ref{式:n-gram確率の比})の値の推定を手法2で行う判別手法(Hypo2)\end{itemize}を用いた母語話者性判別実験を行った.また,\begin{itemize}\item藤井らの手法で使用する言語モデルを$n$-gramに拡張した手法(Skew),\item青木らの手法(KL)\end{itemize}による母語話者性判別を行い,提案手法との比較を行った.実験データは以下の2種類を用意した.\begin{itemize}\item{\bfデータ1}\\電気情報関係の国際会議で発表された英語科学技術論文.内訳は,\begin{itemize}\item英語圏(米国,英国,カナダ,オーストラリア)で開催された採択率50\%未満の国際会議の論文で,第一著者が英語圏所属の非日本人名である論文602件,\item東/東南アジアで開催された採択率50\%以上の国際会議の論文で,第一著者が日本所属の日本人名の論文679件\end{itemize}である.擬似的に,前者を母語話者文書集合,後者を非母語話者文書集合とした.なお,母語話者文書集合/非母語話者文書集合における品詞列の出現頻度情報の信頼度がほぼ同一となるように,両文書集合中の延べ単語数(下記の前処理後の単語数)がほぼ同数になるように文書数を設定した.\item{\bfデータ2}\\電気情報関係の国際会議で発表された英語科学技術論文で,校正専門家(母語話者)が母語話者性を判定したもの60件(母語話者文書25件,非母語話者文書35件).これは,\cite{青木}で使用されている評価用論文と同一のものである.\end{itemize}なお,論文の収集に際しては,両文書集合に母語話者/非母語話者以外の特徴の差が現れないように注意を払った.すなわち,複数の研究分野から論文を収集し,図表や数式,ヘッダやフッタなどの情報を削除するという前処理を行った.単語列から品詞列への変換にはTreeTagger\footnote{http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/DecisonTreeTagger.html}を用いた.変換後の品詞異なり数は57であった(文頭,文末の特殊記号$@_s$,$@_e$を除く).データ1に付与された母語話者性($N$/$N\!N$の別)はかなり精度は高いものの,勿論誤りを含む.そこで,参考としてデータ2をテストデータ(判別対象文書)とした実験(評価実験2)も行った.データ数が少ないため,各手法に対して有意な差は期待できないが,データ1での結果と同様の傾向が見られるかどうかを調べた.各手法の評価は,以下の2つの精度\begin{align*}Prec(N)&=\frac{母語話者文書で母語話者文書と判別された文書数}{母語話者文書と判別された文書数}\\[4mm]Prec(\NN)&=\frac{非母語話者文書で非母語話者文書と判別された文書数}{非母語話者文書と判別された文書数}\end{align*}のうち値の低い方(これをMinPrecと表記する)を用いて評価する.これは,本手法の目的が,母語話者文書および非母語話者文書をともに高精度で収集することにあるからである.\subsection{評価実験1}以下のようにして,各手法の精度をデータ1を用いて10交差検定(10-foldcrossvalidation)\cite{確率的言語モデルテキスト}で求める.\begin{itemize}\item[(1)]データ1の母語話者文書集合を$B_1^N,B_2^N,\cdots,B_{10}^N$と10ブロックに分割する.同様にデータ1の非母語話者文書集合を$B_1^\NN,B_2^\NN,\cdots,B_{10}^\NN$と10ブロックに分割する.\item[(2)]各$t=1,2,\cdots,10$に対して,以下を行う.\begin{itemize}\item[(a)]各$i=1,2,\cdots,10\,(\neqt)$に対して,\\$B_t^N,\,B_i^N$を除く8ブロックの母語話者文書を母語話者言語モデルの学習データ,$B_t^\NN,\,B_i^\NN$を除く8ブロックの非母語話者文書を非母語話者言語モデルの学習データとして,$(B_i^N,B_i^\NN)$の各文書の母語話者性を判別し,MinPrecが最大となるメタパラメタの値を求める.\item[(b)]上記で求めたメタパラメタの値(9個)の平均値をメタパラメタの値として設定し,$B_t^N$を除く9ブロックの母語話者文書を母語話者言語モデルの学習データ,$B_t^\NN$を除く9ブロックの非母語話者文書を非母語話者言語モデルの学習データとして,$(B_t^N,B_t^\NN)$の各文書の母語話者性を判別する.\end{itemize}\item[(3)]上記(b)で求めた母語話者性判別結果より,精度を求める.\end{itemize}なお,各手法におけるメタパラメタは,手法Hypo1とHypo2では有意水準$\alpha$,手法Skewでは式(\ref{Skew:α})の$\beta$,手法KLでは式(\ref{式:Sibun加算スムージング})の加算項$\delta$である.上記(2)の(a)での各$(B_i^N,B_i^\NN)$に対するMinPrecが最大となるメタパラメタの値は,\begin{align*}\alpha&\in\{0.01,\;0.03,\;0.05,\;0.07,\;0.09,\;0.11\}\quad\mbox{(Hypo1,2)}\\\beta&\in\{0.01,\;0.02,\;\cdots,\;0.15\}\quad\mbox{(Skew)}\\\delta&\in\{1\times10^{-7},\;3\times10^{-7},\;5\times10^{-7},\;1\times10^{-6},\;3\times10^{-6},\;\cdots,\;5\times10^{-4}\}\quad\mbox{(KL)}\end{align*}の範囲で求めた.\subsection{評価実験2}以下のようにして,データ1を学習データ,データ2をテストデータとした場合の各手法の精度を求める.\begin{itemize}\item[(1)]データ1の母語話者文書集合を$B_1^N,B_2^N,\cdots,B_{10}^N$と10ブロックに分割する.同様にデータ1の非母語話者文書集合を$B_1^\NN,B_2^\NN,\cdots,B_{10}^\NN$と10ブロックに分割する.\item[(2)]各$i=1,2,\cdots,10$に対して,\\$B_i^N$を除く9ブロックの母語話者文書を母語話者言語モデルの学習データ,$B_i^\NN$を除く9ブロックの非母語話者文書を非母語話者言語モデルの学習データとして,$(B_i^N,B_i^\NN)$の各文書の母語話者性を判別し,MinPrecが最大となるメタパラメタの値を求める.\item[(3)]上記で求めたメタパラメタの値(10個)の平均値をメタパラメタの値として設定し,データ1の全母語話者文書を母語話者言語モデルの学習データ,データ1の全非母語話者文書を非母語話者言語モデルの学習データとして,データ2の各文書の母語話者性を判別し,精度を求める.\end{itemize}上記(2)でのMinPrecが最大となるメタパラメタ値は前節と同様の範囲で求めた.\subsection{結果と考察}$n=3,4,5,6,7,8$なる品詞$n$-gramを言語モデルとした場合の2つの評価実験の結果を表\ref{実験結果}に示す.表には,MinPrecだけでなく,参考のため,Prec(N),Prec(NN)も挙げている.また,『未定』の判定になった数を挙げている.手法Skewのみ未定があるが,これは,条件部の品詞列の学習データにおける頻度が高い品詞$n$-gram分布が存在し,用いた計算機の精度では式(\ref{Skew:α})の値が1となり,その結果$ED(d\;;\;N)$も$ED(d\;;\;\NN)$も$\infty$となってしまったことによる.評価実験1では,各手法とも,$n>3$でMinPrecが最も高い.手法Skewは,$\alpha$の設定式(\ref{Skew:α})が最適とは限らないことを述べたが,それでも,$n=5$の場合は$n=3$の場合より精度が1\%向上しており,このことからも,条件部の長い品詞$n$-gramモデルを言語モデルとすることの有効性が分かる.提案手法では,Hypo2の$n=7$の場合のMinPrecが最も高く,$\mbox{MinPrec}=Prec(N)=552/597\simeq0.925$である.一方,従来手法では,Skewの$n=5$の場合のMinPrecが最も高く,$\mbox{MinPrec}=Prec(N)=546/606\simeq0.901$である.2つの二項母集団の母比率の差の検定\cite{統計テキスト2}を行うと,有意水準約8\%で有意差があることが示せ,AICに基づく2つの二項母集団の母比率の差の検定\cite{統計テキスト3}でも有意差が示せる.2つの提案手法Hypo1とHypo2の比較では,同一の$n$に対するMinPrecはHypo2の方が概ね高い.特に,$n=6,7,8$ではその差は大きく,$n$-gram確率に関して,母語話者/非母語話者文書間で有意な差がない場合に,$k<n$なる$k$-gram確率を利用して式(\ref{式:n-gram確率の比})を推定する効果が現れていることが分かる.評価実験2でも,各手法とも$n>3$でMinPrecが最も高く,そのうち,Hypo2のMinPrecが最も高い.また,Hypo1とHypo2における同一の$n$に対するMinPrecはHypo2の方が概ね高い.評価実験2では使用したテスト文書数が少ないため,信頼性のある結果とは言えないが,このように評価実験1とある程度同様の傾向が現れていることが分かる.\begin{table}[t]\caption{評価実験1,2の結果}\label{実験結果}\input{02table02.txt}\end{table} \section{おわりに} 英文書を品詞列と見なし,品詞$n$-gramモデルを統計的言語モデルとしたベイズ識別に基づく母語話者性判別手法を提案した.提案した手法は,長い品詞列の頻度情報を利用し,仮説検定を利用して,長い品詞列の頻度情報を使うことによる信頼性の低下を防ぐもので,従来手法からの判別精度の改善が確認できた.現在,Web上から科学技術論文を収集し,提案した母語話者性判別システムを用いて母語話者/非母語話者英語論文コーパスを構築することを検討している.\acknowledgment本研究の一部は,科学研究費補助金・基盤研究B(課題番号20320082)により行われた.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Cavnar\BBA\Trenkle}{Cavnar\BBA\Trenkle}{1994}]{cavnar}Cavnar,W.~B.\BBACOMMA\\BBA\Trenkle,J.~M.\BBOP1994\BBCP.\newblock\BBOQ{N}-Gram-BasedTextCategorization\BBCQ\\newblockIn{\BemProceedingsof{SDAIR}-94,3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\161--175}\LasVegas,US.\bibitem[\protect\BCAY{Dunning}{Dunning}{1994}]{dunning}Dunning,T.\BBOP1994\BBCP.\newblock\BBOQStatisticalIdentificationofLanguage\BBCQ\\newblockTechicalreport\MCCS-94-273,ComputingResearchLab(CRL),NewMexicoStateUniversity.\bibitem[\protect\BCAY{Lee}{Lee}{1999}]{Lee}Lee,L.\BBOP1999\BBCP.\newblock\BBOQMeasuresofDistributionalSimilarity\BBCQ\\newblockIn{\Bem37thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Sibun\BBA\Reynar}{Sibun\BBA\Reynar}{1996}]{sibun}Sibun,P.\BBACOMMA\\BBA\Reynar,J.~C.\BBOP1996\BBCP.\newblock\BBOQLanguageIdentification:ExaminingtheIssues\BBCQ\\newblockIn{\Bem5thSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\125--135}\LasVegas,Nevada,U.S.A.\bibitem[\protect\BCAY{Tomokiyo\BBA\Jones}{Tomokiyo\BBA\Jones}{2001}]{Tomokiyo}Tomokiyo,L.~M.\BBACOMMA\\BBA\Jones,R.\BBOP2001\BBCP.\newblock\BBOQYou'reNotFromRoundHere,AreYou?NaiveBayesDetectionofNon-nativeUtteranceText\BBCQ\\newblockIn{\BemProceedingsofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL-01)},\mbox{\BPGS\239--5246}.\bibitem[\protect\BCAY{青木\JBA冨浦\JBA行野\JBA谷川}{青木\Jetal}{2005}]{青木}青木さやか\JBA冨浦洋一\JBA行野顕正\JBA谷川龍司\BBOP2005\BBCP.\newblock\JBOQ言語識別技術を応用した英語における母語話者文書・非母語話者文書の判別\JBCQ\\newblock\Jem{情報科学技術レターズ,第5巻},\mbox{\BPGS\85--88}.\bibitem[\protect\BCAY{野田\JBA宮岡}{野田\JBA宮岡}{1992}]{統計テキスト}野田一雄\JBA宮岡悦良\BBOP1992\BBCP.\newblock\Jem{数理統計学の基礎}.\newblock共立出版.\bibitem[\protect\BCAY{麻生\JBA津田\JBA村田}{麻生\Jetal}{2003}]{パターン認識テキスト}麻生英樹\JBA津田宏治\JBA村田昇\BBOP2003\BBCP.\newblock\Jem{統計科学のフロンティア6パターン認識と学習の統計学}.\newblock岩波書店.\bibitem[\protect\BCAY{鈴木}{鈴木}{1995}]{統計テキスト3}鈴木義一郎\BBOP1995\BBCP.\newblock\Jem{情報量規準による統計解析入門}.\newblock講談社.\bibitem[\protect\BCAY{北}{北}{1999}]{確率的言語モデルテキスト}北研二\BBOP1999\BBCP.\newblock\Jem{言語と計算4確率的言語モデル}.\newblock東京大学出版会.\bibitem[\protect\BCAY{行野\JBA田中\JBA冨浦\JBA松本}{行野\Jetal}{2006}]{行野}行野顕正\JBA田中省作\JBA冨浦洋一\JBA松本英樹\BBOP2006\BBCP.\newblock\JBOQ低頻度byte列を活用した言語識別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(4),\mbox{\BPGS\1287--1294}.\bibitem[\protect\BCAY{藤井\JBA冨浦\JBA田中}{藤井\Jetal}{2005}]{藤井}藤井宏\JBA冨浦洋一\JBA田中省作\BBOP2005\BBCP.\newblock\JBOQSkewDivergenceに基づく文書の母語話者性の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(4),\mbox{\BPGS\79--96}.\bibitem[\protect\BCAY{大鹿\JBA佐藤\JBA安藤\JBA山名}{大鹿\Jetal}{2005}]{大鹿}大鹿広憲\JBA佐藤学\JBA安藤進\JBA山名早人\BBOP2005\BBCP.\newblock\JBOQGoogleを活用した英作文支援システムの構築\JBCQ\\newblockIn{\BemDataEngineeringWorkshop},\mbox{\BPGS\4B--i8}.\bibitem[\protect\BCAY{竹村}{竹村}{1991}]{統計テキスト2}竹村彰通\BBOP1991\BBCP.\newblock\Jem{現代数理統計学}.\newblock創文社.\bibitem[\protect\BCAY{大武\JBA河本\JBA竹腰\JBA国村\JBAMorren\JBA竹内\JBA鵜川\JBA藤田\JBA金子}{大武\Jetal}{2004}]{大武}大武博\JBA河本健\JBA竹腰正隆\JBA国村正子\JBABrianMorren\JBA竹内浩昭\JBA鵜川義弘\JBA藤田信之\JBA金子周司\BBOP2004\BBCP.\newblock\JBOQインターネット利用による電子英文情報の即時教材化システムの開発とその教育利用\JBCQ\\newblock\Jem{情報処理学会研究会報告,FI,No.77},\mbox{\BPGS\23--32}.\bibitem[\protect\BCAY{佐野\JBA猪野}{佐野\JBA猪野}{2000}]{佐野}佐野洋\JBA猪野真理枝\BBOP2000\BBCP.\newblock\JBOQ英語文法の難易度計測と自動分析\JBCQ\\newblock\Jem{情報処理学会研究会報告,CE,No.58},\mbox{\BPGS\5--12}.\bibitem[\protect\BCAY{前田\JBA関\JBA吉川\JBA植村}{前田\Jetal}{2001}]{前田}前田亮\JBA関慶妍\JBA吉川正俊\JBA植村俊亮\BBOP2001\BBCP.\newblock\JBOQWeb文書の符号系および使用言語の自動識別\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ84-D-II}(1),\mbox{\BPGS\150--158}.\end{thebibliography}\appendix \section{2つの二項母集団の母比率の比の検定} 標本$\vX$の統計モデルを$\{P(\cdot\:;\:\theta)\:|\:\theta\in\Theta\}$とし($\Theta$はパラメタ空間),$\Theta_0$と$\Theta_1$を$\Theta_0\cap\Theta_1=\emptyset$,$\Theta_0\cup\Theta_1=\Theta$なる$\Theta$の部分集合とする.$\theta\in\Theta_0$は帰無仮説,$\theta\in\Theta_1$は対立仮説と呼ばれる.標本$\vX$の値(観測値)$\vx$を基に$\theta\in\Theta_0$か$\theta\in\Theta_1$かを決定することを統計的仮説検定という(詳しくは,たとえば,文献\cite{統計テキスト}を参照).標本$\vX$の統計量$T(\vX)$を用いて$T(\vx)\geqt$のとき帰無仮説を棄却する検定を考える.与えられた$\Theta_0$と$\alpha$に依存させて$t$を\begin{equation}\label{式:有意水準αの検定}\forall\theta\in\Theta_0\;P(T(\vX)\geqt\:;\:\theta)\leq\alpha\end{equation}を満たすように設定すると,この検定は,有意水準$\alpha$の検定(帰無仮説が正しいにもかかわらず帰無仮説を棄却してしまう確率が$\alpha$以下である検定)となる.確率変数$X$が二項分布$B(m,p)$\footnote{$X$の確率関数$f_X(x)$が以下で与えられる分布である.\[f_X(x)=\begin{cases}_mC_x\:p^x(1-p)^{m-x}&\;x=0,1,2,\cdots,m,\\0&\;その他\end{cases}\]}に従い,確率変数$Y$が二項分布$B(n,q)$に従うとし,$x/m>y/n$である場合に,$(X,Y)$の観測値$(x,y)$を基に$p/q>\mu$であるか否かの判定を行いたい.このような判定を行う検定は,著者の知る限りでは,確率・統計のテキストなどでは解説されていない.望ましい性質を持つことで知られる尤度比検定を行うことも考えられるが,$m$,$n$が大きくなった場合,棄却判定の計算に時間を要する.したがって,尤度比検定を用いた場合,現実的な時間内で一つの文書の母語話者性の判別ができないことがある.そこで,本研究では,このような判定を高速に行う近似的な検定手法を新たに考案し,これを母語話者性の判別に利用する.一様最強力検定や第2種の誤り(帰無仮説が正しくないにもかかわらず帰無仮説を採択してしまう)確率が本手法より小さな検定で高速なものが求まるならば,これらの検定を利用することで母語話者性の判別の精度はより向上すると考えられる.帰無仮説と対立仮説を以下のように設定した検定を考える.\begin{align*}帰無仮説&:(p,q)\in\Theta_0=\{(p,q)\:|\:p\leq\muq,\;0\leqp\leq1,\;0\leqq\leq1\}\\対立仮説&:(p,q)\in\Theta_1=\{(p,q)\:|\:p>\muq,\;0\leqp\leq1,\;0\leqq\leq1\}\end{align*}本論文では母比率の比の検定と呼ぶ.本質的には,$p\leq\muq$であるか否かであるが,ここでは上記のように正確に両仮説を記述しておく.帰無仮説が棄却されるならば,$p/q>\mu$と判定したことになる.対立仮説が正しい場合に,その観測値が大きな値となる傾向を持つ統計量$T^\dagger(X,Y)$\[T^\dagger(X,Y)=\frac{X/m}{(Y+1)/(n+1)}\]を用いて,$T^\dagger(x,y)\geqt^\dagger(\mu)$のとき帰無仮説を棄却することにする.分母の`$+1$'は$Y$の観測値が0の場合でも$T^\dagger$が定義できるように導入したものである.式(\ref{式:有意水準αの検定})より,$t^\dagger(\mu)$は\begin{equation}\label{式:検定基礎}\forall(p,q)\in\Theta_0\;\;P(T^\dagger(X,Y)\geqt^\dagger(\mu)\:;\:p,q)\leq\alpha\end{equation}を満たすように,$\mu$と有意水準$\alpha$に応じて設定される.本手法では,$t^\dagger(\mu)$を求めて帰無仮説の棄却判定を行う代わりに,観測値$(x,y)$の$p$-値を用いて棄却判定を行う.$(x,y)$の$p$-値とは,$(x,y)$を基に帰無仮説を棄却できる最小の有意水準のことである.明らかに,$P(T^\dagger(X,Y)\geqt\:;\:p,q)$は$t$の減少関数であり,$T^\dagger(x,y)\geqt^\dagger(\mu)$のとき帰無仮説を棄却するのであるから,$(x,y)$の$p$-値は以下で与えられ,\begin{equation}\label{式:p-値1}\max_{(p,q)\in\Theta_0}\;P(T^\dagger(X,Y)\geqT^\dagger(x,y)\:;\:p,q)\end{equation}この値が$\alpha$以下である場合に,有意水準$\alpha$で帰無仮説を棄却することになる.ここで新たに\[T(X,Y)=\frac{X}{Y+1}\]と定義すると,式(\ref{式:p-値1})は,以下と等しい.\begin{equation}\label{式:p-値2}\max_{(p,q)\in\Theta_0}\;P(T(X,Y)\geqT(x,y)\:;\:p,q).\end{equation}$Y$が$B(n,q)$に従うとき,$0\leqy_0<n$なる任意の$y_0$に対して$P(Y\leqy_0\:;\:q)$は$q$の単調減少関数であり,$y_0<0$なる任意の$y_0$に対して$P(Y\leqy_0\:;\:q)=0$であり,$y_0\geqn$なる任意の$y_0$に対して$P(Y\leqy_0\:;\:q)=1$である.この性質と,$0<x,\;y<n$(∵前提$x/m>y/n$),および,\[P(T(X,Y)\geqT(x,y)\:;\:p,q)=\sum_{x'=0}^m\:\rule{0pt}{1pt}_mC_{x'}p^{x'}(1-p)^{m-x'}\cdotP\left(\frac{x'}{Y+1}\geqT(x,y)\:;\:q\right)\]と表すことができることから,$(x,y)$の$p$-値である式(\ref{式:p-値2})は,\begin{equation}\label{式:p-値3}\max_{(p,q)\in\Theta_0'}\;P(T(X,Y)\geqT(x,y)\:;\:p,q)\end{equation}と等しい.ただし,$\Theta_0'=\{(p,q)\:|\:p=\muq,\;0\leqp\leq1,\;0\leqq\leq1\}$である.観測値$(x,y)$に基づいた,$(p,q)\in\Theta_0'$の下での$p$,$q$の最尤推定値(つまり,$(x,y)$の生起確率を最大にする$p$,$q$の値)を$p^*(\mu)$,$q^*(\mu)$で表すと,\begin{align*}p^*(\mu)&=\mu\cdotq^*(\mu)\\q^*(\mu)&=\frac{x+\muy+\mum+n-\sqrt{(x+\muy+\mum+n)^2-4(x+y)(m+n)\mu}}{2(m+n)\mu}\end{align*}である.本手法では,検定に要する時間を考慮し,式(\ref{式:p-値3})を$P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))$で近似し,\[P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))\leq\alpha\]ならば帰無仮説を棄却する.二項分布$B(m,p)$に従う確率変数の分布関数は,$mp>5$かつ$m(1-p)>5$の場合,正規分布で近似できる.そこで,$P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))\leq\alpha$の判定に必要な$P(T(X,Y)\geqt\:;\:p,q)$の計算は,$X$,$Y$の分布を正規分布で近似できるか否かにより,4つの場合に分けて行った.$X$,$Y$共に正規分布で近似できる場合と,$X$のみ正規分布で近似できる場合の計算をそれぞれ以下の(1)(2)に示す.以下に示すとおり,正規分布の性質を利用して高速な計算が可能である.\medskip\noindent\underline{\mbox{(1)$5<mp<m-5$かつ$5<nq<n-5$の場合}}\[P\left(T(X,Y)\geqt\:;\:p,q\right)=P(X-tY\geqt\:;\:p,q)\]である.$X$の分布は正規分布$N(mp,mp(1-p))$で近似でき\footnote{平均が$\xi$,分散が$\sigma^2$の正規分布を$N(\xi,\sigma^2)$で表す.},$Y$の分布は$N(nq,nq(1-q))$で近似できるので,正規分布の性質より,\[P(T(X,Y)\geqt\:;\:p,q)=P\left(Z\geq\frac{t-mp+tnq}{\sqrt{mp(1-p)+t^2nq(1-q)}}\right)\]である.ただし,$Z$は標準正規分布に従う確率変数である.\medskip\noindent\underline{\mbox{(2)$5<mp<m-5$かつ[$nq\leq5$または$n-5\leqnq$]の場合}}\[P\left(T(X,Y)\geqt\:;\:p,q\right)=\sum_{y'=0}^nP(Y=y'\:;\:q)\cdotP(X\geqt(y'+1)\:;\:p)\]である.$X$の分布は正規分布$N(mp,mp(1-p))$で近似できるので,\[P\left(T(X,Y)\geqt\:;\:p,q\right)=\sum_{y'=0}^n\:\rule{0pt}{1pt}_nC_{y'}\:{q}^{y'}(1-q)^{n-y'}\cdotP\left(Z\geq\frac{t(y'+1)-mp}{\sqrt{mp(1-p)}}\right).\]である.ただし,$Z$は標準正規分布に従う確率変数である. \section{仮説検定を利用した母比率の比の推定} \label{付録:estimateMu}$X$を二項分布$B(m,p)$に従う確率変数,$x$をその観測値,$Y$を二項分布$B(n,q)$に従う確率変数,$y$をその観測値とする(勿論,$p$,$q$は未知である).$x/m>y/n$を前提として,前節の仮説検定で,帰無仮説を棄却できる最大の$\mu$,つまり,\begin{equation}P(T(X,Y)\geqT(x,y)\;;\;p^*(\widehat{\mu}(x,m,y,n)),q^*(\widehat{\mu}(x,m,y,n)))=\alpha\end{equation}なる$\widehat{\mu}(x,m,y,n)$を以下のようにして求める.\[pv(\mu\:;\:x,y)=P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))\]とおき,$pv(\mu\:;\:x,y)$が$\mu$の増加関数になっていることを利用して\footnote{$p^*(\mu)$は$\mu$の増加関数,$q^*(\mu)$は$\mu$の減少関数になっていることが示せる.\\このことから,$P(T(X,Y)\geqT(x,y)\;;\;p^*(\mu),q^*(\mu))$が$\mu$の増加関数になっていることが示せる.},2分法により求める.\begin{itemize}\item[(1)]$\mu_L=1$とし,$pv(\mu_L\;;\;x,y)<\alpha$となるまで,$\mu_L\leftarrow\mu_L/2$を繰り返す.\\$\mu_R=1$とし,$pv(\mu_R\;;\;x,y)>\alpha$となるまで,$\mu_R\leftarrow2\cdot\mu_R$を繰り返す.\item[(2)]$\mu_R-\mu_L$が十分小さくなるか,$pv((\mu_L+\mu_R)/2\;;\;x,y)=\alpha$となるまで以下を繰り返す.\begin{itemize}\item$\mu_C\leftarrow(\mu_L+\mu_R)/2$\item$\{pv(\mu_L\;;\;x,y)-\alpha\}$と$\{pv(\mu_C\;;\;x,y)-\alpha\}$が同符号ならば,$\mu_L\leftarrow\mu_C$とし,そうでないならば,$\mu_R\leftarrow\mu_C$とする.\end{itemize}\item[(3)]$(\mu_L+\mu_R)/2$が$\widehat{\mu}(x,m,y,n)$である.\end{itemize}最後に,前節で述べた$T^\dagger(X,Y)$による$p/q$の信頼区間を文献\cite{統計テキスト}に従って求め,$(\widehat{\mu}(x,m,y,n),\infty)$が近似的に$p/q$の$100(1-\alpha)\%$信頼区間になっていることを述べ,シミュレーションによりこれを確かめる.標本$\vX$の統計モデルを$\{P(\cdot\:;\:\theta)\:|\:\theta\in\Theta\}$とし,$S(\vx)$を$\Theta$の部分集合とする.\[\forall\theta\in\Theta\;\;P(\theta\inS(\vX)\:;\:\theta)\geq1-\alpha\]となるとき,$S(\vX)$を$\theta$の$100(1-\alpha)\%$信頼領域($S(\vX)$が区間になる場合は信頼区間)と言う.$p/q$はパラメタではないが,この定義に当てはめるならば,統計量$L(X,Y)$が\begin{equation}\label{式:信頼区間定義式}\forall(p,q)\in[0,1]^2\;\;P(L(X,Y)<p/q\:;\:p,q)\geq1-\alpha\end{equation}を満たすならば,$(L(X,Y),\infty)$は$p/q$の$100(1-\alpha)\%$信頼区間である.これは,$(X,Y)$の観測値を100個得たとき,$L(x,y)<p/q$を満たす観測値$(x,y)$が$100(1-\alpha)$個程度以上あることを意味している.観測値$(x,y)$に対する$L(x,y)$は,\[L(x,y)=\max\{\mu\:|\:T^\dagger(x,y)\geqt^\dagger(\mu)\}\]で求めることができる.以下にこれを示す.上記定義より,$(p_0,q_0)$を任意に選んだとき,\[L(x,y)<p_0/q_0\LongleftrightarrowT^\dagger(x,y)<t^\dagger(p_0/q_0)\]が成立する.したがって,\begin{align*}P(L(X,Y)<p_0/q_0\:;\:p_0,q_0)&=P(T^\dagger(X,Y)<t^\dagger(p_0/q_0)\:;\:p_0,q_0)\\&=1-P(T^\dagger(X,Y)\geqt^\dagger(p_0/q_0)\:;\:p_0,q_0)\\&\geq1-\alpha\quad(\mbox{∵$p_0\leq(p_0/q_0)q_0$と式(\ref{式:検定基礎})})\end{align*}$p_0$,$q_0$は任意に選んだので,$L(X,Y)$は式(\ref{式:信頼区間定義式})を満たすことが分かる.$L(x,y)$の定義より,$L(x,y)$は帰無仮説($p\leq\muq$)を棄却できる最大の$\mu$である.前節で述べた検定は,$p$-値(\ref{式:p-値3})(つまり$p$-値(\ref{式:p-値1}))を$P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))$で近似しているため,$\widehat{\mu}(x,m,y,n)$は$L(x,y)$の近似と考えられる.$\widehat{\mu}(x,m,y,n)$が$L(x,y)$の近似となっていることを確かめるために,シミュレーションを行った.有意水準$\alpha$を0.05とし,いくつかの$m$,$p$,$n$,$q$に対して,$B(m,p)$および$B(n,q)$に従って$(x,y)$を$10,000$個発生させ,$x/m\neqy/n$なる各$(x,y)$に対し,\begin{itemize}\item$x/m>y/n$のとき,$\widehat{\mu}(x,m,y,n)<p/q$ならば成功,$\widehat{\mu}(x,m,y,n)\geqp/q$ならば失敗,\item$x/m<y/n$のとき,$p/q<1/\widehat{\mu}(y,n,x,m)$ならば成功$p/q\geq1/\widehat{\mu}(y,n,x,m)$ならば失敗\end{itemize}とし,求めた信頼区間に$p/q$が含まれる割合を求めた.結果を表\ref{表:estimateMu}に示す.この表から,近似の影響はあるものの,$\widehat{\mu}(x,m,y,n)<p/q$あるいは$p/q<1/\widehat{\mu}(y,n,x,m)$がほぼ$100(1-\alpha)\%$の割合で成立していることが分かる.\clearpage\begin{table}[t]\caption{$p/q$の信頼区間の推定の成功率}\label{表:estimateMu}\input{02table03.txt}\end{table}\begin{biography}\bioauthor{冨浦洋一}{1984年九州大学工学部電子工学科卒業,1989年同大学院工学研究科電子工学専攻博士課程単位取得退学.同年九州大学工学部助手,1995年同助教授,現在,九州大学大学院システム情報科学研究院准教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.}\bioauthor{青木さやか}{2006年九州大学工学部電気情報工学科卒業,2008年同大学院システム情報科学府知能システム学専攻修了,現在,新日鉄ソリューションズ(株)に勤務.自然言語処理に関する研究に従事.}\bioauthor{柴田雅博}{1996年九州大学工学部情報工学科卒業,2005年同大学院システム情報科学研究科知能システム学専攻博士課程単位取得退学.同年九州システム情報技術研究所特別研究助手,2006年九州大学ベンチャー・ビジネス・ラボラトリー講師(中核的研究機関研究員),現在,九州大学大学院システム情報科学研究院テクニカルスタッフ.博士(工学).自然言語処理に関する研究に従事.}\bioauthor{行野顕正}{2001年九州大学工学部電気情報工学科卒業,2007年同大学院システム情報科学府知能システム学専攻博士課程修了,現在,株式会社ジャストシステムに勤務.博士(工学).自然言語処理に関する研究に従事.}\end{biography}\biodate\end{document}
V21N05-04
\section{はじめに\label{sec:introduction}} 線形計画問題において全てもしくは一部の変数が整数値を取る制約を持つ(混合)整数計画問題は,産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の1つである.近年,整数計画ソルバー(整数計画問題を解くソフトウェア)の進歩は著しく,現在では数千変数から数万変数におよぶ実務上の最適化問題が次々と解決されている.また,商用・非商用を含めて多数の整数計画ソルバーが公開されており,整数計画問題を解くアルゴリズムを知らなくても定式化さえできれば整数計画ソルバーを利用できるようになったため,数理最適化以外の分野においても整数計画ソルバーを利用した研究が急速に普及している.最適化問題は,与えられた制約条件の下で目的関数$f(\bm{x})$の値を最小にする解$\bm{x}$を1つ求める問題であり,線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最も基本的な最適化問題である.通常の線形計画問題では,全ての変数は連続的な実数値を取るが,全ての変数が離散的な整数値のみを取る線形計画問題は整数(線形)計画問題と呼ばれる.また,一部の変数が整数値のみを取る場合は混合整数計画問題,全ての変数が$\{0,1\}$の2値のみを取る場合は0-1整数計画問題と呼ばれる.最近では非線形の問題も含めて整数計画問題と呼ばれる場合が多いが,本論文では線形の問題のみを整数計画問題と呼ぶ.また,混合整数計画問題や0-1整数計画問題も区別せずに整数計画問題と呼ぶ.整数変数は離散的な値を取る事象を表すだけではなく,制約式や状態を切り替えるスイッチとして用いることが可能であり,産業や学術の幅広い分野における現実問題を整数計画問題に定式化できる.組合せ最適化問題は,制約条件を満たす解の集合が組合せ的な構造を持つ最適化問題であり,解が集合,順序,割当て,グラフ,論理値,整数などで記述される場合が多い.原理的に,全ての組合せ最適化問題は整数計画問題に定式化できることが知られており,最近では,整数計画ソルバーの性能向上とも相まって,整数計画ソルバーを用いて組合せ最適化問題を解く事例が増えている.現実問題を線形計画問題や整数計画問題に定式化する際には,線形式のみを用いて目的関数と制約条件を記述する必要がある.こう書くと,扱える現実問題がかなり限定されるように思われる.実際に,線形計画法の生みの親であるDantzigもWisconsin大学で講演をした際に「残念ながら宇宙は線形ではない」と批判を受けている\cite{KonnoH2005}.しかし,正確さを失うことなく現実問題を非線形計画問題に定式化できても最適解を求められない場合も多く,逆に非線形に見える問題でも変数の追加や式の変形により等価な線形計画問題や整数計画問題に変換できる場合も少なくない.そのため,現実問題を線形計画問題や整数計画問題に定式化してその最適解を求めることは,実用的な問題解決の手法として受け入れられている.現在では,整数計画ソルバーは現実問題を解決するための有用な道具として数理最適化以外の分野でも急速に普及している.一方で,数理最適化の専門家ではない利用者にとって,線形式のみを用いて現実問題を記述することは容易な作業ではなく,現実問題を上手く定式化できずに悩んだり,強力だが専門家だけが使う良く分からない手法だと敬遠している利用者も少なくない.そこで,本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する.なお,最近の整数計画ソルバーはアルゴリズムを知らなくても不自由なく利用できる場合が多いため,本論文では,線形計画法,整数計画法の解法および理論に関する詳しい説明は行わない.線形計画法については\cite{ChvatalV1983,KonnoH1987},整数計画法については\cite{KonnoH1982,NemhauserGL1988,WolseyLA1998}が詳しい.また,線形計画法,整数計画法の発展の歴史については\cite{AchterbergT2013,AshfordR2007,BixbyR2007,KonnoH2005,KonnoH2014,LodiA2010}が詳しい. \section{線形計画問題と整数計画問題} \label{sec:fundamental}線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最適化問題であり,一般に以下の標準形で表される.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{j=1}^nc_jx_j&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j\geb_i,&i=1,\dots,m,\\&x_j\ge0,&j=1,\dots,n.\end{array}\end{equation}ここで,$a_{ij}$,$b_i$,$c_j$は定数,$x_j$は変数である.制約式を全て満たす変数値の組を実行可能解と呼び,実行可能解全体の集合を実行可能領域と呼ぶ.実行可能解の中で目的関数の値を最小にする解が最適解であり,このときの目的関数の値を最適値と呼ぶ.線形計画問題は$\min\{\bm{c}^T\bm{x}\mid\bm{A}\bm{x}\ge\bm{b},\bm{x}\ge\bm{0}\}$と記述される場合も多い.ここで,各変数の非負条件$x_j\ge0$を(非負)整数条件$x_j\in\mathbb{Z}_+$($\mathbb{Z}_+$は非負整数集合)に置き換えると整数計画問題となる.線形計画問題では効率の良いアルゴリズムが開発されており,一番最初に単体法\footnote{1965年にNelderとMeadが非線形計画問題に対して単体法と呼ばれるアルゴリズムを提案しているが,名前が同じというだけで全く異なるアルゴリズムである.}が1947年にDantzigによって提案されている.単体法は実用的には優れた性能を持つが,理論的には多項式時間アルゴリズムではない.その後,初めての多項式時間アルゴリズムとなる楕円体法が1979年にKhachiyanに,さらに実用的にも高速な内点法が1984年にKarmarkarによって提案されている.現在では,単体法と内点法が実用的なアルゴリズムとして広く使われている.性能では内点法の方が優れているが,単体法は制約式や変数を追加して解き直す再最適化を効率良く実行できるため,単体法を用いた再最適化は整数計画問題を解く上で重要な役割を担っている.整数計画問題は実行可能解の数が有限となる場合が多く,理論上は全ての実行可能解を列挙すれば最適解が求められる.しかし,この種の列挙法は問題の規模の増加とともに走査する解の個数が急激に増加(組合せ的爆発)するため実用的ではない.整数計画問題はNP困難と呼ばれる問題のクラスに属することが計算の複雑さの理論により知られている.詳しい説明は省略するが,NP困難問題の最適解を求めようとすると,最悪の場合に全ての実行可能解を列挙するのと本質的に変わらない計算時間が必要であろうと予想されている\footnote{この予想が正しいかどうかは未解決で$\textnormal{P}\not=\textnormal{NP}$予想として有名である.}.整数計画問題では,分枝限定法と切除平面法が代表的なアルゴリズムとして知られている.分枝限定法は,直接解くことが難しい問題をいくつかの小規模な部分問題に分解する分枝操作と,生成された部分問題のうち何らかの理由で最適解が得られないと判定されたものを除く限定操作の2つの操作を繰返し適用するアルゴリズムで,整数計画問題以外にも多くの最適化問題で使われている.整数計画問題に対する分枝限定法は1960年にLandとDoigによって提案されており,暫定解(これまでの探索で得られた最良の実行可能解)から得られる最適値の上界値と,線形計画緩和問題(各変数の整数条件を緩和して得られる線形計画問題)を解いて得られる最適値の下界値を利用した限定操作で無駄な探索を省くアルゴリズムである.切除平面法は1958年にGomoryによって提案されており,線形計画緩和問題から始めて,切除平面(実行可能な整数解を残しつつ線形計画緩和問題の最適解を除去する制約式)を組織的に生成し,線形計画緩和問題に逐次追加することで最終的に整数最適解を得るアルゴリズムである.切除平面法は単体では実用的なアルゴリズムではなく,現在では,分枝限定法の内部で切除平面を逐次追加し,変数値の固定や部分問題に対する下界値の改善を実現する分枝切除法が大きな成功を収めている. \section{整数計画問題の応用事例} \label{sec:application}これまで,産業や学術の幅広い分野における多くの現実問題が整数計画問題に定式化されてきた.ここでは自然言語処理の応用事例として文書の自動要約\cite{FilatovaE2004,GillickD2009,HiraoT2009,McDonaldR2007,NishikawaH2013,TakamuraH2008}と文の対応付け\cite{NishinoM2013,NishinoM2014}を紹介する.\subsection{文書の自動要約}\label{sec:document-summarization}文書の自動要約は与えられた単数もしくは複数の文書から要約を生成する問題であり,与えられた文書から必要な文の組合せを選択する手法が知られている.文書要約の問題には,1つだけの文書が与えられる単一文書の要約と,同じトピックについて記述した複数の文書が与えられる複数文書の要約がある\footnote{単一の文書に類似した内容の文は含まれないと仮定する.}.まず,単一文書の要約を考える.$m$個の概念と$n$個の文と要約長$L$が与えられる.概念$i$の重要度を$w_i$($>0$),文$j$の長さを$l_j$,文$j$に含まれる概念$i$の数を$a_{ij}\in\{0,1\}$と表す.$x_j$は変数で,文$j$が要約に含まれるならば$x_j=1$,そうでなければ$x_j=0$の値を取る.文$j$に含まれる概念の重要度の合計$p_j=\sum_{i=1}^mw_ia_{ij}$はあらかじめ計算できるので,要約長$L$を超えない範囲で重要度の合計が最大となる要約を構成する問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{j=1}^np_jx_j&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nl_jx_j\leL,\\&x_j\in\{0,1\},&j=1,\dots,n.\end{array}\end{equation}この問題はナップサック問題と呼ばれるNP困難のクラスに属する組合せ最適化問題であるが,動的計画法や分枝限定法に基づく効率良いアルゴリズムが知られている\cite{KellererH2004,KorteB2012}.次に複数文書の要約を考える.複数の文書に類似した内容の文が含まれる場合はこれらの文が同時に選択され,生成された要約の中に類似した内容が繰返し現れる恐れがある.そこで,概念$i$が要約に含まれているならば$z_i=1$,そうでなければ$z_i=0$の値を取る変数$z_i$を導入すると以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{i=1}^mw_iz_i&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j\gez_i,&i=1,\dots,m,\\&\displaystyle\sum_{j=1}^nl_jx_j\leL,\\&x_j\in\{0,1\},&j=1,\dots,n,\\&z_i\in\{0,1\},&i=1,\dots,m.\end{array}\end{equation}1番目の制約条件は,左辺の値に関わらず$z_i=0$の値を取れば必ず制約条件が満たされるため,最適解において概念$i$を含む文$j$が要約に含まれているにも関わらず$z_i=0$の値を取る場合があるように思われる.しかし,目的関数は最大化で各変数$z_i$の係数$w_i$は正の値であり,このような場合には$z_i=1$の値を取れば改善解が得られるため,最適解では概念$i$を含む文$j$が要約に含まれていれば必ず$z_i=1$の値を取ることが分かる.この定式化では,重要度の高い概念が要約の中に繰返し現れても目的関数は増加しないので,冗長性を自然に抑えることができる.一方で,この問題は(ナップサック制約付き)最大被覆問題と呼ばれるNP困難のクラスに属する組合せ最適化問題であり,大規模な問題例では最適解を効率良く求めることは難しい.複数文書の要約を求める問題は,この他にも施設配置問題\cite{TakamuraH2010}や冗長制約付きナップサック問題\cite{NishikawaH2013}などに定式化されている.\subsection{文の対応付け}\label{sec:alighnment}統計的機械翻訳では,対訳コーパスにおいて原言語文と目的言語文の対応付けが与えられている前提の下で処理が適用される.しかし,実際の対訳コーパスでは,文書同士の対応付けは行われていても,それらの文書に含まれる文同士の対応付けは行われていない場合が多い.そのため,対訳文書の間で文同士の正しい対応付けを求めることは,統計的機械翻訳の精度を上げるための重要な前処理となる.\cite{MaX2006,MooreRC2002}などは,対訳文書間で対応する文の出現順序が大きく入れ替わらないという前提で動的計画法に基づく文の対応付けを提案している.すなわち,対訳文書の組$F$,$E$が与えられたとき,$F$の$i$番目の文と$E$の$j$番目の文が対応するならば,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j$番目の近くにあるという前提で文の対応付けを行っている.しかし,文の出現順序が大きく入れ替わらないという前提はどの文書でも成り立つ性質ではない.まず,文書$F$と$E$の任意の文を出現順序に関わらず自由に対応付けても良い場合を考える.$n_f$個の文を含む文書$F$と$n_e$個の文を含む文書$E$が与えられる.文書$F$の$i$番目の文と文書$E$の$j$番目の文が対応付けられたときのスコアを$s_{ij}$と表す.$x_{ij}$は変数で,文書$F$の$i$番目の文と文書$E$の$j$番目の文が対応付けられるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,文書$F$の文は文書$E$の高々1つの文にしか対応付けられない(その逆も同様)という制約を課すと,スコアの合計が最大となる文の対応付けを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{i=1}^{n_f}\sum_{j=1}^{n_e}s_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^{n_e}x_{ij}\le1,&i=1,\dots,n_f,\\&\displaystyle\sum_{i=1}^{n_f}x_{ij}\le1,&j=1,\dotsn_e,\\&x_{ij}\in\{0,1\},&i=1,\dots,n_f,\;j=1,\dots,n_e.\end{array}\end{equation}この問題は(2部グラフの)最大重みマッチング問題と呼ばれる組合せ最適化問題であり,ハンガリー法など効率良いアルゴリズムが知られている\cite{KorteB2012}.文書$F$と$E$の任意の文を対応付けても良いという前提では,それぞれの文書において前後の文との繋がりを無視した対応付けを行うことになるため,段落のような文の系列(連続する文のまとまり)を単位として順序が入れ替わる場合には正しい順序付けができない可能性が高い.そこで,図\ref{fig:alignment}に示すように,文書$F$と文書$E$をそれぞれ同数の文の系列に分割し,文の系列について一対一の対応付けを求めることを考える.文書$F$の$i$番目から$j$番目までの文の系列を$F[i,j]$($1\lei\lej\len_f$),文書$E$の$k$番目から$l$番目までの文の系列を$E[k,l]$($1\lek\lel\len_e$)とする.文$p\inF[i,j]$の文$q\inE[k,l]$の対応付けでは出現順序の入れ替わりはないとすると,\cite{MooreRC2002}の手法を適用することで文$p\inF[i,j]$と文$q\inE[k,l]$の最適な対応付けとスコアの合計$w_{ijkl}$を計算できる.考えられ得る全ての文の系列の組$(F[i,j],E[k,l])$に対して,それらの系列に含まれる文同士の最適な対応付けとスコアの合計$w_{ijkl}$をあらかじめ計算する.$x_{ijkl}$は変数で,文の系列$F[i,j]$と$E[k,l]$が対応付けられると$x_{ijkl}=1$,そうでなければ$x_{ijkl}=0$の値を取る.各文$p\inF$,$q\inE$が対応付けられたいずれかの文の系列$F[i,j]$,$E[k,l]$にちょうど1回ずつ含まれるという制約条件を用いて文の系列を一対一に対応付ける.このとき,スコアの合計が最大となる文の系列の対応付けを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{1\lei\lej\len_f}\sum_{1\lek\lel\len_e}w_{ijkl}x_{ijkl}&\\\textnormal{subjectto}&\displaystyle\sum_{i\lep\lej}\sum_{1\lek\lel\len_e}x_{ijkl}=1,&p=1,\dots,n_f,\\&\displaystyle\sum_{1\lei\lej\len_f}\sum_{k\leq\lel}x_{ijkl}=1,&q=1,\dots,n_e,\\&x_{ijkl}\in\{0,1\},&1\lei\lej\len_f,\;1\lek\lel\len_e.\end{array}\end{equation}この問題は集合分割問題と呼ばれるNP困難のクラスに属する組合せ最適化問題であり,大規模な問題例では最適解を効率良く求めることは難しい.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f1.eps}\end{center}\caption{出現順序の入れ替わりを考慮した文の系列の対応付け}\label{fig:alignment}\vspace{-0.5\Cvs}\end{figure}統計的機械翻訳では,この他にもフレーズ(連続する単語列)の対応付けを求める問題が整数計画問題に定式化されている\cite{DeNeroJ2008,KoshikawaM2010}. \section{整数計画ソルバーを利用する} \label{sec:solver}前節で紹介したように,実際に多くの現実問題が整数計画問題として定式化できる.一方で,整数計画問題を含む多くの組合せ最適化問題はNP困難のクラスに属することが計算の複雑さの理論により明らかにされている.こう書くと,多くの現実問題に対して最適解を求めることは非常に困難であるように思われるが,計算の複雑さが示す結果の多くは「最悪の場合」であり,全ての入力データに対して最適解を求めることは困難でも,多くの入力データに対して現実的な計算時間で最適解を求められる問題は少なくない.また,整数計画ソルバーは探索中に得られた暫定解を保持しているので,与えられた計算時間内に最適解が求められなくても,精度の高い実行可能解が求まれば,利用者によっては十分に満足できる場合も多く,整数計画ソルバーはそのような目的にも使われる.\begin{table}[b]\caption{代表的な整数計画ソルバー}\label{tab:solver}\input{04table01.txt}\end{table}表\ref{tab:solver}に示すように,現在では,商用・非商用を含めて多数の整数計画ソルバーが利用可能である\cite{AtamturkA2005,LinderothJT2006,FourerR2013,MittelmannHD-Web}.商用ソルバーを利用するためには,数十万〜数百万円のライセンス料金が必要となる場合が多いが,無償の試用ライセンスや無償〜数十万円のアカデミックライセンスが用意されている場合も少なくない.一般的に,非商用ソルバーより商用ソルバーの方が性能は高いが,実際には商用ソルバーの中でもかなりの性能差がある.整数計画ソルバーのベンチマーク問題例に対する最新の実験結果\cite{MittelmannHD-Web}によると,商用ソルバーでは,先に挙げたXpressOptimizationSuite,GurobiOptimizer,CPLEXOptimizationStudioの3つが,非商用ソルバーではSCIPが最も性能が高いようである.整数計画ソルバーを選ぶ際には,性能以外にも,扱える問題の種類\footnote{最近では非線形の整数計画問題を扱えるソルバーも増えている.},扱える問題の記述形式,インターフェースなどを考慮して,各自の目的に合った整数計画ソルバーを選ぶことが望ましい.利用可能な整数計画ソルバーについては\cite{FourerR2013,MittelmannHD-Web}が詳しい.まず,整数計画ソルバーを用いて以下の問題例を解くことを考える.\begin{equation}\label{eq:sample}\begin{array}{ll}\textnormal{maximize}&2x_1+3x_2\\\textnormal{subjectto}&2x_1+x_2\le10,\\&3x_1+6x_2\le40,\\&x_1,x_2\in\mathbb{Z}_+.\end{array}\end{equation}整数計画ソルバーの主な利用法には,(1)コマンドラインインターフェースを通じてソルバーを実行する方法,(2)最適化モデリングツールを通じてソルバーを実行する方法,(3)他のソフトウェアからAPI\footnote{APIは``ApplicationProgrammingInterface''の略.}を通じてソルバーを実行する方法の3通りがある.\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f2.eps}\end{center}\caption{問題例(\ref{eq:sample})のLP形式による記述}\label{fig:lp-sample}\end{figure}1番目は,問題例をLP形式\footnote{LPは``LinearProgramming''の略.},MPS形式\footnote{MPSは``MathematicalProgrammingSystem''の略.}などで記述された入力ファイルを用意して整数計画ソルバーを実行する方法である.図\ref{fig:lp-sample}は問題例(\ref{eq:sample})をLP形式で記述したものである.目的関数や制約条件の部分は,数式をほぼそのまま記述しているだけである\footnote{図\ref{fig:lp-sample}では非負制約を記述しているが,LP形式では何も指定しなければ各変数$x_j$の非負制約$x_j\ge0$は自動的に設定される.}.\texttt{maximize},\texttt{subjectto},\texttt{bounds},\texttt{general},\texttt{end}は予約語で,変数値の上下限や整数制約などをこれらの予約語を用いて記述している.LP形式は文法が平易で可読性が高く,多くの整数計画ソルバーが対応している.図\ref{fig:mps-sample}は問題例(\ref{eq:sample})をMPS形式で記述したものである.MPS形式は1960年代にIBMによって導入された形式で,現在も標準的に使われているが可読性は低い.LP形式やMPS形式はプログラミング言語の配列のように変数をまとめて扱う記述ができない.つまり,LP形式やMPS形式で$\sum_{j=1}^{100}x_j\le3$の数式を記述するには,\texttt{x1+x2+(中略)+x100<=3}と書くしか方法がない.よって,大きな問題例を記述する場合には,適当なプログラム言語を用いてLP形式やMPS形式のファイルを生成するプログラムを作成する必要がある.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f3.eps}\end{center}\caption{問題例(\ref{eq:sample})のMPS形式による記述}\label{fig:mps-sample}\end{figure}2番目は,最適化モデリングツールが提供するモデリング言語で問題例を記述し,最適化モデリングツールを通じて整数計画ソルバーを実行する方法である.商用の最適化モデリングツールが提供するモデリング言語では,AIMMS,AMPL,GAMSなど,非商用では,MathProg,ZIMPLなどが知られている.図\ref{fig:mod-sample}は問題例(\ref{eq:sample})をMathProg形式で記述したものである.多くのモデリング言語では,モデル部分とデータ部分を分離して記述できるため,数式を直感的にモデルに書き換えることが可能である.例えば,$\sum_{j=1}^{100}x_j\le3$の数式は,\texttt{sum(iin1..100)(x[i])<=3}と記述できる.現実問題を最適化問題に定式化できればすぐに整数計画ソルバーを利用できるので効率良いプロトタイピングが可能となる.一方で,最適化モデリングツールの購入とモデリング言語の習得が必要で,1番目の方法に比べると汎用性に欠ける.3番目は,整数計画ソルバーが提供するC,C++,Java,Python,Matlab,Excelなどのライブラリやプラグインを通じて整数計画ソルバーを実行する方法である.部分問題を解くためのサブルーチンとして整数計画ソルバーを利用する場合や,整数計画ソルバーの挙動を細かく制御したい場合はこの方法が効率的である.ただし,整数計画ソルバーやそのバージョン毎にライブラリやプラグインの仕様が異なるため汎用性と保守性に欠ける.最適化ソルバーの利用者にとって,与えられた問題例がどの程度の計算時間で解けるかを事前に見積ることは重要である.線形計画問題では,一部の特殊な問題を除けば変数や制約式の数を計算時間の目安にして差し支えない場合が多い.一方で,整数計画問題では,\cite{KochT2011}で報告されているように,10万変数,10万制約式で最適解を効率良く求められる問題例がある一方で,1,000変数程度でも最適解を求められない問題例があり,変数や制約式の数だけでは計算時間を見積れないことが知られている.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f4.eps}\end{center}\caption{問題例(\ref{eq:sample})のMathProg形式による記述}\label{fig:mod-sample}\end{figure}整数計画ソルバーの現状や利用法については\cite{BertholdT2012,FujieT2011,MiyashiroR-Web,MiyashiroR2012,MiyashiroR2006}が詳しい. \section{線形計画問題に定式化する} \label{sec:lp-model}線形計画問題では,数百万変数,数百万制約式の大規模な問題例でも現実的な計算時間で最適解を求められるが,線形式のみを用いて目的関数と制約条件を記述する必要があるため,数理最適化の専門家ではない利用者にとって,現実問題を線形計画問題に定式化することは容易な作業ではない.しかし,一見すると非線形計画問題に見える問題も変数の追加や式の変形により等価な線形計画問題に変換できる場合は少なくない.現実問題を線形計画問題を定式化する際には,与えられた現実問題を線形計画問題で正確に記述できるか,または満足できる程度に近似できるか良く見極める必要がある.ここでは,一見すると非線形に見える最適化問題を線形計画問題に定式化するいくつかの方法を紹介する.\subsection{凸関数最小化問題}\label{sec:convex-piecewise-liear}凸関数最小化問題は線形計画問題に近似できる.ここでは,図\ref{fig:nonlinear1}に示すように,1変数の凸関数$f(x)$を区分線形関数$g(x)$で近似する方法を考える.凸関数$f(x)$上の$m$個の点$(a_1,f(a_1)),\allowbreak\dots,\allowbreak(a_m,f(a_m))$を適当に選んで線分で繋ぐと区分線形関数$g(x)$が得られる.この区分線形関数$g(x)$は凸関数なので,各区分を表す線形関数を用いて,\begin{equation}g(x)=\max_{i=1,\dots,m-1}\left\{\displaystyle\frac{f(a_{i+1})-f(a_i)}{a_{i+1}-a_i}(x-a_i)+f(a_i)\right\},\quada_1\lex\lea_m,\end{equation}と記述できる.このとき,各区分を表す線形関数の最大値を表す変数$z$を用意すると,区分線形関数$g(x)$の最小化問題は以下の線形計画問題に定式化できる.\begin{equation}\label{eq:nonlinear1}\begin{array}{ll}\textnormal{minimize}&z\\\textnormal{subjectto}&\displaystyle\frac{f(a_{i+1})-f(a_i)}{a_{i+1}-a_i}(x-a_i)+f(a_i)\lez,\quadi=1,\dots,m-1,\\&a_1\lex\lea_m.\end{array}\end{equation}多変数の凸関数最小化問題でも,直線の集合の代わりに超平面の集合で凸関数を近似すれば同様に定式化できる.\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f5.eps}\end{center}\caption{凸関数の区分線形関数による近似}\label{fig:nonlinear1}\end{figure}\subsection{連立1次方程式の近似解}\label{sec:linear-equations}全ての制約式を同時には満たせない連立1次方程式に対して,できる限り多くの制約式を満たす近似解を求める問題は目標計画法と呼ばれる\cite{CharnesA1961}.連立1次方程式\begin{equation}\sum_{j=1}^na_{ij}x_j=b_i,\quadi=1,\dots,m,\end{equation}に対して,その誤差\begin{equation}z_i=\left|b_i-\sum_{j=1}^na_{ij}x_j^{\ast}\right|,\quadi=1,\dots,m,\end{equation}をできる限り小さくする近似解$\bm{x}^{\ast}=(x_1^{\ast},\dots,x_n^{\ast})$を求める問題を考える.このとき,平均2乗誤差$\frac{1}{m}\sum_{i=1}^mz_i^2$,平均誤差$\frac{1}{m}\sum_{i=1}^mz_i$,最悪誤差$\max_{i=1,\dots,m}z_i$などが評価基準として考えられる.これらの評価基準は,それぞれ誤差ベクトル$\bm{z}=(z_1,\dots,z_m)$の$L_2$ノルム,$L_1$ノルム,$L_\infty$ノルムを最小化する近似解$\bm{x}^{\ast}$を求めることに対応する.応用事例では,誤差の分布がガウス分布に近いことを前提に,平均2乗誤差を評価基準として最小2乗法を用いて近似解を求める場合が多い.しかし,実際には外れ値が多いなど誤差の分布がガウス分布と全く異なる場合も少なくない.このような場合は,外れ値の影響を受けにくい平均誤差や最悪誤差を評価基準として近似解を求める方法が考えられる.平均誤差を最小化する近似解$\bm{x}^{\ast}$を求める問題は,制約式を持たない以下の最適化問題に定式化できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\sum_{i=1}^m\left|b_i-\sum_{j=1}^na_{ij}x_j\right|.\end{array}\end{equation}これは一見しただけでは線形計画問題に見えないが以下の線形計画問題に変換できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^mz_i&\\\textnormal{subjectto}&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\ge-z_i,&i=1,\dots,m,\\&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\lez_i,&i=1,\dots,m,\\&z_i\ge0,&i=1,\dots,m.\end{array}\end{equation}この方法で線形回帰問題を解くこともできる.$m$個のデータ$(\bm{x}_1,y_1),\dots,(\bm{x}_m,y_m)$が与えられる.これを$n$個の関数$\{\phi_1(\bm{x}_i),\dots,\phi_n(\bm{x}_i)\}$の線形結合を用いて$y(\bm{x}_i)\approxw_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)$と近似する問題を考える.各データ$(\bm{x}_i,y_i)$に対する平均誤差を最小にするパラメータ$w_0,\dots,w_n$を求める問題は以下の最適化問題に定式化できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\sum_{i=1}^m\Bigl|y_i-\left(w_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)\right)\Bigr|\end{array}\end{equation}$i$番目のデータに対する誤差を表す変数$z_i$を用意すると以下の線形計画問題\footnote{$\bm{x}_i$は与えられたデータなので$\phi_1(\bm{x}_i),\dots,\phi_n(\bm{x}_i)$は定数となる.}に定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^mz_i&\\\textnormal{subjectto}&y_i-\left(w_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)\right)\ge-z_i,&i=1,\dots,m,\\&y_i-\left(w_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)\right)\lez_i,&i=1,\dots,m,\\&z_i\ge0,&i=1,\dots,m.\end{array}\end{equation}最悪誤差を最小化する近似解$\bm{x}^{\ast}$を求める問題も制約式を持たない以下の最適化問題に定式化できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\max_{i=1,\dots,m}\left|b_i-\sum_{j=1}^na_{ij}x_j\right|.\end{array}\end{equation}これも一見すると線形計画問題に見えないが以下の線形計画問題に変換できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&z&\\\textnormal{subjectto}&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\ge-z,&i=1,\dots,m,\\&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\lez,&i=1,\dots,m,\\&z\ge0.&\end{array}\end{equation}この方法で$k$個の目的関数$\sum_{j=1}^nc_{1j}x_j,\allowbreak\sum_{j=1}^nc_{2j}x_j,\allowbreak\dots,\allowbreak\sum_{j=1}^nc_{kj}x_j$を同時に最小化する多目的最適化問題も解くことができる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\left\{\sum_{j=1}^nc_{1j}x_j,\dots,\sum_{j=1}^nc_{kj}x_j\right\}&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j\geb_i,&i=1,\dots,m,\\&x_j\ge0,&j=1,\dots,n.\end{array}\end{equation}まず,これらの目的関数の線形和を最小化する定式化が考えられる.しかし,いくつかの目的関数が極端に大きな値となる解が求まってしまう場合が少なくないため,全ての目的関数をバランス良く最小化することは容易ではない.そこで,これらの目的関数の最大値を最小化する定式化を考える.新たに目的関数の最大値を表す変数$z$を導入すると,この問題は以下の線形計画問題に変換できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&z&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nc_{hj}x_j\lez,&h=1,\dots,k,\\&\displaystyle\sum_{j=1}^na_{ij}x_j\geb_i,&i=1,\dots,m,\\&x_j\ge0,&j=1,\dots,n.\end{array}\end{equation}\subsection{比率の最小化}\label{sec:ratio}2つの関数の比を目的関数に持つ最適化問題は分数計画問題と呼ばれる.以下の2つの線形関数の比を目的関数に持つ分数計画問題を考える.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\frac{\displaystyle\sum_{j=1}^nc_jx_j}{\displaystyle\sum_{j=1}^nd_jx_j}\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j=b_i,\quadi=1,\dots,m.\\\end{array}\end{equation}ただし,$\sum_{j=1}^nd_jx_j>0$とする.ここで,新たな変数$t=1/\sum_{j=1}^nd_jx_j$と$y_j=tx_j$($j=1,\dots,n$)を導入すると,この問題は以下の線形計画問題に変換できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\sum_{j=1}^nc_jy_j\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}y_j-b_it=0,\quadi=1,\dots,m,\\&\displaystyle\sum_{j=1}^nd_jy_j=1.\end{array}\end{equation}この変換は$\sum_{j=1}^nd_jx_j$が常に同じ符号で0にならない場合のみ成立するので,必要があれば$\sum_{j=1}^nd_jx_j\ge\varepsilon$($\varepsilon$は十分に小さな正の定数)などの制約式を追加すれば良い. \section{整数計画問題に定式化する} \label{sec:mip-model}整数計画問題は整数変数を含む線形計画問題であるが,線形計画問題の方が整数計画問題よりもはるかに解き易い事実を考慮すれば,現実問題において離散値を取る量を決定するという理由だけで安易に整数変数を用いるべきではない.例えば,自動車や機械部品の生産数を決定する問題を整数計画問題に定式化することは必ずしも適切ではない.このような場合は,各変数の整数条件を取り除いた線形計画問題を解いて実数最適解を得た後に,その端数を丸めて最も近い整数解を求めれば十分に実用的な解となる場合が多い.実際に,多くの現実的な整数計画問題では,yes/noの決定や離散的な状態の切り替えを記述するために2値変数($\{0,1\}$の2値のみを取る整数変数)を用いていることに注意する必要がある.ここでは,代表的な組合せ最適化問題を例に整数計画問題の基本的な定式化の技法を紹介する.もちろん,いくつかの組合せ最適化問題では効率良いアルゴリズムが知られているが,現実問題が既知の組合せ最適化問題と一致することは稀であり,これらの効率良いアルゴリズムをそのまま適用できるとは限らない.一方で,整数計画ソルバーであれば定式化を少し変形するだけで適用できる場合が多い.このように,代表的な組合せ最適化問題に対する整数計画問題の定式化を知れば,それらを雛形として変形もしくは組合せることで多種多様な現実問題を整数計画問題に定式化できるようになる.\subsection{整数性を持つ整数計画問題}\label{sec:unimodular}整数計画問題は一般にはNP困難のクラスに属する計算困難な問題であるが,いくつかの特殊な整数計画問題は効率良く解けることが知られている.ここでは,制約行列$\bm{A}$が完全単摸行列である整数計画問題$\min\{\bm{c}^T\bm{x}\mid\bm{A}\bm{x}\ge\bm{b},\bm{x}\in\mathbb{Z}_+^n\}$を紹介する.任意の小行列式が$0$,$1$,$-1$のどれかに等しい行列$\bm{A}$は完全単摸行列と呼ばれる.$\bm{A}$が整数行列,$\bm{b}$が整数ベクトルである線形計画問題$\min\{\bm{c}^T\bm{x}\mid\bm{A}\bm{x}\ge\bm{b},\bm{x}\ge\bm{0}\}$について,$\bm{A}$が完全単摸行列で(実数)最適解が存在するならば,単体法を適用すると常に整数最適解$\bm{x}\in\mathbb{Z}_+^n$が得られる.有向グラフが与えられたとき,点の番号を行番号,辺の番号を列番号とする行列$\bm{A}$で,辺$e=(i,j)$に対応する列が$a_{ie}=1$,$a_{je}=-1$(その他は0)で与えられる行列は接続行列と呼ばれる.任意の有向グラフに対して,その接続行列は完全単摸行列となる.また,無向グラフの接続行列では辺に対応する列が$a_{ie}=a_{je}=1$(その他は0)で与えられる.無向グラフでは2部グラフであるときに限り,その接続行列は完全単摸行列となる.以下では,完全単摸行列を制約行列に持つ整数計画問題の例として最短路問題と割当問題を紹介する.\paragraph{最短路問題:}有向グラフ$G=(V,E)$と各辺$(i,j)\inE$の長さ$d_{ij}$が与えられる.$x_{ij}$は変数で,辺$(i,j)\inE$が経路に含まれるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,与えられた始点$s\inV$から終点$t\inV$に至る最短路を求める問題は以下の通りに定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{(i,j)\inE}d_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{j:(s,j)\inE}x_{sj}=1,&\\&\displaystyle\sum_{i:(i,t)\inE}x_{it}=1,&\\&\displaystyle\sum_{i:(i,k)\inE}x_{ik}-\sum_{j:(k,j)\inE}x_{kj}=0,&k\inV\setminus\{s,t\},\\&x_{ij}\in\{0,1\},&(i,j)\inE.\end{array}\end{equation}1番目と2番目の制約式は,始点$s$から出る辺と終点$t$に入る辺がちょうど1本ずつ選ばれることを表す.3番目の制約式は,訪問する頂点$k$では出る辺と入る辺がちょうど1本ずつ選ばれ,それ以外の頂点では辺は選ばれないことを表す.\paragraph{割当問題:}$m$人の学生を$n$個のクラスに割り当てる.クラス$j$の受講者数の下限を$l_j$,上限を$u_j$,学生$i$のクラス$j$に対する満足度を$p_{ij}$とする.$x_{ij}$は変数で,学生$i$がクラス$j$に割当てられれば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,学生の満足度の合計が最大となる割当てを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{i=1}^m\sum_{j=1}^np_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nx_{ij}=1,&i=1,\dots,m,\\&\displaystylel_j\le\sum_{i=1}^mx_{ij}\leu_j,&j=1,\dots,n,\\&x_{ij}\in\{0,1\},&i=1,\dots,m,\;j=1,\dots,n.\end{array}\end{equation}1番目の制約式は,各学生$i$がちょうど1つのクラスに割当てられることを表す.2番目の制約式は,各クラス$j$に割当てられる学生の数が受講者数の上下限内に収まることを表す.最短路問題,割当問題はそれぞれダイクストラ法やハンガリー法など効率良いアルゴリズムが知られている\cite{KorteB2012}.しかし,現実問題では実務上の要求から生じる制約条件が追加される場合が多いため,これらの効率良いアルゴリズムがそのまま適用できるとは限らない.一方で,与えられた現実問題を完全単摸行列に近い形の制約行列を持つ整数計画問題に定式化できる場合は,線形計画緩和問題から良い下界値が得られることが期待できるため,整数計画ソルバーを用いて現実的な計算時間で最適解を求められる場合は少なくない.完全単摸行列の性質については\cite{KorteB2012,SchrijverA1998}が詳しい.\subsection{論理的な制約条件}\label{sec:logic}現実問題が既知の組合せ最適化問題と一致することは稀であり,実務上の要求から生じる制約条件が追加される場合が多い.ここでは,ナップサック問題を例にいくつかの論理的な制約条件とその記述を紹介する.\paragraph{ナップサック問題:}1つの箱と$n$個の荷物が与えられる.箱に詰込める重さ合計の上限を$c(>0)$,各荷物$j$の重さを$w_j(<c)$,価値を$p_j$とする.$x_j$は変数で,荷物$j$を箱に詰めるならば$x_j=1$,そうでなければ$x_j=0$の値を取る.このとき,価値の合計が最大となる荷物の詰込みを求める問題は以下の通り定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{j=1}^np_jx_j&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nw_jx_j\lec,&\\&x_j\in\{0,1\},&j=1,\dots,n.\end{array}\end{equation}ちなみに,複数の制約式を持つナップサック問題は多制約ナップサック問題と呼ばれ,投資計画やポートフォリオ最適化などの応用を持つ.ナップサック問題については\cite{KellererH2004}が詳しい.以下に,いくつかの論理的な制約条件とその記述を示す.\begin{enumerate}\item詰込む荷物の数は高々$k$個.\begin{equation}\sum_{j=1}^nx_j\lek.\end{equation}\item荷物$j_1,j_2$の少なくとも一方は詰込む.\begin{equation}x_{j_1}+x_{j_2}\ge1.\end{equation}\item荷物$j_1$を詰込むならば荷物$j_2$も詰込む.\begin{equation}x_{j_1}\lex_{j_2}.\end{equation}\item詰込む荷物の数は0または2.\begin{equation}\sum_{j=1}^nx_j=2y,\;y\in\{0,1\}.\end{equation}もしくは$y$を使わずに,以下の通りにも記述できる.\pagebreak\begin{equation}\left\{\begin{array}{l}+x_1+x_2+\dots+x_n\le2,\\-x_1+x_2+\dots+x_n\ge0,\\+x_1-x_2+\dots+x_n\ge0,\\\dots,\\+x_1+x_2+\dots-x_n\ge0.\end{array}\right.\end{equation}2番目以降の制約式は$\sum_{j=1}^nx_j=1$を満たす解を除外しており,図\ref{fig:logic1}に示すように,これらの制約式は実行可能解全体の凸包(全ての実行可能解を含む最小の凸多面体)から得られる.\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f6.eps}\end{center}\caption{$x_1+x_2+x_3=0$または$2$を満たす全ての解を含む凸包}\label{fig:logic1}\end{figure}\subsection{固定費用付き目的関数}\label{sec:fixed-cost}生産計画や物流計画など多くの現実問題では,取り扱う製品量によって生じる変動費用と段取替えなど所定の作業によって生じる固定費用の両方を考慮する場合が多い.例えば,$x$を単位費用$c_1$で生産される製品の生産量とする.もし,その製品が少しでも生産されれば初期費用$c_2$が生じるとすると,総費用$f(x)$は以下に示す非線形関数となる($C$は製品の生産量の上限とする).\begin{equation}f(x)=\left\{\begin{array}{ll}0&x=0\\c_1x+c_2&0<x\leC.\end{array}\right.\end{equation}そこで,少しでも製品を生産するならば$y=1$,\pagebreakそうでなければ$y=0$の値を取る2値変数$y$を導入すると,総費用$f(x)$は以下の通りに記述できる.\begin{equation}f(x)=\left\{c_1x+c_2y\midx\leCy,0\lex\leC,y\in\{0,1\}\right\}.\end{equation}以下では,固定費用を持つ整数計画問題の例としてビンパッキング問題を紹介する.\paragraph{ビンパッキング問題:}十分な数の箱と$n$個の荷物が与えられる.箱に詰込める荷物の重さ合計の上限を$c(>0)$,各荷物$j$の重さを$w_j(<c)$とする.$x_{ij}$と$y_i$は変数で,荷物$j$が箱$i$に入っていれば$x_{ij}=1$,そうでなければ$x_{ij}=0$,箱$i$を使用していれば$y_i=1$,そうでなければ$y_i=0$の値を取る.このとき,使用する箱の数が最小となる荷物の詰込みを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^ny_i&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nw_jx_{ij}\lecy_i,&i=1,\dots,n,\\&\displaystyle\sum_{i=1}^nx_{ij}=1,&j=1,\dots,n,\\&x_{ij}\in\{0,1\},&i=1,\dots,n,\;j=1,\dots,n,\\&y_i\in\{0,1\},&i=1,\dots,n.\end{array}\end{equation}1番目の制約式は,箱$i$が使用されている場合は詰込まれた荷物の重さ合計が上限内に収まることを,箱$i$が使用されていない場合は荷物が詰込めないことを表す.2番目の制約式は,各荷物$j$がちょうど1つの箱に詰込まれることを表す.\subsection{離接した制約式}\label{sec:disjunction}一般に,最適化問題では全ての制約式を同時に満たすことを求められるが,現実問題では$m$本の制約式のうちちょうど$k$本だけを満たすことを求められる場合も少なくない.これは離接した制約式と呼ばれ,選択や順序付けなどの組合せ的な制約条件を記述する場合に用いられる.例えば,2つの制約式$\sum_{j=1}^na_{1j}x_j\leb_1$と$\sum_{j=1}^na_{2j}x_j\leb_2$($0\lex_j\leu_j$,$j=1,\dots,n$)の少なくとも一方が成立するという場合は,各制約式に対応する2値変数$y_1,y_2$を導入すれば以下の通りに記述できる.\begin{equation}\left\{\begin{array}{l}\displaystyle\sum_{j=1}^na_{1j}x_j\leb_1+M(1-y_1),\\\displaystyle\sum_{j=1}^na_{2j}x_j\leb_2+M(1-y_2),\\y_1+y_2=1,\\y_1,y_2\in\{0,1\}.\end{array}\right.\end{equation}ここで,$M$は\begin{equation}M\ge\max\left\{\sum_{j=1}^na_{1j}x_j-b_1,\sum_{j=1}^na_{2j}x_j-b_2\;\middle|\;0\lex_j\leu_j,j=1,\dots,n\right\}\end{equation}を満たす十分に大きな定数(big-$M$と呼ばれる)である.$y_i=0$の場合は,制約式の右辺は$b_i+M$と十分に大きな値を取り,各変数$x_j$の取る値に関わらず必ず満たされる.以下では,離接した制約式を持つ整数計画問題の例として1機械スケジューリング問題と長方形詰込み問題を紹介する.\paragraph{1機械スケジューリング問題:}$n$個の仕事とこれらを処理する1台の機械が与えられる.機械は2つ以上の仕事を同時には処理できないものとする.仕事$i$の処理にかかる時間を$p_i(>0)$,納期を$d_i(\ge0)$とする.$s_i$と$x_{ij}$は変数で,$s_i$は仕事$i$の開始時刻,$x_{ij}$は仕事$i$が仕事$j$に先行するならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,仕事の納期遅れの合計が最小となる処理スケジュールを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^n\max\left\{s_i+p_i-d_i,0\right\}&\\\textnormal{subjectto}&s_i+p_i\les_j+M(1-x_{ij}),&i=1,\dots,n,\;j\not=i,\\&x_{ij}+x_{ji}=1,&i=1,\dots,n,\;j\not=i,\\&x_{ij}\in\{0,1\},&i=1,\dots,n,\;j\not=i,\\&s_i\ge0,&i=1,\dots,n.\end{array}\end{equation}納期遅れは仕事$i$の終了時刻$s_i+p_i$が納期$d_i$より後になる場合のみ生じるので,各仕事$i$に対する納期遅れは$\max\{s_i+p_i-d_i,0\}$と記述できる.1番目の制約式は,仕事$i$が仕事$j$に先行するならば仕事$i$の終了時刻が仕事$j$が開始時刻の前になることを表す.2番目の制約式は,仕事$i$が仕事$j$に先行するかもしくはその逆が必ず成り立つことを表す.目的関数が最大値の最小化なので,納期遅れを表す新たな変数$t_i=\max\left\{s_i+p_i-d_i,0\right\}$を導入すると整数計画問題に変換できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^nt_i&\\\textnormal{subjectto}&s_i+p_i\les_j+M(1-x_{ij}),&i=1,\dots,n,\;j\not=i,\\&x_{ij}+x_{ji}=1,&i=1,\dots,n,\;j\not=i,\\&s_i+p_i-d_i\let_i,&i=1,\dots,n,\\&x_{ij}\in\{0,1\},&i=1,\dots,n,\;j\not=i,\\&s_i,t_i\ge0,&i=1,\dots,n.\end{array}\end{equation}\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f7.eps}\end{center}\caption{長方形詰込み問題の例}\label{fig:packing}\end{figure}\paragraph{長方形詰込み問題:}図\ref{fig:packing}に示すように,幅が固定で十分な高さがある長方形の容器と$n$個の長方形の荷物が与えられる.容器の幅を$W$,各荷物$i$の幅を$w_i$,高さを$h_i$とする.荷物はその下辺が容器の下辺と平行になるように配置し,回転は許さないものとする.ここで,全ての荷物を互いに重ならないように容器内に配置する.$(x_i,y_i)$を荷物$i$の左下隅の座標を表す変数とすると(容器の左下隅を原点とする),問題の制約条件は以下の通りに記述できる.\begin{description}\item[制約条件1:]荷物$i$は容器内に配置される.\\これは,以下の2本の不等式がともに成り立つことと同値である.\begin{equation}\begin{array}{l}0\lex_i\leW-w_i,\\0\ley_i\leH-h_i.\end{array}\end{equation}\item[制約条件2:]荷物$i,j$は互いに重ならない.\\これは,以下の4本の不等式のうち1本以上が成り立つことと同値であり,各不等式はそれぞれ荷物$i$が荷物$j$の左側,右側,下側,上側にあることを記述している.\begin{equation}\begin{array}{l}x_i+w_i\lex_j,\\x_j+w_j\lex_i,\\y_i+h_i\ley_j,\\y_j+h_j\ley_i.\end{array}\end{equation}\end{description}$z_{ij}^{\textnormal{{\tinyleft}}}$,$z_{ij}^{\textnormal{{\tinyright}}}$,$z_{ij}^{\textnormal{{\tinylower}}}$,$z_{ij}^{\textnormal{{\tinyupper}}}$は変数で,それぞれ荷物$i$が荷物$j$の左側,右側,下側,上側にあるならば$1$,そうでなければ$0$の値を取る.このとき,制約条件を満たした上で必要な容器の高さ$H$を最小にする荷物の配置を求める問題は以下の通りに定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&H&\\\textnormal{subjectto}&0\lex_i\leW-w_i,&i=1,\dots,n,\\&0\ley_i\leH-h_i,&i=1,\dots,n,\\&x_i+w_i\lex_j+M(1-z_{ij}^{\textnormal{{\tinyleft}}}),&i=1,\dots,n,j\not=i,\\&x_j+w_j\lex_i+M(1-z_{ij}^{\textnormal{{\tinyright}}}),&i=1,\dots,n,j\not=i,\\&y_i+h_i\ley_j+M(1-z_{ij}^{\textnormal{{\tinylower}}}),&i=1,\dots,n,j\not=i,\\&y_j+h_j\ley_i+M(1-z_{ij}^{\textnormal{{\tinyupper}}}),&i=1,\dots,n,j\not=i,\\&z_{ij}^{\textnormal{{\tinyleft}}}+z_{ij}^{\textnormal{{\tinyright}}}+z_{ij}^{\textnormal{{\tinylower}}}+z_{ij}^{\textnormal{{\tinyupper}}}=1,&i=1,\dots,n,j\not=i,\\&z_{ij}^{\textnormal{{\tinyleft}}},z_{ij}^{\textnormal{{\tinyright}}},z_{ij}^{\textnormal{{\tinylower}}},z_{ij}^{\textnormal{{\tinyupper}}}\in\{0,1\},&i=1,\dots,n,j\not=i.\end{array}\end{equation}\subsection{非線形関数}\label{sec:nonlinear}\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f8.eps}\end{center}\caption{非凸関数の区分線形関数による近似}\label{fig:nonlinear2}\end{figure}非凸関数最小化問題は整数計画問題に近似できる.図\ref{fig:nonlinear2}に示すように,非凸関数$f(x)$上の$m$個の点$(a_1,f(a_1)),\allowbreak\dots,\allowbreak(a_m,f(a_m))$を適当に選んで線分で繋ぐと区分線形関数$g(x)$が得られる.区分線形関数上の点$(x,g(x))$はある線分上にある.例えば,点$(x,g(x))$が$(a_i,f(a_i))$と$(a_{i+1},f(a_{i+1}))$で結ばれる線分上にある場合は以下の通りに記述できる.\begin{equation}\left\{\begin{array}{l}(x,g(x))=t_i(a_i,f(a_i))+t_{i+1}(a_{i+1},f(a_{i+1})),\\t_i+t_{i+1}=1,\\t_i,t_{i+1}\ge0.\end{array}\right.\end{equation}これを考慮すると一般の場合も以下の通りに記述できる.\pagebreak\begin{equation}\left\{\begin{array}{ll}\displaystyle(x,g(x))=\sum_{i=1}^mt_i(a_i,f(a_i)),&\\\displaystyle\sum_{i=1}^mt_i=1,&\\t_i\ge0,&i=1,\dots,m,\\\textnormal{高々2つの隣り合う$t_i$が正}.\end{array}\right.\end{equation}ここで,2値変数$z_1,\dots,z_{m-1}$を導入すると「高々2つの隣り合う$t_i$が正」という制約条件は以下の通りに記述できる.\begin{equation}\left\{\begin{array}{ll}t_1\lez_1,&\\t_i\lez_{i-1}+z_i,&i=2,\dots,m-1,\\t_m\lez_{m-1},&\\\displaystyle\sum_{i=1}^{m-1}z_i=1,&\\z_i\in\{0,1\},&i=1,\dots,m-1.\end{array}\right.\end{equation}次に,2値変数で定義される非線形関数を線形関数に変換する方法を紹介する.まず,2値変数$x_1$と$x_2$の積$y=x_1x_2$を考える.このとき,$(x_1,x_2,y)$の実行可能解は$(0,0,0),\allowbreak(1,0,0),\allowbreak(0,1,0),\allowbreak(1,1,1)$の4通りなので以下の通りに記述できる.\begin{equation}\left\{\begin{array}{l}y\gex_1+x_2-1,\\y\lex_1,\\y\lex_2,\\x_1,x_2\in\{0,1\}.\end{array}\right.\end{equation}これらの制約式は実行可能解全体の凸包から得られる.同様に$k$個の2値変数の積$y=\prod_{i=1}^kx_i$も以下の通りに記述できる.\begin{equation}\left\{\begin{array}{ll}y\ge\displaystyle\sum_{i=1}^kx_i-(k-1),&\\y\lex_i,&i=1,\dots,k,\\x_i\in\{0,1\},&i=1,\dots,k.\end{array}\right.\end{equation}\subsection{グラフの連結性}\label{sec:connectivity}グラフにおける最適化問題では選択した部分グラフの連結性が求められる場合が少なくない.ここでは,グラフの連結性を制約条件に持つ整数計画問題の例として最小全域木問題と巡回セールスマン問題を紹介する.無向グラフ$G=(V,E)$の任意の頂点$i,j\inV$の間に路が存在するならば$G$は連結であると呼ぶ.図\ref{fig:connect}は連結なグラフと非連結なグラフの例である.これは,任意の頂点集合$S\subsetV$($S\not=\emptyset$)に対して,$S$と$V\setminusS$の間を繋ぐ辺が少なくとも1本は存在するという制約条件に置き換えられる.\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f9.eps}\end{center}\caption{連結なグラフ(左)と非連結なグラフ(右)の例}\label{fig:connect}\end{figure}\paragraph{最小全域木問題:}無向グラフ$G=(V,E)$と各辺$(i,j)\inE$の長さ$d_{ij}$が与えられる.閉路を持たない連結な部分グラフは木,全ての頂点を繋ぐ木は全域木と呼ばれる.$x_{ij}$は変数であり,辺$(i,j)$は木に含まれるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,辺の長さの合計が最小となる全域木を求める問題は以下の通り定式化できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{(i,j)\inE}d_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{i\inS}\sum_{j\inV\setminusS}x_{ij}\ge1,&S\subsetV,\;S\not=\emptyset\\&\displaystyle\sum_{(i,j)\inE}x_{ij}=n-1,&\\&x_{ij}\in\{0,1\},&(i,j)\inE.\end{array}\end{equation}1番目の制約式は,辺集合$T\subseteqE$が全ての頂点を連結することを表し,カットセット制約と呼ばれる.2番目の制約式は,$|T|=n-1$を満たすことを表す.これらの制約式は$T$が全域木となるための必要十分条件である.\paragraph{巡回セールスマン問題:}無向グラフ$G=(V,E)$の全ての頂点をちょうど1回ずつ通る閉路は巡回路と呼ばれる.巡回路となるためには,各頂点$k$に接続する辺がちょうど2本でなければならない.しかし,これだけでは不十分で,図\ref{fig:subtour}(左)に示すような部分巡回路を排除する必要がある.これは,任意の頂点集合$S\subsetV$($S\not=\emptyset$)に含まれる辺の本数が$|S|-1$以下であるという制約条件に置き換えられる.無向グラフ$G=(V,E)$と各辺$(i,j)\inE$の長さ$d_{ij}$が与えられる.$x_{ij}$は変数で,辺$(i,j)\inE$が巡回路に含まれるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,全ての頂点をちょうど1回ずつ訪問する最短の巡回路を求める問題は以下の通りに定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{(i,j)\inE}w_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{(i,k)\inE:i<k}x_{ik}+\sum_{(k,j)\inE:k<j}x_{kj}=2,&k\inV,\\&\displaystyle\sum_{(i,j)\inE:i,j\inS}x_{ij}\le|S|-1,&S\subsetV,\;S\not=\emptyset,\\&x_{ij}\in\{0,1\},&(i,j)\inE.\end{array}\end{equation}1番目の制約式は,各頂点に接続する辺がちょうど2本となることを表す.2番目の制約式は,部分巡回路を持たないことを表し,部分巡回路除去制約と呼ばれる.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f10.eps}\end{center}\caption{部分巡回路(左)と巡回路(右)の例}\label{fig:subtour}\end{figure}最小全域木問題のカットセット制約や巡回セールスマン問題の部分巡回路除去制約は,制約式の数が$\mathrm{O}(2^n)$と膨大で,全ての制約式を書き下して整数計画ソルバーに解かせるのは現実的ではないため,必要に応じて制約式を逐次追加する切除平面法が必要となる.グラフの連結性を制約条件に持つ整数計画問題の定式化と解法については(藤江2011;久保,ペドロソ,村松,レイス2012)\nocite{FujieT2011,KuboM2012}が詳しく,新たな変数を導入して必要な制約式の数を抑える方法が紹介されている. \section{最適解が求められない場合の対処法} \label{sec:hard-problem}最近の整数計画ソルバーは非常に高性能ではあるものの,解候補を体系的に列挙する分枝限定法を探索の基本戦略とするため,与えられた問題例によってはいつまで待っても計算が終了しない場合が少なくない.ここでは,目的関数の値を最小化する整数計画問題を考える.分枝限定法は,整数計画問題を分枝操作によって小規模な部分問題に分解しつつ,各部分問題では,暫定解から得られる最適値の上界値と,線形計画緩和問題から得られる最適値の下界値を利用した限定操作によって無駄な探索を省いている.そのため,いつまで待っても整数計画ソルバーの計算が終了しないならば,(1)線形計画緩和問題の求解に多大な計算時間を要する,(2)限定操作が効果的に働いていないことなどが原因として考えられる.もちろん,整数計画ソルバーは分枝限定法以外にも多くのアルゴリズムを内包しているため,これだけが原因であると決めつけるべきではないが,対策を練る上でまず始めに確認すべき事項である.(1)については,原問題から各変数の整数条件を取り除いた線形計画問題を整数計画ソルバーで解けば計算時間を見積もることができる.実際には,整数計画ソルバーは再最適化と呼ばれる手法を利用するため,整数計画問題の各部分問題において線形計画緩和問題の求解に要する計算時間はもっと短くなる.しかし,この方法で線形計画問題を1回解くのに要する計算時間が長いと感じるようであれば,問題例の規模が整数計画ソルバーで解くには大き過ぎると判断するのが妥当であろう.ただし,集合被覆問題や集合分割問題などの線形計画緩和問題では,単体法と内点法で計算時間が大きく異なるため,(部分問題ではなく)原問題の線形計画緩和問題に適用するアルゴリズムを切り替えることで計算時間を大幅に削減できる場合もある.(2)については,(i)暫定解から得られる最適値の上界値が悪い場合,(ii)線形計画緩和問題から得られる最適値の下界値が悪い場合,(iii)多数の最適解が存在する場合などが考えられる.これらは,整数計画ソルバーの実行時に出力される最適値の上界値と下界値から確認できる.まず,(i)暫定解から得られる上界値が悪い場合を考える.これは,実行可能解が非常に少ないかもしくは存在しないため,整数計画ソルバーの実行時に良い実行可能解を発見できないことが原因として考えられる.このような場合は,制約式を必ず満たさなければならない制約式(絶対制約)とできれば満たして欲しい制約式(考慮制約)に分けた上で,優先度の低い考慮制約を緩和する方法がある.例えば,制約式$\sum_{j=1}^na_{ij}x_j\geb_i$を$\sum_{j=1}^na_{ij}x_j\geb_i-\varepsilon$($\varepsilon$は適当な正の定数)に置き換える方法や,新しい変数$z_i(\ge0)$とペナルティ係数$p_i(>0)$を導入して$\sum_{j=1}^na_{ij}x_j\geb_i-z_i$に置き換えた上で目的関数に新たな項$+p_iz_i$を加える方法などがある.また,利用者の持つ先験的な知識を利用して容易に実行可能解を求められるならば,利用者が持つアルゴリズムで求めた実行可能解を初期暫定解として整数計画ソルバーに与えることも可能である.次に,(ii)線形計画緩和問題から得られる最適値の下界値が悪い場合を考える.図\ref{fig:polyhedron}に示すように,線形計画緩和問題の実行可能領域は,整数計画問題の実行可能解となる整数格子点のみを含む凸多面体となるため,同じ整数計画問題に対して線形計画緩和問題の最適値が異なる複数の定式化が存在する.つまり,整数計画問題では最適値の良い下界値が得られる強い定式化と,そうでない弱い定式化が存在する.ちなみに,最も強い定式化は整数計画問題の実行可能解全体の凸包を記述することであるが,凸包を記述する全ての制約式を求めることは,最悪の場合には全ての実行可能解を列挙することに他ならないため現実的な方法ではない.たしかに,制約式の数が少ない定式化の方が見栄えも良く,分枝限定法を適用した際にも各部分問題における線形計画緩和問題の求解に要する計算時間も短くなるように思われる.しかし,最適値の上界値と下界値の差が広がれば分枝限定法で生成される部分問題の数は急激に増加するため,安易に制約式を減らすべきではない.一方で,多くの整数計画ソルバーは冗長な制約式を前処理で除去するため,制約式が多少増えても計算時間にはあまり影響しない場合が多い.例えば,与えられた現実問題を完全単摸行列に近い形の制約行列を持つ整数計画問題に定式化できる場合は,線形計画緩和問題から良い下界値が得られることが期待できる.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f11.eps}\end{center}\caption{整数計画問題の実行可能解を含む凸多面体の例}\label{fig:polyhedron}\end{figure}最後に,(iii)多数の最適解を持つ場合を考える.最適値の上界値と下界値の差が小さいにも関わらず,いつまで待っても整数計画ソルバーの計算が終了しないならば,整数計画問題が多数の最適解を持っている可能性がある.このような場合は,目的関数や制約式を変更して最適解の数を減らす方法がある.例えば,\ref{sec:fixed-cost}節で紹介したビンパッキング問題の定式化では,使用する箱の数が最小であれば使用する箱の組合せは何でも構わないため多数の最適解が生じる.そこで,必ず番号の小さい箱から順に使用するという制約式を追加すると最適解の数を減らすことができる.\begin{equation}\begin{array}{ll}y_i\gey_{i+1},&i=1,\dots,n-1.\end{array}\end{equation}また,\ref{sec:linear-equations}節で紹介した多目的最適化問題の定式化では,1変数からなる目的関数を持つ整数計画問題に変換するとやはり多数の最適解が生じる.このような場合は,いつまで待っても整数計画ソルバーの計算が終了しないならば線形和を最小化する定式化に変更した方が良い.また,目的関数$\sum_{j=1}^nc_jx_j$の各項の係数$c_j$が全て同じ値を取る場合も多数の最適解が生じ易いため,可能ならば各項の係数$c_j$をいろいろな値に変えて最適解の数を絞り込む方が良い.最後に,いつまで待っても整数計画ソルバーの計算が終了しない場合には,最適解を求めることを諦めるのも1つの手である.整数計画ソルバーは探索中に得られた暫定解を保持しているので,与えられた計算時間内に最適解が求められなくても良い実行可能解が求まれば,利用者によっては十分に満足できる場合も多い.また,整数計画ソルバーは線形計画緩和問題を解いて得られる最適値の下界値も保持しているので,事後にはなるが得られた暫定解の精度も評価できる.実際に,整数計画ソルバーは近似解法としても高性能であり,メタヒューリスティクスなどの発見的解法を利用もしくは開発する前に,整数計画ソルバーで良い実行可能解が得られるかどうか確認するべきである.最適解が求められない場合の対処法については\cite{MiyashiroR-Web,MiyashiroR2006}が詳しい. \section{おわりに} \label{sec:conclusion}本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説した.整数計画ソルバーの解説は本論文が初めてではなく,オペレーションズ・リサーチの分野では同じ趣旨の解説がいくつか発表されている\cite{FujieT2012,MiyashiroR2006,MiyashiroR2012}.また,現実問題を線形計画問題や整数計画問題に定式化する技法については\cite{KuboM2012,WilliamsHP2013}が詳しい.これらの文献は,本論文では取り上げていない多くの内容を含んでいるので,整数計画ソルバーに興味を持たれた読者にはぜひ一読をお勧めする.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Achterberg\BBA\Wunderling}{Achterberg\BBA\Wunderling}{2013}]{AchterbergT2013}Achterberg,T.\BBACOMMA\\BBA\Wunderling,R.\BBOP2013\BBCP.\newblock\BBOQMixedIntegerProgramming:Analyzing12YearsofProgress.\BBCQ\\newblockInJ{\"u}nger,M.\BBACOMMA\\BBA\Reinelt,G.\BEDS,{\BemFacetsofCombinatorialOptimization---FestschriftforMartinGr{\"o}tschel},\mbox{\BPGS\449--481}.Springer.\bibitem[\protect\BCAY{Ashford}{Ashford}{2007}]{AshfordR2007}Ashford,R.\BBOP2007\BBCP.\newblock\BBOQMixedIntegerProgramming:AHistoricalPerspectivewithXpress-MP.\BBCQ\\newblock{\BemAnnalsofOperationsResearch},{\Bbf149},\mbox{\BPGS\5--17}.\bibitem[\protect\BCAY{Atamt{\"u}rk\BBA\Savelsbergh}{Atamt{\"u}rk\BBA\Savelsbergh}{2005}]{AtamturkA2005}Atamt{\"u}rk,A.\BBACOMMA\\BBA\Savelsbergh,M.~W.~P.\BBOP2005\BBCP.\newblock\BBOQInteger-programmingsoftwaresystems.\BBCQ\\newblock{\BemAnnalsofOperationsResearch},{\Bbf140},\mbox{\BPGS\67--124}.\bibitem[\protect\BCAY{Berthold,Gleixner,Heinz,Koch,\BBA\Shinano}{Bertholdet~al.}{2012}]{BertholdT2012}Berthold,T.,Gleixner,A.~M.,Heinz,S.,Koch,T.,\BBA\Shinano,Y.\BBOP2012\BBCP.\newblockSCIPOptimizationSuiteを利用した混合整数(線形/非線形)計画問題の解法.\\newblock\JTR,ZuseInstituteBerlin.\bibitem[\protect\BCAY{Bixby\BBA\Rothberg}{Bixby\BBA\Rothberg}{2007}]{BixbyR2007}Bixby,R.\BBACOMMA\\BBA\Rothberg,E.\BBOP2007\BBCP.\newblock\BBOQProgressinComputationalMixedIntegerProgramming---ALookBackfromtheOtherSideoftheTippingPoint.\BBCQ\\newblock{\BemAnnalsofOperationsResearch},{\Bbf149},\mbox{\BPGS\37--41}.\bibitem[\protect\BCAY{Charnes\BBA\Cooper}{Charnes\BBA\Cooper}{1961}]{CharnesA1961}Charnes,A.\BBACOMMA\\BBA\Cooper,W.~W.\BBOP1961\BBCP.\newblock{\BemManagementModelsandIndustrialApplicationsofLinearProgramming}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{Chvatal}{Chvatal}{1983}]{ChvatalV1983}Chvatal,V.\BBOP1983\BBCP.\newblock{\BemLinearProgramming}.\newblockW.H.Freeman\&Company.\bibitem[\protect\BCAY{DeNero\BBA\Klein}{DeNero\BBA\Klein}{2008}]{DeNeroJ2008}DeNero,J.\BBACOMMA\\BBA\Klein,D.\BBOP2008\BBCP.\newblock\BBOQTheComplexityofPhraseAlignmentProblems.\BBCQ\\newblockIn{\BemProceedingsof46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnology,ShortPapers},\mbox{\BPGS\25--28}.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{FilatovaE2004}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Fourer}{Fourer}{2013}]{FourerR2013}Fourer,R.\BBOP2013\BBCP.\newblock\BBOQLinearprogramming.\BBCQ\\newblock{\BemOR/MSToday},{\Bbf40}(3),\mbox{\BPGS\40--53}.\bibitem[\protect\BCAY{藤江}{藤江}{2011}]{FujieT2011}藤江哲也\BBOP2011\BBCP.\newblock最近の混合整数計画ソルバーの進展について.\\newblock\Jem{オペレーションズ・リサーチ},{\Bbf56}(5),\mbox{\BPGS\263--268}.\bibitem[\protect\BCAY{藤江}{藤江}{2012}]{FujieT2012}藤江哲也\BBOP2012\BBCP.\newblock整数計画法による定式化入門.\\newblock\Jem{オペレーションズ・リサーチ},{\Bbf57}(4),\mbox{\BPGS\190--197}.\bibitem[\protect\BCAY{Gillick\BBA\Favre}{Gillick\BBA\Favre}{2009}]{GillickD2009}Gillick,D.\BBACOMMA\\BBA\Favre,B.\BBOP2009\BBCP.\newblock\BBOQAScalableGlobalModelforSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponIntegerProgrammingforNaturalLanguageProcessingattheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\10--18}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎}{平尾\Jetal}{2009}]{HiraoT2009}平尾努\JBA鈴木潤\JBA磯崎秀樹\BBOP2009\BBCP.\newblock最適化問題としての文書要約.\\newblock\Jem{人工知能学会論文誌},{\Bbf24}(2),\mbox{\BPGS\223--231}.\bibitem[\protect\BCAY{Kellerer,Pferschy,\BBA\Pisinger}{Kellereret~al.}{2004}]{KellererH2004}Kellerer,H.,Pferschy,U.,\BBA\Pisinger,D.\BBOP2004\BBCP.\newblock{\BemKnapsackProblems}.\newblockSpringer.\bibitem[\protect\BCAY{Koch,Achterberg,Andersen,Bastert,Berthold,Bixby,Danna,Gamrath,Gleixner,Heinz,Lodi,Mittelmann,Ralphs,Salvagnin,Steffy,\BBA\Wolter}{Kochet~al.}{2011}]{KochT2011}Koch,T.,Achterberg,T.,Andersen,E.,Bastert,O.,Berthold,T.,Bixby,R.~E.,Danna,E.,Gamrath,G.,Gleixner,A.~M.,Heinz,S.,Lodi,A.,Mittelmann,H.,Ralphs,T.,Salvagnin,D.,Steffy,D.~E.,\BBA\Wolter,K.\BBOP2011\BBCP.\newblock\BBOQMIPLIB2010:MixedIntegerProgrammingLibraryversion5.\BBCQ\\newblock{\BemMathematicalProgrammingComputation},{\Bbf3}(2),\mbox{\BPGS\103--163}.\bibitem[\protect\BCAY{今野}{今野}{1982}]{KonnoH1982}今野浩\BBOP1982\BBCP.\newblock\Jem{整数計画法と組合せ最適化}.\newblock日科技連.\bibitem[\protect\BCAY{今野}{今野}{1987}]{KonnoH1987}今野浩\BBOP1987\BBCP.\newblock\Jem{線形計画法}.\newblock日科技連.\bibitem[\protect\BCAY{今野}{今野}{2005}]{KonnoH2005}今野浩\BBOP2005\BBCP.\newblock\Jem{役に立つ1次式---整数計画法「気まぐれな王女」の50年}.\newblock日本評論社.\bibitem[\protect\BCAY{今野}{今野}{2014}]{KonnoH2014}今野浩\BBOP2014\BBCP.\newblock\Jem{ヒラノ教授の線形計画法物語}.\newblock岩波書店.\bibitem[\protect\BCAY{Korte\BBA\Vygen}{Korte\BBA\Vygen}{2012}]{KorteB2012}Korte,B.\BBACOMMA\\BBA\Vygen,J.\BBOP2012\BBCP.\newblock{\BemCombinatorialOptimization:TheoryandAlgorithms(5thedition)}.\newblockSpringer.\bibitem[\protect\BCAY{越川\JBA内山\JBA梅谷\JBA松井\JBA山本}{越川\Jetal}{2010}]{KoshikawaM2010}越川満\JBA内山将夫\JBA梅谷俊治\JBA松井知己\JBA山本幹雄\BBOP2010\BBCP.\newblock統計的機械翻訳におけるフレーズ対応最適化を利用したN-best翻訳候補のリランキング.\\newblock\Jem{情報処理学会論文誌},{\Bbf51}(8).\bibitem[\protect\BCAY{久保\JBAJ.~P.\JBA村松\JBAA.}{久保\Jetal}{2012}]{KuboM2012}久保幹雄\JBAJ.~P.ペドロソ\JBA村松正和\JBAA.レイス\BBOP2012\BBCP.\newblock\Jem{あたらしい数理最適化---Python言語とGurobiで解く}.\newblock近代科学社.\bibitem[\protect\BCAY{Linderoth\BBA\Ralph}{Linderoth\BBA\Ralph}{2006}]{LinderothJT2006}Linderoth,J.~T.\BBACOMMA\\BBA\Ralph,T.~K.\BBOP2006\BBCP.\newblock\BBOQNoncommercialSoftwareforMixed-IntegerLinearProgramming.\BBCQ\\newblockInKarlof,J.~K.\BED,{\BemIntegerProgramming---TheoryandPractice},\mbox{\BPGS\253--303}.Taylor\&Francis.\bibitem[\protect\BCAY{Lodi}{Lodi}{2010}]{LodiA2010}Lodi,A.\BBOP2010\BBCP.\newblock\BBOQMixedIntegerProgrammingComputation.\BBCQ\\newblockInJ{\"u}nger,M.,Liebling,T.,Naddef,D.,Nemhauser,G.,Pulleyblank,W.,Reinelt,G.,Rinaldi,G.,\BBA\Wolsey,L.\BEDS,{\Bem50YearsofIntegerProgramming1958-2008},\mbox{\BPGS\619--645}.Springer.\bibitem[\protect\BCAY{Ma}{Ma}{2006}]{MaX2006}Ma,X.\BBOP2006\BBCP.\newblock\BBOQChampollion:ARobustParallelTextSentenceAligner.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\489--492}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{McDonaldR2007}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{Mittelmann}{Mittelmann}{2014}]{MittelmannHD-Web}Mittelmann,H.~D.\BBOP2014\BBCP.\newblock\BBOQDecisionTreeforOptimizationSoftware.\BBCQ\\texttt{http://\linebreak[2]plato.\linebreak[2]asu.\linebreak[2]edu/\linebreak[2]guide.html}.\bibitem[\protect\BCAY{宮代}{宮代}{2012}]{MiyashiroR2012}宮代隆平\BBOP2012\BBCP.\newblock整数計画ソルバー入門.\\newblock\Jem{オペレーションズ・リサーチ},{\Bbf57}(4),\mbox{\BPGS\183--189}.\bibitem[\protect\BCAY{宮代}{宮代}{2014}]{MiyashiroR-Web}宮代隆平\BBOP2014\BBCP.\newblock整数計画法メモ.\\texttt{http://www.tuat.ac.jp/{\textasciitilde}miya/ipmemo.html}.\bibitem[\protect\BCAY{宮代\JBA松井}{宮代\JBA松井}{2006}]{MiyashiroR2006}宮代隆平\JBA松井知己\BBOP2006\BBCP.\newblockここまで解ける整数計画.\\newblock\Jem{システム/制御/情報},{\Bbf50}(9),\mbox{\BPGS\363--368}.\bibitem[\protect\BCAY{Moore}{Moore}{2002}]{MooreRC2002}Moore,R.~C.\BBOP2002\BBCP.\newblock\BBOQFastandAccurateSentenceAlignmentofBilingualCorpora.\BBCQ\\newblockIn{\BemMachineTranslation:FromResearchtoRealUsers},\mbox{\BPGS\135--144}.Springer.\bibitem[\protect\BCAY{Nemhauser\BBA\Wolsey}{Nemhauser\BBA\Wolsey}{1988}]{NemhauserGL1988}Nemhauser,G.~L.\BBACOMMA\\BBA\Wolsey,L.~A.\BBOP1988\BBCP.\newblock{\BemIntegerandCombinatorialOptimization}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{西川\JBA平尾\JBA牧野\JBA松尾\JBA松本}{西川\Jetal}{2013}]{NishikawaH2013}西川仁\JBA平尾努\JBA牧野俊朗\JBA松尾義博\JBA松本裕治\BBOP2013\BBCP.\newblock冗長性制約付きナップサック問題に基づく複数文書要約モデル.\\newblock\Jem{自然言語処理},{\Bbf20}(4),\mbox{\BPGS\586--612}.\bibitem[\protect\BCAY{西野\JBA平尾\JBA永田}{西野\Jetal}{2013}]{NishinoM2013}西野正彬\JBA平尾努\JBA永田昌明\BBOP2013\BBCP.\newblock集合パッキング問題に基づく文アラインメントのモデル化.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\932--935}.\bibitem[\protect\BCAY{西野\JBA鈴木\JBA梅谷\JBA平尾\JBA永田}{西野\Jetal}{2014}]{NishinoM2014}西野正彬\JBA鈴木潤\JBA梅谷俊治\JBA平尾努\JBA永田昌明\BBOP2014\BBCP.\newblock列生成法を用いた高速なアラインメント.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\364--367}.\bibitem[\protect\BCAY{Schrijver}{Schrijver}{1998}]{SchrijverA1998}Schrijver,A.\BBOP1998\BBCP.\newblock{\BemTheoryofLinearandIntegerProgramming}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{高村\JBA奥村}{高村\JBA奥村}{2008}]{TakamuraH2008}高村大也\JBA奥村学\BBOP2008\BBCP.\newblock最大被覆問題とその変種による文書要約モデル.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(6),\mbox{\BPGS\505--513}.\bibitem[\protect\BCAY{高村\JBA奥村}{高村\JBA奥村}{2010}]{TakamuraH2010}高村大也\JBA奥村学\BBOP2010\BBCP.\newblock施設配置問題による文書要約のモデル化.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(1),\mbox{\BPGS\174--182}.\bibitem[\protect\BCAY{Williams}{Williams}{2013}]{WilliamsHP2013}Williams,H.~P.\BBOP2013\BBCP.\newblock{\BemModelBuildinginMathematicalProgramming(5thedition)}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{Wolsey}{Wolsey}{1998}]{WolseyLA1998}Wolsey,L.~A.\BBOP1998\BBCP.\newblock{\BemIntegerProgramming}.\newblockJohnWiley\&Sons.\end{thebibliography}\begin{biography}\bioauthor{梅谷俊治}{1998年大阪大学大学院基礎工学研究科博士前期課程修了.2002年京都大学大学院情報学研究科博士後期課程指導認定退学.豊田工業大学助手,電気通信大学助教を経て,2008年より大阪大学大学院情報科学研究科准教授,現在に至る.博士(情報学).専門は組合せ最適化,アルゴリズム.日本オペレーションズ・リサーチ学会,情報処理学会,人工知能学会,INFORMS,MOS各会員.}\end{biography}\biodate\end{document}
V31N02-06
\section{はじめに} 近年,言語モデルの言語間転移能力に高い関心が寄せられている.例えば,英語の大規模言語モデルは,学習データに少量しか存在しない英語以外の言語に対しても,一定の翻訳性能を示しており\cite{Brown2020-zt,shi2023language},英語から他の言語への効率的な言語間転移が示唆されている.このような言語間転移能力について,既存研究では,パープレキシティや下流タスクでの性能などの抽象的・全体的な尺度によって評価されてきた\cite{Papadimitriou2020-kp,Deshpande2022,Blevins2022-ta}.その一方で,言語学的な観点からの調査,例えば言語の類型的な特徴などに起因する文法能力や転移能力の差異についての調査はほとんど実施されてこなかった.本研究では,言語モデルの言語間転移能力について,第一言語獲得の第二言語の言語的汎化の効率への影響を言語横断的に調査する.具体的には,まず言語モデルを特定の言語で事前学習し(第一言語話者と想定),第二言語として英語を使用して追加で学習した後に(第二言語話者と想定),第二言語の言語的汎化の評価とその分析を行うという手順を設計する(\ref{sec:exp_procedure}\nobreak節).第一言語として,英語への転移の難易度が異なる4つの言語(フランス語,ドイツ語,ロシア語,日本語)を選択する.学習データの量は,人間の第二言語獲得シナリオに一致するように制限することで,人間の第二言語獲得の傾向との比較が容易になり,計算言語学的な観点から第二言語獲得に関する洞察が得られることが期待される.事前実験では,第二言語の学習方法における帰納バイアスを調査する(\ref{sec:pre_exp}\nobreak節).第二言語のテキストのみでの学習や,第一言語と第二言語の対訳での学習など,様々なデータの入力設定を比較する.言語モデルの第二言語の学習時に,第一言語と第二言語の対訳を提示する設定では,対訳関係を崩した文対を提示する設定よりも,第二言語の言語的汎化が遅くなることが示された.本実験では,第一言語の学習が第二言語の文法獲得に与える影響を探索的に分析する(\ref{sec:experiments}\nobreak節).第一言語の知識は第二言語のより良い言語的汎化を促進する傾向が見られたが(\ref{sec:l1-promote}\nobreak節),第一言語の特徴によって第二言語で異なる言語的汎化を引き起こすことが示された(\ref{sec:diff-l1}\nobreak節).例えば,日本語またはロシア語を第一言語として学習したバイリンガル言語モデルはフランス語とドイツ語と比較して言語的汎化の性能が著しく低かった.これは人間について定義された言語学習の難易度\cite{Chiswick2004-zz}と一致している.また,第一言語の事前学習は対象とする言語現象によっても異なる効果を与えることがわかった(\ref{sec:diff-grammar}\nobreak節).特に,第一言語による事前学習は,意味的現象や統語/意味的現象よりも,形態的現象や統語的な現象で大きな効果が観察された.最後に,より詳細な調査として,第二言語獲得の過程を分析する(\ref{sec:analysis}\nobreak節).まず,第一言語の違いにより,第二言語の言語的汎化の過程がどのように変化するかを調査した.言語モデルの言語的汎化は,データセット全体を50--100回程度見るまであまり進まず,学習の非効率性を示唆する結果となった.次に,第二言語の学習中に,第一言語の知識に与える影響の過程も調査した.第二言語の学習中に第一言語の言語的汎化が抑制される傾向にあることが観察され,言語転移の間に,第一言語と第二言語の言語学的知識のバランスを取ることは容易でないことが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia5f1.pdf}\end{center}\hangcaption{実験手順の概要.はじめに,第一言語を用いて単言語の穴埋め言語モデリングを行う(第一言語獲得).次に第一言語と第二言語(英語)を両方用いて,既存研究に従い\protect\cite{conneau_xlm}穴埋め言語モデリングを行う(第二言語獲得).最後に,英語の文法性判断ベンチマークであるBLiMPを用いてモデルの第二言語の文法能力を評価し,第一言語が第二言語の獲得にどのように影響するか分析する.}\label{fig:exp_procedure}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{言語モデルの第二言語獲得} \label{sec:exp_procedure}本研究では,言語モデルの第一言語の言語知識が第二言語の言語的汎化にどのように影響するかについて言語横断的に調査する.実験手順の概要を図~\ref{fig:exp_procedure}に示す.まず,第一言語獲得のシナリオを想定し,当該言語の単言語コーパスで言語モデルを事前学習する.次に,第二言語獲得のシナリオを想定し,第二言語(英語)のテキストを含むコーパスを使用し,事前学習した言語モデルを追加で学習する.最後に,文法性判断ベンチマークであるBLiMP\cite{blimp}を使用し,言語モデルの第二言語(英語)の言語的汎化について評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語接触}\label{sec:language_exposure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{使用言語}第一言語にはフランス語,ドイツ語,ロシア語,日本語を使用し,第二言語には英語を使用する(表~\ref{tab:langs}).英語から他の4言語という逆向きの転移も,多数言語から少数言語への転移への応用が見込めるという意味で関心の対象ではあるが,言語を対照的に評価がしやすいことから本研究では英語への転移に取り掛かった.言語間距離\cite{grimes2002ethnologue,Chiswick2004-zz}と学習難易度\footnote{\url{https://www.state.gov/foreign-language-training/}\\なお,これらの難易度は,英語から特定の言語への転移の難易度を示すものであることに注意されたい.本研究では,学習難易度の観点から,ソース言語とターゲット言語の対称性を暫定的に仮定した.}の観点から,フランス語,ドイツ語,ロシア語,日本語の順に英語への転移が難しくなることが予想される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}%\hangcaption{実験で用いた4つの言語の性質.英語は第二言語,それ以外は第一言語である.転移難易度は,言語的距離と学習難易度に基づいた当該言語から英語への転移の難易度を示す.値が大きいほど,言語習得の観点から英語とのギャップが大きいことを示す.語族はインド・ヨーロッパ語(IE)かそれ以外(N-IE)を示す.語順は当該言語の典型的な語順を示す.}\label{tab:langs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{第一言語獲得}当該言語のCC-100\cite{xlmr,ccnet}を文書単位でシャッフルし,頭から約1億単語分を抽出した単言語コーパスを使用して言語モデルを学習する.コーパスの大きさは,言語獲得の過程で人間が接触する単語数と揃えている.モデルは100エポックで学習した\footnote{人間が同じ事例に100回接触する状況は想定されにくいため,人間との対照という視点ではエポック数が100であることの妥当性に疑義が生じるかもしれないが,特定の言語経験の記憶が学習に複数回影響を与え続けていることも議論されている\cite{Bybee2013-dc}.}.単語分割には,フランス語,ドイツ語,ロシア語にMosesツールキット\cite{mosesdecoder}に含まれるトークナイザ,日本語にkytea\footnote{\url{http://www.phontron.com/kytea/}}\cite{neubig-etal-kytea,neubig-mori-kytea}を用いた.その後,fastBPE\footnote{\url{https://github.com/glample/fastBPE}}\cite{sennrich-etal-2016}を分割したテキストに用いて,語彙数を各言語14,000に設定したサブワード分割器を学習し,テキストをサブワード分割した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{第二言語獲得}第一言語獲得の段階で事前学習した言語モデルを,第二言語のテキストも用いて追加で100エポック学習する(\ref{sec:pre_exp}\nobreak節).なお,学習過程におけるチェックポイントも保存し,\ref{sec:analysis}\nobreak節で第二言語獲得の過程を追跡する.第二言語獲得の段階では,学習データとしてTatoeba\cite{tatoeba}\footnote{\url{https://opus.nlpl.eu/Tatoeba.php}}を用いた.Tatoebaは,人間の外国語学習者向けに収集された例文とその翻訳から構成された多言語の対訳コーパスである.英語と対象の第一言語の対を約21万文対ずつ使用した.トークン数の詳細は付録\ref{sec:appendix_corpus}に記載する.第二言語獲得の観点からは,このコーパスの大きさは人間の学習者が頻度上位95\%の英単語を学習するのに十分な量\cite{Nation2020-ov}と同等である.サブワード分割のためのトークナイザは,英語はMosesツールキット\cite{mosesdecoder}に含まれるトークナイザを用いており,他の言語は第一言語獲得と同じ設定である.語彙は,単言語コーパスで使用したBPEの学習コードと語彙に,対訳コーパスの第二言語(英語)側から作成した語彙数を6,000に設定した学習コードと語彙を追加する方法で作成した.追加したことにより単言語コーパスの学習コードと語彙と重複したトークンや語彙は取り除いた.語彙を追加したことに伴い,埋め込み層,最終層の重みとバイアスを語彙数方向に増やした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}言語モデルの学習設定は,多言語モデリングで一般的に使用されるXLM\cite{conneau_xlm}の設定に従った.XLMはTransformerベースの双方向言語モデルであり,入力は2言語の文対で構成されている.モデルは第一言語と第二言語の両側でマスクされたトークンを予測する.第一言語獲得の段階では,第一言語側の文のみを入力する.なお,本研究で用いるモデルは,超多言語で学習した既存の事前学習済みモデルXLM\cite{conneau_xlm,xlmr}を使用するのではなく,初期状態から学習している.人間の多言語獲得のシナリオでは,数十の言語に接触することはほとんどないため,既存のXLMのような数十言語で学習を行う設定は人間との対照という観点では非現実的である.むしろ,人間の第二言語獲得の機序を探究する教育学や認知科学のような隣接分野から,本研究のような2言語間での転移が多くの注目を集めることを期待している.XLMのパラメータ(18M)はランダムに初期化し,第一言語と第二言語の組み合わせごとに,異なるランダムシードを用いてそれぞれ3つのモデルを学習した.\ref{sec:experiments}\nobreak節および\ref{sec:analysis}\nobreak節で報告する結果は,ランダムシードが異なる3つのモデルの評価データでの正答率の平均値である.その他のハイパーパラメータは表~\ref{tab:hyperparameters}に記載した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{05table02.tex}%\caption{言語モデル(XLM)に使用したハイパーパラメータ}\label{tab:hyperparameters}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}英語の文法性判断テストのベンチマークであるBLiMP\cite{blimp}を用いて,モデルの第二言語の言語的汎化を評価した.BLiMPは,言語現象ごとに1,000文対ずつのミニマルペア(分析したい観点が分析できる最小の差をもつ文対)から成る.各対は,以下のように文法的に容認可能な文(1a)と可能でない文(1b)から構成され,言語モデルがどちらを好むかを調査する.\eenumsentence{\itemManyteenagerswerehelpingthemselves.\item*Manyteenagerswerehelping\textbf{herself}.}BLiMPデータセットで扱っている67の言語現象はそれぞれ12の中分類に属し,さらにこれらは,形態的,統語的,意味的,統語/意味的の4つの大分類に属する.各実験では必要に応じて,67の小分類,中分類,大分類ごとに正答率を平均して報告する.各言語現象の詳細や例は,\citeA{blimp}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文法性判断}各対から1つの文を選択するために,言語モデルの振る舞いを調査するための標準的な指標である疑似パープレキシティ(PPPL)\cite{salazar-etal}を利用した.言語モデルにより,文対の各文に対してPPPLを算出する.文対のうち,低いPPPLを割り当てられた方の文を予測結果とする.その予測結果が文法的に正しい文と一致していれば正解とする.正解の割合をBLiMPの各言語現象における正答率として報告する.BLiMPの文対は長さが異なる場合があるため,長さで正規化した疑似パープレキシティの値を使用している.なお,本論文の図や表で報告する全ての正答率は,可読性のために100倍されていることに注意されたい.\citeA{salazar-etal}に従い,文$\bms=[w_1,w_2,\cdots,w_n]$の疑似パープレキシティ($\mathrm{PPPL}$)は,双方向言語モデル$\theta$を使用して式\eqref{eq:pppl}で計算される.\begin{equation}\label{eq:pppl}\mathrm{PPPL}(\bms)=\prod_{t=1}^{n}p_{\theta}(w_t|\bms_{\setminusw_t})^{-\frac{1}{|\bms|}}\;\;,\end{equation}$w_t$は文中の$t$番目のトークンを表し,$\bms_{\setminusw_t}$は文中の$w_t$を除く全てのトークンの系列を示すため$[w_1,\cdots,w_{t-1},w_{t+1},\cdots,w_n]$と同一である.$p_{\theta}(w_t|\bms_{\setminusw_t})$は,文脈$\bms_{\setminusw_t}$が与えられたときに言語モデル$\theta$が$w_t$を予測する確率である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{事前実験:第二言語の学習設定} \label{sec:pre_exp}本実験(\ref{sec:experiments}\nobreak節)に先立ち,第二言語の学習設定における帰納バイアスを調査する.既存研究では,言語間学習\cite{conneau_xlm}の入力として対訳データを使用している.本節では,第二言語の言語的汎化の観点からこの設定が与える影響を調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-2ia5f2.pdf}\end{center}\caption{\ref{sec:pre_exp}\nobreak節での事前実験にて比較する第二言語学習時の入力設定}\label{fig:l2_settings}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習設定}データの入力方法として,(a)第一言語と第二言語の対訳関係のない文対(TLM-nopara),(b)第一言語と第二言語の対訳対(TLM-para),(c)対訳対を入力するか,第二言語の文のみを入力するかを交互に切り替える設定(TLM-drop)\footnote{つまり,各エポックごとに2言語と単言語の設定を交互に切り替える.}の3つの設定を比較する\footnote{対訳関係の有無に関して,現実世界では言語習得のための教授法のひとつである文法訳読法の想定ができる可能性がある.外国語教育学分野では,第一言語への翻訳を参照して第二言語を学習するべきかについては古くから議論されている\cite{Zhou2015ApproachesTL}.また,第二言語学習時に第一言語と第二言語の接触のバランスをどのようにすると効果的かを検証する第一歩として,実装上容易なことから1エポックずつ交互に学習するというパターンを用意した.第一言語の忘却をより防ぐためにバランスを変化させたり,外国語の教授法を参考にしてモデルの学習方法について新たに試したりなど他の検証も可能であり,今後の課題となる.}.各入力設定の概要は図~\ref{fig:l2_settings}に示す.元のXLM\cite{conneau_xlm}はTLM-dropと同様の設定を採用していることに注意されたい.モデルの詳細は付録\ref{sec:appendix_model}に記載する.本実験では,第一言語が異なる言語モデルを対象とし,BLiMPの中分類ごとの正答率のマクロ平均を報告する.結果を表~\ref{tab:settings}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{対訳対は第二言語の文法性判断能力の促進を弱める}表~\ref{tab:settings}より,TLM-noparaの正答率はTLM-paraよりも優れていることがわかった\footnote{設定による結果の差について,Mann-WhitneyのUテストを用いて5\%の有意水準で有意であることを示した.TLM-paraとTLM-noparaの場合は$p=4.6\mathrm{e}-2$,TLM-noparaとTLM-dropの場合は$p=1.0\mathrm{e}-2$であった.\label{fot:stat_diff}}.この結果は,対訳関係のある文対の入力は,第二言語獲得を促進しないことを示唆している.この理由として,TLM-paraの入力設定は,言語モデルが文法の知識を学ぶには簡単すぎた可能性がある.TLM-paraは,語彙の知識,すなわち第一言語の文と第二言語の文のトークン間の語彙対応を捉え,語彙対応の片側にのみ見られる単語を予測することのみにより部分的に解くことが可能であったと推測できる\footnote{例えば,第一言語:「私はりんごを食べた.」第二言語:``Iateanapple.''という文対のとき,第二言語に``I<MASK>anapple.''のようにマスクされている場合を想定する.対訳関係のある文対だと,``I<MASK>anapple.''を参照して<MASK>が何か当てるのではなく,第一言語には存在して第二言語には欠けている意味内容や語彙(「食べた」など)を翻訳して当てられる可能性があるため,第二言語自体の文法性判断能力の学習が促進しない可能性がある.}.TLM-noparaの入力設定はこれとは対照的に,言語的汎化の観点からは言語モデルにより困難な問題を課すことになるので,言語知識の効果的な学習を促進した可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{05table03.tex}%\hangcaption{異なる学習設定でのBLiMP上のバイリンガル言語モデルの正答率.対訳列は対訳コーパスが使用されたかどうかを示す.切替列は,第一言語側の文を入力する/しないを1エポックごとに交互に切り替えていることを示す.}\label{tab:settings}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{入力設定の対訳と単言語の切り替えにより第二言語獲得が促進される}表~\ref{tab:settings}より,言語モデルの第二言語の言語的汎化には,%%%%TLM-dropの設定が最も効果的であることがわかった\footref{fot:stat_diff}.TLM-dropの設定が最も効果的であることがわかった$^\ref{fot:stat_diff}$.TLM-dropの設定では,入力に使用するテキストが単言語か2言語の文対かを各エポックで切り替えるため,単言語での学習と2言語での学習が相補的に言語的汎化に作用した可能性がある.また,BLiMPでの評価時は第二言語の単文が入力されるため,学習時に一部のエポックで第二言語のみを使用する設定により,学習時と推論時における入力形式のミスマッチを軽減した可能性がある.これ以降の実験では,第二言語の言語的汎化に最も効果的な学習設定であったTLM-dropを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験:第一言語が第二言語の言語的汎化に及ぼす影響} \label{sec:experiments}本節では,第一言語での事前学習の有無による第二言語の言語的汎化への影響について,\pagebreak第一言語の種類や多様な言語現象への汎化能力の観点から探索的に調査する.第二言語を用いた追加での学習後に,文法性判断能力を評価した結果を表~\ref{tab:pretrain}に示す.$\Delta$行は,事前学習したモデルの正答率から事前学習していないモデルの正答率を引いた値を示している.ここでは,事前学習を行わないモデルは,第一言語の単言語コーパスを用いた事前学習の段階を踏まず,2言語コーパスでのみ学習したモデルを指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{05table04.tex}%\hangcaption{事前学習した第一言語が異なるバイリンガル言語モデルの第二言語(英語)の言語的汎化.マクロ平均列は中分類ごとの正答率のマクロ平均を示している.L1列に\checkmarkが付いている行は,事前学習ありのバイリンガル言語モデルのBLiMPにおける正答率を示す.$\Delta$は,モデルの事前学習の有無による正答率の差を示す.値が大きいほど,第一言語での事前学習が言語的汎化により良い影響を与えたことを意味する.}\label{tab:pretrain}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第一言語は第二言語の言語的汎化を促進する}\label{sec:l1-promote}表~\ref{tab:pretrain}に第一言語での事前学習が第二言語の言語的汎化に与える効果を示す.表~\ref{tab:pretrain}より,言語現象ごとの汎化能力の差分$\Delta$の多くや,$\Delta$の中分類マクロ平均は正であることから,第一言語で事前学習されたモデルは,事前学習なしのモデルよりも言語的汎化に良い影響を与えていることがわかる.この結果は,当該言語での事前学習が英語の言語的汎化を促すことをを示している\footnote{異なるランダムシードに対して表~\ref{tab:pretrain}の正答率(0--100スケール)の標準偏差は1.2であり,ランダムシードの違いによる正答率の揺れは小さかった.}.この正の効果は,異なる言語がいくつかの文法的普遍性を共有しており,学習者は言語の転移でこのような普遍的な性質を使用可能であるという仮説\cite{cook1985chomsky}と対応している.また,\citeA{ri-language-transfer}は,英語以外の自然言語で事前学習を適用すると英語の構文解析の性能が向上すると報告しており,本研究の結果はこの知見と部分的に一致している.本研究はさらに,形態論や統語論,意味論といった分類による異なりや,より細かい言語現象について分析し知見を提示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}%\hangcaption{大分類(形態論,統語論,意味論,統語/意味論)ごとの,第一言語での事前学習の有無によBLiMPにおける正答率の差.}\label{tab:category}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第一言語の異なり}\label{sec:diff-l1}表~\ref{tab:pretrain}のマクロ平均列の$\Delta$の値は,第一言語によって異なりを示している.フランス語が最も高く,ドイツ語が僅差で続き,日本語,ロシア語はこれら2言語とは大きく差が開いている.フランス語とドイツ語での事前学習は,日本語とロシア語よりもはるかに英語の言語的汎化に効果的であることが示唆される.事前学習の効果の大きさ(フランス語$\succ$ドイツ語$\succ$日本語$\succ$ロシア語)は,第二言語の学習のしやすさ(フランス語$\succ$ドイツ語$\succ$ロシア語$\succ$日本語;表~\ref{tab:langs}に記載の転移難易度を参照)と概ね一致しており,第二言語の言語的汎化の難しさは,言語モデルと人間である程度同様であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語現象の異なり}\label{sec:diff-grammar}表~\ref{tab:pretrain}の$\Delta$より,事前学習による正答率の差が言語現象ごとに異なることがわかった.表~\ref{tab:category}は,大分類ごとの$\Delta$正答率の平均を示している.形態的,または統語的な現象は,\textsc{Irregular}などの特定の設定を除いて,意味論や統語/意味論の項目よりも第一言語の事前学習により大きな効果が得られる傾向があった.\citeA{blimp}では,\textsc{NPI}(否定極性項目)や\textsc{Quantifier}(量化)のような意味論に関連する言語現象は,英語の単言語モデルにとって比較的獲得が難しいと結論づけられている.よって,意味論に関する言語知識が他の言語への転移が難しいという結果は,言語モデルが第一言語の学習時点で意味論に関する言語知識を十分に獲得できなかったことに起因すると示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第一言語$\times$言語現象の異なり}事前学習に用いた第一言語と評価対象の言語現象の組み合わせによっては,第一言語での事前学習は第二言語の言語的汎化に負の影響を与えた.例えば,\textsc{Irregular}(不規則動詞活用)は,第一言語での事前学習により正答率が向上しないどころか低下することもあった.\textsc{Irregular}は,英語固有の不規則動詞の活用を対象としている.第一言語の事前学習の効果の小ささは,不規則動詞の活用が第一言語の知識からは予測が難しいことに起因する可能性がある.また,同じ言語現象でも第一言語によって影響が異なることがわかった.例えば,表~\ref{tab:pretrain}の\textsc{Filler-gap}(空所と埋語の依存関係)の$\Delta$の値は第一言語間で異なり,フランス語,ドイツ語,ロシア語では+4.0以上,日本語では+1.1である.少なくともこの言語現象では,本実験の結果とこの現象に関する言語学的な知見との間に興味深い類似点がある.英語,フランス語,ドイツ語,ロシア語は,wh-構文において埋語が空所に先行するが,日本語は,空所が埋語に先行する.このような,言語現象依存の第一言語と第二言語の類似性が,事前学習の効果の大きさに反映されている可能性がある.ただし,第一言語$\times$言語現象の結果(表~\ref{tab:pretrain})と,第一言語と第二言語の文法的な類似性の正確な一貫性を結論付けるには,さらなる学際的な研究が必要である.なお,各言語現象(小分類)ごとの詳細な結果は,表~\ref{tab:full_results_l2}に記載している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\input{05table06.tex}%\caption{BLiMPの言語現象(小分類)ごとの正答率.}\label{tab:full_results_l2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析:獲得過程} \label{sec:analysis}本節では,第二言語獲得の過程について分析を行う.具体的には,第二言語の学習段階において,第二言語の言語的汎化がどのように進むか(\ref{subsec:l2_process}\nobreak節),予め学習していた第一言語の言語的汎化がどのように変化するか(\ref{subsec:l1-knowledge}\nobreak節)に関して調査する.後者については,例えば第一言語の知識について破壊的な忘却\cite{FRENCH1999128}が起こることが懸念される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第一言語が第二言語獲得へ及ぼす影響}\label{subsec:l2_process}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{設定}言語モデルの中間チェックポイントごとに第二言語の文法性判断能力を評価する(図~\ref{fig:l1_all_trajectories}).具体的には,\ref{sec:experiments}\nobreak節で用いたモデルを対象とし,\{1,2,3,4,5,10,20,30,40,50,100\}エポックにおける言語モデルの文法能力を評価する.100エポック目の結果は,\ref{sec:experiments}\nobreak節で報告した正答率と同一である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-2ia5f3.pdf}\end{center}\hangcaption{BLiMP(第二言語側)の各テストセットにおける学習の過程.x軸は第二言語獲得中のエポック数を示し,y軸は対応するテストセットの正答率を示す.マクロ平均の図は,各中分類ごとの正答率のマクロ平均値を示す.}\label{fig:l1_all_trajectories}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{言語的汎化効率}図~\ref{fig:l1_all_trajectories}中のマクロ平均値の軌跡は,学習を重ねることにより言語モデルの言語的汎化が促されることを示している.一方で,数十エポックを経た後に大きな改善が現れることから,言語モデルでは同じ例を何度も見た後に第二言語の言語的汎化が創発することが示唆される.一方で,人間の場合は,約12回同じ単語に接触した後に語彙を習得するという報告がある\cite{Nation2020-ov}.語彙と構文の獲得の直接的な比較は難しいが,同じ例を50回から100回繰り返した後に第二言語の言語的汎化が促されるという観察を踏まえると,言語モデルは人間よりも新しい言語の文法を習得するのに非効率的である可能性が示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{言語現象の違い}各言語現象における大まかな学習の軌跡の形状に注目すると,少なくとも以下の4つの分類が存在する:(i)学習後半での創発(\textsc{D-Nagr.},\textsc{Irregular},\textsc{S-Vagr.}),(ii)平坦(\textsc{Arg.str.},\textsc{Ctrl.Rais.},\textsc{Island}),(iii)凸凹(\textsc{Ana.agr.},\textsc{Ellipsis},\textsc{NPI},\textsc{Quantifiers}),(iv)混合(\textsc{Filler-gap},\textsc{Binding}).また,これらの分類は,現象の大分類(形態論,統語論,意味論,統語/意味論)を大まかに反映している.例えば,学習後半での創発グループのすべての言語現象は形態論カテゴリに対応しており,全ての意味論カテゴリ(\textsc{NPI},\textsc{Quantifiers})では凸凹のパターンに属する.既存研究では,形態論などの低レベルの言語知識は早期に獲得でき,高レベルの言語スキルは獲得が遅いことが報告されている\cite{liu2021probing,Blevins2022-ta}.一方で,少なくとも本研究で実施した第二言語獲得のシナリオにおける実験では,そのような明確な傾向は観察されなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{第一言語による差}各言語現象における軌跡の傾向には,第一言語にどの言語を利用するかによって(i)収束(\textsc{Irregular},\textsc{Island}),(ii)発散(\textsc{Arg.str.},\textsc{Binding},\textsc{D-Nagr.},\textsc{S-Vagr.}),(iii)どちらでもないという3つの異なる分類が観察される.収束グループの例として\textsc{Irregular}を考えると,学習の初期段階では第一言語ごとに正答率が大きく異なっているが,これらの差異は学習エポックを経るにつれて縮小した.一方で,発散グループの例として\textsc{S-Vagr.}に着目した場合,学習の後期になるにつれて言語モデルごとの正答率の差が拡大した.どちらでもないグループでは,第二言語学習中に第一言語による正答率の差が同じままであるか,不安定なままである(\textsc{Ana.agr.},\textsc{Ctrl.Rais.},\textsc{Ellipsis},\textsc{Filler-gap},\textsc{NPI},\textsc{Quantifiers}).少なくとも前者2つのグループは,第一言語が異なる事前学習は第二言語獲得の効率に異なる影響を与えることを示唆している.\vspace{\baselineskip}以上の分析により,事前学習に用いる第一言語や評価対象の言語現象が異なる場合には,第二言語の獲得過程における軌跡が異なる傾向を示すことが明らかになった.これらの分類や傾向の認知的・言語学的な妥当性の調査は,今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第二言語獲得が第一言語の文法能力へ及ぼす影響}\label{subsec:l1-knowledge}本節では前節の第一言語$\rightarrow$第二言語方向の影響に関する分析とは異なり,第二言語$\rightarrow$第一言語方向の影響を調査する.応用言語学では,第一言語$\rightarrow$第二言語,第二言語$\rightarrow$第一言語の両方向への影響が議論されている.例えば,幼少期に第二言語環境へ移り,第二言語への接触が相対的に増えることで,第一言語の言語能力が損なわれることがあるという報告\cite{kecskes2008effect,Haman2017-gm}がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{実験設定}評価対象を第一言語の言語的汎化として,\ref{subsec:l2_process}\nobreak節と同様に第二言語の学習過程における言語モデルの言語的汎化を評価する.第一言語の評価には,文法性判断ベンチマークとしてCLAMS\cite{mueller-etal}を使用した.CLAMSは,多言語のベンチマークであり,言語ごとに7つの言語現象が含まれている.各言語現象はBLiMPと同様に,文法的に容認可能な文と可能でない文のミニマルペアから構成されている.評価もBLiMPと同様に,言語モデルが文法的に正しい文に低い疑似パープレキシティを割り当てる割合を正答率として報告する.CLAMSが対象とする言語のうち,\ref{sec:pre_exp}\nobreak節より用いてきた言語は,フランス語,ドイツ語,ロシア語である.本節では,これら3言語をそれぞれ第一言語としたモデルを対象に,第二言語(英語)の学習過程における第一言語の言語的汎化について分析する.ベースラインとして,第一言語を用いて事前学習した後に,対訳コーパス(Tatoeba)の当該言語対の第一言語側の文のみで追加で学習した第一言語のみの言語モデルも評価する.つまり,バイリンガル言語モデルと第一言語のみのベースラインモデルの違いは,第二言語獲得の段階における入力の第二言語の有無のみである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{第一言語への影響は,第二言語獲得の初期段階で大きくなり,やがて小さくなる}図~\ref{fig:l1_trajectories}に,結果を示す(正答率の詳細は表~\ref{tab:full_results_l1}を参照).x軸は対数軸である.2言語で学習された言語モデルと第一言語のみで学習された言語モデルの学習軌跡の形状を比較すると(図~\ref{fig:l1_trajectories}上下方向),第二言語学習の初期段階では,第二言語の知識は第一言語に影響を与えることが観察された.例えば,フランス語とドイツ語では,第二言語(英語)での学習が良い影響を与え,ロシア語の言語モデルでは逆に悪い影響を与えていた(図~\ref{fig:l1_trajectories}の上の行).また,2言語で学習された言語モデルの軌跡に着目すると,学習後期には,第一言語の知識に対する第二言語の正または負の影響が徐々に小さくなり,第一言語の言語的汎化能力は最終的に第二言語獲得開始時の程度へ向かう傾向が観察された.例えば,フランス語とドイツ語が第一言語の言語モデルは,2言語でのモデリングの際に,10エポック程度で一度より良い正答率を示したが,さらに学習を重ねると正答率は下がった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-2ia5f4.pdf}\end{center}\hangcaption{CLAM(第一言語側)の各テストセットにおける学習の過程.x軸は第二言語の学習中のエポック数を示し,y軸は対応するテストセット上での正答率を示す.上段はバイリンガル言語モデル(第一言語での事前学習の後に2言語での学習)の正答率.下部には,第一言語のみの言語モデル(第一言語での事前学習の後に対訳コーパスの第一言語側の文を用いて追加の学習)を示す.}\label{fig:l1_trajectories}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{05table07.tex}%\caption{CLAMSにおける各言語現象・エポック(5,50,100)ごとの正答率}\label{tab:full_results_l1}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{第二言語は第一言語の知識に悪影響を及ぼす}図~\ref{fig:l1_trajectories}において,学習終盤に達成された汎化正答率を第二言語あり・なしで比較すると,ドイツ語は例外的であるが,全体的にはバイリンガル言語モデルの第一言語の知識は,第一言語のみの言語モデルと同程度か,それよりも劣っていた.例えば,フランス語が第一言語のバイリンガル言語モデルでは,第二言語学習後の第一言語の構文に対するCLAMの正答率は0.7ポイント以下に収束したが,第一言語のみのベースラインモデルは一般に0.7ポイント以上を達成した(表~\ref{tab:full_results_l1}).第一言語の結果と第二言語の結果(\ref{subsec:l2_process}\nobreak節)を比較すると,第一言語と第二言語の間に非対称的な効果がある.より優れた言語学的な能力を持つ多言語モデルの開発を目指す観点からは,モデルが第二言語の学習中にも第一言語に接触したとしても,言語転移中に言語の言語知識のバランス,特に第一言語の言語的汎化を促進することは容易でないことが示唆される.これらの課題に対処するには,例えば工学的観点からは,何らかの正則化が有望な方向性となるだろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ニューラル言語モデルの分析の認知科学的動機}言語獲得におけるニューラルモデルの能力の調査は1980年代に始まり,言語が生得的な知識なしに獲得できるかどうかという問いやコネクショニズムの可能性や限界の観点から議論が繰り広げられてきた\cite{Rumelhart1985-xj,Pinker1988-zb}.当初は簡易的なニューラルモデルを用いて議論が広げられたが,近年ニューラルモデルを用いた自然言語処理が目覚ましい進展を遂げ\cite{Manning2015-mm},ニューラルネットワーク黎明期に認知科学分野が掲げた古典的な問いへ再訪する動きが高まっている\cite{Kirov2018-yf,McCoy_undated-px}.近年盛んに行われているニューラルモデルの言語知識の分析(プロービング)は,そのような一連の議論の延長線上にある\cite{lizen-2016,Warstadt-BERT}.これまでは第一言語の獲得に注目が集められてきたが,昨今はニューラル言語モデルの第二言語獲得の傾向の分析も進められており,多言語モデリングという工学的道具立ての性質の理解と共に,人間の言語転移・第二言語獲得における母語干渉などへの計算機シミレーション的なアプローチを見据えている.\citeA{mueller-etal}は単言語モデルと多言語モデルの多言語への汎化能力について分析している.本研究では,バイリンガル言語モデルの言語間転移について,人間の第二言語獲得により近づけた設定で調査するために,第一言語と第二言語を同時ではなく段階的に学習させる方法を取る.また,第二言語の学習過程での言語的汎化の軌跡について,既に学習した第一言語と新たに学習する第二言語の双方向から分析している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{計算モデルにおける言語転移}自然言語処理モデルの言語転移は,工学と科学の両面から活発に研究されている.工学の文脈では,自然言語処理技術の英語への偏重を緩和するために,より多くの言語を処理できるモデルが開発されている\cite{Dong2015,conneau_xlm,xlmr}.科学的な観点では,言語モデルの言語転移のメカニズムと言語特性について\cite{noauthor_undated-ut,Chang2022-hb,Blevins2022-ta},時には転移の対象が自然言語を超えて\cite{ri-language-transfer,Papadimitriou2020-kp}探求されてきた.このような分析の動機の一つは,言語の背後にある譲渡可能な普遍性を定量化することである.また,第二言語獲得のシミュレーションは,教育学的動機\cite{settles-etal-2018}からも探求されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{人間における言語転移}人間の第二言語の獲得や学習については,応用言語学,心理言語学,および教育学の分野で古くから研究が進められてきた\cite{krashen1981second,hatch1983psycholinguistics,ellis2010second}.これらの分野では,例えば入力仮説\cite{krashen1977some}のように,人間の言語学習に関するいくつかの仮説や理論が立てられてきた.これらの仮説を用いて言語モデルの第二言語獲得をより直接的に分析することは,今後の研究として期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本研究では,言語モデルの言語転移について,第二言語における文法獲得への影響という観点から調査を行った.具体的には,人間の第二言語獲得と同様のシナリオでバイリンガル言語モデルを訓練し,その言語間転移を分析した.実験により,第一言語は第二言語の文法獲得に対し全体的には良い影響を与えるが,第一言語の選択や第二言語の学習設定,言語現象に関して,その事前学習による効果に興味深い異なりがあることが実証された.これらの結果により,言語モデルの言語間転移について,人間の第二言語獲得との類似点や相違点が多角的な観点から明らかになった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費番号JP19K20351の支援を受けて行われた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{コーパス} \label{sec:appendix_corpus}第二言語獲得で使用したコーパスTatoebaは,対象の第一言語と第二言語(英語)の各文対数を211,714文対に揃えている.訓練データのトークン数は,仏英文対は仏語1,587,788トークン・英語1,852,434トークン,独英文対は独語1,554,541トークン・英語1,827,351トークン,露英は露語1,394,229トークン・英語1,879,072トークン,日英文対は日本語2,502,355トークン・英語2,119,883トークンである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{モデル} \label{sec:appendix_model}文対を入力する際は文対単位で,単一の文を入力する際はテキストストリームで入力した.モデルは,Conneuauら\cite{conneau_xlm}と同様の実装をしており,言語埋め込みや位置埋め込みは図~\ref{fig:embeddings}のように対で独立して使用しているが,注意機構は文対全体に渡って作用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{31-2ia5f5.pdf}\end{center}\caption{モデルの埋め込みの詳細}\label{fig:embeddings}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大羽未悠}{%2022年南山大学外国語学部フランス学科卒業.2024年奈良先端科学技術大学院大学情報科学領域博士前期課程修了.同年,同博士後期課程に進学.言語処理学会各会員.}\bioauthor{栗林樹生}{MohamedbinZayedUniversityofArtificialIntelligence(MBZUAI),NLPdepartment博士研究員.2020年東北大学大学院情報科学研究科博士前期課程修了.2022年同博士後期課程修了.博士(情報科学).2022年から2023年まで東北大学大学院情報科学研究科特任研究員.また,2018年よりLangsmith株式会社の共同創業者として,自然言語処理技術を活用した執筆支援ツールの開発等に従事.2023年より現職.言語処理学会会員.%}\bioauthor{大内啓樹}{奈良先端科学技術大学院大学先端科学技術研究科助教.2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2018年同博士後期課程修了.博士(工学).2018年から2021年まで理化学研究所AIPセンター特別研究員.2021年より現職,および,理化学研究所AIPセンター客員研究員.2023年より国立国語研究所共同研究員.情報処理学会,言語処理学会,地理情報システム学会各会員.}\bioauthor{渡辺太郎}{1994年京都大学工学部情報工学科卒業.1997年京都大学大学院工学研究科情報工学専攻修士課程修了.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATRおよびNTT,NICTにて研究員,また,グーグルでソフトウェアエンジニアとして勤めた後,2020年より奈良先端科学技術大学院大学教授.自然言語処理や機械学習,機械翻訳の研究に従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V30N03-04
\section{はじめに} \label{purpose}医療分野には電子カルテや退院サマリといった症例テキストが蓄積されている.これらを新たな知識の発見に繋げるために,自然言語処理技術を応用する研究が試みられている.たとえば,英語では症例テキストを対象とした推論やテキストマイニング\cite{bethard-etal-2017-semeval,romanov-shivade-2018-lessons,EHRs2018}が活発に研究されつつある.日本語でも症例テキストを解析する研究が発展しつつあり,病名抽出\cite{DBLP:conf/medinfo/AramakiYW17,荒牧英治2018}や診療情報抽出\cite{東山翔平2015},患者状態の表現抽出\cite{info:doi/10.2196/11021},臨床医学表現の医学的関係抽出\cite{矢田竣太郎2022}など,固有表現抽出や関係抽出タスクを中心に,様々な解析技術が提案されている.一方で,これまでの日本語の症例テキストの解析技術は固有表現抽出のような文字列の表層的な情報のマッチングに基づく解析が中心であり,否定や量化といった構成素の構造を考慮した高度な意味解析については発展途上である.その理由の一つとして,日本語の症例テキストには症状や診断名などの複数の医療用語から構成される\textbf{複合語}が多く含まれており,複合語の構文解析や意味解析が難しいという問題がある.複合語を含む症例テキストの例を(\ref{ex:1})に示す.\begin{exe}\setlength{\parskip}{0pt}%\ex\label{ex:1}非持続性心室頻拍が認められたため,アミオダロン併用した.\ex\begin{xlist}\ex\label{ex:2}心室頻拍は持続性ではない.\ex\label{ex:3}アミオダロンを併用した.\end{xlist}\end{exe}(\ref{ex:1})の「非持続性心室頻拍」からは,「持続性ではない心室頻拍」が認められたこと,「アミオダロン併用」からは「アミオダロンを併用」したことがわかる.このように複合語には,複合語を構成する要素間の様々な意味関係が非明示的に含まれている.これらの意味関係を同定することができれば,複合語が現れる(\ref{ex:1})のような文から,複合語が現れない(\ref{ex:2})や(\ref{ex:3})のような文への含意関係が認識可能となる.これまで,日本語の高度な意味解析・推論システムとしてccg2lambda\cite{ccg2lambda}が提案されている.ccg2lambdaは,テキストに対して組合せ範疇文法\cite{steedman2000a}に基づく構文解析と,高階論理に基づく意味解析を行い,テキストの意味を高階論理式によって表現し,論理式間の含意関係を定理証明器を用いて自動判定する含意関係認識システムである.ccg2lambdaは否定や量化\cite{ccg2lambda},時間関係\cite{sugimoto-yanaka-2022-compositional}と,構成素の構造にもとづく意味を広範囲に扱うことができ,近年では一般ドメインのテキストに限らず,%%%%金融テキスト\cite{hokazono2018}や供述文書\cite{koyano2021}の意味解析への応用研究も進められている.金融テキスト\cite{hokazono2018}や供述文書(小谷野他2021)\nocite{koyano2021}の意味解析への応用研究も進められている.ccg2lambdaを用いて症例テキストの意味解析と推論を実現できれば,症例テキストの複合語に含まれる否定や量化といった構成素の構造にもとづく意味を正しく扱い,症例テキスト間の含意関係を正しく計算することが可能となる.そこで本論文では,ccg2lambdaを改良して,症例テキストの高度な意味解析と推論を扱える推論システムMedc2l(メドシーツーエル)を提案する.具体的には,ccg2lambdaに複合語解析モジュールを追加することで,複合語を含む症例テキストに対して頑健に意味解析と推論ができるようにする.Medc2lの複合語解析モジュールは,\begin{enumerate}\item[(i)]症例テキストに含まれる複合語の抽出\item[(ii)]複合語を構成する形態素間の意味的な関係を表す意味現象タグの付与\item[(iii)]意味現象タグに基づく複合語の構文解析\item[(iv)]意味現象タグに基づく複合語の意味解析\end{enumerate}から構成される.(i)で抽出した複合語に対して意味現象タグのアノテーションを行い,(ii)では系列変換モデルを学習することによって構築した複合語意味現象タグ分類モデルを用いる.(iii)では予測された意味現象タグを元に複合語の構造をCFG解析したのちCCG部分木に変換し,(iv)では(iii)のCCG部分木に基づいて高階論理の意味表示を導出する.本研究の貢献は以下の3点である.\begin{itemize}\item症例テキストに含まれる複合語に対して複合語を構成する形態素間の意味関係を複合語意味現象タグとして定義し,アノテーションデータを構築した.\item複合語意味現象タグに従って複合語の構文解析・意味解析を行う複合語解析モジュールを提案し,ccg2lambdaと組み合わせて症例テキストの高度な意味解析と推論を実現する論理推論システムMedc2lを構築した.\item日本語の症例テキストのための評価用推論データセットを構築し,提案する論理推論システムと深層学習の含意関係認識モデルの比較実験を行った.\end{itemize}なお,本研究で構築した症例テキストの推論システム,複合語意味関係データセット,症例テキストの推論データセットは,それぞれ研究利用可能な形で公開予定である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{背景} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{含意関係認識}自然言語処理分野のタスクの一つに,含意関係認識(RecognizingTextualEntailment,RTE)\footnote{自然言語推論(NaturalLanguageInference,NLI)ともいう.}がある.含意関係認識とは,文間の意味論的な包含関係を判定するタスクであり「前提文が真である状況で,仮説文が必ず真であるかどうか」を判定する.本研究では,含意関係認識タスクを,前提文に対して仮説文が真であれば含意(entailment),それ以外であれば非含意(non-entailment)であることを判定する二値分類のタスクとして考える.以下の前提文と仮説文のペア(\ref{ex:inf1})は含意の例,前提文と仮説文のペア(\ref{ex:inf2})は非含意の例である.\begin{exe}\ex\label{ex:inf1}\begin{xlist}\ex非持続性心室頻拍が認められたため,アミオダロン併用した.\ex心室頻拍が認められたため,アミオダロンを併用した.\end{xlist}\ex\label{ex:inf2}\begin{xlist}\ex生検で非乾酪性肉芽腫を認めた.\ex生検で乾酪性肉芽腫を認めた.\end{xlist}\end{exe}英語では医療ドメインの含意関係認識データセットとして,外科医が臨床ノートから抽出した前提文に対して仮説文と正解ラベルを付与したMedNLI\cite{romanov-shivade-2018-lessons}や,生物医学論文のコーパスからブートストラップ手法で構築したBioNLI\cite{bastan2022bionli}がある.近年では英語に限らず多言語におけるデータセットの必要性が高まっており,医療ドメインではロシア語の医療ドメインの言語理解ベンチマークRuMedBench\cite{10.1007/978-3-031-09342-5_38}が構築されている.日本語の医療ドメインの含意関係認識データセットは管見の限りでは存在せず,日本語の症例テキストを用いて医療ドメインの含意関係認識データセットを構築した点も本研究の貢献の一つである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ccg2lambda}\label{section:ccg2lambda}テキスト間の含意関係を判定するシステムとして,ccg2lambda\cite{ccg2lambda}がある.ccg2lambdaとは,組合せ範疇文法(CombinatoryCategorialGrammar,CCG)\cite{steedman2000a,BekkiBook}に基づく高精度な構文解析と,高階論理に基づく自動推論システムを組み合わせた高度な意味解析・推論システムである.構文解析では,システムに入力された前提文・仮説文に対して,日本語形態素解析器Janome\footnote{\url{https://mocobeta.github.io/janome/}\\Janomeの辞書はMeCab-IPADICフォーマットのMecab辞書を用いる.}を用いて形態素解析を行い,CCG構文解析器depccg\cite{yoshikawa-etal-2017-ccg}を用いて,CCG構文木に変換している.意味解析では,得られたCCG構文木に対し,語の統語・意味情報を指定する意味テンプレートを用いて,論理式による意味表示をCCGの組合せ規則が定める計算にしたがって合成する.そして,前提文の意味表示と仮説文の意味表示間の含意関係を,自然演繹に基づく定理証明支援系であるCoq\cite{opac-b1101046}を用いて自動で判定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{組合せ範疇文法}\label{section:ccg}組合せ範疇文法(CombinatoryCategorialGrammar,CCG)は語彙化文法の一種であり,自然言語の弱文脈依存性を捉えるのに適した文法体系であることが知られている.CCGの統語範疇は,{\itN}(普通名詞),{\itNP}(名詞句),{\itS}(文)などの基底範疇と,二項演算子/,$\backslash$を用いて再帰的に定義される関数的範疇の二種類がある.CCGは多数の語彙項目を含む辞書と,比較的少数の組合せ規則から構成されており,語彙項目は表層形(音韻形式),統語範疇,意味表示の三つ組からなる.図1に組合せ規則の例を示す.たとえば,関数適用規則($\BA$)により,$X/Y$という形の統語範疇及び意味$f$をもつ語は,その右側にある$Y$という形の統語範疇及び意味$a$をもつ語と結びつき,$X$という統語範疇及び意味$fa$をもつ語が形成される.語の意味はラムダ項によって表現され,組合せ規則に基づいて得られたラムダ項を$\beta$簡約することで,最終的な意味表示(論理式)を得ることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-3ia3f1.pdf}\end{center}\label{ccg_rules}\caption{CCGの組み合わせ規則(関数適用規則:$\BA$,$\FA$,関数合成規則:$\FAB$,$\BAB$)}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究において,統語理論としてCCGを採用したことには理論面・実装面の理由がある.理論面では,先行研究\cite{BekkiBook}において日本語の基本的な構造が明らかにされていることから,複合語のような,あまり意味論的な研究が進んでいない対象についても系統的に分析できる,ということが挙げられる.実装面では,CCGについては既に頑健で高速な,日本語用のCCG構文解析器が複数利用可能であることが挙げられる\footnote{ただし,本研究で提案する複合語解析モジュールの設計,特に意味現象タグの体系と実装の有用性は,CCG/CCG構文解析器との組み合わせに限定されたものではなく,語彙化文法を用いた任意のアプローチが利用しうるものである.本研究の手法は,上に述べたような,CCGを採用することによるメリットを享受してはいるが,意味現象タグはCCGとは独立した設計であり,任意の文法理論の統語構造・意味表示への写像が定義可能である.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{症例テキストの意味解析・推論システム} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{システムの全体像}ccg2lambdaを用いた症例テキストの意味解析・推論システムの全体像を図\ref{image1}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-3ia3f2.pdf}\end{center}\caption{ccg2lambdaを用いた症例テキストの意味解析・推論システムMedc2l}\label{image1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,概要を説明する.入力となる前提文・仮説文は,文の構文解析の処理の中で日本語形態素解析器Janomeによって形態素解析が行われ,CCG構文解析器depccgによって,CCG構文木に変換される.%%%%形態素解析器については,ComeJisho\cite{相良かおる2012}のような医療用語辞書を登録した形態素解析器を採用することも検討したが,形態素解析器については,ComeJisho(相良他2012)\nocite{相良かおる2012}のような医療用語辞書を登録した形態素解析器を採用することも検討したが,複合語によっては一語として扱われてしまうため,本研究では複合語内の意味関係の分析のしやすさから一般的な形態素解析器を採用した.次に,文中の複合語解析の処理は(i)複合語の抽出,(ii)意味現象タグの付与,(iii)複合語の構文解析の3つのステップで行われる.(i)ではCCG構文木の品詞タグを確認し,連続した名詞もしくは接頭辞の最大列からなる部分木を複合語として抽出する.(ii)では抽出した複合語の表層形を複合語意味現象タグ分類モデルに渡し,複合語内の形態素間の意味関係を表す意味現象タグを付与する.意味現象タグの詳細については,3.2.1節で説明する.複合語意味現象タグ分類モデルには,複合語内の形態素の表層の系列を意味現象タグの系列に変換する系列ラベリングモデルを用いる.そして,(iii)では意味現象タグを終端記号とする文脈自由文法(CFG)に基づいて,各複合語のCFG木を構築する.CFG木をCCG木へ変換する規則群を定義することで,各複合語のCFG木はCCG部分木に変換される.その後,CCG構文木内の各複合語を,上の手順で得たCCG部分木に置き換えたのち,文の意味解析の処理でCCG構文木において語に意味情報を割り当てる意味テンプレートに基づいて,ラムダ計算を用いて複合語を含む文全体の意味合成を行う.なお,本研究で提案する複合語解析モジュールの(iv)複合語の意味解析は,意味現象タグに基づく意味テンプレートを用いて,文の意味解析の処理の中でまとめて行われる.最後に,この過程によって得られた意味表示(論理式)の対に対し,証明支援ツールであるCoqを用いて含意関係を判定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{複合語解析}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{複合語意味関係データセット}\label{section:annotation}症例テキスト内の複合語に対し,独自に作成したアノテーションガイドラインに基づいて意味現象タグのアノテーションを行い,複合語意味現象タグ分類モデルの学習に必要な複合語意味関係データセットを構築した.複合語意味関係データセットは,理論言語学の研究プロセスを踏襲し,意味現象タグの設計,タグのアノテーション,意味合成・推論によるタグの妥当性の検証,意味現象タグの見直しを繰り返し行った.意味現象タグは本研究独自のものであり,設計手順は以下の通りである.(i)J-MedStdCR頻度バランスサブセットを目視で確認し,複合語を抽出する.(ii)抽出した複合語について,意味関係のパターンを分類する.(iii)パターンに応じて意味現象タグを設計する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{03table01.tex}%\caption{複合語意味関係データセットに含まれる意味現象タグの件数}\label{tab:semtag}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%症例テキストとしては,J-MedStdCR:症例報告(CaseReports)コーパス\footnote{\url{https://sociocom.naist.jp/j-medstd/cr/}}の頻度バランスサブセット224件を対象とする.J-MedStdCR:症例報告コーパスは,J-Stageにてオープンアクセスで公開されている症例報告論文PDFからOCR抽出したテキストのコーパスである.本研究では,J-MedStdCR頻度バランスサブセット224件に含まれる複合語3,443件に対して人手で意味現象タグを付与した.表\ref{tab:semtag}に14種類の意味現象タグの出現件数を示す.\semtag{CW}は複合語全体に付与するタグであり,複合語内の形態素にはその他13種類のタグを付与する.意味現象タグのアノテーションは,日本語母語話者で形式意味論を学んでいる学生1名がガイドラインを参照して作業を行った.アノテーションには,アノテーションツールであるbrat\footnote{\url{http://brat.nlplab.org/}}を利用した.アノテーション結果の妥当性検証とアノテーションガイドラインの作成は,形式意味論の専門家と協議した上で実施した.以下に各意味現象タグの定義と例を示す.\begin{exe}\ex\semtag{CW}:「複合語」を表す.複合語全体に付与する.\begin{xlist}\ex\label{ex:cw1}...により\semtagex{CW}{Nivolumab投与再開}した.\ex\label{ex:cw2}\semtagex{CW}{脳梗塞},\semtagex{CW}{左房内血栓}に対して\semtagex{CW}{WF投与開始}となった.\end{xlist}\end{exe}\begin{exe}\ex\semtag{PP}:「後ろの形態素の一部」を表す.後ろの形態素と結合して1つの形態素として扱いたいものに付与する.\begin{xlist}\ex\label{ex:pp1}\semtagex{PP}{当}\semtagex{NI}{院}\semtagex{EV}{紹介}(=当院に紹介する)\ex\label{ex:pp2}\semtagex{PP}{肥大}\semtagex{M\_EN}{型}\semtagex{PP}{心筋}\semtagex{EN}{症}(=肥大型の心筋症)\end{xlist}\end{exe}\begin{exe}\ex\semtag{EN}:一般的な「エンティティ」を表す.エンティティとなる(最後の)形態素に付与する.\begin{xlist}\ex\label{ex:en1}抗生\semtagex{EN}{剤}\ex\label{ex:en2}左房内\semtagex{EN}{血栓}(=左房内の血栓)\end{xlist}\end{exe}\begin{exe}\ex\semtag{Q\_EN}:量系の「エンティティ」を表す.「\semtag{EV}+量」「\semtag{EV}+頻度」のような構成をなす複合語の「量」や「頻度」を表す形態素に付与する.\begin{xlist}\ex\label{ex:qen1}投与\semtagex{Q\_EN}{量}(=投与する量)\ex\label{ex:qen2}使用\semtagex{Q\_EN}{頻度}(=使用する頻度)\end{xlist}\end{exe}\begin{exe}\ex\semtag{T\_EN}:傾向系の「エンティティ」を表す.「\semtag{EV}+傾向」という構成をなす複合語の「傾向」を表す形態素に付与する.\begin{xlist}\ex\label{ex:ten1}肝機能増悪\semtagex{T\_EN}{傾向}(=肝機能が増悪する傾向)\ex\label{ex:ten2}縮小\semtagex{T\_EN}{傾向}(=縮小する傾向)\end{xlist}\end{exe}\begin{exe}\ex\semtag{E\_EN}:作用系の「エンティティ」を表す.「\semtag{EV}+作用」「\semtag{EV}+効果」という構成をなす複合語の「作用」や「効果」を表す形態素に付与する.\begin{xlist}\ex\label{ex:een1}インスリン分泌\semtagex{E\_EN}{作用}(=インスリンを分泌する作用)\ex\label{ex:een2}血糖改善\semtagex{E\_EN}{効果}(=血糖が改善する効果)\end{xlist}\end{exe}\begin{exe}\ex\semtag{EV}:一般的な「イベント」を表す.典型的にはサ変動詞の語幹に付与する.%\\\begin{xlist}\exインスリン\semtagex{EV}{分泌}促進作用(=インスリンを分泌することを促進する作用)\ex\label{ex:ev2}\semtagex{EV}{転移}\semtagex{EV}{再発}(=転移し再発する)\end{xlist}\end{exe}\begin{exe}\ex\semtag{S\_EV}:「サ変動詞の語幹をヲ格として取るイベント」を表す.「転移し再発する」という意味の「転移再発」のような,イベント間の等位接続の構造をもつ複合語と区別するため,一般的なイベントを表す「\semtag{EV}」とは別に用意している.\begin{xlist}\ex\label{ex:sev1}抗生剤投与\semtagex{S\_EV}{開始}(=抗生剤を投与することを開始する)\ex\label{ex:sev2}歩行未\semtagex{S\_EV}{獲得}(=歩行(すること)を獲得していない)\end{xlist}\end{exe}\begin{exe}\ex\semtag{GA}:「ガ格名詞句」を表す.ガ格名詞句として後続するイベントの項となる形態素に付与する.\begin{xlist}\ex\label{ex:ga1}\semtagex{GA}{血糖}改善効果(=血糖が改善する効果)\ex\label{ex:ga2}炎症\semtagex{GA}{反応}上昇(=炎症反応が上昇する)\end{xlist}\end{exe}\begin{exe}\ex\semtag{WO}:「ヲ格名詞句」を表す.ヲ格名詞句として後続するイベントの項となる形態素に付与する.\begin{xlist}\ex\label{ex:wo1}抗生\semtagex{WO}{剤}投与開始(=抗生剤を投与することを開始する)\ex\label{ex:wo2}ドパミン\semtagex{WO}{製剤}投与(=ドパミン製剤を投与する)\end{xlist}\end{exe}\begin{exe}\ex\semtag{NI}:「ニ格名詞句」を表す.ニ格を持つ名詞句として後続するイベントの項となる形態素に付与する.\begin{xlist}\ex\label{ex:ni1}当\semtagex{NI}{院}紹介(=当院に紹介する)\ex\label{ex:ni2}\semtagex{NI}{肺}転移(=肺に転移する)\end{xlist}\end{exe}\begin{exe}\ex\semtag{M\_EN}:「修飾語」を表す.後ろのエンティティを修飾している形態素に付与する.\begin{xlist}\ex\label{ex:men1}C\semtagex{M\_EN}{型}\semtagex{M\_EN}{慢性}\semtagex{EN}{肝炎}(=C型かつ慢性の肝炎)\ex\label{ex:men2}肥大\semtagex{M\_EN}{型}心筋\semtagex{EN}{症}(=肥大型の心筋症)\end{xlist}\end{exe}\begin{exe}\ex\semtag{PA}:「体の部位」を表す.体の部位を表す形態素に付与する.\begin{xlist}\ex\label{ex:pa1}\semtagex{PA}{肝}機能増悪傾向(=肝機能が増悪する傾向)\ex\label{ex:pa2}\semtagex{PA}{食道}静脈瘤(=食道の静脈瘤)\end{xlist}\end{exe}\begin{exe}\ex\semtag{NEG}:「否定」を表す.後に続く\semtag{M\_EN}や\semtag{EV}・\semtag{S\_EV}を否定している形態素に対して付与する.\begin{xlist}\ex\label{ex:neg1}\semtagex{NEG}{非}\semtagex{M\_EN}{定型}\semtagex{PP}{抗}\semtagex{PP}{酸}\semtagex{PP}{菌}\semtagex{EN}{症}(=定型ではない抗酸菌症)\ex\label{ex:neg2}\semtagex{NEG}{無}\semtagex{EV}{再発}(=再発しない)\end{xlist}\end{exe}複合語中のイベントとエンティティの関係は,内の関係と外の関係に分類される.内の関係とは,イベントとエンティティの間に何らかの格関係がある場合を指す.たとえば,「患者に投与した薬」という文では,「薬」は「投与」にとってのヲ格名詞句である.それに対し,イベントとエンティティの間に格関係がない場合を外の関係という.たとえば,「患者に投与した回数」という文では,「投与」と「回数」の間には格関係がない.外の関係は,エンティティが「量」,「傾向」,「作用」のどれを表すかによって,少なくとも3種類に分類される.この3種類の外の関係を区別するために,一般的なエンティティを表す「\semtag{EN}」とは別に「\semtag{Q\_EN}」「\semtag{T\_EN}」「\semtag{E\_EN}」という意味現象タグをそれぞれ用意している.以下は,アノテーションの判断が難しい例である.\begin{exe}\ex\label{ex:dif}男性が\semtagex{CW}{\semtagex{WO}{意識}\semtagex{EV}{消失}}となった.\end{exe}「意識消失」という複合語は,「(人が)意識を失う,(人の)意識がなくなる」という意味であり,「意識」は「消失」にとってガ格名詞句であるともヲ格名詞句であるとも考えられる.このように複数の格関係が考えられる複合語は判断が難しいが,前後の文脈に応じて専門家と協議の上,最終的にアノテーションするタグを決定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{複合語意味現象タグ分類モデル}作成した複合語意味関係データセットを学習データとし,BiLSTM\cite{wang2015part}を用いた系列ラベリングモデルと,汎用言語モデルBERT\cite{devlin-etal-2019-bert}を用いた系列ラベリングモデルの2種類を用いて,複合語意味現象タグ分類モデルを構築した.BiLSTMは,LSTMを双方向に組み合わせたものであり,前後の文脈を考慮して意味関係を特定する必要がある複合語解析に適切なモデルである.BERTはTransformerベースのモデルであり,日本語のWikipediaのデータを用いて事前学習された,東北大学が公開しているモデル\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanese}}を使用する\footnote{日本語の医療文書で事前学習を行ったBERTモデルとしてUTH-BERTがあるが,UTH-BERTはNEologdと万病辞書を用いたMeCabをTokenizerに用いており,Medc2lで採用している形態素解析と解析結果が異なるため,今回は採用しなかった.}.使用する日本語BERTのTokenizerはIPADICを辞書に用いたMeCab+WordPieceであり,学習は元のBERTと同じ構成でWholeWordMaskingで学習したものを使用する.BiLSTMモデルの実装にはKerasを,BERTモデルの実装にはPyTorchを使用した.モデルの評価には5分割交差検証を採用し,精度はそれぞれ93.5\%,93.3\%であった.複合語意味現象タグ分類モデルには,それぞれの最も精度の良いモデルを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}%\caption{CFG規則(一部)}\label{tab:cfg}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{複合語の構文解析}複合語内の意味関係に基づいて複合語解析を行うために,意味現象タグを終端記号とした木構造を出力するCFGパーザを構築した.設計したCFG規則の一部を表\ref{tab:cfg}に示す.開始記号はCWであり,矢印の左側は非終端記号である.記号に引かれた下線は,その記号が終端記号であることを表している.NI'やGA'など,ダッシュがついた記号を含む規則は,ループを避けるために必要である.CFG規則は,CFG木から生成されるCCG構文木に合わせて,二分木になるよう留意して設計した.\semtagcfg{NEG}に適用される規則には2種類あるが,詳しくは\ref{section:semanticanalysis}節で説明する.以下に構文解析の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[b]\hfill\begin{minipage}[b]{176pt}\begin{center}\includegraphics{30-3ia3f3.pdf}\end{center}\caption{CFG規則適用直後のCFG木}\label{cfgtree:1}\end{minipage}\hfill\begin{minipage}[b]{125pt}\begin{center}\includegraphics{30-3ia3f4.pdf}\end{center}\caption{形態素結合後のCFG木}\label{cfgtree:2}\end{minipage}\hfill\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5and6\begin{figure}[b]\hfill\begin{minipage}[b]{125pt}\begin{center}\includegraphics{30-3ia3f5.pdf}\end{center}\caption{変換前のCFG木}\label{cfgtree:3}\end{minipage}\hfill\begin{minipage}[b]{180pt}\begin{center}\includegraphics{30-3ia3f6.pdf}\end{center}\caption{変換後のCCG部分木}\label{ccgtree}\end{minipage}\hfill\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{03table03.tex}%\caption{CFG木からCCG構文木への変換規則および意味テンプレート}\label{tab:temp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{0pt}%\ex\label{ex:cfg_tag}\semtagex{PP}{当}\semtagex{M\_EN}{院}\semtagex{PP}{循環}\semtagex{PP}{器}\semtagex{NI}{内科}\semtagex{EV}{入院}\end{exe}「当院循環器内科入院」という複合語には,(\ref{ex:cfg_tag})のように意味現象タグが付与されるのが正解である.これに対しCFG規則を適用すると,まず図\ref{cfgtree:1}のCFG木が導出されるが,\semtag{PP}が付与された形態素は後続する形態素の一部であるため,図\ref{cfgtree:2}のように形態素を結合したCFG木に変換する.その後,意味合成が整合するように図\ref{cfgtree:3}のようなCFG木に編集した上で,表\ref{tab:temp}の変換規則に基づいて図\ref{ccgtree}のCCG部分木に変換する.統語範疇と意味表示の型との対応関係は表\ref{tab:type}に示す.意味表示の型は,Entity(\textsf{Entity}),Event(\textsf{Event}),Proposition(\textsf{Prop})の3つの基本型と,それらから生成される関数型からなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}%\caption{意味現象タグ,統語範疇と意味表示の型との対応関係}\label{tab:type}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{意味解析}\label{section:semanticanalysis}表~\ref{tab:temp}に意味テンプレートの一部を示す.\textit{Surf}の箇所には,各語の表層形が入る.意味テンプレートでは統語範疇をキーとして意味表示を割り当てるため,統語範疇の素性に元の意味現象タグの情報を含めるように設計した.\ref{section:annotation}節で述べたように,\semtag{NEG}は後ろに続く\semtag{M\_EN}や\semtag{EV}・\semtag{S\_EV}に対応する形態素の情報を否定する意味現象タグである.表~\ref{tab:temp}に示すように,M\_ENの統語範疇は$NP/NP$,EV・S\_EVの統語範疇は$S$と異なる.したがって,\semtag{NEG}が付与された形態素の統語範疇は,その形態素の後に続く形態素の統語範疇に合わせた統語範疇を割り当てる必要があるため,\semtag{NEG}に関するCFG規則や意味テンプレートを2種類作成した.なお,複合語に含まれる否定は一般にnarrowscopeを取るため,\semtag{NEG}に対応する意味表示はnarrowscopeの分析を採用する.たとえば,「癌は無再発であった.」という文の複合語「無再発」に含まれる否定表現「無」のスコープには再発するというイベントのみが含まれ,「癌」というエンティティの存在量化は,否定よりも広いスコープをとる.3種類のイベントとエンティティ間の外の関係(\semtag{EV}\semtag{T\_EN},\semtag{EV}\semtag{Q\_EN},\semtag{EV}\semtag{E\_EN}),および\semtag{EV}と\semtag{S\_EV}の違いについては,意味現象タグに対応したunaryruleによって区別することができる.外の関係に関する意味現象タグ,および\semtag{S\_EV}に対応するunaryruleの例を表~\ref{tab:un}に,unaryruleを用いた「\semtag{EV}\semtag{T\_EN}」の意味合成を図~\ref{fig:sem_tree}に示す.\semtagex{T\_EN}{傾向}の統語範疇が$NP$であるのに対し,\semtagex{PA}{肝}\semtagex{GA}{機能}\semtagex{EV}{増悪}の統語範疇は$S$となっている.表~\ref{tab:un}に示すunaryruleを適用することで,\semtagex{PA}{肝}\semtagex{GA}{機能}\semtagex{EV}{増悪}の統語範疇は$NP/NP$に変換され,\semtagex{PA}{肝}\semtagex{GA}{機能}\semtagex{EV}{増悪}\semtagex{T\_EN}{傾向}の意味表示が導出可能となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}%\caption{外の関係に関する意味現象タグ,および\semtag{S\_EV}に対応するunaryrule}\label{tab:un}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{30-3ia3f7.pdf}\end{center}\caption{「肝機能増悪傾向」の意味合成}\label{fig:sem_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{症例テキストの推論データセットの構築}提案システムの評価実験にあたり症例テキストの複合語に関する推論データセットを用意するため,J-MedStdCR頻度バランスサブセット224件中91件から複合語を含む症例テキストを目視で確認して抽出,1,054件の推論データセットを人手で作成した.表\ref{tab:rte_dataset}に推論データセットの例を示す.推論データセットに含まれる複合語は709件である.症例報告コーパスから抽出した複合語を含む症例テキストを簡略化した文を前提文とし,前提文をもとに仮説文を作成した.データセットには,前提文が仮説文を含意している(entailment)ペアが614件,前提文が仮説文を含意していない(non-entailment)ペアが440件含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{03table06.tex}%\caption{推論データセットの例}\label{tab:rte_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%entailmentの仮説文は,前提文の意味を変えないことと文の自然さを維持することに留意して作成した.表\ref{tab:rte_dataset}の1・4行目の例は,複合語に含まれる形態素の一部に対して助詞やイベント動詞の活用語尾を追加することで作成し,2・3行目の例は,前提文に含まれる複合語の形態素の一部を削除することで作成した.また,non-entailmentの仮説文については,表\ref{tab:rte_dataset}の6・8行目のように前提文の一部を類義語や反義語に置き換える,7行目のようにentailmentにならないよう助詞を追加する,といった操作を行うことで作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}作成した推論データセットを用いて,深層学習の含意関係認識モデルと提案システムとで精度比較を行なった.深層学習のモデルには,標準的な日本語のRTEデータセットであるJSICK\cite{Yanaka_tacl2022}(学習データ5千件),JSNLI\cite{yoshimi_weko_206114_1}(学習データ約53万件)でentailment・non-entailmentの二値分類\footnote{contradictionはnon-entailmentとして扱った.}タスクとしてファインチューニングした日本語BERT(日本語BERT-JSICK,日本語BERT-JSNLI)を用いた.提案システムは,正解の意味現象タグを用いて意味解析を行った場合(Goldタグ),BiLSTMモデル,BERTモデルを複合語意味現象タグ分類モデルに用いた場合の3条件で評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{03table07.tex}%\caption{意味現象タグの予測結果,および推論の評価結果}\label{tab:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{03table08.tex}%\caption{推論データセット内の複合語に付与された意味現象タグごとの正答率(推論全体)}\label{tab:tag_acc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果と考察}表\ref{tab:result}に意味現象タグの予測結果と推論の評価結果を示す.意味現象タグの予測結果については,推論データセットに含まれる複合語709件に対するタグ予測の正答率を示している.全ての複合語に対し正解の意味現象タグが付与されていた場合の提案システム(Goldタグ)は,1,054件中847件(80.4\%)の文ペアについて含意関係を正しく判定した.BiLSTMモデルを複合語意味現象タグ分類モデルに用いた場合の提案システム(BiLSTM),およびBERTモデルを複合語意味現象タグ分類モデルに用いた場合の提案システム(BERT)は,意味現象タグの予測失敗により推論に失敗してしまったものがあるため,それぞれ69.7\%,64.3\%と,提案システム(Goldタグ)に比べ低い性能となった.深層学習のモデルは,ファインチューニングにJSICKを用いた場合(日本語BERT-JSICK),JSNLIを用いた場合(日本語BERT-JSNLI)のいずれも,正解ラベルがnon-entailmentであるケースの多くについて,entailmentと予測してしまった.この原因の一つとして,本研究で構築した推論データセットの多くは前提文と仮説文に含まれる語彙がほとんど共通しており,単純に語彙の重複でみるとentailmentと予測しやすいからと考えられる.これに対して,提案システムはnon-entailmentのケースを正しく予測する傾向が見られた.そのため,正解ラベルがentailmentである文ペアについては,深層学習のモデルが95.0\%,92.8\%と高い性能を示したが,推論全体においては,提案システム(Goldタグ)の性能が最も高い結果となった.推論データセット内の複合語に付与された意味現象タグごとの正答率を表\ref{tab:tag_acc}に示す.「件数」の列は,推論データセット1,054件のうち,各意味現象タグが付与された複合語を含むデータセットの件数を示している.1件の複合語に対し複数の意味現象タグが付与されるため,各件数には重複したデータセットも含まれる.いずれの意味現象タグについても,提案システム(BiLSTM),提案システム(BERT),日本語BERT-JSICK,日本語BERT-JSNLIに比べ,提案システム(Goldタグ)の正答率が最も高い結果となった.このうち,\semtag{NEG}が付与された複合語を含むデータセット66件の正答数については,日本語BERT-JSICKは35件(53.0\%),日本語BERT-JSNLIは38件(57.6\%)と少ないのに対し,提案システム(Goldタグ)では62件(97.0\%)の文ペアについて正しい含意関係を予測した.また,提案システム(Goldタグ)の中で最も正答率が低かったものは,\semtag{WO}が付与された複合語を含むデータセット(74.7\%)であった.原因としては,\ref{section:error}節で述べる「形態素解析によるエラー」および「意味テンプレートの不足によるエラー」の多くが,\semtag{WO}が付与された複合語に関係しているからだと考えられる.各エラーの詳細については,\ref{section:error}節で説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラー分析}\label{section:error}提案システムが含意関係を誤って判定してしまった例についてエラー分析を行う.表\ref{table:error}にエラーのタイプと推論データセットの例を示し,表に記載の順に具体例を紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{03table09.tex}%\caption{エラーのタイプと推論データセットの例}\label{table:error}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%形態素解析によるエラーでは,形態素解析器であるJanomeが「膵炎発症」を「膵炎発」「症」,「消褪傾向」を「消」「褪傾向」のように誤って分割してしまったため,複合語内の意味関係を正しく捉えることができず,推論に失敗した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{30-3ia3f8.pdf}\end{center}\caption{「特発性の後腹膜血腫と診断した」の構文解析結果}\label{tree:error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%構文解析によるエラーについては,例を図\ref{tree:error}に示す.仮説文に含まれる「後腹膜血腫」は複合語であるため「後」「腹膜」「血腫」が先に結合する必要があるが,構文解析の結果では「腹膜血腫と診断した」が先に結合しており,その後「特発性の後」と結合している.そのため,CCG構文木から複合語を抽出することができず,正しい複合語解析を行うことができなかった.意味テンプレートの不足によるエラーについては,以下に例を示す.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{10pt}%\ex\label{ex:err_1}「立位保持練習」の意味表示\\$\lambdaK.\existsy.(\existsx.(\LF{立位}(x)\wedge\existse.(\LF{保持}(e)\wedge\LF{する}(e)\wedge(\LF{asEntity}(e)=y)\wedge(\LF{Acc}(e)=x)))\wedge\existse.(K(\lambdae2.(\LF{練習}(e2)\wedge\LF{する}(e)),e)\wedge(\LF{Acc}(e)=y)))$\ex\label{ex:err_2}「立位保持の練習」の意味表示\\$\lambdaNF.\existsy.(N(\lambdax.\existsx.(\LF{立位}(x)\wedge\existse.(\LF{保持}(e)\wedge\LF{する}(e)\wedge(\LF{asEntity}(e)=y)\wedge(\LF{Acc}(e)=x))),y)\wedge\existsz.(\existse.(\LF{練習}(e)\wedge\LF{する}(e)\wedge(\LF{asEntity}(e)=z))\wedge\LF{Rel}(z,y)\wedgeF(z)))$\end{exe}「立位保持練習」の意味合成を図\ref{temp:error1}に,「立位保持の練習」の意味合成を図\ref{temp:error2}に示す.症例テキスト内では,「AをBする」ということを「AのB」としばしば記述する.しかし,図\ref{temp:error2}を見てみると,「の」の意味表示がM\_ENに関する意味表示と同一になっている.そのため,「立位保持」が「練習」のヲ格名詞句であることを捉えることができず,推論に失敗してしまった.正しい意味表示を導出するには,意味テンプレートを改良し,助詞「の」を正しく解析する必要があるが,「の」の意味表示を何にすべきかは文脈によって異なる.そのため,文脈に応じて「の」の意味テンプレートを切り替える必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{30-3ia3f9.pdf}\end{center}\caption{「立位保持練習」の意味合成}\label{temp:error1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{30-3ia3f10.pdf}\end{center}\caption{「立位保持の練習」の意味合成}\label{temp:error2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%「\semtag{EV}\semtag{S\_EV}」に関するエラーについては以下に例を示す.\begin{exe}\setlength{\parskip}{0pt}%\ex\begin{xlist}\ex\label{error:1}\semtagex{EV}{歩行}\semtagex{S\_EV}{練習}が可能となった.\ex\label{error:2}歩行が可能となった.\end{xlist}\ex\begin{xlist}\ex\label{error:3}\semtagex{EV}{投与}\semtagex{S\_EV}{開始}が可能となった.\ex\label{error:4}投与が可能となった.\end{xlist}\end{exe}複合語内でサ変動詞の語幹をヲ格として取るイベントに対しては,一様に「\semtag{EV}\semtag{S\_EV}」という意味現象タグが付与される.しかし,「投与開始」という複合語を含む前提文(\ref{error:3})は仮説文(\ref{error:4})を含意するのに対し,「歩行練習」を含む前提文(\ref{error:1})は,仮説文(\ref{error:2})を含意しない.このように,サ変動詞の語幹をヲ格として取る複合語には,サ変動詞が表す内容を含意するものとしないものがある.これらを正しく予測できるようにするためには,\semtag{S\_EV}が付与された「開始」や「練習」といった要素が,「歩行」や「投与」といったサ変動詞語幹のアスペクトやモダリティに相当する意味的貢献を持つかどうかを分析する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{03table10.tex}%\hangcaption{前提文が「患者は歩行未獲得であった.」である推論データ,および提案システム,日本語BERT-JSICK,日本語BERT-JSNLIの予測結果}\label{tab:err_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%スコープに関するエラーについて,前提文が「患者は歩行未獲得であった.」である推論データセットの例を表\ref{tab:err_dataset}に,提案システムが出力した前提文および仮説文の意味表示をそれぞれ以下に示す.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{10pt}%\ex\label{ex:err}患者は歩行未獲得であった.\\$\existsx.(\LF{患者}(x)\wedge\existsy.(\existse.(\LF{歩行}(e)\wedge\LF{する}(e)\wedge(\LF{Nom}(e)=x)\wedge(\LF{asEntity}(e)=y))\wedge\\\neg\existse.(\LF{獲得}(e)\wedge\LF{する}(e)\wedge(\LF{Nom}(e)=x)\wedge(\LF{Acc}(e)=y))))$\ex\label{ex:err1}患者は歩行を獲得しなかった.\\$\existsx.(\LF{患者}(x)\wedge\existsy.(\existse.(\LF{歩行}(e)\wedge\LF{する}(e)\wedge(\LF{asEntity}(e)=y))\wedge\neg\existse.(\LF{獲得}(e)\wedge\LF{する}(e)\wedge(\LF{Nom}(e)=x)\wedge(\LF{Acc}(e)=y))))$\ex\label{ex:err2}患者は歩行を獲得した.\\$\existsx.(\LF{患者}(x)\wedge\existsy.(\existse.(\LF{歩行}(e)\wedge\LF{する}(e)\wedge(\LF{asEntity}(e)=y))\wedge\existse.(\LF{獲得}(e)\wedge\LF{する}(e)\wedge(\LF{Nom}(e)=x)\wedge(\LF{Acc}(e)=y))))$\ex\label{ex:err3}患者は歩行しなかった.\\$\existsx.(\LF{患者}(x)\wedge\neg\existse.(\LF{歩行}(e)\wedge\LF{する}(e)\wedge(\LF{Nom}(e)=x)))$\ex\label{ex:err4}患者は歩行した.\\$\existsx.(\LF{患者}(x)\wedge\existse.(\LF{歩行}(e)\wedge\LF{する}(e)\wedge(\LF{Nom}(e)=x)))$\end{exe}前提文に含まれる複合語「歩行未獲得」の意味合成を図\ref{fig:err_tree}に示す.\semtag{NEG}は後ろの\semtag{S\_EV}を否定するnarrowscopeであるため,前提文の意味表示は(\ref{ex:err})のように「獲得する」というイベントのみが否定され,「歩行する」は否定のスコープ外にある.(\ref{ex:err1})の意味表示では,「歩行する」は否定されず「獲得する」が否定されており,(\ref{ex:err2})の意味表示ではどちらも否定されていない.そのため,前提文と(\ref{ex:err1})との文ペアをentailment,(\ref{ex:err2})との文ペアをnon-entailmentと正しく予測できた.それに対し,(\ref{ex:err3})の意味表示は「歩行する」が否定されているため,前提文と(\ref{ex:err3})との文ペアをnon-entailmentと誤って予測してしまった.また,(\ref{ex:err4})では「歩行する」は否定されておらず,上記で述べたように前提文でも否定のスコープ外となっているため,entailmentと予測してしまった.これらを修正するには「歩行未獲得」をwidescopeで解析する必要があるが,否定のスコープがwidescopeであるかnarrowscopeであるかは,文脈によって異なる.そのため,文脈に応じてどちらのスコープで意味解析すべきか判定した上で適切な否定の語彙項目を採用する必要があるが,これは今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[t]\begin{center}\includegraphics{30-3ia3f11.pdf}\end{center}\caption{「歩行未獲得」の意味合成}\label{fig:err_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%定理証明の際の外部知識の不足によるエラーの例としては,前提文「虫垂による癒着性イレウスが疑われた.」と仮説文「虫垂による腸閉塞が疑われた.」の文ペアが挙げられる.この文ペアの正解ラベルはentailmentであるが,この含意関係を示すためには「イレウスとは腸閉塞のことである」という外部知識を定理証明の際に補完する必要がある.しかし,提案システムでは外部知識の補完が行われず,non-entailmentであると誤って予測してしまった.その他のエラーについては,複合語以外の構成素の意味合成に誤りがある例があった.以下に例を示す.\begin{exe}\setlength{\parskip}{0pt}%\setlength{\itemsep}{10pt}%\ex\label{ex:err_kaidan1}複合語「階段昇降」の意味表示\\$\existsx.(\LF{階段}(x)\wedge\existse.(\LF{昇降}(e)\wedge\LF{する}(e)\wedge(\LF{Acc}(e)=x)))$\ex\label{ex:err_kaidan2}「階段を昇降することが困難となった.」の意味表示\\$\existsy.(\existsx.(\LF{階段}(x)\wedge\existse.(\LF{昇降}(e)\wedge\LF{する}(e)\wedge(\LF{asEntity}(e)=y)\wedge(\LF{Acc}(e)=x)))\wedge\\\existse.(\LF{なる}(e)\wedge(\LF{Nom}(e)=y)\wedge\LF{AccI}(e,\existsx.(\LF{困難}(x)))))$\ex\label{ex:err_kaidan3}「階段を昇降した.」の意味表示\\$\existsx.(\LF{階段}(x)\wedge\existse.(\LF{昇降}(e)\wedge\LF{する}(e)\wedge(\LF{Acc}(e)=x)))$\end{exe}「階段昇降」という複合語は「階段を昇降する」という意味であるため,前提文「階段昇降した.」と仮説文「階段を昇降した.」の文ペアの正解ラベルはentailmentである.一方で,「階段を昇降することが困難となった.」という意味の前提文(\ref{ex:err_kaidan2})と仮説文(\ref{ex:err_kaidan3})の含意関係はnon-entailmentになるはずである.しかし,(\ref{ex:err_kaidan2})の意味表示を見ると,「階段を昇降する」かつ「困難となった」という論理式になっているため,前提文(\ref{ex:err_kaidan2})と仮説文(\ref{ex:err_kaidan3})の文ペアについて,entailmentであると誤って判定していた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,日本語の高度な意味解析・推論システムccg2lambdaに複合語解析モジュールを追加することで,複合語を含む症例テキストに対して頑健に意味解析と推論ができる推論システムMedc2lを構築した.さらに,日本語の症例テキストを用いて症例テキストの複合語に関する推論データセットを構築し,提案システムの評価を行った.実験の結果,提案システムは深層学習の含意関係認識モデルと同等またはそれ以上の性能を示した.とくに,深層学習のモデルは正解ラベルがnon-entailmentであるケースの多くについてもentailmentと予測する傾向であったのに対して,提案システムはnon-entailmentのケースを正しく予測する傾向が見られた.%%%%本論文で提案する複合語解析モジュールは,モジュール単体でも既存の病名抽出\cite{DBLP:conf/medinfo/AramakiYW17,荒牧英治2018}や本論文で提案する複合語解析モジュールは,モジュール単体でも既存の病名抽出(Aramakiet~al.2017;荒牧他2018)\nocite{DBLP:conf/medinfo/AramakiYW17,荒牧英治2018}や診療情報抽出\cite{東山翔平2015}技術と組み合わせることで,抽出された複合語内の意味関係の解析ツールとして貢献するはずである.また,症例テキストの含意関係認識技術は,症例テキストを前提文,検索クエリを仮説文とみなせば,否定や量化などの意味を考慮した,高度な症例検索への応用可能性が期待される.今後の展望として,本研究の提案手法でより幅広い範囲の複合語を含むテキストを扱うことが考えられる.現アノテーション体系では,複合語に含まれる状詞(副詞など)は扱えておらず,そのための意味現象タグの設計も含めて今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,政策科学総合研究事業(臨床研究等ICT基盤構築・人工知能実装研究事業)21AC5001,JSTさきがけJPMJPR21C8,JSPS科研費JP20K19868の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石田真捺}{%2021年お茶の水女子大学理学部情報科学科卒業.2023年お茶の水女子大学人間文化創成科学研究科理学専攻情報科学コース博士前期課程修了.現在,株式会社NTTドコモに所属.}\bioauthor{谷中瞳}{%2018年東京大学大学院工学系研究科博士課程修了.工学博士.同年,理化学研究所特別研究員を経て,2021年より東京大学卓越研究員に採択され,東京大学大学院情報理工学系研究科講師,理化学研究所客員研究員.主に自然言語推論に関する研究に従事.}\bioauthor{戸次大介}{%2000年東京大学大学院理学系研究科情報科学専攻博士課程修了.理学博士.2008年お茶の水女子大学大学院人間文化創成科学研究科准教授,2023年より同大学基幹研究院自然科学系教授.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V17N04-05
\section{はじめに} \resp{コミュニケーションの手段として,メールやWebの掲示板を日常的に利用するシーンは非常に多い.}メール\resp{やWebの掲示板}によるコミュニケーションの特徴として,非言語情報が欠落しているため,会話時に相手から感じる対人圧力が低くなり,気軽に考えていることを書き出すことができるメリットがあげられる\cite{sugitani20070320}.しかし一方で,\resp{メッセージ}の受け取り手は\resp{テキスト}の内容のみから相手の考えを読み取らなければならないため,ちょっとした言葉の誤解が,感情的な問題へと発展していくことがある\cite{小林正幸}.また,書き方によっては書き手の感情が伝わりにくいことがあったり\cite{katou20051020},書き手はそれほど怒っていないにもかかわらず,非常に怒っているようにとらえられたりと,過剰に感情が伝わってしまうこともある\cite{小林正幸}.このように,\resp{書き手が思っている程,伝えたいことが相手に伝わらない傾向があるため{\cite{citeulike:528278}},メールやWebの掲示板では相手に誤解を与えやすいというデメリットを持っているといえる.}そこで我々は上記の問題点を解決するため,\respeqn{テキスト}から読み手が想起する書き手の感情を推定し,推定結果を書き手に示すことで\resp{テキスト}を書き手に修正させ,相手に誤解を与えないようにするシステムの開発を目指した研究を行っている.このようなシステムを実現するためには,\resp{読み手が想起する書き手の感情をテキスト中の発話文}から推定する手法が必要となる.\respeqn{発話文}からの感情推定手法として,目良らは複数の事象の格フレームタイプのうち,どれに入力文が当てはまるかを判定し,該当した格フレームタイプに対応する情緒計算式を用いて発話者の感情が快か不快かを判定する手法を提案している\cite{mera}.この手法では,あらかじめ用意した情緒計算式のほかに,ユーザの嗜好情報を基にした単語に対する好感度データを用いる.単語に限らず,文の冒頭に現れる副詞や文末表現によって話し手の意図や心的態度を表すモダリティ\cite{modality2}も,感情推定に有用であることが考えられる.文末表現から情緒を推定する可能性についての検討を徳久らが行っており\cite{徳久雅人:20080131},文末表現と情緒の間に若干の相関がみられたと報告している.単語や文末表現に感情の属性を振ったとしても,単語や文末表現の組み合わせによって感情が変化すると考えられる.そのため,単語や文末表現を用いて感情推定を行うためには,これらの組み合わせに対応して感情を出力するルールの作成が必要になると考えられる.ルールの例として,例えば``嬉しい''という語に``喜び''の属性が割り振られていたとする.ここで``嬉しいことなんてひとつもない''という文の感情を推定する場合,推定結果としては``喜び''ではなく``悲しみ''や``怒り''といった感情が出力されるべきである.``喜び''の単語が含まれているからといって,単純に``喜び''を出力してよいわけではない.ここで``悲しみ''や``怒り''を出力するためのルールを作成しておくことで,感情推定が可能になる.しかし,このようなルールの作成は単語に感情の属性を割り振る作業以上にコストがかかると考えられる.この問題を解決する方法として,三品らは用例に基づく感情推定手法を提案している\cite{aiac}.この手法では,発話者が表現している感情ごとに\respeqn{発話文}を分類した感情コーパスを用い,入力文と最も類似度が高い発話文が含まれる感情コーパスの感情を推定結果として得る.類似度計算には機械翻訳システムの性能のスコアを求めるBLEU\cite{bleu}を用いている.この手法を実装するためには発話文を収集して感情ごとに分類した感情コーパスを構築すればよく,先に述べた例のようなルールを作成する必要がない.しかし,この手法は感情推定成功率が決して高くないため,類似度の計算式を改良する必要がある.この方法では入力文とコーパス中の各文の類似度を計算し,その最大値の文が持つ感情を出力している.そのため,次のような特異な文によって感情推定に失敗することがある.\begin{enumerate}\item感情が異なっていても,たまたま表現や文型が類似している文\label{enum:prob1}\itemコーパスを構築する際に誤って分類された文\label{enum:prob2}\end{enumerate}感情が異なるが類似している文の例として,``嫌悪''の文``嫌いなんです''と``喜び''の文``好みなんです''があげられる.ともに\resp{名詞の後に``なんです''}が続く形となっており,文型が類似している.ここで入力文として``好きなんです''が与えられたとき,入力文の``なんです''は二つの文に存在しており,形態素数も同じであるため,``嫌悪''と``喜び''の文とのBLEUスコアは同じになってしまう.その結果,``嫌悪''と``喜び''が出力されてしまう.この推定結果としては``喜び''のみが出力されることが適切であると考えられる.また,コーパスを構築する際には誤って分類される\respeqn{発話文}を完全に取り除くことは非常に困難であると考えられる.このことから,誤って分類された\respeqn{発話文}の影響を最小限に抑える手段が必要となる.本稿では三品らの手法を改善し,(\ref{enum:prob1})や(\ref{enum:prob2})の文による影響を抑え,感情推定成功率を向上させる手法を提案する.本稿では,まず\ref{sec:conventional}章で従来手法である``BLEUを類似度計算に用いた用例に基づく感情推定手法''について述べる.次に\ref{sec:proposed_method}章で,従来手法で用いられていた類似度計算式とは異なる新たな類似度計算式を提案する.また,この新たに提案する類似度計算式で,どのようにして従来手法の問題点を解決するかについて述べる.そして\ref{sec:ev}章では従来手法と提案手法の感情推定成功率の比較を行う.また三品らの方法とは異なる感情推定の従来法として,SVMを用いた感情推定を行い,結果を比較する.最後に\ref{sec:conclusion}章でまとめと今後の課題を述べる. \section{BLEUを類似度計算に用いた用例に基づく感情推定手法} \label{sec:conventional}\subsection{概要}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f1.eps}\end{center}\caption{用例に基づく感情推定}\label{fig:estimation}\end{figure}\resp{三品らによって提案された類似度計算を用いた用例に基づく感情推定アルゴリズムは次の式で定式化される.}\pagebreak\begin{equation}\respeqn{E(x)=\argmax_{e}sim(x,s)\hspace{1em}(s\inC_{e})}\end{equation}\resp{ここで{$x$}を入力文,{$E(x)$}を推定結果となる感情,{$C_{e}$}を感情{$e$}のコーパス,{$s$}を{$C_{e}$}に含まれる文,{$sim(x,s)$}を{$x$}と{$s$}の類似度を返す関数とする.三品らは{$sim(\cdot)$}にBLEU{\cite{bleu}}を用いている.}この手法は,発話文を発話者の感情別に分類して構築した感情コーパスを用いることで感情推定を行う用例ベースの手法である.発話文の分類先は,発話文の収集者が発話者の感情を判定することで決定する.図\ref{fig:estimation}に発話文からの感情推定の流れを示す.まず発話者の感情によって分類された感情コーパスを用意しておく.次に発話者の感情を推定する対象となる発話文を入力とする.そして,各感情コーパスに含まれる発話文と入力文との類似度を求める.最後に各感情コーパス別に,得られた類似度の最大値を求める.この類似度が入力文が表現している感情のスコアとなる.スコアは0から1までの値をとり,値が大きいほどその感情を表しているという意味になる.得られた類似度の中で最も値が大きい類似度の感情を,感情推定結果として出力する.この方法では図\ref{fig:estimation}における類似度の計算にBLEUを用いている.用例ベースではない手法では,単語や文末表現への感情属性の付与や,単語や文末表現の組み合わせから感情を導出するルールを作成する必要が出てくるため,作業コストが非常に高いと考えられる.しかし従来手法のような用例ベースのシステムを構築する際には,発話文を集め,発話者の感情ごとに発話文を分類してコーパスを構築すればよく,用例ベースではない手法と比べて作業コストが低いと考えられる.\subsection{BLEU}BLEUは機械翻訳システムが出力した複数の翻訳候補文から,システムの翻訳精度を評価するための尺度である.BLEUは次のとおりに定義されている\cite{bleu}.\begin{equation}\respeqn{{\rmBLEU}(x,y)={\rmBP}\cdot\exp\left(\sum^{\rmN}_{n=1}\frac{1}{\rmN}\logp_{n}(x,y)\right)}\label{eq:bleu}\end{equation}なお,\cite{bleu}では${\rmN}=4$を用いている.\resp{{$p_{n}(x,y)$}}は機械翻訳文\resp{{$x$}}と人による翻訳文\resp{{$y$}}における共通\NGRAM数の適合率(\NGRAM適合率)\resp{を返す関数}であり,$\rmBP$は機械翻訳文が人による翻訳文に比べて簡潔すぎることによる適合率のペナルティである.三品らの方法では,BLEUにおける機械翻訳文をコーパス中の1文,人による翻訳文を入力文と変更して,類似度計算に用いている\resp{(以下,式({\ref{eq:bleu}})を{$sim_{\bleu}$}と表記する)}.\subsubsection{\NGRAM適合率}\NGRAM適合率\resp{{$p_{n}(x,s)$}}は,入力文\respeqn{$x$}と感情コーパス中の1文\respeqn{$s$}の間で共通な\NGRAMが多く存在するかを表す値である.共通な\NGRAMが多いほど\resp{{$p_{n}(\cdot)$}}は大きくなる.\respeqn{$x$}と\respeqn{$s$}を用いて,\resp{{$p_{n}(x,s)$}}は次のとおりに定義されている.\begin{gather}p_{n}(x,s)=\frac{\displaystyle\sum_{\ngram\inG_{n}(s)}Count^{*}_{n}(x,s,\ngram)}{\displaystyle\sum_{\ngram\inG_{n}(s)}Count_{n}(s,\ngram)}\\Count^{*}_{n}(x,s,\ngram)=\min\left\{Count_{n}(x,\ngram),Count_{n}(s,\ngram)\right\}\label{eq:pn}\end{gather}\resp{ここで{$G_{n}(s)$}を{$s$}に含まれる``連続する{$n$}個の形態素から作られる形態素N-gram''の集合を返す関数とする.{$Count_{n}(x,\ngram)$}は,{$x$}中の{$\ngram$}の出現数を返す}\footnote{\resp{形態素同士の比較は,形態素の文字列と形態素の品詞を用いて行う.これらが一致していれば,二つの形態素は等しいとする.}}.\respeqn{$s$}が\respeqn{$x$}と共通な\NGRAMを持っていなければ\resp{{$Count^{*}_{n}(\cdot)$}}は\resp{すべての{$w_{n}$}で}0になるため,\resp{{$p_{n}(\cdot)$}}は入力文と感情コーパス中の1文がどれほど共通な\NGRAMを持っているかの指標となる.\resp{{$p_{n}(\cdot)$}}を求める例として,形態素unigramの適合率\resp{{$p_{1}(x,s)$}}と形態素bigramの適合率\resp{{$p_{2}(x,s)$}}を計算する.\respeqn{$x$}を``明日からの旅行が楽しみです'',\respeqn{$s$}を``明日がすごく楽しみです''とする.このときの形態素unigramの\resp{{$Count_{1}(\cdot)$}}と\resp{{$Count^{*}_{1}(\cdot)$}}の値を表\ref{table:count1}に示す\footnote{\resp{本稿では形態素を``形態素の文字列/品詞''の形式で表記する.}}.表\ref{table:count1}と式(\ref{eq:pn})より,\resp{{$p_{1}(x,s)$}}は$1/2$であることがわかる.また形態素bigramの\resp{{$Count_{2}(\cdot)$}}と\resp{{$Count^{*}_{2}(\cdot)$}}の値を表\ref{table:count2}に示す.表\ref{table:count2}と式(\ref{eq:pn})より,\resp{{$p_{2}(x,s)$}}は$2/5$であることがわかる.なお,形態素bigramには文頭や文末を表す記号は\cite{bleu}と同様に用いていない.\begin{table}[t]\caption{$Count_{1}とCount^{*}_{1}$の例}\label{table:count1}\input{06table01.txt}\end{table}\begin{table}[t]\caption{$Count_{2}とCount^{*}_{2}$の例}\label{table:count2}\input{06table02.txt}\end{table}\subsubsection{適合率のペナルティ}ここでは感情コーパス中の1文\respeqn{$s$}が入力文\respeqn{$x$}に比べて簡潔すぎることによる適合率のペナルティBPについて説明する.\respeqn{$s$}が\respeqn{$x$}に比べて簡潔すぎる場合,\respeqn{$s$}に含まれるほとんどの形態素を\respeqn{$x$}が含んでいる可能性がある.この場合は$p_{n}$が大きくなり,BLEUスコアが高くなってしまう.つまり,簡潔な文を数多く含んでいる感情コーパスのほうが,入力文との類似度が高くなりやすくなってしまうので,これを防ぐためにBPが用いられる.\resp{{$g(x)$}}を\resp{{$x$}}の形態素数を返す関数として,${\rmBP}$は次のとおりに定義される.\begin{equation}{\rmBP}=\left\{\begin{array}{lll}1&{\rmif}&\respeqn{g(x)<g(s)}\\e^{(1-\respeqn{g(x)}/\respeqn{g(s)})}&&\respeqn{{\rmotherwise}}\\\end{array}\right.\label{eq:bp}\end{equation}\respeqn{$x$}を``明日からの旅行が楽しみです'',\respeqn{$s$}を``明日がすごく楽しみです''としたとき,$\respeqn{g(x)}=7$,$\respeqn{g(s)}=6$となるため,${\rmBP}=e^{1-7/6}\approx0.846$となる.これは\respeqn{$s$}が短かすぎるため,適合率へペナルティが課せられることを意味する. \section{提案手法} \label{sec:proposed_method}\subsection{\respeqn{コーパスごとの出現回数を考慮したペナルティ}}三品らの方法には次のような文の影響を受け,感情推定に失敗する問題点がある.\begin{enumerate}\item感情が異なっていても,たまたま表現や文型が類似している文\itemコーパスを構築する際に誤って分類された文\end{enumerate}これらの文が影響を及ぼしてしまう原因として,1文対1文の類似度のみを用いて感情推定を行っている点があげられる.これが原因で,例えば``喜び''の文を入力したとしても,この入力文と表現や文型が類似している文が``希望''のコーパスに存在していれば,感情推定結果として``希望''が出力される可能性が非常に高くなる.また,``喜び''の文を``希望''のコーパスに分類されてしまっていた場合,``喜び''の文を入力した時に``希望''が出力される可能性もある.\resp{この問題を解決するために,形態素N-gram適合率に対して新たなペナルティFPを導入する.FPは入力文の形態素列が各感情コーパスにどの程度偏って存在するかを表す指標であり,各感情コーパス中の出現頻度から計算される.この指標を用いる理由は,入力文に含まれる形態素列が,他の感情コーパスに比べて相対的に数多く出現している感情コーパスの感情を,入力文は表現している可能性が高いのではないか,と考えたためである.入力文{$x$}において,感情{$e$}に対するFPを次のとおりに定義する.}\begin{equation}\respeqn{{\rmFP}_{n}=\frac{1}{\left|G_{n}(x)\right|}\sum_{\ngram\inG_{n}(x)}{\frac{\freq{C_{e}}{\ngram}}{\displaystyle\sum_{c\inC}{\freq{c}{\ngram}}}}\label{eq:wn}}\end{equation}\resp{ここで{$C$}をすべての感情コーパス,{${freq_{\itC_{e}}}$}を感情コーパス{$C_{e}$}における{$\ngram$}の出現回数を返す関数とする.FPは,たまたま1文対1文の類似度が高かったとしても,類似度計算に用いている文を含むコーパスにおいて入力文の形態素列の出現回数が少なければ,求められる類似度を低く押さえる効果を持つ.これにより,(1)と(2)の文による影響を改善する.}\resp{一般に,一部の文書に偏って存在している単語を表す指標として,TF-IDFがよく用いられている.その意味では,FPのかわりにTF-IDFを用いる方法が考えられる.しかしTF-IDFは,ある感情コーパス中の絶対的な出現頻度({\ittf}値)を,他の感情コーパスにも出現しているかどうか,という形態素N-gramの一般性を示す値({\itidf}値)を用いて修正したものであり,ある感情コーパス中での出現頻度が低い形態素N-gramであれば,たとえその感情コーパスに偏って存在していたとしても,その値は低いものとなる.そのため,TF-IDFを類似度計算に導入したとしても,FPよりその効果は薄いものとなることが予想される.}\subsection{\respeqn{RECARE}}従来手法で用いられていた\resp{{$sim_{\rmBLEU}$}に{${\rmFP}_{n}$}を導入し,\pagebreak更に式を適切に変更することで,``類似しているが感情が異なる文''や,``コーパス構築時に誤って分類されてしまった文''を含むコーパスに対して頑健な感情推定を行うための新たな類似度計算式RECARE}\footnote{{\underlineR}obust{\underlineE}motion{\underlineC}{\underlineA}tegorizationwith{\underlineR}ough{\underlineE}motionCorpora}\resp{を定義する.RECAREは二つの文に類似した表現が含まれており,かつ二つの文が同じ感情を表しているかどうかを表すスコアとなる.}\resp{まず,式({\ref{eq:bleu}})で定義される{$sim_{\rmBLEU}$}に対し,前節で定義したFPを導入する(これを{$sim_{\rmBLEUFP^{+}}$}と表記する).}\begin{align}\respeqn{sim_{\rmBLEUFP^{+}}(x,s)}&\respeqn{=}\respeqn{{\rmBP}\cdot\exp\left\{\sum^{\rmN}_{n=1}\frac{1}{\rmN}\log\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right\}}\nonumber\\&\respeqn{=}\respeqn{{\rmBP}\cdot\exp\left\{\frac{1}{\rmN}\log\prod^{\rmN}_{n=1}\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right\}}\nonumber\\&\respeqn{=}\respeqn{{\rmBP}\cdot\exp\left\{\log\left\{\prod^{\rmN}_{n=1}\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right\}^{\frac{1}{\rmN}}\right\}}\nonumber\\&\respeqn{=}\respeqn{{\rmBP}\cdot\left(\prod^{\rmN}_{n=1}\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right)^{\frac{1}{\rmN}}}\label{eq:bleu_with_fp_pi}\end{align}式(\ref{eq:bleu_with_fp_pi})では\resp{{${\rmFP}_{n}\cdotp_{n}(\cdot)$}}の相乗平均を求めていることになるが,\resp{{$p_{n}(x,s)=0$}}となる$n$が存在したとき,$\respeqn{sim_{\rmBLEUFP^{+}}}=0$となる.これは$n$が高次になるほど起こりやすくなると考えられる($n$が高次になるほど入力文とコーパス中の1文との共通な形態素N-gramが現れにくくなると考えられるためである).このままでは,低次の\resp{{$p_{n}(\cdot)$}}の情報も失われてしまう.しかし,単語や文末表現の組み合わせによって発話文の感情が決まるとするならば,``隣接する形態素同士の組み合わせからなる低次の形態素N-gram''の適合率は積極的に利用すべきである.高次の形態素N-gramの適合率が0になったとしても,低次の形態素N-gramの適合率を破棄する理由はない.以上のことから,形態素N-gramの適合率の相乗平均を求めることは,用例ベースの感情推定には不向きであると考え,提案する新たな類似度計算式では形態素N-gramの適合率の相加平均を求めることとした.以上のことから,\respeqn{RECARE}を次のとおりに定義する.\begin{equation}\respeqn{sim_{\rmRECARE}(x,s)}={\rmBP}\cdot\frac{1}{\rmN}\sum^{\rmN}_{n=1}{\rmFP}_{n}\cdotp_{n}(x,s)\label{eq:recare}\end{equation} \section{評価実験} \label{sec:ev}\subsection{提案手法と従来手法の比較}\label{sec:comp_es_bleu}提案手法では従来手法と比べ,下記の2点が異なる.\begin{enumerate}\item各感情コーパスにおける``入力文の形態素N-gram''の出現回数によって決まるペナルティFPの導入\label{item:new1}\item形態素N-gramの適合率の相加平均による類似度計算\label{item:new2}\end{enumerate}評価実験では上記の2点によって感情推定の成功率がどの程度変化するのかを調べる.\subsubsection{実験設定}実験には,\resp{基本的な感情であり,収集したコーパス中に比較的頻出した}``喜び'',``怒り'',``嫌悪'',``希望''の4種類の感情カテゴリを用いた.各感情コーパスには838文の発話文が含まれる.発話文はWeb上の掲示板から8名の作業者によって収集した.発話文の分類先となる感情コーパスは,作業者の主観によって決定した.また発話文の分類先は複数選ぶことを許容した.入力となる文とその感情は次の手順で決定した.まず,感情コーパスに含まれない,別途掲示板から収集した文を無作為な順番で被験者4名に提示し,被験者に文の感情を判定させる.このとき,判定結果としての感情を``喜び'',``怒り'',``嫌悪'',``希望''の中から0個以上を選ばせる.被験者4名のうち3名以上の判定結果が一致した文を各感情ごとに51文ずつ用意し,入力文として用いる.なお,この予備実験で入力文に割り振られた感情の数はすべて1つとなった.感情推定の成功条件として,出力として得られる4つの感情類似度のうち,最も値が大きい類似度の感情と,入力文の感情が一致すれば成功とした.上記の(\ref{item:new1}),(\ref{item:new2})の効果を確かめるために,実験に用いた類似度計算式は\resp{三品らの方法(式({\ref{eq:bleu}}))}と\resp{RECARE(式({\ref{eq:recare}}))}に加え,BLEUにFPのみを導入した\resp{{$sim_{\rmBLEUFP^{+}}$}(式({\ref{eq:bleu_with_fp_pi}}))}と,\respeqn{RECARE}からFPを除いた$\respeqn{sim_{\rmRECAREFP^{-}}}$を用いた.$\respeqn{sim_{\rmRECAREFP^{-}}}$を次のとおりに定義する.\begin{equation}\respeqn{sim_{\rmRECAREFP^{-}}(x,s)}={\rmBP}\cdot\frac{1}{\rmN}\sum^{\rmN}_{n=1}p_{n}(x,s)\label{eq:es_without_fp}\end{equation}\subsubsection{実験結果と考察}類似度の計算に用いる$\respeqn{\ngram}$の$n$の値を変化させながら,推定成功率を計算した.図\ref{fig:success_ratios}に感情推定の成功率を示す.三品らの方法で最も推定成功率が良好だったのは$\rmN=2$を用いたときの60.3\%であり,提案手法では$\rmN=3$を用いたときの\resp{81.8\%}であった.ここでは,まず(\ref{item:new1})のFPを導入したことによる成功率の影響について考察する.図\ref{fig:success_ratios}より,FP無しの$\respeqn{sim_{\rmRECAREFP^{-}}}$で最も良好だった成功率57.8\%(N=3)と比べて,FP有りの提案手法$\respeqn{sim_{\rmRECARE}}$の成功率\resp{81.8\%}が大きく上回っていることがわかる.同様に,FP無しの従来手法$\respeqn{sim_{\rmBLEU}}$の成功率60.3\%と比べて,FP有りの$\respeqn{sim_{\rmBLEUFP^{+}}}$で最も良好だった成功率\resp{77.9\%(N=1)}が大きく上回っている.これらのことから,形態素N-gramの適合率の平均の求め方に関わらず,FPの導入が成功率の向上に寄与していることがわかる.次に(\ref{item:new2})の,類似度計算に形態素N-gramの適合率の相加平均を用いたことによる成功率の影響を考察する.$\rmN=2$以降で$\rmN$が増加するにつれて,三品らの方法の成功率は減少して\resp{いるが,}提案手法においては\resp{成功率の減少は認められなかった.}このことから,形態素N-gramの適合率の相加平均を類似度計算に用いることは,高次の$\rmN$を用いたときの成功率の改善に効果があることがわかる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia6f2.eps}\end{center}\caption{感情推定成功率}\label{fig:success_ratios}\end{figure}\resp{なお,類似度計算に相乗平均を用い,FPを導入した方法({$sim_{\mathrm{BLEUFP}^{+}}$})は,Nを増加させると急激にその性能を落としていた.この原因は,Nが大きくなると共通の形態素N-gramがコーパス中に存在しなくなる割合が増加するため,式({\ref{eq:wn}})において,1文中のすべての{$w_{n}$}で{$\freq{C_{e}}w_{n}$}が0になる,という場合が増加したためであった.提案方法においては,類似度計算に相加平均を用いることでこの問題を解決し,Nが大きい場合においても高い性能を維持していることがわかった.}\resp{このような場合は,共通形態素N-gramが存在しないため,FPと同様に形態素N-gram適合率({$p_{n}(x,s)$})も0になる.そこで,{$sim_{\mathrm{BLEUFP}^{+}}$}だけではなく,同じように相乗平均を利用している従来方法({$sim_{\mathrm{BLEU}}$})も影響を受けると考えられる.本実験においては,従来方法における類似度計算に式({\ref{eq:bleu}})を用いている.この式では{$p_{n}(x,s)$}の対数をとっているために,実装上,もし{$p_{n}(x,s)=0$}であった場合は,非常に小さな正の値にフロアリングした上で対数を求めていた.そのため,{$sim_{\mathrm{BLEUFP}^{+}}$}のように急激に性能を落とすことはなかったと考えられる.このことを確認するため,式({\ref{eq:bleu}})を式({\ref{eq:bleu_with_fp_pi}})と同様,対数を用いない形に変形した上で,フロアリングをせずに実験を行ったところ,{$sim_{\mathrm{BLEU}}$}も{$sim_{\mathrm{BLEUFP}^{+}}$}と同様,Nが大きくなるとその性能を急激に落とす結果となった.}\subsubsection{\resp{感情推定に有効な形態素N-gram}}\resp{提案方法(や三品らの方法)においては,各感情コーパス中に含まれる形態素N-gramのうち,感情ごとに出現頻度に偏りがあるものが,感情推定において重要な意味を持つ.そこで,どのような形態素N-gramが提案方法にとって有効に働いたのか,といったことについて調査を行った.}\begin{table}[b]\caption{喜びの文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\label{tbl:freq1}\input{06table03.txt}\end{table}\begin{table}[b]\caption{怒りの文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\input{06table04.txt}\end{table}\resp{感情推定実験において,三品らの方法では感情判定に失敗し,提案方法で成功した入力サンプルを抽出し,その中に含まれるすべての形態素N-gramについて,各感情コーパス内での出現頻度を調べた.特に正解感情のコーパスに偏って頻出している形態素N-gramを表{\ref{tbl:freq1}}〜{\ref{tbl:freq4}}に示す.これを見ると,「喜び」の``ありがとう/感動詞''や``♪/名詞'',「怒り」の``むかつく/動詞'',「希望」の``たい/助動詞,です/助動詞''等,感情を表現するであろうと思われる形態素N-gramが感情推定に寄与していたことがわかる.}\begin{table}[t]\caption{嫌悪の文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\input{06table05.txt}\end{table}\begin{table}[t]\caption{希望の文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\label{tbl:freq4}\input{06table06.txt}\end{table}\resp{一方,「喜び」の``でし/助動詞,た/助動詞''や「嫌悪」の``顔/名詞''等,一見すると感情とは無関係と思われる形態素N-gramも存在した.これらについては,今後別の角度からの検証(例えば,Web掲示板において喜びを表現する時は,「〜でした」のような丁寧な表現が用いられることが多い,といった仮説を立て,統計的に検証する)を行う必要があるが,今まで発見されていなかった事実を暗示するものである可能性がある.また,「怒り」に``職場/名詞'',``仕事/名詞'',「嫌悪」に``上司/名詞'',``会社/名詞''がはいっていることも,「Webの掲示板においては,仕事に対する不満や愚痴等が多い」といった事実を暗示しているのかもしれない.}\subsection{\resp{FPの導入効果の検証}}\resp{FPはコーパス中に含まれる以下のふたつの文の影響を低減する目的で提案された.}\begin{enumerate}\item\resp{感情が異なっていても,たまたま表現や文型が類似している文}\item\resp{コーパスを構築する際に誤って分類された文}\end{enumerate}\resp{FPがこうした文に対して,どの程度頑健性を持っているかを検証するため,感情コーパス内に存在するこうした文を増減させ,その時の性能を評価した.また,FPのかわりにTF-IDFを用いた時の性能についても評価を行った.}\subsubsection{\resp{表現や文型が類似している文の影響}}\resp{``入力文と感情が異なっているが,たまたま表現や文型が類似している文''の影響について,こうした文を各感情コーパスから削除した時の性能を評価することで検証を行った.}\resp{``たまたま表現や文型が類似している文''として``入力文とは感情が異なるコーパス中において,BLEUスコアが高い文''と定義し,各感情コーパスにおいて,このような文をBLEUスコア順に上位から{$n$}文削除した.また条件を揃えるため,正解となる感情コーパスからは乱数で{$n$}文削除した.}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f3.eps}\end{center}\caption{表現等が類似している文の影響}\label{fig:similar}\end{figure}\resp{感情の推定成功率を図{\ref{fig:similar}}に示す.ここで横軸は,コーパス1つあたりの除去した文数を表す.この結果を見ると,三品らの方法,提案方法どちらも``たまたま表現や文型が類似している文''を削除することで性能が向上していることから,これらの文の影響を受けていたことがわかる.しかし,提案方法では文を一切削除しなかった場合においても比較的性能の低下が抑えられていることから,その目的である``たまたま表現や文型が類似している文''による影響を抑えることができていることがわかった.}\subsubsection{\resp{感情分類を誤った文の影響}}\resp{次に,各感情コーパス中で感情分類を誤った文を意図的に増加させ,その時の性能を評価した.具体的には,各感情コーパスから{$n$}文を乱数で抽出し,それらを他の感情コーパスへと均等に混入させることで,感情分類を誤った文を増加させた.}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f4.eps}\end{center}\caption{感情分類を誤った文の影響}\label{fig:shuffle}\end{figure}\begin{table}[b]\caption{感情分類を誤った文に対する性能差}\label{tbl:shuffle-diff}\input{06table07.txt}\end{table}\resp{感情推定成功率を図{\ref{fig:shuffle}}に示す.ここで横軸は,コーパス1つあたりの混入させた文数を表す.この結果を見ると,混入する文が増加するに従って両方法ともに性能が低下し,感情分類を誤った文の影響を大きく受けていることがわかる.しかし,両者の性能差(表{\ref{tbl:shuffle-diff}})はわずかではあるが拡がっており,提案方法の方が若干ではあるが,こうした文の影響を低減できていることがわかった.}\subsubsection{\resp{TF-IDFの導入との比較}}\resp{FPの有効性を確認するため,FPのかわりにTF-IDFを用いた実験を行った.ここでは,TF-IDFをFPと同様,0から1の範囲の値とするため,{\ittf}値として拡大正規化索引語頻度{\cite{kita2}}を用い,また{\itidf}値も通常の{\itidf}値{\cite{jones}}を式({\ref{eq:idf-norm}})を用いて正規化し,下記のような計算式によるTF-IDF値を用いた.}\begin{align}\respeqn{sim_{\rmTFIDF}(x,s)}&\respeqn{=}\respeqn{{\rmBP}\cdot\frac{1}{\rmN}\sum^{\rmN}_{n=1}{tfidf}_{n}\cdotp_{n}(x,s)}\\\respeqn{tfidf_{n}}&\respeqn{=}\respeqn{\frac{1}{\left|G_{n}(x)\right|}\sum_{\ngram\inG_{n}(x)}{tf_{n}\cdotidf_{n}}}\\\respeqn{tf_{n}}&\respeqn{=}\respeqn{\left\{\begin{array}{lll}0.5+0.5\cdot\frac{\displaystylefreq_{C_{e}(w_{n})}}{\displaystyle\max_{c\inC}freq_{c}(w_{n})}&{\rmif}&freq_{C_{e}}(w_{n})>0\\0&{\rmif}&freq_{C_{e}}(w_{n})=0\end{array}\right.}\\\respeqn{idf_{n}}&\respeqn{=}\respeqn{\left\{\begin{array}{lll}\frac{\log\frac{|C|}{D(w_{n})}+1}{\log|C|+1}&{\rmif}&D(w_{n})>0\\0&{\rmif}&D(w_{n})=0\end{array}\right.\label{eq:idf-norm}}\end{align}\resp{ここで{$D(w_{n})$}は{$w_{n}$}を含むコーパスの数を返す関数である.}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f5.eps}\end{center}\caption{TF-IDFを用いた感情推定結果}\label{fig:tf-idf}\end{figure}\resp{TF-IDFを用いた感情推定実験の結果を図{\ref{fig:tf-idf}}に示す.この結果を見ると,すべてのNにおいてFPのほうが2.5ポイント〜8ポイント程度上まわっており,FPの有効性が認められた.}\subsection{提案手法とSVMの比較}三品らの方法とは異なる従来手法の一つとして,良好なクラス分類が可能なSVM(SupportVectorMachine)による感情推定を行い,提案手法との比較を行った.本稿では学習,分類を行うプログラムとして,${\rmSVM}^{light}$\footnote{http://svmlight.joachims.org/}を用いた.\subsubsection{特徴ベクトルの生成\label{sec:sent2vec}}SVMを用いて感情推定を行うために,まず感情コーパスの各発話文から特徴ベクトルを生成する必要がある.今回は特徴ベクトルとして,1文中に出現する$\ngram$の出現回数をベクトルして表現したものを用いた.特徴ベクトルを生成するために,まず考慮する$\ngram$の最高次数Nを決め,それ以下の各$n$について,感情コーパスから得られる\NGRAMすべてに通し番号を振った(このとき,\NGRAMが低次であるほど若い番号を振ることとした).次に,感情コーパスから取り出した一つの発話文$s$の\NGRAMを$m$,$s$における$m$の出現回数を$f$,それ以外の次元の値を0とする特徴ベクトルを生成した.例えば最高次数を${\rmN}_{max}=2$とした場合,形態素unigramと形態素bigramを用いて発話文から特徴ベクトルを生成する.この時,特徴ベクトルの次元数は,コーパス中に出現するすべてのunigramとbigramの種類数となる.${\rmN}_{max}=1$とした特徴ベクトルの例として,``ありがとうございました!!''という発話文の場合,各形態素unigramに割り振られる番号を表\ref{table:mresult}のとおりとすると,``ありがとうございました!!''の特徴ベクトル$v$は以下のように表現される.\begin{equation}v=(0,1,0,1,1,0,0,1,2,0,...,0)\label{eq:sent_vec}\end{equation}\begin{table}[b]\caption{形態素unigramに対応する番号}\label{table:mresult}\input{06table08.txt}\end{table}\subsubsection{クラス分類モデルの構築}クラス分類モデルは感情コーパスの数と同じ数だけ構築する.例えば,``怒り''の分類モデルを構築する場合,ポジティブデータを``怒り''のコーパスに含まれる発話文から生成した特徴ベクトル,ネガティブデータを``怒り''以外の感情コーパスに含まれる発話文から生成した特徴ベクトルと定義し,学習を行う.本稿で学習に用いるポジティブデータの量はネガティブデータの量に比べて少なく,デフォルト値では良好な分類性能が得られない.そこでcostfactor($C_{+}/C_{-}$)の計算には,Morikらが定義した次の式を用いた\cite{morik}.\begin{equation}\frac{C_{+}}{C_{-}}=\frac{\rmnumber\of\negative\training\examples}{\rmnumber\of\positive\training\examples}\end{equation}costfactor以外の学習パラメータはデフォルト値を用いた.また学習パラメータで与えるカーネルのタイプもデフォルトである線形カーネルを用いた.\subsubsection{実験設定}実験に用いた感情コーパスは,\ref{sec:comp_es_bleu}節と同様に``喜び'',``怒り'',``嫌悪'',``希望''の各838文であり,入力文も\ref{sec:comp_es_bleu}節と同様の文を用いた.成功条件は,入力文の感情と出力感情が一致すれば推定成功とした.\subsubsection{実験結果と考察}表\ref{table:svm_success_ratios}に推定成功率を示す.SVMで最も高かった推定成功率が$\rmN=2$を用いたときの80.4\%であり,提案手法の中で最も高かった\resp{成功率81.8\%と比べると1.4ポイント程度の差になっている.このことから,発話文の感情推定において,適切なNを選択すれば,SVMと提案手法は同程度の感情推定成功率が得られることが示された.}\begin{table}[b]\caption{SVMと提案手法の感情推定成功率}\label{table:svm_success_ratios}\input{06table09.txt}\end{table}\resp{しかし,表{\ref{table:svm_success_ratios}}を見ると,{${\rmN}_{max}>2$}を用いた場合のSVMによる推定精度が急激に減少していることがわかる.}これは``感情コーパス中で出現回数が少ない高次の\NGRAM''を素性として利用している事例に対する過学習が原因であると考えられる.\resp{一方提案方法においては,Nを増加させていってもその性能にはほとんど差がなく,``出現回数が少ない高次{\NGRAM}''の影響をほとんど受けていないことがわかる.これは,RECAREの計算を相加平均で行ったことの効果であると考えられる.}\resp{一般に感情コーパス中の文数などによって最適なNは異なることが考えられ,SVMの場合は,実際の応用に際し評価実験を通して最適値を探索することが必要である.一方RECAREであれば,十分大きなNを設定しておくことで,(計算量や記憶容量等の問題を除けば)常に最適な推定精度を得ることが可能となる.}\resp{更に,例えば6形態素からなるある特定の文末表現がある特定の感情に数多く出現する,といったことがあった場合,SVMであれば,全体として考慮すべき形態素の長さを決定する必要があるが,RECAREならば,その特定の文末表現を利用するためだけに$\mathrm{N}=6$と設定してしまっても,悪影響をほとんど及ぼさない.こうしたことから,SVMに比べてRECAREが有効であることが示された.} \section{まとめ} label{sec:conclusion}本稿では,\resp{``感情が異なっていても,たまたま表現や文型が類似している文''や,``コーパスを構築する際に誤って分類された文''の影響を改善し,高い精度で感情推定を実現するための類似度計算手法であるRECAREを提案した.}\resp{入力文で使われている形態素N-gramが,各感情コーパス間でどの程度偏っているか,といったことを表す値であるFPを定義し,BLEUをベースとした類似度計算に導入した.更に,高次のN-gramに対する学習サンプル数の不足からくる,いわゆる「ゼロ頻度問題」に対処するため,相乗平均で計算されるBLEUをベースとした類似度を変形し,相加平均を用いて類似度計算を行う方法を提案した.}評価実験の結果,従来手法に比べ,推定精度が60.3\%から\resp{81.8{\%}}へと大きく\resp{向上し,また問題としていた2種類の文のうち,特に``たまたま表現や文型が類似している文''の影響を効果的に低減させている}ことを確認した.また形態素N-gramを素性に用いたSVMによる感情推定に比べ,提案手法では\resp{Nが大きい場合に推定精度の低下がほとんど見られず,}発話文の感情推定には提案手法が有効であることを示した.\resp{今後,「希望」や「自信」,「脅迫」といった更に複雑な感情を加えた時の性能の評価,また,必要があれば推定結果として複数の感情を出力することが可能となるようなアルゴリズムの改善について検討を行う予定である.}\acknowledgment本研究の一部は,科学研究費補助金(挑戦的萌芽研究,課題番号21650030)の補助を受けて行われた.記して謝意を表す.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Jones}{Jones}{1972}]{jones}Jones,K.~S.\BBOP1972\BBCP.\newblock\BBOQAstatisticalinterpretationoftermspecificityanditsapplicationinretrieval.\BBCQ\\newblock{\BemJournalofDocumentation},{\Bbf28},\mbox{\BPGS\11--21}.\bibitem[\protect\BCAY{Kruger,Epley,Parker,\BBA\Ng}{Krugeret~al.}{2005}]{citeulike:528278}Kruger,J.,Epley,N.,Parker,J.,\BBA\Ng,Z.-W.\BBOP2005\BBCP.\newblock\BBOQEgocentrismovere-mail:Canwecommunicateaswellaswethink?\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf89}(6),\mbox{\BPGS\925--936}.\bibitem[\protect\BCAY{Mishina,Ren,\BBA\Kuroiwa}{Mishinaet~al.}{2006}]{aiac}Mishina,K.,Ren,F.,\BBA\Kuroiwa,S.\BBOP2006\BBCP.\newblock\BBOQAnemotionsimilaritycalculationusingdialogsentencecorpora.\BBCQ\\newblockIn{\BemProceedingsInternationalSymposiumonArtificialIntelligenceandAffectiveComputing2006},\mbox{\BPGS\168--176}.\bibitem[\protect\BCAY{Morik,Brockhausen,\BBA\Joachims}{Moriket~al.}{1999}]{morik}Morik,K.,Brockhausen,P.,\BBA\Joachims,T.\BBOP1999\BBCP.\newblock\BBOQCombiningstatisticallearningwithaknowledge-basedapproach---acasestudyinintensivecaremonitoring.\BBCQ\\newblockIn{\BemProceedings16thInternationalConf.onMachineLearning},\mbox{\BPGS\268--277}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2001}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2001\BBCP.\newblock\BBOQBLEU:amethodforautomaticevaluationofmachinetranslation.\BBCQ\\newblockIn{\BemProceedings40thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{徳久\JBA前田\JBA村上\JBA池原}{徳久\Jetal}{2008}]{徳久雅人:20080131}徳久雅人\JBA前田浩佑\JBA村上仁一\JBA池原悟\BBOP2008\BBCP.\newblock対話行為と情緒を解析するための文末表現パターンの作成.\\newblock\Jem{電子情報通信学会技術研究報告.NLC,言語理解とコミュニケーション},{\Bbf107}(480),\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{北\JBA津田\JBA獅々掘}{北\Jetal}{2002}]{kita2}北研二\JBA津田和彦\JBA獅々掘正幹\BBOP2002\BBCP.\newblock\Jem{情報検索アルゴリズム}.\newblock共立出版,東京.\bibitem[\protect\BCAY{小林}{小林}{2001}]{小林正幸}小林正幸\BBOP2001\BBCP.\newblock\Jem{なぜ、メールは人を感情的にするのか}.\newblockダイヤモンド社.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{modality2}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{加藤\JBA杉村\JBA赤堀}{加藤\Jetal}{2005}]{katou20051020}加藤由樹\JBA杉村和枝\JBA赤堀侃司\BBOP2005\BBCP.\newblock電子メールを使ったコミュニケーションにおいて生じる感情への電子メールの内容の影響.\\newblock\Jem{日本教育工学会論文誌},{\Bbf29}(2),\mbox{\BPGS\93--105}.\bibitem[\protect\BCAY{杉谷}{杉谷}{2007}]{sugitani20070320}杉谷陽子\BBOP2007\BBCP.\newblockメールはなぜ「話しやすい」のか?:CMC(Computer-MediatedCommunication)における自己呈示効力感の上昇.\\newblock\Jem{社会心理学研究},{\Bbf22}(3),\mbox{\BPGS\234--244}.\bibitem[\protect\BCAY{目良\JBA市村\JBA相沢\JBA山下}{目良\Jetal}{2002}]{mera}目良和也\JBA市村匠\JBA相沢輝昭\JBA山下利之\BBOP2002\BBCP.\newblock語の好感度に基づく自然言語発話からの情緒生起手法.\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(3),\mbox{\BPGS\186--195}.\end{thebibliography}\begin{biography}\bioauthor{三品賢一}{2006年徳島大学工学部知能情報工学科卒業.2008年同大大学院先端技術科学教育部システム創生工学専攻博士前期課程了.2010年同博士後期課程中退.在学中は感性情報処理の研究に従事.電子情報通信学会会員.}\bioauthor{土屋誠司}{2002年三洋電機株式会社入社.2007年同志社大学大学院博士後期課程修了.博士(工学).同年徳島大学大学院助教.2009年同志社大学理工学部インテリジェント情報工学科助教.主に,知識処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{鈴木基之}{1993年東北大学工学部情報工学科卒業.1996年同大大学院博士後期課程を退学し,同大大型計算機センター助手.博士(工学).2006年〜2007年英国エジンバラ大学客員研究員.2008年徳島大学大学院ソシオテクノサイエンス研究部准教授,現在に至る.音声認識・理解,音楽情報処理,自然言語処理,感性情報処理等の研究に従事.電子情報通信学会,情報処理学会,日本音響学会,ISCA各会員.}\bioauthor{任福継}{1959年生.1982年北京郵電大学電信工程学部卒業.1985年同大学大学院計算機応用専攻修士課程修了.1991年北海道大学大学院工学研究科博士後期課程修了.博士(工学).広島市立大学助教授を経て,2001年より徳島大学工学部教授.現在に至る.自然言語処理,感性情報処理,人工知能の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,電気学会,AAMT,IEEE各会員.}\end{biography}\biodate\end{document}
V24N02-01
\section{序論} \label{sec:introduction}自然言語処理において高度な意味処理を実現する上で,同義語の自動獲得は重要な課題である\cite{inui}.例えば,近年の検索エンジンのクエリ拡張においては同義語辞書が用いられている\cite{utsumi}が,新出単語に対し全て人手で同義語辞書を整備することは現実的ではない.同義語の獲得には様々な手法が提案されている.例えば笠原ら\cite{kato}は国語辞典を用いて,見出し語に対して語義文により単語のベクトルを作成した後,シソーラスにより次元圧縮を行う方法で同義語の獲得を行った.また,渡部ら(渡部,Bollegala,松尾,石塚2008)は,\nocite{watanabe}検索エンジンを用いて,同義対を共に含むようなパターンを抽出し,得られたパターンから同義語の候補を得るという手法で同義語の抽出を行い,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した.一方,これらの研究とは異なり「同じ文脈に現れる単語は類似した意味を持つ」という分布仮説(distributionalhypothesis)\cite{harris}に基づいたアプローチも存在する.実際に文脈情報が同義語獲得に有用であるとの報告\cite{hagiwara}もあり,加えてその他の手法と組み合わせて使用することが可能であるという利点もある.そこで,本研究では文脈情報を用いたアプローチを検討する.文脈情報の獲得にも手法が多数存在するが,近年では,分布仮説に基づきニューラルネットワーク的な手法を用いて単語の``意味''を表すベクトル(単語ベクトル)を求めるSkip-gramモデル\cite{mikolov1}が注目されている.Skip-gramモデルで得られた単語ベクトルを利用するとコサイン類似度により単語の意味の類似度が計算できることが知られており,その性能は既存手法より良いという報告\cite{roy}もある.しかし,Skip-gramモデルでは周辺単語の品詞や語順を無視したものを文脈情報として用いており,有用な情報を無視している可能性がある.実際に既存のSkip-gramモデルでは同義語獲得に失敗する例として,「カタカナ語」と「和語」からなる同義語対の場合,コサイン類似度が低くなることなどが知られており\cite{joko},改善が望まれる.そこで,本研究では,Skip-gramを拡張し,周辺単語の品詞情報や語順情報を取り込み可能なモデル(文脈限定Skip-gram)を提案する.文脈限定Skip-gramでは,既存のSkip-gramと違い,周辺の単語のうち,ある条件を満たすもの(特定の単語分類属性(品詞等)や特定の相対位置)のみを文脈として利用し,単語ベクトルを学習する.たとえば,「カタカナ語」あるいは「カタカナ語」ではないもの(これを「非カタカナ語」と呼ぶ)のみに周辺単語を限定することによって,周辺の「カタカナ語」あるいは「非カタカナ語」との関係を強く反映した単語ベクトルを学習することができる.そして,そのような様々な限定条件ごとに単語ベクトル及びコサイン類似度を計算し,それらを線形サポートベクトルマシン(SVM)と同義対データを用いた教師あり学習による合成することで,同義語獲得を行った.その結果,日本語の言語特性を適切に抽出して利用できていることがわかった.たとえば,同義語の獲得精度が一番高かったモデルにおいては,「非カタカナ語」および「直後の単語」などの特定の限定条件から得られたコサイン類似度への重みが大きいことがわかった.また,これらの限定条件への重みを大きくすることは,既存のSkip-gramモデルでは獲得が難しかった「カタカナ語」と「和語」からなる同義対の獲得の精度へ大きな影響をあたえることもわかった.本論文の構成は以下のとおりである.第\ref{sec:related-work}節では,関連研究について述べる.第\ref{sec:method}節では,提案手法について述べる.\ref{subsec:method:skipgram}節では,既存のSkip-gramモデルについて概説し,\ref{subsec:method:limited-skipgram}節では,提案する文脈限定Skip-gramモデルについて説明する.第\ref{sec:data-and-preexperiment}節では,使用データと予備実験について述べる.\ref{subsec:ex:data}節では実験に使用したコーパス及び同義語対/非同義語対の教師データ作成方法について,\ref{preliminary-experiment}節ではSkip-gramにおける設定とSVMの素性作成方法に関する予備実験について述べる.第\ref{sec:experiment}節では提案手法による結果を示し,有効性を議論する.最後に第\ref{sec:conclusion}節において結論を述べる. \section{関連研究} \label{sec:related-work}同義語の自動推定には様々な手法が存在する.笠原ら\citeyear{kato}は,第\ref{sec:introduction}節に述べたように,国語辞典の語義文と大規模なシソーラスを用いて単語ベクトルを作成し,同義語の獲得を行った.また,渡部ら\citeyear{watanabe}は,検索エンジンを用いて同義対(X,Y)を共に含むようなパターンを抽出した後に,得られたパターンから同義対の候補を抽出し順位付けを行うことで,同義対(と関連語)を獲得し,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した.これらの手法では,同義語の推定に,何らかの単語の素性を使用している.例えば,笠原ら\citeyear{kato}はVSM(ベクトル空間モデル)を使用しており,渡部ら\citeyear{watanabe}は同義対を共に含むようなパターンを使用している.笠原ら\citeyear{kato}のような文章中の単語の出現頻度のみを用いたVSMは,語の位置関係を無視し(必然的に,周辺文脈を無視し)ているが,特異値分解やシソーラスなどによる次元圧縮手法が適用可能であり,スパースネスなどの問題を緩和できるという利点を持つ.また,渡部ら\citeyear{watanabe}の手法は,パターンを事前に獲得しておくことで新出の同義語を新たに学習すること無く獲得できるという利点がある.これらの素性による同義語獲得は一定の成果を上げているものの,精度の面においてはまだ課題が残る.一方,第\ref{sec:introduction}節において述べたように,文脈情報からニューラルネットワーク的な手法を用いて単語の``意味''を表すベクトル(単語ベクトル)を求める手法が,その高い意味獲得精度から注目されている\cite{roy}.文脈情報から単語ベクトルを獲得する研究には様々なものがある.周辺単語の相対位置や語順に着目したものとしてはLingetal.\cite{ling}のものや,Trasketal.\cite{trask}のものが挙げられる.Lingetal.\citeyear{ling}は周辺単語の相対位置を考慮した重み付けを行うことで,Trasketal.\citeyear{trask}は単語の語順や文字列を利用したSkip-gramモデルを作成することで,文法構造をより反映する単語ベクトルが学習できることを示した.また,\citeA{ariga}は周辺単語から中心単語の言い換え表現を予測するタスクにおいて,周辺単語の語順を考慮して単語ベクトルを学習することで,精度が向上することを報告した.一方,周辺単語だけでなく,他の事前情報を加えた研究も存在する.例えば,\citeA{levy}は係り受け構造を考慮して,単語ベクトルの学習をし,意味の類似度判定テストでSkip-gramモデルより高い精度を報告した.\citeA{bian}は辞書などの意味情報を加えることで,\citeA{yu}は辞書情報とコーパスから単語ベクトルを同時に学習することで,意味の類似度判定テストの精度が高まることを示した.これらの研究は,周辺文脈に出現する単語の種類だけでなく,語順や係り受け構造などの条件を加え,その上で単語ベクトルを「同時に」学習することで単語ベクトルの質を高める研究である.このようなモデルそのものに様々な要因をまとめて組み込んで新たなモデルを構築する研究に対して,本研究では単語ベクトルを限定条件ごとに「個別に」学習し,その後,同義語を教師あり学習により獲得するアプローチを試みる.具体的には,第\ref{sec:introduction}節に述べたように様々な限定条件ごとの単語ベクトルを学習し,それらを線形SVMにて合成することで同義語の獲得を行う.提案手法では,線形SVMを用いた重み付けの際に,教師例として同義対を用いることから,「同義語の獲得」において重要なものの重みを学習する.そのため,線形SVMで学習された重みを見ることで,周辺単語が「同義語の獲得」に与える影響を知ることができる.このように,提案手法には高い解釈可能性がある.また,Skip-gramのモデル自体は変更せず,文脈限定関数で学習データを変更するだけで,利用する単語属性の追加や変更が可能であるという高い拡張可能性もある.これらの解釈可能性と拡張可能性の二点が,既存手法に対する提案手法の大きな優位点である. \section{提案手法} \label{sec:method}\subsection{既存のSkip-gramモデル}\label{subsec:method:skipgram}ここではSkip-gramモデル\cite{mikolov1}について概説する.Skip-gramモデルは,ニューラルネットワーク的な手法を用いて,コーパスの文脈情報から,各単語の単語ベクトルを学習する手法の一種である.Skip-gramモデルでは,ある単語$w_t$が文章内の位置$t$に存在した場合,その周辺単語$w_{t+j}(j\neq0)$の発生確率$p(w_{t+j}|w_t)$を以下の式で与える.\begin{equation}p(w_{t+j}|w_t)\proptoe^{v'(w_{t+j})^Tv(w_t)}\end{equation}ここで,ニューラルネットワークモデル的に言えば,$v(w)$はある入力単語(中心単語)$w$に依存した入力用ベクトル,$v'(w)$はある周辺単語$w$の出力確率を計算するための出力用ベクトルである.$v$および$v'$の次元は事前に与えられる.出力確率は,入力用ベクトルと出力用ベクトルの内積に依存し,内積が大きい程確率は高くなる.本論文では,わかりやすさのため,$v(w)$を単語$w$の単語ベクトル,$v'(w)$を文脈ベクトルと呼ぶことにする,なお,確率分布は$1$に正規化されるので,語彙に含まれるすべての単語$w$での正規化により,$p(w_{t+j}|w_t)$は以下で与えられる.\begin{equation}p(w_{t+j}|w_t)=\frac{e^{v'(w_{t+j})^Tv(w_t)}}{\sum_we^{v'(w)^Tv(w_t)}}\end{equation}さらに$p(w_{t+j}|w_t)$から,あるコーパスが与えられたときの尤度関数$\ell$を以下の式(\ref{eq:likelihood})で定義する.\begin{equation}\ell=\sum_{t=1}^T\sum_{-c\leqj\leqc,j\neq0}\logp(w_{t+j}|w_t)\label{eq:likelihood}\end{equation}ここで$T$はコーパスのサイズ,$c$は文脈窓サイズであり,$1\leqc\leqK$の範囲で一様分布でランダムに決定される.$K$は事前に与えられる最大文脈窓サイズである.実際のコーパスを利用して,$\ell$を最大化する単語ベクトル$v(w)$および文脈ベクトル$v'(w)$を求めることが,Skip-gramモデルにおける学習である.なお,本来のモデルは以上の通りであるが,尤度関数$\ell$をこのままの形で最大化することは,計算量等の問題で困難であるため,実際にはいくつかの近似が用いられる.例えば,\cite{mikolov1}では,階層的softmaxモデル近似が利用されているが,本論文では説明を省略する.\subsection{文脈限定Skip-gramモデル}\label{subsec:method:limited-skipgram}既存のSkip-gramモデルでは,周辺単語として,文脈窓の中に存在するすべての単語を利用している.そのため,周辺単語の種類,語順等の情報を利用することはできない.本研究では,文脈として利用される単語を限定することで,Skip-gramを改良する.なお,単語ベクトルの推定に文脈での語順を考慮した既存研究としては第\ref{sec:related-work}節に述べた有賀ら\cite{ariga}のものがあるが,本研究は,文脈間の依存関係を考慮していないという点において有賀らの研究とは異なる.文脈限定Skip-gramモデルでは,式\ref{eq:likelihood}の目的尤度関数$\ell$が以下のように変更される.\begin{equation}\ell=\sum_{t=1}^T\sum_{-c\leqj\leqc,j\neq0}\logp(w_{t+j}|w_t)\phi(w_{t+j},j)\label{eq:limited-likelihood}\end{equation}ここで,文脈限定関数$\phi(w_{t+j},j)$は,周辺単語$w_{t+j}$および相対位置$j$がある条件を満たす時のみ1となり,それ以外は0となる関数である.詳細は省略するが,式\ref{eq:limited-likelihood}は既存のSkip-gramと同様の方法で最大化することが可能である.なお,$w_{t+j}$と$j$に関係なく常に1となる文脈限定関数($\phi_{\rm{ALL}}$と呼ぶ)においては,式\ref{eq:limited-likelihood}は式\ref{eq:likelihood}と同一である.さて,本研究では,基本的な文脈限定関数$\phi(w_{t+j},j)$として,周辺単語の品詞,種類に依存した$\phi_{\rm{POS}}^{p}\left(w_{t+j}\right)$,周辺単語の左右に依存した$\phi_{\rm{LR}}^{p}\left(j\right)$,周辺単語の相対距離に依存した$\phi_{\rm{WO}}^{p}\left(j\right)$の3種類を用いる(これらの文脈限定関数をPOS,LR,WOと参照する).さらに,それらの組み合わせとして「POS-LR」「POS-WO」も利用する.$\phi_{\rm{POS}}^{p}\left(w\right)$は,単語$w$が品詞等のある分類属性を持つ時のみ1となる文脈限定関数である.本論文では,「副詞,助詞,動詞,名詞,固有名詞,形容詞,接頭詞,数,記号,カタカナ,非カタカナ」の計11個を分類属性として利用する.従って,$\phi_{\rm{POS}}^{1}\left(w\right),\ldots,\phi_{\rm{POS}}^{11}\left(w\right)$の11種類が存在する.$\phi_{\rm{LR}}^{p}\left(j\right)$は,$j$が正の時のみ1となる関数もしくは$j$が負の時のみ1となる関数である.具体的には$j$が正の時のみ1となる関数$\phi_{\rm{LR}}^{0}\left(j\right)$と,$j$が負の時のみ1となる関数$\phi_{\rm{LR}}^{1}\left(j\right)$の二つが存在する.これらは,周辺単語が右側にある場合と左側にある場合に対応している.$\phi_{\rm{WO}}^{p}\left(j\right)$は,$\phi_{\rm{LR}}^{p}\left(j\right)$のある種の拡張であり,$j=p$の時のみ1となる関数である.本論文では,前後10単語を対象とすることとした.したがって,,$p=-10,\ldots,-1,1,\ldots,10$として与えられ,文脈窓の特定の相対位置にある時のみに限定する20種類の関数となる.さらに,組み合わせにより,$\phi_{\rm{POS-LR}}^{pq}\left(w,j\right)=\phi_{\rm{POS}}^{p}\left(w\right)\phi_{\rm{LR}}^{q}\left(j\right)$および$\phi_{\rm{POS-WO}}^{pq}\left(w,j\right)=\phi_{\rm{POS}}^{p}\left(w\right)\phi_{\rm{WO}}^{q}\left(j\right)$として新たな文脈限定関数を構成可能である.表\ref{tb:context_size}に構成可能な文脈限定関数の個数一覧を示す.一つの文脈限定関数に関して一つのSkip-gramモデルが学習されるので,最大で,276個のモデルが利用可能である.なお,相対位置を全て区別するWO,POS-WOに関しては,元のSkip-gramと異なり,文脈窓サイズ$c$は常に最大値$K$をとるものとした.\begin{table}[b]\caption{文脈限定関数の個数一覧}\label{tb:context_size}\input{01table01.txt}\end{table}実際の同義語獲得を行う際には,学習された各Skip-gramモデルにおいて単語間のコサイン類似度を計算する(コサイン類似度を用いる理由は\ref{sec:pre-combine}節において後述する).本研究では,各モデルでの類似度を素性とみなし,教師データに基づいて,線形SVMで各々の素性に対する重みを学習することにより,判定関数を構築する.そのため,提案手法は教師なし学習のSkip-gramを教師あり学習により拡張しているといえる.更に,素性の重みについては線形SVMの値を利用するが,閾値についてはF値を最大化をするようなものを推定することで(F値最大化),さらなる最適化を行った.また,SVM使用の際には加算平均が0,分散が1となるように各素性の正規化処理を行った. \section{使用データと予備実験} \label{sec:data-and-preexperiment}\subsection{使用データ}\label{subsec:ex:data}単語ベクトル作成において用いたコーパスとして,日本語Wikipediaデータ\footnote{http://dumps.wikimedia.org/jawiki/,2015年6月5日取得}(2~Gbytes)をMeCab\footnote{http://taku910.github.io/mecab/}によりmecab-ipadic-neologd辞書\footnote{https://github.com/neologd/mecab-ipadic-neologd,2015年12月9日取得}を用いて基本形出力でわかち書きと品詞付与を行った後に,出現回数が100回未満の低頻度語を除いたものを使用した.最終的に,Skip-gramモデルで単語ベクトルが獲得された単語は104,630種類となった.ただし,同じ単語であっても品詞が異なるものは区別して扱った.Skip-gramモデル\footnote{https://code.google.com/p/word2vec/にてGoogleが公開している実装を使用した.}では,階層的softmaxモデルを用いて学習を行った.文脈限定Skip-gramの計算時間については,各々の文脈モデルは独立に学習していることから,計算時間はALL(既存Skip-gram)とモデル数を乗算した値で見積もることができる.実際には学習する回数が文脈限定により減少することから,各文脈限定モデルでは基本的にALLより学習時間が短くなり,計算時間は見積もりより短くなる.実際に全ての文脈限定Skip-gram($\mathrm{N}=300$)の学習に要したトータルの計算時間は,CPUとしてAMD1.4~GHzを用いて20スレッドの並列処理を行った場合,60時間程度であった.なお,ALL($\mathrm{N}=300$)の学習時間は2~時間程度である.また,一旦単語ベクトルの獲得を行えば,線形SVMの学習や個々の判定には長い時間は要さない.同義対の正例として,WordNet同義対データベース\footnote{http://nlpwww.nict.go.jp/wn-ja/jpn/downloads.htmlにてNICTが提供する,WordNet\cite{wordnet}を元に人手で作成された同義対データベースである.}に含まれる同義対を利用した.発生頻度が極端に低くSkip-gramで単語ベクトルの獲得できなかった単語を除き,最終的に5,848対を正例として用いた.負例(非同義対)としては,まず,単語ベクトルが獲得可能であった単語(\textless/s\textgreaterは除く)の中から,ランダムに作成した17,544対(正例の3倍)を利用した.更に,正例に含まれる単語群をランダムに組み合せることで作成した5,848対(正例と同数)を,負例として追加した.この負例の追加により,正例に含まれる特定の単語の出現のみによって同義対と誤判定してしまう問題を緩和した.SVMのパッケージとしてはWeka(SMO)とSVMlightを用いた.\subsection{予備実験}\label{preliminary-experiment}\subsubsection{文脈窓$K$と次元$N$の与える影響}\label{sec:pre-kn}提案手法に関する実験を行う前に,既存Skip-gram(ALL)における適切な文脈窓$K$と単語ベクトルの次元$N$を調べる目的で,$K$と$N$の違いによる同義語獲得性能の比較を行った.調査対象とした$K$は,1,2,3,4,5,6,7,8,9,10,20,30,50の13種類,$N$は100,200,300,500,1,000,1,500,2,000,2,500,3,000の9種類である.$K$を変更させた際は$N=300$に,$N$を変更させた際は$K=5$に固定した.また,同義語獲得においてはALLで獲得されたコサイン類似度を素性とし,F値が最大となるような閾値を調べ,その時のF値を結果として記した.実験結果を図\ref{fig:SGwindim}に示す.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f1.eps}\end{center}\caption{文脈窓のサイズ$K$と次元$N$による同義語獲得におけるF値の変化}\label{fig:SGwindim}\label{fig:img}\end{figure}実験結果からF-Measureは$K$が$2〜7$の時に高くなり,8以降は減少傾向にあることが分かった.また,$K=2$の時にF値が最大となったが,$2〜7$の間でのF値には大きな差がない.そこで,Skip-gramの結果が初期値に依存することを考え,\ref{sec:experiment}節の評価実験では,ALLを用いる際は$2〜7$の中間付近である$K=5$を用いることにした.単語ベクトルの次元$N$においては,100次元から500次元までは次元が高くなるにつれ,急激にF値が高くなるが,以降は伸びが緩やかとなり,1,500次元から3,000次元にかけてF値は下がる事がわかる.上記の結果から,1,000次元〜1,500次元が最適な次元数であることが分かった.そこで,\ref{sec:experiment}節の評価実験においては,計算時間を考慮しALLについては1,000次元としたものを用いる.\subsubsection{ベクトル結合方法の比較}\label{sec:pre-combine}第\ref{sec:introduction}節に述べたようにコサイン類似度に単語の意味の近さが表れるという報告があるが,本章では実際にコサイン類似度が線形SVMの素性の作成方法として妥当であることを同義語獲得性能の比較によって示す.単語ベクトルの結合方法には様々考えられる.例えば,\cite{oyama}では,異表記されている同一著者の判定問題において,著者の論文タイトルや共著者情報などから作成された単語のベクトルをSVMで判定している.Oyamaetal.\cite{oyama}の研究では素性の作成方法だけでなく,カーネルの変更によっても性能が高まることが示されている.そこで,予備実験では比較対象として単語ベクトルの要素をSVMの素性とし,同義語獲得を行った.具体的には,単語ベクトルの各々の要素を結合するもの(Combine)と乗算するもの(Multiplication)をSVMの素性とした.例えば,着目している単語対の単語ベクトルを$(a_1,a_2,a_3,...,a_N)$,$(b_1,b_2,b_3,...,b_N)$とすると,これらの単語ベクトルのCombineにより作成されたSVMの素性は$(a_1,a_2,a_3,...,a_N,b_1,b_2,b_3,...,b_N)$の$2N$次元となり,Multiplicationにより作成されたSVMの素性は$(a_1\timesb_1,a_2\timesb_2,a_3\timesb_3,...,a_N\timesb_N)$の$N$次元となる.SVMのカーネルにおいては線形カーネルの他に多項式カーネル\footnote{二次の多項式カーネルを用いた.}とRBFカーネル\footnote{$\gamma=0.01$とした.}を用いた.また,閾値の学習は\ref{subsec:method:limited-skipgram}節に述べたようにF値最大化を用いて行った.使用した組み合わせは以下の6つである.\begin{itemize}\itemCombine+線形カーネル\itemCombine+多項式カーネル(二次)\itemCombine+RBFカーネル\itemMultiplication+線形カーネル\itemMultiplication+多項式カーネル(二次)\itemMultiplication+RBFカーネル\end{itemize}また,単語ベクトル$v$(および文脈ベクトル$v'$)の次元は計算時間の関係から300とし,$K=5$とした.線形SVMを用いた同義語獲得に関しては,教師例のデータ量が29,240対(\ref{sec:pre-kn}節)と少なくオーバーフィットの可能性が考えられる.そのため,線形SVMによる同義語獲得の際には,5分割交差検定により,精度,再現率,F値を評価した.交差検定の分割はそれぞれの結果について同じであり,結果の比較が可能である.結果を表\ref{tb:SVMfeature}に示す.比較対象として,一番下の行に実験1の結果\ref{fig:SGwindim}における$K=5(N=300)$の結果を記した.``Combine+線形カーネル'',``Combine+RBFカーネル'',``Multiplication+RBFカーネル''においては正例(同義対)と負例(非同義対)を分離可能な超平面が作成できず,SVMが全てのデータを負例として識別するように学習したため,精度もF値も計算不能であった.F値が計算可能であった``Combine+多項式'',``Multiplication+線形'',``Multiplication+多項式''に関しても,コサイン類似度のF値を大幅に下回った.以上の結果から本論文においては素性の作成方法としてコサイン類似度を用いて分析を行うこととする.\begin{table}[t]\caption{SVMにおける素性作成方法や使用カーネルと同義語獲得精度の関係}\label{tb:SVMfeature}\input{01table02.txt}\end{table} \section{実験結果} \label{sec:experiment}ここでは,提案手法(文脈限定Skip-gram)による同義語獲得の性能の評価実験を行った.学習時における最大文脈窓サイズ$K$に関しては,文脈限定の無い既存Skip-gram(ALL)については\ref{sec:pre-kn}節に述べたように$K=5$とし,他のモデルに関しては学習対象になる周辺単語の数が減少することを考慮に入れ$K=10$とした.単語ベクトルの次元数$N$も\ref{sec:pre-kn}節に述べたようにALLのみ$N=1,000$とし,その他のモデルに関しては計算時間を考慮し$N=300$とした.ある文脈限定関数について一つの素性が対応する.本研究では,表\ref{tb:context_size}の文脈限定関数の組み合わせにより素性群を作成した.なお,すべての素性群は必ずALLを含むものとした.与えられた素性群について線形SVMで重みを学習した.\ref{sec:pre-combine}節と同様の理由で,線形SVMによる同義語獲得においては5分割交差検定により,精度,再現率,F値を評価した.交差検定の分割も,\ref{sec:pre-combine}節と同様にそれぞれの結果について同じである.\begin{table}[b]\caption{文脈限定Skip-gramによる同義語獲得精度の評価}\label{tb:proposed-result}\input{01table03.txt}\end{table}提案手法を用いた同義語獲得の結果を表\ref{tb:proposed-result}に示す.最初の5行は,ALLと一つのタイプの文脈限定関数群を組み合せた結果である\footnote{その他,別途モデル群にALLを含まない組合せも試したが,わずかに性能が上がる場合もあったものの,大幅な向上は見られなかったため,結果の表示は省略する.}.その次の行は,ALLと複数タイプの組み合わせ$2^5$の$32$通りの中で,F値が最も高くなった結果を表示している.ただし,十分に素性を含んでいるものに関してはF値の差がそれほど見られなかった.最後の行に,既存のSkip-gramモデルとの比較として,ALLのみを用いた結果を示した.表\ref{tb:proposed-result}において,ALLと一つのタイプのみの文脈限定関数を組み合わせた場合でも,「ALL+WO」「ALL+POS-LR」「ALL+POS-WO」で既存手法のF値を上回ることが示されている.これは,同義語獲得において,周辺単語の相対的な位置およびその品詞などの分類属性が,重要な情報であるということを示している.また,提案手法におけるF値最大となる組み合わせは,「ALL+POS-LR+POS-WO」であり,F値は0.792となった.これは既存手法の最大F値である0.712より高い.次に,本手法の解釈可能性の高さを実証するために,提案手法においてF値が最大であった「ALL+POS-LR+POS-WO」の組み合わせ(以後,「MAX」と参照)の線形SVMの重みについてのグラフを図\ref{fig:WOMAX-weight}から図\ref{fig:append-POS-LR}に示す.重みの値が大きければ同義対の判定に正の影響を,値が小さければ負の影響を与え,0であれば影響を及ぼさない.R1,L1などは中心単語から見た時の相対的位置が「右1つ目」,「左1つ目」であることを示している.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f2.eps}\end{center}\hangcaption{MAXにおける相対的位置ごとの重みの合計:各相対位置について,POS-WOにおける重みを,すべてのPOS分類属性に関して合計した値を示した.}\label{fig:WOMAX-weight}\end{figure}まず,図\ref{fig:WOMAX-weight}と図\ref{fig:POSMAX-weight}の考察を行う.図\ref{fig:WOMAX-weight}を見ると,中心単語の直後の単語が同義語獲得に大きな影響を及ぼしていることが分かる.また,影響の大きさは中心単語から離れれば離れるほど減っていくこともわかる.また,図\ref{fig:POSMAX-weight}からは,非カタカナ語の重みが他の分類属性と比較した時に一番大きいことが分かる.これは\ref{sec:introduction}節で述べたように非カタカナ語に注目することが重要であることを示している.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f3.eps}\end{center}\hangcaption{MAXにおける分類属性ごとの重みの合計:各POS分類属性について,POS-WOとPOS-LRにおける重みを,全ての相対位置(L,R,L1--L10,R1--R10)に関して合計した値を示した.}\label{fig:POSMAX-weight}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f4.eps}\end{center}\hangcaption{MAXにおける左右に着目した相対的位置ごとの重みの合計:左側はLとL1からL10までのPOS-WOとPOS-LRにおける重みの合計を,右側はRとR1からR10までの合計を示した.すべてのPOS分類属性についても合計している.}\label{fig:append-LR}\end{figure}次に,図\ref{fig:append-LR}と図\ref{fig:append-POS-LR}の考察を行う.図\ref{fig:append-LR}から,一般に同義語獲得においては,右側(R,R1〜R10)の影響が左側(L,L1〜L10)の影響より大きいことがわかる.一方で,これを品詞ごとにわけたものが図\ref{fig:append-POS-LR}である.図\ref{fig:append-POS-LR}から,動詞や非カタカナ語に関しては右側にある単語の与える影響が大きいことがわかる.これは,全体として右側が与える影響が強い(図\ref{fig:append-LR})ことから,その性質を反映していると考えられる.一方,形容詞や接頭詞においては,左側にある単語の方が同義語獲得に大きな影響を与えることがわかる.これは,形容詞や接頭詞は修飾する単語の左側に付くことが多いためであると考えられる.このように,周辺単語の単語属性や相対位置をそれぞれ区別して扱うことで,日本語の性質を反映した同義語獲得が可能になると考えられる.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f5.eps}\end{center}\hangcaption{MAXにおける単語分類属性に着目した左右の相対位置ごとの重みの合計:POS分類属性ごとに左側(L,L1〜L10)と右側(R,R1〜R10)のPOS-WOとPOS-LRにおける重みを合計した値を示した.}\label{fig:append-POS-LR}\end{figure}\begin{table}[b]\begin{minipage}[t]{162pt}\setlength{\captionwidth}{162pt}\hangcaption{カタカナ語と和語からなる対の同義語獲得におけるALLとMAXの性能比較}\label{tb:katakana}\input{01table04.txt}\end{minipage}\hfill\begin{minipage}[t]{243pt}\setlength{\captionwidth}{243pt}\hangcaption{MAXにおいて獲得可能となった同義対のうちALLでの順位が低い対}\label{tb:katakana-synonym}\input{01table05.txt}\end{minipage}\end{table}さて,同義語獲得の具体的な問題として,第\ref{sec:introduction}節において,カタカナ語と和語からなる同義対のコサイン類似度が低くなるという報告があると述べた.そこで,提案手法でこの問題が解決されるかを調べた.そこで,ALLとMAXについて,カタカナ語と和語からなる対の同義語獲得問題に関する性能を比較した.正例の同義対の中で,対の片方がカタカナ語であり,もう一方が和語のものは,2,457対存在した.同様に負例は7,782対存在した.このデータセットを利用した性能比較の結果を表\ref{tb:katakana}に示す.既存手法ALLと比べ,提案手法MAXの精度,再現率は高い値を示している.また,具体的な成功例として,ALLでは非同義対と判定されMAXにて同義対と正しく判定されたもののうちALLでの順位が低いもの10例を表\ref{tb:katakana-synonym}に示す.一方,失敗例としてALLでは獲得できていたがMAXで獲得不可能になった同義対のうちALLでの順位が高いもの10例を表\ref{tb:MAX-cannot-acquire}に示す.また,それぞれの表にはALLとMAXにおけるSVMの学習に用いた単語対(29,240対)の中での順位も示した.なお,ここでいう順位とは線形SVMの値とF値最大化によって得られた閾値の距離を降順に並べた時の順位である.表\ref{tb:katakana-synonym}の10例中7例はカタカナ語と和語からなる対であるが,ALLでは獲得が難しかったこれらの対の順位がMAXでは高くなっていることがわかる.このことから,カタカナ語と和語からなる対に対してMAXが有効であるといえる.一方,MAXにおいて獲得不可能になった対(表\ref{tb:MAX-cannot-acquire})を見ると,カタカナ語と和語からなる対が少ないことが読み取れる.これは,カタカナ語と和語からなる対のALLの値が低くなること,および,MAXにおいてはカタカナ語と和語/漢語の対の獲得性能が向上しているためであると考えられる.\begin{table}[t]\caption{ALLにおいては獲得できたがMAXでは獲得不可能になった同義対のうちALLでの順位が高い対}\label{tb:MAX-cannot-acquire}\input{01table06.txt}\end{table}第\ref{sec:introduction}節に述べたように,カタカナ語は周辺単語にカタカナ語を生じやすいが,非カタカナ語は周辺単語に非カタカナ語を生じやすいという傾向がある.そのため,周辺単語から中心単語のベクトル表現を学習するというモデルでは,「カタカナ語と非カタカナ語からなる同義対」の獲得が難しいという問題点があった.提案手法では,図\ref{fig:POSMAX-weight}に示したように,周辺単語を非カタカナ語に限定した要素の重みを線形SVMを用いて最適に調節することで,上記の問題を緩和し,カタカナ語と和語/漢語からなる同義対の獲得精度を高めることができたと考えられる. \section{結論} \label{sec:conclusion}本研究では,同義語獲得において周辺単語の相対位置や品詞等の様々な属性情報を利用するために,Skip-gramモデルを改良し,文脈限定関数を利用した手法を提案した.実験の結果,周辺単語の語順や品詞を考慮して文脈を限定し,それらの影響の重みを線形SVMで推定することで,同義語獲得の精度を向上させることができることがわかった.また,中心単語の直後の単語と非カタカナ語が同義語獲得に大きな影響を与えていること,及び,全体としては相対位置が右側にある単語の与える影響が大きいが,形容詞や接続詞においては,逆に左側の与える影響が大きいことがわかった.本研究のひとつの大きな優位点は,文脈情報や単語分類属性(品詞等)を用いてSkip-gramを「個別に」学習したものを組み合わせることで,同義語獲得において重要であると考えられる周辺単語の性質を知ることができる高い解釈可能性である.もうひとつの大きな優位点は,Skip-gramのモデル自体は変更せず,文脈限定関数で学習データを変更するだけで,利用する単語属性の追加や変更が可能であるという高い拡張可能性である.本論文で挙げた属性以外にも,容易に他の有用と考えられる単語属性を利用することができる.本手法を,既存の辞書ベースの手法\cite{kato}や検索エンジンを利用する手法(渡辺他2008)\nocite{watanabe}等と組み合わせることで,さらに同義語獲得精度を向上させることができると期待される.以下,今後の課題について述べる.最初に多義性の問題に関して述べる.提案手法と既存手法の両者において獲得に失敗した単語対の傾向を観察したところ,その単語の多くに多義性が見られた.既存手法のSkip-gramモデルおよび提案手法である文脈限定Skip-gramモデルは1つの単語につき1つの``意味''しか学習できないため,このような傾向が生じると考えられる.この問題は,多義性の問題の解決を試みたSkip-gramモデル(\citeA{neelakantan},\citeA{bartunov},\citeA{cheng}など)を提案手法と組み合わせ同義語獲得に適用することで解決できる可能性がある.第二に,データスパースネスの問題について述べる.既存手法では獲得に成功していたが提案手法において失敗するようになった単語については一般的には使われない単語が多く見受けられたが,これは文脈限定Skip-gramモデルでは文脈を限定していることから既存手法よりもデータスパースネスに弱くなり,低頻度語の``意味''の獲得精度が弱まっていることが原因であると考えられる.この問題は,``Yahoo!知恵袋データ''\footnote{http://www.nii.ac.jp/dsc/idr/yahoo/chiebkr2/Y\_chiebukuro.html}など,他のコーパスも加えデータサイズを増やすことで本問題を緩和可能であると考えられる.また,Skip-gramにおける学習の特徴として,局所最適解の影響により,単語ベクトルが実行ごとに結果が変化することが知られている\cite{suzuki}.そこで,コーパスのデータサイズを増やすことでこのような局所最適解の影響を調査することも必要であると考えられる.第三に,文脈限定関数の構築方法に関して述べる.本研究では多くの文脈限定関数について(品詞)辞書を使用したが,表\ref{tb:proposed-result}からもわかるように,(品詞)辞書情報を必要としないALL+WOにおいても既存手法に比べて大きなF値の向上が見られた.このことから,位置情報を始めとする,辞書情報を必要としない文脈限定関数を利用することでも精度が更に高まる可能性があると考えられる.このような文脈限定関数としては,本研究で述べたLRやWO以外にも「ある特定の文脈窓内(例えば,L2〜L5以内)に含まれるかどうか」によって限定するものも考えられる.また,辞書を使用するものに関しても「内容語か機能語か」という限定の仕方なども考えられる.これら「文脈窓内に含まれるかどうか」や「内容語か機能語か」といった限定条件の変更は,文脈の限定の程度を緩和することから,上に述べたデータスパースネスの問題を緩和することにも繋がる点でもメリットがある.最後に,同義対教師データについて述べる.今回は教師例が少ないため最善モデルのF値の推定にとどまったが,今後はさらに教師例を収集して,提案手法の正確なF値の推定を行う必要があると考えられる.以上を踏まえ,今後は多義性の問題緩和と,コーパスのサイズや同義対教師例の増加,文脈限定関数の変更・追加により,提案手法のさらなる精度向上を目指していく予定である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{有賀\JBA鶴岡}{有賀\JBA鶴岡}{2015}]{ariga}有賀竣哉\JBA鶴岡慶雅\BBOP2015\BBCP.\newblock単語のベクトル表現による文脈に応じた単語の同義語拡張.\\newblock\Jem{言語処理学会第21回年次大会発表論文集(NLP2015)},\mbox{\BPGS\752--755}.\bibitem[\protect\BCAY{Bartunov,Kondrashkin,Osokin,\BBA\Vetrov}{Bartunovet~al.}{2015}]{bartunov}Bartunov,S.,Kondrashkin,D.,Osokin,A.,\BBA\Vetrov,D.\BBOP2015\BBCP.\newblock\BBOQBreakingSticksandAmbiguitieswithAdaptiveSkip-gram.\BBCQ\\newblock{\BemCoRR},{\Bbf{\mdseriesarXiv:1502.07257}}.\bibitem[\protect\BCAY{Bian,Gao,\BBA\Liu}{Bianet~al.}{2014}]{bian}Bian,J.,Gao,B.,\BBA\Liu,T.-Y.\BBOP2014\BBCP.\newblock\BBOQKnowledge-poweredDeepLearningforWordEmbedding.\BBCQ\\newblockIn{\BemJointEuropeanConferenceonMachineLearningandKnowledgeDiscoveryinDatabases},\mbox{\BPGS\132--148}.Springer.\bibitem[\protect\BCAY{Cheng,Wang,Wen,Yan,\BBA\Chen}{Chenget~al.}{2015}]{cheng}Cheng,J.,Wang,Z.,Wen,J.-R.,Yan,J.,\BBA\Chen,Z.\BBOP2015\BBCP.\newblock\BBOQContextualTextUnderstandinginDistributionalSemanticSpace.\BBCQ\\newblockIn{\BemACMInternationalConferenceonInformationandKnowledgeManagement(CIKM)}.ACM--AssociationforComputingMachinery.\bibitem[\protect\BCAY{Hagiwara,Ogawa,\BBA\Toyama}{Hagiwaraet~al.}{2006}]{hagiwara}Hagiwara,M.,Ogawa,Y.,\BBA\Toyama,K.\BBOP2006\BBCP.\newblock\BBOQSelectionofEffectiveContextualInformationforAutomaticSynonymAcquisition.\BBCQ\\newblockIn{\BemProceedingsofColing/ACL2006},\mbox{\BPGS\353--360}.\bibitem[\protect\BCAY{乾}{乾}{2007}]{inui}乾健太郎\BBOP2007\BBCP.\newblock自然言語処理と言い換え.\\newblock\Jem{日本語学},{\Bbf26}(13),\mbox{\BPGS\50--59}.\bibitem[\protect\BCAY{城光\JBA松田\JBA山口}{城光\Jetal}{2015}]{joko}城光英彰\JBA松田源立\JBA山口和紀\BBOP2015\BBCP.\newblock同義語判定問題を用いた語義ベクトルの評価の検討.\\newblock\Jem{人工知能学会インタラクティブ情報アクセスと可視化マイニング研究会},{\Bbf10},\mbox{\BPGS\21--25}.\bibitem[\protect\BCAY{笠原\JBA稲子\JBA加藤}{笠原\Jetal}{2003}]{kato}笠原要\JBA稲子希望\JBA加藤恒昭\BBOP2003\BBCP.\newblockテキストデータを用いた類義語の自動作成.\\newblock\Jem{人工知能学会論文誌},{\Bbf18}(4),\mbox{\BPGS\221--232}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{levy}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQDependency-BasedWordEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\302--308}.\bibitem[\protect\BCAY{Ling,Tsvetkov,Amir,Fermandez,Dyer,Black,Trancoso,\BBA\Lin}{Linget~al.}{2015}]{ling}Ling,W.,Tsvetkov,Y.,Amir,S.,Fermandez,R.,Dyer,C.,Black,A.~W.,Trancoso,I.,\BBA\Lin,C.-C.\BBOP2015\BBCP.\newblock\BBOQNotAllContextsAreCreatedEqual:BetterWordRepresentationswithVariableAttention.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1367--1372},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov1}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblock{\BemProceedingsofWorkshopatInternationalConferenceonLearningRepresentations(ICLR)},{\Bbf\textmd{arXiv:1301.3781}}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2015}]{neelakantan}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2015\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblock{\BemCoRR},{\Bbf\textmd{arXiv:1504.06654}}.\bibitem[\protect\BCAY{Oyama\BBA\Manning}{Oyama\BBA\Manning}{2004}]{oyama}Oyama,S.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2004\BBCP.\newblock\BBOQUsingFeatureConjunctionsacrossExamplesforLearningPairwiseClassifiers.\BBCQ\\newblockIn{\BemProdeedingsofthe15thEuropeanConferenceonMachineLearning(ECML2004)},\mbox{\BPGS\322--333}.\bibitem[\protect\BCAY{Schwartz,Reichart,\BBA\Rappoport}{Schwartzet~al.}{2015}]{roy}Schwartz,R.,Reichart,R.,\BBA\Rappoport,A.\BBOP2015\BBCP.\newblock\BBOQSymmetricPatternBasedWordEmbeddingsforImprovedWordSimilarityPrediction.\BBCQ\\newblockIn{\BemProceedingsofCoNLL},\mbox{\BPGS\258--267}.\bibitem[\protect\BCAY{Suzuki\BBA\Nagata}{Suzuki\BBA\Nagata}{2015}]{suzuki}Suzuki,J.\BBACOMMA\\BBA\Nagata,M.\BBOP2015\BBCP.\newblock\BBOQAUnifiedLearningFrameworkofSkip-GramsandGlobalVectors.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\186--191}.\bibitem[\protect\BCAY{Trask,Gilmore,\BBA\Russell}{Trasket~al.}{2015}]{trask}Trask,A.,Gilmore,D.,\BBA\Russell,M.\BBOP2015\BBCP.\newblock\BBOQModelingOrderinNeuralWordEmbeddingsatScale.\BBCQ\\newblockIn{\BemProceedingsofthe32ndInternationalConferenceonMachineLearning(ICML)},\mbox{\BPGS\2266--2275}.\bibitem[\protect\BCAY{内海\JBA小町}{内海\JBA小町}{2013}]{utsumi}内海慶\JBA小町守\BBOP2013\BBCP.\newblockウェブ検索クエリログとクリックスルーログを用いた同義語獲得.\\newblock\Jem{情報処理学会論文誌},{\Bbf6}(1),\mbox{\BPGS\16--28}.\bibitem[\protect\BCAY{渡部\JBA{DanushkaBollegala}\JBA松尾\JBA石塚}{渡部\Jetal}{2008}]{watanabe}渡部啓吾\JBA{DanushkaBollegala}\JBA松尾豊\JBA石塚満\BBOP2008\BBCP.\newblock検索エンジンを用いた関連語の自動抽出.\\newblock\Jem{人工知能学会全国大会論文集}.\bibitem[\protect\BCAY{Wen,Eshley,\BBA\Bond}{Wenet~al.}{2006}]{wordnet}Wen,H.M.~S.,Eshley,G.~H.,\BBA\Bond,F.\BBOP2006\BBCP.\newblock\BBOQUsingWordNettopredictnumeralclassifiersinChineseandJapanese.\BBCQ\\newblockIn{\BemThe6thInternationalConferenceoftheGlobalWordNetAssociation},\mbox{\BPG\211}.\bibitem[\protect\BCAY{Yu\BBA\Dredze}{Yu\BBA\Dredze}{2014}]{yu}Yu,M.\BBACOMMA\\BBA\Dredze,M.\BBOP2014\BBCP.\newblock\BBOQImprovinglexicalembeddingswithsemanticknowledge.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\545--550}.\bibitem[\protect\BCAY{Zellig}{Zellig}{1954}]{harris}Zellig,H.\BBOP1954\BBCP.\newblock\BBOQDistributionalStructure.\BBCQ\\newblock{\BemWord},{\Bbf10}(23),\mbox{\BPGS\146--162}.\end{thebibliography}\begin{biography}\bioauthor{城光英彰}{2014年早稲田大学基幹理工学部応用数理学科卒業.2016年東京大学大学院総合文化研究科広域科学専攻修士課程修了.同年,三菱電機(株)情報技術総合研究所入社.言語処理に関する研究開発に従事.}\bioauthor{松田源立}{1997年東京大学教養学部卒業.2002年東京大学大学院総合文化研究科博士課程修了.博士(学術).学振特別研究員(PD),青山学院大学理工学部助教を経て,2013年より東京大学大学院総合文化研究科学術研究員.}\bioauthor{山口和紀}{1979年東京大学理学部数学科卒業.1985年理学博士(東京大学).1992年東京大学教養学部助教授.2007年より東京大学大学院総合文化研究科教授.コンピュータのためのモデリング全般に興味を持つ.}\end{biography}\biodate\end{document}
V19N01-01
\section{はじめに} 上位下位関係は自然言語処理の様々なタスクにおいて最も重要な意味的関係の一つであり,それゆえ盛んに研究されてきた\cite{hearst92,hovy09,oh09,ponzetto07,隅田:吉永:鳥澤:2009,suchanek07,nastase08,snow05}.これらの過去の研究では,上位下位関係を,「AはBの一種あるいはインスタンスであるAとBの関係」と定義している.本論文の上位下位関係もこの定義に従う.ただし,「概念」の詳細な表現を可能にするために,単一の語だけでなく,\xmp{黒澤明の映画作品}のような句や複合語も考慮する.このように制限を緩めることで,上位概念をより詳細に表現することが可能となる.上記の定義によれば,次のペアはいずれも上位下位関係にあると考えられる\footnote{本稿では上位下位関係を\isa{A}{B}のように表す.\xmp{A}が上位概念で\xmp{B}が下位概念である.}.\begin{enumerate}\item\isa{黒澤明の映画作品}{七人の侍}\label{enum:Kurosawa}\item\isa{映画作品}{七人の侍}\item\isa{作品}{七人の侍}\label{enum:work}\end{enumerate}質問応答等のアプリケーションを考えた場合,これらの上位下位関係の有用性は異なると考えられる.例えば,「``七人の侍''とは何ですか?」という質問に対して,上の3つの上位下位関係の上位概念のうち,答えとして適切なのは最も詳細な上位概念である(\ref{enum:Kurosawa})の「黒澤明の映画作品」と考えられる.一方,(\ref{enum:work})の上位概念「作品」は,「何の作品であるか」という必要な情報が欠落しているため「黒澤明の映画作品」という答えに比べて適切ではない.本論文では,以下の2つの条件を満たす場合に「下位概念Cに対して,AはBより詳細な上位概念」と呼ぶ.\begin{itemize}\itemAとBは同じ下位概念Cを持つ\itemBはAの上位概念である\end{itemize}上記の例では,全ての上位概念が「七人の侍」という同じ下位概念を持ち,かつ,上位概念間には,それぞれ上位下位関係が成り立つ.「黒澤明の映画作品」の上位概念は「映画作品」,または「作品」,さらに「映画作品」の上位概念は「作品」と考えられる.従って,下位概念「七人の侍」に対して「黒澤明の映画作品」は「映画作品」や「作品」より詳細な上位概念であり,「映画作品」は「作品」より詳細な上位概念と言うことができる.また,ある上位概念をより詳細な上位概念に置き換える処理を「上位概念の詳細化」と呼ぶ.本研究では,自動獲得した上位下位関係の上位概念と下位概念の間に,より具体的な上位概念を中間ノードとして追加することで,元の上位下位関係を詳細化する.中間ノードとして追加されるより具体的な上位概念は,元の上位下位関係が記述されているWikipedia記事のタイトルと元の上位概念を「AのB」の形式で連結することで自動獲得する.例として\isa{作品}{七人の侍}を挙げる.この上位下位関係は,タイトルが「黒澤明」のWikipedia記事の中に現れる.具体的には,当該記事の\xmp{作品}というセクションに\xmp{七人の侍}が記載されている.本手法では,この情報から,\xmp{七人の侍}は黒澤明の\xmp{作品}であると推測し,\isa{黒澤明の作品}{七人の侍}を新たに獲得する.さらに,\xmp{黒澤明}の上位概念が\xmp{映画監督}であることが獲得済みの上位下位関係から判明すれば,\isa{映画監督の作品}{七人の侍}も獲得できる.最終的に,元の\isa{作品}{七人の侍}から,\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}を得ることができる.本稿ではさらに,本手法により獲得した上位下位関係(例えば\isa{黒澤明の作品}{七人の侍})が\attval{対象}{属性}{属性値}関係(例えば\attval{黒澤明}{作品}{七人の侍})として解釈できることについて議論する.この解釈では,Wikipedia記事のタイトルが対象に,上位概念が属性に,下位概念が属性値に対応づけられる.実験で生成した上位下位関係2,719,441ペアは,94.0\%の適合率で,\attval{対象}{属性}{属性値}関係として解釈可能であることを確認した.以下,\ref{sec:hh-problems}節では,既存の手法で獲得された上位概念の問題点を例とともに述べる.\ref{sec:Base-hh}節では,Wikipediaからの上位下位関係獲得手法\cite{隅田:吉永:鳥澤:2009}について説明する.\ref{sec:proposed-method}節では,我々が開発した,Wikipediaを用いた詳細な上位下位関係の獲得手法について説明する.\ref{sec:evaluation}節では,提案手法の評価とエラー分析の結果について述べる.\ref{sec:discussion}節では,提案手法により獲得した詳細な上位概念をより簡潔に言い換える試みと,詳細な上位下位関係の\attval{対象}{属性}{属性値}関係としての解釈について議論する.\ref{sec:related-word}節で関連研究について述べる.最後に\ref{sec:conclusion}節で結論を述べる. \section{自動獲得された上位概念の問題\label{sec:hh-problems}} 本節では,隅田ら\cite{隅田:吉永:鳥澤:2009}の手法の出力を例に,自動獲得された上位概念に見られがちな問題点について述べる.自動獲得された上位概念の中には,一般的なシソーラスにおいてルートノードの近くに位置して広範囲な下位概念をカバーするものや,意味的に曖昧なものが存在するという問題が見られる.例えば\isa{作品}{七人の侍}における上位概念は\xmp{作品}だが,世の中には\xmp{作品}と呼べる物が数多く存在する.さらに極端な例として,上位概念が\xmp{物}や\xmp{事}になっている上位下位関係も,自動で獲得されてしまう可能性がある.このような上位概念を質問応答などの自然言語処理のアプリケーションで利用すると,より詳細な上位概念と比較してその有用性が低いことが多い.例えば1節の例で言及したように「``七人の侍''とは何ですか?」という質問に対しては,より詳細な上位概念である「黒澤明の映画作品」のほうが「作品」より適切な回答と考えられる.また,「黒澤明の作品には何がありますか?」といったリスト形式の回答を求めるような質問に対して,上位下位関係を回答の知識源として使うことによって,上位概念「黒澤明の作品」の下位概念をリスト形式で回答できる\footnote{リスト形式の質問応答を行うタスクは,評価型ワークショップであるTRECQAtask\cite{Dang2006,Dang2007}で実施された.例えば「チューインガムの名前は?」といった質問に対して,そのインスタンスをすべて回答する.}.一方,上位概念「作品」は他の映画作品や小説作品,音楽作品などの下位概念を持つため,「作品」が上位概念として含まれる上位下位関係のみを知識源として利用しても,このような質問に回答することは難しい.表\ref{tab:hh-problems}に,隅田らの手法で獲得された上位下位関係で頻出した上位概念を挙げる.例えば,\xmp{アルバム}は,写真のアルバムなのか音楽が収録されているアルバムなのか分からず,曖昧である.一方,\xmp{出演者}は,これだけでは何に出演したのか分からない.この表から,自動獲得した上位下位関係の上位概念には,曖昧,または広範囲な下位概念をカバーする語が頻出していることがわかる.\begin{table}[b]\caption{隅田らの手法で獲得された上位下位関係中の上位概念(出現頻度の降順上位20語)}\label{tab:hh-problems}\input{02table01.txt}\end{table}このような問題点は,隅田らの手法に限らず発生すると考えられる.「AなどのB」といった上位下位関係を明示する構文パターンから抽出する手法\cite{hearst92}においても,例えば「七人の侍などの作品」というフレーズからは,「七人の侍」の上位概念として「作品」が抽出される.つまり,他の多くの上位下位関係獲得手法についても当てはまる. \section{Wikipediaを用いた上位下位関係の獲得\label{sec:Base-hh}} 本節では,隅田らが提案したWikipediaを用いた上位下位関係の獲得手法\cite{隅田:吉永:鳥澤:2009}について述べる.この手法により獲得した上位下位関係が,\ref{sec:proposed-method}節で説明する詳細な上位下位関係獲得の処理対象となる.\begin{figure}[b]\begin{center}\includegraphics{19-1ia2f1.eps}\end{center}\caption{Wikipedia記事の例:アップルインコーポレイテッド}\label{fig:wikip-article}\end{figure}この手法では,Wikipedia記事の階層的なレイアウト構造を利用して上位下位関係を獲得する.図\ref{fig:wikip-article}に,Wikipedia記事の例として\xmp{アップルインコーポレイテッド}の記事を挙げる.この記事は\xmp{Appleショップ}や\xmp{製品}という節があり,\xmp{Appleショップ}の下位には\xmp{北海道地方},\xmp{製品}の下位には\xmp{コンピュータ},\xmp{iPod},\xmp{iPhone}などの小節がある.さらに小節の中には,\xmp{Macmini}や\xmp{MacBook},\xmp{MacBookAir}といった項目が存在する.以後,これらの節見出し,小節タイトル,項目名をtermと呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{19-1ia2f2.eps}\end{center}\caption{MediaWikiソースコードの例:アップルインコーポレイテッド}\label{fig:mediawiki}\end{figure}図\ref{fig:wikip-article}に示すWikipedia記事から上位下位関係候補を抽出する処理では,Wikipediaがデータベースのダンプデータとして提供しているMediaWikiソースコード(図\ref{fig:mediawiki})を利用する.MediaWikiソースコードでは,節見出し,小節タイトル,項目名を表現するために特殊な修飾記号が用いられる.例えば節見出しでは「==製品==」,項目名では「***Macmini」などの記号が用いられ,その修飾記号の種類,繰り返し数により,レイアウト構造上の上下関係が決定する.隅田らの手法では,まず,記事のレイアウト構造上の上下関係(節タイトルは小節タイトルより上位にあり,小節タイトルは項目名より上位にある)を守りながら,2つのtermから1つの上位下位関係候補を獲得する.例えば図\ref{fig:wikip-article}の場合,\isa{製品}{コンピュータ}や\isa{コンピュータ}{Macmini},\isa{製品}{Macmini}などが獲得される.次に,SVM\cite{Vapnik:1995}を用いて,獲得された上位下位関係候補を正しそうなものとそうでないものに分類する.素性として,以下に示す特徴を上位概念候補,下位概念候補から抽出して利用する.\begin{itemize}\item上位概念候補,下位概念候補の品詞.\item上位概念候補,下位概念候補に含まれる形態素.\item上位概念候補,下位概念候補の表層文字列.\item上位概念候補,下位概念候補が属性語Xに一致するか否か.(属性語として,各記事の根ノード以外のノードに出現する単語を利用.)\item上位概念候補,下位概念候補の修飾記号(``='',``*''など).\item上位概念候補と下位概念候補間のレイアウト構造上の距離.\item上位概念候補が「主な〜」,「〜のリスト」などの上位概念を表現する典型的なパターンに一致するか.\item上位概念候補と下位概念候補の末尾の1文字が一致するか.\end{itemize}訓練データは,隅田らが実験で用いたデータと同じものを使用した\footnote{この訓練データにより学習されたモデルファイルと上位下位関係獲得ツールはhttp://\linebreak[2]alaginrc.nict.go.jp/\linebreak[2]hyponymy/\linebreak[2]index.htmlで公開されている.}.このデータは,Wikipediaから獲得した上位下位関係候補から29,900対を抽出し,人手により上位下位関係か否かを判定することにより作成している.この処理を2009-09-27版のWikipediaに適用することにより,1,925,676ペアの上位下位関係を適合率90\%で獲得した.この上位下位関係をベース上位下位関係(図\ref{fig:whole-procedure}(a))と呼び,\ref{sec:proposed-method}節で説明する詳細な上位下位関係獲得の処理対象とする.階層的なレイアウトを利用する手法とは別に,隅田らは,Wikipedia記事の定義文(記事の第一文に該当)を用いた手法と,記事下部にあるカテゴリ情報を用いた手法も提案している.これらの手法では記事タイトルが下位概念として使われるため,我々が提案する記事タイトルによる上位下位関係の詳細化が適用できない.そこで,これら2つの手法により得られた上位下位関係はベース上位下位関係として用いず,\ghype{}の生成の際に用いる(\ref{sec:G-hh}節).この処理により,2009-09-27版のWikipediaからは,522,709個の記事タイトルに対して1,472,035個の上位概念を適合率90\%で獲得した. \section{詳細な上位下位関係の獲得手法\label{sec:proposed-method}} \begin{figure}[b]\begin{center}\includegraphics{19-1ia2f3.eps}\end{center}\caption{提案手法の処理の流れ}\label{fig:whole-procedure}\end{figure}\ref{sec:hh-problems}節で述べた通り,ベース上位下位関係の上位概念の中には広範囲な下位概念をカバーするものや意味的に曖昧なものが存在する.そこで本節では,ベース上位下位関係を処理対象とした詳細な上位下位関係の獲得手法について述べる.図\ref{fig:whole-procedure}に,提案手法の処理の流れの全体像を示す.まず,ベース上位下位関係の各上位概念をWikipedia記事のタイトルで詳細化し,詳細化された上位概念を元の上位概念と下位概念の間に中間ノードとして挿入する(\ref{sec:T-hh}節).以降では,Wikipedia記事のタイトルで詳細化された上位概念を\thype{}と呼ぶ.また,\thype{}を中間ノードとして挿入された上位下位関係をT-上位下位関係と呼ぶ(図\ref{fig:whole-procedure}(b)).次に,\thype{}中の記事タイトル箇所をその上位概念で抽象化する事で,元の上位概念よりは詳細だが\thype{}よりは抽象的な新たな上位概念を得る.以降では,この上位概念を\ghype{}と呼ぶ.\ghype{}は,T-上位下位関係の上から二番目,つまり元の上位概念の直下に挿入される(\ref{sec:G-hh}節).\thype{}に加え\ghype{}が挿入された上位下位関係を,これ以降,G-上位下位関係と呼ぶ(図\ref{fig:whole-procedure}(c)).なお本手法では,上位概念に関わらず,全てのベース上位下位関係を本提案手法により詳細化する.以下,各処理手順を詳しく説明する.\subsection{T-上位下位関係の獲得\label{sec:T-hh}}Wikipediaの記事に出現する節タイトル,小節タイトル,項目名などは,その記事のタイトルによって情報を補足できると考えられる.ベース上位下位関係の上位概念は,Wikipediaの記事に出現する節タイトル,小節タイトル,項目名などに対応するため,T-上位下位関係の獲得処理では,ベース上位下位関係の上位概念をWikipedia記事タイトルで情報を補い,\thype{}を生成する.上位概念を補う記事タイトルは,その上位概念と下位概念の抽出元の記事から取得する.\thype{}は,元の上位概念とWikipedia記事タイトルを,助詞「の」によって連結して生成する.例えば,上位概念\xmp{作品}と記事タイトル\xmp{黒澤明}は,助詞「の」によって連結されて\xmp{黒澤明の作品}という\thype{}になる.生成した\thype{}は,元の上位概念と下位概念の中間に挿入する.この結果,\isaThree{作品}{黒澤明の作品}{七人の侍}のように,三階層のT-上位下位関係が生成される(図\ref{fig:whole-procedure}(b)).\subsection{G-上位下位関係の獲得\label{sec:G-hh}}\thype{}は,Wikipedia記事タイトルとベース上位概念を「の」で連結して生成した.次に,\thype{}の中のWikipedia記事タイトルの箇所を,その上位概念で置き換えることによって,さらなる上位概念となる\ghype{}を生成する.例えば\xmp{黒澤明の作品}という\thype{}の場合,そのWikipedia記事タイトルの箇所である\xmp{黒澤明}を上位概念である\xmp{映画監督}で置き換えて,\xmp{映画監督の作品}という\ghype{}を生成する.\ghype{}の生成では,Wikipedia記事タイトルの上位概念が必要になる.Wikipedia記事タイトルの上位概念は,隅田らの手法のうち,\ref{sec:Base-hh}節の最後で述べた,Wikipedia記事の第一文を用いる手法と,記事下部のカテゴリ情報を用いる手法によって獲得する.例えば図\ref{fig:wikip-article}の場合,記事タイトルである\xmp{アップルインコーポレイテッド}の上位概念の候補がその第一文(「アップル社は,アメリカ合衆国...製造する多国籍企業である.」)と記事下部にあるカテゴリ情報(カリフォルニアの企業,多国籍企業,携帯電話メーカー,$\ldots$)に記載されている.これらの上位概念候補は,\ref{sec:Base-hh}節で述べたSVM分類器によって上位概念か否か判定される.生成した\ghype{}を,T-上位下位関係の中の元の上位概念と\thype{}の間に挿入し,G-上位下位関係を生成する.G-上位下位関係は,例えば\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}のように,四階層の上位下位関係となる. \section{評価実験\label{sec:evaluation}} 提案手法を評価するため,2009-09-27版の日本語Wikipediaダンプデータを対象として,提案手法によりG-上位下位関係を獲得した.表\ref{tab:ex-acquired-G-hh}に,獲得したG-上位下位関係の例を挙げる.\begin{table}[b]\caption{評価実験で獲得されたG-上位下位関係の例}\label{tab:ex-acquired-G-hh}\input{02table02.txt}\end{table}生成したG-上位下位関係から以下の三種類の上位下位関係ペアを抽出し,各ペアが上位下位関係として妥当か評価を行った(図\ref{fig:hh-kinds}).\begin{description}\item[ベース上位下位関係:]隅田らの手法により獲得した上位下位関係(例えば\isa{作品}{七人の侍})\item[\ghype{}ペア:]\ghype{}とベース上位下位関係の下位概念(例えば\isa{映画監督の作品}{七人の侍})\item[\thype{}ペア:]\thype{}とベース上位下位関係の下位概念(例えば\isa{黒澤明の作品}{七人の侍})\end{description}\begin{figure}[htb]\begin{center}\includegraphics{19-1ia2f4.eps}\end{center}\caption{評価対象の三種類の上位下位関係ペア}\label{fig:hh-kinds}\end{figure}Wikipediaダンプデータを解析した結果,1,925,676個のベース上位下位関係,6,347,472個の\ghype{}ペア,そして,2,719,441個の\thype{}ペアを獲得した.ベース上位下位関係は二記事以上に出現することがあるため,出現した記事タイトルを補うことにより生成される\thype{}ペアの数はベース上位下位関係の数より多くなる.また,2,719,441個の\thype{}ペアのうち2,113,040ペアに対しては,一つのWikipedia記事タイトルに2つ以上の上位概念が獲得されたため,\ghype{}ペアの数は\thype{}ペアの数より多い.一方,\thype{}ペアのうち342,884ペアに対しては,上位概念(Wikipedia記事タイトル)が獲得できなかったため,それらに対応する\ghype{}ペアが得られなかった.獲得したG-上位下位関係から200サンプルを評価対象として抽出し,それら200サンプルからベース上位下位関係,\thype{}ペア,\ghype{}ペアを取得した.サンプリングしたG-上位下位関係の中で,22個の\thype{}に対する上位概念が自動獲得できなかったため,これらは対応する\ghype{}ペアが得られなかった.最終的に,ベース上位下位関係として200ペア,\thype{}ペアとして200ペア,そして,\ghype{}ペアとして,サンプリングしたG-上位下位関係から抽出可能な178ペアを評価した.いずれも筆者ではない被験者三名により,これらのペアが上位下位関係として正しいかどうか評価を行った.被験者は次の三種類の評価ラベルを評価サンプルの各ペアに付与した.\begin{description}\item[Good:]上位下位関係として正しい.\item[Lessgood:]上位下位関係としては正しいが,「``下位概念''とは何?」といった質問の回答として相応しくない上位概念\item[Bad:]上位下位関係として間違っている.あるいは,上位概念または下位概念が意味不明である.\end{description}評価サンプルの各ペアに対して,被験者二名以上が選択したラベルを最終的な評価ラベルとした.被験者が三名とも異なる判断をした場合は,著者の一人によって最終的な評価ラベルを判断した\footnote{578ペアの評価サンプルのうち9ペアがこのケースに該当した.}.被験者三名による評価アノテーションのKappa値は0.58であった.これは,本評価実験の評価アノテーションにまずまずの安定性があることを示している.評価の指標として,\pagebreak次のように定義される重み付き適合率を用いた.\begin{equation}重み付き適合率=\frac{\#Good\times1+\#Less\good\times0.5+\#Bad\times0}{\#Good+\#Less\good+\#Bad}\label{formula:precision}\end{equation}ここで,$\#Good$,$\#Less\good$,$\#Bad$は,それぞれのラベル数を示す.本評価実験における重み付き適合率の計算式では,Goodラベルを1つの正解サンプルとしてカウントし,Badラベルを正解サンプルとしてはカウントしない.この点は通常の適合率の計算と同じだが,Lessgoodラベル1つにつき,0.5を正解サンプル数に追加する点が通常と異なる.この重み付き適合率の計算方法はPasca\cite{pasca2007,pasca2009}も採用している.また,Goodラベルのみを正解とした適合率の計算も行った.表\ref{tab:result-hyp}に評価結果を挙げる.この表の重み付き適合率のコラムを見ると,ベース上位下位関係,\ghype{}ペア,\thype{}ペアと,獲得される上位概念が詳細なほど重み付き適合率とGoodラベルのみを正解とした適合率が高くなっていることが読み取れる.\begin{table}[t]\caption{上位下位関係の評価結果}\label{tab:result-hyp}\input{02table03.txt}\end{table}次に,本実験におけるSVM分類器の効果について考察する.隅田らは,SVMによるフィルタリング処理を行わない場合,Wikipedia記事の階層的なレイアウト構造から獲得した上位下位関係候補の適合率は0.284であると報告している\cite{隅田:吉永:鳥澤:2009}\footnote{本実験における上位下位関係候補の獲得処理は,隅田らの手法と同じアルゴリズムを用いているため,この値が大きく変わることは無いと考えられる.}.つまり,SVMによるフィルタリング処理を行わない場合のベース上位下位関係ではGoodとLessGoodを合わせても全体の0.284しか無く,残りの候補が上位下位関係では無いと判断される.また,SVMによるフィルタリング処理を行わない場合,定義文から獲得した上位下位関係候補は0.894,カテゴリ情報からは0.705の適合率であると報告している.本提案手法でも\ghype{}を生成する際に,定義文とカテゴリ情報からフィルタリング処理を行い獲得した上位概念を使用している.このSVMによるフィルタリングの効果を明確にするため,表\ref{tab:result-hyp}と同じ実験対象に対してフィルタリング処理を行わずに\ghype{}を生成し,被験者三名による評価実験を行った.結果を表\ref{tab:result-hyp2}に示す.SVMによるフィルタリングを用いない結果(表\ref{tab:result-hyp2})は,フィルタリングを用いる結果(表\ref{tab:result-hyp})と比較して,重み付き適合率が0.157低く,SVMによるフィルタリングが効果的であることがわかる.\begin{table}[t]\caption{上位下位関係の評価結果(SVMによりフィルタリング処理を行わない場合)}\label{tab:result-hyp2}\input{02table04.txt}\end{table}表\ref{tab:result-hyp}の結果では,GoodとLessgood,Badのコラムからは,ベース上位下位関係,\ghype{}ペア,\thype{}ペアと,獲得される上位概念が詳細なペアほどLessgoodと判定されるペアが減少し,GoodあるいはBadと判定されるペアが増加する傾向にあることが読み取れる.つまり,獲得される上位概念が詳細なペアほど,詳細で正しい上位概念だけでなく,詳細だが間違っている上位概念も増加する傾向にある.詳細で正しい上位概念が増加することは,本研究の当初の狙い通りのポジティブな側面であるが,間違っている上位概念が増加するのは予期しなかったネガティブな側面である.そこで,\thype{}ペアに焦点を当てて,本提案手法による誤りの原因を次の三種類に分類した.\begin{description}\item[エラータイプ1:]ベース上位下位関係の誤りが原因となり,間違いと判定された.エラー全体の27.6\%を占める.\\例)\isa{リンチバーグのヘリテイジ高校}{ペリーモン小学校}\item[エラータイプ2:]助詞「の」が元の上位概念とWikipedia記事タイトルを連結する表現として不適切であり,その結果生成された\thype{}が意味不明なため,間違いと判定された.エラー全体の3.4\%を占める.\\例)\isa{原山理一郎のアナウンサー}{小林豊}\item[エラータイプ3:]Wikipedia記事タイトルによる詳細化によって上位概念が下位概念を包含する概念ではなくなったため(上位下位関係ではなくなったため),間違いと判定された.エラー全体の69.0\%を占める.\\例)\isa{大垣市の公共施設}{図書館}\end{description}\textbf{エラータイプ1}の例\isa{リンチバーグのヘリテイジ高校}{ペリーモン小学校}におけるベース上位下位関係は\isa{ヘリテイジ高校}{ペリーモン小学校}であるが,これは上位下位関係として間違いである.\ref{sec:Base-hh}節で述べた通り,ベース上位下位関係は隅田らの手法で獲得されるものであり,本提案手法は隅田らの手法のwrapperとして機能するため,隅田らの手法のエラーはそのまま本提案手法に引き継がれる.つまり,エラータイプ1は提案手法を原因とはしていない.\textbf{エラータイプ2}の例\isa{原山理一郎のアナウンサー}{小林豊}におけるベース上位下位関係は\isa{アナウンサー}{小林豊}であり,上位下位関係として正しい.しかし,本提案手法により,\isa{アナウンサー}{小林豊}を獲得したWikipedia記事のタイトル\xmp{原山理一郎}を元の上位概念\xmp{アナウンサー}に助詞「の」によって連結したため,\xmp{原山理一郎のアナウンサー}という意味不明な上位概念が生成された.この意味不明な上位概念が本来意味するところは\xmp{原山理一郎と同期入社のアナウンサー}である.つまり,元の上位概念とWikipedia記事タイトルを一様に助詞「の」で連結するというナイーブな手法がこのタイプのエラーの原因となっている.\textbf{エラータイプ3}の例\isa{大垣市の公共施設}{図書館}におけるベース上位下位関係は\isa{公共施設}{図書館}であり,これは上位下位関係として正しい.このベース上位下位関係を獲得したWikipedia記事のタイトルが\xmp{大垣市}である.そのため,本提案手法により\isa{大垣市の公共施設}{図書館}というT-上位下位関係が獲得された.しかし,\xmp{大垣市の公共施設}という概念は,元の上位概念である\xmp{公共施設}より詳細になってはいるが,\xmp{図書館}という概念を包含していない(大垣市の図書館以外にも図書館は存在する)ので,\isa{大垣市の公共施設}{図書館}は上位下位関係としては間違いとなる.本提案手法の間違いの中でエラータイプ3に属するものが69.0\%と多数を占める.エラータイプ3に属する不適切な上位下位関係ペアの多くは,下位概念が普通名詞によって表されるものであり,正解と判定された上位下位関係ペアは,下位概念が固有名詞によって表されるものがほとんどであった.つまり,下位概念が普通名詞で表されている上位下位関係ペアを出力から除外することでエラータイプ3に属する間違いを減らすことができると考えられる.そこで,次の条件のいずれかに合致するtermは普通名詞である可能性が高いと仮定し,下位概念が普通名詞である上位下位関係ペアを,評価サンプルのベース上位下位関係,\thype{}ペア,\ghype{}ペアから除外した.\begin{itemize}\itemWikipedia記事の節タイトル,あるいは小節タイトルとして使われているterm\item一定記事数(実験では30記事)以上に出現したterm\end{itemize}\begin{table}[b]\caption{普通名詞で表される下位概念を持つ上位下位関係を除外した場合の評価結果}\label{tab:result-hyp-filtering}\input{02table05.txt}\end{table}表\ref{tab:result-hyp}と同じ処理対象に対して,下位概念が普通名詞と判断された上位下位関係を除外した場合の評価結果を表\ref{tab:result-hyp-filtering}に示す.下位概念が普通名詞と判断された上位下位関係を除外したため,ベース上位下位関係と\thype{}では処理対象数が200ペアから150ペアに,\ghype{}では178ペアから129ペアに減少している.表\ref{tab:result-hyp}の結果と比べると,\ghype{}ペアの重み付き適合率が6.7\%,\thype{}ペアの重み付き適合率が8.4\%向上していることがわかる.しかし,全処理対象に対する獲得ペア数は,\thype{}ペアが2,719,441ペアから1,958,117ペアへ,\ghype{}ペアが6,347,472ペアから4,960,751ペアへと減少した.獲得ペア数を保ちながら重み付き適合率を向上させる手法の開発は今後の課題とする. \section{応用\label{sec:discussion}} 本節では,\ghype{}をより簡潔に言い換える手法と,T-上位概念ペアの\attval{対象}{属性}{属性値}関係としての解釈について議論する.\subsection{\ghype{}のより簡潔な表現への言い換え}\ghype{}のいくつかはより簡潔な表現に言い換えることができる.この言い換え処理が自動化できれば,本提案手法で獲得した上位下位関係を既存のシソーラスと関連づけることが可能になる.例えば,\ghype{}として生成された\xmp{映画監督の作品}は\xmp{映画}に言い換えても問題ないと考えられる\footnote{「映画監督の作品」には「小説」などの可能性もあるが,ここでは主となる言い換え対象のみを扱う.}.この言い換えにより,本提案手法で獲得した\xmp{映画監督の作品}の下位概念(映画のタイトルなどのインスタンスを含む)を既存のシソーラスの\xmp{映画}の位置に追加することができる.\begin{table}[b]\caption{\ghype{}の簡潔な言い換え表現の例}\label{tab:paraphrase-rules}\input{02table06.txt}\end{table}そこで予備実験として,本提案手法で獲得した\ghype{}のうち最頻出の20概念に対して簡潔な言い換え表現を手作業で作成し,それらによって上位概念が言い換えられたG-上位下位関係の適合率を評価した.表\ref{tab:paraphrase-rules}に,\ghype{}とその言い換え表現の例を挙げる.言い換え対象の20の\ghype{}を含む\ghype{}ペアは全部で59,890ペア,この\ghype{}に含まれる下位概念の異なり数は54,981個であった.その中から200ペアをサンプリングし,言い換え後の上位概念と下位概念のペアが上位下位関係であるか判定する実験を行った.実験では,筆者を含まない三名の被験者により判定を行い,二名以上が支持した結果を最終的な判定として使用した.三名の被験者の一致率を示すKappa値は0.674で,十分な一致率であると考えられる.実験の結果,言い換え後の上位概念と下位概念のペアが上位下位関係として正しいと判定された適合率は78.0\%であった.言い換え後の上位概念は既存のシソーラスに存在する単語を利用しているため,言い換え表現を20表現用意するだけで,異なり数54,981個の下位概念を適合率78.0\%で既存のシソーラスに追加できることがわかる.全ベース上位下位関係における下位概念異なり数は1,199,826個であり,わずか20個の言い換え表現で,下位概念全体の4.6\%をカバーしていることがわかる.今後,重複する下位概念などの情報を利用することによりこの言い換え表現を自動獲得し,カバー率を向上させることが課題となる.\subsection{T-上位概念ペアの\attval{対象}{属性}{属性値}関係としての解釈}T-上位概念ペアは,Wikipedia記事から獲得したベース上位下位関係と,そのWikipedia記事のタイトルから構成される.このWikipedia記事のタイトルとベース上位下位関係の上位概念,下位概念は,対象とその属性,属性値という3つ組として解釈することができる.例として\isa{黒澤明の作品}{七人の侍}というT-上位概念ペアを挙げる.このT-上位概念ペアでは,\xmp{黒澤明}がWikipedia記事のタイトルで,\isa{作品}{七人の侍}がその記事から獲得された元のベース上位下位関係である.この場合,\xmp{作品}と\xmp{七人の侍}を\xmp{黒澤明}という対象の属性,属性値と解釈することができる.同様に,\isa{シリコングラフィックスの製品}{IRISCrimson}というT-上位概念ペアの場合も,\xmp{製品}と\xmp{IRISCrimson}を\xmp{シリコングラフィックス}という対象の属性,属性値と解釈することができる.\ref{sec:evaluation}節にある通り本提案手法による上位概念の詳細化は高い性能を示しているが,このことは,T-上位概念ペアが\attval{対象}{属性}{属性値}関係として解釈可能であるという上記の観察結果によって,次のように説明できる.一般的に,属性は,それがどの対象の属性かを明示することで詳細化できると言える.本提案手法は,属性と上位概念のterm,対象とWikipedia記事タイトルを対応づけた上でこの一般論に倣い,上位概念のtermがどのタイトルのWikipedia記事から得られたtermかを明示することで上位概念を詳細化している.従って,どの対象かを明示することで属性を詳細化できるという一般論が正しい限りにおいて,本提案手法は正しく上位概念を詳細化できる.T-上位概念ペアが\attval{対象}{属性}{属性値}関係として解釈できるという仮説が正しいかどうかを明らかにするために,T-上位概念ペアを\attval{対象}{属性}{属性値}関係として評価した.まず,\ref{sec:evaluation}節の評価実験で使用したG-上位下位関係200サンプル(普通名詞で表される下位概念を持つ上位下位関係も含む)から,ベース上位下位関係に対応する元の上位概念と下位概念,\thype{}のWikipedia記事タイトル箇所を取り出し,\attval{Wikipedia記事タイトル}{上位概念}{下位概念}の3つ組を200個用意した.この評価データを「T-上位概念セット」と呼ぶ.これらとは別に,比較のため,隅田らの手法の処理途中で得られる上位下位関係候補(SVMで分類される前のベース上位下位関係の候補.\ref{sec:Base-hh}節を参照)と,それらの出所であるWikipedia記事のタイトルによって,\attval{Wikipedia記事タイトル}{上位概念候補}{下位概念候補}の3つ組を200個用意した.この評価データを「上位下位候補セット」と呼ぶ.2つの評価データの違いは,上位下位候補セットには上位下位関係としては不適切な上位概念と下位概念がより多く含まれているという点にある.次に,3名の被験者(いずれも著者ではない)によって,これらの3つ組が\attval{対象}{属性}{属性値}として正しいかを評価する実験を行った.評価サンプルは,T-上位概念セットの200と上位下位候補セットの200の計400である.これら400サンプルはシャッフルした上で被験者に提示した.評価の際は,次の3種類の評価ラベルを使用した.\begin{description}\item[Vital:]\attval{対象}{属性}{属性値}として適切.\item[Okay:]\attval{対象}{属性}{属性値}として適切だが,その対象にとって当該の属性,属性値は本質的なものとは言えない.\item[Wrong:]\attval{対象}{属性}{属性値}として不適切.\end{description}\ref{sec:evaluation}節の評価実験と同様,2名以上の被験者が付与したラベルを各3つ組の最終的な評価ラベルとした.もし3名の被験者が皆異なる判断をした場合,著者の一人が最終的な評価ラベルを決定した\footnote{著者の一人が評価ラベルを決めたケースは400サンプル中9サンプルであった.}.被験者3名による評価ラベリングのKappa値は0.51であり,本実験の評価ラベリングにまずまずの安定性があることを示している.重み付き適合率は,\ref{sec:evaluation}節の評価実験で使用した,式(\ref{formula:precision})と同様に,ラベルがVitalであるものを1.0,Okeyを0.5,Wrongを0として正解サンプル数をカウントして算出した\cite{pasca2007,pasca2009}.評価結果を表\ref{tab:result-attval}に示す.\begin{table}[b]\caption{T-上位概念ペアの\attval{対象}{属性}{属性値}としての評価結果}\label{tab:result-attval}\input{02table07.txt}\end{table}T-上位概念セットの\attval{対象}{属性}{属性値}関係としての重み付き適合率が94.0\%であることから,T-上位概念ペアが\attval{対象}{属性}{属性値}関係として解釈できるという仮説は正しいと考えられる.この重み付き適合率は,表\ref{tab:result-hyp}におけるT-上位下位概念ペアの重み付き適合率より高い.これは,\ref{sec:evaluation}節で述べたエラータイプ3のものが,\attval{対象}{属性}{属性値}関係としては,正しい関係と判定されることに起因する.例えば,エラータイプ3の例\attval{大垣市}{公共施設}{図書館}は,\attval{対象}{属性}{属性値}関係としては正しい.一方,上位下位候補セットの\attval{対象}{属性}{属性値}関係としての適合率は53.5\%と低い.このことは,Wikipedia記事タイトルとその記事から取り出した2つのterm(節タイトル,小節タイトル,項目名)ならどんなものでも\attval{対象}{属性}{属性値}関係として解釈できるわけではない,ということを示唆している.つまり,2つのtermが上位下位関係として適切な場合にのみ,\attval{Wikipedia記事タイトル}{上位概念のterm}{下位概念のterm}が\attval{対象}{属性}{属性値}関係として解釈できる,ということを意味している. \section{関連研究\label{sec:related-word}} 大量文書からの上位下位関係の獲得手法はこれまでに数多く提案されてきた.これらは言語表現パターンを用いるもの\cite{hearst92,ando04},クラスタリングに基づくもの\cite{pantel04,etzioni05},HTML文書の構造を利用するもの\cite{shinzato04},Wikipediaの構造を利用するもの\cite{隅田:吉永:鳥澤:2009,oh09,Yamada:EMNLP:2009}に大きく分類することができる.上位下位関係を構成する概念の詳細さの問題に取り組んだ研究は我々の知る限りHovyらの研究\cite{hovy09}のみである.Hovyらは,Doubly-AnchoredPatternと呼ばれる語彙統語パターンを用いたbootstrap手法によって,``people/Shakespeare''といった上位下位関係に中間語writersを挿入する手法を提案した.しかし彼らの手法では,あらかじめ決めた``animals''と``people''という2種類のルートコンセプトのみを対象としている.一方,本提案手法では,処理対象に制限はなく,あらゆる上位概念を扱うことができる.本提案手法ではWikipediaを知識獲得源として利用しているが,Wikipediaからの知識獲得研究は近年活発化している\cite{kazama07,ponzetto07,suchanek07,nastase08,隅田:吉永:鳥澤:2009,oh09,Yamada:EMNLP:2009}.Wikipediaからの知識獲得という文脈における本研究の新規性は,Wikipediaの百科事典としての性質を利用することで,上位下位関係としてだけではなく,\attval{対象}{属性}{属性値}関係としても解釈可能な知識を獲得する手法を開発した点にある.一般的に,\attval{対象}{属性}{属性値}関係における属性と属性値のペアは,上位下位関係と解釈できないものも多数存在する.提案手法により獲得できる\attval{対象}{属性}{属性値}関係は,その属性と属性値が上位下位関係を持つものに限定しているが,\attval{対象}{属性}{属性値}関係を大量かつ高精度に獲得している. \section{おわりに\label{sec:conclusion}} 本稿では,自動獲得した上位下位関係の上位概念を,Wikipediaの情報を利用することで,より詳細にする手法を提案した.本手法により,2,719,441個の\thype{}ペアを重み付き適合率85.3\%で,6,347,472個の\ghype{}ペアを重み付き適合率78.6\%で獲得することができた.さらに,下位概念が普通名詞である上位下位関係ペアを除く処理を行うことにより,1,958,117個の\thype{}ペアに対する重み付き適合率を93.7\%,4,960,751個の\ghype{}ペアの重み付き適合率を85.3\%に向上できることを確認した.この結果は,ベースとしている上位下位関係獲得手法\cite{隅田:吉永:鳥澤:2009}における適合率(1,925,676ペアに対して90.0\%)と比較して十分な精度であると考えられる.また,\ghype{}をより簡潔に言い換える(例えば\xmp{映画監督の作品}を\xmp{映画}に言い換える)実験を行い,わずか20個の\ghype{}の言い換え表現を作成することで,59,890個の下位概念を適合率78.0\%で既存のシソーラスに追加できる可能性があることを明らかにした.最後に,本手法で獲得した上位下位関係が,\attval{黒澤明}{作品}{七人の侍}などのように,\attval{対象}{属性}{属性値}として解釈できることについて示した.提案手法により生成した詳細な上位下位関係を使用することによって,質問応答におけるより適切な回答の生成や,「黒澤明の作品」の一覧といった「対象—属性」に対する属性値の検索が可能となる.この「対象—属性」に対する属性値の検索結果は,リスト形式の回答を求めるような質問応答のタスク\cite{Dang2006,Dang2007}でも有用となる.さらに提案手法は,上位概念を詳細化して既存のシソーラスを拡張する手法としても利用可能と考えられる.提案手法では\thype{}を生成する際,元の上位概念とWikipediaの記事タイトルを助詞「の」によって連結した.助詞「の」は多様な意味で用いることができるので,我々が実験した範囲では,この単純な方法がほとんどの場合に成功する.しかし,助詞「の」以外に,上位概念とWikipedia記事タイトルを結ぶより適切な表現が存在することもある.例えば\xmp{作品}と\xmp{黒澤明}の場合,「の」よりも「による」で連結した方が,日本語表現として適切な\thype{}を生成できる.Torisawa\cite{torisawa01}は与えられた2つの名詞を連結する最も適切な表現を選択する手法を開発した.Torisawaの手法により我々の提案手法がさらに洗練されたものになる可能性が高いが,これは今後の課題とする.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ando,Sekine,\BBA\Ishizaki}{Andoet~al.}{2004}]{ando04}Ando,M.,Sekine,S.,\BBA\Ishizaki,S.\BBOP2004\BBCP.\newblock\BBOQAutomaticExtractionofHyponymsfrom{J}apaneseNewspaperUsingLexico-syntacticPatterns.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\387--390}.\bibitem[\protect\BCAY{Dang,Lin,\BBA\Kelly}{Danget~al.}{2006}]{Dang2006}Dang,H.,Lin,J.,\BBA\Kelly,D.\BBOP2006\BBCP.\newblock\BBOQOverviewoftheTREC2006QuestionAnsweringTrack.\BBCQ\\newblockIn{\BemProceedingsoftheFifteenthTextREtrievalConference}.\bibitem[\protect\BCAY{Dang,Lin,\BBA\Kelly}{Danget~al.}{2007}]{Dang2007}Dang,H.,Lin,J.,\BBA\Kelly,D.\BBOP2007\BBCP.\newblock\BBOQOverviewoftheTREC2007QuestionAnsweringTrack.\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthTextREtrievalConference}.\bibitem[\protect\BCAY{Etzioni,Cafarella,Downey,Popescu,Shaked,Soderland,Weld,\BBA\Yates}{Etzioniet~al.}{2005}]{etzioni05}Etzioni,O.,Cafarella,M.,Downey,D.,Popescu,A.-M.,Shaked,T.,Soderland,S.,Weld,D.~S.,\BBA\Yates,A.\BBOP2005\BBCP.\newblock\BBOQUnsupervisednamed-entityextractionfromtheweb:Anexperimentalstudy.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf165}(1),\mbox{\BPGS\91--134}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{hearst92}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe14thconferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Hovy,Kozareva,\BBA\Riloff}{Hovyet~al.}{2009}]{hovy09}Hovy,E.,Kozareva,Z.,\BBA\Riloff,E.\BBOP2009\BBCP.\newblock\BBOQTowardCompletenessinConceptExtractionandClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\948--957}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2007}]{kazama07}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2007\BBCP.\newblock\BBOQExploiting{W}ikipediaasExternalKnowledgeforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{Nastase\BBA\Strube}{Nastase\BBA\Strube}{2008}]{nastase08}Nastase,V.\BBACOMMA\\BBA\Strube,M.\BBOP2008\BBCP.\newblock\BBOQDecoding{W}ikipediaCategoriesforKnowledgeAcquisition.\BBCQ\\newblockIn{\BemProceedingsofthe23rdAAAIConferenceonArtificialIntelligence(AAAI)},\mbox{\BPGS\1219--1224}.\bibitem[\protect\BCAY{Oh,Uchimoto,\BBA\Torisawa}{Ohet~al.}{2009}]{oh09}Oh,J.-H.,Uchimoto,K.,\BBA\Torisawa,K.\BBOP2009\BBCP.\newblock\BBOQBilingualCo-TrainingforMonolingualHyponymy-RelationAcquisition.\BBCQ\\newblockIn{\BemProceedingsofACL-09:IJCNLP},\mbox{\BPGS\432--440}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel04}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyandNorthAmericanCapteroftheAssociationforComputationalLinguisticsCoference(HLT-NAACL)},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pasca}{Pasca}{2007}]{pasca2007}Pasca,M.\BBOP2007\BBCP.\newblock\BBOQOrganizingandSearchingtheWorldWideWebofFacts---StepTwo:HarnessingtheWisdomoftheCrowds.\BBCQ\\newblockIn{\BemProceedingsofthe16thWorldWideWebConference(WWW)},\mbox{\BPGS\101--110}.\bibitem[\protect\BCAY{Pasca}{Pasca}{2009}]{pasca2009}Pasca,M.\BBOP2009\BBCP.\newblock\BBOQOutclassingWikipediainOpen-DomainInformationExtraction:Weakly-SupervisedAcquisitionofAttributesoverConceptualHierarchies.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceofEuropianChapteroftheAssociationofComputationalLinguistics(EACL)},\mbox{\BPGS\639--647}.\bibitem[\protect\BCAY{Ponzetto\BBA\Strube}{Ponzetto\BBA\Strube}{2007}]{ponzetto07}Ponzetto,S.~P.\BBACOMMA\\BBA\Strube,M.\BBOP2007\BBCP.\newblock\BBOQDerivingaLarge-ScaleTaxonomyfromWikipedia.\BBCQ\\newblockIn{\BemProceedingofthe22ndConferenceontheAdvancementofArtificialIntelligence(AAAI)},\mbox{\BPGS\1440--1445}.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{shinzato04}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQExtractingHyponymsofPrespecifiedHypernymsfromItemizationsandHeadingsinWebDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe20thConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\938--944}.\bibitem[\protect\BCAY{Snow,Jurafsky,\BBA\Ng}{Snowet~al.}{2005}]{snow05}Snow,R.,Jurafsky,D.,\BBA\Ng,A.~Y.\BBOP2005\BBCP.\newblock\BBOQLearningSyntacticPatternsforAutomaticHypernymDiscovery.\BBCQ\\newblockIn{\BemProceedingsoftheNeuralInformationProcessingSystems(NIPS)}.\bibitem[\protect\BCAY{Suchanek,Kasneci,\BBA\Weikum}{Suchaneket~al.}{2007}]{suchanek07}Suchanek,F.~M.,Kasneci,G.,\BBA\Weikum,G.\BBOP2007\BBCP.\newblock\BBOQ{Yago:ACoreofSemanticKnowledge}.\BBCQ\\newblockIn{\BemProceedingsofthe16thWorldWideWebConference(WWW)},\mbox{\BPGS\{697--706}}.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2001}]{torisawa01}Torisawa,K.\BBOP2001\BBCP.\newblock\BBOQAnUnsuperveisedMethodforCanonicalizationof{J}apanesePostpositions.\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium(NLPRS)},\mbox{\BPGS\211--218}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik:1995}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-VerlagNewYork,Inc.,NewYork,USA.\bibitem[\protect\BCAY{Yamada,Torisawa,Kazama,Kuroda,Murata,De~Saeger,Bond,\BBA\Sumida}{Yamadaet~al.}{2009}]{Yamada:EMNLP:2009}Yamada,I.,Torisawa,K.,Kazama,J.,Kuroda,K.,Murata,M.,De~Saeger,S.,Bond,F.,\BBA\Sumida,A.\BBOP2009\BBCP.\newblock\BBOQHypernymDiscoveryBasedonDistributionalSimilarityandHierarchicalStructures.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\929--937}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{隅田\JBA吉永\JBA鳥澤}{隅田\Jetal}{2009}]{隅田:吉永:鳥澤:2009}隅田飛鳥\JBA吉永直樹\JBA鳥澤健太郎\BBOP2009\BBCP.\newblockWikipediaの記事構造からの上位下位関係抽出.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\3--24}.\end{thebibliography}\begin{biography}\bioauthor{山田一郎}{1993年名古屋大学大学院修士課程修了.同年NHK入局.2008から2011年(独)情報通信研究機構出向.現在NHK放送技術研究所主任研究員.博士(情報科学)}\bioauthor{橋本力}{2005年京都大学情報学研究科産学官連携研究員を経て,2007年山形大学大学院理工学研究科助教,2009年より独立行政法人情報通信研究機構専攻研究員.博士(言語科学,情報学).}\bioauthor{呉鍾勲}{2005年KAIST(韓国科学技術院)電子電算学科電算学専攻博士課程卒業.同年KAIST研究員を経て,(独)情報通信研究機構に専攻研究員として着任.博士(工学).自然言語処理の研究に従事.}\bioauthor{鳥澤健太郎}{1995年東京大学大学大学院博士課程中退.同年同大学院助手.北陸先端科学技術大学院大学助教授を経て,現在,(独)情報通信研究機構情報分析研究室室長.博士(理学).日本学術振興会賞など受賞.}\bioauthor{黒田航}{現京都大学・京都工芸繊維大学(非常勤講師),早稲田大学情報教育研究所(招聘研究員).元(独)情報通信研究機構知識創成コミュニケーション研究センター言語基盤グループ研究員.京都大学から人間・環境学博士を取得.言語学の認知科学と自然言語処理と言語教育を融合する研究に従事.}\bioauthor[:]{StijnDeSaeger}{2006年北陸先端科学技術大学院大学知識科学研究科博士課程修了.博士(知識科学).北陸先端科学技術大学院大学研究員を経て,2007年に情報通信研究機構に入所.2008年にNICTMASTARプロジェクト言語基盤グループに専攻研究員として着任.自然言語処理を用いた知識獲得の研究に従事.}\bioauthor{土田正明}{2005年東京理科大学大学院修士課程修了.同年4月よりNECに入社.2009年4月から2011年3月まで(独)情報通信研究機構に出向し,現在はNECに復帰.2008年人工知能学会大会優秀賞を受賞.}\bioauthor{風間淳一}{2004年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).同年北陸先端科学技術大学院大学助手.2008年より情報通信研究機構.現在,情報分析研究室主任研究員.}\end{biography}\biodate\end{document}
V06N02-01
\section{はじめに} 音声認識技術はその発達にともなって,その適用分野を広げ,日本語においても新聞など一般の文章を認識対象とした研究が行なわれるようになった\cite{MATSUOKA,NISIMURA4}.この要因として,音素環境依存型HMMによる音響モデルの高精度化に加え,多量の言語コーパスが入手可能になった結果,文の出現確率を単語{\itN}個組の生起確率から推定する{\itN}-gramモデルが実現できるようになったことが挙げられる.日本語をはじ\breakめとして単語の概念が明確ではない言語における音声認識を実現する場合,どのような単位を認識単位として採用するかが大きな問題の1つとなる.この問題はユーザーの発声単位に制約を課す離散発声の認識システムの場合に限らない.連続音声の認識においても,ユーザーが適\break時ポーズを置くことを許容しなければならないため,やはり発声単位を考慮して認識単位を決\breakめる必要がある.従来日本語を対象とした自然言語処理では形態素単位に分割することが一般\break的であり,またその解析ツールが比較的\mbox{よく整備されていたことから{\itN}-gramモデル作成におい}ても「形態素」を単位として採用したものがほとんどである\cite{MATSUOKA,ITOHK}.しかしながら,音声認識という立場からあらためてその処理単位に要請される条件を考えなおしてみると,以下のことが考えられる.\begin{itemize}\item認識単位は発声単位と同じか,より細かい単位でなければならない.形態素はその本来の定義から言えば必ずこの条件を満たしているが,実際の形態素解析システムにおいては,複合名詞も1つの単位として登録することが普通であるし,解析上の都合から連続した付属語列のような長い単位も採用している場合があるためこの要請が満たされているとは限らない.\item長い認識単位を採用する方が,音響上の識別能力という観点からは望ましい.つまり連続して発声される可能性が高い部分については,それ自身を認識単位としてもっておく方がよい.\item言語モデルを構築するためには,多量のテキストを認識単位に分割する必要があり,処理の多くが自動化できなければ実用的ではない.\end{itemize}これらは,言い換えれば人間が発声のさいに分割する(可能性がある)単位のMinimumCoverSetを求めることに帰着する.人が感覚的にある単位だと判断する\mbox{日本語トークンについて考}察した研究は過去にも存在する.原田\cite{HARADA}は人が文節という単位について一貫した概念を持っているかについて調査し,区切られた箇所の平均一致率が76\%であり付属語については多くの揺れがあったと報告している.また横田,藤崎\cite{YOKOTA}は人が短時間に認識できる文字数とその時間との関係から人の認知単位を求め,その単位を解析にも用いることを提案している.しかしながら,これらの研究はいずれも目的が異なり,音声認識を考慮したものではない.そこで,われわれは,人が潜在意識としてもつ単語単位を形態素レベルのパラメータでモデル化するとともに,そのモデルに基づいて文を分割,{\itN}-gramモデルを作成する手法を提案し,認識率の観点からみて有効であることを示した\cite{NISIMURA3}.本論文では主として言語処理上の観点からこの単語単位{\itN}-gramモデルを考察し,必要な語彙数,コーパスの量とパープレキシティの関係を明らかにする.とくに新聞よりも「話し言葉」に近いと考えられるパソコン通信の電子会議室から収集した文章を対象に加え,新聞との違いについて実験結果を述べる. \section{単語単位への分割} 本節ではわれわれが採用した単語単位と,同単位への分割手法について述べる.\par日本語を分割して発声する場合,その分割点はきわめて安定している点と,人,または時によって分割されたりされなかったりする不安定な点がある.例として「私は計測器のテストを行っています.」という文を考えよう.これは形態素解析により,たとえば\[\hspace{-6mm}私\:+\:は\:+\:計測\:+\:器\:+\:の\:+\:テスト\:+\:\\を\:+\:行\:+\:っ\:+\:て\:+\:い\:+\:ます\:+\:.\]と分割されるが,動詞の活用語尾である「っ」や接続助詞の「て」はほぼ確実に「行」と結合して「行って」と発声されるのに対し,接辞である「器」は分割される場合もあれば,結合されることもあるだろう.そこで文がある位置で「分割」される確率を形態素のレベルでモデル化することを考える.そして人が分割した学習用テキストと同じテキストを形態素解析により分割した結果を照合し,各形態素の遷移ごとに当該点で分割される確率を得る.その後,より大量のテキストをそのモデルに基づいて分割すれば(このプログラムを以後セグメントシミュレータと呼ぶ),人が分割した傾向をもったわかち書きテキストを容易に得られる.\par「分割」される位置としては,形態素の境界(形態素単位への分割)と\mbox{さらに細かく形態素の}途中(文字単位への分割)がある.ここで分割記号として$\sharp$を使用し,\mbox{「分割」は記号「$\sharp$」が生起}し,「結合」は「NULL」が生起すると考えれば,前者はある形態素から別の形態素に遷移したときにその間に「$\sharp$」が生起する確率として\[\hspace{-5mm}P(\sharp_i\midMorpheme_i\rightarrowMorpheme_{i+1})\]となる.後者のそれは$Morpheme$を文字列$C_1C_2,\ldots,C_n$で表すと,\mbox{その{\itj}番目の文字の後に$\sharp$}が生起する確率と考えれば\[\hspace{-5mm}P(\sharp_j\midMorpheme,\:C_j\rightarrowC_{j+1})\]と表現できる.モデルのパラメータ(形態素の属性)としては,\mbox{品詞情報({\itKoW}),連接属性(Part}ofSpeech:{\itPoS}),,そして表記({\itString})を採用し,$(KoW[PoS],String)$と表現する.ここで品詞,連接属性とはわれわれの用いた形態素解析プログラム\cite{MARUYAMA}の出力として得られるものであり,品詞は81,連接属性は119に分類されている\footnote{品詞情報は学校文法でいう品詞分類(「動詞」「助動詞」など)に相当するが,解析の都合上一般にその品詞であると認められていない形態素に当該品詞を割り当てている場合がある.その場合は,後の処理のため同じ品詞でも単に「助動詞」とするのではなく「助動詞A」のように区別しており,結果的に種類が増大している.また連接属性は品詞を活用型などによりさらに詳細分類したもので,たとえば動詞は17種類に分類されている.意味からすれば品詞情報を{\itPoS}(PartofSpeech)とすべきであろうが,ここでは文献\cite{MARUYAMA}の記法にしたがった.}.したがって\mbox{形態素単位の分割}では6個,文字単位への分割では4個のパラメータで記述されることになるが,そうすると明らかに多量の学習用テキスト(人が分割したもの)が必要となる.そこで頻度が閾値以下であるような場合については,パラメータを特定の順序で縮退させた確率値を用意しセグメントシミュレータの実行時も,確率が記述されているレベルまで同様の順序で縮退し,当該確率値で代用することを考える.縮退の順序にはさまざまなものが考えられるが,モデルのパラメータについてその種類数を考えると表記,連接属性,品詞の順に少なくなることは明らかであり,縮退もそれにしたがうのが妥当であろう.また基本的にはある出現回数を閾値としたときより多くの種類の遷移確率が得られることが望ましい.このような観点からいくつかの予備実験を行い経験的に縮退順序を決定した.この順序と参照される確率値を木構造で表現したのが図\ref{FIG:STATTREE}である.各ノードには形態素の属性とその属性が満たされた場合に分割される確率が対応する.たとえば図\ref{FIG:STATTREE}中\[\hspace{-5mm}P(\sharp\midV.\:infl.[29]\rightarrowConj.\:p.p.[69],\:て)\]は形態素単位への分割に対する記述例で,形態素の属性が動詞活用語尾[29]から接続助詞[69]「て」へ遷移したときに,その間で分割される確率を意味する\footnote{{\itV.infl.}はVerbinflection,{\itConj.p.p.}はConjunctivepost-positionalparticleの略.}.\begin{figure}[htb]\begin{center}\epsfile{file=signl96.fig2.ps,width=12cm}\caption{セグメントシミュレータにおけるパラメータ縮退の順序}\label{FIG:STATTREE}\end{center}\end{figure}\mbox{1つ上のレベルでは,表記(こ}こでは「て」)が省略される.ただし品詞が名詞の場合には文字数が分割確率を記述するパラメータとして有効と考えられるので\footnote{「誤認識」が「誤」「認識」と分割されるよりは「音声認識」が「音声」「認識」となりやすいなど.},\mbox{表記を省略した場合,文字数をパラメータとして残し}た.さらに上位レベルでは,連接属性番号も省略し,\mbox{品詞{\itV.infl.}から{\itConj.p.p.}への遷移に対}\mbox{して,人が分割する確率を記述する.}たとえば,「積んで」という文節を形態素に分割すると\[\hspace{-5mm}積(Verb[8])\:+\:ん(V.\:infl[30])\:+\:で(Conj.\:p.p.[69])\]となるが,その中に現れる「ん」と「で」の間で分割されたカウント等もマージした上で算出された確率となる.このように木はリーフから上位のノードに行くにしたがって縮退されたパラメータ,言い換えればより大まかなパラメータとなる.\par一方,前節で述べたように人は形態素として定義されたトークンをさらに文字単位で分割する場合もある.これは形態素解析の都合上連続した付属語列を1つの形態素としてとり扱うことが行なわれるためである.たとえばわれわれの用いた形態素解析用文法では「...かどうか」という付属語列が助詞として扱われているが「か」+「どうか」と分割されることもある.そこで形態素レベルの分割よりもさらに詳細なレベルとして,文字レベルの分割をモデル化した.このような確率木はつぎのように構成することができる.つまりもっとも細かい分類における各パラメータについて,人が分割した結果と形態素解析の結果を照合してカウントし,その値をリーフから上位ノードに伝搬させた後,確率値に正規化すればよい.全カウント数が少ないと当該確率(推定値)の信頼性が低いので,カウント,マージ作業を行なって,頻度がある閾値以上のノードを最終的なノードとして採用することにする.\parこのモデル化では学習データの量に応じて,そのデータから得られる情報を最大限に利用することができる.たとえば,2文字漢語から接尾辞への遷移には,非常に多くのものがあるが,その分割されやすさは接尾辞の種類によって異り,それらを捨象してモデル化したのでは,あいまいさが大きくなってしまう.しかし逆にそのすべてを細分化したのでは,頻度が低い接尾辞に対するルールが得られないか,または信頼性の低い確率推定値となってしまう.本手法によれば学習データ中に頻度が高いものについてはより細かい分類でモデル化され,頻度が下るにしたがって統計として信頼にたる単位まで縮退されたパラメータによる確率値が得られることになる. \section{形態素解析プログラムの変更} \subsection{現代語書き言葉以外の表現への文法の対応}形態素解析システムは,一般に新聞記事に代表される現代語書き言葉を処理できるように開発されてきた.しかし近年,データとして使用されるコーパスの大規模化に伴い,現代語書き言葉以外の表現,特に,会話風の表現(以下,口語体と示す)を扱う試みが増加してきた\cite{KURO}.われわれが従来使用してきた形態素解析の\mbox{文法規則\cite{MARUYAMA}}\mbox{も,原則として}現代語書き言葉に対応したもので,\mbox{口語体への対応は十分ではない.一方本研}究で用いる学習用テキストは新聞に限らず,パソコン通信の投稿テキストが含まれており,口語体への対応なくしては充分な精度の解析結果を得ることができない.以下の点を考慮して,より多様な文に対応できるよう形態素解析の文法を記述した.\begin{itemize}\item元の文法に対する変更を少なくして派生的な影響を抑える.\\口語体によく現れる縮退形で,五段活用連用形に接続する「ちゃ」には,接続助詞「て」および係助詞「は」の連なり「ては」の縮退と(例:書い{\bfちゃ}いけない)と,接続助詞「て」および補助動詞「しまう」の語幹の連なり「てしま」の縮退(例:書い{\bfちゃ}う)とがある.前者は直後で文節を切ることができる非活用語,後者はワア行五段活用をするので,ワア行五段活用語尾が接続し,かつ直後で文節末に遷移できる「ちゃ」という形態素の規則を作成すれば形態素解析処理を行うことができる\cite{KURO}.しかし,品詞や活用形を単語分割モデルで利用すると,「ちゃ」に品詞として接続助詞を付与すれば「接続助詞にワア行五段活用語尾が接続する」という一般化が,また動詞を付与すれば「五段動詞語幹が文節末に遷移する」という一般化が行なわれかねない.これを避けるには,「ちゃ」に新たな品詞を付与するか,または「ちゃ」に二種類あるとするという対応が考えられるがわれわれは後者の方法を採った.形態素解析としては前者が望ましいと思われるが,後の単語分割モデルに影響を及ぼす可能性がある場合は,元の文法規則への影響がより少ないものを採用した.また,文語活用の残存形などで,現代語活用に全く同じ形があるものについては,現代語活用の形態素に接続条件を加えて対処した.\item縮退形の品詞付与では元の形態素列のうち活用語尾や自立語がもつ品詞を優先する.\\形容詞仮定形活用語尾「けれ」および接続助詞「ば」の連なりの縮退である「きゃ」「けりゃ」の前連接属性は「けれ」,後連接属性は「ば」にほぼ等しい.こうした縮退形の品詞は,元の形態素列のもつ連接属性のうち活用語尾や自立語のものを優先して付与した\cite{OGINO}.\item省略による空文字列は次形態素への遷移を追加して対処する.\\「勉強しよ」「読も」などのように形態素末が落ちる縮退の場合,前者は助動詞「よう」の縮退「よ」を定義すればよいが,後者は助動詞「う」そのものが脱落しているので,動詞未然形から「う」の次の形態素への遷移を追加して対処する.\end{itemize}\subsection{複合名詞の分割}形態素解析の辞書には,現在までの使用目的に応じて複合語が一語扱いで登録されていることが多いが,単語分割モデル構築のための形態素解析としては短単位に分割されていた方が都合がよい.そこで,複合語の中でも特に多い複合名詞を分割対象として,分割データベースとヒューリスティック規則により,形態素解析で複合名詞分割を行なうことにした.複合名詞の分割データベースは,2カ月分の新聞記事(産経新聞)を形態素解析して\mbox{その結果から一定以上}の頻度で出現する3文字以上の名詞を抜き出した後,人手で,分割する位置の情報を付与することにより作成した.このデータベースには約25,000語の複合名詞が含まれている.ヒューリスティック規則は,以下の条件を満たすように作成した.\begin{itemize}\item1語の名詞よりも2語以上の名詞連続のコストが小さい.\\名詞連続中では,2語のコストがもっとも小さく,次第にコストが\mbox{増大するように設定す}る.これは複合名詞を分割する際,あまり細かく切り過ぎないようにするためである.\item1文字名詞は他の名詞に比べてコストが大きい.\\上記と同様,過分割を防ぐためである.\item分割対象は3文字以上の複合名詞とする.\\1文字ずつに過分割しないためである.\item未知語のコストは1語の名詞より大きい.\end{itemize}\vspace*{3mm}また,分割の結果に3文字以上の名詞が含まれている場合は,再帰的にそれを分割し,分割が不可能になるまで繰り返す. \section{分割モデルの作成と分割過程} \vspace{-1mm}\subsection{分割確率の推定}分割ルールとその確率を推定するため,計17人の被験者\mbox{により,新聞5カ月分(日経新聞3}カ月および産経新聞2カ月)\mbox{,日本語用例集(合計約26,000文),そしてパソコン通信「ピープ}ル」の電子会議室(以下電子会議室)\mbox{から採取した文章(約9,500文)を分割する作業を行った}\footnote{文選択は文の長さが一定の範囲に入っていることを除けば無作為に行なった.また被験者には1.不自然にならない限り,より細かく分割すること2.書かれた文章ではなく発声する場合の分割点を回答することという指示を与えた.}.\par新聞や日本語用例集はいわゆる「書き言葉」のスタイルであるのに比較して電子会議室の文章はより口語体に近く,これらは分割モデルにも影響を与える可能性がある.そこで両者のデータは別々に取り扱って分割モデル(確率木)を構成した.その結果前者は2,829個,後者は2,269個のノードからなる木が得られた.表\ref{TBL:RULES}に一例を示す.ただしノードとして採用するか否かの閾値には当該ノードの出現回数(カウント)を用い,その値は学習データ中の単語数に比例させた\footnote{新聞データの場合で50である.}.\begin{table}[t]\begin{center}\caption{生成された木に記述された分割確率の例(新聞データから得られたもの)}\label{TBL:RULES}\begin{tabular}{lr}\hlineパラメータ値&分割確率\\\hline$名詞[19]\rightarrow名詞[19],「者」$&0.33\\$名詞[19]\rightarrow名詞[19],「人」$&0.71\\$名詞[19]\rightarrow形容動詞[18],「的」$&0.36\\$動詞活用語尾[29]\rightarrow接続助詞[69],「て」$&0.03\\$名詞[19]\rightarrow格助詞[77],「を」$&1.0\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\epsfile{file=16.eps}\vspace{6mm}\caption{確率木のノード数}\label{FIG:CMPSTAT}\end{center}\end{figure}2つの確率木について得られたノードをいずれに含まれるかで分類し数を示したものが図\ref{FIG:CMPSTAT}である.得られたノードは,かなりの異なりがあることがわかる.\mbox{たとえば電子会議室}データから得られた確率木にのみ存在するノードの中で出現回数の多いものから上位3個\footnote{遷移後の表記$String$が縮退していないレベルのものに限った.}をあげると以下のようになる.\begin{tabbing}xxx\=xxxxxxxxxxxxxxxxx\=xxxxxx\=xxxxxxxxxxxxxxxxx\=\kill1.\>$接続助詞[69]$\>$\rightarrow$\>$活用語尾[31]「る」$\\2.\>$助動詞[62]$\>$\rightarrow$\>$接続助詞[73]「が」$\\3.\>$助動詞[48]$\>$\rightarrow$\>$接続助詞[73]「けど」$\\\end{tabbing}\parこれらの遷移を含む例文を上げると1.読ん+で+{\bfる},2....です+{\bfが},3....だ+{\bfけど}などであり,明らかに口語体特有の言い回しに伴う遷移が抽出されている.一方新聞データから学習し\breakた確率木にのみ存在するノードをみると体言止め\mbox{に伴う遷移($サ変動名詞[13]\:\rightarrow\:句点[100]「.」$}i.e.「...を議論+.」)や漢語の接辞($名詞[19]\:\rightarrow\:接辞[19],「会」$)\mbox{など直感的にも電子会議室}等の文章では比較的頻度が低いと考えられるものが多かった.\mbox{また両方の確率木に共通して出}\mbox{現しているノード1,607個}について分割確率の\mbox{相関係数を求めたところ0.980となりきわめて高}\mbox{い.したがって共通するノードに}ついてはほとんど違いはなく,2つの確率木の違いはノードつまりルールそのものに現れていることがわかった.\parこれらのモデルに基づいて以下のように多量の(形態素解析された)テキストを分割・統合する.\begin{enumerate}\item各形態素およびその遷移について,連接属性番号,品詞,形態素の表記を得て,確率木のリーフに記述があるかどうかを調べる.\itemなければ,木作成の説明で述べた順にパラメータ値を縮退させ,確率木に記述があるかどうかを調べる.\begin{itemize}\item記述があれば,0から1の範囲の乱数を発生し,その値がノードに付随する確率以下であれば当該位置で分割し,そうでない場合は分割しない.\item記述がなければ,縮退を繰り返す.\end{itemize}\itemもっとも上位のノードにも該当しない場合,形態素の分割点であれば当該位置で分割し,それ以外は分割しない.\end{enumerate}なお{\itN}-gramモデル作成には,乱数による分割処理(セグメントシミュレータ)は必ずしも必要ではなく,形態素解析の結果と分割確率を使って\mbox{直接各{\itN}-gramの生起確率を推定することも可}能である.\subsection{単語カバレージ}\begin{figure}[htb]\begin{center}\epsfile{file=signl96.fig3.ps,width=14cm}\caption{日経新聞3ヵ月のテキストに対する単語数とカバレージ}\label{FIG:COVERAGE}\end{center}\end{figure}われわれの提案した単語単位に基づく語彙を作成するための予備実験として日経新聞3カ月分(合計446,079文)を用い,前節の手続きを適用して分割,\mbox{連結を行う実験を行った.西村ら}の報告\cite{NISIMURA}によれば形態素を単位とした場合,\mbox{約97\%はおよそ3カ月分のテ}キストで収集できる(言い換えれば飽和する)ことがわかっている.\mbox{その結果を図\ref{FIG:COVERAGE}に示す.単}語は合計で約$10^{7}$個,のべ216,904種類の単語が生成された.図はそれらを頻度の高いのものから順にとった場合のカバレージを示している.ただし数字表現,姓名はカウントから除いている.一方同じテキストから形態素は132,164個が生成された.これによれば単語単位を採用す\breakると,形態素よりはより多くの種類が必要ではあるものの,決して発散するものではなく,た\breakとえば上位約25,000個(種類)の単語で全トークンの約95\%がカバーでき,\mbox{取り扱いが可能な語}彙数であることがわかる.\parこのとき確率木の各ノード(ルール)がどのような割合で使われたかを示したのが表\ref{TBL:USEDRULE}である.表から明らかなように全体の約60\%の場合には,一番詳細なレベルのルールが適用されていることがわかる.\begin{table}[htb]\begin{center}\caption{適用されたノードの比率(階層別)}\label{TBL:USEDRULE}\begin{tabular}{lr}\hlineパラメータ値&比率(\%)\\\hline$P(\sharp\midKoW_{1}[PoS_{1}]\rightarrowKoW_{2}[PoS_{2}],String)$&59.6\\$P(\sharp\midKoW_{1}[PoS_{1}]\rightarrowKoW_{2}[PoS_{2}])$&29.2\\$P(\sharp\midKoW_{1}\rightarrowKoW_{2})$&3.9\\$P(\sharp\midKoW_{2})$&6.6\\該当なし&0.7\\\hline\end{tabular}\end{center}\end{table} \section{語彙とコーパス} \subsection{コーパスの前処理}用意したコーパスのソースは日経新聞(93年から96年),\mbox{産経新聞(92年10月から97年),}毎日新聞(91年と92年),EDRコーパス\cite{EDR},\mbox{そしてパソコン通信「ピープル」に投}稿された電子会議室の記事である.ただし日経,産経の両紙は示した期間のすべてではなく,月単位で時期が重複しないように選択したサブセットである.新聞についてはその本文を句点単位で文として取り出し,前節で述べた処理を行った.ただし数字については形態素解析で1単語(品詞「数字」)として扱われてしまうので当該トークンをすべて桁付きの漢数字に変換した後,西村\cite{NISIMURA3}に記載された数字の読み上げ単位に合わせて分割した.すなわち整数については「十,百,千,万,億」を位と定義し先行する数字と位で1つの単位として取り扱い,小数点以下の位については1桁づつに分割する.たとえば1234.56は「千」「二百」「三十」「四」「・」「五」「六」と変換・分割されることになる\footnote{電子会議室の文章では電話番号やID番号にともなう数字があり,これらは位付きで読むことに適さない.そこでルールでそれらに該当すると判断した場合は1桁づつに分割した.}.\par一方ディクテーションのアプリケーションや一般ユーザーが入力するであろう文,言い回しを考えると新聞だけでは明らかに不足である.そこでより口語体に近いデータとしてパソコン通信「ピープル」から約90の電子会議室に投稿されたテキストを用意した.会議室・話題の種類そして投稿時期について特に恣意的な選択は行っていないが,結果としてはパソコン関連の話題が多く,テキスト量でみて約半分を占めている.電子会議室の投稿文は文ばかりではなく,文字を利用した表,絵などが多数含まれている他,他人の記述を引用する場合が多く,これらを含めてしまったのでは学習用コーパスとして不適切であることは明らかである.そこでルールベースでこれらをとり除くフィルターを作成した.主なルールとしては以下のようなものがある.\begin{itemize}\item引用記号(「>>」など)をもとに引用部分だと判断した行は除く.\item記号文字(「−」「*」など)の一定以上の繰り返しを含む行は除く.\itemフェースマーク(「:-)」など)のリストを作成し,それにマッチした箇所は特別な1個の記号に置き換え,未知語の扱いとする.\end{itemize}このフィルターを通した後,句点に加え空白行,一定数以上の連続した空白を手がかりとして文を取り出し,形態素解析,セグメントシミュレータの処理を行った.\vspace{-2mm}\subsection{語彙の作成}\vspace{-1mm}以上の分割済みテキストの内,日経新聞,産経新聞,EDR,そして電子会議室について,95\%以上のカバレージをもつ語彙を作成したところ,約44,000語の単語からなるセット(44K語\break彙)が得られた.このようにして得られた語彙は,人が日本語について単語単位だと感覚的に思うセットを示していると考えられる.たとえば「行う」という動詞とその後続の付属語列からは\smallskip\begin{tabbing}xxx\=xxxxxxxxxxxxxxx\=xxxxxxxxxxxxxxx\=xxxxxxxxxxxxxxx\=\kill\>行い\>行いたい\>行う\\\>行うべき\>行え\>行えば\\\>行える\>行った\>行ったら\\\>行って\>行っても\>\\\end{tabbing}の計11単語が生成された.また「たい」や「べき」といった単語も生成されており,分割に揺れがある部分では複数の分割に対応した単語が得られることがわかる.\subsection{学習コーパス文の選択}前節の結果得られた各文は局所的に見ると記号ばかりであったり,姓名の列挙部分であったりして学習コーパスには適さないものが含まれている.また電子会議室のテキストはフィルターのルールでカバーしきれなかった部分で単語ではないトークンが無視できない程度に生じていた.このような文については人手で採用するかどうかを決める,あるいは当該部分を除くことが望ましいが,多量のコーパスについてそのような作業を行うのは不可能なため,ここでは以下の条件のいずれかに当てはまる文は採用しないことにした.\begin{itemize}\item2単語以下から構成される文\item文の単語数に対する記号の数が一定以上の文\item44K語彙に対して未知語の数が一定以上の割合で含まれる文\end{itemize}音声認識用のコーパスにおいて句読点や括弧表現をどのように取り扱うべきかについてはさまざまな議論がある.松岡ら\cite{MATSUOKA}はカギ括弧以外の括弧(()【】など)について内容ごと削除しており,伊藤ら\cite{ITOHK}は括弧の用いられ方(引用,強調など)に応じて削除すべきかどうかを自動判別している.括弧による表現には確かに読み上げに適さないものも含まれているが,本研究では文章入力手段としての音声認識システムの構築を重視し,これらを削除しないことにした.また同じ理由で句読点も削除していない.その結果得られた文の数をソース別に示す(表\ref{TBL:SOURCE}).\begin{table}[htb]\caption{ソース別のテキストサイズ(文と形態素の数,Kは1,000,Mは100万を意味する)}\label{TBL:SOURCE}\begin{center}\begin{tabular}{lrr}\hlineソース&文数(K)&形態素数(M)\\\hline日経新聞&715&20.9\\産経新聞&1,837&49.4\\毎日新聞&1,401&41.4\\EDR&169&4.4\\電子会議室&1,565&33.6\\\hline\end{tabular}\end{center}\end{table} \section{単語単位による言語モデル} 前節にしたがって単語単位に分割されたテキストを学習データとして{\itN}-gramモデルを学習するわけであるが,生起確率の計算上考慮すべきこととして数字,時刻などとくに各単語に確率上の差をつけるべき理由がないもの,および意味がまったく同じでありながら表記の異なる揺らぎが生じているものの取り扱いがある.前者については各単語をクラスにまとめて確率を計算することにし,合計36クラス作成した.後者は新聞の場合,用語統一がなされているため影響は少ないと考えられるが,電子会議室のテキストでは「コンピュータ」と「コンピューター」,「組み合わせ」と「組合せ」といった単語は両者とも多数含まれており明らかに無視できない.そこで44K語彙について「読み」をもとに同義語の候補を抽出した上でチェックを行い,約1,800エントリの別名リストを作成した.{\itN}-gramをカウントするさい,このリストを参照して1つの表記に統一した上で学習を行っている.\par一方,テストデータとして新聞3種類,電子会議室のテキストを別に用意し,被験者(単語分割モデルの学習データを作成した\mbox{被験者とは異なる)により分割を行なった.テストデータ}のそれぞれについて文数,形態素数,単語数,そして44K語彙のカバレージを表\ref{TBL:TESTDATA}に示す.この表から1文あたりの単語数は形態素数に比較して12-19\%程度少なくなることがわかる.\begin{table}[t]\begin{center}\caption{テストデータにおける諸元({\itイタリック}は1文あたりの平均数)}\label{TBL:TESTDATA}\begin{tabular}{lrrrr}\hline&文数&形態素数&単語数&カバレージ(\%)\\\hline日経新聞&600&21,378&18,725&98.3\\&&{\it35.6}&{\it31.2}&\\毎日新聞&725&22,051&18,608&96.1\\&&{\it30.4}&{\it25.7}&\\産経新聞&775&21,702&17,751&96.0\\&&{\it28.0}&{\it22.9}&\\電子会議室&1,381&29,979&24,204&94.4\\&&{\it21.7}&{\it17.5}&\\\hline\end{tabular}\end{center}\end{table}\mbox{本実}験の目的は\begin{itemize}\item単語を単位とした{\itN}-gramモデルの有効性,コーパスの必要量を評価する.\item新聞と電子会議室において単語{\itN}-gramモデルから見た違いを明らかにする.\end{itemize}の2点である.そこで新聞,電子会議室のそれぞれについてその種類,時期の違いを捨象するため,全学習データを文単位でシャッフルした上で8個に分割したサブセット(新聞:N-1,..,8,電子会議室F-1,...,8)を作成した.そして各サブセットをさらに95\%と5\%の比率で分割し前者を{\itN}-gramカウント,後者をHeld-out補間のパラメータ学習用に用いた.\par\begin{figure}[htb]\begin{center}\epsfile{file=perpnewsc.eps,width=11cm}\caption{新聞データから学習したモデルのテストセットパープレキシティ}\label{FIG:PERPNEWS}\end{center}\end{figure}まず新聞について学習データ(N-1,..,8)を順に増加させながら言語モデルを作成し,各モデルをテストセットパープレキシティで評価した.ただし学習データに1回でも出現した{\itN}-gram(trigramまで)は\mbox{すべて使用しており,また未知語部分については予測を行っていない.結果}を図\ref{FIG:PERPNEWS}に示す(電子会議室に関するデータは「Forum」と表記している).予想されるようにいずれのテストデータでも学習コーパスの増加にともなってパープレキシティは緩やかに改善されるが次第に飽和する傾向がみてとれ,いずれの場合も学習データセットを7個から8個に増やしたときのパープレキシティの改善率は1-2\%程度でしかない.パープレキシティの絶対値には相当の差があり,新聞といってもひとくくりにできないことは明らかだが\footnote{コーパスの量では産経新聞が一番多く,学習データ量でとくに不利に扱われたとは考えにくい.},その値(100-170)は音響識別上対応可能な値であると考えられる\cite{NISIMURA4}.一方電子会議室のテストデータはもっとも良いケースでも400以上のパープレキシティを示しており新聞の学習データだけでは対応できていないことがわかる.\begin{figure}[htb]\begin{center}\epsfile{file=perpforum2c.eps,width=11cm}\caption{混合した電子会議室データのサイズとテストセットパープレキシティ}\label{FIG:PERPFORUM}\end{center}\end{figure}\begin{figure}[htb]\vspace*{4mm}\begin{center}\epsfile{file=ngramsc.eps,width=11cm}\caption{学習データサイズと{\itN}-gramの異なり数(新聞)}\label{FIG:NGRAM}\vspace{-3mm}\end{center}\end{figure}\parわれわれの目的は新聞にとどまらず,より口語体に近い電子会議室に投稿される文にも対\mbox{応できる言語モデルを作成することである.}そこで新聞データすべてを使用した言語モデルをベースとし,電子会議室の学習データ(F-1,..,8)を加えていくことにより各テストデータのパープレキシティがどのようになるかを評価した.結果を図\ref{FIG:PERPFORUM}に示す.\mbox{この結果,電子会議室につい}\mbox{てそのパープレキシティは改善される一方,}使用したデータ量の範囲(約25M単語)では,新聞に対する影響はほとんどなかった\footnote{細かく見れば,産経新聞はさらに改善されるのに対し,日経新聞はわずかながら悪くなる傾向があり,新聞間の差を示唆している.}.一方電子会議室\mbox{のみから作成した言語モデルで(電子会議}室の)テストデータを評価すると152.1\mbox{であり,若干の差は見られるものの,混合学習データか}ら作成した言語モデルは新聞・電子会議室の双方に対応できることがわかる.これは双方の統計的異なりが共通している{\itN}-gramの確率が相違しているというよりも,{\itN}-gramの種類に,より大きく現れていることを示唆している.\par一方コーパスのサイズと結果として得られたモデルのサイズ,すなわち{\itN}-gramの異なり数\mbox{の関係を見たのが図\ref{FIG:NGRAM}である.}これは新聞データ(N-1,..,8)の場合であるが,bigram,trigramとも飽和する傾向は見てとれない.電子会議室テキストを加えた場合も同様でN-1,...,8,F-1,...,8すべてを学習データに使用した場合の\hspace{-0.1mm}{\itN}-gram\hspace{-0.1mm}数は\hspace{-0.1mm}trigram\hspace{-0.1mm}が31M個,bigramが5.6M個に達し\breakた.とくにtrigramは学習データサイズの増分に対しほとんど比例して増加している.今後主\break記憶,外部記憶の容量がさらに増加するとしてもこの{\itN}-gram数(異なり)のままでは,実装することが難しい.そこで{\itN}-gramの中で低頻度のものを除くことが,パープレキシティにどのような影響を与えるかを検証する実験を行った.結果を図\ref{FIG:SMALLLM}に示す.{\itN}-gramの異なりの多くを占めるのはtrigramなので,学習データはN-1,...,8,F-1,...,8すべてを使用した上で,言語モデルを作成するとき\hspace{-0.1mm}trigram\hspace{-0.1mm}の最低出現回数を設定することにより,\mbox{モデルのサイズを変更してい}る.図から\hspace{-0.05mm}trigram\hspace{-0.05mm}の異なり数が\hspace{-0.05mm}5M\hspace{-0.05mm}個以下になるとパープレキシティが\mbox{急速に悪くなる傾向が}見てとれるが,一方モデルサイズを1/3〜1/5にした程度ではパープレキシティの差は小さいことがわかる\footnote{ここでは,言語モデルに含める最低出現回数を1,...,8に設定している.グラフから出現回数1のものを除くだけでtrigramの異なり数は31M個から9M個に減少することがわかる.}.\begin{figure}[htb]\begin{center}\epsfile{file=perpsmallc.eps,width=11cm}\caption{trigramの異なり数とテストセットパープレキシティ}\label{FIG:SMALLLM}\end{center}\end{figure} \section{おわりに} このように,本研究では比較的少量の人による分割データから揺らぎを含めた分割傾向を推定する手法について述べ,新聞およびパソコン通信の電子会議室を学習データとして,そのモデルからつくられた単語の集合と言語モデルについて考察した.結果として,人が単語と意識する単位はその揺らぎを含めても発散することはなく,約\hspace{-0.05mm}44K\hspace{-0.05mm}で\hspace{-0.05mm}94-98\%\hspace{-0.05mm}\mbox{程度のカバレージが}得られること,形態素に比較して1文あたりの要素数が12-19\%程度減少すること,電子会議室と新聞では,{\itN}-gramモデルからみた統計量に相当の差があり,予想されたように新聞単体では十分に対応できないものの,新聞をベースとして電子会議室のテキストを混合させたデータから作成した言語モデルは新聞のテストデータに対するパープレキシティを増大させることはほとんどなくその双方に対応可能であることがわかった.分割モデル,{\itN}-gramモデルのいずれも,データの種類(新聞,パソコン通信)に依存している.これ自体は容易に予想できることであるが,その異なりが共通する事象の確率が異なるというよりも事象自体の異なりにより大きく現れていることは興味深い.\par形態素との効率比較という意味では,同一学習データから作成した言語モデルを用いて単位長さ(たとえば文)あたりのパープレキシティを比較する必要がある.これについて学習,テストデータ量は少ないものの,すでに報告を行っており,文あたりパープレキシティがほぼ等しく,したがって単位長が長い分,より有利な単位となっていることを確認している\cite{NISIMURA4}.\parコーパス量とパープレキシティの関係について,とくに日本語に関して報告された例はほとんどないため,他の研究と比較して議論することが難しい.本研究の実験からは400万文強のデータではまだパープレキシティが減少するが,その改善率は低く数倍以上のデータがないと意味のある改善が難しいことを示唆している.\par人が感覚的にある単位だと判断する日本語トークンについて考察した他の研究との関連についても述べておきたい.原田\cite{HARADA}は人のもつ文節単位の概念に関する調査結果から,「文字列またはモーラ長が一定以上になると分割しようとする動機がたかまる」という仮説を提起している.われわれの分割モデルでは分割が2形態素の遷移情報のみで独立に起こることを仮定しているが,この独立性については検討が必要であろう.横田,藤崎\cite{YOKOTA}が短時間に認識できる文字数とその時間との関係から求めた認知単位は,とくに平均長は述べられていないものの,例をみる限りわれわれの単位より明らかに長い.同論文では「人は文を文字単位で処理しているのではない」と結論しているが,加えて,分割できる最小単位の列として知覚されているのでもないということになる.\par今後は,コーパスサイズをより大きくするとともに句読点を削除した場合との比較・考察や,単語分割モデルの分割確率とポーズ位置との関係\cite{TAKEZAWA},さらに上記で述べた分割の独立性について検討したいと考える.\vspace{4mm}\par\par本研究にテキストデータ使用を許諾していただいた,産経新聞社,日本経済新聞社,毎日新聞社(CD-毎日新聞91-95),そして(株)ピープルワールドカンパニーに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n2_01}\begin{biography}\biotitle{略歴}\bioauthor{伊東伸泰}{1982年大阪大学基礎工学部生物工学科卒業.1984年同大学院博士前期課程修了.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所において文字認識,音声認識の研究に従事.情報処理学会会員.}\bioauthor{西村雅史}{1981年3月大阪大学基礎工学部生物工学科卒業.1983年3月同大学院物理系博士前期課程修了.同年,日本アイ・ビー・エム(株)入社.以来,同社東京基礎研究所において,音声認識などの音声言語情報処理の研究に従事.工学博士.平成10年情報処理学会山下記念研究賞受賞.情報処理学\break会,日本音響学会,電子情報通信学会各会員.}\bioauthor{荻野紫穂}{1986年東京女子大学文理学部日本文学科卒業.1988年同大学院文学研究科修士課程修了.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所に勤務.現在,音声認識システムの研究開発に従事.情報処理学会,人工知能学会,計量国語学会各会員.}\bioauthor{山崎一孝}{1988年東京工業大学工学部情報工学科卒業.1990年同大大学院総合理工学研究科システム科学専攻修士課程修了.1993年同大大学院理工学研究科情報工学専攻博士課程修了.工学博士.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所に勤務.文字認識,音声認識の研究および製品開発に従事.電子情報通信学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N02-05
\section{はじめに} 差分検出を行なうdiffコマンドは言語処理の研究において役に立つ場面が数多く存在する.本稿では,まず簡単にdiffの説明を行ない,その後,diffを使った言語処理研究の具体的事例として,差分検出,書き換え規則の獲得,データのマージ,最適照合の例を示す\footnote{本稿は筆者のさまざまな言語処理研究におけるdiffというツールの使用経験を述べたものであり,今後の自然言語処理,言語学の研究に有益な知見を与えることを目的にしている.}.あらかじめ本稿の価値を整理しておくと以下のようになる.\begin{itemize}\itemdiffコマンドはUNIXで標準でついているため,これを用いることは極めて容易である.この容易に利用できるdiffコマンドを用いることで,さまざまな言語処理研究を行なうことができることを示している本稿は,容易さ,簡便さの観点から価値がある.\item近年,言い換えの研究が盛んになりつつある\cite{iikae_jws}.本稿の\ref{sec:kakikae}節では実際に話し言葉と書き言葉の違いの考察,また話し言葉と書き言葉の言い換え表現の獲得\cite{murata_kaiho_2001}にdiffが利用できることを示している.diffの利用は,話し言葉と書き言葉に限らず,多方面の言い換えの研究に役に立つと思われる.本稿はそれらの基盤的なものとなると思われる.\itemdiffコマンドは一般には差分の検出に利用される.しかし,本稿で述べるようにデータのマージや最適照合にも利用できるものである.本稿では\ref{sec:merge}節で,このデータのマージ,最適照合の例として,対訳コーパスの対応づけ,講演と予稿の対応づけ,さらに最近はやりの質問応答システム(「日本の首都はどこですか」と聞くと「東京」と答えるシステムのこと)といった,種々の興味深い研究をdiffという簡便なツールで実現する方法を示している.本稿はこのような研究テーマもしくは研究手段の斬新性といった側面も兼ね備えている.\end{itemize} \section{diffとmdiff} \label{sec:diff_and_mdiff}本節ではdiffについて説明する.本稿でいうdiffとはUNIXのファイル比較ツールdiffのことである.このコマンドは,与えられた二つのファイルの差分を順序情報を保持したまま行を単位として出力する\footnote{diffコマンドの内部のアルゴリズムについては文献\cite{algo}のp.282に説明がある.}.例えば,\begin{verbatim}今日学校へいく\end{verbatim}ということが書いてあるファイルと\begin{verbatim}今日大学へいく\end{verbatim}ということが書いてあるファイルがあるとする.これらのdiffをとると,差分の部分が\begin{verbatim}<学校へ>大学へ\end{verbatim}のような形で出力される.ところで,diffコマンドには\verb+-D+オプションという便利なオプションがある.これをつけてdiffコマンドを使うと差分部分だけでなく共通部分も出力される.つまりファイルのマージが実現される.また,差分部分はCのプリプロセッサなどで使われるifdef文などで表現される.この場合,場所によって差分部分の表示の順番が逆転しテキスト全体として差分の状態がわかりにくくなり,また,ifdefという機械的な記号だと人間の目で認識するのが困難であるため,ここでは差分部分は以下のように表示することにする\footnote{ここにifdef文からmdiffの出力への変形方法を記述しておく.ifdefが使われているときは順序を保存したまま,表現のみ``;▼▼▼▼▼▼''などに変更する.ifndefが使われているときは差分の順序を変更してから表現を``;▼▼▼▼▼▼''などに変更する.}.\begin{verbatim};▼▼▼▼▼▼(一つめのファイルにだけある部分);●●●(二つめのファイルにだけある部分);▲▲▲▲▲▲\end{verbatim}ここでは,``\verb+;▼▼▼▼▼▼+''は差分部分の始まりを,``\verb+;▲▲▲▲▲▲+''は差分部分の終りを意味し,``\verb+;●●●+''は差分を構成する二つのデータの境界を意味する.本稿では,\verb+-D+オプションをつけてさらにifdefの部分を上記のように表示して,ファイルのマージを行なう場合のdiffを{\bfmdiff}と呼ぶ(mはmergeのm).(mdiffの構成方法および使用方法については付録\ref{sec:exp_mdiff}をつけておいた.参考にしてほしい.)実際に先ほどのデータに対してmdiffをかけてみると,以下のような結果になる.\begin{verbatim}今日;▼▼▼▼▼▼学校へ;●●●大学へ;▲▲▲▲▲▲いく\end{verbatim}「今日」が一致し,「学校へ」と「大学へ」が差分となり,「いく」がまた共通部分となっている.mdiffの出力はdiffと異なり一致部分も出力されるためにわかりやすい.また,mdiffの結果からは元の二つのファイルのデータを完全に復元することができる.共通部分と,差分部分の黒丸(;●●●)の上側だけを取り出すと,\begin{verbatim}今日学校へいく\end{verbatim}のように一つ目のファイルの情報が取り出される.また,共通部分と,差分部分の黒丸(;●●●)の下側だけを取り出すと,\begin{verbatim}今日大学へいく\end{verbatim}のように二つ目のファイルの情報が取り出される.このように元の情報を完全に復元できる.また,mdiffでは一致部分は片方のデータにあったものだけを表示し,不一致部分のみ両方のデータのものを表示するために,元の二つのデータよりもデータ量は削減できるが,上記のように元の情報を完全に復元できるために,復元できる状態でデータ量を削減するという意味でmdiffはデータ圧縮を実現しているものともいえる.次に文字を単位としたmdiffを考える.言語処理の場合は文字単位で差分を取りたい場合が多い.そのようなときは一度ファイルの中身の情報を,一文字ずつ改行をして出力したファイルでmdiffをとればよい.例えば先のファイルの情報だと,\begin{verbatim}今日学校へいく\end{verbatim}という形にしてから,mdiffをとればよい.diffの表示は見にくく,mdiffはdiffで表示される情報を完全に含むので以降の説明はmidffを用いて行なう.以降の節では,実際にこのmdiffを使った言語処理の実例を見ていくこととする. \section{差分検出,および,書き換え規則の獲得} 本節ではmdiffを用いて差分検出したり,またその差分結果から書き換え規則を獲得する研究などを記述する.具体的には,以下のものを示す.\begin{itemize}\item複数システムの出力の差分検出\item差分の考察と書き換え規則の獲得\end{itemize}\subsection{複数システムの出力の差分検出}\label{sec:system}筆者は以前,jumanのシステムのバージョン\cite{juman,araya_juman}が複数乱立しているとき,この複数のjumanの出力をmdiffによりマージして形態素結果の品質を向上させる\footnote{これは,文脈処理の研究\cite{murata_shuuron,murata_noun_nlp,murata_deno_nlp}を行なう際に,文脈処理の前段階の形態素解析,構文解析の誤りを修正するために行なっていた.}ことをしていた\footnote{同様の考え方は文献\cite{fujii1998}にもある.また,この種の考え方はシステム融合(複数のシステムを組み合わせることで個々のシステムの精度以上のものを得ることを目的としたもの)という形でよくしられている\cite{murata_nlc2001_wsd}.}.ここではこれを説明する.「といったこと」を解析し,jumanのAというバージョンの出力が\begin{verbatim}とと助詞いった言う動詞ことこと名詞\end{verbatim}となっていて,Bのバージョンの出力が\begin{verbatim}とと助詞いった行く動詞ことこと名詞\end{verbatim}となっているとしよう.「いった」という語は「行く」と「言う」の曖昧性があり,Bのバーションではこれを誤って「行く」の方の語であると出力していたとする.ここでmidffをとると以下のような結果となる.\begin{verbatim}とと助詞;▼▼▼▼▼▼いった言う動詞;●●●いった行く動詞;▲▲▲▲▲▲ことこと名詞\end{verbatim}mdiffをとることで複数のシステムの出力の差異を容易に検出することができる.この場合「いった」の部分の出力に差異があることがわかる.ここで,出力修正の作業者はこのような差分が検出された箇所においてどちらが正しいかを判断し,上が正しければなにもせず下が正しければ「;●●●」の先頭に``x''をつけるなどとすると決めておく.そのようにすると,``x''がなければ差分の下を,あれば差分の上の情報と区切り記号を消すことで,その作業結果のデータから自動的にそれぞれの差分からよい結果の方を選び,それぞれのバージョンのものよりも高い精度の結果を生成できる.また,差分の両方が誤っている場合がよくある.このときは「;●●●」の上の方のデータを実際に書き直すとよい.この方法を用いると,修正できないものは両方のバージョンで同じように誤るものだけであり,多くの形態素誤りを修正できる.ここで注意すべきことは異なる性質のシステムを複数用意しないといけないということである.誤り方が同じシステムの場合だと多くの誤りを見逃すことになる.また,システムが三つある場合はdiff3コマンドを使うとよい.diff3は三つのファイルの差分を検出することができる.上記では形態素解析を例にあげたが,他の解析でも解析結果を行単位にすることでmdiffで差分をとることができる.ここでは,複数のシステムの出力の差分をとる話をしたが,一つをタグつきコーパスとし,それをなにかのシステムで解析した結果と比較することで,そのタグつきコーパスの誤りを検出し修正する\footnote{コーパス修正の先行研究には文献のもの\cite{murata2000_3_nl,NLP2001}がある.}ということもできる.\begin{table}[t]\begin{center}\leavevmode\caption{書き言葉データと話し言葉データの例}\label{tab:write_talk_juman}\begin{tabular}{|l|}\hline\multicolumn{1}{|c|}{書き言葉データ}\\\hline本\\論文\\で\\は\\意味\\ソート\\に\\ついて\\述べる\\。\\一般に\\ソート\\は\\50\\音\\順\\\hline\end{tabular}\hspace{.5cm}\begin{tabular}{|l|}\hline\multicolumn{1}{|c|}{話し言葉データ}\\\hline今日\\は\\え\\意味\\ソート\\に\\ついて\\述べ\\ます\\一般に\\ソート\\って\\いう\\の\\は\\だいたい\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\leavevmode\caption{書き言葉データと話し言葉データのdiffの結果}\label{tab:write_talk_diff}\begin{tabular}{|l|}\hline;▼▼▼▼▼▼\\本\\論文\\で\\;●●●\\今日\\;▲▲▲▲▲▲\\は\\;▼▼▼▼▼▼\\;●●●\\え\\;▲▲▲▲▲▲\\意味\\ソート\\に\\(右欄につづく)\\\hline\end{tabular}\hspace{.5cm}\begin{tabular}{|l|}\hlineついて\\;▼▼▼▼▼▼\\述べる\\。\\;●●●\\述べ\\ます\\;▲▲▲▲▲▲\\一般に\\ソート\\;▼▼▼▼▼▼\\;●●●\\って\\いう\\の\\;▲▲▲▲▲▲\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\leavevmode\caption{差分部分の抽出}\label{tab:write_talk_diff_ext}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{書き言葉データ}&\multicolumn{1}{|c|}{話し言葉データ}\\\hline本論文で&今日\\&え\\述べる。&述べます\\&っていうの\\\hline\end{tabular}\end{center}\end{table}\subsection{差分の考察と書き換え規則の獲得}\label{sec:kakikae}ここでは,文献\cite{murata_kaiho_2001}でも述べた話し言葉と書き言葉のdiffの研究について記述する.この研究では,対応のとれた話し言葉と書き言葉のデータを使い,それらの差分から話し言葉と書き言葉の違いを考察したり,話し言葉から書き言葉への言い換え規則,また,その逆のための規則を獲得した.データとしては,学会の口頭発表を話し言葉データとし,その口頭発表の内容が記されたその学会の予稿原稿を書き言葉として用いた.例えば,話し言葉と書き言葉のデータが表\ref{tab:write_talk_juman}のような形で与えられたとする\footnote{ここではわれわれの意味ソートの論文\cite{murata_msort_nlp}のものを例にあげている.ところで,本稿ではdiffを扱ったが,その論文ではUNIXのsortコマンドを用いて様々な情報を意味の情報でソートする,つまり,順序付けて並べるということを行ない,それらが種々の言語処理にどのように役に立つかを議論している.興味があれば,この文献も読むことをお奨めする.}.ここでは,差分がとりやすいように形態素解析システムなどで1行に1単語がはいるような形に変換してある.このような書き言葉と話し言葉のデータが与えられたとき,mdiffをとると,表\ref{tab:write_talk_diff}のような結果を得る.この結果から,差分部分だけを抽出すると表\ref{tab:write_talk_diff_ext}のような結果が得られる.この結果から,話し言葉には「え」などが挿入されること,また話し言葉では「っていうの」という表現をいれて発話をなめらかにすることなどがわかる.また,「述べる」が「述べます」と言い換えられることがわかる\footnote{実際には,ここであげた例ほどきれいに話し言葉と書き言葉は対応がとれず,「本論文は」と「今日」のような言い換え表現としてはよくない対応が多く,確率などを用いたソートを用いて確信度の高い良質な差分情報を集めるということを行なう(これについては文献\cite{murata_kaiho_2001,murata_nl2001_henkei}を参照せよ).}.以上のようにmdiffを使うことで話し言葉と書き言葉の差異を検出でき,またそれを考察することで,話し言葉と書き言葉の違いを調査できることがわかる.また,これらの差分は話し言葉と書き言葉の言い換え規則としてみることもできる.例えば,「え」の部分は,書き言葉になにもないところに話し言葉に変換する場合「え」をいれるという規則のように見ることができる.また,「述べる」と「述べます」の部分は,話し言葉に変換する場合は「述べる」を「述べます」に言い換える規則のように見ることができる.その意味でmdiffを用いることで言い換え規則,もしくは,変換規則を検出できることがわかる.ここでは,話し言葉と書き言葉のデータを例にとったが,このようなことはさまざまなところで可能である.例えば,英文校閲前のテキストと英文校閲後のテキストで,mdiffをとると,どのような間違いをどのように直せばよいかがわかるし,また英文校閲用の規則が獲得できる.また,要約前のテキストと要約後のテキストで,mdiffをとると,どのように要約されているかを如実に見ることができるし,また要約用の規則が獲得できる\footnote{diffやmdiffは用いていないが,要約前のテキストと要約後のテキストで,DPマッチングを用い,どのように要約されているかを調べたり要約用の規則を獲得したりする研究として文献\cite{Kato1999,mochinushi2000}などがある.diffで行なうことはDPマッチングでもできる.diffは文献にもあるように最長共通部分列(longestcommonsubsequence)のアルゴリズムを用いるもので,共通部分が最大になるような形でデータの照合を行なう.このため,共通部分を評価値とするDPマッチングのプログラムを作るとその出力する結果はdiffとまったく等価となる.さらにDPマッチングでは品詞,意味情報なども評価値に使うことでより精密に照合を行なうことができる.このため,精度を重視する場合はDPなどをプログラミングした方がよい.しかし,それほど精度を重視せず研究として差異がどうなっているかを調べる程度ならばdiffでも十分役に立つ.}.その他にも対応のとれた性質の異なるデータに対してmdiffをとることで,さまざまな考察と,言い換え規則の獲得ができることだろう\footnote{ここでの議論とは逆に,性質の同じ対応のとれたデータに対してmdiffをとることも考えられる.この場合,性質が同じデータのため,差分としては等価な表現対,つまり,同義表現が獲得されることになる.実際,われわれは異なる辞書の定義文をmdiffにより照合することで,同義表現の獲得\cite{murata_nl2001_henkei}を行なっている.}. \section{データのマージ,および,最適照合} \label{sec:merge}本節ではmdiffのデータをマージする機能,および,そのマージの最適照合能力\footnote{diffの場合共通部分を最大にするような形で最適な照合を行なっている.}を利用したものについて記述する.具体的には以下の三つについて記述する.\begin{itemize}\item対訳コーパスの対応づけ\item講演と予稿の対応づけ\item最適照合能力を用いた質問応答システム\end{itemize}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Section1>+..................................................\verb+<Section2>+..................................................\end{minipage}}\\\hline\end{tabular}\caption{コーパスの構成}\label{tab:mt_corpus}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Section1>+;▼▼▼▼▼▼(日本語文の内容);●●●(英語文の内容);▲▲▲▲▲▲\verb+<Section2>+;▼▼▼▼▼▼(日本語文の内容);●●●(英語文の内容);▲▲▲▲▲▲\end{minipage}}\\\hline\end{tabular}\caption{mdiffによって対応づけられた対訳コーパス}\label{tab:mt_corpus_mdiff}\end{center}\end{figure}\subsection{対訳コーパスの対応づけ}\label{sec:taiyaku}ここでは対訳コーパスの対応づけを考える\footnote{対訳コーパスは,機械翻訳\cite{murata_nlc2001,modal2001}の研究を行なう上で重要な研究資料となる.}.ここで条件としてそれぞれのコーパスには対応する箇所に同じ記号が入っていることを前提とする.また,対応づけの単位はこの記号で区切られた部分であるとする.例を図\ref{tab:mt_corpus}にあげる.ここでは日本語のコーパスと英語のコーパスがまだばらばらに存在し,対応づけられていないとする.また,それぞれは図\ref{tab:mt_corpus}のように両方とも\verb+<Section1>+などの同じ形をしたセクション情報が与えられているとする.このとき,日本語と英語では同じセクションのものは同じ内容であるとする.この場合,これらのデータのmdiffをとることで,図\ref{tab:mt_corpus_mdiff}のような結果を得ることができる.この結果では,\verb+<Section1>+などが共通部分となり,その他の部分が不一致部分となる.この不一致部分では日本語と英語が上下にわかれて格納されることになる.このようにすることで,mdiffを用いて対訳データが作成されることになる.ここで示したものは,文ごとなどの細かい対応づけをするものでなく,セクションなどの大雑把なもので一見役に立たないように思えるかもしれないが,文の対応づけは難しい問題で,まずあらかじめ対応がとれていることがはっきりしている章,段落のレベルで対応づけをしてから細かい対応づけをするという考え方もあり\cite{haruno_ipsj97},その意味ではこのような粗い対応づけも役に立つ.また,ここで示したものは\verb+<Section1>+などの情報を認識させて区分するだけなのでそのようなことをするプログラムを書くことでも同じように対訳データの対応づけを行なうことができる.しかし,mdiffを使うとそのようなプログラムも書くこともなく対応づけを容易に実現できるのである.\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Chapter1>+(1章の内容)\verb+</Chapter1>+\verb+<Chapter2>+(2章の内容)\verb+</Chapter2>+\verb+<Chapter3>+(3章の内容)\verb+</Chapter3>+\end{minipage}}\\\hline\end{tabular}\caption{予稿データの構成}\label{tab:youkou_kousei}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm};▼▼▼▼▼▼\verb+<Chapter1>+(予稿のみの内容);●●●(講演のみの内容);▲▲▲▲▲▲(共通する内容);▼▼▼▼▼▼(予稿のみの内容);●●●(講演のみの内容);▲▲▲▲▲▲(共通する内容);▼▼▼▼▼▼\verb+</Chapter1>+\verb+<Chapter2>+(予稿のみの内容);●●●(講演のみの内容);▲▲▲▲▲▲\end{minipage}}\\\hline\end{tabular}\caption{予稿と講演のmdiffの結果}\label{tab:youkou_mdiff}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Chapter1>+(講演のみの内容)(共通する内容)(講演のみの内容)\verb+</Chapter1>+\verb+<Chapter2>+(講演のみの内容)\end{minipage}}\\\hline\end{tabular}\caption{講演データへの章の情報の挿入結果}\label{tab:youkou_mdiff2}\end{center}\end{figure}\subsection{講演と予稿の対応づけ}\label{sec:sp_merge}本節では講演と予稿の対応づけ\cite{uchimoto2001}を考える.この講演と予稿は,先の書き換え規則の獲得でも述べた書き言葉データと話し言葉データに対応する.講演は学会の口頭発表で,予稿はその口頭発表に対応する論文のことである.このような講演と予稿が与えられたとき,講演の各部分と,予稿の各部分の対応がとれると,講演を聞いている時だと,それに対応する予稿の部分を参照できるし,予稿を読んでいるときだと,それに対応する講演の部分を参照できて便利である\cite{uchimoto2001,fujii_kaiho_2001}.本節ではこの講演と予稿の対応づけをmdiffで行なうことを考える.ここでは特に予稿の各章が講演のどこの部分に対応するかをmdiffでもとめることにする.ここで予稿と講演とは話は同じ順序でなされると仮定する.また,予稿の章が認識しやすいように予稿のデータには図\ref{tab:youkou_kousei}のように,``\verb+<Chapter1>+''のような記号を挿入しておく.この形にしておいて,予稿と講演のデータに対して,形態素解析をして各行に単語がくる状態でmdiffを使うことで,図\ref{tab:youkou_mdiff}のような結果を得る.ここで,差分部分で予稿に対応する上半分の方を,``\verb+<Chapter1>+''のような記号を除いてすべて消し去ると図\ref{tab:youkou_mdiff2}のような結果を得る.図では元の講演のデータに対して``\verb+<Chapter1>+''のような記号だけが挿入された形になる.つまり,講演のどの部分が予稿のどの章にあたるかがわかることになる.これは簡単にいうと,mdiffの照合能力を用いて予稿と講演を照合し,章の情報だけ残して予稿の情報を消し去ることにより,講演データに章の情報を挿入するということを行なっていることを意味する.このような予稿と講演の対応づけもmdiffを用いると簡単に行なえるのである\footnote{この予稿と講演の対応づけを実際に文献\cite{uchimoto2001}のデータで行なってみた.このときは,mdiffを用いまたデータは各行に単語がくるような状態で行なった.結果は文献\cite{uchimoto2001}の精度と同程度か少しよい程度であった.mdiffを使うこのような簡単な処理でもこのような結果を得ることができるのである.}.\subsection{最適照合能力を用いた質問応答システム}\label{sec:qa}本節ではmdiffの最適照合能力を用いた質問応答システム\cite{qa_memo,murata2000_1_nl,murata_QA_nlp2000ws,murata_nlp2001ws_true}について記述する.質問応答システムとは,例えば,「日本の首都はどこですか」と聞くと「東京」と答えそのものをずばり返すシステムである.知識が自然言語で書かれていると仮定すると,基本的には質問文と知識の文を照合し,その照合結果で疑問詞に対応するところを答えとして出力すればよい.例えば先の問題だと,「日本の首都は東京です」という文を探してきてこの文で疑問詞に対応する「東京」を解として出力するのである.ここではこれをmdiffで行なうことを考える.まず,質問文の疑問詞の部分をXに置き換え,また文末を平叙文に変換し,「日本の首都はXです」を得る.また,知識ベースから「日本の首都は東京です」を得る.ここでこの二つを一文字ずつ改行してからmdiffをとると以下のような結果を得る.\begin{verbatim}日本の首都は;▼▼▼▼▼▼X;●●●東京;▲▲▲▲▲▲です\end{verbatim}ここでXと差分部分で組になっているものを解とすると,「東京」を正しく取り出せることになる.ところで一文字単位に改行してからmdiffを使う場合少々文に食い違いがあっても答えを正しく取り出すことができる.例えば,知識ベースの文が「日本国の首都は東京です」であったとする.この場合はmdiffの結果は以下のようになる.\begin{verbatim}日本;▼▼▼▼▼▼;●●●国;▲▲▲▲▲▲の首都は;▼▼▼▼▼▼X;●●●東京;▲▲▲▲▲▲です\end{verbatim}差分部分は少し増えるがXに対応する箇所は「東京」のままで,解を正しく抽出できる.ところで,われわれが提案する質問応答システムでは類似度を尺度として用いた変形をくりかえし,質問文と知識データの文がより一致した状態で上記のような照合を行なう.このために類似度を定義する必要がある.mdiffを用いた場合は一致部分と不一致部分が認定できるので,類似度は(一致部分の文字数)/(全文字数)のような形で定義できる\footnote{ここではmdiffにより類似度を求めるようなことをしている.このようにmdiffは文の類似性/類似度を求めることにも役に立つ.}.ここで,「日本国」と「日本」を言い換える規則があれば「日本の首都はXです」を「日本国の首都はXです」と言い換えて照合し,不一致部分を減らすことで,より確実に解を得ることができる\footnote{\label{fn:qa}ここではmdiffに基づく質問応答システムを述べたが,このmdiffに基づく質問応答システムは文献\cite{murata_nlp2001ws_true}でも述べているように文献\cite{murata2000_1_nl}の研究の予備実験として構築したシステムである.精度の高いシステムを目指すならば,文献\cite{murata2000_1_nl}にあるような情報検索\cite{murata_irex_ir_nlp}で用いられるIDFなどの重みを単語に与えてなおかつ構文情報なども用いたシステム\cite{qa_memo}を構築した方がよい.といってもmdiffを使うだけでも簡単な質問応答システムは容易に構築できることは簡便さの観点から価値がある.}. \section{おわりに} 本稿ではdiffを用いた言語処理の例を多数記述した.\ref{sec:system}節では複数システムの出力を融合することで個々のシステムの精度以上のものを得る研究をdiffを用いて実現する方法を述べた.この種の考え方はシステム融合という形で広く知られているもので,それがdiffで簡便に実現できることを示した.\ref{sec:kakikae}節では言い換えの研究の一例として話し言葉と書き言葉の違いの考察,また,話し言葉から書き言葉への言い換え規則,また,その逆のための規則の自動獲得をdiffで行なっている研究を紹介した.そこでは,話し言葉と書き言葉の言い換えを扱っていたが,言い換えの問題は,文を短縮する要約から,文を修正する文章校正支援,わかりにくい文からわかりやすい文を作成する平易文生成の研究まで幅広いものを含むものであり,それらでもdiffを用いることで,種々の考察や種々の書き換え規則の獲得を容易に実現することができる.この意味で本稿はこの今後発展の予想される言い換えの研究の基盤的なものとなると思われる.\ref{sec:merge}節ではデータのマージ,最適照合の例を示した.diffコマンドは一般には差分の検出に利用されるものなので,データのマージや最適照合にも利用できることを示した\ref{sec:merge}節の例はまた別の新しさがある.その節では対訳コーパスの対応づけ,講演と予稿の対応づけ,さらに最近はやりの質問応答システム(「日本の首都はどこですか」と聞くと「東京」と答えるシステムのこと)といった,種々の興味深い研究をdiffという簡便なツールで実現する方法を示した.本稿はこのような研究テーマもしくは研究手段の斬新性といった側面も兼ね備えている.本稿ではこのようにdiffを用いた言語処理の例を多数記述した.diffに関係することでここまでいろいろな例をまとめたものはおそらくないだろう.他にも面白い利用方法があると思う.本稿であげた多数の例を参考にし,より面白い利用方法を考えて使うのもよいし,本稿であげた例と同じような使い方をしてもよい.diffを使って効率よく様々な研究がなされていくことを期待したい.\appendix \section{mdiffの構成方法および使い方} label{sec:exp_mdiff}本付録では読者の便を考えmdiffの構成方法と使い方を記す.また,現在はこのプログラムは筆者のホームページ(http://www.crl.go.jp/jt/a132/members/murata/software/software.html)からダウンロードできる.\subsection{mdiffの構成方法}\label{sec:make_mdiff}筆者はmdiffはcshとperlを使って構成している\footnote{SunOSとSunSolarisのOSとLinuxの一部のOSで筆者はこのプログラムが実際に動くことを確認している.他のOSではプログラムを少々変更する必要があるかもしれない.}.\begin{verbatim}------------------------------------------------------------ファイルmdiff------------------------------------------------------------#!/bin/csh-f/usr/bin/diff-D@@@mm$*|~username/bin/Perl/tmpdiff_patch.pl#------------------------------------------------------------\end{verbatim}\begin{verbatim}------------------------------------------------------------ファイル~username/bin/Perl/tmpdiff_patch.pl------------------------------------------------------------#!/usr/local/bin/perl$|=1;while(<>){if(/^\#ifn?def(\/\*)?\@\@\@mm(\*\/)?/){$con=$_;while(<>){$con.=$_;if(/^\#endif(\/\*)?\@\@\@mm(\*\/)?/){#print";▼▼▼▼▼▼\n";print";▲▲▲▲▲▲\n";if($con=~/^\#ifndef/){if($con=~/^\#ifndef(\/\*)?\@\@\@mm(\*\/)?\n((\\.|\n)*)\#else(\/\*)?\@\@\@mm(\*\/)?/||$con=~/^\#ifndef(\/\*)?\@\\\@\@mm(\*\/)?\n((.|\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}print";●●●\n";if($con=~/\#else(\/\*)?\@\@\@mm(\*\/)?\n((.|\\\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}}elsif($con=~/^\#ifdef/){if($con=~/\#else(\/\*)?\@\@\@mm(\*\/)?\n((.|\\\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}print";●●●\n";if($con=~/^\#ifdef(\/\*)?\@\@\@mm(\*\/)?\n((.\\|\n)*)\#else(\/\*)?\@\@\@mm(\*\/)?/||$con=~/^\#ifdef(\/\*)?\@\@\\\@mm(\*\/)?\n((.|\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}}print";▼▼▼▼▼▼\n";#print";▲▲▲▲▲▲\n";last;}}}else{print;}}exit;------------------------------------------------------------\end{verbatim}cshのプログラムの中からdiffとperlで書いた整形プログラム\\\verb+~username/bin/Perl/tmpdiff_patch.pl+を呼ぶことでdiffによる処理,さらに整形を実現している.またページの都合上,長い行の部分は``\verb+\\+''で分割している.実際のプログラミングは``\verb+\\+''を消してさらに改行せずに記述して欲しい.また,このプログラムでは本稿の表示と少し違う表示をする.本稿では\begin{verbatim};▼▼▼▼▼▼(一つめのファイルにだけある部分);●●●(二つめのファイルにだけある部分);▲▲▲▲▲▲\end{verbatim}と表示しているところ,このプログラムでは\begin{verbatim};▲▲▲▲▲▲(一つめのファイルにだけある部分);●●●(二つめのファイルにだけある部分);▼▼▼▼▼▼\end{verbatim}と表示する.つまり差分の始まりと終りを示す記号が逆転する.これは,理論の説明としては差分部分を挟んでいることを示す上の表示がよいが,みやすさとしては下の表示の方が見やすいからそうしているのである.下の表示だと差分部分とそれ以外との境目で,三角形の底辺が差分部分側に並び差分部分が見やすいのである.上の表示の方がみやすいという人はプログラムのその部分だけ書き直せばよい.ちょうど以下のように\begin{verbatim}#print";▼▼▼▼▼▼\n";#print";▲▲▲▲▲▲\n";\end{verbatim}コメントアウトして行があるのでそのコメントを削り,もとのをコメントアウトするとすぐに表示方法をかえることができる.プログラム中,\verb+~username+としている部分があるが,そのusernameの部分はそのUNIXシステムにloginしているユーザの名前にしてほしい(例:``\verb+~murata+'').また,二つのプログラムの実行許可は与えておき,\verb+mdiff+は環境変数PATHのとおっているところに,\verb+~username/bin/Perl/tmpdiff_patch.pl+は,\verb+~username/bin/Perl+のディレクトリに置くこと.また,mdiffのプログラム中の``/bin/csh''と``/usr/bin/diff''の部分と,\verb+tmpdiff_patch.pl+のプログラム中の``/usr/local/bin/perl''の部分は各マシンごとに,それらのコマンドがあるディレクトリに書き直すこと.\subsection{mdiffの使い方}\label{sec:use_mdiff}上のように二つのプログラムを記述しそれぞれのファイルを所定の場所におくとあとは以下のように打ち込んでmdiffを使うだけである.\begin{verbatim}mdiff<ファイル1><ファイル2>\end{verbatim}\verb+<ファイル1>+,\verb+<ファイル2>+は比較する二つのファイルである.例えば,二つのファイルが\begin{verbatim}------------------------------------------------------------<ファイル1>------------------------------------------------------------今日学校へいく------------------------------------------------------------<ファイル2>------------------------------------------------------------今日大学へいく------------------------------------------------------------\end{verbatim}であったとする.それで,mdiffを動かすと以下の出力を得る.\begin{verbatim}今日;▲▲▲▲▲▲学校へ;●●●大学へ;▼▼▼▼▼▼いく\end{verbatim}「学校へ」と「大学へ」の部分が差分として正しく抽出できる.あとはうまく行単位にデータを格納したファイルを二つ作り,これらを上記のようにmdiffにかければよい.そうすると様々な結果がmdiffにより出力される.\acknowledgment本稿の\ref{sec:sp_merge}節の話し言葉データと書き言葉データの対応づけの実験では独立行政法人通信総合研究所内元清貴研究員に実験データなどを提供してもらった.また,本稿には筆者が学生であったころの研究室の同僚のコメントが役に立っている.ここに感謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{新谷}{新谷}{1995}]{araya_juman}新谷研\BBOP1995\BBCP.\newblock\JBOQ日本語形態素解析システムJUMANの精度向上\JBCQ\\newblock\Jem{京都大学工学部学士論文}.\bibitem[\protect\BCAY{藤井,伊藤,秋葉,石川}{藤井\Jetal}{2001}]{fujii_kaiho_2001}藤井敦,伊藤克亘,秋葉友良,石川徹也\BBOP2001\BBCP.\newblock\JBOQ音声言語データの構造化に基づく講演発表の自動要約\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{春野}{春野}{1997}]{haruno_ipsj97}春野雅彦\BBOP1997\BBCP.\newblock\JBOQ辞書と統計を用いた対訳アライメント\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4).\bibitem[\protect\BCAY{石間,藤井,石川}{石間\Jetal}{1998}]{fujii1998}石間衛,藤井敦,石川徹也\BBOP1998\BBCP.\newblock\JBOQ日本語形態素・構文解析システム{JEMONI}の開発と評価について\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会98-NL-127}.\bibitem[\protect\BCAY{加藤,浦谷}{加藤,浦谷}{1999}]{Kato1999}加藤直人,浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7).\bibitem[\protect\BCAY{松本,黒橋,宇津呂,妙木,長尾}{松本\Jetal}{1992}]{juman}松本裕治,黒橋禎夫,宇津呂武仁,妙木裕,長尾真\BBOP1992\BBCP.\newblock\JBOQ日本語形態素解析システム{JUMAN}使用説明書version1.0\JBCQ\\newblock京都大学工学部長尾研究室.\bibitem[\protect\BCAY{望主,荻野,太田,井佐原}{望主\Jetal}{2000}]{mochinushi2000}望主雅子,荻野紫穂,太田公子,井佐原均\BBOP2000\BBCP.\newblock\JBOQ重要文と要約の差異に基づく要約手法の調査\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2000-NL-135}.\bibitem[\protect\BCAY{村田}{村田}{1995}]{murata_shuuron}村田真樹\BBOP1995\BBCP.\newblock\JBOQ日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{京都大学工学部修士論文}.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1996}]{murata_noun_nlp}村田真樹,長尾真\BBOP1996\BBCP.\newblock\JBOQ名詞の指示性を利用した日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf3}(1).\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{murata_deno_nlp}村田真樹,長尾真\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf4}(1).\bibitem[\protect\BCAY{村田,馬,内元,小作,内山,井佐原}{村田\Jetal}{2000a}]{murata_irex_ir_nlp}村田真樹,馬青,内元清貴,小作浩美,内山将夫,井佐原均\BBOP2000a\BBCP.\newblock\JBOQ位置情報と分野情報を用いた情報検索\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf7}(2).\bibitem[\protect\BCAY{村田,神崎,内元,馬,井佐原}{村田\Jetal}{2000b}]{murata_msort_nlp}村田真樹,神崎享子,内元清貴,馬青,井佐原均\BBOP2000b\BBCP.\newblock\JBOQ意味ソートmsort---意味的並べかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例---\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf7}(1),51--66.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2000c}]{murata2000_3_nl}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2000c\BBCP.\newblock\JBOQ決定リスト,用例ベース手法を用いたコーパス誤り検出・誤り訂正\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-136},49--56.\bibitem[\protect\BCAY{村田,内山,井佐原}{村田\Jetal}{2000d}]{murata_QA_nlp2000ws}村田真樹,内山将夫,井佐原均\BBOP2000d\BBCP.\newblock\JBOQ質問応答システムを用いた情報抽出\JBCQ\\newblock\Jem{言語処理学会第6回年次大会ワークショップ論文集},\BPGS\33--40.\bibitem[\protect\BCAY{村田,内山,井佐原}{村田\Jetal}{2000e}]{murata2000_1_nl}村田真樹,内山将夫,井佐原均\BBOP2000e\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},181--188.\bibitem[\protect\BCAY{村田,馬,内元,井佐原}{村田\Jetal}{2001a}]{murata_nlc2001}村田真樹,馬青,内元清貴,井佐原均\BBOP2001a\BBCP.\newblock\JBOQサポートベクトルマシンを用いたテンス・アスペクト・モダリティの日英翻訳\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2000-78}.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2001b}]{NLP2001}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2001b\BBCP.\newblock\JBOQ機械学習を用いた機械翻訳用モダリティコーパスの修正\JBCQ\\newblock\Jem{言語処理学会第7回年次大会}.\bibitem[\protect\BCAY{村田,井佐原}{村田,井佐原}{2001c}]{murata_nlp2001ws_true}村田真樹,井佐原均\BBOP2001c\BBCP.\newblock\JBOQ言い換えの統一的モデル---尺度に基づく変形の利用---\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2001d}]{murata_nlc2001_wsd}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2001d\BBCP.\newblock\JBOQ種々の機械学習手法を用いた多義解消実験\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2001-2}.\bibitem[\protect\BCAY{村田,井佐原}{村田,井佐原}{2001e}]{murata_nl2001_henkei}村田真樹,井佐原均\BBOP2001e\BBCP.\newblock\JBOQ同義テキストの照合に基づくパラフレーズに関する知識の自動獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-142}.\bibitem[\protect\BCAY{村田,馬,内元,井佐原}{村田\Jetal}{2001f}]{modal2001}村田真樹,馬青,内元清貴,井佐原均\BBOP2001f\BBCP.\newblock\JBOQ用例ベースによるテンス・アスペクト・モダリティの日英翻訳\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf16}(1).\bibitem[\protect\BCAY{村田,井佐原}{村田,井佐原}{2001g}]{murata_kaiho_2001}村田真樹,井佐原均\BBOP2001g\BBCP.\newblock\JBOQ話し言葉と書き言葉のdiff\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{Murata,Utiyama\BBA\Isahara}{Murataet~al.}{1999}]{qa_memo}Murata,M.,Utiyama,M.,\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\newblock\BBOQQuestionAnsweringSystemUsingSyntacticInformation\BBCQ.\newblockhttp://xxx.lanl.gov/abs/cs.CL/9911006.\bibitem[\protect\BCAY{佐藤}{佐藤}{2001}]{iikae_jws}佐藤理史\BBOP2001\BBCP.\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{島内,有澤,野下,浜田,伏見}{島内\Jetal}{1994}]{algo}島内剛一,有澤誠,野下浩平,浜田穂積,伏見正則\BBOP1994\BBCP.\newblock\Jem{アルゴリズム辞典}.\newblock共立出版株式会社.\bibitem[\protect\BCAY{内元,野畑,太田,村田,馬,井佐原}{内元\Jetal}{2001}]{uchimoto2001}内元清貴,野畑周,太田公子,村田真樹,馬青,井佐原均\BBOP2001\BBCP.\newblock\JBOQ予稿とその講演書き起こしの対応付けおよび書き起こしのテキストのテキスト分割\JBCQ\\newblock\Jem{言語処理学会年次大会},317--321.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-06
\section{はじめに} 文法誤り訂正は言語学習者の書いた文法的に誤りを含んだ文を文法的に正しい文へと訂正を行うタスクであり,第二言語学習者の作文支援システムとして有用である.文法的に誤りを含んだ文に対して訂正を行う際,訂正結果は複数存在することがある.例えば,\citeA{bryant-ng-2015-far}は,文法的に誤りを含んだ文に対して10人のアノテータがそれぞれ異なる有効な訂正手法を提案する場合があることを示した.この10人のアノテータに対して,明示的に異なる訂正文の作成を行わせていないが,実際に,訂正した文におけるアノテータ間の一致率は約16\%であった.表\ref{table:example}に\citeA{bryant-ng-2015-far}により作成された複数訂正文の例の一部を示す.\textbf{太字}は原文から訂正が行われた箇所を示している.1文から複数の訂正文が提案されているが,いずれも原文において誤りのある箇所のみにおいて多様な訂正が行われている.この様に,様々な訂正結果が存在するため,文法誤り訂正モデルが複数の訂正結果を提示することで,言語学習者は訂正結果を反映するかどうかの判断や,複数の訂正結果の中から好みの表現を選択することが可能になる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}\caption{BryantandNg(2015)により作成された1文に対する複数の訂正文の例}\label{table:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一般に,文法誤り訂正は文法的に誤りを含んだ文から文法的に正しい文への機械翻訳タスクとして捉えられ,近年,ニューラルネットワークを用いた機械翻訳モデルが文法誤り訂正モデルとして用いられることが多い.実際に,機械翻訳モデルを文法誤り訂正モデルに適応することにより,文法誤り訂正タスクにおいても有効な結果を示している\cite{chollampatt2018mlconv,junczys-dowmunt-etal-2018-approaching,zhao-etal-2019-improving,kiyono-etal-2019-empirical,kaneko-etal-2020-encoder}.しかしながら,既存の文法誤り訂正モデルは1つの入力文に対して1つの有効な出力文の生成を目指しており,複数の訂正結果の生成を考慮していない.そこで我々は,文法誤り訂正において多様な出力を生成するという新たなタスクに取り組み,訂正度を制御可能な文法誤り訂正モデルを用いた手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f1.pdf}\end{center}\caption{1文中の単語編集率のヒストグラム}\label{fig:wer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%訂正を行う際,必要最低限の書き換えのみ行うか,もしくは,より多くの書き換えを行うかという違いにより,訂正文に多様さが生じる.文法誤り訂正タスクにおいて訓練データとして一般的に使用されるLang-8\cite{2013B-C76},評価データとして使用されるCoNLL-2014\cite{ng-etal-2014-conll}やJFLEG\cite{napoles-etal-2017-jfleg}では,1文中における訂正の量という意味での訂正度が異なることが知られている.また,\citeA{sakaguchi-etal-2016-reassessing}は,専門性の異なるアノテータにおいて,必要最小限の書き換えと流暢性を求めた書き換えの2種類の訂正をそれぞれ行うことで,多様な訂正文を作成し,それらの一致率は流暢な訂正において約15\%以下,最小限な訂正においても約38\%以下であったと報告している.つまり,1つの誤り文に対しても複数の訂正度を用いて訂正が行われるということである.しかし,既存の文法誤り訂正モデルは学習した単一の訂正度でのみ訂正を行っており,それらの異なる訂正度で訂正を行う手法の研究は行われていない.そこで本研究では,訂正度を制御可能な文法誤り訂正モデルを提案し,1つの入力文に対して複数の訂正度での訂正文を生成することで,多様な訂正文の生成を行う.手法としては,まず,文法誤りが訂正されているデータ内において,1文ごとの訂正度の情報を特殊トークンとして文に付与し,新たな訓練データを作成する.ここで,訂正度を表す指標として単語編集率を用いる.単語編集率とは文中の単語がどれだけ書き換えられたのかを表す指標であるため,文法的誤りを含んだ文と,その誤りを訂正した文の単語編集率は,文の訂正度を表していると言える.CoNLL-2014とJFLEGでは,JFLEGの方が訂正度が大きいことが知られており,実際に,図\ref{fig:wer}に示すグラフからも,CoNLL-2014よりもJFLEGの方が単語編集率が大きいため,単語編集率が訂正度を示していることが確認できる.そして,新たに作成した訓練データを用いて文法誤り訂正モデルの学習を行い,推論時には,入力文に複数の訂正度の特殊トークンを付与することで,付与した単語編集率に基づきモデルの訂正度を制御する.結果として,1つの入力文に対して1つの訂正度ではなく,複数の訂正度を用いて訂正を行うことが可能となり,多様な訂正文を得ることができる.我々は,さらに出力を多様化する手法として,誤り箇所を考慮したビームサーチ手法を提案する.文法誤り訂正において,複数の訂正結果を生成する手法としてはビームサーチを用いて$n$-bestを生成する方法が存在する\cite{grundkiewicz-etal-2019-neural,kaneko-etal-2020-encoder}.しかし,これらの研究では,1つの適切な訂正文の出力の探索のためにビームサーチを利用しており,多様な訂正結果の出力を目的としていない.さらに,通常のビームサーチを用いた$n$-best出力は多様性に欠けることが示されている\cite{DBS}.そのため,機械翻訳の分野などにおいて,多様な候補を生成するために,出力を多様にする制約を加えたいくつかの多様なビームサーチ手法が提案されている\cite{DBLP:journals/corr/LiMJ16,DBS}.これらの多様なビームサーチ手法は,文中の全てのトークンに対して様々な書き換えを行うことで,複数の出力文に多様性をもたらしている.一方で,入力文と出力文の大部分が共通しているようなタスクにおいては,これらの手法は適していないと考えられる.特に,文法誤り訂正においては,入力文の文法的に正しい部分に対しても書き換えが行われてしまうため,この様な入力文の全体に対して書き換えを行う手法は好ましくない.そのため,文法誤り訂正モデルは,入力文中の文法的に正しい部分は書き換えずに,誤りを含む部分に対してのみ様々な方法で訂正を行うことが望まれる.そこで本研究では,誤り箇所を考慮したビームサーチ手法を提案する.図\ref{fig:overview}は既存手法と提案手法との比較を図示したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f2.pdf}\end{center}\hangcaption{既存のビームサーチ手法と提案手法を比較した概要図.赤字の単語は誤りであることを,太字の単語は訂正が行われたことを示している.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\renewcommand{\theenumi}{\alph{enumi}}\begin{enumerate}\item通常のビームサーチ(Plainbeamsearch)では,訂正が特定のパスに集中しているため多様性がなく,類似した単語の組み合わせで文を生成している.\item既存手法の多様なビームサーチ(Diverseglobalbeamsearch)は,様々なパスを探索している.したがって,通常のビームサーチとは異なり,この方法では様々な単語の組み合わせで文が生成されるため,多様な出力を得ることができる.ただし,訂正する必要のない単語においても書き換えを行った出力も生成されてしまう.\item提案手法である誤り箇所を考慮したビームサーチ(Diverselocalbeamsearch)では,訂正が必要な単語に対してのみ様々なパスの探索を行う.それゆえ,我々の提案手法では,訂正が必要な箇所でのみ,通常のビームサーチよりも多様な単語を組み合わせた文の生成を行う.\end{enumerate}ここで,上記の手法は全て同じビーム幅であるが,パスが異なることに注意されたい.実験の結果,訂正度を制御可能な文法誤り訂正モデルを用いることで既存手法よりも多様な訂正結果を生成することが可能となり,誤り箇所を考慮したビームサーチと組み合わせることで,更に多様化可能であることを示した.本研究の主な貢献は以下の4つである.\begin{itemize}\item単語編集率により文法誤り訂正モデルの訂正度が制御可能なことを示した.\item既存の多様な文を生成する手法が文法誤り訂正においては適切な多様性をもたらさないことを示した.\item訂正度を制御した文法誤り訂正モデルの出力を用いることで多様な出力が得られることを示した.\item誤り箇所を考慮したビームサーチを提案し,訂正度を制御した文法誤り訂正モデルと組み合わせることで既存手法よりも適切に出力文に多様性をもたらすことを示した.\end{itemize}本稿の構成を示す.2章では,既存の出力文の制御や多様化の先行研究について紹介する.3章では,訂正度を制御した文法誤り訂正モデルを提案する.4章では,誤り箇所を考慮したビームサーチを提案する.5章では,BERTを用いた文分類を提案する.6章では,複数の人手による訂正文が付与されている評価データを用いて提案手法を評価する.7章では,提案モデルについて分析する.最後に8章で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{先行研究} 出力文に対して制御を行う研究は,文法誤り訂正の分野ではあまり行われておらず,主に機械翻訳の分野において行われている.\citeA{sennrich-etal-2016-controlling}は,機械翻訳において訓練データに文の丁寧さの情報を特殊トークンとして入力文に付与し,モデルの訓練を行うことで出力文の敬意表現の制御を行った.敬語の存在しない言語から敬語の存在する言語への翻訳時,訓練データの入力文に対して,1文対毎に敬語への翻訳であるかどうかの情報を特殊トークンを付与することで,推論時に任意の敬意表現での翻訳を可能にした.本研究では,訂正度の情報を\citeA{sennrich-etal-2016-controlling}と同様に訓練データに特殊トークンとして付与することで,入力文に対する訂正度の制御を行う.また,出力の多様化を行う研究についても文法誤り訂正の分野では行われていないが,他分野においては幾つか行われている.\citeA{MoE}は,mixtureofexperts(MoE)モデルを機械翻訳に用いることで多様な出力の生成を行った.このモデルは,1つの入力文に対して異なるexpertを用いることで多様な出力の生成を可能にしている.本研究では,モデルの構造は変えず,訓練データのみを変更することにより多様化を目指した.\citeA{li-etal-2016-diversity}は,ニューラルネットワークを用いた対話モデルにおいて,応答文の多様化を行った.一般に,対話モデルの出力として汎用的な応答が生成されることが多いが,推論時にのみ文脈と応答の相互情報量を最大化するような応答を生成させることにより多様化を行った.\citeA{DBS}は,推論時にビームを複数のグループに分け,グループ毎に順にビームサーチを行い,同じタイムステップ内の他のグループにて選択されたトークンに対して選択されにくくする制約を加えることで出力に多様性をもたらす手法を提案した.本研究では,同様に推論時にのみ訂正が必要な箇所に対して多様にする制約を加える手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f3.pdf}\end{center}\hangcaption{訂正度を制御した文法誤り訂正モデルにおける訓練方法(上部)と推論方法(下部)の概要図.太字は訂正箇所を示している.}\label{fig:wer_model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{訂正度を制御した文法誤り訂正モデル} \label{sec:wer}我々は,訓練データより求められた単語編集率に基づいて特殊トークンの付与を行い,新たな訓練データに基づき文法誤り訂正モデルを訓練することで,推論時に特殊トークンによって訂正度の制御可能な文法誤り訂正モデルを提案する.図\ref{fig:wer_model}に概要図を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練方法}初めに,訓練データ内の誤りを含む誤り文と,それに対応する訂正が行われた訂正文から挿入の回数,削除の回数,置換の回数の和が最小となるように動的計画法を用いて編集距離を計算する.そして,求めた編集距離を誤り文の文長で割り,単語編集率を計算する.算出した単語編集率を基に訓練データをソートし,文数が均等になるように$L$個の文集合に分割する.その分割した文集合ごとに異なる特殊トークンを定め,誤り文の文頭に付与する.この様にして,文頭に単語編集率によって定められた特殊トークンが付与された誤り文とそれに対応する訂正文の訓練データを作成した.この新たに作成した訓練データを用いて文法誤り訂正モデルを学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f4.pdf}\end{center}\caption{CoNLL-2014の複数参照文における単語編集率の散布図}\label{fig:gold_wer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{推論方法}推論時,入力文の文頭に$L$個の特殊トークンを付与するにより$L$個の異なる訂正度にて訂正が行われた文が生成される.ここで,評価データの参照文から単語編集率を求めることはできないため,入力文に応じた適切な特殊トークンを選択する必要がある.しかし,1つの入力文に対して訂正度はある程度定まるが,一意には定まらず,多様な訂正文を考慮した際に訂正度の幅が存在すると考えられる.図\ref{fig:gold_wer}は,CoNLL-2014において,1つの誤り文を訂正する際の訂正度にある程度の幅が存在することを示した図である.図中の点はある誤り文とそれに対応する人手で訂正を行った1つの参照文のペアを指しており,横軸は対象の誤り文に対する複数参照文の平均単語編集率,縦軸は対象のペアの単語編集率を表している.また,赤線は平均単語編集率を示した補助線である.この図より,全体的に複数参照文における平均単語編集率が高くなれば,参照文ごとの単語編集率も全体的に高くなるが,参照文ごとに単語編集率の幅が存在することがわかる.そこで,本研究では,BidirectionalEncoderRepresentationsfromTransformers(BERT)\cite{devlin-etal-2019-bert}を用いて入力文に対して訂正度の幅を考慮しながら適切な特殊トークンの選択を行った.詳細は\ref{subsubseq:bert_wer}節にて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{誤り箇所を考慮したビームサーチ} \label{sec:beam}我々は,訂正が必要な箇所のみに対して多様な訂正を行い,既に文法的に正しい箇所に対しては多様な訂正を行わない,誤り箇所を考慮したビームサーチを提案する.具体的には,誤り箇所を考慮したペナルティ$penalty$を各タイムステップ$t$の各ビーム$b$毎にモデルの対数出力確率に対して与えることで多様な出力の生成を目指した.ペナルティは以下の式で与えられる.\begin{equation}penalty_{b,t}=\lambdas_{b,t}+\beta\\\label{eq:penalty}\end{equation}$s_{b,t}$は,ビーム$b$,タイムステップ$t$における最も生成確率の高いトークンが,訂正が行われているトークンであるかどうかを[0,1]の範囲で表す指標である.具体的には,訂正が行われている場合は$s_{b,t}$の値が0に近く,訂正が行われていない場合は$s_{b,t}$の値が1に近くなることが望ましい.$\lambda$と$\beta$はハイパーパラメータであり,$\lambda$はペナルティの強さを調整し,$\beta$はペナルティがゼロになることを防ぐためのパラメータである.本研究では,BERTを用いて入力文とタイムステップ$t$までの出力文から訂正が行われているかどうかの分類を行い,訂正が行われていないと分類された確率を$s_{b,t}$に用いた.詳細は,\ref{subsubseq:bert_beam}節にて説明する.以下の式のように,このペナルティを文法誤り訂正モデルの対数出力確率$\logp$に与えることで,ビームサーチのスコア$k$に対して制約を加えた.\begin{equation}k_{b,t}=penalty_{b,t}\logp_{b,t}\\\label{eq:bs}\end{equation}この制約により,訂正が行われていないビームに対しては選択されにくくなり,反対に,訂正が行われているビームに対しては選択されやすくなる.図\ref{fig:dlbs}は,入力文として``Thisessaywillillustrateontwoaspect.''が与えられた場合のビーム幅2,タイムステップ$t$における概要図である.図の上部は,直前のタイムステップ$t-1$において``illustrate''を選択した第1ビームを,下部は,``this''を選択した第2ビームを表しており,色の薄さは生成確率の高さに比例している.このとき,タイムステップ$t$の第1ビームにおいて最も生成確率の高いトークンは,入力文と同じ``on''であり,第2ビームにおいては,入力文から書き換えを行った``in''である.通常のビームサーチでは,それぞれ生成確率の高い,``illustrateon''と``thisin''が選択される.しかし,我々の提案手法では,第1ビームは書き換えを行っておらず,対して,第2ビームは書き換えを行っているため,第1ビームにのみペナルティが与えられ,最終的に訂正を行っている第2ビームから``thisin''と``thiswith''が選択されることになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia5f5.pdf}\end{center}\hangcaption{ビーム幅2における誤り箇所を考慮したビームサーチの概要図.薄い色は生成確率が高いことを示している.}\label{fig:dlbs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{BERTを用いた文分類} \label{subsec:bert}BERTは大規模データにより事前学習された言語表現モデルであり,様々な自然言語処理のタスクにおいて高い性能を発揮している.実際に,文法誤り訂正と類似タスクである文法的に誤っている箇所の検出を行う文法誤り検出というタスクにおいてもBERTが用いられている\cite{Kaneko2019MultiHeadMA}.BERTは入力として文または文対を受け取り,それらを符号化するモデルである.学習時,入力文対が連続した文であるか否かの分類や,入力トークンの一部を[MASK]トークンに置き換えた上で,元のトークンの推定を行うことで高性能な言語表現を獲得している.また,BERTの入力には先頭に[CLS]というトークンが挿入されており,このトークンに対応する隠れ層が入力文もしくは入力文対の分散表現を表している.我々は,訂正度を制御した文法誤り訂正における適切な特殊トークンの選択や,誤り箇所を考慮したビームサーチにおける$s_{b,t}$としてBERTの[CLS]トークンの分散表現を分類する手法を用いた.いずれの手法も事前学習済みのBERT\footnote{使用した事前学習済みモデル:\url{https://huggingface.co/bert-base-cased}}に対して再訓練を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTを用いた訂正度の推定}\label{subsubseq:bert_wer}\ref{sec:wer}章にて述べた通り,訂正度を制御した文法誤り訂正モデルだけでは,参照文が与えられない限り,推論時に入力文に対して適切な訂正度の判別はできない.本章では,このBERTを用いた入力文に対して適切な訂正度の選択手法について述べる.具体的な手法としては,BERTに対して誤り文のみを入力し,それに対応する訂正度を$L$値分類として出力させるというものである.ここで,1つの誤り文に対して複数の訂正度が考えられるが,誤り文に含まれる誤り箇所の個数は限られており,それに対応して単語編集率も限られているため,ある程度の分類は可能であると考えられる.実際に訂正度を制御した文法誤り訂正モデルにおいて$n$-best出力を得る際,BERTの予測確率を用いて複数の特殊トークンの出力から$m_{i}$-bestを選択し,それらを合わせて最終的な$n$-bestを得る.1つの特殊トークンによる出力を用いるのではなく,複数の訂正度による出力を選択することで,より多様な出力を得ることができる.具体的な選択手法としては,まず,式\ref{eq:softmax}に示す通り,BERTの特殊トークンに対する出力スコア$o=(o_1,...,o_{i},...,o_{L})$に対してSoftmax関数を用いて,特殊トークンごとの出力確率$p=(p_1,...,p_{i},...,p_{L})$を得る.得られた出力確率に対して式\ref{eq:m}に示す通り,$n$を掛け,小数点以下を四捨五入することで特殊トークン毎に採用する$m_{i}$-bestの数を決定した.\begin{gather}\label{eq:softmax}p_{i}=\frac{\exp(o_{i})}{\sum_{l=1}^L\exp(o_{l})}\\\label{eq:m}m_{i}=\mathrm{round}(n\timesp_{i})\end{gather}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTによる訂正箇所の分類}\label{subsubseq:bert_beam}\ref{sec:beam}章で述べた通り,入力文とタイムステップ$t$までの出力文から訂正が行われているかどうかの分類を行う必要がある.動的計画法などを用いて入力文と出力文の対応を取ることで,訂正が行われているか否かの判定が可能になると考えられるが,データ内の文数$\times$ビーム幅$\times$タイムステップ数の処理が必要となる.本研究では,より高速にバッチ処理が可能なBERTを用いて入力文とタイムステップ$t$までの出力文から訂正が行われているかどうかの分類を行った.本節では,誤り箇所を考慮したビームサーチの$s_{b,t}$に対するBERTの利用法について説明する.$s_{b,t}$は,\ref{sec:beam}章にて述べた通り,タイムステップ$t$,ビーム$b$の最も生成確率の高いトークンにおいて,訂正が行われているかどうかを表す指標である.そこで,BERTに対して誤り文と,その誤り文に対する,あるタイムステップまでのモデルの出力文の2文を入力し,モデルの出力文の最後のトークン,つまり,あるタイムステップ$t$,ビーム$b$において生成確率が最大であるトークンが訂正されたトークンであるかどうかの分類を行わさせる.そして,BERTが訂正していないと分類した確率を$s_{b,t}$として用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{05table02.tex}\caption{データセットの概要}\label{table:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}表\ref{table:dataset}に本実験において使用したデータセットの概要を示す.訓練データとしては,学習者支援に関する国際会議であるWorkshoponInnovativeUseofNLPforBuildingEducationalApplications(BEA)において2019年に開催されたSharedTaskonGrammaticalErrorCorrection\cite{bryant-etal-2019-bea}のRestrictedtrackにて使用された訓練データ(BEA-train)を用いた.この訓練データには,TheFirstCertificateinEnglish(FCE)を受験した学習者の回答から集められたFCEコーパス\cite{yannakoudakis-etal-2011-new},言語学習者のためのSNSであるLang-8の添削データより集められたLang-8コーパス\cite{2013B-C76},シンガポール国立大学の英語学習者である学生が作成した作文から集められたNUSCorpusofLearnerEnglish(NUCLE)\cite{dahlmeier-etal-2013-building},英語学習者の学生のライティングを支援するWrite$\And$Improveと英語を母語とする学生の作文より集められたW$\And$I+LOCNESSコーパス\cite{bryant-etal-2019-bea,granger}の4つのコーパスが含まれている.ただし,前処理として訂正が行われていない文と訂正結果が空白である文対は取り除いた.また,訓練時,最適なモデルのエポック数を決定するために,BEA-2019において使用された開発データ(BEA-valid)を用い,この開発データに対するlossが最小となるエポック数を最適なモデルのエポック数とし,その時点でのモデルを実験に用いた.既存手法の多様なビームサーチ\cite{DBS}や提案手法である誤り箇所を考慮したビームサーチに使用するハイパーパラメータに関しては,JFLEGを用いて最適化を行った.JFLEGは4つの参照文が存在しており,CoNLL-2014には18の参照文が存在する.ここで,CoNLL-2014SharedTask:GrammaticalErrorCorrectionにて付与された参照文数は2つであるが,\citeA{bryant-ng-2015-far}により8つ,\citeA{sakaguchi-etal-2016-reassessing}により8つの参照文が新たに作成されているため,それらを全て組み合わせ,18の参照文数となる.訂正度の推定に用いるBERTの再訓練には,訂正度を制御した文法誤り訂正モデルの訓練に用いた特殊トークンを付与したデータセットと同じ訓練データを用い,特殊トークンを付与する前の誤り文を入力し,そこから特殊トークンを予測させるという訓練を行った.ただし,ランダムに5,000文選択し,開発データとして用いた.訂正箇所の分類に用いるBERTの再訓練に用いたデータセットとしては,NUCLEを用いた.ERRANT(grammaticalERRorANnotationToolkit)\cite{bryant-etal-2017-automatic}を用いて,訂正文において誤り文から挿入・置換・削除の訂正が行われている箇所を抽出することで,誤り文と訂正が行われている単語までの訂正文のペアを作成した.訂正箇所の分類に用いるBERTにおいては訂正が行われていない場合,高いスコアであることが望まれるため,これを負例としてラベル付けした.ただし,削除の訂正に関しては,削除した単語の直後の単語までの訂正文を負例とした.正例としては,誤り文と訂正が行われていない単語までの訂正文のペアを作成し,負例と同数になるようにランダムに選択することで作成した.また,開発データとしては,CoNLL-2013SharedTaskonGrammaticalErrorCorrection\cite{ng-etal-2013-conll}にて用いられたデータセットであるCoNLL-2013に対して訓練データと同様の処理を行ったデータを用いた.以上の処理により,NUCLEは元々57,151文対存在するが,168,524文対の学習データとなり,元々1,381文対存在するCoNLL-2013は.11,009文対の開発データとなった.また,再訓練の結果,開発データにおけるF値は約0.97であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価方法}我々は,手法毎の性能を比較するために以下の3つの評価指標を設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{訂正の多様性の評価(C-score)}訂正結果の多様性を評価するために,モデル出力の$n$-bestと複数参照間の一致率を評価する.一致率の算出方法としては,機械翻訳における多様な翻訳文生成を目的とした2020DuolingoSharedTask\cite{staple20}の評価指標として使用された重み付き再現率を使用する.具体的には,モデル出力の$n$-bestと複数参照文間において完全一致した文数を求め,一致した参照文に応じて重み付けを行う.そして.重み付けされた値を評価データ内の全参照文数で割ることで一致率を算出する.ただし,本研究においては,ある1つの入力文に対する参照文間で重複した回数を参照文の総数で割った値を重みとして使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{訂正箇所の正しさの評価(DF-score)}入力文全体を書き換えて多様化するのではなく,実際に訂正が必要な箇所のみに書き換えが行われているかどうかの評価を行う.評価方法としては,まず式\ref{eq:df}に示す通り,誤り文errの$n$-gramから参照文に対してのdocumentfrequency(df)を求める.ここで,$ng^{err}=(ng_1^{err},...,ng_{i}^{err},...,ng_{n}^{err})$は誤り文の$n$-gram集合,$|\{r:r\ning_{i}^{err}\}|$は$ng_{i}^{err}$を含む参照文$r$の総数,$|R|$は総参照文数である.次に,式\ref{eq:cap}に示すとおり,誤り文の$n$-gram集合とモデルの出力文hypの$n$-gram集合$ng^{hyp}$の積集合$ng^{err\cap{hyp}}$を求める.そして,式\ref{eq:dfscore}に示す通り,モデルの出力文における$ng_{i}^{err\cap{hyp}}$の出現回数$\mathrm{COUNT}(hyp,ng_{i}^{err\cap{hyp}})$を求め,その$n$-gramに対応するdfを出現回数に掛け,さらに誤り文における$ng_{i}^{err}$の出現回数$\mathrm{COUNT}(err,ng_{i}^{err})$にdfを掛けた値の合計値で割ることで,そのモデル出力に対するスコアを算出する.\pagebreak\begin{align}\label{eq:df}df_{i}&=\frac{|\{r:r\ning_{i}^{err}\}|}{|R|}\\\label{eq:cap}ng^{err\cap{hyp}}&=ng^{err}\capng^{hyp}\\\label{eq:dfscore}df_{score}&=\frac{\sum_{i=1}^n\mathrm{COUNT}(hyp,{ng_{i}}^{err\cap{hyp}})df_{i}}{\sum_{i=1}^n\mathrm{COUNT}(err,ng_{i}^{err})df_{i}}\end{align}このスコアは,dfが高い$n$-gram,つまり書き換える必要のない$n$-gramがモデルにより書き換えられ,出力文に出現しない場合,大きく低下する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文法誤り訂正の精度評価(G-score)}手法毎における文法誤り訂正タスクとしての性能を評価するため,一般的に文法誤り訂正タスクにおいて用いられる評価指標を用いて評価を行った.具体的には表\ref{table:dataset}に示す通り,JFLEGに対してはGLEUscore\cite{napoles-etal-2015-ground}を,CoNLL-2014に対してはMaxMatch($\mathrm{M^2}$)score\cite{dahlmeier-ng-2012-better}を用いて評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文法誤り訂正モデル}我々は,文法誤り訂正モデルとしてTransformerbase\cite{transformer}を用い,パラメータも同様のものを用いた\footnote{使用したフレームワーク:\url{https://github.com/pytorch/fairseq/releases/tag/v0.9.0}}.ベースラインモデルとしては,BEA-trainをそのまま訓練データとして用いて訓練したモデルを用いた.ビームサーチ時のビーム幅は生成したい$n$-best出力の$n$と同様の値を用いた.既存手法の多様なビームサーチ\cite{DBS}におけるハイパーパラメータであるDiversityStrengthは0.6を,NumberofGroupsはビーム幅と同様の値を用いた.提案手法である誤り箇所を考慮したビームサーチのハイパーパラメータとして,ベースラインモデルに対しては$\lambda=0.5$,$\beta=1.0$を,訂正度を制御した文法誤り訂正モデルに対しては$\lambda=0.1$,$\beta=1.0$を用いた.訂正度を制御した文法誤り訂正においては,BEA-train内の全誤り文の文頭に対応する特殊トークンの付与を行った新たな訓練データを作成し,この新たに作成した訓練データを用いてモデルの訓練を行った.JFLEGにおいて,異なる特殊トークンの種類数を用いて学習を行った結果を表\ref{table:num_token}に示す.ここで,特殊トークンの種類数が1の場合は特殊トークンを付与していない通常の訓練データを用いた場合の結果を示している.BERTaccuracyはBERTを用いた訂正度の推定精度を示しており,特殊トークンの種類数が多くなるにつれて推定精度が低下しており,その他の評価スコアも同様に低下している.したがって,BERTによる推定精度が低いと適切でない訂正度の出力が選択されることになり,適切に多様性を向上できなかったと考えられる.特殊トークンの種類数としては2のときが最も高いスコアとなったため,本研究においては2を選択した.訂正度を制御した文法誤り訂正モデルの訓練に使用した特殊トークン毎の単語編集率の閾値を表\ref{table:token}に示す.BEA-train内の全文対における単語編集率に基づいて2つの集合に分け,$\langlewer\_1\rangle$(単語編集率の低い文集合),$\langlewer\_2\rangle$(単語編集率の高い文集合)の2つの特殊トークンを定義した.特殊トークン毎の単語編集率の最大値と最小値に重複が見られるのは,それぞれの特殊トークンの集合において文数が等しくなるように分割したためである.また,原文の単語数を超える単語数の挿入,削除,置換が行われる場合,単語編集率は1を超える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{05table03.tex}\caption{JFLEGにおける特殊トークンの種類数別の結果}\label{table:num_token}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\caption{訓練データ内の特殊トークンに対応する単語編集率の閾値と文数}\label{table:token}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{05table05.tex}\caption{CoNLL-2014における10,15,20-bestの実験結果}\label{table:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{table:result}は,ベースラインモデルに通常のビームサーチを適応したモデル(PBS),多様なビームサーチを適応したモデル(DGBS)\cite{DBS},mixtureofexperts(MoE)\cite{MoE}と,提案手法である訂正度を制御した文法誤り訂正モデル(WER),WERに誤り箇所を考慮したビームサーチを適応したモデル(+DLBS)の評価データにおける実験結果である.また,10,15,20-bestにおいて実験を行った.*は提案手法がPBSに対して,$\dagger$は+DLBSがWERに対して,ブートストラップ法により有意水準0.05で有意差があることを示す.既存手法であるDGBSとMoEは,PBSと比較すると出力の多様性を示すC-scoreが低下しており,機械翻訳などにおいては有効なこれらの手法が,文法誤り訂正においては有効でないことがわかる.さらに,15,20-bestにおいてDGBSのDF-scoreが大きく低下していることから,訂正が不要な部分においても書き換えを行っていると考えられる.一方で,提案手法であるWERは,G-scoreは低下しているが,C-scoreにおいていずれの既存手法よりも上回っており,DF-scoreも高いことから,WERは不要な訂正を行うことなく,多様な出力を生成できていることが確認できる.ここで,G-scoreの低下の主な原因として,``Itishereditary.''という入力文に対して,``Itisahereditary.''への訂正という不必要な冠詞の挿入などが多く見られ,多様化に伴い,細かい訂正が増加したことが挙げられる.DLBSをPBSに適用した場合は,10,15-bestにおいてC-scoreが向上し,DF-scoreも向上した.同様に,WERに適用した場合は10,20-bestにおいてC-scoreが向上し,DF-scoreも向上していることから訂正が必要な箇所のみを多様化していることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{05table06.tex}\caption{特殊トークン毎の誤り訂正結果}\label{table:control}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訂正度の制御に関する分析}\label{subseq:control}訂正度を制御した文法誤り訂正モデルにおいて,実際に特殊トークンによりモデルの訂正度が制御できているかどうかの実験を行った.異なる特殊トークンでの訂正度の違いを分析するため,この実験では特殊トークンの種類数を4として学習したモデルを利用した.そのため,この分析においてはBEA-train内の全文対における単語編集率に基づいて4つの集合に分け,$\langlewer\_1\rangle$(単語編集率の最も低い文集合),$\langlewer\_2\rangle$,$\langlewer\_3\rangle$,$\langlewer\_4\rangle$(単語編集率の最も高い文集合)の4つの特殊トークンを定義した.表\ref{table:control}は,全て同一のモデルであるが,それぞれ推論時の入力文の全文に対して異なる特殊トークンを付与した場合の結果を示している.例えば,$\langlewer\_1\rangle$の行はJFLEGとCoNLL-2014の全入力文の文頭に$\langlewer\_1\rangle$を付与して推論させた場合の結果である.単語編集率の列は,それぞれの評価データの入力文とそれに対応するモデルの出力文から単語編集率の平均値を求めた結果であり,Goldの行は参照文との単語編集率の平均値である.これらの値を特殊トークンごとに比較すると,特殊トークンにより定義された単語編集率の大きさに比例して実際の単語編集率も変化していることがわかる.つまり,特殊トークンによってモデルの訂正度を制御することが可能であることを示している.しかし,同一特殊トークン内でもJFLEGとCoNLL-2014における単語編集率が異なることがわかる.一方で,同一特殊トークン内における単語編集率の差はGoldにおける単語編集率の差とほぼ同様であることから,このモデルは特殊トークンにより定義された単語編集率だけに従って訂正をするのではなく,入力文も考慮して訂正度を制御していると考えられる.また,JFLEGにおいて最も高いGLEUスコアとなったのは,特殊トークン$\langlewer\_3\rangle$を付与した場合であり,次は特殊トークン$\langlewer\_2\rangle$を付与した場合である.一方で,CoNLL-2014において最も高い$\mathrm{F_{0.5}}$となったのは,特殊トークン$\langlewer\_2\rangle$を付与した場合であり,次は特殊トークン$\langlewer\_1\rangle$を付与した場合である.この差は,JFLEGとCoNLL-2014において訂正度が異なるため,JFLEGにおいてはCoNLL-2014よりもより大きな訂正度で訂正を行った場合の方がスコアが向上したと考えられる.それぞれの特殊トークンでの適合率(P)と再現率(R)を見ると,特殊トークン$\langlewer\_1\rangle$での適合率が最も高く,再現率が低い.一方で,特殊トークン$\langlewer\_4\rangle$での適合率が最も低く,再現率が高くなっている.このことから,単語編集率と比例して再現率が変化し,反対に単語編集率と反比例して適合率が変化していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTによる特殊トークン推定に関する分析}図\ref{fig:bert}は,CoNLL-2014において,BERTによる特殊トークン毎の予測結果と実際の参照文の単語編集率に基づいた特殊トークンとの混同行列を示している.縦軸は,CoNLL-2014の複数参照文から算出した平均単語編集率に基づいた正解ラベルであり,横軸は,BERTにより特殊トークン毎の$m$-bestを選択する際の予測結果を示している.また,図中の値は実際にBERTにより選択された$m$-bestの総数を示しており,色の濃さは文数の多さと比例している.まず,表\ref{table:control}に示した通り,CoNLL-2014の平均単語編集率は低いため,正解ラベルも$\langlewer\_1\rangle$が多く,偏りが見られる.同様に,BERTによる予測結果も$\langlewer\_1\rangle$と予測した結果が多くなっている.ただし,正解ラベルが$\langlewer\_2\rangle$の場合においても$\langlewer\_1\rangle$と予測した結果が多くなっているため,訂正度が低い方に予測を行う傾向があるということがわかる.図\ref{fig:cscore}は,正解ラベルとBERTによる予測結果の組み合わせ毎のC-scoreを示した混同行列である.ただし,C-scoreを求める際,参照文を全文用いるとBERTにより出力文が選択されていない,つまり,出力文が存在しない場合,不当にスコアが低くなるため,出力文が選択されている入力文に対応する参照文のみを用いて評価した.スコアを比較すると,正解ラベルが$\langlewer\_1\rangle$であり,予測結果も$\langlewer\_1\rangle$の場合が最もスコアが高くなっている.また,正解ラベルが$\langlewer\_1\rangle$であり,予測結果が$\langlewer\_2\rangle$である文数は少ないが,スコアとしては高くなっている,これは,参照文に訂正が少ないデータが多いため,複数参照文内にも重複が多く,全体的にスコアが上がりやすいためであると考えられる.一方で,正解ラベルが$\langlewer\_2\rangle$の場合は,全体的にスコアが低くなっている.さらに,予測結果が$\langlewer\_2\rangle$である場合もスコアが高くなっておらず,予測結果が$\langlewer\_1\rangle$の場合のスコアの方が僅かに高くなっている.この結果の原因としては,まず,訂正度が高い方が訂正箇所が多く,文の完全一致で評価しているため正解ラベルが$\langlewer\_1\rangle$の場合よりも難しい問題となっているためであると考えられる.加えて,BERTにより選択された文数が少なく,$\langlewer\_2\rangle$と予測された文数は$\langlewer\_1\rangle$と予測された文の半数であるため,スコアが低くなったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6and7\begin{figure}[t]\setlength{\captionwidth}{200pt}\begin{minipage}[t]{200pt}\begin{center}\includegraphics{28-2ia5f6.pdf}\end{center}\hangcaption{CoNLL-2014におけるBERTによる特殊トークンの推定結果}\label{fig:bert}\end{minipage}\hfill\begin{minipage}[t]{200pt}\begin{center}\includegraphics{28-2ia5f7.pdf}\end{center}\hangcaption{CoNLL-2014におけるBERTにより選択された特殊トークンごとの出力のC-score}\label{fig:cscore}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多様化に関する分析}表\ref{table:nbest}の上部は,訂正度を制御した文法誤り訂正モデルにおける特殊トークン毎のC-scoreにおいて,誤り箇所を考慮したビームサーチの影響を比較した表である.この表より,ほぼ全ての出力において,誤り箇所を考慮したビームサーチを用いることで多様性が向上することがわかる.$\langlewer\_1\rangle$と$\langlewer\_2\rangle$を比較すると,訂正度が高い$\langlewer\_2\rangle$の方がスコアが低くなっているが,これはCoNLL-2014の訂正度が元々低いため,訂正度を高くしてもスコアの向上が見られなかったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{05table07.tex}\caption{特殊トークン毎の出力文の多様性}\label{table:nbest}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表中のSingleWERはBERTによって入力文から予測された特殊トークンの中で最も予測確率の高い単一の特殊トークンの出力文を選択した場合の結果である.一方で,MultiWERはBERTの予測確率から複数の特殊トークンの出力文を選択した場合の結果であり,表\ref{table:result}のWERや+DLBSと同様の結果である.これらを比較すると,SingleWERでは,スコアが低下しているため,1つの入力文に対して単一の訂正度ではなく,複数の訂正度を用いることで多様な訂正文が得られることがわかる.また,GoldWERは複数参照文から求めた平均の単語編集率から入力文に付与する特殊トークンを設定した場合で,OracleWERは特殊トークン$\langlewer\_1\rangle$と$\langlewer\_2\rangle$の$2\timesn$-bestの中からスコアが最も高くなるように$n$-bestを選択した場合のスコアを表している.この結果より,参照文より求めた特殊トークンを付与することでは,最良の結果が得られないことがわかる.\ref{subseq:control}節で述べた通り,入力文も考慮して訂正度の制御が行われており,特殊トークンにより定義された単語編集率に基づいてモデルの訂正度が変化するわけではないため,高いスコアが得られなかったと考えられる.一方で,最良な$n$-bestを選択することで,スコアが大幅に向上していることから,異なる特殊トークン間の出力に大きく多様性が存在していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,文法誤り訂正において多様な訂正文を生成するための手法を提案した.我々は,訓練データに対して単語編集率に基づいた特殊トークンの付与を行い,新たに作成した訓練データで文法誤り訂正モデルを訓練することで出力文の訂正度の制御を可能にした.また,このモデルにより生成された訂正文が既存手法よりも多様な訂正文を生成可能であることも示した.さらに,誤り箇所を考慮したビームサーチを組み合わせることで,訂正が必要な箇所のみをより多様にした出力が得られる事を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentLang-8のデータ使用にあたり,データを共有して頂きました株式会社Lang-8の喜洋洋様に感謝申し上げます.本論文の内容の一部は,The57thAnnualMeetingoftheAssociationforComputationalLinguistics:StudentResearchWorkshopとThe28thInternationalConferenceonComputationalLinguisticsで発表したものである\cite{hotate-etal-2019-controlling,hotate-etal-2020-generating}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{甫立健悟}{2019年首都大学東京(現東京都立大学)システムデザイン学部システムデザイン学科情報通信システムコース卒業.2021年東京都立大学システムデザイン研究科システムデザイン専攻情報科学域博士前期課程修了.同年株式会社リクルート入社.現在に至る.}\bioauthor{金子正弘}{2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,首都大学東京システムデザイン研究科博士後期課程に進学.2019年より日本学術振興会特別研究員(DC2)を経て,2021年博士後期課程修了.博士(情報科学).同年より東京工業大学情報理工学院研究員.現在に至る.}\bioauthor{勝又智}{2018年首都大学東京システムデザイン学部情報通信システムコース卒業.2020年同大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年株式会社レトリバ入社.現在に至る.自然言語処理の研究に従事.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V12N01-01
\section{はじめに} \label{sec:Introduction}近年,情報化が進むにつれて,大量の電子テキストが流通するようになった.これを有効活用するために,情報検索や情報抽出,機械翻訳など,計算機で自然言語を処理する技術の重要性が増している.この自然言語処理技術は様々な知識を必要とするが,その中で構文解析の際に最もよく用いられるものは文脈自由文法(CFG,以下,文法と略す)である.ところが,人手で作成した大規模な文法は,作成者の想定する言語現象にどうしても``もれ''があるため,網羅性に欠けるという問題がある.一方,最近では,コーパスから抽出した統計情報を用いて自然言語を解析するコーパスベースの研究が成果をあげており,それに伴い,(電子)コーパスの整備が進んでいる.このコーパスから文法を自動的に抽出する研究もあり\cite{charniak:96,shirai:97},文法作成者に大きな負担をかけることなく,コーパス内に出現する多様な言語現象を扱える大規模な文法を作成することが可能である.しかし,コーパスから抽出した文法には問題がある.それは,コーパスから抽出した文法で構文解析を行うと,一般に,膨大な量の構文解析結果(曖昧性)\footnote{以降,特に断わらない限り,構文解析結果の曖昧性を単に曖昧性と呼ぶ.}が出力されることである.その要因については後述するが,これが,解析精度の低下や解析時間,使用メモリ量の増大の要因となる.コーパスから抽出した大規模文法がこれまで実用に供されなかった最大の理由はここにある.コーパスには意味を考慮した構文構造が付与されていることが普通であり,そのコーパスから抽出した文法で構文解析を行うと,意味解釈に応じた異なる構文解析結果が多数生成される.しかし,意味情報を用いない構文解析の段階では,意味的に妥当な少数の構文構造に絞り込めず,可能な構文構造を全て列挙せざるを得ない.我々は,構文解析結果(構文木)に沿って意味解析を進める構文主導意味解析(SyntaxDirectedSemanticAnalysis,SDSA)\cite{jurafsky:2000}を想定し,構文解析の段階で生じる曖昧性を極力抑え,次の意味解析の段階で意味的に妥当な意味構造を抽出するという2段階の解析手法を採用する(図\ref{fig:analysis_flow}).\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Introduction/figure/flow.eps}\caption{自然言語解析の流れ}\label{fig:analysis_flow}\end{figure}\if0\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Introduction/figure/procedure.eps}\caption{大規模日本語文法作成手順}\label{fig:procedure}\end{figure}\fi本論文では,構文解析の段階の曖昧性を極力抑え,その後の意味解析の段階にも有効な構文構造を生成する大規模日本語文法について検討する.\if0そこで,我々は,既存の構文構造付きコーパスを出発点とし,以下の手順で文法を作成することを試みている(図\ref{fig:procedure}).\begin{enumerate}\item既存の構文構造付きコーパスから文法を抽出する\item構文解析結果の曖昧性を増大させる要因を分析する\item分析結果をもとに構文構造付きコーパスの変更方針を作成する\item変更方針に従ってコーパスを変更し,そこから新しい文法を再抽出する\item(2)〜(4)を繰り返す\end{enumerate}ただし,文法の抽出は,Charniakによる``tree-bankgrammar''の抽出方法\cite{charniak:96}と同様の方法をとる.上述の文法作成手順では,構文構造付きコーパスの変更に重点が置かれ,文法の作成,変更というより,むしろコーパスの作成,変更のように思われるかもしれない.しかし,実際の変更過程では,抽出した文法を変更し,それをコーパス中の構文構造に反映させる方法をとっている.文法の変更をコーパスにまで反映させるのは,PCFGモデル等の確率モデルによる学習の際に訓練データとして必要であるからであり,文法の作成,変更とコーパスの作成,変更は同時に扱うべき問題である.つまり,「曖昧性を抑えた構文構造を出力するように文法を変更する」ことと,「コーパスに付与されている構文構造を曖昧性を抑えたものに変更する」ことは,結局のところ,同じことであると考えている.\fiその結果,検討前の文法と比較して,出力される解析木の数を$10^{12}$オーダから$10^5$オーダまで大幅に減少させることが可能になった.さらに,この文法から得た解析結果に対して,意味情報をまったく用いず,確率一般化LRモデル(PGLRモデル)\cite{inui:98}によるスコア付け1位の解析木の文の正解率は約60\%であった.一方,スコア付け1位の解析木に対し,機械的な方法で文節の係り受けの精度を測定したところ,意味情報を用いなくても,89.6\%という高い係り受け精度が得られた.意味情報を本格的に利用することで,さらなる精度向上が図れるという見通しを得ている.以下に本論文の構成を述べる.第\ref{sec:Related}節では,コーパスから文法を抽出する主な研究を二つ紹介する.第\ref{sec:Procedure}節では,我々が大規模日本語文法を作成する際の手順について述べる.第\ref{sec:Problem}節では,コーパスから抽出した文法が,構文解析において膨大な量の曖昧性を出力する要因を考察する.第\ref{sec:Modification}節では,構文解析結果の曖昧性の削減を考慮した具体的な文法とコーパスの変更方針を述べ,第\ref{sec:Evaluation}節,第\ref{sec:SDDA}節では,変更したコーパスから抽出した文法の有効性を実験により明らかにする.最後に,第\ref{sec:Conclusion}節で本研究を総括し今後の課題を述べる. \section{関連研究とその問題点} \label{sec:Related}本節では,文法をコーパスから抽出する主な類似研究を紹介する.\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Related/figure/grammar_extraction.eps}\caption{PennTreebankコーパスからの文法抽出}\label{fig:grammar_extraction_from_penntree}\end{figure}英語の大規模な構文構造付きコーパスとしてPennTreebankコーパスがある\cite{marcus:93}.Charniakはこのコーパスから``tree-bankgrammar''と呼ばれるCFGを抽出し,人手で作成した文法との比較を行っている\cite{charniak:96}.tree-bankgrammarは,各中間ノードについて,そのラベルを左辺に,子ノードのラベルを右辺に持つCFG規則を獲得することで抽出できる(図\ref{fig:grammar_extraction_from_penntree}).これまで,コーパスから抽出した文法では,構文解析はうまくいかないと言われていたが,人手で作成した文法との比較実験の結果,特に単語数の多い長い文では,コーパスから自動抽出した文法の解析精度が良くなることを示し,それまでの一般的な見識が誤りであることを明らかにしている.一方,日本語では,PennTreebankコーパスのような大規模な構文構造付きコーパスが存在しない.大規模なコーパスとしてEDRコーパス\cite{edr:2001}と京大コーパス\cite{kurohashi:97}がある.しかし,EDRコーパスは括弧付きコーパスであり,付与されている構文木の内部ノードにラベルが付いていない.京大コーパスは,二つの文節間の依存関係が付与されているだけで,文節内の構造は付与されていないので,tree-bankgrammarのようなCFGは抽出できない.白井らはEDRコーパスからのCFGの自動抽出を試みている\cite{shirai:97}.構文木の内部ノードにラベルが付与されていないので,各内部ノードに対して適当なラベル(非終端記号)を付与する方法を提案している.しかし,日本語,英語いずれの場合にも,構文構造付きコーパスから抽出した大規模なCFGで構文解析を行うと,膨大な数の構文解析結果が出力される.この問題に対し,Charniakは,コーパス中の出現頻度の低い文法規則を削除し,確率文脈自由文法(PCFG)で得られる生成確率に基づく最良優先解析(best-firstparsing)を行い,解析途中で曖昧性を抑えている.これは,出現頻度の低い文法規則は構文解析における曖昧性を増大させるだけで,解析精度にほとんど影響を与えないという仮定に基づいている.しかし,詳細は後述するが,出現頻度の低い文法規則だけが構文解析結果の曖昧性を増大させるわけではない.労力は要するが,構文解析における曖昧性を増大させる要因を人手で分析する必要があると我々は考えている.白井らは,構文解析結果の曖昧性を増大させる要因を分析し,多数の曖昧性を作り出す文法規則を機械的に変更することで,曖昧性の削減を図っている.しかし,機械的な変更だけで曖昧性を削減することには限界があり,人手による変更も必要になる.人手による変更が必要となる例を以下に挙げる.\if0\begin{description}\item[人間の直観に反する規則:]白井らは,括弧付きコーパスであるEDRコーパスからCFGを抽出するために,内部ノードに付与するラベルを機械的に推定している.しかし,抽出される文法規則が人間の直観に合わない場合がある.例えば,「変化/し/まし/た/か」という単語列をカバーするノードのラベルを考えると(スラッシュは単語区切りを示す),白井らのアルゴリズムでは,右端の「か」が助詞であるため,``後置詞句''となり,次のCFG規則が得られる.しかし,直観的には,後置詞句ではなく動詞句の方が適切である.\end{description}\fi\begin{description}\item[機能による助詞の細分化:]白井らは,助詞を形態素ごとに細分化することで曖昧性を抑えている.しかし,格助詞,終助詞,並列助詞など機能による細分化も曖昧性の削減には必要である.EDRコーパス中の助詞に付与されている品詞はすべて``助詞''であり,機能による細分化は人手を要する.\item[意図しない非終端記号の割り当て:]白井らは,括弧付きコーパスであるEDRコーパスからCFGを抽出するために,内部ノードに付与するラベルを機械的に推定している.しかし,機械的な推定では,アルゴリズムで想定していない文法規則を生成することがある.例えば,「変化/し/まし/た/か」という単語列をカバーするノードのラベルを考えると(スラッシュは単語区切りを示す),白井らのアルゴリズムでは,右端の「か」が助詞であるため,``後置詞句''となり,次のCFG規則が得られる.\[\mbox{後置詞句→動詞語尾助動詞助動詞助詞}\]直観的には,後置詞句ではなく動詞句の方が適切であるが,機械的な推定では,意図しない非終端記号の割り当てを細かく除外していくことは困難である.\end{description}\if0例えば,白井らは助詞を形態素ごとに細分化することで曖昧性を抑えている.しかし,格助詞,終助詞,並列助詞など機能による細分化も曖昧性の削減には必要である.EDRコーパス中の助詞に付与されている品詞はすべて``助詞''であり,機能による細分化は人手を要する.さらに,括弧付きコーパスであるEDRコーパスからCFGを抽出するために,内部ノードに付与するラベルを機械的に推定している.しかし,抽出される文法規則が人間の直観に合わない場合がある.例えば,「変化/し/まし/た/か」という単語列をカバーするノードのラベルを考えると(スラッシュは単語区切りを示す),白井らのアルゴリズムでは,右端の「か」が助詞であるため,``後置詞句''となり,次のCFG規則が得られる.\[\mbox{後置詞句}\to\mbox{動詞}~~\mbox{語尾}~~\mbox{助動詞}~~\mbox{助動詞}~~\mbox{助詞}\]しかし,直観的には,後置詞句ではなく動詞句の方が適切である.\fi後者は曖昧性の増減と直接は関係のないことである.しかし,人間が見て妥当なCFGを作成するためには,機械的に内部ノードのラベルを推定するのではなく,(PennTreebankコーパスのような)構文構造付きコーパスを用意し,そこから文法を抽出すべきであると考えている. \section{大規模日本語文法の作成手順} \label{sec:Procedure}\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Procedure/figure/procedure.eps}\caption{大規模日本語文法作成手順}\label{fig:procedure}\end{figure}我々は,既存の構文構造付きコーパスを出発点とし,以下の手順で文法を作成することを試みている(図\ref{fig:procedure}).\begin{enumerate}\item既存の構文構造付きコーパスから文法を抽出する\item構文解析結果の曖昧性を増大させる要因を分析する\item分析結果をもとに構文構造付きコーパスの変更方針を作成する\item変更方針に従ってコーパスを変更し,そこから新しい文法を再抽出する\item(2)〜(4)を繰り返す\end{enumerate}文法の抽出は,Charniakによるtree-bankgrammarの抽出方法\cite{charniak:96}と同様の方法をとる.出発点として使用した構文構造付きコーパスの概要については,付録\ref{sec:Corpus}節で述べる.上述の文法作成手順では,変更対象が構文構造付きコーパスであり,文法はコーパスから抽出されるだけであるため,「文法の作成」という表現に違和感を感じるかもしれない.しかし,既存のコーパスから抽出した文法は,コーパス作成者の意図に反し,きわめて多数の構文解析結果を出力する.そのため,コーパスの作成は,そこから抽出した文法による構文解析結果を考慮しながら行うことが望ましい.換言すれば,文法の作成,変更とコーパスの作成,変更は並行して進める必要があると考えている.このようにして作成したコーパスは,PCFGモデル等の確率モデルによる学習の際に,訓練データとしても利用できる. \section{構文解析結果の曖昧性を増大させる要因} \label{sec:Problem}繰り返し述べたように,大規模な構文構造付きコーパスから抽出したCFGをそのまま利用して構文解析を行うと,多数の曖昧性を生じる.曖昧性が増大すると,解析に必要な時間,メモリ量が増大するだけでなく,その中から構文的に正しいものを選択することが困難になる.この問題を解決するためには,曖昧性を増大させる要因を分析しなければならない.\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Problem/figure/lack_of_syn.eps}\caption{CFG抽出時における構文情報の欠落}\label{fig:lack_of_syn}\end{figure}曖昧性を増大させる要因は,以下の4種類に大別できる.\begin{description}\item[ラベル付けの誤り(要因1):]構文構造は人手で付与するため,誤りは避けられない.誤った構造が付与されたコーパスから抽出した文法は,誤った構造を生成し,それが無意味な曖昧性の増大につながる.\item[構文構造の不一致(要因2):]大規模なコーパスを作成する際,作業は一人ではなく複数で行うことが一般的である.この時,作業者による構造の付け方の``ゆれ''が問題となる.一貫性のない構文構造付きコーパスから抽出した文法は冗長な文法規則を持ち,それが無意味な曖昧性の増大につながる.\item[構文情報の欠落(要因3):]構文構造を付与する際,コーパス作成者は文全体の構造を考慮しながら,部分的な構造を決定することが多い.ところが,CFGの各規則はノードの親子関係に関する情報しか持たず,それ以外の周辺文脈情報(各子ノードを根とする部分木の情報や,親ノードを根とする部分木の外側の構文情報)を持たない.構文構造の曖昧性を解消する上で有用な構文情報が欠落することで,構文解析において,構文的に誤った解析木を余分に生成することがある.例えば,図\ref{fig:lack_of_syn}に示す2つの構文木が存在した場合,構文木(a)からは``$<$連体句$>\to<$動詞句$>$''という規則が,構文木(b)からは``$<$連用句$>\to<$動詞句$>$''という規則が抽出される.しかし,これらの規則には動詞の活用形に関する情報が欠落しているため,活用形に関係なく,すべての動詞句が連体句にも連用句にもなれてしまう.その結果,連用形の動詞句が連体句として体言を修飾したり,終止・連体形の動詞句が連用句として用言を修飾したりする解析木が生成でき,これが曖昧性を不必要に増大させる要因となる.\item[意味情報の必要性(要因4):]曖昧性の中には,その解消において,構文情報だけではなく意味情報も必要とするものがある.例えば,「彼の目の色」の「彼の」が「目」と「色」のどちらを修飾するかの曖昧性の解消には,各語の意味を考慮する必要があり,構文情報だけでは解消できない.詳細は後述するが,我々が想定する自然言語解析では,構文解析時は構文情報のみを利用し,意味情報を必要とする曖昧性の解消は,構文解析後の意味解析で行うこととしている.構文解析時に解消できない曖昧性を列挙することは,構文解析結果を組み合わせ的に増大させることになる\footnote{英語においても,PPattachment問題を構文情報だけで解決することはできない.この曖昧性は,前置詞句の数に対するCatalan数のオーダで増大し\cite{martin:87,church:82},文全体の構文解析結果の曖昧性の増大の最大の要因の1つとなる.}.\end{description}要因1と2は,コーパスの誤りであるため,訂正すべきもとのして,以下の考察から除外する.一方,要因3と4はコーパスの誤りではない.要因3の解決には,どの構文情報が必要であるかを考察し,その情報を非終端記号に追加し,細分化する.要因4の解決には,意味情報を利用しない限り解決が困難な曖昧性を包含した単一の構文構造をコーパスに付与し,CFGを再抽出する.すなわち,再抽出したCFGによる構文解析結果では,要因4による曖昧性を区別しない.こうすることで,構文解析結果の曖昧性を抑えられるだけでなく,意味解析で解消すべき曖昧性の所在が明らかになる.次節では,我々の具体的な変更方針について述べる. \section{文法,コーパスの変更方針} \label{sec:Modification}\label{sec:Policy}要因3の曖昧性はすべて除外することが理想である.EisnerやKomagataは,CategorialCombinatoryGrammar(CCG)について,解析器側を変更することによってこの曖昧性を完全に除外し,一つの意味解釈に対して一つの解析木を出力する(exactlyonesyntacticstructurepersemanticreading)手法を提案している\cite{eisner:1996,komagata:97b}.本研究ではCFGを使用し,解析器に変更を加えるのではなく,文法とコーパスそのものを変更しながら,この曖昧性を抑える.さらに,我々は,要因4の曖昧性を包含した単一の構造を生成する(意味的情報は利用しないことを前提とした),構文解析のための大規模日本語文法の構築を目的としている.しかし,この方針によって,出力される構文解析木の数を抑えることは,その後の意味解析を困難にすることもあり得る.そのため,構文解析時には包含された曖昧性を意味解析で解消することを念頭に置きながら,要因4の曖昧性のうち,どれを単一の構文構造で表現し,構文解析結果の曖昧性を抑えるかを詳細に検討する必要がある.我々が使用しているコーパスには,以下のような不備や欠点があった.\begin{enumerate}\item用言の活用形に関する情報の欠落(要因3)\item複合名詞内の構造の曖昧性(要因4)\item連用修飾句,連体修飾句の係り先の曖昧性(要因4)\item並列構造の曖昧性(要因4)\end{enumerate}これらについて,具体的に変更方針を述べる\footnote{我々は,第\ref{sec:Introduction}節で述べた文法開発の手順のサイクルを複数回に分けてこれらの検討を行った\cite{noro:2003}.}.\subsection{用言の活用形に関する情報の欠落}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/conjugation.eps}\caption{活用形に関する情報の付与}\label{fig:conjugation}\end{figure}用言の活用形の情報が欠落しているためにそれが連体修飾句になるか連用修飾句になるかで曖昧になることを,第\ref{sec:Problem}節で,要因3の曖昧性の例として挙げた.実際,我々が使用しているコーパスで,この問題があった.これを解決するために,用言等の語尾や助動詞の活用形に関する情報を構文構造に引き継ぐように変更する(図\ref{fig:conjugation}).ただし,未然形,連用形等すべての活用形を付与するのではなく,その語が末尾に現れることで連用修飾句,または連体修飾句になり得る場合にのみ,それぞれ「連用」,「連体」というラベルを追加する.これは,活用形の情報を付与する目的が,その用言が連用修飾句になり得るものか,連体修飾句になり得るものかを区別するためであり,それ以外の情報は必要ないからである.\subsection{複合名詞内の構造の曖昧性}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/convert_compound_noun.eps}\caption{複合名詞の構造の変更}\label{fig:convert_compound_noun}\end{figure}複合名詞内の構造の曖昧性を構文解析で解消することは困難であり,この曖昧性を構文解析結果の違いとして出力すべきではないと考えている.白井らも,この曖昧性を構文解析結果の違いとして出力しないよう文法を変更している\cite{shirai:97}\footnote{白井らは,複合名詞という言葉ではなく,「同一品詞列を支配するノード」という表現を使用している.我々は,名詞,接頭語,接尾語などで構成され,名詞として働く構成素を対象とし,複合名詞と呼んでいる.}.我々もその方針に倣い,複合名詞については,語構成に関係なく右下がりの構造に統一する(図\ref{fig:convert_compound_noun})\footnote{構造を右下がりにする際,複合名詞の根ノードと内部のノードのラベルを図\ref{fig:convert_compound_noun}のように区別している.もし,これらを同一のラベルにすると,「金谷さん夫妻」の例において,「さん夫妻」という接尾語が先頭に出現する複合名詞を認める文法規則になってしまう.}.\subsection{連用修飾句,連体修飾句の係り先の曖昧性}次に,連用修飾句,連体修飾句の係り先の曖昧性の扱いを検討する.我々は,連用修飾関係の曖昧性は従来通り別の構造として区別し(すなわち,構造は変更しない)\footnote{元のコーパスでは用言のとる表層格の情報を利用していたが,格の区別は意味情報を必要とし,構文解析時の曖昧性解消が困難な曖昧性を増大させる要因となる.そこで,図\ref{fig:convert_adv_phrase}に示すように,用言のとる表層格の情報は無視する\cite{noro:2003}.},連体修飾関係を表す構造を,複合名詞の場合と同様,意味に関係なく同一の構造にする(図\ref{fig:convert_adn_phrase})\footnote{構造を変更する際,図\ref{fig:convert_adn_phrase}に示すように,右側の名詞句と左側の連体句の下の名詞句を区別している.もし,これらを同一のラベルにすると,抽出した文法規則は変更前後の両方の構造を生成することが可能になり,構造を制限することができなくなる.}.つまり,連用修飾関係の曖昧性は構文解析結果の曖昧性として残し,連体修飾関係の曖昧性は構文解析の段階では出さず,後の意味解析でこの曖昧性を解消することになる.\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/convert_adv_phrase.eps}\caption{連用修飾句の係り先に関する変更}\label{fig:convert_adv_phrase}\end{figure}\begin{figure}[tp]\centering\epsfxsize=\textwidth\epsfbox{Modification/figure/convert_adn_phrase.eps}\caption{連体修飾句の係り先に関する変更}\label{fig:convert_adn_phrase}\end{figure}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/structure.eps}\caption{単文「欧米諸国は日本の流通制度の改善を求めている」の構造}\label{fig:structure}\end{figure}上述の方針に決定した理由は二つある.一つは,連用修飾関係を表す構造を意味に関係なく同一の構造にすることは,構文解析後の意味解析を困難にすることになるからである.例えば,「欧米/諸国/は/日本/の/流通/制度/の/改善/を/求めている」という単文を考える.ただし,スラッシュは単語区切りを表す(「求めている」は動詞語幹,助動詞語幹,語尾に分割されるが,簡単のため,ここでは1語として表記する).この文に対してボトムアップに(意味的に正しい)構文構造を付与すると,次の手順になる.\begin{enumerate}\item「欧米諸国」,「流通制度」のそれぞれを一つの複合名詞にまとめる(図\ref{fig:structure}の破線で囲まれた部分).\item「日本の」と「流通制度」,そして「(日本の)流通制度の」と「改善」のそれぞれを一つの連体修飾関係にまとめる(図\ref{fig:structure}の細い実線で囲まれた部分).\item「(日本の流通制度の)改善を」と「求めている」,「欧米諸国は」と「(日本の流通制度の改善を)求めている」の二つの連用修飾関係をまとめる(図\ref{fig:structure}の太い実線で囲まれた部分).\end{enumerate}このように考えると,単文では,連用修飾関係を表すレベルが連体修飾を表すレベルより上にある.複文や重文は,この単文を組み合わせることで構成される.上位レベルである連用修飾関係を表す構造を意味に関係なく同一構造にすることは,複文や重文を構成する単文のまとまりを破壊することになり,文全体の構造がとらえにくくなる.その結果,構文解析後の意味解析が困難になる.下位レベルである連体修飾関係を表す構造を,意味に関係なく同一構造にし,連用修飾関係を表す構造は従来通り別の構造として区別することで,その後の意味解析を困難にせずに,構文解析の段階の曖昧性を抑えられると考えている.もう一つの理由は,連用修飾句の係り先の曖昧性の解消は,連体修飾句の係り先の曖昧性の解消に比べて,構文解析での解決が容易であるからである.連用修飾句の係り先は,助詞と動詞の関係,副詞と助動詞の関係等を利用することで,決定できる可能性があるのに対し,連体修飾句の係り先は,連用修飾句の場合に比べて,品詞レベルでの解決が難しい.そこで,品詞レベルでの解決が比較的容易な連用修飾関係を表す構造は従来通りとし,連体修飾関係を表す構造は,意味に関係なく同一構造にすべきであると,我々は考えている.\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Modification/figure/rentai_amb.eps}\caption{連体修飾句の係り先に関する2種類の曖昧性}\label{fig:adnominal_phrase}\end{figure}ただし,連体修飾句の係り先の曖昧性が,大別して2種類あることに注意したい.\begin{enumerate}\item連用修飾句の範囲を変えないもの\item連用修飾句の範囲を変えるもの\end{enumerate}図\ref{fig:adnominal_phrase}にそれぞれの例を示す.太い実線で囲まれた句は連用修飾句を,細い実線で囲まれた句は連体修飾句を,破線で囲まれた句は動詞を,網掛けの長方形で囲まれた句は連体修飾を受ける名詞を,矢印の始点は修飾関係の係り元を,終点は係り先を表す.「新しい環境への適応能力を調べる」の場合,連体修飾句「新しい」が「環境」に係る場合でも「適応能力」に係る場合でも,動詞「調べる」に係る連用修飾句は「新しい環境への適応能力を」であることには変わりはない(図\ref{fig:adnominal_phrase}(a),(b)).ところが,「百年の歴史を持つ祭り」では,連体修飾句「百年の」が「歴史」に係る場合の動詞「持つ」に係る連用修飾句は「百年の歴史を」であるのに対し,「百年の」が「祭り」に係る場合も考えられないこともない.後者の場合は,「歴史を」のみが「持つ」に係る連用修飾句となる(図\ref{fig:adnominal_phrase}(c),(d)).我々は,連用修飾句の範囲と係り先は従来のまま変更せず,そこから抽出した文法は,その曖昧性を構文解析の段階に出力することにしている.その方針に合わせ,連用修飾句の範囲を変えない場合に限り,連体修飾関係を表す構造を同一の構造に統一する(すなわち,「新しい環境への適応能力を調べる」の場合は図\ref{fig:adnominal_phrase}(b)の構造に変更し,「百年の歴史を持つ祭り」の場合は図\ref{fig:adnominal_phrase}(c)の構造のままにしておく).\subsection{並列構造の曖昧性}並列構造の曖昧性の解消には意味的情報が必要であり,係り受け解析において並列構造を含む文の正解率は,含まない文に比べて低くなる.予備実験によると,並列構造を含む文の正解率は,含まない文の正解率の半分程度しかない\cite{noro:2003}\footnote{「文の正解率」の定義は第\ref{sec:Evaluation}節で述べる.}.文の正解率を全体的に上げるためには,並列構造の曖昧性について検討する必要がある.KNP\cite{kurohashi:1998}では,先に並列関係にある部分を決定し,次にその内部の構造を分析するアプローチを採用している\cite{kurohashi:1992}.しかし,我々は,並列関係にあるかどうかの判定は構文解析に先立って行わず,その後の意味解析の段階で行うこととする.言い換えると,注目している二つの部分が並列関係にあるかどうかの曖昧性は,構文解析の段階では区別しない.\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Modification/figure/convert_para_noun.eps}\caption{並列名詞句の構造に関する変更}\label{fig:convert_para_noun}\end{figure}\begin{figure}[tp]\centering\epsfxsize=.8\textwidth\epsfbox{Modification/figure/convert_para_verb.eps}\caption{並列述語句の構造に関する変更}\label{fig:convert_para_verb}\end{figure}日本語には,並列名詞句,並列述語句,並列助詞句の3種類の並列構造がある\footnote{黒橋らは,それぞれを名詞並列,述語並列,部分並列と呼んでいる\cite{kurohashi:1998}.}.我々は,これらの構造を以下の方針で変更する.\begin{description}\item[並列名詞句:]名詞句「日本と中国の関係」において,「日本」と「中国」が並列関係にあるのか,それとも「日本」と「関係」が並列関係にあるのかという曖昧性の解消には,各語の意味的情報が必要となる.「AのBのC」,「AとBのC」の二つの名詞句を考えると,どちらの場合も名詞「A」,「B」,「C」の間の関係を分析することになる.このことから,並列名詞句の分析は連体修飾句の係り受けの解析に似ている.構文解析の段階では「Aと」を連体修飾句と同様に扱い,並列構造の曖昧性の解消は,次の意味解析の段階で,連体修飾関係の曖昧性の解消と同時に行うこととする(図\ref{fig:convert_para_noun}).\item[並列述語句:]予備実験\cite{noro:2003}によると,並列述語句を含む文の正解率は,それ以外の並列構造を含む文の正解率と比べて大幅に低くなる.これは,二つの述語句が並列関係にあるか否かの判断が,構文解析の段階では難しいためである.例えば,「歌を歌い,踊りを踊る」という文が並列構造を持つか否かは,並列関係の定義を明確にしなければ,コーパス作成者によっても判断が分かれるところである.構文解析の段階では並列述語句は連用修飾関係と同様に扱い,二つの述語句が並列関係にあるか否かの判断は,後の意味解析の段階で行うこととする(図\ref{fig:convert_para_verb}).\item[並列助詞句:]並列助詞句は,「国政段階\underline{でも}個別産業レベル\underline{でも}影響力は小さい」のように,並列関係にある二つの助詞句に含まれる助詞が同じであることが多いので,並列助詞句を含む文の正解率はそれほど低くならないと思われるかもしれない.ところが,予備実験\cite{noro:2003}によると,並列助詞句を含む文の正解率は並列述語句を含む場合よりは高いが,並列名詞句を含む場合とほぼ同じであった.二つの助詞句が並列関係にあるか否かの判定には意味的情報が必要であり,構文解析の段階で解決することは困難である.構文解析の段階では,とりあえず並列関係にある助詞句は別個に動詞に係る構造を作ることとし,二つの助詞句が並列関係にあるか否かの判定は意味解析の段階で行うこととする(図\ref{fig:convert_para_pp}).\end{description}\begin{figure}[tp]\centering\epsfxsize=.8\textwidth\epsfbox{Modification/figure/convert_para_pp.eps}\caption{並列助詞句の構造に関する変更}\label{fig:convert_para_pp}\end{figure}以上をまとめると,我々の文法とコーパスの変更方針は以下のようになる.\if0\begin{enumerate}\item複合名詞内の構造の曖昧性,連用修飾句の範囲を変えない連体修飾句の係り先の曖昧性はタイプ3の曖昧性とし,構文解析の段階では一つの構文構造を出力する.\item連用修飾句の係り先の曖昧性,連用修飾句の範囲を変える連体修飾句の係り先の曖昧性はタイプ1の曖昧性とし,構文解析の段階で係り受け構造を反映した異なる構造を出力する.\item並列構造の曖昧性はタイプ3の曖昧性とし,二つの句が並列関係にあるか否かの曖昧性は,構文解析の段階では一つの構文構造を出力する.\end{enumerate}\fi\begin{enumerate}\item複合名詞内の構造,連用修飾句の範囲を変えない連体修飾句の係り受け関係の構造は,語構成や意味に関係なく同一の構造にする.\item連用修飾句の係り受け関係の構造,連用修飾句の範囲を変える連体修飾句の係り受け関係の構造は,従来通りの構造にする.ただし,用言のとる表層格の情報は無視する.\item二つの句が並列関係にあるか否かの判定は構文解析の段階では行わず,並列関係にあるか否かで構造の区別はしない.\end{enumerate}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/basicPolicy.eps}\caption{構文解析で生成される構造}\label{fig:example_of_policy}\end{figure}以上の方針に従って構築した文法を使用し,「道路の両側には水を流すための溝が掘ってあります」という文を構文解析すると,図\ref{fig:example_of_policy}に示す4個の構文構造が生成される.ただし,実線で囲まれた句は連用修飾句を,破線で囲まれた句は動詞を,矢印の始点は連用修飾関係の係り元を,終点は係り先を表す.これら4個の構文構造は,連用修飾句の範囲とその係り先の違いを表し,この中から一つの構文構造を選択することは,連用修飾句の範囲とその係り先を決定することを意味する.一方,連体修飾句の係り先は,各構文構造が持つ意味的曖昧性の中から一つの意味解釈を生成することによって決定する.例えば,構文構造(b)では連体修飾句「道路の両側には水を流す」が「ため」に係るか「溝」に係るかを決定し,構文構造(c)では連体修飾句「道路の」と「両側には水を流す」が,それぞれ「ため」に係るか「溝」に係るかを決定する.一方,構文構造(b)では,「道路の」が「ため」や「溝」に係る可能性は,動詞「流す」を連用修飾する「道路の両側には」という句の範囲を変えることになるので考慮する必要はない. \section{評価実験} \label{sec:Evaluation}前節で述べた方針によるコーパスへの構文構造の付与の有用性を確認するため,コーパスから抽出した文法を用いて,以下の2点について評価実験を行った.\begin{enumerate}\item構文解析結果の曖昧性がどの程度抑えられているか\itemどの程度の構文解析精度が得られるか\end{enumerate}(1)の評価実験は本研究の目的そのものであるが,曖昧性が抑えられていても,解析精度が低ければ問題であるので,(2)の評価実験も必要である.\subsection{文法,コーパスの構文構造の変更}まず,付録\ref{sec:Corpus}節で述べたコーパス8911文(平均20形態素)に対し,我々の方針に従って構文構造付きコーパス作成支援ツール\cite{okazaki:2001}で構文構造を変更した\footnote{変更前のコーパスは約2万文あるが,8911文しか変更していないので,それに対応する文だけを変更前のコーパスから抜き出し,実験に使用する.}.具体的には,以下の手順で変更を行っている.\begin{enumerate}\item我々の変更方針に従って文法を人手で変更.\itemMSLRパーザ\cite{shirai:00}でコーパス中の文を構文解析し,構文解析結果の集合(統語圧縮共有森,packed-sharedforest\cite{tomita:86})を獲得.\itemコーパス作成支援ツールで,構文解析結果の集合を絞り込み,最終的に1つの正しい構文構造を選択.\end{enumerate}手順(3)で使用するコーパス支援ツールは,解析結果を1つずつ表示させながら正しい構文構造を選択するためのものではなく,非終端記号名や特定の句の係り先を,正しい構文構造が満たすべき制約として,作業者が順々に与え,それを満たさない候補を排除しながら正しい構文構造を残すためのものである.制約は,構文構造が曖昧な箇所(制約の教示を必要とする非終端記号や係り受け)をマウスで選択し,表示される選択肢から正しい候補を選択することで与える.作業は,100文をラベル付けするのに約3時間かかり,4人でこの約9000文をラベル付けするのに約1ヶ月かかった\footnote{4人のうち3人は変更方針の検討に直接は関わっておらず,ラベル付け前に我々(方針作成者)がその説明を行ったが,作業者が方針を理解し,本格的にラベル付けを開始できるまでに(作業期間の1ヶ月の他に)1,2週間かかった.}.\subsection{構文解析結果の曖昧性の変化}変更前,変更後のコーパス全8911文からそれぞれ文法を抽出し\footnote{\cite{charniak:96}のようにコーパス出現頻度の低い文法規則を削除することはせず,全文法規則を利用する.}(以降,変更前,変更後のコーパスから抽出した文法を,それぞれ「変更前の文法」,「変更後の文法」と呼ぶ),MSLRパーザで構文解析を行った\footnote{MSLRパーザは形態素解析と構文解析を同時に行うものであるが,品詞列を入力とすることで構文解析のみを行うことができる.今回は,品詞列を入力とし,形態素解析は終了しているものとしている.}.変更前,変更後の文法による構文解析結果の数を表\ref{tab:result_ambiguity}に示す.我々のコーパスの変更方針により,文法規則数は約250個増加しているが,構文解析結果の数は$10^{12}$オーダから$10^5$オーダに減少した\footnote{今回の我々の方針では品詞レベルの変更は考慮しておらず,非終端記号の数の変化はない.}.\begin{table}[tp]\centering\caption{変更前,変更後の文法による構文解析結果の数}\label{tab:result_ambiguity}\begin{tabular}{|c|r|r|r|r|}\hline&\multicolumn{1}{|c|}{文法規則数}&\multicolumn{1}{|c|}{非終端記号数}&\multicolumn{1}{|c|}{終端記号数}&\multicolumn{1}{|c|}{構文解析結果数}\\\hline変更前&1,694&249&600&$1.868\times10^{12}$\\\hline変更後&1,949&279&600&$9.355\times10^5$\\\hline\end{tabular}\end{table}白井らの手法では,EDRコーパス約188,000文から抽出した文法で1文あたり$10^9$オーダの解析木が出力される\cite{shirai:97}.文法抽出に使用した文の数に大きな差があるため公平な比較にはならないが,白井らの文法に比べて曖昧性が減少している主な要因として,以下の3つが考えられる.\begin{description}\item[連体修飾句と連用修飾句の区別:]白井らの文法では,連体修飾句か連用修飾句かを区別するためのラベルが付与されていない.これは,第\ref{sec:Problem}節で挙げた曖昧性を増大させる要因の3番目にあたる.この問題は第\ref{sec:Problem}節で挙げた用言の活用形の問題だけでなく,後置詞句でも同様に起こり得る.EDRコーパスでは,「が」,「を」等と「の」を区別せず,すべて「助詞」としているので,白井らの文法ではこれらの助詞が末尾に現れる句はすべて「後置詞句」となり,連体修飾句か連用修飾句かの区別が付かなくなる.我々の文法では,「\underline{東京へ}行く」のように連用修飾句になる場合は「助詞句」,「\underline{東京の}人口」のように連体修飾句になる場合は「連体句」となるので,このような曖昧性は出ない\footnote{「\underline{鼻の}長い象」のように,「の」が末尾に出現する句が連用修飾句になる場合もあるので,曖昧性は残る.しかし,逆に,現代語において,他の助詞が末尾に出現する句が連体修飾句になることはほとんどない.「\underline{駅を}中心に発展する」のような例外もあるが,これは「中心に」の後に動詞「して」が省略されていると考えることができる.現段階では省略をCFGで扱うことを考えていないので,このような文は対象外とし,曖昧性を除外している.}.\item[品詞の細分化:]我々が使っているコーパスの品詞体系はEDR日本語単語辞書に基づいて細分化されている.例えば,白井らは名詞を細分化していないが,「今日,東京へ行く」の「今日」のように助詞を伴わずに連用修飾可能な名詞を他の名詞と区別しておかなければ,すべての名詞が助詞を伴わずに連用修飾することを認める文法規則となり,曖昧性を増大させる要因となる\footnote{日本語では助詞が頻繁に省略され,一般的な名詞であっても助詞を伴わずに連用修飾する例もあるが,助詞が省略されていると判断できるものは対象外としている.}.\item[連体修飾関係と並列関係:]我々の文法では,連体修飾句の係り先の曖昧性と2つの句が並列関係にあるか否かの曖昧性を出さないようにしている.1文に含まれる連体修飾句や並列句の数はそれほど多くなく,先に挙げた2つの要因ほど,大きく曖昧性の削減に貢献していないが,構文解析での解決が困難な曖昧性を抑えることは,その後の意味解析においても重要なことである.\end{description}\subsection{構文解析精度の変化}\begin{figure}[p]\centering\epsfxsize=.9\textwidth\epsfbox{Evaluation/figure/resultPGLR-close.eps}\caption{変更前と変更後の文法$G_{\mbox{all}}$による構文解析結果の文の正解率}\label{fig:result_accuracy_close}\end{figure}\begin{figure}[p]\centering\epsfxsize=.9\textwidth\epsfbox{Evaluation/figure/resultPGLR-open.eps}\caption{変更前と変更後の文法$G_{\mbox{train}}$による構文解析結果の文の正解率}\label{fig:result_accuracy_open}\end{figure}構文解析結果を確率一般化LR(PGLR)モデル\cite{inui:98}でランク付けし,解析精度を調べた\footnote{\cite{charniak:96,shirai:97}はPCFGを用いているが,我々はPGLRモデルを使用する.我々が行った予備実験によると,PGLRモデルの方がPCFGよりも解析精度が高くなる.}.ただし,8911文を10分割し,一つを評価用,残りをPGLRモデルの学習用とし,10分割交差検定で評価を行った.文法は全8911文から抽出したもの($G_{\mbox{all}}$)と,学習用データのみから抽出したもの($G_{\mbox{train}}$)の2通りを用意した.図\ref{fig:result_accuracy_close},図\ref{fig:result_accuracy_open}に,上位1位から100位以内の解析結果についての文の正解率を示す.ただし,文の正解率は以下のように定義される.\[\mbox{文の正解率}=\frac{\mbox{出力した解析木の集合の中に正しい木が含まれる文の数}}{\mbox{解析した文の総数}}\]ここで,「正しい木」とは,コーパスの構文構造と完全に一致する解析木を指す.また,文法$G_{\mbox{train}}$の被覆率,再現率を表\ref{tab:coverage_recall}に示す.ただし,被覆率,再現率は以下のように定義する.\[\mbox{被覆率}=\frac{\mbox{解析した文の総数}-\mbox{解析に失敗した文の総数}}{\mbox{解析した文の総数}}\]\[\mbox{再現率}=\frac{\mbox{出力されたすべての解析木の中に正しい木が存在する文数}}{\mbox{解析した文の総数}}\]\begin{table}[tp]\centering\caption{文法$G_{\mbox{train}}$の被覆率と再現率}\label{tab:coverage_recall}\begin{tabular}{|c|r|r|}\hline&\multicolumn{1}{|c|}{変更前}&\multicolumn{1}{|c|}{変更後}\\\hline被覆率&98.51\%&97.32\%\\\hline再現率&96.63\%&95.88\%\\\hline\end{tabular}\end{table}従来の研究では,評価尺度として括弧付けの再現率や適合率など部分的な構造の正しさを示すものを使用することが多い.しかし,我々は,構文解析結果の集合から尤もらしい解析結果をいくつか選択し,それらに対して意味解析を行うことを前提としているので,構文解析の段階では,意図した構文構造と完全に一致していることが望ましい.構文構造の部分的な正しさを示す括弧付けの再現率や適合率よりも,上述の文の正解率の方が条件が厳しいが,重要な尺度であると考えている.PGLRモデルによる生成確率の上位100位以内の解析結果について見てみると,変更前,変更後の文法による文の正解率は,文法$G_{\mbox{all}}$ではそれぞれ88.45\%,98.62\%となり,文法$G_{\mbox{train}}$ではそれぞれ86.23\%,94.66\%となり,変更後の文法の方が8〜10\%高くなっている.また$G_{\mbox{all}}$,$G_{\mbox{train}}$どちらの場合でも,変更後の文法で,変更前の文法による上位100位以内の文の正解率に達するには,上位10位以内の解析結果を考慮するだけで十分であり,我々のコーパスの変更方針が有効であることが分かる.表\ref{tab:coverage_recall}より,我々の文法$G_{\mbox{train}}$の被覆率は97\%以上であり,広範囲の文の解析が可能であることが分かる.一方,被覆率,再現率ともに,我々の方針による変更によって1\%程度低くなり,解析不能なものが変更前に比べて1\%程度多く生じる.これは,構文解析結果の曖昧性を抑えるために非終端記号を細分化したことによるものである.文法$G_{\mbox{train}}$による上位100位の文の正解率の差が文法$G_{\mbox{all}}$によるものの差より小さくなる要因は,この再現率の差にある.しかし,文の正解率が我々の変更によって10\%近く上がることから,被覆率や再現率がこの程度低下することは許容できると考えている\footnote{コーパスをさらに増やせば,被覆率,再現率の差は小さくなる.}.\if0さらに,予備実験として,無作為に選んだ100文について,変更後の文法による1位の解析結果を調査したところ\footnote{100文を評価用データとし,残りを学習用データとしている.},文節区切りが完全に一致するものは96文あり,それらの文節の係り受け正解率は89.23\%であった\footnote{連体修飾句の係り先は,係り先となり得る名詞のうち最も近くにあるものであると仮定している}.これは,SupportVectorMachineや最大エントロピー法を用いた文節係り受け解析の手法の正解率と同程度であり\cite{uchimoto:99,kudo:2002}\footnote{使用しているコーパスや実験の条件が異なるため,公平な比較ではない.},意味情報を用いることでさらに正解率が向上すると考えている\footnote{変更前の文法でも,文節の係り受け正解率は,変更後の文法の場合とほぼ同じである.しかし,係り受け構造は完全に同じであっても非終端記号が異なるものが多く,それらは意味解析の段階で誤った解釈をすることになる可能性が高い.}.\fi \section{PGLRモデルによる解析結果を利用した係り受け解析} \label{sec:SDDA}前節で,我々の方針により作成したコーパスから抽出した大規模日本語文法が,構文解析結果の曖昧性を抑え,文の正解率が約10\%向上することを示した.しかし,構文解析結果の曖昧性を抑えるために,一部の曖昧性を同一の構造で表現することとし,その内部構造を厳密に決定していないため,文の正解率が高くなるのは当然であるという疑問が残る.そこで,PGLRモデルによる解析結果を利用した文節係り受け解析を行い,係り受け精度を調べた.\subsection{構文木からの文節係り受け関係の抽出}\label{sec:DepExtraction}文節の係り受け関係は,構文木から取り出す.その手順を以下に示す.\begin{enumerate}\item文節区切りを決定する\item構文構造をもとに,各文節について,係り先となる文節を決定する\end{enumerate}例えば,図\ref{fig:example_tree}の構文木の場合,文節区切りと各文節の係り先となる文節は表\ref{tab:extracted_dep}のようになる.我々が使用しているコーパスに付与されている構造は句構造であり,文節中のどの語に係るかをさらに厳密に決定することも可能である.しかし,今回の実験では,どの文節に係るかのみを決定する.\begin{figure}[t]\centering\epsfxsize=.8\textwidth\epsfbox{SDDA/figure/example_tree.eps}\caption{構文構造の例}\label{fig:example_tree}\end{figure}\begin{table}[tp]\centering\caption{図\protect\ref{fig:example_tree}の木構造から抽出される文節の係り受け関係}\begin{tabular}{|c|l|c|}\hline文節番号&\multicolumn{1}{|c|}{文字列}&係り先文節番号\\\hline1&1.8ヘクタールの&2\\\hline2&広さが&3\\\hline3&あり,&6\\\hline4&日本庭園の&5\\\hline5&眺めが&6\\\hline6&すばらしい&---(文末)\\\hline\end{tabular}\label{tab:extracted_dep}\end{table}変更後の文法では,連体修飾句の係り受け関係の構造は連用修飾句の範囲を変えない場合に限り,同一の構造(右下がりの構造)に制限している.そのため,連体修飾句の係り受け解析を行う際は,連体修飾関係の曖昧性をすべて考慮しなければならない.しかし,今回は,PGLRモデルによる生成確率1位の構文木中の連体修飾句は(意味的情報を用いず)係り得る名詞の中で最も近いものを含む文節に係ることとする\footnote{係り得る名詞の中で最も近いものに係るとすると,連体修飾句の係り先の正解率は70\%弱であった.}.\begin{figure}[t]\centering\epsfxsize=.6\textwidth\epsfbox{SDDA/figure/adnominal.eps}\caption{連体句の係り受け関係}\label{fig:sdda_adn}\end{figure}例えば,「青い目のアメリカから来た男性に会う」という文の「青い目のアメリカから来た男性に」という助詞句を考える.変更後の文法でこの文を構文解析すると,この助詞句について,図\ref{fig:sdda_adn}(a),(c),(e)の3通りの解析木が出力される(中間ノードのラベルは省略する)\footnote{実際には助詞句「青い目のアメリカから」が「会う」に係る解析木も出力されるが,ここの議論では省略する.}.図\ref{fig:sdda_adn}(a)のような構文木が生成された場合,その係り受けは,図\ref{fig:sdda_adn}(b)に示すように,文節「青い」が文節「目の」に,文節「目の」が文節「男性に」に直接係るとして係り受け精度を計算する(文節「アメリカから」は文節「来た」に,文節「来た」は文節「男性に」に係る).図\ref{fig:sdda_adn}(c),(e)の場合は,それぞれ図\ref{fig:sdda_adn}(d),(f)に示すような係り受け構造となる.連用修飾句の係り先の曖昧性は構文解析結果の曖昧性として残しているので,構文解析結果として出力された構造をそのまま利用する.複合名詞の内部の構造は語構成に関係なく同一の構造としているが,今回の実験では文節の係り受け構造を抽出するだけであるので,複合名詞の内部の構造までは考慮されない.2つの文節が並列関係にあるか否かの曖昧性は,今回の評価実験では無視し,並列名詞句は連体修飾関係として,並列述語句と並列助詞句は連用修飾関係として扱う.\subsection{評価実験}評価は,変更後のコーパス8912文で行った\footnote{第\ref{sec:Evaluation}節の評価実験では8911文を利用していた.実際のコーパスは8912文であるが,1文は変更前のコーパスから抽出した文法で構文解析を行うと,構文解析結果の数が膨大になり過ぎ,メモリ不足で解析できなかったため,この1文を除いて実験を行った.今回の実験は変更後のコーパスから抽出した文法のみを利用するので,8912文全てを利用している.}.このうち,評価用として100文をランダムに選択し,残りをPGLRモデルの学習用とした.この評価用データの100文は,1文あたり平均19.84形態素,7.16文節であり,並列構造を持つ文は17文含まれている.PGLRモデルにより評価用データ100文を構文解析し,生成確率が1位の構文木から,第\ref{sec:DepExtraction}節で述べた方法により,半自動的に係り受け構造を抽出し\footnote{構文解析結果から文節の係り受け構造を機械的に抽出することは,一見すると簡単に見える.しかし,コーパスに付与されている構造が複雑であるため,完全に自動化することはできなかった.機械的に正しい係り受け構造を抽出できない部分は人手で修正している.今後,文節係り受け構造の抽出を容易にするために,構造の変更を検討していく予定である.},その精度を以下の3つの尺度で評価した.\[\mbox{係り受けA型}=\frac{\mbox{正しい係り受け関係の数}}{\mbox{総文節数}-(\mbox{テスト文の総数}\times1)}\]\[\mbox{係り受けB型}=\frac{\mbox{正しい係り受け関係の数(文末2文節の関係以外)}}{\mbox{総文節数}-(\mbox{テスト文の総数}\times2)}\]\[\mbox{文正解率}=\frac{\mbox{正しい係り受け関係をすべて決定できた文数}}{\mbox{テスト文の総数}}\]「係り受けA型」とは,全ての係り受け関係の正解率であり,「係り受けB型」とは,文末2文節の係り受け関係以外の係り受け正解率である.「文正解率」とは,文全体の文節の係り受け関係の正解率である.テスト文の正しい係り受け関係は,変更前のコーパスに付与されている構文木から,先に述べた方法で取り出した.その結果を表\ref{tab:result_sdda}に示す.ただし,「文節不一致」は文節区切りが正解と一致しなかった文の数を表す.\begin{table}[tp]\centering\caption{係り受け解析の実験結果}\label{tab:result_sdda}\begin{tabular}{|r|r|r|r|}\hline\multicolumn{1}{|c|}{係り受けA型}&\multicolumn{1}{|c|}{係り受けB型}&\multicolumn{1}{|c|}{文正解率}&\multicolumn{1}{|c|}{文節不一致}\\\hline91.32\%&89.61\%&61.54\%&9\\\hline\end{tabular}\end{table}表\ref{tab:result_sdda}より,意味情報を全く利用しなくとも,PGLRモデルのみによる係り受け正解率が90\%前後と非常に高いことが分かる.これは,SupportVectorMachineや最大エントロピー法を用いた文節係り受け解析の手法の正解率と同程度である\cite{uchimoto:99,kudo:2002}\footnote{使用しているコーパスや実験の条件が異なるため,公平な比較ではない.}.我々は,構文解析結果に対して意味解析を行うことを想定している.現在,本格的な意味解析の代わりに,SDSAの枠組みのみを利用して,単語の共起に関する統計データを用いた小規模な係り受け解析の実験を行っているが,非常に単純なスコア付けであるにも関わらず,93.0\%の係り受け正解率(係り受けB型),68.8\%の文正解率が得られることを確認している\cite{yagi:2003}.今回は評価用データを100文として実験を行ったが,この規模は非常に小規模であるため,SDSAの有効性を示すには至っていない.しかし,我々は,実験結果からSDSAによるアプローチが有効である可能性があると考えている.今後,コーパスサイズを大きくし,SDSAベースの本格的な意味解析への移行を検討する予定である. \section{まとめ} \label{sec:Conclusion}多様な言語現象を扱える大規模な文法は,構文構造付きコーパスから抽出することで構築可能であるが,そのようにして抽出した文法を用いた構文解析は,構文解析結果の曖昧性を極端に増大させることが多く,実用に供されていないのが現状である.本論文では,困難ではあっても曖昧性を増大させる要因を十分分析し,文法やコーパスの変更を繰り返すことによって,構文解析のための実用的な大規模文法を構築できることを示した.これらの文法,コーパスの変更点は,我々が本論文で扱ったコーパス特有の問題ではなく,一般性を持つものである.また,本論文では既存のコーパスに付与されている構文構造を変更しながら,抽出した文法による構文解析結果の曖昧性の削減を図っているが,新たに構文構造付きコーパスを作成する際には,この方針がコーパス作成基準となる.従来の構文構造付きコーパス作成基準は抽出したCFGによる構文解析結果の曖昧性を十分に考慮していないが,本論文で述べた方針に留意してコーパスを作成することで,CFG抽出に適したコーパスを新たに作成可能であると我々は考えている.本論文で述べた変更を施したコーパスから抽出したCFGで構文解析を行うと,変更前のCFGを使用した場合に比べて,構文解析における曖昧性を大幅に抑えることが可能であることを実験的に示した.また,PGLRモデルによるスコア付けにより,上位100位以内の構文解析結果に対する文の正解率が10\%向上することを確認した.さらに,生成確率が1位となる構文解析結果の文節の係り受けの精度は90\%前後であり,既存の係り受け解析の手法と比較しても同程度の精度を有していることを確認した.我々は,SDSAの枠組みを利用し,共起情報を用いて係り受け解析を行うことにより,小規模実験の段階ではあるが,93\%の係り受け精度が得られている\cite{yagi:2003}.今後の課題を以下に示す.\begin{itemize}\item本論文で述べた変更方針で構文解析結果の曖昧性を大幅に抑制できたが,まだ十分ではない.例えば,日本語では助詞落ちが頻繁に出現するが,これを扱うことは曖昧性の増大につながる.省略されている助詞を前処理で補うべきか,意味解析で補うべきかを現在検討中である.\item我々の文法は,構文解析における曖昧性を抑えるために一部の構文構造を制限している.後処理として想定されている本格的な意味解析の手法の検討が必要である.\item本論文で述べたコーパスの変更方針では,形態素レベル(品詞レベル)の曖昧性を考慮していない.しかし,構文解析結果の曖昧性をさらに抑えるためには,形態素区切りの基準や品詞体系の見直しが必要である.現在,茶筌\cite{matsumoto:2003}の品詞体系を基に検討しているところである.\itemコーパスの作成や,変更方針の検討には複数の作業者が必要であり,さらに,その作業は長期間に及ぶため,バージョン管理が重要となる.そのために,コーパスをデータベース化し,検索システムやコーパス作成ツールを組み込むことで,コーパス作成のための大規模な支援システムを構築することが必要である.\end{itemize}\acknowledgmentこの研究は,21世紀COEプログラム「大規模知識資源の体系化と活用基盤構築」で行っているものである.コーパス作成,修正において協力を頂いた小林正博氏,大久保佳子氏をはじめとする(株)日本システムアプリケーションの皆様に感謝致します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Charniak}{Charniak}{1996}]{charniak:96}Charniak,E.\BBOP1996\BBCP.\newblock\BBOQTree-bankGrammars\BBCQ\\newblockIn{\Bemthe13thNationalConferenceonArtificialIntelligence},\BPGS\1031--1036.\bibitem[\protect\BCAY{Church\BBA\Patil}{Church\BBA\Patil}{1982}]{church:82}Church,K.\BBACOMMA\\BBA\Patil,R.\BBOP1982\BBCP.\newblock\BBOQCopingwithSyntacticAmbiguityorHowtoPuttheBlockintheBoxontheTable\BBCQ\\newblock{\BemAmericanJournalofComputationalLinguistics},{\Bbf8}(3--4),139--149.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{eisner:1996}Eisner,J.\BBOP1996\BBCP.\newblock\BBOQEfficientnormal-formparsingforcombinatorycategorialgrammar\BBCQ\\newblockIn{\Bemthe34thAnnualMeetingoftheACL},\BPGS\79--86.\bibitem[\protect\BCAY{Inui,Sornlertlamvanich,Tanaka,\BBA\Tokunaga}{Inuiet~al.}{1998}]{inui:98}Inui,K.,Sornlertlamvanich,V.,Tanaka,H.,\BBA\Tokunaga,T.\BBOP1998\BBCP.\newblock\BBOQProbabilistic{GLR}parsing:{A}newformalizationanditsimpactonparsingperformance\BBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(3),33--52.\bibitem[\protect\BCAY{Jurafsky\BBA\Martin}{Jurafsky\BBA\Martin}{2000}]{jurafsky:2000}Jurafsky,D.\BBACOMMA\\BBA\Martin,J.~H.\BBOP2000\BBCP.\newblock{\BemSpeechandLanguageProcessing}.\newblockPrentice-Hall.\bibitem[\protect\BCAY{Komagata}{Komagata}{1997}]{komagata:97b}Komagata,N.\BBOP1997\BBCP.\newblock\BBOQEfficientParsingfor{CCGs}withGeneralizedType-RaisedCategories\BBCQ\\newblockIn{\BemIWPT97},\BPGS\135--146.\bibitem[\protect\BCAY{工藤松本}{工藤\JBA松本}{2002}]{kudo:2002}工藤拓\BBACOMMA\松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),1834--1842.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1992}]{kurohashi:1992}黒橋禎夫\BBACOMMA\長尾眞\BBOP1992\BBCP.\newblock\JBOQ長い日本語文における並列構造の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(8),1022--1031.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{kurohashi:97}黒橋禎夫\BBACOMMA\長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会},\BPGS\115--118.\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{kurohashi:1998}黒橋禎夫\BBOP1998\BBCP.\newblock\Jem{日本語構文解析システム{KNP}version2.0b6}.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{marcus:93}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusof{English}:The{PennTreebank}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),313--330.\bibitem[\protect\BCAY{Martin,Church,\BBA\Patil}{Martinet~al.}{1987}]{martin:87}Martin,W.~A.,Church,K.~W.,\BBA\Patil,R.~S.\BBOP1987\BBCP.\newblock\BBOQPreliminaryanalysisofabreadth-firstparsingalgorithm:Theoreticalandexperimentalresults\BBCQ\\newblockInBolc,L.\BED,{\BemNaturalLanguageParsingSystems},\BPGS\267--328.Springer-Verlag.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{matsumoto:2003}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\Jem{形態素解析システム『茶筌』version2.3.0}.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2001}]{edr:2001}日本電子化辞書研究所\BBOP2001\BBCP.\newblock\Jem{{EDR}電子化辞書2.0版仕様説明書}.\bibitem[\protect\BCAY{野呂,橋本,徳永,田中}{野呂\Jetal}{2003}]{noro:2003}野呂智哉,橋本泰一,徳永健伸,田中穂積\BBOP2003\BBCP.\newblock\JBOQ大規模日本語文法の開発\JBCQ\\newblock\JTR\TR03-0006,東京工業大学大学院情報理工学研究科計算工学専攻.\bibitem[\protect\BCAY{岡崎,白井,徳永,田中}{岡崎\Jetal}{2001}]{okazaki:2001}岡崎篤,白井清昭,徳永健伸,田中穂積\BBOP2001\BBCP.\newblock\JBOQ正しい構文木の選択を支援する構文木付きコーパス作成ツール\JBCQ\\newblock\Jem{人工知能学会第15回全国大会}.\bibitem[\protect\BCAY{白井,徳永,田中}{白井\Jetal}{1997}]{shirai:97}白井清昭,徳永健伸,田中穂積\BBOP1997\BBCP.\newblock\JBOQ括弧付きコーパスからの日本語確率文脈自由文法の自動抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf4}(1),125--146.\bibitem[\protect\BCAY{白井,植木,橋本,徳永,田中}{白井\Jetal}{2000}]{shirai:00}白井清昭,植木正裕,橋本泰一,徳永健伸,田中穂積\BBOP2000\BBCP.\newblock\JBOQ自然言語解析のための{MSLR}パーザ・ツールキット\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),93--112.\bibitem[\protect\BCAY{Tomita}{Tomita}{1986}]{tomita:86}Tomita,M.\BBOP1986\BBCP.\newblock{\BemEfficientParsingforNaturalLanguage}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{内元,関根,井佐原}{内元\Jetal}{1999}]{uchimoto:99}内元清貴,関根聡,井佐原均\BBOP1999\BBCP.\newblock\JBOQ最大エントロピー法に基づくモデルを用いた日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),3397--3407.\bibitem[\protect\BCAY{八木,野呂,橋本,徳永,田中}{八木\Jetal}{2003}]{yagi:2003}八木豊,野呂智哉,橋本泰一,徳永健伸,田中穂積\BBOP2003\BBCP.\newblock\JBOQ単語の共起情報を利用した文法主導の係り受け解析\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2003-NL-157},\BPGS\17--24.\end{thebibliography}\appendix \section{文法作成の出発点として使用したコーパス} \label{sec:Corpus}本節では,我々が文法作成の出発点として使用した構文構造付きコーパスについて述べる.我々が使用したコーパスは,EDRコーパス中の文(約2万文)に対し,人手で構文構造を付与したものである.基本的な構造はEDRコーパスに付与されている括弧付き構造に準拠しているが,単語区切り,品詞体系,構文構造それぞれについて,元となるEDRコーパスと異なる点がある.\subsection{基本構造}\begin{figure}[tp]\centering\epsfxsize=\textwidth\epsfbox{Corpus/figure/edrtree_pos.eps}\caption{構文木を構成する3つの層}\label{fig:edrtree_pos}\end{figure}我々が使用したコーパスに付与されている構造は,以下の3つの層に分かれている(図\ref{fig:edrtree_pos}).\begin{description}\item[第1層:]形態素と終端記号(品詞)を対応付ける層.\item[第2層:]終端記号(品詞)をやや粗い品詞分類に変換する層.\item[第3層:]実際の構文構造を示す層.\end{description}\subsection{単語区切りと品詞体系}EDRコーパスで使用されている品詞は15種類しかなく,比較的粗い品詞体系となっている.しかし,これは構文解析を行うのに十分であるとは言えない.白井らは,助詞と記号を,表層情報(形態素)を利用して細分化しているが\cite{shirai:97},それでも,まだ十分ではないと考えている.そこで,EDR日本語単語辞書に記載されている品詞名,左右連接属性(連接属性対),用言のとる表層格情報を組み合わせることにより,さらに細分化したものを第1層の品詞として使用している(表\ref{tab:pos_example}).ただし,「開講」等「する」を伴って動詞を形成するものは,EDR日本語単語辞書では``JN1;JVE''という品詞が割り当てられているが,我々が使用したコーパスでは``JSH''で置き換えている.また,「(のぼり)はじめる」のように動詞に続く動詞や形容詞は,補助動詞(JAX)としている.\begin{table}[tp]\centering\caption{品詞の細分化の例(1)}\begin{tabular}{|c|c|c|}\hline単語&EDRコーパス&使用したコーパス\\\hline\hlineれんが&名詞&JN1\_JLN1\_JRN1\_*\\\hline埋め込(む)&動詞&JVE\_JLV1\_JRVM\_cが-に-を\\\hline(埋め込)む&語尾&JEV\_JSVM\_JEE1\_*\\\hlineと(格助詞)&助詞&JJO\_JL30C\_JR30C\_*\\\hlineと(接続助詞)&助詞&JJO\_JL30S\_JR30S\_*\\\hlineと(並列助詞)&助詞&JJO\_JL30H\_JR30H\_*\\\hline開講&動詞&JSH\_JLN3\_JRN4\_cが-を\\\hline(開講)する&語尾&JEV\_JSV2\_JEE1\_*\\\hline(のぼり)はじめ(る)&動詞&JAX\_JLV9\_JRV1\_*\\\hline\end{tabular}\label{tab:pos_example}\end{table}\begin{table}[tp]\centering\caption{品詞の細分化の例(2)}\begin{tabular}{|c|c|c|}\hline単語&EDRコーパス&使用したコーパス\\\hline\hline(強め)てい(る)&助詞/動詞&JJP\_JL26S\_JRV1\_*\\\hlineによって&助詞/動詞/語尾/助詞&JJ1\_JL48C\_JR26S\_hによって\\\hlineにおいて&助詞/動詞/語尾/助詞&JJ1\_JL48C\_JR26S\_hにおいて\\\hline\end{tabular}\label{tab:pos_example2}\end{table}EDRコーパスでは,「不安感を強めている」の「てい(る)」は「て(助詞)」,「い(動詞)」の2単語に分かれているが,我々が使用したコーパスでは,助動詞相当句として1単語としている(表\ref{tab:pos_example2}).「によって」等の助詞相当句も同様である\footnote{助詞相当句の左右連接属性は,左端の語の左連接属性と右端の語の右連接属性で決まるので,格助詞「に」ではじまり接続助詞「て」で終わる助詞相当句(「によって」,「にとって」等)はすべて同じ品詞になってしまう.そこで,これらを区別するために,形態素ごとに分類している.}.EDR日本語単語辞書をもとにした品詞体系は非常に細かく,実際にコーパスに出現した品詞だけでも600種類を数える(存在し得る品詞を含めると優に1000種類を超える).この品詞の上に直接構文構造を付けると,そのコーパスから抽出した文法規則が複雑になる.そこで,品詞分類を粗くする層として第2層を設けている.これにより,品詞分類が100種類程度に減少する.本論文では,構文構造を図示する際,必要でない限り,第1層の品詞を省略し,第2層の粗い品詞を終端記号とする.\if0粗い品詞分類は,以下のようになっている.\begin{description}\item[名詞:]「する」が直後に結合できるもの,助詞を伴なわずに連用修飾可能なもの等,機能ごとに分類するが,固有名詞等を分類しない.\begin{description}\item[(分類)]普通名詞,数名詞,サ変名詞,連用名詞,形容名詞,連体名詞,形式名詞,形式連用名詞,形式連体名詞\end{description}\item[動詞,形容詞:]語幹と語尾に分割されるが,動詞語尾と形容詞語尾の区別はしない.\begin{description}\item[(分類)]動詞語幹,形容詞語幹,語尾\end{description}\item[副詞:]基本的に用言を修飾するものであるが,「ほぼ全域」のように名詞を修飾するものもあり,これらを区別している.\begin{description}\item[(分類)]副詞,陳述副詞,連体副詞\end{description}\item[連体詞:]名詞を修飾するものであるが,「この」,「その」等は指示連体詞として区別している.\begin{description}\item[(分類)]連体詞,指示連体詞\end{description}\item[助動詞:]語幹と語尾に分けられるものは分け,それ以外のものはそれぞれ別のカテゴリを与える.ただし,語尾は動詞,形容詞語尾と区別しない.受身助動詞,使役助動詞は格の交代現象を引き起こすため,区別する.\begin{description}\item[(分類)]助動詞語幹,語尾,受身助動詞語幹,使役助動詞語幹,助動詞-た,助動詞-ます(その他多数)\end{description}\item[判定詞:]名詞の後に結合して判断を表す助動詞「だ」,「です」,「である」は判定詞として助動詞と区別する.「だ」,「です」は語幹と語尾に分けられないが,語幹となっている.語尾は,動詞語尾,形容詞語尾,助動詞語尾と区別しない.\begin{description}\item[(分類)]判定詞語幹,語尾\end{description}\item[補助動詞:]「(のぼり)はじめる」のように,動詞の後に続く動詞や形容詞を補助動詞とする.\begin{description}\item[(分類)]補助動詞語幹,語尾\end{description}\item[助詞:]機能により分類する.格助詞のうち,動詞や形容詞の結合価成分を作るものに対しては,形態素ごとに分割したカテゴリを与える.\begin{description}\item[(分類)]副助詞,連体助詞,接続助詞,準体助詞,終助詞,格助詞,格助詞$\backslash$が,格助詞$\backslash$を,格助詞$\backslash$に(その他多数)\end{description}\item[接辞:]接尾語は,それが結合することによって形成される複合語の種類(品詞)によって分類される.\begin{description}\item[(分類)]接頭語,接尾語/普通名詞,接尾語/連用名詞,接尾語/動詞(その他多数)\end{description}\end{description}\fi\subsection{構文構造}第3層の構造は基本的にEDRコーパスの括弧付けに従い,各中間ノードに非終端記号を付与する.ただし,我々が使用したコーパスでは1つの中間ノードに複数の非終端記号を縦に続けて割り当てることもあり,これにより,コーパスから抽出した文法が非終端記号の置き換え規則を含むようになる.例えば,「文法が」と「日本語文法が」という2つの句に対して,\cite{shirai:97}の場合は図\ref{fig:labelling}(a)のような構造になり,我々が使用したコーパスでは図\ref{fig:labelling}(b)のような構造になる.(a)から抽出される後置詞句に関する文法規則は,名詞句に助詞が結合する規則と名詞に助詞が結合する規則の2つになるが,(b)から抽出される助詞句に関する文法規則は,名詞句に助詞が結合する規則のみである\footnote{白井らが「後置詞句」と呼んでいる句は,我々が使用したコーパスでは「助詞句」と呼んでいる.}.その代わり,名詞句を構成するまでの部分が深くなるが,名詞や複合名詞から名詞句への置き換え規則を設け,類似の規則をまとめることで,句より上のレベルと下のレベルを明確に分けることができ,構造や抽出した文法規則が分かりやすくなる.\begin{figure}[tp]\centering\epsfxsize=\textwidth\epsfbox{Corpus/figure/labelling.eps}\caption{\protect\cite{shirai:97}との構文構造の違い}\label{fig:labelling}\end{figure}構造は基本的にEDRコーパスの括弧付けに従うが,次の場合には括弧付けとは異なる構造を付与する.\begin{description}\item[法,様相を表す助動詞:]「そうだ」など法や様相を表す助動詞は,EDRコーパスでは文全体に付加する構造になっている.しかし,白井らは,曖昧性を抑えるため,文末の最後の要素に結合する構造にしている.我々が使用したコーパスも,同様の構造になっている.\item[フラットな構造:]白井らも指摘しているように,EDRコーパスの括弧付けの中には,細かい括弧付けがなく,多くの要素を1つの括弧でまとめてしまうものがある.その場合には,さらに細かい構造を付与する.\item[用言に結合する語尾,助動詞:]用言に複数の語尾や助動詞が結合する場合,EDRコーパスでは1つの括弧でまとめられているが,この部分は,左下がりの構造にしている(図\ref{fig:verb_struct}).この部分をEDRコーパスに従ってフラットな構造にすると,結合する助詞や助動詞の列のパターンだけ文法規則が必要となるが,こうすることで,少ない文法規則でより多くのパターンをカバーできるようになる.\end{description}\begin{figure}[tp]\centering\epsfxsize=.5\textwidth\epsfbox{Corpus/figure/verb_struct.eps}\caption{動詞に複数の助動詞が結合する場合の構造}\label{fig:verb_struct}\end{figure}\begin{figure}[tp]\centering\epsfxsize=.5\textwidth\epsfbox{Corpus/figure/case.eps}\caption{用言のとる表層格を考慮した構造}\label{fig:case}\end{figure}我々が使用したコーパス中の用言を表す品詞には,それらがとる表層格の情報が付与されている.その表層格の情報は,第3層の構文構造にも引き継がれ,該当する助詞句によって打ち消される(図\ref{fig:case}).これにより,二重ヲ格等の制約を取り入れることが可能になる\footnote{本論文では,簡略化のため,説明において必要でない場合には,表層格の情報を省略して図示することがある.}.\begin{biography}\biotitle{略歴}\bioauthor{野呂智哉}{1977年生.2000年東京工業大学工学部情報工学科卒業.2002年同大学院情報理工学研究科計算工学専攻修士課程修了.同年同大学院情報理工学研究科計算工学専攻博士後期課程進学,在学中.日本語構文構造付きコーパスと日本語文法の構築に関する研究に従事.}\bioauthor{橋本泰一}{1999年東京工業大学大学院情報理工学研究科修士課程修了.2001年同大学院情報理工学研究科博士課程修了.現在,同大学大学院情報理工学研究科助手.博士(工学).情報処理学会,言語処理学会,各会員.}\bioauthor{徳永健伸}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,各会員.}\bioauthor{田中穂積}{1941年生.1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N02-06
\section{まえがき} 自然言語処理技術の一つに,文書の自動抄録がある.従来から行なわれている自動抄録は大きく分けて2つの手法,すなわち,1.文書の構造解析を行なう手法,2.文書の統計情報を用いた手法とに分類できる.1はスクリプトなどを使用して重要箇所を抽出する方法や,テキストの構文・意味解析を行なって談話構造を作成し,この構造から重要箇所を抽出する方法である\cite{Reimer1988},\cite{Tamura1989},\cite{Jacobs1990},\cite{Inagaki1991}.しかし,これらの方法では,ある特定の分野について書かれたテキストのみを対象としている場合が多いため,結果的に汎用性に欠けることが指摘されている\cite{Paice1990},\cite{Zechner1996}.2は電子化されたコーパスに対し統計手法を適用することで重要箇所を抽出する方法である.この場合,文に出現する各語に重み付けを行ない,そのスコアの高い文を重要箇所とする手法が多く用いられている.重み付けには,(a)ヒューリスティックスを用いたもの,(b)単語頻度などの情報を用いたもの(c)シソーラスなどの意味情報を用いたものなどがある.(a)は文書から得られるヒューリスティックスを用いて文の重み付けを行ない重要箇所を抽出する手法である.\cite{Paice1990},\cite{Paice1993},\cite{Kupiec1995}.ヒューリスティックスとしては,修辞関係\cite{Miike1994},タイトルに出現する語の情報\cite{Edmundson1969},文の出現位置\cite{Baxendale1958}などがある.これらは,分野を限定し特別に用意された知識を用いて重要箇所を抽出する研究と比べると汎用性があると言えるが,対象分野の変更に対しどの程度適用できるかは調査の余地がある.(b)はLuhnらにより提唱されたキーワード密度方式に代表される手法である\cite{Luhn1958}.Luhnらは,「一つの文献において,その主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づき,文献の内容に関係の深い数語のキーワードを抽出し,これらの語を高頻度で含む文を文献中から選定して抄録とした\cite{Luhn1958}.しかし,文献中どこにでも現れる一般語との区別がつきにくく,文献中におけるキーワード分布の偏りが小さくなってしまうことが指摘されている\cite{Suzuki1988}.鈴木らはこの問題に対処するため,文章中で隣接または近接している語の組のうち,出現頻度の高い組を高頻度隣接語と呼び,キーワード密度法により得られたキーワードと高頻度隣接語を共に多く含む文を抄録文の候補とする手法を提案した\cite{Suzuki1988}.しかし,キーワード及び隣接語の決定は人手により行なわれているため恣意的であり,また抄録を行なおうとするテキストごとにキーワードと隣接語を決定しなければならない.SaltonやZechnerらは,単語の頻度を基に計算されたTF$\ast$IDFを用いて語に重み付けを行なうことで重要箇所を抽出する手法を提案した\cite{Salton1993},\cite{Salton1994},\cite{Zechner1996}.これらの手法は,表記の統計情報だけを用いているため,鈴木らの手法と比べると重要箇所を抽出する際,人間の介在を必要としない.しかし,人間が対象とする記事のみから重要箇所を抽出できるのは,記事に関する様々な知識を用いているからであり,対象となる記事の頻度を基にした単語の機械的な処理による重み付けだけで重要箇所を適切に抽出できるかどうかは不明である.また,(c)は意味に関する統計情報を用いた手法である.佐々木らは,段落内,又は,段落間に跨る意味分類の出現パターンをシソーラスを用いて分析し,その結果をチャート形式で表現する結束チャートを提案した\cite{Sasaki1993}.鈴木らは,佐々木らの提案した結束チャートを利用することでキーワードを自動的に抽出する手法を提案している\cite{Suzuki1993}.鈴木らの手法では,文中に現れる語が多義語である場合には,それまでに現れた文中の語の累積頻度が最も高い意味コードをその語に割り当てている.しかし,佐々木,及び鈴木らのシソーラスを用いる手法の問題として,データスパースネスの問題がある.すなわち,シソーラスのカテゴリー自身が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.さらに,各段落のキーワード候補は,各段落に2回以上出現した語をその段落におけるキーワード候補としているが,{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一つのパラグラフの語数が少ないため,一つのパラグラフ内で同一表層語が2回以上出現する現象は少なく,結果的に文書の種類によっては手法が適用できない場合がある.実際,今回の実験で使用した50記事に出現するパラグラフ数395のうち,一つのパラグラフ内で同一表層語が2回以上出現したパラグラフ数は168(42.5\%)であり,半数以上のパラグラフに対して佐々木らの手法が適用できなかった.本稿では,文脈依存の度合に注目した重要パラグラフの抽出手法を提案する.本稿の基本的なアイデアは,文書の重要箇所を適切に抽出するため,その文書がどの分野に属しているかという情報を利用するということである.例えば,ある記事に`株'が高頻度で出現したとする.その記事が`事件'の分野に属する一つの記事である場合には,`株'に関する事件の可能性が高いことから重要度の度合は強い.一方,`株式市場'の分野に属する一つの記事である場合には,この分野に属する他の記事にも`株'が高頻度で現れることから重要度は下がる.つまり`株'がある記事にとって重要であるかどうかは,その記事が設定された分野にどのくらい深く関わっているかに依存し,これは予め設定された分野に属する他の記事における`株'の頻度と比較することで判定が可能となる.我々は,分野固有の重要語の選定を行なうため,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対する重み付けを行なった.先ず,佐々木らがシソーラスを用いて語の意味を決定しているのに対し,我々は辞書の語義文を用いることで文書中の多義語の意味を自動的に決定する.次に主題に関連する単語の低頻度数の問題に対処するため,名詞同士のリンク付けを行なう.この結果に対し,文脈依存の度合を利用する.すなわち,我々はZechnerらがTF$\ast$IDFを用いて重み付けを行なっているのに対し,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対して重み付けを行なう.その際,鈴木らのように重要語を抽出する過程で人間の介在を必要としない.以下,2章では,文脈依存の度合いについて述べ,3章では語の重み付け手法を示す.4章では重み付けされた語を用いてパラグラフごとに文書のクラスタリングを行ない,重要パラグラフを抽出する手法について述べる.5章では実験について報告し,6章で実験結果に関する考察を行なう. \section{文脈依存の度合い} 一般に,主題はテキストの中で論点を示す語である.本稿では,主題,あるいは主題と意味的に関係が深い語(名詞を対象とし,これを{\bf重要語}と呼ぶ)に対し,重み付けを行なう.テキストはいくつかのパラグラフで構成される.重要パラグラフの抽出は,重み付けされた語を含む各パラグラフに対し,クラスタリングアルゴリズムを適用することで抽出される.本手法はLuhnらと同様,「一つの文献において,主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づく.本稿では新聞記事を対象とし,分野固有の重要語を抽出するために文脈依存の度合いという考え方を導入する.図\ref{depend}は,新聞記事({\itWallStreetJournal})の構造を示す.{\begin{figure}[htbp]\centerline{\epsfile{file=structure2.eps,height=6.5cm,width=10cm}}\caption{新聞記事の構造}\label{depend}\begin{center}\vspace*{-5mm}Figure1Thestructureofnewspaperarticles\end{center}\vspace*{-2mm}\end{figure}}\noindent図\ref{depend}において一日の新聞は,`経済',`文化'などいくつかの異なる種類から成る.ここではこれを{\bf分野}と呼び,各要素(`経済',`文化'など)を分野における{\bf文脈}と呼ぶ.一つの分野において,例えば`経済'という分野は,一般に,複数の記事から構成されており,各々にタイトル名(図\ref{depend}の`Generalsignalcorp.',`Safecardservicesinc.',`Jostensinc.')が付与されている.ここではこれを{\bf記事}と呼び,各要素(`Generalsignalcorp.'など)を記事における{\bf文脈}と呼ぶ.さらに,ある特定の記事,例えば,`Generalsignalcorp.'は,いくつかの{\bfパラグラフ}から成り,重要語は,各パラグラフを跨り,一貫して出現しているととらえることができる.ここでは各パラグラフをパラグラフにおける{\bf文脈}と呼ぶ.我々は重要語に対して重み付けを行なうために,図\ref{depend}で示される新聞記事の構造に対し,文脈依存の度合いという考え方を導入する.文脈依存の度合いとは,記事中の任意の語が,設定された文脈,すなわち図\ref{depend}で示した{\bfパラグラフ},{\bf記事},{\bf分野}中の特定の要素とどのくらい深く関わっているかという度合いの強さを示す.例えば図\ref{depend}において,`Generalsignalcorp.'に関する記事での重要語を`○'で示すと,`○'は,`Generalsignalcorp.'の各パラグラフを跨り出現する.よって,`○'は各パラグラフでの分布の偏りが一般語(分野に依存せず記事中どこにでも現れる語を一般語と呼ぶ)と同様,小さく,特定のパラグラフに依存する度合いは低い.次に`Generalsignalcorp.'を含む記事について考える.一般語は記事中どこにでも現れるため,記事における分布の偏りはパラグラフでのそれと差はない.一方,`○'の`Generalsignalcorp.'での依存の度合いは`○'が特定箇所(この場合,`Generalsignalcorp.')に集中して出現するため,結果的に,特定のパラグラフに依存する度合よりも強くなると考えられる.さらに`経済'を含む分野について考えると,一般語の分布の偏りはパラグラフ,及び記事と差がないのに対し,`○'の`経済'への依存の度合いは,`○'が特定箇所(この場合,`経済'の中の`GeneralSignalcorp.')に集中して出現するため,結果的に,特定の記事に依存する度合よりも強くなると考えられる.我々はこの依存の度合いの強弱を利用し,重要語を抽出した. \section{語の重み付け} 我々は,先ず新聞記事に出現する多義語名詞の解消を行なった.次にこの結果に対し,名詞同士のリンク付け(`book',`report'のように意味的に関係がある名詞や`{\itNew}'`{\itYork}'などの複合名詞をまとめ一語で置き換える処理)を行ない\cite{Fukumoto1996},これを用いて重要語を判定し,その語に対して重み付けを行なった.名詞の多義の曖昧性を解消した理由は,多義を持つ単語に対してその意味を絞り込むことで語に対する重み付けがより精緻に行なえると考えられるためである.また,名詞同士のリンク付けを行なった理由は,以下の2つの問題に対処するためである.\begin{enumerate}\item主題に関連する単語頻度数の問題{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一パラグラフの文数が少ない\footnote{{\itWallStreeJournal}の50記事において,一パラグラフ当り,平均1.93文であった.}.よって,パラグラフ間を跨り同じ表記の語が出現することは少なく,別の単語で言い換えて使用されることが多い.そのため表層語の情報のみ使用すると重要語が抽出できない場合がある.\item複合名詞の問題一単語を単位とし統計処理を行なう場合,複合名詞の問題が生じる.例えば,`AirFrance'を複合名詞である`航空会社名'として扱わず,`Air'を`空気',`France'を`地名'の意味で扱った場合を考える.`航空会社'が重要語である場合には,`空気'と`地名'で扱ったことにより,他パラグラフから`航空会社'と関係がある異表記の語が抽出されず,結果的に重要語として複合名詞である`AirFrance'が抽出されない.\end{enumerate}\noindent語の重み付けにはTF\hspace{0.2mm}(\hspace{0.5mm}Term\hspace{0.2mm}Frequency\hspace{0.5mm}),\hspace{0.5mm}IDF\hspace{0.2mm}(\hspace{0.5mm}Inverse\hspace{0.2mm}Document\hspace{0.2mm}Frequency\hspace{0.5mm}),\hspace{0.1mm}TF\hspace{0.5mm}$\ast$\hspace{0.5mm}IDF,\hspace{0.2mm}WIDF(WeightedInverseDocumentFrequency)など様々な手法が提案されている\cite{Luhn1957},\cite{Sparck1972},\cite{Salton1983},\cite{Tokunaga1994}.ここでは重み付けの一つの手法である$\chi^2$法を用いた.重要語の判定と重み付けの方法を以下に示す.\begin{enumerate}\item$\chi^2$法長尾らは,任意の語がそれぞれの分野においてその分野を特徴づける語であるか否かを判定する尺度として\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}検定の\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}値を用い,この手法がキーワードの抽出に有効であることを検証している\cite{Nagao1976}.しかし,一般に\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}値からは分野全体に対して出現頻度に偏りのある語が抽出できる反面,それぞれの分野においてその分野を特徴づける語が何であるかはわからない.\hspace{-0.1mm}また記事の量が多い分野の\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}の値は大きくなり,少ない分野のそれは小さくなる.従って,分野ごとに記事の量に偏りがある場合,\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}値の大きさだけで語を選べば,比較的記事の量が少ない分野の\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}の値は小さくなるため,結果的に重要語を抽出することができない可能性がある.渡辺らは重要漢字の自動抽出においてこの問題に対処するため,それぞれの分野における出現頻度の理論度数からのずれに注目した\cite{Watanabe1994}.本稿で述べる文脈依存の度合いを示す尺度も,渡辺らと同様,それぞれの文脈における出現頻度の理論度数からのずれを用いる.単語(名詞とする)$i$が$j$(分野,記事,またはパラグラフ)の$k$番目の要素に依存する度合を式(\ref{kai})に示す.\vspace*{-8mm}\begin{eqnarray}\chij^2_{ik}=\left\{\begin{array}{ll}\frac{(x_{ik}-m_{ik})^2}{m_{ik}}&\mbox{if$x_{ik}$$>$$m_{ik}$}\\0&\mbox{otherwise}\end{array}\right.\label{kai}\end{eqnarray}\hspace*{1cm}ここで,\vspace*{-5mm}\begin{eqnarray}m_{ik}&=&\frac{\sum^{n}_{k=1}x_{ik}}{\sum^{m}_{i=1}\sum^{n}_{k=1}x_{ik}}\times\sum^{m}_{i=1}x_{ik}\nonumber\end{eqnarray}ただし,\begin{tabular}{lll}$j$:&{\sfD}({\bf分野}),{\sfA}({\bf記事}),または{\sfP}({\bfパラグラフ})\\$m$:&名詞の数\\$n$:&$j$の要素の数\\$x_{ik}$:&$k$番目の要素における単語$i$の出現頻度\\$m_{ik}$:&$k$番目の要素における単語$i$の理想頻度\\\end{tabular}\noindentとする.ここで理想頻度とは,全分野,全記事,あるいは全パラグラフに等確率でその名詞が出現した場合の出現頻度である.式(\ref{kai})において$x_{ik}$がその理想頻度よりも小さい場合にはゼロとした.\item文脈依存の度合単語$i$が分野$j$(記事,またはパラグラフ)に依存する度合は$\chij^{2}_{ik}$の分散値$\chij^{2}_{i}$とした.これは,単語$i$の分野,記事,パラグラフそれぞれにおける依存の度合を比較するためである.\hspace{-0.15mm}$\chij^{2}_{i}$\hspace{-0.25mm}はその値が大きいほど単語$i$\hspace{-0.15mm}が$j$\hspace{-0.15mm}の特定の要素に強く依存することを示す.語$i$の{\bf分野({\sfD})},{\bf記事({\sfA})},{\bfパラグラフ({\sfP})}における文脈依存の度合の関係は式(\ref{degree1}),(\ref{degree2})で示される.\begin{eqnarray}\frac{\chi{\sfP}^{2}_{i}}{\chi{\sfA}^{2}_{i}}&<&1\label{degree1}\\\frac{\chi{\sfA}^{2}_{i}}{\chi{\sfD}^{2}_{i}}&<&1\label{degree2}\end{eqnarray}\noindent式(\ref{degree1})においてパラグラフにおける単語$i$の分散値$\chi{\sfP}^{2}_{i}$よりも記事における単語$i$の分散値\hspace{-0.25mm}$\chi{\sfA}^{2}_{i}$\hspace{-0.01mm}が大きいことから単語$i$はパラグラフ中の特定のパラグラフよりも記事中の特定の記事に強く依存することを示す.同様に式(\ref{degree2})は記事中の特定の記事よりも分野中の特定の分野に強く依存することを示す.従って式\hspace{-0.05mm}(\ref{degree1}),(\ref{degree2})を共に満たす語$i$は,特定のパラグラフに依存する度合が最も弱く,記事,分野へと対象が広がるにつれて強くなる.よって我々は式(\ref{degree1}),(\ref{degree2})を共に満たす語$i$を重要語とみなした.\item語の重み付け語の重み付けはパラグラフ中での語の出現頻度数に対して行なった.すなわち,記事の各パラグラフを構成する語が重要語である場合,その語の重み付けは出現頻度数とし,そうでない場合,ゼロとした.\end{enumerate} \section{重要パラグラフの抽出} 重要パラグラフの抽出は重み付けされた語を含む各パラグラフに対し,パラグラフ間の類似度を利用したクラスタリングアルゴリズムを適用することで抽出される.クラスタリングアルゴリズムを用いた理由は,重要語はパラグラフを跨り出現すると仮定したことから,重要パラグラフは重要語を多く含み,かつ,同じ重要語が出現するパラグラフ同士ほど,より重要なパラグラフであると考えられるためである.従ってパラグラフを全パラグラフに出現する名詞を軸とするベクトルで表現し,ベクトル同士の類似度を基にクラスタリングを行なう手法を用いた.抽出方法を以下に示す.\begin{tabular}{ll}\sfStageOne:&パラグラフをベクトルで表す.\\\end{tabular}記事$P$を構成する各パラグラフ$P_{1}$,$\cdots$,$P_{m}$をベクトルで表す.$m$はパラグラフの個数とする.パラグラフ$P_{i}$は,\begin{eqnarray}P_{i}&=&(N_{i1},N_{i2},\cdots,N_{in})\label{1aa}\end{eqnarray}\noindentで示される.ここで$n$\hspace{-0.1mm}は,全パラグラフに出現する名詞の異なり数とする.また,$N_{ij}$\hspace{-0.1mm}は以下の通りとする.\[N_{ij}=\left\{\begin{array}{ll}0&\mbox{$N_{j}$がパラグラフ$P_{i}$に現れない場合}\\f(N_{j})&\mbox{$N_{j}$がパラグラフ$P_{i}$に現れ,かつ重要語である場合}\\0&\mbox{$N_{j}$がパラグラフ$P_{i}$に現れ,かつ重要語でない場合}\end{array}\right.\]\noindent上式において,$f(N_{j})$はパラグラフ$P_{i}$に出現する名詞$N_{j}$の頻度とする.\begin{tabular}{ll}\sfStageTwo:クラスタリングアルゴリズムを適用する.\end{tabular}パラグラフ$P_{1}$,$\cdots$,$P_{m}$の任意の組合せに対し,式(\ref{niwa1})を用いて類似度を計算する.\begin{eqnarray}sim(P_{i},P_{j})&=&\frac{V(P_{i})\astV(P_{j})}{\midV(P_{i})\mid\midV(P_{j})\mid}\label{niwa1}\end{eqnarray}\noindent式(\ref{niwa1})において$V(P_{i})$は$P_{i}$のベクトルを示す.式(\ref{niwa1})は正規化されたベクトル$V(P_{i})$と$V(P_{j})$の内積を示す.$sim(P_{i},P_{j})$の値が大きいほど,$P_{i}$と$P_{j}$は類似していることを示す.式(\ref{niwa1})を用いて類似度を計算した結果,任意のパラグラフの組とその類似度の値をその値が降順になるように出力する.この結果に対し,群平均化のクラスタリングアルゴリズムを適用する.\begin{tabular}{ll}\sfStageThree:重要パラグラフの抽出\end{tabular}得られたクラスタリング結果に対し,類似度の高いクラスタの順に重要パラグラフを抽出する.ただし,同一クラスタ内の重要パラグラフの抽出順序は,重要語を多く含むパラグラフの順とする.例えば4パラグラフから成る記事に対して,表\ref{para}で示されるクラスタが得られたとする.{\footnotesize\begin{table}[htbp]\begin{center}\caption{クラスタリング結果例}\label{para}\vspace*{-3mm}Table1Thesampleresultsoftheclustering\\\begin{tabular}{ll}\hline\hline番号&クラスタ\\\hline1&(3,4)\\2&(1,(3,4))\\3&((1,(3,4)),2)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{para}の番号は,得られたクラスタの順位を示し,クラスタ中の番号はパラグラフの番号を示す.表\ref{para}において,第3パラグラフに含まれる重要語の個数が第4パラグラフより多い場合,重要パラグラフの抽出順序は,3$\rightarrow$4$\rightarrow$1$\rightarrow$2の順とし,そうでない場合,4$\rightarrow$3$\rightarrow$1$\rightarrow$2とした. \section{実験} 本節では,文脈依存の度合いを用いた手法の有効性を検証するために行なった実験について述べる.\subsection{データ}実験で用いたデータは1988,1989年の品詞のタグ付けされた{\itWallStreetJournal}である\cite{Brill1992}.{\itWallStreetJournal}は各々異なる文数から成る記事で構成され,各記事の始めには,タイトル名が付与されている.さらに各タイトルは76種類の分野名に分類されている.そこでこの分野名からランダムに10個の分野を選択し,{\bf分野}として用いた.さらにこれら10個の分野に含まれる総計50個の記事を抽出した.表\ref{domain}に選択した50記事の分野名と記事数を示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{分野名と記事数}\label{domain}\vspace*{-3mm}Table2Thedomainnameandthenumberofarticles\\\begin{tabular}{l|c|l|c}\hline\hline\multicolumn{1}{c|}{分野名}&記事数&\multicolumn{1}{c|}{分野名}&記事数\\\hlineBBK:buybacks&6&BVG:beverages&8\\DIV:dividends&5&FOD:foodproducts&5\\STK:stockmarket&5&RET:retailing&1\\ARO:aerospace&5&ENV:environment&3\\PCS:preciousmetals&9&CMD:commoditynews,&3\\\hspace*{11mm}stones,gold&&\hspace*{11mm}farmproducts&\\\hline\end{tabular}\end{center}\end{table}}\noindent50記事中,名詞の総異なり数は3,802であり,これらに対し多義解消と名詞間のリンク付けを行なった結果,名詞の総異なり数は3,707となった.実験で用いた50記事は,各々パラグラフ数が異なる.そこで,総パラグラフ数に対する一定の割合を重要パラグラフとして抽出した.重要語,及び重要パラグラフの正解データは3人の被験者により作成した.重要語の正解データは,各被験者にタイトル文を削除した50記事を見せ,重要だと思われる語を各記事ごとに選択してもらい,この結果から2人以上が重要語であると判定した語を正解データとして抽出した\footnote{50記事中,3人が選んだ重要語の総異なり数は1,580であり,そのうち2人以上が重要語であると判定した語数は1,264個であった.}.重要パラグラフの正解データは以下のようにして作成した.先ず,重要語の場合と同様,各被験者にタイトル文を削除した50記事を見せ,重要と思われるパラグラフを総パラグラフ数に対する一定の割合分,選択してもらった.次に各記事に対し,重要であると判定した人数が多い順にパラグラフをソートし,この結果から総パラグラフ数に対する一定の抽出率に相当するパラグラフ数を抽出し,正解データとした.ただし,正解データに信頼性を持たせるため,データの中に重要であると判定した人数が1人しかいないパラグラフは正解データに含まれないようにした.例えば,抽出された総パラグラフ数に対する3割のパラグラフ数を3とし,そのうち2人以上が同じパラグラフを選んだパラグラフ数が2であった場合,残りの1パラグラフは排除し,2パラグラフを正解データとした.人手により作成した正解データにおいて一位で選ばれたパラグラフにタイトル文と等しい,あるいは類似した文が含まれている記事は,50記事中48記事であり,残りの2記事についても二位で選ばれたパラグラフにタイトル文を示す文が含まれていたことから,人手により選択されたパラグラフは正解データとして妥当であると考えられる.\subsection{実験結果}多義解消と名詞間のリンク付けを行なった50記事に対し,文脈依存の度合を示す式(\ref{degree1})と(\ref{degree2})を適用した結果,総計1,047個の重要語が抽出された.結果を表\ref{key_result}に示す.表\ref{key_result}において,{\itRecall}と{\itPrecision}を以下に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{重要語抽出の実験結果}\label{key_result}Table3Theresultsofkeywordexperiment\\\begin{tabular}{r|r|c}\hline\hlineパラグラフ数&記事数&{\itRecall}/{\itPrecision}\\\hline\hline3&1&88.9/81.2\\\hline4&13&62.7/86.2\\\hline5&6&76.7/86.2\\\hline6&6&67.3/77.5\\\hline7&4&83.2/86.4\\\hline8&3&89.0/80.0\\\hline9&4&80.3/75.4\\\hline10&2&90.2/72.2\\\hline11&1&80.1/87.6\\\hline12&1&100.0/83.7\\\hline14&3&46.5/50.2\\\hline15&2&100.0/73.4\\\hline16&2&89.2/82.0\\\hline17&1&62.4/89.4\\\hline22&1&64.3/70.0\\\hline\hline\multicolumn{1}{c|}{計}&50&78.7/78.1\\\hline\end{tabular}\end{center}\end{table}}\vspace*{-1cm}\begin{eqnarray}Recall&=&\frac{被験者と本手法の抽出結果で共通している重要語の個数}{被験者が抽出した重要語の個数}\nonumber\\\nonumber\\Precision&=&\frac{被験者と本手法の抽出結果で共通している重要語の個数}{本手法で抽出した重要語の個数}\nonumber\end{eqnarray}\noindent表\ref{key_result}の{\itRecall}と{\itPrecision}は各パラグラフ数ごとの平均を示す.また,重要パラグラフの抽出結果を表\ref{result}に示す.実験結果の評価は,正解データ(表\ref{result}の`抽出')の中に本手法により抽出された重要パラグラフ(表\ref{result}の`正解')がどの程度含まれているか,という尺度で行なった.{\footnotesize\begin{table}[htbp]\begin{center}\caption{実験結果}\label{result}\vspace*{-3mm}Table4Theresultsofkeyparagraphexperiment\\\begin{tabular}{|c|r|r|r|r|r|r|r|r|r|r|r|}\hline\hline\multicolumn{1}{|c|}{パラグラフ}&\multicolumn{10}{c|}{重要パラグラフの抽出率(\%)}&\\\cline{2-11}\multicolumn{1}{|c|}{\raisebox{-1.5ex}{(記事)}}&\multicolumn{2}{c|}{10}&\multicolumn{2}{c|}{20}&\multicolumn{2}{c|}{30}&\multicolumn{2}{c|}{40}&\multicolumn{2}{c|}{50}&正解率\\\cline{2-11}\multicolumn{1}{|c|}{}&抽出&正解&抽出&正解&抽出&正解&抽出&正解&抽出&正解&\%\\\cline{1-12}3(1)&1&1&1&1&1&1&1&1&2&2&100.0\\\cline{2-12}4(13)&13&12&13&12&13&12&13&12&26&21&88.4\\\cline{2-12}5(6)&6&5&6&5&$\ast$11&8&$\ast$10&9&18&14&96.0\\\cline{2-12}6(6)&6&6&6&6&$\ast$9&9&12&10&18&14&88.2\\\cline{2-12}7(4)&4&4&4&4&8&8&12&8&16&11&79.5\\\cline{2-12}8(3)&3&3&6&6&6&6&$\ast$8&6&12&7&80.0\\\cline{2-12}9(4)&4&4&8&8&$\ast$8&8&16&11&$\ast$18&9&74.0\\\cline{2-12}10(2)&2&2&4&2&$\ast$4&2&8&6&10&7&67.8\\\cline{2-12}11(1)&1&1&2&2&3&3&4&3&6&4&81.2\\\cline{2-12}12(1)&1&1&2&2&$\ast$2&2&$\ast$3&3&6&3&78.5\\\cline{2-12}14(3)&3&2&4&3&$\ast$6&4&$\ast$14&7&$\ast$19&10&56.5\\\cline{2-12}15(2)&$\ast$3&$\ast$2&$\ast$3&2&$\ast$3&2&$\ast$8&6&$\ast$14&10&70.9\\\cline{2-12}16(2)&$\ast$3&$\ast$3&$\ast$5&5&5&5&12&8&$\ast$16&10&75.6\\\cline{2-12}17(1)&2&2&3&3&$\ast$3&3&$\ast$7&4&$\ast$8&4&69.5\\\cline{2-12}22(1)&2&2&$\ast$2&2&$\ast$2&2&$\ast$4&2&$\ast$8&4&66.6\\\hline\multicolumn{1}{|c|}{総数(50)}&54&50&69&63&84&75&132&96&215&130\\\cline{1-11}\multicolumn{1}{|c|}{正解率\%}&\multicolumn{2}{c|}{92.5}&\multicolumn{2}{c|}{91.3}&\multicolumn{2}{c|}{89.2}&\multicolumn{2}{c|}{72.7}&\multicolumn{2}{c|}{60.4}\\\cline{1-11}\multicolumn{12}{c}{}\\\multicolumn{12}{c}{}\\\multicolumn{12}{l}{$\ast$:\\\2人以上が同じパラグラフを抽出した数が,総パラグラフに対する3割のパラグラフ数に}\\\multicolumn{12}{l}{\\\\\\満たないことを示す.}\\\end{tabular}\end{center}\end{table}}\noindent表\ref{result}は,重要パラグラフの抽出率が総パラグラフ数の10$\sim$50\%における各記事の抽出数,正解数を示す.各記事は記事の大きさ,すなわちパラグラフ数により分類されている.表\ref{result}の括弧は各パラグラフ数から成る記事の個数を示す.例えば3(1)は3パラグラフから成る記事が1つ存在することを示す. \section{考察} \subsection{重要語の抽出について}表\ref{key_result}によると,重要語抽出の{\itRecall/Precision}の総計はそれぞれ78.7\%,78.1\%であった.表\ref{key_result}において{\itRecall/Precision}が最も低いパラグラフ数は14パラグラフ(46.5/50.2)であり,その結果重要パラグラフの抽出結果である表\ref{result}においても抽出率は最も悪く,平均56.5\%であった.本手法では重要語が正しく抽出できない場合には重要パラグラフを正確に抽出できない可能性が高い.重要語が正しく抽出できなかった原因として以下のことが考えられる.\begin{enumerate}\item重要語の判定式記事(タイトル名`AberminsuesGrangesinEfforttorescindJointGoldVenture')において判定された重要語とパラグラフ,記事,分野における$\chi^2$値のサンプル例を表\ref{bbk5_2}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{記事における重要語と$\chi^2$法の値}\label{bbk5_2}Table5Keywordsandtheir$\chi^2$valuesinthearticle\\\begin{tabular}{lrrr}\hline\hline重要語&パラグラフ&記事&分野\\\hlineabermin&0.582&10.835&663.605\\belzberg&1.468&1.548&94.801\\flin&1.468&1.548&94.801\\gold5&1.770&2.496&52.865\\granges&0.680&15.478&948.007\\manitoba&1.468&1.548&94.801\\mill1&1.706&4.925&94.801\\ounces&1.765&5.064&284.402\\reserves&2.912&3.060&94.801\\suit2&1.099&3.096&189.601\\supreme1&1.468&1.548&94.801\\tartan1&0.251&6.191&379.203\\{\sfword237}&4.633&5.132&362.887\\{\sfword238}&1.468&1.548&94.801\\その他15&$\cdots$&$\cdots$&$\cdots$\\\hline全体平均&1.772&2.383&78.161\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{bbk5_2}において,\hspace{-0.2mm}`パラグラフ',\hspace{-0.1mm}`記事',\hspace{-0.1mm}`分野'\hspace{-0.1mm}の各値は,\hspace{-0.1mm}各々の単語の\hspace{0.1mm}$\chi^2$法の値を示す.\hspace{-0.1mm}`全体平均'\hspace{-0.1mm}は,記事に出現する全ての語の平均を示す.`{\sfword237}'及び`{\sfword238}'は,名詞同士のリンク付けを行なった後のラベル付けを示す.表\ref{bbk5_2}によると,抽出された重要語のうち,パラグラフでの$\chi^2$法の全体平均値(1.772)よりもかなり高い値を持つ語が存在している.例えば,`{\sfword237}'は,4.633であり,平均値よりもかなり高い値を示していることから,特定のパラグラフに集中して出現しており,主題と関係がないにもかかわらず誤って重要語と判定されていた.例えば,抽出率が10\%で正解率が100\%に達しない記事は4記事存在し,このうち3記事がこのことが原因であった.この問題に対処するための手法として,パラグラフでの$\chi^2$法の全体平均値を加味した重要語の判定が考えられる.例えば,表\ref{bbk5_2}において,パラグラフでの全体平均値(1.772)よりも高い値を持つ`{\sfword237}'(`stock',`exchange',`market'など)と`reserves'は,記事のタイトルが`AberminsuesGrangesinEfforttorescindJointGoldVenture'(AberminがGrangesに対し,合弁貴金属産業を廃止するために訴えを起こす)であり,その背景説明として`Abermin'と`Granges'の両会社の株価の変動を説明する際用いられた語であることから,主題とは直接関係がないと考えられる.この場合,全体平均値を上回る語に対しては,重要語とみなさないなどの制約を加えることでこれらの語を排除することができる.今回の実験では,文脈依存の度合の関係を示す式として式(\ref{degree1})と(\ref{degree2})を用いて重要語の判定を行なった.今後さらに精度を上げるため,これらの式に加えパラグラフでの$\chi^{2}$の全体平均値を考慮するなど,重要語の判定についてさらに検討する必要がある.\item多義の曖昧性解消本手法では名詞の多義解消と名詞間のリンク付けを行なった結果に対し,文脈依存の度合を導入することで重要語を抽出している.実験で用いた50記事に対し,名詞の多義解消と名詞間のリンク付けを行なわずに文脈依存の度合を適用した実験を行なった結果,総抽出数84パラグラフ(抽出率30\%)に対し66パラグラフが正解であり,平均正解率は78.5\%であった.結果的に多義の解消と名詞間のリンク付けを行なうことで,正解率が89.2\%に達し10.7\%向上していることから,多義の解消と名詞同士のリンク付けが有効であることがわかる.一方,多義の曖昧性が正しく解消できなかったために正解が得られなかった記事は,抽出率10\%において正解が得られなかった4記事中,1記事存在した.記事及びそのクラスタリング結果を図\ref{bbk5}と図\ref{bbk6}に示す.{\footnotesize\begin{figure}[htbp]\begin{center}\begin{tabular}{|ll|}\hline\multicolumn{2}{|c|}{{\bfCrystalOilCo.ExtendsOffer}}\\\multicolumn{2}{|c|}{}\\1&\parbox[t]{12cm}{\underline{Crystal4}\underline{oil4}co.saiditextendedto\underline{Nov.}17the\underline{exchange1}\underline{offer4}forallofitsnon-interest-bearingconvertiblesecured\underline{notes},due1997,for\underline{shares}ofitscommon\underline{stock5}.}\\2&\parbox[t]{12cm}{The\underline{offer4}hadbeensettoexpire\underline{yesterday1}.}\\3&\parbox[t]{12cm}{Thecompany1saidabout65.89\%ofthe\underline{notes}outstandinghavebeentendered.undertheplan5,the\underline{notes}willbeexchangedata\underline{rate5}of65\underline{shares}of\underline{crystal2}\underline{oil3}commonforeach\$1,000principal\underline{amount4}ofthe\underline{notes},the\underline{energy4}\underline{concern2}said.}\\4&\parbox[t]{12cm}{Incomposite\underline{trading1}onthe\underline{american2}\underline{stock1}\underline{exchange1}\underline{yesterday2},\underline{crystal2}\underline{oil3}\underline{shares}closedat\$2.875,up12.5\underline{cents}.}\\\multicolumn{2}{|c|}{}\\\hline\end{tabular}\caption{記事}\label{bbk5}{\smallFigure2Thesampleofthearticle}\end{center}\end{figure}}{\small\begin{figure}[htbp]\centerline{\epsfile{file=paragraph2.eps,height=2.5cm,width=4.5cm}}\caption{記事のクラスタリング結果}\label{bbk6}\begin{center}Figure3Theclusteringresults\end{center}\end{figure}}\noindent図\ref{bbk5}において先頭はタイトル名を示す.図\ref{bbk5}及び\ref{bbk6}の番号はパラグラフの番号を示し,図\ref{bbk5}の下線は本手法により抽出された重要語を示す.図\ref{bbk6}によると,クラスタ(3,4)とクラスタ(1,(3,4))との差は0.02であり,僅かの差でクラスタ(3,4)が抽出された結果,パラグラフ1が重要パラグラフであるにもかかわらず抽出されなかったことを示す.パラグラフ1,3,4に出現する重要語と重み付けを行なった後の頻度数を表\ref{bbk5_1}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{記事の各パラグラフに出現する単語と頻度}\label{bbk5_1}\vspace*{-3mm}Table6Thewordsandtheirfrequenciesinthearticle\\\begin{tabular}{rl|rl|rl}\hline\hline\multicolumn{2}{c|}{パラグラフ1}&\multicolumn{2}{c|}{パラグラフ3}&\multicolumn{2}{c}{パラグラフ4}\\\hline頻度&単語&頻度&単語&頻度&単語\\\hline1&crystal4&1&concern2&1&american2\\1&oil4&1&crystal2&1&crystal2\\5&{\sfword237}&1&energy4&1&oil3\\1&{\sfword78}&1&oil3&5&{\sfword237}\\&&1&rate5&1&{\sfword78}\\&&5&{\sfword237}&&\\\hline\multicolumn{6}{c}{}\\&\multicolumn{1}{l}{\sfword78:}&\multicolumn{4}{l}{Nov.,yesterday2}\\&\multicolumn{1}{l}{\sfword237:}&\multicolumn{4}{l}{exchange1,offer4,notes,shares,}\\&\multicolumn{1}{l}{}&\multicolumn{4}{l}{stock5,amount4,trading1,stock1,cents}\\\end{tabular}\end{center}\end{table}}\noindent表\ref{bbk5_1}において,語の末尾の数字は,多義が解消され,各語に対し予め設定した5つの意味のいずれかに決定できたことを示す.また`{\sfword237}'及び`{\sfword78}'は,名詞同士のリンク付けを行なった後のラベル付けを示す.表\ref{bbk5_1}によると,`crystal',`oil'がパラグラフ1,3,4に出現するにもかかわらず,パラグラフ1に出現する`crystal'及び`oil'は誤って多義が解消され,それぞれ`crystal4',`oil4'で置き換えられている.その結果,パラグラフ3と4の共通単語は3語,パラグラフ1と3,パラグラフ1と4の共通単語はそれぞれ共に1語,2語であり,パラグラフ3と4がより類似性が高いと判定され,結果的にパラグラフ1が重要パラグラフとして選ばれなかった.本手法では多義が正しく解消されない場合には重要語が判定できず正解が得られない可能性が高い.本手法で用いた多義の解消率は,78.4\%であった\footnote{{\itWallStreetJournal}からランダムに抽出した490文に含まれる名詞3,608語のうち多義が正しく解消できたものは,2,828語(78.4\%)であった.}が,今後さらに多義解消自体の精度を向上させる必要がある.\end{enumerate}\subsection{重要パラグラフの抽出について}表\ref{result}によると,抽出率が10$\sim$30\%の場合,それぞれ,50,63,75パラグラフが正解であり,平均正解率は92.5\%,91.3\%,89.2\%に達した.分野名`BBK(Buybacks)'に属し,6パラグラフから成る記事を図\ref{sample1}に示し,それに出現する語のパラグラフ,記事,分野における$\chi^2$値の例を表\ref{sample}に示す.{\footnotesize\begin{figure}[htbp]\begin{center}\begin{tabular}{|ll|}\hline\multicolumn{2}{|c|}{{\bfSafecardServicesInc.SetsStockBuy-Back,CitingDropinPrice}}\\\multicolumn{2}{|c|}{}\\1.&\parbox[t]{12cm}{\underline{Safecard}\underline{services}Inc.saiditintendstobeginpurchasingitscommonontheopenmarketbecauseofasharp\underline{drop}inthe\underline{stock's}pricelatelastweek.}\\\multicolumn{2}{|c|}{}\\2.&\parbox[t]{12cm}{Thecompanydidn'tsayhowmanysharesitexpectstobuy,butitsaidthepurchaseswouldbemadeunderapreviouslyannounced\underline{stock}buy-backprogram.Officersdidn'treturncallsseeking\underline{details}.Asofapril30,thecompanyhad32millionsharesoutstanding.}\\\multicolumn{2}{|c|}{}\\3.&\parbox[t]{12cm}{\underline{Safecard}saidits\underline{stock}hadbecomeandanattractiveinvestmentasaresultofthepricedeclinethatbeganthursday,whenSafecardfell$1,or18,to$6.Ashare,makingittheday'stoppercentageloseronnasdaq,thenationalassociationof\underline{securities}dealersautomatedquotation\underline{service}.OnFriday,itfellafurther87centsto\$5.Ashareonvolumeofabout2millionshares.}\\\multicolumn{2}{|c|}{}\\4.&\parbox[t]{12cm}{Theprice\underline{drop}followedreportsonthe\underline{Dow}\underline{Jones}\underline{News}\underline{service}andinthisnewspaperthatfederal\underline{agents}executedasearch\underline{warrant}on\underline{Safecard's}\underline{premises}inmid-Octoberinconnectionwithacriminalinvestigationbytheinternalrevenue\underline{service}.The\underline{news}\underline{accounts}saidthe\underline{target}oftheinvestigationcouldn'timmediatelybedetermined.Theyreportedasubsequent\underline{Safecard}\underline{announcement}thatthecompanyhadbeentoldbytheIrsthatitisn'ta\underline{target}or\underline{subject}ofanyIrsinvestigation.\underline{Safecard}officersdidn'treturnnumerousphone\underline{calls}seekingcommentorfurther\underline{details}.}\\\multicolumn{2}{|c|}{}\\5.&\parbox[t]{12cm}{Inannouncingitsstock-buy-backplans,\underline{Safecard}saidits\underline{stock}priceplungecameinresponsetoerroneousheadlinespublishedintheWallStreetJournalandelsewhereassertingthat\underline{Safecard}istheobjectofanIrscriminalinquiry.acorrectionoftheheadlineappearsintoday'seditions.}\\\multicolumn{2}{|c|}{}\\6.&\parbox[t]{12cm}{\underline{Safecard},whichnotifiescredit-cardissuersoflostorstolencards,isoneofthecountry'sbiggestcredit-cardprotectionconcerns.}\\\multicolumn{2}{|c|}{}\\\hline\end{tabular}\caption{記事と重要語}\label{sample1}{\smallFigure4Thesampleofthearticleandkeywordsinthearticle}\end{center}\end{figure}}{\footnotesize\begin{table}[htbp]\begin{center}\caption{出現語と$\chi^2$法の値}\label{sample}Table7Keywordsandtheir$\chi^2$valuesinthearticle\\\begin{tabular}{lrrr}\hline\hline語&パラグラフ&記事&分野\\\hline$\ast$$\ast$Safecard&0.329&10.390&25.755\\$\ast$$\ast$Services&0.426&1.484&3.679\\$\ast$$\ast${\sfword237}&2.770&3.873&165.408\\card1&4.296&1.484&3.679\\country2&4.296&1.484&5.229\\journal1&1.927&1.484&3.679\\plan1&1.927&1.271&11.997\\today2&1.927&1.484&3.679\\$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\multicolumn{4}{c}{}\\\multicolumn{4}{l}{$\ast$$\ast$:\\\重要語を示す.}\\\end{tabular}\end{center}\end{table}}\noindent図\ref{sample1}において先頭はタイトル名を示す.また番号はパラグラフ番号を示し,下線は本手法により抽出された重要語を示す.表\ref{sample}によると記事のタイトル中で示される名詞(`Safecard',`Services',`Inc.',`Stock',`City',`Price')のうち,`Inc.',`City',及び`Price'を除くいずれもが重要語と判定されている.また,`card',`country',`plan',`today'など他分野にも現れると考えられる一般語は,式(\ref{degree1}),(\ref{degree2})を満たさないため重要語とならず,結果的に一般語として正しく認識できている.図\ref{sample1}で示された記事をクラスタリングした結果を図\ref{sample2}に示す.{\begin{figure}[htbp]\centerline{\epsfile{file=paragraph.eps,height=3.5cm,width=5.5cm}}\caption{記事のクラスタリング結果}\label{sample2}\begin{center}\vspace*{-5mm}Figure5Theclusteringresults\end{center}\end{figure}}\noindent図\ref{sample2}において,数値は類似度を示す.クラスタリングの結果,例えば抽出率が30\%の場合,パラグラフ1と3が重要パラグラフとして選択され,被験者の評価結果と一致した.表\ref{result}において抽出率が10$\sim$30\%の場合には,記事の大きさに関係なくほぼ安定して高い正解率が得られていることから,重要パラグラフ抽出の際に用いたクラスタリング手法の結果,高い類似度で抽出されたクラスタには,重要パラグラフが含まれていることがわかる.一方,抽出率が40\%以上になると正解率は低く,40\%,50\%でそれぞれ72.0\%,60.4\%であった.さらに抽出率が40\%以上の場合,精度はパラグラフ数が多くなると低下している.原因として,文間の類似度を利用したクラスタリング手法が考えられる.例えば,図\ref{sample2}において,抽出率が30\%の場合,上位2語であるパラグラフ1と3は高い類似度(0.84)でクラスタリングされている.一方抽出率が50\%以上になると類似度は0.45に低下している.そこで,重要パラグラフの抽出方法としてクラスタリング手法を用いる代わりにベクトルの大きさ,すなわち,各記事を示すベクトルの大きさが大きいものほど重要であるとし,ベクトルの大きい順に抽出する手法と本手法とを比較した.結果を表\ref{cluster}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{類似度とベクトルの大きさとの比較}\label{cluster}Table8Theresultsoftheexperimentbasedonparagraph'ssimilarity\\andthelengthofavector\\\begin{tabular}{r|r|r|r}\hline\hline抽出率&抽出数&本手法(\%)&ベクトル(\%)\\\hline10&54&50(92.6)&48(88.9)\\\hline20&69&63(91.3)&58(84.1)\\\hline30&84&75(89.3)&68(78.6)\\\hline40&132&96(72.7)&91(69.0)\\\hline50&215&130(60.4)&128(60.6)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{cluster}において,抽出数は各抽出率において抽出したパラグラフ数を示し,`本手法',`ベクトル'は,それぞれの正解数を示す.表\ref{cluster}の各抽出率においてベクトルの大きさを用いて重要パラグラフを判定する手法\hspace{0.1mm}よりも本手法\hspace{0.1mm}の\hspace{0.1mm}方が高い正解率\hspace{0.1mm}が\hspace{0.1mm}得られていることがわかる.\hspace{0.1mm}本手法では抽出率が40\%以上かつパラグラフ数が15以上になると精度が低下したが,このことはベクトルの大きさを用いた手法においても同様であった.これは,抽出率,及びパラグラフ数が多くなると各パラグラフを通して重要語の出現個数に差が生じなくなり,\hspace{0.1mm}結\hspace{0.1mm}果\hspace{0.1mm}的に各パラグラフの特\hspace{0.1mm}徴\hspace{0.1mm}化が示せなかったことによると考えられる.パラグラフの数が15以上の場合には,表\ref{result}において$\ast$の個数が多くなる.これは,抽出数が総パラグラフに対する抽出率に満たない記事が増加していることを示し,被験者の評価にも揺れが生じていることから重要箇所の抽出は難しいことがわかる.従って本手法のように文脈依存の度合だけを用いて多くのパラグラフ数から成る記事に対して高い抽出率で重要箇所を正確に抽出するのには限界があることがわかる.今後重要パラグラフの抽出精度を上げるためには,パラグラフの位置情報などのヒューリィステックスなども加味することが考えられる.抽出率が30\%の場合を例にとり,本手法で抽出された重要パラグラフ,及び,被験者が選んだ重要パラグラフが記事中でどのような位置に分布していたかを表\ref{position1}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{記事中における重要パラグラフの位置}\label{position1}\vspace*{-3mm}Table9Thepositionofkeyparagraphinthearticle\begin{tabular}{l||r|r}\hline\hline&\multicolumn{2}{|c}{記事数}\\\cline{2-3}&被験者&本手法\\\hline(a)先頭パラグラフ&39&37\\\hline(b)先頭パラグラフ,最終パラグラフ&4&4\\\hline(c)先頭パラグラフ,中央パラグラフ,最終パラグラフ&1&1\\\hline(d)先頭パラグラフ,中央パラグラフ&4&4\\\hline(e)中央パラグラフ&0&1\\\hline(f)それ以外&2&3\\\hline\multicolumn{1}{c||}{総計}&50&50\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{position1}において各パラグラフはその付近のパラグラフも含む.表\ref{position1}によると,被験者において50記事中,39の記事がその先頭パラグラフ付近のみに重要パラグラフが位置していると判定しており,全体の78.0\%を占めている.このことから,先頭パラグラフ付近に重要パラグラフが位置するというヒューリスティックスだけを単独で利用する方法は,本手法の正解率(89.2\%)よりも低いことがわかる.しかしながら,本手法において先頭パラグラフ付近に重要パラグラフが位置すると判定した記事数は37であり,2記事が先頭パラグラフ付近に重要パラグラフが存在するにもかかわらず,結果的に誤って判定している.このことから,{\itWallStreetJournal}のような新聞記事に対しては,先頭パラグラフ付近に重要パラグラフが位置するというヒューリスティックスを重要パラグラフ抽出の際の重み付けの一つとして利用することは有効であると考えられる.今後,重要パラグラフの抽出に文脈依存の度合と位置情報のようなヒューリスティックスをどのように組み合わせるかを検討する必要がある. \section{むすび} 本稿では,新聞記事を対象とし,文脈依存の度合を用いて語に重み付けを行なうことで重要パラグラフを抽出する手法を提案した.実験では人手により抽出したパラグラフと比較した結果,抽出率を30\%とした場合,50記事の抽出総パラグラフ数84に対し75パラグラフが正解であり,正解率は89.2\%に達した.今後,6節で述べた問題に対処する他,課題として以下の2点が挙げられる.\begin{enumerate}\item文書の自動分類手法との統合本手法では,文脈依存の度合を用いることにより高い精度で重要パラグラフを抽出することができる反面,{\itWallStreetJournal}のように予め分野が設定された十分な量のコーパスを必要とする.しかし,分野設定済みの利用可能なコーパスは数少ない.近年電子化されたコーパスを対象とし,文書の自動分類に関する研究が盛んに行なわれているが\cite{Blosseville1992},\cite{Lewis1992},\cite{Tokunaga1994},\cite{Fukumoto1996},今後これらの研究と本手法とを組み合わせることで汎用性を持たせる必要がある.\itemパラグラフから文への適用本手法の応用として,要約,すなわち「元文章の大意を伝えることができる簡略化した幾つかの文を生成する」へ利用することを考えた場合には,重要パラグラフから重要文へ適用する方が望ましい.本手法のパラグラフから文抽出への適用を試みた結果,抽出率が10\%のときパラグラフを対象とした場合には,抽出数54パラグラフに対し正解数は50であり正解率は92.5\%に達した.一方,文を対象とした場合には,抽出数120文に対し正解数は89文であり正解率は74.1\%であった\footnote{重要文に関する正解データは,3人の被験者により作成された重要パラグラフの正解データの中から各記事に対し抽出率を10\%とし,それに相当する文数だけ一人の被験者により文を抽出し,正解データとした.}.重要文抽出の正解率が重要パラグラフの正解率よりも低かった原因として以下のことが考えられる.\begin{itemize}\item単語頻度数の問題文を対象とした場合には単語頻度がパラグラフの場合よりも減少するため,文間で共通に出現する単語が相対的に少なくなり,結果的に類似度がゼロとなりクラスタリングできない場合が生じた.\item言い換えの問題対象とした記事には,重要文の内容を言い換えた文が存在した.重要文とその言い換えの文では,同じ語あるいは意味的に近い語が多く使われているため,文間の類似度が高くなり,結果的に他の重要文が抽出されない場合が生じた.\end{itemize}\noindent上記の問題に対処するため,重要語を抽出した後,文を単位とした場合の抽出方法について検討する必要がある.\end{enumerate}\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒業.同年沖電気工業(株)入社.総合システム研究所勤務.1988年より1992年まで(財)新世代コンピュータ技術開発機構へ出向.1993年マンチェスター工科大学計算言語学部修士課程終了.同大学客員研究員を経て1994年より山梨大学工学部助手,現在に至る.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{福本淳一}{1984年広島大学工学部第2類卒業.1986年同大学工学研究科博士前期課程終了.同年沖電気工業(株)入社.総合システム研究所勤務.1992年より1994年までマンチェスタ工科大学言語学部Ph.Dコース在学.1996年より同社関西総合研究所勤務,現在に至る.自然言語処理の研究に従事.ACL,言語処理学会,人工知能学会各会員.}\bioauthor{鈴木良弥}{1986年山梨大学工学部計算機科学科卒業.1988年山梨大学大学院工学研究科計算機科学専攻修了.同年木更津工業高等専門学校助手.1993年東京工業大学大学院総合理工学研究科博士後期課程修了.1994年より山梨大学工学部助手,現在に至る.音声言語処理の研究に従事.工学博士.電子情報通信学会,日本音響学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\biorevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V31N03-18
\section{はじめに} 他の人にどこかへ連れて行ってもらいたい時,住所・緯度・経度情報などの固有位置情報や東西南北などの絶対位置情報のみならず,前後左右などの話者の\deleted{主観的な}\modified{一人称視点からの}相対位置情報によって位置情報を共有することが多い.\deleted{主観的な}\modified{このような}相対位置情報を表現する場合,\deleted{単純な}\modified{単一の}有向辺のみに基づく抽象化では,本質的に位置情報の曖昧性解消ができない場合がある.例えば,「東京タワーを背にして右前方に豆腐屋があります」という表現を有向辺で表現するためには2つの辺を利用する必要がある.1つはランドマークである「東京タワー」と空間的実体である「話し手」の現在の位置との相対的な配置を表し,もう1つは「話し手」の現在の位置とランドマークである「豆腐屋」の位置との相対的な配置を表す.\textbf{正確な位置情報を記述するためには,これらの2つの有向辺の情報を単一の位置\modified{情報}フレームとして保持し,3点の相対位置を定義することが必要である.}空間論理の分野において,相対位置情報を表現するDoubleCrossModelが提案されている.DoubleCrossModelは文字通り2つの十字(cross)を使用する位置情報フレームである.2つの十字の中心に2つのランドマークもしくは空間内実体を配置したうえで,3つ目のランドマークもしくは空間内実体の相対位置情報を表現することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f1.pdf}\end{center}\caption{DoubleCrossModelに基づく相対位置情報表現の例}\label{fig:example1}\vspace{-0.75\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:example1}に例を示す.表現「[東京タワー](\texttt{id:T1})を背にして右前方に[豆腐屋](\texttt{id:T3})があります」に対して,聞き手の\texttt{id}を\texttt{H0}としたうえで,図\ref{fig:example1}の左下\modified{の二つの十字の図}のように表現する.本論文では,位置情報を共有する対話中の相対位置情報を,DoubleCrossModelを利用して表現することを提案する.さらに,本研究では,絶対位置情報・方向・向き・時間的距離・空間的距離・位相情報(部分・全体情報)のフレーム情報の付与手法について示す.本論文の構成は以下の通りである.\ref{sec:frame}節では,空間情報フレームのアノテーション手法について解説する.\ref{sec:double-cross}節では,提案手法であるDoubleCrossModelに基づく相対位置情報アノテーション手法を示す.\ref{sec:annotation}節では,実際のアノテーションを行ったデータの統計について示す.\ref{sec:conclusions}節に,まとめと今後の展開について示す.\modified{なお本研究は,ホンダ・リサーチ・インスティチュートにおいて,対話データの収録・転記・さまざまなメンションのタグ付けされたものに対して,どのように相対位置情報を適切にタグ付けするかについて提案するものである.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{空間情報フレームのアノテーション手法\label{sec:frame}} 本節では,空間論理\modified{の考え方に基づき,空間情報フレームのアノテーション手法を提案する.Renzらの空間論理の解説\cite{renz2007qualitative}には,区間代数からはじめ,2.2節に示す位相に基づく抽象化を解説するとともに,向きを入れる手法としてのDoubleCrossModelを示している.以下では,Renzらの定義に基づき,空間情報の抽象化について解説する.}\modified{さらに,言語表現に対する空間情報アノテーション手法として,}SpatialML\cite{mani-etal-2008-spatialml}やISO-space\cite{pustejovsky-yocum-2014-image,Pustejovsky2017}などの空間情報フレームアノテーションの主要な概念について解説する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{空間情報の抽象化}本節では空間情報の抽象化手法について解説する.本研究で扱う表現は以下のとおりである:\begin{itemize}\itemランドマーク(Landmarks):緯度や経度,または住所など,特定の位置情報が定義される場所.\item空間内実体(SpatialEntities):空間に位置する実体.話し手・聞き手もこれに含まれる.\itemシグナル表現(Signals):位置情報,方向情報,距離情報などを示す表現.\end{itemize}位置情報の形式化については,その参照表現の型として3種類あるとされる:\begin{itemize}\item固有(Intrinsic):場所に内在する固有の向き・位置.\item絶対(Absolute):鳥瞰による指示参照(東西南北).\item相対(Relative):実体からの視点に基づく指示参照(前後左右).前提として,視点を持つ主体が向き(Orientation)を持つ.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-3ia17f2.pdf}\end{center}\caption{Project-basedmodel(左:絶対(absolute),右:相対(relative))}\label{fig:project}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%空間内の位置に基づき方向を規定する方法としてproject-basedmodel(図\ref{fig:project})\cite{ligozat1998reasoning}がある.絶対位置情報表現はある出発点からの目標点の位置・方向を鳥瞰\modified{視点}に基づき「東西南北」を用いて示す.相対位置情報表現はある出発点からの目標点の位置・方向を空間内\modified{の一人称}視点に基づき「前後左右」を用いて示す.project-basedmodelでは位置・方向を有向辺にて表現する.言語表現が絶対的な指示参照しか含まない場合,その指示参照は固有位置情報を参照点とした上記の有向グラフモデルを使用して位置情報を抽象化することができる.しかし,実際には,空間内実体である話し手と聞き手は空間内に存在し,それぞれの視点からの相対位置情報表現を使用して位置情報を伝達する傾向にある.特に必ずしも空間内の絶対位置表現(東西南北)が対話参与者で共有されるわけではなく,相対位置情報表現を使わざるを得ない状況がある.しかしながら,既存のproject-basedmodelによる相対位置情報表現の形式化は{\bf空間内実体がどちらを向いているのか}という情報を適切に保持しない.\ref{sec:double-cross}節に示すDoubleCrossModelを用いた相対位置情報アノテーション手法では,3点の相対位置情報を保持することで適切に相対位置情報表現を抽象化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{位相情報の抽象化}位相情報とは空間内物体の包接関係を抽象化したものである.ランドマークや空間内実体には大きさがあり,その包接関係は位置情報のなかでも重要な情報である.SpatialMLやISO-Spaceなどの先行研究における言語表現の空間情報の抽象化\cite{mani-etal-2008-spatialml,pustejovsky-yocum-2014-image,Pustejovsky2017}は{\bf主に位相情報に基づいた抽象化}である.これは,移動表現などの述語がランドマークと空間内実体の相対的な位相変化の意味を表出するため,述語の事象意味論として位置情報の抽象化を目指したためである.位相情報として,部分全体関係や境界情報を定義する手法としてRCC-8(RegionConnectionCalculus-8)\cite{randell1992spatial}が提案されている.\modified{文献によってはRCC8とも記されるが,本稿では本文中で言及する場合RCC-8に統一し,ラベル名として{\ttrcc8}を用いる.}以下のRCC-8で規定する8種類の関係(図\ref{fig:rcc8})を示す.\begin{itemize}\item\texttt{DC}:Disconnected(非連結)\item\texttt{EC}:Externalconnection(外接)\item\texttt{PO}:Partialoverlap(部分一致)\item\texttt{EQ}:Equal(完全一致)\item\texttt{TPP}:Tangentialproperpart(被内接:sourceがtargetに接した部分集合)\item\texttt{TPP$^{-1}$}:Inverseof\texttt{TPP}(内接:targetがsourceに接した部分集合)\item\texttt{NTPP}:Non-tangentialproperpart(被内包:sourceがtargetに接しない部分集合)\item\texttt{NTPP$^{-1}$}:Inverseof\texttt{NTPP}(内包:targetがsourceに接しない部分集合)\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-3ia17f3.pdf}\end{center}\caption{位相情報(RCC-8)}\label{fig:rcc8}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{Pustejovsky2017}のISO-SpaceにおけるMotionタグのクラスは,移動表現の位相の変化を分類したものである.表\ref{tab:iso-space:motion}にMotionタグの移動表現の位相の変化をRCC-8で表現したものを示す.表中\texttt{IN}は\texttt{TPP}と\texttt{NTPP}の集合和を表す.\modified{例えば,Leaveは,何らかの空間内実体の内側([\texttt{IN}$\mid$\texttt{EQ}])から,部分一致・外接(\texttt{PO},\texttt{EC})を経て,空間内実体の外部(\texttt{DC})への移動を表す.Reachは,Leaveの逆順の移動を表す.Hitは,空間内実体の外部(\texttt{DC})から外接(\texttt{EC}),さらに場合によっては部分一致(\texttt{PO})の移動を表す.このように動詞が表出する位相の変化の記述を目的として,事象意味論の研究が進められている.}我々の提案手法でも非連結(\texttt{DC})以外の位相情報は同様のラベルを用いて表現を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{17table01.tex}%\caption{ISO-SpaceMotionタグにおける位相情報(Pustejovsky(2017)より)}\label{tab:iso-space:motion}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{DoubleCrossModelに基づく相対位置情報アノテーション\label{sec:double-cross}} 以下では,本研究で提案する相対位置情報アノテーションを示す.\modified{通常の位置関係は2地点のものをリンク(有向辺or無向辺)で表現する.本研究では3地点以上の情報をフレーム\cite{minsky1974framework}として表現する.本稿では,3地点以上の位置関係を表現するためにDoubleCrossModel上に配置して抽象化するとともに,位相や距離の情報を表す抽象化としてのフレームを提案する.本研究において,フレームは3地点以上の位置関係を矛盾なく表現できるものを単位とする.矛盾なく説明可能な場合には,4地点以上の位置関係を一つのフレームとして表現することを許す.}まず,アノテーションの形式について,図\ref{fig:example1}を用いて示す.次に先行研究にならい位相情報の扱いについて示す.さらにDoubleCrossModelを用いた相対位置情報アノテーション手法を示し,同型の扱いについて解説する.最後に距離情報の扱いについて示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーションの形式化}アノテーションの形式について,図\ref{fig:example1}の例を用いて示す.アノテーションは,位置情報に関するフレーム知識をハッシュの順序なしリスト(集合)として記述する.まず,テキスト中の連続文字列を抜き出して,その文字列を指し示す識別子(\texttt{id})を付与する.その\texttt{id}に対して,型(\texttt{type})情報を付与する.ランドマークの場合には\texttt{type=landmark}を,空間内実体の場合には\texttt{type=se}を付与する.図\ref{fig:example1}の例では,メンション「東京タワー」に\texttt{id=T1}を付与し,\deleted{「右前方に」id=T2を付与し,}「豆腐屋」に\texttt{id=T3}を付与する.\modified{このメンションの切り出し作業は本研究の上流工程で行われ,提供されたものをそのまま利用した.}また,\modified{本研究では新たに空間内実体の話し手を導入する.}空間内実体の聞き手として\texttt{id=H0}を設定する.以下に記述する内容について示す:\begin{itemize}\item\texttt{id}:\modified{(mentionid)}\\テキスト内のメンションの識別子.これは,位置表現もしくは手がかり句に対して割り当てられる.さらにテキスト中に出現しない空間内実体として,対話の参与者である\texttt{S0}(話し手)および\texttt{H0}(聞き手)を特別の識別子として用いる.\item\texttt{type}:\modified{[\texttt{landmark,se,signal,distance,topology}]}\\テキスト内のメンションの型.もしくはフレームの型.次のいずれか:\begin{itemize}\item\texttt{landmark}:位置情報(動かないもの).\item\texttt{se}:\\空間内実体(動くもの).話し手(\texttt{S0})や聞き手(\texttt{H0})を含む.\item\texttt{signal}:相対位置を示す手がかり句.\item\texttt{distance}:距離を表すフレーム\item\modified{\texttt{topology}:位相表現}\end{itemize}\item\texttt{rcc8}:\modified{[\texttt{EC,PO,EQ,TPP,NTPP}]}\\位相情報を表すラベルを付与する.外接(\texttt{EC})・部分一致(\texttt{PO})・完全一致(\texttt{EQ})・被内接(\texttt{TPP})・被内包(\texttt{NTPP})のいずれか.\item\texttt{src}:\modified{(mentionid)}\\位相情報・距離を表す起点となるメンションのID.外接(\texttt{EC})・部分一致(\texttt{PO})・完全一致(\texttt{EQ})は対称関係なので,次の終点となるメンションのID\texttt{tgt}と入れ換えても成立するが,いずれかの順序のもののみを記述する.被内接(\texttt{TPP})・被内包(\texttt{NTTP})は非対称関係である.内接(\texttt{TPP$^{-1}$})・内包(\texttt{NTPP$^{-1}$})については,それぞれの対称関係にある被内接(\texttt{TPP})・被内包(\texttt{NTPP})の\texttt{src}と\texttt{tgt}を入れ換えて記述する.\item\texttt{tgt}:\modified{(mentionid)}\\位相情報・距離を表す着点となるメンションのID.\item\texttt{slot}:\modified{[1-15]}\\メンションIDの位置情報・空間内実体の相対位置を示す.以下に示すDoubleCrossModelにおけるスロット番号.\item\texttt{dir}:\modified{[1-15]}\\メンションIDの空間内実体の向いている方向を示す.以下に示すDoubleCrossModelにおけるスロット番号.\item\texttt{absdist}:\modified{(距離情報・時間情報)}\\絶対距離情報.\modified{到達に要する時間による距離表現を許す.}\item\texttt{reldist}:\modified{(距離情報)}\\相対距離情報.\modified{14と15の間の距離を1とした場合の距離}.\end{itemize}これらの付加情報は,属性値行列(AVM:AttributeValueMatrix)形式で保持する.さらに,ID間の関係(2項関係)やフレームについても属性値行列で記述する.結果として,アノテーションは属性値行列の集合をなす.属性値行列は,計算機上ではJSONもしくはYAML形式で保持する.なお,絶対位置情報による参照表現の場合には,必ずしもDoubleCrossModelを用いる必要はない.しかしながらアノテーションの一貫性のために,本研究ではDoubleCrossModelを用いて,絶対位置情報も表現する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{位相情報アノテーション}本研究においてもRCC-8\modified{(図\ref{fig:rcc8})}に基づき位相情報をアノテーションする.以下では,実際のアノテーション事例により,アノテーション手法について説明する.図\ref{fig:rcc8:nttp}に被内包(\texttt{NTPP})のタグ付け例を示す.例文中に\texttt{type=landmark}のメンションとして「公園」(\texttt{id=T412})と「マンション街」(\texttt{id=T413})が定義されている.この位相情報をRCC-8の起点を\texttt{src=T412},RCC-8の着点を\texttt{tgt=T413}としたうえで,RCC-8の関係を\texttt{rcc8=NTPP}と付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f4.pdf}\end{center}\caption{位相情報アノテーション例(\texttt{NTPP})\label{fig:rcc8:nttp}}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:rcc8:eq}に完全一致(\texttt{EQ})の例を示す.「アニバーサリー」(\texttt{id=T110})と「お店」(\texttt{id=T111})は同一実体であり,この位相情報として,RCC-8の起点を\texttt{src=T110},RCC-8の着点を\texttt{tgt=T111}としたうえで,RCC-8の関係を\texttt{rcc8=EQ}と付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f5.pdf}\end{center}\caption{位相情報アノテーション例(\texttt{EQ})\label{fig:rcc8:eq}}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\modified{なお,図\ref{fig:rcc8:eq2}のように複数の同一指示参照表現が出現する場合,同一指示参照表現のすべての組み合わせについて付与するのは煩雑である.このような場合には,同一指示参照表現のうちで最も近いメンションの対についてのみ関係を付与する.図\ref{fig:rcc8:eq2}の例では,最も近いメンション対である(\texttt{T366,T367}),(\texttt{T367,T369}),(\texttt{T369,T370})には関係を付与するが,そうではない(\texttt{T366,T369}),(\texttt{T366,T370}),(\texttt{T367,T370})には関係を付与しない.最も近いメンション対であるか否かは同一指示参照表現の中のみで判定する.図\ref{fig:rcc8:eq2}において切り出されているフィラー表現\texttt{T368}は\{\texttt{T366,T367,T369,T370}\}と同じ実体を参照しないために,最も近いメンションの候補として考慮しない.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{31-3ia17f6.pdf}\end{center}\caption{位相情報アノテーション例(\texttt{EQ}の連続)\label{fig:rcc8:eq2}}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,デフォルトを非連結(\texttt{DC})と仮定し,非連結の場合にはラベルを付与しない.また内接\texttt{TPP$^{-1}$}$\langleS,T\rangle$と内包\texttt{NTPP$^{-1}$}$\langleS,T\rangle$はラベルとして定義せず,被内接\texttt{TPP}$\langleT,S\rangle$や被内包\texttt{NTPP}$\langleT,S\rangle$のように起点と着点を反転することで表現し,ラベルの数を減らす.RCC-8は隣接しているか離れているかを表現することに重きを置いており,位置情報の特定のために必要な相対的な方向表現\deleted{が}\modified{を}適切に表現することができない.位相情報と相対位置情報を適切にアノテーションとして表現することが必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{DoubleCrossModelによる相対位置情報アノテーション}DoubleCrossModel(図\ref{fig:doublecross})\cite{freksa1992using}は,2つの空間内実体(もしくはランドマーク)を図中の14(relatum)と15(origin)の位置に配置し,その向きを決めるための3つ目の要素(referent)を図中の他の位置に配置することで,3点で向きと相対位置を指定する表現手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f7.pdf}\end{center}\caption{DoubleCrossModel}\label{fig:doublecross}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:example1}の例では,「東京タワー」(\texttt{id=T1})を15に配置し,聞き手(\texttt{id=H0})を14に配置し,「豆腐屋」(\texttt{id=T3})を12に配置することで,相対位置を示す.さらに,聞き手がどちらを向いているのかの情報を\texttt{dir=1}としてDoubleCrossModelを用いて表現する.\modified{DoubleCrossModelにおいても,同一指示(\texttt{EQ})のメンションが複数出現する場合には,最も近いメンションについてのみ記述した.またDoubleCrossModelに基づく空間論理演算によって類推される関係までは付与せずに,言語が表現する配置をそのまま記述するのにとどめた.}\footnote{例えば,a,b,c,dの4点があるとする.(a,b:c)について(15,14:1)の配置であり,(b,c:d)について(15,14:12)の配置の場合,(a,c:d)は空間論理演算により(15,14:12)の配置になることが推論されるが,そこまでの記述は行わない.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f8.pdf}\end{center}\caption{DoubleCrossModelにおける3項関係:$\langle$origin,relatum,referent$\rangle$}\label{fig:scivos}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{DoubleCrossModelにおける同型}DoubleCrossModelはorigin,relatum,referentの3項関係を表す.本来のDoubleCrossModelにおいては,originを15に配置し,relatumを14に配置したうえで,referentを他の位置に配置することで相対位置情報を表現する.\citeA{10.1007/3-540-45424-1_29}は,図\ref{fig:scivos}の右のように\{left,straight,right\}$\times$\{forward,perpendicular,centre,line,back\}と参照点の名前を定義した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{17table02.tex}%\caption{originがa,relatumがb,referentがcの場合の順列に基づく同型}\label{tbl:3-perm}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3項のDoubleCrossModelでは,表\ref{tbl:3-perm}のように,1つの構造に対して異なる6つ(3-permutation)の表現が可能である.\citeA{zimmermann1996qualitative}は,この同型の表現について`inversion'(図\ref{fig:inverse}),`homing'(図\ref{fig:homing}),`shortcut'(図\ref{fig:shortcut})のように定義する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9and10\begin{figure}[t]\begin{minipage}{200pt}\begin{center}\includegraphics{31-3ia17f9.pdf}\end{center}\caption{同型:inversion}\label{fig:inverse}\end{minipage}\hfill\begin{minipage}{200pt}\begin{center}\includegraphics{31-3ia17f10.pdf}\end{center}\caption{同型:homing,inversehoming}\label{fig:homing}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[t]\begin{center}\includegraphics{31-3ia17f11.pdf}\end{center}\caption{同型:shortcut,inverseshortcut}\label{fig:shortcut}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%`inversion'はoriginとrelatumを入れ換える操作である(図\ref{fig:inverse}).originを14に配置し,relatumを15に配置することで,元の表現を180度回転させたものとなる.`homing'は,元のrelatumを新しいoriginに,元のreferentを新しいrelatumに,元のoriginを新しいreferentに入れ替える操作である(図\ref{fig:homing}).`inversehoming'は`homing'後に`inverse'したものである.`shortcut'はrelatumとreferentを入れ換える操作である(図\ref{fig:shortcut}).`shortcut'においては,14と15を直径とする円が重要な役割を果たす.元の構造でoriginが15にあり,relatumが14にある場合に,`shortcut'前のreferentが2か12にある場合には,入れ換えた新referentは必ず円の中にある.`shortcut'前のreferentが4か10にある場合には,入れ換えた新referentは必ず円の外にある.`shortcut'前のreferentが3か11にある場合には,入れ換えた新referentは必ず円の上にある(タレスの定理).`inverseshortcut'は`shortcut'後に`inverse'したものである.タグ付け作業者は,この順列に基づく同型の異なる表現のいずれで記述してもよいこととする.実際に機械処理する際に,この空間論理における操作(inversion,homing,shortcut)を適切に処理する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{距離情報フレーム}DoubleCrossModelは相対位置情報を記述するもので,距離情報は記述しない.言語表現には絶対距離情報表現\cite{10.1007/3-540-60392-1_4,clementini1997qualitative}と相対距離情報表現\cite{isli1999qualitative}の2つに分けられる.絶対距離情報表現は,2点間の距離を,m,kmなどの具体的な値や到達に要する時間で表現するものである.図\ref{fig:absdist}の例では,距離情報フレーム\texttt{type=distance}を定義し,起点として\texttt{src=T13},着点として\texttt{tgt=T16},そしてその2点間の絶対距離情報を\texttt{absdist=20m}として記述する.今回タグ付けしたデータは360度カメラの静止画を刺激としたもので,到達に要する時間で表現する距離表現は含まれなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f12.pdf}\end{center}\caption{絶対距離情報表現}\label{fig:absdist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%相対距離情報表現は,2点間の距離を,別の2点間の距離の相対値により表現するものである.今回タグ付けしたデータには,相対距離情報表現は含まれていなかった.DoubleCrossModelにおける相対距離情報の表現手法として,`origin'と`relatum'の距離を基準として,そのいずれかの点と`referent'との相対距離を記述する方法を考えていた.具体的には,図\ref{fig:reldist}のように,`origin'と`relatum'の2点によってなす辺を\modified{基準となる距離とし,}\deleted{半径とする2つの円の内側か外側かを記述するとともに,}\modified{他の距離を}その倍数で\texttt{reldist}として記述する方法である.\modified{この例では,\texttt{T1}と\texttt{T2}の距離を基準となる1とおき,\texttt{T2}と\texttt{T4}の距離を0.5と記述する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[t]\begin{center}\includegraphics{31-3ia17f13.pdf}\end{center}\caption{相対距離情報表現}\label{fig:reldist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーションデータ\label{sec:annotation}} 本節では,マイクロモビリティと位置情報を共有することを目的とした収録対話に対するアノテーションデータについて示す.本研究はホンダ・リサーチ・インスティチュート・ジャパンと国立国語研究所の共同研究プロジェクトにより実施した.\modified{なお本研究は,対話データの収録・転記・メンションアノテーションがなされたものに対して,どのように相対位置情報を表現するかについて提案するものである.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション対象データ}以下でホンダ・リサーチ・インスティチュートで構成されたアノテーション対象のデータについて開示可能な範囲の情報をまとめる.収録対話は,\modified{1件の}360度カメラの静止画を見ながら,ロボット役(実験実施者)と位置情報を共有する設定で行った.静止画は,東京都の表参道および豊洲近辺で撮影したものを用いた.収録に際して,ロボット役(実験実施者)は制限されたテンプレートの発話のみが可能である.実験協力者側の発話のみをアノテーション対象とした.2022年の8月に10人の実験協力者から音声収録を行った.各実験協力者は\modified{練習として1セッション実施したうえで,データ収録のための}20セッション(20静止画)実施し,合計200対話を収録した.1セッションは150秒を目標としたうえで210秒の時間制限を設け,目的とする位置情報の共有が達成するか,210秒の時点でそのセッションを打ち切った.音声収録に際し,ホンダ・リサーチ・インスティチュート・ジャパンの研究倫理審査を受け認可された.\modified{音声データを転記し,場所・位置関係のメンションを付与した.}\modified{データの概要については,付録Aに示す.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{位相情報・相対位置情報アノテーション}国立国語研究所において3節に示したアノテーション仕様を提案し,国立国語研究所内でアノテーションを行った.位相情報(\texttt{rcc8})のアノテーションについては,有向辺に抽象化したうえでbrat\footnote{\url{https://brat.nlplab.org/}}を用いてタグ付けを行った.図\ref{fig:brat}にアノテーション画面を示す.位相情報は共参照情報の一般化であるが,被内接\texttt{TPP}・被内包\texttt{NTPP}のような非対照関係を含むために,有向辺で記述した.完全一致\texttt{EQ}・部分一致\texttt{PO}・外接\texttt{EC}については,有向辺で付与するが,矢印はどちらを向いていてもよいこととした.また,完全一致\texttt{EQ}は同値関係であり,実質的に同値類を規定するために,同値類内のすべての組み合わせを付与することはせず,同値類内の隣接する要素にのみに付与した.アノテーションデータを,AVMなどの記述形式に変換して用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[b]\begin{center}\includegraphics{31-3ia17f14.pdf}\end{center}\caption{bratによる{\textttrcc8}のアノテーション\label{fig:brat}}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%DoubleCrossModelの記述は,brat上ではできないために,bratに示される識別子情報を見ながら,タグ付け作業者がYAML形式で記述した.表\ref{tbl:statistics}にアノテーションデータを示す.`Turns'の列は,ロボットとの対話におけるターン数を示す.\modified{そのうち左の数値は実験協力者側の発話数(UTurns)とし,右の数値を全体のターン数とする.}`\texttt{EQ}'・‘\texttt{TPP}'・`\texttt{NTPP}'・`\texttt{EC}'・`\texttt{PO}'および`\texttt{rcc8}Total'の列はRCC-8に基づく位相情報の数を示す.`DoubleCrossModel'の列は,DoubleCrossModelによって記述したフレーム数を示す.`目的達成'の列は,各協力者が20回のセッションのうち,どれだけの回で自分の位置情報を210秒以内に共有できたかを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{17table03.tex}%\caption{アノテーションデータの統計:RCC-8ラベルとDoubleCrossModelフレームの度数}\label{tbl:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表中,完全一致`\texttt{EQ}'はいわゆる共参照を示している.位置情報を共有する際に同じランドマーク・空間内実体を繰り返し言い換える傾向があり,\texttt{EQ}が頻繁に出現する.被内接\texttt{TPP}および被内包\texttt{NTPP}は部分全体関係を示し,主として建物内の店舗を参照する際に使用される.これらは外部に面しているかどうかで区別され,\texttt{TPP}は外部に面していることを示し,\texttt{NTPP}は外部に面していないことを示す.外接\texttt{EC}は主に隣接するランドマーク・空間内実体に用いられる.部分一致\texttt{PO}は部分的に重なる実体を表現するために利用されるが,都市部ではあまり部分的に重なるランドマークや空間内実体が少ないために数が限定的である.DoubleCrossModelを用いて表現すべき言語現象は,10人中6人の実験協力者が利用し,わずか21発話だった.本実験のように360度カメラの静止画の情報のみでは,絶対位置参照情報である東西南北が利用できない.このために本タスクでは相対位置参照情報のみで適切に位置情報を表現する必要があり,ランドマークの特徴とそのランドマークの隣接関係を含む位相情報に頼る傾向が確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[t]\begin{center}\includegraphics{31-3ia17f15.pdf}\end{center}\caption{各セッションに要した時間(実験協力者10人$\times$20セッション)}\label{fig:time}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:time}に各セッションに要した時間(実験協力者10人$\times$20セッション)を示す.棒グラフの下に表示されている数字は,DoubleCrossModelが用いられた表現の数を示す.白は目的達成したセッションを,黒は目的達成しなかったセッションを表す.DoubleCrossModelの表現を含む17セッションの平均時間は84.8秒(標準偏差:46.6)であり,DoubleCrossModelの表現を含まない183セッションの平均時間は89.6秒(標準偏差:56.8)であった.t検定の結果,DoubleCrossModelの表現を含むセッションの時間が有意に短縮されていた.DoubleCrossModelの表現を含む17セッションのうち目的達成しなかったものは1セッション(5.8\%)であり,DoubleCrossModelの表現がない183セッションのうち目的達成しなかったものは18セッション(9.8\%)で\deleted{し}\modified{あっ}た.これは,DoubleCrossModelの表現が位置の曖昧さを解消するのに有効であることを示唆している.空間論理の分野では,DoubleCrossModelのフレームで示されるような3点の関係を表す言語表現が効率的である.本研究では実験協力者が実際に生成した言語表現を分析したが,実践的には移動を含む位置指定の課題における発話生成の研究においてDoubleCrossModelがより重要だと考えている.例えば,タクシーの配車や自動運転など,詳細な移動指示を明確に表現する言語生成モデルに焦点を当てた研究においてDoubleCrossModelが重要であろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに\label{sec:conclusions}} 本研究では,空間参照表現のフレーム記述手法としてDoubleCrossModelに基づく記述手法を提案した.従来の空間参照表現の記述は,主に同一参照,部分と全体の関係,および位相情報に基づく隣接関係に焦点を当てていた.実用的には,隣接しないランドマークや空間内実体に対して,相対位置情報を規定するにあたり,方向を表現するために3つ以上の点が必要である.3点記述を実現するためにDoubleCrossModelによるフレーム記述を提案した.記述手法においては,DoubleCrossModelにおける同型についても触れ,アノテーターがタグ付けしやすいものを使用することを提案した.さらに,離れたものに対しては,フレーム内に絶対的および相対的な距離を記述することを提案した.東京都内(表参道と豊洲)で撮影した360度カメラ静止画を刺激として,位置情報を共有する発話収録実験を行い,10人の参加者から音声データを収集した.収集した音声データに対して,RCC-8に基づく位相情報のアノテーションと,DoubleCrossModelに基づく相対位置情報の記述を行った.アノテーションの結果から,同一参照,隣接,および部分と全体の関係に基づく言語表現が一般的であり,DoubleCrossModel\modified{を}使用したフレームの記述の必要性は限定的であることがわかった.限定的ながらもDoubleCrossModelを用いて表現する必要がある相対位置情報表現が出現したセッションでは,位置情報の共有の達成率が高く,達成までの時間が短かったことがわかった.これは,相対位置情報表現は位置の曖昧さを解消する上で重要であることを示唆している.空間論理の観点から見ると,位置情報の曖昧さを同一参照関係,隣接関係,および部分と全体の関係だけで解消することは非効率である.3つの離れた対象の相対位置情報を使用する方が,2つの対象の同一参照関係,隣接関係,および部分と全体の関係だけを使用するよりも,位置情報を曖昧さから解消するのに効率的である.この観点から,3点に基づく相対位置情報表現の使用は,言語を介して位置情報を記述する際に重要である.近年,生成AIの研究が盛んになっている中で,特に自動運転などのタスクにおいて,静止画,動画,地図情報に基づいて3点に基づく相対位置情報表現の生成が重要である.この研究は,この目的のための基礎的な研究となる.今回,収集したデータは残念ながら3点に基づく相対位置情報表現の使用が限定的であった.本研究を発展させるために,位置情報参照表現\cite{大村-2024-NLP2024}・経路情報参照表現\cite{川端-2024-NLP2024}の大規模収集を進める.\modified{今後,位置情報参照表現・経路情報参照表現の大規模データに対してアノテーション仕様を検討し,提案手法で対応できない表現がないかについて確認を進める.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はホンダ・リサーチ・インスティチュート・ジャパン-国立国語研究所共同研究プロジェクト「行き先目標物の参照表現に関する日本語話し言葉の分析」・国立国語研究所基幹型共同研究プロジェクト「アノテーションデータを用いた実証的計算心理言語学」・科研費JP22K13108,JP19K13195によるものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーションデータの詳細} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話収録実験の仕様}以下では発話収録実験の概要について示す.{\bf想定}:実験参加者2名(A【位置情報伝達側】・ロボ役【位置情報受理側】と呼ぶ)による.実験参加者Aが周囲を見回して,位置同定に必要な視認できる情報をロボ役に伝達する.実験参加者Aはシステムの通常の使用者であるが,ロボ役はシステムであると想定する.{\bf実験設定}:実験参加者Aは一般募集し謝礼を支払う.ロボ役は実験委託先の方に担当してもらいシステムとしてふるまってもらう.実験参加者Aとロボ役は別々のブース/部屋にいてマイクとスピーカーを用いて音声のみをやりとりする.実験参加者Aは,360度カメラにより町中において撮像した静止画像を確認し,画像上に示しされた位置を同定可能な情報を自由に発話する.ロボ役は,地図ソフトウェアを確認しながら実験参加者Aが見ている360度カメラ画像に指定された位置を聞き出す.このときロボ役は言えることが制限されており,できるだけ人のような受け答えを行わないように注意する.このためロボ役は実験中に言えることの例が書かれた「言えることリスト」を参照しながら実験参加者Aと対話する.{\bf時間設定}:1実験で1つ有効な発話を収集できると想定する.1実験当たり2分30秒間対話を行うこととし1実験参加者Aあたり20実験を行う.(各実験ごとに30秒間の休憩をし,さらに10実験後に5分の途中休憩を設定する.)1人当たりの拘束時間は1時間30分以内を想定する.{\bf実験参加者Aの想定と人数}:日本語を母語とし不自由なく発話できモニター上の静止画像の認識ができ,マウスを使った簡単な画像ビューワーの操作ができること.男女同数とし20代から50代まで均等にする.{\bf収集物}:実験参加者Aの音声と操作画面,ロボ役の音声と操作画面をそれぞれ収集する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{転記の仕様}以下では転記の仕様の概要について示す.位置情報伝達側と位置情報受理側との対話音声を聞いて,発話時間情報を取得し,発話内容を書き起こす.基本方針として,フィラーや言いよどみも含めて,聞こえるとおりにすべて書き起こす.分析対象である位置情報伝達側(実験参加者A)の発話の区切りは300ミリ秒以上の無発話区間を区切りとする.分析対象でない位置情報受理側(実験参加者ロボ役)の発話の区切りは300ミリ秒以上の無音区間があっても,1回の発話でまとめる.書き起こしは基本的に全角とし,句点「。」は付与しない.読点「、」はひらがなが連続する箇所などに読みやすくなる程度に付与する.「?」「!」は付与しない.口語特有のいいまわしは,そのまま聞こえるように書き起こし,通常の表記に補正しない.語尾やフィラーなどで,長音が感じられた場合,長音記号「ー」を使用する.笑い声は書き起こさずに「{笑}」のように記述する.聞き取れない箇所は「{@}」のように記述する.言い間違い,言いよどみは聞こえる音に近い表記かつひらがなで書き起こす.店舗名,地名等の固有名詞の表記はカタカナで書き起こす.アルファベットの綴りを読み上げている場合はカタカナで書き起こす.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メンションのアノテーション}分析対象である位置情報伝達側(実験参加者A)に対して,フィラー・応答語・要求語・場所(参照場所・目標場所)・位置関係(参照場所の位置関係・目標場所の位置関係)についてアノテーションした.このうち,場所と位置関係のメンションのみを分析対象とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{17refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{川端良子}{%国立国語研究所特任助教.}\bioauthor{大村舞}{%国立国語研究所プロジェクト非常勤研究員.}\bioauthor{浅原正幸}{%国立国語研究所・総合研究大学院大学教授.}\bioauthor{竹内誉羽}{%株式会社ホンダ・リサーチ・インスティチュート・ジャパン,プリンシパル・エンジニア.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V26N02-09
\section{はじめに} ゼロ照応解析とは,テキスト中の述語の省略された項(ゼロ代名詞)を検出し,項として埋めるべき格要素を同定するタスクである.格要素は先行詞としてテキスト中で言及されている場合もあれば,言及されていない場合もある.前者の場合,先行詞は述語と同じ文中にある(文内ゼロ照応)か,先行する文中にある(文間ゼロ照応)\footnote{この研究では後方照応は扱わない.}.後者(外界ゼロ照応)の例として,テキストの著者である主語が明示的に言及されない場合などがある.\begin{quote}$(1)大岡山商店街でも(\phiガ)お洒落な建物を\underline{見かける}ようになった.カフェテリアが特に多くて,今月も新しく(\phiガ)(\phiニ)\underline{オープンしてる}.$\end{quote}例~(1)では「見かける」のガ格と「オープンしてる」のガ格,ニ格が省略されている.「オープンしてる」のガ格の格要素は同文中に言及されている「カフェテリア」であり(文内ゼロ照応),ニ格の格要素は前文で言及されている「大岡山商店街」である(文間ゼロ照応).一方,「見かける」のガ格の格要素はテキスト中では明示的に言及されていない「著者」である(外界ゼロ照応).本論文では特に日本語のゼロ照応解析を取り扱うが,項の省略が起こるpro-drop言語は日本語だけではなく,他に中国語,イタリア語,スペイン語などがあり,各言語で日本語ゼロ照応解析と類似したタスクに取り組む研究が数多くある\cite{Chen-Chinese-2016,Yin-Chinese-2017,Yin-Zero-2018,Yin-Deep-2018,Iida-A-2011,Rello-Elliphant-2012}.また英語では意味役割付与タスクがゼロ照応解析に似た研究として挙げられる\cite{Zhou-End-2015,He-Deep-2017}.日本語ゼロ照応解析は,日本語述語項構造解析の部分問題であり,自動要約\cite{Yamada_Designing_2017}や情報抽出\cite{Sudo_Automatic_2001},機械翻訳\cite{Kudo_A_2014}など様々な自然言語処理アプリケーションの精度改善にとって重要であるため,緊急に解決されるべき課題として盛んに研究されている\cite{Sasano-A-2011,Hangyo-Japanese-2013,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Shibata2018,Kurita2018}.本研究の貢献は大きく二つに分けられる.第一に大規模均衡コーパス上で日本語ゼロ照応解析を行い評価したことと,第二にこの大規模均衡コーパス上で文内・文間ゼロ照応解析を可能にするための解候補削減手法を提案したことの二点である,従来のゼロ照応解析研究は,新聞記事のみからなる『NAISTテキストコーパス』(NTC)\cite{Iida-Annotating-2007}で評価を行うものが多かった.従って,それらの評価ではテキストドメインの違いによる影響が考慮されていない.ゼロ照応解析結果の応用を考えた時,複数ドメインの文書に対しても頑健なゼロ照応解析手法の有用性は高い.我々は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}を評価実験に使用した.BCCWJは13ドメインにまたがって構築された約一億語からなる日本語均衡コーパスである.このうちの約100分の2にあたる約二百万語からなるコアデータに対しては,人手による述語項構造と照応関係の付与がされている.また,BCCWJは新聞,雑誌,書籍,白書,Yahoo!知恵袋,Yahoo!ブログの6ドメインにまたがったテキストを含んでいる.ドメインによるゼロ照応解析の性能の違いを調べるために,我々はBCCWJを使用した.表~\ref{tab:distance-distribution}はBCCWJコアデータセットの述語と格ごとの格要素の距離の分布を示している.ここでの距離は述語と格要素の間の文数である.距離0は文内照応を示しており,距離1以上は文間ゼロ照応を示している.この表から,文中に格要素の出現するゼロ照応のうち,半数以上のゼロ照応が文間ゼロ照応であることがわかる.表~\ref{tab:genre-distribution}はテキストドメインごとに分類した述語とガ格の格要素との距離の分布を示している.この表から,文内,文間ゼロ照応のドメインごとの違いが確認できる.OW(白書)のガ格には文内ゼロが多く出現している一方で,PM(雑誌),OC(QA)のガ格には文内ゼロ比率が少なく,5文前までの文間ゼロが多く出現している.また,PM(雑誌),OY(ブログ)のガ格は7文以上前の文間ゼロが他のドメインと比較して多く出現しており,このようなドメインごとの述語と格要素間の距離の違いが文間ゼロ照応解析の精度に影響を及ぼす原因だと予測できる.これらの観察から,異なるタイプのテキスト上で評価実験を行うことの重要性が示唆される.\begin{table}[b]\begin{minipage}[t]{189pt}\caption{格要素と述語の距離の分布}\label{tab:distance-distribution}\input{09table01.tex}\end{minipage}\hfill\begin{minipage}[t]{210pt}\caption{文書ドメインごとのガ格ゼロ照応の分布(\%)}\label{tab:genre-distribution}\input{09table02.tex}\end{minipage}\end{table}表~\ref{tab:distance-distribution}に示すとおり現実の文書には文間ゼロ照応が頻出するが,従来のゼロ照応解析研究の多くは,文内ゼロ照応のみに焦点を絞っている\cite{Iida-Intra-2015,Shibata-Neural-2016,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Kurita2018}.\citeA{Ouchi-Neural-2017}は,文内ゼロ照応のみを取り扱う理由として,探索範囲の問題を指摘している.文間ゼロ照応では,格要素候補をテキスト全体から探す必要があるため,文内ゼロ照応解析に比べて探索範囲が拡大する.\citeA{Matsubayashi-Revisiting-2017,Matsubayashi2018}と\citeA{Kurita2018}は解析に際して文脈素性を取り入れるために,リカレントニューラルネットワーク(RNN)を導入し,格要素候補と述語が含まれる文を読み込ませている.しかしこれと同じ手法を文間ゼロ照応解析において適用しようとすると,テキスト全体をRNNに入力として与える必要がある.長距離の文脈を記憶する仕組みを持つLSTMやGRUを使用しても,システムがテキスト全体における長距離の依存関係を十分に学習できるとは限らない.また,テキスト全体を記憶しなくても,選択的に抽出された文脈情報のみで解析できる可能性がある.先述の研究と異なり,\citeA{Sasano-A-2011}と\citeA{Hangyo-Japanese-2013},\citeA{Shibata2018}は,文内・文間ゼロ照応解析手法を提案している.しかし,彼らは新聞コーパスとWebコーパスを用いて評価実験を行っており,複数ドメインコーパスを用いた評価実験は行っていない.また,\citeA{Shibata2018}は各entityごとにembeddingを割り当て,現在解析対象としている述語より文書の前方におけるRNNの解析結果を用いて,それぞれのembeddingを逐次更新することで文脈情報を使用している.これら2つの問題に対して,本研究では様々なドメインの文書への対応を可能とするために大規模格フレームを利用し,述語が取りうる複数の格要素の組合せから最適なものを選ぶ.大規模コーパスから得られた述語の格フレームに関する統計的情報を使用することで,特定のドメインにのみ出現する事例数の少ない格フレームに対しても対処できるようになると考えられる.解候補となる格要素の組合せが膨大になる問題に対しては,格フレームを使用した解候補削減手法を取り入れることで,より汎用性の高い文内・文間ゼロ照応解析モデルを提案する.ひとつのモデルで文内・文間のゼロ照応解析を同時に行う際,各格に対してそれぞれ独立に解析を行うより,他の格の情報を利用して複数格を同時に解析する方がより良い精度が得られると考えられる.\citeA{2010C-994}はCoNLL-2009SharedTaskデータを用いた述語項構造解析において,述語項構造の大域的な情報を取り扱う因子を素性として取り入れることで,日本語を含む7種類すべての言語の精度が改善することを確認している.しかし複数格を同時に解析する際には,先行詞の広大な探索範囲の問題に対処する必要がある.特に機械学習を適用する際,正解の候補となる名詞の組合せが大幅に増加する.BCCWJの場合では,格フレーム候補が平均20個,ガヲニ格の格要素候補が平均10個出現するため,組合せは$20\times10\times10\times10=\text{約20,000}$通り考えられ,このうち正しい格フレームと格要素の組合せは一つのみである.結果としてデータ中の正例と負例の比率が約1対20,000と著しく不均衡となる.このような偏った訓練データは不必要に計算量を増幅させ,かつモデルの汎化を妨げる要因となる.我々は,学習に不要な負例を削減するために,解析対象述語に対応する格フレームを用いた効率的な解候補削減手法を提案する.この提案手法により,正解を候補に残しつつ,約1,000分の1にまで解候補を削減することに成功した.また,我々はRNNにローカルアテンション機構\cite{Luong-Effective-2015}を導入することで,前文中のどの部分に注意を向けて解析するかをシステムに学習させた.本研究の提案手法は二つの構成要素からなり,一つは格フレーム内の単語分散表現を使用した解候補削減アルゴリズムで,もう一つは解候補削減に使用した分散表現を利用するニューラルネットゼロ照応解析モデルである\footnote{https:\slash\slash{}github.com\slash{}yamashiros\slash{}Japanese\_zero\_anaphora}.なお,BCCWJを訓練・テストに用いた文内・文間のガヲニ格を対象とするゼロ照応解析は.本研究が初の試みである.\begin{table}[b]\caption{関連研究}\label{tab:related-work}\input{09table03.tex}\end{table} \section{関連研究} \subsection{日本語ゼロ照応解析}表~\ref{tab:related-work}は,タスクの種類,使用しているコーパスのドメイン,コーパスのサイズ,手法の観点から関連研究をまとめたものである.解候補の列はガヲニ格をそれぞれ独立の解析器で解析しているのか,一つの解析機を用いて組合せで解析しているのかを示している.\citeA{Hangyo-Japanese-2013}はランキングSVMを用いて,Webコーパスに対して文内,文間,外界のゼロ照応解析を同時に行っている.このWebコーパスは1,000文書からなり,それぞれWebページの冒頭3文を抜き出したものである\cite{Hangyo-Building-2012}.\citeA{Shibata2018}はフィードフォワードニューラルネットワーク(FNN)とリカレントニューラルネットワーク(RNN)を組合せて用い,Webコーパス\cite{Hangyo-Building-2012}と新聞コーパスに対して直接の係り受け関係と文内・文間・外界のゼロ照応解析を同時に行っている.\citeA{Matsubayashi2018}はFNNとRNNを組合せて用いることで,NTCに対して直接の係り受け関係と文内のゼロ照応解析を同時に行い,直接の係り受け関係と文内ゼロ照応解析のstate-of-the-artを達成した.\citeA{Sasano-A-2011}は対数線形モデルを用いて,979文からなるWebコーパスとNTCに対して文内と文間のゼロ照応解析を同時に行い,NTCにおける文内・文間ゼロ照応解析のstate-of-the-artを達成した.これらに対して我々は,ランキングSVM\footnote{https:\slash\slash{}www.cs.cornell.edu\slash{}people\slash{}tj\slash{}svm\_light\slash{}svm\_rank.html}\cite{of-the-international-Training-2006}モデルとFNNとRNNの組合せモデルを用いて,『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}に対して,文内・文間のゼロ照応解析を同時に行う.\subsection{大規模格フレーム}格フレームとは述語とその述語が取りうる格要素を述語の格パターンごと,格ごとに整理した共起情報である.表~\ref{tab:eg-case-frame}のように格パターンに基づいて格フレームを分けることで,述語と格要素間の語彙的選好の知識を照応解析に利用することができる\cite{Sasano-A-2008,Sasano-A-2011,Hangyo-Japanese-2013}.\begin{table}[b]\caption{「オープンしてる」の格フレーム例}\label{tab:eg-case-frame}\input{09table04.tex}\end{table}格フレームの構築に関しては\citeA{kawahara05}がWebテキストから格フレームを自動構築する手法を提案している.\citeA{hayasibe15}は格の出現の仕方を考慮したクラスタリングを行うことで格パターンを抽出し,述語に対してより頑健に格フレームを割り当てることに成功している.これら手法を用いて約100億文の大規模Webコーパスから取得,整理された格フレーム知識は京大格フレーム\footnote{http://www.gsk.or.jp/catalog/gsk2018-b/}として公開されており,我々はこれを使用した.日本語ゼロ照応解析において,格フレームは解析の手がかりとして広く使用されている\cite{Sasano-A-2011,Matsubayashi2014}.しかし,我々が調べたところ,BCCWJ中の動詞の正解述語項構造に対する京大格フレームのカバレッジは約27\%と十分ではない.この問題に対して,\citeA{Sasano-A-2011,Matsubayashi2014}は意味クラスを用いて格フレーム中の用例の汎化を行うことで対処している.我々は分散表現とcosine距離を用いることでカバレッジの問題に対処している.また,我々はそれぞれの述語と格フレームに対して事例の分散表現の平均ベクトルを導入することで,格フレーム中の統計情報を汎化し,解候補削減にも使用している.\subsection{解候補削減}文間ゼロ照応に際して,いくつかの先行研究ではそれぞれに解候補削減の基準を設定している.\citeA{Sasano-A-2011,Hangyo-Japanese-2013}は述語の複数の格を同時に推定しており,述語が含まれる文より3文前までに出現する格要素の先行詞候補をすべて含めている.3文より前の文にも先行詞は出現しうるが,\citeA{Hangyo-Japanese-2013}はNTCの述語に対する格要素のうち82.9\%が3文中に出現すると報告した.\citeA{imamura09}は述語の複数の格をそれぞれ独立に推定しており,一文前までに現れる述語の格要素として選ばれた名詞のみを解析の対象としている.この制限によって,NTC中,何も制限のない状態では平均102.2語の名詞を解候補としなければならなかったところを平均3.2語まで抑え,ゼロ代名詞の格要素のうち62.5\%をカバー出来たと彼らは報告している. \section{モデルと素性} \label{baseline}\subsection{モデル}\label{feature}解析対象述語$p$が含まれる文を$S_0$とし,入力文書$t$に含まれる$S_0$から$h$文前までの文をそれぞれ$S_{-1},S_{-2},\cdots,S_{-h}$とする.$S_0$から$S_{-h}$までに含まれるすべての名詞の集合を$E_{p}=\{e_{1},e_{2},\cdots,e_{n}\}$とする.これらに加えて『照応なし』または『外界照応』を意味する$e_{none}$を$E_{p}$に追加する.述語$p$に対応する京大格フレーム中の格フレーム群を$CF_{p}=\{cf^{p}_{1},cf^{p}_{2},\cdots,cf^{p}_{m}\}$とする.1つの格フレーム$cf^{p}_{l}$には,それぞれの格$c\in\{ガ格,ヲ格,ニ格\}$に対応する3つの格スロットがあり,$E_{p}$中に含まれるいずれかの名詞がそれぞれの格スロットに対応する格要素である.格スロットと格要素の対応付けを$a=\langleガ格:e_{i},ヲ格:e_{j},ニ格:e_{k}\rangle$とする.述語項構造候補を$(cf^{p}_{l},a)$とし,これを表現する素性ベクトルを$\boldsymbol{f}(cf^{p}_{l},a,t)$とする.このモデルの出力は以下の式(\ref{eq:arg})で表せる.訓練時にはパラメータ$\boldsymbol{w}$が正例のスコアが負例のスコアよりも大きくなるように学習され,テスト時には最適な格フレームと格要素の組合せを選択するために用いられる.このモデルは,\citeA{Hangyo-Japanese-2013}のモデルをベースとしている.\begin{equation}\label{eq:arg}{cf^{p}_{l}}^{*},a^{*}=\argmax\limits_{cf^{p}_{l},a}\boldsymbol{w}\cdot\boldsymbol{f}(cf^{p}_{l},a,t)\end{equation}\subsection{素性}素性ベクトル$\boldsymbol{f}(cf^{p}_{l},a,t)$は以下5タイプの素性の組合せからなる:{\bfベースモデル素性},{\bf格要素分散表現},{\bf述語分散表現},{\bf格フレーム内平均ベクトル}(MVC),{\bf文脈ベクトル}.我々はランキングSVMとFNNを比較するが,ランキングSVMはベースモデル素性のみを使用し,その他の素性はFNNでのみ用いる.\paragraph{ベースモデル素性}ベースモデル素性$\phi_{BMF}$の各要素は実数かバイナリ値である.ベースモデル素性$\phi_{BMF}$は\citeA{Sasano-A-2008}の確率的格解析モデルから得られる表層の係り受けの確率と\citeA{Hangyo-Japanese-2013}が提案する素性群からなる.\citeA{Hangyo-Japanese-2013}の素性は格フレーム素性,述語素性,文脈素性の3種類からなる.例えば,ある格要素がその格フレームの格スロットに埋まるかどうかの確率は格フレーム素性の一つである.付録{~\ref{chap:appFeatures}}に{\citeA{Hangyo-Japanese-2013}}の素性の一覧を示す.\paragraph{格要素分散表現}\label{proposal}格要素分散表現${\phi}_{e}$は各格$c$の格要素$e_c$に対応する3つの分散表現から構成される.語の分散表現を生成するモデルとしてはword2vec\cite{Mikolov-Efficient-2013}を使用した\footnote{日本語wikipedia(2016-09-20)の本文全文から取得した約100万記事に対して,次元数を500,windowを15として学習させることで得られたモデルを使用した.}.\paragraph{述語分散表現}述語分散表現はword2vecを使って生成された解析対象述語の単語分散表現である.\paragraph{格フレーム内平均ベクトル(MVC)}\label{sec:case-vector}表~\ref{tab:eg-case-frame}に示すように京大格フレーム内では,述語$p$に対するそれぞれの格フレーム$cf^p_l$は各格$c$に対応する単語リストから構成される.例えば,「オープンしてる:動1」のガ格には『店』,『カフェ』,『レストラン』などが格納されている.$W_{cf^p_l(c)}$を格フレーム$cf^p_l$と格$c$に対応して京大格フレーム中に出現する格要素の全体とする.例えば$W_{\textrm{オープンしてる:動}_1(ガ)}$の要素は前述の『店』,『カフェ』,『レストラン』などである.$\phi_{w}$を語$w\inW_{cf^p_l(c)}$の分散表現ベクトル,$\textrm{count}(cf^p_l,c,w)$を語$w$が格フレーム$cf^p_l$の格$c$の格要素として出現する回数とする.この時,格フレーム内平均ベクトル(MVC)$\overline{\phi}_{cf^p_l(c)}$は,格フレーム$cf^p_l$中の各格$c$の分散表現ベクトル$W_{cf^p_l(c)}$の重み付き平均として計算される.\begin{equation}\label{eq:case-vector}\overline{\phi}_{cf^p_l(c)}=\frac{\sum_{w\inW_{cf^p_l(c)}}^{}\textrm{count}(cf^p_l,c,w)\cdot\phi_{w}}{\sum_{w\inW_{cf^p_l(c)}}^{}\textrm{count}(cf^p_l,c,w)}\end{equation}例えば表~\ref{tab:eg-case-frame}において,格フレーム「オープンしてる:動1」はガ格に『店』を129回取っているので,$\overline{\phi}_{\textrm{オープンしてる:動}_1(ガ)}$は以下のように計算される.\begin{equation}\label{eq:case-vector-eg}\overline{\phi}_{\textrm{オープンしてる:動}_1(ガ)}=\frac{129\cdot\phi_{店}+38\cdot\phi_{カフェ}+14\cdot\phi_{レストラン}+\cdots}{129+38+14+\cdots}.\end{equation}$\overline{\phi}_{cf^p_l(ガ)}$,$\overline{\phi}_{cf^p_l(ヲ)}$,$\overline{\phi}_{cf^p_l(ニ)}$を結合して$\overline{\phi}_{cf^p_l}$を生成する.$\overline{\phi}_{cf^p_l}$を使って,$a$と$cf^p_l$の関連(選択選好)を測り,尤もらしい組合せを探索する.なお我々は,MVCを照応解析,解候補削減の両方で使用する.\paragraph{文脈ベクトル}文脈ベクトル$c_{cf^{p}_{l},a,t}$はローカルアテンション機構付きRNNの出力である.\pagebreakこのRNNは解析対象述語を含んだ文とその前方$h$文を受け取り,対象述語に対する文脈をモデリングする.図{~\ref{pic:解析モデル}}の左下部分がこれに該当する.{$\textrm{Enc}(s_i)$}を,{$S_{-h:0}$}中の{$i$}番目の語{$s_i$}を入力として与えられた時のRNNエンコーダの出力する隠れ状態とする.この隠れ状態はRNNが読み込んだ文中の語と同じ数だけ存在し,各語と一対一に対応するRNNの出力である.{$a_t(\cdot)$}は一般的なアテンション重みを表し,{$\textrm{score}(\cdot)$}には訓練データから学習される複数の重みパラメータを使用した.{$\textrm{Local}(\cdot)$}はローカル重みを表し,これを導入することで文全体を散漫と注視するのを防ぎ,局所的な一部分のみに着目させる.{$\textrm{Len}(S_{-h:0})$}は入力文{$S_{-h:0}$}中の語数を表し,{$\boldsymbol{v_p}$},{$\boldsymbol{W_p}$}は訓練データから学習されるパラメータである.\begin{figure}[b]\begin{center}\includegraphics{26-2ia9f1.eps}\end{center}\caption{アテンション付きRNN追加FNNモデルのネットワーク構造(モデルF3)}\label{pic:解析モデル}\end{figure}我々のアテンション機構モデルは他の素性ベクトルの連結を手がかりとしてアライメント重みベクトルを推論する.この重みベクトルはアテンション機構が文中のどの語へと注意を向けるかという情報に対応する.図~\ref{pic:解析モデル}の左上部分がこれに該当する.文脈ベクトル$c_{cf^{p}_{l},a,t}$はこのアライメント重みベクトルに基づくエンコーダの出力$\textrm{Enc}(S_{-h:0})$の重み平均として計算する.図~\ref{pic:解析モデル}右側のContextembeddingがこれに該当する.\begin{align}\label{eq:cont-vector}c_{cf^{p}_{l},a,t}&=\sum_{s_i\inS_{-h:0}}a_t(s_i)\textrm{Local}(s_i)\textrm{Enc}(s_i)\\a_t(s_i)&=\frac{\exp(\textrm{score}([\phi_{BMF};\phi_{e};\overline{\phi}_{cf^{p}_{l}}],\textrm{Enc}(s_i)))}{\sum_{s_j}\exp(\textrm{score}([\phi_{BMF};\phi_{e};\overline{\phi}_{cf^{p}_{l}}],\textrm{Enc}(s_j)))}\\\textrm{Local}(s_i)&=\exp(-\frac{(i-\textrm{Len}(S_{-h:0})\cdotp)^2}{2\sigma^2})\\p&=\textrm{sigmoid}(\boldsymbol{v_p}^{\mathrm{T}}\textrm{tanh}(\boldsymbol{W_p}[\phi_{BMF};\phi_{e};\overline{\phi}_{cf^{p}_{l}}]))\end{align}直感的には,この機構は我々のモデルがアライメントベクトルを介して述語から離れた長文脈中の語を格要素として識別することを可能にしている.格フレームがその述語から離れた名詞を格要素として取るようなケースに対して,我々はこのメカニズムが直接的にその現象をモデル化することを期待している. \section{格フレーム中の分散表現を利用した解候補削減} \label{candidate_reduction}ゼロ代名詞となる項の先行詞候補を網羅的に探索すれば,列挙される述語項構造候補$(cf^p_l,a)$の集合は爆発的な規模となり,探索範囲は非実用的なものとなる.我々は\citeA{Sasano-A-2011}の基準を参考に,ゼロ代名詞となる項の先行詞候補は述語が含まれる文より3文前までのみを範囲として解候補削減を行っている.つまり~\ref{feature}節の$h$を$3$とした.BCCWJ中の格要素の分布は表~\ref{tab:distance-distribution}のようになっているため,この制限によってゼロ代名詞の89.16\%をカバーできることがわかる.$n$と$m$をそれぞれ$E_p$中の名詞句数,対象述語の格フレーム数とすると,この制限を用いてもなお,候補の数は$O(n^3m)$となり,BCCWJ中の各動詞に対して約20,000個の述語項構造候補が出現する.\subsection{述語内平均ベクトル(MVP)}\label{MVP}我々は,格フレーム候補と格要素候補の組合せについて~\ref{sec:case-vector}で提案したMVCと,{\bf述語内平均ベクトル}(MVP)$\overline{\phi}_{p(c)}$の二種類の平均ベクトルを使用した効率的な解候補削減手法を提案する.MVPは各格$c$について述語$p$に対応するすべての格フレームに渡ってMVC$\overline{\phi}_{cf^p_l(c)}$の重み平均を取ったベクトルである.重みは京大格フレーム中の各格フレームの頻度に基づく.我々の解候補削減手法は\citeA{Ouchi-Joint-2015}の山登り法を参考に,格フレーム候補と格要素候補の組合せ数を削減する.この解候補削減は計算効率のみを目的とするのではなく,訓練データ中の正例・負例のデータ数の非対称性の解消も目的とする.我々のケースでは,1つの正例に対して20,000の負例が生じるため,これに対処している.前述したように,我々は訓練データ中のほとんどの負例は訓練に貢献しないと考え,解候補削減を行う.\subsection{アルゴリズム}我々の提案する解候補削減手法をアルゴリズム~\ref{alg:candidate_reduction}に示す.ある述語$p$には,文脈に対するその語義の曖昧性を反映した複数の格フレーム$CF_p$が存在する.それぞれの格フレーム$cf^p_l$に対応する格フレーム内平均ベクトル$\bar{\phi}_{cf^p_l(c)}$はその格フレームの選択選好を反映しているため,これと格要素候補ベクトル${\phi}_{e}$の距離が近いほど,その格要素候補$e$は対象格フレーム$cf^p_l$の格スロット$c$に埋まりやすいと言える.このアルゴリズムは与えられた述語に対して,二つのベクトル間の距離が最も近くなる格フレームと格要素候補の組合せを探索する.しかしながら,京大格フレームは自動的手法で構築されているので,本来別々の格フレームが一つの格フレームとしてまとめられてしまっている,あるいは同じ一つの格フレームが別々に分断されてしまっている可能性がある.この問題に対処するために,我々は提案する解候補削減手法に二種類の平均ベクトルを導入した.MVCはある述語に対する格フレームの違いを区別し,MVPは格フレームの違いを考慮せず述語のみを考慮する.\begin{algorithm}[t]\input{09algo01.tex}\end{algorithm}まず初期値として各格$c\inC$に埋まりうる格要素$e^{(0)}_{c}$を仮に定める(行1--3).MVP$\overline{\phi}_{p(c)}$と格要素候補の分散表現$\phi_{e}$とのコサイン距離を求め,これが最小となる,すなわち対象述語に埋まる格要素群に最も近い格要素を初期格要素とする.この段階では,MVPを使用することで特定の格フレームではなく述語のみを考慮している.格フレーム候補と初期格要素の組合せを入力とした\textsc{Pseudo-Score}(行17--26)の返すスコアに基づいて,これらの初期格要素に対して最適な格フレーム$cf^{(0)}$を格フレームの初期値とする(行5).\textsc{Pseudo-Score}については\citeA{Sasano-A-2008}を参考に,我々は以下の3つの要素を考慮した.(1)京大格フレームに基づく(述語,格フレーム,深層格,格要素)の組合せの出現確率,(2)格フレーム内平均ベクトル(MVC)と格要素候補の間のコサイン類似度,および(3)述語と格要素候補の間の文数,である.このスコアの係数は経験的に定めた.以降,格フレーム$cf^{(t)}$を固定して格要素$e^{(t+1)}_{c}$を探索するフェーズ(行8--10)と格要素$e^{(t+1)}_{c}$を固定して格フレーム$cf^{(t+1)}$を探索するフェーズ(行12)を繰り返し,格フレームと格要素が更新されなくなればループを抜ける(行6--15).このアルゴリズムでは返り値として最もスコアの高い格フレームと格要素の組合せを返すが,実際にはループ中の毎回の探索過程で計算した格要素候補のうち3ベストまでを候補として保存する.最終的な出力は探索の過程で保存されたすべての格フレームと格要素の組合せである.提案した解候補削減手法により,約70\%の正解を候補に残しつつ,約1,000分の1まで解候補を削減することができた. \section{評価実験} \label{experiment}\subsection{ゼロ照応解析手法}\label{zero}学習手法にはランキングSVMとFNNを使用しそれぞれ比較した.先行研究\cite{Sasano-A-2011,Hangyo-Japanese-2013}と同様に,まず文書全体に対して形態素解析,固有表現抽出,構文解析を行う.これにはJUMANVer.7.01\footnote{http:\slash\slash{}nlp.ist.i.kyoto-u.ac.jp\slash{}index.php?JUMAN},KNPVer.4.16\footnote{http:\slash\slash{}nlp.ist.i.kyoto-u.ac.jp\slash{}index.php?KNP},CaboChaVer.0.69\footnote{https:\slash\slash{}taku910.github.io\slash{}cabocha\slash{}}を用いた.\paragraph{S0}\label{s0}提案する解候補削減を行い,ベースモデル素性を使用してSVMモデルを実装した.ランキング学習にはSVM$^{rank}$\cite{of-the-international-Training-2006}を使用した.カーネルは線形である.このモデルは正例と負例から識別関数を学習し,この識別関数が最も高い解候補を一つ出力する.\paragraph{S0\_each}\label{S0each}提案する解候補削減手法の効果を評価するためには,解候補削減を用いないモデルと比較することが自然である.しかしながら,前方3文までに先行詞候補の探索範囲を制限しても,述語一つあたりに対して20,000の述語項構造候補が出現するため,訓練時の計算複雑性は現実的ではない.これは複数の格を同時推定するために,格要素候補同士の組合せを考慮していることが原因である.そこで我々は,それぞれの格を独立に解析することで,解候補削減が必要ない単一格解析手法を用意した.この手法では,3つの格に対してそれぞれ別のSVMモデルを用意し,これらを独立に学習させて,評価の際は各格に対応するモデルのそれぞれの出力を組合せて最終的な出力とした.この時,述語一つあたりに対して,各格約200の格フレームと格要素の組合せが出現し,我々の提案手法に比べて計算量は膨大ではあるものの,計算可能な範囲である.この各格に対して独立のSVMを用いて学習を行ったモデルをS0\_eachとする.\paragraph{S0$'$}\label{S0$'$}複数格の同時推定のために我々は単純な解候補削減手法を用意した.この手法では,解析対象述語に近い方から先行する$n$個の名詞のみを格要素候補として選ぶ.この時の各格に対する格要素候補数は,提案手法と同程度の格要素の組み合わせ数となるよう調整した値であり,今回は$n=5$とした.この単純な解候補削減手法を適用した上でSVMを用いて学習を行ったモデルをS0$'$とする.\paragraph{F0}\label{f0}ベースモデル素性を使用してFNNモデルを実装した.FNNの設計に際しては\citeA{Matsubayashi-Revisiting-2017}を参考に,誤差関数にはソフトマックスクロスエントロピーを用い,各隠れ層にはbatch正則化とReLU活性化関数を使用した.\paragraph{F1}\label{f1}格要素候補の分散表現と解析対象述語の分散表現を素性に追加することで,F0を拡張した.\paragraph{F2}\label{f2}F1の述語分散表現を格フレーム内平均ベクトル(MVC)に置き換えた.\paragraph{F3}\label{f3}F2に文脈ベクトルとしてRNNの出力を追加した.RNNにはGRUを使用した.図~\ref{pic:解析モデル}にF3の全容を示す.\noindent表{~\ref{tb:素性の組合せ}}にそれぞれの素性組合せを示す.なお,MVPは入力素性として使用していない.\begin{table}[t]\caption{候補削減・素性の組合せ}\label{tb:素性の組合せ}\input{09table05.tex}\end{table}\subsection{データセット}実験データとして,『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}のコアデータ\footnote{http:\slash\slash{}pj.ninjal.ac.jp\slash{}corpus\_center\slash{}bccwj\slash{}}を使用した.BCCWJのコアデータ約2,000文書に対しては,人手による述語項構造と照応関係が付与されており,これは新聞,雑誌,書籍,白書,Yahoo!知恵袋,Yahoo!ブログの6ドメインにまたがっている.ドメインの偏りに注意し,全体の約4/5を訓練用データ,約1/20を開発用データとし,残りを評価用データとして使用した.複数の格要素が同じ対象を指示している場合(共参照),本研究ではコーパスに付与された共参照情報をもとに出力を評価し,正しい照応先と共参照関係にある先行詞のいずれかを対応付けることが出来ていたならば正解とした.本研究で対象とした述語は動詞のみで,形容詞,事態性名詞は扱っていない.この理由として,動詞のゼロ照応解析において必要とされる手がかりと,形容詞や事態性名詞のゼロ照応解析において必要とされる手がかり,格要素と述語の出現傾向が異なるという点が挙げられる.{\citeA{Matsubayashi15projectnext}}が示しているように,例えば,形容詞はニ格やヲ格をほとんど取らない.また,事態性名詞は他の述語を項に取る場合があり,格要素候補には名詞以外の品詞も含めて解析を行う必要がある.このため,述語の種類を考慮しない単純な拡張による同時解析は解析精度の低下を招くと考えた. \section{結果と議論} \subsection{結果}\paragraph{複数格同時推定の効果}表~\ref{tb:result}はBCCWJにおけるゼロ照応解析の実験結果である.S0\_eachとS0を比較すると,多くの列において,S0がS0\_eachより高い精度を示していることがわかる.ただし文間ガ格,全体ガ格の列においては,S0\_eachがS0より高い精度を示している.これは単格の推定では,比較的精度の高いガ格の推定が他の格における誤りから影響を受けないため,複数格同時推定の時より値が良くなっているのだと考えられる.一方で,ニ格,ヲ格については,S0\_eachは他の格の情報が使えないため比較的精度が低く,全体としての精度も,複数格同時推定を行っているS0に劣っている.我々はこの結果に対して有意水準0.1\%でMcNemar検定を行い,統計的有意差を確認した.また,候補削減を行わない単一格解析のFNNモデルも用意し同条件で訓練し,テストを行ったものの学習が収束せず,極めて低い精度を示した.このことからも,候補削減の重要性が示唆される.\paragraph{解候補削減の効果}表~\ref{tb:result}で,S0$'$とS0を比較すると,すべての列において,S0がS0$'$より精度が高い.我々はこの結果に対して有意水準0.1\%でMcNemar検定を行い,統計的有意差を確認した.このことから我々の提案した解候補削減手法がうまく機能しているといえる.\begin{table}[b]\caption{BCCWJにおける結果(F値)}\label{tb:result}\input{09table06.tex}\end{table}\paragraph{分散表現とMVCの効果}ベースラインモデル(F0)に格要素と述語の分散表現を導入すると(F1),全体の精度が低下した.しかしながら,述語の分散表現をMVCに置き換えることで(F2)精度は上がり,F0を上回っている.これは述語の情報(F1)の代わりに,格フレーム情報を使う(F2)方がより効果的であることを示している.\paragraph{文脈ベクトルの効果}ローカルアテンション付きRNNモデルを使用し文脈情報を導入することで(F3),F2に比べて文内・文間ともに改善が見られた.これは,モデルが前方文脈情報を効率的に学習できていることを示唆している.F3は全体の精度においてはS0に劣っているが,文間照応においては様々な素性を入力としたことにより,S0より高い精度を示している.\paragraph{優先度学習の有効性}様々な素性を使用したFNNモデルと比較して,ランキングSVMを用いたS0のほうが全体では最も良い精度を示している.{\citeA{Isozaki2006,Hangyo2014}}は日本語ゼロ照応解析に際して,優先度学習を用いることは精度向上に効果があると指摘している.これは一般にゼロ照応解析がマルチインスタンス学習の枠組みで設定されていることによる.マルチインスタンス学習では,一つの実体が複数のインスタンス(素性ベクトル)を持ち,各実体が少なくとも一つの正例インスタンスを持つか否かはわかるがどのインスタンスが正例かはわからないという設定で学習を行う.マルチインスタンス学習のタスクに対して普通の二値分類を行った場合,比較的解きやすい実体に含まれる正負インスタンスと解きにくい実体に含まれる正負インスタンスを区別なく同時に学習することになってしまい,精度の悪化を招くと考えられる.我々は{\citeA{Hangyo-Japanese-2013,Hangyo2014}}同様,ランキングSVMを用いることでS0には優先度学習を取り入れているが,今回使用したFNNモデルにはこれに類する複雑な処理を取り入れておらず,述語すべてのそれぞれの組合せ候補に対して区別なく二値分類の学習を行っている.その結果,比較的解きやすい述語の多い文内においてはS0が高い精度を示し,比較的解きにくい述語の多い文間においてはより多くの素性が与えられたFNNモデルが高い精度を示している.そのため,BCCWJにおいては文間ゼロ照応より文内ゼロ照応の事例数のほうが多いことから,全体の精度としてはS0が上回っている.これは,より多くの素性を与えられたFNNモデルがより難しい述語に適合しようとして簡単な述語に対する精度を下げてしまった可能性がある.対策として,FNNモデルにもRankNetなどの優先度学習を取り入れることで文内の精度が改善される可能性がある.\subsection{議論}\paragraph{候補削減の成功例}\label{AppendixSucCandidate}候補削減の成功例としてBCCWJのQA文書である『00020\_A\_OC08\_00002』の2行目に出現する「知ってたら」を解析対象述語とした際の候補リストを表{~\ref{tb:SucCandidate}}に示す.\vspace{1\Cvs}\begin{center}\fbox{\vbox{\hbox{{\bf電動}{\bf歯}{\bfブラシ}の{\bf替え}{\bfブラシ}って高い!ですよね!?}\hbox{{\bf家計}に苦しいので{\bf復活}&{\bf長持ち}する{\bf方法}\underline{知ってたら}教えて下さい!}}}\end{center}\vspace{1\Cvs}\begin{table}[t]\caption{候補削減の成功例}\label{tb:SucCandidate}\input{09table07.tex}\end{table}ガ,ヲ,ニ格に埋まる格要素のうち「知ってたら」と直接係り受け関係にある名詞はない.一見すると「方法」が「知ってたら」に係っているように思えるが,BCCWJによれば,「方法」は「教えて下さい!」に係っている.従ってここではガ格,ヲ格にゼロ代名詞が存在し,ガ格の格要素は外界二人称,ヲ格は「方法」,ニ格の格要素は照応なしであると定める.京大格フレームには動詞「知る/しる{\~{}}テ形+る/る」の格フレームが32種類ある.解析対象述語「知ってたら」を含む文から3文前まで(実際には2行目の述語なので,1文前まで)に含まれる名詞は「電動」,「歯」,「ブラシ」,「替え」,「ブラシ」,「家計」,「復活」,「長持ち」,「方法」の9個あり,これらが格要素候補となる.これらの名詞9個に加えて,「外界照応or照応なし」を示す「None」を含む10個が実際の候補削減の対象となる格要素候補となる.これらの組合せは,$32\times(10\times9\times8+3\times9+1)=\text{23,936}$候補となる(「None」は重複を許容するため).これに対して我々の提案した候補削減を施し,23個まで削減した結果が表{~\ref{tb:SucCandidate}}である.表{~\ref{tb:SucCandidate}}は正解の組合せ(「知る/しる{\~{}}テ形+る/る:動13」,「None」,「方法」,「None」)を含むので上手く候補削減ができている.成功の理由を考察する.京大格フレーム中の「知る/しる{\~{}}テ形+る/る:動13」のヲ格の行で最も出現数が多い語は,「方法」が715回,「術」が207回,「使い方」が144回,「コツ」が111回,「仕方」が88回である.これらに対して正解のヲ格である「方法」はMVCとのcosine距離,出現確率によって高いスコアを割り当てられている.「知る/しる{\~{}}テ形+る/る:動13」のガ格の行で最も出現数が多い語は,「方」が2回,「司祭」が2回,「人」が2回,他22種の語が1回となっていて,不正解のガ格である「歯」,「復活」,「家計」,「方法」は候補リスト中に出現してはいるものの,比較的低いスコアを割り当てられている.\paragraph{候補削減の失敗例}\label{AppendixMissCandidate}候補削減の失敗例としてBCCWJの雑誌文書である『00016\_A\_PM12\_00020』の3行目に出現する「入ってくる」を解析対象述語とした際の候補リストを表{~\ref{tb:MissCandidate}}に示す.\vspace{1\Cvs}\begin{center}\fbox{\vbox{\hbox{{\bf17}}\hbox{{\bf創}は倒れている{\bf棚倉}を見ても、{\bf顔色}を変えなかった。}\hbox{{\bf生死}を冷静に{\bf確認}するように{\bf観察}してから、{\bf礼拝}{\bf堂}の{\bf中}に\underline{入ってくる}。}}}\end{center}\vspace{1\Cvs}\begin{table}[b]\caption{候補削減の失敗例}\label{tb:MissCandidate}\input{09table08.tex}\end{table}ガ,ヲ,ニ格に埋まる格要素のうち「中」は「入ってくる」と直接係り受け関係にある.従って,本来であればニ格には「中」以外埋まらないものと制限して候補削減を行う.しかし,BCCWJのアノテーションによれば,「入ってくる」は「入って」と「くる」に分割され,「中に」は「くる」に係っているため,「入って」とは直接係り受け関係にないとされ,ゼロ代名詞とされている.ここではBCCWJのアノテーションに従って,ガ格,ニ格にゼロ代名詞が存在し,ガ格の格要素は「創」,ヲ格は照応なし,ニ格の格要素は「中」であると定める.京大格フレームには動詞「入る/はいる{\~{}}テ形+くる/くる」の格フレームが24種類ある.解析対象述語「入ってくる」を含む文から3文前まで(実際には3行目の述語なので,2文前まで)に含まれる名詞は「17」,「創」,「棚倉」,「顔色」,「生死」,「確認」,「観察」,「礼拝」,「堂」,「中」の10個あり,これらが格要素候補となる.これらの名詞10個に加えて,「外界照応or照応なし」を示す「None」を含む11個が実際の候補削減の対象となる格要素候補となる.これらの組合せは,$24\times(11\times10\times9+3\times10+1)=\text{24,504}$候補となる(「None」は重複を許容するため).これに対して我々の提案した候補削減を施し,18個まで削減された結果が表{~\ref{tb:MissCandidate}}である.表{~\ref{tb:MissCandidate}}は正解の組合せ(「入る/はいる{\~{}}テ形+くる/くる:動3」,「創」,「None」,「中」)を含まないため,候補削減としては失敗の例である.\begin{table}[b]\vspace{-0.5\Cvs}\caption{BCCWJのドメインごとの実験結果のF値}\label{tb:resultGenre}\input{09table09.tex}\end{table}京大格フレーム中の「入る/はいる{\~{}}テ形+くる/くる:動3」のガ格の行で最も出現数が多い語は,「手」が205回,「男」が61回,「誰」が55回,「蜂」が30回,「彼」が28回である.これらに対して正解のガ格である「創」は我々の解析においては「創造」,「創作」などに近い一般名詞として捉えられてしまい,人名としての分散表現が与えられず,候補削減アルゴリズム中で低いスコアが割り当てられて,候補リストから漏れてしまっている.この候補削減失敗への対策としては,「創」を人名と判定し,人の意味を含む分散ベクトルを割り当てるということが考えられる.「入る/はいる{\~{}}テ形+くる/くる:動3」のニ格の行で最も出現数が多い語は,「中」が17,328回,「間」が650回,「内」が361回,「下」が154回,「奥」が154回となっていて,正解のニ格である「中」は比較的高いスコアを割り当てられて,候補リスト中にも出現が確認できる.\paragraph{ドメイン別のゼロ照応解析の精度}\label{AppendixGenre}我々は複数ドメインコーパスであるBCCWJ上で評価を行っている.テスト事例に対する解析結果をドメインごとに表{~\ref{tb:resultGenre}}に示す.OW(白書),PN(新聞)は一文の語数が多く,格要素候補の名詞も多数出現するため,組合せ候補数が増加する傾向にある.専門的な語や他のドメインでは出現頻度の低い述語が出現しやすい.しかし文法的には比較的正しい書き方がなされており,文意が取れないほどの省略は少なく,直接係り受け関係にある格要素が多く存在する.また,表{~\ref{tab:genre-distribution}}に示した通り,ガ格ゼロ照応のうちOWは72\%,PNは51\%が文内ゼロであり,直接係り受け関係にある格要素も比較的多く存在する.そのため,我々の組合せを用いる解析手法では,他の格の直接係り受け関係にある格要素を格フレーム選択の手がかりとすることで,他のドメインにおける精度と比較して全体で高いスコアを示している.また,多量の格要素候補に対しても提案候補削減が上手く機能し精度の向上に貢献している.PB(書籍),PM(雑誌)は一文が短く,文法的に砕けた文が多く見られ,一読しただけでは文意が捉えきれないような省略が散見される.倒置表現や,表{~\ref{tab:genre-distribution}}に示した通り3文より前に格要素が出現することも多い.そのため,他のドメインに比べて文間の精度は高いものの,全体の精度は低い.特にPB,PMに関しては文書ごとに取り扱う題材や書き手に多様性があるため,ドメイン適応の手法を用いても精度の改善につながらない.我々の手法では格要素候補として述語を含む文から3文前までの文中に出現する名詞のみを収集しているが,これをより広範囲に広げることが対策として考えられる.また,使用する大規模格フレームを現在はWebコーパスのみから構築しているが,より多くのドメインから構築することで,多様な述語に対して適切な格フレームを選択することができると考えられる.その際,爆発的に増加する格要素候補と格フレーム候補の組合せに対して,我々の提案する候補削減手法はより有効に働くものと予想される.OC(QA)は文内,文間のガ格において高い精度が出ている.これは,QAにおけるガ格の多くが一人称か二人称であり,他のドメインに比べて簡単なタスクとなっているためだと思われる.一方,表{~\ref{tab:genre-distribution}}に示した通りOCは文間ゼロの比率が最も高く,3文より前に格要素が出現することも多いため,全体の精度は最も低い.OCに出現する文はPB,PM以上に文法的に砕けた文が多く見られ,一読しただけでは文意が捉えきれないような省略が散見される.このドメインにおけるゼロ照応解析の精度を上げるためには,書き手の交代や質問文であるか否かのOCに特有の素性や,文書全体の構造を手がかりとすることが必要だと考えられる.OY(ブログ)はタイトルや箇条書き,メールアドレス,URL,日時,空白記号が多く出現し,書かれている内容も日記,政治ニュースに関する意見,技術的な説明文など様々である.我々の手法はより細分化された大規模格フレームを組合せで用いているため,出現述語の表記ゆれや助動詞の変化にも頑健で,他のドメインと比較して文内の全体において最も高いスコアが出ている.\paragraph{係り受け関係とゼロ照応解析の適合率の関係}\label{AppendixAccPred}我々の提案するモデルは複数の異なる格要素を同時に同定する.その効果を見るために,我々はどの格がすでに係り受け解析によって埋まっているかに基づいてテスト事例を分類した.表~\ref{tb:error-rate}はそれぞれの組合せにおける適合率である.列はすでに直接係り受け関係で埋められた格を示し,行はシステムによって埋められるべき格を示す.例えば,『ガ格』行,『ヲ格』列の数字は,係り受け解析によって『ヲ格』の格要素が与えられた上で,『ガ格』の格要素を同定した適合率である.\begin{table}[b]\caption{係り受け関係とゼロ照応解析の関係}\label{tb:error-rate}\input{09table10.tex}\end{table}直感的には,すでに直接係り受け関係で埋められた格が多いほど適合率は上がるものと予想されるが,『ガ格』の行で特に顕著なように,すでに直接係り受け関係で埋められた格が多いほど適合率が下がる傾向が見られる場合もある.これは,今回使用している京大格フレームがWeb上の文における直接係り受け関係の情報のみを収集していて,ゼロ照応の情報はほとんど考慮していないため,我々がゼロ照応解析を行うに際しては,その偏りの影響を受けているのだと考えられる.例えば,実際の日本語文においては,ガヲニ格を取りうる述語であっても,『ガとヲのみ直接係り受け関係で格要素が存在し,ニ格が省略されている文』と『ガヲニすべて直接係り受け関係で格要素が存在する文』では,前者のほうが多く出現し京大格フレーム中の用例が充実している可能性がある.この時,前者の文の出現によって京大格フレームに収録されるのはガ格とヲ格のみが出現する格パターンの用例であり,後者の文の出現によって収録されるのはガ格とヲ格とニ格が出現する格パターンの用例であるため,後者の格パターンが比較的スパースになる.そのような偏りを持つ京大格フレームを解析に用いた結果,『ガ格』行『ヲ格』列は,京大格フレーム中の豊富な用例を用いることができるため比較的適合率が高く,一方で,『ガ格』行『ヲ格,ニ格』列は,用例がスパースであるため比較的適合率が低くなる,と考えられる.従って,解析に際して直接係り受け関係の格要素のみでなくゼロ照応の格要素も考慮した格フレームを用いたならば,直感に反せず,すでに直接係り受け関係で埋められた格が多いほど適合率は上がるものと予想される.また,特に下線付きのセルが事例数が多いにも関わらず適合率が低いため,これらの下線付きセルの述語に関するパフォーマンスを改善することが,ゼロ照応解析全体の精度を上昇させることに対して重要である.\paragraph{NAISTテキストコーパス(NTC)による実験}\label{AppendixNAIST}表{~\ref{tab:related-work}}に示した通り,日本語文間ゼロ照応を取り扱う研究としては\citeA{imamura09,Sasano-A-2011,Hangyo-Japanese-2013,Shibata2018}が挙げられる.このうち我々が対象とする文内・文間のゼロ照応を行っているのは{\citeA{Sasano-A-2011}}のみであり,かつ彼らはNTC上の評価実験で文内・文間のstate-of-the-artを達成している.我々はNTCを用いて評価実験を行うことで,本稿の提案手法を{\citeA{Sasano-A-2011}}と比較した.表{~\ref{tb:resultNTC}}はその実験結果を示す.{\citeA{Sasano-A-2011}}の設定と揃えるために,ここで対象とした述語は動詞と形容詞とする.\begin{table}[b]\vspace{-0.5\Cvs}\caption{NTCを用いた実験結果のF値}\label{tb:resultNTC}\input{09table11.tex}\end{table}我々の提案手法は比較的精度が出にくい文内のヲ格,ニ格において{\citeA{Sasano-A-2011}}より高い精度を示している.これは我々が使用する京大格フレームが{\citeA{Sasano-A-2011}}の使用した版より巨大かつ細分化されているため,解析対象述語の語彙により適した格フレームを選ぶことで,適切な格要素を同定できているのだと考えられる.一方で,文内,文間のガ格においては{\citeA{Sasano-A-2011}}より低い精度を示している.これは{\citeA{Sasano-A-2011}}が格要素候補に対して,100万の名詞を2,000個の意味クラスに分類した結果を使用し,汎化することで格フレームのカバレッジを補っている効果によるものと思われる.我々の手法はword2vecを使用した分散表現同士のcosine距離を使用することで京大格フレームの汎化を行っているが,格要素の詳細な分類が述語に対してより重要な意味を持つガ格のゼロ照応解析においては,{\citeA{Sasano-A-2011}}の手法のほうが優れていると考えられる.ただしこれらの手法は排他的でなく,同時に使用することも可能であるため,双方を候補削減,ゼロ照応解析の素性として格ごとに使い分けることでさらなる精度の向上が期待できる.\begin{table}[t]\caption{『ProjectNEXT述語項構造タスク』の指定するBCCWJ文書を用いた実験結果のF値}\label{tb:resultNext}\input{09table12.tex}\end{table}\paragraph{『ProjectNEXT述語項構造タスク』との比較}\label{AppendixNext}{\citeA{Matsubayashi15projectnext}}は複数の述語項構造解析器の評価をBCCWJ上で行っている.ただし彼らはNTC上で解析器の訓練を行い,BCCWJの一部データにおいてテストをしているため,我々の提案手法との厳密な比較はできない.しかしできる限り条件を揃えて,彼らのスコアとS0を比較した.表{~\ref{tb:resultNext}}にその結果をまとめる.{\citeA{Matsubayashi15projectnext}}はBCCWJの以下22文書1,625文をテストデータとして使用している.\begin{itemize}\itemOW:OW6X\_00000OW6X\_00010の2記事\itemOY:OY01\_00082OY04\_00001OY04\_00017OY04\_00027OY10\_00067OY12\_00005の6記事\itemPB:PB12\_00001PB2n\_00003PB40\_00003PB42\_00003PB50\_00003PB59\_00001の6記事\itemPM:PM12\_00006PM24\_00003PM25\_00001PM26\_00004の4記事\itemPN:PN1b\_00002PN1c\_00001PN1d\_00001PN3b\_00001の4記事\end{itemize}S0の訓練にはこれらを除くすべてのBCCWJデータを使用した.{\citeA{Matsubayashi15projectnext}}が取り上げている解析器は{\citeA{Matsubayashi2014}}の解析器,{\citeA{Yoshino2013}}の解析器,KNP{\cite{KNP2013}}の3種類で,これらを様々な条件下で比較している.ここではBCCWJにおいて述語項構造をアノテーションされているすべて動詞から「れる」,「せる」,「できる/出来る/可能」,「てある」を伴うものを除き,{\citeA{Yoshino2013}}の解析器には係り受け情報を与え,KNPには-anaphoraモードでベストアラインメントを用いて解析を行った結果のスコアである.具体的には{\citeA{Matsubayashi15projectnext}}中の表50,表138,表295の数字をここでは引用している.ただし,我々の提案手法では京大格フレームとの整合性を保つために,BCCWJのアノテーションに基づいて,補助動詞「てあげる,てもらう,など」,可能「できる,れる,られる」,受け身「れる,られる」,使役「せる,させる」,願望「たい」を伴う動詞を除いている.そのため,{\citeA{Matsubayashi15projectnext}}の示す各格の事例数とは少し数字が異なる.表{~\ref{tb:resultNext}}中の数字は我々の基準における例数である.また,{\citeA{Matsubayashi2014}}の解析器,{\citeA{Yoshino2013}}の解析器,KNPは直接係り受け関係にある格要素の解析も同時に行っている.KNPは述語位置の判定も行っていて,一部の動詞については述語位置を誤って判定しているため,その分だけ精度が下がっている.結果を比較すると,文内において我々の提案手法は他の解析器に大きく差を付けて高い精度を示している.この理由として,提案手法においては直接係り受け関係にある格要素の情報を使用しているため,より正確に格フレームを選べている点が挙げられる.一方で,文間のガ格で{\citeA{Yoshino2013}}の解析器のほうが精度が高いのは,彼らの解析器は格ごとに解析を行っているため,S0\_each同様,他の格の解析エラーの影響を受けないためであると思われる.また,文間のガ格でKNPの精度が高いのはKNPが{\citeA{Sasano-A-2011}}と同様に意味クラスを使用した文間照応を行っている効果によるものだと思われる. \section{結論} 本論文では分散表現で平均化した格フレームによる解候補削減を用いた日本語文内・文間ゼロ照応モデルを提案した.提案した解候補削減アルゴリズムによって大規模な複数ドメインコーパスによる効率的な訓練を可能とした.また,ローカルアテンション機構付きRNNとFNNを組合せて使用し様々な素性を取り入れることで,文間ゼロ照応解析においてより高い精度が出ることを確認した.我々の今後の課題はタスクの対象を形容詞,事態性名詞にまで拡張し,より実用的なモデルを構築することである.また,対象格要素候補の名詞が先行文脈中の述語にどの格の格要素として取られたかの情報を,我々の提案した解候補削減アルゴリズムに取り入れることで,より良い解候補削減が行えるよう改善する予定である.また,解候補削減を行わない場合,提案FNNモデルの学習が発散することから,本研究で提案したニューラルネットを用いた解析アーキテクチャそのものに改善の余地があると考えられる.\acknowledgment\citeA{Hangyo-Japanese-2013}に関して詳細な情報をご教示くださった萩行正嗣氏,\citeA{Ouchi-Neural-2017}の全体像についてご教示くださった大内啓樹氏に厚く御礼申し上げます.本論文の内容の一部は,The32ndPacificAsiaConferenceonLanguage,InformationandComputation,第5回自然言語処理シンポジウム(第238回自然言語処理研究発表会)で発表したものである\cite{Yamashiro-en,Yamashiro-ja}.TheauthorswouldliketothankEnago(www.enago.jp)fortheEnglishlanguagereview.\bibliographystyle{jnlpbbl_1.5}\input{09refs_bbl.tex}\appendix \section{素性詳細} label{chap:appFeatures}\centerline{\small\textbf{表13}ベースモデル素性一覧}\par\input{09table13.tex}\vspace*{-1\Cvs}\begin{biography}\bioauthor{山城颯太}{2017年東京工業大学工学部情報工学科卒業.2019年同大学情報理工学院情報工学系修了.同年,ヤフー株式会社入社.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年,日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学情報理工学院助教.2017年IE経営大学院修士課程修了.博士(工学).自然言語処理,特に自動要約,自然言語生成の研究に従事.TheAssociationforComputationalLinguistics,言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\end{biography}\biodate\end{document}
V04N01-02
\section{はじめに} label{sec:Intro}自然言語処理では,これまで書き言葉を対象として,さまざまな理論や技術が開発されてきたが,話し言葉に関しては,ほとんど何もなされてこなかった.しかし,近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.話し言葉の特徴は,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)である.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}書き言葉には見られないこれらの現象のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.したがって,不適格性を扱うための手法を確立することが,話し言葉を対象とした自然言語処理研究にとって必須である.特に,不適格性を扱うための手法をその他の言語解析過程の中にどのように組み込むかが,重要な課題となる.本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べる.不適格文を扱う手法の研究は,以下の3つのアプローチに大別できる.\begin{description}\item[A.不適格性を扱う個別的な手法]話し言葉に特有の不適格性を個別的な手法で扱う.言い直しを扱う手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46}や助詞省略を扱う手法\cite{山本:情処論-33-11-1322}がある.\item[B.不適格性を扱う一般的な手法]さまざまな不適格性を一般的なモデルに基づいて扱う.以下の2つのモデルに大別される.\begin{description}\item[B-1.二段階モデル(two-stagemodel)に基づく手法]まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する.{\bf部分解析法}\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193}や{\bf制約緩和法}\cite{Weischedel:CL-9-3-161,Mellish:ACL89-102}がある.\item[B-2.統一モデル(uniformmodel)に基づく手法]適格文と不適格文との間に明確な区別をおかず,両者を連続的なものととらえ統一的に扱う.{\bf優先意味論}に基づく手法\cite{Fass:CL-9-3-178}や{\bfアブダクション}に基づく手法\cite{Hobbs:AI-63-69}がある.\end{description}\end{description}本稿では,以下にあげる理由により,統一モデルに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.例えば,言い直しを含む文において修復対象(言い直された部分)の範囲を同定するのは,適格文において従属節の範囲を決めるのと同じ難しさがある.したがって,不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文が曖昧な場合がある.例えば,(\ref{eq:Sentence1})の「ほん」はたまたま「本」と同じ字面であるため,「本(に)翻訳(を)入れます」のような適格文としての解釈が可能になる.適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できない.これに対して,統一モデルでは,漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間はしばしば,文の途中であっても不適格性が生じたことに気がつく.このことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.以下,まず\ref{sec:Ill-formed}\,節では,日本語の話し言葉におけるさまざまな不適格性を,音声対話コーパスからの実例をあげながら説明し,統一モデルの必要性を述べる.次に\ref{sec:Uniform}\,節で,本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.\ref{sec:Evaluation}\,節では,解析の実例をあげるとともに実験システムの性能を評価することで本手法の有効性を検討する.さらに,その適用範囲についても明らかにする.\ref{sec:Comparison}\,節では,従来の手法との比較を述べ,最後に,\ref{sec:Conclude}\,節でまとめを述べる.なお,話し言葉の解析を考える上で,音声情報の果たす役割は重要であるが,本稿では音声処理の問題には立ち入らない. \section{日本語の話し言葉における不適格性} label{sec:Ill-formed}日本語の話し言葉では,さまざまなレベルでさまざまな種類の不適格性が生じる\cite{河原:情処-36-11-1027}.ここでは,これらの不適格性のうち,本研究でターゲットとする言い淀み,言い直し,繰り返し,助詞省略について,ATR対話データベース(ADD)\,\cite{江原:ATR-TR-I-0186}から実例をあげながら説明する.\subsection{言い淀み}\label{sec:Ill-formed:Hesitation}{\bf言い淀み}(hesitations)とは,「あのー」「えーと」などの意味を持たない冗長語(間投語,つなぎ語ともいう)によって発話が滞ることである.(\ref{eq:Hesitation})では太字が冗長語である.\enumsentence{\label{eq:Hesitation}{\bfえーっと},そちら第一回の通訳電話国際会議の事務局でしょうか.}\citeA{村上:IEICE-SP-91-100-71}によると,ADDでは,約50\,\%の文に言い淀みが含まれる.このうち約70\,\%では,頻度上位4種類の冗長語(「えー」「あのー」「あの」「え」)が使われている\footnote{\citeA{中川:音響-51-3-202}による日本音響学会連続音声データベース(ASJ)の分析では,言い淀みは1文あたり1.126回出現し,「え」「えと」「あの」「あ」「ま」の頻度上位5種類の冗長語が出現総数の82\,\%を占める.\citeauthor{中川:音響-51-3-202}は長母音や促音による違いを無視しているので,\citeauthor{村上:IEICE-SP-91-100-71}の分析結果にもこの方略を適用すると,同じ5種類の冗長語のバリエーションで上位9種類,約85\,\%を占めることになり,両者の分析はほぼ一致する.}.このことから,言い淀みは,(言語処理においては)主だった冗長語を辞書に登録することでかなりの部分が扱えると思われる.ただし,冗長語はしばしば他の単語と混同される(連体詞「あの」「その」など)ことがあり,そういった場合に統一モデルは有効である.\subsection{言い直し}\label{sec:Ill-formed:Repair}{\bf言い直し}(repairs)とは,言い誤りを訂正したり,より良い言い回しに変更するために,話者自身が発話を中断してその部分を再度発話することである.\citeA{村上:IEICE-SP-91-100-71}によると,ADDでは,約10\,\%の文に言い直しが含まれる\footnote{これは,\citeA{中川:音響-51-3-202}によるASJの分析結果(1文あたり0.145回)や\citeA{Bear:ACL92-56}によるDARPAのATISタスク・コーパスの分析結果(10語以上の文の10\,\%)ともほぼ一致する.}.(\ref{eq:Repair1})では太字が言い直しによって訂正された部分(修復対象)である.\enumsentence{\label{eq:Repair1}あの,この{\bfクレ},クレジットカードというのは}言語処理における言い直しの扱いの問題点は以下のようにまとめられる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item言い直しには言語的な手がかりがないので,検出が困難である.言い直しに伴って言い淀みが生じることがしばしばあるが,言い淀みは元来独立して起こり得るので,信頼できる手がかりにはならない\footnote{音声処理との統合を考えると,音響的・韻律的な手がかりが役立つ可能性はある\cite{O'Shaughnessy:ICSLP92-931,Nakatani:ACL93-46}.}.\item修復対象の範囲を同定するのが困難である.例えば,(\ref{eq:Repair2})では「準備を」と「始めて」は修復対象に含まれるが,「もう」と「ビデオの」は含まれない.\enumsentence{\label{eq:Repair2}もう{\bf準備を始めて},ビデオの準備を始めていきたい.}\item言い直しは,話者に生じたトラブルの内容に応じて,多様なパターンをとる.例えば,(\ref{eq:Repair3}),(\ref{eq:Repair4}),(\ref{eq:Repair5})はそれぞれ,音韻的な原因(発語の途中でつまった),統語的な原因(誤った助詞を選択した),意味的な原因(不適切な意味内容を選択した)による言い直しと考えられる.\enumsentence{\label{eq:Repair3}{\bfつう},通訳電話に関するさまざまな,あのー,方面}\enumsentence{\label{eq:Repair4}あの,{\bfクレジットカードをね},あのー,クレジットカードの名前となんか,ナンバーを}\enumsentence{\label{eq:Repair5}あの,会議ではもちろん{\bf通訳},翻訳も入れます.}\end{enumerate}これらの問題点は,適格文の処理で生じる問題点と共通している.例えば,(\ref{eq:Repair2})における修復対象の範囲の同定は,(\ref{eq:Subord})における従属節(太字部分)の範囲の同定と同種の問題である.\enumsentence{\label{eq:Subord}もう{\bf準備を始めてから}ずいぶん待ちました.}さらに,\citeA{佐川:IPSJ-NL-94-100-73}が指摘したように,言い直しの中には適格文と簡単には区別できないものがある.例えば,(\ref{eq:Repair6})では,「きょう」が「協賛する」に言い直されているのであるが,「きょう」がたまたま「今日」と同じ字面のため,適格文としての解釈も可能である.\enumsentence{\label{eq:Repair6}{\bfきょう},協賛する学会会員}\citeauthor{佐川:IPSJ-NL-94-100-73}によると,このような適格文との間で曖昧性がある例は,ADDに含まれる言い直しのうちの約1割を占めている.しかし,(\ref{eq:Repair5})のような文でも,助詞省略の可能性を考えると曖昧になる(「通訳」の後に助詞を補うと「入れます」に係る可能性がある)ことから,この割合は実際にはもっと大きいと思われる.これらは,言い直しのような不適格性を,適格文の処理手法を拡張することで統一的に扱う必要があることを示唆する.\subsection{繰り返し}\label{sec:Ill-formed:Repetition}{\bf繰り返し}(repetitions)は,言い直しの特別な場合である.\citeA{村上:IEICE-SP-91-100-71}によると,ADDに含まれる言い直しの14\,\%が繰り返しである.(\ref{eq:Repetition})では太字が繰り返された部分である.\enumsentence{\label{eq:Repetition}えー,{\bf京都ロイヤルが},えー,京都ロイヤルが一番都心ですね.}\subsection{助詞省略}\label{sec:Ill-formed:ParticleEllipsis}{\bf助詞省略}(particleellipses)は,書き言葉には見られない,話し言葉に特有の現象である.\citeA{保坂:JSAI-SLUD-9203-1}によると,ADDにおいて,普通名詞文節の12\,\%,代名詞文節の16\,\%で助詞が省略されている\footnote{\citeA{山本:情処論-33-11-1322}によると,ASJでは,助詞省略の割合は全名詞文節の4\,\%である.}.(\ref{eq:Particle})では省略された助詞を括弧内に補ってある.\enumsentence{\label{eq:Particle}会議{\bf[に]},参加する手続き{\bf[を]},ちょっと,お教え願えますでしょうか.}助詞省略は,構文・意味解析において大きな問題となる.日本語では,通常,語と語の間の意味関係が格助詞によって明示されるので,解析システムは格情報を頼りに意味関係を決定しようとする.もし助詞が省略されていると,このような方法で意味関係を決定することができない.しかし,格情報をあてにできない場面は,書き言葉においても生じる.例えば,主格や目的格の名詞句が主題化されると,助詞が同一の形式(「は」や「も」)に置き換わるので,もとの格が何であったかは簡単にはわからない.さらに,日本語には関係代名詞がないので,被修飾名詞の関係節内での意味役割(例えば(\ref{eq:Particle})での「手続き」と「参加する」の間の意味関係)を決めるのに格情報を利用することはできない.こういった場合には,単語の意味属性を頼りに意味関係の推定を行なうことになるが,助詞省略を含む句に対しても同じ方法が適用できる.これも,適格文と不適格文を統一的に扱うモデルの妥当性を示している.\vspace*{-0.2mm}\subsection{その他の不適格性}\label{sec:Ill-formed:Others}\vspace*{-0.2mm}日本語の話し言葉には,これまで述べたもの以外にも,述部の省略,倒置,言い誤りなどの不適格性があるが,これらについては,(a)\,頻度が低い,(b)\,単純なヒューリスティクスで扱えることが多い,(c)\,構文・意味解析の範囲を越えるなどの理由により,本稿では扱わない.\vspace*{-0.2mm} \section{統一モデルに基づく話し言葉の解析} label{sec:Uniform}\vspace*{-0.2mm}\vspace*{-0.2mm}\subsection{本手法の概要}\label{sec:Uniform:Overview}\vspace*{-0.2mm}本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.本手法は,\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item話し言葉におけるさまざまな制約を統一的に記述した規則群\item入力文に対してそれらの規則を順次適用して最適な解釈を求める解釈器\end{enumerate}からなる.すべての規則は{\bf確定節}によって記述され,解釈器としては{\bfアブダクション}が用いられる.本稿では前者についてのみ述べる.後者については,別稿\cite{伝:情処論-35-12-2734}を参照されたい.本手法は,基本的には,係り受け解析の拡張である.入力文の依存構造を生成するために,各語(文節)の間の依存関係を調べる.例えば,(\ref{eq:Sentence2})に対する依存構造と各文節の間の文法・意味関係は(\ref{eq:Depend1})のようになる.\enumsentence{\label{eq:Sentence2}会議では翻訳も入れます.}\enumsentence{\label{eq:Depend1}[\DP{loct\&de}会議では\Q[\DP{obje\&accAct}翻訳も\Q入れます]]}ここで,\Rel{loct},\Rel{obje}は意味関係(それぞれ「場所」「対象」)を表し,\Rel{de},\Rel{accAct}は文法関係(それぞれ「デ格」「目的格・能動態」)を表す\footnote{文法関係は,係り文節が任意格要素の場合は係り文節の格で表し,必須格要素の場合は係り文節の格と受け文節の態の組合せで表す.これは,後者では,態に依存して格交替が起こる可能性があるからである.}.依存構造の決定と文法・意味関係の付与は,{\bf構造規則}と{\bf解釈規則}を参照しながら行なう.この処理は,格情報のみに基づいて決定的に行なうのではなく,係り文節と受け文節の間の意味的な結合の強さや文法関係の実現のしやすさ(例えば「も」は「主格」になりやすいか「目的格」になりやすいか)などを考慮して,さまざまな候補に{\bf優先度}を与え,最終的に最も優先度の高い組合せを見つけることによって行なう.したがって,我々のフォーマリズムは,制約に基づく(constraint-based)というよりは,{\bf選好}に基づく(preference-based)ものである.本手法では,通常の係り受け解析を拡張し,言い淀み,言い直しなども語と語(文節と文節)の間の依存関係ととらえる.例えば,言い直しを含む文(\ref{eq:Sentence3})の依存構造は(\ref{eq:Depend2})のようになる.\enumsentence{\label{eq:Sentence3}ほん,翻訳入れます.}\enumsentence{\label{eq:Depend2}[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}ここで,\Rel{phonRepair}は「ほん」と「翻訳」の間に音韻的な原因による言い直し(以下「音韻的言い直し」)によって依存関係が生じていることを表す.このように,不適格性を扱えるよう係り受け解析を拡張することによって,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理が同じ道具だてで実現できるだけでなく,適格文と不適格文との間の曖昧性にも対処できる.\subsection{構文・意味解析の過程}\label{sec:Uniform:Process}本手法による構文・意味解析の過程を簡単な例題を用いて説明する.図\,\ref{fig:Process}\,は(\ref{eq:Sentence3})の解析過程である.この文は,言い直しと助詞省略の2つの不適格性を含む.さらに,言い直しは適格文との間で曖昧である(「ほん」は「本」と同じ字面).\begin{figure}\begin{center}\mbox{{\bfA:}\quadほん\Q翻訳\Q入れます}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{文節解析}}\\[\medskipamount]\mbox{\makebox(0,0)[lb]{\raisebox{1.6\baselineskip}{\bfB:}}\begin{footnotesize}\Feature{\Slot{phon}&\Value{ほん}\\\Slot{syn}&\Pair{\footnotesize\Value{本},\Value{普通名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{本},\Value{書物}}}\Feature{\Slot{phon}&\Value{ほんやく}\\\Slot{syn}&\Pair{\footnotesize\Value{翻訳},\Value{サ変名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{翻訳},\Value{翻訳}}}\Feature{\Slot{phon}&\Value{いれます}\\\Slot{syn}&\Pair{\footnotesize\Value{入れる},\Value{がを動詞},\Value{基本},\Value{能動}}\\\Slot{sem}&\Pair{\footnotesize\Value{入れる},\Value{授受}}}\end{footnotesize}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存構造解析}}\\[\medskipamount]\mbox{{\bfC:}\quad[\DP{?}[\DP{?}ほん\Q翻訳]\Q入れます]\qquad{\bfOR}\qquad[\DP{?}ほん\Q[\DP{?}翻訳\Q入れます]]}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存関係解析}}\\[\medskipamount]\mbox{\raisebox{1.2\baselineskip}{\bfD:}\DependTable{\Pair{ほん,\,翻訳}}{\Rel{of\&gen}&0.0002\\\underline{\Rel{phonRepair}}&\underline{0.0053}}\DependTable{\Pair{翻訳,\,入れます}}{\underline{\Rel{obje\&accAct}}&\underline{0.0134}\\\Rel{inst\&de}&0.0031}\DependTable{\Pair{ほん,\,入れます}}{\Rel{obje\&accAct}&0.0004\\\Rel{loct\&ni}&0.0029}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{最適解選択}}\\[\smallskipamount]\mbox{{\bfE:}\quad[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}\end{center}\caption{構文・意味解析の過程}\label{fig:Process}\end{figure}解析過程は以下の4つのステップからなる.\begin{description}\item[文節解析]入力文{\bfA}を素性構造で表現された文節の列{\bfB}に変換する.\item[依存構造解析]文節の列{\bfB}に構造規則を適用し,可能な依存構造の集合{\bfC}に変換する.\item[依存関係解析]依存構造の集合{\bfC}に含まれる各依存関係について,解釈規則を適用し,解釈の候補{\bfD}を生成する.依存関係解釈の候補のおのおのには,$[0,1]$間の実数値で表される優先度を与える.\item[最適解選択]最も優先度の大きい解釈({\bfD}の下線部分)を選択し,文全体の依存構造と依存関係解釈{\bfE}を出力する.\end{description}この例では,{\bfB}の文節列に対して,{\bfC}の2つの依存構造が可能であり,その中に3つの依存関係が含まれる.それぞれの依存関係に対する解釈の候補は{\bfD}のようになり,下線を引いたものが最も優先度の大きい組合せとして選択される.この過程において,助詞省略は「目的格」に解釈され,言い直しと適格文(「本(に)入れます」)との曖昧性も解消されている.\subsection{文節解析}\label{sec:Uniform:Bunsetsu}文節解析への入力は,音声認識システムの出力として漢字仮名混じり文が与えられることを想定している.文節解析は,入力文を素性構造で表現された文節の列に変換する.文節は,ちょうど1つの自立語といくつかの付属語からなる\footnote{特別な付属語として,繋辞(「です」など)と補文標識(「こと」など)がある.これらは自立語の範疇を変更する(「会議」(名詞)$\to$「会議です」(動詞))ので,{\bf範疇変換語}とよぶ.範疇変換語を含む文節に対しては,複数のレベルでの係り受けが可能である.例えば,「言語学の会議です」は名詞レベル,「これは会議です」は動詞レベルでの係り受けである.}.素性構造は,一般に以下の形式である.\begin{equation}\label{eq:Feature}\Feature{\Slot{phon}&よみ\\\Slot{syn}&\Pair{語彙,範疇,形,態}\\\Slot{sem}&\Pair{概念,属性}}\end{equation}\begin{description}\item[よみ]文節全体のよみを仮名で表したもの.\item[語彙]文節内の自立語の見出し語.\item[範疇]語彙の統語範疇.「連体詞」「副詞」「普通名詞」「固有名詞」「が動詞」「がを動詞」「が形容詞」などがある(用言は格パターンに応じて細分類されている)\footnote{範疇変換語を含む文節の範疇はリストで表す.例えば,「会議です」の範疇は「普通名詞+繋辞」である.}.\item[形]名詞文節の格や動詞文節の活用形.名詞文節が助詞省略を含む場合は「無」で表す.\item[態]動詞文節の態.動詞文節以外は`\Value{$-$}'で表す.\item[概念]文節内の自立語の見出し語.\item[属性]概念の意味属性.角川類語新辞典\cite{大野:角類新-81}の小分類を使用.\end{description}話し言葉では{\bf不要語}を扱う必要がある.不要語は以下のいずれかである.\begin{itemize}\item「あのー」「えーと」のような冗長語\item発語が中断された語(中断語)\end{itemize}これらは,しばしば,適正な語と同じ字面になることがある(例えば(\ref{eq:Sentence3})の中断語「ほん」は「本」と同じ字面).その場合には,不要語と適正な語の両方の可能性を考慮することになる.なお本稿では,不要語であっても,音声認識システムによって正しい音韻列が与えられると仮定しているが,これは現在の音声認識技術から考えると少し難しいかも知れない.文節解析の出力である文節列は,以下の形式の要素式によって表現される.\begin{equation}\label{eq:Bunsetsu}\Formula{\Var{Sym}}{\Var{Start},\Var{End},\Var{Feature}}\end{equation}\Var{Sym}は非終端記号であり,\Var{Start},\Var{End}はそれぞれ,その文節の開始位置,終了位置(確定節文法(DCG)の文字列引数に対応)を表し,\Var{Feature}はその文節の素性構造を表す.非終端記号\Var{Sym}は,統語範疇に依存して表\,\ref{tab:Sym}(付録)のように決まる.\subsection{依存構造解析}\label{sec:Uniform:Struct}依存構造解析は,(\ref{eq:Bunsetsu})の形式の要素式で表現された文節の列に対して,構造規則を適用しながら,すべての可能な依存構造を生成する.構造規則は,一般に以下の形式である\footnote{実際には,範疇変換を扱う構造規則が別にあり,これによって,「会議です」の範疇が「普通名詞+繋辞」から「が動詞」に変換される.変換前には名詞レベルでの係り受けが,変換後には動詞レベルでの係り受けが可能である.}.\begin{equation}\label{eq:Struct}\begin{array}[t]{@{}l@{}}\Formula{\Var{Sym2}}{X_0,X_2,F_2}\,\Implied\,\Formula{\Var{Sym1}}{X_0,X_1,F_1},\,\Formula{\Var{Sym2}}{X_1,X_2,F_2},\,\Formula{\Var{Depend}}{F_1,F_2}.\end{array}\end{equation}この規則は,係り文節(右辺の第1式)と受け文節(右辺の第2式)から複合句(左辺)が作られることを表す.複合句の素性構造は受け文節から引き継がれ,これは日本語が主要部後置(head-final)型であることによる.右辺の第3式は,係り文節と受け文節の間の依存関係を表す.この依存関係は,依存関係解析において,適当な文法・意味関係もしくは不適格性を示す関係に解釈される.係り文節と受け文節の可能な組合せとその間の依存関係の解釈の種類は,非終端記号によって表\,\ref{tab:Struct}(付録)のように制限される.この規則は複合句に対しても再帰的に適用される.複合句の素性構造は主要部の情報だけを持つので,依存関係は句の間の関係ではなく,主要部文節の間の関係であることに注意せよ.これは係り受け解析の特徴であり,調べるべき依存関係の数が文節数の二乗のオーダに抑えられる.\subsection{依存関係解析}\label{sec:Uniform:Depend}依存関係解析は,すべての可能な依存構造に含まれる依存関係のおのおのに対して,解釈規則を適用し,すべての可能な解釈の候補を生成する.解釈規則は,(i)\,適格な依存関係に関する規則と(ii)\,不適格な依存関係に関する規則の2種類からなる.\subsubsection{適格な依存関係に関する解釈規則}\label{sec:Uniform:Depend:Well-formed}適格な依存関係に関する解釈規則は,一般に以下の形式である.\begin{equation}\label{eq:Well-formed}\begin{array}[t]{@{}l@{}}\Formula{\Var{Depend}}{F_1,F_2}\,\Implied\,\Formula{\Var{Cond}}{F_1,F_2},\,\Formula{\Var{SemRel}}{F_1,F_2},\,\Formula{\Var{SynRel}}{F_1,F_2}.\end{array}\end{equation}この規則は,依存関係\Var{Depend}が,ある条件\Var{Cond}のもとで,ある意味関係\Var{SemRel}とある文法関係\Var{SynRel}に解釈できることを表す.例えば,名詞文節と動詞文節の間の依存関係(\Rel{dep\_n\_v})は,意味関係\Rel{obje}(「対象」)と文法関係\Rel{accAct}(「目的格・能動態」)に解釈できる.この際の条件としては,受け文節が目的格に対象を取る動詞(「がを動詞」など)であること,受け文節の態が「能動」であること,係り文節の形が目的格になれるもの(「を」「も」「無」など)であること,などが課される.これらの条件は,単一化文法において,下位範疇化素性として記述されているものと等価である.適格な依存関係の一部を表\,\ref{tab:Well-formed}(付録)にあげる.\subsubsection{不適格な依存関係に関する解釈規則}\label{sec:Uniform:Depend:Ill-formed}不適格な依存関係に関する解釈規則は,一般に以下の形式である.\begin{equation}\label{eq:Ill-formed}\begin{array}[t]{@{}l@{}}\Formula{\Var{Depend}}{F_1,F_2}\,\Implied\,\Formula{\Var{Cond}}{F_1,F_2},\,\Formula{\Var{IllRel}}{F_1,F_2}.\end{array}\end{equation}この規則は,依存関係\Var{Depend}が,ある条件\Var{Cond}のもとで,ある不適格性を示す関係\Var{IllRel}に解釈できることを表す.例えば,不要語と名詞文節の間の依存関係(\Rel{dep\_nonlex\_any})は,不適格な依存関係\Rel{phonRepair}(「音韻的言い直し」)に解釈できる.この際の条件としては,係り文節のよみが受け文節のよみの部分(例えば「ほん」と「ほんやく」)であることが課される.不適格な依存関係を表\,\ref{tab:Ill-formed}(付録)にあげる.ここでは,以下の5種類の不適格性を考えている.\Rel{hest}(「言い淀み」),\Rel{phonRepair}(「音韻的言い直し」),\Rel{synRepair}(「統語的言い直し」),\Rel{semRepair}(「意味的言い直し」),\Rel{rept}(「繰り返し」).\subsubsection{優先度}\label{sec:Uniform:Depend:Preference}依存関係解釈の候補のおのおのには,$[0,1]$間の実数値で表される優先度が与えられる.優先度をどのように与えるかということは,話し言葉の構文・意味解析をどのようなモデルに基づいて行なうかということとは,一応独立した問題であると考えられる.しかし,本手法の有効性を検証するために,我々は一つの優先度計算法を実験システムに実装した.以下では,これについて簡単に説明する.詳細は別稿\cite{伝:言処-投稿中}を参照されたい.我々の優先度計算法は,{\bfコーパス}に基づく(corpus-based)手法である.優先度は,その依存関係解釈が学習データ中でどのくらいの頻度で生じているかに応じて与える.すなわち,係り文節$\alpha$と受け文節$\beta$の間の依存関係解釈$\pi$の優先度$P(\pi,\alpha,\beta)$は,次式で与えられる.\begin{equation}\label{eq:Preference}P(\pi,\alpha,\beta)=\frac{\mbox{\Formula{$\pi$}{\alpha,\beta}の頻度}}{\sum_{p,x,y}\mbox{\Formula{$p$}{x,y}の頻度}}\end{equation}分子は係\hspace{-0.1mm}り\hspace{-0.1mm}文節$\alpha$\hspace{-0.2mm}と受け文節$\beta$\hspace{-0.1mm}の間に解釈$\pi$\hspace{-0.1mm}を持つ事例(\Formula{$\pi$}{\alpha,\beta}で表す)\hspace{-0.1mm}の頻度であり,\hspace{-0.5mm}分母は学\\習データ中のすべての事例の頻度の総和である.しかし,このままでは学習データの希薄性(data-sparseness)の問題を避けられないので,分子の\,\Formula{$\pi$}{\alpha,\beta}\,の頻度を計算する際に,完全に一致する事例だけでなく類似した事例の頻度も考慮する.例えば,\Formula{\Rel{obje}}{翻訳,入れる}\,の頻度を計算する際に,これと類似した事例\,\Formula{\Rel{obje}}{通訳,行なう}\,が学習データ中にあれば,その頻度を考慮に入れるという具合である.不適格な依存関係についても,例えば,言い直しのパターンの間の類似性を定義し,上と同じ方法で優先度の計算を行なう.類似性の定義などの詳細についてはここでは省略する.\subsection{最適解選択}\label{sec:Uniform:Best}最適解選択は,すべての可能な依存構造と依存関係解釈の候補から,最も優先度が大きくなる組合せをみつけ,文全体の依存構造と依存関係解釈を出力する(格構造はそこから生成できる). \section{評価} label{sec:Evaluation}\subsection{解析の実例}\label{sec:Evaluation:Example}以下では,本手法による構文・意味解析の実例をあげる.例文はいずれもATR対話データベース(ADD)\,\cite{江原:ATR-TR-I-0186}からとったものである.\begin{Ex}\label{Ex:Example1}\rm\\begin{description}\item[入力]あの,会議ではもちろん通訳,翻訳も入れます.\item[出力][\DP{loct\&de}\SS{[\DP{hest}あの\Q会議では]\\\relax[\DP{advRel\&renyo}\SS{もちろん\\\relax[\DP{obje\&accAct}[\DP{semRepair}通訳\Q翻訳も]\Q入れます]]]}}\end{description}\end{Ex}この文は言い淀み(「あの」)と言い直し(「通訳」$\to$「翻訳も」)を含む.冗長語「あの」は直後の文節「会議では」に対して不適格な依存関係\Rel{hest}で係る.これはすべての言い淀みに共通した構造である.この文の言い直しは,意味的な原因で生じており,不適格な依存関係\Rel{semRepair}が付与される.構造規則(\ref{eq:Struct})により,言い直しの訂正部分「翻訳も」が主要部として上位の構造に伝わることに注意せよ.これは,日本語においては,不適格性による構造も含めて,主要部後置の性質が成り立つことを意味する.\begin{Ex}\label{Ex:Example2}\rm\\begin{description}\item[入力]あのー,言語学関係の方からのスピーチ,スピー,スピー,スピーチのですね,申し込み\item[出力][\DP{from\&karano}\SS{[\DP{in\&gen}[\DP{hest}あのー\Q言語学関係の]\Q方からの]\\\relax[\DP{of\&gen}\SS{[\DP{synRepair}\SS{スピーチ\\\relax[\DP{phonRepair}\SS{スピー\\\relax[\DP{phonRepair}スピー\Qスピーチのですね]]]}}\\\relax申し込み]]}}\end{description}\end{Ex}この文では言い直しが3つ連続して生じている(「スピーチ」「スピー」「スピー」$\to$「スピーチのですね」).これらはすべて訂正部分に係るように分析される.その結果,連続する言い直しの部分は右分岐構造をなす.これは,日本語の適格文の標準的な構造に合致する.\begin{Ex}\label{Ex:Example3}\rm\\begin{description}\item[入力]えーっと,受領の通知は,受け取りの通知は十二月三十一日までに出させていただきます.\item[出力][\DP{obje\&accAct}\SS{[\DP{rept}\SS{[\DP{of\&gen}[\DP{hest}えーっと\Q受領の]\Q通知は]\\\relax[\DP{of\&gen}受け取りの\Q通知は]]}\\\relax[\DP{tlim\&madeni}十二月三十一日までに\Q出させていただきます]]}\end{description}\end{Ex}この文の言い直し(「受領の通知は」$\to$「受け取りの通知は」)では,修復対象が単一の文節ではなく,複数の文節である.しかし,修復対象の内部が適格な構造([\DP{of\&gen}受領の通知は])をなしているため,係り受け解析を拡張した本手法では,大域的なマッチング\cite{Kikui:ICSLP94-915}を用いることなく,修復対象の範囲を同定できる.修復対象の内部構造の適格性は,日本語においては,多くの場合に成り立つと予想される.実際,ADDの10対話を分析したところ,修復対象が(冗長語を除いて)2文節以上ある言い直し(14例)のすべてについて,適格な内部構造を与えることができた.\begin{Ex}\label{Eq:Example4}\rm\\begin{description}\item[入力]国際電話の,どうじ,コンピュータによる通訳,コンピュータによる同時通訳に関する,あのー,会議\item[出力]\SS{[\DP{on\&nikansuru}\\\QQ[\DP{of\&gen}\SS{国際電話の\\\relax[\DP{phonRepair}\SS{どうじ\\\relax[\DP{semRepair}\SS{[\DP{by\&niyoru}コンピュータによる\Q通訳]\\\relax[\DP{by\&niyoru}コンピュータによる\Q同時通訳に関する]]]]}}}\\\QQ[\DP{hest}あのー\Q会議]]}\end{description}\end{Ex}この文では,言い直しが2つ連続して生じており(「どうじ」「コンピュータによる通訳」$\to$「コンピュータによる同時通訳に関する」),かつ,2番めの言い直しの修復対象は複数の文節である.さらに,言い直しの直前の文節「国際電話の」は2つの言い直しをはさんで「コンピュータによる同時通訳に関する」に係る.この例は一見かなり複雑にみえるが,上のように問題なく依存構造が与えられる.このような複雑な例でもうまく扱えるということは,係り受け解析を拡張した本手法の一般性を示しているといえる.\subsection{実験システムの性能}\label{sec:Evaluation:Experiment}本手法の有効性を定量的に検証するために,実験システムを作成した.優先度の計算法としては,\ref{sec:Uniform:Depend:Preference}\,節で概略を述べたものを用いた.実験は,ADDの10対話(662文)を対象として,交差検定(crossvalidation)で行なった.実験の詳細については,別稿\cite{伝:言処-投稿中}を参照されたい.実験の結果,依存関係解釈の正解率は66\%,文全体の解釈の正解率は49\%であった(人手で付与したものと完全に一致したときのみ正解).不適格性の検出・修正だけでなく,構文・意味解析の総合性能を評価していることを考えると,悪くない成績といえる.一方,言い直しに注目すると,統語的言い直しでは再現率90\%,適合率47\%,意味的言い直しでは再現率88\%,適合率32\%であった(音韻的言い直しでは,修復対象と適正な語との曖昧性が生じなかったために,再現率,適合率ともに100\%であった).さらに,言い直しの解析の適合率の低さが統一モデルに起因するものかどうか調べるために,この手法を二段階モデルに組み込んで比較した.すなわち,言い直しに対する解釈規則を除いた規則群で第一段階の解析を行ない,それが失敗した場合に,言い直しに対する解釈規則を加えて再解析を行なう.この結果,適合率は,統語的言い直しでは75\%と大きく改善されたが,意味的言い直しでは33\%に改善されたに過ぎなかった.逆に,再現率はそれぞれ,30\%,12\%と大きく低下した.これは,言い直しの多くが適格文として誤って解析されたことを表し(事実,適格な依存関係の解析の適合率が二段階モデルでは低下した),\citeA{佐川:IPSJ-NL-94-100-73}が観察した不適格文と適格文との曖昧性が二段階モデルでは大きな問題となることがわかった.これに対し,統一モデルでは,音響的・韻律的情報を用いることによって,誤って言い直しと判断される例を除去できる可能性がある\cite{O'Shaughnessy:ICSLP92-931,Nakatani:ACL93-46}.\subsection{適用範囲}\label{sec:Evaluation:Limitation}本研究のターゲットである言い淀み,言い直し,繰り返し,助詞省略のうち,本手法では扱えないものを以下にあげる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item\label{Limitation:1}文節の途中で生じた言い淀みや言い直しは扱えない.例えば,(\ref{eq:Limitation1})では,冗長語「あのー」が文節「こちらが」の途中で生じている.(\ref{eq:Limitation2})では,言い直しの訂正が文節の途中から生じている.(\ref{eq:Limitation3})では,助詞を含む文節全体(「アブストラクトが」)の代わりに助詞(「が」)だけが言い換えられている.\enumsentence{\label{eq:Limitation1}こちら,{\bfあのー},が朝食の,えー,お値段.}\enumsentence{\label{eq:Limitation2}えーと,この時点で,提出していただく{\bfだく}のは}\enumsentence{\label{eq:Limitation3}あのー,アブストラクト{\bfを}があれば}ADDの613対話に対する粗い見積りでは,言い淀み,言い直しが文節の途中で生じる割合は,それぞれ,0.15\%,3.7\%であった.後者の半数は助詞の言い換えである.\item\label{Limitation:2}複合的な原因によって生じた言い直しは扱えない.例えば,(\ref{eq:Limitation4})は,音韻的な原因と意味的な原因が複合した言い直しと考えられる(「おおさ」は「大阪」の発語を中断したものであり,かつ,「大阪」自体も「京都」を言い誤ったものである).\enumsentence{\label{eq:Limitation4}東京から,{\bfおおさ},えー,京都まで}\item\label{Limitation:3}修復対象が2文節以上ある言い直しのうち,主要部が中断語であるものは扱えない.例えば,(\ref{eq:Limitation5})では,修復対象「これはきん」の主要部「きん」は訂正部分の主要部「禁ぜられています」の中断語であると思われるが,「きん」が不要語になってしまうため,修復対象の内部構造を正しく解析できない.\enumsentence{\label{eq:Limitation5}{\bfこれはきん},えー,一応,これは,えー,禁ぜられていますんで}\end{enumerate}(\ref{Limitation:1})は,係り受け解析を基本とする本手法とは別に扱う必要がある.(\ref{Limitation:2}),(\ref{Limitation:3})は,中断語の扱いに関する問題点であり,今後検討したい. \section{従来の手法との比較} label{sec:Comparison}不適格文を扱う手法の研究は,\ref{sec:Intro}\,節で述べたように,(A)\,不適格性を扱う個別的な手法,(B-1)\,二段階モデルに基づく一般的な手法,(B-2)\,統一モデルに基づく一般的な手法の3つのアプローチに大別できる.これらと本稿の手法との比較を述べる.不適格性を扱う個別的な手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46,山本:情処論-33-11-1322}においては,言い直しの扱いなどが他の構文・意味解析過程とは独立して論ぜられている.これらの中には,再現率・適合率による評価において,本稿の手法より優れているものもある(例えば,\citeA{Nakatani:ACL93-46}は言い直しの検出で再現率83\%と適合率94\%を達成している)が,これらの手法を構文・意味解析システムに組み込んだときにどれだけ有効かは明らかでない\footnote{\citeauthor{Bear:ACL92-56}は後の報告\cite{Dowding:ACL93-54}において,言い直しの処理を構文・意味解析システムに組み込んだ際の再現率・適合率がそれぞれ30\%,62\%であったとしている.}.特に,\ref{sec:Ill-formed:Repair}\,節で述べたように,日本語においては適格文と不適格文の曖昧性が生じる場合が多いので,不適格性の処理を構文・意味解析過程の中にうまく組み込む方法を考えることがとりわけ重要である.一方,不適格性を扱う一般的な手法を話し言葉の不適格性の扱いに具体的に適用した研究は見られない.二段階モデルに基づく手法\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193,Weischedel:CL-9-3-161,Mellish:ACL89-102}の中には,話し言葉の処理に適用できそうなものもある(例えば,チャート法の拡張によって文中の余分な語の削除や欠落している語の挿入を行なう\citeA{Mellish:ACL89-102}の手法)が,具体例がないのでその有効範囲は明らかでない.また,統一モデルに基づく手法\cite{Fass:CL-9-3-178,Hobbs:AI-63-69}は,動作原理と簡単な例の提示に留まっており,本稿で示したような広範囲な実例への適用については述べられていない.本稿の手法は,既存の統一モデルに基づく手法からアイデアを借用している部分もある(例えば,確定節による規則の記述とアブダクションによる解釈は\citeA{Hobbs:AI-63-69}のモデルの拡張である)が,話し言葉の不適格性を扱うための具体的な規則や優先度計算の具体的な手法を与えている点において,既存の手法に優る.まとめると,本稿の手法は,不適格性を扱うための具体的な方法を与えつつ,特定の不適格性の扱いにとどまらず構文・意味解析過程全体を考慮した手法を実現している点が,従来の手法に対して優れているといえる. \section{おわりに} label{sec:Conclude}本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べた.本手法は,適格文と不適格文を統一的に扱う統一モデルに基づいており,具体的には,係り受け解析の拡張によって実現されている.本稿では,まず,音声対話コーパスからの実例をあげながら統一モデルの必要性を述べ,次に,本手法の詳細を説明した後,その有効性を解析の実例をあげるとともに実験システムの性能を評価することで示した.その結果,さまざまな不適格性を含む複雑な話し言葉の文が,係り受け解析を基本とする本手法によってうまく扱えることが示され,さらに,定量的にも,試験文の約半数に完全に正しい依存構造が与えられることが示された.今後の課題としては,適用範囲の拡大とともに,音響的・韻律的情報を利用した不適格性の解析の高精度化があげられる.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{伝康晴}{1988年京都大学工学部電気工学第二学科卒業.1993年同大学大学院博士後期課程研究指導認定退学.京都大学博士(工学).1991年より2年間ATR自動翻訳電話研究所滞在研究員.1993年国際電気通信基礎技術研究所入社,ATR音声翻訳通信研究所研究員.1996年10月より奈良先端科学技術大学院大学情報科学研究科助教授,現在に至る.計算言語学,認知科学の研究に従事.日本認知科学会,日本ソフトウェア科学会,人工知能学会,情報処理学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\appendix\begin{table}[h]\caption{非終端記号}\label{tab:Sym}\smallskip\centering\begin{tabular}{|c|l|}\hline\Var{Sym}&\hfil統語範疇\\\hline\hline\Rel{nonlex}&不要語\\\hline\Rel{adn}&連体詞\\\hline\Rel{adv}&副詞\\\hline\Rel{n}&普通名詞,固有名詞などの名詞類\\\hline\Rel{v}&が動詞,がを動詞,が形容詞などの動詞類\\\hline\Rel{n\_v}&名詞類+繋辞\\\hline\Rel{v\_n}&動詞類+補文標識\\\hline\Rel{n\_v\_n}&名詞類+繋辞+補文標識\\\hline\Rel{v\_n\_v}&動詞類+補文標識+繋辞\\\hline\end{tabular}\end{table}\begin{table}[h]\caption{依存構造における係り文節と受け文節の組合せ}\label{tab:Struct}\vspace*{-\bigskipamount}\centering\begin{tabular}[t]{|c|c|c|}\hline\Var{Sym1}&\Var{Sym2}&\Var{Depend}\\\hline\hline\Rel{nonlex}&\Rel{nonlex}&\Rel{dep\_nonlex\_nonlex}\\\hline\Rel{nonlex}&\Rel{adn},\Rel{adv},\Rel{n},\Rel{n\_v},\Rel{n\_v\_n},\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_nonlex\_any}\\\hline\Rel{adn}&\Rel{adn}&\Rel{dep\_adn\_adn}\\\hline\Rel{adn}&\Rel{n},\Rel{n\_v},\Rel{n\_v\_n}\,のいずれか&\Rel{dep\_adn\_n}\\\hline\Rel{adv}&\Rel{adv}&\Rel{dep\_adv\_adv}\\\hline\Rel{adv}&\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_adv\_v}\\\hline\Rel{n}&\Rel{n},\Rel{n\_v},\Rel{n\_v\_n}\,のいずれか&\Rel{dep\_n\_n}\\\hline\Rel{n}&\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_n\_v}\\\hline\Rel{v}&\Rel{n},\Rel{n\_v},\Rel{n\_v\_n}\,のいずれか&\Rel{dep\_v\_n}\\\hline\Rel{v}&\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_v\_v}\\\hline\end{tabular}\end{table}\begin{table}[h]\caption{適格な依存関係に関する解釈(一部)}\label{tab:Well-formed}\smallskip\centering\begin{tabular}{|c|c|c||l|}\hline\Var{Depend}&\Var{SemRel}&\Var{SynRel}&\hfil例\\\hline\hline\Rel{dep\_adn\_n}&\Rel{adnRel}&\Rel{rentai}&\Pair{この,\,会議}\\\hline\Rel{dep\_adv\_v}&\Rel{advRel}&\Rel{renyo}&\Pair{多分,\,簡単だ}\\\hline&\Rel{of}&\Rel{gen}&\Pair{日本の,\,首相}\\\cline{2-4}\Rel{dep\_n\_n}&\Rel{in}&\Rel{gen}&\Pair{京都の,\,ホテル}\\\cline{2-4}&\Rel{from}&\Rel{karano}&\Pair{大学からの,\,参加者}\\\hline&\Rel{agen}&\Rel{nomAct}&\Pair{学生が,\,研究する}\\\cline{2-4}&\Rel{obje}&\Rel{nomAct}&\Pair{会議が,\,興味深い}\\\cline{2-4}\Rel{dep\_n\_v}&\Rel{obje}&\Rel{accAct}&\Pair{日本語を,\,話す}\\\cline{2-4}&\Rel{obje}&\Rel{nomPass}&\Pair{日本語が,\,話される}\\\cline{2-4}&\Rel{loct}&\Rel{de}&\Pair{大学で,\,研究する}\\\hline\Rel{dep\_v\_n}&\Rel{that}&\Rel{toiu}&\Pair{分析するという,\,研究}\\\hline\Rel{dep\_v\_v}&\Rel{caus}&\Rel{node}&\Pair{興味深いので,\,聞く}\\\hline\end{tabular}\end{table}\begin{table}[h]\caption{不適格な依存関係に関する解釈}\label{tab:Ill-formed}\smallskip\centering\begin{tabular}{|c|c||l|}\hline\Var{Depend}&\Var{IllRel}&\hfil例\\\hline\hline\Rel{dep\_nonlex\_nonlex}&\Rel{hest}&\Pair{えーっと,\,あのー}\\\hline\Rel{dep\_nonlex\_any}&\Rel{hest}&\Pair{えーっと,\,そちら}\\\cline{2-3}&\Rel{phonRepair}&\Pair{つう,\,通訳電話}\\\hline\Rel{dep\_adn\_adn}&\Rel{semRepair}&\Pair{同じ,\,同一}\\\hline\Rel{dep\_adv\_adv}&\Rel{semRepair}&\Pair{直接に,\,簡単に}\\\hline&\Rel{synRepair}&\Pair{カードを,\,カードの}\\\cline{2-3}\Rel{dep\_n\_n}&\Rel{semRepair}&\Pair{通訳,\,翻訳}\\\cline{2-3}&\Rel{rept}&\Pair{通知は,\,通知は}\\\hline&\Rel{synRepair}&\Pair{持ち込んで,\,持ち込んでいただいて}\\\cline{2-3}\Rel{dep\_v\_v}&\Rel{semRepair}&\Pair{つもりです,\,予定です}\\\cline{2-3}&\Rel{rept}&\Pair{行くと,\,行くと}\\\hline\end{tabular}\end{table}\end{document}
V05N03-05
\section{はじめに} \label{sec:intro}コーパス,辞書,シソーラスなどの機械可読な言語データの整備が進んだことから,自然言語処理における様々な問題の解決に何らかの統計情報を利用した研究が盛んに行われている.特に構文解析の分野においては,構文的な統計情報だけでなく,単語の出現頻度や単語の共起関係といった語彙的な統計情報を利用して解析精度を向上させた研究例が数多く報告されている\cite{schabes:92:a,magerman:95:a,hogenout:96:a,li:96:a,charniak:97:a,collins:97:a}.ここで問題となるのは,このような語彙的な統計情報を構文的な統計情報とどのように組み合わせるかということである.このとき,我々は以下の2つの点が重要であると考える.\begin{itemize}\item解析結果の候補に与えるスコアが,構文的な統計情報のみを反映したスコアと語彙的な統計情報のみを反映したスコアから構成的に計算できることこのことによる利点を以下に挙げる.\begin{itemize}\item個々の統計情報を個別に学習できる構文的な統計情報を学習する際には,学習用言語資源として比較的作成コストの高い構文構造が付加されたコーパスが必要となる\footnote{Inside-Outsideアルゴリズム\cite{lari:90:a}に代表されるようなEMアルゴリズムを用いて,構文構造が付加されていないコーパスから構文的な統計情報を学習する研究も行われている.しかしながら,このような教師なしの学習は一般に精度が悪く,現時点では構文構造が付加されたコーパスを利用した方が品質の良い統計情報を学習できると考えられる.}.しかしながら,推定パラメタの数はそれほど多くはないので,比較的少ないデータ量で学習することができる.これに対して,語彙的な統計情報は,単語の共起に関する統計情報を学習しなければならないために大量の学習用データを必要とするが,構文構造付きコーパスに比べて作成コストの低い品詞付きコーパスを用いても学習することが十分可能である.このように,統計情報の種類によって学習に要する言語資源の質・量は大きく異なる.そこで,構文的な統計情報と語彙的な統計情報を異なる言語資源を用いて個別に学習できるように,それぞれの統計情報の独立性を保持しておくことが望ましい.\item曖昧性解消時における個々の統計情報の働きを容易に理解することができる例えば,曖昧性解消に失敗した場合には,構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,どちらの統計情報が不適切であるかを容易に判断することができる.\end{itemize}\item個々の統計情報を反映したスコアが確率的意味を持っていること構文的な統計情報を反映したスコアと語彙的な統計情報を反映したスコアを組み合わせて全体のスコアとする場合,両者のスコアの和を計算すればいいのか,積を計算すればいいのか,またどちらか片方に重みを置かなければならないのかなど,その最適な組み合わせ方は自明ではない.このとき,個々のスコアが確率的意味を持つように学習することにより,確率の積としてそれらを自然に組み合わせることができる.\end{itemize}ところが,語彙的な統計情報を利用して構文解析の精度を向上させる過去の研究の多くは以上の条件を満たしていない.例えば田辺らは,確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFG)における書き換え規則の非終端記号に,その非終端記号が支配する句の主辞となる単語を付加すること(以下,これをPCFGの語彙化と呼ぶ)によって語彙的従属関係をPCFGの確率モデルに反映させる方法を提案している~\cite{tanabe:95:a}.一方,英語を対象にPCFGを語彙化した研究としてはHogenoutら~\cite{hogenout:96:a},Charniak~\cite{charniak:97:a},Collins~\cite{collins:97:a}によるものがある.しかしながら,PCFGの語彙化によって構文的な統計情報と語彙的な統計情報を組み合わせる方法は,非終端記号に単語を付加することによって規則数が組み合わせ的に増大し,推定するパラメタ数も非常に多くなるといった問題点がある.また,構文的な統計情報と語彙的な統計情報を同時に学習するモデルとなっているが,先ほど述べたように両者は独立に学習できることが望ましい.PCFGをベースとしないSPATTERパーザ~\cite{magerman:95:a}やSLTAG~\cite{schabes:92:a,resnik:92:b}にも同様の問題が存在する.これらの研究は語彙的な統計情報を利用して解析精度の向上を図ってはいるが,構文的な統計情報と独立に学習する枠組にはなっていない.構文的な統計情報と語彙的な統計情報を独立に学習する枠組としてはLiによるものが挙げられる~\cite{li:96:a,li:96:b}.Liは,解析結果の候補$I$に対して,構文的な統計情報を反映させた確率モデル$P_{syn}(I)$と単語の共起関係を反映させた確率モデル$P_{lex}(I)$を別々に学習する方法を提案している.そして,語彙的な制約は構文的な制約に優先するといった心理言語学原理に基づき,まず$P_{lex}(I)$を$I$のスコアとして用い,一位とそれ以外の候補のスコアの差が十分に大きくなかった場合に限り$P_{syn}(I)$をスコアとして用いている.すなわち,構文的な統計情報と語彙的な統計情報をそれぞれ独立に学習してはいるが,これらを同時に利用して曖昧性解消を行っているわけではない.また,この2つのスコアの持つ確率的意味が不明確であり\footnote{$P_{syn}(I)$,$P_{lex}(I)$は確率と呼ばれてはいるが,どのような事象に対する確率なのかは不明である.},その最適な組み合わせ方は自明ではない.本研究では,構文的な統計情報と語彙的な統計情報を組み合わせる一方法として,統合的確率言語モデルを提案する~\cite{inui:97:b,inui:97:e,sirai:96:a}.この統合的確率言語モデルの特徴は,単語の出現頻度,および単語の共起関係といった2つの語彙的な統計情報を局所化し,構文的な統計情報と独立に取り扱う点にある.また,構文的な統計情報を構文構造の生成確率として,語彙的な統計情報を単語列の生成確率としてそれぞれ学習し,これらの積を解析結果の候補に対するスコアとすることにより,曖昧性解消に両者を同時に利用することができる.この統合的確率言語モデルの詳細については\ref{sec:model}節で述べる.\ref{sec:exp-stat}節ではこの統合的確率言語モデルの学習,およびそれを用いた日本語文の文節の係り受け解析実験について述べる.最後に\ref{sec:conclusion}節で結論と今後の課題について述べる. \section{統合的確率言語モデル} \label{sec:model}まず,本論文で一貫して用いる記号について説明する.\begin{itemize}\item入力文字列$A=a_1,\cdots,a_m$\item$A$を生成する単語列$W=w_1,\cdots,w_n$\item$W$を生成する品詞列$L=l_1,\cdots,l_n$\item$L$を生成する構文構造$R$\end{itemize}本研究では,形態素解析と構文解析を同時に取り扱うことを仮定する.すなわち,入力文字列$A$が与えられたときに,その正しい単語列$W$,正しい品詞列$L$,正しい構文構造$R$を求めることを目的とする.例えば,「彼女がパイを食べた」という入力文に対する解析結果の候補の例を図\ref{fig:examsent}に示す.\begin{figure}[htbp]\begin{center}\leavevmode\atari(91,37)\caption{例文``彼女がパイを食べた''とその解析結果}\label{fig:examsent}\end{center}\end{figure}各解析結果の候補に対してその生成確率$P(R,L,W,A)$を計算し,これが最大の解析結果を選択することによって曖昧性解消を行う.さらに,確率モデル$P(R,L,W,A)$を以下のように分解する.\begin{equation}\label{eq:model-org}P(R,L,W,A)=P(R)\cdotP(L|R)\cdotP(W|L,R)\cdotP(A|W,L,R)\end{equation}ここで,構文構造$R$は最終的に品詞列$L$を生成するものと仮定すると,$P(L|R)=1$となる(図\ref{fig:examsent}参照).また,単語列$W$が決まれば入力文字列$A$は一意に決まるので,$P(A|W)=1$となる.したがって,式(\ref{eq:model-org})は以下のように簡略化できる.\begin{equation}\label{eq:model}P(R,L,W,A)=P(R)\cdotP(W|R)\end{equation}本研究では,式(\ref{eq:model})に示した通り,解析結果の生成確率を以下の2つの確率モデルの積として計算する.\begin{enumerate}\item構文モデル$P(R)$構文構造$R$の生成確率である.この確率モデルには構文的な統計情報を反映させる.\item語彙モデル$P(W|R)$構文構造$R$が与えられたときに,それから単語列$W$を生成する確率である.この語彙モデルには語彙的な統計情報を反映させる.\end{enumerate}\subsection{構文モデル$P(R)$}\label{sec:syn-model}構文モデルとしては,構文的な統計情報を反映し,かつ構文構造$R$の生成確率を高い精度で推定するものであれば,どのような確率モデルを利用してもよい.構文モデルに利用できる確率モデルとしては,PCFGや確率一般化LR法(ProbabilisticGeneralizedLRMethod,以下PGLR)などが挙げられる.我々は,PGLRを構文モデルの有力な候補として考えている.PGLRとは,構文解析手法のひとつである一般化LR法を拡張したものである.PGLRは,LR表に記述された各状態遷移の遷移確率を推定し,その遷移確率の積によって1つの状態遷移列,すなわちそれに対応する構文構造の生成確率を与えるモデルである\footnote{一般化LR法に確率を組み込む試みには様々なものがあるが~\cite{wright:90:a,ng:91:a,briscoe:93:a},本研究におけるPGLRとはInuiらによるモデル~\cite{inui:97:d,virach:97:c}を指す.}.このPGLRはPCFGに比べて,次のような特長を持つ~\cite{inui:97:d}.\begin{itemize}\item文脈依存性を取り扱うことができる.\item隣接する品詞間の共起関係を取り扱うことができる.\item距離に関する優先度を取り扱うことができる.\end{itemize}ここで,隣接する品詞間の共起関係とは,品詞bi-gramのような品詞列の出現に関する統計情報であり,形態素解析の曖昧性解消に有効であると考えられる.また,距離に関する優先度とは,単語はなるべく近い単語に係りやすいといった,係り受け関係にある単語間の距離に関する統計情報である.\subsection{語彙モデル$P(W|R)$}\label{sec:lex-model}語彙モデルは,品詞列$L$を末端とする構文構造$R$が与えられたときに,それから単語列$W$を生成する確率である.この語彙モデルは,式(\ref{eq:lex-model-org})のような各単語$w_i$の生成確率の積として計算することができる.\begin{equation}\label{eq:lex-model-org}P(W|R)=\prod_{w_i}P(w_i|R,w_1,\cdots,w_{i-1})\end{equation}例えば,図\ref{fig:examsent}の例において,単語を文の後ろから順番に生成していくと仮定すると,語彙モデル$P(W|R)$は以下のような単語の生成確率の積として計算できる.\begin{eqnarray}P(W|R)&=&P(彼女,が,パイ,を,食べ,た|R)\\\label{eq:der1-ta}&=&P(た|R)\cdot\\\label{eq:der1-tabe}&&P(食べ|R,た)\cdot\\\label{eq:der1-o}&&P(を|R,食べ,た)\cdot\\\label{eq:der1-pai}&&P(パイ|R,を,食べ,た)\cdot\\\label{eq:der1-ga}&&P(が|R,パイ,を,食べ,た)\cdot\\\label{eq:der1-kanojo}&&P(彼女|R,が,パイ,を,食べ,た)\end{eqnarray}\subsubsection{単語生成文脈}\label{eq:lexical-context}式(\ref{eq:lex-model-org})の各項(図\ref{fig:examsent}の例では式(\ref{eq:der1-ta})〜(\ref{eq:der1-kanojo}))のパラメタ空間は非常に大きく,これを直接学習することは一般に不可能である.ところが,各単語$w_i$の生成に強く影響するのは各項の確率の前件$R,w_1,\cdots,w_{i-1}$全てではなく,その一部のみであると考えられる.例えば,図\ref{fig:examsent}の例文において,``パイ''は動詞``食べ''のヲ格の格要素となっている.このとき,``パイ''という単語を生成する際には,式(\ref{eq:der1-pai})の前件``$R,を,食べ,た$''(図\ref{fig:lc-pai}の斜線部)のうち,品詞$N$と単語``を'',``食べ''(図\ref{fig:lc-pai}の丸で囲まれた部分)によって十分近似できると期待できる(式(\ref{eq:lc-pai1})).\begin{equation}\label{eq:lc-pai1}P(パイ|R,を,食べ,た)\simeqP(パイ|N[\slot{食べ}{を}])\end{equation}\begin{figure}[htbp]\begin{center}\leavevmode\atari(78,29)\caption{``パイ''を生成するときの単語生成文脈}\label{fig:lc-pai}\end{center}\end{figure}\noindent式(\ref{eq:lc-pai1})において,$N[\slot{食べ}{を}]$は,``食べ''という動詞のヲ格の格要素となっている名詞を表わしている.すなわち,$P(パイ|N[\slot{食べ}{を}])$は,``食べ''という動詞のヲ格の格要素となっている名詞から``パイ''という単語が生成される確率を表わしている.したがって,式(\ref{eq:lc-pai1})には,``パイ''という単語そのものがどれくらい出現しやすいかといった単語の出現頻度と,``パイ''と``食べ''がどの程度共起しやすいかといった単語の共起関係が反映されている.ここで,単語生成文脈$c_i$を以下のように定義する.\begin{quote}単語$w_i$の単語生成文脈$c_i$とは,$w_i$の生成確率の前件$R,w_1,\cdots,w_{i-1}$から$w_i$の生成に強く影響する部分のみを取り出したものである.\end{quote}先ほどの例においては,単語``パイ''の単語生成文脈は``$\slot{食べ}{を}$''である.そして,各単語$w_i$の生成確率の前件``$R,w_1,\cdots,w_{i-1}$''を,その単語の品詞$l_i$と単語生成文脈$c_i$に縮退することにより,語彙モデル$P(W|R)$を以下のように近似する.\begin{eqnarray}\nonumberP(W|R)&=&\prod_{w_i}P(w_i|R,w_1,\cdots,w_{i-1})\\\label{eq:lex-model}&\simeq&\prod_{w_i}P(w_i|l_i[c_i])\end{eqnarray}\subsubsection{単語生成文脈決定規則}\label{sec:lc-rule}単語生成文脈を導入する際に問題となるのは,どのような単語に対してどのような単語生成文脈を選べばよいのかということである.我々は,これを人手で作成した規則によって記述する.以下,単語$w_i$の単語生成文脈$c_i$を決定する規則を単語生成文脈決定規則と呼ぶ.単語生成文脈決定規則の例を以下に挙げる.\begin{itemize}\item単語の共起関係を全く考慮しない場合単語$w_i$について,周囲の単語との従属関係を考慮しない場合には,その単語の生成確率はその単語の品詞$l_i$のみに依存するとみなす.例えば,図\ref{fig:examsent}の例において,助動詞``た''と動詞``食べ''を生成する際に他の単語との語彙的従属関係を考えない場合には,それぞれの生成確率(\ref{eq:der1-ta}),(\ref{eq:der1-tabe})は以下のように近似すればよい.\begin{eqnarray}\label{eq:der2-ta}P(た|R)&\simeq&P(た|AUX)\\\label{eq:der2-tabe}P(食べ|R,た)&\simeq&P(食べ|V)\end{eqnarray}これに対応した単語生成文脈決定規則を以下に示す.この規則は単語生成文脈を決定する際のデフォルト規則でもある.\bigskip\begin{lcdef}{lc:default}単語$w_i$を生成する際に他の単語との従属関係を考慮しない場合には,単語$w_i$の単語生成文脈$c_i$を空とする.\end{lcdef}\bigskip\item格要素となる名詞が助詞を介して動詞に係る際の従属関係を考慮する場合前述のように,格要素となる名詞が助詞を介して動詞に係る際には,動詞・助詞の組と名詞との間には語彙的従属関係が存在する.このような語彙的従属関係を確率モデルに反映させるために\lcrule{lc:filler}を定義する.\bigskip\begin{lcdef}{lc:filler}単語$w_i$の品詞$l_i$が$N$(名詞)であり,かつ助詞$p$を介して動詞$v$に係っているとき,単語$w_i$の単語生成文脈$c_i$を$\slot{v}{p}$とする.このとき,$w_i$の生成確率$P(w_i|N[\slot{v}{p}])$は動詞$v$の格$p$の格要素となる名詞$N$から単語$w_i$が生成される確率を表わす.\end{lcdef}\bigskip例えば,図\ref{fig:examsent}の例において,名詞``パイ''は動詞``食べ''のヲ格の格要素であり,名詞``彼女''は動詞``食べ''のガ格の格要素となっている.したがって,これらの単語を生成する際にはこの規則が適用され,それぞれの生成確率(\ref{eq:der1-pai}),(\ref{eq:der1-kanojo})は以下のように近似される.\begin{eqnarray}\label{eq:der2-pai}P(パイ|R,を,食べ,た)&\simeq&P(パイ|N[\slot{食べ}{を}])\\\label{eq:der2-kanojo}P(彼女|R,が,パイ,を,食べ,た)&\simeq&P(彼女|N[\slot{食べ}{が}])\end{eqnarray}\item助詞とその係り先用言の従属関係,格間の従属関係を考慮する場合図\ref{fig:examsent}の例文においては,2つの助詞``が''と``を''が動詞``食べ''に係っている.このとき,これらの生成確率(\ref{eq:der1-o}),(\ref{eq:der1-ga})を以下のように近似しても,助詞とその係り先用言との間の語彙的従属関係,および同じ用言に係る助詞同士の従属関係(以下,これを格間の従属関係と呼ぶ)を語彙モデルに反映させることができる.\begin{eqnarray}\label{eq:der2-o}P(を|R,食べ,た)&\simeq&P(を|P[\head{食べ}{2}{\phi_1,\phi_2}])\\\label{eq:der2-ga}P(が|R,パイ,を,食べ,た)&\simeq&P(が|P[\head{食べ}{2}{\phi_1,を}])\end{eqnarray}式(\ref{eq:der2-o})は,助詞$P$が2つの助詞の係り先となっている動詞``食べ''に係っているときに,品詞$P$から単語``を''が生成される確率を表わしている.一方式(\ref{eq:der2-ga})は,助詞$P$が2つの助詞の係り先となりかつそのうちの1つは``を''である動詞``食べ''に係っているときに,品詞$P$から単語``が''が生成される確率を表わしている.助詞とその係り先用言の従属関係,および格間の従属関係を語彙モデルに導入するために,\lcrule{lc:marker}を以下のように定義する.\bigskip\begin{lcdef}{lc:marker}単語$w_i$の品詞$l_i$が$P$(助詞)でありかつ用言$h$に係っているとき,単語$w_i$の単語生成文脈$c_i$を$\head{h}{n}{\phi_1,\cdots,\phi_j,p_{j+1},\cdots,p_n}$とする.このとき,$w_i$の生成確率$P(w_i|P[\head{h}{n}{\phi_1,\cdots,\phi_j,p_{j+1},\cdots,p_n}])$は,用言$h$が$n$個の助詞の係り先となりかつ用言に近い$p_{j+1},\cdots,p_n$の助詞が既に生成されているときに,$\phi_j$として$w_i$が生成される確率を表わす.\end{lcdef}\bigskip\lcrule{lc:marker}において,同じ用言に係る助詞は用言に近いものから順番に生成されると仮定している.すなわち,助詞が出現する順序も考慮されている.\item助詞の係り先が用言か体言かを考慮する場合助詞の係り先が用言である場合と体言である場合とでは,助詞の生成確率$P(w_i|P)$の分布は著しく異なると考えられる.例えば,係り先が用言の場合には``が'',``を''などの助詞は出現しやすいが,助詞``の''は出現しにくい.これに対して,係り先が体言の場合,すなわちその助詞を含む文節が連体修飾節となっている場合には,助詞``の''が出現する場合が圧倒的に多いと予想される.したがって,助詞の生成確率$P(w_i|P)$を学習する際に,その助詞の係り先が用言もしくは体言であるかを区別しないで学習するのは望ましいことではない.これに対応するには,以下のような\lcrule{lc:josi}を定義すればよい.\bigskip\begin{lcdef}{lc:josi}単語$w_i$の品詞$l_i$が$P$(助詞)であり,かつその助詞の係り先が体言であるとき,単語$w_i$の単語生成文脈$c_i$を{\itnd\/}とする.{\itnd\/}はその助詞の係り先が体言であることを表わすシンボルである.このとき,$w_i$の生成確率$P(w_i|P[nd])$は,体言を係り先とする助詞から単語$w_i$が生成される確率を表わす.\end{lcdef}\bigskip助詞の単語生成文脈を決定する際には,助詞の係り先が用言である場合には\lcrule{lc:marker}が,助詞の係り先が体言である場合には\lcrule{lc:josi}が適用される.\end{itemize}ここに挙げた\lcrule{lc:default}〜\#\ref{lc:josi}が単語生成文脈を決定するための全ての規則というわけではない.本節では,特に用言の格関係に注目して語彙モデルに反映させるべき語彙的従属関係(単語の共起関係)の例を挙げたが,他の種類の語彙的従属関係を語彙モデルに反映させるように単語生成文脈決定規則を拡張・洗練することもできる.すなわち,語彙モデルにおいてどのような語彙的従属関係を考慮するかは,単語生成文脈決定規則の追加・変更によって柔軟に調整することが可能である.単語生成文脈として何を選択するかを自動的に学習することも考えられる\footnote{例えば,Magermanは確率の前件としてどのような素性を選択すればよいのかを決定木を用いて自動学習している~\cite{magerman:95:a}.}が,我々は言語学的知見に基づくヒューリスティクス規則によって単語生成文脈を選択する方向で研究をすすめている.なぜなら,語彙モデルにどのような種類の語彙的従属関係を反映させるかを単語生成文脈決定規則によって明確に記述することにより,モデルに反映された統計情報が曖昧性解消に有効であるかどうかなど,モデルの特性の分析を容易に行うことができるからである.\subsubsection{従属係数}\label{sec:dp}これまでは単語を生成する際に考える単語生成文脈は常に一つであると仮定していた.しかしながら,一般には,一つの単語を生成する際に複数の単語生成文脈を考慮しなければならない場合もある.\begin{figure}[tbp]\begin{center}\leavevmode\atari(106,30)\caption{並列構造を持つ例文}\label{fig:exam-coord}\end{center}\end{figure}例えば,図\ref{fig:exam-coord}の例文において,2つの文節``食べ-て''\footnote{``-''は単語の区切りを表わす.}と``出かけ-た''は並列の関係にある.したがって,この例文中の名詞``彼女''は動詞``食べ''のハ格の格要素であり\footnote{本研究では,名詞が助詞を介して用言に係る場合は常に,その名詞を用言の表層格の格要素として取り扱う.},同時に動詞``出かけ''のハ格の格要素でもある.したがって,\lcrule{lc:filler}に従えば,``彼女''という単語を生成する際の単語生成文脈としては$\slot{食べ}{は}$と$\slot{出かけ}{は}$の2つがある.このとき,``彼女''の生成確率は次のように推定することが望ましい.\begin{equation}\label{eq:der-cor1-kanojo}P(彼女|N[\slot{食べ}{は},\slot{出かけ}{は}])\end{equation}同様に,この例文中の助詞``は''は動詞``食べ''と``出かけ''の両方に係っているとみなすことができる.したがって,\lcrule{lc:marker}に従えば,``は''という単語を生成する際の単語生成文脈として$\head{食べ}{2}{\phi_1,を}$と$\head{出かけ}{2}{\phi_1,へ}$の2つがあると考えられ,``は''の生成確率も次のように推定することが望ましい.\begin{equation}\label{eq:der-cor1-wa}P(は|P[\head{食べ}{2}{\phi_1,を},\head{出かけ}{2}{\phi_1,へ}])\end{equation}ところが,式(\ref{eq:der-cor1-kanojo})や(\ref{eq:der-cor1-wa})のように複数の単語生成文脈を前件に持つ確率モデルは,推定するパラメタの数が爆発的に増大する可能性がある.そこで本研究では,複数の単語生成文脈を以下のように取り扱う.まず,説明を簡略化するために,単語$w_i$が2つの単語生成文脈$c_1$と$c_2$を持つとする.このとき,単語$w_i$の生成確率$P(w_i|l_i[c_1,c_2])$を以下のように近似する.\begin{eqnarray}P(w_i|l_i[c_1,c_2])&=&\frac{P(l_i[c_1,c_2]|w_i)\cdotP(w_i)}{P(l_i[c_1,c_2])}\\\label{eq:prove-dp-1}&=&\frac{P(l_i[c_1]|w_i)\cdotP(l_i[c_2]|l_i[c_1],w_i)\cdotP(w_i)}{P(l_i[c_1])\cdotP(l_i[c_2]|l_i[c_1])}\\\label{eq:prove-dp-2}&\simeq&\frac{P(l_i[c_1]|w_i)\cdotP(l_i[c_2]|l_i,w_i)\cdotP(w_i)}{P(l_i[c_1])\cdotP(l_i[c_2]|l_i)}\\&=&\frac{P(l_i[c_1]|w_i)}{P(l_i[c_1])}\cdot\frac{P(l_i[c_2]|l_i,w_i)}{P(l_i[c_2]|l_i)}\cdotP(w_i)\\&=&\frac{P(w_i|l_i[c_1])}{P(w_i)}\cdot\frac{P(w_i,|l_i,l_i[c_2])}{P(w_i|l_i)}\cdotP(w_i)\\\label{eq:prove-dp}&=&P(w_i|l_i)\cdot\frac{P(w_i|l_i[c_1])}{P(w_i|l_i)}\cdot\frac{P(w_i|l_i[c_2])}{P(w_i|l_i)}\end{eqnarray}式(\ref{eq:prove-dp-1})から式(\ref{eq:prove-dp-2})の変形において,2つの単語生成文脈$c_1$と$c_2$は互いに独立であると仮定している.\begin{eqnarray}P(l_i[c_2]|l_i[c_1])&\simeq&P(l_i[c_2]|l_i)\\P(l_i[c_2]|l_i[c_1],w_i)&\simeq&P(l_i[c_2]|l_i,w_i)\end{eqnarray}ここで,従属係数$D(w_i|l_i[c_i])$を式(\ref{eq:def-dp})のように定義する.\begin{equation}\label{eq:def-dp}D(w_i|l_i[c_i])=\frac{P(w_i|l_i[c_i])}{P(w_i|l_i)}\end{equation}この従属係数を用いれば,式(\ref{eq:prove-dp})から式(\ref{eq:double-dp})が導かれる.\begin{eqnarray}\label{eq:double-dp}P(w_i|l_i[c_1,c_2])&\simeq&P(w_i|l_i)\cdotD(w_i|l_i[c_1])\cdotD(w_i|l_i[c_2])\end{eqnarray}以上では単語$w_i$が2つの単語生成文脈を持つ場合を考えていたが,単語$w_i$が$n$個の単語生成文脈$c_1,\cdots,c_n$を持つ場合にも同様の近似が可能であり,最終的に以下の式が得られる.\begin{equation}\label{eq:multi-dp}P(w_i|l_i[c_1,\cdots,c_n])\simeqP(w_i|l_i)\cdot\prod_{c_i}D(w_i|l_i[c_i])\end{equation}式(\ref{eq:def-dp})で定義した従属係数$D(w_i|l_i[c_i])$は単語$w_i$と単語生成文脈$c_i$の相関関係を評価する統計量である.例えば,$w_i$と$c_i$に相関関係がない場合,すなわち$w_i$と$c_i$が互いに独立である場合には,式(\ref{eq:def-dp})の分子$P(w_i|l_i[c_i])$は分母$P(w_i|l_i)$にほぼ等しくなり,従属係数$D(w_i|l_i[c_i])$は1に近い値を取る.これに対し,$w_i$と$c_i$に正の相関関係がある場合には,単語生成文脈$c_i$を前件に加えた確率$P(w_i|l_i[c_i])$は単語生成文脈$c_i$を無視した確率$P(w_i|l_i)$よりも大きくなるので,その従属係数は1より大きい値を取る.同様に,$w_i$と$c_i$に負の相関関係がある場合には従属係数は1より小さい値を取る.複数の単語生成文脈$c_1,\cdots,c_n$の下での単語$w_i$の生成確率は,単語生成文脈を無視した単語の生成確率$P(w_i|l_i)$と,$w_i$と$c_i$の相関関係を他の単語生成文脈とは独立に評価した従属係数$D(w_i|l_i[c_i])$の積によって計算できることを式(\ref{eq:multi-dp})は示している.従属係数$D(w_i|l_i[c_i])$を他の単語生成文脈と独立に推定・学習することにより,確率モデルのパラメタ空間を推定可能な大きさに抑制することができる.例えば,図\ref{fig:exam-coord}の例において,``彼女''の生成確率(\ref{eq:der-cor1-kanojo})と``は''の生成確率(\ref{eq:der-cor1-wa})はそれぞれ以下のように推定される.\begin{eqnarray}\nonumber&&P(彼女|N[\slot{食べ}{は},\slot{出かけ}{は}])\\\label{eq:der-cor2-kanojo}&\simeq&P(彼女|N)\cdotD(彼女|N[\slot{食べ}{は})\cdotD(彼女|N[\slot{出かけ}{は}])\\[3mm]\nonumber&&P(は|P[\head{食べ}{2}{\phi_1,を},\head{出かけ}{2}{\phi_1,へ}])\\\label{eq:der-cor2-wa}&\simeq&P(は|P)\cdotD(は|P[\head{食べ}{2}{\phi_1,を}])\cdotD(は|P[\head{出かけ}{2}{\phi_1,へ}])\end{eqnarray}従属係数を導入する利点として,単語生成文脈を複数取り扱うことができるという点の他に,式(\ref{eq:lex-model-der-dp})に示すように,語彙モデル$P(W|R)$を単語の出現頻度のみを反映した$P_{cf}(W|L)$と単語の共起関係のみを反映した$D(W|R)$との積に分解できるという点が挙げられる.\begin{eqnarray}P(W|R)&\simeq&\prod_{i}P(w_i|l_i[C_{w_i}])\\&\simeq&\prod_{w_i}P(w_i|l_i)\cdot\prod_{c_{ij}\inC_{w_i}}D(w_i|l_i[c_{ij}])\\\label{eq:lex-model-der-dp}&=&P_{cf}(W|L)\cdotD(W|R)\\[3mm]\label{eq:lex-model-der}P_{cf}(W|L)&=&\prod_{w_i}P(w_i|l_i)\\[3mm]\label{eq:lex-model-dp}D(W|R)&=&\prod_{w_i}\prod_{c_{ij}\inC_{w_i}}D(w_i|l_i[c_{ij}])\end{eqnarray}上式において,$C_{w_i}$は単語$w_i$の単語生成文脈の集合を表わしている.式(\ref{eq:lex-model-der})の統計量$P_{cf}(W|L)$は,単語生成文脈を無視したときに品詞$l_i$から単語$w_i$が生成される確率の積であり,単語の出現頻度に関する優先度が反映される.これに対し,式(\ref{eq:lex-model-dp})の統計量$D(W|R)$は各単語$w_i$とその単語生成文脈$c_{ij}$の従属係数の積を表わしており,$w_i$と$c_{ij}$の相関関係に関する優先度(すなわち単語の共起関係)が反映される.このように,語彙モデルを単語の出現頻度,および単語の共起関係のみを反映させた2つの統計量の積として分解することにより,\ref{sec:intro}節で述べたように,曖昧性解消時におけるそれぞれの統計情報の働きを容易に理解することができる. \section{評価実験} \label{sec:exp-stat}本節では,前節で提案した統合的確率言語モデルの評価実験について述べる.統合的確率言語モデルは本来形態素解析,構文解析を同時に行うことを前提としているが,そのような大規模な実験を行う前の予備実験として,まずは文節列を入力とする文節間の係り受け解析のみを行った.\subsection{構文モデルの学習}\label{sec:learn-syn-model}本節の実験では,入力として単語列,品詞列,文節区切りが与えられたときに,それぞれの文節の係り先となる文節を決定する.このような文節の係り受け解析をCFG(文脈自由文法)を用いて行った.まず,CFG規則の終端記号として,文節の統語的特性を反映した文節ラベルを用いる.この文節ラベルの定義を(\ref{eq:BP-label})に示す.\begin{equation}\label{eq:BP-label}文節ラベル~~\stackrel{def}{=}~~(受け属性,係り属性,読点の有無,用言種別)\end{equation}ここで,``受け属性'',``係り属性''はそれぞれ文節の受け属性と係り属性であり,``連用'',``連体'',``格関係''の組によって表わされる.例えば,``パイ-を''や``彼女-の''など,「名詞助詞」といった品詞並びによって構成される文節は,他の文節から連体修飾を受ける可能性があるので受け属性は``(連体)''となり,他の文節を連体修飾したり用言を修飾してその格要素および表層格を表わす可能性があるので係り属性は``(連用,格関係)''となる\footnote{ここでの``格関係''とは,用言を受け側とした格関係のみを指す.}.また``読点の有無''は,その文節の末尾が読点であれば``1'',そうでなければ``0''といった値を取る.これは,読点を末尾に持つ文節は直後の文節には係りにくく,読点を末尾に持たない文節よりも遠くに係る傾向があるので,この違いを構文モデルに反映させるためである.一方``用言種別''は,``格関係''を受け属性に含む文節タイプを細分化するための属性であり,文節の主辞が自動詞,他動詞,形容詞,名詞述語のときにはそれぞれ``自動詞'',``他動詞'',``形容詞'',``名詞述語''といった値を取る.また,``格関係''を受け属性に持たない文節のときにはその値は常に``φ''である.\ref{sec:lex-model}節で例示した単語生成文脈決定規則は,単語の共起関係の中でも特に用言の格関係に注目している.用言を主辞とする文節の文節ラベルを細分化したのはこのためである.この文節ラベルは,文節を構成する単語列の品詞情報をもとに一意に決定されるものとする.また,これらの文節ラベルの整合性\footnote{例えば,``連体''を係り属性に含む文節は``連体''を受け属性に含まない文節には係らない.}をチェックする規則を作成し,その集合を文節の係り受け解析に用いるCFGとした.このCFGの概要を表\ref{tab:grammar}に示す.\begin{table}[htbp]\begin{center}\caption{CFGの概要}\label{tab:grammar}\begin{tabular}{|l|r|}\hline規則数&961\\\hline非終端記号数&51\\\hline終端記号数(文節ラベル数)&42\\\hline\end{tabular}\end{center}\end{table}本実験では,構文モデル$P(R)$としてPGLRを利用した.また,この構文モデルの学習には京大コーパス\cite{kurohasi:97:a}を使用した.京大コーパスの各例文には,単語区切り,単語の品詞,文節区切りと文節の係り受け解析の結果(構文構造)が付加されている.京大コーパスの9,944例文に対して,コーパスの各例文とそれに付加された構文構造を作り出すようなLR表における状態遷移列を求め,また状態遷移が行われた回数を数え上げる.このようにして得られた状態遷移回数を状態遷移確率に変換することにより,PGLRのパラメタ推定を行った.\subsection{語彙モデルの学習}\label{sec:learn-lex-model}本実験では,式(\ref{eq:lex-model-der-dp})に示した語彙モデル$P(W|R)=P_{cf}(W|L)\cdotD(W|R)$のうち,$P_{cf}(W|L)$の計算を省略できる.なぜなら,単語列及び品詞列はすでに入力として与えられているため,全ての解析結果の候補について品詞から単語への生成確率の積$P_{cf}(W|L)$は等しいからである.したがって,語彙モデルとして学習するのは従属係数の積$D(W|R)$のみでよい.今回の実験では,\lcrule{lc:filler}〜\#\ref{lc:josi}によって定められる従属係数(\ref{eq:ldp-filler}),(\ref{eq:ldp-marker-multi2}),(\ref{eq:ldp-josi})を$D(W|R)$の要素とし,これらの学習を行った.まず,格要素の従属係数(\ref{eq:ldp-filler})の学習について説明する.\begin{equation}\label{eq:ldp-filler}D(n|N[\slot{v}{p}])=\frac{P(n|N[\slot{v}{p}])}{P(n|N)}\end{equation}RWCコーパス~\cite{rwc:95:a}とEDR共起辞書\cite{edr:95:a}から,名詞$n$が助詞$p$を介して動詞$v$に係る事例$(n,p,v)$をそれぞれのべ6,888,849組,975,510組収集した.式(\ref{eq:ldp-filler})の分子および分母の確率モデルはこれらの訓練事例から最尤推定した.さらに,分子の確率モデル$P(n|N[\slot{v}{p}])$を推定する際に以下のような近似を行った.\begin{itemize}\item名詞$n$の意味クラスによる抽象化名詞$n$の意味クラスの集合を$C_n=\{c_{n_1},\cdots,c_{n_m}\}$として,$P(n|N[\slot{v}{p}])$を以下のように推定した.\begin{equation}\label{eq:ldp-filler-class}P(n|N[\slot{v}{p}])\simeq\sum_jP(n|c_{n_j})P(c_{n_j}|N[\slot{v}{p}])\end{equation}今回の実験では,名詞意味クラス$c_n$として,日本語語彙体系\cite{ikehara:93:a,ikehara:97:a}の名詞シソーラスのルートから深さ3に位置する151個の意味クラスの集合を用いた.これらの意味クラスは互いに排他的である.$D(n|N[\slot{v}{p}])$を推定する場合,名詞$n$が日本語語彙体系に登録されておらず,その名詞意味クラスが不明な場合には,その従属係数は学習不可能であるとして$D(n|N[\slot{v}{p}])\simeq1$とした.これは,$n$と$\slot{v}{p}$との間の従属関係を無視することに相当する.\itemバックオフ方式によるスムージング確率モデル$P(c_n|N[\slot{v}{p}])$を推定する際,この確率の分母となる事例$(*,p,v)$($*$は任意の名詞意味クラスを表わす)の出現回数がある閾値$\lambda$よりも小さい場合には,$v$を動詞意味クラス$c_v$を用いて抽象化した確率モデル$P(c_n|N[\slot{c_v}{p}])$によって近似した.\begin{equation}P(c_n|N[\slot{v}{p}])\simeqP(c_n|N[\slot{c_v}{p}])\end{equation}また,事例$(*,p,c_v)$の出現回数が$\lambda$を越えない場合には,動詞意味クラス$c_v$の抽象度を段階的に上げていき,必ず$\lambda$個以上の訓練事例から確率モデルを推定するようにした.本実験においては,動詞意味クラス$c_v$として分類語彙表~\cite{bgh:96}の5桁および2桁の分類コードを動詞意味クラスとして利用した.動詞を分類語彙表の2桁の分類コードに抽象化しても学習事例数が$\lambda$を越えなかったとき,もしくは$(*,p,v)$の事例数が$\lambda$以下でありかつ動詞$v$が分類語彙表に登録されていなかった場合には,十分信頼度の高い確率モデルが学習できなかったとして,従属係数$D(n|N[\slot{v}{p}])\simeq1$とした.なお,今回は$\lambda=100$として実験を行った.\end{itemize}\bigskip次に,用言に係る助詞に関する従属係数(\ref{eq:ldp-marker})の学習について説明する.\begin{equation}\label{eq:ldp-marker}D(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_i,p_{i+1},\cdots,p_n}])=\frac{P(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_i,p_{i+1},\cdots,p_n}])}{P(p_i|P)}\end{equation}$n$個の助詞$p_1,\cdots,p_n$が同じ用言$h$に係っている場合には,それぞれの$p_i$に対応する従属係数(\ref{eq:ldp-marker})の積を計算すれば良い.この従属係数の積は式(\ref{eq:ldp-marker-multi})のように変形できる.\begin{eqnarray}&&\prod_iD(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_{i-1},p_i,\cdots,p_n}])\\&=&\prod_i\frac{P(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_i,p_{i+1},\cdots,p_n}])}{P(p_i|P)}\\&=&\label{eq:ldp-marker-multi}\frac{P(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])}{\prod_iP(p_i|P)}\\\label{eq:ldp-marker-multi2}&\stackrel{def}{=}&D(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])\end{eqnarray}したがって,学習しなければならないのは,ある用言$h$が$P_1,\cdots,P_n$の$n$個の助詞の係り先となっているときに単語$p_1,\cdots,p_n$を同時に生成する確率モデル$P(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])$と,品詞$P$(助詞)から単語$p_i$が生成される確率$P(p_i|P)$である.以降,簡単のため,前者の確率モデルを以下のように記述する.\begin{eqnarray}\label{eq:kaku-model-def}P(\vec{p}~|~h,n)&\stackrel{def}{=}&P(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])\\\nonumber&&但し,~\vec{p}=(p_1,\cdots,p_n)\end{eqnarray}確率モデル$P(\vec{p}|h,n)$を学習するために,$n$個の助詞$\vec{p}$が同じ用言$h$に係るという事例$(\vec{p},h)$をEDRコーパスから収集した.今回の実験では,用言$h$として動詞,形容詞,名詞述語の3つを考えた.用言$h$が動詞,形容詞,名詞述語であるときの,また$h$に係る助詞の数$n$が1,2,3,4以上であるときの事例$(\vec{p},h)$ののべ数を表\ref{tab:coocr-ph}にまとめる.\begin{table}[htbp]\begin{center}\caption{EDRコーパスから収集した事例$(\vec{p},h)$ののべ数}\label{tab:coocr-ph}\begin{tabular}{|c||r|r|r|r|}\hline$h$&\makebox[15mm]{$n=1$}&\makebox[15mm]{$n=2$}&\makebox[15mm]{$n=3$}&\makebox[15mm]{$n\ge4$}\\\hline\hline動詞&231,730&123,915&30,375&3,961\\\hline形容詞&19,266&7,686&1,292&154\\\hline名詞述語&28,636&9,327&1,238&98\\\hline\end{tabular}\end{center}\end{table}$n$が4以上のときには学習に十分な事例を収集することができなかった.そこで,$n$が4以上のときには,従属係数を1,すなわち助詞とその係り先用言との語彙的従属関係や格間の従属関係を無視することにした.\begin{equation}n\ge4のとき\qquadD(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])~\simeq~1\end{equation}$n=1$のときの式(\ref{eq:kaku-model-def})の分子の確率モデル$P(\vec{p}|h,n)$は表\ref{tab:coocr-ph}に示した事例から最尤推定した.また,$n=2,3$のときの確率モデル$P(\vec{p}|h,n)$は最大エントロピー法を用いて推定した\footnote{この詳細については\cite{sirai:97:b}を参照.}.最後に,体言に係る助詞に関する従属係数(\ref{eq:ldp-josi})の学習について説明する.\begin{equation}\label{eq:ldp-josi}D(p|P[nd])=\frac{P(p|P[nd])}{P(p|P)}\end{equation}この従属係数を学習するために,EDRコーパスから体言に係る助詞$p$をのべ273,062個収集した.式(\ref{eq:ldp-josi})の分子はこの訓練データから最尤推定した.また,式(\ref{eq:ldp-josi})の分母$P(p|P)$は,ここで収集した体言に係る助詞の事例と,表\ref{tab:coocr-ph}に示した用言に係る助詞の事例から,同様に最尤推定した.尚,式(\ref{eq:ldp-marker-multi})の分母の各項$P(p_i|P)$も式(\ref{eq:ldp-josi})の分母の確率モデルと同じものを使用した.\subsection{実験結果}\label{sec:result-stat}\ref{sec:learn-syn-model}節にて学習した構文モデル$P(R)$,および\ref{sec:learn-lex-model}節にて学習した語彙モデル$P(W|R)$を用いて,文節の係り受け解析を行った.まず,テスト文として,京大コーパスの中から文節数7〜9の文をランダムに500文選び,これをテスト文とした.構文モデル$P(R)$を学習する際に用いた訓練用例文にはこれらのテスト文は含まれていない.文節数7〜9という比較的文長の短い例文をテスト文として選んだのは,本実験で用いたPGLRパーザがまだ開発の途中であり,長い文長の例文の解析に非常に多くの時間を要するためである.テスト文の係り受け解析結果の評価尺度として,文節の正解率を以下のように定義する.\begin{equation}\label{eq:def-bp-acc}文節の正解率~=~\frac{係り先の正しい文節の数}{テスト文に含まれる文節の数}\end{equation}この文節の正解率は生成確率が一位である解析結果の候補について計算する.また,文の最後に位置する2つの文節は評価の対象から除外する.これは,文の一番最後にある文節は係り先がなく,また文の最後から2番目にある文節は常に文の一番最後の文節に係るからである.\ref{sec:lex-model}節に述べたように,語彙モデルにおいてはいくつかの種類の統計情報を取り扱う.ここでは,構文的な統計情報,および語彙モデルにおいて考慮された語彙的な統計情報のそれぞれの曖昧性解消における効果を調べるために,以下に述べる6種類のモデルを用意し,それらを比較した.結果を表\ref{tab:res-lex}に示す.\begin{description}\item[BL:]ベースライン全ての文節の係り先を,(1)全ての文節は係り得る文節の中でできるだけ近いものに係る,(2)一文中における文節の係り受け関係は互いに交差しない,として決定するモデルである.\item[Syn:]従属係数を無視したモデル$D(W|R)=1$としたモデルである.すなわち,構文モデル$P(R)$で学習した統計情報のみを用いて曖昧性解消を行う.\item[F:]格要素となる名詞に関する従属係数のみを用いたモデル$D(W|R)$として,式(\ref{eq:ldp-filler})によって与えられる従属係数のみを考慮したモデルである.\item[M:]用言に係る助詞に関する従属係数のみを用いたモデル$D(W|R)$として,式(\ref{eq:ldp-marker-multi2})によって与えられる従属係数のみを考慮したモデルである.\item[P:]体言に係る助詞に関する従属係数のみを用いたモデル$D(W|R)$として,式(\ref{eq:ldp-josi})によって与えられる従属係数のみを考慮したモデルである.\item[all:]全ての従属係数を用いたモデル上記全ての従属係数を考慮したモデルである.\end{description}\begin{table}[tbp]\begin{center}\caption{文節の正解率}\label{tab:res-lex}\begin{tabular}{|l||r|r|}\hline&\makebox[15mm]{後置詞節}&\makebox[15mm]{全ての文節}\\\hline\hlineBL&62.92\%&61.68\%\\\hlineSyn&69.63\%&73.38\%\\\hlineF&71.36\%&74.69\%\\\hlineM&78.19\%&78.55\%\\\hlineP&84.06\%&82.22\%\\\hlineall&86.30\%&84.34\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:res-lex}から,語彙モデルにおいて考慮した語彙的な統計情報のうち,体言に係る助詞に関する従属係数(モデルP)が正解率の向上に一番大きく貢献することがわかる.すなわち,助詞が用言に係っているか否かの違いがその生成確率に大きく影響し,その違いを考慮することによって曖昧性解消の精度を大きく向上させることができた.また,表\ref{tab:res-lex}における``後置詞節''とは,``彼女-が'',``パイ-を''など,用言の格要素および表層格を表わす可能性のある文節を指す\footnote{この後置詞節には,``太郎-の''など,実際には体言を修飾する文節も含まれる.}.テスト文全体における2,975個の文節のうち,1,788個がこの後置詞節に相当する.この後置詞節のみで評価した場合,全ての文節で評価した場合に比べて,語彙的な統計情報を考慮したモデル(F,M,P,all)と構文的な統計情報のみを考慮したモデル(Syn)との文節の正解率の差が大きくなっている.これは,今回の実験で用いた語彙モデルにおいては,語彙的な統計情報の中でも用言の格関係に注目しているため,語彙モデルが``後置詞節''の係り先の曖昧性解消に特に有効に働いているためと考えられる.構文モデルと全ての語彙的従属関係を考慮した語彙モデルを組み合わせて曖昧性解消に用いた場合(all),構文モデルのみを用いた場合(Syn)と比べて文節の正解率が10.96\%向上し,また構文モデルのみを曖昧性解消に用いたときのベースラインとの文節の正解率の差が11.70\%であることから,文節の係り受け解析の精度向上において,語彙モデルは構文モデルと同程度の貢献をしていると考えられる.本研究で提案した統合的確率言語モデルにおいては,語彙的な統計情報を局所化し構文的な統計情報とは独立に学習しているが,このようなアプローチにおいても,語彙的な統計情報は曖昧性解消の精度向上に十分大きく貢献すると期待できる.最後に,本研究で提案する統合的確率言語モデルを用いた解析結果とKNPパーザ\cite{kurohasi:94:a}による解析結果との比較を行った.KNPパーザは形態素解析システムJUMAN\cite{matumoto:94:a}の形態素解析結果を入力とし,文節の区切りを認定してから文節の係り受け解析を行う.そこで,\ref{sec:result-stat}節の実験で用いた500個のテスト文のうち,JUMANの形態素解析結果による形態素区切りおよびKNPパーザによる文節区切りの結果がコーパスと一致した388文を対象に,両者の係り受け解析結果の比較を行った.結果を表\ref{tab:comp-knp}に示す.\begin{table}[htbp]\begin{center}\caption{KNPパーザとの比較}\label{tab:comp-knp}\begin{tabular}{|l||r|r|}\hline&\makebox[15mm]{後置詞節}&\makebox[15mm]{全ての文節}\\\hline\hline本手法&86.57\%&84.53\%\\\hlineKNPパーザ&86.79\%&85.71\%\\\hline\end{tabular}\end{center}\end{table}本手法はKNPパーザよりも文節の正解率で1\%程度劣っている.今回の実験では,統合的確率言語モデルに組み込む語彙的従属関係として,格要素と動詞との従属関係,助詞と係り先用言との従属関係,格間の従属関係などを考慮した.しかしながら,これ以外にも,曖昧性解消に有効であると考えられる語彙的従属関係が数多く存在する.特に,今回の実験では連体修飾に関しては語彙的従属関係を何も考慮していないので,そのことによる解析誤りが多かった.例えば,「彼女の紫色の帽子が風に飛ばされた」という文においては,文節``彼女-の''が(a)``紫色-の''に係る,(b)``帽子-が''に係るという2つの解釈がある.ところが,連体修飾する``彼女''については語彙的従属関係を考慮していないので,より近い文節に係る解釈(a)に高い確率が与えられてしまう.これを回避するためには,以下のような従属係数を学習し語彙モデルに加えればよい.\begin{equation}\label{eq:dp-rentai-noun}D(n_1|N[n_2])=\frac{P(n_1|N[n_2])}{P(n_1|N)}\end{equation}式(\ref{eq:dp-rentai-noun})の分子$P(n_1|N[n_2])$は,ある名詞$N$が$n_2$を連体修飾しているとき,その名詞として単語$n_1$が生成される確率を表わしている.このような従属係数を考慮することにより,``彼女''は``紫色''よりも``帽子''を連体修飾することが多い,すなわち$D(彼女|N[紫色])<<D(彼女|N[帽子])$であると考えられるので,正しい解釈(b)に高い確率を与えると期待できる.このように,統合的確率言語モデルに新たな種類の語彙的従属関係を反映させるときには,それに対応した従属係数を新たに語彙モデルに加えるという形で容易に対処できる.これは,語彙的従属関係を局所化して構文的優先度などの他の統計情報と独立に学習するように,また異なる種類の語彙的従属関係は異なる従属係数として独立に学習するようにモデルを設計したことに依る.一方,後置詞節のみで評価した場合には,本手法とKNPパーザの文節の正解率はほぼ等しい.とはいえ,後置詞節の係り先の特定に失敗する場合も少なくない.我々は現在その原因を調査中であり,その一部については既に報告している\cite{sirai:97:d}.今後,曖昧性解消に有効な統計情報を新たに組み込んだり,また解析誤りの原因を調査しそれらに対処することにより,係り受け解析の精度向上を図っていきたい. \section{おわりに} \label{sec:conclusion}本研究では,形態素解析・構文解析を同時に行う際に,構文的な統計情報と語彙的な統計情報を組み合わせて曖昧性を解消するひとつの手法を提案した.我々の手法の特徴は,構文的優先度,隣接する品詞間の共起関係,距離に関する優先度といった構文的な統計情報を構文モデル$P(R)$として,単語の出現頻度および単語の共起関係を語彙モデル$P(W|R)$として,それぞれ独立に学習する点にある.このことは,個々の統計情報を異なる言語資源から学習できるだけでなく,曖昧性解消時における個々の統計情報の働きを容易に分析することができる.実際に,京大コーパスを用いて構文モデルを,RWCコーパスやEDRコーパスを用いて語彙モデルを学習した.また,これらの確率モデルを用いた日本語文の文節の係り受け解析実験の結果,構文的な統計情報と語彙的な統計情報のそれぞれが曖昧性解消に大きく貢献することを確認した.最後に今後の課題について述べる.まず,統合的確率言語モデルが本来想定している形態素解析と構文解析を同時に行い,その有効性を実験的に確認することが挙げられる.また,今回の実験では文長の比較的短い文を対象にしたが,文長の長い文の係り受け解析を行うことにより,統合的確率言語モデルの特性をさらに調査する必要がある.文長の長い文においては,二重格を取りにくいなどの格間の従属関係がさらに有効に働くのではないかと予想される.最後に,統合的確率言語モデルと他の統計的構文解析に関する研究とを実験的に比較することが挙げられる.特に今回の実験は日本語を対象にしたが,構文的な統計情報と語彙的な統計情報を独立に学習するアプローチが英語などの他の言語においても本当に有効であるのかどうかは今後調査していく必要があると思われる.\bigskip\acknowledgment本研究にあたり,日本語語彙体系を提供して下さいましたNTTコミュニケーション科学研究所知識処理研究部翻訳処理研究グループに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{nlp-str,jpaper}\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科修士課程修了.1998年同大学院情報理工学研究科博士課程修了.同年同大学院情報理工学研究科計算工学専攻助手,現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会会員.}\bioauthor{乾健太郎}{1990年東京工業大学工学部情報工学科卒業.1992年同大学大学院理工学研究科修士課程修了.1995年同大学大学院理工学研究科博士課程修了.同年同大学院情報理工学研究科計算工学専攻助手.1998年九州工業大学情報工学部知識情報工学科助教授,現在に至る.博士(工学).自然言語処理に関する研究に従事.人工知能学会,体系機能言語学会,各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V03N03-04
\section{はじめに} 入力文の構文構造を明らかにする構文解析手法には,大きく分けて,1)可能な構造をすべて生成する手法と,2)可能な構造に優劣を付け,そのうち最も適切なものだけを,または適切なものから順に生成する手法,の二つがある.前者の手法として,これまでに,一般化LR法\cite{Tomita85}やSAX\cite{Matsumoto86},LangLAB\cite{Tokunaga88}などの効率の良い手法が数多く提案されている.しかしながら,これらの手法を,機械翻訳システムなどの実用を目指した自然言語処理システムに組み込むことは,必ずしも適切ではない.なぜならば,通常,可能な構文構造の数は膨大なものになるため,それらをすべて意味解析などの構文解析以降の処理過程に送ると,システム全体としての効率が問題になるからである\footnote{文献\cite{Tomita85}には,構文構造の曖昧さをユーザとの対話で解消する方法も示されている.}.意味的親和性や照応関係に関する選好なども考慮に入れて全体で最も適切となる解釈は,最も適切な構文構造から得られるとは限らないので,システム全体で最も適切な解釈を得るためには,最悪の場合,可能な構造をすべて生成しなければならない.しかし,より適切な構文構造がシステム全体で最も適切な解釈の構成要素となる可能性が高いと期待されるので,適切でない構造は生成しなくてもよい可能性が高い.従って,可能な構造のうち最も適切なものだけをまず生成し,構文解析以降の処理からの要請があって初めて,次に適切な構造を生成するための処理を開始する後者の手法のほうが,システム全体の効率の観点からは望ましい.後者の手法を実現するためのアプローチでは,費用が付与された部分構造を状態とする状態空間において,目標状態のうち費用の最も小さいものを発見するという探索問題として構文解析を捉えるのが自然である.このように捉えると,確立された種々の探索戦略を構文解析に応用することができる.本稿では,可能な構造のうち生成費用の最も小さいものだけをまず生成し,必要ならば可能な構造が尽きるまですべての構造を生成費用の昇順に生成する構文解析法を提案する.基本的な考え方は,チャート法のアジェンダ\cite{Kay80}を$\A^*$法の探索戦略\cite{Nilsson80}に従って制御することである\cite{Yoshimi90}.チャート法は,良く知られているように,重複処理を行わない効率の良い構文解析の枠組みである.解析過程において生成されうる部分構造に,構文規則に付与された費用に基づいて計算される生成費用を付与するとともに,その構造を構成要素として持つ全体構造を生成するまでの費用を,$\A^*$法の最適性条件を満たし実際の費用になるべく近くなるように推定して付与し,競合する部分構造のうちその生成費用と推定費用の和が最も小さいものに対する処理を優先的に進めれば,効率の良い構文解析が実現できる.本稿の手法と同じように,適切な構造を優先的に生成する手法として,これまでに,Shieberの手法\cite{Shieber83}やKGW+p\cite{Tsujii88},島津らの手法\cite{Shimazu89}などが提案されている.これら関連する研究との比較は\ref{sec:comparison}節で行なう. \section{$\A^*$法の探索戦略に従うアジェンダ制御} \label{sec:astar_chart}$\A^*$法\hspace{0.1mm}と\hspace{0.1mm}チャート法について簡\hspace{0.1mm}単に説\hspace{0.1mm}明した後,\hspace{0.1mm}これらを組\hspace{0.1mm}み\hspace{0.1mm}合\hspace{0.1mm}わせて,可\hspace{0.1mm}能な構\hspace{0.1mm}文\hspace{0.1mm}構\hspace{0.1mm}造を\\適切な順に必要なだけ生成する手法について述べる.$\A^*$法は,初期状態から現在状態までの費\\用$g$と,現在状態から目標状態までの推定費用$\hat{h}$との和$\hat{f}$を発見的知識として探索を行なう.適\\用可能な状態遷移オペレータが残っている状態と残っていない状態を,それぞれ,OPENリストとCLOSEリストに保持する.探索では,1)全推定費用$\hat{f}$の最も小さい状態をOPENリスト\\から取り出し,CLOSEリストに入れる,2)取り出した状態に状態遷移オペレータを適用して,すべての継続状態を生成する,3)各継続状態について$\hat{f}$を計算し,継続状態のうちOPENリストとCLOSEリストのいずれにも入っていない状態をOPENリストに入れる,という三つの過程を繰り返し,OPENリストから取り出した状態が目標状態であれば,探索を終える.$\A^*$法の\\探索戦略に従う探索では,推定費用$\hat{h}$が現在状態から目標状態までの実際の費用$h$より大きくないという最適性条件が成り立つならば,目標状態が存在する限り,費用の最も小さい目標状態に到達できることが証明されている.チャート法は,チャートと呼ばれる表に,弧と呼ばれる部分的構文構造を登録しながら処理を進める.構文規則$\alpha\rightarrow\beta_1\ldots\beta_m$から生成される弧は,$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}]_\alpha$の形式で表\\される.$\beta_1\ldots\beta_i$は既に完成した構造の列であり,$[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}$は空所と呼ばれる未完成の構造の列である.弧は,空所があるとき($1\lei<m$のとき)活性弧と呼ばれ,ないとき($i=m$のとき)不活性弧と呼ばれる.また,その弧の生成に用いられた構文規則の左辺の構文範疇でラベル付けされている.以後,紛れなければ,弧をその構文範疇名で呼ぶ.上昇型チャート法の枠組みは,1)不活性弧のラベルを右辺の第一項として持つ構文規則を適用することで弧を成長させる予測手続き,2)活性弧の空所を不活性弧で埋めることで弧を成長させる結合手続き,の二つの手続きから成る.解析のある時点において,予測手続きまたは結合手続きの処理対象となる弧が複数存在するとき,そのうちどの弧を選択するかは,アジェンダと呼ばれるリストを用いて制御される.アジェンダ制御にどのような戦略を用いるかに応じて,チャート法は様々な振舞いを示す.チャート法による構文解析を探索問題と捉えると,自然な対応付けとして,チャート法における弧,予測手続きと結合手続き,アジェンダ,チャートは,それぞれ,探索問題における状態,状態遷移オペレータ,OPENリスト,CLOSEリストとみなせる.以後,ラベルが終端構文範疇であり,初期状態に相当する不活性弧を初期弧と呼ぶ.また,$n$を入力文の終了位置とするとき位置が$[0,n]$であり,ラベルが目標構文範疇であり,目標状態に相当する不活性弧を目標弧と呼ぶ.弧には,費用付き構文規則を適用して初期弧からその弧を生成するために要した費用を付与する.これは,初期状態から現在状態までの費用$g$に相当し,後に\ref{sec:rule}節で示す式(\ref{eq:cost})で計算される.さらに,弧には,それを構成要素として持つ目標弧を生成するための推定費用を付与する.これは,現在状態から目標状態までの推定費用$\hat{h}$に相当し,後に\ref{sec:est}節で示す式(\ref{eq:est})\\で計算される.\hspace*{-0.5mm}式(\ref{eq:est})\hspace*{-0.3mm}で計算される推定費用$\hat{h}$は,\hspace*{-0.5mm}$\A^*$法の最適性条件$\hat{h}\leh$を満たすので,\hspace*{-0.5mm}$g$\hspace*{-0.1mm}と\hspace*{-0.1mm}$\hat{h}$\\の和$\hat{f}$が小さい順に弧をアジェンダから取り出せば,$\A^*$法の探索戦略に従う上昇型チャート法が実現できる.そのアルゴリズムを図\ref{fig:astar_chart}に示す.このアルゴリズムは,費用の最も小さい目標弧を生成した後も,そのまま処理を続ければ,目標弧を費用の昇順に必要なだけ生成することができる.\begin{figure}\samepage\begin{center}\fbox{\small{\begin{minipage}{0.9\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGORITHM}\stepすべての初期弧をアジェンダに入れる.\stepアジェンダが空ならば,終了.\label{algo:ac_loop}\step全推定費用$\hat{f}$の最も小さい弧をアジェンダから取り出し,チャートに入れる.それが目標弧ならば,解析成功.不活性弧ならば,予測手続きを実行.活性弧ならば,結合手続きを実行.\label{algo:ac_pop}\step予測手続きまたは結合手続きで弧が生成されていれば,そのうちアジェンダまたはチャートに存在しないものをアジェンダに入れる.\label{algo:ac_push}\step予測手続きまたは結合手続きで生成された弧が不活性弧であれば,チャート中の活性弧のうちこの不活性弧と結合できるものをすべてアジェンダに戻す.ステップ\ref{algo:ac_loop}へ.\end{ALGORITHM}\begin{LIST}\item[\bf予測手続き]位置が$[x,y]$である不活性弧$\beta_1$が存在するとき,右辺第一項が$\beta_1$であるすべての構文規則$\alpha\rightarrow\beta_1\ldots\beta_m$を適用し,位置が$[x,y]$である活性弧$[\beta_1\[?]_{\beta_{2}}\ldots[?]_{\beta_{m}}]_\alpha$を新たに生成する.ただし,$m=1$ならば不活性弧を生成する.\item[\bf結合手続き]活性弧$\alpha$の位置が$[x,y]$であり,最左空所が$[?]_{\beta_{i}}$であるとき,位置が$[y,z]$であるすべての不活性弧$\beta_i$で$[?]_{\beta_{i}}$を埋め,位置が$[x,z]$である活性弧を新たに生成する.ただし,$i=m$ならば不活性弧を生成する.\end{LIST}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{$\A^*$法の探索戦略に従うチャート法}\label{fig:astar_chart}\end{figure}図\ref{fig:astar_chart}のアルゴリズムは最も基本的なものである.この基本アルゴリズムに次のような改良を加えれば,生成される弧の数は減少する.可能な構文構造を効率良く表現するために,1)二つの構造が持つすべての情報が同じであるとき,それらの構造を共有し(sub-treesharing),2)二つの構造が持つ情報のうち内部構造以外のすべての情報が同じであるとき,それらの構造を統合する(localambiguitypacking)方法\cite{Tomita85}が用いられることがある.元のチャート法に基づく基本アルゴリズムでは,前者は実現されているが後者は実現されていない.実現するためには,ステップ\ref{algo:ac_push}を次のように変更すればよい.\begin{LIST}\item[{\bfステップ\ref{algo:ac_push}'}]生成された弧が不活性弧であり,そのラベル,位置,全推定費用と同じものを持つ不活性弧がアジェンダに存在すれば,それら二つの弧を統合してアジェンダに入れ,チャートに存在すれば,二つの弧を統合してチャートに入れる.さもなければ,生成された弧をアジェンダに入れる.\end{LIST} \section{弧の生成費用の計算} \label{sec:rule}弧を生成するための費用は,構文規則に付与された費用に基づいて計算される.費用付き構文規則は,文脈自由文法の形式に従い,一般に次のように表せる.\begin{equation}\alpha\rightarrow\beta_1/w_{\beta_1}\ldots\beta_m/w_{\beta_m},\\C_\alpha\label{eq:rule}\end{equation}$\alpha$は非終端構文範疇,$\beta_i$は終端構文範疇または非終端構文範疇である.$C_\alpha$は,この規則の適用\\費用を表す.$w_{\beta_i}$は,弧$\beta_i$と$\beta_j\(j\neqi)$の相対的関係を表す重みである.$C_\alpha$は非負の実数,$w_{\beta_i}$\\は正の実数とする.活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_{m}}]_\alpha$($i=m$ならば不活性弧)を生成するための費用は,不活性弧$\beta_j\(1\lej\lei)$を生成するための費用$g_{\beta_j}$に重み$w_{\beta_j}$をかけたものの和に,規則(\ref{eq:rule})の適用\\費用$C_\alpha$を加えた値であると定め,次式で計算する.\begin{equation}g_\alpha=\sum_{j=1}^iw_{\beta_j}\timesg_{\beta_j}+C_\alpha\\(1\lei\lem)\label{eq:cost}\end{equation}初期弧の生成費用は0とする. \section{目標弧までの費用の推定} \label{sec:est}弧から目標弧までの費用の推定は,入力文とは独立に,構文規則だけに基づいてあらかじめ\\行なっておく.\hspace*{0.1mm}従って,\hspace*{0.1mm}一\hspace*{0.1mm}度\hspace*{0.1mm}求めた推\hspace*{0.1mm}定\hspace*{0.1mm}費\hspace*{0.1mm}用は,\hspace*{0.1mm}費\hspace*{0.1mm}用\hspace*{0.1mm}付き構\hspace*{0.1mm}文\hspace*{0.1mm}規\hspace*{0.1mm}則に変\hspace*{0.1mm}更がない限り変\hspace*{0.1mm}更され\\ない.\hspace*{0.1mm}推\hspace*{0.1mm}定は,上\hspace*{0.1mm}昇\hspace*{0.1mm}型\hspace*{0.1mm}解\hspace*{0.1mm}析とは逆\hspace*{0.1mm}方\hspace*{0.1mm}向に目\hspace*{0.1mm}標\hspace*{0.1mm}弧から初\hspace*{0.1mm}期\hspace*{0.1mm}弧に向けて行ない,\hspace*{0.1mm}求めた推\hspace*{0.1mm}定\hspace*{0.1mm}費\hspace*{0.1mm}用を\\各弧に付与する.推定を下降型で行なうので,本節では,弧$\alpha$から目標弧までの推定費用を,目\\標弧から弧$\alpha$までの推定費用と呼ぶ.推定費用は,構文解析で活性弧の空所が左から順に埋って\\いくことを前提として計算する.目標構文範疇から始めて,構文規則を左辺から右辺への書き換えに繰り返し用い,目標弧から活性弧$[?]_\alpha$までの推定費用$\hat{h}_\alpha$が計算済みであり,規則(\ref{eq:rule})が存在するとき,目標弧から活性弧$[?]_{\beta_i}$までの推定費用$\hat{h}_{\beta_i}$は,次式で計算できる.\begin{equation}\hat{h}_{\beta_i}=\left\{\begin{array}{ll}\min\hat{h}_\alpha+\displaystyle\sum_{j>i}^mw_{\beta_j}\times\ming_{\beta_j}+C_\alpha&(i=1のとき)\\\min\hat{h}_\alpha+\displaystyle\sum_{j>i}^mw_{\beta_j}\times\ming_{\beta_j}&(1<i<mのとき)\\\min\hat{h}_\alpha&(i=mのとき)\end{array}\right.\label{eq:est}\end{equation}$C_\alpha$は規則(\ref{eq:rule})の適用費用であり,$\displaystyle\sum_{j>i}^mw_{\beta_j}\times\ming_{\beta_j}$は活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_{m}}]_\alpha$のすべ\\ての空所を埋めるための最小費用である.下降型推定で求めた目標弧から活性弧$[?]_\alpha$までの費用$\hat{h}_\alpha$は,\hspace*{-0.4mm}上昇型構文解析を行なうときには不活性弧$\alpha$から目標弧までの推定費用となる.\hspace*{-0.4mm}式(\ref{eq:est})\\で計算される推定費用は,目標弧から活性弧$[?]_\alpha$までの可能な推定費用のうち最小値を右辺第一項とし,\hspace*{-0.4mm}可能な不活性弧$\beta_j$の生成費用のうち最小値を第二項としているので,\hspace*{-0.4mm}$\A^*$法の最適性\\条件を満たす.式(\ref{eq:est})を用いて推定費用を求めるために,まず,不活性弧$\beta_j$の最小生成費用$\ming_{\beta_j}$を計算\\する.そのアルゴリズムを図\ref{fig:min_cost}に示す.\begin{figure}\samepage\begin{center}\fbox{\small{\begin{minipage}{0.9\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGORITHM}\step与えられたすべての構文規則をリストに入れる.初期弧の生成費用を0とする.\label{algo:cost_init}\stepリストが空ならば,終了.\label{algo:cost_loop}\stepリストの先頭の規則$\alpha\rightarrow\beta_1/w_{\beta_1}\ldots\beta_m/w_{\beta_m},\\C_\alpha$を取り出す.\label{algo:cost_pop}\stepすべての不活性弧$\beta_i$について,生成費用が計算済みならば,不活性弧$\alpha$の生成費用を\ref{sec:rule}節の式(\ref{eq:cost})で計算し,ステップ\ref{algo:cost_min}へ.さもなければ,取り出した規則をリストの最後尾へ入れ,ステップ\ref{algo:cost_loop}へ.\label{algo:cost_cost}\step不活性弧$\alpha$について,今求めた値と以前求めた値の大小比較を行ない,小さいほうを不活性弧$\alpha$の生成費用とする.今求めた値のほうが小さければ,既にリストから取り出した規則のうち構文範疇$\alpha$を導出するすべての規則をリストに戻す.ステップ\ref{algo:cost_loop}へ.\label{algo:cost_min}\end{ALGORITHM}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{不活性弧の最小生成費用を求めるアルゴリズム}\label{fig:min_cost}\end{figure}例えば,図\ref{fig:rule}のような費用付き構文規則\footnote{この構文規則は,文献\cite{Kay80}に示された規則に費用を付与したものである.}が与えられたとき,この規則に従って生成される各不活性弧の最小生成費用は,図\ref{fig:min_cost}のアルゴリズムを用いて次のように計算される.\begin{figure}\begin{center}\small{\begin{tabular}{clclcclcl}(a)&S&$\rightarrow$&NP/1\VP/1,\1&&(f)&A&$\rightarrow$&failing/1,\1\\(b)&NP&$\rightarrow$&A/1\N/1,\1&&(g)&A&$\rightarrow$&hard/1,\1\\(c)&NP&$\rightarrow$&PRP/1\N/1,\5&&(h)&PRP&$\rightarrow$&failing/1,\1\\(d)&VP&$\rightarrow$&V/1\A/1,\5&&(i)&N&$\rightarrow$&student/1,\1\\(e)&VP&$\rightarrow$&V/1\AV/1,\1&&(j)&V&$\rightarrow$&looked/1,\1\\&&&&&(k)&AV&$\rightarrow$&hard/1,\1\end{tabular}}\end{center}\caption{費用付き構文規則の例}\label{fig:rule}\end{figure}まず,ステップ\ref{algo:cost_init}で,$g_\FAIL=0$,$g_\HARD=0$,$g_\STUD=0$,$g_\LOOK=0$となる.\hspace*{0.1mm}ス\hspace*{0.1mm}テ\hspace*{0.1mm}ッ\hspace*{0.1mm}プ\ref{algo:cost_init}で,リストに,規\hspace*{0.1mm}則(a)が先\hspace*{0.1mm}頭,規\hspace*{0.1mm}則(k)が最\hspace*{0.1mm}後\hspace*{0.1mm}尾という順\\で入っているとすると,一回目のループのステップ\ref{algo:cost_pop}で,規則(a)~$\SS\rightarrow\NP/1\\VP/1,\1$が取り\\出されるが,$g_\NP$も$g_\VP$もまだ求まっていないので,この規則はステップ\ref{algo:cost_cost}でリストの最後尾に入れられる.二〜五回目のループでも同様に,規則(b)〜(e)が取り出されるが,いずれもステップ\ref{algo:cost_cost}でリストの最後尾に入れられる.六回目のループのステップ\ref{algo:cost_pop}では規則(f)が取り出される.$g_\FAIL$は既に求まっているので,ステップ\ref{algo:cost_cost}で,$g_\A=w_\FAIL\timesg_\FAIL+C_\A=1$と計算される.この値は不活性弧Aについて初めて計算された値であるので,ステップ\ref{algo:cost_min}では何も行なわれない.七回目のループのステップ\ref{algo:cost_pop}で規則(g)が取り出されると,ステップ\ref{algo:cost_cost}で$g_\A=1$となる.この値は不活性弧Aについて既に求まっている値より小さくないので,ステップ\ref{algo:cost_min}では何も行なわれない.以下,同様にして,$g_\PRP=1$,$g_\N=1$,$g_\V=1$,$g_\AV=1$,$g_\NP=3$,$g_\VP=3$,$g_\SS=7$が順に求まる.次に,\hspace*{0.3mm}以\hspace*{0.1mm}上\hspace*{0.1mm}の\hspace*{0.1mm}よ\hspace*{0.1mm}う\hspace*{0.1mm}に\hspace*{0.1mm}し\hspace*{0.1mm}て計\hspace*{0.1mm}算\hspace*{0.1mm}された\hspace*{0.1mm}不\hspace*{0.2mm}活\hspace*{0.2mm}性\hspace*{0.2mm}弧の最\hspace*{0.1mm}小\hspace*{0.1mm}生\hspace*{0.2mm}成\hspace*{0.2mm}費\hspace*{0.2mm}用\hspace*{0.1mm}を式(\ref{eq:est})に代入して,\hspace*{0.3mm}目\hspace*{0.1mm}標\hspace*{0.1mm}弧\\から各弧までの最小推定費用を再帰的に求める.そのアルゴリズムを図\ref{fig:min_est}に示す.\begin{figure}\samepage\begin{center}\fbox{\small{\begin{minipage}{0.9\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGORITHM}\step目標構文範疇をリストに入れる.目標弧から目標弧までの推定費用を0とする.\label{algo:est_init}\stepリストが空ならば,終了.\label{algo:est_loop}\stepリストの先頭の構文範疇$\alpha$を取り出す.\label{algo:est_pop}\step左辺が$\alpha$であるすべての規則$\alpha\rightarrow\beta_1/w_{\beta_1}\ldots\beta_m/w_{\beta_m},\\C_\alpha$に現れる各$\beta_i$について,推定費用を式(\ref{eq:est})で計算し,それを不活性弧$\beta_i$までの推定費用とする.ただし,$\beta_i$が複数の規則に現れるか,または,ある一つの規則において$\beta_i=\beta_j\(i\neqj)$ならば,求まった値のうち最小値を不活性弧$\beta_i$までの推定費用とする.目標弧から活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}]_\alpha$までの推定費用は,$1<i<m$のとき,不活性弧$\beta_i$までの推定費用と同じ値とし,$i=1$のとき,不活性弧$\beta_1$までの推定費用から規則の適用費用$C_\alpha$を引いた値とする.\label{algo:est_est}\step活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}]_\alpha$について,今求めた値と以前求めた値の大小比較を行ない,小さいほうを目標弧からこの活性弧までの推定費用とする.また,不活性弧$\beta_i$についても同様に,今求めた値と以前求めた値のうち小さいほうを目標弧から不活性弧$\beta_i$までの推定費用とする.\label{algo:est_compare}\step今求めた推定費用が初めて計算された値か,または,以前求めた値よりも小さい値であれば,構文範疇$\beta_i$をリストの最後尾に入れる.ステップ\ref{algo:est_loop}へ.\label{algo:est_push}\end{ALGORITHM}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{目標弧から弧までの最小費用を推定するアルゴリズム}\label{fig:min_est}\end{figure}図\ref{fig:rule}の費用付き構文規則が与えられているとき,推定費用は次のように計算される.ステップ\ref{algo:est_pop}で構文範疇Sが取り出されるので,規則(a)がステップ\ref{algo:est_est}での処理対象となり,目標弧から不活性弧NPまでの推定費用は,$\hat{h}_\NP=\hat{h}_\SS+w_\VP\timesg_\VP+C_\SS=4$と計算され,不活性弧VPまでの推定費用は$\hat{h}_\VP=\hat{h}_\SS=0$となる.活性弧$[\NP\[?]_\VP]_\SS$までの推定費用は,$\hat{h}_{[\NP\[?]_\VP]_\SS}=3$と\hspace*{0.2mm}な\hspace*{0.2mm}る.\hspace*{0.2mm}こ\hspace*{0.2mm}れ\hspace*{0.2mm}ら\hspace*{0.2mm}の\hspace*{0.2mm}推\hspace*{0.2mm}定\hspace*{0.2mm}値\hspace*{0.2mm}は\hspace*{0.2mm}初\hspace*{0.2mm}め\hspace*{0.2mm}て\hspace*{0.2mm}計\hspace*{0.2mm}算\hspace*{0.2mm}さ\hspace*{0.2mm}れ\hspace*{0.2mm}た\hspace*{0.2mm}値\hspace*{0.2mm}で\hspace*{0.2mm}あ\hspace*{0.2mm}る\hspace*{0.2mm}の\hspace*{0.2mm}で,\hspace*{0.2mm}\hspace*{0.2mm}ス\hspace*{0.2mm}テ\hspace*{0.2mm}ッ\hspace*{0.2mm}プ\hspace*{0.2mm}\ref{algo:est_compare}で\hspace*{0.2mm}の\hspace*{0.2mm}大\hspace*{0.2mm}小\hspace*{0.2mm}比\hspace*{0.2mm}較\hspace*{0.2mm}は\hspace*{0.2mm}行なわれない.ステップ\ref{algo:est_push}でNPとVPがリストの最後尾に入れられる.二回目のループのステップ\ref{algo:est_pop}では構文範疇NPが取り出され,規則(b)と(c)がステップ\ref{algo:est_est}での処理対象となる.規則(b)について,不活性弧Aまでの推定費用は,$\hat{h}_\A=\hat{h}_\NP+w_\N\timesg_\N+C_\NP=6$となり,\hspace*{-0.3mm}不活性弧Nまでの推定費用は$\hat{h}_\N=\hat{h}_\NP=4$となる.\hspace*{-0.3mm}活性弧$[\A\[?]_\N]_\NP$までの推定費用は,$\hat{h}_{[\A\[?]_\N]_\NP}=5$となる.規則(c)については,不活性弧PRPまでの推定費用は,$\hat{h}_\PRP=\hat{h}_\NP+w_\N\timesg_\N+C_\NP=10$と計算され,活性弧$[\PRP\[?]_\N]_\NP$までの推定費用は,$\hat{h}_{[\PRP\[?]_\N]_\NP}=5$となる.ステップ\ref{algo:est_push}でA,PRP,Nがリストの最後尾に入れられる.三回目のループのステップ\ref{algo:est_est}では,規則(d)と(e)が処理対象となる.規則(d)について,不活性弧Vまでの推定費用は,$\hat{h}_\V=\hat{h}_\VP+w_\A\timesg_\A+C_\VP=6$,不活性弧Aまでの推定費用は$\hat{h}_\A=\hat{h}_\VP=0$となる.活性弧$[\V\[?]_\A]_\VP$までの推定費用は,$\hat{h}_{[\V\[?]_\A]_\VP}=1$となる.規則(e)については,不活性弧Vまでの推定費用は,$\hat{h}_\V=\hat{h}_\VP+w_\AV\timesg_\AV+C_\VP=2$,不活性弧AVまでの推定費用は$\hat{h}_\AV=\hat{h}_\VP=0$となる.不活性弧Vについて,規則(d)から得られた値6と規則(e)から得られた値2のうち小さいほうの後者がその推定費用となる.ステップ\ref{algo:est_compare}では,不活性弧Aについて,今,規則(d)から得られた値0は,二回目のループで規則(b)から得られた値6より小さいので,推定費用は0となる.以下,同様に処理が進むと,表\ref{tab:est}に示す推定費用が最終的に得られる.\begin{table}\caption{目標弧からの推定費用}\label{tab:est}\begin{center}\begin{tabular}{|l|r||l|r||l|r|}\hline\multicolumn{1}{|c|}{不活性弧\rule{0pt}{11pt}}&\multicolumn{1}{|c||}{$\hat{h}$}&\multicolumn{1}{|c|}{不活性弧}&\multicolumn{1}{|c||}{$\hat{h}$}&\multicolumn{1}{|c|}{活性弧}&\multicolumn{1}{|c|}{$\hat{h}$}\\\hline\hlineS&0&V&2&$[\NP\[?]_\VP]_\SS$&3\\NP&4&AV&0&$[\A\[?]_\N]_\NP$&5\\VP&0&failing&1&$[\PRP\[?]_\N]_\NP$&5\\A&0&hard&1&$[\V\[?]_\A]_\VP$&1\\PRP&10&student&5&$[\V\[?]_\AV]_\VP$&1\\N&4&looked&3&&\\\hline\end{tabular}\end{center}\end{table} \section{解析例} 図\ref{fig:rule}の構文規則と表\ref{tab:est}の推定費用を用いて`failingstudentlookedhard'を解析する過程を追う.解析アルゴリズムは,\ref{sec:astar_chart}節で述べた改良を加えていない図\ref{fig:astar_chart}の基本的なものを用いることにする.表\ref{tab:chart}は,この例文に対して全解探索を行なった場合に得られるチャートである.図\ref{fig:astar_chart}のアルゴリズムによる解析で,費用の最も小さい目標弧が得られるまでのアジェンダの変化の様子を表\ref{tab:agenda}に示す.表\ref{tab:agenda}の各行は,解析のある時点でのアジェンダの内容を表す.アジェンダの要素は,弧と全推定費用($\hat{f}=g+\hat{h}$)の対であり,$\hat{f}$の昇順に左から右へ並んでいる.表\ref{tab:agenda}の最左要素がアジェンダの先頭要素である.アジェンダは,図\ref{fig:astar_chart}の解析アルゴリズムにおける第$k$回目のループでの処理で,第$k$行目から第$k+1$行目へ変化する.以後,第$k$行目のアジェンダをアジェンダ$k$と呼ぶ.弧は,表\ref{tab:chart}の\#欄の番号で表される.例えば,アジェンダ1の第一要素1:\#4は,表\ref{tab:chart}の四行目の全推定費用が1である弧hardを指す.まず,アジェンダ1から先頭要素1:\#4を取り出し,不活性弧\#4に予測手続きを適用して得られた弧\#9と\#10をアジェンダに加え,$\hat{f}$の昇順に並べると,アジェンダ2へ変化する.アジェンダ2の先頭要素の不活性弧\#10は,それに対して適用できる構文規則が存在しないので,アジェンダ3へ変化する.アジェンダ3,4,5,6,7の先頭要素は不活性弧であるので,これらに予測手続きを適用して得られた弧を加え,$\hat{f}$の昇順に並べると,それぞれ,アジェンダ4,5,6,7,8となる.アジェンダ8の先頭要素である弧\#15は活性弧であるので,\#15と不活性弧\#10に結合手続きを適用して得られた弧\#19をアジェンダに加え,$\hat{f}$の昇順に並べると,アジェンダ9へ変化する.以下,同様に処理を進め,アジェンダ15から先頭要素7:\#23を取り出すと,弧\#23は目標弧であるので,費用の最も小さい目標弧を発見したことになり,解析を中断する.もし費用が二番目に小さい目標弧が必要ならば,アジェンダ16から処理を再開すればよい.以上の解析過程の追跡からわかるように,弧\#13,\#17,\#18,\#21,\#22,\#24,\#25を生成せずに,また,弧\#6,\#11,\#14に対して手続きを適用せずに,生成費用の最も小さい目標弧が得られる.\begin{table}\caption{例文に対して全解探索を行なった場合のチャート}\label{tab:chart}\begin{center}\begin{tabular}{|r|r|c|l|}\hline\multicolumn{1}{|c|}{\#}&\multicolumn{1}{|c|}{$g+\hat{h}$}&位置&\multicolumn{1}{|c|}{項}\\\hline\hline1&$0+1$&[0,1]&failing\\2&$0+5$&[1,2]&student\\3&$0+3$&[2,3]&looked\\4&$0+1$&[3,4]&hard\\5&$1+0$&[0,1]&$[\FAIL]_\A$\\6&$1+10$&[0,1]&$[\FAIL]_\PRP$\\7&$1+4$&[1,2]&$[\STUD]_\N$\\8&$1+2$&[2,3]&$[\LOOK]_\V$\\9&$1+0$&[3,4]&$[\HARD]_\A$\\10&$1+0$&[3,4]&$[\HARD]_\AV$\\11&$2+5$&[3,4]&$[[\HARD]_\A\[?]_\N]_\NP$\\12&$2+5$&[0,1]&$[[\FAIL]_\A\[?]_\N]_\NP$\\13&$6+5$&[0,1]&$[[\FAIL]_\PRP\[?]_\N]_\NP$\\14&$6+1$&[2,3]&$[[\LOOK]_\V\[?]_\A]_\VP$\\15&$2+1$&[2,3]&$[[\LOOK]_\V\[?]_\AV]_\VP$\\16&$3+4$&[0,2]&$[[\FAIL]_\A\[\STUD]_\N]_\NP$\\17&$7+4$&[0,2]&$[[\FAIL]_\PRP\[\STUD]_\N]_\NP$\\18&$7+0$&[2,4]&$[[\LOOK]_\V\[\HARD]_\A]_\VP$\\19&$3+0$&[2,4]&$[[\LOOK]_\V\[\HARD]_\AV]_\VP$\\20&$4+3$&[0,2]&$[[[\FAIL]_\A\[\STUD]_\N]_\NP\[?]_\VP]_\SS$\\21&$8+3$&[0,2]&$[[[\FAIL]_\PRP\[\STUD]_\N]_\NP\[?]_\VP]_\SS$\\22&$11+0$&[0,4]&$[[[\FAIL]_\A\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\A]_\VP]_\SS$\\23&$7+0$&[0,4]&$[[[\FAIL]_\A\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\AV]_\VP]_\SS$\\24&$15+0$&[0,4]&$[[[\FAIL]_\PRP\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\A]_\VP]_\SS$\\25&$11+0$&[0,4]&$[[[\FAIL]_\PRP\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\AV]_\VP]_\SS$\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{例文解析時のアジェンダの変化の様子}\label{tab:agenda}\begin{center}\begin{tabular}{r|l}\hline&\multicolumn{1}{|c}{アジェンダ}\\\hline\hline1.&1:\#4,\1:\#1,\3:\#3,\5:\#2\\2.&1:\#10,\1:\#9,\1:\#1,\3:\#3,\5:\#2\\3.&1:\#9,\1:\#1,\3:\#3,\5:\#2\\4.&1:\#1,\3:\#3,\5:\#2,\7:\#11\\5.&1:\#5,\3:\#3,\5:\#2,\7:\#11,\11:\#6\\6.&3:\#3,\5:\#2,\7:\#12,\7:\#11,\11:\#6\\7.&3:\#8,\5:\#2,\7:\#12,\7:\#11,\11:\#6\\8.&3:\#15,\5:\#2,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\9.&3:\#19,\5:\#2,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\10.&5:\#2,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\11.&5:\#7,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\12.&7:\#12,\7:\#11,\7:\#14,\11:\#6\\13.&7:\#16,\7:\#11,\7:\#14,\11:\#6\\14.&7:\#20,\7:\#11,\7:\#14,\11:\#6\\15.&7:\#23,\7:\#11,\7:\#14,\11:\#6\\16.&7:\#11,\7:\#14,\11:\#6\\\hline\end{tabular}\end{center}\end{table} \section{関連研究との比較} \label{sec:comparison}KGW+p\cite{Tsujii88}は,拘束規則に基づいてすべての可能な部分構造を生成する機構と,優先規則に基づいて構造の良さを比較し,それらの間に有意な差が生じたときに,一部の構造を選択する機構から構成されている.KGW+pでは,解析のある時点で優先されなかった部分構造が選択されるのは,優先された部分構造を構成要素とする構造が生成できなかった場合に限られており,局所的な選択の積み重ねで解析を進める一種のビーム探索が行なわれている.このため,生成された全体構造が可能な構造のうち最も適切なものであることが保証されない.これに対し,本手法では保証される.シフト/レデュース法において,1)シフト操作とレデュース操作の適用に競合が生じた場合には,シフト操作を優先させ,2)レデュース操作同士の競合が生じた場合には,右辺がより長い構文規則の適用を優先させる,という二つのメタレベルの優先方略に従い,右連合(rightassociation)や最小付加(minimalattachment)などの英語における選好を反映した構造を生成する手法が提案されている\cite{Shieber83}.また,日本語文の構文的特徴が左枝分かれ構造であることに着目し,これを反映する構造を最初に生成するために,上記の優先方略を変更した手法も示されている\cite{Shimazu89}.これらの手法では,優先方略が探索機構の中に組み込まれているため,右連合や最小付加,左枝分かれ構造以外の構造を優先する必要が生じた場合,探索機構自体を変更しなければならない.これに対し,本手法では,探索機構と規則記述の枠組みが分離されているので,探索機構には手を加えずに,構文規則の適用費用を修正するだけで,優先すべき構造を柔軟に変更できる.例えば,名詞句の左枝分かれ構造を優先したい場合,本手法では,構文規則$\NP\rightarrow\NP/1\\NP/2,\\1$を用いればよい.この規則に従って生成される不活性弧を図\ref{fig:leftright}に示す.括弧内の数値が生成費用である.\begin{figure}\begin{center}\epsfile{file=leftright.eps}\vspace{-0.5mm}\end{center}\caption{左枝分かれ構造と右枝分かれ構造}\label{fig:leftright}\vspace{-0.5mm}\end{figure}逆に,右枝分かれ構造を優先したい場合は,右辺の第一項と第二項の重みを入れ換えればよい.また,本手法では,優先すべき構造をメタレベルの優先方略に従って選択する手法と異なり,個々の規則に付与された費用に基づいて選択するので,優先すべき構造をきめ細かく指定できる.PAMPS\cite{Uehara83}は,構文規則に付与された費用に基づいて,優先すべき構造を選択する枠組みとなっている点では,本手法と同じである.しかし,本手法と異なり,部分構造から全体構造を得るまでの費用の推定が行なわれていないので,解析過程で生成される部分構造の数は,本手法で生成される数よりも多くなる可能性が高い.確率付き構文規則は,文脈自由文法形式の規則に$0<p_\alpha\le1$なる実数を規則の適用確率として付与したものである.ただし,左辺の構文範疇が同じである各規則の適用確率の和は1でなければならない.確率付き規則を用いた構文解析では,構文構造にはその構造の生成に関与した規則の適用確率の積が付与される.確率付き規則$\alpha\rightarrow\beta_1\ldots\beta_m,\\p_\alpha$は,適用確率$p_\alpha$をそ\\の逆数の対数$\log\frac{1}{p_\alpha}$に置き換えれば,費用付き規則とみなせ,本稿の構文解析手法を適用することができる.しかし,その逆の費用付き規則から確率付き規則への変換を行なうことはできない.確率付き規則では,左辺の構文範疇が異なる規則の間での競合が記述できないからである.例えば,図\ref{fig:rule}の構文規則において,規則(f)を(h)より優先させたい場合,費用付き規則では,(f')~$\A\rightarrow\FAIL/1,\1$と(h')~$\PRP\rightarrow\FAIL/1,\2$とすればよいが,確率付き規則では,規則の適用確率$p_\alpha$は$0<p_\alpha\le1$なる実数であり,左辺の構文範疇が同じである各規則の適用確率の和は1でなければならないので,規則(h)の適用確率よりも大きな値を規則(f)に付与することはできない.従って,費用付き構文規則のほうが記述力の点で優れている.これまでに,不適格文を処理するための種々の手法が提案されている\cite{Matsumoto94}.ここでは,本手法が,語句の欠落や語順の誤りなどを含む構文的不適格文を効率良く処理できることを示す.これまでに提案されている手法の多くは,適格文用の構文規則を用いて解析を行なう機構と,この機構による通常の解析が失敗した時点で起動される不適格文を処理するための別の機構を備えている.これに対し,本手法を用いれば,Fassらの手法\cite{Fass83}と同じく,適格文と不適格文を区別せずに,両者の処理を統一的な枠組みで行なうことができる.すなわち,不適格文用の構文規則を,適格文用の規則と同じように記述し,前者の適用費用を後者のものよりも高く設定しておく.一般に,適格文と不適格文を区別しないように構文規則を拡張すると,適格文を解析する際に生成される部分構造の数が多くなり,効率が悪くなるという問題が生じる.しかし,本手法では,適用費用が高い不適格文用の規則は,適格文用の規則の適用が失敗した場合にのみ適用される可能性が高いので,効率が悪化する恐れは少ないと考えられる. \section{おわりに} 本稿では,可能な構文構造に優劣を付け,適切な構造から順に必要なだけ生成する構文解析手法を示した.本手法は次のような特徴を持っている.\begin{enumerate}\item部分構造の共有と統合を行ない,重複処理を避ける.\item$\A^*$法の最適性条件を満たすよう推定費用を計算し,可能な構造のうち費用の最も小さい全体構造を効率良く生成する.\item優先すべき構造をきめ細かく指定でき,その変更も容易に行なえる規則記述の枠組みを提供する.\end{enumerate}自然言語処理システムは,最終的には,可能な解釈の中からシステム全体で最も適切な解釈を一つ選び出さなければならない.そのような解釈は,より適切な構造から得られると考えられるので,構文解析以降の処理からの要請があるまで,適切でない構造の生成を保留する本手法は,システム全体としての効率の向上に寄与する.本手法では,現在のところ,入力文とは独立に構文規則だけに基づいて費用の推定を行なっている.この方法では,推定を,文が入力される度に行なう必要はなく,費用付き構文規則に変更がない限り一度だけ行なっておけばよい.しかし,費用推定の精度をさらに高めるためには,入力文を参照しながら推定を行なわなければならない.これは今後の課題である.もう一つの課題は,人間が見て最も適切な構文構造を最初に生成できるように,構文規則に費用を付与することである.\ref{sec:comparison}節で述べたように,費用付き構文規則は確率文脈自由文法規則の拡張とみなせるので,確率文脈自由文法規則のパラメータ学習法として知られているInside-Outsideアルゴリズムなどを利用することで,この課題には対処できる.しかし,最終的には,学習したパラメータを人手で調整しなければならず,そのための実験が必要になろう.本手法は,最適な費用付き構文規則を記述するための実験環境を文法記述者に提供する.\bibliographystyle{jnlpbbl}\bibliography{bfc}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1962年生.1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)情報商品開発研究所にて日英機械翻訳システムの研究開発に従事.}\bioauthor{JiriJelinek}{1939年生.チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1996年退職.現在,シャープ専任研究員.}\bioauthor{西田収}{1961年10月19日生.1984年大阪教育大学教育学部中学校課程数学科卒業,同年より神戸大学工学部応用数学科の教務補佐員として勤務.1987年シャープ(株)に入社.現在は,同社の情報商品開発研究所に所属.主に,日英機械翻訳,多言語翻訳の研究に従事.情報処理学会会員.}\bioauthor{田村直之}{1957年1月31日生.1985年神戸大学大学院自然科学研究科システム科学専攻博士課程修了.学術博士.同年,日本アイ・ビー・エム(株)に入社し東京基礎研究所に勤務.1988年神戸大学工学部システム工学科助手.講師を経て,現在同大学大学院自然科学研究科助教授.論理型プログラミング言語,線形論理などに興味を持つ.著書に「Prologプログラミング入門」(オーム社,共著).情報処理学会,日本ソフトウェア科学会,システム制御情報学会,ACM,IEEE各会員.}\bioauthor{村上温夫}{1929年生.1952年大阪大学理学部数学科卒業.神戸大学理学部助手,講師,教養部助教授を経て,1968年より工学部教授.この間,UniversityofKansas客員助教授,UniversityofNewSouthWales客員教授,NanyangUniversity客員教授を併任.1992年より甲南大学理学部教授.神戸大学名誉教授.理学博士(東京大学).関数解析,偏微分方程式,人工知能,数学教育などに興味を持つ.著書に``MathematicalEducationforEngineeringStudents''(CambridgeUniversityPress)など.日本数学会,日本数学教育学会,情報処理学会,教育工学会,AMS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V32N02-04
\section{はじめに} LLMは優れた言語理解能力と文章生成能力を示し,最近は文生成タスクの自動評価手法(LLM評価器;LLM-as-a-Judge\cite{NEURIPS2023_91f18a12})としても活用されている\cite{liu2023geval,fu2023gptscore,kocmi-federmann-2023-large,chiang-lee-2023-large}.例えば,評価対象の文章の尤度をLLMに計算させ,評価スコアとして使用する方法\cite{fu2023gptscore,yuan2021bartscore}や,LLMに文章の評価スコアを直接出力させる方法\cite{liu2023geval,kocmi-federmann-2023-large}が提案されている.BLEU\cite{papineni-etal-2002-bleu}やROUGE\cite{lin-2004-rouge}などの従来の自動評価手法と比べ,LLMによる自動評価は多くのタスクで人間の評価とより高い相関を示すことが報告されている.LLMの学習は膨大な事前学習データ\cite{NEURIPS2020_1457c0d6,openai2023gpt4}と指示学習データ\cite{wei2022finetuned,NEURIPS2022_b1efde53}の尤度最大化であり,文章生成も尤度に基づいている.ゆえに,尤度を直接的に評価スコアとする方法だけではなく,評価スコアを生成させる方法においても,評価対象の文章の尤度が評価結果に影響を与えると考えられる.ところが,LLMが計算する尤度は文章の流暢性や文法性,事実性などの良し悪しを捉えているとは限らない.例えば,ある文章の語順や構造を変更して言い換えると,LLMの尤度が変動することが報告されている\cite{kuribayashi-etal-2020-language}.この場合,文章の意味に関する評価を行う際に,尤度の変動がLLMの評価結果に悪影響を及ぼしうる.言い換えると,LLMの尤度と文章の良し悪しのずれが,さまざまな評価項目で評価バイアスを引き起こしている可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig1\begin{figure}[t]\begin{center}\includegraphics{32-2ia3f01.eps}\end{center}\hangcaption{尤度バイアスの例.人間の採点であれば同じスコアをつけられるべき出力のうち,尤度の低い出力(上側)が尤度の高い出力(下側)よりも不当に低く評価されていることを表す.}\label{fig:bias_image}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,LLMが文章の評価スコアを出力する際,尤度の低い文章を(人間の評価よりも)不当に低く評価し,尤度の高い文章を不当に高く評価するという評価バイアスの存在を仮定し,これを\textbf{尤度バイアス}と呼ぶ.尤度バイアスの例を図~\ref{fig:bias_image}に示す.この図ではデータから文を生成するタスク(data-to-text)をdatacoverage(データの情報を出力がカバーしているか)という評価項目に基づいて採点する際に,人間の採点であれば同スコアになる出力のうち,尤度の低い出力(上側)が尤度の高い出力(下側)よりもLLMによって不当に低く評価されていることを表す.この問題に対処するため,我々は尤度バイアスを(1)定量的に測定し,(2)緩和する手法を提案する.本研究はLLM評価器における評価時のバイアスを緩和する初めての試みである.まず,LLMの尤度と,LLMと人手評価のスコアの差の相関に着目し,尤度バイアスの定量的な測定を行う.次に,訓練データから尤度バイアスの強い事例(タスクの入出力のペア)を特定し,それらの事例に人手評価スコアを付与し,Few-shot事例としてLLM評価器に与えることで,評価時の尤度バイアスを緩和する.尤度バイアスの大きさは評価に用いる評価項目によって変化することが予想される.例えば,datacoverageのような出力の尤度と関係が浅いと考えられる項目に対しては,尤度バイアスはより大きくなる可能性がある.逆に,fluency(出力か流暢かどうか)のような出力の尤度と関係が深いと考えられる項目に対しては,尤度バイアスは小さくなる可能性がある.このような評価項目と尤度バイアスの関係を検証するために,本研究ではdata-to-textと文法誤り訂正(GrammaticalErrorCorrection;GEC)の2つのタスクを使用する.これらのタスクを選んだ理由は,他タスクにおける既存の評価データセット\cite{freitag-etal-2021-experts,guan-etal-2021-openmeva,kamalloo-etal-2023-evaluating}と異なり,この2タスクにおける評価データセット\cite{castro-ferreira-etal-2020-2020,yoshimura-etal-2020-reference}はfluency,grammar,datacoverageのような複数の評価項目における人間が付与した評価結果を含んでいるからである.実験の結果,GPT-3.5\footnote{\url{https://platform.openai.com/docs/models#gpt-3-5-turbo}}とLlama213B\cite{touvron2023llama}の2つのLLMがdata-to-textとGECの2つのタスクにおいて尤度バイアスを持つ可能性を示した.さらに,バイアス緩和手法によりほとんどのモデル・タスクにおいてLLMの尤度バイアスが緩和され,評価性能(人手評価スコアとの順位相関係数)も向上することが分かった.Data-to-textにおいては有意なバイアスの緩和と評価性能の向上が確認され,GECにおいてはその傾向が確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:method}先行研究\cite{liu2023geval,chiang-lee-2023-large}に倣い,本研究ではLLMに文章の評価を指示するプロンプトを与え,評価スコアを計算する.また,\citeA{liu2023geval}に倣い,LLMに評価スコアを直接出力させるのではなく,評価スコアの候補値(例:$\{1,\ldots,5\}$)を予測させ,その尤度からスコアの期待値を計算し,最終的な評価スコアとする(これを$\text{Score}_{\text{m}}$と書く).先行研究では,タスクの説明・評価項目・評価対象文章の3つでプロンプトを構成していたが,我々はこれに加えてFew-shot事例をモデルに与えることで出力を安定化させ,より正確に尤度バイアスを測定・緩和することを目指す.具体的には,$\theta$をモデルのパラメータ,$Q(i\midt,F,I;\theta)$をモデルがスコア$i$を出力する確率とすると,$\text{Score}_{\text{m}}$は以下のように計算される\footnote{$\text{Score}_{\text{m}}$を計算するために用いた実際のプロンプトは付録\ref{sec:app_eval}に記載する.}.\begin{equation}\text{Score}_{\text{m}}(t;\theta)=\frac{\sum_{i=1}^{n}i\timesQ(i\midt,F,I;\theta)}{\sum_{j=1}^{n}Q(j\midt,F,I;\theta)}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{尤度バイアスの測定}\label{sec:method_measure}本研究では,\textbf{人間の評価と比較してLLMが尤度の低い文章を不当に低く評価し,尤度の高い文章を不当に高く評価する}という評価のバイアスを\textbf{尤度バイアス}と呼ぶ.まず,その定量的な測定方法を提案する.$t_{i}$を入力文章,$t_{o}$を出力文章とし,これらをまとめて評価対象の事例$t=(t_i,t_o)$と書く.$d$をタスクの説明,$\theta$をモデルのパラメータ,$P$をモデルによる尤度とすると,LLMの尤度による指標LS(likelihoodscore)は次式で計算される.\begin{equation}\text{LS}(t)=\logP(t_{o}\midt_{i},d;\theta)\label{eq:LS}\end{equation}次に,LLMがどれだけ不当な評価をしているかを表す指標US(unfairnessscore)として,LLMによる評価スコア($\text{Score}_{\text{m}}$)と人手評価スコア($\text{Score}_{\text{h}}$)の差を次式で計算する\footnote{LLMと人手によるスコアの値域が異なる場合を考慮し,$\text{Score}_{\text{m}}$と$\text{Score}_{\text{h}}$は値域が同じになるように正規化する.}.\begin{equation}\text{US}(t)=\text{Score}_{\text{m}}(t;\theta)-\text{Score}_{\text{h}}(t)\label{eq:US}\end{equation}LLMによる評価スコア$\text{Score}_{\text{m}}$を計算するときは,訓練データからランダムに選んだ8つのFew-shot事例をプロンプトに含める.LS,USを用いてLLMの持つ尤度バイアスの強さを示す指標である\textbf{BiasScore}を計算する.BiasScoreは,事例の集合であるデータセット$D=\{t^{(1)},t^{(2)},\ldots,t^{(n)}\}$全体におけるLSとUSのスピアマンの順位相関係数$\rho$として計算する.\begin{gather}\text{LS}_{\text{D}}=\lbrack\text{LS}(t^{(1)}),\text{LS}(t^{(2)}),\ldots,\text{LS}(t^{(n)})\rbrack\\\text{US}_{\text{D}}=\lbrack\text{US}(t^{(1)}),\text{US}(t^{(2)}),\ldots,\text{US}(t^{(n)})\rbrack\\\text{BiasScore}=\rho(\text{LS}_{\text{D}},\text{US}_{\text{D}})\label{eq:BS}\end{gather}BiasScoreは[$-1$,1]の範囲を取り,1は最も強いバイアスを表し,0はバイアスがないことを表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{尤度バイアスの緩和}\label{sec:method_mitigate}図\ref{fig:bias_graph}に複数の仮想の評価器による尤度バイアスを可視化した散布図を示す.横軸はLS(式\ref{eq:LS}),縦軸はUS(式\ref{eq:US}),点は評価事例を表す.点の回帰直線はLSとUSの相関,つまりBiasScoreを擬似的に示すと解釈できる.また,各図は次のように解釈される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig2\begin{figure}[b]\begin{center}\includegraphics{32-2ia3f02.eps}\end{center}\hangcaption{仮想の評価器における尤度バイアスを可視化した図.Aはバイアスがある,Bはバイアスがなく高性能,Cはバイアスがなく低性能な評価器を表す.}\label{fig:bias_graph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\itemAの散布図は尤度バイアスを持つ評価器を表す.評価器は尤度の高い事例に不当に高いスコアを与えており(右上部分),尤度の低い事例に不当に低いスコアを与えている(左下部分).バイアスの緩和前のLLM評価器はこの状態であると想定する.\itemBの散布図は尤度バイアスを持たない評価器を表す.USが0に近く,LLMによる評価と人間による評価に乖離がないため,評価性能は高いと考えられる.\itemCの散布図も尤度バイアスを持たない評価器を表すが,USの値がランダムに分布しており,LLMによる評価と人間による評価に乖離があるため,評価性能は低いと考えられる.\end{itemize}提案手法による尤度バイアスの緩和では,バイアスのある状況(A)から,評価性能が高くバイアスのない状況(B)に変化させることを目指す.その際,評価性能が低くバイアスのない状況(C)にならないように,バイアスが強い事例(Aの図の右上・左下)を特定し,その評価を集中的に是正する.そのため,事例$t$のバイアスの強さを示す指標として,RSを導入する.\begin{equation}\text{RS}(t)=|\text{LS}^*(t)+\text{US}^*(t)|\end{equation}ここで,$\text{LS}^*$と$\text{US}^*$はそれぞれ,データセット$D$に対して平均値が$0$,値域が$[-1,1]$になるように$\text{LS}$と$\text{US}$を正規化したものである.RS($t$)は事例$t$が図\ref{fig:bias_graph}のAにおいて右上か左下に近づくほど大きな値を取る.訓練データから$\text{RS}(t)$が大きな事例,つまりバイアスの強い事例を抽出し,人手評価のスコアを付与したうえでFew-shot事例として用いることで,評価における尤度バイアスを緩和する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用したタスク・データ}\label{sec:dataset}実験では,data-to-textとGECの2つのタスクにおける尤度バイアスの測定・緩和を行う.Data-to-textタスクでは,WebNLG+\cite{castro-ferreira-etal-2020-2020}をデータセットとして用いた.2846個の英語の各事例に対して,textstructure,relevance,fluency,correctness,datacoverageの5つの評価項目に関する人手評価スコア$\text{Score}_{\text{h}}$が付与されている.GECでは,TMU-GFM-Dataset\cite{yoshimura-etal-2020-reference}をデータセットとして用いた.4221個の英語の各事例に対して,grammar,fluencyの2つの評価項目に関して人手評価スコア$\text{Score}_{\text{h}}$が付与されている\footnote{データセットやその評価項目の説明を付録\ref{sec:app_dataset}に示す.GECのデータセットでは3つ目の評価項目としてmeaningが存在するが,データセットを作成した研究\cite{yoshimura-etal-2020-reference}でmeaningにおける結果が全体の評価にほとんど寄与しないことが示されているため,本実験からは除外した.}.これらのデータはそれぞれ,4:1の割合で訓練・評価データに分割した.訓練データはFew-shot推論に用いる事例を選ぶためのデータプールとして用いた.訓練データから選ばれた事例を用いてFew-shot推論を行い,評価データにおける尤度バイアスや評価性能を測定した.また,タスク全体での傾向を調べるために,すべての評価項目のマイクロ平均を新たな評価項目totalとして導入した\footnote{Totalにおける値は他の評価項目のマイクロ平均であるため,表~\ref{tab:result}の同じ列の値の平均(マクロ平均)とは異なることに注意が必要である.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用したLLM}実験には,OpenAI社がAPIとして提供するGPT-3.5\footnote{\texttt{gpt-3.5-turbo-instruct}をAPI呼び出しに用いた.}と,オンプレミスで動作するLlama213B\footnote{\url{https://huggingface.co/meta-llama/Llama-2-13b-hf}}(L-13B)\cite{touvron2023llama}をLLMとして用いた.ただし,GPT-3.5では生成された文の尤度を計算できないため,代わりにLlama213Bで尤度を計算する.まず,これらのLLMの評価器としての性能を確かめるために,人手とLLMによる評価スコアのスピアマンの順位相関係数を計算した.結果を表~\ref{tab:result}の「評価性能」の「緩和前」列にそれぞれ示す.全体的な傾向として,data-to-textではGPT-3.5がLlama213Bよりも高い性能を示し,GECではどちらのモデルも同程度の性能を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{尤度バイアスの測定}\label{sec:measure}\ref{sec:method_measure}節で述べた手法を用い,data-to-textとGECの評価データにおける尤度バイアスを測定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Data-to-textでの結果}表~\ref{tab:result}の「BiasScore」・「緩和前」列における「D2T」行の数値はほとんどのモデル・評価項目で0.20を超える結果を示している.BiasScoreは相関係数であり,0.20は弱相関を表すため,この結果は尤度バイアスの存在を示唆していると言える.評価項目totalにおいてはGPT-3.5(0.38)がLlama213B(0.17)よりも大きなBiasScoreを示しており,他の評価項目においても同じ傾向が観察される.また,評価項目relevanceがどちらのモデルにおいても全ての評価項目の中で最も大きな値を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table1\begin{table}[b]\input{03table01.tex}%\hangcaption{Data-to-textでの尤度バイアス緩和前後のBiasScoreと評価性能.緩和後の値における太字はバイアスの緩和が狙い通りに作用したことを,*~はバイアス緩和前後での並べ替え検定による有意な差($p<0.05$)を,\dagは有意な傾向の差($p<0.06$)を表す.}\label{tab:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{GECでの結果}表~\ref{tab:result}の「BiasScore」・「緩和前」列における「GEC」行の数値はすべてのモデル・評価項目で0.20を超える結果になっており,data-to-textと同様に尤度バイアスの存在を示唆している.また,評価項目totalにおいても同様にGPT-3.5(0.43)がLlama213B(0.21)よりも大きなBiasScoreを示しており,他の評価項目についても同じ傾向が観察される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価項目ごとの尤度バイアスの比較}Data-to-textの評価項目ごとの尤度バイアス(表~\ref{tab:result}の「BiasScore」・「緩和前」列,「D2T」行)に着目すると,どちらのモデルにおいてもfluencyとtextstructureが比較的小さなBiasScoreを示している.これらの項目は,入力によるタスク固有の制約は考慮せず,生成された文章に内在する自然さや文構造のような特性のみに基づいて評価する.そして,どちらのモデルにおいてもrelevanceとdatacoverageは,BiasScoreが小さい内在的評価の項目とは対照的に大きなBiasScoreを示している.これらの項目は,生成された文章に対して外在する入力との関連性や情報の有無などのタスク固有の制約を用いて評価する.これらのことから,内在的評価の項目は,外在的評価の項目よりも小さい尤度バイアスを持つといえる.出力の尤もらしさは内在的な特性に強く依存することを鑑みると,文章の尤度と内在的評価による文章の優劣には正の相関があると予想される.よって,内在的評価においては,LLM評価器が尤度に影響を受けていることが,過小または過大評価のように必ずしも悪い結果につながらないと考えられる.一方で,評価に寄与する特性が異なるため,外在的評価では尤度からの影響がLLM評価器に悪影響を及ぼしていると考えられる.次に,GECの結果とdata-to-textにおけるcorrectnessの結果を以上に議論に含めなかった理由について述べる.まず,GECの評価項目であるfluencyとgrammarはどちらも内在的評価の項目であるため,議論に含めなかった.また,data-to-textにおけるcorrectnessは表~\ref{tab:result}において中間程度のBiasScoreを示しており,特定の評価項目が高い/低いバイアスを持つ理由を考察するという目的に合致しないため,議論に含めなかった.しかしながら,correctnessにおけるバイアスについて,外在的/内在的な評価項目に関する枠組みを用いて説明することができる.Correctnessは出力が入力を正しく説明しているかを評価する項目であるため,外在的な評価項目の特徴を持つ.同時に,出力が合理的にデータを説明しているかを評価する項目であるため,内在的な評価項目の特徴を持つ.従って,correctnessは外在的と内在的の中間の評価項目と捉えることができ,そのために中間程度のバイアスを持つのだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{尤度バイアスの緩和}\label{sec:mitigate}尤度バイアス緩和のため,\ref{sec:method_mitigate}節で説明した手法を用いて訓練データからバイアスを持つ事例を8つ取得し,Few-shot事例として用いた.なお,\ref{sec:method_measure}節で述べた通り,尤度バイアスの測定の際には訓練データから8つの事例をランダムに抽出しFew-shot事例として用いているため,バイアスの測定時と緩和時の違いはFew-shot事例の選び方のみである.表~\ref{tab:result}の「緩和後」列にバイアス緩和後のBiasScoreと評価性能を示す.太字はバイアスの緩和が狙い通りに作用した(BiasScoreの絶対値が減少した・評価性能が向上した)ことを表す.また,$R=100000,\alpha=0.05$として並べ替え検定を行い,バイアス緩和前後で有意な差($p<0.05$)が確認されたものを*,有意な傾向の差($p<0.06$)が確認されたものを\dagで表した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Data-to-textでの結果}表~\ref{tab:result}の「BiasScore」と「評価性能」の「緩和後」列,「D2T」行における数値から,提案手法によってほとんどのモデル・評価項目でBiasScoreの絶対値が減少し,同時に評価性能が向上したことがわかる.GPT-3.5ではtextstructure($-0.13$),relevance($-0.12$),datacoverage($-0.08$)において,Llama213Bではtextstructure($-0.15$),fluency($-0.20$),correctness($-0.20$)においてBiasScoreの絶対値が有意に減少している.同時に,GPT-3.5ではfluency(+0.14),total(+0.10)において評価性能が有意に向上している.また,GPT-3.5でtextstructure(+0.07),datacoverage(+0.10)において,Llama213Bでfluency(+0.19)において評価性能の向上に有意な傾向が確認された.したがって,モデル・タスク全体を通して尤度バイアスの緩和が狙い通り成功し,それによって評価性能が向上していることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{GECでの結果}表~\ref{tab:result}の「BiasScore」と「評価性能」の「緩和後」列,「GEC」行における数値から,提案手法によってほとんどのモデル・評価項目でBiasScoreの絶対値が減少し,同時に評価性能が向上したことがわかる.有意な傾向のバイアス緩和が確認されたのはGPT-3.5のgrammar($-0.09$)のみだったが,少なくとも提案手法がバイアスの緩和を促進し,評価性能を向上させる影響を与えたと考える.以上の結果から,尤度バイアスを緩和する提案手法がdata-to-textとGECにおけるLLM評価器の尤度バイアスを緩和し,同時に評価性能を向上させることに成功したと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{尤度バイアスの可視化・ケーススタディ}図~\ref{fig3}a,\ref{fig3}bはそれぞれdata-to-textタスクのfluencyにおける尤度バイアスの緩和を可視化している.提案したバイアス緩和手法によって,BiasScoreが0に(0.200から0.002に)近づいており,理想的なバイアス緩和を可視化した図~\ref{fig:bias_graph}(B)のように,散布図の各点が$\text{US}=0$の線に近づいていることがわかる.この結果は尤度バイアスが我々の手法によって狙い通り緩和されたことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig3\begin{figure}[b]\begin{center}\includegraphics{32-2ia3f03.eps}\end{center}%%%\label{fig:before_mitigation}%%%\label{fig:after_mitigation}\caption{Data-to-text,fluencyにおけるLlama2-13Bのバイアス緩和の可視化}\label{fig3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,バイアスが実際に緩和された事例の例を以下に示す.\begin{itemize}\item入力(抜粋):(MotorSport\_Vision,city,Fawkham)\item出力:TheMotorsportofVisionisinFawkham.\item出力の尤度の大きさ:テストデータの568事例の中で541番目の大きさ\item人手評価スコア($\text{Score}_{\text{h}}$):85/100\itemバイアス緩和前のLLMによる評価スコア($\text{Score}_{\text{m}}$):2.46/5\itemバイアス緩和後のLLMによる評価スコア($\text{Score}_{\text{m}}$):4.32/5\end{itemize}人手評価スコア($\text{Score}_{\text{h}}$)は85/100であり,これは``Motor''と``sport''の間のスペースが理由で減点が行われたからだと考えられる.しかし,バイアス緩和前のLLMによる評価スコアは2.46/5であり,人手評価スコアと合致しない結果になっている.出力の尤度が小さいことを考慮すると,このLLMによる過小評価は尤度バイアスの影響を受けていることが推察される.バイアス緩和の結果,LLMによる評価スコアは4.32に増大して人手評価スコアに近づいた.この結果は我々のバイアス緩和手法がバイアスを緩和することで,LLMによるスコアを人手評価スコアを近づけた例を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{LLM評価器}近年では,LLMは文生成タスクの自動評価手法(LLM評価器;LLM-as-a-Judge\cite{NEURIPS2023_91f18a12})としても活用されている.\citeA{kocmi-federmann-2023-large}は9つのGPT系列モデルを翻訳タスクの評価器として使用し,GPT-3.5,GPT-4が十分な評価性能を持つことを示した.また,\citeA{chiang-lee-2023-large}はオープンエンド物語生成と敵対的攻撃\footnote{分類モデルが誤分類するような入力文を生成するタスク.}タスクの評価結果は複数のLLM評価器で一貫することを示した.また,LLM評価器による評価結果は異なるプロンプトとサンプリング戦略に対して頑強であることを示した.\citeA{NEURIPS2023_91f18a12}はGPT-4を用いてLLMの会話能力を測定するベンチマークとしてMT-benchを提案した.さらに,\citeA{liu2023geval}はGPT-4をベースにしたLLM評価器に思考の連鎖(chain-of-thoughts;CoT)\cite{wei2023chainofthought}・作成が容易なプロンプトの形式・評価スコアの出力確率を用いた採点手法を組み合わせた評価フレームワークG-EVALを提案し,G-EVALが複数の評価項目において,安定かつ高い評価性能を持つことを示した.このように,LLM評価器は翻訳\cite{kocmi-federmann-2023-large},要約\cite{liu2023geval},物語生成\cite{chiang-lee-2023-large},複数ターン対話\cite{NEURIPS2023_91f18a12}などの様々なタスクで用いられているが,本研究では複数項目での評価と尤度バイアスの関係について調査するために,複数項目の人手評価データセットが存在するdata-to-textとGECの2タスクを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{LLM評価器における評価バイアス}\citeA{NEURIPS2023_91f18a12}はLLM評価器が自身の出力を高く評価する傾向を自己増幅バイアス(self-enhancementbias)と定義し,小規模な実験によってその存在を示唆した.\citeA{liu2023geval}による小規模な実験結果も自己増幅バイアスの存在を示唆している.また,\citeA{NEURIPS2023_91f18a12}はLLM評価器が同じ意味を持つ文の中で長い文を高く評価する傾向も持つことを発見し,冗長バイアス(verbositybias)と定義した.\citeA{saito2023verbosity}は冗長バイアスを測定する手法を提案し,GPT-4,GPT-3.5が実際にバイアスを持つことを確認した.これらの評価バイアスとは異なるバイアスとして,我々はLLM評価器が尤度の低い文章を不当に低く評価し,尤度の高い文章を不当に高くする傾向を尤度バイアスとして定義する.本研究はLLM評価器における評価時のバイアスを緩和する初めての試みである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{研究の限界} 本研究にはいくつかの限界が存在する.まず,本研究で採用した尤度バイアスの緩和手法は,Few-shot推論を用いるため,Zero-shot推論と比較してLLMに入力するトークン数が増加する.その結果,要約タスクや対話タスクなど,入出力が長くなる可能性のあるタスクへの適用が困難となる.この制約により,SummEval\cite{zhang2023summit}(要約タスク)やTopicalChat\cite{gopalakrishnan2023topicalchatknowledgegroundedopendomainconversations}(対話タスク)など,複数の評価項目における人手評価スコアを提供するデータセットを本研究では採用できなかった.さらに,トークン数の増加は,LLMの推論速度の低下を招くだけでなく,APIを使用する場合にはコストの増大にもつながる.これらの課題を解決する方法の一つとして,Few-shot推論の代わりにモデルの微調整(fine-tuning)を行うことが考えられ,今後の研究課題となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究ではLLMが尤度の低い文章を不当に低く,尤度の高い文章を不当に高く評価する傾向を尤度バイアスとして定義し,定量化する方法を提案した.また,我々はバイアスの強い事例を特定し,Few-shot事例として用いることで尤度バイアスを緩和する方法を提案した.実験の結果,data-to-text,GECの2つのタスクにおいて複数のLLMが尤度バイアスを持つ可能性を示した.さらに,尤度バイアスを緩和し評価性能を向上することに成功した.今後は,既存研究で定義された他の評価バイアスと尤度バイアスの関係性について調査したい.例えば,LLM評価器が自身の出力した文を高く評価する自己増幅バイアス\cite{NEURIPS2023_91f18a12}は尤度の高い文を高く評価するという尤度バイアスの特徴を用いて説明ができると考えれられる.また,GPT-3.5,Llama213B以外のモデルにおける尤度バイアスを調べることで,モデルのパラメータ数や指示チューニングと尤度バイアスの関係性を明らかにしたい.さらに,研究の限界でも述べたように,モデルの微調整を用いたバイアスの緩和に取り組みたい.%%%%%%%%%%%%%%%%%%%%%%%%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究成果は,国立研究開発法人情報通信研究機構(NICT)の委託研究(22501)により得られたものです.論文執筆にあたっては,ケンブリッジ大学のSimoneTeufel先生から助言をいただきました.%%%%%%%%%%%%%%%%%%%%%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{LLM評価器の詳細} \label{sec:app_eval}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{尤度の計算方法}式~\ref{eq:LS}にある通り,我々はタスク説明$d$と入力文章$t_{i}$をモデルに入力した状態における出力文章$t_{o}$の尤度を計算する.この手法を用いることで,$\log{P(t_{o};\theta)}$で計算する尤度よりも,タスクの特徴と入力文章を考慮した尤度を得ることができる.タスク説明$d$として用いた文章は以下の通りである.\begin{itemize}\itemdata-to-text:\textit{Pleasegenerateadescriptionofthefollowingxmldata.}\itemGEC:\textit{PleasemodifythefollowingEnglishtexttomakeitgrammaticallycorrect.}\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{プロンプトの例}我々は\citeA{liu2023geval}の用いたプロンプトを参考に,各タスク・評価項目に応じてプロンプトを作成した.以下にプロンプトの例を示す.\textbf{Data-to-textタスクのCorrectnessにおける評価}\begin{quote}YouwillbegivenanxmldataandanEnglishsentencethatrepresentsxmldata.Yourtaskistoratethesentencethatrepresentsxmldataononemetric.Pleasemakesureyoureadandunderstandtheseinstructionscarefully.Pleasekeepthisdocumentopenwhilereviewing,andrefertoitasneeded.EvaluationCriteria:Correctness:(1--5)-doesthetextdescribepredicateswithcorrectobjectsanddoesitintroducethesubjectcorrectly?1isthelowestscore,5isthehighest.\end{quote}\textbf{GECタスクのFluencyにおける評価}\begin{quote}YouwillbegivenanEnglishsentencethatmayhavegrammaticalerrorsandasentencethatisthecorrectedversionofthesentence.Yourtaskistoratethecorrectedsentenceononemetric.Pleasemakesureyoureadandunderstandtheseinstructionscarefully.Pleasekeepthisdocumentopenwhilereviewing,andrefertoitasneeded.EvaluationCriteria:Fluency:(0--4)-Hownaturalthesentencesoundsfornativespeakers;4:Extremelynatural,3:Somewhatnatural,2:Somewhatunnatural,and1:Extremelyunnatural,and0:Other.\end{quote}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット} \label{sec:app_dataset}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{data-to-text}我々はdata-to-textのデータセットとして,WebNLG+\cite{castro-ferreira-etal-2020-2020}から人手評価スコアを持つ事例を抽出して用いた.合計の事例数は2846である.我々はデータセットのライセンス(CCBY-NC-SA4.0)に則ってデータを用いた.データセットには以下の5つの評価項目における0から100までの101段階の人手評価スコアが付与されている.\begin{itemize}\itemtextstructure:出力が文法的・構造的に正しいか\itemrelevance:出力が入力の情報に基づいているか\itemfluency:出力が流暢かどうか\itemcorrectness:出力が入力を正しいか・出力が合理的にデータを説明しているか\itemdatacoverage:出力が入力の情報を全て含んでいるか\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{GEC}我々はGECのデータセットとして,TMU-GFM-Dataset\cite{yoshimura-etal-2020-reference}を用いた.合計の事例数は4221である.我々はデータセットのライセンス(CCBY4.0)に則ってデータを用いた.データセットには以下の5つの評価項目における0--4までの5段階の人手評価スコアが付与されている.\begin{itemize}\itemgrammar:出力が文法的に正しいか\itemfluency:出力が流暢かどうか\itemmeaning:出力が入力と同じ意味を持っているか\end{itemize}なお,本文の脚注で述べた通り,データセットを作成した研究\cite{yoshimura-etal-2020-reference}でmeaningにおける結果が全体の評価にほとんど寄与しないことが示されているため,本実験からmeaningを除外した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ハイパーパラメータ} 実験の再現性を担保するために,できる限りGPT-3.5の出力が決定的になるようにAPI呼び出しの際のサンプリングパラメータを設定した.具体的には,temperatureを0,top\_pを0に設定した.また,Few-shot事例の事例数には8を用いた.これは入力トークン長の制限に抵触しない範囲で可能な限り大きな値を設定した.%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大井聖也}{%2024年東京工業大学情報理工学院情報工学系卒業.同年4月より東京科学大学(旧東京工業大学)情報理工学院情報工学系知能情報コース修士課程に在学中.}\bioauthor{金子正弘}{%2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京(現東京都立大学)システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,首都大学東京システムデザイン研究科博士後期課程に進学.2019年より日本学術振興会特別研究員(DC2)を経て,2021年博士後期課程修了.博士(情報科学).東京工業大学情報理工学院研究員を経て,2023年よりMBZUAI研究員.}\bioauthor{小池隆斗}{%2021年慶應義塾大学理工学部情報工学科卒業.同年4月より同大学大学院理工学研究科修士課程に進学.2023年修士課程修了.同年4月より東京工業大学情報理工学院博士後期課程に進学.現在に至る.}\bioauthor{MengsayLoem}{%2022年東京工業大学情報理工学院情報工学系卒業.同年4月より情報理工学院情報工学系知能情報コース修士課程に進学.2024年修士課程修了.同年4月より研究員としてSansan株式会社に所属.現在に至る.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V14N05-03
\section{はじめに} 存在文はいかなる言語にも存在し,人間のもっとも原始的な思考の言語表現の一つであって,それぞれの言語で特徴があり言語により異なりが現れてくる.日本語と中国語でも,前者が存在の主体が有情物か非情物かで使われる動詞が異なる(「ある/いる」)のに対し,後者では所在の意味か所有の意味かで使われる動詞が異なる(「在/有」)など,大きな違いがある.日本と中国の言語学の分野では,存在文について論述があるが(飯田隆2001,西山佑司2003,金水敏2006,儲澤祥1997),日中機械翻訳の角度からの研究は殆ど見あたらない.また日中機械翻訳において現在の日中市販翻訳ソフトでは,存在文に関する誤りが多く見られる.本論文は言語学の側の文献を参考にしながら存在文に関する日中機械翻訳の方法について考察し,翻訳規則の提案,翻訳実験を行ったものである.\begin{itemize}\item[(1)]日中両言語における存在表現を対照的に分析し,異同を起こす原因に関しても検討を試みた.\item[(2)]中国語の存在動詞の選択とその位置の問題を中心に,機械翻訳における存在文の翻訳規則を提案した.\item[(3)]提案した翻訳規則を,手作業で及び我々が開発している翻訳システムで翻訳実験を行い,評価した.\item[(4)]関連する問題点と今後の課題について議論した.\end{itemize} \section{日本語と中国語における存在表現} \subsection{日本語の存在文}存在文は日本語の基本文型の一つであり,広くは動詞文に含まれる.言語学の文献で通常あげられる存在文はもっぱら場所存在文が中心である.場所存在文は,(1)(2)に例示されるようなもっとも標準的なタイプの存在文であり,LSV(L:何処何処に,S:何々が,V:ある/いる)という基本語順で,空間的場所における対象の有無を表す.\inHRei{(1)}机の上にペンがある.\footnote{本論文における日本語例文は日中.中日辞典,日英対訳コーパスから採集した,また内省によって創作した文もある.}\inHRei{(2)}公園に男の子がいる.本論文では,もっと広く「ある」,「いる」,「ない」,「存在する」と「だ」によって対象の存在を表現する文を存在文としてとりあげ,日中機械翻訳における翻訳処理について検討する.このうち「ある」と「いる」による動詞文を存在詞文という.これによる存在文は,日本語において他の言語(例えば,中国語,韓国語など)と異なった特徴を有している.存在詞文は存在主の意味的性質により,二種に大別される(小池清治2002).存在主が非情物(無生物や現象など)の場合は,存在の意を「ある」で,非存在の意を「ない」で表す.一方,存在主が有情物(生物や人間など)の場合は,存在の意を「いる」で,非存在の意を「いない」で表す.「存在する」による存在文は,(3)に例示されるような実在文である.\inHRei{(3)}ペガサスは存在しない.「だ」による存在文は,(4),(5)に例示されるような所在コピュラ文である.\inHRei{(4)}お母さんは,居間だ.\inHRei{(5)}慧子ちゃんのカバンは,車のなかだ.\subsection{中国語の存現文}中国語では,存在を表現する文は存現文として分類される.存現文は中国語の基本文型の一つであり,意味的には,ある場所に何物かが存在していることを表す文,或いはある場所ひいてはある時間に何物かが出現または消失したことを表す文である(劉月華1996).前者は人,事物の存在を表す文であり,中国語では「存在句」と呼ばれる.厳格に言えば,中国語の存在句は物事の「存在関係」,つまり物事の空間の位置の関係(「ある所にある物が存在する」)を表現する言語の形式であり,一般に次のような文型となる.{場所語句}+{動詞}+{名詞(存在する事物)}\inHRei{(6)}\begin{簡体中文}\UTFC{684C}子上\ul{有}一本\UTFC{4E66}.\end{簡体中文}(机の上に本が一冊ある.)——「有」構文\inHRei{(7)}\begin{簡体中文}\UTFC{684C}子上\ul{是}一本\UTFC{4E66}.\end{簡体中文}(机の上は一冊の本だ.)——「是」構文\inHRei{(8)}\begin{簡体中文}\UTFC{684C}子上\ul{放着}一本\UTFC{4E66}.\end{簡体中文}(机の上に本が一冊置いてある)つまり中国語の習慣では,この種の意味を表す際,場所語句を(``在''``从''等の介詞を用いずに)主語として文頭に置き,存在する事物を表す名詞は述語動詞の後に置く.場所語句は一般に不可欠である.後者は人,事物の出現或いは消失を表す文であり,これは中国語では「隠現句」と呼ばれ,一般に次のような文型となる.時間語句と場所語句は省略できる.{時間語句}+{場所語句}+{動詞}+{名詞(出現或いは消失事物)}\inHRei{(9)}\begin{簡体中文}昨天\ul{\mbox{\UTFC{53D1}生}}了一件大事.\end{簡体中文}\\昨日大きな事件があった.\subsection{日本語の存在文と中国語の存在文の対応の多様性}中国語には,日本語の存在動詞「ある/いる/だ/存在する」に直接的に対応する品詞は無く,動詞,副詞,連詞など様々の品詞を用いた表現に翻訳することになる.\noindent[i]日本語側では同じ1つの存在動詞を用いて表現するが,中国語では,意味が違えば異なる品詞に対応する場合もある.\inHRei{(13)}箱に,危険\ul{とある}.\hfill(書記結果存在の意味)\\訳文:\begin{簡体中文}箱子上,\ul{写着}``危\UTFC{9669}''.\end{簡体中文}\hfill(動詞)\inHRei{(14)}彼は外国で生活した\ul{ことがある}.\hfill(経験の存在の意味)\\訳文:\begin{簡体中文}他\ul{曾\mbox{\UTFC{7ECF}}}在国外生活\UTFC{8FC7}.\end{簡体中文}\hfill(副詞)\inHRei{(15)}群衆の中にいても寂しく感じる\ul{こともある}.\hfill(生起の意味)\\訳文:\begin{簡体中文}\ul{有\mbox{\UTFC{65F6}}}在人群中也会感到寂寞\end{簡体中文}\hfill(副詞)\inHRei{(16)}最近は,教科書以外の本は一冊も読まない学生が\ul{いる}.\hfill(限量的存在の意味)\\訳文:\begin{簡体中文}最近,\ul{有的}学生除了教科\UTFC{4E66}一本\UTFC{4E66}也不\UTFC{8BFB}.\end{簡体中文}\hfill(指示代詞)また一見,同じような意味にみえる文でも異なる訳語で表す場合もある.\inHRei{(17)}机の上に本が\ul{ある}.\hfill(存在の意味)\\訳文:\begin{簡体中文}\UTFC{684C}子上\ul{有}\UTFC{4E66}.\end{簡体中文}\hfill(動詞)\\英語:Thereisabookonthedesk.これらを次のように言い換えると,ナニカよりドコカが焦点となって,存在というよりも,もののありか,所在を示す文になる.中国の訳語も変わる.\inHRei{(18)}本は机の上にある.\hfill(存在の意味)\\訳文:\begin{簡体中文}\UTFC{4E66}\ul{在}\UTFC{684C}子上.\end{簡体中文}\hfill(動詞)\\英語:Thebookisonthedesk.\noindent[ii]逆に日本語側で同じ存在動詞で異なる意味をしていても,中国語でもそれらを同じ訳語で対応できる場合がある.\inHRei{(19)}ここから目黒へ行く間にとても静かな自然教育園が\ul{あります}.\hfill(存在の意味)\\訳文:\begin{簡体中文}从\UTFC{8FD9}里到\UTFC{9ED1}目之\UTFC{95F4}\ul{有}个很静的自然教育\UTFC{56ED}.\end{簡体中文}\hfill(動詞:有)\inHRei{(20)}恵美は音楽の才能が\ul{ある}.\hfill(所有の意味)\\訳文:\begin{簡体中文}惠美\ul{有}音\UTFC{4E50}才能.\end{簡体中文}\hfill(動詞:有)このように,日本語の存在文の意味用法は非常に多様であり,さらに中国語との意味的,位置的な対応も複雑多岐である.現在の市販ソフトの存在文に関する誤訳は,これらのことの十分な分析がなされていないのが原因だと考えられる. \section{存在表現の中国語への機械翻訳} 2節の分析(日本語と中国語の対応多様性)によって,日中機械翻訳において,日本語存在文と中国語の対応関係の分析と存在動詞の意味分類が必要であることが分かった.我々は日中機械翻訳システムを開発中であるが,この翻訳システムに組み込むことを想定して,存在文の翻訳規則について分析した.分析と評価の資料として,日英対訳コーパス(村上仁一2002)中の日本語例文を用いた.その4万文から「ある」を含む1853文,「いる」を含む659例文と「ない」を含む1434文を抽出した(4万文中には存在文が約4千文,10\%含まれていた.)\begin{itemize}\item[\UTF{2460}]分析資料として,「ある」を含む500文,「いる」を含む300文と「ない」を含む300文を調べた.\item[\UTF{2461}]分析した資料の中の「ある」を含む72文と「いる」を含む18文を機械翻訳システムでのクローズドテストの対象として抽出し,翻訳実験した.\item[\UTF{2462}]分析対象としなかった文の中から,オープンテストの対象として「ある」を含む300文,「いる」を含む200文,「ない」を含む200文を抽出し,手作業で評価した.またそれらとは別の「ある」を含む40文,「いる」を含む20文,「ない」を含む40文を機械翻訳システムでのオープンテストの対象として抽出し評価した.\end{itemize}以下本節では存在動詞の意味分類に基づいて,機械用の存在文の翻訳規則を提案する.その評価(翻訳実験)については4節で述べる.\subsection{「ある」の翻訳規則}「ある」を中国語に翻訳する場合,「所在」の意味か「所有」の意味かに焦点に置くことによって,基本的に「\begin{簡体中文}有\end{簡体中文}」か「\begin{簡体中文}在\end{簡体中文}」が対応するが,ほかに場合によっては「\begin{簡体中文}在于,\UTFC{53D1}生,\UTFC{8FDB}行\end{簡体中文}」などの別の動詞が対応することもある.「ある」の意味分類を中国語の訳語との対応関係を考慮に入れて,また文献(西山佑司2003,金水敏2006,劉月華1996,金田一春彦1988,池原悟他1997)などを参考にして表1にまとめた.\begin{table}[t]\caption{「ある」の意味分類}\input{03t01.txt}\end{table}以上の分析に基づき,日本語文の構文特徴(文型,助詞,テンスなど)と存在主と存在場所の意味属性を用いて,また中国語の存在動詞の組み合わせの制限を総合して分析し,判定条件(翻訳規則)を機械で処理可能な形に整理した(表2).以降の表中のN1,N2,N3は名詞を,Xは句などを,Pは結び部分(述部)を表す.意味属性にはNTT日本語語彙体大系(池原悟他1997)の意味属性を用いて翻訳パターンを記述している.以下の規則は,複数のパターンにマッチした場合には最適解の選択が行われる.最適解としては以下の3種の条件を総合し,コストが最も低いパターンを選択する.選択の原則は「一般的な規則より個別的,具体的な規則を優先するべきである」という考えである.具体的に以下の3種の条件で判定する(詳しい説明は付録1として記述した):\UTF{2460}木構造の構成に使用されているパターンの種類と数\UTF{2461}制約条件の種類\UTF{2462}意味属性間の距離(表2など本論文の規則で,機能語条件に「が」と書いてある場合は,「が」と「は」のいずれも,「は」と書いている場合は,「は」しか適合しない.)以上の35個の日本語パターンのうち,(11)と(12)の中には,状態名詞存在主文(「熱,金,暇」など,状態を表す名詞が存在主になるもの),意思素質名詞存在主文(「やる気,勇気,才能」など,意思や素質に関する名詞が存在主になるもの)と出現物名詞存在主文(「効果,疑問,責任,」など,作用や行為の結果出現したことが存在主になるもの)が多い(グループ・ジャマ\par\input{03t02.txt}\noindentシイ2001).この中には語彙の組み合わせの制約条件として,個々の語彙そのものを制約条件とする(字面照合)のが適切なパターンがある(現在のところ38個,付録2参照).例えば\inHRei{(1)}(N1:主体/精神/状態)には落ち着きがある\\→N1\begin{簡体中文}\UTFC{6C89}着/\UTFC{9547}定\end{簡体中文}\inHRei{(2)}(N1:人/抽象物/性質)には表裏がある\\→N1\begin{簡体中文}表里不一\end{簡体中文}これらを含めると現在設定している「ある」の翻訳パターンは全体で73個である.\subsection{「いる」の翻訳規則}「いる」は中国語に翻訳すると,意味と文法上の規定により,「在,有,\UTFC{5904}于…」などの可能性がある.「いる」の意味分類を中国語の訳語との対応関係を考慮に入れて,また文献(西山佑司2003,金水敏2006,劉月華1996)などを参考にして表3にまとめた.「ある」の場合と同様に,「いる」の翻訳規則を表4のようにまとめた.\begin{table}[t]\caption{「いる」の意味分類}\input{03t03.txt}\end{table}\subsection{「存在する」と「だ」の翻訳規則}「ある」と「いる」の場合と同様に,所在コピュラ文「だ」と実在文「存在する」の翻訳規則を表5にまとめた.\begin{table}[t]\caption{「いる」の翻訳規則}\input{03t04.txt}\end{table}\subsection{存在否定文の翻訳処理}「今日は風がある.」「今日は風がない.」「あそこに猫がいる.」「あそこに猫がいない.」のように,述語が「ある」の否定「ない」や「いる」の否定「いない」等で構成される文を存在否定文という.丁寧体では,「ありません/いません」の形が用いられる.「いる」の否定「いない」の存在否定文の翻訳処理は通常の否定の処理(「いる」の翻訳処理プラス否定の翻訳処理)でできる(ト朝暉2004).しかし,「ない」は単純に「ある」の否定としては翻訳できない場合が多い.「ない」そのものは意義をもつ単語であり,「ある」の意味分類の外の意味も持っている場合がある.例えば,「類がない」,「またとない」は「とてもすばらしい」の意味であって,「今さら泣くことはない」の「ことはない」は「不必要なこと,あってはならないこと」の意味である.これらは「ある」の否定として翻訳することはできない表現である.そこで,我々は「ない」を存在詞の一種として,翻訳規則を整理した.まず,「ある」の場合と同様に,状態名詞存在主文,意思素質名詞存在主文と出現物名詞存在主文に対して,語彙の組み合わせの制約条件にして,個々の語彙そのものを制約条件とする(字面照合)のが適切なパターンがある.「ある」と「ない」非対称型の字面照合パターンの整理を行って,翻訳パターンにまとめた.例えば:\inHRei{(1)}N1は表裏がない→(N1\UTFC{5355}\UTFC{7EAF})\inHRei{(2)}N1は身長がない→(N1\begin{簡体中文}不高\end{簡体中文})\inHRei{(3)}N1は無理がない→(N1\begin{簡体中文}是自然/理所当然的\end{簡体中文})次に,非存在を表す形式しかない成句と熟語を整理し,翻訳パターンにまとめた.例えば\inHRei{(1)}しかたない→(\begin{簡体中文}没\UTFC{529E}法\end{簡体中文})\inHRei{(2)}申し訳ない→(\begin{簡体中文}\UTFC{5BF9}不起\end{簡体中文})付録3に「ない」に関するこれらの字面パターン(合計38)を示した.それら以外の「ない」の用法と慣用文型の翻訳規則を表6のようにまとめた.\begin{table}[t]\caption{「存在する」と「だ」の翻訳規則}\input{03t05.txt}\end{table}\begin{table}[t]\caption{「ない」の翻訳規則}\input{03t06.txt}\end{table}以上述べた場合の外の「ない」は,「ある」と対応できると考えて,存在文「ある」の翻訳プラス否定の翻訳という方法で翻訳する.\subsection{存在文の連体修飾の翻訳について}日中翻訳の場合には,連体修飾表現の一般的な日中翻訳規則は日本語:\ul{\mbox{V(用言連体形)}}+N中国語:\ul{V}+\begin{簡体中文}的\end{簡体中文}+N\noindentである.(Nが形式名詞(「の」など)ではない場合)例文:\ul{\mbox{80歳の老人が山登りをする}}様子を想像できますか.訳語:\begin{簡体中文}不能想象\ul{\mbox{80\UTFC{5C81}}老人登山}的\UTFC{6837}子.\end{簡体中文}しかし,存在文の例文の翻訳を分析する中で,この規則では対応できない事例を見出した.存在文が連体修飾節を伴う場合であって,限量的存在文の場合と修飾部が「能力,可能,方法,理由,時間」などの場合である.これらは中国語の兼語文或いは連動文に翻訳させるのが正しい.\subsubsection{限量的存在文の翻訳について}限量的存在文は特定の集合における要素の有無多少について述べる表現である.話し手の立場から下す,世界についての判断の一種であるということもできる.限量的存在文の存在動詞は述語というよりは,記号論理における存在限量詞の働きをすると考えられる.限量的存在文には,場所名詞句は必ずしも要しない.場所名詞句は,基本的には主語より前に置かれる(金水敏2006).例文:最近は,教科書以外の本は一冊も読まない学生がいる.誤訳1:\begin{簡体中文}最近,有\ul{\mbox{除了教科\UTFC{4E66}一本\UTFC{4E66}也不\UTFC{8BFB}(V)}}的\ul{\mbox{学生(N)}}.\end{簡体中文}(一般的な連体修飾規則での翻訳)正訳2:\begin{簡体中文}最近,有的\ul{\mbox{学生(N)}}\ul{除了教科\mbox{\UTFC{4E66}}一本\mbox{\UTFC{4E66}}也不\mbox{\UTFC{8BFB}}}(V).\end{簡体中文}限量的存在文について調べた結果,「いる」,「ある」と「ない」の中では,「ある」と「ない」については限量的存在文の割合が少ないが,「いる」の例文の中に限量的存在文の割合が高いころが分かった.分析資料のからに「ある」,「いる」,「ない」100文ずつを無作為抽出して,調査した結果を表7に示す.「いる」の中では,連体修飾の限量的存在文は約45\%であった.\begin{table}[b]\caption{限量的存在文の統計結果}\input{03t07.txt}\end{table}限量的存在文の場合には,一般的な連体修飾規則では,次の例1,2のように,不自然な中国語となる.\noindent(1)パターン:V(用言連体形)+N(人/動物)がいる.現訳:\begin{簡体中文}有+V的+N\end{簡体中文}\hfill(一般的な連体修飾規則での翻訳)正訳:\begin{簡体中文}有N+V\end{簡体中文}例文:授業中わたしの後ろで私語している人が2,3人いた.現訳:\begin{簡体中文}有2,3个\ul{\mbox{上\UTFC{8BFE}中在我后面\UTFC{8BF4}悄悄\UTFC{8BDD}(V)}}的\ul{\mbox{人(N)}}.\end{簡体中文}正訳:\begin{簡体中文}有2,3个\ul{\mbox{人(N)}}\ul{\mbox{上\UTFC{8BFE}在我后面\UTFC{8BF4}\UTFC{8BDD}(V)}}.\end{簡体中文}\begin{table}[b]\caption{連体修飾の限量的存在文の翻訳規則}\input{03t08.txt}\end{table}\noindent(2)パターン:N(人/動物)の中には+V(用言連体形)+ものがいる.現訳:\begin{簡体中文}N中有+V的\end{簡体中文}\hfill(一般的な連体修飾規則での翻訳)正訳:\begin{簡体中文}有的N+V\end{簡体中文}例文:蛇の中には毒を持つものがある.現訳:\begin{簡体中文}蛇中有有毒的.\end{簡体中文}\hfill(一般的な連体修飾規則での翻訳)正訳:\begin{簡体中文}有的蛇有毒.\end{簡体中文}以上のように,限量的存在文の場合には,日本語の連体修飾文は中国語の兼語文に翻訳するのが自然である.「\begin{簡体中文}有\end{簡体中文}+N+V」の形は中国語の兼語文であり,「\begin{簡体中文}有\end{簡体中文}」の目的語N(これを兼語という)の多くは存在する人,事物を表し,述語Vは兼語Nを説明或いは描写する.限量的存在文の翻訳規則を表8のように整理した.\subsubsection{修飾部が「能力,可能,方法,理由,時間など」の場合について}「V(用言連体形)+Nがある」というパターンにおいて,Nが能力,可能,方法,理由,時間,責任,条件,自信等の場合には,このような抽象名詞は「\begin{簡体中文}有\end{簡体中文}」とあわさって「\begin{簡体中文}能\end{簡体中文}」「\UTFC{5E94}\UTFC{8BE5}」「\begin{簡体中文}想\end{簡体中文}」の類の意味を表すものであり,「\begin{簡体中文}有\end{簡体中文}+N+V」のように連動文に翻訳するのが正しい.パターン:V(用言連体形)+Nが+ある.現訳:\begin{簡体中文}有+V+的+N\end{簡体中文}\hfill(一般的な連体修飾規則での訳語)正訳:\begin{簡体中文}有+N+V\end{簡体中文}例えば,例文:あなたに相談したいことがある.現訳:\begin{簡体中文}有想和\UTFC{4F60}\UTFC{8C08}的事情.\end{簡体中文}正訳:\begin{簡体中文}有事情想和\UTFC{4F60}\UTFC{8C08}.\end{簡体中文}\hfill(連動文)二つまたはそれ以上の動詞或いは動詞フレーズが連用されたものが述語になっている文を連動文という.連動文では,連用されている複数の動詞或いは動詞フレーズは主語を共にする(劉月華1996).修飾部が「能力,可能,方法,理由,時間など」の場合の翻訳規則を表9のように整理した.\begin{table}[b]\caption{能力などの存在文の翻訳規則}\input{03t09.txt}\end{table}\subsection{英語への翻訳規則との比較}日本語語彙大系(池原悟他1997)は日英翻訳のための翻訳パターン辞書である.存在動詞「ある/いる/ない」に関して日本語語彙大系の日英翻訳パターンと我々の日中翻訳パターンとをパターン数の点から比較分析した.日英翻訳パターン数と日中翻訳パターン数の対比を表10に示す.\begin{table}[b]\caption{翻訳パターンと日中翻訳パターンの対比}\input{03t10.txt}\end{table}表10を見ると,日英の「ある」と「ない」のパターンは日中翻訳のよりかなり多いことがわかる.この差異については以下のように分析できる.\inHZ1.一つの日中翻訳パターンに多数の日英翻訳のパターンが対応する.主な原因は次の2点にある:\inHZ\UTF{2460}英語では形容詞で物の性質,素質と状況を説明するが,日本語では存在文(状態名詞存在主文,意味素質名詞存在主文,出現物名詞存在主文)で表現することが多い.そのために日英の翻訳では個々の形容詞を対応させるためにパターン数が増える.中国語では,日本語とほぼ同様に存在文で表現することが多いので,パターン数は少なくてすむ.\begin{tabular}{rl>{\begin{簡体中文}}l<{\end{簡体中文}}}例(1)&N1は暇がある.&\\&N1havetime&N1\ul{有}\UTFC{65F6}\UTFC{95F4}\\(2)&N1は勇気がある&\\&N1becourageous&N1\ul{有}勇气\\(3)&N1は意義がある&\\&N1besignificant&N1\ul{有}意\UTFC{4E49}\\(4)&N1は教養がある&\\&N1beeducated&N1\ul{有}教\UTFC{517B}\\(5)&N1は価値がある&\\&N1bevaluable&N1\ul{有}价\UTFC{503C}\\(6)&N1は\ul{背長がある}&\\&N1betall&N1\ul{个高}\\(7)&N1は\ul{含蓄がある}&\\&N1bepregnant&N1\ul{意味深\mbox{\UTFC{957F}}}\end{tabular}\inHZ\UTF{2461}英語では中国語と比べると存在主に対して前置詞(介詞)を細かく区別して使い分ける.\inHRei{(1)}N1はN2に効果がある\\N1beeffective\ul{in}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有效果\end{簡体中文}\inHRei{(2)}N1はN2に同情心がある\\N1besympathetic\ul{to}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有同情心\end{簡体中文}\inHRei{(3)}N1はN2に責任がある\\N1beresponsible\ul{for}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有\UTFC{8D23}任\end{簡体中文}\inHRei{(4)}N1はN2に偏見がある\\N1haveprejudice\ul{\mbox{against}}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有偏\UTFC{89C1}\end{簡体中文}上の例では,日本語パターン「N1はN2にN3がある」という1つのパターンに対して,英語では,すべて前置詞を使い分けたパターンとなるが,中国語では,「N1\UTFC{5BF9}N2有N3」のように日本語同じような1つのパターンで表現できる.\inHZ2.日英翻訳のパターン(41個)に対応する日中翻訳のパターンは不必要である.例えば,日本語パターン「N1はN2のN3がある」の形の日英パターンが39個あるが,日中の翻訳パターンは「N1はN3がある」と「N2のN3」の二つのパターンで翻訳できるので,「N1はN2のN3がある」の日中パターンは不必要である.\begin{tabular}{llll}(1)&日本語:N1はN2の気品がある&&\\&英語:N1bedignifiedasN2&&\\&中国語:\begin{簡体中文}N1\ul{有}N2的品格\end{簡体中文}&&\\&(N1はN2のN3がある&&N1はN2の気品がある\\&N1はN3がある+N2のN3&→&\begin{簡体中文}N1有品格+N2的品格\end{簡体中文}\\&\begin{簡体中文}N1有N3+N2的N3\end{簡体中文}&&\begin{簡体中文}N1\ul{有}N2的品格\end{簡体中文})\\(2)&日本語:N1はN2の傾向がある&&\\&英語:N1haveatendencytoN2&&\\&中国語:\begin{簡体中文}N1\ul{有}N2的\UTFC{503E}向\end{簡体中文}&&\\&(N1はN2のN3がある&&N1はN2の傾向がある\\&N1はN3がある+N2のN3&→&\begin{簡体中文}N1有\UTFC{503E}向+N2的\UTFC{503E}向\end{簡体中文}\\&\begin{簡体中文}N1有N3+N2的N3\end{簡体中文}&&\begin{簡体中文}N1\ul{有}N2的\UTFC{503E}向\end{簡体中文})\end{tabular}\inHZ3.あるパターンは日中翻訳パターンにはあるが,日英翻訳のパターンにない.この場合には日英翻訳パターンにおける文型の整理が完全ではないのが原因である.例えば,日本語:N1はN2に恩義がある英語:N1beindebtedto/forN2中国語:\begin{簡体中文}N1欠N2的恩情\end{簡体中文}なお,日本語語彙体系(池原悟他1997)では,「だ」に関しては,日英の存在表現の「だ」のパターンを記述していないので,比較はできなかった. \section{翻訳実験と評価} 3節で述べた翻訳規則を検証し,評価するために,手作業による翻訳実験を行った.また実際に機械翻訳システムに実装できる翻訳規則であることの検証の意味も含めて,我々が開発中の日中機械翻訳システムによる翻訳実験も行った.最後に,誤った翻訳例について誤訳の原因を分析した.\subsection{手作業による翻訳実験と評価}手作業による翻訳規則評価実験では3節で述べたように日英対訳コーパス(村上仁一2002)の中で規則作成のための分析に用いた例文を除いた中から「ある」を含む300文,「いる」を含む200文,「ない」を含む200文を抽出して翻訳実験の対象データとした.評価は,存在表現の翻訳に注目して,その訳語と語順と助詞の翻訳が合っているかどうかという観点から個人判断で評価を行った.評価の例を表11に示している(存在表現の部分に関する評価箇所に下線を引いている).同時にある市販機械翻訳ソフトを用いて翻訳し,その結果も評価した(表12).評価は次の3種類で行った.○=中国語として文法上で基本的に正確であり,自然な翻訳△=文法上では少し不自然な感じるが文全体の意味としては通じる場合×=文法上では明確に中国語の文法に反し,意味も通じないか不完全な場合評価する時には,○は正訳として,△と×は誤訳として,及び○と△は正訳として,×は誤訳として二つの評価基準で統計した.\begin{table}[p]\caption{手作業での翻訳例文と評価の一部}\input{03t11.txt}\par\vspace{2\baselineskip}\caption{翻訳結果(手作業:オープンテスト)}\input{03t12.txt}\end{table}評価の際,我々の規則の評価については存在表現の部分以外の翻訳は全部正しく翻訳されたものとして,存在表現の翻訳に関する我々の規則を適用した結果のみを評価しており,一方市販ソフトに対する評価では,存在表現の部分以外の翻訳の正否は無視して,存在部分の正誤のみに注目して評価している.手作業の場合には,機械翻訳の流れをまねて,評価対象文に対して,存在動詞に係る文節を抽出し,翻訳規則と照合し,翻訳結果が正しいかどうか判断した.以下に手作業による翻訳の手順の例を示す.文:この\ul{金貨}は古銭を集めている\ul{人}に\ul{とても価値}が\ul{ある}.step1構文解析して\footnote{手作業の例文は我々の研究室で開発している構文解析システムIBUKIで自動解析して使用した.存在表現の部分について解析誤りはほとんどない.},下記の存在動詞に係る各情報を得る.存在動詞=「ある」.「金貨」の意味属性は「貨幣」で,「は」が付いている.「人」の意味属性は「人間」で,「に」が付いている.「価値」の意味属性は「是非」で,「が」が付いている.「とても」は程度副詞であり,「ある」を修飾している.日本語文の構造は「N1はN2にN3がある」である.Step2Step1の結果と「ある」の翻訳規則を照合する.表1の(12)と照合できる.(12)の翻訳規則によれば,中国語文の構造は「主語=\UTFC{8D27}\UTFC{5E01},謂語=\begin{簡体中文}有\end{簡体中文},目的語=\begin{簡体中文}价\UTFC{503C}\end{簡体中文},対象者=\begin{簡体中文}人\end{簡体中文},対象者の修飾語=\UTFC{5BF9}」である.Step3「とても」の翻訳結果と基本部分の訳とをあわせて生成し,通常の文の線状化の語順によって,下記の訳文を得る.→中国語:\begin{簡体中文}\UTFC{94F6}\UTFC{5E01}\UTFC{5BF9}人很有价\UTFC{503C}.\end{簡体中文}表12に示したように我々の規則ではと,全体として90\%以上の正訳率が得られており,市販の翻訳ソフトの現状と比較すると,我々の正訳率は各々34\%,62\%,48\%まさっており,我々の方法は十分な有効性が期待できると考えている.誤り分析については4.3で述べる.\subsection{jaw/Chineseによる機械翻訳実験}4.1では手作業による翻訳規則の評価(翻訳実験)について述べたが,これらの翻訳規則が実際に機械翻訳システムのための規則として実装でき有効であることを検証する意味を含めて,開発中の日中機械翻訳システムJaw/Chineseによる翻訳実験を行った.\subsubsection{翻訳規則の登録}Jaw/Chineseシステムは機械翻訳エンジンJawを用いた日中機械翻訳システムである(宇野修一2005,謝軍2004).日本語文の解析,表現パターン変換辞書との照合による中国語の表現構造への変換,表現構造からの中国語の生成という手順によるパターン変換ルールベース・トランスファー方式のシステムである.存在文に関する訳し分けの実験を行うために,表2,4,5,6の翻訳規則をJaw/Chineseに登録した.Jaw/Chineseでは,翻訳規則は,各表現パターンごとにパターン変換辞書に記述されており,それを基にして翻訳規則関数を作成している.翻訳規則の記述方法は表現パターンの種類によってBaseType,AdditionCWType,AdditionFWTypeと用言後接機能語に分かれている.存在表現の規則は次の三つのタイプの翻訳規則で記述することができる.表現パターンとは,日本語の表現の中から文の部分構造を取り出し,そのいくつかの部分を変数化して抽象化したものである.各表現パターンは,キーワードと呼ぶ単語を必ずひとつだけ持っている.入力文とパターンのデータベースを照合する際には,入力文中の単語をキーワードとして含むパターンの集合をまず抽出し,その後,その中の各パターンが要求する条件と入力文との詳細な照合検査が行われる.図1はキーワードの検索と詳細照合を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f0.eps}\end{center}\caption{キーワードの検索と詳細照合}\end{figure}\setcounter{figure}{0}日本語表現中のどの部分をキーワードとするかで,三つのタイプが区別される.\noindent\UTF{2460}BaseタイプBaseタイプはキーワードが内容語であり,キーワードを含む文節が受ける文節に条件を持つパターンである.ここでは,内容語である存在動詞「ある」,「いる」,「ない」,「存在する」,「だ」をキーワードとして,それを修飾するN1,N2,N3,X等に条件をつける翻訳規則である.例えば,\begin{tabular}{lllll}日本語パターン:&N1が&N2に/に対して&N3が&ある\\&N1(主体)&N2(体言)&N3(抽象)&\\文節番号:&1&2&3\end{tabular}\begin{tabular}{lccll}例文:&\ul{喫煙は}&\ul{健康に}&&\parbox{11zw}{\ul{悪影響が}あるといわれている.}\\文節番号:&1&2&&3\\訳文:\begin{簡体中文}一般\UTFC{8BA4}\UTFC{4E3A}\end{簡体中文}&\begin{簡体中文}吸烟\end{簡体中文}&\begin{簡体中文}\UTFC{5BF9}健康\end{簡体中文}&\begin{簡体中文}有\end{簡体中文}&\begin{簡体中文}不良影\UTFC{54CD}.\end{簡体中文}\\&(m\_subject)&(m\_nounModifier)&(m\_centerW)&(m\_directobject)\end{tabular}表13-(2)は,表13-(1)の日本語パターンに対応する翻訳規則である.Jawの翻訳規則は日本語の表現パターンに対応する目的言語の表現構造を作り出すプログラム(翻訳規則関数)に変換される.表現構造はC++オブジェクトであり,そのメンバ変数には目的言語の言語表現を生成するために必要なさまざまの言語構成上の情報が翻訳規則によって書き込まれる.目的言語の一次元の言語表現(文)は,各クラスに定義してあるメンバ関数(線状化関数)を実行することによって生成される.\begin{table}[t]\caption{BaseType翻訳規則記述の例}\input{03t13.txt}\end{table}表13-(2)は,表13-(1)に対する中国語の表現構造がクラスCPropositionに属するオブジェクトであり,そのオブジェクトのいくつかのメンバ変数を設定していることを表わしている.線状化関数によって,各文節の順番は決める.具体的に言うと,通常の文の線状化の語順は以下のとおりです:{\setlength{\leftskip}{2zw}\noindent文頭に来る接続詞→範囲を示す修飾語→主題→\ul{主語}→文中に来る接続語\\→評注性副詞→関連副詞→時間→時間副詞→頻度副詞→場所(述語より前に置かれる場合)→範囲副詞→否定副詞→助動詞→時間と空間の始点を表す修飾語→道具を表す修飾語→共同副詞→\ul{対象者を示す修飾語}→方向を示す修飾語→程度副詞→重複副詞→重複副詞→描写性副詞\\→副動詞→\ul{述語}→結果補語→可能補語→アスペクト→間接修飾語\\→\ul{直接目的語}→方向補語→程度補語→時間と空間の終点を表す修飾語→場所(述語より後ろに置かれる場合)→語気詞→句読点\par}表13-(2)の場合では,「有」は述語であり,1は主語であり,3は直接目的語であり,2は対象者を示す修飾語である.だから,最終の順番は「12有3」として生成される.\noindent\UTF{2461}Addition-FWタイプAddition-FWタイプはキーワードが機能語であり,存在動詞はキーワードと同じ文節の自立語として,キーワードを含む文節が係る文節に条件を持つパターンである.例えば,{\setlength{\tabcolsep}{0pt}\begin{tabular}{lcl}日本語パターン:&\ul{X}と&あって(ある/て),P(文)\\&X(用言)&\\文節番号:&1\\例文:&\ul{大型の台風が接近している}&とあって,どの家も対策におおわらわだ\\文節番号:&1\\訳文:&\multicolumn{2}{c}{\begin{簡体中文}因\UTFC{4E3A}\UTFC{8BF4}是\ul{\mbox{大型台\UTFC{98CE}}靠近},所以不管\UTFC{54EA}家都\UTFC{4E3A}了\UTFC{5BF9}策忙得不可\UTFC{5F00}交.\end{簡体中文}}\end{tabular}}表14-(2)は,表14-(1)の日本語パターンに対応する翻訳規則である.この翻訳規則は接続詞の訳語と接続詞の位置を表している.\begin{table}[b]\caption{Addition-FWType翻訳規則記述の例}\input{03t14.txt}\end{table}ここでは,「Xとあって」は「(Xと)+(ある+て)」と解析し,「て」をキーワードとするパターンとして登録しているが,「とあって」を一つ機能語と解析して,「とあって」をキーワードとするパターンとして翻訳規則を書くこともできる.\noindent\UTF{2462}用言後接機能語の翻訳規則用言後接機能語には,\UTF{2461}で述べたような命題的内容の表現に関わる機能語のほかに,受身や使役,テンスやモダリティ,否定などのさまざまの機能的内容の表現に関わる機能語がある.Jawではこれらに関する翻訳規則は,それらを翻訳するために必要な訳し分けの条件や,目標言語の表現構造上に書き込む表現要素が翻訳規則表に記述してある.この規則表は表現構造に情報を書き込むプログラムに変換される.慣用句的に使われる存在動詞の翻訳規則には日本語用言後接機能語の翻訳規則として,それに対応する中国語の表現要素を用言後接機能語部の翻訳テーブルに記述しているものもある.表15は「〜ことがある」「〜たことがある」に対する翻訳規則の例である.\begin{table}[b]\vspace{-0.5\baselineskip}\caption{用言後接機能語の翻訳規則の記述例}\input{03t15.txt}\end{table}\begin{table}[b]\caption{同形語の翻訳規則}\input{03t16.txt}\end{table}例:xことがある;x:動詞連体形現在式例文1:群衆の中にいても寂しく感じる\ul{ことがある}例:xことがあるx:動詞連体形過去式例文2:彼は外国で生活した\ul{ことがある}.また存在動詞「ある」と「ある」の同形語「或る」,「いる」と「いる」の同形語「要る」,「入る」を区別するために,同形語「ある(或る),」「いる(要る)」と「いる(入る)」の翻訳規則もまとめた(表16).これは現在の日中市販翻訳ソフトで,存在文に関する誤りの中に存在動詞と同じ形式の単語とを混同することが観察されだので,それとの比較評価も行う必要があったからである.\subsubsection{機械翻訳実験}3節で述べた存在表現の翻訳規則を前節で述べたJaw/Chineseに組み込み,また前節で述べた同形語の翻訳規則についても登録して,機械翻訳実験を行った.実験対象としたデータは3節でも述べたように日英対訳コーパス(村上仁一2002)の中で存在表現の分析対象とした「ある」を含む72文と「いる」を含む18文(クローズドテスト),及び分析対象とはしなかった存在文100文(オープンテスト)である.これらについては,存在表現に関する部分だけでなく,文全体を翻訳するための翻訳規則を記述し,翻訳実験を行った.評価は存在表現の部分の翻訳評価と文全体の翻訳の評価を,いづれも筆者の個人判断で行った.クローズドテストでは,存在表現の部分の翻訳に関しては全て正訳と判断できたが,文全体としての翻訳に関しては,接続表現の翻訳規則やとりたて詞,否定詞の翻訳規則が未だ完全には実装されていないことなどjaw/Chineseの不充分さのために誤訳が生じた.市販の翻訳システムでの結果と合わせて,翻訳結果の一部と評価結果を表17に示す(存在表現の部分に関する評価箇所に下線を引いている).\begin{table}[t]\caption{Jaw/Chineseでの翻訳例文と評価の一部(クローズテスト)}\input{03t17.txt}\end{table}この実験により,存在表現に関する我々の翻訳規則は実際の翻訳システムに実装できて有効に働くという点については検証できたと考える.同じようにオープンテストによる翻訳結果の一部と評価結果を表18に示す(存在表現の部分に関する評価箇所に下線を引いている).また100文全体の翻訳実験について,存在表現の部分の翻訳についての評価結果を表19に示す.\begin{table}[p]\caption{Jaw/Chineseでの翻訳例文と評価の一部(オープンテスト)}\input{03t18.txt}\end{table}翻訳規則そのものの問題点については,手作業による翻訳実験の問題と合わせて,4.3で分析する.Jaw/Chineseでの翻訳実験の正訳率は市販の翻訳ソフトより高い結果となった.しかし,手作業の正訳率より低い.その原因は現在のJaw/Chineseの機能は以下のような点でまだ十分ではないためである.\noindent(1)機能語が省略されているため,照合できない場合があった.例えは:彼はくつを脱いで身長6フィートある.「身長」の後の「が」が省略されると,規則と照合できないので,翻訳できなかった.手作業で判断する場合には,機能語の省略を補完しているので,正しい翻訳結果を得ることになる.\noindent(2)日本語側解析の問題.手作業の場合には日本語の解析を誤ることはないという前提となるが,機械の場合には日本語解析を誤る場合がある.\begin{table}[t]\caption{例文翻訳結果(Jaw/Chinese:オープンテスト)}\input{03t19.txt}\end{table}\subsection{誤り分析}4.1節および4.2節で手作業による翻訳実験と機械翻訳実験について述べた.手作業による翻訳実験の誤訳は700文中52文であり,機械翻訳実験の誤訳は190文中12文である(△を含む,合計64文).本節では,手作業と機械の実験の誤りの問題点を整理して,誤訳原因を分析する.\subsubsection{規則の不足の問題}(1):突然\ul{言いようのない}恐怖感に襲われた.現訳:\begin{簡体中文}突然,\ul{没有\mbox{\UTFC{8BF4}}法}的恐怖\UTFC{88AD}来.\end{簡体中文}(×)正訳:\begin{簡体中文}突然,\ul{无法形容}的恐怖\UTFC{88AD}来.\end{簡体中文}(○)分析:「言いようのない」では,「无法形容」が正解だが「没有\UTFC{8BF4}法」に訳している.「言いようのない」は慣用句であり,中国語でも「无法形容」は慣用句である,「ない」の規則に加えて「言いよう+の/が+ない」のような慣用句パターンの追加が必要である.(2):寒くて足の指の感じがない.現訳:\begin{簡体中文}由于冷,没有脚趾的感\UTFC{89C9}.\end{簡体中文}(×)正訳:\begin{簡体中文}由于冷,脚趾没有感\UTFC{89C9}.\end{簡体中文}(○)分析:この文では,「ない」の訳語の選択(没有)は正しいが,中訳文の意味は間違っている.現訳の意味は「寒くて足の指がないと感じる.」という意味になる.「N(動物部分)の感じがある→N\begin{簡体中文}有感\UTFC{89C9}\end{簡体中文}」というパターンを追加すれば,否定処理によって,「N(動物部分)の感じがない」は「N\begin{簡体中文}没有感\UTFC{89C9}\end{簡体中文}」になり,「足の指の感じがない」は「足の指には感じがない」という正しい意味になる.このパターンの追加が必要である.「…つもりでいる」というパターンに対する誤訳.(3):親は彼を医者にする\ul{つもりでいた}.正訳:\begin{簡体中文}父母本来\ul{打算}\UTFC{8BA9}他当医生的.\end{簡体中文}(4):彼女はまるで小説のヒロインにでもなった\ul{つもりでいる}.正訳:\begin{簡体中文}\UTFC{5979}\UTFC{7B80}直\ul{\mbox{\UTFC{8BA4}\UTFC{4E3A}}}(自己)成了小\UTFC{8BF4}的女主角.\end{簡体中文}(5):きみには来年主将になってもらうからその\ul{つもりでいてくれ}.正訳:\begin{簡体中文}(我\UTFC{4EEC})希望\UTFC{4F60}明年成\UTFC{4E3A}主将,\UTFC{4E3A}此(\UTFC{4F60})\ul{要做好准\mbox{\UTFC{5907}}}\UTFC{554A}!\end{簡体中文}(6):彼は自分がチームのエースの\ul{つもりでいる}.正訳:\begin{簡体中文}他\ul{\mbox{\UTFC{8BA4}\UTFC{4E3A}}}自己是球\UTFC{961F}的主攻投手.\end{簡体中文}分析:元の規則には「…つもりでいる」という構造に対するパターンが無かったために翻訳できなかった.「…つもりでいる」には対応する中国語の意味がいくつかあるので分析が必要である.今のところ\begin{tabular}{ll}\UTF{2460}「N1(人)は+X+つもりでいる」,&X:動詞連体形現在式\\\UTF{2461}「N1(人)は+X+つもりでいる」&X:動詞連体形過去式\\\UTF{2462}「「Nのつもりでいる」&\end{tabular}\noindentという三つの規則を増やすことで文3,文4と文6に対応できると考えている.文5では「…そのつもりでいる」という字面照合パターンで翻訳するのが適切である.このように「ある」,「いる」と「ない」に関しては慣用的/固定的な表現が多い(誤訳64文のうち48文(75\%)はそのような表現であった).さらに多くの文例を翻訳しながら,そのようなデータを集積,整理していくことが必要である.\subsubsection{「いる」の翻訳と副詞の問}(7):私は彼に1日いてくださいと頼んだ.現訳:\begin{簡体中文}我\UTFC{8BF7}求他\ul{在}一天.\end{簡体中文}(×)正訳:\begin{簡体中文}我\UTFC{8BF7}求他\ul{呆}一天.\end{簡体中文}(○)(8):私は彼にもう1日いてくださいと頼んだ.現訳:\begin{簡体中文}我\UTFC{8BF7}求他再\ul{在}一天.\end{簡体中文}(×)正訳:\begin{簡体中文}我\UTFC{8BF7}求他再\ul{呆}一天.\end{簡体中文}(○)(9):彼は10年前はボストンにいた.現訳:\begin{簡体中文}他10年前在波士\UTFC{987F}.\end{簡体中文}(○)誤訳:\begin{簡体中文}他10年前呆波士\UTFC{987F}.\end{簡体中文}(×)分析:文7の「1日」は「数量詞+時間名詞」の形をとり,時間量をあらわし,中国語では,補語になって,動詞の後に置く.「いる」の訳語「在」は補語をとるのは文法的に間違いであり,「呆」に翻訳される場合は自然である.「在」と「有」は,後に各種の補語を置くことはできない.また,文8の「もう」の「再」と「いる」の「在」は中国語の同音語であって,音の異なる「呆」を選択する方が自然な翻訳である.文7と逆に,文9の「10年前」は,中国語では,状語として動詞の前に置き動詞「在」を用いて表現するのが正しく,「呆」に翻訳するのは正しくない.このように「いる」の中訳は時間副詞と関連して訳し分けが必要である.時間表現の分類,時間副詞と動詞の位置関係などさらなる考察が必要である(誤訳64文のうち4文(6.3\%)).\subsubsection{存在主省略の翻訳問題}(10):ここにいすが6つあり隣の部屋にはもっとある.現訳:\begin{簡体中文}\UTFC{8FD9}里有6把椅子,在隔壁的屋子更多.\end{簡体中文}(△)正訳:\begin{簡体中文}\UTFC{8FD9}里有6把椅子,隔壁的屋子有更多.\end{簡体中文}(○)分析:文10では前半の文で,存在主を主語として言及しているが,後半の主文では省略している.現在の規則では前半の文「ここにいすが6つある」の「ある」は「有」に翻訳されるが,後半の文「隣の部屋にはもっとある」の「ある」は「在」に翻訳される.後半の文だけが独立してあるのならこの訳でもよいが,この場合,主文の動詞としては前半の動詞と同じ「有」を用いるのが適切である.このように,文脈上のことを考慮に入れた翻訳処理が必要になってくる場合がある(誤訳64文のうち3文(4.8\%)).\subsubsection{機能語によって存在動詞の訳語が変わる問題}(11):一人でいる.現訳:\begin{簡体中文}一个人在.\end{簡体中文}(○)(12):一人でいたい気分だった.現訳:\begin{簡体中文}想一个人在.\end{簡体中文}(×)正訳:\begin{簡体中文}想一个人呆着.\end{簡体中文}(○)分析:文11の場合には,「いる」は「\begin{簡体中文}在\end{簡体中文}」に翻訳される.文12の場合には,用言後接機能語「たい」が付くと,「いる」の訳語は「\begin{簡体中文}在\end{簡体中文}」から「\begin{簡体中文}呆\end{簡体中文}」に変える必要がある.このように,機能語の影響も翻訳処理にとり入れる必要が出てくる(誤訳64文のうち2文(3.2\%)). \section{存在文の日中機械翻訳に関連する今後の課題} \subsection{テンス・アスペクトに関する問題}中国語のアスペクト助詞は事柄のテンス・アスペクトを表し,助詞「\begin{簡体中文}了/着/\UTFC{8FC7}\end{簡体中文}」などがある.「\begin{簡体中文}了\end{簡体中文}」には(1)過去を表す,(2)完了または実現を表す,(3)変化が生じた事を表す,(4)語気の役を担うなどの意味用法がある.「\begin{簡体中文}着\end{簡体中文}」には(1)動作の進行中を表す,(2)動作・状態の持続を表す,(3)語気を表すなどの意味用法がある.また「\begin{簡体中文}\UTFC{8FC7}(過)\end{簡体中文}」には動作が済んだことあるいは経験を述べる意味用法がある.「ある」/「いる」の中訳語「\begin{簡体中文}有\end{簡体中文}」と「\begin{簡体中文}在\end{簡体中文}」は静態動詞であるので,状態や性質を表し,時間性と関係ないため,現在のJawのアルゴリズムによれば,過去形「あった,いった」の場合の翻訳には「\begin{簡体中文}了\end{簡体中文}」を使わない.しかし,ある場合は「\begin{簡体中文}了\end{簡体中文}」が必要で,ある場合は過去を表す時間副詞の補足が必要である.例:お父さんはもういません.(生死文と実在文)現訳:\begin{簡体中文}父\UTFC{4EB2}已\UTFC{7ECF}不在.\end{簡体中文}正訳:\begin{簡体中文}父\UTFC{4EB2}已\UTFC{7ECF}去世\ul{了}.\end{簡体中文}例:ここに山があっ\ul{た}.現訳:\begin{簡体中文}\UTFC{8FD9}里有山.\end{簡体中文}正訳:\begin{簡体中文}\UTFC{8FD9}里曾\UTFC{7ECF}有山.\end{簡体中文}また,中国語におけるテンス・アスペクトを表現するのには,「\begin{簡体中文}了\end{簡体中文}」,「\begin{簡体中文}着\end{簡体中文}」,「\UTFC{8FC7}」などの助詞で表現だけではなく,時間副詞(「\begin{簡体中文}已\UTFC{7ECF}\end{簡体中文}」,「\begin{簡体中文}曾\UTFC{7ECF}\end{簡体中文}」,「\begin{簡体中文}就\end{簡体中文}」,「\begin{簡体中文}在\end{簡体中文}」など),趨向補助語(「\begin{簡体中文}去\end{簡体中文}」,「\begin{簡体中文}来\end{簡体中文}」,「\begin{簡体中文}起来\end{簡体中文}」など)および結果補助語(「\begin{簡体中文}完\end{簡体中文}」,「\begin{簡体中文}到\end{簡体中文}」,「\UTFC{89C1}」,「\begin{簡体中文}在…上\end{簡体中文}」など)を用いる場合がある.テンスとアスペクトの翻訳アルゴリズムの分析を深めることは今後の課題である.\subsection{「ている」と「てある」}日本語の存続体はある種の動作が終了しその結果が存続する状態にあることを表し,他動詞の連用形+「てある」(助詞「を」は「が」に変更する),あるいは自動詞の連用形+「ている」により構成される.例えば\inHRei{(13)}壁に絵を掛ける.\\→\begin{簡体中文}把画挂在\UTFC{5899}上.\end{簡体中文}\inHRei{(14)}壁に絵が掛かって\ul{いる}.\\→\begin{簡体中文}\UTFC{5899}上\ul{挂着}画.\end{簡体中文}\inHRei{(15)}壁に絵が\ul{掛けてある}.\\→\begin{簡体中文}\UTFC{5899}上\ul{挂着}画.\end{簡体中文}中国語の文法では文13は「把字句」という文型であるが,文14と文15は「存在句」という文型であり,異なる構造の文として表現される.\inHRei{(16)}犬は\ul{放してある}.\\→\begin{簡体中文}狗\ul{被放\mbox{\UTFC{5F00}}}.\end{簡体中文}\inHRei{(17)}自動車は歩道に沿って\ul{駐車してある}.\\→\begin{簡体中文}汽\UTFC{8F66}沿路\ul{停着}.\end{簡体中文}\inHRei{(18)}この家は左利きの人が住みやすいように\ul{工夫してある}.\\→\begin{簡体中文}\UTFC{8FD9}家\UTFC{4E3A}了\UTFC{8BA9}左\UTFC{6487}子人住得方便,\ul{花了功夫}!\end{簡体中文}文16は,中国語の受身文である「被字句」という文型に翻訳される.文17は助詞「\begin{簡体中文}着\end{簡体中文}」の補足が必要で,文18は助詞「\begin{簡体中文}了\end{簡体中文}」の補足が必要である.このように,「てある」の文は「存在句」,「被字句」,「\begin{簡体中文}着\end{簡体中文}」の補足と「\begin{簡体中文}了\end{簡体中文}」の補足などいろいろ訳し分けが必要である.\inHRei{(19)}実は,銀行には国際化と自由化の荒波が\ul{押し寄せている}.\\→\begin{簡体中文}原来,国\UTFC{9645}化和自由化的\UTFC{6EDA}\UTFC{6EDA}浪潮\ul{正在}向\UTFC{94F6}行\ul{冲来}.\end{簡体中文}\inHRei{(20)}彼女は口をあんぐり開けたまま\ul{突っ立っている}.\\→\begin{簡体中文}\UTFC{5979}\UTFC{5F20}着大嘴巴\ul{站着}.\end{簡体中文}\inHRei{(21)}彼は最近やせて\ul{いる}.\\→\begin{簡体中文}他最近\UTFC{7626}\ul{了}!\end{簡体中文}上例のように,「ている」も,「てある」と同様に,いろいろな文型に翻訳され,訳語の区別が必要である.現在の日中市販翻訳ソフトを調べると,「ている」と「てある」に関する誤り(語順の問題や動詞の誤訳など)が多く見られる.「ている」と「てある」における翻訳規則の整理が必要である. \section{おわりに} 本論文では日本語の基本表現の一つである存在文の中国語への翻訳処理について述べた.存在文の日中翻訳に関しては,主として次のような問題が観察された.\begin{itemize}\item[(i)]存在動詞の訳し分けの問題.存在動詞の対応が一対多であるが,日本語の基本的な存在動詞は「ある」あるいは「いる」であるが,「ある」は中国語に翻訳すると,意味と文法上の規定により,「\begin{簡体中文}在,有,在于,\UTFC{53D1}生,\UTFC{8FDB}行…\end{簡体中文}」の可能性がある.「いる」の場合も「\begin{簡体中文}在,有,\UTFC{5904}于…\end{簡体中文}」などの可能性がある.\item[(ii)]訳語の語順の問題.特に連体修飾存在文の語順の問題と存在動詞の翻訳位置の問題.\item[(iii)]介詞の訳し分けの問題.\item[(iv)]習慣用法の誤訳の問題.\end{itemize}これらの問題を解決するために,日中両言語の存在文における異同について考察し,日中機械翻訳のために,日本語文の構文特徴,対応名詞の属性,構文構造などを利用して存在文の翻訳規則をまとめた.中国語の構文上の組み合わせの制限を総合して考察し,判定条件を機械で処理の可能な形で示した.更に例文を用いて手作業でこの規則を検証し,手作業による評価では市販ソフトと比較して良好な結果を示した.これらの翻訳規則は我々の研究室で開発している日中機械翻訳システムJaw/Chineseに組み込んで,翻訳実験を行っている.今後例文を更に増やして翻訳実験を進め,翻訳システムの改良を行い,さらに翻訳精度が上がるように分析を深めていく予定である.また,関連するテンス.アスペクトの問題や「ている」,「てある」の問題なども含めてさらに広く翻訳処理について検討を進めていく予定である.\acknowledgment本研究を進めるにあたって岐阜大学池田研究室jaw/Chineseのグループの皆様及びその研究室の他の皆様に感謝します.また,本論文に対して有益な御意見,御指摘を頂きました査読者の方に感謝致します.\begin{thebibliography}{3}\itemト朝暉,池田尚志:日中機械翻訳における否定文の翻訳(2004).自然言語処Vol.11,No.3.July.2004.p.97--112.\itemグループ・ジャマシイ(2001).日本語文型辞典.くろしお書店.\item飯田隆(2001).在と言語—存在文の意味論,http://phil.flet.keio.ac.jp/person/iida/papers/Sonzai.pdf.\item池原悟他(1997).日本語語彙大系—5構文体系.岩波書店.\item金田一春彦,林大,柴田武(1988).日本語百科大事典.大修館書店.\item金水敏(2006).存在表現の歴史.ひつじ書房.\item小池清治,小林賢次,細川英雄,山口佳也(2002).日本語表現・文型記事,朝倉書店.\item劉月華,潘文娯,故\UTFC{97E1}(1996).現代中国語文法総覧,くろしお出版.\item村上仁一(2002).日英対訳データーベースの状況.「言語,認識,表現」第7回年次研究会プログラム.\item西山佑司(2003).日本語名詞句の意味論と語用論,ひつじ書房.\item北京・対外経済貿易大学,北京・商務印書館/小学館.日中辞書.\item王軼謳,ト朝暉,宇野修一,浅井良信,池田尚志(2006).日中機械翻訳における存在文および関連する問題について,情報処理学会研究報告2006-NL-171,pp.95--102.\item王軼謳,ト朝暉,宇野修一,浅井良信,池田尚志(2006).日中機械翻訳における存在文の翻訳処理について.言語処理学会第12回年次大会発表論文集.pp.660--663.\item謝軍,今井啓允,池田尚志(2004).日中機械翻訳システムjaw/Chineseにおける変換・生成の方法,自然言語処理Vol.11,No.1.p.43--80.\item儲澤祥,劉精盛,龍国富,田輝(1997).「\UTFC{6C49}\UTFC{8BED}存在句的\UTFC{5386}\UTFC{65F6}性考察」.古\UTFC{6C49}\UTFC{8BED}研究.\item宇野修一,福本真哉,田中伸明,松本忠博,池田尚志(2005).日本語から多言語への翻訳エンジンjaw.言語処理学会第11回年次大会発表論文集.pp.538--541.\item山口巌:存在文と存在否定文について(1979).言語研究75,pp.1--30.\end{thebibliography}\clearpage\section*{付録1最適解の選択}最適解の選択には,3節に述べたように,以下のような条件を設定している.\noindent・日本語表現木を構成するパターンの数や種類による条件\noindent・適用された制約条件の厳しさによる条件\noindent・適用された意味属性間の距離による条件\subsection*{1.日本語表現木を構成するパターンの数や種類による条件}パターンの種類としてはAdditionタイプ(節4.2.1)よりもBaseタイプ(節4.2.1)を優先し,パターンの数がより少ない方を優先する.これらのことは,図1に示すコスト表とコストの計算式に反映されている.以下に例文「彼は夜に仕事する」を例として,コストの計算例を示す\begin{figure}[b]\begin{center}\includegraphics{14-5ia3f1.eps}\end{center}\caption{パターンの数や種類による最適解の選択時のコスト計算}\end{figure}以下の(1)〜(4)のように,入力例文を覆う日本語パターンが照合できたとすると,それぞれのコストは右側に示したように,計算される.2)と4)の場合は,足りない文節をAdditionタイプで補ったり,必要ない文節を省略していることから,パターン数は4つであり,合計コストが高くなっている.また,1)と3)を比較した場合,パターンの数は3つと同じであるが,3)は字づらによる固定表現がされており,1)よりも適合していることになる.よって,合計コストに従って3)がこの4つのTTのうち最も適した解といえる.このほか,パターン変形などの特殊処理を行って照合に成功したパターンよりも登録されているパターンをそのまま使用して照合に成功したパターンを優先する.例えば受身や使役表現などの場合,パターン辞書に登録してある基本能動態の表現パターンを受身や使役のパターンに変形した上で,入力文との照合を行っている.図3は受身・使役表現におけるパターン変形の処理例を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f2.eps}\end{center}\caption{パターンの数や種類による最適解の選択の例}\end{figure}しかし「息を弾ませる」のように慣用的な表現は,使役形のままでパターンに登録されており,変形して生成されたパターンをの照合より,そのままの形でのパターンの方式コストは低くなるように設定してある.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f3.eps}\end{center}\caption{受身・使役表現におけるパターン変形の処理例}\end{figure}\subsection*{2適用された制約条件の厳しさによる条件}各パターンの条件には,自立語条件,字づら条件,機能語条件の3つの制約条件がある.この3つの条件を用いて各パターンの条件の厳しさを判定する.字づら条件が最も優先される.自立語条件は,意味属性がシソーラスで表現されているので,照合に適用された自立語条件の意味属性のシソーラスでの深さを自立語条件の得点として厳しさを判定する(得点の高い方は厳しいである).機能語条件は,例えば「が」の得点は1,「に対して」の得点は3.7というように,個々の機能語条件について得点が設定されている.自立語条件のシソーラス上での深さと機能語条件の得点の積を条件文節ごとに算出し,条件文節ごとの得点の和がパターンが持つ条件の厳しさとなる.図4に,条件の厳しさの計算式を示す.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f4.eps}\end{center}\caption{制約条件の厳しさによる最適解の選択時のコスト計算}\end{figure}例として,「彼が道を歩く」を照合して生成された三つのTTに対する計算例を示す(図5).1)と2)を比較すると,主語の意味属性は〈人〉で両パターンとも同じであるが,目的言語の意味属性は〈場所〉と〈道路〉になっている.このとき,自立語のシソーラスを見ると意味属性の〈場所〉は,〈道路〉を包含することとなり,〈場所〉よりも〈道路〉の方が深い意味属性となる.よって,2)は1)よりも深い意味を持つ自立語条件を持っていることとなる.3)の場合「N〈人〉がN〈乗り物〉でN〈道路〉を歩く」というパターンの条件文節「N〈乗り物〉で」が省略されて適用されたものである.このとき,3)は,3つの中で一番条件が厳しいパターンとして考えられるが,「N〈乗り物〉で」の文節が省略された場合は,2)より得点が低くなる.\begin{figure}[p]\begin{center}\includegraphics{14-5ia3f5.eps}\end{center}\caption{制約条件の厳しさによる最適解の選択の例}\vspace{2\baselineskip}\begin{center}\includegraphics{14-5ia3f6.eps}\end{center}\caption{意味属性同士の関連}\end{figure}\subsection*{3適用された意味属性間の距離による条件}意味属性条件に関してはパターン中で与えられている意味属性と入力文の語の意味属性とのシソーラス上の距離が短い方を優先する.例文「彼が道を歩く」に対してBaseタイプのパターン「N〈人〉がN〈道路〉を歩く」が適用されたとき,文節「N〈人〉が」の自立語に「彼〈3人称〉」,「彼〈男〉」の2つのBaseタイプのパターン「彼」が適用されたものとする.このとき,2つのパターンのどちらが最適なパターンかを判別する必要がある.それぞれのパターンが持つ意味属性は「〈3人称〉」,「〈男〉」である.これが適用されたということは,この2つのパターンは「歩く」の条件文節「〈人〉」の包含関係にあるといえる.意味属性同士の関連を図6に示す.このとき,2)の意味属性〈男〉は〈3人称〉より自立語の条件である〈人〉に近い属性なので「歩く」が持つ文節「〈N〉が」に3)より適切な属性といえます,よって2)と3)を比較した場合2)のBaseタイプのパターン「彼〈男〉」が選択される.\subsection*{4各選択条件の優先順位}最適解の選択は,「TTを構成するパターンの数や種類による条件(1)」,「適用された制約条件の厳しさによる条件(2)」,「適用された意味属性間の距離による条件(3)」の3つの点数の合計で選択を行っている.この3つの条件を用いた最適解選択の計算式は以下のようになる.\begin{figure}[h]\begin{center}\includegraphics{14-5ia3f7.eps}\end{center}\caption{最適解選択の計算式}\end{figure}\clearpage\section*{付録2「ある」の字面照合翻訳規則}\input{03app02.txt}\clearpage\section*{付録3「ない」の字面照合翻訳規則}\input{03app03.txt}\begin{biography}\bioauthor{王軼謳}{2001年中国大連理工大学化学工学科及び英語科卒.2004年中国大連理工大学応用情報研究科修士課程修了.工学修士.現在岐阜大学工学研究科博士後期課程在学中.日中機械翻訳,特に機械翻訳のための日中言語の分析,翻訳規則の作成,システムの改良に関する研究に従事.言語処理学会学生会員.}\bioauthor{池田尚志(正会員)}{1968年東京大学教養学部基礎科学科卒.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.自然言語処理,人工知能の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
V12N03-09
\section{はじめに} \label{sec:intr}インターネットの世界的な普及により,世界各国に分散したメンバーによるソフトウェア開発などが盛んになっている\cite{Jarvenpaa}.特に,アジア太平洋地域でのインターネットの普及は目覚しく\footnote{http://cyberatlas.internet.com/big\_picture/geographics/print/\\0,,5911\_86148,00.html},今後,この地域におけるソフトウェアの共同開発などが活発化すると予想される.しかし,母国語が異なる国々と共同ソフトウェアの開発などを行う場合,言葉の壁により円滑にコミュニケーションを行うことは難しい.共通言語として英語を使用することにより,コミュニケーションを行うことも可能であるが,英語で書くことは負担が大きく,コミュニケーションの沈滞を招く.異文化間でのコラボレーション参加者は母国語での情報発信を望んでいる.機械翻訳の利用はこのような異言語間におけるコミュニケーション課題を解決する1つの手段である.機械翻訳は異文化コラボレーションを行うためのコミュニケーションの道具としてどのように役に立つのか?あるいは,役立つようにするためには,どのような問題を克服する必要があるのか?このような問いに答えることは,コミュニケーションの新しい研究テーマとして有意義であるとともに,機械翻訳システム開発への有益な提言が得られる可能性が高いという意味でも重要である.また,コンピュータを介したコミュニケーションの研究は最近活発に行われているが\cite{Herring},機械翻訳を介したコミュニケーションの研究\cite{Miike}は,まだ少なく,二ヶ国語間の機械翻訳で,機械翻訳への適応が行なわれないコミュニケーションの研究が中心である.さらに,機械翻訳の研究においても,機械翻訳自体の翻訳品質の評価の研究\cite{Hovy,Papineni}は活発に行われているが,コミュニケーションという観点からの評価は行われていない.本論文では,機械翻訳を介したコミュニケーションによる母国語が異なる異文化間での共同ソフトウェア開発のためのコラボレーション実験を行うことにより,目的が明確で,かつ,利用者の機械翻訳への適応が期待できる環境において,決して十分な翻訳品質とは言えない機械翻訳に対して利用者がどのように適応を行ってコミュニケーションを成立させようとするのかを分析する.また,その適応効果はどの程度のものなのかを明らかにする.適応の翻訳言語ペアについての依存性,英訳を参照した適応の他言語への翻訳への有効性,言語ごとの適応の違いなどを中心に分析した結果を提示し,機械翻訳を介した異言語間コミュニケーション支援の方向性について述べる. \section{ICE2002} \label{sec:ICE2002}言葉の壁を克服するコラボレーションを目指して,日本,韓国,中国,マレーシアなど母国語が異なる異文化間での共同ソフトウェア開発\cite{Othmann:2003HCI}のコラボレーション実験ICE2002\cite{野村:2003情報処理,Nomura:2003HCI}が行われた.情報の発信はそれぞれ母国語で行い,他の国からの情報は機械翻訳を介して,母国語で読むことができる.利用者は母国語だけではなく,英語,日本語,韓国語,中国語,マレーシア語で読むことも可能であり,大多数の利用者は,母国語と英語を読む設定を行っていた.コラボレーションのための手段としては,利用者が母国語で書いたメッセージを他の参加者がその人の母国語に翻訳して読むことができる多言語電子会議システムTransBBS(図\ref{fig:ICE2002})と,HTML形式のソフトウェア開発ドキュメントを多言語に翻訳して閲覧できるTransWebを使用した\cite{船越:2004,Funakoshi:2003HCI}.本稿では,ICE2002においてTransBBS上で行われた利用者が行った機械翻訳システムに対する適応\cite{Ogura:2004}について分析を行った結果について報告する.\begin{figure}[tb]\begin{center}\epsfile{file=fig1.eps,scale=0.7}\end{center}\vspace*{-3mm}\caption{TransWEB}\label{fig:ICE2002}\end{figure}TransBBSでは,メッセージを投稿する前に,翻訳結果を確認できる機能がある.多くの実験参加者(日本:京都大学,韓国:ソウル国立大学&ハンドン大学,中国:上海交通大学,マレーシア:マラヤ大学の学生)は英語を理解することができるので,母国語を英語に翻訳し,翻訳結果を確認し,英訳が満足できるものでない場合は,原文を修正して翻訳を行い,翻訳が満足できるレベルに達するか,これ以上翻訳が改善できない時点で,メッセージの発信を行った.また,参加者は母国語に翻訳されたメッセージを読み,必要に応じて,英語や原文を参照してメッセージの理解を行った.TransBBSは,開発ソフトウェアの設計に関する意見交換や開発状況の報告などを行う目的で使用された.TransBBSで用いられた文体は話し言葉であった.ソフトウェアの設計フェーズでは,円滑なコラボレーションを行うために,人間関係を円滑にする呼びかけ,挨拶表現,激励表現が多かった.ソフトウェアの開発のフェーズでは,質問,依頼,確認の表現が多かった.また,チャットに見られるような砕けた表現は少なく,丁寧でフォーマルな表現が多かった\cite{小倉:2003IPSJ}.日英,日韓,日中間および英語から中国語へは直接翻訳している.しかし,中韓,韓英間および中国語から英語への翻訳は,いったん別の言語(日本語)に翻訳してから,その翻訳結果をさらに目的の言語に翻訳する2段翻訳を行っているので,翻訳の精度は直接翻訳に比べて低かった. \section{利用者適応の傾向} \label{Adaptation-actions}TransBBS利用者は,メッセージを投稿する前に,自分のメッセージを書き換えて,自分の翻訳されたメッセージを他の参加者により理解しやすくする.本稿では,この一つのメッセージを書き換える過程を「書き換え過程」と定義し,メッセージの1回の書き換えを「書き換え」と呼ぶことにする.メッセージは書き換え過程後,投稿される.書き換えには,機械翻訳システムの質の不十分さを補うためのもの(「適応」と呼ぶことにする)とメッセージの内容を充実させるためのものがある.本論文では,前者のみを分析の対象とした.一つのメッセージの1回の書き換えで,「主語の補完」,「名詞句の置き換え」など複数の部分的な書き換えが起こることがある.この部分的な書き換え一つを「リペア」と呼ぶことにする.日本語が原文である場合の典型的なリペアの例を例\ref{ex:common-repairs}に示す.\vspace*{2mm}\begin{tabular}{cll}(\example{ex:common-repairs})&書き換え前:&翻訳が\underline{復旧する}とき,\\&&私は皆様にそれを伝えます.\\&書き換え後:&翻訳が\underline{直る}とき,\\&&私は皆様にそれを伝えます.\\&&\underline{Sanny.}\underline{ごめんなさい.}\end{tabular}\vspace*{2mm}「復旧する」という述語を「直る」という同義の述語に書き換えるリペアにより,訳語の選択誤りに適応している.また,「Sanny.ごめんなさい.」という文を追加するリペアにより,謝罪の気持ちを表現し,メッセージの内容を充実することが行われている.リペアは,「置き換え」,「追加」,「削除」に分類することができる.さらに,何が書き換えられているのかによって細分することができる.本論文では,日本語原文のメッセージに関する適応について中心的に分析を行った.韓国語原文と中国語原文のメッセージに関する適応についても分析を行った.\subsection{日本語原文における利用者適応の傾向}表\ref{Table:Repairs_in_Japanese1},表\ref{Table:Repairs_in_Japanese2},表\ref{Table:Repairs_in_Japanese3}に日本人のコラボレーション実験参加者が行った機械翻訳への適応についてまとめた.表\ref{Table:Repairs_in_Japanese1},表\ref{Table:Repairs_in_Japanese2},表\ref{Table:Repairs_in_Japanese3}は,67のメッセージ(メッセージ当たりの平均文数:3.7,メッセージ当たりの平均文字数:74.6,文当たりの平均文字数:20.4)に関する書き換え過程を調査し,どのような適応リペアがどれだけ出現したかを示している.表\ref{Table:Repairs_in_Japanese1}が,「置き換え」によるリペアであるが,183件(69.6\%)あった.表\ref{Table:Repairs_in_Japanese2}が,「追加」によるリペアで,39件(14.8\%),表\ref{Table:Repairs_in_Japanese3}が,「削除」によるリペアで,41件(15.6\%)であった.リペアは基本的に「置き換え」によって行われるが,必要に応じて「追加」が行われ,翻訳がうまくできておらず,かつ,その情報がそれほど重要でない場合は,「削除」が行われていた.「述語の置き換え」や「名詞句の置き換え」に代表される語句の置き換えは,英訳で訳語選択に失敗しているような場合に,同義や類義の語句に置き換えることにより,適切な翻訳を得られるように適応したものである.36件(13.7\%)と比較的頻度の多い「文の置き換え」は,うまく翻訳できなかった文を別の言い方で言い換えてみるリペアである.「文末表現の置き換え」は,うまく翻訳できない助詞,助動詞,補助動詞などによる複雑な様相表現を,細かいニュアンスの伝達は諦めて,例\ref{ex:compact}のように簡潔な表現にすることにより,リペアを行っていた.\vspace*{2mm}\begin{tabular}{cll}(\example{ex:compact})&リペア前:&タイトルは英語で\underline{書くようにして下さい}.\\&リペア後:&タイトルは英語で\underline{書いて下さい}.\end{tabular}\vspace*{2mm}長文は係り受けの曖昧性などが指数的に増えるので,機械翻訳が難しく訳文の質が悪化する.この問題に対処するため,「文の分割」という適応が起きていた.また,「語順の変更」を行うことにより,係り受けを正しく認識させることにより,正しく翻訳させようとする適応も行われていた.「追加」で最も多いのは,「主語の補完」であった.日本語では,文脈などから推測可能で省略できる主語が,英語では必要になる場合がある.現在の翻訳システムでは適切に主語を補って翻訳することが難しいので,良い英訳にするためにはこのような補完の適応が必要になる.「削除」で最も多いのは,「副詞表現の削除」であった.副詞表現はしばしば,日本語と英語の表現方法が異なったり,句として一まとまりとして扱う必要があったり,訳語選択が動詞や名詞に比べて難しかったりすることにより翻訳が難しい.また,副詞は,動詞や名詞のような文の骨格情報ではないので,うまく翻訳できない場合は,削除してしまうことがあった.これらのリペアは,通常,英語の翻訳の良し悪しを見て行われる.しかし,利用者は機械翻訳がどのような仕組みで翻訳しているか知っているわけではないので,適応のプロセスは試行錯誤のプロセスである.試してみてうまく行かない場合は,別の適応を行うかそこで適応を諦めることになる.どのようなリペアが行われているかを詳細に調査することにより,利用者はどのような翻訳の問題には適応することができ,どのような問題には適応できなかったかを明らかにすることができた.利用者は,単純な語や句の書き換え,単純な文の言い換え,文の簡単化を行うことはできるが,機械翻訳が不得意とする特殊な構文(例えば,「リンゴは赤い\underline{の}が好きだ.」のような形式名詞「の」や「もの」を含む構文)の回避や抽象的な表現(例えば,「新しい\underline{方}が良い.」のような、抽象的な「方」や「もの」を含む表現)の回避などは行うことはできなかった.\begin{table}[htbp]\leavevmode\small\caption{日本語におけるリペア(置き換え)}\label{Table:Repairs_in_Japanese1}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline名詞句の置き換え&33&12.5\%\\述語の置き換え&21&8.0\%\\文末表現の置き換え&12&4.6\%\\副詞表現の置き換え&9&3.4\%\\助詞の置き換え&8&3.0\%\\接辞の置き換え&3&1.1\%\\\hline間投詞の置き換え&2&0.8\%\\接続表現の置き換え&2&0.8\%\\\hline修飾語の置き換え&2&0.8\%\\補助動詞の置き換え&1&0.4\%\\\hline文の置き換え&36&13.7\%\\文の分割&13&4.9\%\\語順の変更&10&3.8\%\\列挙表現の置き換え&6&2.3\%\\箇条書きのスタイルを変更&6&2.3\%\\\hline準体助詞を含む表現の置き換え&4&1.5\%\\文を簡潔化し複数文を統合&2&0.8\%\\\hline句点の変更&5&1.9\%\\表現スタイルの変更(括弧類)&4&1.5\%\\半角の句読点を全角に変更&2&0.8\%\\読点表記の変更&2&0.8\%\\\hline{\bf置き換え小計}&183&69.6\%\\\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}\begin{table}[htbp]\leavevmode\small\caption{日本語におけるリペア(追加)}\label{Table:Repairs_in_Japanese2}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline主語の補完&20&7.6\%\\助詞の補完&5&1.9\%\\修飾語の補完&4&1.5\%\\目的語の補完&2&0.8\%\\副詞表現の追加&1&0.4\%\\接辞の追加&1&0.4\%\\\hline読点の追加&4&1.5\%\\句点の追加&2&0.8\%\\\hline{\bf追加小計}&39&14.8\%\\\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}\begin{table}[htbp]\leavevmode\small\caption{日本語におけるリペア(削除)}\label{Table:Repairs_in_Japanese3}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline副詞表現の削除&9&3.4\%\\助詞の削除&5&1.9\%\\\hline非重要情報の削除&4&1.5\%\\主語の削除&3&1.1\%\\呼びかけ表現の削除&3&1.1\%\\目的語の削除&1&0.4\%\\トピックの削除&1&0.4\%\\\hline文の削除&8&3.0\%\\準体助詞を含む表現の削除&1&0.4\%\\\hline読点の削除&3&1.1\%\\括弧類の削除&2&0.8\%\\句点の削除&1&0.4\%\\\hline{\bf削除小計}&41&15.6\%\\\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}\subsection{言語による利用者適応の違い}日本人利用者による日本語を原文とする適応以外に,韓国語原文と中国語原文における適応についても調査した.韓国語は,100メッセージ(メッセージ当たりの平均文数:3.8,メッセージ当たりの平均文字数:99.6,文当たりの平均文字数:26.1),中国語は,81メッセージ(メッセージ当たりの平均文数:2.2,メッセージ当たりの平均文字数:65.6,文当たりの平均文字数:29.4)について書き換え過程を調査した.\footnote{リペアと書き換え過程の数は日本語原文における適応に比べて少ない。日本語原文は67メッセージ中59メッセージ88.1\%の適応があったのに対し,韓国語原文,中国語原文は,それぞれ,100メッセージ中18メッセージ18.0\%,81メッセージ中15メッセージ18.5\%の適応しかなかった.これは,この実験が日本が主催して行われたため,日本人参加者のモチベーションが高く,翻訳の間違いに対して敏感であったのに対し,韓国人および中国人参加者は,適応へのモチベーションが日本に比べて低かったためであると思われる.}表\ref{Table:Repairs_in_Korean}に韓国人のコラボレーション実験参加者が行った利用者の適応についてまとめた.「主語の補完」がなかったことを除くと,日本語原文の適応に傾向が似ていた.これは,日本語と韓国語が言語的に良く似ているためと思われる.\begin{table}[htbp]\leavevmode\small\caption{韓国語におけるリペア}\label{Table:Repairs_in_Korean}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline文末表現の置き換え&4&18.1\%\\述語の置き換え&3&13.6\%\\名詞句の置き換え&3&13.6\%\\\hline文の置き換え&2&9.1\%\\文の分割&2&9.1\%\\語順の変更&1&4.5\%\\\hline{\bf置き換え小計}&15&68.2\%\\\hline\hline文の削除&3&13.6\%\\副詞表現の削除&2&9.1\%\\句点の削除&2&9.1\%\\\hline{\bf削除小計}&7&16.7\%\\\hline\hline\multicolumn{1}{|c|}{\bf合計}&22&100\%\\\hline\end{tabular}\end{center}\footnotesize{通常,韓国語では文の終了は句点「.」で表現するが,今回のデータでは改行により文の終了を表していた例が多数(20例)あった.このため機械翻訳システムは文の終了を認識できず不適切に翻訳された.これを訂正するため多くの「句点の追加」の適応が行われたが,これは特殊事情と思われるので,上記集計から削除した.}\end{table}表\ref{Table:Repairs_in_Chinese}に中国人のコラボレーション実験参加者が行った利用者の適応についてまとめた.韓国語原文の場合と異なり,日本語原文の適応とはかなり傾向が異なっていた.これは日本語と中国語の言語族の違いなどが関係しているものと思われる.中国語原文の適応の特徴としては,構文解析の失敗を解消する適応が多いことが挙げられる.孤立語である中国語は語順が重要な解析の手がかりとなるが,同じ語が動詞となったり名詞となったりするので,名詞を動詞として解釈したり,動詞を名詞として解釈する解析誤りが多い.このような解析誤りへの適応として,助詞「的」を追加したり,介詞(前置詞)を削除したり,名詞句を置き換えることにより,名詞を動詞とする誤りを解消していた.また,「読点の追加」や「読点の削除」により解析を変更しようとする適応もみられた.\begin{table}[htbp]\leavevmode\small\caption{中国語におけるリペア}\label{Table:Repairs_in_Chinese}\vspace*{-3mm}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c|}{\bfリペア}&\multicolumn{1}{c|}{\bf頻度}&\multicolumn{1}{c|}{\bf比率}\\\hline名詞句の置き換え&5&16.7\%\\接続表現の置き換え&1&3.3\%\\\hline文の置き換え&5&16.7\%\\語順の変更&2&6.7\%\\文の分割&1&3.3\%\\\hline{\bf置き換え小計}&14&46.7\%\\\hline\hline修飾語の補完&2&6.7\%\\述語の補完&2&6.7\%\\助詞「的」の追加&2&6.7\%\\主語の補完&1&3.3\%\\読点の追加&1&3.3\%\\句点の追加&1&3.3\%\\\hline{\bf追加小計}&9&30.0\%\\\hline\hline非重要情報の削除&3&10.0\%\\修飾部の削除&2&6.7\%\\介詞の削除&1&3.3\%\\読点の削除&1&3.3\%\\\hline{\bf削除小計}&7&23.3\%\\\hline\hline\multicolumn{1}{|c|}{\bf合計}&30&100.0\%\\\hline\end{tabular}\end{center}\end{table} \section{利用者適応の多言語翻訳への効果} \label{sec:Effect}\subsection{日本語原文における利用者適応の効果}表\ref{Table:Effect_of_adapation_on_MMT}に日本語原文への英語訳のための適応が,英語,韓国語,中国語の翻訳にどの程度効果があったかを調査した結果を示す.表\ref{Table:Translation_quality}に言語ペアごとの翻訳品質の違いを示す.評価は人間による3段階(↑:翻訳の質が良くなった,=:あまり変わらない,↓:悪くなった)相対評価で,中国語訳,韓国語訳については,日本語および翻訳言語に堪能な訳語のネイティブ1名と日本人1名による協同評価,英語訳については英語の堪能な日本人1名による評価結果に基づくものである.\begin{table}[htbp]\leavevmode\small\caption{適応の多言語翻訳への効果}\label{Table:Effect_of_adapation_on_MMT}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|r|r|r|}\hline\multicolumn{1}{|c|}{\bf目標言語}&\multicolumn{1}{c|}{\bf↑}&\multicolumn{1}{c|}{\bf=}&\multicolumn{1}{c|}{\bf↓}\\\hline英語&85.2\%(46)&11.1\%(6)&3.7\%(2)\\\hline韓国語&23.7\%(14)&54.2\%(32)&22.0\%(13)\\\hline中国語&42.4\%(25)&47.5\%(28)&10.2\%(6)\\\hline\end{tabular}\end{center}\footnotesize{英語は日英翻訳の翻訳システムの切り替え(TransBBSは日英翻訳に関して2つの翻訳システムのどちらを使用するかオプションで指定することが可能になっている),があった場合やネットワークの混雑などの影響で翻訳結果が得られなかった場合など5件評価できない場合があった.}\end{table}\begin{table}[htbp]\leavevmode\small\caption{言語ペアごとの翻訳品質}\label{Table:Translation_quality}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&\multicolumn{4}{c|}{\bf目標言語}\\\cline{2-5}{\bf原言語}&{\bf日本語}&{\bf英語}&{\bf韓国語}&{\bf中国語}\\\hline日本語&−&○&◎&○\\\hline英語&○&−&×&△\\\hline韓国語&◎&×&−&×\\\hline中国語&△&×&×&−\\\hline\end{tabular}\end{center}\footnotesize{市販翻訳ソフトのWebページの評価結果から.本実験では,評価ソフトもしくはそれと同等の性能を持つMTソフトを使用した.}\end{table}適応は試行錯誤の過程があるので,1回のリペアの結果を集めても適切な評価とはならない.本稿では,書き換え過程の最後でどのような効果があったかを調査した.「↑」は翻訳の質の向上がみられた場合,「=」は翻訳の質が同程度の場合,「↓」は,翻訳の質が悪化した場合である.調査した67メッセージ中適応があった59メッセージについて評価した結果である.メッセージの内88.1\%に対して何らかの適応が行われたことになり,適応率が高かったことが分かる.英語への翻訳に関しては,わずかに悪化する場合もあるが,適応の効果が大きいことが分かる.韓国語,中国語,マレーシア語を母国語とするコラボレーション参加者は英語も参照する場合が多いので,適応はコラボレーションのために有効に働いていたことになる.英訳のための日本語における適応は,韓国語への翻訳に関しては,あまり有効ではなかった.書き換え過程の後の翻訳で品質の悪化も22.0\%みられた.日韓翻訳は比較的翻訳品質が良く,日英翻訳より翻訳品質が良い.そのため,英語では翻訳の質が悪い日本語でも,韓国語の訳では質が悪くない場合も多い.そのような場合は,適応の効果はない.また,適応のために不自然な日本語に書き換えたり,情報を削除したりした場合は,訳質の悪化が起こることがあった.中国語への翻訳については,効果があったが,訳出が悪化する場合もみられる.すなわち,もともと翻訳の質が高い言語対に対しては,それより翻訳の質の低い言語対の翻訳結果に基づくシステムへの適応は効果が薄くなる傾向があることが確認できた.{\bf主なリペアの翻訳への効果}表\ref{Table:Main_repair_Effect}に日本語に対する主なリペアがどの程度翻訳に効果があったかを示す.これにより,どのようなリペアが原因になって訳質が上がったり下がったりするか詳細に知ることができる.「述語の置き換え」や「名詞句の置き換え」は,英訳には効果があるが,韓国語訳や中国語訳には,効果がなかったことが分かる.これは,日本語と英語では,対応する単語間に概念の差があり,適切な訳語選択を行うのが難しいのに対して,日本,韓国,中国は同じアジア文化を持ち,対応する単語間の概念に差があまりなく,訳語選択があまり問題にならなかった可能性がある.付録Aの「会議」を「ミーティング」に書き換える「名詞句の置き換え」では,英訳は使用された文脈では不適切な''conference''から''meeting''代わり適応の効果が見られたが,韓国語訳や中国語訳では,もともと訳に問題が生じておらず,適応の効果は見られなかった.「文末表現の置き換え」では,表現の簡潔化が行われている場合は,中国語訳に適応の効果がみられた.例えば,複合的な様相表現を含む「有効かもしれません」をより簡潔な「効果的です」に書き換えた場合,中国語訳は向上した.「文の置き換え」は英語訳でも効果が得られない場合が半数あった.効果的な「文の置き換え」を行うのは簡単ではないことが分かる.「文の置き換え」は中国語訳への効果が高い.構文解析が容易な日本語に書き換えられた場合に有効に働く傾向が見られた.また,「文の書き換え」は,悪化の危険を含むリペアであることが分かった.付録Bにリペアが悪影響を及ぼす例を挙げておく.「文の分割」は,英語訳と中国語訳に効果がみられた.韓国語訳は文を分割しても,しなくても訳に問題が生じない場合が多かった.「語順の変更」も英語訳でも効果が得られない場合が半数あった.付録Bの「語順の変更」の例はそのような場合の例となっている.韓国語訳や中国語訳ではほとんど効果が見られなかった.「主語の補完」は英訳には効果があるが,韓国語訳や中国語訳にはあまり効果がないことが分かった.英語を参照言語として行った適応は,他言語への翻訳には効果が少なく,英語を参照言語として用いることには限界があることが分かった.\begin{table}[htbp]\leavevmode\small\caption{日本語への主なリペアの効果}\label{Table:Main_repair_Effect}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|c|r|r|r|}\hline{\bfリペア}&{\bf目標言語}&{\bf↑}&{\bf=}&{\bf↓}\\\hline&英語&11&6&2\\\cline{2-5}述語の置き換え&韓国語&0&20&1\\\cline{2-5}&中国語&3&17&1\\\hline&英語&16&10&1\\\cline{2-5}名詞句の置き換え&韓国語&3&27&3\\\cline{2-5}&中国語&3&28&2\\\hline&英語&7&2&2\\\cline{2-5}文末表現の置き換え&韓国語&1&10&1\\\cline{2-5}&中国語&3&8&1\\\hline&英語&17&17&0\\\cline{2-5}文の置き換え&韓国語&2&30&4\\\cline{2-5}&中国語&9&23&4\\\hline&英語&9&1&1\\\cline{2-5}文の分割&韓国語&2&11&0\\\cline{2-5}&中国語&5&7&1\\\hline&英語&4&4&1\\\cline{2-5}語順の変更&韓国語&0&9&1\\\cline{2-5}&中国語&2&6&2\\\hline&英語&13&5&1\\\cline{2-5}主語の補完&韓国語&2&27&1\\\cline{2-5}&中国語&2&16&2\\\hline\end{tabular}\end{center}\footnotesize{英語は日英翻訳の翻訳システムの切り替えがあった場合やネットワークの混雑などの影響で翻訳結果が得られなかった場合などがあり評価できない場合があったため,韓国語・中国語に比べ評価数が少なくなっている.}\end{table}\subsection{韓国語と中国語原文における利用者適応の効果}表\ref{Table:Effect_to_Japanese}に韓国語と中国語における英訳のための適応の日本語訳への効果を示す.韓国語や中国語から英語への翻訳のための適応は,日本語訳への効果があった.韓国語における適応は,訳質の悪化もみられず,適応の効果がみられた.日本語訳への効果は,訳質向上83.3\%,訳質悪化0\%であった.中国語における適応は,効果があることが分かるが,訳質の悪化もみられた.日本語訳への効果は,訳質向上60.0\%,訳質悪化13.3\%であった.英訳を参照した日本語における適応は,効果が低かったのに対し,英訳を参照した韓国語や中国語における適応は,効果が高かったことになる.この原因としては,韓英,中英翻訳は日本語を中間言語とした翻訳であったことが考えられる.すなわち,この場合は,英語の翻訳の質を上げるためには,日本語の翻訳の質を上げる必要があったためと思われる.\begin{table}[htbp]\leavevmode\small\caption{韓国語&中国語における適応の日本語訳への効果}\label{Table:Effect_to_Japanese}\vspace*{-3mm}\begin{center}\begin{tabular}{|c|r|r|r|}\hline\multicolumn{1}{|c|}{\bf原言語}&\multicolumn{1}{c|}{\bf↑}&\multicolumn{1}{c|}{\bf=}&\multicolumn{1}{c|}{\bf↓}\\\hline韓国語&83.3\%(15)&16.7\%(3)&0.0\%(0)\\\hline中国語&60.0\%(9)&26.7\%(4)&13.3\%(2)\\\hline\end{tabular}\end{center}\end{table}韓国語における適応では,「文の削除」や「副詞表現の削除」といった「削除」によるリペアが効果的であった.韓日翻訳では,時々,韓国語の解析失敗が起こる.この時,日本語および英語への翻訳の質は良くない.解析に失敗する部分が重要なものでない場合は,その部分を削除するによって,翻訳の質を改善していた.中国語における適応では,解析誤りに対応するリペアと「削除」によるリペアが効果的であった.リペアによる訳質悪化は,「名詞句の置き換え」,「接続表現の置き換え」,「修飾語の補完」などさまざまであるが,中国語解析の失敗が訳質悪化の原因であった. \section{機械翻訳の品質と利用者適応やコミュニケーションとの関係} 本実験では,メッセージの送付前に機械翻訳の結果を確認できる機能により適応を行なっている.利用者が適応に利用できるのは,利用者の理解できる言語の翻訳結果であり,今回の実験では,利用者は英語への翻訳結果を確認することにより適応を行なっていた.そのため,利用者が理解できない言語(例えば,日本人にとっての韓国語)への翻訳の品質が高くても,それにより適応の回数が少なくなるということはなかった.各言語から英語への翻訳の品質が向上すれば,必要となる適応の頻度は減少しより効率良くコミュニケーションを行うことが期待できるが,本実験ではそれを確認するための実験は行っていない.翻訳の品質自体がメッセージの理解に大きく影響することは,実験後の利用者へのアンケート調査から確認されている\cite{小倉:2003IPSJ}.日本人の韓国語原文のメッセージ理解度や韓国人の日本語原文のメッセージ理解度が他のメッセージ理解度に比べて高かったのは,韓日,日韓翻訳の品質が高かったためと思われる.また,2段翻訳が利用された場合のメッセージ理解度は低く.現段階では,2段翻訳はまだまだ実用的な利用は難しいことが明らかになった.今回分析したデータは,ICE2002の第2トラックの第1フェーズ(ソフトウェア開発フェーズ)に行われたものである.第1トラックでは,適応機能は実装されていなかった.第1トラックでの経験が生かされているためか,機械翻訳の難しい長文は少なく,短い文で書かれているものが多かった.また,機械翻訳が難しい「呼びかけ」表現を含む文や箇条書き表現などは,初期の段階では現れるが,徐々に,最初から呼びかけ部分を独立の文とすることや箇条書きを行わないなど,利用者による学習による効率化の現象が見られた. \section{おわりに} \label{sec:conclusion}機械翻訳を介した異言語間コミュニケーションにおいて,利用者がどのような適応を行い,その適応はどの程度効果があるか示した.適応のための書き換えは翻訳言語ペアに強く依存することが確認できた.日本語から英語への翻訳の場合,日本語と英語の概念間の食い違いを補うための語句の置き換えや言語表現習慣の違いを補う主語の補完などが多く観察された.日本語と韓国語のように類似の言語では,それらの言語における適応の傾向が似ていることが分かった.中国語における適応では,中国語が孤立言語であることに由来する単語の多品詞から生ずる解析の品詞誤りに適応するものが多く見られた.日本語から英語への翻訳のための適応は,書き換えの過程後,英語訳自体には効果が大きい.メッセージ単位の評価で,訳質向上が85\%,訳質悪化が4\%である.しかし,その適応は韓国語訳にはほとんど効果がなく(訳質向上23\%,訳出悪化22\%),中国語訳への効果もそれほど多くない(訳質向上42\%,訳出悪化10\%).これは,英語訳に基づくシステムへの適応は,英語への依存性が高い適応が多く、言語依存性の高い適応は他の言語への翻訳には効果が薄いためであると思われる.韓国語や中国語から英語への翻訳のための適応は,日本語訳への効果があった.これは,英語への翻訳が,日本語を中間言語として翻訳していたためシステムへの適応が英語依存性の低い,日本語訳へ効果がある適応になっていたためと考えられる.機械翻訳を介した異言語間コミュニケーションの支援において,機械翻訳の質が急激には向上することが期待できない現状を考えると,メッセージの理解を共有するための相互作用性の向上\cite{石田:2003},すなわち,翻訳の質を向上させるための翻訳システムへの利用者による適応や相手のメッセージ内容についての確認,自国語翻訳だけでなく他言語(たとえば英語)訳の参照などを容易に行える支援が重要である.利用者による適応はある程度効果があるが,利用者に負担もかけている.適応方法に関するガイダンスの表示や,複雑な文末表現・長文・省略の自動検知・修正候補の表示機能などが有効であると思われる.また,機械翻訳がどのような表現ならば適切に翻訳でき,どのような場合には翻訳できないかが明確であれば,利用者の適応は容易になる.機械翻訳システムの透明性の向上も翻訳の質の向上とともに重要であることが確認できた.英語を参照言語として行った適応は,日本語・英語という言語ペアに関する依存性が高いため,他言語への翻訳には効果が薄く,英語を参照言語として用いることには限界があることが分かった.また,この適応方法は,英語が分からない人には適応ができないことになってしまう.この問題を解決するためには,母国語のみでの適応ができ,かつ多言語翻訳をサポートする異言語間コミュニケーションサポートツールが必要である.\citeA{坂本:2004}は母国語のみでの適応方法について検討している.日本語を英語に翻訳し,その英語をさらに日本語に翻訳する日日翻訳により,元の日本語と翻訳結果の日本語を比較することにより,適応の効果を確認するという方法である.中間言語を英語以外の韓国語や中国語にすることにより,言語依存の機械翻訳システムへの適応に対しても,母国語のみで適応できる可能性がある.今後,このような方法で多言語翻訳に対応し適応を支援する方法を検討する予定である.\bibliographystyle{jnlpbbl}\renewcommand{\baselinestretch}{}\large\normalsize\begin{thebibliography}{}\bibitem[\protect\BCAY{船越,藤代,野村,石田亨}{船越\Jetal}{2004}]{船越:2004}船越要,藤代祥之,野村早恵子,石田亨\BBOP2004\BBCP.\newblock\JBOQ機械翻訳を用いた協調作業支援ツールへの要求条件---日中韓馬異文化コラボレーション実験からの知見\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(1),112--120.\bibitem[\protect\BCAY{Funakoshi,Yamamoto,Nomura,\BBA\Ishida}{Funakoshiet~al.}{2003}]{Funakoshi:2003HCI}Funakoshi,K.,Yamamoto,A.,Nomura,S.,\BBA\Ishida,T.\BBOP2003\BBCP.\newblock\BBOQSupportingInterculturalCollaborationforGlobalVirturalTeams\BBCQ\\newblockIn{\Bem10thInternationalConferenceonHuman-ComputerInteraction(HCI-03)},\lowercase{\BVOL}~4,\BPGS\1098--1102\Crete,Greece.\bibitem[\protect\BCAY{Herring}{Herring}{2004}]{Herring}Herring,S.~C.\BBOP2004\BBCP.\newblock\BBOQComputer-mediateddiscourseanalysis:Anapproachtoresearchingonlinebehavior\BBCQ\\newblockIn{\BemDesigningforVirtualCommunitiesintheServiceofLearning}.CambridgeUniversityPress.\bibitem[\protect\BCAY{Hovy}{Hovy}{1999}]{Hovy}Hovy,E.~H.\BBOP1999\BBCP.\newblock\BBOQTowardFinelyDifferentiatedEvaluationMetricsforMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheEAGLESWorkshoponStandardsandEvaluation}\Pisa,Italy.\bibitem[\protect\BCAY{石田,林田,野村}{石田\Jetal}{2003}]{石田:2003}石田亨,林田尚子,野村早恵子\BBOP2003\BBCP.\newblock\JBOQ異文化コラボレーションに向けて—機械翻訳システムの相互作用性—\JBCQ\\newblock\Jem{電子情報通信学会人工知能と知識処理研究会},37--41.\newblockAI2003-25.\bibitem[\protect\BCAY{Jarvenpaa\BBA\Leidner}{Jarvenpaa\BBA\Leidner}{1998}]{Jarvenpaa}Jarvenpaa,S.\BBACOMMA\\BBA\Leidner,D.~E.\BBOP1998\BBCP.\newblock\BBOQCommunicationandTrustinGlobalVirtualTeams\BBCQ\\newblock{\BemJournalofComputerMediatedCommunication},{\Bbf3}(4).\bibitem[\protect\BCAY{Miike,Hasebe,Somers,\BBA\Amano}{Miikeet~al.}{1988}]{Miike}Miike,S.,Hasebe,K.,Somers,H.,\BBA\Amano,S.\BBOP1988\BBCP.\newblock\BBOQExperienceswithanOn-lineTranslatingDialogueSystem\BBCQ\\newblockIn{\BemProceedingsofthe26thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\155--162\Buffalo,NY,USA.\bibitem[\protect\BCAY{野村,石田,船越,安岡,山下}{野村\Jetal}{2003}]{野村:2003情報処理}野村早恵子,石田亨,船越要,安岡美佳,山下直美\BBOP2003\BBCP.\newblock\JBOQアジアにおける異文化コラボレーション実験2002:機械翻訳を介したソフトウェア開発\JBCQ\\newblock\Jem{情報処理},{\Bbf44}(5),2--10.\bibitem[\protect\BCAY{Nomura,Ishida,Yasuoka,\BBA\Funakoshi}{Nomuraet~al.}{2003}]{Nomura:2003HCI}Nomura,S.,Ishida,T.,Yasuoka,M.,\BBA\Funakoshi,K.\BBOP2003\BBCP.\newblock\BBOQOpenSourceSoftwareDevelopmentwithYourMotherLanguage:InterculturalCollaborationExperiment2002\BBCQ\\newblockIn{\Bem10thInternationalConferenceonHuman-ComputerInteraction(HCI-03)},\lowercase{\BVOL}~4,\BPGS\1163--1167\Crete,Greece.\bibitem[\protect\BCAY{小倉,林,野村,石田}{小倉\Jetal}{2003}]{小倉:2003IPSJ}小倉健太郎,林良彦,野村早恵子,石田亨\BBOP2003\BBCP.\newblock\JBOQ目的指向の異言語間コミュニケーションにおける機械翻訳の有効性の分析---異文化コラボレーションICE2002実証実験から---\JBCQ\\newblock\Jem{情報処理学会第65回全国大会},5\JVOL,\BPGS\5--315--5--318.\newblock2T6-4.\bibitem[\protect\BCAY{Ogura,Hayashi,Nomura,\BBA\Ishida}{Oguraet~al.}{2004}]{Ogura:2004}Ogura,K.,Hayashi,Y.,Nomura,S.,\BBA\Ishida,T.\BBOP2004\BBCP\\newblockIn{\BemFirstInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-04)},\BPGS\596--601\Sanya,HainanIsland,China.\bibitem[\protect\BCAY{Othmann\BBA\Lakhmichand}{Othmann\BBA\Lakhmichand}{2003}]{Othmann:2003HCI}Othmann,N.\BBACOMMA\\BBA\Lakhmichand,B.\BBOP2003\BBCP.\newblock\BBOQTransSMS:AMulti-LingualSMSTool\BBCQ\\newblockIn{\Bem10thInternationalConferenceonHuman-ComputerInteraction(HCI-03)}\Crete,Greece.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni}Papineni,K.~A.,Roukos,S.,Ward,T.,\BBA\Zhu,W.~J.\BBOP2002\BBCP.\newblock\BBOQBleu:amethodforautomaticevaluationofmachinetranslation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\311--318\Philadelphia,PA,USA.\bibitem[\protect\BCAY{坂本,野村,石田,井佐原,小倉,林,石川開,小谷克則,島津,介弘,畠中,富士秀,船越要}{坂本\Jetal}{2004}]{坂本:2004}坂本知子,野村早恵子,石田亨,井佐原均,小倉健太郎,林良彦,石川開,小谷克則,島津美和子,介弘達哉,畠中信敏,富士秀,船越要\BBOP2004\BBCP.\newblock\JBOQ機械翻訳システムに対する利用者適応の分析—異文化コラボレーションを目指して—\JBCQ\\newblock\Jem{電子情報通信学会人工知能と知識処理研究会},95--100.\newblockAI2003-97.\end{thebibliography}\appendix\small{\bf付録A日本語における主なリペアの例}\vspace*{3mm}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<名詞句の置き換え>}\\書き換え前:&できるだけTransBBSの上で\underline{会議}を行って下さい.\\書き換え後:&できるだけTransBBSの上で\underline{ミーティング}を行って下さい.\\効果:&\underline{conference}⇒\underline{meeting}\\&''conferece''より適切な''meeting''と翻訳できるようになった.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<述語の置き換え>}\\書き換え前:&あなたの意見を\underline{聞かせて}下さい.\\書き換え後:&あなたの意見を\underline{教えて}下さい.\\効果:&Please\underline{letlistento}youropinion.⇒\\&Please\underline{teachme}youropinion.\\&適切な述語を訳出できるようになった.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文末表現の置き換え>}\\書き換え前:&従って,タイトルは英語で\underline{書くようにして下さい}.\\書き換え後:&従って,タイトルは英語で\underline{書いて下さい}.\\効果:&Thereforeplease\underline{written}atitleinEnglish.⇒\\&Thereforeplease\underline{write}atitleinEnglish.\\&\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<副詞表現の置き換え>}\\書き換え前:&\underline{思わずそのまま}投稿して\\書き換え後:&\underline{すぐ}投稿して\\効果:&\underline{sonomamaof---}⇒{immediately}\\説明:&他の部分の影響で「思わずそのまま」の解析に失敗している.\\&解析失敗が起こらない場合も「思わず」を''asitis''\\&「そのまま」''involuntarily''と二つの副詞として翻訳してしまう.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<助詞の置き換え>}\\書き換え前:&私は日本語の勉強\underline{から}始める必要があります.\\書き換え後:&私は日本語の勉強\underline{を}始める必要があります.\\効果:&IneedtobeginfromthestudyofJapanese.⇒\\&IneedtobeginthestudyofJapanese.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の置き換え>}\\書き換え前:&\underline{ご心配に感謝します}.\\書き換え後:&\underline{ありがとう}.\\効果:&\underline{Worry-appreciates}.⇒\\&\underline{Thankyou}.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の分割>}\\書き換え前:&Bikeshは日本に来て私を助けてください!\\書き換え後:&Bikeshは日本に来て\underline{下さい.そして,}私を助けてください!\\効果:&BikeshcomestoJapanandBikesh,pleasehelpme.⇒\\&Bikesh,pleasecometoJapan.Andpleasehelpme.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<語順の変更>}\\書き換え前:&\underline{ここに}日本チームに送ったメッセージを転送します.\\書き換え後:&日本チームに送ったメッセージを\underline{ここに}転送します.\\効果:&ThemessagesenttoaJapaneseteam\underline{here}isforwarded.⇒\\&ThemessagesenttoaJapaneseteamisforwarded\underline{here}.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<列挙表現の置き換え>}\\書き換え前:&\underline{一つは}RPGのようなもので,\\&\underline{もう一つは}スケジュール管理をしてくれるものです.\\書き換え後:&\underline{一つ目は}RPGのようなもので,\\&\underline{二つ目は}スケジュール管理をしてくれるものです.\\効果:&ThethingwhichisathingsuchasRPG-oneand\\&thethingwhichscheduleadministrationhas\\&thekindnesstobemadeonemore.⇒\\&ThethingwhichisathingsuchasRPG-oneand\\&thethingwhichthesecondperformerhas\\&thekindnesstomanagetheirschedule.\\&列挙表現自体が適切に扱えていないので特に効果なし.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<箇条書きのスタイルを変更>}\\書き換え前:&Saeko\&Naomi\underline{:}コミュニケーションコーディネーター.\\&Kaname\underline{:}技術支援者.\\書き換え後:&Saeko\&Naomi\underline{は,}コミュニケーションコーディネーター\underline{です}.\\&Kaname\underline{は,}技術支援者\underline{です}.\\効果:&Saeko\&Naomi-----------------------\\&--------------\\&Kaname-------------⇒\\&Saeko\&Naomiisacommunicationcoordinator.\\&Kanameisatechnologicsupporter.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<主語の補完>}\\書き換え前:&どこで話し合いをしますか?\\書き換え後:&\underline{私たちは}どこで話し合いをしますか?\\効果:&Wheredo\underline{I}talk?⇒\\&Wheredo\underline{we}talk?\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<副詞表現の削除>}\\書き換え前:&その時に,\underline{再度},今までのメッセージを消去します.\\書き換え後:&その時に,今までのメッセージを消去します.\\効果:&Theyerasethepresentmessage\underline{twice}bythen.⇒\\&Theyerasethepresentmessagebythen.\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の削除>}\\書き換え前:&対面議論ではなく,TransBBS上での活発な議論を歓迎します.\\書き換え後:&\\効果:&TheteamwelcomesanactiveargumentonTransBBS\\&thatcriesforameetingargument.⇒\{\}\\\end{tabular}\vspace*{3mm}{\bf付録B日本語へのリペアが韓国語訳や中国語訳に悪影響を与える例}\vspace*{3mm}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の置き換え>}\\書き換え前:&翻訳がおかしいです.\\書き換え後:&翻訳サービスが間違っています.\\効果:&Atranslationisamusing.\\&Atranslationserviceiswrong.\\&韓国語訳は書き換え前は正しく翻訳されていたが,\\&書き換え後は「間違っています」に相当する部分が訳語選択誤りを\\&引き起こし訳質が低下した.\\&(中国語訳は書き換え前は「おかしいです」に相当する部分が\\&訳語選択誤りを引き起こしていたが,書き換え後は正しく翻訳された.)\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<文の置き換え>}\\書き換え前:&ごめんなさい.\\書き換え後:&私は謝罪します.\\効果:&Theyare---times.\\&Iapologize.\\&中国語訳は書き換え前は正しく翻訳されていたが,\\&書き換え後は「謝罪」に相当する部分が訳語選択誤りを\\&引き起こし訳質が低下した.\\&(韓国語訳は書き換え前,書き換え後ともに正しく翻訳された.)\\\end{tabular}\begin{tabular}{ll}\multicolumn{2}{l}{\bf<語順の変更>}\\書き換え前:&TransSMSはなぜSMSの数を制限する必要があるのですか?\\書き換え後:&TransSMSはSMSの数をなぜ制限する必要があるのですか?\\効果:&英訳は書き換え前,書き換え後変化なし.\\&中国語訳は「SMSの数(SMS的数)」の位置が変わって訳質が悪化した.\\&(韓国語訳も語順の変更が起こったが訳質への影響はなかった.)\\\end{tabular}\begin{biography}\biotitle{略歴}\bioauthor{小倉健太郎}{1978年慶應義塾大学工学部管理工学科卒業.1980年同大学大学院管理工学専攻修士課程修了.同年,日本電信電話公社(現NTT)入社.1987年〜1990年ATR自動翻訳電話研究所へ出向.現在,NTTサイバースペース研究所主任研究員.機械翻訳の研究に従事.1995年人工知能学会論文賞受賞,2002年電気通信普及財団賞(テレコム・システム技術賞)受賞.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,計量国語学会会員.}\bioauthor{林良彦}{1981年早稲田大学理工学部電気工学科卒業.1983年早稲田大学大学院理工学研究科博士前期課程修了.同年,日本電信電話公社入社.2004年日本電信電話株式会社退職(退職時,NTTサイバースペース研究所主幹研究員・グループリーダ).この間,1994年-1995年スタンフォード大学言語情報研究センター滞在研究員.2004年より大阪大学大学院言語文化研究科教授.現在に至る.博士(工学).自然言語処理,知的情報アクセスの研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,ACL,ACMSIG-IR各会員.}\bioauthor{野村早恵子}{2003年京大大学院情報学研社会情報学専攻指導者認定退学.同年,(独)科学技術振興機構研究員,アジアの異文化コラボレーション実験に従事.2004年よりUCSD認知科学部分散認知とHCI研究室ポスドク研究員.エスノグラフィック手法を用いた,HCI分析,CMC分析に興味を持つ.情報学博士.}\bioauthor{石田亨}{1976年京都大学工学部情報工学科卒業,1978年同大学院修士課程修了.同年日本電信電話公社電気通信研究所入所.ミュンヘン工科大学,パリ第六大学,メリーランド大学客員教授,NTTリサーチプロフェッサなどを経験.工学博士.IEEEFellow.情報処理学会フェロー.現在,京都大学大学院情報学研究科社会情報学専攻教授,上海交通大学客員教授,自律エージェントとマルチエージェント研究に15年以上の経験を持つ.現在,3次元仮想都市FreeWalk/Qの研究を行い,デジタルシティに適用を試みている.また,日中韓馬の研究者と共に,異文化コラボレーション実験に取り組む.KluwerJournalonAutonomousAgentsandMulti-AgentSystemsの編集委員,ElsevierJournalonWebSemanticsの共同編集長.}\end{biography}\end{document}
V06N02-02
\section{はじめに} 音声認識・文字認識の精度向上のため,より高い性能を持つ言語モデルを求めることは重要である.近年は,モデル構築やメンテナンスの容易さの点から,コーパスに基づく統計的言語モデルの研究が盛んである.大語彙ないしタスク非依存のシステムのための統計的言語モデルとして今日もっとも有望視されているものに,$n$-gramが挙げられる.$n$-gramは大量のテキストコーパスからの単純な数え上げによって得られる統計量であり,強力かつ頑健性に優れている.英語などのヨーロッパ系言語においては,$n$-gramの単位として単語を用いることが多い.大語彙のシステムでは単語はカテゴリ数が非常に大きくなるため,単語の代わりに品詞を用いる\cite{nagata94},または単語クラスタリングによって得られる単語クラスを用いることが多い.これらの言語においては単語は分かち書きされるため機械的に取り出すことができ,数え上げも容易に行える.これに対し,日本語や中国語には分かち書きの習慣がない.朝鮮語は文節ごとに分かち書きをするが,その分かち方は一定しないうえ,$n$-gramの単位としては大き過ぎて汎化性に難がある.よって,これらの言語を$n$-gramによってモデル化する際には,テキストコーパスに何らか\breakの前処理が必要である.これには次の可能性が考えられる.\begin{itemize}\item人手によって分割されたタグ付きコーパスを使う\item自動形態素解析システムによって単語に分割する\item経験的な統計基準によって文字列に分割する\end{itemize}このうちタグ付きコーパスを使う方法には,コーパス自体の入手が質的・量的な困難を伴うという欠点がある.形態素解析に基づく方法は有効であるが,モデルを学習するためにはまず形態素解析システムを用意せねばならないうえ,特定タスクに対して高い性能を得るためには予め辞書をチューニングする必要があると考えられ,メンテナンスのコストがかかる.また,形態素解析システムの文法規則によっては機能語が短めに分割される傾向があり,$n$-gramの性能を必ずしも最大にするものではない.これらの手法に対して,伊藤ら\cite{aito96}は統計的な基準によって文\mbox{字列の集合を選}定し,その文字列に分割されたテキストを使って$n$-gramを学\mbox{習する方法を提案している.文字}列を選定する基準としては,単純な頻度,および語彙の自動獲得のために提案されている正規\break化頻度\cite{nakawatase95}の高いものから選ぶ方式が\mbox{有効であったとされる.この方法は,形態素解}析を必要としない点で優れている.しかし,抽出すべき文字列の最適な個数を見出す方法については述べられていない.また,用いられている基準と言語モデルの能力との理論的関係は浅く,最良の分割方法である保証はない.さらに,この手法ではテキストが明示的に分割される.このため,接辞を伴った語や複合語などの長い文字列が抽出された場合,その文字列を構成するもっと短い語は出現しなかったのと同様な扱いを受けることになる.有限のテキストから汎化性の高い言語モデルを構築したい場合に,このような明示的な分割が最良の結果を与えるとは限らない.本論文では,高い曖昧性削減能力を持つ新しい言語モデルを提案する.このモデルは,superwordと呼ぶ文字列の集合の上の$n$-gramモデルとして定義される.superwordは訓練テキスト中の文字列の再現性のみに基づいて定義される概念であり,与えられた訓練テキストに対して一意に定まる.具体的な確率分布は,訓練テキストからForward-Backwardアルゴリズムによって求める.訓練テキストを明示的に分割せぬまま学習を行うため,長い文字列中の部分文字列を「再利用」することが可能となり,少量の訓練テキストでも効率の良いモデル化が期待できる.本論文ではまた,いくつかのモデルの融合による汎化性の向上についても検討する.実時間性が要求される大語彙連続音声認識システムにおいては,緩い言語モデルを用いて\mbox{可能性をしぼり込んだ後,詳細な言語モデルによって最終出力を導}く2パス処理が一般的である.本論文で提案するような字面の適格性を与える言語モデルは,ディクテーションシステムの第2パス,すなわち後処理用の言語モデルとして有用であるものと考えられる.また,文字$n$-gramを用いた認識手法\cite{yamada94}を本手法に応用することも可能である. \section{superwordモデルの定式化} 単語\cite{mori96a}や文字列の$n$-gram\cite{aito96}では与えられた系列を単語ないし文字列に分割するやり方が一意に決まらないため,これらのモデルは直前の\(n-1\)個の単語や文字列を状態とする,隠れマルコフモデルの一種と考えられる.単語や文字列の集合は,語彙知識として人手で与えられるか,あるいは経験的な規則に基づいて訓練テキストから抽出されるものである.ここで定義するsuperwordとはこれら単語や文字列を一般化したものであるが,それらと対照的なのは,訓練テキスト中の任意の文字列を含み得る点である.ただし,言語モデルとして意味を持つために必要最小限のヒューリスティクスは導入せねばならない.そこで,次の条件を満たす文字列をsuperwordと定義する.\begin{itemize}\item訓練テキスト中に最低2回出現する\end{itemize}または\begin{itemize}\item長さ1の文字列である\end{itemize}訓練テキストにおける再現性の仮定は,ある文字列が何らかの言語的なまとまりを成すか否かに対する基準となるものであり,そのような基準として考え得る制約の中でもっとも緩い条件\breakとして与えてある.すなわち,ある文字列が訓練テキスト中で1回しか出現しない,または1回\breakも出現しないならば,その文字列が何らかのまとまりを成すだろうという証拠は,他に人間が知識として与えない限り得られない.また,再現性とは独立に,長さ1の文字列は全てsuperwordと定義している.これにより,全ての文は少なくとも1通りのsuperwordの系列として表現できることが保証される.superword$n$-gram確率\(P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\)は,直前に\(n-1\)個のsuperwordの列\(w_{i-(n-1)}\cdotsw_{i-1}\)が\break生起したと仮定した時のsuperword\(w_i\)の条件付き生起確率である.与えられた文\(\futo{C}=C_1C_2\cdotsC_k\)がsuperwordの列\(w_1w_2\cdotsw_l\)に分割できるとき,\(w_1w_2\cdotsw_l\in\futo{C}\)と書く.superword$n$-gramモデルは,$\futo{C}$の全ての可能な分割に関して計算\breakしたsuperword$n$-gram確率の積の総和をもって$\futo{C}$の発生確率を推定するものである.すなわち,その確率を次式で与える.\begin{equation}P(\futo{C})=\!\!\!\!\!\!\!\sum_{w_1\cdotsw_l\in\futo{C}}\prod_{i=1}^lP(w_i|w_{i-(n-1)}\cdotsw_{i-1})\label{forward}\end{equation}ここで\(n=1\)の時,すなわちsuperwordunigramモデルは,文全体の生起確率がそれぞれ独立なsuperwordの生起確率の積で表されるとするものであり,multigram\cite{deligne95}と呼ばれる可変長単語列に基づく言語モデルと同一のものである.superword$n$-gramモデルのクラスは,単語や文字列の$n$-gramモデルのクラスを包含する.この性質は,パラメータさえ適切に与えることができれば,superwordに基づくモデルの性能が単語や文字列の$n$-gramモデルの性能と同等かそれ以上になることを保証する.\vspace{-2mm} \section{superwordモデルの学習法} \vspace{-1mm}\subsection{superword集合の獲得}\vspace{-1mm}モデルの獲得にあたっては,パラメータの学習に先立ち,訓練テキストからsuperwordの集合を求める必要がある.長さ1のsuperwordについては自明であるから,再現性のある文字列を集める作業が核心である.これには,訓練テキストの全ての位置から始まる半無限文字列をソートして任意長$n$-gram統計を求め\cite{nagao94},2回以上出現する文字列を記録\breakする方法が考えられる.しかし,再現性のある文字列だけに興味がある場合には,短い文字列から長い文字列へと逐次的に求める簡便な方法で十分である\cite{mori96b}.実験で用いたテキストコーパスでは,長さ$L$のsuperwordの種類は大きな$L$では単調に減少\breakすることが観察されている.\subsection{確率分布のForward-Backward学習}superwordモデルでは,ある状態から別の状態に移る時に,ある確率で一つのsuperwordを出力する.状態は,直前\(n-1\)個のsuperwordによって定まるものとする.ただし,\(n=1\)の場合はただ1つの状態のみ存在するものとする.superwordモデルの出力はsuperword列としてで\breakはなく文字の系列として観測される.そこで,通常の隠れマルコフモデルと同様に扱うことを\break可能にするため副状態を導入して,1回の状態遷移で1文字を出力する等価なモデルを考える.\break副状態は,状態を分割したもので,そこに移る時最後に出力したsuperwordの各文字に対応す\breakる.superword\(w_i\)の表記を\(C_1\cdotsC_j\cdotsC_L\)とし,\(w_i\)の長さ$j$のプレフィックスを\(w_{i,j}\)とする.\breakそして,superwordモデルにおける\(w_i\)の出力を,等価なモデルでは次のように表す.すなわち,\break確率\(P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\)で副状態\(w_{i-(n-2)}\cdotsw_{i-1}w_{i,1}\)に移る時に\(C_1\)を出力し,以後確率\break1で副状態\(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j}\)\mbox{に移る時に\(C_j\)を出力し,最終的に状態\break\(w_{i-(n-2)}\cdotsw_{i-1}w_i\)に}\break至ると考える.例として,図\ref{fig4-1}の状態遷移図では「東北大学」というsuperwordを出力して状態\break(東北大学)に至る様子を示している.等価なモデルでは,本来の確率で副状態(東)に移る時に文字「東」を出力,確率1で(東北)に移る時に「北」を出力,確率1で(東北大)に移る時\breakに「大」を出力,最終的に確率1で(東北大学)に移る時に「学」を出力する.分割前の状態が異なる副状態は同一視しないので,例えば(東北大学)の副状態(東)と(東京)の副状態(東)は異なることに注意すべきである.\begin{figure}\begin{center}\epsfile{file=33.eps}\caption{「東北大学」というsuperwordの各文字に対応した副状態の系列}\label{fig4-1}\end{center}\end{figure}\(n=1\),すなわちsuperwordunigram確率の学習のための初期確率としては,全てのsuperwordが等確率で発生するとして,superwordの数の逆数を与える.\(n>1\)については,対応するsuperwordの\((n-1)\)-gram確率で初期化する.確率の再推定のために,図\ref{fig4-2}のように訓練テキストから全てのsuperwordを洗い出す.\begin{figure}[t]\vspace{-7mm}\begin{center}\epsfile{file=34.eps}\caption{「東北大学」というテキストの解析.矩形はsuperwordを,実線は可能なパスを表す.\\``\$''は文の終端}\label{fig4-2}\end{center}\end{figure}次に,連接可能な$n$個のsuperwordの組に関して,次式によって確率を更新する.\begin{eqnarray}\lefteqn{\tilde{P}(w_i|w_{i-(n-1)}\cdotsw_{i-1})=}\nonumber\\&&\frac{\displaystyle\sum_t\alpha_{t-1}(w_{i-(n-1)}\cdotsw_{i-1})P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\beta_t(w_{i-(n-2)}\cdotsw_i)}{\displaystyle\sum_t\alpha_t(w_{i-(n-2)}\cdotsw_i)\beta_t(w_{i-(n-2)}\cdotsw_i)}\end{eqnarray}ただし,$\alpha$,$\beta$はそれぞれForward確率,Backward確率で,以下のように再帰的に定義する.\begin{equation}\alpha_1(w)=P(w|\#),\qquad\mbox{\#は文頭を表す状態}\end{equation}時刻$t$(\(t>1\))でsuperword\(w_i\)の第1字目を出力するとき\begin{equation}\alpha_t(w_{i-(n-2)}\cdotsw_i)=\sum_{w_{i-(n-1)}}\alpha_{t-1}(w_{i-(n-1)}\cdotsw_{i-1})P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\end{equation}時刻$t$(\(t>1\))でsuperword\(w_i=C_1\cdotsC_j\cdotsC_L\)の第$j$字目(\(j>1\))を出力するとき\begin{equation}\alpha_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j})=\alpha_{t-1}(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j-1})\end{equation}ただし\begin{equation}\alpha_t(w_{i-(n-2)}\cdotsw_{i-1}w_i)=\alpha_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,L})\end{equation}同様に\begin{equation}\beta_T(\$)=1,\qquad\mbox{$T$は文末記号``\$''を出力する時刻}\end{equation}時刻$t$(\(t<T\))でsuperword\(w_i\)の第1字目を出力するとき\begin{equation}\beta_{t-1}(w_{i-(n-1)}\cdotsw_{i-1})=\sum_{w_i}\beta_t(w_{i-(n-2)}\cdotsw_i)P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\end{equation}時刻$t$(\(t<T\))でsuperword\(w_i=C_1\cdotsC_j\cdotsC_L\)の第$j$字目(\(j>1\))を出力するとき\begin{equation}\beta_{t-1}(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j-1})=\beta_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j})\end{equation}ただし\begin{equation}\beta_t(w_{i-(n-2)}\cdotsw_{i-1}w_i)=\beta_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,L})\end{equation} \section{長さ制限の導入} 再現性のある文字列の長さを十分大きく取れば,前節までに述べたモデルは与えられた訓練テキストに対して一意に求まる.以下では,これを一般superword$n$-gramモデルと呼ぶ.しか\breakし,一般モデルのパラメータ数は大きい.特に,\(n>2\)ではsuperwordの組み合わせが爆発し,現実的ではない.さらに,あまりに長いsuperwordは訓練テキストに特化してしまう恐れがあり,汎化能力の低下を招く.これに対処するため,一般モデルに加えて長さ制限付きのsuperwordモデルを導入する.これは,逐次的な再現性文字列の獲得を早い段階で打ち切って小さなsuperwordの集合をつくり,その集合に基づいてForward-Backward学習を行うことで得ることができる.以下では,長さ$l$に制限されたsuperword$n$-gram確率を\(P_{|w|\leql}(w_i|w_{i-(n-1)}\cdotsw_{i-1})\)と表記する.長さが$l$に制限されたsuperword$n$-gramモデルは,図\ref{ergodic}に示すような,状態数が高々字種の\break$l$乗に制限されたエルゴーディックHMMとなる.ただし,図は\(l=2\)とした例である.\begin{figure}\begin{center}\epsfile{file=35.eps}\vspace*{-3mm}\caption{「東北大学」の部分文字列をsuperwordの集合とする時の長さ制限モデル}\label{ergodic}\end{center}\end{figure} \section{複合モデル} $n$-gramに代表される確率モデルにおいては,モデルのパラメータを精度良く推定するに足るサンプルが得られないことが多く,パラメータ空間のさまざまなスムージング法が提案されている\cite{federico95}.その一つに,いくつかのモデルの確率の重み付き線形和で表現する方法がある\cite{jelinek80}.これは本来,詳細なモデルの値が信用できない場合に,パラメータの少ない安定したモデルの値を代用するものであ\breakるが,性質の異なる複数のモデルを組み合わせてより良いモデルを得るという積極的な利用も可能である.本節では,この線形補間に基づくいくつかの複合モデルを考える.superwordbigram(\(n=2\))モデルに対しては,superwordunigram確率によって補間された確率は次式で与えられる.\begin{equation}\hat{P}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizeg}}P(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizeg}})P(w_i)\end{equation}重み係数\(\lambda_{\mbox{\scriptsizeg}}\)は,訓練テキストとは別のサンプル(held-outデータ)またはクロスバリデーション\breakによって得られる仮想的な未知データの確率を最大にするように再推定する.前述したように,一般superwordbigramはパラメータ量が多くなり過ぎるので,実際にはsuperwordの長さを最大$l$に制限したモデルと組み合わせる.これは次式で与えられる.\begin{equation}\hat{P}_{|w|\leql}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizeb}}P_{|w|\leql}(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizeb}})P_{|w|\leql}(w_i)\label{limited}\end{equation}式(\ref{limited})のような制限されたモデルでは,長い語の表現に難があることも考えられる.そこで,長さ制限付きsuperwordbigramモデルと一般superwordunigramモデルの複合モデルを導\break入する.複合superwordbigram確率は次式で定義される.\begin{equation}P_{\mbox{\scriptsizecomp}}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizec}}\hat{P}_{|w|\leql}(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizec}})P(w_i)\label{composite}\end{equation}さらに,複合superwordbigramモデルを,文字のtrigramモデルによってスムージングする\breakことを考える.文字のtrigramモデルはそれ自身で強力な曖昧性削減能力を持っているが\cite{mori96},単語$n$-gramモデルと融合させることにより,認識対象中の未知の文字列の存在による単語解析精度の低下の影響を低減させ,頑健なモデルとすることができる\cite{mori96a}.文字によって補間された複合superwordbigram確率は次式で定義される.\begin{equation}\hat{P}_{\mbox{\scriptsizecomp}}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizew}}P_{\mbox{\scriptsizecomp}}(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizew}})\hat{P}_{\mbox{\scriptsizec}}(w_i|w_{i-1})\label{charint}\end{equation}ただし,\(\hat{P}_{\mbox{\scriptsizec}}(w_i|w_{i-1})\)はsuperword\(w_i\)が生起する確率を,補間された文字trigram確率の積によって求めたものである.すなわち,\(w_i\)の表記を\(C_1\cdotsC_{L(w_i)}\),\(w_{i-1}\)の最後の2文字を\(C_{-1}C_0\)と書くとき\begin{equation}\hat{P}_{\scr{c}}(w_i|w_{i-1})=\left(\prod_{j=1}^{L(w_i)}\hat{P}_\scr{c}(C_j|C_{j-2}C_{j-1})\right)\cdotd(L(w_i))\label{charmodel}\end{equation}ただし\(\hat{P}_\scr{c}(C_j|C_{j-2}C_{j-1})\)はbigram,unigram等により補間された文字trigram確率である.また,\(d(L(w_i))\)は文字モデルが生成する単語の長さに関する分布関数である. \section{評価実験} 提案した言語モデルの能力を,文字を単位としたパープレキシティによって評価する.パープレキシティは,式(\ref{forward})において評価用テキストを$\futo{C}$として次式で求められる.\begin{equation}\mbox{{\itPP}}\simeq\hat{P}(\futo{C})^{-1/k}\end{equation}ただし,$k$は評価用テキストの全字数である.長さ1のsuperwordに対しては,確率が設定した\break底値を下回る場合には底上げした.対象タスクは朝日新聞「社説」とした.実験に用いたテキストの量を表\ref{tab4-1}に示す.表中,held-outとは式(\ref{limited}),式(\ref{composite}),式(\ref{charint})の重み係数を求めるために用いたテキストである.各々のテキストは,共通部分を持たない.\begin{table}\vspace{-3mm}\begin{center}\caption{訓練テキスト・評価テキストの量}\label{tab4-1}\begin{tabular}{|c|rr|}\hline&字&(文)\\\hline訓練&969497&(21767)\\held-out&85654&(1953)\\評価&80098&(1779)\\\hline\end{tabular}\end{center}\end{table}長さ制限の効果を見るため,superwordunigramモデルについて最大長を変化させてパープレキシティを求めた.その結果を図\ref{unigram}に示す.\begin{figure}\begin{center}\epsfile{file=unigram1.eps,width=.7\hsize}\caption{superwordunigramモデルにおける長さ制限の効果}\label{unigram}\end{center}\end{figure}この結果から,長いsuperwordを許してもパープ\breakレキシティは上がらないことがわかる.これは,superwordの再現性の条件が適当であったことを示す.以下の実験では,\(L=20\)の場合を一般superwordunigramモデルとして扱う.表\ref{tab2}に,提案したモデルおよび従来のモデルのパープレキシティを示す.上から4項目までがsuperwordに基づくモデルである.bigramとあるのは式(\ref{limited})の長さ制限付きモデルである.ここでは最大長を3とした.一般unigram+bigramとあるのは式(\ref{composite})の複合モデル,一般unigram+bigram+文字とあるのはさらに文字trigramで補間した式(\ref{charint})のモデルである.その\break場合の式(\ref{charmodel})の分布関数としては,指数分布を仮定した.表\ref{tab2}の残りの4項目は比較のために示\breakしてある.単語trigramは,訓練テキストをあらかじめ形態素解析システムJUMAN\cite{juman94}により分割して求めたものであり,削除補間法によりスムージングしたものである.文字+単語trigramは,さらに文字のtrigramでスムージングしたもので,\break式\hspace{-0.1mm}(\ref{charmodel})\hspace{-0.1mm}と同様の式を用いている.文字列\hspace{-0.1mm}trigram\hspace{-0.1mm}は,訓練テキストに伊藤らの実験\hspace{-0.1mm}\cite{aito96}で最も有効であった左最長一致による高頻度文字列への分割法を適用し,さらに文字の\breaktrigramでスムージングしたものである.抽出文字列数は約4000から12000まで変化させ,パープレキシティが極小となった約6000個を用いた時の値を示してある.スムージングのためのheld-outデータにはsuperwordモデルと同じものを用いている.\begin{table}[t]\begin{center}\caption{各モデルの性能評価}\label{tab2}\begin{tabular}{|c|c|}\hlineモデル&パープレキシティ\\\hlineunigram&32.4\\bigram&29.8\\一般unigram+bigram&28.5\\一般unigram+bigram+文字&25.7\\\hline文字trigram&28.9\\単語trigram&28.6\\文字+単語trigram&26.6\\文字列trigram&28.6\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことがわかる.まず,superwordunigramモデルの性能が良くない.図\ref{unigram}\breakの結果をも考慮すると,これはsuperwordの長さの問題ではなく,unigramでは語と語の連接関\break係が本質的に表現できないものと考えられる.これはATISデータベースの上でのmultigramの評価\cite{deligne95}といくぶん矛盾する結果であるが,伊藤ら\cite{aito96}も同様の結果を導いている.長さ制限付きsuperwordbigramモデルの導入によって,性能の向上が見られた.しかし,ま\breakだその性能は文字trigramモデルに及ばない.長さ制限付きsuperwordbigramモデルと一般superwordunigramモデルを融合させることで,若干の性能向上が見られた.これは,長いsuperwordは単独ではあまり性能に貢献しないが,語と語の連接関係だけでは表現しきれない部分を補う効果を持っているものと考えることができる.語と語の関係に関する知識と語彙知識とを独立に表現する枠組は,形態素解析の原理と類似している.さらに,文字trigramモデルでスムージングすることにより,大きく性能が向上した.その結果,形態素解析を用いたモデルを超える性能が得られた.superwordに基づいたモデル単独では訓練テキストに対して過学習する傾向があり,未知テキストに対して脆弱な側面があるが,未知テキストに対して頑健な文字trigramモデルとの融合によりそれが克服できることを意味する. \section{あとがき} 本論文では,superwordの概念に基づいた新しい言語モデルを提案した.このモデルは従来の$n$-gramの枠組を包含したより一般的なものであり,コーパス以外の知識に全く依存しない.また,本論文で導入した長さ制限モデルとスムージング手法により,現実的なコーパスの量の範囲でモデルの学習が可能となった.評価実験の結果,長さ制限を施したsuperwordbigramモデルを文字trigramモデルと組み合わせて頑健性を向上させたモデルの性能が高く,形態素解析\breakに基づく手法,および高頻度文字列抽出による方法を超える能力が得られた.superwordに基づく言語モデルは,可搬性に優れた強力なものであるが,欠点として訓練テキストに比べモデルの規模が非常に大きいことが挙げられる.superwordunigramモデルのパラメータ数はsuperword集合の大きさにほぼ比例する.通常の$n$-gramではモデルのサイズの上\break界がコーパスの量に対して線形のオーダーで与えられるのに対し,superwordの場合にはそれよりも大きくなる可能性がある.これはsuperwordを可能な限り一般的に定義したためであり,特に大規模なコーパスを用いてモデルを学習する場合には,再現性の仮定を見直す必要があることが考えられる.また,superwordbigramモデルは長さ制限を加えた場合でも非常に大きくなる.今回構築した長さ3のsuperwordbigram確率テーブルは約170Mbyteの大きさのファイルとなり,一般superwordunigram確率テーブルの約10倍である.これは,与えられたテキストのsuperwordによる解析結果が極めて曖昧性が大きいものであることが原因である.モデルのサイズを小さくし,実際のパターン認識システムで利用できるようにするためには,モデルの最適化が必要である.すなわち,学習の過程で非常に小さな確率を付与された状態遷移のアークは刈り取る,あるいは外から遷移してくる確率が十分小さな状態は削除する,などである.しかし,この種の枝刈りは,訓練サンプルに特化する危険がある.今後はパープレキシティを上げることなくモデルをコンパクトにするための枝刈り手法の開発が課題である.\vspace{-3mm}\bibliographystyle{jnlpbbl_old}\bibliography{v06n2_02}\begin{biography}\biotitle{略歴}\bioauthor{森大毅}{1993年東北大学工学部通信工学科卒業.1998年同大大学院博士後期課程修了.博士(工学).同年,同大大学院工学研究科助手.文字認識,音声認識,自然言語処理の研究に従事.電子情報通信学会,情報処理学会各会員.}\bioauthor{阿曽弘具}{1974年東北大学大学院電気及通信工学専攻博士課程修了.現在,同\break大大学院工学研究科教授.並列処理,文書認識,音声認識,神経回路網などの研究に従事.平成3年度電子情報通信学会業績賞受賞.工学博士.}\bioauthor{牧野正三}{1947年1月生まれ.1974年東北大学大学院工学研究科博士課程修了.工学博士.現在東北大学大型計算機センター及び東北大学大学院情報科学研究科計算機ネットワーク論講座教授.音声認識・理解,画像処理・理解,対話システム,自然言語処理の研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V19N04-01
\section{序論} 近年,質問応答や要約,含意認識などで,幅広い知識の必要性が高まっている.幅広い分野の一般的知識を記述したものに汎用オントロジーがある.オントロジーとは概念の意味と概念同士の関係を定義したものであり,特定の分野に偏らず幅広い分野に対応したオントロジーを汎用オントロジーという.概念間の関係には,is-a関係\footnote{``is-a関係''とは,Bisa(kindof)Aが成り立つときのAとBの関係をいう.}(上位‐下位概念)やpart-of関係(全体‐部分関係)など様々な種類がある.固有名詞や日々生まれる新しい語彙への即時対応を目指して,即時更新性と知識量の多さに優れたオンライン百科事典であるWikipediaを利用したis-a関係の汎用オントロジーの作成が注目されている\cite{Morita}.汎用オントロジーと言われるものには少なくとも2つのタイプがある.一つは,WordNet\cite{WordNet}のように,語と語の関係(synsetで表現される語義と語義の関係)を表現するものと,日本語語彙大系\cite{goitaikei}のように,ある語の上位概念をさまざまな粒度で表現したもの(語を階層的に分類したもの)である.前者は,上位下位関係を構成している単語対をたくさん獲得する方法であり,例えば「紅茶はお茶の一種で,紅茶にはアールグレーやダージリンがある」というような,ある単語を中心として上位概念と下位概念を表現する用語の集合を獲得する(ある単語の近傍の単語の集合を密に獲得する)目的に適している.またこのような目的のために,7.1節で述べるようにWikipediaからis-a関係の抽出の研究も行われている.本研究では後者のタイプの汎用オントロジーを目指す.このタイプの汎用オントロジーからは,葉節点にある概念(Wikipediaの記事の見出し)の上位語を,トップレベルとして設定した10個程度の上位概念まで,細かな粒度から荒い粒度まで順に,葉節点の概念を分類する用語が並んでいるような知識表現が得られる.このようなオントロジーの典型的な応用は,クエリログの解析のためにアイドルの名前を集めたり,アニメのタイトルのリストを作るといった用語リストを作ることである.特に,何らかのアプリケーションのために,「日本の今」を反映するような固有表現辞書を作る場合に有効である.Wikipediaの記事にはカテゴリが付与され,そのカテゴリは他のカテゴリとリンクして階層構造を作っている.しかしオントロジーと違い,Wikipediaのカテゴリ間,カテゴリ‐記事間のリンクの意味関係は厳密に定義されていない.そこで,Wikipediaのリンク構造からis-a関係のリンクを抽出する,以下のような研究が行われている.\begin{itemize}\item[1.]Wikipediaのカテゴリ間のリンクからis-a関係のリンクを抽出し,is-a関係のリンクでつながる部分的なカテゴリ階層を複数抽出する研究\cite{Ponzetto,Sakurai,Tamagawa}\item[2.]WordNetや日本語語彙大系のような既存のオントロジーに,Wikipediaのカテゴリや記事を接続する研究\cite{Suchanek,Kobayashi,Kobayashi2}\item[3.]既存のオントロジーの下位に,Wikipediaから抽出した部分的なカテゴリ階層と記事を接続する研究\cite{Shibaki}\end{itemize}\noindent1〜3の手法はis-a関係のリンクの抽出や既存のオントロジーの接続に文字列照合を用いるため,適合率は高いが再現率が低い.手法2では,Wikipediaのカテゴリ階層の情報が失われる.手法3はWikipediaのカテゴリ階層の情報をオントロジーに組み込めているが,上位階層に既存のオントロジーを用いているため,多くのカテゴリ階層の情報が失われる.また手法3は既存のオントロジーとWikipediaのカテゴリの接続部分を人手で判定しているため半自動の手法である.本研究では,Wikipediaの階層構造を出来るだけそのまま生かし,新たに定義した上位カテゴリ階層にWikipediaを整形した階層を接続することで1つに統一されたis-a関係のオントロジーを自動で構築する(図\ref{fig:image}).目標とするオントロジーの特徴は主に以下の2点である.\begin{itemize}\item[1.]Wikipediaの各記事名に対して,上位下位関係に基づく順序が付いた上位語のリストをWikipediaのカテゴリ階層から作成する.\item[2.]Wikipediaの記事名の全体集合を,網羅的(broadcoverage)かつ重なりなく(disjoint)分類できるような,上位下位関係に基づく階層的な分類体系をWikipediaのカテゴリ階層から作成する.\end{itemize}\noindent本手法では初めに,Wikipediaの上位のカテゴリ階層を削除する.またカテゴリ間とカテゴ\mbox{リ‐}記事間のis-a関係でないリンク(以下,not-is-a関係)を高い精度で削除し,残ったリンクをis-a関係とみなすことでWikipediaをis-a関係のリンクのみでつながる階層へ整形する.次にそれらの階層を新たに定義した深さ1の上位階層の下位に接続することで,1つに統一された階層を再構成する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f1.eps}\end{center}\caption{本手法で構築する汎用オントロジーの一部}\label{fig:image}\vspace{-4pt}\end{figure}本研究では,(1)全概念を網羅していることを明確化するため(2)標準的な構造(3)計算機処理しやすい,という理由から,体系が統一された汎用オントロジーの構築を目指す.\begin{enumerate}\item一般に,「人オントロジー」「組織オントロジー」など個別のオントロジーを作成してもそれらのオントロジー間の関係は並列とは限らない.また今回作成した9つで概念のどれだけを網羅しているのかも分かりにくい.我々は,(ほぼ)全概念を9種類の排他的な意味属性で網羅していることを明確化するため,一つのオントロジーとして構築した.\itemこれまでに提案されているオントロジーである日本語語彙大系なども同様の形式であり,このような構造にすることによる恣意性,特殊性はない.本研究はオントロジーのあるべき表現構造の議論を行うのが主眼ではないため,最も標準的な構造のオントロジー構築を目指した.\item計算機で処理する上で全体が統一された一つの構造となっているほうが便利であり,また柔軟性がある.汎用オントロジーとして構築したものの一部(例えば「人」オントロジーのみ)を利用することは可能だが,一般に逆は可能とは限らない.\end{enumerate}本研究で作成するオントロジーの利用例として質問応答システムを取り上げる.集合知によって作成された百科事典であるWikipediaは,一般的な(常識的な)知識を記述したものであり,Wikipediaの記事名の集合は,多くの人が興味を持つ「もの」と「こと」のリストと考えられる.本研究で構築するオントロジーを用いると,記事名に関して用途に応じて様々な粒度での分類や記述が可能になる.例えば質問応答システムにおいて,「ドラゴンボールとは何か?」という質問に対して,その上位語「格闘技漫画」「冒険作品」「週刊少年ジャンプの漫画作品」はいずれも回答となる.また上記項目2のように一つの統一された階層分類になっていることで,任意の2つの記事名に対して必ず共通の上位語が存在し,共通の上位語に至るまでの上位語は2つの記事名の違いを特徴付けることができる.例えば「ONEPIECEと名探偵コナンの違いは?」という質問に対して,共通の上位語である「漫画作品」と,それぞれの上位にある語「週刊少年ジャンプの漫画作品」,「週刊少年サンデーの漫画作品」を使って,「どちらも漫画作品だが,ONEPIECEは週刊少年ジャンプの漫画で,名探偵コナンは週刊少年サンデーの漫画」というような回答が可能になる.本論文では以降,\ref{sec:onto_wiki}章でオントロジーとWikipediaについて説明した後,3章で本研究で提案する汎用オントロジー構築手法を示す.次に\ref{sec:zikken}章で実験条件,\ref{sec:kekka}章で実験結果,\ref{sec:kousatsu}章で考察を述べる.そして\ref{sec:kanren_kenkyu}章でWikipediaからのオントロジーを構築する関連研究について紹介し,最後に\ref{sec:ketsuron}章で本論文の結論を述べる. \section{オントロジーとWikipedia} \label{sec:onto_wiki}\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f2.eps}\end{center}\caption{オントロジーの例}\label{fig:onto_toha}\end{figure}本研究で扱うオントロジーは,対象とする世界に存在する概念とそれらの間に成立する関係を記述したものを指す.概念間の関係は様々なものがあるが,代表的なものはis-a関係(上\linebreak位‐下位概念)とpart-of関係(全体‐部分関係)である.is-a関係とは,BisaA,(BはAの一つ,BはAの一種)が成り立つときのAとBの関係をいう.例えば図\ref{fig:onto_toha}では「自動車は乗り物の一種」が成り立つので,乗り物と自動車はis-a関係である.このときAを上位語,Bを下位語という.part-of関係とは,BisapartofA(BはAの一部)が成り立つときのAとBの関係をいう.図\ref{fig:onto_toha}では「タイヤは自動車の一部」が成り立つので,自動車とタイヤはpart-of関係である.このときAを部分語,Bを全体語という.概念を単語の集合(カテゴリ)と考えると,カテゴリには具体物(インスタンス)が分類される.本研究では,カテゴリ間とカテゴリ‐インスタンス間をis-a関係で表したオントロジーを扱う.is-a関係で表したオントロジーを用いれば,階層を用いて語彙を抽象化したり,リンクの距離から類似度を計算したりできる.これらは,検索,意味処理,情報抽出,機械学習や統計処理など様々な用途に適用可能である.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f3.eps}\end{center}\caption{日本語語彙大系}\label{fig:goitaikei}\end{figure}幅広い分野の一般的知識を記述した汎用オントロジーの一つに日本語語彙大系\cite{goitaikei}がある.日本語語彙大系は,日本語約30万語を約3,000種類の意味属性で分類したオントロジーである.日本語語彙大系には,約2,700のカテゴリと約10万のインスタンス(普通名詞)からなる一般名詞の意味体系(図\ref{fig:goitaikei})が収録されている\footnote{以降,日本語語彙大系の一般名詞意味体系を``語彙大系''と表記する.}.語彙大系のカテゴリ階層は木構造になっていて,カテゴリ間,カテゴリ‐インスタンス間の関係はis-a関係で表される\footnote{一部part-of関係も存在する.}.また多義性があるインスタンスはいくつかのカテゴリが付与される.例えば,「モデル」は``人''と``玩具''の2つの意味があるので,2つのカテゴリ``芸人''と``遊び道具・文房具''が付与される.現状では,既存のオントロジーの大部分は,多大なコストをかけて手動で構築されている\cite{Morita}.そこで近年,半構造化されたWikipediaから(半)自動でオントロジーを構築する研究が盛んに行われている.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f4.eps}\end{center}\caption{Wikipedia}\label{fig:wiki_kaisou}\end{figure}Wikipediaは即時更新性に優れた自由に利用できるオンライン百科事典であり,Web上でXML形式のダンプデータが公開されている\footnote{http://download.wikimedia.org/jawiki}.記事の本文には,見出し語と説明文(本文の第一文は見出し語の定義文であることが多い),記事を分類するカテゴリが書かれている.そしてこのカテゴリは他のカテゴリとリンクして階層構造を作っている(図\ref{fig:wiki_kaisou}).しかしオントロジーと違い,カテゴリ間の関係やカテゴリ‐記事間の関係は定義されておらず,is-a関係が最も多いがis-a関係でないものもある.例えば,カテゴリ「変光星」と,このカテゴリが付与されている記事「爆発変光星」はis-a関係にあるが,同じく「変光星」が付与されている記事「アメリカ変光星観測者協会」とはis-a関係にない.2,500件のサンプル調査の結果,is-a関係のリンクの割合はカテゴリ間で72.1\%,カテゴリ‐記事間で74.7\%であった\footnote{本論文でのサンプル調査は全て2008年7月24日の日本語Wikipediaを用いた.}.またオントロジーの最上位カテゴリと違い,Wikipediaのカテゴリ階層はis-a関係による分類を目的としておらず,ジャンルを分類するための9カテゴリ(主要カテゴリ)を最上位としている. \section{汎用オントロジー構築手法} label{sec:syuhou}Wikipediaのカテゴリと記事の階層は日本語語彙大系のような1つに統一されたオントロジーのように見えるが,前節で述べたように,上位のカテゴリ階層や,カテゴリ間,カテゴリ‐記事間のリンク関係が定義されていないため,オントロジーとは言えない.そこで本手法ではWikipediaの上位のカテゴリ階層を削除して新たに定義した上位カテゴリ階層と置き換える.さらに,カテゴリ間,カテゴリ‐記事間のis-a関係でないリンク(not-is-a関係)を自動で切り離し,is-a関係でつながる階層へと整形する.削除した上位カテゴリ階層と置き換える上位階層として,図1のように``人'',``組織'',``施設'',``地名'',``地形'',``具体物'',``創作物'',``動植物'',``イベント''の9種類の意味属性をカテゴリとする深さ1の階層を定義した.この上位カテゴリ階層の下位層として,Wikipediaを整形した階層を接続する.\ref{sec:kanren_kenkyu}節で述べるように,従来の研究はis-a関係となっている2語の特徴を如何にして捉えるかに注力されてきた.これに対して我々は,is-a関係の特徴を捉えることよりも,補集合であるnot-is-a関係の特徴を捉えるほうがタスクとして容易であると考え,not-is-a関係の判別問題としてタスク設定することを提案する.両者は得られた集合の補集合を取ることで結果として同じタスクとなるが,これは両タスクの問題の困難性が同じであることを意味しない.本章では初めに,\ref{sec:link_survey}節でWikipediaのカテゴリ間,カテゴリ‐記事間のリンクがnot-is-a関係になる場合についての調査結果を述べる.次に\ref{sec:imizokusei_settei}節で,本手法で使用する上位カテゴリ階層を定義する.\ref{sec:isa_hantei_zokusei}節〜\ref{sec:pattern}節では,not-is-a関係であるリンクを網羅的に判定することで,is-a関係のリンクのみを残す手法を提案する.最後に\ref{sec:touitsu_onto}節で,新たに設定した上位カテゴリ階層と,整形したWikipediaのカテゴリ階層を接続して1つの階層に再構成する手法について述べる.\subsection{Wikipediaのリンクとis-a関係}\label{sec:link_survey}図\ref{fig:wiki_kaisou}のように,Wikipediaのカテゴリは主要カテゴリと呼ばれる9カテゴリを最上位としている.主要カテゴリは語彙大系の最上位カテゴリと異なり,is-a関係による分類を目的としたものではない.本手法では,Wikipediaの上位のカテゴリ階層を削除して,新たに定義する上位階層へ置き換える.上位のカテゴリは意味が抽象的な単語(例:社会,技術)となる傾向があるため,本手法では意味が抽象的な単語を削除することで上位階層の削除を行う.一方,下位の階層になるほど分類はより具体的になりis-a関係になりやすい傾向にある.しかし最下位階層でも,地名や人名,組織などの固有名詞がカテゴリ名になっている場合,「長岡市$\gets$長岡まつり」,「長岡市$\gets$北越銀行」のようにカテゴリと記事はis-a関係になりにくい傾向にある.以上を踏まえ,我々はWikipediaのカテゴリ間,カテゴリ‐記事間のリンクがis-a関係になりにくい場合を以下の3種類の規則にまとめた.\pagebreak\begin{itemize}\item[1.]親子が意味的に類似していない場合はnot-is-a関係とする\\(例)筆記用具$\gets$万年筆メーカー,植物$\gets$草木の神\\単語同士が深く関連していても,意味的に類似していない場合はis-a関係にならない.\item[2.]親が固有名詞の場合はnot-is-a関係とする\\(例)少年ジャンプ$\gets$ONEPIECE,新潟県$\gets$長岡市\\オントロジーは上位になるほど概念が抽象的になり共通概念が増えるが,反対に下位となるほど概念が個別化,具体化する.最も個別化した固有名詞はすべて最下位の概念に属し,基本的に下位に単語を持たない.\item[3.]子名の前方が親名と一致する場合はnot-is-a関係とする\\(例)火星$\gets$火星の衛星,缶$\gets$缶コーヒー\\日本語は修飾語が先行して被修飾語が後続する構造のみが許される言語であることから,ある二つの単語が前方一致する(かつ完全一致しない)場合,概ね一方は修飾語,他方は被修飾語として使用される.「火星」と「火星の衛星」の場合は,一方の概念は「火星」だが,他方は「火星」を修飾語として立てる被修飾語,すなわち「火星に何らかの意味関係がある別の概念」(この例の場合は「衛星」)である可能性が高くなる.このように親名の主辞が子名の主辞以外に存在するとき,子と親はis-a関係ではなくpart-of関係や話題が類似した関係にあることが多い.\end{itemize}\noindentWikipediaの上位階層の削除と,規則1の判定を行うために,幅広い分野に適用可能な9種類の意味属性(表\ref{tab:domain})にカテゴリ名または記事名を分類する.どの意味属性にも分類されない単語は抽象的な単語と判定し,削除する.また規則1は親子が同じ意味属性に分類されなければ意味的に類似していないと判定する.規則2は親名が固有名詞かどうかを判定すればよい.規則3は単純な文字列照合で判定可能である.\begin{table}[t]\caption{意味属性に対応する主な語彙大系のカテゴリと,分類される単語例}\label{tab:domain}\input{01table01.txt}\end{table}これらの方法で抽象的すぎる単語を削除,及びis-a関係でないリンクを判定したとき,どの程度is-a関係を判定できるのか人手で調査した.全カテゴリ間,全カテゴリ‐記事間のリンクから無作為抽出した各2,500件のサンプル調査の結果,9種類の意味属性でのis-a関係の精度は,カテゴリ間で適合率98.9\%,再現率99.3\%,カテゴリ‐記事間で適合率99.3\%,再現率98.9\%であった.適合率を下げる誤りは,親子が同じ意味属性かつ親名が普通名詞でもnot-is-a関係となる場合に発生する(例:血液←血球,千葉県の道路←千葉県の道の駅,日本の内閣総理大臣←内閣総理大臣夫人).再現率を下げる誤りは,親名が固有名詞でもis-a関係が成り立つ場合(例:中東欧←東欧,沖縄県営鉄道←沖縄県営鉄道糸満線)や,子名の前方が親名と一致してもis-a関係が成り立つ場合(例:日本人←日本人の学者,映画←映画作品)に発生する.しかし,全体から見ればこれらは少数の例外とみなせるため,結果として提案した方法でnot-is-a関係のリンクを切り離せば,is-a関係を高精度で判定できることを確認した.\subsection{上位カテゴリ階層の設定}\label{sec:imizokusei_settei}我々はWikipediaのカテゴリを調査し,独自にWikipediaの階層を下位層として網羅できるような,深さが1の上位カテゴリ階層を定義した.本手法では図1のように``人'',``組織'',\mbox{``施}設'',``地名'',``地形'',``具体物'',``創作物'',``動植物'',``イベント''の計9種類の意味属性を最上位カテゴリとして定義する.定義の際,以下の3点を考慮した.\begin{itemize}\item[1.]Wikipediaの記事名の集合を網羅するような上位語の集合であり,かつ,抽象的過ぎないこと.\item[2.]not-is-a関係の判定手法の1つ「1.親子が意味的に類似していない場合はnot-is-a関係とする」の「意味的に類似していない」を判定できる粒度であること.\item[3.]一般的な上位下位概念の粒度10前後の分類とほぼ対応がとれること.\end{itemize}\begin{table}[b]\caption{提案手法の意味属性と関根の拡張固有表現階層のカテゴリの対応表}\label{tab:teian_sekine}\input{01table02.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f5.eps}\end{center}\hfil\small\hboxto174pt{\hfil(a)カテゴリ\hfil}\hspace{56pt}\hboxto140pt{\hfil(b)記事\hfil}\hfil\caption{意味属性に分類されるWikipediaのカテゴリと記事の割合(各2,500件調査)}\label{fig:rate}\end{figure}\noindent基本的には関根の拡張固有表現階層\footnote{http://sites.google.com/site/extendednamedentityhierarchy/}の第一階層である10カテゴリを参考にしている.これらのカテゴリは語彙大系のカテゴリの第四階層とほぼ対応がとれる.ただし,機械学習による分類器が作れるほどのカテゴリと記事数がないもの(例:規則,スポーツ,賞)や,語彙大系に対応付けが難しいもの(例:行為,サービス)に関しては意味属性を設定しても分類精度が落ちるため,今回は対象外とした.表\ref{tab:domain}に意味属性に対応する語彙大系のカテゴリと,分類される単語の例を示す.また表\ref{tab:teian_sekine}に提案手法で設定した意味属性と関根の拡張固有表現階層のカテゴリとの対応表を示す.2,500件のサンプル調査の結果,Wikipediaのカテゴリでは全体の86.3\%,記事では90.4\%がいずれかの意味属性に分類された.各意味属性別の割合を図\ref{fig:rate}に示す.\subsection{意味属性分類による上位カテゴリ階層の削除とnot-is-a関係の判定}\label{sec:isa_hantei_zokusei}本節では,上位カテゴリ階層の削除,及び\ref{sec:link_survey}節の規則1「親子が意味的に類似していない場合はnot-is-a関係になる」を判定するために,カテゴリと記事を9種類の意味属性に分類する.どの意味属性にも分類されない単語は抽象的な単語と判定し,削除する.また親子が同じ意味属性に分類されなければ意味的に類似していないと判定する.本手法では,9種類の意味属性をまたがる複数ノードへの所属は許可していない.例えば「シンデレラ」はカテゴリ「グリム童話」であるが他方でカテゴリ「文学の登場人物」でもある.よって本来は意味属性「創作物」と「人」のどちらにも分類すべき単語である.しかし本提案手法においては(SVMの出力値より)「創作物」と判定され,作成されたオントロジー上では文学の登場人物の意味は失われる.ただ,我々の観察ではこのように複数ノードに所属されるべき事例は実際にはほとんどないことから,2単語が所属する意味属性が異なる場合はほとんどnot-is-a関係ということになり,この性質を利用して高精度に判別している.よって「シンデレラ」のような事例に対しては現状で対処できず,今後の検討課題としている.一方,同じ意味属性内においては複数ノードへの所属を許している.例えば,「イチロー」は「アメリカンリーグ首位打者」であり「シアトル・マリナーズの選手」でもあるため,意味属性はどちらも「人」となる.このような状況では「アメリカンリーグ首位打者」と「シアトル・マリナーズの選手」の両カテゴリの下位単語であることを許している.この結果,作成したオントロジーは木構造とはなっていない.\subsubsection{カテゴリ分類}\label{sec:category_bunrui_mondai}WikipediaのカテゴリをSVMによる分類器を用いて9種類の意味属性に分類する.本手法では,多値分類を行うためにone-vs-rest法を用いる.SVMの出力値が0以上かつ最も出力値の高い分類器にWikipediaのカテゴリを分類する.今回は,カテゴリを9種類の意味属性に分類するための9個の分類器に,「その他のカテゴリ名」を分類するための分類器を加えた計10個の分類器を作成した.提案手法では,機械学習による分類器の作成に「再分類法」を用いる.提案手法における再分類法とは,初めにあらかじめ用意した少数の学習データを用いて分類器を作成してカテゴリを分類した後,分類器の出力を学習データに加えて再び分類器を作成し,前ステップで未分類だったカテゴリを分類する手法である.本手法では,カテゴリを1件も分類できなくなるまで再分類を繰り返す.素性作成にはカテゴリ名や以下に定義する周辺の単語などを用いた.以下に使用した単語を示す\footnote{今後,カテゴリ名を取り扱う際には,末尾の特定の文字列を削除することで単語を整形する.特定の文字列とは,括弧書きや,``の一覧'',``のジャンル''などを指す.}.\begin{itemize}\item[a.]対象カテゴリ名\item[b.]親カテゴリ名\item[c.]子カテゴリ名\item[d.]カテゴリ中の記事の定義文からとれる上位語\item[e.]カテゴリと末尾の形態素が一致する記事の定義文からとれる上位語\end{itemize}\noindent「定義文からとれる上位語」とは,記事の定義文(第一文)からパターンマッチで抽出する見出し語の上位語となる単語である.パターンマッチの例を以下に示す\footnote{定義文からの上位語抽出パターンは,小林ら\citeyear{Kobayashi}と隅田ら\citeyear{Sumida}の手法をもとに作成したものを使用した.}....は,[上位語]の一種である.\par...は,[上位語]である.\par...[上位語].\noindent例えば,図\ref{fig:wiki_kaisou}の記事の定義文「爆発変光星(ばくはつへんこうせい)とは,変光星の一種.」からは,見出し語「爆発変光星」の上位語として「変光星」が抽出される.項目eは,例えばカテゴリ名が「イタリアの諸島」で,その下位に末尾の形態素が一致する記事「エオリア諸島」が存在した場合,この記事の定義文からとれる上位語「島々」を素性に使用する.記事名がカテゴリ名の末尾の形態素と一致する場合,カテゴリと記事は同じ意味属性である可能性が高い.よって,その記事の定義文からとれる上位語はカテゴリそのものの上位語を指すことが多く,カテゴリ名を抽象化できる.素性作成の際にはこれらの単語の形態素や品詞,JUMANにおけるカテゴリ名\footnote{JUMANの辞書は特定の普通名詞に``人'',``動物'',``植物'',``人工物'',``抽象物''などの意味カテゴリ22種を名詞の意味情報として付与してある.}を利用した.また,カテゴリ名の末尾の文字列と最長一致する語彙大系のインスタンスに付与された,語彙大系のカテゴリ名及び表\ref{tab:domain}で対応づけた意味属性名を素性にした.例えばWikipediaのカテゴリ名が「若手小説家」だった場合,末尾の文字列と最長一致する語彙大系のインスタンスは「小説家」である.よって,「小説家」に付与されている語彙大系のカテゴリ``作家・詩人''を素性にする.また,``作家・詩人''に付与されている意味属性``人''も素性にする\footnote{本論文では,ある単語の末尾の文字列と最長一致する語彙大系のインスタンスに付与された語彙大系のカテゴリ名及び意味属性名のことをそれぞれ「単語に文字列照合する語彙大系のカテゴリ」,「単語に文字列照合する意味属性名」と呼ぶ.}.このように「若手小説家」を,語彙大系カテゴリ``作家・詩人''や意味属性``人''に抽象化することで,高精度な分類が期待できる.a〜eの単語は普通名詞であることが多く,JUMANのカテゴリや語彙大系を利用しやすい.表\ref{tab:seiteki}に,学習に用いた素性と,図\ref{fig:kizi_seiteki_sosei_rei}において生成される素性を示す.各素性に対し頻度を求めた後,各素性ごとに最大値が1になるように正規化した値を素性ベクトルの値とする.例えば,表\ref{tab:seiteki}の6-dの素性例は,``人''が2件,``具体物''が1件なので,素性ベクトルは人:1,具体物:0.5となる.\begin{table}[p]\caption{カテゴリ分類のための基本素性}\label{tab:seiteki}\input{01table03.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{19-4ia1f6.eps}\end{center}\caption{カテゴリ分類のための基本素性の例}\label{fig:kizi_seiteki_sosei_rei}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f7.eps}\end{center}\caption{カテゴリ分類のための,既に意味属性が確定している周辺カテゴリを利用した素性}\label{fig:kizi_douteki_sosei_rei}\vspace{-0.5\baselineskip}\end{figure}本手法のカテゴリ分類では再現率の向上のため,直前のステップで得られた出力を学習データに加える再分類法を用いる.直前のステップまでに決定したカテゴリの意味属性をもとにした素性を設定することで,既に意味属性が決定したカテゴリの周辺カテゴリの意味属性を決定しやすくする.図\ref{fig:kizi_douteki_sosei_rei}の例は,対象カテゴリ「子供」の意味属性が未決で,その周辺の3つのカテゴリの意味属性は直前のステップまでに確定した状態である.対象カテゴリ「子供」と子カテゴリ「子役」は語彙大系のカテゴリ``少年・少女''に属するため,意味的に類似しているといえる.意味的に類似した「子役」の意味属性は``人''なので,「子供」の意味属性も``人''である可能性が高くなるように素性を設定する.表\ref{tab:douteki}に,既に意味属性が決定したカテゴリをもとに設計した素性と,図\ref{fig:kizi_douteki_sosei_rei}において生成される素性を示す.\begin{table}[t]\caption{カテゴリ分類のための,既に意味属性が確定している周辺カテゴリを利用した素性}\label{tab:douteki}\input{01table04.txt}\end{table}\subsubsection{記事分類}\label{sec:kizi_bunrui_mondai}カテゴリ分類の後,記事を9種類の意味属性に分類する.本手法では,SVMによる分類器を用いて記事分類をした後,どの分類器にも分類されなかった記事を,既に分類された記事情報をもとに分類する.記事のSVMによる分類器はカテゴリ分類器と同様,素性作成には記事名や以下に定義する周辺の単語,語彙大系を使用した\footnote{再分類法を用いたところ精度が低下したため,記事分類では用いていない.}.以下に記事分類のために使用する単語を示す.\begin{itemize}\item[a.]対象記事名\item[b.]記事の定義文からとれる上位語\item[c.]対象記事に付与されているカテゴリ名\item[d.]記事の定義文\end{itemize}\noindent本手法のSVMによる分類器での記事分類では,精度を向上させるためにカテゴリ名と記事名の類似性を判定し,記事名とカテゴリ名が似ていれば,そのカテゴリの意味属性が優位になるように素性を設計した.例えば,図\ref{fig:kizi_sosei2}では記事「ロータリー車」とカテゴリ「鉄道車両(具体物)」は後方の文字列が両者とも語彙大系のカテゴリ``乗り物(本体(移動(陸圏)))\inhibitglue''に文字列照合(両者は意味的に類似)するので,「ロータリー車」が「鉄道車両」と同じ具体物である可能性が高くなるように素性を設計した.記事分類のための素性を表\ref{tab:kizi_sosei1}と表\ref{tab:kizi_sosei2}に示す.表\ref{tab:kizi_sosei2}は,既に意味属性が確定しているカテゴリに着目して設定した素性である.表\ref{tab:kizi_sosei1},表\ref{tab:kizi_sosei2}にそれぞれに,図\ref{fig:kizi_sosei1},図\ref{fig:kizi_sosei2}を例にしたときの素性も合わせて示す.次に,SVMによる分類器で分類できなかった残りの記事を分類する.ここでは,is-a関係の記事を下位に持つことが多いカテゴリを判定し,そのカテゴリより下位にある意味属性が未確定な記事を,そのカテゴリと同じ意味属性に分類する.\begin{table}[t]\caption{記事分類のための素性1(カテゴリの分類結果に依存しない)}\label{tab:kizi_sosei1}\input{01table05.txt}\end{table}\begin{table}[t]\caption{記事分類のための素性2(カテゴリの分類結果に依存する)}\label{tab:kizi_sosei2}\input{01table06.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f8.eps}\end{center}\caption{記事分類の素性作成のための例1(カテゴリの分類結果に依存しない)}\label{fig:kizi_sosei1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f9.eps}\end{center}\caption{記事分類の素性作成のための例2(カテゴリの分類結果に依存する)}\label{fig:kizi_sosei2}\end{figure}Wikipediaには,is-a関係の記事を下位に持つことが多いカテゴリと,カテゴリと記事がis-a関係ではない何らかの関係になっていることが多いカテゴリがある.例えば,カテゴリ「日本の俳優」は「蒼井優」や「反町隆史」などカテゴリとis-a関係になる記事のみを持つが,カテゴリ「長岡市」は「蒼柴神社」や「長岡まつり」などis-a関係でない記事を多く持つ.このようなis-a関係の記事を下位に持つことが多いカテゴリを,以降「上位概念カテゴリ」と呼ぶ.小林ら\citeyear{Kobayashi2}は,is-a関係の記事\footnote{カテゴリとis-a関係にある記事を抽出するのに,小林ら\citeyear{Kobayashi}の手法を用いている.}の割合が閾値以上のカテゴリを上位概念カテゴリとみなし,上位概念カテゴリとその全ての下位記事をis-a関係として抽出している.本手法ではこの手法を参考にし,既に決定したカテゴリの意味属性と記事の意味属性が一致する割合を求め,この割合があらかじめ決めた閾値以上であれば,そのカテゴリを上位概念カテゴリとする.そして上位概念カテゴリとされたカテゴリに分類されている,意味属性が未確定の記事を,カテゴリと同じ意味属性に分類する.例えば図\ref{fig:mibunrui_kizi}のように,カテゴリ「カクテル(具体物)」に分類されている,意味属性が決定した記事のうち,4件が``具体物''で,1件が``人''だったとする.このとき,カテゴリと同じ意味属性である``具体物''の割合は80\%である.この割合が高いほど,カテゴリ「カクテル(具体物)」には具体物が分類されやすいといえる.よって,あらかじめ設定した閾値が80\%以下であれば意味属性が未確定の記事を``具体物''に分類する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f10.eps}\end{center}\caption{上位概念カテゴリ判定による未確定記事の意味属性分類例}\label{fig:mibunrui_kizi}\end{figure}1つの記事に対して付与する意味属性は1つなので,記事に意味属性の異なる上位概念カテゴリが複数付与された場合は,意味属性を選択しなければならない.本手法ではまず,上記の割合が高いほうの上位概念カテゴリと同じ意味属性を記事に付与する.もし割合が同じだった場合は,カテゴリを分類したときのSVMの出力値が最も高かった上位概念カテゴリの意味属性を付与する.\subsection{固有名詞抽出によるnot-is-a関係の判定}\label{sec:koyu_hantei}本節では,\ref{sec:imizokusei_settei}節の規則2「親が固有名詞の場合はnot-is-a関係になる」を解決するために,カテゴリ名(記事が親となることはない)から固有名詞を抽出する.固有名詞を抽出するために,MeCabと英語Wikipediaのカテゴリ名・記事名を用いた2種類の手法を提案する.\subsubsection{MeCabを用いた固有名詞抽出}親名がMeCabの辞書に固有名詞として辞書登録されていれば固有名詞と判定する.\subsubsection{英語Wikipediaのカテゴリ名・記事名を用いた固有名詞抽出}日本語Wikipediaのカテゴリは,英語Wikipediaの同じカテゴリにリンクしていることがある.例えば,日本語カテゴリ「音楽家」は英語カテゴリ「Musicians」にリンクしている.英語表記の固有名詞の頭文字のアルファベットは大文字表記であると述べたが,カテゴリ名の頭文字は原則すべて大文字で表されるため,この基準では判定できない.ここでは,各形態素の頭文字が全て大文字であれば固有名詞である,という基準を用いる(前置詞``at,of,the,on,and,in,to'',冒頭以外に冠詞``the''を含む単語を除いて,2形態素以上ある単語に限る).ただし,例外として意味属性が``動植物''と判定されたカテゴリは全て普通名詞とみなすことにした.なぜなら,``動植物''のカテゴリ名のほとんどがスミレ科(Violaceae),バラ亜綱(Rosidae)など普通名詞であるが,これらの英語表記は,初めの頭文字を大文字のアルファベットとするためである.また,意味属性が``人''と判定されたカテゴリにおいて,主辞\footnote{本手法では,基本的には連続する名詞の最後の形態素を主辞とし,``of,in,to,on,at''が含まれている場合はその直前を主辞とする.}が複数形だった場合も普通名詞として扱う.ヨーロッパ系アメリカ人(EuropeanAmerican\underline{s})やアメリカ合衆国上院議員(UnitedStatesSenator\underline{s})のように主辞が複数形であれば,それより下位にis-a関係の単語を持つからである.このような現象は特に``人''に多いので,``人''のみにこの規則を適用する.図~\ref{fig:koyu_enwiki_cate}に,英語Wikipediaのカテゴリ名を用いた固有名詞抽出のための決定木を示す.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f11.eps}\end{center}\caption{英語Wikipediaのカテゴリ名を用いた固有名詞抽出のための決定木}\label{fig:koyu_enwiki_cate}\end{figure}さらに多くのカテゴリ名を固有名詞として抽出するため,Wikipediaの記事も用いる.Wikipediaのカテゴリは通常本文を持たないが,カテゴリ名と同名の記事が分類されていることがある.その場合,カテゴリ名と記事名は同一のものを指すので,記事を解析することでカテゴリ名から固有名詞を抽出する.英語カテゴリ名と同様に,各形態素の頭文字が全て大文字であれば固有名詞である,という基準を用いる.さらに記事の本文に注目し,記事の本文中の文頭以外で記事名が使われているとき,その頭文字のアルファベットが大文字であれば固有名詞とする.図~\ref{fig:koyu_enwiki_kizi}に,英語Wikipediaの記事名を用いた固有名詞抽出のための決定木を示す.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f12.eps}\end{center}\caption{英語Wikipediaの記事を用いた固有名詞抽出のための決定木}\label{fig:koyu_enwiki_kizi}\end{figure}以上の2種類の手法において,いずれの出力も普通名詞でなく,いずれかの出力で固有名詞だったカテゴリ名を,固有名詞と判定する.そして,カテゴリ間,カテゴリ‐記事間において,親名が固有名詞の場合はnot-is-a関係と判定する.しかし「パリメトロ←パリメトロ2号線」や「どうぶつの森←おいでよどうぶつの森」のように,親名が固有名詞でもis-a関係が成り立つ場合がある.この場合,子カテゴリが親カテゴリの固有名詞をさらに細分化したis-a関係が成り立つ.そこで本手法では例外処理として,以下の2つの条件の場合,リンクをnot-is-a関係としないことにした.\begin{enumerate}\item「パリメトロ←パリメトロ2号線」,「ロックマン←ロックマンX」のように,子名の前方が親名と一致した時(パリメトロ,ロックマン),一致部分を削除した部分(2号線,X)が数字または記号を含む場合はnot-is-a関係としない.\item「どうぶつの森←おいでよどうぶつの森」,「オールナイトニッポン←ゆずのオールナイトニッポン」のように子名の後方が親名と一致した場合はnot-is-a関係としない.\end{enumerate}\subsection{文字列照合によるnot-is-a関係の判定}\label{sec:pattern}\ref{sec:link_survey}節の規則4で,「子名の前方が親名と一致する場合はnot-is-a関係とする」とした.「火星←火星の衛星」,「缶←缶コーヒー」のように子名の前方が親名と一致するかどうかは文字列照合で判定する.ただし,前節で述べたように,「パリメトロ←パリメトロ2号線」のように,子名の前方が親名と一致した時,一致部分を削除した部分(2号線)が数字または記号を含む場合は,子名の前方が親名と一致してもnot-is-a関係としないことにする.\begin{figure}[p]\begin{center}\includegraphics{19-4ia1f13.eps}\end{center}\caption{Wikipediaの階層からis-a関係のオントロジー階層を再構成する例}\label{fig:onto_saikousei}\end{figure}\subsection{オントロジー階層の再構成}\label{sec:touitsu_onto}\ref{sec:isa_hantei_zokusei}節〜\ref{sec:pattern}節の手法を用いて抽象的すぎるカテゴリを削除することでWikipediaの上位階層を削除する.また\ref{sec:isa_hantei_zokusei}節〜\ref{sec:pattern}節の手法のいずれかでnot-is-a関係と判定さたカテゴリ間,カテゴリ‐記事間のリンクを切り離す.この状態のWikipediaは1つの階層構造ではなく,複数の階層に分離している.これら複数の階層を\ref{sec:imizokusei_settei}節で定義した上位カテゴリ階層である9種類の意味属性の下位に接続する.その際,階層の中で親を持たないカテゴリ及び記事(以下,ルートカテゴリ,ルート記事)を,同じ意味属性の最上位カテゴリの下位に接続する.図\ref{fig:onto_saikousei}にWikipediaの階層から,is-a関係のオントロジー階層を再構成するまでの例を示す.Wikipediaのカテゴリ階層には循環がある.提案手法で抽出した部分的な階層が循環していた場合にどこでその循環を切るかという問題は容易には解決できないと考え,本研究では便宜的に下記処理を行った.すなわち,循環している階層を構成するカテゴリの内,最もID番号\footnote{Wikipediaの各カテゴリにはID番号が振られている.}の小さいカテゴリを指すis-a関係のリンクをnot-is-a関係とすることで,循環のないカテゴリ階層を構築した. \section{実験条件} \label{sec:zikken}\subsection{実験設定}2008年7月24日時点での日本語Wikipediaのダンプデータ\footnote{http://download.wikimedia.org/jawiki}を使用して評価実験を行った.カテゴリ数は40,385件,記事数は475,941件,カテゴリ間のリンク数は85,353件,カテゴリ‐記事間のリンク数は1,173,894件である\footnote{初めに,Wikipediaの内部向けのカテゴリや記事(例:``画像:'',``Help:''),オントロジーのカテゴリとして扱いにくいカテゴリ``1986年生''などを文字列照合で取り除いた.詳細は付録Cを参照.}.\subsubsection{カテゴリ分類}全カテゴリから無作為抽出した2,500件を,作業者1名が人手で9種類の意味属性(+その他)に分類したものを,評価データとした.他の作業者1名が同じデータに正解を付与した結果,一致率は98.4\%であった.精度評価は,評価データ2,500件の5分割交差検定で行った.また,評価データ以外のカテゴリは,評価データから無作為抽出した2,000件のカテゴリを学習データとした分類器により分類した.分類実験では,単語の形態素,品詞を抽出するために,形態素解析器JUMANVer.~6.0\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nlresource/juman.html}を使用した.また本手法ではJUMANの代表表記を用いて語彙大系のインスタンスを拡張して使用した.例えば「代表表記:癌/がん」とあった場合,語彙大系のインスタンス``癌''と同じカテゴリに``がん''を追加する.SVMにはTinySVM0.09\footnote{http://chasen.org/{\textasciitilde}taku/software/TinySVM/}を利用し,カーネルには線形カーネルを用いた.\subsubsection{記事分類}全記事から無作為抽出した2,500件を,作業者1名が人手で9種類の意味属性(+その他)に分類したものを,評価データとした.判定基準は,意味属性に付与した語彙大系の普通名詞を参考にした.他の作業者1名が同じデータに正解を付与した結果,一致率は98.9\%であった.学習データには,Wikipediaの記事に対して関根の拡張固有表現階層の分類を付与した渡邉らによるNAIST-jene\footnote{http://sites.google.com/site/masayua/p/naist-jene}のデータを用いた\footnote{本手法の意味属性と,関根の拡張固有表現階層の第一階層は異なる部分があるので,一部修正して使用した.}.NAIST-jeneのデータのうち,本実験で使用するWikipediaと記事名が一致し,かつ評価データに含まれない11,554件を学習データとした.学習データに対して意味属性を付与する際は,11,554件を5分割交差検定したときの出力を用いた.また,上位概念カテゴリを判定するための閾値の決定にもこの11,554件のデータを利用し,学習データにおいて最もF値の高くなる閾値を評価に用いた.\subsubsection{固有名詞抽出}全記事から無作為抽出した1,000件に対し,作業者1名が人手で固有名詞または普通名詞を付与したものを,評価データとした.MeCabによる固有名詞抽出では,MeCab0.98\footnote{http://sourceforge.net/projects/mecab/}でIPA辞書Ver.2.7.0を用い,英語の形態素の複数形を調べるためにApplePieParser5.9\footnote{http://nlp.nagaokaut.ac.jp/Apple\_Pie\_Parser}を用いた.英語Wikipediaは2011年1月15日時点のダンプデータ\footnote{http://download.wikimedia.org/enwiki}を用いた.\subsubsection{is-a関係の判定}全カテゴリ間,全カテゴリ‐記事間のリンクから無作為抽出した各2,500件に対し,作業者1名が人手でis-a関係か否かを判定したものを評価データとした.他の作業者1名が同じデータに正解を付与した結果,一致率はカテゴリ間で98.8\%,カテゴリ‐記事間で98.8\%であった.さらに,is-a関係が成り立つ単語対に対しては,意味属性を付与した.\subsection{比較手法}本実験では,記事分類,カテゴリ間のis-a関係判定,カテゴリ‐記事間のis-a関係判定において関連研究との比較を行う.カテゴリの意味属性分類,記事名の固有名詞抽出の関連研究は我々が知る限り存在しなかったため,関連研究との比較を行わない.本実験では関連研究を独自に実装した結果と比較を行う.\subsubsection{記事分類の比較手法}記事分類の比較手法には藤井ら\citeyear{Fujii}の手法を用いた.藤井らはWikipediaの記事を関根の拡張固有表現階層のカテゴリに分類する手法だが,本実験では本研究で設定した9種類の意味属性に分類し,提案手法との比較を行う.記事中の定義文に出現する形態素とページのカテゴリ情報を利用して学習を行い,one-vs-rest法で分類対象となるページの固有表現クラスを一意に決定する.ここでカテゴリ情報として,Wikipediaのカテゴリ階層構造の最上位のカテゴリである「主要カテゴリ」から対象記事までの最短パス上にあるカテゴリ名の末尾の形態素を素性として用いる.分類器の学習には本実験と同じTinySVM0.09を用い,学習データも本実験と同じものを用いた.\subsubsection{カテゴリ‐記事間のis-a関係判定の比較手法}カテゴリ‐記事間のis-a関係判定の比較手法には小林ら\citeyear{Kobayashi}の手法を用いた.彼らは語彙大系のカテゴリにis-a関係となるWikipediaのカテゴリを接続し,さらに,分類されている記事をインスタンスとする手法を提案している.語彙大系の下位に構築されたカテゴリ‐記事間のis-a関係のリンクと,提案手法で判定できたカテゴリ‐記事間のis-a関係のリンクを比較する.小林ら\citeyear{Kobayashi}の手法の概要を図\ref{fig:kobayashi}に示す.この図は,語彙大系のカテゴリ「星」にWikipediaのカテゴリと記事の対「変光星←爆発変光星」を接続した例である.初めに,語彙大系のカテゴリのインスタンスに,末尾の文字列が照合するWikipediaのカテゴリを,下位カテゴリ候補として対応づける(「星」と「変光星」が文字列照合する).次に,このカテゴリの下位の記事の定義文からとれる上位語が,接続先の語彙大系のカテゴリまたはそれより上位のカテゴリのインスタンスと文字列照合すれば,カテゴリ‐記事を語彙大系カテゴリの下位に接続する(記事「アメリカ変光星観測者協会」の上位語「国際非営利団体」は文字列照合しないが,上位語「爆発変光星」の「変光星」は文字列照合する).本実験では,語彙大系のカテゴリとWikipediaのカテゴリのリンクがis-a関係であるか否か(正しいか否か)に関係なく,語彙大系に接続したWikipediaのカテゴリと記事のリンクをis-a関係とみなし,提案手法と比較する.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f14.eps}\end{center}\caption{小林ら(2008)の手法の概要}\label{fig:kobayashi}\end{figure}\subsubsection{カテゴリ間のis-a関係判定の比較手法}カテゴリ間のis-a関係判定の比較手法には桜井ら\citeyear{Sakurai}の手法である「後方文字列照合」を用いた.「後方文字列照合」は,「空港←日本の空港」のように,子カテゴリ名の後方の文字列が親カテゴリ名であった場合,両者をis-a関係とする手法である.しかしこれでは再現率が低いので,本実験では「アジアの空港←日本の空港」のように,親カテゴリと子カテゴリの末尾の形態素が一致した場合に両者をis-a関係とみなす.末尾の形態素を得るために本実験と同じJUMANVer.~6.0を使用した. \section{実験結果} \label{sec:kekka}\subsection{カテゴリと記事の意味属性分類}本手法では初めに,カテゴリと記事を9種類の意味属性へ分類した.カテゴリ分類精度は適合率98.0\%,再現率98.1\%,記事分類精度は適合率96.5\%,再現率93.4\%であった.Wikipediaのカテゴリ全体の84.5\%(34,142件),記事全体の88.6\%(421,873件)が9種類の意味属性のいずれかへ分類された.カテゴリと記事分類の意味属性別と全体の精度,分類数,全体からみた分類数の割合を表\ref{tab:bunrui_accu}に示す.また,図\ref{fig:cate_bunrui},図\ref{fig:kizi_bunrui}に,意味属性別と全体の精度のグラフを示す.カテゴリ分類は記事分類より全体的に精度が高い.カテゴリ名は普通名詞が多いため,意味属性に対応づけた語彙大系のカテゴリ情報との一致を素性にすることで高い精度が得られたと考える.適合率は全ての意味属性で95\%以上で,特に``人'',``地形''で適合率が99\%以上と高かった.適合率を下げる誤りの約半数は,``その他''が付与されたカテゴリが,9種類の意味属性に分類されたことが原因だった.再現率に関しては``イベント''を除けば全て95\%以上である.特に``地名'',``地形'',``動植物''で再現率が100\%と高かった.``イベント''は種類が多様(表\ref{tab:domain})なため学習が難しく,再現率が他より低くなったと考える.\\\indent記事分類での適合率は,最も低い具体物で92.0\%,最も高い動植物で100\%であった.記事名は固有名詞が多くカテゴリに比べて精度が落ちるが,記事に付与されたカテゴリ名や記事の定義文からとれる上位語のような普通名詞を素性に使用したり,既に意味属性の確定しているカテゴリ情報を素性に用いたりすることで高精度な分類ができたと考える.``組織''と``具体物''は他より適合率が低い.他より適合率が低い``具体物''の誤りの多くは,``その他''が付与されたカテゴリが``具体物''に分類されてしまったことが主な原因であった.一方``組織''で適合率が低い主な原因は,``施設''が``組織''に分類されたことにある.``施設''と``組織''は区別が曖昧なことがあり,例えばカテゴリ「久慈ラジオ中継局」は本評価データでは``施設''を付与したが,分類器では``組織''に分類された.記事分類の再現率はカテゴリ分類の再現率より4.7ポイント低い.\begin{table}[t]\caption{カテゴリ,記事の意味属性分類精度(評価データ2,500件による)}\label{tab:bunrui_accu}\input{01table07.txt}\end{table}\begin{figure}[t]\begin{minipage}[t]{0.5\textwidth}\begin{center}\includegraphics{19-4ia1f15.eps}\end{center}\caption{カテゴリ分類の意味属性別と全体の精度}\label{fig:cate_bunrui}\end{minipage}\begin{minipage}[t]{0.5\columnwidth}\begin{center}\includegraphics{19-4ia1f16.eps}\end{center}\caption{記事分類の意味属性別と全体の精度}\label{fig:kizi_bunrui}\end{minipage}\end{figure}再現率が特に低い``動植物''と``イベント''の分類誤りを調査したところ,記事と同じ意味属性のカテゴリが1つも付与されていないことが多いことがわかった.例えば,記事「国際切手展(イベント)」に付与されたカテゴリは「切手(具体物)」「郵趣(その他)」なので,記事と同じ意味属性のカテゴリは付与されていない.評価データを調査したところ,``動植物''と``イベント''ではそれぞれ90.8\%,81.5\%の記事に同じ意味属性のカテゴリが付与されていたのに対し,再現率,適合率がともに高い``人''と``創作物''ではそれぞれ95.5\%,98.1\%と高かった.このことから,カテゴリの意味属性が記事の意味属性の決定に深く関わっているといえる.\subsection{固有名詞抽出}\label{sec:koyu_kekka}本手法の固有名詞抽出手法では「1.MeCabを用いた手法」「2.英語Wikipediaのカテゴリを用いた手法」「3.英語Wikipediaの記事を用いた手法」の3種類の手法によりis-a関係を判定した.3手法のいずれでも普通名詞でなく,いずれかで固有名詞と判定されたカテゴリを固有名詞とした結果,適合率95.2\%,再現率70.2\%であった.各手法と全ての手法を合わせた固有名詞抽出精度を表\ref{tab:koyu_accu}に示す.3手法を組み合わせることで,個々の精度より高精度で固有名詞抽出ができたといえる.しかし,日本語Wikipediaが英語Wikipediaにリンクしている件数が少ないことで再現率が低くなっている.全カテゴリ40,385件中,英語Wikipediaにリンクしているカテゴリ数と記事数はそれぞれ20,713件,10,136件\footnote{カテゴリと同名の記事は12,964件存在し,そのうちの10,136件が英語Wikipediaとリンクしている.}であった.英語Wikipediaにリンクが存在していることを前提条件とした場合,「2.英語Wikipediaのカテゴリを用いた手法」は再現率44.4\%(25/54),「3.英語Wikipediaの記事を用いた手法」は再現率83.6\%(102/122)であった.英語記事が存在さえすれば,高い再現率で固有名詞抽出が可能である.記事を用いた手法は,記事本文での記事名の表記を見ることで固有名詞を抽出するルールにより,本文を持たないカテゴリよりも再現率が高い.\begin{table}[b]\caption{カテゴリ名の固有名詞抽出精度(評価データ1,000件による)}\label{tab:koyu_accu}\input{01table08.txt}\end{table}本手法の固有名詞抽出において,普通名詞を固有名詞としてしまった誤りでとくに多かったのは,「IndependentAdministrativeInstitution(独立行政法人)」「JapanDefenseShip(自衛官)」のように,普通名詞にも関わらず英語表記の各形態素の頭文字が全て大文字のアルファベットだった場合である.また日本語Wikipediaと英語Wikipediaでカテゴリの意味が異なる場合に起きる固有名詞抽出誤りもあった.例えば日本語Wikipediaのカテゴリ「過去のジャニーズ所属者」は英語Wikipediaのカテゴリ「Johnny'sJr.」にリンクしているが,前者は普通名詞であり後者は固有名詞である.\subsection{is-a関係判定}\label{sec:isa_kekka}本手法では「1.意味属性分類」「2.固有名詞判定」「3.文字列照合」の3種類の手法によりis-a関係を判定した.3手法のいずれでもnot-is-a関係と判定されなかったカテゴリ間,カテゴリ‐記事間のリンクをis-a関係とした.その結果,Wikipediaの全てのカテゴリ間で適合率95.7\%,再現率81.9\%,is-a関係数50,396件,カテゴリ‐記事間で適合率96.6\%,再現率91.9\%,is-a関係数834,474件であった.カテゴリ‐記事間よりカテゴリ間のほうが再現率が低いのは,カテゴ\linebreakリ‐記事間のほうが9種類の意味属性以外のis-a関係が少ないことが原因である.サンプル調査の結果,全is-a関係のうち9種類の意味属性以外のis-a関係の割合は,カテゴリ間では15.9\%,カテゴリ‐記事間では4.7\%であった.結果として,カテゴリ‐記事間のほうが削除されるis-a関係が少なく,カテゴリ間よりも再現率が約10ポイント高くなった.9種類の意味属性に限定したis-a関係の精度は,カテゴリ間で適合率95.3\%,再現率96.6\%,カテゴリ‐記事間で適合率96.2\%,再現率95.6\%であった.本手法では9種類の意味属性以外のis-a関係は抽出対象としていないため,全体からみれば再現率は低い(カテゴリ間で81.9\%,カテゴリ‐記事間で91.9\%)が,9種類の意味属性に範囲を限定すれば再現率は高かった(カテゴリ間で96.6\%,カテゴリ‐記事間で95.6\%).is-a関係の意味属性別と全体の精度,is-a関係数を表\ref{tab:isa_accu}に,精度のグラフを図\ref{fig:cate_cate_isa_accu},図\ref{fig:cate_kizi_isa_accu}に示す.カテゴリ間のis-a関係の適合率は全ての意味属性で95\%以上,再現率は93\%以上と,どの意味属性でも比較的高い精度が得られた.カテゴリ‐記事間では,``イベント''以外で適合率と再現率が91\%以上だが,``イベント''は適合率,再現率が他と比べて大幅に低い.分類誤りを見たところ,イベントは「1.意味属性分類」の誤りが多いためにis-a関係の精度も低くなっていた.手法別の精度,各手法の有効性,誤り解析に関しての詳細は考察\ref{sec:isa_kousatsu}節で述べる.\subsection{構築したオントロジー}\label{sec:constructed_onto}本手法で構築したオントロジーの各種数値を表\ref{tab:wiki_ontology}に示す.ルートカテゴリ,ルート記事とは,最上位カテゴリ(9種類の意味属性)に直接リンクするカテゴリと記事を指す.言い換えると,Wikipedia上で上位にis-a関係の単語を持たないカテゴリと記事のことである.リーフカテゴリとは,Wikipedia上で下位にis-a関係のカテゴリを1つも持たないカテゴリを指す.今回作成したWikipediaのオントロジーのカテゴリ数は約34,000件,記事数(インスタンス数)は約422,000件である.語彙大系は普通名詞と固有名詞を合わせると,カテゴリ数約3,000件,インスタンス数約300,000件なので,本手法により大規模なオントロジーが構築できたといえる.特に,カテゴリ階層の規模は語彙大系の10倍以上である.\begin{table}[p]\caption{カテゴリ間,カテゴリ‐記事間のis-a関係精度(評価データ2,500件による)}\label{tab:isa_accu}\input{01table09.txt}\end{table}\begin{figure}[p]\begin{minipage}[t]{0.5\columnwidth}\begin{center}\includegraphics{19-4ia1f17.eps}\end{center}\caption{カテゴリ間のis-a関係判定精度}\label{fig:cate_cate_isa_accu}\end{minipage}\begin{minipage}[t]{0.5\columnwidth}\begin{center}\includegraphics{19-4ia1f18.eps}\end{center}\caption{カテゴリ‐記事間のis-a関係判定精度}\label{fig:cate_kizi_isa_accu}\end{minipage}\end{figure}\begin{table}[t]\caption{構築したオントロジーの各種数値}\label{tab:wiki_ontology}\input{01table10.txt}\end{table}ルートカテゴリ数とルート記事数はそれぞれ約2,000件,25,000件であった.本手法ではWikipediaのis-a関係のリンクをできるだけそのまま生かして1つに統一されたオントロジーを構築したが,それでも多量のルートカテゴリ,ルート記事が存在していた.表\ref{tab:wiki_ontology}を見ると,``地名'',``組織'',``イベント''で分類されたカテゴリ,記事から見た,ルートカテゴリ,ルート記事数の割合が高い.地名はpart-of関係のリンクが多く,組織は関連会社や統合前の社名などがリンクすることが多いからである.また``イベント''は,そのイベントが起こる時期や場所,関連する出来事にリンクされることが多いからである.``人'',``創作物''のルート記事数の割合は他に比べて低い.``人'',``創作物''は,1つの記事に多数のカテゴリが設定されていることが多いため,上位にis-a関係のカテゴリを持つことが多いことが要因だと思われる.``地形''はルートカテゴリ,ルート記事の割合が共に低い.これは,``地形''が他の意味属性に比べてWikipedia上でis-a関係によって体系化されやすいことを示している.リーフカテゴリの深さの平均は全カテゴリ中で6.9であった.ここで言う「深さ」とは,最上位カテゴリからリーフカテゴリまでの最長ルートのリンク数を表す.例えば図\ref{fig:image}のカテゴリ「洋菓子」の最長ルートは,「具体物←食品←菓子←ケーキ←洋菓子」で,深さ4である\footnote{最上位カテゴリの深さを0とする.}.全意味属性と各意味属性における,全リーフカテゴリ数からみた各深さでのリーフカテゴリ数の割合を図\ref{fig:depth}に示す\footnote{見やすくするためにグラフを3つにわけた.「全体」は9種類の意味属性における深さの割合であり,各グラフで全て同じ数値である.}.全体では深さ9のリーフカテゴリの割合が最も高く,20.9\%であった.意味属性別に見ると,最も割合の高い深さは意味属性によって異なる.最も割合の高い深さが5の動植物が最も浅く,深さ10の地形が最も深かった.動植物が最も浅いのは,他の意味属性と異なり,「アジアの地形」や「日本のスポーツ選手」のように,地域別の分類(深い階層になりやすい)があまり存在せず,「爬虫類」や「テングダケ科」など分類学に基づく分類体系であることが多いためである.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f19.eps}\end{center}\hangcaption{全意味属性と各意味属性における,全リーフカテゴリ数からみた各深さでのリーフカテゴリ数の割合}\label{fig:depth}\end{figure}最後に,抽出したis-a関係のカテゴリ階層の例と,カテゴリ‐記事間のis-a関係の例をそれぞれ表\ref{tab:cate_kaisou_rei},表\ref{tab:cate_ins_rei}に示す.日本語語彙大系とは全く異なるカテゴリ階層と記事(インスタンス)を獲得できたといえる.\begin{table}[p]\caption{正しく構築できたis-a関係のカテゴリ階層の例}\label{tab:cate_kaisou_rei}\input{01table11.txt}\end{table}\begin{table}[p]\caption{正しく獲得できたカテゴリ‐記事のis-a関係の例}\label{tab:cate_ins_rei}\input{01table12.txt}\end{table} \section{考察} \label{sec:kousatsu}\subsection{関連手法との比較}\subsubsection{記事分類の関連手法との精度比較}関連手法である藤井らの手法と精度,記事分類数を比較した結果を表\ref{tab:hikaku_Fujii}に示す.藤井らの手法より本手法のほうが適合率で4.9ポイント,再現率で11.0ポイント上回った.さらに,分類数も提案手法のほうが約32,000件多い.意味属性別と全体の精度の比較を図\ref{fig:Fujii_hikaku}に示す.図\ref{fig:Fujii_hikaku}より,全ての意味属性で適合率と再現率が藤井らの手法を上回っていることがわかる.``人''と``施設''では両手法ともに適合率が高く差がないが,それ以外の意味属性では提案手法のほうが5〜13ポイント高い.\begin{table}[t]\caption{記事の意味属性分類における藤井らの手法との精度比較}\label{tab:hikaku_Fujii}\input{01table13.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f20.eps}\end{center}\caption{記事分類における藤井らの手法と提案手法の精度比較}\label{fig:Fujii_hikaku}\end{figure}再現率の向上幅は適合率より大きく,組織,施設,具体物,創作物,イベントで,提案手法のほうが15〜20ポイント高くなっている.本手法の記事分類では,より有効な素性を設定できたといえる.藤井らが,記事に付与されたカテゴリから主要カテゴリまでの最短経路の全てのカテゴリ名を素性に用いているのに対し,本手法では,記事のごく周辺の単語のみを利用しているためノイズとなる素性が少ない.また提案手法では,カテゴリに付与された意味属性を用いたり,定義文からとれる上位語や語彙大系を用いて素性の単語を抽象化することで,高精度な分類ができたと考えられる.さらに提案手法ではis-a関係の記事を持ちやすいカテゴリ(上位概念カテゴリ)を判定することで高い再現率を得られたと考えられる.\subsubsection{is-a関係判定の関連手法との精度比較}カテゴリ間のis-a関係判定の比較手法には桜井ら\citeyear{Sakurai}の手法,カテゴリ‐記事間のis-a関係判定の比較手法には小林ら\citeyear{Kobayashi}の手法を用いた.結果を表\ref{tab:cate_cate_isa_acc},表\ref{tab:cate_kizi_isa_acc}に示す.提案手法のカテゴリ間のis-a関係の適合率は桜井らの手法より1.9ポイント低い.これは,桜井らの手法はis-a関係を判定するための強力な文字列照合を用いているためだと考えられる.リーフカテゴリの深さを比較すると,桜井らの手法で構築したカテゴリ階層のリーフカテゴリの深さの平均が2.7だったのに対し,提案手法のリーフカテゴリの深さの平均は6.2\footnote{桜井らの手法と比較するため,2件以上のWikipediaのカテゴリから構成されるカテゴリ階層のリーフカテゴリに限定している.また,ルートカテゴリ(親を1つも持たないカテゴリ)の深さを0としている.よって,\ref{sec:constructed_onto}節の結果と数値が異なる.}であった.提案手法のほうが深いカテゴリを階層を構築できているといえる.一方小林ら(2008)の手法と比較すると,is-a関係の適合率は3.6ポイント高い.小林ら(2008)の手法では,「たつの市←本竜野駅」「柳井市←柳井警察署」といった,親名が地名であるis-a関係誤りがほとんどである.語彙大系において,``市''と``駅'',``警察署''は同じカテゴリ``公共機関''に属するため,小林ら(2008)の手法ではこれらをis-a関係と判定してしまい,適合率が低くなっていた.提案手法では「親名が固有名詞ならnot-is-a関係とする」という規則により,これらを正しく判定できている.再現率は,どちらの関連手法よりも,提案手法のほうが24ポイント以上高い.\begin{table}[t]\caption{カテゴリ間のis-a関係判定精度の比較}\label{tab:cate_cate_isa_acc}\input{01table14.txt}\end{table}\begin{table}[t]\caption{カテゴリ‐記事間のis-a関係判定精度の比較}\label{tab:cate_kizi_isa_acc}\input{01table15.txt}\end{table}次に,提案手法と比較手法で抽出できたis-a関係のリンクを持つ単語対を比較する.評価データのうち,桜井らの手法のみで正しく抽出できたis-a関係は178件$(178/1802=9.9\%)$,提案手法のみで正しく抽出できたis-a関係は613件$(613/1802=34.0\%)$であった.提案手法のみで抽出できるis-a関係数のほうが桜井らの手法のみで抽出できるis-a関係数より圧倒的に多いといえる.桜井らの手法のみ,提案手法のみで正しく抽出できたカテゴリ間のis-a関係の例を表\ref{tab:sakurai_isa_rei}に示す.桜井らの手法では,文化,歴史,教育,政治など,提案手法で「抽象的すぎる単語はis-a関係になりにくい」として除外した分野でis-a関係を抽出できている.また桜井らの手法は,提案手法では分類器をつくれるほどのカテゴリ,記事数がなくて対象外とした,スポーツや賞,法律でもis-a関係を抽出できている.一方提案手法は,カテゴリ間の文字列に関係なくis-a関係を抽出できているため,桜井らの手法よりも多くのis-a関係のカテゴリ対を抽出することができた.\begin{table}[t]\caption{桜井らの手法と本手法により抽出できるカテゴリ間のis-a関係の例}\label{tab:sakurai_isa_rei}\input{01table16.txt}\end{table}評価データのうち,小林ら(2008)の手法のみで正しく抽出できたis-a関係は61件$(61/1865=3.3\%)$,提案手法のみで正しく抽出できたis-a関係は506件$(506/1865=27.1\%)$であった.提案手法のみで抽出できるis-a関係数のほうが小林ら(2008)の手法のみで抽出できるis-a関係数より圧倒的に多いといえる.小林ら(2008)の手法のみ,提案手法のみで抽出できるカテゴリ間のis-a関係の例を表\ref{tab:kobayashi_isa_rei}に示す.桜井らの手法と同様,本手法で対象外とした分野でis-a関係を抽出できている.小林ら(2008)の手法では,カテゴリ名や,記事の定義文からとれる上位語が語彙大系のインスタンスと文字列照合しないと,is-a関係を抽出することができない.しかし提案手法では,機械学習による分類器を用いることで,アウトレットモールやベーシスト,アプリのように語彙大系に存在しない単語から成るis-a関係でも抽出可能である.以上によりis-a関係でないリンクを判定することで,より高い再現率でis-a関係を抽出する提案手法の有効性が示された.\begin{table}[t]\caption{小林ら(2008)の手法と本手法により抽出できるカテゴリ‐記事間のis-a関係の例}\label{tab:kobayashi_isa_rei}\input{01table17.txt}\end{table}\begin{table}[t]\hangcaption{カテゴリ分類における,素性に用いる5種類の単語を組み合わせたときと,各単語を除いたときの精度比較(評価データ2,500件の5分割交差検定による)}\label{tab:cate_sosei_bunseki}\input{01table18.txt}\end{table}\subsection{カテゴリと記事の意味属性分類に関する考察}\subsubsection{カテゴリ分類器の素性について}本手法ではカテゴリ分類の際,Wikipediaから抽出できる5種類の単語(対象カテゴリ名,親カテゴリ名,子カテゴリ名,カテゴリ中の記事の定義文からとれる上位語,カテゴリと末尾の形態素が一致する記事の定義文からとれる上位語)を素性に用いている.各単語が分類器の精度にどの程度影響を与えるかを比較するため,各単語を用いなかった場合と全ての単語を用いた場合のSVM分類器の精度(再分類を適用前)を表\ref{tab:cate_sosei_bunseki}に示す.表\ref{tab:cate_sosei_bunseki}より,全ての単語を用いたほうが各単語を除いた場合より精度が高いことから,各単語はSVM分類器の素性において有効であるといえる.その中でも特に親カテゴリを除いたときに精度が最も下がることから,親カテゴリが最も精度向上に貢献していることがわかる.\subsubsection{カテゴリ分類において再分類法を用いる効果}本手法でのカテゴリ分類では,再分類法により再現率の向上を図った.再分類前と後の精度の違いを表\ref{tab:cate_boot_accu}に,再分類試行回数ごとの精度と未抽出カテゴリ数の変化を図\ref{fig:cate_boot}に示す.表\ref{tab:cate_boot_accu},図\ref{fig:cate_boot}より,適合率をあまり下げることなく($-0.3$ポイント),再現率を大幅に向上させることができ(+2.7ポイント),再分類法が有効であることが示された.最初の分類器の学習データはあらかじめ人手で正解を付与した適合率100\%の2,000件のデータであるが,次のステップ(1回目の再分類)では学習データは38,262件(適合率98.3\%)となる.学習データの適合率が1.7ポイント低下しているが,学習データ量は約19倍になっている.結果として,未分類のカテゴリを分類可能となり,再現率が大幅に向上しF値が向上した.\begin{table}[t]\caption{カテゴリ分類における,再分類法を適用する前と後の精度比較}\label{tab:cate_boot_accu}\input{01table19.txt}\end{table}\begin{figure}[t]\setlength{\captionwidth}{191pt}\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f21.eps}\end{center}\hangcaption{カテゴリ分類における再分類回数ごとの精度と未抽出カテゴリ数の変化}\label{fig:cate_boot}\end{minipage}\hfill\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f22.eps}\end{center}\hangcaption{カテゴリ分類における再分類法適用前と適用後の精度比較}\label{fig:cate_boot_pre}\end{minipage}\end{figure}再分類前と後での,意味属性別と全体の精度の変化を表したグラフを図\ref{fig:cate_boot_pre}に示す.図\ref{fig:cate_boot_pre}より,全ての意味属性で,適合率をほとんど下げることなく,再現率を大幅に向上できていることが示された.特にイベント名での再現率は約10ポイントも向上している.イベント名は,表~\ref{tab:domain}でも示したように分類する単語の種類が多様なため,学習データを増やしていく再分類法が有効に働いたと考えられる.\subsubsection{記事分類器の素性について}本手法での記事分類では,カテゴリを機械学習による分類器で分類した後に,そのカテゴリがどの意味属性に分類されたかの情報を用いる素性を利用している.そこで,カテゴリが分類された意味属性の情報を用いる場合と用いない場合での分類記事数の比較(上位概念カテゴリ適用前)を表\ref{tab:kizi_sosei_bunseki}に示す.表\ref{tab:kizi_joigainen_accu}より,カテゴリの分類結果に依存する素性を用いると,用いない場合と比べて適合率は1.0ポイント,再現率は2.6ポイント向上した.カテゴリの分類結果を用いることで,より精度高く記事を分類できたことがわかる.\begin{table}[t]\caption{カテゴリの分類結果に依存する記事分類の素性の効果}\label{tab:kizi_sosei_bunseki}\input{01table20.txt}\end{table}\begin{table}[t]\caption{上位概念カテゴリによる記事分類前と後の精度と分類数}\label{tab:kizi_joigainen_accu}\input{01table21.txt}\end{table}\subsubsection{記事分類において上位概念カテゴリを用いる効果}本手法での記事分類では,記事を機械学習による分類器で分類した後に,「上位概念カテゴリ」を用いることで未分類の記事を分類する手法を提案した.上位概念カテゴリ適用前と後の精度と分類記事数の比較を表\ref{tab:kizi_joigainen_accu}に示す.表\ref{tab:kizi_joigainen_accu}より,上位概念カテゴリを適用させると適合率は0.3ポイント下がるが再現率は1.3ポイント向上し,F値が0.5ポイント向上した.これにより新たに6,359件の記事を分類することができた.図\ref{fig:joigainen_cate}に意味属性別と全体の精度を比較したグラフを示す.特に``組織'',``具体物'',``創作物'',``イベント''で再現率が向上している.特に``イベント''は適合率を下げることなく再現率が8.7ポイント向上した.``イベント''は多様な単語が分類されるため機械学習による分類器での分類が難しいが,上位概念カテゴリを用いることで多くの記事を分類できた.本手法では既に決定したカテゴリの意味属性と記事の意味属性が一致する割合を求め,この割合があらかじめ決めた閾値以上であれば,そのカテゴリを上位概念カテゴリとした.閾値100\%で上位概念カテゴリとした場合は,適合率96.6\%,再現率93.0\%となり,適用する前より適合率が0.2ポイント下がり再現率が0.9ポイント上がった.一方,閾値0\%で上位概念カテゴリとした場合は,適合率95.0\%,再現率94.4\%となり,適用する前より適合率が1.8ポイント下がり再現率が2.3ポイント上がった.なお閾値0\%では,意味属性が付与されているカテゴリの全ての記事が,カテゴリと同じ意味属性に分類された状態である.評価データ2,500件において,閾値を変化させたときの適合率と再現率の関係を図\ref{fig:kizi_bunrui_pr}に示す.図\ref{fig:kizi_bunrui_pr}をみると,再現率が93\%〜93.5\%(閾値100\%〜80\%)の間は適合率がほぼ変わらず,再現率が93.5\%を超えると再現率に比例して適合率が低下している.これは,カテゴリ名と意味属性の異なる記事(ノイズ)が多少含まれていても(20\%以下),そのカテゴリの上位概念カテゴリらしさは,全くノイズがないときとあまり変わらないことを示している.\begin{figure}[t]\setlength{\captionwidth}{191pt}\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f23.eps}\end{center}\hangcaption{上位概念カテゴリによる記事分類前と後の精度比較}\label{fig:joigainen_cate}\end{minipage}\hfill\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f24.eps}\end{center}\hangcaption{上位概念カテゴリ判定の際の閾値による適合率と再現率の関係}\label{fig:kizi_bunrui_pr}\vspace{0.5zw}{\footnotesize\noindent\hangafter=1\hangindent=1zw※上位概念カテゴリを適用する前に分類した記事も精度に含む.\par\noindent\hangafter=1\hangindent=1zw※学習データでなく評価データ2,500件による精度である.\par}\end{minipage}\vspace{-0.5zw}\end{figure}\subsection{not-is-a関係判定手法に関する考察}\label{sec:isa_kousatsu}本手法では3種類の手法を用いてカテゴリ間,カテゴリ‐記事間のnot-is-a関係を判定することでis-a関係のリンクを判定している.本節では手法別の精度,各手法の有効性,誤り解析に関して述べる.各手法と全ての手法を組み合わせたis-a関係判定精度を表\ref{tab:isa_accu_syuhou_betsu}に示す.表\ref{tab:isa_accu_syuhou_betsu}より,3手法において,全てをis-a関係とみなしたときよりF値が高いことから,個々の手法はis-a関係判定において有効であるといえる.また,全ての手法を組み合わせることで,個々の適合率より高い適合率でis-a関係が判定できていることがわかる.\begin{table}[t]\caption{カテゴリ間,カテゴリ‐記事間のis-a関係精度(評価データ2,500件による)}\label{tab:isa_accu_syuhou_betsu}\input{01table22.txt}\end{table}\begin{table}[t]\hangcaption{カテゴリ間,カテゴリ‐記事間のis-a関係判定における,全ての手法を組み合わせたときと,各手法を除いたときの精度比較(評価データ2,500件による)}\label{tab:isa_yukousei}\input{01table23.txt}\end{table}個々の手法を見れば,3手法ともis-a関係を判定するために有効だが,3手法を組み合わせるにあたり,貢献度の高い手法と低い手法があると考えた.例えば手法2で判定できるis-a関係のほとんどを手法1で判定できれば,手法2の貢献度は低いといえる.そこで表\ref{tab:isa_yukousei}において,全ての手法を組み合わせた時と,各手法を除いたときの精度を比較した.こうすることで,除いた手法が全ての手法を組み合わせた時の精度に与える影響がわかる.例えば表\ref{tab:isa_yukousei}の上表では,カテゴリ間において,「1.意味属性分類による手法」を適用すると,適用しなかった場合より適合率が14.1ポイント上がり,再現率が17.1ポイント下がり,F値が1.3ポイント下がることを示している.この場合F値は減少したが適合率を14.1ポイント上げているため,手法1は適合率において貢献度が高い手法である.「2.固有名詞抽出による手法」を適用した場合は,手法1ほど適合率は上がらない(+2.3ポイント)が再現率の減少が少なく($-0.2$ポイント),F値が0.8ポイント向上するため,有効な手法といえる.「3.文字列照合による手法」を適用した場合は,適合率が0.5ポイント上がるが再現率が0.3ポイント下がり,F値には変化がなかった.手法3は精度の変化が小さく,他の2手法と重複しないnot-is-a関係をほとんど判定できないといえる.しかし,再現率より適合率を重視する場合は有効である.カテゴリ‐記事間における全ての手法を組み合わせた時と,各手法を除いたときの精度比較を表\ref{tab:isa_yukousei}の下表に示す.カテゴリ‐記事間で「1.意味属性分類による手法」を適用した場合は,カテゴリ間と同程度適合率が向上するが,再現率の減少が7.2ポイントと少ないためF値が向上する\footnote{再現率の減少が少ない理由は結果\ref{sec:isa_kekka}節で述べた.}.「2.固有名詞抽出による手法」を適用した場合は,カテゴリ間と同様で,手法1ほど適合率は上がらない(+1.9ポイント)が再現率の減少が少なく($-0.9$ポイント),F値が0.4ポイント向上するため,有効な手法である.「3.文字列照合による手法」を適用した場合は,2,500件の評価データにおいて,他の2手法と重複しないnot-is-a関係が1件も存在しなかった.カテゴリ‐記事間において,「3.文字列照合による手法」のみで判定できるis-a関係は非常に少ないといえる.この結果は,Wikipediaにおいて,普通名詞かつ意味的に近い単語対はもとからあまりリンクしないことを示しているといえる.\begin{table}[b]\caption{正しくnot-is-a関係と判定されたカテゴリ間,カテゴリ‐記事間}\label{tab:correct_isa_rei}\input{01table24.txt}\vspace{-1\Cvs}\end{table}各手法のみで抽出できたカテゴリ間,カテゴリ‐記事間のnot-is-a関係のリンクの例を表\ref{tab:correct_isa_rei}に示す.表\ref{tab:correct_isa_rei}で示すように,手法1では様々な種類の単語対をnot-is-a関係とみなせているため,最も適合率に貢献できている.しかし手法1では,意味的に近い単語対がnot-is-a関係になる場合は判定できないため,手法2,3が必要となってくる.手法2では,地名,創作物名,組織名など固有名詞のカテゴリ名が多い意味属性で貢献度が高かった.特に多かったのは,県名←市名のようなpart-of関係,雑誌名と掲載漫画名の関係,企業名とその関連企業名の関係である.手法3のみで判定できるnot-is-a関係は少ないが,普通名詞で意味的に近い単語対のnot-is-a関係の判定の際に有効である.一方,本手法によるnot-is-a関係の判定誤りを見たところ,誤りの主な原因は以下の3種類であった.\begin{itemize}\item[1.]意味属性分類を誤った場合\item[2.]固有名詞抽出を誤った場合\item[3.]3種類のis-a関係判定手法の精度が100\%でも判定できないis-a関係の場合\end{itemize}\noindent各誤り原因による,適合率を下げる誤り例と再現率を下げる誤り例を表\ref{tab:era-_isa_rei1},表\ref{tab:era-_isa_rei2}に示す.本手法では,「日本の内閣総理大臣(人)←内閣総理大臣夫人(人)」のように,親名が普通名詞で親子が意味的に近く,is-a関係判定手法「3.文字列照合による手法」が適用できなかった場合に,not-is-a関係をis-a関係としてしまう(表\ref{tab:era-_isa_rei1}の3つ目の表).また,「チュニジアの世界遺産(具体物)←イシュケル湖(地形)」のように,親子の意味属性が違うis-a関係をnot-is-a関係としてしまう(表\ref{tab:era-_isa_rei2}の3つめの表).しかし我々は後者の誤りは問題ないと考える.なぜなら,もし「チュニジアの世界遺産(具体物)←イシュケル湖(地形)」をis-a関係とみなしてしてしまった場合,「イシュケル湖」を上位に辿ったときに最上位カテゴリ``具体物''につながってしまうからである.オントロジーにおけるis-a関係は,先祖‐子孫でも成り立たなければならないので,ここでは両者をnot-is-a関係と判定してしまったほうが結果として適切となる.\begin{table}[t]\caption{is-a関係判定における,適合率を下げる誤りの例}\label{tab:era-_isa_rei1}\input{01table25.txt}\end{table}\begin{table}[t]\caption{is-a関係判定における,再現率を下げる誤りの例}\label{tab:era-_isa_rei2}\input{01table26.txt}\end{table} \section{関連研究} \label{sec:kanren_kenkyu}\subsection{Wikipediaからis-a関係を抽出する研究}PonzettoandStrube\citeyear{Ponzetto}は,英語Wikipediaのカテゴリ間のリンクからis-a関係とnot-is-a関係を抽出する手法を提案している.桜井ら\citeyear{Sakurai}は,PonzettoandStrubeの手法の一部を利用した手法に独自の手法を加え,日本語Wikipediaに対し,カテゴリ階層からis-a関係のオントロジーを抽出する手法を提案している.玉川ら\citeyear{Tamagawa}は桜井らの手法に加え,カテゴリ名とInfoboxテンプレートを文字列照合する手法によりさらに多くのカテゴリ間のis-a関係を抽出している.また,記事中から「分類」や「種類」といった語を含む節見出しと箇条書きの対をis-a関係として抽出している.これらの手法はis-a関係のリンクの抽出に文字列照合を用いるため,適合率は高いが再現率が低い.一方提案手法では,意味属性分類や固有名詞抽出などを用いてnot-is-a関係を判定することにより,文字列照合では抽出できないis-a関係を抽出できた.次に隅田らの研究\cite{Sumida}及びその成果が利用されている鳥式改\cite{Torisawa}と比較を行う.隅田らは,Wikipediaの記事中の箇条書き構造を利用してis-a関係の単語対を獲得する研究を行った.彼らは初めに,節見出しとその下位の節見出し,節見出しとその下位の箇条書きをis-a関係の単語対の候補とし,SVMによる分類器でフィルタリングを行ってis-a関係の単語対を獲得している.これを2007年3月の日本語Wikipediaに適用した結果,135万対の上位下位語対を精度90\%で獲得できたとしている.これに対し本手法では,(隅田らが抽出対象としたWikipediaの記事構造ではなく)Wikipediaのカテゴリ階層から抽出を行い,カテゴリ間においては95.3\%の精度(再現率96.6\%)で3.4万件,カテゴリ‐記事で精度96.2\%(再現率95.6\%)で42万件をオントロジー化することに成功した.両手法は抽出対象が異なるため直接の比較はできないが,隅田らが論文で報告している\footnote{隅田らの論文の図5より,精度を90\%以上にすると再現率は65\%以下になる.また再現率を90\%以上にした場合の精度は70\%以下になる.}ように隅田らの手法で精度,再現率を共に95\%以上にするのは不可能であり,Wikipediaからの上位下位関係抽出性能としては我々の提案手法に優位性がある.さらに,隅田らの手法で獲得した上位下位関係は局所的であり,これを階層化することでオントロジー化する(もしくは既存のオントロジーに連結する)ためには多くの手作業によるクリーニングを要する\cite{Kuroda}だけでなく,場合によって上位下位関係を詳細化する\footnote{例えば「作品←七人の侍」という上位下位関係に対して「作品←映画←七人の侍」のように中間概念を設定することを詳細化と呼んでいる.}必要がある\cite{Yamada}.一方,本手法では最初から階層化されたオントロジー構築を目指し,そのための手法を高精度で実現する手法を提案した.以上の比較から,本提案手法は隅田らの手法に対して一定の有用性を持つと考える.\subsection{既存のオントロジーのカテゴリにWikipediaのカテゴリを結合する研究}Suchaneketal.\cite{Suchanek}はYAGOにおいて英語Wikipediaのカテゴリを英語WordNetのクラス(synset)の下位クラスとして統合することにより,高精度なオントロジー構築を試みている.YAGOは英語WordNetに英語Wikipediaを統合する手法だが,カテゴリ名が複数形であれば概念を表すカテゴリになりやすい,というような英語依存の手法を利用しているためそのままでは日本語Wikipediaに適用できない.そのため小林ら\citeyear{Kobayashi}は,YAGOとは異なる手法で,日本語語彙大系とWikipediaを統合する手法を提案している.彼らは語彙大系の意味属性に対してWikipediaのカテゴリ名と,そのカテゴリの下位記事の定義文からとれる上位語が語彙大系のインスタンスに文字列照合した場合,カテゴリ‐記事の対を語彙大系の1つ下位に接続している.小林ら\citeyear{Kobayashi2}は,is-a関係の記事\footnote{カテゴリとis-a関係にある記事を抽出するのに,小林ら\citeyear{Kobayashi}の手法を用いている.}の割合が閾値以上のカテゴリを上位概念カテゴリとみなし,上位概念カテゴリと全ての下位記事をis-a関係として抽出している.これらの手法では,Wikipediaのカテゴリ階層の情報が失われてしまう.そこで我々は,小林ら\citeyear{Kobayashi}の手法と桜井ら\citeyear{Sakurai}の手法を組み合わせ,語彙大系の下位にWikipediaから抽出した部分的な階層構造を接続した\cite{Shibaki}.この手法は,Wikipediaのカテゴリ階層の情報をオントロジーに組み込めている点で上記の2手法と異なる.しかし上位階層に既存のオントロジーを用いているため,Wikipediaの上位のカテゴリ階層がオントロジーに組み込めないという問題がある.またこれらのように既存のオントロジーにWikipediaを接続する手法では,is-a関係のリンクの抽出や既存のオントロジーの接続に文字列照合を用いるため,適合率は高いが再現率が低い.本手法では最上位カテゴリ(意味属性)を独自に設定し,機械学習による分類器でカテゴリと記事を意味属性に分類することで,既存のオントロジーのインスタンスに文字列照合しないWikipediaのカテゴリと記事もオントロジーに組み込めた.\\\subsection{既存のオントロジーのカテゴリにWikipediaの記事を分類する研究}Wikipedia中の単語を関根らの拡張固有表現階層のカテゴリに分類する研究に,渡邉ら\citeyear{Watanabe},杉原ら\citeyear{Sugihara},藤井ら\citeyear{Fujii}の研究がある.渡邉らは,CRFを用いて,Wikipediaの記事中の箇条書き構造になっている単語を関根の拡張固有表現階層のカテゴリに分類している.杉原ら\citeyear{Sugihara}は,Wikipediaの記事の見出し語を関根の拡張固有表現階層のカテゴリに分類する手法を提案している.記事のカテゴリ情報を利用して学習を行い,one-vs-rest法で記事の固有表現クラスを一意に決定する.ここでカテゴリ情報として,Wikipediaのカテゴリ階層構造の最上位のカテゴリである「主要カテゴリ」ページから対象ページまでの最短パス上にあるカテゴリ名を素性として用いている.藤井らは,固有名詞表現抽出のための素性作成を目的とし,杉原らと同じ手法でWikipediaの記事の見出し語を関根の拡張固有表現階層のカテゴリに分類している.ただし,杉原らの設定した素性に加え,記事の第一文の形態素も用いている.これらの手法と提案手法における記事の意味属性分類を比較した結果,提案手法のほうが高精度な記事分類ができることがわかった.提案手法では,記事に付与されたカテゴリの意味属性を素性に用いたり,定義文からとれる上位語や語彙大系を用いて素性の単語を抽象化したり,is-a関係の記事を持ちやすいカテゴリ(上位概念カテゴリ)を判定したりすることで,高い適合率と再現率が実現できたためだと考えられる.\subsection{Wikipediaからオントロジーを構築するその他の研究}Bizeretal.\citeyear{Bizer}はWikipediaの記事中にあるInfobox,カテゴリなどの半構造化された情報からRDFトリプルを抽出し,DBpediaとして公開している.DBpediaは他のオントロジーであるYAGOなどと関連づけられている.桜井ら\citeyear{Sakurai}や玉川ら\citeyear{Tamagawa}もInfoboxを用いてInfoboxトリプル(インスタンス‐プロパティ‐プロパティの値)を抽出する研究を行っている.中山ら\citeyear{Nakayama}は,Wikipedia中の記事間のリンク構造を解析することで単語の意味関係を抽出する手法を提案している.中山らは記事間のリンク数や間接的にリンクしている場合のリンクの距離などを用いて記事から重要文を抽出し,重要文を構文解析することで単語対とその意味関係を抽出している.提案手法では,これらの関連研究で用いたInfoboxや記事間のリンク関係は利用せず,カテゴリ間やカテゴリ‐記事間のリンクのみを利用してオントロジーを構築した.しかしこれらの知識を用いることでオントロジーを拡張したり精度を向上させたりできる可能性がある. \section{結論} \label{sec:ketsuron}本研究では,Wikipediaのカテゴリ階層と記事を利用し,``人'',``組織'',``施設'',``地名'',\mbox{``地}形'',``具体物'',``創作物'',``動植物'',``イベント''の9種類の意味属性を最上位カテゴリとした,1つに統一されたis-a関係のオントロジーを構築した.我々はカテゴリ間とカテゴリ‐記事間のis-a関係を高再現率で判定することを目的とした場合,is-a関係を判定するよりnot-is-a関係を判定するほうが容易であると考えた.そこで本手法ではカテゴリ間とカテゴリ‐記事間のnot-is-a関係のリンクを高い精度で削除し,残ったリンクをis-a関係とみなすことで,多くのカテゴリと記事を組み込んだいくつかの階層を生成した.リンクのnot-is-a関係を判定するために,以下の3つの判定手法を用いた.\begin{itemize}\item[1.]意味属性分類による判定\item[2.]固有名詞抽出による判定\item[3.]文字列照合による判定\end{itemize}\noindent3手法のいずれかでnot-is-a関係と判定されなかったカテゴリ間,カテゴリ‐記事間のリンクをis-a関係とした.is-a関係のリンクでつながるカテゴリと記事の階層を1つの階層と考えると,同じ意味属性のカテゴリと記事からなる部分的な階層が複数できることになる.新たに定義した9種類の意味属性からなる深さ1の上位階層の下位に接続することで,1つに統一された階層を再構成した.3手法を組み合わせた結果,9種類の意味属性に限定したis-a関係の判定精度は,カテゴリ間で適合率95.3\%,再現率96.6\%,is-a関係数50,396件,カテゴリ‐記事間で適合率96.2\%,再現率95.6\%,is-a関係数834,474件であった.構築したオントロジーは,Wikipediaの全カテゴリの84.5\%(約34,000件),全記事の88.6\%(約422,000件)が組み込まれていることから,非常に大規模なWikipediaのオントロジーが構築できたといえる.一方Wikipediaの全てのカテゴリ間とカテゴリ‐記事間でのis-a関係の精度は,カテゴリ間で適合率95.7\%,再現率81.9\%,カテゴリ‐記事間で適合率96.6\%,再現率91.9\%であった.カテゴリ間のis-a関係の判定精度は,比較手法より適合率が1.9ポイント低下したが,再現率は24.2ポイント向上した.またカテゴリ‐記事間のis-a関係の判定精度は,比較手法より適合率は3.6ポイント高く,再現率も24.0ポイント高かった.上位のカテゴリに語彙大系を用いずに9種類の意味属性を用いたことで,比較手法より多くのカテゴリと記事をオントロジーに組み込めた.提案手法では3種類の手法を用いてnot-is-a関係を高い精度で削除することでis-a関係を判定するという手法により,比較手法とほぼ同程度の適合率で,比較手法よりも圧倒的に高い再現率でis-a関係を判定できた.\begin{thebibliography}{}\bibitem[\protect\BCAY{Bizer,Lehmann,Kobilarov,Auer,Becker,Cyganiak,\BBA\Hellmann}{Bizeret~al.}{2009}]{Bizer}Bizer,C.,Lehmann,J.,Kobilarov,G.,Auer,S.,Becker,C.,Cyganiak,R.,\BBA\Hellmann,S.\BBOP2009\BBCP.\newblock\BBOQDBpedia-Acrystallizationpointforthewebofdata.\BBCQ\\newblock{\BemWebSemantics:Science,ServicesandAgentsontheWorldWideWeb},{\Bbf7}(3),\mbox{\BPGS\154--165}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{WordNet}Fellbaum,C.\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase(Language,Speech,andCommunication)}.\newblock{TheMITPress}.\bibitem[\protect\BCAY{藤井\JBA飯田\JBA徳永}{藤井\Jetal}{2010}]{Fujii}藤井裕也\JBA飯田龍\JBA徳永健伸\BBOP2010\BBCP.\newblockWikipedia記事を利用した曖昧性のある表現の固有表現クラス分類.\\newblock\Jem{言語処理学会第16回年次大会講演論文集A1-4}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{小林\JBA増山\JBA関根}{小林\Jetal}{2008}]{Kobayashi}小林暁雄\JBA増山繁\JBA関根聡\BBOP2008\BBCP.\newblock日本語語彙大系と日本語ウィキペディアにおける知識の自動結合による汎用オントロジー構築手法.\\newblock\Jem{情報処理学会研究報告NL-187-2},\mbox{\BPGS\7--14}.\bibitem[\protect\BCAY{小林\JBA増山\JBA関根}{小林\Jetal}{2010}]{Kobayashi2}小林暁雄\JBA増山繁\JBA関根聡\BBOP2010\BBCP.\newblockWikipediaと汎用シソーラスを用いた汎用オントロジー構築手法.\\newblock\Jem{電子情報通信学会論文誌D,情報・システム},{\Bbf12},\mbox{\BPGS\2597--2609}.\bibitem[\protect\BCAY{黒田\JBA李\JBA野澤\JBA村田\JBA鳥澤}{黒田\Jetal}{2009}]{Kuroda}黒田航\JBA李在鎬\JBA野澤元\JBA村田真樹\JBA鳥澤健太郎\BBOP2009\BBCP.\newblock鳥式改の上位語データの人手クリーニング.\\newblock\Jem{言語処理学会15回大会発表論文集},\mbox{\BPGS\76--79}.\bibitem[\protect\BCAY{森田\JBA山口}{森田\JBA山口}{2010}]{Morita}森田武史\JBA山口高平\BBOP2010\BBCP.\newblockオントロジー学習の現状と動向.\\newblock\Jem{人工知能学会誌},{\Bbf25}(3),\mbox{\BPGS\354--365}.\bibitem[\protect\BCAY{中山\JBA原\JBA西尾}{中山\Jetal}{2008}]{Nakayama}中山浩太郎\JBA原隆浩\JBA西尾章治郎\BBOP2008\BBCP.\newblock自然言語処理とリンク構造解析を利用したWikipediaからのWebオントロジ自動構築に関する一手法.\\newblock\Jem{データ工学ワークショップ(DEWS)A3-2}.\bibitem[\protect\BCAY{Ponzetto\BBA\Strube}{Ponzetto\BBA\Strube}{2007}]{Ponzetto}Ponzetto,S.~P.\BBACOMMA\\BBA\Strube,M.\BBOP2007\BBCP.\newblock\BBOQDerivingalargescaletaxonomyfromWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe22ndConferenceontheAdvancementofArtificialIntelligence(AAAI)},\mbox{\BPGS\1440--1445}.\bibitem[\protect\BCAY{桜井\JBA手島\JBA石川\JBA森田\JBA和泉\JBA山口}{桜井~\Jetal}{2008}]{Sakurai}桜井慎弥\JBA手島拓也\JBA石川雅之\JBA森田武史\JBA和泉憲明\JBA山口高平\BBOP2008\BBCP.\newblock汎用オントロジー構築における日本語Wikipediaの適用可能性.\\newblock\Jem{人工知能学会第18回セマンティックWebとオントロジー研究会SIG-SWO-A801-06}.\bibitem[\protect\BCAY{柴木\JBA永田\JBA山本}{柴木\Jetal}{2009}]{Shibaki}柴木優美\JBA永田昌明\JBA山本和英\BBOP2009\BBCP.\newblock日本語語彙大系を用いたWikipediaからの汎用オントロジー構築.\\newblock\Jem{情報処理学会研究報告NL194-4}.\bibitem[\protect\BCAY{Suchanek,Kasneci,\BBA\Weikum}{Suchaneket~al.}{2007}]{Suchanek}Suchanek,F.~M.,Kasneci,G.,\BBA\Weikum,G.\BBOP2007\BBCP.\newblock\BBOQYago:AcoreofsemanticknowledgeunifyingwordnetandWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonWorldWideWeb(WWW)},\mbox{\BPGS\697--706}.\bibitem[\protect\BCAY{杉原\JBA増市\JBA梅基\JBA鷹合}{杉原\Jetal}{2009}]{Sugihara}杉原大悟\JBA増市博\JBA梅基宏\JBA鷹合基行\BBOP2009\BBCP.\newblockWikipediaカテゴリ階層構造の固有名詞分類実験における効果.\\newblock\Jem{情報処理学会研究報告NL-189-9},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{隅田\JBA吉永\JBA島澤}{隅田\Jetal}{2009}]{Sumida}隅田飛鳥\JBA吉永直樹\JBA島澤健太郎\BBOP2009\BBCP.\newblockWikipediaの記事構造からの上位下位関係抽出.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{玉川\JBA桜井\JBA手島\JBA森田\JBA和泉\JBA山口}{玉川~\Jetal}{2010}]{Tamagawa}玉川奨\JBA桜井慎弥\JBA手島拓也\JBA森田武史\JBA和泉憲明\JBA山口高平\BBOP2010\BBCP.\newblock日本語Wikipediaからの大規模オントロジー学習.\\newblock\Jem{人工知能学会論文誌論文特集「2009年度全国大会近未来チャレンジ」\inhibitglue},{\Bbf25}(5),\mbox{\BPGS\623--636}.\bibitem[\protect\BCAY{鳥澤\JBA隅田\JBA野口\JBA柿澤\JBA風間\JBADe~Saeger\JBA村田\JBA山田\JBA塚脇\JBA太田}{鳥澤\Jetal}{2009}]{Torisawa}鳥澤健太郎\JBA隅田飛鳥\JBA野口大輔\JBA柿澤康範\JBA風間淳一\JBAStijnDe~Saeger\JBA村田真樹\JBA山田一郎\JBA塚脇幸代\JBA太田公子\BBOP2009\BBCP.\newblockウェブ検索ディレクトリの自動構築とその改良—鳥式改—.\\newblock\Jem{言語処理学会15回大会発表論文集},\mbox{\BPGS\478--481}.\bibitem[\protect\BCAY{山田\JBA橋本\JBA呉\JBA鳥澤\JBA黒田\JBADe~Saeger\JBA土田\JBA風間}{山田\Jetal}{2012}]{Yamada}山田一郎\JBA橋本力\JBA呉鍾勲\JBA鳥澤健太郎\JBA黒田航\JBAStijnDeSaeger\JBA土田正明\JBA風間淳一\BBOP2012\BBCP.\newblockWikipediaを利用した上位下位関係の詳細化.\\newblock\Jem{自然言語処理},{\Bbf19}(1),\mbox{\BPGS\3--23}.\bibitem[\protect\BCAY{渡邉\JBA浅原\JBA松本}{渡邉\Jetal}{2008}]{Watanabe}渡邉陽太郎\JBA浅原正幸\JBA松本裕治\BBOP2008\BBCP.\newblockグラフ構造を持つ条件付確率場によるWikipedia文書中の固有表現分類.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(4),\mbox{\BPGS\245--254}.\end{thebibliography}\begin{biography}\bioauthor{柴木優美}{2011年3月長岡技術科学大学大学院工学研究科修士課程電気電子情報工学専攻修了.修士(工学).在学中はWikipediaを用いてオントロジーを構築する研究に従事.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所主幹研究員.工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),テキストマイニングなどに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.2012年より電子情報通信学会言語理解とコミュニケーション研究会研究専門委員長.e-mail:[email protected]}\end{biography}\biodate\end{document}
V18N03-02
\section{はじめに} \label{sec:intro}語義曖昧性解消は古典的な自然言語処理の課題の一つであり,先行研究の多くは教師あり学習により成果を挙げてきた\cite{Marquez04,Navigli09}.しかし,教師あり学習による語義曖昧性解消においてはデータスパースネスが大きな問題となる.多義語の語義がその共起語より定まるという仮定に基づけば,一つの多義語と共起し得る単語の種類が数万を超えることは珍しくなく,この数万種類のパターンに対応するために充分な語義ラベル付きデータを人手で確保し,教師あり手法を適用するのは現実的でない.一方で語義ラベルが付与されていない,いわゆるラベルなしのデータを大量に用意することは,ウェブの発展,学術研究用のコーパスの整備などにより比較的容易である.このような背景から,訓練データと大量のラベルなしデータを併用してクラス分類精度を向上させる半教師あり学習,または訓練データを必要としない教師なし学習による効果的な語義曖昧性解消手法の確立は重要であると言える.本稿では半教師あり手法の一つであるブートストラッピング法を取り上げ,従来のブートストラッピング法による語義曖昧性解消手法の欠点に対処した手法を提案する.ブートストラッピング法による語義曖昧性解消においては主にSelf-training(自己訓練)\cite{Nigam00b}とCo-training(共訓練)\cite{Blum98}の二つのアプローチがある\cite{Navigli09}.まずこれらの手法に共通する手順を述べると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{一般的ブートストラッピング手順}\begin{description}\item[Step1]ラベルなしデータ$U$から事例$P$個をランダムに取り出し$U'$を作る.\item[Step2]ラベル付きデータ$L$を用いて一つまたは二つの分類器に学習させ$U'$の事例を分類する.\item[Step3]Step2で分類した事例より分類器毎に信頼性の高いものから順に$G$個を選び,$L$に加える.\item[Step4]Step1から$R$回繰り返す.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}Self-trainingとCo-trainingの違いは,前者はStep2で用いる分類器は一つであるのに対し,後者は二つ用いる点にある.またCo-trainingにおいては二つの独立した素性集合を設定し,各分類器を一方の素性集合のみを用いて作成する.Co-trainingにおいてこのように設定するのは,Step3において追加する事例を一方の素性のみから決定することから,追加事例のもう一方の素性を見たとき新しい規則の獲得が期待できるためである.Self-trainingとCo-trainingの欠点はいずれも性能に影響するパラメータが多数存在し,かつこれらのパラメータを最適化する手段がないことである.具体的にはStep1のプールサイズ$P$,Step3の$L$に加える事例の個数$G$,手順の反復回数$R$は全てパラメータであり,タスクに合わせた調整を必要とする.本稿では,ラベル付きデータとラベルなしデータを同時に活用しつつも,パラメータ設定をほとんど不要とする新しい手法を提案する.本手法はまずヒューリスティックと教師あり学習で構築した分類器によるラベルなしデータの二段階の「分類」を行う.ここで「分類」とは語義曖昧性解消を行い,語義ラベルを付与することを意味する.本稿では以後特に断りがない限り,分類とはこの語義ラベル付与のことを指す.二段階分類したラベルなしデータの中で条件を満たすデータはオリジナルのラベル付きデータに加えられる.その結果,パラメータ設定がほぼ不要なブートストラッピング的半教師あり手法による語義曖昧性解消を実現する.さらに追加するラベルなしデータの条件を変えることで複数の分類器を作成し,アンサンブル学習することで,パラメータの変化に頑健な分類器を生成する.本稿の構成は以下の通りである.\ref{sec:work}節にて関連研究および本研究の位置付けを述べる.\ref{sec:method}節にて提案手法およびその原理を並行して述べる.\ref{sec:exp}節にてSemEval-2日本語タスク\cite{Okumura10}のデータセットに提案手法を適用した実験の結果を示す.\ref{sec:conc}節にて結論を述べる. \section{関連研究} \label{sec:work}本節ではまず\ref{sec:intro}節でブートストラッピング手法として挙げたSelf-trainingおよびCo-trainingを用いた語義曖昧性解消の先行研究を概観する.また,アンサンブル学習に基づく語義曖昧性解消には教師あり学習のアンサンブル,教師なし学習のアンサンブル,半教師あり学習のアンサンブルに基づいた手法が提案されており,これら先行研究を併せて概説する.\subsection{ブートストラッピングに基づく研究}\label{sec:work1}Self-trainingに基づいた語義曖昧性解消の先駆けとしてはYarowskyの研究\cite{Yarowsky95}が挙げられる.Yarowskyは「語義はその語の連語より定まる(onesensepercollocation)」「語義はその語を含む談話より定まる(onesenseperdiscourse)」という二つのヒューリスティックに基づき,ラベルなしデータに反復的にラベル付けするアルゴリズムを提案した.この手法は二つの観点からラベル付けをするため,Co-trainingの一種であると見ることもできる.また,このヒューリスティックに基づいたYarowskyのアルゴリズムはAbney\cite{Abney04}により,目的関数の最適化問題として定式化されている.Co-trainingを用いた語義曖昧性解消の早期の例としては新納の報告\cite{Shinnou01a}がある.新納はCo-trainingを適用するにあたり,二組の素性集合の独立性を高めるため,ラベル付きデータに追加するラベルなしデータを素性間の共起性に基づいて選択する手法を提案した.結果,日本語の語義曖昧性解消において通常のCo-trainingよりも性能が向上したと報告した.MihalceaはCo-trainingとSelf-trainingの両方を語義曖昧性解消に適用し,\ref{sec:intro}節にて述べたパラメータの影響について調査した\cite{Mihalcea04a}.この報告ではパラメータの自動での最適化はできず,最適な設定と自動による設定に大きな差があったと報告している.また,Mihalceaは同じ報告の中でスムージングしたCo-trainingおよびSelf-trainingを提案した.これは手順の反復のたびに生成される各分類器の多数決より語義判定しブートストラッピングするという方式であり,ブートストラッピングとアンサンブル学習の組合せの一種と見ることができる.この方式は通常のブートストラッピングよりも性能が向上したと報告された.以上の手法は\ref{sec:intro}節で述べたようなパラメータをタスク(データセット)に合わせ調整しなければならないという大きな課題がある.NiuらはZhuらの提案したラベル伝播手法\cite{Zhu02}に基づいた半教師あり手法による語義曖昧性解消について調査した\cite{Niu05}.ラベル伝播は事例を節点とする連結グラフを考え,重み付きの辺を通してラベルありの事例からラベルなしの事例へとラベル情報を反復的に伝播させる.そして伝播の収束結果よりラベルを推定する.この手法はSenseval-3\cite{Mihalcea04b}Englishlexicalsampleタスクのデータセットに適用した結果,従来の教師あり学習と比較して著しい成果は得られなかったとしている.PhamらはCo-trainingとSmoothedCo-training\cite{Mihalcea04a}に加え,SpectralGraphTransduction(SGT)\cite{Joachims03}およびSGTとCo-trainingを組合せたCo-trainingの語義曖昧性解消への適用を調査した\cite{Pham05}.Transductionとは訓練データから分類器を生成せず,直接テストデータにラベル付けする推論方法である\cite{Vapnik98}.SGTは$k$近傍法のTransductive版であるとされる.SGTは$k$近傍法の応用であるため,$k$がパラメータとなり,かつ$k$は性能に与える影響が大きいと報告されている.よってPhamらの調査した手法全てにはパラメータ設定の問題が存在していることになる.手法のアンサンブルを含まないブートストラッピングによる語義曖昧性解消の研究の最後として小町らの報告\cite{Komachi10}を挙げる.小町らはブートストラッピング手法の一つであるEspresso\cite{Pantel06}に対しグラフ理論に基づいて意味ドリフト\cite{Curran07}の解析を行った.意味ドリフトは,語義曖昧性解消の観点から考えると,どのような語義の語も持つ素性をジェネリックパターンと考え,ジェネリックパターンを持つ(信頼性が低いとされるべき)ラベルなしデータに対し手順の反復過程においてラベルが与えられることにより,反復終了後に生成される分類器の性能が低下してしまう現象と解釈できる.この問題への対処のため小町らは二つのリンク解析的関連度算出法を適用した.この手法は意味ドリフトに頑健かつパラメータ数が一つでさらにその調整が比較的容易という利点を持つ.Senseval-3Englishlexicalsampleタスクのデータセットに手法を適用した実験の結果,小町らの手法は類似したグラフ理論的手法であるHyperLex\cite{Veronis04}やPageRank\cite{Agirre06}と比較して高い性能が得られたと報告している.\subsection{アンサンブル学習に基づく研究}\label{sec:work2}教師あり学習のアンサンブルに基づく研究としては,AdaBoostを用いた\cite{Escudero00},素性として用いる文脈の大きさを変えて複数のNaiveBayes分類器をアンサンブルした\cite{Pedersen00},六種の分類器の組合せによる\cite{Florian02},二段階の分類器の出力の選択に基づいた\cite{Klein02},複数のNaiveBayes分類器の出力の比較に基づいた\cite{Wang04}が挙げられる.ここではWangらの手法をより詳しくみる.WangらはまずPedersonと同様に素性として用いる文脈の大きさ,つまり目標の多義語前後$k$語以内の語を素性として用いるとして,$k$を変えることで複数のNaiveBayes分類器を作成する.次にラベル付きデータを各分類器にて分類する.各要素がこの各分類器による分類結果であるベクトルをdecisiontrajectoryと呼ぶ.最後に各ラベル付きデータから得たdecisiontrajectoryの集合を訓練データとし,これらと入力から得たdecisiontrajectoryの類似度に基づいて入力の語義を判定する.Wangらの手法は中国語の語義曖昧性解消実験の結果,Pedersonの手法などと比較して最も良い結果が得られたと報告した.教師なし手法のアンサンブルの例としてはBrodyらの研究\cite{Brody06}が挙げられる.Brodyらは過去に語義曖昧性解消において有効と報告された教師なし手法であるExtendedGlossOverlap\cite{Banerjee03},DistributionalandWordNetSimilarity\cite{McCarthy04},LexicalChains\cite{Galley03}およびStructuralSemanticInterconnections\cite{Navigli05}を組合せた手法を提案した.この手法は組合せに用いた各手法と比較し,より良い結果が得られたと報告されている.最後に本稿で提案する手法に最も関連の深いブートストラッピング手法のアンサンブルを行ったLeらの研究\cite{Le08}について述べる.Leらは我々と同様に従来のブートストラッピングによる語義曖昧性解消の問題点に対する解決法を提案した.Leらが解決法を提案した問題点は,(1)ラベル付きデータのラベル毎のデータ数の偏り,(2)ラベル付きデータに追加するラベルなしデータ決定の基準,(3)手順の反復の停止条件および最終分類器の作成法の三つである.ここで問題(2)は\ref{sec:intro}節にて述べたパラメータ$G$の決定法,問題(3)はパラメータ$R$の決定法とも換言できる.Leらはこれらの解決のため,追加するラベルなしデータのリサイズ,複数のデータ追加条件の閾値の設定および対応する複数の追加データ集合の設定,訓練データを用いた追加データの評価および手順反復停止条件の設定,そして追加データと教師あり学習手法別の各分類器のいくつかの組合せ法を提案した.ここで追加データの評価と手順反復停止条件の設定の手法は,Zhouらが提案したTri-training法\cite{Zhou05}で用いられた手法を参考に設定している.Tri-trainingはCo-trainingを発展させた手法であり,Co-trainingと異なりパラメータ設定を不要とする特徴がある.実験はSenseval-2\cite{Edmonds01}およびSenseval-3のEnglishlexicalsampleタスクのデータセットを用いて行われ,従来の教師あり手法と比較し最大で1.51ポイントの精度向上が見られたとLeらは報告した.\subsection{本研究の位置付け}\ref{sec:work1}節と\ref{sec:work2}節を踏まえた上での本研究の位置付けは以下の通りである.まず,小町らの手法はパラメータ設定が容易という利点があるが,他の教師あり手法と組合せるのが困難なのが問題点である.高性能な教師あり手法を用いず,さらに性能を向上させるのは難しい.また,Leらの手法の難点として手順の反復停止条件の設定が挙げられる.これは,教師あり学習を用い追加データを訓練データとして分類器を作成しオリジナルのラベル付きデータを分類して得られるエラー率,および追加データの総数に基づき設定される.具体的には次の式を用い追加データの評価値$q$を求める.\begin{equation}q=m(1-2\eta)^2\label{eq0}\end{equation}ここで,$m$は追加データの総数,$\eta$はエラー率を示す.この$q$が前回の値よりも小さければ反復は停止する.しかし反復の停止にこの条件が用いられる具体的根拠は示されていない.単に反復を自動的に停止するためと述べられているだけである.このためこの停止条件が最適であるかどうか疑問が残る.そこで本研究の立場だが,まず本稿ではこの停止条件の追究はしない方針とする.しかし,\ref{sec:intro}節にて目標としたようにブートストラッピングにおけるパラメータの削減は達成を目指す.そこで本研究では手順の反復回数(パラメータ$R$)を一回に留めるという方針を採る.この方針には次の利点が考えられる.\begin{itemize}\item手順の回数が固定され計算時間の予測が立てやすい.\itemラベル付きデータへのラベルなしデータの追加が一度のみとなるため,追加されたデータに対し分析,考察を加えやすい.\item反復1回目の精度を向上させることで,手法を複数反復できるように拡張したとき更なる精度向上が見込める.\end{itemize}以上の検討に基づき,本研究では反復を伴わず,かつ教師あり学習手法を併用した高性能なブートストラッピング的手法を確立する.また反復回数を一回にすることは,反復回数以外のパラメータを削減することにもつながる.詳しくは\ref{sec:method}節にて述べる \section{提案手法} \label{sec:method}提案手法は\ref{sec:intro}節で述べたラベルなしデータの二段階の分類とその結果を用いたアンサンブル学習による最終分類器作成の全三段階からなる.手法の流れを次に,また本手法に基づくシステム全体像を図\ref{fig:img01}に示す.\begin{figure}[b]\begin{center}\includegraphics{18-3ia2f1.eps}\end{center}\caption{提案手法システム全体像}\label{fig:img01}\end{figure}\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\begin{description}\item[Stage1]ヒューリスティックによる分類\\(手掛り語獲得,手掛り付き事例抽出・分類1回目)\item[Stage2]教師あり学習手法による分類\\(手掛り付き事例分類2回目,二次分類器作成)\item[Stage3]アンサンブル学習による最終分類器作成\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}まず図\ref{fig:img01}の見方を述べる.長方形の囲みは各種処理,楕円の囲みは各処理の出力を示す.各種処理の中には語義分類の処理が三回登場するが,これらの括弧内の分類器はそれぞれの分類処理のために作成し使用する分類器を示している.実線の矢印は各処理において入出力されるデータの流れを示す.点線は入出力するデータへの処理に利用するデータであり,分類器作成のために訓練データとして用いるデータも含まれる.図\ref{fig:img01}における訓練データとはオリジナルのラベル付きデータを指す.本システムにおける最終的な語義曖昧性解消の対象は,テストデータとして図\ref{fig:img01}のように入力し,その結果は語義分類最終結果として出力される.図\ref{fig:img01}に基づく本システムの概観は次のようになる.まず本システムの最初の手順は手掛り語の獲得である.手掛り語は訓練データから抽出する形で獲得する.第二の手順はラベルなしデータからの手掛り付き事例の獲得である.手掛り付き事例の獲得は,手掛り語を用いたラベルなしデータからの手掛り付き事例の抽出・分類(1回目),訓練データを用いて作成された一次分類器による手掛り付き事例の語義分類,一次分類器による分類結果に基づく手掛り付き事例の分類(2回目)といった多段の手順により実現される.最後の手順はテストデータの語義曖昧性解消である.これは獲得した手掛り付き事例と訓練データを用いた二次分類器の作成,および異なる条件で作成された複数の二次分類器によるテストデータの分類結果に基づく最終分類器の判定より構成される.本節では,以後本手法を全三段階に区切り,詳述していく.ここで一つ注意点がある.それは今,本システムを上述のように手掛り語,手掛り付き事例,語義分類最終結果と出力されるデータに着目し,手順を三つに区切ったが,これは以後に述べる三段階の手順と対応関係にないということである.具体的には,手法第一段階は図\ref{fig:img01}の手掛り語獲得から手掛り付き事例抽出・分類1回目まで,手法第二段階は一次分類器による手掛り付き事例の分類から二次分類器によるテストデータの語義分類まで,手法第三段階は最終分類器によるテストデータの語義分類のみと対応する.手法第一段階はヒューリスティックによるラベルなしデータの分類として一括りし,手掛り語ならびに手掛り付き事例の詳細と併せて\ref{sec:first}節にて詳述する.手法第二段階はラベルなしデータから抽出した手掛り付き事例の教師あり学習手法による分類とその結果に基づく二次分類器の作成として括り出し,詳細を\ref{sec:second}節にて述べる.手法第三段階はアンサンブル学習による最終分類器の作成として括り,\ref{sec:third}節にて詳述する.\ref{sec:summary}節では本手法のまとめをする.このような手法の全三段階の区切りは,\ref{sec:exp}節にて述べる実験結果の考察において意味を持つことになる.なお本稿では,訓練データ,テストデータおよびラベルなしデータはいずれもUniDic\footnote{http://www.tokuteicorpus.jp/dist/}を用いて形態素解析済み\footnote{SemEval-2日本語タスクのデータセットはUniDicを用いた自動解析およびその人手での修正が施されている.}であり,訓練データにおいてラベルは各形態素に付与されているものとする.また本稿では便宜上,形態素を単語または語とも呼ぶことにする.\subsection{Stage1:ヒューリスティックによる分類}\label{sec:first}分類第一段階は訓練データからの手掛り語の獲得ならびにヒューリスティックによるラベルなしデータからの手掛り付き事例の抽出・分類(1回目)からなる.\subsubsection{手掛り語の獲得}本手法で獲得する手掛り語$W_{ts}$とは,訓練データ$L$において語義ラベルが付与された対象語\footnote{本稿では語義曖昧性解消の対象語を単に「対象語」と呼ぶ.}$t$の前後$n_w$語以内において共起する内容語\footnote{具体的には\ref{sec:exp}節参照のこと.}の表層形であり,かつ与えられた訓練データ内で共起する$t$に付与された語義ラベルが必ずある一つの語義ラベル$s$に定まる語の集合とする.後者の条件は,$s$が付与された$t$を$t_s$とすると,形態素$w_j$共起の下で$t$が$t_s$である確率を$p(t_s|w_j)$とすると,\begin{equation}p(t_s|w_j)=1\label{eq1}\end{equation}を満たす$w_j$であることとも書き換えることができる.前者の条件にある窓幅$n_w$については\ref{sec:third}節で詳述する.このような条件を満たす$w_{ts}\inW_{ts}$が語義ラベルが付与されていない$t$と共起したとき,この$t$は単純に式(\ref{eq1})より$t_s$である可能性が高いと考え,以後$W_{ts}$は$t$の語義曖昧性解消の手掛りとして利用する.また表層形を条件としたのは,基本形,品詞といった情報は表層形と比べ情報の粒度が荒く,表層形の方が手掛りとしての信頼性が高いと考えたことによる.もし式(\ref{eq1})を満たす$w_j$が$L$全体で一度だけ出現する語である場合,$t$が$t_s$に決定付けられる可能性は低いとも考えられるが,これは二度以上出現する語の場合も大差はないと筆者は考える.$p(t_s|w_j)$は語義曖昧性解消において単純ベイズや決定リストのルールの信頼度などにしばしば用いられ\footnote{ここでは$w_j$は任意の素性である.},その中で$p(t_s|w_j)$をスムージングして用いる例もいくつかある\cite{Yarowsky95,Yagi01,Tsuruoka02}.しかしこの場合は最適な閾値を求める必要があり,問題がかえって難しくなってしまう.このため,今回は単純な式(\ref{eq1})を$w_{ts}$の条件とした.なお上述の$w_{ts}$は添え字が示すように共起する$t_s$に付与されていた$s$の情報を含む.よって実際の手掛り語獲得では,例えば対象語が「相手」,$n_w=2$,訓練データの一つに「相手に取って不足はない」があり,この文中の「相手」に``117-0-0-3''という語義ID\footnote{ここに示したIDはSemEval-2日本語タスクにて用いられたもの.上位二つの数字は見出し語のID,残り二つはそれぞれ語義の大分類,中分類のIDを示す.なお``117-0-0-3''の辞書定義文は「自分と対抗して物事を争う人」である.}が付与されていたとする.このとき「取っ」という語が訓練データにおいて``117-0-0-3''の語義の「相手」とのみ共起するのであれば,この訓練データからは《取っ,117-0-0-3》という二つ組一つを抽出する.\subsubsection{手掛り付き事例抽出・分類(1回目)}ここでは,まず手掛り付き事例抽出の手順を述べる前にSemEval-2日本語タスクにおける対象語$t$の表記ゆれへの対処について述べる.SemEval-2においては$t$について与えられる情報は訓練データ$L$を除くと与えられた辞書に記述された見出し語$H_t$と語義の語釈文$D_t$のみであり,$t$の表記に関する情報は充分には与えられない.例えば,$t$の一つに「子供」があるが,これは他にも「子ども」「こども」といった表記があるのに対し,$H_t$にない「子ども」という表記の情報は与えられていない.この問題に対処しない場合,ラベルなしデータから$t$の事例を充分な数獲得できないだけでなく,$t$の表記により語義の傾向が変わる場合も考えられ,抽出する事例の語義に偏りが生まれる可能性も考えられる.このため,UniDicの辞書を用いて,以下の手順で$t$の取り得る表記(表層形)$E_t$の獲得を行った.なお下記のStep2では実際には$E_{t0}$からひらがなのみで構成される表層形を除外して$V_t$を抽出している.これはこのような語は語彙素の同定が困難であり表層形獲得精度の低下を招くためである.また$e_t\inE_t$は品詞細分類の情報も合わせて獲得し,以後$t$の事例としてこの二つ組の情報が一致するものを獲得する.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{対象語表層形の獲得手順}\begin{description}\item[Step1]$t$に対し$L$と$H_t$から獲得可能な全ての表層形$E_{t0}$を抽出する.\item[Step2]$E_{t0}$と対応する語彙素$V_t$をUniDicの辞書から抽出する.\item[Step3]$V_t$の全表層形$E_{t1}$をUniDicの辞書から抽出する.\item[Step4]$E_{t0}$および$E_{t1}$を合わせて対象語の表層形$E_t$として獲得する.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}続いて,獲得した手掛り語$W_{ts}$および対象語の表層形$E_t$を用いてラベルなしデータ$U$より手掛り付き事例の抽出および1回目の分類を行う.手順を以下に示す.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{手掛り付き事例抽出・\mbox{分類(1回目)の手順}}\begin{description}\item[Step1]$U$から$e_t\inE_t$と一致する表層形の形態素を探索し,発見したら$i_{t0}$とする.\item[Step2]$i_{t0}$の前後$n_w'$語以内に$w_{ts}\inW_{ts}$が共起する場合,$i_{t0}$を手掛り付き事例$i_{ts1}\inI_{ts1}$として抽出する.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}手掛り付き事例$I_{ts1}$とは対象語$t$の前後に手掛り語$w_{ts}$が共起する事例を指し,上記手順より抽出される.また,ここで抽出される$I_{ts1}$の$s$は$w_{ts}$の添え字の$s$であり,$i_{t0}$に$s$を付与することで分類したとみなすことができる.よって上記手順では,手掛り付き事例の抽出と分類を同時に行っていると解釈できる.一方で,$i_{t0}$の集合$I_{t0}$と$\bigcup_{s}I_{ts1}$の差集合は語義ラベルが付与されないということで,語義判定不可に分類されたと考えることもできる.上記手順を具体例を挙げ説明すると次のようになる.$E_t$に「相手」,$W_{ts}$に《取っ,117-0-0-3》が含まれているとし,$U$より「ゼネコン三十一社を相手取って一人あたり三千三百万円の損害賠償を求めた」という文に対し上記手順を適用するとする.また,$n_w'=2$とする.この場合,文中の「相手」が$i_{t0}$となり,$t$の前後2語以内に「取っ」が共起するため,$s={}$``117-0-0-3''とし,$i_{t0}$を手掛り付き事例$i_{ts1}$として抽出する.さて,ここでパラメータ$n_w'$についてであるが,これは$W_{ts}$獲得に用いるパラメータ$n_w$とは区別する.さらに$n_w'$の値は上述の例と同様に``2''と固定する.この2という数は\ref{sec:second}節で述べる教師あり学習による分類の素性として対象語前後``2''語以内の形態素を用いることと対応するのだが,その理由を列挙すると以下のようになる.\begin{enumerate}\item$W_{ts}$獲得に用いる訓練データ$L$は本タスクにおいて数少ない信頼できるデータである.したがって,$L$からは出来る限り多くの特徴を抽出したい.\item一方,ラベルなしデータ$U$は多量に存在するが,これを自動的に分類したデータは当然ながら必ずしも信頼できるわけではない.\item反復回数一回でなるべく信頼性が高くかつ充分な数のデータの獲得が望ましい.\item$n_w'$を教師あり学習の素性抽出の範囲と一致させた場合,抽出した手掛り付き事例$i_{ts1}$の素性に必ず$w_{ts}$が含まれる.このため,$i_{ts1}$を教師あり手法で再分類したとき高精度の分類が期待できる.\item$w_{ts}$は$n_w$に関わらず式(\ref{eq1})を満たす.つまりある程度の範囲までは$n_w$を大きくすることで信頼性を維持しつつ多数の$w_{ts}$を獲得できる.\item$w_{ts}$が充分な数あれば,一度の処理で多数の$U$を分類しやはり充分な数のデータを$L$に加えることができる.\end{enumerate}上述の理由には従来法の欠点と提案法の利点の両方が含まれている.その対応関係は,理由(4)は(2)への対処であり,(5)は(4)の補足かつ(1)への対処であり,(6)は(5)を踏まえた(3)への対処となる.またここに述べた理由は,\ref{sec:second}節にて述べる手掛り付き事例分類2回目において,\ref{sec:intro}節で述べたパラメータ$P$,$G$,$R$が削減可能となる理由にもなる.詳しくは\ref{sec:second}節にて改めて述べる.以上のアルゴリズムをもって,本手法の第一段階とする.節題の通り,本処理は経験則に基づく部分が多い.しかし,本処理は以降の処理においても必要とされる性質を備えている.これらは\ref{sec:second}節および\ref{sec:third}節にて詳述する.\subsection{Stage2:教師あり学習手法による分類}\label{sec:second}分類第二段階では\ref{sec:first}節で抽出・分類した手掛り付き事例に対し,オリジナルの訓練データから得られる一次分類器を用いて2回目の分類を行う.そして,その結果得られる手掛り付き事例を用いて二次分類器を作成する.\subsubsection{教師あり学習手法}本手法で用いる教師あり学習手法は最適化にL-BFGS\cite{Liu89}を用いた最大エントロピー法\cite{Nigam00a}とした.この理由はSemEval-2日本語タスクフォーマルラン参加チームの一つの報告\cite{Fujita10}に最大エントロピー法が有効というものがあったためである.また学習の素性もFujitaらの報告を参考に次のように設定した.\begin{itemize}\item範囲\\対象語前後2語以内\item1グラム素性\\形態素の表層形\\形態素の基本形\footnote{本研究では用言の基本形のカナ表記を「基本形」とする.詳しくは\ref{sec:exp}節参照のこと.}\item2グラム・3グラム・対象語を含むスキップ2グラム素性\\形態素の表層形\\形態素の基本形\\形態素の品詞と対象語との相対位置の組合せ\\形態素の品詞細分類と対象語との相対位置の組合せ\end{itemize}具体的には,対象語「相手」の事例「相手に取って不足はない」に対しては次の素性が獲得できる.下記例中の``*''を含む素性はスキップ2グラムを示す.また品詞に付与されている番号は対象語との相対位置である.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\small相手,に,取っ,トル,相手に,に取っ,相手に取っ,相手*取っ,にトル,相手にトル,相手*トル,名詞$_0$助詞$_1$,助詞$_1$動詞$_2$,名詞$_0$助詞$_1$動詞$_2$,名詞$_0$*動詞$_2$,名詞-普通名詞-一般$_0$助詞-格助詞$_1$,助詞-格助詞$_1$動詞-一般$_2$,名詞-普通名詞-一般$_0$助詞-格助詞$_1$動詞-一般$_2$,名詞-普通名詞-一般$_0$*動詞-一般$_2$\end{minipage}\end{center}\vspace{0.5\baselineskip}\subsubsection{手掛り付き事例分類(2回目)}前述の学習手法,素性,そして訓練データ$L$を用いて一次分類器$C_1$を作成し,$C_1$を用いて\ref{sec:first}節で抽出・分類した手掛り付き事例$I_{ts1}$を再分類する.この分類2回目の結果が分類1回目の結果と一致する,つまり$C_1$の$i_{ts1}\inI_{ts1}$の分類結果を$c_1(i_{ts1})$としたとき,$c_1(i_{ts1})=s$である場合,$i_{ts1}$を$i_{ts2}\inI_{ts2}$とし$L$に加え,これを用いて$C_1$同様に二次分類器$C_2$を作成する.\ref{sec:first}節で述べたように$i_{ts1}$はその素性に必ず手掛り語$w_{ts}$を含む.そのため$c_1(i_{ts1})$は$s$と一致する可能性が高いが,実際に一致を確認し,一致しなければ$C_2$作成においてこの手掛り付き事例は使わない.この結果,$C_2$作成に用いられる$I_{ts2}$のラベル$s$は信頼性の高いものとなる.このシステムの重要な点は単に二種類の分類手法の結果が合致するものを選択することではない.そうだとすれば,分類1回目は一般的な教師あり学習手法を用いても良いことになってしまう.重要なのは分類2回目にて$C_1$が高い精度で分類可能な事例$I_{ts1}$を分類1回目において選択していることにある.つまり,{\bf分類1回目が分類2回目の精度向上を明確に支援している}ことがポイントである.これにより$I_{ts2}$全てを$L$に加えても信頼性は保持され,同時に充分な数のブートストラッピングが可能になる.これは従来法において必要だった\ref{sec:intro}節に挙げたパラメータ,ラベル付きデータ$L$に加える事例の個数$G$および手順の反復回数$R$を決めることなしに適切な事例を$L$に加えられることも意味する.なぜなら,$G$を定めずとも全事例を$L$に加えればよく,$R$を定めずとも一度の実行で充分な数の事例の獲得が可能だからである.またプールサイズ$P$については,Blumらの考察\cite{Blum98}から考えるとブートストラッピングの反復において意味を持つ値であると思われる.よって,反復回数1の本手法は単にプールを設定する必要がなく,事例を全てのラベルなしデータ$U$から抽出することで処理できる.また,$W_{ts}$は$n_w>2$であれば$L$の素性にない語(つまり対象語から3語以上離れた位置にある語)を含むことから,$I_{ts1}$の素性はやはり$L$の素性にない語を含む.すると$I_{ts1}$が分類2回目の結果,$L$に追加されれば,上述の通り分類2回目の信頼性は高いと言えるため,$C_2$は$C_1$と比べ正しく分類できる$U$が増える可能性が高い.したがって,本手法は$U$の$L$への追加における効率性が高い手法であるとも言うことができる.上述の性質はCo-trainingとの類似性を指摘することもできる.Co-trainingは\ref{sec:intro}節で述べたように二つの素性集合のうち一方のみに基づいて分類することで他方の素性について新しい規則の獲得が期待できるのが特徴である.本手法では,$W_{ts}$と$C_1$に用いる素性の二種類の素性を実質的に両方考慮して手掛り付き事例を分類している.しかし,$C_2$に用いる素性は後者の素性のみである.つまり,一方は他方の一部ということになるが,一方の素性で分類した結果を他方の素性を用いる分類器の訓練データに加えるという点ではCo-trainingと共通する.その一方で,提案手法は$L$に追加する$U$の分類に二種類,つまり全ての素性を用いており,一方のみを使う場合と比較すると分類結果の信頼性が高いという利点がある.このような変則的なCo-trainingと通常のCo-trainingの間にどのような差異が生まれるかは未調査だが,ここに述べた性質は性能の向上に結び付くと期待される.本処理の直感的な意味としては,$C_1$にまず簡単な問題を解かせ,その結果を$C_2$の学習に利用していると解釈できる.一方で従来のブートストラッピングは,難易度がランダムな問題を複数解かせ,その中でシステムが自信を持って答えられるものから学習すると考えられる.しかし後者の場合,回答に対し「間違った自信」を持ってしまい,結果として不適切な学習をしてしまう危険性があり得る.前者の,つまり提案した手法は,確実ではないが$C_1$が解くのが簡単であろう問題を選択しており,この危険性はいくらか低減していると推測される.この推測が正しいとすれば,$C_1$に提示する問題を選択する分類1回目の処理は重要な意味を持つことになる.また,ここで提示するのは勿論ラベルなしの文章であるが,見方を変えると「良い文章」をシステムに提示することでより良い学習が可能になると考えられ,興味深い.\subsection{Stage3:アンサンブル学習による最終分類器作成}\label{sec:third}本節では\ref{sec:second}節で作成した二次分類器$C_2$をアンサンブルして最終分類器$C_3$を作成する方法を述べる.アンサンブルには\ref{sec:first}節の手掛り語抽出において決定法を保留していた窓幅$n_w$を利用する.すなわち,$n_w$をパラメータとする二次分類器を$C_2(n_w)$とし,$n_w$を変化させた$C_2(n_w)$を複数組合せ$C_3$とする.組合せの方法は各最大エントロピー分類器が出力する各ラベルの推定確率の中で最高値を出力した分類器の判定を採用する方式とする.つまり入力を$\mathbf{x}$,$C_2(n_w)$が$\mathbf{x}$に対し出力する語義$s$である推定確率を$p(s|\mathbf{x},n_w)$とすると,\begin{equation}s_*(\mathbf{x})=\argmax_{s}\left[\max_{n_w}p(s|\mathbf{x},n_w)\right]\label{eq2}\end{equation}より求まる$s_*(\mathbf{x})$を$C_3$の出力とする.式(\ref{eq2})の方式で良い結果が得られる根拠は手掛り語$W_{ts}$の条件の一つである式(\ref{eq1})にある.式(\ref{eq1})の制約の下で$n_w$の値を大きくしたとき,得られる$W_{ts}$に以下の二つの変化が見られる.\begin{itemize}\item$n_w$変化前になくかつ$n_w$変化後に式(\ref{eq1})を満たす語が追加される.\item$n_w$変化前にはあるが$n_w$変化後に式(\ref{eq1})を満たさなくなる語が削除される.\end{itemize}ここで重要なのは後者の性質である.式(\ref{eq1})の性質上,後者の変化より$W_{ts}$から削除された語は$n_w$をどんなに大きくしても再度$W_{ts}$に追加されることは絶対にない.$n_w$変化後に削除される語は必ずしも重要度が高い語とも低い語とも言えないが,少なくとも一度は$W_{ts}$の条件を満たすため重要度が高い語を含む可能性は高い.よって,$n_w$の変化によって変わる各$W_{ts}$の集合には他の集合にはない重要度の高い$W_{ts}$が含まれている可能性が少なからずあるということになる.したがって,$n_w$の差異により各分類器に長所・短所が生まれ,アンサンブル学習の効果が生まれやすいということができる.逆に,$C_2$をアンサンブルしない場合,$n_w$の差異により性能に大きく差がつくと考えられ,$n_w$をパラメータとした調整は難しいと考えられる.また$n_w$を増やせば,それだけ対象語から離れた位置にある語を特徴とすることになるため,少しずつ$W_{ts}$の信頼性が落ちていくものと考えられるが,これに伴い任意の$s$に対し$C_2(n_w)$の$s$の推定確率$p(s|\mathbf{x},n_w)$も落ちていくと予想される.すると,$C_3$の出力を式(\ref{eq2})を満たす$s_*(x)$としたが,$n_w$の増大に従い$C_2(n_w)$の判定が採用される確率も減少していくと考えられる.よって,$n_w$の増大は$W_{ts}$の信頼性の減少を意味するが,同時に$C_2(n_w)$の判定の採用確率も減ぜられる.このため本手法は$n_w$の増大に対し頑健なアンサンブル手法であるとも言うことができる.本手法はMihalceaのSmoothedCo-training\cite{Mihalcea04a}およびWangらTrajectoryBasedの手法\cite{Wang04}と類似性を持つ.まずWangらは文脈の大きさを変えながら複数のNaiveBayes分類器を作成しているが,提案手法の処理はこれとよく似ている.Wangらの手法は文脈の大きさというパラメータの影響の差による性能差が小さくなることで性能が上がると見られるが,本手法でも同様の効果が期待できる.またMihalceaはCo-trainingの反復過程にて分類器の多数決を適用した結果,反復回数の差による性能差が小さくなりかつ全体的な性能も向上したと報告したが,本手法における分類器の組合せにおいても同様の効果が期待できる.なお,分類器の組合せのもう一つの単純な方式として推定確率を重みとした重み付き多数決方式,つまり\begin{equation}s_*(x)=\argmax_{s}\left[\sum_{n_w}p(s|\mathbf{x},n_w)\right]\label{eq3}\end{equation}が考えられる.ここで記号の意味は式(\ref{eq2})と同じである.しかし,式(\ref{eq3})の方式は事前実験の結果,式(\ref{eq2})の方式ほどは良くないことがわかった.これは,$n_w$の増大に伴い$C_2(n_w)$の推定確率が低くなることに変わりはないが,式(\ref{eq2})と比べ$n_w$の大きな$C_2(n_w)$の判定がより重めに考慮されていることが原因と思われる.最後に本手法唯一のパラメータである$n_w$の変化の範囲について述べる.一つの方法としては範囲を設けない,つまり任意の$n_w$を許すことが考えられるが,当然ながら$n_w$を増やすことで計算時間が増加する.また,$n_w$の増大に伴う分類器の信頼性の減少に対しある程度は頑健であるとはいえ,限度の存在があり得る.このため$n_w$の変化の範囲には何らかの閾値を定めるのが妥当と考えられる.\ref{sec:exp}節で述べる実験ではパラメータ$n_{\max}$を定め,$1\leqn_w\leqn_{\max}$の範囲で$n_w$を1刻みで変化させるとし,$n_{\max}$の変化により語義曖昧性解消の性能がどのように変化していくか見ていく.\subsection{まとめ}\label{sec:summary}提案手法を一つのアルゴリズムとして表現すると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\begin{description}\item[Step0]$n_w$を初期値($=1$)に設定する.\item[Step1]訓練データ$L$中の語義ラベル$s$が付与された対象語を$T_s$とする.\item[Step2]$t_s\inT_s$前後$n_w$語以内の式(\ref{eq1})を満たす内容語の表層形を手掛り語$W_{ts}$として獲得する.\item[Step3]ラベルなしデータ$U$から対象語$t$に対する事例$I_{t0}$を抽出する.\item[Step4]$i_{t0}\inI_{t0}$の前後$n_w'=2$以内に$w_{ts}\inW_{ts}$が出現するとき,$i_{t0}$を手掛り付き事例$i_{ts1}\inI_{ts1}$として抽出する.\item[Step5]$L$を用いて一次分類器$C_1$を作成し$i_{ts1}$を分類した結果を$c_1(i_{ts1})$とする.\item[Step6]$c_1(i_{ts1})=s$であるとき,$i_{ts1}$を$i_{ts2}\inI_{ts2}$とする.\item[Step7]$L$に$I_{ts2}$を加え二次分類器$C_2$を作成する.\item[Step8]$n_w$を$1\leqn_w\leqn_{\max}$の範囲で変化させ,Step1から7まで繰り返す.\item[Step9]Step8で得られた$C_2$をアンサンブルして最終分類器$C_3$とする.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}まず着目すべきは本手法はStep8に示した$n_{\max}$以外にパラメータが存在しないことである.そして\ref{sec:exp}節で示すようにこのパラメータの設定は比較的容易である.次に留意すべきは\ref{sec:intro}節で述べた$P$,$G$,$I$といったパラメータがないにも関わらず,ブートストラッピングの効果が充分に見込めるという点である.このメカニズムは,上記Step2に示した手掛り語$W_{ts}$の条件,Step4の$I_{ts1}$の抽出の条件,Step6の$I_{ts2}$抽出の条件,さらにStep8,9が巧妙に作用しあっていることに基づいている.最後に注意すべきは,本手法はStep0から9までの1度の実行だけで,充分なブートストラッピングが可能であり,2回以上の反復を必要としない点である.しかし,Step4の$I_{ts1}$の抽出は必然的に再現率を犠牲にするため,本手法1回の実行で完全な学習ができる訳ではない.本手法の反復による更なる精度の向上は今後の課題である. \section{実験} \label{sec:exp}今回実験に使用したデータセットはSemEval-2日本語タスク\cite{Okumura10}において配布された訓練データ(語義ラベル),テストデータを含む形態素解析済みコーパス,および語義の定義に用いられた岩波国語辞典\cite{Nishio94}のデータのみである.ラベルなしデータとしては上述の形態素解析済みコーパス全てを利用した.本研究では形態素の基本形の情報も利用するが,SemEval-2日本語タスクにおいてはデータセットに漢字表記の基本形の情報は付与されていない.しかし,用言については基本形のカナ表記(bfm;語形)の情報が付与されているため,本研究ではこれを基本形として扱った.また本研究では,配布されたコーパスの形態素に付与されている品詞が名詞,動詞,形容詞,形状詞,副詞,接尾辞,接頭辞のいずれかであるものを内容語とした.本研究では,訓練データに対する前処理として,SemEval-2日本語タスクにおいて語義の定義に用いられた岩波国語辞典の語釈文に含まれる用例の訓練データへの追加を行った.まず岩波国語辞典の用例中の対象語は``—''に置きかえられているため,``—''を人手で対象語に置換し直し,用例を自動と人手による修正により抽出した.用例の形態素解析にはSemEval-2のデータセットの形態素解析に用いられたのと同様に辞書としてUniDicを用い,MeCab\footnote{http://mecab.sourceforge.net/}を用いて形態素解析した.形態素解析結果に対する対象語の語義の付与は,用例の抽出同様,自動と人手による修正の組合せより行った.ここで追加した用例の総数は788であり,追加後の訓練データ全体の約24\%を占める.上記の辞書中の用例とオリジナルのデータセットの間には性質に相違がある.オリジナルのデータセットはまとまった文章で与えられ,対象語周辺から多くの文脈情報が得られる.対して,辞書の用例は短い文で与えられ,得られる文脈情報は少なく,また用例自体は通常の文章に現れにくい表現の場合がある.\ref{sec:first}節にて述べた手掛り語獲得の手法は,対象語から離れた位置からも手掛り語を獲得することを想定した手法であり,上述のような性質の異なるデータを併用すると不具合が生じる可能性が考えられる.このため実験では,手掛り語獲得において,上記の辞書用例からの追加データを使用する場合と使用しない場合の二通りの実験を行った.実験は$n_{\max}$を変化させつつ,\ref{sec:third}節で述べた通りに$n_w$を$1\leqn_w\leqn_{\max}$の範囲で1刻みで変化させ最終分類器を作成し,最終分類器の性能を前述のテストデータを用いて評価した.$n_{\max}$の値は$1\leqn_{\max}\leq100$の範囲で1刻みで変化させた.まず手掛り語獲得において辞書用例データを使用しない場合の実験結果を図\ref{fig:img02}に示す.ここでFinalclassifierが提案手法の分類精度であり,1stclassifierの結果は\ref{sec:second}節にて述べた一次分類器によるテストデータの分類精度を示す.なお一次分類器はベースラインの教師あり手法であることに注意されたい.また,最終分類器と二次分類器の性能比較のため,$n_w$を$1\leqn_w\leq100$の範囲で変化させ二次分類器単体でテストデータを分類したときの評価結果を図\ref{fig:img03}に示す.図\ref{fig:img02}と図\ref{fig:img03}の共通点としては,どの$n_{\max}$,$n_w$においても最終分類器,二次分類器ともに一次分類器の結果を上回っていることがわかる.これより本手法の第二段階の時点で信頼性の高いブートストラッピングができていたことが確認できる.一方で図\ref{fig:img03}を見て明らかな通り,二次分類器は最終分類器と比較してパラメータ($n_w$)による精度のバラつきがかなり大きいことがわかる.また最終分類器は$n_{\max}=50$付近から,二次分類器は$n_w=60$付近から$n_{\max}$,$n_w$の増加に伴い明白に精度が落ちていくことがわかるが,二次分類器の精度の落ち方は最終分類器と比べ明らかに大きい.これより\ref{sec:third}節で述べたように提案手法が$n_w$の増大に対し実際に頑健であることもわかる.二次分類器の最高値は最終分類器と比べると有意に高いと言えるが,そのときの$n_w=23$のすぐ近くに大きな谷($n_w=27$)があり,これより二次分類器のパラメータ調整の難しさがうかがえる.一方で,最終分類器は特に$35\leqn_{\max}\leq50$の範囲で性能が安定しており,パラメータ調整は比較的容易と言える.次に手掛り語獲得において辞書用例データを使用した場合の最終分類器の評価結果を図\ref{fig:img04},二次分類器の評価結果を図\ref{fig:img05}に示す.始めに図\ref{fig:img04}と図\ref{fig:img05}を比較すると,やはり最終分類器の方がパラメータの変化に対し性能が頑健であることがわかる.しかし図\ref{fig:img02}と図\ref{fig:img04}で最終分類器同士を比較すると,$n_{\max}=10$周辺では辞書用例使用の方がわずかに性能が良いが,$n_{\max}$がこれより大きくなると辞書用例不使用と比べ性能がやや落ちる.$5\leqn_{\max}\leq50$の範囲における性能の安定性を比較すると,これは明確に辞書用例不使用の方が高いと言える.また図\ref{fig:img03}と図\ref{fig:img05}で二次分類器同士を比較すると,辞書用例使用の方は$n_w=20$周辺においてやや安定性が高いが,有意差があるとは言いにくく,いずれにせよこれらは最終分類器より性能の安定性が低い.結論としては,辞書用例使用の有無ではっきりと有意差があるとは言えないが,今回の実験では性能の安定性は辞書用例不使用の方が比較的高いとみることにする.以後は辞書用例不使用の場合の実験結果のみを示す.\begin{figure}[t]\setlength{\captionwidth}{202pt}\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f2.eps}\hangcaption{$n_{\max}$の変化による提案手法分類精度の推移(手掛り語獲得で辞書用例不使用)}\label{fig:img02}\end{minipage}\hfill\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f3.eps}\hangcaption{$n_w$の変化による二次分類器の分類精度の推移(手掛り語獲得で辞書用例不使用)}\label{fig:img03}\end{minipage}\vspace{1\baselineskip}\end{figure}\begin{figure}[t]\setlength{\captionwidth}{202pt}\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f4.eps}\hangcaption{$n_{\max}$の変化による提案手法分類精度の推移(手掛り語獲得で辞書用例使用)}\label{fig:img04}\end{minipage}\hfill\begin{minipage}[t]{202pt}\includegraphics{18-3ia2f5.eps}\hangcaption{$n_w$の変化による二次分類器の分類精度の推移(手掛り語獲得で辞書用例使用)}\label{fig:img05}\end{minipage}\end{figure}続いて$5\leqn_w\leq20$,$20\leqn_w\leq35$,$35\leqn_w\leq50$,$5\leqn_w\leq50$の四つの範囲別($n_{\max}$も同様)の二次分類器・最終分類器の精度の最高値・最低値・平均値,および最頻出語義選択,一次分類器の精度を表\ref{tbl:tbl01}に示す.ここで最高値,最低値の右括弧内の値はそのときの$n_w$,$n_{\max}$を示す.最高値,最低値の$n_w$,$n_{\max}$が複数ある場合はその中で最も小さい値を示した.表\ref{tbl:tbl01}において特筆すべきはやはり最終分類器の最低値と平均値の高さである.以下全て$5\leqn_{\max}\leq50$($n_w$も同じ)の範囲について述べる.まず最低値は0.44ポイント二次分類器を上回り,一次分類器を常に1.56ポイント上回ることになる.これは二次分類器の平均値よりも高い値である.また最終分類器の平均値は一次分類器を1.69ポイント上回る.一方,最高値は二次分類器の方が最終分類器を0.44ポイント上回り,最大で一次分類器を2.24ポイント上回ることになる.しかし,最高値と最低値の差は二次分類器は1.12ポイントあるのに対し,最終分類器はわずか0.24ポイントである.よって,パラメータの調整を考えると最終分類器の方が手法として扱いやすい.\begin{table}[t]\caption{各分類器の分類精度の比較(手掛り語獲得で辞書用例不使用)}\label{tbl:tbl01}\input{02table01.txt}\end{table}最後に一次分類器の精度,$n_{\max}$が表\ref{tbl:tbl01}に示した$5\leqn_{\max}\leq50$の範囲における最高値・最低値の精度のときの値の最終分類器の精度,および$5\leqn_{\max}\leq50$の範囲での最終分類器の精度の平均値のそれぞれについて,SemEval-2日本語タスクの語義曖昧性解消対象語別に求めた結果を表\ref{tbl:tbl02}に示す.なお表\ref{tbl:tbl02}に示した最高値・最低値は$n_{\max}$を対象語別に精度が最高値・最低値になるように変化させたときの値ではないため,表\ref{tbl:tbl02}の「子供」の結果のように,最低値の精度が最高値より高い場合も存在する.また対象語右の括弧内の数字はSemEval-2における判別すべき語義の総数であり,この数字に付記された``+''はテストデータに新語義の語が含まれていたことを示す.ただし本稿では特に新語義判別を考慮した処理はしておらず,本実験での一次,二次,最終の各分類器の比較に新語義の有無は関係しない.\begin{table}[t]\caption{対象語・分類器別の分類精度の比較(手掛り語獲得で辞書用例不使用)}\label{tbl:tbl02}\input{02table02.txt}\end{table}表\ref{tbl:tbl02}において強調してある一次分類器の精度は最終分類器の平均値を上回るもの,強調してある最終分類器の平均値は一次分類器の精度を5ポイント以上上回るものを示している.まず最終分類器の平均値を上回る一次分類器の結果を見てみると,その差は最大で「始める」の3.7ポイントと比較的小さい.一方,一次分類器の結果を上回る最終分類器の結果を見てみると,最大で「教える」が14.3ポイント向上しているとわかる.対象語の語義数と精度の変化の関係を見てみると,例外的に「もの」は比較的語義数が多くて精度の向上もやや大きいが,語義数の多い語は一次分類器と比べ最終分類器の精度が落ちる傾向がある.これは,手掛り語の条件である式(\ref{eq1})の存在により,語義数が多いと有益な手掛り語の獲得が難しくなるためと考えられる.対処方法の一つとしては語義数により手掛り語の条件を変えることが考えられるが,どのように条件を変えるべきかは難しい問題である.最後に全体を見てみると,結局一次分類器と最終分類器の間に差がないものが多いことに気付く.よって提案手法は一部の単語に対し高い効果を持つ手法であるということになる.この原因としては,本手法で手掛り語として用いたのが内容語の表層形の1グラムのみと,手掛り語が素性としては非常に狭い範囲内に位置するものだったこと,そして手掛り付き事例抽出の条件が対象語前後2語以内に手掛り語を含むという厳しい制約であったことが考えられる.ここで後者の原因は手掛り付き事例抽出の条件の$n_w'=2$を可変にし,さらに多くの二次分類器を作成してアンサンブルすることで取り除ける可能性がある.一方,前者の原因は単に素性の粒度を荒くしただけでは精度が低下する恐れがある.以上を踏まえると\ref{sec:first}節にて述べたヒューリスティックは部分的に有効と言えるが,汎用性に不安が残る.\ref{sec:first}節の手法第一段階を他の段階と切り離すとすると,第二段階,第三段階に変更を加えない場合,第一段階の要件は\begin{enumerate}\item手掛り付き事例を(仮の)ラベルを付与して抽出すること\item抽出事例は第二段階の分類を助ける手掛りを持つこと\item第三段階にて二次分類器を複数作成するためのパラメータを持つこと\item要件(2)の手掛りの信頼性と要件(3)のパラメータの間に相関があること\end{enumerate}の四つである.この中で特に難しいと思われるのは要件(2)であるが,これを実現する方法の一つとしては特徴選択がある.第一段階は狭い意味での特徴選択をしているとも見ることができ,効果的な特徴選択法を利用することで上述の問題への対処,つまりより多くの単語の語義曖昧性解消を実現できる可能性がある.特徴選択を応用した語義曖昧性解消の研究の一つとしてはMihalceaによるものが挙げられる\cite{Mihalcea02}.Mihalceaは手法はSenseval-2Englishallwordstaskにおいて二位の成績から5.4ポイント引き離し最高の成績を得た実績がある.よって,Mihalceaの手法を本手法に応用することで更なる性能の向上を見込める可能性がある. \section{おわりに} \label{sec:conc}本稿では,従来のブートストラッピング法による語義曖昧性解消手法の欠点であるパラメータ調整の難しさに対処するため,パラメータ設定をほぼ不要とするブートストラッピング的半教師あり語義曖昧性解消手法を提案した.この手法は二段階の分類をラベルなしデータに適用するものであり,反復回数を一回に留めるにも関わらず充分な効果があるブートストラッピングを実現した.またラベル付きデータに追加するラベルなしデータの条件を変え,複数の分類器を作成しアンサンブル学習することで唯一のパラメータの調整も容易とする手法を確立した.本手法の改良の方針としては次の二つが考えられる.\begin{itemize}\item本手法を通常のブートストラッピング同様に訓練データの反復追加を可能にし,性能が向上するように拡張する.\item\ref{sec:first}節にて述べたヒューリスティックによる分類をより多くの語の語義曖昧性解消に有効な汎用的手法に改良する.\end{itemize}これらはいずれも重要度の高い課題であり,並行して取り組むべき課題であると言える.また,提案した手法は語義曖昧性解消に特化しているが,\ref{sec:second}節と\ref{sec:third}節で述べたような半教師ありのアンサンブル学習の枠組みを異なる問題に適用することも興味深い課題である.最後に,実現可能性は未知数だが本手法の発展の可能性として,語義曖昧性解消のような分類問題において機械学習を用い人間にとって理解しやすい規則を獲得できるようになれば面白いのではないかと筆者は考えている.これは本稿にて提示したヒューリスティックに基づいた手法そのものを訓練事例とみなし,機械が自動でこの訓練事例に類似し,かつ人間に理解しやすい規則を獲得するというものである.これを実現するには「理解しやすさ」という尺度を定義することから始めなければならないと思われるが,もし実現できれば,従来の機械学習において困難だった獲得した規則の解釈が容易になることが予想される.そうすれば機械学習,またはこれを応用した自然言語処理などの研究の進展が加速するのではないかと期待できる.\acknowledgment本研究に用いた評価用データセットをご準備,ご提供くださいましたSemEval-2日本語タスクの運営の皆様,ならび本稿のために有益なコメントをお寄せくださいました査読者の皆様に深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{2004}]{Abney04}Abney,S.\BBOP2004\BBCP.\newblock\BBOQUnderstandingtheYarowskyalgorithm.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(3),\mbox{\BPGS\365--395}.\bibitem[\protect\BCAY{Agirre,Mart{\'i}nez,de~Lacalle,\BBA\Soroa}{Agirreet~al.}{2006}]{Agirre06}Agirre,E.,Mart{\'i}nez,D.,de~Lacalle,O.~L.,\BBA\Soroa,A.\BBOP2006\BBCP.\newblock\BBOQTwoGraph-BasedAlgorithmsforState-of-the-artWSD.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\585--593}.\bibitem[\protect\BCAY{Banerjee\BBA\Pedersen}{Banerjee\BBA\Pedersen}{2003}]{Banerjee03}Banerjee,S.\BBACOMMA\\BBA\Pedersen,T.\BBOP2003\BBCP.\newblock\BBOQExtendedGlossOverlapsasaMeasureofSemanticRelatedness.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalJointConferenceonArtificialIntelligence(IJCAI)},\mbox{\BPGS\805--810}.\bibitem[\protect\BCAY{Blum\BBA\Mitchell}{Blum\BBA\Mitchell}{1998}]{Blum98}Blum,A.\BBACOMMA\\BBA\Mitchell,T.\BBOP1998\BBCP.\newblock\BBOQCombiningLabeledandUnlabeledDatawithCo-Training.\BBCQ\\newblockIn{\BemCOLT:ProceedingsoftheWorkshoponComputationalLearningTheory},\mbox{\BPGS\92--100}.\bibitem[\protect\BCAY{Brody,Navigli,\BBA\Lapata}{Brodyet~al.}{2006}]{Brody06}Brody,S.,Navigli,R.,\BBA\Lapata,M.\BBOP2006\BBCP.\newblock\BBOQEnsembleMethodsforUnsupervisedWSD.\BBCQ\\newblockIn{\BemProceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguisticsjointwiththe21stInternationalConferenceonComputationalLinguistics(COLING-ACL)},\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{Curran,Murphy,\BBA\Scholz}{Curranet~al.}{2007}]{Curran07}Curran,J.~R.,Murphy,T.,\BBA\Scholz,B.\BBOP2007\BBCP.\newblock\BBOQMinimisingSemanticDriftwithMutualExclusionBootstrapping.\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\172--180}.\bibitem[\protect\BCAY{Edmonds\BBA\Cotton}{Edmonds\BBA\Cotton}{2001}]{Edmonds01}Edmonds,P.\BBACOMMA\\BBA\Cotton,S.\BBOP2001\BBCP.\newblock\BBOQSENSEVAL-2:Overview.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponEvaluatingWordSenseDisambiguationSystems(Senseval-2)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Escudero,M{\`a}rquez,\BBA\Rigau}{Escuderoet~al.}{2000}]{Escudero00}Escudero,G.,M{\`a}rquez,L.,\BBA\Rigau,G.\BBOP2000\BBCP.\newblock\BBOQBoostingAppliedtoWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe11thEuropeanConferenceonMachineLearning(ECML)},\mbox{\BPGS\129--141}.\bibitem[\protect\BCAY{Florian,Cucerzan,Schafer,\BBA\Yarowsky}{Florianet~al.}{2002}]{Florian02}Florian,R.,Cucerzan,S.,Schafer,C.,\BBA\Yarowsky,D.\BBOP2002\BBCP.\newblock\BBOQCombiningclassifiersforwordsensedisambiguation.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf8}(4),\mbox{\BPGS\327--431}.\bibitem[\protect\BCAY{Fujita,Duh,Taira,\BBA\Shindo}{Fujitaet~al.}{2010}]{Fujita10}Fujita,S.,Duh,K.,Taira,H.,\BBA\Shindo,H.\BBOP2010\BBCP.\newblock\BBOQMSS:InvestigatingtheEffectivenessofDomainCombinationsandTopicFeaturesforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)},\mbox{\BPGS\383--386}.\bibitem[\protect\BCAY{Galley\BBA\McKeown}{Galley\BBA\McKeown}{2003}]{Galley03}Galley,M.\BBACOMMA\\BBA\McKeown,K.\BBOP2003\BBCP.\newblock\BBOQImprovingWordSenseDisambiguationinLexicalChaining.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalJointConferenceonArtificialIntelligence(IJCAI)},\mbox{\BPGS\1486--1488}.\bibitem[\protect\BCAY{Joachims}{Joachims}{2003}]{Joachims03}Joachims,T.\BBOP2003\BBCP.\newblock\BBOQTransductiveLearningviaSpectralGraphPartitioning.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonMachineLearning(ICML)},\mbox{\BPGS\290--297}.\bibitem[\protect\BCAY{Klein,Toutanova,Ilhan,Kamvar,\BBA\Manning}{Kleinet~al.}{2002}]{Klein02}Klein,D.,Toutanova,K.,Ilhan,H.~T.,Kamvar,S.~D.,\BBA\Manning,C.~D.\BBOP2002\BBCP.\newblock\BBOQCombiningHeterogeneousClassifiersforWord-SenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsoftheACLworkshoponWordSenseDisambiguation:RecentSuccessesandFutureDirections},\mbox{\BPGS\74--80}.\bibitem[\protect\BCAY{小町\JBA工藤\JBA新保\JBA松本}{小町\Jetal}{2010}]{Komachi10}小町守\JBA工藤拓\JBA新保仁\JBA松本裕治\BBOP2010\BBCP.\newblockEspresso型ブートストラッピング法における意味ドリフトのグラフ理論に基づく分析:語義曖昧性解消における評価.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\233--242}.\bibitem[\protect\BCAY{Le,Shimazu,Huynh,\BBA\Nguyen}{Leet~al.}{2008}]{Le08}Le,A.-C.,Shimazu,A.,Huynh,V.-N.,\BBA\Nguyen,L.-M.\BBOP2008\BBCP.\newblock\BBOQSemi-supervisedlearningintegratedwithclassifiercombinationforwordsensedisambiguation.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf22}(4),\mbox{\BPGS\330--345}.\bibitem[\protect\BCAY{Liu\BBA\Nocedal}{Liu\BBA\Nocedal}{1989}]{Liu89}Liu,D.~C.\BBACOMMA\\BBA\Nocedal,J.\BBOP1989\BBCP.\newblock\BBOQOnthelimitedmemoryBFGSmethodforlargescaleoptimization.\BBCQ\\newblock{\BemMathematicalprogramming},{\Bbf45},\mbox{\BPGS\503--528}.\bibitem[\protect\BCAY{M{\`a}rquez,Escudero,Mart{\'i}nez,\BBA\Rigau}{M{\`a}rquezet~al.}{2004}]{Marquez04}M{\`a}rquez,L.,Escudero,G.,Mart{\'i}nez,D.,\BBA\Rigau,G.\BBOP2004\BBCP.\newblock\BBOQSupervisedCorpus-BasedMethodsforWSD.\BBCQ\\newblockInAgirre,E.\BBACOMMA\\BBA\Edmonds,P.\BEDS,{\BemWordSenseDisambiguation:AlgorithmsandApplications},\mbox{\BPGS\167--216}.Springer.\bibitem[\protect\BCAY{McCarthy,Koeling,Weeds,\BBA\Carroll}{McCarthyet~al.}{2004}]{McCarthy04}McCarthy,D.,Koeling,R.,Weeds,J.,\BBA\Carroll,J.\BBOP2004\BBCP.\newblock\BBOQFindingPredominantWordSensesinUntaggedText.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\280--287}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2002}]{Mihalcea02}Mihalcea,R.\BBOP2002\BBCP.\newblock\BBOQWordsensedisambiguationwithpatternlearningandautomaticfeatureselection.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf8}(4),\mbox{\BPGS\343--358}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2004}]{Mihalcea04a}Mihalcea,R.\BBOP2004\BBCP.\newblock\BBOQCo-trainingandSelf-trainingforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe8thConferenceonComputationalNaturalLanguageLearning(CoNLL)},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{Mihalcea\BBA\Edmonds}{Mihalcea\BBA\Edmonds}{2004}]{Mihalcea04b}Mihalcea,R.\BBACOMMA\\BBA\Edmonds,P.\BEDS\\BBOP2004\BBCP.\newblock{\BemProceedingsofthe3rdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText(Senseval-3)}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2009}]{Navigli09}Navigli,R.\BBOP2009\BBCP.\newblock\BBOQWordsensedisambiguation:Asurvey.\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf41}(2),\mbox{\BPGS\1--69}.\bibitem[\protect\BCAY{Navigli\BBA\Velardi}{Navigli\BBA\Velardi}{2005}]{Navigli05}Navigli,R.\BBACOMMA\\BBA\Velardi,P.\BBOP2005\BBCP.\newblock\BBOQStructuralsemanticinterconnections:Aknowledge-basedapproachtowordsensedisambiguation.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence},{\Bbf27}(7),\mbox{\BPGS\1075--1088}.\bibitem[\protect\BCAY{Nigam\BBA\Ghani}{Nigam\BBA\Ghani}{2000}]{Nigam00b}Nigam,K.\BBACOMMA\\BBA\Ghani,R.\BBOP2000\BBCP.\newblock\BBOQAnalyzingtheEffectivenessandApplicabilityofCotraining.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\86--93}.\bibitem[\protect\BCAY{Nigam,Laerty,\BBA\McCallum}{Nigamet~al.}{1999}]{Nigam00a}Nigam,K.,Laerty,J.,\BBA\McCallum,A.\BBOP1999\BBCP.\newblock\BBOQUsingMaximumEntropyforTextClassication.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-99WorkshoponMachineLearningforInformationFiltering},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{Nishio94}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典第五版}.\newblock岩波書店.\bibitem[\protect\BCAY{Niu,Ji,\BBA\Tan}{Niuet~al.}{2005}]{Niu05}Niu,Z.-Y.,Ji,D.-H.,\BBA\Tan,C.~L.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationUsingLabelPropagationBasedSemi-SupervisedLearning.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\395--402}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{Okumura10}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{Pantel06}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pedersen}{Pedersen}{2000}]{Pedersen00}Pedersen,T.\BBOP2000\BBCP.\newblock\BBOQASimpleApproachtoBuildingEnsemblesofNaiveBayesianClassifiersforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe1stAnnualMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Pham,Ng,\BBA\Lee}{Phamet~al.}{2005}]{Pham05}Pham,T.~P.,Ng,H.~T.,\BBA\Lee,W.~S.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithSemi-SupervisedLearning.\BBCQ\\newblockIn{\BemProceedingsofthe20thNationalConferenceonArtificialIntelligence(AAAI)},\mbox{\BPGS\1093--1098}.\bibitem[\protect\BCAY{新納}{新納}{2001}]{Shinnou01a}新納浩幸\BBOP2001\BBCP.\newblock素性間の共起性を検査するCo-trainingによる語義判別規則の学習.\\newblock\Jem{情報処理学会自然言語処理研究会NL-145-5},\mbox{\BPGS\29--36}.\bibitem[\protect\BCAY{鶴岡\JBA近山}{鶴岡\JBA近山}{2002}]{Tsuruoka02}鶴岡慶雅\JBA近山隆\BBOP2002\BBCP.\newblockベイズ統計の手法を利用した決定リストのルール信頼度推定法.\\newblock\Jem{自然言語処理},{\Bbf9}(3),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockJohnWileyandSons.\bibitem[\protect\BCAY{V{\'e}ronis}{V{\'e}ronis}{2004}]{Veronis04}V{\'e}ronis,J.\BBOP2004\BBCP.\newblock\BBOQHyperLex:Lexicalcartographyforinformationretrieval.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf18}(3),\mbox{\BPGS\223--252}.\bibitem[\protect\BCAY{Wang\BBA\Matsumoto}{Wang\BBA\Matsumoto}{2004}]{Wang04}Wang,X.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQTrajectoryBasedWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe20thinternationalconferenceonComputationalLinguistics},\mbox{\BPGS\903--909}.\bibitem[\protect\BCAY{八木\JBA野呂\JBA白井\JBA徳永\JBA田中}{八木\Jetal}{2001}]{Yagi01}八木豊\JBA野呂智哉\JBA白井清昭\JBA徳永健伸\JBA田中穂積\BBOP2001\BBCP.\newblock決定リストを用いた語義曖昧性解消.\\newblock\Jem{電子情報通信学会言語とコミュニケーション研究会NLC2001-42},\mbox{\BPGS\47--52}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky95}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{Zhou\BBA\Li}{Zhou\BBA\Li}{2005}]{Zhou05}Zhou,Z.-H.\BBACOMMA\\BBA\Li,M.\BBOP2005\BBCP.\newblock\BBOQTri-training:ExploitingUnlabeledDatausingThreeClassifiers.\BBCQ\\newblock{\BemIEEETransactionsonKnowledgeandDataEngineering},{\Bbf17}(11),\mbox{\BPGS\1529--1541}.\bibitem[\protect\BCAY{Zhu\BBA\Ghahramani}{Zhu\BBA\Ghahramani}{2002}]{Zhu02}Zhu,X.\BBACOMMA\\BBA\Ghahramani,Z.\BBOP2002\BBCP.\newblock\BBOQLearningfromLabeledandUnlabeledDatawithLabelPropagation.\BBCQ\\newblock\BTR,CMUCALDtechreportCMU.CALD.02.107.\end{thebibliography}\begin{biography}\bioauthor{井上裁都}{2009年慶應義塾大学理工学部情報工学科卒業.2011年同大学院修士課程修了.修士(工学).}\bioauthor{斎藤博昭}{慶應義塾大学理工学部情報工学科准教授.工学博士.}\end{biography}\biodate\end{document}
V18N04-01
\section{はじめに} \subsection{背景と目的}我々が記述や発話によって伝える情報は客観的な事柄のみではない.事柄が真なのか偽なのか,事柄が望ましいか望ましくないか,といった心的態度も併せて伝達する.言語学,日本語学にはこのような心的態度に対応する概念として「モダリティ」または「様相」と呼ばれるものが存在する.モダリティは,文を構成する主要な要素として規定されている概念である.モダリティ論では「文は,客観的な事柄内容である『命題』と話し手の発話時現在の心的態度(命題に対する捉え方や伝達態度)である『モダリティ』からな」るという規定が多くの学者に受け入れられてきた\cite{Book_01}\footnote{以後,修飾語句なしに「心的態度」と記述するときは書き手の発話時現在の命題に対する捉え方や伝達態度のことを指す.}.そして,活用形と「べき(だ)」「だろう」「か」といった助動詞や終助詞および,それらの相当語句がモダリティに属する文法形式とされている.これらの文法形式はコーパスに心的態度の情報をアノテーションする上で有効な指標になると考えられる.ただし,前述の文法形式をアノテーションするだけでは心的態度を網羅することはできない.「ことを確信している」「と非常に良さそうだ」等,文法形式以外にも心的態度を表す表現は存在する.そのことは心的態度のアノテーションを目的とする既存研究で指摘されており,それらの研究では「拡張モダリティ」\cite{Article_01}「確実性判断」\cite{Article_02}といった文法形式以外も含む新たな概念が提案されている.しかし,このように対象を拡張すると,モダリティの持つアノテーションに有利な特徴が失われてしまう.モダリティであれば,文ごとに特定の文法形式の有無を目安にしてアノテーションの判定をすればよい.対して,拡張モダリティや確実性判断にはこのような明確な判断基準がない.よって,作業者によって基準がぶれてアノテーションが安定しない可能性がある.これに対し本論文では,「階層意味論」で規定される「モダリティ」の概念を用いることで,母語話者の判断による一貫したアノテーションが可能であると考える.階層意味論とは,言語普遍的な意味構造を規定する意味論上の概念であり,この意味構造によって従来の文法論では解釈が困難な複数の言語現象に自然な解釈を与えることができる.この階層意味論で規定される「モダリティ」は文法論上の概念ではない.拡張モダリティや確実性判断と同じく文法形式ではない心的態度も対象とするため,心的態度の網羅という目的に適う概念といえる.ただし,階層意味論の研究は主に英語の事例を扱っており,日本語の事例研究は限定的である.そのため日本語における普遍性が実証的に確かめられているとは言い難い.そこで,4名の母語話者に新聞の社説記事から「モダリティ」を読み取ってもらう調査を行い,母語話者間での回答の一致度を見る.本論文では「階層意味論の『モダリティ』が普遍性のある概念であれば母語話者間で『モダリティ』に対する認識の仕方に違いは出ない」という前提のもと,母語話者間の一致度を通して普遍性を評価する.以下,2節で,自然言語処理,言語学,日本語学それぞれにおける「モダリティ」の扱いを概観し,その違いが心的態度のアノテーションに及ぼし得る問題点を論じる.次に3節で,本論文で検討する階層意味論について説明する.そして4節で,日本語の母語話者を対象に,新聞の社説記事から階層意味論に基づき規定された心的態度を読み取ってもらう調査を行い,その判断に対する母語話者間の一致度を示すとともに不一致を引き起こす要因について論じる.最後に,5節でまとめと今後の課題について述べる.\vspace{-0.5\baselineskip}\subsection{用語に関する注意事項}「文」「命題」「モダリティ」といった用語は,特定の言語形式を指す場合と,その形式で表現される意味内容を指す場合とがある.文法論,意味論と自然言語処理との間で横断的な議論を行う場合は,どちらの用法で用いているのか明記しないと混乱を招く恐れがある.そこで,本論文における各用語の便宜的な用法をここで示す.まず,文については「書き言葉において句点\footnote{文体によっては改行や句点以外の記号で代用されることもある.}で区切られる統語上の言語単位」を指すことにする.話し言葉は本論文では取り上げない.次に,モダリティは「文法論でモダリティとして扱われている表現の集合\footnote{この集合を厳密に定義する既存研究はないが,日本語のモダリティについては,日本語学でモダリティを体系的に論じた書籍である宮崎他(2002)と日本語記述文法研究会(2003)のいずれかでモダリティとして扱われているかどうかを基準とする.}」を指すことにする.文法論では「モダリティ」が文法形式を指す場合とその機能を指す場合とがあるが,本論文ではもっぱら前者として用いる.この規定は心的態度とモダリティを明確に区別することを意図している.本論文では,心的態度はアノテーションすべき対象なのに対し,モダリティはあくまでアノテーションの目安となる統語上の特徴の1つということになる.そして,命題は「補足語+述語」\inhibitglue\footnote{述語とは「動詞,形容詞,形容動詞または『名詞+助動詞「だ」』(+ヴォイス)(+テンス)(+アスペクト)」を指す.},「補足語+述語+形式名詞」および「補足語+述語+形式名詞」に言い換え可能な「(連体修飾語+)名詞」を指す\footnote{形式名詞の規定は\cite{Book_25}に従う.}.例えば「彼が渋谷まで買い物に行った」「A銀行の破たん」といった表現が挙げられる\footnote{名詞の言い換えは文脈に依存するため,ここで「A銀行の破たん」の言い換えを一意に定めることはできないが,文脈さえ定まれば母語話者は困難なく言い換えることができると考える.具体的には4.2の手順2で論ずる.}.ただし,階層意味論で「命題」や「モダリティ」と呼ばれているものは意味構造を記述するための概念であり,ここで述べた用法とは異なる.そこで「命題’」「モダリティ’」と,「’」をつけて区別する. \section{自然言語処理とモダリティ論との相違点} \subsection{自然言語処理でのモダリティと心的態度}自然言語処理の分野では,拡張モダリティや確実性判断の概念が出てくる前から,大規模コーパスに対しモダリティのアノテーションが行われてきた.英語コーパスに品詞と統語構造の情報を付与したPennTreebank\cite{Article_03}では,品詞のタグにModalVerbというカテゴリを設け,法助動詞に対しそのタグを付与している\cite{Inproc_03}.また,日本語の京都大学テキストコーパス\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}では,形態素,構文タグとは別にメモ書きとしてモダリティのタグが存在する.ただし,タグの対象となっている表現は「こと」「もの」「ところ」「わけ(だ)」「ほど(だ)」という形式名詞を含む表現が述語に後接しているものに限られる.そのことから,実質,形式名詞が助動詞に近い働きをしていることを示すタグとなっている.このように既存の大規模コーパスにはモダリティタグが存在するが,これらのモダリティタグは文法形式に限定されており心的態度を網羅するものではない.1節で述べたように,心的態度を網羅することを目的とした研究では拡張モダリティや確実性判断といった新たな概念が提示されている.拡張モダリティでは,「てほしい」に言い換え可能な表現を文法形式かどうかに関わらず全て対象としている\cite{Article_01}.また確実性判断では,命題に対する書き手,話し手の確信度の度合いを読み取るための指標として,モダリティのみならず叙実述語や仮定表現も対象としている\cite{Article_02}.さらに,モダリティ論によるモダリティの細分類に基づいて心的態度のカテゴリを定め,それらを「拡張モダリティ」と呼んでアノテーションする研究も存在する\cite{Inproc_04}.モダリティ論を参考にはしているが,こちらの「拡張モダリティ」でも文法形式に限定せずにアノテーションを行っている.以上,既存の大規模コーパスにモダリティタグがある一方で,心的態度を解析するために新たなアプローチでのアノテーションが行われているのが現状と言えよう.\subsection{言語学,日本語学のモダリティ論}現在の言語学,特に文法論におけるモダリティは,文を構成する要素のうち命題とは異質なものを命題と区別するための概念であり,心的態度または``speaker(orwriter)'sattitude''という規定はモダリティが持つべき前提条件というわけではない.ただし,日本語学では90年代まで心的態度という規定が基本的な位置付けにあったのも事実である.その背景には,日本語学のモダリティ論が一般言語学とは異なる独自の発展をしたことがある.以下,モダリティ論が形成された経緯を日本語学を中心に概観する.一般言語学で文が命題とモダリティからなるという規定が広まったのは,Fillmoreが示した``$sentence\rightarrowproposition+modality$''というモデル\cite{Inbook_01}の影響が大きいと思われる.ただし,Fillmore自身は``modality''に高い関心はなく,文からテンス,アスペクト,ムードを分離した上で命題のみに対象を絞って議論するためにこのようなモデルを提示している.そのため,``modality''の詳細については論じておらず,テンス,アスペクトを含む雑多なものと見なしている.一方,Fillmoreのモデルを採用しつつモダリティの方に焦点を当てる研究も行われてきた.それらの研究の関心は,主に英語の法助動詞や法助動詞に類する他言語の文法形式にある.それらの研究では認識(epistemic),当為(deontic)といったモダリティの細分類を規定し,その分類に基づいて文法形式の機能を整理している(例えばPalmer1986,2001).この傾向は日本語学でも同様で,モダリティの細分類を通して1節で挙げた助動詞,終助詞といった文法形式の特徴を論じている(例えば益岡1991).ただし,日本語学のモダリティ論の場合,陳述論の影響により文の成立要件に関する論考も展開しているという特徴がある.陳述論とは,言語表現が文として成立するために必要な機能を山田孝雄が「陳述」と呼んだことに端を発する.そして,時枝誠記,渡辺実へと引き継がれた議論がモダリティ論に影響を与えたとされている\cite{Book_06}.以下,時枝以降の論考の流れを簡単に述べる.時枝は,文の構造を記述するモデルとして客体的な内容である「詞」を主体的な作用である「辞」が包むという入れ子構造を提案している\cite{Book_19}.詞に属する表現には「山」「運動会」などの名詞や「彼が買い物へ行く」「本が安い」などの命題が,辞に属する表現には「(山)が」「(安い)よ」などの助詞全般や「だろう」などの助動詞といった機能語が挙げられる.その上で,助動詞,終助詞などの「文末辞」が陳述の役割を果たし,述語とその補足語で構成される詞を包むことで文が成立するという考えを示している.それに対し渡辺は,詞と辞の入れ子構造だけでは文の成立条件を適切に記述できないことを指摘している\cite{Book_23,Book_18}.例えば「命題+助動詞」という構造は,時枝のモデルでは助動詞が辞として陳述の働きをすると解釈される.しかし,実際には文だけではなく従属節も同様の構造を持ち得る.陳述の機能を助動詞に求めている限り,文と従属節との違いを解釈することはできない.そこで,渡辺は辞の概念を見直し,事柄を描き上げる機能を「叙述」と呼んで文を完結させる機能の陳述と区別している.そして,これらの陳述論は日本語文が統語的な階層構造を持つという主張へと展開する.渡辺は,助動詞や終助詞の相互承接には規則性があり,叙述の機能を持つものが前,陳述の機能を持つものが後ろに来ると述べている.また南不二夫は,渡辺を含めた語順に関する研究を総括し,4段階の階層構造にまとめている\cite{Book_20,Book_10}.南によると,この階層性は主観性という指標で捉える事ができる.具体的には,述語に近い位置に現れる表現は客観的,遠い位置の表現は主観的という傾向があるとしている.助動詞,終助詞で見ると,「れる」「ない」「た」などは客観的表現,「だろう」「か」などは主観的表現に分類される.以上,Fillmoreのモデルおよび日本語学の陳述論と階層構造について概観した.日本語のモダリティ論で提示されている文構造のモデルは詞と辞の概念や南の階層構造と類似している.実際,モダリティとして扱われる文法形式の多くは,辞や陳述,主観的表現として扱われる文法形式と一致する.一般言語学では必ずしも重視されてこなかった心的態度という規定も,日本語学では陳述論の流れを引き継ぐことで長く受け入れられたものと考えられる.\subsection{モダリティと心的態度との関連性}モダリティ論では前述の通り文法形式を対象とする研究が主流である.一方,心的態度は文法形式に限らず様々な言語表現によって表現され得る.このことから,心的態度という概念をモダリティの規定として採用すべきではないという主張がされている\cite{Book_06,Article_04}.この問題を回避するためのアプローチは大きく2つ存在する.ひとつは一般言語学,日本語学の両方で見られるもので,心的態度という規定自体を見直すというものである.心的態度の代わりに採用される規定の代表的なものとしては,非現実(irrealis)\footnote{irrealisは伝統的にはunrealを指す概念であり非現実と訳されるのが一般的なため本論文でも非現実と訳すが,non-assertiveに近い概念と考える研究者もおり\cite{Book_07},検討の余地が残る.}が挙げられる\cite{Book_07,Book_06,Article_04}.例えば,「昨今の学生は勤勉だ。」と記述した場合,書き手は「昨今の学生が勤勉である」ことを真だと断言しているが,「昨今の学生は勤勉かもしれない。」や「昨今の学生は勤勉でなければいけない。」では,「学生が勤勉である」ことを断言しているとは言い切れない.「昨今の学生は勤勉かもしれないが,そうでないかもしれない。」「昨今の学生は勤勉ではないが,勤勉でなければならない。」といった言明が可能なことがそれを裏付けている.このように,「かもしれない」「なければならない」といったモダリティの文法形式は非現実と対応した表現であるといえる.この非現実の規定を採用すると,例えば日本語の場合,感嘆詞,間投詞,係助詞,敬語に関わる表現などがモダリティに含まれないことが明確となり,対象を大幅に絞り込むことができるため,心的態度の規定と比べ形式上の雑多さは大幅に解消される.もうひとつは日本語学で見られるもので,心的態度という意味論上の規定だけではなく統語論上の条件も規定に加えるというものである.例えば,心的態度を表す複合形式をモダリティと見なす基準として文法化しているかどうかを挙げる研究が存在する\cite{Article_05}.また,モダリティの基本的性格として主観性を挙げた代表的な研究者の1人である益岡隆志は,これまでのモダリティ論では主観的な表現が全てモダリティであるかのような誤解を招いているとした上で,モダリティかどうかの判断には文構成における位置付けも考慮する必要があると指摘している\cite{Book_08}.以上,あくまで形式と意味との相関を明らかにすることが主眼の言語学,日本語学では,形式との高い相関が見出せない場合は規定自体を見直すということが行われる.規定が文法形式を定めるという一方的な関係ではなく,図1のように適切な関係性が得られるよう規定と形式が相互に影響し合う関係だといえよう.\begin{figure}[t]\begin{center}\includegraphics{18-4ia911f1.eps}\end{center}\caption{言語学,日本語学における規定と形式との相互依存関係}\label{fig:one}\end{figure}\subsection{2つの相違点}以上,自然言語処理とモダリティ論それぞれにおけるモダリティと心的態度に対する態度を見てきた.心的態度のアノテーションを考える上で考慮すべき相違点を整理すると次の2点を挙げることができる.\begin{itemize}\item自然言語処理では命題を解析単位としているのに対し,モダリティ論,特に日本語学のモダリティ論では文が主な考察単位となる.\item心的態度は,自然言語処理ではアノテーションすべき対象であるのに対し,モダリティ論では形式との相関を見る中で放棄され得る規定である.\end{itemize}自然言語処理の応用研究のうち,拡張モダリティなどの新たな概念を立ててそのアノテーションを試みている研究は,命題で表される事柄に対する書き手,話し手の真偽判断や価値判断の情報を特定することを目的としている.そのため,アノテーションの単位は命題となる.近年,盛んに行われている医学,生物学系テキストに対する確実性判断のアノテーションでも,当初は文がアノテーションの単位だったが\cite{Inproc_01},その後,心的態度を表す表現とそのスコープとなる命題へのアノテーションが提案されている\cite{Inproc_02}.対して,モダリティ論では原則,Fillmoreのモデルに象徴されるように文が分析単位となる.特に日本語学のモダリティ論は,陳述論の影響により文のあり方を論じるという文脈で語られることが多い.加えて,日本語の従属節にはモダリティとされる文法形式の出現に制限があるため\cite{Book_10},文以外の単位はそもそも議論の対象になりにくい.この結果,心的態度を表すにもかかわらずモダリティ論では取り上げられない表現が数多く出てくる.例えば,「主観述語」\cite{Article_06}や``mentalstatepredicates''\cite{Book_11}と呼ばれる心的態度を表す用言が挙げられる.以下に例を示す.\begin{enumerate}\item今回の洪水で予想以上の被害を受けたのは\underline{事実だ}。\item東京での開催が決定したことを\underline{歓迎する}。\item予定通りに到着することが\underline{望ましい}。\end{enumerate}その他にも前提,仮定,反実仮想,目的など従属節の種類に対応する心的態度もモダリティとは見なされない.加えて,2.3で見たように,モダリティ論には心的態度という規定自体が適切ではないという意見もある.実際,モダリティ論で提示されている法則や傾向が,心的態度と形式との普遍的な関係を表すものとは限らない.例えば,力動的モダリティ(dynamicmodality)と呼ばれる可能性や能力,性向を表すカテゴリ\cite{Book_07,Book_12}は心的態度の範疇に入るとは考え難い.英語のcanやmayなどは力動的モダリティとして機能することもあるため\cite{Book_12},「英語の法助動詞は心的態度を表す」という一般化は成り立たないことになる.以上のことから,拡張モダリティ,確実性判断といった概念とモダリティとでは,対象となる表現の範囲が異なるというだけではなく,分析単位および概念自体に相違点があるといえる. \section{階層意味論に基づく心的態度の規定} \subsection{階層意味論の概要}前節で論じた自然言語処理とモダリティ論との相違点は,モダリティ論の成果をアノテーションに応用することや,アノテーションの結果をモダリティ論によって評価する上での障害となる.ただし,モダリティ論には,数は少ないながらも意味論の立場から「モダリティ」(以後,1.2で述べたように「モダリティ’」と記述する)を論じている研究がある.意味論であれば議論の対象が文法形式に限定されるという制約は生じない.その中でも,階層意味論\cite{Book_13}は「話し手(本論文では書き手)の発話時点での心的態度」を典型的なモダリティ’の厳密な定義としている.階層意味論での命題’も同様に,述語と補足語そのものではなく述語と補足語によって表現可能な意味全般(以後,「事柄」と呼ぶ)となる.そこで本論文では,階層意味論で規定されるモダリティ’に着目し,心的態度をアノテーションする基準にモダリティ’の細分類を用いることを検討する.以下,この節では階層意味論について説明する.中右は,文が命題’とモダリティ’との対立を軸とした一定普遍の意味構造を持つという階層意味論モデルを提唱している(図2).図2は,自然言語において枝分かれの左側の要素を出力するには右側の要素が必須であることを示している.このモデルに従うと,自然言語で談話モダリティ’を表現するときは必ず構文意味を伴い,文内モダリティ’を表現するときは必ず全体命題’を伴う.そして,発話意味は談話モダリティと構文意味から構成され,構文意味は文内モダリティ’と全体命題’から構成されるということも表している.なお,図2のモデルは2節で言及したモダリティ論の階層性\cite{Book_01,Book_04}とは明確に区別する必要がある.モダリティ論の階層性は文法形式の統語的な特徴,言い換えると語順に関する記述である.一方,階層意味論モデルは特定の言語の文法に捉われない普遍的な意味構造を記述するもので,本質的に異なるモデルと言えよう\footnote{\cite{Book_01}では,階層意味論モデルが仁田や益岡の想定する意味構造と同様であると論じている.しかし,仁田や益岡のモデルはあくまでも日本語の文法を記述することが目的である.言語普遍的な特徴も視野に入れているとはいえ,細分類の典型例が必ず文法形式によって与えられる点で階層意味論モデルとは大きく異なる.本稿では,文法論の立場から記述される階層性と階層意味論モデルは明確に区別されるべきだと考える.}.\begin{figure}[t]\begin{center}\includegraphics{18-4ia911f2.eps}\end{center}\caption{階層意味論モデル(中右のモデルから一部抜粋)}\label{fig:two}\end{figure}\subsection{階層意味論と本論文との違い}本論文では心的態度のアノテーション方法を原則,中右の階層意味論に基づいて定めるが,次の2点は階層意味論と異なる.\begin{itemize}\item対象を文ではなく事柄(命題’)とする.\item瞬間的現在と持続的現在とを区別せず,発話時点であれば典型的と考える.\end{itemize}中右は文論の立場から階層意味論を論じており,観察している事例は文に限定されている.それに対し本論文では,コーパス内に現れる全ての事柄に対する心的態度を明らかにするためにアノテーションは事柄単位で行う\footnote{中右は統語上の文しかM(S)を表し得ないと述べているが,本論文での「文」は中右の言う「典型的な文」に対応する.中右の用法に従うと,文論は「典型的な文を扱うもの」,本論文のアプローチは「典型的ではない文まで対象に含めるもの」ということになる.}.次に,中右はIthinkを瞬間的現在,Iamthinkingを持続的現在とみなし,同じ心的態度でも前者の方がモダリティ’として典型的だとしているが,この区別は用言以外で表されている心的態度には適用が難しい.そこで本研究では,心的態度が発話時点のものであれば瞬間的かどうかに関わらず典型性が高いと考える.なお,中右は(1)Johnmoved,(2)Johnagreed,(3)Johnagrees,(4)Iagreed,(5)Iagreeという5つの表現を用いて,(5)が最もモダリティとして典型性が高く,(4)から(1)へと典型性が下がっていくとしている.この段階的な典型性の中でどこまでをアノテーションすべきかは,アノテーション目的や難易度と照らし合わせて検討する必要がある.本稿では(5)に持続的現在を加えたものをアノテーションの対象とするが,今回の結果も含めデータが蓄積された後に,典型性の程度がアノテーションに与える影響を検討することが求められよう.\subsection{階層意味論に基づいた心的態度の細分類}図2にあるように,階層意味論ではモダリティ’を文内モダリティ’と談話モダリティ’とに分類している.前者は命題に対する書き手や話し手の認識を表し,後者は文をどのような形で伝えるかという書き手や話し手の発話態度や伝達様式を表す.本論文では,事柄に関する情報を取り出すという目的を踏まえ,事柄に対する心的態度である文内モダリティ’をアノテーションの対象とする.階層意味論では,事柄に対する心的態度は文内モダリティ’の細分類によって包括できると考えられている\footnote{中右(1994,p.~54)では,文内モダリティ’の細分類によって「目下のところ」包括できる見通しがあると述べられており,網羅性に確信があるわけではないことが伺える.とはいえ,文法形式の分類に用いられるモダリティの細分類とは異なり,意味論の立場から事柄に対する心的態度を網羅するよう配慮されて提示された細分類であり,高い網羅性を持つことが期待される.}.そして図2のモデルから,文章,談話中に現れる全ての命題’は,a)何もモダリティ’を伴わない,b)文内モダリティ’のみを伴う,c)文内モダリティ’と談話モダリティ’を伴う,のいずれかである.よって概念上は,事柄に対する心的態度を網羅するためには「命題’+文内モダリティ’」という組み合わせを全てアノテーションできれば十分ということになる.以下,文内モダリティ’の細分類を示す.\begin{itemize}\item真偽判断のモダリティ’(modalityoftruthjudgment)\item判断保留のモダリティ’(modalityofjudgmentwithholding)\item是非判断のモダリティ’(modalityof(dis)approval)\item価値判断のモダリティ’(modalityofvaluejudgment)\item拘束判断のモダリティ’(modalityofdeonticjudgment)\end{itemize}それでは各分類の規定を述べる.「真偽判断のモダリティ’」は,事柄の真理値について肯定的あるいは否定的に断定,推定する心的態度を指す.「判断保留のモダリティ’」は,事柄の真理値について判断を保留し中立的な立場を表明,含意する心的態度である.典型的なものとしては疑問,質問態度があるが,中右は伝聞判断もここに加えている.「是非判断のモダリティ’」は,真理値を評価しているという点は真偽判断と一緒だが,事柄が既定的(pre-established)である点が異なる.既定的とはその情報が既に談話の世界に提示済みであるということである.以上の3つは全て命題で表される事柄の真偽に対する態度であり,以下,本論文では3つをまとめて「真偽判断系」の心的態度と呼ぶ.次に「価値判断のモダリティ’」は,事柄に対する情緒的な反応や評価を指す.この心的態度は命題が叙実的(factive)であることが前提とされている.最後に「拘束判断のモダリティ’」は,事柄が指し示す未来の行為を拘束することに関する書き手,話し手の立場を表す.中右はdeonticを拘束判断と訳しているが,2節でモダリティの細分類として挙げた当為(deontic)に近い概念と言える.\subsection{階層意味論のアノテーションへの応用}以上,階層意味論の概要を見てきた.文法論によるモダリティの細分類と異なり,モダリティ’の細分類は書き手の事柄に対する発話時点での心的態度を分類するものである.そのため,アノテーションの基準として規定を大幅に変えることなく利用できることが期待される.ただし,大規模コーパスにアノテーションすることを想定すると,次の2点が問題になると思われる.この2点については,アノテーションの簡単化のために便宜的な対処を行う.\begin{itemize}\item既定的かどうかは語用論的な情報である\item未来でも叙実的でもない事柄に対する評価は価値判断にも拘束判断にも含まれない\end{itemize}前述の通り,「既定的」とは既に談話の中で取り上げられていることを指す.これは明らかに文脈,状況に依存する性質であろう.``Idoubt(that)...''や``Iadmit(that)...''のようにthat以下が既定的であることを表す表現もあるが,既定的であるときは必ずこのような表現を伴わなければならないわけではない.全く同じ表現でも既定的かどうかは文脈,状況に応じて変わり得るだろう.本論文では,語用論的な側面を考慮するとアノテーションの労力が大きくなり過ぎると考え,既定的かどうかは判断せず,真偽判断と是非判断を区別しないこととする.そして,未来の行為でも叙実的でもない事柄に対する評価はどのカテゴリにも属さないという問題もある.これについては,未来以外の事柄に対する評価は全て価値判断に属するものとして対処する. \section{アノテーションの不一致を引き起こす要因と対策} \subsection{アノテーションの一致度による階層意味論の評価}階層意味論は,語彙,統語的な特徴が十分に明らかになっていない意味論上の概念であるため,アノテーションは母語話者による判断に頼る必要がある.階層意味論では,母語話者間で共通した性質を出発点に議論するという,チョムスキーがSyntacticStructures\cite{Book_22}で提示したアプローチを採用している\cite{Book_13}.図2で示したモデルは,母語話者の普遍的な言語理解を表すものであり,階層意味論による心的態度の細分類も母語話者間で普遍的であることが期待される.普遍性が成立するのであれば,階層意味論のアノテーションは母語話者によって行われることで妥当性が保障される.ただし,階層意味論を前提とした日本語の事例研究は多くなく,普遍的という仮説が十分に実証されているとは言い難い.そこで,本論文では4名の母語話者に対してアノテーションの一致度を測る調査を行うことでモダリティ’の細分類の普遍性を評価する.一致度が高ければ,階層意味論の細分類が母語話者間で普遍的な概念であるという仮説が裏付けられ,この細分類が心的態度をアノテーションするための基準として適切と言える.対して一致度が低い場合,アノテーションの基準としてだけでなく,普遍性が求められる階層意味論の概念としても不適切ということになる.\subsection{調査概要}\begin{table}[b]\caption{調査概要}\input{01table01.txt}\end{table}では,一致度を評価するために行った調査の概要を示す.まず,被調査者,調査に用いるテキストおよび調査手順を表1に示す.被調査者は,理系,文系によって傾向に違いが生じる可能性を考慮して東京工業大学と一橋大学から5名ずつ募った\footnote{東京工業大学の社会工学科は学際領域だが,大学受験で求められる能力及び学部で学ぶ講義の内容から理系に該当すると見なして差し支えないと判断した.}.調査に用いるテキストは,文脈による結果への影響を考えると幅広い文体のテキストおよび談話が望ましいが,膨大な量のアノテーションを行うためには多くの予算と時間を要する.大規模なアノテーションの実施は階層意味論の有効性がある程度確認されて信頼できるデータが得られる目途が立ってから行うべきだと考える.今回は有効性を確認する作業の一環として,効率よく全ての細分類に対するアノテーションを得るために新聞の社説記事を用いた.社説記事は,主題に関する事実関係を記述しつつ書き手の意見を述べる構成になっているため,真偽判断系,価値判断,拘束判断の心的態度がバランスよく現れる傾向がある.かつ,文筆を仕事とする人によって書かれているため,語彙,文法上のミスが少ないことが期待できる.それでは,調査手順の詳細を説明する.\begin{description}\item[手順1]\gt調査者が社説記事から,次のいずれかの条件を満たすものを命題として全て取りだす.\begin{itemize}\item必須格を伴っている動詞,形容詞,形容動詞,名詞+助動詞「だ」\item必須格を伴っている動詞,形容詞,形容動詞,名詞+助動詞「だ」に書き換え可能な名詞(書き換え可能かどうかは調査者が判断)\end{itemize}\end{description}手順1で取り出される命題の形式は,主節と従属節,名詞の3種類である.そのうち従属節は,大きく副詞節,名詞節と連体節に分けることができる.以下にそれぞれの例を示す\footnote{今後このように例文を示す際,下線部は全て着目している命題を表す.}.\begin{enumerate}\setcounter{enumi}{3}\item\underline{銀行が腐った資産を抱えたまま}では、貸し出し機能が正常化しないためである。(2009/3/30毎日新聞)\item\underline{パチンコ店などの風俗営業法が適用される施設は、禁煙か分煙にする}ことが努力義務となった。(2009/3/30朝日新聞)\item\underline{膨大な準備が必要となる}大学側の「評価疲れ」が指摘される。(2009/3/31読売新聞)\end{enumerate}ここで,主節,従属節,名詞の全てのタイプの命題を含む(6)を用いて手順1の具体例を示す.この文から取り出される命題は\begin{itemize}\item膨大な準備\item膨大な準備が必要となる\item評価疲れ\item膨大な準備が必要となる大学側の「評価疲れ」が指摘される\end{itemize}の4つとなる.\begin{figure}[t]\begin{center}\includegraphics{18-4ia911f3.eps}\end{center}\caption{回答画面}\label{fig:three}\end{figure}\begin{description}\item[手順2]\gt取り出した表現を調査者が人手で文の形に書き直す.書き直した文は,手順3において原文とともに図3のような形で被調査者に提示する.書き直す手順は\begin{enumerate}\item[1.]命題が名詞の場合は必須格と述語の形に書き直す.\item[2.]テンス,アスペクトがない場合はそれらを補ってモダリティの文法形式と接続助詞を取り除いた上で終止形とする.\item[3.]省略されている必須格を補う.ただし,テキスト内で明示されておらず,かつ補わなくても文として理解できる必須格は補わない.この作業は原文に対しても行う.\end{enumerate}\end{description}ここで命題が名詞の例を以下に示す.名詞を命題(補足語+述語+形式名詞)で書き換えるとき,どのように書き換わるかは文章,談話の上でないと決定できない.例えば,下の(7),(8)の例は,この文だけでは「アップ」「勝利」の主語を特定することはできない.また,「アップ」や「勝利」が「する」なのか「した」なのかも定まらない.その一方で文章,談話の中で現れる場合,文章,談話の書き手,話し手がその言語の母語話者であり誠実に情報を伝えようとしている限り,それを読んだり聞いたりした母語話者が主語やテンスが何かで迷うことはまずない.(7),(8)を文章の中でみると「アップする」のは介護保険制度の改正に携わる人物で\footnote{社説内ではこの人物が誰かははっきりしない.しかし,社説内で法案の可否が話題となる場合,主語が何かは必ずしも重要でない.本稿では,主語が明確にならなくても母語話者は(7)を命題として理解するものと考える.},「勝利する」の主語は民主党推薦の候補であることがわかる.同時に,「アップ」は未来の出来事なので「アップする」,民主党の候補は実際には知事選に勝利していないので「勝利したこと」では不自然となり「勝利すること」が選ばれる.このように,名詞の書き換えは調査者が母語話者として文章を読んだときの理解に基づいて行われる.\begin{enumerate}\setcounter{enumi}{6}\item\underline{報酬アップ}は介護人材の確保と処遇改善が狙いだ。(2009/3/31毎日新聞)\itemしかし、民主党は\underline{千葉県知事選での勝利}を「政権交代への第一歩」にしたいと考えていた。(2009/3/30産経新聞)\end{enumerate}具体的には,下線部の名詞は手順2によって,それぞれ「介護報酬をアップする(こと)」「民主党推薦の候補が千葉県知事選で勝利する(こと)」と書き直される.\begin{description}\item[手順3]\gt被調査者に集まってもらい,各命題に対する心的態度を選択肢形式で回答してもらう.\end{description}以下,手順3の詳細を述べる.調査は,被調査者とのスケジュールを調整し,4回に分けて実施した.各作業では,被調査者2人もしくは3人に1つの部屋に集まってもらい,各人に1台ずつノートパソコンを割り当てる.次に,調査の主旨と回答の手順を書いた紙を配布し,それを調査者が15分かけて音読する.その内容を簡単に整理すると\begin{itemize}\item日本語文で表される情報には,事実情報以外にも書き手や話し手の希望,または書き手や話し手が何も判断,態度を示していない情報が存在することを解説する.\item各質問を例を用いて説明する.この際,書き手に関することは何もわからないという前提で回答するよう指示する(新聞の社説記事だということも伝えない).\item回答するのはあくまで書き手の心的態度であり,被調査者自身の知識や価値観に惑わされないよう注意を促す.\item各質問で書き手の心的態度を読み取ることができないときは最後の「わからない」に相当する選択肢を選ぶよう強調する.\item普段,新聞や雑誌を読むときと同じ感覚で文を読み,直観的に回答するようお願いする.\end{itemize}となる\footnote{配布した紙と回答画面の例をhttp://www.soc.titech.ac.jp/~sakano/modality/に掲載している.}.音読が終わった後,被調査者はパソコン画面に表示される質問(図3)に答える.画面には社説記事に載っている元の文とその中の命題を調査者が文の形に書き直したもの,そして質問が表示される.最初の質問に答えて「次へ」を押すと次の質問が表示され,再び回答するという作業の繰り返しとなる.被調査者は最初1時間回答した後,5分休憩を挟み,続けて40分回答する.回答中と休憩中に被調査者間で質問に関する情報のやり取りをすることは禁止した.以下,表2に各質問を掲載する.1つの命題に対する回答の流れは次のようになる.まず,質問1では,命題が発話時以前のものなら「事実かどうか」,後なら「将来事実となるかどうか」に対する書き手の事実認識を答える\footnote{発話時以前かどうかは調査者が事前に人手で分類している.}.回答が得られた271個の命題のうち,発話時以前のものは191個,発話時より後のものは80個である.質問1で4と回答された場合は質問2に進み,1と回答された場合は質問3に進む.質問2は質問1を補足する質問となっている.本来,判断保留なら質問1で3が選ばれるべきだが,伝聞の場合,問1で3が回答されない可能性が高いと考え,別途,質問2を用意した.質問3は既定的かどうかの区別を意図した質問だが,前述の通り本論文では考察の対象としない.\begin{table}[t]\caption{各質問の説明}\input{01table02.txt}\end{table}そして最後に,発話時点以前の命題であれば質問4,後であれば質問5に進む.ここでは,発話時以前なら叙実的なものとして価値判断の対象になり,発話時以後なら未来の命題として拘束判断の対象になるという前提を置いている.\subsection{一致度の評価方法}本論文では一致度の評価は,一致度によるアノテーションの評価をFleissの$\kappa$係数\cite{Article_08}によって行う.以下,Fleissの$\kappa$係数の前身であるCohenの$\kappa$係数\cite{Article_07}を概説した後,Fleissの$\kappa$係数について簡潔に述べる.Cohenの$\kappa$係数とは,同じ対象に対し同じ名義尺度で測定した2つのデータ間の一致度を,偶然による一致の可能性を排除して評価する指標である\cite{Article_07}.データが実際に一致した割合を$P(A)$,2つのデータが独立だった場合に偶然一致する割合を$P(E)$としたとき,Cohenの$\kappa$係数は次式で表される.\[\kappa=\frac{P(A)-P(E)}{1-P(E)}\]このP(E)によって偶然による一致の分が修正される.例として,同一の有権者の集合に対し,内閣を支持するかしないかの2択で,去年と今年の2回に渡り調査した状況を想定する.調査の結果,去年,今年とも全員から回答が得られ,去年の内閣支持率が0.8,今年の内閣支持率が0.7,去年と同じ回答をした人の割合が0.62だったとする.このとき,$P(A)$が0.62と6割以上であるにもかかわらず,P(E)の値も$0.8\times0.7+0.2\times0.3=0.62$であるためCohenの$\kappa$係数は0となる.Cohenの$\kappa$係数は$-1$から1の値を取り,0であれば2つのデータ間には偶然による一致しかないということになる.そして,Fleissの$\kappa$係数は,$\frac{P(A)-P(E)}{1-P(E)}$という計算式は変わらず,データが3つ以上の場合でも計算できるように$P(A)$と$P(E)$の計算方法を拡張したものである.P(E)を計算する際,データ間が独立という仮定に加え,データ間の等質性(本論文では被調査者間の等質性)の仮定も置いているのが特徴である.これら$\kappa$係数を評価する基準としては,$0\le\kappa\le0.2$が低い一致(pooragreement),$0.2<\kappa\le0.4$が軽度の一致(fair),$0.4<\kappa\le0.6$が中程度の一致(moderate),$0.6<\kappa\le0.8$が相当な一致(substantial),$0.8<\kappa\le1$がほとんど完全な一致(almostperfect)という目安が提示されているが\cite{Article_09,Book_24},この目安に客観的な根拠があるわけではない.あくまで参考程度に,0.2,0.4,0.6,0.8を1つの評価ラインとして考える.また,心的態度のアノテーションを行っている既存研究での$\kappa$係数も参考になると思われる.前述の「てほしい」に相当する拡張モダリティ\cite{Article_01}では,工学部の学生3名に対して調査を行い,学生間の一致度をCohenの$\kappa$係数で評価したところ,0.48,0.64,0.47\footnote{Cohenの$\kappa$係数は2名間の一致度しか測ることができないため,A,B,Cの3名の結果から,AB,AC,BCの3通り計算している.}という結果が得られている.また,モダリティ論に基づいてカテゴリを定めた方の拡張モダリティ\cite{Inproc_04}では,2名の専門家によるマニュアルに従った判断の$\kappa$係数(書かれていないがCohenと思われる)を全カテゴリで求めた平均が0.71となっている.\subsection{調査結果}最初に各細分類で実際に一致した数と割合{$P(A)$}を表3に示す.真偽判断系と拘束判断は3名以上一致する割合が80\%を超えており高い一致度のように見えるが,4.3で述べたように偶然一致する確率が考慮されていない.そこで,質問1と2を合わせた\footnote{質問1の選択肢で4が選ばれた場合,それを質問2の回答に置き換えている.}真偽判断系,質問4の価値判断,質問5の拘束判断についてFleissの$\kappa$係数\cite{Book_15}を表4に示す.最初に,表4の2者間の一致度において学校の違いの影響を見る.6パターンのうち学校が同じ者同士の$\kappa$係数は,真偽判断系では4,5番目,価値判断では1,6番目,拘束判断では3,5番目の大きさとなっており,学校が異なる回答者間の係数と比べ順位が高い傾向にあるとは言えない.よって,以後,学校間の違いは考慮せず,4名における$\kappa$係数のみを考察する.\begin{table}[t]\begin{minipage}[t]{.5\textwidth}\caption{回答が一致した命題数(括弧内は\%)}\input{01table03.txt}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{モダリティの一致度(Fleissの$\kappa$係数)}\input{01table04.txt}\end{minipage}\end{table}4名の$\kappa$係数を見ると拘束判断が約0.70で既存研究\cite{Inproc_04}で示された0.71に近い値を示しているが,真偽判断系は約0.49,価値判断は約0.28と,0.71を大幅に下回っている.単純な比較はできないが\footnote{この0.71という値はモダリティ’ではなくモダリティの概念に基づいたアノテーションであり,かつ詳細なマニュアルに基づいたものなので単純比較はできない.現段階では,今後,意味論のモデルに基づいた他のアノテーションが行われた際に比較できるよう,階層意味論に基づいた調査結果の一致度を提示すること自体に意義があると考える.},真偽判断系と価値判断についてはもう1つの既存研究\cite{Article_01}の一致度と比較しても高いとは言えず,普遍性があると見なすことは難しい.以下,この点について考察する.真偽判断系については4.5で詳述するため,ここでは価値判断について論じる.本論文では,価値判断は本質的に母語話者にとって判断が難しい概念であると考える.そのことを示唆するものに選択肢3が挙げられる.3は,中右が例示している「不思議に思う」「奇異に感ずる」「おもしろいことに」「驚いたことに」といった,肯定的か否定的かがはっきりしない価値判断を想定して設けた選択肢だが,これが一致度を下げる要因となっている.4名の回答者のうち1人以上が3を選んでいる命題を除外して$\kappa$係数を求めると0.45と,0.28から大幅に上昇する.このことから,選択肢3で雑多な価値判断をまとめて処理しようとしたことが一致度を下げている一因になっており,少なくとも中右本来の規定のままではアノテーションの基準として適切とは言えないことが予想される.一致度を上げるために,価値判断を「正しさ」「面白さ」といった判断基準ごとに更に細分類しアノテーションする必要があると思われる.\subsection{真偽判断系で不一致を引き起こす要因と対策}真偽判断系は,価値判断と異なりその判断基準が真偽に限られるにもかかわらず$\kappa$係数が拘束判断と比べて低い.前述の医学,生物学系テキストへのアノテーションでも扱われているように,真偽判断系は自然言語処理の分野で需要の高い情報である.もしアノテーションが難しいのであれば階層意味論の基準としての妥当性が疑われることになる.そこで,この節では不一致の要因とそれを解消するための方法について検討する.まずは,13の「懸念も消えない」や14の「いけない」のような,述語が書き手もしくは他者の心的態度を表す事例が一致度を下げていると考えられる.書き手や他者の心的態度を表す述語の例を表5に示す.\begin{enumerate}\setcounter{enumi}{12}\item\underline{西松建設の違法献金事件が自民党議員側に波及する{\gt懸念も消えない}}。(2009/3/30読売新聞)\item\underline{\mbox{AIGや金融界に対する批判が{\gtいけない}}}というのではない。(2009/3/30毎日新聞)\end{enumerate}全271個の命題を,述語が書き手や他者の心的態度を表す52個と,残りの219個とに分けて$\kappa$係数を計算すると,前者が0.26,後者が0.53と大きな差がみられる.\begin{table}[b]\caption{心的態度を表す述語}\input{01table05.txt}\end{table}4.2の手順2では品詞のみで述語を決定するため,述語が心的態度を表しているかどうかに関係なく13,14の下線部も命題として取り出される.しかし,論理学の観点からは,これらの真偽を問うことができるのかどうかは非常に難しい問題である.心的態度を適切に扱うための体系が様相論理の分野でいくつか提案されているが\cite{Book_17},まだ標準的な体系が確立されたとは言い難い.論理学者にとっても扱いが難しい問題に対し,母語話者間で一貫した回答が得られることは期待できないだろう.よって,13,14の下線部のように述語が心的態度を表す場合,真偽判断のアノテーションの対象から外すことが適当だと考える.2つ目に取り上げるのは,命題に後続する表現が他者の心的態度または条件\footnote{ここでは,従属節が主節の命題が真であるための条件を表す場合のみならず,主節が従属節の命題が真であるための条件を表す場合も含む.}を表す事例である.15,16の「考えを示した」「歴史的課題だ」は他者の心的態度,17,18の「れば」「には」は条件の例となる.\begin{itemize}\item他者の心的態度\begin{enumerate}\setcounter{enumi}{14}\item鳩山氏は\underline{衆院の解散直前に党独自で行う選挙情勢調査を見極めて最終判断する}{\gt考えを示した}。(2009/3/31毎日新聞)\item\underline{出先機関改革}は中央省庁再編で積み残された{\gt歴史的課題だ}。(2009/3/31読売新聞)\end{enumerate}\item条件\begin{enumerate}\setcounter{enumi}{16}\item\underline{政治への国民の信頼がなけ}{\gtれば}、今の経済状況は乗り切れない。(2009/3/31毎日新聞)\item\underline{年末の改革大綱で具体的な成果を上げる}{\gtには}、政府は早い段階から、周到に調整を進める必要がある。(2009/3/31読売新聞)\end{enumerate}\end{itemize}他者の心的態度や条件自体は確実性判断の既存研究でも扱われているが\cite{Article_02,Article_06},今回の調査結果は,これらの表現が真偽判断系の一致度を下げることを示している.271個の命題のうち,これらの表現が後続する38個では$\kappa$係数が0.27,残りの233個では0.50となる.他者の心的態度や条件が後続する場合,書き手の心的態度が明示的に表されていない.そのため,本来であれば選択肢4が選ばれるべきところだが,実際には書き手の事実認識を類推してしまう場合があると思われる.同様に「と言われている」のような伝聞を表す表現が後続する場合も一致度が下がる.先ほどの38個の命題に伝聞も加えた52個では$\kappa$係数が0.26,残りの219個では0.54となる.伝聞情報でも書き手の心的態度が明示されていないという点では共通し,同様の結果を引き起こすと思われる.以上をまとめると,4.2の手順2で特定された命題のうち\begin{itemize}\item述語が書き手または他者の心的態度を表すもの\item後続する表現が他者の心的態度や条件,伝聞を表すもの\end{itemize}については真偽判断をアノテーションする対象から外すべきと考える.両方を外した残りの命題175個で$\kappa$係数を求めると,0.58と,中程度の一致と相当の一致の境界となる0.6に近い値を示す.\subsection{意味論上の規定を用いることの一致度への影響}階層意味論のような意味論上の規定をアノテーションの基準に採用する狙いとして,モダリティや主観述語といった客観的な指標が明示されない心的態度も母語話者の判断によって特定することが挙げられる.このとき,客観的な指標がないと高い一致度が得られないのであれば,この狙いを達成することはできない.そこで,4.2の手順2で特定した命題を「(a)『主節』および『後続する表現が語彙的に心的態度を表す命題』」と「(b)それ以外の命題」とに分け,真偽判断系,価値判断,拘束判断の$\kappa$係数を求め比較する\footnote{語彙的に心的態度を表す表現とは,表5で示すような表現のことを指す.このとき,各カテゴリの$\kappa$係数を求めるときはそのカテゴリに該当する表現のみを(a)に含める.例えば,真偽判断系の$\kappa$係数を求めるときに係り先が拘束判断を表していても(a)ではなく(b)とする.}.なお,真偽判断系に関しては4.5で絞り込んだ175個の命題を対象に計算する.結果を表6に示す.真偽判断系と価値判断では(a)と(b)で一致度にほとんど差が見られない一方で,拘束判断では(a)の0.89の方が(b)の0.53と比べて極めて高い値を示している.このことから拘束判断が他の判断と比べて一致度が高いのは,モダリティや主観述語が示されている場合の一致度が極めて高いためだと考えられる.その一方で,(b)でも真偽判断系,拘束判断の両方で0.5以上と中程度の一致度を示している.モダリティや主観述語で明示的に心的態度が示されていなくても,母語話者は一定の割合で一致した理解を得ていることが伺える.\begin{table}[b]\vspace{-0.5\baselineskip}\caption{形式上の特徴の有無に応じた一致度の違い(Fleissの$\kappa$係数,括弧内は該当命題数)}\input{01table06.txt}\vspace{-0.5\baselineskip}\end{table}ここで,(b)のうち4名全員の回答が一致しているもの(真偽判断系105個中80個,価値判断110個中35個,拘束判断47個中24個)の観察を通して,モダリティや主観述語が存在しなくても一致する要因について検討する.まず真偽判断系だが,最も多い事例として,主節のモダリティの統語的な作用域に従属節の命題が含まれているものを取り上げる.この事例は29個存在する.例として19を示す.\begin{enumerate}\setcounter{enumi}{18}\itemところが、\underline{閣僚折衝さえ開かれず}、中身の乏しい工程表になってしまった。(2009/3/31読売新聞)\end{enumerate}日本語学では,主節のモダリティの作用域に含まれるかどうかは従属節の種類に依存するとされている\cite{Article_10}.例えば,19のような連用節は独立度が低く作用域に含まれるが,ガ節は独立度が高く主節からの影響を受けない.従属節の独立度には,従属節の内部に補足語や付加語,モダリティの文法形式といった成分を取り得るかによって3種類(主節を加えると4種類)の分類が存在する\cite{Book_10}.19のような事例の心的態度を解析する場合,連用節,ガ節といった従属節の種類,または南(1993)による4分類が素性の1つとして有効だと考えられる.次に,命題が文の前提(presupposition)\cite{Book_07}を表す事例が19個存在する.前提となる命題は読み手に真として受け取られる傾向があると思われる.既存研究で取り上げているのは20のように命題が従属節のものだが,今回のデータでは,19個のうち16個が21のように命題が名詞の例だった.今後,母語話者が名詞の命題を前提だと認識する条件を明らかにすることが求められる.\begin{enumerate}\setcounter{enumi}{19}\item朝日新聞の世論調査で、\underline{\mbox{86%}もの人が小沢氏の説明では「不十分だ」と答えた}のは当然のことだろう。(2009/3/31朝日新聞)\item\underline{森田氏の大量得票}は政党全体への不信感の裏返しといってもいいのだ。(2009/3/31毎日新聞)\end{enumerate}以上,真偽判断系の事例は「従属節の独立度」や「前提」のように文法論の概念で解釈可能なものが多く見られる.対して価値判断と真偽判断の(b)は原則,語用論的な側面を考慮する必要があると考えられる.最初に取り上げるのは,語彙的には心的態度ではないが,語用論的側面まで考慮すると後続する表現が心的態度を表す事例である.この事例は,価値判断では4個,拘束判断では8個存在する.22に価値判断,23と24に拘束判断の例を示す.22の「役立たない」や24の「言行不一致が問われよう」は,客観的な事実を述べつつ,否定的な印象を与える表現である.このとき心的態度としての側面が強調されるかどうかは文脈に大きく左右される.一方,23の「結びつけたい」は,「テストの結果を比較する」ことが「教育施策や学習指導の改善」に繋がることを望んでいることからの推論で,「改善」を望んでいるという帰結が得られると思われる.ただし,「テストの結果を比較する」以外の方法では「改善」を望んでいない可能性もあり,あくまで文脈に左右される解釈と言える.\begin{enumerate}\setcounter{enumi}{21}\item公開が原則の国立公文書館という組織はあっても、\underline{そこへ移される文書が極めて少ない}から、あまり{\gt役立たない}。(2009/3/31朝日新聞)\itemテストの結果を比較し、\underline{教育施策や学習指導の改善}に{\gt結びつけたい}。(2009/3/30読売新聞)\item\underline{与党が出先機関改革をすべて衆院選後に先送りする}ようでは、{\gt言行不一致が問われよう}。(2009/3/31読売新聞)\end{enumerate}また,価値判断では選択肢4の「読み取ることはできない」での一致が26個,拘束判断では後者では選択肢3の「わからない」での一致が15個と,それぞれ半数以上を占めている.直感的には,価値判断や拘束判断を表す表現がまったくないときに「わからない」と判断すると思われる.ただし,価値判断や拘束判断を表し得る表現の有無は,モダリティ,主観述語の他に22〜24のような語用論的側面も考慮しなければならない.よって,「わからない」と判断するための基準も語彙,文法上の特徴だけにはとどまらないと思われる.以上,今回の調査によって,(b)でも真偽判断系,拘束判断については,ある程度,一貫性のあるアノテーションが可能なことが示された.とはいえ,アノテーションの過程はできる限りマニュアル化できた方が望ましい.これまでの文法論では扱われていない新たな語彙,統語的な特徴を明らかにし客観性を高めることも求められよう.今後,(b)の事例を数多く含んだ大規模なタグ付きコーパスを作成し,多変量解析によって語彙,統語的な特徴を推定,検証することが望まれる. \section{おわりに} 本論文では,まず,モダリティ論と自然言語処理とではモダリティと心的態度の扱いに相違点があることを指摘した.前者は心的態度という規定が必ずしも前提ではなく,文論の枠内で形式と意味との相関を捉えることが主旨である一方,後者は命題に対する心的態度を特定することが目的となる.その上で本論文では,心的態度をアノテーションする基準として階層意味論で提示されているモダリティ’の細分類を用いることを検討した.階層意味論のモダリティ’は書き手の発話時点の心的態度であると定義されており,対象が文法形式に限定されない.よって,心的態度をアノテーションするという目的に適う概念と言える.ただし,階層意味論では日本語の事例を用いた研究が少なく普遍性の実証が十分ではない.そこで本論文では,日本語を母語とする大学の学部生に命題に対する書き手の心的態度を回答してもらい母語話者間の一致度を調査することで普遍性を評価した.その結果,拘束判断は0.70と高い$\kappa$係数を示し,真偽判断系は,i)述語が心的態度を表す場合と,ii)後続表現が他者の心的態度や条件節,伝聞である場合,アノテーションの対象から外すことで0.58の値を示した.一方,価値判断は0.28と相対的に低い.中右が規定する価値判断には「面白さ」「奇妙さ」など複数の判断基準が混在しており,概念を判断基準ごとに細分化する必要性があると考えられる.また,階層意味論に基づくアノテーションでは,語彙,文法形式によって明示的に心的態度が表されない命題も対象となる.このとき明示的な指標がない事例に対して一貫性のあるアノテーションできないのであれば階層意味論を用いる意義が損なわれる.そこで明示的な指標がない事例に限定したときの一致度についても検討を行った.その結果,明示されていない事例でも真偽判断系と拘束判断については0.5以上の$\kappa$係数を示し,母語話者は明示的な指標がない事例でも一定の一致度を持ってアノテーションできることが確認された.なお,今回の調査は10個の社説記事から命題を抜き出したため,回答者が同じテキスト内の命題に触れる頻度が多く,ランダムに並び替えたとはいえ,文脈の情報を排除しきれたとは言い難いものとなってしまった.さらに社説の内容も日本の政治に関わるもので,被調査者が少なからず知識を持っていると予想されるため,被調査者間の知識の共通点や相違点が回答に影響を与えた可能性もある.今後,さらなる調査を行う際には,語用論的な側面のコントロールをより徹底して行うことが求められる.\acknowledgment数多くの有益な助言を頂いた査読者様,調査に協力して頂いた東京工業大学と一橋大学の学生10名,およびプレ調査に協力して頂いた坂野研究室の後輩2名に感謝を申し上げます.\nocite{*}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chomsky}{Chomsky}{1957}]{Book_22}Chomsky,N.\BBOP1957\BBCP.\newblock{\BemSyntacticStructures}.\newblockMouton.\bibitem[\protect\BCAY{Cohen}{Cohen}{1960}]{Article_07}Cohen,J.\BBOP1960\BBCP.\newblock\BBOQAcoefficientofagreementfornominalscales.\BBCQ\\newblock{\BemEducationalandPsychologicalMeasurement},{\Bbf20}(1),\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{江口\JBA松吉\JBA佐尾\JBA乾\JBA松本}{江口\Jetal}{2010}]{Inproc_04}江口萌\JBA松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockモダリティ,真偽情報,価値情報を統合した拡張モダリティ解析.\\newblock\Jem{言語処理学会第16回年次大会論文集},\mbox{\BPGS\852--855}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1968}]{Inbook_01}Fillmore,C.~J.\BBOP1968\BBCP.\newblock{\BemUniversalsinLinguisticTheory},\BCH\Thecaseforcase,\mbox{\BPGS\1--88}.\newblockHolt,Rinehart\&WinstonofCanadaLtd.\bibitem[\protect\BCAY{Fleiss}{Fleiss}{1971}]{Article_08}Fleiss,J.~L.\BBOP1971\BBCP.\newblock\BBOQMeasuringnominalscaleagreementamongmanyraters.\BBCQ\\newblock{\BemPsychologicalBulletin},{\Bbf76}(5),\mbox{\BPGS\378--382}.\bibitem[\protect\BCAY{花園}{花園}{1999}]{Article_05}花園悟\BBOP1999\BBCP.\newblock条件形複合用言形式の認定.\\newblock\Jem{國語學},{\Bbf197}(1),\mbox{\BPGS\39--53}.\bibitem[\protect\BCAY{乾\JBA井佐原}{乾\JBA井佐原}{2002}]{Article_01}乾裕子\JBA井佐原均\BBOP2002\BBCP.\newblock拡張モダリティの提案−自由回答から回答者の意図を判定するために−.\\newblock\Jem{電子情報通信学会技術研究報告.NLC,言語理解とコミュニケーション},{\Bbf102}(414),\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA戸次}{川添\Jetal}{2009}]{Article_02}川添愛\JBA齊藤学\JBA片岡喜代子\JBA戸次大介\BBOP2009\BBCP.\newblock確実性判断に関わる意味的文脈アノテーションの試み.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2009}(2),\mbox{\BPGS\77--84}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{Article_09}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQThemeasurementofobserveragreementforcategoricaldata.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{Light,Qiu,\BBA\Srinivasan}{Lightet~al.}{2004}]{Inproc_01}Light,M.,Qiu,X.~Y.,\BBA\Srinivasan,P.\BBOP2004\BBCP.\newblock\BBOQTheLanguageofBioscience:FactsandSpeculationsandandStatementsinBetween.\BBCQ\\newblockIn{\BemHLT-NAACL2004Workshop:BioLINK2004andLinkingBiologicalLiteratureandOntologiesandDatabases},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{牧野}{牧野}{2009}]{Article_06}牧野武則\BBOP2009\BBCP.\newblock日本語の主観表現の機能的構造:客観文と主観文(日本語処理・文法).\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2009}(36),\mbox{\BPGS\7--14}.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{Article_03}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQBuildingalargeannotatedcorpusofEnglish:ThePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{益岡}{益岡}{1991}]{Book_05}益岡隆志\BBOP1991\BBCP.\newblock\Jem{モダリティの文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{益岡}{益岡}{2007}]{Book_08}益岡隆志\BBOP2007\BBCP.\newblock\Jem{日本語モダリティ探究}.\newblockくろしお出版.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{Book_25}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\bibitem[\protect\BCAY{南}{南}{1974}]{Book_20}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{南}{南}{1993}]{Book_10}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{宮崎\JBA安達\JBA野田\JBA高梨}{宮崎\Jetal}{2002}]{Book_01}宮崎和人\JBA安達太郎\JBA野田晴美\JBA高梨信夫\BBOP2002\BBCP.\newblock\Jem{新日本語文法選書4モダリティ}.\newblockくろしお出版.\bibitem[\protect\BCAY{中右}{中右}{1994}]{Book_13}中右実\BBOP1994\BBCP.\newblock\Jem{認知意味論の原理}.\newblock大修館書店.\bibitem[\protect\BCAY{Narrog}{Narrog}{2005}]{Article_04}Narrog,H.\BBOP2005\BBCP.\newblock\BBOQOndefiningmodalityagain.\BBCQ\\newblock{\BemLanguageSciences},{\Bbf27}(2),\mbox{\BPGS\165--192}.\bibitem[\protect\BCAY{Narrog}{Narrog}{2009}]{Book_11}Narrog,H.\BBOP2009\BBCP.\newblock{\BemModalityinJapanese:TheLayeredStructureoftheClauseandHierarchiesofFunctionalCategories(StudiesinLanguageCompanionSeries)}.\newblockJohnBenjaminsPublishingCompany.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2003}]{Book_04}日本語記述文法研究会(編集)\BBOP2003\BBCP.\newblock\Jem{現代日本語文法〈4〉第8部・モダリティ}.\newblockくろしお出版.\bibitem[\protect\BCAY{尾上}{尾上}{2001}]{Book_06}尾上圭介\BBOP2001\BBCP.\newblock\Jem{文法と意味I}.\newblockくろしお出版.\bibitem[\protect\BCAY{Palmer}{Palmer}{1986}]{Book_21}Palmer,F.\BBOP1986\BBCP.\newblock{\BemMoodandModality}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Palmer}{Palmer}{2001}]{Book_07}Palmer,F.\BBOP2001\BBCP.\newblock{\BemMoodandModalitySecondedition}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Portner}{Portner}{2009}]{Book_17}Portner,P.\BBOP2009\BBCP.\newblock{\BemModality}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Rietveld\BBA\vanHout}{Rietveld\BBA\vanHout}{1993}]{Book_24}Rietveld,T.\BBACOMMA\\BBA\vanHout,R.\BBOP1993\BBCP.\newblock{\BemStatisticalTechniquesfortheStudyofLanguageandLanguageBehaviour}.\newblockMoutondeGruyter.\bibitem[\protect\BCAY{Santorini}{Santorini}{1990}]{Inproc_03}Santorini,B.\BBOP1990\BBCP.\newblock\BBOQPart-of-SpeechTaggingGuidelinesforthePennTreebankProject(3rdRevision).\BBCQ\\newblockIn{\BemUniversityofPennsylvaniaDepartmentofComputerandInformationScienceTechnicalReportNo.MS-CIS-90-47}.\bibitem[\protect\BCAY{澤田}{澤田}{2006}]{Book_12}澤田治美\BBOP2006\BBCP.\newblock\Jem{モダリティ}.\newblock開拓社.\bibitem[\protect\BCAY{Siegel\BBA\Jr.}{Siegel\BBA\Jr.}{1988}]{Book_15}Siegel,S.\BBACOMMA\\BBA\Jr.,N.J.~C.\BBOP1988\BBCP.\newblock{\BemNonparametricStatisticsforTheBehavioralSciences,Seconded.}\newblockMcGraw-HillBookCo.\bibitem[\protect\BCAY{Szarvas,Vincze,Farkas,\BBA\Csirik}{Szarvaset~al.}{2008}]{Inproc_02}Szarvas,G.,Vincze,V.,Farkas,R.,\BBA\Csirik,J.\BBOP2008\BBCP.\newblock\BBOQTheBioScopeCorpus:AnnotationforNegationandUncertaintyandTheirScopeinBiomedicalTexts.\BBCQ\\newblockIn{\BemtheWorkshoponCurrentTrendsinBiomedicalNaturalLanguageProcessing},\mbox{\BPGS\38--45}.\bibitem[\protect\BCAY{田窪}{田窪}{1987}]{Article_10}田窪行則\BBOP1987\BBCP.\newblock統語構造と文脈情報.\\newblock\Jem{日本語学},{\Bbf6}(5),\mbox{\BPGS\37--48}.\bibitem[\protect\BCAY{時枝}{時枝}{1941}]{Book_19}時枝誠記\BBOP1941\BBCP.\newblock\Jem{國語學原論}.\newblock岩波書店.\bibitem[\protect\BCAY{渡辺}{渡辺}{1974}]{Book_23}渡辺実\BBOP1974\BBCP.\newblock\Jem{国語文法論}.\newblock笠間書院.\bibitem[\protect\BCAY{渡辺}{渡辺}{1996}]{Book_18}渡辺実\BBOP1996\BBCP.\newblock\Jem{日本語概説}.\newblock岩波書店.\end{thebibliography}\section*{付録:調査で得られた回答の集計データ}調査して得られた4つのデータのクロス集計表を示す.表の項目にあるx-yは回答者xが選択肢yを選んだことを示す.回答者1,2は東工大生,3,4は一橋大生の回答である.命題ごとに同じ大学の5人のうち2人がランダムに選ばれているため,実際には「各回答者x」の回答には複数の被調査者の回答が混在している.なお,真偽判断系については,質問1で選択肢4を選んだもののうち質問2で1を選んだ場合は4,2を選んだ場合は5としている.また,合計が0の行と列は省略している.\begin{table}[b]\caption{真偽判断系のクロス表}\input{01table07.txt}\vspace{1\baselineskip}\end{table}\begin{table}[b]\caption{真偽判断系のクロス表(4.5で絞り込んだ命題)}\input{01table08.txt}\end{table}\clearpage\begin{table}[t]\caption{価値判断のクロス表}\input{01table09.txt}\vspace{1\baselineskip}\end{table}\begin{table}[t]\caption{拘束判断のクロス表}\input{01table10.txt}\end{table}\begin{biography}\bioauthor{小橋洋平}{2005年東京工業大学大学院社会理工学研究科博士前期課程修了.同大学博士後期課程を満期退学後,筑波大学人文社会科学研究科非常勤研究員.現在に至る.修士(工学).心的態度に着目した文章解析および談話分析への応用に関心がある.日本語文法学会,日本計画行政学会各会員.}\pagebreak\bioauthor{坂野達郎}{1987年東京工業大学総合理工学研究科博士課程修了.博士(工学).同理工学研究科社会工学科助手,日本社会事業大学助教授を経て,1996年より東京工業大学社会理工学研究科准教授.現在に至る.専門は公共システムデザイン.日本計画行政学会,産業組織心理学会,都市計画学会各会員.}\end{biography}\biodate\end{document}
V24N03-07
\section{はじめに} \label{sec:intro}統計的機械翻訳(StatisticalMachineTranslation:SMT\cite{brown93smt})で高い翻訳精度\footnote{SMTシステムの性能を評価する場合,評価用原言語コーパスの翻訳結果が目標となる正解訳にどの程度近いかを示す自動評価尺度を翻訳精度の指標とすることが多く,本稿では最も代表的な自動評価尺度と考えられるBLEUスコア\cite{papineni02}を用いて評価する.}を達成するには,学習に用いる対訳コーパスの質と量が不可欠である.特に,質の高い対訳データを得るためには,専門家による人手翻訳が必要となるが,時間と予算の面で高いコストを要するため,翻訳対象は厳選しなければならない.このように,正解データを得るための人手作業を抑えつつ高い精度を達成する手法として,能動学習(ActiveLearning)が知られている.SMTにおいても,能動学習を用いることで人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である\cite{eck05,turchi08,haffari09naacl,haffari09acl,ananthakrishnan10,bloodgood10,gonzalezrubio12,green14}.SMTや,その他の自然言語処理タスクにおける多くの能動学習手法は,膨大な文書データの中からどの\textbf{文}をアノテータに示すか,という点に注目している.これらの手法は一般的に,幾つかの基準に照らし合わせて,SMTシステムに有益な情報を多く含んでいると考えられる文に優先順位を割り当てる.単言語データに高頻度で出現し,既存の対訳データには出現しないような\textbf{フレーズ}\footnote{本稿では,フレーズとは特定の文中に出現する任意の長さの部分単語列を表すものとし,文全体や単語もフレーズの一種として扱う.また,後述する句構造文法における句とは区別して扱うこととする.}を多く含む文を選択する手法\cite{eck05},現在のSMTシステムにおいて信頼度の低いフレーズを多く含む文を選択する手法\cite{haffari09naacl},あるいは翻訳結果から推定されるSMTシステムの品質が低くなるような文を選択する手法\cite{ananthakrishnan10}などが代表的である.これらの手法で選択される文は,機械学習を行う上で有益な情報を含んでいると考えられるが,その反面,既存システムに既にカバーされているフレーズも多く含んでいる可能性が高く,余分な翻訳コストを要する欠点がある.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f1.eps}\end{center}\caption{フレーズ選択手法の例,および従来手法と提案手法の比較}\label{fig:select-methods}\end{figure}このように文全体を選択することで過剰なコストを要する問題に対処するため,自然言語処理タスクにおいては短いフレーズからなる\textbf{文の部分的アノテーション}を行うための手法も提案されている\cite{settles08,tomanek09,bloodgood10,sperber14}.特にSMTにおいては,文の選択手法では翻訳済みフレーズを冗長に含んでしまう問題に対処するため,原言語コーパスの単語$n$-gram頻度に基づき,対訳コーパスにカバーされていない原言語コーパス中で最高頻度の$n$-gram自体を翻訳対象のフレーズとして選択する手法が提案されている\cite{bloodgood10}.この手法では,選択されたフレーズ全体が必ず翻訳モデルの\textbf{$n$-gramカバレッジ}\footnote{\label{note:coverage}入力されるデータに対して,その構成要素がどの程度モデルに含まれているかという指標をカバレッジ(被覆率)と呼ぶ.本稿では,原言語コーパス中の$n$-gramが翻訳モデル中に含まれる割合に着目する.}向上に寄与し,余分な単語を選択しないため,文選択手法よりも少ない単語数の人手翻訳で翻訳精度を向上させやすく,費用対効果に優れている.しかし,この手法には2つの問題点が挙げられる.先ず,図\ref{fig:select-methods}(a)に示すように,$n$-gram頻度に基づくフレーズの選択手法では複数のフレーズ間で共有部分が多いため冗長な翻訳作業が発生し,単語あたりの精度向上率を損なう問題がある(\textbf{フレーズ間の重複問題}).また,最大フレーズ長が$n=4$などに制限されるため,``oneofthepreceding''のように句範疇の一部がたびたび不完全な形で翻訳者に提示されて人手翻訳が困難になる問題もある(\textbf{句範疇の断片化問題}).本研究では,前述の2つの問題に対処するために2種類の手法を提案し,部分アノテーション型の\textbf{能動学習効率}\footnote{人手翻訳に要した一定のコストに対する翻訳精度の上昇値を本稿における学習効率とし,作業時間あたりの精度向上と必要予算あたりの精度向上に注目する.}と翻訳結果に対する\textbf{自信度}の向上を目指す(\ref{sec:proposed}節).フレーズ間の重複問題に対しては,図\ref{fig:select-methods}(b)に示すように包含関係を持つフレーズを統合して,より少ないフレーズでカバレッジを保つことで学習効率の向上が可能と考えられる(\textbf{極大フレーズ選択手法},\ref{sec:maxsubst-freq}節).重複を取り除き,なるべく長いフレーズを抽出する基準として,本研究では\textbf{極大部分文字列}\cite{yamamoto01,okanohara09}の定義を単語列に適用し,極大長\footnoteref{note:maximality}となるフレーズの頻度を素性に用いる.句範疇の断片化問題に対しては,図\ref{fig:select-methods}(c)に示すように,原言語コーパスの句構造解析を行い,部分木をなすようなフレーズを\textbf{統語的に整ったフレーズ}とみなして選択することで,人手翻訳が容易になると考えられる(\textbf{部分構文木選択手法},\ref{sec:struct-freq}節).また,これら2つの手法を組み合わせ,フレーズの極大性と構文木を同時に考慮する手法についても提案する(\ref{sec:struct-freq}節).本研究で提案するフレーズ選択手法による能動学習効率への影響を調査するため,先ず英仏翻訳および英日翻訳において逐次的にフレーズ対の追加・モデル更新・評価を行うシミュレーション実験(\ref{sec:simulation}節)を実施し,その結果,2つの提案手法を組み合わせることで従来より少ない追加単語数でカバレッジの向上や翻訳精度の向上を達成することができた.次に,部分構文木選択手法が人手翻訳に与える影響を調査するため,専門の翻訳者に翻訳作業と主観評価を依頼し,述べ120時間におよぶ作業時間で収集された対訳データを用いて実験と分析を行った結果(\ref{sec:manual-trans}節),同様に高い能動学習効率が示された.また,翻訳者は構文木に基づくフレーズ選択手法において,より長い翻訳時間を要するが,より高い自信度の翻訳結果が得られるという傾向も得られた\footnote{本稿の内容は(三浦,Neubig,Paul,中村2015,2016)および\cite{miura16naacl}で報告されている.}.\nocite{miura15nl12,miura16nlp} \section{機械翻訳のための能動学習} \label{sec:activemt}本節では,機械翻訳のための能動学習手法について述べる.翻訳対象の候補となるフレーズを含む原言語コーパスから,逐次的に新しい原言語フレーズを選択し翻訳,学習用データとして対訳コーパスに加える手順をまとめるとAlgorithm1のように一般化できる.1行目から4行目でデータの定義,初期化を行う.$SrcPool$は原言語コーパスの各行を要素とする集合である.$Translated$は翻訳済みの原言語フレーズと目的言語フレーズの対を要素とする集合であり,初期状態は空でもよいが,既に対訳データが与えられている場合には,$Translated$を設定することで効率的に追加フレーズの選択を行うことができる.$Oracle$は任意の入力フレーズに対して正解訳を与えることができるオラクルであり,人手翻訳を模したモデルである.\begin{algorithm}[t]\caption{機械翻訳のための能動学習手法}\begin{algorithmic}[1]\STATE\textbf{Init:}\STATE~~$SrcPool\leftarrow$翻訳候補の原言語コーパス\STATE~~$Translated\leftarrow$翻訳済みの対訳コーパス\STATE~~$Oracle\leftarrow$入力フレーズの正解訳を与えるオラクル\STATE\textbf{LoopUntil停止条件:}\STATE~~$TM\leftarrowTrainTranslationModel(Translated)$\STATE~~$NewSrc\leftarrowSelectNextPhrase(SrcPool,Translated,TM)$\STATE~~$NewTrg\leftarrowGetTranslation(Oracle,NewSrc)$\STATE~~$Translated\leftarrowTranslated~\bigcup~\{\left<NewSrc,NewTrg\right>\}$\end{algorithmic}\end{algorithm}5行目から9行目で翻訳モデルの逐次的な学習を行う.5行目の停止条件には,任意の終了タイミングを設定できるが,実際の利用場面では一定の翻訳精度に達成した時点や,予算の許容する単語数を翻訳し終えた時点などで能動学習を打ち切ることになるだろう.6行目では,その時点で保持している対訳コーパス$Translated$を用いて翻訳モデルの学習を行う.また,実験的評価においては,翻訳モデルの学習直後に翻訳精度の評価を行う.7行目では$SrcPool$,$Translated$,$TM$を判断材料として,次に翻訳対象となる原言語フレーズを選択する.ここでフレーズ選択時に基準となる要素として,学習済みモデルにおける各フレーズ対の信頼度,コーパス中に出現する各フレーズの代表性,翻訳候補のフレーズから正解訳を得るためのコストなどが考えられる.次節からは,先述のアルゴリズム7行目で述べたフレーズ選択基準に用いられる具体的な手法として,既存のフレーズ選択手法(\ref{sec:baseline}節)および本研究の提案手法(\ref{sec:proposed}節)について述べる. \section{単語$n$-gram頻度に基づく文・フレーズ選択手法} \label{sec:baseline}本節では,従来手法である単語$n$-gram頻度に基づく文選択手法とフレーズ選択手法について紹介する.\subsection{単語$n$-gram頻度に基づく文選択手法}\label{sec:sent-by-4gram-freq}単語$n$-gram頻度に基づく文選択手法では,原言語コーパスに含まれる単語数が$n$以下の全フレーズのうち,翻訳済みの原言語データに出現せず,かつ頻度が最大となるようなものを含む文を選択する.逐次的に文を追加していき,翻訳済みのデータが原言語コーパスの全$n$-gramフレーズをカバーした時点で能動学習を停止する.この手法によって最頻出の$n$-gramフレーズを効率的にカバー可能であり,翻訳コストを抑えつつ高い精度を達成できる.Bloodgoodらは,$n=4$の$n$-gram頻度に基づく文選択手法を用いた能動学習のシミュレーション実験によって,原言語データ全てを翻訳する場合に比べて,80\%未満の文数で同等のBLEUスコア\cite{papineni02}を達成できたと報告している\cite{bloodgood10}.しかし,1節で述べたように,この手法は文全体を選択するため,翻訳済みのデータに既にカバーされているフレーズも多く含んでおり,重複部分の単語数だけ余分な翻訳コストがかかると考えられる.そのため,文全体ではなく高頻出のフレーズのみを選択する手法を\ref{sec:4gram-freq}節から紹介する.\subsection{単語$n$-gram頻度に基づくフレーズ選択手法}\label{sec:4gram-freq}単語$n$-gram頻度に基づくフレーズ選択手法では,\ref{sec:sent-by-4gram-freq}節の文選択手法とは異なり,原言語コーパス中で翻訳済みデータにカバーされていない単語数$n$以下のフレーズそのものを頻度順に選択する.この手法では,文全体の選択を行うよりも少ない単語数の追加で$n$-gramカバレッジを高めることができるため,翻訳コストの低減によって高い能動学習効率が期待できる.Bloodgoodらは,ベースとなる対訳データを元に,追加の原言語データ中の高頻度の未カバー$n$-gramフレーズを順次選択し,アウトソーシングサイトを用いた人手翻訳実験により,少ない追加単語数と短い翻訳時間でベースシステムよりも大幅にBLEUスコアの向上を確認できたと報告している\cite{bloodgood10}.ただし,このフレーズ選択手法では,1節で述べたようにフレーズ長が$n=4$などに制限されるため,選択されるフレーズどうしの重複が多い問題や,句範疇の断片が選択される問題があり,また長いフレーズ対応を学習できないことも機械翻訳を行う上で不利である.$n=5$などの,より長いフレーズ長を設定することは根本的な解決にならないばかりか,さらに多くのフレーズ間の重複が発生して逆効果となり得る. \section{極大フレーズ選択手法と部分構文木選択手法} \label{sec:proposed}本節では,提案手法である極大フレーズ選択手法と,部分構文木選択手法,また,それらの組み合わせ手法について説明する.\subsection{極大フレーズ選択手法}\label{sec:maxsubst-freq}本節では,単語$n$-gram頻度に基づくフレーズ選択手法でフレーズ長の制限によって発生する,フレーズ間の重複問題を解消するために,\textit{極大部分文字列}\cite{yamamoto01,okanohara09}の定義を利用したフレーズ選択手法を提案する.極大部分文字列は効率的に文書分類器を学習するために提案された素性であり,形式的には\textbf{「その部分文字列を常に包含するような,より長い部分文字列が存在しない」}という性質を持った部分文字列として定義される.この極大部分文字列の定義は,文字列を任意の要素列に読み替えて,極大部分要素列とすることができる.極大部分要素列は下記のような半順序関係の定義を用いて示すことができる.\begin{equation}s_1\preceqs_2\Leftrightarrow\exists\alpha,\beta:~s_2=\alphas_1\beta\wedgeocc(s_1)=occ(s_2)\label{eqn:maxsubst}\end{equation}ここで$s_1,~s_2,~\alpha,~\beta$は長さ0以上の要素列であり,$occ(\cdot)$は文書中の要素列の出現回数である.例えば,\begin{align*}&p_1=\mbox{``oneofthepreceding''},&occ(p_1)=200,000\\&p_2=\mbox{``oneoftheprecedingclaims''},&occ(p_2)=200,000\\&p_3=\mbox{``anyoneoftheprecedingclaims''},&occ(p_3)=190,000\end{align*}のようなフレーズが原言語コーパス中に出現している場合,$p_2=\alphap_1\beta$,$\alpha=$``'',$\beta=$``claims''が成り立ち,すなわち$p_1$は$p_2$の部分単語列であり,同様に$p_2$は$p_3$の部分単語列である.$p_1$は$p_2$の部分単語列であり,コーパス中の出現頻度について$occ(p_1)=occ(p_2)=200,000$が成り立つため,式(\ref{eqn:maxsubst})により$p_1\preceqp_2$が成り立つ.一方,$p_2$は$p_3$の部分単語列であるが,$occ(p_2)=200,000\neq190,000=occ(p_3)$であるため,$p_2\preceqp_3$とはならない.式(\ref{eqn:maxsubst})で定義される半順序$\preceq$を用いて,単語列$p$について$p\preceqq$となるような$q$が$p$自体を除いて存在しない場合に,$p$は\textbf{極大性}\footnote{\label{note:maximality}極大性(maximality)とは,代数学の用語であり,半順序関係$\preceq$と集合$S$とその元$x\inS$について,$x\preceqy$となるような$y\inS,y\neqx$が存在しない場合に,$x$は$S$の極大元であると言う.}を有し,本稿では\textbf{極大フレーズ}と呼ぶこととする.先述の例では,$p_1\preceqp_2$であるため$p_1$は極大フレーズではなく,$p_2\preceqq$となるような$q$は$p_2$自体を除いて存在しないため$p_2$は極大フレーズである.原言語コーパス中のすべての極大フレーズは拡張接尾辞配列\cite{kasai01}を用いて原言語コーパスの単語数$N$に対して線形時間$O(N)$で効率的に列挙可能であるが,出現頻度を同時に得るためには二分探索のためにそれぞれ$O(logN)$回の文字列比較が必要なため,合計$(NlogN$)回の文字列比較が必要となる\cite{okanohara09}.列挙されうる極大フレーズの数は高々$N-1$個であるが,頻度で降順に列挙するためには$O(NlogN)$のソートアルゴリズムを用いることができる.ただし,本提案手法では,極大フレーズが改行文字を含む場合は分割し,また,出現回数が2以上のものを列挙するようにしている.これは,原言語コーパス中のほとんどの文を含めた膨大な部分単語列が出現頻度1の極大フレーズとして選択されることを防止するためである.極大フレーズのみを人手翻訳の対象とし,翻訳済みデータに出現していない最高頻度の極大フレーズを順次選択する手法を\textbf{極大フレーズ選択手法}として提案する.本提案手法には2つの利点があると考えられる.1つ目の利点は,互いに重複するような複数のフレーズを1つの極大フレーズにまとめ上げて翻訳対象とすることで,1度の人手翻訳で複数の高頻度フレーズを同時にカバーすることが可能となり,翻訳コスト減少による能動学習効率の向上が見込めることである.2つ目の利点は,既存手法でフレーズ長が4単語などの固定長に制限される問題を解消できることである.ただし,先述の例で述べたが,$p_2$は$p_3$の一部であり,二者の出現頻度も近いが一致はしておらず,そのため二者とも極大フレーズとなる.実際の用途を考慮すると,このように出現頻度が完全に一致していなくてもほとんどの場合に重複して出現するフレーズは統合することが望ましいが,すべての極大フレーズをそのまま翻訳候補とする実装では重複を取り除けない場合がある.そこで,式(\ref{eqn:maxsubst})の制約をパラメータ$\lambda$で緩和して,より一般化した半順序関係を下記のように定義する.\begin{equation}s_1\overset{*}{\preceq}s_2\Leftrightarrow\exists\alpha,\beta:~s_2=\alphas_1\beta\wedge\lambda\cdotocc(s_1)<occ(s_2)\label{eqn:semi-maxsubst}\end{equation}ここで,$\lambda$は0から1の間の実数値を取る.この半順序$\overset{*}{\preceq}$を用いた場合にも極大性を定義可能であり,通常の極大フレーズ(以下,\textbf{標準極大フレーズ}とする)と区別するため\textbf{$\lambda$-極大フレーズ}と呼ぶことにし,このような特徴を持つフレーズを列挙し,未カバーフレーズを頻度順に追加する手法を\textbf{$\lambda$-極大フレーズ選択手法}として併せて提案する.$\lambda$-極大フレーズ選択手法のパラメータ$\lambda$を1より小さく設定することで,2つの重複するフレーズの一致条件を取り除き,近似する出現頻度を許容するようになる.特殊な場合として$\lambda=1-\epsilon$のときには標準極大フレーズ選択手法と同一であり($\epsilon$は正の極小値),$\lambda=0$のときには部分的アノテーションを行わない,文の乱択手法となる.両者の利点を両立できる可能性を考慮して,本研究では特に中間の値となる$\lambda=0.5$を用いた際の影響を他の手法と比較に用いている.$\lambda<1$における$\lambda$-極大フレーズは,常に標準極大フレーズの条件を満たすため,原言語コーパス中の$\lambda$-極大フレーズの候補は,すべての標準極大フレーズの中から探せばよい.標準極大フレーズは$O(N)$時間で列挙可能であることは先に述べた通りであるが,これは接尾辞配列に対応する接尾辞木の内部ノードをたどりながら列挙する.この時に,極大フレーズ$p$に対応するノードから祖先ノードをたどっていき,対応する祖先ノードのフレーズ$p_1$が$\lambda\cdotocc(p_1)<occ(p)$である場合,$p_1$は$\lambda$-極大フレーズの条件を満たさないため除外できる.接尾辞木のすべての内部ノードについて,このような処理を行うことで,除外されなかったフレーズは$\lambda$-極大であり,高々$N-1$個の内部ノードに対し,$O(logN)$回の文字列比較で出現頻度比較を行い,根ノードから帰りがけ順で処理を行えば$O(NlogN)$回の文字列比較で$\lambda$-極大フレーズを列挙できる.また,標準極大フレーズと同様に,$\lambda$-極大フレーズとその出現頻度は,$O(NlogN)$時間で頻度順に列挙可能である.\subsection{部分構文木選択手法}\label{sec:struct-freq}本節では\ref{sec:maxsubst-freq}節で述べた提案手法とは別に,原言語コーパスの句構造解析結果に基くフレーズ選択手法を提案する.本手法では,図\ref{fig:struct-freq}に示すように,翻訳候補となる原言語コーパスの全文を句構造解析器で処理し,得られた構文木の全部分木をたどりながらフレーズを数え上げ,その後にフレーズを頻度順に選択する.これにより,木をまたがるようなフレーズ選択は行われないため,句範疇が分断されるような問題は発生せず,選択されるフレーズは構文的にまとまった意味を持つと考えられる.本研究では選択されるフレーズが能動学習効率に与える影響の調査を目的とするため,他の手法と比較しやすいように構文木をフレーズ抽出のみに用いており,そのため異なる構造の部分木であっても単語列が一致している場合には同一のものとしてカウントする.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f2.eps}\end{center}\caption{\small構文木に基づく手法のフレーズカウント条件}\label{fig:struct-freq}\end{figure}本手法で選択された翻訳候補のフレーズは,統語情報を用いない他の手法と比べて,人手翻訳を行う際に有用で,同じ追加単語数でも質の高い正解データが得られるものと期待できる.$n$-gram頻度や極大フレーズの選択手法では,表層的な単語列を数え上げるため,``twomethodsareproposed''というフレーズがあると,その一部である``areproposed''も頻度に加えるが,構文木に基づく場合,図\ref{fig:struct-freq}(b)に示すように``areproposedanddiscussed''の一部である``areproposed''は部分木をまたがるために頻度に加えない.このため,構文木に基づくフレーズ選択手法では,フレーズの頻度が他の手法による表層的な数え上げよりも小さくなる傾向があり,結果として2単語以上からなるフレーズを選択する優先順位が低くなりやすい.この手法では,全部分木のフレーズを数え上げるため,単語$n$-gram頻度に基づくフレーズ選択手法と同様に,フレーズの重複により追加単語数あたりの能動学習効率に悪影響を及ぼす可能性がある.従って,\ref{sec:maxsubst-freq}節で提案した$\lambda$-極大フレーズと併用することで,重複を取り除き,選択するフレーズを絞り込む手法も同時に提案する(\textbf{$\lambda$-極大部分構文木選択手法}). \section{シミュレーション実験} \label{sec:simulation}\subsection{実験設定}\label{sec:setup}\ref{sec:proposed}節で提案したフレーズ選択手法が,機械学習のための能動学習にどのような影響を与えるかを調査するため,本研究では先ず,逐次的にフレーズの対訳を追加して翻訳モデルを更新するシミュレーション実験を実施し,各ステップにおける翻訳精度の比較評価を行った.本実験では,高精度な句構造解析器を利用可能な英語を原言語とし,目的言語にはフランス語と日本語を選択した.対訳コーパスが全く存在しない状態から能動学習を用いることも可能であるが,より現実的な利用方法を考慮し,一般分野の対訳コーパスが存在している状態に,専門分野の追加コーパスからフレーズを選択し,翻訳モデルの高精度化を目指す.英仏翻訳には,WMT2014\footnote{http://statmt.org/wmt14/}の翻訳タスクで用いられた欧州議会議事録のEuroparlコーパス\footnote{http://www.statmt.org/europarl/}\cite{koehn05europarl}をベースとし,医療翻訳タスクで用いられたデータのうちEMEA\footnote{http://opus.lingfil.uu.se/EMEA.php}\cite{tiedemann09},PatTR\footnote{http://www.cl.uni-heidelberg.de/statnlpgroup/pattr/}\cite{waeschle12},Wikipediaタイトルを合わせて追加コーパスとした.英日翻訳には,日常的な英語表現を広くカバーする英辞郎例文データ\footnote{http://eijiro.jp}をベースの対訳コーパスとし,科学論文の概要を元に抽出されたASPEC\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}\cite{nakazawa16lrec}を追加の対訳コーパスとして用いた.前処理として,日本語コーパスの単語分割にはKyTea\cite{neubig11-kytea}を用いており,句構造解析と単語アラインメント推定の精度を確保するため,学習用対訳コーパスのうち,単語数が60を超える文の対訳は取り除いた.前処理後の対訳データの内訳を表\ref{tab:dataset}にまとめる.本実験では,逐次的なデータの追加とモデルの再学習を行うものの,各ステップで1フレーズずつ追加するのでは数十万フレーズ以上ある翻訳候補すべての影響を現実的な時間で評価できないと判断したため,ステップ毎の追加フレーズ数は次式に従い可変とした\footnote{例として,追加された累積フレーズ数は能動学習開始から0,1,2,…,9,10,12,14,…,20,23,…と変化する.}.\begin{equation}\mbox{\#additional\_phrases}={\left\lfloor\frac{\mbox{\#accmulated\_additional\_phrases}}{10}\right\rfloor}+1\label{eqn:step}\end{equation}\begin{table}[t]\caption{対訳コーパスのデータ内訳(有効数字3桁)}\label{tab:dataset}\input{07table01.txt}\end{table}翻訳の枠組みには,フレーズベース機械翻訳\cite{koehn03pbmt}を用い,Mosesツールキット\footnote{http://www.statmt.org/moses}\cite{koehn07moses}を利用して翻訳モデルの学習やデコードを行った.ただし,少量の対訳を追加して単語アラインメントの再学習およびフレーズテーブルの再構築を行うには計算コストが非常に大きい.そのため,単語アラインメントにはGIZA++\cite{och03alignment}を逐次学習に対応させたinc-giza-pp\footnote{https://github.com/akivajp/inc-giza-pp/}を用いており,翻訳モデルの学習にはMosesのMMSAPT(Memory-mappedDynamicSuffixArrayPhraseTables\cite{germann14dynamic})機能を利用して,フレーズ抽出を行わずに接尾辞配列による動的なフレーズテーブルの構築を行った.言語モデルの学習にはKenLM\cite{heafield11}を用いて,ベースコーパスと追加コーパスの全学習用データから$n=5$の$n$-gram言語モデルを学習した.デコード時のパラメータ調整にはMERT\cite{och03mert}を用いたが,フレーズ追加の度に最適化を行うのは時間的に現実的でないため,ベースコーパス全文で学習した翻訳モデルに対して,追加コーパス用の開発データセットで自動評価尺度のBLEUスコア\cite{papineni02}が最大となるよう学習を行い,その後はパラメータを固定し能動学習を行った.能動学習に用いるフレーズ選択手法には従来手法と提案手法を含め,以下のように8つのタスクを設定した.\begin{description}\item[文の乱択(sent-rand):]\mbox{}\\追加コーパスの順序をシャッフルし,順次選択\item[フレーズの乱択(4gram-rand):]\mbox{}\\ベースコーパス中に含まれない追加コーパス中の単語数4以下のフレーズを列挙後にシャッフルし,順次選択\item[4-gram頻度に基づく文選択(sent-by-4gram-freq):]\mbox{}\\翻訳済みデータに含まれず,単語数4以下で最高頻度のフレーズを含む文を順次選択(ベースライン,\ref{sec:sent-by-4gram-freq}節)\item[4-gram頻度に基づくフレーズ選択(4gram-freq):]\mbox{}\\翻訳済みデータに含まれず,単語数4以下で最高頻度のフレーズを順次選択(ベースライン,\ref{sec:4gram-freq}節)\item[標準極大フレーズ選択手法(maxsubst-freq):]\mbox{}\\翻訳済みデータに含まれず,追加コーパス中で最高頻度の標準極大フレーズを順次選択(提案手法,\ref{sec:maxsubst-freq}節)\item[$\lambda$-極大フレーズ選択手法(reduced-maxsubst-freq):]\mbox{}\\翻訳済みデータに含まれず,追加コーパス中で最高頻度の$\lambda$-極大フレーズ($\lambda=0.5$)を順次選択(提案手法,\ref{sec:maxsubst-freq}節)\item[部分構文木選択手法(struct-freq):]\mbox{}\\追加コーパスの句構造解析結果を元に,部分木を成すようなフレーズの中から翻訳済みデータに含まれず最高頻度のものを順次追加(提案手法,\ref{sec:struct-freq}節)\item[$\lambda$-極大部分構文木選択手法(reduced-struct-freq):]\mbox{}\\追加コーパスの句構造解析結果を元に,部分木を成すような$\lambda$-極大フレーズの中から翻訳済みデータに含まれない最高頻度のものを順次追加(提案手法,\ref{sec:maxsubst-freq}節,\ref{sec:struct-freq}節)\end{description}それぞれの手法で選択されたフレーズの正解訳を得るために,文の選択に対しては対応する対訳文をそのまま選択,フレーズの選択に対してはベースコーパスと追加コーパスの全文を用いて学習した翻訳モデルをオラクルとして,翻訳結果を対訳フレーズとした.構文木に基づく手法では,句構造解析を行うためにCkylark\footnote{https://github.com/odashi/Ckylark}\cite{oda15ckylark}を使用した\footnote{本実験では専門分野のコーパスに対して句構造解析を行ったため,科学用語などの多くは句構造解析モデル中に含まれていないが,Ckylarkは単語の並びから未知語に対しても何らかの品詞を推定できるため,本研究では未知語による解析の失敗などは特に考慮していない.}.maxsubst-freqやreduced-maxsubst-freqでは出現頻度1のものを取り除くことを\ref{sec:maxsubst-freq}節で述べたが,文を含まないフレーズの出現頻度を扱う他の全ての手法においても条件を揃えるために,出現頻度1のフレーズは除外した\footnote{予備実験により,頻度1のフレーズを含めた場合と取り除いた場合のフレーズ数を比較したが,頻度1の異なるフレーズは頻度2以上のフレーズの等倍以上,maxsubst-freqなどでは10倍以上列挙された.これら頻度1のフレーズは計算資源を圧迫し,カバレッジへの影響も非常に小さいため除外して実験を行うこととした.}.\subsection{実験結果}\label{sec:results}\textbf{能動学習効率の比較:}シミュレーション実験により得られた結果から,追加単語なし,1万単語追加直後,10万単語追加直後,100万単語追加直後,全フレーズ追加時点における各手法のBLEUスコアの推移を表\ref{tab:bleu-scores}に示す\footnote{英日翻訳におけるベースシステムのBLEUスコアが10を下回る低い値から開始しているが,専門分野の対訳が極端に不足しているためである.先行研究\cite{haffari09naacl,bloodgood10,ananthakrishnan10,ananthakrishnan10emnlp}においても,対訳不足の状態から能動学習によって分野適応する際に共通してBLEUスコアを用いているため,本研究でも同様の評価を行った.}.全フレーズ追加時点でのスコアは,各手法で選択されうるフレーズの全対訳を用いて学習した翻訳精度であるため,各手法の性能限界と考えられるが,追加される単語数が大きく異なるため能動学習効率という観点では単純比較ができない.\begin{table}[b]\hangcaption{各手法におけるBLEUスコアの推移(100万単語追加直後までの各時点において下線は乱択手法とベースライン手法の中でスコア最大であることを示し,このスコアを上回る提案手法のスコアをボールド体で示す.また,全手法でスコア最大のものには短剣符$\dagger$を付記した.)}\label{tab:bleu-scores}\input{07table02.txt}\end{table}この表から,2つの乱択手法と2つのベースライン手法と比較した場合,10万単語追加直後までは安定して4gram-freqでの精度の伸びが良く,文全体ではなく高頻度のフレーズのみを選択することによる利点を確認できる.ただし,英仏翻訳における100万単語追加時点では,4gram-freqのスコアがsent-by-4gram-freqを下回っており,また,両言語対における全フレーズ追加時点では4gram-freqのスコアがsent-by-4gram-freqやsent-randを下回っていることから,一定量以上の単語数を追加する場合には4gram-freqでは文選択手法より能動学習効率が低下し,性能限界も高くないことが分かる.これは,\ref{sec:4gram-freq}節でも述べたように,4gram-freqでは選択されるフレーズの最大長が4単語までに制限されており,より長いフレーズの対応を学習できないことが翻訳する上で不利であるためと考えられる.次に,提案手法とベースライン手法との比較を行う.提案手法の中では,reduced-maxsubst-freqはmaxsubst-freqよりほぼ常に高スコアであり,reduced-struct-freqはstruct-freqよりほぼ常に高スコアであったため,$\lambda$-極大性を利用して長いフレーズを優先することで,結果的に少ない単語数でカバレッジが向上したと考えられる.このため,$\lambda$-極大性を利用する2つの提案手法と2つのベースライン手法との,より詳細な比較を行いたい.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f3.eps}\end{center}\hangcaption{追加単語数あたりのBLEUスコア(左上:10万単語まで追加の英仏翻訳,右上:100万単語まで追加の英仏翻訳,左下:10万単語まで追加の英日翻訳,右下:100万単語まで追加の英日翻訳)}\label{fig:simulation}\end{figure}図\ref{fig:simulation}には,それぞれの言語対で10万単語まで追加した場合と100万単語まで追加した場合の追加単語数と翻訳精度の変化を示す.また,ベースコーパスと追加コーパスの全対訳データを用いて学習・評価したスコアをオラクルスコアとして,右側の100万単語追加までのグラフに併せて示す.reduced-maxsubst-freqは,英日翻訳ではベースライン手法よりも安定して高いスコアであったが,英仏翻訳では100万単語追加時点まで4gram-freqとほぼ同程度のスコアとなった.ただし,両言語対において全フレーズ追加時点でのスコアは4gram-freqや4gram-randを大きく上回っているため性能限界は高く,提案手法では先述のような最大フレーズ長制限の問題が発生しないことが大きな原因と考えられる.また,英仏翻訳においてreduced-maxsubst-freqと4gram-freqで大きな差が見られなかった原因として,両手法で選択された高頻度フレーズを見たところ,最高頻度順に``accordingtoclaim''(1,502,455回),``claim1''(1,133,243回),``characterizedinthat''(858,404回)などと共通のフレーズが選択されており,\ref{sec:intro}節で述べたような,フレーズ間の重複はあまり発生しておらず,句範疇の断片化の方が目立っていた.複数の高頻度な4-gramフレーズが共通の部分単語列を多く有するという状態は,特に高頻度の$n>4$単語からなる長い未カバーフレーズが出現する場合であり,本実験で用いた医療文書コーパス中の高頻度の長いフレーズは,専門的な表現をあまり含んでいないために一般分野の大規模コーパス中に既に含まれていたことが原因と考えられる.一方,英日翻訳では,4gram-freqで選択された高頻度フレーズは``resultssuggestthat''(6,352回),``theseresultssuggest''(5,115回),``theseresultssuggestthat''(4,791回)などのように多くの重複が見られ,reduced-maxsubst-freqでは,こういったフレーズを1つにまとめられたことが大きいと考えられる.特に,英日翻訳で用いた一般分野のコーパスは訳40万文と比較的小規模であり,日常表現をまとめたものであるため長いフレーズはあまりカバーされていなかったことの影響もあるだろう.reduced-struct-freqは,両言語対においてほぼ安定して最高スコアのフレーズ選択手法であった.英日翻訳における10万単語追加時点のみ,reduced-maxsubst-freqが最大スコアとなっているが僅差であり,学習曲線の振れ幅も大きいため誤差の範囲であろう\footnote{ブートストラップ・リサンプリング法\cite{koehn04bootstrap}で統計的有意差を検定したところ,$p<0.1$の有意さも見られなかった}.特に英仏翻訳シミュレーション結果では,最初からreduced-struct-freqやstruct-freqでの精度の伸びが良く,他の手法よりも精度が大きく上回り,100万単語追加時点でも差はほとんど縮まらなかった.一方で,英日翻訳の追加単語数が少ないうちはreduced-maxsubst-freqや4gram-freqとあまり大きな差は見られなかったが,約4万単語追加時点から他の手法よりも精度が高くなっており,約50万単語追加時点からはフレーズ選択手法の精度がほぼ横這いとなった.\textbf{選択されたフレーズ長の傾向:}手法毎に翻訳対象のフレーズ選択基準が異なるため,フレーズ長制限の有無や重複の削減方法の違いによって,翻訳対象を選び尽くした場合のフレーズ数等に大きな差が出ることになる.フレーズ頻度に基づくそれぞれの手法によって選択されるフレーズの傾向を調べるため,翻訳候補を全て追加し終えた時点および約1万単語のみ追加した時点でのフレーズ数,単語数,平均フレーズ長を表\ref{tab:selected-data}にまとめる.全翻訳対象を翻訳し終えた時点でカバレッジが収束するため,翻訳対象の単語数が少ないほどカバレッジの収束が速く,翻訳精度が向上しやすいと考えられる.一方,一度に追加するフレーズが長いほど,同時に複数の$n$-gramをカバーできるため,平均フレーズ長が大きいほど4-gramカバレッジ等を向上させる上で有利と考えられる.提案手法によって選択されたフレーズの平均フレーズ長が英日翻訳で3.03〜3.58単語,英仏翻訳で5.30〜6.68単語と大きく差が開いているが,これは原言語側のベースコーパスと追加コーパスの組み合わせのみに依存しており,目的言語には当然依存しない.また,表\ref{tab:selected-data}のフレーズ頻度に基づく手法において,全フレーズ追加時の平均フレーズ長に比べ,1万単語追加時の平均フレーズ長が短いことを確認できる.短いフレーズほど高頻度となりやすく優先的に選択されるため当然であるが,構文木に基づく手法では1万単語追加時点の平均フレーズ長が極端に小さくなっており,長いフレーズの頻度が大幅に下がりやすい傾向が見られる.\begin{table}[t]\caption{手法ごとに選択されるフレーズ内訳(有効数字3桁)}\label{tab:selected-data}\input{07table03.txt}\end{table}\textbf{カバレッジの影響:}また,各手法によって,翻訳済みのデータが実際に評価データをどの程度カバーしているかを調査する.各手法でフレーズを1つずつ選択していき,追加単語数が1万,10万,100万にそれぞれ達する時点での評価データの1-gramカバレッジおよび4-gramカバレッジを表\ref{tab:coverage}にまとめる.この結果から,reduced-struct-freqではどの場合でも最も1-gramカバレッジが向上していることが分かり,効率的に未知語がカバーされることになる.struct-freqや,reduced-struct-freqにおいて,他の手法よりも高い1-gramカバレッジを得られた理由としては,\ref{sec:struct-freq}節で述べたように木構造に基づくフレーズ選択手法では,表層的な単語列の出現回数ではなく特定の部分木の句範疇をなすフレーズとして出現頻度を数え上げるため,2単語以上からなるフレーズの頻度は大きく低下し,優先的に高頻度の未カバー1-gramを選択したことの影響が大きいと考えられる.一方で,4-gramカバレッジに関しては,3単語以下のフレーズを追加しても全く影響が出ないため,長いフレーズを追加する方が有利であることは明らかであり,sent-by-4gram-freqで最も効率的に向上が見られる.英仏翻訳では,1万単語追加時点で4-gramカバレッジの上4桁に変化が見られなかった.このように,フレーズ選択時に長いフレーズを選ぶか,短いフレーズを選ぶかは,カバレッジの影響を考える際にトレードオフの関係が生じるが,$\lambda$-極大性に基いて重複を取り除くことによって,1-gramカバレッジと4-gramカバレッジを両立して向上させられることが確認できた.\begin{table}[b]\hangcaption{各フレーズ選択手法がカバレッジに与える影響(小数点第三位を四捨五入),ボールド体は一定の単語数追加時点でのカバレッジ最大値を示す}\label{tab:coverage}\input{07table04.txt}\end{table}\begin{table}[b]\caption{4gram-freqで重複して選択されるフレーズの提案手法による削減量}\label{tab:reduced-words}\input{07table05.txt}\end{table}\textbf{削減された単語数:}\ref{sec:4gram-freq}節では,4gram-freqの問題として,選択されるフレーズ間で重複して出現する共通の部分単語列が多いことを挙げ,この問題に対処するために\ref{sec:maxsubst-freq}節で$\lambda$-極大フレーズ選択手法を提案した.表\ref{tab:reduced-words}に,4gram-freqで1万単語追加直後,10万単語追加直後,100万単語追加直後の各時点で選択されたフレーズが,maxsubst-freqやreduced-maxsubst-freqでより長いフレーズに統合されて削減された単語数と割合をまとめる.表から,英仏翻訳においても英日翻訳においても,maxsubst-freqでは1\%から4\%程の少量の単語数しか削減できていないが,これは\ref{sec:maxsubst-freq}節で述べたように,標準極大フレーズでは包含関係にあるフレーズの出現頻度が完全一致するという厳しい制約があるため,多くのフレーズが極大フレーズとなったことに起因する.一方,両言語対において,reduced-maxsubst-freqでは24.70\%以上,最大で50.79\%の単語が削減された.この結果からも,フレーズの出現頻度の一致条件を緩めることで,包含されたフレーズを効果的により多く削減することができると言えるだろう. \section{人手翻訳実験} \label{sec:manual-trans}\subsection{実験設定}\label{sec:manual-setting}前節のシミュレーション実験で得られた結果が,現実の人手翻訳による能動学習を行う際にも有効と言えるかどうかを調査するため,外部委託機関を通じて翻訳作業を依頼し,それによって得られた結果を用いて従来手法との比較評価を行った.特に,翻訳に要した実作業時間や,得られる対訳の自信度評価も能動学習の効果を比較する上で重要である.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f4.eps}\end{center}\caption{人手翻訳ユーザーインターフェイスのイメージ}\label{fig:manual-trans}\end{figure}人手翻訳の依頼を行うため,図\ref{fig:manual-trans}に示すような作業用ユーザーインターフェイスを持つWebページを作成した.翻訳対象のフレーズのみ提示されても翻訳が困難であったり多くの時間が必要となる可能性があるため,Bloodgoodらの実験手法\cite{bloodgood10}に従い,翻訳候補のフレーズを含むような文を表示して文脈を明らかにした上で,ハイライトされたフレーズのみを翻訳するよう依頼した.フレーズを含む文は複数存在し得るが,本実験では単純に最も短い文を選択して表示した.各フレーズの翻訳後には,翻訳者がその翻訳結果にどの程度確証を持てるかという主観的な自信度を3段階で評価するよう併せて依頼した.翻訳時の自信度評価は表\ref{tab:guideline}に掲載した翻訳作業ガイドラインを基準とし,翻訳が困難で自信度評価が1の場合のみ,翻訳のスキップを許容した.また,翻訳候補が表示されてから対訳が送信されるまでの時間の記録も行った.\begin{table}[t]\caption{\small翻訳作業ガイドライン}\label{tab:guideline}\input{07table06.txt}\end{table}比較評価に用いたフレーズ選択手法には,ベースラインとして従来手法の$n=4$における単語$n$-gram頻度に基づく文選択手法(sent-by-4gram-freq)および単語$n$-gram頻度に基づくフレーズ選択手法(4gram-freq)の2つを,提案手法として,前節のシミュレーション実験で最も高い能動学習効率を示した$\lambda$-極大部分構文木選択手法(reduced-struct-freq)を用いて比較評価を行った.翻訳作業を行ったのは専門の翻訳者3名であり,それぞれの手法で1万単語以上のフレーズに対する翻訳が得られるよう発注を行った.翻訳者毎の能力や評価の偏りによる影響を小さくするため,毎回異なる手法からフレーズを選択して新しい翻訳対象の表示を行った.実験に用いたデータやツールは,英日翻訳のシミュレーション実験で用いたものと同一である(\ref{sec:simulation}節).しかし,人手翻訳によって収集した対訳データは,ベースシステムの学習に用いた対訳データと比較して非常に小規模であり,追加されたフレーズ対が与える影響が非常に小さくなってしまう可能性があるため,フレーズ対を追加する度に,ベースシステムの対訳データと収集した追加データで個別に5-gram言語モデルを学習し,開発用データセットにおけるパープレキシティが最小となるようSRILM\cite{stolcke02}を用いて二者を線形補間で合成して用いた\footnote{言語モデル$L$における文$e$の生起確率を$P_{L}(e)$とすると,2つの言語モデル$L_1$,$L_2$を線形補間で合成したモデル$L_{1+2}$の生起確率は$P_{L_{1+2}}(e)=\alphaP_{L_1}(e)+(1-\alpha)P_{L_2}(e)$となる.$\alpha$は0から1の間を取る補完係数であり,開発用データ$E_{dev}$に対して,$PPL(E_{dev})=exp\left(\frac{\sum_{e\inE_{dev}}-logP_{L_{1+2}}(e)}{|E_{dev}|}\right)$が最小となるように調整される.}.\subsection{実験結果}\label{sec:manual-result}\textbf{能動学習効率:}図\ref{fig:manual-transition}のグラフは,本実験で収集した対訳データを用いて翻訳モデルを学習した際の翻訳精度の推移を表している.翻訳者が翻訳をスキップしたフレーズに関しては,追加単語数には含めず,累計作業時間には含めているが,実際にスキップされたフレーズ数は極少数であったため,この影響は小さい.左のグラフから,reduced-struct-freqで,従来手法よりも急激に翻訳精度が向上している様子が分かる.クラウドソーシングのような形で翻訳作業を委託する際には,文章量,特に単語数に応じた予算が必要となることから\cite{bloodgood10},こういった状況では提案手法で高い費用対効果を発揮できることになる.一方,右のグラフから,作業時間あたりの能動学習効率は,4gram-freqを上回ることはなかった.これは,前節でテーブル\ref{tab:coverage}をもとに議論したように,部分構文木選択手法では,未カバーの1-gram,即ち未知語を優先的にカバーする傾向があるため,本実験タスクでは科学分野の専門用語が多く,翻訳に多くの時間を要したものと考えられるため,後の議論で詳細な分析を行う.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f5.eps}\end{center}\hangcaption{各手法における追加単語数あたりのBLEUスコア推移(左)と累計作業時間あたりのBLEUスコア推移(右)}\label{fig:manual-transition}\end{figure}\textbf{作業時間と自信度評価:}表\ref{tab:workload}に,各手法で1万単語をすべて翻訳し終えるのに要した時間と,3段階で主観評価を行った自信度評価の統計値をまとめる.表\ref{tab:phrases}は,各手法で選択されたフレーズ数の内訳である.提案手法では,合計作業時間が他の手法の倍近い値になっているが,提案手法では先述のように専門用語を重点的に選択する傾向が確認されており,表\ref{tab:phrases}からは,4gram-freqと比較していて4倍近い数の未知語が選択され,全体的なフレーズ数も多いことが大きな要因であろう.一方で,選択されたフレーズの翻訳作業に対する自信度評価は提案手法が最大で,全体の約79\%のフレーズ翻訳作業で最大評価の3が選択されており,質の高い対訳を得られたと考えられる.この結果は,句構造を保つようなフレーズが選択されることで,構文的に対応の取れた翻訳を行えた点が大きく影響していると考えられる.\begin{table}[b]\caption{合計実作業時間と自信度評価の統計}\label{tab:workload}\input{07table07.txt}\end{table}\begin{table}[b]\caption{各手法で選択されたフレーズ数の内訳}\label{tab:phrases}\input{07table08.txt}\end{table}\begin{table}[b]\caption{各手法におけるフレーズの翻訳に要した平均時間}\label{tab:duration}\input{07table09.txt}\end{table}表\ref{tab:duration}には,各手法で選択されたフレーズの翻訳に要した平均時間の傾向を示す.手法の内外で翻訳候補のフレーズ長に大きく差があり,単純な比較を行うことができないため,フレーズ長に応じて個別に平均作業時間を求めて比較を行うことにした.この表から,1単語の翻訳作業に要した平均時間は,2〜4単語からなるフレーズの翻訳よりも長くなるという現象が見られるが,未カバーの単語はほとんどが専門用語であるため,辞書やオンライン検索で慎重に意味を調べる必要性を考えれば納得できる.また,これらは1フレーズの翻訳に要した平均時間であるため,1単語の翻訳に要する時間コストとして換算した場合,1単語フレーズの翻訳時間は2単語フレーズの単語翻訳時間の倍以上であり,専門用語の翻訳に要するコストがいかに大きいかが分かる.各手法におけるフレーズ長ごとの平均自信度評価を表\ref{tab:confidence}に示す.この表から,提案手法では1単語の翻訳時の平均自信度はベースライン手法よりも低くなっているのが分かるが,ベースライン手法では1単語のみ選択されることが少なく,提案手法では多くの専門用語が選択されたことが原因と考えられる.一方で,従来手法ではフレーズ長が長くなるほど劇的に自信度が下がる傾向が見られるが,提案手法においては長いフレーズに対しても安定して高い自信度が得られており,構文的に整ったフレーズを選択する手法の有効性が如実に現れている.専門用語の対訳を得るには時間がかかるが,調べれば対応する訳語を得られる可能性も高いため,対訳の自信度が高くなる傾向も見られた.\begin{table}[b]\caption{各手法におけるフレーズ長ごとの平均自信度評価}\label{tab:confidence}\input{07table10.txt}\end{table}\begin{table}[b]\caption{保証値以上の自信度を持つフレーズ対のみを学習に用いた場合の翻訳精度}\label{tab:confidence-filter}\input{07table11.txt}\end{table}\textbf{自信度帯による翻訳精度:}各手法によって得られたフレーズ対をすべて学習に用いた場合の翻訳精度を表\ref{tab:confidence-filter}に示す.また,それぞれのフレーズ対に自信度評価が記録されているため,最低保証値を定めて全フレーズ対のうち自信度が2以上や3のフレーズ対のみを学習に用いた翻訳モデルの評価も行った.その結果,どの手法においても自信度1の対訳を除去して2以上のフレーズ対のみを用いた場合の方が,全フレーズ対を用いる場合よりも翻訳精度の向上が見られた.一方,自信度3の対訳のみを用いる場合は精度がかえって減少したが,これは大幅に対訳データを削ってしまうことによる悪影響であろう.追加データ無しのベースシステムではBLEUスコアが約9.37\%であったが,提案手法によって収集した1万単語分の追加データのうち自信度2以上のものを用いて翻訳モデルを学習することで,BLEUスコアは約10.72\%となり,約1.35ポイントの翻訳精度向上を達成することができた. \section{まとめ} \label{seq:conclusion}本研究では,機械翻訳のための能動学習における,新しいフレーズ選択手法として,フレーズの極大性を導入し,それをパラメータ$\lambda$で一般化して頻度順に追加する$\lambda$-極大フレーズ選択手法と,句構造解析結果から部分木のみを頻度順に選択する部分構文木選択手法,およびそれらの組み合わせである$\lambda$-極大部分構文木選択手法を提案した.提案手法の有効性を調査するため,先ず,人手翻訳によるアノテーション作業を擬似的にSMTで行うシミュレーション実験を実施したところ,冗長に選択されるフレーズを$\lambda$-極大性に基づいて削減することで,従来より少ない追加単語数で精度向上を達成することができた.また,$\lambda$-極大部分構文木選択手法が実際の人手翻訳に与える影響を調査するため,人手翻訳実験を実施したところ,翻訳精度と翻訳者の自信度評価のどちらにおいても従来手法より高い結果が得られた.しかし,今回用いた手法では専門用語が重点的に選択されるため,従来のフレーズ選択手法よりも長い翻訳時間を要することも示された.そのため,翻訳時間を短縮しつつ,有効にモデルを高度化させられるような能動学習手法を考案することが今後の課題である.具体的には,未知語の獲得手法\cite{daume11domain}や,時間効率を最適化するフレーズ選択手法\cite{sperber14}が改善の手がかりとなり得る.また,フレーズ中の部分フレーズを``oneoftheprecedingX''のように変数でテンプレート化する手法\cite{chiang07hiero}を用いて能動学習に利用する手法の検討も興味深いと考えている.\acknowledgment本研究は,(株)ATR-Trekの助成を受け実施されたものです.また,(株)バオバブには人手翻訳実験のための翻訳作業を支援して頂きました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ananthakrishnan,Prasad,Stallard,\BBA\Natarajan}{Ananthakrishnanet~al.}{2010a}]{ananthakrishnan10}Ananthakrishnan,S.,Prasad,R.,Stallard,D.,\BBA\Natarajan,P.\BBOP2010a\BBCP.\newblock\BBOQASemi-SupervisedBatch-ModeActiveLearningStrategyforImprovedStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofCoNLL},\mbox{\BPGS\126--134}.\bibitem[\protect\BCAY{Ananthakrishnan,Prasad,Stallard,\BBA\Natarajan}{Ananthakrishnanet~al.}{2010b}]{ananthakrishnan10emnlp}Ananthakrishnan,S.,Prasad,R.,Stallard,D.,\BBA\Natarajan,P.\BBOP2010b\BBCP.\newblock\BBOQDiscriminativeSampleSelectionforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\626--635}.\bibitem[\protect\BCAY{Bloodgood\BBA\Callison-Burch}{Bloodgood\BBA\Callison-Burch}{2010}]{bloodgood10}Bloodgood,M.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2010\BBCP.\newblock\BBOQBuckingtheTrend:Large-ScaleCost-FocusedActiveLearningforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\854--864}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93smt}Brown,P.~F.,Pietra,V.~J.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19},\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2007}]{chiang07hiero}Chiang,D.\BBOP2007\BBCP.\newblock\BBOQHierarchicalPhrase-BasedTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(2),\mbox{\BPGS\201--228}.\bibitem[\protect\BCAY{Daum{\'{e}}~III\BBA\Jagarlamudi}{Daum{\'{e}}~III\BBA\Jagarlamudi}{2011}]{daume11domain}Daum{\'{e}}~III,H.\BBACOMMA\\BBA\Jagarlamudi,J.\BBOP2011\BBCP.\newblock\BBOQDomainAdaptationforMachineTranslationbyMiningUnseenWords.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\407--412}.\bibitem[\protect\BCAY{Eck,Vogel,\BBA\Waibel}{Ecket~al.}{2005}]{eck05}Eck,M.,Vogel,S.,\BBA\Waibel,A.\BBOP2005\BBCP.\newblock\BBOQLowCostPortabilityforStatisticalMachineTranslationbasedinN-gramFrequencyandTF-IDF.\BBCQ\\newblockIn{\BemProceedingsofIWSLT},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{Germann}{Germann}{2014}]{germann14dynamic}Germann,U.\BBOP2014\BBCP.\newblock\BBOQDynamicPhraseTablesforMachineTranslationinanInteractivePost-editingScenario.\BBCQ\\newblockIn{\BemProceedingsofAMTA2014WorkshoponInteractiveandAdaptiveMachineTranslation},\mbox{\BPGS\20--31}.\bibitem[\protect\BCAY{Gonz{\'{a}}lez-Rubio,Ortiz-Mart{\'{i}}nez,\BBA\Casacuberta}{Gonz{\'{a}}lez-Rubioet~al.}{2012}]{gonzalezrubio12}Gonz{\'{a}}lez-Rubio,J.,Ortiz-Mart{\'{i}}nez,D.,\BBA\Casacuberta,F.\BBOP2012\BBCP.\newblock\BBOQActiveLearningforInteractiveMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEACL},\mbox{\BPGS\245--254}.\bibitem[\protect\BCAY{Green,Wang,Chuang,Heer,Schuster,\BBA\Manning}{Greenet~al.}{2014}]{green14}Green,S.,Wang,S.~I.,Chuang,J.,Heer,J.,Schuster,S.,\BBA\Manning,C.~D.\BBOP2014\BBCP.\newblock\BBOQHumanEffortandMachineLearnabilityinComputerAidedTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1225--1236}.\bibitem[\protect\BCAY{Haffari,Roy,\BBA\Sarkar}{Haffariet~al.}{2009}]{haffari09naacl}Haffari,G.,Roy,M.,\BBA\Sarkar,A.\BBOP2009\BBCP.\newblock\BBOQActiveLearningforStatisticalPhrase-basedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\415--423}.\bibitem[\protect\BCAY{Haffari\BBA\Sarkar}{Haffari\BBA\Sarkar}{2009}]{haffari09acl}Haffari,G.\BBACOMMA\\BBA\Sarkar,A.\BBOP2009\BBCP.\newblock\BBOQActiveLearningforMultilingualStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\181--189}.\bibitem[\protect\BCAY{Heafield}{Heafield}{2011}]{heafield11}Heafield,K.\BBOP2011\BBCP.\newblock\BBOQKenLM:FasterandSmallerLanguageModelQueries.\BBCQ\\newblockIn{\BemProceedingsofWMT},\mbox{\BPGS\187--197}.\bibitem[\protect\BCAY{Kasai,Lee,Arimura,Arikawa,\BBA\Park}{Kasaiet~al.}{2001}]{kasai01}Kasai,T.,Lee,G.,Arimura,H.,Arikawa,S.,\BBA\Park,K.\BBOP2001\BBCP.\newblock\BBOQLinear-TimeLongest-Common-PrefixComputationinSuffixArraysandItsApplications.\BBCQ\\newblockIn{\BemProceedingsofCPM},\mbox{\BPGS\181--192}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04bootstrap}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofEMNLP},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2005}]{koehn05europarl}Koehn,P.\BBOP2005\BBCP.\newblock\BBOQEuroparl:AParallelCorpusforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemMTSummit},\lowercase{\BVOL}~5,\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn07moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03pbmt}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{三浦\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村}{三浦\Jetal}{2015}]{miura15nl12}三浦明波\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村哲\BBOP2015\BBCP.\newblock構文木と句の極大性に基づく機械翻訳のための能動学習.\\newblock\Jem{情報処理学会第224回自然言語処理研究会(SIG-NL)},19\JNUM,\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{三浦\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村}{三浦\Jetal}{2016}]{miura16nlp}三浦明波\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村哲\BBOP2016\BBCP.\newblock構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価.\\newblock\Jem{言語処理学会第22回年次大会(NLP2016)},\mbox{\BPGS\605--608}.\bibitem[\protect\BCAY{Miura,Neubig,Paul,\BBA\Nakamura}{Miuraet~al.}{2016}]{miura16naacl}Miura,A.,Neubig,G.,Paul,M.,\BBA\Nakamura,S.\BBOP2016\BBCP.\newblock\BBOQSelectingSyntactic,Non-redundantSegmentsinActiveLearningforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\20--29}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{nakazawa16lrec}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofLREC},\mbox{\BPGS\2204--2208}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig11-kytea}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och03mert}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03alignment}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Oda,Neubig,Sakti,Toda,\BBA\Nakamura}{Odaet~al.}{2015}]{oda15ckylark}Oda,Y.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQCkylark:AMoreRobustPCFG-LAParser.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\41--45}.\bibitem[\protect\BCAY{Okanohara\BBA\Tsujii}{Okanohara\BBA\Tsujii}{2009}]{okanohara09}Okanohara,D.\BBACOMMA\\BBA\Tsujii,J.\BBOP2009\BBCP.\newblock\BBOQTextCategorizationwithAllSubstringFeatures.\BBCQ\\newblockIn{\BemProceedingsofSDM},\mbox{\BPGS\838--846}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Settles\BBA\Craven}{Settles\BBA\Craven}{2008}]{settles08}Settles,B.\BBACOMMA\\BBA\Craven,M.\BBOP2008\BBCP.\newblock\BBOQAnAnalysisofActiveLearningStrategiesforSequenceLabelingTasks.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1070--1079}.\bibitem[\protect\BCAY{Sperber,Simantzik,Neubig,Nakamura,\BBA\Waibel}{Sperberet~al.}{2014}]{sperber14}Sperber,M.,Simantzik,M.,Neubig,G.,Nakamura,S.,\BBA\Waibel,A.\BBOP2014\BBCP.\newblock\BBOQSegmentationforEfficientSupervisedLanguageAnnotationwithanExplicitCost-UtilityTradeoff.\BBCQ\\newblock{\BemTACL},{\Bbf2},\mbox{\BPGS\169--180}.\bibitem[\protect\BCAY{Stolcke}{Stolcke}{2002}]{stolcke02}Stolcke,A.\BBOP2002\BBCP.\newblock\BBOQSRILM---AnExtensibleLanguageModelingToolkit.\BBCQ\\newblockIn{\BemProceedingsofICSLP},\mbox{\BPGS\901--904}.\bibitem[\protect\BCAY{Tiedemann}{Tiedemann}{2009}]{tiedemann09}Tiedemann,J.\BBOP2009\BBCP.\newblock\BBOQNewsfromOPUS-ACollectionofMultilingualParallelCorporawithToolsandInterfaces.\BBCQ\\newblockIn{\BemProceedingsofRANLP},\lowercase{\BVOL}~5,\mbox{\BPGS\237--248}.\bibitem[\protect\BCAY{Tomanek\BBA\Hahn}{Tomanek\BBA\Hahn}{2009}]{tomanek09}Tomanek,K.\BBACOMMA\\BBA\Hahn,U.\BBOP2009\BBCP.\newblock\BBOQSemi-SupervisedActiveLearningforSequenceLabeling.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\1039--1047}.\bibitem[\protect\BCAY{Turchi,De~Bie,\BBA\Cristianini}{Turchiet~al.}{2008}]{turchi08}Turchi,M.,De~Bie,T.,\BBA\Cristianini,N.\BBOP2008\BBCP.\newblock\BBOQLearningPerformanceofaMachineTranslationSystem:AStatisticalandComputationalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofWMT},\mbox{\BPGS\35--43}.\bibitem[\protect\BCAY{W{\"{a}}schle\BBA\Riezler}{W{\"{a}}schle\BBA\Riezler}{2012}]{waeschle12}W{\"{a}}schle,K.\BBACOMMA\\BBA\Riezler,S.\BBOP2012\BBCP.\newblock\BBOQAnalyzingParallelismandDomainSimilaritiesintheMARECPatentCorpus.\BBCQ\\newblock{\BemMultidisciplinaryInformationRetrieval},\mbox{\BPGS\12--27}.\bibitem[\protect\BCAY{Yamamoto\BBA\Church}{Yamamoto\BBA\Church}{2001}]{yamamoto01}Yamamoto,M.\BBACOMMA\\BBA\Church,K.~W.\BBOP2001\BBCP.\newblock\BBOQUsingSuffixArraystoComputeTermFrequencyandDocumentFrequencyforAllSubstringsinaCorpus.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(1),\mbox{\BPGS\1--30}.\end{thebibliography}\begin{biography}\bioauthor{三浦明波}{2013年イスラエル国テクニオン・イスラエル工科大学コンピュータ・サイエンス専攻卒業.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院博士後期課程在学.機械翻訳,自然言語処理に関する研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.2012〜2016年奈良先端科学技術大学院大学助教.現在,カーネギーメロン大学言語技術研究所助教,奈良先端科学技術大学院大学客員准教授.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{MichaelPaul}{1988年ドイツサーランド大学コンピュータ・サイエンス専攻卒業.2006年神戸大学工学博士.1995年ATR音声翻訳通信研究所研究員,2000年ATR音声言語コミュニケーション研究所主任研究員,2006年(独)情報通信研究機構研究センター主任研究員.2013年株式会社ATR-Trek.音声翻訳,自然言語処理に関する研究・ビジネスソリューション開発に従事.第58回前島密賞受賞,アジア太平洋機械翻訳協会(AAMT)長尾賞受賞.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学工学博士.シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.ISCA理事,IEEESLTC委員,IEEEフェロー.}\end{biography}\biodate\end{document}
V03N01-04
\section{はじめに} 日本語文章における名詞の指す対象が何であるかを把握することは,高品質の機械翻訳システムを実現するために必要である.例えば,以下の文章中の二つ目の「おじいさん」は前文の「おじいさん」と同じなので翻訳する際には代名詞化するのが望ましい.\begin{equation}\begin{minipage}[h]{10cm}\underline{おじいさん}は地面に腰を下ろしました.\\\underline{Theoldman}satdownontheground.\\[0.1cm]やがて\underline{おじいさん}は眠ってしまいました.\\\underline{He}soonfellasleep.\end{minipage}\label{eqn:ojiisan_jimen_meishi}\end{equation}これを計算機で行なうには,二つの「おじいさん」が同じ「おじいさん」を指示することがわかる必要がある.そこで,本研究では名詞の指示性,修飾語,所有者などの情報を用いて名詞の指示対象を推定する.このとき,指示詞や代名詞やゼロ代名詞の指示対象も推定する.英語のように冠詞がある言語の場合は,それを手がかりにして前方の同一名詞と照応するか否かを判定することができるが,日本語のように冠詞がない言語では二つの名詞が照応関係にあるかどうかを判定することが困難である.これに対して,我々は冠詞に代わるものとして名詞の指示性\cite{match}を研究しており,これを用いて名詞が照応するか否かを判定する.名詞の指示性とは名詞の対象への指示の仕方のことであり,総称名詞,定名詞,不定名詞がある.定名詞,不定名詞はそれぞれ定冠詞,不定冠詞がつく名詞に対応する.総称名詞には定冠詞,不定冠詞のどちらがつくときもある.名詞の指示性が定名詞ならば既出の名詞と照応する可能性があるが,不定名詞ならば既出の名詞と照応しないと判定できる.以上で述べた名詞の指示性の情報だけでは指示対象が異なる二つの名詞の指示対象が同一であると誤る場合がある.この誤りを正すために名詞の修飾語や所有者の情報を用い,より確実に名詞の指示対象の推定を行なう. \section{名詞の指示性} 名詞による照応現象の例として以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}昔,昔,\underline{おじいさん}と\underline{おばあさん}が住んでおりました.\\\underline{おじいさん}は山へ柴刈りに,\underline{おばあさん}は川に洗濯に行きました.\end{minipage}\label{eqn:ojiisan_obaasan_meishi}\end{equation}第一文目の「おじいさん」と第二文目の「おじいさん」は同じおじいさんを指示し,これらは照応関係にある.このような名詞による照応現象を解析する際に名詞の指示性が重要になる.指示性とは名詞の対象への指示の仕方のことである.上の例文(\ref{eqn:ojiisan_obaasan_meishi})の第二文目の「おじいさん」は,定名詞句に相当する文脈上唯一の事物を指示するという指示性を持っていることから,第一文目の「おじいさん」を先行詞として照応することがわかる.このように名詞の指示性は照応関係を明らかにするために重要な役割を持つ.以下に名詞の指示性\footnote{名詞の指示性についてはわれわれはすでに研究している\cite{match}.}について説明する.指示性の観点から,まず名詞句は,その名詞句の類の成員すべてか類自体を指示対象とする{\bf総称名詞句}と,類の成員の一部を指示対象とする{\bf非総称名詞句}に分ける.次に,非総称名詞句を指示対象が確定しているか否かで,{\bf定名詞句}と{\bf不定名詞句}に分ける.さらに,不定名詞句を実際にその名詞の指示するものが存在しているか否かによって特定性不定名詞句と不特定性不定名詞句に分ける(図\ref{fig:sijisei_bunrui})\footnote{この分類は文献\cite{meishi}を参考にした.}.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{270pt}\begin{center}{\small\[\mbox{\normalsize名詞句}\left\{\begin{array}[h]{ccc}\mbox{\normalsize総称名詞句}&\\&\\\mbox{\normalsize非総称名詞句}&\left\{\begin{array}[h]{cc}\mbox{\normalsize定名詞句}\\\\\mbox{\normalsize不定名詞句}&\left\{\begin{array}[h]{cc}\mbox{\normalsize特定性}\\\\\mbox{\normalsize不特定性}\end{array}\right.\end{array}\right.\end{array}\right.\]}\end{center}\caption{名詞の指示性の分類}\label{fig:sijisei_bunrui}\end{minipage}}\end{center}\end{figure}\paragraph{総称名詞句}総称名詞句は,その名詞句が意味する類に属する任意の成員のすべて,もしくはその名詞句が意味する類それ自身を指示する.例えば,次の文(\ref{eqn:doguse})の「犬」は総称名詞句である.\begin{equation}\underline{犬}は役に立つ動物です.\label{eqn:doguse}\end{equation}ここでの「犬」は「犬」という類に属する成員のすべてを指示対象としている.総称名詞句であると判断できれば,その名詞句は他の名詞句と照応することはないと判断できる\footnote{二つの総称名詞は照応関係になりえるが,本研究ではこの総称名詞の照応は照応関係に含めていない.これは,総称名詞の場合,意味が同一ならば必ず同一のものを指示するため,多義性の問題を解消すれば照応処理が行なえたと言って良いからである.}.\paragraph{定名詞句}定名詞句は,その名詞句が意味する類に属する文脈上唯一の成員を指示する.例えば,次の文(\ref{eqn:thedoguse})の「犬」は定名詞句である.\begin{equation}その\underline{犬}は役に立ちます.\label{eqn:thedoguse}\end{equation}ここでの「犬」は,「犬」という類に属する文脈上唯一の成員を指示対象としている.定名詞であると判断できれば,その名詞は既出の名詞と照応すると予想され,先行詞を探すことになる.\paragraph{不定名詞句}不定名詞句は,その名詞句が意味する類に属するある不特定の成員を指示する.不特定の成員を指示するというのは,現時点での聞き手の情報ではその名詞句が成員のどれを指し示すのか確定していないという意味である.不定名詞句は総称名詞句とは異なり,その名詞句の意味する類の成員のすべてを指示するのではなくて,その名詞句の意味する類の成員の一部を指示する.次の文の「犬」は不定名詞句である.\begin{equation}\underline{犬}が三匹います.\label{eqn:dog3}\end{equation}ここでの「犬」は犬という類に属する任意の三匹の成員を指示対象として持ちえる.これはどんな犬でも三匹いればこの文が使えるということである.不定名詞句には,更に,{\bf特定性不定名詞句}と{\bf不特定性不定名詞句}がある.特定性不定名詞句とは,実際にその名詞の指示するものが存在し,それを指すことが話者に認識されている不定名詞句のことである.不特定性不定名詞句とは,実際にその名詞の指示するものが存在するかどうかわからず,それを指すことが話者に認識されていない不定名詞句のことである.例えば,上の文(\ref{eqn:dog3})の「犬」は特定性不定名詞句であり,次の文の「犬」は不特定性不定名詞句である\begin{equation}\underline{犬}を飼っていらっしゃいますか?\label{eqn:dog_kau}\end{equation}不特定性の不定名詞句は,照応関係になることはなく,後に出てくる名詞によって指示されることはない.それに対し,特定性の不定名詞句は,既に出ている名詞を指示することはないが,後に出てくる名詞によって指示される可能性がある. \section{名詞の指示対象の推定方法} 本研究では名詞の指示対象の推定する際に,以下の三つの点に注目する.\begin{itemize}\item名詞の指示性\item名詞の修飾語\item名詞の所有者\end{itemize}これらの三つの観点から作成した条件を以下で説明する.本研究ではこれらの条件をすべて満足するときのみ照応すると解析する.\subsection{名詞の指示性の利用}表層表現から名詞の指示性を推定し\footnote{\label{foot:sijisei}総称名詞,定名詞,不定名詞の判定は文献\cite{match}で行ない,不定名詞における特定性・不特定性の判定は``「(名詞A)が存在しない」ならば名詞Aは不特定性''という表層表現を利用した決定的な規則により行なっている.文献\cite{match}の利用においては次の二点の変更を行なった.(1)名詞の意味素性\cite{imiso-in-BGH}がPAR(動物の一部)の場合定名詞に得点を加えるという規則を追加した.これは,動物の一部を表わす名詞はほとんどの場合その所有者が近くに存在しそれに限定されるために定名詞であるからである.(2)同一名詞が前方にある場合定名詞などに得点を与える規則があったがこれを省いた.これは,同一名詞が前方にあるだけではそれと照応するかどうかが明らかでないためである.}これを利用して指示対象を推定する.推定した指示性が定名詞句の場合は前方にある同一名詞を指示対象とする.例えば,以下の例文の二文目の「おじいさん」は,助詞「は」がつき係る動詞が過去形であるという表層表現から名詞の指示性が定名詞句であると推定でき,最も近い前方の同一名詞の「おじいさん」と照応すると解析できる.\begin{equation}\begin{minipage}[h]{10cm}昔,昔,\underline{おじいさん}と{おばあさん}が住んでおりました.\\\underline{おじいさん}は山へ柴刈りに,{おばあさん}は川に洗濯に行きました.\end{minipage}\label{eqn:ojiisan_obasan_kotai}\end{equation}推定した指示性が定名詞句以外の場合は,前方の主題と焦点\footnote{本研究での主題と焦点はそれぞれ表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}により定義する.ノ格が先行詞である場合もあるが,主題や焦点にノ格を含めていない.これは,ノ格を主題や焦点に加えると全体としての解析誤りが増えるからである.}から指示対象を探し,以下の三つの情報を組み合わせることにより照応するか否かを判定する.\begin{itemize}\item指示性の推定における定名詞句でない度合\footnote{文献\cite{match}による指示性の推定では得点を用いており,定名詞句でないと推定した場合得点から定名詞句でない度合が得られる.その度合が大きいほど照応しにくくする.この度合は,具体的には後で述べる表\ref{tab:teimeishidenai_doai}により計算する.}\item主題・焦点の重み\item指示対象との距離\end{itemize}本来は定名詞句以外の場合は既出の名詞を指示することはないが,名詞の指示性の推定を誤ることがあり実際には定名詞句の可能性があるためこのような処理を行なう.\subsection{名詞の修飾語の利用}名詞の指示性の情報だけでは,指示対象が異なる二つの名詞の指示対象が同一であると誤る場合がある.例えば,以下の例文中の「左の頬」は指示性が定名詞であるので,指示性の情報だけでは前方の「右の頬」と照応すると解析してしまう.\begin{equation}\begin{minipage}[h]{10cm}さて,隣の家に瘤のあるおじいさんがもう一人住んでおりました.\\このおじいさんの瘤は\underline{右の頬}にありました.\\(中略)\\天狗達は,前の晩に来たおじいさんから取った瘤をそのおじいさんの\underline{左の頬}に付けてしまいました.\end{minipage}\label{eqn:mouhitori_ojiisan_hoho_kobu}\end{equation}このような誤りを生じないようにするために,本研究では修飾語を持つ名詞については,同じ修飾語を持つ同一名詞であることを照応する条件とする.\subsection{名詞の所有者の利用}修飾語のない名詞の場合でも所有者を推定できる場合は所有者を修飾語と同じように用いることで適正な指示対象の推定を行なう.すなわち,所有者を推定できる名詞の場合は,同じ所有者を持つ同一名詞であることを照応する条件とする.例えば,以下の文章中の「頬」は所有者が同じ「おじいさん」であることから照応する.\begin{equation}\begin{minipage}[h]{10cm}さて,おじいさんには\underline{(おじいさんの)左の頬}に瘤がありました.\\それは人の拳ほどもある瘤でした.\\まるで\underline{(おじいさんの)頬}を(おじいさんが)膨らませているかの様に見えるのでありました.\end{minipage}\label{eqn:ojiisan_hoho_huku}\end{equation}所有者の推定は,意味素性\footnote{本研究では名詞意味素性辞書\cite{imiso-in-BGH}を用いる.}が動物の一部を意味するPARである名詞に対してのみ行なう.その名詞が存在する文の主語かそれまでの主題の中から意味素性がHUM(人間)かANI(動物)のものを探し出して,それを所有者とする.\subsection{補足}前節までの説明では同一名詞の場合に限っていたが,以下の例のようにある名詞を末尾に含む名詞がその名詞の指示対象となることがある.\begin{equation}\begin{minipage}[h]{10cm}オーストリアの\underline{レルヒ少佐}が、日本の陸軍将校に、本格的にスキーを教えはじめたのは、明治の末のことである。\underline{少佐}は日本の軍人たちを前にしてまず「メテレスキー」と号令した。\end{minipage}\label{eqn:bubun_mojiretu}\end{equation}このような場合も解析できるように,本研究では前節までの説明での名詞が同一であるという条件を末尾に含むという条件に変更する.ただし,末尾に含むという条件の場合は同一名詞の場合に比べ照応しにくいのでこれを考慮した解析を行なう. \section{代名詞等の指示対象の推定方法} 指示詞については種類が多く,それぞれに対して詳細に規則を作ることによって指示対象を推定する.代名詞は会話文章中によく現れるので,会話文章の話し手や聞き手を把握することで\footnote{\label{footnote:kaiwa}会話文章の話し手や聞き手の推定は,その会話文章の発話動作を表す用言のガ格とニ格をそれぞれ話し手,聞き手とすることによって行なう.会話文章の発話動作を表す用言は,その会話文章に「と言った.」などがつけばそれとし,そうでない場合は前文の文末の用言とする.},指示対象を推定する.ゼロ代名詞は,主題や焦点と格フレームによる選択制限によって推定する\cite{Murata_ipal95}.\footnote{指示詞・代名詞・ゼロ代名詞の指示対象の推定方法については別の機会に詳しく述べる.} \section{名詞等の指示対象を推定する枠組} \begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{8cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..\}\\[-0.1cm]\hspace*{0.7cm}提案:=(指示対象の候補\,得点)\caption{列挙判定規則の表現}\label{fig:kouho_rekkyo}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{8cm}\hspace*{1.5cm}条件部$\Rightarrow$(得点)\caption{判定規則の表現}\label{fig:kouho_hantei}\end{minipage}}\end{center}\end{figure}\subsection{推定の手順}\label{wakugumi}本研究での名詞の指示対象の推定は,名詞の解析の手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて指示対象の候補に得点を与えて,合計点が最も高い候補を指示対象とすることによって実現する.まず,解析する文章を構文解析・格解析する\cite{csan2_ieice}.その結果に対して文頭から順に文節ごとにすべての規則を適用して指示対象を推定する.規則には,指示対象の候補をあげながらその候補の良さを判定する列挙判定規則とその列挙された複数の候補すべてに対して適用する判定規則の二種類がある.列挙判定規則は図\ref{fig:kouho_rekkyo},判定規則は図\ref{fig:kouho_hantei}の構造をしている.図中の「条件部」には文章中のあらゆる語,その分類語彙表\cite{bgh}の分類番号,IPALの格フレーム\cite{ipal}の情報,名詞の指示性の情報,構文解析・格解析の結果の情報などを条件として書くことができる.「指示対象の候補」には指示対象の候補とする名詞の位置もしくは「特定指示として導入」などを書くことができる.「特定指示として導入」のときは,個体を特定指示として新たに導入する.これは特定性不定名詞句$^{\ref{foot:sijisei}}$などのように,既出の個体を指示せず談話に新たに特定指示として個体を導入する場合に利用される.「得点」は指示対象としての適切さの度合を表している.指示対象の推定は条件を満足した規則により与えられる得点の合計点で行なう.まずすべての列挙判定規則を適用し得点のついた指示対象の候補を列挙する.このとき同じ候補を列挙する規則が複数あれば得点は加えてまとめる.次に列挙された指示対象の各候補に対してすべての判定規則を適用して,各候補ごとに得点を合計する.最も合計点の高い指示対象の候補を指示対象と判定する.最も合計点の高い指示対象の候補が複数個ある場合は,一番初めに出された指示対象の候補を指示対象とする.\subsection{指示対象の推定に用いる規則}{\bf名詞の解析のための規則}名詞の解析は列挙判定規則のみで行なった.列挙判定規則は9個作成したが,それらをすべて適用順序に従って以下に示す.すべての規則をあげたのは,本研究のような規則を用いて解析する方法では規則が一番重要なものであると考えるからである.{{\bf名詞の解析のための列挙判定規則}\begin{enumerate}\item「以下」「後述」の名詞や「次のような/次のように/次の〜点」における「次」の場合\\\{(次の文\,$50$)\}\footnote{列挙判定規則の提案のリストを表わす.図\ref{fig:kouho_rekkyo}参照.}~\footnote{\label{foot:matsuoka}この規則は,松岡\cite{matsuoka_nl}を利用している.}\begin{itemize}\item[(使用例)]\underline{以下}は,中国を旅行した同僚記者の取材メモによる.\\北京内燃機総廠(しょう)という有力なエンジンメーカーがある.\\日本の会社と異なるのは重役陣が,住宅,医療,老後など従業員と家族の民生面まで責任を担っていることだろう.\end{itemize}\item「それぞれの」「各々の」「各」などに修飾された名詞の場合\\\{(特定指示として個体導入\,$25$)\}\begin{itemize}\item[(使用例)]今回のG7では,\.そ\.れ\.ぞ\.れ\.の\hspace{-0.2mm}\underline{国}\hspace{-0.2mm}が経済政策の基本的な考え方を示し理解を求めておくべきだ.\end{itemize}\item「自分」の場合\\\{(「自分」が存在する文の主格,「自分」が主格の場合は「自分」を含む文の主節の主格\,$25$)\}\begin{itemize}\item[(使用例)]一時は,\underline{自分(=重原勇治さん)}が経営していた薬品会社の社長の座を\\\.(\.重\.原\.勇\.治\.さ\.ん\.が\.)退いた.」\end{itemize}この例文中の「\.(\.重\.原\.勇\.治\.さ\.ん\.が\.)」は前方の文章から復元されたものである.\item\label{enum:定名詞探索}推定した名詞の指示性が定名詞の場合で,その名詞を末尾に含み修飾語や所有者が同じ名詞Aが前方にある場合(ただし固有名詞の場合は,修飾語や所有者の条件を無視し,また,末尾に限らず含まれればよいとする\footnote{修飾語や末尾の文字が異なることで異なる事物を指す場合があるが,修飾語や末尾の文字が異なっていても照応すると解析した方が精度が良くなるためである.}.)\\\{(名詞A\,$20$)\}\item\label{enum:総称名詞導入}名詞の指示性が総称名詞の場合\\\{(総称指示として個体導入\,$10$)\}\footnote{\label{foot:soushou_dounyu}総称指示もしくは不特定指示として導入された個体は,他の名詞から指示されないようにしている.}\item名詞の指示性が不特定性の不定名詞の場合\\\{(不特定指示として個体導入\,$10$)\}$^{\ref{foot:soushou_dounyu}}$\item名詞の指示性が総称名詞でも不特定性の不定名詞でもない場合\\\{(特定指示として個体導入\,$10$)\}\item「普通」「様」「大部」「一緒」「本当」「何」などの指示対象を持たない名詞の場合\\\{(指示対象なし\,$30$)\}\begin{itemize}\item[(使用例)]天狗達は\underline{一緒}に笑い出しました.\end{itemize}\begin{table}[t]\begin{center}\leavevmode\caption{定名詞でない度合}\label{tab:teimeishidenai_doai}\begin{tabular}[h]{|l|r|}\hline指示性の推定における得点の状況&定名詞でない度合$d$\\\hline定名詞の得点を越える得点を総称名詞と不定名詞が持たない時&0\\定名詞の得点より1点高い得点を総称名詞か不定名詞が持つ時&$3$\\定名詞の得点より2点高い得点を総称名詞か不定名詞が持つ時&$6$\\定名詞の得点より3点以上高い得点を総称名詞か不定名詞が持つ時&規則は適用されない\\\hline\end{tabular}\end{center}\end{table}\item\label{enum:定名詞以外探索}この規則は名詞の指示性が定名詞以外の場合に適用される.以下の得点の説明で用いるdとwとnの説明をする.dは,文献\cite{match}によって推定した指示性に基づいて表\ref{tab:teimeishidenai_doai}から定まる定名詞でない度合である.wは,表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}から定まる主題と焦点の重みである.nは,今解析している名詞と指示対象の候補とする名詞との間の距離を反映した数字である.\begin{table}[t]\caption{主題の重み}\label{fig:shudai_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|c|}{表層表現}&\multicolumn{1}{|c|}{例}&重み\\\hline{ガ格の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}が)した.&21\\\hline名詞は/には&\underline{太郎}はした.&20\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{焦点の重み}\label{fig:shouten_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|l|}{{表層表現(「は」がつかないもので)}}&\multicolumn{1}{|c|}{例}&重み\\\hline{ガ格以外の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}に)した.&16\\\hline{名詞が/も/だ/なら/こそ}&\underline{太郎}がした.&15\\\hline名詞を/に/,/.&\underline{太郎}にした.&14\\\hline名詞へ/で/から/より&\underline{学校}へ行く.&13\\\hline\end{tabular}\end{center}\end{table}\{(修飾語や所有者が同じで重みが$w$で$n$個前\footnote{主題が何個前かを調べる方法は,主題だけを数えることによって行なう.主題がかかる用言の位置が今解析している文節よりも前の場合はその用言の位置にその主題があるとして数える.そうでない場合はそのままの位置で数える.}の同一名詞の主題\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の主題\,$w-n-d+4-5$)\\(修飾語や所有者が同じで重みが$w$で$n$個前の同一名詞の焦点\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の焦点\,$w-n-d+4-5$)\}\footnote{\label{foot:meishi_shouou}提案リスト中の式$w-n-d+4$の一つ目の項は主題・焦点の重みが大きいほど指示対象として適正であることを意味する項である.二つ目の項は照応詞と先行詞との距離が離れているほど照応しにくいことを意味する項であり,三つ目の項は定名詞でない度合が大きいほど照応しにくいことを意味する項である.四つ目の項は他の規則との整合性から定めたものである.また,今解析している名詞を末尾に含む名詞の場合は,さらに$-5$を加えているが,これは同一名詞に比べて照応しにくくするためである.}\end{enumerate}}{\bf指示詞や代名詞やゼロ代名詞の解析のための規則}指示詞や代名詞やゼロ代名詞を解析するために,列挙判定規則,判定規則をそれぞれ79個,21個作成したが,そのうち主要なものを以下に示す.{{\bf指示詞や代名詞やゼロ代名詞の解析のための列挙判定規則}\begin{enumerate}\item「それ/あれ/これ」や連体詞形態指示詞の場合で,その指示詞の直前の文節に用言の基本形か「〜とか」などの例を列挙するような表現がある場合\\\{(例を列挙するような表現\,$40$)\}\item「それ/あれ/これ」や連体詞形態指示詞の場合\\\{(前文,もしくは,指示詞の前方の同一文内に逆接接続助詞か条件形を含む用言がある場合はその用言\,$15$)\}\begin{itemize}\item[(使用例)]おじいさんは一所懸命に歌い,そして\underline{おじいさんは}\\\underline{一所懸命に踊りました}\.が,\underline{それ}は言葉では言い表せないほど下手糞でありました.\end{itemize}\item名詞形態指示詞か「その/この/あの」の場合\\\{(重みが$w$で主題と焦点を合わせて数えて$n$個前にある,同一文中か前文の主題\,$w-n-2$)\\(重みが$w$で主題と焦点を合わせて数えて$n$個前にある,同一文中か前文の焦点\,$w-n+4$)\}\footnote{提案リスト中の式$w-n-2$,$w-n+4$の一つ目の項と二つ目の項は注\ref{foot:meishi_shouou}と同様である.最後に係数$-2$,$4$をつけたのは,指示詞の場合既知情報の主題と照応するよりも未知情報の焦点と照応しやすいと考えたためである.}\item一人称の代名詞の場合\{(話し手\,$25$)\}\itemガ格の省略の場合のデフォルト規則\\\{(重みが$w$で$n$個前の主題\,$w-n*2$+1)\\(重みが$w$で$n$個前の焦点\,$w-n$+1)\\(今解析している節と並列の節の主格\,25)\\(今解析している節の従属節か主節の主格\,23)\\(今解析している節が埋め込み文の場合で主節の主格\,22)\}\footnote{提案リスト中の式$w-n*2$+1,$w-n$+1の一つ目の項と二つ目の項は注\ref{foot:meishi_shouou}とほぼ同様である.係数は他の規則との整合性から定めたものである.式$w-n*2$+1の二つ目の項は2倍されているが,これは主題が焦点よりも出現する割合が小さいからである.}主題や焦点の定義と重みは表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}のとおりである.\end{enumerate}以上の他に表層表現から指示対象を推定する規則がある.}{{\bf指示詞や代名詞やゼロ代名詞の解析のための判定規則}\begin{enumerate}\item「ここ/そこ/あそこ」であって,指示対象の候補となった名詞が場所を意味する意味素性LOCを満足する時,$10$点を与える.\itemソ系の連体詞形態指示詞の場合に,それが係る名詞Bの用例「名詞Aの名詞B」\footnote{この用例にはEDRの共起辞書\cite{edr_kyouki_2.1}を用いる.}を検索し,名詞Aと指示対象の候補となった名詞の類似レベルにより得点を与える.\item代名詞の場合に,指示対象の候補となった名詞が意味素性HUMを満足する時,$10$点を与える.\item指示対象の候補となった名詞と格フレームの格要素の用例の名詞との類似レベルにより得点を与える\cite{Murata_ipal95}.\end{enumerate}以上の他に,名詞形態指示詞の場合は人を指示対象としにくくするための判定規則などがある.}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[h]{13cm}その時お爺さんはあまり遠くない所にある空き地に火が燃えているのに気が付きました。赤い顔をして、鼻の青い、恐ろしい目付きの五六人の男が、\underline{火}の周りに立っているのを見ました。\vspace{0.5cm}\begin{tabular}[h]{|l|r|r|r|}\hline候補&総称指示として導入&前文の「火」\\\hline\ref{enum:総称名詞導入}番目の規則&10&\\\ref{enum:定名詞以外探索}番目の規則&&12\\\hline合計&10&12\\\hline\end{tabular}\vspace{0.2cm}指示性の推定結果\vspace{0.2cm}\begin{tabular}[h]{|l|r|r|r|}\hline指示性&不定名詞&定名詞&総称名詞\\\hline得点&1&2&3\\\hline\end{tabular}\begin{tabular}[h]{lcl}\ref{enum:定名詞以外探索}番目の規則&$=$&$w-n-d+4$\\&$=$&$15-4-3+4=12$\\\end{tabular}\caption{名詞の指示対象の推定例}\label{tab:dousarei}\end{minipage}}\end{center}\end{figure}\subsection{名詞の指示対象の推定例}名詞の指示対象を推定した例を図\ref{tab:dousarei}に示す.これは図中の下線部の「火」の解析を正しく行なったことを示している.これを以下で説明する.まず,下線部の「火」の指示性を推定するが,助詞「の」がつく時に適用される規則\footnote{文献\cite{match}の研究では助詞「の」がつく場合で他に手がかり語がない場合は総称名詞と推定する.「の」は旧情報と結び付きやすい性質を持っており,ほとんどの場合は定名詞か総称名詞のいずれかである.定名詞の場合は他の情報により推定可能になると考え,他に情報がない場合は総称名詞と推定する.}により図中の下の表の推定結果のように総称名詞と誤る.推定結果が総称名詞であることから,\ref{enum:総称名詞導入}番目の規則により「総称指示として導入」という候補があげられ,それに10点が与えられる.また,指示性の推定を誤った場合のことを考慮する\ref{enum:定名詞以外探索}番目の規則によって``前文の「火」''が候補としてあげられる.この候補に与えられる得点は,式$w-n-d+4$によって与えられる.式中の重み$w$は,``前文の「火」''につく助詞が「が」であることから表\ref{fig:shouten_omomi}より15である.また,今解析している下線部の「火」から見て``前文の「火」''までに焦点が「男」「顔」「気」``前文の「火」\hspace{-1.4mm}''と4個あるので,``前文の「火」\hspace{-1.4mm}''までの距離$n$は$4$である.また,指示性の推定に\mbox{おける}総称名詞と定名詞の得点差が1により表\ref{tab:teimeishidenai_doai}から定名詞でない度合$d=3$が得られる.よって,表中の式の計算の結果,12点となる.候補の中で合計点がもっとも高い``前文の「火」\hspace{-1.4mm}''が\mbox{指示対}象と正しく解析される.\begin{table*}[t]\fbox{\begin{minipage}[h]{14cm}\caption{本研究の実験結果}\label{tab:sougoukekka}\begin{center}\begin{tabular}[c]{|p{2.4cm}|r|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|p{2cm}|}{テキスト}&\multicolumn{1}{|l|}{文数}&\multicolumn{2}{l|}{名詞}&\multicolumn{2}{l|}{指示詞}&\multicolumn{2}{l|}{代名詞}&\multicolumn{2}{l|}{ゼロ代名詞}\\\hline学習サンプル&204&85\%&(130/153)&87\%&(41/47)&100\%&(9/9)&86\%&(177/205)\\\hlineテストサンプル&184&77\%&(89/115)&86\%&(42/49)&82\%&(9/11)&76\%&(159/208)\\\hline\end{tabular}\end{center}各規則で与える得点は学習サンプルにおいて人手で調節した.\\{\small学習サンプル\{例文(43文),童話「こぶとりじいさん」全文(93文)\cite{kobu},天声人語一日分(26文),社説半日分(26文),サイエンス(16文)\}\\テストサンプル\{童話「つるのおんがえし」前から91文抜粋\cite{kobu},天声人語二日分(50文),社説半日分(30文),サイエンス(13文)\}}\end{minipage}}\end{table*} \section{実験と考察} 指示対象の推定を行なう前に構文解析・格解析を行なうが,そこでの誤りは人手で修正した.格フレームはIPALの辞書のものを用いたが,IPALの辞書にない用言に対しては人手で格フレームを作成した.本研究による方法で名詞,指示詞,代名詞,ゼロ代名詞の指示対象を解析した実験結果を表\ref{tab:sougoukekka}に示す.名詞の解析精度は文中に指示対象が存在する名詞についてのものである.これは照応する名詞に注目したためである.ゼロ代名詞の解析精度は指示対象が存在するか否かがあらかじめわかっていると仮定して解析した時の精度である.また,本稿であげた各手法の有効性を確かめるために指示性の利用の仕方をかえて表\ref{tab:sijisei_taishou}の対照実験を行なった.表のように,本研究の規則による方法では適合率と再現率がともに均等に良かった.これは本研究の規則が指示性を適切に利用していることを意味している.また,本研究の方法は指示性を用いない方法に比べ適合率と再現率がともに良いので,指示性を用いることが有効であることがわかる.指示性が定名詞句と推定された名詞句のみが照応するとした方法では再現率が悪い.これは指示性の推定の時に定名詞句であるのに他の名詞句と誤って推定し,照応しないとシステムが解析したためである.また,修飾語・所有者の条件を用いない方法では適合率が悪い.これは,修飾語・所有者の条件を用いなければ,指示性が定名詞句であっても「左の頬」と「右の頬」のように照応しないものが多く,これらを誤って照応すると解析してしまうからである.また,末尾に含む名詞とすべて照応するとした方法ではさらに適合率が悪くなる.これは,修飾語・所有者の条件の他に指示性の条件を用いないため,不定名詞句であると判定された名詞も前方の名詞と照応すると解析するからである.\begin{table*}[t]\leavevmode\fbox{\begin{minipage}[h]{14cm}\hspace*{0.5cm}\caption{名詞の解析における対照実験の結果}\label{tab:sijisei_taishou}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|r@{}c|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{2}{|p{2.3cm}|}{\mn{指示性が定名詞句と推定された名詞句のみ照応する}}&\multicolumn{2}{|p{2.3cm}|}{本研究の規則}&\multicolumn{2}{|p{2.3cm}|}{\mn{指示性を用いない}}&\multicolumn{2}{|p{2.3cm}|}{\mn{修飾語・所有者の条件を用いない}}&\multicolumn{2}{|p{2.3cm}|}{\mn{末尾に含む名詞とすべて照応する}}\\\hline\multicolumn{10}{|l|}{学習サンプル}\\\hline92\%&(117/127)&82\%&(130/159)&72\%&(123/170)&65\%&(138/213)&52\%&(134/260)\\76\%&(117/153)&85\%&(130/153)&80\%&(123/153)&90\%&(138/153)&88\%&(134/153)\\\hline\multicolumn{10}{|l|}{テストサンプル}\\\hline92\%&(78/85)&79\%&(89/113)&69\%&(79/114)&58\%&(92/159)&47\%&(102/218)\\68\%&(78/115)&77\%&(89/115)&69\%&(79/115)&80\%&(92/115)&89\%&(102/115)\\\hline\end{tabular}\end{center}\small表中の上段と下段はそれぞれ適合率と再現率を表す.評価に適合率と再現率を用いたのは,先行詞がない名詞をシステムが誤って先行詞があると解析することがあり,この誤りを適切に調べるためである.適合率は先行詞を持つ名詞のうち正解した名詞の個数を,システムが先行詞を持つと解析した名詞の個数で割ったもので,再現率は先行詞を持つ名詞のうち正解した名詞の個数を,先行詞を持つ名詞の個数で割ったものである.「指示性が定名詞句と推定された名詞句のみ照応する」は名詞の解析のための\ref{enum:定名詞以外探索}番目の規則をけずったものに相当し,「指示性を用いない」は\ref{enum:定名詞探索}番目の規則をけずり,\ref{enum:定名詞以外探索}番目の規則のdをけずりこの規則がいずれの指示性の時でも適用されるようにしたものに相当する.\end{minipage}}\end{table*}\subsection*{誤り例}修飾語句や所有者を利用して指示対象の絞り込みを行なったが,これが有効に働いた.しかし,以下の例のように所有者の推定を誤ったために,指示対象の推定を誤ったものがあった.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは(おじいさんの)\.背\.中から柴の束を下ろして,一休みするために地面に腰を下ろしました.\\(中略)\\初めのうちは,おじいさんは男達を人間だと思っていましたが,間もなく天狗である事が分かりました.\\\underline{(天狗の)背中}には大きな翼があるのです.\end{minipage}\label{eqn:ojiisan_senaka_ayamari}\end{equation}この例の下線部の「背中」は動物の一部なので所有者を求めるが,正しい所有者は「天狗」であるが主題が前文の「おじいさん」と判断されて「おじいさん」が下線部の「背中」の所有者と誤って解析された.このため,この「背中」は文章のかなり前にあった「おじいさんは(おじいさんの)\.背\.中から柴の束を下ろして」の部分の「(おじいさんの)\.背\.中」を下線部の「背中」の指示対象と誤って解析された.また,修飾語句が異なっていても照応する場合があり,このような場合は解析を誤った.\begin{equation}\begin{minipage}[h]{10cm}そこでおじいさんは\underline{近くの大きな杉の木の根元にある穴}で雨宿りをすることにしました.\\(中略)\\次の日,このおじいさんは山へ行って,\\\underline{杉の木の根元の穴}を見つけました.\end{minipage}\label{eqn:ojiisan_ana_shouou}\end{equation}この例の下線部の「穴」は同一の穴であり照応するが,修飾語の文字列が異なっているため照応しないと誤って解析された.このような場合についても解析できるようにするには,異なる表現であっても同じ意味であることを把握できるようにする必要がある. \section{おわりに} 本研究での手法は主に名詞の指示対象の推定に名詞の指示性や修飾語や所有者を用いることであった.対照実験を通じて,これらを用いることの有効性を示した.名詞の指示性の推定精度が向上すると名詞の指示対象の推定精度が向上すると考えている.そこで,名詞の指示性の推定精度を向上させる研究を行なう必要がある.\acknowledgment本研究および実験に関して援助して下さった松岡正男氏をはじめとする長尾研究室の皆様に感謝します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{井上和子,山田洋,河野武,成田一}{井上和子\Jetal}{1985}]{meishi}井上和子,山田洋,河野武,成田一\BBOP1985\BBCP.\newblock\Jem{名詞},\Jem{現代の英文法},6\JVOL.\newblock研究社.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{bgh}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{csan2_ieice}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQAMethodofCaseStructureAnalysisforJapaneseSentencesbasedonExamplesinCaseFrameDictionary\BBCQ.\newblock{\BbfE77--D}(2),227--239.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1987}]{ipal}情報処理振興事業協会技術センター\BBOP1987\BBCP.\newblock\JBOQ計算機用日本語基本動詞辞書{IPAL}({BasicVerbs})説明書\JBCQ.\bibitem[\protect\BCAY{松岡,村田,黒橋,長尾}{松岡正男\Jetal}{1995}]{matsuoka_nl}松岡正男,村田真樹,黒橋禎夫,長尾眞\BBOP1995\BBCP.\newblock\JBOQ表層表現を利用した日本語文章における後方照応表現の自動抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会95-NL-108}.\bibitem[\protect\BCAY{{M.MurataandM.Nagao}}{{M.MurataandM.Nagao}}{1993}]{match}{M.MurataandM.Nagao}\BBOP1993\BBCP.\newblock\BBOQ{DeterminationofreferentialpropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglish}\BBCQ\\newblockIn{\BemProceedingsofthe5thTMI},\BPGS\218--225.\bibitem[\protect\BCAY{村田真樹$\cdot$長尾眞}{村田真樹\JBA長尾眞}{1995}]{Murata_ipal95}村田真樹\BBACOMMA\$\cdot$長尾眞\BBOP1995\BBCP.\newblock\JBOQ用例を用いた日本語文章におけるゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{「IPALシンポジウム'95」論文集},\BPGS\63--66.情報処理振興事業協会技術センター.\bibitem[\protect\BCAY{中尾}{中尾}{1985}]{kobu}中尾清秋\BBOP1985\BBCP.\newblock\Jem{こぶとりじいさん他鶴の恩がえし、きき耳ずきん},\Jem{英訳「日本むかしばなし」シリーズ},7\JVOL.\newblock日本英語教育協会.\bibitem[\protect\BCAY{(株)日本電子化辞書研究所}{(株)日本電子化辞書研究所}{1994}]{edr_kyouki_2.1}(株)日本電子化辞書研究所\BBOP1994\BBCP.\newblock\JBOQ{EDR}電子化辞書日本語共起辞書評価版第2.1版\JBCQ.\bibitem[\protect\BCAY{渡辺,黒橋,長尾}{渡辺\Jetal}{1992}]{imiso-in-BGH}渡辺靖彦,黒橋禎夫,長尾眞\BBOP1992\BBCP.\newblock\JBOQ{IPAL}辞書と分類語彙表を用いた単語意味辞書の作成\JBCQ\\newblock\Jem{情報処理学会第45回全国大会予稿集,6F-8}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.1976年より国立民族学博物館教授を兼任.京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V03N04-08
\section{まえがき} 現在,機械による文解析の処理単位としては,形態素が利用されることが多いが,これは,形態素を用いることにより辞書の語数を制限でき,計算機の記憶を経済的に利用できるという利点があるからである.bigramによる解析方式は,文解析や音声認識など様々な分野において高い評価を得ているものの\cite{jeli,naka},文字や形態素を単位としたbigramによる解析は,単位が小さすぎて,文の局所的な性質を解析しているのに過ぎないと考えられる.しかし,trigramや4-gram以上になると,しばしば計算機の記憶容量の限界を超えてしまい,実用的ではない.筆者らは,知覚実験により,人間による文解析には,形態素より長い単位が用いられていることを既に明らかにしている\cite{yoko,yoko0}.従って,人間の場合と同様の長い単位を解析に用いれば,機械においても高い処理効率が得られると期待される.本論文は,このような観点から,bigramの単位として認知単位を用いる方法を提案するものである.形態素より長い単位を解析に用いる方法は,他にもいくつか報告されている.例えば,音声認識の分野において,伊藤らは休止を単位とした解析を行う方法を提案している\cite{ito}.また,テキスト処理において,文法的な解析が難しい発話を処理するために,発話を部分的に構文解析する方法なども提案されている.しかし,これらの解析に用いられている長い単位は,解析の効率化のために便宜上導入されたもので,比較的専用の用途にのみ使用できるものである.人間における文解析処理が複数段階の処理からなると仮定すれば,認知単位はその複数段階の処理において主に単位として利用されていると考えられる.従って,機械における処理を同様に多段に分けて考えるとすれば,認知単位はこの多くの段階において単位として汎用的に利用できることが期待される.機械の処理が,形態素解析,構文解析,意味解析,談話解析からなるとすれば,認知単位を利用することにより構文解析の処理を効率化できることが既に筆者らにより実証されている\cite{yoko0}.本論文では,認知単位を利用することにより形態素解析に相当する処理の効率化を行なう方法を提案し,認知単位の有効性を実証する. \section{認知単位の知覚実験} 筆者らは知覚実験の結果から,人間による文解析には形態素より長い単位が用いられていることを既に明らかにしている\cite{yoko,yoko0}.図\ref{zu1}は文献\cite{yoko0}において,このことを確かめるために行った実験の結果である.\begin{figure}[tbh]\begin{flushleft}\small\makebox[30mm][r]{50ms:}この\\\makebox[30mm][r]{100ms:}この問題は\\\makebox[30mm][r]{150ms:}この問題は\\\makebox[30mm][r]{200ms:}この問題は解決\\\makebox[30mm][r]{250ms:}この問題は解決\\\makebox[30mm][r]{300ms:}この問題は解決\\\makebox[30mm][r]{350ms:}この問題は解決ずみ\\\makebox[30mm][r]{400ms:}この問題は解決ずみ\\\makebox[30mm][r]{450ms:}この問題は解決ずみと\\\makebox[30mm][r]{500ms:}この問題は解決ずみと\\\makebox[30mm][r]{550ms:}この問題は解決ずみ\\\makebox[30mm][r]{600ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{650ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{700ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{750ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{800ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{850ms:}この問題は解決ずみというつもりなのかもしれないが\\\makebox[30mm][r]{900ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{950ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{1000ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{stimulus}この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.\\\end{flushleft}\caption{認知単位知覚実験の結果例}\label{zu1}\end{figure}この実験では,コンピュータのディスプレイ上に30字程度の漢字かな混じり文を短時間表示し,被験者に口頭で読んでもらう.文は24文用意してあり,被験者が文を覚えないようランダムな順番で表示される.提示時間は50msから1sまで50ms刻みで長くしてゆく.こうして,提示時間と,被験者が読むことのできた文字数との関係を調べる.図\ref{zu1}の実験では,「この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.」という文を提示している.結果は図の様な階段状になり,人間が文字単位で文を処理しているのではないことは明らかである.また,読めた部分の最後に着目すると,それはすべて文節境界となりうる形態素で終っている.更に,「$\cdots$というつもり」や「$\cdots$かもしれないが」などのように,複数の文節にまたがる句が一度に検出されていると思われるケースもある.従って,人間は文節よりも長い句を検出していると推察される.特に,「$\cdots$は」,「$\cdots$している」,「$\cdots$とい\\うつもり」,「$\cdots$かもしれないが」のように,それだけでは意味をなさず,先行する句の後について補助的な意味を表すような句は,先行する句とともに一度に検出されている.この結果から,人間の場合,まず長い句を一度に検出する処理を行い,この処理の後,検出された長い句を単位として,更に高次の解析を行っているものと考えることができる.この実験の結果から,人間においては次のような句が一度に検出されることが見出された.\begin{enumerate}\item文節\item「$\cdots$かもしれない」などの慣用句\item「$\cdots$している」などの補助用言を含んだ句\end{enumerate}この単位を本論文では認知単位と呼ぶ.この実験では口頭により被験者に文を読んでもらっているため,発話された文は,脳内の処理を経て出力されたものである.従って,認知単位は,意味処理を含む脳内の多段の処理において主に単位として利用されているものと考えられる. \section{認知単位の検出方法} 前節における実験の結果から,人間における文解析過程は,認知単位を検出する処理と,認知単位を組み合わせて文を認識する処理の2段階に分離できるものとみなせる.このモデルに従い,機械においても文解析の処理を,認知単位を検出する処理と,検出した認知単位の取捨選択の処理の2段階に分ければ,解析の効率を高めることができると期待される.前者の処理において,通常の形態素の辞書を用いて文から認知単位を検出するには,どのような形態素の並びが認知単位になるかという局所的な文法が必要である.認知単位の内部における形態素の並びには,多重埋め込み的なものは少ない.従って,この局所的な文法は状態遷移図で記述するのがふさわしい.よって本研究では,認知単位を有限オートマトンで検出することにした.\vspace*{-4mm}\subsection{状態遷移図による認知単位の表現}本研究では,処理の対象として,NHKラジオの気象通報の始めに放送される天気概況文を用いた.この例を図\ref{zu2}に示す.これらの文に現れる認知単位を表層的な形式から128に分類し,人手で128の受理状態を持つ状態遷移図を作成した.得られた状態遷移図の一部を図\ref{zu3}に示す.図中$Z_i$は受理状態,$S_i$は中間状態である.\begin{figure}[b]\smallオホーツク海には,発達中の低気圧があって,北北東へ進んでいます.一方,中国東北部には高気圧があって,ほとんど停滞しています.西日本は晴れ,東日本はくもりで,北日本では所々で雨が降っています.尚,北海道周辺海域と三陸沖では所々濃い霧の為見通しが悪くなっています.日本近海は,北海道東方海上から関東海域北部にかけて,シケています.気温は,北海道,北陸,東海で,平年より1度高い他は,平年並か,1度から2度低くなっています.\caption{天気概況文の例}\label{zu2}\end{figure}\begin{figure}[b]\begin{center}\epsfile{file=8-3.eps,width=90mm}\end{center}\caption{認知単位を受理する状態遷移図}\label{zu3}\end{figure}名詞句はあらかじめ地名,海,方角,数字,高気圧・低気圧,台風,波,霧,天気などに分類してあり,この状態遷移図においては,品詞の並びが同じでも名詞句の分類が異なる名詞節は,異なる受理状態に遷移する.従って,「日本海では」,「日本海は」,「気温は」は,すべて別の受理状態に遷移する.これは述語句や,その他の修飾句に関しても同様で,品詞の並びだけではなく,意味的に気圧配置,気温,気圧,波,霧のどの状態を示すのに使われるかによっても分類される.従って,「悪くなっており」,「悪くなっています」,「高くなっています」はすべて別の受理状態に遷移する.天気概況文は気圧配置,天気,海上,霧,気温に関する文に大別できるが,それぞれ表現の形式が限定されているため,比較的厳格な文法によりその文法を記述できると考えられる.また,出現する形態素の数が限られており,同じ形態素が何度も反復して現れる.従って,小規模なコーパスから得られたデータでも,精度の高い解析が行える.\subsection{誤りを含んだ文からの認知単位の検出}前節で構成した有限オートマトンにより,文から認知単位を検出する手順は以下の通りになる.\newtheorem{tejun}{}\begin{enumerate}\item文全体を走査し,形態素を検出して形態素ラティスを得る.\item得られた形態素ラティスに対し,有限オートマトンによる走査を行い,認知単位を検出する.\end{enumerate}誤りを含んだ文に対し,文解析によって誤り訂正を行うタスクは,通信やOCRなど様々な分野にしばしば求められるタスクである.認知単位は,意味処理を含む脳内の多段の処理において主に単位として利用されているものと考えられるため,このような誤りを含むテキストから誤りを取り除く場合にも人間はいずれかの段階で認知単位を用いているものと思われる.従って,機械により誤り訂正を行う場合にも認知単位は有効であると期待される.誤りを含む文においては,形態素が近い綴りをもつ別の文字列に置き換わることがある.従って,誤りを含む文に対して誤り訂正を行なうためには,手順(1)において形態素を検出する際に,厳密に文の一部に一致する形態素だけでなく,ごく近い形態素についても,誤りによって文の一部に変化する可能性を推定しながら検出する必要がある.本研究では,このタスクに対応するため,手順(1)において図\ref{zu4}(a)のように距離1の形態素も検出することにした.尚,この検出にはDP照合法を用いた\cite{rabi}.\begin{figure}\vspace{3mm}\begin{center}\epsfile{file=8-4.eps,width=97mm}\end{center}\caption{認知単位の検出}\label{zu4}\end{figure}誤りには,挿入,欠落,置換の3種類がある.ここでは,誤りが図\ref{zu6}に示すように,次のモデルに従って発生するものと考える.\subsection*{[誤りのモデル]}\begin{quotation}情報源の1文字あたり,確率$P_n$で誤りが発生する.誤りが発生した場合,次のいずれかがそれぞれ条件つき確率$1/3$で起こる.\begin{description}\item{\gt挿入:}情報源の1文字の前または後ろに1文字が挿入され,2文字となる.\item{\gt欠落:}情報源の1文字が失われる.\item{\gt置換:}情報源の1文字が別の1文字に置き換わる.\end{description}\end{quotation}以降の実験では,このモデルに従い誤りを含んだ文字列を発生させており,挿入または置換の際必要となる文字としては,簡単のため平仮名46文字のいずれかをランダムに選んで使用している.今,$a$と$b$をそれぞれ文字列とし,$a$の長さは$l$文字,$a$と$b$の距離は$d$であるとする.上記の誤りによって$a$が$b$に変化する確率$P_e(a,b)$は,$l-d$文字に誤りが発生せず,$d$文字に誤りが発生したと考えることにより,次の式で近似できる.\begin{figure}\begin{center}\epsfile{file=8-5.eps,width=63mm}\end{center}\vspace*{-2mm}\caption{誤りのモデル}\label{zu6}\end{figure}\begin{equation}P_e(a,b)\approx(1-P_n)^{l-d}(\frac{P_n}{3})^d\end{equation}実際には$d+1$文字以上の誤りによって,$a$が$b$に変化する場合も考えられるが,本研究では$P_e$が十分小さいと考え,上式においてはこれらの場合は無視している.手順(2)においては図\ref{zu4}(b)のように,手順(1)により得た形態素ラティスに基づいて形態素を組み合わせることにより,認知単位を検出して認知単位ラティスを作り,上式を用いて変化確率を計算するものとした.\vspace*{-1mm} \section{bigramによる認知単位の取捨選択} \vspace*{-1mm}前節に示した手順により,文から認知単位を検出できる.検出した認知単位は,状態遷移図における受理状態により128に分類される,この認知単位に対して取捨選択を行い,文を組み立てるには,様々な方法が考えられる.筆者らは既に,自動的に獲得した文法に基づき,認知単位を利用して構文解析を行う方法を提案している\cite{yoko0}.本論文では,誤りを含んだテキストから誤りを取り除く実験を行うが,この実験において上記の構文解析を行うと,探索経路が莫大となって計算に時間がかかる.従ってこの実験には,より簡単な処理で効果的に誤り訂正を行える方法が適している.このような観点から,本論文ではbigramを用いて解析を行うことにした.bigramによる方法は,自然言語のようなマルコフ性を有する系列に対し効果的に取捨選択を行うことができ,特に音声認識などの分野では高い評価を得ている.本研究では簡単のため意味解析は行わないが,このように誤りを含むテキストを処理する場合,構文解析や意味解析など,より高度な解析が必要な場合にも,あらかじめ認知単位のbigramにより不的確な候補を効率的に削除しておくことにより処理が効率化するものと思われる.bigramの出現頻度表により記述できる性質は,系列の単純マルコフ的な性質に限られるが,状態遷移図は多重マルコフ的な性質をも表すことができる利点を持つ.しかし,認知単位の境界は分岐数が多いため,認知単位の多重マルコフ的な性質を調べるのは極めて難しい作業となる.従って,本研究では状態遷移図による解析は認知単位内にとどめる.今,認知単位の系列$A={a_1,a_2,a_3,\ldotsa_n}$の出現確率を$P(A)$とすれば,\hspace*{-1mm}bigramモデルでは,\\系列$A$の出現確率は次のように表すことができる.\vspace*{-1mm}\begin{eqnarray}P(A)&=&P(a_1|\mbox{Start})P(a_2|a_1)P(a_3|a_2)\ldots\nonumber\\&&P(a_n|a_{n-1})\end{eqnarray}ここで,\hspace*{1mm}$P(a_i|a_{i-1})$\hspace*{1mm}は認知単位\hspace*{1mm}$a_{i-1}$\hspace*{1mm}の次に\hspace*{1mm}$a_i$\hspace*{1mm}が生起する条件つき確率である.\hspace*{1mm}また,$P(a_1|\mbox{Start})$は文頭に$a_1$が生起する条件つき確率である.従って,$A={a_1,a_2,\ldotsa_n}$が誤りによ\\り変化して$B={b_1,b_2,\ldotsb_n}$として生起される確率は次のようになる.\begin{eqnarray}P_p(A,B)&=&P(a_1|\mbox{Start})P_e(a_1,b_1)\nonumber\\&&P(a_2|a_1)P_e(a_2,b_2)\nonumber\\&&P(a_3|a_2)P_e(a_3,b_3)\ldots\nonumber\\&&P(a_n|a_{n-1})P_e(a_n,b_n)\label{eqa1}\end{eqnarray}\begin{figure}\begin{center}\epsfile{file=8-6.eps,width=46mm}\end{center}\caption{認知単位のbigram}\label{zu7}\vspace*{3mm}\end{figure}ここでは,$a_i$として認知単位の状態遷移図における受理状態の記号$z_j(0\lej\le127)$を用いる.従って,$P(a_i|a_j)$,$P(a_i|\mbox{Start})$をあらかじめコーパスにより図\ref{zu7}の形のbigramにして求めておき,(\ref{eqa1})式の$P_p(A,B)$を最大とする系列$A$を幅優先探索法によって探索する.形態素を単位としたbigramを用いる方法では,文を局所的に解析することしかできず,また,より大域的な解析を行うためにtrigramや4-gramを用いることにすれば,必要とされる記憶容量が指数関数的に増大する他,巨大なコーパスを必要とするなど様々な問題が生じる.この代わりに,このように認知単位を単位としたbigramを用いることにより,記憶容量を抑えながら,大域的な解析を行うことができる. \section{評価} 以上の方式を用いて,誤りを含むテキストに対して誤り訂正を施す実験を行った.まず,解析の元となるbigramを作成するため,認知単位に分割されたコーパスが必要である.このコーパスは手入力した天気概況文1569文から作成した.今回用いた天気概況文の場合,出現する形態素が限られているため,図\ref{zu3}の状態遷移図で文を走査し,単純な最長一致法で区切ることにより各文を認知単位に分割することができた.その際,各文を処理する途上で通った状態遷移図の経路から,形態素の区切りも検出し,コーパスに形態素情報として付加した.得られたコーパスの異なり形態素数は196,のべ形態素数は26834,1形態素あたりの平均文字数は3.90,perplexityは3.2となった.こうして作成したコーパスから,更に認知単位のbigramを作成し,図\ref{zu6}のモデルにより誤りを混ぜた文300文に対し,誤り訂正を施して認知単位に区切る実験を行った.比較のため同じコーパスから,形態素情報を用いて形態素のbigramを作成し,同じ文に誤り訂正を施し形態素に区切る実験も行った.この計算にはSUNのSPARCStation20モデル612を使用した.実験の結果,正しく誤り訂正ができた割合(正解率)と300文の処理にかかった時間とを表\ref{hyo1}に示す.\begin{table}[h]\caption{誤り訂正実験結果}\label{hyo1}\begin{center}{\small(探索の各段階における経路数$=$300)}\\[3mm]\begin{tabular}{c|c|cc}\hline\hlinebigramの&誤り率&正解率&計算時間\\種類&$P_n[\%]$&[\%]&[s]\\\hline\hline形態素&0&100.0&1324\\&2&85.0&178\\&4&73.0&163\\&6&63.7&188\\&8&58.7&180\\&10&51.6&194\\\hline認知単位&0&100.0&7158\\&2&88.7&739\\&4&76.3&636\\&6&73.3&609\\&8&68.0&548\\&10&55.0&554\\\hline\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}このような探索方法では,長い文においてあらゆる誤りの組合せをすべて調べるには,巨大なメモリと極めて長い計算時間とを要する.これらを制限するため,探索の各時点で,(\ref{eqa1})式により探索経路を評価し,最も評価値の高い300経路だけを残す方式を採った.このような経路限定を行うと,誤りが無い場合に比べ,誤りがある場合では経路の数が増えて,解が300経路に残らない確率が高くなり,結果として処理は高速になる.誤りが全くない場合は形態素,認知単位のいずれのbigramを利用した方法でも,100\%正しく文を区切ることができた.また,その他の場合は正解率は後者が前者に比べて3\%〜10\%程高くなった.このことから前者では,解の経路の評価値が300位以下に落ちて,途中で失われる確率が,後者に比べて高いと考えられる.処理中に消費するメモリの量については,探索経路数が等しいため両方法ともほぼ同等である.しかし,認知単位を用いた解析の場合,解の経路を残す確率が高い分,計算の時間が長くなっている.この計算時間を評価するため,形態素のbigramを用い,探索経路数を1200として誤り訂正を行った.その結果を表\ref{hyo2}に示す.\begin{table}[bth]\caption{誤り訂正実験の結果}\label{hyo2}\begin{center}{\small(探索の各段階における経路数$=$1200)}\\[3mm]\begin{tabular}{c|c|cc}\hlinebigramの&誤り率&正解率&計算時間\\種類&$P_n[\%]$&[\%]&[s]\\\hline形態素&0&100.0&5875\\&2&89.0&3827\\&4&75.0&3755\\&6&70.7&3576\\&8&67.0&3540\\&10&60.6&3583\\\hline\end{tabular}\end{center}\end{table}この表の場合,認知単位のbigramを用いて探索経路を300とした場合とほぼ同等の正解率が得られているが,計算時間は誤り率0の場合を除いてほぼ7倍となっている.また,メモリ消費量は探索経路数に比例するため4倍である.これらの結果は,認知単位をあらかじめ検出しておいて解析に用いることにより,処理を効率化できることを示している. \section{むすび} 人間の文解析を認知単位の検出と取捨選択の2段階からなるとみなし,このモデルに基づいて,局所的な解析に有限オートマトンを用い,大域的な解析をbigramに基づいて行う方法を提案した.有限オートマトンの処理は,他の解析方法と比べて直線的であり高速である.認知単位内の形態素の並びのように,局所的な解析は直線的なモデルが適合する.bigramより更に高度な文解析法では,一層再帰的な処理を行うため,より長い計算時間を要することが多い.このような解析方法においても,認知単位のような局所的な範囲については直線的な解析法を用いることにより効率化できると考える.\vfill\acknowledgment本研究を進めるにあたり,貴重な助言をいただいた東京工科大学の亀田弘之氏に深く感謝する.また,データ入力やプログラミングを補助してくれた東京理科大学藤崎研究室の阿部賢司氏に感謝する.\vfill\bibliographystyle{jnlpbbl}\bibliography{nlp003}\begin{biography}\biotitle{略歴}\bioauthor{横田和章}{1989年東京理科大学基礎工学部電子応用工学科卒業.1993年同大学大学院修士課程了.1996年同大学大学院博士後期課程了.現在,(株)東芝青梅工場所属.}\bioauthor{藤崎博也}{1954年東京大学工学部電気工学科卒業.MIT・KTH(1958--1961).1962年東京大学大学院博士課程了.工学博士.同年東京大学工学部専任講師.1963年同助教授.1973年同教授.1991年東京大学名誉教授,東京理科大学基礎工学部教授.音声生成・知覚・情報処理,自然言語処理等の研究に従事.昭和38年度電気通信学会稲田賞,昭和42年度同学会論文賞,昭和42年度電気学会論文賞,昭和47年度電子通信学会業績賞,1987年IEEE音響・音声・信号処理学会功績賞,1988年米国音響学会特別功績賞,1989年東京都科学技術功労表彰受賞.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N04-02
\section{はじめに} 事前学習済み言語モデル(Pre-trainedLanguageModels;PLM)は自然言語処理領域の基盤資源となっており,事前学習時に獲得した言語理解能力や知識は多種多様な下流タスクに活用されている.PLMは既知の問題に対して,事前学習時に記憶した知識を用いて推論を行うことができるが,未知の問題に対してはPLMの推論能力のみを頼りに推論する必要がある.しかし既存のデータセットを用いてPLMの純粋な推論能力を測ることは難しい.PLMは多種多様なデータを用いて事前学習を行うため,既存の推論能力を測るためのデータセットの情報も\emph{直接的}(下流タスクのデータセットが直接,事前学習用データに含まれている場合)・\emph{間接的}(下流タスクのデータセット自体は直接,事前学習用データに含まれていないが,下流タスクのデータセットの作成の元となったデータなど推論に有益な情報が含まれる場合)に事前学習用データに含まれている場合があり,PLMは事前学習で得た知識を下流タスクの推論時に使用している可能性がある.現に言語モデルの事前学習データに既存データセットがそのまま混入していることが指摘されていたり\cite{magar-schwartz-2022-data,ml-leakage,sainz-etal-2023-nlp},事前学習データに含まれないような専門的な知識を必要とする下流タスクでは汎用的なPLMは正しく推論を行うことができない\cite{wang2023on-robust-domain-specific,jullien-etal-2023-semeval,nair-modani-2023-exploiting}.PLMの推論能力を測るためのいくつかの研究\cite{zhou-etal-2021-rica,wang2021adversarial,zhu2023autokg,zheng2023-vicuna-judging,yu2024kola,laban2023llms,qin-etal-2023-chatgpt}では,それらはPLMの記憶能力の影響を考慮していないため,全く未知の事象に対してのPLMの推論能力は未だ明らかになっていない.PLMの記憶能力についての研究\cite{petroni-etal-2019-language,roberts-etal-2020-much,heinzerling-inui-2021-language,wei2022emergent,carlini2023quantifying-memorize}から,その記憶能力が推論時に有益である一方,事前学習時の記憶はバイアスとして推論に影響を与えたり\cite{bias1,kaneko-etal-2022-debiasing,kaneko-etal-2022-gender,meade-etal-2022-empirical,deshpande-etal-2023-toxicity,feng-etal-2023-pretraining,ladhak-etal-2023-pre},事前学習データに誤りが混入している場合,その誤りが推論結果に出現することがある\cite{dziri-etal-2022-origin,mckenna-etal-2023-sources,hallusination-survey,dziri-etal-2022-faithdial}.このことより,PLMの記憶能力と推論能力は密接に関係しており,記憶能力が推論時に及ぼす影響は大きいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia1f1.eps}\end{center}\caption{PLMを用いたKGC手法は知識の利用と推論による解決との両側面を有している.}\label{fig:intro}\vspace{-1\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで我々はPLMの純粋な推論能力のみに焦点を当て,未知の事象に対するPLMの推論能力を調査する.本研究での純粋な推論能力とは,下流タスクのテストデータなど,未知の事象に対して,直接的・間接的に獲得した事前学習時の事実的知識を用いずに推論することを指す.未知の事象に対するPLMの推論能力の分析に際して,知識グラフ(KnowledgeGraph;KG)上の既知の関係から欠損している未知の関係を予測するタスクである知識グラフ補完(KnowledgeGraphCompletion;KGC)を対象とする.従来の埋め込みに基づくKGC手法は推論能力のみから欠損箇所を予測する一方,近年利用されているPLMを用いたKGC手法では,図~\ref{fig:intro}に示すように,事前学習時に記憶したエンティティに関する知識も利用している.このようにKGCは記憶した知識の利用と推論による解決との両側面を有することからPLMが記憶した知識の影響を測ることに適したタスクである.しかし既存のKGCデータセット(例:WN18RR\cite{WN18RR},FB15k-237\cite{FB15k-237},Wikidata5m\cite{wang-etal-2021-kepler})はWeb上のデータから作成されているため,事前学習データにKGCデータセット内の関係が直接的・間接的に含まれている可能性がある.図~\ref{fig:intro}の例では,``KyloRen''の``grandfather''は``DarthVader''であるということを知識グラフから推論したいが,PLMは事前学習時に文章として間接的にその事柄に関する知識を獲得しているため,知識の利用を行っている.そのためPLMを用いたKGC手法が,問題を言語モデルの推論能力によって解決したのか,それとも言語モデルの記憶能力により解決したのか定かではない.そこで我々はモデルの記憶能力に対する評価と推論能力に対する評価を切り分けた評価方法及びそのためのデータ構築手法を提案する.この方法ではKGのグラフ構造を保持しつつ,エンティティや関係の表層表現を実際のものとは異なる表現に置換することで,PLMが事前学習で獲得した知識とは異なる環境を作り出す.この処理によってPLMは事前学習時に記憶した知識に頼らず,純粋な推論能力のみを頼りに,エンティティ間のグラフ構造を手がかりにKGCを行う必要が生じるため,言語モデルが持つ推論能力のみを測ることができる.表~\ref{tab:configurations}に我々が構築した疑似データによって評価可能な事象をまとめている.本研究では表~\ref{tab:configurations}に示した疑似データを用いて,PLMの学習過程やモデル構造の違い,事前学習の重みの有無,大規模言語モデルへの適用可能性など含めた,様々な設定下でのモデルの推論結果を分析することで,PLMが事前学習で得たエンティティに関する知識により推論を行っている箇所を明らかにした.またPLMが持つ未知の関係に対する推論能力も同時に事前学習時に獲得していることを示唆する結果も得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{01table01.tex}%\hangcaption{各設定での利用可能な情報の一覧.各設定で評価を比較することで,どの要素がKGCにおける推論能力に寄与しているか明らかになる.なお\textsc{Base}は元のデータセットによる推論を表す.また,\textsc{VirtualWorld}(\S\ref{sec:shuffle}),\textsc{AnonymizedEntities}(\S\ref{sec:random}),\textsc{InconsistentDescriptions}(\S\ref{sec:shuffle-descriptions}),\textsc{FullyAnonymized}(\S\ref{sec:random-descriptions})はそれぞれ本研究で作成した疑似データでの評価を表す.Pre.とRand.はそれぞれ事前学習で訓練された重みとランダムな値で初期化された重みで比較した場合を意味する.}\label{tab:configurations}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{知識グラフ補完} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{説明文付きKGのタスク定義}\label{subsec:task_definition}図\ref{fig:main}(a)に本稿で扱う説明文付きKGの例を示す.説明文付きKGは$\mathcal{G}=(\mathcal{E},\mathcal{R},\mathcal{T},\mathcal{D})$と定義され,それぞれ,$\mathcal{E}$はエンティティの集合,$\mathcal{R}$は関係の集合,$\mathcal{T}$は三つ組の集合,$\mathcal{D}$は説明文の集合である.各三つ組は$(h,r,t)\in\mathcal{T}$と表現され,$h,t\in\mathcal{E}$はそれぞれヘッドエンティティとテールエンティティと呼ばれる.また$r\in\mathcal{R}$は関係を表している.それぞれのエンティティ$e_i\in\mathcal{E}$には対応する説明文$d_i\in\mathcal{D}$が付与されている.KGCはKG上の欠損しているエンティティ間の関係を予測するタスクであり,クエリとして$(h,r,?)$または$(?,r,t)$が与えられたとき,$?$に対応するKG内のエンティティを答えとして予測する.ただし,ここで予測するのはエンティティのみであり,対応する説明文まで予測する必要はない.従って,説明文付きKGを用いたKGCは$(h_i,r_j,?)=((e_i,d_i),r_j,?)$を入力したとき,対応する$t_k=e_k$または$t_k=(e_k,d_k)$を出力する.例えば図\ref{fig:main}(a)では``((HarryPotter,...hisfateistiedwiththatofLordvoldemort...),memberof,?)''をクエリとして入力し,``OrderofthePhoenix''を出力する.逆方向の推論でも同様である.ただし,クエリ内の各要素の入力方法や説明文の扱い方は手法によって異なるため,\ref{subsec:kgc_methods}節で各手法ごとの入出力の違いを説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f2.eps}\end{center}\hangcaption{(a):PLMを用いたKGC手法に用いられるKGCデータセットの例.それぞれのエンティティには対応する説明文が付与されてる.(b)と(c)は本研究で作成したデータセットであり,それぞれ\textsc{VirtualWorld}(\S\ref{sec:shuffle})と\textsc{AnonymizedEntities}(\S\ref{sec:random})で述べる手法を用いて作成されている.(b)では元のデータセットの各エンティティと関係に付与されている名前をそれぞれ入れ替えている.また(c)は各エンティティと関係に付与されている名前をランダムな文字列に置き換えている.(b)と(c)では説明文内に出現するエンティティを変換後の対応するエンティティ名に置き換えている.}\label{fig:main}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,KGCは主にランク付けによる評価指標が採用され,Hits@$k$($k\in\{1,3,10\}$),MeanRank(MR),MeanReciprocalRank(MRR)が用いられることが多い.Hits@$k$はモデルが予測した回答の上位$k$件にどの程度正解が含まれているかを測り,MRは正解エンティティをモデルが何番目に予測されたかの平均,MRRはモデルが正解エンティティを予測できた順位の逆数の平均で性能を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{KGCの手法について}\label{subsec:kgc_methods}TransE\cite{transE}やDistMult\cite{distmult}のような従来のKGC手法はKGのグラフ構造のみに着目しており,エンティティなどの表層表現は考慮しない.一方,PLMを用いたKGC手法では表層表現をベクトル表現にエンコードして活用したり%%%%\cite{kg-bert,pkgc,shen-etal-2022-lass,knnkge,mem-kgc,openworld-kgc,star,wang-etal-2021-kepler,wang-etal-2022-simkgc},(Yaoetal.2019;Lvetal.2022;Shenetal.2022;Zhangetal.2022;Choietal.2021;ChoiandKo2023;WangB.etal.2021b;WangX.etal.2021;WangL.etal.2022)\nocite{kg-bert,pkgc,shen-etal-2022-lass,knnkge,mem-kgc,openworld-kgc,star,wang-etal-2021-kepler,wang-etal-2022-simkgc},直接回答の生成を行う\cite{genkgc,kgt5,chen-etal-2022-s2skgc,xie-etal-2023-lambdakg,zhu2023autokg}.これらのPLMを用いたKGC手法は2種類に大別することができ,\emph{識別に基づく手法}と\emph{生成に基づく手法}が存在している\cite{pan2023unifying}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{識別に基づく手法}\label{sec:discrimination-based-methods}KG-BERT\cite{kg-bert}などの初期のPLMを用いたKGC手法ではBERT\cite{devlin-etal-2019-bert}等のEncoder型PLMを採用している.各三つ組をPLMを用いてベクトル表現にエンコードし,二値分類を行うことで,与えられた三つ組の確信度を測り,スコア付けを行う.KG-BERTでは各三つ組$(h,r,t)$は式(\ref{eq:kg-bert-encode})のように変形できる.\begin{equation}\label{eq:kg-bert-encode}x=\text{[CLS]}\mathrm{Text}_h\text{[SEP]}\mathrm{Text}_r\text{[SEP]}\mathrm{Text}_t\text{[SEP]}\end{equation}ここで$\mathrm{Text}$は三つ組内のそれぞれの表層表現を表しており,$h$,$t$には該当エンティティと対応する説明文を結合し,入力している.変形した三つ組$x$をPLMを用いてベクトル表現に変換し,$\text{[CLS]}$トークンの位置の最終隠れ層$e_{[\text{CLS}]}$を用いて二値分類を行う.式(\ref{eq:kg-bert-calc})を用いて三つ組として成り立っているかどうかの判定を行うことで,各三つ組の確からしさのスコア付けを行う.\begin{equation}\label{eq:kg-bert-calc}\mathrm{Score}(h,r,t)=\mathrm{Sigmoid}(\mathrm{MLP}(e_{[\text{CLS}]}))\end{equation}推論時は,クエリ$(h,r,?)$に対して,$\mathcal{E}$内のエンティティをそれぞれ入力し,もっともスコアの高いものを$t$として出力する.一方,KG内の欠損しているエンティティを式(\ref{eq:mask-predict})のように$\text{[MASK]}$トークンで表現し,$\text{[MASK]}$トークンを予測することでKGCを解く手法が存在している\cite{knnkge,mem-kgc,openworld-kgc}.\begin{equation}\label{eq:mask-predict}x=\text{[CLS]}\mathrm{Text}_h\text{[SEP]}\mathrm{Text}_r\text{[SEP]}\text{[MASK]}\text{[SEP]}\end{equation}しかし,このまま直接$\text{[MASK]}$を予測するだけではエンティティを予測することができない.そのため,各エンティティを表す特殊トークンを追加し,それを予測することでエンティティの予測を可能にしている.例えばkNN-KGE\cite{knnkge}では特殊トークンと各エンティティに付与されている説明文を対応させるために式(\ref{eq:prompt-knnkge})のプロンプト文を用いて,$\text{[MASK]}$を予測させることで,各特殊トークンとエンティティをそれぞれ対応付ける学習をはじめに行っている.\begin{equation}\label{eq:prompt-knnkge}x_i=\text{[CLS]thedescriptionof[MASK]is}d_i\text{[SEP]}\end{equation}その後,式(\ref{eq:mask-predict})を用いて$\text{[MASK]}$トークンを予測する.予測エンティティに割り当てられる確率は式(\ref{eq:knn-kge-score})のようになる.\begin{equation}\label{eq:knn-kge-score}P(t\midh,r)=P([\text{MASK}]=\mathrm{t}\midx,\Theta),\end{equation}ただし$\Theta$はモデルのパラメータである.最後に,現在KGCデータセットでの評価性能がもっとも高い手法の一つであるSimKGC\cite{wang-etal-2022-simkgc}等では2つエンコーダを採用している.SimKGCでは三つ組$(h,r,t)$を質問文$(h,r)$と解答$t$の2つに分け,それぞれを式(\ref{eq:xhr})と式(\ref{eq:xt})のように変形し,ベクトル表現に変換する.\begin{align}x_{(h,r)}&=\text{[CLS]}\mathrm{Text}_h\text{[SEP]}\mathrm{Text}_r\text{[SEP]}\label{eq:xhr}\\x_t&=\text{[CLS]}\mathrm{Text}_t\text{[SEP]}\label{eq:xt}\end{align}それぞれの最終隠れ層の$\text{[CLS]}$トークンを用いて式(\ref{eq:simkgc-loss})で各候補に対してスコア付けを行う.\begin{equation}\label{eq:simkgc-loss}\mathrm{Score}\left((h,r),t\right)=\cos\left(e_{(h,r)},e_t\right).\end{equation}学習時には負例サンプリングなどを用いて学習を行う.これら紹介したモデルは基本的にBERT-baseモデルを用いるが,RoBERTa\cite{roberta}などの派生モデルを採用することも可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{生成に基づく手法}\label{sec:generation-based-methods}近年ではEncoder-Decoder型のPLMを用いた手法\cite{kgt5,genkgc}や,Decoder型の事前学習済み大規模言語モデル(LargeLanguageModels;LLM)を用いた手法\cite{xie-etal-2023-lambdakg,zhu2023autokg}が利用されている.従来のKGC手法や識別に基づく手法では解答候補のエンティティ集合から回答を選択していたが,生成に基づく手法ではあらかじめ用意した回答候補以外のエンティティからも生成することができるため,理論上,ありとあらゆるエンティティを回答として生成することができる.生成に基づく手法では,クエリ$(h,r,?)$に対して,欠損しているエンティティを予測する際,三つ組をモデル特有のプロンプトに変換し,エンコーダに入力することでベクトル表現$x_{(h,r)}$に変換する.その後デコーダで$x_t$を生成する.学習には,主にクロスエントロピー損失を用いる.推論の際,生成に基づく手法は理論上,すべてのエンティティを生成することができるが,KG内のエンティティのみを生成させるためにデコード時に制約をかけている.例えばGenKGC\cite{genkgc}の場合,$x_t$を生成させるためにデータセット内のエンティティを考慮した階層デコーディングを行っていたり,初期のKGT5\cite{kgt5}では階層デコーディングに加え,KGCに特化した事前学習を行っており,それによってモデルの有効性を示している\footnote{ただし,その後の議論によって事前学習の重みを用いたほうが精度向上する場合があることが示されている(\url{https://github.com/intfloat/SimKGC/issues/1}).また,小さいデータセットについては学習が安定しないことが報告されている(\url{https://github.com/apoorvumang/kgt5/issues/4}).}.GenKGCではBART-base\cite{lewis-etal-2020-bart},KGT5ではT5-small\cite{t5}をPLMとして採用している.最後に,最新の研究としてDecoder型LLMによるKGC手法が提案されており,in-contextlearningの枠組みでプロンプトを利用することが可能である.LambdaKG\cite{xie-etal-2023-lambdakg}では情報検索技術を取り入れたプロンプトを作成する.類似したエンティティをBM25\cite{Buettcher2010-bm25}により100件取得し,同様に類似した5つの三つ組も取得する.これらを1つのプロンプトにまとめ,5件の類似事例をもとに,100件のプロンプト内の候補からもっとも確からしいものを回答として生成する.またAutoKG\cite{zhu2023autokg}では情報検索技術を用いることなく,0-shotまたは1-shot設定でKGCを解く.具体的には三つ組の欠損しているエンティティを$\text{[MASK]}$トークンに置き換え,プロンプトに埋め込む.その後,LLMを用いて$\text{[MASK]}$トークンを予測し,生成することでKGCを解く.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:how-to-create}本研究ではKGCデータセット上のグラフ構造と表層表現を切り分けて考える.具体的にはエンティティと関係のそれぞれに対してグラフ構造を保持したまま,表層表現のみを入れ替えたり,ランダムな文字列に置換することで,各エンティティと関係に実際とは異なる表層表現を付与する.図\ref{fig:main}(b)と(c)に示すように,表層表現のみを考慮すると,それぞれのエンティティ間の関係性は実世界の関係と異なるが,グラフ構造自体に変更はない.さらに図\ref{fig:main}の色付きの箇所のように説明文内にもエンティティが含まれているため,それらも説明文と知識グラフの一貫性を保つために変更後の表現に置き換える.また,説明文の情報と知識グラフ内の関係に関連性がない場合についてモデルの振る舞いを調査することで,説明文と知識グラフの一貫性がどの程度推論結果に影響を与えるのか計測する.以上より,エンティティや関係の表層表現のみの入れ替えを行う場合(\textsc{VirtualWorld})とそれぞれをランダムな文字列に置き換える場合(\textsc{AnonymizedEntities}),またそれぞれに対して説明文の取り扱い方について(\textsc{InconsistentDescriptions},\textsc{FullyAnonymized})の合計4種類の観点から擬似データセットを作成する.これにより,\textsc{VirtualWorld}と\textsc{AnonymizedEntities},\textsc{InconsistentDescriptions}と\textsc{FullyAnonymized}のそれぞれを比較することで,もし評価結果に差が生じれば,両方のグラフ構造は同じであるから,表層表現の違いが推論能力に影響を与えているということが言えるため,表層表現の活用による影響を明らかにすることができる.また\textsc{VirtualWorld}と\textsc{InconsistentDescriptions},\textsc{AnonymizedEntities}と\textsc{FullyAnonymized}をそれぞれ比較することで,もし評価結果に差が生じれば,説明文の情報と知識グラフ内の関係の一貫性が,KGCタスクの推論能力に影響を与えているということが言える.\vspace{-0.5\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{algorithm}[b]\small\SetAlgoLined\KwData{Inputarray$arr$ofsize$n$,Setofremovededges$removed\_edges$}\KwResult{Generatedarray$res$}Createanemptygraph$G$\;\For{$i\leftarrow0$\KwTo$n-1$}{\For{$j\leftarrow0$\KwTo$n-1$}{\If{$arr[i]\neqarr[j]$and$(arr[i],arr[j])$isnotin$removed\_edges$}{addedge$(i,n+j)$in$G$\;}}}$match$$\leftarrow$maximummatching($G$)\\$res\leftarrow$anemptylistofsize$n$\;\For{$i\leftarrow0$\KwTo$n-1$}{$index\leftarrowmatch[i]-n$\;$res[i]\leftarrowarr[index]$\;}\Return{$res$}\caption{二部グラフによる攪乱順列}\label{algorithm:bipartite}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{VirtualWorld}\label{sec:shuffle}図\ref{fig:main}(b)に示すようにKG上のグラフ構造を維持したまま,エンティティと関係の表層表現のみを入れ替える.なお,入れ替えられない要素が無いように撹乱順列のアルゴリズム\cite{derangement}により入れ替えを行った.しかし関係について,関係の数がエンティティに比べて非常に少なく,また関係を入れ替えたとしても三つ組に変更が生じない場合がある\footnote{例えば各三つ組(JohannBernoulli,wasBornIn,Basel)と(JohannBernoulli,diedIn,Basel)の関係``wasBornIn''と``diedIn''を入れ替えたとしても三つ組に変更は生じない.}.この問題に対処するために,二部グラフを用いた攪乱順列のアルゴリズム\cite{bipartite2019,bipartite2020}を改良する.Algorithm\ref{algorithm:bipartite}に関係の入れ替えに使用したアルゴリズムを示す.我々は$removed\_edges$という集合を二部グラフによる攪乱順列のアルゴリズムに新たに導入する.Algorithm\ref{algorithm:bipartite}の4--6行目で,三つ組$(h,*,t)$で複数の関係が存在している場合,$removed\_edges$にそれらの情報を追加することで,変換時に該当箇所への遷移を防ぐ\footnote{もし$removed\_edges$になにも指定しない場合,通常の攪乱順列と等価である.}.その後,Algorithm\ref{algorithm:bipartite}の9行目のmaximummatching($G$)で最大マッチング問題を解くことで,遷移先を決定させる.二部グラフの最大マッチングにはHopfroft-Karpアルゴリズム\cite{Hopcroft-Karp}を用いる.また,図\ref{fig:main}に示す説明文内に含まれているエンティティをトライ木\cite{marisa-trie}を用いて検索し,該当エンティティについて,KG内のエンティティの置換後のエンティティの表層表現に置き換える.この操作により,KG上のエンティティ間の関係性と,それぞれの説明文内のエンティティ間の関係性について一貫性を保持する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{AnonymizedEntities}\label{sec:random}図\ref{fig:main}(c)に示すように,今度はデータセット内のグラフ構造を保持したまま,エンティティをランダムな文字列に置換する.その後,\textsc{VirtualWorld}(\S\ref{sec:shuffle})と同様に,トライ木を用いて,説明文内に含まれるエンティティを検索し,該当箇所を対応するエンティティの置換後の表層表現に置き換える.\textsc{VirtualWorld}と比較したとき,\textsc{VirtualWorld}はエンティティや関係に付与されている表層表現から元のデータセットの情報の読み取りが行えない.よって,その2つを比較すると,グラフ構造は同一であるため,表層表現の違いによる推論能力の影響を調べることができる.ランダム文字列の作成方法として,はじめに文字レベルのユニグラム言語モデル$P(s_i)$\footnote{スペースなど記号も含まれている.}をエンティティと関係の表層表現の集合に対してそれぞれ作成する.次に作成したユニグラム言語モデル$P(s_i)$を用いて$\boldsymbol{s}=s_1,s_2,$$\ldots,s_n$を作成する.それぞれの文字の出現確率の積を用いて,各文字列の確率を以下のように表すことができる.\begin{equation}p(\boldsymbol{s})=\prod^n_{i=1}p(s_i).\end{equation}文字列の生成は終端記号が出現するまで行う.それぞれの文字は独立に扱われているため,生成された表層表現から元のデータセットの情報を読み取ることはできない.また生成された文字列の集合に重複が生じないようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{InconsistentDescriptions}\label{sec:shuffle-descriptions}PLMを用いたKGC手法における説明文による影響を測定するため,説明文内のエンティティの情報を考慮しないことで,\pagebreak説明文とグラフ構造間の整合性を取らない設定を考える.\textsc{InconsistentDescriptions}では説明文のみを考慮する場合と,エンティティと説明文を同時に考慮する場合の2種類が存在する.説明文のみ考慮する場合,エンティティと説明文を切り離し,説明文のみ攪乱順列により入れ替えを行う.具体的に攪乱順列により$\mathcal{D}$の説明文を入れ替えた集合を$\mathcal{D}'$,その要素を$d'\in\mathcal{D}'$としたとき,それぞれのエンティティに付与されている説明文を$\mathcal{D}'$に基づいて,$\foralle_i\in\mathcal{E},d_i\mapstod'_i$のように付与し直すことで,それぞれのエンティティに対して全く異なるエンティティの説明文が紐づくこととなる.次にエンティティと説明文を同時に考慮する場合についての例を図\ref{fig:shuffle-descriptions}に示す.図\ref{fig:main}(b)での\textsc{VirtualWorld}(\S\ref{sec:shuffle})ではエンティティに付与されている説明文はエンティティを変更しても説明文は元の位置に留まり,説明文に含まれるエンティティの表層表現のみ変更している.一方,図\ref{fig:shuffle-descriptions}ではエンティティの表層表現の移動と共に対応する説明文も同時に移動している.また,説明文内のエンティティは考慮しない.つまり,エンティティの表層表現を$e_i$から$e_j$へ変更するとき,同時に説明文も$d_i$から$d_j$へ変更する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f3.eps}\end{center}\hangcaption{\textsc{InconsistentDescriptions}(\S\ref{sec:shuffle-descriptions})で作成するデータセットの例.図\ref{fig:main}(b)と比較したとき,各エンティティの説明文も同じ位置に移動している.また説明文内のエンティティにも変更を加えていない.そのため,エンティティと説明文のみだと,実世界の関係性を表しているが,データセット内のグラフ構造まで確認すると,エンティティと説明文で整合性が取れなくなっている.}\label{fig:shuffle-descriptions}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの操作により,説明文自体は実世界のエンティティ同士の関係性を説明しているが,データセット内のエンティティ同士の関係性においては破綻している.そのため,もしモデルが説明文の情報に依存している場合,その矛盾による影響を受けると予想できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{FullyAnonymized}\label{sec:random-descriptions}図\ref{fig:random-descriptions}に\textsc{FullyAnonymized}により作成されたデータセットの例を示す.図\ref{fig:main}(c)に示した\textsc{AnonymizedEntities}(\S\ref{sec:random})の例と比較したとき,\textsc{FullyAnonymized}では説明文の情報が全てランダムな文字列に置き換わっている.説明文のランダム文字列の作成方法は\textsc{AnonymizedEntities}(\S\ref{sec:random})でエンティティと関係に対しての操作と同様に,文字レベルのユニグラム言語モデルを説明文に対して作成し,各文字ごとの確率に基づいて説明文を生成する.この操作によって説明文の情報を使用できなくなるが,KGのグラフ構造自体は保持されている.説明文について\textsc{FullyAnonymized}と\textsc{InconsistentDescriptions}(\S\ref{sec:shuffle-descriptions})の違いは説明文が可読か否かである.そのため,\textsc{FullyAnonymized}ではPLMが事前学習時に獲得した表層表現に関する知識を一切用いることができない.したがって,これらのデータセットを比較することで,説明文に対する表層表現の違いによる推論能力の影響を調べることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f4.eps}\end{center}\hangcaption{\textsc{FullyAnonymized}(\S\ref{sec:random-descriptions})で作成されたデータセットの例.図\ref{fig:main}(c)での\textsc{AnonymizedEntities}(\S\ref{sec:random})と比較したとき,説明文がランダムな文字列に変更されている.この操作により説明文から情報を活用できなくなる.}\label{fig:random-descriptions}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \ref{sec:how-to-create}節で作成した擬似データセットを用いてPLMの推論結果の変化を観察することでPLMの推論能力を測る.評価にはHits@10を用いる\footnote{Hits@1,Hits@3,MR,MRRについても同様の傾向だったため,本稿ではHits@10の結果のみ示す.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}評価用データセットとしてWN18RR\cite{WN18RR},FB15k-237\cite{FB15k-237},Wikidata5m\cite{wang-etal-2021-kepler}\footnote{本稿では文献\cite{wang-etal-2021-kepler}におけるTransductive設定を用いた.}を用いた.それぞれのデータセットの詳細を表\ref{tab:datasets}に示す\footnote{WN18RRとFB15k-237は文献\cite{kg-bert},Wikidata5mは文献\cite{wang-etal-2021-kepler}で配布されているデータを用いた.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{01table02.tex}%\caption{本稿で扱うデータセットの詳細}\label{tab:datasets}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%それぞれのデータセットに対して\textsc{VirtualWorld}(\S\ref{sec:shuffle})と\textsc{AnonymizedEntities}(\S\ref{sec:random})をエンティティと関係,どちらかあるいはその両方に適用することで擬似データセットを計6種類作成する.また,\textsc{InconsistentDescriptions}(\S\ref{sec:shuffle-descriptions})と\textsc{FullyAnonymized}(\S\ref{sec:random-descriptions})を説明文のみ,エンティティと説明文,エンティティと関係と説明文のそれぞれに適用することでさらに6種類の擬似データセットを作成する.またそれぞれ元となるデータセットを含めて合計13種類のデータセットを実験では使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験に使用するモデル}識別に基づく手法からSimKGC\cite{wang-etal-2022-simkgc}とkNN-KGE\cite{knnkge},生成に基づく手法からKGT5\cite{kgt5}とGenKGC\cite{genkgc}を使用する.実装はLambdaKG\cite{xie-etal-2023-lambdakg}で作成されたフレームワークを用い,ハイパーパラメータはLambdaKGの標準設定に従う.シード値は全ての実験で固定した\footnote{初期実験としていくつかのモデルとデータセットに対し,シード値を変更して実験を行った結果,Hits@10の誤差はおよそ0.02程度であったため,シード値を固定した.実例としてWN18RRに対して\textsc{FullyAnonymized}(\S\ref{sec:random-descriptions})をエンティティ,関係,説明文全てに適用したデータセットで,kNN-KGEモデルを用いて,シード値を変更して3回実験を行った結果,Hits@10の値は$0.426\pm0.001$だった.}.また,WN18RRとFB15k-237では検証用データでHits@10が4エポック更新されなかった場合に学習終了とした.なおWikidata5mについては1エポック分のみ学習させた\footnote{SimKGCの結果のみ報告する.kNN-KGEは計算資源のメモリ上限の関係で実行できず,KGT5とGenKGCについては同様の設定だと十分な精度を得ることができなかったためである.すべての実験でNVIDIAA100(40GB)またはNVIDIAA6000(48GB)を使用した.}.また,事前学習時の重みを使用する場合と,事前学習時の重みを用いず,ランダムな値で初期化した場合の2つの場合を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験結果} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習時の知識の影響について}\label{sec:The-Effects-of-PLMs-Knowledge}図\ref{fig:WN18RR-hits10}にWN18RRの結果,図\ref{fig:FB15k-237-hits10}にFB15k-237の結果を示している.また,図\ref{fig:wikidata5m-hits10}にSimKGCによるHits@10の結果を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f5.eps}\end{center}\hangcaption{WN18RRにおける各データセットによるHits@10の結果.各データセットごとに,PLMの事前学習の重みの有無による2種類の値を示している.``E'',``R'',``D''はそれぞれエンティティ,関係,説明文を表している.例えば``E\&R''ではエンティティと関係のそれぞれについて変更を行っている.比較のために従来のPLMを用いないKGC手法であるTransEの文献\protect\cite{nathani-etal-2019-learning}で報告された結果を点線で示す.TransEは表層表現による影響を受けないため,これらのデータセットにおいてスコアの変化は生じない.また,左側2つは識別に基づく手法,右側2つは生成に基づく手法である.}\label{fig:WN18RR-hits10}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f6.eps}\end{center}\caption{FB15k-237における各データセットによるHits@10の結果.補足情報は図\ref{fig:WN18RR-hits10}と同じである.}\label{fig:FB15k-237-hits10}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%もし事前学習時の重みを用いない場合,欠損しているエンティティをKGCデータセット内の学習データのみから推論しないといけないため,その結果が未知のエンティティに対する推論能力の上限値となる.図\ref{fig:WN18RR-hits10},\ref{fig:FB15k-237-hits10},\ref{fig:wikidata5m-hits10}より,何も変更を加えていない元のデータセットでは事前学習時の重みを用いたほうが高いHits@10の値となっている.一方,特に\textsc{InconsistentDescriptions}と\textsc{FullyAnonymized}によってエンティティと説明文を変更した場合,事前学習時の重みを用いないほうが,用いた場合と比較したとき,同等以上のHits@10の値となっている.この結果より,事前学習の重みの有無による結果の違いはKGCデータセット外の事前学習時の外部知識により得られた推論能力であると考えられる.したがって,PLMは事前学習時に未知の関係に対する推論能力も同時に獲得しているということが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f7.eps}\end{center}\hangcaption{SimKGCによるWikidata5mのHits@10の結果.比較用にTransEによる結果を掲載している.Wikidata5mは1エポック分のみ学習させた後評価を行っている.比較として文献\protect\cite{wang-etal-2021-kepler}で報告されたTransEの値も示す.補足情報は図\ref{fig:WN18RR-hits10}と同じである.}\label{fig:wikidata5m-hits10}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また図\ref{fig:wikidata5m-hits10}に示したWikidata5mでのそれぞれの実験結果に対して,事前学習の有無の差分を四分位範囲を用いた外れ値検出手法\cite{IQR-outlier}により測定した結果,元のデータセットと,関係に対してのみ変更を加えた各データセットが外れ値として検出された.そのためPLMの事前学習時の知識がそれらのデータセットに対して,より大きくモデルの推論能力に寄与していると言える.従って,PLMを用いたKGC手法は未知の関係に対する推論能力の他に,事前学習時に獲得した事実的知識も推論時に使用していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{未知のエンティティへの推論能力に対する事前学習時の知識の影響}\ref{sec:The-Effects-of-PLMs-Knowledge}節ではPLMの事前学習時の知識が推論能力に対して,その推論能力を補強する作用について明らかになったが,一方,PLMの事前学習時の知識がむしろ新しい知識を獲得する際に悪影響を及ぼす可能性がある.特に図~\ref{fig:WN18RR-hits10}に示すKGT5の結果について,\textsc{VirtualWorld}と\textsc{AnonymizedEntities}によるエンティティの変更,エンティティと関係の変更をそれぞれ適用したとき,事前学習時の重みの有無によりスコアに大きな隔たりがある.また図\ref{fig:WN18RR-eval-short}にKGT5によるWN18RRの\textsc{VirtualWorld}と\textsc{AnonymizedEntities}の検証用データでの各エポックごとのHits@10の値の推移を示す.それぞれのデータセットについて,エンティティに対して変更を行った場合,事前学習済みモデルを用いたときは十分なエポック数の学習を行ったとしてもHits@10の値が向上しない一方,事前学習により得られた重みを用いない場合,Hits@10の値が著しく向上する.この結果より,事前学習時の知識の影響により未知の知識の獲得を妨げる働きをする場合があることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f8.eps}\end{center}\hangcaption{KGT5での検証用データにおけるWN18RRのHits@10の値.\textsc{VirtualWorld}と\textsc{AnonymizedEntities}により作成されたデータセットの値を示している.実線は事前学習の重みを使用,点線は事前学習の重みを用いず,ランダムな値で重みを初期化している.}\label{fig:WN18RR-eval-short}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エンティティ,関係,説明文のどの要素が推論能力に作用しているか?}\label{sec:which-factors}図\ref{fig:correlation}に各モデルの各データセットにおいて検証用データにおける1エポックごとのHits@10の値の推移に対して,ピアソンの相関係数により算出された,学習過程の類似度を示す.図\ref{fig:correlation}の結果から関係に対してのみ変更を行ったデータセットと元のデータセットの学習過程の間に強い相関があり,図\ref{fig:WN18RR-hits10},\ref{fig:FB15k-237-hits10}の結果から関係に対する変更の場合,Hits@10の値に元のデータセットとの値の変化がないことがわかる.従って,関係に対して変更を行ったとしても未知のエンティティに対する精度に変化はない.要因の一つとして,表\ref{tab:datasets}に示すように,エンティティに対して関係の数は極端に少なく,かつ表\ref{tab:dataset_stats}に示すように各エンティティに対して関係が1種類しか付与されてないものがFB15k-237で12\%,WN18RRで50\%以上存在していることがわかる.本来,KGCタスクにおいて,エンティティと関係のクエリから欠損箇所の予測を行わなければならない.しかし,このことは関係の情報を用いずとも,クエリ内のエンティティの情報のみで推論が十分可能であるクエリが存在していることを示唆している.これは\textsc{VirtualWorld}などによって関係に着目した疑似データを作成しても,そもそも既存のKGC用データセットの性質に問題があるため,効果が十分検証できない可能性がある.\ref{sec:subsub-promblem-datasets}節でさらに議論を行う.\pagebreak%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f9.eps}\end{center}\hangcaption{WN18RRとFB15k-237を元としたそれぞれのデータセットにおいて,検証用データの各エポックごとのHits@10の値に対してピアソンの相関係数を用いて計測したときの相関行列.``Shuf.'',``Rand.'',``Shuf.Desc.'',``Rand.Desc.''はそれぞれ\textsc{VirtualWorld}(\S\ref{sec:shuffle}),\textsc{AnonymizedEntities}(\S\ref{sec:random}),\textsc{InconsistentDescriptions}(\S\ref{sec:shuffle-descriptions}),\textsc{FullyAnonymized}(\S\ref{sec:random-descriptions})に該当している.また``E'',``R'',``D''はそれぞれエンティティ,関係,説明文に対する変更である.例えば``ER''であれば,エンティティと関係に対してそれぞれの手法を適用しているという意味である.``w/wts''は事前学習時の重みを用いた場合,``w/owts''は事前学習時の重みを用いずランダムな初期値から学習させた場合である.左側2つは識別に基づく手法,右側2つは生成に基づく手法である.}\label{fig:correlation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{01table03.tex}%\hangcaption{各データセット内のエンティティに付与されている関係の種類の数.ただし,1つのエンティティに対して同じ種類の関係が複数されている場合もあるので,付与されている関係の種類と数は一致しない.}\label{tab:dataset_stats}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,図\ref{fig:correlation}で\textsc{VirtualWorld}と\textsc{AnonymizedEntities}を比較したとき,その両者に相関が見られる一方,それらを説明文に対して変更を加えた\textsc{InconsistentDescriptions}と\textsc{FullyAnonymized}のそれぞれと比較したとき,その相関は低かった.実際に,図\ref{fig:WN18RR-hits10},\ref{fig:FB15k-237-hits10},\ref{fig:wikidata5m-hits10}での\textsc{VirtualWorld}と\textsc{AnonymizedEntities},\pagebreak\textsc{InconsistentDescriptions}と\textsc{FullyAnonymized}のペアで結果を比較すると,後者の一部の結果を除き,類似した評価結果となっていることが確認できる.従って,表層表現の違いより,エンティティ同士の関係性のほうが重要であると言える.さらに例えば図\ref{fig:wikidata5m-hits10}では\textsc{VirtualWorld}と\textsc{AnonymizedEntities}をそれぞれの要素に適用した結果に大きな違いはなかったことからも,表層表現の種類によっての精度変化より,それぞれのエンティティ間の整合性がデータセット内で取れていることが重要であることがわかる.また,例えば図\ref{fig:WN18RR-hits10}や図\ref{fig:FB15k-237-hits10}のKGT5の結果によると,エンティティと説明文に対して変更を加えた場合,他のデータセットと比較してHits@10の値が低いことがわかる.この要因の1つとして表\ref{tab:entity_in_descriptions}にクエリ内のエンティティの説明文に正解エンティティの情報が含まれている割合を示す.WN18RRでは約15\%のエンティティがクエリ内のエンティティの説明文に含まれている事がわかる.また,他のデータセットについてもテストセット内の約4.5\%の説明文に正解エンティティの情報が含まれる.そのため,これらのクエリに対してはエンティティ間の関係性を推論しなくても,単に説明文からの情報抽出によって正答できてしまう可能性がある.一方,説明文のみの変更は,エンティティと同時に変更した場合に比べて影響を受けてない.よって,エンティティと説明文を同時に変更した場合,どちらかから推論の手がかりを得ることができないため,言語モデルの推論能力が低下したと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{01table04.tex}%\hangcaption{各データセットのクエリのエンティティに予測すべきエンティティの情報が含まれている割合.つまりKGにおいてグラフ構造を考慮せずに推論することなく,クエリのエンティティの説明文から該当エンティティを抽出することで回答できてしまう三つ組の割合を示している.}\label{tab:entity_in_descriptions}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,図\ref{fig:WN18RR-hits10},\ref{fig:FB15k-237-hits10},\ref{fig:wikidata5m-hits10}の結果から,説明文に関する変更を行ったとしても,Hits@10の値の減少は限定的である.これは,学習過程でモデルは説明文が無意味な情報であると認識し,エンティティと関係のみに焦点を当てるような学習を行ったためであると考えられる.特に説明文のみの変更の場合,エンティティと関係をすべて変更したときと同等の結果となっている.このことから,モデルは説明文の記述を無視して,一からエンティティ同士の関係の学習を行ったと考察できる.そのため,事前学習の重みの有無に関わらず,説明文に対する変更は,エンティティと関係のみの変更と同等の結果となったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデルの構造による推論能力の違い}各疑似データにおける,生成に基づく手法と識別に基づく手法の評価結果を比較することで,モデルの構造が推論能力に与える影響について調べる.生成に基づく手法は識別に基づく手法と比較すると,特に図\ref{fig:FB15k-237-hits10}に示すようにエンティティの変更の影響を大きく受ける.また,図\ref{fig:WN18RR-hits10}において,KGT5とGenKGCの結果を参照すると,事前学習時の重みを用いない際に精度向上しているデータセットが存在する.これは図\ref{fig:WN18RR-eval-short}において,十分な学習を行っているにも関わらず,性能が向上しないことから,事前学習は特に生成に基づく手法に大きな影響を与えることがわかる.一般的に,生成型言語モデルによる構造化ラベル予測の利点として,デコーダ上で暗黙的に注入されたラベル埋め込み量\cite{xiong-etal-2021-fusing,zhang-etal-2021-language}によってラベル同士の関係を処理していることが指摘されている\cite{kwon-etal-2023-hierarchical}.しかし,KGCにおける生成に基づく手法の現在のラベル予測の使用法は,各クエリに対して,説明文を除いた単一のエンティティのみを予測するだけである.そのため,現在の使用方法では,生成に基づく手法におけるエンティティ間の関係をデコーダ上で明示的に扱うことができないため,エンティティの説明文情報を十分考慮することができていない.また,図\ref{fig:WN18RR-hits10},図\ref{fig:FB15k-237-hits10}の結果より,生成に基づく手法はランダムな文字列の影響を大きく受ける一方,識別に基づく手法の場合,表層表現の違いでの変化はほぼ見られない.生成に基づく手法はエンティティを直接,生成確率に基づいて生成するため,文字同士の共起情報が全くない上に,既存のトークナイザを使用しているため,その不一致が影響を与えている可能性がある.そのため,今後は言語モデルのトークナイザが言語モデルに与える影響について調査することが言語モデルの記憶能力と推論能力をより明らかにするための手がかりになると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大規模言語モデルによる推論能力}\label{sec:inference-capability}最後に,大規模言語モデルを用いたKGC手法に対して,本研究で作成した疑似データによる検証を行うことで,本手法の大規模言語モデルの推論能力の分析への適用可能性を探る.\ref{sec:generation-based-methods}節で述べた,LambdaKGで提案された大規模言語モデルを用いたKGC手法を用いてWN18RRとFB15k-237で推論能力を測った\footnote{LambdaKGではGPT-3\cite{gpt3}による実験を行っているが,再現性の観点から,Orca2-13B,Vicuna-13BとLlama-13Bを用いた.またOrca2-13BとVicuna-13BはLlama-13Bの継続学習モデルである.これらの言語モデルはMT-benchReasoningbenchmark\cite{zheng2023-vicuna-judging}でGPT-3と同等の性能である.また,元論文ではGPT-3によるAPIの返答結果を用いるため,一つの解答しか選べないため,Hits@1のみ計測していたが,我々は生成確率に基づいて上位10回答の中に正解エンティティが含まれているかどうか判定することでHits@10を測っている.}.図\ref{fig:LLMs-results}にOrca2-13B\cite{mitra2023orca},Vicuna-13B\cite{zheng2023-vicuna-judging}とLlama2-13B\cite{touvron2023llama}での結果を示す.図\ref{fig:LLMs-results}より,どの大規模言語モデルも同様の傾向,精度を示しており,元のデータセットではWN18RRが0.4程度,FB15k-237で0.15程度のHits@10の値となっている.また関係に関する変更は元のデータセットと変わらない値であり,説明文に関しての変更も若干劣るもののほぼ同等の精度となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{31-4ia1f10.eps}\end{center}\hangcaption{LambdaKGでのLLMによるKGC手法での各データセットのHits@10の結果.使用したLLMはOrca2-13B,Vicuna-13BとLlama2-13B.BM25によりデータセット内から回答エンティティの候補を100件抽出し,その中からモデルは1つのエンティティを生成する.生成確率順に上位10件の回答に対して正解エンティティが含まれているか判定することでHits@10を計算する.100個の回答候補から10エンティティ生成するため,チャンスレートは0.1である.}\label{fig:LLMs-results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%大規模言語モデルはエンティティがどのように変更されたのかを判別することができない.そのため,チャンスレートである0.1が推論可能な理論値となる.よってこの結果から大規模言語モデルの推論能力は事前学習時の記憶に大きく起因すると考えられる.またFB15k-237のHits@10の値に着目すると,Llama2-13BよりLlama2-13Bの継続学習モデルであるOrca2-13BやVicuna-13Bのほうが,精度が若干上回っていることがわかる.このことより,継続学習によって,新たな知識を学習した結果,より事前学習時の記憶が強く作用しているしていることがうかがえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{PLMを用いたKGC手法の推論能力を測る際の問題点}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセットについて}\label{sec:subsub-promblem-datasets}\ref{sec:which-factors}節で述べた内容より関係が持つKGC性能への影響力はとても小さい.また表\ref{tab:dataset_stats}から各エンティティに対して1つしか関係が付与されていない要素が存在していることから,クエリ内のエンティティさえわかっていれば,関係を考慮せずとも欠損しているエンティティを推論できる可能性がある.PLMを用いない既存のKGC手法ではグラフ構造を1から学習するため,関係の情報も考慮されるが,PLMを用いたKGC手法では\ref{sec:inference-capability}節で述べたようにPLMの事前学習時の知識は関係の情報に頼らなくても推論が可能であることが明らかとなった.そのため,PLMを用いたKGC手法に対して既存のKGC用データセットを用いた場合,関係の影響力を正しく評価することができないので,より関係に焦点を当てたデータセットの作成が必要であると考えられる.次に表\ref{tab:entity_in_descriptions}に示す結果からクエリ内のエンティティの説明文に欠損エンティティの情報が含まれていることが明らかとなった.説明文自体には,語義曖昧性の解消などに有益で推論に必要な情報が多く含まれている.そのためKGCにおいて説明文を使用する場合,それは言語モデルの推論能力の他に説明文からの情報抽出能力も関わるため,推論能力を測るという目的では不適である.そのため,今後モデルの純粋な推論能力を公平に測るためには,KGCで説明文を用いるべきではないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデルについて}\ref{sec:The-Effects-of-PLMs-Knowledge}節で述べたようにPLMの事前学習時の知識が未知のエンティティに対する推論能力に作用していることが明らかとなった.そのため,もしKGCモデル自体の純粋な推論能力を測りたいのであれば,事前学習時の重みを用いるべきではないと考えられる.これはPLMが事前学習時にKGCデータセットに含まれない外部知識を事前学習で獲得しているため,その時点で記憶された知識を切り分けて純粋な推論能力を測ることができないからである.よって,純粋なモデル自体の推論能力を測りたければ,KGCデータセットから得られる知識以外の情報を用いるべきではない.なお,KGCはグラフ構造を学習しないといけないため,訓練する必要がある.これはPLMを用いたKGC手法でも同様である.そのため,我々が作成した疑似データで学習することで新たな関係をモデルは扱うことができた.しかし\ref{sec:inference-capability}節で検証したように大規模言語モデルを用いたKGC手法では,学習コストが高いため,訓練を行わず推論する.従って事前学習時に獲得した知識に依存している.そのため,本研究で作成した疑似データを直接,大規模言語モデルを用いたKGC手法に適用することはできないが,疑似データで大規模言語モデルの学習を行うことができれば,本研究と同様の分析が可能となる.また近年では大規模言語モデルに長大なプロンプトを入力する研究が行われつつある.もしKGすべてを包括するような学習データをプロンプトとして入力可能になれば,In-contextLearningの枠組みで,本研究で作成したような疑似データを用いて,推論能力を測ることが可能となる.従って,APIなどを通した大規模言語モデルの推論能力なども計測することが可能となるため,本研究で作成した疑似データにおけるKGの関係をプロンプトなど通して大規模言語モデルの推論能力を計測することは今後の研究課題となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本稿ではPLMが事前学習時に獲得した知識とは異なる未知の関係を含む事象に\pagebreak遭遇した際の推論能力を調査した.推論能力を測定するために我々はKGCに焦点を当てた.しかし,既存のKGCデータセットの関係性は事前学習時に直接的あるいは間接的に含まれている可能性があるため,PLMの純粋な推論能力を測定することができない.またGPT-4\cite{openai2023gpt4}など近年の言語モデルは事前学習時のデータなどが詳細に明らかでない場合があるため,事前学習データをすべて調べることは不可能である.そのため,我々は事前学習に使用したデータを確認しなくとも,純粋な言語モデル自体の推論能力を評価する方法を提案した.具体的には知識グラフのグラフ構造に着目し,グラフ構造を保持したまま,元のKGC用データセットの知識グラフの表層表現のみを変換することで,実世界とは異なるKGC用疑似データセットを作成した.そして元のデータセットとのHits@10の値の比較を行うことで,言語モデルの推論能力と記憶能力による作用を分析した.実験の結果,PLMは未知の関係に対する推論能力を有していることがわかったが,その一方でPLMを用いたKGC手法では事前学習時に外部知識を利用しているため,実際の言語モデルに備わっている純粋な推論能力以上の推論を行っていることが明らかになった.そのため,より詳細に推論結果を分析することで,言語モデルの記憶能力が推論能力に与える影響を調査した.また既存のPLMを用いたKGC手法に対する問題点をデータセットとモデルの2つの観点から明らかにし,それらを回避する方法を提唱した.我々はPLMを用いてKGCを解く最近の研究に対してPLMを使用することが不適であると主張する一方,PLMが事前学習時にエンティティに関する情報を記憶するのみならず,未知のエンティティに対する推論能力も同時に獲得していることを示唆する結果も得られた.本研究ではPLMの推論能力を測定するため,KGCに焦点を当てたが,同様の考察は他の下流タスクにも適用可能であると考えている.またデータセットの作成手法は固有名詞認識や共参照解析など他の下流タスクのデータセットにも適用できる.そのため,それらの下流タスクでも同様の傾向が確認できるのかを今後検証していく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP23H03458の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{坂井優介}{%2024年奈良先端科学技術大学院大学博士後期課程修了.博士(工学).同年より奈良先端科学技術大学院大学先端科学技術研究科情報科学領域助教.自然言語処理分野の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{上垣外英剛}{%2017年東京工業大学大学院総合理工学研究科知能システム科学専攻博士課程修了.博士(工学).同年NTTコミュニケーション科学基礎研究所入所.2018年より東京工業大学科学技術創成研究院未来産業技術研究所助教.2022年より奈良先端科学技術大学院大学先端科学技術研究科情報科学領域准教授.自然言語処理分野の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{林克彦}{%2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.同年NTTコミュニケーション科学基礎研究所入所.東京大学大学院情報理工学系研究科助教,北海道大学大学院情報科学研究院准教授などを経て,2024年より東京大学大学院総合文化研究科准教授.自然言語処理や知識処理の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{渡辺太郎}{%1994年京都大学工学部情報工学科卒業.1997年京都大学大学院工学研究科情報工学専攻修士課程修了.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATRおよびNTT,NICTにて研究員,また,グーグルでソフトウェアエンジニアとして勤めた後,2020年より奈良先端科学技術大学院大学教授.自然言語処理や機械学習,機械翻訳の研究に従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N03-03
\section{はじめに} 人は必ずしも流暢に話しているわけではなく,以下の例のように,ときにつっかえながら,ときに無意味とも言える言葉を発しながら,話している.\newcounter{cacocnt}\begin{list}{例\arabic{cacocnt}}{\usecounter{cacocnt}}\item\underline{アッ}しまった\underline{エッ}本当?\item\underline{ド}どうしよう?\underline{アシ}あさってかな?\item\underline{エート}今度の日曜なんですが\underline{アノー}部屋はあいてるでしょうか\end{list}例1の下線部は感動詞(間投詞,interjections),例2は発話の非流暢性(disfluency)の一部であり,例3はその両方のカテゴリーに帰属する話し言葉特有の発話要素である.これらは,近年,人の言語処理を含む内的処理プロセス(mentalprocessing)や心の動きを映し出す「窓」として注目されてきている\cite{定延・田窪,田窪・金水,田中,Clark:02,山根,定延:05,富樫:05}.本研究では,これらを発話に伴う「心的マーカ(mentalmarker)」と捉え,例3のような「フィラー(fillers)」を中心に,「情動的感動詞(affectiveinterjections)」(例1)および「言い差し(途切れ;speechdiscontinuities)」(例2)と対比することで,人の内的処理プロセスとこれらの心的マーカとの対応関係について検討した.\subsection{従来の研究アプローチ}感動詞および非流暢性に焦点をあてた研究アプローチには,大きく分けて言語学的(linguistic)アプローチと言語心理学的(psycholinguistic)アプローチの2つが存在する.前者のアプローチからは,これまで主として,感動詞と感情の関係や感動詞の統語的性質が考察されてきた\cite[など]{田窪・金水,森山:96,土屋,富樫:05}.例えば,\citeA{森山:96}は「ああ」や「わあ」などの情動的感動詞を内発系と遭遇系に分類し,それらがどのような心的操作と対応するかについて詳しく考察した.一方,後者のアプローチからは,人の内的言語処理メカニズムを知るために,途切れや延伸,繰り返し,言い直しなどの非流暢性が研究されてきた\cite[など]{村井,伊藤,田中}\footnote{最近になって,\citeA{定延・中川}が非流暢性の言語学的な制約を分析するという言語学的アプローチによる考察を試みている.}.例えば,\citeA{村井}は,幼児の言語発達における言語障害的発話を分類し,言語発達過程における非流暢性の現れ方について考察した.これら2つのアプローチは,発話要素から人の内的処理メカニズムを探るという目的では類似している.しかしながら,前者は主としてそれぞれの感動詞に対応する心的操作について,後者は主として非流暢性の程度と言語処理メカニズムあるいは言語発達過程との関係について検討してきたため,共通する対象領域をカバーしながらも,それぞれ別の角度から取り組んできたといえる.本研究において中心に取り上げるフィラーは,言語学的には感動詞の一部として\cite{田窪・金水,定延・田窪},言語心理学的には非流暢性の一種である有声休止(filledpause,\cite{Goldman-Eisler,田中})として,双方のアプローチから研究されてきた音声現象である\cite{山根}.フィラーと情動的感動詞,言い差し(途切れ)を同一軸上で比較することで,両研究アプローチからの「切り口」により明らかにされる内的処理プロセスの諸側面をさらに深く理解することにつながると考えられる.以下に,本研究で扱う3つの発話要素(フィラー,情動的感動詞,言い差し)に関する先行研究を概観し,本研究の目的および特色を述べる.\subsubsection{フィラー}Merriam-WebsterOnlineDictionary(http://www.m-w.com/)によると,フィラー(fillers)には「間を埋めるもの」という意味がある.\citeA{Brown}によると,フィラーは主に発話権を維持するために,発話と発話の間を埋めるように発する発話要素とされる\footnote{\citeA{Clark-Tree}や\citeA{水上・山下}は,話し手のフィラーが長い場合,前後のポーズ長も長くなる傾向にあることを示しており,結果として,ポーズだけの場合よりも長く発話権を維持できる.}.この意味に相当する日本語の用語として,「間(場)つなぎ言葉」がある.その他に,無意味語,冗長語,繋ぎの語,遊び言葉,言い淀み,躊躇語など,これまでそれぞれの研究者の視点からさまざまに呼ばれてきている\cite{山根}.本研究では,近年の傾向にしたがい\cite{山根,定延:05},便宜的に,フィラーという名称を用いる.フィラーは,一般に命題内容を持たず,前後の発話を修飾するようなものでもない\cite{野村,山根}.例えば,例3の文からフィラーを除いたとしても,文意には何ら影響しない.そのため,古典的な日本語研究においては,感動詞や応答詞あるいは間投詞の一部として,その用法が取り上げられるにすぎなかった\cite{山根}.しかしながら,近年,言語学的アプローチによる研究により,フィラーのさまざまな機能が注目されるようになってきた.例えば,談話の区切りを表示する「談話標識(discoursemarker\cite{Schiffrin})」の機能\cite{Swerts,Watanabe,野村}や,換言や修正のマーカ\footnote{「渡したペーアノプリント」のように言い直しの前などに出現するフィラーを指す.}としての機能\cite{野村}があげられる.その他にも,``uh''や``ah''などのフィラーが構文理解(parsing)にもうまく利用されることが示されている\cite{Ferreira-Bailey}.また,フィラーは,非流暢性あるいは停滞現象(speechunfluency\cite{田中}),有声休止(filledpause)と呼ばれることもあり,発話上の問題として捉えられてきた側面もある(例えば,\citeA{Hickson}).一方で,1960年代から\citeA{Goldman-Eisler}ら言語心理学者によってさかんに非流暢性が研究されてきた理由の一つは,非流暢性が話し手の言語化に関わる内的処理過程・処理能力を表示するよい指標になり得るからである.注目すべきは,表情や一部の身体動作と共に(例えば,\citeA{Ekman,Ekman-Friesen}),フィラーが話し手の心的状態や態度が外化したものと考えることができる点である\cite{定延・田窪,田窪・金水}.\citeA{定延・田窪}は,フィラーを話し手の心的操作標識と捉え,「エート」と「アノ(ー)」を取り上げて,心的操作モニター機構について考察した.\citeA{定延・田窪}によれば,「エート」は,話し手が計算や検索のために心的演算領域を確保していることを表示し,一方で「アノ(ー)」は,話し手が主に聞き手に対して適切な表現をするために言語編集中であることを表示するとされる.この例以外に,状況によって適さないフィラーや,逆に儀礼的に使われるフィラーも存在する\cite{定延:05}.これらは,フィラーが発話者の心的状態を表示する標識となる一方で,状況や場などの制約を受ける言語学的な側面を持つことを示している.\subsubsection{情動的感動詞}情動的感動詞とは,\citeA{森山:96}が,情動的反応を表す感動詞として分類したものである.\citeA{森山:96}は,泉の比喩を使ったモデルで「アア」のような内から湧き上がってくる感情を表す内発系と,「オヤ」「オット」「ワア」「キャア」などの遭遇系の情動を分類し,それぞれと感情との関係を考察した.また,\citeA{田窪・金水}は,感動詞を,「心的な過程が表情として声に現れたもの」と捉え,特に情報の入出力に関わるものを「入出力制御系」とし,それらを応答,意外・驚き,発見・思い出し,気付かせ・思い出させ,評価中,迷い,嘆息に分類し,それぞれについて考察した\footnote{出力の際の操作に関わるものは「言い淀み系」として,非語彙的形式,語彙的形式(内容計算,形式検索,評価)に分類された.これはほぼフィラーに対応すると考えられる.}.彼らによれば,例えば,感動詞「ア」とは,発見・思い出しの標識であり,「予期されていなかったにも関らず関連性の高い情報の存在を新規に登録したということを表す」ものである.これに対し,近年,\citeA{富樫:05}は,驚きを伝えるとされる「アッ」と「ワッ」を取り上げ,「アッ」の本質は発見や新規情報の登録を示すものではなく,単に「変化点の認識」を示すものであると述べた.さらに\citeA{富樫:05}は,従来考えられてきたような感動詞の伝達的側面を疑問視し,感動詞の本質は感動を含まず,それは聞き手の解釈による効果に過ぎないと述べている.これらの研究は,情動的感動詞が少なくとも話し手の何らかの「心の状態の変化が音声として表出したもの(changeofstatetoken\cite{Heritage})」と考えられることを示している.\subsubsection{言い差し(途切れ)}言い差しとは,反復や言い直しによって途切れた不完全な語断片を指す.本研究では,スラッシュ単位マニュアル\shortcite{Slash-Manual}でタグとして使用されている言い差しの用法に従う\footnote{「ちょっと用事がありまして(参加できません)」のように,重要な部分を省略した用法を「言い差し表現」と言う場合もある.}.言い差しは,言語心理学的な研究の中で,意味処理や調音運動に関連付けて研究されてきた.例えば,\citeA{田中}は,スピーチの停滞現象を反復(「ヒヒトハオドロイタ」),言い直し(「キカイガヘンカコワレタ」),有声休止(フィラー),無声休止(ポーズ)などに分類し,それらが意味処理の過程とどのように関っているのかを実験に基づく考察から詳細に分析した.その結果,意味の処理には,音声を伴わない処理と音声を伴う処理の2つの様相があることが示された.この結果は,従来の考え方が前提としていた,人の発話処理過程において,意味の処理が完了してから音声出力されるという考え方に疑問を投げかけるものであった.つまり,人は考えてから話すのではなく,話しながら考えるという二重処理を行っていることを示す.言い差しとは,一旦,出力されかけた言語表現が並列的に動作する意味処理によって,中断されたものと考えられる.その意味で,言い差しは人の発話に伴う内的処理のプロセスの並列性,階層性を理解する上で,重要な鍵となると考えられている.\subsection{本研究のアプローチ}\subsubsection{3つの発話要素の定義}本研究では,先行研究\cite{山根}を参考に,フィラー,情動的感動詞,言い差しといった3つの発話要素を以下のように定義した.以下の例では,フィラー,情動的感動詞,言い差しに該当する部分をそれぞれカタカナで表記して示す.\\\noindent\textbf{フィラー}\\・それ自身命題内容を持たず,発話文の構成上,排除しても,意味に影響を及ぼさないもので\\\noindent(1)他との応答・修飾・接続関係にないもの\\○「エットソノー3つ目の正方形の」\\×「その角に」\noindent○「普通のモー三角形ですね」\\×「もう少し」\noindent○「コーナンテイウンデスカネ」\\×ジェスチャーを伴って「こう(こんなふうに)」\noindent(2)他との応答関係にあっても逡巡を示すもの\\○質問を受けて「ウーン左側が長いんですよね」\\×「うんそう」\noindent(3)情動的感動詞\cite{森山:96}や言い差し(途切れ)とは異なるもの\\○「エー左だけ書いてから」\\×「えっそれだけ?」(情動的感動詞)\\×「え円を描くように」(言い差し)\vspace{10pt}\noindent\textbf{情動的感動詞}\\・気付き,驚き,意外など,心的状態の変化を表出していると考えられるもの\\「アわかりました」「エ違う?」「アレ?」など\vspace{10pt}\noindent\textbf{言い差し(途切れ)}\\・反復,言い直しなど,言いかけて止めることによって,単語として成立していないもの\\「サさんかく」「フタ三つ目」「ホ(沈黙)」など\vspace{10pt}この定義により,本研究で扱う対話データ(後述)では,以下のようなものがフィラーとして認定された:アー,アノ(ー),アノナ,アノネ,アレ\footnote{フィラーとしての「アレ」は,平坦に短く,低ピッチで発音される.「それはアレ三角関数みたいに」という場合.同様に,代名詞と同表記である,「アノ」,「コノ」,「ソノ」もフィラーの場合には基本的に平坦かつ低ピッチで発音される.},アンナ,ウー,ウーン,ウ(ー)ント(ー),ウ(ー)ントネ,ウ(ー)ントナ,エ(ー),エ(ー)(ッ)ト,エ(ー)(ッ)トネ,エ(ー)(ッ)トナ,エ(ー)(ッ)トデスネ,コー,コノ(ー),ソーデスネ(ー),ソノ(ー),(ッ)ト(ー),(ッ)トネ,(ッ)トナ,ドウイエバイイノカ\footnote{{\kern-0.5zw}「ドウイエバイイノカ」に類するフィラーは,低ピッチで独り言のように発する場合であり,相手に答えを求めて「どう言えばいいんですか?」と問いかけているものではない.「ナンテイエバイイノカ」に類するフィラーも同様.これらが命題内容を持つかどうかについては議論の余地があるが,本研究では,\citeA{山根}において,フィラーとされる「ドウイウカ」「ナンテイウカ」の変形として,これらをフィラーに含めた.},ドウイエバイインダロウ,ドウイッタライイカ,ドウイッタライイノカ,ドウイッタライインデスカネ,ドウセツメイシタライイカ,ドウダロウ,ナンカ,ナンカネ,ナンカナ,ナンテイウカ,ナンテイウノカ,ナンテイウノ,ナンテイウノカナ,ナンテイイマスカ,ナンテイエバ,ナンテイエバイイカ,ナンテイエバイインデスカネ,ナンテイッタライイノカ,ナンテイウンデスカネ,ナンテイッタラインデスカネ,ハー,フーン,マ(ー),モー,ンー,ン(ー)ト,この他,方言による変異と考えられる,アンナー,ソヤネー,ナンチューカ,ナンテイエバイイトなどもフィラーとみなした.また,情動的感動詞としては,以下のものが認定された:ア(ー)(ッ),アレ(ッ),イ(ッ),ウ(ッ),エ(ー)(ッ),オ(ー)(ッ),ハ(ッ),ハイ,ヒ(ッ),ヘ(ッ),(ウ)ン.言い差しについては,不定形のため省略する.\subsubsection{本研究の目的}本研究の目的は,従来の言語学的アプローチと言語心理学的アプローチにより明らかにされてきた発話行為に伴う内的処理について,フィラーを中心に,情動的感動詞,言い差し(途切れ)という心的マーカを指標に検討することにある.対話において内的処理の過程に何らかの問題が発生すると,その内的状態を反映して,話し手,聞き手双方の発話中に,心的マーカが出現する.これらの心的マーカの出現率を分析することで,対応する処理プロセスとの関係を明らかにする.話し手の内的処理プロセスには,思考に関わるもの(検索・記憶操作,計算,類推,話の組み立てなど)と,発話生成に関わるもの(構文調整,音韻調整,単語・表現選択など),聞き手の内的処理プロセスには,発話の理解に関わるもの(構文理解,文脈理解,意味解釈,意図推論など)が考えられる.これらの話し手,聞き手の処理プロセスに,状況の認識に関わる内的処理(場の認識,関係性の認識,話者間の共通知識についての認識,利用可能なモダリティの認識,時間や空間の制約の認識など)が影響を及ぼすことが予想される.つまり,状況の認識が決定されることで,思考や発話のなされ方が変化すると考える.\begin{table}[b]\begin{center}\caption{話し手の内的処理プロセスおよび心的マーカと状況変数との対応}\label{map_speaker}\scriptsize\begin{tabular}{cccccc}\hline\multirow{2}{12mm}{状況変数}&\multirow{2}{24mm}{喚起される主だった状況認識のモード}&主な思考プロセス&主な発話生成プロセス\\&&[主な心的マーカ]&[主な心的マーカ]\\\hline親近性&関係性の認識&説明の組み立て&表現選択\\&(丁寧さの意識)&[フィラー(アノ)]&[フィラー(アノ)]&\\対面性&モダリティの認識&表象の言語化&単語選択\\&(制約の意識)&[フィラー(ナンカ)]&[フィラー(アノ)]\\難易度&必要な処理の認識&記憶・検索操作,説明方略&単語選択,文構成\\&(必要操作への意識)&[フィラー(エート,ソノ),情動的感動詞]&[フィラー(アノ),言い差し]\\\hline\end{tabular}\end{center}\end{table}そこで本研究では,発話の言語化に関わる内的処理プロセスに影響を及ぼすと想定される3つの状況変数(親近性,対面性,課題難易度)が操作され,話し手の内的処理プロセスが状況変数の影響をどのように受け,また聞き手の理解に影響するかどうかが検討された.本研究で操作される変数以外にも,状況変数としては性別差や年齢差などが考えられる.それらと比較して,親近性,対面性,課題難易度は,それぞれ,社会性,伝達手段,処理の複雑さといった異種の認識モードを必要とし,発話の言語化に関わる内的処理プロセスにも異なる影響を及ぼすと考えられた.本研究で想定された話し手の内的プロセス(思考と発話生成のプロセス)および心的マーカと状況変数の関係が,表\ref{map_speaker}に示される.具体的には,親近性の場合,対話の相手が友人か初対面の人であるかという関係性の認識によって,丁寧さへの意識が変化し,発話生成のための言葉選びや言い回しが変化する.つまり,初対面の人に説明する場合には,思考プロセスにおいて丁寧な説明のための発話の組み立てに負荷が,発話生成プロセスにおいては,発話表現の選択に負荷がかかることが予想される.次に,対面性の場合,相手と対面して対話するかどうかという利用可能なモダリティの認識によって,表現方法への制約が意識される.つまり,非対面の場合に,思考プロセスにおいては形状の表象への変換に負荷が,そして発話生成プロセスでは説明のための単語や表現の選択に負荷がかかるだろう.最後に,難易度の場合,説明内容が難しく,必要な処理操作が増加するという認識によって,記憶や対象への注意などの必要操作への意識が高まる.つまり,思考プロセスにおいては記憶操作や単語検索,対象把握や文の組み立てなどに,発話生成プロセスではどのような言語表現を使い,いかに発話の整合性を保つかという単語選択や文構成に負荷がかかるであろう.リアルタイムに処理可能な情報量に限界のある話し手にとって,特定の発話プロセスに負荷がかかると,その状態を表示するさまざまな心的マーカが外化することが予想される.例えば,先行研究からの予測として,単語や表現の検索・選択への負荷の増加は,「エート」や「アノ(ー)」などのフィラーの増加として表出するであろう.その他,「ナンカ」は,具現化できない何かを模索中であることの標識であり,表象の言語化過程に表出しやすいであろうし,「ソノ」は,すぐに具現化できない内容が思考プロセスに存在していることを示すとされ\cite{山根},言葉を掘り起こす負荷の高い場合に表出されやすいであろう.また,並列的に処理される思考プロセスと発話生成プロセスに同時に負荷がかかる場合,例えば,発話を始めてから言い間違いに気付いて,言い直す場合には,言い差しが表出することが予想される.一方,「ア」や「エ」などの情動的感動詞の場合には,上記の負荷の影響は間接的であり,例えば,説明しにくい(相手にも理解しにくい)対象を説明する場合に,自分が今行っている説明の仕方よりもさらによい説明の仕方を思いついたときや,説明の不備に気がついたときに表出される機会が増加することが予想される\footnote{ここでは,話し手の発話プロセスについて言及しているが,「ア」などの情動的感動詞は,理解や発見の表示として表出する場合が多く,聞き手の応答時に現れやすい(例えば,「ア,はいはいはい」).}.以上から,3つの状況変数は以下のような心的マーカの出現率の差として現れることが予測される.1)親近性が低いと,表現選択に関するフィラー出現率が高まり,2)対面性がないと,表象の言語化や単語選択に関するフィラー出現率が高まり,3)難易度が高いと,記憶・検索操作に関するフィラー出現率,情動的感動詞出現率,言い差し出現率のすべてが高まる.また,本研究では,状況による心的マーカの現れ方を検討するため,統制された実験環境において,課題遂行型の対話である図形説明課題対話を収録,分析した.先行研究では,自然な対話収録を目的とし,自由対話を課題とするものが多く,例えば,会話分析のような社会学的手法においては日常会話が主として扱われてきた\cite{好井}.しかし,本研究で用いる図形説明課題対話は,提示された図形を説明する説明者役と,説明を受けて理解し,選択肢を答える回答者役に分かれて行う課題であり,役割の非対称性(話し手/聞き手)と情報の非対称性(説明者≫回答者)を特徴としている\footnote{ただし,回答者には,説明者に対して質問することを許可しており,局所的には話し手/聞き手が逆転する場合がある.}.役割の非対称性がある対話として,インタビュー対話\shortcite[など]{CSJ}があげられるが,ここでは,聞き手であるインタビュアの会話進行能力や質問の仕方に依存し,発話量のバランスや難易度の統制が困難である.また,本研究での課題と同様に,協同作業型課題遂行対話である地図課題対話\shortcite{堀内-99}では,説明者役と回答者役の間の情報の非対称性が完全ではない(回答者にも手がかりがある).図形説明課題を使用することで,説明者側の内的処理プロセスは,説明のための言語化に係わる処理プロセスが主となり,回答者側の内的処理プロセスは,理解に係わる処理プロセスが主となると切り分けて検討できる利点を有する. \section{方法} \noindent実験参加者成人56(男性28,女性28)名がペアで実験に参加した.実験ペアは同世代かつ同性で組み合わされた,28(男性ペア14,女性ペア14)組であった.平均年齢は25.45(SD=5.80,範囲=18--38)歳であった.参加者には実験参加に対する謝礼が支払われた.\vspace{10pt}\noindent実験計画2×2×2の3要因混合計画が用いられた.親近性(知人vs初対面)と対面性(対面vs非対面)が被験者間要因であり,課題難易度(難vs易)が被験者内要因であった.各群のペア数は以下の通りであった;知人/対面群7ペア,知人/非対面群6ペア,初対面/対面群7ペア,初対面/非対面群8ペア.\vspace{10pt}\noindent装置・器具実験は防音室内で実施された.防音室は防音壁と防音ガラス窓で構成される仕切り壁によって,2つの小部屋に区切られていた.実験中,各参加者はマイクロホン(SONYECM88)とヘッドフォン(SONYMDR-CD900ST)を装着した.一方の参加者の話す音声はマイクロホンから入力され,音声ミキサー(JVCPS-M3016)を介して,他方の参加者のヘッドフォンへ出力された.これにより,各参加者の音声は互いに回り込むことなく,完全に分離した形で,オーディオワークステーション(TASCAMSX-1)に収録された.また,実験の様子はそれぞれの参加者の正面,側面について別々の小型カメラ(WATECWAT-204CX)を使用して撮影され,画面分割器(SONYYS-Q440)を通して,4つの画像情報を1つの画像としてデジタルビデオデッキ(SONYDSR-2000)に収録された.\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{stimulus.eps}\caption{提示刺激}\label{figures}\end{center}\end{figure}\vspace{10pt}\noindent課題と刺激実験では,図形説明課題が用いられた.図形説明課題とは,2人1組で実施し,参加者の一方が説明者役,他方が回答者役となり,説明者役が口頭で説明する抽象的な線画の形を,回答者役が選択肢の中から再認し,答える課題である.なお,本研究では報告されないが,実験では,写真を見てそこに写る複数の人物間の関係を類推し,2者間で回答を作成する合意形成課題も実施されたが,両課題は性質の異なる課題であると考えられた.つまり,2者間の社会的関係性(例えば,上司と部下,先輩と後輩など)を考慮せず,純粋に理論的に考えると,合意形成課題では,話者間での発話機会は均等に保証されているが,図形説明課題では,説明者役から回答者役への情報提供が主となり,説明者役の発話機会が大きくなる課題設定であり,お互いの発話機会が均等に保証されていない.また,自然な状況での会話に近い合意形成課題と比較して,図形説明課題では役割が設定されているので,個人差が反映しにくい課題であると考えられた.図形説明課題で用いられた刺激は抽象線画であり,予備調査によって,説明の難易度が統制されていた.予備調査では,ジェスチャと発話の関係を検討した\citeA{Graham-Argyle}で用いられた抽象線画を参考にして作成された12個の刺激図形を大学生男女43名に提示し,それぞれの図形の説明しやすさについて,7段階評定(1:簡単,7:難しい)を求めた.その結果から本実験のために,説明のしやすい図形2つ,しにくい図形2つ,合計4つの図形が選択された(図\ref{figures}参照).\vspace{10pt}\noindent手続き実験は実験手順の説明,マイク類の装着と音声チェック,図形説明課題,合意形成課題の順で実施された.全体の所要時間は約50分であった.実験に関する説明,ならびに実験課題の提示はパーソナルコンピュータ(SONYVAIOPCG-GR7/K)により制御された.実験はペアごとに防音室内で実施された.対面性の操作として,これらのペアの半数が間をガラスで隔てた対面(FTF:face-to-face)条件で実験を行い,残る半数は相手が見えず声のみしか聞こえない非対面(NFTF:non-face-to-face)条件で実験を実施した.また,親近性の操作として,ペアの半数はお互いが知り合い同士である知人(F:familiar)条件,残り半数は初対面(UF:unfamiliar)条件に割り当てられた.初対面条件のペアは事前にまったく面識がない者同士が組み合わされ,相手についてのいかなる情報(年齢や性別など)も告知されていなかった.また,実験開始前の印象やコミュニケーションが実験に何らかの影響を及ぼすことを避けるために,参加者は別々に控え室に入室し,個別に実験手順の説明を受けた.その結果,対面/初対面条件の参加者は実験開始のために防音室内に入室して初めて顔を合わすこととなり,非対面/初対面条件の参加者はマイク類の調整時点で,初めて相手の音声を耳にしたが,実験終了後まで顔を合わせることはなかった.最初に,各参加者はそれぞれ別々の控室に入室し,コンピュータディスプレイ(SONYLMD-230W)の前に座って,本実験の目的が「ペアで会話を通していくつかの課題を協力して解く」ことであり,実験の概要と注意事項について説明された.以下では,本研究で報告される図形説明課題に絞って記述する.図形説明課題では,参加者は図形を見てその形状を説明する説明者役(briefer)と,説明者の説明を聞いて選択肢から答えを再認する回答者役(answerer)に分かれ,図形の形状を伝達するように求められた.各参加者は実験者から指示された役割に従って,説明者役,回答者役を交替した.つまり,1人の参加者は説明者役を2回,回答者役を2回行った.課題難易度として,説明者役が図形を説明する際に,説明のしやすい図形がディスプレイ上に常に表示され参照可能な課題易条件と,説明のしにくい図形が5秒間のみ表示され記憶して説明しなければならない課題難条件が設定された\footnote{本実験では,実験時間の制約上,図形そのものの説明の難易度と課題設定の難易度の4つの組み合わせから,もっとも困難なものが課題難条件,もっとも易しいものが課題易条件として用いられたが,この操作により説明の生成と記憶操作という2つの異なるプロセスが関与することになった.}.結果として,図形説明課題は4セッション存在し(説明者役/課題難条件,説明者役/課題易条件,回答者役/課題難条件,回答者役/課題易条件),その実施順序はペアごとにランダマイズされていた.1回のセッションは最大10分間であり,10分以内に回答に至らない場合には,課題途中でセッションを中止し,次のセッションへと移動した.説明者には回答者が一度で正解できるように,できる限り詳しく,かつ分かりやすく説明するように求められ,回答者には分からないところがあれば,説明者に何度聞き返しても構わないことが説明された.1セッションの流れを以下に示す.\noindent1)説明説明者側のディスプレイにのみ,課題図形が表示され,説明者はそれを回答者にできる限り詳しく,かつ分かりやすく説明する.この時点で,説明者役にそのセッションが課題難条件で行われるか課題易条件か行われるかが提示される.回答者役は説明を聞き,図形の形が分かれば,「分かりました」と説明者に伝える.\noindent2)確認回答者は確認のため,その形を説明者役に自分の言葉を使って説明をする.説明者役は回答者役の説明を聞いて,自分の説明がうまく伝わっていると感じたならば,OKを出す.逆に,うまく伝わっていないならば,うまく伝わるまで,1)を反復する.\noindent3)回答回答者側のディスプレイにのみ6つの選択肢が表示され,回答者はこの中から回答を選択する.回答が正解であれば,次の課題に移る.\noindent4)再回答回答が不正解の場合は,1)へ戻り,説明を再度確認し,再回答する.制限時間内であれば,正解が出るまでこれを反復する.最後に,参加者には,密閉性の高い閉鎖環境(防音室)での実験により圧迫感や疲労感を感じた場合には,自らの判断でいつでも実験を中止する権限があり,中止しても不利益を被ることは一切ないことが書類で説明され,すべての説明について了解し,実験参加への同意を得た人のみを実験参加者とした.実験手順の説明終了後,参加者はそれぞれ防音室に移動し,マイク類の装着,及びチェックを行った後,課題を実施した. \section{結果} データとして,セッション開始から回答者が発する「分かりました」の合図までの区間,すなわち,説明者役が主な話し手となる「説明」フェーズで出現した心的マーカが対象とされた,セッション設定時間である10分を超過しても回答選択に至らなかったセッションを含む1ペア分のデータは,以下の分析から除外された(各群の最終的なペア数は,知人/対面群6ペア,知人/非対面群6ペア,初対面/対面群7ペア,初対面/非対面群8ペアであった).以下ではまず,収録された対話データの大まかな特徴を明らかにするため,条件別の課題所要時間を報告する.次に,本研究で検討する心的マーカであるフィラー,情動的感動詞,言い差し(途切れ)について,どのような手順でタグ付けされ,分析されたかが説明され,それぞれの発話要素の出現率を報告する.最後に,出現したフィラーの内容分類を行い,種類別出現度数について報告する.\subsection{課題のセッション所要時間}図\ref{time}はセッションに要した平均時間を条件別に示したものである.親近性(2)×対面性(2)×課題難易度(2)の分散分析を実施したところ,親近性と課題難易度の交互作用が有意であった(F(1,23)=5.69,$\mathrm{p}<.05$).親近性の単純主効果を検定したところ,課題難条件では有意であり(F(1,23)=5.73,$\mathrm{p}<.05$),課題易条件では有意ではなかった(F(1,23)=1.14).また,課題難易度の単純主効果は知人条件(F(1,23)=8.06,$\mathrm{p}<.01$),初対面条件(F(1,23)=38.57,$\mathrm{p}<.01$)の両方において有意であった.これらの結果から,本実験で用いられた課題難易度の操作は妥当なものであったことが裏付けられる.また,参加者はお互い初対面で,かつ課題が難しい場合に課題解決のための時間を要していたことが示された.\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{time.eps}\caption{セッションの平均所要時間(バーは標準誤差)}\label{time}\end{center}\end{figure}\subsection{分析手順とタグ付け}収録された対話データから,心的マーカであるフィラー,情動的感動詞,言い差し(途切れ)を抽出するため,まずは録音された音声がすべて文字化され,次に,2名の判定者があらかじめ定められた定義にしたがって,それぞれ別々にタグ付けを実施した.タグ付けの不一致率は全体の4\%以下であった.判定者間で判断が分かれたものについては,協議の上,最終的な判定を行った.判定者間で揺れが生じた代表的な例は,以下のとおりである.\noindent(例4)はいアンナーとりあえずな正方形が四つでてきてんやんか\\\noindent冒頭の「はい」は応答の先がなく,本研究の定義ではフィラーに属するが,この場合,これから話し始めるという合図であると考えられたため,フィラーには含まれなかった.また,「アンナー」は呼びかけとして使用されることもあるが,状況によりフィラーと区別することが困難であることが多いため,今回はすべてフィラーと判定された.\noindent(例5)‥今線が二つコウナンテイウンデスカネ斜めに‥\\\noindent「コウ」は音声のみから判定が難しいケースが多く,ビデオにより,発話者がハンドジェスチャを伴い,「こんなふうに」の意味で使用している場合はフィラーから除外された.\subsection{平均出現率}各条件間を比較するために,分析の基本単位として,正規化された出現率が算出された.まず,100msより長い無音により区切られた一連の発話区間である間休止単位(IPU:Inter-PausalUnit,\shortcite{Koiso-etal})を利用し,セッションごとに説明者役,回答者役のそれぞれで課題所要時間中に発話された総IPU度数が算出された.次に,フィラー,情動的感動詞,言い差し(途切れ)の出現度数から各々の出現率(出現度数/IPU度数)が求められた.本実験での課題である図形説明課題は,話し手(説明者)と聞き手(回答者)という役割による発話の質的・量的差異を見込んだ設定であったので,以下では,3つの発話要素の平均出現率について,役割間での違いが結果に反映されているかが確認された上で,それぞれについて親近性(2)×対面性(2)×課題難易度(2)の条件間の平均の差が検討された.\begin{figure}[tbh]\begin{center}\includegraphics[width=8cm]{f.eps}\caption{フィラーの条件別平均出現率(バーは標準誤差)}\label{filler_rate}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{e.eps}\caption{情動的感動詞の条件別平均出現率(バーは標準誤差)}\label{affect_rate}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{d.eps}\caption{言い差しの条件別平均出現率(バーは標準誤差)}\label{dis_rate}\end{center}\end{figure}図\ref{filler_rate},図\ref{affect_rate},図\ref{dis_rate}は,条件別に見たフィラー,情動的感動詞,言い差し(途切れ)の平均出現率を示したものである.それぞれの平均出現率に関して,役割別の効果(説明者/回答者)を検討したところ,フィラーの場合,説明者役の出現率(M=0.18,SD=0.08)は,回答者役(M=0.04,SD=0.04)より約4倍高く(F(1,107)=174.76,$\mathrm{p}<.01$),情動的感動詞の場合,回答者役(M=0.09,SD=0.06)の出現率が説明者役(M=0.03,SD=0.02)よりも約3倍高く(F(1,107)=68.73,$\mathrm{p}<.01$),言い差し(途切れ)の場合,説明者役の出現率(M=0.08,SD=0.06)は回答者役(M=0.04,SD=0.04)より約2倍高いことが示された(F(1,107)=25.32,$\mathrm{p}<.01$).以上から,以降では役割ごとに条件比較がなされた.図\ref{filler_rate}をもとにした説明者役のフィラー出現率に関する分散分析の結果,親近性の主効果のみが有意であり,知人条件(M=0.15,SD=0.07)は初対面条件(M=0.20,SD=0.08)よりフィラー出現率が低かった(F(1,50)=6.38,$\mathrm{p}<.05$).フィラーは,全ての条件において差が予想されたが,親近性のみであった理由については,後述のフィラーの種類別の結果を踏まえ,考察で議論される.一方,回答者役に対する分析の結果,有意な効果は存在しなかった($\mathrm{F}<1$).次に,図\ref{affect_rate}をもとにした説明者役に対する情動的感動詞の平均出現率に関する分散分析の結果,親近性と課題難易度の交互作用が有意であった(F(1,50)=5.99,$\mathrm{p}<.05$).親近性の単純主効果を検定したところ,課題が難しい場合,知人より初対面の方が出現率が高い傾向にあったが(F(1,50)=2.95,$\mathrm{p}<.10$),課題が易しい場合には差がなかった(F(1,50)=1.61).また,初対面同士の場合,課題が難しいと出現率が高い傾向にあるが(F(1,50)=3.36,$\mathrm{p}<.10$),知人の場合にはそうではなかった(F(1,50)=2.65).一方,回答者役に対する分析の結果,二次の交互作用が有意であった(F(1,50)=4.27,$\mathrm{p}<.05$).そこで,対面・非対面条件別に親近性×課題難易度の単純交互作用を分析した.対面状況での交互作用が有意傾向にあったので(F(1,22)=3.38,$\mathrm{p}<.10$),水準別誤差項を用いた単純・単純主効果検定の結果,課題が難しい場合には知人よりも初対面同士の方が出現率が高かったが(F=14.44,$\mathrm{p}<.05$),課題が易しい場合にはその差はなかった.また,親近性条件による課題難易度の差はいずれも存在しなかった.一方で,非対面状況では,有意な効果は何も存在しなかった.図\ref{dis_rate}をもとにした説明者役の言い差し(途切れ)の平均出現率に関する分散分析の結果,課題難易度の主効果(F(1,50)=7.93,$\mathrm{p}<.01$)と親近性と対面性の交互作用が有意であった(F(1,50)=4.50,$\mathrm{p}<.05$).交互作用について,親近性の単純主効果を検定したところ,非対面条件では初対面より知人同士の方が出現率が高いが(F(1,50)=26.04,$\mathrm{p}<.01$),対面条件では有意差がなかった(F(1,50)=2.09).また,対面性の単純主効果は知人条件の場合,非対面の方が出現率が高く(F(1,50)=13.77,$\mathrm{p}<.01$),初対面条件の場合には,対面の方が出現率が高かった(F(1,50)=8.06,$\mathrm{p}<.01$).一方,回答者役に対する分散分析の結果,親近性と対面性の交互作用が有意傾向であった(F(1,50)=2.93,$\mathrm{p}<.10$).親近性の単純主効果を検定したところ,対面条件では有意差がないが(F(1,50)=0.06),非対面条件では知人同士の方が出現率が高かった(F(1,50)=7.31,$\mathrm{p}<.05$).また,対面性の単純主効果は知人条件(F(1,50)=1.71),初対面条件(F(1,50)=2.73)ともに有意でなかった.以上,出現率に関する結果のまとめを表\ref{marker_trend}に示す.\begin{table}[t]\caption{心的マーカの条件別出現率の結果まとめ}\label{marker_trend}\scriptsize\begin{tabular}{ccccccc}\hline&\multicolumn{3}{c}{説明者役}&\multicolumn{3}{c}{回答者役}\\&フィラー&情動的感動詞&言い差し&フィラー&情動的感動詞&言い差し\\\hline親近性&\multirow{2}{19mm}{知人$<$初対面**}&知人$<$初対面+&知人$>$初対面**&&知人$<$初対面**&知人$>$初対面*\\&&(課題難条件)&(非対面条件)&&(課題難・対面条件)&(非対面条件)\\対面性&&&対面$<$非対面**&&&\\&&&(知人条件)&&&\\&&&対面$>$非対面**&&&\\&&&(初対面条件)&&&\\課題難易度&&難$>$易+&\multirow{2}{12mm}{難$>$易**}&&&\\&&(初対面条件)&&&&\\\hline\multicolumn{5}{l}{**$\mathrm{p}<.01$,*$\mathrm{p}<.05$,+$\mathrm{p}<.10$}\end{tabular}\end{table}次に,説明者役のフィラー,情動的感動詞,言い差し(途切れ)が回答者の回答選択に影響したかどうかを検討するために,セッション中の回答者役による回答が一度で正解されたか,それとも再回答を要したかどうかで条件に分け,説明者役のフィラー,情動的感動詞,言い差し(途切れ)の平均出現率を検討した.分散分析の結果,フィラーと言い差しを指標とした場合には,一度で正解に至った場合とそうでない場合とに出現率の違いはなかったが,情動的感動詞では,一度で正解に至らない場合にその出現率が高かった(F(1,106)=4.77,$\mathrm{p}<.05$).\subsection{フィラーの種類別分析}表\ref{ab}はセッション中に出現したフィラー度数を種類別に分類し,説明者役と回答者役に分けて示したものである.説明者役は総数で回答者役の約6倍のフィラーを発していた.種類別に見ると,説明者役,回答者役ともに,「エート」「アノ」「エー」「ソノ」「ナンカ」で全体の8割以上を占めており,説明者役と回答者役でその構成比率にほとんど違いはなかった.\begin{table}[b]\caption{フィラーの種類別構成}\label{ab}\begin{center}\small\begin{tabular}{llrrrrrrr}\hline&&エート&アノ&エー&ソノ&ナンカ&その他&合計\\\hline説明者役&No&378&232&176&100&118&212&1216\\&\%&\phantom{0}31&\phantom{0}19&\phantom{0}14&\phantom{00}8&\phantom{00}10&\phantom{0}17&\phantom{0}100\\回答者役&No&\phantom{0}80&\phantom{0}35&\phantom{0}22&\phantom{0}19&\phantom{0}11&\phantom{0}38&\phantom{0}205\\&\%&\phantom{0}39&\phantom{0}17&\phantom{0}10&\phantom{00}9&\phantom{00}5&\phantom{0}19&\phantom{0}100\\\hline\end{tabular}\end{center}\end{table}表\ref{filler_kind}に種類別条件別出現率を示す.表\ref{filler_kind}に基づき,説明者役に対して,親近性×対面性×難易度の分散分析を行った\footnote{本研究では主に話し手の発話プロセスに着目するので,以下の分析では,回答者役を除外する.なお,回答者役の場合,フィラーの種類によってはセッション中に現れないものが存在したことも分析対象としない1つの理由であった.}.「エート」の場合,初対面条件の方が知人条件よりも有意に出現率が高かった(F(1,50)=10.13,$\mathrm{p}<.01$).「アノ」「エー」の場合,どちらも条件による有意な差はなかった.「ソノ」の場合,課題難条件の出現率が課題易条件よりも高かった(F(1,50)=5.09,$\mathrm{p}<.05$).「ナンカ」の場合,親近性と対面性の交互作用が有意傾向であり(F(1,50)=3.07,$\mathrm{p}<.10$),それぞれの単純主効果の分析の結果,非対面条件では,知人同士の方が初対面同士よりも出現率が高く(F(1,50)=6.52,$\mathrm{p}<.05$),知人条件では,非対面条件の方が,対面条件よりも出現率が高かった(F(1,50)=5.28,$\mathrm{p}<.05$).これらの結果を表\ref{filler_trend}にまとめる.\begin{table}[t]\caption{フィラーの種類別条件別出現率(説明者役)}\label{filler_kind}\begin{center}\footnotesize\begin{tabular}{cccccccccccccc}\hline&&\multicolumn{2}{c}{エート}&\multicolumn{2}{c}{アノ}&\multicolumn{2}{c}{エー}&\multicolumn{2}{c}{ソノ}&\multicolumn{2}{c}{ナンカ}&\multicolumn{2}{c}{その他}\\&&難&易&難&易&難&易&難&易&難&易&難&易\\\hlineF/FTF&M&0.02&0.02&0.03&0.02&0.01&0.01&0.02&0.02&0.02&0.01&0.10&0.07\\&SD&0.02&0.03&0.05&0.03&0.02&0.02&0.02&0.03&0.03&0.01&0.07&0.05\\F/NFTF&M&0.05&0.06&0.03&0.03&0.02&0.02&0.01&0.00&0.03&0.03&0.15&0.15\\&SD&0.04&0.05&0.03&0.04&0.04&0.02&0.02&0.01&0.03&0.04&0.07&0.05\\UF/FTF&M&0.07&0.07&0.04&0.04&0.03&0.03&0.01&0.01&0.01&0.01&0.17&0.16\\&SD&0.06&0.06&0.07&0.06&0.04&0.04&0.02&0.02&0.02&0.01&0.06&0.08\\UF/NFTF&M&0.07&0.07&0.02&0.02&0.05&0.04&0.02&0.01&0.01&0.01&0.17&0.16\\&SD&0.05&0.04&0.02&0.04&0.07&0.07&0.03&0.02&0.02&0.02&0.08&0.08\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{フィラー(上位5種)の種類別条件別出現率(説明者役)のまとめ}\label{filler_trend}\begin{center}\scriptsize\begin{tabular}{ccccccc}\hline&エート&アノ&エー&ソノ&ナンカ\\\hline\multirow{2}{13mm}{親近性}&\multirow{2}{21mm}{知人$<$初対面**}&&&&知人$>$初対面*\\&&&&&(非対面条件)\\\multirow{2}{13mm}{対面性}&&&&&対面$<$非対面*\\&&&&&(知人条件)\\\multirow{2}{13mm}{難易度}&&&&\multirow{2}{11mm}{難$>$易*}&\\&&&&&\\\hline\multicolumn{4}{l}{**$\mathrm{p}<.01$,*$\mathrm{p}<.05$,+$\mathrm{p}<.10$}&&\\\end{tabular}\end{center}\end{table} \section{考察} 実験の結果,課題難易度が高くかつ初対面の場合には,セッション所要時間が増加することが示された.単純に考えれば,時間増加に伴って発話量も増加し,フィラー,情動的感動詞,言い差し(途切れ)も増加すると考えられる.そこで,この3つの発話要素の出現率について分析したところ,フィラーでは,説明者役の場合,回答者役よりも出現率が高かった.また,初対面条件の場合,知人条件よりも出現率が高かったが,課題難易度の影響は見られなかった.これに対し,情動的感動詞では,フィラーとは逆に回答者役の場合,説明者役よりも出現率が高く,課題難・対面条件で初対面条件の場合,知人条件よりも出現率が高かった.また,言い差し(途切れ)は,説明者役の場合,回答者役よりも出現率が高く,説明者役の場合,難易度が影響した.また,一度で正解に至ったかどうかに,説明者役の心的マーカがどう影響を与えたかを分析した結果,情動的感動詞のみが,一度で正解に至らなかった場合に,正解した場合よりも出現率が高かった.さらに,フィラーの種類別の検討から,「エート」は,初対面条件で出現率が上がったのに対し,「アノ」や「エー」では,条件による出現率の差はなかった.また,「ソノ」は課題難条件において出現率が上がり,「ナンカ」に関しては,非対面条件では,知人同士のほうが出現率が高まり,知人条件では,非対面のほうが出現率が高かった.以上の結果から,本研究における状況変数が,3つの心的マーカの出現の仕方に,さらにフィラーに関しては,種類の違いによって,それぞれ異なる影響を及ぼしたことが示唆される.つまり,この違いは,心的マーカの背後にある内的処理プロセスの違いを反映して有標化したものであると考えることができる.以下では,本研究で得られた結果を,1)従来の研究結果と本研究の結果の一致点および相違点,2)話し手の内的処理プロセスと心的マーカとの対応,3)本研究で得られた結果の応用可能性の観点から考察する.まず,従来の研究結果と本研究の結果の一致点および相違点を取り上げると,これまでの研究においては,フィラーは主に「場の改まり度(フォーマルかインフォーマルか;例えば,\citeA{Philips})」の影響を受けることが示されてきたが,本研究結果で,親近性条件に差があったということは,対話相手が初対面である場合,知人同士である場合より,改まった状況であると認識されることを考慮すれば,先行研究の結果を確認したことになる.一方,先行研究においては,対話の伝達内容の複雑さがフィラーを含めた発話における非流暢性の出現量に影響を与えることが示されてきた\cite{Goldman-Eisler}.本研究のフィラー全体の結果では,課題難易度の影響は見られなかった.ただし,種類別で見ると,「ソノ」に難易度の影響が見られたことから,フィラーに関しては種類別に分けた検討が必要であることがわかる.言い差し(途切れ)は,課題難易度の影響を受けており,これは先行研究と一致していた.また,フィラーには,後続する発話の内容の傾向(複雑さや重要度)を聞き手に予期させ,聞き手の理解を促す効果があることが示されてきたが(\shortciteA{FoxTree,渡辺}),本研究における,一度での正解率には影響は見られなかった\footnote{この理由として,フィラーの有無とは別に,言葉の曖昧さ(例えば,「底辺がへこんでいる」と表現した場合のへこみは三角形の内側か外側か)や,課題の設定上,説明者役には回答者側に表示される選択肢は見えず,どこまで説明すれば選択肢間の差異を表現できるかが不明であったため,説明の詳細化に関して個人差があり,回答者役の理解が直接正解につながらない場合があったことなども考えられる.}.次に,本研究でのフィラー種類の構成比率において,「エート」が3割を超えていた.これは,平均して1割程度,多くても2割以下という構成比率を示す先行研究の結果\cite[など]{山根}よりも多かった.先行研究では,「エート」は,主に発話者が記憶操作や計算・検索などの心的操作を行っている標識であると考えられてきた\cite{定延・田窪}が,本研究ではそれに対応する難易度(記憶操作)の影響はなく,これまであまり関係ないとされていた対人的な要因が影響したことを示している.ただし,\citeA{山根}が言及するように,「エート」は沈黙を回避するために選択的に使われる傾向があり,不要な間を開けることを避けるために,知人条件よりも初対面条件において多く使用された可能性がある.これとは逆に,一般に「アノ」は対人的な言語表現編集の標識や表現の和らげの機能を持つとされてきたが,本研究の結果では,親近性の影響は見られなかった.後述するように,「アノ」の持つ,対人的な機能の側面が,本研究の課題設定では現れにくかった可能性がある.先行研究と異なる結果になった理由については,前後の文脈関係を含めたより詳細な分析が必要であり,また本研究での図形説明課題とは異なる課題設定での検討も求められるだろう.次に,話し手の内的処理プロセスと心的マーカとの対応について,表\ref{map_speaker}で予想されたことと,本研究の結果(表\ref{marker_trend},表\ref{filler_trend})とを照らして考察する.まず,親近性に関して,フィラーに影響が見られたこと,難易度に関して,情動的感動詞,言い差しに影響が見られたことは,予想と一致した.しかしながら,対面性に関して,影響が見られると予想されたフィラーには,影響が見られなかった.その理由としては,参加者の多くが対面であることの利点の1つであると考えられるジェスチャなどの視覚的伝達手段を,あまり使用しなかったことが挙げられる.実験教示において,「ジェスチャを使用して良い(悪い)」という説明をしなかったこと,マイクとヘッドフォンを装着していたため,動きが制約されていたことなどから,結果的に,ジェスチャを使わないという潜在的な抑制が働いていた可能性が考えられる.この点は今後の実験設定,教示方法の検討材料である.また,言い差しに関して,知人同士か,初対面同士かによって,対面性の影響が逆転した.顔が見えることは,知人同士では安心感を,逆に初対面同士では緊張を生み出す要因として働いた可能性が考えられるだろう.さらに,フィラーの種類別の影響に関しては,難易度の影響を受けると予想された「ソノ」では予測通りの結果となったが,親近性条件の影響を受けると予想された表現の選択に関するマーカである「アノ」では影響は見られず,予想外の「エート」で親近性の影響が見られた.「エート」が「アノ」の代わりに使われたような結果となったのは,実験課題の性質上,「アノ」が出現しやすいとされる「言いにくいことを和らげる」という状況(依頼状況)が少なかったために,「アノ」の出現率が抑制され,一方,沈黙回避の必要性が増加したために,「エート」の出現率が増加したことが,理由の1つとして考えられる.また,「ナンカ」に関しては,非対面条件において,知人同士の出現率が初対面同士を上回っていた.通常,「ナンカ」は具現化できない何かがあり,それを模索中であることを示す標識であるとされ,特に「ナンテイウカ」は,操作に時間を要していることを表示するので,表象の言語化過程に負荷のかかる対面性の影響が見られると予測されたが,その影響は知人条件のみに限定されていた.これには前述のジェスチャの使用抑制が関係している可能性がある.また,本研究では出現率を分析対象としたが,説明所要時間を指標とした場合には難易度の影響が見られたことから,各状況変数が,フィラーの出現率以外の指標,例えば,個々のフィラーの表出継続時間や語形などに影響を与えた可能性も考えられる.本研究では,例えば,「エート」と「エーットデスネー」,「ナンカ」と「ナンテイッタライインデスカネー」を同じカテゴリに分類したが,今後,より詳細な条件設定の下で,より多くのデータを収集した上で,カテゴリ内の各語の語形や音響特性,継続時間長などの特徴別に分析することが必要となるだろう.最後に,本研究で得られた結果の応用可能性として,例えば,心的マーカをリアルタイムに検出,分類し,類推するシステムを,ヒューマノイドロボットやエージェントに実装することによって,システム側が,人間の話し手/聞き手の内的処理プロセスを類推できれば,それに応じてシステム側は柔軟な対応を生成でき,自然なインタラクションを生み出すことができると期待される.しかしながら,本研究は実験的設定のもとに得られた対話を分析した結果であるため,その応用可能性は限定的であり,また,必ずしも心的マーカの普遍的性質を示し得たわけではない.今回取り上げたものとは異なる状況変数(例えば,上司と部下などの社会的関係,性別など)や,3つの発話要素以外の心的マーカの要素(例えば,ジェスチャや表情,視線,ポーズなど)についてさらに詳細なる分析を進めていく必要がある.現在,我々は,時間情報を含む,フィラー,情動的感動詞,言い差し(途切れ)といった心的マーカをタグ付けした対話コーパスの作成を進めている.この対話コーパスを使用して,より質的な分析,例えば,話者交替や発話の連鎖の中での心的マーカの表れ方の違いについてや,条件ごとのフィラーや情動的感動詞の音響的特性の分析を通じて,心的マーカによる内的処理プロセスの理解がより一層深化することが期待される.\acknowledgment論文の改稿にあたり,多くの貴重なご助言を頂きました査読者に深く感謝いたします.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown}{Brown}{1977}]{Brown}Brown,G.\BBOP1977\BBCP.\newblock{\BemListeningtospokenEnglish}.\newblockLongman,London.\bibitem[\protect\BCAY{Clark}{Clark}{2002}]{Clark:02}Clark,H.~H.\BBOP2002\BBCP.\newblock\BBOQSpeakingintime\BBCQ\\newblock{\BemSpeechCommunication},{\Bbf36},\mbox{\BPGS\5--13}.\bibitem[\protect\BCAY{Clark\BBA\FoxTree}{Clark\BBA\FoxTree}{2002}]{Clark-Tree}Clark,H.~H.\BBACOMMA\\BBA\Tree,J.E.~F.\BBOP2002\BBCP.\newblock\BBOQUsinguhanduminspontaneousspeaking\BBCQ\\newblock{\BemCognition},{\Bbf84},\mbox{\BPGS\73--111}.\bibitem[\protect\BCAY{Ekman}{Ekman}{1972}]{Ekman}Ekman,P.\BBOP1972\BBCP.\newblock\BBOQUniversalandculturaldifferencesinfacialexpressionsofemotions\BBCQ\\newblockInCode,J.\BED,{\BemNebraskaSymposiumonMotivation},\mbox{\BPGS\207--283}.UniversityofNebraskapress,Lincoln.\bibitem[\protect\BCAY{Ekman\BBA\Friesen}{Ekman\BBA\Friesen}{1967}]{Ekman-Friesen}Ekman,P.\BBACOMMA\\BBA\Friesen,W.~V.\BBOP1967\BBCP.\newblock\BBOQHeadandBodycuesinthejudgementofemotion:Areformulation\BBCQ\\newblock{\BemPerceptualandMotorSkills},{\Bbf24},\mbox{\BPGS\711--724}.\bibitem[\protect\BCAY{Ferreira\BBA\Bailey}{Ferreira\BBA\Bailey}{2004}]{Ferreira-Bailey}Ferreira,F.\BBACOMMA\\BBA\Bailey,K.G.~D.\BBOP2004\BBCP.\newblock\BBOQDisfluenciesandhumanlanguagecomprehension\BBCQ\\newblock{\BemTRENDSinCognitiveSciences},{\Bbf8}(5),\mbox{\BPGS\231--237}.\bibitem[\protect\BCAY{Fox~Tree}{Fox~Tree}{1995}]{FoxTree}Fox~Tree,J.~E.\BBOP1995\BBCP.\newblock\BBOQTheeffectsoffalsestartsandrepetitionsontheprocessingofsubsequentwordsinspontaneousspeech\BBCQ\\newblock{\BemJournalofMemoryandLanguage},{\Bbf34},\mbox{\BPGS\709--738}.\bibitem[\protect\BCAY{Goldman-Eisler}{Goldman-Eisler}{1968}]{Goldman-Eisler}Goldman-Eisler,F.~G.\BBOP1968\BBCP.\newblock{\BemPsycholinguistics:Experimentsinspontaneousspeech}.\newblockAcademicPress,N.Y.\bibitem[\protect\BCAY{Graham\BBA\Argyle}{Graham\BBA\Argyle}{1975}]{Graham-Argyle}Graham,J.~A.\BBACOMMA\\BBA\Argyle,M.~A.\BBOP1975\BBCP.\newblock\BBOQAcross-culturalstudyofthecommunicationofextra-verbalmeaningbygestures\BBCQ\\newblock{\BemInternationalJournalofPsychology},{\Bbf10},\mbox{\BPGS\57--67}.\bibitem[\protect\BCAY{Heritage}{Heritage}{1998}]{Heritage}Heritage,J.\BBOP1998\BBCP.\newblock\BBOQOh-prefacedresponsetoinquiry\BBCQ\\newblock{\BemLanguageinSociety},{\Bbf27}(3),\mbox{\BPGS\291--334}.\bibitem[\protect\BCAY{Hickson,Stacks,\BBA\Moore}{Hicksonet~al.}{2004}]{Hickson}Hickson,I.~M.,Stacks,D.~W.,\BBA\Moore,N.\BBOP2004\BBCP.\newblock{\BemNonverbalcommunication:studiesandapplications(4thed.)}.\newblockRoxburyPublishingCo.,LosAngeles,California.\bibitem[\protect\BCAY{堀内\JBA中野\JBA小磯\JBA石崎\JBA鈴木\JBA岡田\JBA仲\JBA土屋\JBA市川}{堀内\Jetal}{1999}]{堀内-99}堀内靖雄\JBA中野有紀子\JBA小磯花絵\JBA石崎雅人\JBA鈴木浩之\JBA岡田美智男\JBA仲真紀子\JBA土屋俊\JBA市川熹\BBOP1999\BBCP.\newblock\JBOQ日本語地図課題対話コーパスの設計と特徴\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf14},\mbox{\BPGS\261--272}.\bibitem[\protect\BCAY{伊藤}{伊藤}{1994}]{伊藤}伊藤友彦\BBOP1994\BBCP.\newblock\Jem{幼児の発話における非流暢性に関する言語心理学的研究}.\newblock風間書房,東京.\bibitem[\protect\BCAY{人工知能学会「談話・対話研究におけるコーパス利用」研究グループ}{人工知能学会「談話・対話研究におけるコーパス利用」研究グループ}{2002}]{Slash-Manual}人工知能学会「談話・対話研究におけるコーパス利用」研究グループ\BBOP2002\BBCP.\newblock\Jem{日本語スラッシュ単位(発話単位)ラベリングマニュアル}.\bibitem[\protect\BCAY{Koiso,Horiuchi,Tutiya,Ichikawa,\BBA\Den}{Koisoet~al.}{1998}]{Koiso-etal}Koiso,H.,Horiuchi,Y.,Tutiya,S.,Ichikawa,A.,\BBA\Den,Y.\BBOP1998\BBCP.\newblock\BBOQAnanalysisofturn-takingandbackchannelsbasedonprosodicandsyntacticfeaturesinJapaneseMapTaskdialogues\BBCQ\\newblock{\BemLanguageandSpeech},{\Bbf41},\mbox{\BPGS\295--321}.\bibitem[\protect\BCAY{前川\JBA籠宮\JBA小磯\JBA小椋\JBA菊池}{前川\Jetal}{2000}]{CSJ}前川喜久雄\JBA籠宮隆之\JBA小磯花絵\JBA小椋秀樹\JBA菊池英明\BBOP2000\BBCP.\newblock\JBOQ日本語話し言葉コーパスの設計\JBCQ\\newblock\Jem{音声研究},{\Bbf4}(2),\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{水上\JBA山下}{水上\JBA山下}{2005}]{水上・山下}水上悦雄\JBA山下耕二\BBOP2005\BBCP.\newblock\JBOQ図形説明課題遂行時のフィラーとポーズの関係\JBCQ\\newblock\Jem{人工知能学会研究会資料},SIG-SLUD-A501,\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{森山}{森山}{1996}]{森山:96}森山卓郎\BBOP1996\BBCP.\newblock\JBOQ情動的感動詞考\JBCQ\\newblock\Jem{語文},{\Bbf65},\mbox{\BPGS\51--62}.\bibitem[\protect\BCAY{村井}{村井}{1970}]{村井}村井潤一\BBOP1970\BBCP.\newblock\Jem{言語機能の形成と発達}.\newblock風間書房,東京.\bibitem[\protect\BCAY{野村}{野村}{1996}]{野村}野村美穂子\BBOP1996\BBCP.\newblock\JBOQ大学の講義における文科系の日本語と理科系の日本語---「フィラー」に注目して---\JBCQ\\newblock\Jem{文教大学教育研究所紀要},第5号.\bibitem[\protect\BCAY{Philips}{Philips}{1998}]{Philips}Philips,M.~K.\BBOP1998\BBCP.\newblock{\BemDiscoursemarkersinJapanese:connectives,fillers,andinteractionalparticles}.\newblockDoctoraldissertaion,MichiganStateUniversity,EastLansing,MI.\bibitem[\protect\BCAY{定延}{定延}{2005}]{定延:05}定延利之\BBOP2005\BBCP.\newblock\Jem{ささやく恋人,りきむレポーター---口の中の文化---}.\newblock岩波書店,東京.\bibitem[\protect\BCAY{定延\JBA中川}{定延\JBA中川}{2005}]{定延・中川}定延利之\JBA中川明子\BBOP2005\BBCP.\newblock\JBOQ非流ちょう性への言語学的アプローチ---発音の延伸,とぎれを中心に---\JBCQ\\newblock串田秀也\JBA定延利之\JBA伝康晴\JEDS,\Jem{活動としての文と発話},\mbox{\BPGS\209--228}.ひつじ書房.\bibitem[\protect\BCAY{定延\JBA田窪}{定延\JBA田窪}{1995}]{定延・田窪}定延利之\JBA田窪行則\BBOP1995\BBCP.\newblock\JBOQ談話における心的操作モニタ機構—心的操作標識「ええと」と「あの(ー)」—\JBCQ\\newblock\Jem{言語研究},{\Bbf108},\mbox{\BPGS\74--93}.\bibitem[\protect\BCAY{Schiffrin}{Schiffrin}{1978}]{Schiffrin}Schiffrin,D.\BBOP1978\BBCP.\newblock{\BemDiscoursemarkers}.\newblockCambridgeUniversityPress,UK.\bibitem[\protect\BCAY{Swerts}{Swerts}{1998}]{Swerts}Swerts,M.\BBOP1998\BBCP.\newblock\BBOQFilledpausesasmarkersofdisoursestructure\BBCQ\\newblock{\BemJournalofPragmatics},{\Bbf30},\mbox{\BPGS\485--496}.\bibitem[\protect\BCAY{田窪\JBA金水}{田窪\JBA金水}{1997}]{田窪・金水}田窪行則\JBA金水敏\BBOP1997\BBCP.\newblock\JBOQ応答詞・感動詞の談話的機能\JBCQ\\newblock音声文法研究会\JED,\Jem{文法と音声},\mbox{\BPGS\257--279}.くろしお出版.\bibitem[\protect\BCAY{田中}{田中}{1995}]{田中}田中敏\BBOP1995\BBCP.\newblock\Jem{スピーチの言語心理学モデル}.\newblock風間書房,東京.\bibitem[\protect\BCAY{富樫}{富樫}{2005}]{富樫:05}富樫純一\BBOP2005\BBCP.\newblock\JBOQ驚きを伝えるということ---感動詞「あっ」と「わっ」の分析を通じて---\JBCQ\\newblock\linebreak串田秀也\JBA定延利之\JBA伝康晴\JEDS,\Jem{活動としての文と発話},\mbox{\BPGS\229--251}.ひつじ書房.\bibitem[\protect\BCAY{土屋}{土屋}{2000}]{土屋}土屋菜穂子\BBOP2000\BBCP.\newblock\JBOQ対話コーパスを用いた言い淀みの統語論的考察\JBCQ\\newblock\Jem{青山語文},{\Bbf30},\mbox{\BPGS\13--26}.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{2002}]{Watanabe}Watanabe,M.\BBOP2002\BBCP.\newblock\BBOQFillersandconnectivesasdiscoursesegmentboundarymarkersinanacademicmonologueinJapanese\BBCQ\\newblock\Jem{東京大学留学生センター紀要},{\Bbf12},\mbox{\BPGS\107--119}.\bibitem[\protect\BCAY{渡辺\JBA広瀬\JBA伝\JBA峯松}{渡辺\Jetal}{2006}]{渡辺}渡辺美知子\JBA広瀬啓吉\JBA伝康晴\JBA峯松信明\BBOP2006\BBCP.\newblock\JBOQ音声聴取時のフィラーの働き---「エート」による後続句の複雑さ予測---\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf62},\mbox{\BPGS\370--378}.\bibitem[\protect\BCAY{山根}{山根}{2002}]{山根}山根智恵\BBOP2002\BBCP.\newblock\Jem{日本語の談話におけるフィラー}.\newblock日本語研究叢書15.くろしお出版.\bibitem[\protect\BCAY{好井}{好井}{1999}]{好井}好井裕明\BBOP1999\BBCP.\newblock\Jem{会話分析への招待}.\newblock世界思想社,東京.\end{thebibliography}\begin{biography}\bioauthor{山下耕二}{1999年大阪大学大学院人間科学研究科博士課程修了.博士(人間科学).神戸商船大学地域共同研究センター講師を経て,2001年より(独)通信総合研究所特別研究員となり,現在,(独)情報通信研究機構専攻研究員.コミュニケーション(非言語,メディア)の研究に従事.日本心理学会,日本認知科学会各会員.}\bioauthor{水上悦雄}{1992年神戸大学理学部卒業.1997年同大学院博士課程修了.博士(理学).2000年学習院大学計算機センター助手.2003年通信総合研究所専攻研究員,現在,(独)情報通信研究機構自然言語グループ専攻研究員.言語・非言語コミュニケーションの研究に従事.認知科学会,人工知能学会,動物行動学会各会員.}\end{biography}\biodate\end{document}
V23N05-04
\section{はじめに} 文書間類似度がはかるものとして「伝える内容の一致」(内容一致)だけでなく「伝える表現の一致」(表現一致)がある.文書間類似度は自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との差異を評価する指標として用いられる.一方,文書間類似度は表現の差異を評価することを目的としてテキストの文体の計量比較にも用いられる.本稿では,文書間類似度の数理的構造の説明し,様々な内容もしくは文体が同じであることが想定されるテキストを用いて,各計量の特性について検討する\modified{.}\cite{nanba-hirao-2008-JSAI-journal}は2008年時点での自動要約の評価指標についての評価をまとめている.2008年以降に提案された語順を考慮した内容評価のための指標を含めて,語順に対する順序尺度を含めた距離空間・類似度・カーネル・相関係数などの尺度を用いて,数理的構造について整理する.具体的には,一致部分文字列による尺度・一致部分列による尺度・ベクトル型順序尺度・編集型順序尺度の四つに分類し議論する.これらの四つの尺度に基づき,内容一致(内容の同一性)と表現一致(文体の類似性)の観点から,言語生産過程の多様性を評価する.複数人が同一課題を実施した場合の各評価尺度の分散や,同一人が同一課題を繰り返し実施した場合の各評価尺度の分散などを検討する.生産過程においては口述・筆術・タイプ入力の三種類について評価し,課題においては要約・語釈・再話について評価する.要約は長い文書を同等の内容で短く言い換えることを目的とする言語生産過程であるが,語釈は短い単語が指し示す意味と同等の内容を長く言い換えることを目的とする言語生産過程であることから,要約は語釈の逆写像の一般化ととらえることができる.また,再話は長い文書を再度同等の内容でそのまま提示することを目的とする言語生産過程であることから,要約の一般化であるととらえることができる.この評価を通して,四つの指標における差異がどのような生産過程の差異に現れるのかを調査する.また同一言語生産課題に対する生成物の多様性についても議論する.表現一致をつかさどるものとして,情報の提示順序を含む修辞法(rhetoric)・使用域(register)や位相(phase)\footnote{ここでは「使用域」と「位相」は数学の用途ではなく文体論の用語として用いている.}に内在する文体・個人に内在する文体などが考えられる.要約を評価するにあたり,内容一致は重要であると考えるが,表現一致はどの程度重要であるのだろうか.さらにこれらはどの評価尺度に表出するのだろうか.対照比較を介して,各言語生産過程に共通のふるまいを示す評価尺度と課題に特有のふるまいを示す評価尺度について調査する.\modified{自動要約評価のための参照文書は一般に口述筆記の専門家や記者経験者などにより作成され,統制された少数のものが提供される.自動翻訳評価においても職業翻訳家等により限られた数の参照文書が作成される.統制は距離空間上の凸問題として課題を設定し,その課題設定の枠組内で評価したい工学研究者の都合で行われているものである.さらに,工学研究者は参照文書の差異がユークリッド距離空間上に規定され,文書間類似度で比較可能なレベルで統制できうるものだと考えているきらいがある.一方,文書を介したコミュニケーションにおいて,言語生産者ではない者による受容過程は統制されるものではなく,複数の受容者間で共有されるものではない.一人の受容者においても時間的経過などで統制できるものでもない.本稿では,人間の要約作成時の不安定な言語受容過程\footnote{ここで言語受容過程とは,要約作成時に元文書を読む過程のことを指す.}において文書の重要箇所選択がどの程度ゆれるものなのかを評価するとともに,そのゆれは評価指標を構成するどの尺度に表れるのかを調査する.この調査を通して,本来誤りでないものが課題設定の時点で誤りになっている可能性があるという実態を明らかにする.}本稿の貢献は以下のとおりである:\begin{itemize}\item既存の文書要約や機械翻訳の自動評価に利用される評価指標と,距離空間・類似度・カーネル空間・順序尺度・相関係数などの尺度との関係を整理\modified{した}\item同一課題について複数人の言語生産者間で生成される文書のゆれを定量的に評価\modified{した}\item課題ごとに同一人の言語生産者の課題試行間で生成される文書のゆれを定量的に評価\modified{した}\item上に述べたゆれの評価に基づき,内容評価と表現評価の尺度上のふるまいの\modified{不安定さを明らかにした}\end{itemize}尚,本稿では,「評価指標」と「尺度」を区別して用いる.自動要約や機械翻訳ではシステム出力の内容評価を行うためのROUGEやBLEUなど広く知られているものを表す際に「評価指標」と呼び,「評価指標」を構成する距離空間・類似度・カーネル・相関係数などを「尺度」と呼ぶ.「評価指標」が単一の「尺度」から構成されることもあり,「評価指標」=「尺度」である場合もある.以下,\ref{sec:sim}節では既存の自動評価指標を距離・類似度・カーネル・順序尺度・相関係数により説明することで,文書間類似度を四つに分類し整理する.3節では尺度を適用して比較するさまざまな言語生成過程を記録した言語資源について説明する.4節では評価尺度の定性的な評価について示す.5節にまとめと今後の研究の方向性について示す. \section{評価指標と距離・類似度・カーネル・順序尺度・相関係数} \label{sec:sim}\subsection{本節の趣旨}\label{ss:sim-intro}本節では,過去に提案されている自動要約と機械翻訳の評価指標を距離・類似度・カーネル・順序尺度・相関係数などの尺度により説明することを試みる.この説明の過程で,いくつかの評価指標が擬距離の公理の対称性,三角不等式や,距離の公理の非退化性を満たさないことに言及する.まず,部分文字列(substring)と部分列(subsequence)の違いを明確にするため,2.2節で部分文字列と部分列に基づく類似度について解説する.2.3節で先行研究で言及されている評価指標について解説する.2.4節で関連するカーネル・順序尺度について示す.2.5節で指標の一般化について述べる.評価指標においては,二つのデータ比較という観点から,単一の参照テキストと単一のシステム出力テキストの対の文書間類似度に限定して議論する.複数の参照テキストを考慮する場合には退化性等を考慮する必要がある.尚,本節で用いる用語や記号の定義は\ref{sec:app:term}節にまとめてある.\subsection{LCSubstrとLCS}\subsubsection{記号列と文字列と部分文字列と部分列}評価指標の議論を始める前に,記号列,文字列,部分文字列,部分列の違いについて確認する.何らかの全順序が付与されている記号集合のことを{\bf記号列}と呼ぶ.本稿では記号列ベクトル$s=\langles_{1},\ldots,s_{m}\rangle,t=\langlet_{1},\ldots,t_{m}\rangle$などで表現する.参照テキスト,システム出力テキストは,ともに文字(character)ベースの記号列もしくは形態素解析後の形態素(morpheme)ベースの記号列とみなすことができる.評価する記号列上の連続列のことを{\bf文字列(string)}と呼ぶ.記号列の要素が文字(character)である場合を「文字ベースの文字列(character-basedstring)」,記号列の要素が形態素(morpheme)である場合を「形態素ベースの文字列(morpheme-based)」と呼ぶこととする.記号列に対して隣接性と順序を保持した部分的記号列のことを{\bf部分文字列(substring)}と呼ぶ.長さ$n$の部分文字列を特にn-gram部分文字列と呼ぶ.記号列$s$の$i$番目の要素からはじまるn-gram部分文字列を$s_{i\ldotsi+n-1}$で表現する.記号列に対して順序を保持した部分的記号列のことを{\bf部分列(subsequence)}と呼ぶ.隣接性は保持しなくてよい.長さ$p$の部分列を特にp-mer部分列と呼ぶ.記号列$s$のp-mer部分列を,インデックスベクトル$\vec{i}=\langlei_{1},\ldots,i_{p}\rangle(1\leqi_{1}<i_{2}<\cdots<i_{p}\leq|s|)$を用いて,$s[\vec{i}]$と表す.\subsubsection{最長共通部分文字列(LongestCommonSubstring:LCSubstr)長}\label{sss:LCStr}最長共通部分文字列(LongestCommonSubstring)の\modified{略称}はLCSだが,一般には\ref{sss:LCS}\modified{節}に示す最長共通部分列(LongestCommonSubsequence)のことをLCSと呼ぶことが多い.本稿では前者を\modified{LCSubstr},後者をLCSと呼び,区別する.記号列$s$,$t$を与えた際の最長共通部分文字列を次式で定義する:\[\mbox{\modified{LCSubstr}}(s,t)=\argmax_{s_{i\ldotsi+n-1}|\existsj,s_{i\ldotsi+n-1}=t_{j\ldotsj+n-1}}n\]記号列$s$,$t$を与えた際の最長共通部分文字列長(\modified{LCSubstr}長)を次式で定義する:\[|\mbox{\modified{LCSubstr}}(s,t)|=\max_{\foralli,\forallj,s_{i\ldotsi+n-1}=t_{j\ldotsj+n-1}}n\]これを[0,1]区間に正規化すると以下のようになる:\[\mbox{Score}_{\mbox{\modified{LCSubstr}}}(s,t)=\frac{2\cdot|\mbox{\modified{LCSubstr}}(s,t)|}{|s|+|t|}\]\subsubsection{最長共通部分列(LongestCommonSubsequence:LCS)長とLevenshtein距離}\label{sss:LCS}\label{para:Levenshtein}記号列$s$,$t$を与えた際の最長共通部分列(LongestCommonSubsequence:LCS)を次式で定義する:\[\mbox{LCS}(s,t)=\argmax_{s[\vec{i}]\exists\vec{j},s[\vec{i}]=t[\vec{j}]}|\vec{i}|\]記号列$s$,$t$を与えた際の最長共通部分列長(LCS長)を次式で定義する:\[|\mbox{LCS}(s,t)|=\max_{\forall\vec{i},\forall\vec{j}:s[\vec{i}]=t[\vec{j}]}|\vec{i}|\][0,1]区間に正規化すると,以下のようになる:\[\mbox{Score}_{\mbox{LCS}}(s,t)=\frac{2\cdot|\mbox{LCS}(s,t)|}{|s|+|t|}\]なお,挿入のコストを1,削除のコストを1,代入のコストを2(もしくは代入を禁止)とした場合のLevenshtein距離(編集型距離)とLCS長の関係は以下のようになる:\[\mbox{d}_{\mbox{Levenshtein}}(s,t)=|s|+|t|-2\cdot|\mbox{LCS}(s,t)|\]さらにLCSは\ref{para:rankedit}節で示すとおり,対称群上の編集型距離のうちのUlam距離と深く関連し,一種の順序尺度であるとも考えられる.\subsubsection{ギャップ加重最長共通部分列長による指標}\label{sss:WLCS}部分列LCSは部分文字列\modified{LCSubstr}と異なり,ギャップを伴う.ギャップが多いLCSに減衰させた値を割り当てるために,「LCSの記号列上の長さ」に対して加重を行うことができる.「LCSの記号列上の長さ」は参照テキスト\footnote{本稿では参照テキストを$R$と定義する.}側($|\mbox{LCS}(C,R)|_{R}$で表す)とシステム出力テキスト\footnote{本稿ではシステム出力テキストを$C$と定義する.}側($|\mbox{LCS}(C,R)|_{C}$で表す)とで異なるために,それぞれ計算する必要がある.\begin{gather*}|\mbox{LCS}(C,R)|_{R}=\argmax_{(j_{|\vec{j}|}-j_{1})|\forall\vec{i},\forall\vec{j},C[\vec{i}]=R[\vec{j}]}|\vec{j}|\\|\mbox{LCS}(C,R)|_{C}=\argmax_{(i_{|\vec{i}|}-i_{1})|\forall\vec{i},\forall\vec{j},C[\vec{i}]=R[\vec{j}]}|\vec{i}|\end{gather*}参照テキスト側で重みを付けて正規化する再現率的な指標を$\mbox{R}_{\mbox{WLCS}}(C,R)$とし,システム出力テキスト側で重みを付けて正規化する精度的な指標を$\mbox{P}_{\mbox{WLCS}}(C,R)$とすると以下のようになる.\begin{gather*}\mbox{R}_{\mbox{WLCS}}(C,R)=\frac{\alpha^{|\mbox{LCS}(C,R)|_{R}-|\mbox{LCS}(C,R)|}\cdot|\mbox{LCS}(C,R)|}{|R|}\\[1ex]\mbox{P}_{\mbox{WLCS}}(C,R)=\frac{\alpha^{|\mbox{LCS}(C,R)|_{C}-|\mbox{LCS}(C,R)|}\cdot|\mbox{LCS}(C,R)|}{|C|}\end{gather*}全体を正規化すると以下のようになる.\[\mbox{Score}^{(\gamma)}_{\mbox{WLCS}}(C,R)=\frac{(1+\gamma^{2})R_{\mbox{WLCS}}(C,R)P_{\mbox{WLCS}}(C,R)}{R_{\mbox{WLCS}}(C,R)+\gamma^{2}P_{\mbox{WLCS}}(C,R)}\]ここで$\gamma$は$\mbox{R}_{\mbox{WLCS}}$と$\mbox{P}_{\mbox{WLCS}}$のどちらを重視するかの混ぜ合わせ係数である.\subsection{自動評価指標}次に自動要約と機械翻訳の自動評価指標を確認するが,基本的には文単位の評価かつ参照テキストが一つであるという仮定をおく.\subsubsection{要約の評価指標}ROUGE-L\cite{Lin-2004-WSTS}は\modified{,}システム出力テキストと参照テキストの最長共通部分列(LCS)長を指標として正規化したものである.\[\mbox{Score}^{(\gamma)}_{\mbox{ROUGE-L}}(C,R)=\frac{(1+\gamma^{2})\cdotR_{\mbox{LCS}}(C,R)\cdotP_{\mbox{LCS}}(C,R)}{R_{\mbox{LCS}}(C,R)+\gamma^{2}P_{\mbox{LCS}}(C,R)}\]ここで再現率に相当する$R_{\mbox{LCS}}(C,R)$と精度に相当する$P_{\mbox{LCS}}(C,R)$は以下のように定義する:\begin{gather*}R_{\mbox{LCS}}(C,R)=\frac{\displaystyle|\mbox{LCS(C,R)}|}{|R|}\\[1ex]P_{\mbox{LCS}}(C,R)=\frac{\displaystyle|\mbox{LCS(C,R)}|}{|C|}\end{gather*}上記指標は文単位のものであり,文書レベルに拡張するために,システム出力テキスト中の文$c_{i}\inC$と参照テキスト中の文$r_{j}\inR$のLCS記号列中の記号の集合和を用いて評価する.同様の議論が他の指標においても行われているが,以下本稿ではこの議論を省略する.\paragraph{ROUGE-W}\label{para:ROUGE-W}\modified{ROUGE-W\cite{Lin-2004-WSTS}は,}ギャップ加重最長共通部分列長に似た概念である.違いとしては「LCSの記号列上の長さ」を参照テキスト側とシステム出力テキスト側$|\mbox{LCS}(C,R)|_{R}+|\mbox{LCS}(C,R)|_{C}$でとった上で,加重関数$f(x):f(x+y)>f(x)+f(y),x>0,y>0,x\inN,y\inN$($N$は自然数)を別に定\pagebreak義して「LCSの記号列上の長さ」に対して加重を行う.ROUGE-Wの実装では$f(x)=x^{\alpha}$という多項式を用いており,ギャップ加重最長共通部分列長$\mbox{Score}^{(\gamma)}_{\mbox{WLCS}}(C,R)$の変種と考えることができる.\paragraph{ROUGE-N}\label{para:ROUGE-N}ROUGE-N\cite{Lin-2003-NAACL,Lin-2004-WSTS}はn-gramの一致度を指標として用いるものである.\[\mbox{Score}^{(R)}_{\mbox{ROUGE-N}}(C,R)=\frac{\displaystyle\sum_{e\in(\mbox{n-gram}(C)\cap\mbox{n-gram}(R))}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{n-gram}(R)}|e|_{R}}\]但し,$\mbox{n-gram}(C)$はシステム出力テキストC中のn-gram集合,$\mbox{n-gram}(R)$は参照テキストR中のn-gram集合,$|e|_{C}$はCに含まれる$e$の要素数(のべ出現数),$|e|_{R}$はRに含まれる$e$の要素数とする.\paragraph{ROUGE-S(U)}\label{para:ROUGE-S}ROUGE-S\cite{Lin-2004-WSTS}は,2-merの部分列の一致度を指標として用いるものである.\[\mbox{Score}^{(\gamma)}_{\mbox{ROUGE-S}}(C,R)=\frac{(1+\gamma^{2})P_{S}(C,R)R_{S}(C,R)}{R_{S}(C,R)+\gamma^{2}P_{S}(C,R)}\]ここで精度に相当する$P_{S}(C,R)$と再現率に相当する$R_{S}(C,R)$は以下のように定義する:\begin{align*}P_{S}(C,R)&=\frac{\displaystyle\sum_{e\in(\mbox{2-mer}_{C}\cap\mbox{2-mer}_{R})}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{2-mer}(C)}|e|_{C}}\\R_{S}(C,R)&=\frac{\displaystyle\sum_{e\in(\mbox{2-mer}_{C}\cap\mbox{2-mer}_{R})}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{2-mer}(R)}|e|_{R}}\end{align*}但し,$\mbox{p-mer}(C)$はC中のp-mer集合,$\mbox{p-mer}(R)$は参照テキストR中のp-mer集合とする.ROUGE-SUは上のROUGE-Sの$p=2$を$p\leq2$に拡張したものである.\paragraph{ESK}\label{para:ESK}ESK\cite{hirao-2006-IPSJ-journal}は畳み込みカーネルの一つである拡張文字列カーネルのうち,ギャップ加重p-mer部分列カーネルを評価指標として定義したものである.\[\begin{split}&\mbox{Score}^{\mbox{p-mer}}_{\mbox{ESK}}(C,R)\\&\quad=\frac{\displaystyle\sum_{u\in{\mbox{p-mer}(C)}}\sum_{v\in{\mbox{p-mer}(R)}}\lambda^{|u|-p}\delta(u,v)|u||v|}{\displaystyle\sqrt{(\sum_{u,u'\in{\mbox{p-mer}(C)}}\lambda^{(|u|-p)}|u||u'|)+(\sum_{v,v'\in{\mbox{p-mer}(R)}}\lambda^{(|v|-p)}|v||v'|)}}\end{split}\]\cite{hirao-2006-IPSJ-journal}では2-merの部分列に制限するほか,文単位に比較し精度重視の指標と再現度重視の\modified{指標}の二つの\modified{重みつき}調和平均\modified{($0\leq\lambda\leq1$)}を定義している.ESKは他に各形態素に付与される意味ラベルを考慮した評価指標を提案しているが,本稿で用いるESKは意味ラベルを考慮しない形態素基本形に基づくものとする.\subsubsection{翻訳の評価指標}\paragraph{BLEU}BLEU\cite{Papineni-2001-BLEU}は機械翻訳評価のための指標で,$n$の値を変えたn-gramの精度系指標の重み($\omega_{n}$)付き相乗平均により指標を定義する.\begin{align*}P^{\mbox{n-gram}}_{\mbox{BLEU}}(C,R)&=\frac{\displaystyle\sum_{e\in(\mbox{n-gram}(C)\cap\mbox{n-gram}(R))}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{n-gram}(C)}|e|}\\\mbox{Score}_{\mbox{BLEU}}(C,R)&=BP(C,R)\cdot\exp(\displaystyle\sum^{N}_{n=1}\omega_{n}\logP^{\mbox{n-gram}}_{\mbox{BLEU}}(C,R))\end{align*}ここで相乗平均の計算を簡単にするために$\sum^{N}_{n=1}\omega_{n}=1$という制約がある.短いシステム出力テキストに対して高い精度が出やすいこの精度系の指標に対し,精度と再現率の重み付き調和平均という方法を取らず,BrevityPenalty(BP)という項を入れて補正している.\[\mbox{BP}(C,R)=\left\{\begin{array}{ll}1&\mbox{if}\|C|>|R|\\\exp(1-\frac{|R|}{|C|})&\mbox{if}\|C|\leq|R|\end{array}\right.\]\paragraph{IMPACT}\label{para:IMPACT}IMPACT\cite{echizen-ya-2007-MTSUMMIT}はLCSに基づく指標ではなく,\modified{LCSubstr}の再帰的な取得による指標である.{\allowdisplaybreaks\begin{align*}R_{IP}(C,R)&=\Biggl(\displaystyle\frac{\displaystyle\sum^{\mbox{RN}}_{r=0}(\alpha^{r}\sum_{e\in\mbox{\modified{LCSubstr}}(C^{(r)},R^{(r)})}|e|^{\beta})}{|R|^{\beta}}\Biggr)^{\displaystyle\frac{1}{\beta}}\\[1ex]P_{IP}(C,R)&=\Biggl(\displaystyle\frac{\displaystyle\sum^{\mbox{RN}}_{r=0}(\alpha^{r}\sum_{e\in\mbox{\modified{LCSubstr}}(C^{(r)},R^{(r)})}|e|^{\beta})}{|C|^{\beta}}\Biggr)^{\displaystyle\frac{1}{\beta}}\end{align*}}ここで$\alpha$はイテレート回数$r$($r\leq\mbox{RN}$)に対する重み($\alpha<1.0$),$\beta$は\modified{\modified{LCSubstr}長に対する重み}($\beta>1.0$),$C^{(1)}=C$,$R^{(1)}=R$,$C^{(r)}=C^{(r-1)}\setminus\{\mbox{\modified{LCSubstr}}(C^{(r-1)},R^{(r-1)})\}$,$R^{(r)}=R^{(r-1)}\setminus\{\mbox{\modified{LCSubstr}}(C^{(r-1)},R^{(r-1)})\}$\pagebreakとする.\[\mbox{Score}_{\mbox{IP}}=\frac{(1+\gamma^{2})R_{\mbox{IP}}P_{\mbox{IP}}}{R_{\mbox{IP}}+\gamma^{2}P_{\mbox{IP}}}\]この指標は\ref{para:allstr}節に示す文字列長加重全部分文字列カーネルに関連がある.文字列長加重全部分文字列カーネルに対して,再帰的に\modified{LCSubstr}を選択する際に既選択の\modified{LCSubstr}を排除し,再帰の回数をRNで制限するという制約を入れたものである.\paragraph{RIBES}\label{para:RIBES}RIBES(平尾,磯崎,須藤,Duh,塚田,永田2014)は,\nocite{hirao-2014-JNLP-journal}システム出力テキストと参照テキストのアラインメントをとったうえで,語順の編集型順序尺度を考慮したものである.\[\begin{split}\mbox{Score}_{\mbox{RIBES}}&=\Biggl(d_{\mbox{Kendall}}(\mbox{1-gram}_{\mbox{align}}(C,R))\Biggr)\cdot\\&\quad\Biggl(P_{\mbox{RIBES}}(C,R)\Biggr)^{\alpha}\cdot\Biggl(\mbox{BP}(C,R)\Biggr)^{\beta}\end{split}\]ここで$d_{\mbox{Kendall}}(\mu,\nu)$は\ref{para:rankedit}\modified{節}で定義する順位ベクトル$\mu,\nu$に対するKendall距離,$\mbox{1-gram}_{\mbox{align}}(\mu,\nu)$は元論文\cite{hirao-2014-JNLP-journal}の\modified{{\ttworder}}で出力されるアラインメントされた二つの順序ベクトルの対を表す.右辺2項目は1-gram(単語ベースのもの)精度とよび$P_{\mbox{RIBES}}(C,R)=\frac{|\mbox{1-gram}_{\mbox{align}}(C,R)|}{|C|}$とする.$|\mbox{1-gram}_{\mbox{align}}(\mu,\nu)|$は\modified{{\ttworder}}で出力されるアラインメントされた順序ベクトルの長さ(二つ出力されるが等しい)である.$\alpha$は1-gram精度に対する重み,$\beta$はBLEUで用いられたBPに対する重みである.なお,$P_{\mbox{RIBES}}(C,R)$は,それぞれの記号列に重複する記号がない場合,以下が成り立つ:\begin{align*}P_{\mbox{RIBES}}(C,R)&=\mbox{Score}^{(P)}_{\mbox{ROUGE-1}}(C,R)\\[1ex]=&\frac{\displaystyle\sum_{e\in(\mbox{1-gram}(C)\cap\mbox{1-gram}(R))}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{1-gram}(R)}|e|}\end{align*}\paragraph{LRscore}\label{para:LRscore}LRscore\cite{Birch-2010}も同様に,アラインメントをとったうえで,語順の順序尺度を考慮したものである.順序尺度としてベクトル型であるHamming距離と編集型であるKendall距離を用いている.\begin{align*}\mbox{Score}^{\mbox{Hamming}}_{\mbox{LRscore}}(C,R)&=\alpha\cdotBP(C,R)\cdotd_{\mbox{Hamming}}(C,R)+(1-\alpha)\mbox{Score}_{\mbox{BLEU}(C,R)}\\[1.5ex]\mbox{Score}^{\mbox{Kendall}}_{\mbox{LRscore}}(C,R)&=\alpha\cdotBP(C,R)\cdotd_{\mbox{Kendall}}(C,R)+(1-\alpha)\mbox{Score}_{\mbox{BLEU}(C,R)}\end{align*}$\alpha$は語順をどの程度考慮するかの重みつけ係数.\subsection{関連するカーネル・順序尺度}上に述べた指標は,基本的には以下のカーネルおよび順序尺度の組み合わせで構成することができる.以下では,各種指標に関連するカーネルおよび順序尺度について確認する.\subsubsection{カーネル・距離(文字列の共有)}畳み込みカーネルのうち系列データに対するカーネルは,共通する部分文字列・部分列を数え上げる.いずれも効率よく計数する方法が提案されている(Shawe-TaylorandCristianini,大北訳2010)\nocite{Taylor-2010}.また,適切に正規化することにより部分文字列・部分列の共有についての距離や指標を規定することができる.様々なカーネルの説明に入る前に,[0,1]区間正規化について示す.カーネルの[0,1]区間正規化はカーネルの研究分野でよく用いられており以下の式により行われる:\[\mbox{Score}_{K_{-}}(s,t)=\frac{K_{-}(s,t)}{||K_{-}(s,s)||\cdot||K_{-}(t,t)||}\]各種指標のように,再現率--精度間の重み$\gamma$を入れたい場合には以下のようにする:\[\mbox{Score}^{(\gamma)}_{K_{-}}(s,t)=\frac{(1+\gamma^{2})K_{-}(s,t)}{\sqrt{(K_{-}(s,s))^{2}+\gamma^{2}(K_{-}(t,t))^{2}}}\]\paragraph{全部分文字列カーネルと文字列長加重全部分文字列カーネル}\label{para:allstr}全部分文字列カーネル(AllStringKernelorExactMatchingKernel)は共通する全ての部分文字列の数を数える.任意の長さの部分文字列$u$の出現数を座標軸とする特徴量空間$F_{\mbox{all\_str}}$を考える.\begin{align*}\Phi^{*}_{\mbox{str}}:\sigma^{*}&\rightarrowF_{\mbox{all\_str}}\simR^{|\sigma|^{*}}\\\Phi^{*}_{\mbox{str}}(s)&=(\phi^{*}_{u}(s))_{u\in\sigma^{*}}\\\phi^{*}_{u}(s)&=|\{i|s_{i\ldots*}=u\}|\\K_{\mbox{all\_str}}(s,t)&=\langle\Phi^{*}_{\mbox{str}}(s),\Phi^{*}_{\mbox{str}}(t)\rangle_{F_{\mbox{all\_str}}}\\&=\sum_{u\in\sigma^{*}}\phi^{*}_{u}(s)\phi^{*}_{u}(t)\end{align*}カーネル関数を直接計算すると以下のようになる:\[K_{\mbox{all\_str}}(s,t)=\sum^{\min(|s|,|t|)}_{n=1}\sum^{|s|-n+1}_{i=1}\sum^{|t|-n+1}_{j=1}\delta(s_{i\ldotsi+n-1},t_{j\ldotsj+n-1})\]ここで$\delta$はクロネッカーのデルタとする.言語処理の場合,得られるn-gramに対して加重をかけることが一般に行われている.文字列長に対して加重をかけたものを文字列長加重全部分文字列カーネル(LengthWeightedAllStringKernelorLengthWeightedExactMatchingKernel)と呼ぶ.\[\begin{split}&K_{\mbox{w\_all\_str}}(s,t)\\&\quad=\sum^{\min(|s|,|t|)}_{n=1}\sum^{|s|-n+1}_{i=1}\sum^{|t|-n+1}_{j=1}\omega_{|s|}\delta(s_{i\ldotsi+n-1},t_{j\ldotsj+n-1})\end{split}\]ここで$\omega_{n}$は長さ$n$に対する重みを表す.\ref{para:IMPACT}節で述べたIMPACTはこのカーネルの特殊形とみなすことができる.このカーネルと次のn-スペクトラムカーネルはSuffixTreeを用いて効率よく計算する方法が提案されている.\paragraph{n-スペクトラムカーネル}\label{para:n-spec-k}n-スペクトラムカーネル(SpectrumKernel)は共通する長さ$n$の部分文字列(n-gram)の数を数える.長さ$n$の部分文字列$u$の出現数を座標軸とする特徴量空間$F_{\mbox{n-gram}}$を考える.\begin{align*}\Phi^{n}_{\mbox{str}}:\sigma^{n}&\rightarrowF_{\mbox{n-gram}}\simR^{|\sigma|^{n}}\\\Phi^{n}_{\mbox{str}}(s)&=(\phi^{n}_{u}(s))_{u\in\sigma^{n}}\\\phi^{n}_{u}(s)&=|\{i|s_{i\ldotsi+n-1}=u\}|\\K_{\mbox{n-gram}}(s,t)&=\langle\Phi^{n}_{\mbox{str}}(s),\Phi^{n}_{\mbox{str}}(t)\rangle_{F_{\mbox{n-gram}}}\\&=\sum_{u\in\sigma^{n}}\phi^{n}_{u}(s)\phi^{n}_{t}(t)\end{align*}直接計算すると以下のようになる:\[K_{\mbox{n-gram}}(s,t)=\sum^{|s|-n+1}_{i=1}\sum^{|t|-n+1}_{j=1}\delta(s_{i\ldotsi+n-1},t_{j\ldotsj+n-1})\]ROUGE-Nは,分子に$K_{\mbox{n-gram}}(C,R)$より小さい値を持ち,分母に参照テキストののべ出力n-gram数を持つことから,再現率として正規化したものに相当する.通常の正規化した$K_{\mbox{n-gram}}(s,t)$は再現率と精度の調和平均と解釈できる.また1-gramスペクトラムカーネルは1-mer部分列カーネルと同値で,これらは近似的にBLEUなどで利用されているBP相当の値を計算すると考える.\paragraph{全部分列カーネル}\label{para:allseq-k}全部分列カーネルは共通するすべての部分列の数を数える.任意の長さの部分列$v$の出現数を座標軸とする特徴量空間$F_{\mbox{all\_seq}}$を考える.{\allowdisplaybreaks\begin{align*}\Psi^{*}_{\mbox{seq}}:\sigma^{*}\rightarrow&F_{\mbox{all\_seq}}\simR^{|\sigma|^{\infty}}\\\Psi^{*}_{\mbox{seq}}(s)=&(\psi^{*}_{v}(s))_{v\in\sigma^{*}}\\\psi^{*}_{v}(s)=&|\{\vec{i}|s[\vec{i}]=v\}|\\K_{\mbox{all\_seq}}(s,t)=&\langle\Psi^{*}_{\mbox{seq}}(s),\Psi^{*}_{\mbox{seq}}(t)\rangle_{F_{\mbox{all\_seq}}}\\=&\sum_{v\in\sigma^{*}}\psi^{*}_{v}(s)\cdot\psi^{*}_{v}(t)\end{align*}}$K_{\mbox{all\_seq}}(s,t)$は以下のように再帰的に計算することにより$O(|s||t|)$で計算することができる.$\epsilon$を空記号列とすると$K_{\mbox{all\_seq}}(s,\epsilon)=K_{\mbox{all\_seq}}(t,\epsilon)=1$とし,$K_{\mbox{all\_seq}}(s,t)$が求まると$K_{\mbox{all\_seq}}(s\cdota,t)=K_{\mbox{all\_seq}}(s,t)+\sum_{1\leqi\leq|t|,j:t_{j}=a}K_{\mbox{all\_seq}}(s,t_{i\ldotsj-1})$と$s$再帰的に定義できる.さらに$\tilde{K}_{\mbox{all\_seq}}(s\cdota,t)=K_{\mbox{all\_seq}}(s,t_{i\ldotsj-1})$とすると,$\tilde{K}_{\mbox{all\_seq}}(s\cdota,t\cdotb)=\tilde{K}_{\mbox{all\_seq}}(s\cdota,t)+\delta(a,b)K_{\mbox{all\_seq}}(s,t)$と$t$再帰的に定義できる.\paragraph{固定長部分列カーネル}\label{para:p-mer-k}固定長部分列カーネルは共通する長さ$p$の部分列(p-mer)の数を数えあげる.長さ$p$の部分文字列$v$の出現数を座標軸とする特徴量空間$F_{\mbox{p-mer}}$を考える.\begin{align*}\Psi^{p}_{\mbox{seq}}:\sigma^{p}&\rightarrowF_{\mbox{p-mer}}\simR^{|\sigma|^{p}}\\\Psi^{p}_{\mbox{seq}}(s)&=(\psi^{p}_{v}(s))_{v\in\sigma^{p}}\\\psi^{p}_{v}(s)&=|\{\vec{i}|s[\vec{i}]=v\}|\\K_{\mbox{p-mer}}(s,t)&=\langle\Psi^{p}_{\mbox{seq}}(s),\Psi^{p}_{\mbox{seq}}(t)\rangle_{F_{\mbox{p-mer}}}\\&=\sum_{v\in\sigma^{p}}\psi^{p}_{v}(s)\cdot\psi^{p}_{v}(t)\end{align*}ROUGE-Sは,分子に$K_{\mbox{2-mer}}(C,R)$より小さい値を持ち,分母に参照テキストののべ出力2-mer数を持つことから,再現率として正規化したものに相当する.ROUGE-SUは,分子に$K_{\mbox{1-mer,2-mer}}(C,R)$より小さい値を持ち,分母に参照テキストののべ出力1-mer,2-mer数を持つことから,再現率として正規化する.通常の正規化した$K_{\mbox{p-mer}}(s,t)$は再現率と精度の調和平均と解釈できる.\paragraph{ギャップ加重部分列カーネル}\label{para:gap-p-mer-k}ギャップ加重部分列カーネル\modified{は}p-merの部分列の数え上げの際に隣接性を考慮して重み$\lambda$を加重する.ESK\cite{hirao-2006-IPSJ-journal}は,このカーネルを用いた尺度である.長さ$p$の部分列$v$を座標とする特徴量空間$F_{\mbox{p-mer}}$を考える.\begin{align*}K_{\mbox{gap\_p-mer}}(s,t)&=\langle\Psi^{gap\_p}_{\mbox{seq}}(s),\Psi^{gap\_p}_{\mbox{seq}}(t)\rangle_{F_{\mbox{p-mer}}}\\&=\sum_{v\in\sigma^{p}}\psi^{gap\_p}_{v}(s)\cdot\psi^{gap\_p}_{v}(t)\end{align*}ここで$\psi^{gap\_p}_{v}(s)=\sum_{\vec{i}:v=s[\vec{i}]}\lambda^{l(\vec{i})}$とし,$l(\vec{i})=|s_{i_{1}\ldotsi_{|v|}}|(\vec{i}=\langlei_{1},\ldots,i_{|v|}\rangle)$とする.\subsubsection{順序尺度}以下では順序尺度について考えるが,文献\cite{kamishima-2009-JSAI-sig-dmsm}に詳しい解説がある.基本的には同じ長さ$m$の二つの順位ベクトル$\mu,\nu\inS_{m}$に対する2種類の距離を考える.\paragraph{順位ベクトル型距離}\label{para:rankvec}一つ目の距離は「順位ベクトル型」の距離で順位ベクトルを$m$次元空間中の点を表すベクトルとみなし,ベクトル空間上の距離を定義する.\modified{ベクトル空間上の$\theta$-ノルムを用いる}と以下のようになる:\[d_{||\mbox{Rank}||_{\theta}}(\mu,\nu)=(\sum^{m}_{i=1}|\mu(i)-\nu(i)|^{\theta})^{1/\theta}\]ここで$\theta=1$の場合,特にSpearmanfootruleと呼ぶ.\[d_{\mbox{Footrule}}(\mu,\nu)=(\sum^{m}_{i=1}|\mu(i)-\nu(i)|)\]$\theta=2$の場合は通常のEuclid距離だが,このEuclid距離を2乗したものを特にSpearman距離と呼ぶ.\[d_{\mbox{Spearman}}(\mu,\nu)=(\sum^{m}_{i=1}|\mu(i)-\nu(i)|^{2})\]Spearman距離は,距離の公理のうち対称性と正定値性を満たす.しかし,Euclid距離を2乗したものなので三角不等式を満たさないが,慣習的\modified{に}距離として扱われる.さらに$[-1,1]$区間に正規化したものはSpearmanの順位相関係数$\rho$として知られている.\[\mbox{Spearman's}\;\rho=1-\frac{6\cdotd_{\mbox{Spearman}}(\mu,\nu)}{m^3-m}\]この値は順序尺度に基づく二つの順位ベクトル$\mu,\nu$のPearson相関係数と等しい\footnote{ここで順序尺度とは,間隔に意味がある間隔尺度を順位のみに変換していることを前提にしている.}.その他,順位ベクトルの同一順位のものが同じ要素である要素数を数えたHamming距離がある.\[d_{\mbox{Hamming}}(\mu,\nu)=\sum^{m}_{i=1}\delta(\mu(i),\nu(i))\]Hamming距離は文字列上で代入(コスト1)のみを許した編集距離としても解釈できる.また,距離$\mbox{d}_{||\mbox{rank}||_\theta}$,$d_{\mbox{Footrule}}$,$d_{\mbox{Spearman}}$,$d_{\mbox{Hamming}}$に対応するスコア$\mbox{Score}_{||\mbox{rank}||_\theta}$,$\mbox{Score}_{\mbox{Footrule}}$,$\mbox{Score}_{\mbox{Spearman}}$,$\mbox{Score}_{\mbox{Hamming}}$を次のように規定することができる.\[\mbox{Score}_{-}=\frac{1}{1+d_{-}}\]\paragraph{対称群上の編集型距離}\label{para:rankedit}二つ目の距離は「編集型」の距離である.順序ベクトルを記号列とみなした場合,順位ベクトル$\mu$をもうひとつの順位ベクトル$\nu$に変換するために必要な最小操作数を意味するLevenshtein距離について述べた.以下では,順序ベクトルを対称群とみなした場合の編集型距離について述べる.編集に許される操作によっていくつかの距離のバリエーションがある.\begin{itemize}\itemKendall距離:\\Kendall距離$d_{\mbox{Kendall}}(\mu,\nu)$は順序ベクトルを対称群とみなした際に隣接互換で置換する最小回数によって定義される.言い換えると隣接する対象対を交換(Swap)する操作の最小回数を用いたものである.Kendall距離は,二つの順位ベクトル中の$\frac{m(m-1)}{2}$個の対象対のうち逆順になっている対の数に等しい.\begin{gather*}d_{\mbox{Kendall}}(\mu,\nu)=\min(\argmax_{\bar{q}}\delta((\Pi^{\bar{q}}_{q=1}\pi_{2}(k_{q},k_{q}+1))\cdot\mu,\nu))\\d_{\mbox{Kendall}}(\mu,\nu)=\sum^{m}_{i=1}\sum^{m}_{j=i+1}\chi(i,j)\end{gather*}ここで,$k_{q}$は順位ベクトル$\mu$のインデックス.また,$\chi$は対象対$\langlei,j\rangle$が同順のとき0,逆順のとき1を返す指示関数:\[\chi=\left\{\begin{array}{ll}1&\mbox{if}\(\mu(i)-\mu(j))(\nu(i)-\nu(j))<0,\\0&\mbox{if}\(\mu(i)-\mu(j))(\nu(i)-\nu(j))\geq0\end{array}\right.\]$\pi_{2}=(i,i+1)$は隣接する二つの元のみを入れ替えて他の元は変えない操作である隣接互換を意味する.これを指標として使いやすくするために[0,1]区間の範囲に正規化すると以下のようになる:\[\mbox{Score}_{\mbox{Kendall}}(\mu,\nu)=1-\frac{2\cdotd_{\mbox{Kendall}}(\mu,\nu)}{m^2-m}\]これを$[-1,1]$区間の範囲に正規化したものはKendallの順位相関係数$\tau$として知られている.\[\mbox{Kendall's}\;\tau=1-\frac{4\cdotd_{\mbox{Kendall}}(\mu,\nu)}{m^2-m}\]\itemCayley距離:\\Cayley距離$d_{\mbox{Caylay}}$は順序ベクトルを対称群とみなした際に互換で置換する最小回数によって定義される.言い換えると隣接していなくても良い対象対を交換(Swap)する最小回数を用いたものである.\newpage\[d_{\mbox{Caylay}}(\mu,\nu)=\min(\argmax_{\bar{q}}\delta((\Pi^{\bar{q}}_{q=1}\pi_{2}(k_{q},l_{q}))\cdot\mu,\nu))\]ここで,$k_{q},l_{q}$は順位ベクトル$\mu$のインデックス.$\pi_{2}=(i,j)$は二つの元のみを入れ替えて他の元は変えない操作である互換を意味する.\itemUlam距離:\\Ulam距離$d_{\mbox{Ulam}}$は順序ベクトルを対称群とみなした際に連続した順序ベクトル部分列$\langlei,i+1,\ldots,j-1,j\rangle$の巡回置換の操作のみで置換する最小回数によって定義される.これは「本棚の本の入れ換え」で例えられる.順位ベクトル$\mu$で並んでいる本棚の本を順位ベクトル$\nu$に並べ替えるために,ある要素を抜いて別の場所に挿入するということを行う.Ulam距離は同じ要素が記号列に存在しないという前提のもと,最長一致部分列長と以下の関係にあることが知られている.\[d_{\mbox{Ulam}}(\mu,\nu)=m-|\mbox{LCS}(\mu,\nu)|\]これを[0,1]区間の範囲に正規化すると以下のように正規化最大共通部分列と同じになる:\begin{align*}\mbox{Score}_{\mbox{Ulam}}(\mu,\nu)&=1-\frac{d_{\mbox{Ulam}}(\mu,\nu)}{m}\\&=\frac{|\mbox{LCS}(\mu,\nu)|}{m}\\&=\mbox{Score}_{\mbox{LCS}}(\mu,\nu)\end{align*}\end{itemize}\modified{図\ref{fig:editdist}に順序ベクトルによる置換により表現した編集型距離の例を示す.編集型距離の定義で許される編集の回数を数えると,順序ベクトル$(1,4,3,2)$と$(1,2,3,4)$のKendall距離は3,Caylay距離は1,Ulam距離は2となる.また,順序ベクトル$(2,3,1,4)$と$(1,2,3,4)$のKendall距離は2,Caylay距離は2,Ulam距離は1となる.}\begin{figure}[t]\begin{center}\includegraphics{23-5ia4f1.eps}\end{center}\caption{対称群上の編集型距離}\label{fig:editdist}\end{figure}以下は,我々の意見だが,言語生産時の編集作業の工数を評価する場合には,\cite{Nivre-2009-ACL}のswapに代表されるようなKendall距離のような編集よりもUlam距離のような編集を考慮すべきであると考える.言語生産時に,Kendall距離で考慮される列内絶対位置よりも,Ulam距離で考慮される列内相対位置を考えながら編集を行う方が人にとって自然な処理であると考える.\paragraph{順序尺度間の関係}\label{para:rankrel}ベクトル型の$\mbox{Spearman's}\;\rho$と$\mbox{Kendall's}\;\tau$との間には以下のDanielsの不等式が成立する:\[-1\leq\frac{3(m+2)}{m-2}\tau-\frac{2(m+1)}{m-2}\rho\leq1\]$m\rightarrow\infty$の極限をとると$-1\leq3\tau-2\rho\leq1$が成り立つ.このことから二つの相関係数の間の相関が高いことが示される.距離の観点からは,$d_{\mbox{Caylay}}\leqd_{\mbox{Kendall}}$が成り立つ.さらにFootrule距離とKendall距離とCayley距離の間に以下の不等式が成り立つ(Diaconis-Grahaminequality):\[d_{\mbox{Kendall}}+d_{\mbox{Caylay}}\leqd_{\mbox{Footrule}}\leq2\cdotd_{\mbox{Kendall}}\]またSpearman距離とKendallの距離の間には以下の不等式が成り立つ(Durbin-Stuartinequality):\[\frac{4}{3}d_{\mbox{Kendall}}(1+\frac{d_{\mbox{Kendall}}}{m})\leqd_{\mbox{Spearman}}\]つまり,評価指標のデザインにおける順序尺度の選択による差異は,これらの不等式の範囲によって制限される.\subsection{指標の一般化}\label{ss:sim-general}以上,評価指標・距離・カーネル・相関係数を議論してきた.まとめると付記B表\ref{table:scores}のようになる.各指標と人手の評価結果をできるかぎり合わせるという観点からすると,\cite{hirao-2007-JSAI-journal}のように,表\ref{table:scores}にあげたすべての尺度$\mbox{Score}_{-}\in\{\mbox{Score}_{*}\}$の加重相乗平均(下式)を考え,加重$\omega_{-}$と各指標に付随するパラメータを,各指標の従属性や相関に注意しながら人手の評価結果との回帰により求めれば良い.\begin{gather*}\overline{\mbox{Score}_{*}}=\sqrt[\displaystyle\sum\omega_{-}]{\displaystyle\Pi\mbox{Score}^{\omega_{-}}_{-}}\\\log\overline{\mbox{Score}_{*}}=\frac{1}{\displaystyle\sum\omega_{-}}(\sumw_{-}\cdot\log\mbox{Score}_{-})\end{gather*}この指標のあり方については注意すべき点がいくつかある.\begin{itemize}\itemsubstring(部分文字列:n-gram系)とsubsequence(部分列:p-mer系)との違いを踏まえる.\item最長一致部分長は対称群上の編集型距離であるUlam距離と深く関連する.\item順序に対する順位ベクトル型距離と編集型距離の間には\ref{para:rankrel}節に示される関係が成り立つ.\end{itemize}本稿では,先に述べた四つの尺度がそれぞれどのような特性があるかを明らかにすることを目的としており,最適な指標の組み合わせについては検討を行わない.次節以降,各尺度がさまざまな言語資源上でどのようなふるまいをするのかについてみていきたい. \section{評価に用いる言語資源} ここでは様々な言語生成過程を記録した言語資源におけるテキスト対の尺度の差異を検証することにより,各尺度がとらえようとしているものが何なのかを分析する.表\ref{tbl:resources}に,利用する言語資源について示す.まず言語生産過程として,要約(BCCWJ-SUMM)と語釈(GLOSS)と再話(RETELLING)の3種類の言語資源を用いる.要約は長い元文書を短くする情報提示手法である.語釈は短い単語を長い文書で説明する情報提示手法である.再話は長い元文書をできるだけその内容を保存したまま示す情報提示手法である.情報提示手法を比較することで,各尺度が何を評価しているのかを明らかにすることを試みる.\begin{table}[t]\caption{指標評価に使う言語資源}\label{tbl:resources}\input{04table01.txt}\end{table}要約と語釈については,クラウドソーシングにより安価で大量にデータを得る手法(タイプ入力)と実験室にて被験者に繰り返し同一課題を依頼してデータを得る手法(筆述)の2種類の方法を用いた.再話のデータについては既存のデータを用い,筆述による形態と口述による形態のデータを準備した.言語生産形態として,タイプ入力・筆術・口述の3種類のデータを対照比較する.これは評価尺度が,要約の内容の類似度だけでなく,個人の文体の類似度を評価してしまう部分を分析するために準備した.それぞれ文体の統制が可能なレベルが異なっており,評価尺度に影響を与えるものだと考え,これを評価することを試みる.さらに,大勢の実験協力者に同じタスクを行わせる場合の協力者間の尺度のふるまいと,同一の実験協力者に同じタスクを複数回行わせる場合の尺度のふるまいを検証し,どの尺度にゆれが生じるかを明らかにする.以下各言語資源について解説する.\subsection{BCCWJ-SUMM\_C}BCCWJ-SUMM\_Cは『現代日本語書き言葉均衡コーパス』\cite{Maekawa-2014-LRE}(BCCWJ)の新聞記事(PNサンプル)の要約をYahoo!クラウドソーシング(15歳以上の男女)により被験者実験的に作成したもの\cite{asahara-2015-jclws7}である.BCCWJの1サンプルには複数の記事が含まれており,それを記事単位に分割したうえで元文書集合19文書を構築した.元文書集合はBCCWJコアデータPNサンプル(優先順位A)から選択した.40文字毎に改行した元文書を画像として提供し,実験協力者に50--100文字に要約せよという指示で収集した.自動\modified{要約}の本来のあり方としては,文字数の削減ではなく,読み手の読み時間の削減が本質であると考えるが,実験の都合上,文字数による制限を課した.実験協力者の環境はPCに限定した.元文書毎に約100--200人の実験協力者が要約に従事した.実験実施時期は2014年9月である.得られたデータには,文字数制限を守っていないもの・実験の趣旨を理解していないもの・既に実験を行った実験協力者から同一回答を提供されたと考えられるものなどが含まれており,これらを排除したものを有効要約とする.統計分析においてこの有効要約のみを用いる.\subsection{BCCWJ-SUMM\_L}BCCWJ-SUMM\_LはBCCWJの新聞記事の要約を実験室環境で筆述により作成したもの\cite{asahara-2015-jclws7}である.BCCWJ-SUMM\_Cで用いた元文書を印刷紙面で提供し,実験協力者に50--100文字に要約せよという指示で収集した.一つの元文書に対して,3回まで繰り返して要約文作成を行った.実験協力者は1回の要約文作成に10分間の時間制限を設定した.各回の間には休憩時間をおかず,早く要約課題が完成した場合には,ただちに次の回の要約作成を行った.尚,各実験協力者は要約対象文書を含む文書群の読文時間を評価する実験を,本実験の前に行っており,要約文作成前に元新聞記事を1回読んでいる.今後,読文時間と要約抽出箇所との評価を進める予定である.繰り返しに際しては,特別に「前と同じ要約文を作成してください」などといった指示は行わず,質問された場合にも「自由に要約文を作成してください」と教示した.実験協力者は原稿用紙上で筆述(鉛筆と消しゴム利用)で要約を行い,そのデータを電子化した.本実験の実験参加者は要約作業前に要約元文書の読み時間のデータも取得した.さらに被験者の特性(最終学歴・語彙数・言語形成地・記憶力)などのデータについても取得した.実験実施時期は2014年8月--10月であるが,今後このデータは引き続き拡充していく予定である.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:BCCWJ-SUMM\_L(P))と,同一被験者の回数間のスコア(BCCWJ-SUMM\_L(T))の両方を評価する.\subsection{GLOSS\_C}GLOSS\_Cは語釈文をYahoo!クラウドソーシング(15歳以上の男女)により被験者実験的に作成したものである.実験実施時期は2014年2月である.「その動物を全く知らない人がどのようなものかわかるように説明してください」と教示し,同意した実験協力者は兎(単語親密度6.6)・鶏(同6.4)・象(同6.0)の3種類から対象物を選択回答した.単語親密度は\cite{amano-1999-ntt-database}による.150文字以上250文字以内で3文字以上の同文字連続は認めない設定とした.実験協力者300名を募集したところ得られた解答数は,鶏:71・兎:111・象:113(295/300)であった.\modified{尚,このデータの質的分析は\cite{kato-cjws-2015}を参照されたい.}\subsection{GLOSS\_L}GLOSS\_Lは語釈文を実験室環境で筆述により収集したものである.実験実施時期は2013年5月--6月である.実験協力者8名(20代--50代の男女)に,GLOSS\_Cと同様に「その動物を全く知らない人がどのようなものかわかるように説明してください」と教示した.実験協力者は,10分間で兎(単語親密度6.6)・鶏(同6.4)・象(同6.0)の3種類から2種類の対象物を選択回答した.目安として5分経過時にブザー音を鳴らした.選択した対象物について同様に記述を繰り返すことを4回行った.得られた解答数は,兎7人分×4回,鶏6人分×4回,象3人分×4回である.平均145文字(max227文字,min85文字)を得た.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:GLOSS\_L(P))と,同一被験者の回数間のスコア(GLOSS\_L(T))の両方を評価する.\modified{尚,このデータを用いた認知的な分析は\cite{kato-ninjal-2015,kato-jcss-2015}を参照されたい.}\subsection{RETELLING\_I}最初の再話のデータは「独話Retellingコーパス」\cite{yasuda-2013-JASS31,yasuda-2013-JASS32}である.このコーパスは\cite{miyabe-2014-GNWS}でも用いられている.実験協力者は5名で,同一人が同内容をそれぞれ10回独話を繰り返した.就職活動を前提とした模擬面接の設定で,実験協力者は自ら予め用意した「学生生活で力を入れてきたこと(3分間程度)」についての独話を行った.同内容を繰り返すことや何回依頼するかは知らせていない.5人分×10回(50話分)の独話を取得した.面接官(聴衆)は有無を交互とした.奇数回(1・3・5・7・9回)は聴衆なしの独話,偶数回(2・4・6・8・10回)は聴衆に対する独話である.聴衆には,聴いていることを表すために頷くことのみを許可しており,話者への質問や意見など,発話は一切行わなかった.収録は録音と録画を行い,音声データを書き起こした.被験者によってインタビュー内容が異なるために,統計分析においては同一被験者の回数間のスコア(RETELLING\_I(T))のみを評価する.\subsection{RETELLING\_K}次の再話のデータは怪談を繰り返し口述したものであり,先行研究\cite{yasuda-2012-JCSS}によるものである.実験協力者は3名\footnote{実験協力者120代・女性・東京都,実験協力者230代・女性・茨城県,実験協力者320代・女性・神奈川県}で,実験は1名ずつ個別に行った.実験協力者は怪談を聞いたのち,その怪談について3回の再話を行った.怪談は3種類を用意したため,各人9回の語りを行った.語りに関しては,「怪談として他の人に伝えるよう話す」との指示をした.既存の物語では,個人の記憶による先入観の影響が予測されたため,4分間程度の新規な怪談を3本作成した.実験環境は図2のように,ビデオカメラと録音機により,録音と録画を行った.聴衆の影響を除去するために,聴衆は設置しなかった.実験協力者は以下の配置で録音機に向かって話した.\begin{figure}[t]\begin{center}\includegraphics{23-5ia4f2.eps}\end{center}\caption{RETELLING\_Kデータの収録環境}\end{figure}本稿では音声データを書き起こしたものを用いる.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:RETELLING\_K(P))と,同一被験者の回数間のスコア(RETELLING\_K(T))の両方を評価する.\subsection{RETELLING\_M}最後の再話のデータは桃太郎の物語を筆述で繰り返し記述したものであり,先行研究\cite{yasuda-2014-JASS33}によるものである.実験協力者10名(20代--50代の男女)に,「桃太郎の物語を全く知らない人に向けて記述してください」と教示し,実験協力者は10分間で記述(筆述)した.同様に記述を繰り返すことを4回行った.平均のべ284語(min:150語・max:451語),異なり語107語(min:74語・max:152語)の「桃太郎」10人分×4回(40話分)を取得した.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:RETELLING\_M(P))と,同一被験者の回数間のスコア(RETELLING\_M(T))の両方を評価する. \section{尺度の定性的な分析} \subsection{尺度の分析方法}本節では前節で述べたコーパスを用いて各尺度がどのように振る舞うかを観察する.利用する尺度は以下の30種類である.\begin{itemize}\itemn-gramスペクトラム(1,2,3,4)(char/mrph)\itemn-gram以下スペクトラム($\leq$2,$\leq$3,$\leq$4)(char/mrph)\itemp-mer部分列(2,3,4)(char/mrph)\itemp-mer以下部分列($\leq$2,$\leq$3,$\leq$4)(char/mrph)\item1-gramスペクトラム+Footrule(char/mrph)(=Spearman)\item1-gramスペクトラム+Kendall(char/mrph)\end{itemize}付記C表\ref{tbl:score-sum-gross},\ref{tbl:score-retelling}に各コーパス中の2サンプル間の尺度の平均値(Mean)と標準偏差(SD)\footnote{サンプル対に規定する同値類内全組み合わせに対する算術平均.実験室において複数回実施したコーパスについては,回数を固定した場合(T)と,被験者を固定した場合(P)と部分集合群を規定し,各部分集合中で全組み合わせに対する算術平均を得た.標準偏差も同様.}を示す.スコアについて(char)``\_c''は文字単位の記号列として評価したもの,(mrph)``\_m''は形態素単位の記号列(MeCab-0.98+IPADIC-2.7.0による)として評価したものである.括弧内の数字は部分文字列長(n-gramにおけるn)もしくは部分列長(p-merにおけるp)を示す.シャピロ・ウィルク検定の結果,ほとんどの場合p値が0.05未満であり,正規分布とはいえない傾向が見られた.\subsection{尺度のグラフ}図\ref{fig:score-task-graph}に形態素単位に評価した,n-gram(1),n-gram(2),p-mer(2),Kendallの尺度のタスク毎の平均値グラフを示す.エラーバーは標準誤差を表す.\begin{figure}[b]\begin{center}\includegraphics{23-5ia4f3.eps}\end{center}\caption{課題と評価尺度(n-gram(1),n-gram(2),p-mer(2),Kendall:形態素単位平均値と標準誤差)}\label{fig:score-task-graph}\end{figure}unigram(n-gram(1))を用いた場合,要約と語釈は中程度,再話はかなり高い値である.GLOSS\_{\linebreak}L(T)がほぼ再話と同程度の値である一方,BCCWJ-SUMM\_L(T)が低いことから,要約を繰り返す際の言語生産の特殊性が見られる.要約を繰り返す際には,回数毎に文章中の重要箇所を変更するサンプル・被験者が存在し,標準偏差も高くなっている.bigram(n-gram(2)),skip-bigram(p-mer(2))を用いた場合,異なる被験者間と繰り返し間との間に差が見られるようになる.これは何らかの個人の文体差が形態素の連接に影響を与えているのではないかと考える.bigram(n-gram(2))とskip-bigram(p-mer(2))の間の差として,語釈の場合のみbigramの値が下がった.語釈という課題の性質上,物語や要約と異なり,情報の提示順が変わることも考えられる.しかし,順序尺度であるKendallの値ではbigramの値ほど顕著な差が見られなかった.単語の隣接性が語釈のみ下がるという値のふるまいについては今後検討していきたい.クラウドソーシングと研究室内被験者実験との差(BCCWJ-SUMM\_C$\Leftrightarrow$BCCWJ-SUMM\_L(P),GLOSS\_C$\Leftrightarrow$GLOSS\_L(P))については,各尺度・各課題(要約・語釈)で差が見られなかった.\subsection{課題間の評価}\label{sub:test}以下,課題間を比較するために,6種類の評価軸を分析する.ほとんどの場合,正規分布であることも等分散であること(F検定による)も仮定できない.ここではウィルコクソンの順位和検定(0.05未満で2群の代表値が左右にずれている)を行う\footnote{コルモゴロフ=スミルノフ検定(0.05未満で2群は異なる分布から取り出されたことを示す)も行ったが,ほぼ同等の結果が得られたため省略する.}.\modified{多重比較に対応するためにBonferroni法を用いた.}付記C表\ref{tbl:test}に結果のまとめを示す.\begin{itemize}\item実験室における複数人の課題間の違いの評価\\BCCWJ-SUMM\_L(P)$\Leftrightarrow$GLOSS\_L(P)$\Leftrightarrow$RETELLING\_K(P)$\Leftrightarrow$RETELLING\_M(P)\begin{itemize}\itemBCCWJ-SUMM\_L(P)$\Leftrightarrow$GLOSS\_L(P)\\\modified{文字単位の評価の場合n-gram(2,3,4)\_charに有意差が見られた.\\形態素単位の評価の場合n-gram(2,3,4)\_mrphに有意差が見られた.}\itemBCCWJ-SUMM\_L(P)$\Leftrightarrow$RETELLING\_K(P)\\\modified{n-gram(4)\_char,n-gram(3,4)\_mrph以外で有意差が見られた.}\itemBCCWJ-SUMM\_L(P)$\Leftrightarrow$RETELLING\_K(M)\\\modified{n-gram(4)\_mrph以外で有意差が見られた.}\itemGLOSS\_L(P)$\Leftrightarrow$RETELLING\_\{K,M\}(P)\\全ての尺度について,有意差が見られた.\itemRETELLING\_K(P)$\Leftrightarrow$RETELLING\_M(P)\\\modified{全ての尺度について,有意差が見られなかった.}\end{itemize}要約$\Leftrightarrow$語釈間はn-gram(1)で有意差が見られなかった.同じ文字・同じ形態素を使うという観点では一致度のレベルが等しいが,\modified{語の連接が入ると有意差が見られることがわかった.}グラフからは語釈の方が語の連接や順序尺度の一致度が低い.これは語釈の目的としては情報の提示順に重要性のないことが伺える.\\要約$\Leftrightarrow$再話,語釈$\Leftrightarrow$再話の間においては有意差が見られた.再話は同じ話をするという特性から一致度が高くなる一方,要約・語釈は目的を達成するがために同じ表現を用いなければならないという制約がなく,一致度が低くなる傾向にある.\modified{また同一課題の語釈間では有意差はなかった.}\item実験室における単一人の回数間距離の課題間の違いの評価\\BCCWJ-SUMM\_L(T)$\Leftrightarrow$GLOSS\_L(T)$\Leftrightarrow$RETELLING\_I(T)$\Leftrightarrow$RETELLING\_K(T)$\Leftrightarrow$RETELLING\_M(T)\begin{itemize}\itemBCCWJ-SUMM\_L(T)$\Leftrightarrow$GLOSS\_L(T)\\\modified{文字単位の評価の場合n-gram(1,$\leq$2,$\leq$3,$\leq$4)\_char,p-mer(2,3,4,$\leq$2,$\leq$3,$\leq$4)\_charに有意差があった.\\形態素単位の評価の場合n-gram(1,$\leq$2,$\leq$3)\_mrph,Kendall\_mrphに有意差があった.}\itemBCCWJ-SUMM\_L(T)$\Leftrightarrow$RETELLING\_\{I,K,M\}(T)\\\modified{n-gram(4)\_char(BCCWJ-SUMM\_L(T)$\Leftrightarrow$RETELLING\_\{K\}(T)),n-gram(4)\_mrph(BCCWJ-SUMM\_L(T)$\Leftrightarrow$RETELLING\_\{K,M\}(T))以外の全ての尺度について,有意差が見られた.}\itemGLOSS\_L(T)$\Leftrightarrow$RETELLING\_\{I,K,M\}(T)\\全ての尺度について,有意差があった.\itemRETELLING\_I(T)$\Leftrightarrow$RETELLING\_K(T)\\\modified{n-gram(1)\_mrphについてのみ有意差があった.}\itemRETELLING\_I(T)$\Leftrightarrow$RETELLING\_M(T)\\\modified{文字単位の評価の場合n-gram(4)\_char,footrule\_char,kendall\_char以外に有意差があった.形態素単位の評価の場合,kendall\_mrph以外に有意差があった.}\itemRETELLING\_I(T)$\Leftrightarrow$RETELLING\_M(T)\\\modified{文字単位の評価の場合全ての尺度に有意差がなかった.形態素単位の評価の場合,n-gram($\leq$2,$\leq$3,$\leq$4)\_mrph,footrule\_mrph,kendall\_mrph以外に有意差があった.}\\\end{itemize}複数人間の評価ではなく,複数回間の評価でも同じ傾向が見られる.\\再話課題間については,形態素単位の評価において,三課題のうちどの二つ組においても有意差が出る傾向にある.口述による再話(RETELLING\_\{I,K\})の方が筆述による再話(RETELLING\_M)より一致度が高くなる.また口述による再話においては,自身の体験に基づく再話(RETELLING\_I)の方が,他者から聞いた話の再話(RETELLING\_K)よりも一致度の高くなることが認められた.\itemクラウドソーシングにおける課題間の違いの評価\\BCCWJ-SUMM\_C$\Leftrightarrow$GLOSS\_Cについて,全ての尺度について,有意差があった.\\クラウドソーシングにおける課題間の違いについても,前項と同じ傾向が見られる.\item要約課題においてクラウドソーシングと実験室との違い\modified{の評価}(複数人間)\\BCCWJ-SUMM\_C$\Leftrightarrow$BCCWJ-SUMM\_L(P)について,n-gram(2)\_char,n-gram(3)\_char,n-gram(4)\_charにのみ有意差があった.\\これは,タイプ入力(BCCWJ-SUMM\_C)と筆述(BCCWJ-SUMM\_L(P))とで,表記ゆれ統制の差の影響が考えられる.\item語釈課題においてクラウドソーシングと実験室との違い\modified{の評価}(複数人間)\\GLOSS\_C$\Leftrightarrow$GLOSS\_L(P)について,n-gram(2,3,4)\_char,n-gram(2,3,4)\_mrph,Footrule\_mrph,Kendall\_mrph以外について有意差があった.\\語釈においては,クラウドソーシングの場合wikipediaや辞書サイトからのコピーが行われる傾向にある一方,実験室の場合は特にリファレンスもなく筆述で行うために差が出たのではないかと考える.\item複数人間距離と単一人の回数間距離の違い\modified{の評価}\\BCCWJ-SUMM\_L(P)$\Leftrightarrow$BCCWJ-SUMM\_L(T),GLOSS\_L(P)$\Leftrightarrow$GLOSS\_L(T),\linebreakRETELLING\_K(P)$\Leftrightarrow$RETELLING\_K(T),RETELLING\_M(P)$\Leftrightarrow$RETELLING\_M(T)について,全ての尺度について有意差があった.\\基本的に単一人が実施したほうが一致度が高いと考えられるが,統計分析の結果からもそれが確認できる.\end{itemize}\subsection{各評価尺度の特性}課題間の議論から考えられる各尺度の特性について論じる.まず,文字n-gramはタイプ入力と筆述入力の差として認められることから,表記ゆれレベルで一致度の下がる特性があると考える.形態素n-gramは再話と繰り返しで顕著に高くなったことから,個人の文体などを反映していると考える.p-mer,Footrule,Kendallなどは語順の一致を反映していると考えられるが,ストーリー性がある要約・再話で一致度が高い一方,語釈などにおいては低い傾向にあることがわかった.語順に対して,ストーリーの一致を評価するのか,説明の順序を評価するのかについて深く検討する必要があると考える.ストーリーの一致については\cite{kato-jnlp-2016}において,被験者実験的に人が何を同一の物語とみなすかについて検討されている.また,語釈などにおいても情報提示順序により伝わりやすさが変わること\cite{kato-jcss-2015}が報告されている.自動要約の評価尺度で導入された語順の尺度については,ストーリーの一致(内容一致)を目的とするのか,伝わりやすさの一致(表現一致)を目的とするのかについては言及されていない.今回の調査では,タスクの設定によりこれらを切り分けることを試みたが,タスク間の差異は確認できなかった.n-gram,p-merともに$n$,$p$の値が高くなるにつれて尺度の値が低くなる.このために有意差が出にくくなる傾向にある.n-gram,p-merともに$n$(or$p$)以下の尺度として設定した場合に,より低い$n$(or$p$)の方が一致が多くなる傾向にあるために,より高い$n$(or$p$)の差異が見られなくなる傾向がある.これは尺度の自然な解釈であると考えられるが,何らかの用途で長いn-gram,p-merを重要視する場合には部分(文字)列長に対して加重を行う必要があるだろう.n-gram(1)\_*とKendall\_*と比較した場合,n-gram(1)\_*では有意差が出るが,順序尺度を入れたKendall\_*では有意差が出ない尺度の組み合わせがいくつかあった.これは文字順・語順の一致度が低い場合に,順序尺度を掛けあわせたがために全体の一致度の差がなくなったことが考えられる. \section{おわりに} 本稿では,まず自動要約・機械翻訳で用いられている評価指標の数理的構造を説明した.評価指標がどのカーネル・距離・相関係数などの尺度と対応しているのかを説明し,n-gram系,p-mer系,\modified{ベクトル型順序尺度,編集型}順序尺度の\modified{四つ}に抽象化した.次に様々な言語資源を用いて各指標を構成する尺度の特性を明らかにした.要約・語釈・再話からなる7種類の言語資源を用いて,課題・多人数産出・複数回産出・産出手段(口述・筆述・タイプ)の軸を用いて,どのような分散が観察されるかを確認した.\modified{結果,各評価尺度において,表現一致と内容一致の識別は困難であり,評価の識別限界としての分散があることを示した.}今後の展開として以下の\modified{五}つを考えている.一つ目は要約評価に求められる尺度とは何かを明らかにすることである.尺度が捉える言語の特性については明らかにしたが,自動要約に必要な内容評価と読みやすさの観点については何も言っていないに等しい.現在,収集した要約に対して,以下の五つの軸で人手による評価を付与している\cite{asahara-2015-jclws7}.\begin{itemize}\item文法性(Grammaticality):誤字・文法的でない文が含まれていないか\item非冗長性(Non-redundancy):全く同じ情報が繰り返されていないか\item指示詞の明解さ(Referentialclarity):先行詞のない指示詞(代名詞)が含まれていないか\item焦点(Focus):要約全体と無関係な情報が含まれていないか\item構造と一貫性(StructureandCoherence):接続詞を補ったり削除したりする必要のある箇所はないか\end{itemize}人手による評価を悉皆的に付与したうえで,各評価軸がどの尺度に表れるのかを引き続き分析していきたい.\modified{二つ目は情報構造アノテーションとの重ね合わせである.尺度において,語順の評価を入れるかどうかが一つの論点であった.日本語において語順を決める一つの要素として情報構造がある.情報構造は言語生産者側の観点である情報状態\{speaker-new,speaker-old\}と言語受容者側の観点である共有性\{hearer-new,hearer-old\}の区別を行い,後者については被験者実験的にアノテーションを行う.これらのアノテーション結果を用いて,なぜ要約文はその順序で情報を提示する必要があるのかについて検討する.}\modified{三つ目は要約文の言語受容者側の観点からの認知的な評価である.今回は元文書の言語受容者であり要約文の言語生産者側の観点からの認知的な評価を主に扱った.生産された要約文が他の言語受容者にとって同じ話として認定されるか\cite{kato-jnlp-2016,kato-jcss-2015}を検討していきたい.一方,日本語複数文書要約についての拡張も考えられるが,元文書側の言語生産者が複数人になるという問題がある.複数の言語生産者側が考慮している情報構造が,要約作成者と要約受容者にどのように受容されるか追跡可能な認知実験手法を検討する.}\modified{四}つ目は人文系の研究者が評価する文体についての尺度を明らかにすることである.文体の研究は使用域(register)や位相(phase)などに着目して行われるが,現在のところ役割語など単一の語についての研究がほとんどである.語の連接や語の順序などの使用域や位相を,先に述べた尺度で捉えることを目標とする.\modified{五}つ目は同じ話とは何かということを定量的に評価する手法の提案である.内容を捉える尺度と表現を捉える尺度を分離することで,人が内容が一致していると認知できる表現のゆれを捉えることを目標とする.既に同じ話を構成する要素について,様々な分析\cite{yasuda-2012-JCSS,yasuda-2013-JASS32,yasuda-2014-JASS33,kato-jass-2015,kato-jass-2016}を進めているが,これらの結果が尺度にどのように表れるのかについて分析を行う.\acknowledgment要約文の作成および評価についてはNTTCS研の平尾努氏の助言を受けました.本研究の一部は,国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」(2011--2015)および国立国語研究所「超大規模コーパス構築プロジェクト」(2011--2015)によるものです.本研究はJSPS科研費基盤研究(B)25284083,若手研究(B)26770156の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1999}]{amano-1999-ntt-database}天野成昭\JBA近藤公久\BBOP1999\BBCP.\newblock\Jem{日本語の語彙特性第1期CD-ROM版}.\newblock三省堂.\bibitem[\protect\BCAY{浅原\JBA杉\JBA柳野}{浅原\Jetal}{2015}]{asahara-2015-jclws7}浅原正幸\JBA杉真緒\JBA柳野祥子\BBOP2015\BBCP.\newblockBCCWJ-SUMM:『現代日本語書き言葉均衡コーパス』を元文書とした要約文書コーパス.\\newblock\Jem{第7回コーパス日本語学ワークショップ予稿集},\mbox{\BPGS\285--292}.\bibitem[\protect\BCAY{Birch\BBA\Osborne}{Birch\BBA\Osborne}{2010}]{Birch-2010}Birch,A.\BBACOMMA\\BBA\Osborne,M.\BBOP2010\BBCP.\newblock\BBOQLRscoreforEvaluationLexicalandReorderingQualityinMT.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},\mbox{\BPGS\327--332}.\bibitem[\protect\BCAY{Echizen-ya\BBA\Araki}{Echizen-ya\BBA\Araki}{2007}]{echizen-ya-2007-MTSUMMIT}Echizen-ya,H.\BBACOMMA\\BBA\Araki,K.\BBOP2007\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationbasedonRecursiveAcquisitionofanIntuitiveCommonPartsContinuum.\BBCQ\\newblockIn{\BemProceedingsoftheMTSummitXIWorkshoponPatentTranslation},\mbox{\BPGS\151--158}.\bibitem[\protect\BCAY{平尾\JBA磯崎\JBA須藤\JBA{K.Duh}\JBA塚田\JBA永田}{平尾\Jetal}{2014}]{hirao-2014-JNLP-journal}平尾努\JBA磯崎秀樹\JBA須藤克仁\JBA{K.Duh}\JBA塚田元\JBA永田昌明\BBOP2014\BBCP.\newblock語順の相関に基づく機械翻訳の自動評価法.\\newblock\Jem{自然言語処理},{\Bbf21}(3),\mbox{\BPGS\411--444}.\bibitem[\protect\BCAY{平尾\JBA奥村\JBA磯崎}{平尾\Jetal}{2006}]{hirao-2006-IPSJ-journal}平尾努\JBA奥村学\JBA磯崎秀樹\BBOP2006\BBCP.\newblock拡張ストリングカーネルを用いた要約システムの自動評価法.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1753--1765}.\bibitem[\protect\BCAY{平尾\JBA奥村\JBA安田\JBA磯崎}{平尾\Jetal}{2007}]{hirao-2007-JSAI-journal}平尾努\JBA奥村学\JBA安田宣仁\JBA磯崎秀樹\BBOP2007\BBCP.\newblock投票型回帰モデルによる要約自動評価法.\\newblock\Jem{人工知能学会論文誌},{\Bbf22}(2),\mbox{\BPGS\115--126}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2009}]{kamishima-2009-JSAI-sig-dmsm}神嶌敏弘\BBOP2009\BBCP.\newblock順序の距離と確率モデル.\\newblock\Jem{人工知能学会研究会資料SIG-DMSM-A902-07}.\bibitem[\protect\BCAY{加藤}{加藤}{2015a}]{kato-ninjal-2015}加藤祥\BBOP2015a\BBCP.\newblockテキストから対象物認識に有用な記述内容—動物を例に—.\\newblock\Jem{国立国語研究所論集},{\Bbf9},\mbox{\BPGS\23--50}.\bibitem[\protect\BCAY{加藤}{加藤}{2015b}]{kato-cjws-2015}加藤祥\BBOP2015b\BBCP.\newblock象は鼻が長いか—テキストから取得される対象物情報.\\newblock\Jem{第7回コーパス日本語学ワークショップ},\mbox{\BPGS\35--44}.\bibitem[\protect\BCAY{加藤}{加藤}{2015c}]{kato-jass-2015}加藤祥\BBOP2015c\BBCP.\newblock同じ話における共通語彙.\\newblock\Jem{社会言語科学会第36回大会}.\bibitem[\protect\BCAY{加藤\JBA浅原}{加藤\JBA浅原}{2015}]{kato-jcss-2015}加藤祥\JBA浅原正幸\BBOP2015\BBCP.\newblockテキストからの対象物認識における情報提示順序の影響.\\newblock\Jem{2015年度日本認知科学会第32回大会},\mbox{\BPGS\362--369}.\bibitem[\protect\BCAY{加藤\JBA浅原}{加藤\JBA浅原}{2016}]{kato-jass-2016}加藤祥\JBA浅原正幸\BBOP2016\BBCP.\newblock恋愛小説において物語を特徴づける表現—タイトルと帯に見られる表現分析の試み—.\\newblock\Jem{社会言語科学会第38回大会},\mbox{\BPGS\128--131}.\bibitem[\protect\BCAY{加藤\JBA富田\JBA浅原}{加藤\Jetal}{2016}]{kato-jnlp-2016}加藤祥\JBA富田あかね\JBA浅原正幸\BBOP2016\BBCP.\newblock物語がその物語であるための要素—何が同じであれば同じで何が違えば違うのか—.\\newblock\Jem{言語処理学会第22回発表論文集},\mbox{\BPGS\266--269}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{Lin-2004-WSTS}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponSummarizationBranchesOut,PostConferenceWorkshopofACL2004},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{Lin-2003-NAACL}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe4thMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsandHumanLanguageTechnology},\mbox{\BPGS\150--157}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedcorpusofcontemporarywrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{宮部\JBA四方\JBA久保\JBA荒牧}{宮部\Jetal}{2014}]{miyabe-2014-GNWS}宮部真衣\JBA四方朱子\JBA久保圭\JBA荒牧英治\BBOP2014\BBCP.\newblock音声認識による認知症・発達障害スクリーニングは可能か?—言語能力測定システム“言秤”の提案—.\\newblock\Jem{グループウェアとネットワークサービスワークショップ2014}.\bibitem[\protect\BCAY{難波\JBA平尾}{難波\JBA平尾}{2008}]{nanba-hirao-2008-JSAI-journal}難波英嗣\JBA平尾努\BBOP2008\BBCP.\newblockテキスト要約の自動評価.\\newblock\Jem{人工知能学会誌},{\Bbf23}(1),\mbox{\BPGS\10--16}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2009}]{Nivre-2009-ACL}Nivre,J.\BBOP2009\BBCP.\newblock\BBOQNon-ProjectiveDependencyParsinginExpectedLinearTime.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\351--359}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2001}]{Papineni-2001-BLEU}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2001\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblock\BTR,IBMResearchReportRC22176(W0109-022).\bibitem[\protect\BCAY{{Shawe-Taylor,~J.}\JBA{CristianiniN.}\JBA{大北剛(訳)}}{{Shawe-Taylor,~J.}\Jetal}{2010}]{Taylor-2010}{Shawe-Taylor,~J.}\JBA{CristianiniN.}\JBA{大北剛(訳)}\BBOP2010\BBCP.\newblock\Jem{カーネル法によるパターン解析(KernelMethodsforPatternAnalysis),第11章構造化データに対するカーネル:文字列,木など}.\newblock共立出版.\bibitem[\protect\BCAY{保田}{保田}{2014}]{yasuda-2014-JASS33}保田祥\BBOP2014\BBCP.\newblock同じ話を成立させる語—「桃太郎」を「桃太郎」として成立させる語彙—.\\newblock\Jem{社会言語科学会第33回大会発表論文集},\mbox{\BPGS\138--141}.\bibitem[\protect\BCAY{保田\JBA荒牧}{保田\JBA荒牧}{2012}]{yasuda-2012-JCSS}保田祥\JBA荒牧英治\BBOP2012\BBCP.\newblock人が同じ話を何度もするとどうなるか?:繰り返しによって生じる物語独話の変化.\\newblock\Jem{日本認知科学会第29回大会},\mbox{\BPGS\217--223}.\bibitem[\protect\BCAY{保田\JBA田中\JBA荒牧}{保田\Jetal}{2013a}]{yasuda-2013-JASS31}保田祥\JBA田中弥生\JBA荒牧英治\BBOP2013a\BBCP.\newblock繰り返しにおける独話の変化.\\newblock\Jem{社会言語科学会第31回大会発表論文集},\mbox{\BPGS\190--193}.\bibitem[\protect\BCAY{保田\JBA田中\JBA荒牧}{保田\Jetal}{2013b}]{yasuda-2013-JASS32}保田祥\JBA田中弥生\JBA荒牧英治\BBOP2013b\BBCP.\newblock同じ話であるとはどういうことか.\\newblock\Jem{社会言語科学会第32回大会発表論文集},\mbox{\BPGS\30--33}.\end{thebibliography}\appendix \section{\ref{sec:sim}節で用いる用語定義} \label{sec:app:term}以下\ref{sec:sim}節で用いる用語を定義する:\begin{itemize}\item記号集合:本稿では記号の集合を$\sigma$で表す.\item記号列:何らかの全順序が付与されている記号集合.\\本稿では記号列ベクトル$s=\langles_{1},\ldots,s_{m}\rangle,t=\langlet_{1},\ldots,t_{m}\rangle$などで表現する.\item文字(character),文字ベース(character-based):記号集合$\sigma$の要素の記号$s_{i}\in\sigma$としての文字.記号集合$\sigma$の要素が文字であること.\item形態素(morpheme),形態素ベース(morpheme-based):記号集合$\sigma$の要素の記号$s_{i}\in\sigma$としての形態素.記号集合$\sigma$の要素が形態素であること.\item文字列(string):評価する記号列上の連続列.記号列の要素が文字(character)である場合を「文字ベースの文字列(character-basedstring)」,記号列の要素が形態素(morpheme)である場合を「形態素ベースの文字列(morpheme-basedstring)」と呼ぶこととする.\item部分文字列(substring):記号列に対して隣接性と順序を保持した部分的記号列.長さ$n$の部分文字列を特にn-gram部分文字列と呼ぶ.\\記号列$s$の$i$番目の要素からはじまるn-gram部分文字列を$s_{i\ldotsi+n-1}$で表現する.\item部分列(subsequence):記号列に対して順序を保持した部分的記号列.隣接性は保持しなくてよい.長さ$p$の部分列を特にp-mer部分列と呼ぶ.記号列$s$のp-mer部分列を,インデックスベクトル$\vec{i}=\langlei_{1},\ldots,i_{p}\rangle(1\leqi_{1}<i_{2}<\cdots<i_{p}\leq|s|)$を用いて,$s[\vec{i}]$と表す.\item参照テキスト(reference):人間が作成した正解要約/翻訳.本稿では記号列$R$で表す.\itemシステム出力テキスト(candidate):要約作成器/機械翻訳器が出力した要約/翻訳.本稿では記号列$C$で表す.\item距離(distance):集合$X$上で定義された2変数の実数値関数で,本稿では$d:X\timesX\rightarrowR$などの記号を使う.正定値性($d(x,y)\geq0$),\modified{非退化性($x=y\Rightarrowd(x,y)=0$)},対称性($d(x,y)=d(y,x)$),三角不等式($d(x,y)+d(y,z)\geqd(x,z)$)を満たす.\item絶対値(absolutevalue):大きさの一般化概念.実数については0からの距離,集合については要素数を表すのに用い$|x|$で表す.また,テキストC中の単語/n-gram/p-merの要素数(のべ出現数)を$|e|_{C}$で表す.\item$\theta$-ノルム(norm):ベクトル空間上に距離を規定する長さの一般化概念.ベクトル$x=\langlex_{1},\ldots,x_{n}\rangle$の$\theta$-ノルムを\modified{$||x||_{\theta}=(\sum^{n}_{i=1}|x_{i}|^{\theta})^{1/\theta}$}により定義する.特に$\theta$を定義しない場合($||x||$)は2-ノルムを用いる.\item内積記号$\cdot$:文字列に対しては連結,整数・実数については積,ベクトルなどについては内積,対称群については写像の合成(積)を扱うために用いる.\item類似度(similarity):二つの元の距離は遠さを表すのに対し,類似度は近さを表す.距離の逆数は類似度として扱える.\item相関係数(correlation):二つの確率変数の間の相関を表す指標で,類似度として扱える.$[-1,1]$区間の値をとり,1に近い場合は正の相関があると呼び,$-1$に近い場合には負の相関があると呼ぶ.0に近い場合には相関が弱いという意味がある.\itemカーネル関数(kernelfunction):特徴空間中の座標の明示的な計算を経由せずに特徴量空間における内積(正定値性と非退化性をもち,実数ベクトル空間では対称性ももつ)を定義するもの.本稿では$K(s,t)$と表記する.内積を正規化することによりcosine類似度($\frac{K(s,t)}{||K(s,s)||\cdot||K(t,t)||}$)を定義することができる.\itemスコア(score):類似度などを[0,1]区間に正規化したもの.本稿では$\mbox{score}$などの記号で示す.\item接頭辞(prefix):記号列の先頭要素を含む連続文字列.\item接尾辞(suffix):記号列の末尾要素を含む連続文字列.\item部分集合(subset):記号列を集合とみなした場合の部分集合.隣接性と順序は保持しなくてよい.要素数$k$の部分集合を特に$k$-element部分集合と呼ぶ.\item順位ベクトル(rankvector):インデックス$i$要素が対象$i$の順位を表すベクトル.本稿では$m$次元の順位ベクトル空間を$S_{m}$で表し,順位ベクトル空間の要素である順位ベクトルを$\mu=\langle\mu(1),\ldots,\mu(m)\rangle$で表す.$\mu(i)$には対象$i$の順位を表す自然数が入る.\item順序ベクトル(ordervector):順位が$i$番目である要素がインデックス$i$の位置に格納されているベクトル.本稿では$m$次元の順序ベクトル空間を$T_{m}$で表し,順位ベクトル$\mu(i)$に対応する順序ベクトルを$\mu^{-1}=\langle\mu^{-1}(1),\ldots,\mu^{-1}(m)\rangle$で表す.$\mu^{-1}(i)$には順位が$i$である要素(の順位ベクトル上でのインデックス)が入る.\item同順(concordant):二つの順位ベクトル中で対象対$i$と$j$が以下を満たすとき,その対象対が同順であるという.\\$(\mu(i)-\mu(j))(\nu(i)-\nu(j))\geq0$\item逆順(discordant):二つの順位ベクトル中で対象対が同順でないことを逆順という.\item文字列上の編集:挿入(insertion),削除(deletion),代入(substitution)の三つを規定する.\item順序ベクトル上の編集:順序ベクトルを対称群(symmetricgroup)と考えて編集する際の操作を規定する.\item\modified{対称群}:並び替えの編集操作(置換:permutation)を元とする群.順序ベクトル$\mu^{-1}=\langle\mu^{-1}(1),\ldots,\mu^{-1}(m)\rangle$のうち,$\mu^{-1}(k_{1}),\mu^{-1}(k_{2}),\ldots,\mu^{-1}(k_{r})$以外は動かさず,$\mu^{-1}(k_{1})\rightarrow\mu^{-1}(k_{2}),\mu^{-1}(k_{2})\rightarrow\mu^{-1}(k_{3}),\ldots$のように順にずらす置換\\$\left(\begin{array}{cccc}\mu^{-1}(k_{1})&\mu^{-1}(k_{2})&\ldots&\mu^{-1}(k_{r})\\\mu^{-1}(k_{2})&\mu^{-1}(k_{3})&\ldots&\mu^{-1}(k_{1})\end{array}\right)$\\のことを巡回置換と呼び,$\pi_{r}=(k_{1},k_{2},\ldots,k_{r})$で表す.二つの元のみを入れ替えて他の元は変えないもの(2元の巡回置換)を互換(transposition)と呼び,$\pi_{2}=(i,j)$で表す.隣接する二つの元のみを入れ替えて他の元は変えないものを隣接互換(adjacenttransposition)と呼び,$\pi_{2}=(i,i+1)$で表す.\itemクロネッカーのデルタ$\delta$:$\delta(i,j)=\left\{\begin{array}{ll}1&(i=j)\\0&(i\neqj)\end{array}\right.$\item\modified{$s$再帰($s$-recursive),$t$再帰($t$-recursive):それぞれ変数$s$,$t$に対して再帰的に定義すること.本稿では$s$,$t$は文字列を想定し,1文字増やした際の文字列を定義する差分方程式の説明に用いる.}\end{itemize}\newpage \section{指標・スコア・距離・カーネル・相関係数の関係まとめ} \begin{table}[b]\rotatebox{90}{\begin{minipage}{470pt}\caption{指標・スコア・距離・カーネル・相関係数の関係まとめ}\label{table:scores}\input{04table02.txt}\end{minipage}}\end{table}\clearpage \section{言語生成過程と尺度} \modified{表\ref{tbl:test}に\ref{sub:test}節で行った検定の結果のまとめを示す.}表\ref{tbl:score-sum-gross}に要約課題・語釈課題と各尺度の比較を表\ref{tbl:score-retelling}に再話課題と各尺度の比較を示す.標準偏差はBCCWJ-SUMM\_L(T)が最も大きい.これは繰り返し要約する際に全く同じ要約文を再生産する被験者と全く異なる要約文を再生産する被験者とが存在するからだと考えられる.しかし,他の再話(RETELLING\_K(T),RETELLING\_M(T))でも被験者間の標準偏差と比して高いことから要約文特有の現象ではないと考える.\begin{table}[h]\caption{\ref{sub:test}節で行った検定の結果のまとめ(有意差があったもの一覧)}\label{tbl:test}\input{04table03.txt}\end{table}\begin{table}[p]\rotatebox{90}{\begin{minipage}{570pt}\caption{要約課題・語釈課題と各尺度}\label{tbl:score-sum-gross}\input{04table04.txt}\end{minipage}}\end{table}\begin{table}[p]\rotatebox{90}{\begin{minipage}{570pt}\caption{再話課題と各尺度}\label{tbl:score-retelling}\input{04table05.txt}\end{minipage}}\end{table}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.\modified{国立国語研究所言語資源研究系准教授を経て,現在国立国語研究所コーパス開発センター准教授.}博士(工学).}\bioauthor{加藤祥}{2011年神戸大学人文学研究科博士後期課程修了.201\modified{2}年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.現在国立国語研究所コーパス開発センタープロジェクト非常勤研究員.博士(文学).}\end{biography}\biodate\clearpage\clearpage\end{document}
V22N05-01
\section{はじめに} ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}は自然言語処理(NLP)の様々なタスクの横断的な誤り分析により,今後のNLPで必要となる技術を明らかにしようとするプロジェクトである.プロジェクトでは誤り分析の対象のタスクが18個設定され,「語義曖昧性解消」はその中の1つである.プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った.本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる.特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる.なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を「誤り原因のタイプ分類」と呼ぶことにする.誤り分析を行う場合,(1)分析対象のデータを定める,(2)その分析対象データを各人が分析する,(3)各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する,という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた.また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である.クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた.具体的には,各自の設定した誤り原因を対応する事例を用いてベクトル化し,それらのクラスタリングを行った.そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に9種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した.これは作成した誤り原因のタイプ分類が分析者7名のタイプ分類を代表していることを示している.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した. \section{分析対象データ} 誤り分析用のデータはSemEval-2の日本語WSDタスクから作成した\cite{semeval-2010}.SemEval-2のデータは対象単語が50単語あり,各対象単語に対して50個の訓練用例と50個のテスト用例が存在する.また用例中の対象語には岩波国語辞典\cite{iwakoku5}の語義が付与されている.つまり語義識別のラベルは岩波国語辞典の語義である.まずSemEval-2のコンペの際にbaselineとされたシステムを構築した.以降,本論文ではこのシステムを「分析用システム」と呼ぶ.学習アルゴリズムはSVMであり,以下の20種類の特徴量を利用する.\vspace{0.5\Cvs}\small\begin{verbatim}e1=二つ前の単語表記,e2=二つ前の品詞,e3=その細分類,e4=一つ前の単語表記,e5=一つ前の品詞,e6=その細分類,e7=対象単語の表記,e8=対象単語の品詞,e9=その細分類,e10=一つ後の単語表記,e11=一つ後の品詞,e12=その細分類,e13=二つ後の単語,e14=二つ後の品詞,e15=その細分類,e16=係り受け,e17=二つ前の分類語彙表の値(5桁),e18=一つ前の分類語彙表の値(5桁),e19=一つ後の分類語彙表の値(5桁),e20=二つ後の分類語彙表の値(5桁)\end{verbatim}\normalsizebaselineシステムは分類語彙表IDの4桁と5桁を同時に使う形になっていたが,分析用システムでは5桁のみとした.また一般に一つの単語に対しては複数の分類語彙表IDが存在するので,\verb|e17,e18,e19,e20|に対する素性は複数になる場合もある.例として,以下の用例(「息子とその婚約者に会っていこうかと考えた」)\footnote{このようにSemEval-2のデータは形態素解析結果をXML形式で表現している.}に対する素性リストを示す.対象単語は記号(*)のついた「あう」である.\vspace{0.5\Cvs}\begin{screen}\small\begin{verbatim}<sentence>・・・<morpos="名詞-普通名詞-一般"rd="ムスコ">息子</mor><morpos="助詞-格助詞"rd="ト">と</mor><morpos="連体詞"rd="ソノ">その</mor><morpos="名詞-普通名詞-サ変可能"rd="コンヤク">婚約</mor><morpos="接尾辞-名詞的-一般"rd="シャ">者</mor><morpos="助詞-格助詞"rd="ニ">に</mor><morpos="動詞-一般"rd="アッ"bfm="アウ"sense="166-0-2-1-0">会っ</mor>(*)<morpos="助詞-接続助詞"rd="テ">て</mor><morpos="動詞-非自立可能"rd="イコー"bfm="イク">いこう</mor><morpos="助詞-終助詞"rd="カ">か</mor><morpos="助詞-格助詞"rd="ト">と</mor><morpos="動詞-一般"rd="カンガエ"bfm="カンガエル"sense="9590-0-0-1-0">考え</mor><morpos="助動詞"rd="タ"bfm="タ">た</mor>・・・</sentence>\end{verbatim}\end{screen}\vspace{0.5\Cvs}対象単語の一つ前の単語表記は「に」なので,\verb|`e4=に'|となる.この単語の品詞情報から\linebreak\verb|`e5=助詞'|,\verb|`e6=格助詞'|となる.同様にして\verb|e1|から\verb|e15|が設定できる.また用例はCaboCha\footnote{http://taku910.github.io/cabocha/}により係り受けの解析がなされ,対象単語を含む文節の最も近い係先の単語の原形が\verb|e16|に設定される.この場合は\verb|`e16=いく'|となる.次に二つ前の単語「者」に対する分類語彙表IDは\verb|1.1000,7,1,2|と\verb|1.2020,1,1,4|であり.前者から上位5桁を取ると\verb|11000|となり,後者から上位5桁を取ると\verb|12020|となる.そのため\verb|e17|は\verb|`e17=11000'|と\verb|`e17=12020'|の2つが設定される.一つ前の単語「に」と一つ後の単語「て」は助詞なので分類語彙表IDは無視する.二つ後の単語「いこう」に対する分類語彙表IDは\verb|2.3000,6A,2,1|と\verb|2.3320,5,1,2|から\verb|`e20=23000'|と\verb|`e20=23320'|が設定される\footnote{これは間違いである.正しくは「いこう」の原形「いく」に対する分類語彙表IDを与えなくてはならない.分析用システムではbaselineシステムを忠実に再現したためこのような不備も生じている.}.以上より,上記用例の素性リストは以下となる.\vspace{0.5\Cvs}\small\begin{verbatim}(e1=者,e2=接尾辞,e3=名詞的,e4=に,e5=助詞,e6=格助詞,e7=会っ,e8=動詞,e9=一般,e10=て,e11=助詞,e12=接続助詞,e13=いこう,e14=動詞,e15=非自立可能,e16=いく,e17=11000,e17=12020,e20=23000,e20=23320)\end{verbatim}\normalsize\vspace{0.5\Cvs}「あう」の訓練データの50用例を全て素性リストに直し,その要素の異なり数$N$を次元数とした$N$次元ベクトルを設定する\footnote{この例の場合,$N=335$であった.}.訓練データとテストデータの用例を素性リストに変換し,$N$次元ベクトルの$i$次元目に対応する要素が存在すれば$i$次元の値を1に,存在しなければ0とすることで,その素性リストは素性ベクトルに変換できる.この素性ベクトルを利用してSVMによる学習と識別が可能となる.SVMの学習はlibsvm\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/}の線形カーネルを用いた.指定できるパラメータは全てdefaultのままである.SVMにより識別した結果,テスト事例2,500のうち,誤りは577事例であった\footnote{平均正解率は76.92\%であり,これはSemEval-2の参加システム中,最高値であった.}.ここから新語義と未出現語義の事例を除くと543事例となった.ここからランダムに50個の事例を選出し,この50事例を誤り分析の対象事例とした.この50事例は付録1に記した. \section{各人の分析結果} 前述した50事例の分析対象データに対して,我々のチームのメンバーの内7名(村田,白井,福本,新納,藤田,佐々木,古宮)が独自に誤り分析を行った.分析結果として,各人は分析対象の50事例に対して,各自が設定した誤り原因の記号をつけた.表\ref{kekka-all}がその結果である.\begin{table}[p]\caption{50事例に対する各自の分析結果}\label{kekka-all}\input{01table01.txt}\end{table}各自の記号の意味やどのような観点で分析したかを以下に述べる.\subsection{村田の分析:解き方に着目}\label{sec:tokikata}採用した誤り分析の考え方・方法論について述べる.普遍的な誤り分析を目指して,以下の誤り分析のフレームワークを用いる.\begin{itemize}\item誤り事例を人手で考察し,人ならそれを正しく解くにはどう解くかを考えて,その事例の解析に有効な特徴(解き方)を見つける.その特徴が学習データにあるかを確認する.\item誤り分析の際には,正解に至るまでの誤り原因をすべて網羅して調べる.これは,複数の誤り原因が存在する場合があり,一つの原因だけを見つけるのでは誤り分析としては不十分な場合があるためである.\end{itemize}具体的な誤り分析の手順は以下のとおりである.まず,各事例の対象単語の品詞を調べる.次に,品詞を参考にして各事例の解き方を調べる.最後に,解き方を参考にして各事例の誤り原因を調べる.以降,以上の方法論・手順に基づき行った調査結果について述べる.まず各事例の対象単語の品詞を調べた.品詞の出現数を表\ref{tab:murata_pos}に示す.表の「記号」の列はその品詞のデータに付与した記号である.次に各事例の解き方を調べた.解き方はある程度対象語の品詞に依存する.このため対象語の品詞を考慮しながら,解き方を考える.各事例に解き方のタグを付与する.解き方(解析に有効な特徴)の出現数を表\ref{tab:murata_solve}に示す.表の「記号」の列は,実際に事例に付与したタグの記号である.タグは一つの事例に複数重複してふられる場合がある.「解き方未判定」は,難しい事例で解き方が思いつかなかったものである.「文パターン」は,例えば「対象語の直前に『て』がある文パターンの場合語義Xになる」という説明が辞書にある場合があり,そのような文パターンを利用して解く方法である.「表現自身」は,例えば「対象語において漢字Xを使う場合は語義Yになる」という説明が辞書にある場合がありそのような情報を利用して解く方法である.\begin{table}[b]\vspace{-0.5\Cvs}\caption{品詞の出現数}\label{tab:murata_pos}\input{01table02.txt}\end{table}\begin{table}[b]\caption{解き方の出現数}\label{tab:murata_solve}\input{01table03.txt}\end{table}\begin{table}[b]\caption{誤り原因の出現数}\label{tab:murata_error}\input{01table04.txt}\end{table}次に各事例の誤り原因を調べた.各事例で付与した解き方のタグを参考にして,誤り原因を調べた.誤り原因の出現数を表\ref{tab:murata_error}に示す.表の「記号」の列は,実際に事例に付与したタグの記号である.タグは一つの事例に複数重複してふられる場合がある.表の「分析が困難」は,分析が困難で分析を行っていないものを意味する.より綿密な作業により分析ができる可能性がある.「シソーラスの不備」は,シソーラスの不備の他,シソーラスでの多義性の解消が必要な場合を含む.「素性も学習データもあるのに解けていない」は,解くときに役立つ素性も存在し,その素性を持つ学習データもあるのに解けていない場合である.その素性を持つ学習データの事例数が少ないか,他の素性や学習データが悪さをした可能性がある.「格解析が必要」は,能動文,受け身文,連体などの正規化や,格の把握が必要な場合である.「入力文の情報が少なすぎる」は,入力文だけでは文が短く,その文だけでは語義識別ができない場合である.前後の文など,より広範囲の文脈の情報の入力が必要な場合である.解き方の分類に基づき,いくつか誤り分析の事例を示す.「格に取る名詞(対象語が用言の場合)」が解き方の場合を示す.対象語が用言の場合,格に取る名詞が語義識別に役立つ表現となりやすい\cite{Murata_murata_s2j_nlp2003_new}.格に取る名詞を中心に眺めて誤り分析を行う.事例ID3の誤り事例を考察する.対象文は「…悲鳴をあげながら…」で,対象単語は「あげる」である.動詞「あげる」の格になっている「悲鳴」が語義識別に役立つ個所となる.現在のデータでは対象データの「悲鳴」が分類語彙表の情報を持たない.他のバージョンの分類語彙表には「悲鳴」の情報がある.「悲鳴」の類似事例「声」が多数学習データにある.シソーラスの情報をよりよく利用することで改善できる事例である.誤りの分類としては,「t:シソーラスの不備」を与えている.意味ソート\cite{murata_msort_nlp}を使うと,学習データに類似事例があるかどうかを簡明に知ることができる.「悲鳴」が存在する分類語彙表を利用して意味ソートを行った.意味ソートとは,単語群を分類語彙表の意味の順に並べる技術である.「あげる」の学習データにおいて,「あげる」のヲ格の単語を取り出し,その単語の意味ソートを行った.注目している単語「悲鳴」の近くの単語群での意味ソート結果は「13030010201:顔(545-0-1-1),13031010101:声(545-0-1-2),13031021203:歓声(545-0-1-2),13031050102:叫び声(545-0-1-2),13031050304:悲鳴*(545-0-1-2),13041060106:顔(545-0-1-1),13061110102:声(545-0-1-2)」である.単語の後ろの括弧にはその単語を含むデータの文の分類先を示し,単語の前の数字はその単語の分類語彙表の番号である.今解析している単語には「*」の記号を付与している.意味ソートの結果では,「叫び声」が類似事例としてあることがすぐにわかる.「共起語(主に対象語が名詞の場合)」が解き方の場合を示す.対象語が名詞の場合,同一文の共起語が語義識別に役立つ表現となりやすい\cite{Murata_murata_s2j_nlp2003_new}.同一文には共起語が多く存在するため,この場合の誤り分析は基本的に困難である.事例ID14の誤り事例を考察する.対象文は,「…事件で、鶴見署は二十一日現場で…」であり,対象単語は「現場」である.対象単語は名詞であるので,共起語が役立ちやすく,この例では,「事件」「署」が語義識別に役立つ.今の素性では対象単語の前方2形態素,後方2形態素しか素性に用いておらず,同一文の単語すべては素性に使っていない.今の素性では,「事件」「署」が使えない.共起語の素性を使えるように素性を拡張する必要がある.学習データを見たところ,共起語が重なる事例がなさそうであり,学習データ不足の問題もあるようだった.この事例には,誤りの分類としては,「f:素性の種類の不足」「d:学習データの不足」を与えている.「言い換え」が解き方の場合を示す.事例ID7の誤り事例を考察する.対象文は,「…自己防衛の意味でも…」であり,対象単語は「意味」である.正解語義は「表現や行為の意図・動機。」であり,システム出力の誤り語義は,「その言葉の表す内容。意義。」である.対象語の「意味」を「動機」に言い換えることが可能であることを認識できれば,正解語義「表現や行為の意図・動機。」と推定できるようになると思われる.この事例には,誤りの分類としては,「p:言い換え技術が必要」を与えている\footnote{言い換え技術での処理方法として,以下が考えられる.「動機」「内容」を含む文を収集し,それを「意味」の語義「動機」の場合の学習データ,「意味」の語義「内容」の場合の学習データとして利用して解く方法である.これは文献\cite{Mihalcea1999,Goda2013}と類似した考え方になる.}.\subsection{白井の分析:機械学習の素性の問題を中心に}まず,誤り分析の考え方について述べる.特に着目したのは機械学習の素性の問題である.テスト文から抽出された素性に不適切なものがないか,テスト文の素性と同じものが訓練データに出現するか,有力な手がかりとなる情報で素性として表現できていないものはないか,といった観点から分析を進めた.それ以外にも誤り原因と考えられるものは全て洗い出した.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{22-5ia1f1.eps}\end{center}\caption{白井による誤り原因のタイプ分類}\label{fig:typology-sirai}\vspace{-0.5\Cvs}\end{figure}誤り原因のタイプ分類を図{\ref{fig:typology-sirai}}に示す.大きくは手法の問題,前処理の問題,知識の問題,データの不備,問題設定の不備に分類し,これらをさらに細かく分類した.図中の()はそれぞれの要因に該当する誤り事例の数,[]は分析対象とした50事例に占める割合である\footnote{1つの誤り事例に対して複数の要因が割り当てられることもあるので,()内の数字の和は50を越える.}.枠内の数字は付録2に記載されている誤り原因IDに対応する.\begin{table}[b]\caption{【素性抽出が不適切】の細分類}\label{tab:inapproriate-feature}\input{01table05.txt}\end{table}【手法の問題】は機械学習手法に関する問題が見つかった事例である.【訓練データの不足】は,他に手がかりとなる情報がある場合\footnote{【訓練データの不足】に分類した事例は,必ず他の誤り原因にも分類している.}と,テスト文に類似した事例が訓練データにないと語義を識別しようがない場合(【他に手がかりなし】)に分けた.後者の多くは定型的な言い回しで語義が決まる事例である.例えば,「指揮を*とる*」は決まり文句に近く,この文が訓練データにないと「とる」の語義を決めるのは難しい.【素性抽出が不適切】は表\ref{tab:inapproriate-feature}のような文の正規化をした上で素性を抽出するべき事例である.【有効な素性の不足】は,語義曖昧性解消の手がかりとなる情報が素性として利用されていない場合である.分析用システムでは最小限の素性しか使用していないため,トピック素性(スポーツや事件といったトピックの文内に出現するということで語義が決まる事例があった),文脈中の自立語,構文素性など,先行研究で既に使われている素性の不足も分類されている.また,【長いコロケーション】とは,分析用システムでは前後2単語を素性としていたが,対象語からの距離が3以上の単語で語義が決まる場合である.【素性のコーディングが困難】とは,語義を決める手がかりは発見できたが,高度な言語処理や推論を必要とし,機械学習の素性として表現することが難しい事例である.文の深い解釈が必要な場合(【文の解釈】)と文章全体の解釈が必要な場合(【文脈の解釈】)に分けた.【学習アルゴリズムの問題】とは,語義曖昧性解消に必要な素性は抽出できていて,類似用例も訓練データに存在するが,SVMで学習された分類器では正解を選択できなかった事例である.他の機械学習アルゴリズムなら正しく解ける可能性がある.【消去法】とは,該当しない語義を除外することで正解の語義がわかる事例を指す.例えば「かえって医師の処方を経ないで入手できる*市場*が生じている」という文での「市場」は,21128-0-0-1の意味(野菜などを得る市場)でもなければ21128-0-0-3の意味(株式市場)でもないことから,21128-0-0-2の意味(売行き先)とわかる.このような事例は教師あり学習とは別の枠組で解く必要があるかも知れない.【前処理の問題】は前処理の誤りに起因する事例である.【知識の問題】は外部知識の不備が誤りの原因となっているものである.【データの不備】はタグ付けされた語義の誤りである.【問題設定の不備】に分類したのは,対象語の解析対象文における品詞と辞書見出しにおける品詞が一致せず,そもそも対象語として不適切であった事例である.今回の分析では上記は少数の事例しか該当しなかったが,多くの外部知識を用いたり,文節の係り受け解析など多くの前処理を必要とするシステムでは,これらの原因ももっと細かく分類する必要があるだろう.教師あり学習に基づく手法を用いるという前提で,今後語義曖昧性解消の正解率を向上させるには,【訓練データの不足—他に手がかりなし】に分類した事例が多いことから,訓練データを自動的または半自動的に拡充するアプローチが有望である.また,【素性抽出が不適切】や【有効な素性の不足】で考察した問題点に対応することも考えられる.ただし,表\ref{tab:inapproriate-feature}に示すような正規化の処理を導入しても誤った解析結果が得られたり,単純に素性を追加しても素性数が多すぎて過学習を引き起こすなど,単純な対応だけでは語義曖昧性解消の正解率の向上に結びつかない可能性もあり,深い研究が必要であろう.また,【素性のコーティングが困難】に分類した事例は,現時点での言語処理技術では対応が難しい事例だが,誤り原因の20\%程度を占めており,軽視できない.これらの事例に対応することは,チャレンジングではあるが,必要であると考える.\subsection{福本の分析:解消に必要となる知識・処理に着目}語義曖昧性解消に必要となる知識に着目し,分析対象の50事例について誤りの原因を分析した.まず,語義識別に必要となる知識が(1)語義曖昧性解消タスク内か,(2)語義曖昧性解消タスク外かで大別した.さらに(2)語義曖昧性解消タスク外については,語義曖昧性解消の前処理として必要となる形態素解析など,他の言語処理タスクで得られる知識にも着目し,それらに関する影響の有無を調査した.誤り原因のタイプ分類を以下に示す.括弧は各誤り原因に該当する事例数とその割合((1)と(2)での割合,及び各詳細項目での割合)を示す.また,``*''で囲まれた単語は語義識別の対象単語を示す.\begin{enumerate}\item語義曖昧性解消タスク内の問題(40事例,80\%)\begin{enumerate}\item語義の記載がない.(1事例,2.5\%)\\「くもりを*取る*」というテスト事例において,「くもり」に関する語義情報が分類語彙表に存在しないため,「くもり」と「取る」での共起による語義識別が難しく,「取る」が訓練事例数の多い語義に識別されている.\itemテスト事例と類似した事例が,訓練事例中に存在しない.(11事例,27.5\%)\\訓練事例不足の問題である.例えば「見せて*あげる*事ですね。」のように,動詞連用形+「て」と「あげる」のパターンが訓練事例中に存在していないために,誤って識別されている.\itemテスト事例の語義が,訓練事例中では低頻度で出現している.(4事例,10\%)\\語義の分布に片寄りがあるものの,対象としているテスト事例中の語義の特徴と高頻出の語義が持つ特徴との区別が困難であるために,低頻出の語義であるテスト事例の語義が正しく識別できない.例えば「私の*場所*だ!」であるテスト事例が該当し,「ところ.場」の意味の訓練事例は49事例,正解語義である「居るところ」は1事例であるために,「ところ.場」に誤って識別されている.\item解消に必要な情報が欠如している.(10事例,25\%)\\この誤り原因に相当する事例として,例えばテスト事例「*相手*をすべて倒した」において,「倒した」(行為)の対象が「*相手*」(人)であることから,共起関係を利用することにより「*相手*」が「自分と対抗して物事を争う人」に識別可能である.しかし語義の前後2単語というウィンドウサイズの制限により,識別に必要な「倒した」に関する情報(素性)が欠如している.\item語義同士の意味が互いに類似しているために,識別が非常に難しい.(14事例,35\%)\\この誤りは,誤り原因の中で最も多くの事例が相当した誤りである.「発音を*教え*てください。」などのように,「*教え*」が「知識や技能を身につけるように導く」という語義か,正解である「自分の知っていることを告げ示す」か,両者の語義が類似しているために識別が難しい.\end{enumerate}\item語義曖昧性解消タスク外の問題(10事例,20\%)\begin{enumerate}\item形態(語義を含む).(7事例)\begin{enumerate}\item形態素解析における品詞推定誤り.(2事例,20\%)\\識別の対象単語と共起して出現する単語の品詞が誤って識別されているために,品詞,及び共起関係の情報が利用できないという問題である.例えば,ひらがな表記の「神のみ*まへ*の」において形態素解析において「御前」と認識されていない.\itemテスト事例の単語について,その同義語・類義語に関する情報が辞書に掲載されていない.(3事例,30\%)\\この誤りは,例えば「悲鳴を*あげ*ながら」というテスト事例において,訓練事例中に存在する「歓声」が「悲鳴」と意味的に類似していることが分類語彙表に記載されていれば,「悲鳴」と「あげる」との共起関係により識別が可能であると考えられる.\item識別の対象となっている単語と共起している単語に曖昧さが存在している.(1事例,10\%)\\例えば「レベリングは*技術*がいる」というテスト事例において,「技術」と共起関係にある「いる」は「必要である」という語義と「豆などを煎る」という語義が存在する.分類語彙表の情報として「豆などを煎る」が素性としてテスト事例に付与されているため,共起の語彙情報を利用することができない.\item慣用句表現の認識(1事例,10\%)\\「めどが*立つ*。」が相当する.識別の対象となっている単語を慣用句表現として認識する必要がある.\end{enumerate}\item構文(1事例,10\%)\begin{enumerate}\item複合名詞の認識\\「国際*電話*」の事例のように,複合名詞が正しく認識されず,識別の対象単語である「*電話*」が複合名詞の一部として出現している.\end{enumerate}\item文脈(2事例,20\%)\begin{enumerate}\item省略語の補完\\例えば「*開い*たときに請求書ご案内が上に来るように入れます。」のように,対象単語である「開く」の主語が省略されているため,共起関係など,語義識別に必要な情報が利用できない.\end{enumerate}\end{enumerate}\end{enumerate}語義曖昧性解消タスク内の誤り原因に相当する事例は40事例であり,タスク外の事例は10事例であったことから,誤りの多くは語義曖昧性解消の処理方法に問題があると考えられる.語義曖昧性解消内の誤り原因のうちの6事例は,既存の学習手法や統計手法の工夫により語義を正しく識別できた.一方,例えば上述した(1)における(e)の「*教え*てください」や,「島がびっしょり濡れているようにさえ*見え*た」における「見え」が(a)「目にうつる」,(b)「そう感じ取れる」において,(a)と識別するために必要となる素性が何かを明かにすることが難しい事例も存在した.文内に限定した語彙・語義情報を用いた手法の限界であり,今後は文外に存在する情報,例えば分野に依存した主要語義に関する情報とも組み合わせることにより,語義曖昧性解消を行う方法なども考えられる.今後のさらなる調査と検討が必要である.\subsection{新納の分析:手法の問題の機械的排除}\label{sec:shinnou}採用した誤り分析の考え方・方法論について述べる.基本的に,自身の誤り原因のタイプ分類を作成し,分析対象の各誤り事例に設定した誤り原因のタイプを付与した.特徴としては「手法の問題」という誤り原因を設定したことである.ここでの分析対象のデータはSVMを利用した場合の誤りである.SVMを利用したために生じる誤りは分析の重要度が低いと考えた.そこでSVM以外の他の学習手法を試し,SVM以外の2つ以上の学習手法で正解となるような(SVMでの)誤りの事例の誤り原因を「手法の問題」として機械的に取り除いた.残された誤り事例に対してのみ,その誤り原因を精査するアプローチを取った.設定した誤りの原因は,まず(1)手法の問題,であり,それ以外に(2)意味の問題,(3)知識の問題,及び(4)領域の問題,の計4タイプの誤り原因を設けた.(2),(3),(4)については更に詳細化した.以下各タイプがどのような誤りかと,それをどのように判定したかを述べる.\subsubsection{手法の問題}分析対象のデータは,学習手法としてSVMを使った場合の誤りであり,他の手法を用いた場合には誤りにならないこともある.ここでは最大エントロピー法(ME),NaiveBayes法(NB),決定リスト(DL),及び最大頻度語義(MFS)の4つを試した.まず各手法のSemEval-2のデータに対する正解率を\mbox{表\ref{shin-tab-1}}に示す.\begin{table}[b]\caption{各手法のSemEval-2の正解率(\%)}\label{shin-tab-1}\input{01table06.txt}\end{table}\begin{table}[b]\caption{手法間の差分}\label{shin-tab-2}\input{01table07.txt}\end{table}SVMが最も正解率が高いが,他の手法の正解の事例を完全にカバーしているわけでない.\mbox{表\ref{shin-tab-2}}に正解の事例の差分を示す.\mbox{表\ref{shin-tab-2}}は行が誤りを,列が正解を表している.例えば行(\mbox{NB-×}),列(\mbox{ME-○})の要素は98であるが,これはNBで誤りであった事例のうちMEでは正解であった事例数が98存在したことを意味する.\mbox{表\ref{shin-tab-2}}から分かるように,手法Aが手法Bよりも正解率が高いからといって,必ずしも,手法Bが正解していた事例すべてを手法Aが正しく識別できる訳でない.これは手法を選択した際に生じる副作用であり,誤りの1つの原因であると考えられる.そして,ここではSVMでは誤りだが,他の2つ以上の手法で正解となっていた誤りの事例を「手法の問題」(記号4)と判定した.表\ref{shin-tab-2}はSemEval-2のデータ全体での事例数を示している.2つ以上の手法で正解であった事例の数は198であったが,誤り分析の対象とした50事例に限れば8事例が該当した.これらを「手法の問題」と分類した.\subsubsection{意味の問題}語義曖昧性解消の問題設定自体に誤りの原因があると考えられるものを「意味の問題」と判定した.この下位分類として(a)辞書の語義が似ていて識別困難(記号1-a),(b)深い意味解析が必要(記号1-b),(c)表現自体からしか識別できない(記号1-c),及び(d)テスト文の問題(記号1-d),の4つを設けた.語義曖昧性解消の問題設定では,対象単語の語義が固定的に与えられる.ある対象単語が持つ複数の語義は,明確に異なる場合もあるが,非常に似ている場合もある.もしある語義s1とs2が非常に似ている場合,それらを区別することは明らかに困難であり,それらを取り違えた誤りの原因は,問題自体の困難性から生じていると考えた.このようなタイプの誤りを「(a)辞書の語義が似ていて識別困難」とした.例えば事例27は対象単語「強い」の語義34522-0-0-1「積極的に働く力にあふれている.」と語義34522-0-0-2「抵抗力に富み,簡単には壊れたりくずれたりしない.」を区別する問題だが,どちらの語義も互いの意味を想起させるため,意味的に非常に似ていると判断した.上記の(a)のタイプであっても深い意味解析が可能であれば解決できるものを「(b)深い意味解析が必要」とした.例えば事例1は対象単語「相手」の語義117-0-0-2「物事をするとき,行為の対象となる人.」と語義117-0-0-3「自分と対抗して物事を争う人.」を区別する問題である.「争う人」も「行為の対象となる人」であることは明かであり,意味的には非常に近く(a)である.ただしその「行為」が「争い」なのかどうかを深い意味解析で判断できれば解決できるため,「(b)深い意味解析が必要」のタイプと判定した.(a)のタイプでかつ(b)であるかどうかは,「深い意味解析」の深さの度合いである.技術的に可能なレベルの深さと思えれば(b)をつけた.次に「(c)表現自体からしか識別できない」のタイプであるが,これは語義曖昧性解消の問題として不適と思えるものである.例えば慣用表現中の単語に語義が存在していると考えるのは不自然である.また語義曖昧性解消の問題では,対象単語が自立語であることは暗黙の了解である.つまり単語の品詞自体が名詞や動詞であっても,その単語が機能語に近いものであれば,語義曖昧性解消の問題として不適と考えられる.このようなタイプの誤りを「(c)表現自体からしか識別できない」とした.例えば事例21の対象単語「する」,事例48の対象単語「やる」を,このタイプの誤りとした.最後に「(d)テスト文の問題」のタイプであるが,これは単純にテスト文に手がかりとなる単語がほとんどないために誤るものである.これは「意味の問題」ではないが,問題設定自体に誤りの原因があると捉え,この範疇に含めた.例えば事例10の「*教え*て下さい.」などがこのタイプの誤りである.\subsubsection{知識の問題}語義曖昧性解消を教師あり学習により解決するアプローチをとった場合,前述した「手法の問題」「意味の問題」以外の誤りの原因は,システムに何らかの知識が不足していたためと考えられる.そこで「手法の問題」「意味の問題」以外の誤り原因を「知識の問題」と判定した.不足している知識(解決のために必要としている知識)としては,現状のシステムの枠組みから考え,(a)その表現自体が訓練データに必要(記号2-a),(b)周辺単語に同じ単語が必要(記号2-b),及び(c)周辺単語に類似単語が必要(記号2-c),の3つを設定した.例えば事例9の「…待ち伏せて詫びを*入れる*振りをしながら…」の「入れる」の語義の識別には「詫びを入れる」が訓練データに必要と考え,「(a)その表現自体が訓練データに必要」と判定した.また事例30の「…朝日新聞からの国際*電話*に対して…」の「電話」の語義の識別も「国際電話」が訓練データに必要だと考えた.また事例32の「どうすればくもりを*取る*ことが出来ますか?」の「取る」の語義は単語「くもり」が対象単語の周辺に存在することが必要と考え,「(b)周辺単語に同じ単語が必要」と判定した.(a)との差異は少ないが,(a)は慣用表現に近い表現であり,単語間に別の単語が挿入できない,態が変化できない,などの特徴があるが,(b)は「くもりをきれいに取る」や「きれいに取ったくもり」という表現が可能であり,慣用表現とは異なると考えた.また事例45の「…患者はどこの病院でも*診*て貰えない…」の「診る」の語義は対象単語の周辺に「病院」と類似の単語が存在することが必要だと考え,「(c)周辺単語に類似単語が必要」と判定した.\subsubsection{領域の問題}語義曖昧性解消の誤りは上記までの項目のいずれかに該当すると考えられるが,特殊なケースとして訓練データのコーパス内にはまれにしか出現しない表現が,テストデータとして出現したために生じる誤りが存在する.これは領域適応の問題であり,教師あり学習により問題解決を図った場合に必ず生じる問題である\cite{da-book}.この原因の誤りを「領域の問題」と判定した(記号3-a).例えば事例4や事例42はテスト文が古文であり,学習の対象であった領域とは異なっている.このような誤りを「領域の問題」と判定した.\subsection{藤田の分析:素性に着目}\label{sec:fujita}まず,採用した誤り分析の考え方について述べる.教師あり学習の場合,適切なラベルと素性を得ることができればほぼ正しく識別可能だと考えられる.適切な素性があるにも関わらず誤りになる場合,素性に付与する重みが適切ではないなど,学習器側の問題だと考えることができる.そこで,当初は,適切な素性があるかどうか,あるならば,素性に対する重みの付与などが適切かどうかを調査することを考えた.ただし,そもそも適切な素性が得られていないものが大半だったため,最終的には重みの適切さについての詳細な調査は行わず,素性を増やした場合でも誤りとなる事例について,原因と対処方法について考察した.以下,\ref{sec:fujita-feas}節では,分析対象の50事例に対して,素性の重なりに着目した分析を示す.さらに,\ref{sec:fujita-mhle}節では,自前の語義曖昧性解消システムを用いて分析対象の50事例の語義識別を行い,そのシステムでも誤りとなった16事例についての詳細な分析結果を示す.最後に~\ref{sec:fujita-matome}節で,語義曖昧性解消というタスクを考える上で,今後考えるべき問題点について考察する.\subsubsection{素性の重なりの調査}\label{sec:fujita-feas}まず,分析用システムの出力語義(以下,\SYS{})と正解語義(以下,\COR{})が付与された訓練データから得られる素性と,対象のテスト文から得られる素性の重なりを調査した.例えば,\eid{13}の場合,対象テスト文の19種類の素性のうち,10種類は\SYS{}と\COR{}の両方の訓練データに出現し,8種類は両方に出現しない.差がある素性は,1種類(`e17=11950',2語前の分類語彙表の値)のみであり,これは,\SYS{}の訓練データのみに出現している.つまり,\COR{}にのみ出現するような特徴的な素性は得られていないことがわかる.\COR{}の訓練データにだけ存在する(手がかりになる可能性が高い)素性が存在するかどうかに着目すると,分析対象とした50事例のうち,\COR{}の訓練データにだけ出現する素性があるテスト文は17事例(34\%)\footnote{このうち,\ref{sec:fujita-mhle}節でも誤りとなったのは,3事例(\eid{24,42,47})だった.}であり,そうした素性がないテスト文が33事例(66\%)を占めた.素性の不足に対応するには,学習データ自体を何らかの方法で増やすか,学習データが変わらない場合には,利用する素性を増やす必要がある.分析用システムでは,与えられた訓練データだけを用いており,利用している素性も比較的少ない.しかし,\eid{13}の場合でも,同一文中に「ライン」や「経験」など,他に素性として有効そうな語があることから,ウインドウ幅を広げたり,Bag-of-words(BOW)を利用することでも正解となる可能性がある.また,分析用システムでは,辞書の例文を訓練データとして利用していないが,例文は重要な手がかりであり,簡便に追加できる訓練データとなり得る.そこで,次節では,例文などを訓練データに用いた自前のシステム(\cite{Fujita:Fujino:2013}.以降,このシステムを「藤田のシステム」と呼ぶ.)の結果と比較し,両方で共通する誤り事例に対して,誤り分析を行う.\subsubsection{共通の誤り事例}\label{sec:fujita-mhle}まず,\SF{}の概要を説明する.\SF{}は,2段階に分けられる.Step-1では,語義が付与されていない生コーパスの中から辞書の例文を含む文を抽出し,ラベルありデータとして自動獲得する.例えば,語義15615-0-0-2の例文「工事{\bf現場}」を含む文として,例(\ref{s:genba})\footnote{日本経済新聞1999年版より抜粋}のような文をラベルありデータとして利用できる.特に人間用の紙の辞書の場合,省スペース化のため,例文は非常に短いことが多い.Step-1では,例文だけをラベルありデータとして追加するより,より長くて情報量の多い文を自動獲得できることが利点である.\begin{exe}\ex\label{s:genba}足場などを組み合わせて建設\ulf{工事{\bf現場}}や各種工場のラインをつくる。\end{exe}Step-2では,ラベルありデータとラベルなしデータを訓練データとして,半教師あり学習法(ハイブリッド法,{\itMaximumHybridLog-likelihoodExpectation:}\MHLE,\cite{Fujino:Ueda:Nagata:2010})を適用する.\MHLE{}では,ラベルありデータで学習させたMEモデル(識別モデル)とラベルなしデータで学習させたNBモデル(生成モデル)を統合して分類器を得る.素性は,分析用システムで利用している素性以外に,各語の原形,前後3語以内のbigrams,trigrams,skipbigrams,各対象語と同一文内に出現する全内容語の原形,トピック分類の結果\footnote{Gibbsサンプリングを用いたトピック分類(http://gibbslda.sourceforge.net/)を行い,分類されたトピック番号を利用.}を利用している.ただし,係り受け情報(e16)と分類語彙表の値(e17--e20)は利用していない.もちろん,\SF{}を利用した場合,正解になるばかりではなく,逆に分析用システムでは正解だったテスト文が不正解になる場合もあるが,本節では両者の共通の誤り事例を取り上げる.分析対象の50事例の内,\SF{}でも誤った事例は16事例であった.その分析結果を表~\ref{tab:fujita-16}に示す.\begin{table}[b]\caption{共通した誤り事例の分析}\label{tab:fujita-16}\small\input{01table08.txt}\end{table}表~\ref{tab:fujita-16}から,[A][B]は両手法で解くことは困難だと考えられる.[C][D]は素性の問題だが,[C]の場合は,両手法で採用していない項構造解析(SemanticRoleLabeling,SRL\cite{srl})を正しく行うことができれば,正解となる可能性がある.なお,これらの対象語はすべて動詞であり,動詞の\WSD{}には,SRLが特に重要であることがわかる.ただし,係り受け解析誤りも含まれる誤り事例については,係り受け解析の精度向上により正解できる可能性もある.一方,[D]の場合,利用した素性が不適切だったり,少なすぎたと考えられるので,適切な素性を取り出したり,利用素性を増やすことで正解できる可能性がある.しかしながら,[D]は\SF{}でも誤りとなっている.[D]の誤り事例について,\pagebreak\ref{sec:fujita-feas}節と同様,\SF{}で得られた素性の重なりを調べると,訓練データの追加\footnote{ただし,追加されたラベルありデータは\eid{39}の場合で3文,そのうち\COR{}にあたるものは1文,\eid{41}の場合で57文,そのうち\COR{}にあたるものは4文だった.}とBOW等の利用にも関わらず,少なくともラベルありデータにおいて,\COR{}にのみ出現した素性はなく,逆に\SYS{}にのみ出現した素性があるという結果だった.なお,両誤り事例とも,\COR{}の語義は元の訓練データにも,それぞれ1回と4回しか出現しない低頻度語義である.両対象語は,語義の頻度分布のエントロピー($E(w)=-\sum_{i}^{}p(s_{i}|w)\log{p(s_{i}|w)}$.ここで,$p(s_{i}|w)$は,単語$w$の語義が$s_i$となる確率.\cite{Shirai:2003j})による難易度分類では,低難易度の語に分類される.つまり,ある語義が圧倒的に多く出現するため低難易度の語に分類されるが,そうした語の低頻度語義の識別の難しさを示している.\subsubsection{考察}\label{sec:fujita-matome}前節の分析結果をふまえ,重要だと考える点について考察する.まず,従来の\WSD{}の問題設定で今後取り組むべき課題として,以下の項目を上げる.\begin{enumerate}\itemデータの質の向上:人手作成データの一貫性の担保が必要.(表~\ref{tab:fujita-16},[A])\item素性の追加:特に動詞について,係り受け精度の向上や項構造解析の組み込みが必要.(表~\ref{tab:fujita-16},[C])\itemラベルありデータの追加等:特に低頻度語義に対して対処方法の考案が必要.(表~\ref{tab:fujita-16},[D])\end{enumerate}また,今後の方向性として,現在の\WSD{}の枠組みにこだわらず,他のタスクでも利用されるには,どういった語義,どういった粒度で識別すべきか検討することが重要だと考える.特に,そもそも人間にとっても識別が困難な語義(表~\ref{tab:fujita-16},[B])の推定が必要なのか,アプリケーションや領域によって必要とされる語義の粒度や種類が異なるにも関わらず,一律に扱ってよいのかどうか,といった点を考慮すべきだと考えている.\subsection{佐々木の分析:パターンの差異に着目}まず,ここでの誤り分析の考え方について述べる.注目したのは訓練データから得られるパターンとテスト事例から得られるパターンとの差異である.ここでいうパターンとは対象語の周辺に現れる素性(単語や品詞など)の組み合わせを指している.一般に教師あり学習では,訓練データから得られるパターンの集合とテスト事例から得られるパターンとの比較によって識別処理が行われる.つまり誤りの原因はパターンの差異から生じると考えられる.そして,その差異の原因として以下の2点に注目して誤り分析を行った.\begin{itemize}\item[(1)]訓練データに不足しているパターン\item[(2)]訓練データから抽出される不適切なパターン\end{itemize}(1)はテスト事例のパターンが訓練事例に含まれないことから生じる誤りに対応する.(2)は識別に有効そうなパターンが訓練事例に存在しているにも関わらず生じている誤りに対応する.(2)は適切なパターンを抽出できていないことが原因だと考えた.\begin{table}[b]\caption{誤り原因のタイプ分類と出現数}\label{tab:sasaki_error}\input{01table09.txt}\end{table}作成した誤り原因のタイプ分類を表\ref{tab:sasaki_error}に示す.分析対象の50事例に表\ref{tab:sasaki_error}のタイプを付与するが,ここでは重複も許すことにした.以下,各誤り原因について述べる.「構文情報の不足」はテスト事例の文の構造の情報を捉えていないことを表す.例えば,対象単語を含む単語間の係り受け関係を考慮した素性の不足,格関係のような文の意味的構造を表現した素性の不足などが挙げられる.「考慮する単語の不足」は語義を識別できる特徴的な共起単語が少ないことを表す.テスト事例において対象単語の前後に出現する共起単語や訓練事例に出現する共起単語の特徴では語義を識別することが難しい場合をこのタイプの誤りとした.「パターンの一部が不足」は品詞情報など,単語表層以外の特徴的な情報が不足していることを表す.語義を識別できる特徴には名詞や動詞などの特徴的な単語だけではなく,接続する品詞によって語義が決定する場合もある.助詞や助動詞といった品詞を含むパターンが大きく影響して誤りとなる場合をこのタイプの誤りとした.「概念情報の不足」は手がかりとして使う単語の上位・下位関係にある単語を利用していないことを表す.テスト事例において対象単語の前後に出現する共起単語に対し,単語を表層形で利用すると訓練事例の単語と一致しないが,外部辞書として概念体系を使うと同じ概念として一致する場合がある.同じ概念ではあるが概念体系を利用していないために誤って識別する誤りをこのタイプとした.「表記のずれ」は訓練事例に識別のためのパターンは存在するが,異表記が原因で誤ったタイプである.「文が短く,手がかりがない」は文が短く,特徴が捉えにくいことを表す.「再実験では正解した例」は誤り事例集合作成時は異なる語義に分類されたが,再実験を行った結果正しく分類された事例を表す.2節の実験ではlibsvmのdefaultのパラメータ設定を採用したので,モデルの複雑度を調節するコストはC=1,学習を止める停止基準値はeps=0.001としていたが,C=5及びeps=0.1と設定して再実験したところ,いくつかの誤り事例に対して正解が得られた.このようにSVMの学習パラメータの変更によって語義を正しく識別できた事例の誤り原因は「再実験では正解した例」としてまとめた.次に,ここで行ったいくつかの誤り分析の例を示す.最も出現数の多い「パターンの一部が不足」の例として,「早く元気な顔を見せて*あげる*事ですね.」を見てみる.「見せてあげる」と同様の「〜してあげる」というパターンが訓練事例に存在していれば適切に識別できると考えられる.しかし,訓練事例にはそのようなパターンの事例は存在しなかった.その一方で,「あげる事です」に対応する「あげる+普通名詞+助動詞」のパターンが異なる語義の事例として存在するために,この用例は誤った語義に識別されたと思われる.「考慮する単語の不足」の例として,「…発音を*教え*てください…」を見てみる.この事例の正しい語義は「知識や技能を身につけるように導く」であり,「〜てください」のパターンが識別に有効そうであるが,誤って識別した語義「知っていることを告げ示す」と共起単語を比較した結果,どちらの語義でもこのパターンが生じていた.このパターン以外に識別に有効そうな素性は存在していないため,結果的に誤っている.このような問題に対処するには,訓練事例数を数多く用意し,「教える」の前に接続する単語の種類を揃える必要があると考える.「概念情報の不足」の例として,「…悲鳴を*あげ*ながらずんずん進んだ…」がある.この事例の正しい語義は「勢い・資格・価値・程度を高める.」である.辞書にはこの語義の用例として「声を(高く)出す.」があるため,この語義が正解であることは明らかである.しかし,分析用システムは「取り出して言う.」と誤って識別した.正しい語義の訓練事例には「声」,「叫び声」,「歓声」といった声に関連する単語が含まれているため,テスト事例の「悲鳴」も含めて同じ「声」の概念として捉えることができれば識別可能だったと考えられる.「表記のずれ」の例として,「落札する前に聞いた方が*いい*ですか?」がある.訓練事例には正しい語義の事例で「ほうがいいです」との表記を持つものがあり,テスト事例の「方」をひらがなの「ほう」に変更して識別を行うと適切に語義を識別することができた.このように,異表記を正しく解析できないために誤ることもある.\subsection{古宮の分析:最大頻度語義と素性に注目}\begin{table}[b]\caption{古宮による誤り原因のタイプ分類とその出現数}\label{tab:komiya}\label{komiya1}\input{01table10.txt}\end{table}機械学習の観点から誤りの原因の分析を行った.具体的には,訓練事例中の最頻出語義(MostFrequentSense,以下MFS)の割合や,テスト事例と訓練事例の間の素性の違いと共通性を見ることで,機械学習の特質から説明できる誤りを主に分析した.分析の結果を表\ref{tab:komiya}に示す.なお,「MFSに誤分類」の2つの分類(表\ref{komiya1}のMと(M))には重複して分類されることはないが,これらと「テスト事例の素性が訓練事例の素性と等しい」(表\ref{komiya1}のF)と「分からない,自信がない」(表\ref{komiya1}の?)については重複して分類されることがある.ここでの分析では,まず,MFSに注目した.分析用システムの識別結果がaであり,それが誤りであった場合,aは対象単語のMFSである可能性が高いと考えたためである.そこで,「MFSに誤って分類された」事例と,そうでない事例の分類を行った.すると,分析対象の50事例中の32事例が「MFSに誤って分類された」事例であることが分かった.更に,「MFSに誤って分類された」事例の中で,MFSと第二位の比率を持つ語義(第二語義)との訓練事例数の差が小さい(4以内の)ものが5事例であり,残りの27事例は,MFSと第二語義との訓練事例数の差が大きい(8以上の)ものであった.なお,差が5から7の事例は存在しなかった\footnote{また,残りの18事例のうち,二値分類ではない事例が12事例あったが,そのうちの9事例が第二語義に識別されていた.}.例えば,最も顕著な例は対象単語の「場所」である.「場所」の50個の訓練事例のうち,49事例が語義41150-0-0-1(ところ)であり,語義41150-0-0-2(居るところ)は1事例しかなかった.その結果,「場所」のテスト事例はすべて語義41150-0-0-1と識別されており,テスト事例中に2つあった語義41150-0-0-2は誤りとなっていた.このことから,誤りの原因として,機械学習の特質により,MFSに誤って分類されるということが大きいことが分かる.また,この例にも見られるように,今回の分析で用いた訓練事例の少なさから,少量の事例しか持たない語義は十分に学習ができていないことがあったと思われる.次に,テスト事例の素性が訓練事例の素性と等しいことで,誤っている事例を目視で探した.例えば,「意味」の事例の一つ,「…これらの単語で*意味*が通じるよ…」の「意味」(正解は語義2843-0-0-1(その言葉の表す内容.意義.))は,「対象の単語の一つ後の形態素」が「が」である,という素性が強く働いたためであると思われる.この素性は語義2843-0-0-3(表現や行為のもつ価値.意義.)に頻出していたことから,語義2843-0-0-3に誤って識別されている.この例は,語義2843-0-0-3として訓練事例にあった「意味がある」「意味がない」に「意味が通じる」という表現が少し似ていた,と見ることができる.このようなものは22事例あった.このように表現の類似性は,実際に語義曖昧性解消の手掛かりともなるが,逆に誤りの原因ともなっている.なお,このような,素性が誤りの原因と思われる事例に対しては,「F」を付与した.また,訓練事例中に何度も現れる顕著な素性ではない場合には,素性が強く働いたかどうか分からないため,「F」とともに「?」も付与した.さらに,これらの観点から分類が難しかったものに対しては,単独で「?」を付与した.また,他にも,ここでの誤り分類のタイプには含めなかったが,この素性が訓練事例にあれば識別可能だと思われる素性が,訓練事例にない場合が2つ存在した.一つは,「…早く元気な顔を見せて*あげる*事ですね…」であり,正解は語義545-0-3-2(敬語としての用法)だが,手掛かりとなりそうな「ひとつ前の形態素が『て』である」という素性が訓練事例には存在しなかった.また,「…ええ水をお*あたえ*くださいませ…」の正解は語義755-0-0-1(自分の物を他人に渡し,その人のものとする.)であり,この「おあたえくださる」という表現は典型的であると思われるが,訓練事例に「与えてください」のように「与える」と「くださる」の間に「て」をはさむ用法はあっても,このような用法は存在しなかった.最後に,分類語彙表の値に曖昧性があり,本来の意味ではない値が付与されていたために,誤った事例が1つあった.「…凝固する際に*出る*熱を冷やしているから…」という用例で,これは,「〜(の)際(さい)」という表現が「きわ」として誤って解析されたために誤った例である.「出る」の訓練事例には「きわ」と同じ意味分類を持つ「外」などを2つ前の形態素にもつ事例が2つあった. \section{クラスタリングを用いた分析結果の統合} \subsection{誤り原因のクラスタリング}前掲の\mbox{表\ref{kekka-all}}が各自の分析結果である.誤り分析の次のステップとしては,これらを統合し,各人が同意できる統一した誤り原因のタイプ分類を作成し,それに対する考察を行う必要がある.しかし各自の分析結果を統合する作業は予想以上に負荷が高かった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.また統合の処理を議論によって行う場合,結果的に誰かの分析結果をベースに修正していく形になってしまう.誰の分析結果をベースにすればよいかも正解はなく,しかもある人の分析結果をベースにした時点で,他の人の分析結果に含まれるかもしれない重要な情報を捨ててしまう危険性もある.つまり分析者全員が同意できるような誤り原因のタイプ分類を,グループ内の主観に基づく議論のみから作成するのは,負荷が高い作業になってしまう.このような背景から,我々は各自の誤り原因を要素とする集合を作り,それをクラスタリングすることで,ある程度機械的な誤り原因のタイプ分けを試みた.クラスタリングでは分析者全員の分析結果を公平に扱っている.またクラスタリングによって作成できた誤り原因のタイプ分類は各人のタイプ分類を代表しているタイプ分類になっていることが期待できる.結果として,このようなアプローチで作成した誤り原因のタイプ分類は,各分析者が同意できるものとなり,しかも統合作業の負荷を大きく減らすことができると考えた.各自の分析では分析対象の50事例に対して,各自が設定した誤り原因の記号を付与している形になっている.見方を変えて各自が設定した誤り原因の記号の1つ1つに注目すると,50個の対象事例のどの事例がその誤り原因に対応しているかを見ることができる.対応する事例に1を,対応しない事例に0を与えれば,誤り原因は50次元のベクトルに変換することができる.そしてこのベクトルの距離が近いほど誤り原因の意味が近いと考えることができるため,ベクトルに変換した誤り原因のクラスタリングが可能となる.まず各自の誤り原因を取り出すと,全部で75個存在した.この75個の誤り原因がクラスタリングの対象である.処理のために各誤り原因にID番号を付与した.また誰が設定した誤り原因かがわかりやすいように,番号には各人を表す記号を前置している.m-は村田,sr-は白井,fk-は福本,sn-は新納,fj-は藤田,ss-は佐々木,k-は古宮を意味する.この誤り原因とID番号との対応は付録2に記した.また付録2には誤り原因の意味(簡単な説明)も付与している.以後,誤り原因に対してはこのID番号によって参照することにする.75個の各誤り原因を50次元のベクトルに変換し,そのノルムを1に正規化した後にWard法によりクラスタリングを行った\cite{shinnou-r-book}.このクラスタリング結果であるデンドログラムを\mbox{図\ref{cl-kekka}}に示す.\begin{figure}[b]\begin{center}\includegraphics{22-5ia1f2.eps}\end{center}\caption{クラスタリング結果}\label{cl-kekka}\end{figure}\subsection{クラスタの抽出}誤り原因の総数が75個,分析者が7人であり,その平均から考え,誤り原因は10個前後に設定するのが適切だと考えた.そこで\mbox{図\ref{cl-kekka}}のデンドログラムから目視により,\mbox{図\ref{cl-ext}}に示すAからMの13個のクラスタを取り出した.各クラスタに含まれる誤り原因のID番号を\mbox{表\ref{cls-nakami}}に示す.またクラスタ内の各誤り原因には対応する事例が存在するので,その総数と種類数も\mbox{表\ref{cls-nakami}}に示す.\begin{figure}[t]\begin{center}\includegraphics{22-5ia1f3.eps}\end{center}\caption{クラスタの設定}\label{cl-ext}\end{figure}\begin{table}[t]\caption{クラスタ内の誤り原因と対応する事例数}\label{cls-nakami}\input{01table11.txt}\end{table}\subsection{各自の分析結果の統合}\label{type-wake}クラスタリングによりAからMの13個のクラスタを取り出した.次に各クラスタに意味を与える必要がある.この意味を与えることで各自の分析結果の統合が完成する.ただし各クラスタに正確に1つの意味を与えることは困難である.通常,クラスタにある意味を設定した場合,クラスタ内にはその意味とは異なる要素が含まれることが多い.ここでは各クラスタ内の要素(誤り原因)を精査し,その意味を設定する.意味を割り当てることができたクラスタが統合版の誤り原因となる.次にその意味から考え,不適な要素を省いたり別クラスタに移動させたりすることで,最終的な統合を行う.\subsubsection{クラスタの意味の付与とクラスタの合併}クラスタに意味を付与するには,クラスタ内の類似している要素に注目し,それらの共通の意味を抽出することで行える.この段階で意味が同じクラスタは合併することができる.以下,各クラスタについてその内容を表にまとめる.その表の「注目」の列に``○''がついているものが意味付けを行うために注目した要素である.\begin{description}\item[クラスタA:【削除】]\end{description}クラスタAの内容は以下の通りである.意味付けは困難でありこのクラスタは削除する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{63}&1&&\et{63}\\\ei{11}&1&&\et{11}\\\ei{17}&1&&\et{17}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタB:テスト文に問題あり]\end{description}クラスタBの内容は以下の通りであり,意味は「テスト文に問題あり」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{8}&1&○&\et{8}\\\ei{57}&1&○&\et{57}\\\ei{49}&2&○&\et{49}\\\ei{70}&3&○&\et{70}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタC:【削除】]\end{description}クラスタCの内容は以下の通りである.意味付けは困難でありこのクラスタは削除する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{21}&1&&\et{21}\\\ei{9}&4&&\et{9}\\\ei{48}&3&&\et{48}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタD:【削除】]\end{description}クラスタDの内容は以下の通りである.意味付けは困難でありこのクラスタは削除する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{34}&1&&\et{34}\\\ei{69}&3&&\et{69}\\\ei{45}&1&&\et{45}\\\ei{50}&4&&\et{50}\\\ei{30}&1&&\et{30}\\\ei{73}&5&&\et{73}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタE:シソーラスの問題]\end{description}クラスタEの内容は以下の通りであり,意味は「シソーラスの問題」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{41}&\phantom{0}3&○&\et{41}\\\ei{4}&\phantom{0}5&○&\et{4}\\\ei{60}&\phantom{0}1&&\et{60}\\\ei{36}&11&&\et{36}\\\ei{52}&11&○&\et{52}\\\ei{68}&19&○&\et{68}\\\ei{31}&\phantom{0}6&○&\et{31}\\\ei{10}&\phantom{0}4&&\et{10}\\\ei{16}&\phantom{0}1&&\et{16}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタF:学習アルゴリズムの問題]\end{description}クラスタFの内容は以下の通りであり,意味は「学習アルゴリズムの問題」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{27}&\phantom{0}5&○&\et{27}\\\ei{54}&\phantom{0}8&○&\et{54}\\\ei{74}&12&○&\et{74}\\\ei{20}&\phantom{0}3&&\et{20}\\\ei{71}&\phantom{0}5&○&\et{71}\\\ei{1}&10&&\et{1}\\\ei{39}&14&&\et{39}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\ei{74}(\et{74})に``○''を付けている.\ei{74}は古宮が設定した分類である.古宮の分類観点を見ると,\ei{74}が付けられた事例はMFSの観点あるいは素性の様子からでは誤りの原因が特定できないものであることがわかる.これは分析用システムで利用したSVMによる影響と見なせる.そのため\ei{74}も「学習アルゴリズムの問題」と見なした.\begin{description}\item[クラスタG:訓練データの不足]\end{description}クラスタGの内容は以下の通りであり,意味は「訓練データの不足」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{28}&\phantom{0}2&&\et{28}\\\ei{35}&\phantom{0}1&&\et{35}\\\ei{43}&\phantom{0}1&&\et{43}\\\ei{51}&\phantom{0}9&○&\et{51}\\\ei{2}&19&○&\et{2}\\\ei{75}&22&&\et{75}\\\ei{13}&13&○&\et{13}\\\ei{55}&32&○&\et{55}\\\ei{67}&26&○&\et{67}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\ei{55}(\et{55})に``○''を付けている.藤田のシステムは訓練データを拡張した手法である.そのシステムで正解となったということで,その誤りの原因を「訓練データの不足」と見なした.\begin{description}\item[クラスタH:共起語の多義性]\end{description}クラスタHの内容は以下の通りであり,意味は「共起語の多義性」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{22}&1&○&\et{22}\\\ei{42}&1&○&\et{42}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタI:構文・格・項構造の素性不足]\end{description}クラスタIの内容は以下の通りであり,意味は「構文・格・項構造の素性不足」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{15}&1&○&\et{15}\\\ei{58}&2&○&\et{58}\\\ei{59}&3&○&\et{59}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタJ:データの誤り]\end{description}クラスタJの内容は以下の通りであり,意味は「データの誤り」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{32}&2&○&\et{32}\\\ei{6}&2&○&\et{6}\\\ei{61}&1&○&\et{61}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタK:深い意味解析が必要]\end{description}クラスタKの内容は以下の通りであり,意味は「深い意味解析が必要」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{29}&\phantom{0}2&&\et{29}\\\ei{19}&\phantom{0}2&&\et{19}\\\ei{7}&\phantom{0}5&○&\et{7}\\\ei{56}&\phantom{0}9&○&\et{56}\\\ei{46}&14&○&\et{46}\\\ei{47}&\phantom{0}9&○&\et{47}\\\ei{37}&\phantom{0}4&○&\et{37}\\\ei{26}&\phantom{0}4&○&\et{26}\\\ei{62}&\phantom{0}1&&\et{62}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\ei{46}(\et{46})に``○''を付けている.\ei{46}は新納が設定した分類である.新納は\ei{46}と\ei{47}(\et{47})を区別しているが,そこでの説明にもあるように,これらの違いは一概に判断できない.\ei{46}のタイプの誤りのほとんどは,その文脈上で人間は語義を識別できると考え,ここではまとめることにした.また\ei{56}(\et{56})にも``○''を付けているが,これは\ei{46}あるいは\ei{47}の意味と考えられるためである.\begin{description}\item[クラスタL:【クラスタIと合併】]\end{description}クラスタLの内容は以下の通りであり,意味は「構文・格・項構造の素性不足」とした.これはクラスタIの意味と同じであり,クラスタLはクラスタIと合併する.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&\multicolumn{1}{c}{意味}\\\hline\ei{18}&\phantom{0}5&&\et{18}\\\ei{3}&\phantom{0}2&○&\et{3}\\\ei{24}&\phantom{0}5&○&\et{24}\\\ei{72}&27&&\et{72}\\\ei{65}&15&○&\et{65}\\\ei{66}&18&&\et{66}\\\ei{44}&\phantom{0}2&&\et{44}\\\ei{53}&\phantom{0}4&&\et{53}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}\begin{description}\item[クラスタM:素性のコーディングが困難]\end{description}クラスタMの内容は以下の通りであり,意味は「素性のコーディングが困難」とした.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{>{\hspace{1.5zw}}l|c|c|l}\hline\multicolumn{1}{c|}{誤り原因ID}&事例数&注目&意味\\\hline\ei{12}&\phantom{0}6&&\et{12}\\\ei{25}&\phantom{0}7&○&\et{25}\\\ei{5}&13&&\et{5}\\\ei{38}&10&○&\et{38}\\\ei{40}&\phantom{0}2&&\et{40}\\\ei{64}&\phantom{0}1&&\et{64}\\\ei{33}&\phantom{0}2&&\et{33}\\\ei{14}&\phantom{0}3&&\et{14}\\\ei{23}&\phantom{0}2&&\et{23}\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}以上より記号B,E,F,G,H,I,J,K及びMで示される9個の統合版の誤り原因を設定した(表13参照).\subsubsection{クラスタリング結果の調整}クラスタリングの対象であった75個の誤り原因のうち,統合版の誤り原因に置き換えられるものは35種類であった.残り40種類の誤り原因の中で統合版の誤り原因に置き換えられるものを調べた.基本的には各分析者が自身の設定した誤り原因の意味と統合版の誤り原因の意味を比較することで行った.結果,以下の\mbox{表\ref{okikae}}に示した11個の置き換えができると判断した.上記の調整を行った後の統合版の誤り原因は\mbox{表\ref{kekka-type2}}にまとめられる.本論文ではこれを「統合版誤り原因のタイプ分類」と名付けることにする.\begin{table}[t]\caption{統合版の誤り原因への置き換え}\label{okikae}\input{01table12.txt}\end{table}\begin{table}[t]\caption{統合版誤り原因のタイプ分類}\label{kekka-type2}\input{01table13.txt}\end{table}\subsection{事例への誤り原因のラベル付与}ここでは分析対象の50事例を統合版誤り原因のタイプ分類に基づいてラベル(記号)を付与する.まず対象事例に対する各自の分析結果である\mbox{表\ref{kekka-all}}の各記号を,統合版誤り原因のタイプ分類の記号に置き換える.次に2名以上が同じ記号を付けていた場合に,その記号をその事例に対する誤り原因とする.結果を\mbox{表\ref{kekka-all3}}に示す.「統合タイプ」の列が統合版誤り原因のタイプ分類による記号を表す.\begin{table}[p]\caption{50事例に対する統合版の誤り原因の付与}\label{kekka-all3}\input{01table15.txt}\end{table}以下に示す対象事例の25,42には記号が付与されなかった.これらの事例に対しては,誤り原因が分析者により異なり,共通した原因がなかったためであるといえる.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{c|p{364pt}}\hline事例ID&\multicolumn{1}{c}{テスト文}\\\hline25&ただ飲みすぎは神経が完全に麻痺して*立た*なくなったり、射精が出来なくなることがあるので、ほどほどに・・・。\\\hline42&千早ぶる神のみ*まへ*のたちばなももろ木も共においにける哉(倭訓栞前編十四多)\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}また\mbox{表\ref{kekka-all3}}から得られる統合版の誤り原因の事例数を大きい順に\mbox{表\ref{kekka-all4}}に示す.累積カバー率はその順位までのタイプを使って分析対象の50事例をどの程度カバーしているかを表す.\mbox{表\ref{kekka-all4}}から誤りの9割は上位3つの「G:訓練データの不足」「K:深い意味解析が必要」「E:シソーラスの問題」のいずれか,あるいはそのいくつかが原因であることがわかる.\begin{table}[t]\caption{統合版の誤り原因の事例数と累積カバー率}\label{kekka-all4}\input{01table14.txt}\end{table} \section{考察} \subsection{統合版誤り原因のタイプ分類の評価}ここでは統合版誤り原因のタイプ分類の評価を行う.本論文が目標としたタイプ分類は分析者7名のタイプ分類を代表するタイプ分類であるため,この観点から評価を行う.そのために,誤り原因のタイプ分類間の類似度を定義し,各タイプ分類間の類似度を測る.統合版誤り原因のタイプ分類がどの分析者の誤り原因のタイプ分類とも類似していれば,統合版誤り原因のタイプ分類が本論文で目標としていたタイプ分類であることがいえる.$A$と$B$を誤り原因のタイプ分類とし,$A$と$B$の類似度$Sim(A,B)$の定義を行う.$A$の要素である各誤り原因は,本論文のクラスタリングで利用したように50次元のベクトルで表現できる\footnote{\mbox{表\ref{kekka-all3}}を用いれば,統合版誤り原因のタイプ分類も同様に,その要素となっている9種類の誤り原因が50次元のベクトルで表現できる.}.そして$A$の誤り原因が$m$種類のとき,$A$は以下のような集合で表現できる.\begin{equation}A=\left\{a_1,a_2,\cdots,a_m\right\}\end{equation}同様に,$B$の誤り原因が$n$種類のとき,$B$は以下のような集合で表現できる.\begin{equation}B=\left\{b_1,b_2,\cdots,b_n\right\}\end{equation}ここで$a_i$や$b_j$は50次元のベクトルである.本論文では$Sim(A,B)$を以下で定義する.\begin{equation}Sim(A,B)=\max_{Q}\sum_{(i,j)\inQ}s(a_i,b_j)\end{equation}ここで$s(a_i,b_j)$は$a_i$と$b_j$の類似度であり,ここでは内積を用いる.また$Q$は誤り原因のラベルの対応関係を表す.例えば$A$のラベルが$\{1,2\}$であり,$B$のラベルが$\{1,2,3\}$である場合,ラベルの対応は以下の6通りが存在する.$Q$はこの中のいずれかになる.\begin{verbatim}{(1,1),(2,2)},{(1,2),(2,1)},{(1,2),(2,3)}{(1,3),(2,2)},{(1,1),(2,3)},{(1,3),(2,1)}\end{verbatim}つまり$Sim(A,B)$はラベル間の対応$Q$に基づく誤り原因間の類似度の和を意味する.問題は最適な$Q$の求め方であるが,一般にこれは組み合わせの数が膨大になるため,求めることが困難である.ここでは単純に以下の擬似コードで示される貧欲法により$Q$を求め,その$Q$を用いて$Sim(A,B)$を算出することにした.\vspace{0.5\Cvs}\begin{screen}\small\begin{verbatim}Q<-{};K<-{1,2,・・・,m};H<-{1,2,・・・,n}while((K!={})∧(H!={})){(i,j)=argmaxs(a_i,b_j)with(i,j)∈(K,H)Q<-Q+{(i,j)}K<-K-{i};H<-H-{j}}returnQ\end{verbatim}\end{screen}\vspace{0.5\Cvs}上記の疑似コードの概略を述べる.まず$A$も$B$も記号の添え字でラベルを表すことにする.$A$のラベルの集合を$K$,$B$のラベルの集合を$H$とする.各$(i,j)\in(K,H)$に対して,$sim(a_i,b_j)$を求めることで,$sim(a_i,b_j)$が最大となる$(i,j)$が求まる.これを$Q$に追加し,$K$から$i$を,また$H$から$j$を取り除く.この処理を$K$か$H$のどちらかの集合が空になるまで続け,最終的な$Q$を出力とする.またここではラベルの意味を考慮して$Q$を設定していないことに注意しておく.我々の問題ではラベルに意味が付けられている.このラベルの意味から要素間の対応を取り$Q$を設定することも可能である.しかしここではそのようなアプローチは取らなかった.つまりここでは分析者$A$が誤り原因$i$に付与した(主観的な)意味と,分析者$B$が誤り原因$j$に付与した(主観的な)意味が似ているか似ていないかは考慮せずに,$i$や$j$のラベルが付与された事例の分布のみから$i$と$j$の類似度を測っている.またここでの誤り原因のタイプ分類では,1つの事例に対して複数の誤り原因を与えることを許している.このため明らかに1つの事例に多くの誤り原因を与える方が類似度が高くなる.この問題の解消のために1つの事例に$k$個の誤り原因を与えている場合,その部分の頻度を$1/k$に修正した.さらに統合版誤り原因のタイプ分類では,事例25,42にラベルを付与していない.一方,他の分析者は「わからない」「分析していない」などのラベルも許して全ての事例にラベルを付与している.公正な評価のため,統合版誤り原因のタイプ分類による事例25,42にも便宜上「その他」というラベルを付与した.上記の処理により各誤り原因のタイプ分類間の類似度を求めた結果を\mbox{表\ref{kekka-kousatu1}}に示す.表中の各人の名前はその人の誤り原因のタイプ分類を示し,【統合】は統合版誤り原因のタイプ分類を示す.また類似度の横の括弧内の数値は,その行に注目して類似度の大きい順の順位を表す.\begin{table}[t]\caption{誤り原因のタイプ分類間の類似度}\label{kekka-kousatu1}\input{01table16.txt}\end{table}\begin{table}[t]\caption{誤り原因タイプ分類の評価結果}\label{kekka-datou-hyouka}\input{01table17.txt}\end{table}各人の縦の列の順位を足して,要素数で割った結果を\mbox{表\ref{kekka-datou-hyouka}}に示す.この値が低いほど,全体として他のタイプ分類と類似していることを示しており,統合版誤り原因のタイプ分類が最も良い値を出している.これは統合版誤り原因のタイプ分類が,分析者7名のタイプ分類を代表していることを意味し,本論文が目標としていたタイプ分類であることを示している.\subsection{統合版誤り原因のタイプ分類を利用した各人の分析結果の比較}ここでは統合版誤り原因のタイプ分類を利用して各人の分析結果の関係を考察する.各人の誤り分析に対する分析結果は,細かく見ると,誤り原因のタイプ分類の構築とそのタイプ分類に従った対象事例への誤り原因のラベル付与からなっている.各人の分析結果は誤り原因のタイプ分類が異なっているために,直接比較することはできないが,各人が設定した誤り原因を統合版の誤り原因に変換し,誤り原因のラベルを統一することで,各人の分析結果を比較できる.具体的には\mbox{表\ref{kekka-all3}}が,統合版誤り原因のタイプ分類を利用して誤り原因のラベルを統一した各人の分析結果と見なせる.ラベルが付与されていない場合は,仮想的に10番目の誤り原因のラベル「その他」が付与されていると考える.これによって\mbox{表\ref{kekka-all3}}から各人の分析結果を$50\times10$の行列として表現できる\footnote{行はその大きさを1に正規化しておく.}.行列間の距離を各行(事例)間の距離の和で定義すれば,各人の分析結果間の距離が\mbox{表\ref{each-kyori}}のように求まる.\mbox{表\ref{each-kyori}}から多次元尺度法を利用して,各人の分析結果の位置関係を2次元にマップしたものが\mbox{図\ref{tajigen-syakudo}}である.\begin{table}[b]\caption{各人の分析結果間の距離}\label{each-kyori}\input{01table18.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{22-5ia1f4.eps}\end{center}\caption{各人の分析結果の位置関係}\label{tajigen-syakudo}\end{figure}\mbox{図\ref{tajigen-syakudo}}の各人の点はほぼ均等に分布しており,各人の分析結果は互いにかなり異なることが確認できる.その上で以下の2点も認められる.\begin{itemize}\item[(a)]村田,白井,藤田,佐々木の4者の点(分析結果)は比較的近くに集まっている.\item[(b)]古宮の点(分析結果)は比較的孤立している.\end{itemize}(a)は,\mbox{表\ref{each-kyori}}から距離の近い分析者の組を順に並べると\mbox{(村田,藤田)},\mbox{(村田,白井)},\linebreak\mbox{(藤田,佐々木)},\mbox{(白井,藤田)}となっていることからも裏付けられる.また上記4者の距離が近いのは誤り原因G「訓練データの不足」の事例数のためと考えられる.以下の表は各人の分析結果に対して,誤り原因Gが与えられた事例数である.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{c|c|c|c|c|c|c}\hline村田&白井&福本&新納&藤田&佐々木&古宮\\\hline19&19&11&9&32&26&0\\\hline\end{tabular}\end{center}\vspace{0.5\Cvs}村田,白井,藤田,佐々木の4者の分析結果に誤り原因Gが与えられた事例数は,どれも比較的大きな値であることがわかる.このため4者の類似度が高くなり,比較的近くに集まったと考えられる.(b)は古宮の分析結果からほぼ明らかである.古宮の分析結果には,誤り原因F「学習アルゴリズムの問題」しか与えられていない.このため他の分析者と誤り原因の一致する事例が極端に少ない.例えば佐々木とは50事例中,誤り原因が一致するものは2つしかない.一致する事例数が少ないと距離が大きくなり,結果的に孤立した位置となる.\subsection{統合版誤り原因のタイプ分類と各人のタイプ分類の差}ここでは統合版誤り原因のタイプ分類に置き換えられなかった各人が設定した誤り原因に注目し,それらが統合版誤り原因のタイプ分類に置き換えられなかった理由を調べることで,統合版ならびに各人の誤り原因のタイプ分類の特徴を考察する.本論文ではクラスタリングを利用して各人の分析結果である誤り原因のタイプ分類を統合した.原理的には多数決と各人の設定した誤り原因の意味を勘案してタイプ分けを行ったことに相当する.統合の過程で各人の分析結果の一部は切り捨てられ,結果的に,統合版に含まれていない.具体的には付録2の表の「統合版の誤り原因」の欄が空欄になっているものがそれに当たる.「切り捨てられた」と言ってもクラスタリング結果の調整を行っているので,実際は,設定した誤り原因が統合版の誤り原因のどれにも置き換えられないと判断された結果である.各人が設定したある誤り原因がある統合版の誤り原因に置き換えられるかどうかの判断は,主観的な部分も大きく,困難である.また事例数が少ないものは,統合版の構築には影響が出ないために,無理矢理置き換えることを避けたという事情も考えられる.一方,ある誤り原因が統合版の誤り原因に置き換えられないことが比較的明らかなものも多い.これはその誤り原因が独自の観点のためである.例えば白井の\ei{28}(\et{28}),\ei{29}(\et{29}),新納の\ei{53}(\et{53}),藤田の\ei{64}(\et{64})などである.また古宮の設定した誤り原因のほとんど(4中3つ)が統合版の誤り原因に置き換えられていない.具体的には\ei{72}(\et{72}),\ei{73}(\et{73})及び\ei{75}(\et{75})である.古宮のタイプ分類は,語義曖昧性解消の問題を分類問題として一般化した上で,その現象ベースから誤りの原因を考えようとしたものであり,上記3つはどれも独自の観点と見なせる.また福本の\ei{40}(\et{40}),\ei{43}(\et{43}),\ei{44}(\et{44})及び\ei{45}(\et{45})は福本が「語義曖昧性解消タスク外の問題」と位置づけたものであり,これも独自の観点と見なせる.独自の観点とは多少異なるが,統合版の誤り原因の異なるタイプの部分的な和になっている,言わば,混合した観点も統合版の誤り原因とは異なると考えた.例えば村田の\ei{1}(\et{1})は,主に以下の2種類の誤り原因に対応する.\begin{itemize}\item[(1)]同一文内の共起語を素性に利用すべき\item[(2)]分類語彙表の分類番号の3桁や4桁も利用すべき\end{itemize}(1)は統合版誤り原因K「深い意味解析が必要」に対応し,(2)は統合版誤り原因E「シソーラスの問題」に対応すると考えられる.つまり村田の\ei{1}(\et{1})はこれらを混合した観点と言える.佐々木の\ei{66}(\et{66})の場合,テスト事例あるいは訓練事例における「単語の不足」であるため,統合版誤り原因G「訓練データの不足」と統合版誤り原因K「深い意味解析が必要」の混合した観点となっている.統合版の誤り原因に置き換えられなかった各人が設定した誤り原因のほとんどは独自の観点か混同した観点であり,しかも事例数が少ない.この点から統合版誤り原因のタイプ分類は,各人のタイプ分類を代表するタイプ分類であるだけでなく,各人が設定した誤り原因の主要部分が反映されたタイプ分類でもある.その結果,統合版誤り原因のタイプ分類は,標準的な語義曖昧性解消の誤り原因のタイプ分類になっていると考えられる.また標準的な誤りの原因のタイプ分類を定量的なデータと共に提示できた意味は大きい.語義曖昧性解消の問題に新たに取り組む者にとって,標準的な手法を用いた場合に,どのような誤りがどの程度出現するのかの目安を得られることは有益である.その上で独自の手法を考案する際,提案手法がどのような誤りの解決を狙っているのかといった研究の位置づけも明確になる点も長所である.最後に,ここで作成した統合版誤り原因のタイプ分類の問題点として,タイプの粒度の問題が存在することを注記しておく.本論文では統合版誤り原因のタイプ分類を作成するのにクラスタリングを利用している.そこではまず誤り原因のクラスタを13個作成したが(\mbox{図\ref{cl-ext}}参照),1つのクラスタに最大1つのタイプしか与えなかった.これはタイプの粒度を一定に保つために行った処置である.このためある粒度のタイプ分けは行えているが,その粒度が粗すぎることも考えられる.例えば統合版誤り原因G「訓練データの不足」と言っても,どのようなタイプの「訓練データ」なのかで詳細化できる.また統合版誤り原因K「深い意味解析が必要」も,どのような「意味解析」なのかで詳細化ができる.このような詳細化は有益であり,本研究の今後の課題と言える. \section{おわりに} 本論文ではProjectNextNLPの「語義曖昧性解消」チームの活動として行われた語義曖昧性解消の誤り原因のタイプ分けについて述べた.誤り分析の対象事例を設定し,メンバーの7名が各自誤り分析を行った.各自の分析結果はかなり異なり,それらを議論によって統合することは負荷が高いことから,ここでは各自の設定した誤り原因(計75個)を対応する事例を用いてベクトル化し,それらのクラスタリングを行うことで,ある程度機械的に統合処理を行った.クラスタリングによって統合版の誤り原因を特定し,クラスタリング結果の微調整によって最終的な誤り原因のタイプ{分類を作成した}.得られた誤り原因の主要な3つにより,語義曖昧性解消の誤りの9割が生じていることも判明した.また得られたタイプ分類はタイプ分類間の類似度を定義して考察した結果,分析者7名のタイプ分類を代表するものであることも示した.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.本研究で得られた誤り原因のタイプ分類は標準的であり,それを定量的なデータと共に提示できた意味は大きい.今後,一部のタイプを詳細化することで改善していけると考える.この点が今後の課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Fujino,Ueda,\BBA\Nagata}{Fujinoet~al.}{2010}]{Fujino:Ueda:Nagata:2010}Fujino,A.,Ueda,N.,\BBA\Nagata,M.\BBOP2010\BBCP.\newblock\BBOQARobustSemi-supervisedClassificationMethodforTransferLearning.\BBCQ\\newblockIn{\BemProceedingsofthe19thACMInternationalConferenceonInformationandKnowledgeManagement(CIKM'10)},\mbox{\BPGS\379--388}.\bibitem[\protect\BCAY{Fujita\BBA\Fujino}{Fujita\BBA\Fujino}{2013}]{Fujita:Fujino:2013}Fujita,S.\BBACOMMA\\BBA\Fujino,A.\BBOP2013\BBCP.\newblock\BBOQWordSenseDisambiguationbyCombiningLabeledDataExpansionandSemi-SupervisedLearningMethod.\BBCQ\\newblock{\BemTransactionsonAsianLanguage{\linebreak}InforamtionProcessing,AssociationforComputinngMachinery(ACM)},{\Bbf12}(7),\mbox{\BPGS\676--685}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{srl}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticLabelingofSemanticRoles.\BBCQ\\newblock{\BemComputationallinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Mihalcea\BBA\Moldovan}{Mihalcea\BBA\Moldovan}{1999}]{Mihalcea1999}Mihalcea,R.\BBACOMMA\\BBA\Moldovan,D.~I.\BBOP1999\BBCP.\newblock\BBOQAnAutomaticMethodforGeneratingSenseTaggedCorpora.\BBCQ\\newblockIn{\BemProceedingsoftheAmericanAssociationforArtificialIntelligence(AAAI-1999)},\mbox{\BPGS\461--466}.\bibitem[\protect\BCAY{村田\JBA神崎\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{2000}]{murata_msort_nlp}村田真樹\JBA神崎享子\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP2000\BBCP.\newblock意味ソートmsort—意味的並べかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例—.\\newblock\Jem{言語処理学会誌},{\Bbf7}(1),\mbox{\BPGS\51--66}.\bibitem[\protect\BCAY{村田\JBA内山\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{2003}]{Murata_murata_s2j_nlp2003_new}村田真樹\JBA内山将夫\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP2003\BBCP.\newblockSENSEVAL2J辞書タスクでのCRLの取り組み—日本語単語の多義性解消における種々の機械学習手法と素性の比較—.\\newblock\Jem{言語処理学会誌},{\Bbf10}(3),\mbox{\BPGS\115--133}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{iwakoku5}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典第五版}.\newblock岩波書店.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{Shirai:2003j}白井清昭\BBOP2003\BBCP.\newblockSENSEVAL-2日本語辞書タスク.\\newblock\Jem{自然言語処理},{\Bbf10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{S{\o}gaard}{S{\o}gaard}{2013}]{da-book}S{\o}gaard,A.\BBOP2013\BBCP.\newblock{\BemSemi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}.\newblockMorgan\&Claypool.\bibitem[\protect\BCAY{強田\JBA村田\JBA三浦\JBA徳久}{強田\Jetal}{2013}]{Goda2013}強田吉紀\JBA村田真樹\JBA三浦智\JBA徳久雅人\BBOP2013\BBCP.\newblock機械学習を用いた同義語の使い分け.\\newblock\Jem{言語処理学会第19回年次大会},\mbox{\BPGS\585--587}.\bibitem[\protect\BCAY{新納}{新納}{2007}]{shinnou-r-book}新納浩幸\BBOP2007\BBCP.\newblock\Jem{Rで学ぶクラスタ解析}.\newblockオーム社.\end{thebibliography}\appendix \section{誤り分析対象の50用例} \vspace{-0.5\Cvs}\noindent\small\scalebox{0.84}{\begin{tabular}{c|>{\hspace{1zw}}l|p{384pt}}\hline事例ID&\multicolumn{1}{c|}{SemEvalID}&\multicolumn{1}{c}{テスト文}\\\hline1&117-46&翌日の新聞は「体重六十六キロの日本人が七百三十二キロを破る」とか「六十六キロが五百七十五秒で*相手*をすべて倒した」と書き立てた。\\\hline2&545-11&早く元気な顔を見せて*あげる*事ですね。\\\hline3&545-34&海水は思ったより冷たくて、おとうさんも私も悲鳴を*あげ*ながらずんずん進んだ。\\\hline4&755-30&さらにはまた、甲の女には与え得べからざるものを乙の女に、また乙の女には*与え*得べからざるものを丙の女に、与え得るということもあろう。\\\hline5&755-48&村の人らは、お宮さんにおまいりして、「どうぞ、ええ水をお*あたえ*くださいませ」てお願いしてたんやと。\\\hline6&2843-10&脂肪を落とすという*意味*なら二の腕のみを細くするのは無理と思いますが、代謝を良くさせむくみを取るということなら何とか・・・?\\\hline7&2843-26&相手を尊重する意味でも、自己防衛の*意味*でも。\\\hline8&2843-50&エミヤのように無理して平常を装う「やせがまん」も、これらの単語で*意味*が通じるよ。\\\hline9&2998-37&十月八日の夜、清瀬の帰りを待ち伏せて詫びを*入れる*振りをしながら、マニラのバグラスの親分から託かったことがあると持ちかけた。\\\hline10&5541-15&*教え*て下さい。\\\hline11&5541-35&あれで木曜と木曜の時に手をぶらぶらさせてる時の発音を*教え*てください。\\\hline12&10703-2&レべリングは結構*技術*がいるみたいですね?\\\hline13&15615-1&入社3年目からずっと間接部門にいて*現場*(ライン)の経験も乏しいです。\\\hline14&15615-47&横浜市鶴見区内のマンションで昨年6月、男女4人の遺体が見つかった事件で、鶴見署は二十一日、*現場*で自殺した同区潮田町、配管工上原三義容疑者(当時二十四歳)を被疑者死亡のまま殺人容疑で横浜地検に書類送検した。\\\hline\end{tabular}}\clearpage\noindent\scalebox{0.84}{\begin{tabular}{c|>{\hspace{1zw}}l|p{384pt}}\hline事例ID&\multicolumn{1}{c|}{SemEvalID}&\multicolumn{1}{c}{テスト文}\\\hline15&17877-24&あとは今少子化で親が*子供*ばかりを監視し、思いどうりにしようとする事が、ある一定の年齢までは我慢できても、小学生くらいになると爆発するといわれます。\\\hline16&17877-49&《子供がおかしいと言う前に、大人は*子供*に向き合っているのか》\\\hline17&21128-3&このため、定期借地権を活用することで、初期投資や地価下落リスクなどを抑制した事業展開もみられるようになってきており、土地利用における多様な需要に応えられる環境を土地*市場*にもたらすとともに、新たな土地需要を喚起していると考えられる。\\\hline18&21128-28&この結果、かえって医師の処方を経ないで入手できる*市場*が生じている。\\\hline19&21128-45&6社と別の1社で*市場*を占有している。\\\hline20&24646-6&何か、病院と保険会社間での*情報*の行き来があるのでしょうか?\\\hline21&27236-3&したがって、アメリカのビジネスモデルと日本の従来のビジネスモデルの両方に精通していて、アメリカのモデルのアイデアをベースに*し*ながら、日本型のビジネスモデルをつくれる経営者が、日本では最も強いビジネスモデルを創造できるということになる。\\\hline22&27236-31&たいていの場合は、数回に分けてじょじょに色を薄く*し*ていく治療なので、段階的に治していきます。\\\hline23&31472-5&二十四歳頃は間接部門(総務部)が嫌でラインへの異動希望も*だし*ていましたが、その部署で6年働いた頃結婚もして子供もうまれました。\\\hline24&31472-50&いずれも耐震強度が0.5以下であることが判明し、4棟は退去勧告が*出さ*れている。\\\hline25&31640-13&ただ飲みすぎは神経が完全に麻痺して*立た*なくなったり、射精が出来なくなることがあるので、ほどほどに・・・。\\\hline26&31640-37&ところが、これまでの半導体生産方式では、ばらつき、雑音が多過ぎて誤動作してしまうため、四端子デバイスの実用化は夢と考えられたが、われわれのラジカル反応ベースの半導体生産技術の完成によってばらつき、雑音が完全に抑制できるようになったため、ようやく実用化のめどが*立っ*た。\\\hline27&34522-17&彼らによって今後、*強い*ベンチャーが続々と誕生してくる可能性が出てきた。\\\hline28&35478-23&ダムの場合はコンクリートの中に冷却水を流すチューブが縦横無尽に走っていて、コンクリートがゆっくり凝固する際に*出る*熱を冷やしているから、収縮があるレベルに抑えられ、ひびが入らないのだという。\\\hline29&35478-43&9日のニューヨーク株式市場は、高値警戒感から利益を確定するための売りが*出*て、ダウ工業株平均は7営業日ぶりに下落した。\\\hline30&35881-44&二十・三十(十四・三十)ICRCアンマン事務所のムイーン・キッシースさんは、朝日新聞からの国際*電話*に対して「今は衛星電話も含め、インターネット、無線など、バグダッドとは、すべての連絡手段が断たれている。現地からの連絡もない。医薬品を送る準備をしているが、バグダッドまでの陸路の安全が保証されれば、すぐにでも向かう予定だ」と話した。\\\hline31&37713-8&どうすればくもりを*取る*ことが出来ますか?\\\hline32&37713-22&そこで、皆様に質問ですが、ヤフオクでは出品するだけで1品ごとに手数料を*とら*れると今日友人から聞きました。\\\hline33&37713-37&もちろん白川氏が実際に経営の指揮を*とる*わけではない。\\\hline34&40289-27&待ち時間がほとんどなく、5時間の滞在で7〜8つのアトラクションに*乗れ*ました。\\\hline35&40333-17&しかも、その*場合*、講習後に大変難しい筆記試験があり、合格しなければ、免許取り消しになると交通課の方に脅かされました。\\\hline36&40699-20&側から*入っ*て、いちばん奥の、上座に当たる位置に、左から吉田松蔭、頼三樹三郎(鴨崖)…と居並び、更に西側にかけて、安政大獄で処刑された志士達、合わせて十五人、東側から南側にかけて、桜田門外で井伊直弼を襲撃した水戸藩士ら(うち一人は薩摩藩士)十八人、松蔭の墓だけ少し大きめの他、すべて同じ形、大きさの墓が整然と居流れています。\\\hline37&40699-40&、四月に*入り*芝の根が勢いよく伸びてきたことや、二月以降、同スタジアムを管理する埼玉県が芝の養生に努めたことが、改善につながったとの見方を示した。\\\hline38&41135-31&夜は粟津歓迎の柔道大会が開かれ、ブーシュ・デュ・ローヌ県の県知事やマルセイユ市長、民間及び軍隊関係のお歴々を*初め*柔道家、そして一般市民達が観戦し盛会だった。\\\hline39&41150-32&ここは、かけがえのない私の*場所*だ!\\\hline40&41912-26&知恵袋の中の回答を見ていると、「*早*過ぎる!」という方がちらほら…。\\\hline41&44126-6&*開い*たときに「請求書ご案内」が上に来るように入れます・・。\\\hline\end{tabular}}\clearpage\noindent\scalebox{0.84}{\begin{tabular}{c|>{\hspace{1zw}}l|p{384pt}}\hline事例ID&\multicolumn{1}{c|}{SemEvalID}&\multicolumn{1}{c}{テスト文}\\\hline42&48488-8&千早ぶる神のみ*まへ*のたちばなももろ木も共においにける哉(倭訓栞前編十四多)\\\hline43&49355-13&島がびっしょり濡れているようにさえ*見え*た。\\\hline44&49812-15&また、テレワークを導入した企業の二十三.一%が、テレワークは「非常に効果があった」と答え、七十二.七%の企業が「ある程度効果があった」と答えており、テレワークを導入した大半の企業が積極的な効果を*認め*ている(図表4)。\\\hline45&50038-16&けど難病患者や理解の少ない病気の患者はどこの病院でも*診*て貰えないのでしょうか?\\\hline46&51332-36&女は両手に皿を*持っ*てキッチンから出てきて、ひとつをぼくの前に、ひとつを自分の席に置く。\\\hline47&51409-24&この創造的な知識の活用能力としての「コンピテンス」をどう定義し、どう内容を定めていくかは、まだまだ議論と研究の最中で明確ではありませんが、二十一世紀の教育が「コンピテンス」と呼ばれる一般的な知的能力を*求め*て展開することは確実です。\\\hline48&52310-21&送られてきた封筒には出品者の住所氏名が書いてあるので根に持って意味もなく保管して*やり*ます。\\\hline49&52935-25&見なければ*よかっ*たです。\\\hline50&52935-41&落札する前に聞いた方が*いい*ですか?\\\hline\end{tabular}}\normalsize \section{各人の誤り原因の一覧} \noindent\small\resizebox{\textwidth}{!}{\begin{tabular}{c|c|c|c|c|p{24zw}}\hline誤り原因ID&分析者&記号&事例数&\begin{tabular}{@{}c@{}}統合版の\\誤り原因\end{tabular}&\multicolumn{1}{c}{意味}\\\hline\ei{1}&村田&f&10&&\et{1}\\\ei{2}&〃&d&19&G&\et{2}\\\ei{3}&〃&s&2&I&\et{3}\\\ei{4}&〃&t&5&E&\et{4}\\\ei{5}&〃&n&13&&\et{5}\\\ei{6}&〃&w&2&J&\et{6}\\\ei{7}&〃&p&5&K&\et{7}\\\ei{8}&〃&i&1&B&\et{8}\\\ei{9}&〃&u&4&F&\et{9}\\\ei{10}&〃&c&4&I&\et{10}\\\ei{11}&〃&r&1&M&\et{11}\\\ei{12}&白井&12&6&G&\et{12}\\\ei{13}&〃&13&13&G&\et{13}\\\ei{14}&〃&14&3&I&\et{14}\\\ei{15}&〃&15&1&I&\et{15}\\\ei{16}&〃&16&1&I&\et{16}\\\ei{17}&〃&17&1&&\et{17}\\\ei{18}&〃&18&5&&\et{18}\\\ei{19}&〃&19&2&&\et{19}\\\ei{20}&〃&20&3&&\et{20}\\\ei{21}&〃&21&1&&\et{21}\\\ei{22}&〃&22&1&H&\et{22}\\\ei{23}&〃&23&2&&\et{23}\\\ei{24}&〃&24&5&I&\et{24}\\\ei{25}&〃&25&7&M&\et{25}\\\ei{26}&〃&26&4&K&\et{26}\\\hline\end{tabular}}\clearpage\noindent\resizebox{\textwidth}{!}{\begin{tabular}{c|c|c|c|c|p{24zw}}\hline誤り原因ID&分析者&記号&事例数&\begin{tabular}{@{}c@{}}統合版の\\誤り原因\end{tabular}&\multicolumn{1}{c}{意味}\\\hline\ei{27}&〃&27&5&F&\et{27}\\\ei{28}&〃&28&2&&\et{28}\\\ei{29}&〃&29&2&&\et{29}\\\ei{30}&〃&30&1&&\et{30}\\\ei{31}&〃&31&6&E&\et{31}\\\ei{32}&〃&32&2&J&\et{32}\\\ei{33}&〃&33&2&J&\et{33}\\\ei{34}&〃&34&1&&\et{34}\\\ei{35}&福本&1-a&1&E&\et{35}\\\ei{36}&〃&1-b&11&G&\et{36}\\\ei{37}&〃&1-c&4&K&\et{37}\\\ei{38}&〃&1-d&10&M&\et{38}\\\ei{39}&〃&1-e&14&K&\et{39}\\\ei{40}&〃&2-a-i&2&&\et{40}\\\ei{41}&〃&2-a-ii&3&E&\et{41}\\\ei{42}&〃&2-a-iii&1&H&\et{42}\\\ei{43}&〃&2-a-iv&1&&\et{43}\\\ei{44}&〃&2-c-i&2&&\et{44}\\\ei{45}&〃&2-b-i&1&&\et{45}\\\ei{46}&新納&1-a&15&K&\et{46}\\\ei{47}&〃&1-b&10&K&\et{47}\\\ei{48}&〃&1-c&3&&\et{48}\\\ei{49}&〃&1-d&2&B&\et{49}\\\ei{50}&〃&2-a&4&&\et{50}\\\ei{51}&新納&2-b&9&G&\et{51}\\\ei{52}&〃&2-c&11&E&\et{52}\\\ei{53}&〃&3-a&4&&\et{53}\\\ei{54}&〃&4&8&F&\et{54}\\\ei{55}&藤田&*&32&G&\et{55}\\\ei{56}&〃&Difficult&9&K&\et{56}\\\ei{57}&〃&TooShort&1&B&\et{57}\\\ei{58}&〃&Kakari&2&I&\et{58}\\\ei{59}&〃&SRL&3&I&\et{59}\\\ei{60}&〃&BothAreOK&1&&\et{60}\\\ei{61}&〃&GuessIsCorrect&1&J&\et{61}\\\ei{62}&〃&FeaMakingError&1&&\et{62}\\\ei{63}&〃&FewFea&1&&\et{63}\\\ei{64}&〃&Ancient&1&&\et{64}\\\ei{65}&佐々木&a&15&I&\et{65}\\\ei{66}&〃&b&18&&\et{66}\\\ei{67}&〃&c&26&G&\et{67}\\\ei{68}&〃&d&19&E&\et{68}\\\ei{69}&〃&e&3&&\et{69}\\\ei{70}&〃&f&3&B&\et{70}\\\ei{71}&〃&z&5&F&\et{71}\\\ei{72}&古宮&M&29&&\et{72}\\\ei{73}&〃&(M)&4&&\et{73}\\\ei{74}&〃&?&12&F&\et{74}\\\ei{75}&〃&F&22&&\et{75}\\\hline\end{tabular}}\normalsize\clearpage\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部助手.2015年同学部教授.現在に至る.博士(工学).機械学習や統計的手法を用いた自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1997年同大学院工学研究科電子通信工学専攻博士課程修了.博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.2010年鳥取大学大学院工学研究科教授.現在に至る.自然言語処理,情報抽出の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士課程修了.同年同大学院助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授.現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会,人工知能学会,電子情報通信学会各会員.}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒.同年沖電気工業株式会社入社.総合システム研究所勤務.1988年より1992年まで財団法人新生代コンピュータ技術開発機構へ出向.1993年マンチェスター工科大学計算言語学部修士課程修了.同大学客員研究員を経て1994年より山梨大学工学部助手,2010年同学部教授,現在に至る.自然言語処理の研究に従事.理博.ACM,ACL,情報処理学会各会員.}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所研究主任.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教.2015年同准教授.現在に至る.博士(工学).自然言語処理の研究に従事.近年はCGMテキストに対する評判分析に興味をもつ.}\end{biography}\biodate\end{document}
V10N03-04
\section{はじめに} 本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法\cite{nigam00}を,SENSEVAL2の日本語翻訳タスク\cite{sen2}で出題された名詞の語義の曖昧性解消問題に適用する.その結果,通常の教師付き学習で得られる分類規則の精度を向上させ得ることを示す.自然言語処理では個々の問題を分類問題として定式化し,帰納学習の手法を利用して,その問題を解決するというアプローチが大きな成功をおさめている.しかしこのアプローチには帰納学習で必要とされる訓練データを用意しなければならないという大きな問題がある.この問題に対して,近年,少量のラベル付き訓練データから得られる分類器の精度を,大量のラベルなし訓練データによって高めてゆく教師なし学習が散見される.代表的な手法として,Co-training\cite{blum98}と,EMアルゴリズムを利用した手法\cite{nigam00}がある.Co-trainingは2つの独立した属性AとBを設定し,一方の属性Aから構築される分類器を利用して,ラベルなしデータにラベル(クラス)を付与する.その中から信頼性のあるラベルが付与されたデータをラベル付き訓練データに加える.このようにして追加されたラベル付き訓練データは,もう一方の属性Bから見るとランダムなサンプルにラベル付けされたデータとして振る舞うので,属性Bから構築される分類器の精度が高まる.これをお互いに作用し合うことで,分類器の精度が高められる.一方,EMアルゴリズムは,部分的に欠損値のある不完全な観測データ\(x_1,x_2,\cdots,x_N\)から,そのデータを発生する確率モデル\(P_{\theta}(x)\)を推定する手法である.\(P_{\theta}(x)\)は未知パラメータ\(\theta\)を含み,\(P_{\theta}(x)\)の推定は,\(\theta\)の推定に帰着される.分類問題の教師なし学習では,ラベル付き訓練データが完全な観測データ,ラベルなし訓練データがラベルを欠損値とした不完全な観測データとなる.EMアルゴリズムは,現時点での\(\theta\)を使って,モデル\(P_{\theta}(c|x_i)\)のもとでの\(\logP_{\hat{\theta}}(x_i,c)\)の期待値を取る(E-step).次に,この期待値を最大にするような\(\hat{\theta}\)を求める(M-Step).\(\hat{\theta}\)を新たな\(\theta\)として先のE-stepとM-stepを繰り返す.ここで\(c\)は欠損値となるラベルである.EMアルゴリズムはパラメータ\(\theta\)とモデル\(P_\theta(x)\)を適切に設定することで,隠れマルコフモデルや文脈自由文法のパラメータ推定,あるいは名詞と動詞間の関係クラスの教師なし学習\cite{rooth}\cite{torisawa}などに利用できる.そして,Nigamらは文書分類を題材にモデル\(P_\theta(x)\)をNaiveBayesのモデル,\(\theta\)をラベル\(c\)のもとで素性\(f\)が起る条件付き確率\(p(f|c)\)に設定することで,教師なし学習を試みている\cite{nigam00}.NigamらのEMアルゴリズムを利用した手法やCo-trainingは,どちらも本来は文書分類に対して考案されており,多義語の曖昧性解消に利用できるかどうかは明らかではない.多義語の曖昧性解消は自然言語処理の中心的な課題であり,これらの手法が適用できることが望ましい.ここではSENSEVAL2の日本語翻訳タスクで出題された名詞を題材に,EMアルゴリズムを利用した教師なし学習の手法が名詞の語義の曖昧性解消に適用可能であることを示す.翻訳タスクの出題形式はある単語\(w\)がマークされた(日本語)文書である.翻訳タスクでは予め,単語\(w\)に関するTranslationMemory(以下TMと略す)と呼ばれる日英の対訳例文の集合が解答者に配られている.そして翻訳タスクの解答形式は,出題された文書内において注目する単語\(w\)を英訳する際に利用できるTMの例文番号である\footnote{厳密には,翻訳システムも参加できるように,英訳自身を返す解答形式も認められているが,ここでは例文番号を返す解答形式のみを考える.}.つまり,翻訳タスクは単語\(w\)の訳を語義と考えた多義語の曖昧性解消問題となっている.また同時に,翻訳タスクはTMの例文番号をクラスと考えた場合の分類問題として扱える.ここで注意すべきは,翻訳タスクは訓練データを作るのが困難な点である.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語\(w\)の例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されていたとする.新たに訓練データを作成する場合,単語\(w\)を含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルを与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.このように,翻訳タスクは訓練データを新たに作るのが困難であるために,教師なし学習を適用する格好のタスクになっている.実験ではSENSEVAL2の日本語翻訳タスクで出題された全名詞20単語を用いて,本手法の評価を行う.各単語に対して,平均70事例(TMの例文も含む)からなるラベル付き訓練データと,新聞記事1年分から取り出した平均3,354事例からなるラベルなし訓練データを作成し,本手法を適用した.ラベル付き訓練データだけから学習できた決定リストの正解率は58.9\,\%(コンテストでのIbarakiの成績)であり,NaiveBayesによる分類器の正解率は58.2\,\%であった.そして本手法を用いてNaiveBayesによる分類器の精度を高めた結果61.8\,\%まで改善された.また一部,訓練データの不具合を修正することで,NaiveBayesによる分類器の正解率を62.3\,\%,決定リストでの正解率を63.2\,\%に向上できた.更に,本手法を用いてNaiveBayesによる分類器の正解率(62.3\,\%)を68.2\,\%まで高めることができた. \section{NaiveBayesによる多義語の曖昧性解消} まず,用語の混乱を避けるため,本論文で用いる「属性」と「素性」の区別をしておく.本論文では,例えば,「対象単語の直前の単語」といった識別のための観点を「属性」と呼び,属性に具体的な値が与えられたものを「素性」と呼んでいる.例えば「対象単語の直前の単語」といった属性を\verb|e1|などで表し,対象単語の直前の単語が,例えば,「日本」であった場合に,\verb|'e1=日本'|と表されたものを素性と呼ぶ.ある事例\(x\)が素性のベクトルとして,以下のように表現されたとする.\[x=(f_1,f_2,\cdots,f_n)\]\(x\)の分類先のクラスの集合を\(C=\{c_1,c_2,\cdots,c_m\}\)と置く.分類問題は\(P(c|x)\)の分布を推定することで解決できる.実際に,\(x\)のクラス\(c_x\)は以下の式で求まる.\[c_x=arg\max_{c\inC}P(c|x)\]ベイズの定理を用いると,\[P(c|x)=\frac{P(c)P(x|c)}{P(x)}\]\noindentなので,結局,以下が成立する.\[c_x=arg\max_{c\inC}P(c)P(x|c)\]ここで,\(P(c)\)は比較的簡単に推定できる.問題は,\(P(x|c)\)の推定だが,これは現実的には難しい.NaiveBayesのモデルは,この推定に以下の仮定を導入する.\begin{equation}\label{siki1}P(x|c)=\prod_{i=1}^{n}P(f_i|c)\end{equation}\(P(f_i|c)\)の推定は比較的容易であるために,結果として\(P(x|c)\)が推定できる\cite{ml-text}.NaiveBayesを使った分類がうまくゆくかどうかは,\mbox{式\ref{siki1}}の仮定をできるだけ満たすような素性を選択することである.文書分類であれば,各素性を各単語の生起に設定することで,NaiveBayesが有効であることが知られている.多義語の曖昧性解消でも\mbox{式\ref{siki1}}の仮定をできるだけ満たすような素性を選択すればNaiveBayesが利用できる.本論文では以下の4つの属性を利用することにした.\bigskip\begin{verbatim}e1:直前の単語,e2:直後の単語,e3:前方の内容語(2つまで)e4:後方の内容語(2つまで)\end{verbatim}\bigskip例えば,「胸」の語義は『体の一部としての胸』という語義と『心の中』という語義がある.そして,「その無力感は今も原告たちの胸に染み付いている」という文中の「胸」の語義は『心の中』なので,この事例のクラスは『心の中』となる.また,この文は以下のように形態素解析される.各行が分割された単語であり,第1列が表記,第2列が原型,第3列が品詞を表す.\bigskip\begin{verbatim}そのその連体詞無力無力名詞-形容動詞語幹感感名詞-接尾-一般はは助詞-係助詞今今名詞-副詞可能もも助詞-係助詞原告原告名詞-一般たちたち名詞-接尾-一般のの助詞-連体化胸胸名詞-一般にに助詞-格助詞-一般染み付い染み付く動詞-自立てて助詞-接続助詞いるいる動詞-非自立\end{verbatim}\bigskipこの結果から以下の4つの素性が抽出できる.\bigskip\begin{verbatim}e1=の,e2=に,e3={原告,たち},e4={染み付く,いる}\end{verbatim}\bigskip属性\verb|e3|と\verb|e4|の値は集合になるが,学習の際に以下のように分割して,素性として表す.\begin{verbatim}e3=原告,e3=たち,e4=染み付く,e4=いる\end{verbatim} \section{EMアルゴリズムによる教師なし学習} 分類問題の解決にNaiveBayesが使えれば,Nigamらが提案した教師なし学習が利用できる.そこではEMアルゴリズムを用いることで,ラベルなし訓練データを用いて,ラベル付き訓練データから学習された分類器の精度を向上させる.ここではポイントとなる式とアルゴリズムだけを示す\cite{nigam00}.基本となるのは,あるクラス\(c_j\)のもとで,素性\(f_i\)が発生する確率\(P(f_i|c_j)\)を求めることである.これは以下の式で求まる.この式は頻度0の部分を考慮したスムージングを行っている.\begin{equation}\label{siki6}P(f_i|c_j)=\frac{1+\sum_{k=1}^{|D|}N(f_i,d_k)P(c_j|d_k)}{|F|+\sum_{m=1}^{|F|}\sum_{k=1}^{|D|}N(f_m,d_k)P(c_j|d_k)}\end{equation}式\ref{siki6}の\(D\)はラベル付けされた訓練データとラベル付けされていない訓練データを合わせた訓練データ全体を示す.\(D\)の各要素を\(d_k\)で表す.\(F\)は素性全体の集合である.\(F\)の各要素を\(f_m\)で表す.また,\(N(f_i,d_k)\)は,訓練事例\(d_k\)に含まれる素性\(f_i\)の個数を表す.ここでの設定では,\(N(f_i,d_k)\)は0か1の値であり,ほとんどの場合0である.\(P(c_j|d_k)\)は訓練データがクラス\(c_j\)を持つ確率である.ラベル付けされた訓練データに対しては,0か1の値をとる.ラベル付けされていない訓練データに対しては,最初は0であるが,EMアルゴリズムの繰り返しによって,徐々に適切な値に更新されてゆく.式\ref{siki6}を利用して,以下の分類器が作成できる.\begin{equation}\label{siki8}P(c_j|d_i)=\frac{P(c_j)\prod_{f_n\inK_{d_i}}P(f_n|c_j)}{\sum_{r=1}^{|C|}P(c_r)\prod_{f_n\inK_{d_i}}P(f_n|c_r)}\end{equation}\noindentここで,\(C\)はクラスの集合である.\(K_{d_i}\)は訓練事例\(d_i\)に含まれる素性の集合を示す.\(P(c_j)\)はクラス\(c_j\)の発生確率であり,以下の式で計算する.\[P(c_j)=\frac{1+\sum_{k=1}^{|D|}P(c_j|d_k)}{|C|+|D|}\]EMアルゴリズムは\mbox{式\ref{siki8}}を利用して,ラベル付けされていない事例\(d_i\)に対して,\(P(c_j|d_i)\)を求める(E-step).次に\mbox{式\ref{siki6}}を利用して,\(P(f_i|c_j)\)を求める(M-step).このE-stepとM-stepを交互に繰り返して,\(P(f_i|c_j)\)と\(P(c_j|d_i)\)を収束するまで更新してゆく.最終的には収束した\(P(f_i|c_j)\)を使って,\mbox{式\ref{siki8}}から分類が行える. \section{実験} SENSEVAL2の日本語翻訳タスクで課題として出題された全名詞20単語に対して本手法を適用する.翻訳タスクのコンテストでは,手作業で訓練データを作成し,それを用いて学習するというオーソドックスな戦略を用いたシステムはIbarakiだけであった.ここではそこで用意された訓練データを借用し,Ibarakiの結果と比較することで本手法を評価する.Ibarakiでは,TMの他に毎日新聞'95年度版から該当単語を含む文を適当な数だけ取りだし,ラベルを付けることで訓練データを増やしている.名詞に対しては各単語に対して約50事例を追加している.結果として,各単語に対して平均70事例がラベル付き訓練データとして用意された.そのラベル付き訓練データから決定リスト\cite{Yarowsky1}を作成し,課題の曖昧性解消問題を解いている.名詞20単語に対するIbarakiの翻訳タスクに対する公式成績を\mbox{表\ref{result}}に示す\cite{shinnou-sen2}.\begin{table}[htbp]\begin{center}\leavevmode\caption{Ibaraki(決定リスト)の正解率}\label{result}\begin{tabular}{|c|c|c|c|}\hline見出し&訓練事例数&決定リストのサイズ&正解率\\\hlineippan&87&174&0.467\\ippou&63&101&0.567\\ima&67&135&0.267\\imi&69&181&0.700\\kaku\_n&58&121&0.800\\kiroku&65&159&0.467\\kokunai&62&144&0.733\\kotoba&79&183&0.800\\shimin&64&157&0.733\\jigyou&66&186&0.400\\jidai&89&249&0.800\\sugata&77&206&0.367\\chikaku&64&165&0.600\\chushin&61&157&0.500\\hana&64&139&0.533\\hantai&73&176&0.733\\baai&73&194&0.733\\mae&62&161&0.700\\mune&79&179&0.567\\mondai&81&204&0.500\\\hline\end{tabular}\end{center}\end{table}Ibarakiで利用した訓練データを借用し,それを本手法のラベル付き訓練データとした.次に,毎日新聞'96年度版から該当単語を含む文を取りだし,それをラベルなし訓練データとした.\mbox{表\ref{result2}}に,名詞20単語の各単語に対するラベル付き訓練データLの数,ラベルなし訓練データUの数,ラベル付き訓練データから学習できた決定リスト(DLと略す)による正解率(Ibarakiの結果),ラベル付き訓練データのみから学習できたNaiveBayes(NBと略す)による正解率,NBをEMアルゴリズムにより改善させた分類器(NB+EMと略す)の正解率を示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{実験結果}\label{result2}\begin{tabular}{|c|c|c|c|c|c|}\hline見出し&L&U&DL&NB&NB+EM\\\hlineippan&87&2170&0.467&0.467&0.400\\ippou&63&4033&0.567&0.633&0.700\\ima&67&5081&0.267&0.200&0.033\\imi&69&1761&0.700&0.467&0.467\\kaku\_n&58&1135&0.800&0.767&0.700\\kiroku&65&1726&0.467&0.233&0.500\\kokunai&62&2468&0.733&0.700&0.967\\kotoba&79&2225&0.800&0.900&0.967\\shimin&64&2069&0.733&0.567&0.500\\jigyou&66&3500&0.400&0.367&0.467\\jidai&89&4397&0.800&0.867&0.833\\sugata&77&1971&0.367&0.367&0.333\\chikaku&64&1944&0.600&0.600&0.667\\chushin&61&3194&0.500&0.600&0.633\\hana&64&851&0.533&0.633&0.667\\hantai&73&2103&0.733&0.900&0.967\\baai&73&3413&0.733&0.833&0.900\\mae&62&10931&0.700&0.633&0.667\\mune&79&676&0.567&0.633&0.500\\mondai&81&11424&0.500&0.500&0.500\\\hline平均&70&3354&0.589&0.582&0.618\\\hline\end{tabular}\end{center}\end{table}\mbox{表\ref{result2}}から分るようにラベル付き訓練データLのみから学習できたDLもNBもほぼ同等の正解率(58.9\,\%と58.2\,\%)である.一方,NB+EMの正解率は61.8\,\%であり,本手法の効果が確認できる.特に教師なし学習が効果的に行えたkokunaiとkirokuの2単語について,その学習のグラフを\mbox{図\ref{kokunai-fig}}と\mbox{図\ref{kiroku-fig}}に示す.このグラフの横軸はEMアルゴリズムの繰り返しの回数,縦軸はテスト文に対する正解率を示す.\begin{figure}[htbp]\begin{minipage}[t]{70mm}\begin{center}\epsfxsize=63.5mm\epsfbox{kokunai.eps}\end{center}\caption{kokunaiの学習}\label{kokunai-fig}\end{minipage}\hfill\begin{minipage}[t]{70mm}\begin{center}\epsfxsize=63.5mm\epsfbox{kiroku.eps}\end{center}\caption{kirokuの学習}\label{kiroku-fig}\end{minipage}\end{figure}\begin{table}[htbp]\begin{center}\leavevmode\caption{大きく精度が下がる単語}\label{badword}\begin{tabular}{|c|c|c|}\hline見出し&NB&NB+EM\\\hlineima&0.200&0.033\\mune&0.633&0.500\\\hline\end{tabular}\end{center}\end{table}ラベルなし訓練データを用いることで全体の正解率は向上したが,個々の単語をみると,本手法を利用することで精度が大きく下がる単語が存在する.具体的には\mbox{表\ref{badword}}に示す2単語である.調査したところ,これは最初に用意しているラベル付き訓練データ中の誤りが原因であった.Ibarakiで用意されたラベル付き訓練データは,一部の単語で必要以上に語義を細かく分けている.上記の2単語はその例であり,特にimaではUNASSIGNABLEのラベル(適切な例文がないことを意味するラベル)を付けている事例が67事例中20事例も存在する.実際はUNASSIGNABLEのラベルを与えた事例にはdefaultの語義(この場合,『重要性』の意味で使われている例文番号)を与えるべきであった.muneでも慣用的な表現が多く細かく語義を分けすぎている.正解を見れば,『体の一部としての胸』と『心の中』の2つに分類できればよいだけである.これらを考慮して,この2単語に関しては,ラベル付き訓練データを修正した.具体的には,imaに対してはUNASSIGNABLEをdefaultの語義に変更し,muneでは語義を2値に変更した.修正して得られた訓練データに対して,本手法をもう一度試した.またこれらの2単語に対しては,修正したラベル付き訓練データを利用したIbarakiによる決定リストDLの正解率も調べた.修正して得られた結果を\mbox{表\ref{result3}}に示す.結果的にラベル付き訓練データLのみから学習できたNBの正解率62.3\,\%を本手法により68.2\,\%まで高めることができた.\begin{table}[htbp]\begin{center}\leavevmode\caption{一部修正後の実験結果}\label{result3}\begin{tabular}{|c|c|c|c|c|c|}\hline見出し&L&U&DL&NB&NB+EM\\\hlineippan&87&2170&0.467&0.467&0.400\\ippou&63&4033&0.567&0.633&0.700\\ima&67&5081&\underline{0.700}&\underline{0.833}&\underline{1.000}\\imi&69&1761&0.700&0.467&0.467\\kaku\_n&58&1135&0.800&0.767&0.700\\kiroku&65&1726&0.467&0.233&0.500\\kokunai&62&2468&0.733&0.700&0.967\\kotoba&79&2225&0.800&0.900&0.967\\shimin&64&2069&0.733&0.567&0.500\\jigyou&66&3500&0.400&0.367&0.467\\jidai&89&4397&0.800&0.867&0.833\\sugata&77&1971&0.367&0.367&0.333\\chikaku&64&1944&0.600&0.600&0.667\\chushin&61&3194&0.500&0.600&0.633\\hana&64&851&0.533&0.633&0.667\\hantai&73&2103&0.733&0.900&0.967\\baai&73&3413&0.733&0.833&0.900\\mae&62&10931&0.700&0.633&0.667\\mune&79&676&\underline{0.800}&\underline{0.633}&\underline{0.800}\\mondai&81&11424&0.500&0.500&0.500\\\hline平均&70&3354&\underline{0.632}&\underline{0.623}&\underline{0.682}\\\hline\end{tabular}\end{center}\end{table} \section{考察} ここでは本手法を名詞のみに適用した.同じ処理によって,動詞に対しても適用することができるが,ここではその実験を行わなかった.教師なし学習を利用するには,本質的に,識別のための冗長性のある情報が必要である.名詞の場合,その名詞を修飾する語句(左文脈)は,その名詞の語義を特定できる可能性が高いし,その名詞を格にもつ動詞(右文脈)もその名詞の語義を特定できる可能性が高いので,一方の文脈から名詞の語義が識別できれば,もう一方の文脈は識別のための冗長性のある情報となる.このため,設定した属性は教師なし学習に適していると考えられる.一方,動詞の語義を識別するのは,格要素になる名詞,つまり左文脈が重要であり,右文脈は語義の識別の助けになることは少ない.連体修飾の用法にしても,左右が逆になるだけである.つまり,どちらかの文脈を利用して語義を識別した場合に,もう一方の文脈は識別に寄与する情報にならない.このため,動詞に対しては,本手法を利用する効果は低いと考えた\cite{shinnou-lrec02}.ただし「効果がない」ということでもないことを注意しておく.本手法はラベル付き訓練データのみから得られた分類器の精度を必ずしも向上するとは言えず,逆に精度を落す危険性もある.そのために,本手法を利用する効果があまり期待できない場合には,危険性を犯してまで本手法を試みる必要はないと判断した.動詞に対して実際にどの程度の精度向上,あるいは精度低下があるのか,あるいは動詞に対してはどのような属性を設定するのが良いのかを調べることは今後の課題である.先ほども述べたが,本手法により必ずしも精度が向上するとは限らない.実際に,実験では\mbox{表\ref{badword2}}の5単語に関して,わずかではあるが精度が低下している.\begin{table}[htbp]\begin{center}\leavevmode\caption{精度が下がる単語}\label{badword2}\begin{tabular}{|c|c|c|}\hline見出し&NB&NB+EM\\\hlineippan&0.467&0.400\\kaku\_n&0.767&0.700\\shimin&0.567&0.500\\jidai&0.867&0.833\\sugata&0.367&0.333\\\hline\end{tabular}\end{center}\end{table}\noindent精度低下の原因を一般的に論じるのは難しい.この実験の場合,偶然的な要素が強かった.NBによる分類器では正解したが,NB+EMによる分類器では誤るようなテスト文を調査すると,NBによる分類器で正解したのは,たまたまdefaultの規則が適用できて,正解になったというように,偶然的な要素が強い.EMによる学習が進むと,defaultから少しずれてくるために,誤ってしまう.精度低下の原因に関しては,ラベル付き訓練データ,ラベルなし訓練データおよびテストデータの関係を詳しく調査する必要がある.本手法による更なる精度向上をはかるための最も有効な手段は,最初のラベル付き訓練データを見直すことである.今回利用したラベル付き訓練データは,コンテストの正解が提示される以前に作成されたものであり,出題者が想定した語義と微妙に違う部分がある.概して,出題者が想定した語義は荒く,Ibarakiで用意された語義は細かい.語義が細かいと,結果として訓練データが小さいものになり,学習から得られる規則の精度が悪く,無用な部分で識別が誤る.imaやmuneでもラベル付きの訓練データを見直すことで精度が改善された.またラベルなし訓練データの量の問題が指摘されるかも知れない.ラベルなし訓練データは多ければ多いほど精度が向上すると言われている.今回,精度低下のあったippan,shimin,jidaiの3単語に関して,ラベルなし訓練データの量を約4倍に増やして実験を行った.このデータは別年度の毎日新聞記事から取り出した\footnote{ただしテスト文が94年度版から取られることが分っているので,94年度版は利用していない.}.結果を\mbox{表\ref{muchunlabel}}に示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{ラベルなし訓練データを増やした実験}\label{muchunlabel}\begin{tabular}{|c|c|c|c|c|c|c|}\hline見出し&L&U&newU&NB&NB+EM(usingL+U)&NB+EM(usingL+newU)\\\hlineippan&87&2170&8048&0.467&0.400&0.400\\shimin&64&2069&7912&0.567&0.500&0.533\\jidai&89&4397&15858&0.867&0.833&0.833\\\hline\end{tabular}\end{center}\end{table}精度は悪くなることはなかったが,ほとんど変化は生じなかった.おそらく今回実験で利用した程度のラベルなし訓練データの量でも,このタスクでは十分であったと考えられる.またもう一つの代表的な教師なし学習の手法であるCo-training\cite{blum98}との比較について述べておく.Co-trainingは独立な2つの属性させ設定できれば,ベースとなる学習手法を問わないために,応用範囲が広い.また完全に独立な2つの属性が設定できた場合,Co-trainingはEMアルゴリズムを利用した手法よりも優れていることが報告されている\cite{nigam00-2}.しかしCo-trainingには独立な2つの属性という条件の他に,属性の一貫性という条件も必要になる.この条件のために,実際はCo-trainingを多値の分類問題に適用することは難しい\cite{shinnou-sen2}.一方,本手法はNaiveBayesの学習を基本とするという制限はあるが,分類問題が多値であっても,原理的に問題はない.そのために,より頑健性の高い現実的な手法と言える.また多義語の曖昧性解消問題に教師なし学習を利用したYarowskyの研究\cite{Yarowsky2}との比較についても述べておく.Yarowskyの教師なし学習も,実はCo-trainingの特殊ケースと見なせる\cite{blum98}.2つの独立した属性として,1つは前後の文脈,もう1つは「同じ文書内で使われている曖昧な単語の語義は1つに固定される」というヒューリスティクスである.このヒューリスティクスが翻訳タスクで設定している語義の細かさに対して,どれほど成立しているかは未知である.またこの手法では,必要とされるラベルなし訓練データは文書,しかも対象単語が複数含まれているような文書となる.これはいかにラベルなしと言えども収集は容易ではない.このため比較対象の実験も困難である.一方,本手法はその対象単語を含む文が訓練データとなるので,収集は容易であり,より現実的な手法と言える.今後の課題としては2つある.1つは名詞以外の単語への適用である.教師なし学習が機能するような属性をどのように設定するかが課題である.2つ目は教師なし学習による精度低下の原因の調査,およびその回避策の検討である.これによってより頑健な教師なし学習が可能となる. \section{おわりに} 本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法を,SENSEVAL2の日本語翻訳タスクで出題された名詞に適用した.識別のための属性としては,対象単語の前後数単語の原型や表記という簡易なものを利用した.ラベル付き訓練データだけから学習できた決定リストの正解率は58.9\,\%(コンテストでのIbarakiの成績)であり,NaiveBayesによる分類器の正解率は58.2\,\%であった.そして本手法を用いてNaiveBayesによる分類器の正解率を61.8\,\%まで改善できた.また一部,訓練データの不具合を修正することで,NaiveBayesによる分類器の正解率62.3\,\%(決定リストでの正解率は63.2\,\%)を,本手法により68.2\,\%まで高めることができた.問題点としては名詞のみの適用である点と,精度が低下するケースも存在する点である.これら問題の解決が今後の課題であり,より頑健性の高い教師なし学習手法の構築を目指す.\bibliographystyle{jnlpbbl}\bibliography{4}\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師,2001年同学科助教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.博士(工学).}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V17N04-02
\section{はじめに} \label{sec:intro}今日,Webからユーザーの望む情報を得る手段としてGoogleなどのサーチエンジンが一般的に利用される.しかし,ユーザーの検索要求に合致しないWebページも多数表示されるため,各ページがユーザーの望む情報を含むかどうかを判断するのに時間と労力を割かなければならない.このような負担を軽減するための検索支援手法として,検索結果をクラスタに分類して表示するWeb文書クラスタリングが挙げられる.Webページのクラスタリング手法として,WebページのHTMLタグの構造\cite{Orihara08}やWebページ間のリンク関係\cite{Ohno06,Wang02}などWebページに特有の情報を用いた手法も提案されているが,Webページの内容(Webページに含まれるテキスト・文章)に基づく手法が一般的であり,多くの手法が提案されている\cite<e.g.,>{Eguchi99,Ferragina05,Hearst96,Hirao06,Narita03,Zamir98}.Webページの内容に基づくクラスタリング手法は,{\bfWebページ間の類似度に基づく手法}と{\bf共通する語句に基づく手法}に大別できる\cite{Fung03}.前者は,ベクトル空間モデルなどを用いて各文書間の(非)類似度を計算し,k-means法などのクラスタリングアルゴリズムを適用する手法である.例えば,最初のWebページクラスタリングシステムと言われているScatter/Gather\cite{Hearst96}や江口らのシステム\cite{Eguchi99}はこの手法を用いている.類似度に基づく手法は文書クラスタリング手法として広く用いられている\cite{Kishida03}が,実時間性が要求される検索結果のクラスタリングにはあまり適していない.Webページ間の類似度を適切に計算するためには,Webページそのものを取得する必要があるが,その取得時間がかかるとともに,文書規模が大きくなると類似度計算にも時間がかかる.よって,サーチエンジンの検索結果をクラスタリングする手法として,Webページ(スニペット)集合に共通して出現する語句に基づく手法が多く用いられている\cite{Ferragina05,Fung03,Hirao06,Narita03,Zamir98}.この手法では,検索結果として得られるページタイトルやスニペットから何らかの方法を用いて基準となる語句を抽出し,それらの語句を含む文書集合をひとつのクラスタとする.一般的に,ひとつのWebページ(スニペット)には複数の頻出語句が含まれるため,この手法は本質的に非排他的なクラスタリング(ひとつの文書を複数のクラスタに割り振ることを許すクラスタリング)を行うことになる.この手法は,タイトルやスニペットの情報のみを用いるために情報の取得時間が短く,文書間の類似度を計算する必要がないために処理時間も短く,ノイズとなる単語が混ざりにくいなどの利点がある.さらに,\citeA{Zamir98}は,スニペットのみの情報を用いたクラスタリングの性能はWebページ全体を用いる場合に比べて遜色ないこと,共通語句に基づくクラスタリング手法がWebページ間の類似度に基づく手法よりも高性能であることを実験的に示している.共通語句に基づく手法で重要となるのが,クラスタのベースとなる語句の抽出手法である.既存研究では,文書頻度\cite{Hirao06,Osinski05,Zamir98},tfidf\cite{Ferragina05,Zeng04},検索結果のランキング\cite{Narita03},語句の長さ\cite{Zamir98,Zeng04}などの情報を用いて語句をランク付けし,上位の語句を選択するという手法が用いられている.しかし,この抽出方法では語句間の意味的な類似関係を考慮していないので,クラスタのベースとなる語句どうしが類似した話題を表していると,同じ文書を多く含む類似したクラスタを出力してしまうという欠点がある.特に,検索結果のWebページ集合には共通する話題が多いことを考えると,この問題点は深刻である.抽出語句からクラスタを作成した後に重複の大きいクラスタをマージする手法\cite<e.g.,>{Zamir98}も考えられているが,話題が似ているからクラスタが重複する場合(ひとつのクラスタとすべきである場合)と,複数の異なる話題が共通しているから重複する場合(別々のクラスタにすべきである場合)かの区別はできない.この問題に対して,本研究では,語句間の意味関係を考慮してクラスタのベースとなる語句を選択することによって,類似したクラスタをできるだけ出力せずにWebページを分類できると考える.さらに,作成されるクラスタに含まれる文書数はその語句の文書頻度と同じであるため,文書頻度が低い語句が重要語として多く選択される場合には,どのクラスタにも属さない文書の数が多くなってしまう.そこで抽出語句を基準にWebページ集合に含まれる単語のクラスタを作成し,単語グループから文書クラスタを作成することによって,どのクラスタにも属さないWebページを減らすことができると考えられる.本論文では,以上の考え方に基づいて,検索結果のスニペットとタイトルから互いに話題が類似しない重要語を抽出し,それらを核とした単語グループを生成し,単語グループに基づいてWebページをクラスタリングする手法を提案する.そして,実際に人手で分類したWebページ群を用いて従来手法(語句間の類似度を考慮しない方法)との比較評価を行い,本手法のほうがクラスタリング性能が高く,かつ類似したクラスタを生成してしまうという従来手法の問題点が解消できることを示す. \section{単語グループに基づくWeb検索結果のクラスタリング手法} \label{sec:method}\subsection{概要}\label{subsec:overview}提案する手法の概要は以下の通りである.\begin{enumerate}\itemユーザの入力したクエリを受け取り,Googleによる検索結果のタイトルとスニペットを文書として取得する.本論文の以下では,各ページのタイトルとスニペットをひとつの「文書」と呼ぶ.\item各文書に対して,茶筌(http://chasen-legacy.sourceforge.jp/)を用いて形態素解析を行う.\item形態素解析で名詞・英字と判断された単語から,複合名詞を含む名詞を抽出する.\item抽出した名詞から,クラスタの話題を表すと考えられる互いに類似していない重要語を,指定された文書クラスタ数だけ抽出する.\item手順(3)で抽出されたすべての単語に対して,各重要語から単語グループを生成する.\item単語グループを用いて,文書クラスタを生成する.\end{enumerate}以下の\ref{sec_WM}節から\ref{sec_bun}節では,上記の手順(3)から(6)の各処理の詳細を述べる.\subsection{形態素解析結果からの名詞抽出}\label{sec_WM}まず形態素解析により名詞及び英字と判断された単語を抽出する.この際に,非自立の名詞や代名詞などは除き,英字の連続はひとつの名詞とする.また,各単語$w_i$の文書頻度$df(w_i)$($w_{i}$を含む文書数)を検索結果の文書集合全体から計算し,一定値$C_W$以下の単語を除外する.さらにクエリ及びクエリの一部となる単語は,ほぼ全ての文書に出現するため,手順(4)の重要語の抽出に大きな影響を及ぼすので除外する.次に,これらの単語から構成される名詞の$n$グラム(複合名詞)を,重要語候補として抽出すべきかどうかを判断する.例えば,文書集合中で「情報」や「検索」という名詞が,ほぼ「情報検索」という複合名詞でしか用いられていない場合には,「情報検索」をひとつの単位として抽出すべきである.また,形態素解析が固有名詞と認識できないために不適切に分解されてしまう固有名詞(例:「エースコック」)を適切に抽出することも意図している.以下の手法により,重要語の候補として抽出すべき(複合名詞を含む)名詞を決定する.\begin{enumerate}\item$\Sigma_1\leftarrow$(すべての単語の集合),$n\leftarrow1$とする.\item$\Sigma_{n+1}\leftarrow\phi$とする.\item集合$\bigcup_{i=1}^n\Sigma_i$中の単語$w_{i}$と,集合$\Sigma_n$中の単語$w_{j}$のすべての組み合わせ(ただし$w_i\neq{w_j}$)に対して,以下の処理を行う.\begin{enumerate}\item2つの単語をつなぎ合わせた語句$w_{i}w_{j}$,$w_{j}w_{i}$のうちで,全文書における出現頻度が高い方を合成候補$Str$とする.ただし,一方の単語がもう一方の単語を部分文字列として含む場合には,合成はせずに長いほうの単語を$Str$とする.\item全文書における$w_{i}$,$w_{j}$及び$Str$の出現頻度(\ref{sec_weight}節の式(\ref{eqn:tf})で定義される)をそれぞれ$tf(w_i)$,$tf(w_i)$,$tf(Str)$としたとき,次式で定義される値$WM$を計算する.\[WM=\frac{tf(Str)}{\max(tf(w_i),tf(w_j))}\]\item上記で計算した$WM$が閾値$C_{WM}(>0.5)$以上ならば,$\Sigma_{n+1}\leftarrow\Sigma_{n+1}\cup\{Str\}$,$\Sigma_1\leftarrow\Sigma_1-\{w_i\}$,$\Sigma_n\leftarrow\Sigma_n-\{w_j\}$とする.つまり,$w_{i}$,$w_{j}$の代わりに$Str$を複合名詞として用いることになる.\end{enumerate}\item$\Sigma_{n+1}=\phi$ならば,$\Sigma=\bigcup_{i=1}^n\Sigma_i$を複合名詞(重要語候補)の集合として終了する.$\Sigma_{n+1}\neq\phi$ならば,$n$を1増やしてから手順(2)に戻る.\end{enumerate}閾値$C_{WM}$を適切に(0.5より大きく)設定することによって,$w_{i}$や$w_{j}$が単独で出現するよりも複合名詞$Str$として出現することが多い場合に,複合名詞として抽出することができる.なお,本論文の以下では,複合名詞を含む重要語候補($\Sigma$の要素)のことを単に「名詞」や「単語」と表記する.\subsection{重要語の抽出}\label{sec_weight}前節で得られた名詞集合$\Sigma$から,以下の手順を用いて,重要語を抽出する.\begin{enumerate}\item抽出されたすべての名詞に対して,\ref{subsubsec:weight}節で述べる重み付け手法を用いて,ランク付けする.結果として得られた名詞のランク付きリストを$S$とする.\itemリスト$S$の中でランクの最上位にある名詞を取り出して,重要語とする.\item抽出した重要語との類似度(\ref{subsubsec:cosine}節参照)が基準値$C$以上のすべての名詞をリスト$S$から取り除く.なお,\ref{subsubsec:threshold}節で述べるように,基準値$C$は文書集合に応じて自動的に決定する.\item重要語の個数が指定されたクラスタ数$n$に満たない場合には,手順(2)に戻る.\end{enumerate}上記の手順(3)において,抽出された重要語と話題が類似する名詞を重要語(クラスタのベースとなる語)としないことによって,本手法は重要語どうしの類似度が低くなるように重要語を抽出する.なお,\ref{sec:intro}章で述べた従来の手法は,手順(1)で得られるリスト$S$のランク上位$n$個をクラスタのベースとなる重要語として抽出することに相当する.\subsubsection{名詞の重み付け}\label{subsubsec:weight}上記の手順(1)における名詞の重み付け手法としては,以下の基準が考えられる.なお,\ref{sec:evaluation}章で述べる評価実験では,これらのどの基準を用いても本手法のほうが優れていることを示す.\begin{description}\item[文書頻度df]名詞$w_i$の出現する文書数である$df(w_i)$の値が大きいほど,その名詞が重要であると考える.なお,計算に用いる文書は検索結果の文書集合全体である.\item[出現頻度tf]次式で計算される文書集合中の総出現頻度$tf(w_i)$が高い名詞が重要であると考える.\begin{equation}tf(w_i)=\sum_{j=1}^{N}tf(w_i,d_j)\label{eqn:tf}\end{equation}ただし,$tf(w_i,d_j)$は文書$d_j$における単語$w_i$の出現数,$N$は文書数をそれぞれ表す.\item[tfidf]次式で定義されるtfidf値が高い(特定の文書に多く出現する)名詞が重要であると考える.\begin{align}tfidf(w_{i})&=tf(w_i)\timesidf(w_i)\\idf(w_i)&=log_{2}\left(\frac{N}{df(w_{i})}\right)+1\end{align}\item[SP,LP\cite{Narita03}]次式で定義される$SP(w_i)$もしくは$LP(w_i)$が高い,つまり検索結果のランキング上位の文書に多く含まれる名詞ほど重要であるとする指標である.\begin{align}SP(w_{i})&=\sum_{j=1}^{N}\left[tf(w_{i},d_{j})\timessin\left({\frac{\pi}{1+\sqrt{j}}}\right)\right]\timesidf(w_{i})\\LP(w_{i})&=\sum_{j=1}^{N}\left[tf(w_{i},d_{j})\timeslog_{N}\left(\frac{N}{j}\right)\right]\timesidf(w_{i})\end{align}ただし,$d_j$はサーチエンジン(本研究ではgoogle)の検索結果のランキングが$j$番目の文書を表す.\item[TR\cite{Gelgi07}]$TR(w_i)$は単語をノード,共起の有無をエッジとするグラフのPageRankのように計算される値であり,$TR(w_i)$が高い(つまり重要な)単語と多く共起している単語は重要であると考える指標である.\begin{equation}TR^{(t+1)}(w_i)=\sum_{j=0}^{N}\frac{TR^{(t)}(w_{j})corres(w_i,w_j)}{\sum_{k=0}^{N}corres(w_k,w_j)}\label{eq:TR}\end{equation}ただし,{$corres(w_i,w_j)$}は{$w_i$}と{$w_j$}の共起回数,{$t$}は繰り返し計算回数を表し,{$TR^{(0)}(w_i)=tf(w_i)$}である.\end{description}\subsubsection{名詞どうしの類似度の計算}\label{subsubsec:cosine}上記の手順(3)において,名詞どうしの類似度$sim(w_i,w_j)$(抽出された重要語とリスト$S$に含まれる名詞との類似度)には,次式のコサイン(cos)類似度を用いる.\begin{equation}sim(w_i,w_j)=cos(V_{i},V_{j})=\frac{\sum_{k=1}^{N}{tf(w_i,d_k)\cdottf(w_j,d_k)}}{\sqrt{\sum_{k=1}^{N}tf(w_i,d_k)^2}\sqrt{\sum_{k=1}^{N}tf(w_j,d_k)^2}}\label{eqn:cosine}\end{equation}つまり,名詞$w_i$を,文書$d_k$における出現頻度$tf(w_i,d_k)$を要素とする$N$次元ベクトルで表現したときのコサイン類似度に相当する.\subsubsection{基準値$C$の設定}\label{subsubsec:threshold}基準値$C$が0.05〜0.5(0.05刻み)のいずれかの値をとるものとして,それぞれの値で実際に文書クラスタリングを行い,最も多くの文書を分類できる(つまりどのクラスタにも属さない文書が最も少ない)値を基準値$C$として採用する.ただし抽出した重要語が指定したクラスタ数に満たなかった場合\footnote{\ref{sec_weight}節の手順(3)において,重要語と類似しているとして多くの単語が取り除かれる場合に,このようが現象が生じるときがある.}には,指定したクラスタ数に最も近いものの中での最適値を基準値とする.なお,この判定に用いる文書クラスタリング手法は,\ref{subsec:word_clustering}節で述べる単語グループを用いた方法ではなく,本節で述べた方法で抽出した重要語を含む文書をクラスタとする方法である.\subsection{単語クラスタリング}\label{subsec:word_clustering}前節の方法で得られた重要語に対して,以下のアルゴリズムを用いて単語グループを生成する.\begin{enumerate}\item各重要語$x_i$に対応する単語グループ$WG_i$を以下の方法で生成する.\begin{enumerate}\item重要語$x_i$とのcos類似度((\ref{eqn:cosine})式)が基準値$C'$以上の名詞(重要語は除く)をリスト$S$からすべて抽出する.\item抽出した名詞集合に対し,重要語$x_i$とのcos類似度の平均値$M$を求める.\item重要語$x_i$とのcos類似度が平均値$M$以上の名詞のみを,その重要語を核とした単語グループ$WG_i$に含める.\end{enumerate}\item複数の単語グループに含まれる名詞を,すべての単語グループから取り除く.\end{enumerate}基準値$C'$は0.05〜0.5(0.05刻み)のいずれかの値をとるものとし,それぞれの値で実際に文書クラスタリングを行い,最も多くの文書を分類できる値を基準値$C'$として採用する.この判別に用いる文書クラスタリング手法は,\ref{sec_bun}節で述べる手法を用いる.\subsection{単語グループからの文書クラスタリング}\label{sec_bun}以下のアルゴリズムを用いて,単語グループから文書クラスタを生成する.\begin{enumerate}\item単語グループ$WG_i\,(i=1,\cdots,n)$に対応する空の文書クラスタ$DC_i=\phi$を生成する.\item以下の方法で,各文書$d_j\,(j=1,\cdots,N)$がどの文書クラスタに含まれるかを決定する.\begin{enumerate}\item文書$d_j$が単語グループ$WG_i$の核となった重要語$x_i$を含んでいれば,文書$d_j$を単語グループに対応する文書クラスタ$DC_i$に含める.(複数の重要語$x_i$を含んでいれば,複数の文書クラスタに属することになる.)\item全ての単語グループ$WG_i$に対し,以下の式で定義される$S_i(d_j)$を計算する.\begin{align}S_i(d_j)&=\frac{\sum_{w_k\in{WG_i}}\delta(w_k,d_j)}{|WG_i|}\\\delta(w_k,d_j)&=\begin{cases}1&\text{(名詞$w_k$が文書$d_j$に出現する場合)}\\0&\text{(名詞$w_k$が文書$d_j$に出現しない場合)}\end{cases}\nonumber\end{align}そして,$S_i(d_j)$の値が以下の不等式を満たすならば,文書$d_j$を文書クラスタ$DC_i$に含める.\begin{equation}S_i(d_j)\geq\frac{1}{2}\sum_{k=1}^nS_k(d_j)>0\end{equation}直観的に言うと,文書$d_j$が他の単語グループよりも単語グループ$CW_i$の単語を多く含んでいれば,その文書は$CW_i$に対応する文書クラスタ$DC_i$に分類されることになる.\end{enumerate}\end{enumerate} \section{評価実験} \label{sec:evaluation}\subsection{評価データ}Googleの検索結果を人手により分類したものを評価用の正解データとして用いた.正解データ作成にあたり20代の男女10人に協力を頼んだ.協力者が自由にクエリを入力して,Googleの検索結果上位30件をタイトルとスニペットのみから分類してもらい,15セットの正解データ(平均クラスタ数3.6,最大クラスタ数5,最小クラスタ数2,クラスタに含まれる文書数の平均9.040)を得た.正解データ作成のために協力者が選んだクエリを表{\ref{tab:query}に示す.検索結果を30件としたのは,検索エンジンのユーザの54\%が上位10件以内,73\%が上位20件以内の検索結果しか閲覧しないという調査結果\cite{Jansen03}から,検索結果30件をクラスタリングすることで十分な情報をユーザに与えられると考えたためである.なお,情報の少なさや内容の曖昧さから協力者が分類できないと判断した文書や文書数が1であるクラスタは正解データから除外した.\begin{table}[t]\caption{評価に用いたクエリ}\label{tab:query}\input{03table01.txt}\end{table}\subsection{評価方法}本研究の手法と比較手法のそれぞれを用いて,15セットの評価データのクラスタリングを行い,その性能を比較した.比較手法は,名詞の重み上位順に(\ref{sec_weight}節の概要の(1)のリスト$S$の順に)指定されたクラスタ数だけ重要語を抽出し,重要語を含む文書集合を文書クラスタとするという,\ref{sec:intro}章で述べた従来手法\cite<e.g.,>{Hirao06,Narita03,Zamir98}とした.両手法において,名詞の重み付けには\ref{subsubsec:weight}節の手法を用いた.また,システムが出力するクラスタ(以下,システムクラスタと呼ぶ)の数$n$は各正解データセットのクラスタ数とした.なお,正解クラスタ数より少ない重要語しか抽出できなかった場合には,空のクラスタを出力したとみなして評価を行った.さらに,提案手法によるクラスタリングにおいて,\ref{sec_WM}節における閾値を$C_W=2$,$C_{WM}=0.6$と設定した.\subsection{評価基準}評価基準として,F値,CR(clusteringratio),OR(overlappingratio)を用いる.これらの値はすべて各データセットごとに計算する.クラスタリングの精度を表すF値は以下の手順で求めることができる\cite{Orihara08}.まず,システムクラスタ$SC_i\(1\leqi\leqn)$と正解クラスタ$AC_j\(1\leqj\leqn)$のすべての対に対して,F値$F(SCi,ACj)$を次式で計算する.\begin{align}F(SC_i,AC_j)&=\frac{2\timesR(SC_i,AC_j)\timesP(SC_i,AC_j)}{R(SC_i,AC_j)+P(SC_i,AC_j)}\\R(SC_i,AC_j)&=\frac{|SC_i\capAC_j|}{|AC_j|}\\P(SC_i,AC_j)&=\frac{|SC_i\capAC_j|}{|SC_i|}\end{align}次に,次式の$F(M)$が最大となるようなシステムクラスタと正解クラスタの一対一対応$M$を求め,そのときの値をこのシステムクラスタのF値とする.\begin{equation}F(M)=\sum_{(SC_i,AC_j)\in{M}}\frac{|AC_j|}{\sum_{k=1}^n|AC_k|}\F(SC_i,AC_j)\end{equation}これは,システムクラスタと正解クラスタを2つの頂点集合として,それらの間の枝の重みを$\frac{|AC_j|}{\sum_{k=1}^n|AC_k|}F(SC_i,AC_j)$とする二部グラフの最大マッチング問題を解くことに相当する.CRは文書集合のうちのどれだけの割合の文書をクラスタに分類できるかを表しており,次式で計算される\cite{Narita03}.なお,{$N$}は検索結果の文書数である.\begin{equation}CR=\frac{\displaystyle\left|\bigcup_{i=1}^nSC_i\right|}{N}\end{equation}本研究で扱っている共通の語句に基づくクラスタリング手法では,どのクラスタにも属さない文書が生じてしまう可能性がある.したがってCRが高い(1に近い)ほうが望ましい結果であると言える.ORはクラスタ間で文書が重複する割合の平均であり,次式で計算される.\begin{equation}OR=\frac{1}{{}_n{C}_2}\sum_{i=1}^n\sum_{j=i+1}^n\frac{|SC_i\capSC_j|}{|SC_i\cupSC_j|}\end{equation}この値は単純に低いほど(もしくは高いほど)望ましいというわけではなく,正解クラスタのOR値に近いほうが望ましい結果であると言える. \section{評価結果と考察} 本章では,\ref{sec:evaluation}章で述べた評価実験について,以下の観点から評価結果を述べるとともに,考察を行う.\begin{itemize}\itemクラスタリングの精度:正しい分類をしているか\itemクラスタリングの被覆度:どのくらいの文書をクラスタリングできるか\itemシステムクラスタ間の類似度:過度に類似したクラスタを出力していないか\item単語グループの必要性:互いに類似していない重要語を抽出するだけでは不十分か\item複合名詞の抽出手法:\ref{sec_WM}節における複合名詞抽出はどの程度影響があるか\end{itemize}なお,以下で示す評価値はすべて各セットごとに求めた値の平均値を用いている.\subsection{クラスタリング精度}\label{subsec:F}クラスタリングの精度を示す評価基準であるF値の結果(全セットの平均値)を表\ref{tab_F}に示す.なお,表\ref{tab_F}(およびこれ以降の表)において,「本手法」の値として「単語グループ無」と「単語グループ有」の2種類の値が示されている.「単語グループ有」の値は,\ref{sec:method}章で述べた提案手法による評価結果を示している.一方,「単語グループ無」の値は「\ref{subsec:overview}節の概要の手順(5)の単語クラスタリング(\ref{subsec:word_clustering}節)を行わず,手順(4)で抽出した重要語を含む文書の集合を文書クラスタとする方法」による評価結果である.つまり,本研究の提案手法と従来手法の中間に位置する手法と言える.単語グループを用いずに文書クラスタリングを行った場合の評価結果を示したのは,\ref{subsec:necessity}節で単語グループの必要性(類似していない重要語の抽出だけで十分かどうか)を検証するためである.\begin{table}[t]\caption{各手法におけるF値}\label{tab_F}\input{03table02.txt}\end{table}表\ref{tab_F}より,全ての重み付け手法において,本手法のF値は従来手法よりも高くなった.また従来手法と本手法(単語グループ有)間で平均値の差の検定を行ったところ,df,tf以外での重み付け手法において有意差が見られた({$p<0.05$}).dfとtfについても平均値の差は有意傾向(df:{$p=0.061$},tf:{$p=0.067$})となった.この結果から,本手法は従来手法よりもクラスタリング精度が高い(人手に近いクラスタリングを行うのに有効である)と言える.さらに,単語グループを考慮しなくても従来手法より性能が高いことから,\ref{sec_weight}節の重要語の抽出手法そのものも有効であると言える.特に,TRは検索結果を分類するのに有用な(discriminative)単語が上位にランクされやすい指標である\cite{Gelgi07}ので,TRに従来手法を適用しただけで意味的に類似したクラスタを生成しにくくなる可能性がある.しかし,従来手法のTRのF値(0.511)は本手法よりも有意に低い値であることから,この可能性は排除できる.つまり,表\ref{tab_F}の結果は,本研究の手法に基づいて重要語を抽出するほうがTRによるランキングに基づく手法よりも性能が高いことを示している.\subsection{クラスタリングの被覆度}\label{subsec:CR}クラスタの被覆度(クラスタに含まれる文書の割合)を表す評価基準であるCRの結果(全セットの平均値)を表\ref{tab_CR}に示す.表\ref{tab_CR}より,全ての重み付け手法において,本手法のCRは従来手法よりも高くなった.また従来手法と本手法(単語グループ有)間で平均値の差の検定を行ったところ,全ての重み付け手法において有意差が見られた({$p<0.05$}).この結果から,本手法は従来手法よりも多くの文書を分類できると言える.さらに,単語グループを考慮しなくても従来手法よりCRが高いことから,互いに意味的に類似しない単語のみを抽出する本研究の重要語抽出手法そのものがより多くの文書を分類するのに有効であると言える.\begin{table}[t]\caption{各手法におけるCR}\label{tab_CR}\input{03table03.txt}\end{table}\begin{table}[t]\caption{各手法における平均クラスタサイズ}\label{tab_Size}\input{03table04.txt}\end{table}しかし,本研究では非排他的クラスタリングを行っているので,単純により多くの文書をひとつのクラスタに含めてしまえば,つまり,クラスタのサイズを大きくしてしまえば,不適切にCRを高くすることが可能である.そこで,適切なクラスタサイズを保ちつつ本手法のCRが高くなっているかどうかを調べるために,表\ref{tab_Size}に平均クラスタサイズ(各クラスタに含まれる文書数の平均)を示す.表\ref{tab_Size}を見ると,本手法(単語グループ有)のクラスタサイズは従来手法よりは大きくなっているものの,正解データの平均クラスタサイズである9.040を大幅に越えるものはない.(重み付け手法がdfの場合にクラスタサイズが大きくなっているが,これは従来手法と本手法に共通した現象であり,本手法だけが不当にクラスタサイズを大きくしているわけではない.)さらに,単語グループを考慮しない場合には従来手法よりもクラスタサイズが小さくなっている.よって,本手法は,不当にクラスタサイズを大きくせずに,より多くの文書を分類することができると結論づけられる.\subsection{クラスタ間の類似度}\ref{sec:intro}章で述べた,不適切に類似したクラスタを出力してしまうという従来手法の問題点が本手法で解決されているかどうかを評価するために,クラスタ間の重複割合の平均値であるORの結果(全セットの平均値)を表\ref{tab_OR}に示す.全ての重み付け手法において,本手法のORは従来手法よりも低い値であり,正解クラスタの値(0.029)にかなり近くなっている.したがって,本手法は従来手法よりも類似したクラスタを出力しにくく,従来手法の問題点を解決していると言える.\begin{table}[t]\caption{各手法におけるOR}\label{tab_OR}\input{03table05.txt}\vspace{-1\baselineskip}\end{table}\subsection{単語グループの必要性}\label{subsec:necessity}本節では,本手法において単語グループを用いる場合と用いない場合の評価結果を比較することによって,単語グループを用いてクラスタリングすることの必要性を検証する.表\ref{tab_F}と表\ref{tab_CR}から,重み付け手法に関係なく,単語グループを用いたほうが用いないよりもF値,CRともに高いことがわかる.この結果は,単語グループの必要性を支持している.表\ref{tab_Size}のクラスタサイズに注目すると,単語グループを用いない場合には,正解データのクラスタサイズである9.040よりかなり小さいサイズになっている.これは,本研究の重要語抽出方法が出現頻度が低い名詞を抽出しやすいためである.一方,単語グループを用いた本手法のクラスタサイズは正解データのサイズ9.040と同程度である.したがって,出現頻度が低い単語が重要語として抽出された場合でも,単語グループを用いることによって適切なクラスタサイズの文書クラスタを生成できると言える.つまり,クラスタサイズの点からも単語グループが必要であると結論できる.なお,表\ref{tab_OR}のクラスタ間の類似度ORは単語グループの有無による差はほぼなく,単語グループを用いることは類似したクラスタを出力しないという利点そのものには貢献していない.しかし,単語グループを用いない場合と同程度のクラスタ類似度のままで性能(F値,CR)を向上させていることになり,総合的に単語グループの必要性を示しているといえる.\subsection{複合名詞の抽出手法の評価}\label{subsec:marge}本節では,{\ref{sec_WM}}節で述べた複合名詞の抽出手法の性能を評価するために,この抽出手法を用いる場合と用いない場合の評価結果の比較を行う.まず,{\ref{sec_WM}}節の単語合成手法で実際に抽出された複合名詞の例を表{\ref{tab:exe_WN}}に示す.{\ref{sec_WM}}節で意図したように,「情報」や「限定」などの一般的な単語に代わり,「店舗情報」,「限定発売」などの具体的な話題を表す複合名詞が抽出されている.また,形態素解析では複数の名詞に分割されてしまう「綿陽」のような地名や「ブロードバンド」のような専門用語も正しく抽出されている.\begin{table}[b]\caption{単語合成手法で抽出された複合名詞の例(括弧内は形態素解析による区切りを表す)}\label{tab:exe_WN}\input{03table06.txt}\end{table}\begin{table}[b]\caption{複合名詞抽出の有無によるF値の比較}\label{tab:nomarge_F}\input{03table07.txt}\end{table}\begin{table}[b]\caption{複合名詞抽出の有無によるCRの比較}\label{tab:nomarge_CR}\input{03table08.txt}\end{table}次に,複合名詞抽出を行う場合と行わない場合のF値,CR,ORをそれぞれ表{\ref{tab:nomarge_F}},表{\ref{tab:nomarge_CR}},表{\ref{tab:nomarge_OR}}に示す.表{\ref{tab:nomarge_F}}より,本手法では全ての重み付け手法で複合名詞抽出を行うほうが行わないよりもF値が高いことがわかる.一方,従来手法では,重み付け手法がLP,TRのときに複合名詞抽出を行うほうがF値が高くなるものの,その他の重み付け手法では同じ値となった.また表{\ref{tab_CR}}と表{\ref{tab_OR}}より,CRとORは従来手法,本手法の全ての重み付け手法においてほぼ同じ結果となった.以上の結果から,複合名詞抽出はクラスタリングの被覆度やクラスタ間の類似度にはあまり影響を与えないが,本手法のクラスタリング精度を向上させる効果があると結論できる.また,語句間の類似度を考慮しない従来方法に対しては,複合名詞抽出はほとんど効果がないと言える.\begin{table}[b]\caption{複合名詞抽出の有無によるORの比較}\label{tab:nomarge_OR}\input{03table09.txt}\end{table}\begin{table}[b]\caption{クエリ「伊右衛門」における重要語,単語グループ,文書クラスタ}\label{tab:exe_iemon}\input{03table10.txt}\end{table}\subsection{生成されたクラスタについて}\label{subsec:qualty}本節では,評価に用いたデータセットに対するクラスタリング結果の実例を示すことによって,本手法を定性的に考察する.表{\ref{tab:exe_iemon}}〜{\ref{tab:exe_choco}}に,いくつかのクエリによる検索結果を本手法でクラスタリングした結果(重要語,単語グループ,文書クラスタ)を示す.表{\ref{tab:exe_iemon}}のクエリ「伊右衛門」による検索結果のクラスタリング例では,3種類のクラスタ(サントリーから発売されている緑茶「伊右衛門」,京極夏彦の小説「嗤う伊右衛門」,「伊右衛門」をタイトルに含むブログ)が生成されているが,これらのクラスタは正解クラスタと一致する.一方,従来手法では,どの重み付け手法でも「ブログ」に関する単語(表{\ref{tab:exe_iemon}}では「日記」)が重要語として抽出されず,代わりに緑茶に関する単語(サントリー,飲料,緑茶など)が重複して重要語として抽出されてしまう.\begin{table}[t]\caption{クエリ「四川」における重要語,単語グループ,文書クラスタ}\label{tab:exe_shisen}\input{03table11.txt}\end{table}\begin{table}[t]\begin{center}\caption{クエリ「チョコボール」における重要語,単語グループ,文書クラスタの例}\label{tab:exe_choco}\input{03table12.txt}\end{table}表{\ref{tab:exe_shisen}}や表{\ref{tab:exe_choco}}の例を見ても,表{\ref{tab:exe_iemon}}と同様に,類似する単語が重要語として選ばれておらず,それらの重要語を核とする単語グループには,同じ話題を表す同義語や関連語(例えば,表{\ref{tab:exe_shisen}}の「地震」から「震源」や「ニュース」)が適切に分類されている.また,表{\ref{tab:exe_choco}}において,重要語「エンゼル」から「金」,「銀」,「確率」といった単語が選ばれ,「金(または銀)のエンゼルが当たる確率に関するページ集合」というように,文書クラスタの内容が推測しやすくなる単語グループも見られる.しかし,「商品」や「サイト」といった広い意味を持つ一般的な単語が単語グループに含まれてしまうために,結果的に文書クラスタの精度が下がってしまう例(表{\ref{tab:exe_shisen}}の「ゲーム」における「サイト」)も見受けられる. \section{おわりに} 本研究では,サーチエンジンの検索結果としてのWebページ集合をクラスタリングするために,検索結果のスニペットとタイトルから互いに類似していない話題(トピック)を表す重要語を抽出し,それらの重要語を元に文書中の単語をクラスタリングして,それらの単語グループから文書クラスタを生成する手法を提案した.そして,評価実験を通して,重みによるランク上位の単語を単純に取り出してその単語を含む文書をクラスタとする従来手法に比べて,提案手法はクラスタリングの精度,被覆度ともに優れていることを示した.さらに,提案手法によって生成されるクラスタのサイズや重複割合も適切であることを明らかにした.これらの結果は,本研究の提案手法の有効性を示すものである.今後の課題としては,検索支援という観点からは検索結果を階層的にクラスタリングすることが望ましいので,本手法を階層的クラスタリングに応用することである.ひとつの適用方法としては,本手法を用いて生成したクラスタから出発して,それらを凝集もしくは分割していき,階層を生成することが考えられる.また,これに関係して,適切な(初期)クラスタ数をどのように自動に決めるかという課題も残されている.さらに,検索支援の観点からは,生成されたクラスタの内容が何かを示すことも重要であり,そのためのラベル付けや説明文の生成なども興味深い課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{江口\JBA伊藤\JBA隈元\JBA金田}{江口\Jetal}{1999}]{Eguchi99}江口浩二\JBA伊藤秀隆\JBA隈元昭\JBA金田彌吉\BBOP1999\BBCP.\newblock\JBOQ漸次的に拡張されたクエリを用いた適応的文書クラスタリング法\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ82-D-I}(1),\mbox{\BPGS\140--149}.\bibitem[\protect\BCAY{Ferragina\BBA\Gulli}{Ferragina\BBA\Gulli}{2005}]{Ferragina05}Ferragina,P.\BBACOMMA\\BBA\Gulli,A.\BBOP2005\BBCP.\newblock\BBOQAPersonalizedSearchEngineBasedon{W}eb-SnippetHierarchicalClustering.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalWorldWideWebConference(WWW'05)},\mbox{\BPGS\801--810}.\bibitem[\protect\BCAY{Fung,Wang,\BBA\Ester}{Funget~al.}{2003}]{Fung03}Fung,B.,Wang,K.,\BBA\Ester,M.\BBOP2003\BBCP.\newblock\BBOQHierarchicalDocumentClusteringUsingFrequentItemsets.\BBCQ\\newblockIn{\BemProceedingsofthe2003SIAMInternationalConferenceonDataMining},\mbox{\BPGS\59--70}.\bibitem[\protect\BCAY{Gelgi,Davulcu,\BBA\Vadrevu}{Gelgiet~al.}{2007}]{Gelgi07}Gelgi,F.,Davulcu,F.,\BBA\Vadrevu,S.\BBOP2007\BBCP.\newblock\BBOQTermRankingforClusteringWebSearchResults.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalWorkshoponWebandDatabases(WebDB2007)}.\bibitem[\protect\BCAY{Hearst\BBA\Pedersen}{Hearst\BBA\Pedersen}{1996}]{Hearst96}Hearst,M.\BBACOMMA\\BBA\Pedersen,J.\BBOP1996\BBCP.\newblock\BBOQReexaminingtheClusterHypothesus:Scatter/GatheronRetrievalResults.\BBCQ\\newblockIn{\BemProceedingsofthe19thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'96)},\mbox{\BPGS\76--84}.\bibitem[\protect\BCAY{Jansen\BBA\Spink}{Jansen\BBA\Spink}{2003}]{Jansen03}Jansen,B.\BBACOMMA\\BBA\Spink,A.\BBOP2003\BBCP.\newblock\BBOQAnAnalysisofWebDocumentsRetrievedandViewed.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonInternetComputing},\mbox{\BPGS\65--69}.\bibitem[\protect\BCAY{岸田}{岸田}{2003}]{Kishida03}岸田和明\BBOP2003\BBCP.\newblock\JBOQ文書クラスタリングの技法:文献レビュー.\JBCQ\\newblock{\BemLibraryandInformationScience},{\Bbf49},\mbox{\BPGS\33--75}.\bibitem[\protect\BCAY{成田\JBA太田\JBA片山\JBA石川}{成田\Jetal}{2003}]{Narita03}成田宏和\JBA太田学\JBA片山薫\JBA石川博\BBOP2003\BBCP.\newblock\JBOQWeb文書の非排他的クラスタリング手法及びその評価手法.\JBCQ\\newblock\Jem{データベースとWeb情報システムに関するシンポジウム(DBWeb2003)論文集},\mbox{\BPGS\85--92}.\bibitem[\protect\BCAY{大野\JBA渡辺\JBA片山\JBA石川\JBA太田}{大野\Jetal}{2006}]{Ohno06}大野成義\JBA渡辺匡\JBA片山薫\JBA石川博\JBA太田学\BBOP2006\BBCP.\newblock\JBOQMaxFlowアルゴリズムを用いたWebページのクラスタリング方法とその評価.\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf47}(SIG4(TOD29)),\mbox{\BPGS\65--75}.\bibitem[\protect\BCAY{折原\JBA内海}{折原\JBA内海}{2008}]{Orihara08}折原大\JBA内海彰\BBOP2008\BBCP.\newblock\JBOQHTMLタグを用いたWebページのクラスタリング手法.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf49}(8),\mbox{\BPGS\2910--2921}.\bibitem[\protect\BCAY{Osi\'nski\BBA\Weiss}{Osi\'nski\BBA\Weiss}{2005}]{Osinski05}Osi\'nski,S.\BBACOMMA\\BBA\Weiss,D.\BBOP2005\BBCP.\newblock\BBOQAconcept-drivenalgorithmforclusteringsearchresults\BBCQ\\newblock{\BemIEEEIntelligentSystems},{\Bbf20}(3),\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Wang\BBA\Kitsuregawa}{Wang\BBA\Kitsuregawa}{2002}]{Wang02}Wang,Y.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2002\BBCP.\newblock\BBOQEvaluatingContents-linkCoupled{W}ebPageClusteringfor{W}ebSearchResults.\BBCQ\\newblockIn{\BemProceedingsofthe11th{ACM}InternationalConferenceonInformationandKnowledgeManagement(CIKM'02)},\mbox{\BPGS\499--506}.\bibitem[\protect\BCAY{Zamir\BBA\Etzioni}{Zamir\BBA\Etzioni}{1998}]{Zamir98}Zamir,O.\BBACOMMA\\BBA\Etzioni,O.\BBOP1998\BBCP.\newblock\BBOQWebCocumentClustering:AFeasibilityDemonstration.\BBCQ\\newblockIn{\BemProceedingsofthe21stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'98)},\mbox{\BPGS\46--54}.\bibitem[\protect\BCAY{Zeng,He,Chen,Ma,\BBA\Ma}{Zenget~al.}{2004}]{Zeng04}Zeng,H.,He,Q.,Chen,Z.,Ma,W.,\BBA\Ma,J.\BBOP2004\BBCP.\newblock\BBOQLearningtoCluster{W}ebSearchResults.\BBCQ\\newblockIn{\BemProceedingsofthe27thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'04)},\mbox{\BPGS\210--217}.\bibitem[\protect\BCAY{平尾\JBA竹内}{平尾\JBA竹内}{2006}]{Hirao06}平尾一樹\JBA竹内孔一\BBOP2006\BBCP.\newblock\JBOQ複合名詞に着目したWeb検索結果のクラスタリング.\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2006--NL--175},\mbox{\BPGS\35--42}.\end{thebibliography}\begin{biography}\bioauthor{仁科朋也}{2008年電気通信大学電気通信学部システム工学科卒業.2010年同大学院電気通信学研究科システム工学専攻博士前期課程修了.在学中は自然言語処理の研究に従事.}\bioauthor{内海彰}{1988年東京大学工学部反応化学科卒業.1993年東京大学大学院工学系研究科情報工学専攻博士課程修了.博士(工学).東京工業大学大学院総合理工学研究科システム科学専攻助手,同研究科知能システム科学専攻専任講師を経て,2000年から電気通信大学電気通信学部システム工学科助教授,2010年より同大学院情報理工学研究科総合情報学専攻准教授となり,現在に至る.言語を中心とした認知科学,認知修辞学,言語情報処理の研究に従事.日本認知科学会,情報処理学会,言語処理学会,人工知能学会,CognitiveScienceSociety等各会員.}\end{biography}\biodate\end{document}
V13N03-09
\section{はじめに} \label{sec:hajimeni}\subsection{背景}インターネットの普及により,インターネット上に膨大でかつ多種多様なテキスト情報が蓄積されるようになって久しい.インターネット上の膨大なテキスト情報を扱うための技術として,テキスト検索,自動要約,質問応答等さまざまな知的情報アクセス技術に関する研究が活発化しているが,同様にインターネット上の多様なテキスト情報のうち,これまであまり研究対象とされてこなかったものを扱うための技術も研究が活発化してきている.これまで研究対象とされてきたテキスト情報は,新聞記事,学術論文に代表されるように,事実を記述するものがほとんどであった.それに対し,チャット,Web掲示板,Weblog等の普及,利用者の増大に示されるように,インターネット上では,一般の個人が手軽に情報発信できる環境が整うとともに,個人の発信する情報に,ある対象に関するその人の評価等,個人の意見が多数記述されるようになってきている.この個人の評価に関する情報(\textbf{評価情報})をテキスト中から抽出し,整理し,提示することは,対象の提供者である企業やサイト運営者,また,対象を利用する立場の一般の人々双方にとって利点となる.このため,自然言語処理の分野では,近年急速に評価情報を扱う研究が活発化している.2004年春にはAAAIのシンポジウムとして評価情報を扱う最初の会議が開催された\cite{aaai2004a}.国内でも,2004年度の言語処理学会年次大会では,評価情報の抽出に関連する研究報告が数多く見られた.そこで本解説論文では,テキストから評価情報を発見,抽出および整理,集約する技術について,その基盤となる研究から最近の研究までを概説することを目的とする.上述したように,この研究領域ではここ数年で爆発的に研究が増大しているが,それらの研究を体系的に整理,概説する解説論文はいまだなく,研究の現状,あるいは今後の方向性を見極めるのに研究者が苦労しているのが現状である.本解説論文がその一助となれば幸いである.\subsection{テキスト評価分析とは?--本論文で扱う問題領域--}個人の記述する「意見」と言われるものにはさまざまなものが存在する.意見を下位分類するなら,少なくとも以下のようなものがその範疇に含まれることになる.\begin{itemize}\item評価を記述するもの,\item要望,要求,提案の表明,\item不安,懸念,不満,満足等の感情を表すもの,\item認識,印象を述べるもの,\item賛否の表明.\end{itemize}本解説論文では,このうち「評価を記述するもの」を対象とする研究を主に扱う.この分野でのこれまでの研究の多くは,以下の問題を解いているという風に要約できる:\begin{quote}\tab{example1}のような,ある対象の評価を記述しているテキスト断片に対して,その評価が,肯定的な評価(たとえば「良い」)であるか,あるいは,否定的な評価(例えば「悪い」)であるかを推定する.\end{quote}本稿では,このような評価に関する分析を{\bfテキスト評価分析}と呼び,{\bfテキスト評価分析}を取り巻く諸研究の現状を紹介する.この問題は,もう少し具体的には,肯定的な評価/否定的な評価の2値分類として定式化されることが多い.また,問題は,テキスト断片の粒度によって,次の3つに大別できる.\begin{itemize}\item語句レベル\item文レベル\item文書レベル\end{itemize}例えば,\tab{example1}は文レベルでの2値分類である.言うまでもなく,このテキスト断片の粒度ごとに問題の性質は大きく異なる.それぞれの詳細については,\sec{aa}で述べる.\begin{table}[t]\begin{center}\caption{評価を伴うテキスト例}\label{tab:example1}\cite{morinaga2002a}中のTable1から一部を抜粋して再録.\input{tab-example1.tex}\end{center}\end{table}\subsection{用語の整理}背景思想の違いの影響などもあり,テキスト評価分析で利用される用語は各研究者間で統一されているとは言い難い.そのため,しばしば同一概念が論文間において異なった用語で参照されている.本稿では,個人の評価に関する情報を\textbf{評価情報},評価情報の良い/悪いに関する軸を\textbf{評価極性}と呼ぶ.ある評価情報が良い評価をもつことを\textbf{肯定極性}をもつと呼び,逆に悪い評価をもつことを\textbf{否定極性}をもつと呼ぶ.また,肯定極性か否定極性をもつ評価情報がテキスト内で記述された表現を\textbf{評価表現}と呼ぶ.\tab{yougo}に,本稿での用語に対応する,紹介論文において使用される代表的な用語を示す.\tab{yougo}の\textbf{評価極性値}とは,肯定極性と否定極性の間を連続的に捉え,各評価極性の強さを数値化したものである.評価極性値は,[-1,1]の範囲の実数値として与え,正側が肯定極性,負側が否定極性に割り当てられることが多い.\begin{table}[b]\begin{center}\caption{用語の対応}\label{tab:yougo}\begin{tabular}{c|l}\hline\hline本稿での用語&紹介論文において使用される代表的な表現\\\hline{\bf評価情報}&sentiments,~~affectpartsofopinions,~~reputation,~~評判\\{\bf評価極性}&semanticorientations,~~polarity,~~sentimentpolarity\\{\bf肯定極性(肯定)}&positive,~~thumbsup,~~favorable,~~desirable,~~好評\\{\bf否定極性(否定)}&negative,~~thumbsdown,~~unfavorable,~~undesirable,~~不評\\{\bf評価極性値}&semanticorientationscore,~~SO-score\\{\bf評価表現}&sentimentexpression,~~wordwithsentimentpolarity\\\hline\end{tabular}\end{center}\end{table}\subsection{本論文の構成}本論文の構成は以下の通りである.まず,\sec{daizai}では,テキスト評価分析の題材となるテキストデータについて述べる.\sec{aa}では,テキスト評価分析を支える各要素技術に関する諸研究を紹介する.続く\sec{appl}では,テキスト評価分析の応用研究を紹介し,\sec{kanren}で,テキスト評価分析に関連するその他の話題を紹介する.最後に,\sec{kadai}で,テキスト評価分析で今後取り扱うべき課題を述べ,\sec{owarini}で本論文をまとめる. \section{テキスト評価分析の題材となるテキストデータ} \label{sec:daizai}\sec{hajimeni}で述べたように,この研究領域が活発化することになった1つの要因は,インターネット上に,対象となるテキスト集合が豊富に蓄積されるようになったことが挙げられる.しかし,評価分析の題材となるテキストは,Web上にしか存在しないわけでもないし,Web上に蓄積される以前には存在しなかったわけでもない.アンケート調査等における自由回答アンケートのテキストや,企業等のカスタマーサポートセンターに蓄積されている「お客様の声」等は,まさに評価分析の題材として以前から分析の対象となっていた.評価分析の題材となるテキストは,大きく次の2つに分類することができる.\begin{itemize}\item意見の収集,集約が目的となっているテキスト\begin{itemize}\item社会調査等による自由回答アンケート\itemカスタマーサポートセンターにおける「お客様の声」\itemレビュー(以下は,テキスト評価分析で利用される代表的なレビューサイト)\begin{itemize}\itemRotten~Tomatoes(\url{http://www.rottentomatoes.com/})\itemEpinions.com(\url{http://www.epinions.com/})\itemAmazon.com(\url{http://www.amazon.com/})\itemAmazon.co.jp(\url{http://www.amazon.co.jp/})\end{itemize}\end{itemize}\item潜在的に意見を含むテキスト\begin{itemize}\itemチャット\itemWeb掲示板\itemWeblog\end{itemize}\end{itemize}前者は,まさにユーザ(個人)に意見を述べてもらうことを目的にして収集されたテキストである.そのため,テキスト中に意見が含まれる割合は比較的大きく,また,テキストの性質としても,ユーザが書いたものを校正したりしている場合等もあり,比較的良質であることが多い.さらに,意見の対象となっている内容が特化されており,話題が限定的であることも多い.一方,潜在的に意見を含むテキストでは,テキスト中の意見部分の割合は前者に比べると小さくなり,また,Web上のテキストであるチャットや掲示板内の記述は,言語処理の精度が著しく劣化する可能性があるほど,テキストとしては質が悪いことが多い.Weblogのテキストは,それらに比べれば,比較的テキストの性質は良いと言える.また,テキストの内容は,掲示板の一部で話題をスレッドごとに限定している場合を除けば,テキスト中で雑多なことを記述している可能性が高いと言える.本稿では,このような性質をもつ一連のテキストデータを合わせて\textbf{評価文書}と呼び,評価文書から評価情報を抽出し,整理し,あるいは提示する技術について紹介していく. \section{テキスト評価分析の要素技術に関する諸研究} \label{sec:aa}テキスト評価分析を支える要素技術に関する研究は,注目するテキスト断片の粒度によって次のように分けられる.\begin{itemize}\item評価表現辞書の構築に関する諸研究(\sec{se})\item評価情報を観点とした文書分類に関する諸研究(\sec{dc})\item評価情報を含む文の抽出に関する諸研究(\sec{sc})\item評価情報の要素組の抽出に関する諸研究(\sec{ie})\end{itemize}各要素技術の関係を\fig{zentai}に示す.また,各要素技術で用いられる手法の概観を\tab{gaikan}にまとめる.\begin{figure}[b]\begin{center}\includegraphics[width=7cm]{fig-zentai.eps}\caption{テキスト評価分析の要素技術間の関係}\label{fig:zentai}\end{center}\end{figure}\sec{se}で述べる評価表現辞書とは,評価表現とその表現がもつ評価極性の組(例:「良い−肯定」)の集合である.この辞書はその他の要素技術において基礎的な知識として利用される.\sec{dc}から\sec{ie}までの残りの話題では,それぞれ文書,文,要素組という単位で評価情報とその評価極性を求める課題を主に扱う.\sec{ie}で述べる評価情報の要素組の抽出に関する研究では,文書や文より細かい語句単位の粒度で評価情報を扱う.いずれの研究も互いに関連をもっているが,特に,\sec{se}と\sec{ie}で扱う話題はいずれも語句レベルの話題であるという点で似ている.しかし,\sec{se}での話題は文脈情報とは独立な単語単体の評価極性に焦点が当たっているが,\sec{ie}では実際の文脈情報を含めた評価極性に焦点が当たっている点に注意して読み進めてほしい.\subsection{評価表現辞書の構築に関する諸研究}\label{sec:se}評価表現辞書とは,評価表現とその表現がもつ評価極性の組(例:「良い−肯定」)の集合である.評価表現辞書の構築に関する研究は,構築に主に利用する情報によって,大きく3つに分けられる.以下,順に紹介する.\begin{itemize}\item語彙ネットワークを利用した手法(\sec{lex_net})\item共起情報を利用した手法(\sec{cooc})\item周辺文脈の情報を利用した手法(\sec{bootstrap})\end{itemize}\subsubsection{語彙ネットワークを利用した手法}\label{sec:lex_net}語彙ネットワークを利用した評価表現辞書構築の手法は,既存の語彙知識の情報を利用して,評価表現の評価極性を求める.もう少し具体的には,まず,シソーラスや国語辞書の情報を基にして,語彙をノードとする語彙ネットワークを用意する.そして,評価極性情報をネットワーク上で伝播させることによって,語彙ネットワーク中のすべてのノード(語彙)の評価極性を求める.\phantom{\cite{kamps2004a}}ここではまず,\cite{kamps2004a}と\cite{hu2004a}の研究を紹介する.これらの研究は,いずれも,「類義関係にある語彙の評価極性は一致しやすい」という仮定に基づいてアルゴリズムが構成されている.\vspace{1em}\underline{\textbf{\cite{kamps2004a}}}\vspace{1em}Kampsetal.\cite{kamps2004a}は,WordNet\cite{fellbaum1998a}の情報を利用して形容詞の評価極性を判定する手法を提案している.WordNet中の形容詞は,類義関係(synonymy)のリンクで結ばれ,ネットワーク構造を成している.Kampsらは,このネットワーク内の隣接情報を利用する.Kampsらの基本的なアイデアは,まず,肯定極性を代表する語と否定極性を代表する語と選定する.彼らの評価実験では,「good」と「bad」をそれぞれ選んでいる.そして,評価極性を判定したい形容詞$t$がネットワーク内において「good」と「bad」のどちらに近いかを考え,「good」に近ければ$t$を肯定極性とみなし,逆に「bad」に近ければ$t$を否定極性とみなす.具体的には,形容詞$t$の評価極性値$SO$-$score(t)$は,次の式で求められる;\begin{equation}SO\textrm{-}score(t)=\frac{{\sfd}(t,{\rmbad})-{\sfd}(t,{\rmgood})}{{\sfd}({\rmgood},{\rmbad})}.\end{equation}\begin{landscape}\begin{table}[p]\begin{center}\caption{テキスト評価分析を支える要素技術の概観}\label{tab:gaikan}\input{tab-gaikan.tex}\end{center}\end{table}\end{landscape}ここで,${\sfd}(t_{i},t_{j})$は,2つの形容詞($t_{i}$と$t_{j}$)間の最短経路長を示す.この式のもとで,$SO$-$score(t)$の値が正であれば肯定極性であると判定し,負であれば否定極性であると判定する.\vspace{1em}\underline{\textbf{\cite{hu2004a}}}\vspace{1em}Huetal.\cite{hu2004a}もWordNetを使用して形容詞の評価極性を判定する手法を提案している.Huらは,Kampsらが注目していた類義関係の情報に加え,反義関係(antonymy)の情報も利用している.Huらの手法では,まず,少数の,評価極性が既知である語集合(Huらの評価実験では30語)を種表現として用意する.そして次に,種表現から出発し,順番にWordNet内の類義関係と反義関係を辿る.この時,類義関係を辿った場合は類義関係の辿り元にある形容詞と同じ評価極性を割り当て,反義関係を辿った場合は反義関係の辿り元にある形容詞と逆の評価極性を割り当てる.この操作を辿り先がなくなるまで繰り返すことで,WordNet内の形容詞の評価極性を求めた.\vspace{1em}以上の2つの研究は,共に形容詞に注目している.WordNet内に含まれる形容詞以外の評価表現の分布については,\cite{strapparava2004a}が参考になる.次に,WordNetではなく,コーパスから語彙ネットワークを作成している\cite{hatzivassiloglou1997a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{hatzivassiloglou1997a}}}\vspace{1em}Hatzivassiloglouetal.\cite{hatzivassiloglou1997a}は,コーパス中の接続詞の情報を手がかりにして語彙ネットワークを構築し,そこから形容詞の評価極性を判定する手法を提案した.これは「順接関係の接続詞で結ばれる形容詞は同じ評価極性をもつ.逆に,逆接関係の接続詞で結ばれる形容詞は異なる評価極性をもつ」という考え方に基づいた手法である.まず,コーパスから「形容詞-接続詞-形容詞」という品詞の並びをもつ語系列を抽出する.そして,形容詞をノードとし,語系列内の2つの形容詞の間にリンクを張ることで語彙ネットワークを作成する.この時,リンクには,接続詞のタイプ情報などを利用して,リンクが結んでいる2つの形容詞の評価極性が一致するか否かに関する情報が同時に付与される.例えば,接続詞が「and」であれば評価極性が一致,「but」であれば評価極性が不一致という情報をリンクに付与する.次に,クラスタリング・アルゴリズムを用いてノードをまとめ上げることによって,語彙ネットワークを2つのグループに分割する.この時,片方のグループには肯定極性となる形容詞,もう片方のグループには否定極性となる形容詞が入るようにクラスタを構成する.そして,最終的に各グループの評価極性を定めることで,語彙ネットワーク内の全ての形容詞の評価極性を求める.\vspace{1em}ここまでに紹介した3つの辞書獲得手法は,いずれも語彙ネットワーク内の局所的な情報から新たな評価極性を決定しており,語彙ネットワーク全体の情報を十分に活用できていない.Takamuraetal.\cite{takamura2005a}は,この問題点に対し,spinglass\cite{chandler1987a,mackay2003a,inoue2001a}の枠組みを利用することによって,語彙ネットワーク全体の大域的な情報を活用するモデルを提案している.また,Takamuraらは,先行研究での知見から,語彙ネットワークの作成でも工夫を凝らしており,国語辞書の情報をベースにして,シソーラス,コーパスの情報を加えた語彙ネットワークを作成している.国語辞書の情報を評価極性辞書構築に利用するという着想自体は\cite{kobayashi2001a}が初めに提案したものである.\subsubsection{共起情報を利用した手法}\label{sec:cooc}共起情報を利用した評価表現辞書構築の手法では,肯定極性をもつ典型的な表現(「good」や「excellent」)と否定極性をもつ典型的な表現(「bad」や「poor」)を種表現として始めに用意しておき,種表現と共起する比率に従って語句の評価極性を判定する.この手法は「肯定極性をもつ語句の周辺文脈には肯定極性をもつ語句が現れやすく,否定極性をもつ語句の周辺文脈には否定極性をもつ語句が現れやすい」という考え方に基づく.先のHatzivassiloglouらの手法でも「形容詞-接続詞-形容詞」という共起情報が利用されていたが,そこでは,共起情報は語彙ネットワークを通して,間接的に形容詞の評価極性の判定に利用された.ここでは,より直接的に共起情報を単語の評価極性に反映させる\cite{turney2002a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{turney2002a}}}\vspace{1em}Turney\cite{turney2002a}は,コーパスから得られる共起情報を利用して語句の評価極性値を判定した.この手法は,国語辞書の見出し語や,WordNetのエントリ情報を利用しないため,見出し語単位やエントリ単位だけでなく,複数語からなる句に対しても評価極性値を判定できる.ある評価表現$\textit{t}$の評価極性値$SO$-$score(t)$は\eq{turney1}で算出される;\begin{equation}\label{eq:turney1}SO\textrm{-}score(\textit{t})=PMI(\textit{t},\textrm{``excellent''})-PMI(\textit{t},\textrm{``poor''}).\end{equation}ここで,PMI(pointwisemutualinformation)\cite{church1989a}は,2つの語句間の共起を測る尺度であり,任意の語句\textit{a},\textit{b}の間のPMIは,\begin{equation}\label{eq:turney2}PMI(a,b)=\log_{2}\frac{p(a,b)}{p(a)p(b)}\end{equation}で計算される.つまり,評価極性値を判定したい語句\textit{t}が肯定極性を示す代表的な語「excellent」と共起しやすければ,$SO$-$score({\textitt})$は正に大きい値をとり,否定極性を示す代表的な語「poor」と共起しやすければ,逆に負に傾く.Turneyの手法は,国語辞書やシソーラスなどの言語資源を一切必要としないため手軽さがあるが,信頼性の高い共起情報を得るには巨大なコーパスを必要とすることに注意しなければならない.元論文では,WorldWideWeb空間の文書全体をコーパスと見立て,検索エンジンを用いて語句\textit{a},\textit{b}間の共起情報$PMI(a,b)$を得ている.同一著者による\cite{turney2002b,turney2003a}では,\cite{turney2002a}の考えを推し進め,種表現を複数用いた手法や,PMIの代わりに潜在的意味解析(semanticlatentanalysis;LSA)\cite{deerwester1990a,landauer1997a}を用いた手法も検討している.\subsubsection{周辺文脈の情報を利用した手法}\label{sec:bootstrap}周辺文脈の情報を利用した評価表現辞書構築の手法では,まず,評価極性が既知である少数の種表現を幾つか用意する.そして,辞書構築アルゴリズムでは,繰り返し過程の中で,種表現から評価表現を順次増やしていくブートストラップ的な戦略をとる.一般に,ブートストラップ法では,注目している対象(ここでは評価表現)とその周辺文脈情報を交互に学習させる.現在までに,注目する周辺文脈情報の違いによって,幾つかの辞書構築手法が提案されている\cite{kobayashi2001a,inui2004a,nakayama2004a,kobayashi2005a}.多くの場合,周辺文脈には特定の言語パタンが想定される.ここでは,「文脈一貫性」という非常に汎用性の高い概念に基づいて周辺文脈を特定した\cite{nasukawa2004a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{nasukawa2004a}}}\vspace{1em}那須川ら\cite{nasukawa2004a}は,評価表現の周辺文脈に関する以下の仮定に基づき,ブートストラップ的に評価表現を収集した.\begin{quote}「文書中に評価表現が存在すると,その周囲に評価表現の連続する文脈が形成されることが多く,その中では,明示されない限り,肯定/否定の極性が一致する傾向にある.」\end{quote}つまり,ある評価表現$t$の周辺文脈に注目した場合,「しかし」や「〜だが」などの逆接関係を導く表現が存在しなければ,文脈中にある評価表現の評価極性は$t$の評価極性と等しくなり,逆に,逆接関係を導く表現が存在すれば,それ以降の極性は$t$の極性から反転すると考える.まず,評価極性が既知である少数の評価表現を種表現として用意し,上記の仮定に従って,文書内からブートストラップ的に評価表現候補を収集する.複合的な評価表現に対応するため,用言と同時に,用言に最も近い格助詞句を加えた複合表現を評価表現候補として選んでいる.考慮する周辺文脈は,評価表現$t$と同一文内の節,前文の主節,後文の主節としている.種表現が「満足する−肯定」である場合に抽出される評価表現候補の例を\NUM{nasukawa_ex}に示す.\EXS{nasukawa_ex}{\itemデジタルカメラなど不要だと思っていました。ところが、画像がきれいで、とても\underline{満足し}ました。何も文句を言えません。\item評価表現候補;「奇麗だ−肯定」「奇麗だ<画像:が>−肯定」「不要だ−否定」「不要だ<デジタルカメラ:が>−否定」「言える−否定」「言える<文句:を>−否定」}この例では,「ところが」が逆接を導く表現である.「言える」「言える<文句:を>」が肯定極性ではなく否定極性となっているのは極性反転子(文末の「〜ません」)の効果による(極性反転子の詳細については,\sec{dc_ratio}のKennedyetal.\cite{kennedy2005a}の箇所で述べる).上記の評価表現候補の作成法では,実際には評価極性をもたない評価表現候補も多く登録してしまうことになる.そこで,そのような評価表現候補を最終的な評価表現として登録することを避けるために,ある一定の基準を満たす評価表現のみ評価表現辞書に登録する.基準には,評価表現の出現頻度情報や,各評価表現に対してアルゴリズムから求められた評価極性の割合の情報などが利用される.\subsubsection{まとめ}評価表現辞書の構築に関する研究を,語彙ネットワークを利用した手法(\sec{lex_net}),共起情報を利用した手法(\sec{cooc}),周辺文脈の情報を利用した手法(\sec{bootstrap})の3つに分類し,各手法の代表的な論文を紹介した.現在の状況では,各手法はそれぞれに欠点がある.語彙ネットワークを利用した手法は,語彙ネットワークを作成する際に国語辞書やシソーラスなどの既知の言語資源を利用することが多いが,この場合,新語など,既知の言語資源にエントリのない語句への対応は困難である.共起情報を利用した手法は,信頼性の高い共起情報を得るために必要な巨大なコーパスをどのように用意すればよいかという課題が残る.また,現状の周辺文脈の情報を利用したブートストラップに基づく手法では被覆率が低いという問題がある.評価表現辞書構築の精度評価には,TheGeneralInquirer\cite{stone1966a}(URL:~~\url{http://www.wjh.harvard.edu/~inquirer/})がしばしば利用される.これは,元はテキスト内容分析\cite{stone1966a}のために作成された言語知識データであり,単語毎に幾種類かのラベルが付与されている.その中の``Positiv''ラベルと``Negativ''ラベルの情報が主に辞書構築の精度評価に利用される.TheGeneralInquirerを用いた評価表現辞書構築の手法の比較については,\cite{takamura2005a}や\cite{takamura2005c}に記述がある.評価表現辞書は,実際の文書中の文脈とは独立した静的な知識である.しかし,後述する\sec{ie}の内容とも関連するが,ある表現の評価極性は文脈に依存して変化することがある.評価表現辞書のエントリとして許容される範囲は,個々の応用ごとに個別に決定しなければならない.\subsection{評価情報を観点とした文書分類に関する諸研究}\label{sec:dc}本節では,評価情報を観点とした文書分類に関する研究を紹介する.評価情報を観点とした文書分類とは,ある評価文書が肯定極性か否定極性のいずれの極性をもつかを判定する課題である.この分類課題では,前節で述べた評価表現が主要な情報として利用される.以下本稿では,既存のトピックに基づく文書分類との混乱を避けるために,評価情報を観点とした文書分類を特に\textbf{評価文書分類}と呼ぶ.評価文書分類を実現することは,次のような状況において有益な情報を提供する.例えば,デジタルカメラ-Aに関する評価文書に関して,肯定極性をもつ評価文書のみをまとめることで,そのデジタルカメラの優れている点を把握することができる.この情報をもとにして,デジタルカメラ-Aの潜在的な購入者は,実際に購入を決断するかも知れない.また,否定極性をもつ評価文書のみをまとめることで,現時点でのデジタルカメラ-Aの欠点が把握できる.デジタルカメラ-Aの開発者は,この情報をもとにして改良を施すことができる可能性がある.評価文書分類の手法は,\cite{turney2002a}を起源とする評価表現の比率に基づく手法(\sec{dc_ratio})と,\cite{pang2002a}を起源とする機械学習に基づく手法(\sec{dc_ml})に大きく分かれる.以下,順に紹介する.\subsubsection{評価表現の比率に基づく手法}\label{sec:dc_ratio}評価表現の比率に基づく評価文書分類の手法では,評価文書中に現れる評価表現に注目し,肯定極性をもつ評価表現と否定極性をもつ評価表現の出現比率に従って,評価文書全体の評価極性を求める.つまり,肯定極性をもつ評価表現が否定極性をもつ評価表現に比べて多く出現している評価文書を肯定極性をもつ評価文書であると判定する.逆に,否定極性をもつ評価表現が肯定極性をもつ評価表現に比べて多く出現している評価文書を否定極性をもつ評価文書であると判定する.以下ではまず,\cite{turney2002a}の研究を紹介する.\vspace{1em}\underline{\textbf{\cite{turney2002a}}}\vspace{1em}Turneyの分類手続きは3つのステップから構成される.\vspace{1em}\begin{quote}\begin{description}\item[ステップ1]評価文書に含まれる評価表現を評価極性値付きで抽出する.これには,\sec{cooc}で述べた手法が利用される.\item[ステップ2]抽出された評価表現の極性値の平均値(平均極性値)を求める.\item[ステップ3]平均極性値の符号に応じて,評価文書全体の評価極性を決定する.平均極性値が正であれば肯定極性とし,そうでなければ否定極性とする.\end{description}\end{quote}\vspace{1em}Turneyは評価極性値を求める語句に制限を設けており,「lowfees」のような,形容詞(あるいは副詞でも可)を含む句に対してのみ評価極性値を求めている.これは,「形容詞は文書内に含まれる意見や評価を特定する際のよい指標となる」\cite{hatzivassiloglou2000a,wiebe2000a,wiebe2001a}という先行研究の指摘に基づく.また,句を選択しているのは,指標の文脈や領域依存性へ対応するためである.例えば,「unpredictable」という形容詞を考えた場合,自動車の評価文書内では「unpredictablesteering」のように否定極性となるが,映画の評価文書内では「unpredictableplot」のように,逆に肯定極性となる.このような状況では,形容詞「unpredictable」単体は,肯定的な評価文書と否定的な評価文書のどちらにも出現し,評価文書の評価極性を判定する際のよい指標とはならない.その一方で,「unpredictablesteering」や「unpredictableplot」といった「unpredictable」の前後文脈を追加した語句は,評価極性が現れる文脈を適切に捉えており,よい指標になる.特に,複数の評価対象(自動車,映画など)が含まれる評価文書集合を扱う状況では,単語単体ではなく句を利用することが望ましいと考えられる.Turneyの手法は,\sec{cooc}で述べた評価極性値の計算式が対数オッズに対応することに注意すると,ナイーブベイズ分類器に基づく文書分類と接点をもつことがわかる.Beinekeetal.\cite{beineke2004a}らは,ナイーブベイズ分類器の観点からTurneyの手法を捉え直し,Turneyの手法の拡張を行っている.\vspace{1em}次に,評価文書分類に有効な素性情報について検討した研究を紹介する.ここでは,先述のTurneyの手法に基づいたアプローチを採用したものを取り上げる.機械学習に基づく評価文書分類における素性情報に関する検討については\sec{dc_ml}で紹介する.\vspace{1em}\underline{\textbf{\cite{taboada2004a}}}\vspace{1em}Taboadaetal.\cite{taboada2004a}は,\cite{turney2002a}の手法の拡張版を用いて\footnote{\cite{taboada2004a}の基本的な分類手続きは\cite{turney2002a}と同じであるが,分類手続きの3ステップ目が拡張されている.},評価表現の出現する位置情報が評価文書分類に与える影響について調査している.この研究の背景には「評価文書中において,書き手の主要な意見は評価文書全体に均等に現れるのではなく,特定の部分に集中して現れる」という仮定がある.Taboadaらは,評価表現が出現する位置に応じて,各評価表現がもつ評価極性値を修正することで,位置情報の有効性を検討した.具体的には,まず,文書内の位置ごとに人手で重みを設定する.そして,評価表現が出現する位置に応じて,人手で定めた重みを評価極性値に乗じることによって評価極性値を修正する.出現位置に対する重みの設定を変更させながら,重みの設定と分類精度との関係を調査したところ,評価文書の後半2/3の位置に現れる評価表現への重みを最も高くした場合に最も良い分類精度が得られたと報告している.江崎ら\cite{esaki2005a}も日本語のWeblog記事を対象にして,形容詞の出現位置を考慮した同様の実験を実施している.実験結果によると,Weblog記事の前方側に現れる評価表現への重みを最も高くした場合に最も良い分類精度が得られたと報告している\footnote{\cite{taboada2004a}と\cite{esaki2005a}の実験結果には大きな相違がある.これには,対象としている評価文書やその評価文書の使用言語など,幾つかの要因が絡んでいるだろう.}.\vspace{1em}次に,極性変化子が評価文書分類に与える影響について調査したKennedyetal.\cite{kennedy2005a}の研究を紹介する.単語の中には,それ単体は評価極性を持たないが,評価極性をもつ単語を修飾することでその評価極性を変化させるものがある.このような評価極性を変化させる単語のことを\textbf{極性変化子}(contextualvalenceshifter)と呼ぶ\cite{polanyi2004a}.極性変化子には,評価極性を肯定から否定,あるいは否定から肯定に反転させたり,極性の強さを変化させるものがある.前者を反転子(negations),後者を強調子(intensifiers)と呼ぶ.代表的な反転子の例としては「not」や「never」などがある.また,強調子の例としては「very」や「deeply」などがある.\vspace{1em}\underline{\textbf{\cite{kennedy2005a}}}\vspace{1em}Kennedyetal.\cite{kennedy2005a}は極性変化子に注目し,極性変化子が評価文書分類に与える影響を検証した.トピックに基づく文書分類と比べて,評価文書分類では極性変化子,特に,極性反転子の処理に注意を払う必要がある.例えば,形容詞「good」は,肯定極性を示す代表的な単語であるが,これに「not」が付いた「notgood」は,逆の評価極性,すなわち否定極性を示す.評価文書分類を精度よくおこなうには,この特性をうまく素性情報として取り込むことが重要になる.Kennedyらは,評価文書分類の手法として\cite{turney2002a}の手法を用い,次のようにして極性変化子の情報を取り込んだ.\begin{itemize}\item評価表現と同一の節内に極性反転子がある場合,評価表現の評価極性を反転させる.ある評価表現の評価極性が肯定極性であれば否定極性に,否定極性であれば肯定極性にする.\item評価表現と同一の節内に極性強調子がある場合,強調子に応じて評価表現の評価極性値を増減させる.強調の変化子であれば評価極性値を増やし,抑制の変化子であれば評価極性値を減らす.\end{itemize}評価実験を通して,極性変化子を考慮した方が,極性変化子を考慮しない場合よりも分類精度が向上することを確認した.\subsubsection{教師あり機械学習に基づく手法}\label{sec:dc_ml}ここでは,教師あり機械学習に基づく評価文書分類を扱った研究を紹介する.これまで,トピックに基づく文書分類では,さまざまな機械学習手法が適用されており,高い分類精度を達成している\cite{sebastiani2002a}.このような背景を考えれば,評価文書分類に機械学習手法を適用することは自然な流れであると言える.まず,評価文書分類に初めて機械学習を適用したPangetal.\cite{pang2002a}の研究を紹介する.\vspace{1em}\underline{\textbf{\cite{pang2002a}}}\vspace{1em}Pangetal.\cite{pang2002a}は,トピックに基づく文書分類で有効であった教師あり機械学習に基づく分類手法が,評価文書分類にも有効であるかどうかを実験的に検証した.用いた分類器は,トピックに基づく文書分類でもしばしば適用される,ナイーブベイズ分類器\cite{mitchell1997a},最大エントロピー法に基づく分類器\cite{berger1996a},サポートベクトルマシン分類器\cite{vapnik1995a}である.学習に利用する素性情報には,単語uni-gram,単語bi-gramなど,トピックに基づく文書分類で一般的に利用される情報のみを利用している.評価実験から次のような知見を得た.\begin{itemize}\item評価表現は形容詞となることが多いが,単語uni-gramとして,評価文書中のすべての単語を利用した場合の結果は,形容詞のみを利用した場合の結果よりも高い精度を得た.このことは,形容詞以外の単語が,評価文書の評価極性を判定する際のよい指標となっていることを示している.これについては,\cite{salvetti2004a}でも同様の報告がされている.\item単語uni-gram素性を利用して評価文書分類を行った場合の精度は,同一の学習手法と同一の素性情報を用いたトピックに基づく文書分類の精度よりも低かった.このことは,評価文書分類は,トピックに基づく文書分類よりも難しく,単純な単語uni-gramよりも複雑な情報が必要であることを示している.\end{itemize}Pangらが評価実験の際に作成したデータセットは,共通の評価実験用データとして多くの研究者に利用されている.このデータセットは以下のURLから入手できる.\vspace{1em}\begin{quote}Pang'smoviereviewdata;\\\url{http://www.cs.cornell.edu/people/pabo/movie-review-data/}\end{quote}\vspace{1em}\cite{pang2002a}の結果を受けて,評価文書分類に有効な素性情報についての検証がこれまでにされている.Mullenetal.\cite{mullen2004a}は,サポートベクトルマシン分類器を用いた評価文書分類において,\cite{turney2002a}や\cite{kamps2004a}の手法によって得られた評価表現の評価極性値を素性情報に用いた.また,評価表現の位置情報も利用しており,評価対象を表す語に近い位置にある評価表現が評価文書分類に有効に働くことを示した.Pangetal.\cite{pang2004a}は,「事実文に含まれる評価は対象に関する書き手の評価とは関係がなく,意見文に含まれる評価のみが対象に関する書き手の評価と関係する」と仮定して,文の主観性(subjectivity)に注目した.Pangらは,分類の第1段階として,評価文書中の文を意見文と事実文に分け,意見文のみを抽出する.その後,抽出された意見文集合のみを対象として,\cite{pang2002a}の機械学習手法を適用して評価文書を分類した.Matsumotoetal.\cite{matsumoto2005a}は,サポートベクトルマシン分類器を用いる場合の素性情報として,単語uni-gram,単語bi-gramに加えて,語の系列および語間の依存構造木の情報を利用した.また,Baietal.\cite{bai2004a}は,ナイーブベイズ分類器で仮定される語間の統計的独立性の仮定を排除するために,ベイジアンネットワークの一つであるMarkovBlanketDirectedAcyclicGraph\cite{pearl1988a}を用いた.現在のところ,Pang'smoviereviewdataを用いた評価実験の結果の中では,\cite{matsumoto2005a}や\cite{bai2004a}が,その他の手法と比べて高い精度を達成している.(実際の数値については各論文を参照されたい.)\vspace{1em}ここまでに紹介した評価文書分類の諸研究では,必ず肯定極性か否定極性のどちらかに分類できる評価文書を扱っている.これは,しばしば利用されるPang'smoviereviewdataがそのように構成されていることに一因がある.しかしながら,現実には,このようにすべての文書が必ず肯定極性か否定極性のどちらかに分類できる状況でないことも多い.次に紹介するGamonの研究\cite{gamon2004a}は,カスタマーサポートセンターに届けられた文書を扱った.Gamonのデータは,Pang'smoviereviewdataなどと比べて,断片的で,短いコメントが多く,そのため,本質的に評価極性が決定できない文書も含んでいる.\vspace{1em}\underline{\textbf{\cite{gamon2004a}}}\vspace{1em}Gamon\cite{gamon2004a}は,カスタマーサポートセンターに届けられた顧客レビューを題材にして,評価文書分類を行った.Gamonは,まず,データの特性を知るための事前調査を行っている.収集された顧客レビューにはあらかじめレビューを書いたユーザが付与した評点(rating)が付与されている.200サンプルを人が肯定極性か否定極性かの2クラスに分類したところ,約半数の117件しか正確に分類できなかった.残りのサンプルは,評価極性の判定に必要な情報が含まれていなかったり,評価極性をもつような内容が書かれていなかったり,肯定と否定の評価極性が混在していた.この結果から,Gamonのデータは,全ての文書が必ずしも評価極性の判定に適した文書となっているわけではなく,ノイズを多く含んでいることがわかる.Gamonは,評価文書分類にサポートベクトルマシン分類器を用いる際,上記のようなノイズを多く含む文書の分類に有効な素性を明らかにするために幾つかの種類の素性情報を利用した.まず,分類に利用する素性情報を,浅い言語解析のみで獲得できる素性(表層素性)と,獲得するために深い言語解析を必要とする素性(言語素性)に分けた.表層素性には,原形化された単語のuni-gram,bi-gram,tri-gramが含まれている.また,言語素性は,品詞tri-gram,文や節の長さ,構文構造,句間の意味関係,他動性,時制などが含まれている.句間の意味関係には,例えば,``Verb-Subject-Noun(ある名詞Nounはある動詞Verbの主体Subjectを表す)''などがある.上記のそれぞれの素性情報の有効性を検証したところ,表層素性に加えて,言語素性を用いることで分類精度が向上することを確認した.また,ほぼすべての素性情報の組合せにおいて,対数尤度比\cite{dunning1993a}の高い上位n個の素性のみを選択的に利用する素性削減法を適用することによって,さらに高い精度を得た.\vspace{1em}Gamonは,肯定極性でも否定極性でもない(以降,\textbf{中立}と呼ぶ)文書の存在について言及しているが,問題設定としては従来と同じく2値の分類問題に設定した.2値分類ではなく,中立クラスを加えた3値の評価文書分類に初めて取り組んだのは\cite{koppel2005a}である.Koppelらは,まず,予備調査として,2値分類器を学習し,それをそのまま,肯定/否定/中立の3値分類に援用する方法では低い精度しか達成できないことを示した.そして,stacking\cite{wolpert1992a}に基づく3値の評価文書分類を行う手法を新たに提案している.\subsubsection{より細かい分類粒度へ}\label{sec:dc_gra}これまでは,評価文書分類として,肯定極性か否定極性かの2値の分類問題を扱うことが多かった.この点から,中立クラスを加えた\cite{koppel2005a}の3値分類を扱った事例は,これまでになく,かつ,現実のデータに即した視点を評価文書分類に導入したと言える.さらに,分類クラスの2値からの自然な拡張として,評価文書をより細かい分類粒度へ分類する課題を扱った研究がある\cite{pang2005a,okanohara2005a}.これらの研究はいずれも中立クラスを明示的に取り込むことを目的としているわけではないが,細かな粒度を扱うことによって,結果的に中立クラスが反映されていると考えられる.\vspace{1em}\underline{\textbf{\cite{pang2005a}}}\vspace{1em}Pangetal.\cite{pang2005a}は,2値よりも粒度の細かい映画レビューの評点(rating)に注目し,各映画レビューをそれに付与された評点毎に分類する(以下,\textbf{評価文書評点分類})ことを試みている.多値分類への素直な対応として,分類ではなく回帰の考え方を導入することが考えられる.しかし,映画レビューの評点が順序尺度であることを考慮すると,単純な回帰では適切に処理できない可能性がある.この点については,\cite{koppel2005a}でも議論されている.この問題を扱うために,Pangらは,metriclabeling法\cite{kleinberg1999a}を適用することによって,既存の分類器によって得られた評点分類結果を補正することを提案した.高い類似度をもつ評価文書群は,同じ評点を持つと考えられる.metriclabeling法は,この考えを自然に明示的に取り込むことができ,評価文書間の類似度が高い場合に,それらの評価文書がもつ評点間の差を小さくするように学習が進む.metriclabeling法では,評価文書間の類似度関数を利用するが,Pangらは,肯定極性文比率(positive-sentencepercentage;PSP)という尺度に基づく類似度関数を提案している.これは,評価文書中の全(意見)文における肯定極性文の比率を示す(すなわち,「肯定極性文の数」÷「評価文書中の全(意見)文の数」で求められた値).Pangらの調査から,評価文書の肯定極性文比率は,その評点と高い相関をもつことがわかっている.2つの評価文書$r_{1}$と$r_{2}$に対して,以下の類似度関数を提案している;\begin{equation}sim(r_{1},r_{2})=\cos(~\overrightarrow{\mathrm{PSP({\textitr_{1}})}}~,~\overrightarrow{\mathrm{PSP({\textitr_{2}})}}~).\end{equation}$\overrightarrow{\mathrm{PSP({\textitr_{i}})}}$は,文書$r_{i}$に対する$(\mathrm{PSP({\textitr_{i}})},1-\mathrm{PSP({\textitr_{i}})})$という2次元ベクトルを示す.評価実験では,サポートベクトルマシン分類器とOne-vs-Rest法\cite{rifkin2004a}の組合せ,SupportVectorRegression\cite{smola1998a},および,それぞれにmetriclabeling法を適用したものを比較し,metriclabeling法の有効性を示した.Pangらは,評点の粒度に関する予備調査として,人間が区別できる評点差の違いを調査し,3値と4値の評点粒度からなるデータセットを作成し,評価実験に用いた.これは,4人の著者が記述した文書を各著者ごとにまとめた4セットの評価文書集合からなる.\cite{pang2004a}の知見を基に,あらかじめ事実文を取り除いている.Pangらの実験は,同一著者のデータにしか適用されていないため,複数の著者によって生成された評価文書群に対して評価文書評点分類を行うには,著者間の評点値がもつ意味を正規化する手法が別に必要になる.\vspace{1em}\underline{\textbf{\cite{okanohara2005a}}}\vspace{1em}岡野原ら\cite{okanohara2005a}は,日本語の評価文書を対象にして,評価文書評点分類に取り組んだ.彼らの実験では,サポートベクトルマシン分類器とpair-wise法\cite{kresel1999a}の組合せと,SupportVectorRegressionが比較されている.評価文書評点分類では,分類クラスの粒度が2値分類よりも細かいために,従来の評価表現に加え,極性強調子の情報をうまく扱うことが重要である.岡野原らは,素性として,単語uni-gram,bi-gram,tri-gramの3種類の素性を試した.結果として,単語uni-gramと比較して,単語bi-gram,tri-gramを用いた方が精度が高かった.「verygood」のような評価表現と極性強調子の並びをうまく捉えたことが精度向上によい影響を与えていると考えられる.\subsubsection{まとめ}評価文書分類を扱った論文を紹介した.評価文書分類の手法は,評価表現の比率に基づく手法と,教師あり機械学習に基づく手法に分けることができる.また,肯定か否定かを分類する評価文書分類の拡張として,より細かな分類粒度を扱う評価文書評点分類に関する研究を紹介した.評価文書分類は,既存のトピックに基づく文書分類とは分類に有効な情報が必ずしも同じではない.\cite{pang2002a}による実験結果によると,評価文書分類は,トピックに基づく文書分類よりも難しい課題であると考えられ,今後の進展が望まれる.既に述べたように,これまでは,肯定極性か否定極性かのいずれかのみを扱う2値分類として扱われることが多かった.しかし,現実には,肯定極性か否定極性のいずれにも該当しない文書が存在する状況が多く,\cite{koppel2005a}のように,中立クラスを加えた3値の評価文書分類に対する考察についても今後の成果が期待される.中立クラスの扱いについては,\sec{neutral}で再び取り上げる.現在の評価文書分類では,多くの場合,ある評価対象についての評価情報が含まれている文書群が既に収集されているという前提の基で研究が進められる.これは,\sec{daizai}で述べた分類のうち,「意見の収集,集約が目的となっているテキスト」が主な研究題材となっていることに一因がある.しかし,一般には,ある文書が与えられた時,その文書に記述されている評価対象が何であるかについても判定する必要がある.今後は,評価対象の分類を考慮した評価文書分類についても検討していく必要がある.後の\sec{ie}では,文書内に含まれる評価情報の要素に注目した諸研究を紹介する.ここでは,評価情報要素のひとつとして,評価対象の存在が意識される.\subsection{評価情報を含む文の抽出に関する諸研究}\label{sec:sc}前節では,文書レベルで評価極性を判定する手法を紹介した.本節では,文書に含まれている文の評価極性を判定し,抽出する手法を紹介する.評価分析を実施する際,前節で紹介した評価文書分類を行うことによって,評価情報,評価極性に関する文書全体の傾向を把握することができる.しかし,評価対象がどのように肯定的あるいは否定的な評価を受けているかを知るには,評価文書の内容に目を通す必要がある.この時,各文書内に含まれている評価極性付きの文を抽出することができれば,評価対象がどのように評価を受けているかを知る上で見通しがよくなる.また,ひとつの文書に複数の評価が混じっているような場合には,文書レベルではなく,文レベルで評価極性を判定した方がよい.評価文抽出の基本的な考え方は評価文書分類と同様であり,評価表現の比率に基づく手法や機械学習に基づく手法がそれぞれ提案されている.Yuetal.\cite{yu2003a}は,評価表現の比率に基づく手法によって評価文分類を実現した.分類手続きは\sec{dc_ratio}で紹介した\cite{turney2002a}や\cite{taboada2004a}の手法と基本的に同じであるが,Yuらは,分類クラスとして肯定,否定に中立を加えた3クラスを考えるため,分類手続きの3ステップ目に拡張を施した.幾つかの精度評価実験の中で評価表現の品詞に関する考察を行っており,実験の結果,品詞が形容詞,副詞,動詞となる評価表現を合わせて利用した場合が精度が高かったと報告している.一方,この組合せに品詞が名詞である評価表現を加えると精度が低下する結果を得たと報告している.Gamonetal.\cite{gamon2005a}は,評価表現の比率に基づく手法と機械学習に基づく手法をそれぞれ提案している.評価表現の比率に基づく手法では,\cite{yu2003a}の手法を拡張した.評価極性値を計算する際に,文内では「同じ極性の単語が共起しやすい」という仮定に加え,「逆極性の単語は共起しにくい」という仮定を陽に取り入れたり,一度求めた評価極性値に基づいて種表現を漸次的に増やす手法を提案している.また,機械学習に基づく手法では,Nigamらが提案した半教師あり学習の手法\cite{nigam2000a}によって,評価極性情報が付与されていない大量の生データの情報を評価文分類に利用した.評価文分類で採用される分類手法は評価文書分類と共通するものが多いが,評価文分類に利用される素性情報も評価文書分類と重なる部分が多い.評価文書分類の場合と同様に,評価文分類でも単語,特に評価表現が分類の際の主要な情報となる.また,文内の語の系列情報\cite{osajima2005a}や構文情報\cite{kudo2003a}を利用したアプローチも報告されている.評価文分類では,評価文書分類のように文書内の位置情報などは利用されない.その一方で,評価文分類に固有な情報として,例えば,文の文型パターン\cite{murano2003a,touge2004a}などが利用される.また,評価文書分類の場合と同様に,評価文分類においても,評価対象が何であるかについては考慮されることがほとんどない.数少ない評価対象を考慮した評価文分類の研究として,\cite{hurst2004a,nigam2004a}がある.HurstとNigamは,評価対象を含む文を抽出する過程と文の評価極性を判定する過程を独立に並行して行う.そして,「ある文に,ある対象についての記述と,評価極性を示す記述が含まれている場合,その評価極性は同一文内の対象に関する極性である」という仮定に基いて,2つの過程の結果を併合することで対象に関する評価極性を判定した.\subsection{評価情報の要素組の抽出に関する諸研究}\label{sec:ie}評価情報は「良い」や「悪い」などの評価表現の他に,評価者,評価対象などの幾つかの要素によって構成される.これらの評価情報の要素組のことを以下,\textbf{評価組}と呼ぶ.本節では,文書から評価組を抽出し,その評価極性を判定する研究を紹介する.評価組抽出の研究背景にある動機付けは,評価文抽出と同様であり,評価文書全体の評価ではなく,評価文書中の個々の評価情報に関する評価に注目する.この課題は\sec{se}で紹介した評価表現辞書の構築に似ている.しかし,評価組の抽出では,評価表現が評価している評価対象や評価をしている評価者などを合わせて特定,抽出する点が評価表現辞書の構築と異なる.例えば,下の例文\NUMS{ie_ex}{a}からは,「美味しい」という評価表現と共に,その評価を受けているのは「りんご」であり,両者を合わせて,「りんごが肯定的な評価を受けている」ことを特定したい.また,例文\NUMS{ie_ex}{b}であれば,評価を受けているのは「帽子」であり,評価をしているのは「次郎」であることを特定したい.このように実際に評価表現が現れている文脈の情報を考慮することで,注目している評価情報の評価極性が変化する場合もある.例文\NUMS{ie_ex}{c}と\NUMS{ie_ex}{d}は同じ「眠気をさそう」という表現を含んでいるが,それぞれの対象(「ベッド」と「講義」)を考慮し,<ベッド,眠気をさそう>は肯定極性,<講義,眠気をさそう>は否定極性であることを判定することが求められる.さらに,例文\NUMS{ie_ex}{e}は,肯定極性をもつ評価表現「美味しい」を含んでいるが,文自体は質問を表しているのであって,りんごを評価しているわけではない.そのため,\NUMS{ie_ex}{e}から得られる要素の組に対しては,評価ではないことを判定することが求められる.\EXS{ie_ex}{\itemりんごが美味しい。\item次郎は太郎からもらった帽子を気に入っている。\itemこのベッドは眠気をさそう。\itemこの講義は眠気をさそう。\itemこのりんご、美味しかった?}評価組の抽出は,次のような副課題に分解して考えることができる.\begin{itemize}\item要素抽出:評価表現,評価対象などを文書から特定する(\sec{elem_ext}).\item関係抽出:各要素を結びつける.例えば,ある評価表現がどの評価対象について評価しているかを特定する(\sec{rel_ext}).\item動的評価極性:関係抽出の結果得られた評価組の評価極性を判定する(\sec{dyn_pn}).\end{itemize}それぞれの副課題について順に紹介する.\subsubsection{要素抽出}\label{sec:elem_ext}要素抽出は,評価情報を構成する要素を抽出する課題である.現在のところ,評価情報の要素としては,評価表現,評価対象,評価対象の属性,評価者などが主に取り上げられている.評価表現の抽出には\sec{se}で構築した辞書が利用される.また,多くの研究では評価対象はあらかじめ与えられていると想定する.そこで以下では,評価対象の属性と評価者の抽出に関する研究を紹介する.\subsubsubsection{評価対象の属性}\label{sec:attr}評価対象の属性とは,評価対象の仕様(性質や特徴など)や評価対象の一部分などのことを指す.デジタルカメラについての属性の例を\NUM{attr_ex}に示す.下線部が属性表現である.\EXS{attr_ex}{\item\underline{値段}が少し高い。\item満足のいく\underline{画質}です。\item\underline{レンズ}が明るい。}実際の属性抽出処理は,あらかじめ属性表現の集合を属性辞書として獲得しておき,評価情報獲得時には辞書照合によって属性抽出が実現される.そこで,属性辞書を(半)自動で構築することがここでの課題となる.属性の中には,値段やサイズなどのように評価対象間で共通の属性も存在するが,一般には,評価対象ごとに属性は異なる.そのため,属性辞書は評価対象ごとに用意する.ある対象に関する属性辞書を構築する場合,その対象について記述された文書群を用意し,そこから属性辞書のエントリを見つけ出し,辞書登録をおこなう.以下ではまず,ブートストラップに基づく小林ら\cite{kobayashi2005a}の手法を紹介する.小林らの手法は,評価対象の属性と同時に評価表現も合わせて抽出する.\vspace{1em}\underline{\textbf{\cite{kobayashi2005a}}}\vspace{1em}小林ら\cite{kobayashi2005a}は,文書に含まれる意見は<対象,属性,評価>の3つの要素からなると捉え,この3つ組要素のうち,属性表現と評価表現を効率よく収集する手法を提案した.次の\NUM{kobayashi2005_ex}は3つ組の例である.\NUMS{kobayashi2005_ex}{a}が意見が含まれるテキストであり,\NUMS{kobayashi2005_ex}{b}が\NUMS{kobayashi2005_ex}{a}から得られる3つ組である.\EXS{kobayashi2005_ex}{\item商品$\_$Aは、ボディはコンパクトですが、安定感は抜群ですね!\\ただ足回りは固いので、人を乗せる時は気を使います。\item$<商品\_$A$,ボディ,コンパクト>$\\$<商品\_$A$,安定感,抜群>$\\$<商品\_$A$,足回り,固い>$}小林らの手法は,ブートストラップに基づいており,対象,属性,評価に関する共起パタンを介して,評価表現と属性表現を相互に獲得する.共起パタンの例を\NUMS{kobayashi2005_ex2}{a}に示す.また,\NUMS{kobayashi2005_ex2}{a}の共起パタンに照合する意見テキストを\NUMS{kobayashi2005_ex2}{b}に示す.\EXS{kobayashi2005_ex2}{\item$<対象>の\underline{<属性>}は<評価>$\item商品\_Aの\underline{インテリア}はきれいですね。}共起パタン中の$<対象>$,$<属性>$,$<評価>$のそれぞれのスロットは,新規表現スロット(下線で示す)と既知表現スロット(下線部以外)に分かれている.各パタンにはひとつの新規表現スロットが含まれる.上記の例の場合,「商品\_A」に関して,「きれい」が評価表現であることが既知である状態で,「インテリア」が「商品\_A」の新しい属性候補であるとして収集される.小林らは8タイプの共起パタンを用意しているが,タイプによって,$<属性>$が新規表現スロットになる場合と$<評価>$が新規表現スロットになる場合を分けており,文書集合に対して,タイプの異なる共起パタンを繰り返し適用することで,属性表現と評価表現を相互に獲得している.\NUMS{kobayashi2005_ex2}{a}のように,小林らが作成した共起パタンは汎用的なパタンである.そこで,パタン照合の後,ノイズとなる属性候補,評価表現候補を排除するために幾つかのフィルタリングを行う.フィルタリングに利用される情報には,スロットに埋まる語句の品詞に関するものや,獲得された属性候補と評価表現候補の統計量(頻度,対数尤度比)などがある.なお,小林らの手法は,収集できた評価表現における評価極性は決定しない.\vspace{1em}その他にも,統計量に基づく属性抽出手法が幾つか提案されている.これらは,小林らのパタンによる候補獲得とフィルタリングという一連の処理のうち,パタン照合部に重点を置かず,フィルタリング部のみを行っていることに対応する.Yietal.\cite{yi2005a}は,限定名詞句に注目し,評価対象の文書に偏って出現する限定名詞句を対数尤度比に基づいて抽出した.Huetal.\cite{hu2004a,hu_min2004b}は,評価文書に対して,相関ルールマイニングの手法を用いて,評価文書集合中に頻出し,かつ評価表現から近い位置に出現する名詞あるいは名詞句を属性表現として抽出した.Liuetal.\cite{liu2005a}は,\cite{hu2004a,hu_min2004b}と同様に相関ルールマイニングの手法を用いて属性を抽出した.他の研究では属性表現の抽出対象を名詞に制限することが多いが,Liuらは名詞以外の表現も抽出している.Morinagaetal.\cite{morinaga2002a}は,本稿でいう属性に近い概念として,対象を特徴付ける語をマイニングする手法を提案した.\subsubsubsection{評価者(Holder,Source)}\label{sec:holder}評価者(Holder,Source)とは,評価対象を実際に評価している人物や組織のことである.まず,次の文を例に取りながら,評価情報の要素として評価者を考慮することの必要性について検討する.\EX{holder_ex}{りんご1箱あたりの値段が上がった.}この文の評価極性を考える.りんごの消費者にとって,りんごの値上がりは好ましいとは言えない.つまり,例文\NUM{holder_ex}をりんごの消費者から見た場合,この例文の評価極性は否定極性であると考えることができる.一方,りんごの生産者にとっては,りんごの値上がりは好ましい可能性があり,例文\NUM{holder_ex}をりんごの生産者から見た場合は,この例文の評価極性は肯定極性となる可能性がある.この例から,まったく同じ表現でも誰の視点から見るかによって評価極性が異なることが確認できる.つまり,より厳密なテキスト評価分析を実施するには,評価表現や評価対象に加えて,評価をおこなう者,つまり,評価者を特定する必要がありそうである.人物名辞書や組織名辞書があらかじめ用意できる環境であれば,評価者候補の特定は単純な辞書照合として容易に実現できる.評価者候補の特定には,ほかにも,既存の固有表現抽出(namedentityrecognition;NER)\cite{muc6,muc7,irex}に関する技術や意味役割同定(semanticrolelabeling;SRL)\cite{srl2004,srl2005}に関する技術が利用できるだろう.いずれの場合において,特定された評価者候補が実際に評価組の要素となるか否かは続く関係抽出処理に任せることになる.テキスト評価分析に関する研究全体の中でも,評価者の視点を考慮した研究は現時点ではそれほど多くはない\cite{kim2004a,bethard2004a,nakayama2005a}.この理由のひとつとしては,対象データが評価文書に偏っているという現状がある.評価文書の場合は,ほぼ,$$評価者~=~書き手$$の関係が成り立つ.このことから,現時点では評価者を特定する処理が省かれていると言える.今後,評価文書ではない,一般のWeb文書や新聞記事などに含まれる意見をテキスト評価分析で扱う場合,あるいは,評価文書を対象にしてより精緻なテキスト評価分析を実現する場合には,評価者の視点をより積極的に考慮していく必要がある.\subsubsection{関係抽出}\label{sec:rel_ext}関係抽出は,評価情報の各要素を関係づける課題である.先に述べたように,評価組抽出は,要素抽出,関係抽出,動的極性判定の3つの副課題に分解できるが,現在のところ,要素抽出,動的極性判定に比べて,関係抽出に焦点を当てた研究は乏しい.評価組抽出を扱う研究の多くは,要素間の近接情報や構文情報などに基づいた素朴な手法によって関係抽出を実現しているが,当然のことながら,十分な抽出精度が得られているわけではない.関係抽出に積極的に焦点を当てた研究としては,\cite{kobayashi2005b,iida2005a}がある.事前調査から,意見を含む日本語文書では,<属性,評価>間に係り受け関係が成立しない事例が少なからず存在することを指摘し,機械学習に基づく<属性,評価>関係を特定する手法を提案している.彼らのグループでは,<属性,評価>対を特定する課題が照応解析における<先行詞,照応詞>対を特定する課題に類似していることに着目し,照応解析モデルを関係抽出に応用した.近年では,固有表現間の関係を抽出する課題\cite{rdc}に対して,機械学習に基づく手法が盛んに研究されており\cite{zelenko2003a,culotta2004a},そこで得られた知見が本課題に利用できる可能性がある.\subsubsection{動的極性判定}\label{sec:dyn_pn}関係抽出の結果得られた評価組の評価極性を判定する研究を紹介する.これまでに見たように,要素抽出と関係抽出は,評価組抽出の副課題としてその他の副課題とは独立に研究されるケースが多い.一方,動的極性判定を実施するには,要素抽出と関係抽出の出力結果が必要である.要素抽出と関係抽出の出力結果を人手で用意することによって,それらの結果が与えられた状態で動的極性判定のみを課題とすることもできるが,現在の動的極性判定に関する研究では,要素抽出と関係抽出も同時に合わせて扱われることが多い.以下では,パタンに基づくNasukawaetal.\cite{nasukawa2003a}の手法と,機械学習に基づく鈴木ら\cite{suzuki2004a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{nasukawa2003a}}}\vspace{1em}Nasukawaetal.\cite{nasukawa2003a}は,評価情報の要素として,<対象,評価>の2つ組を考え,構文,意味関係パタン付きの評価表現辞書を用いて2つ組に対する動的評価極性を行った.彼らは,辞書知識として,\sec{se}で紹介した評価極性付きの単語のエントリに加え,構文・意味関係を考慮したパタン付きのエントリを用意した.単語「admire」と「provide」のエントリ例を\NUM{nasukawa2003_ex}に示す.\EXS{nasukawa2003_ex}{\item\textsf{good}~~VB~admire~~obj\item\textsf{transfer}~VB~provide~~obj~~sub}\NUMS{nasukawa2003_ex}{a}は,「admire」の目的語の位置ある要素が肯定極性になることを表しており,\NUMS{nasukawa2003_ex}{b}は,「provide」の目的語の位置ある要素の極性が判明していれば,主語の位置にある要素は目的語の位置ある要素の極性と等しくなる(評価極性がtransferする)ことを表している.このような,語句間における評価極性の同一(相違)関係が記述された辞書知識を組み合わせて用いることによって,評価表現と,それと同一文内の主語や目的語の位置に表れる評価対象の組を同定し,それらの評価極性を判定する.\NUM{nasukawa2003_ex}に示したような構文・意味関係を考慮したパタン付きのエントリは,評価表現辞書を素直に文脈情報を取り込むように拡張したものと考えられる.Kanayamaetal.\cite{kanayama2004a}は,要素抽出から評価極性判定までを,文書から評価組への翻訳であると捉えた.そして,transfer-basedな機械翻訳の機構を援用し,既存の翻訳パタンを,上記\NUM{nasukawa2003_ex}と類似した極性判定のための構文・意味関係を考慮したパタンに置き換えることによって,低コストで評価情報の要素組を抽出する枠組みを提示した.\vspace{1em}\underline{\textbf{\cite{suzuki2004a}}}\vspace{1em}鈴木ら\cite{suzuki2004a}は,評価情報の要素として,<対象,属性,評価>の3つ組を考え,評価情報とその周辺情報のブートストラップによって,3つ組の動的極性判定を行った.評価極性としては,肯定/否定/中立の3値を扱っている.先の\cite{nasukawa2003a}の手法では,要素抽出,関係抽出と動的極性判定が並行して進行していたが,鈴木らの手法では,<対象,属性,評価>の3つ組抽出と,3つ組の極性判定が逐次的に行われる.まず,評価表現辞書を用いて文書内の評価表現を同定する.そして,評価表現と係り受け関係にある名詞を評価対象,属性として,<対象,属性,評価>の3つ組を同定する.ただし,経験から評価対象は具体名詞,属性は抽象名詞という制約を課す.具体名詞,抽象名詞の判定はNTT日本語語彙大系\cite{goitaikei-e}の情報に基づく.次に,得られた3つ組を評価極性分類器に入力することで,評価極性を判定する.彼らの分類器は半教師あり機械学習によって構築される.彼らは,まず,ベースとなる分類器として,ナイーブベイズ分類器を考え,<対象,属性,評価>組の評価極性を分類することを考える.そして,さらに教師なしデータの情報を取り込むために,EMアルゴリズム\cite{dempster1977a}をナイーブベイズ分類器と併用する手法\cite{nigam2000a}を用いた.また,教師なしデータを取り入れる別の手法として,同一著者による\cite{suzuki2005a}では,先の手法から獲得された確率モデルからフィッシャーカーネル\cite{jaakkola1998}を作成し,そのカーネル関数をサポートベクトルマシン分類器で利用する手法を検討している.\subsubsection{語の組合せと評価極性}\label{sec:comb}\sec{se}で述べた評価表現辞書の構築では,「良い−肯定」や「悪い−否定」のように,単独で評価極性が特定できる単語を扱うことが多い\footnote{\cite{nasukawa2004a}のように,複数の単語から構成される評価表現を考慮した事例もあるが,現状では複数語からなる評価表現を扱う研究は少ない.}.しかし,単語の中には,それ単独では評価極性をもたないが,幾つかの単語が組み合わさることによって初めて,その組合せに評価極性が生じる場合がある\cite{baron2004a}.ここでは,この現象を極性発現と呼ぶ.例えば,英語の``parforthecourse''という句は,個々の単語は否定極性を持たないが句全体としては否定極性をもつ\cite{channell2000a}.極性発現に着目した研究には,Baronetal.\cite{baron2004a}と高村ら\cite{takamura2005b}の研究がある.Baronらは,Xtract\cite{smadja1994a}を用いてコーパスから共起語を抽出し,共起語が出現していた文脈の評価極性に従って共起語の評価極性を決定した.この考え方は,評価表現辞書の構築で用いられた単語の評価極性の判定手法(\sec{cooc})に非常に近い.一方で,高村らは,極性発現が生じる語句の内部構造を直接モデリングし,「ノートパソコンが軽い−肯定」のように語句の評価極性が判定できる確率モデルを提案した.高村らの提案モデルは極性発現と同時に極性変化子にも対応しており,「リスクが低い−肯定」のような例も適切に扱える.長江らは極性発現を考慮した評価表現辞書を作成している\cite{nagae2002a}. \section{テキスト評価分析の応用研究} \label{sec:appl}\subsection{評価分析システム}これまでに,既に幾つかの評価分析システムが構築されている\cite{li2001a,morinaga2002a,dini2002a,dave2003a,sano2004a,sano2004b,tateishi2004a,blogwatcher,fujimura2004a,yi2005a,liu2005a}.評価分析システムの多くは,基本機能として,文書集合から文書,文,あるいは,語句などの単位について,肯定/否定の評価極性を判定する.この機能を実現するために,前節で紹介した各要素技術が評価分析システムに組み込まれる.評価分析システムの利用者は,大きく次の2つに分けられる.\begin{itemize}\item対象の提供者である企業やサイト運営者,\item対象を利用する立場の一般の人々.\end{itemize}前者は,マーケティング等で,対象の利用者としての個人の評価を,今後の企業活動に活かすことが典型的な用途となる.後者は,他の個人の評価を,自分の意志決定(たとえば,何かを購入しようとして,いくつかの候補の中からの選択が必要な場合)の参考にしようというのが典型的な用途となる.言うまでもなく,大量の抽出された評価情報は,そのまま提示されるのではなく,類似するものはまとめられ,また,いくつかの観点で分類され,ユーザにとって負担のない情報量で,提示されることが望ましい.そのため,評価分析システムでは,評価情報を抽出するという基本機能に加えて,分析データの集約機能や,分析結果の可視化機能を備えている場合が多い.可視化にはグラフ表示が採用されることが多く,例えば,\cite{yi2005a}では棒グラフ,\cite{tateishi2004a}ではレーダーチャートが表示できる\footnote{対象についての属性が非常に多い場合,可視化手法によってはすべての属性をまとめて閲覧することが困難となる.その場合には,抽出時とは別に表示時において,属性の取捨選択や階層化などの処理が要求される.}.この可視化機能によって,単一の対象,あるいは複数の対象間で,属性ごとにその対象の評価値を比較するといった作業が容易となる.分析結果の評価情報を可視化するのではなく,テキストとして提示する研究も存在する.Beinekeetal.\cite{beineke2004a},Romanetal.\cite{roman2004a}はいずれも,抽出した評価情報集合をテキストの形で集約して提示する試みを行なっている.文書要約\cite{oku2005a}の観点からみた場合,これらの研究は,評価情報が含まれている文の重要度を高く定めて,複数文書を対象とした重要文抽出を行って要約を作成していることに相当する.この観点から見れば,評価文抽出は評価文書のテキストを要約する手法の中の特殊なケースとして捉えることもできる.複数文書要約では,異なるソース(情報源)(たとえば,新聞社)からのテキストで,内容が重複する場合,重複する内容は重要であるとして,重複する内容を選択する手法が見られるが,評価文書集合の要約でも,同様に,評価情報が重複することは,共通の評価が複数存在することを意味しており,重要な情報としてその頻度情報が出力のひとつとして利用される.また,一般の複数文書要約では重複部分を同定することは困難な課題であるが,評価文書の場合は,基本的には,評価対象,評価対象の属性,評価極性の3つの要素のみから一致(重複)判定が可能である.\subsection{その他の応用領域}前節で紹介したテキスト評価分析のための各要素技術は,評価分析システムの他にも,計算機を介したコミュニケーション(computermediatedcommunication;CMC)\cite{boucouvalas2002a,liu2003a},質疑応答システム(multi-perspectivequestion-answering;MPQA)\cite{cardie2003a,stoyanov2004a},株価予測\cite{koppel2004a,das2001a}など,幅広い応用領域でその有効性が示されている. \section{テキスト評価分析に関連するその他の話題} \label{sec:kanren}本節では,テキスト評価分析に関連するその他の話題を紹介する.\subsection{主観性に関する諸研究}\label{sec:opi_sent}多くの文書は,ひとつの文書の中で,客観的な事実と主観的な意見が混じり合って記述される.本稿でとりあげた評価は,意見の中の下位分類に位置すると考えられ,本稿で述べた評価情報を扱う諸研究と意見情報を扱う諸研究は非常に関連が深いと考えられる.これまで,Wiebeらの研究グループが中心となって,主観的な意見,主観性(subjectivity)に焦点を当てた研究が進められている\cite{wiebe2004a}.主観性に関する研究では,主に,文書から主観的な意見が記述された文(以下,主観文)を判定し,抽出する課題が扱われる.具体的な事例研究としては,Wiebeetal.\cite{wiebe1999a},Riloffetal.\cite{riloff2003b},Pangetal.\cite{pang2004a}などがある.Hatzivassiloglouetal.\cite{hatzivassiloglou2000a}は,一部の形容詞の情報が主観文判定に有効であると報告しており,Weibe\cite{wiebe2000a}やVegnaduzzo\cite{vegnaduzzo2004a}によって,文の主観性に強い影響を与える形容詞を獲得する手法が提案されている.また,形容詞以外の情報として,文の主観性に強い影響を与える名詞\cite{riloff2003a}や単語のn-gram\cite{wiebe2001a}を自動獲得する手法も提案されている.主観文抽出の具体的な応用先としては,情報抽出や文書要約などが挙げられる.情報抽出では,実世界で実際に起きた事実の客観的な記述を抽出することに焦点が当たっており,主観文抽出を前処理として適用することで,抽出範囲を適切に絞り込むことができる.また,近年では,個人の意見がWeb掲示板やWeblogなどを通じて発信されている.そして,この個人の意見を要約することが求められている.この時,意見文抽出を実施することによって,要約対象となる意見を自動的に抽出することができる.\subsection{その他の題材}\label{sec:not_text}書き言葉で構成された文や文書以外にも,チャットや実対話を題材とした研究もある.Maeireizoetal.\cite{maeireizo2004a},Chambersetal.\cite{chambers2004a}は,実対話データを扱っている.また,Wuetal.\cite{wu2002a},Holzmanetal.\cite{holzman2003a}は,チャット対話中の発話に焦点を当てた.これらの研究では,本稿で取り上げた評価情報だけでなく,広く感情情報を意識する傾向にあり,実対話やチャット内の発話の感情を推定することが中心的な課題となる.この際,言語的な特徴だけでなく,音素や韻律などの音声的な特徴も積極的に利用される. \section{課題} \label{sec:kadai}本節では,テキスト評価分析において,現在までのところあまり議論がされておらず,今後,進展が望まれる話題を整理する.\subsection{「中立」の取り扱い}\label{sec:neutral}既に述べたように,これまでの評価分析の要素技術研究では,評価極性として肯定極性と否定極性のみを考慮し,2値分類問題として定式化されることが多い.しかし現実には,肯定極性と否定極性のいずれにも該当しない文や文書が存在する状況も多くある.そのため,今後は,\cite{koppel2005a}や\cite{yu2003a},あるいは\cite{suzuki2004a}のように,中立クラスを加えた3値での評価分析に対する考察が求められる.ただし,中立クラスを扱う際には,次の点に注意しなければならない.すなわち,現在でも中立クラスを考慮した研究は存在するが,研究者間でその意味するところは必ずしも一致しているわけではないという点である.ある事例が肯定極性でも否定極性でもない状況には幾つかの可能性がある.しかし現状では,それらすべてがまとめて中立と呼ばれている.ある事例が評価を含むか,また,評価極性があるか,という点から整理した場合,各事例は\fig{neutral_tree}の木構造のいずれかの葉ノードに割り振られる.本稿で紹介した各論文が主に扱っていた肯定極性と否定極性は,右隅の四角で囲った部分に位置する.それ以外の点線で囲まれた3つの葉ノードは,肯定極性か否定極性のいずれかの極性をもつわけではないという共通の特徴があり,現状では,これらのすべてあるいはいずれかのノードに該当する事例が「中立」と見なされている.しかしながら,図の階層分類からも明らかなように,点線で囲まれた3つの葉ノードはそれぞれ,評価を含まない,評価を含むが肯定極性でも否定極性でもない,肯定極性と否定極性の両方を含む,と言ったそれぞれに異なった特徴がある.今後,評価分析に関する諸研究を発展させていくには,「中立」という概念を再整理する必要があるだろう.\begin{figure}[t]\begin{center}\includegraphics[width=7cm]{fig-neutral.eps}\caption{「中立」の曖昧性}\label{fig:neutral_tree}\end{center}\end{figure}\subsection{評価の分類軸}\label{sec:eva_category}現在,評価分析の分類軸としては,肯定極性と否定極性からなる評価極性というひとつの軸を扱うのが主流であるが,今後は,目的に応じて分類軸は細分類化していく必要がある.評価極性は,感情や情緒\cite{inui2000a,mera2002a}とも関連が深く,今後の展開として,これらの領域との融合研究も興味深い.近年では,自由記述アンケートから書き手の意図を抽出する研究\cite{ootsuka2004a}や,意図の中でも特に要望\cite{kanayama2005a}や賛否\cite{galley2004a}に注目した研究も行われている.評価分析の一つの方向性として,これらの研究の今後の動向にも注意を向けたい.新たな分類軸の方向性について検討することも重要であるが,現状の評価極性自体にも目を向ける必要がある.現状の評価極性は,研究者によって意味する所が異なる部分があり,テキスト評価分析に利用される評価の軸を再考察する必要がある.例えば,次の例文\NUM{jiku}を考えてみよう.本稿で紹介した諸研究が扱う評価極性を見る限り,\NUMS{jiku}{a}が肯定極性をもつ評価情報を含んでいるとすることに異論をもつ研究者は少ないと考えられる.しかし,\NUMS{jiku}{a}と同様に肯定極性をもつと考えられる\NUMS{jiku}{b}も同じように評価情報を含んでいるとするか否かは研究者によって立場を異にする.\NUMS{jiku}{b}はある人物の嗜好の表出であって評価は表されていないとする立場も存在する.\EXS{jiku}{\itemこのりんごは味がよい。\itemりんごが好きです。}Martinの提案しているAppraisalsystem\cite{martin2000a,martin2003a}は,評価や意見,態度などの主観的な側面に関する言語能力を解明,説明する枠組みである.Taboadaetal.\cite{taboada2004a}は,実際にAppraisalsystemでの考え方に従って,複数の異なる評価の分類軸を扱っており,評価極性の再整理という点から見て,非常に興味深い研究である.\subsection{明示的に表されない評価}\label{sec:imp}\sec{aa}で述べた評価文書分類,評価文抽出,評価組抽出の各技術は,現在のところ,評価表現辞書のエントリとなるような明示的な評価表現に頼っている部分が多い.このため,現状では,評価表現辞書に登録されている語句がまったく出現しない,つまり,明示的に評価が表されない文書や文を取り扱うことが困難である.今後は,明示的に表されない評価を取り扱う方法についての技術開発も進める必要があると考えられる.評価が明示的か明示的でないかの境界を明確にすることは難しいが,例えば,\sec{comb}で紹介した極性発現はどちらかと言えば明示的でない評価を扱っている一例と言える.また,評価は意見の中の下位分類として位置付けられることが多いが,明示的に表されない評価は,意見の記述というよりは事実の記述となっていることがしばしばある(例えば,\cite{nigam2004a}は,このことを説明するために,「opinion」の対極として「evaluativefactual」という用語を導入している).例えば,次の例文\NUM{fact}は,明示的に表されない評価を含む文の例である.今後の評価分析に関する技術開発が進む方向次第では,評価分析が既存の意見分析の域には収まらず,独自の新たな研究領域を開拓しつつ進展していく可能性もある.\EXS{fact}{\item買ってすぐに電源が入らなくなった。\item空港でパスポートがないことに気が付いた。\itemおもわず息子の頭を撫でていた。}\subsection{基礎言語解析技術}\label{sec:parsing}テキスト評価分析で扱うテキストデータ(評価文書)には,非専門家によって記述されたWeb上の掲示板への書き込みやWeblogなどが含まれる.これらのテキストデータは,従来から言語処理の対象とされてきた新聞記事ほど形式的に記述されていないため,従来からある形態素解析等の基礎言語解析器をそのまま利用するだけでは,高い解析精度が得られない.また,評価文書には,表記の多様性や,局所的なコミュニティー特有の言い回し,略語などの現象が多く見受けられる.今後,これらの諸現象に柔軟に対応できる,より頑健な基礎言語解析技術の開発が望まれる.\subsection{評価文書の収集}\label{sec:collect}現在のテキスト評価分析に関する要素技術の諸研究では,多くの場合,ある評価対象についての評価情報が含まれている文書群が既に収集されているという前提のもとで研究がされている.しかし,明らかに,注目したい評価対象のすべてについて,この前提を置くことは適切ではなく,現実には,評価対象についての評価情報が含まれている文書群を獲得する方法,評価文書の収集方法を確立しなければならない.特に,\sec{daizai}で示したテキスト評価分析の題材となるテキストデータの分類のうち,潜在的に意見を含むテキスト(Web掲示板,Weblog,チャット)を処理対象とする場合には,この問題が顕在化するだろう. \section{おわりに} \label{sec:owarini}本論文では,近年盛んに研究活動が行われているテキスト評価分析に関する研究について,基盤となる研究から最近の研究動向までをまとめた.紹介した一連の研究領域は,いずれも成熟しているわけではなく,現在,急激に進展している状況にある.その中にあって,本論文がテキスト評価分析に関する現状あるいは今後の方向性を見極めるのに役立てれば幸いである.\acknowledgment本論文は筆者を含む有志による集い「AffectAnalysis勉強会」の活動から生まれた.勉強会に参加し,議論に加わって頂いたすべての方に感謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bai,Padmanand,\BBA\Airoldi}{Baiet~al.}{2004}]{bai2004a}Bai,X.,Padmanand,R.,\BBA\Airoldi,E.\BBOP2004\BBCP.\newblock\BBOQSentimentExtractionfromUnstructuredTextusingTabuSearch-EnhancedMarkovBlanket\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponMiningforandfromtheSemanticWeb(MSW-2004)}.\bibitem[\protect\BCAY{Baron\BBA\Hirst}{Baron\BBA\Hirst}{2004}]{baron2004a}Baron,F.\BBACOMMA\\BBA\Hirst,G.\BBOP2004\BBCP.\newblock\BBOQCollocationsasCuestoSemanticOrientation\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Beineke,Hastie,\BBA\Vaithyanathan}{Beinekeet~al.}{2004}]{beineke2004a}Beineke,P.,Hastie,T.,\BBA\Vaithyanathan,S.\BBOP2004\BBCP.\newblock\BBOQTheSentimentalFactor:ImprovingReviewClassificationviaHuman-ProvidedInformation\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Berger,Pietra,\BBA\Pietra}{Bergeret~al.}{1996}]{berger1996a}Berger,A.~L.,Pietra,V.J.~D.,\BBA\Pietra,S.A.~D.\BBOP1996\BBCP.\newblock\BBOQAmaximumentropyapproachtonaturallanguageprocessing\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),\mbox{\BPGS\39--71}.\bibitem[\protect\BCAY{Bethard,Yu,Thornton,Hatzivassiloglou,\BBA\Jurafsky}{Bethardet~al.}{2004}]{bethard2004a}Bethard,S.,Yu,H.,Thornton,A.,Hatzivassiloglou,V.,\BBA\Jurafsky,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticExtractionofOpinionPropositionsandtheirHolders\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Boucouvalas}{Boucouvalas}{2002}]{boucouvalas2002a}Boucouvalas,A.~C.\BBOP2002\BBCP.\newblock\BBOQRealTimeText-to-EmotionEngineforExpressiveInternetCommunications\BBCQ\\newblockIn{\BemProceedingsofInternationalSymposiumonCommunicationSystems,NetworksandDigitalSignalProcessing(CSNDSP-2002)}.\bibitem[\protect\BCAY{Cardie,Wiebe,Wilson,\BBA\Litman}{Cardieet~al.}{2003}]{cardie2003a}Cardie,C.,Wiebe,J.,Wilson,T.,\BBA\Litman,D.~J.\BBOP2003\BBCP.\newblock\BBOQCombiningLow-LevelandSummaryRepresentationsofOpinionsforMulti-PerspectiveQuestionAnswering\BBCQ\\newblockIn{\BemProceedingsoftheNewDirectionsinQuestionAnswering},\mbox{\BPGS\20--27}.\bibitem[\protect\BCAY{Chambers,Tetreault,\BBA\Allen}{Chamberset~al.}{2004}]{chambers2004a}Chambers,N.,Tetreault,J.,\BBA\Allen,J.\BBOP2004\BBCP.\newblock\BBOQApproachesforAutomaticallyTaggingAffect\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Chandler}{Chandler}{1987}]{chandler1987a}Chandler,D.\BBOP1987\BBCP.\newblock{\BemIntroductiontoModernStatisticalMechanics}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Channell}{Channell}{2000}]{channell2000a}Channell,J.\BBOP2000\BBCP.\newblock{\BemCorpus-basedAnalysisofEvaluativeLexis},\BCH\3inEVALUATIONINTEXT:AuthorialStanceandtheConstructionofDiscourse,EditedbySusanHunston,UniversityofBirmingham,andGeoffThompson,\mbox{\BPGS\38--55}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1989}]{church1989a}Church,K.~W.\BBACOMMA\\BBA\Hanks,P.\BBOP1989\BBCP.\newblock\BBOQWordassociationnorms,mutualinformation,andLexicography\BBCQ\\newblockIn{\BemProceedingsofthe27th.AnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\76--83}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{{CoNLL-ShardTask}}{{CoNLL-ShardTask}}{2004}]{srl2004}{CoNLL-ShardTask}\BBOP2004\BBCP.\newblock\BBOQThe9th.ConferenceonComputationalNaturalLanguageLearning.SharedTask:SemanticRoleLabeling\BBCQ.\bibitem[\protect\BCAY{{CoNLL-ShardTask}}{{CoNLL-ShardTask}}{2005}]{srl2005}{CoNLL-ShardTask}\BBOP2005\BBCP.\newblock\BBOQThe10th.ConferenceonComputationalNaturalLanguageLearning.SharedTask:SemanticRoleLabeling\BBCQ.\bibitem[\protect\BCAY{Culotta\BBA\Sorensen}{Culotta\BBA\Sorensen}{2004}]{culotta2004a}Culotta,A.\BBACOMMA\\BBA\Sorensen,J.\BBOP2004\BBCP.\newblock\BBOQDependencyTreeKernelsforRelationExtraction\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2004)}.\bibitem[\protect\BCAY{Das\BBA\Chen}{Das\BBA\Chen}{2001}]{das2001a}Das,S.~R.\BBACOMMA\\BBA\Chen,M.~Y.\BBOP2001\BBCP.\newblock\BBOQYahoo!forAmazon:OpinionExtractionfromSmallTalkontheWeb\BBCQ\\newblockIn{\BemProceedingsofthe8thAsiaPacificFinanceAssociationAnnualConference}.\bibitem[\protect\BCAY{Dave,Lawrence,\BBA\Pennock}{Daveet~al.}{2003}]{dave2003a}Dave,K.,Lawrence,S.,\BBA\Pennock,D.~M.\BBOP2003\BBCP.\newblock\BBOQMiningthePeanutGallery:OpinionExtractionandSemanticClassificationofProductReviews\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalWorldWideWebConference(WWW-2003)}.\bibitem[\protect\BCAY{Dempster,Laird,\BBA\Rubin}{Dempsteret~al.}{1977}]{dempster1977a}Dempster,A.~P.,Laird,N.~M.,\BBA\Rubin,D.~B.\BBOP1977\BBCP.\newblock\BBOQMaximumlikelihoodfromincompletedataviathe{EM}algorithm\BBCQ\\newblock{\BemJournaloftheRoyalStatisticalSocietySeriesB},{\Bbf39}(1),\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{Dini\BBA\Mazzini}{Dini\BBA\Mazzini}{2002}]{dini2002a}Dini,L.\BBACOMMA\\BBA\Mazzini,G.\BBOP2002\BBCP.\newblock{\BemOpinionclassificationthroughinformationextraction},\mbox{\BPGS\299--310}.\newblockinA.Zanasi,C.A.Brebbia,N.F.F.EbeckenandP.Melli(eds),DataMiningIII,WITPress.\bibitem[\protect\BCAY{Dunning}{Dunning}{1993}]{dunning1993a}Dunning,T.\BBOP1993\BBCP.\newblock\BBOQAccuratemethodsforthestatisticsofsurpriseandcoincidence\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19},\mbox{\BPGS\61--74}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{fellbaum1998a}Fellbaum,C.\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockTheMITPress.\bibitem[\protect\BCAY{Galley,McKeown,Hirschberg,\BBA\Shriberg}{Galleyet~al.}{2004}]{galley2004a}Galley,M.,McKeown,K.,Hirschberg,J.,\BBA\Shriberg,E.\BBOP2004\BBCP.\newblock\BBOQIdentifyingAgreementandDisagreementinConversationalSpeech:UseofBayesianNetworkstoModelPragmaticDependencies\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Gamon}{Gamon}{2004}]{gamon2004a}Gamon,M.\BBOP2004\BBCP.\newblock\BBOQSentimentclassificationoncustomerfeedbackdata:noisydata,largefeaturevectors,andtheroleoflinguisticanalysis\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)}.\bibitem[\protect\BCAY{Gamon\BBA\Aue}{Gamon\BBA\Aue}{2005}]{gamon2005a}Gamon,M.\BBACOMMA\\BBA\Aue,A.\BBOP2005\BBCP.\newblock\BBOQAutomaticIdentificationofSentimentVocabulary:ExploitingLowAssociationwithKnownSentimentTerms\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponFeatureEngineeringforMachineLearninginNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Hatzivassiloglou\BBA\McKeown}{Hatzivassiloglou\BBA\McKeown}{1997}]{hatzivassiloglou1997a}Hatzivassiloglou,V.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP1997\BBCP.\newblock\BBOQPredictingtheSemanticOrientationofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-1997)}.\bibitem[\protect\BCAY{Hatzivassiloglou\BBA\Wiebe}{Hatzivassiloglou\BBA\Wiebe}{2000}]{hatzivassiloglou2000a}Hatzivassiloglou,V.\BBACOMMA\\BBA\Wiebe,J.~M.\BBOP2000\BBCP.\newblock\BBOQEffectofAdjectiveOrientationandGradabilityonSentenceSubjectivity\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING-2000)},\mbox{\BPGS\299--305}.\bibitem[\protect\BCAY{Holzman\BBA\Pottenger}{Holzman\BBA\Pottenger}{2003}]{holzman2003a}Holzman,L.~E.\BBACOMMA\\BBA\Pottenger,W.~M.\BBOP2003\BBCP.\newblock\BBOQClassificationofEmotionsinInternetChat:AnApplicationofMachineLearningUsingSpeechPhonemes\BBCQ\\newblock\BTR,Lehighuniv(LU-CSE-03-002).\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004a}]{hu2004a}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004a\BBCP.\newblock\BBOQMiningandSummarizingCustomerReviews\BBCQ\\newblockIn{\BemProceedingsofthe2004ACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining(KDD-2004)},\mbox{\BPGS\168--177}.\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004b}]{hu_min2004b}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004b\BBCP.\newblock\BBOQMiningOpinionFeaturesinCustomerReviews\BBCQ\\newblockIn{\BemProceedingsof19thNationalConferenceonArtificialIntellgience(AAAI-2004)}.\bibitem[\protect\BCAY{Hurst\BBA\Nigam}{Hurst\BBA\Nigam}{2004}]{hurst2004a}Hurst,M.\BBACOMMA\\BBA\Nigam,K.\BBOP2004\BBCP.\newblock\BBOQRetrievingTopicalSentimentsfromOnlineDocumentCollections\BBCQ\\newblockIn{\BemProceedingsofthe11thDocumentRecognitionandRetrieval}.\bibitem[\protect\BCAY{Ikehara,Miyazaki,Shirai,Yokoo,Nakaiwa,Ogura,Ooyama,\BBA\Hayashi}{Ikeharaet~al.}{1997}]{goitaikei-e}Ikehara,S.,Miyazaki,M.,Shirai,S.,Yokoo,A.,Nakaiwa,H.,Ogura,K.,Ooyama,Y.,\BBA\Hayashi,Y.\BBOP1997\BBCP.\newblock{\BemGoi-Taikei-AJapaneseLexicon}.\newblockIwanamiShoten.\bibitem[\protect\BCAY{Inoue\BBA\Carlucci}{Inoue\BBA\Carlucci}{2001}]{inoue2001a}Inoue,J.\BBACOMMA\\BBA\Carlucci,D.~M.\BBOP2001\BBCP.\newblock\BBOQImagerestorationusingtheq-isingspinglass\BBCQ\\newblock{\BemPhysicalReview},{\Bbf64}(036121-1-036121-18).\bibitem[\protect\BCAY{Jaakkola\BBA\Haussler}{Jaakkola\BBA\Haussler}{1998}]{jaakkola1998}Jaakkola,T.\BBACOMMA\\BBA\Haussler,D.\BBOP1998\BBCP.\newblock\BBOQExploitinggenerativmodelsindiscriminativeclassifiers\BBCQ\\newblockIn{\BemProc.oftheAdvancesinNeuralInformationPrcessingSystem2},\mbox{\BPGS\487--493}.\bibitem[\protect\BCAY{Kamps,Marx,Mokken,\BBA\de~Rijke}{Kampset~al.}{2004}]{kamps2004a}Kamps,J.,Marx,M.,Mokken,R.~J.,\BBA\de~Rijke,M.\BBOP2004\BBCP.\newblock\BBOQUsingWordNettoMeasureSemanticOrientationsofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2004)}.\bibitem[\protect\BCAY{Kanayama,Nasukawa,\BBA\Watanabe}{Kanayamaet~al.}{2004}]{kanayama2004a}Kanayama,H.,Nasukawa,T.,\BBA\Watanabe,H.\BBOP2004\BBCP.\newblock\BBOQDeeperSentimentAnalysisUsingMachineTranslationTechnology\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)}.\bibitem[\protect\BCAY{Kennedy\BBA\Inkpen}{Kennedy\BBA\Inkpen}{2005}]{kennedy2005a}Kennedy,A.\BBACOMMA\\BBA\Inkpen,D.\BBOP2005\BBCP.\newblock\BBOQSentimentClassificationofMovieandProductReviewsusingContextualValenceShifters\BBCQ\\newblockIn{\BemWorkshopontheAnalysisofInformalandFormalInformationExchangeduringNegotiations(FINEXIN-2005)}.\bibitem[\protect\BCAY{Kim\BBA\Hovy}{Kim\BBA\Hovy}{2004}]{kim2004a}Kim,S.-M.\BBACOMMA\\BBA\Hovy,E.\BBOP2004\BBCP.\newblock\BBOQDeterminingtheSentimentofOpinions\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)}.\bibitem[\protect\BCAY{Kleinberg\BBA\Tardos}{Kleinberg\BBA\Tardos}{1999}]{kleinberg1999a}Kleinberg,J.\BBACOMMA\\BBA\Tardos,E.\BBOP1999\BBCP.\newblock\BBOQApproximationAlgorithmsforClassificationProblemswithPairwiseRelationships:MetricLabelingandMarkovRandomFields\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualSymposiumonFoundationsofComputerScience}.\bibitem[\protect\BCAY{Koppel\BBA\Schler}{Koppel\BBA\Schler}{2005}]{koppel2005a}Koppel,M.\BBACOMMA\\BBA\Schler,J.\BBOP2005\BBCP.\newblock\BBOQTheImportanceofNeutralExamplesforLearningSentiment\BBCQ\\newblockIn{\BemWorkshopontheAnalysisofInformalandFormalInformationExchangeduringNegotiations(FINEXIN-2005)}.\bibitem[\protect\BCAY{Koppel\BBA\Shtrimberg}{Koppel\BBA\Shtrimberg}{2004}]{koppel2004a}Koppel,M.\BBACOMMA\\BBA\Shtrimberg,I.\BBOP2004\BBCP.\newblock\BBOQGoodNewsorBadNews?LettheMarketDecide\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Kresel}{Kresel}{1999}]{kresel1999a}Kresel,U.\BBOP1999\BBCP.\newblock\BBOQPairwiseclassificationandsupportvectormachines\BBCQ\\newblock{\BemAdvancesinkernelmethods:supportvectorlearning},\mbox{\BPGS\255--268}.\bibitem[\protect\BCAY{Landauer\BBA\Dumais}{Landauer\BBA\Dumais}{1997}]{landauer1997a}Landauer,T.~K.\BBACOMMA\\BBA\Dumais,S.~T.\BBOP1997\BBCP.\newblock\BBOQAsolutiontoPlato'sproblem:Thelatentsemanticanalysistheoryoftheacquisition,induction,andrepresentationofknowledge\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf104},\mbox{\BPGS\211--240}.\bibitem[\protect\BCAY{Li\BBA\Yamanishi}{Li\BBA\Yamanishi}{2001}]{li2001a}Li,H.\BBACOMMA\\BBA\Yamanishi,K.\BBOP2001\BBCP.\newblock\BBOQMiningfromopenanswersinquestionnairedata\BBCQ\\newblockIn{\BemProceedingsoftheseventhACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining},\mbox{\BPGS\443--449}.\bibitem[\protect\BCAY{Liu,Hu,\BBA\Cheng}{Liuet~al.}{2005}]{liu2005a}Liu,B.,Hu,M.,\BBA\Cheng,J.\BBOP2005\BBCP.\newblock\BBOQOpinionObserver:AnalyzingandComparingOpinionsontheWeb\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalWorldWideWebConference(WWW-2005)}.\bibitem[\protect\BCAY{Liu,Lieberman,\BBA\Selker}{Liuet~al.}{2003}]{liu2003a}Liu,H.,Lieberman,H.,\BBA\Selker,T.\BBOP2003\BBCP.\newblock\BBOQAModelofTextualAffectSensingusingReal-WorldKnowledge\BBCQ\\newblockIn{\BemProceedingsofthe2003InternationalConferenceonIntelligentUserInterfaces(IUI-2003)}.\bibitem[\protect\BCAY{Mackay}{Mackay}{2003}]{mackay2003a}Mackay,D.J.~C.\BBOP2003\BBCP.\newblock{\BemInformationTheory,InferenceandLearningAlgorithms}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Maeireizo,Litman,\BBA\Hwa}{Maeireizoet~al.}{2004}]{maeireizo2004a}Maeireizo,B.,Litman,D.,\BBA\Hwa,R.\BBOP2004\BBCP.\newblock\BBOQCo-trainingforPredictingEmotionswithSpokenDialogueData\BBCQ\\newblockIn{\BemInACL-04.CompanionVolumetotheProceedingsoftheConference.ProceedingsoftheStudentResearchWorkshop,InteractivePosters/DemonstrationsandTutorialAbstracts},\mbox{\BPGS\203--206}.\bibitem[\protect\BCAY{Martin}{Martin}{2000}]{martin2000a}Martin,J.\BBOP2000\BBCP.\newblock{\BemBeyondExchange:AppraisalsystemsinEnglish},\mbox{\BPGS\142--175}.\newblockInHunston,S.andThompson,G.eds.,EvaluationinText(OxfordUniversity).\bibitem[\protect\BCAY{Martin}{Martin}{2003}]{martin2003a}Martin,J.~R.\BBOP2003\BBCP.\newblock\BBOQIntroduction,specialissueonAppraisal\BBCQ\\newblock{\BemText},{\Bbf23}(2),\mbox{\BPGS\171--181}.\bibitem[\protect\BCAY{Matsumoto,Takamura,\BBA\Okumura}{Matsumotoet~al.}{2005}]{matsumoto2005a}Matsumoto,S.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQSentimentClassificationusingWordSub-SequencesandDependencySub-Trees\BBCQ\\newblockIn{\BemProceedingsofthe9thPacific-AsiaInternationalConferenceonKnowledgeDiscoveryandDataMining(PAKDD-2005)}.\bibitem[\protect\BCAY{Mitchell}{Mitchell}{1997}]{mitchell1997a}Mitchell,T.\BBOP1997\BBCP.\newblock{\BemMachineLearning}.\newblockMcGraw-Hill.\bibitem[\protect\BCAY{Morinaga,Yamanishi,Tateishi,\BBA\Fukushima}{Morinagaet~al.}{2002}]{morinaga2002a}Morinaga,S.,Yamanishi,K.,Tateishi,K.,\BBA\Fukushima,T.\BBOP2002\BBCP.\newblock\BBOQMiningProductReputationsontheWeb\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD-2002)}.\bibitem[\protect\BCAY{{MUC6}}{{MUC6}}{1995}]{muc6}{MUC6}\BBOP1995\BBCP.\newblock\BBOQThe6th.MessageUnderstandingConference\BBCQ.\bibitem[\protect\BCAY{{MUC7}}{{MUC7}}{1997}]{muc7}{MUC7}\BBOP1997\BBCP.\newblock\BBOQThe7th.MessageUnderstandingConference\BBCQ.\bibitem[\protect\BCAY{Mullen\BBA\Collier}{Mullen\BBA\Collier}{2004}]{mullen2004a}Mullen,T.\BBACOMMA\\BBA\Collier,N.\BBOP2004\BBCP.\newblock\BBOQSentimentanalysisusingsupportvectormachineswithdiverseinformationsources\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Nasukawa\BBA\Yi}{Nasukawa\BBA\Yi}{2003}]{nasukawa2003a}Nasukawa,T.\BBACOMMA\\BBA\Yi,J.\BBOP2003\BBCP.\newblock\BBOQSentimentAnalysis:CapturingFavorabilityUsingNaturalLanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonKnowledgeCapture(K-CAP2003)}.\bibitem[\protect\BCAY{{N}ational{I}nstitute~of{S}tandards\BBA\{T}echnology}{{N}ational{I}nstitute~of{S}tandards\BBA\{T}echnology}{2000}]{rdc}{N}ational{I}nstitute~of{S}tandards\BBACOMMA\\BBA\{T}echnology\BBOP2000\BBCP.\newblock\BBOQ{A}utomatic{C}ontent{E}xtraction\BBCQ.\newblockhttp://www.nist.gov/speech/tests/ace/index.htm.\bibitem[\protect\BCAY{Nigam\BBA\Hurst}{Nigam\BBA\Hurst}{2004}]{nigam2004a}Nigam,K.\BBACOMMA\\BBA\Hurst,M.\BBOP2004\BBCP.\newblock\BBOQTowardsaRobustMetricofOpinion\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Nigam,McCallum,Thrun,\BBA\Mitchell}{Nigamet~al.}{2000}]{nigam2000a}Nigam,K.,McCallum,A.,Thrun,S.,\BBA\Mitchell,T.\BBOP2000\BBCP.\newblock\BBOQTextClassificationfromLabeledandUnlabeledDocumentsusingEM\BBCQ\\newblock{\BemMachineLearning},{\Bbf39}(2/3),\mbox{\BPGS\103--134}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2004}]{pang2004a}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2004\BBCP.\newblock\BBOQASentimentalEducation:SentimentAnalysisUsingSubjectivitySummarizationBasedonMinimumCuts\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2005}]{pang2005a}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2005\BBCP.\newblock\BBOQSeeingStars:ExploitingClassRelationshipsforSentimentCategorizationwithRespecttoRatingScales\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2005)}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{pang2002a}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2002)},\mbox{\BPGS\76--86}.\bibitem[\protect\BCAY{Pearl}{Pearl}{1988}]{pearl1988a}Pearl,J.\BBOP1988\BBCP.\newblock{\BemProbabilisticReasoninginIntelligentSystems:NetworksofPlausibleInference}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Polanyi\BBA\Zaenen}{Polanyi\BBA\Zaenen}{2004}]{polanyi2004a}Polanyi,L.\BBACOMMA\\BBA\Zaenen,A.\BBOP2004\BBCP.\newblock\BBOQContextualValenceShifters\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Qu,Shanahan,\BBA\Wiebe}{Quet~al.}{2004}]{aaai2004a}Qu,Y.,Shanahan,J.,\BBA\Wiebe,J.\BBOP2004\BBCP.\newblock\BBOQExploringAttitudeandAffectinText:TheoriesandApplications\BBCQ\\newblock\BTR\SS-04-07,Papersfrom2004AAAISpringSymposium.\bibitem[\protect\BCAY{Rifkin\BBA\Klautau}{Rifkin\BBA\Klautau}{2004}]{rifkin2004a}Rifkin,R.\BBACOMMA\\BBA\Klautau,A.\BBOP2004\BBCP.\newblock\BBOQInDefenseofOne-Vs-AllClassification\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf5},\mbox{\BPGS\101--141}.\bibitem[\protect\BCAY{Riloff\BBA\Wiebe}{Riloff\BBA\Wiebe}{2003}]{riloff2003a}Riloff,E.\BBACOMMA\\BBA\Wiebe,J.\BBOP2003\BBCP.\newblock\BBOQLearningExtractionPatternsforSubjectiveExpressions\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2003)}.\bibitem[\protect\BCAY{Riloff,Wiebe,\BBA\Wilson}{Riloffet~al.}{2003}]{riloff2003b}Riloff,E.,Wiebe,J.,\BBA\Wilson,T.\BBOP2003\BBCP.\newblock\BBOQLearningSubjectiveNounsusingExtractionPatternBootstrapping\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonComputationalNaturalLanguageLearning(CoNLL-2003)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Roman\BBA\Piwek}{Roman\BBA\Piwek}{2004}]{roman2004a}Roman,N.~T.\BBACOMMA\\BBA\Piwek,P.\BBOP2004\BBCP.\newblock\BBOQPolitenessandSummarization:anExploratoryStudy\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Salvetti,Lewis,\BBA\Reichenbach}{Salvettiet~al.}{2004}]{salvetti2004a}Salvetti,F.,Lewis,S.,\BBA\Reichenbach,C.\BBOP2004\BBCP.\newblock\BBOQImpactofLexicalFilteringonOverallOpinionPolarityIdentification\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Sano}{Sano}{2004}]{sano2004a}Sano,M.\BBOP2004\BBCP.\newblock\BBOQAnAffect-BasedTextMiningSystemforQualitativeAnalysisofJapaneseFreeText\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Sebastiani}{Sebastiani}{2002}]{sebastiani2002a}Sebastiani,F.\BBOP2002\BBCP.\newblock\BBOQMachinelearninginautomatedtextcategorization\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf34}(1),\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{Seerwester,Dumais,Furnas,Landauer,\BBA\Harshman}{Seerwesteret~al.}{1990}]{deerwester1990a}Seerwester,S.,Dumais,S.~T.,Furnas,G.~W.,Landauer,T.~K.,\BBA\Harshman,R.\BBOP1990\BBCP.\newblock\BBOQIndexingbylatentsemanticanalysis\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{1999}]{irex}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\BBOQIREXprojectoverview\BBCQ\\newblockIn{\BemProceedingsoftheIREXWorkshop}.\bibitem[\protect\BCAY{Smadja}{Smadja}{1994}]{smadja1994a}Smadja,F.~Z.\BBOP1994\BBCP.\newblock\BBOQRetrievingCollocationsfromText:Xtract\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\143--177}.\bibitem[\protect\BCAY{Smola\BBA\Scholkopf}{Smola\BBA\Scholkopf}{1998}]{smola1998a}Smola,A.\BBACOMMA\\BBA\Scholkopf,B.\BBOP1998\BBCP.\newblock\BBOQAtutorialonsupportvectorregression\BBCQ.\bibitem[\protect\BCAY{Stone,Dunphy,Smith,\BBA\Ogilvie}{Stoneet~al.}{1966}]{stone1966a}Stone,P.~J.,Dunphy,D.~C.,Smith,M.~S.,\BBA\Ogilvie,D.~M.\BBOP1966\BBCP.\newblock{\BemTheGeneralInquirer:AComputerApproachtoContentAnalysis}.\newblockMITPress,Cambridge.\bibitem[\protect\BCAY{Stoyanov,Cardie,Litman,\BBA\Wiebe}{Stoyanovet~al.}{2004}]{stoyanov2004a}Stoyanov,V.,Cardie,C.,Litman,D.,\BBA\Wiebe,J.\BBOP2004\BBCP.\newblock\BBOQEvaluatinganOpinionAnnotationSchemeUsingaNewMulti-PerspectiveQuestionandAnswerCorpus\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Strapparava\BBA\Valitutti}{Strapparava\BBA\Valitutti}{2004}]{strapparava2004a}Strapparava,C.\BBACOMMA\\BBA\Valitutti,A.\BBOP2004\BBCP.\newblock\BBOQWordNet-Affect:anAffectiveExtensionofWordNet\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2004)}.\bibitem[\protect\BCAY{Taboada\BBA\Grieve}{Taboada\BBA\Grieve}{2004}]{taboada2004a}Taboada,M.\BBACOMMA\\BBA\Grieve,J.\BBOP2004\BBCP.\newblock\BBOQAnalyzingAppraisalAutomatically\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Takamura,Inui,\BBA\Okumura}{Takamuraet~al.}{2005}]{takamura2005a}Takamura,H.,Inui,T.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQExtractingSemanticOrientationofWordsusingSpinModel\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2005)}.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2003}]{turney2003a}Turney,P.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2003\BBCP.\newblock\BBOQMeasuringPraiseandCriticism:InferenceofSemanticOrientationfromAssociation\BBCQ\\newblock{\BemACMTransactionsonInformationSystems(TOIS)},{\Bbf21}(4).\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{turney2002a}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsup?thumbsdown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2002)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2002}]{turney2002b}Turney,P.~D.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2002\BBCP.\newblock\BBOQUnsupervisedLearningofSemanticOrientationfromaHundred-Billion-WordCorpus\BBCQ\\newblock\BTR,TechnicalReportNRCTechnicalReportERB-1094,InstituteforInformationTechnology,NationalResearchCouncilCanada.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{vapnik1995a}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{Vegnaduzzo}{Vegnaduzzo}{2004}]{vegnaduzzo2004a}Vegnaduzzo,S.\BBOP2004\BBCP.\newblock\BBOQAcquisitionofSubjectiveAdjectiveswithLimitedResources\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Wiebe,Wilson,Bruce,Bell,\BBA\Martin}{Wiebeet~al.}{2004}]{wiebe2004a}Wiebe,J.,Wilson,T.,Bruce,R.,Bell,M.,\BBA\Martin,M.\BBOP2004\BBCP.\newblock\BBOQLearningsubjectivelanguage\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(3).\bibitem[\protect\BCAY{Wiebe,Wilson,\BBA\Bell}{Wiebeet~al.}{2001}]{wiebe2001a}Wiebe,J.,Wilson,T.,\BBA\Bell,M.\BBOP2001\BBCP.\newblock\BBOQIdentifyingCollocationsforRecognizingOpinions\BBCQ\\newblockIn{\BemProceedingsoftheACL/EACLWorkshoponCollocation}.\bibitem[\protect\BCAY{Wiebe}{Wiebe}{2000}]{wiebe2000a}Wiebe,J.~M.\BBOP2000\BBCP.\newblock\BBOQLearningSubjectivesAdjectivesfromCorpora\BBCQ\\newblockIn{\BemProceedingsofthe17thNationalConferenceonArtificialIntelligence(AAAI-2000)}.\bibitem[\protect\BCAY{Wiebe,Bruce,\BBA\O'hara}{Wiebeet~al.}{1999}]{wiebe1999a}Wiebe,J.~M.,Bruce,R.~F.,\BBA\O'hara,T.~P.\BBOP1999\BBCP.\newblock\BBOQDevelopmentandUseofaGold-StandardDataSetforSubjectivityClassifications\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-1999)},\mbox{\BPGS\246--253}.\bibitem[\protect\BCAY{Wolpert}{Wolpert}{1992}]{wolpert1992a}Wolpert,D.~H.\BBOP1992\BBCP.\newblock\BBOQStackedGeneralization\BBCQ\\newblock{\BemNeuralNetworks},{\Bbf5},\mbox{\BPGS\241--259}.\bibitem[\protect\BCAY{Wu,Khan,Fisher,Shuler,\BBA\Pottenger}{Wuet~al.}{2002}]{wu2002a}Wu,T.,Khan,F.~M.,Fisher,T.~A.,Shuler,L.~A.,\BBA\Pottenger,W.~M.\BBOP2002\BBCP.\newblock\BBOQPostingActTaggingUsingTransformation-BasedLearning\BBCQ\\newblockIn{\BemProceedingsofthe2002IEEEInternationalConferenceonDataMining(ICDM-2002)}.\bibitem[\protect\BCAY{Yi\BBA\Niblack}{Yi\BBA\Niblack}{2005}]{yi2005a}Yi,J.\BBACOMMA\\BBA\Niblack,W.\BBOP2005\BBCP.\newblock\BBOQSentimentMininginWebFountain\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonDataEngineering(ICDE-2005)}.\bibitem[\protect\BCAY{Yu\BBA\Hatzivassiloglou}{Yu\BBA\Hatzivassiloglou}{2003}]{yu2003a}Yu,H.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2003\BBCP.\newblock\BBOQTowardsAnsweringOpinionQuestions:SeparatingFactsfromOpinionsandIdentifyingthePolarityofOpinionSentences\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2003)}.\bibitem[\protect\BCAY{Zelenko,Aone,\BBA\Richardella}{Zelenkoet~al.}{2003}]{zelenko2003a}Zelenko,D.,Aone,C.,\BBA\Richardella,A.\BBOP2003\BBCP.\newblock\BBOQKernelmethodsforrelationextraction\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1083--1106}.\bibitem[\protect\BCAY{大塚}{大塚}{2004}]{ootsuka2004a}大塚(乾)裕子\BBOP2004\BBCP.\newblock\Jem{自由記述アンケート回答の意図抽出および自動分類に関する研究-要求意図を中心に-}.\newblock博士論文,神戸大学大学院自然科学研究科.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{kobayashi2005a}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出のための評価表現の収集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{小林\JBA乾\JBA乾}{小林\Jetal}{2001}]{kobayashi2001a}小林のぞみ\JBA乾孝司\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した「p/n辞書」の作成\JBCQ\\newblock\Jem{人工知能学会言語・音声理解と対話研究会(SLUD-33)},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{小林\JBA飯田\JBA乾\JBA松本}{小林\Jetal}{2005}]{kobayashi2005b}小林のぞみ\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ照応解析手法を利用した属性-評価値対および意見性情報の抽出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{筬島\JBA嶋田\JBA遠藤}{筬島\Jetal}{2005}]{osajima2005a}筬島郁子\JBA嶋田和孝\JBA遠藤勉\BBOP2005\BBCP.\newblock\JBOQ系列パターンを利用した評価表現の分類\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{oku2005a}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{奥村\JBA南野\JBA藤木\JBA鈴木}{奥村\Jetal}{2004}]{blogwatcher}奥村学\JBA南野朋之\JBA藤木稔明\JBA鈴木泰裕\BBOP2004\BBCP.\newblock\JBOQblogページの自動収集と監視に基づくテキストマイニング\JBCQ\\newblock\Jem{人工知能学会セマンティックウェブとオントロジー研究会(SIG-SWO-A401-01)}.\bibitem[\protect\BCAY{中山\JBA江口\JBA神門}{中山\Jetal}{2004}]{nakayama2004a}中山記男\JBA江口浩二\JBA神門典子\BBOP2004\BBCP.\newblock\JBOQ感情表現の抽出手法に関する提案\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-164-3)},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{中山\JBA江口\JBA神門}{中山\Jetal}{2005}]{nakayama2005a}中山記男\JBA江口浩二\JBA神門典子\BBOP2005\BBCP.\newblock\JBOQ感情表現のモデル\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{乾\JBA徳久\JBA徳久\JBA岡田}{乾\Jetal}{2000}]{inui2000a}乾健太郎\JBA徳久雅人\JBA徳久良子\JBA岡田直之\BBOP2000\BBCP.\newblock\JBOQ感情の生起とその反応\JBCQ\\newblock\Jem{日本ファジィ学会誌},{\Bbf12}(6),\mbox{\BPGS\741--751}.\bibitem[\protect\BCAY{立石\JBA福島\JBA小林\JBA高橋\JBA藤田\JBA乾\JBA松本}{立石\Jetal}{2004}]{tateishi2004a}立石健二\JBA福島俊一\JBA小林のぞみ\JBA高橋哲朗\JBA藤田篤\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQWeb文書集合からの意見情報抽出と着眼点に基づく要約生成\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-163-1)},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{乾\JBA乾\JBA松本}{乾\Jetal}{2004}]{inui2004a}乾孝司\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ出来事の望ましさ判定を目的とした語彙知識獲得\JBCQ\\newblock\Jem{言語処理学会第10回年次大会},\mbox{\BPGS\91--94}.\bibitem[\protect\BCAY{江崎\JBA松井\JBA大和田}{江崎\Jetal}{2005}]{esaki2005a}江崎晃司\JBA松井藤五郎\JBA大和田勇人\BBOP2005\BBCP.\newblock\JBOQWeblog上の評判情報における形容詞の出現位置を考慮した賛否分類\JBCQ\\newblock\Jem{情報処理学会第67回全国大会}.\bibitem[\protect\BCAY{藤村\JBA豊田\JBA喜連川}{藤村\Jetal}{2004}]{fujimura2004a}藤村滋\JBA豊田正史\JBA喜連川優\BBOP2004\BBCP.\newblock\JBOQWebからの評判および評価表現抽出に関する一考察\JBCQ\\newblock\Jem{夏のデータベースワークショップ(DBWS2004)}.\bibitem[\protect\BCAY{佐野}{佐野}{2004}]{sano2004b}佐野真\BBOP2004\BBCP.\newblock\JBOQ感性品質評価語辞書を利用したテキストマイニング\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG7(TOD22)).\bibitem[\protect\BCAY{村野\JBA佐藤}{村野\JBA佐藤}{2003}]{murano2003a}村野誠治\JBA佐藤理史\BBOP2003\BBCP.\newblock\JBOQ文型パターンを用いた主観的評価文の自動抽出\JBCQ\\newblock\Jem{言語処理学会第9回年次大会},\mbox{\BPGS\67--70}.\bibitem[\protect\BCAY{峠\JBA山本}{峠\JBA山本}{2004}]{touge2004a}峠泰成\JBA山本和英\BBOP2004\BBCP.\newblock\JBOQ手がかり語自動取得によるWeb掲示板からの評価文抽出\JBCQ\\newblock\Jem{言語処理学会第10回年次大会},\mbox{\BPGS\107--110}.\bibitem[\protect\BCAY{鈴木}{鈴木}{2005}]{suzuki2005a}鈴木泰裕\BBOP2005\BBCP.\newblock\JBOQWebデータを利用した評価表現辞書の自動作成\JBCQ\\newblockMaster'sthesis,東京工業大学大学院総合理工学研究科.\bibitem[\protect\BCAY{鈴木\JBA高村\JBA奥村}{鈴木\Jetal}{2004}]{suzuki2004a}鈴木泰裕\JBA高村大也\JBA奥村学\BBOP2004\BBCP.\newblock\JBOQWeblogを対象とした評価表現抽出\JBCQ\\newblock\Jem{人工知能学会セマンティックウェブとオントロジー研究会(SW-ONT-A401-02)}.\bibitem[\protect\BCAY{岡野原\JBA辻井}{岡野原\JBA辻井}{2005}]{okanohara2005a}岡野原大輔\JBA辻井潤一\BBOP2005\BBCP.\newblock\JBOQ評価文に対する二極指標の自動付与\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2005a}]{takamura2005c}高村大也\JBA乾孝司\JBA奥村学\BBOP2005a\BBCP.\newblock\JBOQスピンモデルによる単語の感情極性判定\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-166-11)}.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2005b}]{takamura2005b}高村大也\JBA乾孝司\JBA奥村学\BBOP2005b\BBCP.\newblock\JBOQ極性反転に対応した評価表現モデル\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-168-22)},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2003}]{kudo2003a}工藤拓\JBA松本裕治\BBOP2003\BBCP.\newblock\JBOQ部分木を素性とするDecisionStumpsとBoostingAlgorithmの適用\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-158-9)},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{nasukawa2004a}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock\JBOQ文脈一貫性を利用した極性付評価表現の語彙獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-162-16)},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{金山\JBA那須川}{金山\JBA那須川}{2005}]{kanayama2005a}金山博\JBA那須川哲哉\BBOP2005\BBCP.\newblock\JBOQ要望表現の抽出と整理\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{長江\JBA望月\JBA白井\JBA島津}{長江\Jetal}{2002}]{nagae2002a}長江朋\JBA望月源\JBA白井清昭\JBA島津明\BBOP2002\BBCP.\newblock\JBOQ製品コンセプトと製品評価文章の関係の分析\JBCQ\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\583--586}.\bibitem[\protect\BCAY{飯田\JBA小林\JBA乾\JBA松本\JBA立石\JBA福島}{飯田\Jetal}{2005}]{iida2005a}飯田龍\JBA小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出を目的とした機械学習による属性-評価値対同定\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-165-4)}.\bibitem[\protect\BCAY{目良\JBA市村\JBA相澤\JBA山下}{目良\Jetal}{2002}]{mera2002a}目良和也\JBA市村匠\JBA相澤輝昭\JBA山下利之\BBOP2002\BBCP.\newblock\JBOQ語の好感度に基づく自然言語発話からの情緒生起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(3),\mbox{\BPGS\186--195}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{乾孝司}{1976年生.1999年九州工業大学情報工学部卒業,2001年九州工業大学大学院情報工学研究科修士課程修了,2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年,東京工業大学21世紀COEポスドク研究員,2005年日本学術振興会特別研究員,2006年東京工業大学統合研究院助手,現在に至る.博士(工学),主に自然言語処理の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.\\[email protected],\url{http://oku-gw.pi.titech.ac.jp/~oku/}.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-08
\section{はじめに} 入力文を単語の系列へと変換する単語分割は自然言語処理における重要な処理である.中国語や日本語のように単語境界をスペースなどで明示しない言語を処理する場合は,一般的に入力となる自然文を単語列へと分割する必要がある.また英語のようにスペースで単語区切りを明示する言語であっても,単語よりも小さい適切な単位に再分割を行うことがタスクを解く上で重要である\cite{peng2015named,peng2016improving,sennrich2016neural,he2017f,pranav20202kenize,bollegala2020language}.従来の自然言語処理において単語分割は,モデルの学習の前に行い,学習を通して変更されることがない不可逆的な前処理として行われてきた.%%%%図\ref{fgr:core_idea}\subref{fgr:core_idea_a}に示すように,図\ref{fgr:core_idea}(a)に示すように,学習済みの単語分割モデルを用いて入力文を単語列へと変換し,これを後段タスクを解くためのモデル(後段モデル)へと入力するという処理過程が一般的である.この単語分割では,学習済みの単語分割モデルに基づいて入力文を尤もらしい単語列へと分割する.しかし,そのようにして得られた単語分割が後段タスクを解く上で有効であるかは不明であり,実際にその単語分割を用いて学習した後段モデルの性能を比較してみなければ単語分割の評価はできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-2ia7f1.pdf}\end{center}%%%%\label{fgr:core_idea_a}%%%%\label{fgr:core_idea_b}\hangcaption{自然言語処理における(a)従来の不可逆な単語分割と,(b)本稿で提案する後段タスクに対して単語分割を最適化する手法の概要.提案手法は後段タスクの学習損失値を用いて,後段タスクの性能が向上するような単語分割が得られるように単語分割モデルを直接最適化する.}\label{fgr:core_idea}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%近年の研究では,単語分割をサンプリングし,様々な単語分割を用いて後段タスクを学習することで,後段モデルの性能が向上することが示されている\cite{kudo2018subword,hiraoka2019stochastic,provilkov2019bpe}.このような方策は未知語や表記揺れに頑健な後段モデルを作成するという点において優れているが,後段タスクそのものに単語分割を最適化するという点については考慮されていない.後段タスクに適した単語分割が獲得できれば,後段モデルの性能のさらなる向上が得られると期待される.また,複数の単語分割の候補を同時に使用することで,単語分割に起因する後段タスクの性能低下を防ぐ方法も提案されている\cite{chen2017dag,zhang2018chinese,yang2018subword}.この方法では,LSTM\cite{hochreiter1997long}をベースとした機構を用いて,入力文について可能なあらゆる単語分割を考慮しながら文ベクトルを計算する.この方法は単語分割の失敗が後段タスクへ伝搬することを防ぐことができるが,可能なあらゆる単語分割について毎回計算を行う必要があるため計算コストが大きい.これまでのアプローチとは異なり,本研究では後段タスクを学習するために適切な単語分割を,後段タスクの学習と同時に自動で獲得することを目的とする.%%%%本稿では図\ref{fgr:core_idea}\subref{fgr:core_idea_b}に示すように,本稿では図\ref{fgr:core_idea}(b)に示すように,後段タスクとそれを学習する後段モデルに基づいて単語分割モデルを最適化する新たな手法を提案する.提案手法は,入力文の複数の単語分割候補を用いて文ベクトルを作成し,後段モデルへと入力する.後段モデルの学習損失値が下がるように単語分割モデルを更新することで,単語分割モデルは後段タスクを解くために有用な単語分割候補を出力するように学習される.提案手法は,入力文を文ベクトルへと変換して利用する様々なタスクに利用することが可能である.本稿では中国語,日本語,英語における文書分類の複数タスクで実験を行い,提案手法の有効性を確認した.さらに,提案手法は大規模コーパスで事前学習を行ったエンコーダーに対しても適用可能であることを示す.様々なタスクで性能の向上が報告されている事前学習済みエンコーダーであるBERT\cite{devlin2018bert}に対して提案手法を適用し,その性能が向上することを実験により示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法:OpTok} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{手法概要}本稿では,後段タスクに対して単語分割を最適化する新たな手法(OpTok:\textbf{Op}timizing\linebreak\textbf{Tok}enization)を提案する.提案手法は後段タスクを学習する上で適切な単語分割,すなわち後段タスクの性能が向上するような単語分割を学習する.形式的には,提案手法は入力文$s$を語彙に含まれる単語$w\inV$の系列$s'=w_1...w_i...w_I$へと変換する.ここで$I$は文に含まれる単語の個数である.また,$q(\cdot)$を後段タスクの評価関数,$z$を後段タスクの正解データ,$f(\cdot)$をニューラルネットワークを用いた後段モデルとしたとき,本研究の目的は後段タスクのスコアが最大となるような$s'$,すなわち${\rmargmax}_{s'}(q(z,f(s')))$を求めることである.OpTokを後段タスクのスコア$(q(z,f(s')))$に基づいて学習することで,${\rmargmax}_{s'}(q(z,f(s')))$を満たすような単語分割$s'$を獲得する.すなわち,単語分割を前処理として行ってから後段モデルを学習するという従来のパイプライン式の学習とは異なり,本研究では単語分割モデルである提案手法と後段モデルを同時に最適化する.ある文に対して,OpTokは複数の単語分割の候補を出力し,候補のうち後段タスクのスコアが高くなるような単語分割に高い確率を割り当てるように学習を行う.評価時にはその時点のOpTokのパラメータに基づき,最も確率の高い単語分割を出力し,後段モデルへと入力することで計算コストを削減する.図\ref{fgr:proposed_model}は提案手法であるOpTokによる学習時の計算の概要を示している.OpTokはニューラル言語モデルを持ち,そのパラメータに基づいて$N$-bestの単語分割を求める.各単語分割候補はニューラルエンコーダーで文ベクトルへと変換され,さらに文ベクトルは単語分割候補の確率に基づいて重み付けされる.各単語分割候補の文ベクトルの重み付き和を,通常の文ベクトルと同様に後段モデルへと入力する.後段モデルの学習損失値に対して誤差逆伝搬法を用いることで,OpTokは後段タスクの性能が向上するような単語分割に対して高い確率を付与するように学習される.かくして提案手法は,後段モデルの学習と同時に${\rmargmax}_{s'}(q(z,f(s')))$を満たすような$s'$を求める.本章では,これらの処理を順に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-2ia7f2.pdf}\end{center}\hangcaption{%提案手法による,$3$-best分割を用いた文ベクトル$\boldsymbol{h}_s$の計算の概要(学習時).評価時は従来と同様,$1$-best分割を用いた文ベクトルの計算を行う.実線による矢印は誤差逆伝播法によって微分可能な処理を表す.Embeddingのパラメータは更新可能だが,本稿での実験では更新を行わない.Encoderはニューラルネットワークを用いたエンコーダーで,分割済みの単語列を文ベクトルへと変換する様々なモジュールを使用することができる.また,DownstreamModelは後段タスクを解くためのニューラルネットワークであり,文書分類の場合はMLPなどを用いる.}\label{fgr:proposed_model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ニューラルユニグラム言語モデル}\label{sec:nulm}OpTokは単語の確率$p(w)$をニューラルユニグラム言語モデルを用いて次のように計算する.\begin{gather}d_w=\mathrm{MLP}(\boldsymbol{v}_w)\label{eq:mlp_in_langmodel},\\p(w)=\frac{\mathrm{exp}(d_w)}{\sum_{\hatw\inV}\mathrm{exp}(d_{\hatw})}\label{eq:token_prob}.\end{gather}ここで$\mathrm{MLP}$は学習可能なパラメータを持つ多層パーセプトロン,$\boldsymbol{v}_w$は単語$w$の分散表現である.学習を安定させるために,本研究ではユニグラム確率の平滑化を行う\cite{kudo2018subword}.具体的には,ハイパーパラメータ$\alpha$を用いて$p^*(w)=\frac{p(w)^\alpha}{\sum_{\hatw\inV}p({\hatw})^\alpha}$と平滑化したユニグラム確率を用いる.平滑化された単語のユニグラム確率を用いて文の確率を次のように計算し,これに基づいて文を単語列へと分割する.\begin{equation}p(s')=\prod_{w\ins'}{p^*(w)}\label{eq:sent_prob}.\end{equation}単語分割に用いる語彙$V$は,予め適当な大きさになるように初期化する.語彙に含まれる単語の初期化には,配布されている学習済みの単語分割モデル\cite{kudo2006mecab,yang2017neural}や,教師なし単語分割手法\cite{goldwater2006contextual,mochihashi2009bayesian,sennrich2016neural}を用いて獲得された語彙を使用することができる.本研究では,ニューラルネットワークを用いた自然言語処理において広く使用されている教師なし単語分割手法であるSentencePiece\cite{kudo2018sentencepiece}を用いて語彙の初期化を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語分割を最適化するための機構}\label{sec:selecting_encoder}学習時,OpTokは複数の単語分割候補の文ベクトルを計算し,各単語分割候補の確率によってそれらを一つの文ベクトルへと変換する.まず,ある入力文$s$の$N$-bestの単語分割候補$s'_1,...,s_n,...,s'_N$を求める.$N$-bestの単語分割は,\ref{sec:nulm}節で得られた単語確率に対してForward-DPBackward-A*アルゴリズム\cite{nagata1994stochastic}を適用することで得られる.次に,それぞれの単語分割候補$s'_n$を文ベクトル$\boldsymbol{h}_{s'_n}$へと変換する.\begin{equation}\label{eq:sub_sent_vec}\boldsymbol{h}_{s'_n}=g(s'_n),\end{equation}ここで$g(\cdot)$は単語列を一つのベクトルへと変換するニューラルエンコーダーで,CNNやBiLSTM,注意機構などを用いたものを想定している.なお,ニューラルエンコーダーに入力する単語分散表現は,ニューラルユニグラム言語モデル(\ref{sec:nulm}節)で使用したものと共有することで,学習が安定することが経験的に分かっている.最後に,入力文の最終的な文ベクトル$\boldsymbol{h}_s$として,式(\ref{eq:sent_prob})で求めた各単語分割候補の確率を用いて各文ベクトルの重み付き和を計算する.\begin{gather}a_n=\frac{p(s'_n)}{\sum_{m=1}^{N}{p(s'_m)}},\\\boldsymbol{h}_s=\sum_{n=1}^{N}{a_n\boldsymbol{h}_{s'_n}}.\end{gather}自然言語処理で一般的に使用される注意機構と同様,各単語分割候補の文ベクトルに対する重みは$\sum_{n=1}^{N}{a_n}=1$を満たすように正規化される\footnote{%サンプリングを実現しOne-hotベクトルに近い重みを計算する方法としてGumbelsoftmax\cite{jang2016categorical}が提案されているが,予備実験を通して学習が安定しないことが確認されたため,本研究では単純な正規化を用いる.}.このようにして計算した文ベクトル$\boldsymbol{h}_s$は,通常のニューラルエンコーダーを用いて計算された文ベクトルと同じように使用することができる.例えば,$\boldsymbol{h}_s$をラベルサイズのベクトルへと変換するMLPに入力することで,ニューラル文書分類器を作成することができる.文ベクトル$\boldsymbol{h}_s$を後段モデルに入力して計算された正解ラベルとの交差エントロピー損失を用いてモデル全体を更新することで,OpTokの持つニューラルユニグラム言語モデルは後段タスクに有用な単語分割に対して高い確率を付与するように学習される.評価時には,ビタビアルゴリズム\cite{viterbi1967error}によって最も確率の高い単語分割を求めることで,OpTokにより学習されたタスクに適した単語分割を得ることができる.なお,本研究は複数の単語分割候補を用いて後段モデルの学習を行うという点において,サブワード正則化との関係が深い.サブワード正則化\cite{kudo2018subword}では,学習損失値をサブワード分割の期待値によって重みづけることで,複数のサブワード分割を考慮した後段モデルの学習を目的としている.一方で提案手法の式(\ref{eq:sub_sent_vec})では,単語分割の確率によってエンコードされた文ベクトルを重みづけすることで,複数の単語分割を用いた後段モデルの学習を行う.また,提案手法ではサブワード正則化とは異なり,単語分割の確率を求めるための言語モデルのパラメータが学習と同時に更新される点で異なっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語彙の制約}\label{sec:selecting_vocabulary}タスクに対して適切な単語分割を求める時,単語長がより長く後段タスクに特徴的な単語を用いて単語分割を行うことが一つの局所最適解となる.これはLengthBias問題\cite{lafferty2001conditional,kudo2004applying}として知られており,提案手法のように単語分割の確率をユニグラム確率の積で計算する場合は,トークン数が少なくなるような単語分割,すなわち単語長が長い単語を多く含む単語分割が優先的に選ばれてしまう.本研究においては,学習時にこうした低頻度かつ長い単語を用いることが後段モデルの過学習につながり,後段タスクの性能低下を引き起こす.これを防ぐため,本研究では学習時の語彙の規模に対して制約を導入する.具体的に,OpTokは各ミニバッチ学習ごとに本来の語彙$V$から単語をサンプリングすることで,$|V'|<|V|$となるように単語数が制限された語彙$V'$(制限付き語彙と呼ぶ)を作成し,これを用いてミニバッチ学習を行う.ここで制限付き語彙のサイズ$|V'|$はハイパーパラメータであり,本来の語彙$V$からの単語のサンプリングには平滑化されたユニグラム確率$p^*(w)$を使用する(\ref{sec:nulm}節).また,長さが1の単語は必ず$V'$に含まれるように制約を設け,制限付き語彙$V'$に含まれる単語の確率をノーマライズすることで,新たなユニグラム確率を得る.OpTokは本来の語彙$V$に含まれる全ての単語について単語分散表現を保持するが,サンプリングによって$V'$から除外された単語は未知語として扱う.$V'$はミニバッチ学習ごとに作成し直すため,ユニグラム確率が高い単語ほど頻繁にサンプリングされ,パラメータの更新機会が与えられる.評価時には,式(\ref{eq:token_prob})によって得られる学習済みの単語のユニグラム確率に基づいて上位$|V'|$単語を$V$から選択して使用する.高頻度な単語は一般的に単語長が短いため,サンプリング後の$V'$には短い単語が多く含まれる.これにより,提案手法の学習時に長く特徴的な単語を含まない単語分割を使用することができ,結果として短く汎用的な単語を用いた単語分割を採用することが可能となる.この処理はContinuousCacheを用いた語彙削減手法に由来している\cite{grave2016improving,kawakami2017learning}.また,このようにサンプリングによって制限付き語彙を作成することで,ミニバッチごとに学習時の$N$-bestの単語分割候補が多様化し,サブワード正則化を用いた後段モデルの学習が可能となる.\ref{sec:nulm}節で導入したユニグラム確率の平滑化のためのハイパーパラメータ$\alpha$を用いることで,単語分割候補の多様化の度合いを調整することができる.例えば$\alpha$を小さく設定するとユニグラム確率の分布は一様分布に近くなり,$V'$を構成する単語はより多様なものになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語モデルの性質の維持}\label{sec:keeping_nature_of_lm}OpTokによる単語分割の最適化は後段タスクの損失関数のみに依存しているため,OpTokのユニグラム言語モデルは学習コーパスに含まれる単語の頻度を反映したものから乖離してしまう可能性がある.一方で,学習コーパスの単語頻度を反映したユニグラム言語モデルが要求される場面もある.例えば本研究においては,ラベルに偏りのあるデータを扱う場合に,少量ラベルに偶然現れた低頻度語を獲得する可能性がある.言語モデルがこうした低頻度の単語に高い確率を与えた場合,\ref{sec:selecting_vocabulary}節で導入した語彙のサンプリングがN-bestの多様性を失わせ,局所解から抜け出しにくくなることが考えられる.これを防ぐためには,OpTokのユニグラム言語モデルが実際の単語の頻度をある程度反映したものである必要がある.そのような場合には,次のように教師なし単語分割とニューラルEMアルゴリズム\cite{deligne1995language,liang2009online,tran2016unsupervised}に基き,入力文$s$について言語モデルを更新するための損失関数を用いることができる.\begin{equation}\mathcal{L}^{\mathrm{lm}}_s=-\sum_{n=1}^{N}{a_n\sum_{w\ins'_n}\logp^*(w)}.\end{equation}$\mathcal{L}^{\mathrm{lm}}_s$と後段タスクの損失値の重み付き和に対して誤差逆伝搬を用いることで,言語モデルの性質を維持しつつ単語分割の最適化を行う.文書分類の場合であれば,入力文に対する予測ラベルと正解ラベルとの交差エントロピー損失$\mathcal{L}^{\mathrm{cl}}_s$を用いた次の重み付き和に対して最適化を行う.\begin{equation}\label{eq:weighted_loss}\mathcal{L}_s=\mathcal{L}^{\mathrm{cl}}_s+\mu\mathcal{L}^{\mathrm{lm}}_s,\end{equation}ここで$\mu$はハイパーパラメータであり,より大きな$\mu$を用いるほどOpTokに含まれるニューラルユニグラム言語モデルは学習データにおける単語の出現頻度を反映したものになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiments}本研究ではタスクに応じて単語分割を最適化することで,後段タスクの性能の向上を目指す.本章では提案手法であるOpTokを複数の文書分類タスクに適用し,その効果を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}\label{sec:dataset}テキストを入力とし,そのラベルを予測する文書分類によって,提案手法OpTokの評価を行う.提案手法が言語によらず有効であることを確認するために,中国語,日本語,英語のデータセットを用いる.本研究ではタスクに応じて適切な単語分割を学習する手法を提案しているため,インフォーマルな文体を多く含み,単語分割の差が文書分類の性能差として出やすいと考えられるSNSコーパスを用いた感情分析タスクを用いる.また,中国語,日本語,英語において,同一のテキストに対して二つのタスクが設定されているデータセットを用いることで,提案手法がタスクごとに異なる単語分割を学習できているかを確認する.さらに,二つの入力文を用いるTextualEntailmentタスクを用いることで,提案手法が複数の入力を必要とするタスクであっても適用できることを確認する.各データセットについて,順に説明する.\noindent{\bfWeibo(Zh)}\footnote{\url{https://github.com/wansho/senti-weibo}}は,中国語のSNSから作成された感情分析タスクのデータセットである.各テキストにはPositive・Negativeのいずれかのラベルが付与されている.配布されているデータはすでに前処理として単語分割が行われているため,デトークナイズとしてスペース記号を除去して使用する.\noindent{\bfTwitter(Ja)}\footnote{\url{http://www.db.info.gifu-u.ac.jp/data/Data_5d832973308d57446583ed9f}}は,日本語のSNSから作成された感情分析タスクのデータセットである.本データセットは家電機器などの製品に関するテキストを収集し,対象の製品についてPositive・Negative・Neutral・BothofPositiveandNegative・Unrelatedの5つのラベルが各テキストに最低1つ付与されている.配布されているデータのうち2018年夏の時点で352,554件にアクセスでき,本研究ではこれらのうちPositive・Negative・Neutralの3ラベルのうちいずれか1つのみが付与されたテキストのみを使用して実験を行う.\noindent{\bfTwitter(En)}\footnote{\url{https://www.kaggle.com/c/twitter-sentiment-analysis2}}は英語のSNSから作成された感情分析タスクのデータセットで,各テキストはPositive・Negativeのいずれかのラベルが付与されている.本研究の実験では,小文字化などの前処理を行わずに用いる.\noindent{\bfSNLI}\cite{bowman2015large}は自然言語処理において広く使用されているTexutualEntailmentタスクのデータセットで,英語で記述されている.二つの文の含意関係を分類するタスクであるため,本データセットの入力は2文となる.本データセットを,提案手法が複数の入力を必要とするタスクに適用可能であることを検証するために使用する.学習・検証・評価にはそれぞれデフォルトの分割を用い,既存研究に倣ってラベルが付与されたデータのみを使用する.\noindent{\bfAmazon:Genre\&Rating(En)}はAmazonproductdata\footnote{\url{http://jmcauley.ucsd.edu/data/amazon/}}を用いて作成した英語のデータセットである.元となるコーパスは24種の製品ジャンルについてユーザーのレビューが収録されており,各レビューにはユーザー自身が設定した1から5までのレートが付与されている.本研究では,各製品ジャンルから5,000件ずつサンプリングし,レビューテキストを入力としたジャンル予測タスクとレート予測タスクとして使用する.本データセットは同一のテキストに対して二つのタスクが設定されているため,提案手法がタスクに応じて異なる単語分割を学習できているかを検証することができる.テキストの長さはレビューごとに大きく異なるため,スペース記号区切りで200単語を上限とし,これを超えないようにレビューテキストをサンプリングした.\noindent{\bfJD.com:Genre\&Rating(Zh)}は,中国の電子商取引サイトであるJD.comに投稿されたレビューを用いて作成された中国語のデータセットである\cite{zhang2015daily}\footnote{\url{http://yongfeng.me/dataset/}}.各レビューには商品のジャンルと,ユーザーが設定した1から5までのレートが付与されている.Genre\&Rating(En)データセットと同様にして,レビューデータセットからジャンル予測タスクとレート予測タスクを作成した.充分なサンプル数を持つ13ジャンル\footnote{%\UTFC{56FE}\UTFC{4E66}\UTFC{97F3}\UTFC{50CF},\UTFC{7535}\UTFC{8111}/\UTFC{529E}\UTFC{516C},\UTFC{7F8E}\UTFC{5986}\UTFC{4E2A}\UTFC{62A4},\UTFC{5BB6}\UTFC{7528}\UTFC{7535}\UTFC{5668},\UTFC{5BB6}\UTFC{5C45}\UTFC{751F}\UTFC{6D3B},\UTFC{5176}\UTFC{4ED6},\UTFC{6BCD}\UTFC{5A74}/\UTFC{73A9}\UTFC{5177},\UTFC{978B}\UTFC{7C7B}\UTFC{7BB1}\UTFC{5305},\UTFC{624B}\UTFC{673A}/\UTFC{6570}\UTFC{7801},\UTFC{670D}\UTFC{9970}\UTFC{670D}\UTFC{88C5},\UTFC{5BB6}\UTFC{5177}/\UTFC{5BB6}\UTFC{88C5}/\UTFC{5EFA}\UTFC{6750},\UTFC{8FD0}\UTFC{52A8}\UTFC{6237}\UTFC{5916},\UTFC{949F}\UTFC{8868}/\UTFC{9996}\UTFC{9970}/\UTFC{773C}\UTFC{955C}/\UTFC{793C}\UTFC{54C1}}を選択し,各ジャンルごとに30,000件ずつ,レートが均等になるようにレビューデータをサンプリングした.使用するレビューテキストは,その文字数が3から100に収まるようにサンプリングを行った.\noindent{\bfRakuten:Genre\&Rating(Ja)}は,日本の電子商取引サイトである楽天市場に投稿されたレビューを用いて作成された日本語のデータセットである\cite{rakuten}.各レビューには商品のジャンルとユーザーが設定した1から5までのレートが付与されている.JD.comから作成したデータセットと同様に,充分なサンプル数を持つ21ジャンル\footnote{車用品・バイク用品,ダイエット・健康,ペット・ペットグッズ,靴,スイーツ・お菓子,バッグ・小物・ブランド雑貨,美容・コスメ・香水,インテリア・寝具・収納,日用品雑貨・文房具・手芸,ジュエリー・アクセサリー,食品,ホビー,スマートフォン・タブレット,インナー・下着・ナイトウエア,家電,スポーツ・アウトドア,キッズ・ベビー・マタニティ,キッチン用品・食器・調理器具,メンズファッション,花・ガーデン・DIY,レディースファッション.}を選択し,各ジャンルと各レートからそれぞれ5,000件ずつレビューデータをサンプリングした.2015年のレビューデータを使用し,レビュー本文の文字数が100に収まるようにサンプリングを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{07table01.tex}\caption{感情分析タスクのデータセット概要.}\label{tbl:sentiment_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{07table02.tex}\caption{Amazonproductdataから作成したGenre\&Rating予測タスクのデータセット概要.}\label{tbl:amazon_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%SNLI以外のタスクについては,8:1:1となるようにデータセットをランダムに分割し,それぞれ学習・検証・評価データセットとして使用する.Genre\&Ratingタスクについても同様に,ジャンル比が等しくなるような制約のもとランダムに8:1:1に分割した.なお,ジャンル予測タスクとレート予測タスクでは同じデータの分割を使用する.表\ref{tbl:sentiment_dataset}に感情分析データセットの概要を示した.また,英語のジャンル・レート予測タスクについては表\ref{tbl:amazon_data}にジャンルとレートのサンプル件数を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}OpTokのニューラルユニグラム言語モデルについて,式(\ref{eq:mlp_in_langmodel})の$\mathrm{MLP}$として2層のパーセプトロンを使用する.式(\ref{eq:sub_sent_vec})の$\boldsymbol{h}_{s'}$を計算するためのエンコーダー$g(\cdot)$として,注意機構と線形層を接続したエンコーダー(Attention)と,BiLSTMと線形層を接続したエンコーダー(BiLSTM)の二種類を用意した.これは提案手法がエンコーダーの種類によらず性能の向上に寄与することを確認するためである.注意機構を用いたエンコーダーでは,単語列の分散表現の重み付き和を線形層に入力することで文ベクトルを計算する.また,BiLSTMを用いたエンコーダーでは,分割された単語列の分散表現をBiLSTMに入力し,その出力のMax-Poolingを線形層に入力することで文ベクトルを計算する.これらの処理において,活性化関数として${\rmtanh}$を線形層の前後に使用した.それぞれのエンコーダーの計算の概要を図\ref{fgr:encoders}に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-2ia7f3.pdf}\end{center}%%%%\label{fgr:attention_encoder}%%%%\label{fgr:bilstm_encoder}\hangcaption{%実験で使用するエンコーダーの概要.単語分割済みの文$s'$に含まれる単語の系列$w_1,w_2,w_3$に対応する単語分散表現$\boldsymbol{v}_{w_1},\boldsymbol{v}_{w_2},\boldsymbol{v}_{w_3}$について,それぞれのエンコーダーで文ベクトル$\boldsymbol{h}_{s'}$を計算する処理の概要を示す.}\label{fgr:encoders}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文書分類の後段モデルとして3層のMLPを使用し,文ベクトルをラベルサイズのベクトルへと変換する.この時,MLPへの入力となる文ベクトルに50\%のドロップアウトを適用した.SNLIについては,textとhypothesisの双方に対して同じエンコーダーを使用し,それぞれの出力のベクトル結合を文ベクトルとして後段モデルへと入力する.提案手法との比較には,広く使用されている単語分割モデルであるSentencePiece\cite{kudo2018sentencepiece}を用いる.具体的には,SentencePieceによって分割された単語列を文ベクトルへと変換し,後段モデルへと入力する.すなわち,提案手法のうちニューラルユニグラム言語モデルをSentencePieceに置き換え,入力文を分割するモデルをベースラインとする.複数の研究によって,決定的な単語分割ではなく確率的な単語分割を用いて後段モデルを学習するサブワード正則化によって性能の向上が得られることが示されている\cite{kudo2018subword,hiraoka2019stochastic,provilkov2019bpe}.そのため,本研究においてもサブワード正則化を用いたSentencePieceをベースラインモデルとして使用する.SentencePieceのモデルは各データセットの学習データを用いて学習した.語彙のサイズは8K,16K,24K,32Kを探索し,Twitter(Ja)とTwitter(En),Genre\&Rating(Zh)については16Kを選択し,Weibo(Zh)とSNLI,Genre\&Rating(En),Genre\&Rating(Ja)については32Kを選択した.また,学習済みのSentencePieceの語彙を用いて提案手法OpTokの語彙を初期化し,ニューラルユニグラム言語モデルについてもSentencePieceによって推定された単語確率とのKLダイバージェンスが小さくなるように事前学習し初期化した.単語分散表現は各データセットの学習データを用いて双方向言語モデルで事前学習し,文書分類の学習時には固定した.後段タスクに対して適切な単語分割は事前学習時に不明であるため,双方向言語モデルはSentencePieceによるサブワード正則化を用いて学習した.Genre\&Ratingタスクについては,同じ単語分散表現を用いて学習を行った.全てのデータセットについて,外部データによる事前学習は行っていない.提案手法とベースライン手法を用いた文書分類の学習には,正解ラベルに対する交差エントロピー損失を用いる.パラメータの最適化にはAdam\cite{kingma2014adam}を用い,PyTorchのデフォルトの設定を用いた.OpTokとSentencePieceの双方で使用する単語確率の平滑化のためのハイパーパラメータ$\alpha$は既存研究\cite{kudo2018subword}に倣い$\alpha=0.2$とした.提案手法の学習において,$N$-best分割については$N=3$,制限付き語彙の大きさ$|V'|$は本来の語彙の大きさの半分とした.すなわち,Twitter(Ja)とTwitter(En),Genre\&Rating(Zh)については$|V'|=8,000$,Weibo(Zh),SNLI,Genre\&Rating(En),Genre\&Rating(Ja)については$|V'|=16,000$である.評価時には,学習された言語モデルに基づいて上位$|V'|$単語を語彙として選択し,$1$-best分割を用いてラベルの予測を行う.本節の実験では提案手法の効果を調べるために,言語モデルの性質を維持するための損失関数への重みは$\mu=0$とした.本稿における全ての実験結果について,事前学習部分を除く全ての学習可能パラメータをランダムに初期化し,5回の試行結果の平均F1値を報告する.また,文書分類の最大学習エポックは20とし,各試行において検証データで最大性能となるモデルを選択し,評価データで評価を行った.提案手法の実装と実験に使用したソースコードはGitHubにて公開している\footnote{\url{https://github.com/tatHi/optok}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:main_results}OpTokとSentencePieceによる単語分割手法を用いて後段モデルを学習し,その実験結果を表\ref{tbl:main_results}に示した.SentencePieceについては,提案手法における制限付き語彙と本来の語彙それぞれと同じ大きさの語彙を持つ設定(SentencePiece,SentnecePiecex2)で実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{07table03.tex}\hangcaption{文書分類での実験結果.太字は各データセットでの最大値を表す.\textbarvocab\textbarはSencencePiece/SentencePiecex2それぞれの語彙の大きさを表し,これはOpTokの制限付き/本来の語彙の大きさと同じである.}\label{tbl:main_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験結果より,多くの各言語・各タスクの組み合わせにおいて提案手法は文書分類の性能向上に寄与することを確認した.また多くの実験設定において,OpTokの性能はSentencePieceのどちらの語彙の大きさの設定による性能よりも高いことが示された.注意機構を用いたエンコーダーと,BiLSTMを用いたエンコーダーのどちらを使用した場合であっても,提案手法はSentenecePieceによる単語分割を用いた手法の性能を上回ることから,提案手法は使用するエンコーダーに関わらず従来の単語分割手法と比べて性能の向上に貢献することを確認した.SNLIにおける実験結果からは,複数の入力文を要求するタスクであっても提案手法を用いることで性能向上に寄与することが示された.さらに,OpTokはインフォーマルな表現を多く含むデータセット(SNSでの感情分析とGenre\&Ratingタスク)に限らず,SNLIのようにフォーマルな表現を含むデータセットであっても性能向上に貢献することが確認された.提案手法は評価時に本来の語彙の半分の大きさの語彙のみを使用している.このことから,提案手法はタスクを解くために有用な語彙を選択することで,語彙削減に貢献していると考えることができる.注意機構によるエンコーダーを用いたRating(En)タスクでは,提案手法による性能の低下が確認された.これは表\ref{tbl:amazon_data}に見られるような,ラベルの極端な偏りに起因すると考えられる.注意機構によるエンコーダーはBiLSTMによるエンコーダーに比べて単語の並びを考慮しないため,文ベクトルに与える単語分割の影響が大きい.また,Rating(En)においてレートが5となるような高評価レビューを検出するためには,肯定的なキーワードを認識できれば良い.これにより,OpTokはeasy-positiveである高評価レビューに特徴的なキーワードのみを有用な語彙として選択し,低評価レビューの検出に有効な単語を語彙から落としてしまっているために性能が低下したと考えられる.こうしたラベルの偏りに起因する性能の低下については,偏りを考慮して学習を行うような損失関数\cite{li2020dice}を採用することで防ぐことが可能であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語分割のみによる性能向上}\ref{sec:main_results}節の結果からだけでは,性能向上が提案手法で単語分割モデルと後段モデルを同時に最適化したことに起因するものであるかは不明瞭である.そこで,本節では単語分割の最適化そのものが,後段タスクの性能向上に貢献しているかを調べる.単語分割の最適化のみの影響を調べるために,文書分類をOpTokに含まれるニューラルユニグラム言語モデルのみで学習する.すなわち,後段モデルとOpTokに含まれるニューラルエンコーダーのパラメータをランダムに初期化し,固定することで単語分割の更新のみによる性能向上を確認する.ニューラルユニグラム言語モデルのパラメータのみを更新し,学習損失値と検証データにおけるF1値の推移を観察し,単語分割の最適化によって性能の向上が得られることを確認する.本実験を\ref{sec:experiments}節で用いたTwitter(Ja)データセットにおいて行い,その結果を図\ref{fgr:diff_by_seg}に示した.図\ref{fgr:diff_by_seg}は学習データにおける損失値と検証データにおけるF1値について,それぞれ学習開始時の値からの差をエポックごとに示した.図より,学習エポックの増加に伴って学習損失値が下がり,検証データにおけるF1値は上昇している.このことから,提案手法は後段タスクの損失関数を用いて,その性能が向上するような学習ができていることが示された.また,この結果は\ref{sec:main_results}節における全体的な性能の向上に単語分割の最適化手法そのものが寄与していることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-2ia7f4.pdf}\end{center}\hangcaption{Twitter(Ja)データセットでの,OpTokによる単語分割の更新のみを用いた性能の推移.検証データでのF1値と学習データでの損失値について,学習開始時の値からのエポックごとの差の推移を示す.}\label{fgr:diff_by_seg}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク指向の単語分割}提案手法によって獲得される単語分割が後段タスクに応じて異なる物であるかを調べる.本節では,\ref{sec:experiments}章での実験で用いた英語・中国語・日本語のGenre\&Ratingタスクにおいて,提案手法がどのような単語分割を学習したかを定性的に分析する.なお,Genre\&Ratingタスクに用いたデータセットは同一のテキストに対して異なる二つの後段タスクが設定されている.また,本節ではBiLSTMによるエンコーダーを用いた実験設定によって得られた単語分割を比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{07table04.tex}\hangcaption{提案手法を用いたGenre\&Ratingデータセットの学習において,学習開始時に比べてユニグラム確率が大きく向上した単語の上位15件.}\label{tbl:lm_diff}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:lm_diff}はジャンル予測タスクとレート予測タスクにおいて,提案手法が学習した言語モデルに基づき,学習開始時に比べてユニグラム確率が大きく上がった単語の上位15件を示す.表より,提案手法によって学習を行ったニューラルユニグラム言語モデルは,ジャンル予測・レート予測のそれぞれで有用と考えられる単語に対して高い確率を与えるように更新されていることがわかる.例えば英語のAmazonデータセットにおいて「zombie」という単語はジャンルを予測するために重要な手がかりとなり,「bad」はレート予測に有効であると考えられる.また,中国語のJD.comデータセットにおいては,「\UTFC{8F66}」「衣」などのジャンル予測に有用とみられる単語や,「清」「差的」などのレート予測に有用な単語の確率がそれぞれ上昇していることが確認できる.日本語のRakutenデータセットでは,「汚れ」「足」などの単語の確率がジャンル予測タスクでの学習で上昇し,レート予測タスクでは「とても」「気になる点」などの単語の確率が上昇している.レビューでは「星4つ」のように,レートを直接明記する例も存在しており,日本語のレート予測の学習で「星」という単語の確率が上昇している点も特筆すべきである.中国語と日本語のジャンル予測タスクでは,それぞれ「的」「了」や「が」「の」のような機能語の確率が大きく上昇している.これは,ジャンル予測タスクにおいて名詞を適切に切り出すことが性能の向上につながり,その区切りを判別するために機能語が有効であるためだと考えられる.これらの結果から,OpTokは後段タスクを解く上で有効と考えられる単語をより多く使用して単語分割を行うモデルとして学習されることが確認された.なお,\ref{sec:keeping_nature_of_lm}節で説明した通り,本実験では言語モデルの性質を維持するような損失関数を用いていないため,学習済みの各単語の確率が極端な値になる場合がある.検証データに含まれる入力文のうち,提案手法によって獲得された後段タスクごとの単語分割の差が顕著である英語,中国語,日本語それぞれの例を表\ref{tbl:case_study_amazon}に示した.表において,SentencePieceは語彙の規模を16Kとしたモデルの単語分割の結果を示し,提案手法は32Kの語彙を用いて学習し単語のスコアが高い上位16K単語を用いた単語分割の結果を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{07table05.tex}\hangcaption{異なるタスクにおいて,提案手法OpTokによって獲得された単語分割の例と,ベースラインであるSentencePieceによる単語分割の例.同じテキストに対して,ジャンル予測とレート予測の異なるタスクを学習した.手法間で特筆すべき分割の差が見られる箇所を太字で示した.}\label{tbl:case_study_amazon}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%英語のジャンル予測タスクに対して最適化を行った場合は「book/s」のように,ジャンルを予測するために重要であると考えられる単語の屈折語尾を切り落とす単語分割が見られる.これにより,屈折によらず「book」という単語を認識できるため,正しいラベルであるBookジャンルを適切に予測することができると考えられる.一方でレート予測タスクに対して最適化を行った場合は「interest/ing」のように,レートを予測するために有用であると考えられる「interest」という単語を適切に捉えるために,その派生語尾を切り落とす分割が見られる.これにより,「interested」や「interests」といった単語を「interest/ing」と同じように捉えることができ,レート予測の性能向上をもたらすと考えられる.また,ジャンル予測で学習された単語分割は「interesting」を分割せず,レート予測では「books」を分割していない.中国語の例においても,ジャンル予測とレート予測によって獲得された単語分割の差が確認できる.ジャンル予測で学習したモデルでは「\UTFC{6307}\UTFC{7EB9}」や「操作」など,正しいジャンルである「携帯電話/デジタル」を予測するために有用な単語を分割せずに残している一方で,ジャンル予測に不要と考えられる「不好」は分割して語彙から落としていることがわかる.対してレート予測で学習したモデルは「不好」を連結し,「\UTFC{6307}\UTFC{7EB9}」や「操作」を語彙から落としている.さらに,中国語の否定極性表現である「一点都」を切り出すことで,「一点都不」や「一点都没」などの表現を統一的に認識できるように学習できている.また,SentencePieceでは単語として認識していた「\UTFC{9632}\UTFC{6307}\UTFC{7EB9}」や「而且」について,提案手法ではどちらも使用していない点が特徴的である.「\UTFC{9632}\UTFC{6307}\UTFC{7EB9}」は耐指紋コーティングを表すが,使用したデータセットでは単純に「\UTFC{6307}\UTFC{7EB9}」について触れるレビューが多く,そのほとんどが「\UTFC{9632}\UTFC{6307}\UTFC{7EB9}」を含むレビューと同じジャンルであるために語彙削減として「\UTFC{9632}\UTFC{6307}\UTFC{7EB9}」を語彙から落としたと考えられる.また「而且」は「また」などを表す接続詞で,ジャンル予測とレート予測の双方において意味を持たない単語であり,語彙から削除されたと考えられる.日本語の例では,ジャンル予測で学習したモデルは「メイク」を連結しており,レート予測で学習したモデルは「ませんでした」という否定フレーズを連結することで,それぞれのタスクに応じた分割が獲得されていることが確認できる.特に単語「メイク」は32Kの語彙の規模を持つSentencePieceモデルには含まれているが,16Kのモデルには含まれていないためSentencePieceでは「メ/イ/ク」と分割されている.一方で,32Kの語彙をもとに提案手法で16K単語を選択した場合は「メイク」という単語が含まれているため,分割に使用することができている.この結果は,提案手法を用いた素性選択がタスクを考慮したものであることを示唆している.これらの事例より提案手法は英語,中国語,日本語において,後段タスクに応じて適切な単語分割を獲得していることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{PMIを用いた素性選択との関係}本研究は後段タスクに対して適切な語彙を選択するという側面において,これまでの自然言語処理で研究されてきた素性選択との関わりが深い.本節ではレビューデータを用いた実験を通して,文書分類のタスクにおけるラベルと単語のPMIを用いた素性選択手法\cite{sebastiani2002machine,church1990word}に関する比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{07table06.tex}\hangcaption{SentencePieceによる32K語彙からPMIを用いて16K単語を素性選択した手法と,SentencePieceによる単語分割手法,提案手法のレビューデータにおける文書分類での実験結果.}\label{tbl:pmi_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず提案手法による文書分類の性能と,PMIを用いて素性選択を行う手法の文書分類の性能を比較する.PMIを用いた素性選択では,以下の二つの指標で単語とラベルの共起スコアを計算した\cite{xu2007study}.\begin{align}{\rmPMI}(w,l)&=\log\frac{p(l|w)}{p(l)},\\{\rmPMI}_{\rmmax}(w)&=\max_{l\inL}{\rmPMI}(w,l),\\{\rmPMI}_{\rmave}(w)&=\sum_{l\inL}{p(l){\rmPMI}(w,l)}.\end{align}ここで$w$は単語,$l$は文書分類のラベル集合$L$に含まれるラベルである.また,PMIのスコアは学習データ中の全ての文字N-gramを対象として計算する.実験ではSentencePieceで学習した32Kの語彙に含まれる単語について${\rmPMI}_{\rmmax}(w)$と${\rmPMI}_{\rmave}(w)$を計算し,それぞれの指標でスコアの高い上位16K単語を選択した.ただし未知文字を防ぐために,長さが1の単語は必ず語彙に含まれるように選択を行った.さらに,選択した語彙をもとにEMアルゴリズム\cite{deligne1995language,liang2009online,kudo2018sentencepiece}を用いて単語の出現確率を推定し,サブワード正則化を用いた文書分類の学習を行った.文書分類の学習には,\ref{sec:experiments}章の実験で用いたBiLSTMエンコーダーによる分類器を使用し,その結果を表\ref{tbl:pmi_results}に示した.結果より,SentencePieceで作成した語彙からPMIを用いて素性選択を行う手法の性能は,SentencePieceの16K語彙を用いた手法や提案手法の性能を下回っている.ここから,PMIのみを用いた素朴な素性選択に比べてSentencePieceを用いた言語モデルベースでの素性選択や,提案手法によるモデルのパラメータを考慮した語彙の選択が性能向上に寄与することがわかった.次に,SentencePieceを用いた単語分割と提案手法による単語分割をPMIの観点から比較する.正解ラベルとのPMIが高い単語が含まれているかどうかは,その単語分割が文書分類タスクに対して適切なものであるかを測る指標になると考えられる.そこで,ある文$s$を単語分割した$s'$に含まれる単語のうち,最もその文の正解ラベル$l$とのPMIが高い単語のPMIスコアの平均,$\frac{1}{|D|}\sum_{s'\inD}\max_{w\ins'}{\rmPMI}(w,l)$を用いて,SentencePieceと提案手法の単語分割を比較する.ここで$D$は単語分割済みの学習データである.このスコアが高いほど,単語分割済みの文が正解ラベルに特徴的な単語を含んでいることを示す.SentencePieceと提案手法それぞれの単語分割についてこのスコアを計算した結果を表\ref{tbl:pmi_scores}に示した.表より,提案手法による単語分割はSentencePieceに比べてこのスコアの値が高く,各文の正解ラベルに特徴的な単語を用いた単語分割が行えていることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{07table07.tex}\hangcaption{SentencePieceと提案手法それぞれの単語分割において,単語分割済み文中に含まれる単語のうち正解ラベルとのPMIが最も高い単語のPMIスコアの平均.数値が高いほど,正解ラベルに特徴的な単語を多く含む単語分割であることを表す.}\label{tbl:pmi_scores}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの検証結果から,言語モデルベースのSentencePieceや提案手法に比べて,PMIのみを用いた素性選択手法は性能向上に貢献しないことが分かった.一方で,提案手法はSentencePieceの単語分割に比べて,正解ラベルとのPMIが高くなるような単語を用いた単語分割を学習できていることが分かった.ここから,提案手法はSentencePieceによる言語モデルベースの素性選択の性質を残しつつ,正解ラベルとの関係が深い素性を選択することで,性能の向上が得られていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハイパーパラメータによる影響}\label{sec:hyp}本研究では提案手法のOpTokについて,語彙の大きさの制限と$N$-best分割,言語モデルの性質の維持について三つのハイパーパラメータを導入した.本節では,これらのハイパーパラメータが性能に与える影響について,感情分析タスクを用いて分析する.%%%%図\ref{fgr:hyp_voc_size}は図\ref{fgr:hyp5}aは制限付き語彙の大きさが各言語の性能に与える影響について報告したものである.制限付き語彙の大きさを本来の語彙に対して25\%,50\%(デフォルトの実験設定),75\%,100\%と変化させ,感情分析タスクにおける性能の変化を分析した.図では5回の試行による平均F1値について,表\ref{tbl:main_results}で報告した値からの差を示した.図より,語彙の大きさを50\%に縮小する設定が日本語と英語において最も性能が高く,語彙を制限することで提案手法の性能が向上することが確認された.一方で,図より制限付き語彙の大きさを小さくするほど,中国語での性能が低下することが示された.結果よりWeibo(Zh)データセットにおいて,32Kの大きさを持つ本来の語彙のうち全体(100\%)を用いることでF1値が93.14に到達することがわかった.これは表\ref{tbl:main_results}で報告したOpTokのF1値よりも0.32高い数値である.この結果は,中国語のように文字種が非常に多い言語において,語彙の大きさを制限することで後段タスクを解くための有用な単語を語彙に含めることができず,学習と評価の双方で未知語を多く発生させてしまうことに起因すると考えられる.中国語に関するこの分析は,既存研究で報告されている分析とも合致する\cite{hiraoka2019stochastic}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia7f5.pdf}\end{center}%%%%\label{fgr:hyp_voc_size}%%%%\label{fgr:hyp_n}\hangcaption{提案手法で用いる語彙の大きさ$|V'|$と分割候補の数$N$を異なる値にした時の性能.表\ref{tbl:main_results}で報告した感情分析タスクのF1値からの差を示す.}\label{fgr:hyp5}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fgr:hyp_n}はOpTokのハイパーパラメータのうち,図\ref{fgr:hyp5}bはOpTokのハイパーパラメータのうち,単語分割候補の数を表す$N$が感情分析タスクに与える影響を示している.図より全ての言語において$N=3$を用いる設定が最も性能が高く,$N$を大きくすることで性能が低下する傾向にあることが示された.提案手法を用いた学習では$N$-bestに含まれる全ての単語分割を用いてエンコーダーと後段モデルを学習する一方で,評価時には$1$-best分割を用いるという学習と評価時のギャップが,この傾向を引き起こしていると考えられる.より大きな$N$を設定することで,文書分類のための後段モデルであるMLPは複数の単語分割についての文ベクトルの重み付き和を用いて学習を行う.一方で評価時には$1$-bestの単語分割による文ベクトルのみが入力され,このギャップのために性能が低下すると考えられる.\ref{sec:keeping_nature_of_lm}節ではOpTokで獲得される言語モデルの性質を維持するためのハイパーパラメータ$\mu$を導入した.大きい$\mu$を設定することで,式(\ref{eq:weighted_loss})における言語モデルの性質を保つための損失値$\mathcal{L}^{\mathrm{lm}}_s$が学習に与える影響が大きくなり,OpTokのニューラルユニグラム言語モデルはコーパスに含まれる単語の頻度を反映したものになる.\ref{sec:experiments}章の実験では提案手法の効果を調べるために$\mu=0$と設定していたが,本節では異なる$\mu$を設定することで言語モデルの性質が維持されることと,これが感情分析タスクに与える影響を調べる.%%%%図\ref{fgr:hyp_ppl_mu}は図\ref{fgr:hyp6}aは異なる$\mu$を用いて学習したOpTokを用いて学習データを1-best分割し,そのパープレキシティを示したものである.より大きな$\mu$を用いることでパープレキシティが下がる傾向にあることが確認され,OpTokのニューラルユニグラム言語モデルが学習データにおける単語の出現頻度を反映したものになっていることがわかる.また,中国語,日本語,英語において,異なる$\mu$を用いて学習したモデルの性能を%%%%図\ref{fgr:hyp_f1_mu}に示した.図\ref{fgr:hyp6}bに示した.図では,表\ref{tbl:main_results}で報告した値($\mu=0$)からの差を示している.結果より,言語モデルの性質を保つことが性能に与える影響は言語ごとに異なることがわかる.中国語と日本語では,適切な$\mu$を設定することで性能の向上が見られ,$\mu$が大きすぎる場合には性能が低下することが確認された.一方で英語では$\mu$の値による一貫した傾向は見られなかった.こうした$\mu$による性能の差は,各言語間にある単語分割の曖昧性の差によって引き起こされていると考えられる.中国語と日本語は単語境界を明示しないため単語分割の曖昧性が大きく,同じ文字列が異なる文脈に現れることが多い.そのため,適切に$\mu$を選択して言語モデルの性質を保持することで極端なスコアを持つ単語が減り,単語分割に一貫性が得られるために性能が安定すると考えられる.一方で英語は事前にスペース記号で単語境界を明示する言語であるため単語分割の曖昧性が小さく,言語モデルの性質を保持することによる影響が少ないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{28-2ia7f6.pdf}\end{center}%%%%\label{fgr:hyp_ppl_mu}%%%%\label{fgr:hyp_f1_mu}\hangcaption{提案手法において,言語モデルの性質を維持するための損失値の重み$\mu$による性能の差と,学習データのベスト分割に対するパープレキシティの差.}\label{fgr:hyp6}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTへの応用}大規模なコーパスを用いて事前学習を行った言語モデルを活用した自然言語処理に関する研究が多く手掛けられている.こうした事前学習済みの言語モデルは文ベクトルを出力するエンコーダーとして使用することができ,提案手法のエンコーダーとして使用することができる.本節では,多くの自然言語処理のタスクで性能の向上が報告されているBERT\cite{devlin2018bert}について,提案手法を適用しTwitter(En)とGenre\&Rating(En)データセットでの評価を行う.\ref{sec:experiments}章での実験設定のうち,提案手法に用いるニューラルエンコーダーをBERTへと変更し,同様の実験を行う.本実験で使用するBERTモデルとして,HuggingFace\footnote{\url{https://github.com/huggingface/transformers}}が配布している${\rmBERT}_{\rmbase}$を利用した.前述の実験と同様に単語分散表現のみを固定し,その他のパラメータをfine-tuneする.${\rmBERT}_{\rmbase}$のために用意されているトークナイザはWordPieceに基づいており,最長一致アルゴリズムでの単語分割を前提としているため各単語の確率は配布されていない.そこで本実験ではEMアルゴリズム\cite{deligne1995language,liang2009online,kudo2018sentencepiece}を用いて,配布されている語彙に含まれる単語の確率を各データセットの学習データについて推定し,これを提案手法のニューラルユニグラム言語モデルの初期値とした.配布されている${\rmBERT}_{\rmbase}$の語彙には各データセットに出現しない単語が多く含まれており,制限付き語彙を使用することで多くの未知語が発生すると考えられるため(\ref{sec:hyp}節),語彙の大きさの制限は行わない.${\rmBERT}_{\rmbase}$のパラメータのfine-tuneについてはAdamW\cite{loshchilov2017decoupled}を用い,OpTokに含まれるニューラルユニグラム言語モデルのパラメータについてはAdamによる更新を行う.実験結果を表\ref{tbl:result_BERT}に示した.表において,${\rmBERT}_{\rmbase}$による実験ではBERTの学習時と同様に最長一致アルゴリズムを用いてWordPieceでの分割を行ったデータを用いている.+Samplingtokenizationによる実験では,上述したEMアルゴリズムによる単語確率の推定値を用いて,SentnecePieceによるサブワード正則化と同様に確率的な単語分割を用いた学習を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{07table08.tex}\hangcaption{英語で記述されたデータセットにおける${\rmBERT}_{\rmbase}$を用いた実験結果(F1値).手法間での最高値を太字で示した.}\label{tbl:result_BERT}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験結果より,事前学習済みのBERTを用いることで表\ref{tbl:main_results}で報告した値に比べ,どのデータセットでも性能が向上することが確認された.さらに,提案手法であるOpTokにBERTを組み込むことで,オリジナルのBERTや確率的な単語分割を用いて学習する手法の性能を上回ることがわかった.以上の結果から,OpTokは自然言語処理で広く使われている事前学習モデルを組み込んだモデルであっても,単語分割を最適化することで性能の向上に寄与することが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} ニューラルネットワークを用いた自然言語処理において,単語分割の観点から処理性能の向上を目指す研究は数多く手掛けられてきた.単語分割に起因する処理性能の低下を防ぐ方法として,複数の単語分割を同時に使用する手法が挙げられる.ニューラルネットワークを用いた枠組みにおいては,LSTMの系列処理をラティス状に拡張することで,複数の単語分割を入力として受け取る手法が提案されている\cite{chen2017dag,zhang2018chinese,yang2018subword}.これにより,様々な単語分割の可能性を同時に考慮しながらタスクの学習が可能となり,中国語の教師あり単語分割タスクや固有表現抽出タスクで性能の向上が報告されている.また,Transformerの枠組みで単語分割の複数の可能性をラティスとして考慮する手法も提案されており,中英翻訳タスク\cite{xiao2019lattice}や中国語の固有表現抽出タスク\cite{li2020flat}での性能向上が報告されている.これらの手法は複数の単語分割候補を同時に使用することで,決定的な単語分割の失敗による性能低下を防ぐことができる.確率的な単語分割を行うサブワード正則化\cite{kudo2018subword,kudo2018sentencepiece}では,学習エポックごとに単語分割を言語モデルにしたがってサンプリングすることで複数の単語分割候補を用いたモデルの学習を行う.これにより,一つの学習事例を複数の単語分割を用いて学習するデータ拡張として性能の向上に繋がるだけでなく,未知の文字列に対してもロバストなモデルを学習することが可能である.SentencePieceによるサブワード正則化を用いることで,ニューラル機械翻訳の複数の言語対において性能の向上が得られることが報告されている.BPE-dropoutによるサブワード正則化では,BytePairEncodingを用いたサブワード分割におけるトークンの結合処理をランダムにスキップすることで,複数の単語分割候補を生成する\cite{provilkov2019bpe}.言語モデルを用いずに単語分割のサンプリングを行うことで,より多くの単語分割候補を用いてモデルを学習することができ,機械翻訳タスクにおける性能の向上が報告されている.また,教師なし単語分割手法をサブワード正則化に組み込むことで,学習が進むに従って確率的な単語分割から決定的な単語分割へとスケジューリングし,学習性能を安定させる手法も提案されている\cite{hiraoka2019stochastic}.タスクに対して最適な単語分割を求める試みは,主に機械翻訳分野において研究されてきた.アラインメントモデルのようにシンプルな機械翻訳手法を基準としてソース言語とターゲット言語の単語分割を決定することで,より複雑な機械翻訳モデルにおいても性能向上が見られることが報告されている\cite{xu2008bayesian,chung2009unsupervised,nguyen2010nonparametric,mermer2013improving}.近年の研究では,ニューラル機械翻訳における単語分割の最適化が試みられている.IncrementalBPEは,BytePairEncodingによるサブワード分割の適切な分割粒度を,ニューラル機械翻訳器の損失値を用いて自動決定する手法である\cite{xuanli2020dynamic}.DynamicProgrammingEncodingによる単語分割では,Seq2Seqモデルを用いた文字列から単語列への変換手法\cite{chan2016latent}を拡張し,ソース言語からターゲット言語を出力する上でより適切な単語分割を選択する手法を提案した\cite{xuanli2020dynamic}.我々の研究はこれらの既存研究と比較し,様々なニューラルエンコーダーに適用可能である点と,後段タスクに対する学習損失値からの誤差逆伝搬のみを用いて,人手で設定した基準を用いず直接的に単語分割を後段タスクに対して最適化するという点で異なっている.また\citeA{kudo2005morph}では,形態素解析器による単語分割の確率を用いてBag-of-Wordsベクトルの重みづけを行うことでテキスト分類タスクの性能向上を報告している.提案手法はニューラルネットワークを用い,単語分割の確率そのものをタスクとモデルに対して最適化するという点において,この手法を拡張したものであると捉えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,後段タスクに対して単語分割を最適化する手法であるOpTokを提案した.OpTokを後段モデルに接続し,一般的な後段タスクの学習と同様にパラメータを更新することで,後段タスクを解く上で有用な単語分割が学習される.実験結果より,提案手法は後段タスクに応じて適切な単語分割を獲得し,複数の言語における文書分類において性能の向上に起用することが確認された.また,提案手法の分析を通して,OpTokを用いることで後段タスクを学習するための損失関数のみを用いて単語分割の最適化を行うことができ,これが性能の向上をもたらすことを示した.さらに英語のデータセットではOpTokにBERTを組み込むことによる性能の向上を確認し,大規模コーパスで事前学習された言語モデルを用いた自然言語処理についても,提案手法が適用可能であることを示した.提案手法は文ベクトルを使用する様々な自然言語処理に適用することができるが,系列ラベリングや生成を伴うタスクに使用することは難しい.今後の研究では,単語の生成を伴うタスクに対しても提案手法を適用できるように拡張を施し,機械翻訳タスクや文書要約タスクでの実験と分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究成果は,国立研究開発法人情報通信研究機構(NICT)の委託研究により得られたものです.また本論文の内容の一部はFindingsofACL:EMNLP2020に採択されたものです\cite{hiraoka2020optimizing}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{平岡達也}{%2017年早稲田大学教育学部卒業.2019年奈良先端科学技術大学院大学情報科学研究科卒業,修士(工学).同年4月より東京工業大学情報理工学院博士後期課程に在学中.言語処理学会,ACL各会員.}\bioauthor{高瀬翔}{%2012年東北大学工学部卒業.2014年東北大学大学院情報科学研究科博士前期課程修了.2017年東北大学大学院情報科学研究科博士後期課程修了.博士(情報科学).NTTコミュニケーション科学基礎研究所でのリサーチアソシエイト,東京工業大学での研究員を経て,2020年4月より東京工業大学助教.自然言語処理の研究に従事.言語処理学会,ACL各会員.}\bioauthor{内海慶}{%2006年筑波大学大学院図書館情報学メディア研究科博士前期課程修了.修士(情報学).同年〜2013年ヤフー株式会社にて自然言語処理の研究開発に従事.2013年株式会社デンソーアイティーラボラトリ入社.2021年現在,同社在職中.自然言語処理の研究に従事.言語処理学会会員}\bioauthor{欅惇志}{%株式会社デンソーアイティーラボラトリアソシエイトリサーチャ.博士(工学).2014年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2012〜2014年日本学術振興会特別研究員(DC2).2013年マイクロソフト・リサーチアジアリサーチインターン.2014〜2019年東京工業大学情報理工学院助教.2016〜2017年シンガポール国立大学客員研究員.ACM,電子情報通信学会,日本データベース学会,言語処理学会,人工知能学会各会員.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V04N03-03
\section{はじめに} \label{sec:intro}近年,膨大な電子化された情報の中から必要な情報を検索する技術の必要性が高まっている.インターネットの爆発的な普及に伴って,ユーザが求める情報を持つwwwサーバを検索するシステムが,実際,数多く出現してきている.しかし,これらの検索システムのほとんどは,ユーザが入力した検索キーワードそのものを含むテキスト(に対応したwwwサーバ)を検索するシステムである.検索キーワードに意味的に類似している単語まで考慮した\footnote{単に,キーワードを同義語・類義語のリストを使って展開する従来手法では,不十分であり,類似の度合に従って文書を整列させて上位のものだけユーザに提示出来なくてはならない.キーワード「画家」に対して,同義語「画伯」や類義語「イラストレーター」,「デザイナー」や上位概念である「絵描き」,「芸術家」などまでも含むものを検索し,類似度順に出力することが望まれる.}検索(以下,類似検索と呼ぶ)は出来ない.一方,シソーラスに基づく意味的類似性を使った,翻訳,解析,文書検索などの研究が行なわれてきている.ただ,これらの先行研究には(1)シソーラスの階層構造が平衡していると仮定しているという問題と(2)単語の多義性の解消を行なっていないという問題があった.本論文では,階層構造が平衡していないシソーラスにも適用できる,より一般的な単語間の意味的類似度を提案する.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,単語間の類似度が大きくなる.筆者らは,この意味的類似度と大規模シソーラスの一つであるEDRシソーラスを使って,類似検索システムを実装した.さらに,精度を向上させるために,単語の多義解消手法をこの検索システムに導入した.本類似検索システムは,単語間の物理的近さと単語の重要度を用いた拡張論理型の従来システムに基づいている.この従来システムとの比較実験を行ない,意味的類似性と多義解消を用いた提案の類似検索手法\footnote{本手法では,類義語を検索可能にすることによって再現率を上げ,その範囲内で,多義によるノイズを排除し適合率を上げることを目指している.さらに再現率を重視する場合には関連語まで含めて検索することが必要と考えられる.}によって再現率・適合率が向上したことを確認した.以下,\ref{sec:method}節で,提案した意味的類似度,採用した多義解消手法,それらを用いた類似検索,ベースとなる拡張論理型検索について示し,\ref{sec:experiment}節で前節で述べた類似検索手法による適合率・再現率の改善及び多義解消手法の比較について示し,\ref{sec:conclusion}節でまとめる. \section{類似検索} \label{sec:method}提案する文書検索手法は,各文書に対して質問との関連度を求め,関連度の大きい順に文書を整列させる.先ず,意味的類似度計算法と多義解消法について述べ,さらに,これらを組み込むベースとなる従来システムの関連度及び検索手順について説明する.\subsection{意味的類似度}\label{sec:sim-word-main}単語間の意味的類似度は,単語に付与されている概念間の関係に基づいて計算する.まず,オンラインのシソーラスを概観し,次に,概念間・単語間の類似度について説明する.\subsubsection{シソーラス}\label{sec:thesaurus}オンラインのシソーラスには,分類語彙表\cite{Kokugoken64},角川類語新辞典\cite{Ohno81},Rogetシソーラス\cite{Chapman77},WordNet\cite{Miller90},EDR電子化辞書\cite{EDR93}の概念辞書(以下,EDRシソーラスと称する)などがあり,いずれも概念を上位・下位の関係で階層的に構成している.これらのシソーラスの特徴\footnote{角川類語新辞典は1981年版,分類語彙表は1964年版,EDR概念辞書は評価版2.1版,WordNetはVersion1.5,RogetシソーラスはVersion1.02に関するデータである.}を表\ref{tbl:thesaurus}に示す.WordNetとEDRシソーラスは比較的規模が大きい.また,EDRシソーラスは,概念の階層関係が,日本語・英語共通となっており両言語で利用できる.\begin{table}[htb]\caption{各種シソーラスの特徴}\label{tbl:thesaurus}\small\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|c||c|c|r|r|c|l|}\hlineシソーラス&階層構造&階層数&概念数&単語数&言語\\\hline\hline分類語彙表&平衡&5&約1,000&約33,000&日本語\\\hline角川類語新辞典&平衡&3&約1,000&約50,000&日本語\\\hlineRogetシソーラス&平衡&3&約1,000&約40,000&英語\\\hline\hlineWordNet&非平衡&10&約91,000&約120,000&英語\\\hlineEDRシソーラス&非平衡&18&約450,000\footnotemark\hspace*{-0.45em}&約200,000&日本語・英語\\\hline\end{tabular}\end{center}\end{table}\footnotetext{「中間ノード」(下位概念をもつノード)の数は約6,000\cite{Ogino95}であるが,ここでの概念数は末端概念を含み,かつ,多重継承を別に数えた数字である.}また,シソーラスはその階層構造によって2種類に分けることができる.\begin{itemize}\item分類語彙表,角川類語新辞典,Rogetシソーラスのように,ルート概念から末端概念までの階層の深さがほぼ一定である.\itemWordNet,EDRシソーラスのように,階層の深さが一定でない.\end{itemize}本論文ではそれぞれ「平衡シソーラス」,「非平衡シソーラス」と呼ぶことにする.\subsubsection{概念間の類似度}\label{sec:sim-con}先行研究\cite{Sato90,Sumita92,Kurohashi92,Mima96}では「平衡シソーラス」を扱っている.例えば,隅田ら\cite{Sumita92}は,平衡シソーラス上での概念間の類似度を用例に基づく翻訳に応用している.そこでは,階層の深さが一定であることを利用して,最下位の共通上位概念の位置に基づいて類似度を決定している.本論文では,EDRシソーラスのような「非平衡シソーラス」にも適用可能な概念間の{\dg類似度}を定義する.\begin{itemize}\item各概念に対して,その概念の{\dg具体度}を割り当てる(詳細は後述).具体度は,0から$NL-1$までの$NL$個の値の中で,下位になるほど大きな値をとる.図\ref{fig:similarity}に$NL$が9の場合を示す.\item概念$A,B$の間の類似度$Sim$は,$A$と$B$の相対的な位置関係(3種類)に応じて,具体度を使って次のように定義する.$A,B$の最下位共通上位概念を$C$とし,その$C$の具体度を\\$LC$とする.\begin{itemize}\item$A$と$B$が同じ場合($C=A=B$),$Sim=1.0$.\item$C$が$A$でも$B$でもない場合,$Sim=LC/NL$.\item$A$が$B$の上位概念の場合($C=A$)またはその逆の場合($C=B$),\\$Sim=$$(LC+1)/NL$.\end{itemize}\end{itemize}\begin{figure}[bht]\vspace*{0mm}\centerline{\vspace*{-2.5mm}\epsfile{file=similarity+.eps,scale=1.0}}\vspace*{3mm}\caption[]{非平衡シソーラスにおける概念間の意味的類似度の例\\($Sim$:概念$A,B$の間の類似度,$C$:$A$と$B$の最下位の共通上位概念)}\label{fig:similarity}\end{figure}従って,類似度$Sim$は,0,1/$NL$,2/$NL$,$\cdots$,$(NL-1)/NL$,1の離散値をとり,0は最も似ていないことを意味し,1は最も似ていることを意味する.\paragraph{具体度の割り当て}「下位概念(末端までの概念すべて)の総数が少ない概念ほど,概念の具体度が高い」という考えで具体度を割り当てる.深さが$NL-1$(ルート概念の深さを0とする)で,各概念から下位概念への分岐数が一定で,概念数が原非平衡シソーラスに近い仮想の平衡シソーラスを想定する.各概念の具体度の割り当て手順を次に示す.\begin{enumerate}\item原非平衡シソーラスの概念数$TC$を求める\hspace{-0.2mm}(但し,\hspace{-0.5mm}$TC$は2以上とする).\hspace{-0.5mm}直上位の概念を複数持つ概念は,その数だけ別個の概念が存在していると考えて,概念数を求める.\item$NL(\ge2)$を任意に決める.\item各概念から下位概念への分岐数$NB$を,次式を満たす最小の自然数とする.\begin{eqnarray*}TC\leq\displaystyle\sum_{k=0}^{NL-1}NB^k\end{eqnarray*}\item階層の深さが$NL-1$(ルート概念の深さを0とする)で,各概念から下位概念への分岐数$NB$である平衡シソーラスを想定する.\hspace{-0.5mm}平衡シソーラスにおいて,深さが$d$の概念の下位概念の総数$TLD(d)$は次式となる.\begin{eqnarray*}TLD(d)=\left\{\begin{array}{ll}\displaystyle\sum_{k=1}^{NL-1-d}NB^k&(d<NL-1)\\0&(d=NL-1)\end{array}\right.\end{eqnarray*}\item原非平衡シソーラスの各概念に対して,\begin{enumerate}\itemその概念の下位概念総数$TLC$を求める.\item$TLC\leqTLD(d)$である最小の$d$をその概念に{\dg具体度}として割り当てる.\end{enumerate}\end{enumerate}概念数$TC$が45万であるEDRの非平衡シソーラスに対して,\hspace{-0.3mm}実験では,\hspace{-0.3mm}具体度の数$NL$を9に,$NB$は5とした\footnote{シソーラスが与えられたときの,NLとNBの選択には幅がある.以下の2点を考慮し,EDRシソーラス(概念数45万)に対して$NL$=9,$NB$=5とした.角川類語辞典は$NL$=4,$NB$=10で,分類語彙表は$NL$=6,$NB$=4である.また,$NB$を大きくすると,元のシソーラスの概念数とのズレが大きくなりがちである.}.図\ref{fig:thesaurus_level}に,この時の仮想平衡シソーラスにおける深さ$d$と下位概念総数$TLC$の関係を示す.\subsubsection{単語間の類似度}\label{sec:sim-word-sub}単語$w1$,$w2$間の類似度$Sim(w1,w2)$は次のように求める.\begin{itemize}\item単語(見出しと品詞)一致の場合,類似度は$(NL+1)/NL$とする.\item単語一致以外の場合,類似度は,2単語の概念のすべての組合せに対する2概念間の類似度の最大値とする.\end{itemize}\begin{figure}[ht]\vspace*{12mm}\centerline{\epsfile{file=thesaurus_level+.eps,scale=1.0}}\vspace*{5mm}\caption{仮想平衡シソーラスにおける深さと下位概念総数}\label{fig:thesaurus_level}\vspace*{10mm}\end{figure}\subsection{多義解消手法}多くの単語は多義である.すなわち,複数の概念を持っている.\ref{sec:sim-word-sub}節で述べたように,単語間の類似度は,概念のすべての組合せにおける類似度の最大値としている.この場合,実際にその文書で用いられている概念と異なった概念に基づく類似度が高くなることにより,誤って関連文書として検索されてしまうことがある.実際に文書中で使われている概念を同定することができれば,検索の精度は向上できる.そこで,単語の多義を解消する手法を導入することにした.多義解消の手法は多数提案されているが,本論文では,(1)情報検索に適用され逆効果であったと報告されているVoorheesの手法と(2)典型的な少数の多義語に関して高精度な結果が報告されてはいるが,情報検索といった実際的な応用における効果が検証されていないYarowskyの手法を取り上げる.両手法は他の多くの手法とは違って正解データを仮定しないという点で,大規模な制限のないテキストを扱う情報検索に向いた手法である.\subsubsection{Voorheesの手法}\label{sec:voorhees-apply}\vspace*{-1mm}Voorheesは,次に述べる多義解消法を提案し,文書検索の実験を行なっている\cite{Voorhees93}.文書$D$中の単語$dt$の各概念に対して,{\boldmath$hood$}(その概念を含み,単語$dt$の他の概念を含まない最も上位の概念)を求めた後,式(\ref{eqn:score-voorhees})で定義される{\dg差異}を求め,差異が正(の最大)\footnote{\topsep=0mm\topskip=0mm\partopsep=0mm\parskip=0mm\parsep=0mmVoorheesはシソーラスとしてWordNetを使い,多義解消された単語の概念をベクトル要素としたベクトル空間モデルに基づいた手法により文書検索を行なっている.一方,筆者らはEDRシソーラスを使い,意味的類似度を使った拡張論理型検索手法により文書検索を行なっている.また,前者は名詞だけを対象とし,後者はストップリストに属さない単語全体を対象としている.この二つのシステムは相違点が多く,それぞれの検索結果を直接比較することはできない.しかし,本研究において,以下のことを確認した.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\itemVoorheesの多義解消手法は,誤った選択をすることが多く,概念を高精度に「1つ」に絞り込めるほど性能が良いとはいえない.ただ,差異による{\dg絞り込み条件を「正の最大」から「正」に変更}すれば,副作用少なく「尤もらしくない」概念の数を減らすことは出来る.今回の実験で正解を含む率では,前者は後者の1/2から1/3と著しく悪かった.\itemまた,本類似検索法のように多義性を許容する場合には,この程度の性能でも情報検索の検索精度を向上できる.\end{itemize}}である概念を単語$dt$の概念として選択する\footnote{さらに,本実験では以下の変更を行なった.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\itemEDRのシソーラスがWordNetに比べて,分類の粒度が細かい(深さが約2倍,概念数が約5倍)であることを考慮して,概念の中で似ている概念をまとめるために,各概念をある具体度(本実験では6以下とした)の上位概念に置き換える.\item抽象的すぎる概念まで含むことを避けるため$hood$もある具体度(本実験では3以上とした)によって制限する.\end{itemize}}.\begin{eqnarray}差異&=&\displaystyle\frac{hood下の概念を持つ単語の文書D内出現数}{文書Dの延べ語数}\nonumber\\[1ex]&-&\frac{hood下の概念を持つ単語の全文書内出現数}{全文書の延べ語数}\label{eqn:score-voorhees}\end{eqnarray}\subsubsection{Yarowskyの手法}\label{sec:yarowsky-apply}\vspace*{-1mm}Yarowskyは,Rogetシソーラスと大量のコーパスを用いて多義解消の実験を行なっている\cite{Yarowsky92}.文書中の単語$dt$の多義解消手法の概要は次のとおりである.コーパス中の各単語に対して,前後$W$語ずつ合計$2W$語(文脈と呼ぶ)を抽出し,単語$dt$が属するシソーラス中の概念$C$毎に,単語$dt$の文脈中の単語のうち式(\ref{eqn:score-yarowsky1})があるしきい値$Y$以上の単語$ct$に対して,式(\ref{eqn:score-yarowsky2})の$Score$を求め,$Score$が正(の最大)\footnote{Voorheesの手法の変更と同様に$Score$による{\dg絞り込み条件を「正の最大」から「正」に変更}した.}となる概念を単語$dt$の概念としている\footnote{さらに,本実験では以下の変更を行なった.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\itemYarowskyは,しきい値$Y$を1.0と設定しているが,これだと特定文脈中での出現確率が全文脈中の出現確率に近い単語も$Score$に寄与することになる.筆者らは特定文脈中での出現の度合が顕著な単語だけを選択した方が多義解消の精度が良くなると考え,しきい値$Y$を2.0と大きく設定した.\item概念をVoorheesの手法における$hood$に置き換えた.EDRシソーラスの概念は,特に最下位概念はそのほとんどが非常に具体的な概念であるため,各概念に属する単語の文脈は非常にスパースとなるからである.\item本実験では文脈幅$W$を4とした.以下に精度と速度の両面から理由を述べる.\begin{itemize}\item精度\begin{itemize}\itemYarowsky等\cite{Yarowsky92,Gale93}は特に名詞に関して広い文脈($W$=50)の有用性を主張しているが,同時に狭い文脈($W$=6)の有用性も認めている.可能なら広い文脈を使った方が良いという主張である.但し,彼らの実験では,狭い文脈に対する広い文脈のgainは,86\%から90\%への4\%に過ぎなかった.また,本実験では,動詞や形容詞など,名詞以外の語も対象としている.\item予備実験では,$W$=4と$W$=5とで結果に大きな差は生じなかった.\item本検索実験では,Yarowsky等\cite{Yarowsky92,Gale93}と違って,文脈幅はストップワードを省いて数えることになるので,文脈幅の値が同じなら,実質的には本論文の文脈の方が広い.\end{itemize}\item速度\begin{itemize}\itemYarowskyの手続きは文脈幅に依存して大変な処理時間がかかるので,$W$=4で本実験を行なった.今回の実験で多義解消に要した時間はDECAlphaStation6005/333上で約330時間(2週間)である.\itemYarowskyの実験が広い文脈幅で実施出来たのは,特定の単語だけを扱っているからである.一方本実験は文書数約3,000の中に含まれる全て多義語を対象としている.\end{itemize}\end{itemize}\end{itemize}}.\begin{eqnarray}Score&=&\sum_{ct}\log\frac{Pr(ct|C)}{Pr(ct)}\label{eqn:score-yarowsky2}\\[1ex]&&Cに属する単語の文脈中の\nonumber\\[0zh]\frac{Pr(ct|C)}{Pr(ct)}&=&\frac{単語ctの出現確率}{単語ctの全文脈中の出現確率}\label{eqn:score-yarowsky1}\end{eqnarray}\subsubsection{多義解消の例}Voorheesの多義解消の例として,後述のベンチマークテスト中の文書番号1719の文書(図\ref{fig:disamb-voo-exm-doc})中の単語``evaluating''の結果を表\ref{tbl:disamb-voo-exm-res}に,Yarowskyの多義解消の例として,同テスト中の文書番号1411の文書(図\ref{fig:disamb-yar-exm-doc})中の単語``formulas''の結果を表\ref{tbl:disamb-yar-exm-res}に示す.表中,「概念」の欄に示している文字列は,EDRシソーラスに記述されている概念説明である\footnote{EDRシソーラスの各概念には,少なくても英語概念説明または日本語概念説明のいずれかが付与されている.しかし,必ずしも,両者が付与されているとは限らないので,表には基本的に英語概念説明を記し,英語概念説明が付与されていないものについては日本語概念説明を記している.}.「文書(または文脈)内貢献語」は,Voorheesの手法では$hood$下の概念をもつ文書内の単語を,Yarowskyの手法では文脈中の単語のうち\ref{sec:yarowsky-apply}節の式(\ref{eqn:score-yarowsky1})のしきい値$Y$が2.0以上の単語を示す.\begin{figure}[ht]\begin{center}\fbox{\begin{minipage}{120mm}\renewcommand{\baselinestretch}{}\tt\vspace*{1.2ex}\hspace*{0.5em}...........................................................\\Real-timedataprocessingsystemsastypifiedbytheautomated\\airlinereservationsystemarediscussedinthispaper.\\Criteriafor\underline{evaluating}performancearedescribed;amethodology\\forcalculatingandoptimizingisoutlined;andthemethodis\\[-0.5ex]\hspace*{0.5em}...........................................................\\[-2ex]\end{minipage}}\vspace*{-1ex}\end{center}\caption{単語``evaluating''が出現する文書(文書番号1719)}\label{fig:disamb-voo-exm-doc}\end{figure}\begin{table}[ht]\caption{Voorheesの手法による単語``evaluating''の多義解消}\label{tbl:disamb-voo-exm-res}\small\begin{center}\vspace*{-1ex}\renewcommand{\arraystretch}{}\begin{tabular}{|l|r|p{70mm}|}\hline\multicolumn{1}{|c|}{概念}&\multicolumn{1}{|c|}{スコア}&\multicolumn{1}{|c|}{文書内貢献語}\\\hline\hline``評価する''&{\dg0.123}&calculation,calculating,cost,outlined,types,optimizing,optimization\\\hline``{\dgtheactofcalculating}''&{\dg0.079}&calculation,calculating\\\hline``いろいろな思考的活動''&-0.063&typified,illustrated,reservation\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[ht]\begin{center}\fbox{\begin{minipage}{120mm}\renewcommand{\baselinestretch}{}\tt\vspace*{1.2ex}\hspace*{0.5em}...........................................................\\Foreachstatistic,thealgorithmincludedtheusualcomputing\\formulas,correctionduetoanaccumulatederrorterm,anda\\recursivecomputationofthecurrentvalueofthestatistic.\\Theusualcomputing\underline{formulas}werealsoevaluatedindouble\\precision.Largeerrorswerenotedforsomecalculationusing\\[-0.5ex]\hspace*{0.5em}...........................................................\\[-2ex]\end{minipage}}\vspace*{-1ex}\end{center}\caption{単語``formulas''が出現する文書(文書番号1411)}\label{fig:disamb-yar-exm-doc}\end{figure}\begin{table}[ht]\caption{Yarowskyの手法による単語``formulas''の多義解消}\label{tbl:disamb-yar-exm-res}\small\begin{center}\vspace*{-1ex}\renewcommand{\arraystretch}{}\begin{tabular}{|l|r|l|}\hline\multicolumn{1}{|c|}{概念}&\multicolumn{1}{|c|}{スコア}&\multicolumn{1}{|c|}{文脈内貢献語}\\\hline\hline``数や記号の組合せからなる式''&3.033&value,evaluate\\\hline``規則''&0.000&\\\hline``nourishmentforaperson'sbody''&0.000&\\\hline``書物''&0.000&\\\hline``agroupofwordsthatexpressacompletethought''&0.000&\\\hline``伝達内容''&0.000&\\\hline``情報媒体''&0.000&\\\hline``抽象的生産物''&0.000&\\\hline\end{tabular}\end{center}\end{table}\subsection{拡張論理型検索}\label{sec:process}本論文では,前節までに説明した意味的類似度計算法と多義解消法の有効性を検証するため,その手法を従来の拡張論理型検索システムに組み込む.拡張論理型検索システムは論理型の質問を受理し,この質問と文書間の関連度によって文書を整列させて出力する.関連度は以下に述べる「物理的な近さ」と「単語の重要度」と前節までの「意味的類似度」とから計算される.\subsubsection{単語間の物理的近さ}\label{sec:nearness}質問中に複合語が指定された場合は,その複合語中の各単語(または最も類似している単語)の文書中の物理的近さを,質問・文書間の関連度に反映させる\cite{Oi95}.物理的近さは,例えば,複合語が``parallelalgorithm''の場合,``parallel''と``algorithm''それぞれに類似した単語が文書中に出現しているとき,その類似した単語間の物理的距離が近いほど大きい値になるよう定義する.この尺度は,質問中の複合語と文書間の関連度の乗数(\ref{sec:similarity}節参照)として用いる.物理的近さ$PN$の定義式を次に示す.\begin{eqnarray}PN&=&c_1\times\frac{\displaystyle1}{\displaystyle\frac{\displaystylec_1-1}{\displaystylec_2}\times(Dis+1-N)+1}\label{eqn:nearness}\end{eqnarray}ここで\footnote{$PN$は複合語の構成単語に類似した語が現れた時に,その間の物理的距離に反比例させて重み付けするための乗数である.隣接している時に最大値2をとり,物理的距離が10で1とした.物理的距離が10より小さいものは複合語として扱い,大きいものは複合語と見倣さないということになる.$c_1$=2,$c_2$=10とした背景は以上の通りであるが,このパラメータの最適化は今後の検討課題の一つである.},\begin{center}\begin{tabular}[t]{rp{115mm}}$c_1,c_2$:&定数(実験時の設定値は$c_1=2$,$c_2=10$)\\$Dis$:&(類似)単語間の物理的距離(単語間に存在する単語数+1)の最小値.\\$N$:&複合語の単語数.\end{tabular}\end{center}\subsubsection{単語の文書毎の重要度}\label{sec:term-weight}単語の重要度に関しては様々な尺度が提案されている.本実験では,単語の文書内の出現頻度と全文書中の出現文書数に基づいた重要度\cite{Turtle91}を使う.文書$D$内の単語$dt$の重要度$w$は,次のように定義される.\begin{eqnarray}w&=&\displaystyle\frac{tf}{max\_tf}\times\frac{\log{\frac{\displaystyleND}{\displaystylef}}}{\log{ND}}\label{eqn:weight}\end{eqnarray}ここで,\begin{center}\begin{tabular}[t]{rl}$tf$:&文書$D$内の単語$dt$の出現頻度.\\$max\_tf$:&文書$D$内の単語の出現頻度の最大.\\$f$:&単語$dt$が出現している文書の数.\\$ND$:&全文書数.\end{tabular}\end{center}\subsubsection{質問・文書間の関連度}\paragraph{質問}\label{sec:query}本手法では,次に示すような論理型質問$Q$を受理する.\begin{eqnarray}Q&=&q_1\|\q_2\|\\cdots\|\q_K\label{eqn:query}\\[0.5ex]q&=&\underbrace{qt_{11},\cdots,qt_{1N_1}}_{}\&\cdots\&\underbrace{qt_{M1},\cdots,qt_{MN_M}}_{}\label{eqn:query-and}\\[-1.5ex]&&\hspace*{1.3zw}質問語~qc_1\hspace*{6zw}質問語~qc_M\nonumber\end{eqnarray}ここで,`$|$'と`\&'はそれぞれ`{\smallOR}'と`{\smallAND}'のオペレーションを表す.この形式は,$K$個の$q$が\\`{\smallOR}'オペレーションで結合され,\hspace{-0.4mm}各$q$は$M$個の質問語$qc$(単語または複合語)\hspace{-0.03mm}が`{\smallAND}'オペレー\\ションで結合され,各質問語$qc_i$は$N_{i}$個の単語$qt$から成っている.\vspace*{-1mm}\paragraph{関連度}\label{sec:similarity}\vspace*{-1mm}質問$Q$と文書$D$との間の関連度$Rel(Q,D)$は次式のように定義する.\begin{eqnarray}Rel(Q,D)&=&max\{Rel(q_1,D),Rel(q_2,D),\cdots,Rel(q_K,D)\}\label{eqn:sim-qda}\\[1ex]Rel(q,D)&=&\frac{\displaystyle\sum_{i=1}^{M}\sum_{j=1}^{N_i}{\left\{Rel(qt_{ij},D)\timesPN(qc_i,D)\right\}}^2}{\displaystyle\sum_{i=1}^{M}\sum_{j=1}^{N_i}\left\{Rel(qt_{ij},D)\timesPN(qc_i,D)\right\}}\nonumber\\[1ex]Rel(qt,D)&=&max(w_1,w_2,\cdots,w_L)\timesmax\left\{Sim(qt,dt)\right\}\nonumber\end{eqnarray}ここで,\begin{center}\begin{tabular}[t]{rp{110mm}}$L$:&$qt$に最も類似している単語($Sim(qt,dt)$が最大の単語)の数.\\$w$:&$qt$に最も類似している単語の重要度.\\$PN(qc,D)$:&文書$D$内での,\hspace{-0.3mm}$qc$中の各$qt$に最も類似している単語間の物理的近さ\hspace{-0.2mm}(\ref{sec:nearness}節の式(\ref{eqn:nearness})).\\$Sim(qt,dt)$:&質問$Q$中の1つの単語$qt$と文書中の1つの単語$dt$との間の類似度(\ref{sec:sim-word-sub}節).\end{tabular}\end{center}$Rel(Q,D)$の計算は,$q_1,q_2,\cdots,q_K$のうち,少なくとも1つの$q$に含まれる単語それぞれに対して{\dg類似している単語}が出現している文書に対してのみ行なう.「類似している単語」とは,あらかじめ指定されたしきい値$T$に対して{\boldmath$Sim(qt,dt)\ge$}{\boldmath$T$}である単語$dt$を意味する.$Rel(q,D)$は,\hspace{-0.3mm}単に$q$中の単語$qt_{ij}$すべてに対する$Rel(qt_{ij},D)\timesPN(qc_i,D)$の値の平均とするよりも,$Rel(qt_{ij},D)\timesPN(qc_i,D)$が大きい値ほどその値の重要度が大きくなるようになっている.\subsubsection{検索手順}\label{sec:step}実際の検索処理に先だって,(a)質問中の単語への概念の付与\footnote{本実験では予め筆者が手作業で付与した.システム運用時には,ユーザとシステムが会話的に決定することを仮定している.},(b)全文書に対するインデックスファイル(各文書の見出し語・品詞からなる各ペアに対して,文書番号,重要度,出現位置が付与されたファイル)の作成を行なった.インデックスファイルの作成手順は次のようになる.\begin{enumerate}\renewcommand{\labelenumi}{}\item文書の中から,ストップリスト(冠詞や前置詞など文書検索にとって重要と考えられない単語のリスト)に属する単語を除き,すべてのアルファベットを小文字化する\cite{FoxC92}.\item形態素解析\footnote{本論文の実験では,\cite{Karp92}の形態素解析プログラムを使用した.}により,各単語に対して,見出し語・品詞の可能なペア,出現位置の情報を付与する.\item類似検索の場合は,ここで,見出し語・品詞の各ペアに対してシソーラスに従って,取りうる概念を付与する.この概念集合に対して,多義解消を行なう.\item\ref{sec:term-weight}節の式(\ref{eqn:weight})に従って,各文書の見出し語・品詞の各ペア対して,重要度を計算し付与する.\end{enumerate}質問に対する検索処理手順は次のとおり.\begin{enumerate}\item質問を\ref{sec:query}節の式(\ref{eqn:query}),(\ref{eqn:query-and})の形に変換する.\item式(\ref{eqn:query})の少なくとも1つの$q$中の単語$qt$それぞれに対して,\\$Sim(qt,dt)\geT(しきい値)$を満たす単語$dt$が出現している文書を検索する.\item検索された文書毎に,質問・文書間の関連度$Rel(Q,D)$を\ref{sec:similarity}節の式(\ref{eqn:sim-qda})から求める.\item検索された文書を関連度順に整列させる.\end{enumerate} \section{実験} label{sec:experiment}ここでは,非平衡シソーラスにも適用できる意味的類似度と単語の多義解消を組み合わせた提案の類似検索手法を従来の検索法と比較し,適合率・再現率の向上を確認する.また,適合率向上に貢献した多義解消法の精度に関する実験結果について示す.\subsection{ベンチマークテスト}情報検索システム評価用ベンチマークテストの1つにFoxのVirginiaDisk\cite{FoxE90}がある.実験では,その中のCACMと呼ばれるセットを使った.CACMには,コンピュータサイエンスに関する3,204の文書(タイトルとアブストラクト,1文書当たり約125語),3種類の質問セット(自然言語文からなる{\smallNLQ},ブーリアン形式の{\smallBLQ1,BLQ2}),質問ごとの関連文書の文書番号が含まれている.各質問セットには64個の質問が含まれている.{\smallNLQ}はオリジナルの質問セットで,{\smallBLQ1,BLQ2}は{\smallNLQ}を基にして作られている.実験では,{\smallNLQ}の質問文中の単語が比較的多く使われている{\smallBLQ2}の中で,{\smallNOT}オペレーションを含むものと正解の関連文書がないものを除く47個の質問に複合語を指定する変更を加えたもの(以下では,変更版{\smallBLQ2}と呼ぶ)を用いた.{\smallNLQ},{\smallBLQ2},変更版{\smallBLQ2}の質問番号35の質問内容を下に示す.変更版{\smallBLQ2}において,シングルクウォート(')で囲まれた部分が1つの質問語を表している.{\parindent=0mm[NLQ]\begin{verbatim}Probabilisticalgorithmsespeciallythosedealingwithalgebraicandsymbolicmanipulation.Someexamples:Rabiin,"Probabilisticalgorithmonfinitefield",SIAM.Waztch,"Probabilistictestingofpolynomialidentities",SIAM.\end{verbatim}[BLQ2]\begin{verbatim}#q35=#and('probabilistic','algorithm',#or('algebraic','symbolic'),'manipulation');\end{verbatim}[変更版BLQ2]\begin{verbatim}#q35=#and('probabilisticalgorithm',#or('algebraicmanipulation','symbolicmanipulation'));\end{verbatim}}\subsection{評価方法および実験条件}\label{sec:evaluation}評価は,情報検索の分野で一般的に使われている{\dg再現率}と{\dg適合率}を用いた.再現率および適合率は次式で定義される.\begin{eqnarray}再現率&=&\frac{ランクN位までの検索文書中の関連文書数}{関連文書数}\label{eqn:rec-pre-1}\\[1ex]適合率&=&\frac{ランクN位までの検索文書中の関連文書数}{ランクN位までの検索文書数}\label{eqn:rec-pre-2}\end{eqnarray}再現率・適合率グラフは次に示す手順で作成した.\begin{enumerate}\item式(\ref{eqn:rec-pre-1}),(\ref{eqn:rec-pre-2})の値$N$を任意に複数個決める.\item質問ごとに,式(\ref{eqn:rec-pre-1}),(\ref{eqn:rec-pre-2})により$N$における再現率と適合率を求める.\item$N$における再現率と適合率の全質問に対する平均を求め,プロットする.\end{enumerate}次節の結果では,$N$を10,20,30,$\cdots$,200に設定した.表\ref{tbl:experiment-condition}に示した条件設定\footnote{本論文で提案した方法は多くのパラメータを含んでいる.表\ref{tbl:experiment-condition}にまとめてある設定は,経験的に定めたものであり,パラメータの最適値を求めることは,今後の課題の一つである.}の元で,表\ref{tbl:experiment-method}に示す4種類の手法{\bfWM},{\bfAM},{\bfDM(Voo)},{\bfDM(Yar)}を比較し,非平衡シソーラスにも適用できる意味的類似度と単語の多義解消を組み合わせた提案の類似検索手法{\bfDM(Voo)}及び{\bfDM(Yar)}の有効性を確認する.\subsection{実験結果}ここでは多義解消を伴った類似検索の有効性と多義解消法の比較について述べる.\subsubsection{文書検索の比較}図\ref{fig:recall-precision-th-99}--\ref{fig:recall-precision-th-69}は,検索時にシステムが許容する単語間の類似度を制御するためのしきい値$T$(\ref{sec:similarity},\ref{sec:step}節参照)が,高い方から順に,9/9,8/9,7/9,6/9の場合の再現率・適合率グラフである.\begin{table}[t]\caption{実験条件}\label{tbl:experiment-condition}\small\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|c|}{項目(関連する節)}&設定\\\hline\hlineシソーラスの具体度の$NL$(\ref{sec:sim-con}節)&9\\\hline\hline概念の粒度を制限するための具体度(\ref{sec:voorhees-apply}節)&6以下\\\hline$hood$の粒度を制限するための具体度(\ref{sec:voorhees-apply}節)&3以上\\\hline\hline文脈幅$W$(\ref{sec:yarowsky-apply}節)&{4}\\\hline単語$ct$を選択するためのしきい値$Y$(\ref{sec:yarowsky-apply}節)&{2.0}\\\hlineYarowskyの手法で使用したコーパス(\ref{sec:yarowsky-apply}節)&TIPSTERのZIFF文書\footnotemark\\\hline\hline物理的近さの定義式の定数$c_1$(\ref{sec:nearness}節)&2\\\hline物理的近さの定義式の定数$c_2$(\ref{sec:nearness}節)&10\\\hline\end{tabular}\end{center}\end{table}\footnotetext{Yarowskyの手法において使用したコーパス「TIPSTERのZIFF文書」は,米国ARPA(AdvancedResearchProjectsAgency)が主導した情報検索のプロジェクトTIPSTERで使われてた文書の1つである.ZIFF文書の総単語数は約9,600万語であるが,Yarowskyの手法は使用するコーパスのサイズが大きくなると処理時間も増えていくので,実験では多義解消の処理時間を短縮するためにそのうちの約800万語を使用した.}\begin{table}[t]\vspace{-6mm}\caption{比較した4種類の手法}\label{tbl:experiment-method}\small\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|c||c|c|c|c|c|}\hline&\multicolumn{5}{|c|}{使用する尺度または多義解消手法}\\\cline{2-6}手法名&意味的類似度&Voorheesの&Yarowskyの&物理的近さ&単語の重要度\\[-0.2zh]&\small(\ref{sec:sim-word-main}節)&手法\small(\ref{sec:voorhees-apply}節)&手法\small(\ref{sec:yarowsky-apply}節)&\small(\ref{sec:nearness}節)&\small(\ref{sec:term-weight}節)\\\hline\hline{\bfWM}&&&&○&○\\\hline\hline{\bfAM}&○&&&○&○\\\hline\hline{\bfDM(Voo)}&○&○&&○&○\\\hline{\bfDM(Yar)}&○&&○&○&○\\\hline\end{tabular}\end{center}\end{table}\vspace*{-1mm}\begin{itemize}\itemいずれのしきい値$T$においても,{\dg\bfAMは,WMと比べて,適合率は減少しているが再現率は向上している.}適合率減少の原因の1つに単語の多義性がある.単語間の類似度を求める際にすべての概念を考慮しているので,実際に文書中で使われている概念とは異なる概念に起因して多くの非関連文書が検索されてしまうのである.\item{\dg\bf多義解消手法を導入したDMをAMと比べた場合,概ね,再現率は若干減少しながらも適合率が改善している.}これは,AMで検索されていた非関連文書がDMでは多義解消の効果により検索されなくなったためである.但し,$T$=7/9(図\ref{fig:recall-precision-th-79}),$T$=6/9(図\ref{fig:recall-precision-th-69})では,多義解消の失敗の影響で再現率が減少しているのが目立つ.\item{\dg\bfDMをWMと比べると,ある程度しきい値$T$が大きい場合には,大略,再現率・適合率ともに向上している.}\footnote{一方,\ref{sec:evaluation}節の評価方法の他に,再現率=適合率となる値についても求めた.\cite{Salton83a}のp.164--172に従って,$T$=9/9における質問全体に対する再現率ごとの平均を求めた結果,再現率=適合率となる値は,DM(Voo),DM(Yar),AM,WMの順に,0.220,0.220,0.225,0.230となった.また,再現率0.1を境として,より低い再現率では,適合率の高い方から,DM(Voo),DM(Yar),WM,AMの順になり,より高い再現率では,WM,AM,DM(Voo),DM(Yar)の順となった.}\end{itemize}\clearpage\begin{figure}[ht]\centerline{\epsfile{file=new_tr_99.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=9/9]}\label{fig:recall-precision-th-99}\end{figure}\begin{figure}\centerline{\epsfile{file=new_tr_89.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=8/9]}\label{fig:recall-precision-th-89}\end{figure}\begin{figure}\centerline{\epsfile{file=new_tr_79.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=7/9]}\label{fig:recall-precision-th-79}\end{figure}\begin{figure}\centerline{\epsfile{file=new_tr_69.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=6/9]}\label{fig:recall-precision-th-69}\end{figure}\clearpage\subsubsection{多義解消法の比較}\label{sec:vy}Voorheesの多義解消の文書検索における有効性に関しては,Voorheesの報告とは逆に,Voorheesの手法を若干変更し,類似検索に適用して,その有効性を確認できた.また,Yarowskyの手法も,同程度の有効性が確認できた.但し,しきい値$T$が9/9の時にはDM(Voo)の方が\\性能が良く,しきい値$T$が8/9以下ではDM(Yar)の方が性能が良く,しきい値$T$が小さくなれ\\ばなるほど両者とも性能が悪くなる.次に,多義解消手法単独の精度\footnote{処理時間の観点からは,Yarowskyの手法はVoorheesの手法に比べ劣っている.Yarowskyの手法の処理時間は,文脈の幅,学習コーパス,検索文書中の多義語の量と多義の度合などに支配される.実装に依存するので,参考に過ぎないが,800万語のZIFF文書をコーパスとして多義解消に要した時間はDECAlphaStation6005/333上で約330時間(2週間)であった.一方,Voorheesの手法の場合の多義解消時間は検索文書中の多義語の量と多義の度合などに支配されており,約3時間であった.}について述べる.図\ref{fig:recall-precision-th-99}に対応する$T$=9/9と図\ref{fig:recall-precision-th-69}に対応する$T$=6/9の条件を代表として取り上げ,質問中の単語と類似している関連文書内の単語\footnote{参考のために,$T$=6/9のDA(Yar)の多義解消結果における単語(出現形と頻度)を3つに分類して示す.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\item選択され成功した語(延べ34語)\\appropriate1,calculation1,computer2,described3,describes1,dictionary4,divide1,fitting3,formulas1,gauging1,loop1,loops1,management1,measurements1,patterns1,person1,picture1,pictures4,procedure1,retrieving1,secure1,serial1,transmitting1.\item選択はされたが失敗した語(延べ21語)\\analysis1,capacity2,compare1,computer1,entries1,entry1,evaluate1,handling1,loop1,measurement1,operate1,operating1,picture1,representation1,serial2,set2,shared1,utilization1.\item選択されなかった語(延べ50語)\\allocate1,allocating1,allocation6,applications1,computer2,described5,describes1,describing1,dictionaries3,directory1,divided1,entries1,evaluating2,fitting1,hardware1,management3,measure1,measuring1,operated1,operating2,organization2,pattern1,programmers1,representation3,serial1,set1,shared1,sharing3,time1.\end{itemize}}(延べ数は前者が59,後者が105である)の多義解消の結果を調べた(表\ref{tbl:disamb-result9/9},\ref{tbl:disamb-result6/9}).{\small\begin{table}[h]\caption{多義解消結果[しきい値$T$=9/9]}\label{tbl:disamb-result9/9}\small\begin{center}\renewcommand{\arraystretch}{}\tabcolsep=1.5mm\begin{tabular}{|c||c|c||c|c||c|c|c|}\hline&A:選択単語&A/59:&B:成功単語&B/A:&C:選択前&D:選択後&D/C:多義\\[-0.2zh]\raisebox{0.8zh}[0pt]{手法}&延べ数&選択率&延べ数&成功率&概念数&概念数&圧縮率\\\hline\hlineDA(Voo)&59&1.00&39&0.66&644&354&0.55\\\hlineDA(Yar)&45&0.76&23&0.51&581&202&0.35\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\begin{table}[h]\caption{多義解消結果[しきい値$T$=6/9]}\label{tbl:disamb-result6/9}\small\begin{center}\renewcommand{\arraystretch}{}\tabcolsep=1.5mm\begin{tabular}{|c||c|c||c|c||c|c|c|}\hline&A:選択単語&A/105:&B:成功単語&B/A:&C:選択前&D:選択後&D/C:多義\\[-0.2zh]\raisebox{0.8zh}[0pt]{手法}&延べ数&選択率&延べ数&成功率&概念数&概念数&圧縮率\\\hline\hlineDA(Voo)&104&0.99&73&0.70&938&530&0.57\\\hlineDA(Yar)&55&0.52&34&0.62&672&142&0.21\\\hline\end{tabular}\end{center}\end{table}}選択単語は1つ以上の概念を選択できた単語である.選択率は多義解消手続きの汎用性を示す.成功単語は選択した概念の中に正解概念(文書中で使われている概念)が含まれている単語である.成功率は多義解消が働いた場合の精度を示す.本実験ではスコアが正である概念を選択しているので,選択され排除されない概念数が多ければ成功率も高くなりうるので,多義解消手続きで選択され排除されない概念の割合も考えなくてはならない.これを多義圧縮率と呼ぶことにする.いずれのしきい値の場合でも,選択率,成功率ともに,Voorheesの手法,DA(Voo)が優っており,逆に,多義圧縮率はYarowskyの手法,DA(Yar)が優っている.選択率と成功率が同じなら,多義圧縮率によって検索への効果が決まるが,それ以外は単純に比較できない.多義解消法の性能が必ずしも高くなくても,検索性能は上げられることがわかったが,両者の関係は必ずしも単純ではなく,今後さらに検討を続ける必要がある. \section{おわりに} label{sec:conclusion}本論文では,シソーラスが平衡または非平衡,どちらの場合にも適用できる意味的類似度を提案した.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,大きくなるように単語間の類似度を決定する.さらに,この類似度と多義解消を用いた類似検索手法を提案した.比較実験により,本類似検索手法は従来の検索手法に比べて,適合率・再現率ともに改善していることを確認した.今後の研究課題としては,本手法で用いたパラメータの最適化,応用や言語やシソーラスを変えた場合の有効性の検証,多義解消アルゴリズムの高精度化・高速化,未知語対策または応用への適用を目指したシソーラスの拡張・修正・生成手法などがある.\acknowledgment本研究ではEDR電子化辞書の英語単語辞書・概念辞書(評価版第2.1版)を使用している.関係各位に深謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper81}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{大井耕三}{1984年同志社大学工学部電子工学科卒業.同年,三洋電機(株)入社.1992年より4年間,エイ・ティ・アール自動翻訳電話研究所・音声翻訳通信研究所に出向.現在,三洋電機(株)ハイパーメディア研究所にて,自然言語処理・自然音声合成の研究開発に従事.情報処理学会会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.エイ・ティ・アール音声翻訳通信研究所主任研究員.自然言語処理,並列処理,機械翻訳,情報検索の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{飯田仁}{1972年早稲田大学理工学部数学科卒業.74年同大学院修士課程(数学専攻)修了.同年日本電信電話公社武蔵野電気通信研究所入社.日本電信電話株式会社基礎研究所を経て86年4月よりエイ・ティ・アール自動翻訳電話研究所に出向.同研究所終了に伴い93年3月よりエイ・ティ・アール音声翻訳通信研究所に再出向.現在,音声対話の理解・翻訳の研究に従事.平成7年度科学技術庁長官賞受賞.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N03-05
\section{はじめに} 近年,TwitterやFacebookなどのソーシャルメディアが社会において大きな存在感を示している.特に,Twitterは情報発信の手軽さやリアルタイム性が魅力であり,有名人のニュース,スポーツなどの国際試合の勝利,災害の発生などの速報,アメリカ大統領選挙に代表される選挙活動,アラブの春(2010年,2011年)やイギリスの暴動(2011年)など,社会に大きな影響を与えるメディアになっている.2011年3月に発生した東日本大震災においても,安否確認や被災者支援のために,ソーシャルメディアが活躍した.Twitter上ではリアルタイムな情報交換が行われているが,誤った情報や噂も故意に,あるいは故意ではなくとも広まってしまうことがある.東日本大震災での有名な例としては,「コスモ石油の火災に伴い有害物質の雨が降る」や「地震で孤立している宮城県花山村に救助が来ず,赤ちゃんや老人が餓死している」などの誤情報の拡散が挙げられる.このような誤情報の拡散は無用な混乱を招くだけでなく,健康被害や風評被害などの2次的な損害をもたらす.1923年に発生した関東大震災の時も,根拠のない風説や流言が広まったと言われているが,科学技術がこれほど進歩した2011年でも,流言を防げなかった.このような反省から,Twitter上の情報の\addspan{信憑性}を判断する技術に注目が集まっている.しかしながら,情報の\addspan{信憑性}をコンピュータが自動的に判断するのは,技術面および実用面において困難が伴う.コンピュータが情報の\addspan{信憑性}を推定するには,大量の知識を使って自動推論を行う必要があるが,実用に耐えうる知識獲得や推論手法はまだ確立できていない.また,情報の\addspan{信憑性}は人間にも分からないことが多い.例えば,「ひまわりは土壌の放射性セシウムの除去に効果がある」という情報が間違いであることは,震災後に実際にひまわりを植えて実験するまで検証できなかった.さらに,我々は情報の\addspan{信憑性}と効用のトレードオフを考えて行動決定している.ある情報の\addspan{信憑性}が低くても,その情報を信じなかったことによるリスクが高ければ,その情報を信じて行動するのは妥当な選択と言える.そこで,我々はツイートの\addspan{信憑性}を直接判断するのではなく,そのツイートの情報の「裏」を取るようなツイートを提示することで,情報の価値判断を支援することを考えている.図\ref{fig:map}に「イソジンを飲めば甲状腺がんを防げる」という内容のツイート(中心)に対する,周囲の反応の例を示した.このツイートに対して,同意する意見,反対する意見などを提示することで,この情報の根拠や問題点,他人の判断などが明らかになる.例えば,図\ref{fig:map}左上のツイート「これって本当???」は,中心のツイートに対して疑問を呈しており,図\ref{fig:map}左下のツイート「これデマです.RT@ttaro:イソジンを飲めば甲状腺がんを防げるよ.」は,中心のツイートに対して反論を行っている.これらのツイート間の関係情報を用いれば,中心のツイートに対して多くの反論・疑問が寄せられているため,中心のツイートの信憑性は怪しいと判断したり,右下のツイートのURLの情報を読むことで,追加情報を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f1.eps}\end{center}\caption{返信・非公式リツイート,もしくは内容に基づくツイート間の論述関係}\label{fig:map}\vspace{-0.5\Cvs}\end{figure}Twitterにおいて特徴的なのは,ツイート間に返信\footnote{メールで返信を行うときに,返信元の内容を消去してから返信内容を書く状況に相当する.Twitterのメタデータ上では,どのツイートに対して返信を行ったのかという情報が残されている.}や非公式リツイート\footnote{メールで返信を行うときに,返信元の内容を引用したままにしておく状況に相当する.\addspan{元のツイートをそのままの形でフォロワーに送る(公式)リツイートとは異なりTwitterが提供している機能ではないが,サードパーティ製のクライアントでサポートされており頻繁に利用されている.}}などの\addspan{形式を取った投稿が可能な}点である.例えば,図\ref{fig:map}左上のツイートは中心のツイートに対する発言であること,図\ref{fig:map}左下と右上のツイートは中心のツイートを引用したことが記されている.これに対し,図\ref{fig:map}右下のツイートは,返信や非公式リツイートの\addspan{形式を取っていないため,中心のツイートを見て投稿されたものかは不明である.}本研究では,返信や非公式リツイートの形式を取ったツイート(返信ツイート)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信で表明される態度の推定性能を報告する.さらに,既存の含意関係認識器をこのタスクに適用し,直接的に返信関係のないツイート間の論述的な関係の推定を行い,その実験結果を報告する. \section{関連研究} label{sec:Related}\subsection{デマ分析}Web情報の信憑性を判断する研究はこれまでにも多く行われてきているが,近年はTwitterを対象としたものも多い.Twitter上に流れるデマを見つけ出す研究はその典型である.Castilloら\cite{Castillo_2011}は,手動で信憑性のラベル付けをしたデータを学習させ,ツイートやアカウントの特徴を用いてTwitter上の情報の信憑性を自動で判別する分類器を訓練し,高い性能を得た.彼らは流行しているトピックをニュースとその他に分類し,ニュースが正しいか間違っているかを分類している.また,ソーシャルネットワークの関係をグラフ化し,解析する研究も盛んである.Twitterのグラフ関係を利用したマイニングを行っているものとして,\addspan{Gupta}らの研究\cite{Gupta_2012}が挙げられる.Guptaらは,Castilloらと同様の分類器を用いた手法と,グラフ上の最適化の組み合わせにより,Twitter上で観測されたイベントの信憑性の推定を行った.彼らは信憑性を,イベントが起こった確からしさとして扱っている.アカウント・ツイート・イベントに分類器の結果に基づく信憑性の初期値を与え,それらをノードとするネットワークを構成し,リンク関係を用いて信憑性の値を更新していくことで,最終的にイベントの真偽を判定する.これらの研究は,いずれもデマかそうでないかという真偽判定の問題を扱っている.しかしながら,情報の真偽を判断する事はそもそも難しく,真偽が存在しない情報に対応できないという問題点がある.我々はそのような立場ではなく,価値判断を行いたい情報の周辺を整理することで,真偽情報の受け手側の行動決定を支援することを狙っている.\subsection{感情分析}本研究は,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると仮定しているため,評判分析,感情分析に関する研究とも関わりが深い.感情分析に関する研究の中で近年特に盛んなのは,極性分類と呼ばれるタスクである.極性分類では,単語や文を単位としてポジティブもしくはネガティブに分類するが,本研究では,ツイートを単位とした極性分類が必要になる.Speriosuら\cite{Speriosu_2011}はグラフ上での値の更新を利用したツイートの感情分類を提案している.グラフを構成するノードとしてはユーザやツイートの他に,単語Nグラムや分類器の学習に使用した感情表現などを加えている.ツイート及び分類器の学習に用いた素性をシードとして各ラベルの確率重みを初期値とし,それらのラベル(ポジティブとネガティブの2値)をグラフを通して拡散させることで,ネットワーク構造を利用しない手法を上回る性能を得ている.なお,ユーザのフォロー関係も利用しているが,その有効性については示せていない.\subsection{情報のグルーピングと構造の可視化}このアプローチの代表的なものとして,WISDOM\cite{Akamine_2009}や言論マップ\cite{水野_2011}が挙げられる.これらの研究は,あるトピックに関連する言明を整理して表示することで,ユーザの信憑性判断支援を行う.WISDOMでは,評価極性(良い/悪い)に基づき意見を分類する.評価極性による意見の分類を行う研究は,Turneyの研究\cite{Turney_2002}以降,他にも数多く存在する.極性としては良い/悪い,あるいは正の感情/負の感情が用いられる.元々は製品に対するレビューなどを大雑把に分類するのが目的であったが,近年では,評価対象をより明確にした極性分類が盛んである.例えば,「Windows7はVistaよりもずっと良い」という文から,Windows7に対する良い/正の感情とVistaに対する悪い/負の感情を区別して抽出したいという要求がある.Jiangらは,評価対象との構文関係に関するルールを素性に用いた上で,リツイートなどの関連ツイートを利用することにより,評価対象を明確にした極性分類の性能を向上させた\cite{Jiang_2011}.水野ら~\cite{水野_2011}の言論マップでは,与えられたクエリと検索対象文の間の意味的関係,すなわち同意するか反対するかに基づいて意見を分類している.言論マップでは,良い・悪いという絶対的な評価極性で分類するのではなく,クエリ文と任意の文が与えられたときに,その関係を文間関係認識で推定している.この文間関係認識は,近年盛んに行われている含意関係認識\cite{Dagan_2005}を対立や根拠などの関係に拡張したもので,根拠関係などのより広範な分類を扱うことにより,言論構造の把握を目指している.本論文に最も近いものはHassanらの研究\cite{Hassan_2012}である.彼らは,ディベートサイトにおける各議論トピックへの参加者のグループ分けを行った.まずユーザ間のポストをpositiveかnegativeかに分類し,同じ意見を持つ者同士はpositiveなやり取りが多く,違う意見を持つ者同士はnegativeなやり取りが多いという仮定に基づき,最終的に同じ意見を持つ者同士をまとめたグループを出力した.これらの先行研究は,いずれも内容に基づくポジネガ分析が主体である.しかしながら,字数が制限されくだけた文体が多いツイートに対し,これらの技術をそのまま適用するのは容易ではない.本研究では,Twitter特有のグラフ関係を利用することで,内容ベースの手法だけでは難しい言論の整理を行う. \section{返信・非公式リツイートの態度分類} 本研究では,返信の態度分類を行うことで,ツイート間の論述構造を解析する手法を提案する.返信では,返信先の主張に対する態度や,ユーザそのものに対する態度が表明される.これらの態度を分類することで,ツイート内容やユーザ間の関係を用いてツイート空間の構造を解析することができる.本節では返信で表明される態度分類の手法について述べる.\addspan{\subsection{本稿における各投稿形式の区分}本稿における表記の使い分けを明確にするため,Twitterにおけるいくつかの投稿形式を整理する.\begin{description}\item[返信]@で始まる投稿であり,特定のツイートに対する返信として投稿すること.Twitterの提供する機能であり,関係が記録されている.\item[公式リツイート]ある投稿をそのままの形でフォロワーに拡散すること.Twitterの提供する機能である.\item[非公式リツイート]ある投稿を必要に応じて編集しつつ,自身のコメントを付加して投稿すること.「(自分の投稿)[RQ]T@(返信元のアカウント名)(返信元の投稿)」のような形式を取る.Twitterの提供する機能ではないが,使用者が多い.なお,自身のコメントを付加していないものについても非公式リツイートとして扱う.\end{description}本稿では,「返信」という表記は,特に断りのない限り「返信」と「非公式リツイート」の二つをまとめたものを表す.分けて扱う必要がある場合においては,前者を「返信」,後者を「引用」と表記する.また,単に「リツイート」「RT」と表記した場合は「公式リツイート」を指すものとする.}\subsection{問題設定}\label{sec:classification_setting}返信には様々な意図のツイートが存在する.相手の発言に同調,あるいは反発するツイートもあれば,相手や周囲に疑問を投げかけるツイート,引用して情報を補足するツイートなどもある.ツイート空間の論述構造を分析するためには,これらの多様なツイートを,その投稿の意図に従いいくつかのグループに分類する必要がある.そこで本研究では,返信で表明される態度を,「同意」「反論」「疑問」「その他」の4クラスに分類するタスクを考える.\addspan{それぞれのクラスの定義と,その例を以下に示す.例は,上のツイートに対して,下のツイートが返信である.}\begin{description}\item[同意]主張の支持\addspan{(\ref{ex:agree1})(\ref{ex:agree2})}や感情的な同調(感謝や崇拝\addspan{(\ref{ex:agree3})}も含む)など,返信先のツイートに対して明確な同意の意図が感じられるもの.\begin{enumerate}\item\addspan{…コスモ石油千葉製油所LPGタンクの爆発により、千葉県、近隣圏に在住の方に有害物質が雨などと一緒に飛散するという虚偽のチェーンメールが送られています。千葉県消防地震防災課に確認したところ、そのようなことはないと確認できました。…\\$\Rightarrow$本当ですか安心です}\label{ex:agree1}\item\addspan{コスモ石油が否定「火災で有害物質降る」のメール連鎖http://...\\$\Rightarrow$デマです。みんな冷静になろう。}\label{ex:agree2}\item\addspan{天皇陛下は、宮内庁が京都御所に避難してほしいと要望したのを…お断りになったそうじゃないか。…私は心から尊敬します。\\$\Rightarrow$天皇陛下!万歳!\(T-T)/}\label{ex:agree3}\suspend{enumerate}\item[反論]主張の否定\addspan{(\ref{ex:counter1})}や感情的な反発\addspan{(\ref{ex:counter2})(\ref{ex:counter3})}など,明確な反論の意図が感じられるもの.発言者に対し強く注意を促すようなもの\addspan{(\ref{ex:counter4})}も含める.\resume{enumerate}\item\addspan{…コスモ石油の爆発で有害物質の雨が降る件はデマ。広げてしまった方はツイート削除の上、訂正を/コスモ石油が否定…\\$\Rightarrow$火災で壊滅した、コスモ石油のコンビナートにあった科学燃料の詳細を記者会見で発表して報道しろ!「危険というのはデマです。」なんて情報で納得するわけないだろ!}\label{ex:counter1}\item\addspan{…東京まで健康被害が現れるようなPuは飛んでこない…RT@YYY:もしプルトニウムが漏れてたら東京から逃げますか?…\\$\Rightarrow$(怒)}\label{ex:counter2}\item\addspan{…日本政府は事故の重大性をまったく認識していない。今すぐに多国籍軍を総動員して封じ込めないとチェルノブイリ以上の被害が出る\\$\Rightarrow$馬鹿左翼、煽るな。}\label{ex:counter3}\item\addspan{…食料がありません。脱水、低血糖が徐々にきています。デマじゃない…見捨てないで下さい【from茨城県鹿島コンビナート地区】\\$\Rightarrow$せめて公式RTしてください。元の発信者の名前消すとか非公式RTよりひどい。救助を必要としてる人が、誰だかわからなくなると思いませんか?そのせいで救助が遅れたらと想像できませんか?}\label{ex:counter4}\suspend{enumerate}\item[疑問]返信先に対して情報を要求している\addspan{(\ref{ex:question1})}が,明確な反論とは言えないもの.情報源を要求するようなもの\addspan{(\ref{ex:question2})}や,引用部に対する疑問の吐露なども含まれる.\resume{enumerate}\item\addspan{…コスモ石油の爆発で有害物質の雨が降る件はデマ。広げてしまった方はツイート削除の上、訂正を/コスモ石油が否定…\\$\Rightarrow$JFEケミカル等含めた火災による被害が無いと言うことでよろしいですか?}\label{ex:question1}\item\addspan{…コスモ石油の爆発により有害物質が雲などに付着し、雨などといっしょに降るので…コピペとかして皆さんに知らせてください!!\\$\Rightarrow$NHKのニュースでは今のところ有毒物質が発生することはないと言っていますが、あなたのツイートのソースは何ですか?}\label{ex:question2}\suspend{enumerate}\item[その他]上記のどれにも分類できないもの.\resume{enumerate}\item\addspan{千葉県、近隣圏に在住の方に有害物質が雨などと一緒に飛散するという虚偽のチェーンメールが送られています。…\\$\Rightarrow$そうであったとしても、雨カッパとかは持ってた方が良いよね。}\label{ex:other1}\item\addspan{…千葉県、近隣圏に在住の方に有害物質が雨などと一緒に飛散するという虚偽のチェーンメールが\\$\Rightarrow$硫黄分の多い原油が燃えると酸性雨につながる可能性があるので、それに尾ひれはひれがついたものと推測します。}\label{ex:other2}\end{enumerate}\end{description}これらの4クラスを設計した意図について\addspan{,上記の例を参照しつつ}述べる.ツイート空間の整理に必須なのが,対立構造の抽出である.そのために「同意」と「反論」の2クラスを設定する.「同意」のクラスによって結びつけられたツイート群は,何らかの主張やユーザに対して同様の態度を表明し,「反論」のクラスによって結びつけられたツイート群は,何らかの主張やユーザに対して異なる態度を表明する.この2クラスを設定することで,ツイート空間を,同じ態度を表明するツイートクラスタの集合として整理できる.なお,「同意」や「反論」については態度が明確なもののみを分類する.前述したように,これら2クラスがツイート間の論述構造を解析する上で中心的な役割を果たすため,曖昧な態度のツイートをこれらの2クラスに分類しないように注意する必要がある.\addspan{(\ref{ex:agree1})(\ref{ex:agree2})(\ref{ex:counter1})(\ref{ex:other1})(\ref{ex:other2})は,「コスモ石油の爆発で有害物質の雨が降るというのはデマ」という主旨のツイートに対する返信である.(\ref{ex:agree1})は主旨を受け入れているので「同意」,(\ref{ex:counter1})は納得しないことを主張しているので「反論」に分類する.(\ref{ex:agree2})は「デマです」と返信しているのでやや紛らわしい例であるが,「冷静になろう」という記述から「危険はない」と考えていることが読み取れ,返信先のツイートの内容に「同意」していると判断できる.(\ref{ex:other1})は,主旨を受け入れてはいるが,完全に安心はしていないことが読み取れることから,同意とは言えず,「その他」に分類する.また,(\ref{ex:other2})は主旨を受け入れてはいるが,返信先の情報への同意よりも自分の考えを表明するためのツイートと読み取れる.このように補足の意図を持つツイートも「その他」に分類する.}\addspan{(\ref{ex:counter4})は発言者に対し強く注意を促すものの例である.この例のように不用意な拡散をたしなめるものは,拡散しようとするユーザへの反論としてとらえられる.}「同意」と「反論」の2クラスは,著者間の対立関係を表すのに対して,「疑問」と「その他」の2クラスは,著者間に対立構造は存在しない.従って,ツイート空間において重要なツイートとしてツイートAがあるとき,それに同意または反論するツイートは重要な存在であるが,その他の関係にあるツイートは,論述構造を明らかにする上で重要ではない.一方で疑問関係は,論述構造を整理する上で重要である.情報の信憑性を判断する際に,その情報に疑問を持つユーザの存在は,信憑性が低いことを示唆していると考えられるためである.さらに,その疑問に対する回答は,有益な情報となる場合が多いと考えられる.(\ref{ex:question1})は純粋な疑問,すなわち質問の例である.この質問に対する回答があれば,被害状況を詳しく把握できる可能性がある.次に,(\ref{ex:question2})は情報源を求めている例である.これは,懐疑的な返信ではあるが,明確な反論とはいえないため,疑問に分類する.\addspan{(\ref{ex:agree2})(\ref{ex:counter2})(\ref{ex:counter3})のような感情的な同調あるいは反発のツイートは,内容(引用の場合は付加部分)には有用な情報は含まれていないが,}誰が誰に同調,あるいは反発したかというユーザ同士の関係を推測することは,論述構造分析の助けになると考えられる.したがって本研究においては,感情に基づくと考えられるツイートについても,「同意」や「反論」として同等に扱い分類を行なっている.\subsection{返信ツイートのアノテーション}返信ツイートの分類を行うにあたり,正解データを準備する.本稿で行う実験で使用するデータは,ホットリンク社より提供された,2011年の\addspan{3月11日から3月29日まで}のツイートデータ(以下hottoコーパス)\footnote{http://www.hottolink.co.jp/press/936}である\footnote{東日本大震災ワークショップで提供されたツイートデータを利用したかったが,返信の情報が含まれていなかったため,断念した.}.hottoコーパスには,\#tsunamiや\#jishinなど震災に関連するハッシュタグまたはキーワードが含まれるツイートと,そのツイートを投稿したユーザやそのプロフィール情報などが収録されている.収集対象ユーザ数は約100万人,ツイート数は約2億1千万ツイート\addspan{であり,本研究では全てのデータを利用した.}また,各ツイートには公式リツイート(以下RT)や返信の関係が含まれており,これらはそのまま利用した.\begin{figure}[b]\begin{center}\includegraphics{20-3ia16f2.eps}\end{center}\caption{非公式リツイートのリンク情報の復元}\label{fig:recognizing-qts}\end{figure}ただし,hottoコーパスには引用関係が記録されていないので,以下の方法で復元した(図\ref{fig:recognizing-qts}参照).ツイートに``\texttt{[RQ]Tusername}''というパターンが出てくるとき,そのパターンに続く部分(図\ref{fig:recognizing-qts}左上で,「現在、」から始まる網掛けの部分)をどこかのツイートから引用したと考える.そして,ユーザ``\texttt{username}''のツイートの中で,投稿日時が引用ツイートよりも前のものをすべて検索する.これらのツイート群に対し,引用部のテキストとの類似度を\addspan{文字トライグラム}のオーバーラップ係数で計算し,これが最大になるものを引用元と推定する.\addspan{オーバーラップ係数は,文字トライグラムの集合XとYに対し,以下の式で定義される.{\[オーバーラップ係数=\frac{|X\capY|}{\min\{|X|,|Y|\}}\]}}なお,`\texttt{[RQ]Tusername1comment1[RQ]Tusername2comment2}''のように引用が何段階が行われているケースの場合,引用元と考え検索対象とするのは``\texttt{username1}''のツイートのみである.図\ref{fig:recognizing-qts}では,\addspan{あるユーザ}のツイートを検索した結果,右側真ん中のツイートの類似度が最も高かったため,左上のツイートの引用元と推定している.ただし,オーバーラップ係数の最大値が0.4未満である場合は引用元が見つからなかったとする.返信関係のアノテーションには,震災の際に出回ったデマ一覧\footnote{「東北関東大震災に関するデマまとめ」のまとめhttp://togetter.com/li/112556}を参考に,20個のトピックを選択した.\addspan{トピックは,デマの内容を端的に説明する短い文である.}デマ一覧を利用したのは,東日本大震災の時に情報の信憑性で問題に上がったことと,反論関係が比較的多い割合で含まれると考えたからである.\addspan{それぞれのトピックに関連するツイートを収集するために,クエリとしてトピック中の単語を設定する.}\addspan{選んだトピックとクエリを表\ref{tab:20query}に示す.}\addspan{これらのトピックは,クエリで検索できるツイートから,十分な数の返信を抽出できるように選択した.}具体的には,後で述べるように,返信・引用が各100個ずつ以上取得できるような\addspan{トピックと}クエリを選んだ.各クエリ\addspan{で}hottoコーパスを検索し,リツイート数が多い順に並べる.上位のツイートから順に,返信ツイートを取得する.なお,あるユーザ間で相互の返信が続いている場合には,反論の応酬であるなど重要な論述構造が存在する可能性があり,有用なデータとなるため,返信ツイートが続いている限り全て取得している.このようにして,各クエリを用い返信・引用をそれぞれ100個ずつ,20トピックで計\addspan{4000}ツイートを集める.\addspan{この中に}重複するツイートがあった場合には一つを残して削除し,トピック毎の返信ツイートを補充した.以上により,計4000個の返信ツイート(以降データセットA)を準備した.\begin{table}[t]\caption{選出した20個のトピックと,検索に用いたクエリ}\label{tab:20query}\input{16table01.txt}\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}データセットAに対し,三人のアノテーター(以下X・Y・Z)の手により,前項で述べた方針に従い4クラスのラベル付けを行った.アノテーションの一致度合いを表\ref{tab:class_annotation}に示す.4000ツイートのうち,3人のラベルが一致したツイートは2690ツイートであった.ラベルの一致度を評価するため,ペアワイズにCohenのカッパ係数を計算した.\[\frac{p_0-p_c}{1-p_c}\]ただし$p_0$は対応クラスの出現数の一致率,$p_c$は対応クラスの偶然の一致率である.XY間が0.660,XZ間が0.621,YZ間が0.641となり,十分な一致と見なせる.3人のアノテーションが一致した2690ツイートを集めたものをデータセットBとする.\begin{table}[t]\caption{データセットAにおけるアノテーションの一致度}\label{tab:class_annotation}\input{16table02.txt}\end{table}\subsection{分類手法}\label{subsec:class_method}返信の態度を教師有り学習で分類する手法について述べる.学習に用いる素性は大まかに3種類に分かれ,ツイート内容に関す\addspan{る}素性,ツイート間の素性,ユーザ間の素性である.ツイート内容の素性は,単語ユニグラム,単語バイグラム,URL数,ハッシュタグ数,デマ否定単語の有無,反論表現との一致度である.これらの素性では,返信ツイートであればツイート全文,引用ツイートであれば追加部分(ツイート全体から引用箇所以降を除いたもの)を対象とし,本文中のアカウント名やURL,ハッシュタグを正規表現により取り除く.取り除いたアカウント・URL・ハッシュタグに対しては,それぞれに対し0個・1個・2個以上を含むという3値の素性を作る.この設定は,\addspan{実験に用いたツイートデータを観察した結果,}URLを1個も含まない場合と1個以上含む場合には大きな差があると見られ,また,1個だけ含む場合と多数を含む場合にも大きな差があると見られる一方で,3個か4個かには大きな差はない\addspan{と見られたため導入した.}不要箇所を取り除いた後の本文に対して,MeCab\cite{Kudo04applyingconditional}\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}による形態素解析を行い,単語ユニグラムと単語バイグラムを抽出する.\addspan{デマ否定単語の有無}とは,ツイート本文が\addspan{デマの否定を示す単語}を含むかどうかを表すもので,\addspan{デマ否定単語}は「デマ」「ガセ」「誤報」「虚報」「削除」「訂正」の6つとした.これらの単語は必ずしもデマを否定していることを示すとは限らないが,返信で用いられる場合では,デマの否定に用いられるケースが多く,反論の抽出に有効と考えられる.反論表現との一致度とは,あらかじめ作成した反論表現辞書を用い,反論に固有の表現をどの程度含んでいるかを表す.反論表現辞書は,データセットAの中から反論を表すと思われる表現を人手で抽出して作成する.それらの表現にはデマを否定する表現も含まれるが,相手に対する感情的な反発を表す表現なども含まれる.表\ref{tab:反論表現}に反論表現の例を示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{反論表現の例}\label{tab:反論表現}\input{16table03.txt}\vspace{-0.5\Cvs}\end{table}なお,この二種類の表現は厳密に区別できるわけではない.例えば,表\ref{tab:反論表現}のその他の表現例の「余計なこと書くな」については,「余計なこと」が指す内容がデマの可能性もある.実際にはこれら二種類を分けて扱う必要はないが,反論表現をたくさん集めることが,デマによる否定以外の反論を認識する上で有効である.また,一見すると反論を表す表現であるが,反論表現辞書に含めるべきでないものも存在する.例えば,「それはデマです」は反論表現として挙げた一方で,「デマです」「デマらしいです」は反論表現にはふさわしくないことがある.例えば,以下のようなケースが存在する.\begin{quote}デマです,注意!RT@XXX:(デマを否定する情報)RT@YYY:(デマ情報)\\デマらしいですRT@XXX:(デマを否定する情報)RT@YYY:(デマ情報)\end{quote}この場合,引用元との間には共にデマを否定しているという“同意”の関係が成り立っているため,反論表現としてはふさわしくない.このように,伝聞形で使われそうな表現などは反論表現辞書から除外している.実際に収集した100個の反論表現は付録に載せた.以上のように作成した反論表現辞書を用い,反論表現との一致度を求め,素性として使用する.まず,反論表現辞書中の各反論表現に対して,その単語バイグラムをどの程度含むかを求める.例えば,反論表現辞書が「それ/は/デマ/です」「これ/デマ/ね」の二つからなる場合を考える.「デマ/です」を含むツイートがあった場合,「それ/は/デマ/です」の3個のバイグラムのうち1個を含むので1/3,「これ/デマ/ね」の2個のバイグラムは1個も含まないので0となる.これらのうちの最大値(この場合は1/3)を,反論表現との一致度とする.実際には反論表現は100個あるので,それら100個に対して計算を行い,最大値を反論表現との一致度としている.返信先のツイートとの間\addspan{の関係についての}素性では,ツイートのタイプ,空文,単語バイグラムのコサイン類似度を使用する.ツイートのタイプとは,引用かどうかを表す.空文とは,引用でありながらも自身のコメントを付加していないものに発火する素性である.単語バイグラムのコサイン類似度とは,返信ツイートの単語バイグラム(引用ツイートの場合は,ツイート全体から引用箇所を除いた部分)と,返信先ツイートの単語バイグラムのコサイン類似度である.返信先のユーザとの間\addspan{の関係についての}素性として,返信の回数,返信の方向性,RTの回数,RTの方向性,共通のツイートをRTした回数,共通のURLをツイートに含んだ回数,共通のツイートに返信した回数を利用する.返信の回数は,hottoコーパスの中から,返信している2ユーザ間で返信が行われた回数である.方向性とは,2ユーザ間の返信の履歴を調べ,双方向のやりとりがある,返信相手への返信のみがある,返信がない,のいずれかを指す.RTの回数や方向性についても同様である.これらの素性はユーザ間の関係から返信による態度を推測するために使われる.例えば,RTが相互でたくさん行われている場合,新たな発言も「同意」である可能性が高い\addspan{と考えられる}.返信が一方的なものであった場合,それらの発言は「反論」である可能性がある\addspan{と考えられる}.また,共通のツイートをRTした回数,共通のURLをツイートに含んだ回数,共通のツイートに返信した回数の3つは,第三者を媒介して表れる素性である.例えば,よく共通のツイートをRTしているユーザ同士での返信があった場合は,「同意」の可能性が高い\addspan{と考えられる}.\addspan{これらの素性の設定における仮定の妥当性は,\ref{subsec:cross}節で検証する.}\addspan{以上,各素性の設計について述べたが,本研究において特に重要と考えているのは,反論表現辞書との一致度および構造的特徴の利用である.ここでいう構造的特徴とは,返信か引用かや,返信先のユーザとの間の関係についての各素性であり,これらはTwitter上の返信構造により生じる素性である.また,反論表現辞書は,前述したように返信で用いられることの多い表現を元に作成しており,これらもまたTwitter上の返信構造により生じる素性と言える.次節の評価では,返信構造により生じるこれらの素性がどの程度性能に寄与するのかについても示す.} \section{返信・非公式リツイートの態度分類の評価} 本節では,前節で述べた返信の態度を分類する手法について性能を評価する.\subsection{交差検定による性能評価}\label{subsec:cross}前節でアノテーション済のデータセットBに対し,前述した4クラスに識別する多クラス分類を行う.本実験では,分類器として最大エントロピーモデルを用いる.分類器の実装として,Classias\footnote{Classiasのホームページ:http://www.chokkan.org/software/classias/}のpegasos.logistic(L2正則化ロジスティック回帰)を使用した.実験では,2トピックずつ計10個のデータに分割し,10分割交差検定を行った.表\ref{tab:10cross2}に,クラス毎の\addspan{精度}・再現率・\addspan{$F_1$値}と,全体の\addspan{正答率}を10分割のマイクロ平均\addspan{で}示した.\addspan{なお,$F_1$値については全クラスのMacro平均も示した.}\addspan{$F_1$値の定義は以下の通りである.{\[F_1=\frac{2*精度*再現率}{精度*再現率}\]}}\begin{table}[b]\caption{返信ツイートの分類結果(データセットB)}\label{tab:10cross2}\input{16table04.txt}\end{table}各クラス毎の性能について見ると,「同意」と「疑問」に対してある程度高い分類性能が得られた一方で,「反論」と「その他」の分類性能は低くなっている.「その他」については,他の3クラスと異なりツイートの意図が広範囲にわたるため,共通の素性を得にくくなっているためと考えられる.素性のクラスに対する特定性の指標として,以下の数式を導入する.素性$f$におけるクラス$c_0$の特定性は,各クラス$c$の学習結果の重み$w_{fc}$に対して\begin{equation}c_0の特定性=\frac{exp(w_{f_{c_0}})}{exp(\sum_{c\neqc_0}w_{f_c})}\\\end{equation}で表す.\addspan{この時,特定性は0.333を上回るほどそのクラスに有効な素性であることを表す.}データセットBに含まれる全てのデータで学習した場合に,「その他」を除く各クラス毎に特定性が上位の素性5個ずつを表\ref{fig:features}に示す.\begin{table}[t]\caption{各クラスで特定性の高い素性}\label{fig:features}\input{16table05.txt}\end{table}「同意」と「疑問」の2クラスについては,それぞれを表すような特徴が比較的うまく抽出されていることが分かる.「同意」については,「!」・URLが0個である・感謝を表す表現などが有効な素性である.\addspan{これらは,Nグラムを直接利用する程度の言語処理で組み込める素性であり,同意を表す素性としても直感に合うものになっている.}また,バイグラムのコサイン類似度の素性も上位に来ていることから,元のツイートと同じような内容を繰り返す場合にも同意である可能性が高いと考えられる.\addspan{なお,素性の導入の際においた「RTの回数が多ければ同意」「共通のツイートをRTした回数が多ければ同意」などの仮定は,素性の表す同意の特定性がそれぞれ0.335・0.336であり,有効ではなかった.}「疑問」については,疑問符や問いかけの表現が上位に来ている.これらもまたNグラムの利用程度で組み込める素性であり,疑問を表す素性としても直感に合う.一方,「反論」については,反論表現との一致度が有用であるが,それらを除くとあまり反論に特有の単語とは思えない特徴が多く並んでおり,反論を示唆する表現は,Nグラムなどの単純な抽出法ではなかなか見つからないことが分かる.反論の認識に比較的有効であった素性としては,「返信相手への返信のみがある」,すなわち返信が一方通行であるという特徴\addspan{(特定性0.437)}が挙げられる.なお,反論に関してもう少し特定性の低いものを見ていくと,「お前」などの表現が見つかる.しかしながら,このような蔑称の類が登場する事例はさほど多くなかったので,反論に関する学習が十分に行えなかったと考えられる.\subsection{各素性の有効性}本手法において特徴的なのは,反論に特有な表現を持つ事例を分類するための反論表現辞書と,そのような表現を持たない事例を分類するための構造的特徴を用いたことである.そこで,これらの有効性を評価するべく,以下の比較を行った.単語ユニグラム・単語バイグラム・元ツイートとのコサイン類似度・URL数,ハッシュタグ数のみを特徴として使用する場合をベースライン(Base)とする.ベースラインにデマ表現と反論表現辞書との一致度を加えた場合を反論表現あり(+Con-Exp),構造的特徴(返信か引用か・共通のRTやURL引用回数・相互のRTや返信回数・相互のRTや返信の方向性)を加えた場合を構造的特徴あり(+Structure),反論表現辞書と構造的特徴を加えた場合を全使用(+All)とする.これらの4つの場合において,それぞれ分類器を構築し,性能を比較したのが図\ref{fig:使用する素性による性能変化}である.本研究では,「反論」の認識が重要であると考え,マクロ\addspan{$F_1$値},「反論」クラスの\addspan{$F_1$値},\addspan{正答率}の3指標で性能を比較した.\begin{figure}[b]\begin{center}\includegraphics{20-3ia16f3.eps}\end{center}\caption{使用する素性による性能変化}\label{fig:使用する素性による性能変化}\end{figure}\addspan{まず,Baseに対する+Con-Exp,および+Structureに対する+Allの性能から,}反論表現辞書は反論クラスの識別を中心として大きく寄与することが分かる.反論表現辞書を充実させることで,分類器の性能をさらに改善することができると考えられる.\addspan{次に,Baseに対する+Structure,および+Con-Expに対する+Allの性能について,それぞれ「反論」$F_1$値が向上していることから,}構造的特徴は反論クラスの識別性能を多少上げるのに貢献していると言える.\addspan{一方で他クラスの識別の失敗例が増えることにより全体の正答率はやや低下しており,}今後の検討が必要である.例えば,返信の回数・方向性については,分類対象のツイートに関連するようにトピックや時系列を限定することで,より正確にツイート間の関係に繋がる特徴となる可能性がある.\subsection{考察}本研究の目的であるツイート間の論述構造解析では,「反論」を高精度で識別することが重要である.そこで,反論の識別に失敗した事例を調査・分析した.ツイートで反論を行うパターンは,大きく\addspan{3}種類に分けられる.1つ目は,発言者への反論であり,2つ目は返信先の内容への反論である.\addspan{そして3つ目は,発言者と返信先の内容の両方に対する,いわば複合的な反論である.これら3種類の反論の例を以下に示す.}\begin{enumerate}\item@XXXXXX偉い学者さんなら、もっともらしい事言ってないで国に話し通すなり、非難勧告するなり、どうにかしろよ。なんにも出来ないなら不用意に被災者の不安煽る様な事言うな。\textbf{発言者への反論}\item私が言うのも変ですが水で冷やしている限りメルトダウンはしません。問題が水が送れるか否かです。RT@XXXXXX水で冷やして「炉心溶融・メルトダウン」を停止できるという原子炉の専門家はいない。\textbf{内容への反論}\addspan{\item@XXXXXX防護ケース(格納容器のことか?)が万が一破裂しても圧力容器があるので、即炉心が外界に露出ということではない。誤解を生むRTは控えて、RT元は吟味していただきたい。\textbf{複合的な反論}}\end{enumerate}\addspan{データセットBに含まれる263個の反論のうち,発言者への反論が81個,内容への反論が137個,複合的な反論が45個であった.それぞれの反論についてどの程度識別することができたのかを評価するため,図\ref{fig:使用する素性による性能変化}における各特徴を使用した時毎の再現率を図\ref{fig:反論種類毎の性能}に示す.}\begin{figure}[b]\begin{center}\includegraphics{20-3ia16f4.eps}\end{center}\caption{反論の種類毎の再現率}\label{fig:反論種類毎の性能}\end{figure}\addspan{発言者への反論については,}返信先の内容に依らない表現が使われることが多いため,反論表現の抽出が有効である.\addspan{上記(1)の例では,}「不安煽る様な事言うな」という文は内容の影響を受けずに,反論を表すために広く用いられる.本研究では,集めた返信ツイートの中からこのような表現を集め,反論表現辞書とした.反論表現を持つという特徴を使用することで,分類の精度を上げることができる.\addspan{このことは,図\ref{fig:反論種類毎の性能}において,反論表現を使用した際に再現率が大きく上昇していることから分かる.}\addspan{次に,内容への反論については,}返信先の内容によりツイートに含まれる表現は千差万別であり,内容を理解しなければうまく分類できない.この例では,返信先が「水で冷やしてもメルトダウンを防げない」という内容であることを理解し,「水で冷やしている限りメルトダウンしない」という主張が反論関係にあることを認識する必要があるが,このような事例を提案手法で分類することは難しい.このような問題を解くためのアプローチとしては,返信先の主張の対象が「水で冷やしてもメルトダウンを防げない」であることを認識し,それに対し,返信の「水で冷やしている限りメルトダウンしない」という主張が対立関係にあることを認識しなければならない.これは,対象依存の感情分析\cite{Jiang_2011}や言論マップ\cite{水野_2011}の矛盾認識で取り扱う事項である.本稿ではそのようなアプローチを取らずに,Twitter上のネットワークにおける構造的特徴を用いて態度の分類を行っている.\addspan{図\ref{fig:反論種類毎の性能}からは,構造的特徴の利用により,内容への反論の識別数が若干向上していることが読みとれるが,十分な改善とは言えずさらなる検討が必要である.}\addspan{最後に,複合的な反論については,基本的な特徴のみで比較的よく識別できており,反論表現の利用によりさらに性能が向上している.これは,複合的な反論の中でも発言者への反論部分から特有の表現をとらえているためである.基本的な特徴のみでよく識別できている理由としては,複合的な反論はある程度の長さがあり,また定型的な文章で書かれていることが多く,それらに共通する有効な素性が抽出されやすいためと考えられる.} \section{一般的なツイート間関係認識への拡張} 本節では,\addspan{返信に限らない全てのツイート間の関係認識を行うことを考える.その際,前節までで述べた}返信の態度分類を,直接的に返信関係のない一般のツイート間の論述関係分析に応用する手法について述べる.一般に,返信のツイートが全ツイートに占める割合は非常に少ないため,前節までで作成した分類器をそのまま適用するのは難しい.特に,反論表現辞書の有効性は低いと考えられる.反論表現辞書に含まれる表現は,返信先への態度を表す際に利用されることの多い表現であり,返信になっていない一般のツイートに含まれる可能性は低い.\addspan{返信の関係にない一般のツイート間に対して4クラスの分類を行うには,その言語的な内容を利用することが考えられる.例えば,ツイート間の反論関係は,含意関係認識課題~\cite{Dagan_2005}における文間の矛盾関係(RTE3~\cite{GiampiccoloRTE32007})に相当する.文間の矛盾関係の認識に取り組んだMarneffeら~\cite{MarneffeIdentifying2011}は,RTE3のテストデータに対して精度22.95\%,再現率19.44\%を達成した.また,日本語を対象とした場合,NTCIR9-RITE~\cite{ShimaRITE12011}およびNTCIR10-RITE2において,矛盾関係を含む含意認識課題であるMC(multiclass)タスクが取り扱われており,RITE2のフォーマルランにおける矛盾関係認識性能は,精度52.17\%,再現率19.67\%が最高性能であった\footnote{http://www.cl.ecei.tohoku.ac.jp/rite2/doku.php?id=wiki:results}.これらの認識性能が示す通り,言語的な内容に基づく文間の矛盾関係の認識は容易ではない.}そこで本節では,\addspan{返信態度の分類器}をツイート間の関係分析に拡張する手法について述べる.具体的には,ツイートペアが与えられた時に,両ツイートおよび両ユーザ,および関連するツイート・ユーザに拡張したネットワークを作り,ネットワーク内に存在する返信関係を分類器で解く.その結果から,元のツイートペアの間の関係を推測する.さらに,\addspan{後述する文間関係認識}を用いて,ツイート間の関係を推測する手法についても述べ,それぞれの分類性能や差異について考察する.\subsection{問題設定}一般のツイートの内容や意図は広範囲に渡る.意見の主張に始まり,ニュースなどの拡散,さらに他愛もないつぶやきや独り言の類も多い.これら全てのツイートを整理することはできない.したがって,整理が完了した際の有用性を考慮し維持しながら範囲を狭めることが必要である.そこで,\addspan{\ref{sec:classification_setting}節で定義した,トピックに関連するツイート群を収拾し,}それらを整理するタスクを考える.\addspan{同じトピックに属するツイート間には,そのトピックに対する同意,反論などの観点から関係を付与できると考えられる.各ツイートがあるトピックに属するか否かを決定する手法については,本稿の手法の対象外であり,人手で行う.}本節では,同じ\addspan{トピックに属する}ツイートのペアが与えられた場合に,関係を分類するという問題を解く.\addspan{分類する関係は},返信の関係分類の際と同じく,「同意」,「反論」,「疑問」,「その他」の四つとする.\begin{description}\item[同意]同様の主張や感情を示すなど,明確な同意の意図が感じられるもの.\item[反論]対立する主張や感情を示すなど,明確な反論の意図が感じられるもの.\item[疑問]情報・情報源の要求や,疑問の吐露など.\item[その他]上記のどれにも分類できないもの.\end{description}これらの分類基準は,返信の場合と似ているが全く同じにはならない.前述したように,ツイート間の関係は,トピックに関する\addspan{主張間の関係}としてとらえられる.返信の関係が存在しないツイートペアにおいては,お互いに対する単純な賛成や反対,感情的な同調や反発などは表れにくい.また,お互いに対する直接的な質問もまず存在しないため,「疑問」はかなり出現頻度が少ないと予想されるが,存在した場合には重要であると考え,\addspan{分類対象の関係に含める}.なお,ツイート間のトピックが明らかに異なる場合についても,この4クラスに分類しようとすれば「その他」のラベルを付けることは可能である.しかし,「その他」のツイートはツイート空間の整理には有用でないため,ツイート間のトピックが明らかに異なる事例は除外する.\subsection{同\addspan{トピック}ツイートペアのアノテーション}上記のタスクを行うにあたり,正解データを準備する.データはhottoコーパスより集める.まず,11個のトピックを用意する.これらのトピックは返信の分類のために集めたときのもの\addspan{(表\ref{tab:20query})}の中から選択した.対応するクエリを用いて検索されたツイートのうち,RT数が上位のものから30件ずつ集める.RT数上位のものから順に集めるのは,それらのツイートは多くのユーザの目に触れるものであり,論述構造を分析・整理する意義が大きいためである.\addspan{ただし,疑問を呈するツイートのRT数が上位に来ることは少ないため,この集め方では疑問の関係は少ないデータとなる.}クエリは,該当トピックをうまく集められそうなものを選んでいるが,中にはトピックに関連するツイートだけを集めるようなクエリの調整が難しく,実際にトピックに対応するツイートの数は30未満になるものもある.トピック,クエリ,トピックに関連するツイートの数を表\ref{tab:11query}に示す.\begin{table}[b]\caption{一般ツイートペア分類実験の11トピック}\label{tab:11query}\input{16table06.txt}\vspace{0.5zw}\small対応ツイート数とは,収集用クエリで抽出したRT数上位30件のうち,トピックに対応するツイートの数を指す.\\※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}これらの11トピックに対し,ペアワイズな全てのツイートの組み合わせを考える.例えば,「イソジンを飲むと放射能対策になる」のトピックに関しては,27個のツイートが存在するので,その組み合わせは全部で351個ある.これらの組み合わせについて,前述した4クラスのラベル付けを行う.ラベル付けは,\addspan{アノテーション経験の豊富な一人のアノテーター}の手により行った.アノテーションの結果を表\ref{tab:pair_annotation}に示す.「同意」の割合が高く,予想した通り「疑問」の割合は非常に少ないことが分かる.また,このアノテーション済のデータを,以降データセットCと呼ぶ.\begin{table}[t]\caption{トピック毎のアノテーション結果}\label{tab:pair_annotation}\input{16table07.txt}\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}\subsection{ネットワーク拡張に基づく分類手法}同じトピックの中でのツイートペアの関係分類を,返信関係分類器を用いて行う手法について述べる.大まかな方針としては,直接の返信の関係が見当たらない場合,ツイートやユーザからなるネットワークを拡張し,返信の関係を探す.前節で述べた反論表現辞書などを用いることで,返信関係にないツイートペアに比べ格段に関係が推測しやすい.そして,返信分類器の出力の結果を元のツイートペア間の関係の推測に用いることとする.まず,直接返信の関係になっている場合が最も直接的な経路である(図\ref{fig:direct_repqt}).図のリンクについている名称は関係を表している.リンク関係には「author」「RT」「返信」の三種類がある.authorはツイートとそのツイートの投稿者の間に,RTはツイートとそのツイートをリツイートしたユーザの間に生じる関係である.このケースでは,前節の分類器の結果をそのまま使用する.分類器の学習には,データセットBの全データ(2690個)を用いる.次に,その周囲のツイートやユーザまで拡張したネットワークを考え,考えられる様々な経路で元のツイートペアを結ぶ.その経路内に返信・引用関係が存在する場合,前節で提案した分類器を用いて各クラスのスコアを算出する.\addspan{最後に各クラス毎にスコアの和を計算し,最もスコアの高いクラスに分類する.}元のツイートペアを結ぶ経路として以下のものを導入する.まず,両ツイートをリツイートしているユーザがいる場合を考える(図\ref{fig:both_RT}).本稿では,リツイートは同意であるという仮定を置いている.しかしながら,反論の意図を持ってリツイートしている場合もあるため,片方をリツイートしたユーザ数に対し,両方をリツイートしたユーザ数の割合が大きいときほど同意とみなしやすいと考え,\addspan{aをリツイートしたユーザ集合とbをリツイートしたユーザ集合の間の}ジャッカード係数を同意のスコアとする.次に,\addspan{片方のツイートの投稿者が,もう片方のツイートに対し他のツイートで返信している場合}を考える(図\ref{fig:other_repqt}).このケースでは,a--b間の関係をa1--b間が表していると考え,スコアには,ロジスティック回帰\addspan{により求められた各クラス毎}の確率値を用いる.さらに,片方をリツイートしてもう片方に返信しているユーザがいる場合を考える(図\ref{fig:RT_and_repqt}).このケースでは,リツイートは同意であるという仮定に基づき,a--b間の関係をc1--b間が表していると考え,同様に返信分類器の出力(\addspan{ロジスティック回帰により求められた各クラス毎の}確率値)を用いる.\begin{figure}[t]\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f5.eps}\end{center}\caption{直接返信のパターン}\label{fig:direct_repqt}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f6.eps}\end{center}\caption{両方をリツイートするパターン}\label{fig:both_RT}\end{minipage}\end{figure}\begin{figure}[t]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f7.eps}\end{center}\caption{他のツイートで返信のパターン}\label{fig:other_repqt}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f8.eps}\end{center}\hangcaption{片方をリツイート・もう片方に返信のパターン}\label{fig:RT_and_repqt}\end{minipage}\end{figure}以上のようなルールは,要求に応じて拡張が可能である.例えば,aをリツイートしたユーザCとbをリツイートしたユーザDの間に返信関係があった場合に,分類器によるその関係の出力を用いることができる.ただし,ルールを増やすほど精度は下がると考えられるため,本稿では上記のルールに限定する.\subsection{文間関係認識に基づく分類手法}本節では,2文を与えたときにその間の意味的関係を返す文間関係認識器を用いてツイート間の関係を分類する手法について述べる.文間関係認識の部分課題に位置づけられる含意関係認識は,前述の通りワークショップが開催されるなど広く研究されている.含意関係認識課題で取り扱われている関係の種類を以下に示す.\begin{description}\item[含意]一方の文(テキスト$T$)を真としたとき,他方の文(仮説$H$)も真であると判断できる\addspan{文対}\begin{description}\item[$T$]川端康成は「雪国」などの作品でノーベル文学賞を受賞した\item[$H$]川端康成は「雪国」の著者である\end{description}\item[矛盾]文中の事象が同時に成立し得ない\addspan{文対}\begin{description}\item[$T$]モーツァルトはザルツブルグで生まれた\item[$H$]モーツァルトはウィーンで生まれた\end{description}\item[その他]上記以外\addspan{の文対}\begin{description}\item[\addspan{$T$}]\addspan{川端康成は小説家である}\item[\addspan{$H$}]\addspan{川端康成は大阪で生まれた}\end{description}\end{description}本稿で取り扱う4つの関係とは,含意が同意に,矛盾が反論に対応するが,同意は厳密な含意ではなく,反論は矛盾しているとは限らない.そこで,水野ら\cite{水野_2011}の同意,対立関係を対象とした文間関係認識器を用いる.彼らの定義する同意,対立関係は,本稿で定義する同意,反論関係とほぼ対応する.\addspan{疑問関係は取り扱えないため,同意,反論,その他の3種類の関係に分類する.}まず,\addspan{図\ref{fig:srr_example}を用いて,}彼らの手法を簡潔に述べる.次に,本課題のために変更した点について述べる.\begin{figure}[b]\centering\includegraphics{20-3ia16f9.eps}\caption{文間関係認識例}\label{fig:srr_example}\end{figure}\begin{description}\item[言語解析]入力された2文それぞれに対して,形態素解析\cite{Kudo04applyingconditional},係り受け解析\cite{cabocha},述語項構造解析\cite{watanabe10jointwsdsrl},拡張モダリティ解析\cite{eguchi10nlp},評価極性判定を行う.\addspan{図\ref{fig:srr_example}では,係り受け構造を文の上下の矢印で示す.}\item[\addspan{仮説対応部分の同定}]\addspan{テキスト中には,仮説の内容と関連の低い情報も含まれている.そこで,まず,テキスト中で仮説と内容的に対応する部分を同定する.後段の関係分類では,対応する名詞間や述語間の関係を考慮することで,文間の関係を同定する.テキスト中で仮説に対応する部分の同定は,文節アライメント,局所構造アライメント,文節アライメントの選択という3段階で行われる.以下にそれぞれの手続きを示す.}\begin{description}\item[\addspan{文節アライメント}]\addspan{文節中に含まれる内容語の類似・関連性に基づいて文節間に文節アライメントを付与する.文節中の内容語が類似しているとき,それらが含まれる文節間にアライメントを付与する.図\ref{fig:srr_example}では,「イソジンで($H$)」と「イソジンを($T$)」が,イソジンという内容語が共通することからアライメントされる.}\addspan{内容語の類似・関連性は,その表層だけでなく,日本語WordNet~\cite{bond_09_enhancing}や動詞含意関係データベース~\cite{hashimoto09emnlp}を用いて,意味的な類似度にも基づいて判断される.図\ref{fig:srr_example}において,「防ぐ($H$)」と「回避できる($T$)」は,意味的に類似しているためアライメントされる.}\item[\addspan{局所構造アライメント}]\addspan{文節アライメントによってアライメントされた文節の中には,文全体の意味を考えるとアライメントすべきではない場合がある.例えば,「イソジンを飲んで被曝を防ぐ」と「ワカメの味噌汁を飲むと良い」という2文を考える.2文間で「飲む」が共通しているが,その対象は異なっているため,アライメントすべきではない.}\addspan{この問題に対して,文中の依存構造および述語項構造を対応付けるのが局所構造アライメントである.図\ref{fig:srr_example}において,文節アライメントされる「被曝を($H$)\--\footnote{「\--」で前後の単語を含む文節が文節アライメントされることを示す}被曝を($T$)」と,「防ぐ($H$)\--回避できる($T$)」に着目する.これらは$H$側,$T$側のいずれにも依存構造が存在し,この構造間にアライメントを付与するのが局所構造アライメントである.「イソジンで($H$)\--イソジンを($T$)」と「防ぐ($H$)\--回避できる($T$)」は,$H$側には依存構造が存在するが,$T$側には直接の依存関係は存在しない.しかしながら,「飲むと($T$)」を介して依存構造の繋がりが存在する.本研究では水野らと同様に,4文節まで介しても良いという上限を設けた.}\item[\addspan{文節アライメントの選択}]\addspan{文節アライメントされた文節対のうち,局所構造アライメントもされている文節対のみを選択する.}\end{description}\item[関係分類]アライメント結果を入力として,まず,同意および対立と,その他との分類を行い,次に,同意と対立の分類を行う.1つめの分類は,仮説側の文節が全て\addspan{テキストにアライメントされたか}によって判断される.2つめの分類について,対応付けられた述語が,否定の関係にあるか,評価極性が異なるか,反義の関係にある場合,対立に分類され,いずれにも当てはまらないものは同意に分類される.\end{description}本研究で対象としている,\addspan{ツイートデータ}には,述語間の否定,評価極性,反義\addspan{に基づいて分類可能な対立文対}だけでなく,「〜というのはデマです」や「〜という事実はありません」といった\addspan{述語}の後方での否定・反論も少なくない.そこで,このような表現を否定表現と呼び,対応付けられた述語よりも後方に否定表現が現われた場合,同意ならば対立に,対立ならば同意に関係を反転させる工程を付け加えた.本研究で利用した否定表現は,「誤り,ねつ造,誇張,嘘,誤報,デマ,今のところない,ソースがありません,事実はありません,根も葉もない噂,根拠がない,ニュースはない」である.これらは,評価データ以外のツイートから収集した.表\ref{tab:反論表現}に示される反論表現とは,一般ツイート中の表現である点が異なるが,重なる表現も存在する.\addspan{図\ref{fig:srr_example}において,$T$側の「回避できる」は,その後方の「というのはデマだ」という表現によって否定されており,この2文は対立関係に分類される.}彼らの文間関係認識手法は,\addspan{仮説}が単文(一つの述語といくつかの項からなる文)であることを前提としている.しかし,ツイートに含まれる文は,単文であることは少ない.そこで,\addspan{まず,トピックと2つのツイートの間の関係をそれぞれ同定し,次にこれら2つの関係に基づいてツイート間の関係を同定する.このとき,トピックが仮説に,ツイートがテキストに対応する.図\ref{fig:rel_classification_1}に,トピックを用いてツイート間の関係を求める手法を示す.まず,関係を求めたい2つのツイートに対して,ツイートとトピックとの間の関係を求める.その際,ツイートは,まず文分割され,次に収集用クエリが全て含まれる文のみが選択される.そのような文が複数存在する場合は,一番後ろの一文を選択する.図\ref{fig:rel_classification_1}は,中心にトピック,上下にツイートから選択された文を表している.上側の文はいずれも同意で,下側の文は,一方が同意で,他方が対立に分類されている.最後に,求められた2つの関係から,ツイート間の関係を分類する.トピックとツイートとの間の関係から導かれるツイート間の関係の組み合わせを,以下に示す.}\addspan{\begin{enumerate}\item2つの関係のうち1つでも「その他」$\Rightarrow$「その他」\item2つの関係がいずれも「同意」$\Rightarrow$「同意」\item2つの関係がいずれも「対立」$\Rightarrow$「同意」\item2つの関係が異なる,すなわち「同意・対立」または,「対立・同意」$\Rightarrow$「反論」\end{enumerate}}以降,本手法を「文間関係認識手法1」と呼ぶ.\begin{figure}[b]\centering\includegraphics{20-3ia16f10.eps}\caption{文間関係認識手法1}\label{fig:rel_classification_1}\end{figure}ツイート間の関係を直接同定する手法も評価する.まず,文間関係認識手法1と同様に,ツイートを文分割し,収集用クエリを含む文を選択する.次に,関係を求めたい任意の2ツイートについて,選択された2文間の関係を求める.同定された文間関係は,同意はそのまま同意関係に対応し,対立は反論関係に対応する.以降,本手法を「文間関係認識手法2」と呼ぶ. \section{\addspan{一般的なツイート間の関係認識結果}} 本節では,前節で述べた一般のツイート間の関係認識手法の評価を行う.本研究の目的は,図\ref{fig:map}のように,ツイート間の論述関係を可視化し,ユーザに情報の「裏」を提示し,情報の価値判断を支援することである.誤分類事例が多いと,正しく情報の裏を取ることができないため,高い精度を実現することが重要であり,その上で再現率を上げていく戦略をとる.本稿では,論述関係の可視化を実現するために必要な程度の数のツイートに対して,正しく関係分類が行えたかに着目して評価する.また,ネットワーク拡張手法,文間関係認識手法がそれぞれどのように有効であったかを考察する.\subsection{各トピックにおける評価}\begin{table}[b]\vspace{-0.8\Cvs}\caption{ツイート間関係分類結果(精度)}\label{tab:rel_res_prec}\input{16table08.txt}\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}正解の関係ラベルを付与したデータセットCの各ツイートペアについて,関係分類実験を行った.ネットワーク拡張手法について,図\ref{fig:direct_repqt}〜図\ref{fig:RT_and_repqt}に示すいずれのパターンにも当てはまらない場合は,関係を出力しない.実験結果の精度を表\ref{tab:rel_res_prec}に,再現率を表\ref{tab:rel_res_rec}に,全トピックのマクロ平均と併せて示す.N/Aは,その関係に分類された事例が存在しなかったことを示す.\begin{table}[t]\caption{ツイート間関係分類結果(再現率)}\label{tab:rel_res_rec}\input{16table09.txt}\par\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}ネットワーク拡張手法は,簡単なパターンの追加だけで,分類された事例は少ないものの,直接の返信関係にないツイート間の関係分類を行うことができた.文間関係認識に基づく手法について,一部のトピックについては,多くの事例を高精度で分類できている.いずれの手法でも分類された事例数の少なかったトピックとして,「東大が入学を取り消し」,「埼玉の水道水に異物が混入し危険」などがある.\subsection{考察}\addspan{本節では,まず,ネットワーク拡張手法の分類結果について考察し,文間関係認識手法1および2との比較を行う.次に,文間関係認識手法1と2について比較する.}\begin{table}[t]\caption{ネットワーク拡張手法の各パターンによる判定の精度}\label{tab:各パターンの精度}\input{16table10.txt}\par\vspace{0.5zw}\small各トピックについて,上の行が同意,下の行が反論関係の分類性能を示し,手法ごとの精度を示す.\\※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}\addspan{ネットワーク拡張手法について,図\ref{fig:direct_repqt}から図\ref{fig:RT_and_repqt}の各パターンごとの分類性能を表\ref{tab:各パターンの精度}に示す.表の各列は,各パターンを単独で使用して,ツイートa,b間の関係を分類した場合の分類精度を示している.ただし,両方をリツイートするパターン(図\ref{fig:both_RT})は,それぞれのツイートをリツイートしたユーザ集合間のジャッカード係数を同意のスコアとするものであるため,閾値0.01以上の場合のみ同意と判定することとしている.このとき,直接返信のパターン(図\ref{fig:direct_repqt})は,返信態度の分類器をそのまま適用した場合と同等である.反論関係は「福島から避難した子供には教科書が配布されない」に対して1件の誤分類が存在するのみであったが,同意関係への分類精度はマクロ平均で0.953と高かった.次に,拡張した各パターンの結果について,まず,両方をリツイートするパターン(図\ref{fig:both_RT})について,本研究ではリツイートは同意関係であるという仮定を置いているため,本パターンでは反論関係への分類は行われない.同意関係への分類精度は比較的高く,本パターンの有効性が示されている.今後は,リツイート後のツイートも参照し,同意関係ではないリツイートも考慮することで,同意関係の分類精度向上,反論関係への分類も行うことが考えられる.次に,他のツイートで返信のパターン(図\ref{fig:other_repqt})は,適合する場合が少なかっために,分類された事例も少なかった.分類性能は,反論事例の分類精度が最も高かったが,分類された事例数が少ないことが問題である.最後に,片方をリツイート・もう片方に返信のパターンは,分類された事例は同意・反論とも多かった.分類精度については,同意関係は,両方をリツイートするパターン・他のツイートで返信するパターンと同程度の精度で分類することができたが,反論関係の分類精度はあまり高くなかった.}\addspan{ネットワーク拡張手法の分類性能を向上させるためには,}パターンの拡張や,ネットワークを構成するツイートやユーザの増加が考えられる.前者は,ネットワークをより広範囲にわたって探索して,関係を探してくるようにすることによって,分類可能事例を増やす.ただし,ノイズの多いパターンを採用することで精度は下がる可能性が高い.例えば,元のツイート間のパスが長くなるほど,そのリンク関係の信用度も下がると考えられる.本研究で目指すツイート空間の整理は,大量のツイートをまとめるよりは,少数でも重要なツイートを高精度で分類,整理することが有効であると考えているので,ルールの拡張は最適点を見つける問題に帰着することになる.一方で,後者の対策である,ネットワーク探索の対象となるツイートそのものを増やすことは有効であると考えられる.処理を適用するツイートを増やすことで,パターンを拡張することなく,新しいリンクが見つかる可能性は高い.\addspan{ネットワーク拡張手法と,文間関係認識手法1および2を比較して,ネットワーク拡張手法でのみ正しく分類できた事例として,「救援物資の空中投下は法律で禁止されている」の反論事例の一つを以下に示す.}\begin{description}\item[a]【デマ33】「日本では物資の空中投下が認められていない」そんなことはありません。\item[b]なんと驚いた情報です!日本では物資の空中投下が認められていないんだそう!とっくに自衛隊が孤立被災者に実施してると思ってた。これでは本当に孤立者が死んでしまう。救出前にヘリで食糧を落として何が悪いんだろう。わたしは今これを知り怒りで全身が震えてます。みなさんリツイートをお願い!\end{description}\addspan{a,bのいずれも,「法律」については言及されておらず,さらにaは括弧による引用に対して否定する構造となっていたため,文間関係認識手法1,2のいずれも反論関係に分類できなかった.ネットワーク拡張手法では,片方をリツイート・もう片方に返信のパターン(図\ref{fig:RT_and_repqt})によって分類された.パターン中のc1として使われたツイート,すなわちaをリツイートしたユーザによるツイートbへの返信は全部で7ツイート存在した.そのうちの3つを以下に示す.}\begin{description}\item[c1]@XXXXX【お願いします】問題のツイート削除してください!このままでは本当に物資の空中投下が出来ないと誤解されます。物資が遅れている、投下より安全な輸送を優先している、これは事実です。しかしツイッター上では議論がずれてしまってる現状をご理解ください!\item[]@XXXXXこのツイートはデマです。すぐに削除してください。情報に正確性の無いものを拡散させないようお願いします。ツイートでの発言も、常識を忘れないで下さい。拡散させたいときは、ちゃんと調べて情報元などをしっかり確認した上でして下さい。迷惑になります。\item[]@XXXXXこれデマだそうですね投下始まったそうで''孤立状態の被災者に対しヘリコプターを使った食料の投下も始まった''http://www.xxx./xxx.htmlこんな時にデマ流さないで!\end{description}\addspan{これらのツイートは全て反論であり,他の4ツイートも全て反論であった.返信の分類器によりこれらを正しく「反論」と分類できたため,最終的に出力されるスコアも「反論」が最も高く,}a,b間の関係を正しく分類することができた.\addspan{次に,文間関係認識手法1と2の結果について比較する.全体的には,手法2の方が精度,再現率ともに優れていた.同意関係について手法2の方が優れていた事例について分析したところ,2ツイートがいずれも同一の文を引用している事例が大多数であった.以下に例を示す.}\addspan{\begin{description}\item[ツイート1]ツイッターもテレビもメディアを扱う人は考えねばならないことがある。誤報について\ulinej{福島・双葉病院患者置き去り報道の悪意。}医師・看護師は患者を見捨てたりしていなかった\item[ツイート2]記事:\ulinej{福島・双葉病院患者置き去り報道の悪意。}医師・看護師は患者を見捨てたりしていなかった—誤報流した新聞は全力で訂正しろ!\end{description}}\addspan{ツイート1と2で,下線部は共通している.下線部は,これらのツイートが言及している記事のタイトルであり,この共通部分の関係が同意と分類された結果,ツイート間の関係も同意と正しく分類された.手法1では,ツイート中にトピックと同意関係にある1文が存在しないため,対応できなかった.}\addspan{反論関係について手法2の方が優れていたトピックとして「救援物資の空中投下は法律で禁止されている」があげられる.以下の例では,下線部の関係が対立に分類されたことで,ツイート間の関係が反論に正しく分類された.}\addspan{\begin{description}\item[ツイート3]孤立してる被災地に物資が届いていない。不足マップ作って空と陸から支援できないものか?知り合いは徒歩でおにぎりを届けてるらしい。\ulinej{ヘリで空中投下できると良い。}インターネット接続設備も情報のやりとりの為に必須。\item[ツイート4]\ulinej{自衛隊が物資の空中投下が出来ないという噂はデマだったのでマスコミのみなさんのヘリで孤立した避難場所への物資の空中投下はできないのでしょうか?}政府で許可が下りないのなら即非常措置をお願いしたい。\end{description}}\addspan{手法1で反論関係に分類されるのは,一方のツイート中にトピックに同意する文が含まれ,他方のツイート中に対立する文が含まれている場合である.上記の例では,ツイート3でトピックに関連する文は,対象物である「物資」が省略されており,「法律」に対する言及もなされていないため,トピックに対して同意関係に分類されなかった.そのため,ツイート間の関係もその他に分類された.}\addspan{一方で,反論関係について手法1の方が優れていたトピックとして「双葉病院の医師が患者を置き去りにした」が挙げられる.以下の例において,ツイート5,6の下線部は,手法2では,ツイート5中の「見捨てていません」に相当する表現がツイート6に含まれていなかったため,対立関係に分類できなかったが,手法1ではトピックとの関係分類において,それぞれ対立,同意に分類され,反論関係に分類することができた.}\addspan{\begin{description}\item[ツイート5]TUFの報道番組が大熊町双葉病院の職員は患者を残して逃げたと報道しましたが違います。事実は職員は一生懸命患者を搬送してから避難しました。これが真実です。私の父は双葉病院の主任の1人です。\ulinej{双葉病院の職員は患者を見捨てていません。}ご理解ご…\item[ツイート6]\ulinej{\mbox{福島第1原発の10キロ圏内にあり}避難指示が出た同町の双葉病院で、患者を避難させるため自衛隊が到着した際、\mbox{病院内は高齢の入院患者128人だけで、}医師や病院職員らがいなかったことが分かった。}最低だよ酷すぎる。この病院から避難所に移送された患者が14人も亡くなってる\end{description}}以上より,手法2が有利なトピックは,2つのツイートに類似した表現が含まれる場合であることが分かった.特に,両方のツイートが同じ文を引用し,それに対する意見を述べているようなトピックにおいて顕著であった.一方で手法1は,トピックを適切に作文できれば,2つのツイートが類似していない場合に有利であることが分かった.水野らの文間関係認識の問題点は,複数文同士の関係分類に\addspan{直接は}対応できないことである.\addspan{そのため,手法1および2では,文分割を行った.}\addspan{今後は,文をまたぐ照応解析や共参照解析を行うことで,関係分類の精度をより向上させ,再現率も向上させることが考えられる.}一般的に文をまたぐ照応解析\addspan{や共参照解析}の実現は難しいが,ツイートを対象とした場合,\addspan{参照先}となる単語が最大でも140文字以内に含まれていることを活用することで,問題の難易度を下げられる可能性がある.\subsection{論述構造の可視化}今回の実験で得た結果を元に,「イソジンを飲むと放射能対策になる」のトピックに関するツイート空間の論述構造グラフを作成した.作成の手順は以下である.まず,「イソジンを飲むと放射能対策になる」に対応する\addspan{351}個のツイートペアに対し,ネットワーク拡張による手法と文間関係認識による手法のそれぞれで関係分類を試みる.1つ以上の手法で「反論」か「疑問」と識別したツイートペアについてはそれらの関係で結ぶ.\addspan{関係が結ばれたツイートペアを全て集めたものを,グラフに載せるツイートの集合とする.次に,そのツイート集合内に生じる全てのツイート間のペアのうち,すでに「反論」か「疑問」の関係がついたペア以外については,}1つ以上の手法で「同意」と識別されたものがあれば,「同意」関係で結ぶ.以上の流れで論述構造グラフを作成することで,「反論」や「疑問」といった重要な関係を抽出しつつ,無闇にツイート数を増やすことのないグラフを得ることができる.今回の実験結果を元に作成できたグラフを図\ref{fig:graph}に示す.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f11.eps}\end{center}\caption{「イソジンを飲むと放射能対策になる」の論述構造グラフ}\label{fig:graph}\end{figure}グラフ中の\addspan{双方向矢印}は「反論」,\addspan{結合点が丸になっている線}は「同意」と分類された関係を表し,実線はネットワーク拡張による手法,破線は文間関係認識による手法で分類した関係を表す.\addspan{なお,図\ref{fig:graph}中のツイート間では,どちらの手法でも分類できた例はなかった.}ただし,これらの分類結果が誤っていた関係には×印を付与してある.この実験では,「疑問」を識別することはできなかった.なお,図を描くにあたっては,最も多くの関係を持つツイート「イソジン飲まないで!放射性ヨウ素が集まるのを抑制する効果なし…」を便宜上中心に据えた.このグラフから以下のことが言える.まず,中心ツイートと,図の左上にある二つのツイート(「甲状腺に問題がない人なら…」「ちょ,イソジン等内服以外の…」)は三角形に結ばれているが,これはネットワーク拡張による手法と文間関係認識が相補的に寄与することで実現している.\addspan{ツイート間の関係を独立に表示するだけでなく,3ツイート以上の相互の関係を示すことで,ユーザにとっての分かりやすさやシステムの信頼性を高められる可能性がある.}このように,\addspan{精度を重視した}両手法を組み合わせることで,\addspan{システムの信頼性を高め,説得力のある論述構造をユーザに提供できる可能性が高まる.}また,中心のツイートと,その下のツイート(「薄めたイソジンならOK?…」)の間の反論関係を取得している点も特徴である.グラフを作る際に集めたツイートは「イソジンを飲むと放射能対策になる」というトピックに関連するツイートであり,このトピックに対する立場で言えば,中心のツイートとその下のツイートは反論関係にあるとは言えない.しかしながら,海藻が効果があるかどうかという点で見ればこの二つのツイートは反論関係にあり,取得したい情報である.このように多様な情報の論述構造を取得するのが,本研究の目指すところである.現状の課題として,クラス分類を行った関係に対して誤りが多いことが挙げられる.正しく分類されている関係のみを見ることができれば,ユーザは十分な情報を得ることができるが,間違って分類されている関係が混在していると,情報を取得するにあたり混乱を招くこととなる.より実用性のある論述構造を得るには,分類の精度を高めなければならない.また,「疑問」の関係にあるツイートやURLを含むツイートを取得し,論述構造グラフに組み込むことも目指している. \section{おわりに} 本研究では,震災時など多様な情報がTwitter上で氾濫するような状況を想定し,ツイート空間の論述構造を解析する構想を示した.多岐に渡るツイートを整理することは容易ではないが,我々はまず返信で表明される態度に着目し,教師あり学習による4クラスへの分類を行った.反論表現辞書や構造的特徴を用いることで性能を向上できることを示し,特に重要な論述関係である「反論」の識別性能の\addspan{$F_1$値}で0.472,4クラス全体の正答率で0.751という性能を得た.続いて,一般のツイート間の論述関係を分類する手法として,ネットワークの拡張による手法と,文間関係認識による手法を比較した.前者は,あるツイート間の関係を間接的に表すと思われるツイートやユーザの関係を探索し,必要に応じて返信の分類器を適用することで,元のツイートペア間の関係を推測する手法である.それに対し後者は,ツイート間の関係を直接言語処理で解く手法であり,従来研究の含意関係認識器を本稿のタスク用にカスタマイズして使用した.これら二つの\addspan{手法}は相補的に作用することが期待される.実験では,各手法において得意な\addspan{性質を持つツイートペアの関係分類で高い性能を}発揮した他,適用するトピック次第では両手法が相補的に活用され,有用な論述構造グラフが得られることを示した.元来Twitterの持つ強力な情報伝達力を活用するためには,本研究の提案手法は有効であると考えている.今後の課題としては,返信の態度分類器の性能をさらに高める必要がある.具体的には,反論表現辞書の拡張および,より有効な構造的特徴の開発が必要となる.さらに,より有用な論述構造グラフ作成に向けては,ネットワークの拡張による手法と,文間関係認識による手法を共に改善させていくことが必要である.具体的には,前者はより有用なヒューリスティックスの実装とそれに基づく広範なネットワークの探索,およびそのためのデータ整備を行う.後者については,複数文同士の関係分類\addspan{において,文をまたいだ照応解析や共参照解析技術を取り入れること}が重要であると考えている.本研究が,先の大震災のような危難の中で,Twitter上の情報活用に一役買うことになれば幸いである.\acknowledgment本研究は,文部科学省科研費(23240018),文部科学省科研費(23700159),およびJST戦略的創造研究推進事業さきがけの一環として行われた.本研究で使用したデータは,株式会社ホットリンクより提供された.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine_2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWisdom:Awebinformationcredibilityanalysissystematic.\BBCQ\\newblockIn{\BemProceedingsfotheInternationalConferenceonACL-IJCNLP2009SoftwareDemonstrations},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Bond,Isahara,Fujita,Uchimoto,Kuribayashi,\BBA\Kanzaki}{Bondet~al.}{2009}]{bond_09_enhancing}Bond,F.,Isahara,H.,Fujita,S.,Uchimoto,K.,Kuribayashi,T.,\BBA\Kanzaki,K.\BBOP2009\BBCP.\newblock\BBOQEnhancingthe{J}apanese{WordNet}.\BBCQ\\newblockIn{\BemProceedingsofthe7thWorkshoponAsianLanguageResources},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Castillo,Mendoza,\BBA\Poblete}{Castilloet~al.}{2011}]{Castillo_2011}Castillo,C.,Mendoza,M.,\BBA\Poblete,B.\BBOP2011\BBCP.\newblock\BBOQInformationcredibilityontwitter.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConf.onWorldWideWeb(WWW2011)},\mbox{\BPGS\675--684}.\bibitem[\protect\BCAY{Dagan,Glickman,\BBA\Magnini}{Daganet~al.}{2005}]{Dagan_2005}Dagan,I.,Glickman,O.,\BBA\Magnini,B.\BBOP2005\BBCP.\newblock\BBOQThepascalrecognisingtextualentailmentchallenge.\BBCQ\\newblockIn{\BemFirstMachineLearningChallengesWorkshop},\mbox{\BPGS\177--190}.\bibitem[\protect\BCAY{de~Marneffe,Rafferty,\BBA\Manning}{de~Marneffeet~al.}{2011}]{MarneffeIdentifying2011}de~Marneffe,M.-C.,Rafferty,A.~R.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQ{IdentifyingConflictingInformationinTexts}.\BBCQ\\newblockIn{\BemHandbookofNaturalLanguageProcessingandMachineTranslation:DARPAGlobalAutonomousLanguageExploitation}.Springer.\bibitem[\protect\BCAY{江口\JBA松吉\JBA佐尾\JBA乾\JBA松本}{江口\Jetal}{2010}]{eguchi10nlp}江口萌\JBA松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockモダリティ、真偽情報、価値情報を統合した拡張モダリティ解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集E3-8},\mbox{\BPGS\852--855}.\bibitem[\protect\BCAY{Giampiccolo,Magnini,Dagan,\BBA\Dolan}{Giampiccoloet~al.}{2007}]{GiampiccoloRTE32007}Giampiccolo,D.,Magnini,B.,Dagan,I.,\BBA\Dolan,B.\BBOP2007\BBCP.\newblock\BBOQThethirdPASCALrecognizingtextualentailmentchallenge.\BBCQ\\newblockIn{\BemProceedingsoftheACL-PASCALWorkshoponTextualEntailmentandParaphrasing},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Gupta,Zhao,\BBA\Han}{Guptaet~al.}{2012}]{Gupta_2012}Gupta,M.,Zhao,P.,\BBA\Han,J.\BBOP2012\BBCP.\newblock\BBOQEvaluatingeventcredibilityontwitter.\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalConf.onDataMining(SDM2012)},\mbox{\BPGS\153--164}.\bibitem[\protect\BCAY{Hashimoto,Torisawa,Kuroda,Murata,\BBA\Kazama}{Hashimotoet~al.}{2009}]{hashimoto09emnlp}Hashimoto,C.,Torisawa,K.,Kuroda,K.,Murata,M.,\BBA\Kazama,J.\BBOP2009\BBCP.\newblock\BBOQLarge-ScaleVerbEntailmentAcquisitionfromtheWeb.\BBCQ\\newblockIn{\BemConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2009)},\mbox{\BPGS\1172--1181}.\bibitem[\protect\BCAY{Hassan,Abu-Jbara,\BBA\Radev}{Hassanet~al.}{2011}]{Hassan_2012}Hassan,A.,Abu-Jbara,A.,\BBA\Radev,D.\BBOP2011\BBCP.\newblock\BBOQDetectingsubgroupsinonlinediscussionsbymodelingpositiveandnegativerelationsamongparticipants.\BBCQ\\newblockIn{\BemProceedingsofthe9thEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2012)},\mbox{\BPGS\59--70}.\bibitem[\protect\BCAY{Jiang,Yu,Zhou,Liu,\BBA\Zhao}{Jianget~al.}{2011}]{Jiang_2011}Jiang,L.,Yu,M.,Zhou,M.,Liu,X.,\BBA\Zhao,T.\BBOP2011\BBCP.\newblock\BBOQTarget-dependenttwittersentimentclassification.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\151--160}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{cabocha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemCoNLL2002:Proceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo04applyingconditional}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingconditionalrandomfieldstoJapanesemorphologicalanalysis.\BBCQ\\newblockIn{\BemProceedingsofthe1stEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{水野\JBA渡邉\JBA村上\JBA乾\JBA松本}{水野\Jetal}{2011}]{水野_2011}水野淳太\JBA渡邉陽太郎\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock文間関係認識に基づく賛成・反対意見の俯瞰.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3408--3422}.\bibitem[\protect\BCAY{Shima,Kanayama,Lee,Lin,Mitamura,Miyao,Shi,\BBA\Takeda}{Shimaet~al.}{2011}]{ShimaRITE12011}Shima,H.,Kanayama,H.,Lee,C.-W.,Lin,C.-J.,Mitamura,T.,Miyao,Y.,Shi,S.,\BBA\Takeda,K.\BBOP2011\BBCP.\newblock\BBOQOverviewofNTCIR-9RITE:RecognizingInferenceinTExt.\BBCQ\\newblockIn{\BemProceedingsofthe9thNTCIRWorkshop},\mbox{\BPGS\291--301}.\bibitem[\protect\BCAY{Speriosu,Sudan,Upadhyay,\BBA\Baldridge}{Speriosuet~al.}{2011}]{Speriosu_2011}Speriosu,M.,Sudan,N.,Upadhyay,S.,\BBA\Baldridge,J.\BBOP2011\BBCP.\newblock\BBOQTwitterpolarityclassificationwithlabelpropagationoverlexicallinksandthefollowergraph.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponUnsupervisedLearninginNLP},\mbox{\BPGS\53--63}.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney_2002}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsuporthumbsdown?:Semanticorientationappliedtounsupervisedclassificationofreviews.\BBCQ\\newblockIn{\BemProceedinsofthe40thAnnualMeetingonAssociationforComputationalLinguistics(ACL2002)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Watanabe,Asahara,\BBA\Matsumoto}{Watanabeet~al.}{2010}]{watanabe10jointwsdsrl}Watanabe,Y.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAStructuredModelforJointLearningofArgumentRolesandPredicateSenses.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL2010)},\mbox{\BPGS\98--102}.\end{thebibliography}\clearpage\appendix\ref{subsec:class_method}節で示した反論表現辞書について,収録した反論表現の一覧を以下に載せる.\begin{table}[b]\vspace{-2\Cvs}\caption{反論表現辞書}\input{16table11.txt}\vspace{2\Cvs}\begin{biography}\bioauthor{大和田裕亮}{2011年東京大学工学部電子情報工学科卒業.2013年同大学院情報理工学系研究科・電子情報学専攻修士課程修了.同年よりヤフー株式会社.}\bioauthor{水野淳太}{2012年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員.2013年より独立行政法人情報通信研究機構耐災害ICT研究センター研究員.博士(工学).自然言語処理,耐災害情報通信の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\bioauthor{石塚満}{1971年東京大学工学部電子卒.1976年同大学院博士課程修了.NTT横須賀研究所,東大生産研究所・助教授,同大学工学部電子情報・教授,同情報理工学系研究科創造情報/電子情報・教授を歴任し,2013年東大を退職.専門は人工知能,Web知能化,意味計算,マルチモーダルメディア.人工知能学会・元会長.}\end{biography}\biodate\end{document}
V21N02-06
\section{はじめに} ここ数年,Webなどの大量の電子化テキストに現れる他者が発信した意見情報を抽出し,集約や可視化を行うことで,世論調査や評判分析といった応用を実現する研究が進んでいる\cite{pang2008,liu2010,otsuka2007,inui2006}.これらの研究を総称して,意見分析({\itSentimentAnalysis})あるいは意見マイニング({\itOpinionMining})と呼ぶ\cite{pang2008}.対象となる文書ジャンルは,報道機関が配信するニュース,Web上のレビューサイト,個人が自身の体験や意見を記述するブログやマイクロブログなどであり,政策や選挙のための情報分析,世論調査,商品や映画やレストラン・ホテルなどのサービスの評判分析,トレンド分析,などについて実用化が進められている.現在の意見分析の研究は,技術は洗練され,応用範囲は広がりつつあるものの,ここ数年,従来のやり方を大きく変えるような提案は著者の知る限りではあまり見当たらない.その結果,意見質問応答や,ドメインを横断した意見分析といった難易度の高い応用は,技術の壁にぶつかっている印象を持っている.意見質問応答は,factoid型,すなわち従来の質問応答技術に比べて,回答が長くなる傾向があり,また,質問に対する正答は,1つだけではなく,複数の意見を集約したほうが適切である場合が多い.初期の研究\cite{stoyanov2005emnlp}では,文や節などの単位を主観性などの情報に基づきフィルタリングすることで,回答が得られる可能性が増すことが指摘されていた.その後の研究\cite{balahur2010ecai}によると,評価型会議TAC(TextAnalysisConference)で提供されたブログからの意見質問応答・要約のデータセット\cite{dang2008tac}\footnote{http://www.nist.gov/tac/data/past/2008/OpSummQA08.html}を用いた実験では,ブログを対象として,特定の事柄に対する意見を問い合わせ,回答を得るというタスクについて,質問,回答を同一の極性や話題によりフィルタリングすることが有効であり,また複数の連続する文を抽出することが効果的であるが,意味役割付与などに基づくフィルタリングは必ずしも有効な結果が得られていない.さらに,さまざまな識者や組織により表明されている意見を話題別に集約するタスク\cite{stoy2011ranlp}などの提案もある.本研究では,複数の個人的な意見や体験が含まれる情報を集約して,回答として適切に構成するためには,従来の意見の属性,主観性,極性,意見保有者などにとどまらず,意見の詳細なタイプをアノテートし,質問と回答の構造について分析を進める必要があると考える.これにより,複数の個人的な意見や体験を,詳細なタイプに基づき,適切な順序で配置することにより,文章として自然な回答を提供できると考えている.また,質問と回答を含む文書ジャンルとして,Yahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}などのコミュニティQAサイトがあり,意見質問の判別のために利用されている.具体的には,質問について主観性を判別するためには,質問と回答中の手がかりを区別して利用することが有効という研究\cite{li2008sigir}や,主観を伴う回答を求める質問を厳密に定義し,そのような質問は人間に対して回答を求めるという応用を目指している研究が存在する\cite{aikawa2011tod}.これらの研究は,主観性を判別する特徴が,質問と回答との間で明確ではないが関連があることと,意見を問う質問が判別できたとしても,適切な回答を自動的に構成することが難しいことを示唆している.一般に,質問に対する回答を検索するためには,質問に出現しやすい語彙と回答に出現しやすい語彙とのギャップを解消するために,その対応関係をコーパスから学習することにより,解決するための研究が行われている\cite{abe2011yans,berger2000sigir}.一方で,意見分析の研究は,文書ジャンル\footnote{文書ジャンルとは,文書の書き手と読み手との間で,読む行為を通じたコミュニケーションの共通パタンを想定できる文書群を指す概念と位置づけることができる\cite{bazerman2004}.}に応じて要求されるタスクが異なり,文書に現れる意見の性質も異なる.したがって,意見分析の研究にはコーパスが欠かせないが,現状では,ニュース,レビュー,ブログなどの文書ジャンルが主な対象となっている\cite{seki2013tod}.本研究では,従来の研究とは異なり,質問と回答を含む対話型の文書ジャンル,具体的には,国立国語研究所の『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}中のYahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}を対象として,質問とそれに対する回答に詳細な意見情報のアノテーションを行うことにより,質問と回答中の意見の構造やその対応関係を明らかにするための,基盤となるコーパスの提供を目指している.ただし,一口に意見といっても,その特徴はさまざまである.意見の定義の範囲は広く,主観性などの広い概念を対象とした場合,評価,感情,意見,態度,推測などの何を対象とするかを決定することも重要である\cite{wiebe2005lre,koba2006signl}.本研究では,態度の詳細分類であるアプレイザル理論\cite{martin2005}を参考に,詳細な分類体系に基づく意見情報をアノテートすることにより,質問に対する回答として出現する意見の傾向を,意見の性質の違いから明らかにすることを目指す.一方で,従来の意見分析では,単一のドメインを対象として研究がなされてきた.それは,ドメインに応じて,主観性,極性を判別したり,意見の対象やそのアスペクトを抽出するための教師あり学習に用いる素性が異なるからである.しかし,現実社会では,複数のドメインを横断して,意見分析を行うことが求められる場面が少なくない.この課題に向けた解決のための研究として,複数のドメインを対象とした意見分析に関する研究\cite{blit2007acl,pono2012emnlp,he2011acl,bolle2011acl,li2012acl}がある.これは,複数ドメインにおいて共通に出現する意見表現や,意見表現間あるいは意見の対象間の類似性を手がかりとして,訓練データと評価データとの不整合を緩和させようという試みである.英語については,Amazonレビューを対象としたコーパス\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}が公開されており,一連の関連研究ではこのコーパスを使用した研究が行われているが,日本語で同様のコーパスは流通していない\cite{seki2013tod}.したがって,こうした研究を促進するためには,日本語で同様のコーパスを開発する必要がある.また,レビューにとどまらない広い範囲のドメインを対象とした意見の違いなども明らかにする必要がある.本研究が対象とするコミュニティQAは,ブログなどと比較して,カテゴリに対して投稿内容が適合しているという特徴がある.具体的には,コミュニティQAサービスにおいて,ユーザは,適切な回答を得る必要性から,提供している質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi}に対して適合した投稿を行う.これは,さまざまな話題を投稿するため,必ずしも事前に設定したカテゴリにはそぐわない話題を投稿する傾向のあるブログとの大きな違いである.また,ニュースやレビューと比べると,生活に密着した多様な話題が投稿される.これらを踏まえ,Yahoo!知恵袋の複数の質問カテゴリを対象としたコーパスを開発し,詳細な分類体系に基づく意見情報を重ね合わせて分析することにより,ドメインごとの意見の傾向の違いを明らかにすることを目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:corpus}節では,コミュニティQAを対象とした意見分析のためのアノテーションの方針について述べる.\ref{sec:communityQA_annotation}節では,コミュニティQAを対象とした意見情報のアノテーション作業の特徴について議論する.\ref{sec:analysis}節では,Yahoo!知恵袋を対象として構築した意見分析コーパスを使用して,質問と回答や,ドメインあるいはコミュニケーションの目的に応じて出現する意見の性質の違いを明らかにする.最後に,\ref{sec:conclusion}節で結論をまとめる. \section{関連研究} \label{sec:related}本節では,まず,対話型の文書ジャンルを対象とした意見分析についての関連研究を紹介する.次に,複数のドメインを対象としたコーパスとその関連研究について紹介する.最後に,意見分析のアノテーションに関する関連研究を紹介する.\subsection{対話型の文書ジャンルを対象とした意見分析}\label{subsec:dialogue}\citeA{soma2007icwsm}は,Web掲示板やニュースからの質問応答において,質問と回答の態度を詳細に分類してフィルタリングすることが有効だという仮説を立て,実際に分類可能なタイプとして,意見(sentiment)に加えて議論(arguing)を設定し,その有効性を示した.ただ,この概念はかなり広いものであり,より詳細なカテゴリを設定しないと,質問と回答の関係は必ずしも明らかにならない.また,質問と回答が同一のタイプであることを仮定しているが,意見と議論が明確に区別できず,相互に混在する場合も避けきれないことから,平均的な回答精度の向上は見られても,完成度の高い戦略とはなりにくい.本研究では,より詳細な分類体系に基づき,質問と回答の関係について分析を行う.また,彼らはその後,議論のタイプを利用して,政治や宗教などのイデオロギー的な討論\cite{soma2010naacl}や,製品の比較\cite{soma2009acl}を対象として,スタンス(賛成,反対)\footnote{肯定(positive),否定(negative)とはそのまま必ずしも対応しない.}の判別に取り組んでいる.彼らの知見で重要な点は2つあり,ひとつは,イデオロギー的な討論と,製品の比較とで,スタンスの判別に有用な意見のタイプが異なること,もうひとつは,スタンスの判別には,``議論''や``意見''がそれ単体では有効ではなく,その対象となる単語と組み合わせることが,有効なことを示している点にある.本研究では,これらの知見を踏まえ,詳細な意見タイプと,意見対象のタイプとの組合せに基づき,コーパスの分析を進める.一方で,コミュニティQAを対象とした意見分析の研究も行われている\cite{kucu2012wsdm}.この論文では,質問カテゴリ間の意見の性質の差,性差,年齢差,時間帯の差,経験による差,ベストアンサーにおける差など,コミュニティQAの分析に研究の重点が行われているが,意見分析自体は,汎用的なシステムを利用しており,極性(肯定・否定)の判別のみに重点が置かれている.また,コミュニティQAでは,質問カテゴリごとに,情報や知識を求めるものや,広くみんなの意見や体験を聞きたいもの,など,質問のタイプの出現傾向が異なることが知られている\cite{kuriyama2009fi}.本研究では,より詳細な意見タイプを人手でアノテートすることにより,各カテゴリにおいてどのような意見の差異があるかをより明確なかたちで述べる.本研究では,意見の詳細タイプとして,より一般化されたアプレイザル理論\cite{martin2005}に着目する.アプレイザル理論の関連研究として,\citeA{arg2009lang}は,11の態度評価の下位タイプの自動分類に取り組んでおり,精度は高くないものの,将来的な発展が見込める.\citeA{sano2010a,sano2010b}は,ブログを対象としてアプレイザル理論に基づく評価語彙と評価対象の関係などの分析を進めている.本研究では,質問と回答を含む対話型の文書ジャンルとして,Yahoo!知恵袋を対象として,アプレイザル理論を参照した詳細な意見タイプをアノテートすることで,質問カテゴリ間の意見の差異と,質問と回答間の意見の関係を明らかにすることを目指す.\citeA{kabutoya2008dbsj}は,日本語のコミュニティQAサービスにおけるコミュニケーションのタイプとして,\citeA{adamic2008www}を踏まえて,「知識交換」「相談」「議論」の3つを設定し,質問カテゴリと相関があることを示している.本研究では,これらのタイプと質問カテゴリを組み合わせることにより,意見の詳細タイプの出現傾向を明らかにする.\subsection{ドメインを横断した意見分析}\label{subsec:domain}各ドメインごとに文書中で使用される概念や語彙の傾向は異なることから,あらゆるドメインに対応した意見分析システムを構築するのは手間である.そこで,ドメインに適応する技術(domainadaptation)\cite{soggard2013domain}を用いて,意見分析を実現する研究\cite{pono2012emnlp,he2011acl,bolle2011acl,li2012acl}が進められている.たとえば,あるドメインの少数の訓練データに基づき,別のドメインの大量のデータから類似度により重み付けをして選別・拡張する方法\cite{pono2012emnlp}が用いられている.また,学習にあたっての素性を,対象データに適合したものになるように拡張するアプローチ\cite{he2011acl,bolle2011acl}も研究されている.素性の拡張に当たっては,元のドメインと対象ドメインで共通する特徴に着目する必要があり,トピックと極性を共有する単語\cite{pono2012emnlp},周辺語と極性を共有する単語\cite{bolle2011acl}などが用いられる.また,ドメインごとに意見の対象となる表現を抽出するためには,一般的な意見表現を利用することが行われる\cite{li2012acl}.以上のように,ドメインを横断した意見分析の研究では,ドメインごとの意見表現と,ドメインを横断した意見表現を識別することが重要となる.上記の研究は,{\itAmazon}レビューの複数のドメインを対象としたデータセット\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}を用いている\cite{blit2007acl}.このデータセットでは,書籍,DVD,電気製品,台所用品の4つのドメインに関する製品データを取り扱っている.それぞれのドメインでは,1,000の肯定・否定のラベルが付いたレビュー文書と,ラベルの付いていない,より多くのレビュー文書が含まれている.本研究では,Yahoo!知恵袋の質問カテゴリのうち,質問数の多い主要7カテゴリを,質問者の情報要求を反映したドメインとみなし,意見分析コーパスを構築する.また,各ドメインにおいて,意見とその対象となる単語としてどのような組合せが現れるかを,意見の詳細タイプをアノテートしたコーパスを用いて分析することにより明らかにする.\subsection{意見分析のためのアノテーション}\label{subsec:mpqa}次に,意見分析のためのアノテーションを行った代表的な意見分析コーパスとして,{\itMPQA}({\itMulti-PerspectiveQuestionAnswering})意見コーパス\footnote{http://www.cs.pitt.edu/mpqa/}を紹介する.本コーパスは,2002年に,従来の質問応答システムとは異なる多観点の質問応答を対象としたコーパスを開発したことに端を発する\cite{wiebe2002mpqa}.具体的なタスクとしては,政府機関で働く情報分析者が行う作業を自動化することを目的としており,ニュース記事から意見の断片をあらわすテキストを抽出し構造化することで,米国の京都議定書への対応に対して日本人が同意しているか,などの意見(見方)を問う質問に対する回答を提供できるような応用を検討していた.この時点で,8つのトピック(のちに,10トピック)に関連する{\itWorldNewsConnection}(\textit{WNC})\footnote{http://wnc.fedworld.gov/}の575の記事(Ver1.2で,535記事に選別)を対象としたコーパスが作成された.このコーパスは,Version2.0で,692文書に拡張されている.ただし,文書数で見ると,元のWorldNewsConnectionの記事数が535文書なのに対して,{\itWallStreetJournal}の記事が85文書,{\itAmericanNationalCorpus}(旅行ガイド,話し言葉の書き起こし,9/11レポートなど)が48文書,{\itULA言語理解サブコーパス}({\itEnron}社破たんに関する社員の電子メール,アラブ言語の翻訳などの文書)から24文書と,文書ジャンルは多岐に渡るもののそのバランスは悪く,ニュース記事が圧倒的に多い.本研究では,コミュニティQA以外にも,現代日本語書き言葉均衡コーパス(BCCWJ)などを活用することにより,各文書ジャンルのバランスを考慮した意見分析コーパスを開発する.この研究の貢献の一つは,意見情報のアノーテションのフレームワークを,多数の判定者による実験を通して厳密に定めた点にある\cite{wiebe2005lre}.アノテーションの方針については,サンプルを使ってアノテータを訓練することにより,方針を自分だけではなく他人とも一貫させるように訓練することを重視している.アノテータ間の一貫性の判定には,$\kappa$係数\cite{cohen1960}を用いている.これらの方針は,本研究の意見分析コーパスの構築の際にも,参考にする. \section{コミュニティQAデータを対象とした意見情報のアノテーション} \label{sec:corpus}本節では,Yahoo!知恵袋を利用した意見分析コーパスの作成の取り組みについて紹介する.\subsection{対象コーパスの概要}\label{subsec:corpus}本研究では,国立国語研究所の『現代日本語書き言葉均衡コーパス』(以降,BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}の中からYahoo!知恵袋を対象として,意見分析コーパスを作成した.データの選択は,複数の研究機関が異なるアノテーションを提供している共通の文書群である{\bfコアデータ}を対象として,その中から質問数の多い主要7カテゴリを対象とした.これらのカテゴリ中の文書は,BCCWJにおいて提供されるYahoo!知恵袋のデータ全体に対しては,28.3\%の文書を,コアデータに対しては,26.8\%の文書をカバーしている.他の研究機関が提供するアノテーションのうち,一部のデータは,\ref{subsec:targettype}節で後述するように利用し,アノテーションの重ね合わせを行った.また,データの仕様上,質問とベストアンサー\footnote{質問者の選択あるいはYahoo!知恵袋のユーザの投票に基づく最良の回答.}とのペアを1文書としている.文書のデータサイズを表\ref{table:yahoo_opinioncorpus}に示す.また,比較のために,新聞記事,BCCWJのYahoo!ブログ,国会会議録についても意見分析コーパスを作成した.新聞記事は,{\itNTCIR-6,7}意見分析コーパス\footnote{http://research.nii.ac.jp/ntcir/data/data-ja.html}を,Yahoo!ブログと国会会議録は,BCCWJのコアデータに含まれるものを利用している.対象となる文書の統計量を表\ref{table:other_opinioncorpus}に示す.また,\ref{subsec:annotation_methodology}節で説明するように,アノテータ間の判定の一致度を調査するために,これらのデータからサンプリングを行っている.サンプルデータのサイズを,表\ref{table:sample}に示す.Yahoo!知恵袋のサンプルは,各質問カテゴリについて10文書ずつ選択しており,他の文書ジャンルについても,話題のバランスを考慮してサンプルの文書を選択している.なお,本節以降において表に示す結果は,サンプルデータを用いている表\ref{table:kappa_communication}と表\ref{table:kappa}を除き,意見分析コーパスの全データを対象としている点に注意されたい.\begin{table}[t]\caption{Yahoo!知恵袋を対象として作成した意見分析コーパスのサイズ}\label{table:yahoo_opinioncorpus}\input{ca10table01.txt}\end{table}\begin{table}[t]\caption{新聞記事,Yahoo!ブログ,国会会議録を対象として作成した意見分析コーパスのサイズ}\label{table:other_opinioncorpus}\input{ca10table02.txt}\end{table}\begin{table}[t]\caption{判定一致度の計算に用いるサンプルデータのサイズ}\label{table:sample}\input{ca10table03.txt}\end{table}\subsection{アノテーションの基本属性}\label{subsec:basic}本研究の目的は,コミュニティQAという質問と回答を含む対話型の文書ジャンルへのアノテーションを通して,対話中に出現する意見情報の傾向を明らかにして,複数ドメインの意見分析ならびに意見質問応答の研究に応用できる日本語コーパスを開発することにある.具体的な応用としては,ドメインやコミュニケーションの目的に応じた情報要求や回答の傾向を明らかにすることによる,ドメインを横断した意見分析や,コミュニケーションの目的に適したかたちで意見を集約する意見質問応答を考える.意見分析コーパスの作成では,一般に,文やフレーズを単位として,意見性(主観性),極性(ポジネガ),意見保有者(誰がその意見を表明あるいは保有しているか),意見対象(何についての意見か)などの情報をアノテートする\cite{wiebe2005lre,seki2010ntcirov}.本稿でも,これらの研究の方針に従い,意見性(あり,なし),極性(肯定,否定,中立),意見保有者(文字列),意見対象(文字列)を意見の基本属性としてアノテートする.アノテーションの単位は,知恵袋中の1文が短いことから,基本を1文単位として,1文中の別々の節に異なる意見が含まれる場合には,節を分割してアノテーションを行う.節の分割は\ref{subsec:annotationtool}節で述べるアノテーションツールを使用して行う.一方,自らの悩みや問題を解消するために,回答者に問い合わせるという目的のコミュニティQAサービスでは,個人的な情報として体験情報あるいは経験情報\cite{inui2008nlp,kurashima2008dews,seki2008wi2}も,対話型のコミュニケーションにおいて重要な役割を果たす.本研究では,\citeA{seki2008wi2}を参考にして,体験性(あり,なし),体験主(著者,著者の家族,著者の友人,その他),体験タイプ(最近の体験,過去の体験,近い未来の確実な予定,その他)についてもアノテーションを行う.また,\ref{subsec:dialogue}節でも述べたコミュニケーションタイプ\cite{adamic2008www,kabutoya2008dbsj}(``相談'',``議論'',``知識交換'')を,1つの文書(質問と回答(ベストアンサー)とのペア)を単位としてアノテートし,質問カテゴリと組み合わせて,意見・体験情報の質問・回答間における出現傾向や,ドメインごとの差異について,詳細な分析を行う.ただし,この3つのタイプに含まれない雑談などを目的としたコミュニケーションについては,``その他''のタイプとする.このほかに,意見の詳細タイプ,意見対象のタイプについてアノテーションを行うが,これらの属性については,\ref{subsec:opiniontype}節,\ref{subsec:targettype}節で,後述する.\subsection{意見の詳細タイプの定義}\label{subsec:opiniontype}大量のソーシャルメディアにおけるデータを対象とした,時系列・地域あるいは何らかのカテゴリごとの意見の出現傾向の変化は,極性分類(肯定,否定,中立)により分析を行うことがあるが,対話における意見の役割の違いを分析する上では,この分類は粒度が粗すぎて,必ずしも傾向が明らかとならない.また,極性の判定はドメインごとに傾向が変化するため,自動的にアノテートして傾向を分析\cite{kucu2012wsdm}しても,その傾向の信頼性は必ずしも保障できない.本研究では,以上の問題点を意識し,意見の詳細タイプを定義し,人手でアノテートすることで,質問カテゴリごと,あるいは質問と回答とを関係づける意見の傾向を分析することを試みる.意見は,大きく分けて,(1)肯定,否定的なニュアンスを含む態度と,(2)提案などの言語行為や推測などの話者の認識をあらわす中立的な意見に分類される.本研究では,前者については,アプレイザル理論\cite{martin2005}に基づき定義を行った.アプレイザル理論は,システミック文法の対人メタ機能(interpersonalmeta-function)を,談話意味論(discoursesemantics)の観点から整理した体系である.\citeA{martin2005}は,テキスト中に現れる対人メタ機能の意味は,仮想的な読者(putativereader)に対する感情や対話であるという信念に基づき,appraisal,negotiation,involvementの3つのシステムから構成されるものとした.また,appraisalは,態度評価(attitude),形勢・やり取り(engagement),程度評価(graduation)の3つのシステムから構成されるものとした.このうち態度評価は,感情(emotion),倫理(ethics),美学(aesthetics)の区別に基づき,以下に記述する通り,自発的な感情の表明(affect),人間や組織の振舞や行為の判断や批評(judgment),事物や事象に対する評価(appreciation)の3つに分類される.本研究では,\citeA{martin2005}の中で定義されている,14の下位タイプを意見の詳細タイプ({\bf態度タイプ})としてアノテートする.以下では,それぞれのタイプについて,本研究におけるアノテーションのための定義と例について述べる.\begin{enumerate}\item自発的な感情の表明(affect)\\感情の表明は,心理状態を記述する動詞,属性形容詞,叙述形容詞,形容詞に関連した副詞や名詞(恐怖,嫌悪等)などで表現され,感情を表明する人に焦点を当てる.また,主体の感情を記述するほか,感情を誘発する体験(痛み,恋愛),感情を示唆する振舞(涙,笑い,感謝等),対象に対する心情(好き,誇り,トラウマ)の記述も含まれる.下位タイプとして,肯定・否定の両面から,以下に要素と具体例を示す.\begin{itemize}\item切望・敬遠(未事実的):要求,切望する,〜たい/用心深い,震える,恐れ(て…しない)\item幸せ・不幸(好悪自発感情的):うれしい,笑う,愛する/泣く,かなしい,嫌悪する\item安心・不安(生態環境・精神安定的):信頼,任せる,保証/驚く,心配する,不安定な\item満足・不満(目標活動・欲求充足的):報いる,充実,うれしい/怒る,陳腐,あきあきした\end{itemize}\item人間や組織の振舞や行為の判断や批評(judgment)\\人間や組織の振舞,行為,信念,性格に焦点を当て,規範,規則,社会的期待,価値体系に基づく(提案的なニュアンスの)批評や賞賛を分類する.これらは,副詞(正直に),属性形容詞(腐敗した政治家),叙述形容詞(残酷な),名詞(暴君,嘘つき),動詞(だます)で表される.批評を誘発する具体的な振舞や行為の記述も含む.モダリティ助動詞(可能,義務,意思)や副詞(確率,程度)は,批評を強調する.肯定・否定の両面から,以下の下位タイプを指定する.\begin{enumerate}\item世評に基づく尊敬・軽蔑(比較しやすい)\begin{itemize}\item通常・特別(特殊性):精通した,自然な,ラッキー/奇妙,風変わり,独特な\item有能・無能(有能さ):強力な,健全な,成熟した/弱い,愚かな,鈍い\item頑強・軽薄(信頼性):勇敢,信頼に足る,忠実/軽率,せっかちな,臆病な\end{itemize}\item道徳に基づく是非((a).より対象に固有で比較されていない)\begin{itemize}\item真実・不実(誠実さ):正直,信憑性ある,率直/だます,嘘つき,ひねくれた\item倫理(親切・謙虚等)・邪悪(我侭・高慢等)(倫理的是非):寛容,親切,礼儀正しい/邪悪,残酷な,わがままな\end{itemize}\end{enumerate}\item事物や事象に対する評価(appreciation)\\事物(自然物,人工物,芸術作品,建造物,構造,人間(ハンサム,ブ男)等)や抽象物(計画,政策等)に焦点を当て,美的感覚,社会的な意義に基づく評価を,客観化(あるいは一般化)された事物の属性や命題のように表現する.この意見は,商品の評判分析などで重要な役割を果たす.肯定・否定の判断基準と用語の選択は,ドメインに依存する.抽象物を対象とした場合は,(2)判断や批評とあいまいになる場合があるが,文脈で判断する.肯定・否定の両面から,以下の下位タイプを指定する.\begin{enumerate}\item対象に対する主体の反応\begin{itemize}\item衝撃・退屈(感想・反応):目立つ,刺激的,強烈な/うんざり,単調な,あきあきする\item魅力・嫌悪(質感・反応):華麗,美しい,魅惑的/不愉快な,グロテスクな,むかつく\end{itemize}\item対象の構成・構造に対する形状的・観念的美醜\begin{itemize}\item調和・混乱(構成・構造):均整のとれた,一貫/むらのある,矛盾,ずさん\item明瞭・複雑(構成・構造):純粋,わかりやすい/飾り立て,仰々しい,わかりにくい\end{itemize}\item対象の価値評価\begin{itemize}\item有用・無用や有害(社会的意義を反映した観念の認識,ドメインや文化に依存):鋭い,革新的な,タイムリーな/つまらない,従来の,浅はかな,有害な\end{itemize}\end{enumerate}\end{enumerate}また,上記では含まれない認識や言語行為を表す中立的な意見のタイプを,新たな意見の詳細タイプ({\bf認識・行為タイプ})として定義した.このタイプは,態度タイプを付与できないが意見を含んでいると考えられる文について,アノテータから提案されたタイプを検討することで定義した.以下に8つの下位タイプを示す.\begin{itemize}\item推測:〜ではないか/〜だと思う等.個人的な見通しを述べている.\item提起:〜しよう(誘い)/〜すべきだ・すべきではないか.\item賛否:そうですね/そうではないと思う.\item感謝:感謝します/ありがとうございます.\item謝罪:申し訳ないです/すみません.\item同情:可哀想だ/大変ですね.\item疑問:そうでしょうか.\item同意要求:〜ですよね/〜するほうがいいでしょうか.\end{itemize}\subsection{意見対象タイプの定義と既存アノテーションの活用}\label{subsec:targettype}\ref{subsec:dialogue}節でも述べたように,対話型の文書ジャンルにおいて意見を分析する上では,意見の詳細タイプだけではなく,意見対象と組み合わせて分析を行うことが重要となる.意見対象,すなわち何についての意見かという情報は,\ref{subsec:basic}節で述べたように,本コーパスでは文字列単位でアノテートをしている.ただ,意見情報を詳細に分析し,質問や回答やドメインに応じた意見の傾向を分析しようと考えた場合,文字列をそのまま使用するのではなく,分類体系に基づく抽象化が必要となる.このような情報を利用できるリソースとして,BCCWJのコアデータを対象として,拡張固有表現\cite{sekine2007ene}をアノテートして公開されたコーパス\cite{hasimoto2009nl}がある.拡張固有表現の表現体系は,3階層の200のカテゴリから構成されているが,意見対象をタイプ分類する上では,詳細すぎない体系が良いと考え,第1階層の26のタイプ(人名,組織名,製品名,自然物名など)を意見対象タイプの分類体系として採用する.また,意見対象のタイプは,拡張固有表現の分類体系と必ずしも対応しておらず,一般名詞が反映する概念も重要である場合があることから,新たに,抽象概念(例,措置,耕作放棄地,善悪,正義),行為概念(例,発言,マデシ政権の要求,片付け,散歩),人間属性概念(例,体重,健康,血圧)の3つのタイプを追加した.以上を踏まえ,意見対象タイプは,拡張固有表現を参考にし,以下の手順でアノテーションを行った.\begin{enumerate}\item本研究でアノテートした意見対象の文字列と,拡張固有表現コーパスの同一文書中のアノテートされた文字列とを比較し,完全一致の場合には,そのまま拡張固有表現のタイプを意見対象タイプとして採用した.\item完全に一致する文字列がない場合には,文字列間の編集距離が近い順に候補を提示し,その中からアノテータが選択することにより,半自動的にアノテートした.\item1と2の作業が終了した後で,一般名詞などの文字列で表現される意見対象について,アノテーションを追加した.\end{enumerate}\subsection{アノテーションツール}\label{subsec:annotationtool}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA10f1.eps}\end{center}\caption{使用したアノテーションツール}\label{fig:annotationtool}\end{figure}本研究では,ウェブブラウザでアクセスできるアノテーションツール\footnote{本ツールは,他の意見分析タスク\cite{seki2010ntcirov}でも使用されている.}をアノテータに公開して使用させ,コーパスを構築した.アノテーションツールを図\ref{fig:annotationtool}に示す.本ツールでは,右フレームに作業対象全文が示されており,文の区切りを修正することができる(修正した文については,他のアノテータと区切りを共有する).そのうちの1つの文を対象として,左フレームで各属性についてアノテーションを行う.必要なアノテーションを行ったら,結果の保存ボタンを押す.この段階で,アノテーションが必要な属性についてチェックが行われていない場合には,そのことを注意するウィンドウがポップアップする.必要な属性をすべてアノテートし,結果の保存に成功すると,次の文のアノテーションが行えるようになる.一度保存された結果は,次にツールにアクセスするときには,読み込まれてチェックボックスがチェックされた状態で,以前にアノテートした属性を確認あるいは修正できる.複数のアノテータ同士では,各文の区切り方のみ情報が共有されており,各アノテータによるアノテーション情報は,別々に保存されている.各アノテータは,ツールにアクセスするときに自分のアノテータIDでログインすることにより,自らがアノテートした以前の情報にアクセスできる.\subsection{アノテータについて}アノテータは,Yahoo!知恵袋を日常的に閲覧する社会人(情報収集を日常業務とする職種)を対象として,2名のアノテータ(男女1名ずつ)を雇用した.これとは別に,新聞記事に同様の意見情報を付与するアノテータを2名雇用し,両文書ジャンルのアノテーション方針の調整役を1名,全体の取りまとめ役を1名雇用した.新聞記事のアノテーションを並行して行ったのは,従来の意見分析コーパスの文書ジャンルとの共通性ならびに違いを明らかにする目的で行った.また,これらのアノテーションが終わった後に,Yahoo!ブログと国会会議録を対象として,同様にアノテータを2名ずつと取りまとめ役を1名雇用して,アノテーションを行った.\subsection{アノテーションの手順}\label{subsec:annotation_methodology}意見分析の代表的なコーパスのひとつに,\ref{subsec:mpqa}節でも紹介した,{\itMPQA}({\itMulti-PerspectiveQuestionAnswering})意見コーパス\footnote{http://www.cs.pitt.edu/mpqa/}があり,意見情報のアノテーションのフレームワークを,多数のアノテータによる実験を通して厳密に定めている\cite{wiebe2005lre}.アノテーションの方針としては,(1)文脈を考慮して判定する(2)方針を一貫させる,などがあり,サンプルを使ってアノテータを訓練することにより,アノテーションの方針を自分だけではなく他人とも一貫させるように訓練することにより,方針のずれを修正することを重視している.以上を踏まえ,本研究のアノテーションの手順は,以下のとおりとした.\begin{enumerate}\itemアノテータは遠隔で判定作業を行った後で,疑問に思った点などを書き出す.\itemアノテータ全員と直接対面することで,不明確な方針について議論を行い,方針を固めた後で,アノテーションマニュアルを作成する.\itemマニュアルに基づき,サンプルデータについてアノテータ同士の判定の一致度を調査し,判定が一致してきたことを確認した後,すべてのデータについて判定を行う.\end{enumerate}作業は,アノテータを決定した後,\ref{subsec:corpus}節で紹介したサンプルデータ(70文書,各質問カテゴリ10文書)を対象として,20日間にわたりアノテーションを行い,疑問点などを洗い出した後,著者を含む7名が直接対面し,方針について議論セッションを行った.これに伴い,一部アノテーション属性などについて修正を行った後,2週間ほどかけて著者と取りまとめ役との間で調整を行い,アノテーションのガイドラインを取りまとめた.このアノテーションガイドラインに基づき,約1ヶ月をかけて残りの文書についてアノテーションを行った.作業に要した時間は,サンプルデータのアノテーションが12時間,議論セッションが約4時間,残りのアノテーションの時間が46時間であった. \section{コミュニティQAを対象とした意見情報のアノテーション作業の特徴} \label{sec:communityQA_annotation}コミュニティQAのような対話的な文書は,新聞記事のようなモノローグ的な文書と比べると,対話相手に(できるだけ早い段階の)反応を喚起するような言い回しを積極的に活用する点に特徴がある.コミュニティQAにおいては,質問者は,一般には,そのスタンス,あるいは立場や価値観を,短い文書を通じて共有してもらいつつ回答を促す.回答者は,同様に,質問者に回答を通じて回答者のスタンス,立場,価値観を共有,あるいは覆すよう働きかける.こうした分析のために,本研究では,\ref{sec:corpus}節で導入した態度タイプ\cite{martin2005}や認識・行為タイプなどの意見の詳細タイプを採用することにより,質問者や回答者,あるいはその他のスタンスを区別することが可能となると考える.コーパスを用いた分析については,\ref{sec:analysis}節で述べる.本節では,最初に意見・体験情報の基本属性の分布を示した後で,意見の詳細タイプをアノテートする上での課題や解決策について議論する.\subsection{コミュニティQAにおける意見情報アノテーションの分布}\label{subsec:distribution}まず,Yahoo!知恵袋コーパスにおける意見・体験情報の基本属性の分布を,全体ならびにコミュニケーションタイプ\cite{adamic2008www,kabutoya2008dbsj}別に表\ref{table:yahoo_distribution}に示す.\begin{table}[b]\caption{Yahoo!知恵袋コーパス中の意見・体験情報の分布}\label{table:yahoo_distribution}\input{ca10table04.txt}\end{table}全体の分布から,Yahoo!知恵袋においては,質問・回答ともに意見情報が多く現れているが,特に回答に多く現れている\footnote{t-検定(有意水準1\%,両側検定)で,各カテゴリの質問中の意見に対する有意差あり.}こと,それに対して体験情報は,質問にやや多く現れている\footnote{t-検定(有意水準5\%,両側検定)で,各カテゴリの回答中の体験に対する有意差あり.}ことがわかる.また,肯定意見は質問において特に少ない\footnote{Dunnettの多重比較検定(有意水準5\%)で,各カテゴリの質問中の否定意見,中立意見の構成比に対する有意差あり.}.これは,何らかの悩みを持ったユーザが,コミュニティQAサイトにおいて質問をしていることを考えれば自然な結果である.また,回答においては,特に中立的な回答が多い\footnote{Dunnettの多重比較検定(有意水準5\%)で,各カテゴリの回答中の肯定意見,否定意見の構成比に対する有意差あり.}.これは,ベストアンサーにおいては,中立的な意見が好まれる傾向があることを反映していると考えられる.コミュニケーションタイプについては,``知識交換''タイプでは,``相談''や``議論''に比べて意見情報が少ない傾向が見られる.また,``議論''タイプの質問では,体験情報が少ない傾向が見られる.さらに,従来の意見分析の文書ジャンルである新聞記事,ブログと,コミュニティQAの間で,意見の詳細タイプの構成比を比較した結果を表\ref{table:attitude_rate},表\ref{table:act_rate}に示す\footnote{なお,Yahoo!知恵袋とYahoo!ブログについて,表3,表4の構成比の合計値が100\%を超えているのは,態度タイプと認識・行為タイプとの重複付与を許していることによる.}.構成比は,意見の総数を分母とし,該当する意見タイプに分類された頻度を分子とした100分率を求めてから,すべての質問カテゴリ(またはトピック)に対するマクロ平均を計算した.これらの表から,コミュニティQAに対する意見のアノテーションは,認識・行為タイプが3分の1以上の意見に対して付与されているのに対して,他の文書ジャンルは20\%弱,5\%強となっており,特に,``提起''のような,質問者や回答者に働きかけを行う意見が多く出現する傾向が見られる.\begin{table}[b]\caption{各文書ジャンルの意見の態度タイプの構成比(\%)}\label{table:attitude_rate}\input{ca10table05.txt}\end{table}\begin{table}[b]\caption{各文書ジャンルの意見の認識・行為タイプの構成比(\%)}\label{table:act_rate}\input{ca10table06.txt}\end{table}\subsection{コミュニケーションタイプごとのアノテーションの課題}\label{subsec:communication_annotation}アノテータ間の判定の一致度は,$\kappa$係数\cite{cohen1960}を用いて計算した.サンプルは,\ref{subsec:corpus}節でサンプルデータとして紹介した70文書を選択した.2名のアノテータ間での判定一致度($\kappa$係数)を確認した結果を表\ref{table:kappa_communication}に示す.なお,片方のアノテータが意見性がないと判定した場合などは,片方の意見者の値は空値となるため,空値をタイプの1つとみなして$\kappa$係数を計算していることに注意されたい.また,\ref{subsec:basic}節で述べた意見を分割する場合についてであるが,この点については,取りまとめ役の第3者を通して,事前に区切る場所のみアノテータ同士で協議一致させた上で,値を計算している\footnote{ただし,Yahoo!知恵袋については,1文を区切って複数の意見をアノテートするケースはさほど多くない.}.表\ref{table:kappa_communication}の結果から,意見性,極性については,almostperfect/ほとんど一致,あるいは,substantial/かなりの一致\cite{landis1977}という結果になったが,その他の属性については,moderate/中程度の一致となった.\begin{table}[t]\caption{サンプルデータを用いた各コミュニケーションタイプのアノテータ間判定一致度($\kappa$係数)}\label{table:kappa_communication}\input{ca10table07.txt}\end{table}また,2名のアノテータによるコミュニケーションタイプのアノテーションが一致した結果により,アノテーションを分類した結果についても,一致度を計算した.この結果と\ref{subsec:distribution}節の表\ref{table:yahoo_distribution}の結果を比較することで,そのコミュニケーションタイプにおいて少ない傾向が見られた,``知識交換タイプ''の``態度''と``認識・行為''や,``議論タイプ''における``体験情報''などの一致度が低いことが分かる.この結果から,コミュニケーションの目的から直感的に連想されにくい情報のアノテーションは,判定がゆれる傾向が見られる.たとえば,質問カテゴリ「インターネット」における,以下のような回答を考える.\begin{itemize}\item「POWERMANAGEMENTの項目で設定ができます。」\item「具体的には、PCをがばっと広げて、メモリーと呼ばれる板っ切れを、ぶすっと突き刺せば、OKです。」(一部抜粋)\end{itemize}このような文は,質問に対する手続き的な回答を示していると考えれば,意見性はないと判断することもできる一方で,機能の有用性を示す意見,提起を示す意見と判断される場合もある.\subsection{アノテーションが一致しない事例とその解決策}態度タイプについて,不一致の多い意見タイプを調査したところ,``頑強・軽薄(信頼性)''と``真実・不実(誠実さ)''に不一致があることがわかった.この点については,前者は,世評に基づく尊敬・軽蔑であり,後者は,道徳に基づく是非であることをアノテーションマニュアル中に強調した.その他の問題点としては,\ref{subsec:communication_annotation}節の例にも関連するが,片方のアノテータが,別のアノテータの付与した属性を,付与していないケースが散見された.これは多属性のアノテーションにおいては避けがたい問題であるが,認識・行為タイプと,態度タイプについては,共に付与する場合と,片方だけ付与する場合がある.これについては,以下のような記述をアノテーションマニュアル中に用意し,アノテータに教示することで改善を試みた.\begin{enumerate}\item態度タイプに該当するものがなく,認識・行為タイプのみを選択する例.\begin{itemize}\itemかつて海南市内にも町内に一軒位の割合でお好み焼き屋さんがあったように思う.\\\hfill(推測)\item米国,日本のファンの後押しには感謝しています.\hfill(感謝)\item私は,ハイレベル委員会の指摘に基本的に賛成です.\hfill(賛否)\itemそれはショックですよね.\hfill(同情)\item落札する前に聞いたほうがいいですよね?\hfill(同意要求)\end{itemize}\item態度タイプを分類しながら,認識・行為タイプにも該当するものがある場合の例.\begin{itemize}\itemみんなで周辺に空いている土地を探そう.\hfill(態度タイプ(切望・敬遠)+提起)\item多数の職員において民間金融機関等との間に公務員としての節度を欠いた関係があったことはまことに遺憾であり,改めて国民の皆様に深くおわび申し上げます.\\\hfill(謝罪+態度タイプ(幸せ・不幸))\itemところで皆さんは福田総理を信用できますか?\hfill(疑問+態度タイプ(頑強・軽薄))\itemこれは,明らかに異常な状況だが,今の内務大臣の解決能力を超える事態であるのかもしれない.\hfill(態度タイプ「調和・混乱」,認識・行為「推測」)\end{itemize}\end{enumerate}BCCWJ中の別の文書ジャンルである国会会議録やブログについては,これらの知見を踏まえた上でアノテーションを行い,\ref{subsec:corpus}節で説明したサンプルデータを用いて,$\kappa$値を計算しており,表\ref{table:kappa}に示すとおり一致度は改善した.\begin{table}[t]\caption{サンプルデータを用いた各文書ジャンルのアノテータ間判定一致度($\kappa$係数)}\label{table:kappa}\input{ca10table08.txt}\end{table} \section{Yahoo!知恵袋コーパスを用いた意見・体験情報の分析} \label{sec:analysis}本節では,\ref{sec:corpus}節で作成したYahoo!知恵袋を対象としたコーパスを用いて,以下の3つの分析を行う.\begin{enumerate}\item質問,回答に出現する意見・体験情報の傾向の分析.\item質問,回答に出現する意見・体験情報の対応関係の分析.\item質問,回答に出現する意見・体験情報の構造の分析.\end{enumerate}\ref{subsec:dialogue}節で紹介した関連研究によると,意見と意見の対象との関係は,著者のスタンスを反映している.この考えに基づき,本研究では,\ref{subsec:opiniontype}節と\ref{subsec:targettype}節で定義した,意見の詳細タイプと意見対象タイプのペアを基本単位として,質問と回答を含む対話型の文書ジャンルであるコミュニティQAにおける意見の特徴について分析する.また,\ref{subsec:domain}節でも議論した,意見のドメインあるいはコミュニケーションの目的に応じた差異を明らかにするために,各ドメイン(Yahoo!知恵袋の質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi})ならびにコミュニケーションタイプ\cite{adamic2008www,kabutoya2008dbsj}ごとに分析を行い,それぞれの質問カテゴリやコミュニケーションタイプに応じた意見・体験情報の特徴を明らかにする.これにより,特定のドメインやコミュニケーションの目的において意見を求める情報要求に応じて,トピックを表す語彙の分布を考慮するだけではなく,意見の詳細タイプに基づき,適切な回答を構成する応用を実現するための知見を提供する.\subsection{質問,回答に出現する意見・体験情報の傾向の分析}\label{subsec:analysis1}まず,質問カテゴリとコミュニケーションタイプとの対応関係を表\ref{table:yahoo_correspondance}に示す.各カテゴリには,コミュニケーションタイプに対する偏りがあることが明らかであり,\citeA{kabutoya2008dbsj}の主張とも合致する.\begin{table}[p]\caption{Yahoo!知恵袋の質問カテゴリとコミュニケーションタイプの対応}\label{table:yahoo_correspondance}\input{ca10table09.txt}\end{table}これを踏まえて,意見の詳細タイプ(態度タイプ,認識・行為タイプ)と意見対象タイプの組合せ,ならびに体験主と体験タイプの組合せのうち,特定のコミュニケーションタイプを反映したカテゴリの質問あるいは回答として,コーパス中に3件以上出現する組合せを,表\ref{table:yahoo_consult},表\ref{table:yahoo_discussion},表\ref{table:yahoo_knowledge}に示す.なお,意見情報については``意見の詳細タイプ—意見対象タイプ'',体験情報については,``体験主:体験タイプ''といった表記をしている.意見の詳細タイプについては,\ref{subsec:opiniontype}節の表記に従う.なお,表中に掲載されていない質問カテゴリは,3件以上出現する組合せがなかったことを意味する.以上の点は,これ以降の表でも同じ表記を採用する.\begin{table}[t]\caption{相談タイプの質問・回答に頻出する意見・体験情報}\label{table:yahoo_consult}\input{ca10table10.txt}\end{table}表\ref{table:yahoo_consult}から,全般に,``相談''タイプの質問においては,``最近の体験''が多い傾向が見られる.また,同じ``相談''を対象とした意見でも,質問カテゴリごと,あるいは質問と回答ごとに傾向が異なる.もっとも顕著な傾向が出ているのは``恋愛相談,人間関係の悩み''のカテゴリで,\\``人間'',``行為''に関係する``魅力・嫌悪''などの評価や,``不安''などが出現している.また,回答は,質問と比べて肯定・否定のバランスが取れてきていると同時に,``行為の提起''などの中立意見が増えている.``病気,症状,ヘルスケア''も同様の傾向が見られるが,対象に``病気''や\\``自然物名''(体の一部)が含まれる点が異なる.``Yahoo!オークション''については,``有用・無用''に関わる意見が含まれたり,``製品名''が対象となっている点が異なる.表\ref{table:yahoo_discussion}からは,``議論''タイプについては,``政治,社会問題'',``テレビ,ラジオ''などのカテゴリが増えていることがわかる.``政治,社会問題''については,``組織名''を対象として,``軽薄''あるいは``倫理''的に問題があるといった意見が出現している.``テレビ,ラジオ''については,\\``製品名''(番組名)の``魅力''について議論している.``恋愛相談,人間関係の悩み''については,``相談''の場合と比較して大きくは異ならないが,回答に肯定的な意見が少ない傾向が見られる.また,全般に体験の情報は,``相談''タイプと比べて少ない傾向が見られる.表\ref{table:yahoo_knowledge}からは,``知識交換''をするための意見は,回答のあいまい性の少ない知識に関係した質問カテゴリに出現することがわかる.``最近の体験''は,``相談''と同じく全般に質問中によく出現する傾向が見られる.``パソコン,周辺機器''のカテゴリにおいては,質問には,``製品名''を対象とした``切望''や``不満''などの意見が多い傾向が見られるのに対して,回答には,``製品名''を``提起''するなどの意見が見られる.``病気,症状,ヘルスケア''や``Yahoo!オークション''などのカテゴリにおいても,回答については,``病気名''や``製品名''(薬品名)あるいは``行為''について,``提起''あるいは``推測''するといった傾向が見られる.\begin{table}[t]\caption{議論タイプの質問・回答に頻出する意見・体験情報}\label{table:yahoo_discussion}\input{ca10table11.txt}\end{table}\begin{table}[t]\caption{知識交換タイプの質問・回答に頻出する意見・体験情報}\label{table:yahoo_knowledge}\input{ca10table12.txt}\end{table}\subsection{質問,回答に出現する意見・体験情報の対応関係の分析}\label{subsec:analysis2}次に,質問と回答の対応関係について分析を行う.\ref{subsec:analysis1}節と同様に,今度は質問と回答(ベストアンサー)とのペアについて,出現する意見・体験情報の対応がつくもののうち,出現頻度が3を超えるものを表\ref{table:yahoo_qaseq_consult}と表\ref{table:yahoo_qaseq_knowledge}に示す.なお,``議論''タイプについては,質問と回答のペアで出現頻度が3を越えるものがなかったため,提示していない.表\ref{table:yahoo_qaseq_consult}から,``相談''タイプにおいては,3つのカテゴリにおいて質問・回答の対応が見られる.``恋愛相談,人間の悩み''では,質問者の``最近の体験''に対して,何らかの``行為''の``提起''が返答される傾向が見られる.また,何らかの``敬遠''すべきあるいは``不安''を覚える\\``行為''について質問した場合,同じく``行為''の``提起''が回答される傾向が見られる.これに対して,``Yahoo!オークション''では,``製品''あるいは``行為''についての``疑問''に対して,\\``製品''や``行為''を``提起''するといった回答がある.また,質問者の``最近の体験''に対して,\\``行為''の``有用・無用''について回答をする場合もある.``病気,症状,ヘルスケア''では,回答に``病気名''を``提起''したり,``安心''感を与えるようなことを中立的に回答することがある.\begin{table}[t]\caption{相談タイプの質問と回答のペアに頻出する意見・体験情報}\label{table:yahoo_qaseq_consult}\input{ca10table13.txt}\end{table}\begin{table}[t]\caption{知識交換タイプの質問と回答のペアに頻出する意見・体験情報}\label{table:yahoo_qaseq_knowledge}\input{ca10table14.txt}\end{table}表\ref{table:yahoo_qaseq_knowledge}から,``知識交換''タイプにおいては,``パソコン,周辺機器''のカテゴリでは,質問者の``最近の体験''に基づき質問をすると,``製品名''を``提起''したりその``有用''性を回答する傾向が見られる.また,``製品''の``不満''を訴える質問に対しても,``製品名''を``提起''する回答がある.その他,``病気,症状,ヘルスケア''や``Yahoo!オークション''のカテゴリでは,質問者の``最近の体験''に対して,``製品名''や``病気名''を``提起''したり,``著者の過去の体験''に基づき明確な知識を回答する場合がある.\subsection{質問,回答に出現する意見・体験情報の構造の分析}最後に,質問,回答における意見・体験情報の構造を分析するために,前節と同様に,意見情報あるいは体験情報の前後に続く組合せのうち,出現頻度が3を超えるものを対象として分析を行った.その結果,Yahoo!知恵袋の質問または回答では,コミュニケーションタイプに関わらず,同じタイプの意見・体験情報を続けることが多い傾向が見られた.また,``パソコン,周辺機器''のカテゴリにおいて``知識交換''をする場合には,``製品''に対する``満足・不満''と質問者の``最近の体験''が連続する場合があることもわかった. \section{おわりに} \label{sec:conclusion}本稿では,従来,ニュース,レビュー,ブログなどが対象となって構築されていた意見分析コーパスについて,質問と回答を含む対話型の文書ジャンル,具体的にはBCCWJのYahoo!知恵袋を対象として意見分析コーパスを構築した.意見分析コーパスの構築にあたっては,従来の意見分析では行われてこなかった詳細な分析を目指し,態度タイプ\cite{martin2005}や,アノテータとの協議を通じて定義した認識・行為タイプといった意見の詳細タイプのアノテーションを行った.また,多数の属性の判定にあたり,一貫したアノテーションを実現するための課題や工夫点を紹介した.さらに,コミュニケーションタイプ\cite{kabutoya2008dbsj}や体験情報\cite{seki2008wi2}をアノテートし,意見対象タイプを拡張固有表現コーパス\cite{hasimoto2009nl}を利用してアノテートすることにより,意見の詳細タイプや質問カテゴリと重ね合わせることで,従来の極性分類に基づくコミュニティQAを対象とした意見分析\cite{kucu2012wsdm}では明らかにできなかった,質問カテゴリやコミュニケーションタイプごとの詳細な意見の傾向の違いや,質問と回答間の意見・体験情報の関係を明らかにした.今後の課題は,これら多数の属性を自動的にアノテーションすることにより,より大規模なデータを対象とした傾向を分析することにある.態度タイプなどの自動アノテーションに関する研究は,\citeA{arg2009lang}など,あまり数多くないが,態度評価辞書\footnote{http://www.gsk.or.jp/catalog/gsk2011-c/}の公開なども進んでおり,引き続き取り組んでいきたい.また,多属性のデータは,個別の属性の教師データが十分に得られないという課題があるが,この点は半教師ありトピックモデル\cite{kim2012icml}などの知見を活用することを検討している.{\addtolength{\baselineskip}{-1pt}\acknowledgment『現代日本語書き言葉コーパス(BCCWJ)』は,国立国語研究所により提供されたものを利用した.ここに深く感謝する.本研究の一部は,科学研究費補助金基盤研究C(課題番号24500291),基盤研究B(課題番号25280110),萌芽研究(課題番号25540159),ならびに筑波大学図書館情報メディア系プロジェクト研究による助成に基づき遂行された.\par}\vspace{-0.5\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{{阿部}\JBA{古宮}\JBA{小谷}}{{阿部}\Jetal}{2011}]{abe2011yans}{阿部}裕司\JBA{古宮}嘉那子\JBA{小谷}善行\BBOP2011\BBCP.\newblock相互情報量を用いた質問応答システムのためのクエリ拡張.\\newblock\Jem{NLP若手の会第6回シンポジウム}.\bibitem[\protect\BCAY{{Adamic},{Zhang},{Bakshy},\BBA\{Ackerman}}{{Adamic}et~al.}{2008}]{adamic2008www}{Adamic},L.~A.,{Zhang},J.,{Bakshy},E.,\BBA\{Ackerman},M.~S.\BBOP2008\BBCP.\newblock\BBOQKnowledgeSharingandYahooAnswers:EveryoneKnowsSomething.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonWorldWideWeb(WWW2008)},\mbox{\BPGS\665--674},Beijing,China.\bibitem[\protect\BCAY{{Aikawa},{Sakai},\BBA\{Yamana}}{{Aikawa}et~al.}{2011}]{aikawa2011tod}{Aikawa},N.,{Sakai},T.,\BBA\{Yamana},H.\BBOP2011\BBCP.\newblock\BBOQCommunityQAQuestionClassification:IstheAskerLookingforSubjectiveAnswersorNot?\BBCQ\\newblock{\Bem{IPSJTransactionsonDatabases}},{\Bbf4}(2),\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Argamon,Bloom,Esuli,\BBA\Sebastiani}{Argamonet~al.}{2009}]{arg2009lang}Argamon,S.,Bloom,K.,Esuli,A.,\BBA\Sebastiani,F.\BBOP2009\BBCP.\newblock\BBOQ{AutomaticallyDeterminingAttitudeTypeandForceforSentimentAnalysis}.\BBCQ\\newblockIn{\Bem{HumanLanguageTechnology.ChallengesoftheInformationSociety}},\lowercase{\BVOL}\5603of{\BemLectureNotesinComputerScience},\mbox{\BPGS\218--231},Poznan,Poland.\bibitem[\protect\BCAY{Balahur,Boldrini,Montoyo,\BBA\Martinez-Barco}{Balahuret~al.}{2010}]{balahur2010ecai}Balahur,A.,Boldrini,E.,Montoyo,A.,\BBA\Martinez-Barco,P.\BBOP2010\BBCP.\newblock\BBOQ{OpinionQuestionAnswering:TowardsaUnifiedApproach}.\BBCQ\\newblockIn{\Bem{ProceedingsofEuropeanConferenceonArtificialIntelligence(ECAI)}},\mbox{\BPGS\511--516}.IOSPress.\bibitem[\protect\BCAY{{Bazerman}\BBA\{Prior}}{{Bazerman}\BBA\{Prior}}{2004}]{bazerman2004}{Bazerman},C.\BBACOMMA\\BBA\{Prior},P.\BBOP2004\BBCP.\newblock{\Bem{WhatWritingDoesandHowItDoesIt}}.\newblockLawrenceErlbaumAssociates.\bibitem[\protect\BCAY{{Berger},{Caruana},{Cohn},{Freitag},\BBA\{Mittal}}{{Berger}et~al.}{2000}]{berger2000sigir}{Berger},A.,{Caruana},R.,{Cohn},D.,{Freitag},D.,\BBA\{Mittal},V.\BBOP2000\BBCP.\newblock\BBOQ{BridgingtheLexicalChasm:StatisticalApproachestoAnswer-finding}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe23rdAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval}},\mbox{\BPGS\192--199},{Athens,Greece}.\bibitem[\protect\BCAY{{Blitzer},{Dredze},\BBA\{Pereira}}{{Blitzer}et~al.}{2007}]{blit2007acl}{Blitzer},J.,{Dredze},M.,\BBA\{Pereira},F.\BBOP2007\BBCP.\newblock\BBOQ{Biographies,Bollywood,Boom-boxesandBlenders:DomainAdaptationforSentimentClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL2007)},\mbox{\BPGS\440--447},Prague,CzechRepublic.\bibitem[\protect\BCAY{{Bollegala},{Weir},\BBA\{Carroll}}{{Bollegala}et~al.}{2011}]{bolle2011acl}{Bollegala},D.,{Weir},D.,\BBA\{Carroll},J.\BBOP2011\BBCP.\newblock\BBOQ{UsingMultipleSourcestoConstructaSentimentSensitiveThesaurusforCross-DomainSentimentClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\132--141},Portland,Oregon.\bibitem[\protect\BCAY{{Cohen}}{{Cohen}}{1960}]{cohen1960}{Cohen},J.\BBOP1960\BBCP.\newblock\BBOQ{ACoefficientofAgreementforNominalScales}.\BBCQ\\newblock{\Bem{EducationalandPsychologicalMeasurement}},{\Bbf20}(1),\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{{Dang}}{{Dang}}{2008}]{dang2008tac}{Dang},H.~T.\BBOP2008\BBCP.\newblock\BBOQ{OverviewoftheTAC2008OpinionQuestionAnsweringandSummarizationTasks}.\BBCQ\\newblockIn{\Bem{ProceedingsofTextAnalysisConferences2008(TAC2008)}},\mbox{\BPGS\24--35}.\bibitem[\protect\BCAY{{橋本}\JBA{乾}\JBA{村上}}{{橋本}\Jetal}{2009}]{hasimoto2009nl}{橋本}泰一\JBA{乾}孝司\JBA{村上}浩司\BBOP2009\BBCP.\newblock拡張固有表現タグ付きコーパスの構築.\\newblock\Jem{情報処理学会第188回自然言語処理研究会},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{{He},{Lin},\BBA\{Alani}}{{He}et~al.}{2011}]{he2011acl}{He},Y.,{Lin},C.,\BBA\{Alani},H.\BBOP2011\BBCP.\newblock\BBOQ{AutomaticallyExtractingPolarity-BearingTopicsforCross-DomainSentimentClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\123--131},Portland,Oregon.\bibitem[\protect\BCAY{乾\JBA原}{乾\JBA原}{2008}]{inui2008nlp}乾{健太郎}\JBA原{一夫}\BBOP2008\BBCP.\newblock{経験マイニング:Webテキストからの個人の経験の抽出と分類}.\\newblock\Jem{{言語処理学会第14回年次大会発表論文集}},\mbox{\BPGS\1077--1080},東京大学.\bibitem[\protect\BCAY{{乾}\JBA{奥村}}{{乾}\JBA{奥村}}{2006}]{inui2006}{乾}孝司\JBA{奥村}学\BBOP2006\BBCP.\newblock{テキストを対象とした評価情報の分析に関する研究動向}.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{{甲谷}\JBA{川島}\JBA{藤村}\JBA{奥}}{{甲谷}\Jetal}{2008}]{kabutoya2008dbsj}{甲谷}優\JBA{川島}晴美\JBA{藤村}考\JBA{奥}雅博\BBOP2008\BBCP.\newblockQAサイトにおける質問応答グラフの成長パターン分析.\\newblock{\Bem{DBSJJournal}},{\Bbf7}(3),\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{{Kim},{Kim},\BBA\{Oh}}{{Kim}et~al.}{2012}]{kim2012icml}{Kim},D.,{Kim},S.,\BBA\{Oh},A.\BBOP2012\BBCP.\newblock\BBOQ{DirichletProcesswithMixedRandomMeasures:ANonparametricTopicModelforLabeledData}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe29thInternationalConferenceonMachineLearning(ICML2012)}},\mbox{\BPGS\727--734},{Edinburgh,Scotland,UK}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{koba2006signl}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク使用に関する考察.\\newblock\Jem{情報処理学会,第171回自然言語処理研究会},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{{Kucuktunc},{Cambazoglu},{Weber},\BBA\{Ferhatosmanoglu}}{{Kucuktunc}et~al.}{2012}]{kucu2012wsdm}{Kucuktunc},O.,{Cambazoglu},B.~B.,{Weber},I.,\BBA\{Ferhatosmanoglu},H.\BBOP2012\BBCP.\newblock\BBOQ{ALarge-ScaleSentimentAnalysisforYahoo!Answers}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalConferenceonWebSearchandWebDataMining(WSDM2012)}},\mbox{\BPGS\633--642},Seattle,WA,USA.\bibitem[\protect\BCAY{{倉島}\JBA{藤村}\JBA奥田}{{倉島}\Jetal}{2008}]{kurashima2008dews}{倉島}健\JBA{藤村}考\JBA奥田{英範}\BBOP2008\BBCP.\newblock{大規模テキストからの経験マイニング}.\\newblock\Jem{{電子情報通信学会第19回データ工学ワークショップ(DEWS2008)}},\mbox{\BPGS\A1--4}.\bibitem[\protect\BCAY{{栗山}\JBA{神門}}{{栗山}\JBA{神門}}{2009}]{kuriyama2009fi}{栗山}和子\JBA{神門}典子\BBOP2009\BBCP.\newblock{Q\&Aサイトにおける質問と回答の分析}.\\newblock\Jem{情報処理学会研究報告情報学基礎研究会報告},95\JVOL.\bibitem[\protect\BCAY{{Landis}\BBA\{Koch}}{{Landis}\BBA\{Koch}}{1977}]{landis1977}{Landis},J.~R.\BBACOMMA\\BBA\{Koch},G.~G.\BBOP1977\BBCP.\newblock\BBOQ{TheMeasurementofObserverAgreementforCategoricalData}.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{{Li},{Liu},{Ram},{Garcia},\BBA\{Agichtein}}{{Li}et~al.}{2008}]{li2008sigir}{Li},B.,{Liu},Y.,{Ram},A.,{Garcia},E.~V.,\BBA\{Agichtein},E.\BBOP2008\BBCP.\newblock\BBOQ{ExploringQuestionSubjectivityPredictioninCommunityQA}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe31stACMSIGIRConference}},\mbox{\BPGS\735--736},Singapore.\bibitem[\protect\BCAY{{Li},{Pan},{Jin},{Yang},\BBA\{Zhu}}{{Li}et~al.}{2012}]{li2012acl}{Li},F.,{Pan},S.~J.,{Jin},O.,{Yang},Q.,\BBA\{Zhu},X.\BBOP2012\BBCP.\newblock\BBOQ{Cross-DomainCo-ExtractionofSentimentandTopicLexicons}.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2012)},\mbox{\BPGS\410--419},Jeju,Korea.\bibitem[\protect\BCAY{{Liu}}{{Liu}}{2010}]{liu2010}{Liu},B.\BBOP2010\BBCP.\newblock\BBOQSentimentAnalysisandSubjectivity.\BBCQ\\newblockIn{Indurkhya},N.\BBACOMMA\\BBA\{Damerau},F.~J.\BEDS,{\BemHandbookofNaturalLanguageProcessing},\mbox{\BPGS\627--664}.CRCPress.\bibitem[\protect\BCAY{{前川}}{{前川}}{2011}]{maekawa2011bccwj}{前川}喜久雄\BBOP2011\BBCP.\newblock特定領域研究「日本語コーパス」と『現代日本語書き言葉均衡コーパス』.\\newblock\Jem{『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{{Martin}\BBA\{White}}{{Martin}\BBA\{White}}{2005}]{martin2005}{Martin},J.~R.\BBACOMMA\\BBA\{White},P.R.~R.\BBOP2005\BBCP.\newblock{\BemTheLanguageofEvaluation:AppraisalinEnglish}.\newblockPalgraveMacmillan.\bibitem[\protect\BCAY{{大塚}\JBA{乾}\JBA{奥村}}{{大塚}\Jetal}{2007}]{otsuka2007}{大塚}裕子\JBA{乾}孝司\JBA{奥村}学\BBOP2007\BBCP.\newblock\Jem{意見分析エンジン}.\newblockコロナ社.\bibitem[\protect\BCAY{{Pang}\BBA\{Lee}}{{Pang}\BBA\{Lee}}{2008}]{pang2008}{Pang},B.\BBACOMMA\\BBA\{Lee},L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis}.\newblockNowPublishersInc.\bibitem[\protect\BCAY{{Ponomareva}\BBA\{Thelwall}}{{Ponomareva}\BBA\{Thelwall}}{2012}]{pono2012emnlp}{Ponomareva},N.\BBACOMMA\\BBA\{Thelwall},M.\BBOP2012\BBCP.\newblock\BBOQDoNeighboursHelp?AnExplorationofGraph-basedAlgorithmsforCross-domainSentimentClassification.\BBCQ\\newblockIn{\BemProceedingsofConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2012)},\mbox{\BPGS\655--665},Jeju,Korea.\bibitem[\protect\BCAY{{佐野}}{{佐野}}{2010a}]{sano2010a}{佐野}大樹\BBOP2010a\BBCP.\newblock{ブログにおける評価情報の分類と体系化〜アプレイザル理論を用いて〜}.\\newblock\Jem{{電子情報通信学会第1回集合知シンポジウム}}.\bibitem[\protect\BCAY{{佐野}}{{佐野}}{2010b}]{sano2010b}{佐野}大樹\BBOP2010b\BBCP.\newblock{評価表現に基づくブログ分類の試み〜アプレイザル理論を用いて〜}.\\newblock\Jem{{言語処理学会第16回年次大会}}.\bibitem[\protect\BCAY{{関}\JBA{稲垣}}{{関}\JBA{稲垣}}{2008}]{seki2008wi2}{関}洋平\JBA{稲垣}陽一\BBOP2008\BBCP.\newblock日常的な体験を記述したブログ文書におけるライフイベントの判定.\\newblock\Jem{電子情報通信学会第2種研究会資料WI2-2008-20}.\bibitem[\protect\BCAY{{関}}{{関}}{2013}]{seki2013tod}{関}洋平\BBOP2013\BBCP.\newblock意見分析コーパスの現状と課題.\\newblock\Jem{{情報処理学会論文誌データベース}},{\Bbf6}(4),\mbox{\BPGS\85--103}.\bibitem[\protect\BCAY{{Seki},{Ku},{Sun},{Chen},\BBA\{Kando}}{{Seki}et~al.}{2010}]{seki2010ntcirov}{Seki},Y.,{Ku},L.~W.,{Sun},L.,{Chen},H.~H.,\BBA\{Kando},N.\BBOP2010\BBCP.\newblock\BBOQ{OverviewofMultilingualOpinionAnalysisTaskatNTCIR-8-AStepTowardCrossLingualOpinionAnalysis}.\BBCQ\\newblockIn{\Bem{ProceedingsoftheEighthNTCIRWorkshopMeeting}},\mbox{\BPGS\209--220},{NII,Japan}.\bibitem[\protect\BCAY{{関根}\JBA{竹内}}{{関根}\JBA{竹内}}{2007}]{sekine2007ene}{関根}聡\JBA{竹内}康介\BBOP2007\BBCP.\newblock{拡張固有表現オントロジー}.\\newblock\Jem{{言語処理学会第13回年次大会ワークショップ「言語的オントロジーの構築・連携・利用」}},\mbox{\BPGS\23--26}.\bibitem[\protect\BCAY{{Sogaard}}{{Sogaard}}{2013}]{soggard2013domain}{Sogaard},A.\BBOP2013\BBCP.\newblock{\Bem{Semi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}}.\newblock{SynthesisLecturesonHumanLanguageTechnologies}.Morgan\&Claypool.\bibitem[\protect\BCAY{{Somasundaran}\BBA\{Wiebe}}{{Somasundaran}\BBA\{Wiebe}}{2009}]{soma2009acl}{Somasundaran},S.\BBACOMMA\\BBA\{Wiebe},J.\BBOP2009\BBCP.\newblock\BBOQ{RecognizingStancesinOnlineDebates}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing}},\mbox{\BPGS\226--234},Suntec,Singapore.\bibitem[\protect\BCAY{{Somasundaran}\BBA\{Wiebe}}{{Somasundaran}\BBA\{Wiebe}}{2010}]{soma2010naacl}{Somasundaran},S.\BBACOMMA\\BBA\{Wiebe},J.\BBOP2010\BBCP.\newblock\BBOQ{RecognizingStancesinIdeologicalOn-lineDebates}.\BBCQ\\newblockIn{\Bem{ProceedingsoftheNAACLHLT2010WorkshoponComputationalApproachestoAnalysisandGenerationofEmotioninText}},\mbox{\BPGS\116--124},LosAngeles,CA.\bibitem[\protect\BCAY{{Somasundaran},{Wilson},{Wiebe},\BBA\{Stoyanov}}{{Somasundaran}et~al.}{2007}]{soma2007icwsm}{Somasundaran},S.,{Wilson},T.,{Wiebe},J.,\BBA\{Stoyanov},V.\BBOP2007\BBCP.\newblock\BBOQ{QAwithAttitude:ExploitingOpinionTypeAnalysisforImprovingQuestionAnsweringinOnlineDiscussionsandtheNews}.\BBCQ\\newblockIn{\Bem{ProceedingsofInternationalConferenceonWeblogsandSocial(ICWSM)}},Boulder,Colorado,USA.\bibitem[\protect\BCAY{{Stoyanov}\BBA\{Cardie}}{{Stoyanov}\BBA\{Cardie}}{2011}]{stoy2011ranlp}{Stoyanov},V.\BBACOMMA\\BBA\{Cardie},C.\BBOP2011\BBCP.\newblock\BBOQ{AutomaticallyCreatingGeneral-PurposeOpinionSummariesfromText}.\BBCQ\\newblockIn{\BemProceedingsofRecentAdvancesinNaturalLanguageProcessing(RANLP2011)},\mbox{\BPGS\202--209},Hissar,Bulgaria.\bibitem[\protect\BCAY{{Stoyanov},{Cardie},\BBA\{Wiebe}}{{Stoyanov}et~al.}{2005}]{stoyanov2005emnlp}{Stoyanov},V.,{Cardie},C.,\BBA\{Wiebe},J.\BBOP2005\BBCP.\newblock\BBOQMulti-PerspectiveQuestionAnsweringUsingtheOpQACorpus.\BBCQ\\newblockIn{\Bem{ProceedingsoftheConferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLanguageProcessing}},\mbox{\BPGS\923--930},{Vancouver,BritishColumbia,Canada}.\bibitem[\protect\BCAY{{Wiebe},{Wilson},\BBA\{Cardie}}{{Wiebe}et~al.}{2005}]{wiebe2005lre}{Wiebe},J.,{Wilson},T.,\BBA\{Cardie},C.\BBOP2005\BBCP.\newblock\BBOQ{AnnotatingExpressionsofOpinionsandEmotionsinLanguage}.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf39}(2-3),\mbox{\BPGS\165--210}.\bibitem[\protect\BCAY{{Wiebe},{Breck},{Buckley},{Cardie},{Davis},{Fraser},{Litman},{Pierce},{Riloff},\BBA\{Wilson}}{{Wiebe}et~al.}{2002}]{wiebe2002mpqa}{Wiebe},J.,{Breck},E.,{Buckley},C.,{Cardie},C.,{Davis},P.,{Fraser},B.,{Litman},D.,{Pierce},D.,{Riloff},E.,\BBA\{Wilson},T.\BBOP2002\BBCP.\newblock\BBOQ{NRRCSummerWorkshoponMultiple-PerspectiveQuestionAnsweringFinalReport}.\BBCQ.\bibitem[\protect\BCAY{{山崎}}{{山崎}}{2011}]{yamasaki2011bccwj}{山崎}誠\BBOP2011\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の構築と活用.\\newblock\Jem{『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集},\mbox{\BPGS\11--20}.\bibitem[\protect\BCAY{{山崎}}{{山崎}}{2012}]{bccwj2012}{山崎}誠\BBOP2012\BBCP.\newblock『現代日本語書き言葉均衡コーパス』による日本語研究の展開.\\newblock\Jem{{言語処理学会第18回年次大会チュートリアル資料}}.\end{thebibliography}\begin{biography}\bioauthor{関洋平}{1996年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.2005年総合研究大学院大学情報学専攻博士後期課程修了.博士(情報学).同年豊橋技術科学大学工学部情報工学系助手.2008年コロンビア大学コンピュータサイエンス学科客員研究員.2010年筑波大学図書館情報メディア系助教,現在に至る.自然言語処理,意見分析,情報アクセスの研究に従事.ACM,ACL,情報処理学会,電子情報通信学会,言語処理学会,日本データベース学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
V06N04-02
\section{まえがき} 本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案する.対話システムをインタラクティブに動作させるためには,発話理解から応答生成までを段階的に管理する{\dg発話理解・生成機構}と,発話列をセグメント化し,焦点および意図と関連付けて構造的にとらえる{\dg対話管理機構}とが必要である.さらに,入力に音声を用いた音声対話システムでは,音声の誤認識によるエラーを扱う機構を組み込む必要がある.これらの機構は従来,比較的独立して研究されてきた.発話理解から応答生成までを通してモデル化したものに関しては,大きく分類して並列マルチエージェント(およびそれに付随する分散データベース)によるモデル\cite{peckham91}と,逐次的なモジュールの結合によるモデル\cite{jonsson91},\cite{airenti93}とが提案されている.並列マルチエージェントモデルは様々なレベルの制約を同時に発話理解・生成に用いているという人間の認知プロセスのモデル化になっているが,制御の難しさ・確実な動作保証の難しさから,対話システムの実現には逐次的なモジュール結合方式がよく用いられている.逐次的なモジュール結合方式において,音声対話システムに不可欠な発話の柔軟な解釈や次発話の予測を行うためには,個々のモジュールが常に参照できる情報を集中的に管理する対話管理機構が必要になる.対話管理機構に関して,Groszらは言語構造・意図構造・注意状態の3要素に分割してモデル化を行っている\cite{grosz86}.言語構造をとらえる方法としては,スタックによるモデル化\cite{grosz86},\cite{allen96},\cite{jonsson91}\footnote{\cite{jonsson91}ではやりとり(働き掛け+応答)単位を対話木によって管理しているが,この対話木は働き掛け+応答の2分木の中にあらたなやりとりが挿入できるという形式なので,本質的にはスタックと同機能であると考えられる.}とAND-OR木によるモデル化\cite{young89},\cite{smith94},\cite{smith95}がある.スタックによるモデル化は実現しやすく,注意状態との関係が明確であるという利点を持つ.しかし,入れ子構造をなさないような副対話が生じた場合にその管理が難しい.また,ユーザから主導権を取る発話(典型的にはユーザの誤った知識・方略を協調的に修正する発話)を生成した場合には,いくつかのスタック要素のポップを伴うことが多く,ユーザが主導権を改めて取ろうとしたときに必要な情報がスタックから消えているという状況が生じる.また,原則としてスタックからポップした情報にはアクセスできないので,音声の誤認識による誤解を(しばらく対話が進んだ後で)修正する必要のある音声対話システムに用いるには適していない.一方,AND-OR木によるモデル化は,基本的にタスクの問題構造の記述であり,Groszらの言語構造と意図構造とを混同してしまっているので,タスクの問題構造に従わない対話(例えば詳細化対話やシステムの能力に関するメタ的な質問など)は特別に扱わなければならないという欠点を持つ.これらのことを考え合わせると,音声対話に適した対話管理は,焦点とする範囲を適当に絞りながらも過去の対話履歴にアクセスする可能性を残した方法を用いて,言語構造と意図構造を区別して管理する必要があるといえる.\cite{airenti93}では言語構造と意図構造とを区別してモデル化し,これらを会話ゲームと行動ゲームと呼んでいる.しかし,それぞれのゲームがどのように表現されるかについては部分的にしか示されておらず,音声対話システムを構成するには不十分であるといえる.さらに,音声対話システムに適用する対話モデルには,音声の誤認識によるエラーに対処する機能が不可欠である.従来研究の多くは発話単位でのロバストな解析を実現することに目標が置かれ\cite{kawa95},いくつかの例外を除いては,対話システムに入力される発話または意味表現はユーザの意図したものであることが前提になっていた.しかし,ある単語が同一カテゴリーの単語と置き換わった場合や選択格に関する情報が欠落していた場合などは,ロバストな解析では対処できないので,対話レベルでの対処が必要となる.以上の議論より,我々は音声対話システムのための対話モデルとして,逐次的なモジュール結合による発話理解・生成機構,言語構造と意図構造とを区別した対話管理機構,それら相互の密接な情報のやりとりによる頑健な処理の実現が必要であると考えた.本稿で提案するモデルは,(1)\cite{airenti93}で提案された伝達行為理解のプロセスモデルを音声対話システムに適用可能なレベルまで具体化し,(2)それらと言語構造を表現した会話空間,意図構造を表現した問題解決空間とのやりとりを規定し,(3)個々のプロセスで同定可能な誤りへの対処法を網羅的に記述したものである.このモデルを実装することによって,ある程度のエラーにも対処できる協調的な音声対話システムの実現が期待できる.以後本稿では,我々のモデルに関して発話理解・生成機構,会話レベルの管理機構,問題解決レベルの管理機構について順に説明し,最後に動作例を示す. \section{対話処理の認知プロセスモデル} 本章ではまず,我々のモデルのベースとなっているAirentiらの伝達行為理解のモデルについて概観した後,我々のモデルで拡張を行った点を中心に各段階での処理について説明する.\subsection{Airentiらの伝達行為理解のモデル}対話における認知プロセスのモデル化では,相手の発話を聞いてから自分の発話を生成するまでに,どのようなプロセスによって,どのような信念の変化が起こっているのかをとらえる必要がある.Airentiらは,この認知プロセスを会話ゲームと行動ゲームという2つのゲームによってモデル化し,主に伝達行為を理解するという側面においての分析を行っている\cite{airenti93}.会話ゲームは(1)意味理解,(2)意図理解,(3)伝達効果,(4)意図生成,(5)応答生成の5段階に分れており,各段階の処理における目標とするタスクの集合および処理の流れを決めるメタルールからなっている.図\ref{airenti}にAirentiらの提案した会話ゲームを示す.ここで用いる述語の定義を付録\ref{appendixA}に示す.これらのプロセスは標準的な処理では(1)から(5)までが順に行われ,いずれかの段階でタスクが達成できなかった場合は,即座に応答生成に行く.\begin{figure}[htbp]\small\begin{enumerate}\item{\dg意味理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,s)}\lor\mbox{SH}_{yx}\mbox{DO}_{xy}G(x,y)${\bfthengoto}意図理解;{\bfelsegoto}応答生成\item{\dg意図理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthengoto}心的状態の更新;{\bfelsegoto}応答生成\item{\dg心的状態の更新}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthen}$\mbox{INT}_y\mbox{DO}_{yx}G(y,x)$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye${\bfthen}$\mbox{INT}_y\mbox{DO}_ye$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p${\bfthen}$\mbox{BEL}_yp$;\\{\bfgoto}意図生成\item{\dg意図生成}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthen}$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_{yx}G(y,x)$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye${\bfthen}$\mbox{CINT}_{yx}\mbox{INT}_ye\lor\mbox{CINT}_{yx}\lnot\mbox{INT}_ye$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p${\bfthen}$\mbox{CINT}_{yx}\mbox{BEL}_yp\lor\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp$;\\{\bfgoto}応答生成\item{\dg応答生成}\noindent{\itnotspecified}\end{enumerate}\caption{Airentiらの会話ゲーム(\cite{airenti93}より抜粋したものを整理)}\label{airenti}\end{figure}会話ゲームは,基本的に理解から生成に至るまでの1ターンを説明するために用いられたもので,対話全体を管理できるほどには具体化されていない.また,会話ゲームを対話全体が扱える程度に拡張しようとすると,明確化対話の挿入や応答の省略などの現象を会話ゲームの規則として記述せねばならず,規則の組合わせが手に負えないほどの量になってしまうことが予測される.一方,行動ゲームは妥当性条件と参加者の行為の集合からなるとされている(図\ref{airenti2}).しかし,どのような知識表現を用いるか,どのような推論ができるのかが明確にされていないため,意味理解段階において,ある表層発話がその行動ゲームの手となるかどうかの判定に用いられたり,意図理解段階において,ある行為がその行動ゲームの手となるかどうかの判定に用いられたりしており,あやふやな位置付けになっている.\begin{figure}[htbp]\begin{center}\begin{minipage}{10cm}\begin{verbatim}[KITCHEN]validitycondition:athome,aftermeal-xdoesthedishes-ymakessomethinguseful.\end{verbatim}\end{minipage}\end{center}\caption{Airentiらの行動ゲームの例(\cite{airenti93}より抜粋)}\label{airenti2}\end{figure}\subsection{認知プロセスモデルの概要}我々は,対話における言語構造に関して,会話ゲーム中の局所的な制約として記述するのではなく,行動ゲームと同様に認知プロセス中から参照されるものとして,言語構造を表現した空間を設定する.行動ゲームに対応するものを{\bf問題解決空間},言語構造を表現したものを{\bf会話空間}と定義する.このことによって,各プロセスの処理は比較的単純でありながら,対話の局所的な単位であるやりとりにおけるフェーズの把握や対話全体における問題解決過程の把握ができるモデルとなる.我々の認知プロセスモデルの概要を図\ref{model}に示す.\begin{figure}[htbp]\vspace{-5mm}\begin{center}\epsfile{file=fig1.eps,scale=0.8}\end{center}\caption{対話処理の5段階モデル}\label{model}\end{figure}さらに我々はこのモデルの各段階において,音声の誤認識への対処が行えるように拡張を行った.認知プロセスに誤認識への対処法を組み込むアプローチは,発話理解や問題解決構造に組み込む方法に比べて,発話スタイルやタスクへの依存度が少ないので,より一般性のある方法であるといえる.以後,我々のモデルにおける各段階での処理について,主にAirentiらのモデルをどのように拡張したかという視点から説明する.\subsection{意味理解}Airentiらのモデルにおける意味理解段階の処理は,ゴールとして$\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,s)}$または$\mbox{SH}_{yx}\mbox{DO}_{xy}G(x,y)$を得ることとしている.後者は,発話が直接に行動ゲームの手となるような場合(行動ゲームgreetingにおける``Haveaniceday.''のような発話)であり,システムとの対話においては例外的であると思われるので,ここでは前者の拡張について議論する.Airentiらは表層発語内行為(assertive,interrogative,directive)から話者の意味したもの(述語express中の命題)を導き出す規則を明示しているが,自然な音声対話においては述語の省略や代用表現(「〜お願いします」など)がよく用いられるので,表層的な情報だけでは話者の意味したものが特定できない場合が多い.そこで,対話の局所的な情報を何らかの形式で保持しておき,それを参照しながら意味表現を生成する処理が必要になる.我々のモデルでは,表層発語内行為と発語内行為との対応規則を用いるのではなく,ロバストパーサの出力として仮定している「全体として整合した部分的な意味表現」を,局所的な対話文脈に位置付けるという方法で意味理解を行っている.ここで部分的な意味表現とは,キーワード・句・文のそれぞれのレベルで解析できた範囲でロバストパーサが出力する意味表現であり,例えば述語部分の解析に失敗した場合には,句に相当する意味表現が複数出力されることを仮定している.それが全体として整合しているとは,複数出力された意味表現を組み合わせてひとつの発話の意味表現を構成し得ることを指しており,一文一格の原理を満たさない場合や,従属関係になりえない述語レベルの意味表現が複数ある場合などは全体として整合していないことになり,ロバストパーサの段階で解析失敗となる.この意味表現を対話文脈に位置付けるという方法は発話には文脈独立な意味表現が存在するという表層発語内行為仮説(literalmeaninghypothesis)\cite{allen95}に基づいたものであり,処理は以下の2段階に分割される.\begin{enumerate}\item入力発話から,全体として整合した部分的な意味表現を抽出する.これは表層情報のみから決まるもので,理想的には表層発語内行為と命題内容を導き出す.\itemその部分意味情報から発語内行為への対話文脈に応じたマッピングを行う.\end{enumerate}ここで,(1)の段階が達成されない場合(すなわちロバストパーサによって何も意味表現が生成されない場合)は,応答生成段階に制御を移し,再入力を促す発話を生成する.(1)の処理をいかに頑健に行うかということはロバストパーサの問題であり本稿では扱わないが,この時点でいかなる誤りも存在しないと仮定するわけではない.すなわち,表層発語内行為や命題内容を構成する要素の中に音声の誤認識による誤りが含まれている場合でも,これ以降の処理で検出・修復を行う.例えば(1)の段階の処理としては,個人スケジュール管理タスクにおける「2時から会議を登録して下さい.」というユーザ$x$からシステム$y$への発話に対して,その命題内容\\register([[start\_time,2],[obj,meeting]])を抽出し,表層発語内行為を組み合わせて,\begin{quote}$\mbox{DO}_x\mbox{lit-illoc(y,register([[start\_time,2],[obj,meeting]]),directive)}$\end{quote}という命題が共有信念として得られる.これに続く(2)の処理として,この共有信念からユーザの発語内行為を認識することを目的とする.発語内行為の認識の前提として,意味理解段階ではまず発語内行為の分類を考える.発語内行為は大きく働き掛けと応答に分類できる\footnote{自然な対話では,応答に対する了解・相手の発話を促す相槌・伝達そのものの調整などの行為があるが,本稿におけるモデルでは音声対話システムを対象としているので,働き掛けと応答のみを扱う.}ので,ここでは命題内容と表層発語内行為を基にして得られた共有信念から,以下のどちらに分類できる行為であるかを認識し,その表明された内容を共有信念とすることを意味理解段階の目標とする.\begin{enumerate}\item[(a)]ユーザ$x$がシステム$y$に行為$e$をしてほしい($\mbox{INT}_x\mbox{DO}_ye$)と表明した(働き掛け)\item[(b)]ユーザ$x$が信念$p$を持っている($\mbox{BEL}_xp$)ということを表明した(応答)\end{enumerate}しかし,表層発語内行為には働き掛け/応答の双方の機能と対応するものがあり,また,音声対話によく出現する述語の省略・代用表現によって,この機能を決定するためには対話の局所的な知識が必要となる.我々のモデルでは\ref{conv}章で述べる会話空間に対して,ここで得られた要素を局所的対話文脈に位置づけるという処理を行うことによって,これらの問題を扱っている.さらに会話空間では入力発語内行為および命題が,現在維持している対話履歴と整合しているかどうかを判定し,整合していなければ誤認識とみなして応答生成段階に処理を移し,問い返しの応答を生成する.以上の意味理解段階の処理をまとめると図\ref{step1}に示すようになる.\begin{figure}[htbp]\begin{quote}\noindent{\dg意味理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,INT}_x\mbox{DO}_ye)\lor\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,BEL}_xp)$\\{\bfthengoto}意図理解;\\{\bfelsegoto}応答生成\end{quote}\caption{意味理解段階の処理}\label{step1}\end{figure}\vspace{-3mm}\subsection{意図理解}対話において発語内行為を成功させるには,話者の意図と,その意図を伝えようとする意図(伝達意図)とが聴者に理解されることが必要であり,さらにそれらが相互に信念として持たれている必要がある\cite{allen95}.すなわち,対話において聴者が話者の意図を理解する(あるいは話者の発語内行為が成功する)とは,「話者の意図と,その意図を伝達しようとする意図とを話者と聴者の共有信念とすること」である.では,ここでは話者の持つ意図はどの程度具体化されているべきであろうか.対話システムが知的な振る舞いをするためには,対話がタスク構造に従って構造化されており,かつ各副対話が適切にその機能を明らかにされている必要がある\cite{grosz86}.すなわち話者の意図として話者が持つプランが聴者に理解されている状況が望ましい.よって,意図理解段階の目的は,話者の発語内行為およびプランを認識することとなる.しかし,対話の初期段階では話者のプランに関して複数の候補が考えられる状況がある.この場合,どのようにして対話を維持するかについて,異なる対話戦略が考えられる.例えば,\cite{vanBeek93}においては,プラン候補が複数ある場合に,それらに(1)前提の失敗,(2)順序不整合,(3)より良いプランの存在,(4)欠点なし,のいずれかのラベルを付け,ラベルが同じものに揃うまで詳細化のための副対話を行うアルゴリズムが提案されている.この手法はシステムが扱うプランが多数ある場合に有効であると考えられるが,必ずしも全てのタスクが副対話生成による冗長性をカバーするほどの数のプラン候補を持つとは限らない.Airentiらのモデルにおいては,この段階で相手の行動ゲームが認識されなければ応答段階に処理を移すことになっている.これは,相手の発話によって行動ゲームが唯一に同定されなければ,その発話内容を無視して行動ゲームの同定を行うための発話を生成することを意味するので,協調的なシステムの振る舞いとしては適当ではない.我々は,冗長な詳細化用副対話やユーザ発話を無視した副対話の生成を避けるために,プランが唯一に特定できなければ,表層的なやりとり規則で対話を維持し,漸進的にプランを認識する方法を提案している\cite{araki95a}.対話の初期段階,すなわちプランがまだ共有信念になっていない段階では,相手の発語内行為の意図に加えて,話者のプランを伝えようとする意図($\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)$)を共有信念とするよう試みる.ここで,話者のプランを伝達しようとする意図を共有信念とすることが\mbox{できれば},心的状態の更新に進む.プラン認識の方法は\ref{prob}章で説明する.一方,\mbox{プランが認識で}きなかった場合は,会話空間上で典型的なやりとりを構成するような展開を行って,意図生成に進む.ここで典型的なやりとりとは,相手の発話と,その発話に含まれる情報のみで対応できる応答からなるものであり,質問に対する回答や情報伝達に対する受諾などの発話対からなるものである.一方,プランがすでに共有信念になっている場合は,その実行のステップとなる行為または情報を伝えようとする意図($\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{y}e\lor\mbox{SH}_{yx}\mbox{CINT}_{xy}p$)を共有信念とする.意味理解段階の処理をまとめると図\ref{step2}に示すようになる.\begin{figure}[htbp]\begin{quote}\noindent{\dg意図理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)\\\lor(\mbox{SH}_{yx}\mbox{DO}_{xy}G(y,x)\land(\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{y}e\lor\mbox{SH}_{yx}\mbox{CINT}_{xy}p))$\\{\bfthengoto}心的状態の更新;\\{\bfelsegoto}意図生成\end{quote}\caption{意図理解段階の処理}\label{step2}\end{figure}\subsection{心的状態の更新}この段階では意図理解の結果に基づいて,必要があれば心的状態を更新する.ここでの処理はAirentiらのモデルと同様である.意図理解で新たにプランが認識された場合は,以下の(1)の処理を行いながら,入力発話に応じて(2)または(3)の処理を行う.既にプランを意図している場合は,(2)または(3)の処理を行う.ここでの推論は対話エージェントとしての協調原則\cite{allen95}に基づいたものである.(1)および(2)は入力されたプランや行為の要求を処理するという意味でattentivenessconstraintを実現したものであり,(3)は共有知識の食い違いを最小限にするsharedknowledgepreferenceを実現したものである.\begin{enumerate}\item話者の意図があるプランを提示するものであれば,そのプランが達成不可能でなければ(問題解決空間においてそのプランを達成するのに必要な分割リンクのうち,達成不可能であることが判明しているものがなければ),そのプランを意図する\\($\mbox{INT}_x\mbox{DO}_{xy}G(y,x)$).\item話者の意図がある行為をすることであれば,その行為が何らかの役割を果たすものであり(その行為と認識済みのプランが分割リンクを介して繋がっている),かつ達成不可能でなければ,その行為を意図する($\mbox{INT}_y\mbox{DO}_ye$).\item話者の意図がある信念を表明するものであり,自分がそれと矛盾する信念を持っていなければ,その信念を保持する($\mbox{BEL}_yp$).\end{enumerate}これらの処理を行った後,意図生成に移る.心的状態の更新段階の処理をまとめると図\ref{step3}に示すようになる.\begin{figure}[htbp]\begin{quote}\noindent{\dg心的状態の更新}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthen}$\mbox{INT}_y\mbox{DO}_{xy}G(y,x)$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye${\bfthen}$\mbox{INT}_y\mbox{DO}_ye$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p${\bfthen}$\mbox{BEL}_yp$;\\{\bfgoto}意図生成\end{quote}\caption{心的状態の更新段階の処理}\label{step3}\end{figure}ここで得られた命題は,以後の発話の処理に用いる.共有信念として持ったゴールについては,それを達成することを対話の目標とし,目標達成に関連する命題については,これと矛盾する命題がユーザによって言及された(すなわち現在の発話または過去の発話のどちらかに認識エラーが存在した)ことを検出するのに用いられる.\subsection{意図生成}ここでは意図理解の結果と心的状態の更新の結果から,次にどのような意図を持つべきかを決める.この段階では,我々のモデルはAirentiらのモデルの詳細化と位置付けられるが,その詳細化はAirentiらのモデルでは考慮されていなかった認識誤りに基づく誤解の解消に役立つ発話の生成に寄与するものである.具体的には,相手のプラン・働き掛け・応答が受け入れられないときに,その根拠となる命題を心的状態および問題解決空間で探索し,相手の発話内容の問い返しとともに,受け入れられない根拠を応答として述べることによって対話参加者間の信念の違いを明示するものである.この信念の違いが認識誤りによって生じた場合は,それを修正する副対話が生成される.我々のモデルにおける意図生成は以下の規則に従って行われる.\begin{enumerate}\item[(1)]ユーザのプランを認識した場合\begin{enumerate}\item[(1-a)]心的状態の更新段階において,プランを遂行するという意図を持った場合,(2)の処理に移り,ユーザの働き掛けに応じた意図を生成することによって暗にプランを意図することを示す($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye$).\item[(1-b)]心的状態の更新において,プランを受け入れない(プランは認識できたがそれを意図しない)と決めた場合は,システムの知識の中にそのプランを達成不能にするものがある場合なので,システムはプランを受け入れないことを明示的に示すと共に,そのプランの障害になっている命題をユーザに伝える.($\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{BEL}_yp$)\end{enumerate}\item[(2)]あるプランを認識しそれを遂行するという意図を持った場合(あるいは既にプランが認識されている場合),ユーザの働き掛けに応じて意図を生成する.\begin{enumerate}\item[(2-a)]ユーザの働き掛けが情報要求ならば,検索結果をユーザに応答する意図($\mbox{CINT}_{yx}\mbox{DONE}_ye$)を持つ.\item[(2-b)]ユーザの働き掛けが行為要求ならば,その行為が達成可能であるかどうかを問題解決空間で調べる.\begin{enumerate}\item[(2-b-1)]行為が達成可能である場合,その行為を遂行し,さらに問題解決空間を探索し,そのプラン遂行に役立つ新たな行為$e'$を行う意図を伝達する意図($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'$)を持つ.新たな行為$e'$の決定に関しては\ref{prob}章で述べる.\item[(2-b-2)]提案された行為が達成不可能であるか,または共有されているプランのステップではない場合は,その行為を行わないということと,その理由を示す命題を伝える意図($\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_ye\land\mbox{CINT}_{yx}\mbox{BEL}_yp$)を持つ.\end{enumerate}\end{enumerate}\item[(3)]ユーザ発話が信念を表明するものである場合\begin{enumerate}\item[(3-a)]システムが表明された命題$p$と矛盾する命題を持っていなければ,その命題はシステムの信念となり,そのことは明示的に示さなくてもよく,新たなステップとなる行為$e'$を行う意図を伝達する意図($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'$)を持つ.\item[(3-b)]表明された命題$p$を信じないのなら否定応答をすると共に,システムが持っているそれと矛盾した命題$p'$を伝える意図($\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp\land\mbox{CINT}_{yx}\mbox{BEL}_yp'$)を持つ.\end{enumerate}\end{enumerate}意図生成段階の処理をまとめると図\ref{step4}に示すようになる.\begin{figure}[htbp]\noindent\hspace*{1cm}{\dg意図生成}\noindent\hspace*{1cm}{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)$\\\hspace*{1cm}{\bfthen}($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye)\lor\\\hspace*{1cm}\hspace*{9mm}(\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{BEL}_yp)$;\\\hspace*{1cm}{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye$\\\hspace*{1cm}{\bfthen}$\mbox{CINT}_{yx}\mbox{DONE}_ye\lor\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'\lor(\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_ye\land\mbox{CINT}_{yx}\mbox{BEL}_yp)$;\hspace*{1cm}{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p$\\\hspace*{1cm}{\bfthen}$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'\lor(\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp\land\mbox{CINT}_{yx}\mbox{BEL}_yp')$;\\\hspace*{1cm}{\bfgoto}応答生成\caption{意図生成段階の処理}\label{step4}\end{figure}\vspace{4mm}\subsection{応答生成}\cite{airenti93}では応答生成は例示に止まっている.我々は,応答生成を起動された処理段階および伝達意図の違いによって異なったテンプレートを用いることによって実現している.\begin{enumerate}\item意味理解処理の失敗によって起動された場合は単なる問い返し(「もう一度言ってください」)を生成する.\item意図生成から起動された場合は,表\ref{step5}に示すそれぞれの伝達意図に対応するテンプレートを用いて,応答文を生成する\footnote{ある行為を意図しない場合,「〜ですか」という問い返し文を生成するのは,誤認識を修正するきっかけを与えるためである.この方法は,システムとユーザの知識が大きく違い,ユーザの知識を否定することが大きな情報を与えるようなタスク(例えば機器のインストラクションなど)には不適切である.\mbox{ユーザ知識の否定が頻繁に現われるタスクへの適応}は今後の課題としたい.}\begin{table}[htbp]\centering\caption{伝達意図に対応する応答}\label{step5}\begin{tabular}{|l|l|}\hline伝達意図&応答\\\hline\hline$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_y\mbox{assertive}$&($SUBJ$は)$VAL$です.\\\hline$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_y\mbox{interrogative}$&($SUBJ$は)$WHAT$ですか.\\\hline$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_y\mbox{directive}$&$OBJ$を$VERB$.\\\hline$\mbox{CINT}_{yx}\mbox{BEL}_yp$&$p$です.\\\hline$\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_{yx}G(y,x)$&$G$ですか.\\\hline$\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_ye$&$e$ですか.\\\hline$\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp$&$p$ですか.\\\hline\end{tabular}\medskip\begin{center}\begin{minipage}{10cm}\smallただし,SUBJは主題,OBJは目的語,VERBは述語部分,VALは値,WHATは疑問詞が入るスロットである.\end{minipage}\end{center}\end{table}\end{enumerate}\vspace{-3mm} \section{会話レベルの管理機構} \label{conv}\subsection{会話空間の概要}これまでに述べた認知プロセスモデルにおいて,発語内行為の理解,省略・参照表現の処理,および相手の発話に対する適切な応答発話の生成のために,会話が現在までどのように進んできたかを管理する機構が必要となる.従来の対話モデルでは,これら(またはその一部)の処理を行うためにスタックを用いることが多かった.例えば,Groszらのモデルでは焦点管理のために,対話のある時点でもっとも顕著な対象・属性・対話セグメントの目的をスタックを用いて管理している\cite{grosz86}.しかし我々は,スタックの利用は以下の理由で音声対話システムには適さないと考える.\begin{enumerate}\item[(a)]Groszらのモデルでは対話が入れ子構造をなすことを前提としてスタックを用いているが,自然な対話では入れ子が必ずしも明確になるわけではない.\item[(b)]音声の誤認識による誤解の修正の際には,対話履歴の任意の時点の情報が必要になるが,既にスタックからポップされた情報には原則としてアクセスできない.\end{enumerate}我々のモデルでは会話レベルの最小単位としてやりとりを想定し,このやりとりを管理することによって,発話の対応付けを行う.やりとりは,基本的に「働き掛け」と,その働き掛けに対する「応答」からなる.ただし,詳細化対話や音声の誤認識の修復のために,応答の前または代りに働き掛けおよびそれに対する応答が挿入される場合もある.このやりとり単位の管理と,そのやりとりによって達成された行為を4章で説明する問題解決空間で管理することによって,明示的な入れ子構造を用いずに,対話の流れを追跡できる.また,参照の解釈・省略発話の解析・誤認識による誤解の解消のために,対話に現れた句レベルの情報から,発話レベルの情報,やりとりレベルの情報を階層的な動的ネットワークを用いて管理する.この動的ネットワークを{\bf会話空間}と呼ぶ.会話空間にはフレーズノード,インスタンスノード,スロット充足ノードの3種類のノードを設定する.インスタンスノードとスロット充足ノードは,ほぼCharniakらの定義\cite{charniak93}に従っている.基本的にリンクは,両端のノードが表す命題間の因果関係を条件付き確率の行列を用いて表現できるようになっている\footnote{現在は条件付き確率を決めるのに十分なデータがないので,0または1の値をあらかじめ割り当てている.}.各インスタンスノードはスロット充足ノードを経由して結合される.ただし,フレーズノードは直接対応するインスタンスノードに結合される.会話空間の構成要素の関係の例を図\ref{cs}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=fig2.eps,scale=0.7}\end{center}\caption{会話空間の構成要素の関係}\label{cs}\end{figure}\subsection{意味理解段階との相互作用}会話空間は意味理解段階と以下のような相互作用を行い,意味表現を生成し,対話の履歴を管理する.意味理解段階からの入力は全体として整合した部分的な意味表現で,出力は発語内行為である.\begin{enumerate}\item意味理解の結果として得られた命題表現の中で句に相当する部分をフレーズノードとして,会話空間に導入する.\itemフレーズノードが意味理解で,どのような概念のインスタンスとして生成されたかを示す句レベルのインスタンスノードを生成し,フレーズノードとリンクを張る.\item(2)で生成された句レベルのインスタンスノードが,発話の中でどのような役割を果たすか(構文的な意味では格に相当する)を示すスロット充足ノード,およびそれらをまとめる発話レベルのインスタンスノードを生成し,それぞれリンクを張る.\item(1)で生成された発話レベルのインスタンスノードが,やりとりの中でどのような役割を果たすかを示すスロット充足ノード,およびそれらをまとめるやりとりレベルのインスタンスノードを生成し,それぞれリンクを張る.\itemここまでの処理が達成されると,やりとりの中での役割を入力発話の発語内行為として出力する.\end{enumerate}このように会話空間という形式で対話に現れた情報を管理することによって,Groszらが焦点として扱った対象・属性・対話セグメントの目的のみではなく,やりとりに現れた全ての要素を,処理対象としている発話のインスタンスノードからの距離(パスの長さ)をコストとして用いることにより優先度を付けて,誤認識による誤解の解消や省略・参照表現の処理に用いることができる.\subsection{やりとり規則による対話の継続}プランが同定されるまでの対話の初期段階のやりとりや,問題解決に関係のない誤認識の修復のやりとりなどは,心的状態の更新を経ずに意味理解段階で得られたやりとりに関する情報を使って行う.このようなやりとりは意図理解段階の処理の失敗(プラン認識の失敗および誤解の検出)によって起動される.プラン認識の失敗の場合は,会話空間中で現在展開中のやりとり単位を継続させる発語内行為を意図生成段階へ出力する.また,誤解が検出された場合は,修復の副対話をやりとり内に挿入し,修復発話に対応する発語内行為を意図生成段階へ出力する.\subsection{応答生成段階との相互作用}生成された発話意図から応答文を生成する際に,同じやりとりを構成する発話であれば,展開された意味表現から主題格などを省略する.入力としては全ての要素が列挙された意味表現,出力は応答として出力するのに適切な省略を行った意味表現である. \section{問題解決機構} \label{prob}\subsection{問題解決空間の概要}我々のモデルでは,{\dg問題解決空間}と呼ぶネットワーク構造の知識表現を用いて,タスクレベルの対話管理を行っている.問題解決空間はタスクにおけるプランとサブプランの関係や,プランとそれを達成するための行為との関係を記述した静的ネットワークである.本稿で説明に利用するタスクである個人スケジュール管理を行うシステムに対応した問題解決空間の例を図\ref{event}に示す.\begin{figure}[htbp]\vspace{-4mm}\begin{center}\epsfile{file=fig8.eps,scale=0.8}\end{center}\caption{問題解決空間の例}\label{event}\end{figure}問題解決空間では,葉ノードが行為を表し,それ以外のノードがプランを表す.リンクは2種類あり,プランの間の抽象関係を表現する抽象化リンク(図\ref{event}の上向き太矢印)と,プランからサブプランや行為への分割を表す分割リンク(図\ref{event}の下向き細矢印)がある.またプランの分割にはAND分割(下向き細矢印をまとめる記号のついたもの)とOR分割がある.\subsection{意図理解段階との相互作用}意図理解段階では話者のプランを認識するために,意味理解段階で得られた発語内行為を問題解決空間に渡し,プラン認識を行う.問題解決空間におけるプラン認識には最小被覆法\cite{kautz90}を適用する.この手法は基本的には,問題解決空間において既に実行された(または観測された)行為の全てを含むサブグラフを求めるものである.問題解決空間のプランを表すノードの中で,各々のタスクにおける基本的なプランすなわち,1まとまりの対話によって達成されるプランをエンドイベントと呼ぶ.ユーザが1対話において,プランを1つしか持たないという前提に立てば,プラン認識の問題はエンドイベント集合から,ユーザの持っているプランに対応する要素を1つ選ぶことになる.問題解決空間では,意味理解結果として得られたユーザの行為を入力として,新たに入力された行為と以前に入力された行為をカバーするプランを最小被覆法を用いて認識し,プランが認識された場合はそのプランを,プラン認識に失敗した場合はそのことを意図理解段階に出力する.\subsection{意図生成段階との相互作用}発話生成段階においては,問題解決空間には意図生成段階からのユーザの行為と,更新された心的状態が入力される.もし,ユーザの行為が情報要求であれば,データベース検索を行ってその値を答えるという処理が意図生成段階でなされるが,それ以外の場合はユーザの行為に応じて,次のシステムの行為をAND-OR木上の未達成の行為ノードとして探索し,意図生成段階に出力する. \section{対話モデルの処理例} 本章では,対話モデルの各段階での処理,および会話空間・問題解決空間での処理を例によって説明する.個人スケジュールを管理するシステム$s$とユーザ$u$との対話例を図\ref{example}に示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{ll}U1:&「2時から会議を登録してください.」\\S2:&「何時までですか.」\\U3:&「4時まで登録してください.」(「登録」→「変更」の誤認識)\\S4:&「変更するのですか.」\\U5:&「登録して下さい.」\\S6:&「場所はどこですか.」\\U7:&「中会議室です.」(「中会議室」→「小会議室」の誤認識)\\S8:&「小会議室は予約が入っています.」\\U9:&「中会議室です.」\\S10:&「2時から4時まで中会議室での会議を登録します.よろしいですか.」\\U11:&「はい.」\\\end{tabular}\end{center}\caption{対話例}\label{example}\end{figure}\subsection{第1ターンの処理とプラン認識}まず前提として,表層発語内行為及び命題内容の抽出はここでの対話モデルで扱う問題の対象外と想定しているので,U1に対して\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{lit-illoc(}s,\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]]),directive)}\end{equation}という表層意味表現が得られるものとする\footnote{この意味表現では1対話中で1つの対象(ミーティング・休暇など)しか扱えないので,スケジュール管\mbox{理一般に適用す}るには不十分である.複数の対象を扱えるような拡張は今後の課題としたい.}.これに対して,まず意味理解段階の処理としては,対話の初期状態で会話空間に何も対話履歴がない状態であることと,入力発話がdirectiveという表層発語内行為を持つことから,これをユーザの働き掛けと解釈し,\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{express(}s,\mbox{INT}_u\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]]))}\end{equation}という共有信念が形成され,意味理解段階の処理が成功したことになるので,処理を次の意図理解段階に進める.ここまでの処理を表\ref{ex-table1}に示す.\begin{table}[htbp]\centering\caption{意味理解段階での入出力および内部表現}\label{ex-table1}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline&(inst2start\_time)&&&\\(1)&(instutt1directive)&----------&句レベルの情報に分割&(2)\\&(instunit1directive-reply)&&&\\\hline\end{tabular}\medskipただし,会話空間はインスタンスノードのみの列挙\end{table}次に,意図理解段階の処理としてはユーザのプランがまだ共有信念になっていないので,\\$\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]])}$をプラン達成のための1ステップとするようなプランが存在するかどうかを問題解決空間で探索する.ここではregister\_meeting\_planが唯一に定まるので,ユーザの伝達意図として以下の2つの共有信念が形成される.ここまでの処理を表\ref{ex-table2}に示す.\noindent\hspace*{1cm}$\mbox{SH}_{su}\mbox{CINT}_{us}\mbox{INT}_u\mbox{DO}_{us}\mbox{register\_meeting\_plan}\land\\\hspace*{1cm}\mbox{SH}_{su}\mbox{CINT}_{us}\mbox{INT}_u\mbox{DO}_{s}\mbox{register([[start\_time,2],[obj,meeting]])}$\hspace*{30mm}(3)\setcounter{equation}{3}\begin{table}[htbp]\centering\caption{意図理解段階での入出力および内部表現}\label{ex-table2}\begin{tabular}{|l|l|l|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline&&register\_meeting\_plan&&\\(2)&変更なし&(subplan:decide\_start\_time,&最小被覆法によるプラン認識&(3)\\&&decide\_end\_time,decide\_place)&&\\\hline\end{tabular}\end{table}心的状態の更新の段階では,意図理解で新たにプランが認識されたので,このプランにシステムとして合意するか,また,ユーザの意図する行為を行うかどうかを決め,その結果をシステムの心的状態に反映させる.ここでは,問題解決空間のregister\_meeting\_plan以下の行為ノードの中で,達成不可能であることがわかっているものがないことを確認し,このプランを意図する.また,$\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]])}$がこのプラン達成のための行為であることから,これを実行することを意図する.すなわち,ここで以下の命題をシステムの心的状態に新たに導入する.ここまでの処理を表\ref{ex-table3}に示す.\begin{equation}\mbox{INT}_s\mbox{DO}_{us}\mbox{register\_meeting\_plan}\land\mbox{INT}_s\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]])}\end{equation}\begin{table}[htbp]\centering\caption{心的状態の更新段階での入出力および内部表現}\label{ex-table3}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline(3)&変更なし&decide\_start\_time遂行済&問題解決空間における&(4)\\&&&プラン遂行可能性の検索&\\\hline\end{tabular}\end{table}次に,意図生成段階の処理としては,プランに合意し,ユーザの意図した行為が達成可能である場合であるので,2.6節で説明した(2-b-1)の処理を行う.ここで,問題解決空間のregister\_meeting\_plan以下を探索し,新たな行為$e'$として終了時刻の同定を選び,その達成を意図する.ここまでの処理を表\ref{ex-table4}に示す.\begin{equation}\mbox{CINT}_{su}\mbox{INT}_s\mbox{DO}_u\mbox{inform\_ref([end\_time,E])}\end{equation}\begin{table}[htbp]\centering\caption{意図生成段階での入出力および内部表現}\label{ex-table4}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline(4)&変更なし&decide\_end\_time活性化&問題解決空間における&(5)\\&&&未遂行行為の探索&\\\hline\end{tabular}\end{table}次に,応答生成段階の処理としては,テンプレート$\mbox{CINT}_{su}\mbox{INT}_s\mbox{DO}_s\mbox{interrogative}$を利用して,ユーザに情報伝達行為inform\_refを意図させるために,S2の質問文を生成する.ここまでの処理を表\ref{ex-table5}に示す.\begin{table}[htbp]\centering\caption{応答生成段階での入出力および内部表現}\label{ex-table5}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline(5)&(instend\_timeqcase)&変更なし&テンプレートマッチングと&S2\\&(instutt2interrogative)&&変数の同一化&\\\hline\end{tabular}\end{table}\vspace{-4mm}\subsection{会話空間における意図生成の例}\label{ex-1}次に,述語の誤認識が生じたU3の解析例を説明する.述語の誤認識によるエラーは,意味理解では検出できない場合がある.その時点までの対話の文脈からして不適当な発語内行為が入力されたことが意図理解段階によって検出されて,その修復のためのやりとりがこの会話空間上で展開される.ここまでのやりとりの展開はU1:「働き掛け」,S2:「働き掛け」となっており,会話空間上でのやりとりのパターンから,U3の発話はS2の働き掛けに対する応答またはそれに関連した働き掛けが予測されている.しかし,U3を意味理解した結果\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{express(}s,\mbox{INT}_u\mbox{DO}_s\mbox{modify([[end\_time,4]]))}\end{equation}は,このどちらにも相当せず,述語の誤認識が起こったことが考えられる.そこで会話空間上に修復のやりとり(S4-U5)を展開する.ここで修復が成功したので,U3は改めて\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{lit-illoc(}s,\mbox{BEL}_u\mbox{equal(end\_time,4),assertive)}\end{equation}と解釈され,以下,\smallskip\begin{quote}意味理解:$\mbox{SH}_{su}\mbox{DO}_u\mbox{express(}s,\mbox{BEL}_u\mbox{equal(end\_time,4))}$\\意図理解:$\mbox{SH}_{su}\mbox{CINT}_{us}\mbox{equal(end\_time,4)}$\\意図生成:$\mbox{CINT}_{us}\mbox{INT}_s\mbox{DO}_u\mbox{inform\_ref([[place,P]])}$\end{quote}\smallskipと処理され,応答発話S6が生成される.\subsection{問題解決空間における意図生成の例}U3の処理で示した例は述語のエラーに対処するものであった.一方,内容語のエラーは,同一範疇の語と置換した場合は対話文脈を参照しないと検出されない場合が多い\footnote{これでも検出されない場合があるので,音声対話システムにおいては対話の最後に伝達された情報を確認するやりとりを設けることが必要である.}.ここでは,問題解決空間における処理で検出可能な内容語のエラーが生じたU7の処理について説明する.ここまでの問題解決空間の処理で,U1でユーザプランが明示されていることから,プラン認識は成功している.その場合,それ以降の問題解決空間の役割はやりとりがそのプランを達成するためのサブプラン達成を目的とするものか,またそのサブプランが所定のインスタンスで達成可能なものかを判定することである.S6の発話によって,場所の設定というサブプランに「小会議室」をインスタンスとして達成を試みるが,失敗したとする.そこでこれに対応した意図生成(2.6節の(2-b-2)の場合)を行い,エラー訂正のやりとり(S8-U9)が生成される.問題解決空間におけるこのような処理によって,内容語の誤認識にも対処できるようになっている. \section{むすび} 本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案した.発話理解から応答生成までを段階的に管理する発話理解・生成機構と,発話列をセグメント化し焦点および意図と関連付けて構造的にとらえる対話管理機構とについてモデル化を行い,音声の誤認識によるエラーを扱う機構を組み込んだ.今回提案したようなモデルがどの程度有効であるかを調べるために,我々は通信路にノイズを混入させたシステム−システムの自動対話による評価法を提案している\cite{araki97}.今後,適当なタスクを設定し,モデルの有効性を検証するとともに,タスク・文などの複雑さの程度を,モデルを評価する上でどのように扱うべきであるかという指針を立てることも目標とする.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた京都大学情報学研究科堂下研究室の皆様に感謝いたします.また,多くの有益なご指摘をいただきました査読者氏に深く感謝いたします.\appendix \section{述語の定義} \label{appendixA}\begin{table}[htbp]\begin{center}\begin{tabular}{|l|l|l|}\hline述語&定義&意味\\\hline\hline$\mbox{BEL}_xp$&primitive&xは$p$を信じている\\\hline$\mbox{SH}_{xy}p$&$\mbox{BEL}_x(p\land\mbox{SH}_{yx}p)$&xとyは互いに$p$を信じている\\\hline$\mbox{DO}_xe$&Primitive&xが$e$をするという行為\\\hline$\mbox{DO}_{xy}G(x,y)$&Primitive&xとyが$G$を目標とする行為\\\hline$\mbox{DONE}_xe$&Primitive&xが$e$を行った結果(命題)\\\hline$\mbox{INT}_xe$&Primitive&xが$e$を意図している\\\hline$\mbox{CINT}_{xy}p$&$\mbox{INT}_x\mbox{SH}_{xy}(p\land\mbox{CINT}_{xy}p)$&xがyに$p$を伝えようと意図している\\\hline\end{tabular}\\\end{center}\medskipただし,x,yはエージェント,$e$は行為,$p$は命題,$G(x,y)$はxから見た(yを参加者として含む)ゴールである.また,本文中で使用している述語lit-illocは表層的な発語内行為,expressは伝達意図の表明である.\end{table}\bibliographystyle{jnlpbbl}\vspace{3mm}\bibliography{v06n4_02}\begin{biography}\biotitle{略歴}\bioauthor{荒木雅弘}{1988年京都大学工学部情報工学科卒業.1993年同大学院博士課程単位取得退学.京都大学博士(工学).京都大学工学部助手,京都大学総合情報メディアセンター講師を経て,1999年より京都工芸繊維大学助教授.自然言語処理,音声対話理解の研究に従事.人工知能学会,情報処理学会等各会員.}\bioauthor{堂下修司}{1958年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,同助教授,東京工業大学助教授を経て,1973年京都大学工学部教授.1998年京都大学情報学研究科教授.1999年より龍谷大学理工学部教授.その間,音声の分析と認識,オートマトンの学習的構成,自然言語処理,人工知能など知的情報処理の研究に従事.人工知能学会前会長.情報処理学会等各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N05-04
\section{はじめに} 多言語話し言葉翻訳システムの処理には,文法から逸脱した表現などを含めた多様な表現を扱える頑健性,円滑なコミュニケーションのための実時間性,原言語と目的言語の様々なペアに適用できる汎用性,が必要である.多様な話し言葉表現をカバーするために詳細な構文意味規則を大量に記述する規則利用型(rule-based)処理は,多言語翻訳にとっては経済的な手法でない.一方,用例利用型(example-based)処理は,翻訳例の追加により翻訳性能を向上させていく汎用性の高い手法である.ただし,生データに近い状態の翻訳例をそのまま使うと,入力文に類似する翻訳例が存在しない場合が多くなる,翻訳例を組み合わせて翻訳結果を作り上げるには高度な処理が必要になる,などの問題が起こり,多様な表現に対して高精度の翻訳を実現することが困難になる.そこで,単純な構文構造や意味構造へ加工した用例を組み合わせて利用すれば,単純な解析を使うことによって頑健性も汎用性も高い翻訳処理が実現できる.筆者らは,パタン照合(patternmatching)による構文解析と用例利用型処理を用いた変換主導型機械翻訳(Transfer-DrivenMachineTranslation,以下,TDMTと呼ぶ)を話し言葉の翻訳手法として提案し,「国際会議に関する問い合わせ会話」を対象とする日英翻訳にTDMTを適用した~\cite{Furuse}.しかし,この時点のTDMTは,頑健性,実時間性,汎用性においてまだ問題があった.文献\cite{Furuse}では,多様な表現をカバーするために,表層パタンと品詞列パタンの使い分け,パタンを適用するための入力文の修正,などを行なっていた.例えば,名詞列について,ある場合は複合名詞を表すのに品詞列パタンを照合させ,別の場合は助詞を補完して表層パタンを照合させていた.しかし,どのようにパタンを記述すべきか,どのような場合にどのように入力文を修正すべきか,などの基準が不明瞭であった.そのため,誤った助詞を補完したり,補完の必要性を正確に判別できなかったりする場合があり,多言語翻訳へ展開するための汎用性に問題を残していた.また,限られた長さの複合名詞を品詞列パタンにより記述していたため,任意の長さの複合名詞を扱うことができないなど,頑健性にも問題があった.さらに,解析途中で構文構造候補を絞り込むことができない構文解析アルゴリズムを採用していたため,構文的な曖昧性の多い複文などに対して処理時間が増大するという実時間性の問題もあった.本論文では,これらの問題を解決するために,表層パタンのみを用いた統一的な枠組で,パタンの記述や照合,入力文の修正を行なう構成素境界解析(constituentboundaryparsing)を提案し,構成素境界解析を導入した新しいTDMTが多言語話し言葉翻訳~\cite{Furuse95,Yamamoto96}に対して有効な手法であることを評価実験結果により示す.また,構成素境界解析では,チャート法に基づくアルゴリズムで逐次的(left-to-right)に入力文の語を読み込んで,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析が行なえることも示す.現在は,「国際会議に関する問い合わせ会話」よりも場面状況が多様である「旅行会話」を翻訳対象とし,日英双方向,日韓双方向などの多言語話し言葉翻訳システムを構築している.システムは,構成素境界解析と用例利用型処理を組み合わせた新しいTDMTの枠組により,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳することができる.パタンや用例を利用する頑健な翻訳手法として,原言語と目的言語のCFG規則を対応させたパタンを入力文に照合させる手法~\cite{Watanabe},詳細な構文意味規則を利用する翻訳を併用する手法なども提案されている~\cite{Brown,Kato,Shirai}.前者は,表層語句だけでなく細かい属性を使ってパタンを記述することがあり,パタンの記述は必ずしも容易でない.また,解析中で競合するCFG規則が多くなり処理時間が増大しやすい.後者は,入力文がパタンや用例にヒットすれば高品質の翻訳結果を得られるが,多様な入力文に対して高いヒット率を実現するのは容易ではない.また,多言語翻訳へ展開する際に,様々な言語ペアの翻訳に対して詳細な構文意味規則をそれぞれ用意するのも容易でない.これらの手法に比べて,TDMTは,表層パタンのみの照合を行なうので,実時間性の点で有利である.パタンの記述も容易であり,パタンを組み合わせることにより,他の翻訳手法を併用しなくても多様な入力文に対応でき,頑健性においても,多言語翻訳を実現する汎用性においても有利である.以下,2節で構成素境界解析と用例利用型処理を組み合わせたTDMTの枠組,3節でパタンによる構文構造の記述,4節で構成素境界解析による構文構造の導出,5節で用例利用型処理による最尤の原言語構文構造の決定法と目的言語への変換,6節で解析途中での構文構造候補の絞り込み,について説明し,7節で日英双方向と日韓双方向の話し言葉翻訳の評価実験結果により,本論文で提案するTDMTの有効性を示す. \section{TDMTの枠組} TDMTは,単純な表層パタンと用例で記述した変換知識の情報を用いて構成素境界解析と用例利用型処理を行なう.構成素境界解析と用例利用型処理は構文解析や変換などを行なうTDMTの中心的処理である.本節では,変換知識について説明したあと,TDMTの翻訳処理の概要について述べる.\subsection{変換知識}~\label{tk}変換知識は,\ref{cb-pattern}節で説明する構成素境界パタンにより表した原言語表現が,用例を訳し分け条件としてどのような目的言語表現に対応するかを記述する.変換知識の作成は,原言語パタンごとに,システムが翻訳できるようなデータ形式に翻訳例を加工して行なう(この作業を以\clearpage\noindent下,翻訳訓練と呼ぶ).例えば,「京都に来てください」→``{\itPleasecometoKyoto}''という翻訳例の原言語部分から,「Xてください」と「XにY」という原言語パタンを抽出し,それぞれの原言語パタンについて変換知識を作成する.「XにY」では,XとYの具体的な語の組(京都,来る)に対して目的言語パタンは``Y$'${\itto}X$'$''になるという以下のような日英の変換知識を作る~\footnote{本論文では,XやYのようなパタンの変項を具体化する語の組で,変換知識の中で訳し分け条件として記述されているものを用例と呼ぶ.\ref{tk}節の「XにY」に関する変換知識の例では(京都,来る)や(空港,行く)が用例である.}.X$'$はXの対訳を示す.\begin{center}\begin{tabular}{cll}XにY&$=>$&Y$'${\itto}X$'$((京都,来る),(空港,行く)...),\\&&Y$'${\itat}X$'$((三時,来る),...),\\&&\hspace*{5mm}:\end{tabular}\end{center}この変換知識は,「空港に行く」→``{\itgototheairport}''や「三時に来る」→``{\itcomeatthreeo'clock}''のような翻訳例の翻訳訓練結果も含んでいる.TDMTでは,変換知識の原言語パタンを用いて,入力文に適合する原言語構文構造の候補を作る.また,変換知識の用例と目的言語パタンを用いて,最尤原言語構文構造とその変換結果である最尤目的言語構文構造を決定する.なお,原言語パタンには,意味距離計算の対象となる入力文中の語を決めるために主部(head)となる部分がどこであるかという情報を与える(\ref{dis-input}節参照).目的言語パタンには,生成処理を助けるための情報を与える(\ref{output}節参照).\subsection{翻訳処理の概要}本論文で提案するTDMTの構成を図~\ref{flow}に示す.\begin{figure*}[htb]\begin{center}\epsfile{file=flow.eps,hscale=1,vscale=1}\vspace{-2mm}\caption{TDMTの構成}\label{flow}\end{center}\end{figure*}\vspace*{-4mm}入力文を形態素解析した後,構成素境界解析では,変換知識の原言語パタンを組み合わせて入力文に適合する原言語構文構造の候補を作る.用例利用型処理では,構成素境界解析から送られた原言語構文構造候補の各パタンごとに,意味距離計算の対象となる入力文中の語の組に対して,変換知識の各用例との意味距離をシソーラスを参照して計算する.最小の意味距離を与える用例を類似用例と定義する.この類似用例の意味距離を元に構文構造のスコアを求め,最尤の原言語構文構造を決定する.構成素境界解析の途中で入力文の部分に対する構文構造候補ができた場合,用例利用型処理で構文構造のスコアを計算して候補を絞り込みながら,構成素境界解析を進めていく.構成素境界解析は入力文全体の原言語構文構造の候補を最終的に出力し,この候補の中から用例利用型処理で最尤のものを決定する.用例利用型処理では,さらに,入力文全体の最尤の原言語構文構造について,構造を構成する各パタンからは変換知識の中で類似用例が与える目的言語パタンへ変換し,構造の終端の語句からは対訳辞書の中で対応する目的言語の語句へ変換して,最尤の目的言語構文構造を作る~\footnote{原言語構文構造を作りながら目的言語構文構造へ変換することも可能であるが,現在は,翻訳処理の省力化のため,枝刈りされる原言語構文構造についての変換・生成は行なっていない.翻訳入力の途中で部分的な翻訳結果を出力する同時翻訳機構では,構文解析と変換・生成を同時に行なう必要がある.}.最後に,生成処理で,生成辞書を参照するなどして,最尤の目的言語構文構造から翻訳結果を出力する.TDMTは,表層パタンの照合による構成素境界解析と用例利用型処理を組み合わせたことにより多言語話し言葉翻訳システムを構築する上で,以下のような利点を持つ.\vspace*{6mm}\begin{itemize}\item多様な話し言葉表現の構文構造を単純なパタンの組み合わせにより記述できる.(頑健性)\item構文構造が単純であり,解析途中で候補を絞り込みながら構文構造を作り上げることにより,効率的な構文解析ができる.(実時間性)\item変換知識の記述が容易であり,構成素境界解析と用例利用型処理は単純で言語に依存しない手法なので,様々な言語ペアの翻訳に対応できる.(汎用性)\end{itemize} \section{構成素境界パタン} \label{cb-pattern}構成素境界パタンは,変項と構成素境界により成り,文や名詞句など意味的にまとまった語句の構文構造を表す~\cite{Furuse2}.変項は,XやYなどの記号により表し,構成素に対応する.構成素として変項を具体化するのは,内容語と,構成素境界パタンに照合する語句である.構成素境界は,機能語または品詞バイグラムマーカにより表し,構成素を関係づけたり修飾したりする.構成素境界解析では,構成素境界をキーにして構文構造を作っていくため(\ref{algorithm}節参照),構成素境界のない「XY」のような二つの変項が隣接するパタンは認めず~\footnote{目的言語表現は,構成素境界パタンでない「X$'$Y$'$」のようなパタンでも表すことができる.構成素境界は構文解析のために使い,生成では必ずしも必要としない.},構成素の間には必ず構成素境界を置く.以下,本節では,構成素境界パタンを用いた構文構造の記述方法について説明する.\subsection{構成素境界としての機能語}構成素境界パタンの中で構成素境界を表す表層語句は原則として機能語であり,内容語は構成素となるので構成素境界には使用しない.この制限により,パタンの種類が膨大になるのを防ぐことができる.英語の前置詞,日本語や韓国語の助詞は頻出の機能語であり構成素境界となる.例えば,英語語句``{\itgotoKyoto}''において,前置詞``{\itto}''が構成素境界として二つの構成素``{\itgo}''と``{\itKyoto}''の間にあると考え,構成素境界パタン``X{\itto}Y''を用いて図~\ref{cbp-func}の(a)のように構文構造を記述する.日本語語句「{\itこちらは観光局}」においても,機能語「{\itは}」が構成素境界として二つの構成素「{\itこちら}」と「{\it観光局}」の間にあり,構成素境界パタン「XはY」を用いて図~\ref{cbp-func}の(b)のように構文構造を記述する.\begin{figure}[tbh]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(50,15)\begin{small}\put(4,13){\shortstack{X{\itto}Y}}\put(6,9){\line(0,1){3}}\put(3,6){\shortstack{{\itgo}}}\put(14,9){\line(0,1){3}}\put(9,6){\shortstack{{\itKyoto}}}\put(8,1){\shortstack{(a)}}\put(37,13){\shortstack{XはY}}\put(39,9){\line(0,1){3}}\put(32,6){\shortstack{{\itこちら}}}\put(47,9){\line(0,1){3}}\put(44,6){\shortstack{{\it観光局}}}\put(40,1){\shortstack{(b)}}\end{small}\end{picture}\caption{構文構造(機能語が構成素境界)}\label{cbp-func}\end{center}\end{figure}\subsection{構成素境界としての品詞バイグラムマーカ}\subsubsection{品詞バイグラムマーカの挿入}~\label{bigram-marker}英語語句``{\itIgo}''は,二つの構成素``{\itI}''と``{\itgo}''より成る.しかし,この二つの構成素の間には表層語句は存在しない.このような場合,形態素解析で品詞が確定した後に,品詞バイグラムマーカを二つの構成素の間に挿入する.前方の構成素の最後の語の品詞をA,後続する構成素の先頭の語の品詞をBとすると,{\footnotesize$<$}A-B{\footnotesize$>$}を品詞バイグラムマーカと定義する.本論文では,AとBを品詞の英語名で表すことにする.連接する品詞Aと品詞Bの間に品詞バイグラムマーカ{\footnotesize$<$}A-B{\footnotesize$>$}を構成素境界として挿入する\break条件を以下に示す.\vspace*{6mm}\begin{enumerate}\renewcommand{\labelenumi}{}\item\hspace*{-3mm}AもBも,前後の構成素を関係づける格助詞や前置詞のような品詞でない.\item\hspace*{-3mm}Aが,後続の構成素を修飾する連体詞や冠詞のような品詞でない.\item\hspace*{-3mm}Bが,前にある構成素を修飾する日本語や韓国語の助動詞や接尾語のような品詞でない.\end{enumerate}\vspace*{6mm}例えば,「こちら{\footnotesize$<$}pronoun-particle{\footnotesize$>$}は{\footnotesize$<$}particle-noun{\footnotesize$>$}観光局」や``{\itgo}{\footnotesize$<$}verb-preposition{\footnotesize$>$}{\itto}{\footnotesize$<$}preposition-propernoun{\footnotesize$>$}{\itKyoto}''のような品詞バイグラムマーカの挿入は[1]の条件に抵触するので認めない.「{\itその}」と「{\itホテル}」の間や``{\itthe}''と``{\itbus}''の間は[2]に,「{\it行き}」と「{\itます}」の間や「{\it鈴木}」と「{\itさん}」の間は[3]に,それぞれ抵触するので品詞バイグラムマーカは挿入しない.品詞バイグラムマーカは,本節の条件により機械的に挿入することができ,単語名でなく品詞名を使うので種類を限定することができる~\footnote{用例利用型処理(\ref{ebmt}節参照)により高精度の構文解析や変換を実現するためには変換知識の各パタンにできるだけ多くの用例を付与することが望ましい.そこで,品詞バイグラムマーカを「X{\footnotesize$<$}$\ast$-$\ast${\footnotesize$>$}Y」のように一本化して用例を集約することも考えられる.しかし,英語のパタン``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''が照合するのは``{\itI}{\footnotesize$<$}pronoun-verb{\footnotesize$>$}{\itgo}''のような単文レベルの表現にほぼ限定されるというように,品詞バイグラムマーカの挿入位置が構成素境界パタンの構造レベル(\ref{combination}節参照)に関係する場合があるので,現在はマーカを挿入位置の前後の品詞で区別している.}.\subsubsection{品詞バイグラムマーカを用いた構文構造記述}英語語句``{\itIgo}''の``{\itI}''と``{\itgo}''はそれぞれ代名詞と一般動詞であり,{\footnotesize$<$}pronoun-verb{\footnotesize$>$}を\mbox{構成}素境界としてそれらの間に挿入する.この結果,``{\itIgo}''は``{\itI}{\footnotesize$<$}pronoun-verb{\footnotesize$>$}{\itgo}''に修正され,パタン``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''に照合可能になる.従って,``{\itIgo}''の構造は図~\ref{cbp-bi}の(a)のように記述できる.また,日本語の話し言葉では,「こちら観光局」のように助詞がしばしば省略される.この語句は「こちら」と「観光局」という二つの構成素より成る.「こちら」は代名詞,「観光局」は普通名詞なので,{\footnotesize$<$}pronoun-noun{\footnotesize$>$}を構成素境界として「こちら」と「観光局」の間に挿入する.修正された「こちら{\footnotesize$<$}pronoun-noun{\footnotesize$>$}観光局」は「X{\footnotesize$<$}pronoun-noun{\footnotesize$>$}Y」に照合可能になる.品詞バイグラムマーカ{\footnotesize$<$}pronoun-noun{\footnotesize$>$}が「は」と同様の働きをすることにより,助詞が脱\break落していない「こちらは観光局」と同様の構造を助詞脱落表現についても図~\ref{cbp-bi}の(b)のように記述することができる.\begin{figure}[tbh]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(81,14)\begin{small}\put(1,13){\shortstack{X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y}}\put(3,9){\line(0,1){3}}\put(1,6){\shortstack{{\itI}}}\put(32,9){\line(0,1){3}}\put(29,6){\shortstack{{\itgo}}}\put(14,1){\shortstack{(a)}}\put(45,13){\shortstack{X{\footnotesize$<$}pronoun-noun{\footnotesize$>$}Y}}\put(47,9){\line(0,1){3}}\put(42,6){\shortstack{{\itこちら}}}\put(76,9){\line(0,1){3}}\put(71,6){\shortstack{{\it観光局}}}\put(57,1){\shortstack{(b)}}\end{small}\end{picture}\caption{構文構造(品詞バイグラムマーカが構成素境界)}\label{cbp-bi}\end{center}\end{figure}文献\cite{Furuse}のTDMTは,「空港バス」や「会場入り口」など複数の名詞が連続した複合名詞を``NOUN$_{1}$NOUN$_{2}$''という品詞列パタンにより表し,「XのY」のような表層パタンの場合とは異なる照合のメカニズムを使っていた.品詞バイグラムマーカの導入により,複数の名詞が連続した複合名詞も,「X{\footnotesize$<$}noun-noun{\footnotesize$>$}Y」のように構成素境界パタンで表現でき,表層パタンの照合のみで構文解析を行なうことが可能になった.すなわち,「空港バス」のような複合名詞も「こちら観光局」のような助詞脱落表現も,品詞バイグラムマーカにより構文構造を記述できる.本論文で提案する品詞バイグラムマーカの挿入により,助詞脱落表現に具体的な助詞を補完する手法~\cite{Furuse}で生じた,補完する助詞を誤る,補完すべきでない時に助詞を補完する,などの問題を解決することができる.\subsection{多様な構成素境界パタン}変項の間に必ず構成素境界を置けば,「そのX」,「XにY」,「XからYまでZ」など,変項の数に制限なく構成素境界パタンを作ることができる.また,「明日までに行く」という語句では機能語である助詞「まで」と「に」が連続している.「まで」と「に」の間は\ref{bigram-marker}節の条件[1]に抵触するので品詞バイグラムマーカを挿入する必要はなく,機能語を連続させて構成素境界とした「XまでにY」のような構成素境界パタンを作ることができる.\subsection{構成素境界パタンの組み合わせ}~\label{combination}構成素境界パタンに照合する語句は,構成素として別の構成素境界パタンの変項を具体化することができる.すなわち,構成素境界パタンを組み合わせることにより構文構造を作ることができる.任意の長さの複合名詞も,「X{\footnotesize$<$}noun-noun{\footnotesize$>$}Y」のような構成素境界パタンの組み合わせにより構文構造を記述できる.しかし,パタンの組み合わせ方によってはありえない構文構造ができるので,構文解析の品質や効率を上げるためにこのような構造を排除する必要がある.このため,本論文では,パタンを構造レベルによって分類し,各構造レベルのパタンの変項を具体化できる語句について,そのサブ構造レベルと品詞を表~\ref{var}のようにあらかじめ指定する~\footnote{これは各構造レベルで,変項すべてについて適用される緩やかな制限である.英語のパタン``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''のXは名詞性のパタンや語でしか具体化できないなど,より厳しい制限を特定の変項についてローカルに与えることもできる.}.これにより,パタンの組み合わせ方を制限し,ありえない構文構造を排除することができる.\renewcommand{\arraystretch}{}\begin{table}[tbh]\begin{center}\caption{構造レベルの関係}\label{var}\begin{small}\begin{tabular}{|l|l|}\hline構造レベル&変項を具体化できるサブ構造レベルと品詞\\\hline複文,重文&複文,重文,単文,動詞句,$\ldots$\\単文&動詞句,名詞句,複合名詞,$\ldots$\\動詞句&動詞句,名詞句,複合名詞,一般動詞,$\ldots$\\名詞句&名詞句,複合名詞,普通名詞,固有名詞,$\ldots$\\複合名詞&複合名詞,普通名詞,$\ldots$\\\hline\end{tabular}\end{small}\end{center}\end{table}例えば,``{\itIgotoKyoto}''という文の構文構造は,``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''と``X{\itto}Y''というパタンの組み合わせになる.``{\itIgotoKyoto}''の正しい構造は図~\ref{Igoto}の(a)であり,(b)の構造は排除しなくてはならない.``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''を単文レベル,``X{\itto}Y''を動詞句レベルのパタンに指定し,表~\ref{var}のように動詞句の下部構造を制限すれば,``X{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y''は``X{\itto}Y''の下部構造とはなりえないので,(b)の構造は排除される.\begin{figure}[tbh]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(90,24)\put(2,21){\shortstack{\smallX{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y}}\put(3,17){\line(0,1){3}}\put(1,13){\shortstack{\small\itI}}\put(30,17){\line(0,1){3}}\put(24,14){\shortstack{\smallX{\itto}Y}}\put(26,10){\line(0,1){3}}\put(23,7){\shortstack{\small\itgo}}\put(34,10){\line(0,1){3}}\put(28,7){\shortstack{\small\itKyoto}}\put(16,1){\shortstack{{\small(a)}}}\put(73,21){\shortstack{\smallX{\itto}Y}}\put(69,17){\line(4,3){5}}\put(50,14){\shortstack{\smallX{\footnotesize$<$}pronoun-verb{\footnotesize$>$}Y}}\put(52,10){\line(0,1){3}}\put(50,7){\shortstack{\small\itI}}\put(79,10){\line(0,1){3}}\put(76,7){\shortstack{\small\itgo}}\put(89,17){\line(-4,3){5}}\put(85,14){\shortstack{\small\itKyoto}}\put(74,1){\shortstack{{\small(b)}}}\end{picture}\caption{{\itIgotoKyoto}の構文構造}\label{Igoto}\end{center}\end{figure} \section{構成素境界解析} \label{parsing}構成素境界解析は,相互情報量を用いて再帰的に構成素境界を検知して構文構造を求める頑健な構文解析手法としても提案されているが~\cite{Margerman},統計処理への依存が強く,文法情報をほとんど利用しないため解析精度に問題があった.本論文で提案する構成素境界解析は,意味的にまとまった語句について構成素境界パタンを作り,構造レベルでパタンを分類するなど,単純で緩やかな文法制約を与えることにより高精度の構文解析を可能にする.本節では,チャート法に基づくアルゴリズムで,逐次的に入力文の語を読み込んでボトムアップに構文構造を作り上げる構成素境界解析について説明する.\subsection{活性弧と不活性弧}チャート法は活性弧と不活性弧を組み合わせることにより入力文の構文構造を作る.図~\ref{passive}の(a)のような内容語による構造,構成素境界パタンのすべての変項が具体化された(b)と(c)のような構造は不活性弧に対応する.$\Uparrow$は,構文解析で読み込み中の語を指す走査カーソルである.入力文の構文構造は,入力文全体をカバーする不活性弧に対応する.構成素境界パタン中に具体化されていない変項がある図~\ref{active}の(d)と(e)のような構造は活性弧に対応する.\clearpage\begin{figure}[h]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(60,16)\small\put(1,12){\shortstack{友人}}\put(2,8){\shortstack{\large$\Uparrow$}}\put(1,0){\shortstack{(a)}}\put(23,16){\shortstack{XにY}}\put(25,12){\line(0,1){3}}\put(21,9){\shortstack{京都}}\put(33,12){\line(0,1){3}}\put(30,9){\shortstack{行く}}\put(32,5){\shortstack{\large$\Uparrow$}}\put(28,0){\shortstack{(b)}}\put(51,14){\shortstack{Xさん}}\put(57,10){\shortstack{\large$\Uparrow$}}\put(52,10){\line(0,1){3}}\put(49,7){\shortstack{鈴木}}\put(55,0){\shortstack{(c)}}\end{picture}\caption{不活性弧に対応する構造}\label{passive}\end{center}\end{figure}\vspace*{-8mm}\begin{figure}[h]\begin{center}\setlength{\unitlength}{1mm}\begin{picture}(30,13)\small\put(3,12){\shortstack{XからY}}\put(9,8){\shortstack{\large$\Uparrow$}}\put(5,8){\line(0,1){3}}\put(1,5){\shortstack{東京}}\put(8,0){\shortstack{(d)}}\put(27,12){\shortstack{このX}}\put(29,8){\shortstack{\large$\Uparrow$}}\put(29,0){\shortstack{(e)}}\end{picture}\caption{活性弧に対応する不完全な構造}\label{active}\end{center}\end{figure}\vspace*{-3mm}チャート法は,部分的な構文解析結果を弧で表すことにより同じ解析を繰り返すのを回避し,効率的な構文解析を行なう.さらに,構成素境界パタンを使ったチャート法の構文解析では,表層をキーとして弧を張っていくので,競合する構成素境界パタンが少ない.従って,張られる弧の数も少ないため,処理時間をより一層抑えることができる.\subsection{構文解析}~\label{algorithm}「友人とハワイに来週行きます」という日英翻訳の入力文を例にとって,TDMTの構成素境界解析を説明する.まず,形態素解析により入力文の各語の品詞を次のように決定する.\begin{small}\begin{center}\begin{tabular}{ccccccc}友人&と&ハワイ&に&来週&行き&ます\\普通名詞&助詞&固有名詞&助詞&普通名詞&動詞&助動詞\end{tabular}\end{center}\end{small}\ref{bigram-marker}節の条件を満たす品詞バイグラムマーカは,普通名詞と動詞の間の{\footnotesize$<$}noun-verb{\footnotesize$>$}のみであり,入力文は「友人とハワイに来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行きます」に修正される.修正された入力文\breakに対し,以下のアルゴリズムに従って,逐次的にボトムアップの構成素境界解析を行なう.以下では,語と語の間に節点を置き,左から$k$番目の語の左隣には節点{\small$k-1$}が,右隣には節点{\small$k$}があるものとする.弧は節点から節点に張るものとする.\vspace*{6mm}\begin{quote}\begin{enumerate}\renewcommand{\labelenumi}{}\newcommand{\labelenumii}{}\item[({\footnotesize0})]先頭の語に走査カーソルを設定し,$k:=1$として,(i)へ.\item走査カーソルの指す語が名詞や動詞などの内容語であれば,節点$k-1$から節点$k$に不活性弧を張り,(iii)へ.そうでなければ,(ii)へ.\item走査カーソルの指す語が構成素境界$\alpha_1$であれば,構成素境界から構成素境界パタンへの対応表を参照することにより,\mbox{構成素境界パタンを検索}\clearpageする.検索されたすべてのパタンについて,その形式に応じて(ii.a)$\sim$(ii.e)のいずれかの処理を行なったうえで,(iii)へ.パタンが検索できなければ,(iv)へ.\samepage{\begin{enumerate}\item「X$\alpha_1$Y」,「X$\alpha_1$Y$\alpha_2$Z」,「X$\alpha_1\alpha_2$Y」のように,$\alpha_1$の左が変項一つのみであり,$\alpha_1$が右端でないパタンが検索された場合,そのパタンの$\alpha_1$の左隣の変項を,節点$j$から節点$k-1$(ただ\breakし,$j<k-1$)に張られた不活性弧で具体化できれば,検索されたパタンに関する活性弧を節点$j$から節点$k$に張る.\item「X$\alpha_1$」のように,$\alpha_1$の左が変項一つのみであり,$\alpha_1$が右端であるパタンが検索された場合,そのパタンの$\alpha_1$の左の変項を,節点$j$から節点$k-1$に張られた不活性弧で具体化できれ\breakば,検索されたパタンに関する不活性弧を節点$j$から節点$k$に\break張る.\item「$\alpha_1$X」,「$\alpha_1$X$\alpha_2$」のように,$\alpha_1$が左端であるパタンが検索された場合,検索されたパタンに関する活性弧を節点$k-1$から節点$k$に張る.\item「X$\alpha_0$Y$\alpha_1$Z」,「X$\alpha_0\alpha_1$Y」のように,$\alpha_1$の左に別の構成素境界があり,$\alpha_1$が右端でないパタンが検索された場合,検索されたパタンに関する活性弧が,$\alpha_1$より左のみ具体化されて節点$j$から節点$k-1$に張られていれば,検索されたパタンに関\breakする活性弧を節点$j$から節点$k$に張る.\item「$\alpha_0$X$\alpha_1$」のように,$\alpha_1$の左に別の構成素境界があり$\alpha_1$が右端であるパタンが検索された場合,検索されたパタンに関す\breakる活性弧が,$\alpha_1$より左が具体化されて節点$j$から節点$k-1$に\break張られていれば,検索されたパタンに関する不活性弧を節点$j$から節点$k$に張る.\end{enumerate}\item節点$i$から節点$k$(ただし,$i<k$)に新しく張られた不活性弧が,節点$h$から節点$i$(ただし,$h<i$)に張られた活性弧を構成するパタンの中のまだ具体化されていない最左の変項を具体化できれば,さらに節点$h$から節点$k$に新しい不活性弧または活性弧を張る.新しい弧が張れなくなるまでこの操作を繰り返し,(iv)へ.\item走査カーソルの指す語が入力文の最後の語であれば,解析終了.そうでなければ,走査カーソルを右へ一語移動させ,$k:=k+1$として,(i)へ.}\end{enumerate}\vspace*{6mm}\end{quote}\newpage(ii)で参照する対応表は,システムが持つ変換知識の原言語パタンからあらかじめ機械的に作成しておく.例文の構成素境界解析において検索される構成素境界パタンを表~\ref{ch1:tret}に示す.\begin{table}[tbh]\begin{center}\caption{構成素境界パタンの検索}\label{ch1:tret}\begin{small}\begin{tabular}{|c|cc|}\hline構成素境界&構成素境界パタン&(パタンの構造レベル)\\\hline{\itと}&XとY&(名詞句,動詞句)\\{\itに}&XにY&(動詞句)\\{\footnotesize$<$}noun-verb{\footnotesize$>$}&X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y&(動詞句)\\{\itます}&Xます&(単文)\\\hline\end{tabular}\end{small}\end{center}\end{table}図~\ref{chart}は入力文に対して弧が張られていく過程を示すチャートである.実線は不活性弧を,点線は活性弧を示し,弧のできる順序を示す番号により弧を識別する.\begin{figure*}[htb]\begin{center}\epsfile{file=chart.eps,hscale=0.9,vscale=0.9}\caption{構文解析の過程を示すチャート}\label{chart}\end{center}\end{figure*}先頭の語「友人」は内容語であり,不活性弧(1)を張る.次の語「と」により「XとY」のXを(1)で具体化させた活性弧(2)と(3)を張る.「XとY」は(2)では動詞句のパタン,(3)では名詞句のパタンである.「ハワイ」により不活性弧(4)を張る.(3)の「XとY」のYを(4)で具体化し,不活性弧(5)を張る.次の語「に」から検索された動詞句パタン「XにY」のXを(4)と(5)でそれぞれ具体化し,活性弧(6)と(7)を張る.「来週」により不活性弧(8)を張る.\clearpage\noindent{\footnotesize$<$}noun-verb{\footnotesize$>$}から検索された「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」のXを(8)で具体化し,活性弧(9)を張る.「行き」により不活性弧(10)を張り,(9)の「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」のYを(10)で具体化し,不活性弧(11)を張る.(6)と(7)の「XにY」のYを(11)で具体化し,それぞれ不活性弧(12)と(13)を張る.さらに,(2)の「XとY」のYを(12)で具体化し,不活性弧(14)を張る.入力文の最後の語「{\itます}」から検索された「Xます」のXを(14)と(13)で具体化し,それぞれ不活性弧(15)と(16)を張る.すべての語を読み込み終えて,これ以上新たな弧が張れない状態になり,解析は終了する.入力文全体をカバーする不活性弧(15)と(16)が入力文の構文構造の候補に対応する.図~\ref{15and16}に入力文の構文構造の候補を示す.パタンに付随する番号は,そのパタンを最上部とする構文構造が対応する不活性弧を示す.\begin{figure*}[htb]\begin{center}\epsfile{file=structures.eps,hscale=0.8,vscale=0.8}\caption{入力文の構文構造の候補}\label{15and16}\end{center}\end{figure*} \section{用例利用型処理} \label{ebmt}本節では,構成素境界解析で得られた入力文の構文構造の候補から,意味距離計算によって最尤の目的言語構文構造を決定する用例利用型処理について,\ref{algorithm}節の例文を使って説明する.\subsection{意味距離計算}~\label{dis-input}現在,TDMTでは,シソーラス上での意味属性の位置関係により単語間に0$\sim$1の意味距離を与え~\cite{Sumita},構成素境界パタンに関する意味距離を,各変項についての単語間の意味距離の合計値としている.不活性弧(11)を構成する「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」では,XとYを具体化する語の組(来週,行く)を意味距離計算の対象として~\footnote{意味距離計算は表記形「行き」でなく標準形「行く」に対して行なう.},「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」に関する変換知識の用例との意味距離を計算する.例えば,(来週,行く)と用例(明日,来る)の間の意味距離は,「来週」と「明日」の間の意味距離と,「行く」と「来る」の間の意味距離の合計値である.構成素境界パタンに照合する語句が上部の構成素境界パタンの変項を具体化している場合,主部の語の組を対象として用例との意味距離を計算する.構成素境界パタンで主部となる部分\breakの情報は変換知識に記述しておき,主部は下部の構造から上部の構造へ伝搬するという性質を\break利用して,主部の語を機械的に求めることができる.不活性弧(12)では「XにY」のXとY\breakを,「ハワイ」と「来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」でそれぞれ具体化する.「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」ではYを\break主部に定めているとすると,「来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」の主部は「行き」であり,不活性弧(12)の「XにY」に関する意味距離計算の対象は(ハワイ,行く)となる.\subsection{最尤原言語構文構造の決定と目的言語への変換}~\label{output}用例利用型処理では,構文構造を構成する各構成素境界パタンについて類似用例を変換知識の中から求める.類似用例の与える情報により,最尤の原言語構文構造を決定し,その構造を目的言語に変換して,最尤の目的言語構文構造を得る.不活性弧(15)と(16)に対応する構文構造を構成する構成素境界パタンについて,意味距離計算の結果を表~\ref{d-cal}のように仮定する.\begin{table*}[htb]\begin{center}\caption{意味距離計算の結果}\label{d-cal}\begin{small}\begin{tabular}{|c|c||c|ccc|}\hline構文構造の最上部の&対応する&意味距離計算の&\multicolumn{3}{c|}{意味距離計算の結果}\\\cline{4-6}パタン{\footnotesize(太字は主部)}&不活性弧&対象&類似用例&目的言語パタン&意味距離\\\hlineXと{\bfY}{\footnotesize(動詞句)}&(14)&(友人,行く)&(社長,行く)&Y$'${\itwith}X$'$&0.34\\Xと{\bfY}{\footnotesize(名詞句)}&(5)&(友人,ハワイ)&(京都,奈良)&X$'${\itand}Y$'$&1.01\\Xに{\bfY}&(12),(13)&(ハワイ,行く)&(京都,行く)&Y$'${\itto}X$'$&0.18\\X{\footnotesize$<$}noun-verb{\footnotesize$>$}{\bfY}&(11)&(来週,行く)&(明日,来る)&Y$'$X$'$&0.12\\{\bfX}ます&(15),(16)&(行く)&(行く)&{\itIwill}X$'$&0.00\\\hline\end{tabular}\end{small}\end{center}\end{table*}類似用例が与える意味距離を,構文構造を構成する構成素境界パタンについてすべて合計した値を,構文構造のスコアと定義し,このスコアが最小のものを最尤の構文構造とする~\cite{Furuse}.不活性弧(15)に対応する構文構造では,「XとY」(動詞句),「XにY」,「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」,「Xます」で類似用例が与える意味距離,0.34,0.18,0.12,0.00を合計した0.64がスコアとなる.不活性弧(16)に対応する構文構造では,「XとY」(名詞句),「XにY」,「X{\footnotesize$<$}noun-verb{\footnotesize$>$}Y」,「Xます」で類似用例が与える意味距離1.01,0.18,0.12,0.00を合計した1.31がスコアとなる.従って,不活性弧(15)に対応する構文構造が最小のスコアを持ち,入力文全体についての最尤の原言語構文構造となる.\clearpage最尤の原言語構文構造の各構成素境界パタンを,変換知識の中で類似用例が訳し分け条件となって与える目的言語パタンへと変換することにより,最尤の目的言語構文構造を作る.不活性弧(15)に対応する構文構造では,各構成素境界パタンは表~\ref{d-cal}の5列目に示す目的言語パタンに変換される.内容語の「友人」,「ハワイ」,「来週」,「行き」は,対訳辞書を参照して``{\itfriend}'',``{\itHawaii}'',``{\itnextweek}'',``{\itgo}''にそれぞれ変換され~\footnote{TDMTシステムは,内容語に対して,対訳辞書に記述されたデフォルトの対訳語句を与えているが,意味距離計算の結果の類似用例によってはデフォルト以外の対訳語句を与えている\cite{Furuse,Yamada}.},図~\ref{(15)}に示す目的言語構文構造ができる.矢印の上の数字は,各構成素境界パタンのスコアである.\begin{figure*}[htb]\begin{center}\epsfile{file=transfer.eps,hscale=0.8,vscale=0.8}\caption{最尤原言語構文構造の変換}\label{(15)}\end{center}\end{figure*}用例利用型処理で得られた最尤の目的言語構文構造は,原言語構文構造の性質を受け継いでいるため,そのまま線条化すると,``{\itIwillgonextweektoHawaiiwiththefriend}''となってしまう.そこで,``Y$'$X$'$''の``X$'$''は時間格,``Y$'${\itto}X$'$''の``{\itto}X$'$''は場所格,というような情報をあらかじめ変換知識の目的言語パタンに与えておいたうえで,語順や活用などの調整を生成処理で行ない,以下のような英語文を出力する.\begin{small}\begin{center}``{\itIwillgotoHawaiiwiththefriendnextweek}''\end{center}\end{small} \section{解析途中での構文構造候補の絞り込み} \label{n-best}意味距離計算により構文構造のスコアを得るためには,下部の構造での主部の語を確定させ意味距離計算の対象を決定する必要がある.不活性弧は,構文構造を構成する構成素境界パタンのすべての変項が具体化されている構造であり,構成素境界パタンの主部の語をすべて求めることができるので意味距離計算の対象が決定し,構文構造のスコアが得られる.TDMTでは,処理時間を短縮するために,入力文の同じ部分に対して作られる不活性弧をスコアにより順位づけし,上位n個(n-best)の不活性弧のみを保持して構文解析を進めていく.すなわち,解析途中で構文構造候補の絞り込みを行なう.保持した不活性弧にはスコアと主部の情報を与え,上部の構造で意味距離計算による構文構造候補の絞り込みが容易にできるようにする.意味距離計算により解析途中で構文構造候補を絞り込むには,\ref{algorithm}節のアルゴリズムのようなボトムアップの解析が必要である.TDMTシステムは現在,1-bestをデフォルトとして解析途中での構文構造候補の絞り込みを行なっているが,nの値は容易に変更可能である.例えば,\ref{algorithm}節の入力文の解析の途中で,「友人とハワイに来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」に対して,二つの不活性弧(13)と(14)ができる.保持する不活性弧を1-bestにして構文解析を行なうと,スコアの良い(14)のみが「友人とハワイに来週{\footnotesize$<$}noun-verb{\footnotesize$>$}行き」について保持され,「Xます」のXを(14)で具体化した(15)のみが入力文の構文構造に対応する.(13)は途中で枝刈りされるので(16)に対応する構文構造は作られない. \section{多言語話し言葉翻訳の評価実験} 本節では,構成素境界解析と用例利用型処理を組み合わせたTDMTシステムに対する,日英双方向と日韓双方向の話し言葉翻訳の評価実験結果について述べる.\subsection{言語データベースからのシステムデータ構築}TDMTシステムの翻訳対象は,話し言葉翻訳を使用する場面を想定した「旅行会話」とし,TDMTシステムの翻訳訓練文と評価文を選定するために,ホテルの予約,ホテルの紹介,ホテルでのサービス,乗物の切符購入,道案内,交通手段の問い合わせ,観光ツアーの案内など旅行会話全般のトピックに渡る言語データベースを構築した~\cite{Furuse3}.この言語データベースは,通訳を介したバイリンガル模擬会話,基本表現を網羅するために机上で作成した対訳表現集より成る.この言語データベースに形態素のタグづけを行なうことによりTDMTシステムの形態素辞書を構築している.表~\ref{size}は,TDMTシステムの主要データである形態素辞書と変換知識について,評価実験時の規模を翻訳訓練文の概要とともに示す.\begin{table}[bht]\begin{center}\caption{TDMTシステムの規模}\label{size}\begin{small}\begin{tabular}{|l||c|c|c|c|}\hline&日英&日韓&英日&韓日\\\hline形態素辞書の語彙数(概算)&\multicolumn{2}{c|}{13000}&8000&4000\\\hline翻訳訓練文数{\footnotesize(異なり)}&2932&1543&2865&613\\\hline翻訳訓練文の平均語数{\footnotesize(異なり)}&10.0&9.5&8.5&8.0\\\hline変換知識のパタンの種類&776&591&1177&330\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsection{評価実験の内容}~\label{test-cond}旅行会話での多言語話し言葉翻訳のシステム性能を把握するために,言語データベースの中でTDMTシステムが翻訳訓練していないバイリンガル模擬会話から,評価文を無作為抽出して,評価実験を行なった.評価文は,表~\ref{open-sen}に示すように,各言語ペアの翻訳で異なり1000文以上である.日本語を入力とする日英と日韓の翻訳については,比較検討のため,同じ文を使って評価実験を行なった.\begin{table}\begin{center}\caption{評価文(ブラインドテスト)}\label{open-sen}\begin{small}\begin{tabular}{|c||c|c|c|}\hline&日英,日韓&英日&韓日\\\hlineのべ文数&1225{\footnotesize(9.7語$/$文)}&1341{\footnotesize(7.1)}&1174{\footnotesize(8.1)}\\異なり文数&1001{\footnotesize(11.4語$/$文})&1019{\footnotesize(8.8)}&1004{\footnotesize(9.1)}\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsubsection{評価項目}評価項目は,翻訳品質,構文解析,処理時間である.翻訳品質に関しては,複数の尺度で採点する方法~\cite{Nag}や,様々な言語現象を含む評価文の翻訳結果が評価項目をクリアしているかどうかを調べ,システム改良の参考データを求める方法~\cite{Ikehara}などが提案されている.ただし,これらはほとんど日英間の書き言葉翻訳を対象としており,多言語話し言葉翻訳についての評価方法は提案されていない.筆者らは,話し言葉翻訳という性格上,どのような言語的な誤りがあったかよりも,話し手の言いたいことが聞き手にどの程度伝わったかという観点が重要であると考え,システム開発者よりもシステム使用者の視点に立って翻訳品質を評価した.以下の翻訳成功率を設定し,各言語ペアの翻訳について,原言語に堪能な目的言語のネイティブ話者3名が採点した結果の平均値を求めた.\vspace*{6mm}\begin{quote}\begin{description}\item[翻訳成功率A:]\\話し手の言いたいことのすべてが問題なく聞き手に伝わっている\\{\bf「問題なし」}と判定された文の割合\item[翻訳成功率B:]\\話し手の言いたいことの最低限必要な内容が聞き手に伝わっている\\{\bf「理解可能」}と判定された文の割合\end{description}\end{quote}\vspace*{6mm}構成素境界解析による構文解析結果の評価では,入力文全体の構造を正しく解析できていれば成功,一部でも誤った構造になっていれば失敗と判定し,構文解析成功率を求めた.処理時間は,CommonLispで記述したプログラムをコンパイルしたTDMTシステムについて,SPARCstation10上で計測した.\subsubsection{評価実験の前提}評価実験は以下の前提で行なった.\vspace*{6mm}\begin{itemize}\itemシステムへの入力は,文字列でなく正解形態素列とし,形態素解析の性能~\cite{Yamamoto}とTDMTの性能を独立に評価することにした.処理時間も形態素解析の時間を除いて計測した.また,話し言葉翻訳という前提を考慮して,音声として現れない句読点,コンマ,ピリオドなどは入力に含めなかった.\item入力文で同じ部分に対して保持する不活性弧を1-bestにして構文構造候補を絞り込みながら構成素境界解析を行なった.これは,構文構造を多く保持しても,表\ref{comp-n-best}に示すように翻訳結果が変わるのは少数であり,翻訳結果が変わって品質が向上したのはごく少数だったという予備実験の結果による.\end{itemize}\begin{table}[bht]\begin{center}\caption{構文構造候補の絞り込みの影響}\label{comp-n-best}\vspace{2mm}\begin{small}\begin{tabular}{|l|l||c|c|c|}\hline&&1-best&5-best&10-best\\\hline1-bestの時と比較した&日英&0{\tiny\bf\%}&5.9{\tiny\bf\%}&6.1{\tiny\bf\%}\\\cline{2-5}翻訳結果の差分割合(のべ)&英日&0{\tiny\bf\%}&5.0{\tiny\bf\%}&5.1{\tiny\bf\%}\\\hline全評価文の平均処理時間&日英&0.52{\tiny\bf秒}&0.70{\tiny\bf秒}&0.81{\tiny\bf秒}\\\cline{2-5}(形態素解析の時間を除く)&英日&0.30{\tiny\bf秒}&0.48{\tiny\bf秒}&0.66{\tiny\bf秒}\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsection{評価実験結果}表~\ref{rate-all}に,全評価文に対する翻訳成功率と構文解析成功率を示す.\begin{table}[bht]\begin{center}\caption{翻訳成功率と構文解析成功率(全評価文)}\label{rate-all}\begin{small}\begin{tabular}{|ll||c|c|c|c|}\hline&&日英&日韓&英日&韓日\\\hline翻訳訓練文数&{\scriptsize\bf異なり}&2932&1543&2865&613\\\hline翻訳成功率A&{\scriptsize\bfのべ}&45.3{\tiny\bf\%}&60.4{\tiny\bf\%}&43.4{\tiny\bf\%}&47.4{\tiny\bf\%}\\(問題なし)&{\scriptsize\bf異なり}&34.2{\tiny\bf\%}&51.7{\tiny\bf\%}&35.0{\tiny\bf\%}&39.9{\tiny\bf\%}\\\hline翻訳成功率B&{\scriptsize\bfのべ}&78.5{\tiny\bf\%}&93.0{\tiny\bf\%}&83.8{\tiny\bf\%}&92.2{\tiny\bf\%}\\(理解可能)&{\scriptsize\bf異なり}&73.9{\tiny\bf\%}&91.5{\tiny\bf\%}&81.2{\tiny\bf\%}&91.1{\tiny\bf\%}\\\hline構文解析成功率&{\scriptsize\bfのべ}&77.8{\tiny\bf\%}&70.5{\tiny\bf\%}&74.6{\tiny\bf\%}&60.0{\tiny\bf\%}\\&{\scriptsize\bf異なり}&72.8{\tiny\bf\%}&63.9{\tiny\bf\%}&66.6{\tiny\bf\%}&53.4{\tiny\bf\%}\\\hline\end{tabular}\end{small}\end{center}\end{table}どの言語ペアの翻訳についても翻訳成功率Bは高く,TDMTシステムが,話し手の意図が理解可能なレベルの多言語翻訳を多くの旅行会話文に対して実現していることが示された.TDMTシステムの日英,日韓,英日,韓日の翻訳について,評価文に対する翻訳実行例を付録に示す.日韓と韓日については,翻訳訓練文が少ないにもかかわらず特に高い翻訳成功率を達成している.構文解析成功率は,翻訳訓練文数が多い日英と英日が高く,訓練文数が最小だった韓日が最も低い.図~\ref{time}は,翻訳に要したCPUtimeを各形態素数ごとに平均した値により処理時間を示す.形態素解析の時間は含めていない.翻訳訓練文数が多い日英と英日は他の翻訳に比べて処理時間が少し長いが,いずれの言語ペアの翻訳でも実時間の処理を実現している.\begin{figure}[htb]\begin{center}\epsfile{file=length-time.eps,hscale=0.7,vscale=0.7}\vspace{-2mm}\caption{入力形態素数と処理時間}\label{time}\end{center}\end{figure}他の話し言葉翻訳システムの多くは,音声で入出力を行なう音声翻訳システムの翻訳コンポーネントとして構築され,限定されたそれぞれの翻訳対象で音声認識結果を翻訳の入力としているので,TDMTシステムの翻訳性能との優劣を単純に決めることはできない.しかし,本論文の提案手法を採用したTDMTシステムは,対象とする語彙数の多さ,トピックの広さ,扱う表現の多様さなど適用範囲の点で優位と言える.例えば,音声翻訳システムASURA(AdvancedSpeechUnderstandingandRenderingsystematATR)の翻訳コンポーネントは,素性構造のトランスファ方式を採用し「国際会議に関する問い合わせ会話」を対象として日本語から英語とドイツ語への翻訳を行なってる.目的指向型電話会話の日本語基本表現の約90\%をカバーしているが~\cite{Uratani},語彙数は約1500語と少なく,音声認識の結果を翻訳入力とした場合の評価結果のみ報告されている~\cite{Morimoto}.また,中間言語方式の翻訳コンポーネントを持つ音声翻訳システムJANUSは,「会議の日程調整」を対象として英語,ドイツ語,スペイン語の間の翻訳を行なう~\footnote{「旅行会話」を翻訳対象とするシステムの研究も始まっている.また,日本語や韓国語を目的言語とする翻訳についても検討されている.}.語彙数は約3000〜4000語であり,テキスト入力の発話に対するブラインドテストでは,翻訳結果の約80\%が理解可能と判定されている~\cite{Lavie}.しかし,これは,日英間の翻訳に比べて類似した言語ペアの翻訳についての評価結果であり,翻訳対象の表現は,会話の話題と進行を強く制限することにより意味的曖昧性が抑えられている.\subsection{構成素境界解析の効果の評価}本節では,翻訳処理における構成素境界解析の効果を分析するために行なった評価実験の結果について述べる.\subsubsection{翻訳成功率と構文解析成功率の関係}~\label{eval-cbp}表~\ref{st-rank}は,構文解析の成功あるいは失敗で評価文を分けてそれぞれの翻訳成功率を調べた結果である.図~\ref{word-rate-je},~\ref{word-rate-jk}に,入力形態素数ごとの翻訳成功率と構文解析成功率を,日英と日韓の翻訳についてそれぞれ示す.\begin{table}[bht]\begin{center}\caption{構文解析結果ごとの翻訳成功率}\label{st-rank}\begin{small}\begin{tabular}{|l|l||c|c|c|c|}\hline&構文解析&日英&日韓&英日&韓日\\\hline翻訳成功率A&成功&57.1{\tiny\bf\%}&76.0{\tiny\bf\%}&54.8{\tiny\bf\%}&67.2{\tiny\bf\%}\\\cline{2-6}(問題なし)&失敗&4.0{\tiny\bf\%}&22.9{\tiny\bf\%}&9.7{\tiny\bf\%}&17.8{\tiny\bf\%}\\\hline翻訳成功率B&成功&88.6{\tiny\bf\%}&96.5{\tiny\bf\%}&90.8{\tiny\bf\%}&96.8{\tiny\bf\%}\\\cline{2-6}(理解可能)&失敗&43.0{\tiny\bf\%}&84.6{\tiny\bf\%}&63.4{\tiny\bf\%}&85.2{\tiny\bf\%}\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{figure}[htb]\begin{center}\epsfile{file=length-result-JE.eps,hscale=0.7,vscale=0.7}\caption{入力形態素数ごとの翻訳成功率と構文解析成功率(日英)}\label{word-rate-je}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\epsfile{file=length-result-JK.eps,hscale=0.7,vscale=0.7}\caption{入力形態素数ごとの翻訳成功率と構文解析成功率(日韓)}\label{word-rate-jk}\end{center}\end{figure}いずれの言語ペアの翻訳においても,高精度の構文解析が高品質の翻訳結果につながっており,翻訳訓練文の追加などにより構成素境界解析の精度をさらに高めていく必要があることが示された.日英と英日については,翻訳成功率A(問題なし),翻訳成功率B(理解可能)ともに,構文解析に失敗の影響を受けやすい傾向があった.一方,語順,構文構造,省略表現などで類似する言語ペアの翻訳である日韓と韓日は,構文解析成功率が低下しても,高い翻訳成功率B(理解可能)を維持していることが示された.しかし,翻訳成功率A(問題なし)については,構文解析成功率の低下の影響を受けることが図~\ref{word-rate-jk}により示された.すなわち,日韓や韓日においても,より高品質の翻訳結果を得るためには,正しい依存関係を構文解析により求めて正しい訳し分けを行なうなどの必要があり,言語的類似性に頼りすぎるべきではない~\cite{Kim}.\subsubsection{構成素境界パタンの組み合わせ方の制限の効果}構成素境界パタンの組み合わせ方の制限によってありえない構文構造を排除することの効果を調べるために,\ref{test-cond}節の表\ref{open-sen}の評価文の翻訳結果が組み合わせ方の制限の有無でどれだけ違うかという実験を行なった.翻訳結果に違いがあった割合はのべ計算で日英42.2\%,日韓22.8\%,英日43.3\%,韓日15.5\%であり,特に,日英と英日で制限の影響が大きいことが示された.すべての言語ペアの翻訳においてパタンの組み合わせ方を制限したほうが翻訳品質が良い場合が多く,制限の効果が示された.日韓と韓日において翻訳結果が違った割合が小さいのは,日本語と韓国語の語順が類似しており,TDMTシステムが持つパタンの種類が少なかったためである.表~\ref{diff-constraint}に,日英と英日についてパタンの組み合わせ方の制限の有無で翻訳結果が違った例を示す.\begin{table*}[hbt]\begin{center}\caption{パタンの組み合わせ方の制限の有無で翻訳結果が違った例}\label{diff-constraint}\begin{small}\tabcolsep=1.4mm\begin{tabular}{|c||c|c|}\hline&日英&英日\\\hline入力&はい大阪水上バス交通でございます&doesitstopattheKyotoKankoHotel\\\hline翻訳結果(制限あり)&YesthisisOsakaAqua-bus&京都観光ホテルで止まりますか\\\hline翻訳結果(制限なし)&ThisisyesOsakaAqua-bus&京都観光ホテルでの止まりますか\\\hline\end{tabular}\end{small}\end{center}\end{table*}\vspace*{-3mm}\subsubsection{品詞バイグラムマーカの効果}\ref{test-cond}節の表\ref{open-sen}の評価文のうち,品詞バイグラムマーカを含む構成素境界パタンを使って翻訳を行なった文の割合を調べたところ,のべ計算で日英57.4\%,英日77.3\%と,品詞バイグラムマーカを用いた構文構造の記述がどちらの翻訳でも頻繁に行なわれていたことが示された.日英に比べて英日での使用割合が大きかったのは,日本語では助詞を介して格関係を構成することが多いのに対して,英語では主格や目的格は述部との間に前置詞を介さないため品詞バイグラムマーカを使用したことが原因である.さらに,日英で,品詞バイグラムマーカを含む構成素境界パタンを使って構文解析が成功した文の数を調べたところ,のべ463文(全評価文1225文の37.8\%)であった.すなわち,品詞バイグラムマーカの導入により構文解析成功率を40.0\%から77.8\%に向上させたことになる.また,日英の評価文の中で,助詞脱落表現を含む文は28文(全評価文の2.3\%)であった~\footnote{「明日行く」のような副詞的名詞句による述部修飾,「三日かかる」のような数量名詞句による述部修飾などは助詞脱落表現にカウントしなかった.}.日英で助詞脱落表現部分について正しい構造が得られたのは,「様子分かる」,「熱出る」,「番組ここで調べる」などの表現を含む23文であり,これは助詞脱落表現を含む文の82.1\%に相当した.これらの結果は,品詞バイグラムマーカが,多様な表現の構文構造の記述,構文解析の精度向上に大きく貢献していることを示す. \section{おわりに} 表層パタンのみの照合による構成素境界解析を提案し,構成素境界解析と用例利用型処理を組み合わせた変換主導型機械翻訳(TDMT)の新しい実現手法について述べた.日英双方向と日韓双方向の話し言葉の評価実験の結果により,TDMTシステムが多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳でき,本論文で提案したTDMTが多言語話し言葉翻訳に有効であることを示した.高精度の構文解析が高品質の翻訳結果の重要な要素であることも評価実験結果により示した.今回の評価実験において,複文構造での格関係,複合名詞,等位接続詞表現などで,構成素境界解析の失敗が目立った.効率的な翻訳訓練,変換知識の記述の改良などにより,これらの表現を中心としてさらに構文解析成功率を向上させることが今後の課題である.日英双方向と日韓双方向の翻訳に加えて,現在,日本語からドイツ語や中国語への翻訳~\cite{Paul,Yamamoto99}についてもTDMTの適用を試みており,これらの翻訳についても評価実験を行ないながら,多言語話し言葉翻訳に対するTDMTの汎用性を確認していく予定である.また,話し言葉翻訳を音声認識と統合した音声翻訳では,入力文を分割して理解可能な部分を最大限出力する機構~\cite{Furuse98}や同時翻訳機構など,入力文を時系列に読み込んで処理することが想定される.本論文で提案した構成素境界解析はこの要求に添うことができる.今後,構成素境界解析を基盤にして,音声処理との統合,長文入力を漸進的に翻訳する同時翻訳機構など高度な話し言葉翻訳技術にも取り組んでいく予定である.\clearpage\appendix \section{評価文に対するTDMTシステムの翻訳実行例} \label{actual}3名の評価者の判定が一致した翻訳結果で分類して,TDMTシステムの翻訳実行例を示す.\vspace{3mm}\subsection{日英}\paragraph{●「問題なし」として翻訳成功}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]それではジョンフィリップス様あしたの朝八時にお待ちしております\item[出力:]well,mr.johnphillips,wearelookingforwardtoseeingyouateighto'clocktomorrowmorning\item[]\rule{132mm}{0.2mm}\item[入力:]じゃそのパッケージのお値段はいくらぐらいになるんですか\item[出力:]well,howmuchwillthepriceofthepackagebe?\item[]\rule{132mm}{0.2mm}\item[入力:]かしこまりましたではチェックアウトのために十分前にフロントにお越しください\item[出力:]allright,well,pleasecometothefrontdesktenminutesbeforeforcheck-out\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]仁王像は東大寺の入口を守っていますからいつでもご覧になれますよ\item[出力:]thestatueofniohaskepttheentrancetodaiji.youcananytimesee\item[]\rule{132mm}{0.2mm}\item[入力:]プライベートビーチのあるホテルリゾートホテルでしたらどこでもよろしいんですよ\item[出力:]anywhereisgoodforthehotelresorthotelwithaprivatebeach\item[]\rule{132mm}{0.2mm}\item[入力:]お友達のおみやげにね安い化粧品とか雑貨がほしいんですけどどっかお勧めの店ってありません\item[出力:]i'dliketohaveacheapcosmeticandthesundriesasafriend'ssouvenirs.thereisn'tanyrecommendationstore\item[]\rule{132mm}{0.2mm}\end{itemize}\newpage\subsection{日韓}\paragraph{●「問題なし」として翻訳成功}\unitlength=1mm\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]はい八月十三日の土曜日から八月二十日の土曜日まで一週間お願いします\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-1.eps}}\item[]\rule{132mm}{0.2mm}\item[入力:]十月二十八日の金曜日ですけれども何時ごろにご到着のご予定でしょうか\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-2.eps}}\item[]\rule{132mm}{0.2mm}\item[入力:]ではパックの予約と同時にビデオカメラとシーディープレーヤーの貸し出しの予約もお願いいたします\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-3.eps}}\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]今ホテルのすぐ近くまで来てるんですけどここからどうやってそちらに行ったらいいのか教えてほしいんですけど\item[出力:]\raisebox{-7mm}{\epsfile{file=fig/87-4.eps}}\vspace*{5mm}\item[]\rule{132mm}{0.2mm}\item[入力:]ですが会席料理という京都の季節の味をうまくコーディネートした京料理をお勧めしたいのですが\item[出力:]\raisebox{-7mm}{\epsfile{file=fig/87-5.eps}}\vspace*{5mm}\item[]\rule{132mm}{0.2mm}\item[入力:]お一人様八千円からございまして私どもはこちらの方をお勧めしております\item[出力:]\raisebox{-2.5mm}{\epsfile{file=fig/87-6.eps}}\item[]\rule{132mm}{0.2mm}\end{itemize}\newpage\subsection{英日}\paragraph{●「問題なし」として翻訳成功}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]thesuiteissevenhundreddollarspernightandthetwinroomisthreehundreddollarspernight\item[出力:]スイートは一泊七百ドルです,ツインルームは一泊三百ドルです.\item[]\rule{132mm}{0.2mm}\item[入力:]yesmyname'sjohnphillipsandirentedanissanmarchfromyouyesterday\item[出力:]はい,私の名前はジョン・フィリップスです,昨日あなたから日産マーチを借りました.\item[]\rule{132mm}{0.2mm}\item[入力:]yescanyoutellmehowtogettothestadiumfromosakajrstationplease\item[出力:]はい,どうやってジェイアールの大阪駅からスタジアムに行けば良いか教えて頂けますか.\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]soiturnrightatthekyotostylerestaurantandiwillseeyourinnonthelefthandside\item[出力:]それでは,右京都スタイルのレストランに曲がります,左手側に旅館を見ます.\item[]\rule{132mm}{0.2mm}\item[入力:]it'sonlyabouttwohundredmetersawayandthere'saninformationboardoutsidethestationtodirectyou\item[出力:]約二百メーターだけ遠くです,教えるために駅付近の案内板があります.\item[]\rule{132mm}{0.2mm}\item[入力:]itbeginsateightp.m.andyouwillbesuretopickupyourticketsattheticketwindowbeforeseventhirtyp.m.\item[出力:]午後八時に始めます,午後七時三十分の前に必ず切符の窓でチケットを受け取ります.\item[]\rule{132mm}{0.2mm}\end{itemize}\newpage\subsection{韓日}\paragraph{●「問題なし」として翻訳成功}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-7mm}{\epsfile{file=fig/89-1.eps}}\vspace*{2mm}\item[出力:]その次に出発するセマウル号は十八時に出発する列車がトンテグ駅に二十一時二分に着きます.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-3mm}{\epsfile{file=fig/89-2.eps}}\vspace*{2mm}\item[出力:]同じ日の十時十分に出発する飛行機には席があります.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-3mm}{\epsfile{file=fig/89-3.eps}}\item[出力:]電話番号は零七五の六六一の七一一一です.\item[]\rule{132mm}{0.2mm}\end{itemize}\vspace{5mm}\paragraph{●「理解可能」として翻訳成功,「問題なし」としては翻訳失敗}\begin{itemize}\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-8mm}{\epsfile{file=fig/89-4.eps}}\vspace*{2mm}\item[出力:]料金はいったんお客様が負担をされますしあとに日本に帰られて保険会社請求をしてください.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-7.5mm}{\epsfile{file=fig/89-5.eps}}\vspace*{2mm}\item[出力:]市内にあるロッテホテルとチャムシルにあるロッテワールドホテルがあるのですがどちらかご存知ているのですか.\item[]\rule{132mm}{0.2mm}\item[入力:]\raisebox{-1.5mm}{\epsfile{file=fig/89-6.eps}}\item[出力:]この書類を韓国に早く送らなければならないのですが一番早く送れる方法は何ですね.\item[]\rule{132mm}{0.2mm}\end{itemize}\clearpage\bibliographystyle{jnlpbbl}\bibliography{v06n5_04}\vspace*{5mm}\begin{biography}\biotitle{略歴}\bioauthor{古瀬蔵}{1982年九州大学工学部情報工学科卒業.1984年同大学大学院情報システム学専攻修士課程修了.同年日本電信電話公社入社.1990年よりATR自動翻訳電話研究所,ATR音声翻訳通信研究所へ出向.1997年日本電信電話株式会社へ復帰.現在,NTTサイバーソリューション研究所.自然言語処理,特に機械翻訳の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).同年よりATR音声翻訳通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{山田節夫}{1990年東京電機大学理工学部情報科学科卒業.1992年同大学大学院情報科学専攻修士課程修了.同年日本電信電話株式会社入社.1997年ATR音声翻訳通信研究所へ出向.現在に至る.自然言語処理,特に機械翻訳の研究に従事.情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V05N04-08
\section{まえがき} 韓国において日本語は技術の分野のみではなく,経済などの他の分野においても英語に次ぐ重要な言語の一つになっている.しかし,日本語が自由に操れる人は少ない.このような背景により,機械翻訳に関する研究が韓国に紹介され始めた80年代の初めから日韓機械翻訳に対する期待はかなり高い状況であった.このような期待が実り,90年代に入り,韓国,あるいは日本で開発された使用可能な日韓機械翻訳システム5種が市販されるようになった.しかし,現在市販されている商用日韓機械翻訳システムは,日本語と韓国語の言語構造の類似点などによる一般ユーザたちの高い期待とは裏腹にその翻訳品質は低いレベルにとどまっている.このような現実を踏まえ,日韓機械翻訳システムの活性化を達成するために,現在の日韓機械翻訳システムが持っている問題点を客観的に分析,評価し,その問題点の在処を解明し,解決法を探す必要がある.そのためには,現在の機械翻訳システムに対する客観的分析と評価が前提となる.本技術資料は,四つの商用日韓機械翻訳システムを分析・評価し,技術的現象を把握,その問題点を分析することにより今後の開発作業に有効ないくつかの提言を行うのに目的がある.このような努力の一環として,筆者は\cite{choiandkim}を発表した.しかし,その後,韓国国内では\cite{choiandkim}で評価対象にした各システムのアップグレードや新しいシステムの出現という状況の変化があったのため,現時点での分析・評価と\cite{choiandkim}で明らかになった問題点とを比較することにより,解決された問題と未解決の問題がどのようなものであるかを把握,短期的解決課題と長期的解決課題の性格をより明確にする必要が出てきた.翻訳システムの評価には様々な側面からの評価が必要であり,多様な評価法方が提案されている\cite{dijk,White,Whiteandconnel,井佐原}.本技術資料では\cite{arnold}で提示されたユーザサイドからの翻訳品質の評価といえるDeclarativeEvaluation,開発側からの評価であるといえるTypologicalEvaluation,経済的立場からのシステムの効用性の評価であるといえるOperationalEvaluationの三つの立場からの評価とシステムの性能向上度評価といえるProgressEvaluationを行う.評価のための評価にならないよう,実際の生活で機械翻訳が用いられるという状況を作るため,評価対象文を市販されている98種の日本語で書かれた文庫本から直接抽出し評価を行った.今回の評価結果と\cite{choiandkim}を比較すると,開発者側からの言語学的処理範囲の評価といえるTypologicalEvaluationではシステムによっては多少改善されたものが見られるが,機械翻訳処理技術の最も重要な部分であるといえる翻訳技術そのものには大きな進展は見られない.と同時に,ユーザ側からの翻訳品質の向上も\cite{choiandkim}とあまり変わらないことが明らかになった.これは今までの日韓機械翻訳システムの開発で用いられた方法である一般の文法書と一般辞書に基づく演繹的翻訳規則および知識水準ではこれ以上の発展は期待できないことを物語るものであると考えられる.この限界を乗り越えるためには実際の人間の言語生活で用いられる日本語—韓国語間の大量の対訳用例集の構築とそれを用いた日本語と韓国語の客観的で一貫性のある翻訳モデルの確立,大量の用例に基づく帰納的翻訳規則および知識の開発と蓄積が前提となる必要がある.効用性の評価といえるOperationalEvaluationではすべてのシステムが韓国語Windows95で運用されるようになり,日本語原文入力ツールの支援,インターネット翻訳支援などというように大きく進展したといえる. \section{韓国国内の日韓機械翻訳システム} 現在,韓国国内で市販,あるいは発表されたシステムを表~\ref{jkmtinkorea}に示す.この中で「ATLAS/JK」は,1990年に実用化された初の日韓機械翻訳システムである.「ATLAS/JK」は,富士通のATLAS翻訳システムを基に韓国語への変換,生成のための文法および辞書の開発を韓国のシステム工学研究所が行った.ハードウェアプラットフォームは,富士通の大型コンピュータ(Mseries)であった.「ATLAS/JK」の応用分野はJICSTの論文抄録の翻訳であったが,現在でも韓国の研究開発情報センター(KORDIC)によりパソコン通信を通じて一般ユーザに日本のJOISDBオンライン翻訳サービスが提供されている.\begin{table}\begin{center}\caption{\label{jkmtinkorea}韓国国内の日韓機械翻訳システム}\epsfile{file=129.eps}\end{center}\end{table}「J-Seoul」は,日本の高電社により開発された製品であり,最初はNECPC9800シリーズでしか運用できなかったが,最近ではIBM互換機,韓国語WINDOWS95でも使えるようになり,IBM互換機が主流である韓国市場への進出の地盤を広めたといえる.「ハングルカナ」は韓国のチャンシンコンピュータにより開発されたもので,やはりIBM互換機,韓国語WINDOWS95上で動くようになっている.「名品」は,日本の日立情報ネットワークにより開発されたものでIBM互換機,韓国語WINDOWS95上で動くようになっている.「オギョンバクサ」は,韓国のユニソフトにより開発されたもので,IBM互換機,韓国語WINDOWS95で動くようになっている.本技術資料ではこれら五つの製品の中で入手可能な四つのシステムを対象に1997年3月現在最も最新バージョンである「J-SeoulBusinessPackage」(1996.10),「ハングルカナ3.0」(1997.2),「名品GOLD」(1997.2),「オギョンバクサ1.52」(1997.2)を対象に分析を行った. \section{評価方法の考察} \subsection{評価方法の概要}機械翻訳システムの評価については様様翻訳品質に関する評価方法は大変難しい問題である\cite{king}.その理由として,\vspace{0.5cm}\begin{itemize}\item評価とは本質的に難しい問題である\item機械翻訳の様々な使用目的によって評価基準の設定を変えなければならない\item評価基準の客観的な設定が難しい\end{itemize}\vspace{0.5cm}という三つをあげることができる.しかし,このような限界を持つにも関わらず,機械翻訳システムに関する評価の必要性はシステム開発という立場からこれまで多くの研究がなされてきた.これら研究を総合してみると,評価には大きく三つの観点が必要である\cite{arnold}.\vspace{0.5cm}\begin{itemize}\item[(1)]DeclarativeEvaluation\item[(2)]TypologicalEvaluation\item[(3)]OperationalEvaluation\end{itemize}\vspace{0.3cm}以上の三つの以外に開発者の立場で重要なものとして\vspace{0.3cm}\begin{itemize}\item[(4)]ProgressEvaluation\end{itemize}\vspace{0.3cm}がある.\begin{table}\begin{center}\caption{\label{declevalmethod}理解度測定(declarativeevaluation)のための代表的な三つの方法}\epsfile{file=131.eps}\end{center}\end{table}\subsection{DeclarativeEvaluation}DeclarativeEvaluationとは,翻訳結果に対する理解度,正確性,信頼性など,ユーザ側から見た「翻訳品質」に関する評価であり,表~\ref{declevalmethod}に示したように三つの方法が用いられている.\cite{dijk}では,最も安定性が高く,多く用いられている方法として4〜5個のスケールを持つ「ratingonintelligibilityscale」法を勧めている.スケールが細かすぎると判断に苦しむことになり,偏差が広がる可能性が高く,小さすぎると弁別力が低下する恐れがあるからである.\subsection{TypologicalEvaluation}TypologicalEvaluationとは,翻訳システムの言語学的側面からの解決範囲,すなわち,システム開発者側からの評価であるといえる.一般的にあらゆる言語現象を網羅するTestSuiteを利用し,機械翻訳された結果からシステムの言語学的解決可能範囲を評価する.しかし,この方法は,あらゆる言語現象を網羅する有効なTestSuiteそのものを作ること自体が難しい作業であること,TestSuiteで実験しようとする任意の言語現象についてのシステムの動作が実際のテキストでは他の言語現象と複合的に現れるため同一言語現象について均一的に動作するという保障がないのが問題点として指摘されている\cite{king,arnold}.\subsection{OperationalEvaluation}OperationalEvaluationとは,特定のユーザが特定のシステムを使うことにより得られる経済的利益という観点からの評価であり,ユーザの機械翻訳システムの利用目的,経済性によって評価結果は大きく異なる.例えば,Browsabilityを重視するユーザは満足している機械翻訳システムでもLinguisticAccuracyを重視するユーザにとってはとても使えないといった評価が下される場合もあり得る.また,組織の使用目的,要求環境,維持補修費用,拡張可能性,速度など様々な観点からの評価が必要である.\subsection{ProgressEvaluation}DeclaraiveEvaluation,TypologicalEvaluation,OperationalEvaluationが現在のシステムの状況を評価するものであるとすればProgressEvaluationは一つのシステムに対する通時的発展段階を把握するためのものである.これは,システム開発のそれぞれの段階で評価を行い,問題点および解決法を見出そうとするものである.\begin{figure}\begin{center}\epsfile{file=132.eps,height=53mm}\caption{\label{japantext}日本語標本テキストの選定および韓国語翻訳テキストの作成}\end{center}\end{figure} \section{評価の準備および方法} \subsection{日本語標本テキストの選定および韓国語翻訳テキストの作成}評価のための評価ではなく,翻訳システムが実際の生活で使われている状況に近い状態で分析・評価をするために評価対象文を実際市販されている98種の日本語で書かれた文庫本から直接抽出し,評価を行った(図~\ref{japantext}参照).日本で刊行された98種の文庫本の本文中100番目の文から119番目の文までの各20個ずつの文をOCRを用いてテキストデータに落とし込み,脱字や誤字を人間が修正した1960個の文(98TEXT×20文/TEXT=1960文)を対象に四つの機械翻訳システムを用い,システムごとに機械翻訳文を抽出した.各機械翻訳システムは翻訳結果としてそれぞれ98個の韓国語テキストを出力する(日本語原文の抽出に使用した98種の文庫本の目録は\cite{choiandkim}を参照).\subsection{DeclarativeEvaluation}本技術資料では\cite{dijk}で推奨する"ratingonintelligibilityscale"法を用いる.互いに関連性を持つと考えられる次の三つの項目から六つのスケールを持つ基準表を作成した.その具体的内容を表~\ref{declcrit}に示す.\vspace{0.3cm}\begin{itemize}\itemテキスト全体に対する理解度\itemテキストを構成する文それぞれに対する評価\item後編集の量\end{itemize}\vspace{0.5cm}機械翻訳システムから出力された計392個(4つのシステム×98個の日本語テキスト=392個の韓国語テキスト)の韓国語テキスト各システムごとの翻訳文の評価には少なくとも1週間の間をおいて評価を行った.間をおかず評価作業を続けた場合,前回の評価の点数が記憶され評価に影響を与えやすく,点数が甘かったり辛かったりするからである.\begin{table}\begin{center}\caption{\label{declcrit}DeclarativeEvaluationの"ratingonintelligibilityscale"のための評価基準表}\epsfile{file=133.eps}\end{center}\end{table}\begin{figure}\begin{center}\epsfile{file=134-1.eps}\caption{\label{typoflow}TypologicalEvaluation方法}\end{center}\end{figure}\subsection{TypologicalEvaluation方法}TypologicalEvaluationのためには,日本語の文法的,語法的言語現象が韓国語の翻訳にどのような影響を与えるかを検討する必要がある.TypologicalEvaluationの典型的方法は,TestSuiteを用いる方法であるが,3.3で述べたように様々な問題点を持つ.本技術資料ではより現実的な分析・評価のためにTestSuiteを用いず,実生活で用いられる日本語標本テキストと韓国語翻訳結果テキストを用い図~\ref{typoflow}のような方法で評価を行った結果,表~\ref{typoresult}の誤謬の内訳に見られるような結果が得られた.\begin{figure}\begin{center}\epsfile{file=134-2.eps}\caption{\label{jkmtconf}日韓機械翻訳システムの一般的誤謬}\end{center}\end{figure}TypologicalEvaluationには日本語原文テキストを基準に20個のテキスト(20テキスト×20の文/テキスト=400文),対応する韓国語翻訳文テキストを基準に80個のテキスト(日本語原文20のテキスト×四つのシステム=韓国語80のテキスト;80テキスト×20の文=1600文)のみを用いた.その理由を次に示す.\newpage\begin{itemize}\item[一.]DeclarativeEvaluationが低い順にTypologicalEvaluationを実施した結果,日本語原文テキストを基準に12番目のテキストを分析した後から20番目のテキストまで新しい誤謬のパターンが発見されず,誤謬のパターンの度数のみが増加した.誤謬のパターンの度数も誤謬パターン別の度数とほぼ同じ比率で増加した.このような観察結果に対する信頼度を検証するために任意に20個の韓国語テキストを選び日本語原本テキストと比較分析した.その結果同じ結論を得ることができた.\item[二.]分析の客観性を保つために,一人の人間が評価を担当する必要があるが,分析の量が多く,個人の能力の限界を超えている.\end{itemize}\subsection{OperationalEvaluation}3.4で見たように,OperationalEvaluationは,ユーザの使用目的によって違うので客観的な評価が困難である.したがって,本技術資料では,OperationalEvaluationに関しては,対象とした四つの日韓機械翻訳システムのユーザインターフェスという側面からの評価のみを行うことにした.\subsection{ProgressEvaluation}ProgressEvaluationとは,本来一つのシステムが発展していく各段階において各段階毎に問題点の分析および性能向上のための評価を指す.対象とするシステムについて十分な知識を持つ開発者でないと客観的な評価が不可能である.さらに,本技術資料は今回対象とした四つのシステムのそれぞれに対して開発戦略を立てるためのものではないため一年前に行った日韓機械翻訳システム分析\cite{choiandkim}での結果を基に,誤謬パターンの変化,誤謬パターンの頻度の変化などを比べることにより日韓機械翻訳システム全般という観点からその向上の度合いを分析した. \section{評価の実施および結果分析} \subsection{DeclarativeEvaluation}評価結果は表~\ref{declmark}の通りである.最も高い点数をマークしたのは2.88点であり,これは翻訳結果を何回か繰り返し読んだ後,若干の推測を交えれば全体の意味が把握できるといったレベルである.\begin{table}\begin{center}\caption{\label{declmark}DeclarativeEvaluation結果}\epsfile{file=135.eps}\end{center}\end{table}最も点数の低かった10つのテキストと最も点数の高かった10つのテキストを分析すると大変興味深い事実が発見された.表~\ref{tbtextlist}で見られるように該当テキストのジャンル,文体,文の長さ,漢字使用率,平仮名使用率,片仮名使用率を比較すると\begin{itemize}\item[一.]翻訳品質は文の長さにあまり影響されない.\item[二.]漢字使用率が高く平仮名使用率が低いほど翻訳品質が良い.\item[三.]翻訳する文のジャンルよりは文体に翻訳品質はもっと影響される.\end{itemize}\vspace{0.5cm}\begin{flushleft}ことが分かった.特に,著者が形式に束縛されず自由に書いた散文のテキストが比較的低い点数をマークし,著者が丁重な表現を用い,形式に拘った固い表現の多いテキストは比較的高い得点をもらった.\end{flushleft}\begin{table}\begin{center}\caption{\label{tbtextlist}最高および最低10位の翻訳品質テキストリスト}\epsfile{file=136.eps}\end{center}\end{table}\subsection{TypologicalEvaluation}分析結果を表~\ref{typoresult}に示す.分析を行うにあたって韓国語翻訳文の誤謬がどのシステムモジュールで発生したかについてはそれぞれのシステムの開発者でない限り明確に特定することはできないため,ここでは対照言語学的立場から日本語の言語的特徴を中心にできる限り客観的に分析を行おうと努力した.ただし,本来評価の持つ難しさから若干の判断誤謬もあり得る.しかし,全体的に見るとほとんど正確であるといってよい.評価には多くの時間が費やされた.特に,ある誤謬が発生した時,その原因を突き止めるのに大変とまどった.例えば,韓国語翻訳文で誤謬が発見されたとき,それが未登録語による分析誤謬なのか,翻訳単位認識誤謬による間違いなのか判断に迷った.このような場合,常識的判断により,当然登録されるべき単語について誤謬が発生した場合は分析誤謬として,そうでない場合は,未翻訳として処理した.以下,誤謬の具体例を示す.\begin{table}\begin{center}\caption{\label{typoresult}TypologicalEvaluation結果}\epsfile{file=138.eps}\end{center}\end{table}\vspace{1cm}\subsubsection{未翻訳}翻訳されずそのままの日本語が翻訳結果文に出力されている場合を未翻訳誤謬と分類した.\vspace{0.5cm}\begin{tabular}{ll}(原文)&自身がない人\\(翻訳結果)&mauleuiわんぱくaesongidul\\(正しい翻訳)&mauleuijangnankurokiaesongidul\\\end{tabular}\raggedbottom\subsubsection{分析誤謬}日本語を韓国語に翻訳する時,一般的に同じ単位の韓国語に対応する翻訳単位を想定することができる.このような単位を正確に抽出できなかった場合は翻訳単位認識誤謬とした.また,翻訳単位は正しくても品詞決定の段階で誤謬が発生し,誤った翻訳結果が得られた場合には品詞判定誤謬とした.\vspace{0.3cm}\begin{quote}\begin{flushleft}{\it翻訳単位認識誤謬の例}\end{flushleft}\vspace{0.3cm}\begin{tabular}{ll}(原文)&自信がない人\\(翻訳結果)&jasiniradoduleosaram(自信がない人)\\(正しい翻訳)&jasinieobnunsaram\\\end{tabular}\vspace{0.3cm}\begin{tabular}{ll}(原文)&いつもこもっているのだった\\(翻訳結果)&eonjenaodulgoitnungeotida\\&(いつもこもっているのだった)\\(正しい翻訳)&eonjenajaukhangeotieotda\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it品詞判定誤謬の例}\end{flushleft}\vspace{0.5cm}\begin{tabular}{ll}(原文)&当然の\underline{扱い}ではあるが\\(翻訳結果)&dangyeoneui\underline{chooigubhae}iginunhajiman(verb)\\(正しい翻訳)&dangyeoneui\underline{chooigub}ikinunhajiman(noun)\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&\underline{一定}ではない\\(翻訳結果)&\underline{iljeong}ianida(noun)\\(正しい翻訳)&\underline{iljeongha}jianta(adjective)\\\end{tabular}\end{quote}\vspace{0.5cm}\begin{flushleft}{\bf分析誤謬の考察}\end{flushleft}分析誤謬として判定されたもののほとんどは日本語の仮名文字列で発生している.このような傾向は四つのシステムで共通して見られ,システムによって多少違いはあるものの四つのシステムともに仮名文字列の分析において不安定な傾向を見せている.分析誤謬として判定された結果を詳しく分析すると,あるシステムでは品詞のレベルで左右接続の可能/不可能すらも検査していないものがあった.また,「品詞判断誤謬」にはほとんどが「述語の連用形」と「連用形の名詞的用法」,「名詞」と「形容動詞の語幹」で発生している.日本語の場合,形容動詞であるか名詞であるか,また,動詞連用形であるか動詞の連用形の名詞的用法であるかによって韓国語への翻訳は大きく異なる.\subsubsection{多義性による誤謬}翻訳単位の設定,品詞の決定が正しく行われたのにも関わらず,意味的に全く違った対訳語を当ててしまった場合を多義性による誤謬と判断した.特に,名詞の場合は,韓国語には存在しない語になっているものをも多義性誤謬として分類した.また,助詞の場合,あるシステムは可能性がある対訳語を"()"の中に複数個入れて出力している.この場合,読む時大きな無理がなければ誤謬として扱わなかった.このような場合を全部誤謬にするとほとんどの多義性を持つ助詞が誤謬となり,全部を誤謬がないとすると分析の意味がなくなるためである.\begin{flushleft}誤謬の例\end{flushleft}\begin{quote}{\it動詞の誤謬}\vspace{0.5cm}\begin{tabular}{ll}(原文)&食事を\underline{とる}\\(翻訳結果)&siksalul\underline{jabda(grasp)}\\(正しい翻訳)&siksalul\underline{hada(do)}\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&見直しを\underline{迫る}\\(翻訳結果)&jaepyungkalul\underline{dagaoda(come)}\\(正しい翻訳)&jaepyungkalul\underline{kangyohada(forcetodo)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it名詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&用事でやらされるのは大いに\underline{苦手}だった\\(翻訳結果)&\underline{geobukhansangdae(amandifficulttomanage)}\\(正しい翻訳)&\underline{golchitgeori(difficultthing)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it形容詞誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{古い}しきたり\\(翻訳結果)&\underline{nalgun(worn-out)}goanrye\\(正しい翻訳)&\underline{oraen(long-continued)}goanrye\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it副詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{くまなく}案内してもらった\\(翻訳結果)&\underline{dduryothage(sharpdistinct)}\\(正しい翻訳)&\underline{jasehi(indetail)}\\\end{tabular}\vspace{0.5cm}\newpage\begin{flushleft}{\it数詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&二十六\\(翻訳結果)&2+6\\(正しい翻訳)&26\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&第\underline{2次}世界大戦\\(翻訳結果)&je\underline{second-order}segyedaejeon\\(正しい翻訳)&je\underline{2cha}segyedaejeon\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it連体詞誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{ある}時\\(翻訳結果)&\underline{itnun(tobe)}dda\\(正しい翻訳)&\underline{eonu(uncertain)}ddae\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it助詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&女性の増加\underline{で}家庭での\\(翻訳結果)&jungga\underline{eso(場所)}\\(正しい翻訳)&jungga\underline{ro(原因)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it受け身/可能/自発の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&密接不離の関係にあることが知\underline{られる}\\(翻訳結果)&al\underline{ryeojida(passive)}\\(正しい翻訳)&al\underline{sooitda(cando)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it「よう」の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&考え込む\underline{よう}にしながら\\(翻訳結果)&saengkakdul\underline{dorok(inorderto)}hamyunseo\\(正しい翻訳)&saengkakejamkin\underline{duti(as)}hamyeonseo\\\end{tabular}\end{quote}\vspace{0.5cm}\begin{flushleft}{\bf多義性誤謬の考察}\end{flushleft}分析誤謬と同じく漢字表記を用いない仮名文字列で誤謬が多く見られた.さらに,漢字で表記されている動詞の場合も多義語に関する配慮が見られず,一つの対訳しか当てられていない.これは動詞の多義性を解決する技法を用いていないことを示している.名詞に関しては,一般の辞書の見出し語で最も頻繁に用いるものとして第一項目にあがっている語を機械的に対訳語として用いているようである.したがって,文脈とあわない対訳が多く発見される.日韓翻訳の開発の中で最も早い時期から先決課題として叫ばれていた助詞の多義性に関しては「に」と「と」で最も誤謬が多く発見された.特に「と」の場合は,「引用,仮定,時間的前後」などの意味をあらわし,そのいずれかを決定するのが難しい.「J-Seoul」と「名品」は各システムごとに助詞の多義性を解決するための技法を導入し,できる限り一つの対訳語だけを出していると見なされるものの,いずれのシステムも満足のいくレベルには達していない.\subsubsection{対訳語選定の誤謬}翻訳単位の認識,品詞決定が正しく行われ,その単語だけを取り出してみると意味的にも間違っておらず,多義性の誤謬とも言えないが文全体からみて意味が通じない場合を対訳語選定の誤謬として分類した.\begin{quote}\begin{flushleft}{\it不自然な否定表現}\end{flushleft}\begin{tabular}{ll}(原文)&それが\underline{言えない}\\(翻訳結果)&gugeotulmalhal\underline{sooitjianta}\\(正しい翻訳)&gugeotulmalhal\underline{sooeobda}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it不自然な受け身表現}\end{flushleft}\begin{tabular}{ll}(原文)&八十ページも\underline{費やされ}ているのに\\(翻訳結果)&\underline{sobihaejigo}\\(正しい翻訳)&\underline{halaedoigo}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it不自然な使役表現}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{静かめ}ながら\\(翻訳結果)&\underline{joyonghiha}myunseo(自発)\\(正しい翻訳)&\underline{joyonghageha}myunseo(使役)\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it不自然なやりもらい表現}\end{flushleft}\begin{tabular}{ll}(原文)&出してみて\underline{いただきたい}\\(翻訳結果)&naeeoboa\underline{joosigosipda}\\(正しい翻訳)&naeeoboa\underline{joosibsio}\\\end{tabular}\end{quote}\vspace{0.5cm}\begin{flushleft}{\it不自然な対訳語}\end{flushleft}主に名詞に多い.韓国語でもあるのはあるが極めてその使用例が希であり,特に文の中で不自然であると感じられるものと「不自然な〜」に分類できないものを「不自然な対訳語誤謬」に分類した.\vspace{0.5cm}\begin{tabular}{ll}(原文)&大司教の\underline{もと}で\\(翻訳結果)&daejoogyoeui\underline{batang(foundation)}eseo\\(正しい翻訳)&daejoogyoeui\underline{mit(beneath)}eseo\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&内分泌を\underline{介して}微妙に調節されている\\(翻訳結果)&naeboonbigyelul\underline{kiooeu(insert)}...\\(正しい翻訳)&naeboonbigyelul\underline{maegaerohayeo(interpose)}...\\\end{tabular}\begin{flushleft}{\bf対訳語選定の誤謬の考察}\end{flushleft}対訳語誤謬は,分析誤謬などに比べ比較的軽い誤謬である.しかし,これもユーザの立場から見ると数回繰り返し読んだり原文と照らし合わせながらでないと意味を正確に把握できないという点で解決すべき課題であることには間違いない.\subsubsection{韓国語生成誤謬}表~\ref{typoresult}でも示したように上記以外の韓国語生成時の誤謬をここにまとめた.\begin{flushleft}誤謬の例\end{flushleft}\begin{quote}\begin{flushleft}{\it状態/動作}\end{flushleft}\begin{tabular}{ll}(原文)&見ていない\\(翻訳結果)&bo\underline{ait(状態)}jianta\\(正しい翻訳)&bo\underline{goit(動作)}jianta\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\itテンス}\end{flushleft}\begin{tabular}{ll}(原文)&来るの\underline{だった}\\(翻訳結果)&onungeot\underline{ida(現在)}\\(正しい翻訳)&onungeot\underline{ieotda(過去)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it慣用表現}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{口をはさむ}\\(翻訳結果)&\underline{ibulkida(insertmouth)}\\(正しい翻訳)&\underline{chamgyeonulhada(interfere)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it定型表現}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{のために}\\(翻訳結果)&\underline{kiddaemoone(reason)/kieooihaeseo(purpose)}\\(正しい翻訳)&\underline{kieooihaeseo(purpose)/kiddaemoone(reason)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it韓国語冠形形語尾の生成}\end{flushleft}\begin{tabular}{ll}(原文)&す\underline{る}時\\(翻訳結果)&ha\underline{nun}ddae(timesomethingisbeingdone)\\(正しい翻訳)&ha\underline{l}ddae(timetodo)\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it韓国語綴り}\end{flushleft}\begin{quote}韓国語の活用,音韻縮約,媒介母音挿入など,韓国語の文法・用法から外れる場合.\end{quote}\end{quote}\subsection{OperationalEvaluation}今回対象にした四つのシステムはユーザの使用上の便宜を図るためにある程度のユーザインターフェースとユーティリテイを提供している.表~\ref{function}に四つの商用日韓機械翻訳システムが提供する機能を示した.四つのシステム全てが翻訳原文と翻訳結果文の編集のためのツールを持っている.日本語入力環境が具備されていない韓国では日本語文章作成機能と日本語文書構成コードの内部翻訳処理コードへの変換機能が提供されなければならない.日本語文書の新規作成のためには「ハングルカナ」を除く他の三つのシステムは日本語入力ツールを提供している.「ハングルカナ」は内部処理コードがKSC5601コードであり,韓国語Windows95で提供されるKSC5601日本語コード入力コードをそのまま使っている.コード変換機能は表~\ref{function}で見られる通り,各システムの内部コードへの変換機能を持っている.翻訳処理と関連し,未登録漢字や片仮名を簡単にハングル音読変換を用い出力するか,あるいは該当漢字や片仮名を原文通りに出力させるか,翻訳処理の途中,未登録語登録や多義性解消のための翻訳機とユーザとの相互作用を支援すべきかなどに関するオプションを備えている.辞書と関連し,基本的に辞書の新規語登録,更新,削除などを支援している.翻訳処理速度は,平均文の長さ62.03文字/文,64個の文を翻訳する時に最も速いものが7秒,最も遅いものが2分10秒程度かかった.翻訳速度の面では,ユーザが不便さを感じないほどにまでなっているといえそうである.\begin{table}\begin{center}\caption{\label{function}各システムの機能一覧表}\epsfile{file=144.eps}\end{center}\end{table}\subsection{ProgressEvaluation}一年前に行った評価と現在の評価とを比較すると,最も目立つ発展を見せたのは「ハングルカナ」である.一年前の翻訳品質分析では「ハングルカナ」が機械翻訳というより単純な漢語のハングル音読への変換と“について”,“において”のような表現の単純置換のレベルに過ぎず,未翻訳誤謬が相当発見された.しかし,現在の翻訳品質は未翻訳誤謬が相当減り,翻訳結果も相当なレベルに達している.これは,辞書の見出し語の拡充にその発展の原因がある.一年前に未翻訳,形態素分析誤謬と判定されたほとんどの語が辞書に登録されていなかったからであったが,辞書にこれら未登録語を登録することにより問題が大幅に改善されたといえる.一年前の「ハングルカナ」がDeclarativeEvaluationで何回読み返しても意味が分からないといったレベルの低い点数(1.95点)をマークしたのに対し,現在は何回か読むと全体の意味が分かるといったレベルにまで向上した.このような事実は,機械翻訳における辞書の占める役割の重要さを物語るものであるといえる.「名品」もやはり\cite{choiandkim}で問題として指摘された平仮名列の分析誤謬においてある程度改善された.しかし,DeclarativeEvaluationの点数には変化があまり見られない(一年前-2.37,現在-2.39).その理由は\cite{choiandkim}でも述べたように情報量は概念語に従属されるのに比べ概念語部分に対する誤謬には大きな改善のあとが見られなかったことによる.「J-Seoul」はあまり変化が見られない.ただ,"記号前の終止表現",助詞"と"の多義性誤謬などで改善点が見られるがDeclarativeEvaluationでより良い点数をもらうには改善が不十分であった.「オギョンバクサ」は未翻訳,分析,多義性,韓国語生成の誤謬など全体に渡って多くの誤謬が見られる.これは\cite{choiandkim}で「ハングルカナ」の誤謬が未翻訳誤謬に集中していたため辞書を拡充することにより大きく翻訳誤謬が減ったのに対し,「オギョンバクサ」は誤謬が多岐にわたっているため改善にはなお多くの努力が必要であるといえる.この他,四つのシステムに共通していえることとして,記号の前の終止表現,助詞"と"の多義性の誤謬などはある程度改善されたが,根本的な解決策を用いたというより翻訳のcoverageの広い対訳語を生成するといった程度の改善であるといえる.以上を総合すると,\cite{choiandkim}以降,技術的には大きな変化は無く,辞書や文法の拡張やチュウニングだけで問題を解決しようとしたと判断される. \section{結論} \subsection{開発への提言}各システムの翻訳結果を分析した結果,次のような点が明らかになった.\begin{itemize}\item韓国語と日本語との類似性,すなわち,文の構造,語彙などの類似性に依存しすぎている\item正確な分析に基づく翻訳になっていない\item名詞はもちろん動詞においても日本語の漢字表記語をそのまま韓国語の漢字音に変換するといった極めて単純な翻訳に依存している\item固有名詞,日本語の和語,カタカナ表記外来語などが辞書に登録されていない場合が多い\item述部の翻訳において複雑な形態素の結合に十分対応できていない\item日本語独特の造語法に十分対応できていない\item状態/動作に関する区別など,言語学的にはほぼ解決の糸口がつかめつつある問題に関しても注意が払われていない音韻の縮約,媒介母音の挿入,述語の活用など,韓国語の綴りに十分対応していない\item動詞と名詞の多義性への配慮の欠如\end{itemize}\newpage\begin{flushleft}このような問題を解決するため次のような課題を提案する.\end{flushleft}\begin{flushleft}{\bf短期課題}\end{flushleft}\begin{enumerate}\item辞書の拡張\\主に外来語の表記を担当するカタカナ,漢字で表記される固有名詞,日本語の和語をそのまま韓国語の発音に機械的に変換するといった極めて単純な処理に依存せず,これらについては辞書に登録して正確な韓国語の対訳を生成すべきである.実際の実験結果,未翻訳誤謬のほとんどは人名,地名,団体名などといった固有名詞の未登録により発生している.特に,最近では日韓機械翻訳機の使い道がWWW情報の翻訳にまで拡大していく傾向にあることを考えると,WWWで頻繁に用いられる語彙に対する用語調査と登録が必要である.\item韓国語表記法に合った翻訳文の生成\\韓国語は活用が多く,分かち書きをする言語である.したがって,活用や分かち書き誤謬はユーザの翻訳結果の理解に大きな障害となり,時には意味上の誤謬まで生み出す結果にもなり得る.このような韓国語生成技術はある程度確立されている.このような技術の積極的な導入が必要である.\item日本語分析誤謬の解決\\分析性能の向上は必ず解決しなけらばならない最も重要な課題である.これが不安な状況でその後の多義性誤謬のための技法などは効果が得られないからである.効用性が立証された技法を利用して日本語分析の性能を向上させなければならない.特に,主にひらかな文字列で表現される機能語部分の分析に力を注ぐ必要がある.\end{enumerate}\begin{flushleft}{\bf中長期的課題}\end{flushleft}\begin{enumerate}\item大量の日韓対訳コーパスの構築\\現在の日韓機械翻訳システムは一般の文法書と一般辞書から文法と辞書を構築する演繹的(deductive)な方法を採用して来た.したがって,一般の文法書に記述されている定型化された言語現象についてはある程度性能を発揮するが,実際の言語生活で用いられる日本語に対しては対応しきれない面を数多くもつ.これは現在の日韓機械翻訳技術の限界でもある.この限界を乗り越え,日韓機械翻訳技術を向上させていくためには実際の人間の言語を反映する大量の日韓対訳コーパスの構築が必要である.大量の日韓対訳コーパスから日本語と韓国語の類似性,相違性についての分析と翻訳知識の帰納的構築によりより実生活で用いられる日本語や韓国語の言語現象に機械翻訳が対応できるようになるであろう.\item日韓翻訳知識自動獲得ツールの開発\\人間による翻訳知識の構築は多くの費用と時間が必要であり,構築された翻訳知識の一貫性を見出すことも困難である.したがって,大量の日韓対訳コーパスを用い翻訳に必要な各種の言語情報を自動的に抽出できるツールの開発によりより客観的でパワーフルな翻訳知識の構築が必要である.\item日韓機械翻訳のための意味情報構築および活用\\現在の日韓機械翻訳システムは形態素あるいは常用句のレベルで直接機械翻訳方式を採用している.意味の処理においては意味素性分類に基づく格構造あるいは連語情報を用いた多義性の解消技法(Park1995)を採用しているが,意味素性の分類,日本語-韓国語の単語間の意味範囲の違いなどについての研究が立ち後れており期待通りの結果が得られていない.多義性の処理について各システムが実際どれほどの処理能力を持っているのかを把握するために「乗る」「のる」という動詞を例に実験した.その結果を図~\ref{seman}に示す.図~\ref{seman}でも見られるように定型的で単純な文構造ではある程度多義性が解消されているように見える.しかし,実際のテキストでは全くといって良いほどその機能を発揮していない.これは多義性の解消のための意味情報とその処理技法が断片的で十分でないことを物語るものである.大量の日韓対訳コーパスを用い客観的で一貫性のある意味情報の獲得と日本語-韓国語の単語間の意味範囲の違いを究明することにより正確な意味分析と対訳語選定が可能な環境を作る必要がある.\end{enumerate}\begin{figure}\begin{center}\caption{\label{seman}単純定型文に対する多義性処理結果(名品)}\epsfile{file=147.eps}\end{center}\end{figure}\subsection{おわりに}本技術資料では,四つの商用システムを対象に直接翻訳実験を行った結果に基づきその翻訳品質について評価した.その結果,現在のシステムは,片仮名,日本語の漢語,和語の韓国語への単純音訳,一対一の対訳語の選択などといったレベルでの翻訳であることが分かった.これは結果的に現在のシステムが日韓の言語的類似性に頼りすぎていることを物語るものである.さらに,すでに応用可能な技術の導入にも消極的であることが分かった.今後は両言語の類似性より両言語の相違点に焦点を当てるべきである.現在のシステムも入力テキストに関する何らかの制限も設けず汎用として販売するよりは4.2の“DeclarativeEvaluation”で明らかになったように,使用目的,翻訳対象文の制限(漢字表記が多く用いられる政治,経済,法律,科学関連乾燥体文書)などといった使用分野を特定すれば機械翻訳システムの利用環境を十分向上させることができ,一般ユーザからも肯定的な評価を得ることができると思われる.このような翻訳品質および使用範囲に関する努力とユーザの便宜性を考慮した様々な機能とツールを支援するための研究もおろそかには出来な課題の一つである.商品化されたシステムの出現は市場からの技術改善要求をフィドバックしながら技術の向上がはかれるという技術進化の一つの過程に位置する.今回の調査結果を発展の過程から評価するなら,その間の進展について高く評価すべきである.\bibliographystyle{jnlpbbl}\bibliography{v05n4_08}\begin{biography}\biotitle{略歴}\bioauthor{金泰完}{1985年韓国漢陽大学校大学院電子工学科修士課程卒業.1998年現在韓国科学技術院電算学科博士課程.1985年2月よりETRIコンピュタ,ソフトウェアー研究所,自然語処理研究部勤務.機械翻訳,自然言語処理,知識情報処理の研究に従事.言語処理学会等の会員.}\bioauthor{崔杞鮮}{1986年韓国科学技術院電算学科卒業.工学博士.韓国科学技術院電算学科助教授,副教授を経て,1998年より韓国科学技術院電算学科教授.1987--1988年NEC,C\&CInformationResearchLaboratories招請研究員.1997年Stanford大学,CSLI訪問教授.韓国語情報処理,機械翻訳,専門用語,認知科学,多国語情報検索,知識情報処理等の研究に従事.韓国文化体育部,国立図書館,文化芸術財団諮問委員.CPCOL,言語処理学会編集委員.現在FIPA,TC6議長.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V06N06-03
\section{はじめに} 複数の関連記事に対する要約手法について述べる.近年,新聞記事は機械可読の形でも提供され,容易に検索することができるようになった.その一方で,検索の対象が長期に及ぶ事件などの場合,検索結果が膨大となり,全ての記事に目を通すためには多大な時間を要する.そのため,これら複数の関連記事から要約を自動生成する手法は重要である.そこで,本研究では複数の関連記事を自動要約することを目的とする.自動要約・抄録に関する研究は古くから存在する\cite{Okumura98}が,それらの多くは単一の文書を対象としている.要約対象の文書が複数存在し,対象文書間で重複した記述がある場合,単一文書を対象とした要約を各々の文書に適用しただけでは重複した内容を持つ可能性があり,これに対処しなければならない.対象とする新聞記事は特殊な表現上の構成をもっており\cite{Hirai84},各記事の見出しを並べると一連の記事の概要をある程度把握することができる.さらに詳細な情報を得るためには,記事の本文に目を通さなければならない.ところが,新聞記事の構成から,各記事の第一段落には記事の要約が記述されていることが多い.これを並べると一連の記事の十分な要約になる可能性がある.しかし,各記事は単独で読まれることを想定して記述されているため,各記事の第一段落の羅列は,重複部分が多くなり,冗長な印象を与えるため読みにくい.そこで,複数の記事を1つの対象とし,その中で重複した部分を特定,削除し,要約を生成する必要がある.本論文で提案する手法は複数関連記事全体から判断して,重要性が低い部分を削除することによって要約を作成する.重要性が低い部分を以下に示す冗長部と重複部の2つに分けて考える.なお,本論文で述べる手法が取り扱う具体的な冗長部,重複部は\ref{要約手法}節にて説明する.\begin{description}\item[冗長部:]単一記事内で重要でないと考えられる部分.\item[重複部:]記事間で重複した内容となっている部分.\end{description}従来の単一文書を対象とした削除による要約手法は,換言すると冗長部を削除する手法であるといえる.重複部は,複数文書をまとめて要約する場合に考慮すべき部分である.本研究において目標とする要約が満たすべき要件は\begin{itemize}\itemそれぞれの単一記事において冗長部を含まないこと,\item記事全体を通して重複部を含まないこと,\item要約を読むだけで一連の記事の概要を理解できること,\itemそのために各記事の要約は時間順に並べられていること,\itemただし,各記事の要約は見出しの羅列より詳しい情報を持つこと,\end{itemize}である.本研究では,時間順に並べた各記事の第一段落に対して要約手法を適用し,記事全体の要約を生成する.したがって,本手法により生成される要約は,見出しの羅列よりも詳しいが第一段落の羅列よりは短かい要約である.以上により,事件等の出来事に関する一連の流れが読みとれると考える.具体的な要約例として付録\ref{ex_summary}を挙げる.この要約例は本論文の\ref{要約手法}節で説明する手法を適用して作成した.この要約例には重複部が多く存在し,それらが本要約手法によって削除された.重複部の削除は,それが正しく特定されている限り適切であると考えることができる.なぜならば,重複部分が既知の情報しか持たず,重要性が低いことは明らかだからである.また,実際の評価においても,要約例\ref{ex_summary}について本手法による削除が不適切とされた部分はなかった.冗長部の特定は重要性の指針を含むことであり,要約に対する視点,要求する要約率などにより変化するので,評価もゆれることが考えられる.これは従来の単一文書に対する要約評価においても同様に問題とされていることである.したがって,付録\ref{ex_summary}に挙げた要約例も重複部の削除に関しては妥当であると言えるが,冗長部の削除については,その特定が不十分であり,削除が不適切である部分が存在すると言える.しかしながら,付録\ref{ex_summary}に挙げた要約例は,実際のところ,記事の概要を把握するためには十分な要約になっている.評価においても,削除が不適切であると指摘された部分はなく,冗長であると指摘された部分を数ヶ所含んだ要約である.新聞記事検索時などにおいて,利用者が関連する一連の記事の要約を求めることは,関連記事数が多ければ多いほど頻繁に起こると想定できる.このとき,本研究が目的とする要約によって,関連記事群全体の概要を知ることができれば,次の検索への重要な情報提供が可能となる.また,見出しの羅列のみでは情報量として不十分であるが,第一段落の羅列では文書量が多すぎる場合に,適切な情報を適切な文書量で提供できると考えられる.換言すれば,段階的情報(要約)提示の一部を担うことが可能となる.したがって,本研究において目標とする要約が満たすべき要件として,重複部・冗長部を含まないのみならず,一連の記事を時間順に並べることが挙げられていることは妥当である.冗長部はどのような記事にも含まれる可能性があるが,重複部は記事の文体によっては特定することが困難となる場合がある.逆に,重複部が存在する場合,複数関連記事要約の観点からそれを削除することは妥当である.一般的に新聞記事の記述の方法から,長い時間経過を伴う一連の関連記事の場合には重複部が多く存在することが予想できる.そのような記事群は一連の事件や政治的出来事に関する場合が多い.また,このような関連記事に対する要約の需要は多く,本論文で示す重複部・冗長部の削除による要約は十分に実用性があると考える.実際に,要約例\ref{ex_summary}はある事件について述べられている一連の記事群であるが,これは既に述べた効果を持ち,おおむね本研究の目指す要約であると言える.本論文では上記の処理がヒューリスティックスにより実現可能であることを示し,そのための手法を提案する.そしてこの手法を実装し,評価実験を通して手法の有効性を確認する.以下では,\ref{関連研究}節にて本研究に関連する研究について触れ,\ref{要約手法}節では,本論文で提案する要約手法について述べる.\ref{評価実験}節では\ref{要約手法}節で述べた手法を用いて行った実験とアンケート評価について示す.そして,\ref{議論}節で評価結果について議論し,最後に本論文のまとめを示す. \section{関連研究} \label{関連研究}複数文書を対象とした要約の研究として\cite[など]{Mani97,Yamamoto96,McKeown95,Shibata97}がある.ManiandBloedornの手法は,文書をグラフを用いて表現し,活性伝播によって文書の話題と関係する部分グラフを抽出する.そして,複数文書に対して各文書の部分グラフを照合することにより,文書間の類似箇所と相違箇所を抽出し,この結果に基づき文を選択する.柴田らは形態素の出現頻度を利用し,重複文を同定している.こうして特定した重複文の一方を用いて要約を生成する.従来は,要約を目標に置きながらも,実際には統計的手法などにより重要文を決定し,その選択結果である抄録を生成する研究が多い.しかし,山本らは表層情報のみを用いたヒューリスティックスによる手法を提案し,文中の重複部分を削除している.山本らは関連した文書を利用して,後続記事の重複部分の除去による要約を研究目的としており,複数の関連記事全体の要約は考慮していない.そのため,本手法とは対象とする問題が異なる.本手法も山本らと同様にヒューリスティックスのみによる手法であるが,山本らは節単位で比較,削除を行うのに対し,本手法は新聞記事において頻繁にみられる表現を手掛りに重複部分を特定し,削除する.また,要約生成のために構文解析を用いる手法\cite{Mikami98,Mikami99}が存在する.一般に,構文解析器は形態素解析器に比べ解析誤り率が高く,処理時間をより多く必要とする.そのため,構文解析結果を利用して要約生成する場合,処理時間を費やしたにもかかわらず,要約文章が不自然になる可能性がある.したがって,ヒューリスティックスのみで十分な要約が生成できるとする本手法では,処理時間の短縮と構文解析誤りによる影響の排除のため,構文解析器を使用しない.本手法の特徴は,形態素解析結果のみを用いるヒューリスティックスによって構成されていることである.関連した記事間において,重複・冗長部分の特定にはヒューリスティックスで十分対応可能であり,それによる要約文章が十分に自然であると考えた.そのため,本手法では従来提案されている統計的手法などによる重要部分の特定は行わない.しかし,単一文書を対象として従来提案されてきた要約手法と本手法を組み合わせて用いることにより,さらに文書量が少ない要約を生成できると考える. \section{要約手法} \label{要約手法}本手法の概要は以下の通りである.新聞記事が表現上の特有の構造を持っていることから,各記事の第一段落を要約の対象とし,記事を時間順に並べる.これにより,利用者が,一連の事件に関する全体像を見出しの羅列以上に容易に把握することが期待できる.冗長部として,推量文を文末表現で特定し,削除する.また,新聞記事において詳細な住所の表現が頻出するが,記事の全体像を把握する上では重要度は低いと考えられるので,これも冗長部として削除する.重複部としては,導入部と呼ぶ部分を定義する.導入部の名詞と動詞がそれ以前の記事の文に含まれるならば,それは既知の情報であるため,削除する.また,頻繁に出現する人名・地名に関する説明語句,括弧による言い換え,それぞれの文,ならびに括弧を用いた説明語句についてそれぞれ記事内と記事間における重複を調べる.重複している部分は,1つを残し,他は削除する.以上の処理を各関連記事の第一段落を並べたものに適用し,最終的に残った文章が要約文章となる.\subsection{前提条件}本手法は表層情報である形態素解析結果のみを用いて要約を生成する.そのため,各記事をあらかじめ形態素解析しておくことが必要となる.また,本手法が利用される状況として,新聞記事検索の結果に対して利用することを想定する.利用者は各記事の見出しなどを参照しつつ最終的な関連記事を決定し,関連記事群を指定する.この際,一般的に複数記事の要約文書の記述順序なども問題となるが,要約システムは与えられた記事を時間順に整列し,これを記述順序として要約処理を行う.なぜならば,実際に記事が書かれた順番が記述順序であり,こうすることにより一連の記事に関する流れを容易に把握できると考えたからである.要約処理が終了すると,時間順に整列された順番で各記事を出力するものとする.本手法では,各記事の第一段落に対して,その重複部・冗長部を特定し,削除することによる要約を目指すので,要約率の制御は行わない.\subsection{要約処理手順の概要}本要約手法は,冗長部処理と重複部処理に大別される.冗長部処理は推量文処理と住所表現処理から構成される.重複部処理は導入部処理,括弧の処理,人物・地名の説明処理,重複文処理から構成される.要約手法の処理手順の概略は以下のとおりである.\begin{enumerate}\item各記事を形態素解析する.\item入力された各記事から第1段落を抽出し,時間順に整列する.\item推量文処理.\item重複文処理.\item住所表現処理.\item人物・地名の説明処理.\item括弧の処理.\item導入部処理.\itemその他の処理.\item結果を出力する.\end{enumerate}以下,順に各処理について説明する.\subsection{推量文処理}推量文とは,記述した\begin{quote}コトと現実とに不一致があり得ることを示す\cite{Shirota98}\end{quote}文である.文末が推量表現である文は,記述内容と事実とに不一致があり得ることを示している.したがって,新聞記事を対象とする場合においては,推量文を要約文書に含める重要性は低いと言える.そのため,まず,各文の文末表現を判断し,推量表現であれば削除対象としてその1文全てを仮冗長部とする.この削除対象と判断する文末表現を表\ref{del_guess}に列挙する.これらの文末表現は,日本経済新聞の1990年から1992年の記事を参考に収集した.そして,以下の条件を全て満たした場合に限り仮冗長部を削除する.\begin{enumerate}\item「〜によると」,「〜ため」という根拠を示す表現を含まない.\item「だが」,「しかし」,「が」といった逆接の接続詞あるいは接続助詞を含まない.\item「ただ」,「ものの」といった条件,譲歩を示す表現を含まない.\end{enumerate}\begin{small}\begin{table}[htb]\begin{center}\caption{文の削除対象とする文末表現}\label{del_guess}\begin{tabular}{|cccc|}\hline〜可能性が大きい&〜可能性もある&〜可能性も出てきた&〜そう\\〜情勢だ&〜かもしれない&〜そうだ&〜ちがいない\\〜という&〜と思われる&〜はずだ&〜微妙\\〜微妙だ&〜微妙である&〜見通し&〜見通しだ\\〜見通しである&〜みられる&〜見られている&〜模様だ\\〜よう&〜ようだ&〜予想される&〜らしい\\〜ろう&〜そうもない&&\\\hline\end{tabular}\end{center}\end{table}\end{small}\subsection{重複文処理}\label{重複文処理}新聞記事では極く稀にほぼ同一内容の文が出現する場合がある.特に記事が掲載されてから時間経過が大きいほど,その可能性が大きくなる.一例を以下に示す.\begin{quote}[日本経済新聞1993/1/26から抜粋]米国が日本と共同開発中のFSXの関連技術を入手できると定めた政府間合意に基づき,技術に付随する「試供品」としてハードウエアを輸出する.日本企業が独自開発した本格的な軍用機材を対米供与する初の事例になる.米空軍は将来の戦闘機開発で同レーダーの採用を検討するとみられ,同社は引き合いがあれば積極的に対応する方針だ.[日本経済新聞1993/8/4から抜粋]米国が日米共同開発中のFSXの関連武器技術を入手できると定めた政府間合意に基づき,技術に付随する参考品の形で供与した.日本企業が独自開発した本格的な軍用機材を対米供与する初の事例となる.\end{quote}これらの2記事間には全く同一内容の文があり,重複しているため削除する.このような重複部分を特定する手法は複数考えられる.本手法では次に示す処理を行い,\mbox{同一内容である重複}文を削除する.文$S1とS2$が与えられたとき,$S1$に含まれる名詞数を$n(S1)$とし,同様に$S2$に含まれる名詞数を$n(S2)$とし,さらに,$S1とS2$に共通に含まれる名詞の数を$m(S1,S2)$として\[\frac{m(S1,S2)}{n(S1)}>\alpha\quadかつ\quad\frac{m(S1,S2)}{n(S2)}>\alpha\]という条件が成立する場合,$S2$を削除する.本手法では後述の理由により$\alpha=0.8$とする.本手法では重複文処理として,以上の処理を一連の記事内の第一文を除く全ての文の組み合わせに対して行う簡便な手法をとった.この処理では,ほとんど同一内容の文のみを削除する.一文が複数の文に分かれるなどの理由により,$S1$が$S2$に含まれる場合は,$S1$を削除すべきと考えられるが,削除後の記事が不自然となる場合があるので,本論文では上述の手法とした.この手法を先の例に適用すると第2記事の「日本企業が独自開発した本格的な軍用機材を対米供与する初の事例となる.」が削除される.また,第1記事の「米国が日本と〜」と第2記事の「米国が日米共同開発中の〜」はほぼ同一内容であると判断できるが,「試供品」$\rightarrow$「参考品」などの違いがあり,本手法では削除されない.$\alpha$の値を小さくすることにより,削除も\mbox{可能となる}が,削除すべきでない文も削除する場合があることが観察されたので,本手法では,$\alpha=0.8$としている.\subsection{住所表現処理}新聞記事においては詳細な住所の表現が頻出する.例えば\begin{quote}[日本経済新聞1992/2/13より抜粋]放棄させていた北海道○○町△町一二三,廃品回収業[日本経済新聞1990/1/26より抜粋]東京都江戸川区西葛西七丁目の都道交差点で\end{quote}などの表現がある.この場合,記事の概要を把握する上では詳細な住所の記述は冗長である.このような住所表現をパターンマッチングで特定し,削除する.ただし,住所表現の次の形態素が読点の場合はその住所表現全体および後続の読点を削除するが,住所表現の次の形態素が「の」の場合は住所表現の先頭から「都,道,府,県,管内,市」のいずれかの形態素までを残し,それ以降の住所表現を削除する.上の例では,それぞれの部分を削除すると\begin{quote}七千万円の債権を放棄させていた廃品回収業東京都の都道交差点で\end{quote}となる.\subsection{人名・地名の説明処理}新聞記事では,次のように人名の前後でその人物について説明している部分がある.\begin{quote}[日本経済新聞1992/2/20より抜粋]\underline{前道議の}○○○○容疑者\underline{(56)=渡島管内△△町△△△=}[日本経済新聞1991/4/9より抜粋]\underline{早大三年,}○○○○さん\underline{(20)}ら四人は\end{quote}複数の関連記事を並べた場合,このような部分は頻繁に出現する.このことから,同一の人名が2度以上出現する時,それらの説明の部分は冗長となり,要約文章に含める重要性が低いため削除する.説明の部分とは,人名にかかる連体修飾語句と,人名の後方にある括弧を用いた年齢の表現,ならびに,=で囲まれた部分である.連体修飾語句は人名の形態素から前方へ名詞,または助詞「の」またはその前も名詞である「,」の続く限りたどり,到達できる部分によって特定する.本手法ではこれらの特定した説明部分を削除する.また,地名の連体修飾語句も同様に削除する.例を以下に示す.\begin{quote}\underline{施行主体の}広島市は[日本経済新聞1991/3/15より抜粋]\end{quote}ただし,連体修飾語句の認定が人名の場合と異なり,地名の形態素から前方へ,普通名詞の続く限りたどり,到達できる部分までとする.また,助詞「の」が地名の直前に存在し,「名詞の地名」となる形式の場合,1度目の出現時に「名詞」を登録しておく.そして,同一地名について再び同一の名詞を伴なって「名詞の地名」という形式が出現した場合,「名詞の」を削除し,「地名」とする.\subsection{括弧の処理}新聞記事に出現する括弧を用いた表現のうち,括弧の処理では,以下の形式を扱う.\begin{quote}A(B)\end{quote}このような表現があった場合,以下のいずれかの表現に置き換えることが可能である.\begin{enumerate}\itemB\itemA\itemA(B)\end{enumerate}(1)は語句の言い換えの場合で,括弧の前の語句が長いほど頻繁に起こる.例えば,複数の記事を並べた中に「石油輸出国機構(OPEC)」が2度以上出現する場合がある.このような場合,括弧の前の語は冗長であり,2回目以降は以下のように置き換えることが可能である.\begin{quote}石油輸出国機構(OPEC)$\rightarrow$OPEC\end{quote}この置き換えが適用できる条件は\begin{itemize}\item括弧内の語がその前の語より短かい,かつ\item括弧内の語が1形態素からなる\end{itemize}である.以上の2つの条件を満たす場合についてのみ,括弧の前の語句を括弧内の語句へ言い換える.次に,(2)は括弧の中の語句が付加的な情報の場合で,例えば,「ダイエー(本社神戸市)」が,複数の記事を並べた中に2度以上出現する場合,括弧内の語句による説明は冗長なので,以下のように置き換える.\begin{quote}ダイエー(本社神戸市)$\rightarrow$ダイエー\end{quote}この置き換えが適用できる条件は\begin{itemize}\item括弧内の語が前に出現した括弧内の語と完全に一致している,または\item括弧内の語が前に出現した括弧内の語に連続した文字列として含まれる\end{itemize}である.以上のいずれかの条件をみたす場合は,括弧内の語句を括弧と共に削除する.(3)は(1)および(2)の適用条件に合致しない場合であり,この場合は特に削除を行わない.具体的には(B)がAと無関係と考えられる場合に相当する.例えば,\begin{quote}した.(関連記事1面に)\end{quote}などがこれに該当する.また,複数記事を要約する場合において,既に説明した形式とは異なる括弧表現のうち,要約文章に含める重要性が低いものがある.例えば,記事冒頭の記者に関する表現と,記事最後の関連記事参照のための表現がある.記者に関する情報は一連の関連記事の大意を把握するための情報としては重要性が低い.また,関連記事参照のための情報は,紙面という媒体の場合に有効な情報であり,利用者が選択した記事群を要約する場合には,重要性は低いと考えた.具体例を以下に示す.\begin{quote}【パリ7日=○○△△】(関連記事1面に)\end{quote}などがこれに該当し,本手法ではこれらの表現を削除する.\subsection{導入部の処理}複数の関連記事を要約する場合,各々の記事は単独に読まれることを想定しているため,記事の前提条件,あるいは,時間経過に関する記述がある.そのため,単一文書の要約手法を各記事に適用し,それらの文書を並べるだけでは,要約文書として冗長な部分を数多く残してしまう可能性がある.そこで,記事の前提条件および時間経過に関する部分は,一連の記事に1つ存在すれば十分であるため,それらの重複部分を特定し,2回目以降を削除する.時間順に並べた一連の記事$A_1,A_2,\cdots,A_n$において,古い記事で記述された内容を新しい記事で再び記述している部分がある.このような部分は,単独の記事としてであれば,経過を知るためなどから必要である.しかし一連の関連記事を要約する立場から考えた場合,それらはすでに既知の事実であり,重複した内容を持つ.このような部分は一般に記事の冒頭にみられ,本研究では導入部と定義する.導入部の定義を以下に示す.\begin{enumerate}\item記事の第1文に存在するものとする.\item文頭から次の表現\footnote{これらの表現は日本経済新聞1990年から1992年の記事を参考に収集した}までの部分\begin{quote}〜したが,〜問題で,〜事件で,〜事故で,〜していたが,〜について\end{quote}ならびに,「名詞+は」の前までの部分のうち最初に出現する表現までとする.\item該当部分が存在しない記事には,導入部が存在しないものとする.\end{enumerate}時間順に並べた一連の記事$A_1,A_2,\cdots,A_n$において,記事$A_i(i\ge2)$の導入部は冗長である場合がある.なぜなら,記事$A_1,A_2,\cdots,A_{i-1}$において導入部と同一の内容が既に\mbox{述べられてい}る可能性があるからである.本手法において,導入部が重複していると判断するための条件を以下に示す.\begin{itemize}\item「〜事件で」,「〜事故で」を含む導入部の場合,導入部に含まれる名詞,動詞の終止形のうち3割以上が$A_1,A_2,\cdots,A_{i-1}$中のある文に含まれる.\itemそれ以外の導入部の場合,導入部に含まれる名詞,動詞の終止形のうち6割以上が$A_1,A_2,\cdots,A_{i-1}$中のある文に含まれる.\end{itemize}以上の条件を満たす導入部が削除される.ただし,「名詞+は」の部分は文の主題を示しており,削除しない.この「名詞+は」の「名詞」の部分は,「は」の直前の形態素から名詞,読点,なかぐろ点(・),接頭辞,接尾辞,および「名詞+と」のいずれかであるかぎり前方へたどり,特定する.また,導入部に含まれる括弧内の形態素ならびに導入部内の数詞は考慮しない.上記の条件は,記事間の関連性が十分であると仮定できる場合は,「〜事件で」,「〜事故で」を含む導入部は名詞の一致度合が低くとも削除すべき場合が多いという事実に基づき割合を小さくした.一般に名詞の一致度合が低い場合,他の記事とは異なる名詞を用いて同一事象を指していることが多い.また,「〜事件で」,「〜事故で」以外の表現を含む導入部では形態素の一致割合を6割以上としている.その理由は,予備実験として割合を徐々に小さくする実験を行い,6割より小さくなると,不自然になる場合が観察されたためである.導入部処理は次のアルゴリズムに従う.ただし,ここで$A_1,A_2,\cdots,A_n$は既に時間順に並べられているとする.\begin{quote}入力:記事$A_1,A_2,\cdots,A_n$出力:記事$A_1,A_2,\cdots,A_n$\begin{description}\item[Step1]$i:=n$\item[Step2]$i$が$1$より大きければStep2.1〜2.4を繰り返す\item[Step2.1]記事$A_i$の導入部の特定\item[Step2.2]導入部がなければStep2.4へ\item[Step2.3]記事$A_1,A_2,\cdots,A_{i-1}$内の各文と記事$A_i$の導入部を比較し,削除のための条件を満足するならば,その導入部を削除\item[Step2.4]$i:=i-1$,Step2へ\item[Step3]終了\end{description}\end{quote}\subsection{その他の処理}その他の処理では,以上の要約処理に含まれない処理を行う.処理の内容を以下に示す.\begin{enumerate}\item各記事の最後に「解説〜面に」があればこれを削除する.\item各記事を先頭から調べて行き,「数詞+日」が出現せずに「同日」という表現が出現した場合,それ以前に出現した「数詞+日」が削除されている.そのため,「同日」から前方にたどり,既に削除された部分の中から一番最初に出現する「数詞+日」を「同日」と置換する.\end{enumerate}(2)のような省略の回復は他にも考えられるが,本手法では重要である日付の情報のみを扱う. \section{評価実験} \label{評価実験}本論文で提案する手法を計算機上に実装し,アンケートによる評価を行った.まず,本手法をCPU:PentiumII300MHz,メモリ:128MBのPC/AT互換機上にPerl言語を用いて実装した.形態素解析器には形態素解析システムJUMAN3.5を使用した.JUMANの辞書ならびに設定には変更を加えず,システムの既定値のまま使用した.また,形態素解析に誤りが含まれていた場合にも,解析結果を修正せずに用いた.実験には日本経済新聞の1990年と1992年の記事を使用した.なお,本研究の手法を構築するために1990年から1992年の記事を参考にしているが,参考に使用した記事とは異なる関連記事を新たに抽出した.関連記事群はあらかじめ27記事群を抽出しておいた(平均記事数4.7,最大9,最小3).\subsection{実験結果}あらかじめ形態素解析しておいた記事を入力として実験した結果,各記事群を要約する時間は平均0.8秒(形態素解析時間を除く)であり,平均要約率は82.1\%であった.\subsection{評価方法}自然言語処理システムにおける評価の問題は機械翻訳の分野で古くから扱われている\cite{Margaret96}.自動要約の分野では,単一文書を対象とした研究の多くが,人間が生成した要約文章と自動要約結果を比較し,再現率および適合率を評価尺度とした評価が主に行われてきた\cite{Okumura98}.しかし,人間が生成した要約文章も,要約を行う人間の視点などによって要約結果が大きく異なることが十分に考えられる.つまり,原文に対して要約が唯一存在するわけではない.しかしながら,複数の人間が削除による要約を行った場合に,そのうちの大部分の人間が削除する部分を考えることはできる.そこで,自動要約結果の評価を複数の人間によって行うことは自然である.山本らは18人の被験者に対してアンケートを行っている\cite{Yamamoto95a}.山本らのアンケートは要約結果全体に対して,その自然さ,内容の適切さ,および修飾句省略の適切さを問うものである.しかし,これでは適用した要約技法のうち,どれが有効なのかがわかりにくい.本研究では要約文章と原文を比較し,(1)要約文章中で削除すべき箇所,(2)要約システムが削除した部分において削除すべきではない箇所を評価者に自由に指摘させるアンケートを行った.\subsection{アンケート調査}アンケートに使用した記事群は,実験のために用意した27記事群のうち要約率が90\%以下の記事群(21記事群)から任意に6記事群を選択した.選択した記事群の概要を付録\ref{6記事群の概要}に示す.選択した記事群の平均要約率は74.5\%である(最小:56.0\%,最大:83.1\%).調査対象としたのは大学工学部学生11人である.アンケート実施の前に,本手法の概要および想定状況等を説明し,元記事も第一段落のみであることを説明した.想定状況として\begin{itemize}\item関連記事検索結果に対して使用すること,\item記事は利用者が見出しなどをもとに決定すること,\itemそのため,記事間の関連性は十分だと仮定できること,\item利用者は見出しなどにより記事の大雑把な概要はある程度把握していること,よって,さらに詳細な情報を得るために要約システムを使用するということ,\item要約システムは記事の概要,すなわち見出しよりも詳しいが第一段落よりも短かいものを出力することを目的としていること\end{itemize}を説明した.また,本手法が重複部・冗長部を特定し,それらを削除することによって要約を行うことも説明した.アンケートへは記事の日付,見出し,文章(要約/原文)を出力してある.調査は,(1)要約結果のうち,さらに削除すべきだと思う部分を自由に指摘する.(2)計算機が削除した部分のうち,削除すべきではないと思う部分を自由に指摘する.以上を6記事群それぞれについて自由に行う形式で調査を行った.評価にかける時間を限定せず自由に評価させた.\subsection{アンケート結果}\label{アンケート結果}指摘部分は完全に一致した場合のみを数えあげた.例えば,$C_1$$C_2$$C_3$$C_4$$C_5$という文字列に対して,評価者Aが$C_2$から$C_4$を指摘し,評価者Bが$C_1$から$C_5$を指摘した場合,$C_2からC_4$を共有していることになるが,両者は異なる部分として数え上げた.まず,アンケートに用いた記事群に対して適用した本手法の内訳を以下に示す(()内は総数に対する割合)\footnote{今回の実験では重複文処理による削除は含まれていなかった}.\begin{itemize}\item推量文処理:4箇所(6.9\%)\item住所表現処理:15箇所(25.9\%)\item人名・地名の説明処理:11箇所(19.0\%)\item括弧の処理:9箇所(15.5\%)\item導入部の処理:19箇所(32.8\%)\end{itemize}総数:58\noindent{\bf[冗長さの指摘]}指摘箇所総数:101箇所内訳:\begin{tabular}{l|lllllll}重複人数&1&2&3&4&5&6&7\\頻度&56&16&11&6&6&3&3\\\end{tabular}\vspace*{3mm}平均重複人数:2.1\vspace*{3mm}重複人数とは何人の評価者が同一の部分を指摘したかを示し,頻度は指摘された箇所の数を示す.\vspace*{5mm}\noindent{\bf[削除不適切の指摘]}指摘箇所総数:13内訳:\begin{tabular}{l|lll}重複人数&1&2&3\\頻度&8&3&2\\\end{tabular}\vspace*{3mm}平均重複人数:1.5\vspace*{3mm}指摘された13箇所の内訳(()内はその重複人数)\begin{itemize}\item推量文処理:4箇所(3)(2)(1)(2)\item住所表現処理:2箇所(1)(1)\item導入部処理:7箇所(1)(2)(3)(1)(1)(1)(1)\end{itemize} \section{議論} \label{議論}\subsection{手法の妥当性}まず,冗長さの指摘から考察する.ここで,重複人数が評価者の半数以上である6箇所についてみてみると,\begin{enumerate}\item記事冒頭の「〜とされた」までの部分(1箇所)\item記事冒頭の「悪質な犯行で大きな社会的関心を呼んだ」という部分(1箇所)\item他の記事の文と部分的に一致している部分(1箇所)\item形態素解析誤りにより,人名の処理ができなかった部分(1箇所)\item括弧の処理に関する部分(2箇所)\end{enumerate}という構成になっている.(1)は導入部として考慮すべき表現である.なぜならば,「〜とされた」はすでに過去にあった事実を述べており,導入部としての資格を十分に持っている.(2)はいわゆる連体修飾節に該当し,表層情報のみを用いる本手法で対応することは困難である.(3)は\ref{重複文処理}節にて述べたように,本手法では文の一部の重複に対して対応していないため,当然の結果である.これに表層情報のみを用いる手法で対応するためには山本らが提案する節照合処理\cite{Yamamoto96}などが適用できる.(4)は形態素解析結果において人名となるべき形態素が地名と解析されたために生じたものであり,現状の形態素解析器では頻出する誤りである.これを避けるために「地名+容疑者」や「従業員,地名〜」という明らかに人名を示す表現がその形態素の近隣にある場合には人名として処理するヒューリスティックスを適用すればよい.(5)は該当箇所が2箇所あるが,これは2種類にわけることができる.1つは括弧の中に括弧表現がある場合であり,システムがこのような入れ子の括弧表現に対応していなかったために生じた.これは直ちに対応可能である.もう一方は「関税貿易一般協定・多角的貿易交渉(ガット・ウルグアイ・ラウンド)」と「ガット・ウルグアイ・ラウンド(関税貿易一般協定・多角的貿易交渉)」と表現されていた場合に指摘されている.これは現状の手法では対処できないが,このような表現は言い換えに相当するため,より短かい表現である「ガット・ウルグアイ・ラウンド」に統一すべきであり,この実現は容易である.以上から,(2)と(3)を除いて,容易に修正できることがわかる.次に削除不適切の指摘について検討する.以下に,削除不適切として指摘された13箇所すべてが,いずれの処理によるものかを示す.()内の数字は重複人数を示す.\begin{enumerate}\item導入部処理「〜について」1箇所(1)\item導入部処理「名詞+は」6箇所(1)(1)(1)(1)(2)(3)\item住所表現処理2箇所(1)(1)\item推量文「〜ようだ」1箇所(3)\item推量文「〜なろう」2箇所(2)(1)\item推量文「〜そうだ」1箇所(2)\end{enumerate}(1)は1箇所を1人が指摘している.これは「〜について」という部分が削除されたために,どのような話題についての記事なのかがわかりにくく感じた結果,削除不適切であると指摘したと推察する.また,アンケートにおける想定状況が十分に伝わっていなかったために,そのように感じた可能性もある.(2)は6箇所について指摘されているが,関係する導入部は2箇所(以下,a.,b.とする)であり,それぞれ,その中で3箇所ずつ指摘されている.a.は「名詞+は」の直前に「〜による」があり,「名詞+による」が欠如したため不自然に感じたと推察される.ここを指摘した人は1人であるが,必要性が十分に認められるならば,導入部に含まれる「名詞+による」を残して削除するようにすることは容易である.次にb.は「名詞+は」の直前に「名詞+の」があり,「名詞+は」のみでは情報が不十分であるとして指摘したと推察される.対処法として,「名詞+は」の直前に「名詞+の」がある場合は,これも含めて残すことがあげられる.(3)の住所表現処理は一連の記事の冒頭の記事であり,住所表現のみを手掛りに削除したため不適切と感じたようである.この住所表現内には見出しに含まれる地名が存在し,削除すると不自然になる.したがって,一連の記事の冒頭記事において,住所表現内の形態素が見出しに含まれる場合はその住所表現を残すべきである.(4)の推量文処理は「超伝導超大型粒子加速器(SSC)」という固有名詞が含まれており,推量文の形式としては削除に該当する.しかし,これを削除しないためには,従来の単一文書に対する要約の際に用いられてきた文に対する重要度などを用いて,このような固有名詞を含む文は重要であると評価するなどの対応が必要である.また,この推量文は一連の記事の冒頭記事に含まれ,それ以降この記述に関連した記述がないため,削除するのは不適当であるとの指摘もあった.(5)の推量文は2箇所指摘されているが,推量文としてシステムが削除した部分は1箇所のみである.この推量文は「〜おり,…なろう」という形式であり,「〜おり,」までの前半を指摘した人が2人,後半の「…なろう」までを含めて推量文を指摘した人が1人となっている.確かに前半の「〜おり」は事実を伝えているため,(4)と同様に重要性を評価する指針とあわせて今後検討する必要がある.(6)の推量文処理は一連の記事の最終記事の最後の文を削除したものであり,一連の記事の最後の推量文は残すべきだとの意見があった.以上から推量文処理は,文の形式からの判断はおおむね妥当であり,これ以上の改善のためには,文の重要度を判断する基準を導入する必要があると考える.また,住所表現は冗長部であるため,評価者によって評価にゆれが生じる可能性がある.だが,今回の評価実験結果より複数関連記事の概要を把握する上では,住所表現の重要性はほとんど存在しないと結論づけられる.以上の評価実験結果から,本論文で提案した手法はおおむね妥当である.\subsection{要約率と記事の関係}本手法を適用して得た記事群の要約率は,元の記事群に含まれる重複部・冗長部の割合に依存する.要約率が大きい記事は,本論文で定義した重複部・冗長部を含まない記事であり,それ以上に要約が困難な記事である.逆に,要約率が小さい記事は,重複部・冗長部を多く含む記事であり,それらが本手法により削除される.評価実験結果から,本手法が重要性の高い情報を削除せず重要性の低い情報のみを削除するという要約の要件を満たしていると言える.そのため,記事が重複部・冗長部を多く含む,含まないによらず,本手法によって妥当な要約を行うことができる.また,どのような記事に対しても本手法を適用することは可能である.しかし,その要約率は既に述べたように,記事の内容により大きく変化する.これは,本手法の限界を意味するが,重複部削除という本手法の目指す処理は正しく機能している.重複部・冗長部を多く含む記事として,特定の事件・事故に関する記事を挙げることができる.評価実験においても,ある事件の記事群に対して55\%程度の要約率を達成することができた(付録\ref{ex_summary}).逆に関連記事群によっては,重複部・冗長部をほとんど含まない記事群があり,要約率は90\%台後半にとどまる.評価実験において,我々が抽出した記事群の中に総務庁が毎月発表する完全失業者数に関する記事群があり,それに該当する.しかしながら,一般に,特定の事件・事故などについてその経過,概要などを求めることは比較的多いと予想できる.したがって,要約の要求が存在する記事の多くに対して,本手法は有効に機能すると言える. \section{おわりに} 新聞の関連複数記事を1つの文書へと要約するために重複部・冗長部を削除する手法を提案し,実験を行った.その結果,新聞記事は重複部・冗長部の削除によって,要約率80\%程度に要約可能であることがわかった.また,アンケートによる評価の結果,本手法による削除はおおむね自然であり,本手法が削除する箇所はおおむね妥当であることがわかった.また,重複部・冗長部の削除処理はヒューリスティックスで実現可能であり,その多くは本論文で提案した手法によって実現される.評価実験において,対処が困難な推量文表現も明らかになったが,これらに対しては従来用いられてきた重要文に関する指針\cite{Okumura98}が利用可能であると考える.重要文に関する指針をどのように本手法に反映させるかは今後の課題である.\acknowledgment日本経済新聞の記事について,本論文への引用許可を頂いた(株)日本経済新聞社に深謝する.また,本研究の一部は文部省科学研究費特定領域研究B(2)および(財)国際コミュニケーション基金の援助を受けて行った.\appendix \section{要約例} \label{ex_summary}以下に\ref{要約手法}節にて説明した手法による要約例を示す.網かけ(\shadedbox{})をしてある部分が要約システムによって削除された部分である.この要約の要約率は56.0\%である.\begin{enumerate}\item記事1[92年2月13日]\\見出し:北海道警,「○○○○」から4億1000万,恐喝の会社社長ら逮捕.\\北海道警捜査四課と豊平署は十二日,廃バッテリー回収設備の工事をめぐって九〇年四月と十一月ごろ東証一部上場の化学会社○○○○(本社・札幌市,○○△社長)から現金三億四千万円を脅し取ったり,七千万円の債権を放棄させていた\shadedbox{北海道}\shadedbox{○○}\shadedbox{町}\shadedbox{□町}\shadedbox{一三四}\shadedbox{,}廃品回収業「□□」社長,□□▼▼容疑者(51)と\shadedbox{○○}\shadedbox{市}\shadedbox{△}\shadedbox{△町}\shadedbox{八}\shadedbox{,}無職●▽▽容疑者(55)の二人を恐喝容疑で逮捕した.\item記事2[92年2月18日]\\見出し:○○○○恐喝事件で道警,■■前道議を逮捕.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{高圧}\shadedbox{ガス}\shadedbox{,}\shadedbox{産業}\shadedbox{機器}\shadedbox{メーカー}\shadedbox{「}\shadedbox{○○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{)}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}道警捜査四課と札幌・豊平署は十七日,恐喝の疑いで新たに\shadedbox{○○}\shadedbox{管内}\shadedbox{○○}\shadedbox{町}\shadedbox{□□}\shadedbox{二}\shadedbox{,}前道議■■◎◎容疑者(56)を逮捕した.同事件の逮捕者は三人となった.\item記事3[92年2月20日]\\見出し:■■前道議を送検,○○○○恐喝事件.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{化学}\shadedbox{会社}\shadedbox{「}\shadedbox{○}\shadedbox{○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{,}\shadedbox{社長}\shadedbox{○○}\shadedbox{△}\shadedbox{氏}\shadedbox{)}\shadedbox{が}\shadedbox{廃}\shadedbox{バッテリー}\shadedbox{回収}\shadedbox{設備}\shadedbox{の}\shadedbox{工事}\shadedbox{を}\shadedbox{めぐって}\shadedbox{現金}\shadedbox{約}\shadedbox{三億四千万}\shadedbox{円}\shadedbox{を}\shadedbox{脅し取ら}\shadedbox{れたり}\shadedbox{工事}\shadedbox{代金}\shadedbox{の}\shadedbox{債権}\shadedbox{(}\shadedbox{約}\shadedbox{七千万}\shadedbox{円}\shadedbox{)}\shadedbox{を}\shadedbox{放棄}\shadedbox{さ}\shadedbox{せ}\shadedbox{られて}\shadedbox{いた}\shadedbox{事件}\shadedbox{で}道警捜査四課と札幌豊平署は十九日,恐喝容疑で逮捕した\shadedbox{前}\shadedbox{道議}\shadedbox{の}■■◎◎容疑者\shadedbox{(}\shadedbox{56}\shadedbox{)}\shadedbox{=}\shadedbox{○○}\shadedbox{管内}\shadedbox{○○}\shadedbox{町}\shadedbox{□□}\shadedbox{二}\shadedbox{=}を札幌地検に送検した.同課は○○○○恐喝の中で■■容疑者が果たした役割などを本格的に追及,事件の解明を急ぐ.\item記事4[92年2月23日]\\見出し:○○○○恐喝,新たに会社社長逮捕.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{化学}\shadedbox{メーカー}\shadedbox{,}\shadedbox{「}\shadedbox{○○○○}\shadedbox{」}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}道警捜査四課と札幌・豊平署は二十二日,新たに\shadedbox{○○}\shadedbox{市}\shadedbox{△△}\shadedbox{三}\shadedbox{丁目}\shadedbox{,}会社社長,●●□□容疑者(43)を恐喝の疑いで逮捕した.同事件の逮捕者はこれで四人目となった.\item記事5[92年3月5日]\\見出し:○○○○恐喝,前道議ら3人起訴——札幌地検,余罪裏付け急ぐ.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{高圧}\shadedbox{ガス}\shadedbox{,}\shadedbox{産業}\shadedbox{機器}\shadedbox{メーカー}\shadedbox{「}\shadedbox{○}\shadedbox{○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{)}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}札幌地検は四日,恐喝罪で\shadedbox{北海道}\shadedbox{□□}\shadedbox{郡}\shadedbox{○○}\shadedbox{町}\shadedbox{△△}\shadedbox{二}\shadedbox{,}\shadedbox{前}\shadedbox{北海道}\shadedbox{議会}\shadedbox{議員}\shadedbox{,}■■◎◎\shadedbox{(}\shadedbox{56}\shadedbox{)},\shadedbox{同}\shadedbox{郡}\shadedbox{○○}\shadedbox{町}\shadedbox{□□}\shadedbox{□}\shadedbox{八四}\shadedbox{,}\shadedbox{廃品}\shadedbox{回収}\shadedbox{業}\shadedbox{,}□□▼▼\shadedbox{(}\shadedbox{51}\shadedbox{)},\shadedbox{○○}\shadedbox{市}\shadedbox{△}\shadedbox{△町}\shadedbox{八}\shadedbox{ノ}\shadedbox{八}\shadedbox{,}\shadedbox{無職}\shadedbox{,}●▽▽\shadedbox{(}\shadedbox{55}\shadedbox{)}の三容疑者を起訴した.\item記事6[92年4月8日]\\見出し:○○○○恐喝で札幌地検,●被告を追起訴.\\\shadedbox{東}\shadedbox{証}\shadedbox{一部}\shadedbox{上場}\shadedbox{の}\shadedbox{高圧}\shadedbox{ガス}\shadedbox{,}\shadedbox{産業}\shadedbox{機器}\shadedbox{メーカー}\shadedbox{「}\shadedbox{○○○○}\shadedbox{」}\shadedbox{(}\shadedbox{本社}\shadedbox{札幌}\shadedbox{市}\shadedbox{)}\shadedbox{恐喝}\shadedbox{事件}\shadedbox{で}札幌地検は七日,先に恐喝罪で起訴していた\shadedbox{○○}\shadedbox{市}\shadedbox{□}\shadedbox{□町}\shadedbox{八}\shadedbox{ノ}\shadedbox{八}\shadedbox{,}\shadedbox{無職}●▽▽被告\shadedbox{(}\shadedbox{55}\shadedbox{)}を同罪で追起訴し,事件の捜査を終了した.被害総額は約七億四千万円となった.\end{enumerate} \section{評価実験のアンケートで用いた6記事群の概要} \label{6記事群の概要}\begin{enumerate}\item「○○○○」恐喝事件\\構成記事数:6,要約率:56.0\%\itemマドンナ写真集,税関で審査\\構成記事数:4,要約率:77.5\%\itemフィリピン・ミンダナオ島で国軍の一部将兵が反乱\\構成記事数:5,要約率:82.5\%\item東京都の母子ひき逃げ事件\\構成記事数:5,要約率:80.4\%\item大阪,奈良での連続放火事件\\構成記事数:6,要約率:68.3\%\item日米首脳会談\\構成記事数:7,要約率:83.1\%\end{enumerate}\bibliographystyle{jnlpbbl}\bibliography{v06n6_02}\begin{biography}\biotitle{略歴}\bioauthor{大竹清敬}{1998年豊橋技術科学大学大学院修士課程修了.現在,同大学大学院博士後期課程電子・情報工学専攻に在学中.自然言語処理,特に情報検索,自動要約の研究に従事.言語処理学会,情報処理学会,人工知能学会,各学生会員}\bioauthor{船坂貴浩}{1998年豊橋技術科学大学大学院修士課程知識情報工学専攻修了}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).同年よりATR音声翻訳通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V31N02-03
\section{はじめに} label{sec:intro}近年,自然言語処理やその関連分野において,GPT-3\cite{Brown-2020}をはじめとする大規模言語モデルの活用が広がっている.これらの大規模言語モデルは,巨大なニューラルネットワークを大量のテキストコーパス上で長時間訓練したものであり,プロンプトと呼ばれる入出力例を含む指示に従って様々なタスクに適応できる.このような大規模言語モデルの中でも特にChatGPT\footnote{\url{https://chat.openai.com/}}は,多くのタスクと言語において高い性能を発揮するため,2022年11月の公開当初から大きな注目を集めている.ChatGPTはGPT-3\cite{Brown-2020}およびGPT-4\cite{openai-2023}の大規模言語モデルに基づいているため,流暢な言語生成能力を持つことが知られている.英語においては,機械翻訳\cite{jiao-2023},自動要約\cite{yang-2023},テキスト平易化\cite{feng-2023}などの系列変換タスクをはじめとして,様々なタスクにおけるChatGPTの性能評価\cite{bang-2023}の結果が報告されている.ChatGPTによる言語生成は,英語だけでなく日本語においても非常に流暢であると感じられる.しかし,ChatGPTの日本語生成能力に関する定量的な調査は,現時点ではまだ充分に行われていない.本研究では,ChatGPTの日本語生成能力を自動評価および人手評価する.具体的には,英語文から日本語文への機械翻訳,日本語文章の自動要約,日本語文のテキスト平易化の3種類の系列変換タスクにおいて,ChatGPTの日本語生成能力を評価する.実験の結果,自動評価においては既存の教師ありモデルの方がChatGPTよりも高い性能を示したが,人手評価においてはChatGPTの方が高く評価される傾向があった.詳細な分析の結果,ChatGPTは全体的には高品質なテキストを生成できるものの,各タスクにおける詳細な要請に応えられていないことが明らかになった.具体的には,機械翻訳タスクにおいては固有名詞などの語彙選択の誤り,自動要約タスクにおいては冗長な出力,テキスト平易化タスクにおいては過度に積極的な編集をしている事例が見られた.そのため,比較的制約の緩い用途においてはChatGPTの活用が有望であり,細かな制御を必要とする用途では従来の教師ありモデルを用いるという,用途に合わせた使い分けが重要であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} label{sec:related_works}本節では,ChatGPTの背景技術について概説し,英語における大規模言語モデルの性能評価に関する先行研究について紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Transformerモデルの転移学習}大量のテキストデータを用いた効率的な訓練が可能なTransformerアーキテクチャ\cite{vaswani-2017}の普及とともに,教師なし学習に基づく事前訓練の後に目的タスクにおいて教師あり学習の枠組みでのファインチューニングを行う転移学習が広く用いられるようになった.Encoder型Transformerを採用したBERT\cite{devlin-2019},Decoder型Transformerを採用したGPT\cite{radford-2018},Encoder-Decoder型Transformerを採用したBART\cite{lewis-2020}などが提案され,目的タスクに応じてこれらのいずれかをファインチューニングするのが,近年の自然言語処理における主流のアプローチとなっている.事前訓練には,BERTやBARTではマスク言語モデリング,GPTでは自己回帰型言語モデリングが用いられている.前者はマスクされたトークンをその周辺トークンを手がかりに推定するタスクであり,後者は所与のトークン列を手がかりとして次に続くトークンを推定するタスクである.これらのタスクは人手によるアノテーションを必要としないため,大量のテキストデータを用いて訓練できる.その後,Encoder型ではRoBERTa\cite{liu-2019},Decoder型ではGPT-2\cite{radford-2019},Encoder-Decoder型ではT5\cite{raffel-2020}などの改良版が提案され,GLUE\cite{wang-2018}などの一部のベンチマークにおいては言語理解能力に関して人間を上回るという報告も見られるようになった.ひとつのモデルで複数の言語を扱える多言語版も開発が進み,Encoder型ではmBERT\cite{devlin-2019}やXLM\cite{conneau-2019,conneau-2020},Encoder-Decoder型ではmBART\cite{liu-2020}やmT5\cite{xue-2021}などが広く用いられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大規模言語モデルの文脈内学習}言語モデルの性能がデータ量やモデルサイズに強く依存するというスケーリング則\cite{kaplan-2020}に従い,Transformerベースの事前訓練モデルの大規模化が進められてきた.このような言語モデルの大規模化の流れの中で開発されたGPT-3\cite{Brown-2020}は96層1,750億パラメタという巨大なDecoder型Transformerであり,3,000億トークンという大量のテキストデータ上で自己回帰型言語モデリングを訓練している.大規模言語モデルであるGPT-3は,タスクの説明と少数の入出力例(プロンプト)を指示するだけで,ファインチューニングなしで様々なタスクに適応できる.これは文脈内学習と呼ばれており,GPT-3の文脈内学習は質問応答などの一部のタスクにおいて従来のファインチューニングと同等以上の性能を達成し,大きな注目を集めた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{指示チューニングと強化学習}大規模言語モデルが人間の自然な指示に従うよう調整するために,指示チューニング\cite{flan}が研究されている.これは,プロンプトの入力に対して適切な出力を行うよう大規模言語モデルをファインチューニングする手法であり,機械翻訳や自動要約など12種類の自然言語処理タスクのデータセットに対して設計されたプロンプトが用いられている.大規模言語モデルが人間の意図に沿った出力をするよう調整するために,人間によるフィードバックを用いた強化学習(RLHF)\cite{ouyang-2022}が研究されている.自己回帰型言語モデリングにおいてはトークン単位で尤度最大化の訓練を行っているが,それは必ずしも出力系列の全体として最適とは限らないというLoss-EvaluationMismatch問題に対処するために,深層強化学習を適用する.RLHFは以下の3ステップで構成される.\begin{enumerate}\item大規模言語モデルの指示チューニング\item報酬モデルの教師あり学習\item大規模言語モデルの強化学習\end{enumerate}ステップ(2)では,大規模言語モデルからの複数の出力を人間がランキングしたデータセットを用いて,大規模言語モデルに基づく回帰モデルをランキング学習する.ステップ(3)では,ステップ(1)で構築した大規模言語モデルに対してステップ(2)で構築した報酬モデルを用いて,ProximalPolicyOptimizationアルゴリズム\cite{schulman-2017}による強化学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大規模言語モデルの性能評価}英語を中心に,様々な自然言語処理タスクにおいて,GPT-3やChatGPTなどの大規模言語モデルの性能評価\cite{bang-2023,eval-survey}が盛んに研究されている.機械翻訳タスクでは,中国語から英語への翻訳においてChatGPTが商用翻訳サービスよりも高い人手評価を得た\cite{mt-llm-doc}と報告される一方で,他言語から英語への翻訳とは異なり英語から他言語への翻訳は低品質である\cite{bang-2023}との報告もある.自動要約タスクでは,英語文章の要約においてChatGPTはファインチューニングされたBARTよりも低い性能である\cite{chatgpt-solver,bang-2023}と報告されている.テキスト平易化タスクでは,ChatGPTが生成した平易文は人間が生成した参照文に匹敵するほどの高品質である\cite{feng-2023}と報告されている.日本語では,常識推論タスクの日本語CommonGenにおいてChatGPTの性能評価がされており,ChatGPTはT5と同等以上の性能である\cite{suzuki-2023}と報告されている.このように,ChatGPTなどの大規模言語モデルの性能評価に関する先行研究が存在するものの,日本語におけるChatGPTの性能評価は現時点ではまだ充分に行われていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} label{sec:evaluation}本研究では,英語文から日本語文への機械翻訳,日本語文章の自動要約,日本語文のテキスト平易化の3種類の系列変換タスクにおいて,ChatGPTの日本語生成能力を評価した.評価結果の一部はGitHub\footnote{\url{https://github.com/EhimeNLP/Eval-ChatGPT}}で公開する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{共通の実験設定}\label{sec:setting}表\ref{tab:dataset}に示すデータセットを用いて評価実験を行った.タスクごとにBART\cite{lewis-2020}などの比較手法を設定し,自動評価および人手評価の両方によって性能を評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{02table01.tex}%\caption{各データセットの文対数}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\input{02fig01.tex}%\caption{機械翻訳プロンプト(左がZero-shot,右がOne-shot)}\label{fig:prompt_mt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ChatGPTのモデル\footnote{\url{https://platform.openai.com/docs/models/overview}\\gpt-3.5-turboは2023年4月22日~2023年4月30日,gpt-4は2023年7月8日~2023年7月12日にアクセス}には,gpt-3.5-turboおよびgpt-4の2種類を使用した.ChatGPTに入力するプロンプトは,入出力例を提示せずにタスクの説明のみを与えるZero-shotおよび入出力例も与えるOne-shotの2種類を実験した.プロンプトの例を図\ref{fig:prompt_mt}から図\ref{fig:prompt_ss}に示す.なお,入出力例には,各タスクにおける検証用データの先頭の事例を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\input{02fig02.tex}%\caption{自動要約プロンプト(左がZero-shot,右がOne-shot)}\label{fig:prompt_ts}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\input{02fig03.tex}%\caption{テキスト平易化プロンプト(左がZero-shot,右がOne-shot)}\label{fig:prompt_ss}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価には,機械翻訳の人手評価に用いられる文意解釈性および文意正確性の評価基準\cite{sudoh-2021}を用いた.ただし,テキスト平易化タスクにおいては,平易性の観点からの人手評価も実施した.これについては\ref{sec:metrics_ss}節にて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文意解釈性(5点満点)}\begin{enumerate}\item何を伝達しようとしているかが理解できない箇所がある(言葉遣いとして内容伝達に失敗している場合を指し,専門用語の意味が分からない等は除く)\item表記や文法の誤り,表現の問題でしっかり読まないと伝達内容が理解できない\item表記や文法の誤りがあるが,伝達内容の理解は容易\item文法的に正しいが,不自然な表現がある\item文法的に正しく,言葉遣いも自然である\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文意正確性(7点満点)}\begin{enumerate}\item文意が理解できず,正確性評価に値しない\item参照文と無関係な内容が伝達されている\item参照文と矛盾する内容が伝達されている\item参照文と矛盾とまではいかないが重要な情報の誤りや過不足があり文意の重大な誤解が起こり得る\item参照文と文意に若干の齟齬はあるが,大きな誤解を招くほどではない\item参照文と文意に僅かな違いがあるが,ほぼ誤解の心配はない\item参照文と文意が同一と考えて差し支えない\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{機械翻訳タスクにおける評価実験}\label{sec:evaluation_mt}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}\label{sec:setting_mt}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}\label{sec:dataset_mt}様々なドメインを扱うために,科学技術論文の抄録から作成されたASPEC\footnote{\url{https://jipsti.jst.go.jp/aspec/}}\cite{nakazawa-2016},Wikipediaの京都関連記事から作成されたKFTT\footnote{\url{https://www.phontron.com/kftt/}},WMT20ニュース翻訳タスク\footnote{\url{https://www.statmt.org/wmt20/translation-task.html}}\cite{barrault-2020}の3種類の英日対訳コーパスを用いて評価\footnote{これらの公開データは,ChatGPTやGoogle翻訳などの訓練に使用されている可能性がある.それが評価に影響する可能性があることに注意されたい.}した.また,比較手法の訓練用に,大規模な英日対訳コーパスとして,Webから抽出されたJParaCrawlv3.0\footnote{\url{https://www.kecl.ntt.co.jp/icl/lirg/jparacrawl/}}\cite{morishita-2022}も用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}\label{sec:baseline_mt}比較手法の機械翻訳モデルとして,事前訓練なしのTransformer\cite{vaswani-2017}およびマスク言語モデリングによって事前訓練されたmBART\footnote{\url{https://github.com/facebookresearch/fairseq/tree/main/examples/mbart}}\cite{liu-2020}に加えて,オンライン機械翻訳サービスであるGoogle翻訳\footnote{\url{https://cloud.google.com/translate/}2023年4月13日アクセス}およびDeepL翻訳\footnote{\url{https://www.deepl.com/pro-api/}2023年4月13日アクセス}を用いた.TransformerおよびmBARTの訓練には,fairseqツールキット\footnote{\url{https://github.com/facebookresearch/fairseq}}\cite{ott-2019}を用いた.Transformerの構成は,エンコーダ・デコーダの層数を6,注意機構のヘッド数を8,埋め込み次元数を512,全結合層の次元数を2,048とした.学習率は5e-4とし,最適化手法としてAdam\cite{adam}を使用し,$\beta_{1}=0.9$および$\beta_{2}=0.98$を設定した.バッチサイズは,Transformerは4,096トークン,mBARTは1,024トークンとした.正則化には,ラベル平滑化およびドロップアウトを使用し,Transformerにおけるラベル平滑化およびドロップアウトの確率はどちらも0.1,mBARTにおけるラベル平滑化確率は0.2,mBARTにおけるドロップアウト確率は0.3とした.訓練にはearlystoppingを採用し,検証用データのクロスエントロピー損失が5回連続で改善しない場合に訓練を終了した.前処理として,テキストにNFKC正規化を施したうえで,TransformerにはSentencePiece\footnote{\url{https://github.com/google/sentencepiece}}\cite{sentencepiece}を用いてサブワード分割を行った.ここで,語彙サイズは言語ごとに16,000に設定した.mBARTは,付属のトークナイザを用いてサブワード分割を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価指標}\label{sec:metrics_mt}自動評価には,SacreBLEU\footnote{\url{https://github.com/mjpost/sacrebleu}}\cite{sacrebleu}を用いてBLEU\cite{bleu}およびchrF++\cite{chrf++}を計算した.また,分散表現ベースのBLEURT\footnote{\url{https://github.com/google-research/bleurt}}\cite{bleurt}およびCOMET\footnote{\url{https://github.com/Unbabel/COMET}}\cite{comet}も用いた.ただし,BLEURTにはBLEURT-20モデル,COMETにはwmt20-comet-daモデルを,それぞれ用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{02table02.tex}%\caption{ASPECにおける性能評価}\label{tab:result_aspec}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{02table03.tex}%\caption{KFTTにおける性能評価}\label{tab:result_kftt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価による実験結果}\label{sec:result_mt_auto}表\ref{tab:result_aspec}および表\ref{tab:result_kftt}に,ドメイン内の訓練用データを利用可能なASPECおよびKFTTにおける機械翻訳の実験結果を示す.実験結果をまとめると,自動評価においては,以下の順番で高品質な機械翻訳ができると言える.\begin{enumerate}\itemドメイン内の訓練用データを用いる機械翻訳\itemオンライン機械翻訳サービス\itemChatGPT$\fallingdotseq$ドメイン外の訓練用データを用いる機械翻訳\end{enumerate}つまり,ChatGPTの翻訳品質は,ドメイン外の訓練用データを用いるTransformer(JParaCrawl)やmBART(JParaCrawl)と同等であり,ドメイン内の訓練用データを用いるTransformer(ASPEC/KFTT)やmBART(ASPEC/KFTT)およびGoogle翻訳などのオンライン機械翻訳サービスを下回る.なお,ChatGPTの中では,gpt-3.5-turboよりもgpt-4,Zero-shotよりもOne-shotの方が高い性能を達成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{02table04.tex}%\caption{WMT20ニュース翻訳タスクにおける性能評価}\label{tab:result_wmt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:result_wmt}に,ドメイン内の訓練用データを利用できないWMT20ニュース翻訳タスクにおける機械翻訳の実験結果を示す.実験結果から,ChatGPTの翻訳品質は,表層マッチングに基づく自動評価指標においてはTransformerやmBARTと同等であるものの,分散表現ベースの自動評価指標においてはこれらを大きく上回った.また,オンライン機械翻訳サービスと比較すると,表層マッチングに基づく自動評価指標においては大きく下回るものの,分散表現ベースの自動評価指標においては同等以上の翻訳品質を達成した.ChatGPTの中では,gpt-3.5-turboよりもgpt-4の方が高い性能を達成するものの,表\ref{tab:result_aspec}および表\ref{tab:result_kftt}の実験結果とは異なり,Zero-shotよりもOne-shotの方が高い性能を達成するわけではなかった.これらの実験結果をまとめると,ChatGPTは汎用的な機械翻訳モデルと同程度の翻訳品質を持つものの,ドメイン内の訓練用データを利用できる場合には従来のファインチューニングのアプローチを選択すると良いと言える.また,ChatGPTへのプロンプトに入出力例を含めることで翻訳品質を改善できるかどうかは対象ドメインによるものの,gpt-4はgpt-3.5-turboよりも一貫して高い翻訳品質を達成することを確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価による実験結果}\label{sec:result_mt_human}無作為抽出した100文ずつを,\pagebreak日本語母語話者である大学生3名が人手評価した結果の平均値を表\ref{tab:result_kftt}および表\ref{tab:result_wmt}に示す.両データセットにおいて,gpt-4はmBARTおよびGoogle翻訳よりも高い性能を達成しており,高い翻訳品質を持つことがわかる.文意正確性に関しては,KFTTコーパスにおいてはgpt-3.5-turboはmBARTとGoogle翻訳の中間程度の品質であったのに対して,WMT20コーパスにおいてはgpt-3.5-turboはmBARTとGoogle翻訳の両方よりも高い品質であったことから,ChatGPTはニュースドメインを得意とすると考えられる.人手評価における評価者間の一致度をQuadraticWeightedKappa\cite{cohen-1968}を用いて計算した結果を表\ref{tab:result_qwk}に示す.WMT20ニュース翻訳タスクなどにおいて,評価者間の一致度は充分とは言えないものの,先行研究\cite{sudoh-2021}における機械翻訳の人手評価においても評価者間の一致度は$0.25\sim0.39$であるため,許容範囲内であると考えられる.なお,評価者間の一致度については自動要約(LivedoorNEWS)やテキスト平易化(SNOW)のタスクにおいても同様の傾向である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{02table05.tex}%\caption{人手評価における評価者間の一致度(QuadraticWeightedKappa)}\label{tab:result_qwk}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{02table06.tex}%\caption{自動評価指標と人手評価のピアソン相関}\label{tab:result_pearson}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分析}\label{sec:analytics_mt}表\ref{tab:result_wmt}において,BLEUやchrF++の自動評価からはGoogle翻訳がgpt-4よりも優れているように見えるが,分散表現ベースの自動評価や人手評価においてはgpt-4の方が高く評価されている.このような評価の振る舞いについて正確に理解するために,自動評価と人手評価の文単位のピアソン相関を求めた結果を表\ref{tab:result_pearson}に示す.実験結果から,BLEUおよびchrF++の表層マッチングに基づく自動評価は,文単位では人手評価との相関が低く信頼性に欠けると言える.特に,文意解釈性との相関が低い.英日機械翻訳の文単位の自動評価においては,分散表現ベースの自動評価指標であるBLEURTやCOMETを用いるのが良いと言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{02table07.tex}%\caption{専門用語``regionaldivisionencoding''の日本語訳の例}\label{tab:example_mt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,出力事例を観察したところ,ドメイン内の対訳コーパスを用いて訓練したモデルは固有名詞などの当該ドメインに特化した表現を正確に翻訳できている傾向が見られた.その一例を表\ref{tab:example_mt}に示す.この例では,「領域分割符号化」と翻訳すべきところを,gpt-3.5-turboは「地域区分符号化」や「地域分割符号化」と出力しており,gpt-4は「地域分割型のエンコーディング」や「地域分割エンコーディング」と出力してしまっている.一方で,ドメイン内の対訳コーパスを用いて訓練したmBARTは,正しく「領域分割符号化」と出力できている.このような固有名詞や専門用語を正確に翻訳したい用途においては,gpt-3.5-turboやgpt-4ではなく,ドメイン内の訓練データを用いて従来のファインチューニングのアプローチを選択すると良い.また,表\ref{tab:result_aspec}および表\ref{tab:result_kftt}において,ドメイン内の訓練データを用いる機械翻訳モデルのBLEUやchrF++が他のモデルよりも著しく高いのは,このようなドメイン特有の表現を正確に出力できることが要因のひとつであると考えられる.ChatGPTに入力したプロンプトおよび各モデルの出力例を表\ref{tab:system_example_mt}に示す.なお,mBARTには翻訳対象の英語文のみを入力しており,タスクの説明文や翻訳事例は入力していないことに注意されたい.前述の通り,ChatGPTは全体的には良い翻訳ができているものの,固有名詞である「ふげん発電所」を誤訳してしまっている.一方で,ドメイン内の訓練データの恩恵を受けて,mBARTは適切な日本語訳ができている.また,表\ref{tab:system_example_mt}の例にも見られるように,ASPECやKFTTに含まれる日本語文は常体であるが,ChatGPTの出力文はほとんどが敬体であった.このようなスタイルの違いは,ChatGPTの自動評価値が低い要因のひとつであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{02table08.tex}%\caption{機械翻訳におけるChatGPTの出力例}\label{tab:system_example_mt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動要約タスクにおける評価実験}\label{sec:evaluation_ts}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}\label{sec:setting_ts}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}\label{sec:dataset_ts}本実験では,LivedoorNEWS\footnote{\url{https://news.livedoor.com/}}から作成された3行要約データセット\footnote{\url{https://github.com/KodairaTomonori/ThreeLineSummaryDataset}}\cite{kodaira-2017}を用いて,自動要約の性能を評価した.これは,ニュース記事の本文とその3行要約で構成される日本語の自動要約データセットであり,入力は平均で19文(1,022文字),参照要約は全て3文(平均99文字)で構成されている.ただし,本実験の実施時点で削除されてしまったニュース記事は取得できなかったため,先行研究\cite{kodaira-2017}よりもデータセットの規模が小さいことに注意されたい.なお,ChatGPTのOne-shotモデルに与えた検証用データの先頭事例は,入力例が666文字,出力例が94文字であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}\label{sec:baseline_ts}%%%%比較手法の自動要約モデルとして,記事の先頭3文を抽出するLEAD-3およびマスク言語モデリングによって事前訓練された日本語BART(BART-basev2)\footnote{\href{https://nlp.ist.i.kyoto-u.ac.jp/?BART日本語Pretrainedモデル}{https://nlp.ist.i.kyoto-u.ac.jp/?BART\mbox{}日本語\mbox{}Pretrained\mbox{}モデル}}\cite{lewis-2020}を用いた.比較手法の自動要約モデルとして,記事の先頭3文を抽出するLEAD-3およびマスク言語モデリングによって事前訓練された日本語BART(BART-basev2)\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?BART日本語Pretrainedモデル}}\cite{lewis-2020}を用いた.LEAD-3における3文の抽出には,ルールベースの文分割器であるja\_sentence\_segmenter\footnote{\url{https://github.com/wwwcojp/ja_sentence_segmenter}}を用いた.BARTの訓練には,fairseqツールキット\cite{ott-2019}を使用した.訓練の設定は基本的に公式の設定に従うが,earlystoppingを採用し,検証用データのクロスエントロピー損失が5回連続で改善しない場合に訓練を終了した.なお,ラベル平滑化確率を0.2,ドロップアウト確率を0.3として正則化を行った.前処理として,Juman++v2.0.0-rc3\footnote{\url{https://github.com/ku-nlp/jumanpp}}\cite{Morita-2015,Tolmachev-2018}による単語分割の後にBARTに付属のSentencePiece\cite{sentencepiece}モデルを用いてサブワード分割を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価指標}\label{sec:metrics_ts}自動評価には,PythonROUGE\footnote{\url{https://github.com/tagucci/pythonrouge}}を用いてROUGE(ROUGE-1,ROUGE-2,ROUGE-L)のF値\cite{Lin-2004}を計算した.なお,評価の際にはテキストにNFKC正規化を施し,MeCab(IPADic)\footnote{\url{http://taku910.github.io/mecab/}}\cite{kudo-2004}による単語分割を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価による実験結果}\label{sec:result_ts_auto}ROUGEによる自動評価の結果を表\ref{tab:result_livedoor}に示す.ChatGPTは,抽出型のLEAD-3よりは高品質であるものの,従来のファインチューニングのアプローチであるBARTを下回る性能であった.また,プロンプトに入出力例を含めることで,要約品質を改善できることを確認できた.機械翻訳タスクとは異なり,gpt-4の自動評価は一貫してgpt-3.5-turboの自動評価を下回った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{02table09.tex}%\caption{LivedoorNEWSにおける自動要約の実験結果}\label{tab:result_livedoor}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価による実験結果}\label{sec:result_ts_human}無作為抽出した100文ずつを,日本語母語話者である大学生3名が人手評価した結果の平均値を表\ref{tab:result_livedoor}に示す.文意解釈性と文意正確性の両方において,ChatGPTが最高性能を示した.人手評価からも,プロンプトに入出力例を含めることで,要約品質を改善できることを確認できた.文意解釈性においては,gpt-4が特に高く,ほぼ満点であった.文意正確性においては,gpt-3.5-turboの方がgpt-4よりも優れた性能を示し,人手要約に近い評価を得た.なお,この人手要約は,無作為に抽出した100文を評価者とは異なる日本語母語話者の大学生1名が要約したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分析}\label{sec:analytics_ts}出力事例を観察したところ,gpt-3.5-turboによる要約が3文を超える事例が多く見られた.そこで,ja\_sentence\_segmenterによる文分割を用いて,出力文数を定量的に評価した結果を表\ref{tab:result_livedoor}の右3列に示す.実験結果から,3文要約を用いてファインチューニングしたBARTは約9割が期待通り3文の要約を生成できていることがわかる.3文を超える要約はわずか1.5\%であった.また,gpt-4は9割以上が期待通り3文の要約を生成できており,BARTを上回る結果となった.一方で,gpt-3.5-turboの要約は3割から4割が3文を超える長い要約になっており,2文以下のものも含めると4割から5割が要約文数の制約を満たしていない.これらの実験結果から,プロンプトに「3文」という説明や3文に要約した事例を含めるだけでは,gpt-3.5-turboは要約文数の制約を充分に満たせないことが明らかになった.それに対し,gpt-4はプロンプトによる要約文数の制御性能が大幅に向上していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{02table10.tex}%\caption{LivedoorNEWSにおける自動要約の出力文字数の分析結果(ピアソン相関)}\label{tab:analysis_livedoor}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,ChatGPTによる要約の出力文字数の多さが目立ったため,要約の文字数について定量的に評価した結果を表\ref{tab:analysis_livedoor}に示す.LivedoorNEWSコーパスの評価用セットには平均101文字の参照要約が用意されている.BARTはファインチューニングによって出力文字数の特徴を捉えることに成功しており,参照要約に近い文字数の要約を生成できている.一方でChatGPTは,参照要約の1.5倍から1.8倍と,指示を与えた出力文数の制約には従うものの,文字数としては長すぎる要約を生成している.特に,gpt-3.5-turboよりもgpt-4の方がより長い文字数の要約を生成している.なお,人手要約の作業者にも出力文字数は指示していないが,人手要約の文字数は参照要約の1.2倍に留まっている.また,BARTや人手要約と比べてChatGPTは参照要約の文字数との相関も低い.さらに詳しく調査したところ,BARTや人手要約の出力文字数は入力文字数とは相関を持たないが,ChatGPTによる要約は入力文字数に相関して出力文字数が変化することがわかった\footnote{なお,「100文字程度で要約してください」とプロンプトを変更しても,出力文字数を制御することが難しいという結論は変わらなかった.}.また,表\ref{tab:result_livedoor}のROUGEによる自動評価や文意正確性に関する人手評価においてgpt-4がgpt-3.5-turboの性能を下回ったのは,このようにgpt-4が冗長な出力を行うためである可能性がある.ただし\ref{sec:result_ts_human}節で述べたように,ChatGPTによる要約は流暢かつ入力との意味的な整合性もとれてはいるため,文数や文字数を厳密に指定しない用途での自動要約には適している.しかし,厳密な要約長の制約がある用途では,従来のファインチューニングのアプローチを選択するのが良いと言える.ChatGPTに入力したプロンプトおよび各モデルの出力例を表\ref{tab:system_example_ts}に示す.なお,BARTには要約元の文章のみを入力しており,タスクの説明文や要約事例は入力していないことに注意されたい.前述の通り,gpt-3.5-turboは5文の要約を出力しており出力文数の制約に従っていないが,BARTおよびgpt-4は制約通り3文で出力できていることがわかる.また,生成された要約の長さを比較すると,表\ref{tab:analysis_livedoor}で示したように,BART$<$gpt-3.5-turbo$<$gpt-4の順で文字数が多くなっていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[p]\input{02table11.tex}%\caption{自動要約におけるChatGPTの出力例}\label{tab:system_example_ts}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト平易化タスクにおける評価実験}\label{sec:evaluation_ss}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}\label{sec:setting_ss}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}\label{sec:dataset_ss}本実験では,やさしい日本語コーパスSNOW\footnote{\url{https://www.jnlp.org/GengoHouse/snow/t15}}$^{,}$\footnote{\url{https://www.jnlp.org/GengoHouse/snow/t23}}\cite{maruyama-2018,katsuta-2018}を用いて,テキスト平易化の性能を評価した.これは,教科書などの文を人手で平易化して作成された日本語のテキスト平易化データセットである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}\label{sec:baseline_ss}比較手法のテキスト平易化モデルとして,事前訓練なしのTransformer\cite{vaswani-2017}およびマスク言語モデリングによって事前訓練された日本語BART\cite{lewis-2020}を用いた.Transformerの構成は,エンコーダ・デコーダの層数を6,注意機構のヘッド数を8,埋め込み次元数を512,全結合層の次元数を2,048とした.学習率は5e-4とし,最適化手法としてAdam\cite{adam}を使用し,$\beta_{1}=0.9$および$\beta_{2}=0.98$を設定した.バッチサイズは,Transformerは4,096トークン,BARTは1,024トークンとした.正則化にはラベル平滑化およびドロップアウトを用い,Transformerにおけるラベル平滑化およびドロップアウトの確率はそれぞれ0.1および0.2とし,BARTにおいてはそれぞれ0.2および0.3とした.訓練にはearlystoppingを採用し,検証用データのクロスエントロピー損失が10回連続で改善しない場合に訓練を終了した.前処理として,Juman++v2.0.0-rc3\footnote{\url{https://github.com/ku-nlp/jumanpp}}\cite{Morita-2015,Tolmachev-2018}による単語分割の後にBARTに付属のSentencePiece\cite{sentencepiece}モデルを用いてサブワード分割を行った.Transformerには,単語分割の後に語彙サイズ32,000のSentencePieceによるサブワード分割を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価指標}\label{sec:metrics_ss}自動評価には,EASSE\footnote{\url{https://github.com/feralvam/easse}}\cite{alva-2019}を用いてSARI\cite{xu-2016}を計算した.SARIは,入力文・出力文・参照文を比較し,単語n-gramの追加(Add),保持(Keep),削除(Del)の3つの編集操作の適切さを測る評価指標である.人手評価には,文意解釈性および文意正確性の観点に加えて,平易性の観点から以下の基準で5段階評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{平易性(5点満点)}\begin{enumerate}\item原文と無関係な内容であり,平易性評価に値しない\item原文よりも理解しにくい\item原文と理解しやすさに変わりがない\item原文よりも僅かに理解しやすい\item原文よりも理解しやすい\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{02table12.tex}%\caption{SNOWにおけるテキスト平易化の実験結果}\label{tab:result_snow}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価による実験結果}\label{sec:result_ss_auto}自動評価の結果を表\ref{tab:result_snow}に示す.ChatGPTは,TransformerおよびBARTの性能を下回った.ChatGPTの中では,gpt-4において入出力例をプロンプトに含めることで,Add(語句の適切な追加)およびDel(語句の適切な削除)が改善された.つまり,入力文に対して積極的な編集操作が行われることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価による実験結果}\label{sec:result_ss_human}評価用データの全体を,\pagebreak日本語母語話者である大学生3名が人手評価した結果の平均値を表\ref{tab:result_snow}に示す.自動評価とは対照的に,文意解釈性および平易性においてChatGPTがBARTを上回った.SNOWには複数の参照文が含まれるため,そのうちのひとつに対して人手評価を行ったところ,ChatGPTは文意正確性の観点からは参照文と同等であり,参照文よりも流暢かつ平易な文を出力していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{31-2ia2f4.pdf}\end{center}\caption{原文-参照文間の編集距離と原文-各モデルの出力文間の編集距離}\label{fig:ss_scatter}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分析}\label{sec:analytics_ss}出力事例を観察したところ,参照文における人手の平易化やBARTによる平易化と比較して,ChatGPTが過度に積極的な編集を行っている事例が多く見られた.原文-参照文間の編集距離と原文-出力文間の編集距離に関する散布図を図\ref{fig:ss_scatter}に示す.本分析では,ChatGPTとしてOne-shotモデルの出力文を用いた.まず左のBARTに関する散布図に注目すると,原文-参照文間の編集距離と原文-BART間の編集距離が同程度か,BARTの編集がやや少ない傾向がある.一方で,ChatGPTに関する散布図を見ると,原文-参照文間の編集距離よりもChatGPTが多くの編集を行っている傾向がある.また,編集距離の間のピアソン相関によると,BARTと参照文の編集距離の相関に比べて,ChatGPTと参照文の編集距離の相関は著しく低いことがわかる.これらの分析結果は,ChatGPTが過度に積極的に編集していることを表している.ただし\ref{sec:result_ss_human}節で述べたように,ChatGPTによるテキスト平易化は流暢かつ入力との意味的な整合性もとれてはいるため,入力文よりも平易であれば良いというような設定でのテキスト平易化には適している.しかし,編集量を適切に制御したい用途においては,従来のファインチューニングのアプローチを選択するのが良いと言える.ChatGPTに入力したプロンプトおよび各モデルの出力例を表\ref{tab:system_example_ss}に示す.なお,BARTには平易化対象の難解文のみを入力しており,タスクの説明文や平易化事例は入力していないことに注意されたい.難解文の「ちょっとした詩人である.」という表現を,BARTや参照文は「ちょっとした詩を書く人である.」と少ない編集で平易化している.それに対してChatGPTは,「詩を書くのが得意な人だそうです.」や「少し詩を書くのが得意な人です.」と,多くの語を編集したり「得意」という語を追加したりと積極的な編集によって平易化していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{02table13.tex}%\caption{テキスト平易化におけるChatGPTの出力例}\label{tab:system_example_ss}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} label{sec:outro}本研究では,機械翻訳・自動要約・テキスト平易化の3種類の系列変換タスクにおいて,既存の教師あり手法と比較しながらChatGPTの日本語生成能力を評価した.実験の結果,ChatGPTは自動評価においては既存の教師ありモデルの性能に及ばないものの,人手評価においては既存の教師ありモデルの性能を上回る傾向にあり,全体的には文意解釈性および文意正確性の両観点から高品質な日本語文を生成していた.その一方で,ChatGPTの生成文について詳細に分析したところ,機械翻訳タスクにおいては固有名詞などのドメインに特化した表現の語彙選択が誤っている点,自動要約タスクにおいては出力文数や出力語数の長い要約を生成している点,テキスト平易化タスクにおいては期待されるよりも過度に積極的な編集をしている点など,各タスクにおける詳細な要請には応えられていないという課題も残っていることが明らかになった.そのため,現時点では,比較的制約の緩い用途や訓練用データを用意できない設定においてはChatGPTの活用が有望であるものの,細かな制御を必要とする用途では従来のファインチューニングのアプローチの方が適していると結論づける.本研究では大規模言語モデルのひとつであるChatGPTに焦点を当てて日本語生成能力を評価したが,活発に開発が進む他の日本語大規模言語モデル\footnote{\url{https://llm-jp.github.io/awesome-japanese-llm/}}の網羅的な性能評価からも有益な知見が得られると期待される.また,本研究では扱っていないが,対象データセット上でのファインチューニングも,大規模言語モデルの性能評価に関する重要なトピックのひとつである.日本語の他タスクにおける評価も含めて,大規模言語モデルについて今後さらなる性能評価が行われることが重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費(基盤研究B,課題番号:JP22H03651)および国立研究開発法人情報通信研究機構(NICT)の委託研究(課題番号:22501)による助成を受けたものです.また,本研究を進めるにあたり,株式会社レトリバの勝又智氏に有益なご助言をいただきました.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{樽本空宙}{2023年愛媛大学工学部工学科卒業.同年同大学大学院理工学研究科理工学専攻に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{畠垣光希}{2022年愛媛大学工学部情報工学科卒業.同年同大学大学院理工学研究科電子情報工学専攻に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{宮田莉奈}{2024年愛媛大学工学部工学科卒業.同年同大学大学院理工学研究科理工学専攻に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科講師.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).2018年より大阪大学データビリティフロンティア機構の特任助教,2021年より愛媛大学大学院理工学研究科の助教を経て,2024年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{二宮崇}{1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V19N03-02
\section{はじめに} 自然言語処理で使われる帰納学習では,新聞データを用いて新聞用の分類器を学習するなど,ドメインAのデータを用いてドメインA用の分類器を学習することが一般的である.しかし一方,ドメインBについての分類器を学習したいのに,ドメインAのデータにしかラベルがついていないことがあり得る.このとき,ドメインA(ソースドメイン)のデータによって分類器を学習し,ドメインB(ターゲットドメイン)のデータに適応することを考える.これが領域適応であり,様々な手法が研究されている.しかし,語義曖昧性解消(WordSenseDisambiguation,WSD)について領域適応を行った場合,最も効果的な領域適応手法は,ソースドメインのデータ(ソースデータ)とターゲットドメインのデータ(ターゲットデータ)の性質により異なる.SVM等の分類器を利用してWSDを行う際にモデルを作る単位である,WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数えるとする.本稿では,このケースごとに,データの性質から,最も効果的な領域適応手法を,決定木学習を用いて自動的に選択する手法について述べるとともに,どのような性質が効果的な領域適応手法の決定に影響を与えたかについて考察する.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節で領域適応の関連研究について紹介する.\ref{Sec:領域適応手法の自動選択}節では領域適応手法をどのように自動選択するかについて述べる.\ref{Sec:データ}節では本研究で用いたデータについて説明する.\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節では決定木学習におけるラベル付きデータの作成方法と学習方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる. \section{関連研究} \label{Sec:関連研究}領域適応は,学習に使用する情報により,supervised,semi-supervised,unsupervisedの三種に分けられる.まずsupervisedの領域適応は,訓練事例として少量のターゲットドメインだけでなく大量のソースドメインのデータを加えて学習を行うもので,訓練事例としてソースデータまたは少量のターゲットデータだけを利用する場合よりも,分類器を改良することを目指す.次のsemi-supervisedの領域適応は,ラベルつきのソースデータに加え,ラベルなしのターゲットデータを利用し,訓練事例としてソースデータだけを利用する場合よりも,分類器を改良することを目指す.また,最後のunsupervisedの領域適応は,ラベルつきのソースデータで学習後,ターゲットデータで実行する.本研究で扱うのは,supervisedの領域適応である.領域適応の研究は様々な分野で研究が行われており,ここではその一部を紹介する.まず,\cite{article2}は,EMアルゴリズムによる語義の事前確率推定によりWSDの領域適応を行っている.\cite{article3}も,EMアルゴリズムによる事前確率推定を行っているが,これは能動学習により事例をターゲットドメインから加えるsupervisedの領域適応である.Count-mergingにより重要文に重みをつけることで,性能を向上させている.また,\cite{article4}はシーケンスラベリングを例にsupervisedの領域適応を行っている.素性空間の次元を「ソースデータの素性空間」「ターゲットデータの素性空間」「ソースデータとターゲットデータ共通の素性空間」に相当する三倍にし,モデルを三倍に拡張して実験を行うというもので,様々なsupervisedの領域適応に併用できる手法である.利点として,上記の併用可能性に加え,実装が簡単で処理が速いこと,マルチドメインに拡張が簡単(素性空間の次元をドメイン数+1倍にすればよい)であることが挙げられる.さらに,\cite{article12}は\cite{article4}をsemi-supervisedのために拡張した.この手法がなぜ有効なのかはまだ解き明かされていないが,拡張前の利点を引き継いでいるだけでなく,ラベルなしのターゲットデータを利用することでよりよい性能が得られる.\cite{article5}は,semi-supervisedのWSDの領域適応を行った.大量のラベルなしのソースデータに,ラベルなしのターゲットデータを加えて行列を作り,特異値分解(SVD)により素性圧縮をして分類器を学習する手法である.また\cite{article6}は,大量のラベルなしのソースデータの代わりに,少量のラベルつきのソースデータを使用して,同様の手法でsupervisedの領域適応を行っている.\cite{article7}は領域適応を行う際,事例の重み付けにより性能が向上することを示した.この手法は様々なsupervisedまたはsemi-supervisedの領域適応との併用が可能である.また,領域適応に悪影響を及ぼすソースデータを特定して削除することも試みているが,ソースデータの削除は事例の重み付けを行わなければ有効であるが,事例の重み付けを行った場合には有効ではないと結論づけている.\cite{article14}はターゲットデータとソースデータの周辺確率を似せるようにカーネル空間を学習した後,条件確率がターゲットデータに似ているソースデータの事例をクラスタリングベースの事例選択を用いて選び,その事例を利用して領域適応を行っている.\cite{article15}はWeb上からランダムに取得したラベルなしデータを利用して,より高いレベルの素性を作成するためにスパースコーディングを利用したself-taughtlearningを提案している.これはunsupervisedの領域適応の一種である.\cite{article16}はco-trainingにおいて領域適応を行ったco-adaptationの研究である.boostingによる線形補完により領域適応を行い,両方の分類器においてエラー率が低下したことを報告している.また\cite{article17}はsemi-supervisedの領域適応である.この研究では,ソースデータ中とターゲットデータ中の単語の類似度を計算するために,pivotfeature(ソースデータとターゲットデータの両方でよく出てくる単語)の周りの単語の重みを計算する.この重みの行列にSVDを適用して新しい素性空間を作り,オリジナルの素性に新しい素性を加えて使用するという手法をとっている.本稿に最も近い研究は,\cite{article20}である.この研究では,多様なドメインからなる文書を構文解析する際,最も良いモデルは異なるという問題に注目している.彼らは様々な混合モデルによる構文解析の正解率を回帰分析で予測し,それぞれのターゲットデータに対して,最も高い正解率を出すと予測されたモデルを利用して構文解析を行っている.本研究との最も大きな違いは,対象のタスクが構文解析ではなく語彙曖昧性解消である点である.そのため,本論文ではケースという単位ごとに最適な領域適応を行う.また,彼らは複数のソースドメインから抽出した用例を混合して訓練事例とした領域適応を想定しているが,我々は想定していない.本研究では決定木学習を用いることで,どのような性質が最適な領域適応の決定に影響を与えるのかについて考察する.本稿では,ソースデータとターゲットデータの性質をもとに領域適応に用いる手法を自動選択する手法について述べる.これに関連した研究として\cite{article10}や\cite{article11}がある.\cite{article10}は,構文解析において,分野間距離をはかり,より適切なコーパスを利用して領域適応を行えるようにした.また,\cite{article11}は,構文解析において,自動的にタグ付けされたコーパスを用いて,ソースデータとターゲットデータの類似度から性能を予測できることを示した.これらの研究では,領域間の距離からソースデータとして利用できるコーパスを選択するという立場をとっているが,本研究では領域間の距離などの性質から,手法を選択するという立場をとる. \section{領域適応手法の自動選択} \label{Sec:領域適応手法の自動選択}\subsection{ケースごとの領域適応手法の自動選択}\label{Sec:ケースごとの領域適応手法の自動選択}本論文では,ケースという単位を定義し,ケースごとに適切な領域適応を行う.本論文におけるケースとは,SVM等の分類器を利用してWSDを行う際にモデルを作る単位である.WSDの分類器は,対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組に対してひとつ作られるので,この三つ組をケースと呼ぶ.例えば,ケースを(対象単語タイプ,ソースドメイン,ターゲットドメイン)の順に書くと,(出る,新聞,Yahoo!知恵袋),(出る,Yahoo!知恵袋,新聞),(手,Yahoo!知恵袋,新聞)は全て別のケースである.最適な領域適応手法は,ソースデータとターゲットデータの性質により異なるが,WSDにおけるソースデータとターゲットデータの訓練事例集合は,ソースやターゲットになるコーパスのドメインだけでなく,WSDの対象単語も含めたケースごとに定まる.したがって,ケースごとに適切な領域適応手法を自動的に選択し,その手法を適宜用いて領域適応を行えば,どれかひとつの手法を用いるよりも,WSDの性能が向上することが予想される.このため,決定木学習を用いて,ケースごとに領域適応手法の自動選択を行う.決定木学習の素性にはソースデータとターゲットデータの性質を利用し,ラベル(教師値)には,WSDの正解率を比較した際に,そのケースにおいて最も正解率が高かった領域適応手法を用いる.決定木学習を用いるのは,どのような性質が最適な領域適応手法の決定に影響を与えるのかを明示的に示すことができる上,少量の訓練事例から学習しても十分な分類精度が得られるからである.また,n個の領域適応手法から選択する際には,pairwise方式で$_{n}C_{2}$通りの二分決定木をつくり,最終的にそれらを統合することで,ひとつのケースにつきひとつの領域適応手法を決定する\footnote{pairwise方式を利用するのは,多値分類では十分な分類性能が得られなかったためである.この原因は,入手できた事例数が144ケースという少数であったためだと思われる.}.なお,本論文で扱う領域適応手法は,どれもsupervisedの領域適応であるため,最終的にどの領域適応手法が選択されるかは不明な段階でも,先にターゲットデータに対する少量の語義のタグ付けが必要である.本論文では,一般公開されているYahoo!知恵袋,白書,新聞の三つのタグ付きコーパスから,144ケースのラベル付きデータを作成して決定木学習を行った.これらのラベル付きデータの素性ベクトルには,ソースデータとターゲットデータのJS距離などを用いており,それぞれのケースの対象単語タイプ,ソースドメイン,ターゲットドメインが何なのかという情報は与えていない.WSDの領域適応の問題が生じた場合には,問題のケースごとに,本論文で叙述するように素性ベクトルを作成して決定木への入力とし,決定木によって最適な領域適応手法を選択する.本論文では決定木学習の有効性を144ケースの交差検定によって示す.\subsection{WSDのための領域適応手法}\label{sec:item17}WSDのための領域適応手法として,本研究では以下に示す三つを用いる.したがって,pairwise方式で三つ(TOとRS,TOとFD,RSとFD)の二分決定木をつくり,最終的にそれらを統合することで,ひとつのケースにつきひとつの領域適応手法を決定する.以降,決定木の用例の単位であるケースと区別するために,WSDの用例の単位をトークンと呼ぶ.WSDの対象単語をwとすると,トークンはwの用例と等しい.それぞれソースドメインとターゲットドメインのコーパス中のwの用例が,ソースデータとターゲットデータの訓練事例であるため,ケースごとにソースデータとターゲットデータの数や性質は異なる.\begin{itemize}\item\TO:TargetOnly.ソースデータを用いず,ランダムに選んだ少量のターゲットデータのトークンに語義をタグ付けしたものだけを訓練事例にする.\item\RS:RandomSampling.ランダムに選んだ少量のターゲットデータのトークンに語義をタグ付けしたものとソースデータの両方を訓練事例にする.\item\FD:フィルタリングによる削除.ランダムに選んだ少量のターゲットデータのトークンに語義をタグ付けしたものとソースデータの両方を訓練事例にする.このときソースデータは,フィルタリングによりターゲットデータにある一定の閾値以上似ているデータのみを用いる.\end{itemize}FDでは以下の手順を取る.なお,ターゲットデータやソースデータのトークンは,後述するWSDの素性を要素としたベクトルとして表されている.\begin{itemize}\item[(1)]ターゲットデータのトークン$\forallt_{i}\inT$について,全ソースデータのトークン$\foralls_{j}\inS$とのコサイン類似度$sim_{i,j}$を計算する.\item[(2)]ソースデータのトークン$\foralls_{j}\inS$について,それぞれ最も自身と近いターゲットデータのトークン$t_{j,nearest}$を特定する.\item[(3)]ソースデータのトークン$\foralls_{j}\inS$について$t_{j,nearest}$との類似度$sim_{j,nearest}$をもとに,訓練事例とするかどうかを判定する.ここで,$sim_{j,nearest}$が0.8以上のソースデータ$s_{j}$を訓練事例に含めた.なお$sim_{i,j}$を計算する際,重みづけや正規化は行っていない.\end{itemize}なお,追加するターゲットデータ数は常に10トークンとした.分類器としてはマルチクラス対応のSVM(libsvm)を使用した.カーネルは予備実験の結果,線形カーネルが最も高い正解率を示したため,これを採用した.また,学習の素性には,\cite{article21}で使われている以下の17素性を用いた.\begin{itemize}\itemWSDの対象単語の前後二語までの形態素の表記(4素性)\itemWSDの対象単語の前後二語までの品詞(4素性)\itemWSDの対象単語の前後二語までの品詞の細分類(4素性)\itemWSDの対象単語の前後二語までの分類コード(4素性)\item係り受け(1素性)\begin{itemize}\item対象単語が名詞の場合はその名詞が係る動詞\item対象単語が動詞の場合はその動詞のヲ格の格要素\end{itemize}\end{itemize}分類語彙表の分類コードには\cite{book1}を使用した.\subsection{決定木学習のラベル}\label{Sec:決定木学習のラベル}作成する三つの二分決定木のうち,ここではTOとRSの決定木のラベル(教師値)について述べる.作成する決定木によって,TOとRSを,それぞれTOとFD,またはRSとFDに読み替えていただきたい.ケースごとに,最もWSDの正解率がよかった手法によって,TOとRSとSameの三種類のうちのひとつのラベルをつける.これらのつけ方は\ref{sec:Sameラベルの付け方}節で述べる.決定木は,ケースごとにソースデータとターゲットデータの性質から,TOかRSのどちらの手法を使って領域適応するべきかを判定していることに留意いただきたい\footnote{TOとFDの決定木なら,ラベルはTOとFD,Sameから選ぶことになり,TOかFDのどちらの手法を使って領域適応するべきかを判定することになる.また,RSとFDの決定木なら,ラベルはRSとFD,Sameから選ぶことになり,RSかFDのどちらの手法を使って領域適応するべきかを判定する.}.\begin{itemize}\item\TO:RSよりTOを使用した方がWSDの正解率が良いケース\item\RS:TOよりRSを使用した方がWSDの正解率が良いケース\item\Same:TOとRSのどちらを使ってもWSDの正解率に差がないケース\end{itemize}なお,TOとRSのどちらを使ってもWSDの正解率に差がないケースには,Sameラベルを使用せず,どちらかの手法に強制的に割りつけることも可能であるが,このような正解率に差がないケースが比較的多かったため(c.f.\tabref{決定木とラベル付け手法別に見たラベルの分布}),本論文ではSameラベルを使って決定木の分類性能をあげている.\subsection{決定木学習の素性}最適な領域適応手法はソースデータとターゲットデータの分布や距離などの性質によって異なると考えられるため,決定木には以下の24種類の合計40の素性を利用する\footnote{41番目の素性として品詞を追加した実験も行ったが,正解率が低下したため,最終的には含めなかった.}.なお,手法1と手法2は作成する二分決定木によって,RSとTO,またはRSとFD,またはTOとFDが相当する.また,データ1とデータ2は手法1と手法2に準じ,それぞれRSの場合にはソースデータ,TOの場合にはターゲットデータ,FDの場合にはターゲットデータに閾値以上似たソースデータが相当する.\begin{enumerate}\item手法1のシミュレーションの正解率\label{1}\item手法2のシミュレーションの正解率\label{2}\itemふたつの正解率の比((\ref{1})/(\ref{2}))\itemデータ1のトークン数\label{4}\itemデータ2のトークン数\label{5}\itemふたつのデータのトークン数の比((\ref{4})/(\ref{5}))\itemデータ1の語義数\label{7}\itemデータ2の語義数\label{8}\item辞書中の語義数\itemデータ1のMFS(MostFrequentSense:データ中最も頻出する語義)のトークン数\label{10}\itemデータ2のMFSのトークン数\label{11}\itemMFSの語義がデータ1とデータ2で同じか\label{12}\itemデータ1のMFSのパーセンテージ((\ref{10})/(\ref{4}))\label{13}\itemデータ2のMFSのパーセンテージ((\ref{11}9/(\ref{5}))\label{14}\itemデータ2のMFSのデータ1中でのパーセンテージ((\ref{11})/(\ref{4}))\label{15}\itemデータ1のMFSのデータ2中のパーセンテージ((\ref{10})/(\ref{5}))\label{16}\itemデータ1とデータ2の語義タグのジェンセン・シャノン・ダイバージェンス(JS距離)\label{17}\itemデータ1とデータ2の間のWSDの素性ごとの分布のJS距離\label{18}\itemデータ1とデータ2の間の素性ごとのJS距離を足しあわせたもの((\ref{18})を17種類足しあわせた値)\label{19}\itemデータ1とデータ2の素性をひとつの単位としたときのJS距離\label{20}\item新語義の数\label{21}\itemデータ1とデータ2で共通する語義数\label{22}\itemデータ1とデータ2で共通する語義の,データ1中のパーセンテージ((\ref{22})/(\ref{4}))\label{23}\itemデータ1とデータ2で共通する語義の,データ2中のパーセンテージ((\ref{22})/(\ref{5}))\label{24}\end{enumerate}なお,(\ref{1})と(\ref{2})のシミュレーションの正解率としては,手法ごとに以下を用いる.\begin{itemize}\itemRS:ソースデータのシミュレーションの正解率.ソースデータで分類器を学習し,語義をタグ付けしたターゲットデータ10トークンで評価した正解率\itemTO:TOのシミュレーションの正解率.ターゲットデータ10トークンに語義をタグ付けし,LeaveOneOut法で評価を行った際の正解率\itemFD:FDのシミュレーションの正解率.ターゲットデータに閾値以上似たソースデータで分類器を学習し,語義をタグ付けしたターゲットデータ10トークンで評価した正解率\end{itemize}また,(\ref{4})と(\ref{5})のトークン数には,手法ごとに以下を用いる.ただし,(\ref{13})〜(\ref{16}),(\ref{23}),(\ref{24})において,TOのデータ数は10トークンとする.\begin{itemize}\itemRS:全ソースデータのトークン数\itemTO:全ターゲットデータのトークン数\itemFD:全ソースデータの4/5(5分割交差検定のうち一試行)のうち,ターゲットデータに閾値以上似ているトークンの数\end{itemize}また,(\ref{7})と(\ref{8})の語義数には,手法ごとに以下を用いる.\begin{itemize}\itemRS:全ソースデータ中に出現する語義の異なり数\itemTO:語義をタグ付けした10トークンのターゲットデータ中に出現する語義の異なり数\itemFD:ソースデータの全トークンの4/5のうち,ターゲットデータに閾値以上似たデータに出現する語義の異なり数\end{itemize}また,(\ref{10})と(\ref{11}),(\ref{12})のMFSには,手法ごとに以下を用いる.\begin{itemize}\itemRS:全ソースデータ中の,全ソースデータのMFSを語義に持つトークンの数\itemTO:語義をタグ付けしたターゲットデータ10トークンの中の,語義をタグ付けしたターゲットデータ10トークンのMFSを語義に持つトークンの数\itemFD:「全ソースデータの4/5のうち,ターゲットデータに閾値以上似たデータ」中の,「全ソースデータの4/5のうち,ターゲットデータに閾値以上似たデータ」のMFSを語義に持つトークンの数\end{itemize}さらに,(\ref{17})〜(\ref{20})のJS距離は,カルバック・ライブラー・ダイバージェンスを対称にしたものであり,H(P)が分布Pのエントロピーであるとき,以下の式で与えられる.\begin{equation}D_{JSD}(P||Q)=H(\frac{1}{2}P+\frac{1}{2}Q)-\frac{1}{2}H(P)-\frac{1}{2}H(Q)\label{eq1}\end{equation}また,(\ref{17})では,\begin{itemize}\itemRS:全ソースデータの4/5\itemTO:ターゲットデータの10トークン\itemFD:全ソースデータの4/5のうち,ターゲットデータに閾値以上似たトークン\end{itemize}の語義タグの分布間のJS距離を用いたが,(\ref{18})のJS距離では,\begin{itemize}\itemRS:全ソースデータ\itemTO:全ターゲットデータ\itemFD:全ソースデータの4/5のうち,ターゲットデータに閾値以上似たトークン\end{itemize}の間のWSDの素性(形態素情報など17種類.\ref{sec:item17}節参照)の素性ごとの分布のJS距離を,(\ref{19})のJS距離では,これらのデータのWSDの素性(形態素情報など17種類)をつなげて,ひとつの単位としたものの分布のJS距離を用いた.これは,17種類全ての素性が等しいときにだけ,同じ要素と考えてJS距離を求めるものである.また,(\ref{22})の共通語義も,(\ref{17})のJS距離の際のデータのうち,手法に対応したふたつのデータに出現した語義の異なり数である.また,(\ref{21})の新語義の数は,\begin{itemize}\itemRSとTOの決定木:語義をタグ付けしたターゲットデータ10トークンに出現せず,全ソースデータのみに出現する語義の異なり数\itemRSとFDの決定木:全ソースデータの4/5のうち,ターゲットデータに閾値以上似たデータに出現せず,全ソースデータのみに出現する語義の異なり数\itemTOとFDの決定木:語義をタグ付けしたターゲットデータ10トークンに出現せず,全ソースデータの4/5のうち,ターゲットデータに閾値以上似たトークンのみに出現する語義の異なり数\end{itemize}になる.決定木作成アルゴリズムにはC4.5\cite{book2}を利用し,二分決定木を作成した.また,五分割交差検定を行った.決定木作成の枝刈りの閾値は訓練事例の1/4を開発用データとした予備実験により最適化した.なお,このとき決定木作成の閾値にはノードのエントロピーの値を使用し,0,0.1,0.2...というように0.1きざみで試した.閾値の最適化の際に,最高の正解率の決定木の閾値が複数ある場合には,決定木がより小さいときの閾値を採用した. \section{データ} \label{Sec:データ}実験には,現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{article18}の白書のデータとYahoo!知恵袋のデータ,またRWCコーパスの毎日新聞コーパス\cite{article19}の三つのデータを利用し,ソースデータとターゲットデータを変えることで,全部で6通りの領域適応を行った.これらのデータには岩波国語辞典\cite{book3}の語義が付与されている.これらのコーパス中の多義語のうち,ソースデータおよびターゲットデータ中にともに50トークン以上存在する単語を実験対象とした.WSDを行う単語の異なり数は,白書⇔Yahoo!知恵袋:24白書⇔新聞:22Yahoo!知恵袋⇔新聞:26であり,最終的なケースの数は,28単語,合計144のケースとなった.ターゲットコーパス別に見たケースの最小,最大,平均トークン数を\tabref{tab:table1}に示す.また,実験には岩波国語辞典の小分類の語義を採用した.全WSDの対象単語の語義数ごとの内訳を\tabref{tab:Thelistoftargetwords}に示す.\begin{table}[b]\caption{ターゲットコーパス別に見たケースの最小,最大,平均トークン数}\label{tab:table1}\input{02table01.txt}\end{table}\begin{table}[b]\caption{全WSDの対象単語の語義数ごとの内訳}\label{tab:Thelistoftargetwords}\input{02table02.txt}\end{table}また,領域適応によるWSDの実験には五分割交差検定を用いた.RSのときのこの様子を\figref{fig:two-1}に示す.RSの場合には,ソースデータの4/5(ソースデータの濃い灰色の部分)に加え,ターゲットデータの4/5(ターゲットデータの白の部分と薄い灰色の部分)から10トークン(白い部分)を訓練事例とする.FDの際には,ソースデータの4/5(ソースデータの濃い灰色の部分)に関して,ターゲットデータの4/5(ターゲットデータの白の部分と薄い灰色の部分)との類似度を測り,一定以上似たデータと10トークン(白い部分)を訓練事例とする.テストデータは,ターゲットデータの残りの1/5(黒い部分)である.\begin{figure}[b]\begin{center}\includegraphics{19-3ia945f1.eps}\end{center}\caption{RSによるWSDの実験の五分割交差検定}\label{fig:two-1}\end{figure}\begin{table}[b]\begin{center}\hangcaption{Yahoo!知恵袋と白書でソースデータとターゲットデータを逆にしたときの領域適応別のWSDの正解率}\label{tab:table0}\input{02table03.txt}\end{table}\tabref{tab:table0}に,白書⇔Yahoo!知恵袋でソースデータとターゲットデータを逆にしたときの領域適応別のWSDの正解率を示す.これらの結果は,すべてのトークンごとの平均の正解率(マイクロ平均)である.ここで,タグつきターゲットデータが手に入ったと仮定して,supervisedの学習を5分割交差検定を用いて行ったselfと,ターゲットデータに対して,ソースデータだけで5分割交差検定を用いて学習を行ったSourceOnlyについてのWSDも行い,その正解率も参考として示した.\tabref{tab:table0}から,使用するコーパスによって効果の出る手法が異なることが分かる.また,\tabref{ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布}に,ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布を示す.この表において,例えば「RSとTO」は,RSとTOが同率一位であることを表す.この表から,最適な領域適応手法は,コーパスごとよりも,ケースごとに異なることが分かる.\begin{table}[t]\caption{ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布}\label{ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布}\input{02table04.txt}\end{table} \section{決定木学習におけるラベル付きデータの作成方法と学習方法} \label{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}本研究では,決定木のSameラベルの付け方や,Sameラベルのついたトークンの扱い,決定木におけるケースの重みを変えて8通りの決定木を作成した.本節ではそれらの手法の詳細と,pairwiseに作成した複数の決定木の結果を統合して,最終的に領域適応手法を一意に定める手法について述べる.ここでも,\ref{Sec:決定木学習のラベル}節と同様,TOとRSの決定木のラベルについて述べる.作成する決定木によって,WSDの手法は読み替えていただきたい.\subsection{Sameラベルの付け方}\label{sec:Sameラベルの付け方}\ref{Sec:決定木学習のラベル}節で述べたように,決定木学習の教師値として,ケースごとに,最もWSDの正解率がよかった手法によって,TOとRSとSameの三種類のうちのひとつのラベルをつける.このうち,SameはTOでもRSでもWSDの正解率に差がないケースに対するラベルであるが,どこまでが正解率に差がなく,どこからが差があるかという点についてはいくつかの考え方がある.本稿では,以下の二通りのSameの定義を考え,両方について実験を行う.\begin{itemize}\item\「同じもの」:TOとRSのWSDの正解率が全く等しいものにSameをつけ,それ以外にTOかRSを付与する.\item\「カイ二乗検定」:TOとRSのWSDの正解率を比較してカイ二乗検定を行い,有意差がないものにSameをつけ,あるものにTOかRSを付与する.なお,カイ二乗検定の有意水準は0.05を利用した.\end{itemize}「同じもの」では,全く同じ正解率のケースだけを,TOとRSに差がないケースと考え,「カイ二乗検定」では,カイ二乗検定により有意差がないケースを,TOとRSに差がないケースと考えている.決定木とラベル付け手法別に見たラベルの分布を\tabref{決定木とラベル付け手法別に見たラベルの分布}に示す.また,コーパスとラベル付け手法別に見たラベルが割りつけられたケースの数と合計の単語タイプ数を\tabref{tab:Thenumberofcases}に示す.\begin{table}[t]\caption{決定木とラベル付け手法別に見たラベルの分布}\label{決定木とラベル付け手法別に見たラベルの分布}\input{02table05.txt}\end{table}\begin{table}[t]\caption{コーパスとラベル付け手法別に見たラベルが割りつけられたケースの数と合計の単語タイプ数}\label{tab:Thenumberofcases}\input{02table06.txt}\end{table}\subsection{決定木学習におけるSameの扱い}\label{sec:決定木学習におけるSameの扱い}前節のように全てのケースに三つのラベルを付与したが,三つ目のラベルSameについてはTOでもRSでも差がないケースであり,決定木学習の際にいくつかの扱い方が考えられる.本稿では,決定木学習の際,以下の二通りのSameの扱い方で実験を行う.\begin{itemize}\item\「Sameを利用した3値分類」:TO,RS,Sameの3値分類の決定木学習とテストを行う.\item\「訓練事例からSameの事例を削除した2値分類」:Sameが付与されたケースを訓練事例から削除してTOとRSの2値分類の決定木学習を行う.なお,テストには全ケースを利用する.\end{itemize}\figref{fig:three}に,「訓練事例からSameの事例を削除した2値分類」のときの決定木学習の五分割交差検定の様子を示す.全体が144ケースあり,最終的に訓練データとして用いるケースはそのうちのTOかRSのラベルをもつケースである.「同じもの」を使用するときは129ケースがこれにあたり,「カイ二乗検定」を用いるときには69ケースがこれにあたる(濃い灰色の部分).五分割交差検定の一試行において,この訓練データとなる濃い灰色の部分の4/5(白い部分)で訓練を行い,全体のケースの144ケースのうちの1/5(薄い灰色の部分)でテストを行う.これを五回交差して行うことで決定木学習の五分割交差検定を行った.\begin{figure}[t]\begin{center}\includegraphics{19-3ia945f2.eps}\end{center}\caption{訓練事例からSameの事例を削除した2値分類のときの決定木学習の五分割交差検定}\label{fig:three}\end{figure}「訓練事例からSameの事例を削除した2値分類」を利用してテストを行う場合,Sameラベルがふられたケースに正解はない.そのため,決定木のノードにおけるラベルの確からしさの度合いなどの閾値をもうけることで,「Sameを利用した3値分類」のSameのようなどちらの手法を利用してもよいという結果を出力することも考えられる.しかし,Sameラベルがふられたケースはもともと,どちらの手法を利用してもよいケースであるため,便宜的な割り付けを行っても問題ないとの考えから,本稿では学習した決定木を用いて全てのケースに自動的にTOかRSかを割り付けた.\subsection{ケースによる分類とトークン数による重みづけを用いた分類}\label{sec:ケースによる分類とトークン数による重みづけを用いた分類}\tabref{tab:table1}にあるように,ケースにはたくさんの事例があるケースと,少量の事例しかないケースがある.このため,決定木において,少量のトークン(WSDの事例)しかないケースよりも,たくさんのトークンがあるケースについて,利用する領域適応手法を正確に予測できた方が,より全体のWSDの正解率に寄与する可能性がある.本稿では,以下のようにケースによる分類のほかに,トークン数による重みづけを行う分類についても実験を行った.\begin{itemize}\item\「ケースによる分類」:全てのケースに同等の重みがあるとして決定木学習を行う.\item\「トークン数による重みづけを用いた分類」:ケースごとにケース中のトークン数の重みをつけて決定木学習を行う.\end{itemize}具体的には,トークン数による重みづけを用いた分類は,決定木学習の際,エントロピーの計算において,ひとつのケースをひとつのケースとして数えるかわりに,トークン数分のケースとして数えることで重みを付けている.\ref{sec:Sameラベルの付け方}--\ref{sec:ケースによる分類とトークン数による重みづけを用いた分類}節でそれぞれ二通りの選択肢があるため,本稿では全組み合わせの合計8通りの決定木を作成した.\subsection{決定木の統合}\label{sec:決定木の統合}決定木の統合は,以下のように行った.pairwiseの性質上,三つの決定木が三つとも同じ方法がよいと答えることはなく,答えが2:1に分かれるか,三つ巴になるはずである.このうち,2:1に分かれるときは,かならず2つの決定木が出した答えが理論的に一番良くなるため,その答えを選択すればよい.手法1$>$手法2のとき手法1のほうがよい手法であるとすると,例えば,TO$>$RSかつ,FD$>$RSかつTO$>$FDであれば,TO$>$FD$>$RSなので,TOを選択する.次に,三つ巴のときには,事例が割りつけられた葉についている確率を比較し,一番高い確率のところに割り付けた.確率は,「学習時にその葉に割りつけられたその手法のケース数/学習時に,その葉に割りつけられた全ケース数」として計算した.たとえば,テストデータが,実行時に「学習時に,TOが1ケース,RSが2ケース割り当てられた葉」に割り当てられた場合,そのテストデータは2/3の確率でRSとなる.三つ巴の場合には,この確率で比較し,最も高い確率の手法を割り当てた.三つ巴のときに,ふたつの決定木で割りつけられた葉の確率が同率一位である場合には,RS$>$TOかつFD$>$RSなら,FD$>$RS$>$TOなのでFDを選択,というように論理的に選択された手法を選択した.また,三つ巴でどれも確率が等しい時など,上記のルールを利用してもどうしても領域適応手法が選べない時には,一括的に領域適応を行ったときに正解率が高い順,つまり,FD,TO,RSの順で割りつけた. \section{結果} \label{Sec:結果}\tabref{tab:table2}に,もともとの手法を一括的に用いた際のWSDの平均正解率を示す.なお,144のケースには合計232,116のWSDのトークンが含まれており,本稿の平均正解率はそれらのトークンの平均の正解率(マイクロ平均)である.\tabref{tab:table2}からTO,RS,FDのうち,最も良い正解率はFDの82.27\%であることが分かる.\begin{table}[b]\caption{個別の手法を用いた際のWSDの平均正解率}\label{tab:table2}\input{02table07.txt}\end{table}\tabref{tab:table3}に,\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節の決定木を用いて自動的にケースごとに選択した手法を利用した際のWSDの平均正解率を示す.なお,選択の仕方は,決定木学習による選択の8種類と,GoldenAnswerの一種類の合計9種類である.ここで,決定木学習による選択の8種類は,\ref{sec:Sameラベルの付け方}--\ref{sec:ケースによる分類とトークン数による重みづけを用いた分類}節でのそれぞれ二通りの選択肢による,全組み合わせに対応する.\tabref{tab:table3}の決定木学習の方法の列はそれぞれ,一列目が\ref{sec:Sameラベルの付け方}節の分類に,二列目が\ref{sec:決定木学習におけるSameの扱い}節の分類に,三列目が\ref{sec:ケースによる分類とトークン数による重みづけを用いた分類}節の分類にあたる.それぞれ,3値と2値は「Sameを利用した3値分類」と「訓練事例からSameの事例を削除した2値分類」を,ケースとトークンは「ケースによる分類」と「トークン数による重みづけを用いた分類」を示す.なお,GoldenAnswerは,決定木学習を用いる代わりに,ラベルとなっているふたつの領域適応のうち,WSDの正解率の高い領域適応手法をケースごとに人手で選択して,WSDの平均正解率を求めた値であり,upperboundである.\begin{table}[t]\caption{選択した手法を利用した際のWSDの平均正解率}\label{tab:table3}\input{02table08.txt}\end{table}「Sameを利用した3値分類」の決定木でSameが割りつけられたケースは,本来はTOでもRSでもどちらでもよいというように,二つの領域適応手法の選択肢のどちらを用いてもよいケースであるが,本稿では一括的に領域適応を行ったときに正解率が高い方の手法を用いて,最終的なWSDの平均正解率を算出した.「訓練事例からSameの事例を削除した2値分類」を利用した場合は,\ref{sec:決定木学習におけるSameの扱い}節で述べたように,学習した決定木を用いて自動的に全てのケースを分類した.そのため,Sameの割りつけられたケースも,決定木によって選択された手法を利用して最終的なWSDの平均正解率を算出した.\tabref{tab:table3}から,決定木学習を用いて選択した手法を利用した際のWSDの平均正解率のうち,最も高いWSDの平均正解率は,「カイ二乗検定」,「訓練事例からSameの事例を削除した2値分類」,「ケースによる分類」を利用した83.52\%である.\tabref{tab:table2}の,個別の手法を用いた際の最高の正解率,FDの82.27\%よりも正解率が高いため,決定木を利用して適切な領域適応手法を利用した方が,個々の領域適応手法を使った時よりも正解率が上がることが分かる.またこのとき,カイ二乗検定により十分な有意差が認められた. \section{考察} \label{Sec:考察}\subsection{決定木学習のラベル付きデータの作成方法と学習方法についての比較}本節では,決定木学習におけるラベル付きデータの作成方法と学習方法による違いを比較する.まずSameラベルの付け方について比べると,決定木学習におけるSameの扱いを「訓練事例からSameの事例を削除した2値分類」にしたときには「同じもの」が「カイ二乗検定」よりもよいが,「Sameを利用した3値分類」にしたときには「カイ二乗検定」が「同じもの」よりもよいことが分かる.また決定木学習におけるSameの扱いについて比べると,「訓練事例からSameの事例を削除した2値分類」のほうがいつも「Sameを利用した3値分類」よりもよいことが分かる.さらにケースによる分類とトークン数による重みづけを用いた分類について比べると,「ケースによる分類」のほうがいつも「トークン数による重みづけを用いた分類」よりもよいことが分かる.8種類の決定木の作成手法のうち最も良かったのは,決定木学習のデータのSameのラベル付けには「カイ二乗検定」を利用し,決定木学習におけるSameの扱いにおいては「訓練事例からSameの事例を削除した2値分類」を利用し,決定木学習の際には「ケースによる分類」を用いた決定木学習(カイ二乗検定,2値,ケース)であった.このとき,決定木の正解率はそれぞれ,TOとRSの決定木は69.57\%,TOとFDの決定木は64.81\%,RSとFDの決定木は52.63\%であった.また,上記の実験は,コーパスを考慮しない五分割交差検定であるため,語義タグがついていないコーパスに対しての性能を見るために,ケースをコーパスごとに分け,コーパスごとの交差検定を行った.上記の実験で最高の正解率だった(カイ二乗検定,2値,ケース)の決定木学習の手法で実験を行ったところ,WSDの平均正解率は82.32\%となった.FDの82.27\%よりも高いが,カイ二乗検定による有意差は得られなかった.利用したコーパスは3つであるため,144ケースのおおよそ三分割交差検定を行うこととなっており,訓練事例数が足りず,決定木の十分な分類性能が得られなかったためだと考えられる.WSDの領域適応の実際のタスクにおいて,本論文が提案する決定木を作る際には,ソースドメインのコーパス以外に,語義タグ付きのコーパスが少なくともひとつ以上存在する必要がある.その中にターゲットドメインのコーパスを含めずに済むかどうかは不明である.しかし,上記の実験から,含めない場合にもある程度の効果は得られると考える.あるいはターゲットドメインのコーパスに決定木を作るのに必要な程度の語義タグをつけることも考えられる.\subsection{学習された決定木についての考察}WSDの平均正解率が最高だった「カイ二乗検定」,「訓練事例からSameの事例を削除した2値分類」,「ケースによる分類」の決定木学習の五回の検定のうち,最も高い正解率だった決定木を付録として示し,生成に特に貢献した素性と素性値について以下に述べる.まず,TOとRSの決定木のルートノードでは,「ふたつの正解率の比=0.70以上」がnoのときTOが割り当てられた.これは「theOtherのシミュレーションの正解率/TOのシミュレーションの正解率」の割合が0.70以下であれば,TOが割り当てられたということである.つまり,10トークンのターゲットデータに語義をタグ付けし,LeaveOneOut法で評価を行った際の正解率のほうが,ソースデータで分類器を学習し,10トークンのターゲットデータに語義をタグ付けしたもので評価した正解率よりも高いときにはTOが割り当てられたということに等しい.このことから,10ケースの語義をタグ付けしたターゲットデータによるシミュレーションの予測が,最適な領域適応の手法を予想する強力な手がかりになることが分かる.次に,決定木の深さが1のノードでは,「JS距離(WSDの対象単語の一つ前の形態素)=0.61以上」のときにTOが選ばれている.このことから,WSDの対象単語の一つ前の形態素に関する素性の分布がソースデータとターゲットデータで異なっているときには,ソースデータを訓練事例に利用せず,ターゲットデータの10トークンに語義をタグ付けして訓練事例にした方がよいことが分かる.JS距離が大きいのは素性の分布が異なっていることを意味し,逆にJS距離が小さいのは素性の分布が似通っていることを意味する.WSDにおいて鍵となる素性の分布が遠く,ソースデータが十分に似ていない時には,ソースデータを利用しない方がよいため,JS距離が大きいときにはTOになりやすいと考えられる.同様に素性の分布が近く,ソースデータが十分に似ている時には,ソースデータを利用した方がよいため,JS距離が小さいときにはRSになりやすいと考えられる.また,RSとFDの決定木のルートノードでは,「ソースデータの数/ターゲットデータに一定以上似ているソースデータの数=186.85以上」のときFDが割り当てられた.FDは,ターゲットデータに閾値以上似たソースデータだけを訓練事例に利用する手法であるため,ターゲットデータに閾値以上似ていないソースデータが多量にあるときには,全ソースデータではなく,ターゲットデータに似ているデータだけを利用すればよいことが分かる.このことから,ターゲットデータに十分似ていないデータを足しすぎると,誤った学習が行われてしまうことが推察できる.次に,決定木の深さが1のノードでは,「JS距離(WSDの対象単語の二つ前の形態素)=0.74以上」がyesであればFDが,noであればRSが割り当てられた.このことから,WSDの対象単語の二つ前の形態素に関する素性の分布がソースデータと「ターゲットデータに一定以上似ているソースデータ」で似ているときには,ソースデータを訓練事例にすべて利用した方がよく,似ていない時には,ソースデータを利用せずに語義をタグ付けしたターゲットデータの10トークンを訓練事例にした方がよいことが分かる.本決定木では,TOとRSの決定木の深さ1のノードと同様に,素性の分布が似ているときに,ソースデータを利用したほうがよいという結果になっている.また,TOとFDの決定木のルートノードでは,「ターゲットデータ10トークン中のMFSの,ターゲットデータに閾値以上似たソースデータ中のパーセンテージ=12.58以下」である場合に,TOが割り当てられた.このことにより,ターゲットデータ10トークン中に最頻出する語義が,FDの訓練事例として利用される,「ターゲットデータに一定以上似ているソースデータ」に少ない時には,TOを用いた方がよいことが分かる.このことから,二つのデータの語義タグが似ていないときは,ソースデータから訓練事例を一切足すことなく,ターゲットデータだけで学習した方がよいと考えられる.次に,決定木の深さが1のノードでは,「JS距離(WSDの対象単語の一つ後の形態素の分類語彙表の値)=0.15以下」であれば,TOが割り当てられた.WSDの対象単語の一つ後の形態素の分類語彙表の値に関する素性の分布が,ターゲットデータと「ターゲットデータに一定以上似ているソースデータ」で似ているときには,ソースデータを訓練事例に一切利用せず,ターゲットデータを10トークンタグ付けして訓練事例にした方がよいことが分かる.ここで注目したいのは,これまでの決定木とは逆に,素性の分布が似ているときに,ソースデータを利用しないほうがよいという結果になっていることである.TOとFDの決定木全体を見てみると,ノードにJS距離についての条件は四度現れる.そのうち,二回は素性の分布が似ているときに,ソースデータを利用しないほうがよいという結果であり,残りの二回は逆に素性の分布が似ているときに,ソースデータを利用したほうがよいという結果になっている.このように同じJS距離でも素性によって似ているときにソースデータを利用した方がよかったり,そうでなかったりするのは,本決定木ではTOとFDの二手法から領域適応手法を選択しているためであると考えられる.全てのソースデータを訓練事例に含めるRSと異なり,FDでは,ターゲットデータに一定以上似ているソースデータを訓練事例に含めるため,素性によって似ていたらソースデータを使用すべきものと,ソースデータを使用すべきでないものに分かれているのではないかと考えられる.「WSDの対象単語の一つ後の形態素の分類語彙表の値」は後者であることが決定木から読みとれる. \section{まとめ} \label{Sec:まとめ}語義曖昧性解消(WSD;WordSenseDisambiguation)について領域適応を行った場合,ソースデータとターゲットデータのデータの性質により,最も効果的な領域適応手法が異なる.そのため本稿では,決定木学習を用いてソースデータとターゲットデータの性質から,最も効果的な領域適応手法を自動的に選択する手法について述べた.WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数え,決定木学習を利用してケースごとに,TO,RS,FDの三種類から適切な領域適応手法を選択した.なお,TOはソースデータを用いず,ランダムに選んだ少量のターゲットデータに語義をタグ付けしたものだけを訓練事例とする手法,RSはソースデータと語義をタグ付けした少量のターゲットデータの両方を訓練事例とする手法,FDはターゲットデータに似たソースデータと語義をタグ付けした少量のターゲットデータを訓練事例とする手法である.三つの手法から領域適応手法を一意に選ぶため,pairwise方式に三つの決定木を作成し,最後に統合して用いた.ケースごとに自動的に選択された手法を用いて領域適応を行うことで,もともとの手法を一括的に使った時に比べ,WSDの正解率が有意に向上した.また,ラベル付きデータの作成方法と学習方法を8通り試したが,このうち最もWSDの平均正解率が高かったのは,決定木学習のケースへのラベル付けの際,ふたつの領域適応手法のWSDの正解率に有意差がないケースにSameラベルを付与し,Sameの割りつけられたケースは訓練事例から取り除いて2値分類を行い,ケースごとに分類を行う決定木学習であった.作成した決定木から,語義をタグ付けした少量のターゲットデータによるシミュレーションの予測や,同ターゲットデータの最頻出語義の「ターゲットデータに一定以上似ているソースデータ」中の出現率,ソースデータの数と「ターゲットデータに一定以上似ているソースデータ」の数の比が,最適な領域適応の手法を予想する強力な手がかりになることが分かった.\acknowledgment文部科学省科学研究費補助金特定領域研究「現代日本語書き言葉均衡コーパス」の助成により行われた.ここに,謹んで御礼申し上げる.また,本論文の内容の一部は,5thInternationalJointConferenceonNaturalLanguageProcessingで発表したものである\cite{article22}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\de~Lacalle}{Agirre\BBA\de~Lacalle}{2008}]{article5}Agirre,E.\BBACOMMA\\BBA\de~Lacalle,O.~L.\BBOP2008\BBCP.\newblock\BBOQOnRobustnessandDomainAdaptationusingSVDforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Agirre\BBA\de~Lacalle}{Agirre\BBA\de~Lacalle}{2009}]{article6}Agirre,E.\BBACOMMA\\BBA\de~Lacalle,O.~L.\BBOP2009\BBCP.\newblock\BBOQSupervisedDomainAdaptionforWSD.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceoftheEuropeanChapteroftheAssociationofComputationalLinguistics},\mbox{\BPGS\42--50}.\bibitem[\protect\BCAY{Asch\BBA\Daelemans}{Asch\BBA\Daelemans}{2010}]{article11}Asch,V.~V.\BBACOMMA\\BBA\Daelemans,W.\BBOP2010\BBCP.\newblock\BBOQUsingDomainSimilarityforPerformanceEstimation.\BBCQ\\newblockIn{\BemProceedingsofthe2010WorkshoponDomainAdaptationforNaturalLanguageProcessing,ACL2010},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Blitzer,McDonald,\BBA\Pereira}{Blitzeret~al.}{2006}]{article17}Blitzer,J.,McDonald,R.,\BBA\Pereira,F.\BBOP2006\BBCP.\newblock\BBOQDomainAdaptationwithStructuralCoppespondenceLearning.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{article2}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingClassPriorsinDomainAdaptationforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2007}]{article3}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQDomainAdaptationwithActiveLearningforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Daum\'{e}}{Daum\'{e}}{2007}]{article4}Daum\'{e},III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{Daum\'{e},Kumar,\BBA\Saha}{Daum\'{e}et~al.}{2010}]{article12}Daum\'{e},III,H.,Kumar,A.,\BBA\Saha,A.\BBOP2010\BBCP.\newblock\BBOQFrustratinglyEasySemi-SupervisedDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe2010WorkshoponDomainAdaptationforNaturalLanguageProcessing,ACL2010},\mbox{\BPGS\23--59}.\bibitem[\protect\BCAY{Hashida,Isahara,Tokunaga,Hashimoto,Ogino,\BBA\Kashino}{Hashidaet~al.}{1998}]{article19}Hashida,K.,Isahara,H.,Tokunaga,T.,Hashimoto,M.,Ogino,S.,\BBA\Kashino,W.\BBOP1998\BBCP.\newblock\BBOQTheRWCtextdatabases.\BBCQ\\newblockIn{\BemProceedingsofTheFirstInternationalConferenceonLanguageResourceandEvaluation},\mbox{\BPGS\457--461}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{article7}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceWeightingforDomainAdaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{article22}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQAutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationUsingDecisionTreeLearning.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalJointConferenceonNaturalLanguageProcessing,IJCNLP2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{article18}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources(ALR)},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2010}]{article20}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2010\BBCP.\newblock\BBOQAutomaticDomainAdaptationforParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\28--36}.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{book2}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmannPublishers.\bibitem[\protect\BCAY{Raina,Battle,Lee,Packer,\BBA\Ng}{Rainaet~al.}{2007}]{article15}Raina,R.,Battle,A.,Lee,H.,Packer,B.,\BBA\Ng,A.~Y.\BBOP2007\BBCP.\newblock\BBOQSelf-taughtLearning:TransferLearningfromUnlabeledData.\BBCQ\\newblockIn{\BemICML'07:Proceedingsofthe24thinternationalconferenceonMachinelearning},\mbox{\BPGS\759--766}.\bibitem[\protect\BCAY{Sugiyama\BBA\Okumura}{Sugiyama\BBA\Okumura}{2009}]{article21}Sugiyama,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQSemi-supervisedClusteringforWordInstancesandItsEffectonWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing2009)},\mbox{\BPGS\266--279}.\bibitem[\protect\BCAY{Tur}{Tur}{2009}]{article16}Tur,G.\BBOP2009\BBCP.\newblock\BBOQCo-adaptation:AdaptiveCo-trainingforSemi-supervisedLearning.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing,2009.ICASSP2009},\mbox{\BPGS\3721--3724}.\bibitem[\protect\BCAY{Zhong,Fan,Peng,Zhang,Ren,Turaga,\BBA\Verscheure}{Zhonget~al.}{2009}]{article14}Zhong,E.,Fan,W.,Peng,J.,Zhang,K.,Ren,J.,Turaga,D.,\BBA\Verscheure,O.\BBOP2009\BBCP.\newblock\BBOQCrossDomainDistributionAdaptationviaKernelMapping.\BBCQ\\newblockIn{\BemProceedingsofthe15thACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining},\mbox{\BPGS\1027--1036}.\bibitem[\protect\BCAY{張本\JBA宮尾\JBA辻井}{張本\Jetal}{2010}]{article10}張本佳子\JBA宮尾祐介\JBA辻井潤一\BBOP2010\BBCP.\newblock構文解析の分野適応における精度低下要因の分析及び分野間距離の測定手法.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\27--30}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{book1}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{book3}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典第五版}.\newblock岩波書店.\end{thebibliography}\appendix \section{生成された決定木} 上の枝がyes,下の枝がnoに相当する.JS距離(語義)は,決定木の素性の(\ref{17})データ1とデータ2の語義タグのJS距離の略記,JS距離(*)は,(\ref{18})データ1とデータ2の間のWSDの素性ごとの分布のJS距離の略記であり,*には\ref{sec:item17}節のWSDの素性名が入る.JS距離(Featureplus)は(\ref{19})データ1とデータ2の間の素性ごとのJS距離を足しあわせたものの略記で,(\ref{18})を17種類足しあわせた値であり,JS距離(Featureall)は(\ref{20})データ1とデータ2の素性をひとつの単位としたときのJS距離の略記である.\begin{figure}[h]\begin{center}\includegraphics{19-3ia945f3.eps}\end{center}\caption{TOとRSの決定木}\end{figure}\begin{figure}[h]\begin{center}\includegraphics{19-3ia945f4.eps}\end{center}\caption{RSとFDの決定木}\end{figure}\begin{figure}[h]\begin{center}\includegraphics{19-3ia945f5.eps}\end{center}\caption{TOとFDの決定木}\end{figure}\begin{biography}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{奥村学}{1962生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.工学博士.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
V20N02-09
\section{はじめに} \label{introduction}自然言語の理解に向けて,常識的知識の獲得が重要である.特に意味カテゴリに属する固有表現のリストは,質問応答~\cite{Wang:2009:ASI:1687878.1687941},情報抽出~\cite{Mintz:2009:DSR:1690219.1690287},語義曖昧性解消~\cite{Pantel:2002:DWS:775047.775138},文書分類~\cite{Pantel:2009:WDS:1699571.1699635},クエリ補完~\cite{Cao:2008:CQS:1401890.1401995}など様々なタスクで有用である.固有表現リストを人手で構築すると多大なコストがかかるうえ,新しい実体や概念に対応できないため,固有表現リストを(半)自動的に獲得する方法が研究されてきた.集合拡張はある意味カテゴリに属する既知の固有表現の集合を入力とし,その意味カテゴリの未知の固有表現を獲得するタスクである.例えば「プリウス」,「レクサス」,「インサイト」という自動車カテゴリの固有表現から,「カローラ」,「シビック」,「フィット」のように自動車カテゴリに属する固有表現を新たに獲得する.なお本論文では,意味カテゴリに属する固有表現をその意味カテゴリの\textbf{インスタンス}と呼び,特に入力として与えるインスタンスを\textbf{シードインスタンス}と呼ぶ.集合拡張には通常,ブートストラッピング手法を用いる~\cite{Hearst:1992:AAH:992133.992154,Yarowsky95unsupervisedword,Abney:2004:UYA:1105596.1105600,pantel04,pantel-pennacchiotti:2006:COLACL}.ブートストラッピング手法とはシードインスタンスを用いて新たなインスタンスを反復的に獲得する手法である.ブートストラッピング手法では,まず,コーパス中でシードインスタンスと頻繁に共起するパターンを獲得する.例えば自動車カテゴリについて「プリウス」や「レクサス」のようなシードインスタンスから「トヨタのX」や「ハイブリッド車のX」(Xは名詞句を代入する変数)のようなパターンが得られる.次にこれらのパターンと頻繁に共起するインスタンス,すなわち,パターンの変数X部分に多く現れる名詞句を獲得する.例えば「トヨタのX」というパターンからトヨタの自動車製品を表す語が得られる.次に新たに得られたインスタンスをシードインスタンスに加え,再びパターンの獲得を行う.ブートストラッピング手法はこのようにパターンの獲得とインスタンスの獲得を繰り返し行うことにより,少数のシードインスタンスから大規模なインスタンス集合を獲得する.しかしブートストラッピング手法はシードインスタンス集合とは無関係なインスタンスを獲得してしまう場合もある.これは対象とする意味カテゴリのインスタンス以外とも共起するパターンによって引き起こされる.例えば「プリウス」や「レクサス」といったシードインスタンスから「新型のX」というパターンを獲得したとすると,このパターンを用いることにより,「iPad」や「ThinkPad」のようなシードとは無関係なインスタンスを抽出してしまう.ブートストラッピング手法において,対象とする意味カテゴリとは無関係なインスタンスを獲得してしまう現象を意味ドリフトと呼ぶ~\cite{Curran_minimisingsemantic}.意味ドリフトはブートストラッピング手法において非常に重大な問題である.ブートストラッピング手法は意味カテゴリに関する事前知識をシードインスタンスという形で受け取っている.しかしながら,シードインスタンスのみで意味カテゴリを正確に表現することは難しく,意味ドリフトが引き起こされる.一方,事前知識として,Wikipediaにおける意味カテゴリ間の上位下位・兄弟関係に見られるように,シードインスタンス以外の知識を得られる場合がある.例えば人カテゴリに属するインスタンスは男優と女優カテゴリに同時に属することはできないという知識や,自動車と自動二輪カテゴリという2つの異なったカテゴリが共通の特徴(例:乗り物,ガソリン式,陸上)と異なる特徴(例:タイヤの数,窓の有無)を持つというような知識が入手できる.近年,テキストに非明示的な情報を推論するため,\textbf{MachineReadingproject}~\cite{Etzioni:06}に見られるように大規模なテキストコーパスを利用し,ありとあらゆる種類の語彙知識を獲得しようとする研究が盛んである.意味カテゴリのインスタンスの収集においても,Carlsonら~\cite{Carlson10towardan}のように,複数のカテゴリを対象として同時に収集を行う需要が高まっている.このような場合には,シードインスタンス以外に,意味カテゴリ間の関係も事前知識として利用できると考えられる.本研究では,複数の意味カテゴリを対象とした集合拡張において,事前知識として意味カテゴリ間の兄弟関係を活用する手法を提案する.評価実験では,Wikipediaから抽出したインスタンスと兄弟関係を事前知識として集合拡張を行い,兄弟関係の知識が有用であることを示す.本論文の構成は以下の通りである.2節では本研究のベースライン手法であるEspressoアルゴリズムを概説する.また,この節では意味ドリフト問題とその対処法に関する先行研究を紹介する.3節では意味カテゴリの兄弟関係を追加の事前知識として活用する手法を提案する.4節では提案手法の効果を実験で検証し,考察を行う.最後に5節で本論文の結論を述べる. \section{関連研究} \subsection{Espressoアルゴリズム}\label{Espresso}Espresso~\cite{pantel-pennacchiotti:2006:COLACL}は,パターンの取得とインスタンスの取得の2つのステップを反復する集合拡張アルゴリズムである.パターンの取得とインスタンスの取得は共に,コーパスからの候補の抽出と,候補のランキングという同じ手順にもとづいている.候補の抽出では既に獲得したインスタンスと共起するパターン,既に獲得したパターンと共起するインスタンスを抽出する.候補のランキングでは候補インスタンス/パターンのスコアを計算し,上位$N$個の候補を採用する.Espressoアルゴリズムでは候補パターン$p$のスコア$r_\pi(p)$と候補インスタンス$i$のスコア$r_\iota(i)$を,それぞれ式~(\ref{eq:score1})と式~(\ref{eq:score2})で計算する.\begin{gather}r_\pi(p)=\frac{1}{|I|}\sum_{i\inI}\frac{\pmi(i,p)}{\max\pmi}r_\iota(i)\label{eq:score1}\\r_\iota(i)=\frac{1}{|P|}\sum_{p\inP}\frac{\pmi(i,p)}\max\pmir_\pi(p)\label{eq:score2}\\\pmi(i,p)=\log_2\left(\frac{|i,p|}{|i,*||*,p|}\times\text{discountingfactor}\right)\label{eq:pmi}\\\text{discountingfactor}=\frac{|i,p|}{|i,p|+1}\times\left(\frac{\min\left(|i,*|,|*,p|\right)}{\min\left(|i,*|,|*,p|\right)+1}\right)\label{eq:discounting}\end{gather}$P$と$I$は各カテゴリにおけるパターンとインスタンスの集合である.$|P|$と$|I|$はそれぞれ集合$P$と$I$に含まれるパターンとインスタンスの数である.$|i,*|$と$|*,p|$はインスタンス$i$とパターン$p$のコーパス中での出現頻度であり,$|i,p|$はインスタンス$i$とパターン$p$の共起頻度である.すなわち,式~(\ref{eq:pmi})における右辺第1項はインスタンス$i$とパターン$p$の自己相互情報量である.自己相互情報量は単語間の相関の指標として一般的であるが,めったに出現しない単語に対して値が大きくなってしまうという問題がある.これに対処するため,PantelとRavichandranは式~(\ref{eq:discounting})に示されるdiscountingfactorを導入した~\cite{pantel04}.また,maxpmiはカテゴリ内のすべてのインスタンスとパターンのpmiの最大値である.なお,初期値としてシードインスタンスのスコアは1.0とする.Espressoアルゴリズムの動作を説明する.始めに,シードインスタンスと共起するパターンを候補として抽出する.次に,式~(\ref{eq:score1})で候補パターンのスコアを計算し,上位$N$個のパターンを獲得することで,対象とする意味カテゴリに対応するパターンを獲得する.インスタンスの獲得については,獲得したパターンと式~(\ref{eq:score2})を用い,上記の手順をパターンとインスタンスを逆にして行うことで達成する.すなわち,獲得したパターンと共起するインスタンスを候補として抽出し,式~(\ref{eq:score2})で高スコアのパターンとよく共起するインスタンスを獲得する.\subsection{意味ドリフト}ブートストラッピング手法においてシードとは無関係なインスタンスを獲得してしまい,対象とするカテゴリから逸脱してしまう現象を意味ドリフトと呼ぶ~\cite{Curran_minimisingsemantic}.例として,「プリウス」や「レクサス」をシードインスタンスとして持つ自動車カテゴリについて考える.Espressoアルゴリズムは何回か反復を行うと「Xの性能」や「新型のX」など多くのカテゴリのインスタンスと共起するパターン(\textbf{ジェネリック・パターン})を得る.これらのパターンを用いてインスタンスの収集を行うと,「iPad」や「ThinkPad」のようなインスタンスが抽出され得る.これらは対象とする意味カテゴリの特徴を備えておらず,シードが表そうとしている意味カテゴリとは無関係なインスタンスである.しかしながら,これらの間違ったインスタンスを獲得してしまうことで,アルゴリズムの取得するパターンは元々の想定からかけ離れたものになってしまう.また意味ドリフトは多義性のある語によっても引き起こされる.例えば自動車メーカーのシードとして「サターン」や「スバル」を与えた場合,ブートストラッピング手法は「木星」や「天王星」のような星カテゴリに属するインスタンスを獲得してしまう.これは「サターン」や「スバル」に多義性があり,自動車メーカーだけでなく天体(惑星や恒星)も表す語だからである.小町ら~\cite{mamoru_komachi:2010}はEspressoアルゴリズムをグラフ解析の観点から分析することで,ブートストラッピング手法において,意味ドリフトが本質的には回避できない問題であることを示した.\subsection{g-Espressoアルゴリズム}小町ら~\cite{mamoru_komachi:2010}はEspressoアルゴリズムをグラフ解析として定式化し,さらに意味ドリフトへの対処として,グラフカーネルの適用を提案した.彼らはまず,Espressoアルゴリズムを行列計算によって定式化した.なお,ここではEspressoアルゴリズムにおける,毎回の反復において上位$N$個の候補を獲得する,というステップが省略されており,全パターンと全インスタンスにスコアを付与する形になっている.インスタンスとパターンの共起行列を$M$とし,その$(p,i)$要素$[M]_{pi}$は式~(\ref{eq:pmi})のpmiを用いて,\begin{equation}[M]_{pi}=\frac{\pmi(i,p)}{\max\pmi}\end{equation}とする.また,シードインスタンスに対応する位置の要素は1,それ以外の要素は0である,$|I|$次元のベクトルをシードベクトル$\boldsymbol{i_{0}}$とする.このとき,$n$回目の反復におけるパターンへのスコアの付与は,$\boldsymbol{p_{n}}=M\boldsymbol{i_{n}}$を計算した後に$\boldsymbol{p_{n}}\gets\boldsymbol{p_{n}}/|I|$として正規化する操作に対応する.同様に,インスタンスへのスコアの付与は,$\boldsymbol{i_{n+1}}=M^{T}\boldsymbol{p_{n}}$を計算した後に$\boldsymbol{i_{n+1}}\gets\boldsymbol{i_{n+1}}/|P|$として正規化する操作に対応する.したがって,$n$回目の反復後に得られるインスタンスのスコアベクトル$\boldsymbol{i_{n}}$は,式~(\ref{eq:graph_instance})と書ける.\begin{gather}\boldsymbol{i_{n}}=A^{n}\boldsymbol{i_{0}}\label{eq:graph_instance}\\A=\frac{1}{|I||P|}M^{T}M\end{gather}$I$をノード集合,$A$を隣接行列とした重み付き無向グラフ$G$を考えると,反復におけるインスタンスのスコアの更新は,シードインスタンスのスコアがグラフ上を伝播していく過程と見なすことができる.よって,グラフカーネルによりこの過程を形式化することが可能である.小町ら~\cite{mamoru_komachi:2010}はジェネリック・パターンの影響を減らし,意味ドリフトを抑制するために,正則化ラプラシアンカーネル~\cite{b155}を用いた.まず,グラフ$G$のラプラシアン$L$を式~(\ref{eq:laplacian})によって求める.\begin{gather}L=D-A\label{eq:laplacian}\\[D]_{i,i}=\sum_{j}^{}[A]_{ij}\end{gather}次に,正則化ラプラシアンカーネルを式~(\ref{eq:reg_lap})で計算する.\begin{equation}R_{\beta}(A)=A\sum_{n=0}^{\infty}\beta^{n}(-L)^{n}=(I+\betaL)^{-1}\label{eq:reg_lap}\end{equation}正則化ラプラシアンカーネルはそれぞれのノードに対し,次数に応じて接するエッジの重みを減ずる.このため,ジェネリック・パターンの影響を低く抑えることができる.萩原ら~\cite{masato_hagiwara:2011}はこのグラフ理論によって再定式化したEspressoアルゴリズムをg-Espressoと呼び,集合拡張において意味ドリフトを抑制する効果があることを示した.\subsection{意味ドリフトへの対処}意味ドリフトの影響を軽減するために,小町ら~\cite{mamoru_komachi:2010}や萩原ら~\cite{masato_hagiwara:2011}の手法に加え,シードインスタンス集合の洗練~\cite{Vyas:2009:HEC:1645953.1645984},分類器の使用~\cite{Bellare_lightlysupervisedattribute,Sadamitsu:2011:ESE:2002736.2002876,Pennacchiotti:2011:ABT:2018936.2018955},人間の判断の導入~\cite{Vyas:2009:SES:1620754.1620796},意味カテゴリ間の関係の活用~\cite{Curran_minimisingsemantic,carlson-wsdm}など様々な手法が提案されている.Vyasらはブートストラッピング手法におけるシードインスタンスの影響を調査した~\cite{Vyas:2009:HEC:1645953.1645984}.その結果,専門家でない人の選んだシードインスタンス集合はランダムに選択したものよりも結果が悪くなる可能性があることを示した.また彼らは,人手で作成されたシードインスタンス集合を洗練し,集合拡張の性能を向上させる手法を提案した.Bellareらはブートストラッピング手法のランキング時にスコア関数の代わりに分類器を使用する手法を提案した~\cite{Bellare_lightlysupervisedattribute}.分類器を用いる手法はインスタンスのランキング時にパターン以外の素性を使うためである.SadamitsuらはBellareらの手法~\cite{Bellare_lightlysupervisedattribute}を拡張し,LatentDirichletAllocation(LDA)から推定されるトピック情報を素性として使用する手法を提案した~\cite{Sadamitsu:2011:ESE:2002736.2002876}.彼らはまた,意味的に近いカテゴリの情報を与え,LDAのトピックの粒度を調整する手法も提案している~\cite{Sadamitsu:2012:PACLIC26}.PennacchiottiとPantelは分類器のためのトレーニングデータを自動で収集する手法を提案した~\cite{Pennacchiotti:2011:ABT:2018936.2018955}.しかしながら,これらの研究は複数の意味カテゴリに対して同時に集合拡張を行うことを想定しておらず,\ref{introduction}節で説明したような,意味カテゴリ間の関係知識の利用を考慮していない.VyasとPantelは意味ドリフトの原因となったパターンを検出し,それを削除する手法を提案した~\cite{Vyas:2009:SES:1620754.1620796}.彼らは意味ドリフトを防ぐため,ブートストラッピング手法の反復に人間の正否判定を取り入れた.彼らの手法では,人手によって誤りインスタンスが発見された場合,その誤りインスタンスとそれを獲得する原因となったパターンを除去する.また,同様の誤りを防ぐため,誤りインスタンスと類似した文脈ベクトルを持つインスタンスも除去する.彼らもカテゴリ間の関係のような事前知識は使用していない.Curranらはブートストラッピング手法にカテゴリ間の排他制約を導入した,MutualExclusionBootstrappingという手法を提案した~\cite{Curran_minimisingsemantic}.MutualExclusionBootstrappingは,インスタンスやパターンの属するカテゴリはただ1つであるという制約を取り入れたものである.複数のカテゴリに出現するインスタンスやパターンには曖昧性があり,意味ドリフトの原因になると考えられる.そこで,曖昧性のあるインスタンスやパターンを除去することにより,彼らの手法は高い精度を達成した.同じく排他関係を使用する手法としてCarlsonらはCoupledPatternLearner(CPL)アルゴリズムを提案した~\cite{carlson-wsdm}.CPLアルゴリズムは意味カテゴリのインスタンス(例:自動車カテゴリのインスタンス)と関係インスタンス(例:CEO-of-Companyという関係に対する(LarryPage,Google)やCompany-acquired-Companyに対する(Google,Youtube))を同時に収集する手法である.CPLアルゴリズムはこれらのインスタンスを取得するために,カテゴリ間の排他関係とカテゴリ間の意味的関係(例:CEOカテゴリのインスタンスは会社カテゴリに属するインスタンスのうちいずれかのCEOである)を使用する.しかしながら,カテゴリ間の意味的関係は関係インスタンスの取得にしか用いられておらず,意味カテゴリのインスタンスについては複数カテゴリに対する排他制約という事前知識しか用いていない.Curranら~\cite{Curran_minimisingsemantic}とCarlsonら~\cite{carlson-wsdm}はどちらも事前知識としてシードインスタンスだけではなくカテゴリ間の排他関係も利用している.しかし,意味カテゴリ間には上位下位や兄弟関係など排他関係以外の関係も存在する.兄弟関係は共通の特徴を持つべきであるカテゴリについての知識であり,排他関係という,インスタンスが同時に属さないカテゴリに関する知識とは別種のものである.兄弟関係についての知識はWikipediaのような既存のリソースから容易に取得することができるため,事前知識として利用しやすい.本研究では,既存のリソースから入手できるカテゴリ間の兄弟関係に関する知識を事前知識として集合拡張に導入し,その有用性を検証する. \section{提案手法} \subsection{兄弟カテゴリのパターンによるフィルタリング}本節では,意味カテゴリ間の兄弟関係を事前知識として活用する手法を提案する.以降では,兄弟関係にあるカテゴリの集合を\textbf{兄弟グループ}と呼ぶこととする.例えば,自動車と自動二輪のカテゴリは兄弟関係にあるため,同一の兄弟グループに属する.本研究では,同一の兄弟グループに含まれるインスタンスは共通の特徴を保有していると仮定する.例えば,自動車と自動二輪の兄弟グループに含まれるインスタンスは「乗り物」や「ガソリン式」という特徴を持ち,「乗る」や「燃費」などの語と係り受け関係を持ちやすい.この兄弟グループに共通の特徴を持っていないインスタンスは,正しいインスタンスである可能性が低いと考えられる.そのため,提案手法は兄弟グループのシードインスタンス集合を利用して兄弟グループに共通の特徴を取得し,グループ内の候補インスタンスがこの共通の特徴を保有しているか否かを検証することで,誤ったインスタンスの獲得を防ぐ.同一の兄弟グループに属する自動車と自動二輪カテゴリについて,提案手法を用いて集合拡張の際の誤りインスタンスを除去する例を図~\ref{fig:overview}に示す.提案手法はまず,この兄弟グループのインスタンスに共通の特徴として,「乗る」や「燃費」という表現と係り受け関係を持ちやすいという知識を得る.既存のブートストラッピング手法では,自動車カテゴリにおいて「新型のX」というパターンを獲得してしまった場合,シードや兄弟グループとは無関係のインスタンスである「iPad」を除去することができない.これに対して,提案手法では候補インスタンスが「乗る」や「燃費」と係り受け関係にある文節に出現しているかを,インスタンスの獲得(厳密には候補のランキング)の前に検証することによって,「iPad」のような誤りインスタンスを取り除くことができる.この結果,提案手法は「カムリ」のような兄弟グループに共通する特徴を持つインスタンスのみを獲得する.\begin{figure}[t]\begin{center}\includegraphics{20-2ia9f1.eps}\end{center}\caption{兄弟関係を活用した集合拡張}\label{fig:overview}\end{figure}ここで,兄弟グループに共通の特徴が,対象とする意味カテゴリ以外も包含してしまうと,意味ドリフトが発生してしまう.これを防ぐために,兄弟グループ間は排他関係にあるとし,兄弟グループに共通の特徴は対象としている兄弟グループに固有の特徴とする.本研究では兄弟グループに共通の特徴は「乗る」や「燃費」などの表現によって表されると仮定する.このような表現を\textbf{フィルタパターン}と呼ぶ.提案手法では,候補インスタンスがフィルタパターンと共起しているか,すなわち,候補インスタンスがフィルタパターンと係り受け関係にある文節に出現しているかの検証を行うことで,インスタンスが兄弟グループに共通の特徴を保有しているかを確認する.この確認はインスタンスの獲得の直前に行い,候補インスタンスの抽出法については,既存の手法を用いる.すなわち,提案手法はEspressoアルゴリズムやg-Espressoなどの既存手法と組み合わせて利用することができる.\subsection{Espressoアルゴリズムをベースとした手法}\label{proposed_espresso}\begin{algorithm}[t]\caption{Espressoアルゴリズムをベースとした提案手法のアルゴリズム}\label{alg1}\input{09algo01.txt}\end{algorithm}Espressoアルゴリズムを利用し,図~\ref{fig:overview}のアイディアをアルゴリズムとして記述したものがAlgorithm~\ref{alg1}である.このアルゴリズムは入力として対象とするカテゴリの集合$C$,$S_{1}$から$S_{T}$までの兄弟グループ,それぞれのカテゴリ$c\inC$に対応するシードインスタンス集合$I_{c}$,反復の回数$L$,コーパス$W$を受け取る.兄弟グループはそれぞれ$C$の部分集合であり,また,互いに素である.まず,\ref{st_sibp_extract}行目から\ref{end_sibp_extract}行目において各兄弟集合$S_{j}$に対するフィルタパターン$F_{S_{j}}$を選択する.次に\ref{espresso}行目において兄弟グループ$S_{j}$内の各カテゴリ$c$のインスタンスを関数\Call{Espresso\_Exclusion}{}を用いて取得する.\Call{Espresso\_Exclusion}{}は要素のそれぞれがインスタンス$i$,カテゴリ$c$,スコア$s$のタプル,すなわち$(i,c,s)$からなるリスト$R$を返す.この関数において,インスタンスの抽出とスコアの計算は,~\ref{Espresso}節で説明したEspressoアルゴリズムに,兄弟グループのカテゴリ間でパターンに対する排他制約を導入した手法を用いて行う.\begin{figure}[t]\begin{center}\includegraphics{20-2ia9f2.eps}\end{center}\caption{文節間の係り受け関係の例}\label{eg:sentence}\end{figure}本研究ではパターンはインスタンスと係り受け関係にある文節と定義する.例えば,「プリウス」というインスタンスと図~\ref{eg:sentence}に示す文が与えられたとする(図~\ref{eg:sentence}では文を文節で区切り,係り受け関係を文節間の矢印で表現している).このとき,プリウスと同じ意味クラスに属するインスタンスを取得するためのパターンとして,\begin{quote}\begin{itemize}\itemX$\longrightarrow$販売を\itemX$\longleftarrow$新型\end{itemize}\end{quote}を得る.ここで,係り受け関係の向きについて,インスタンスを含む文節が別の文節に係るときを「$\to$」で,別の文節がインスタンスを含む文節に係るときを「$\gets$」で表している.関数\Call{Espresso\_Exclusion}{}では,「X$\to$販売を」や「X$\gets$新型」のように,係り受け関係の向きも含めた表現形式をパターンとする.次に$R$に含まれる候補インスタンス$i$が兄弟グループに共通の特徴を持つか否かの検証を,関数\Call{Filter}{}によって行う(\ref{filter}行目).関数\Call{Filter}{}は\ref{st_func_fil}行目から\ref{end_func_fil}行目に書かれている通りであり,$R$に含まれる$i$がそれぞれフィルタパターン$f$と共起しているかどうかを検証する.この関数はフィルタパターンと共起しているインスタンスをそのスコアとともにリストとして返す.言い換えれば,この関数はフィルタパターンの集合$F$によって表される兄弟グループに共通の特徴を保有していないインスタンスを除去している.兄弟グループ内でのドリフトを防ぐため,提案手法は兄弟グループのカテゴリ間に排他制約を導入している.パターンやインスタンスが兄弟グループ内の複数のカテゴリで出現している場合,提案手法はそれらが属するべき最適なカテゴリをただ1つ決定する.提案手法ではこの決定をランキングの結果をもとに行う.例えば自動車と自動二輪カテゴリにおいて「X→マフラー」というパターンが出現していたとする.ランキングの結果,もしこのパターンが自動車カテゴリでは13位であり自動二輪カテゴリでは4位だったとすると,このパターンは自動二輪カテゴリにのみ属するものとする.すでに説明したように,Algorithm~\ref{alg1}において関数\Call{Espresso\_Exclusion}{}はパターンに対する排他制約が導入されているものであるとしており,インスタンスに対する排他制約は\ref{exclusive}行目から\ref{end_exclusive}行目に実装されている.提案手法ではスコア$s$を元に,\ref{exclusive}行目から\ref{end_exclusive}行目での排他制約を適用しながら,反復数($l$回目)に応じて上位$N\timesl$個のインスタンスを獲得する.すべてのカテゴリについて新たなインスタンスの取得が終わった後,次の反復へと進む.入力として与えた回数だけ反復した後,アルゴリズムはそれぞれのカテゴリ$c\inC$に対応するインスタンス集合$I'_{c}$を出力する.\subsection{g-Espressoをベースとした手法}\label{sec:g_espresso}正則化ラプラシアンカーネルを利用したg-Espressoによるインスタンスの抽出と,フィルタパターンによる候補インスタンスの特徴の検証を組み合わせた手法を,アルゴリズムとして記述したものがAlgorithm~\ref{proposed_g_espresso}である.このアルゴリズムはAlgorithm~\ref{alg1}の入力から反復回数$L$を除いたものを入力として受け取る.\begin{algorithm}[b]\caption{g-Espressoをベースとした提案手法のアルゴリズム}\label{proposed_g_espresso}\begin{algorithmic}[1]\input{09algo02.txt}\end{algorithm}Algorithm~\ref{proposed_g_espresso}はAlgorithm~\ref{alg1}と同様,まず各兄弟集合$S_{j}$に対するフィルタパターン$F_{S_{j}}$を選択する.次に兄弟グループ$S_{j}$内の各カテゴリ$c$について,候補インスタンス集合$I_{v_{c}}$とパターンの集合$P_{v_{c}}$を関数\Call{Espresso}{}によって,抽出する~(\ref{espresso4g}行目).関数\Call{Espresso}{}は\ref{Espresso}節において説明したEspressoアルゴリズムによって,パターンとインスタンスのスコアを計算し,上位$N_{pattern}$個のパターンと上位$N_{instance}$個のインスタンスを返す関数である.なお,ここでのパターンも\ref{proposed_espresso}節での関数\Call{Espresso\_Exclusion}{}で用いたものと同様,「X$\to$発表した」のような係り受け関係の向きも含めたものとする.g-Espressoは対象とするカテゴリ毎に,コーパス中の全パターンと全インスタンスを対象とした計算を行うため,ウェブページなどの大規模コーパスや,複数の意味カテゴリを対象とした場合には計算量が膨大になってしまう.計算量を抑えるため,萩原ら~\cite{masato_hagiwara:2011}はブートストラッピング手法によって計算対象を制限し,その後グラフカーネルを適用する手法を用いた.本手法でも同様に,Espressoアルゴリズムによってシードインスタンス集合と相関の高いパターン/インスタンスを$P_{v_{c}}$,$I_{v_{c}}$として抽出し,g-Espressoへの入力とする.なお,今回は萩原ら~\cite{masato_hagiwara:2011}を参考に$N_{pattern}=2,000$とし,$N_{instance}=2,000\times|S_{j}|$とした.次に候補インスタンス集合$I_{v_{c}}$に含まれるインスタンスが兄弟グループに共通の特徴を持つか否かの検証を,Algorithm~\ref{alg1}における関数\Call{Filter}{}を用いて行う~(\ref{filter_g}行目).次に$P_{v_{c}}$と関数\Call{Filter}{}の返した$I_{v_{c}}$を対象とし,g-Espressoによってインスタンスのスコアを計算する.これは関数\Call{g-Espresso}{}を用いて行う~(\ref{g_espresso}行目).関数\Call{g-Espresso}{}は要素のそれぞれがインスタンス$i$,カテゴリ$c$,スコア$s$のタプルからなるリスト$R$を返す.最後にAlgorithm~\ref{alg1}と同様に,兄弟グループのカテゴリ間での排他制約を考慮しつつ,各カテゴリについて,スコアの上位$N_{all}$個のインスタンスを獲得し~(\ref{exclusive_g}行目から~\ref{end_exclusive_g}行目),$I'_{c}$として出力する.\subsection{フィルタパターンの獲得}既に説明したように,提案手法はインスタンスが兄弟グループに共通の特徴を持っているか否かをフィルタパターンを用いて判定する.この節ではフィルタパターンの獲得方法について述べる.フィルタパターンの獲得は候補の抽出とランキングの2つのステップからなる.候補の抽出では,兄弟グループのシードインスタンスと共起しているパターンを集める.例えば,自動車と自動二輪カテゴリからなる兄弟グループに対し,自動車か自動二輪カテゴリに含まれるシードインスタンスと共起しているパターンを抽出する.フィルタパターンは兄弟グループの特定のカテゴリのインスタンスを取得するためのものではなく,兄弟グループに無関係のインスタンスを除去するためのものであるため,兄弟グループに共通の特徴をとらえていることが望ましい.しかし,インスタンスとの係り受け関係の向きや,助詞や副詞など構成する語を厳密に指定する形式にしてしまうと,正解インスタンスまで取り除いてしまう可能性もある\footnote{フィルタパターンにおいて係り受け関係の向きを指定すると,指定しないものよりも精度が悪くなる.このことは~\ref{discussion}節において,実験的に明らかにする.}.このため,フィルタパターンは係り先,係り元といった係り受け関係の向きを考慮せず,さらに名詞と動詞に限定する.すなわち,フィルタパターンはEspressoアルゴリズムやg-Espressoで用いたパターンとは異なり,「乗る」や「エンジン」,「愛車」などの,インスタンスと係り受け関係にある文節に出現する名詞や動詞とする~\footnote{実際に獲得された各兄弟グループのフィルタパターンについては,表~\ref{tab:table2}に示してある.}.候補のランキングでは,抽出された候補の中からフィルタパターンとして最適なものを選択する.兄弟グループに含まれる意味カテゴリのインスタンスが獲得されるには,フィルタパターンと共起する必要がある.そのため,兄弟グループに属するインスタンスとできるだけ多く共起するようなフィルタパターンが適している.また,フィルタパターンによって,インスタンスが兄弟グループに共通の特徴を保有しているかどうかを検証するため,兄弟グループ内のカテゴリに均等に出現するようなフィルタパターンが適している.この2つの要素をそれぞれ網羅性と平等性として定式化し,これにもとづいてフィルタパターンの選択を行う.\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f3.eps}\end{center}\caption{フィルタパターンとして望ましい性質}\label{fig:properties_filter_pattern}\end{figure}フィルタパターンは兄弟グループに属する正しいインスタンスを網羅するようなものであることが望ましい.そのため,兄弟グループ中の多くのシードインスタンスと共起しているパターンが適している.例として,自動車と自動二輪カテゴリのフィルタパターンについて考える(図~\ref{fig:properties_filter_pattern}).図~\ref{fig:properties_filter_pattern}において,パターンは斜体で表されている.また,パターンの下の四角で覆われた枠内の文字はシードインスタンスであり,特にパターンと共起しているものは太字で示してある.この図の(a)において,パターン「乗る」は「マイナーチェンジ」よりも多くのシードインスタンスと共起しているため,よりフィルタパターンに適していると考える.この要素を網羅性と呼び,$\mathit{Coverage}$という指標で測定する.ある兄弟グループ$S_{j}$に属するパターン$f$の$\mathit{Coverage}$は次の式~(\ref{recall})を用いて計算する.\begin{gather}\mathit{Coverage}(S_{j},f)=\frac{\sum_{c\inS_{j}}\sum_{i\inI_{c}}\mathit{cooccur}(f,i)}{\sum_{c\inS_{j}}|I_{c}|}\label{recall}\\\mathit{cooccur}(f,i)=\left\{\begin{array}{ll}1&\text{$i$と$f$が共起している場合}\\0&\text{それ以外}\\\end{array}\right.\end{gather}$I_{c}$はカテゴリ$c$のシードインスタンス集合であり,$|I_{c}|$はカテゴリ$c$のシードインスタンスの数である.$\mathit{cooccur}(f,i)$はインスタンス$i$がパターン$f$と共起しているか否かを表しており,共起しているなら1を,していなければ0を返す関数である.よって,$\sum_{i\inI_{c}}\mathit{cooccur}(f,i)$はカテゴリ$c$に属し,かつパターン$f$と共起しているシードインスタンスの数を表す.さらに,フィルタパターンはインスタンスが兄弟グループに共通の特徴を保有しているかどうかを検証するためのものであるため,特定のカテゴリに偏って出現しているパターンは不適当である.したがって,パターンは兄弟グループ内のカテゴリのうち,2つ以上で出現していなければならないとする.図~\ref{fig:properties_filter_pattern}の(b)において,「エンジン」というパターンは自動車と自動二輪の両方のカテゴリのインスタンスと共起しているが,「トヨタ」は自動車カテゴリのみでしか出現していない.このため「トヨタ」はフィルタパターンとしては不適当とし,候補から除去する.また,図~\ref{fig:properties_filter_pattern}の(b)では「乗る」というパターンは両方のカテゴリのインスタンスと均等に共起しているため,「エンジン」よりもフィルタパターンとして適している.この,パターンが兄弟グループ内のそれぞれのカテゴリのインスタンスと,どれだけ均等に共起するかという要素を平等性と呼ぶ.兄弟グループ内のあるカテゴリのインスタンスとパターンが共起するとき,パターンがそのカテゴリに出現したと定義すれば,平等性は兄弟グループ内での,パターンがどのカテゴリに出現するかの分散の大きさと言える.このため,平等性は情報量($\mathit{Entropy}$)を用いて測定できる.ある兄弟グループ$S_{j}$に属するパターン$f$の$Entropy$は次の式~(\ref{entropy})を用いて計算する.\begin{gather}\mathit{Entropy}(S_{j},f)=-\sum_{c\inS_{j}}P_c(f)\log_{|C|}P_c(f)\label{entropy}\\P_c(f)=\frac{\sum_{i\inI_{c}}\mathit{cooccur}(f,i)}{\sum_{c\inS_{j}}\sum_{i\inI_{c}}\mathit{cooccur}(f,i)}\end{gather}$|C|$はパターン$f$の出現しているカテゴリの数である.もしパターン$f$が兄弟グループ内のそれぞれのカテゴリのインスタンスと均等に共起したとすると,$\mathit{Entropy}(S_{j},f)$は最も高い値(1.0)となる.網羅性と平等性の両方の観点において優れているパターンを獲得するため,パターン$f$のスコアを次の式~(\ref{equ:filtering-score})を用いて計算する.\begin{equation}\mathit{Score}(S_{j},f)=\mathit{Entropy}(S_{j},f)\timesCoverage(S_{j},f)\label{equ:filtering-score}\end{equation}各兄弟グループ$S_{j}$の候補パターン$f$について$\mathit{Score}(S_{j},f)$を計算し,兄弟グループに共通の特徴を特に表していると考えられる,上位15個を兄弟グループのフィルタパターンとして獲得する.なお,兄弟グループが他の兄弟グループへ意味ドリフトしてしまうことを防ぐため,兄弟グループ間は排他関係にあるとする.そのため,複数の兄弟グループで候補となっているフィルタパターンについては,属する兄弟グループをただ1つ決めなければならない.この決定はフィルタパターンの出現頻度にもとづいて行う.すなわち,兄弟グループ内のシードインスタンスとの共起頻度の和をフィルタパターンの兄弟グループ内での出現頻度とし,これが最大である兄弟グループにのみフィルタパターンは属するとする.これにより,それぞれの兄弟グループに固有のフィルタパターンが得られる.このフィルタパターンを用いることで,兄弟グループに共通の特徴を持たない,無関係なインスタンスを除去できる. \section{実験} \subsection{実験設定}本節では集合拡張において,カテゴリ間の兄弟関係を事前知識として使用することの効果を実験的に検証する.実験ではEspressoアルゴリズム~\cite{pantel-pennacchiotti:2006:COLACL},Espressoアルゴリズムにカテゴリ間の排他制約を加えたもの(Espresso+排他制約),Espressoアルゴリズムにカテゴリ間の排他制約と兄弟関係を事前知識として加えたもの(提案手法(ベース:Espresso))のブートストラッピング手法と,g-Espressoアルゴリズム~\cite{masato_hagiwara:2011},g-Espressoアルゴリズムにカテゴリ間の排他制約と兄弟関係を事前知識として加えたもの(提案手法(ベース:g-Espresso))のグラフカーネルを用いた手法について比較を行う.グラフカーネルを用いた手法における,正則化ラプラシアンカーネルの拡散パラメータは萩原ら~\cite{masato_hagiwara:2011}と同様,$\beta=5.0\times10^{-4}$とした.ブートストラッピング手法では反復毎に,各カテゴリのインスタンスとパターンの獲得数を15個ずつ増加(すなわち$N=15$)させた.集合拡張は未知のインスタンスを取得するタスクであるため,再現率を正確に測定することは難しい.そのため,各手法の比較は,同じ数のインスタンスを取得した際の適合率を比べることによって行う.さらに,各手法の出力した正解インスタンスの集合を正解セットと考え,再現率を疑似的に計算し,比較する.なお,獲得インスタンスの正否は3人の評価者によって判定する.\ref{introduction}節で説明したように,近年では,全てのカテゴリのインスタンスを収集する需要が高まっている.このため実験では,Carlsonら~\cite{Carlson10towardan}のように,様々な種類のカテゴリを対象とする.代表的なカテゴリをまんべんなく対象とするため,関根の拡張固有表現階層のリスト\footnote{https://sites.google.com/site/extendednamedentityhierarchy/}とWikipediaを参考に,人手で41個のカテゴリを実験対象として選択した.対象カテゴリは表~\ref{tab:table2}に示した通りであり,この表に示した全てのカテゴリについて,同時に集合拡張を行う.なお,表~\ref{tab:table2}ではカテゴリを兄弟グループが同一のものでまとめてあり,兄弟グループ間は罫線によって区切られている.兄弟グループは同じ上位カテゴリを持つカテゴリの集合となるよう,Wikipediaを参考に人手で作成した.各カテゴリはただ1つの兄弟グループに属するものとし,各兄弟グループは2つ以上のカテゴリを含む.シードインスタンスについてはWikipediaから自動でインスタンスを抽出するツール~\cite{SUMIDA08.618}を利用し,各カテゴリ毎に15個ずつ用意した.なお,自動で抽出した結果には誤りも含まれているため,人手によって誤りインスタンスを除去している.実験には1億1千万の日本語ウェブページをコーパスとして用いた.ウェブページ中の文は日本語係り受け解析器であるKNP~\cite{And94knparser}を用いて係り受け構造を解析した.また,計算時間を削減するため,出現頻度が2回以下であるパターンとインスタンスは除去している.\subsection{結果}\label{discussion}\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f4.eps}\end{center}\caption{各手法における取得インスタンス数とその適合率}\label{fig:figure3}\end{figure}ブートストラッピングの反復を10回行った際の,各手法における全カテゴリでの獲得インスタンス数とその適合率を図~\ref{fig:figure3}に示す.グラフカーネルを用いた手法では,ブートストラッピングと同数のインスタンスを獲得した際の適合率を示している.また,提案手法ではフィルタパターンにおいて係り受け関係の方向を指定しないとしていたが,この効果を確認するため,フィルタパターンにおいて係り受け関係の方向を指定した手法での結果も記した.この図より,Espresso+排他制約はEspressoよりも適合率が上昇していることがわかる.Espresso+排他制約の適合率はEspressoと比べると,4,305個のインスタンスを獲得したときに最も上昇し,2.4\%高い.また,10回の反復後,すなわち6,765個のインスタンスを獲得したときには1.3\%上昇している.提案手法(ベース:Espresso)はEspresso+排他制約よりもさらに適合率が上がっており,Espressoと比べると,4,305個のインスタンスを獲得したときには4.4\%上昇し,6,765個のインスタンスを獲得したときには2.1\%上がっている.さらに,g-Espressoと提案手法(ベース:g-Espresso)を比較しても,提案手法の適合率が上昇していることがわかる.提案手法(ベース:g-Espresso)の適合率はg-Espressoと比べ,3,690個のインスタンスを獲得したときに最も上昇し,6.1\%高い.この結果から,カテゴリ間の兄弟関係についての事前知識は意味ドリフトの抑制に寄与し,集合拡張の精度を向上させることがわかる.また図~\ref{fig:figure3}より,フィルタパターンにおいて係り受け関係の方向を指定した手法では,Espressoよりも適合率が上昇するが,提案手法(フィルタパターンにおいて係り受け関係の方向を指定しない場合)よりは適合率が低いことがわかる.したがって,フィルタパターンにおいて係り受け関係の方向まで指定することは厳しすぎる制約であり,フィルタパターンを用いて兄弟グループの共通性を検証する際には,係り受け関係の方向を指定する必要はないことがわかる.小町ら~\cite{mamoru_komachi:2010}や萩原ら~\cite{masato_hagiwara:2011}はグラフカーネルを用いることにより,意味ドリフトが抑制できることを示した.しかし,図~\ref{fig:figure3}において,グラフカーネルを用いた手法であるg-Espressoの適合率はEspressoより低い.これは,~\ref{sec:g_espresso}節で説明したように,グラフカーネルを適用するパターンと候補インスタンスを制限しているためであると考えられる.例えば,ヨーロッパの国カテゴリについて,「ドイツ」というシードインスタンスから「X$\to$サッカー選手一覧」,「X$\to$キーパーは」というパターンが抽出されるため,「強豪」や「代表」のような,対象とする意味カテゴリとは無関係なインスタンスのスコアが高くなってしまう.この問題について萩原ら~\cite{masato_hagiwara:2011}は,グラフの範囲を広げることで解消できるとしたが,複数の意味カテゴリを対象にした集合拡張では,計算量を抑えるためにグラフはできるだけ小さくせねばならず,避けられない問題であると考えられる.\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f5.eps}\end{center}\caption{各手法における適合率と再現率}\label{fig:graph_pr_curve}\end{figure}再現率を疑似的に計算するため,反復を10回行った(すなわち各カテゴリで165個のインスタンスを獲得した)ときの,各手法で獲得した正解インスタンスの和集合を正解セットとして,反復毎\footnote{グラフカーネルを用いた手法では,各カテゴリでの獲得インスタンスを15個ずつ増やした}の適合率と再現率を計算した.この結果を図~\ref{fig:graph_pr_curve}に示した.図~\ref{fig:graph_pr_curve}より,提案手法(ベース:Espresso)はEspresso,Espresso+排他制約よりも性能が良く,また,提案手法(ベース:g-Espresso)はg-Espressoよりも性能が良いことがわかる.これより,提案手法は再現率を保ったまま,適合率を上昇させることが可能であると言える.\begin{table}[b]\caption{神社と寺カテゴリにおける各手法の獲得インスタンスの上位15個}\label{tab:table1}\input{09table01.txt}\end{table}適合率,再現率共に高いブートストラッピング手法に着目し,さらに詳しい分析を行う.まず,各手法における取得インスタンスの傾向を調べる.同じ兄弟グループに属する神社と寺カテゴリについて,各手法で反復を5回行った際の,獲得インスタンスのうち上位15個を表~\ref{tab:table1}に示す.なお,表~\ref{tab:table1}ではインスタンスを正解と誤りに分けて記している.表~\ref{tab:table1}によると,EspressoとEspresso+排他制約は多くの誤りインスタンスを獲得しているが,誤りの傾向には違いがある.Espressoは「八幡宮」や「太宰府天満宮」,「浅草寺」など,いくつかのインスタンスを神社と寺カテゴリの両方に属するものとしてしまっている.これに対して,Espresso+排他制約はインスタンスが複数カテゴリに所属しないように,インスタンスの属するただ1つのカテゴリを選択しており,Espressoのような誤りは発生していない.すなわち,排他制約は意味ドリフトを緩和する効果があることがわかる.しかしながら,Espresso+排他制約は寺カテゴリにおいて,「袋屋醤油店」や「あだしのまゆ村」など,対象カテゴリとは無関係のインスタンスを多く獲得してしまっている.提案手法は兄弟グループの共通性についての知識を利用することにより,このような誤りインスタンスを除去することに成功している.この結果から,兄弟関係は集合拡張に対して,有用な情報であることがわかる.\newcommand{\ThreeLine}[3]{}\begin{table}[p]\caption{反復を5回行った際の各カテゴリにおける各手法の適合率}\label{tab:table2}\input{09table02.txt}\end{table}反復を5回行った際の,各カテゴリにおける各手法の獲得インスタンスの適合率を表~\ref{tab:table2}に記す.また表~\ref{tab:table2}には提案手法の適合率の,Espressoからの上昇率も示した.さらに,それぞれの兄弟グループでのフィルタパターンのうち,上位3つをそのスコアとともに記した.表~\ref{tab:table2}より,提案手法とEspresso+排他制約は多くのカテゴリにおいてEspressoよりも適合率が上昇していることがわかる.この結果は,カテゴリ間の排他関係と兄弟関係は集合拡張の精度を向上させることを示している.しかしながら,いくつかのカテゴリにおいては適合率が下がっており,兄弟関係の知識が有効に働いていないようである.この原因は以下の2つに分類されると考えられる.\begin{enumerate}\itemフィルタパターンのスコアが低い\label{case1}\itemベースラインでの適合率が高い\label{case2}\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f6.eps}\end{center}\caption{各兄弟グループで取得したフィルタパターンのスコアの最大値と適合率の上昇率}\label{fig:figure5}\end{figure}(\ref{case1})の場合は自動車メーカーと医薬品メーカー,美術館と劇場など,兄弟グループのカテゴリすべてで適合率が下がっている.例えば,自動車メーカーと医薬品メーカーカテゴリについては,Espressoと比べ,適合率がそれぞれ14.44\%,2.22\%下がっている.この2つのカテゴリを含む兄弟グループでは,最もスコアの高いフィルタパターンでさえスコアが0.1837とかなり低い.各兄弟グループで取得したフィルタパターンのスコアの最大値と,その兄弟グループの適合率のEspressoからの上昇率を図~\ref{fig:figure5}に記した.さらに図~\ref{fig:figure5}には一次近似曲線を引き,スコアと上昇率の相関を示した.この図より,取得したフィルタパターンのスコアの最大値が低いほど上昇率が下がり,スコアが0.6以下の場合にはEspressoよりも精度が悪くなることがわかる.フィルタパターンのスコアとは,兄弟グループの共通性を表したパターンをフィルタパターンとして取得できるよう,兄弟グループのシードインスタンスを用いて計算されたものである.つまり,取得したフィルタパターンのスコアが低いということは,提案手法がフィルタパターンに必要な要素である,網羅性と平等性を持つパターンを見つけられなかったことを示唆している.網羅性と平等性を持つパターンを獲得できなかった原因は,自動車メーカーと医薬品メーカーなど共通性の少ないカテゴリを兄弟グループとしてしまったためであると考えられる.兄弟グループの選択による提案手法への影響については,今後調査していきたい.映画監督やコメディアンカテゴリは~(\ref{case2})にあてはまる.(\ref{case2})の場合,Espressoにおいて意味ドリフトは起こっていないにもかかわらず,提案手法はフィルタを適用し,正解インスタンスを削除してしまっている.言い換えれば,提案手法は誤りインスタンスよりも正解インスタンスを多く除去してしまっている.この原因としては,フィルタパターンはシードインスタンスによってのみ決定されるため,ブートストラッピングの反復中に新たに抽出したインスタンスによってもたらされる,兄弟グループの共通性を扱えていない可能性がある.これに対処するために,ブートストラッピングの反復中にフィルタパターンを更新することが必要であると考えられる.しかし,新たに獲得したインスタンスを用いてフィルタパターンを更新した場合,意味ドリフトを抑制する効果が失われてしまうことも考えられるため,更新は慎重に行わなければならない.フィルタパターンの更新方法については今後の課題である. \section{まとめ} 本論文では,ブートストラッピングにおいて,カテゴリ間の兄弟関係を事前知識として利用する手法を提案し,兄弟関係が集合拡張に対して有用な知識であることを示した.実験では,提案手法はベースラインであるEspressoアルゴリズムと比べ,適合率を最大で4.4\%向上させた.しかしながら,\ref{discussion}節において述べた通り,提案手法にはいくつかの副作用もある.この副作用の原因は,共通性の少ない兄弟グループの設計と,フィルタパターンを更新しないためであると考えられる.これらの要因への対処は今後の課題である.また,本研究ではカテゴリ間の兄弟関係がカテゴリのインスタンスを収集する際に有用な情報であることを示したが,今後は,この手法を関係インスタンスの取得に拡張していきたい.すなわち,関係(例:{\itis-president-of}や{\itis-citizen-of})間にある含意関係や因果関係を利用して,関係インスタンスを獲得する手法を構築したい.\acknowledgment本研究は,文部科学省科研費(23240018),文部科学省科研費(23700159),およびJST戦略的創造研究推進事業さきがけの一環として行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{2004}]{Abney:2004:UYA:1105596.1105600}Abney,S.\BBOP2004\BBCP.\newblock\BBOQUnderstandingtheYarowskyAlgorithm.\BBCQ\\newblock{\BemComput.Linguist.},{\Bbf30}(3),\mbox{\BPGS\365--395}.\bibitem[\protect\BCAY{Bellare,Talukdar,Kumaran,Pereira,Liberman,Mccallum,\BBA\Dredze}{Bellareet~al.}{2007}]{Bellare_lightlysupervisedattribute}Bellare,K.,Talukdar,P.~P.,Kumaran,G.,Pereira,O.,Liberman,M.,Mccallum,A.,\BBA\Dredze,M.\BBOP2007\BBCP.\newblock\BBOQLightly-SupervisedAttributeExtraction.\BBCQ\\newblockIn{\BemProceedingsoftheAdvancesinNeuralInformationProceedingSystemsWorkshoponMachineLearningforWebSearch},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Cao,Jiang,Pei,He,Liao,Chen,\BBA\Li}{Caoet~al.}{2008}]{Cao:2008:CQS:1401890.1401995}Cao,H.,Jiang,D.,Pei,J.,He,Q.,Liao,Z.,Chen,E.,\BBA\Li,H.\BBOP2008\BBCP.\newblock\BBOQContext-AwareQuerySuggestionbyMiningClick-ThroughandSessionData.\BBCQ\\newblockIn{\BemProceedingsofthe14thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\875--883}.\bibitem[\protect\BCAY{Carlson,Betteridge,Kisiel,Settles,{HruschkaJr.},\BBA\Mitchell}{Carlsonet~al.}{2010a}]{Carlson10towardan}Carlson,A.,Betteridge,J.,Kisiel,B.,Settles,B.,{HruschkaJr.},E.~R.,\BBA\Mitchell,T.~M.\BBOP2010a\BBCP.\newblock\BBOQTowardanarchitecturefornever-endinglanguagelearning.\BBCQ\\newblockIn{\BemProceedingsofthe24thAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\1306--1313}.\bibitem[\protect\BCAY{Carlson,Betteridge,Wang,{HruschkaJr.},\BBA\Mitchell}{Carlsonet~al.}{2010b}]{carlson-wsdm}Carlson,A.,Betteridge,J.,Wang,R.~C.,{HruschkaJr.},E.~R.,\BBA\Mitchell,T.~M.\BBOP2010b\BBCP.\newblock\BBOQCoupledSemi-SupervisedLearningforInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe3rdACMInternationalConferenceonWebSearchandDataMining},\mbox{\BPGS\101--110}.\bibitem[\protect\BCAY{Curran,Murphy,\BBA\Scholz}{Curranet~al.}{2007}]{Curran_minimisingsemantic}Curran,J.~R.,Murphy,T.,\BBA\Scholz,B.\BBOP2007\BBCP.\newblock\BBOQMinimisingsemanticdriftwithMutualExclusionBootstrapping.\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\172--180}.\bibitem[\protect\BCAY{Etzioni,Banko,\BBA\Cafarella}{Etzioniet~al.}{2006}]{Etzioni:06}Etzioni,O.,Banko,M.,\BBA\Cafarella,M.~J.\BBOP2006\BBCP.\newblock\BBOQMachineReading.\BBCQ\\newblockIn{\BemProceedingsofThe21stNationalConferenceonArtificialIntelligenceandtheEighteenthInnovativeApplicationsofArtificialIntelligenceConference},\mbox{\BPGS\1517--1519}.\bibitem[\protect\BCAY{萩原\JBA小川\JBA外山}{萩原\Jetal}{2011}]{masato_hagiwara:2011}萩原正人\JBA小川泰弘\JBA外山勝彦\BBOP2011\BBCP.\newblockグラフカーネルを用いた非分かち書き文からの漸次的語彙知識獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf26}(3),\mbox{\BPGS\440--450}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Hearst:1992:AAH:992133.992154}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceonComputationalLinguistics},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{小町\JBA工藤\JBA新保\JBA松本}{小町\Jetal}{2010}]{mamoru_komachi:2010}小町守\JBA工藤拓\JBA新保仁\JBA松本裕治\BBOP2010\BBCP.\newblockEspresso型ブートストラッピング法における意味ドリフトのグラフ理論に基づく分析.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\233--242}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{And94knparser}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQKNParser:JapaneseDependency/CaseStructureAnalyzer.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\48--55}.\bibitem[\protect\BCAY{Mintz,Bills,Snow,\BBA\Jurafsky}{Mintzet~al.}{2009}]{Mintz:2009:DSR:1690219.1690287}Mintz,M.,Bills,S.,Snow,R.,\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQDistantsupervisionforrelationextractionwithoutlabeleddata.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\1003--1011}.\bibitem[\protect\BCAY{Pantel,Crestan,Borkovsky,Popescu,\BBA\Vyas}{Pantelet~al.}{2009}]{Pantel:2009:WDS:1699571.1699635}Pantel,P.,Crestan,E.,Borkovsky,A.,Popescu,A.-M.,\BBA\Vyas,V.\BBOP2009\BBCP.\newblock\BBOQWeb-scaledistributionalsimilarityandentitysetexpansion.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\938--947}.\bibitem[\protect\BCAY{Pantel\BBA\Lin}{Pantel\BBA\Lin}{2002}]{Pantel:2002:DWS:775047.775138}Pantel,P.\BBACOMMA\\BBA\Lin,D.\BBOP2002\BBCP.\newblock\BBOQDiscoveringwordsensesfromtext.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\613--619}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel-pennacchiotti:2006:COLACL}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel04}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsofthe2004HumanLanguageTechnologyConferenceoftheNorthAmericanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pennacchiotti\BBA\Pantel}{Pennacchiotti\BBA\Pantel}{2011}]{Pennacchiotti:2011:ABT:2018936.2018955}Pennacchiotti,M.\BBACOMMA\\BBA\Pantel,P.\BBOP2011\BBCP.\newblock\BBOQAutomaticallyBuildingTrainingExamplesforEntityExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\163--171}.\bibitem[\protect\BCAY{Sadamitsu,Saito,Imamura,\BBA\Kikui}{Sadamitsuet~al.}{2011}]{Sadamitsu:2011:ESE:2002736.2002876}Sadamitsu,K.,Saito,K.,Imamura,K.,\BBA\Kikui,G.\BBOP2011\BBCP.\newblock\BBOQEntitySetExpansionusingTopicinformation.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\726--731}.\bibitem[\protect\BCAY{Sadamitsu,Saito,Imamura,\BBA\Matsuo}{Sadamitsuet~al.}{2012}]{Sadamitsu:2012:PACLIC26}Sadamitsu,K.,Saito,K.,Imamura,K.,\BBA\Matsuo,Y.\BBOP2012\BBCP.\newblock\BBOQEntitySetExpansionusingInteractiveTopicInformation.\BBCQ\\newblockIn{\BemProceedingsofthe26thPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\114--122}.\bibitem[\protect\BCAY{Smola\BBA\Kondor}{Smola\BBA\Kondor}{2003}]{b155}Smola,A.~J.\BBACOMMA\\BBA\Kondor,R.\BBOP2003\BBCP.\newblock\BBOQKernelsandRegularizationonGraphs.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonLearningTheoryandKernelMachines},\mbox{\BPGS\144--158}.\bibitem[\protect\BCAY{Sumida,Yoshinaga,\BBA\Torisawa}{Sumidaet~al.}{2008}]{SUMIDA08.618}Sumida,A.,Yoshinaga,N.,\BBA\Torisawa,K.\BBOP2008\BBCP.\newblock\BBOQBoostingPrecisionandRecallofHyponymyRelationAcquisitionfromHierarchicalLayoutsinWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2462--2469}.\bibitem[\protect\BCAY{Vyas\BBA\Pantel}{Vyas\BBA\Pantel}{2009}]{Vyas:2009:SES:1620754.1620796}Vyas,V.\BBACOMMA\\BBA\Pantel,P.\BBOP2009\BBCP.\newblock\BBOQSemi-AutomaticEntitySetRefinement.\BBCQ\\newblockIn{\BemProceedingsofthe2009HumanLanguageTechnologiesConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\290--298}.\bibitem[\protect\BCAY{Vyas,Pantel,\BBA\Crestan}{Vyaset~al.}{2009}]{Vyas:2009:HEC:1645953.1645984}Vyas,V.,Pantel,P.,\BBA\Crestan,E.\BBOP2009\BBCP.\newblock\BBOQHelpingEditorsChooseBetterSeedSetsforEntitySetExpansion.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\225--234}.\bibitem[\protect\BCAY{Wang\BBA\Cohen}{Wang\BBA\Cohen}{2009}]{Wang:2009:ASI:1687878.1687941}Wang,R.~C.\BBACOMMA\\BBA\Cohen,W.~W.\BBOP2009\BBCP.\newblock\BBOQAutomaticSetInstanceExtractionusingtheWeb.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\441--449}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky95unsupervisedword}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{高瀬翔}{2012年東北大学工学部情報知能システム総合学科卒業.同年,同大学大学院情報科学研究科博士前期課程に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
V10N05-04
\section{はじめに} \label{sec:intro}1980年代に市販され始めた機械翻訳システムはその後改良が重ねられ,システムの翻訳品質は確実に向上してきている.しかし,現状のシステムには解決すべき課題が数多く残されており,高品質の翻訳が可能なシステムは未だ実現されていない.翻訳品質を高めるためにシステムを評価改良していく方法としては,(1)システムの新バージョンによる訳文と旧バージョンによる訳文との比較や,異なるシステム間での比較によって行なう方法\cite{Niessen00,Darwin01}と,(2)システムによる訳文と人間による訳文を比較することによって行なう方法\cite{Sugaya01,Papineni02}がある.前者の方法では,システムによる翻訳(以降,MT訳と呼ぶ)と人間による翻訳(人間訳)を比較することによって初めて明らかになる課題が見逃されてしまう恐れがある.これに対して,後者の方法では,MT訳と人間訳の間にどのような違いがあるのかを発見し,その違いを埋めていくために取り組むべき課題を明らかにすることができる.このように,MT訳と人間訳の比較によるシステムの評価改良は有用な方法である.しかしながら,MT訳と人間訳の違いを明らかにするために両者の比較分析を計量的に行なった研究は,従来あまり見られない.ところで,人間によって書かれた文章間の比較分析は,文体論研究の分野において以前から行なわれてきている\cite{Yamaguchi79}.文体論研究の目的は,比較対象の文章の個別的あるいは類型的特徴を明らかにすることにある.文体論研究は,文章に対する直観的な印象を重視する立場と,文章が持つ客観的なデータ(文長や品詞比率など)を主に扱う計量的立場\cite{Hatano65}に分けることができる.また,別の観点からは,言語表現の特徴を作家の性格や世界観に結び付けて扱う心理学的文体論と,言語表現の特徴を記述するに留める語学的文体論\cite{Kabashima63}に分けられる.計量的・語学的文体論に分類される研究のうち,同一情報源に基づく内容を伝える文章を比較対象とした研究として,文献\cite{Horikawa79,Hasumi91}などがある.堀川は,四コマ漫画の内容を説明する文章を童話作家,小説家,学者に書いてもらい,それらの違いを分析している.蓮見は,古典の源氏物語を複数の翻訳者が現代語に翻訳した文章において,文数,文長,品詞比率などを比較分析している.本研究では,英日機械翻訳システムの翻訳品質の向上を目指し,その第一歩として,英文ニュース記事に対する人間訳とMT訳を比較し,それらの違いを計量的に分析する.人間訳とMT訳の違いは多岐にわたるため様々な観点から分析を行なう必要があるが,本稿では,英文一文に対する訳文の数,訳文の長さ,文節レベルの現象について量的な傾向を明らかにする.なお,特にMT訳には誤訳の問題があるが,本研究は,訳文の意味内容ではなく訳文の表現形式について分析するものである.すなわち,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳の分かりにくさ,不自然さの原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくことが本研究の目的である.以下,\ref{sec:method}\,節で人間訳とMT訳の比較分析方法について述べ,\ref{sec:result}\,節で分析結果を示し,考察を加える.最後に\ref{sec:conc}\,節で今回の比較分析で明らかになった点をまとめる. \section{調査方法} \label{sec:method}\subsection{調査対象とした標本}\label{sec:method:corpus}コーパスとしてBilingualNetNews\footnote{http://www.bnn-japan.com/}の英文ニュース記事を使用し,2001年5月26日から2002年1月15日までの記事を構成する英文5592文を母集団とした.これらの英文にはあらかじめ人間訳が与えられている.この母集団から乱数によって500文を単純無作為抽出した.この500文を市販されている代表的な機械翻訳システムの一つで翻訳し,入力文全体を覆う構文構造が得られなかった文と,一文の認識に失敗した文\footnote{例えば,`BushbacksthemorecomprehensivebansponsoredbyRep.DavidWeldon(R)ofFlorida.'という文は,`Rep.'のところで一つの文が完結し,`David'のところから新たな文が始まると認識されてしまう.},合わせて24文を除いた476文を標本とした.これらの英文476文の文長の平均値は,11.5であり,標準偏差は6.2であった.文長の計測は,冠詞や前置詞などの機能語と,ピリオドや引用符などの記号を除き,内容語の数で行なった.また,訳文の数を地の文の句点の数で数えた場合,英文476文に対する訳文数は,人間訳では559文であり,MT訳では519文であった.\subsection{形態素解析と文節解析}\label{sec:method:parse}人間訳とMT訳の各文に対して,形態素解析と文節解析を行なった.これらの処理には,形態素解析システム茶筅\footnote{http://chasen.aist-nara.ac.jp/chasen/}と係り受け解析システム南瓜\footnote{http://cl.aist-nara.ac.jp/\symbol{126}taku-ku/software/cabocha/}をデフォルトの状態で利用した.\subsection{解析結果の変更}\label{sec:method:modify}茶筅と南瓜による解析結果に対して,必要な変更を人手で加えた.品詞タグ付け誤りの修正以外の主な変更点は次の通りである.なお,変更前の文節区切りを記号`$|$'で,変更後の文節区切りを記号`/'で表わす.また,茶筅での品詞タグを二重引用符で括って示す.\begin{enumerate}\item``未知語''は名詞に変更する.\item南瓜による解析では``名詞-非自立''が自立語として扱われている場合がある(「難色を$|$示した$|$ため」など)が,これを付属語とみなす(「難色を/示したため」).\item「する」,「できる」が``名詞-サ変接続''と結合しているとき,全体をサ変動詞とする.\item「だ」,「である」,「です」が``名詞-形容動詞語幹''と結合しているとき,全体を形容動詞とする.\item「だ」,「である」,「です」が``名詞-形容動詞語幹''以外の名詞と結合して述語を構成しているとき,これらを判定詞とする.\item「に$|$よる」,「に$|$基づく」などは,原則として,全体を助詞とみなす.\item``記号''は,原則として,``接頭詞''または付属語と同様に扱う.\end{enumerate}\subsection{調査分析項目}\label{sec:method:items-checked}まず,概略的な調査として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数について人間訳とMT訳を比較する.これらの調査は,人間訳とMT訳の複雑さに違いがあるかを明らかにするためのものである.次に,体言と用言の分布に人間訳とMT訳で違いがあるかを調査する.この調査の目的は,名詞を中心として展開していく英語の構造が人間訳とMT訳でそれぞれどのように訳されているかを明らかにすることにある.なお,本稿では,動詞,形容詞,形容動詞の他に判定詞も用言とみなす.さらに,動詞,名詞,代名詞について若干詳細な比較分析を行なう.これらの品詞に着目したのは,動詞と名詞(代名詞)は,出現比率が高く,これらを適切に処理することが特に重要な課題になっているからである. \section{結果と考察} \label{sec:result}\subsection{英文一文に対する訳文数}\label{sec:result:num-of-sent}自然な翻訳では,英文一文が訳文一文に対応しているとは限らず,複数の文に分けて訳されることも少なくない.そこで,まず,人間訳とMT訳それぞれにおいて訳文数が$n$文である英文の数を$n$毎に集計した.その結果を表\ref{tab:ej-sent-num}\,に示す.表\ref{tab:ej-sent-num}\,において,上段が頻度,下段が比率である.\begin{table}[htbp]\caption{訳文数が$n$文である英文の数}\label{tab:ej-sent-num}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline$n$&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{2}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{4}\\\hline\hline&403&64&8&1\\\raisebox{1.5ex}[0pt]{人間訳}&84.7\,\%&13.4\,\%&1.7\,\%&0.2\,\%\\\hline&433&43&0&0\\\raisebox{1.5ex}[0pt]{MT訳}&91.0\,\%&9.0\,\%&0.0\,\%&0.0\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-num}\,を見ると,人間訳では英文一文が三文以上に分けて訳されていることもあるのに対して,MT訳では高々二文にしか分割されていない\footnote{MT訳での文の分割は,機械翻訳システムが正常に動作した結果である.\ref{sec:method:corpus}\,節で述べたように,入力文全体を覆う構文構造が得られないために分割された文は標本に含まれていない.}.また,MT訳では,英文一文が二文に訳されることは比較的少なく,一文に訳されることが多い.人間訳とMT訳における訳文数の分布の差は,有意水準5\,\%で統計的に有意である.これらのことから,MT訳には,人間訳に比べて,複数の文に分割されにくい傾向があると言える.表\ref{tab:ej-sent-num}\,から,英文一文に対する訳文数の分布に人間訳とMT訳とで差があることが分かったが,さらに詳細な分析を行なうために,人間訳での訳文数$n\,(n=1,2,3,4)$とMT訳での訳文数$m\,(m=1,2)$との対応関係を調査した.その結果を表\ref{tab:ej-sent-num-hum-mt}\,に示す.\begin{table}[htbp]\caption{人間訳とMT訳の訳文数の対応}\label{tab:ej-sent-num-hum-mt}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hlineMT訳($m$)$\backslash$人間訳($n$)&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{2}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{4}\\\hline\hline&371&55&7&0\\\raisebox{1.5ex}[0pt]{1}&77.9\,\%&11.6\,\%&1.5\,\%&0.0\,\%\\\hline&32&9&1&1\\\raisebox{1.5ex}[0pt]{2}&6.7\,\%&1.9\,\%&0.2\,\%&0.2\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-num-hum-mt}\,によれば,全体的な傾向として,人間訳とMT訳とで訳文数が等しい場合が380件(79.8\,\%)あり,人間訳とMT訳とで訳文数が異なる場合が96件(20.2\,\%)ある.表\ref{tab:ej-sent-num-hum-mt}\,では,英文一文が人間訳では一文に訳されているのに対してMT訳では二文に分けて訳されている場合が32件ある.この32件について,英文のどのような表現のところで分割されているかを調べた.その結果を表\ref{tab:ej-sent-div-mt}\,に示す.\begin{table}[htbp]\caption{MT訳のみでの訳文分割箇所}\label{tab:ej-sent-div-mt}\begin{center}\begin{tabular}{|l|r@{}r|}\hline\multicolumn{1}{|c|}{分割箇所}&\multicolumn{2}{c|}{頻度}\\\hline\hline従属接続詞(名詞節)&14&(43.8\,\%)\\等位接続詞&9&(28.1\,\%)\\従属接続詞(副詞節)&6&(18.8\,\%)\\現在分詞&1&(3.1\,\%)\\関係副詞&1&(3.1\,\%)\\コロン&1&(3.1\,\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-div-mt}\,を見ると,分割が生じる表現のほとんどは,名詞節を導く従属接続詞(`that'など),等位接続詞(`and'など),副詞節を導く従属接続詞(`because'など)で占められている.なお,名詞節を導く従属接続詞の集計には,従属接続詞が省略されている場合も含めている.逆に,英文一文が人間訳では二文に分けて訳されているのに対してMT訳では一文に訳されている55件について,英文のどのような表現のところで分割されているかを調べた結果を表\ref{tab:ej-sent-div-hum}\,に示す.\begin{table}[htbp]\caption{人間訳のみでの訳文分割箇所}\label{tab:ej-sent-div-hum}\begin{center}\begin{tabular}{|l|r@{}r|}\hline\multicolumn{1}{|c|}{分割箇所}&\multicolumn{2}{c|}{頻度}\\\hline\hline関係代名詞&14&(25.5\,\%)\\前置詞&10&(18.2\,\%)\\等位接続詞&7&(12.7\,\%)\\従属接続詞(副詞節)&7&(12.7\,\%)\\現在分詞&6&(10.9\,\%)\\従属接続詞(名詞節)&4&(7.3\,\%)\\to不定詞&2&(3.6\,\%)\\関係副詞&2&(3.6\,\%)\\その他&3&(5.5\,\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-div-hum}\,を見ると,MT訳に見られない分割箇所として関係代名詞や前置詞が目立つ.次の文(H\ref{SENT:ej-sent-div-rel})のように,文を関係代名詞のところで二分割し,それらの間を同一名詞の繰り返しによってつなぐ手法は,よく知られている英日翻訳技法の一つである\cite{Anzai82,Kondo92,Kamei94}.なお,本稿では,英文,人間訳,MT訳をそれぞれ(E\ref{SENT:ej-sent-div-rel}),(H\ref{SENT:ej-sent-div-rel}),(M\ref{SENT:ej-sent-div-rel})のように参照する.英文と人間訳はすべてBilingualNetNewsからの引用である.記事の掲載年月日を英文の後ろに示す.\begin{SENT2}\sentEHouseandSenatenegotiatorsquicklybeganhammeringoutafinalcompromise,{\itwhich}RepublicanshopedtopresentforBush'ssignatureassoonastoday.[2001年5月26日]\sentH下院と上院の交渉者たちはすぐに最終的な{\bf妥協案}を成立させることにとりかかった.共和党は今日にも{\bf妥協案}をまとめて提出しブッシュの署名を得たいと望んでいる.\sentM下院,そして,上院交渉者は,迅速に最終の妥協(共和党員がブッシュのサインのために今日と同じくらいすぐに提示することを望んだ)を打ち出し始めた.\label{SENT:ej-sent-div-rel}\end{SENT2}表\ref{tab:ej-sent-div-hum}\,は,このような手法が調査対象のシステムに取り入れられていないことを示している.関係節を伴う名詞句を機械翻訳システムにおいて適切に処理するための自動前編集手法が文献\cite{KatoTerumasa97,Saraki01}などで報告されていたり,今回の調査に用いたシステムとは異なる別の市販システムでは関係代名詞が先行詞に置き換えられることがあったりするが,人間が行なう関係節の翻訳は,柔軟性に富み,かつ,様々な工夫がなされているため,関係節に関する翻訳規則をより高度化していく必要がある.人間訳では,前置詞のところで文を単に分割するだけでなく,自然な翻訳になるように工夫が施されている.その一つは,前置詞句が一つの完全な文になるように翻訳されている点である\cite{Nakamura82}.例えば次の文(H\ref{SENT:ej-sent-div-prep})では,「のものである」が補われている.また別の工夫として,二つの文を滑らかにつなぐために,「これは」という照応表現が補われている.\begin{SENT2}\sentEInanepictennismatch,PeteSamprasedgedAndreAgassitoreachtheUSOpensemi-finals{\itafter}adramaticconfrontationinwhichneitherlegendlostaservicegame.[2001年9月8日]\sentH叙事詩のようにすごいテニスの戦いで,ピート・サンプラスはアンドレ・アガシに競り勝ち,全米オープン準決勝に進んだ.{\bfこれは,}どちらの伝説的選手もサービスゲームを落とさないという,劇的な対決の末{\bfのものである}.\sentM叙事詩のテニスの試合において,ピート・サンプラスは,劇的な直面(伝説のいずれもサービスゲームに負けなかった)の後で全米オープン準決勝に達するために,アンドレ・アガシを研いだ.\label{SENT:ej-sent-div-prep}\end{SENT2}\subsection{訳文の長さ}\label{sec:result:sent-len}文の長さは,文章の類型設定に関する心理学的研究\cite{Hatano65}や,文章の難易度の測定\cite{Morioka88},手書き文章とワープロ書き文章の比較分析\cite{Jim93}など様々な研究において,比較尺度として用いられている.本節では,文長を,訳文の複雑さを近似的に測るための尺度の一つとして用いる.日本語の文の長さを測る単位としては,文字,単語,文節などが考えられるが,ここでは文節数(自立語数)を計測単位とする.人間訳とMT訳それぞれにおける文長の度数分布表を表\ref{tab:sent-length-hum}\,と表\ref{tab:sent-length-mt}\,に示す.表\ref{tab:sent-length-hum}\,と表\ref{tab:sent-length-mt}\,の累積比率を比べると,人間訳では文長14までの文が全体の85.8\,\%を占めるのに対して,MT訳では73.8\,\%しかないことなどから,人間訳よりMT訳のほうが長い文が多いと言える.Wilcoxonの順位和検定の結果,人間訳とMT訳の文長の分布の間には有意水準5\,\%で有意差が認められた.\begin{table}[htbp]\caption{人間訳における文長の分布}\label{tab:sent-length-hum}\begin{center}\begin{tabular}{|r||r|r|r|r|}\hline\multicolumn{1}{|c||}{文長}&\multicolumn{1}{c|}{度数}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{累積度数}&\multicolumn{1}{c|}{累積比率}\\\hline\hline1〜2&47&8.4\,\%&47&8.4\,\%\\3〜4&65&11.6\,\%&112&20.0\,\%\\5〜6&62&11.1\,\%&174&31.1\,\%\\7〜8&89&15.9\,\%&263&47.0\,\%\\9〜10&82&14.7\,\%&345&61.7\,\%\\11〜12&81&14.5\,\%&426&76.2\,\%\\13〜14&57&10.2\,\%&483&86.4\,\%\\15〜16&31&5.6\,\%&514&92.0\,\%\\17〜18&22&3.9\,\%&536&95.9\,\%\\19〜20&12&2.2\,\%&548&98.1\,\%\\21〜22&3&0.5\,\%&551&98.6\,\%\\23〜24&3&0.5\,\%&554&99.1\,\%\\25〜26&4&0.7\,\%&558&99.8\,\%\\27〜28&1&0.2\,\%&559&100.0\,\%\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{MT訳における文長の分布}\label{tab:sent-length-mt}\begin{center}\begin{tabular}{|r||r|r|r|r|}\hline\multicolumn{1}{|c||}{文長}&\multicolumn{1}{c|}{度数}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{累積度数}&\multicolumn{1}{c|}{累積比率}\\\hline\hline1〜2&47&9.0\,\%&47&9.0\,\%\\3〜4&56&10.8\,\%&103&19.8\,\%\\5〜6&60&11.5\,\%&163&31.3\,\%\\7〜8&57&11.0\,\%&220&42.3\,\%\\9〜10&46&8.9\,\%&266&51.2\,\%\\11〜12&68&13.1\,\%&334&64.3\,\%\\13〜14&51&9.8\,\%&385&74.1\,\%\\15〜16&50&9.6\,\%&435&83.7\,\%\\17〜18&32&6.2\,\%&467&89.9\,\%\\19〜20&27&5.2\,\%&494&95.1\,\%\\21〜22&11&2.1\,\%&505&97.2\,\%\\23〜24&4&0.8\,\%&509&98.0\,\%\\25〜26&6&1.2\,\%&515&99.2\,\%\\27〜28&4&0.8\,\%&519&100.0\,\%\\\hline\end{tabular}\end{center}\end{table}文長の平均値は人間訳で9.25,MT訳で10.42,標準偏差は人間訳で4.94,MT訳で5.95と,平均値,標準偏差ともMT訳のほうが若干大きい.MT訳での文長の最頻値は階級では11〜12であるが,観測値では2である.MT訳での最頻値が2となるのは,次の文(M\ref{SENT:ej-sent-div-say})のように,伝達文の主節だけを独立した文として訳している場合が多いためである.\begin{SENT2}\sentEHastertsaidbothsidesaretryingtostrikeacompromise.[2001年7月28日]\sentHハスタートは,両党とも妥協を試みていると語っている.\sentMHastertは言った.両側は,妥協を打とうとしていると.\label{SENT:ej-sent-div-say}\end{SENT2}\subsection{連体修飾節の数}\label{sec:result:rentai}文の長さは文の複雑さを測る尺度の一つとなりえるが,それだけでは十分な近似ではない.例えば次の二つの文は文長(文節数)は等しいが,文構造としては連体修飾節を含む文(J\ref{SENT:renyo-rentai}')のほうが複雑である\footnote{連体修飾節は,複雑な文を簡単な文に書き換える際の書き換え対象候補の一つとなっている\cite{Nogami00}が,これは,連体修飾節を含む文(J\ref{SENT:renyo-rentai}')のような文が複雑になる傾向があるからであろう.}.\begin{JSENT}\sentJシングテルは政府所有の会社で,経営を世界規模に広げて業界大手になることを目指している.\sentJJシングテルは,経営を世界規模に広げて業界大手になることを目指している政府所有の会社である.\label{SENT:renyo-rentai}\end{JSENT}文(J\ref{SENT:renyo-rentai})のような文のほうが読み手の負担が軽いことに関して文献\cite{Yanabu79}では次のように述べられている.\begin{quote}読者は,動詞が現れたところで,だいじな意味を語ることばが分り,思考の流れはひと区切りつくのである.ひと区切りついた部分は一応前ヘ預けておいて,その先へ読み進んで行ける.文は,全体としては長いが,読者の頭脳には,この文の長さは決して過重な負担とはならないのである.\end{quote}意味的に一区切りつけることができるのは,用言(動詞,形容詞,形容動詞,判定詞)の連用形が現れるところである.文(J\ref{SENT:renyo-rentai})の場合,判定詞「だ」の連用形「で」のところで意味的なまとまりを認識することができる.これに対して,文(J\ref{SENT:renyo-rentai}')における「目指している」のように用言の連体形が現れるところでは,意味的な区切りをつけることができない.そこで,人間訳とMT訳とで用言の連用形と連体形の分布に差があるかどうかを調べた.茶筅の活用形の分類では,終止形と連体形が区別されず,これらの代わりに``基本形''という一つのタグが与えられている.このため,``基本形''を含む文節において次の三つの条件のうちいずれかが成り立つ場合に,``基本形''を連体形とみなし,それ以外の場合には終止形とみなすことにした.\begin{enumerate}\item\label{enum:katsuyo:matsubi}``基本形''が文節末尾の形態素である.\item\label{enum:katsuyo:keishiki}``基本形''に``名詞-非自立''が後続する.\item\label{enum:katsuyo:toten}``基本形''に``記号-読点''が後続し,その``記号-読点''が文節末尾の形態素である.\end{enumerate}表\ref{tab:yogen-katsuyo}\,に集計結果を示す.連用形と連体形の分布に差があるかどうかを$\chi^2$検定したところ,有意水準5\,\%で差があると認められた.\begin{table}[htbp]\caption{用言の連用形と連体形の分布}\label{tab:yogen-katsuyo}\begin{center}\begin{tabular}{|c||r|r|}\hline活用形&\multicolumn{1}{|c}{連用形}&\multicolumn{1}{|c|}{連体形}\\\hline\hline&190&576\\\raisebox{1.5ex}[0pt]{人間訳}&24.8\,\%&75.2\,\%\\\hline&146&626\\\raisebox{1.5ex}[0pt]{MT訳}&18.9\,\%&81.1\,\%\\\hline\end{tabular}\end{center}\end{table}連用形は人間訳でより多く,連体形はMT訳でより多く出現する.このことから,MT訳のほうが人間訳よりも複雑な文構造をした文が多い可能性が示唆される.連体形の数が,長く複雑な連体修飾節の数に直接結びつくわけではないが,ある程度の傾向を知ることはできる.より正確な傾向を把握するためには,文中において係り先が未だ決まっていない文節数を数える\cite{Murata99}などの構文的なレベルでの検証が必要である.\subsection{体言と用言の分布}\label{sec:result:pos-ratio}英語は名詞を中心として展開していく構造であるのに対して,日本語は用言を中心として展開していく構造である\cite{Yanabu79}.従って,人間による自然な翻訳では,英語の名詞中心の構造は,日本語の用言中心の構造に変換されていると考えられる.他方,英語の名詞的表現を日本語の動詞的表現に変換することは現状の機械翻訳システムでは容易ではなく,一般的な方法は実現されていない\footnote{この問題に取り組んだ研究として,文献\cite{Yoshimi01b}などがある.}.このため,体言の出現比率はMT訳のほうが高くなると予想される.この点を確認するために,体言(代名詞を含む名詞)と用言(動詞,形容詞,形容動詞,判定詞)の分布を求めた.その結果を表\ref{tab:pos-total}\,に示す.表\ref{tab:pos-total}\,を見ると,体言の比率はMT訳のほうが若干高いが,統計的には人間訳とMT訳で体言と用言の分布に有意差は認められない(有意水準5\,\%).\begin{table}[htbp]\caption{体言と用言の分布}\label{tab:pos-total}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{1}{|c}{体言}&\multicolumn{1}{|c|}{用言}\\\hline\hline&3441&1238\\\raisebox{1.5ex}[0pt]{人間訳}&73.5\,\%&26.5\,\%\\\hline&3513&1191\\\raisebox{1.5ex}[0pt]{MT訳}&74.7\,\%&25.3\,\%\\\hline\end{tabular}\end{center}\end{table}以下,\ref{sec:result:verb}\,節と\ref{sec:result:noun}\,節で動詞と名詞についてそれぞれ分析する.\subsection{動詞に関する分析}\label{sec:result:verb}\begin{table}[htbp]\caption{出現頻度5以上の動詞の一覧}\label{tab:hifreq-verb}\begin{center}\begin{tabular}{|r|p{0.35\textwidth}||r|p{0.35\textwidth}|}\hline\multicolumn{2}{|c||}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline\multicolumn{1}{|c}{頻度}&\multicolumn{1}{|c||}{訳語(基本形)}&\multicolumn{1}{c}{頻度}&\multicolumn{1}{|c|}{訳語(基本形)}\\\hline74&なる*&51&言う(*)\\55&する*&34&する*\\38&ある*&18&ある*\\32&述べる*&15&発表する*\\24&発表する*&13&持つ*\\20&行う*&12&示す*,なる*\\13&受ける&&\\11&いる*,語る&11&拒絶する\\10&求める*,見る*,開く&10&獲得する,望む\\9&考える*&9&先導する,与える*,使う,考える*\\8&主張する,持つ*,出す&8&予測する,見る*,述べる*,行う*,分かる,思う*\\7&非難する,起きる,示す*&7&報告する,カットする,増加する*,もたらす,求める*\\6&かける,みる,いう(*),得る,向ける&6&独立する,告発する,確認する,提案する,置く,できる,戻る,含む*,殺す,いる*\\5&開始する,死亡する,殺害する,警告する,調査する,拒否する,減少する,予定する,実現する,増加する*,行なう(*),含む*,支払う,思う*,なす,出る,認める,報じる,与える*&5&保持する,宣告する,所有する,サポートする,支持する,提供する,終える,会う,告げる\\\hline\end{tabular}\end{center}\end{table}出現頻度が5以上の動詞の基本形の一覧を表\ref{tab:hifreq-verb}\,に示す.記号`*'が付いている語は,人間訳でもMT訳でも頻度5以上で出現するものである.また,例えば「言う」と「いう」のように記号`(*)'が付いている語は,それらを異綴りとみなせば,人間訳でもMT訳でも頻度5以上で出現する語である.表\ref{tab:hifreq-verb}\,から次のような特徴が読み取れる.\begin{enumerate}\item\label{enumerate:suru-naru}「なる」は人間訳にもMT訳にも現れるが,出現頻度が人間訳では74と高いのに対して,MT訳では12と比較的低い.\item\label{enumerate:say}「言う」の出現頻度がMT訳では51と高いのに対して,人間訳では6と低い.\item\label{enumerate:func-verb}人間訳では,「行(な)う」,「受ける」,「出す」,「かける」などの機能動詞\cite{Muraki91}が多い.\end{enumerate}\subsubsection{「する」的表現と「なる」的表現}よく知られているように,英語では行為者が対象に能動的に働きかけるという捉え方がされる傾向が強いのに対して,日本語では物事が自然にある状態になるという表現が好まれる\cite{Ikegami81,Anzai83}.上記の特徴(\ref{enumerate:suru-naru})は,このような英語と日本語の言語的慣習の違いに現状の機械翻訳システムが対処できていないことを示唆している.例えば,次の文(H\ref{SENT:suru-naru})では,「法律によって政府は$\cdots$提出できるようになる」という表現がなされている.これに対して,文(M\ref{SENT:suru-naru})では,英語表現と同様に,行為者「規則」が対象「政府」に働きかけるという表現になっている.\begin{SENT2}\sentERulesforsuchacourtalsogivethegovernmentafreerhandtointroduceevidence.[2001年11月16日]\sentHさらに,このような裁判所で適応される法律によって,政府は,証拠をより自由に提出できるようになる.\sentM同じくそのような法廷のための規則は,証拠を提出するために,政府に更に自由な援助を行う.\label{SENT:suru-naru}\end{SENT2}なお,表\ref{tab:hifreq-verb}\,の集計では「する」が自動詞か他動詞かの区別や能動態か受動態かの区別をしていないが,「する」的表現と「なる」的表現の量的な違いを厳密に把握するためにはこれらの区別を考慮する必要がある.\subsubsection{`say'の訳し分け}MT訳で「言う」と訳されているのは`say'である.「言う」の出現頻度が人間訳で低いのは,`say'が「述べる」や「語る」,「発表する」などに訳し分けられているためである.調査対象がニュース記事であるため記者会見での発言が多いが,このような発言では,`say'を「言う」と訳すより,「述べる」などと訳したほうが適切であることによるものであろう.\subsubsection{機能動詞表現}機能動詞表現は,例えば「注目を集める」のように,表現全体の実質的意味のほとんどを担う名詞と,文法的な機能を果たすだけで動詞本来の意味を持たない動詞とから構成される表現である\cite{Muraki91}.機能動詞は同一表現の繰り返しを避けたい場合や受動態にすると不自然になる場合などに用いられ,これによって表現の豊富さや自然さがもたらされる.例えば,次の文(H\ref{SENT:func-verb-treat})で用いられれている機能動詞表現「治療を受ける」と,文(M\ref{SENT:func-verb-treat})で用いられれている受動態「治療される」を比べると,後者には不自然さが感じられる.\begin{SENT2}\sentEThousandsofpostalandCapitolworkers{\itwerebeingtreated}withantibioticsasaprecaution.[2001年10月19日]\sentH数千の郵便や議事堂の労働者は,予防として抗生物質での{\bf治療を受けている}.\sentM何千もの郵便の,そして,国会議事堂労働者は,事前対策として抗生物質で{\bf治療されつつあった}.\label{SENT:func-verb-treat}\end{SENT2}この点を確認するために,ウェブ検索エンジンGoogleとAltaVistaを用いて,ウェブ文書における「治療され」の出現頻度と「治療を受け」の出現頻度を比較したところ,前者の出現頻度がGoogleで1210,AltaVistaで3859であるのに対して,後者の出現頻度はGoogleで21900,AltaVistaで34374であった\footnote{これは2002年8月23日の検索結果である.}.「治療を受ける」において,助詞「を」は「も」,「は」,「さえ」など他の助詞との交替が可能であり,さらに,名詞と機能動詞の間に他の語句の挿入が可能であるが,このような交替や挿入が生じた表現は検索の対象としていないので,これらを考慮した場合の出現頻度はさらに高くなる.このことから,「治療される」は「治療を受ける」に比べて用いられにくい表現であると言えそうである.\newpage\subsection{名詞に関する分析}\label{sec:result:noun}\begin{table}[htbp]\caption{出現頻度5以上の名詞の一覧}\label{tab:hifreq-noun}\begin{center}\begin{tabular}{|r|p{0.35\textwidth}||r|p{0.35\textwidth}|}\hline\multicolumn{2}{|c||}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline\multicolumn{1}{|c}{頻度}&\multicolumn{1}{|c||}{訳語}&\multicolumn{1}{c}{頻度}&\multicolumn{1}{|c|}{訳語}\\\hline&&69&彼*\\&&65&それら\\21&アメリカ(*)&53&米国*\\16&彼*&40&それ*\\15&ブッシュ大統領*&17&他*,状態,政府*,会社\\14&これ&16&イスラエル*\\13&政府*&14&攻撃,人々*\\11&予定*,大統領&11&アフガニスタン*,最初*,日本*,パレスチナ\\10&それ*&10&2人*,取扱い,多く\\9&アフガニスタン*,可能性,ロシア*,女性*,州,今回&9&ホーム,ブッシュ,予定*\\8&米国*,9月11日,日本*,議会*,人々*,以下,他*&8&ブッシュ大統領*,近く,ロシア*,ジョブ,闘士,最近*,パキスタン*,英国(*),全て,会議\\7&選挙*,ワシントン*,従業員,パレスチナ人*,調査,ニューヨーク*,2人*,イギリス(*),先週*,イスラエル*,人*&7&リーダ,何千,レイオフ,総裁,都市*,ワシントン*,先週*,ニューヨーク*,5.,6.,あなた\\6&同社,一環,最近*,家,国,上院,今,裁判所,最初*,その他,本社,都市*&6&テロリスト*,一部,必要,武器,首相,軍人,女性*,1つ,選挙*,パレスチナ人*,準備,2つ,子供*,タリバン,問題*,道,10.\\5&アラファト議長,北アイルランド,彼ら,人物,東芝,買収,1人,ホワイトハウス,テロリスト*,報道,映画,第6位,取引,国連,現在,問題*,パキスタン*,その後,爆弾,家庭,子供*,罪&5&人*,ヤセル・アラファト,停戦,イスラム教,結果,連邦,歴史,イラン,ケース,国家,人間,メーカー,4つ,時間,前,戦い,暴力,議会*,日曜日,新聞,今年,昨年,有罪,アナリスト,軍隊\\\hline\end{tabular}\end{center}\end{table}出現頻度が5以上の名詞の一覧を表\ref{tab:hifreq-noun}\,に示す.表\ref{tab:hifreq-noun}\,から次のような特徴があることが読み取れる.\begin{enumerate}\item\label{enum:noun:pronoun}人間訳に比べてMT訳での出現頻度が高い(頻度差が10以上の)名詞は,「彼」(頻度差:53),「それら」(65),「それ」(30),「米国」(24),「状態」(15),「会社」(14),「攻撃」(11),「パレスチナ」(11),「取扱い」(10)であるが,特に代名詞の出現頻度差が大きい.\item\label{enum:noun:anaph}逆に,MT訳に比べて人間訳での出現頻度が高い名詞は,「これ」(頻度差:12)である.\end{enumerate}まず,代名詞「彼」,「それら」,「それ」の出現頻度差について検討する.MT訳で「彼」,「それら」,「それ」と訳されている人称代名詞が人間訳ではどのように訳されているかを調べた.その結果を表\ref{tab:pron-hum}\,に示す.なお,「それら」と訳されているのが人称代名詞`they',`their',`them'ではなく,定冠詞や指示代名詞`those'である場合があるが,この場合は集計に含めていない.このため,表\ref{tab:pron-hum}\,での「それら」の頻度は,表\ref{tab:hifreq-noun}\,での「それら」の頻度とは一致しない.同様に,「それ」と訳されているのが人称代名詞`it',`its'ではなく,指示代名詞`that'である場合は集計に含めていないため,「それ」についても表\ref{tab:pron-hum}\,での頻度と表\ref{tab:hifreq-noun}\,での頻度は一致しない.\begin{table}[htbp]\caption{人間訳における人称代名詞の翻訳}\label{tab:pron-hum}\begin{center}\begin{tabular}{|l||l|r@{}r|}\hline\multicolumn{1}{|c||}{MT訳}&\multicolumn{1}{c|}{人間訳}&\multicolumn{2}{c|}{頻度}\\\hline\hline&ゼロ代名詞&29&(42.0\,\%)\\&先行詞&19&(27.5\,\%)\\&「彼」&16&(23.2\,\%)\\\raisebox{1.5ex}[0pt]{「彼」}&「自分」&1&(1.5\,\%)\\&「その」&1&(1.5\,\%)\\&その他&3&(4.3\,\%)\\\hline&ゼロ代名詞&28&(56.0\,\%)\\&先行詞&13&(26.0\,\%)\\「それら」&「自分」&3&(6.0\,\%)\\&「その」&3&(6.0\,\%)\\&「彼ら」&3&(6.0\,\%)\\\hline&ゼロ代名詞&26&(74.3\,\%)\\&先行詞&6&(17.1\,\%)\\\raisebox{1.5ex}[0pt]{「それ」}&「それ」&2&(5.7\,\%)\\&その他&1&(2.9\,\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:pron-hum}\,を見ると,人間訳では,人称代名詞がゼロ代名詞化されるか先行詞に置き換えて訳される割合が高く,`he',`his',`him'の場合で69.5\,\%,`it',`its'の場合で82.0\,\%,`they',`their',`them'の場合では91.4\,\%を占めていることが分かる.英語では人称代名詞による照応が一般的に用いられるのに対して,日本語では,人称代名詞による照応よりも,同一名詞の繰り返し,ゼロ代名詞,再帰代名詞などによる照応が自然である\cite{Kanzaki94}.このことを反映した英日翻訳技法として,英語の人称代名詞を先行詞,ゼロ代名詞,再帰代名詞に置き換えて翻訳する手法が知られている\cite{Umegaki75,Nakamura82}.今後,人称代名詞の翻訳に関するこのような手法を機械翻訳システムに実装していく必要があると言える.次に,表\ref{tab:hifreq-noun}\,における「これ」の出現頻度差について検討する.人間訳でどのような英語表現が「これ」と訳されているのかを調べたところ,14件のうち7件は,「これ」に直接対応する英語表現は存在せず,訳文で補われたものであった.「これ」の補充は,次の文(H\ref{SENT:kore})のように,一文に訳すと複雑になる文を二文に分割し,それらの間を滑らかにつなぐために行なわれている\footnote{代名詞「これ」に類似した表現として連体詞「この」などがあるが,「この」のMT訳における出現頻度が5であるのに対して,人間訳では55であった.詳細な分析を行なっていないので断定できないが,「この」の頻度差も,MT訳と人間訳における分かりやすさの違いにつながっているのではないかと予想される.}.\begin{SENT2}\sentELeftistrebelsinColombiafreed62governmentpoliceandsoldiersaspartofamassprisonerreleasehailedasamajorboostforpeacetalkstoendColombia's37-year-oldcivilconflict.[2001年7月3日]\sentHコロンビアの左翼ゲリラが,大量の捕虜釈放の一環として,警官と兵士62人を解放した.{\bfこれは,}37年間にわたる内戦を終結させるための和平会議への重要な起爆剤として歓迎されている.\sentMコロンビアにおける左派の反逆者は,和平交渉がコロンビアの37年を経た民間の対立を終えるために,メジャーな増大と認められた大規模な囚人リリースの一部として62の政府警察,及び,軍人を解放した.\label{SENT:kore}\end{SENT2}なお,\ref{sec:result:num-of-sent}\,節で挙げた文(H\ref{SENT:ej-sent-div-prep})も同様の例である.\subsection{代名詞に関する分析}\label{sec:result:pron}英語の代名詞を適切に翻訳することは,(1)代名詞を直訳すると誤った訳文や不自然な訳文となることが多い,(2)代名詞の出現頻度は比較的高い\footnote{我々が英字新聞を対象にして行なった調査では,4240文中1845文(43.5\,\%)に人称代名詞が含まれていた.},などの理由から,英日機械翻訳において重要な課題となっている\cite{Yoshimi01a}.本節では,代名詞について\ref{sec:result:noun}\,節とは別の観点からさらに分析する.\subsubsection{代名詞とそれ以外の名詞の分布}\label{sec:result:pron:pron-others}名詞全体のうちで代名詞がどの程度を占めるかを明らかにするために,人間訳とMT訳それぞれにおいて,名詞全体に占める代名詞の割合を算出した.その結果を表\ref{tab:pron-others}\,に示す.\begin{table}[htbp]\caption{代名詞と他の名詞の分布}\label{tab:pron-others}\begin{center}\begin{tabular}{|c||r|r|}\hline品詞&\multicolumn{1}{c|}{代名詞}&\multicolumn{1}{c|}{代名詞以外}\\\hline\hline&66&3375\\\raisebox{1.5ex}[0pt]{人間訳}&1.9\,\%&98.1\,\%\\\hline&213&3300\\\raisebox{1.5ex}[0pt]{MT訳}&6.1\,\%&93.9\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:pron-others}\,の分布には,統計的有意差が認められ(有意水準5\,\%),名詞全体に占める代名詞の割合は人間訳よりMT訳のほうが高い.表\ref{tab:pron-others}\,の結果は,表\ref{tab:pron-hum}\,とも合致し,人間訳では英語の代名詞がゼロ代名詞化されるか先行詞に置き換えられる割合が高いことを示している.\subsubsection{人称代名詞の訳語}\label{sec:result:pron:trans}英語の人称代名詞のうち人間を指すものを直訳すると,多くの場合,日本語の代名詞「私」,「我々」,「あなた」,「彼」,「彼女」,「彼ら」になる.人間訳とMT訳におけるこれらの出現頻度を表\ref{tab:pron-distri}\,に示す.表\ref{tab:pron-distri}\,の分布には統計的に有意な差が認められる(有意水準5\,\%).\begin{table}[htbp]\caption{人称代名詞の訳語の分布}\label{tab:pron-distri}\begin{center}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|}\hline訳語&\multicolumn{1}{|c}{私}&\multicolumn{1}{|c}{我々}&\multicolumn{1}{|c}{あなた}&\multicolumn{1}{|c}{彼}&\multicolumn{1}{|c}{彼女}&\multicolumn{1}{|c|}{彼ら}\\\hline\hline&0&1&2&16&2&5\\\raisebox{1.5ex}[0pt]{人間訳}&0.0\,\%&3.9\,\%&7.7\,\%&61.5\,\%&7.7\,\%&19.2\,\%\\\hline&2&4&7&69&2&2\\\raisebox{1.5ex}[0pt]{MT訳}&2.3\,\%&4.7\,\%&8.1\,\%&80.3\,\%&2.3\,\%&2.3\,\%\\\hline\end{tabular}\end{center}\end{table}人間訳での出現頻度よりMT訳での出現頻度が高いもののうち,「私」,「あなた」について検討する.「彼」については,\ref{sec:result:noun}\,節で既に分析した.人称代名詞`I'がMT訳では「私」と訳されているが人間訳ではゼロ代名詞化されている2件は,いずれも次の文(H\ref{SENT:pron-trans-i})のように,`I'が被伝達節の主語であり,主節の主語を指している場合であった.\begin{SENT2}\sentE``{\itI}'vealreadywonthisone,''CoachDukesaidbeforetheceremony.[2001年7月17日]\sentH「もうこのゲームは勝ち取ったよ.」と,デュークコーチは式の前に言いました.\sentM「{\bf私は},既にこれを獲得した」と,Coach公爵は,セレモニーの前に,言った.\label{SENT:pron-trans-i}\end{SENT2}このようなゼロ代名詞化は,主節の主語と従属節の主語が同一の場合,日本語では一方の主語を省略するという原則に沿うものである.「あなた」については,人間訳で現れていない5件のうち2件は,ゼロ代名詞化が文脈上可能であるものであった.さらに,別の2件は,`you'が歌詞の一部でありその歌詞が原語のまま訳文に現れているものであり,残りの1件は,`you'が総称的に用いられているためゼロ代名詞化されているものであった.文脈によるゼロ代名詞化が行なわれていたのは,次のようなテキスト(E\ref{SENT:pron-trans-you})における第二文の`you'である.なお,テキスト(E\ref{SENT:pron-trans-you})の第一文は,無作為抽出した標本には含まれていない.\begin{SENT2}\sentEIsyourlastnameDunlop?Ifso,{\ityou}'reeligibleforabigpayoff.[2001年12月19日]\sentHもしかして,あなたの苗字はダンロップさんではないですか.もしそうなら,大金をもらう資格があります.\sentMあなたの姓は,ダンロップであるか?もしそうであるならば,{\bfあなたは},大きな利益に適格である.\label{SENT:pron-trans-you}\end{SENT2}現在市販されている機械翻訳システムでは一文を越える範囲での処理はほとんど行なわれていないが,このようなゼロ代名詞化を実現するためには,文間照応の解析などを実装していく必要がある.\subsubsection{一文に含まれる人称代名詞の数}\label{sec:result:pron:num-of-pron}人間訳とMT訳とで,一文中に含まれる代名詞の数に違いがあるかどうかを明らかにするために,代名詞を$n$個含む文の分布を調べた.その結果を表\ref{tab:num-of-pron}\,に示す.表\ref{tab:num-of-pron}\,の分布には,統計的な有意差は認められない(有意水準5\,\%).\begin{table}[htbp]\caption{人称代名詞の訳語を$n$個含む文の分布}\label{tab:num-of-pron}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline$n$&\multicolumn{1}{|c}{1}&\multicolumn{1}{|c}{2}&\multicolumn{1}{|c}{3}&\multicolumn{1}{|c|}{4}\\\hline\hline&25&1&0&0\\\raisebox{1.5ex}[0pt]{人間訳}&96.2\,\%&3.8\,\%&0.0\,\%&0.0\,\%\\\hline&64&9&0&1\\\raisebox{1.5ex}[0pt]{MT訳}&86.5\,\%&12.1\,\%&0.0\,\%&1.4\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:num-of-pron}\,を見ると,人間訳では一文に最大で二つしか人称代名詞が含まれないのに対して,MT訳では四つも含む文がある.MT訳で人称代名詞を四つ含むのは次の文(E\ref{SENT:4prons})に対する文(M\ref{SENT:4prons})である.\begin{SENT2}\sentEInarepeatofpreviousrun-insbetweenthepair,MaythenturnedoffMilosevic'smicrophone,told{\ithim}{\ithe}wouldhave{\ithis}chancetomake{\ithis}caseduringthetrialandclosedthehearing.[2002年1月11日]\sentH前回交わされた言い合いの繰り返しになり,メイ氏はミロシェビッチ氏のマイクロホンのスイッチを切り,ミロシェビッチ氏に対し公判中に自己弁護できる機会があると告げ審問手続きを終了させた.\sentMペアの間の前の口げんかの反復において,5月は,それからミロセビッチのマイクロホンをオフにし,{\bf彼に}トライアルの間に{\bf彼の}ケースを作る{\bf彼の}チャンスがあるであろう,と{\bf彼に}告げ,そして,ヒアリングを閉じた.\label{SENT:4prons}\end{SENT2}文(M\ref{SENT:4prons})には,訳語選択において不適切な点がいくつかあるので,人称代名詞以外の部分を人間訳と同じにして,比較してみる.次の文(J\ref{SENT:4prons-mod})は人称代名詞以外の部分を人間訳に置き換えたものである.なお,`makehiscase'の訳語を慣用句として「自己弁護する」と辞書に登録しておけば,`his'は訳出されないものと仮定した.\begin{JSENT}\sentJ前回交わされた言い合いの繰り返しになり,メイ氏はミロシェビッチ氏のマイクロホンのスイッチを切り,{\bf彼に対し}公判中に自己弁護できる{\bf彼の}機会が{\bf彼に}あると告げ審問手続きを終了させた.\label{SENT:4prons-mod}\end{JSENT}文(H\ref{SENT:4prons})では,`him'は「ミロシェビッチ氏」と訳され,`he'と`his'はゼロ代名詞化されている.これに対して,文(J\ref{SENT:4prons-mod})では,`him'を「ミロシェビッチ氏」ではなく「彼」としているのは許容できるが,`he'と`his'を「彼」と訳しているのは不自然に感じられる. \section{おわりに} \label{sec:conc}本稿では,人間訳とMT訳にどのような違いがあるのかを明らかにするための第一歩として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数の違いを計量分析し,さらに,動詞,名詞,代名詞について人間訳とMT訳を比較した.その結果,次のような点が明らかになった.\begin{enumerate}\item人間訳に比べMT訳には,英文一文が複数の訳文に分割されにくい傾向がある.MT訳では分割されないが人間訳では分割される箇所として,関係代名詞や前置詞などが目立つ.関係代名詞での分割では,関係代名詞が先行詞に置き換えられることが多い.前置詞での分割では,前置詞句を日本語に翻訳したとき,完全な文になるように工夫が施されている.分割した文の間を滑らかにつなぐために照応表現が補われることがある.\item訳文の長さ(文節数)の分布に統計的有意差が認められる.\item用言の連用形と連体形の分布に有意差が認められ,MT訳のほうが人間訳よりも複雑な構造をした文が多いことが示唆される.\item体言と用言の分布に有意差は認められない.\item動詞に関するMT訳の主な課題としては,英語の「する」的表現を日本語で好まれる「なる」的表現に翻訳すること,ある内容を言語形式化する際の表現手段の選択肢の一つとして機能動詞表現を考慮に入れることなどが挙げられる.\item名詞と代名詞に関しては,複雑な関係代名詞節を連体修飾節に翻訳しないようにする処理,人称代名詞をゼロ代名詞化するかあるいは先行詞に置き換える処理などを実現することが課題である.\end{enumerate}人間訳とMT訳の計量的比較分析は,機械翻訳システムが抱える問題点について改めて考え直したり,これまで見逃されていた問題点を見つけたりする上で有用である.今後,構文レベルでの分析を行なっていく予定である.\acknowledgment本稿の改善に非常に有益なコメントを頂いた査読者の方,内山将夫氏(通信総合研究所),小谷克則氏(関西外国語大学)に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{complexity}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N03-03
\section{はじめに} 形態素解析処理とは文を形態素という文字列単位に分割し品詞情報を付与する処理である.すでに成熟している技術であるが,解析精度や速度の向上のために様々な手法を試みる余地はあり,そのための技術的な拡張要求もある.他の自然言語処理処理技術と比べ形態素解析技術は実用に近い位置にあり,それゆえ,形態素解析システムに対する現場からの使い勝手の向上のための要求が多い.その要求の一つに,多言語対応がある.インターネット上で様々な言語のテキストが行き交う現代において,特定の言語に依存しない,多種多様な言語を視野に入れた自然言語処理が必要とされている.しかし,これまでの形態素解析システムは,特定の言語,または,同系統の数言語の解析のみを念頭に置いて開発されている.本研究の目的の一つは,特定の言語に依存しない形態素解析の枠組の構築である.我々は,形態素解析処理の言語に依存した部分を考察し,その部分をできるかぎり共通化した枠組を提案する.形態素解析は自然言語処理における基本的なコンポーネントであるが,ミクロな視点から見れば形態素解析処理自体も複数のコンポーネントからなりたっている.本研究では,完成した単一のシステムとして提供するだけではなく,システムを構成しているコンポーネント単位で利用できるように設計・実装を行った.コンポーネント化により,変更箇所を最小限におさえることができ,機能拡張が容易になる.また,言語非依存化などの調整や個々のコンポーネントの評価が行いやすくなる.\ref{tok}章では,形態素解析処理の言語に依存した部分をできるかぎり共通化した言語非依存の枠組について解説する.\ref{comp}章では,形態素解析システムの主要な内部処理のコンポーネント化を行い,それを基に形態素解析ツールキットの実装を行った.個別のコンポーネントについての言語非依存性と汎用性を考察し,実装の方針について解説する. \section{言語に依存しないトークン認識と辞書検索} label{tok}特定の言語に依存しない一般的な形態素解析システムを考えてみる.まず,最初に行う処理は,システムに与えられた解析対象文を{\bfトークン}と呼ばれる文字列単位に分割する処理である.この処理を{\bfトークン認識}(tokenization)と呼ぶ.トークンとは,英語では単語や数字や記号などに該当するが,厳密な定義は無い.トークンを発展させた概念が本論文で提案する{\bf形態素片}である.\ref{MF}節で導入する.{\bf語}は一個以上の連続するトークンから構成されるもので用意された{\bf辞書のエントリとして存在するもの}と定義する.語は{\bf形態素}と呼ばれることもあるが,言語学的な形態素の定義とは異なるので別名を与えることにした.次に行う処理は,認識されたトークンの列に対して形態素辞書の検索を行い,語を認識する処理である.この処理を本論文では単に{\bf辞書検索}と呼ぶ.トークン認識と辞書検索は解析対象言語のコンピュータ上での表記の特性によって処理方法が異なる.言語によって異なる場合もあるし,同じ言語でも清書法によって異なる場合もある.本論文では「書かれた言語」を対象に形態素解析することを前提としているので,「言語」とは表記,清書法をも含む意味に捉えることにする.本論文では,言語を表記の特性によって以下の二つに分類する.\begin{itemize}\itemわかち書きされる言語\itemわかち書きされない言語\end{itemize}わかち書きされる言語の例として英語があげられる.英語では語は{\bf空白文字}(whitespace)や{\bf記号文字}(panctuationmark)によって区切られていると考えられることが多く,トークン認識は単純明解な処理とみなされあまり重要視されなかった.しかし,いくつかの問題がある.これについては\ref{1t=1l}節で説明する.わかち書きされない言語の例として日本語や中国語などがあげられる.単語の境界が視覚的にはっきりしていないという表記上の特性をもっている.ゆえに,トークン認識は重要かつ困難な処理である.トークンの処理はわかち書きされる言語とわかち書きされない言語ではまったく異なるとみなされてきた.英語などのわかち書きされる言語では明白な境界が単語の両側にあるが,日本語や中国語などわかち書きされない言語では明白な単語境界を表すものが必ずしもあるとは言えない.わかち書きされる言語とされない言語の違いは,言語の特性というよりも表記の特性によるものであり,清書法の方針による分類と言える\cite{永田97}.本章ではわかち書きされる言語とされない言語のトークン認識方法の違いに着目し,どちらの表記法にも適応できる統一的な枠組を提案する.この統一的な枠組により,システムの最小限の変更(もしくは変更不要)とデータの入れ換えだけで様々な言語を同じシステムで解析できる.また,複数の言語が混じった文章を解析することもできる.\subsection{わかち書きされる言語とされない言語の処理の違い}わかち書きされない言語では,トークン認識は全ての文字をトークンとして認識すれば良い.理論的には文中の全ての部分トークン列(この場合,部分文字列)を語の候補として考慮する必要がある.また,語辞書により同じ字面の候補に複数の品詞候補が与えられることがある.そのため,区切りの曖昧性と品詞付与の曖昧性の二種類の曖昧性が生じる.わかち書きされる言語では,トークンは一意に決定され,かつ,1トークン=1語という単純化を行うことが多く,その場合は品詞付与の曖昧性だけが生じる.しかし,実際はわかち書きされる言語でも,必ずしも1トークン=1語とみなすことが困難な場合がある.これについては\ref{1t=1l}節で説明する.このような,わかち書きされる言語とされない言語のトークン認識処理の違いは,辞書検索の方法に影響を与える.わかち書きされる言語が語の両側に必ず明白な区切りを持つならば,辞書検索ではシステムはわかち書きされた文字列が語辞書に存在するかを問い合わせるだけでよい.もし存在するなら品詞等の情報を辞書から得る.一方,わかち書きされない言語では文は明白な単語区切りを持っていないため,辞書検索ではシステムは全ての部分トークン列(部分文字列)が語辞書に存在するかそれぞれ問い合わせる必要がある.一般にわかち書きされない言語の辞書検索は,文中のある位置から始まる全ての語を辞書から一括で取り出す{\bf共通接頭辞検索}(commonprefixsearch)と呼ばれる手法が用いられる.一般に共通接頭辞検索を効率的に行うためにTRIEというデータ構造を用いる.図\ref{fig:trieJ}に日本語TRIE辞書の一部を示す.TRIE構造は一回の問い合わせで文中のある位置からはじまる全ての語を返すことを保証しているので,効率的な辞書検索ができる.例えば,「海老名へ行く」という文字列を図\ref{fig:trieJ}のTRIEで検索すれば,枝を一回たどるだけで,「海(名詞)」「海老(名詞)」「海老名(固有名詞)」という語が見つかる.文中の全ての語を探す単純な方法は,文頭から一文字ずつ文字位置をずらしながら各位置で共通接頭辞検索を行うというものである.しかし,AhoとCorasickにより提案されたAC法\cite{Aho93}を用いれば,入力文を一回スキャンするだけで入力文に含まれる全ての語候補を取り出すことができ,TRIEによる方法と比べ検索速度は格段に向上する.Maruyama\cite{Maruyama94}はこのAC法を用いて日本語形態素解析の辞書検索の高速化を行っている.だが,辞書のデータ格納領域が大きくなるという欠点がある.本論文では前者のTRIEによる方法を用いて以降の解説を行う.\begin{figure}[bt]\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{l}海\\─┬─●┬─{\bf海}:名詞\\││\\││老\\│└─●┬─{\bf海老}:名詞\\││\\││名\\│└─●─{\bf海老名}:固有名詞\\│歩\\├─●┬─{\bf歩}:名詞\\││\\││く\\│├─●─{\bf歩く}:動詞\\││\\││道\\│└─●┬─{\bf歩道}:動詞\\││\\││橋\\│└─●─{\bf歩道橋}:動詞\\:\\\end{tabular}\end{center}\caption{日本語TRIE辞書}\label{fig:trieJ}\end{figure}\subsection{1トークン=1語の問題}\label{1t=1l}わかち書きされる言語でも,単語は常に明白な単語境界文字列で区切られているわけではない.明白な単語境界を前提とした単純なトークン認識手法には限界がある.そこで,本論文では,わかち書きされる言語をわかち書きされない言語と同じ方法で解析する方法を提案する.英語を例に,問題点とその解決のための方針を述べる.\begin{description}\item[単語内区切り曖昧性の問題---一つのトークンに複数の語が含まれている]~語の構成要素に記号文字が含まれている場合,区切りの曖昧性が生じてしまう.``Mr.''や``Inc.''のように,ピリオドがトークンの末尾にある場合,それが文末記号なのか省略記号なのかという曖昧性がある.これは,わかち書きされる言語の「文の認識」という大きな課題であり,Palmerら\cite{Palmer97}によって研究されている.アポストロフィがトークンの途中に含まれている場合も曖昧性が生じる.所有を表す``'s''が辞書にあれば解析文中の``John's''を``John''+``'s''という二つの語として認識したい.しかし,``McDonald's''(固有名詞)が辞書にあれば解析文中の``McDonald's''を``McDonald''+``'s''ではなく一つの語としても解析したい.それゆえ,区切りの曖昧性を生じることになる.ハイフンの場合は,ハイフンでつながれた文字列が辞書にあればそれを候補としたいし(例:``data-base''),無ければハイフンを無視したい(例:``55-year-old'').これらの問題は単純なパターンマッチでは対処できない.そこで,我々はわかち書きされない言語での方法を適用する.記号文字を含むトークン全てを記号文字で分割し(例:``McDonald's.''→``McDonald''+``'''+``s''+``.''),分割されたトークン列に対して共通接頭辞検索で語辞書を検索する.記号文字を含めた形で語が辞書に登録されていればそれも候補になる.\item[複合語問題---複数のトークンが一つ語になる]~語の構成要素に空白文字が含まれている場合について考える.空白文字などの明白な境界を利用した単純なトークン認識では,複合語固有名詞``SouthShields''のような空白文字を含む語が扱えない.このような場合``South''(固有名詞)と``Shields''(固有名詞)を辞書に登録して解析することが考えられる.しかし,``South''(形容詞)+``Shields''(名詞複数形)と認識されてしまう危険も高くなる.``SouthShields''(固有名詞)という空白文字を含んだ語を辞書に登録できれば,この種の誤りは減るであろう.PennTreebank\cite{PennTreebank90}では,``NewYork''のような空白文字を含む固有名詞は``New''と``York''に分割され,それぞれに「固有名詞」という品詞タグが与えられている.そのため,このコーパスから得られる語も空白文字を含まない分割されたものになってしまう.このように空白文字を含んだまま単独の語として扱うべきものをわざわざ分割してしまうと,形態素解析処理における曖昧性の増加の要因になる.この問題を解決するために,我々はわかち書きされない言語での方法を適用する.これは,我々の知る限りWebsterら\cite{Webster92}により最初に提示されたアイディアである.彼らはわかち書きされる語のイディオムや定型表現などを扱うため,空白文字を含む語の辞書登録を可能にし,トークン認識時にそれらをTable-look-upmatchingという方法で検索をする.我々は語辞書を共通接頭辞検索で検索するという方法により,空白文字を含む語を扱う.\end{description}これらの問題を\underline{同時に}解決するためには,「記号文字,及び,空白文字で区切られた文字列単位をベースに語辞書を共通接頭辞検索」すれば良いという結論に達した.そのためには,この文字列単位を,言語非依存性と処理効率を考慮しきちんと定義する必要がある.これについては,次節で詳しく解説する.\subsection{形態素片}\label{MF}\subsubsection{形態素片の導入}\label{MFintro}\ref{1t=1l}節で述べたように,わかち書きされる言語は単語境界が明白であると考えられてきたにもかかわらず,単語内区切り曖昧性,複合語の問題がある.このような問題を解決する素朴な方法として,わかち書きされる言語をわかち書きされない言語と同じとみなし,「わかち書きされない言語を解析する方法」で解析するという方法が考えられる.英語を例に考えると,``They've{\delimi}gone{\delimi}to{\delimi}school{\delimi}together.''という文の全てのスペース({\delimi})を削除して,``They'vegonetoschooltogether.''という文を作り,これをわかち書きされない言語を解析する方法で解析すればよい\cite{Mills98}.しかし,このような方法は``They/'ve/gone/to/school/to/get/her/.''のような余計な曖昧性を含む結果を生んでしまう.スペースを消した場合の影響を調べるため,簡単な精度測定実験を行った.PennTreebank\cite{PennTreebank90}の128万形態素から学習されたパラメータ(品詞trigramによる状態遷移表と出現確率が付与された単語辞書)を用いたHMMベースの形態素解析システム\moz(\ref{comp:moz}節を参照)で解析精度を計った.テストデータは学習に用いた全データを使用した.図\ref{fig:ORGvsNWS}に実験結果を示す.スペースを削除した場合は区切りの曖昧性が発生するため,recallとpresicionで評価した.区切りの曖昧性の影響で精度が落ちていることが分かる.結果を細かく見てみると,``away'',``ahead'',``anymore'',``workforce''のような複数の語の連続をそれぞれ``away'',``ahead'',``anymore'',``workforce''のように一つの語として認識してしまう傾向にある.recallよりもprecisionが高いのはこのためである.また,``atour'',``aton'',``Alaskanor''を``atour'',``aton'',``Alaskanor''のように認識してしまう誤りもある程度見られた.前者のような区切りの曖昧性はconjunctiveambiguity,後者のような区切りの曖昧性はdisjunctiveambiguityと呼ばれる\cite{Webster92}\cite{Guo97}.conjunctiveambiguityによる区切り誤りは11267個,disjunctiveambiguityによる区切り誤りは223個あった.区切り曖昧性は精度以外にも性能に影響を与える.文の全ての位置から検索ができるので検索回数が増え,それにともない候補となる語も増えるため,解析時間が増大してしまう.実験ではスペースを削除した方法の解析時間は,そうでない場合の約5倍を要した.これは重大な問題である.より精度の高い効率的な解析を行うためには,わかち書きの情報を活かし,余計な曖昧性をできるかぎり排除できる単位を定義すべきである.また,特定の言語に依存しないように考慮する必要がある.\begin{figure}[bt]\vspace{-3mm}\begin{center}\begin{tabular}{|l||c|c|}\hline&Recall&Presicion\\\hline\hlineスペースあり({\ttIt{\delimi}is{\delimi}my...})&\multicolumn{2}{c|}{\begin{tabular}{c}97.36\%\\$(\frac{1250889}{1284792})$\end{tabular}}\\\hlineスペース削除({\ttItismy...})&\begin{tabular}{c}97.04\%\\$(\frac{1246811}{1284792})$\end{tabular}&\begin{tabular}{c}97.16\%\\$(\frac{1246811}{1283203})$\end{tabular}\\\hline\end{tabular}\end{center}\caption{英語におけるわかち書きの効果を調べる実験}\label{fig:ORGvsNWS}\end{figure}本論文では,わかち書きされる言語のこのような問題を解決するために,効率的かつ洗練された方法を提案する.それは,文中での「辞書検索を始めて良い位置・終えて良い位置」を言語ごとに明確に定義し,それを元に共通接頭辞検索で辞書検索するという方法である.これは,わかち書きされない言語で採用されている方法を一般化したものである.わかち書きされない言語では「文字」の境界が辞書検索を始めて良い位置・終えて良い位置となる.このような「辞書検索を始めて良い位置・終えて良い位置」に囲まれた文字列を{\bf形態素片}\cite{Yamashita2000}と呼ぶ.この形態素片を各言語ごとに定義すれば,本節冒頭の英語の例のような非論理的な曖昧性を含むことなく,わかち書きされる言語とされない言語を統一的に扱える.形態素片は,言語非依存性や処理の効率を考慮してより厳密に定義されたトークンと言える.ある言語の形態素片の集合は,その言語の辞書中の全ての語を構成できる文字列の最小集合と定義する.ただし,{\bfデリミタ}と呼ばれる文字列集合は除く.デリミタは文中で語の境界を表す空白文字などの文字列で,語の最初と最後には現れないものと定義する.以降,``{\delimi}''と表記する.英語ではアルファベットのみが連続する文字列,及び,全ての記号文字は形態素片であると定義できる.それゆえ,単語中の記号文字で分断される各文字列も形態素片である.例えば,英語文字列``they're''は``they'',``''',``re''の3つの形態素片から成る.当然,複合語を構成する各単語も形態素片である.辞書に``New{\delimi}York''や``New''というエントリがあれば,``New'',``York''はそれぞれ形態素片であるが,``{\delimi}''はデリミタなので形態素片にはならない.また,``{\delimi}York''といった文字列は定義により語にならない.日本語,中国語などのわかち書きされない言語では全ての文字が形態素片になる.図\ref{fig:MFrslt}に文から形態素片を認識した例を示す.認識された形態素片は角括弧で囲って表されている.\begin{figure}[bt]\vspace{-5mm}\begin{center}\begin{tabular}{|l|lll|}\hline英語&{\ttI'minNewYork.}&→&[{\ttI}][{\tt'}][{\ttm}]{\delimi}[{\ttin}]{\delimi}[{\ttNew}]{\delimi}[{\ttYork}][{\tt.}]\\\hline日本語&学校へ行きましょう.&→&[学][校][へ][行][き][ま][し][ょ][う][.]\\\hline\end{tabular}\end{center}\caption{形態素片認識の例}\label{fig:MFrslt}\end{figure}我々の方法では,わかち書きされない言語と同様にわかち書きされる言語の語辞書はTRIEに格納する.形態素片が枝のラベルになる.図\ref{fig:trieE}に形態素片ベースの英語TRIE辞書を示す.図\ref{fig:MFrslt}の英語の例の[New]の位置から図\ref{fig:trieE}のTRIEを検索すれば,一回たどるだけで``New(形容詞)'',``New{\delimi}York''(固有名詞)という二つの語が見つかる.TRIE辞書構築時と形態素片認識処理時には,連続する二つ以上のデリミタは一つのデリミタと見なして処理を行う.デリミタの連続には,特に言語的な意味は無いと仮定している.\begin{figure}[bt]\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{l}\bfI\\─┬─●─{\bfI}:代名詞\\│\\│\bf'\\├─●┬─{\bf'}:記号\\││\\││\bfm\\│├──●─{\bf'm}:動詞\\││\\││\bfs\\│└──●─{\bf's}:所有\\│\\│{\bfNew}\\├──●┬─{\bfNew}:形容詞\\││\\││\delimi\bfYork\\│└──●───●─{\bfNew\_York}:固有名詞\\:\\\end{tabular}\end{center}\caption{英語TRIE辞書}\label{fig:trieE}\end{figure}\subsubsection{形態素片認識の方法}\label{MFimpl}形態素片は辞書を引き始める位置と引き終える位置を明確にし,わかち書きされる言語でも,効率的な共通接頭辞検索を可能にする概念である.しかし,ある言語の形態素片の集合を過不足なく定義することは難しい.そこで,我々は「ユーザが簡単に定義できる必要最小限の情報」のみを用いた疑似的な形態素片の定義法を提案する.わかち書きされる言語である英語を例に考えてみると「デリミタと記号文字で区切られる文字(アルファベット)の連続」と「記号文字」の二種類が形態素片となり,形態素片認識にはデリミタと記号文字を定義する必要があることが分かる.わかち書きされない言語である日本語や中国語を例に考えると,各「文字」が形態素片になり,「文字」を定義すれば良いことが分かる.これらの考察により,次の3種類の情報を用いれば形態素片認識処理ができることが分かる.\begin{enumerate}\item文字の定義,及び,全ての文字が形態素片になりうるかどうかの区別わかち書きされない言語では全ての文字が形態素片になりうる.つまり,これは,わかち書きされる言語かされない言語かを区別する情報である.\itemデリミタ辞書形態素片の境界として働き,それ自体は独立した形態素片にはならない文字列の辞書.語の開始と終了位置にはデリミタは現れない.\item形態素片辞書形態素片となる特殊な文字・文字列の辞書.記号文字のように形態素片の境界として働き,それ自体も形態素片として扱われる文字列などを格納する.\end{enumerate}全ての文字が形態素片となるわかち書きされない言語では,(2),(3)は不要の場合が多い.これらの情報の英語(PennTreebank\cite{PennTreebank90}のフォーマットに準拠)での定義例を示す.\begin{enumerate}\item1文字≠1形態素片(わかち書きされる言語)\itemデリミタ辞書:空白文字(\delimi)\item形態素片辞書:[{\tt.}][{\tt,}][{\tt:}][{\tt;}][{\tt'}][{\tt-}]$\cdots$[{\tt\$}][{\tt\%}]$\cdots$[{\ttn't}]\end{enumerate}PennTreebankでは,``don't''などの縮約形は``do''と``n't''に分割されタグ付与されているので,形態素片辞書に[{\ttn't}]が必要になる.日本語での定義例を示す.\begin{enumerate}\item1文字=1形態素片(わかち書きされない言語)\itemデリミタ辞書:空白文字(\delimi)\item形態素片辞書:なし\end{enumerate}日本語はわかち書きされない言語であるが,デリミタを定義しておくと,わかち書きした文の解析もできる.わかち書きした日本語文は区切り曖昧性が減少する.韓国語の通常の清書法では,句単位でわかち書きする.これは,日本語の文節に相当する単位である.わかち書きをする位置は,新国語表記法\cite{全96}によって定められているが,必ずしも完全に守られているわけではない\cite{平野97}.我々の視点では,韓国語は日本語のようなわかち書きされない言語に分類できる.形態素片の定義例は上記の日本語のものをそのまま用いることができる.しかし,わかち書きの境界の前後の品詞の分布には偏りがある.平野ら\cite{Hirano96}\cite{平野97}は,境界内部では品詞bigramを用い,境界を越えての連接には品詞trigram(境界も品詞の一つ)を用いることにより,わかち書き境界という情報をうまくとりこんでいる.わかち書き境界がスペース(\delimi)で表されるとすれば,この場合の韓国語での定義例は次のようになる.\begin{enumerate}\item1文字=1形態素片(わかち書きされない言語)\itemデリミタ辞書:なし\item形態素片辞書:空白文字(\delimi)\end{enumerate}もちろん,語辞書にスペース(\delimi)を登録し「わかち書き境界」などといった品詞を持たせておく必要がある.ドイツ語はわかち書きされる言語であるが,複合名詞は区切りの曖昧性を持っている.例えば,{\itStaubecken}は,{\itStau-becken}と区切れば「貯水池」,{\itStaub-ecken}では「ゴミ捨て場」という意味になる\cite{Lezius98}.このような区切り曖昧性を扱うためには,わかち書きされない言語として処理を行えば良い.定義例をあげる.\begin{enumerate}\item1文字=1形態素片(わかち書きされない言語)\itemデリミタ辞書:空白文字(\delimi)\item形態素片辞書:なし\end{enumerate}形態素片認識アルゴリズムは,文の先頭から末尾まで1バイトずつずらしながら,形態素片・デリミタを探して行くという単純なものである.しかし,この方法による形態素片認識結果を用いれば全ての語を認識でき,実用上の問題は無い. \section{コンポーネント化と実装} label{comp}本章では,形態素解析システム内部の様々な処理をそれぞれコンポーネント化した設計・実装について述べる.コンポーネント化は,形態素解析以外の用途への利用,特殊な機能の追加,言語に特化した処理の追加などに必須である.本章では,これらの目的を念頭に置いた設計・実装の方針について解説する.我々の考える言語非依存の形態素解析処理の流れを次に示す.\begin{enumerate}\item入力された解析対象文を形態素片列として認識し,辞書検索を簡単にする.\item形態素片列に対し語辞書検索を行い品詞候補,及び,語自体のコストを与える.\item語を区切り・品詞の曖昧性を保持したままトレリス(trellis)データ構造に格納する.同時に状態遷移の情報もチェックし格納する.\itemトレリスから最適解(語の列)を選択する.\item結果を出力する.\end{enumerate}このような処理の流れに基づき各処理をコンポーネントに分割した設計を行い,形態素解析ツールキットLimaTKを実装した\cite{LimaTK99}\cite{山下and松本98}\cite{山下99}.図\ref{fig:TK}に示すようなコンポーネントから成り立っている.全てのコンポーネントは独立しておりインターフェース等の仕様に従えば自作のコンポーネントと置き換えが可能である.これらのコンポーネントのうちで言語依存性の高いものは,形態素片認識,辞書検索,未定義語処理である.形態素片認識と辞書検索は形態素片の導入により,言語依存部分がほぼ解消されたと言える.形態素片認識の実装については,\ref{tok}章で説明した.辞書検索の実装については\ref{comp:dic}節,最適解選択の実装については\ref{comp:lattice}節,未定義語処理の実装については\ref{comp:udw}節で述べる.\ref{comp:moz}節ではLimaTKを用いて実装した形態素解析システム\mozについて述べる.\begin{figure}[bt]\begin{center}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}{l}\fbox{\bf形態素解析システム}\\││││\\│││└──形態素片認識\\│││\\││└──辞書検索\\││\\│└──未定義語処理\\││\\│└─品詞推定\\│\\└──形態素データ管理\\│\\├─状態遷移表管理\\│\\└─最適解選択\\\end{tabular}\end{center}\caption{ModulesofLimaTK}\label{fig:TK}\end{figure}\subsection{辞書検索}\label{comp:dic}辞書検索コンポーネントは形態素片列として認識された文から可能性のある語全てを辞書から獲得する.これらの処理の詳細については,\ref{tok}章で既に述べた.現在の辞書検索コンポーネントの実装について述べる.語辞書のデータ構造であるTRIEを単純に実装すると大きなデータ領域が必要になる.そこで現在は,データ格納領域が小く済む2種類の方法で実装している.suffixarray\cite{Manber90}を使うものと,パトリシア木\cite{Morrison68}を使うものである.パトリシア木はデータ消費量が若干大きいが高速であり,suffixarrayは若干低速であるがデータ消費量が小さいという特徴がある.suffixarrayによる実装は高速文字列検索ライブラリ{\sufary}\cite{SUFARY99}を使用している.語としてどのようなものを辞書に入れておくかということは言語や用途に依存した問題である.例えば,英語で動詞イディオム``lookup''(``lookingup'',``lookedup''なども)を語として辞書登録したいとする.すると,以下の例の(1)では,登録された語が辞書検索の結果得られるが,(2)では分割されているのでイディオムとして認識されない.\begin{enumerate}\itemIlookeduptheanswer.\itemIlookedtheanswerup.\end{enumerate}Websterら\cite{Webster92}はこのような連続した文字列で表現できないイディオム,定型表現などを形態素解析処理の段階で扱うために,辞書検索とパージングの知識・処理を融合するという枠組を提案している.コンポーネント化設計により,文字列として連続していない語の認識処理も,他のコンポーネントに影響を与えないように辞書検索コンポーネントなどの内部で実装できる.しかし,我々はこのような言語の構造に関わる処理は形態素解析より後の高次の処理で扱うべきであると考える.これは我々の目標が,形態素解析システムの単純化・効率化・言語非依存性を目指すことにあるためである.\subsection{最適解選択処理}\label{comp:lattice}我々はHMMによる最適解の選択方法を採用した.最適解選択に必要なHMMパラメータはある程度の量の品詞タグ付きコーパスがあれば得られるので,特定の言語の解析が容易に始められるという利点がある.具体的には,品詞タグ付きコーパスから,語と品詞N-gramをカウントし,シンボル出力確率(品詞別単語出現確率)と状態遷移確率(品詞間,または,状態と品詞間の遷移確率)を計算し,動的計画法の一つであるビタビ・アルゴリズムで出現確率最大の解を求める.実際の実装は,積演算より和演算の方が効率的に処理できるという理由から\cite{Manning99}パラメータ(確率値)の逆数の対数に適当な係数をかけた整数値({\bfコスト})を用いている.コストの和演算で最適な解を選択する方法は{\bfコスト最小法}とも呼ばれており\cite{永田97}\cite{長尾96},JUMAN\cite{JUMAN98},茶筌\cite{ChaSen99}といった日本語形態素形態素解析システムなどで採用されている.つまり,和演算による実装は,これらのシステムで長年用いられてきた,人手によって調整されたコスト体系(単語コスト,接続コストなど)も利用できるという柔軟性を持っている.特定の言語のために形態素解析を行うためにユーザが必要なものは,形態素片認識を行うための情報と,語と接続表(HMMパラメータ)だけである.HMMパラメータは,十分な大きさの品詞タグ付きコーパスとユーザの望む統計モデル(bigram,trigram,variablememorymodel\cite{Haruno97}など)に基づいた学習プログラムがあれば得られる.形態素情報管理コンポーネントは,前述の方法により最尤解選択を行う.これは形態素解析における解選択の一般的な実装方法である\cite{永田97}\cite{長尾96}.文頭から文末へ向かって,一語ずつトレリス(ラティス)構造に格納してゆき,そのときにその語までの部分解析のコストを求める.最適解は,文末から文頭へ向かって,最適な部分解析のコストを持つノードを順次辿れば得られる.格納の際に必要になる,状態遷移(接続)にかかるコストと遷移先状態は,状態遷移表管理コンポーネントから得る.状態遷移表管理コンポーネントは,現在の状態と次の品詞をキーに状態遷移のコストと遷移先状態を返すという単純な仕事をする.\subsection{未定義語処理}\label{comp:udw}未定義語処理コンポーネントは辞書に登録されていない語に対して品詞推定を行う.未定義語の品詞推定は統計的な方法と人手による規則などのヒューリスティックを用いる方法がある.統計的な方法は,未定義語が全ての品詞を持つと仮定し,トレリスでの曖昧性解消処理の段階で品詞N-gramの統計値により最適な品詞を自動的に選ぶという方法である\cite{Manning99}.これは,言語に依存しない実装が可能である.しかし,この方法ではデータ格納領域が増大してしまい,処理効率が悪い.そこで,未定義語が全ての品詞を持つのではなく,あらかじめ「未定義語が推定されうる品詞」の集合を限定する方法が考えられる.例えば「この言語の未定義語は『名詞』か『固有名詞』である」と定義すれば,曖昧性解消処理で未定義語の品詞はどちらかに選ばれる.この方法は完全な推定とは言えないがデータ格納領域の増大を押えることができる現実的な方法であり,茶筌\cite{ChaSen99}で採用されている.実用性と性能のバランスの良さから,LimaTKの未定義語処理コンポーネントの標準の機能として採用した.ヒューリスティックによる方法は,例えば,英語ならば,「文中で大文字で始まるなら固有名詞」「-tionで終われば名詞」といった規則を用いて品詞を推定する方法である.これは言語に依存する方法なので,言語ごとに処理系を実装する必要がある.LimaTKではこのようなルールを埋め込むためには,統計的手法による未定義語処理コンポーネントを修正するか,まったく新しく作り直す必要があるが,作り直す場合でもインターフェース規約を守れば他の処理に影響を与えずに実装できる.未定義語の長さ,すなわち,未定義語がいくつの形態素片で構成されるかを決定する処理も難しい.理論的にはある位置から始まる全ての長さの部分形態素片列が未定義語の候補になる可能性がある.しかし,これでは候補が増大してしまい処理効率に問題がある.日本語のように字種にバリエーションのある言語は,連続する漢字列・カタカナ列・記号列などを一まとめにするといった字種によるまとめ処理により未定義語の候補を限定できる\cite{長尾96}.このような字種による未定義語候補の決定処理はJUMAN\cite{JUMAN98}や茶筌\cite{ChaSen99}の様な日本語形態素解析システムに採用されている.単純なまとめ処理ではなく,字種による語の長さの分布の違いに着目して未定義語処理を行うという研究もある\cite{Nagata99}.わかち書きされる言語ではこれまでこの問題は起こらなかった.しかし,本研究では形態素片という概念を導入したため,わかち書きされる言語でも問題になるようになった.未定義語に複合語は無いと仮定すれば,ある位置から始まり次のデリミタまで間の全ての部分形態素片列を未定義語の候補とすれば良い.この仮定は正しいものではないが,実用上はさほど問題なく現実的である.そもそも未定義語処理は言語依存性の高い処理であり,品詞推定精度の高い共通の枠組を構築するのは困難である.より精度の高い処理を求めるユーザはやはりプログラムの調整を行う必要がある.ゆえに,我々は各言語共通に利用できる最低限の機能と調整の行いやすい枠組で実装を行った.言語非依存性とユーザの利便性と処理効率のバランスを考慮した実装と言える.実装方針をあげておく.\begin{itemize}\item未定義語の品詞推定:あらかじめ「未定義語が推定されうる品詞」の集合を定義し,最適解選択処理にまかせる\item未定義語の長さの決定:「形態素片」「字種によるまとまり」「デリミタに挟まれた領域」を未定義語を構成する単位に選択でき,未定義語を構成する「最大単位数」も指定できる\end{itemize}\begin{figure*}[htb]\baselineskip3.9mm\fbox{日本語}~\begin{verbatim}そんな感じがします.そんな30752263648[Y:ソンナBF:そんなP:連体詞Pr:100/3864]感じ69601981585[Y:カンジBF:感じP:名詞-一般Pr:37/144546]が130659744[Y:ガBF:がP:助詞-格助詞-一般Pr:17509/82739]し01172688[Y:シBF:するP:動詞-自立/サ変・スル/連用形Pr:10638/10638]ます3048731666[Y:マスBF:ますP:助動詞/特殊・マス/基本形Pr:813/30431].1112072[PP:記号-句点Y:.BF:.P:記号-句点Pr:27418/27452]\end{verbatim}\bigskip\fbox{英語}~\begin{verbatim}Whatisaword?What2208201835[P:WPPr:218/3156]is946621373[P:VBZPr:8789/27619]a1207281384[P:DTPr:25820/111243]word662985117[P:NNPr:59/179722]?377154202[P:.Pr:556/53362]\end{verbatim}\bigskip\fbox{中国語}~\begin{verbatim}人力基盤構築不能促成.人力59292828[P:NaPr:185/372140]基盤82862828[P:NaPr:9/372140]構築68167070[P:VCPr:17/106692]不能39897878[P:DPr:1003/167440]促成84733232[P:VHPr:2/105135].20073131[P:PERIODCATEGORYPr:6046/79413]\end{verbatim}\caption{形態素解析例}\label{fig:mar}\end{figure*}\subsection{ツールキットによる形態素解析システムの実装}\label{comp:moz}LimaTKを用いて,簡単な多言語対応形態素解析システム\mozを作成した.日本語,英語,中国語,韓国語など様々な言語を実装した.図\ref{fig:mar}に解析結果の例を示す.各行はそれぞれ一つの形態素を表し,各列は左から,「見出し文字列」「各形態素の持つコスト」「品詞コード」「状態コード」「解析には用いないその他の情報(角括弧で囲まれている)」\footnote{出力を人間にも読みやすくするための情報であり,解析時には一切使用されない.形態素辞書のこの項目に記述されている文字列をそのまま表示する.フォーマットは任意であり,後処理の目的に合わせ,形態素辞書を作成する段階で自由に変更できる.英語,中国語の例では,品詞名(P)と形態素の出現確率(Pr)が,日本語の例では,読み(Y),基本形(BF),品詞名(P),形態素の出現確率(Pr)がこの項目に含まれている.形態素の出現確率は「各形態素の持つコスト」を算出する基になった値である($Pr:この形態素のコーパスでの出現回数/品詞のコーパスでの出現回数$).}となっている.使用した言語データを次に示す.\begin{description}\item[日本語]RWCPの品詞タグ付きコーパス\cite{IPA97}(約92万形態素)から品詞trigramモデルでパラメータ学習を行い,さらに茶筌\cite{ChaSen99}の語辞書エントリを追加した.解析精度は,同様の方法で作成された解析用データを用いた茶筌のものと同等で,インサイドデータでRecall,Precisionとも97\%程度である.\item[英語]PennTreebank\cite{PennTreebank90}の品詞タグ付きコーパス(約128万形態素)から品詞trigramモデルで学習を行い,電子化テキスト版OxfordAdvancedLearner'sDictionary\cite{OALD92}の辞書エントリを追加した.語幹(stem)情報も同じくOxfordAdvancedLearner'sDictionaryから補完した.解析精度はインサイドデータで97\%,アウトサイドデータで95\%程度である.\item[中国語]台湾の中央研究院の品詞タグ付きコーパス\cite{CKIP-TR9502}(約210万形態素)から品詞bigramモデルで学習を行った.解析精度はRecall,Precisionともインサイドデータで95\%,アウトサイドデータで91\%程度である.\end{description}未定義語品詞推定のチューニング,高次のN-gramの利用,スムージングなどより高度な統計的手法を用いれば,それに応じて精度は向上する.しかし,本研究の目的は精度の向上ではないので,これ以上は追求しない. \section{関連研究} Websterら\cite{Webster92}はわかち書きされる言語(英語)のイディオムや定型表現が扱えるように,英語のデリミタで区切られた単位をわかち書きされない言語(中国語を想定している)の文字に対応させわかち書きされない言語での解析方法を適用している.しかし,``They've''のような単語内区切り曖昧性の問題(\ref{MFintro}節)には言及していない.曖昧性の解消については,確率を使った方法が適用できると言及されているのみである.わかち書きされる言語における境界の曖昧性解消について,Millsはわかち書きが不明瞭な古代英語の解析の際に,わかち書きされない言語で用いる形態素解析手法を単純に適用している\cite{Mills98}.これは,\ref{MFintro}節で説明した,文の全てのスペース({\delimi})が削除された英文をわかち書きされない言語の解析手法で解析する方法である.しかし,この研究での解決法は,目的から分かるように,言語非依存ではない.また,単純なマッチング,ヒューリスティックによる力まかせな方法に基づいている.言語非依存な形態素解析の枠組として,Kimmoの二段階形態素論(two-levelmorphology)\cite{Kimmo83}が知られている.簡単に言うと,オートマトンを用いてトークン認識と品詞付与を同時に行う方法である.我々は,わかち書きされる言語で考えられる分割の可能性,及び,わかち書きされる言語とされない言語との整合性も考慮し,形態素片という概念を導入した.形態素片はこれまで漠然と定義されていたトークンに替わる概念である.これにより言語非依存の枠組を構築した.このアイディアは極めて単純ではあるが,効率的なTRIE辞書検索の実現とトークン認識における非論理的な曖昧性の排除を達成した.本研究の成果物である形態素解析ツールキットLimaTKの柔軟性を示す例として文節まとめあげと形態素解析の融合についての研究\cite{浅原99}をあげる.英語を念頭に考えると,これは品詞付与と名詞句(BaseNP)認識をHMMにより同時に行うという方法である.スペース({\delimi})を「名詞句始まり」「名詞句終わり」「名詞句の間(終わりであり始まりである)」「名詞句途中」「名詞句の外部」のタグ(品詞)を持つ語として扱い,名詞句区切り情報と品詞情報の付与されたコーパスからHMMパラメータを学習し,それを用いて最適なものを選ぶという手法である.この手法は,形態素片を以下の情報で定義すれば\mozで簡単に実装できる.\begin{enumerate}\item1文字≠1形態素片(わかち書きされる言語)\itemデリミタ辞書:なし\item形態素片辞書:スペース({\delimi})\end{enumerate}このように,LimaTKは様々な言語を解析できるだけでなく,形態素解析以外の用途にも適用できる汎用的なHMMパーザとして柔軟に利用できる. \section{おわりに} 本論文では,言語に依存しない形態素解析の枠組の提案と,形態素解析の内部処理のコンポーネント化によるツールキットの設計・実装を行った.従来は,わかち書きするか否かという言語の特徴により大きく処理が異なる形態素解析処理を,形態素片という辞書検索単位を定義したことにより,言語非依存の共通の枠組で行えるようになった.また,形態素解析の内部処理のコンポーネント化により,言語非依存化のみならず様々な改良や他の言語処理への適用が行いやすくなった.本研究に関する情報・ツールキットのパッケージは下記のURLで入手できる.\begin{center}\mbox{\tt$<$http://cl.aist-nara.ac.jp/\symbol{"7E}tatuo-y/ma/$>$}\end{center}\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた松本研究室の方々に感謝いたします.また,データを快く提供していただいた関係各社に深く感謝いたします.\bibliographystyle{jnlpbbl_old}\bibliography{v07n3_03}\begin{biography}\biotitle{略歴}\bioauthor{山下\達雄}{1995年広島大学総合科学部総合科学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2000年同大学同研究科博士後期課程研究指導認定退学.情報処理学会,人工知能学会各会員.}\bioauthor{松本\裕治\(正会員)}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V16N02-01
\section{はじめに} \label{s:はじめに}がんの患者や家族にとって,がんに関する情報(以下,「がん情報」と呼ぶ)を知ることは非常に重要である.そのための情報源として,専門的で高価な医学書に比べて,ウェブ上で提供されているがん情報は,容易に入手可能であり,広く用いられるようになってきている\cite{c1,c2}.これらWebで公開されているがん情報は,良質で根拠に基づいたものばかりではなく,悪質な商用誘導まで存在する\cite{c3,c4}.このような多量のがんに関する文書の中からその文書が何を述べているかの情報を抽出し,良質ながん情報を選別し取得されるがん情報の質を向上させることが求められている.このように,がんに関する文章について,自然言語処理を適用することにより,がんに関して有用な結果を得るための情報処理を,本稿では,がん情報処理と呼ぶ.がん情報処理のためには,がんに関する用語(以下,がん用語と呼ぶ)の網羅的なリスト,すなわち,網羅的ながん用語集合が必要である.なぜなら,もし,網羅的ながん用語集合が存在すれば,それを利用することにより,がんに関する文書の形態素解析や情報検索等のがん情報処理の精度が向上することが期待できるからである.しかし,現状では,内科学や循環器学等の分野の用語集合は,それぞれの関連学会により作成されているが,がん用語集合は存在しない.そのため,本研究では,がん用語集合を作成するとともに,がんだけでなく,がんとは別の分野における用語集合の作成にも適用できるような,用語集合作成法を提案することを目標とする.高度ながん情報処理の例としては,「胃がん」や「肺がん」などの単純な検索語から検索エンジンを用いて得られたコンテンツが,一体,どのような意味を含んでいるのかを推定することなどが想定できる.そのような処理のためには,「胃がん」や「肺がん」などのがんの病名だけをがん用語としていたのでは不十分である.少なくとも,「肝転移」や「進行度」のようながんに限定的に用いられる語から,「レントゲン写真」や「検診」のように,がんだけに用いられるわけではないが関連すると思われる語もがん用語とする必要がある.なぜなら,「胃がん」や「肺がん」で検索した文書は,既に,「胃がん」や「肺がん」に関係することは明らかであるから,そこから更に詳細な情報を獲得するには,「胃がん」や「肺がん」よりも,もっと詳細な用語を利用する必要があるからである.このように,がん情報処理のためには,「胃がん」や「肺がん」等のがんに関する中核的な用語だけでなく,がんに関連する用語や周辺的な用語も網羅的に採用すべきである.ただし,「網羅的」といっても,がんとの関連度が低すぎる語をがん用語集合に加えるのは,望ましくない.そこで,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみから,がん用語集合を作成し,それ以外の語に関してはがんとの関連性が低いと考える.このような関連の強さに基づくがん用語集合を作成するためには,まず,「がん」という疾患の性質を考慮する必要がある.「がん」は図\ref{f:001}のように,胃がん,肺がんをはじめとする複数の疾患群(50個以上の疾患)の総称であると同時に,他の疾患とも関わりがある.例えば,図\ref{f:001}の下部分に示したタバコは,肺がんの直接のリスク要因であることが知られているが,それだけでなく,動脈硬化を引き起こし,心筋梗塞や脳梗塞などの成人病を起こす危険因子としても知られている.ただし,タバコによって引き起こされる動脈硬化が原因で起こる心筋梗塞や脳梗塞は,直接肺がんとは関係しない.そのため,「タバコ」はがんに関連するが,「心筋梗塞」や「脳梗塞」はがんに関連しない.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f1.eps}\end{center}\caption{がんとがんに関する疾患の関係の例}\label{f:001}\vspace{-5pt}\end{figure}また,図\ref{f:001}の上部分に示した肝障害に関連する疾患と密接に関係する「肝がん(肝臓がん)」は,肝硬変やウィルス性肝炎から直接発病する場合もある.そのため,肝硬変やウィルス性肝炎は,がんではないが,がんに関連する疾患であり,これらの内容が記述されているコンテンツは,がん関連用語を含む可能性が高い.そのため,肝がんに関連する用語候補を得るためには,図\ref{f:001}の上の斜線で示した部分である「がん関連用語」を収集する必要がある.つまり,肝がんに直接関係する用語だけではなく,肝硬変やウィルス性肝炎などの関連する疾患に関係する用語であっても,肝がんに間接的に関係する用語は含める必要がある.(「がんに関係する」ということの定義については,\ref{s:がん用語候補集合(Cc)の作成}節で詳述する.)さらに,がんにおける用語の範囲は,それぞれのがんにより異なるためアプリオリな定義を行うことは困難である.そのため,内省により用語集合を作成するのではなく,実際に存在するコーパスから用語を収集することが望ましい.がん用語の一部は,例えば「リンパ節」や「転移」のように,一般用語辞書(例えばChaSen用のipadicver.2.7.0)や,医学用シソーラスであるMeSH\cite{c5}にも含まれている.しかし,これらに含まれるがん用語には,がんに関する用語であるとの説明がないため,これらの用語からがん用語を自動的に選択することはできない.また,がんに関するテキストから,専門用語抽出アルゴリズム\cite{c6,c7}を利用して,がん用語の候補を抽出することも考えられるが,我々の予備実験および\ref{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}節の実験によると,このような候補には,がん用語以外のものも大量に含まれる.そのため,既存の一般用語辞書や専門用語抽出アルゴリズムを利用して用語候補を抽出したとしても,妥当な用語集合にするためには,人手によるがん用語の選別が不可欠である.この選別における問題は,選別の妥当性を確保することである.さらに,選別の対象であるがん用語の候補集合が,なるべく多くのがん用語を網羅していることを保証する必要もある.がんに限らず,ある分野の用語集合の網羅性と妥当性を保証するためには,内科学や循環器学等の医学の各分野における用語集合について\ref{s:従来研究}節で示すように,学会単位で多大な人手と時間を費やして作成することが考えられる.しかし,これには多大なコストがかかる.そこで本研究では,相対的に低コストで,網羅的で妥当ながん用語集合を作成するために,まず,国立がんセンターのWebサイト\nocite{c8}(国立がんセンターhttp://www.ncc.go.jp/index.html)のコンテンツをコーパスとして,がん用語の語感を持つ医師に候補語彙を切り出させ,がん用語候補集合(Cc:CancerTermCandidates)を網羅的に作成する.この国立がんセンターのコンテンツは,同センターががんに関するわが国の最高権威の診療機関であること,50種類以上のわが国の国民の罹患する可能性のあるほぼ全てのがんに関する記述があることから,がん用語に関する信頼性と網羅性が確保できると考える.なお,国立がんセンターのWebサイトのコンテンツの信頼性に関して\ref{s:コンテンツの選定}節,がん用語の切り出しの一貫性に関して\ref{s:がん用語候補集合の作成}節でそれぞれ検討する.このように本研究では,用語集合の切り出し元とするコーパスの医学的内容の信頼性と,記述されている内容の網羅性は十分と仮定して,用語候補集合(Cc:CancerTermCandidates)を作成する.最初の切り出しの段階では,医師の語感に基づいて,用語候補をできるだけ網羅的に広く収集することによって,初期段階における用語の漏れを防ぐ.次に,これら用語候補の特徴から,がん用語の選択基準を作成し,この基準に基づいて,Ccからがん用語集合(C:CancerTerms)を抽出する.最後に,他の医師に選択基準を説明し,評価用の用語候補を分類してもらうことにより,選択基準の妥当性を評価する.ここで,この選択基準は,上で述べたように,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみを選ぶための基準である.なお,\ref{s:従来研究}節で示すが,わが国では医学のうち内科学や循環器学に関する用語集は存在するが,がん用語集はなく,本研究で作成するがん用語集は,それ自体が新規である.さらに,本研究では,がんだけでなく,他の分野の用語集合の作成にも適用できるような用語集合作成法を提案することを目標とする.なお,関連して,コーパスに基づいて辞書を作成したものとしてCOBUILDの辞書等があるが,医学用語をコーパスに基づいて収集し評価した例はない. \section{従来研究} \label{s:従来研究}まず,既存の公開されている医学用語集を分類し,本研究で作成するがん用語集合との相違点について述べる.次に,内科学と循環器学を例として,これらの用語選択について述べ,がん用語集合の要件について検討する.\subsection{既存の医学用語集}\label{s:既存の医学用語集}表\ref{t:001}に現在公開されている医学用語集の例を示す.これら用語集を,公開されている内容に基づいて,作成者,対象領域,公開方法,見出し語数,各用語に対する説明の有無,用語選択の基準公開の別,主な用途の7つの観点から分類した.これより,これらの用語集は和英の用語の統一を目的とした対訳辞書(対訳共有)と,概念の共有を目的とした事典の形式(知識共有)をとるものがあることが分かる.\begin{table}[b]\caption{公開されている医学用語集の例}\begin{center}\input{01table01.txt}\end{center}\label{t:001}\end{table}これらのうち最大のものは,1の日本内科学会が編集した用語集だが,この用語集は学会誌などでの学術用語としての用語を統一するために編纂されたものであり,英語—日本語の対訳辞書である.内科学は医学全般の疾患を網羅的に扱う分野であり,がん用語もこの用語に含まれると考えられるが,各用語の用例と用語別の出典が明示されておらず,がん用語かどうかを機械的に判定することはできない.同様に2,4,5,6,7,8,9,10,11,12の用語集には用語の説明と出典がないため,収録されている用語の選択基準が不明である.13の国立がんセンターの公開する「がんに関する用語集」は,患者や家族に対して,医療関係者が行う用語の理解を助けることを目的にまとめられたものであるが,項目数は約220であり,本研究の目的とする,網羅的な用語集ではない.これらの用語集と比べ,表\ref{t:001}の3の合衆国のNCI:NationalCancerInstituteの公開している``DictionaryofCancerTerms''は,項目数が約5200であること,それぞれの用語に対する説明が行われており,説明内容に基づいて用語が選択されていると考えると,本研究の目的とする,網羅性が高くかつ選択基準が明確な用語集に最も近い.しかし,合衆国とわが国では,疾患分布が異なる(例えば,胃がんは合衆国では稀な疾患である)こと,医学的技術(内視鏡技術はわが国が開発した技術である),社会制度(社会保険の制度が全く異なる)など,様々な相違がある.そのため,必要ながん用語集合が異なる可能性が高い.以上のことから,本研究では,わが国のがん情報処理を可能にするがん用語集合を,実際の用例に基づいて作成する.本研究で作成する用語集合の特徴は,表\ref{t:001}の7つの観点からは,(1)作成者は本研究の著者ら,(2)対象領域はがん,(3)公開方法は未定,(4)見出し語数は日本語約1万語,(5)用語説明はなし,(6)用語選択基準は公開,(7)用途はがん情報処理である.\subsection{用語選択基準の例について}\label{s:用語選択基準の例について}表\ref{t:001}で示した医学用語集の中で,用語選択基準の例として,日本内科学会と日本循環器学会の基準を図\ref{f:002}に示す.内科学や循環器学は,医学において歴史も古く,膨大な知識の整理の行われた結果教科書として長年にわたって出版され,それぞれ数千語以上の索引が掲載されており,これらが,用語集を作成する上での言語資源として活用されている.以下,内科学,循環器学を例としてそれぞれの選択基準について述べ,がんに関する用語選択基準について述べる.内科学会用語集は,初版(ドイツ語見出しで約9400語)に始まり,平成5年に出版された第4版(英語見出しで約27,000語)を改訂した第5版(英語見出しで約35,000語)のものである.内科学は全ての医学の基礎的領域であり,約100年近い歴史もあることから,歴史的経過で基礎となる前版の用語に学会の選任した委員(第5版の場合,平成6年に各専門分野を代表する計14名の理事・評議員)で組織された内科学用語集改訂委員会が約5年をかけて,第4版に約10000語を追加する形で平成10年に第5版を出版した.なお,今回の改訂などでの用語の出典は明示されていない.また,用語選択の基準に関しては,「内科学の分野において使用される用語および関係の深い用語」として,専門委員会が選択したものである.循環器学用語集は平成20年3月に改訂第3版が出版された.この用語集は,第2版(5,638語)に,数冊の教科書の索引語(合計19,037語)を加えて基本用語リスト(24,675語)を実務委員会が作成し,これに採用の可否を延べ59人の委員が判定し,14,858語を選択し,最終案14,476語まで合計3回の選択を行ったと記述されている.このように循環器学は心筋梗塞から高血圧までの分野があり,それぞれの細分化された領域に専門家が存在するため,学会としてコンセンサスを形成するために,長い時間と多大な労力を必要としたと考えられる.これも内科学同様,「循環器学の分野において使用される用語およびこれに関連の深い用語を採録」としており,採録の用語範囲に関する明確な選択基準は示されていない.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f2.eps}\end{center}\caption{網羅的医学用語集の選択基準}\label{f:002}\end{figure}\subsection{がん用語集合の要件}\label{s:がん用語集合の要件}これら内科学や循環器学などに比べ,がんは医学の比較的新しい領域である.この疾患群は,他の医学領域においても重要な疾患であり,各科別に専門家がそれぞれの専門領域のがんを診断治療してきた.そのため,「がん」という専門領域が認識されだしたのは新しい.日本臨床腫瘍学会が専門医試験を開始したのは平成17年からである.さらに基準となる索引を含む教科書も数少ない.そのため内科学や循環器学のように,教科書の索引をもとに,基本的な用語集合を作成するなどの方法で作成することは困難である.さらに,これら他の疾患の用語集の用語選択の基準から以下のことがわかる.\begin{itemize}\item用語集の特徴として\begin{itemize}\item主に研究者間での知識共有が目的である\item各用語の説明は与えられていない\end{itemize}\item用語選択の基準として\begin{itemize}\itemそれぞれの学問分野に関係が深いと考えられる用語が収集されている\item用語の選定方法は,内科学や循環器学という大きな学問領域の中で,細分化され専門化された各領域の専門家が素案を作成し,全体をまとめている\item人体の部位を示す解剖学用語など,たとえその分野で多用される用語であっても,他の医学領域の用語や一般語は削除されている\end{itemize}\end{itemize}これらに対して,本研究で作成するがん用語集合(C)は,がん情報処理を可能にするために,がんに関連する用語であれば,他の医学領域や一般語であっても,実際のコーパスに従って採用する必要がある.例えば,「大動脈周囲リンパ節」の場合,「大動脈」は解剖学用語,「周囲」は一般語,「リンパ節」も解剖学用語であり,この「大動脈周囲リンパ節」は解剖学用語である.ところが,「大動脈周囲リンパ節への転移」は,がん患者の状態を知るために重要ながん用語である.このような例に対応するために「大動脈周囲リンパ節」もがん関連用語として採用する必要がある.そこで,本研究では,従来研究とは異なり,解剖学用語や一般用語など範囲を限定せず,コーパスに出現するがん関連用語を網羅的に採用する.また,従来の用語集では,用語の選定にあたって,専門家が素案となる用語候補集合を作成している.この部分は,本研究では,国立がんセンターのテキストから専門家ががんに関する用語を切り出すことに相当する.国立がんセンターのテキストを利用することにより,本研究においても,従来の用語集と同様に,がんに関係の深い用語の収集が可能になると思われる.なお,本研究で作成する用語集も,用語の説明は行わない.以上のことから本研究では,国立がんセンターのテキストに出現し,かつ,専門家が,「がんに関係する」という語感によって選択した用語(名詞句)をがん用語の候補とする.その上で,各候補について,実際の用例を検討し,用語選択の基準を作成し,がん用語集合を求める. \section{がん用語候補集合(Cc)の作成} \label{s:がん用語候補集合(Cc)の作成}本研究では,図\ref{f:003}に示すように,がん情報に関する質の高いコーパスを選定し,これを対象として,網羅的ながん用語候補集合Ccを作成する.得られた用語候補の意味と整合性から,用語選択基準(SC:SelectionCriteria)を作成する.このとき,Ccの抽出の一貫性が十分であるかどうかを元のコーパスを用いて調べる.Cc(がん用語候補集合)をC(がん用語集合)とDc(削除用語集合)に分ける.CとDcからWt(評価用ワードセット)を作成,これを第三者に提示し,SCの妥当性を検討する.以上により,一貫性をもって抽出された妥当ながん用語集合を作成できると考える.以下,元コーパスの選定,がん用語候補集合(Cc)の作成,Ccに含まれた用語の実コーパス中での特徴,がん用語の選択基準について述べる.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f3.eps}\end{center}\caption{本研究でのがん用語の収集と評価の過程}\label{f:003}\end{figure}\subsection{コンテンツの選定}\label{s:コンテンツの選定}\ref{s:はじめに}節で述べたように,本研究では,国立がんセンターのWebサイトのコンテンツを対象として,網羅的な用語候補集合Ccを作成する.同センターは,わが国の医療情報提供に関しては,最も歴史が長く\cite{c13},その医療レベルは国内最高であるといわれている.同センターの「各種がんの説明のページ」には,患者や家族を対象として(1)病名,(2)概説,(3)症状,(4)診断,(5)病期分類,(6)治療方法,(7)期待される予後,(8)その他の説明,などの内容が記述されており,病名別に患者や家族がそれぞれの疾患の知識を系統的に得られるように工夫されている.また,当コンテンツは同センターが情報提供を開始した当初から,複数の専門家からなるPeer-reviewを導入し,コンテンツ内容に関する検討を行っている.データ量はテキストデータとして約15メガバイト,コンテンツ総量は150メガバイト(2006年10月に大幅改訂後,疾患数が53から59に増加)であり,わが国で最大の情報提供を行っている.この他に,がんに関する情報源として,世界的に有名なものとして,合衆国のNationalCancerInstitute(NCI)のPDQ\cite{c14}がある.しかし,PDQは白人などの欧米人に対しての記述であり,わが国の状況について記述したものではないので,わが国におけるがんの状況に対応した用語辞書を作成したいという目的には適さない.わが国でもこれを和訳し提供しているサイトも存在する\cite{c15}.本サイトはがん情報としては有用だが,NCIの全てを翻訳しているわけではないので,量の点で国立がんセンターに及ばない.また,医師に対する専門知識を提供する民間の有料コンテンツ\cite{c16}は,標準的な医療の指針を与える知識ベースとして広く医師に使われている.しかし,医師をはじめとする医療関係者に対して,専門用語のみで,診断方法や治療方針を説明するものであり,ウェブ上で提供されているような一般人を対象とした情報提供内容をも対象としたい今回の目的には適さない.以上のことから,国立がんセンター(www.ncc.go.jp)を信頼性の高いコンテンツとして選択する.\subsection{がん用語候補集合の作成}\label{s:がん用語候補集合の作成}がん用語候補集合の作成について述べる.まず,2006年6月に同センターが情報提供を行っているコンテンツのうち,各種がんに関して説明を行っている53疾患分「各種がんの説明のページ」(約1.5メガバイト)を,それぞれの疾患の説明別にテキストファイルを作成した.それぞれの疾患別のテキストファイルに対して,医師免許を持ち,臨床経験のある専門家である本稿の第一著者が用語の切り出しを行った.なお,わが国の医師は6年間の専門教育を受け,内科や外科を問わず全分野から出題される数百問からなる国家試験に合格していることから,一定の語感を共有しており,その用語選択はある程度の代表性を持っていると考える.ここで,用語切り出しは,「がんに関連する用語」として認識する語を幅広く網羅するように,名詞句を中心として網羅的に切り出し,がん用語候補集合Cc1を作成した.得られたCc1の異なり語数は3313語であった.なお,これらコンテンツは,1ページあたり約2000字から15000文字,ファイルサイズとして10\,K(5000文字)から30\,Kバイト(15000文字)であり,切り出しに要した時間は10\,Kバイトあたり約30〜45分であった.また,切り出し語数は1疾患あたり150〜350語であった.Cc1作成時の異なり語数の成長曲線(growthcurve)を図\ref{f:004}に示す.図\ref{f:004}の横軸が,抽出を行った「肺がん」「胃がん」などの疾患の数,縦軸がそれぞれの疾患のコンテンツから抽出した用語を足し合わせた時の異なり語数である.これによると疾患数の増加により,その疾患における固有の用語が増加分となるが,疾患数30個前後で増加率は鈍化しており,50個前後でゆるやかになっている.これは,がんに関する共通語彙の存在によると思われる.例えば,「CT検査」や「手術」「化学療法」などは,多くのがんで使用される語である.これに比べて疾患固有のものは多くないため新規語の増加率が鈍化すると考えられる.本図からも,53疾患の約半数の30疾患前後で約80\%の用語が出現している.これにより,用語の切り出しの対象とするコーパスの網羅性(本研究の場合,コーパスの説明しているがん情報の内容)を大きくすることによって,がんに関連する用語を十分網羅的に収集することができると考えた.なお,この国立がんセンターのコンテンツは,2006年10月に行われた大幅改訂に伴い,疾患数も追加され,53から59となった.そのため,より網羅性を高くすることと関連用語も含めた用語収集を目的とし,疾患別だけではなく全ページ(データ量は合計約250メガバイト,テキストとして容量約15メガバイト)から,延べ29,500語を切り出し,用語候補集合Cc2(9,451語)を得た.このようにして得られた用語候補集合Cc1,Cc2の和をとり,がん用語候補集合Cc(CancertermCandidates,10199語)を得た.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f4.eps}\end{center}\caption{Cc1作成時の疾患数別GrowthCurve}\label{f:004}\end{figure}\subsection{Ccに含まれた用語の実コーパス中での特徴}\label{s:Ccに含まれた用語の実コーパス中での特徴}ここでは,Ccに含まれる用語の特徴や性質を明らかにするために,実際のコーパスからどのような用語が収集されたか,それらはどのような特徴を持ち,どのようにがんと関連性があるのかについて述べる.\subsubsection{実コーパスからのCcへの用語収集の例}\label{s:実コーパスからのCcへの用語収集の例}本研究で用いた実コーパスの例(図\ref{f:005}の文例1)から,専門家(本稿の第一著者)が,がんに関連すると思われる用語候補(Ccに含まれる語)を,網羅的に選んだ例を図\ref{f:005}の下線により示す.\begin{figure}[p]\begin{center}\includegraphics{16-2ia1f5.eps}\end{center}\caption{がん情報提供コンテンツからの用語候補切り出し例(肺がん)}\label{f:005}\end{figure}文例1の文章全体は膨大であり,肺がんの(1)病名,(2)概説,(3)症状,(4)診断,(5)病期分類,(6)治療方法,(7)期待される予後,(8)その他の説明が含まれる.ここでは,以下の文例1-1,1-2,1-3の3つの部分を用いて説明する.文例1-1:(1)病名と(2)概説を行っている部分\par文例1-2:肺がんの組織分類(種類による分類)\par文例1-3:肺がんの原因に関して説明している部分本例では,網羅的用語収集のため,「肺がん」などの明らかにがんに関係する名詞句だけではなく,「肺がんのリスク」などの名詞句や,「空気」「ラドン」などの一般名詞,内科学会の選択基準では除外されている「肺」「気管」など解剖学用語も選んでいる.結果,文例1-1から25語,1-2から33語,1-3から21語の合計79語が切り出された.\subsubsection{Ccに含まれた用語候補の種類}\label{s:Ccに含まれた用語候補の種類}\begin{table}[b]\caption{文例1からがん用語候補として切り出された語と種別}\begin{center}\input{01table02.txt}\end{center}\label{t:002}\end{table}得られた用語を理解しやすくするために,表\ref{t:002}に各用語候補の重複を除き,どのような医学上の概念に関連するかを(医師免許をもつ第1著者が)想起したものを「種別」として付記したものを示す.これら用語の「種別」を付加することは,理解を助けるためや,用語間の整合性を調整する場合に有用である.例えば,「病名」に分類される語はがん用語の中心的な概念を示すことが多い.これに対して「一般語」は,がんに関係する用語ばかりとは限らないなどである.これらの種別をCcの用語全てに付加することは,膨大な労力を必要とし,異なる専門家間のコンセンサスを得ることが困難であるため今後の課題とするが,用語が一般的な医学的知識の中でどのような範疇に入るかを大まかに理解することが可能になること,各種別内での用語の比較が可能になり,整合性をとりやすくなることから利便性が高い.表\ref{t:002}に出現した語では,「肺がん」は病名(病名)であり,「肺」,「肺の構造」,「気管支」は人体の特定の場所を示す解剖学用語(解剖)である.また,「呼吸器系」,「肺内」は臨床医学で使用される用語(臨床)であり,「酸素」,「空気」は一般語(一般)である.これらから,表\ref{t:002}のCcに含まれる語は,これら5つの種別の想起が可能であり,9個の病名,25個の解剖用語,22個の臨床用語,3つの検査用語,16個の一般語に分類された.\subsubsection{Ccに含まれる各語のがんとの関連性分類の必要性}\label{s:Ccに含まれる各語のがんとの関連性分類の必要性}Ccに含まれる語とがんとの関連性に関して検討する.前節で述べたように,表\ref{t:002}中の「病名」は一様にがんを示すと考えられるのに対し,「一般語」はがんに関係する用語ばかりとは限らない.このようにCcは,がんと関連性が明確な「肺がん」のような語から,「空気」,「酸素」などのがんとの関連性を想起することが難しい語までを含んでいる.このようにCcに含まれる各語は,それぞれ,がんとの固有の関連性を示す.「関連性」とは,その語が,がんを起点として考えた時,「がんそのものを示す強い関連性を持つ用語」(表\ref{t:002}の語では「肺がん」「扁平上皮がん」)を起点として,「転移」や「悪性度」などの「がんを想起させる用語」から,「末端」「推計」「酸素」など関連を想起しにくい語を「関連しない語」とする場合における関連の強さを示す順序尺度である.この尺度を用いることによって,本研究では,がん用語集合を,従来研究のように各語が集合に「含まれる」か「含まれない」かの二者択一ではなく,各語に想起される関連性の強弱を示すタグを付加しておくことによって,より広い範囲の用語を含めることが可能になる.また,このような「関連性の強弱」という主観評価で用語を分類する場合,つけられたタグを第三者による評価などで客観化する必要があるため,本研究では,\ref{s:複数医師による評価}節で複数医師により,関連性の強弱の一致の度合いを確かめる.以下では,この関連性の強弱を表現するために,「ホップ」という概念を導入する.本稿では,がんに関連する語が,後掲図\ref{f:007}のようなネットワーク構造となっていると想定する.そして,このネットワーク上において「がんそのものをさし示す用語」から離れるほど,がんとの関連性が弱くなると考えている.このとき,このネットワークにおけるリンクを,「がんそのものをさし示す用語」から1段階離れるごとに,関連性が1段階弱くなると想定し,その「がんそのものをさし示す用語」からのネットワーク上における距離を,インターネットとの類推から「ホップ」と呼ぶことにする.つまり,0ホップ目が,「がんそのものを示す用語」であり,そこからリンクを1つたどるごとに,1ホップずつがんとの関連性が弱くなると考える.\subsection{がんとの関連性による用語分類と選択基準}\label{s:がんとの関連性による用語分類と選択基準}前節で述べた「がんとの関連性」(ホップ)によって用語を分類することにより,各用語の中心用語から関連用語という概念的な距離感が表現可能になる.ただし,これら関連性の分類には医学的知識が必要だが,医学的知識のみでは,一貫性を保っての用語分類は困難である.そこで,以下で述べる「がん用語の選択基準」に基づいてCcの各語を分類する.\begin{figure}[b]\begin{center}\includegraphics{16-2ia1f6.eps}\end{center}\caption{がん用語の選択基準}\label{f:006}\end{figure}まず,Ccの各語を,がんとの関連性の強いもの(T1)から弱いもの(T4)までの4段階に分類する.これらは,T1(0ホップ目):がんそのものをさし示す語,T2(1ホップ目):がんを想起させる語,T3(2ホップ目):がんを想起させる語に関連する語,T4(3ホップ以上):がんとの直接の関連を説明しにくい語である.これらに基づいて,用語選択基準を図\ref{f:006}のように決める.そして,T1,T2,T3,T4の用語候補の中で,「2ホップ目までのルール」(単に「2ホップルール」とも呼ぶ)により,T1,T2,T3をがん用語とする.本基準によって表\ref{t:002}をT1からT4に分類した結果を表\ref{t:003}に示す.文例1に出現した病名はすべてがんの病名であったためT1に,また,解剖学用語は\ref{s:T3(2ホップ目):がんを想起させる語に関連する語}節で示すようにT3に,臨床用語のうち「がん」という語句を含む語はT1,がんを想起させる「転移」や「進行」はT2に,さらに,一般語の「空気」や「二酸化炭素」はT4に分類できることがわかる.以下,T1からT4の各分類について説明する.\begin{table}[b]\caption{文例1から得たCc各用語のがんとの関連性による分類}\begin{center}\input{01table03.txt}\end{center}\label{t:003}\end{table}\subsubsection{T1(0ホップ目):がんそのものをさし示す語}\label{s:T1(0ホップ目):がんそのものをさし示す語}表\ref{t:002}の用語のうち,「肺がん」「扁平上皮がん」など「がん」を含む「病名」は,文脈なしにがんに関することが明らかな語である.また,臨床用語である「肺がんのリスク」や「肺がんのリスク要因」のように明示的に「がん」という句を含む複合語も,単なる一般語である「リスク」に「肺がんの」と限定されることによって,「病名」と同程度に,文脈なしにがんに関することが明らかな語となる.これらの,病名を含み,文脈なしにがんに関することが明らかな用語のことを本研究では,「T1:がんそのものをさし示す語」と呼ぶ.このほかに,文例1には出現していないが,Ccに含まれる語である「白血病」,「リンパ腫」,「ボーエン病」,「リヒター症候群」のように「がん」を含まないがんの病名もある.また,「ATLL細胞」,「骨髄腫細胞」,「経尿道的膀胱腫瘍切除術」等の語は,それぞれ「ATLL(急性T細胞性白血病)」,「髄膜腫」,「膀胱腫瘍」というがんの病名を含んでおり,これらも「がんそのものをさし示す語」である.\subsubsection{T2(1ホップ目):がんを想起させる語}\label{s:T2(1ホップ目):がんを想起させる語}肺がんの悪性度や性質を示す「転移」「悪性度」「進行形式」や,肺がんの最も古い診断方法の一つである「レントゲン写真」は,文中にこれらの用語が出現した場合,その文の意味が肺がんに関係することを連想させる語である.同様に,「肺門型」や「肺野型」はレントゲン写真に関する所見の記述で,肺がんの形状を示す語である.「受動喫煙」や「アスベスト」も肺がんの原因として重要であることが知られている.これら用語はT1の,がんそのものをさし示す語ではないが,文中に出現した場合,その文脈ががんの意味を含むことが多い語である.このような語のことを,「T2:がんを想起させる語」と呼ぶ.このほかに,「寛解」「寛解導入不応」「急性転化」「自家造血幹細胞移植」は,白血病にしか用いられない.また,「周囲臓器浸潤」,「遠隔転移」,「全身再発」などの,がんの状態を示す語も他の疾患で用いられることはほとんどない.抗がん剤として使用される「ブレオマイシン」「5-FU」などの薬剤名,がん特有の治療法である「自家骨移植」「ミニ移植」「温熱療法」も同様である.これらも「がんを想起させる語」である.\subsubsection{T3(2ホップ目):がんを想起させる語に関連する語}\label{s:T3(2ホップ目):がんを想起させる語に関連する語}表\ref{t:002}の「肺」,「咽頭」などの解剖学用語は,人体の特定の場所を示す語であり,解剖学者によって一義に定義されている名詞句である.2章で述べたように,従来研究において,これらの解剖学用語は,用語の重複を避けるために,内科学や循環器病学の用語集には含まれなかった.しかし,がん情報処理の場合,2.3で述べたように,解剖学用語の一部も網羅的にがん用語に含める必要がある.これら解剖学用語は,例えば図\ref{f:007}のように,「肺がん」から「転移」という1ホップ目の関連語を介して,「肺」や「リンパ節」を連想することが可能である.また,これらの連想関係は方向性を持つ.つまり,「肺がん」から「転移」という1ホップ目の関連語を介して,「肺」や「リンパ節」を連想することは可能であるが,これと逆方向の連想,すなわち,「肺」から「肺がん」あるいは「リンパ節」から「肺がん」を連想することは難しい.このように,「肺がん」と「肺」の連想関係は,「発生」「進展」「転移」など,がんの性状を示す語の仲介によって可能であり,このような解剖学用語の一部はがん用語とすべきである.このように,何らかの中間的用語を介してがんに関連する用語も,がん用語と考えることができる.そこで,これらを「T3(2ホップ目):がんを想起させる語に関連する語」と呼ぶ.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f7.eps}\end{center}\caption{肺がんを起点とした場合の各種用語の関係例}\label{f:007}\end{figure}なお,肺がんから見る場合,胃や腸は,「肺がんの胃や腸に対する転移はきわめてまれである」という医学的知識により,「転移」を仲介しても連想できない.そのため,「肺がん」を起点とした場合には,「胃」や「腸」はT3ではなく,次節のT4(がんとの関連を想起しにくい語)に分類される.しかし,胃や腸は,肺がんとの直接の関係はないが,胃がんや大腸がんでは,胃がん—発生—胃,大腸がん—発生—大腸のような想起順でT3に分類される.このように,解剖学用語は,図\ref{f:008}に示すように起点とするがんによって,T3になる場合もあれば,T4になる場合もある.胃がんや大腸がんから見た場合,明らかに胃や腸は発生部位である.このように,図\ref{f:008}に示すように,\maru{1}の肺がん—転移—胃が連想しにくいため,胃や腸は,肺がんからはT4に分類されるが,\maru{2}のように胃がんを起点とした場合,胃がん—発生—胃という想起順になるため,T3に分類できる.この場合には,「胃」の分類は,肺がんを起点としたT4ではなく,胃がんを起点とした場合のT3に分類することとする.一般に,ある用語候補に対して,T1,T2,T3,T4のうち,複数の分類が考えられるときには,最も関連性の強いものに分類する.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f8.eps}\end{center}\caption{肺がんと胃がんを起点とした場合の「胃」の分類例}\label{f:008}\end{figure}このように用語選択を行った場合,図\ref{f:008}の\maru{3}に示すように,元コーパスに出現した肺や胃以外の解剖学用語のうちで,例えば手,足,睫毛などは,本研究の元コーパスの対象とする59個のがんとの2ホップ以内として分類されないので,T4となり,がん用語集合からは除外することが可能となる.このように,解剖学用語は基礎医学用語であるため,大きく医学用語という範疇でがんと無関係とは言えないが,すべての解剖学用語ががんと関係があるとは言えないため,それを適切に反映するために,なんらかのがんと2ホップ以内に関係する解剖学用語のみをT3として分類することが有効であると考えた.\subsubsection{T4(3ホップ目):がんとの関連を想起しにくい語}\label{s:T4(3ホップ目):がんとの関連を想起しにくい語}以上の用語に対して,一般語である「酸素」や「二酸化炭素」は,肺の機能である呼吸機能に関連する語であって,肺がんには直接関係しない.これらは文例1の,「肺は身体の中に酸素を取り入れ,二酸化炭素を排出します.」という文で出現している.これは図\ref{f:007}の解剖学用語である「肺」の機能を,肺がんと独立して説明している文章である.以上より,文例1を根拠とする限り,これらの「酸素」や「二酸化炭素」は,肺がんを起点とする場合,T3である「肺」の関連語となり,「肺がん」の関連語とはいえない.以上より,これらの用語を「T4:がんとの関連を想起しにくい語」とする.\subsection{本研究で行った用語分類と用語選択基準について}\label{s:本研究で行った用語分類と用語選択基準について}以上のように,本研究では,まず,信頼できるがん情報が記述されているコーパスから,専門家の語感に基づいてがん用語の候補Ccを抽出した.つぎに,得られたCcの各語を理解しやすくすることや用語間の整合性を調整するために,各語の用例から「病名」「解剖学用語」「臨床用語」「一般語」「検査用語」などの種別を作成した.また,各語をがんとの関連性を想起しつつ分類した結果,T1(がんそのものをさし示す語),T2(がんを想起させる語),T3(がんを想起させる語に関連する語),T4(がんとの関連性を想起しにくい語)の4つに分類できた.これら「種別」とがんとの関連性を参考に,がん用語として,T1からT3までをがん用語Cとして選択するという選択基準を規定した.これにより,各がん用語には,T1からT3までの分類がつけられているので,その語ががんとの関連性が強い語かどうかの情報を得ることができるので有用である.ただし,\ref{s:T3(2ホップ目):がんを想起させる語に関連する語}節であげた肺がんと胃がんに対する胃の例のように,起点とする(0ホップ目として)想起する語が異なれば,その語の分類がT3かT4かという揺らぎが必然的に生じることが予想される.そのため,本研究ではこれら用語については,がん用語集合の網羅性を確保するために,最も強い連関を示す分類に分類した.なお,それぞれの用語に対して,例えば胃なら,肺がんからはT4,胃がんからはT3のような情報を付加することも有用であると思われるが,これについては今後の課題である. \section{がん用語集合の特性評価} \label{s:がん用語集合の特性評価}本節では,用語候補集合Cc(10,199語)を対象として,がん用語抽出の一貫性とがん用語選択基準の妥当性を検討する.\subsection{Ccの用語抽出の一貫性の検討}\label{s:Ccの用語抽出の一貫性の検討}本節では,作成した用語候補集合Ccが,抽出対象のテキスト中のがん用語候補を一貫性をもって抽出されたかを検討する.そのために,\ref{s:がん用語候補集合(Cc)の作成}節で人手により用語候補抽出をした人と同一の人物(本稿の第一著者,抽出者と呼ぶ)が,約1年後に,\ref{s:がん用語候補集合(Cc)の作成}節と同一のコーパスから,主要ながんのうち10疾患(ALL(急性リンパ急性白血病),腎細胞がん,膵がん,卵巣がん,肺がん,肝臓がん,グリオーマ,胃がん,大腸がん,乳がん)を対象として,\ref{s:がん用語候補集合(Cc)の作成}節と同様に人手で用語候補を抽出した.次に,得られた用語候補とCcを比較し,Ccが,2回目に抽出した用語候補を(後で定義する)再現率高く抽出しているかを調べた.もし,この再現率が高ければ,Ccは,抽出対象のテキストから,抽出したい用語候補を一貫して抽出していると考えることができる.なお,用語候補抽出の一貫性を調べるためには,同一人物ではなく,他の人物による用語候補抽出の結果と比較することが望ましい.しかし,本稿の第一著者と同様に医師免許を持ち,臨床経験のある専門家で,かつ,用語候補の抽出に協力してくれる専門家を見つけることが我々にはできなかったため,同一人物による抽出の一貫性を調べた.\subsubsection{用語抽出の一貫性に関する数量的な検討}\label{s:用語抽出の一貫性に関する数量的な検討}\begin{table}[b]\caption{Cc(10,199語)の用語抽出の一貫性に関する集計結果}\input{01table04.txt}\label{t:004}\end{table}結果を表\ref{t:004}に示す.表\ref{t:004}の\maru{1}は,それぞれの疾患別に抽出された用語候補集合の語数である.\maru{2}は,それぞれの疾患別の用語候補集合で,Ccに含まれている用語候補の数である.これらより,\maru{3}に示したように,見かけの再現率が算出される.「見かけ」とは,今回新たに人手で切り出した結果も,がん用語の網羅性を高くすることを意図していたため,今回抽出した用語候補すべてが,がん用語として適切かどうかは不明である.そのため,Ccにカバーされていない用語候補は,実際には,がん用語でない可能性もある.そこで,用語の検討のため,抽出者に自然言語処理の研究者1名(第2著者)を加え,計2名で,抽出された用語候補の中でCcに含まれていない用語候補を選別した(\maru{4}).それら用語候補の中で\ref{s:がんとの関連性による用語分類と選択基準}節の基準に相当するかどうかによって真に必要な用語数\maru{5}と,選択されたが不必要であった用語候補数\maru{6}を求めた.これより,それぞれのテキストから抽出されるべきだった用語数\maru{7}を求め,\maru{2}を分子として求めた真の再現率が\maru{8}である.Ccの再現率\maru{8}は0.94から0.995であった.これらのことから,Ccは,元コーパス中の用語を十分に網羅していると考えられた.すなわち,Ccと本節での抽出結果とを比較した結果,Ccは,本節で抽出された用語候補を十分に網羅しているといえる.これより,Ccは,抽出対象のテキストから,抽出したい用語候補を一貫して抽出していると考えることができる.なお,表\ref{t:005}には,表\ref{t:004}の\maru{5}として,Ccに含まれてはいなかったが,本検討によって採用すべきと判断した用語の例を示した.\subsubsection{再検討を必要とした各語に関する検討}\label{s:再検討を必要とした各語に関する検討}表\ref{t:004}の\maru{5}(Ccに含まれなかったが,再度抽出時に採用すべきと判断した語)は,10疾患全体で98語(1疾患あたり約10語)であった.これらの例を表\ref{t:005}に示す.また,これら98語を採用すべきと判断した4つの理由(R1からR4)について以下に説明する.\begin{table}[b]\caption{表\ref{t:004}の\textcircled{\small5}(Ccになかったが再検討時採用すべきと思われた)語数と例}\input{01table05.txt}\label{t:005}\end{table}\paragraph{R1(2ホップルール)}\label{s:R1(2ホップルール)}\ref{s:がんとの関連性による用語分類と選択基準}節図\ref{f:006}の「がん用語の選択基準」は,Ccの用語候補を整理する過程で確立されたものである.一方,\ref{s:がん用語候補集合の作成}節で述べたCcの抽出時には,この選択基準は存在しなかったため,専門家が「がんに関連する用語」として認識する語を幅広く網羅するようにCcを作成した.つまり,「Ccの抽出基準」と「がん用語の選択基準」は異なるものである.そのため,Ccの抽出時には,がんに関連しないと判断されたため切り出されなかった用語候補が,がん用語の選択基準に基づいて再検討をした結果として,用語として採用した方が良いと判断されるものがありうる.それらが表\ref{t:005}のR1として示されている.例えば,「焼灼」の意味は「焼くこと」であるため,Cc抽出時には一般医学用語と考えて切り出さなかったが,これは,肝臓がんや転移性の肝臓がんに限定して用いられるため,肝臓がんに対してT2である.また,「橋」は,単に脳の一部を示す解剖学用語であると思われたため,Cc抽出時には切り出されなかったが,神経膠腫が多発する部分であるためT3と考えられる.また,「日系移民」もCc抽出時には一般名詞と考えたが,大腸がんの発症原因である食生活の欧米化と関係するのでT3に入れるべき語である.このように,Ccの作成段階では「がんに関係するかどうか」という基準で切り出したため,がん用語選択基準である2ホップルールに照らすと用語であっても,Ccには採用されないものがあった.ただし,このような用語は25語と少数であるため,本研究のアプローチ,すなわち,まず専門家が「がんに関連する用語」として認識する語を幅広く網羅するようにCcを作成し,次に,そこから,がん用語選択基準に従って,がん用語を選択するというアプローチは有効であるといえる.\paragraph{R2(文法):切り出し時のゆれ}\label{s:R2(文法):切り出し時のゆれ}Cc作成における用語候補の切り出し時において,一つの名詞句に対して複数の用語候補が考えられるときには,一つの用語候補のみを選択して切り出したが,その選択に揺れが生じた場合である.例えば,「1年生存率」は,Ccの抽出段階では「生存率」を用語候補として選択したが,これは,「がんを発症後1年生存する率」の意味であり重症のがんで多用される用語であるため,本節では採用した.「ステージ1」についても,Cc抽出時には,がんの病期を示す「ステージ」を選択していたが,これは,「軽症のがん」の意味を示す用語であるため,本節では採用した.「消化管の再建」も,Cc抽出時には「消化管」と「再建」に分かれて抽出されていたが,これは,「消化管の再建」という一つの単位で,胃がんの主な手術である胃切除術に関連する用語として利用されるものであるので,本節では採用した.このように,Ccの抽出において,一つの名詞句に対して複数の用語候補があるときに,どの名詞句を切り出すのかについては,後の見直しで採用すべき語もあることが分かった.このような用語は69語であった.\paragraph{その他:R3(見落とし),R4(表記のゆれ)}\label{s:その他:R3(見落とし),R4(表記のゆれ)}以上の語の他に,明らかにがんに関連する語である「lymphoblasticlymphoma」(病名),「卵巣がん検診」「噴門部がん」(これら2語は文節中にがんを含んでいる)がCcに含まれていなかった.これらは切り出し時の見落としによるものであると思われた.また,「上皮がん」は,通常「上皮内がん」や,「移行上皮がん」などが一般的であり,医学的には一般的ではないためCc抽出時には採用しなかったが,本例はコーパス側における「上皮内がん」の表記のゆれであると思われるため,本節では採用すべきと考えた.\subsection{用語の削除と,がん用語集合Cの作成}\label{s:用語の削除と,がん用語集合Cの作成}\ref{s:がん用語候補集合の作成}節で得た用語候補の集合Ccから妥当ながん用語集合Cを得るために,前節同様,医師免許を保有する有資格者1名と自然言語処理の研究者1名(第1著者と第2著者)が,がん用語の選択基準に基づき,がん用語とすべき用語の範囲と選択基準の整合性を整理しつつ,1語1語を音読し,必要に応じて用例を参照して,がん用語かどうかを判断した.この判断の結果,Ccのうち9509語をがん用語として採用し,690語を除外した.表\ref{t:006}には,除外した理由別の語数を示す.表\ref{t:006}における「誤用」とは,元コーパス中で,「全脳照射」とすべきところを「全能照射」としていたなど,明らかに用語の使用が間違っている場合であり,「ミス」とは,用語候補の切り出しにあたって,用語の一部のみしか抽出しないなど,切り出しに失敗した例である.以下では,その他の理由である「固有名詞」「文法」「2ホップ」について説明する.\begin{table}[b]\caption{選択基準によりCcから除外した用語例と理由}\begin{center}\input{01table06.txt}\end{center}\label{t:006}\end{table}\subsubsection{「固有名詞」:固有名詞の削除例}\label{s:「固有名詞」:固有名詞の削除例}\ref{s:がんとの関連性による用語分類と選択基準}節の「がん用語の選択基準」では,「固有名詞」はがん用語に含めないと述べた.固有名詞として削除例に挙げた「LSG」はLymphomaStudyGroup(悪性リンパ腫研究会:わが国の悪性リンパ腫の治療法を共同研究として行っている団体),「ASCO」は``AmericanSocietyofClinicalOncology''(アメリカ臨床がん学会)ならびに「アメリカがん協会」は,がんの学会や研究会である.これらは,がんに関連する文書の中でも頻繁に出現する.しかし,「LSG」など研究会名称は,今後変更されることも予想される.また,「ASCO」や「アメリカがん協会」の呼称については,ASCO,AmericanSocietyofClinicalOncology,ASCO(AmericanSocietyofClinicalOncology),ASCO(アメリカ臨床がん学会),アメリカ臨床がん学会(協会)など,表記のゆれもある.このような,団体や研究グループなどの固有名詞は,「がんの辞典」を考える場合に項目を作成可能ではあるが,同じ用語であることの同定が専門家でも困難であることも多いため,がん用語とすることは難しい.人名であるベンス・ジョーンズは多発性骨髄腫という血液のがんに特有なベンス・ジョーンズ蛋白という物質を発見したことで有名な医師だが,がん用語としては,物質名である「ベンス・ジョーンズ蛋白」は採用するが,単独の人名では採用しない.「薬物療法部長」などの病院の役職名も,がんに関する記述の中で比較的良く用いられる呼称である.薬物療法部長が薬物治療を行う疾患はほとんどの場合,がんであり,「薬物療法部長の○○氏と面談」などの文が患者のブログなどでも出現することも予想できる.しかし,医師,看護師,薬剤師,患者などの呼称とは異なり,統一された資格者を示すものではない.また,「がん治療の3本柱」は,主に国立がんセンターで患者に対して,がんの治療法である手術・抗がん剤を用いる化学療法・放射線療法の3つをまとめて言う場合に用いられる語である.これらも,一般的用語ではないと考えられるため,ここでは「固有名詞」として扱う.これらの,普遍的な名詞句となっていない固有名詞,単純な人名(手術法等に含まれるものはそのつど採用),呼称の一定しない役職名など122語を「固有名詞」として削除するのが妥当と考えられる.\subsubsection{「文法」:文法による削除例}\label{s:「文法」:文法による削除例}Cc作成では網羅的に複合語を積極的に収集したが,3.4の「がん用語選択の基準」の文法上の理由(「〜内」,「〜外」などの連体詞的な用例は採用しない)によって,「転移を認めない」「生理以外」,「放射線治療単独」,「同種造血幹細胞移植前」,「寛解導入療法中」などの複合語を削除語とする.本研究ではこれらを削除語とするが,これらはがん情報処理に有用な場合もある.たとえば,「生理以外」は,婦人科がんの不正性器出血と呼ばれる症候に関連する語で,「生理以外の出血はありますか?」などの用例がある.この場合,「生理以外」を単独のがんに関係する句として認識することによって,この文が,がんに関するものであることを予測することができる.また,「放射線治療単独」は,化学療法や手術を複合して用いていない「単独」という限定を強調する用例で,「放射線治療だけで治療する」という意味を明示する.この場合も,「放射線治療」と「単独」に分割しては「放射線治療だけで治療する」という意味が弱くなる可能性もある.このように,一つ一つの複合語を用例に従って吟味すると,実際の用例で出現した文脈が,がんの意味を含むことを限定できる可能性もあるため,本研究では一旦削除語とするが,今後の検討を可能とするために,削除語の中でも「文法」という理由で削除したことを明記(305語)し,本研究で公開するがん用語集合の付録として公開する予定である.\subsubsection{「2ホップ」:2ホップ目までのルールでの削除例}\label{s:「2ホップ」:2ホップ目までのルールでの削除例}2ホップ目までのルールとは,2ホップよりも関連性の弱い語(T4)を削除する規則である.たとえば,表\ref{t:006}の「うがい」は,白血病治療などで感染症の危険が増加することを予防する方法のひとつである.「白血病治療」を起点として用語の連関を想起する場合,「白血病治療」は「白血球減少」を起こし,「感染予防」や「感染症の危険」を高めるから,予防方法として「うがい」を行う.そのため,「白血病治療」(0ホップ目)—「白血球減少」(1ホップ目)—「感染予防」(2ホップ目)—「うがい」(3ホップ目)という想起順となる.すなわち,「うがい」はT4に分類される.しかし,「白血病治療」—「感染予防」が,「白血球減少」のような,橋渡しを行う用語を介さずに,例えば,「白血病治療は感染症予防を行うことが肝要であり,うがいは最も重要だ.」のような用例を想起するのであれば,「白血病治療」(0ホップ目)「感染予防」(1ホップ目)「うがい」(2ホップ目)という想起順になり,この「うがい」は除外語ではなく採用語T3となる.さらに,「白血病」を起点(0ホップ目)とした場合は,「白血病」(0ホップ目)—「化学療法」(1ホップ目)—「白血球減少」(2ホップ目)—「易感染性」(3ホップ目)—「うがい」(4ホップ目)という想起順が考えられ,この場合の「うがい」は白血病から考えて4ホップ目となる.すなわち,T4である.このように,作成した選択基準の「2ホップ目まで」のルールは,0ホップ目にどのような用語を選択するか,あるいは仲介する用語として何を想起するかによって変化する.このような「2ホップ」よりも関連性が低い単語については,4.3の第三者医師による評価の項で述べるが,がんとの関連性の判断が人により異なる.そのため,本研究では,「文法」により削除された語と同様に,がん用語集合の付録としてT4に分類された語も公開する予定である.\subsubsection{削除語に関するまとめ}\label{s:削除語に関するまとめ}\begin{table}[b]\caption{選択基準によるCc(10119語)の分類結果}\begin{center}\input{01table07.txt}\end{center}\label{t:007}\end{table}以上より,Ccから抽出したT1,T2,T3の9509語をがん用語集合Cとして採用し,残りの690語を削除語とした.これらの語数を表\ref{t:007}に示す.なお,本研究により作成したがん用語集合を公開するにあたって,我々は,がん用語集合Cに加えて,削除語のなかで「文法」と「2ホップ」に相当する語については,付録として公開する予定である.その理由は,前述のように,これらの削除語については,本研究においては削除語と判断されたが,場合によっては,がん情報処理に有用な場合があると考えるからである.\subsection{複数医師による評価}\label{s:複数医師による評価}これまでに作成し分類した用語集合は,専門家が作成したものであるが,その人数が1人であるので,必ずしも,他の専門家が同意する用語集合であるとは限らない.そのため,本節では,複数医師により,上述のT1,T2,T3,T4の分類の妥当性を確認する.評価用データとして,T1,T2,T3,T4のそれぞれから無作為に約50語(合計197語)を選んだ.この評価語データを付録1に示す説明文書とともに,臨床経験15年以上の医師4名(大学院講師以上の腫瘍内科医2名,脳神経外科指導医1名,循環器内科認定医1名:以下,C1--C4と呼ぶ)に提示し,各人のそれぞれの用語に対するT1からT4の評価値を得た.本研究が付加したT1からT4の分類と,各医師による分類の比較結果を表\ref{t:008}に示す.左のカラムにある1から4のカラム(Cat)は,本研究で各用語に付与した分類値であり,T1からT4の分類を示す.これに対して,それぞれの医師C1からC4の別に,各人による分類をT1からT4で示し,それぞれの要素をクロス集計した頻度を示した.また頻度の合計をTotalとして示した.これより,対角線に近い部分の頻度が高いことがわかる.たとえば,医師C1については,本研究で付与したT1(Cat1)は,T1もしくはT2にほとんどが分類されている.また,C2については,Cat1は,46例中の38例がT1に分類されている.このことより,本研究で付与した分類が,他の医師の判定と一致することが多いことがわかる.\begin{table}[b]\caption{医師4名(C1からC4)から得た分類結果(単語数197)}\begin{center}\input{01table08.txt}\end{center}\label{t:008}\end{table}さらに,表\ref{t:008}における分類の一致の度合いを,Cohen'sKappa\cite{c18}を用いて,数値化することにより,本研究による分類と各医師による分類との一致の度合いを調べる.そのために,表\ref{t:008}から複数のクロス集計を得て,それらにおけるKappaを調べる.複数のクロス集計を得るときには,T1とT2など,隣接するカテゴリを一つのカテゴリとすることを,次に示す分割例1から7の全ての場合について試した.たとえば,被験者C1の分割例2と分割例6について,本研究の想定に対するKappaの算出対象とするクロス表について図\ref{f:009}に示す.\begin{figure}[b]\vspace{-5pt}\begin{center}\includegraphics{16-2ia1f9.eps}\end{center}\caption{被験者医師C1での分割例2と分割例6における$\kappa$値の算出対象}\label{f:009}\end{figure}\begin{tabular}{lcl}分割例1:1,2,3,4&…&表\ref{t:008}と同分類\\分割例2:1,(2,3,4)&…&1と,(2,3,4)2つに分割\\分割例3:1,(2,3),4&…&1,(2,3),4の3つに分割\\分割例4:(1,2),3,4&…&(1,2),3,4の3つに分割\\分割例5:1,2,(3,4)&…&1,2,(3,4)の3つに分割\\分割例6:(1,2),(3,4)&…&(1,2)と(3,4)の2つに分割\\分割例7:(1,2,3),4&…&(1,2,3)と4の2つに分割\\\end{tabular}Cohen'sKappaは,0.4〜0.6が中等度,0.6以上で生起反応において強い連関を示すと言われている\cite{c17}.それぞれの分割例別の本値を検討することによって,どの分割が実際の医師の持つ語感に合致するかを調べることができる.結果を表\ref{t:009}に示す.左カラムにそれぞれの分割例を示し,この分割例別にC1,C2など各人と,本研究で行った分類をそれぞれの分割例に割り付けなおし,各人の反応との間のKappaを求め,最右カラムに平均値を示した.これより,分割例1,3,4,7では,Kappa値がいずれも0.4以下であり,有意な一致とはみなせないが,分割例2(T1とそれ以外の2分割)と分割例6(T1,2とそれ以外の2分割)では0.6前後の高い一致であった.また,分割例5(T1,T2とそれ以外の3分割)でも0.5の比較的高値であった.\begin{table}[t]\caption{各分割例別のCohen'sKappa値}\begin{center}\input{01table09.txt}\end{center}\label{t:009}\end{table}これらのことから,本研究で想定した,T1(0ホップ目):がんそのものを示す語,T2(1ホップ目):がんを想起させる語までは,実際の被験者医師の語感に近いことが示された.これにより,本研究で行った一人の医師による用語の切り出しとがんとの関連性を想起した分類であっても,概念の中核となる「がんそのものをさし示す語」から,「がんを想起させる語」として感じるような距離感は,第三者医師にとっても共通する語感であることが示された.これは,国家資格を持つ専門職である医師は,一旦国家試験の段階で用語の統一が行われていること,臨床の現場では患者の診断や治療などの相談を頻繁に書面でやりとりする機会が多いこと,ほとんどの医師ががん患者を診断治療した経験を持つことなどが主な理由と思われる.これに対し,本研究でT3(2ホップ目)「がんを想起させる語の関連語」より関連性が低いと想定した語(T4も含む)に関する分類が医師によって異なるのは,4.2.3で述べたようにT3やT4の語はT2やT1に対して何らかの関連語を連想できるかどうかによって,距離感に差が生じやすいことなどが理由と思われる.T3,T4の分類について,複数医師間で一致の高いような基準を研究するのは,今後の検討課題である.これらの結果は,本研究が3.4で規定した,「Cc(10199語)の用語をがんとの関連性によってT1,T2,T3,T4と分類し,T1からT3までをがん用語Cとする」という選択基準に対して,T1からT2までは複数医師間で一致がとれていることを示している.そのため,T1とT2については,中心的で妥当ながん用語といえると考える.一方,T3とT4については,かならずしも複数医師間での一致はないが,これらの用語候補は,まず,(1)国立がんセンターのテキストに含まれているということ,(2)専門家が吟味した語であることから,がん用語集合C(T1からT3)およびその付録としての削除語のリスト(T4)として公開する価値があると考えた.\subsection{がん用語の選択基準の必要性に関する検討}\label{s:がん用語の選択基準の必要性に関する検討}\ref{s:複数医師による評価}節の実験により,\ref{s:がんとの関連性による用語分類と選択基準}節のがん用語の選択基準に従って行ったT1,T2,T3,T4への分類は,第3者医師が行った分類と有意に相関することが示された.このことから,本研究がこれまでに行った,網羅的収集によるCcの作成(\ref{s:がん用語候補集合の作成}節),収集された用語の分類と用語選択基準の設定(\ref{s:がんとの関連性による用語分類と選択基準}節)と削除語の選別(\ref{s:用語の削除と,がん用語集合Cの作成}節)に関しては,妥当性が示されたと考える.しかし,これだけではがん用語の選択基準として\ref{s:がんとの関連性による用語分類と選択基準}節で提案した2ホップルールの必要性は示していない可能性がある.すなわち,従来の用語選択基準である,単に,「がんに関係する用語か,そうでない用語か」(以下,「がん用語か否か」と表記する.)による選択でも十分である可能性がある.この問題について検討するため,用語候補集合Ccから無作為に100語を選択し用語候補集合を作成した.そして,\ref{s:複数医師による評価}節の医師4名とは別の医師6名(D1からD6:国立がんセンター研究者2名,大学医学部教授2名,ならびに内科医師2名.順不同.)を被験者として,付録2に示した依頼文と共に示した用語100語を「がん用語か否か」に分類を依頼した.なお,100語の内訳は,T1が9語,T2が24語,T3が39語,T4が28語である.また,各医師毎に,がん用語として選択した語数は,D1が61語,D2が18語,D3が53語,D4が48語,D5が33語,D6が6語である.なお,被験者D6は他の医師5名に比べ,がん用語とした語数が顕著に少ないが,除外せずに評価結果とすることとした.本節での目的は,従来の「がん用語か否か」という選択基準と,提案手法である「図\ref{f:006}のがん用語選択基準」とを比較することであるので,まず,「がん用語か否か」という選択基準によりがん用語を選択した場合における,6名の医師(D1--D6)間での$\kappa$値を表\ref{t:010}に示す.\begin{table}[b]\caption{従来法(がん用語か否か)による用語選択の被験者間の$\kappa$値}\begin{center}\input{01table10.txt}\end{center}\label{t:010}\end{table}表\ref{t:010}より,D1とD4,D5,D2とD5,D3とD4,D5,D4とD5はそれぞれ中等度以上の一致を示しており,医師間では相関する場合もあるが,D6のように,他の医師と有意な相関を示さない例もある.また,D1からD6全体としての$\kappa$値の平均値は0.32であり,がん用語を極端に少なく選択したD6を除きD1からD5までとした場合の$\kappa$値の平均値は0.39であった.これに対して,提案する選択基準による医師間の一致の度合いをみるために,表\ref{t:011}に,\ref{s:複数医師による評価}節の医師4名(C1〜C4)による197語の分類結果に対して,T1からT4の4つを仮に2つに分類すると仮定し,P1(T1とT2,T3,T4),P2(T1,T2とT3,T4),P3(T1,T2,T3とT4)の各分割例について,4名の医師間の$\kappa$値を算出した結果を示す.表\ref{t:010}に比べ,分割例P1,P2において各医師間で高い一致を示し,P1,P2,P3におけるこれら$\kappa$値の平均値はそれぞれ0.67,0.69,0.19であった.以上のことから,提示した用語集合を表\ref{t:010}のように「がん用語か否か」で分類する場合よりも,表\ref{t:011}に示した本研究の提案する「2ホップルール」により分類する場合のほうが,医師間の用語選択の一致性が高く,得られた用語集合のコンセンサスを得やすいことが示された.\begin{table}[b]\caption{提案法(2ホップルール)による用語選択の各被験者間の$\kappa$値}\begin{center}\input{01table11.txt}\end{center}\label{t:011}\end{table}\subsection{専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}\label{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}\ref{s:用語の削除と,がん用語集合Cの作成}節で得られたがん用語集合Cは,信頼できるコーパスから専門家が抽出し,その妥当性が複数の医師により確認されたものである.そのため,このがん用語集合Cを用いて,従来開発されてきた専門用語抽出アルゴリズムの性能を評価することが可能である.つまり,用語集合Cは,専門用語抽出アルゴリズムの正解データとして有用であると考える.そこで,専門用語抽出アルゴリズムの評価の一例として,中川らによって実装されている「言選Web」(http://gensen.dl.itc.u-tokyo.ac.jp/gensenweb.html)を用いて得られた用語とがん用語集合Cとを比較することにより,用語集合Cの正解データとしての有用性を検討する.比較の方法としては,\ref{s:がん用語候補集合(Cc)の作成}節と同一のコーパスから,表\ref{t:012}に示す各疾患を対象として,言選Webを利用して用語を抽出した.これをHNとする.つぎに,同じコーパスについて,用語集合Cに含まれる用語を抽出し,これを用語集合Cdとした.なお,このとき,形態素解析器Mecabを利用し,Mecabの辞書に用語集合Cを加えることにより,C中の用語が自動的に同定できるようにした.(Mecabの辞書に用語を加えるときには,その品詞とコストを試行錯誤により決定し,C中の用語がテキストにあるときには,それが解析結果に優先的に出力されるようにした.)\begin{table}[b]\vspace{-5pt}\caption{従来法(HN)とがん用語辞書で得られた用語(Cd)の比較}\begin{center}\input{01table12.txt}\end{center}\label{t:012}\end{table}これを元コーパスである国立がんセンターのWebデータの中で,肺がん,胃がん,食道がん,大腸がん,および乳がんに適用し,HNとCdに関する諸量を表\ref{t:012}に示した.表\ref{t:012}では,それぞれの疾患のコーパスにおける,\maru{1}$|\text{Cd}|$:Cによって得られた語数,\maru{2}$|\text{HN}|$:HNによって検出された数,\maru{3}$|\text{Cd}\cap\text{HN}|$:$\text{Cd}\cap\text{HN}$の語数,\maru{4}$|\text{Cd}-\text{HN}|$:CdとHNに含まれた語を比較してCdにのみ含まれた語数,\maru{5}$|\text{HN}-\text{Cd}|$:HNとCdを比較してHNにのみ含まれた語数,\maru{6}$\text{HN}-\text{Cd}$の再採用語:表\ref{t:013}に詳細を示すが\maru{5}の語で,Cdに含まれなかったが用語とすべきと思われた語数,\maru{7}$|\text{Cd}\cap\text{HN}|/|\text{HN}|$:HNに対する$\text{HN}\cap\text{C}$の語数の比,(\maru{3}/\maru{2},Cを正答とした場合のHNの精度),\maru{8}$|\text{Cd}\cap\text{HN}|/|\text{Cd}|$:Cを正答とした場合の再現率(\maru{3}/\maru{1})を示す.これより,これら疾患でのHNの再現率(\maru{8})は平均値0.86であり,HNのCに対する網羅性は高いと思われる.しかし,精度(\maru{7})は平均値で0.52であり,HNで得られた用語の約半数は人手で選択しなおす必要があることがわかる.また,HNで検出でき,Cで検出できなかった語数\maru{6}は数語であり,少数であることも分かる.すなわち,Cの網羅性は高いといえる.以上により,HNは用語切り出しに関しては本研究で専門家が行った用語抽出を高い再現率で実現する可能性を示すが,約半数の削除語とすべき語を含んでいることから,用語選択を追加して行う必要のあることを示している.\begin{table}[b]\caption{従来法(HN)によって得られた語の除外理由}\begin{center}\input{01table13.txt}\end{center}\label{t:013}\end{table}さらに,HNで得られた語とCの比較を行い,HNで検出されたがCに含まれなかった語を「除外語」として,\ref{s:用語の削除と,がん用語集合Cの作成}節表\ref{t:006}と同様に分類した結果を表\ref{t:013}に示す.表\ref{t:013}より,HNでは切り出しミス,文法(複合語など)は少数であり,大多数は,本研究で規定した2ホップルールによる除外理由である.2ホップルールによる除外例は,肺がんのコーパスでは,扁平,率,利用,要素,要因,葉,用量,有無,ハイリスク,つけ根,タイプなどであった.また,胃がんのコーパスでは,老化度,輪切り,量,両方,流れ,率,利用,陽性,有無,役割,門,目的,膜,麻酔,本国在住者,方法,変更,変化,壁,分泌,物質,部分,負担,不十分,病院,評価,表面,標準,範囲,髪の毛,発生,白人,年齢別,年単位などであった.ここで,2ホップルールによる除外というのは,専門家により,意味的に判断した結果としての除外である.すなわち,HNは,意味的な理由により除外された語を用語候補として抽出したといえるため,この点において,HNには改善の余地があるといえる.これより,今後HN法などの自動抽出アルゴリズムの教師データとして,今回作成したCを教師データとすることが有用であると考えられた. \section{考察} \label{s:考察}本研究で行った,がん用語集合の作成方法についてまとめる.まず,(1)がん用語集合は,がんに関連する用語をできるだけ網羅することが望ましい.ただし,あまりに関連性の小さい用語も含めると,それらが,がん情報処理に悪影響を与えることが考えられるので,好ましくない.(2)そのため,がんとの関連性が一定以上の強さの用語のみを,がん用語集合に含めるべきである.(3)そこで,本研究では,関連性の強さの指標としてホップ数を導入し,「がん用語の選択基準」としての「2ホップルール」に基づき,がん用語集合を選定した.次に,本研究と従来の用語集の作成法を比較する.まず,医学領域での多くの用語集の妥当性は,\ref{s:用語選択基準の例について}節で示したように,長い時間と多数の用語選定委員によって担保されている.ただし,これらの用語の選択基準は,それぞれの分野において「使用される用語およびこれに関連の深い用語」というものであり,ある用語について,それがその分野で使用されるかどうかや関連が深いかどうかの判断の基準については,\ref{s:用語選択基準の例について}節で示した用語集においては明示されていない.一方,本研究では,まず,国立がんセンターのWebテキストに出現した用語候補をCc抽出の対象とすることにより,抽出された用語が,医学的内容の信頼性および網羅性を持つことを仮定した.次に,専門家が,このテキストから「がんに関係する」と判断した用語候補を網羅的に抽出することにより,Ccを作成した.この段階までにおける本研究と従来の用語集との違いは,従来の用語集の用語の採取元は明示されていないが,Ccに採用された用語の採取元は明らかである点である.また,本研究においても,従来の用語集と同様「がんに関係する」という主観により,用語候補を選定している.ただし,従来の用語集においては,多くの選定委員が用語選択に関与することにより,用語の妥当性を保証しているのであるが,本研究においては,一人の専門家の語感のみによるものであるため,用語選択の妥当性は,それほど保証されていないと考えられる.(ただし,\ref{s:がん用語候補集合の作成}節で述べたように,このような語感は,国家試験などにより基本的知識を共有する専門家間では共有されていると考えた.)そこで,本研究では,がん用語候補集合Ccから,妥当ながん用語を選定するために,\ref{s:がんとの関連性による用語分類と選択基準}節で「がん用語の選択基準」を設定し,それに基づいて,がん用語を選定した.これは,「がんに関係する」という曖昧な判断基準から,Ccの整理を通して,相対的に明確な判断基準である「がん用語の選択基準」としての2ホップルールを構築し,それに基づいて,がん用語を選定したといえる.この2ホップルールの概略は以下のものである.まず,がん用語候補をT1(0ホップ目):がんそのものをさし示す語,T2(1ホップ目):がんを想起させる語,T3(2ホップ目):がんを想起させる語に関連する語,T4(3ホップ目以上):がんとの関連を想起しにくい語,の4つに分類した.そして,2ホップ目までである,T1,T2,T3をがん用語として選定するというものである.この2ホップルールに基づいて一人の専門家により選定されたがん用語集合の妥当性を検討するために,\ref{s:複数医師による評価}節では,本研究で行ったT1からT4までの分類と,複数医師の行った分類の一致性を評価し,T1からT4の間でT2までの用語選択の一致性($\kappa$値0.5から0.6)が示された.これにより,がん用語選択基準である2ホップルールの妥当性を示すことができたと考える.さらに,\ref{s:がん用語の選択基準の必要性に関する検討}節で検討したように,専門知識を有する医師であっても,ある用語が「がん用語か否か」で分類する場合の各人の一致率は,2ホップルールを明示して段階的に用語分類を行った場合に比べ低値($\kappa$値0.3〜0.4)であった.これより,本研究の提案する用語分類法である「2ホップルール」を与えたほうが,従来の「がん用語か否か」という分類を行う場合よりも,適切に専門用語を選択することが可能であることが示された.また,\ref{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}節で示したように,本研究で作成した用語集合(C)を正解データとした場合,自動抽出アルゴリズムによって得られた用語集合(HN)の再現率は約0.86を示したが,精度は0.52であった.これは,HNのアルゴリズムに改善の余地があることを示すと考える.このことから,本研究で作成した用語集合は,自動抽出アルゴリズムの評価に有用であると考える.次に,\ref{s:はじめに}節で目標としたように,本研究におけるがん用語の作成方法が,他の分野の用語集合の作成にも適用可能かについて考察する.まず,本研究におけるがん用語の選定方法を一般化すると次のようになる.(1)まず,医学的内容の信頼性と網羅性が高いコーパスを選定する.(2)次に,そのコーパスから,専門家が,対象の病気に関連すると考える用語候補を網羅的に収集する.(3)最後に,2ホップルールに基づいて,対象の病気に関係する用語を選定する.なお,2ホップルールは,より一般的には,中心的な用語から関連語までについて,T1,T2,T3,T4,…のような関連度の段階を定め,そのある段階までを,用語として認定するというものである.このような用語集合の作成法の一般化が,他の病気に対しても適用可能かを実証することは今後の課題であるが,がんという,多数の疾患からなり肺がんや胃がんのような固型がんから,白血病のような肉腫と呼ばれる疾患群までを総称する複雑な概念からなる用語集合の作成が可能であったことから,少なくとも「パーキンソン病」や「アルツハイマー病」などの難病,「糖尿病」や「高血圧」のような生活習慣病など,ほぼ医学の全分野に応用可能と思われる.また,本作成法の医学以外の分野での応用可能性(例えば,「不安」や「抑圧」などの心理学分野の症候を示す語群)に関しても,今後検討する予定である.以上,本研究における用語集作成法と従来の用語集の作成法とを比べて,本研究における新規な点は,用語選択の基準について,「がんに関係する」という曖昧な判断基準から,2ホップルールという相対的に明確な判断基準を構築し,それに基づいて,がん用語を選定したことであると述べた.次に,本研究で作成したがん用語集を実際のがん情報処理に適用するために必要と考えられる2つの拡張について述べる.これらは今後の課題である.まず,本研究においては,国立がんセンターのWebテキストから抽出した用語のみをがん用語集に採用しているが,その他のテキストから抽出した用語もがん情報処理に有効な場合が考えられる.たとえば,「がんに効果がある」と宣伝している悪質な商品誘導へのページをフィルタリングして,良質ながん情報のページを推薦するためには,本研究で作成した用語集に加えて,悪質なページに特徴的な単語を利用すると効果的と考えられる.また,ブログの検索などの応用においては,検索ユーザが頻繁に入力する単語も追加すると効果的と考えられる.また,\ref{s:「文法」:文法による削除例}節で検討した,「生理以外」等の文法的理由による削除語についても,検索等には有用であると考えられるので,本研究で提案したがん用語集合に加えて使用すると有効であると考える.次に,本研究においては,がん用語をT1,T2,T3に分類した.これは,がんとの関連性により,用語をランキングしたと考えることもできる.このランキングは,がん用語集合を選定するためには有効であるが,その他の目的に対して最適とは限らない.たとえば,がんに関係するページをWeb検索するときに,「レントゲン写真」と「急性転化」とは,どちらもT2であるが,前者ががん以外のページも上位の検索結果に含むのに対して,後者はがん(白血病)のページがほとんどである.つまり,検索結果の適合率という観点からは,「急性転化」の方が良い用語である.このように,T1,T2,T3は関連性をベースにした用語の分類であるが,目的が明確な場合には,この分類は最適とはいえない.しかし,本研究により作成したがん用語集合があれば,それを検索のためにランキングする等,目的に応じてがん用語をランキングすることも考えられる.これは,全語彙にランキングを行うよりはるかに容易である.すなわち,本研究で作成した用語集合のランキングを目的別に整備することにより,目的対応の用語集合ができる.したがって,本研究により作成したがん用語集合は有用であると考える. \section{まとめと今後の方針} \label{s:まとめと今後の方針}がん情報処理を補助することを目的として,その言語基盤であるがん用語辞書を,医師免許を持つ専門家が人手で作成した.わが国で生じる可能性のあるほぼ全てである59個のがんの説明用コンテンツを含む国立がんセンターのWeb文書全体(テキストファイルとして約15メガバイト)を,がんの情報に関して十分な網羅性を持つ権威あるコーパスとして選択した.これから直接人手で,がん用語として理解可能な用語を網羅的に収集し,10199語の用語候補集合Cc(CancertermCandidates)を得た.得られたCcの各語を理解しやすくすることや用語間の整合性を調整するために,各語の用例から「病名」「解剖学用語」「臨床用語」「一般語」「検査用語」などの種別を作成した.また,各語をがんとの関連性を想起しつつ分類した結果,T1(がんそのものをさし示す語),T2(がんを想起させる語),T3(がんを想起させる語に関連する語),T4(がんとの関連性を想起しにくい語)の4つに分類できた.これら「種別」とがんとの関連性を参考に,がん用語として,T1からT3までをがん用語Cとして選択するという選択基準を規定した.元コーパスに対するCcの用語候補抽出の一貫性を調べるために,コーパスから10個の疾患の説明用ページのテキストファイルを対象として,再度網羅的な用語収集を行い,得られた用語のうちCcに含まれた語の比率を調べた.その結果,これら10個の対象におけるCcの再現率は94\%から99.5\%であり,元コーパスに対するCcの再現性は十分であることが示された.さらに,選択基準をもとに,T1,T2,T3,T4の分類を,Cc(10199語)の全用語に対して人手で行い,T1,T2,T3に分類される用語を,がん用語集合Cとした.選択基準の妥当性を検討するために,T1(1637語),T2(4167語),T3(3705語),T4(221語)の中から約50語ずつを無作為に選び,評価用ワードセット(用語数197語)を作成し,これを選択基準の説明文とともに医師4名に示し,本研究で想定したT1からT4の分類と各医師の分類の比較を行った.その結果,T1,T2までの分割に対するCohen'sKappa値は約0.6であり,さらにT1,T2とそれ以外の3分割の場合でも0.5を示したことから,T1とT2までの語彙選択の妥当性が示された.以上より,本研究で行ったコーパスからの網羅的用語収集と用語選択基準の組み合わせによって,少人数で妥当性のあるがん用語集合を作成することができた.本研究のような用語集合の作成は,目的とする分野での質の高いコーパスが存在することが重要だが,今後他の医学分野においても同様の手法で,妥当性のある用語集合を作成していくことが可能と思われる.また,\ref{s:既存の医学用語集}節であげたNationalCancerInstituteのDictionaryofCancerTermsの語彙数5236語と,CcのT1とT2の合計語彙数5804語が,対象とするがんの種類や社会制度などが異なる2つの地域で同規模であることも興味深い.これら語彙の相互比較も今後の検討課題である.今後,このがん用語集合を用いたがん情報処理の実現にむけて研究を行うことが課題である.なお,本研究で収集したがん情報コーパスならびに,分類タグつきのがん用語集合は,国立がんセンターとの協議の上で公開する予定である.\acknowledgment本研究を行うに当たり用語辞書作成に御協力いただいた,元北陸先端科学技術大学院大学学生木村俊也氏,国立がんセンター中央病院若尾文彦医長,同がん対策情報センター石川ベンジャミン光一室長,滋賀医科大学藤山佳秀教授,程原佳子教授,八尾武憲博士,近畿大学医学部西尾和人教授,鹿児島大学大学院医歯学総合研究科秋葉澄伯教授,高岡医院高岡篤博士,野洲病院木築裕彦医師に謝意を表する.論文作成に御協力いただいた,情報通信研究機構主任研究員門林理恵子博士ならびに村松亜左子氏に謝意を表する.なお,本研究はNICT運営費交付金(新世代ネットワーク研究センター),平成19年度,20年度厚生労働省がん研究助成金研究総合研究「がん情報ネットワークを利用した総合的がん対策支援の具体的方法に関する研究」若尾班等の支援を得て行った.関係各位に深謝する.\section*{注}\hangafter=1\hangindent=2zw\noindent1)日本内科学会編,内科学用語集(第5版)(1998).医学書院.ISBN:978-4-2601-3641-9(4-2601-3641-0).\hangafter=1\hangindent=2zw\noindent2)循環器学用語合同委員会,循環器学用語集(第3版)(2008).丹水社.ISBN:978-4-9313-4722-9(4-9313-4722-3).\hangafter=1\hangindent=2zw\noindent3)NationalCancerInstitute(NCI).http://www.cancer.gov/dictionary/\hangafter=1\hangindent=2zw\noindent4)日本糖尿病学会(編集)(2005).糖尿病学用語集.文光堂.ISBN:978-4-8306-1363-0(4-8306-1363-7).\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{青木}{青木}{2002}]{c17}青木繁伸(2002).http://aoki2.si.gunma-u.ac.jp/lecture/Kappa/kappa.html\bibitem[\protect\BCAY{Humphrey\BBA\Miller}{Humphrey\BBA\Miller}{1987}]{c4}Humphrey,S.M.andMiller,N.E.(1987).``Knowledge-basedindexingofthemedicalliterature:theIndexingAidProject.''\textit{JAmSocInfSci},\textbf{38}(3),pp.184--196\bibitem[\protect\BCAY{国立がんセンター}{国立がんセンター}{}]{c8}国立がんセンター.http://www.ncc.go.jp/index.html\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{c18}Landis,J.R.andKoch,G.G.(1977).``Themeasurementofobserveragreementforcategoricaldata''in\textit{Biometrics}.\textbf{33},pp.159--174.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2000}]{c6}Nakagawa,H.(2000).``AutomaticTermRecognitionbasedonStatisticsofCompoundNouns.''\textit{Terminology},\textbf{6}(2),pp.195--210.\bibitem[\protect\BCAY{Nakagawa,Kimura,Itokawa,Kasahara,Sato,\BBA\Kimura}{Nakagawaet~al.}{1995}]{c13}Nakagawa,S.,Kimura,M.,Itokawa,Y.,Kasahara,Y.,Sato,T.,andKimura,I.(1995).``DevelopmentofInternet-BasedTotalHealthCareManagementSystemwithElectronicMail.''\textit{JournalofEpidemiology},\textbf{5}(3),pp.131--140.\bibitem[\protect\BCAY{{NationalCancerInstitute(NCI)}}{{NationalCancerInstitute(NCI)}}{2007}]{c14}NationalCancerInstitute(NCI)(2007).PDQ(CancerInformationPhysicianDataQueryfromNationalCancerInstitute).http://www.cancer.gov/cancerinfo/pdq/\bibitem[\protect\BCAY{{NationalLibraryofMedicine}}{{NationalLibraryofMedicine}}{2006}]{c5}NationalLibraryofMedicine(2006).\textit{MedicalSubjectHeadings(MeSH)factsheet}.\bibitem[\protect\BCAY{野口}{野口}{2000}]{c2}野口迪子(2000).医学書を探す:基本図書を主として.情報の科学と技術,\textbf{50}(11),pp.542--552.\bibitem[\protect\BCAY{佐藤\JBA佐々木}{佐藤\JBA佐々木}{2003}]{c7}佐藤理史,佐々木靖広(2003).ウェブを利用した関連用語の自動収集.情報処理学会研究報告,2003-NL-153,pp.57--64.\bibitem[\protect\BCAY{{\kern-0.5zw}(財)先端医療振興財団}{(財)先端医療振興財団}{2009}]{c15}(財)先端医療振興財団(2009),PDQ日本語版,http://cancerinfo.tri-kobe.org/\bibitem[\protect\BCAY{WendyA.~Weiger\JBA坪野}{WendyA.~Weiger\JBA坪野}{2004}]{c3}WendyA.Weiger(原著),坪野吉孝(翻訳)(2004).がんの代替療法—有効性と安全性がわかる本.法研.\bibitem[\protect\BCAY{山口\JBA北原}{山口\JBA北原}{2004}]{c16}山口徹,北原光夫(編集)(2004).今日の治療指針.医学書院.\bibitem[\protect\BCAY{山室}{山室}{2000}]{c1}山室真知子(2000).医学情報の患者へのバリアフリー.情報の科学と技術,\textbf{50}(3),pp.138--142.\end{thebibliography}\begin{biography}\bioauthor{中川晋一(正会員)}{1988年滋賀医科大学卒,医師.1996年京大院(医)終了,博士(医学).同年国立がんセンター研究所,1998年郵政省通信総合研究所(現情報通信研究機構),現在,同主任研究員,次世代インターネット技術開発に従事,IT技術の実社会への応用(情報通信医学)に興味がある.言語処理学会,情報処理学会,日本内科学会等会員}\bioauthor{内山将夫(正会員)}{1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,情報通信研究機構主任研究員.言語処理の実際的で学際的な応用に興味がある.言語処理学会,情報処理学会,ACL等会員.}\bioauthor{三角真(非会員)}{2004年北陸先端科学技術大学院大学博士前期課程修了.修士(情報科学).同年,JST重点支援協力員に採用.2006年NICT技術員に採用.2008年から東京工業大学博士後期課程在学.情報通信の研究に従事.}\bioauthor{島津明(正会員)}{1973年九州大学大学院理学研究科修士課程修了.同年,日本電信電話公社武蔵野電気通信研究所入所.1985年日本電信電話株式会社基礎研究所.1997年北陸先端科学技術大学院大学情報科学研究科教授.工学博士.}\bioauthor{酒井善則(非会員)}{1969年東京大学工学部電気工学科卒業1974年同大学院博士課程修了.工学博士.同年電電公社電気通信研究所入社1987年東京工業大学助教授1990年同教授,画像情報処理,情報ネットワークの研究に従事1994年テレビジョン学会著述賞,1998年画像電子学会論文賞,2001電子情報通信学会業績賞}\end{biography}\biodate\setcounter{section}{0}\def\thesection{} \section{} \begin{boiteepaisseavecuntitre}{各評価担当医師への依頼文}\begin{verbatim}用語集合分類のお願い2ページ目から4ページ目までの表に,単語が合計100個書いてあります.これを,「がんに関係する用語か,そうでない用語か」の2つに分けてください.単語を見ていただいて,がんに関係する語なら○,がんに関係ない語なら×を右側のカラムに書き入れてください.\end{verbatim}\end{boiteepaisseavecuntitre}\end{document}
V07N03-01
\section{はじめに} 本論文では,GLR法\cite{Tomita1987}に基づく痕跡処理の手法を示す.痕跡という考え方は,チョムスキーの痕跡理論で導入されたものである.痕跡とは,文の構成素がその文中の別の位置に移動することによって生じた欠落部分に残されると考えられるものである.例えば,``Achildwhohasatoysmiles.''という文では,`achild'がwhoの直後(右隣り)から現在の位置に移動することによって生じた欠落部分に痕跡が存在する.痕跡を{\itt}で表すと,この文は``Achildwho{\itt}hasatoysmiles.''となる.構文解析において,解析系が文に含まれる痕跡を検出し,その部分に対応する構成素を補完することができると,痕跡のための特別な文法規則を用意する必要がなくなり,文法規則の数が抑えられる.これによって,文法全体の見通しが良くなり,文法記述者の負担が軽減する\cite{Konno1986}.GLR法は効率の良い構文解析法として知られるが,痕跡処理については考慮されていない.本論文では,GLR法に基づいて痕跡処理を実現しようとするときに問題となる点を明らかにし,それに対する解決方法を示す.これまでに,痕跡を扱うための文法の枠組みが提案されるとともに,それらを用いた痕跡処理の手法が示されている\cite[など]{Pereira1981,Konno1986,Hayashi1988,Tokunaga1990,Haruno1992}.これらのうち痕跡の扱いに関する初期の考え方として,ATNGのHOLD機構\cite{Wanner1978},PereiraによるXGのXリスト\cite{Pereira1981}が知られている.本論文で示す手法では,XGでのXリストの考え方と基本的に同じものを用いる. \section{GLR法} 本章では,本論文で示す手法の基となるGLR法\cite{Tomita1987}について簡単に述べる.GLR法では,次に示す項の集合によって解析系の{\bf状態}というものが定義される.そして,解析系がLR構文解析表\footnote{LR構文解析系は,LR構文解析表の構成方法によって,SLR(simpleLR),正準LR(canonicalLR),LALR(lookaheadLR)の3つに分けられる\cite{Aho1986}.ここではSLRに基づいて説明をおこなうが,本論文で示す手法は正準LR,LALRに対しても有効である.}に従ってある状態から他の状態へと遷移することで解析が進められる.項とは,文法規則に解析経過を示すドット記号`・'を付加したものである.ドット記号は文法規則の右辺に付加され,その左側のカテゴリは既に解析済みであり,その右隣りのカテゴリがその後の解析の対象となることを示す.$[s\tonp\cdotvp]$は項の一例であるが,これは「現時点までにカテゴリnpの解析が終了し,次にカテゴリvpの解析を開始する.」ということを示す.状態を構成する項の集合は,与えられたCFGに文法規則$[S'\toS]$を加えて得られる文法から,次に示す関数CLOSUREおよびGOTOによって求められる.ここで,$S$は開始記号を表す.\subsubsection*{関数CLOSURE}関数CLOSUREは,与えられた項の集合$I$から,次の手順で$I$の閉包CLOSURE($I$)を求める.\begin{enumerate}\item与えられた項の集合$I$に含まれる,すべての項をその閉包CLOSURE($I$)に加える.\item項$[A\to\alpha\cdotB\beta]$がCLOSURE($I$)に含まれ,文法規則$B\to\gamma$が存在するとき,項$[B\to\cdot\gamma]$がCLOSURE($I$)に含まれていなければ,これをCLOSURE($I$)に加える.加えるべき項がなくなるまで,これを繰り返す.\end{enumerate}ここで,$A$,$B$は非終端カテゴリを,$\alpha$,$\beta$,$\gamma$は非終端カテゴリおよび品詞\footnote{GLR法を自然言語の解析に用いる場合,通常,先読みした語の品詞などを先読み情報として使用する.品詞は,文法規則による導出において,終端カテゴリ(語)の一つ手前のカテゴリとなる.}からなるカテゴリ列を表す.\subsubsection*{関数GOTO}関数GOTOは,与えられた項の集合$I$から,文法カテゴリ$X$に対する新たな項の集合GOTO($I$,$X$)を求める.得られるGOTO($I$,$X$)は,$I$に含まれる項$[A\to\alpha\cdotX\beta]$に対する項$[A\to\alphaX\cdot\beta]$をすべて集めたものの閉包である.ここで,$A$は非終端カテゴリを,$\alpha$,$\beta$は非終端カテゴリおよび品詞からなるカテゴリ列を表す.\状態を構成する項の集合を求める手順は次の通りである.\begin{enumerate}\item項の集合族(つまり,集合の集合)を$C$とし,その初期値を$\{$CLOSURE$(\{[S'\to\cdotS]\})\}$とする.\item$C$に含まれる各項の集合$I$および各文法カテゴリ$X$に対して,GOTO($I$,$X$)を求める.これが空でなく,かつ$C$に含まれていなければ,これを$C$に加える.加えるべき項の集合がなくなるまで,これを繰り返す.\end{enumerate}これによって得られた$C$に含まれる項の集合$I_{i}$が状態$i$を構成する.GLR法での解析系の動作例を次に示す.ここでは図\ref{fig:cfg}に示すCFGを用いる.このCFGからは図\ref{fig:states}に示す各状態が構成される.例文として``Achildsmiles.''を使用する.なお,aの品詞はdet,childはn,smilesはviとする.解析系は状態0から解析を開始し,先読み情報とLR構文解析表に従って解析を進めていく.まずaを先読し,その品詞であるdetを先読み情報として得る.これによって解析系は状態3に遷移する.次にchildを先読みし,その品詞であるnを得る.これによって状態7に遷移する.次にsmilesを先読みし,その品詞であるviを得る.ここで文法規則$[np\todet\n]$による還元をおこない,一時的に状態0に遷移したのち状態2に遷移する.そして,先読み情報であるviに従って状態5に遷移する.次に,文の終了を表す右端記号を先読みする.ここで文法規則$[vp\tovi]$による還元をおこない,一時的に状態2に遷移したのち状態4に遷移する.さらに文法規則$[s\tonp\vp]$による還元をおこない,一時的に状態0に遷移したのち状態1に遷移する.ここで解析系は解析を終了する.\newlength{\mpw}\setlength{\mpw}{3cm}\begin{figure}[htbp]\begin{minipage}[b]{\mpw}\begin{center}\begin{tabular}[h]{l}s$\to$np\vp\\np$\to$det\n\\vp$\to$vi\\vp$\to$vt\np\end{tabular}\caption{簡単な英文を\\解析するため\\のCFG}\label{fig:cfg}\end{center}\end{minipage}\hspace{5mm}\begin{minipage}[b]{10.5cm}\begin{center}{\small\begin{tabular}[h]{lll}\begin{minipage}[t]{\mpw}I$_{0}$:\\\{[S'$\to$$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\}\vspace*{\baselineskip}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{3}$=GOTO(I$_{0}$,det)\\=GOTO(I$_{6}$,det):\\\{[np$\to$det$\cdot$n]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{6}$=GOTO(I$_{2}$,vt):\\\{[vp$\to$vt$\cdot$np]\\[np$\to$$\cdot$det\n]\}\end{minipage}\\\begin{minipage}[t]{\mpw}I$_{1}$=GOTO(I$_{0}$,s):\\\{[S'$\to$s$\cdot$]\}\vspace*{\baselineskip}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{4}$=GOTO(I$_{2}$,vp):\\\{[s$\to$np\vp$\cdot$]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{7}$=GOTO(I$_{3}$,n):\\\{[np$\to$det\n$\cdot$]\}\end{minipage}\\\begin{minipage}[t]{\mpw}I$_{2}$=GOTO(I$_{0}$,np):\\\{[s$\to$np$\cdot$vp]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{5}$=GOTO(I$_{2}$,vi):\\\{[vp$\to$vi$\cdot$]\}\end{minipage}&\begin{minipage}[t]{\mpw}I$_{8}$=GOTO(I$_{6}$,np):\\\{[vp$\to$vt\np$\cdot$]\}\end{minipage}\end{tabular}}\caption{図\ref{fig:cfg}のCFGから求められる,\\状態を構成する項の集合}\label{fig:states}\end{center}\end{minipage}\end{figure} \section{文法記述形式} 本論文で示す手法では,文法記述形式として今野らによるXGS\cite{Konno1986}を用いる.これは,GLR法で用いられるCFGそのままでは痕跡を扱えないためである.XGSは,痕跡を容易に扱えるように,補強CFGの一つであるDCG\cite{Pereira1980}を拡張したものである.XGSでは,次に示すスラッシュ記法を用いて痕跡を記述する.スラッシュ記法では,スラッシュと呼ばれる記号`/'を使用して,非終端カテゴリの記述に痕跡の記述を追加する.`relC/np'はスラッシュ記法を用いた記述の一例であるが,これは「非終端カテゴリrelCを根とする解析木が作られたとき,その根の下に痕跡を直接構成素として持つカテゴリnpが一つ存在する.」という意味を持つ.また,スラッシュ`/'の直後(右隣り)に記述されたカテゴリは,スラッシュカテゴリと呼ばれる.`relC/np'の例では,カテゴリnpはスラッシュカテゴリである.XGSでの文法記述例を図\ref{fig:xgs}に示す.また,この文法を使用した場合の,例文``Achildwhohasatoysmiles.''に対する解析木を図\ref{fig:tree}に示す.\begin{figure}[htbp]\begin{minipage}[b]{4cm}\begin{center}\begin{tabular}[h]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\relC/np.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np\np.\\relC$\to$relPron,\s.\end{tabular}\caption{簡単な英文を解析する\\ための,XGSで\\記述された文法}\label{fig:xgs}\end{center}\end{minipage}\begin{minipage}[b]{10cm}\begin{center}\epsfile{file=tree.eps,scale=0.9}\caption{``Achildwhohasatoysmiles.''\\に対する解析木.{\itt}が痕跡を表す.}\label{fig:tree}\end{center}\end{minipage}\end{figure} \section{痕跡検出} 解析系は,文に含まれる痕跡を検出するために,痕跡となるカテゴリを保持しなければならない.本論文で示す手法では,痕跡となるカテゴリの保持に,XGでのXリスト\cite{Pereira1981}と同じ手法を用いる.つまり,痕跡となるカテゴリの保持にスタックを使用する.ここでは,このスタックを便宜的にXリストと呼ぶことにする.Xリストへのプッシュは次のようにおこなう.文法規則中のスラッシュ記法を処理するときに,そのスラッシュカテゴリをXリストにプッシュする.つまり,スラッシュ記法の直前(左隣り)にドット記号`・'のある項を含む状態に解析系が遷移するときに,そのスラッシュカテゴリをXリストにプッシュする.例えば,図\ref{fig:xgs}の文法規則$[np\tonp\relC/np]$では,relC/npの解析を開始するとき,つまり,項$[np\tonp\cdotrelC/np]$を含む状態に解析系が遷移するときに,スラッシュカテゴリであるnpをXリストにプッシュする.Xリストからのポップは,痕跡を検出したときにおこなう.解析系は,Xリストの先頭にあるスラッシュカテゴリが痕跡として文中に存在すると判断したとき,そのスラッシュカテゴリをXリストからポップし,そのスラッシュカテゴリに対してLR構文解析表に定義されている動作に従って解析を続ける.痕跡の検出は,文のすべての単語間に痕跡の存在を仮定することでおこなう.解析が単語の境界に到達したときに,その時点でのXリストの先頭にあるスラッシュカテゴリに対して,LR構文解析表に動作\footnote{ACTION部での移動,還元,あるいはGOTO部での状態遷移}が定義されているとき,その単語境界にそのスラッシュカテゴリが痕跡として存在すると判断する.一方,LR構文解析表に動作定義がない場合やXリストが空である場合には,その単語境界には痕跡は存在しないと判断する.自然言語の解析では,スラッシュカテゴリは,通常,非終端カテゴリである.痕跡の検出において,Xリストの先頭にあるスラッシュカテゴリが非終端カテゴリである場合には,そのスラッシュカテゴリを構成する左隅の品詞を先読み情報とした還元を考慮しなければならない.これを例を用いて次に説明する.使用する文法は図\ref{fig:xgs}に示すものである.この文法からは図\ref{fig:states2}に示す各状態が構成される.例文として``Atoywhichamangivesachildmoves.''を使用する.ここで,aの品詞はdetであり,toy,man,childはn,whichはrelPron,givesはvt,movesはviとする.childまで解析が終了したとき,解析系の状態は状態9であり,Xリストの先頭にあるスラッシュカテゴリは非終端カテゴリnpである.ここでLR構文解析表を参照すると,状態9ではカテゴリnpに対する動作は定義されていない.したがって,解析系はchildとmovesの単語境界には痕跡は存在しないと判断する.しかし,実際にはカテゴリnpが痕跡として存在するので,この判断は正しくない.この判断の誤りは,文法規則$[np\todet\n]$による還元によって,aとchildから`achild'がまだ構成されていないことに起因する.この還元は,Xリストの先頭にあるスラッシュカテゴリnpを構成する左隅の品詞であるdetを先読み情報としておこなわれるべきものである.しかし,このスラッシュカテゴリnpは痕跡として存在するので,この品詞detが先読み情報として実際の文から得られることはない.そのため,このままではこの還元はおこなわれない.そこで,痕跡検出の手続きの一つとして,この還元をおこなう.これによって,解析系は一時的に状態7に遷移したのち,状態10に遷移する.ここでLR構文解析表を参照すると,カテゴリnpに対して状態12への遷移が定義されている.これによって,解析系はchildとmovesの単語境界にカテゴリnpの痕跡が存在すると判断する.これで痕跡が正しく検出されたことになる.\newlength{\vs}\setlength{\vs}{2mm}\setlength{\mpw}{4.5cm}\begin{figure}[htbp]\begin{center}{\small\begin{minipage}[t]{\mpw}I$_{0}$:\\\{[S'$\to$$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{1}$=GOTO(I$_{0}$,s):\\\{[S'$\to$s$\cdot$]\}\vspace{\vs}I$_{2}$=GOTO(I$_{0}$,np)\\=GOTO(I$_{8}$,np):\\\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$relC/np]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\\[relC$\to$$\cdot$relPron\s]\}\vspace{\vs}I$_{3}$=GOTO(I$_{0}$,det)\\=GOTO(I$_{7}$,det)\\=GOTO(I$_{8}$,det)\\=GOTO(I$_{10}$,det):\\\{[np$\to$det$\cdot$n]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{4}$=GOTO(I$_{2}$,vp):\\\{[s$\to$np\vp$\cdot$]\}\vspace{\vs}I$_{5}$=GOTO(I$_{2}$,relC/np)\\=GOTO(I$_{10}$,relC/np)\\=GOTO(I$_{12}$,relC/np):\\\{[np$\to$np\relC/np$\cdot$]\}\vspace{\vs}I$_{6}$=GOTO(I$_{2}$,vi):\\\{[vp$\to$vi$\cdot$]\}\vspace{\vs}I$_{7}$=GOTO(I$_{2}$,vt):\\\{[vp$\to$vt$\cdot$np]\\[vp$\to$vt$\cdot$np\np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{8}$=GOTO(I$_{2}$,relPron)\\=GOTO(I$_{10}$,relPron)\\=GOTO(I$_{12}$,relPron):\\\{[relC$\to$relPron$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{9}$=GOTO(I$_{3}$,n):\\\{[np$\to$det\n$\cdot$]\}\vspace{\vs}I$_{10}$=GOTO(I$_{7}$,np):\\\{[vp$\to$vt\np$\cdot$]\\[vp$\to$vt\np$\cdot$np]\\[np$\to$np$\cdot$relC/np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\\[relC$\to$$\cdot$relPron\s]\}\vspace{\vs}I$_{11}$=GOTO(I$_{8}$,s):\\\{[relC$\to$relPron\s$\cdot$]\}\vspace{\vs}I$_{12}$=GOTO(I$_{10}$,np):\\\{[vp$\to$vt\np\np$\cdot$]\\[np$\to$np$\cdot$relC/np]\\[relC$\to$$\cdot$relPron\s]\}\end{minipage}\\}\caption{図\ref{fig:xgs}の文法から求められる,状態を構成する項の集合}\label{fig:states2}\end{center}\end{figure}\vspace{-3mm}痕跡検出において,文のすべての単語間に痕跡の存在を仮定する理由を次に示す.痕跡処理をおこなわずに痕跡を含む文を解析すると,通常,痕跡が存在する位置でその解析は失敗する.そこで,痕跡処理において,解析が失敗する位置に痕跡が存在すると仮定して痕跡の検出をおこなうものとする.そうすると,``Achildwhomamangivesatoysmiles.''などの文では,``Achildwhomamangivesatoy{\itt}smiles.''と解析されてしまい,正しく``Achildwhomamangives{\itt}atoysmiles.''とは解析されない({\itt}が痕跡を表す).このため,文のすべての単語間に痕跡の存在を仮定し痕跡の検出をおこなう.痕跡が存在するか否かの判断は,LR構文解析表を参照することで即座におこなわれる.このため,純粋なボトムアップ法での場合のような無駄な処理はおこなわれない.また逆に,文のすべての単語間に痕跡の存在を仮定して痕跡の検出をおこなうと,``Atoywhichamangivesachildmoves.''などの文では,``Atoywhichamangives{\itt}achildmoves.''と解析されてしまい,正しく``Atoywhichamangivesachild{\itt}moves.''とは解析されない({\itt}が痕跡を表す).そこで,痕跡が存在すると判断される場合には,解析過程を分岐させ横型探索によって,痕跡は存在しないものとした解析も同時におこなう. \section{状態の構成} XGSで記述された文法に対して,通常のGLR法での方法で,状態を構成する項の集合を求めると,次の(1)〜(3)に示す問題が生じる.ここで,説明上の都合により,{\bfslash項}と{\bf芯}という用語を導入する.slash項とは,スラッシュ記法の直前(左隣り)にドット記号`・'のある項のことである.図\ref{fig:states2}の項の集合I$_{2}$に含まれる項$[np\tonp\cdotrelC/np]$は,slash項の一例である.また,slash項のうち,スラッシュ記法が右辺の左端に存在するものを左隅slash項と呼ぶことにする.芯とは,閉包を求めるときに関数CLOSUREに与えた項の集合に含まれる項のことである.図\ref{fig:states2}の項の集合I$_{2}$では,項$[s\tonp\cdotvp]$と$[np\tonp\cdotrelC/np]$が芯である.\begin{enumerate}\item状態が芯としてslash項とそうでない項を含む場合,そのslash項ではない項の閉包として得られた項に基づく解析においても,その状態に遷移するときにXリストにプッシュしたスラッシュカテゴリが参照されてしまい,誤った痕跡の検出が引き起される.\item状態が芯として複数のslash項を含む場合,その状態に遷移するときにXリストにプッシュすべきスラッシュカテゴリが複数存在してしまう.\item状態が左隅slash項を含む場合,その左隅slash項の閉包として得られた項以外の項に基づく解析においても,その状態に遷移するときにXリストにプッシュしたスラッシュカテゴリが参照されてしまい,誤った痕跡の検出が引き起される.\end{enumerate}次に,これらの問題についてより具体的に述べるとともに,その解決方法を示す.\subsection{状態分割}図\ref{fig:states2}の状態2(I$_{2}$)には,(1)に示した問題がある.状態2に遷移するときにXリストにプッシュされたスラッシュカテゴリnpは,カテゴリrelCの解析においてのみ参照されるべきものである.しかし,このスラッシュカテゴリnpは,Xリスト上に存在する限り,カテゴリvpの解析,つまり,I$_{2}$のうちCLOSURE(\{$[s\tonp\cdotvp]$\})に含まれる項に基づく解析においても参照されてしまう.その結果,誤った痕跡の検出がおこなわれる.非文である``Achildhas.''を用いて,次により具体的に述べる.ここで,aの品詞はdet,childはn,hasはvtとする.childまで解析が終了したとき,解析系の状態は状態9であり,Xリストは空である.解析系は,次にhasを先読みし,その品詞であるvtを先読み情報として得る.ここで,文法規則$[np\todet\n]$による還元をおこない,一時的に状態0に遷移したのち状態2に遷移する.このとき,Xリストにスラッシュカテゴリnpをプッシュする.そして,先読み情報であるvtに従って状態7に遷移する.ここで,Xリストの先頭にあるスラッシュカテゴリnpに対してLR構文解析表に動作が定義されているため,誤りであるにも関わらず,解析系はhasの直後(右隣り)にこのスラッシュカテゴリnpが痕跡として存在すると判断する.そして,このスラッシュカテゴリnpをXリストからポップし,カテゴリnpに対してLR構文解析表に定義されている動作に従って状態10に遷移する.この後,解析系は(状態2)$\to$状態4$\to$(状態0)$\to$状態1と遷移し\footnote{括弧で括られた状態への遷移は,還元による一時的なものである.},この非文が正しいものであるかのように解析を終了する.この問題は,状態から芯であるslash項の閉包を取り出し,それによって新たな状態を構成することで解決できる.図\ref{fig:states2}の状態2の場合,CLOSURE(\{$[np\tonp\cdotrelC/np]$\})を取り出し,これによって新たな状態を構成する.この状態分割\footnote{状態10も同様に分割される.}によって,図\ref{fig:states2}に示した状態を構成する項の集合は,図\ref{fig:states3}に示すものとなる.図\ref{fig:states3}の状態2は図\ref{fig:states3}では,状態21と状態22へと分割される.そして,解析系は状態22に遷移するときにのみ,スラッシュカテゴリnpをXリストにプッシュする.これによって,上述の誤った痕跡の検出を防ぐことができる.\begin{figure}[htbp]\begin{center}{\small\begin{minipage}[t]{\mpw}I$_{0}$:\\\{[S'$\to$$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{1}$=GOTO(I$_{0}$,s):\\\{[S'$\to$s$\cdot$]\}\vspace{\vs}I$_{21}$=GOTO(I$_{0}$,np)\\=GOTO(I$_{8}$,np):\\\{[s$\to$np$\cdot$vp]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\}\vspace{\vs}I$_{22}$=GOTO(I$_{0}$,np)\\=GOTO(I$_{7}$,np)\\=GOTO(I$_{8}$,np)\\=GOTO(I$_{10}$,np):\\\{[np$\to$np$\cdot$relC/np]\\[relC$\to$$\cdot$relPron\s]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{3}$=GOTO(I$_{0}$,det)\\=GOTO(I$_{7}$,det)\\=GOTO(I$_{8}$,det)\\=GOTO(I$_{10}$,det):\\\{[np$\to$det$\cdot$n]\}\vspace{\vs}I$_{4}$=GOTO(I$_{21}$,vp):\\\{[s$\to$np\vp$\cdot$]\}\vspace{\vs}I$_{5}$=GOTO(I$_{22}$,relC/np):\\\{[np$\to$np\relC/np$\cdot$]\}\vspace{\vs}I$_{6}$=GOTO(I$_{21}$,vi):\\\{[vp$\to$vi$\cdot$]\}\vspace{\vs}I$_{7}$=GOTO(I$_{21}$,vt):\\\{[vp$\to$vt$\cdot$np]\\[vp$\to$vt$\cdot$np\np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\end{minipage}\begin{minipage}[t]{\mpw}I$_{8}$=GOTO(I$_{22}$,relPron):\\\{[relC$\to$relPron$\cdot$s]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{9}$=GOTO(I$_{3}$,n):\\\{[np$\to$det\n$\cdot$]\}\vspace{\vs}I$_{10}$=GOTO(I$_{7}$,np):\\\{[vp$\to$vt\np$\cdot$]\\[vp$\to$vt\np$\cdot$np]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC/np]\}\vspace{\vs}I$_{11}$=GOTO(I$_{8}$,s):\\\{[relC$\to$relPron\s$\cdot$]\}\vspace{\vs}I$_{12}$=GOTO(I$_{10}$,np):\\\{[vp$\to$vt\np\np$\cdot$]\}\end{minipage}\\}\caption{図\ref{fig:xgs}の文法から求められる,状態分割\\を考慮した,状態を構成する項の集合}\label{fig:states3}\end{center}\end{figure}このように状態を分割しても問題が生じないのは,それぞれの芯の閉包を独立したものとして扱うことが可能なためである.また,このような状態分割は,状態遷移における非決定性をもたらす.例えば,図\ref{fig:states3}では状態0からのカテゴリnpによる遷移先として,状態21と状態22が存在する.これらの非決定性に対して,解析系は解析過程を分岐させ横型探索をおこなう.また,この状態分割の手法は(2)に示した問題に対しても有効である.状態が芯として$[A\to\alpha\cdotB/C\beta]$や$[D\to\gamma\cdotE/F\delta]$などのslash項を含む場合,この状態に遷移するときにXリストにプッシュすべきスラッシュカテゴリとしてCやFなどが存在してしまう.ここで,A,B,D,Eは非終端カテゴリ,$\alpha$,$\beta$,$\gamma$,$\delta$は非終端カテゴリおよび品詞からなるカテゴリ列,C,Fは非終端カテゴリあるいは品詞とする.そこで,CLOSURE(\{$[A\to\alpha\cdotB/C\beta]$\})やCLOSURE(\{$[D\to\gamma\cdotE/F\delta]$\})などをそれぞれ取り出し,これらによって新たな状態をそれぞれ構成する.そして,これらの新たに構成された状態に遷移するときにのみ,対応するスラッシュカテゴリをXリストにプッシュする.このように,状態分割の手法によって,状態遷移においてXリストにプッシュすべきスラッシュカテゴリを一つにすることができる.\subsection{依存関係をともなう状態分割}次に,(3)に示した問題について例を用いて述べる.通常のGLR法での方法によって,図\ref{fig:xgs2}に示す文法から,状態を構成する項の集合の一つとして図\ref{fig:states4}に示すI$_{x}$が得られる.この状態x(I$_{x}$)には,左隅slash項$[relC\to\cdots/np]$が含まれ,(3)に示した問題がある.この状態xに遷移するときにXリストにプッシュされたスラッシュカテゴリnpは,カテゴリsの解析,つまり,CLOSURE(\{[relC$\to$$\cdot$s/np]\})に含まれる項に基づく解析においてのみ参照されるべきものである.しかし,このスラッシュカテゴリnpは,Xリスト上に存在する限り,CLOSURE(\{[relC$\to$$\cdot$s/np]\})には含まれない,[s$\to$np$\cdot$vp]などの項に基づく解析においても参照されてしまう.その結果,誤った痕跡の検出がおこなわれる.\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{6cm}\begin{center}\begin{tabular}[h]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\relC.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np,\np.\\relC$\to$s/np.\end{tabular}\caption{簡単な英文を解析するための,\\XGSで記述された文法(その二)\\}\label{fig:xgs2}\end{center}\end{minipage}\begin{minipage}[b]{6cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{x}$:\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$relC]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\\[relC$\to$$\cdot$s/np]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC]\}\end{tabular}}\caption{図\ref{fig:xgs2}に示す文法から求められる,\\状態を構成する項の集合の一つ\\(左隅slash項を含む)}\label{fig:states4}\end{center}\end{minipage}\end{center}\end{figure}\newcommand{\deriv}{}先に述べたような状態分割の手法によって,この問題を解決することは難しい.これは,左隅slash項の閉包とそれ以外の項とを独立したものとして扱えないためである.図\ref{fig:states4}のI$_{x}$では,項$[np\tonp\cdotrelC]$に基づく解析には,CLOSURE(\{[relC$\to$$\cdot$s/np]\})に含まれる項に基づく解析が含まれる.このため,これらを独立したものとして扱うことはできない.状態xからCLOSURE(\{[relC$\to$$\cdot$s/np]\})を取り出し,状態の分割を敢えておこなうなら,状態xは図\ref{fig:states5}に示す状態x1と状態x2に分割される.実際にこのような状態の分割をおこなった場合には,解析系はこれらの状態の間の依存関係を扱わなければならない.例えば,状態x2においてカテゴリrelCが構成された場合には,解析系は依存関係に従って一時的に状態x1に遷移し,そこからカテゴリrelCによる遷移をおこなわなければならない.次に,少し複雑な依存関係をともなう状態の分割をおこなった場合について述べる.ある状態y(I$_{y}$=CLOSURE(\{$[A\to\alphaB\cdotC\beta]$\}))が,y1(I$_{y1}$=CLOSURE(\{$[A\to\alphaB\cdotC\beta]$\})$-$I$_{y2}$),y2(I$_{y2}$=CLOSURE(\{$[D\to\cdotE/F\gamma]$\})$-$I$_{y3}$),y3(I$_{y3}$=CLOSURE(\{$[G\to\cdotH/J\delta]$\}))の三つの状態に分割されるとする.また,C\derivD$\zeta$,E\derivG$\eta$とする.ここで,A,C,D,E,G,Hは非終端カテゴリ,B,F,Jは非終端カテゴリあるいは品詞,$\alpha$,$\beta$,$\gamma$,$\delta$,$\zeta$,$\eta$は非終端カテゴリおよび品詞からなるカテゴリ列,`\deriv'は0回以上の導出を表す.これらの状態の関係を図\ref{fig:depend}に示す.状態y1と状態y2は依存関係にあり,また,状態y2と状態y3も同様に依存関係にある.解析系が状態y3に遷移するときには,スラッシュカテゴリであるJをXリストにプッシュすることになるが,これに加えてFもプッシュしなければならない.これは,状態y3での解析が状態y2での解析の一部を構成するため,状態y2でのスラッシュカテゴリであるFが状態y3での解析においても参照可能でなければならないからである.このように,依存関係をともなう状態分割をおこなった場合には,解析系の構成が複雑なものになってしまう.\setlength{\mpw}{3.5cm}\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{\mpw}\begin{center}{\small\begin{minipage}[t]{\mpw}I$_{x1}$:\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$relC]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\}\vspace{\vs}I$_{x2}$:\{[relC$\to$$\cdot$s/np]\\[s$\to$$\cdot$np\vp]\\[np$\to$$\cdot$det\n]\\[np$\to$$\cdot$np\relC]\}\end{minipage}}\caption{図\ref{fig:states4}に示すI$_{x}$\\の分割(依存関係\\をともなう)}\label{fig:states5}\end{center}\end{minipage}\hspace{1cm}\begin{minipage}[b]{6cm}\begin{center}\epsfile{file=depend.eps,width=6cm}\caption{状態y1,y2,y3の関係\\}\label{fig:depend}\end{center}\end{minipage}\end{center}\end{figure}\vspace{-3mm}また,状態に左隅slash項が再帰的に含まれる場合には,次に示す問題がある.通常のGLR法での方法によって,図\ref{fig:xgs3}に示す文法から,状態を構成する項の集合の一つとして図\ref{fig:states6}に示すI$_{z}$が得られる.この状態z(I$_{z}$)には,左隅slash項$[名詞句\to\cdot連体修飾節/後置詞句\名詞句]$が再帰的に含まれている.状態zからCLOSURE(\{[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\})を取り出し状態の分割をおこなうと,状態zは図\ref{fig:states7}に示す状態z1と状態z2に分割される.状態z1には,CLOSURE(\{[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\})にも含まれる項$[後置詞句\to\cdot名詞句\後置詞]$と$[名詞句\to\cdot名詞]$が含まれているが,これらは項$[動詞句\to\cdot後置詞句\他動詞]$から導かれたものである.状態z2では,左隅slash項$[名詞句\to\cdot連体修飾節/後置詞句\名詞句]$が再帰的に含まれているため,この項に基づく連体修飾節の解析が再帰的におこなわれ得る.この再帰的な解析では,その再帰の数だけスラッシュカテゴリである後置詞句を必要とする.しかし,どれだけ再帰的に解析がおこなわれるかを事前に知ることはできない.このため,状態z2への遷移において,どれだけの数の後置詞句をスラッシュカテゴリとしてXリストにプッシュすべきかを決定できない.このため,状態に左隅slash項が再帰的に含まれる場合には,状態分割の手法による対処は難しい.\begin{figure}[htbp]\begin{center}\begin{tabular}[h]{l}文$\to$後置詞句,動詞句.\\後置詞句$\to$名詞句,後置詞.\\動詞句$\to$自動詞.\\動詞句$\to$後置詞句,他動詞.\\名詞句$\to$名詞.\\名詞句$\to$連体修飾節/後置詞句,名詞句.\\連体修飾節$\to$文.\end{tabular}\caption{簡単な日本語文を解析するための,\\XGSで記述された文法}\label{fig:xgs3}\end{center}\end{figure}\vspace{-1.5cm}\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{6.9cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{z}$:\{[文$\to$後置詞句$\cdot$動詞句]\\[動詞句$\to$$\cdot$自動詞]\\[動詞句$\to$$\cdot$後置詞句\他動詞]\\[後置詞句$\to$$\cdot$名詞句\後置詞]\\[名詞句$\to$$\cdot$名詞]\\[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\\[連体修飾節$\to$$\cdot$文]\\[文$\to$$\cdot$後置詞句\動詞句]\}\end{tabular}}\caption{図\ref{fig:xgs3}に示す文法から求められる,\\状態を構成する項の集合の一つ\\(再帰的な左隅slash項を含む)}\label{fig:states6}\end{center}\end{minipage}\begin{minipage}[b]{7cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{z1}$:\{[文$\to$後置詞句$\cdot$動詞句]\\[動詞句$\to$$\cdot$自動詞]\\[動詞句$\to$$\cdot$後置詞句\他動詞]\\[後置詞句$\to$$\cdot$名詞句\後置詞]\\[名詞句$\to$$\cdot$名詞]\}\\\\I$_{z2}$:\{[名詞句$\to$$\cdot$連体修飾節/後置詞句\名詞句]\\[連体修飾節$\to$$\cdot$文]\\[文$\to$$\cdot$後置詞句\動詞句]\\[後置詞句$\to$$\cdot$名詞句\後置詞]\\[名詞句$\to$$\cdot$名詞]\}\end{tabular}}\caption{図\ref{fig:states6}に示すI$_{z}$の分割\\\\}\label{fig:states7}\end{center}\end{minipage}\end{center}\end{figure}このように,状態分割の手法は(3)に示した問題に対して有効でない.そこで,文法規則の置き換えによる解決方法を次に示す.\subsection{文法規則の置き換え}左隅slash項は,右辺の左端にスラッシュ記法が存在する文法規則から生じる.したがって,そのような文法規則が存在しなければ,左隅slash項が現れることはない.そして,(3)に示した問題が起ることもない.そこで,文法に対する前処理として,右辺の左端にスラッシュ記法が存在する文法規則に対して,図\ref{fig:replace}に示す置き換えをおこない,スラッシュ記法を擬似的に右辺の左端から移動させる.これによって,左隅slash項が現れることはなくなり,(3)に示した問題は(1)あるいは(2)に示した問題に帰着される.そして,先に述べたように,これらの問題は状態分割の手法によって解決される.ここで,A,Bは非終端カテゴリ,Cは非終端カテゴリあるいは品詞,$\alpha$は非終端カテゴリあるいは品詞からなるカテゴリ列を表す.また,dummyはスラッシュ記法を擬似的に移動させるためだけに導入された非終端カテゴリであり,$\epsilon$は空文字列を表す.図\ref{fig:xgs3}に示す文法では,前処理をおこなうと図\ref{fig:xgs4}に示すものとなる.\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{5cm}\begin{center}\begin{tabular}[h]{c}$A$$\to$$B$/$C$$\alpha$\\$\Downarrow$\\$\biggl\{$\begin{minipage}[m]{3.5cm}$A$$\to$dummy$B$/$C$$\alpha$\\dummy$\to$$\epsilon$\end{minipage}\end{tabular}\caption{文法規則の置き換え}\label{fig:replace}\end{center}\end{minipage}\hspace{5mm}\begin{minipage}[b]{8.2cm}\begin{center}\begin{tabular}[h]{l}文$\to$後置詞句,動詞句.\\後置詞句$\to$名詞句,後置詞.\\動詞句$\to$自動詞.\\動詞句$\to$後置詞句,他動詞.\\名詞句$\to$名詞.\\名詞句$\to$dummy,連体修飾節/後置詞句,名詞句.\\連体修飾節$\to$文.\\dummy$\to$$\epsilon$\end{tabular}\caption{図\ref{fig:xgs3}に示す文法を前処理した結果}\label{fig:xgs4}\end{center}\end{minipage}\end{center}\end{figure} \section{slash項に基づく状態遷移} slash項$[A\to\alpha\cdotB/C\beta]$を含む状態において,Bが構成されたときに解析系がおこなう状態遷移には,二通りのものが考えられる.ここで,A,Bは非終端カテゴリ,Cは非終端カテゴリあるいは品詞,$\alpha$,$\beta$は非終端カテゴリおよび品詞からなるカテゴリ列を表す.その一つは,B/Cによる状態遷移である.解析系は,この状態に遷移するときにXリストにプッシュしたスラッシュカテゴリCが痕跡検出によって既にポップされているとき,B/Cによる状態遷移をおこなう.もう一つは,単なるBによる状態遷移である.この状態遷移は,Xリストの内容とは無関係である.解析系は,LR構文解析表にBによる状態遷移が定義されているとき,これをおこなう.したがって,B/Cによる状態遷移と単なるBによる状態遷移をともにおこなう必要がある場合には,解析系は解析過程を分岐させ横型探索をおこなう. \section{複合名詞句制約} 痕跡処理では,ロスの複合名詞句制約などのいわゆる「島制約」への対処が求められる.次に,ロスの複合名詞句制約について述べ,その後,それへの対処方法を示す.ロスの複合名詞句制約は,埋め込み文中の痕跡の位置に関する統語的な制約である.ロスの複合名詞句制約によれば,名詞句は文や名詞句の構造を二度越えて移動することはできない\cite{Tanaka1989}.この制約に違反する例を図\ref{fig:np_const}に示す.図\ref{fig:np_const}では,名詞句`atoy'がhasの直後(右隣り)から,`{\itt$_{1}$}has{\itt$_{2}$}',そして,`themanknowsthechildwho{\itt$_{1}$}has{\itt$_{2}$}'の二つの埋め込み文を越えて文頭に移動したために,ロスの複合名詞句制約に違反する.\begin{figure}[htbp]\begin{center}\epsfile{file=np_const.eps}\caption{ロスの複合名詞句制約に違反する例.{\itt$_{1}$},{\itt$_{2}$}が痕跡を表す.\\また,矢印は痕跡と対応付けられる名詞句を指す.}\label{fig:np_const}\end{center}\end{figure}XGSでは,ロスの複合名詞句制約を表現するために,open($<$),close($>$)と呼ばれる記法が導入されている.この記法には,「`$<$'と`$>$'の外側の構成素と,`$<$'と`$>$'で囲まれたカテゴリの中の痕跡とは対応付けることはできない」という意味が与えられている.この記法の使用例を図\ref{fig:xgs5}に示す.図\ref{fig:xgs5}に示す文法では,関係節を表すrelCが`$<$'と`$>$'で囲まれているため,関係節内の痕跡がその外側の構成素と対応付けられることはない.これによって,関係節が多重に存在する文の解析において,ロスの複合名詞句制約が満たされることになる.\begin{figure}[htbp]\begin{center}\begin{minipage}[b]{5cm}\begin{center}\begin{tabular}[h]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\$<$relC/np$>$.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np\np.\\relC$\to$relPron,\s.\end{tabular}\caption{open($<$),close($>$)\\による,ロスの複合\\名詞句制約の表現}\label{fig:xgs5}\end{center}\end{minipage}\hspace{1cm}\begin{minipage}[b]{5cm}\begin{center}{\small\begin{tabular}[h]{l}I$_{s}$:\{[s$\to$np$\cdot$vp]\\[np$\to$np$\cdot$$<$relC/np$>$]\\[vp$\to$$\cdot$vi]\\[vp$\to$$\cdot$vt\np]\\[vp$\to$$\cdot$vt\np\np]\\[relC$\to$$\cdot$relPron\s]\}\end{tabular}}\caption{図\ref{fig:xgs5}に示す文法から\\求められる,状態を構成\\する項の集合の一つ\\(enclosed項を含む)}\label{fig:states8}\end{center}\end{minipage}\end{center}\end{figure}本論文で示す手法では,open($<$),close($>$)を次のように解析系に組み込む.文法規則中の`$<$'と`$>$'で囲まれたカテゴリを処理するときに,Xリストを一時的に空にする.つまり,`$<$'と`$>$'で囲まれたカテゴリの直前(左隣り)にドット記号`・'のある項を含む状態に遷移するときに,Xリストを一時的に空にする.そして,そのカテゴリの解析が終了したときに,Xリストの内容を元に戻す.このようなXリストの操作によって,open($<$),close($>$)は解析系に組み込まれる.ここで,説明上の都合により,{\bfenclosed項}という用語を導入する.enclosed項とは,`$<$'と`$>$'で囲まれたカテゴリの直前(左隣り)にドット記号`・'のある項のことである.また,enclosed項のうち,`$<$'と`$>$'で囲まれたカテゴリが右辺の左端に存在するものを左隅enclosed項と呼ぶことにする.通常のGLR法での方法によって,図\ref{fig:xgs5}に示す文法から,状態を構成する項の集合の一つとして図\ref{fig:states8}に示すI$_{s}$が得られる.この状態s(I$_{s}$)には,enclosed項であり,かつslash項である$[np\tonp\cdot<relC/np>]$が含まれている.したがって,解析系はこの状態sに遷移するときには,まず一時的にXリストを空にし,その後,スラッシュカテゴリであるnpをXリストにプッシュする.また,解析系は状態sからrelC/npによる状態遷移をおこなうときには,Xリストの内容をこの状態sに遷移する前のものに復元する.open($<$),close($>$)を実現するXリスト操作による影響は,`$<$'と`$>$'で囲まれたカテゴリの解析,つまり,enclosed項の閉包に含まれる項に基づく解析に限定されなければならない.そうでなければ,検出されるべき痕跡が検出されない.open($<$),close($>$)を用いて記述された文法に対して,通常のGLR法での方法で,状態を構成する項の集合を求めると,次の(1),(2)に示す問題が生じる.\begin{enumerate}\item状態が芯としてenclosed項とそうでない項を含む場合,そのenclosed項ではない項の閉包として得られた項に基づく解析に対しても,その状態に遷移するときにおこなわれたXリスト操作が影響し,痕跡が検出されなくなる.\item状態が左隅enclosed項を含む場合,その左隅enclosed項の閉包として得られた項以外の項に基づく解析に対しても,その状態に遷移するときにおこなわれたXリスト操作が影響し,痕跡が検出されなくなる.\end{enumerate}これらの問題は,5章で論じた問題と類似している.(1)に示す問題は,状態から芯であるenclosed項の閉包を取り出し,それによって新たな状態を構成することで解決できる.また,(2)に示す問題は,文法に対する前処理として,右辺の左端に`$<$'と`$>$'で囲まれたカテゴリが存在する文法規則に対して,図\ref{fig:replace}に示すものと同様な置き換えをおこない,`$<$'と`$>$'で囲まれたカテゴリを擬似的に右辺の左端から移動させることで解決できる. \section{動作例} 本論文で示す手法を用いてパーザを構成した例を次に示す.DCGに対するGLRパーザと\breakして論理型言語Prolog上に効率よく実装されたSGLR\cite{Numazaki1991}を拡張することでパーザを構成した.本論文では,このパーザをSGLR-plusと呼ぶことにする.SGLR-plusを使用して,``Achildwhohasatoysmiles.''という文を解析した様子を図\ref{fig:sglr_plus}に示す.\begin{figure}[htbp]\begin{center}\begin{minipage}{11cm}{\baselineskip=8pt\begin{verbatim}|?-run.input:achildwhohasatoysmileswords:[a,child,who,has,a,toy,smiles]length:7---result1/1---|-sentence|-sen_dec|-subj||-noun_p||-noun_p|||-art--<a>|||-n--<child>||-relC/noun_p||-relPron--<who>||-sen_dec||-subj|||-noun_p--<t>||-pred_do||-verb_p||-verb||-vt--<has>||-obj||-noun_p||-art--<a>||-n--<toy>|-pred_do|-verb_p|-verb|-vi--<smiles>argumentinfo:[]thenumberofresults:1runtime:10msecyes\end{verbatim}}\end{minipage}\caption{SGLR-plusによる``Achildwhohasatoysmiles.''の解析.\\{\itt}が痕跡を表す.}\label{fig:sglr_plus}\end{center}\end{figure}SGLR-plus(痕跡処理あり)とSGLR(痕跡処理なし)を使用していくつかの文を解析した結果を次に示す.今回の解析では,それぞれ平叙文を概ね網羅する文法を使用した.また,SGLRは痕跡処理を持たないため,図\ref{fig:cfg2}と同様に,痕跡を含むカテゴリに対して,その痕跡に対応する構成素が欠けた文法規則を用意した.ただし,これらの解析では補強項での統語的制約のチェックはおこなわなかった.SGLR-plus,SGLRのそれぞれを使用した場合での文法規則数,解析系の状態数,項の総数を表\ref{tab:1}に示す.SGLR-plusを使用した場合には,痕跡処理がおこなわれるため,SGLRを使用した場合と比較して3割ほど文法規則が減少している.\begin{figure}[htbp]\begin{center}\begin{minipage}[t]{3.1cm}\begin{tabular}[t]{l}s$\to$np,\vp.\\np$\to$det,\n.\\np$\to$np,\relC.\\vp$\to$vi.\\vp$\to$vt,\np.\\vp$\to$vt,\np,\np.\end{tabular}\end{minipage}\begin{minipage}[t]{4cm}\begin{tabular}[t]{l}relC$\to$relPron,\s2.\\s2$\to$vp.\\s2$\to$np,\vp2.\\vp2$\to$vt.\\vp2$\to$vt,\np.\end{tabular}\end{minipage}\caption{図\ref{fig:xgs}に示す文法に対応する,スラッシュ\\記法を用いないで記述された文法}\label{fig:cfg2}\end{center}\end{figure}\begin{table}[htbp]\begin{center}\caption{痕跡処理の有無による違い}\label{tab:1}\begin{tabular}[htbp]{|c||c|c|c|}\hline解析系&文法規則数&状態数&項総数\\\hline\hlineSGLR-plus&224&288&9,235\\\hlineSGLR&345&454&14,248\\\hline\end{tabular}\end{center}\end{table}次に示す英文を解析の対象とした.それぞれの英文に対する,解析に要した時間\footnote{SGLRは,入力文から生成したトップ・レベルのゴール列を呼び出すことで起動する.このゴール列の実行に要した時間を示す.実行環境:SICStus3\#6,GNU/Linux2.2.2,IntelPentiumPro180MHz},得られた解析木の数,失敗した数を表\ref{tab:2}に示す.\begin{enumerate}\itemThekidswereskippingaboutinthepark.\itemThecoffeehassloppedoverintothesaucer.\itemThetroubleisthatshedoesnotlikeit.\itemIwanttogotoFrance.\itemTheyscatteredgravelontheroad.\itemHetoldmethathelikedbaseball.\itemIcannotallowyoutobehavelikethat.\itemThechildwhohasatoysmiles.\itemJanehasanunclewhoisverykind.\itemThebookwhichIboughtyesterdayisveryinteresting.\itemIwantamanwhounderstandsEnglish.\itemThebookwhichthemanwhohadabagwhichlookedheavyboughtisdifficult.\end{enumerate}\begin{table}[htbp]\begin{center}\caption{解析結果}\label{tab:2}\begin{tabular}[htbp]{l}\begin{tabular}[htbp]{|c||c|c|c|c|}\hline英文&解析系&$解析時間^{a}$&解析木数&失敗数\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{1}&SGLR-plus&8&8&62\\\cline{2-5}&SGLR&5&8&38\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{2}&SGLR-plus&8&17&49\\\cline{2-5}&SGLR&5&17&26\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{3}&SGLR-plus&2&1&10\\\cline{2-5}&SGLR&2&1&7\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{4}&SGLR-plus&2&4&4\\\cline{2-5}&SGLR&1&4&3\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{5}&SGLR-plus&3&5&9\\\cline{2-5}&SGLR&2&5&5\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{6}&SGLR-plus&2&1&5\\\cline{2-5}&SGLR&2&1&4\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{7}&SGLR-plus&8&12&12\\\cline{2-5}&SGLR&6&12&12\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{8}&SGLR-plus&10&1&49\\\cline{2-5}&SGLR&3&1&12\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{9}&SGLR-plus&9&3&48\\\cline{2-5}&SGLR&4&3&23\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{10}&SGLR-plus&5&3&16\\\cline{2-5}&SGLR&3&3&6\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{11}&SGLR-plus&5&1&10\\\cline{2-5}&SGLR&2&1&2\\\hline\hline\raisebox{-1.5ex}[0cm][0cm]{12}&SGLR-plus&314&3&1163\\\cline{2-5}&SGLR&75&3&92\\\hline\end{tabular}\\$^{a}単位:msec$\end{tabular}\end{center}\end{table}\vspace{-3mm}SGLR-plus,SGLRのそれぞれを使用した場合の解析時間を比較すると,SGLR-plusを使用した場合により多くの時間を要す傾向がある.一般に文法規則の増加は,非決定性の増加などによる処理量の増加を引き起す.今回の比較では,痕跡に関連する処理量がこれを上回ったため,この傾向が生じたと考える.この傾向は,痕跡を含まない(1)〜(7)の文の解析にも見られる.これは,痕跡処理を解析系に組み込むためにおこなった状態分割に関連して,非決定性が増加したためであると考える.SGLR-plusを使用した解析ではより多くの時間を要す傾向があるとは言え,対象とした文のうち,(12)以外のものの解析はおよそ数ミリ秒で終了している.(12)の文は複数の痕跡を含むため,SGLR-plusを使用した解析では,痕跡処理に関連する非決定性が増加するとともに失敗の数も増加する.この様子を表\ref{tab:3}に示す.しかし,SGLRを使用した場合と比較すると,失敗の数ほど解析時間に差は生じていない.これは,誤りがLR構文解析表から即座に判定されるためであると考える.{\footnotesize\begin{table}[htbp]\begin{center}\caption{英文(12)の解析の過程におけるスタック数と失敗数.それぞれの単語までを解析した後の値を\\示す.スタック数は,統合されているものをすべて展開したときの値を示す(括弧内の値は,\\統合されたままのスタックの数を示す).}\label{tab:3}\begin{minipage}[h]{\textwidth}\begin{tabular}[h]{|cr||c|c|c|c|c|c|c|c|c|}\hline&&the&book&which&the&man&who&had&a&bag\\\hline\hlineSGLR-plus&スタック数&1(1)&1(1)&2(2)&2(2)&2(2)&2(1)&6(3)&8(2)&8(2)\\&失敗数&0&0&3&4&5&9&10&12&13\\\hlineSGLR&スタック数&1(1)&1(1)&2(2)&2(1)&2(1)&2(1)&6(2)&4(1)&4(1)\\&失敗数&0&0&1&1&1&1&1&2&2\\\hline\end{tabular}\end{minipage}\vspace{2mm}\begin{minipage}[h]{\textwidth}\begin{tabular}[h]{|cr||c|c|c|c|c|c|c|}\hline&&which&looked&heavy&bought&is&difficult&右端記号\\\hline\hlineSGLR-plus&スタック数&28(5)&48(2)&62(5)&184(2)&1004(8)&1164(5)&3\\&失敗数&31&31&53&72&86&517&1163\\\hlineSGLR&スタック数&20(3)&32(1)&40(2)&112(2)&520(5)&456(2)&3\\&失敗数&5&5&9&10&10&22&92\\\hline\end{tabular}\end{minipage}\end{center}\end{table}} \section{おわりに} 本論文では,効率の良い構文解析法として知られているGLR法\cite{Tomita1987}に基づく痕跡処理の手法を示した.この手法では,文法記述形式としてXGS\cite{Konno1986}を使用し,XGでのXリスト\cite{Pereira1981}と基本的に同じ手法で痕跡を扱った.また,GLR法で文法規則が解析系の状態として集合的に扱われることから生じる問題を,状態の構成を工夫することで解決した.また,この手法によって,GLRパーザであるSGLR\cite{Numazaki1991}を拡張し痕跡処理を実現した.構成素の移動現象を自然に記述する枠組みとして,DCG\cite{Pereira1980}にスラッシュ記法と下位範疇化制約という二つの概念を導入したものが,徳永らによって提案されている\cite{Tokunaga1990}.この考え方を取り入れることが,今後の課題である.\nocite{*}\acknowledgmentGLRパーザSGLRを提供していただいた東京工業大学大学院情報理工学研究科田中穂積教授,SGLRの開発者である故沼崎浩明氏,有用な意見をいただいた新潟大学宮崎研究室の学生諸君,に深く感謝致します.\bibliographystyle{jnlpbbl_old}\bibliography{v07n1_01}\begin{biography}\biotitle{略歴}\bioauthor{五百川明}{1994年新潟大学工学部情報工学科卒業.1996年同大学院工学研究科修士課程修了.現在,同大学院自然科学研究科博士後期課程在学中(同大学法学部助手).自然言語の意味処理に興味がある.情報処理学会会員.}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所において大型コンピュータDIPSの開発,コンピュータシステムの性能評価法の研究,日本文音声出力システムや機械翻訳などの自然言語処理の研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語の解析・生成,機械翻訳,辞書・シソーラスなど自然言語処理用言語知識の体系化などの研究に従事.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V24N03-05
\section{はじめに} 法律文書や技術文書等の専門文書は,その文種に特有の表現を持っていることから,サブ言語を形成していると考えることができる.サブ言語を対象とした翻訳に関する従来の研究では,サブ言語の翻訳品質を向上させるには,対象のサブ言語に特徴的に表れる文構造を適切に捉え,対象言語の文構造に変換することが不可欠であることが指摘されている\cite{DBLP:conf/coling/BuchmannWS84,DBLP:conf/eacl/Luckhardt91,DBLP:conf/anlp/MarcuCW00}.図\ref{fig:ex-sents}は,特許抄録のサブ言語に特有な2対の対訳文である.いずれの文対でも,適切な訳文を得るためには,原言語文におけるABCという文構造を目的言語においてCBAに変換しなければならない.このようなサブ言語に特徴的な文では,文構造を適切に捉えられなければその後の処理でも良い翻訳に結びつく可能性が低いため,初期段階での正確な文構造の把握が極めて重要である.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f1.eps}\end{center}\hangcaption{大域的な並べ替えが必要な,特許抄録のサブ言語に特徴的な対訳文の例.A,B,Cは,文の大域的構造を構成する構造部品を表す.}\label{fig:ex-sents}\end{figure}\leavevmode\hboxto357pt{この課題に対して様々な研究が行われてきた.骨格構造を用いた機械翻訳}\cite{Mellebeek06asyntactic,DBLP:conf/acl/XiaoZZ14}では,構文解析器を用いて入力文から{\bf骨格構造},つまり文の大域的な構造を抽出し,従来の統計的機械翻訳を用いて大域的な構造の学習を行って翻訳文を生成する.しかしながらこの方法は,構文解析の精度の影響を受けるため,解析精度が低い場面では結果的に翻訳の精度も低くなるという問題がある.もう一つの手法としては,文構造変換のための同時文脈自由文法の規則を人手で構築し,これを用いて入力文の文構造を出力側言語の構造に変換する手法が提案されている\cite{Fuji:2015,Fuji2016claim}.こちらの手法は,新規のサブ言語に対して人手で規則を作成しなければならないという問題がある.これらの手法では,構文解析精度による制約の問題があったり,人手による規則作成の問題があるなど,新たなサブ言語に対して柔軟に適用できる翻訳を実現することができていない.本論文では,サブ言語に特有な大域的な文構造を捉えるための,大域的な並べ替え手法を提案する.提案手法は,構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習し,このモデルを用いて新規の入力文に対する大域的な並べ替えを行う.本手法は構文解析器を用いないため,構文解析器の解析精度の影響を受けることはなく,また新規のサブ言語にも容易に適用できる.特許抄録のサブ言語を対象にした日英および英日翻訳実験を行って本手法の評価を行ったところ,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,翻訳品質が向上することがわかった.本論文の貢献は次のとおりである.\begin{itemize}\item構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習できる手法を提案する.\item大域的な並べ替えと構文解析に基づく並べ替えを併用したときに翻訳品質が向上することが確認できた.\item特に特許抄録文では,サブ言語に特有な文構造を持った入力文に対して,日英・英日双方向において翻訳精度が向上した.\end{itemize} \section{関連研究} 翻訳処理の一環として,入力文中の単語の並べ替えを行うことは翻訳品質の向上において有効であることが示されており,様々な手法が提案されてきた.\subsection{階層的フレーズベース機械翻訳}階層的フレーズベース機械翻訳\cite{Chiang:2005:HPM:1219840.1219873}における並べ替え手法は,統計的機械翻訳研究の初期の頃に提案され,並べ替えを必要とする言語対にとって現在も有効な手法となっている.この並べ替え手法では,統計的機械翻訳の学習段階において,アノテートされていない平文学習データから並べ替え規則が自動的に学習され,翻訳実行時にはこの並べ替え規則を用いた翻訳が行われる.構文解析を用いないことと,平文テキストデータから自動的に規則を学習することから,新規のサブ言語への適用は容易である.しかしながら,本手法では,長距離の単語間の関係を捉えにくいという問題が指摘されており\cite{dyer},また文の大域的な構造を捉えるための手段は設けられていない.\subsection{Tree-to-String翻訳およびString-to-Tree翻訳}これらの手法では,原言語か目的言語かのいずれかの言語のための構文解析が利用可能なときに,その構文解析を用いて言語対の翻訳精度を向上させるものである\cite{yamada:2001syntax,ambati:2007cross}.片方の言語における言語リソースが限られている場合でも,もう片方の言語の構文情報によって翻訳精度を向上させられるという特長がある.しかしながら,これら手法も構文解析の解析精度に影響されるという問題がある.\subsection{骨格構造を用いた機械翻訳}本手法は,文の大域的な構造を捉えることを主眼においた研究である\cite{Mellebeek06asyntactic,DBLP:conf/acl/XiaoZZ14}.手法では,入力文に対して構文解析器を用いて解析を行い,骨格構造と言われる,文の大域的な構造を抽出し,これに対して従来の統計的機械翻訳を適用して翻訳を行う.本手法も,構文解析器を用いているため解析精度の影響を受ける.なお,関連した研究としては述語項構造による手法も提案されている\cite{komachi2006phrase}.\subsection{構文解析による事前並べ替え翻訳}構文解析を用いた事前並べ替え翻訳に関する研究は幅広く行われてきた\cite{Isozaki:2010:HFS:1868850.1868886,Goto:2015:PUT:2791399.2699925,nnpreohlt15,hoshino-EtAl:2015:ACL-IJCNLP}.現状,実用面と精度の面からもっとも使われている手法である.本手法は,構文解析器を用いるため解析精度の影響を受けるという問題がある.また,新規分野に適用させるためには,人手によってアノテートした対象分野の対訳コーパスが大量に必要となるという問題がある.なお,本論文の提案する大域的並べ替え手法は,この従来型の構文解析による事前並べ替え手法の前処理として動作することにより,従来手法のこれら欠点を補うものである. \section{大域的並べ替え手法} 本論文で我々は,入力文に対してサブ言語に特有な大域的な文構造を把握して並べ替えるための手法を提案する.サブ言語に特有な大域的な文構造は,対象文書を読みやすくするために,特徴的な表層的手掛かりを使いながら記述される傾向にある\cite{DBLP:conf/coling/BuchmannWS84}.このため,本手法では,対象サブ言語において頻出する表層的な手掛かり表現を取り出し,この手掛かりをもとに文構造の認識および並べ替えを行う.表層的な手掛かり表現は,単語Nグラムとして取り出す.大域的な並べ替えを含む学習文からNグラムを取り出し,新たに入力された文に対してこのNグラムを照合することによって,大域的な並べ替えの有無を検知し,必要な場合に並べ替えを行う.例えば,図\ref{fig:ex-sents}は,特許抄録文のサブ言語に属する学習データ中に表れる,大域的な並べ替えを必要とする2文の例文である.本論文では以降,大域的な並べ替えにおける並び替え単位となる文字列を{\bf構造部品}と呼ぶ.この例文では,入力文の大域的構造をABCという3つの構造部品で表しているが,訳文では大域的な並べ替えを行って構造部品をCBAの順番で出力することによって訳文として自然な文を得る.ここで,これら学習データにおいて,入力文を構成する構造部品の境界の左右からユニグラムを抽出するとユニグラムが得られる.ここで``\textbar''は構造部品の境界位置を表す.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{c}\{{\itprovide},\textbar,{\ita}\}\\\{{\itapparatus},\textbar,{\itcapable}\}\\*\end{tabular}\end{center}\vspace{0.5\Cvs}新たな文``Toprovideaheatingapparatuscapableofmaintainingthetemperature."が入力されると,上記ユニグラムとの照合が行われ,``Toprovide\textbar\aheatingapparatus\textbar\capableofmaintainingthetemperature"のように構造部品の境界がマーキングされた文が得られる.ここで,ピリオドは並べ替え処理の対象外としており,一通りの並べ替えおよび翻訳処理が完了してから最後にピリオドに相当する句点等を訳文に戻す.入力文において認識されたこれら構造部品は大域的に並べ替えられて,``Capableofmaintainingthetemperature\textbar\heatingapparatus\textbar\toprovide"が得られる.さらに,各構造部品について従来型の並べ替えを行うことによって,``Thetemperaturemaintainingofcapable\textbar\heatingappratus\textbar\provideto''という文が得られる.これは,目的言語である日本語の文構造および単語順を持った文となっており,図\ref{fig:sent-glob-conv}に示すように,統計的機械翻訳を用いて容易に翻訳することができるようになる.\begin{figure}[t]\begin{center}\includegraphics{24-3ia0f2.eps}\end{center}\caption{大域的な並べ替えと従来の並べ替えの両方を適用した後の入力文}\label{fig:sent-glob-conv}\end{figure}本手法は,2つの手順から構成される.手順1では,大域的な並べ替えを必要とする文対を学習データから抽出する.この抽出した文対の原文側文は,構造部品の境界位置を付与して格納されるが,このコーパスを以降,{\bf大域的並べ替えコーパス}と呼ぶ.手順2では,大域的並べ替えコーパスからNグラム等の文の素性を抽出してモデルを学習し,新規入力文に対してこのモデルを用いて構造部品の推定を行う.推定した入力文中の構造部品を大域的に並べ替えることにより,大域的な並べ替えが完了する.本論文では,手順2の実現方法として,ヒューリスティックな方法と機械学習による方法の両者を試した.次節では,手順1と手順2について説明する.\subsection{大域的な並べ替えを必要とする文対の抽出}以下では,統計的機械翻訳用の学習コーパスを対象に大域的な並べ替えが必要な文対を抽出するためのアルゴリズムについて説明する.大域的な並べ替えを必要とする文対とは,単語アラインメントされた文対において,文を2つもしくは3つの構造部品に区切ったときに,これら構造部品が原文と訳文の間で,フレーズ単位(phrase-based)でswapの位置関係\cite{Galley:2008:SEH:1613715.1613824}にある文対,と定義する.なお,3つの構造部品に区切った場合には,隣接する2つの構造部品同士がそれぞれswapの関係にある場合に条件が適用される.例えば図\ref{fig:ex-segs}は,3つの構造部品から構成される英日対訳文の例であり,隣接する2つの構造部品の組み合わせがすべて原文側と訳文側でswapの関係に配置されているため,大域的な並べ替えの対象となる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f3.eps}\end{center}\caption{英日対訳文において,構造部品$\phi_1$,$\phi_2$,$\phi_3$がswapの位置関係に配置された例}\label{fig:ex-segs}\end{figure}なお提案手法は,理論上は4つ以上の構造部品に区切っても適用できるが,人手による分析から,2つもしくは3つの構造部品に区切ったときに境界位置に特徴的なNグラムが現れやすいことから,2つもしくは3つとしている.さらに,区切る数が多くなると,構文的な単位と差がなくなって効果が出にくくなることもあげられる.大域的な並べ替えを必要とする文対を対訳コーパスから抽出するための手順を以下に順を追って述べる.\begin{enumerate}\item原文・訳文それぞれについて,すべての隣接する2単語間位置が構造部品の境界になり得るとみなし,すべての原文境界位置に対するすべての訳文境界候補を作成する.ここで,文長$F$の原文$f$では単語間位置の個数は$F-1$であり,文長$E$の訳文$e$では単語間位置の数が$E-1$あることから,$(F-1)\times(E-1)$個の単語間位置の組み合せを候補として作成する.\item上記各々の組み合わせ候補の中から,境界で区切ることで得られた構造部品が原文と訳文の間でswapの位置関係にある候補を抽出する.ここで,原文中の$k$番目の構造部品が$\phi_k$であり,$K$個の構造部品から構成される文が$(\phi_1,\phi_2\cdots\phi_K)$であり,原文中の$k$番目の構造部品が訳文中の$\alpha_k$番目の構造部品と対応するときに,$\alpha_k=\alpha_{k+1}+1$が成り立つ構造部品の組み合わせがswapの関係にある構造部品であるが,このようなswapの位置関係にある構造部品から構成される文対をすべて抽出する.なお,上述の「大域的な並べ替えを必要とする文対」の定義で述べたとおり,本実験では$K$は2もしくは3である.\item前記の手順で候補を選択した結果,複数個の候補が残った場合には,原文言語が主辞先行型か主辞終端型かによって,候補を一つに絞り込む.我々の分析から,主辞先行型言語では,もっとも重要な構造部品が文頭の近くに表れる傾向があるのに対して,主辞終端型では文末の近くに表れる,という特徴を用いる.実験では,主辞先行型言語の場合には,文頭に近い構造部品が最短である候補を選択し,主辞終端型言語の場合には,文末に近い構造部品が最短である候補を選択する.図\ref{fig:select-segs}は,3つの構造部品から構成される英語文で,複数(2つ)の候補が存在する場合の例を示す.ここで英語は主辞先行型言語のため,文頭に近い構造部品である$\phi_1$と$\phi_2$の長さ(単語数)の合計が短い方を選択する.候補1の$\phi_1$と$\phi_2$の単語数の合計は$2+5=7$であり,候補2の$\phi_1$と$\phi_2$の単語数の合計は$2+2=4$であるため,この合計値がより短い候補2を選択する.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{24-3ia0f4.eps}\end{center}\caption{入力言語の主辞位置による候補の選択の例}\label{fig:select-segs}\end{figure}\subsection{大域的な並べ替えの学習と推定}\label{sec:train-glob}前項で抽出した大域的並べ替えコーパスを用いて大域的並べ替えモデルを学習し,翻訳実行時には,大域的並べ替えモデルを用いて入力文を大域的に並べ替えるためのアルゴリズムを以下に説明する.大域的並べ替えコーパスの各例文から単語Nグラムを抽出し,これを用いて大域的並べ替えモデルを学習させる.大域的な並べ替えの学習と推定を実現する手段として,以下に,ヒューリスティックに基づく手法と機械学習に基づく手法について説明する.\subsubsection{ヒューリスティックに基づく手法}ヒューリスティックに基づく手法では,大域的な並べ替えの学習と推定において,Nグラム照合の手順や推定候補の推定など各々の手順をヒューリスティックに基づいて決める.\begin{description}\item[Nグラム抽出]構造部品$\phi_k$と$\phi_{k+1}$の境界の左右両方からNグラムを抽出する.ヒューリスティックに基づく方法では,構造部品の境界の左右で異なるNグラムのNを持つことができるようにしている.ここで,$B$が$\phi_{k+1}$中の1番目の単語位置,$f$が原言語文,$f_B$が原言語文における位置$B$の単語,$n_L$が左側から抽出するNグラムのNだとすると,$f_B$の左側から抽出するNグラムは式(\ref{eq:ngram-left})の通りとなる.\begin{equation}(f_{B-n_L},f_{B-n_L+1}\cdotsf_{B-1})\label{eq:ngram-left}\end{equation}同様にして,境界の右側から抽出するNグラムのNを$n_R$とすると,$f_B$の右側から抽出するNグラムは式(\ref{eq:ngram-right})の通りとなる.\begin{equation}(f_B\cdotsf_{B+n_R-2},f_{B+n_R-1})\label{eq:ngram-right}\end{equation}\item[デコード]前項で抽出したNグラムを用いた,新規入力文に対する大域的並べ替えの推定方法について以下に説明する.大域的な並べ替えの推定は,入力文に対するNグラム照合によって行う.ここでは,(a)候補に対するNグラム合致長が長いほど,およびまたは,(b)候補のNグラム頻度が高いほどその候補の信頼性が高い,という仮説に基づいて計算する.具体的には,$len$が候補に対するNグラム合致長であり,$freq$が候補のNグラム頻度だとしたとき,仮説に基づき信頼性を式(\ref{eq:heuristic-score})で計算する.\begin{equation}{\log(freq)}\timeslen\label{eq:heuristic-score}\end{equation}\end{description}以下では,具体例を用いて,2つの構造部品を含む大域的な並べ替えと,3つの構造部品を含む大域的な並べ替えによるデコードについてそれぞれ説明する.なお照合の結果,2つの構造部品を持つ並べ替えと3つの構造部品を持つ並べ替えの両方に合致した場合は,照合箇所が多いほうがより信頼度が高いという仮説から,3つの構造部品を持つ並べ替えのほうを採用する.表\ref{tab:matching-2segs}は,2つの構造部品を含む場合,つまり$K=2$の場合の大域的な並べ替えの例である.構造部品が2つの場合,隣接する構造部品の間の境界の数は1つである.M2:1からM2:4の候補は,入力文``Topreventimperfectcoatingandpainting.''が入力されたときに合致したNグラムであり,``\textbar''は境界位置を表す.ここで,構造部品境界に関わる合致長は,境界左側のNグラムである$n_L$と右側Nグラムである$n_R$を足し合わせた$len$である.例えば候補M2:3では,$len=n_L+n_R=2+1=3$であり,この候補の出現頻度である$freq$の値は表\ref{tab:matching-2segs}から120として与えられている.入力文について,全候補の評価値を式(\ref{eq:heuristic-score})に基づいて計算し,すべての候補の評価値が計算できたところで評価値順に候補をソートして最高点を得た候補を出力する.\begin{table}[b]\caption{2つの構造部品から構成される入力文に対する照合の例}\label{tab:matching-2segs}\input{11table01.txt}\end{table}表\ref{tab:matching-3segs}は,3つの構造部品を含む場合,つまり$K=3$の場合の大域的な並べ替えの例である.構造部品が3つの場合,隣接する構造部品の間の境界の数は2つである.M3:1からM3:5の候補は,入力文``Toprovideahouseholdheatingdevicecapableofmaintainingtheroomtemperature.''が入力されたときに合致したNグラムであり,``\textbar''は境界位置を表す.ここで,合致長$len$は,1番目の境界の左右のNグラムと,2番目の境界の左右のNグラムを足したものである.例えば候補M3:3では,$len=2+1+1+1=5$となる.そしてこの候補の出現頻度は112として与えられている.2つの構成部品を含む場合と同様に,入力文について,全候補の評価値を式(\ref{eq:heuristic-score})に基づいて計算し,すべての候補の評価値が計算できたところで評価値順に候補をソートして最高点を得た候補を出力する.\begin{table}[t]\caption{3つの構造部品から構成される入力文に対する照合の例}\label{tab:matching-3segs}\input{11table02.txt}\end{table}\subsubsection{機械学習に基づく手法}\label{sec:svm-method}ヒューリスティックに基づく手法では直観に基づいて計算方法などを決める場面が発生するため,他ドメインへの適応において画一的な方法でチューニングすることが困難である.このことから,機械学習を導入することによって画一的な最適化を可能にする.ここでは,境界推定を2値分類問題として位置づけ,機械学習器としてサポートベクターマシン(SVM)を導入する.入力文の各単語について,その次の単語との間の位置が構造部品境界であるか否かの2値判定ができるように,当該単語の周辺の素性を与えてSVMモデルを学習させる.実験では,以下の2種類の素性を用いて,学習および判定を行った.\begin{description}\item[Nグラム]SVMに与える素性として,学習・推定対象の単語の左右のNグラムを用いる.ヒューリスティックに基づく手法とは異なり,単純化のために,単語の左側と右側で同じNのNグラムを用いる.学習・推定に利用するNグラムは式\ref{eq:ngram-svm}の通りとなる.\begin{equation}(f_{i-n+1},f_{i-n+2}\cdotsf_i\cdotsf_{i+n-1},f_{i+n})\label{eq:ngram-svm}\end{equation}\item[文中の単語出現位置]学習・推定対象の各単語について,文中におけるその単語の出現位置を素性として与える.この素性は,Nグラム素性が同一の単語が複数個存在する場合に,適切な境界位置を学習・推定するために導入した.素性の与え方としては,当該単語の文頭からの位置を文長で割った数値を用いている.$i$が学習・推定対象の単語の文頭からの位置であり,$F$が文長であるとして,文中単語出現位置の素性は式(\ref{eq:feat-pos})に示すとおりに計算する.\begin{equation}\frac{i}{F}\label{eq:feat-pos}\end{equation}\end{description}新規入力文に対する推定の段階では,各単語位置について素性を抽出して学習されたSVMモデルに渡して,境界か否かの推定を繰り返す.全単語に対してこの処理を繰り返すことによって,入力文$f$の各単語位置$i$に境界であるか否かのマークが付与された状態になる.なお本手法では,学習時において構造部品の個数についての制約をかけないため,新規入力文に対する推定においても,不特定数の構造部品が得られることがある.学習データ中には構造部品が2つと3つの文しか入っていないため,出力において4つ以上の構造部品が出力された場合には選択を行って3つになるようにする.選択は,入力言語の主辞方向性を基に行う.具体的には,英語のような主辞先行型言語ではもっとも文頭に近い構造部品区切り2つを採用し,日本語のような主辞終端型言語ではもっとも文末に近い構造部品区切り2つを採用する. \section{評価実験} 大域的並べ替え手法の導入による効果を評価するための実験をついて以下に述べる.最初に,大域的並べ替え手法をベースラインや他の並べ替え手法と比較するための設定について説明する.そして,大域的並べ替え実験のための準備について説明し,次に翻訳実験における各種設定について説明する.\subsection{比較対象の設定}大域的並べ替え手法の効果を評価するために,以下の4つの評価対象構成を設定し,それぞれに対して評価を行った.\begin{itemize}\item[\textbf{T1}]並べ替えを行わない,ベースラインの統計的機械翻訳.\item[\textbf{T2}]T1に加えて,大域的並べ替え手法のみを適用した場合.入力文は構造部品に分解され,大域的な並べ替えが行われる.各構造部品はベースライン統計的機械翻訳によって目的言語に翻訳され,結合されて出力文が作成される.\item[\textbf{T3}]T1に加えて,従来型の構文に基づく並べ替えを行った場合.入力文の単語は,そのまま構文に基づく従来型の並べ替えによって並べ替えられ,単語が並べ替えられた文が統計的機械翻訳で目的言語に翻訳される.\item[\textbf{T4}]T1に加えて,大域的並べ替え手法と,従来型の構文に基づく並べ替えの双方が適用された場合.入力文は構造部品に分解され,構造部品は目的言語の並びになるように並べ替えられる.そして,各構造部品に対して構文に基づく並べ替えが実行され,最後にこれらの翻訳された構造部品を結合することによって出力文を作成する.なお,これまで述べてきたように,大域的並べ替え手法は,構文による並べ替えと併用することによって精度向上につながることを想定している.\end{itemize}\subsection{大域的な並べ替えの構築}\ref{sec:train-glob}節で述べたように本実験では,大域的な並べ替えの学習において,ヒューリスティックに基づく手法と機械学習に基づく手法の両者を用いている.ヒューリスティックに基づく手法では,出力を見ながら直観に基づいて計算式等を決めており,大域的な並べ替え単体についての,各パラメータを変化させての定量的な測定は行っていない.これに対して機械学習に基づく手法では,構成を変化させながら機械学習器の推定機能を使って定量評価を行い,実験に先立って最適な構成を決めている.以下では,機械学習に基づく手法における最適化について述べる.\ref{sec:svm-method}節で説明したように,機械学習に基づく手法では,Nグラムと,文中単語出現位置の両者を素性として用いる.このうちNグラムについては,学習条件を変化させることで推定精度が変化するため,実験に先立って最適な推定精度が得られる学習条件を見つけるための予備実験を行った.具体的には,Nグラム抽出対象の文数と,NグラムのNを変化させて,推定精度の変化を測定した.機械学習の学習器としては,学習・推定ともに,liblinear1.94\cite{DBLP:journals/jmlr/FanCHWL08}を用いた.liblinearの実行に先立って,ツールキットに同梱されたsvm-scaleによるスケール調整,およびgrid.pyによるグリッド探索によるパラメータ調整を試みたがデフォルトと比較して改善が得られなかったため,デフォルト設定のまま学習を行った.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f5.eps}\end{center}\hangcaption{SVMモデルを用いた日本語入力文における構造部品境界の推定精度について,NグラムのNと大域的並べ替えコーパスの文数を変化させることによる変化.右側の凡例は,大域的並べ替えコーパスの文数を表す.}\label{fig:svm-ja}\end{figure}図\ref{fig:svm-ja}は,大域的並べ替えコーパスの文数とNグラムのNを変化させたときの,日本語入力文に対する推定精度の変化であり,図\ref{fig:svm-en}は英語入力文に対して同様の測定を行った結果である.ここで精度とは,10分割による交差確認による,入力文における構造部品境界の推定精度である.なお図中,大域的並べ替えコーパスの文数が10万文(「100~k」)のときにNを増やすに連れて逆に精度が下がるという現象がみられるが,これは過学習によることが考えられる.\begin{figure}[t]\begin{center}\includegraphics{24-3ia0f6.eps}\end{center}\hangcaption{SVMモデルを用いた英語入力文における構造部品境界の推定精度について,NグラムのNと大域的並べ替えコーパスの文数を変化させることによる変化.右側の凡例は,大域的並べ替えコーパスの文数を表す.}\label{fig:svm-en}\end{figure}この測定から,推定精度が最大となる学習条件を選択した.具体的には,日本語入力と英語入力の双方において,NグラムのNとして5を選択し,大域的並べ替えコーパスの文数としては100~k,つまり100,000文を選択した.\subsection{翻訳評価実験の設定}\label{sec:exper-conf}\begin{description}\item[データ]翻訳評価実験の評価データとしては,日本特許抄録の英語訳である,公開特許公報英文抄録(PatentAbstractsofJapan,以下PAJ)\footnote{特許庁公開特許公報英文抄録(PatentAbstractsofJapan)\\https://www.jpo.go.jp/shiryou/toushin/kenkyukai/pdf/riyousuisin\_siryou.pdf}を用いた.PAJおよびPAJの元となった日本語抄録文の間で自動対応付けを行い,日英対訳文の自動抽出を行った\cite{Utiyama:2007}.自動対応付けした対訳文から,1,000,000文を学習データ,1,000文を開発データ,1,000文を評価データとして無作為抽出した.評価データ1,000文のうち,Nグラムとの合致があった300文を対象として評価実験を行った.なお,この翻訳実験用の学習データは,前述のように,大域的並べ替え手法の学習データとしても用いた.\\翻訳評価実験では,学習の一環として,1,000,000文の学習データに対する単語対応付けを行った.現時点では,大域的な並べ替えの必要な文対を判定するためのソフトウェアプログラムの速度性能に問題があるため,翻訳用にアラインメントされた1,000,000の対訳文のうち,100,000文対を対象に大域的な並べ替えの必要な文対を抽出した.抽出の結果,38.194文対が得られ,この対訳文の原文を大域的並べ替えコーパスに格納して後段の実験に用いた.ヒューリスティックに基づく手法では,上記で作成した大域的並べ替えコーパスから2〜5グラムを抽出したところ,381,311個が得られた.\item[ベースライン統計的機械翻訳]翻訳評価実験のベースラインとしては,統計的機械翻訳のツールキットであるMosesphrase-basedSMT\cite{Koehn:2007:MOS:1557769.1557821}を用い,歪み範囲としては,システムのデフォルト値である6を使用した.単語クラスの学習にはmkcls\footnote{mkcls:trainingofwordclasses\https://www-i6.informatik.rwth-aachen.de/web/Software/mkcls.html}\cite{och1999efficient}を用い,単語クラス数としてはデフォルトの50個を用いた.言語モデルの学習には,KenLM\cite{heafield2013scalable}を用い,単語アラインメントにはSyMGIZA++\cite{DBLP:conf/imcsit/Junczys-DowmuntS10}を使用した.モデルの重みづけでは,BLEU値\cite{Papineni:2002:BMA:1073083.1073135}を指標としてn-bestbatchMIRA\cite{Cherry:2012:BTS:2382029.2382089}によるチューニングを行った.各評価実験において,重み付けチューニングを3回繰り返し,開発セットにおいて最大のBLEU値を獲得した重み設定を採用した.ベースラインの変形として,フレーズベース統計的機械翻訳における歪み範囲として20をした場合と,階層的フレーズベースの実装であるMoseshierarchicalphrase-baseSMT\cite{Chiang:2005:HPM:1219840.1219873}を使用した場合についても併せて評価を行った.また,Tree-to-String方式の統計的機械翻訳であるTravatar\footnote{Travatar\http://www.phontron.com/travatar/}\cite{neubig13travatar}についても評価を行った.Travatarの学習では,入力言語文の解析においてTravatar推奨の構文解析器であるCkylark\footnote{Ckylark\http://odaemon.com/?page=tools\_ckylark}\cite{oda-EtAl:2015:demos}を用いた.\item[従来型の構文解析に基づく並べ替え]本評価実験では,構文解析器としてBerkeleyParser\cite{Petrov:2006:LAC:1220175.1220230}を用いて,提案手法によって分割された各構造部品に対して事前並べ替えを行った.この基本的な構成は,日英・英日方向いずれも同じである.BerkeleyParserのドメイン適用では自己学習の手法を用いた.具体的には最初に,初期モデルを用いて200,000文の特許文の解析を行い,次に,得られた自動解析結果から構文解析モデルを学習することにより,特許文に適応した解析モデルを構築した.英語の初期モデルについては,PennTreebank\footnote{ThePennTreebankProject\https://www.cis.upenn.edu/{\textasciitilde}treebank/}の文,および我々が人手で木構造を記述した3,000文の特許文を用いて学習した.日本語の初期モデルについては,EDRTreebank\footnote{国立研究開発法人情報通信研究機構,EDRコーパス\\https://www2.nict.go.jp/out-promotion/techtransfer/EDR/index.html}の200,000文を用いて学習させた.日本語の初期モデル学習では特許文は用いていない.\\並べ替えモデルの学習では,内製の大規模な特許文対訳コーパスを用いて次の手順によって事前並べ替えモデルを学習させた(\cite{Goto:2015:PUT:2791399.2699925}の4.5節).\begin{enumerate}\item対訳コーパスの原言語文を構文解析する\item対訳コーパスに対して単語アラインメントを行う\item原言語文と目的言語文の間でケンドールの順位相関係数$\tau$が最大化されるような原言語文に対する並べ替えを行う.このようにして各2分ノードは,子ノードの入れ替えを行うことを表すSWAPと,入れ替えを行わないことを表すSTRAIGHTに分類される.\item上記のデータを用いて,各ノードのSWAP,STRAIGHTを判定するためのニューラルネットワーク分類器を学習する.\end{enumerate}なお,従来型の並べ替えの変形として,top-downbracketingtransducergrammar(TDBTG)ベースの並べ替え\footnote{topdown-btg-reordering\https://github.com/google/topdown-btg-preordering}\cite{nakagawa:2015:ACL-IJCNLP}の結果を併記した.TDBTGベースの並べ替えでは,ベースラインの統計的機械翻訳の学習の過程で得られたmkclsの出力およびSyMGIZA++の出力を用いて並べ替えの学習を行った.\item[大域的並べ替えモジュール]大域的並べ替えモジュールは,入力文に対する構造部品の推定と,推定した構造部品の大域的な並べ替えから構成される.大域的な並べ替えの学習および推定ではヒューリスティックに基づく手法と機械学習に基づく手法の両方の手法を用いて実験を行ったが,双方に対しての評価を行った.\item[評価尺度]各システムは,BLEU\cite{Papineni:2002:BMA:1073083.1073135}とRIBES\cite{Isozaki:2010:AET:1870658.1870750}の2種類の評価指標を用いて評価した.これは,Nグラムベースの評価手法であるBLEUのみでは長距離の関係を十分に評価することができず,本研究が目標としている構造レベルの改善を十分に測定できないと考えたからである.RIBESは順位相関係数に基づく自動評価手法であり,評価対象の機械翻訳出力文中の語順と,参照訳中の語順の比較を行う.RIBESのこのような特性によって,語順の大きく異なる言語間で頻繁に発生する,構造部品の入れ替えを評価できると考えられる.なお,RIBESは,NTCIR-10ワークショップの特許翻訳タスク(PatentMT)\cite{DBLP:conf/ntcir/GotoCLST13}や2ndWorkshoponAsianTranslation(WAT)\cite{Nakazawa:2015,isozaki-kouchi:2015:WMT}等においても,英日・日英の翻訳方向において,人間評価との高い相関性が報告されている.\\なお,実験で得られた各BLEU値とRIBES値は,MTEvalToolkit\footnote{MTEvalToolkit\https://github.com/odashi/mteval}を用いた反復数1,000回の100分割ブートストラップ法による両側検定を行って,各設定での最高値との有意差を調べた.\end{description} \section{実験結果} \begin{table}[b]\caption{日英翻訳の翻訳評価結果}\label{tab:trans-je}\input{11table03.txt}\end{table}\begin{table}[b]\caption{英日翻訳の評価結果}\label{tab:trans-ej}\input{11table04.txt}\end{table}表\ref{tab:trans-je}は日英翻訳,表\ref{tab:trans-ej}は英日翻訳の実験結果であり,ともに4つの比較対象におけるBLEU値およびRIBES値を掲載している.カッコ内の数字は,ベースライン翻訳システム(歪み範囲6の場合)を基準としたときの向上の差分を表している.太字で表した数値は,各列における最高値に対してブートストラップ法に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す\protect\cite{DBLP:conf/emnlp/Koehn04}.実験結果から,日英翻訳・英日翻訳ともに,大域的な並べ替えと構文解析に基づく並べ替えを併用したときに,ベースラインと比較してRIBES値が20ポイント以上と大幅に向上していることがわかる.BLEU値は,構文解析に基づく並べ替えのみの構成であるT3と比較しても有意な差が出ていないが,これは,BLEU値が大域的な変換を捉えにくいということに起因している可能性もある.このようにして,RIBES値とBLEU値で異なった傾向が得られたため,次節の考察では,さらに訳文中の文構造の正しさ,および人手評価を行った. \section{考察} 本手法の目的は適切な文構造を持った訳文を出力するための大域的な並べ替えを行うことであるが,本手法の適用によって,どのくらいの訳文が文構造的に正しく出力されているかの評価を行った.これまでにも述べてきているとおり,サブ言語の翻訳では,まずは文構造を正しく出力できなければそもそも全体の訳文を適切に出力することができないことから,本評価は重要であると考えている.評価文としては,\ref{sec:exper-conf}節の「データ」項において,無作為抽出して作成した翻訳評価用文1,000文のうちNグラムに合致した300文について述べているが,本評価ではこの300文の先頭100文を用いている.本評価では,評価対象訳文が以下の条件を満たしている場合に,文構造が正しく翻訳されているとみなした.なお,各構造部品の内部の訳は評価していない.\begin{itemize}\item出力文において,入力文中のすべての構造部品が過不足なく訳出されていること.\item出力文において,入力文中のすべての構造部品が適切な順番で訳出されていること.\item入力文中で一続きで現れる構造部品が,出力文中でも一続きの構造部品として訳出されていること.\end{itemize}表\ref{tab:struct-je}は,100文の日英翻訳中で文構造が正しく出力された文の文数を表す.表\ref{tab:struct-ej}は,100文の英日翻訳中で文構造が正しく出力された文の文数を表す.太字で表した数値は,各列における最高値に対して比率検定に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す.いずれの表においても,大域的な並べ替えと構文的並べ替えを併用したT4は,T1およびT2と比較して文構造の正解率が有意に改善していることがわかる.さらにいずれの表でも,T2とT4を比較するとT4のほうが有意に改善している.これは,T2で構造部品の並べ替えのみを行うと構造部品の境界での単語並びが不自然になり結果として訳文中の構造部品境界が不適切になる場合があったのが,T4でさらに構文的並べ替えを行うことでこの問題が解消する場合があることに起因すると考えられる.日英翻訳では,従来の並べ替えであるT3のみと比較してT4の正解率が有意に改善していることがわかる.これに対して英日翻訳では,従来の構文解析に基づく並べ替えの精度がすでに高いため,T3からT4への精度向上はそれほど顕著ではない.なお,表\ref{tab:trans-je}および表\ref{tab:trans-ej}においてHPBのBLEU値がベースラインと比べて大きく上がっていたが,表\ref{tab:struct-je}および表\ref{tab:struct-ej}ではそれほど大きな改善とはなっていない.このことから,HPBによる改善は比較的局所的なために,BLEU値には反映されやすいが,文構造の変換にはそれほど寄与していないと考えられる.\begin{table}[t]\caption{日英翻訳における文構造が正しく出力された文数(100文中)}\label{tab:struct-je}\input{11table05.txt}\end{table}\begin{table}[t]\caption{英日翻訳における文構造が正しく出力された文数(100文中)}\label{tab:struct-ej}\input{11table06.txt}\end{table}\begin{table}[b]\caption{日英翻訳に対する人手評価(100文中)}\label{tab:human-je}\input{11table07.txt}\end{table}\begin{table}[b]\caption{英日翻訳に対する人手評価(100文中)}\label{tab:human-ej}\input{11table08.txt}\vspace{-1\Cvs}\end{table}次に,各翻訳結果に対する人手評価を行った.評価文としては,上述の文構造評価で用いた100文を用いた.これは,表\ref{tab:trans-je}および表\ref{tab:trans-ej}において,RIBES値による傾向とBLEU値による傾向に異なりが見られるため,より人手に近い評価結果を見極めるためである.特に,BLEU値で比較すると,例えば表\ref{tab:trans-je}では,T4の値はT1およびT3と比較して有意差が見られないという結果になるが,RIBES値で比較すると,有意差があるという結果になる.人手評価には手間がかかるため,T1およびT2ではそれぞれ,表\ref{tab:trans-je}および表\ref{tab:trans-ej}においてもっと高い値となった設定について評価を行った.T3とT4については,設定によって大きな異なりが見られなかったため,すべての設定について評価を行った.評価は,対象文書である特許文書の技術内容に精通した1名の評価者が行った.評価文はシャッフルし,評価者にはT1,T2,T3,T4のいずれの文であるかがわからないようにして評価作業を行った.評価尺度は,S(Nativelevel),A(Good),B(Fair),C(Acceptable),D(Nonsense)の5段階として,評価者が直観的に付与した.従来の人手評価では正確さと流暢さの2つに分けて評価する場合も多い\cite{denkowski2010choosing}が,正確さと流暢さは相関性が高く実際の場面では分離困難なことも多い\cite{callison2007meta}ため上記の1つの指標を用いた.表\ref{tab:human-je}に日英翻訳の人手評価結果を,表\ref{tab:human-ej}に英日翻訳の人手評価結果を示す.\pagebreak太字で表した数値は,各列における最高値に対して比率検定に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す.結果として,表\ref{tab:human-je}の日英翻訳では,T4はT1,T2,T3のいずれと比べても有意に評価値が向上しており,このことから,表\ref{tab:trans-je}のRIBES値とBLEU値では,RIBESのほうが人手評価に傾向が似ていると考えられる.表\ref{tab:human-ej}の英日翻訳では,T4はT1,T2,と比べて有意に評価値が向上しており,T3との比較では,用いた並べ替え手法によって比較結果が異なっている.英日翻訳でも,RIBESのほうが人手評価に傾向が似ていると考えられる.\begin{table}[b]\caption{日英翻訳における典型的な翻訳例}\label{tab:typical-trans}\input{11table09.txt}\end{table}表\ref{tab:typical-trans}は,参照訳,および4つの比較構成であるT1,T2,T3,T4のそれぞれについて,典型的な翻訳結果を載せたものである.\begin{itemize}\item[\textbf{T1}]ベースラインであるT1では,参照訳と比較すると,原文の構造部品Cに相当する部分が訳文から欠落しており,また構造部品Aと構造部品Bが適切な順番で出力されていない.さらに,T1の訳文では,構造部品内での単語も適切な順番で訳出されていない.\item[\textbf{T2}]ベースラインに対して大域的な並べ替えのみを行ったT2では,すべての構造部品が訳文中に出力されているとともに,これら構造部品が目標言語として適切な順番で出力されている.しかしながら,各構造部品内の単語は適切でないため,構造部品単位での訳質はベースラインと比べて向上していない.\item[\textbf{T3}]ベースラインに対して従来型の構文解析ベース並べ替えのみを行ったT3では,各構造部品内での単語の並びが目的言語としてより適切になっている.しかしながら,構造部品は適切な順番で出力されていない.\item[\textbf{T4}]ベースラインに対して大域的な並べ替えと従来型の構文解析に基づく並べ替えの両者を用いたT4では,構造部品が目的言語として適切な順番で並べられ,かつ各構造部品内の単語もより目的言語にふさわしい順番で出力されて翻訳品質が向上している.\end{itemize}\begin{table}[b]\vspace{-0.5\Cvs}\caption{日英翻訳の翻訳失敗例とその中間結果}\label{tab:error-trans}\input{11table10.txt}\end{table}なお人手評価では,T4であっても評価C以上の評価となる文が日英で65\%,英日で55\%とそれほど高くないため,翻訳失敗文の目視分析を行った.まず,最初の段階の構造部品の認識が誤った場合は,そこから適切な訳文を生成することは困難となり,人手評価はほぼDとなる.次に,構造部品の認識および大域的な並べ替えが正しくても,訳文として不適切となり人手評価が低くなる場合がある.このような翻訳失敗の典型例およびその中間処理結果を表\ref{tab:error-trans}に示す.ここでは,大域的な並べ替えまでは適切に処理されているが,各構造部品に対する構造解析に基づく並べ替えにおいて,3つめの構造部品に対する並べ替えが適切に行われていない.具体的には,「うる」のトークンが構文解析に基づく並べ替えによって構造部品の先頭にくるべきところが,先頭から5番目のトークンとして誤って並び替えられ,代わりに「中心部」が構造部品の先頭にきている.これによってSMT適用後の訳文において,「光学投影装置」に対応する``anopticalprojectiondevice''の後に,本来くるべき``whichcan...''ではなく,「中心部」に対応する``centerpart''が来てしまい,読み手には``anopticalprojectiondevicecenterpart''のような一続きの文字列として認識されてしまう.結果として,読み手は訳文において構造部品,ひいては文の構造を認識することができず,低い評価結果となってしまう.原因としては,現在の実験構成では,構文解析に基づく並べ替えを,文単位での入力を前提として訓練しているが,実験には構造部品を対象に並べ替えていることが考えられる. \section{おわりに} 本論文では,大域的な並べ替えを行うことによって従来型の構文解析に基づく並べ替えを補い,対象サブ言語の翻訳精度を向上させるための手法を提案した.提案手法は,大域的な並べ替えモデルを,構文解析を行うことなく,平文対訳テキストから抽出する.本手法を対象とした評価実験を行ったところ,日英・英日双方向の翻訳において,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,従来の手法による翻訳精度を向上させられることが確認できた.特に日英翻訳では,RIBESによる自動評価,文構造評価,人手評価のいずれにおいても,提案手法が従来の手法より有意に訳質を向上させることがわかった.\acknowledgment本論文の内容の一部は,The3rdWorkshoponAsianTranslation(WAT2016)\cite{Fuji2016GlobalPF}で発表したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ambati\BBA\Chen}{Ambati\BBA\Chen}{2007}]{ambati:2007cross}Ambati,V.\BBACOMMA\\BBA\Chen,W.\BBOP2007\BBCP.\newblock{\BemCrossLingualSyntaxProjectionforResource-PoorLanguages}.\newblockCMU.\bibitem[\protect\BCAY{Buchmann,Warwick-Armstrong,\BBA\Shane}{Buchmannet~al.}{1984}]{DBLP:conf/coling/BuchmannWS84}Buchmann,B.,Warwick-Armstrong,S.,\BBA\Shane,P.\BBOP1984\BBCP.\newblock\BBOQDesignofAMachineTranslationSystemforaSublanguage.\BBCQ\\newblockIn{\Bem10thInternationalConferenceonComputationalLinguisticsand22ndAnnualMeetingoftheAssociationforComputationalLinguistics,ProceedingsofCOLING'84,July2--6,1984,StanfordUniversity,California,USA},\mbox{\BPGS\334--337}.\bibitem[\protect\BCAY{Callison-Burch,Fordyce,Koehn,Monz,\BBA\Schroeder}{Callison-Burchet~al.}{2007}]{callison2007meta}Callison-Burch,C.,Fordyce,C.,Koehn,P.,Monz,C.,\BBA\Schroeder,J.\BBOP2007\BBCP.\newblock\BBOQ(Meta-)EvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\136--158}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cherry\BBA\Foster}{Cherry\BBA\Foster}{2012}]{Cherry:2012:BTS:2382029.2382089}Cherry,C.\BBACOMMA\\BBA\Foster,G.\BBOP2012\BBCP.\newblock\BBOQBatchTuningStrategiesforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},NAACLHLT'12,\mbox{\BPGS\427--436},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{Chiang:2005:HPM:1219840.1219873}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-basedModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},ACL'05,\mbox{\BPGS\263--270},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{de~Gispert,Iglesias,\BBA\Byrne}{de~Gispertet~al.}{2015}]{nnpreohlt15}de~Gispert,A.,Iglesias,G.,\BBA\Byrne,W.\BBOP2015\BBCP.\newblock\BBOQFastandAccuratePreorderingforSMTusingNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics-HumanLanguageTechnologies(NAACLHLT2015)}.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2010}]{denkowski2010choosing}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2010\BBCP.\newblock\BBOQChoosingtheRightEvaluationforMachineTranslation:AnExaminationofAnnotatorandAutomaticMetricPerformanceonHumanJudgmentTasks.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceoftheAssociationforMachineTranslationintheAmericas}.AMTA.\bibitem[\protect\BCAY{Dyer,Gimpel,Clark,\BBA\Smith}{Dyeret~al.}{2011}]{dyer}Dyer,C.,Gimpel,K.,Clark,J.~H.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQTheCMU-ARKGerman-EnglishTranslationSystem-Research.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\337--343}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{DBLP:journals/jmlr/FanCHWL08}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{富士\JBA藤田\JBA内山\JBA隅田\JBA松本}{富士\Jetal}{2016}]{Fuji2016claim}富士秀\JBA藤田篤\JBA内山将夫\JBA隅田英一郎\JBA松本裕治\BBOP2016\BBCP.\newblock特許請求項に特有の文構造に基づく英中日特許請求項翻訳.\\newblock\Jem{自然言語処理},{\Bbf23}(5),\mbox{\BPGS\407--435}.\bibitem[\protect\BCAY{Fuji,Fujita,Utiyama,Sumita,\BBA\Matsumoto}{Fujiet~al.}{2015}]{Fuji:2015}Fuji,M.,Fujita,A.,Utiyama,M.,Sumita,E.,\BBA\Matsumoto,Y.\BBOP2015\BBCP.\newblock\BBOQPatentClaimTranslationbasedonSublanguage-specificSentenceStructure.\BBCQ\\newblockIn{\BemProceedingsofthe15thMachineTranslationSummit},\mbox{\BPGS\1--16}.\bibitem[\protect\BCAY{Fuji,Utiyama,\BBA\Sumita}{Fujiet~al.}{2016}]{Fuji2016GlobalPF}Fuji,M.,Utiyama,M.,\BBA\Sumita,E.\BBOP2016\BBCP.\newblock\BBOQGlobalPre-orderingforImprovingSublanguageTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation(WAT2016)},\mbox{\BPGS\84--93}.\bibitem[\protect\BCAY{Galley\BBA\Manning}{Galley\BBA\Manning}{2008}]{Galley:2008:SEH:1613715.1613824}Galley,M.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2008\BBCP.\newblock\BBOQASimpleandEffectiveHierarchicalPhraseReorderingModel.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'08,\mbox{\BPGS\848--856},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{DBLP:conf/ntcir/GotoCLST13}Goto,I.,Chow,K.-P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConferenceonEvaluationofInformationAccessTechnologies,NTCIR-10,NationalCenterofSciences,Tokyo,Japan,June18--21,2013},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,\BBA\Kurohashi}{Gotoet~al.}{2015}]{Goto:2015:PUT:2791399.2699925}Goto,I.,Utiyama,M.,Sumita,E.,\BBA\Kurohashi,S.\BBOP2015\BBCP.\newblock\BBOQPreorderingUsingaTarget-LanguageParserviaCross-LanguageSyntacticProjectionforStatisticalMachineTranslation.\BBCQ\\newblock{\BemACMTransactiononAsianandLow-ResourceLanguageInformationProcessing},{\Bbf14}(3),\mbox{\BPGS\13:1--13:23}.\bibitem[\protect\BCAY{Heafield,Pouzyrevsky,Clark,\BBA\Koehn}{Heafieldet~al.}{2013}]{heafield2013scalable}Heafield,K.,Pouzyrevsky,I.,Clark,J.~H.,\BBA\Koehn,P.\BBOP2013\BBCP.\newblock\BBOQScalableModifiedKneser-NeyLanguageModelEstimation.\BBCQ\\newblockIn{\BemACL(2)},\mbox{\BPGS\690--696}.\bibitem[\protect\BCAY{Hoshino,Miyao,Sudoh,Hayashi,\BBA\Nagata}{Hoshinoet~al.}{2015}]{hoshino-EtAl:2015:ACL-IJCNLP}Hoshino,S.,Miyao,Y.,Sudoh,K.,Hayashi,K.,\BBA\Nagata,M.\BBOP2015\BBCP.\newblock\BBOQDiscriminativePreorderingMeetsKendall's$\tau$Maximization.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\139--144},Beijing,China.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{Isozaki:2010:AET:1870658.1870750}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'10,\mbox{\BPGS\944--952},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki\BBA\Kouchi}{Isozaki\BBA\Kouchi}{2015}]{isozaki-kouchi:2015:WMT}Isozaki,H.\BBACOMMA\\BBA\Kouchi,N.\BBOP2015\BBCP.\newblock\BBOQDependencyAnalysisofScrambledReferencesforBetterEvaluationofJapaneseTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\450--456},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2010}]{Isozaki:2010:HFS:1868850.1868886}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2010\BBCP.\newblock\BBOQHeadFinalization:ASimpleReorderingRuleforSOVLanguages.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},WMT'10,\mbox{\BPGS\244--251},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Junczys-Dowmunt\BBA\Szal}{Junczys-Dowmunt\BBA\Szal}{2010}]{DBLP:conf/imcsit/Junczys-DowmuntS10}Junczys-Dowmunt,M.\BBACOMMA\\BBA\Szal,A.\BBOP2010\BBCP.\newblock\BBOQSyMGiza++:AToolforParallelComputationofSymmetrizedWordAlignmentModels.\BBCQ\\newblockIn{\BemInternationalMulticonferenceonComputerScienceandInformationTechnology-IMCSIT2010,Wisla,Poland,18--20October2010,Proceedings},\mbox{\BPGS\397--401}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{DBLP:conf/emnlp/Koehn04}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,EMNLP2004,AMeetingofSIGDAT,aSpecialInterestGroupoftheACL,heldinConjunctionwithACL2004,25--26July2004,Barcelona,Spain},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Koehn:2007:MOS:1557769.1557821}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheACLonInteractivePosterandDemonstrationSessions},ACL'07,\mbox{\BPGS\177--180},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Komachi,Matsumoto,\BBA\Nagata}{Komachiet~al.}{2006}]{komachi2006phrase}Komachi,M.,Matsumoto,Y.,\BBA\Nagata,M.\BBOP2006\BBCP.\newblock\BBOQPhraseReorderingforStatisticalMachineTranslationbasedonPredicate-argumentStructure.\BBCQ\\newblockIn{\BemIWSLT},\mbox{\BPGS\77--82}.Citeseer.\bibitem[\protect\BCAY{Luckhardt}{Luckhardt}{1991}]{DBLP:conf/eacl/Luckhardt91}Luckhardt,H.-D.\BBOP1991\BBCP.\newblock\BBOQSublanguagesInMachineTranslation.\BBCQ\\newblockIn{\BemEACL1991,5thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics,April9--11,1991,CongressHall,Alexanderplatz,Berlin,Germany},\mbox{\BPGS\306--308}.\bibitem[\protect\BCAY{Marcu,Carlson,\BBA\Watanabe}{Marcuet~al.}{2000}]{DBLP:conf/anlp/MarcuCW00}Marcu,D.,Carlson,L.,\BBA\Watanabe,M.\BBOP2000\BBCP.\newblock\BBOQTheAutomaticTranslationofDiscourseStructures.\BBCQ\\newblockIn{\BemANLP},\mbox{\BPGS\9--17}.\bibitem[\protect\BCAY{Mellebeek,Owczarzak,Groves,Genabith,\BBA\Way}{Mellebeeket~al.}{2006}]{Mellebeek06asyntactic}Mellebeek,B.,Owczarzak,K.,Groves,D.,Genabith,J.~V.,\BBA\Way,A.\BBOP2006\BBCP.\newblock\BBOQASyntacticSkeletonforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanAssociationforMachineTranslation},\mbox{\BPGS\195--202}.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2015}]{nakagawa:2015:ACL-IJCNLP}Nakagawa,T.\BBOP2015\BBCP.\newblock\BBOQEfficientTop-DownBTGParsingforMachineTranslationPreordering.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\208--218},Beijing,China.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Nakazawa,Mino,Goto,Neubig,Kurohashi,\BBA\Sumita}{Nakazawaet~al.}{2015}]{Nakazawa:2015}Nakazawa,T.,Mino,H.,Goto,I.,Neubig,G.,Kurohashi,S.,\BBA\Sumita,E.\BBOP2015\BBCP.\newblock\BBOQOverviewofthe2ndWorkshoponAsianTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponAsianTranslation},\mbox{\BPGS\1--28}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsoftheACLDemonstrationTrack},\mbox{\BPGS\91--96},Sofia,Bulgaria.\bibitem[\protect\BCAY{Och}{Och}{1999}]{och1999efficient}Och,F.~J.\BBOP1999\BBCP.\newblock\BBOQAnefficientmethodfordeterminingbilingualwordclasses.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\71--76}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Oda,Neubig,Sakti,Toda,\BBA\Nakamura}{Odaet~al.}{2015}]{oda-EtAl:2015:demos}Oda,Y.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQCkylark:AMoreRobustPCFG-LAParser.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:Demonstrations},\mbox{\BPGS\41--45},Denver,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni:2002:BMA:1073083.1073135}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingonAssociationforComputationalLinguistics},ACL'02,\mbox{\BPGS\311--318},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Petrov,Barrett,Thibaux,\BBA\Klein}{Petrovet~al.}{2006}]{Petrov:2006:LAC:1220175.1220230}Petrov,S.,Barrett,L.,Thibaux,R.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQLearningAccurate,Compact,andInterpretableTreeAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},ACL-44,\mbox{\BPGS\433--440},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{Utiyama:2007}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAJapanese-EnglishPatentParallelCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheEleventhMachineTranslationSummit},\mbox{\BPGS\475--482}.\bibitem[\protect\BCAY{Xiao,Zhu,\BBA\Zhang}{Xiaoet~al.}{2014}]{DBLP:conf/acl/XiaoZZ14}Xiao,T.,Zhu,J.,\BBA\Zhang,C.\BBOP2014\BBCP.\newblock\BBOQAHybridApproachtoSkeleton-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics,ACL2014,June22--27,2014,Baltimore,MD,USA,Volume2:ShortPapers},\mbox{\BPGS\563--568}.\bibitem[\protect\BCAY{Yamada\BBA\Knight}{Yamada\BBA\Knight}{2001}]{yamada:2001syntax}Yamada,K.\BBACOMMA\\BBA\Knight,K.\BBOP2001\BBCP.\newblock\BBOQASyntax-basedStatisticalTranslationModel.\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\523--530}.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{富士秀}{1987年英国王立ロンドン大学キングス校工学部卒業.1988年より株式会社富士通研究所研究員,シニアリサーチャー.2014〜2017年国立研究開発法人情報通信研究機構に出向.2017年奈良先端科学技術大学院大学博士後期課程終了.博士(工学).2017年より富士通研究所主任研究員.機械翻訳の研究に従事.情報処理学会,言語処理学会,AAMT,日本言語類型論学会等各会員.}\bioauthor{内山将夫}{1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,国立研究開発法人情報通信研究機構研究マネージャー.主な研究分野は機械翻訳.情報処理学会,言語処理学会等各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年(株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員,主幹研究員,室長.2007年〜現在国立研究開発法人情報通信研究機構(NICT)先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜1987年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V06N04-04
\section{はじめに} 日本語の指示詞については豊富な研究史が存在するが,それは日本語が豊かな指示詞の体系を持ち,さまざまな興味深い振る舞いを見せてくれるからである.談話構造との関わりから眺めた場合にも,未だ充分解決されていない,重要な問題が多数浮かび上がってくる.本稿は,指示詞の分析から談話構造の理論的研究へと向かう一つの切り口を提示することを目指す.本稿で特に問題としたいのは,日本語の指示詞の体系における,指示の機能の上での等質性と異質性である.結論の一部を先取りして言えば,指示詞の3系列(コ・ソ・ア)の内,ソ系列はコ系列およびア系列に対して異質な性格を多く持っている.この異質性を突き詰めていく過程で,指示の構造に対する根底的な理解が要請されてくるのである.指示詞をコ・ア対ソという対立関係で捉えようとする見方は\citeA{horiguti},\citeA{kuroda}を先駆とするが,本稿ではこの見方を談話処理モデルの中に位置づけることを試みる.その要点は次の通りである.コ・アはあらゆる用法において基本的に直示の性質を保持している.狭義の直示とは,文字どおり眼前の対象を直接指し示すことであるが,本稿では特にこの直示の本質を,次のようにとらえたい\cite{takukin97}.\enums{{\bf直示の定義}:\\談話に先立って,言語外世界にあらかじめ存在すると話し手が認める対象を直接指し示し,言語的文脈に取り込むことである.}この定義から,次のような事柄が帰結として導かれる.まず,指示対象は言語的文脈とは独立に,言語外世界に存在するので,先行する言語的文脈に対しては基本的に自由である.まして,言語的文脈によって概念的に設定された対象を指し示すことはない.次に,直示に用いられた指示詞表現(例「この犬」)には,指示対象のカテゴリーを表す表現が付いていることがある(例「犬」)が,直示の場合,指示対象が(多くは眼前に)現に存在するということを示すことが意味の中心であるので,カテゴリーは副次的にしか機能しない.極端な例として,眼前にいるカラスを指さして「この犬」と言っても,指示は成立しているのである.加えて,直示における指示対象が基本的に確定的・唯一的であることも前提される.指示対象自体が変域を持ったり,未定・不定であるということはあり得ない.言葉を換えると,直示表現は使用された段階では変項ではありえない\fn{指示詞自体は,一般的に,それが用いられた文脈によって指示対象が変わるので,変項として扱われるのが普通である.ここでは,文脈の中で直示なり,照応なりによって指示詞の機能が確定したあとの機能について述べている}.コ系列が「近称」,ア系列が「遠称」と捉えられるように,話し手からの距離によってこれらの指示詞が特徴づけられることも,直示の本質にとって重要な点である.すなわち,対象があらかじめ言語外世界に存在するが故に,話し手はそれを「近い」とか「遠い」とか判定できるのである.コ系列・ア系列指示詞には非直示用法も存在するが,非直示用法においても上に述べた直示の性質が保持されることを本稿において示す.一方,ソはいわゆる直示用法を持つ一方で非直示用法も持つが,ソの非直示用法は直示とはまったく異なる性質を持っている.すなわち,ソのいわゆる照応用法は,言語外世界とは関係なく,先行文脈によって概念的に設定された対象を指し示す.その場合,指示対象の概念が検索の重要なキーとなるので,カテゴリーを変えると指示対象の同定が困難になる.また,指示対象が未定・不定・曖昧であったり,束縛変項のように,指示対象に変域が生じる場合がある.以上の点から,ソの非直示用法は,本来の直示とは全く異なるものであるということを主張する.本稿では,このようなコ・アとソの違いが,指示詞表現が指定する心的な領域の違いから生じるものと考える.本稿が依って立つ談話処理のモデルは,\citeA{fauconnier85}に始まる「メンタル・スペース」理論の流れを組み,\citeA{jcss},\citeA{sakahara96}等に受け継がれた談話管理に関する理論である.これらの理論に共通するのは,言語表現と外的世界とをつなぐ位置に中間構造としての心的表示を仮定する点である.\enums{言語表現$\longrightarrow$心的表示$\longrightarrow$外的世界}ここで言語表現は,心的表示への操作(登録,検索,マッピング等)の指令,あるいはモニター装置として機能する.このモニター機能によって聞き手は話し手の心の働きをある程度知ることができ,コミュニケーションの効率化を助けるのである.指示詞の研究は,この心的表示の構造や指示詞がモニターする操作の実態を明らかにすることを目標とする.このような見方のもとで,本稿は次のように議論を進めていく.まず次節で,指示詞表現一般の談話的な機能を概括し,以下の議論の準備とする.3節から5節では,主にいわゆる文脈照応用法を中心として,コ・アとソを対比する形で実際の用法を検討し,コ・アを用いる表現には常に直示の性質が備わっていること,逆にソを用いる表現には直示とは相容れない特徴が認められることを明らかにしていく.6節では直示用法について簡単に触れ,ソ系列の特異性を指摘する.最終節では,以上の議論をまとめ,併せて文脈照応用法と直示用法の関係についての課題を提示する.ソの非直示用法が本来の直示と異なるものであると考える場合,ソにおける直示と非直示の相関関係が問題になるが,この点については本稿では結論を出すことができないので,今後の方向性を最終節で提示するにとどめる. \section{指示詞表現の意味論的・談話理論的機能} 指示詞表現は,一種の談話管理標識である.すなわち,指示対象の同定にあたって話し手が行っている心的な処理の状態をモニターしている訳である.それによって知られる話し手の心的処理に基づいて,聞き手も指示対象の同定を行うことができる.指示詞表現がモニターする心的処理を「このN」(Nは名詞)という形式を例にとって説明しよう.「このN」が表す心的処理は,「``コ''としてマークされた領域と関連づけられ,かつNによって示されるカテゴリーに属する対象を,値として指示せよ」というものである.これを\citeA{fauconnier85}が示した役割関数の考え方に基づいて\citeA{sakahara96}が用いた簡略的な記法によってしめせば,\enums{N(こ)}ということになる.ここで,「``コ''としてマークされた領域」とは,典型的な直示用法を例にとると,話し手の指差しや眼差し等の行動によって焦点化された,比較的話し手に近い眼前の空間の一部である.「領域と関連づけられる」とは,典型的には値としての個体がその領域に存在することを表す.例えば,犬を指差しながら「この犬」と言った場合,指された個体としての犬そのものが指示の値となる\fn{なお,上の例ではNは普通名詞を想定しているが,「\ul{あの}松田聖子が……」のように固有名詞など指示的な要素が置かれる場合もあるであろう.その場合は,指示詞によってマークされた領域と,Nが指示する対象とを結びつけるということになる.即ち,指定された領域におけるNの属性を強調する表現になるのである.}.しかし,時にはもう少し複雑な場合が存在する.例えば写真を見ながら「\ul{この人}は誰ですか」と言ったり,バーのマッチ箱を取り出して「\ul{この店}に行こう」と言ったり,仕出し弁当を食べながら「\ul{ここ}($=$今食べている弁当を作った店)も味が落ちたねえ」などという場合である.このような用法を「間接直示」と呼ぶことにし,4.1節で詳しく述べることにする.さらに,例えば犬を指さしながら「\ul{この犬}はシベリアが原産地だ」「\ul{この犬},うちでも飼ってる」などと言う場合がある.これは,関数「犬(この)」の値が個体ではなく「ハスキー犬」のような下位カテゴリーになっているのである.通常の,個体を値とする用法を「個体読み」,下位カテゴリーを値とする用法を「種類読み」と呼ぼう.個体読み/種類読みの分化は,指示詞表現だけでなく「同じ犬」「きのう見た犬」等の表現でも見られる,ごくあたりまえの現象である.個体読み/種類読みの差異が問題となる現象の詳細については\citeA{kinsui90}に譲り,以下では,カテゴリーも個体と同様のオブジェクトとみなし得る範囲で,個体と区別せずに扱うことにする.さらに問題となるのは,「会員と\ul{その家族}」などという場合に見られる「代行指示」用法\cite{syooho81}である.この用法も結局は「家族(その)」のような関数適用のヴァリエーションとして統一的に説明できると考えるが,ソとコ・アでかなり差が出る用法であるので,5.1節で再び考察したい.以上の分析では,すべて「このN」の形式を持った指示詞表現を扱ってきたが,他の形式でも同様に,コソアの部分は指示の領域を,コソアの後ろの部分は表現の意味的・統語的カテゴリーを表すと考えられる.例えば「ここ」は領域マーカー「こ」と,カテゴリー``場所''を表す「こ」が複合した形式であり,「こんな」は,領域マーカー「こ」と,領域からなんらかの静的な属性を抽出し,形容詞相当の語句を形成する「んな」が複合した形式であるという具合に分析できる.本稿で問題となるのは,コソアの部分が示す領域の違いであるので,後半部分の形態素が示すカテゴリーの違いについての言及は最小限にとどめる.さて,上に述べたように,日本語の指示詞表現は形態的に指示の領域と表現のカテゴリーの組み合わせとして説明できるわけであるが,後に詳しく述べるように,コ・アとソでは,領域指定の部分とカテゴリー指定の部分との重みにおいて違いがある.コ・アの指示詞表現にとっては,コ・アが指定する領域にその指示対象があらかじめ存在する,という「直示」に関わる部分が重要なのであり,カテゴリーの関数的な機能はあまり重要でない.4.4節で述べるように,実はカテゴリーは先行詞とまったく別のものになってしまっても,領域内に指示対象が存在するという含意に支えられて指示は成立する.一方,ソ系列,特にその文脈照応用法では,カテゴリーの関数としての機能,すなわちカテゴリーに合致する値を返す,という機能が重要であり,ソが領域として指定する言語的文脈は指示対象の存在を何ら保証しないのである.次節ではまず,ア系列とソ系列の文脈照応用法を比較する.\vspace{-3mm} \section{ア系列とソ系列} \subsection{ア系列の原型と拡張}ア系列の原型的用法は,狭義の直示用法に求めることができる.直示におけるアの領域は,眼前の空間において,コと対立する形で,話し手が直接操作できない遠方の空間を指差し,眼差し等の行為によって焦点化することによって形成される.いわゆる遠称である.さらに,ア系列は話し手の出来事記憶中の場面を領域として焦点化する用法を持つ.これを仮に「記憶指示用法」としておこう.ここで言う「出来事記憶中の場面」とは,次のような事柄を表す.「今・ここ」において眼前に広がる状況は,指示詞表現(コ・ソ・ア)と指差し・眼差し等の行為によって焦点化され,区分される.これが,狭い意味での直示用法である.時間が経過し,眼前の状況が変化するとともに,以前の眼前の状況は出来事記憶に格納される.格納された状況とは,時間・場所のインデックスがついて何らかの出来事がそこで生起する「場面」である.この,過去の記憶中の場面は,回想によって焦点化された時点でアの領域となる\fn{\citeA{jcss}では,現場の状況および出来事記憶中の要素に至るポインタを格納するデータベースを仮定し,D--領域と名付け,ア系列はD--領域の要素を指し示すと述べた.本稿では,指示詞の機能に即して分かりやすくするためにD--領域の概念は用いず,直接的に現場の状況や出来事記憶を参照するモデルにしたが,ア系列の指示詞の説明における基本的なアイディアは\citeA{jcss}で示したものと同等である.}.記憶指示用法は,この回想された場面と関連づけられた対象を値とする.場面は特定の時間・場所である場合もあるし,不特定である場合もあるが,ア系列の場合は,必ず話し手が直接体験した場面でなければならない.記憶指示一般について言えば,現に眼前に存在する対象ではないので,直示的である必然性はないが,記憶内の場面を眼前の状況と同等に扱えば,直示と同じ方法によって記憶内の要素を指示することも可能なはずである.アの記憶指示用法とは,このような拡張的な直示によるものと考えることができる.\citeA{mikami70}が,アは空間的遠方だけでなく時間的遠方も指せる,と述べた通りである.一般に,アの文脈照応用法と呼ばれるものは,すべてこの記憶指示用法である.先行文脈によって喚起された場面に,指示対象が存在することが示されているのである.一見,先行文脈に依存した表現のように見えるが,言語的文脈は聞き手の便利のためにアによって焦点化される場面を限定しているに過ぎない.\enums{きのう,山田さんに会いました.\ul{あの人},変わった人ですね.}また,先行文脈を持たない記憶指示用法も存在する.それは,(\ex{1})のような独り言や,(\ex{2})の夫婦の会話のように,生活時間を濃密に共有していて,話し手が焦点化した場面を聞き手が容易に推測できる対話者の会話においてよく現れる.\enums{神戸で食べた\ul{あの肉饅頭},おいしかったなあ.}\enums{(夫が長年連れ添った妻に)\\おい,\ul{あれ}を出してくれ.}\subsection{ソの指示対象}ソ系列がマークする領域とはどのようなものであろうか.ソ系列の典型的な用法である文脈照応用法について,本稿の仮説を述べる.言語的文脈は,話し手にとっての外的世界とは独立に,それだけで状況を形成することができる.この状況は,語彙の概念的意味,フレーム的意味と最小限の推論等によって形成される.この言語的文脈がつくる状況を,\citeA{jcss}その他に従ってI--領域と呼んでおこう.ソの照応が単に語句の一致ではなく,推論によって形成される状況を領域とすることを示す例として,次のようなものが挙げられる.\enums{小麦粉と牛乳をよく混ぜ,\ul{それ}をフライパンに注ぐ.}上記の「それ」が指し示す値は,前文に現れた名詞句「小麦粉」「牛乳」のいずれでもなく,「小麦粉と牛乳を混ぜた混合物」とでも言うべき対象である.これは言語的には現れないが,フレーム的知識と推論によって状況に導入されたものである\cite{yosimoto86}.上のようなソ系列の文脈指示用法の指示の値は,自立的なものではなく,言語的な先行文脈にのみ依存している.\subsection{久野説と黒田説について}いわゆる文脈照応用法のソ系列とア系列の違いについて述べた重要な論文として,\citeA{kuno73b}がある.久野は次のような一般化をしている.\enums{\begin{description}\item[ア--系列:]その代名詞の実世界における指示対象を,話し手,聞き手ともによく知っている場合にのみ用いられる.\item[ソ--系列:]話し手自身は指示対象をよく知っているが,聞き手が指示対象をよく知っていないだろうと想定した場合,あるいは,話し手自身が指示対象をよく知らない場合に用いられる.(185頁)\end{description}}この久野の一般化は,次のようなソとアの分布を一見きれいに説明する.\eenums{\item[A:]昨日,山田さんにはじめて会いました.\{あの/??その\}人随分変わった人ですね\item[B:]ええ,\{あの/??その\}人は変人ですよ}\eenums{\item[A:]こんど,新しい先生がくるそうよ\item[B:]\{その/*あの\}先生,独身?}\enums{\label{soko}神戸にいいイタリア料理店があるんですが,こんど\{そこ/??あそこ\}に行ってみませんか?}(\ex{-2})は話し手も聞き手も対象をよく知っている場合で,アしか許されない.(\ex{-1})のBは話し手が,(\ex{0})は聞き手が対象をよく知っていない場合で,逆にアは許されず,ソを使わなければならない.この久野の一般化に対し,\citeA{kuroda}はソとアの独立用法の観察に基づいて,次のような修正が必要であるとした.\enums{指示詞ソ・アの選択に真に本質的な要因は,話し手及び聞き手が対象を「よく知っているかいないか」ということではなく,話し手が,指示詞使用の場面において,対象を概念的知識の対象として指向するか直接的知識の対象として指向するか,ということにあるのである.\cite{kuroda}}すなわち,聞き手の知識はソとアの選択にとって本質的ではなく,対象の意味論的な差異が重要だとするのである.黒田の主張を最も端的に裏付けるのは次のような例文である.\enums{\label{kotodakara}昨日神田で火事があったよ.\{?あの/*その\}火事のことだから,人が何人も死んだと思うよ.}この文脈では,話し手はその火事のことをよく知っているが,聞き手はよく知らないので,久野の一般化はアを排除しソが適切であると予測するが,事実は逆である.ここで用いられている「〜のことだから」という表現は,それに続く判断(この場合は「人が何人も死んだ」)のための根拠を示す.アによって示される火事は話し手が直接知っている火事なので,後件の判断の根拠として適切であると感じさせるが,ソによって指し示される火事は,話し手が発話によって差しだした文字どおりの情報「昨日神田で火事があった」およびそれから最小の推論によって導かれる情報以上の情報を持たないので,「人が何人も死んだ」ことを導く根拠とはなりえないのである.この現象は,ア系列指示詞表現の直示的な性質を示すものと思われるが,それを示すために,黒田の議論を若干補っておこう.(\ex{0})で「その火事」が不適切であるのは,先行文脈に示される「その火事」の属性が「人が何人も死んだ」ことの根拠とはならないからと述べたが,次のような対比を考えてみよう.\enums{昨日神田で火事があったよ.すごい炎と煙が上がっていて,消防車が何台も来ていた.\{そんな/*その\}火事のことだから,人が何人も死んだと思うよ}(\ex{0})では,「そんな火事」は適切であるが,「その火事」は依然として不適格である.これは次のような理由によると考えられる.「NPのことだから」という表現における「NPのこと」とは,「NPの指示対象の持つ属性のすべて」を指示すると考えることができる\fn{田窪行則氏の個人的談話による.}.そしてコトダカラ文の適格性は,その後件の命題が「NPの指示対象の持つ属性のすべて」に含まれるか否か,という点で測られる.例えば\enums{田中さんのことだから,きっと時間どおりやってくるよ.}のようにNPに固有名詞が充てられる場合,未知の将来の時点における属性「時間どおりにやってくる」を「田中さん」の属性と認めうるが故にこの表現は適格と認められる.すなわち,固有名詞のような固定指示的な表現の指示対象は,言語的文脈や話し手の知識以外の状況で,同一の対象が言語的文脈や話し手の知識にない属性を持ちうるのである.一方,「その火事」のような表現の持つ属性とは,言語的文脈に依存し,そこから出ることはないので,語られていない属性を後件に持つと不適格となる.これに対し,「そんな火事」は,言語的文脈に依存しているのは「そ」の部分だけであり,「そんな火事」全体の意味は「文脈に示されたような属性を持つ火事(一般)」という範疇的・総称的な表現である.範疇的・総称的な対象は,言語的文脈に示された属性以外の属性を当然持ってよいので,その適格性は,前件から後件を導く推論の妥当性のみに依存するのである.黒田が示したこの事実は,我々が指示対象に関する知識を,少なくとも直示的・直接的なものと概念的・間接的なものに分類して持っていることを表していると考えられる.ではなぜ,(\ref{soko})では,話し手は対象を直接的知識として持っているにも関わらず,アの使用が不適切に感じられるのか.それは,\citeA{jcss}が指摘しているように,聞き手にとって新規な情報を提示する際の唯一許された方法が概念的知識をベースとした伝達であるからである.この点について,次節で詳しく述べる.既に明かなように,本稿の立場は\citeA{kuroda}に近い.黒田の言う「概念的知識/直接的知識として志向する」というアイディアを,本稿では言語的に形成された状況(I--領域),または直接的に体験した出来事記憶内の場面を介在させて指示対象へ至るという形式によって表現している.\enums{\evnup{\unitlength=1zw\begin{picture}(30,5)\put(0,4){ア}\put(2,4.5){\vector(1,0){2}}\put(5,4){出来事記憶}\put(0,0){ソ}\put(2,0.5){\vector(1,0){2}}\put(6,0){I--領域}\put(10.5,4.5){\vector(3,-1){3}}\put(15,2){(現実世界の火事)}\put(10.5,0.5){\vector(3,1){3}}\end{picture}}}\subsection{久野と黒田の再解釈}本稿の仮説に従えば,直接に経験した過去の場面に関連づけられた対象であることがア系列を使用するための必要条件である.従って,話し手が対象をよく知らない,即ち直接に経験した過去の場面とは無関係な対象(例「新しい先生」)はア系列で指し示すことができない.一方,言語的文脈によって形成された状況であるので,ソ系列には適している.\eenums{\item[A:]こんど,新しい先生がくるそうよ\item[B:]\{その/*あの\}先生,独身?}次に,話し手に知識があるが聞き手には充分な知識がない場合はどうであるか.アを使用する必要条件は満たされている.また言語的文脈を提示すれば,ソ系列の使用の条件も満たされる.このように意味論的な条件ではソもアも使用可能であるから,どちらを用いるかは語用論的な理由によって決定される.次のように説明的・提示的な文脈では,話し手は知識を持たない聞き手に合わせて,I--領域即ち言語的文脈をベースにしてコミュニケーションを行うことがいわば義務づけられていると見ることができる.\enums{神戸にいいイタリア料理店があるんですが,こんど\{そこ/??あそこ\}に行ってみませんか?}これは,基本的に相手の知らないことを新規に知らせるには言語的文脈に基づいて概念的に提示する方法しかないからで,そうでない方法を用いると,聞き手は高度な推論を起動する必要がある.これは聞き手にとって負荷のかかる処理となる.ア系列を用いて指示する方法がまさにそれで,自分にない知識に基づいて相手が話しているわけであるから,自分の知識と対立的な相手の知識を推論しなければならず,強い負荷がかかる.従って,説明的・提示的な文脈でソを使用するということは,次のような聞き手の負荷に関する語用論的な要請に基づく選択であると見ることができる.\enums{{\bf聞き手負荷制約:}\\聞き手が発話を処理する際にかかる負荷を最小にせよ.}但しこれはあくまで語用論的な制約なので,聞き手への負荷を無視してよい文脈ではアが用いられることが知られている.例えば次のような,叱責,勧め,思い出語り等の文脈である\cite{kuroda,yosimoto86}.\eenums{\item[A:]先生,この山田って誰ですか.\item[B:]君は\ul{あの}先生も知らないのか.}\enums{君は大阪に行ったら山田先生に会うといい.きっと,\ul{あの}独特な魅力にきっと魅せられると思うよ.}\eenums{\item[A:]先生がこの世界に入られた頃はどんな様子だったでしょうか.\item[B:]\ul{あの}頃は物資が窮乏していて,大変でした.}では,話し手・聞き手がともに対象についてよく知っている場合はどうか.この場合も,言語的文脈があれば,アもソも必要条件が満たされるので,両者とも使用可能である.にも関わらず,\citeA{kuno73b}によれば,アしか使用できないとされる.\eenums{\item[A:]昨日,山田さんにはじめて会いました.\{あの/*その\}人随分変わった人ですね\item[B:]ええ,\{あの/*その\}人は変人ですよ}このような場合の語彙選択も,本稿では語用論的制約に基づくものであると考える.この文脈のように聞き手負荷制約がかからない場面では,次のような原則が有効となるとするのである.\enums{{\bf直示優先の原則:}\\直示を優先せよ.}即ち,直示または直示に近い手段(拡張直示)によって対象を指示できるならば,直示を使うことが優先される.日本語の場合,それが話者にとって最も負荷の低い指示であると見ることができる.この原則は,\citeA{ktninti}で「指示トリガー・ハイアラーキー」と呼んだものである.同論文では,この原則に言語差があることも述べている.このことについて7節で再びふれる.この原則は,やはり語用論的なものなので,キャンセルされる場合がある.聞き手負荷制約が競合する場合に,聞き手負荷制約が優先されることは既に見た.また次のように,対立的な視点が有効である場合にもやはりソが使用可能になる.\eenums{\item[A:]『言語学原論』買いました.\item[B:]\ul{その本}よりも,『言語学のすべて』の方がいいぞ.}この対立的なソの使用はソの直示とも関係する.6節で再び述べる. \section{コ系列とソ系列} \subsection{コ系列の原型と拡張}コ系列の原型もまたア系列と同様に狭義の直示用法が原型となると考えられる.コの直示は2節ですでに述べたように,眼前の状況において指差しや眼差しによって焦点化された話し手の近傍の領域と関連づけられた要素を値とするものである.コ系列には,いわゆるコの文脈照応用法と言われるものがあるが,これは直示用法の拡張であろう.コの文脈照応用法は,\citeA{sakahara96}で述べられているように言語的文脈に明示的に導入された要素を専ら指し示し,フレーム的知識等によって間接的に導入された要素は指し示せないので,一見ソと同様に言語的文脈に依存した表現のようにも見える.しかし一方で,\citeA{kuno73b}に触れられているようにソとは異なってあたかも対象が眼前に生き生きと存在するような直示的な語感がある.本稿ではコの文脈照応用法を,言語的表現を介した,間接直示の一種と考える.間接直示とは,2節で少し触れたように,写真を見ながら「\ul{この人}は誰ですか」と言ったり,バーのマッチ箱を取り出して「\ul{この店}に行こう」と言ったり,仕出し弁当を食べながら「\ul{ここ}($=$今食べている弁当を作った店)も味が落ちたねえ」などという用法である.これらのケースでは,「写真$\rightarrow$本人」「マッチ$\rightarrow$店」「弁当$\rightarrow$弁当屋」のような一種の語用論的関数,あるいはマッピング・ルールを介在させることによって値にたどりつくことができる.直示された対象(写真,マッチ,弁当)は,最終的な真の指示対象(本人,店,弁当屋)を代表し,指示対象そのものと臨時的に同一視されている訳である.真の指示対象を代表する対象が眼前に存在することによって,真の指示対象の存在が臨時に保証されるのである.コの文脈照応用法では,マッチ箱で店を代表して直示するように,言語的表現を手がかりとして対象を直示していると考える.口頭の談話で話し手がコ系列を用いるとき,しばしば対象を指差したり手に持ったりするような身振りが見られることもこのことを裏付けるであろう\fn{ただしこの観察は実証されていない.}.言語で対象を導入することによって,あたかもその対象が目の前に存在しているかのように振る舞うのである.直示の一種であるということは,言語外世界に指示対象があらかじめ存在するということであると述べたが,それは指示対象が現実世界に「実在」するか否かということとは独立した事象である.次のように架空の対象であってもコ系列で指示できるが,対象は指差すように外在的なものとして取り扱われている.これは,ペガサスの絵を指しながら「このペガサス」と称する現象と似ている.\enums{今から,お話を作ります.主人公は医者にしましょう.名前を仮に,田中さんとします.\ul{この男}はとても腕のいい心臓外科医です.}文脈照応用法のコ系列はしばしば「談話主題」を指し示すと言われるが\cite{syooho81,iori95a},談話の主題であると言うことは,談話に先だってそれについて述べるべき指示対象が存在しなければならないということであり,先にみた直示的な性質とも一致する.以下の節では,さらに3つの証拠を挙げて,コの文脈照応が直示の一種であるという仮説を検証する.\subsection{非対称性}\cite{kuno73b}では,話し手は自分で導入した要素をコで指し示すことはできるが,相手が導入した要素はコを用いて指すコとができないとしている.次のような例である.\eenums{\label{asymmetry}\item[A:]僕の友達に山田という人がいるんですが,\ul{この男}はなかなかの理論家で……\item[B:]\{その/??この\}人は何歳くらいの人ですか?}(\ex{0})では,話者Aにとって「山田という人」は自分が導入した要素であるので「この男」で指し示せる.ところがBにとっては相手が導入した未知の要素であるので,ソで指し示すことはできるがコは使いにくい.このような特徴を,コ系列の文脈照応における話し手と聞き手の``非対称性''と呼んでおこう.この非対称性は,話し手が導入した要素であるが故にまさに話し手の近傍にあると感じられるためと説明できる.情報の受け手がコを使えないのは,対立的な視点のもとで対象が捉えられているからである.これは一種の語用論的な効果であり,次の会議の例のように,情報の受け取り手であっても,対象について自分自身の主題でもあると捉えることができれば,コの使用は可能であろう.\eenums{\item[A:]……以上で,ファッション・シティ・プロジェクトの概要の説明を終わります.\item[B:]\ul{このプロジェクト}は,いつから開始するのかね.}後者の例では,「プロジェクト」に関する資料が発話者の手元にあればより現れやすいが,その場合はもちろんまったくの間接直示である.ともあれ,情報の与え手も受け手もコが使えるのは,対象が抱合的な視点のもとで捉えられているからである.視点が対立的か,抱合的かによってコの分布が変わることは,直示用法でしばしば見られることで\cite{mikami55,ktninti},コの文脈照応用法が直示用法と近いものであることを示す証拠と考えられる.\subsection{先行詞との距離}\citeA{iori95a}によれば,ソ系列の先行詞は,基本的にその文中かまたはその直前にあるのが普通で,それより前にあると,同一指示の解釈が非常に難しくなる.これに対し,コの先行詞は1文以上前にあってもよい.次の例では,先行詞「ウラル地方の鉱山都市」と指示詞表現の間に4つの文が存在する.この場合,コ系列はまったく問題なく用いられるが,ソ系列は不適切である.\enums{「私は帝政ロシアの皇女アナスタシア」.そういい続けたアンナ・アンダーソンさんが,不遇のまま八十二歳で死んでもう八年以上たつ.イングリッド・バーグマン主演の映画『追想』のモデルにもなり,晩年は米国に住んだ.英紙サンデー・タイムズが先ごろ,{\bfウラル地方の鉱山都市}で見つかった十一体の遺骨について,最後の皇帝ニコライ二世と家族全員などであることが確実になったと報じた.遺骨に残る傷跡などが一家のものと一致したという.ところが最近になって,AP通信が「四女のアナスタシアとアレクセイ皇太子の遺骨は含まれていなかった」という米国の法医学者の分析結果を伝えた.英紙が本当なら,アンナさんは完全に偽物だし,APの報道通りなら,「兵士に助けられ,脱出した」という数奇な話が多少とも真実味を帯びてくる.ロマノフ王朝の最期は,いまだになぞめいている.一家は\{この/\#ソノ\}{\bf鉱山都市}のイバチョフ館と呼ばれる屋敷に幽閉されていた.\\(「天声人語」1992.8.10,\citeA{iori95a}より)}ところが,次のように先行詞を含む文と指示詞表現を含む文を隣接させると,ソ系列によって同一指示の解釈が可能になる.\enums{……英紙サンデー・タイムズが先ごろ,{\bfウラル地方の鉱山都市}で見つかった十一体の遺骨について,最後の皇帝ニコライ二世と家族全員などであることが確実になったと報じた.一家は\{この/ソノ\}{\bf鉱山都市}のイバチョフ館と呼ばれる屋敷に幽閉されていた.}この現象について,本稿の立場から次のように解釈できる.ソ系列がマークする領域とは,言語的文脈によって作られる状況であるが,状況の焦点化は,まさしくその文脈を発話することによって行われる.従って,状況が転換すればそれ以前の状況は領域から外れる.(\ex{-1})の例では,先行詞「ウラル地方の鉱山都市」を含む状況が提示されたあと,AP通信の報道に関する状況,および「ロマノフ王朝の最期は,いまだになぞめいている.」という背景的評価が提示される.そのことによって,「ウラル地方の鉱山都市」は焦点から外されるのである.一方コ系列の場合は,先行詞が談話主題として保持されている間は使用可能である.談話主題とは,先に述べたように,話し手が言語表現をその代理として,眼前にあるとみなしている対象である.この点から明らかになるのは,ソ系列指示詞があくまで言語的文脈に依存しているのに対し,コ系列の使用は,談話主題の指定という,談話に先だって決定される言語外的な話し手の行為に依存しているということで,これもコ系列の直示的な性質を表していると言える.では,コで指し示される談話主題はどのような条件によって決定されるのであろうか.\citeA{iori97}によれば,談話主題とは,現在話されている話題を構成するキー概念,キー状況のネットワークのようなものとして捉えられている.つまり,このネットワークが生きている間は,それに関連づけられた個々の状況が文脈の中で移り変わったとしても,ネットワーク内の概念や状況をコで指し示すことができるのである.(\ex{-1})の例で言えば,この段落全体にわたって,「帝政ロシアの皇女アナスタシア,アンナ・アンダーソン,最後の皇帝ニコライ{II}世,ウラル地方の鉱山都市,…」といったキー概念のネットワークが焦点化されていると考えられる.このネットワークは眼前にあるのと同じで,それが焦点化されている限り,いつコで指し示してもよいのである.以上が本稿における談話主題についての仮説であるが,より具体的な検証は今後の課題である.\subsection{カテゴリー転換}\citeA{sakahara96}は,日本語・英語・フランス語ともに,指示詞表現では先行詞のカテゴリーをまったく別のカテゴリーに転換できることを示している.このような現象は,英語・フランス語の定冠詞句やそれに相当する日本語の裸名詞句では起こらない.次の例では,先行詞のカテゴリー「{\bf熱帯林}」が指示詞表現では「この{\bfゆりかご}」に転換されている.\enums{{\bf熱帯林}は,恐竜の時代から氷河期を超えて生き残ってきた地球最古の森林だ.時の流れの中で,熱帯林にすむ生物は多くの種に分かれ,針葉樹林や温帯林とは異なる複雑な生態系を作った.そして無数の未知のウィルスも,\{この/??$\phi$\}{\bfゆりかご}の中に身を隠している.(朝日新聞,1995.8.3)}\citeA{sakahara96}では,このようなカテゴリー転換は,対象が属するフレームを転換する合図となっていると分析している.しかし,このような大きなカテゴリー転換が可能になるのは,日本語の場合,指示詞の中でもコ系列およびア系列であって,ソ系列ではむしろカテゴリー転換はむずかしい.このことを次の例によって確かめよう.\eenums{\item五歳の誕生日に真智子は両親に熊の{\bfぬいぐるみ}を買ってもらった.\ul{この}{\bf友人}を,真智子は一生大切にした.\item五歳の誕生日に真智子は両親に熊の{\bfぬいぐるみ}を買ってもらった.??\ul{その}{\bf友人}を,真智子は一生大切にした.}aでは,「熊のぬいぐるみ」と「この友人」の同一指示を認識することはたやすいが,bで「熊のぬいぐるみ」と「その友人」を同一とみなすことはかなり難しい.これは,次のような理由によると考えられる.ソ系列は言語的文脈によって形成され,発話によって焦点化された状況を領域とする.そして各要素が持つ属性は,言語的文脈の語彙的意味,フレーム的意味および最小限の推論によってもたらされる意味に限定される.それゆえに,大きなカテゴリー転換があると指示詞表現と先行詞を結びつけることが困難になる.一方コ系列の場合は,指示対象は言語的文脈によって提示されはするが,言語的文脈は指示対象を代表しているだけであって,言語表現とは独立に,あらかじめ存在するものとして捉えられている.それ故に,対象の同一性を保ちながら,異なるカテゴリー付けを行う,すなわち複数の異なるフレームに属するものとして扱うことができるのである.(\ex{0})に促して言えば,第1文は一般的なフレームに基づいて「ぬいぐるみ」というカテゴリーを与えられた対象が,第2文では「真智子」から見た世界のフレームに基づいて,「友人」というカテゴリーを与えられている.ソ系列では一般的なフレームの中での「ぬいぐるみ」しか参照できないのに対し,コ系列では,たまたま第1文で「ぬいぐるみ」であるような対象を,眼前に存在するかのように指し示すので,別のフレームで別のカテゴリー「友人」が与えられても指示が成立するのである\fn{本稿とは観点が異なるが,\citeA{iori96a}の「言い換え」の議論も参照になる.次のような例文である.\begin{quote}(i){\bfエリザベス・テーラー}がまた結婚した.\{この/\#その/??$\phi$\}{\bf女優}が結婚するのはこれで7回目だそうだ.\end{quote}この文でソ系列が使いにくいのは,やはり先行文脈に「女優」という属性を持つ対象が存在しないからである.}.ついで,ア系列でもカテゴリー転換が容易であることを次の例で確かめておこう.\enums{山田は{\bf主任教授の一人娘}と結婚したわけだけど,\{あの/??その\}{\bfお荷物}を背負ってよくがんばれるもんだと感心するよ.}指示対象は異なるフレームで「主任教授の一人娘」,「お荷物」という異なったカテゴリーを与えられているわけであるが,ア系列の表現はその直示性の故に同一性を表現することができる.ところがソ系列は言語的文脈で示されたフレームしか参照できないので,「お荷物」を対象と結び付けることができない. \section{ソ系列特有の用法} 以下の節では,コ系列,ア系列にはないソ系列特有の用法を分析し,コ・アとは異なる非直示的なソ系列の特質をさらに明らかにしていく.\subsection{代行指示用法}代行指示用法とは,「会員と\ul{その家族}($=$会員の家族)」のように「そのN」の解釈が「[先行詞]のN」と一致するものである.次の対比を見て分かるように,代行指示ができるのはソ系列だけである.ア,コは当該の文脈には現れない他の特定の対象を指示しているとしか解釈できない.\eenums{\item会員は\ul{その家族}とともに宿泊することができる.(代行指示可能)\item会員は\ul{この家族}とともに宿泊することができる.(代行指示不可能)\item会員は\ul{あの家族}とともに宿泊することができる.(代行指示不可能)}ただしソ系列でも,次のような状況を見て分かるように,直示用法では代行指示的解釈が難しい.\enums{(相手が持っている蓋のない瓶を指しながら)\\\{??その蓋/それの蓋\},どこへ行った?}すなわち,代行指示用法はソ系列の文脈照応用法にのみ成立する用法であると見ることができる.本稿の立場から,その理由を考えていきたい.まず,代行指示の「そのN」は「[[そ]\sitatuki{NP}の]N」という統語構造を持ち,「それのN」と同等であると分析する考え方がある.しかしこれは,次のように「それの」がゼロ代名詞を許すのに対し,「その」が許さないという点で否定される.\enums{象の心臓はとても大きい.一方,鼠にも心臓はあるが,\{それの/*その\}$\phi$($=$鼠の心臓)はとても小さい.}これに対し,統語構造ではなく,意味的に「そ」が主名詞とは独立に指示を担うと考えることは特に否定されないが,なぜコやアはだめでソにだけそのような解釈が許されるのかという疑問に対して説明が与えられなければならない.本稿の立場では,代行指示用法も他の指示詞表現と同様に,「N(そ)」のようなカテゴリー関数に対する領域パラメータの適用として統一的に捉える.すなわち,「その」がマークする領域と関連づけられたカテゴリーNである対象を値とするのである.「会員と\ul{その家族}」であれば,目下の発話において焦点化された言語的文脈に「家族」が関連づけられるわけで,実質的には「家族(会員)」という関数適用が成立するのである.ではなぜコ・アではそれができないか.直示用法の場合,「領域と関連づける」というのは,基本的に「両域内に指示対象が存在する」ということを表す.間接直示や種類読みのように,真の指示対象が眼前にない場合でも,指示対象を代表するもの,指示対象の``現れ''が眼前にあるという点で事情は同じである.つまり,「この家族」「あの家族」等の表現では,現在焦点化されている領域に指示される「家族」またはその代表物が存在しなければならないのである.ところがソ系列の文脈照応の場合は,領域とは言語的文脈によってのみ形成されるので,そもそも対象の存在は前提されていない.それ故に,「その」が指定する文脈に「そのN」の指示対象が無くても,「そのN」という表現それ自体によって,Nである対象を新規導入できるのである.この点においても,ソ系列指示詞表現の指示対象の非直示性が現れていると言えよう.\subsection{分配的解釈}ソ系列の指示の値の特徴をよく表す現象として,分配的解釈の可否の問題がある.分配的解釈とは(\ex{1})のようなものである.\eenums{\item55\%の自動車会社が\ul{そこ}の弁護士を解雇したらしい.\itemどの会社が\ul{そこ}の弁護士を解雇したのですか.}上の例では,「そこの弁護士」は特定の会社の弁護士ではなく,トヨタはトヨタの,日産は日産の弁護士のように分配的に解釈される.このような解釈は指示詞表現の中ではソ系列のみで可能である.次のコ系列,ア系列では特定・確定的な解釈しかできない.\eenums{\item55\%の自動車会社が\{ここ/あそこ\}の弁護士を解雇したらしい.\itemどの会社が\{ここ/あそこ\}の弁護士を解雇したのですか.}(\ex{-1})の例は,いずれも「55\%の自動車会社」「どの会社」のような数量詞表現を含むものである.\citeA{ueyama97}は,分配的解釈の統語的基盤をなす依存関係にはFD(FormalDependency),ID(IndexicalDependency)の2種類があり,その分配的解釈にかかわる表現の種類や統語構造によってFDかIDのどちらが使用可能であるかが決まると主張している\fn{\citeA{ueyama97}の分析は,分配的解釈以外の照応関係も考慮に入れた上で,\citeA{hoji95}の洞察をとらえなおすことを目的としたものである.\citeA{hoji95}では分配的解釈がどのような条件のもとで可能になるかが日本語と英語の観察をもとに記述されており,構造的条件に加えて,数量詞や指示詞表現のタイプに関する言及が必要であることが指摘された.\citeA{hoji95}では,依存関係としてはFDのみを仮定して説明を試みているのに対して,\citeA{ueyama97}では依存関係に2種類あると仮定した方が文法の全体像がより明解になると論じている.FDという概念については\citeA{hoji98}も参照のこと.}.たとえば,そこでの主張によると,(\ex{-1}a)のタイプの分配的解釈はFDにもとづくことしかできないのに対して,(\ex{-1}b)における分配的解釈はFDにもとづく必要はなく,IDの例であると考えることも可能ということになる.FDは狭い意味での束縛変項照応であり,ソ系列指示詞表現が数量詞に統語的に束縛されていなければならないが,IDでは統語的な束縛は必要なく,線条的な先行が成立していれば,(\ex{1})のように文境界を越える照応でも分配的解釈が生じる\fn{(\ex{1})がIDの例であるというのは厳密には不正確な表現であるが,FDとは別の統語的基盤にもとづいているという点は変わりない.くわしくは\citeA{ueyama97}を参照のこと.}.\enums{学生たちは一生懸命論文を書いた.しかし結局だれも\ul{その論文}を教授に提出しなかった.}(\ex{0})では「その論文」は「学生たちがおのおの書いた自分の論文」という分配的な解釈ができるが,コやアの表現ではやはりそのような読みは出ない.\enums{学生たちは一生懸命論文を書いた.しかし結局だれも\{この/あの\}論文を教授に提出しなかった.}(\ex{-1})の「その論文」はいわゆるEタイプ代名詞であるが,本稿で今まで扱ってきたソの文脈照応とまったく同じものと考えられる.本稿でUeyama説の詳細について検証することはできないが,とりあえずこれらの例において分配的解釈が可能となる理由について本稿の立場から考えてみたい.上の例においてソ系列指示詞表現が参照する状況とは,\eenums{\itemどの会社(x)(xがxの顧問弁護士を解雇した)\item学生たちのだれも(x)(xがxの論文を教授に提出しなかった)}のようなもので,数量詞表現によって状況自体が変域をなしているのである.この変域付き状況を「N(そ)」という指示詞表現に関数適用すると,変域に応じて値域が生じる.つまり値は確定的でなく,可変的なのである.言うまでもなく,このように可変的な状況や値が生じるのは,それが言語的文脈によって形成されたものであるからに他ならない.直示される状況では,要素はすべて確定的で,そのような変域はありえない.コ系列やア系列に分配的な解釈が生じ得ないのはこのことから明かであろう.上の説明はIDに関するものであったが,多少不正確な言い方をすると,FDについても,ソ系列指示詞の性質そのものは,IDのそれとまったく同じであり,FDはIDよりも統語的な制約がさらに厳しい特殊なケースであると考えてよいであろう.いずれにしても,直示的なコ系列やア系列では,FDであれIDであれ,分配的解釈を表すことができないのである.なお,このソ系列の分配的解釈に関連して,「その日暮らし」「その場しのぎ」等の慣用句に触れる必要がある\cite{hoji91}.これらにおいて「その日」「その場」は名詞句の中に閉じこめられているので,直接的に関数としては機能しないが,意味としては分配的な解釈が前提となっている.「\{この/あの\}日暮らし」「\{この/あの\}場しのぎ」等の表現がないこともそれを示している.さらに,分配的な意味を表す副詞「それぞれ」も,指示詞「それ」を語源としていることを付け加えておこう.\subsection{「その気」「そのつもり」「そのはず」}次のような「その気」「そのつもり」は,動作主の意図を表すものであるが,コ系列やア系列の表現が存在しない.\enums{彼を\{その気/*この気/*あの気\}にさせるのは大変だ.}\enums{わたしは\{その/*この/*あの\}つもりがなかったのに,行きがかりで父の買い物につき合う事になった.}「その意志」「その意図」等でも同様の現象が見られる.この種の表現にコ・アが適しない理由として,「意図」というものが本来極めて概念的なものであり,直示しにくいものであるということが挙げられる.次のような「そのはず」もまた,ア系列やコ系列は生じ得ない.\eenums{\item[A:]きのう田中さんは確かに10時前には帰ったんですね.\item[B:]ええ,\{その/*あの/*この\}はずです.}「〜はずだ」という表現は,言語的表現によって示された命題について論理的妥当性を保証することを表す形式であるから,アやコで指し示されるような,すでに存在が前提されている状況とは適合しないのである.\subsection{「そんなに」「それほど」}程度を表す「そんなに」「それほど」は,「こんなに」「これほど」「あんなに」「あれほど」とは異なった用法を持っている.それは,否定対極表現として,最終的に否定されるような量を表すという点である\cite{hattoritadasi}.これには,(\ex{1})のような照応的な場合もある一方で,(\ex{2})のように照応すべき言語的文脈を持たない場合もある.\eenums{\item[A:]荷物,重そうですね.\item[B:]いえ,\{そんなに/それほど\}重くないです.}\enums{荷物は\{そんなに/それほど\}重くなかったので手に下げて歩いて帰りました.}後者の先行詞のない例は,次に述べる曖昧指示表現の一種とも見られる.重要なのは,コ系列・ア系列の表現では必ずマークされる領域が固定的に存在するので,それによって指示される程度は決して否定できないことである.例えば\enums{荷物は\{こんなに/これほど\}重くなかったので手に下げて歩いて帰りました.}では,実際に指示詞で指し示される「こんなに/これほど」重い荷物が存在するのであり,その``程度''は否定されていない.一方「そんなに/それほど」で指し示される状況は,それがあるとするならば,最終的に否定されるためだけに存在する,仮定・架空の状況である.そのような状況を指し示すことは,ソには出来ても,コやアにはできないのである.\subsection{曖昧指示のソ}ソ系列の指示詞を用いた慣用表現がいくつかあるが,それらの中には,照応すべき言語的文脈をもたない上に,指示対象がはっきり特定できないようなものがある.むしろ,特定できないことを表現効果として生かしているのである.これを仮に「曖昧指示」と呼んでおこう.曖昧指示表現におけるソ系列をコ系列やア系列に変えると,確定的な指示対象があるように解釈されてしまうので,曖昧指示表現にはならない.たとえば,次のような会話がある.\eenums{\item[A:]お出かけですか\item[B:]ええ,ちょっと\ul{そこ}まで}この表現では,話し手にとって自分の目的地はあらかじめ確定的に存在する訳であるが,上の表現は目的地を直示するように指し示してはいないであろう.例えば,次のようにア系列に変えると,聞き手は目的地がどこであるのか,推論を開始せずにはいられない.それは,聞き手に指示の値が現実世界に存在する確定的な場所として明示されているからである.\eenums{\item[A:]お出かけですか\item[B:]ええ,ちょっと\ul{あそこ}まで}「そこ」の場合は,わざと指示対象を非確定的に示しており,そのことに「目的地を言いたくない」という話し手の意図が暗然と表現されているので,聞き手もそれ以上は推論を押し進めない.話し手の立場から言えば,「行き先をそれ以上聞かないでほしい」という意志を表明しているのである.場所に関する曖昧指示にはこのほかに,「(どこか)その辺($=$不定,未詳の場所)」「そこらの/その辺の($=$ありふれた,平凡な)」等がある.\eenums{\item[A:]私のメガネ知らない?\item[B:]\ul{その辺}に置いてるんじゃないの}\enums{彼は\ul{そこらの}学者とは比較にならない学識と経験を持っている.}それぞれの意味が形成されるに至った経路については別に考えるとして,ここで注意したいのは,これらの曖昧指示にソ系列が用いられる理由である.それは,ソ系列が言語外世界に確定的な値をあらかじめ持たない,ということに他ならないであろう.コ系列やア系列に変えると,必ず特定の場所と結びつけた解釈が生じ,曖昧指示とはならないことから,それが確認できるのである.その外に,曖昧指示といえるものとして,次のような慣用表現がある.\enums{(しばらくぶりで再会した人に)\\\ul{その節}はどうもありがとうございました}この例では,話し手・聞き手が共有しているはずの過去の経験をソ系列で指しているように見える.しかし,(\ex{1})のようなア系列を用いた表現が特定の場面を指示しているのに対し,(\ex{0})はいささか具体性を欠いた文字どおり``挨拶''的な表現との印象を与えるのである.\enums{\ul{あの時}はほんとに助かりました.どうもお世話になりました.}ただし(\ex{-1})については,「その節」という表現の定形性に注意する必要がある.次のように「節」ではなく「時」というより一般的な表現に変えると,ソ系列の表現は先行文脈無しには解釈できなくなる.\enums{??\ul{その時}はどうもありがとうございました.}これは,「その節」という表現がソ系列の古い特徴を残す表現として残存しているのではないか,という可能性を示唆している.この点については,後に7節で一つの見通しを提示したい. \section{ソ系列の直示用法} コ系列,ア系列については,既に直示用法がその原型的用法であり,その他の用法が直示用法の拡張であるとの見方を示した.一方でソ系列にも直示用法があるが,ソの直示はコやアとはたいへん異なった,複雑で微妙な性質を持っている.眼前の状況から部分的な領域を何らかの方法で焦点化し,その領域と関連づけられた対象,典型的にはその領域に存在する対象を値として指し示す,という点はコやアとまったく同じであるが,領域の性質や指定の仕方がコやアと違っているのである.ソの直示用法には,大きく分けて人称区分的な聞き手領域指示の用法と,距離区分的な中距離指示の用法がある.(\ex{1})は聞き手領域指示,(\ex{2})は中距離指示の典型的な例である.\eenums{\item[A:](相手の着けているネクタイを見て)\ul{その}ネクタイ,いいですね.\item[B:]ああ,これはイタリアで買ってきたんです.}\enums{(タクシーの客が,運転手に)\\\ul{そこ}の信号の手前で降ろしてください.}コやアは基本的に距離区分であり,眼前の空間の認識と指差し・眼差し等のプリミティブな動作のみによって領域が焦点化される.従って話し手のみによって指示は成立するので,独り言でもコとアは用いられる.ところが聞き手領域指示は「聞き手」という空間認識とは異質なコミュニケーション上の要素が関与しているので,独り言にすると聞き手領域指示のソは現れない\cite{kuroda}.また聞き手があったとしても,空間や要素が話し手と対立的に認識される場合にのみソが使用可能となり,話し手と聞き手が接近するなどして包合的関係になると,聞き手領域のソは消失するのである\cite{mikami55}.このことは,聞き手によって指定される領域がコミュニケーション上有用になる場合に限り最小限に適用されることを示している.次に中距離指示のソであるが,``中距離''という領域は近距離,遠距離が確定した後に寄生的に成立する領域で,プリミティブとは言えない.また中距離のソはやはり独り言では現れにくく,聞き手への教導,注意喚起等に多く用いられる\fn{\citeA{sakata}が示した中距離のソの多くの用例からもそのことが伺える.}.さらに中距離のソは,「そこ」「その辺」等の場所表現がほとんどを占めるのであるが,これは空間が本来,連続的・一体的で境界を持たないために,話し手の積極的な焦点化をまって初めて区分が成立する,ということと関連するようである.場所以外の要素は,(時間は別の問題があるので措くとして)基本的に空間内に分離的・離散的に存在する.そのような対象はそれ自身が図として,地から区分されて存在しているので,それをまず近称や遠称,あるいは聞き手領域に配置させれば指示は事足りるので,あえて中距離という領域に当てはめる必要はないのである.以上の点を勘案すると,中距離のソも,聞き手領域指示のソと似て,コミュニケーション上の要請によって隙間を埋めるように適用された用法と見ることができるのである. \section{まとめと今後の課題} 以上の考察から,次のようなことが明らかになったと考える.コ系列とア系列は,直示用法が原型的な用法であり,文脈照応用法と見られるものでも,直示的な性質を色濃く残している.ア系列の文脈照応用法と見えるものは,実際には話し手が直接経験した場面が領域となり,直接経験という点で眼前の直示と共通する性質を持つ.コ系列の文脈照応用法は,言語表現を指示対象の代表物として取扱い,あたかも対象が眼前にあるかのように指し示すものであった.コ系列にしてもア系列にしても,その指示の値は確定的・唯一的であり,発話に先だって指示対象の存在が非言語的に決定されている.一方ソ系列には,現場における直示用法,文脈照応用法および慣用的な曖昧指示用法がある.文脈指示用法は,言語的文脈によって形成される状況を指示の領域とする.指示の値は言語的文脈に依存し,その指示対象の言語外の世界における存在が直接保証される訳ではない.曖昧指示もまた,言語外世界との間接性という点で,文脈照応用法と共通する性質を持つのである.つまりソ系列の非直示用法は,アやコとは違って,直示としての性質をいっさい持たないことによって特徴づけられるのである.ところが,ソ系列には直示用法もある.直示である以上,その指示の値は当然眼前に唯一的に存在する訳であるから,非直示用法とは相反する性質を持つということになる.上記の点で,現代語のソ系列の指示詞は多義であると言わざるを得ない.問題は,このような多義性が,単一の原型からの派生として説明できるのか,できるとすればどのような派生の経路がありうるのか,という点である.ここで,ソ系列の直示の特殊性,複雑性が考慮されなければならない.ソは直示においてもさらに人称区分と距離区分に分かれるのであるが,いずれもプリミティブな用法というより,コミュニケーション上の要請により隙間を埋める充填剤的な手段として適用されているのである.このことは,直示用法がソ系列の原型的用法であるという可能性の低いことを指し示しているようである.しかしこれだけの証拠だけでは,ソ系列が直示から非直示へ拡張したのか,はたまたその逆かを決定することはできない.なぜなら,語義の変化においては,原型的な用法から派生的な用法が生じたあとで,原型的なものが衰弱して,派生的なものがかえって本来的なものに見えることがしばしばあるからである.ここから先は,歴史的資料に証拠を求め,また対照的研究をも援用しなければならないであろう.それはすでに本稿の守備範囲を超えるが,ここで,とりあえず大まかな見通しだけを述べて締めくくりとしたい.筆者の予備的調査および\citeA{okazaki97}で収集されたデータを見ると,古代語のコ系指示詞は現代語とほとんど違いがないが,中称(ソ,シ,サ,シカ等を含める)および遠称(カ,ア)の分布は現代語と異なる.要点をまとめると次の通りである.\eenums{\item中称は現代語と同様に文脈照応によく用いられ,分配的解釈もみられる一方で,文脈照応と独立した純然たる直示用法は中世末まで見られない.\item直示優先の原則が弱い.すなわち,目に見えているものでも,2度目以降に言及される場合は直示ではなく文脈照応の中称が用いられる場合がある.\item眼前になく,話し手の記憶内にある対象は,古くは中称で指し示された.時代が下るに従って,記憶指示の遠称の用法が拡大していく.}上記の特徴から考えると,日本語の中称とはもともと,直接的に,今ここで知覚に捉えられない対象を指し示す指示詞であったと捉えることができる.記憶指示に相当する表現に遠称ではなく中称が充てられる点にその特徴が端的に表れている.また,文脈照応用法とは本稿で言うI--領域指示であり,これも言語的文脈を介した間接的な指示であるので,やはりこの規定に合致するのである.ただし,直接的に知覚に捉えられる対象であっても,文脈照応的に指される場合は,「知覚に捉えられない」方の扱いになる.また直示優先ではないという点も重要である.このような体系から,現代語へといたる変化は次のようなものと考えられる.一つには遠称の直示が拡張されて記憶指示用法を発達させる過程である.また一つは,それとともに,直示優位の原則が生じ,非直示用法においてソ系列の使用範囲が狭まっていく過程である.そしてもう一つは,おそらく文脈照応用法を足がかりにして,直示用法においてソ系列の領域が確定していく過程である.記憶指示用法が発達し,直示優先の原則が成立すると,ソ系列は自然に自分の知識とは対立する情報を指し示すことが多くなる.これが,ソ系列と聞き手を結びつける契機となるのである.中距離指示の用法も,聞き手への教導,注意喚起という,自分の知覚とは対立する相手の知覚に関わる文脈に現れるという点で,聞き手領域指示と共通する基盤を持っている.ここで大いに参考になるのが,朝鮮語の状況である.朝鮮語には日本語に似た3系列の指示詞が存在し,中称が文脈照応に用いられる点も共通するが,次の3点で現代日本語と異なる.1つは,遠称指示詞(アに相当)の記憶指示用法がなく,過去の経験はすべて中称指示詞(ソに相当)で表されるという点である.たとえば,「その節はお世話になりました」は実は朝鮮語にほぼ直訳できる\fn{「\ul{ku}ttaynunkomawesseyo(\ul{その}時はありがとうございました.)」など.}.第2点は,「直示優先の原則」あるいは指示トリガー・ハイアラーキーが朝鮮語では弱く,連続した文脈において同一指示を行う場合は,直示できる対象であっても,文脈照応用法の中距離指示詞を用いることができるという点である\fn{ただし,直示優先が働かないのは遠称の場合のみで,近称と文脈照応では近称が優先される.}.第3点は,上のこととも深く関係するが,中称指示詞の現場指示的な用法が日本語よりもはるかに弱いという点である.中称による聞き手領域指示は,聞き手が実際に手に触れられるもの,身に着けているものぐらいに限定されていて,聞き手から少しでも離れると使えない.また中距離指示もない.以上の点で,朝鮮語は,現代日本語よりも古代日本語に近く,同じような出発点からやや異なる方向に発展しつつある体系であると見ることができる.上記の仮説をこれ以上検証することは既に本稿では果たせないので,今後の課題としたい.古代日本語の用法を視野に入れ,それと現代語との連続性・非連続性を明らかにしつつ,さらに朝鮮語のような外国語の状況も参照することによって,現代語日本語の体系はいっそう明らかになるものと考える.\section*{付記}本稿のドラフトに対して懇切なるご助言とご教示を賜った田窪行則氏,傍士元氏,上山あゆみ氏に対し,心から感謝の意を表します.また,朝鮮語のデータは美庚さん(慶尚北道出身,30歳,女性)の面接調査に基づいています.ご協力に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n4_04}\begin{biography}\biotitle{略歴}\bioauthor{金水敏}{1979年東京大学文学部国語学専修課程卒業.文学修士.東京大学文学部助手,神戸大学教養部講師,大阪女子大学助教授,神戸大学文学部助教授を経て,1998年より大阪大学大学院文学研究科助教授,現在に至る.専門は日本語の文法史であるが,田窪行則氏との共同研究で,現代日本語の談話管理に関する研究も行っている.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N01-01
\section{はじめに} \label{sec:intro}近年のWebの発展は目覚ましいものがあり,Blogや掲示板のように,個人が気軽に自分の意見や感想を書き込める場が増えている.特に,商品購入サイトやオークションサイトなどでは,実際に商品を購入したり,サービス提供を受けたユーザが感想を書き込めるユーザレビュー用ページを提供している場合も多く,レビューは,商品やサービスの潜在的購入者にとって,貴重な情報源のひとつになっている.レビューの件数が増加すれば,それだけ多くの感想を読む機会を得ることになるが,商品やサービスによっては何百件から何千件もレビューが存在することもある.この場合,レビューの内容をすべて把握することは困難であるが,このような問題に対して従来からレビューを自動的に分類したり,意見を集約する研究が盛んに行われている\cite{sa2}.意見の集約に関する研究の例として,例えば,Huら\cite{hu}は,評価視点(opinionfeatures)という概念に基づいてレビュー集合内の意見を集約する手法を提案している.ここで,評価視点とは,評価対象(すなわち商品やサービス)の部分や属性のことであり,例えば,評価対象としてデジタルカメラの特定の商品(「デジタルカメラ$X$」)があったとすると,「画質」や「解像度」などがその評価視点となる.Huらは,レビュー集合からユーザ評価が肯定または否定となる評価視点を自動抽出し,\begin{itemize}\itemデジタルカメラ$X$\begin{itemize}\item画質肯定:253/否定:6\item解像度肯定:134/否定:10\item...\end{itemize}\end{itemize}のような集約結果を生成する手法を提案した.ここで,集約結果内の数値は頻度を表しており,デジタルカメラ$X$の画質に対しては253件の肯定評価を示すレビューがあったことを意味する.このような評価視点の(半)自動抽出に基づく研究は他にも,小林ら\cite{kobayashi}や,Liuら\cite{liu},Jakobら\cite{jakob}等がある.しかしながら,これらの先行研究では,基本的に評価視点を漏れなく列挙することが目的となっているため,結果として,数多くの評価視点が出力され,どの評価視点が評価対象にとって重要であるかがわからないという問題がある.また,実際に集約結果としてユーザに評価視点を提示することを考えた場合にも,重要度に応じて提示する評価視点に順序を与えたり,取捨選択できることが望ましい.本論文では,このような背景に基いて,上記の先行研究など,何らかの方法によって得られた多数ある評価視点に対し,それらをある重要度に従ってランキングする課題を新たに考え,ランキングに適した手法について検討する(\sec{uniq_aspect_ranking}).重要度の考え方にはいろいろ考えられるが,本論文では,ユーザは商品購入の際に複数の競合商品を横並びで比較することが多い事を踏まえ,次のように考える.すなわち,競合する複数の評価対象に対して,これらの中で,他の評価対象からある特定の評価対象を差別化できるような評価視点ほど重要であると考え,そのような評価視点に高い重要度を割り当てることを考える.以降,本論文では,このような評価視点のことを特徴的評価視点と呼ぶ.例えば,あるユーザが出張の際に利用する宿泊施設を探しており,幾つか探し当てたとする(宿泊施設$X$,$Y$,$Z$).しかし,どの施設も値段や立地条件が似たり寄ったりであり,どれを選ぶか悩んでいる.このような状況において,提案手法を用いて各施設のレビューから特徴的評価視点を見つけ出し,施設$X$は特に宿泊利用者の間で「朝食バイキング」が人気であり,施設$Z$だけが「まくら」にこだわっていることを自動抽出することができれば,こういった情報を優先的にユーザに提示する手段を提供することができると考えている.なお,\sec{experiment}の評価実験では,実験データとして宿泊施設予約サイトから得られた宿泊施設についてのレビューデータを用いている.そのため,以降においても提案手法の説明に例を用いる場合は宿泊施設を評価対象とする例を用いる.また,レビューはその数だけ書き手が存在することから評価視点の異表記が生じやすい.そこで,本研究では,評価視点のランキングに際して,クラスタリングによって異表記の影響を考慮したランキングの補正手法を提案し,ランキングとクラスタリングを併用することで評価視点の構造化をおこなう(\sec{cl}).本論文の貢献をまとめると,以下のようになる.\begin{itemize}\item[(1)]従来手法によって多数抽出される評価視点を構造化して提示する際,その構造化として,特定の評価対象を他から差別化できるような評価視点が重要であると考え,その重要度に従ってランキングすることを提案している点.\item[(2)]上記ランキング課題に利用できる具体的な尺度として,\sec{uniq_aspect_ranking}で説明する対数尤度比に従った尺度を適用し,その有効性を実験的に検証している点.\item[(3)]また,上記ランキング課題では異表記問題が発生するため,その解決策として評価視点をクラスタリングすることの提案,および具体的なクラスタリング手法を用いて,その有効性を実験的に検証している点.\end{itemize}本論文の構成は以下の通りである.まず,\sec{relation}で関連研究について述べ,続く,\sec{uniq_aspect_ranking}と\sec{cl}で評価視点をランキングするための提案手法について述べる.\sec{experiment}で評価実験について述べた後,\sec{owarini}で本論文をまとめる. \section{関連研究} \label{sec:relation}本論文と関連する,レビューを処理対象とする研究課題を時系列順に追って概観する.関連研究としてまず取り組まれた課題は,レビューをその内容に従って肯定か否定かに分類する課題である\cite{turney,pang,mullen}.しかし,文書単位(レビュー単位)で分類するだけでは「何がどう良いか?」がわからない点が問題とされた.そこで,この問題を解決するために,文書内で具体的に評価されている事柄(すなわち,評価視点)を特定する研究が行われるようになった\cite{hu,liu,kobayashi2,jakob}.しかし,前節でも述べたように,これら手法では評価視点が多量に出力されることから,出力される評価視点群を何らかの方法で構造化することに関心が集まるようになった.具体的な構造化の手法として,これまで,評価視点群をグルーピングする手法やランキングする手法が提案されている\cite{zhai,yu}.グルーピングする手法では,「butterypower」と「butterylife」といった同一あるいは類似の評価視点を同じグループに所属させて合わせてユーザに提示することで,ユーザの可読性を向上させることを狙う.このような手法として,例えば,Zhaiら\cite{zhai}は,事前に人手で定義した評価視点クラスに各評価視点を自動分類する手法を提案している.より具体的には,Nigamら\cite{nigam2000a}によって提案された半教師あり学習手法に,「同じ語を含む評価視点は同じ評価視点クラスになりやすい」といった情報を制約として取り込む手法を提案している.この手法のように評価視点を分類して構造化する場合,あらかじめ定義した通りの構造化ができる利点がある一方で,想定していない評価視点のクラスが必要になった場合の対応にかかる負荷が高いという欠点がある.次に,評価視点をランキングする手法では,事前に定めたある観点に従って各評価視点にスコアを付け,スコアの大きさに基いて評価視点を順番に並べてユーザに提示することを考える.これによって,ユーザは観点に合致する評価視点のみを選択的にすばやく確認することが可能になる.このような研究として,Yuら\cite{yu}の研究がある.Yuらは,まず,レビューには評価対象に対する総合的な評価点(rating)が書き手によって与えられていることを前提とする.そして,このようなレビューの中で,ユーザから多く言及されており,かつ総合的な評価点の決定にもっとも影響を与える評価視点が重要な評価視点であると仮定し,そのような評価視点をランキングする手法を提案している.論文中では重要な評価視点の例として評価対象が「iPhone3GS」である場合,「moisturesensor」という評価視点よりも「battery」や「speed」などの評価視点がより重要であると述べている.評価視点をランキングするという点で見た場合,本研究は上述のYuらの研究と似ている.しかし,Yuらの手法では,レビューに付与された総合的な評価点を説明付ける評価視点に関心がある.そのため,評価対象ごとに独立に評価視点のランキングをおこない,評価対象間を比較することは念頭にない.一方,本研究では,複数の評価対象に対して,評価対象間の違いを明確に表すことができる評価視点に関心があり,Yuらとは目的が異なっている. \section{提案手法} \label{sec:uniq_aspect_ranking}\subsection{評価視点}提案手法の説明の前に,ここで,評価視点という用語について整理しておく.本論文における評価視点は,基本的には,Huら\cite{hu}や小林ら\cite{kobayashi,siten}の定義に従っている.後述する評価実験では,評価対象が宿泊施設であるので,そのことを踏まえると,本論文における評価視点は,\begin{itemize}\item宿泊施設に対する意見の焦点となる宿泊施設の構成物や属性,あるいは,宿泊施設への宿泊という経験から生じる宿泊施設に対する意見の焦点となるもの\end{itemize}であると言い表せる.例えば,宿泊施設の立地情報(「駅前」,「海沿い」)や施設が提供する設備に関する情報(「風呂」,「加湿器」),施設のサービス(「バイキング」,「接客態度」)等が具体的な評価視点となる.また,評価視点の表現形式は,単一単語(「バイキング」)だけでなく,複合語(「朝食バイキング」)や句(「朝食のバイキング」)などの場合もある.本研究では以上の形式は評価視点として認めているが,処理の都合上,以下に示すように,連体修飾節を伴う場合は修飾部を除外して扱った.下記例の場合,下線部は評価視点として認めたが,どちらの例でも「メニューが新しくなった」は評価視点には含めていない.なお,表現形式の特定は以下のようにおこなった.単語の特定には形態素解析器MeCab\footnote{\url{http://mecab.sourceforge.net/}}を使用した.複合語については,MeCabで解析後,名詞が連続している箇所を複合語として特定している.句については,現在は「名詞の名詞」というパターンで特定しており,他の形は想定していない.ただし,上記パターンの名詞は名詞連続に置換可能とした.\begin{itemize}\itemメニューが新しくなった\underline{朝食バイキング}が良かった.\itemメニューが新しくなった\underline{朝食のバイキング}が良かった.\end{itemize}\subsection{評価視点ランキング}\label{sec:llr}提案手法について述べる.まず,使用する記号,および,評価視点のランキング課題を以下のように定義する.評価対象の集合を$\mathcal{O}=\{o_1,o_2,...,o_{|\mathcal{O}|}\}$とする.全ての評価対象に対する全てのレビューの集合を$\mathcal{R}$とし,$\mathcal{R}$の要素であるレビューの中に書かれた評価視点(token)の系列を$\mathcal{V}=\langlev_1,v_2,...,v_n\rangle$,$\mathcal{V}$の異なり要素(type)の集合を$\mathcal{U}=\{u_1,u_2,...,u_m\}$($m\len$)とする.例えば,以下のような,それぞれ1文と2文からなる短い2つのレビューを要素とする集合$\mathcal{R}$があり,各文の下線部が評価視点であったとすると,系列$\mathcal{V}$と集合$\mathcal{U}$は次のようになる.\begin{itemize}\item$\mathcal{R}=\big\{\text{``このホテルは\underline{\mbox{朝食$_{1}$}}と\underline{風呂}が良い.'',``\underline{\mbox{朝食$_{2}$}}が美味しい.また来たいです.''}\big\}$\item$\mathcal{V}=\bigl\langle\text{朝食$_{1}$,風呂,朝食$_{2}$}\bigr\rangle$\item$\mathcal{U}=\big\{\text{朝食,風呂}\big\}$\end{itemize}この時,ある評価対象$o_k$に関して評価視点をランキングするアルゴリズムを次の\algo{alg1}とする.このアルゴリズムが示している通り,$\mathcal{U}$の要素$u_j$がランキングの対象である.本論文では曖昧性を排除するために,以降,$u_j$のことを単に評価視点と呼び,評価視点$u_j$が$\mathcal{R}$内で出現したものを評価視点トークンと呼ぶ.\begin{algorithm}[h]\caption{評価視点ランキング}\label{algo:alg1}\begin{algorithmic}\STATE{INPUT~~~$o_k\in\mathcal{O}$:評価対象\\~~~~~~~~~~~~~~~$\mathcal{U}$:評価視点集合}\end{algorithmic}\begin{algorithmic}[1]\FOR{$u_j\in\cal{U}$}\STATE$s[u_j]=score(o_k,u_j)$\ENDFOR\RETURN$\mathcal{U}の各要素u_jをs[u_j]の降順に整列$\end{algorithmic}\end{algorithm}上記の\algo{alg1}で自明でない部分は,評価対象$o_k$における評価視点$u_j$の重要度を決定するスコア関数$\mathit{score}(o_k,u_j)$のみである.本研究では,このスコア関数として,以下のような対数尤度比(\textit{Log-LikelihoodRatio,LLR})に基づく尺度を提案する.これは内山ら\cite{uchiyama}が特定分野における単語の特徴度を測る尺度として提案したものを評価視点ランキング課題に適用したものである.以下,内山ら\cite{uchiyama}を参考にしながら,上記尺度の詳細について述べる.まず始めに,ある評価対象$o_k$と評価視点$u_j$が与えられた際,レビュー中で観測された評価視点トークン$v$に関する確率変数$W_j$と$T_k$を以下のように定義する:\begin{align}W_j&=\begin{cases}1&vは評価視点u_jのレビュー内での出現である\\0&otherwise\end{cases}\label{eq:w}\\T_k&=\begin{cases}1&vが観測されたのは評価対象o_kのレビュー内である\\0&otherwise\end{cases}\end{align}ここで,評価視点トークン$v_i$($1\lei\len$)に対応する確率変数$W_j$,$T_k$の値をそれぞれ$w^i_j$,$t^i_k$とすると,$\mathcal{V}$から次のような確率変数の値の組みで表された系列$\mathcal{V}_{jk}=\bigl\langle\langlew^1_j,t^1_k\rangle,\langlew^2_j,t^2_k\rangle,...,\langlew^n_j,t^n_k\rangle\bigr\rangle$が新たに得られる.この時,それぞれの評価視点トークンが確率的に独立であると仮定すると,$\mathcal{V}_{jk}$の生起確率は次式で表される:\begin{equation}Pr(\mathcal{V}_{jk})=\prod_{i=1}^{n}Pr(W_j=w^i_j,T_k=t^i_k)\end{equation}\begin{table}[b]\vspace{-1\Cvs}\caption{トークン集合の集計表}\input{01table01.txt}\end{table}また,各トークンを変数$W_j$,$T_k$の値ごとに出現頻度を集計\pagebreakすることを考え,各頻度を\tab{kankei}のように,それぞれ$a$,$b$,$c$,$d$で表すことにする.ここで,$a+b+c+d=n$である.以上の準備のもと,次の対数尤度比を考える:{\allowdisplaybreaks\begin{align}LLR_0(o_k,u_j)&=\log\frac{Pr(\mathcal{V}_{jk};H_{dep})}{Pr(\mathcal{V}_{jk};H_{indep})}\nonumber\\&=\sum_{i=1}^{n}\log\frac{Pr(W_j=w^{i}_j,T_k=t^{i}_k;H_{\mathit{dep}})}{Pr(W_j=w^{i}_j,T_k=t^{i}_k;H_{\mathit{indep}})}\label{eq:llr0}\end{align}}ここで,$H_\mathit{dep}$および$H_\mathit{indep}$は,以下のような,確率変数に関する仮説である.\begin{itemize}\item$H_\mathit{dep}$:確率変数$W_j$と$T_k$とは互いに依存している.\item$H_\mathit{indep}$:確率変数$W_j$と$T_k$とは互いに独立である.\end{itemize}\eq{llr0}において,$H_\mathit{indep}$の下では,\[Pr(W_j=w^i_j,T_k=t^i_k;H_\mathit{indep})=Pr(W_j=w^i_j)Pr(T_k=t^i_k)\]が成り立つ.また,各種の確率は,\begin{align*}Pr(W_j=1,T_k=1;H_\mathit{dep})&=\frac{a}{n},\quadPr(W_j=1,T_k=0;H_\mathit{dep})=\frac{b}{n}\\Pr(W_j=0,T_k=1;H_\mathit{dep})&=\frac{c}{n},\quadPr(W_j=0,T_k=0;H_{dep})=\frac{d}{n}\\Pr(W_j=1)&=\frac{a+b}{n},\quadPr(W_j=0)=\frac{c+d}{n}\\Pr(T_k=1)&=\frac{a+c}{n},\quadPr(T_k=0)=\frac{b+d}{n}\end{align*}で推定する.この尺度は,2つの確率変数$W_j$と$T_k$とが依存しているという条件,および,独立であるという条件の下で,データが観測される確率の比の対数を表しており,$W_j$と$T_k$の依存性が高い程,大きな値をとる.もし,ある評価視点がどの評価対象にも共通するような一般的な視点であれば,評価視点トークンは,どの評価対象のレビュー中にも同じように出現すると考えられる.すなわち,$W_j$と$T_k$とは互いに独立であると考えられ,上記尺度は小さな値をとる.一方で,ある評価視点が特定の評価対象にのみ特徴的な出現を示すようであれば,$W_j$と$T_k$とは依存しており,上記尺度は大きな値をとる.つまり,この尺度をスコア関数とすることで,特定の評価対象に特徴的な評価視点に対して大きなスコアを割り振ることができる.ただし,上記尺度は,ある評価視点が特定の評価対象に対して特徴的に言及される場合と特徴的に言及されない場合を区別できない.そのため,どちらの状況であっても大きな値をとってしまう.そこで,言及される場合とされない場合を区別できるよう,実際には以下のように補正して利用する.\pagebreak\begin{equation}LLR(o_k,u_j)=sign(ad-bc)LLR_{0}(o_k,u_j)\label{eq:finalrank}\end{equation}ただし,\begin{equation}sign(z)=\begin{cases}+1&z>0\\-1&\mathit{otherwise}\\\end{cases}\end{equation}である. \section{異表記問題への対応} \label{sec:cl}\subsection{異表記問題}\label{sec:clustering_summary}レビューではユーザの数だけ書き手が存在しており,同じ概念が述べられていたとしても,ユーザによって異なる単語が使われることがしばしばある.例えば,価格について何かを述べたいときに,あるユーザは「価格」と表記したが,別ユーザは「料金」や「値段」等,別の単語を使うことがある.また,レビューは,評価対象という自明な文脈をもつ文書であるため,同じ評価対象のもとでユーザが共有しているであろう情報がしばしば省略表記される傾向があり,例えば,最寄り駅の「東京駅」を単に「駅」と表記するユーザ等,その表記はユーザによってさまざまに変化する.一般的に,このような異表記の問題や表記揺れの問題(以下,単に異表記の問題と呼ぶ)はよく知られているが,評価視点のランキング課題に対しても悪影響を与えていると考えられる.前節で述べた提案尺度では評価視点の出現頻度の情報を用いているが,異表記が考えられる評価視点については,異表記の数だけ頻度が分散してカウントされてしまい,その結果,それらの評価を誤ってしまう.以下では,この異表記問題の影響を回避する手法について述べる.本手法は,評価視点をクラスタリングすることによって,同じ意味あるいは類似した意味の評価視点をクラスタにまとめ上げ,クラスタ情報に基いてランキングを補正する.手法は,クラスタ情報をランキングに反映させる方法によって,事前処理法と事後処理法の2つに分かれる(\fig{clustering}).以下ではまず,2つの手法について述べ,その後,各手法の中で用いるクラスタリング手法について述べる.\subsection{事前処理法と事後処理法}事前処理法(\fig{clustering}の(b))では,ランキングの前に評価視点のクラスタリングを実施し,同一の意味あるいは類似した意味の評価視点をクラスタにまとめ上げる.そして,同じクラスタとなる視点群をひとつの評価視点であるように扱い出現頻度を数えることで対数尤度比を計算し,ランキングをおこなう.\begin{figure}[t]\begin{center}\includegraphics{20-1ia960f1.eps}\end{center}\caption{ランキングの補正手法の概略}\label{fig:clustering}\end{figure}具体的には,\sec{llr}で導入した\eq{w}の評価視点トークンに関する確率変数$W_j$を次の\eq{w2}のように再定義してスコア関数を計算することで,クラスタ情報をランキングに反映させる.ただし,下記の式中の$v$と$u_j$は\eq{w}と同様,評価視点トークンと評価視点をそれぞれ意味する.\begin{equation}W_j=\begin{cases}1&\text{$v$は評価視点$u_j$のレビュー内での出現である}\\1&\text{$v$は$u_j$と同じクラスタに属する評価視点のレビュー内での出現である}\\0&\mathit{otherwise}\end{cases}\label{eq:w2}\end{equation}事後処理法(\fig{clustering}の(c))では,ランキングを先に行い,その後,クラスタリングによって得られたクラスタ情報に従ってランキング結果を補正する.具体的には,ある評価視点$u_j$がクラスタ$C(u_j)$に所属する場合を考えると,ランキングに使用するスコア関数\eq{finalrank}で得られた値に対して,次の\eq{finalrank2}を計算する.\begin{equation}\mathit{LLR}\_\mathit{cluster}(o_k,u_j)=\frac{1}{|C(u_j)|}\sum_{u_l\inC(u_j)}\mathit{LLR}(o_k,u_l)\label{eq:finalrank2}\end{equation}\eq{finalrank2}が示すように,事後処理法では,元の重要度をクラスタ内で平均化した値を重要度として採用する.\subsection{評価視点クラスタリング}\label{sec:clustering_mothod}次に,上記の補正手法で用いるクラスタリングについて述べる.クラスタリングのアルゴリズムは,以下に示す標準的なアルゴリズム\cite{clustering}を採用する.ただし,アルゴリズム内で利用される評価視点間の類似度尺度については,以下で述べるシソーラスに基づく類似度において,ユーザレビューの特性を踏まえて拡張を施した尺度を新たに採用する.なお,クラスタリングの議論をおこなう場合,一般には距離や非類似度を定義することが多いが,説明の便宜上,ここでは類似度を定義している点に注意されたい.以下,クラスタリング・アルゴリズムについて概要を述べた後,評価視点間の類似度尺度について述べる.クラスタリングには,以下に示す3つのアルゴリズムを採用した.いずれも,凝集型の手法であり,もっともクラスタ間類似度の高い2つのクラスタをボトムアップに再帰的に併合しながらクラスタリングを進める点が共通しているが,クラスタ間類似度の定義が異なる.単連結法(\textit{singlelinkagemethod})は,クラスタ$C_i$と$C_j$の要素間の類似度$\mathit{wsim}(k,s)$の中で,最大の類似度をクラスタ間の類似度$\mathit{csim}(C_i,C_j)$とする:\begin{equation}\label{eq:single}\mathit{csim}(C_i,C_j)=\max_{k\inC_i,s\inC_j}\mathit{wsim}(k,s)\end{equation}完全連結法(\textit{completelinkagemethod})は,クラスタ$C_i$と$C_j$の要素間の類似度の中で,最小の類似度をクラスタ間の類似度とする:\begin{equation}\label{eq:complete}\mathit{csim}(C_i,C_j)=\min_{k\inC_i,s\inC_j}\mathit{wsim}(k,s)\end{equation}また,群平均法(\textit{groupaveragemethod})は,クラスタ$C_i$と$C_j$の各要素間の平均類似度をクラスタ間の類似度とする:\begin{equation}\label{eq:group}\mathit{csim}(C_i,C_j)=\frac{1}{|C_i||C_j|}\sum_{k\inC_i}\sum_{s\inC_j}\mathit{wsim}(k,s)\end{equation}次に,評価視点間の類似度$\mathit{wsim}(k,s)$について説明する.評価視点間の類似度には,以下で述べる3種類の類似度尺度を併用した.なお,どの類似度も0以上1以下の値をとり,同じ評価視点が入力となった場合に対して最大値$1$を返す($\mathit{wsim}(k,k)=1$).\subsubsection{シソーラスに基づく類似度}2つの単語$k$と$s$の類似度を求める手法として,シソーラスに基づく類似度がある.これは次式のように定義される\cite{nagao}:\begin{equation}\label{eq:thesaurus}\mathit{wsim}'_\mathit{the}(k,s)=\begin{cases}\frac{2×d_\mathit{share}(k,s)}{d(k)+d(s)}&(k,s\inT)\\0&(\mathit{otherwise})\\\end{cases}\end{equation}ここで,$d(k)$と$d(s)$は階層構造をなすシソーラス中での当該単語の位置する深さをあらわし,$d_\mathit{share}(k,s)$は階層構造における単語$k$と単語$s$の共通祖先ノードが位置する深さの最大値をあらわす.また,$T$はシソーラスに含まれる見出し語の集合である.一般に,シソーラスは人手により構築されていることから,シソーラスの見出し語に含まれる単語間の類似度を測るにはこの尺度は有用と言える.しかし,今回対象としている評価視点には「施設管理」といったシソーラスには登録されにくい複合語なども含まれているため,上記尺度そのままでは多数の評価視点間の類似度が$0$となってしまう問題がある.そこで,本論文では類似度が求められる評価視点ペアの被覆率を上げるために,以下のように拡張した類似度を採用する:\begin{equation}\label{eq:thesaurus_k}wsim_{the}(k,s)=\begin{cases}\mathit{wsim}'_\mathit{the}(k,s)&(k,s\inT)\\\frac{1}{|k|}\sum_{i=1}^{|k|}\mathit{wsim}'_\mathit{the}(k_i,s)&(k\notinT,s\inT)\\\frac{1}{|s|}\sum_{j=1}^{|s|}\mathit{wsim}'_\mathit{the}(k,s_j)&(k\inT,s\notinT)\\\frac{1}{|k||s|}\sum_{i=1}^{|k|}\sum_{j=1}^{|s|}\mathit{wsim}'_\mathit{the}(k_i,s_j)&(k\notinT,s\notinT)\end{cases}\end{equation}ここで,形態素解析によって各評価視点を形態素に分割したものをそれぞれ$k_1,\ldots,k_{|k|}$,$s_1,\ldots,s_{|s|}$で表しており,拡張版では,従来の式で類似度が求められない場合は対象を分割して類似度を求めていることがわかる.例えば,引数$k$が「施設管理」である例を考える.ここで,「施設管理」はシソーラスに含まれておらず,またもう一方の引数$s$はシソーラスに含まれる何らかの単語であるとする.この場合の類似度計算は\eq{thesaurus_k}の2行目によっておこなわれ,「施設管理」を「施設」と「管理」に分割させた後,それぞれの形態素に対して\eq{thesaurus}の$\mathit{wsim}'_\mathit{the}()$へ問合せを実行し,個別に$s$との類似度を求める.そして,問合せ結果の平均を「施設管理」と$s$との間の類似度であるとする.\eq{thesaurus_k}では,分割操作によって,シソーラスのエントリとの照合率が改善され,類似度が求められない事例数を削減させる効果が期待できる.\subsubsection{表層文字列に基づく類似度}次に,上記のシソーラスに基づく類似度尺度を補完するために,評価視点の表層文字列に基づく類似度を考える.本研究では,最長共通部分文字列\textit{LCS}(\textit{longestcommonsubsequence})\cite{hirschberg}に基づく以下の類似度尺度を採用する:\begin{equation}\mathit{wsim}_\mathit{lcs}(k,s)=\frac{2\times\mathit{LCS}(k,s)}{|k|+|s|}\label{eq:lcs}\end{equation}ここで,$\mathit{LCS}(k,s)$は$k$と$s$の最長共通部分文字列の長さであり,上式は,その値を$k$,$s$それぞれの文字列の長さを基に正規化している.表層文字列に基づく類似度は,「焼きたてパン」と「焼き立てパン」のような部分的な漢字表記とひらがな表記の違いや,「バイキング」と「朝食バイキング」のような文字数の比較的多いカタカナ列からなる評価視点の類似性を測る際に特に効果的であると期待できる.例えば,6文字で構成される「焼きたてパン」と「焼き立てパン」がそれぞれ$k$と$s$である例を考える.両者の違いは,ひらがな「た」と漢字「立」の1文字だけであり,その他は各文字の順序等すべて同じである.この場合,$\mathit{LCS}(k,s)=5$で,$\mathit{wsim}_\mathit{lcs}(k,s)=10/12$となり,高い類似度が得られる.LCSの代わりに,不連続になる部分文字列の影響を考慮した文字列カーネル\cite{lodhi}を用いた予備実験も行ったが,LCSとほぼ同様の実験結果を得た.そのため,\sec{experiment}の実験ではLCSを用いた結果のみ報告する.\subsubsection{文脈情報に基づく類似度}類似度を補完するもう一つの方法として,評価視点が現れる文脈の情報に基づく類似度を考える.これは一般に,似た意味をもつ単語は似た文脈に現れやすいと言われており,この性質に従って,単語が現れる周辺文脈を基に類似度を求める手法である.本研究では,代表的な手法の一つである,次式のコサイン類似度を採用する\cite{lin}:\begin{equation}\label{eq:context}\mathit{wsim}_\mathit{cos}(k,s)=\frac{\boldsymbol{v}_{k}\cdot\boldsymbol{v}_{s}}{||\boldsymbol{v}_{k}||||\boldsymbol{v}_{s}||}\end{equation}ここで,$\boldsymbol{v}_k$と$\boldsymbol{v}_s$は,それぞれ$k$と$s$の文脈に現れる単語から構成される単語頻度ベクトルである.また,ここでは,当該の評価視点に対応するすべての評価視点トークンから文脈情報を獲得し,それらの情報からひとつのベクトルを作成する.文脈情報に基づく類似度は,「東京駅」と「駅」や「最寄り駅」のような,文脈に依存した評価視点の類似性を測る際に特に効果的であると期待できる.\subsubsection{各種類似度の統合}ここまで述べたように各類似度尺度は,それぞれ異なる情報に基いており,互いに相補関係にあると言える.そこで,クラスタリングの際は,各類似度尺度を単独で用いるのではなく,次式のように統合して用いる事とする:\begin{equation}\mathit{wsim}(k,s)=\max\{\mathit{wsim}_\mathit{the}(k,s),\\mathit{wsim}_\mathit{lcs}(k,s),\\mathit{wsim}_\mathit{cos}(k,s)\}\label{eq:sim_mix}\end{equation} \section{評価実験} \label{sec:experiment}\subsection{実験条件}実験には,代表的な宿泊施設予約サイトのひとつである楽天トラベル\footnote{\url{http://travel.rakuten.co.jp/}}に書き込まれた\pagebreakレビューを用いた.楽天トラベルに登録されている宿泊施設のうち,都内近辺に立地している11施設を対象とし,各施設ごとに100レビューを実験に使用した.また,上記レビュー群から人手で評価視点を抽出して実験の入力データとして用いることにし,さらにそこから特徴的評価視点を人手で選び出し,評価用データとして用いた.この作業によって得られた評価視点は施設あたり平均101個であり,得られた特徴的評価視点は施設あたり平均12.1個である.データの信頼性を検証するために2名の作業者($A$と$B$)によってデータ作成をおこない,特徴的評価視点と判定する際の一致度を以下の計算式で求めた.\begin{equation}\mathit{agreement}(X,Y)=\frac{\text{$X$と$Y$が共に特徴的であると判定した評価視点の数}}{\text{$X$が特徴的であると判定した評価視点の数}}\end{equation}判定の一致度は,$\mathit{agreement}(A,B)=0.72$と$\mathit{agreement}(B,A)=0.77$となり,この結果から,作業者間の判定はある程度一致していることが確認できる.また,事例分析から,以下のような事例において判定が一致しない傾向があることが確認できた.\begin{itemize}\item評価視点に異表記がある場合:作業者が共に特徴的であると判定した評価視点に異表記がある場合,作業者による異表記の認定不足から,一部の評価視点が特徴的であると判定されない.\item連続量を伴う評価視点の場合:例えば「駅前で良かった」や「駅に近く良かった」のような最寄り駅からの近さについての言及があった場合,どの程度の距離であれば特徴的な評価視点であると判定するかについては作業者の主観に拠る部分が多い.\end{itemize}なお,一致度の測定に$\kappa$値を用いることも考えられる.しかし,次の理由から今回は実態を把握するのに適していないと考え,$\kappa$値の採用を見送った.すなわち,本実験で用いたデータは,特徴的でない評価視点が全体の9割程度を占めているが,$\kappa$値ではこれらに対して作業者が共に特徴的でないと判定した場合も一致度に反映されるためである.シソーラスに基づく類似度を計算するためのシソーラスには,分類語彙表\cite{bunrui}を用いた.また,文脈情報に基づく類似度では,予備実験の結果から経験的に窓枠を5と定め,対象の前後5単語を文脈情報として利用した.ただし,単語情報はMeCabによって文脈を形態素解析することで獲得し,その際,品詞が「助詞」,「助動詞」,「記号」である場合は窓枠のカウント対象から除外した.実験において,スコア関数として対数尤度比を実際に計算する際は,ラプラススムージング\cite{map}を適用した.スコア関数のベースラインとして,\textit{TF}および\textit{TF-IDF}\cite{map}に基づく関数を用いた.一般に,\textit{TF},\textit{TF-IDF}は,文書ごとに単語へ重み付けする際に利用される.しかし,ここでは文書ごとの差異ではなく施設ごとの差異に注目したいため,次式のように,ある施設に対する全レビューをひとつの文書として扱う.\subsubsection{TF法}\vspace{-1\abovedisplayskip}\begin{equation}\mathit{TF}(o_k,u_j)=\text{施設$o_k$の全レビューにおける評価視点}u_jの出現頻度\label{eq:tf}\end{equation}これは,言い換えると,\tab{kankei}の$a$のみをスコア関数として考慮することに等しい.\subsubsection{TF-IDF法}\vspace{-1\abovedisplayskip}\begin{equation}\mathit{TF-IDF}(o_k,u_j)=\mathit{TF}(o_k,u_j)×\log(\frac{|D|}{DF(u_j)}+1)\label{eq:tfidf}\end{equation}$|D|$は一般的な定義では文書数であるが,上記で述べたように今回は施設数に等しい.$DF(u_j)$はレビューに評価視点$u_j$が現れた施設数である.評価尺度には,情報検索のランキング課題の評価によく利用される\textit{MeanAveragePrecision}(\textit{MAP})を用いた.\textit{MAP}は次式で定義される\cite{map}.\begin{equation}\mathit{MAP}=\frac{1}{|\mathcal{O}|}\sum_{o_k\in\mathcal{O}}\frac{1}{|\mathcal{A}_k|}\sum_{\hat{u}_j\in\mathcal{A}_k}\mathit{Precision}(\mathit{rank}(o_k,\hat{u}_j))\label{eq:map}\end{equation}ここで,$\mathcal{O}$は評価対象の集合であり,$\mathcal{A}_k$は評価対象$o_k$のレビューから人手によって得られた特徴的評価視点の集合である.$\mathit{rank}(o_k,\hat{u}_j)$は$o_k$中のある特徴的評価視点$\hat{u}_j$が,何らかのランキング手法によって与えられた順位を示しており,$\mathit{Precision}(\mathit{rank}(o_k,\hat{u}_j))$は,その順位までの出力結果における適合率である.つまり,ここでは,ひとつの評価対象が情報検索におけるひとつの検索課題に相当するものと見なされて評価される.\subsection{実験結果}\label{sec:experiment1}\begin{table}[b]\caption{実験結果(異表記を考慮しない場合)}\label{tab:ranking_result}\input{01table02.txt}\end{table}まず,異表記問題への対応を考慮しない場合の結果について述べる.この結果を\tab{ranking_result}に示す.\tab{ranking_result}から提案手法\textit{LLR}がベースライン手法(\textit{TF}および\textit{TF-IDF})よりも性能が向上することが確認できた.\textit{TF}では,\eq{tf}からもわかるように,比較すべき他施設の評価視点に関する情報を全く考慮していない.そのため,もっとも低い性能になったと考えられる.次に,\textit{TF-IDF}では,$\mathit{DF}(u_j)$によって他施設の情報をある程度考慮することができるが,その情報は出現の有無のみである.一方の\textit{LLR}では,評価視点の他施設での出現頻度に関する情報も反映できており,この差が\tab{ranking_result}の結果に繋がったと考えられる.\tab{ranking_result}の結果に対して,「手法間の\textit{AveragePrecision}に差がない」という帰無仮説を立て,対応のある両側$t$検定を実施した.その結果,\textit{LLR}法と\textit{TF}法,および\textit{LLR}法と\textit{TF-IDF}法のどちらとの間でも,有意水準$1\%$で統計的有意差が確認できた.\begin{table}[b]\caption{評価視点ランキングの結果例(異表記を考慮しない場合)}\label{tab:ranking_top}\input{01table03.txt}\end{table}\tab{ranking_top}に,実験データ中の3つの宿泊施設におけるランキング結果の例を示す.下線にボールド体の評価視点が正しい特徴的評価視点をあらわす.また,括弧内は出現頻度(\textit{TF}値)である.評価視点の右に``*''印があるものについては,その評価視点が含まれていた文脈(の一部)を例として\tab{ranking_top_example}に示す.\tab{ranking_top}の事例の観察から,\textit{TF}では「部屋」や「立地」,「対応」など一般的で出現頻度が高くなりやすい語が上位を占めており,それらの一部が誤りとなっていた.その一方で,\textit{LLR}では「武道館」などの出現頻度は決して高くないが対象施設に固有な評価視点の順位がベースラインよりも上がっており,提案手法では他施設との比較がうまく機能していたことがわかる.しかし,\tab{ranking_top}の観察によると,「パン」と「朝食のパン」のように,宿泊者から見れば同一の事物と考えられるものが異なる順位として現れており,また,\tab{ranking_top}から外れた下位の評価視点に目を向けると,12位に「クロワッサン」,50位には「焼き立てパン」などが含まれており,異表記が生じていることも同時に確認できた.\begin{table}[t]\caption{評価視点を含む文脈の例}\label{tab:ranking_top_example}\input{01table04.txt}\end{table}そこで次に,\sec{cl}で述べた補正手法によって異表記問題に対応した場合の結果について述べる.3つのランキング手法(\textit{TF},\textit{TF-IDF},および,\textit{LLR})に対して補正手法を適用した実験をおこなったが,\textit{TF},\textit{TF-IDF}が\textit{LLR}を上回ることがなかったため,以下では,\textit{LLR}に対して補正手法を適用する場合の結果を中心に述べる.補正手法を適用した結果を\fig{ranking_result_be}と\fig{ranking_result_af}に示す.\fig{ranking_result_be}が事前処理法の結果であり,\fig{ranking_result_af}が事後処理法の結果である.各図において,縦軸は\textit{MAP}を示し,横軸は以下で述べる類似度への閾値を示している.凝集型クラスタリングでは,デンドログラムと呼ばれるクラスタをノードとする木を生成するが,各クラスタにはその子ノードの情報から計算される類似度が付随している.本実験では,この類似度に閾値を設け,類似度が閾値以下になったときに併合を停止させてクラスタリング結果を得ることにし,閾値を変化させながら,それぞれの\textit{MAP}を計測した.今回の場合,類似度の値が$1.0$となる事例が存在していなかったため,横軸左端の結果は,クラスタリングを行わない場合の結果(\tab{ranking_result}の$0.574$)と同一となっている.\begin{figure}[t]\begin{center}\includegraphics{20-1ia960f2.eps}\end{center}\caption{実験結果(異表記を考慮する場合:事前処理法)}\label{fig:ranking_result_be}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{20-1ia960f3.eps}\end{center}\caption{実験結果(異表記を考慮する場合:事後処理法)}\label{fig:ranking_result_af}\end{figure}\fig{ranking_result_be},\fig{ranking_result_af}共に,全体的な傾向として,類似度の閾値を$1.0$から下げるに従い\textit{MAP}が上昇していくことから,クラスタリングを施すことに一定の効果があることが確認できるが,ある類似度を契機に下降に転ずることがわかる.このような結果は次の理由によると考えられる.すなわち,もともと全ての評価視点において異表記が存在するわけではないため,クラスタリングすべき評価視点も部分的となる.今回のようにボトムアップにクラスタリングを進めた時,ある点でクラスタリングすべき評価視点のまとめ上げが終了し,この時点が最適なクラスタ数となり最良の\textit{MAP}値を得る.しかし,それ以降は本来クラスタリングすべき評価視点に対するまとめ上げではなくなるため本来の目的とは逆に過併合が生じることになり,性能が悪化すると考えられる.\textit{MAP}値が下降するタイミングがクラスタリング手法によって大幅に異なるが,この違いはクラスタリング手法に起因して必然的に生じる結果であると考えられる.すなわち,単連結法(\eq{single})は類似度の最大値に基いて併合を進めるため,ノードに付随する類似度が3手法の中で最も速く大きくなり,\textit{MAP}値も最も速く下降していく.完全連結法(\eq{complete})は,逆に,類似度の最小値に基いているため,\textit{MAP}値の下降が最も遅い.また,類似度の平均値に基づく群平均法(\eq{group})は,上記両者の中間に位置していると言える.\begin{table}[b]\caption{評価視点ランキングの結果例(異表記を考慮した場合)}\label{tab:ranking_top2}\input{01table05.txt}\end{table}クラスタリングを施した場合のランキング結果の例を\tab{ranking_top2}に示す.例示している宿泊施設は\tab{ranking_top}と同じであり,\tab{ranking_top2}において,下線にボールド体の評価視点が正しい特徴的評価視点をあらわす.また,各表の右列がクラスタ情報である.表の観察から,クラスタリングによって異表記がまとめ上げられていることが確認できる.また,宿泊施設Aのように,クラスタリング前は「パン」,「朝食のパン」という情報しかわからなかった状態において,「クロワッサン」のように,詳細な情報を補う効果も事例によって期待できることがわかった.同様の観点で\tab{ranking_top2}以外の事例を観察してみると,クラスタリング前は「野菜」という評価視点のみが上位にランクされていたが,クラスタリングによって野菜が「春野菜」であることが補えたり,クラスタリング前は「壁」のみであったものが,クラスタリングによって「防音」の壁であることが補える例が存在していた.\begin{figure}[b]\begin{center}\includegraphics{20-1ia960f4.eps}\end{center}\caption{類似度尺度ごとの性能}\label{fig:ranking_sim}\end{figure}\begin{table}[b]\caption{クラスタリングによって構成された評価視点の異表記クラスタの例}\label{tab:cluster}\input{01table06.txt}\end{table}最後に,3種類の類似度を統合した効果を確認する.\fig{ranking_sim}に3種類の類似度尺度を単独で用いた場合の結果および類似度を統合した場合の結果を示す.類似度尺度以外の実験設定は先程の結果で最良の$MAP$値となった設定,すなわち,群平均法でクラスタリングし,事後処理法でランキングを補正する手法を適用した.また,クラスタリングによって構成されたクラスタの例を\tab{cluster}に示す.表の各行において,そのクラスタを構成した類似度尺度に「◯」印を付けている.また,2つ以上の類似度尺度で同じクラスタが構成されていた場合は類似度の値が最も高い類似度尺度に「◯」印を付けている.\fig{ranking_sim}から,どの類似度尺度も統合結果の最良値を上回ることはなく,このことから,類似度を統合することの効果が確認できた.ただし,今回使用したデータに対して人手でクラスタリングを施した結果を用いてランキングを補正したところ,\textit{MAP}値は$0.713$まで向上した.つまり,クラスタリング手法および統合手法に対する改善の余地が残されていることが示唆される. \section{おわりに} \label{sec:owarini}本論文では,レビュー集合から得られる多数の評価視点を重要度に従ってランキングする課題を考え,対数尤度比の考え方に基づく,意見集約のための重要度を提案した.また,クラスタリングをおこなう事で,評価視点の異表記の問題に対処する手法を提案し,それらの有効性を評価実験を通して検証した.その結果,単純な出現頻度に基づく\textit{TF}法や,\textit{TF}法に出現文書数の情報を加えた\textit{TF-IDF}法よりも,対数尤度比に基づく提案手法を用いた方がランキング性能が向上すること,また,クラスタリングによって評価視点の異表記の問題を改善することができることを確認した.今後の課題として,以下の項目が挙げられる.まず,本論文では意見集約のための重要度として,対数尤度比の考え方に従った尺度についてその有効性を検証した.しかし,単語の重み付け尺度は本論文で議論した3つの尺度以外にも従来から提案されているため,それらの尺度についても,今後,意見集約に適した尺度であるかどうか検討していきたい.本論文の冒頭で紹介したHuらの研究\cite{hu}のように,一般に,レビューから抽出された評価視点には,その視点に対するユーザの評価(肯定評価か否定評価)が付随しているが,現在の提案手法では評価情報は無視している.そこで,評価視点への評価情報を重要度に反映させる手法を検討することが考えられる.例えば,評価対象間における肯定評価と否定評価の分布の異なり方に応じて重要度を修正することなどが考えられる.\sec{experiment}の評価実験では,提案した補正手法によって評価視点の異表記の問題に対処することでランキングの性能が改善できることを確認した.しかし,評価視点の異表記を発見する手法に関しては,今後,他手法も含めたさらに詳細な検討が必要である.他手法としては,例えば,分類語彙表のかわりに日本語WordNet\cite{isahara2008a}を用いた手法や,また,シソーラス等の既存の言語知識に頼らない教師あり学習に基づく類義語検出法\cite{mauge2012a}の検討などが考えられる.また,異表記とは逆に,多義の評価視点に対する対応も今後必要であると考えられる.例えば,評価実験の際に使用した宿泊施設のレビューの中には,宿泊施設への送迎に利用される乗り物としての「バス(bus)」と,部屋にある入浴設備としての「バス(bath)」があるが,現在これらは「送迎バス」というように明示的な修飾を伴わない限り,区別して扱われていない.今後は異表記と同様に多義語への対応についても検討したい.\acknowledgment本研究の一部は科学研究費補助金(課題番号23300053)のもとで実施された.また,実験にあたり,楽天トラベル株式会社から施設レビューデータを提供して頂いた.ここに記して感謝の意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Hastie,Tibshirani,\BBA\Friedman}{Hastieet~al.}{2001}]{clustering}Hastie,T.,Tibshirani,R.,\BBA\Friedman,J.\BBOP2001\BBCP.\newblock{\BemTheElementsofStatisticalLearning}.\newblockSpringer.\bibitem[\protect\BCAY{Hirschberg}{Hirschberg}{1977}]{hirschberg}Hirschberg,D.~S.\BBOP1977\BBCP.\newblock\BBOQAlgorithmsforthelongestcommonsubsequenceproblem.\BBCQ\\newblock{\BemJournaloftheAssoclauonforComputingMachinery},{\Bbf24}(4),\mbox{\BPGS\664--675}.\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004}]{hu}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004\BBCP.\newblock\BBOQMiningOpinionFeaturesinCustomerReviews.\BBCQ\\newblockIn{\BemProceedingsofthe19thNationalConferenceonArticialIntelligence},\mbox{\BPGS\755--760}.\bibitem[\protect\BCAY{Isahara,Bond,Uchimoto,Utiyama,\BBA\Kanzaki}{Isaharaet~al.}{2008}]{isahara2008a}Isahara,H.,Bond,F.,Uchimoto,K.,Utiyama,M.,\BBA\Kanzaki,K.\BBOP2008\BBCP.\newblock\BBOQDevelopmentofJapaneseWordNet.\BBCQ\\newblockIn{\BemProceedingsof6thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2420--2423}.\bibitem[\protect\BCAY{Jakob\BBA\Gurevych}{Jakob\BBA\Gurevych}{2010}]{jakob}Jakob,N.\BBACOMMA\\BBA\Gurevych,I.\BBOP2010\BBCP.\newblock\BBOQExtractingopiniontargetsinasingle-andcross-domainsettingwithconditionalrandomfields.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1035--1045}.\bibitem[\protect\BCAY{小林}{小林}{2007}]{kobayashi2}小林のぞみ\BBOP2007\BBCP.\newblock{\BemOpinionminingfromWebDocuments:ExtractionandStructurization}.\newblockPh.D.\thesis,奈良先端科学技術大学院大学情報科学研究科.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{siten}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク仕様に関する考察.\\newblock\Jem{情報処理学会研究報告(NL171-18)},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{kobayashi}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出のための評価表現の収集.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{bunrui}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表—増補改訂版—}.\newblock大日本図書.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticretrievalandclusteringofsimilarwords.\BBCQ\\newblockIn{\BemProceedingofthe{COLING}-{ACL}},\mbox{\BPGS\768--774}.\bibitem[\protect\BCAY{Liu,Hu,\BBA\Cheng}{Liuet~al.}{2005}]{liu}Liu,B.,Hu,M.,\BBA\Cheng,J.\BBOP2005\BBCP.\newblock\BBOQOpinionObserver:AnalyzingandComparingOpinionsontheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalWorldWideWebConference},\mbox{\BPGS\342--351}.\bibitem[\protect\BCAY{Lodhi,Saunders,Shawe-Taylor,Cristianini,\BBA\Watkins}{Lodhiet~al.}{2002}]{lodhi}Lodhi,H.,Saunders,C.,Shawe-Taylor,J.,Cristianini,N.,\BBA\Watkins,C.\BBOP2002\BBCP.\newblock\BBOQTextClassificationusingStringKernels.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf2},\mbox{\BPGS\419--444}.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Schutze}{Manninget~al.}{2008}]{map}Manning,C.~D.,Raghavan,P.,\BBA\Schutze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Mauge,Rohanimanesh,\BBA\Ruvini}{Maugeet~al.}{2012}]{mauge2012a}Mauge,K.,Rohanimanesh,K.,\BBA\Ruvini,J.-D.\BBOP2012\BBCP.\newblock\BBOQStructuringE-CommerceInventory.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\805--814}.\bibitem[\protect\BCAY{Mullen\BBA\Collier}{Mullen\BBA\Collier}{2004}]{mullen}Mullen,T.\BBACOMMA\\BBA\Collier,N.\BBOP2004\BBCP.\newblock\BBOQSentimentAnalysisusingSupportVectorMachineswithDiverseInformationSources.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing}.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao}長尾真(編)\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{Nigam,McCallum,Thrun,\BBA\Mitchell}{Nigamet~al.}{2000}]{nigam2000a}Nigam,K.,McCallum,A.~K.,Thrun,S.,\BBA\Mitchell,T.~M.\BBOP2000\BBCP.\newblock\BBOQTextClassificationfromLabeledandUnlabeledDocumentsusing{EM}.\BBCQ\\newblock{\BemMachineLearning},{\Bbf39}(2/3),\mbox{\BPGS\103--134}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2002}]{pang}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\76--86}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{sa2}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis-FoundationsandTrendsinInformationRetrievalVol.2,Issue1-2}.\newblockNowPublishersInc.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2002}]{turney}Turney,P.~D.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2002\BBCP.\newblock\BBOQUnsupervisedLearningofSemanticOrientationfromaHundred-Billion-WordCorpus.\BBCQ\\newblock\BTR,TechnicalReportERB-1094,NationalResearchCouncilCanada.\bibitem[\protect\BCAY{内山\JBA中條\JBA山本\JBA井佐原}{内山\Jetal}{2004}]{uchiyama}内山将夫\JBA中條清美\JBA山本英子\JBA井佐原均\BBOP2004\BBCP.\newblock英語教育のための分野特徴単語の選定尺度の比較.\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\165--197}.\bibitem[\protect\BCAY{Yu,Zha,Wang,\BBA\Chua}{Yuet~al.}{2011}]{yu}Yu,J.,Zha,Z.-J.,Wang,M.,\BBA\Chua,T.-S.\BBOP2011\BBCP.\newblock\BBOQAspectRanking:IdentifyingImportantProductAspectsfromOnlineConsumerReviews.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1496--1505}.\bibitem[\protect\BCAY{Zhai,Liu,Xu,\BBA\Jia}{Zhaiet~al.}{2010}]{zhai}Zhai,Z.,Liu,B.,Xu,H.,\BBA\Jia,P.\BBOP2010\BBCP.\newblock\BBOQGroupingProductFeaturesUsingSemi-SupervisedLearningwithSoft-Constraints.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1272--1280}.\end{thebibliography}\begin{biography}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学システム情報工学研究科助教.現在に至る.博士(工学).近年はCGMテキストに対する評判分析に興味をもつ.}\bioauthor{板谷悠人}{2010年筑波大学第三学群情報学類卒業.2012年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了.同年4月から株式会社ミクシィ.在学中は自然言語処理の研究に従事.}\bioauthor{山本幹雄}{1986年豊橋技術科学大学大学院修士課程了.同年株式会社沖テクノシステムズラボラトリ研究開発員.1988年豊橋技術科学大学情報工学系教務職員.1991年同助手.1995年筑波大学電子・情報工学系講師.1998年同助教授.2008年筑波大学システム情報工学研究科教授.博士(工学).自然言語処理の研究に従事.}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.京都大学大学院情報学研究科特任助教,特定研究員を経て,2011年から楽天技術研究所.博士(情報科学).言語知識獲得,情報抽出,情報検索,テキストマイニングに興味をもつ.}\bioauthor{平手勇宇}{2008年早稲田大学大学院理工学研究科博士課程修了.早稲田大学メディアネットワークセンター助手を経て,2009年から楽天株式会社楽天技術研究所.博士(工学).近年は大規模データに対するデータマイニングに興味を持つ.}\bioauthor{山田薫}{2002年名古屋大学大学院国際言語文化研究科博士前期課程修了.ヤフー株式会社検索事業部等を経て,2010年から楽天株式会社楽天技術研究所.現在は同社ビッグデータ部にて商品検索システムの開発・運用に従事.}\end{biography}\biodate\end{document}
V16N04-05
\section{はじめに} 近年の科学技術の進展にともない,工学知は幾何級数的に増大したが,その一方で,工学教育の現場においては,学生が自分の興味に合わせて講義・演習を選ぶことが非常に困難な状況になっている.例えば,東京大学工学部では約900の講義が開講されており,学科の枠を越えた講義の履修が可能であるが,講義の選択に対する十分な知識が得られる状況とは言い難い.学生にとっては,a)自分の興味がどの講義によって教授されるか(講義の検索),b)その講義を受けるために習得すべき講義は何か(講義間関連の同定),等を得ることが望ましい.また,教員も同様に,講義全体の効率化のために,講義内容の重複や講義の抜けを知る必要があり,総じて講義の全体像を俯瞰し,各講義間の関連性を知ることが非常に重要となる.こうした問題に対し,我々は先より,異なる分野における知識を効率的に抽出し,かつ得られた知識間の関連性から浮かび上がる新たな知の活用を支援する「知の構造化」に関する研究開発を進めてきた\cite{Inproc_Mima_2006a,Article_Mima_2006b,Inproc_Yoshida_2007}.「知の構造化」の主たる目的は,知識を分析し可視化技術により知の内容を明瞭にすることで,i)知識全体の構造を明らかにし,ii)知識の関連から隠れた知識や,新たな知識を発見する,iii)知識の集中と抜けを発見する,さらには,これらによる知識の活用と再利用性を促すことにある.以上のような知の構造化の工学教育分野における実践として,以下の目標を達成するために,工学知およびカリキュラムの構造化と可視化に取り組んでいる.\noindent\textgt{・セルフオリエンテーション可能なシステムの構築}カリキュラムの全体像を構造化し,可視化することによって,学生が学ぶことの相対的位置付けを理解し,進むべき道を自ら指向できるようにする.\noindent\textgt{・テーラーメイド教育の実現}様々な異なるキャリアの学生に対して,多様なコース中から,個々の目的に応じた最適なカリキュラムを効果的に提示する.これらの目標を達成するために,1)キーワード検索によるアプローチ,および,2)課題志向によるアプローチ,という二つのアプローチでこの問題に対する取り組みを進め,既に学生へのサービス提供を行っている.通常,キーワード検索によるアプローチは,有用性が高く強力な検索能力を提供可能であるが,専門的知識の乏しい初学者にとっては,適切な検索キーワードを見つけだすことが難しいという問題がある.その一方,Yahoo!等のインターネット検索サイトでのディレクトリ検索に相当する課題志向によるアプローチでは,あらかじめ「環境」,「エネルギー」等の,(学科の枠に捕らわれない)課題に即して講義を(階層的に)分類し,それらの取捨選択により最終的な講義の選別が可能となるため,個別の科目に関する知識をそれほど必要とせずに,各学生の興味のある課題にあわせて講義を検索することができるという利点がある.双方共に一長一短があるが,教養課程から専門課程に渡る学生の多様なニーズに応えるためにも,キーワード入力と課題志向の両面から,講義を構造化・可視化することが,学生へのサービス提供という点からも重要である.キーワード入力からのアプローチとして,東京大学工学部では,MIMASearchシラバス構造化システムとして既に学生に向けサービスを提供している.本システムの特徴は,講義内容(以下,シラバス)のテキストを自然言語処理技術により自動的に構造化し,可視化技術を利用することで学生との柔軟なインタフェースを提供することにある.学部学生,大学院生を対象とした過去3年に渡るアンケート調査の結果や,年々のアクセス数の伸び等を始めとし,検索の効率化等に対する良好な評価を得ている.なお,MIMASearchに関する詳細は\cite{Inproc_Mima_2006a,Web_MIMA_Search}にあるため,本稿では割愛する.一方,課題志向によるアプローチに関しても,従来,人手により課題別にシラバスを分類し,構造化,可視化を行うことで,同様のサービスを提供しており,先と同様,学生からの良好な評価を得ている.しかしながら,課題志向によるアプローチでは,従来の学科や進学コース単位での,言わば,分野内でのシラバス分類と異なり,多くの場合に分野の枠を越えたシラバスの分類が要求される.特に,近年急速に発展しつつある「バイオテクノロジー」,「ナノテクノロジー」,「環境」,「エネルギー」等の分野では,学際的,複合的,融合的な方法で研究開発が行なわれており,これらの分類に関しては,より広範囲の知識を必要とする.さらには,「地球温暖化」,「環境資源の枯渇」,「持続可能な社会」等,学科のみならず,学部の枠組みを超えた講義や知識のつながりをとらえることが必要な課題も存在する.その一方で,近年の工学知の増大と細分化により,講義を受け持つ各教員が俯瞰的な視点から自身の講義を位置付けることが困難な状況にあるといえる.例えば,東京大学工学部の2008年度シラバスにおいて,「事前履修」,「並行履修」,「事後履修」という関連講義を記述する項目があるが,入力された関連講義のうち約34\%の記述に誤りがあり,関連講義をたどることできない状態にある.これらの多くは,カリキュラムの再編によって既に開講されていない講義名を参照していたり,曖昧な記述のままとなっていることが原因と見られるが,各教員が講義の全体像を把握し,シラバス間の関連を記述することが必ずしも容易ではないことを示していると思われる.以上のように,学際的な研究が増加し課題志向別にシラバスを俯瞰する必要性が高まっている一方で,各教員は学問分野の増大・細分化により俯瞰的な視点からシラバスを記述することが困難な状況にある.したがって,客観的・俯瞰的に課題志向別にシラバスを構造化するためには,工学知を俯瞰し,分類することができる専門の人員が必要となる.そこで,東京大学大学院工学系研究科では,現在数名の専門の教員が人手によりシラバスを精査し分類作業を行っている\cite{Web_Kadaisikou}.しかし,年度毎に更新されるシラバスに対して,人手による分類を毎年続けていくことは,大きなコストと時間を要する.よって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる.そこで,本研究では,課題志向によるシラバス構造化のアプローチに関し,シラバス分類を(半)自動化するシステムを提案する.本システムの特徴は,従来,全ての工程を人手による手作業で行っていたシラバス分類に対し,その一部を言語処理による特徴抽出,及び機械学習による自動分類を利用することで,全体の作業工程を短縮することにある.以下,本稿では,これら課題志向によるシラバス構造化アプローチとして,我々のグループで取り組んでいる課題志向別シラバス分類,構造化システムについて,システム構成,実装,及びテストデータを利用した実験評価を交えて解説する. \section{関連研究} 近年,大学における活動状況を内外へ周知する目的でWebを利用した情報公開が進んでおり,InformationCommunicationTechnology(ICT)を活用した教育の一環として,シラバスの電子化と公開が多くの大学で取り組まれている.さらに,シラバスの公開から一歩すすんで,MITをはじめとする主要大学にて,OpenCourseWare(OCW)という,講義とその関連資料をインターネット上に公開する取り組みもはじまっている\citeC{Web_OCW,Web_JOCW}.また,一部の大学では,シラバスを可視化するシステムに関する研究・開発が行われている\cite{Article_Miyoshi_2006}.これらのシステムでは,講義間の関連性を可視化することによって,学生が自ら履修計画を立てたり,多様なコース中から最適なキャリアパスを自ら指向することを目指しているが,現段階では,比較的単純な可視化という段階にとどまっており,より深くシラバスを分析し構造化することが求められている.シラバスの分類支援に関する研究\cite{Article_Miyazaki_2005}では,ユーザ支援のためには,分類の根拠となった素性(用語)を含めた形でユーザへ情報提示することが重要であると指摘されており,通常の文書分類において一般的に利用されているサポートベクターマシン(SVM)や確率モデルがユーザ支援には向かないことが議論されている.現時点では,分類の判定根拠を明確にする目的においては,SVMに比べて決定木\cite{Inproc_Lewis_1994}等の手法のほうが有望であると考えられるが,近年の研究では,SVMにおいても判定根拠の説明を行おうとする試みが行われている\cite{Inproc_Itabashi_2008}.尚,本システムでは,分類精度の観点からSVMを分類器として選択したが,分類の根拠を明示する目的において,可視化時に素性(用語)を提示する等の工夫を行っており,修正作業者からは,修正に有益な情報であるとの評価を得ている.しかしながら,より大規模の対象に対する分類・修正の場合は,\cite{Inproc_Itabashi_2008}と同様の手法の導入も検討する必要があろう.一方,システム上は,分類器を変更できるようモジュラリティを確保して設計を行っており,今後の研究の進展および技術発展等を検討しつつ,他の分類手法へ変更に柔軟に対応できるように実装を行っている.また,本研究のようにあらかじめ課題を設定して分類しようとするトップダウン型ではなく,ボトムアップ型の分類手法として,文書クラスタリングによりシラバスを分類する研究も行われている\cite{Article_Nozawa_2005}.文書クラスタリングは,分析の切り口が定まっていない状況での分類や,新たなカテゴリの発見には有用であり,東京大学工学部においても,MIMASearchシラバス分類システム\cite{Inproc_Mima_2006a,Web_MIMA_Search}を開発し,学生に向けたサービスを提供している.また,学生を主体としたボトムアップ型アプローチとして,フォークソノミーを用いた講義選択知識の抽出の試みも行われている\cite{Inproc_Nishijima_2008}.ただし,学生の観点からの分類が,学生への教育にとって必ずしも適当とは限らないこと(例えば,単位取得の容易さによる分類等)や,実際にサービスを行う際には,学生へのインセンティブ付与の問題や,不適切な内容の削除に必要なコスト等,検討すべき課題は多い.一方,高等教育機関における,教育内容・方法等の改善のための組織的な取り組み(ファカルティディベロップメント,FD)の制度化が近年急速に進展しており,教員の教育力向上のためにICTを活用したFDの実施が求められている\cite{Techrep_NIME_2008}.この点からも,シラバスを構造化し全体を俯瞰することによって,講義内容の重複や抜けを発見しFDの実施に資することが期待されている.ただ,ICT活用教育の導入の際のデメリットとして,「システムやコンテンツを作成,維持するための人員が不足していること」が最も高いと報告されているように\cite{Techrep_NIME_2008},シラバスを構造化するためには,通常,人手によりあらかじめシラバスを分析・分類・整理する必要があり,これは大きな人的コストと時間を必要とする.したがって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる. \section{システム構成} 図\ref{fig:system_overview}に本システムの構成を示す.本システムでは,あらかじめ分類されたシラバスの情報をもとに,未分類のシラバスを(半)自動的に各カテゴリに分類することを目的とする.以下に各コンポーネントの概要を述べる.\noindent\textgt{・特徴抽出(自動用語認識)}入力されたシラバスに対して,形態素解析および自動用語認識を行い,シラバス中から特徴を抽出する.なお,本システムでは,シラバス中の「科目名」,「講義の目的」,「理解すべき事項」,「前提事項」,「応用先」,「事前履修」,「並行履修」,「事後履修」を対象として名詞および用語の抽出を行うこととした.関連研究で取り上げた文献\cite{Article_Miyazaki_2005}で報告されているように,ユーザ支援を目的とした分類システムでは,分類の根拠となった用語を含めた形でユーザへ情報提示することが重要である.本システムでも同様の理由により,分類の根拠をユーザに明確にする目的で,シラバス中に含まれる用語を次項で述べるC/NC-value用語認識を利用して抽出を行い,可視化の際に利用することで,可能な限りユーザに提示する.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f1.eps}\end{center}\caption{課題志向別シラバス分類システムの構成}\label{fig:system_overview}\end{figure}\noindent\textgt{・C/NC-value用語抽出}本システムでは,機械学習・分類のための素性の一部としてC/NC-value用語認識技術\cite{Article_Mima_2000}を基にした用語の自動認識を利用している.C/NC-value手法は,テキストを入力とし,言語的な知識と統計的な解析の両者を複合的に利用することで,複数の語からなる用語を自動抽出する手法である.まず,C-value手法では,形態素のパターンと用語の対象ドメインにおける出現頻度,さらには,用語のネスティングに関する性質に注目し,スコア付けを行うことで用語の高精度な自動認識を行う.ここで,ネスティングとは,「乱数系列」と「疑似乱数系列」の関係のような,ある用語がさらに長いまとまりの用語に含まれている状態(包含関係)を示す.具体的な手順としては,まず,対象テキストを形態素解析し,以下のようなパターンによってフィルタリングを行う.\clearpage\begin{quote}\begin{verbatim}[Filter1]Noun{2,}例:疑似乱数系列,仮想関数[Filter2](Prefix|Adv)(Noun|Adj|Suffix)+Noun+例:全二重接続,非同期通信[Filter3]PrefixNoun+Suffix例:未定義型,再初期化\end{verbatim}\end{quote}上記のフィルターによって対象テキスト中から文字列を切り出し,これを用語の候補とする.次に,用語の候補それぞれの対象テキスト中における出現頻度を計算し,さらにこの出現頻度から,単語のネスティングに関する性質を利用して,以下の式によりC-valueを算出する.\[C-value(a)=\begin{cases}\log_{2}|a|\cdotf(a)&\text{$a$がネストしていない場合}\\\log_{2}|a|\Bigl(f(a)-\frac{1}{P(T_a)}\sum_{b\inT_a}f(b)\Bigr)&\text{$a$がネストしている場合}\end{cases}\]ここで,\begin{quote}$a$は用語の候補$|a|$は用語の候補$a$の長さ(形態素の個数)$f(.)$は対象テキスト中の出現頻度$T_a$は$a$を含む抽出された用語の候補の集合$P(T_a)$は上記集合の要素数\end{quote}である.また,NC-value手法では,候補となる用語の実際の文章上でのコンテキスト(前後の文脈)中にある語彙との共起の情報を用いて,用語としての確からしさ(termhood)の指標を求め,求まった指標を基に候補となる用語の再順序づけを行う.本手法は日英両言語のテキストに対して用語抽出の実験評価が行われており,両言語共に高い精度の認識が行える言語非依存性や,異なる分野に対しても同手法で比較的高精度な用語抽出が可能なドメイン非依存性を持つことを特徴とする.この性質は,本稿で提案する,分野を越えて関連する講義を抽出するという目的には有効だと思われる.実際に,AI分野の論文を用いた評価実験の結果,90\%以上の用語認識精度が得られており,他の手法と比較して高いドメイン非依存性があると報告されている\cite{Article_Mima_2000}.なお,抽出した用語の例として,2006年度の東京大学工学部シラバスから抽出した用語のうちスコア上位5件は,「基礎知識」,「線形代数」,「統計力学」,「固体物理」,「ベクトル解析」であった.\noindent\textgt{・サポートベクターマシン(SVM)}SVMは,あらかじめ学習させたパターンに基づき,未知の入力パターンの分類を行う強力なパターンマッチング手法であり,機械学習理論の構造的リスク最小化原理に基づいている\cite{Book_Vapnik_1995,Article_Cortes_1995}.本システムでは高精度のテキスト分類を実現するためにSVMを分類器として採用した.なお,SVMによるテキスト分類についての研究は既に報告されており,決定木等の他の手法に比べてSVMが非常に高い分類能力を持つことが示されている\cite{Inproc_Dumais_1998,Inproc_Joachims_1998}.本システムでは,あらかじめいくつかのカテゴリに分類されたシラバス群をSVM分類器に学習させておき,未分類のシラバスを自動的に各カテゴリに分類するためにSVMを利用している.なお,本コンポーネントでは,カテゴリ数と同数のSVM分類器を用意し,1つのシラバスを複数のカテゴリに分類することが可能である.本システムでは,SVMソフトウェアのTinySVM0.09\citeC{Web_TinySVM}を利用した.また,SVMを利用したテキスト分類において,素性をどのように選択するかが重要であると報告されている\cite{Inproc_Taira_1999}.文献\cite{Inproc_Moschitti_2004}では,n-gram,形態素,および複合名詞を含む種々の素性を用いたテキスト分類について議論されており,英語の新聞記事に対するSVMを用いた分類実験では,形態素に複合名詞を加えたものを素性として用いた際に,10個の分類カテゴリのうち8個のカテゴリにおいては若干の分類精度向上が見られることが示されている.総合的に見た場合には,bagofwords以外(フレーズ,語義情報等)の素性を利用しても精度向上は微々たるものであり,計算量とのトレードオフも含め,必ずしも質の向上に寄与するとは言えない面もあるとの報告もあるが,カテゴリの専門性の高さ(専門用語の特徴量としての尤もらしさ)に対する素性の最適化や素性の組み合わせ方式等,未だ議論の余地はある.例えば,情報検索分野において,従来,素性の単位をn-gramか形態素にするかの議論が成されていたが,今日の検索システムにおいては,両者の融合による検索精度の向上が既に実現されている.以上の観点より,システムの設計にあたり,事前に学習データのクロスバリデーションによる実験,及び日本語の新聞記事を使った予備実験を行い,名詞と用語を素性に採用した際の分類精度への影響を調査した.まず,SVMによるテキスト分類の素性として,1)名詞のみ,2)用語のみ,3)名詞および用語,の3つを準備し,tf・idf\cite{Article_Salton_1991}によりスコア付けを行い,それぞれの場合について新聞記事を対象とした分類実験を行った.その結果,実験全体のF値(適合率と再現率の調和平均)は,1)名詞のみF=0.6390,2)用語のみF=0.5462,3)名詞および用語F=0.6560となり,3)の名詞および用語を素性とした場合に最も精度よく分類出来ることを確認した.特に,新聞記事での軍事や国際関係等の専門性の高いと考えられるカテゴリにおいて,より多くの精度向上が見られた.一般に,シラバスの記述内容は専門用語を多く含んでいるため,名詞および用語を素性とすることでより高精度の分類を行うことが期待できる.以上の理由から本システムではSVM分類の素性として,名詞および用語を素性として採用した.\noindent\textgt{・機械学習}「特徴抽出」部によって抽出された素性(名詞および専門用語)を基に,tf・idfによりスコア付けを行い,訓練データとなるシラバスを正規化された多次元ベクトルに変換する.さらに,訓練データをもとにSVM分類器を学習させ,分類知識を生成する.\noindent\textgt{・自動分類}「特徴抽出」部によって抽出された素性(名詞および専門用語)を基に,テストデータとなるシラバスを多次元ベクトルに変換し,SVM分類器により未分類のシラバスを分類する.\noindent\textgt{・シラバス分類可視化エンジン}「自動分類」部によって分類されたシラバスから,HTMLドキュメントを自動生成しブラウザに表示する(図\ref{fig:kadai_kankyou}参照).なお,実装についてはアプリケーションエンジンの一つであるApacheTomcat4.1.32をベースに,Java言語によりHTMLを生成するServletを作成した.また,シラバスデータを保存するためのデータベースエンジンとしてPostgreSQL7.1.3を利用し,JDBCを介したデータベースコネクションによりモジュラリティの高い構成を採用している.\noindent\textgt{・インタラクティブ修正インタフェース}「自動分類」部によって生成されたシラバス分類結果を見ながら,インタラクティブに分類間違いを修正する.まず,図\ref{fig:syllabus_list}に示した分類結果一覧画面を見ながら分類間違いを探し,「修正」ボタンを押すことによって個別シラバスの修正画面に移行し,図\ref{fig:syllabus_detail}に示した個別シラバス修正画面にてシラバス内の各項目を修正する.実装については「シラバス分類可視化エンジン」部と同様にApacheTomcat4.1.32上にJava言語によりServletを作成した.なお,可視化システム,および上記インタラクティブ修正インタフェース等,本システムのすべてのユーザインタフェースをWebベースとすることで,一般のWebブラウザを介した操作のみで,シラバス閲覧等のすべての作業を行うことが可能となっている.\begin{figure}[b]\begin{minipage}[b]{0.45\textwidth}\begin{center}\includegraphics{16-5ia4f2.eps}\end{center}\caption{環境分野における課題志向別科目構造}\label{fig:kadai_kankyou}\end{minipage}\hfill\begin{minipage}[b]{0.45\textwidth}\begin{center}\includegraphics{16-5ia4f3.eps}\end{center}\caption{課題志向別シラバス分類結果一覧画面}\label{fig:syllabus_list}\end{minipage}\end{figure}図\ref{fig:kadai_kankyou}は,環境分野に関連する科目について,課題志向型構造(ある課題に着目した場合の関係構造)を相対的な関係で描き出したものである.「環境大事典」(工業調査会)のセクションあるいはテーマで全体の枠組みを作り,その中に工学部で履修できる環境関連科目を当てはめた.図\ref{fig:kadai_kankyou}中において,亀甲状のタイルによりある課題の全体構造を示し,六角形の各領域がそれぞれの下位の課題に対応している.下位の課題の部分をクリックすることにより,その下位の構造全体の可視化画面に遷移する.色の濃淡は科目数に対応しており,科目ごとの相対的な関係が見えると同時に,工学部の講義の中では技術的なことはよく扱われている反面,法的枠組みのような社会科学的視点や,人文科学的枠組みである心理的問題などが,工学部の講義の中だけでは必ずしも履修できないことが見えてくる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f4.eps}\end{center}\caption{個別シラバス修正画面}\label{fig:syllabus_detail}\end{figure}以上のように,分類結果を可視化することで,学生にとっては,学問分野を俯瞰しながら自分の興味のある講義を探し,さらにその講義に関連する講義を知り,履修しようとする講義の相対的位置付けや,キャリアパスに応じた履修計画の支援に役立てることがきる.また,教員にとっては,可視化によって,講義の全体像を俯瞰し各講義間の関連性を知ることによって,講義内容の重複や講義の抜けを知ることができ,カリキュラムの改善に役立てることができる. \section{評価実験} SVMによる自動分類システムの有用性を評価するために精度評価実験を行った.実験データとして,東京大学工学部の2003年度(総科目数862)および2006年度(総科目数855)のシラバスを対象とした.このシラバスには,あらかじめ数名の専門の教員が人手により分類を行い,表\ref{table:category_data}に示すように,約450科目に情報工学分野および環境分野のカテゴリが付与されている.本実験では,2003年度の人手による分類結果を訓練データとして分類器を学習させ,2006年度のシラバスをテストデータとして分類を行い,人手による分類と分類器による結果を比較することにより,その適合率と再現率を求めた.訓練データとテストデータそれぞれの詳細を表\ref{table:category_data}に示す.また,機械学習システムとして,SVMソフトウェアのTinySVM0.09\citeC{Web_TinySVM}をデフォルトの状態で利用した.\begin{table}[t]\caption{分類実験の対象としたシラバスのカテゴリとデータ数}\label{table:category_data}\begin{center}\includegraphics{16-5ia4t1.eps}\end{center}\end{table}実験結果を図\ref{fig:svm_result}に示す.適合率(precision)は,分類器により求められたカテゴリのうち,正しく分類できたカテゴリの割合である.再現率(recall)は,正しく分類されるべきシラバスのうち,どれだけ分類器が正しく分類できたかの割合である.なお,F値(適合率と再現率の調和平均)の平均値はF=0.5685であった.さらに,予備実験にて,SVMによるテキスト分類の素性として,1)名詞のみ,2)用語のみ,3)名詞および用語,を素性とした場合の分類精度を比較したが,本実験においても同様に分類実験を行い,その結果F値の平均値は1)名詞のみF=0.5352,2)用語のみF=0.5038,3)名詞および用語F=0.5685となり,3)の名詞および用語を素性とした場合に最も精度よく分類出来ることを本実験においても確認した.また,全科目に対する分類誤り率は0.84\%である.つまり,システムで分類した結果のうち,一つのカテゴリにつき平均7.2件程度の分類誤りがあり,これらを人手により修正することが必要となる.図\ref{fig:svm_result}より,再現率についてはカテゴリによってばらつきがあるものの,概ね全てのカテゴリにおいて90\%以上の適合率を得た.また,訓練データ数が極端に少ないカテゴリでは,適合率・再現率ともに低く,自動で分類することは難しいことがわかる.ただし,訓練データ数が極端に少ないカテゴリに関しては,他のカテゴリと同数程度まで訓練データを毎年蓄積することで改善可能であると考えられる.また,カリキュラムの再編で科目数が大幅に増減しているカテゴリでは,他のカテゴリに比べて再現率が低下していることから,これらのカテゴリにおいては自動分類後に人手により修正する必要があることがわかる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f5.eps}\end{center}\caption{分類実験の適合率(precision)—再現率(recall)結果}\label{fig:svm_result}\end{figure}以上の実験結果から,本手法が実用的な課題志向別シラバス分類の自動化に有効であることを確認した. \section{考察} まず,本システムの導入による作業量の変化について考察する.図\ref{fig:work_flow}に本システム導入前後の分類作業フローの比較を示す.A1の作業では,それぞれの課題に関連するキーワード選定を行うが,このキーワードの選定は課題への十分な理解が必要であり,多少の主観が入ることは否めない.また,人手によりキーワード選定を行った場合,必ずしもその課題を特徴付けるキーワードが全て網羅できるとは限らない.それに対して,B1の自動分類システムでは,自動特徴抽出およびtf・idfによってスコア付けを行うことによって,客観的基準により課題の特徴を抽出することが期待できる.加えて,課題志向のような分野が多岐に渡る場合,例え人手によるものであっても,作業者の専門分野との関連の度合いにより,精度にばらつきが生じる.よって,A4に与えられるカテゴリ候補は,適合率,再現率共に十分とは言えず,やはり事後の精査による修正が必要となる.実際に,今回の実験では,A1〜A3の作業によって得られたカテゴリの候補と,B1によって自動で得られたカテゴリの候補の精度は同程度であった.従来,A1〜A3までの作業は3〜4週間程度必要としていたが,本システムの導入によって,A1〜A3までの作業をB1の作業に置き換えることが可能となり,数日間の作業に短縮することができた.A4〜A5の作業については,通常2〜3週間程度の作業を必要とし,現段階ではB2〜B3の作業も同程度の作業を必要とする.しかし,今後,分類システムの精度を向上させることによってさらなる短縮が期待できる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f6.eps}\end{center}\caption{システム導入以前(左)以後(右)の分類作業フローの比較}\label{fig:work_flow}\end{figure}次に,本システムを運用する上で想定される問題点として,課題の構造(カテゴリ)をどのように整備・修正するかということがあげられる.現在は,例えば情報の分野では,岩波書店刊「情報科学事典」をもとに課題のカテゴリを作成しているが,今後,科学技術の発展に伴い,課題の構造(カテゴリ)が年々変化することが考えられる.現在のシステムでは,新たな課題を追加する際は,人手により全シラバスを吟味し,個別の講義(シラバス)を一つ一つ新たなカテゴリに追加する必要がある.この作業の負担を減らすためには,前述のMIMASearchを組み合わせて,個別のシラバスをキーワード検索し,その結果をドラッグアンドドロップ等の簡便な方法でシームレスにカテゴリに追加出来るようシステムを拡張する必要がある.また,MIMASearchのクラスタリング機能を利用して新たなカテゴリを発見し,本システムのカテゴリへ反映することも考えられる.一方,近年のコーパスベース言語処理研究の発展により,コーパスを利用したシソーラスやオントロジーの自動構築研究\cite{Inproc_Mima_2002,Inproc_Shinzato_2004}も進展しつつある.実用に至るには未だ課題は多いが,今後の研究の進展によりこのような課題の構造を自動で構築することも可能となると期待される.また,評価実験の章で述べたように,カリキュラムの再編により,年度毎にカテゴリに属する講義(シラバス)に大幅な増減があった場合は,分類精度が低下し人手の作業が必要となる.この場合は,分類結果を可視化する際に色を分けて表示するなど,作業者に対して注意を促すような仕組みを追加し,作業者自身の負担を軽減することが必要である. \section{結論} 本稿では,課題志向別シラバス分類システムの開発,というアプローチによって,i)カリキュラムの全体像の俯瞰,ii)各講義間の関連性の可視化,および,iii)講義の集中と抜けを可視化するシステムを示した.また,本システムによって,大量のシラバスデータの自動分類,および,分類間違いのインタラクティブ修正を可能にし,大幅に人的コストと時間を短縮することが期待できる.ドッグイヤーと呼ばれるように,近年の高度情報化による社会の発展のスピードは著しく,グローバル経済の発達等により社会の変化も激しいのが現状である.社会の変化に迅速に対応した教育を行うことは大学の使命であるが,カリキュラム再編のみならず,学科の再編等,教育にも常に変化が求められる現状において,教育環境構築の負担は今後も常に増大するものと思われる.その意味でも,本システムのような学生へのサービス向上とその効率的運用を目的としたシステムに対する期待は今後も非常に大きくなると思われる.なお,本システムは,現在は2003年度から2008年度のデータを元に実験運用を行なっているが,2009年度より実運用を開始し,実際に学生に向けてサービスを提供する予定である.本サービス開始と共に,学生へのアンケート調査等を通じ,ユーザビリティの改善を進める予定である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{CIEE}{CIEE}{a}]{Web_MIMA_Search}CIEE東京大学大学院工学系研究科工学教育推進機構.\newblockMIMASearchシラバス検索システム.\\newblock\Turl{http://ciee.t.u-tokyo.ac.jp/snavi/index.html}.\bibitem[\protect\BCAY{CIEE}{CIEE}{b}]{Web_Kadaisikou}CIEE東京大学大学院工学系研究科工学教育推進機構.\newblock課題志向別の科目分類.\\newblock\Turl{http://ciee.t.u-tokyo.ac.jp/ciee/kozoka/kadai.html}.\bibitem[\protect\BCAY{Cortes\BBA\Vapnik}{Cortes\BBA\Vapnik}{1995}]{Article_Cortes_1995}Cortes,C.\BBACOMMA\\BBA\Vapnik,V.\BBOP1995\BBCP.\newblock\BBOQSupport-VectorNetworks.\BBCQ\\newblock{\BemMachineLearning},{\Bbf20},\mbox{\BPGS\273--297}.\bibitem[\protect\BCAY{Dumais,Platt,Heckerman,\BBA\Sahami}{Dumaiset~al.}{1998}]{Inproc_Dumais_1998}Dumais,S.,Platt,J.,Heckerman,D.,\BBA\Sahami,M.\BBOP1998\BBCP.\newblock\BBOQInductiveLearningAlgorithmsandRepresentationsforTextCategorization.\BBCQ\\newblockIn{\BemProc.7thInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\273--297}.\bibitem[\protect\BCAY{板橋\JBA松井\JBA大和田}{板橋\Jetal}{2008}]{Inproc_Itabashi_2008}板橋広和\JBA松井藤五朗\JBA大和田勇人\BBOP2008\BBCP.\newblockテキスト分類における重みつき類似度を用いたSVM判別モデルの説明.\\newblock\Jem{2008年度人工知能学会全国大会(第22回)3B2-04}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Inproc_Joachims_1998}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures.\BBCQ\\newblockIn{\BemProc.EuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{JOCW}{JOCW}{}]{Web_JOCW}JOCW日本オープンコースウェア・コンソーシアム.\newblock\BBOQJapanOpencoursewareConsortium(JOCW)OfficialSite.\BBCQ\\newblock\Turl{http://www.jocw.jp/}.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{}]{Web_TinySVM}Kudoh,T.\newblock\BBOQTinySVM.\BBCQ\\newblock\Turl{http://www.chasen.org/{\textasciitilde}taku/software/TinySVM/}.\bibitem[\protect\BCAY{Lewis\BBA\Ringuette}{Lewis\BBA\Ringuette}{1994}]{Inproc_Lewis_1994}Lewis,D.~D.\BBACOMMA\\BBA\Ringuette,M.\BBOP1994\BBCP.\newblock\BBOQAComparisonofTwoLearningAlgorithmsforTextCategorization.\BBCQ\\newblockIn{\BemProc.3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\81--93}.\bibitem[\protect\BCAY{Mima}{Mima}{2006}]{Inproc_Mima_2006a}Mima,H.\BBOP2006\BBCP.\newblock\BBOQStructuringandVisualizingtheCurriculawithMIMASearch.\BBCQ\\newblockIn{\BemProc.7thAPRUDistanceLearningandtheInternetConference2006}.\bibitem[\protect\BCAY{Mima\BBA\Ananiadou}{Mima\BBA\Ananiadou}{2000}]{Article_Mima_2000}Mima,H.\BBACOMMA\\BBA\Ananiadou,S.\BBOP2000\BBCP.\newblock\BBOQAnapplicationandevaluationoftheC/NC-valueapproachfortheautomatictermrecognitionofmulti-wordunitsinJapanese.\BBCQ\\newblock{\BemInternationalJournalonTerminology},{\Bbf6}(2),\mbox{\BPGS\175--194}.\bibitem[\protect\BCAY{Mima,Ananiadou,\BBA\Matsushima}{Mimaet~al.}{2006}]{Article_Mima_2006b}Mima,H.,Ananiadou,S.,\BBA\Matsushima,K.\BBOP2006\BBCP.\newblock\BBOQTerminology-basedKnowledgeMiningforNewKnowledgeDiscovery.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf5}(1),\mbox{\BPGS\74--88}.\bibitem[\protect\BCAY{Mima,Ananiadou,Nenadic,\BBA\Tsujii}{Mimaet~al.}{2002}]{Inproc_Mima_2002}Mima,H.,Ananiadou,S.,Nenadic,G.,\BBA\Tsujii,J.\BBOP2002\BBCP.\newblock\BBOQAMethodologyforTerminology-basedKnowledgeAcquisitionandIntegration.\BBCQ\\newblockIn{\BemProc.19thInternationalConferenceonComputationalLinguistics(COLING2002)},\mbox{\BPGS\667--673}.\bibitem[\protect\BCAY{宮崎\JBA井田\JBA芳鐘\JBA野澤\JBA喜多}{宮崎\Jetal}{2005}]{Article_Miyazaki_2005}宮崎和光\JBA井田正明\JBA芳鐘冬樹\JBA野澤孝之\JBA喜多一\BBOP2005\BBCP.\newblock分類候補数の能動的調整を可能にした学位授与事業のための科目分類支援システムの提案と評価.\\newblock\Jem{知能と情報(日本知能情報ファジィ学会誌)\inhibitglue},{\Bbf17}(5),\mbox{\BPGS\558--568}.\bibitem[\protect\BCAY{三好\JBA大家\JBA上田\JBA廣友\JBA矢野\JBA川上}{三好\Jetal}{2006}]{Article_Miyoshi_2006}三好康夫\JBA大家隆弘\JBA上田哲史\JBA廣友雅徳\JBA矢野米雄\JBA川上博\BBOP2006\BBCP.\newblockEDBを利用した学習経路探索を支援するeシラバスシステムの構築.\\newblock\Jem{大学教育研究ジャーナル(徳島大学)\inhibitglue},{\Bbf3},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Moschitti\BBA\Basili}{Moschitti\BBA\Basili}{2004}]{Inproc_Moschitti_2004}Moschitti,A.\BBACOMMA\\BBA\Basili,R.\BBOP2004\BBCP.\newblock\BBOQComplexLinguisticFeaturesforTextClassification:acomprehensivestudy.\BBCQ\\newblockIn{\BemProc.26thEuropeanConferenceonInformationRetrievalResearch(ECIR2004)}.\bibitem[\protect\BCAY{NIME}{NIME}{2008}]{Techrep_NIME_2008}NIME独立行政法人~メディア教育開発センター\BBOP2008\BBCP.\newblockeラーニング等のICTを活用した教育に関する調査報告書(2007年度).\\newblock\JTR,独立行政法人メディア教育開発センター.\bibitem[\protect\BCAY{西島\JBA荒井\JBA檜垣\JBA土屋}{西島\Jetal}{2008}]{Inproc_Nishijima_2008}西島寛\JBA荒井幸代\JBA檜垣泰彦\JBA土屋俊\BBOP2008\BBCP.\newblockフォークソノミーを用いた講義選択知識の抽出.\\newblock\Jem{電子情報通信学会技術研究報告OIS2008-14},{\Bbf108}(53),\mbox{\BPGS\79--84}.\bibitem[\protect\BCAY{野澤\JBA井田\JBA芳鐘\JBA宮崎\JBA喜多}{野澤\Jetal}{2005}]{Article_Nozawa_2005}野澤孝之\JBA井田正明\JBA芳鐘冬樹\JBA宮崎和光\JBA喜多一\BBOP2005\BBCP.\newblockシラバスの文書クラスタリングに基づくカリキュラム分析システムの構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(1),\mbox{\BPGS\289--300}.\bibitem[\protect\BCAY{{Open~Course~Ware}}{{Open~Course~Ware}}{}]{Web_OCW}{Open~Course~Ware}.\newblock\BBOQMITOpenCourseWare.\BBCQ\\newblock\Turl{http://ocw.mit.edu/}.\bibitem[\protect\BCAY{Salton}{Salton}{1991}]{Article_Salton_1991}Salton,G.\BBOP1991\BBCP.\newblock\BBOQDevelopmentsinautomatictextretrieval.\BBCQ\\newblock{\BemScience},{\Bbf253},\mbox{\BPGS\974--980}.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{Inproc_Shinzato_2004}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQAcquiringHyponymyRelationsfromWebDocuments.\BBCQ\\newblockIn{\BemProc.HLT-NAACL}.\bibitem[\protect\BCAY{Taira\BBA\Haruno}{Taira\BBA\Haruno}{1999}]{Inproc_Taira_1999}Taira,H.\BBACOMMA\\BBA\Haruno,M.\BBOP1999\BBCP.\newblock\BBOQFeatureSelectioninSVMTextCategorization.\BBCQ\\newblockIn{\BemProc.FifthInternationalConferenceonArtificialIntelligence(AAAI-99)},\mbox{\BPGS\480--486}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Book_Vapnik_1995}Vapnik,V.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockNewYork:Springer-Verlag.\bibitem[\protect\BCAY{Yoshida}{Yoshida}{2007}]{Inproc_Yoshida_2007}Yoshida,M.\BBOP2007\BBCP.\newblock\BBOQStructuringandVisualisingtheEngineeringKnowledge---BasicPrinciples,methodsandtheapplicationtotheUT'sEngineeringCurriculum.\BBCQ\\newblockIn{\BemProc.8thAPRUDistanceLearningandtheInternetConference2007}.\end{thebibliography}\begin{biography}\bioauthor{太田晋}{2001年東京大学大学院工学系研究科金属工学専攻修士課程修了.同年コグニティブリサーチラボ(株)入社.2005年科学技術振興機構社会技術研究開発センター研究員,2007年より東京大学大学院工学系研究科工学教育推進機構特任研究員.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{美馬秀樹}{1996年徳島大学工学研究科システム工学専攻博士課程修了.工学博士.(株)ジャストシステム研究員,ATR音声翻訳通信研究所研究員,英国マンチェスターメトロポリタン大学講師(Lecturer),東京大学大学院理学系研究科研究員,同大学工学系研究科助手を経て,2005年より東京大学大学院工学系研究科工学教育推進機構/知の構造化センター特任准教授.自然言語処理の研究に従事.言語処理学会,可視化情報学会各会員.}\end{biography}\biodate\end{document}
V05N04-07
\section{はじめに} 連続音声認識において,N-gramと呼ばれる統計的手法に基づいた言語モデルが広く使用されており(Bahl,JelinekandMercer1983),限られた探索空間上で認識精度を向上させるためには,信頼できる単語連鎖統計値を得るための大量のデ−タを用いて,大きなN値に設定されたN-gramを用いるのが効果的である.しかし,大量のデータを用意することは非現実的であり,実際には小さいN値であるbi-gramやtri-gramなどを用い,2単語や3単語など局所的な単語連鎖にのみ制約を与えて使用している.従って,単語N-gramモデルを用いた認識誤りには,N単語以上,実際には3から4単語以上からなる長い単語連鎖部分から判断すれば不自然なものが多い.音声対話や音声翻訳システムを実現するためには,上記のような認識誤りの特徴を考慮した上で,認識誤り文を解析できる手段が必要となる.従来,文脈自由文法に則って非文法的な文を解析する手法が提案されており(SaitouandTomita1988;Mellish1989),一部の音声認識誤り文の解析にも有効であることが確認されている.また,それを音声翻訳システムに導入した例も紹介されている(Lavie,Gates,Gavalda,Mayfield,WaibelandLevin1996a).これらは,入力文中に解析できない部分があったとき,その部分を削除,あるいは他の単語を挿入,置換しながら解析を続行することにより,音声認識誤り文の解析を可能にしている.しかしこの方法は,基本的には,誤認識さえなければ文全体を文法で記述することが可能であることを前提としている.実際の自然発話文に頻繁に出現すると思われる文法記述が困難な文を十分に解析できないのが問題となる.一方,文全体を文法で記述することが困難であると思われる自然発声文の解析を可能とするために,発声の際のポーズで区切られた単位を1部分として,文全体を部分毎に分け,各々の部分文を部分木で記述し,この部分木を列挙したもので文全体を記述する方法も提案されている(竹沢,森元1996b).この方法は自由発話文の解析を可能とする上で効果的な方法である.しかし,上記部分木もN-gramモデルと同様に,局所的な一部分文の範囲で解析を行なうものであり,認識処理で不足している「長い単語連鎖からなる大局的な言語的制約」を補うものではない.従って,局所的には既に制御されている認識誤り文を誤りであると判断できず,誤ったまま解析してしまうという問題がある.さらに,これら従来の解析方法は文脈自由文法による文法的制約を基本としているが,意味的な整合性を判断した解析ではないため,文の「不自然さ」を判断するには不十分であると考えられる.我々は,自由発話文の音声認識誤り文を解析するためには,文法以外の制約を積極的に用いて,認識誤り文から正しく認識された部分を特定するしくみを新たに導入し,特定された部分のみを対象として,または特定されなかった部分を修復しながら,文を解析することが必要であると考えている.そこで本論では,その第1歩として,単語N-gramのNの範囲を越えた大局的な部分を対象に,その意味的な自然性を判断することにより,認識結果文から正しく認識された部分のみを特定する方法を提案する.以下2章ではこの正解部分特定法について述べ,3章では日英翻訳システムを用いた正解部分特定法の評価結果について報告する. \section{正解部分特定法} \subsection{ConstituentBoundaryを用いた自由発話文の解析}自由発話文の翻訳をめざして,変換主導型機械翻訳(TransferDrivenMachineTranslation以下TDMTと記述する)と呼ぶ音声翻訳手法が提案されている(古瀬,隅田,飯田1994a).TDMTでは,自由発話文に頻繁に出てくる文法記述の困難な言い回しを取り扱うために,実際の自由発話文に現われる種々の単語間の依存関係を表現パターンとして記述し,これらの表現パターンとその対訳とを蓄積しておく.実際の翻訳の際には,入力された文に類似した表現パターンを選択し,その対訳パターンを用いて翻訳を行う.この表現パターンには次の特徴がある.\vspace{0.5cm}\begin{itemize}\item[特徴1:]表現パターンは表現を決定するマーカーと変数から構成されており,マーカーは機能語,変数は内容語である場合が多い.たとえば「京都のホテル」という学習文における表現パターンは「XのY」となり,この際のマーカーは「の」,変数X及びYは「京都」と「ホテル」となる.このように多くの表現パターンは,変数に相当する内容語間の依存関係を,マーカーに相当する機能語で表していることになる.\item[特徴2:]表現パターンの単位は,話し言葉の意味を理解する上での最小単位であることを基本とするため,パターンの長さは単語から句,文まで様々である.この単位をconstituentboundary(CB)と呼ぶ.\end{itemize}\vspace{0.5cm}入力文に類似した表現パターン候補は複数選択されることがある.その中から最も適切な学習パターンを選択するために,学習された表現パターンの変数に相当する単語と入力文の単語間との意味的な類似性を調べ,入力文に含まれる単語と最も類似した単語を含んでいる表現を選択している(隅田,古瀬,飯田1994b).この意味的距離は意味シソーラス辞書に従って算出される.この最適表現パターンの探索は,left-to-rightのボトムアップ探索処理にて行なわれる.従って,もし文全体に相当する表現パターンが探索できなくても,部分文に相当する表現パターンは探索可能である(FuruseandIida1996c).\subsection{正解部分の特定法}上記のCBによる解析法で用いた表現パターンと解析結果を用いて,認識結果文から正しく認識された部分のみを特定する方法を提案する.正解部分の特定に上記解析法を用いる長所を以下に述べる.\vspace{0.5cm}\begin{itemize}\item[(a)]文脈自由文法に基づいた文法規則では,話し言葉も音声認識誤りも同様に解析が困難であるため,両者の区別がつかない場合が多かったが,上記解析法では実際の話し言葉の表現を学習することにより,解析できない部分を音声認識誤りと判断できる可能性がある.\item[(b)]上記解析法で扱う表現パタ−ンは,N-gramのN個以上の単語からなるものも多くある.この表現パターン単位で文の自然性を判断することで,N-gramよりさらに大局的な部分を評価できる枠組である.\item[(c)]解析をボトムアップに行っているため,文全体が解析できなくても,部分的な解析が可能である.\end{itemize}\vspace{0.5cm}音声認識の際に考慮されていない「大局的な部分」からの「意味的な不自然さ」を判断するために,具体的には,「入力文と学習文との単語は意味的類似性」と「1つの表現パタ−ンの形態素長」に注目して正解部分を特定する.正解部分特定条件は次の2つである.\vspace{0.5cm}\begin{quote}\begin{itemize}\item[条件1:]ある入力文中の表現パターンが音声認識誤りを含んでいる場合には,学習パターン内の単語との意味距離値は大きくなると予想される.意味距離値が一定値より小さい表現パタ−ンを正解部分とする.\item[条件2:]単語N-gramにより制御された認識結果は,N個以下の単語からなる部分については既に制御されており,結果が正解であるか誤りであるかに無関係に「自然」な系列である場合が多い.従って,N+1個以上からなる範囲から判断して「自然」である場合のみ,正解部分とする.\end{itemize}\end{quote}\vspace{0.5cm}\begin{figure}\begin{center}\epsfile{file=example.ps,width=80mm}\end{center}\vspace{-4mm}\caption{正解部分特定例}\label{fig:example}\end{figure}\subsection{正解部分の特定手順}なるべく大局的な部分から優先して正解部分の特定を行なうために,ボトムアップに行なわれた解析結果を,トップダウンに判断しながら特定していく.具体的には,次の手順で正解部分の特定を行なう.\vspace{0.5cm}\begin{itemize}\item[手順1:]長い語句の範囲の表現パターンから順にその意味的距離を判断し,意味的距離が閾値より小さい場合は,その範囲に含まれる全ての部分を正解部分とする.\item[手順2:]もし意味的距離が閾値より大きい場合には,その部分のどこかに誤りが含まれているとみなして,より小さい部分の表現パターンについて(手順1)の処理を繰り返す.\item[手順3:]この処理が繰り返され,非常に短い語句の範囲での局所的な語句からなる表現パターンを扱うに至る場合は,対象となる短い部分は,他の部分と依存関係がなく文全体から見て不自然な部分であると判断する.そこで,解析範囲に含まれている形態素数に下限閾値を設け,解析範囲が細分化されてその形態素数が閾値に達した場合には,意味的距離がたとえ小さくでも,その部分を誤り部分と判断する.\end{itemize}\vspace{0.5cm}図\ref{fig:example}に正解部分特定例を示す.これは単語bi-gramを用いた音声認識結果文を解析した例である.まず音声認識結果に対しボトムアップな解析を行なうことで,いくつかの部分文に対し表現パターンが適応され,結果として,図\ref{fig:example}に示したような構造と意味的距離値が得られたとする.ここでたとえば,形態素数の下限閾値をbi-gramのNより1つ大きい3,意味的距離の上限閾値を0.2とすると,この結果は次のように処理される.この結果では,「料金」が「料決ま」と誤認識しているため,文全体としての解析は失敗している.そこで,解析できた部分で最も大きい表現パターンである「エエそれぞれおいくらなんですか」の意味的距離0.4を閾値と比較する.この場合は閾値を上回っているので,この範囲のどこかに誤りがあるとみなし,一段階小さな表現パターン「それぞれおいくらなんですか」を処理する.この部分の意味的距離0.005は閾値より小さいので,この部分は全て正解部分と特定する.まだ,判断していない残りの「料決ま」の部分の意味的距離は閾値より小さいものの,この範囲に含まれる形態素数2が,形態素数閾値の3未満であるので,この部分は誤った部分と判断する. \section{評価} \begin{figure}\begin{center}\hspace{10mm}\epsfile{file=struct_fine.ps,width=100mm}\end{center}\caption{音声翻訳システム概要}\label{fig:struct}\vspace{-2mm}\end{figure}実際の音声翻訳システムTDMTに上記の正解部分特定法を導入し,特定された部分のみの部分翻訳が可能な音声翻訳システムを構築した.図\ref{fig:struct}にシステムの概要を示す.音声認識結果文はまず原言語解析部に入力され,解析部は文全体,または部分文の構造と意味距離値を出力する.これらを用いて正解部分を特定し,特定された部分文のみを目的言語変換部に入力し翻訳を行なう.このシステムを用いて,本正解部分特定法にて特定された部分文やその翻訳結果文を出力し,これらを以下の観点から評価した.(1)正解部分特定率.(2)特定された部分のみを提示した場合の全体文に対する文理解率(3)特定された部分のみを翻訳した場合の翻訳文理解率音声認識手法として,音素HMMと単語bi-gram言語モデルを使ったマルチパス探索でワードグラフを出力する連続音声認識方式(Shimizu1996d)を用いた.データベースには旅行会話データベース(Morimoto1994c)の中の9会話分(9話者119文)を用いた.本方法は正解部分をトップダウンに特定するため,正しい文が入力され文全体が従来の解析にて成功した場合には,従来と同様,文全体を出力する.特定された部分のみを出力することの効果を評価するため,ここでは,この119文を用いて音声認識実験を行ない,誤認識した70文のみを評価に使用した.\subsection{正解部分特定率}\begin{figure}\begin{center}\epsfile{file=eval_rate1.ps,width=80mm}\end{center}\vspace{-3mm}\caption{形態素数の閾値と正解部分特定率との関係}\label{fig:rate1}\end{figure}\begin{figure}\begin{center}\epsfile{file=eval_rate2_fine.ps,width=80mm}\end{center}\caption{意味的距離の閾値と正解部分特定率との関係}\label{fig:rate2}\end{figure}本方法の正解部分の特定性能を確認するために,正解であると特定した部分に含まれる正解単語の再現率及び適合率を調べ,正解部分の特定を行う前の音声認識結果文の再現率及び適合率と比較した.\[{\rm再現率}=\frac{\mbox{結果文に含まれる正解単語数}}{\mbox{正解文の総単語数}}\]\[{\rm適合率}=\frac{\mbox{結果文に含まれる正解単語数}}{\mbox{結果文の総単語数}}\]正解部分の特定に使用した意味的距離の閾値と1つの表現パターンに含まれる形態素数の下限閾値とを様々に変えた場合の性能の違いも合わせて評価した.図\ref{fig:rate1},図\ref{fig:rate2}に示された再現率,適合率より,次の結果を得た.\vspace*{0.5cm}\begin{itemize}\item[結果1-1:]どのような閾値の条件下でも,正解単語適合率は92\%を上回っており,特定する前の認識結果と比較しても約15\%前後向上している.特定した部分が正解である信頼性は高い.\item[結果1-2:]正解単語再現率は20\%前後低下しており,本方法が特定しきれない正解部分も多い.\item[結果1-3:]形態素数の閾値については,閾値が大きくなるほど適合率は向上する.特に閾値が3以上の場合は,閾値が2の場合と比べて適合率は大きく向上している.本実験では音声認識時に単語bi-gramを用いており,たとえ誤った単語であっても2単語連鎖間だけを取り上げると自然なものが多い.閾値が2の場合は誤った2単語連鎖を正解部分と特定してしまったことが,3以上の場合に比べて適合率が低かった原因である.\item[結果1-4:]形態素数の閾値が4以上になると再現率が極端に低下する.\item[結果1-5:]意味的距離の閾値については,その値が小さくなるほど再現率は高く適合率が低くなる傾向がある.しかし,閾値の違いによる性能の違いは,形態素数の閾値を変化させた時に比べて少ない.\item[結果1-6:]意味的距離の閾値が0.2以下になると適合率は徐々に低下する.\end{itemize}\newpage本方法は,学習された表現パターンに基づく解析結果から正解部分を特定ため,たとえ正しく認識された単語であっても,表現パターンと適合しなければ正解部分と特定されず,再現率は低くなっている.しかし,本方法による適合率は高く,これは特定された部分が実際に正解単語である信頼性は高いことを示している.従って,単語N-gramにより制約された認識結果から正解部分を特定するために,学習パターン及び入力パターンに出現する単語間の意味的類似性を用いる本方法は,高い信頼度で正解部分を特定するのに有効であると考えられる.また,正解部分特定性能は形態素数閾値の変動に対しては敏感であり,たとえば,音声認識時の言語モデルの制約範囲より小さい値に閾値を設定すると適合率は低下する.言語モデルの制約範囲を越えた形態素数閾値を用いることが必要である.\vspace{-3mm}\subsection{特定部分文からの文理解率}\vspace{-1mm}\begin{table}\caption{正解部分特定前後の文理解率の違い}\label{tab:eval_under}\begin{center}\begin{tabular}{|c||c|c|c|c|c|}\hlineレベル&(L1)&(L2)&(L3)&(L4)&(L5)\\\hline\hline特定前&19.6\%&22.0\%&23.0\%&35.5\%&0.0\%\\\hline特定後&20.3\%&22.6\%&36.8\%&15.2\%&5.4\%\\\hline\end{tabular}\end{center}\end{table}本正解部分特定法が,文の意味を理解する上で有効かどうかを確認する.ここでは,音声認識誤り部分を含んだ文全体を提示した場合(特定前)と,本正解部分特定法により特定された部分のみを提示した場合(特定後)との,各々の文理解度を評価した.形態素数および意味距離値の閾値は,前章の実験での最適値(3と0.2)を設定した.評価方法は,特定前及び特定後の各々の結果文とそれに相当する正解文を比較して,次の5段階の評価レベルを結果文に与えるものである.評価は日本人5名で行なった.5段階の評価レベル内容を以下に示す.\begin{itemize}\item[(L1)]正解と比べて同じ意味であると理解できる.\vspace*{-2mm}\item[(L2)]少し不自然だが,意味は理解できる.\vspace*{-2mm}\item[(L3)]全体の意味はわからないが,部分的には理解できる.\vspace*{-2mm}\item[(L4)]間違えた意味にとってしまう.\vspace*{-2mm}\item[(L5)]正解部分がない.\end{itemize}各レベルにおける5名の平均回答数を評価結果を表\ref{tab:eval_under}に示す.次のことがわかった.\begin{itemize}\item[結果2-1:]本方法にて特定された部分のみ提示することで,誤った意味に解釈される文が半分以上減少した.((L4)が35.5\%→15.2\%)\item[結果2-2:]本方法にて特定された部分のみ提示することで,正しく意味が伝えられた文は増加したが,その割合は僅かである.((L1)と(L2)の和が41.6\%→42.9\%)\end{itemize}本正解部分特定法により特定された部分のみを提示することは,認識誤り文がそのまま誤った意味に解釈されてしまう問題を軽減する効果があった.しかし,より正しい意味を伝えるための効果は僅かであった.これは,正しい部分のみ提示しなくても,評価者が誤った文を自ら訂正しながら読むことで,正しい意味を理解できることを示している.\subsection{翻訳正解率に対する効果}次に,本正解部分特定法が,翻訳結果に及ぼす影響を確認する.ここでは,音声認識誤り部分を含んだ文全体を翻訳した場合(特定前)と,本正解部分特定法により特定された部分のみを翻訳した場合(特定後)との,各々の翻訳文理解度を評価した.閾値の条件は前章と同様に設定した.評価方法は,特定前及び特定後の各々の結果文の翻訳結果文とそれに相当する正解文をに対する翻訳結果文とを比較して,次の5段階の評価レベルを翻訳結果文に与えるものである.評価は英会話能力の高い日本人3名で行なった.評価レベルを以下に示す.(L1)から(L4)までは,前章の文理解率を評価する評価基準と同じである.(L5)は,特定された部分がない,または翻訳過程で処理が失敗するという理由で,翻訳結果が出なかったときに相当する.\begin{itemize}\item[(L1)]正解と比べて同じ意味であると理解できる.\vspace*{-2mm}\item[(L2)]少し不自然だが,意味は理解できる.\vspace*{-2mm}\item[(L3)]全体の意味はわからないが,部分的には理解できる.\vspace*{-2mm}\item[(L4)]間違えた意味にとってしまう.\vspace*{-2mm}\item[(L5)]翻訳ができない.\end{itemize}\begin{table}\caption{正解部分特定前後の翻訳率の違い}\label{tab:eval_trans}\center\begin{tabular}{|c||c|c|c|c|c|}\hlineレベル&(L1)&(L2)&(L3)&(L4)&(L5)\\\hline\hline特定前&11.9\%&0\%&0\%&2.4\%&85.7\%\\\hline特定後&25.7\%&16.7\%&26.6\%&21.0\%&10.0\%\\\hline\end{tabular}\end{table}各評価レベルにおける回答数の3名の平均値を評価結果を表\ref{tab:eval_trans}に示す.次の結果が得られた.\begin{itemize}\item[結果3-1:]従来11.9\%であった翻訳正解率が,本特定法の導入後は約2倍の25.7\%に向上している.\item[結果3-2:]本正解部分特定法の導入前は,85.2\%の文が翻訳できなかったが,本特定法の導入後は,69\%((L1)25.7\%+(L2)16.7\%+(L3)26.6\%)の文に対し,正しいかもしくは部分的にも理解できる翻訳文を出力できた.\item[結果3-3:]本正解部分特定法の導入前は,誤った意味に翻訳されることはほとんどなかったが,本特定法の導入後は,誤訳文が21\%に増加した.\end{itemize}以上の結果は,本正解部分特定法が翻訳結果に及ぼす効果は大きく,従来ほとんど翻訳できなかった誤認識文の約7割に対し,部分的にも意味を理解できる翻訳文を出力可能であることを示している.また,文全体を翻訳できなくても,内容の理解に必要な語が認識されていれば,その部分のみを翻訳することで,ほぼ正しく理解できる翻訳結果が出力できていた.この結果は,特定されなかった部分の修復を検討する際には,特定されない部分を全て修復する必要ななく,必要な単語のみの修復で十分であり,場合によっては,修復の必要がないものも多いことをを示唆している.先に述べたように,本正解部分特定法による特定部分の適合率は高く,特定された部分はほとんどが実際に正解部分である.しかし部分翻訳結果は,特定された原言語部分の順序で相当する部分翻訳結果を並べて提示しているため,各部分文は適切に翻訳されていたとしても,部分文系列から判断すると誤った意味に翻訳される場合があり,誤訳文が増加している原因はここにある.このような誤訳に関しては,今後解決していく必要がある.最後に次章にて,上記の翻訳結果の分析を通して,本正解部分特定法の音声翻訳に及ぼす効果と悪影響について考察する.\vspace{-2mm} \section{考察} \vspace{-2mm}従来の翻訳でも,誤認識文の11.9\%に対しては正しく翻訳することができている.これは使用した翻訳システムTDMTが,話し言葉に対応するために助詞や一部の文末表現が欠落した言い回しを学習しており,認識誤りがこれらの脱落誤りであった場合にでも正しく解析できたためである.しかし,実際の話し言葉には存在しないような言い回しに誤認識した場合には,翻訳することができなかった.本正解部分特定法の導入により,効果が見られた誤認識文の特徴は,主に以下のものである.\begin{itemize}\item[(a)]表現パターン間の挿入誤り\item[(b)]文末の言い回しの誤り\item[(c)]N個以上の単語からなる不自然な表現への誤り\item[(d)]学習データに稀な表現への誤り\end{itemize}また,誤認識ではないが,従来翻訳できなかった文が,本方法にて翻訳可能になったものに,次ののもがある.\begin{itemize}\item[(e)]複数文からなる発話\end{itemize}また逆に,本正解部分特定法を導入することで誤訳してしまった文の主な特徴は,次のものである.\begin{itemize}\item[(f)]文末の,人称,立場,肯定文か否定文か,などを決定する表現の誤り\end{itemize}以下に,上記の各々の項目を実際の例を用いて説明する.\subsection{表現パターン間の挿入誤り}\begin{table}\caption{挿入誤りに対する部分翻訳結果例}\label{tab:ex_error1}\center\begin{tabular}{|l|l|}\hline入力文&電話番号は五二七九です\\&(Thetelephonenumberisfivetwosevennine)\\\hline認識結果&電話番号は\underline{っお}五二七\underline{あっ}九です\\\hline正解部分特定結果&電話番号は....五二七......\\\hline部分翻訳結果&Thetelephonenumber....fivetwoseven......\\\hline\end{tabular}\end{table}自由発話文では,「ええ」や「あ」や「ん」などの冗長語が多く話されるため,音声認識では,これらの単語を認識単語として登録している場合が多い.ところが,日本語の冗長語は,短音素で構成されているものが多く,認識時には,他の単語の一部が,度々,冗長語と誤って認識されてしまう傾向がある.さらに,冗長語は文全体のどこで話されるかが予測しにくく,単語N-gramの枠組では制御しにくい性質がある.これらの理由で,音声認識結果では,この冗長語の挿入誤りが頻繁に起こる.表\ref{tab:ex_error1}は冗長語の挿入誤りのために,従来の翻訳処理では翻訳できなかった認識誤り文の例である.正解部分を特定して翻訳することで,「電話番号は」や「五二七」などの翻訳結果を出力することができている.ただし,「九です」は,冗長語「あっ」の挿入のために,他の部分とは独立している2形態素の局所的な部分であるとみなされ,正解部分と特定することができなかった.\subsection{文末表現の誤り}\begin{table}\caption{文末での置換誤りに対する部分翻訳結果例}\label{tab:ex_error2}\center\begin{tabular}{|l|l|}\hline入力文&部屋の予約をお願いしたいんですけれども.\\&(Iwouldliketoreservetheroom.)\\\hline認識結果&部屋の予約をお願いしたい\underline{ねすとも}\\\hline正解部分特定結果&部屋の予約をお願いしたい......\\\hline部分翻訳結果&......wouldliketoreservetheroom\\\hline\end{tabular}\end{table}間接的な表現や丁寧な表現が文末で話されることが頻繁にあり,文末の発声が不明瞭な場合は,この部分で認識誤りが起こることも多い.しかし,これらの表現が聞き取れなくても問題なく文の内容が理解できることも多く,そのような場合には,文末に至るまでの部分のみを翻訳することで,ほぼ意味が理解できる翻訳文を出力することができる.表\ref{tab:ex_error2}は文末での丁寧な表現の部分で音声認識誤りを起こした例である.前半部のみを特定し翻訳することで,意味の理解できる翻訳結果を出力することができている.ただしこの例の場合は,文末表現が人称を決定しているため,主語の「I」を翻訳することはできなかった.\subsection{N個以上の単語からなる不自然な表現への誤り}\begin{table}\caption{大局的にみて不自然な表現に対する部分翻訳結果例}\label{tab:ex_error3}\center\begin{tabular}{|l|l|}\hline入力文&お部屋のご希望はございますか?\\&(Doyouhaveanypreferencefortheroom)\\\hline認識結果&\underline{親子}のご希望はございますか?\\\hline正解部分特定結果&..gokibouwagozaimasuka\\\hline部分翻訳結果&Doyouhaveanypreference..?\\\hline\end{tabular}\end{table}単語N-gramにおけるN個の単語を越えた大局的な範囲で判断した時に,不自然であると思われる認識誤りは,認識時には発見されない.本方法で正解部分を特定することにより,このような誤りを発見できる利点がある.表\ref{tab:ex_error3}は,入力文の「お部屋」を「親子」と誤って認識した例である.しかしこの例では,単語bi-gramで制御されている単語の2連鎖間の関係には不自然さはなく,文頭に「親子」と話すことも,「親子」+「の」の連鎖で話すことも不自然ではない.しかし,「親子」+「の」+「ご希望」の3連鎖でみると,その内容は少し不自然である.本正解部分特定法を用いると,「親子のご希望」の意味的距離値が閾値を越えることから,「親子の」が除去され「ご希望はございますか」のみ翻訳することができる.\subsection{学習データに稀な表現への誤り}\begin{table*}\caption{学習データに稀な表現に対する部分翻訳結果例}\label{tab:ex_error4}\center\begin{tabular}{|l|l|}\hline入力文&鈴木直子と言います\\&(IamNaokoSuzuki)\\\hline認識結果&鈴木直子と\underline{い}ます\\&(IstaywithNaokoSuzuki)\\\hline正解部分特定結果&鈴木直子と....\\\hline部分翻訳結果&....NaokoSuzuki\\\hline\end{tabular}\end{table*}本翻訳システムは用例主導型のアプローチを採用しており,一般に構造的または意味的に曖昧性を含む文が入力されても,既に学習された表現パターン採用することで,その曖昧性を解消することができる.そのために,認識誤りの結果,学習データには存在しないが一般には不自然ではない文に誤ってしまった場合でも,誤ったまま翻訳は行なわず,正解部分を特定して部分的にのみ翻訳することができる.表\ref{tab:ex_error4}は,入力文中の「言い」が「い」と誤認識した例である.しかし,認識結果の「鈴木直子といます」は,一般的には自然な文であり,誤りを判断することは難しい.しかし,本旅行案内タスクの学習データには稀な文であるため,意味距離値が閾値を越えてしまい,「鈴木直子と」の部分のみを翻訳することができた.\subsection{複数文からなる発話文の翻訳}音声認識結果に誤りがなくても,一発話に複数の文が含まれている場合には,従来の翻訳システムでは文の境界を解析できないため,翻訳結果を出力できなかった.本方法を用いることで,各文を独立に翻訳することが可能となるため,結果的には,文境界を検出して各文を翻訳した場合と同じ結果を出力することが可能となる.たとえば一発話として「わかりました,ありがとうございました」と発声した場合,従来の翻訳システムでは,結果を出力できなかったが,本部分翻訳を行なうことで,「Isee,thankyouverymuch」と翻訳することができた.\subsection{正解部分のみを翻訳することによる誤訳}\begin{table*}\caption{文末表現の認識誤りに対する部分翻訳の誤訳例}\label{tab:ex_error5}\center\begin{tabular}{|l|l|}\hline入力文&都合で泊まれなくなった\\&(Ican'tstayforsomereason)\\\hline認識結果&都合で泊まれ__なった\\\hline正解部分特定結果&都合で泊まれ..\\\hline部分翻訳結果&..canstayforsomereason\\\hline\end{tabular}\end{table*}文末での,肯定文か否定文か,あるいは,平叙文か疑問文か,を決定する表現が認識誤りを起こした場合,本方法で特定された部分文のみ翻訳することで,違った意味に解釈される翻訳文を出力してしまうことがある.表\ref{tab:ex_error5}の例は,入力文中の「なく」という否定を表す助動詞が,認識されず欠落してしまった例である.結果的に,「都合で泊まれ」のみが特定され,正しくは,「cannot」と否定文として翻訳されるべきものが,「can」と肯定文となり,逆の意味に翻訳されてしまった. \section{まとめ} 自由発話文における音声認識誤り文を解析するために,予め学習された話し言葉の表現パターンと入力文における表現パターンとの意味的類似性を用いて,認識結果文から正しく認識された部分を特定する手法を提案した.さらに,本正解部分特定機能を音声翻訳システムに導入し,音声認識結果の正解部分のみを部分翻訳するシステムを構築した.本正解部分特定率の評価は,本方法が特定した部分の96\%が実際に正解部分であり,高い信頼度で正解部分を特定できることを示していた.また,本正解部分特定法が文の意味の理解に及ぼす効果を評価した.認識結果から特定された部分のみを提示することは,誤りを含んだ認識結果をそのまま提示するよりも誤った意味に理解してしまう割合を半分以上軽減する効果があった.さらに,特定した正解部分のみを部分翻訳することで,従来翻訳できなかった誤り文の約7割に対して,正しいか部分的にも正しい意味が理解できる翻訳文を出力できる効果が示された.このことは,音声認識誤り文に対して誤り部分を全て修復しなくても,必要な部分のみの修復,場合によっては修復を行なわなくても,意味の通じる音声翻訳が可能であることを示唆している.今後は,音声認識誤り文に対する高品質な翻訳をめざして,十分に意味が理解できなかったり,誤った翻訳結果を出力した翻訳結果に対して,特定できなかった部分の修復対策を検討する予定である.\begin{thebibliography}{}\bibitem[]{}Bahl,L.R.,Jelinek,F.,andMercer,R.L.(1983).``AMaximumLikelihoodApproachtoContinuousSpeechRecognition,''{\itIEEETrans.onPatternAnalysisandMachineIntelligence},179-199.\bibitem[]{}Furuse,O.andIida,H.(1996c).``IncrementalTranslationUtilizingConstituentBoundaryPatterns''{\itproc.ofCOLING'96},412-417.\bibitem[]{}古瀬蔵,隅田英一郎,飯田仁(1994a).``経験的知識を活用する変換主導型機械翻訳''情報処理学会論文誌,Vol.35(3),414-425.\bibitem[]{}Lavie,A.,Gates,D.,Gavalda,M.,Mayfield,L.,Waibel,A.andLevin,L.(1996a).``MultilingualTranslationofSpontaneouslySpokenLanguageinaLimitedDomain''.{\itProc.of16thICCL},442-447.\bibitem[]{}Mellish,C.S.(1989).``Somechart-basedtechniquesforparsingill-formedinput.''{\itproc.oftheAnnualMeetingoftheACL},102-109.\bibitem[]{}Morimoto,T.,etal.(1994c).``ASpeechandlanguagedatabaseforspeechtranslationresearch''{\itProc.ofICSLP'94},1791-1794.\bibitem[]{}Saitou,H.andTomita,M.(1988).``Parsingnoisysentences,''{\itproc.ofCOLING'88},561-566.\bibitem[]{}Shimizu,T.,Yamamoto,H.,Masataki,H.,Matsunaga,S.andSagisaka,Y.(1996d).``Spon\-taneousDialogueSpeechRecognitionusingCross-wordContextConstrainedWordGraphs''{\itproc.ofICASSP'96},145-148.``\bibitem[]{}隅田英一郎,古瀬蔵,飯田仁(1994b).``英語前置詞句係り先の用例主導あいまい性解消''電子通信学会論文誌D-II,Vol.J77-D-II(3),557-565.\bibitem[]{}竹沢寿幸,森元逞(1996b).``部分木に基づく構文規則と前終端記号バイグラムを併用する対話音声認識手法''電子通信学会論文誌D-II,Vol.J79-D-II(12),2078-2085.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{脇田由実(非会員)}{1982年,九州芸術工科大学音響設計学科卒業.同年,松下電器(株)入社.松下電器音響研究所,中央研究所を経て94年より,(株)エイ・ティ・アール音声翻訳通信研究所に出向.音声認識処理,音声翻訳処理の研究に従事.98年より,松下電器(株)中央研究所に戻り,現在,音声言語処理関連の研究開発に従事.日本音響学会,電子通信学会,各会員.}\bioauthor{飯田仁(正会員)}{1972年,早稲田大学理工学部数学科卒業.74年同大学院修士課程(数学専攻)修了.同年.日本電信電話公社武蔵野電気通信研究所入社.日本電信電話株式会社基礎研究所を経て86年よりエイ・ティ・アール自動翻訳電話研究所に出向.同研究所終了に伴い93年よりエイ・ティ・アール音声翻訳通信研究所に再出向.現在,音声対話の理解・翻訳の研究に従事.95年度科学技術庁長官賞受賞.96年度科学技術情報センター賞受賞.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,ACL各会員.}\bioauthor{河井淳(非会員)}{1991年,大阪市立大学理学部物理学科卒業.同年,(株)東洋情報システム入社.93年より,(株)ATR音声翻訳通信研究所に出向.3年半の出向期間を終え,現在は(株)東洋情報システムに勤務.自然言語処理,音声認識処理関連の研究開発に従事.現在,機械翻訳システムの開発などに従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V07N02-02
\section{はじめに} \label{sec:introduction}近年,WWWを通じて英字新聞記事に接する機会が増えてきたことに伴い,より正確に英文記事を日本語に翻訳する必要性が高まってきている.新聞記事は見出しと本文から構成されるが,見出しは記事の最も重要な情報を伝える表現である\footnote{テキストから重要な文を選択するテキスト抄録システムにおいて,見出しを最も重要な文であるとみなす考え方\cite{Nakao97,Yoshimi99}がある.}ため,見出しを正確に翻訳することは他の表現の翻訳に比べてより一層重要である.英字新聞記事の見出しは,できるだけ少ない文字数でできるだけ多くの情報を伝えるためや,読者の注意を引くために,通常の文の表現形式とは異なる特有の形式をしている.このため,従来の英日機械翻訳システムでは適切に翻訳できない場合が多い.その原因は主に,見出し特有表現の構文解析を適切に行なうための構文解析規則が,様々な種類や分野のテキストを扱うことを前提に開発された機械翻訳システムでは記述されていないことにあると考えられる.既存の構文解析規則で適切に扱えない表現への対応策の選択肢としては,特殊な表現形式が扱えるように構文解析規則を拡張するアプローチと,既存の構文解析規則は変更せず,既存の規則でも適切に処理できるように原言語の表現を書き換える新たなモジュールを設けるアプローチが考えられる.後者のアプローチとして,長い文の構文解析が失敗しやすいという問題に,長文を複数の短文に分割することによって対処する方法\cite{Kim94}や,書き換えを行なうべきかどうかの判定精度を高めるために,完全な構文情報が得られる構文解析終了後にまで書き換え規則の適用を遅らせる方法\footnote{この方法は,日英間の構造的な差異を調整し,より自然な翻訳を生成するために構文構造を書き換える方法\cite{Nagao85a}に近いと考えられる.}\cite{Shirai95}などがこれまでに示されている.実際に運用されている機械翻訳システムでは構文解析規則の規模は非常に大きくなっているため,既存の規則との整合性を保ちながら新たな規則を追加することは容易ではない.また,特殊な表現を扱うための規則を追加すると規則の汎用性が損なわれる恐れがある.これに対して,既存の規則には手を加えず,原言語の表現を書き換える前編集系を新たに開発する方が,書き換え結果が既存の構文解析規則で正しく解析できるかどうかを人手で判断することは比較的容易であるという点や,規則の汎用性を維持することができるという点でシステムの開発,維持上望ましい.本研究では,従来の機械翻訳システムによる新聞記事見出し翻訳の品質が低いという問題に対して自動前編集モジュールを設けるアプローチを採り,浅いレベルの手がかりに基づいて原言語の表現を書き換えることによってこの問題を解決することを目指している.自動前編集による見出し翻訳の品質改善の一例として本稿では,見出し特有表現のうち比較的高い頻度\footnote{284件の見出しを対象とした我々の調査で確認された見出し特有の表現\cite{Uenoda78}は,be動詞の省略を含むものが73件(25.7\%),等位接続詞のコンマでの代用を含むものが25件(8.8\%),``say''のコロンでの代用を含むものが4件(1.4\%)などである.ただし,現在形で過去の事象を表す表現や冠詞の省略などは今回の調査では考慮しなかった.}で見られるbe動詞の省略現象に対象を絞り,be動詞が省略されている見出しにbe動詞を正しく補うための書き換え規則を,形態素解析と粗い構文解析\footnote{具体的には,\ref{sec:preeditHeadline:cond}\,節で述べる手続きによる処理を指す.}によって得られる情報に基づいて記述し,これらの書き換え規則によって適切な書き換えが行なえることを示す.本稿の対象は英字新聞記事見出しという限定されたものであるが,英字新聞記事は英日機械翻訳システムの一般利用者が日々接することが多いテキストの一つであるため,実用的なシステムにおける見出し解析の重要性は高い.また,本稿の目的はbe動詞を補うことによって見出し解析の精度を向上させることにあり,書き換えた見出しの翻訳が日本語新聞記事の見出しの文体に照らし合わせて適切であるかどうかは本稿の対象外である. \section{英々変換系} \label{sec:preedit}\subsection{英々変換の枠組}\label{sec:preedit:flow}本節で述べる自動前編集系(英々変換系)を組み込んだ機械翻訳システムにおける解析の流れを図\ref{fig:flow}\,に示す.このシステムでは,形態素解析終了後に英々変換を実行して英語表現を書き換えた後,書き換えた部分の形態素解析を行ない,表現全体の形態素解析結果を構文解析系に送る.一度目の書き換え結果に対する構文解析に失敗した場合\footnote{本稿では,入力表現全体を覆う構文構造が生成できないことを構文解析の失敗と呼ぶ.},処理の制御は英々変換に戻る.再度英々変換を行なう場合には,各書き換え規則に記述されている規則の信頼度(後述)に従って,一度目の英々変換では用いなかった規則を新たに適用したり,逆に一度目の処理で行なった書き換えを取り消したりする\footnote{二度目の構文解析に失敗した場合には,断片的な構文構造を内部表現とする.}.\begin{figure}[htbp]\begin{center}\fbox{\epsfile{file=flow2.eps,width=0.6\columnwidth}}\end{center}\caption{解析の流れ}\label{fig:flow}\end{figure}英々変換系での処理は,形態素解析結果に対して先頭から順に書き換え規則の適用条件との照合を行なっていき,適用条件が満たされる部分を順次書き換えていく.この英々変換系は,新聞記事見出しの書き換え専用に設計したものではなく,通常の表現も対象とした一般的な枠組である.実際,見出し以外の表現に対する書き換え規則として,挿入語句を識別する規則や長い表現を分割する規則などが記述されている.\subsection{書き換え規則の形式}\label{sec:preedit:ruleformat}書き換え規則には,次に示すように,適用条件と書き換え操作の他,制御情報として適用抑制規則集合と信頼度を記述することができる.\[(\,識別番号,適用条件,書き換え操作,適用抑制規則集合,信頼度\,)\]書き換え対象候補が適用条件を満たすかどうかの判定は,書き換え対象候補の形態素語彙属性や構文属性を調べる手続きを用いて行なう.書き換え操作には,英語表現を追加,削除,置換する操作と,システム固有の編集記号を付加する操作がある.実験に用いたシステムでは,利用可能な編集記号として,多品詞語の品詞を指定する記号や,節や句の範囲や従属先を指定する記号など54種類が定義されている.編集記号の付加によって解釈の曖昧性が減るため,解析の精度と速度の向上が期待できる.ある規則$R$に与えられている適用抑制規則集合は$R$の適用を抑える他の規則に関するメタ条件を表し,規則$R$はその適用抑制規則集合に記述されている識別番号の規則が既に適用されている場合には適用されない.規則$R$の適用抑制規則集合には,$R$の書き換え対象と重複する部分を書き換えようとする規則だけでなく,書き換え対象が$R$のものと重複しない規則を含めてもよい.規則には,その信頼性が高く,規則の適用によって翻訳品質が向上することがほぼ確実な規則もあれば,信頼性があまり高くない規則もある.信頼度は,このようなことを考慮して,信頼性があまり高くない規則による悪影響を抑えるために設定したものである.各規則には,その信頼性に応じてA,B,Cのいずれかの信頼度を与える.信頼度Aの規則は最初の構文解析の前に適用し,構文解析に失敗してもこの規則による書き換えは取り消さない.規則に信頼度Aを与えるのは,この規則を適用しないと構文解析に失敗することがほぼ確実であり,たとえこの規則によって書き換えた表現の構文解析に失敗して断片的な構文構造しか得られなかったとしても,この規則を適用しない場合の(断片的な)構文構造から生成される翻訳よりも高い品質の翻訳が生成されると期待される場合である.信頼度Bの規則は最初の構文解析の前に適用するが,最初の構文解析に失敗した場合,この規則による書き換えは取り消す.信頼度Cの規則は最初の構文解析の前には適用せず,最初の構文解析に失敗した場合に初めて適用する.簡単な書き換え規則の例を図\ref{fig:EtoE_rule}\,に示す.この規則は新聞記事見出しの書き換え用ではないが,倒置文の構文解析が失敗することに対処するためのものである.この規則は,現在着目している語が入力文の先頭語であり(\verb+p==1+),着目語の(細分類)品詞候補として過去分詞の可能性があるが名詞の可能性がなく,さらに着目語の直後の語が``is''であるときに適用される.この適用条件が満たされると,着目語の先頭文字を小文字に変換し,``Whatis''という語句を着目語の直前に挿入する.この処理によって,例えば``AffiliatedistheparentcompanyofGlobeNewspaperCo.''という文が``WhatisaffiliatedistheparentcompanyofGlobeNewspaperCo.''に書き換えられる.\begin{figure}[tbhp]\begin{RULE}{0.9\textwidth}\begin{verbatim}(301,(p==1&&word_class(p,past_participle)==TRUE&&word_class(p,noun)==FALSE&&word(p+1,"is")==TRUE),(to_lower(p),insert(p-1,"Whatis")),(),A)\end{verbatim}\end{RULE}\caption{書き換え規則の例}\label{fig:EtoE_rule}\end{figure} \section{英字新聞記事見出しの調査} \label{sec:investigation}英字新聞記事の見出しでは,述語の時制や態などに関する情報の省略や,冠詞の省略,略語の使用,等位接続詞のコンマでの代用など文字数を節約するための様々な工夫がなされている\cite{Uenoda78}.本研究では,これら見出し特有の現象のうち時制情報などの省略に関連するbe動詞の省略現象を扱うことにし,ロイター記事\cite{Lewis97}の見出し284件を対象として次の四項目の調査を行なった.\begin{enumerate}\itembe動詞が省略されているのはどのような場合か.\label{enum:key}\itembe動詞が省略されている見出しをそのまま我々の実験システムで翻訳した場合の翻訳品質はどの程度か.\label{enum:quality}\itembe動詞が省略されている見出しにbe動詞が適切に補われた場合,項目(\ref{enum:quality})の翻訳に比べてどの程度品質が改善されるか.\label{enum:improve}\item形態素語彙,構文上のどのような現象が,be動詞が省略されている見出しとそうでない見出しを区別する手がかりとなるか.\label{enum:feats}\end{enumerate}本節では項目(\ref{enum:key}),(\ref{enum:quality}),(\ref{enum:improve})についての調査結果を示し,項目(\ref{enum:feats})については\ref{sec:preeditHeadline:cond}\,節で述べる.\subsection{\protect\KEYの種類}\label{sec:investigation:key}be動詞の省略は調査対象の見出し284件のうち73件において見られた.一般にbe動詞の省略は一つの見出しにおいて複数箇所で行なわれうるが,これら73件の見出しでは一箇所での省略しか行なわれていなかった.通常の表現形式ではbe動詞と結び付けられ全体で定形述語と解釈される表現をここでは\KEYと呼ぶ.73件の見出しに出現した\KEYは,受動態用法の過去分詞,to不定詞,現在分詞,叙述用法の形容詞,前置詞句,複合動詞の構成素の六種類であった.ここで複合動詞の構成素とは,be動詞と結合して複合動詞となる語句を意味し,例えば``beup''における``up''などである.各\KEYごとに,それが出現した見出しの例(上段)と,省略箇所に人手でbe動詞を補った表現(下段),さらに出現件数を表\ref{tab:stat}\,に示す.表\ref{tab:stat}\,では,\KEYに下線を付し,人手で補ったbe動詞を斜字体で示している.\begin{table}[htbp]\caption{be動詞が省略されている見出しの例と件数}\label{tab:stat}\begin{center}\begin{tabular}{|l||l|r|}\hline\multicolumn{1}{|c||}{\KEY}&\multicolumn{1}{|c|}{例}&\multicolumn{1}{|c|}{件数}\\\hline\hline過去分詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineACalabrianbank\underline{taken}overbycommissioners\headlineBCalabrianbank{\itwas}\underline{taken}overbycommissioners\label{HEADLINE2:taken}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&24\\\hlineto不定詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineAU.S.official\underline{tovisit}Japanastraderowgrows\headlineBU.S.official{\itis}\underline{tovisit}Japanastraderowgrows\label{HEADLINE2:visit}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&17\\\hline現在分詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineASenate\underline{preparing}fornewU.S.budgetbattle\headlineBSenate{\itis}\underline{preparing}fornewU.S.budgetbattle\label{HEADLINE2:preparing}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&12\\\hline形容詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineAEarlygulfcashsoybeansslightly\underline{firmer}\headlineBEarlygulfcashsoybeans{\itare}slightly\underline{firmer}\label{HEADLINE2:firmer}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&11\\\hline前置詞句&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineANoprospect\underline{insightofECbudgetaccord}\headlineBNoprospect{\itis}\underline{insightofECbudgetaccord}\label{HEADLINE2:insightof}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&6\\\hline複合動詞の構成素&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineAPanAmFebruaryloadfactor\underline{up}\headlineBPanAmFebruaryloadfactor{\itwas}\underline{up}\label{HEADLINE2:up}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&3\\\hline\multicolumn{1}{|c||}{合計}&&73\\\hline\end{tabular}\end{center}\end{table}\subsection{従来システムによる見出し翻訳の品質}\label{sec:investigation:quality}従来システムによる見出し翻訳の問題点を明らかにしておくために,be動詞が省略されている73件の見出しをそのまま我々の実験システムで処理し,その結果を評価した.評価の際に翻訳のどの部分を対象とするかに関して,見出し全体を対象とすることと,\KEYに直接関連がある部分だけを対象とすることが考えられる.ここではbe動詞の省略が翻訳品質に及ぼす影響に関心があるため,後者の局所的な評価を行なった.評価値は合格か不合格かの二値とした.合否判定は,翻訳が文法的であるかという観点と,文法的な翻訳の場合,翻訳の意味が元の見出しの意味と一致しているかという観点から行なった.翻訳の文体が新聞記事見出しとして適切であるかどうかは考慮しなかった.合格と認める翻訳は文法的であり意味的に等価なものである.be動詞が省略されいることが原因で文法的でないか意味的に等価でない翻訳が生成された場合は不合格とした.\begin{table}[htbp]\vspace{-3mm}\caption{be動詞が省略されている見出しの翻訳品質}\label{tab:quality}\begin{center}\begin{tabular}{|l||r|r|}\hline\multicolumn{1}{|c||}{\KEY}&\multicolumn{1}{|c|}{合格}&\multicolumn{1}{|c|}{不合格}\\\hline\hline過去分詞&16&8\\to不定詞&1&16\\現在分詞&10&2\\形容詞&6&5\\前置詞句&2&4\\複合動詞の構成素&1&2\\\hline\multicolumn{1}{|c||}{合計}&36&37\\\hline\end{tabular}\end{center}\end{table}評価結果を表\ref{tab:quality}\,に示す.\KEY全体では,合格と不合格の件数はそれぞれ36件と37件でほぼ同じであるが,\KEY別に見ると,現在分詞の場合には12件中10件が合格したのに対してto不定詞の場合には17件中16件とほとんどが不合格となった.\KEYが現在分詞である場合にほとんどが合格となるのは,\KEYをその前方に存在する名詞句に従属させた解釈が,be動詞を補った場合の翻訳とほぼ等しい意味を伝えている場合,その解釈を合格としたためである.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:preparing})は本来be動詞を補って(H\ref{HEADLINE2:preparing}')のように解釈されるべきであるが,(H\ref{HEADLINE2:preparing})の翻訳「新しい米国の予算の戦いに備えて準備している上院」は,(H\ref{HEADLINE2:preparing}')の翻訳「上院は,新しい米国の予算の戦いに備えて準備している」と意味的に等しいので合格とした.他の\KEYについてもこのような場合には合格とした.\KEYがto不定詞の場合には,\KEYをその前方の名詞句に従属させると,be動詞を補った場合とは意味が大きく異なる翻訳が生成された.不合格となった16件はすべて,to不定詞が「$\cdots$するための」と訳され,本来伝えられるべき予定や運命などの意味に解釈することができなかった.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:visit})は予定を表す文と解釈しなければならないが,(H\ref{HEADLINE2:visit})の翻訳「日本を訪問するための米国の職員」はそのように解釈できない.元の意味と大きく異なる意味を伝える翻訳が生成されたもう一つの例は,過去分詞形と解釈されるべき\KEYが定形(現在形または過去形)と解釈された場合である.例えば次の見出し(H\ref{HEADLINE:sued})では``sued''が過去形とみなされ,対象格と解釈されるべき``Three''が主格と解釈された.\begin{HEADLINE}\headlineThree\underline{sued}overballvalvesforninemilepoint\label{HEADLINE:sued}\end{HEADLINE}規則動詞や一部の不規則動詞の過去分詞形は定形と表記が同一であるため,このような誤りが生じる見出しの件数は少なくない.不合格と判定された37件の見出しを正しく翻訳するためには,be動詞を補わなければならない.これに対して,合格と認められた36件については,be動詞を補った場合の翻訳とほぼ等しい意味を伝える翻訳が生成されるので,英日翻訳の見地からはbe動詞補完は可能ではあるが必要ではないという捉え方もできるかも知れない.しかし,これら36件の見出しも読者には通常be動詞を補って理解されるので,本研究では見出しの構文的解釈の見地からbe動詞を補う対象に含める.従って本稿では,be動詞が省略された見出しとは,be動詞を補うべき見出しとbe動詞を補うことができる見出しを合わせたものを指している.\subsection{期待される改善度}\label{sec:investigation:improve}be動詞を補うことによってどの程度の品質改善が期待できるかをあらかじめ確認しておくために,73件の見出しに人手でbe動詞で補った表現を実験システムで処理し,be動詞が補われていない見出しの翻訳と比較した.評価値は,改善,同等,改悪の三値とした.\ref{sec:investigation:quality}\,節の評価で合格となった見出しの翻訳が改善されているとは,be動詞を補うことによって\KEYとその前方の名詞句との構文的関係が改善されたことを意味する.例えば見出し(H\ref{HEADLINE2:preparing})の翻訳「新しい米国の予算の戦いに備えて準備している上院」と比較して,be動詞を補った表現(H\ref{HEADLINE2:preparing}')の翻訳「上院は,新しい米国の予算の戦いに備えて準備している」はより適切であるとみなす.改善箇所と改悪箇所の両方が存在している場合,あるいは改善も改悪も見られない場合には同等とする.\begin{table}[htbp]\caption{be動詞補完による翻訳品質の改善度}\label{tab:improve}\begin{center}\begin{tabular}{|l||r|r|r|r|r|r|}\hline&\multicolumn{3}{|c|}{合格}&\multicolumn{3}{|c|}{不合格}\\\cline{2-7}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{\KEY}}&\multicolumn{1}{|c|}{改善}&\multicolumn{1}{|c|}{同等}&\multicolumn{1}{|c|}{改悪}&\multicolumn{1}{|c|}{改善}&\multicolumn{1}{|c|}{同等}&\multicolumn{1}{|c|}{改悪}\\\hline\hline過去分詞&14&0&2&7&1&0\\to不定詞&1&0&0&16&0&0\\現在分詞&9&0&1&1&1&0\\形容詞&5&0&1&5&0&0\\前置詞句&2&0&0&4&0&0\\複合動詞の構成素&1&0&0&2&0&0\\\hline\multicolumn{1}{|c||}{合計}&32&0&4&35&2&0\\\hline\end{tabular}\end{center}\end{table}評価結果を表\ref{tab:improve}\,に示す.\ref{sec:investigation:quality}\,節の評価で合格となった見出し36件のうち32件と,不合格となった見出し37件のうち35件について,より適切な翻訳が得られている.このことから,英々変換によってbe動詞を正しく補うことができれば,システムの既存部分に変更を加えることなく見出し翻訳の品質が改善されると期待できる.なお,合格となった見出し36件のうち4件の翻訳品質が低下しているが,この原因は辞書または構文解析規則の不備であり,本稿の主要目的であるbe動詞の補完とは直接の関係はない. \section{be動詞補完規則の記述} \label{sec:preeditHeadline}be動詞補完精度の評価指標には,補完漏れ件数の少なさを示す再現率と不要な補完件数の少なさを示す適合率を用いるが,規則の記述方針として,漏れを減らすことよりも不要な補完を抑えることを重視した.その理由は,不要な補完が行なわれた場合,構文構造と意味が大きく変化するため悪影響が出るのに対して,\ref{sec:investigation:quality}\,節で述べたように,be動詞が省略されている見出し73件のうち36件については補完漏れが生じた場合でもある程度の品質の翻訳が得られることなどである.\subsection{適用条件}\label{sec:preeditHeadline:cond}本研究で設定した適用条件は,be動詞が省略されている見出しとそうでない見出しを区別する一般的な手がかりになりうる現象を284件の見出しにおいて分析した結果に基づいており,以下で説明する形態素語彙,構文上の四条件から主に構成されている.適用条件には,これら一般的な条件の他に,例えば``of''など特定の前置詞で導かれる前置詞句を処理対象外とする条件など,語彙に依存した個別条件も若干含まれる.\subsubsection{\KEY前方での名詞句の存在}be動詞が省略されている見出しでは,\KEYの前方に名詞句が存在する.より具体的には名詞句は,表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:taken})などのように\KEYの直前に現れるか,見出し(H\ref{HEADLINE2:firmer})のように\KEYの直前に副詞が存在しその副詞の直前に現れる場合がほとんどであるので,次の条件\ref{COND:leftnp}\,を設ける.\begin{COND}\cond\KEYCの直前に,あるいは\KEYC直前の副詞の直前に名詞句が存在する.\label{COND:leftnp}\end{COND}見出しに現れる名詞句は比較的単純な構造をしていることが多いので,次のような構造を持つ名詞句NPを検出する手続きを記述した.\begin{eqnarray*}\mbox{NP}&=&\mbox{NP0}\(\mbox{P}\\mbox{NP0})^?\\\mbox{NP0}&=&(\mbox{AV}^?\\{\mbox{AJ}|\mbox{Ven}|\mbox{Ving}\})^?\\mbox{N}^+\end{eqnarray*}ここで,P,AV,AJ,Ven,Ving,Nはそれぞれ前置詞,副詞,形容詞,過去分詞,現在分詞,名詞を表し,上付き記号?と+はそれぞれ一回以下,一回以上の出現を意味する.\subsubsection{潜在節と競合する節の非存在}be動詞と\KEYCを組み合わせると定形述語が復元され,それまで通常の構文解析で節と解釈できなかった部分が節と解釈できるようになる.このような節をここでは潜在節と呼ぶ.潜在節の主語になる名詞句は,前述の条件\ref{COND:leftnp}\,を満たす名詞句である.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:preparing})にbe動詞を補うと,(H\ref{HEADLINE2:preparing}')のように定形述語``{\itis}preparing''が復元され,見出し全体が名詞句``Senate''を主語とする一つの節になる.be動詞補完の可否を決める手がかりの一つとして,潜在節と構文的に競合する節の有無に着目する.be動詞が省略されている見出し(H\ref{HEADLINE2:taken})ないし(H\ref{HEADLINE2:up})では潜在節と構文的に競合する節は存在しない.これに対して,次の見出し(H\ref{HEADLINE:lift})では潜在節と構文的に競合する節が存在する.\begin{HEADLINE}\headlineReaganhopestoliftJapansanctionssoon\label{HEADLINE:lift}\end{HEADLINE}この見出しにおける潜在節は``{\itare}tolift''を主辞とし``Reaganhopes''を主語とする節であるが,この解釈は既存の定形述語``hopes''を主辞とし``Reagan''を主語とする通常の節としての解釈と構文的に競合する.このような場合には経験的に,通常の節としての解釈を優先することにする.次の見出し(H\ref{HEADLINE:lost})では,``lost''の直前にbe動詞を挿入することは構文的に不可能であり,``wascarrying''を主辞とする通常の節としての解釈しか許されない.\begin{HEADLINE}\headlineVessellostinPacificwascarryinglead\label{HEADLINE:lost}\end{HEADLINE}見出し中に節が存在しても,それが潜在節と構文的に競合しない場合にはbe動詞を補う.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:visit})には節``traderowgrows''が存在するが,この節と潜在節``U.S.official{\itis}tovisitJapan''とは節境界を示す接続詞``as''によって分離されており競合しないので,(H\ref{HEADLINE2:visit})は(H\ref{HEADLINE2:visit}')のように書き換える.このような考察に基づき,潜在節と構文的に競合する節が存在しない場合に限り見出しにbe動詞を補うことにし,次の条件\ref{COND:sbjpred}\,を設ける.\begin{COND}\cond潜在節と構文的に競合する節が存在しない.\label{COND:sbjpred}\end{COND}\ref{sec:investigation:quality}\,節の見出し(H\ref{HEADLINE:sued})では,``sued''を過去分詞形と解釈しbe動詞を補った潜在節``Three{\itwere}sued$\cdots$''と,``sued''を過去形と解釈した節``Threesued$\cdots$''が構文的に競合する.このように,定形と同一表記の過去分詞が\KEYCであり,この\KEYCを定形と解釈した動詞を主辞とする節が潜在節と構文的に競合する場合には,条件\ref{COND:sbjpred}\,ではなく,後述する条件\ref{COND:pastpart}\,に従うものとする.節境界は接続詞や関係詞やコンマなどの節境界標識によって明示されている場合もあれば明示されていない場合もあるが,接続詞で明示されている場合のみを扱う.さらに,見出しは高々二つの節から構成され,かつ一方が他方の中央埋め込み節ではないものと仮定する.条件\ref{COND:sbjpred}\,が満たされるかどうかを厳密に判定するためには構文解析を行なう必要があるが,ここでは次のような手順で行なう.\setcounter{algocounter}{0}\begin{ALGO}\step見出し中に節境界標識の接続詞が存在し,それによって見出しが二分される場合,そのうち着目している\KEYCを含む部分をステップ\ref{ALGO:sbjpred:parse}\,の処理対象とする.節境界標識が存在しない場合,見出し全体をステップ\ref{ALGO:sbjpred:parse}\,の処理対象とする.\step処理対象の先頭から順に,述語になり得る定形動詞を探していく.もし見つかれば,その述語候補と人称,数が一致する名詞を主辞とする名詞句がその前方に存在するかどうかを調べる\footnote{名詞句の検索は条件\ref{COND:leftnp}\,の判定で用いる手続きと同じ手続きを用いて行なう.}.もしそのような名詞句が存在すれば,それを主語とみなし,条件\ref{COND:sbjpred}\,が満たされないものとする.ただし,着目している\KEYCが定形と同一表記の過去分詞である場合,この\KEYCを定形と解釈した動詞を述語候補とはしない.\label{ALGO:sbjpred:parse}\end{ALGO}\subsubsection{過去分詞に関する条件}\KEYCに定形か過去分詞形かの曖昧性がある場合,\KEYCを定形と解釈すれば,この\KEYCを主辞とし潜在節と構文的に競合する節が存在することになるため,条件\ref{COND:sbjpred}\,に従うと,見出し(H\ref{HEADLINE:sued})などのようにbe動詞を補うべき見出しにbe動詞が補われない.この曖昧性の解消をここでは,\KEYC直後の名詞句の有無と,\KEYCの動詞型\cite{Hornby77}に基づいて行なう.\KEYCを定形と解釈することは動詞の態を能動とみなすことであり,過去分詞形と解釈することは\KEYCとbe動詞を組み合わせて受動態とみなすことであるが,\KEYCが動詞型としてSVOO型もSVOC型も持たない場合,\KEYCの目的語が存在すれば,受動態と解釈することは構文的に不可能である.ここでは\KEYC直後の名詞句を目的語とみなし,\KEYCの直後に名詞句が存在しなければ受動態と解釈してbe動詞を補う.\KEYCが動詞型としてSVOO型かSVOC型を持つ場合は,\KEYCの直後に名詞句が存在しても受動態と解釈できることがあるが,正確に判定するためには,\KEYC直後の名詞句だけでなく,さらにその後方の名詞句の有無も認識する必要がある.定形か過去分詞形かの曖昧性に関しては,見出しではほとんどの場合後者と解釈していよいという経験則\cite{Uenoda78}があることと,粗い構文解析しか行なわない方針であることから,ここでは\KEYCがSVOO型かSVOC型を持つならばbe動詞を補うことにし,次の条件\ref{COND:pastpart}\,を設ける.\begin{COND}\cond\KEYCに定形か過去分詞形かの曖昧性がある場合,\KEYCの直後に名詞句が存在しないか,\KEYCがSVOO型かSVOC型を持つ動詞である.\label{COND:pastpart}\end{COND}この条件に従えば,見出し(H\ref{HEADLINE:sued})では``sued''の直後にその目的語となる名詞句が存在しないので,be動詞が補われる.また,次の見出し(H\ref{HEADLINE:offered})では``offered''の直後に名詞句が存在するが``offered''はSVOO型を持つので,be動詞が補われる.\begin{HEADLINE}\headlineU.K.moneymarket\underline{offered}earlyassistance\label{HEADLINE:offered}\end{HEADLINE}\subsubsection{固定的表現の非存在}\KEYCとその前方に存在する名詞句が連語や慣用句のように固定的な表現を構成する場合be動詞を補わない方がよいと考えられるので,次の条件\ref{COND:idiom}\,を設ける.\begin{COND}\cond\KEYCが固定的表現の構成要素でない.\label{COND:idiom}\end{COND}例えば次の見出し(H\ref{HEADLINE:need})では,``need''とto不定詞の間に結び付きがあると辞書に記述されているので,この結び付きを優先する.\begin{HEADLINE}\headlineNoneedtostateU.K.supportforsystem---Lawson\label{HEADLINE:need}\end{HEADLINE}ここでいう固定的表現とは,\KEYCの辞書項目または条件\ref{COND:leftnp}\,を満たす名詞句の主辞の辞書項目に記述されている表現だけでなく,``for$\cdots$to$\cdots$''や``too$\cdots$to$\cdots$''などのような相関語句も含む.従って,例えばto不定詞が\KEYCでありその前方に``for''や``too''などの語が存在する場合be動詞を補わない.\subsection{be動詞の屈折形生成}\label{sec:preeditHeadline:inflex}適切なbe動詞補完を行なうためには,主語候補の直後すなわち条件\ref{COND:leftnp}\,を満たす名詞句の直後にbe動詞を挿入すべきかどうかを判定するだけでなく,挿入する場合にはbe動詞の屈折形を決定する必要がある.屈折形は,人称,数,時制,相情報などに基づいて決めなければならないが,ここでは,時制は現在とし,主語候補の主辞の人称と数に従う区別だけを行なうことにし,``am'',``are'',``is''のいずれかとする.新聞記事見出しでは過去の事柄が現在形で表されることも少なくない\cite{Shirai97,Uenoda78}ので,現在時制とすることはそれほど不自然ではないと考えられる.\subsection{規則の制御情報}\label{sec:preeditHeadline:ctrl}調査対象の73件の見出しでは複数箇所でbe動詞が省略されている例は存在しなかった.このため,形態素解析結果に対して先頭から順に適用条件との照合を行なっていき,ある\KEYCに関してbe動詞補完が行なわれた場合,他の\KEYCに関する補完を行なわないようにする.すなわち,\ref{sec:preedit}\,節で述べた,ある\KEYCに関する規則に与える適用抑制規則集合の要素は,その規則以外のすべての\KEYCに関する規則の識別番号とする.規則の信頼度は,すべてのbe動詞補完規則についてBとし,be動詞を補った見出しの構文解析に失敗した場合には補完を取り消して元の表現に戻す. \section{実験と考察} \label{sec:experiment}本節では,be動詞補完規則作成のために調査した訓練データの見出し284件を対象として行なった実験の結果と,訓練データとは異なる試験データの見出し312件を対象として行なった実験の結果を示し,be動詞補完が正しく行なえなかった見出しについてその原因を分析する.さらに,試験データにおいて正しくbe動詞が補えた見出しについて,その翻訳品質がどの程度改善されたかを検証する.\ref{sec:preeditHeadline:inflex}\,節で述べたように,be動詞の屈折形の決定は,時制などを考慮せず,主語候補の主辞の人称と数だけに基づいて行なっている.このため今回の評価では,システムが生成したbe動詞と人間が補ったbe動詞とで,人称と数がそれぞれ一致していれば,時制などが適切でない場合でも正解とみなす.\subsection{実験結果}実験結果を表\ref{tab:result_rec_pre}\,に示す.表\ref{tab:result_rec_pre}\,によれば,訓練データで再現率89.0\%,適合率97.0\%の精度が得られ,試験データで再現率81.2\%,適合率92.0\%の精度が得られており,比較的簡単な規則でほぼ適切な補完が行なえている.不要な補完は訓練データで2箇所,試験データで6箇所生じているが,これらは補完漏れ(訓練データで8箇所,試験データで16箇所)に比べて少なく,全体としては,不要な補完の抑制を優先するという\ref{sec:preeditHeadline}\,節で述べた規則記述における所期の目標が達成されている.\KEY別に見ると,訓練データにおいても試験データにおいても前置詞句の場合の適合率が最も低い.\begin{table}\caption{実験結果}\label{tab:result_rec_pre}\begin{center}\begin{tabular}{|l||r@{}c|r@{}c|r@{}c|r@{}c|}\hline&\multicolumn{4}{|c|}{訓練データ}&\multicolumn{4}{|c|}{試験データ}\\\cline{2-9}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{\KEYC}}&\multicolumn{2}{|c|}{再現率}&\multicolumn{2}{|c|}{適合率}&\multicolumn{2}{|c|}{再現率}&\multicolumn{2}{|c|}{適合率}\\\hline\hline過去分詞&87.5\%&(21/24)&100\%&(21/21)&87.8\%&(36/41)&94.7\%&(36/38)\\to不定詞&100\%&(17/17)&100\%&(17/17)&88.2\%&(15/17)&88.2\%&(15/17)\\現在分詞&91.7\%&(11/12)&100\%&(11/11)&62.5\%&(5/8)&100\%&(5/5)\\形容詞&81.8\%&(9/11)&90.0\%&(9/10)&69.2\%&(9/13)&90.0\%&(9/10)\\前置詞句&83.3\%&(5/6)&83.3\%&(5/6)&66.7\%&(2/3)&66.7\%&(2/3)\\複合動詞の構成素&66.7\%&(2/3)&100\%&(2/2)&66.7\%&(2/3)&100\%&(2/2)\\\hline\multicolumn{1}{|c||}{合計}&89.0\%&(65/73)&97.0\%&(65/67)&81.2\%&(69/85)&92.0\%&(69/75)\\\hline\end{tabular}\end{center}\end{table}\subsection{失敗原因の分析}訓練データと試験データのそれぞれについて,補完漏れと不要な補完が生じた原因を調べた結果を表\ref{tab:error_cause}\,に示す.\begin{table}[htbp]\caption{失敗原因の分析}\label{tab:error_cause}\begin{center}\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{2}{|c|}{訓練データ}&\multicolumn{2}{|c|}{試験データ}\\\cline{2-5}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{原因}}&\multicolumn{1}{|c|}{補完漏れ}&\multicolumn{1}{|c|}{不要補完}&\multicolumn{1}{|c|}{補完漏れ}&\multicolumn{1}{|c|}{不要補完}\\\hline\hline形態素解析&1&0&3&3\\条件\ref{COND:leftnp}&1&0&0&0\\条件\ref{COND:sbjpred}\,(多品詞語)&2&1&2&0\\条件\ref{COND:sbjpred}\,(節境界)&3&0&7&0\\条件\ref{COND:pastpart}&0&0&0&1\\条件\ref{COND:idiom}&0&1&0&2\\その他の条件&1&0&4&0\\\hline\multicolumn{1}{|c||}{合計}&8&2&16&6\\\hline\end{tabular}\end{center}\end{table}\subsubsection{補完漏れの原因}訓練データで生じた8箇所での補完漏れのうち1箇所は,キーになるべき語が辞書未登録語であったことによる形態素解析での問題であり,残りの7箇所での補完漏れがbe動詞補完規則の不備によるものであった.7箇所のうち5箇所は条件\ref{COND:sbjpred}\,が満たされるかどうかの判定を誤ったことによるものであった.その5箇所中2箇所は多品詞語の品詞解釈を誤ったことによるものであった.例えば次の見出し(H\ref{HEADLINE:down})では,この場合名詞と解釈すべき``imports''を動詞とみなし,``U.S.sugar''をその主語とみなす誤りが生じていたため,潜在節と競合する節が存在すると解釈された.\begin{HEADLINE}\headlineU.S.sugarimports\underline{down}inweek---USDA\label{HEADLINE:down}\end{HEADLINE}このような誤りに対しては品詞推定法\cite{Takeda93,Takeda95}を導入することによって改善が可能であると考えられる.5箇所中残りの3箇所についての原因は節境界が正しく認識できないことにあった.条件\ref{COND:sbjpred}\,の判定で用いた節境界認識手続きでは一部の接続詞だけを節境界標識とみなしているために,次の見出し(H\ref{HEADLINE:unable})のように節境界がコンマによって示される場合に,実際には二つの節から構成される見出しが一つの節から成ると誤解釈され,潜在節``Africa{\itis}unabletopayitsdebts''と競合しない節``OAUchiefsays''が競合すると判定されていた.\begin{HEADLINE}\headlineAfrica\underline{unable}topayitsdebts,OAUchiefsays\label{HEADLINE:unable}\end{HEADLINE}試験データで生じた16箇所での補完漏れの原因の内訳は,辞書未登録語など形態素解析での問題によるものが3箇所,be動詞補完規則の不備によるものが13箇所であった.13箇所中9箇所は条件\ref{COND:sbjpred}\,の判定誤りによるものであり,その9箇所のうち7箇所については節境界を正しく捉えられないことが原因であった.訓練データにおいても試験データにおいても,条件\ref{COND:sbjpred}\,の判定誤りが補完漏れの原因の半数以上を占めているので,この判定精度の向上に重点的に取り組んでいく必要がある.\subsubsection{不要な補完の原因}訓練データで生じた2箇所での不要な補完のうち1箇所は,多品詞語の品詞解釈を誤ったため,実際には潜在節と競合する節を検出することができなかったことによるものであった.残りの1箇所は,慣用句と解釈すべき表現をそのように解釈できなかったものである.試験データにおいてbe動詞補完規則の不備が原因で生じた3箇所での不要な補完のうち1箇所は,定形か過去分詞形かの曖昧性がある場合過去分詞形と解釈するという経験則に反する例であった.残りの2箇所は慣用句の解釈を誤ったものである.\subsection{規則の制御情報について}\ref{sec:preeditHeadline:ctrl}\,節で述べたように,be動詞補完は一見出しについて一箇所でしか行なっていない.訓練データには二箇所以上でbe動詞が省略されている見出しは含まれていなかったが,試験データには次の見出し(H\ref{HEADLINE:updown})のように二箇所でbe動詞が省略されている見出しが2件含まれており,後方の\KEYに対してbe動詞を補うことができなかった\footnote{これら2件の見出しでは節境界がコンマによって示されているため,複数箇所での補完ができるように適用抑制規則集合を変更しても,条件\ref{COND:sbjpred}\,の節境界の認識が正しく行なえない.このため,表\ref{tab:error_cause}\,では「条件\ref{COND:sbjpred}\,(節境界)」に含めた.}.\begin{HEADLINE}\headlineSwissairJanuarytraffic\underline{up},revenue\underline{down}\label{HEADLINE:updown}\end{HEADLINE}be動詞補完規則にはすべて信頼度Bを与えているため,補完結果に対する構文解析が失敗すると,一度行なった補完が取り消されるが,今回の実験では,取り消しが生じた見出しは訓練データ,試験データいずれにおいても存在しなかった.\subsection{be動詞補完による翻訳品質の改善度}be動詞を補うことによって実際にどの程度の品質改善が達成されたかを確認するために,試験データにおいて正しくbe動詞が補えた67件\footnote{見出し(H\ref{HEADLINE:updown})のように二箇所への補完が必要な2件を69件から除く.}の見出しについて,be動詞補完前と補完後の翻訳を比較した.\ref{sec:investigation:improve}\,節の評価基準と同じ基準で評価した結果を表\ref{tab:improve_unknown}\,に示す.表\ref{tab:improve_unknown}\,によれば,67件のうち61件について翻訳品質が改善されており,be動詞補完による新聞記事見出し翻訳の品質改善効果が確認された.なお,4件の品質低下の原因は実験システムの既存部分の不備であり,be動詞の補完とは無関係である.\begin{table}[htbp]\caption{試験データでの翻訳品質の改善度}\label{tab:improve_unknown}\begin{center}\begin{tabular}{|l||r|r|r|}\hline\multicolumn{1}{|c||}{\KEY}&\multicolumn{1}{|c|}{改善}&\multicolumn{1}{|c|}{同等}&\multicolumn{1}{|c|}{改悪}\\\hline\hline過去分詞&32&2&2\\to不定詞&15&0&0\\現在分詞&3&0&1\\形容詞&8&0&1\\前置詞句&2&0&0\\複合動詞の構成素&1&0&0\\\hline\multicolumn{1}{|c||}{合計}&61&2&4\\\hline\end{tabular}\end{center}\end{table} \section{おわりに} 本稿では,標準的な表現を主な対象とした機械翻訳システムには適切な翻訳を生成することが難しい英字新聞記事見出しを通常の表現に書き換えることによって翻訳品質を改善する方法を示した.見出し特有の表現形式のうち比較的高い頻度で見られるbe動詞の省略現象に対処するための規則を記述し,小規模ではあるが実験を行なった結果,試験データに対して再現率81.2\%,適合率92.0\%の精度が得られ,提案した方法の有効性が確認できた.今後取り組むべき課題として次のような点が挙げられる.\begin{enumerate}\itembe動詞の省略現象に次いで頻繁に見られる見出し特有の現象はコンマが等位接続詞として用いられることであり,これが原因で適切な翻訳が得られないことも多い.また,単にbe動詞を補うだけでは翻訳品質の向上が不十分であり,コンマを等位接続詞に書き換える処理も同時に行なって初めて適切な翻訳が得られる見出しも存在する.従って,コンマに関する書き換え規則を記述するなど規則の拡張を行なう必要がある.\item提案した方法では,記事本文から得られる手がかりを利用せずに書き換えを行なっている.しかし,より高い精度の書き換えを実現するためには,記事の本文特に第一文から得られる手がかりに基づく処理を行なうことが有効であると考えられる.例えば本稿では適切に行なえていない時制や相の決定に必要な情報が本文中に明示されている可能性は高い.\item本稿では,処理対象の表現は新聞記事の見出しであることを前提として書き換えを行なっているが,提案した方法を実際の機械翻訳システムに組み込んで利用する場合には,処理対象表現が新聞記事の見出しであるかどうかを判定する処理を実現する必要がある.\end{enumerate}\acknowledgment英々変換系の初期の実装を行なって頂いたシャープ(株)ソフト事業推進センターの関谷正明さん(現在,同社設計技術開発センター)と,議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に非常に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v07n2_02}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報システム事業本部ソフト事業推進センター係長.1985年より機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V24N05-01
\section{はじめに} 近年,情報化技術の発展により,インターネット上やデータベース上にはテキストとそのテキストに付随する実世界情報が大量に存在している.実世界情報を用いる自然言語処理の研究として,テキストを用いて画像を検索する研究\cite{NIPS2014_5281}や画像の解説文を生成する研究\cite{Socher_groundedcompositional}などが行われている.また,実世界情報を用いることで言語モデルの性能を向上させる研究\cite{icml2014c2_kiros14}も行われており,実世界情報の活用は自然言語処理の基礎技術の精度向上に有効だと考えられる.そこで本稿では実世界情報とテキスト情報を素性として入力した際の固有表現認識を提案する.本稿では,将棋の解説文に対する固有表現認識を題材として,テキスト情報に加えて実世界情報を参照する固有表現認識器を提案する.固有表現とは,文書の単語列に人名や地名など約8種類の定義\cite{TjongKimSang:2003:ICS:1119176.1119195}を行ったものが一般的であるが,近年では医療の専門用語を定義したバイオ固有表現\cite{Biomedical.Named.Entity.Recognition.Using.Conditional.Random.Fields.and.Rich.Feature.Sets}なども提案されており,本研究では将棋解説コーパス\cite{shogi-corpus}で定義される将棋固有表現を扱う.将棋解説コーパスは,将棋の解説文に対して単語分割と固有表現タグが人手で与えられた注釈つきテキストデータであり,各解説文には解説の対象となる将棋の局面情報が対応付けされている.局面は,盤面上の駒の配置と持ち駒であり,すべての可能な盤面状態がこれによって記述できる.本研究では局面情報を実世界情報として用いる.提案手法では,まず各局面の情報をディープニューラルネットワークの学習方法の1つであるstackedauto-encoder(SAE)を用いて事前学習を行う.次に,事前学習の結果をテキスト情報と組み合わせて固有表現を学習する.提案手法を評価するために,条件付き確率場による方法等との比較実験を行い,実世界情報を用いることにより固有表現認識の精度向上が可能であることを示す.将棋の固有表現認識の精度が向上すると,文書から戦型名や囲い名などを自動的に抽出でき,将棋解説文の自動生成のための基礎技術となる.また,一般の固有表現認識を高い精度で行えるようになると質問応答や文の自動生成などの高度な応用の基礎技術となる. \section{関連研究} 本章では,まず本研究で扱う固有表現認識について述べる.その後,実世界情報を用いた自然言語処理の研究について述べる.最後に将棋の局面情報を用いた自然言語処理の先行研究について述べる.\subsection{固有表現認識}本稿で行う固有表現認識は自然言語処理の重要な応用の一つである.一般的な固有表現認識は,対象を新聞記事,固有表現として人名,地名,組織名等を扱った研究が広く行われている\cite{TjongKimSang:2003:ICS:1119176.1119195,Ratinov:2009:DCM:1596374.1596399}.固有表現認識は,ある系列(単語列)の各要素(各単語)に適切なラベル列を付与する問題である系列ラベリング問題として解かれることが一般的である.サポートベクターマシンや最大エントロピーモデルなどを用いた様々な手法が提案されており\cite{Borthwick:1999:MEA:930095,TjongKimSang:2003:ICS:1119176.1119195,Finkel:2005:INI:1219840.1219885},条件付き確率場(CRF)による系列ラベリング\cite{Lafferty:2001:CRF:645530.655813}がよく用いられる.また,近年では深層学習を用いて解く手法が提案されており,Bi-directionalLSTMを用いて解く手法がCoNLL2003コーパス\cite{TjongKimSang:2003:ICS:1119176.1119195}において最高精度を記録している\cite{ma-hovy:2016:P16-1}.系列ラベリング問題として固有表現認識を解く際に,BIOタグ体系を用いて各単語のタグを学習することが多い.BIOのB(Begin)はある固有表現の最初の単語,I(Intermediate)は同種の固有表現の継続,O(Other)はいずれの固有表現でもないことを意味する.固有表現が${J}$種類ある場合,固有表現ごとにBタグとIタグが存在し,どの固有表現でもない単語にはOが対応するので,BIOタグ数は${2J+1}$種類存在する.各単語にはいずれか1種類のタグが付与されるが,BIOタグ系列には接続制約がある.例えば,固有表現がIタグから始まってはいけない.また,BIOタグ体系の他にも,同種の固有表現の終端を表すE(End)や1単語からなる固有表現を表すS(Single)のタグを加えたBIESOタグ体系で記述されることもある.\subsection{実世界情報を用いた自然言語処理}実世界情報を用いた自然言語処理の研究はいくつか存在するが,その多くは教師なし学習を用いてマルチモーダルなベクトル表現を獲得する手法である.それらに対し,本研究はテキストに付随した実世界情報を用いて固有表現認識を直接解く.Bruniらは,テキストのベクトルと画像のベクトル表現の一種であるBag-of-Visual-Wordsに特異値分解(SVD)を用いることでマルチモーダルなベクトルを獲得する手法を提案した\cite{bruni2014}.似た手法を用いて音情報を用いたベクトルを獲得する研究がある\cite{lopopolo2015}.これはテキスト側のベクトルは潜在的意味解析(LSA)を用いて獲得し,音情報のベクトルはBag-of-Audio-Wordsを用いた.NgiamらやSrivastavaandSalakhutdinovは教師なし学習のニューラルネットワークであるdeeprestrictedBoltzmannmachinesを用いて,マルチモーダルなベクトルを獲得する手法を提案した\cite{ngiam2011,srivastava2012}.これはテキストとそのテキストに対応した画像,またはテキストとそのテキストに対応した音情報などのペアから学習し,隠れ層から分散表現を獲得する手法である.また,Ngiamらはマルチモーダルなベクトルを獲得した後,獲得したベクトルを入力として用いて,音声認識や画像検索などの教師あり学習を行う手法を提案した\cite{ngiam2011}.SilbererandLapataは深層学習を用いてマルチモーダルなベクトルを獲得する手法を提案した\cite{silberer2014}.単語の分散表現にマルチモーダル情報を用いる研究がある.単語の分散表現とは,自然言語処理においてよく用いられる低次元の実数値ベクトルであり,word2vec\\cite{mikolov2013a,mikolov2013b}がよく用いられる.Lazaridouらはword2vecを拡張し,画像情報と組み合わせる手法を提案した\cite{lazaridou2015}.KielaandClarkも同様にword2vecを音情報と組み合わせる手法を提案した\cite{kiela2015}.\subsection{将棋の局面を用いた自然言語処理}Kamekoらは,将棋の局面に将棋解説文が付与された将棋解説コーパスを用いて,ニューラルネットワークを応用した将棋解説文のための単語分割手法を提案している\cite{kameko-mori-tsuruoka:2015:EMNLP}.この手法は,まず将棋局面情報を入力とするニューラルネットワークを用いることで将棋用語辞書を獲得し,得られた将棋用語辞書を用いて単語分割を行うことで単語分割の精度向上を実現している.具体的には,将棋用語辞書を作成するために,まず確率的単語分割手法により確率的に単語分割されたコーパスを生成する.次に,将棋局面情報を入力とし,確率的コーパスの単語を出力とするフィードフォワード型のニューラルネットワークを学習し,学習されたニューラルネットワークを用いて単語候補をスコア付けし抽出することで,将棋用語辞書が得られる.本研究と彼らの研究との違いは次の通りである.(1)彼らは局面の素性に,コンピュータ将棋プログラムを用いて作成した複雑な素性を用いているが,本研究では単純な駒の位置情報のみを素性として用いていること,(2)彼らは将棋の局面との対応により事前に獲得しておいた語彙を参照し単語分割しているが,本研究では将棋の局面との対応を直接参照して固有表現認識を行うことが挙げられる. \section{将棋解説コーパス} \label{sec-corpus}将棋は2人で行うボードゲームで$9\times9$のマスの盤面と成った駒も含めて14種類の駒を用いる.盤面上の駒の配置と持ち駒からゲームの状態に関するすべての情報が得られる完全情報ゲームである.将棋にはプロ制度があり,日々多数のプロ間の対局が行われている.多くの対局には,対局者以外のプロが解説を行い,その解説文がインターネットで配信されている.本稿で用いる将棋解説コーパス\cite{shogi-corpus}は,将棋の解説文に対して単語分割と固有表現タグが人手で与えられた注釈つきテキストデータである.固有表現は,将棋の解説に特化されており,\tabref{tab-NER-tags}のように21種類が定義されている.出現割合はコーパス中に出現する各固有表現の割合を示す.実際のアノテーションは,BIO2形式であり,各単語ごとにBIOタグが1つ付与されており,タグの種類数は43種類($21\times2+1=43$)ある.\begin{table}[t]\caption{将棋の固有表現の種類とその意味}\label{tab-NER-tags}\input{01table01.txt}\end{table}各解説文には,解説の対象となる局面が対応付けされており,ほとんどの解説文は局面に関するコメントをしているが,局面に関係のないコメント(対局者に関する情報など)も少量含まれる.局面の情報は,解説文が言及する実世界情報とみなすことができ,これを参照することによる固有表現認識が本稿の中心となるアイデアである. \section{提案手法} 将棋解説文の固有表現認識を行うために用いたフィードフォワード型のニューラルネットワークと実世界情報(将棋の局面)の事前学習について説明する.\subsection{ニューラルネットワークの構成}\figref{fig-DNN}は実世界を参照する固有表現認識のニューラルネットワークの全体図である.テキストの素性は,左側の入力層に$(f_1^t,f_2^t,\ldots,f_n^t)$として入力する.図の右下の5つの層は実世界に関するニューラルネットワークであり,\$(f_1^r,f_2^r,\ldots,f_m^r)$に実世界情報の素性を入力する.図の上側のニューラルネットワークでテキスト情報と実世界情報を統合して固有表現認識を行う.実世界に関するニューラルネットワークの中間層の層数については開発データを用いて調整する\footnote{後述する実験では,中間層の層数を0層から5層まで変えて開発データで実験した結果,4層の場合が最も精度が高かったため,テストデータに対する実験で4層を用いて評価した.}.このネットワークは出力層において,注目している単語が属する各タグの確率を出力する.\begin{figure}[t]\begin{center}\includegraphics{24-5ia1f1.eps}\end{center}\caption{実世界を参照する固有表現認識のためのディープニューラルネットワーク}\label{fig-DNN}\end{figure}\subsection{実世界情報の事前学習の入力とテキストの入力}実世界情報は,\figref{fig-DNN}の右下に示されるニューラルネットワークの入力として参照される.本研究では実世界情報として,\figref{fig-features}に示すように盤面上の全てのマス($9\times9$)における先手と後手を区別した駒の種類($2\times14$)の有無に対応する2,268次元($2{,}268=9\times9\times2\times14$)のバイナリ素性と,持ち駒を記述する先手と後手の7種類の駒の個数に対応する14次元($14=7\times2$)の整数素性の合計2,282次元の素性を用いる.\tabref{tab-text-features}に実験で用いたテキスト素性を示す.$w_{i}$は現在着目し,タグを推定している単語であり,単語の素性には1-of-$k$表現を用いた.$type(w)$は$w$の文字の種類,平仮名,片仮名,漢字,数字,記号やそれらの組み合わせを表し,$pos(w)$は$w$の品詞を表す.\begin{figure}[p]\begin{center}\includegraphics{24-5ia1f2.eps}\end{center}\caption{将棋盤面の素性}\label{fig-features}\end{figure}\begin{table}[p]\caption{タグを推定している$w_{i}$のテキスト素性}\label{tab-text-features}\input{01table02.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{24-5ia1f3.eps}\end{center}\caption{Stackedauto-encoder}\label{fig-SAE}\end{figure}\subsection{実世界情報の事前学習}\label{sec:learning-and-labeling}本研究では事前学習手法の一つであるSAEを用いて実世界情報の事前学習を行う.\figref{fig-SAE}の左側のように,まず3層のニューラルネットワークの入力層と出力層に同じ実世界情報を与え,入力されたベクトルと同じベクトルを出力として予測するニューラルネットワークを学習する.このとき中間層の次元数を入力層よりも少ない次元数とすることで,中間層において次元圧縮された実世界情報を得ることができる.次に\figref{fig-SAE}の中央のように,出力層を取り除き,新しい中間層を1つ増やしたネットワークを再定義する.その後,先ほど得られた中間層(下から2層目)のベクトルと同じベクトルを出力層で予測するニューラルネットワークを学習する.このとき,新しく定義しなおした部分(上から3層)の重みのみを更新していく.同様に,層を積み重ねることで,より深く一般化された特徴量($a_1,a_2,\ldots,a_l$)を学習することができる.本研究では,実世界情報のみを用いて事前学習を行うこととする.\subsection{テキスト情報と実世界情報の統合}\label{sec:consolidation}事前学習後,テキスト情報側のニューラルネットワークと実世界情報側のニューラルネットワークを統合し,固有表現認識タスク用にファインチューニングを行う.固有表現認識器のネットワークは出力層において,タグの種類数のユニット(本研究では43個)が存在する.学習の際には,テキスト側の素性とそのテキストに対応する実世界情報側の素性を入力とし,各単語の正解のBIOタグの尤度が最大になるように,\figref{fig-DNN}に示されているニューラルネットワーク全体が最適化される.具体的には,中間層の活性化関数には標準シグモイド関数を用い,出力層ではソフトマックス関数を用いて各タグの確率を出力し,損失関数には交差エントロピー誤差を用いる.したがって,固有表現認識のための中間層だけでなく,事前学習された実世界情報側のニューラルネットワークも同時に調整される.\subsection{最適タグ列の探索}\label{sec:viterbi}固有表現認識は各単語に対するBIOタグを推定することで実現されるが,各単語ごとに確率が最も高いBIOタグを出力すると,推定した固有表現がIタグから始まってしまう場合など,BIOタグ制約を満たさない場合がある.本研究ではBIOタグ制約を満たすために,各タグの推定確率を用いて,ビタビアルゴリズムを適用し,制約を満たす遷移のみからなる確率最大のBIOタグ列を探索する. \section{評価実験} 提案手法の有効性を確認するために,固有表現認識の実験を行った.この章では,まず評価の方法を説明する.その後,実験設定を説明し,それぞれの結果を提示する.\subsection{評価の方法}評価の方法として以下のように定義される再現率と適合率,F値を用いる(式(\ref{math:h-mean})参照).ここで正解数は\figref{fig-eval-sample}のように,将棋解説コーパスに出現する実際の固有表現とシステムが出力した固有表現の始点と終点が完全に一致した数である.これらに加えて各単語のタグ一致率も調べた.\begin{equation}\begin{split}再現率&=\frac{正解数}{コーパスに出現する固有表現の総数}\\[1zh]適合率&=\frac{正解数}{システムが出力した固有表現の総数}\\[1zh]{\rmF}値&=\frac{2\cdot適合率\cdot再現率}{適合率+再現率}\end{split}\label{math:h-mean}\end{equation}\begin{figure}[b]\begin{center}\includegraphics{24-5ia1f4.eps}\end{center}\caption{評価方法}\label{fig-eval-sample}\end{figure}\begin{table}[b]\caption{将棋解説コーパスの諸元}\label{tab-corpus}\input{01table03.txt}\end{table}\begin{table}[b]\caption{将棋盤面埋め込みに用いたニューラルネットワークの各層の次元数}\label{tab-layers}\input{01table04.txt}\end{table}\subsection{実験設定}実験には将棋解説コーパスを用いた(\ref{sec-corpus}章参照).\tabref{tab-corpus}に実験で用いたコーパスの詳細を示す.まず,将棋の局面情報のみを用いて事前学習を行い,学習されたネットワークを用いて固有表現認識器を構築した.\tabref{tab-layers}に局面を事前学習する際に用いた各層の次元数を示す.今回の実験では,中間層の層数$0\sim5$層に設定し,それぞれの中間層での次元数は固定して実験を行った.中間層の次元数は開発セットを用いて,F値が最も高くなるよう調整し,今回は中間層の層数を4層にした.また,既存手法として,条件付き確率場(CRF)\cite{Lafferty:2001:CRF:645530.655813}と実世界情報を用いないディープニューラルネットワーク(テキスト情報のみを用いたディープニューラルネットワーク)を提案手法と比較した.このとき従来手法と提案手法では同じテキスト素性を用いており,ハイパーパラメータは開発セットを用いて調整した.テキスト素性では各単語の品詞情報も用いるが,将棋解説コーパスは単語分割は与えられているが各単語の品詞情報は与えられていない.そのため,KyTea\footnote{http://www.phontron.com/kytea/}を用いて品詞推定を行った.\subsection{実験結果}\tabref{tab-result}に実験の結果を示す.提案手法の有効性を示すために従来手法の「CRF」(条件付き確率場),「DNN」(ディープニューラルネットワーク)を比較対象とした.「局面」は局面の参照(\ref{sec:learning-and-labeling},\ref{sec:consolidation}節参照)を示しており,「DNN+局面」は提案手法である.\tabref{tab-result}より,「CRF」よりも「DNN」が精度が高く,ディープニューラルネットワークが固有表現認識に効果的であることが分かる.また,いずれの従来手法よりも提案手法の精度が高く,実世界情報を用いることで,「CRF」,「DNN」よりも「DNN+局面」の方がそれぞれ1.57ポイント,0.64ポイント高かった.提案手法のBIOタグ推定精度は「CRF」と「DNN」の精度に対して,マクネマー検定において有意水準$1\%$で統計的に有意差があった.これより,テキスト情報と実世界情報を用いた提案手法の有効性が確認できる.\begin{table}[b]\caption{固有表現認識の結果}\label{tab-result}\input{01table05.txt}\end{table}将棋解説コーパスを詳しくみると,各単語に対するOタグ(どの固有表現でもない単語)の割合は約$68\%$であり,固有表現はPi(駒名)やOt(その他重要な表現)などが多く出現する.「DNN」での出力と「DNN+局面」の出力を比較し局面を参照することによる精度向上を分析すると,正解はOtの単語に対し,「DNN」では不正解でOタグを出力しているが,「DNN+局面」では適切にOtを出力する例が多数あり,局面を参照することにより,不正解から正解に変化した固有表現の約$1/3$がOtに関する単語であった.例えば,「応手」や「効果」,「バリケード」などが提案手法では正しくOtと認識されていた.「と金」や「と」は歩が成った駒を指し,提案手法では正しくPiと認識できた例があった.これは実世界情報としてその駒に対する素性が効いていると考えられ,と金の局面素性を発火させずに入力した際にはPiに分類する確率が低下した.また,「DNN」の適合率に比べ,「DNN+局面」の適合率は減少している.これは,出力が一致せず,どちらの出力も不正解の固有表現が12個存在したが,そのほとんどについて「DNN」ではOタグを出力しており,「DNN+局面」では何らかの固有表現タグを出力しているためである.例えば,St(戦型名)の固有表現「橋本流」に対し,「DNN」ではOを出力し,「DNN+局面」ではOtを出力していた.\begin{figure}[t]\begin{center}\includegraphics{24-5ia1f5.eps}\end{center}\caption{事前学習の際,層数を変化させたときの精度(F値)}\label{fig-analysis}\end{figure}局面情報を事前学習した際のSAEの中間層の層数を変化させた場合の精度(F値)の変化を\figref{fig-analysis}に示す.中間層0層のときは事前学習せずに局面情報を入力とした場合の精度である.\figref{fig-analysis}より,中間層$0\sim1$層のときはテキスト情報のみを用いた「DNN」よりも精度が低く,中間層$2\sim5$層のときに「DNN」よりも精度が高くなった.これより,ある程度次元圧縮された局面情報が有効であることがわかる.局面情報は精度を向上させたが,その差はわずかである.それは,固有表現インスタンスの多くはTu(手番)やPi(駒名),Po(位置)であるが,それらはテキストのみの情報でも高精度で認識することができており,局面情報を加えることで精度向上が見込めるSt(戦型)やCa(囲い)のインスタンスは割合が少ないためと考えられる. \section{おわりに} 本稿では,新たな固有表現認識の解法として,実世界情報の参照を提案した.提案手法では,全体の枠組みとしてディープニューラルネットワークを用いる.まず実世界情報だけを用いてSAEの事前学習を行い,これをテキスト情報のみを参照する通常の固有表現認識器と統合し,統合されたニューラルネットワークの再学習を行う.実験では,将棋解説に駒の配置という実世界情報と固有表現タグが付与された将棋解説コーパスを用いた.将棋解説コーパスに対する固有表現認識の精度評価を行い,既存手法に対する優位性や実世界情報参照の効果を実験的に示した.本稿で提案した実世界情報を参照する固有表現認識の手法は,将棋解説コーパスのように実世界情報と固有表現タグが付与されたコーパスが利用可能であれば,実世界情報の素性とテキスト素性を同時に入力することができるため,他ドメインの固有表現認識にも適用することが可能である.また,入力される実世界情報によってはネットワークの構造を変更する必要がある(画像情報の入力には畳み込みニューラルネットワークを用いる等).例えば,ニュース記事とそれに付随した画像情報を参照することにより,一般の固有表現認識の精度向上が期待できる.\acknowledgment本研究の一部は,The54thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2016)で発表したものである\cite{tomori-ninomiya-mori:2016:P16-2}.本研究はJSPS科研費26540190及び25280084の助成を受けたものである.ここに謝意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Borthwick}{Borthwick}{1999}]{Borthwick:1999:MEA:930095}Borthwick,A.~E.\BBOP1999\BBCP.\newblock{\BemAMaximumEntropyApproachtoNamedEntityRecognition}.\newblockPh.D.\thesis,NewYork,NY,USA.\newblockAAI9945252.\bibitem[\protect\BCAY{Bruni,Tran,\BBA\Baroni}{Bruniet~al.}{2014}]{bruni2014}Bruni,E.,Tran,N.~K.,\BBA\Baroni,M.\BBOP2014\BBCP.\newblock\BBOQMultimodalDistributionalSemantics.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf49},\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{Finkel,Grenager,\BBA\Manning}{Finkelet~al.}{2005}]{Finkel:2005:INI:1219840.1219885}Finkel,J.~R.,Grenager,T.,\BBA\Manning,C.\BBOP2005\BBCP.\newblock\BBOQIncorporatingNon-localInformationintoInformationExtractionSystemsbyGibbsSampling.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\363--370}.\bibitem[\protect\BCAY{Kameko,Mori,\BBA\Tsuruoka}{Kamekoet~al.}{2015}]{kameko-mori-tsuruoka:2015:EMNLP}Kameko,H.,Mori,S.,\BBA\Tsuruoka,Y.\BBOP2015\BBCP.\newblock\BBOQCanSymbolGroundingImproveLow-LevelNLP?WordSegmentationasaCaseStudy.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2298--2303},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Karpathy,Joulin,\BBA\Li}{Karpathyet~al.}{2014}]{NIPS2014_5281}Karpathy,A.,Joulin,A.,\BBA\Li,F.~F.\BBOP2014\BBCP.\newblock\BBOQDeepFragmentEmbeddingsforBidirectionalImageSentenceMapping.\BBCQ\\newblockInGhahramani,Z.,Welling,M.,Cortes,C.,Lawrence,N.,\BBA\Weinberger,K.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems27},\mbox{\BPGS\1889--1897}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Kiela\BBA\Clark}{Kiela\BBA\Clark}{2015}]{kiela2015}Kiela,D.\BBACOMMA\\BBA\Clark,S.\BBOP2015\BBCP.\newblock\BBOQMulti-andCross-ModalSemanticsBeyondVision:GroundinginAuditoryPerception.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2461--2470},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kiros,Salakhutdinov,\BBA\Zemel}{Kiroset~al.}{2014}]{icml2014c2_kiros14}Kiros,R.,Salakhutdinov,R.,\BBA\Zemel,R.\BBOP2014\BBCP.\newblock\BBOQMultimodalNeuralLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe31stInternationalConferenceonMachineLearning},\mbox{\BPGS\595--603}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:2001:CRF:645530.655813}Lafferty,J.~D.,McCallum,A.,\BBA\Pereira,F.C.~N.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning},ICML'01,\mbox{\BPGS\282--289},SanFrancisco,CA,USA.MorganKaufmannPublishersInc.\bibitem[\protect\BCAY{Lazaridou,Pham,\BBA\Baroni}{Lazaridouet~al.}{2015}]{lazaridou2015}Lazaridou,A.,Pham,N.~T.,\BBA\Baroni,M.\BBOP2015\BBCP.\newblock\BBOQCombiningLanguageandVisionwithaMultimodalSkip-gramModel.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\153--163}.\bibitem[\protect\BCAY{Lopopolo\BBA\vanMiltenburg}{Lopopolo\BBA\vanMiltenburg}{2015}]{lopopolo2015}Lopopolo,A.\BBACOMMA\\BBA\vanMiltenburg,E.\BBOP2015\BBCP.\newblock\BBOQSound-baseddistributionalmodels.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonComputationalSemantics},\mbox{\BPGS\70--75}.\bibitem[\protect\BCAY{Ma\BBA\Hovy}{Ma\BBA\Hovy}{2016}]{ma-hovy:2016:P16-1}Ma,X.\BBACOMMA\\BBA\Hovy,E.\BBOP2016\BBCP.\newblock\BBOQEnd-to-endSequenceLabelingviaBi-directionalLSTM-CNNs-CRF.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1064--1074}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{mikolov2013a}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemarXivpreprintarXiv:1301.3781}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{mikolov2013b}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblock{\BemAdvancesinNeuralInformationProcessingSystems},{\Bbf26},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mori,Richardson,Ushiku,Sasada,Kameko,\BBA\Tsuruoka}{Moriet~al.}{2016}]{shogi-corpus}Mori,S.,Richardson,J.,Ushiku,A.,Sasada,T.,Kameko,H.,\BBA\Tsuruoka,Y.\BBOP2016\BBCP.\newblock\BBOQAJapaneseChessCommentaryCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1415--1420}.\bibitem[\protect\BCAY{Ngiam,Khosla,Kim,Nam,Lee,\BBA\Ng}{Ngiamet~al.}{2011}]{ngiam2011}Ngiam,J.,Khosla,A.,Kim,M.,Nam,J.,Lee,H.,\BBA\Ng,A.\BBOP2011\BBCP.\newblock\BBOQMultimodalDeepLearning.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonMachineLearning},\mbox{\BPGS\689--696}.\bibitem[\protect\BCAY{Ratinov\BBA\Roth}{Ratinov\BBA\Roth}{2009}]{Ratinov:2009:DCM:1596374.1596399}Ratinov,L.\BBACOMMA\\BBA\Roth,D.\BBOP2009\BBCP.\newblock\BBOQDesignChallengesandMisconceptionsinNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceonComputationalNaturalLanguageLearning},CoNLL'09,\mbox{\BPGS\147--155}.\bibitem[\protect\BCAY{Settles}{Settles}{2004}]{Biomedical.Named.Entity.Recognition.Using.Conditional.Random.Fields.and.Rich.Feature.Sets}Settles,B.\BBOP2004\BBCP.\newblock\BBOQBiomedicalNamedEntityRecognitionUsingConditionalRandomFieldsandRichFeatureSets.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalJointWorkshoponNaturalLanguageProcessinginBiomedicineanditsApplications},\mbox{\BPGS\33--38}.\bibitem[\protect\BCAY{Silberer\BBA\Lapata}{Silberer\BBA\Lapata}{2014}]{silberer2014}Silberer,C.\BBACOMMA\\BBA\Lapata,M.\BBOP2014\BBCP.\newblock\BBOQLearningGroundedMeaningRepresentationswithAutoencoders.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\721--732}.\bibitem[\protect\BCAY{Socher,Karpathy,Le,Manning,\BBA\Ng}{Socheret~al.}{2014}]{Socher_groundedcompositional}Socher,R.,Karpathy,A.,Le,Q.~V.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2014\BBCP.\newblock\BBOQGroundedCompositionalSemanticsforFindingandDescribingImageswithSentences.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf2},\mbox{\BPGS\207--218}.\bibitem[\protect\BCAY{Srivastava\BBA\Salakhutdinov}{Srivastava\BBA\Salakhutdinov}{2012}]{srivastava2012}Srivastava,N.\BBACOMMA\\BBA\Salakhutdinov,R.\BBOP2012\BBCP.\newblock\BBOQMultimodalLearningwithDeepBoltzmannMachines.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems25},\mbox{\BPGS\2222--2230}.\bibitem[\protect\BCAY{TjongKim~Sang\BBA\De~Meulder}{TjongKim~Sang\BBA\De~Meulder}{2003}]{TjongKimSang:2003:ICS:1119176.1119195}TjongKim~Sang,E.~F.\BBACOMMA\\BBA\De~Meulder,F.\BBOP2003\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2003SharedTask:Language-independentNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonNaturalLanguageLearningatHLT-NAACL2003---Volume4},CoNLL'03,\mbox{\BPGS\142--147}.\bibitem[\protect\BCAY{Tomori,Ninomiya,\BBA\Mori}{Tomoriet~al.}{2016}]{tomori-ninomiya-mori:2016:P16-2}Tomori,S.,Ninomiya,T.,\BBA\Mori,S.\BBOP2016\BBCP.\newblock\BBOQDomainSpecificNamedEntityRecognitionReferringtotheRealWorldbyDeepNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\236--242}.\end{thebibliography}\begin{biography}\end{biography}\bioauthor{友利涼}{2016年愛媛大学工学部卒業.同年より京都大学大学院情報学研究科修士課程在学.}\bioauthor{二宮崇}{2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL\各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年,日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授,2016年同教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞受賞.言語処理学会,情報処理学会,日本データベース学会,ACL各会員.}\biodate\end{document}
V16N03-01
\section{まえがき} 本稿では,大量の上位下位関係をWikipediaから効率的に自動獲得する手法を提案する.ここで「単語Aが単語Bの上位語である(または,単語Bが単語Aの下位語である)」とは,Millerの定義\cite{wordnet-book_1998}に従い,「AはBの一種,あるいは一つである(Bisa(kindof)A)」とネイティブスピーカーがいえるときであると定義する.例えば,「邦画」は「映画」の,また「イチロー」は「野球選手」のそれぞれ下位語であるといえ,「映画/邦画」,「野球選手/イチロー」はそれぞれ一つの上位下位関係である.以降,「A/B」はAを上位語,Bを下位語とする上位下位関係(候補)を示す.一般的に上位下位関係獲得タスクは,上位下位関係にある表現のペアをどちらが上位語でどちらが下位語かという区別も行った上で獲得するタスクであり,本稿でもそれに従う.本稿では概念—具体物関係(ex.野球選手/イチロー)を概念間の上位下位関係(ex.スポーツ選手/野球選手)と区別せず,合わせて上位下位関係として獲得する.上位下位関係は様々な自然言語処理アプリケーションでより知的な処理を行うために利用されている\cite{Fleischman_2003,Torisawa_2008}.例えば,Fleischmanらは質問文中の語句の上位語を解答とするシステムを構築した\cite{Fleischman_2003}.また鳥澤らはキーワード想起支援を目的としたWebディレクトリを上位下位関係をもとに構築した\cite{Torisawa_2008}.しかしながら,このような知的なアプリケーションを実現するためには,人手で書き尽くすことが困難な具体物を下位語とする上位下位関係を網羅的に収集することが重要になってくる.そこで本稿では,Wikipediaの記事中の節や箇条書き表現の見出しをノードとするグラフ構造(以降,\textbf{記事構造}とよぶ)から大量の上位下位関係を効率的に獲得する手法を提案する.具体的には,まず記事構造上でノードを上位語候補,子孫関係にある全てのノードをそれぞれ下位語候補とみなし,上位下位関係候補{を}抽出する.例えば,図~\ref{fig:wiki}(b)のWikipediaの記事からは~\ref{sec:wikipedia}節で述べる手続きにより,図~\ref{fig:wiki}(c)のような記事構造が抽出できる.この記事構造上のノード「紅茶ブランド」には,その子孫ノードとして「Lipton」,「Wedgwood」,「Fauchon」,「イギリス」,「フランス」が列挙されている.提案手法をこの記事構造に適用すると,「紅茶ブランド」を上位語候補として,その子孫ノードを下位語候補群とする上位下位関係候補を獲得できる.しかしながら獲得した下位語候補には,「Wedgwood」,「Fauchon」のように下位語として適切な語が存在する一方,「イギリス」,「フランス」のような誤りも存在する.この例のように,記事構造は適切な上位下位関係を多く含む一方,誤りの関係も含むため,機械学習を用いて不適切な上位下位関係を取り除く.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f1.eps}\end{center}\caption{「紅茶」に関するWikipediaの記事の例}\label{fig:wiki}\end{figure}以下,\ref{sec:bib}節で関連研究と本研究とを比較する.\ref{sec:wikipedia}節で提案手法で入力源とするWikipediaの記事構造に触れ,\ref{sec:method}節で提案手法について詳細に述べる.\ref{sec:exp}節では提案手法を日本語版Wikpediaに適用し,獲得された上位下位関係の評価を行う.最後に\ref{sec:matome}節で本稿のまとめと今後の展望について述べる. \section{関連研究} label{sec:bib}本節では,既存の上位下位関係の自動獲得手法について説明する.上位下位関係の獲得は,1990年代にHearstが語彙統語パターンを用いて新聞記事から上位下位関係を獲得する手法を提案し\cite{hearst_1992},以後各言語への応用がみられた\cite{JImasumi,JAndo,Pantel_2006,Sumida_2006,Oishi_06}.その後Webの発達に伴い,箇条書き表現などのWeb文書特有の手がかりを用いた獲得手法が提案されてきた\cite{Shinzato_2004,Etzioni_2005}が,近年,具体物を含む概念間の知識を密に記述したWikipediaに注目が集まっている\cite{Ruiz-Casado_2005,Pasca_2006,Herbelot_2006,Suchanek_2007,Kazama_2007}.以下では,まず新聞記事やWeb文書を対象とした上位下位関係の獲得手法について紹介し,その後Wikipediaに特化した上位下位関係の獲得手法について述べる.以下,各手法について提案手法との違いについて述べる.\subsection{新聞記事・Web文書からの上位下位関係獲得}まず,語彙統語パターンを利用した研究として,\cite{hearst_1992,JImasumi,JAndo,Sumida_2006}があげられる.Hearstは英語の新聞記事を対象に,“〈上位語〉suchas〈下位語〉”などのパターンを用いて上位下位関係を獲得した\cite{hearst_1992}.安藤らはHearstに倣い,日本語の新聞記事コーパスを構文解析した結果から,“〈下位語1〉(や〈下位語2〉)*という〈上位語〉”などの同格・並列表現を含む語彙統語パターンを用い上位下位関係を獲得した\cite{JAndo}.また今角は日本語の新聞記事コーパスに対して“〈上位語〉「〈下位語〉」”のような括弧を用いたパターンを適用している\cite{JImasumi}.この括弧を用いたパターンと名詞連続パターンを利用して,SumidaらはWeb文書から上位下位関係を獲得した\cite{Sumida_2006}.これらの手法では,信頼性の高いパターンを用いることで比較的高い精度で上位下位関係を獲得できるが,そのようなパターンで文書中に出現しない上位下位関係も数多く存在し,語彙統語パターンのみで大量の上位下位関係を獲得するのは本質的に難しい.そこで,語彙統語パターンにマッチしない上位下位関係を獲得するため,Web文書に頻出する箇条書き表現の文書構造を用いる手法が,ShinzatoらやEtzioniらによって提案されている\cite{Shinzato_2004,Etzioni_2005}.ShinzatoらはWeb文書中に繰り返し出現するHTMLタグに囲まれた語の群を1つの単語クラスと見なし,この単語クラスに上位語を付与することで,上位下位関係を獲得する手法を提案した\cite{Shinzato_2004}.またEtzioniらは語彙統語パターンを用いて抽出した上位下位関係をより広範な下位語に対応させるため,抽出した下位語を多く含むリスト構造を用いて,未知の下位語に上位語を割り当てる手法を提案した\cite{Etzioni_2005}.これらの手法でリソースとして用いているWeb文書の箇条書き表現は,上位下位関係の記述に限らず様々な用途に用いられるためノイズが多く,高い精度を保ったまま大量の上位下位関係を獲得することは難しい.これらの手法では箇条書き表現を基本的に下位語候補を収集するためにのみ用いており,上位語候補は別途獲得する必要があるが,我々の手法では上位語も含めて文書構造から獲得している点が異なる.{本研究と同様に分類器を用いて上位下位関係候補の正誤を判断する手法としては,Webからタグ構造を手がかりに収集した見出し語(用語)とその説明文(見出し語を含む段落)の組を入力として,見出し語間の上位下位関係を判定する手法を大石らが提案している}\cite{Oishi_06}.{彼らが説明文中に含まれる単語を素性としているのに対し,我々は上位語候補/下位語候補自体に関する情報(例えば形態素)を主に素性として用いており,それぞれの手法の素性セットはほぼ独立である.また,彼らの手法の評価はコンピュータに関する用語のシソーラスを利用して人工的に作成したテストセットでの識別性能評価に止まっており,見出し語集合から生成した上位下位関係候補の分類精度は評価できていない.さらに,彼らの手法では上位語候補/下位語候補は説明文が獲得できている用語に限定されるため,具体物を下位語とするような上位下位関係を大量に獲得することは難しいと考えられる.}また,以上の新聞記事・Web文書を対象に上位下位関係を獲得する手法は,十分な量の関係を獲得するために,大量の文書が扱えるストレージやそれを処理するための高速な計算機などの大規模な計算機資源が必要となる.{例えば,}\cite{Sumida_2006}{の手法を用いた場合,約700~GBのHTML文書を処理して獲得できる上位下位関係の数は,約40万対であるが,我々の手法ではわずか2.2~GBのWikipedia文書から同程度の精度で約135万対の上位下位関係を獲得できている(詳しくは節}\ref{sec:exp_result}{の実験結果を参照のこと).}\subsection{Wikipediaからの上位下位関係獲得}Wikipediaからの上位下位関係獲得についても新聞記事やWeb文書からの上位下位関係獲得のときと同様に語彙統語パターンを用いる手法が開発されている\cite{Ruiz-Casado_2005,Herbelot_2006,Toral_06,Kazama_2007}.これらの手法では,Wikipediaの記事に概念の定義を記述する定義文が多く含まれることに注目し定義文から上位下位関係を獲得している.図~\ref{fig:wiki}(b)では「紅茶とは,摘み取った茶を乾燥させ,もみ込んで完全発酵させた茶葉。」という定義文が含まれており,紅茶の上位語(の一つ)である茶葉を用いて紅茶が説明されている.この文に対し“とは*〈上位語〉。”というパターンを適用することで紅茶の上位語である茶葉を抽出することができる.Kazamaらは,英語の固有表現抽出タスクのために,Wikipediaの記事の見出し語を下位語として記事の冒頭の一文を定義文とみなし,その定義文中の特定の語彙統語パターンにマッチする表現を上位語として獲得した\cite{Kazama_2007}.またHerbelotらは,Wikipediaの記事の全文を意味解析し,定義文に対応する項構造を認識することで,約88.5\%の精度で上位下位関係を獲得している\cite{Herbelot_2006}.Ruiz-CasadoらはWordNet~\cite{wordnet-book_1998}を利用して学習された上位下位関係からパターンを学習・適用することで,69\%の精度で上位下位関係が獲得できたと報告している\cite{Ruiz-Casado_2005}.これらの手法は,Wikipediaに頻出する語彙統語パターンに着目した上位下位関係獲得手法であり,前節で述べた上位下位関係手法と同様に精度が高い一方で{Wikipediaの記事数と同程度の数の下位語に関する上位下位関係しか}獲得できないという問題がある.一方,SuchanekらはWikipediaの各記事の見出し語に対し,記事に付与されたカテゴリのラベルを上位語として上位下位関係を獲得する手法を提案している\cite{Suchanek_2007}.彼らは,英語特有の経験則を用いてカテゴリを選別し,外的知識としてWordNetを利用することで,約95\%と高精度で上位下位関係を獲得している.提案手法では,WordNetなどの外的な言語資源を用いることなく,機械学習のみで高精度の上位下位関係を大量に獲得することを目指す.またKazamaらやSuchanekらの手法のように,下位語候補が記事の見出し語に制限されないため,より網羅的な上位下位関係が獲得できると期待される.また,本研究と同様にWikipediaの記事構造を用いた研究として\cite{Watanabe_2008}が存在する.渡邉らはWikipediaの記事構造からWikipediaのアンカーリンク間の関係を元に条件付確率場を学習し,そのモデルを適用することでアンカーリンクから固有表現を抽出した\cite{Watanabe_2008}.本提案手法では記事構造から直接上位下位関係を獲得するのに対し,渡邉らの手法では記事構造をアンカー間の関係が同じカテゴリか,関連語か,部分全体関係かどうかの判定に用いており,異なる手法といえる. \section{Wikipediaの記事構造} label{sec:wikipedia}本節では提案手法について述べる前に本研究で知識源として利用するWikipediaの記事構造について述べる.Wikipediaは,様々な事物に関する常識的知識が密に記述されたフリーの多言語百科事典である.図~\ref{fig:wiki}(b)は見出し語「紅茶」に対する記事の例である.Wikipediaの記事は,明確な構造をもつMediaWiki構文により記述されており,多段の箇条書きを含む.この例のように,Wikipediaの記事には典型的なある概念(または具体物)の辞書的な定義に加えて,関連する概念(または具体物)の列挙を箇条書きとして含むことが多い.\begin{table}[b]\vspace{-1\baselineskip}\caption{記事構造に関する修飾記号}\label{tab:mediawiki_syntax}\input{01table01.txt}\end{table}本稿ではWikipediaの記事から上位下位関係候補を抽出するための媒体として,MediaWiki構文で記事のレイアウト情報を扱う表~\ref{tab:mediawiki_syntax}の修飾記号に注目し,記事から見出し(表~\ref{tab:mediawiki_syntax}では$title$と標記)をノードとするグラフ構造(記事構造)を抽出する.具体的には,$title$に付与されている修飾記号の優先度が高く修飾記号の{繰り返し数}が{少ない}ほど,グラフ構造上の高い位置にノードを配置する.このとき,修飾記号の優先度は記号の{繰り返し数}より優先される.例えば,「\verb!*!リプトン」より「\verb!==!イギリス\verb!==!」の修飾記号の優先度が高いので,グラフ構造上で「イギリス」が「リプトン」より高い位置に配置される.また,「\verb!==!イギリス\verb!==!」は「\verb!=!主な紅茶ブランド\verb!=!」と比較し修飾記号{(この場合は``\verb!=!'')の繰り返し数}が{多い}ので,「主な紅茶ブランド」よりグラフ構造上で低い位置に配置される.ただし,ルートノードは記事名とし,その修飾記号は{繰り返し数}0の「\verb!=!」とする.図~\ref{fig:wiki}(b)の記事に対応する図~\ref{fig:wiki}(a)のMediaWikiコードをもとに,図~\ref{fig:wiki}(c)のような記事構造が抽出できる. \section{提案手法} label{sec:method}本節では,\ref{sec:wikipedia}節の手続きでWikipediaの各記事から構築した記事構造を知識源として,上位下位関係を獲得する手法を提案する.提案手法は以下の2ステップからなる.\begin{description}\item[Step1Wikipediaの記事構造からの上位下位関係候補の抽出]\ref{sec:wikipedia}節で説明した記事構造に含まれるノード間の先祖—子孫関係に注目して上位下位関係候補を抽出する.\item[Step2機械学習によるフィルタリング]SVM\cite{Vapnik}を用いて,Step1で抽出された上位下位関係候補から不適切な関係を取り除く.\end{description}以下,提案手法について詳しく述べる.\subsection{Step1:Wikipediaの記事構造からの上位下位関係候補の抽出}このステップでは,記事構造の各ノード{を上位語候補,}子孫関係にあるノード{を下位語候補とする}全ての組み合わせを上位下位関係候補として抽出する.例えば,図~\ref{fig:wiki}(c)の記事構造からは,「ブレンドティー/チャイ」や,「紅茶/リプトン」などの上位下位関係候補が抽出できる.ここで,訓練データの記事構造から得られる上位語候補を調べたところ,階層構造中で上位語候補に対して箇条書きで下位語候補が列挙されるときには,上位語に箇条書き特有の修飾語が付くことが分かった.このような修飾語としては,主観で一部の下位語を選んで列挙していることを示す「主な〜」や「代表的な〜」などの接頭語,箇条書きが下位語の列挙であることを陽に示す「〜のリスト」や「〜の一覧」などの接尾語などがあり,基本的に上位語を箇条書きのタイトルとするために付けられたものであるため,適切な上位語を得るためには取り除く必要がある.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f2.eps}\end{center}\caption{上位語候補の不要な修飾語を取り除くためのパターン}\label{fig:list_pattern}\end{figure}そこで我々は,抽出された上位語候補が図~\ref{fig:list_pattern}のパターンをもつ場合,パターン中の$X$以外の部分を取り除いた.パターン中の$X$は任意の文字列を示す.{ただし,複数のパターンに一致した場合には,その中で,パターンの具体的な文字列部分(ex.「代表的な}$X${」であれば「代表的な」)が最長一致するパターンを適用した.}例えば,上位語「主な紅茶ブランド」はパターン「主な$X$」を適用することで,「紅茶ブランド」と置換される.このようにして得られる上位下位関係候補には,明らかに誤りとみなせる上位下位関係候補や,上位語または下位語に記号などの不要語を含む上位下位関係候補が含まれていたため,図~\ref{fig:huyou}のルールに従って上位下位関係候補を削除,あるいは訂正した.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f3.eps}\end{center}\caption{上位下位関係候補の削除・訂正ルール}\label{fig:huyou}\end{figure}\subsection{Step2:機械学習によるフィルタリング}Step1の手続きで得られた上位下位関係候補は多くの適切な関係を含む一方で,「生産地/インド」,「紅茶ブランド/イギリス」のような誤りも含む.Step2では,Step1で抽出した上位下位関係候補から教師あり機械学習を用い不適切な関係を取り除く.本稿では上位下位関係候補が適切な上位下位関係か否かを判定するため,SupportVectorMachine(SVM)\cite{Vapnik}で学習された分類器を用いて上位下位関係候補を選別する.{SVMで各上位下位関係候補(上位語候補—下位語候補のペア)が適切な上位下位関係であるかどうかを判定するには,分類対象の上位下位関係候補を,素性ベクトルと呼ばれる分類対象の特徴(素性)を数値で表現したベクトルに変換する必要がある.この素性ベクトル(上位下位関係候補)に正解(適切な上位下位関係か否か)をつけたものを学習データとして,Step2で用いる分類器(SVM)を得る.}{本研究では素性として,上位下位関係候補がある条件(特徴)を満たすかどうかを一つの素性として表現し,素性ごとに設定された条件を入力の上位下位関係候補が満たせば,対応する素性ベクトルの次元の値に1をセットし,満たさなければ0をセットする.実際に使用した素性をまとめたリストを表}\ref{tab:feature}{に示す.表の各列は左から素性の種類,各素性に対応する素性ベクトルの次元の値を1にセットする条件,図}\ref{fig:wiki}{から抽出した上位下位関係候補「紅茶ブランド/Lipton」で実際に1にセットされる素性を表している.}ただし,同じ表現の上位下位関係候補が異なる記事構造から抽出された場合,全ての抽出元の記事構造について生成した素性ベクトル{の論理和を用いる.}次に生成した素性ベクトルをSVMに入力し,その結果得られたSVMのスコアが閾値以上の上位下位関係候補を正しい上位下位関係とみなす.以下で,各素性{の設計方針}について説明する.\begin{table}[t]\caption{素性リスト}\label{tab:feature}\input{01table02.txt}\end{table}\begin{description}\item[POS]まず上位語候補・下位語候補の品詞は,誤りの判定に有効である.例えば,「木次線/管轄」のように上位語に固有名詞を含み,下位語に固有名詞を含まない場合,誤りの関係と推定できる.ここでは,品詞として{IPA辞書}\footnote{http://sourceforge.jp/projects/ipadic/}{の}品詞細分類レベル(ex.名詞—固有名詞など)まで考慮する.また上位語候補・下位語候補に含まれる品詞のうち,主辞の品詞は語の意味的な特徴をよく捉えているため特に重要である.例えば,上位語候補の主辞の品詞が動詞であれば多くの場合その上位下位関係候補は誤りである.本稿では上位語候補・下位語候補の末尾の形態素を主辞とし,主辞の品詞を他の品詞と区別するように素性を設計した.\item[MORPH]{品詞と同様に},上位語候補・下位語候補中の形態素の表層文字列は上位下位関係らしさの判定に有効である.例えば,「アメリカ映画/ウエスト・サイド物語」のように頻度が少ない,あるいは未知の上位語候補・下位語候補であっても,「映画」や「物語」などのより頻度が高い形態素に注目することで上位語らしさ・下位語らしさを判定することが出来る.また品詞と同様に上位語候補・下位語候補の主辞の表層文字列は適切な上位下位関係であるかどうかの手がかりとなりやすいので,他の形態素と区別する.\item[EXP]上位語候補,下位語候補にはStep1の不要語処理ではカバーしきれない,「背景」や「あ行」などの不要語が多く存在する.これら不要語の特徴を捉えるため,上位語候補,下位語候補の表層文字列ごとに次元を割り当てるように素性を設計した.\item[ATTR]上位語候補,あるいは下位語候補が属性語である上位下位関係候補は誤りの関係となりやすい.ここで属性語とは,その単語についてユーザが知りたい観点を指す単語である\cite{JTokunaga_2006}.例えば,「紅茶」の属性語としては「生産量」や「価格」があげられる.{このような属性語を含む関係(例えば,}「紅茶/生産量」や「生産量/1位インド」など){は多くの場合,}属性語と概念(または具体物)間の関係となり上位下位関係となることは少ない.そこでこの素性ではあらかじめ抽出しておいた{属性語リストの各語に固有の次元を割りあてるように設計した.}本研究では,属性語は以下のような手順で抽出した.まず各記事構造から根ノード以外のノードを抽出する.つぎに,抽出したノードのうち,Wikipedia中の複数の記事に出現するノードを属性とみなす.例えば「紅茶」と「タバコ」という記事の両方に「生産量」が見出しとして出現する場合,「生産量」を属性語とみなす.前述の上位語候補・下位語候補の表層文字列を素性とする素性EXPもこの素性と同{じく不要語らしさ}を扱うことができるがこの素性では教師無しで構築された属性語リストを用いることで,より被覆率高く{不要語}を検出することが可能であることに注意されたい.\item[LAYER]記事構造の箇条書き表現から抽出された下位語候補をもつ上位下位関係は適切な関係になりやすい.例えば,図~\ref{fig:wiki}(c)の記事構造の箇条書き表現には「Lipton」,「Wedgwood」などの固有名詞が列挙されており,これらは上位ノード「紅茶ブランド」の下位語として適切である.このような傾向を捉えるために,この素性では記事構造から抽出された上位語候補あるいは下位語候補のノードに付与されている修飾記号の種類(節見出し,定義の箇条書き,番号付き箇条書き,番号なし箇条書き)ごとに次元を割りあてた.\item[DIST]記事構造で上位語候補と下位語候補との間の距離が近ければ近いほど,正しい上位下位関係であることが多い.そこで,記事構造中における上位語候補・下位語候補間の距離を素性とすることで,この傾向を捉える.本稿では,上位語候補,下位語候補間の距離を記事構造中で上位語候補と下位語候補間に存在する辺の数とする.例えば,図~\ref{fig:wiki}(c)の記事構造上で「Wedgwood」と「紅茶ブランド」間の距離は2である.素性DISTでは,上位語候補と下位語候補間の距離が2以上か否かという2つの状態にそれぞれ異なる次元を割りあてた.\item[PAT]上位語候補がStep1の時点で図~\ref{fig:list_pattern}のパターンにマッチしていた場合,子孫ノードに適切な下位語が列挙されやすい傾向がある.例えば,図~\ref{fig:wiki}(c)中の「主な紅茶ブランド」というノードは下位階層に「Lipton」,「Wedgwood」などの適切な下位語が列挙されており,上位語がStep1のパターンにマッチしていれば,その上位下位関係は適切だろうと推定できる.素性PATでは,Step1の時点で上位語候補がパターンにマッチしている場合{この素性に対応する素性ベクトルの次元の値を1にセットするように設計した}.\item[LCHAR]素性MORPHでは,形態素間の類似性を判断しているため,「高校」や「公立校」のように形態素の一部が一致する語の類似性はないと判断してしまう欠点が存在する.そこで上記のような事例を扱えるようにするため,素性LCHARでは,上位語候補と下位語候補の末尾の1文字が共通する複合語に意味的に似た語が多い特徴を利用し,素性MORPHの欠点を補う.具体的には,上位語候補と下位語候補の末尾が同じとき,{この素性に対応する素性ベクトルの次元の値を1にセットするように設計した}.\end{description} \section{実験} label{sec:exp}\subsection{実験設定}提案手法の有効性を評価するため,2007年3月の日本語版WikipediaからWikipedia内部向けの記事を取り除いた276,323記事に対して,提案手法を適用した.{Wikipedia内部向けのページは,ユーザページ,特別ページ,テンプレート,リダイレクション,カテゴリ,曖昧さ回避ページを指すものとする.}本稿では,形態素解析にMeCab\footnote{http://mecab.sourceforge.net/}を利用しその辞書としてIPA辞書\footnote{http://chasen.naist.jp/chasen/distribution.html.ja}を用いた.SVMにはTinySVM\footnote{http://chasen.org/\~{}taku/software/TinySVM/}を利用した.SVMのカーネルには予備実験結果から2次の多項式カーネルを用いた.またWikipediaからStep2で必要となる属性語リストを抽出した結果,40,733個の属性語が獲得でき,ランダムに取り出した200語を\cite{JTokunaga_2006}の厳密な属性語を判定するための基準に従い評価したところ,精度は73.0\%だった.まずWikipediaの記事にStep1を適用し,記事構造から{重複を除いて}6,564,317対の上位下位関係候補を獲得した.{以降に示す全ての上位下位関係数は重複を除いた数を示す.}次に,得られた上位下位関係候補からランダムに1,000対取り出してテストデータとした.続いて,テスト用データを除いた上位下位関係候補からランダムに9,000対,抽出元の記事構造中で上位語と下位語が直接の親子関係にあった候補から9,000対,図~\ref{fig:list_pattern}のパターンにマッチしていた上位下位関係候補から10,000対,図~\ref{fig:list_pattern}のパターンにマッチしなかった上位下位関係候補から2,000対をそれぞれランダムに取り出し,人手で正解をつけた.これらから重複を除いて得られた29,900対を訓練データとして用いた.{訓練データのうち19,476対は,素性を決定するための予備実験に利用した.上位下位関係の正解付けは,Millerら}\cite{wordnet-book_1998}{の基準に従い1名で行っ{た\nobreak.}具体的には,各上位下位関係候補(上位語候補の表現Aと下位語候補の表現Bのペア)につい{て\nobreak,}「BはAの一種あるいは1つである」という文が適切であるとき正解とした.}\subsection{比較手法}\label{sec:altermethod}提案手法の有効性を確認するため,\ref{sec:bib}節で説明した既存の語彙統語パターンに基づく上位下位関係獲得手法\cite{Sumida_2006},および既存のWikipediaからの上位下位関係獲得手法\cite{Kazama_2007,Suchanek_2007}と比較を行う.Wikipediaからの上位下位関係の獲得手法は,英語版Wikipediaに特化したものであるため,以下で日本語版Wikipediaに応用する際に変更した点を記載する.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f4.eps}\end{center}\caption{定義文に適用する語彙統語パターンの一例}\label{fig:def_pattern}\end{figure}\paragraph{Wikipediaの定義文からの上位下位関係の獲得}\label{sec:definition}~~Kazamaらの手法は英語版Wikipediaのための手法であるため,ここでは国語辞書の語釈文から上位下位関係を獲得したTsurumaruらの手法を参考に人手で図~\ref{fig:def_pattern}のような語彙統語パターンを1,334パターン用意した\cite{Tsurumaru_1986,Kazama_2007}.図中の〈上位語〉は任意の名詞の連続,〈数字〉は0〜9までの数字の連続,〈漢数字〉は〇〜九などの漢数字の連続を示す.このパターンを定義文に適用することで見出し語を下位語,パターンで認識された〈上位語〉を上位語とする上位下位関係を獲得する.\paragraph{Wikipediaのカテゴリからの上位下位関係の抽出}~~Suchanekらの手法に従い,各記事に付与されているカテゴリを上位語候補,記事の見出し語を下位語候補として上位下位関係候補を獲得する.例えば,図~\ref{fig:wiki}(b)の記事からは,「茶/紅茶」という上位下位関係候補が得られる.Wikipediaのカテゴリから獲得できる関係には上位下位関係以外に「喫茶文化/紅茶」などのように見出し語とその関連語間の関係も多く含まれる.Suchanekらの手法では,英語による経験則を用いて,さらに獲得した関係を選別しているが,日本語には適用できないため,ここではカテゴリから抽出できた全ての関係候補を上位下位関係とみなす.\subsection{実験結果}\label{sec:exp_result}\begin{table}[b]\caption{提案手法と比較手法により獲得した上位下位関係の比較}\label{tab:Method1Result}\input{01table03.txt}\end{table}表\ref{tab:Method1Result}に提案手法と節~\ref{sec:altermethod}に述べた比較手法と\cite{Sumida_2006}の手法を比較した結果を示す.表\ref{tab:Method1Result}の各列は左から順に手法の種類,リソース,SVMの閾値,精度,SVMにより選別された上位下位関係数,およびこれらより求めた期待される正しい上位下位関係の数を示す.{ここでは以下のような評価尺度を用いた.}{\allowdisplaybreaks\begin{gather*}\begin{split}\mbox{精度(Precision)}&=\frac{\mbox{SVMにより選別された上位下位関係のうち正解の関係の数}}{\mbox{SVMにより選別された上位下位関係数}}\\[0.5zw]\mbox{再現率(Recall)}&=\frac{\mbox{SVMにより選別された上位下位関係のうち正解の関係の数}}{\mbox{評価データ中に存在する正しい上位下位関係数}}\\[0.5zw]\mbox{正解率(Accuracy)}&=\frac{\mbox{SVMにより正しく正例・負例を識別できた関係の数}}{\mbox{評価データ中の関係候補の数}}\end{split}\\\mbox{期待される正しい上位下位関係数}=\mbox{抽出できた上位下位関係数}\times\mbox{精度}\end{gather*}}比較手法カテゴリ,定義文は\ref{sec:altermethod}節で記述した手法を用い,提案手法で利用したWikipediaと同じデータを利用し,評価サンプル数は1,000対である.また比較手法\cite{Sumida_2006}は,Webから無作為に収集した約700~GB(HTMLタグ含む)のWeb文書に\cite{Sumida_2006}を適用した結果を示し,評価サンプル数は200対である.表より提案手法はWikipediaを入力源とする手法と比較し,大量の上位下位関係を獲得することに成功した.また,提案手法と比較手法\cite{Sumida_2006}を比べると,提案手法は小さなリソース(2.2~GBのXML文書)から上位下位関係を抽出したにもかかわらず,より大量の上位下位関係(933,782語を含む約174万対)を獲得できた.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f5.eps}\end{center}\caption{精度と再現率とのトレードオフ}\label{fig:rp}\end{figure}獲得される上位下位関係の精度については,SVMの分類時の閾値を変更することであげることが可能である.精度と再現率とのトレードオフの関係を図\ref{fig:rp}に示す.横軸は再現率,縦軸は精度を表す.このグラフより,SVMの閾値を大きくすることで,より信頼性の高い上位下位関係を獲得できることが確認できる.例えば閾値を0.36にすると,テストデータでの精度は90\%まで向上する(表~\ref{tab:Method1Result}).この精度でも,他の比較手法より獲得できた上位下位関係は多く,またこの関係に含まれる語数は774,135語であった.\begin{table}[p]\caption{各素性による効果}\label{tab:ResultSVM}\input{01table04.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{16-3ia1f6.eps}\end{center}\caption{再現率—精度グラフによる素性の比較}\label{fig:rp_feature}\end{figure}次にStep2で利用した素性の効果を調べるために,各素性を除いたときの精度の比較を表~\ref{tab:ResultSVM}に示す.表~\ref{tab:ResultSVM}の各列は左から順に素性の種類,正解率,精度,再現率,F値を表す.またこのときの精度と再現率とのトレードオフの関係を図~\ref{fig:rp_feature}に示す.各素性は本稿で提案した全ての素性を含む素性セットをALL,ALLから素性$X$を除いた素性セットを$\text{ALL-}X$とした.また()内は素性セット$\text{ALL-}X$の精度から素性セットALLの精度を引いた結果であり,この値が低ければ低いほど,素性$X$が提案手法の性能の向上に役立っていることを意味する.これらの結果より,全ての素性がStep2のフィルタリング性能の向上に役立っていることが確認できた.また表より全ての素性が精度の向上に寄与しており,特に素性MORPHによる効果が大きいことがわかった.一方,再現率の向上には素性POS,MORPH,LAYER,LCHARが寄与しており,特に素性LCHARが最も高い効果をもつことがわかった.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f7.eps}\end{center}\caption{訓練データの量による性能の変化}\label{fig:learning_curve}\end{figure}つづいて,訓練データの量を変化させたときの提案手法の性能の変化を調べた.訓練データはStep1の結果からランダムに抽出した9,000対を利用し,1,000対から9,000対まで3,000対ごとに評価を行った.その結果を図~\ref{fig:learning_curve}(a),(b)に示す.図~\ref{fig:learning_curve}(a)はSVMの分類時の閾値を0に固定したグラフで,横軸は訓練データの量,縦軸は精度,再現率,F値を示す.また図~\ref{fig:learning_curve}(b)はSVM分類時の閾値を変化させ精度と再現率のトレードオフを調べたグラフで,横軸は再現率,縦軸は精度を示す.図~\ref{fig:learning_curve}(a)より訓練データの量を増やすことで再現率の性能が向上する傾向がわかった.また図~\ref{fig:learning_curve}(b)より,SVMの閾値を変化させた場合でも,訓練データのサイズを増やすことで,性能が向上する傾向にあることが確認できた.この結果は訓練データをさらに増やせば提案手法の性能がさらに向上する可能性を示唆している.\subsection{考察}提案手法により得られた上位下位関係の例を表~\ref{tab:sample}に示す.ここでは,人手で選んだ25語についてランダムに10対の下位語を選択した.表中の${}^\ast$は上位下位関係が誤りの例を,${}^\#$は{小説や映画などのフィクション上でなりたつ}架空の上位下位関係を示す.{このような架空の上位{語\nobreak,}あるいは下位語は,フィクション自体に関する記述(感想)や,比喩表現として日常的に用いられることも多いため,本稿ではそれ以外の上位下位関係と特に区別せず,有用な上位下位関係知識とみなしMillerら}\cite{wordnet-book_1998}{の基準で正解か誤りかを判断した.これらの架空の上位下位関係とそうでない上位下位関係を識別することは今後の課題の一つである.}また表の各列は左から人手で選んだ上位語とその下位語の例を示している.{この例より,ほとんどの上位下位関係は,上位語ごとに多少の精度の偏りがみられるものの正しく認識できていることが確認できる.}\begin{table}[p]\caption{獲得した上位下位関係の例}\label{tab:sample}\input{01table05.txt}\end{table}最後に,提案手法の性能を悪化させている原因を探るべく,SVM分類器により誤りとされた上位下位関係候補を人手で分析した.テストデータ,訓練データ以外の上位下位関係候補からランダムに1,000対抽出し,人手で評価した.誤り分析用データに提案手法を適用した結果,その精度は89.1\%であり,この内訳は内訳は陽性が233対,陰性が658対,偽陽性が22対,偽陰性が87対であった.\begin{table}[t]\caption{偽陽性の分類結果}\label{tab:false_positive}\input{01table06.txt}\end{table}\begin{table}[t]\caption{陰性の分類結果}\label{tab:true_negative}\input{01table07.txt}\end{table}表~\ref{tab:false_positive}に偽陽性の分類結果を示す.表の各列は,左から分類の種類,数,SVMスコアの平均,例を示す.この結果から,部分全体関係が最も頻出する誤りであるうえに,SVMスコアの平均から最も除去しにくい誤りであることがわかった.このような誤りを取り除くことは今後の課題である.また,精度を低下させる原因として,属性・属性値とfacetを含む関係を上位下位関係と誤判定する問題が多いことも分かった.ここでいうfacetとはインスタンスを分類するための属性の値である.例えば,図~\ref{fig:wiki}(c)の記事構造中の「主な紅茶ブランド」と「Wedgwood」との間に挿入されている「イギリス」は「Wedgwood」などのブランドを国別で分類するためのfacetであるといえる.提案手法では自動抽出した属性リストを用いてこのような誤りの除去を試みたが,表~\ref{tab:false_positive}より提案手法の対策だけでは不十分であり,新たに記事構造中の他のノードの情報を素性とするなど改善が必要であることがわかった.また「プロレス技/代表的な技」のように,素性LCHARが悪影響を及ぼしていると思われる例も存在した.つづいて,陽性と偽陰性と判定された関係の上位語が訓練データ中に存在したか否かを調査した.陽性では66.6\%,偽陰性では16.7\%の上位語が訓練データ中に存在していることがわかった.未知の上位語であっても正しく判定できるようにするために,より上位の語や同義語の利用を考えている.最後に,表~\ref{tab:true_negative}に陰性を人手で分類した結果を示す.表の各列は左から誤りの分類,数を示す.ここでは,上位下位関係以外の何らかの概念間関係に分類できるかどうかに注目して分類した.この結果,約80\%については何らかの概念間関係になっていることが分かった.これらについては,正しく分類できれば語彙知識として有用である.本稿では上位下位関係に注目し,二値分類の分類器を用いたが,適切な関係に分類する多値分類を構築することで,Wikipediaの記事構造を余すことなく,語彙知識に変換することができそうである. \section{まとめ} label{sec:matome}本稿では,Wikipediaの記事構造を知識源とした上位下位関係獲得手法を提案した.提案手法は,「Wikipediaの記事構造中のノード間の関係は多くの上位下位関係を含む」という仮定と機械学習を併用することにより,約135万対の上位下位関係を精度90\%で獲得することに成功した.本稿では2007年3月時点でのWikipediaから上位下位関係を獲得したが,Wikipediaは現在も成長を続けており提案手法を最新のWikipediaデータに適用することでさらに多くの上位下位関係を獲得することも可能であると考えられる.実験結果より,Wikipediaの記事構造は上位下位関係だけでなく,属性—属性値の関係,部分全体関係などの記述にも頻繁に使われていることがわかった.今後の課題として,上位下位関係だけでなく部分全体関係や属性—属性値の関係を獲得したいと考えている.{また}\ref{sec:exp}{節で述べたように獲得した上位下位関係には,フィクションの世界でのみ成り立つ架空の上位下位関係が含まれている.これらの架空の世界でのみ成り立つ上位下位関係を識別することは今後の課題である.}更に,Wikipediaの記事には他の言語で記述された記事へのリンクが執筆者によって付与されており,これらのリンクを利用して様々な言語の上位下位関係を獲得することも考えている.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bunescu\BBA\Pa\c{s}ca}{Bunescu\BBA\Pa\c{s}ca}{2006}]{Pasca_2006}Bunescu,R.~C.\BBACOMMA\\BBA\Pa\c{s}ca,M.\BBOP2006\BBCP.\newblock\BBOQUsingencyclopedicknowledgefornamedentitydisambiguation\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Etzioni,Cafarella,Downey,Popescu,Shaked,Soderland,Weld,\BBA\Yates}{Etzioniet~al.}{2005}]{Etzioni_2005}Etzioni,O.,Cafarella,M.,Downey,D.,Popescu,A.-M.,Shaked,T.,Soderland,S.,Weld,D.~S.,\BBA\Yates,A.\BBOP2005\BBCP.\newblock\BBOQUnsupervisednamed-entityextractionfromtheweb:Anexperimentalstudy\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf165}(1),\mbox{\BPGS\91--134}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{wordnet-book_1998}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\BemWordNet:Anelectroniclexicaldatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Fleischman,Hovy,\BBA\Echihabi}{Fleischmanet~al.}{2003}]{Fleischman_2003}Fleischman,M.,Hovy,E.,\BBA\Echihabi,A.\BBOP2003\BBCP.\newblock\BBOQOfflinestrategiesforonlinequestionanswering:Answeringquestionsbeforetheyareasked\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{hearst_1992}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticacquisitionofhyponymsfromlargetextcorpora\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Herbelot\BBA\Copestake}{Herbelot\BBA\Copestake}{2006}]{Herbelot_2006}Herbelot,A.\BBACOMMA\\BBA\Copestake,A.\BBOP2006\BBCP.\newblock\BBOQAcquiringontologicalrelationshipsfromWikipediausingRMRS\BBCQ\\newblockIn{\BemProceedingsofWebContentMiningwithHumanLanguageTechnologiesworkshoponthefifthInternationalSemanticWebConference}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2007}]{Kazama_2007}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2007\BBCP.\newblock\BBOQExploitingWikipediaasexternalknowledgefornamedentityrecognition\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{Pantel_2006}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:Leveraginggenericpatternsforautomaticallyharvestingsemanticrelations\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Ruiz-Casado,Alfonseca,\BBA\Castells}{Ruiz-Casadoet~al.}{2005}]{Ruiz-Casado_2005}Ruiz-Casado,M.,Alfonseca,E.,\BBA\Castells,P.\BBOP2005\BBCP.\newblock\BBOQAutomaticextractionofsemanticrelationshipsforWordNetbymeansofpatternlearningfromWikipedia\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonApplicationsofNaturalLanguagetoInformationSystems},\mbox{\BPGS\67--79}.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{Shinzato_2004}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQAcquiringhyponymyrelationsfromwebdocuments\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\73--80}.\bibitem[\protect\BCAY{Suchanek,Kasneci,\BBA\Weikum}{Suchaneket~al.}{2007}]{Suchanek_2007}Suchanek,F.~M.,Kasneci,G.,\BBA\Weikum,G.\BBOP2007\BBCP.\newblock\BBOQYAGO:AcoreofsemanticknowledgeunifyingWordNetandWikipedia\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalWorldWideWebConference}.\bibitem[\protect\BCAY{Sumida,Torisawa,\BBA\Shinzato}{Sumidaet~al.}{2006}]{Sumida_2006}Sumida,A.,Torisawa,K.,\BBA\Shinzato,K.\BBOP2006\BBCP.\newblock\BBOQConcept-instancerelationextractionfromsimplenounsequencesusingasearchengineonawebrepository\BBCQ\\newblockIn{\BemProceedingsoftheWebContentMiningwithHumanLanguageTechnologiesworkshoponthefifthInternationalSemanticWebConference}.\bibitem[\protect\BCAY{Toral\BBA\Mu{\~n}oz}{Toral\BBA\Mu{\~n}oz}{2006}]{Toral_06}Toral,A.\BBACOMMA\\BBA\Mu{\~n}oz,R.\BBOP2006\BBCP.\newblock\BBOQAproposaltoautomaticallybuildandmaintaingazetteersfornamedentityrecognitionbyusingWikipedia\BBCQ\\newblockIn{\BemProceedingsofWorkshoponNewTextheldatthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Tsurumaru,Hitaka,\BBA\Yoshida}{Tsurumaruet~al.}{1986}]{Tsurumaru_1986}Tsurumaru,H.,Hitaka,T.,\BBA\Yoshida,S.\BBOP1986\BBCP.\newblock\BBOQAnattempttoautomaticthesaurusconstructionfromanordinaryJapaneselanguagedictionary\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\445--447}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley-Interscience.\bibitem[\protect\BCAY{安藤\JBA関根\JBA石崎}{安藤\Jetal}{2003}]{JAndo}安藤まや\JBA関根聡\JBA石崎俊\BBOP2003\BBCP.\newblock\JBOQ定型表現を利用した新聞記事からの下位概念単語の自動抽出\JBCQ\\newblock\Jem{情報処理学会研究報告2003-NL-157},\mbox{\BPGS\77--82}.\bibitem[\protect\BCAY{今角}{今角}{2001}]{JImasumi}今角恭祐\BBOP2001\BBCP.\newblock\JBOQ並列名詞句と同格表現に着目した上位下位関係の自動獲得\JBCQ\\newblockMaster'sthesis,九州工業大学.\bibitem[\protect\BCAY{大石\JBA伊藤\JBA武田\JBA藤井}{大石\Jetal}{2006}]{Oishi_06}大石康智\JBA伊藤克亘\JBA武田一哉\JBA藤井敦\BBOP2006\BBCP.\newblock\JBOQ単語の共起関係と構文情報を利用した単語階層関係の統計的自動識別\JBCQ\\newblock\Jem{情報処理学会研究報告2006-SLP-61},\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{徳永\JBA風間\JBA鳥澤}{徳永\Jetal}{2006}]{JTokunaga_2006}徳永耕亮\JBA風間淳一\JBA鳥澤健太郎\BBOP2006\BBCP.\newblock\JBOQ属性語のWeb文書からの自動獲得と人手評価のための基準\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(4),\mbox{\BPGS\49--67}.\bibitem[\protect\BCAY{鳥澤\JBA隅田\JBA野口\JBA風間}{鳥澤\Jetal}{2008}]{Torisawa_2008}鳥澤健太郎\JBA隅田飛鳥\JBA野口大輔\JBA風間淳一\BBOP2008\BBCP.\newblock\JBOQ自動生成された検索ディレクトリ「鳥式」の現状\JBCQ\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\729--732}.\bibitem[\protect\BCAY{渡邉\JBA浅原\JBA松本}{渡邉\Jetal}{2008}]{Watanabe_2008}渡邉陽太郎\JBA浅原正幸\JBA松本裕治\BBOP2008\BBCP.\newblock\JBOQグラフ構造を持つ条件付確率場によるWikipedia文書中の固有表現分類\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(4),\mbox{\BPGS\245--254}.\end{thebibliography}\begin{biography}\bioauthor{隅田飛鳥}{2007年北陸先端科学技術大学院大学情報科学研究科前期課程終了.現在,同大学情報科学研究科後期課程在学中.修士(情報科学).自然言語処理の研究に従事.}\bioauthor{吉永直樹}{2005年東京大学大学院情報理工学系研究科博士課程修了.2002年より2008年まで日本学術振興会特別研究員(DC1,PD).2008年4月より東京大学生産技術研究所特任助教.博士(情報理工学).自然言語処理の研究に従事.}\bioauthor{鳥澤健太郎}{1995年東京大学大学院理学系研究科情報科学専攻博士課程中退,同年同専攻助手.北陸先端科学技術大学院大学助教授を経て,2008年より(独)情報通信研究機構・MASTARプロジェクト・言語基盤グループ・グループリーダー.博士(理学).自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V07N04-03
\section{はじめに} 近年の電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.要約を利用することで,より少ない労力や時間で,テキストの内容を把握したり,そのテキストの全文を参照する必要があるかどうかを判定できるようになるため,テキスト処理にかかる人間の負担を軽減させることができる.要約は一般に,その利用目的に応じて,元テキストの代わりとなるような要約(informativeな要約)と,テキストの全文を参照するかどうかの判定等,全文を参照する前の段階で利用する要約(indicativeな要約)に分けられることが多い\cite{Oku:99:a}.このうち,indicativeな要約については,近年情報検索システムが広く普及したことにより,検索結果を提示する際に利用することが,利用法として注目されるようになってきている.要約を利用することで,ユーザは,検索結果のテキストが検索要求に対して適合しているかどうかを,テキスト全文を見ることなく,素早く,正確に判定できるようになる.一般に情報検索システムを利用する際には,ユーザは,自分の関心を検索要求という形で表わしているため,提示される要約も,元テキストの内容のみから作成されるgenericな要約より,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法\cite{Mochizuki:99:a}が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖\cite{Morris:91}とは,語彙的結束性\cite{Halliday:76}を持つ語の連続のことである.語彙的連鎖はテキスト中に複数存在し,各連鎖の範囲では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.我々の手法では,この語彙的連鎖の情報を利用することで,検索要求と強く関連したテキスト中の部分を抽出できるため,情報検索システムでの利用に適した要約が作成できる.また,検索要求と関連する部分を一まとまりのパッセージとして得るため,連続性のある要約が作成できる.我々の手法によって作成される要約の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法\cite{Miike:94,Hand:97,Jing:98,Mani:98:a,tombros:98:b,Oku:99:a}を採用し実験を行なう.実験では,複数の被験者に要約と検索要求を提示し,被験者は,要約を元に,各テキストが検索要求に適合するかどうかを判定する.要約は,被験者の適合性判定の精度,タスクにかかった時間および判定に迷った際に全文を参照した回数などに基づいて評価される.また,要約の読み易さに関する評価も合わせて行なう.我々の要約作成手法と,検索要求を考慮した,いくつかの従来の要約作成手法\cite{tombros:98:b,shiomi:98:a,hasui:98:a},検索要求を考慮しない,いくつかの要約作成手法および,全文,タイトルのみの,合わせて10種類の手法を比較する実験を行なう.また,タスクに基づく要約の評価は,最近になって採用され始めた新しい評価方法であり,試行錯誤の段階にある.そのため,今回の評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても,いくつかのポイントから分析し,報告する.以下,\ref{sec:sumpas}節では,我々の語彙的連鎖型パッセージ抽出法に基づく要約作成について述べ,\ref{sec:examination}節では実験方法について説明し,\ref{sec:kekkakousatsu}節で結果の考察をする.最後に\ref{sec:conc}節でタスクに基づく評価方法に関する問題点や留意すべき点について述べる. \section{語彙的連鎖型パッセージ抽出法に基づく要約} label{sec:sumpas}本節では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法による要約作成手法について述べる.我々の要約作成手法は,次のような流れに基づく.まず,テキスト中の語彙的連鎖を計算する.次に,我々の語彙的連鎖に基づくパッセージ抽出手法により,検索要求に適合するテキスト中のパッセージを抽出する.最後に,抽出されたパッセージを,あらかじめ決められた要約の長さに調節する処理を行ない,要約として出力する.以下では,語彙的連鎖の計算方法と語彙的連鎖を用いたパッセージ抽出手法について順に,概略を説明する.詳細は\cite{Mochizuki:99:a}を参照して頂きたい.\subsection{語彙的連鎖の計算}\label{subsec:lexcal}語彙的連鎖は次の手順で計算する.まず,コーパスを用いた単語の共起情報から2つの単語間の類似度を式(\ref{equ:cosdis})のコサイン距離により計算する.\begin{equation}\label{equ:cosdis}coscr(X,Y)=\frac{\sum_{i=1}^{n}x_{i}\timesy_{i}}{\sqrt{\sum_{i=1}^{n}x_{i}^{2}}\times\sqrt{\sum_{i=1}^{n}y_{i}^{2}}}\end{equation}ここで,$x_{i}$と$y_{i}$はテキスト$i$に単語$X$と$Y$が出現する数($tf$),$n$はコーパスの全テキスト数を表わす.次に,計算された類似度を基に,式(\ref{equ:min})の最短距離法によって単語をクラスタリングする.\begin{equation}\label{equ:min}sim(C_i,C_j)=\max_{X\inC_{i},Y\inC_{j}}coscr(X,Y)\end{equation}ここで,$X,Y$はクラスタ$C_i$内,$C_j$内の単語である.閾値\footnote{我々の以前の研究\cite{Mochizuki:99:a}で最も良い連鎖を構成した0.25を今回も閾値とした.}を用いて単語のクラスタを作成し,同一クラスタ内にまとめられた単語の連続によって語彙的連鎖を構成する.\subsection{語彙的連鎖を用いたパッセージ抽出}\label{subsec:expas}パッセージ抽出の手順は次のようになる.まず,入力された検索要求内の語(以後,{\bf検索語}と呼ぶ)を含む語彙的連鎖の情報を取り出す.次に出現範囲に重なりがある連鎖をまとめることによってパッセージを抽出する.この時に,各パッセージと検索要求との類似度も計算する.最後に,類似度が最大のパッセージを,検索要求と最も適合するパッセージとして選択する.図\ref{fig:pasimg}に抽出されるパッセージの例を示す.\begin{figure}[htbp]\begin{center}\atari(102,127)\caption{パッセージの例}\label{fig:pasimg}\end{center}\end{figure}図\ref{fig:pasimg}には,検索要求内の3つの検索語と,テキスト内で各検索語を含む7つの語彙的連鎖(A1〜C3)が示されている.図\ref{fig:pasimg}では,出現位置に重なりのある連鎖がまとめられ,3つのパッセージが抽出される.各パッセージと検索要求との類似度は,パッセージに含まれる連鎖のスコアおよび,連鎖間の重なりの度合に基づき計算される.連鎖のスコアは,連鎖中の単語数に基づき計算される.最終的に,図の例では,最大の類似度のパッセージとして,比較的長い3つの連鎖が互いに重なりあっている,パッセージ1が抽出される(斜線部分).抽出されたパッセージが,あらかじめ決められた要約の長さを越える場合,パッセージの末尾から,長さの制約を満たすように,文を取り除き,最終的な要約として出力する. \section{評価実験} label{sec:examination}我々の要約作成手法の有効性を調べるため他の要約作成手法との比較実験を行なう.評価方法としてタスクに基づく要約の評価方法を採用し,タスクとして情報検索を選択する.タスクに基づく要約の評価方法は,人間が要約を利用して,あるタスクを行なう際のタスクの達成率や所要時間などを用いて,間接的に要約を評価するものであり,最近になって採用され始めている\cite{Oku:99:a,Jing:98,Mani:98:a,tombros:98:b}.本研究は情報検索システムでの利用に適した要約作成を目指しているため,情報検索タスクにおいて,要約がどれだけ役立ったかによって評価することが自然な評価であると考える.本稿の情報検索タスクに基づく要約の評価実験は,TIPSTERTextProgramPhaseIIIのために提案された手法\cite{Hand:97}を参考にしている.今回の実験では,我々の提案手法と他の検索要求を考慮した手法などに全文,タイトルのみを含めた10種類の要約作成手法を実装し,それぞれの手法による要約を使用している.そして,要約を,適合性判定の精度およびタスク達成にかかる時間などに基づいて比較評価する.なお,要約の長さは,文を単位としてテキストの20\%とした.以下の副節では,実装した各要約作成手法,実験方法,評価基準について順に説明する.\subsection{要約作成手法}我々の提案手法と全文,タイトルのみのものも含めて次の10種類の要約作成手法を実装する.なお,各手法の本稿での呼び名を{\bfボールド体}で示す.\begin{itemize}\item全文({\bffull})\\要約を行なわず,全文を要約として提示する.\itemタイトル({\bftitle})\\テキストの見出しのみを要約として提示する.\itemlead手法({\bflead})\\見出しを含み,先頭から文を抽出し,要約として提示する.\item形式段落({\bff-seg})\\テキストをあらかじめ形式段落に分割し,検索要求と各形式段落との類似度を計算する.最も類似度の高い形式段落を1つ選び要約とする.ただし,選択された形式段落の長さが要約の長さを越える場合には,その段落の末尾から,長さの制約を満たすように,文を取り除き,最終的な要約とする.検索要求と形式段落の類似度は以下のように計算する.形式段落ごとに単語の重要度$w_{i}$を基本的な$tf.idf$\cite{Salton:88b}の式(\ref{equ:tfidf})により計算し,形式段落を単語の重要度のベクトル$D_{j}$で表現する.\begin{equation}\label{equ:tfidf}\displaystyle{w_{i}=tf_{i}\timeslog\frac{N}{df_{i}}}\end{equation}ここで$tf_{i}$は段落内の単語$i$の頻度,$N$はテキスト集合内の総段落数,$df_{i}$は単語$i$の出現段落数である.検索要求と形式段落の類似度は,それぞれのベクトル$Q$,$D_{j}$を用いた,以下の式で計算する.\begin{equation}\label{equ:normsim}sim(Q,D_{j})=\sum_{i}(tf_{q_{i}}\timeslog\frac{N}{df_{i}})^2\timesw_{i}\end{equation}ここで,$tf_{q_{i}}$は検索語$q_{i}$の検索要求内の頻度である.\itemテキスト中の単語の重要度に基づく要約({\bftf.idf,q-tf.idf})テキスト中の単語の出現頻度から各単語の重要度を決定し,重要な単語を多く含む文が重要であるという考えに基づき,文の重要度を計算する.本稿ではZechner\cite{Zechner:96}と同様の手法を用いる.まず,テキスト中の各単語の重要度$w_{i}$を計算する.次に,各文中の単語の重要度の総和を式(\ref{scalc})により計算し,重要度$S_{j}$の高い文を抽出する.\begin{equation}\label{scalc}\displaystyle{S_{j}=\sum_{i}w_{i}}\end{equation}この手法では,各単語の重要度$w_{i}$を計算する際に,検索要求を考慮するかどうかの違いにより次の2種類の要約を作成できる.\begin{enumerate}\item検索要求を考慮しない場合({\bftf.idf})\\式(\ref{equ:tfidf})により,tf.idfを基に$w_{i}$を計算する.ただし,この場合の$tf_{i}$はテキスト内の単語$i$の出現頻度,$df_{i}$は単語$i$の出現するテキストの数,$N$は全テキスト数である.\item検索要求を考慮する場合({\bfq-tf.idf})\\検索要求内の単語(検索語)には重み$\alpha$をかける\footnote{いくつかのテキストにおいて$\alpha$を2,3,4,5と変化させた予備的な実験で,重みをかけない場合との要約の違いが最も大きかった$3$を今回の$\alpha$の値とした.}.\begin{equation}\label{qb_tfidf}w_{i}=\left\{\begin{array}{rl}tf_{i}\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語でない}\\\alpha\timestf_{i}\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語}\\\end{array}\right.\end{equation}検索要求を考慮した,従来の要約作成手法の多くは,この手法に基づいている\cite{tombros:98:b,shiomi:98:a,hasui:98:a}.\end{enumerate}\itemテキスト中の語彙的連鎖の重要度に基づく要約({\bfcf.idf,q-cf.idf})\\この手法では,重要な語彙的連鎖を構成する単語を多く含む文が重要であると考え,文の重要度を決定する.まず,語彙的連鎖を\ref{subsec:lexcal}節と同様に計算する.次に,要約の作成は,単語の重要度に基づく場合と同様に,まず各連鎖の重要度$w_{i}$を計算し,次に式(\ref{scalc})により各文中の連鎖の重要度の総和を計算し,重要度$S_{j}$の高い文を抽出する.なお,$w_{i}$を計算する際に,検索要求を考慮するかどうかの違いにより次の2種類の要約が作成できる.\begin{enumerate}\item検索要求を考慮しない場合({\bfcf.idf})\\$w_{i}$を,連鎖$i$の構成単語数($cf$)と連鎖$i$の出現テキスト数($df_{i}$)により計算する.\begin{equation}\label{wchain_tfidf}\displaystyle{w_{i}=\midi\mid\timeslog\frac{N}{df_{i}}}\end{equation}ここで,$\midi\mid$は連鎖$i$の構成単語数,$df_{i}$は連鎖$i$の出現テキスト数,$N$は全テキスト数である.これまでの語彙的連鎖を用いた要約作成手法の多くは,このような,連鎖を用いた重要文抽出と言うことができる\cite{Barzilay:97,sanfilippo:98:a}.\item検索要求を考慮する場合({\bfq-cf.idf})\\検索語を含む連鎖には重み$\alpha$をかける\footnote{{\bfq-tf.idf}の場合と同様に$\alpha=3$とした.}.\begin{equation}\label{qb_cfidf}w_{i}=\left\{\begin{array}{rl}\midi\mid\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語でない}\\\alpha\times\midi\mid\timeslog\frac{N}{df_{i}}&\quad\mbox{検索語}\\\end{array}\right.\end{equation}\end{enumerate}\item語彙的連鎖型パッセージに基づく要約({\bflex})\\\ref{sec:sumpas}節で説明した,我々の手法によって要約を作成する.\item市販ワープロソフトによる要約({\bfJ})\\本試験に先立ち,市販の代表的な要約機能付きワープロ3種によって作成した要約を用い,被験者9人による予備実験を行なった.結果として総合的に最も精度の高かったJの要約を本試験に使用する.\end{itemize}\subsection{実験方法}実験には『情報検索テストコレクションBMIR-J2』\cite{BMIR-J2:98j}を使用する.BMIR-J2は,テキスト5080件(毎日新聞1994年版の経済および工学,工業技術一般に関連する記事),検索要求50種とその正解がセットとなった情報検索用テストコレクションである.今回は全セットの中から,主題を表わすA判定の正解テキストが10テキスト以上ある10種類の検索要求と,各検索要求ごとに20テキストを選択して使用する.この20テキストは,まず検索システムを用いて,各検索要求によるキーワード検索を行ない,検索結果として得られたテキストの中から正解テキストの割合が50\%以上になるように選択する.被験者は,日本語を母国語とする情報科学系の大学院生30名とする.各被験者には,検索要求とその要求に対応する20テキストのリストおよび各テキストの要約を提示する.被験者は,各テキストが検索要求に適合するかどうかを判定し,20テキストの判定にかかった時間を記録する.また,要約を読んでも適合性の判定がつかない場合に限り,そのテキストの全文を参照することが許される.ただし,全文を参照した場合には,その参照回数を検索要求ごとに記録する.また,提示された各要約について,要約としてではなく,日本語の文章としての読み易さを主観で判定してもらう.読み易さの判定は,1.わかりやすい,2.ややわかりやすい,3.ややわかりにくい,4.わかりにくい,の4段階とする\footnote{判定を奇数にすると真中が選択される傾向が予想されるため,この4段階とした.}.1人の被験者は同じ検索要求とテキストの組を1度しか判定できないため,30名を3名づつの10グループに分け,各グループが異なる要約作成手法と検索要求の組を10組づつ評価するという形を採用する.そのため,1組の検索要求と要約作成手法に対し3名が評価を行なう.\subsection{評価基準}以下の点について評価を行なう.\begin{itemize}\item適合性判定の精度\\被験者の適合性判定と,テストコレクションの正解を比較し,適合性判定の精度を計算する.評価尺度には再現率,適合率,F-measureを使用する.\begin{equation}再現率=\displaystyle{\frac{被験者が正しく適合と判定した数}{実際に適合するテキスト数}}\end{equation}\begin{equation}適合率=\displaystyle{\frac{被験者が正しく適合と判定した数}{{\small被験者が適合と判定したテキストの総数}}}\end{equation}\begin{equation}F-measure=\displaystyle{\frac{2\times再現率\times適合率}{再現率+適合率}}\end{equation}\itemタスクにかかった時間\\被験者が1つの検索要求についてタスクにかかった時間を記録し,平均時間を計算する.\item全文を参照した回数\\要約によって判定がつかない場合に参照した全文の回数を記録する.\item要約の文章としての読み易さ\\検索要求との関係などを一切考慮せず,要約の文章としての読み易さを4段階で評価する.\end{itemize} \section{結果と考察} label{sec:kekkakousatsu}\subsection{実験結果}今回の実験では言語的,教育的背景の似ている被験者を30名選択している.これは,被験者の知識や背景の違いに起因する検索要求の解釈や判定の違いをできるだけ排除するためである.つまり,被験者のタスク達成精度にはあまり差がないことを仮定している.しかし,30名の実験結果から計算されたタスクの達成精度について,F-measureを用いて一元配置分散分析を行なったところ差がみられた($p<0.0039$).そのため,F-measureを基準にし,図\ref{fig:FM}の丸で囲んだ,差の少ない21名($p<0.9995$)によって以後の評価を行なうこととした.\begin{figure}[htbp]\begin{center}\atari(106,64)\caption{被験者のF-measureの分布}\label{fig:FM}\end{center}\end{figure}21名での実験結果を表\ref{tab:er}に示す.\begin{table*}[htbp]\begin{center}{\small\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c|}\hline&full&title&lead&f-seg&tf.idf&{\smallq-tf.idf}&cf.idf&{\smallq-cf.idf}&lex&J\\\hline再現率&87.1\%&86.7&85.9&87.2&86.3&89.6&87.0&85.3&90.5&86.5\\適合率&89.0\%&89.1&88.9&88.8&89.7&85.3&85.3&87.0&88.5&91.3\\{\smallF-measure}&87.2\%&87.0&86.6&87.1&87.2&86.6&84.9&84.9&89.1&87.6\\{\small読み易さ}&4.1&1.8&4.6&3.7&3.8&4.0&4.3&3.9&4.1&5.5\\{\small時間(分:秒)}&15:38&7:54&9:47&10:55&10:37&9:54&10:54&10:29&10:41&10:52\\時間比&100\%&50.5&62.6&69.8&67.9&63.3&69.7&67.1&68.3&69.5\\%\hline{\small参照回数}&0.6&4.8&3.8&2.8&2.6&1.7&2.0&1.5&1.9&2.0\\%\hline{\small平均文間数}&0.0&0.0&0.0&0.0&3.6&3.5&3.8&3.6&0.0&1.4\\%\hline{\small要約率(語)}&100.0\%&5.3&19.1&21.7&32.1&31.5&30.5&30.2&23.6&27.7\\\hline\end{tabular}}\caption{実験結果}\label{tab:er}\end{center}\end{table*}表\ref{tab:er}には,検索要求(20テキスト)ごとの結果の平均が示されている\footnote{表中のF-measureの値も検索要求ごとのF-measureの平均である.}.表中の「読み易さ」は,被験者が4段階で判定した読み易さを数値化した値である.この数値は,各テキストについて被験者が「わかりやすい」と判定した場合に10点,「ややわかりやすい」と判定した場合に5点,「ややわかりにくい」,「わかりにくい」の場合それぞれ,-5点,-10点に換算して足し合わせた値の平均である\footnote{今回の実験で,「短すぎると何が言いたいのか分からない」という被験者の意見が多く見られた.これは被験者が,設問にある「要約の文章としての読み易さ」から少しずれて「適合性判定がしやすいかどうか」で判断してしまう傾向があることを示している.}.また,「時間比」は各要約での作業に要した時間を全文で要した時間で割った値である.また,「平均文間数」として,要約内の隣接2文間の,元テキスト(全文)での距離(文間数)の平均を合わせて示した.この平均文間数が0に近いものほど,作成された要約の連続性が高いことを意味している.さらに,今回の要約の長さは文を単位として元テキストの20\%としているが,語を単位として各手法の要約の長さを計算したものを「要約率(語)」として示している.被験者の判定の統計的信頼性について,Jingら\cite{Jing:98}と同様に,帰無仮説を「あるテキストが検索要求に適合すると被験者の判定する数はランダムである」としたCochranのQ-test\cite{statistical:81}を行なった.その結果,全10種の検索要求のいずれの場合も$p<10^{-5}$であり,帰無仮説は棄却された.つまり,今回の実験で被験者達は適合するテキストをランダムに選択しているのではないとの検定結果を得た.\subsection{考察}\label{sec:kousatsu}上記の実験結果について,まず,10種類の要約作成手法全体での考察を,適合性判定の精度,タスク達成にかかる時間,要約の文章としての読み易さに焦点をあてて行なう.次に,各手法を作成された要約の類似性に基づいて分類し,各分類に対する考察を同様の観点から行なう.\subsubsection{全要約作成手法間の比較}全要約作成手法をF-measureによって比較すると,我々の語彙的連鎖型パッセージに基づく要約({\bflex})が最も良く,{\bfJ}とともに全文({\bffull})での精度を上回っている.他のものは{\bffull}と同じかやや低い値となっている.ただし,今回の10種の要約作成手法でのF-measureについて,一元配置分散分析を行なった結果,全体としてF-measureの平均値に統計的な有意差は見られなかった($p<0.9725$).これは,今回の実験において適合性の判定に迷う場合に全文の参照を許したことが一因となっていると思われるが,全文参照の影響を推測できないため,特に補正は行なっていない.作業時間に関しては,{\bffull}が最も長くかかっており,どの要約作成手法によっても時間短縮の効果はあると言える.要約手法間では,{\bftitle}が一番短かく,20テキストあたりの作業時間では他の手法との間に大きな差が見られた.他の手法間では互いにそれほど差がなかった.適合性判定の精度と作業時間をあわせて考えると,{\bftitle}が,精度面では最も高かった{\bflex}よりもやや劣るものの,作業時間ではかなり短く,総合的には,{\bftitle}を表示し,わかりにくいものについては全文を参照する方法が効率的であると見ることができる.しかし,実際に検索対象となるテキストには必ずしも見出しが付いているわけではなく,いつも{\bftitle}手法が利用できるとは限らない.一方,見出しのないテキストにも利用できる自動的な要約手法の中では,総合的に{\bflex}が一番良い数値を示していると言える.読み易さについては,{\bfJ},{\bflead},{\bfcf.idf}が{\bffull}よりも高く,{\bflex}は{\bffull}と同じであり,それ以外は{\bffull}よりも低い.また今回の実験では{\bftitle}が一番低い値であった.読み易さについては,後述するように要約を元テキストの先頭から選ぶ傾向のある手法({\bflead},{\bflex},{\bfJ})の値が高いと言える.\subsubsection{要約の類似性に基づく比較}\label{subsec:sumsim}次に,作成された要約の類似性に基づいて各手法を分類し,結果を考察する.類似度は次のように計算する.まず要約作成手法ごとに,要素を元テキスト(全文)の各文とし,値をその文が重要文として選択されれば1,されなければ0としたベクトルを用意する.次に2つのベクトル間のコサイン距離を計算し,各要約作成手法間の類似度とする.最後に,最短距離法と平均距離法の2種類のクラスタ間距離によって,要約作成手法の階層型クラスタリングを行なう.結果として,どちらの距離においても図\ref{fig:sim}のように{\bfJ}と{\bflead}と{\bflex}のグループ({\bfグループ1}),{\bftf.idf},{\bfcf.idf},{\bfq-tf.idf},{\bfq-cf.idf}のグループ({\bfグループ2}),{\bff-seg}だけのグループ({\bfグループ3})の3つのグループに分類された.図\ref{fig:sim}で上段の数字が最短距離法,下段が平均距離法での類似度を示している.なお,{\bffull}と{\bftitle}は他の手法との比較に意味がないため除外している.\begin{figure}[htbp]\begin{center}\atari(110,78)\caption{要約間の類似度}\label{fig:sim}\end{center}\end{figure}{\bfグループ1}に分類された3つの手法によって作成される要約は,連続性が高い点で共通している.この内,{\bflead}と{\bflex}は完全に連続である.また,{\bfJ}の要約作成手法は不明だが,{\bflex}と{\bfJ}の類似度は0.47であり,それほど高くないため,{\bflex}と{\bfJ}が元テキストの先頭部分をある程度含むことと,{\bfJ}が先頭部分と離れた文もある程度の割合で含むことがわかる.{\bfグループ2}に分類された4つの要約作成手法は,どれも文中の語や語彙的連鎖に重みをかけて,重要度の高い文を抜き出す手法であり,作成される要約の連続性が低い点で共通している.また,どの手法間の類似度も非常に高く,このグループでは,検索要求の考慮や,重み付けの単位が語か語彙的連鎖かという違いが,作成される要約にそれほど大きく影響していない.{\bfグループ3}は{\bff-seg}だけのグループである.{\bff-seg}では,{\bfグループ1}と同様に連続性の高い要約が作成されるが,選択される文の元テキストでの位置が大きく異なっている.F-measureによって適合性判定の精度を比較すると,最も良かった{\bflex}と{\bfJ}が同じ{\bfグループ1}に分類されている.少なくとも今回の実験では先頭部分をある程度含み,連続性の高い要約が,適合性の判断において良い精度を収めている.しかし,{\bflead}はそれほど精度が良くないため,単純に先頭から抜き出す要約はそれほど有効でなかったと言える.読み易さに関しても{\bfグループ1}が比較的高い評価を得ている.また,今回の要約作成手法には{\bflex}のように検索要求を考慮するものと,しないものという違いがあった.それぞれのグループについて見ると,{\bfグループ2}の連続性の低い要約の場合には,検索要求を考慮することで判定はしやすくなるが,精度は必ずしも向上していない.一方,連続性のある要約の場合には,検索要求を考慮する{\bfグループ1}の{\bflex}および,{\bfグループ3}の{\bff-seg}のどちらの場合にも,検索要求を考慮しない{\bflead}よりも精度が向上した. \section{おわりに} label{sec:conc}本稿では,我々が以前に提案した語彙的連鎖に基づくパッセージ抽出手法が,検索要求を考慮した要約作成に利用できることを示し,情報検索タスクに基づいた要約の評価方法によって,他の要約作成手法との比較を行なった.今回の実験結果では,被験者に全文の参照を許したこともあり,適合性判定の精度に統計的有意差が得られなかったため確定的な結論は導けないが,実験結果の数値は本手法が情報検索タスクにおいて,有効な要約作成手法であることを支持するものであった.作業時間に関しては,特に優位性を示す実験数値は得られなかった.読み易さに関しては,全文の場合と同等の評価を得た.今回の評価実験の経験から,要約の評価実験を実施する上で考慮すべき点として次のことがあげられる.\begin{itemize}\item全文参照の影響\\要約作成手法間の精度比較で全体的な統計的有意性が得られなかった原因として,全文参照を許したことが考えられる.全文参照が精度に影響する度合がはっきりせず,影響の度合を推測することも困難であるため,実験での全文参照は許さない方が良い.また,参照によってタスクの達成時間も変化すると思われるが,やはり影響の度合がはっきりしない.この点からも参照は許さない方が良い.しかし,要約だけでは判定のつかない場合も確かに存在するため,そのような場合に,どうすべきかも考慮しておく必要がある.\item読み易さの判定\\要約作成手法間のタスク達成時間の比較で,ほとんど差が出なかった主な原因として,読み易さの判定を同時に行なったことが考えられる.読み易さの判定は,適合性判定に比べてかなり多くの時間を要するため,適合性判定の際についた各手法間の時間差がはっきりしなくなったようである.そのため全く別の実験とした方が良い.\item検索要求とテキストの選択\\要約作成手法間の比較評価には向かない検索要求とテキストの組み合わせとして,次のような関係が考えられる.\begin{enumerate}\item検索要求に関係する単語が比較的均等に散らばっているテキストと要求の組.\\この場合には,テキスト中のどの部分を要約として取り出しても,検索要求との適合性判定がしやすい要約が作成される可能性がある.\item単語の分布が均等でなくても,検索語の出現頻度が高いテキストと要求の組.\\この場合には,検索要求を考慮した要約作成手法と,しない手法のそれぞれによって作成される要約の差がつきにくくなる可能性がある.\end{enumerate}要約作成手法間の相違をよりはっきりさせるためには,少なくとも,以上の点を考慮して検索要求とテキストを選択する必要がある.しかし,最適な検索要求とテキストを選択するための基準は現在のところ明らかでない.また,検索要求とテキストを組にして考える必要があり,難しい問題であるため,今後の課題である.\end{itemize}\vspace{5mm}\acknowledgment本研究では,(社)情報処理学会・データベースシステム研究会が,新情報処理開発機構との共同作業により構築したBMIR-J2を利用させていただきました.感謝致します.共起計算では日立製作所中央研究所の西岡真吾研究員の開発されたプログラムを使用させていただきました.感謝致します.また,本論文に対し,有意義なコメントを戴いた査読者の方に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{望月源(正会員)}{1970年生.1993年金沢大学経済学部経済学科卒業.1999年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月より,北陸先端科学技術大学院大学情報科学研究科助手.博士(情報科学).自然言語処理,知的情報検索システムの研究に従事.情報処理学会会員}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.\\[email protected],http://www.jaist.ac.jp/\~\,oku/okumura-j.html.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\verb++\end{document}
V01N01-03
\section{はじめに} 従来の構文解析法は基本的に句構造文法あるいは格文法をその拠り所としてきた.前者の考え方は局所的統合の繰り返しによって文の構造を認識しようというものである.しかし,実際にそのような方法で文を解析しようとすると,規則の数が非常に多くなり,なおかつ十分な精度の解析結果を得ることが困難であった.また,格文法の場合は格要素を決定するための意味素が必ずしもうまく設定できず,またこの場合も基本的には局所的な解析であるため,十分な精度の解析結果が得られていない.これらの問題を解決するためには,これらの文法的枠組に加えて,局所的記述ではとらえきれない情報を文中の広い範囲を同時的に調べることによって取り出す必要がある.日本語文解析の困難さの原因の一つである並列構造の範囲に関する曖昧性の問題も,このような「広い範囲を同時的に調べる」ことを必要とする問題の一つである.日本語文は,特に長い文になればなるほど多くの並列構造を含んでいる.「〜し,〜し,〜する」のように,いわゆる連用中止法によって複数の文を1文にまとめることができることは日本語文の特徴でもある.それ以外にも,名詞並列,形容詞並列や,連体修飾節の並列などが頻繁に現れる.このような並列構造に対する従来の解析方法は,基本的には次のようなものであった\cite{Nagao1983,Agarwal1992}.例えば「\ldots原言語を解析する\underline{処理と}相手言語を生成する\underline{処理を}\ldots.」という文では,並列構造前部の{\bf主要語}である「\underline{処理(と)}」に対して,それよりも後ろにある名詞の中から最も類似している名詞を探すという方法により後部の主要語を決定していた(この場合「\underline{処理(を)}」が後部の主要語).しかし並列構造においては,主要語間だけではなく,構造内の他の語の間(この例の場合「原言語」と「相手言語」,「解析する」と「生成する」)にも,さらに文節列の並び(「〜を〜する〜と〜を〜する〜」)にも類似性が認められる場合が多く,これらの類似性を考慮することによってより正確に並列構造を認識することができる.そこで我々は,並列構造の存在を示す表現(名詞並列を示す助詞「と」など)の前後における最も類似度の高い文節列の対を,音声認識などで広く使われているダイナミックプログラミングのマッチング法と同様の考え方を用いて発見するという方法を考案し,このことにより並列構造の高精度な検出が可能であることを示した\cite{KurohashiAndNagao1992}.本論文では,このようにして検出した並列構造の情報を利用して構文解析を行なう手法を示す.多くの場合,いったん並列構造が発見されると文の構造は簡単化した形でとらえることができる.その結果,単純な係り受け規則を適用するだけで高精度な構文解析が可能となる.本手法は,たとえば,大規模なテキストを解析して,そこから新しい情報を取り出そうとするような場合に特に有用である.対象テキスト中の専門用語や専門的に使われている述語について,それらの相互間の関係はそこで始めて提示された概念であるかもしれない.その場合には,そのような概念の相互関係は辞書に記述されておらず,辞書中の意味記述に頼った解析は不成功となる.また,大規模なテキストを扱うのに十分であるような複雑な文法規則や詳細な格記述を用意することは,実際には非常に困難である.新しい概念は用語相互間のシンタックスによって示されるのであるから,シンタックスを尊重した解析が重要である.また,本手法でうまく扱えない問題を整理することによって,構文解析における本質的問題を明らかにすることも重要な問題である.これまでの,構文解析における曖昧性の議論では,人間にとっても曖昧であるような表現を取り上げたものが多かった.しかし,従来の構文解析法が十分でないという印象を人間に与えるのは,そのような点ではなく,人間であれば絶対にしないような部分に不必要な曖昧性を認識するためである.その原因がどこにあるかを調べるためには,本手法のように高精度でかつ決定論的に動作する道具立てが必要である.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,70)\put(5,5){\framebox(80,60){ps/examp1.new.ps1}}\end{picture}\end{center}\caption{並列構造の推定の例(例文1)}\label{fig:suitei_rei}\end{figure}} \section{並列構造の検出と文の簡単化} \subsection{並列構造の検出の概要}\label{subsec:heiretu_kenshutu}1文中の並列する部分は何らかの意味において類似していると考えることが出来る.そこで,類似性という観点から並列構造を検出する方法を図\ref{fig:suitei_rei}を用いて説明する(詳細は文献\cite{KurohashiAndNagao1992}参照).並列構造の存在を機械的に認識することは比較的容易である.{\bf名詞並列}は,名詞の直後の読点や助詞「と」・「や」などによって認識でき,{\bf述語並列}は,述語自身が連用形であることや述語が助詞「が」などを伴うことによって認識できる(このように並列構造の存在を示す文節を{\bf並列のキー}とよぶことにする).問題となるのは,そういった表現がある場合にその前後のどこまでが並列構造の範囲であるかということである.そこでまず,文節間\footnote{前処理として入力日本語文を形態素解析し,自立語とそれに続く付属語を文節にまとめている.}の類似度を品詞の一致,文字列の一致,シソーラスによる意味的な近さ,などによって定義し,全ての文節間についてこの値を計算した.図\ref{fig:suitei_rei}の三角行列では,対角要素は文節を,(i,j)要素はi番目の文節とj番目の文節の類似度を示している.次にいくつかの連続した文節,すなわち文節列相互間の類似度を考える.そのために以下の用語を定義する.\begin{description}\item[部分行列]並列のキーの右上部分の行列(図\ref{fig:suitei_rei}では点線で囲まれた部分).\item[パス]部分行列の中の1番下の行の0以外のある要素から1番左の列のある要素までの左上方向への要素の並び.\item[パスのスコア]パスに含まれる要素の値の総和.パス内の要素の並びが真左上方向からずれる場合にはペナルティとして値を小さくする.\end{description}パスに含まれる各要素の値は並列のキーの前後にある2つの文節間の類似度を示しているので,それらの値の総和であるパスのスコアはパスの左側の文節列と下側の文節列の間の類似度を示している.パスの方向のずれに対してペナルティを与えるのは,それによって文節数が同じぐらいの文節列間の類似度を相対的に高くするためである.このように考えると,文節列間の類似度をパスのスコアという形で計算することができるようになる.そこで,ダイナミックプログラミングの手法によって並列のキーに対する最大スコアのパスを求め,そのパスによって示される最も類似度の高い文節列を並列構造の範囲と考えることにする.図\ref{fig:suitei_rei}の例では,実線で囲まれた要素の並びが最大スコアのパスとして求まり,このパスによって正しい並列構造の範囲が検出される.実験として30文字〜50文字,50文字〜80文字,80文字以上の各60文,合計180文の日本語文に対してこの手法を適用したところ,82\%の並列のキーに対して正しい並列構造を検出することができた.これは文献\cite{KurohashiAndNagao1992}で既に発表した.この方法によって求まった並列構造の範囲は{\bf前部}と{\bf後部}からなり,前部の最初の文節を{\bf起点文節},後部の最後の文節を{\bf終点文節}とよぶことにする(以降本論文では,{\bf前部},{\bf後部}という用語は,並列構造を構成する文節列を示すものとする).終点文節は前部と後部を分かつ並列のキー(前部の最後の文節)と対応する文節であり,パスの定義からわかるようにこれら2つの文節は類似度をもったものが選ばれる.一方,並列構造の前部と後部にはそれぞれ並列のキーと終点文節を修飾している文節列があり,起点文節は前部の修飾部分がどこまでであるかを示している.しかし,前部と後部の修飾部分には正確な対応関係があるわけではなく,起点文節は主にバランス(文節数の同じ文節列の類似度が高い)という観点から決定される.そのため,起点文節は並列構造の始まりの位置を必ずしも正確に示しているわけではない.その最終決定は係り受け解析の段階で処理する(\ref{subsec:enchou}節).なお,検出された並列構造のうち次の二つの条件を満たす,とくに類似度の高いものを{\bf強並列}とよぶことにする.\begin{itemize}\item前部の文節数(n1)と後部の文節数(n2)がほぼ等しい.\item並列構造を与えるパスのスコアが高い.\footnote{文献\cite{KurohashiAndNagao1992}で示したスコア計算のパラメータに対しては,30文の学習サンプル(岩波情報科学辞典のテキスト)の調査の結果,具体的な条件を次のように与えた(前部の文節数をn1,後部の文節数をn2とする).\begin{quote}{\bf文節数}:$\frac{4}{5}\leq\frac{n1}{n2}\leq\frac{5}{4}$を満たす.{\bfスコア}:(n1$+$n2)$\times$4点以上である.\end{quote}}\end{itemize}たとえば,次の文の下線部分は強並列である.\begin{quote}例文2:「もちろん、問題の大部分は、ある現象を調べるのにどんなアルゴリズムが必要かを正確に見定めることであるが、コンピューターのアーキテクチャがその開発の\underline{助けになることもあれば、}\underline{妨げになることもある。}」\end{quote}強並列は,以降の処理において他の並列構造と若干異なった扱いをする.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(120,110)\put(5,5){\framebox(110,100){ps/kankei.ps}}\end{picture}\end{center}\caption{並列構造間の関係}\label{fig:kankei}\end{figure}}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(150,55)\put(5,5){\framebox(140,45){ps/kankei\_rei.new.ps}}\end{picture}\end{center}\caption{並列構造間の関係の例}\label{fig:kankei_rei}\end{figure}}\subsection{並列構造間の関係の整理による文の簡単化}前節の処理で得られた並列構造の範囲に関する情報をまとめることによって,文の大まかな構造を把握することができる.この処理は,まず二つの並列構造間の関係を明らかにし,それをもとに1文内の全ての並列構造間の関係を整理することによって行う.並列構造の範囲は,\{起点文節の位置,並列のキーの位置,終点文節の位置\}の3組値で表すことができる.1文内に2つの並列構造が存在するとき,図\ref{fig:kankei}に示すように,前方の並列構造Xの範囲を\{x1,x2,x3\},後方の並列構造Yの範囲を\{y1,y2,y3\}とする.並列構造間の関係が問題となるのは,その範囲が重なる場合,すなわちy1$\leq$x3の場合である.このときy1とx1,x2,およびx3とy2,y3の関係によって2つの並列構造間の位置関係を図\ref{fig:kankei}のように分類できる.この16の位置関係は次の3つの関係に分類することができ,そのそれぞれに対して次のような処理を行う.\begin{description}\item[兄弟関係]---F\\前節の処理では,3つ以上の部分からなる並列構造は,Fの位置関係にある複数の並列構造の組合せとして検出される.そこでFの位置関係にある並列構造は1つの並列構造にまとめる(図\ref{fig:kankei_rei}(a)).\item[親子関係]---A,B,C,D,E,G,H,M,N\\ある並列構造の中にさらに並列構造が含まれる入れ子構造の場合である.このうちA,B,C,Gの位置関係の場合は並列構造Yの前部を並列構造Xを含むように延長する(図\ref{fig:kankei_rei}(b)).逆にEの場合は並列構造Xの後部を並列構造Yを含むように延長する(図\ref{fig:kankei_rei}(c)).\item[違反関係]---I,J,K,L,O,P\\これらの位置関係は,正しい並列構造の重なりではなく,並列構造の検出の誤りによって生じたものであると考えられる.このような関係にある並列構造については次節で示す方法によって並列構造の再検出を行う.なお,I,Jの位置関係は親子関係としたC,Gと左右対称であるが,並列構造の後部については前節の処理で正確な範囲が求まっており後方へ延長することはないので,違反関係とする(Eの親子関係の場合は特別,図\ref{fig:kankei_rei}(c)と図\ref{fig:kankei_rei}(d)参照).\end{description}なお,並列構造の類似度が高い強並列では,その中の文節がそれぞれ強く対応しており,意味的に強い\.{ま}\.{と}\.{ま}\.{り}をなしていると考えられる.そのため,外部の並列構造(並列のキーが強並列の範囲の外にあるもの)の境界が強並列の内部にある場合は違反関係とする.すなわち,後の並列構造が強並列である場合に,A,Eの位置関係を違反関係とする.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(110,40)\put(5,5){\framebox(100,30){ps/kantan.new.ps}}\end{picture}\end{center}\caption{文の簡単化(例文3)}\label{fig:heiretu_tree}\end{figure}}これらの処理の具体例を図\ref{fig:kankei_rei}(a)の例文(以後,例文3とよぶ)について示す.この例文の場合,前節の処理で次の3つの並列構造が検出される.\begin{itemize}\itemCS1$[$表題,$]$-$[$著者,$]$\itemCS2$[$著者,$]$-$[$主題などの$]$\itemCS3$[$主題などの〜再編成し,$]$-$[$索引の〜記録しておく.$]$\\end{itemize}このうちCS1とCS2は兄弟関係にあるので,これらを3つの部分からなる1つの並列構造CS'($[$表題,$]$-$[$著者,$]$-$[$主題などの$]$)にまとめる.さらに,CS2とCS3,すなわちCS'とCS3が親子関係にあるので,CS3の前部を「表題,著者,」の部分を含むように延長する.これらの処理の結果,図\ref{fig:heiretu_tree}に示すように,文の大まかな構造を得ることができる.\subsection{違反関係にある並列構造の修正}文内に違反関係の並列構造がある場合には,並列構造の検出のやり直しを行なう.違反関係にある2つの並列構造のうち,スコアの高い方の並列構造の範囲を基準とし,その範囲に対して違反関係にならないような並列構造をもう一方の並列のキーについて再検出する.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(120,80)\put(5,5){\framebox(110,70){ps/kankei\_shuusei.ps}}\end{picture}\end{center}\caption{並列構造間の違反関係による並列構造の再検出}\label{fig:kankei_shuusei}\end{figure}}たとえば,前方の並列構造Xの再検出を行なう場合には,x2,y1,y2,y3の値に対して図\ref{fig:kankei}の関係式によって正しい位置関係を与えるようなx1,x3の値の範囲を求める.並列構造の再検出では,並列構造の起点文節と終点文節の位置をこのようにして求まった範囲内に制限し,その中でもっとも類似度の高い並列構造を求める.図\ref{fig:kankei_shuusei}に並列構造の再検出の例を示す.図の中に示した表は,並列構造$[$プログラム,データだけでなく,$]$-$[$ファイル,データベースをも$]$を基準として並列のキー「ファイル,」に対する並列構造を再検出する場合,起点文節が6番目の文節「ファイル,」であり,終点文節が7番目の文節「データベースをも」である並列構造だけが制限を満たすことを示している.すなわち,この例文の場合,再検出される並列構造の範囲は起点文節と終点文節に対する制限によって一意に決まることになる.違反関係にある並列構造の組が1文内に複数ある場合には,スコアの差が最も大きい組について再検出の処理を行なう.そして一つの並列構造の再検出を行うたびに全体の並列構造間の関係を調べ直し,違反関係がなくなるまでこの処理を繰り返す. \section{係り受け解析} 前章で説明したように,文内の並列構造が決定されると文の大まかな構造がとらえられたことになり,文を簡単化した形で扱うことが可能となる.この結果,簡単化された各部分に対して単純な係り受け解析をするだけで,従来の構文解析よりも頑強な,すなわち長い文に対しても有効な構文解析を行なうことができる.\subsection{係り受け解析の概要}係り受け解析の目的は,文節間の係り受け関係を明らかにし,その関係を{\bf依存構造木}によって表現することである\cite{Kodama1987}.依存構造木では,木の節点には{\bf受け}の文節を,その子の節点には{\bf係り}の文節を配置する.日本語の場合,各文節はそれよりも後ろの文節に係るので,最終的には文末の文節を根節点とする依存構造木が得られる.係り受け解析は,まず並列構造に関する部分について行なう.複数の並列構造が入れ子構造(親子関係)をなしている場合は,その中の最も深いレベルにある並列構造から順に解析していく.そして,最後に文全体の解析を行なう.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(85,40)\put(5,5){\framebox(75,30){ps/examp3.new.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文3)}\label{fig:kakari_rei}\end{figure}}並列構造の前部と後部はそれぞれ意味的なまとまりをなしており,それぞれを1つの依存構造木にまとめることができる.そこで,並列構造を表すためにその2つの依存構造木の根節点(依存構造木の表示では``$<$P$>$''を付加)を子の節点とする新たな節点(依存構造木の表示では``PARA''と表記,{\bf並列節点}とよぶことにする)を作り,その上のレベル(親の並列構造,それがない場合には文全体)の係り受け解析では,この並列節点のみが扱われるようにする.並列節点は,係りの文節となる場合には終点文節の内容を継承し,受けの文節となる場合には並列のキーと終点文節の内容を継承する.こうすることによって,並列構造中の並列のキーと終点文節以外の文節は並列構造の外の文節の係り先にはならないことになる.3つ以上の部分からなる並列構造の場合は,並列節点の子の節点,すなわち並列構造内でまとめられる依存構造木の数が増えるだけで,その他の処理は全く同じである.たとえば図\ref{fig:heiretu_tree}に挙げた例文3では,まず並列構造[表題,著者,主題などの]の各部分が処理対象となる.この各部分は1文節なので係り受け解析の必要はなく,単にそれらをまとめた並列節点が作られる(図\ref{fig:kakari_rei}(a)).次に,並列構造[表題,〜記憶しておく.]の前部と後部を係り受け解析してそれぞれを依存構造木にまとめ,さらに並列節点を作る(図\ref{fig:kakari_rei}(b)).そして最後に文全体を係り受け解析し,文全体の依存構造木を得る(図\ref{fig:kakari_rei}).\subsection{一定範囲内の文節列の係り受け解析}並列構造を1つのものと見ることによる文の簡単化がうまくいったとして,次にその各部分をどのような規則で係り受け解析するかということが問題となる.我々はまず,次のような優先規則によって決定論的に動作する解析を考えた.\begin{itemize}\item解析すべき範囲について後ろから順に各文節の係り先を決定する.\item各文節の係り先は,係り受け関係が相互に交差しない条件(非交差条件)をみたし,かつ\.{係}\.{り}\.{得}\.{る}文節のうち最も近い文節とする\cite{Maruyama1992}\footnote{各文節の係り先は1つの文節であるとする.提題助詞を伴う文節(「〜は」)などが意味的に複数の文節に係っている場合の問題は,本手法では扱わない.そのような問題は本手法の解析結果に対する次のレベルの処理で扱うことを考えている.}.\item係り得る関係は次のものである\footnote{文法用語は基本的に益岡・田窪文法\cite{Masuoka1989}に従った.以降の説明のためにいわゆる学校文法との相違点を簡単に示す.\\判定詞--名詞と結合して述語を作る活用語「だ」・「である」・「です」,\\イ形容詞--形容詞,ナ形容詞--形容動詞,\\基本形--終止形,タ形--連用形+助動詞「た」.}.ただし,助詞「が」・「を」を伴う文節は,それぞれ同じ述語に2つ以上は係り得ない.\begin{itemize}\item{\bf名詞}に係り得る:\連体詞,助詞「の」,活用語の基本形・タ形\item{\bf動詞}に係り得る:活用語の連用形,副詞,助詞\item{\bf述語のイ形容詞・ナ形容詞}に係り得る:\活用語の連用形,副詞,助詞(「を」・「へ」以外)\item{\bf連体形のイ形容詞}に係り得る:\副詞,助詞「が」・「の」・「に」・「より」\item{\bf連体形のナ形容詞}に係り得る:\副詞,助詞「が」・「に」・「より」\item{\bf連用形のイ形容詞・ナ形容詞}に係り得る:副詞\item{\bf名詞+判定詞}に係り得る:\活用語の連用形,副詞,助詞(「を」以外).\end{itemize}\end{itemize}{\bf述語のイ形容詞・ナ形容詞}とは,読点を伴うもの,文末のもの,「〜という」などの表現を伴うものをさす.それ以外の場合の連体形,連用形の形容詞については,その係り先の体言,用言の方が意味的に強いと考え,上記のようにそれらの形容詞に係り得る文節を制限した.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,25)\put(5,5){\framebox(80,15){ps/kakari\_gairyaku.ps}}\end{picture}\end{center}\caption{係り受け解析の進め方}\label{fig:kakari_gairyaku}\end{figure}}図\ref{fig:kakari_gairyaku}の例では,文節2,文節3,\ldotsの順に係り先を決定していき,文節6の係り先を調べる段階では,非交差条件によって文節4,文節3は対象外となり,文節5,文節2,文節1の順で係り得る文節を探す.このような方法で30文の学習サンプル(岩波情報科学辞典のテキスト)に対して係り受け解析を行なったところ,幾つかの問題点が明らかになった.そのうち,語彙に依存した問題ではなく,一般性をもった問題を解決するために次の3つのタイプの文節に対する規則を新たに加えた.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,35)\put(5,5){\framebox(80,25){ps/HA.ps}}\end{picture}\end{center}\caption{助詞「は」を伴う文節の係り先}\label{fig:HA}\end{figure}}\begin{description}\item[区切り文節に対する規則]\\並列構造の検出では主従関係にある述語の接続は対象としていない.これは,主節と従属節の間には類似性が存在するとはいえないためである.そのため,文を簡単化した各部分の中には主従関係の述語の接続が含まれている.実際に文を解析した結果をみてみると,これらのうち条件を示す述語(「〜すれば,」など)と因果関係を示す述語(「〜するので,」など)が読点を伴っている場合,非常に意味的な区切りが強いことが分かった.そこで,この種の述語を{\bf区切り文節}とし,その係り先は係り得る最も近い文節ではなく最も遠い文節とする.\item[読点を伴う文節に対する規則]\\文が読点で区切られるのは,そこに意味的な区切りが存在することを示すためであり,それを伴った文節が少し離れた文節に係っていくことを示していると考えられる.そこで読点を伴う文節は,係り得る最初の文節を飛び越して2番目の文節に係るとする.ただし,次の場合にはこの規則は適用しない.\begin{itemize}\item係り得る最初の文節が上述の区切り文節である場合.\item「$\cdots$\underline{〜する}ことが多い.」,「$\cdots$\underline{〜である}と考える.」などの表現で下線部分が係り得る最初の文節である場合.このような表現では,下線部分の述語までが意味的なまとまりをなしており,文末の述語は付随的であると考えられるため,下線部分の述語を飛び越して文末の述語に係るとはしない.この下線部分の述語も,受けの文節としては区切り文節であるとする.\item係り得る最初の文節が並列構造をまとめた並列節点の文節である場合.並列構造外の文節が並列節点(並列のキー文節と終点文節)に係る場合には,かなり離れた文節に係ることになるため.\item係り得る文節が解析対象範囲内に1つしかない場合.\end{itemize}\item[助詞「は」を伴う文節に対する規則]\\助詞「は」は文(あるいは文を簡単化したときのある部分)の主題を示すので,これを伴う文節\footnote{助詞「は」単独ではなく「で+は」・「として+は」・「について+は」・「において+は」・「のために+は」を伴う文節についても主題を示す働きがあると考え,この規則の対象とした.これに対して,「より+は」などの場合は,ある事項を取り上げる働きがあるが主題を示しているとは考えられないので対象外とした.}に対しては係り得る最も近い文節に係るという規則は当てはまらない.その係り先は区切り文節との相対的関係で微妙であるが,実際の文解析の結果から次のような規則を用いることにした.なお,係り受け解析の対象範囲内の最後の述語も区切り文節とする.\begin{itemize}\item助詞「は」を伴い読点を伴わない場合:\\最も近い区切り文節に係るとする(図\ref{fig:HA}(a)).\item助詞「は」と読点を伴う場合:\\最も遠い区切り文節に係るとする(図\ref{fig:HA}(b)).ただし,その文節に付属語が全て同じである文節が係っていて,かつ,その前にも区切り文節が存在する場合には前の区切り文節に係るとする(図\ref{fig:HA}(c)).\end{itemize}\end{description}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,55)\put(5,5){\framebox(80,45){ps/examp5.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文4)}\label{fig:kakari_rei5}\end{figure}}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(95,75)\put(5,5){\framebox(85,65){ps/examp6.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文5)}\label{fig:kakari_rei6}\end{figure}}例えば,例文4(図\ref{fig:kakari_rei5})の場合,「ミハイロフらが,」は読点を伴うために,係り得る最初の文節「追究する」ではなく2番目の「与えた」に係る.また,「用語は」は助詞「は」を伴うので係り先として区切り文節を探し,その結果,文末の文節「言葉である.」に係ることになる.例文5(図\ref{fig:kakari_rei6})の場合は,文節「とらえられるので,」が区切り文節であるため,助詞「は」を伴う文節「内容は」はこの区切り文節に係り,この区切り文節自身は係り得る最も遠い文節である「分野である.」に係る.これらの規則でうまく扱うことができない問題については\ref{sec:evaluation}章で議論する.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(80,45)\put(5,5){\framebox(70,35){ps/examp1.ps2}}\end{picture}\end{center}\caption{係り受け解析の例(例文1)}\label{fig:kakari_rei1}\end{figure}}\subsection{並列構造の範囲の延長}\label{subsec:enchou}前節で述べた並列構造の検出方法ではその前部がどこから始まるかについて正確な情報が得られないので,係り受け解析の段階でこれを明らかにする必要がある.そこで,``検出した並列構造の起点文節より前の文節であっても,その並列構造内の文節に係ることが\.{妥}\.{当}\.{で}\.{あ}\.{る}文節は並列構造に含まれるとみなす''という考え方で並列構造の範囲の延長を行なう.延長を行なうのは,述語を含む並列構造,すなわち述語並列の場合と連体修飾節を含む名詞並列の場合である\footnote{述語を含まない並列構造の場合は,その前にある修飾語句が並列構造の前部のみを修飾することは非常に少なく,ほとんどの場合,並列構造全体を修飾している(並列のキーと終点文節が係り先になる).}.そのような並列構造の場合,その前部の係り受け解析を,並列構造として検出された範囲内だけでなくさらにその前の部分に対しても延長して行なう.ただし,延長の解析は次のように行なう.\begin{itemize}\item解析対象の文節が読点あるいは助詞「は」を伴う場合は,延長の処理を終了する.そのような文節は,並列構造との間に意味的な区切りがあり,並列構造内部の文節に係るのではなく,並列構造全体,あるいはさらに後ろの文節に係ると考えられるからである.\item並列のキーを係り先の対象から外して係り受け解析を行ない,係り先がない場合には,延長の処理を終了する.並列のキーを係り先の対象から外すのは,もし並列のキーに係るのであれば,それと対応している終点文節にも係ると考えられ,そのような係り受け関係はその上のレベルの係り受け解析において並列節点との関係として扱うからである.\end{itemize}たとえば,図\ref{fig:suitei_rei}で示した例文1では,起点文節の前の「その」は「可能性を」に係ると考えて並列構造に含まれるとし,助詞「は」および読点を伴う「解消するためには,」のところで延長の処理を終了する.最終的に得られる依存構造木を図\ref{fig:kakari_rei1}に示す.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(95,85)\put(5,5){\framebox(85,75){ps/examp2.new.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文2)}\label{fig:kakari_rei2}\end{figure}}なお,延長を考える並列構造が強並列の場合は,並列構造内の前部と後部の各文節が強く対応しているので,延長する部分の文節が上述のように前部の文節だけに係ると考えるのではなく,前部と後部の対応する文節の対に係ると考える.この処理は,並列構造後部において省略された修飾語を補間する処理であるとみなすこともできる.たとえば,\ref{subsec:heiretu_kenshutu}節で示した例文2では,「その開発の」は「助け」と「妨げ」の両方に,「コンピューターのアーキテクチャが」は「(助けに)なる」と「(妨げに)なる」の両方に係るとする(図\ref{fig:kakari_rei2}).{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(150,150)\put(5,5){\framebox(140,140){ps/incomplete.new.ps}}\end{picture}\end{center}\caption{部分並列の解析}\label{fig:incom_new}\end{figure}}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(80,65)\put(5,5){\framebox(70,55){ps/examp4.new.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文6)}\label{fig:kakari_rei4}\end{figure}}\subsection{係り受け解析を失敗した場合}これまで説明してきた規則によって並列構造の各部分を係り受け解析すると,ある文節に対してその係り得る文節がなくなり,解析が失敗するということがある.このような失敗は,もともと1つの依存構造木にまとめることができない不完全な部分が並列している場合(このような並列構造を{\bf部分並列}とよぶことにする)と,検出された並列構造の範囲が誤りである場合に起こる.部分並列は,前部と後部の述語が等しい述語並列において前部の述語が省略された構造である(図\ref{fig:incom_new}(a)(b)).そこで,次の2つの条件をみたす場合にその並列構造を部分並列とみなす(図\ref{fig:incom_new}(c)).\begin{itemize}\item並列構造の前部と後部の両方で(3つ以上の部分からなる並列構造ではその各部分で)係り受け解析が失敗する.\item係り先がない文節の付属語がすべて等しい.\end{itemize}たとえば,次の文の下線部分は部分並列である.\begin{quote}例文6:「図に示すように,\underline{電流源にpnpトランジスター,}\underline{スイッチングにnpn}\\\underline{トランジスターを}使用し,\ldots」\end{quote}部分並列の場合は,並列のキー,終点文節に加えて,係り先のない文節もいったん並列節点の子節点とする(図\ref{fig:incom_new}(d)).そして,次のレベルの解析において並列節点の係り先が明らかになった段階で,その係り先の文節を前部に対して補うことによって述語並列への変換を行う(図\ref{fig:incom_new}(e)).さらに,部分並列の並列のキー文節の助詞が省略されている場合は,終点文節の助詞によってそれを補間する.例文6の場合,助詞「を」と述語「使用し」が補われる(図\ref{fig:kakari_rei4}).係り受け解析が失敗し,上記の条件が成り立たない場合には,並列構造の検出が誤っていたと考え,並列構造の検出のやり直しを行なう.係り受け解析の失敗が起こらないような並列構造を検出するために,その起点文節と終点文節の位置について次のような制限を与える.\begin{itemize}\item並列のキーから文の先頭までを対象範囲として係り受け解析が可能かどうかを調べる.ある位置で解析が失敗する場合は,並列構造の前部がそれよりも広い範囲になると必ず解析が失敗するので,起点文節の位置はその失敗した位置よりも後ろであるとする.\item並列構造の後部として考えられるすべての範囲についてその中の係り受け解析が可能であるかどうかを調べ,可能でない場合はその範囲の末尾の文節が終点文節となることを禁止する.\end{itemize}並列構造の再検出を行なった場合は,並列構造間の関係を求める処理まで戻って解析をやり直す.{\unitlength=1mm\begin{figure}[hbt]\begin{center}\begin{picture}(120,80)\put(5,5){\framebox(110,70){ps/kakari\_shuusei.new.ps}}\end{picture}\end{center}\caption{係り受け解析の失敗による並列構造の再検出}\vspace*{-0.5cm}\label{fig:kakari_shuusei}\end{figure}}図\ref{fig:kakari_shuusei}に並列構造の再検出の例を示す.図の中に示した表は,再検出する並列構造が係り受け解析可能であるためには,起点文節に対する制限はないが,終点文節は5番目の文節「文書処理とともに」か10番目の文節「なす.」に限られることを示している. \section{文解析の結果とその評価} \label{sec:evaluation}本手法による文解析の実験をテストサンプルの150文に対して行なった\footnote{岩波情報科学辞典,日本科学技術情報センタ(JICST)発行の抄録文,科学雑誌サイエンスから収集.}.テストサンプルは,文字数が30〜50文字,50〜80文字,80文字以上のものをそれぞれ50文づつランダムに収集した.\begin{table}\caption{解析結果の評価(文節単位)}\label{tab:hyouka}\begin{center}\begin{tabular}[c]{l|r|r|r|r}\hline&出現数&正解&誤り&正解率\\\hline\hline並列のキー&215&185&30&86\%\\\hline用言に係る文節&971&941&30&97\%\\\hline体言に係る文節&765&744&21&97\%\\\hline\hline合計&1951&1870&81&96\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{解析結果の評価(文単位)}\label{tab:hyouka2}\begin{center}\begin{tabular}[c]{l||c|c|c||c}\hline\hline{\small文字数}&30--50&50--80&80--149&合計\\\hline\hline\multicolumn{5}{l}{本手法}\\\hline並列構造なし&25/--/29&5/--/10&3/--/4&33/--/43\\並列構造あり&14/15/21&30/34/40&20/37/46&64/86/107\\\hline合計&39/--/50&35/--/50&23/--/50&97/--/150\\\hline\hline\multicolumn{5}{l}{比較実験}\\\hline並列構造なし&25/--/29&5/--/10&3/--/4&33/--/43\\並列構造あり&12/14/21&22/27/40&7/19/46&41/60/107\\\hline合計&37/--/50&27/--/50&10/--/50&74/--/150\\\hline\end{tabular}\\\vspace{0.5cm}\begin{tabular}{ll}\multicolumn{2}{l}{各欄のa/b/cの値は次のものをさす.}\\a:&文全体の依存構造が正しく求まった文の数.\\b:&文全体の並列構造が正しく求まった文の数.\\c:&その欄にあてはまる文の数.\\\end{tabular}\end{center}\end{table}\subsection{定量的評価}\subsubsection*{係り受け解析全体について}150文の解析結果について人手で評価を行なった.まず文節を並列のキー,用言に係る文節,体言に係る文節の3タイプに分類し,並列のキーについては正しい終点文節が検出されているか,用言に係る文節,体言に係る文節については正しい係り先が求まっているかを調べた(表\ref{tab:hyouka}).また,各文をその長さと並列構造の有無によって分類し,文中の全ての並列構造が正しく求まっているか(文の簡単化が正しく行なわれたかどうか),さらに文全体の依存構造が正しく求まっているかどうかを調べた(表\ref{tab:hyouka2}上部).次に,本手法の有効性,特に並列構造の検出による文の簡単化の有効性を調べるために比較実験を行なった.この比較実験では,並列のキーに対してダイナミックプログラミングによる並列構造の範囲推定を行なわずに,単にそれを最も類似する文節に対応付けるという規則を用いた(2.1節の文節間類似度の計算を用いた).この規則と本論文で示した係り受けの優先規則によって,文末の文節から順にその係り先あるいは対応先を決定するという形で文解析を行なった.この方法による解析結果を表\ref{tab:hyouka2}下部に示す.この実験で対象としたのはかなり長い文であり,1文当たりの文節数も多い(平均14.3).各文節に対して係り先の候補が多数あるため解析の誤りが起こる可能性が高く,また1文の解析結果(依存構造木)の中に誤りが含まれる可能性も高くなる.このように文が長くなった場合,文の簡単化を行なわなければ表\ref{tab:hyouka2}に示したように解析成功率は極端に低下する.このような条件を考えれば,本手法の文単位の解析成功率65\%(97/150)は決して低くないと考えられる.また表\ref{tab:hyouka}に示す通り文節単位の解析成功率は十分に高いので,解析誤りを一部に含む場合でも文のおおまかな構造は多くの場合正しく求まっており,そこからなんらかの情報を取り出すことは十分可能である.\subsubsection*{並列構造の再検出について}215個の並列のキーについては,1度目の並列構造の検出で正しい終点文節が求まったものは175個であったが,並列構造間の違反関係によって再検出の対象となった5個の並列のキーについてすべて正しい終点文節が求まり,さらに,並列構造内の係り受け解析の失敗によって再検出の対象となった8個の並列のキーのうち5個について正しい終点文節が求まった.なお再検出の対象になった並列のキーは,すべて,最初の検出で誤った並列構造が検出されたものであった.\subsubsection*{係り受け解析の優先規則について}例文中には,区切り文節は20個(係り受け解析の対象範囲の最後の述語であるために区切り文節としたものは除く),読点を伴う文節は274個(並列のキー,助詞「は」を伴う文節を除く),助詞「は」を伴う文節は115個存在したが,それらを扱うために追加した係り受け規則はすべて有効に働き,解析に悪影響を与えた例はなかった.たとえば,読点を伴う文節の係り先は2番目の係り得る文節としたが,実際には3番目の文節に係ることが正解であるために誤りとなる例はあったが,1番目の文節に係ることが正解であり読点に対する追加規則のためにそれが正しく取り出せないという例はなかった.\subsection{関連研究}構文解析システムを,実際にテキストを処理する{\bfツール}として考えた場合,並列構造と依存構造(または句構造/格構造)に対する優先規則を持つことは必要不可欠である.しかし,日本語文解析において,そのような規則を備えたシステムとその評価結果を示した研究は非常に少ない.実用的機械翻訳システムであるMuシステム\cite{Nagao1985}の日本語解析部では,並列構造,依存構造に対する優先規則による処理を行っているが,その評価は翻訳結果に対して行われており,日本語解析部に対する評価の報告はない\cite{Nagao1985b}.しかし,Muシステムにおける並列構造解析は基本的に1章で述べた「並列する主要語間の類似度を調べる」方法であり,また,本手法のように並列構造の再検出を起動するような枠組も示されていない.稲垣らは,並列構造に対する優先規則,読点を伴う文節に対する優先規則に加えて,用例とシソーラスを用いた優先規則を備えた日本語文解析システムを提案している\cite{Inagaki1988}.このシステムは,解析対象テキスト中の一意に決定される係り受け関係を用例として利用することにより残りの部分の曖昧性を解消する,というシステムであり,特許請求範囲文10篇に対する文節単位の解析成功率は97\%であると報告されている.しかし,このシステムの場合も並列構造解析の方法については上述のMuシステムと同様の問題がある.\begin{table}\caption{係り受け解析の誤りの例}\label{tab:ayamari}\begin{center}\begin{tabular}[c]{p{14.0cm}}\hline\hline誤り例1:\ldots自然言語理解システムの\underline{構築には,}『システムに必要な各種の知識を蓄積した知識ベースの構築が\underline{\.{必}\.{要}\.{で},}そのために既存の英英辞典のデータを逐次型推論マシンPSIに移植して\underline{データベース化した。}』\\\hline誤り例2:つながっているように\underline{みえるのは}\.{錯}\.{覚}\.{で}、これは天空に見える銀河の位置のしわざに\underline{すぎないので}\underline{ある。}\\\hline誤り例3:\ldots高価な\underline{共用資源に}\.{つ}\.{き}\.{も}\.{の}\.{の}管理上の負担と時間割り当ての問題を\underline{避ける}ことができる。\\\hline誤り例4:\underline{単純な}\underline{引力による}\.{説}\.{明}\.{が}退けられた理由は、純粋な重力の相互作用では、\ldots\\\hline\end{tabular}\end{center}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(105,50)\put(5,5){\framebox(95,40){ps/hei\_ayamari.ps}}\end{picture}\end{center}\caption{並列構造の検出の失敗}\label{fig:hei_ayamari}\end{figure}}\subsection{解析の誤り}本手法における係り受け解析誤りの根本的原因を分類し,それらを具体例とともに説明する(表\ref{tab:ayamari}:下線部分は誤った係り先を求めた文節とその誤った係り先の文節,傍点はその正しい係り先の文節を示している).並列のキーに対する終点文節の検出の誤りについては文献\cite{KurohashiAndNagao1992}で論じたので,ここでは用言に係る文節と体言に係る文節の係り先の誤りに的を絞る.\begin{itemize}\item並列構造の前部の範囲と関連するもの\\並列構造の検出では,文節数が同じぐらいの文節列同士が並列することが自然であるということを1つの尺度にしている.このため,後部の文節数が非常に多い並列構造では後部の範囲が正しく求まらない可能性があり(図\ref{fig:hei_ayamari}(a)),この場合は並列のキーに対して終点文節の検出を誤ったということになる.これに対して,前部の文節数が非常に多い並列構造では前部の範囲が正しく求まらない可能性がある(図\ref{fig:hei_ayamari}(b)).この問題の大部分は\ref{subsec:enchou}節で示した方針によって並列構造の前部の延長を行なうことで解決できるが,なかにはその方法で扱えない場合もある.誤り例1では,並列のキー「必要で,」に対する並列構造として``『'',``』''で囲まれた部分が検出され,その前の「構築には,」は助詞「は」と読点を伴うので並列構造の延長は行なわれない.そのため,「構築には,」の正しい係り先は「必要で,」であるのに,本手法では文全体を解析する段階で並列節点,すなわち「必要で,」と「データベース化した。」の両方が係り先であると解釈されてしまう.このような原因による解析の誤りは用言に係る文節の解析の場合が圧倒的に多い.\item述語的働きをする「で」・「の」に関連するもの\\名詞に続く「で」・「の」は助詞である場合と判定詞の活用形である場合がある.判定詞である場合,「で」は「であり」に,「の」は「である」に言いかえることができる(誤り例2:「錯覚で,」,誤り例3:「つきものの」).これらの区別は困難であるので,本手法では今のところ圧倒的に頻度の高い助詞としての解釈を優先している.そのため,それらが判定詞である場合その文節(「名詞+判定詞」)に係るはずの文節の解析は失敗してしまう.\item連体修飾(「〜の」を含む)の連続する部分での誤り\\体言に係る文節の係り先の解析の失敗は,ほとんど連体修飾の連続する部分で起こっている(誤り例4).\end{itemize}150文に対する実験では誤りの絶対数が少ないので,誤りを上のように分類することはできるが,それらの解決方法の考察まで行なうことは難しい.解決方法を考えるためには,誤りの原因となっているような表現を大量に収集して調査することが必要である. \section{おわりに} 従来方式の構文解析では長い文の中に多く存在する並列構造を正しく認識することが困難であり,そのことが長い文を解析する上での大きな問題であった.本論文では,まず文内の並列構造の範囲を文節列同士の類似性を発見するという考え方によって検出し,次に並列構造の情報を利用しながら簡単な係り受け解析を行なうという方法によって,長い文に対しても有効であり,かつ高精度な構文解析が実現できることを示した.次のステップでは,構文解析によって求まった依存構造木において依存関係にある文節間の格関係の推定を行ない,同時にその過程で省略語句の復元や指示詞の指示対象の同定を行なうことを考えている.このレベルの処理が実現されて,始めて文からある種の意味が取り出せることになる.\bibliographystyle{jtheapa}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.同年,京都大学工学部助手,現在に至る.自然言語処理,知識情報処理の研究に従事.1994年4月より1年間Pennsylvania大学客員研究員.}\bioauthor{長尾眞}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.1976年より国立民族学博物館教授を兼任.京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5).計算機にどこまで人間的なことをやらせられるかに興味を持ち,この分野に入った.パターン認識,画像処理,機械翻訳等の分野を並行して研究.機械翻訳の国家プロジェクトを率いて,本格的な日英,英日翻訳システムを完成した.またアナロジーの概念に基づく翻訳(用例を用いた翻訳)を提唱.今日その重要性が世界的に認識されるようになって来ている.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V18N01-01
\section{はじめに} 日本語非母語話者が日本語の作文をする場合,共起表現知識が不足するため,不自然な文を産出することがある.日本語に言語直観のない非母語話者にとって,共起表現の適切さの判断は難しい.\cite{杉浦}は,母語話者と非母語話者の知識の決定的な違いは,記憶しているコロケーション知識の量と質の違いではないかと考え,非母語話者の作文の不自然さを説明している.このような非母語話者の問題に対して,第二言語習得の研究では,文の産出には,例文の提示\cite{Summers}や,語の用法・共起関係の学習\cite{Granger}が重要であると考えられている.しかし,日本語学習者に対する日本語知識の情報源として,国語辞典はあまり役に立たない.国語辞典は,難しい言葉の意味を調べたり,表記を確かめたりするのに使用され,母語話者にとって自明である語の用法や例文については十分に説明されていない.このため,日本語非母語話者でも日本語—母語辞書を併用することで見出し語の主要な意味を確認することはできるが,産出しようとしている共起表現が自然であるかどうかを判断することは困難である.そこで,動詞の見出し語に対して,共起する名詞と例文が示された日本語学習者のためのコロケーション辞典が作成されている\cite{姫野}.しかし,辞書に記述できる情報は限られているため,やはり,学習者が産出しようとしている表現が自然であるかどうかを確認できるとは限らない.しかも,日本語非母語話者が作文をする場合,自分が表現したい事柄に適した日本語の表現を思いつかないことがしばしばある.名詞は母語—日本語辞書である程度選択できるが,特に,動詞は難しい.母語で思いついた動詞を母語—日本語辞書で調べる,あるいは,類語辞書を利用して単語を拡張するということも考えられるが,そうして得られた動詞$v$を用いた表現が自然な表現であるかどうかは不明である(動詞$v$を,国語辞典,あるいは(姫野2004)の辞書で調べても,$v$を用いた表現が用例として記載されている可能性は前述のように低い).また,非母語話者の不自然なコロケーションは,辞書引きによる母語からの類推が原因で生じることがある\cite{滝沢}.さらに,そもそも母語からの類推による辞書引きで得られる単語は限られており,母語—日本語辞書および類語辞書を用いても適切な単語が見つからないことさえある.一方,\cite{Nishina}や\cite{Kilgariff}で提案されているシステムは,名詞から,その名詞との共起頻度の高い動詞や結びつきが強い(Dice係数などで判定)動詞を検索することができる.しかし,名詞と出現頻度の高い動詞や結びつきが強い動詞の中に自分が意図する動詞があるとは限らないため,そのような動詞の中から自分が意図する動詞を見つけるのは難しい.本研究では,コロケーションのうち日本語文を構成する最も基本的なものの一つである名詞$n$が格助詞\footnote{本稿では,動詞に係る名詞の格を表す可能性のある助詞として,「が」「を」「に」「で」「と」「へ」「から」「まで」を扱い,これを格助詞と呼ぶことにする.}$c$を伴って動詞\footnote{機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,動詞とこれらの機能語を合わせて一単語として扱う.}$v$に係っている共起表現$\tupple{n,c,v}$を対象とし,学習者が入力した共起表現$\tupple{n,c,v}$に対して,それから連想される適切な共起表現(代替共起表現\footnote{代替共起表現が入力された共起表現自身である場合もある.}と呼ぶ)の候補を提示する手法を提案する.本稿ではその手始めとして,共起表現$\tupple{n,c,v}$において$n,c$が正しいという前提の下,動詞のみを置き替えた代替共起表現の候補を提示する手法を扱う.これは,予備調査において,不自然な$\langle名詞—格助詞—動詞\rangle$共起表現を収集した結果,動詞の誤用が多かったため,学習者が作文する際,名詞の選択よりも動詞の選択の方が難しいと考えたからである.なお,代替共起表現中の置き替えられた動詞を代替動詞と呼ぶ.$n$,$c$が正しいという前提の下,学習者(日本語非母語話者)が適切な共起表現$\tupple{n,c,v'}$を産出する際の困難は,前述したように,\begin{itemize}\item辞書や自身の語彙知識に基づいて,自身が意図している意味を持つ動詞(表現したい内容を表す動詞)$v'$の候補を見つけること,\item候補動詞に対して,$\tupple{n,c,v'}$が共起として自然であるかどうかを判断すること\end{itemize}である.\ref{共起の自然さ}節で述べるように,共起表現が不自然であるという判断を下すことは難しいが,母語話者コーパスを利用すれば共起表現が自然であることはかなりの精度で判定することができる.一方,\ref{誤用と正用の関係}節で述べるように,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」と考えられる.これは,予備調査において,$v$と$v'$の共通点として,別の名詞—格助詞とであればどちらも共起できるケースがあることに気付いたからである.そこで本稿では,この仮説に基づき,母語話者コーパスを用いて$\tupple{n,c}$との共起が自然と判定される代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する手法を提案する.これは,学習者が適切な共起表現を産出する際の二つの困難を克服するための情報を提供するものであり,作文支援システムとして有用と考えられる.なお,提示される候補動詞は,共起の自然さはある程度保証されるものの,学習者が意図した意味を持つ動詞とは限らないため,国語辞典や日本語—母語辞書を調べて,意図した意味を持つ動詞を学習者自身が候補動詞の中から選択する必要がある.日本語学習者の場合でも,国語辞典や日本語—母語辞書を用いることにより,候補動詞の主要な意味は把握でき,自身が意図した意味を持つ動詞かどうかの判断はできると考えているが,実際にそのような判断が可能かどうかは学習者の日本語能力にも依存する.このため,本研究では中級学習者をシステムの利用者として想定している.また,共起表現の誤用のうち,初級学習者に多い格助詞の誤りや中級学習者に多い動詞の自他の誤りなどの文法的誤りは,係り受け解析器の文法辞書を使って指摘・訂正が可能であるため対象としない.本稿では,学習者の作文から得られる誤用共起表現と,それを自然な表現に修正したもの(正用共起表現)の対からなるデータ(誤用・正用共起表現データ)を用いて,前述の仮説を検証する.同時に,シソーラスを用いた場合との比較から,誤用動詞に対する代替動詞候補を順序付けて提示するための尺度として,出現環境の類似度の方が意味的な類似度よりも有用であることを示す.また,同誤用・正用共起表現データを用いて,提案手法に基づいた共起表現に関する作文支援システムの実用性を検討する. \section{提案手法} 本稿で提案する手法は,学習者が入力した名詞$n$が格助詞$c$を伴って動詞$v$に係っている共起表現$\tupple{n,c,v}$に対し,$n,c$は正しく,$v$が誤っていると仮定して,誤用動詞$v$の代替動詞の候補を提示するものであり,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説に従い候補を提示する.つまり,$\tupple{n,c,v}$に対して,図\ref{図:提案アルゴリズム}に示すようにして,代替動詞候補を提示する.本節では,\ref{誤用と正用の関係}節でこのような仮説を立てた理由について述べ,\ref{出現環境の類似尺度}節で具体的な出現環境の類似尺度について,\ref{共起の自然さ}節で$\tupple{n,c,v'}$が共起として自然であるための判定方法について述べる.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f1.eps}\end{center}\caption{入力の共起表現$\tupple{n,c,v}$に対する代替動詞候補の提示手法}\label{図:提案アルゴリズム}\end{figure}\subsection{誤用動詞と正用動詞の関係}\label{誤用と正用の関係}日本語を母語としない日本語学習者が産出した共起表現$\tupple{n,c,v}$は,文法的には正しく,意味も推測できるが不自然である場合がある.不自然な表現であっても必ずしも誤りとは言えないものもあり,詳細な考察が必要であるが,本稿では,自然な表現を「正用」とし,不自然な表現を「誤用」とする.日本語学習者の作文における不自然な共起表現$\tupple{n,c,v}$を収集し,$v$の使用が適切でない場合,$\tupple{n,c,v}$およびその周辺の文脈から想像される正しい$v^*$を求め,誤用動詞$v$と正用動詞$v^*$の関係を調べた.学習者の動詞選択の誤りに起因する不自然な共起表現では,事前調査において,誤用動詞$v$と正用動詞$v^*$が典型的な類義関係にある場合から,$v$と$v^*$の意味的類似性が低い場合まで様々であった.そのため,誤用と正用の関係は,類義であると考えるよりも,出現環境が類似していると考える方が適切であった.図\ref{図:誤用正用の例}は,国立国語研究所の『日本語学習者による日本語作文と,その母語訳との対訳データベースver.~2.CD-ROM版』(2001)から求めた誤用共起表現と,その正用動詞の例である.()の中に示した番号は国立国語研究所の『分類語彙表増補改訂版データベース』(2004)におけるそれぞれの動詞の分類情報\footnote{「飲む」の分類情報2.3331-12-01の場合は,2は大分類,3331は項目番号,ハイフンの後の12は段落番号,01は小段落番号と呼ばれている.詳細は\ref{使用するデータ}節(3)を参照.}である.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f2.eps}\caption{非母語話者の作文に見られる不自然な共起表現}\label{図:誤用正用の例}\end{center}\end{figure}例1では,正用動詞は誤用動詞の類義動詞である.この場合は,たとえば,分類語彙表を用いて誤用動詞「飲む」の類義動詞を求めることで,正用動詞「吸う」を見つけることができる.例2も,正用動詞は誤用動詞の類義動詞と言える範囲の動詞であるが,典型的な類義動詞ではなく,分類語彙表では正用動詞と誤用動詞のカテゴリは近いが異なっている.このため分類語彙表などを用いて正用動詞を見つけるには,誤用動詞に対する広範囲の類義動詞を調べる必要がある.例3では,正用動詞は少なくとも動詞単独では誤用動詞の類義動詞とは言えず,正用動詞と誤用動詞の分類語彙表におけるカテゴリも大きく異なっている.しかし,たとえば,「元手を作る」と「元手を得る」はどちらも自然な共起表現であり,これらにおける「作る」と「得る」の意味は細かなニュアンスの違いを無視すればほぼ同じ内容を表している(「元手を作る」が行為に着目しているのに対し,「元手を得る」は「元手を作る」という行為の結果の状態変化に着目している点でニュアンスが異なる).また,「元手を作る」と「元手を得る」はほぼ同じ内容を表しているため,デ格やガ格についても,「内職で」,「印税で」,「魔法で」や「$\langle$人・組織を表す名詞$\rangle$が」などが,「内職で元手を作る」「内職で元手を得る」のように,「作る」と「得る」に共通に共起する.さらに,\begin{itemize}\item出張で端緒を〔作る/得る〕\item縁組で足掛かりを〔作る/得る〕\end{itemize}のように,上記と同じく「作る」と「得る」がほぼ同じ意味で用いられる他の環境も多数考えられる.2つ目の例の誤用動詞「止まる」とその正用動詞「なくなる」に関しても,\begin{itemize}\item治療で徘徊が〔止まる/なくなる〕\item薬で徘徊が〔止まる/なくなる〕\item治療で抜け毛が〔止まる/なくなる〕\item薬で抜け毛が〔止まる/なくなる〕\item不況で勢いが〔止まる/なくなる〕\item負けで勢いが〔止まる/なくなる〕\end{itemize}と,ほぼ同じ意味で用いられる共通の環境が多数考えられる.このように,細かなニュアンスを無視すれば,動詞$v_1$と$v_2$が(それらの意味の一つとして)ほぼ同じ意味を持つならば,$v_1$と$v_2$の出現環境は比較的類似する(つまり,$v_1$との出現環境が類似している順に全動詞を並べた場合,$v_2$がその上位にある)と言える.実際,次節で述べる出現環境の類似度で,「得る」は32,822動詞中36番目に「作る」と出現環境が類似しており,「なくなる」は「止まる」に32番目に出現環境が類似している.動詞$v_1$と$v_2$が類義動詞の場合も,$v_1$と$v_2$の出現環境は比較的類似する.すべての誤用動詞と正用動詞の関係が出現環境の類似性で捉えられるとは限らないが,正用動詞が,誤用動詞の類義語である場合だけでなく,動詞だけを単独で見た場合,類義語とは思えない場合でも,正用動詞を候補としてなるべく優先的に提示ができるように,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説を設定し,候補動詞を誤用動詞との出現環境の類似度で順位付けて提示することを考えた.\subsection{動詞間の出現環境の類似尺度}\label{出現環境の類似尺度}本稿では,\cite{Hindle}で提案されている類似度に従った出現環境の類似度を\pagebreak用いた場合の結果について報告する\footnote{他にも2通りの出現環境の類似度を試したが,\ref{実験および考察}節で示す実験結果とほぼ同様であった.一つは,動詞の出現環境(共起する〔名詞—格助詞〕)の確率分布に対し,分布間の非類似度をJansen-ShannonDivergenceで求め,これに基づいて定義した類似度である.他の一つは,動詞の出現環境の頻度ベクトルを動詞の出現環境の特徴ベクトルとし,動詞間の類似度を特徴ベクトル間の余弦で定義した類似度である.本稿では,紙面の都合上,わずかに性能の高かった\cite{Hindle}に従った出現環境の類似度についてのみ報告する.}.\cite{Hindle}では,subject-predicateの関係にある名詞と動詞の共起データおよびpredicate-objectの関係にある動詞と名詞の共起データに基づき,名詞間の出現環境の類似度を定義している.日本語の場合は格助詞がsubject,objectに相当するので,\cite{Hindle}に従った日本語の動詞$v_{1}$と$v_{2}$の出現環境の類似度$SIM_{H}(v_{1},v_{2})$を以下のように定義する.\begin{gather}SIM_{H}(v_{1},v_{2})=\sum_{c\inC\!s}\sum_{n\inN\!s}sim_{c}^{H}(n,v_{1},v_{2})\label{式:Hindle}\\sim_{c}^{H}(n,v_{1},v_{2})=\left\{\begin{array}{l}min(|MI(n,v_{1};c)|,|MI(n,v_{2};c)|)\\\hspace*{6.5mm};\quadMI(n,v_{1};c)\cdotMI(n,v_{2};c)>0,f(n,c,v_{1})\cdotf(n,c,v_{2})>0\\0\hspace*{5mm};\quad\mbox{otherwise}\end{array}\right.\nonumber\\MI(n,v;c)=\log\frac{f(n,c,v)\cdotf(*,c,*)}{f(n,c,*)\cdotf(*,c,v)}\nonumber\end{gather}ただし,$f(n,c,v)$は母語話者コーパスから抽出した共起データにおける共起表現$\tupple{n,c,v}$の出現頻度,$f(n,c,*)=\sum_{v\inV\!s}f(n,c,v)$,$f(*,c,v)=\sum_{n\inN\!s}f(n,c,v)$,$f(*,c,*)=\sum_{n\inN\!s}\sum_{v\inV\!s}f(n,c,v)$,$Ns$は全名詞の集合,$Vs$は全動詞の集合,$Cs$は全格助詞の集合である.$MI(n,v;c)$は,以下のpointwisemutualinformation:\\[-1zw]\begin{equation}\log\frac{P(n,v|c)}{P(n|c)\cdotP(v|c)}=\log\frac{P(n|c,v)}{P(n|c)}\left(=\log\frac{P(v|c,n)}{P(v|c)}\right)\label{式:Hindle_MI}\end{equation}\\[-1zw]の推定値である.式(\ref{式:Hindle_MI})は,格助詞$c$を伴った名詞と動詞の共起において,動詞が$v$であるときそれに係る名詞が$n$である条件付き確率$P(n|c,v)$が,格助詞$c$を伴った名詞と動詞の共起において名詞が$n$である確率$P(n|c)$より大きいならば正の値,小さいならば負の値になる(同様のことは,$P(v|c,n)$と$P(v|c)$についても成り立つ).つまり,格助詞$c$を伴った名詞と動詞の共起における名詞$n$と動詞$v$の結びつきの強さを表す.したがって,式(\ref{式:Hindle})で定義される$SIM_{H}(v_{1},v_{2})$は,名詞との結びつきの強さを考慮した出現環境の類似性を表す.なお,本研究では,機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,入力の共起表現と同様,動詞とこれらの機能語を合わせて一単語として扱う.\subsection{共起の自然さの判定}\label{共起の自然さ}母語話者コーパスに出現する共起表現は自然であると考えることができる.\pagebreakそこで,本研究では,共起表現$\tupple{n,c,v'}$が自然であることの判定法として,まず$f(n,c,v')>0$を考える.しかし,この判定では係り受け解析の誤りにより抽出された誤った共起ペアの影響を直接受けるという欠点がある\footnote{使用した係り受け解析器の解析精度は約90\%と報告されている.}.そこで,この判定法を一般化し,\begin{equation}f(n,c,v')>f_{0}\label{判定式Exist}\end{equation}を考える($f_{0}$は適当な閾値である).適切な閾値$f_{0}$は不明であるため,後述の評価実験では,共起が自然であることの判定として,adhocに決めた$f_{0}=0$,$f_{0}=9$,$f_{0}=19$を閾値として用いた場合について比較検討する.なお,式(\ref{判定式Exist})を満たさないからといって,$\tupple{n,c,v'}$が不自然であるとは限らない.そもそも自然である共起表現が網羅された母語話者コーパスは存在しないため,共起表現が不自然であることを判定するのは困難である.しかし,本研究が目指す支援システムでは,$\tupple{n,c}$との共起が自然である動詞を網羅的に求める必要はなく,$\tupple{n,c}$との共起が自然と判定される動詞の中に,システム利用者が意図した意味を持つ動詞が含まれれば良い.したがって,十分大規模な母語話者コーパスを用いれば,式(\ref{判定式Exist})による共起の自然さの判定でも,支援システムとして有用であると考えている. \section{関連研究} 学習者のコロケーション習得において,誤用の傾向や特徴を分析した研究はあるが\cite{曹,滝沢,小森},誤用と正用の関係を扱った研究は少ない.\cite{James}は,コロケーションの違反を3種に区別しているが,誤用と正用の関係の解明には至っていない.また,誤用と正用の間に類義関係が成り立つことを指摘している研究はあるが\cite{鈴木},類義関係とは言えない誤用と正用の関係を形式的に扱った研究はない.作文支援としてコロケーションを扱った研究では,誤りの検出という立場と作文に必要な語彙知識を提供するという2つの立場から研究が行われている.前者は,計算機による誤用検出・訂正システムの構築の観点から行われた誤用分析において,規則性がある誤用の検出は容易であるが,コロケーションの誤りを含め,語彙選択の誤りの検出は難しいと考えられている\cite{白井}.語彙選択の誤りは,数が非常に多い内容語に関わるため,機能語の誤り以上に捉えがたい.後者は,Data-Driven-Learningという考え方に基づき,学習者が自分の判断で適切な語を選択できるように,大規模なコーパスからキーワードに対して共起する語や例文を提示する作文支援システム\cite{Nishina}や,結び付きの強い単語,あるいは,類語の共通点や差異を示すツール\cite{Kilgariff}が開発されている.共起する語の例文を調べる,あるいは,共起する語の特徴や類似する語の使い方の違いを知るためには,これらのシステムは有用である.しかし,共起の結び付きが強い語の中に自分が表現したい単語があるとは限らない.自分が表現したい事柄に適した日本語の表現を思いつかない場合,それを自分で探すのは難しい.これらの問題の解決策として,本研究では誤用と正用の関係から代替共起表現を提示する手法を提案する.本研究は,単語の出現環境の類似関係として誤用と正用の関係を捉え,これを定量化した点でこれまでの言語教育における誤用分析と異なる.また,代替候補を提示する点で,誤用検出システムや検索ツールとは異なるものである. \section{評価実験および考察} \label{実験および考察}学習者の作文から誤用共起表現を収集し,これに対する正用共起表現を求め,このデータを用いて仮説の妥当性を評価する.同時に,シソーラスを用いた場合との比較から,誤用動詞に対する代替動詞候補を順位付けて提示するための尺度として,出現環境の類似度が有用であることを示す.最後に図\ref{図:提案アルゴリズム}に示した代替動詞の提示法に基づいた共起表現に関する作文支援システムの実用性について検討する.\subsection{使用するデータ}\label{使用するデータ}\begin{itemize}\item[(1)]学習者コーパス誤用収集には,国立国語研究所『日本語学習者による日本語作文と,その母語訳との対訳データベースver.~2.CD-ROM版』(2001)から,中国,インド,カンボジア,韓国,マレーシア,モンゴル,シンガポール,タイ,ベトナムの学習者による日本語作文を使用する.平均500字程度の作文で,1,000人分が収録されている.学習者の日本語レベルは明示されていないが,日本語学習時間に関する情報および実際の作文の質から,我々は本データベース中の作文は中級前後の学習者による作文と考えている.\item[(2)]母語話者コーパス出現環境の類似度計算と共起の自然さの判定には,日本語の大規模なコーパスとして一般的な,CD-毎日新聞データ集1991年〜2007年版を使用する.総文数16,165,255から成る.本研究では,この新聞コーパスから格助詞を伴った名詞と動詞の共起表現を抽出する(これを「母語話者共起データ」とする).ただし,機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,入力の共起表現と同様,動詞とこれらの機能語を合わせて一単語として扱い,形態素解析器の辞書に載っている複合動詞も一語として扱う.また,名詞が複合語の場合は最後の名詞を抽出する(複数の形態素から成る名詞でも使用した形態素解析器の単語辞書に登録されているものは一単語として扱う).例えば,「社会問題」の場合は「問題」として抽出する.共起表現の抽出には,形態素解析器$ChaSen$\footnote{http://chasen.naist.jp/hiki/ChaSen/}および係り受け解析器$CaboCha$\footnote{http://chasen.org/~taku/software/cabocha/}を使用した.このようにして得られた共起表現の延べ頻度は37,659,107,異なり数は7,420,195である.このうち,動詞の異なり数は32,822,名詞の異なり数は78,708,$\langlen,c\rangle$の異なり数は290,016,である.\item[(3)]シソーラス意味的な類似度を用いて代替動詞候補を求める場合との比較を行うために,シソーラスとして分類語彙表(『分類語彙表増補改訂版データベース』国立国語研究所(2004)),EDR電子化辞書(概念辞書CPD-V020.1および日本語単語辞書JWD-V020)を使用する.分類語彙表は,大分類として,「1.名詞の仲間(体の類)」,「2.動詞の仲間(用の類)」,「3.形容詞の仲間(相の類)」,「4.その他の仲間」に分類され(動詞の仲間である用の類は16,704語収録されている),これらがさらに5つの部門に分類されている.各部門がさらに項目に区別され,番号を与えた項目の数は4類を通計して895項である.項目番号は,左の桁が粗い分類の番号を示し,順に細かい分類になっている.さらに,このグループが「段落番号」と「小段落番号」で細分化されている.分類情報(大分類,項目番号,段落番号,小段落番号)は,シソーラス上の位置を表すと見ることもできる.例えば,「飲む」に付与された分類情報は2.3331-12-01(大分類2,項目番号3331,段落番号12,小段落番号01)であるが,これは「飲む」が図\ref{図:Tree}に示すような木構造を持つシソーラス上の葉ノードであることを示すと見ることもできる.EDR電子化辞書の概念辞書は概念間の上位下位関係を記述したものであり,日本語単語辞書には形態情報の他に,見出し語の持つ概念が示されており,総動詞数は45,084個である.両者を用いて動詞のシソーラスを構成することができる.作成した動詞シソーラスは,総概念数32,959(ただし,各動詞から上位を辿っていった場合の最上位概念が3つあったため,それらの上位にルート概念を追加した),概念間の上位下位関係の総数34,567,最大の深さ17である.本研究では,動詞間の意味的な類似度を基本的には\cite{長尾}で紹介されているシソーラス上の類似度に従って求める.ただし,動詞が多義語である場合や,一つの概念の上位概念が複数ある場合も考慮し,動詞$v_{1}$と$v_{2}$の意味的な類似度$SIM_{Dic}(v_{1},v_{2})$を以下のように定義する.\[SIM_{Dic}(v_{1},v_{2})=\max_{c\inC\!M(v_{1},v_{2})}\frac{2\cdotDepth(c)}{Dis(v_{1},c)+Depth(c)+Dis(v_{2},c)+Depth(c)}\]ここで,$C\!M(v_{1},v_{2})$は動詞$v_{1}$と$v_{2}$の共通の上位概念ノードの集合,\textbf{$Depth(c)$}は$c$の深さ,すなわち,シソーラスのルートノードからノード$c$への最長パス長,\textbf{$Dis(v,c)$}は,ノード$c$からノード$v$へ至る最短パス長である.分類語彙表に基づく意味的な類似度の計算では,分類語彙表に記載されている動詞とその分類情報を図\ref{図:Tree}のようなシソーラスと見なして類似度の計算を行う.なお本稿では,分類語彙表を用いた$SIM_{Dic}$を$SIM_{Dic1}$,EDR電子化辞書を用いた$SIM_{Dic}$を$SIM_{Dic2}$で表す.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f3.eps}\end{center}\caption{分類語彙表の木構造}\label{図:Tree}\end{figure}\subsection{誤用・正用共起表現データ}\label{誤用・正用共起表現データ}誤用の共起表現と正用の共起表現を対にしたものを誤用・正用共起表現対と呼び,これを集めたものを誤用・正用共起表現データと呼ぶ.本稿では,動詞のみが誤りである場合を扱うため,以降の実験で使用する誤用・正用共起表現対は,$(\tupple{n,c,v},\tupple{n,c,v^*})$の形式をしている(つまり,$v$が誤用動詞,$v^*$がその正用動詞である).本稿では,評価結果の信頼性を高めるため,3名の母語話者がそれぞれ誤用・正用共起表現データの作成を行った.前節(1)で述べた学習者コーパスから誤用・正用共起表現データを作成する具体的な手順を以下に示す.\begin{itemize}\item[(1)]著者以外の日本語母語話者(作業者A,作業者B,作業者C)\hspace{-0.5zw}\footnote{3名とも日本語教育経験を持つ.また,作業者には不自然な共起に対する修正支援システムにつながる手法の評価に用いるデータとすることは伝えたが,手法自体(類似度や共起の自然さの判定法)は伝えていない.}が,学習者の作文を読み,不自然な$\tupple{n,c,v}$を誤用共起表現として収集する.\item[(2)]次に,誤用共起表現が自然な表現になるように,3名の作業者が個別に修正を行い,これを正用共起表現とする.修正に際しては,構成要素のうちの一箇所を修正することで自然な日本語に書き換え,誤用・正用共起表現対を求める.自然な表現にするのに2箇所以上の修正が必要な場合は対象から除く.また,学習者の日本語のレベルが意図する内容を日本語で表現するのに十分でなく,作業者が誤用共起表現から正用共起表現を推定するのが困難な場合は修正の対象から除く.動詞を修正する場合は,基本的には誤用共起表現から想像できる動詞のうち文脈を考慮して適切なものを正用動詞として推定する.修正する際に文脈を考慮するが,誤用動詞から推測することを前提とし,作文の内容から正用動詞を推測し,校正するものではない.以下に例を示す(SG041は学習者データのファイル名を指す).\begin{quote}新年を祝わなければ、中国人の\underline{伝統を落とし}ます。(SG041)\\誤用・正用共起表現対:($\tupple{伝統,を,落とす},\tupple{伝統,を,失う}$)\\\end{quote}\item[(3)]上記で求めた誤用・正用共起表現対のうち,誤用共起表現$\tupple{n,c,v}$に対して,その正用共起表現が$\tupple{n,c,v^*}$となっていないもの,および,以下の場合に該当するものを削除し,誤用・正用共起表現データを作成する.\begin{itemize}\item[(a)]自動詞と他動詞の使用の誤り,\item[(b)]$n$が形式名詞の場合,\item[(c)]$n$または$v$が平仮名表記になっていてかつ同音異義語を持つ場合,\item[(d)]$v$が「なる」「する」の場合,\item[(e)]$n$または$v$が日本語にない場合,\end{itemize}(a)は,出現環境の類似度に基づくのではなく,自動詞形/他動詞形の変換により代替動詞候補を求めるべき誤りである.(b)は,形式名詞の使用を学習者が誤っている(学習者が意図した先行詞を作業者が推定できない)可能性があり,その場合,作業者が誤用とその修正(正用)の判断を誤る可能性があるためである.(c)は,同音異義語を持つ$n$または$v$を含む不自然な共起表現$\tupple{n,c,v}$の場合,学習者が意図した語を作業者が特定する際の信頼性が低くなるためである.同音異義語を持つか否かの判定は,国語辞典を使用した.(d)は,広範囲の意味を取り得る「する」と「なる」が誤って使用されている場合は,学習者が意図した語を作業者が推定するのが困難なためである.(e)は,学習者が意図した単語と異なる単語を作業者が推定することを避けるためである.母語話者コーパス(新聞コーパス)から抽出した共起データにも,国語辞典の見出しにも出現しないとき,「日本語にない」と判定した.\end{itemize}評価実験では,上記の手順で作成した誤用・正用共起表現データのうち,3名の作業者が3名とも動詞のみを修正した誤用・正用共起表現対191を最終的な評価データとして使用する.作業者Aが作成したものを誤用・正用共起表現データA,作業者Bが作成したものを誤用・正用共起表現データB,作業者Cが作成したものを誤用・正用共起表現データCとする.作成された誤用・正用共起表現データA,誤用・正用共起表現データB,誤用・正用共起表現データCの内訳を表\ref{データの内訳}に示す.誤用・正用共起表現データにおいて,正用動詞まで一致したものは65個(34.0\%)であった.複数の漢字表記を持つ動詞に対して,表記が異なる修正を行った場合(「作る」と「つくる」など)を含めると,約40\%である.動詞を修正する場合に正用動詞は一意とは限らないことを考慮すると,上記の割合は当然の結果とも言える.\begin{table}[t]\caption{誤用・正用共起表現データの内訳}\label{データの内訳}\input{02table01.txt}\end{table}誤用・正用共起表現データを用いて仮説の妥当性等を評価するためには,以下の条件が満たされている必要がある.\begin{itemize}\item[(1)]誤用動詞に対して,一般には正用動詞は複数あるが,作業者がそれらのあり得る正用のうちの一つを選んでいる,\item[(2)]作業者は,誤用動詞に対して,一般には複数ある正用動詞のうち,誤用動詞と出現環境の類似性が比較的高い動詞を選ぶというような偏った傾向にはない.\end{itemize}日本語学習者に対する日本語教育経験を有する日本語母語話者による誤用動詞の修正であるから,(1)は満たされているものと考えている.一方,修正の方法(正用動詞)は一般に複数あり得るため,作業者によっては,たまたま,複数ある正用動詞のうち誤用動詞との出現環境の類似度が高い方の動詞を用いた修正を行う傾向にあるということもあり得る.作業者A,B,Cには作業結果のデータをどのように利用するかなどを知らせることなく行ったため,3名全員が(2)を満たさない作業を行う可能性は極めて低い.そこで,\ref{仮説の検証}節および\ref{シソーラスとの比較}節の実験では,誤用・正用共起表現データA,B,C,それぞれで同じ傾向の結果が得られることを示すことで,(2)が成り立つことを示すとともに,仮説の妥当性および誤用動詞に対する代替動詞候補を順序付けて提示するための尺度として出現環境の類似度が優れていることを示し,\ref{システムの実用性}節でも,誤用・正用共起表現データA,B,Cそれぞれを用いて仮説に基づく共起表現に関する作文支援システムの実用性を検討する.\subsection{仮説の検証}\label{仮説の検証}\ref{誤用・正用共起表現データ}節で述べた誤用・正用共起表現データを用いて仮説の妥当性を評価する.誤用動詞と正用動詞の出現環境の類似度の傾向だけを評価するため,図\ref{図:提案アルゴリズム}の提示法の(2)はスキップし,(3)では自然さの判定を行わず$Candidates=V$とする.候補動詞の全体集合$V$は\ref{使用するデータ}節(2)で述べた新聞コーパスから抽出した母語話者共起データ中の全動詞の集合$V_{News}$とし,$SIM$は\ref{出現環境の類似尺度}節で延べた出現環境の類似度$SIM_{H}$とする.つまり,出現環境の類似度だけで,誤用・正用共起表現対($\tupple{n,c,v},\tupple{n,c,v^*}$)の誤用動詞$v$から,代替動詞候補を優先順位付きで求める.この出力から,正用動詞$v^*$の順位\footnote{$SIM(v,v^*)=SIM(v,v')$なる候補動詞$v'(\neqv^*)$がある場合は,それらの平均の順位とする.たとえば,類似度の降順に並べたとき,$SIM(v,v_{1})>SIM(v,v_{2})>SIM(v,v_{3})=SIM(v,v_{4})=SIM(v,v_{5})>SIM(v,v_{6})$で,$v_{3}$が正用動詞$v^*$である場合,出力される順位は,4である.}を求める.ただし,`unknown1'が出力されている場合は,便宜上順位を特別な記号`unknown1'とする\footnote{順位としては,任意の自然数$k$に対し$k<$unknown1と解釈する.後述のunknown*,\ref{システムの実用性}節で述べるunknown2,NGについても同様である.}.また,正用動詞$v^*$が提示される候補の中にない場合,つまり$v^*\notinV$の場合も,順位が求められないため,便宜上順位を特別な記号`unknown*'とする.全誤用・正用共起表現対191のうち,求められた順位が$k$位以内である誤用・正用共起表現対の割合(top$k$accuracy)で仮説の妥当性を検討する.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f4.eps}\end{center}\caption{出現環境の類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy}\label{類似度のみtopK}\end{figure}誤用・正用共起表現データA,B,C,それぞれにおけるtop$k$accuracyを図\ref{類似度のみtopK}に示す.図\ref{類似度のみtopK}のグラフでは$k=2000$のところまでしかtop$k$accuracyが描かれていないが,$k=|V|=|V_{News}|=32,822$のときのtop$k$accuracyは,誤用・正用共起表現データAの場合は,99.5\%,誤用・正用共起表現データBの場合は,100.0\%,誤用・正用共起表現データCの場合は,100.0\%である.誤用・正用共起表現データAの場合に100\%になっていないのは,`unknown*'を出力した誤用・正用共起表現対が1個あったためである.前述したように,top$k$accuracyが$\alpha$\%であるとは,全誤用・正用共起表現対の$\alpha$\%の誤用・正用共起表現対で,誤用動詞との出現環境の類似度が高い上位$k$個の候補の中に正用動詞が含まれていることを意味する.したがって,$|V|$に比べ十分小さな$k$におけるtop$k$accuracyが100\%に近いならば,「誤用動詞との出現環境が類似している順に全動詞を並べた場合,正用動詞(代替動詞)はその上位にある傾向にある」という仮説が成り立つと言える.図\ref{類似度のみtopK}より,誤用・正用共起表現データAでは,top845accuracyは80\%,誤用・正用共起表現データBでは,top575accuracyは80\%,誤用・正用共起表現データCでは,top790accuracyは80\%である.845,575,790は,それぞれ,$|V|=|V_{News}|=32,822$の,2.6\%,1.8\%,2.4\%であるから,いずれのデータに対しても仮説が成り立っていると言える.したがって,本実験より,仮説が妥当であることが示せたと考えている.ただし,本仮説は,誤用動詞との出現環境の類似度順位において,正用動詞がどの程度高い順位にあるかまでは言及しておらず,単に傾向を述べているにすぎない.そこで,次節では,候補動詞の順位付けを,誤用動詞との出現環境の類似度で行った場合の方が,誤用動詞との意味的な類似度で行った場合より,正用動詞の順位が高い傾向にある,つまり,誤用動詞に対する代替動詞候補を順位付けて提示するための尺度として,出現環境の類似度の方が意味的な類似度よりも有用であることを示す.\subsection{意味的な類似度を用いた場合との比較}\label{シソーラスとの比較}\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f5.eps}\end{center}\hangcaption{シソーラスに基づく類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy(誤用・正用共起表現データAを用いた場合)}\label{共通topK-A}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f6.eps}\end{center}\hangcaption{シソーラスに基づく類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy(誤用・正用共起表現データBを用いた場合)}\label{共通topK-B}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f7.eps}\end{center}\hangcaption{シソーラスに基づく類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy(誤用・正用共起表現データCを用いた場合)}\label{共通topK-C}\end{figure}意味的な類似度として\ref{使用するデータ}節(3)で述べた$SIM_{Dic1}$,$SIM_{Dic2}$を用いて,前節で行った実験と同様にしてtop$k$accuracyを求めた結果を図\ref{共通topK-A},図\ref{共通topK-B},図\ref{共通topK-C}に示す.図\ref{共通topK-A}は誤用・正用共起表現データAに対する結果,図\ref{共通topK-B}は誤用・正用共起表現データBに対する結果,図\ref{共通topK-C}は誤用・正用共起表現データCに対する結果である.ただし,類似度として$SIM_{Dic1}$を用いる場合は,図\ref{図:提案アルゴリズム}の(3)の$V$は,分類語彙表の見出し動詞の集合$V_{Dic1}$,(4)の出現環境の類似度$SIM$の代わりに分類語彙表に基づく類似度$SIM_{Dic1}$とし,類似度として$SIM_{Dic2}$を用いる場合は,図\ref{図:提案アルゴリズム}の(3)の$V$は,EDR電子化辞書の見出し動詞の集合$V_{Dic2}$,(4)の出現環境の類似度$SIM$の代わりにEDR電子化辞書に基づく類似度$SIM_{Dic2}$とした.図\ref{類似度のみtopK}と図\ref{共通topK-A},図\ref{類似度のみtopK}と図\ref{共通topK-B},図\ref{類似度のみtopK}と図\ref{共通topK-C}の比較から,出現環境の類似度$SIM_{H}$を用いた場合の方が,分類語彙表に基づく類似度$SIM_{Dic1}$およびEDR電子化辞書に基づく類似度$SIM_{Dic2}$を用いた場合よりも,top$k$accuracyが高いことがわかる.$V_{Dic1}$の要素数は,分類語彙表の見出し本体の異なりから,接辞を示す「-」や句を形成する「…」を除いて17,249である\footnote{用の類の語数は16,704と記載されているが,$|V_{Dic_1}|=17,249$は異表記も一つの見出しとして数えたためである.}.しかも,分類語彙表には,「ブレーキを掛ける」のように動詞一単語の形式になっていない表現が含まれているため,扱える候補動詞の数は17,249よりも少ない.これに対して$V_{News}$の要素数は32,822である.これが大規模な母語話者コーパスから抽出した共起データに基づいて求めた出現環境の類似度を用いた場合と,分類語彙表に基づく類似度を用いた場合のtop$k$accuracyの違いの原因の一つである可能性もある.扱える候補動詞の全体数が大きいことも大規模な母語話者コーパスを用いた場合の出現環境の類似度が代替動詞候補を順位付けて提示するための尺度として有用である理由の一つとなり得る.しかし,$V_{Dic2}$の要素数は45,084であり,$V_{News}$の要素数よりも多いが,top$k$accuracyが高くはない.そのため,候補の全体集合の大きさがtop$k$accuracyの違いの原因であるとは言えない.ここで,採用語彙の範囲を見ると,分類語彙表は現代の日常社会で普通に用いられる語を中心に採用している.一方,EDR電子化辞書は,機械翻訳を目的とし,新聞,百科事典,教科書,参考書などを中心としてデータが作成されている.シソーラス構築の際に参考にする文書のジャンルの違いに起因する候補動詞の集合の違いもtop$k$accuracyの違いの原因の一つであると考えられる.以上より,図\ref{共通topK-A},図\ref{共通topK-B},図\ref{共通topK-C}に示した結果だけから直ちに,代替動詞候補を順位付けて提示するための尺度として出現環境の類似度がシソーラスに基づく意味的な類似度よりも有用であるとは言えない.そこで,$SIM_{H}$と$SIM_{Dic1}$,$SIM_{H}$と$SIM_{Dic2}$とで共通に類似度が定義されている動詞のみに候補を制限した場合を考える.つまり,$V=V_{News}\capV_{Dic1}$として,$SIM$として$SIM_{H}$を用いた場合と$SIM_{Dic1}$を用いた場合とのtop$k$accuracyの比較,および,$V=V_{News}\capV_{Dic2}$として,$SIM$として$SIM_{H}$を用いた場合と$SIM_{Dic2}$を用いた場合とのtop$k$accuracyの比較を行う.これにより,誤用動詞の代替動詞候補を順位付けて提示するための尺度としての性能の比較を$(V_{News}\capV_{Dic1})\times(V_{News}\capV_{Dic1})$上,$(V_{News}\capV_{Dic2})\times(V_{News}\capV_{Dic2})$上に限って行うことになり,ある意味公平な評価と言える.\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f8.eps}\end{center}\caption{$V=V_{News}\capV_{Dic}$とした場合のtop$k$accuracy(誤用・正用共起表現データAを用いた場合)}\label{類似度のみ共通topK-A}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f9.eps}\end{center}\caption{$V=V_{News}\capV_{Dic}$とした場合のtop$k$accuracy(誤用・正用共起表現データBを用いた場合)}\label{類似度のみ共通topK-B}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f10.eps}\end{center}\caption{$V=V_{News}\capV_{Dic}$とした場合のtop$k$accuracy(誤用・正用共起表現データCを用いた場合)}\label{類似度のみ共通topK-C}\end{figure}誤用・正用共起表現データA,B,Cにおける結果をそれぞれ図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}に示す.図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}の凡例の$SIM\_H[News*Dic1]$は,$V=V_{News}\capV_{Dic1}$とし,$SIM$として$SIM_{H}$を用いた場合を,$SIM\_Dic1[News*Dic1]$は,$V=V_{News}\capV_{Dic1}$とし,$SIM$として$SIM_{Dic1}$を用いた場合を,$SIM\_H[News*Dic2]$は,$V=V_{News}\capV_{Dic2}$とし,$SIM$として$SIM_{H}$を用いた場合を,$SIM\_Dic2[News*Dic2]$は,$V=V_{News}\capV_{Dic2}$とし,$SIM$として$SIM_{Dic2}$を用いた場合を示す.なお,図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}のグラフでは,$k$=2,000のところまでしかtop$k$accuracyが描かれていないが,$V=V_{News}\capV_{Dic1}$の場合,$k$=$|V|$=9,693のときのtop$k$accuracyは,$SIM_{H}$,$SIM_{Dic1}$ともに,誤用・正用共起表現データAの場合は67.5\%,誤用・正用共起表現データBの場合は68.6\%,誤用・正用共起表現データCの場合は65.4\%である.また,$V=V_{News}\capV_{Dic2}$の場合,$k$=$|V|$=13,169のときのtop$k$accuracyは,$SIM_{H}$,$SIM_{Dic2}$ともに,誤用・正用共起表現データAの場合は79.1\%,誤用・正用共起表現データBの場合は82.7\%,誤用・正用共起表現データCの場合は76.4\%である.100\%になっていないのは,表\ref{unknownの個数}に示す個数の`unkonwn1'および`unknown*'を出力した誤用・正用共起表現対があったためである.\begin{table}[t]\caption{unknown1,unknown*を出力した誤用・正用共起表現対の個数}\label{unknownの個数}\input{02table02.txt}\end{table}図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}より,いずれの誤用・正用共起表現データの場合でも,$SIM_{H}$を用いた場合が,$SIM_{Dic1}$,$SIM_{Dic2}$を用いた場合よりもtop$k$accuracyが高いことが分かる.次に,$V=V_{News}\capV_{Dic1}$において正用動詞が候補中にある129個(誤用・正用共起表現データA),131個(誤用・正用共起表現データB),125個(誤用・正用共起表現データC),$V=V_{News}\capV_{Dic2}$において正用動詞が候補中にある151個(誤用・正用共起表現データA),158個(誤用・正用共起表現データB),146個(誤用・正用共起表現データC)について順位の平均と分散を求めたものを表\ref{順位の平均と分散}に示す.表\ref{順位の平均と分散}より,出現環境の類似性($SIM_{H}$)を用いた方がシソーラスに基づく意味的な類似度($SIM_{Dic1}$,$SIM_{Dic2}$)を用いた場合より,正用動詞の順位の平均は高く,分散も小さいことがわかる.\begin{table}[t]\caption{$SIM_{H}$と$SIM_{Dic1}$,$SIM_{Dic2}$の順位の平均と分散}\label{順位の平均と分散}\input{02table03.txt}\end{table}いくつかの例について,$SIM_{Dic1}$,$SIM_{Dic2}$と$SIM_{H}$を用いた場合に出力される正用動詞の順位を表\ref{正用動詞の順位比較}に示す.例1,例2,例3は,\ref{誤用と正用の関係}節で示した例の分類と対応している.例1,例2のような「正用動詞が誤用動詞の類義動詞である場合」は,$SIM_{H}$を用いた場合の順位は,$SIM_{Dic1}$,$SIM_{Dic2}$を用いた場合と比較し,ほぼ同じか高い傾向にある.一方,例3のような「正用動詞が誤用動詞の類義動詞ではない場合」では,$SIM_{Dic1}$,$SIM_{Dic2}$と$SIM_{H}$の順位は大きく異なり,$SIM_{H}$を用いた方が$SIM_{Dic1}$,$SIM_{Dic2}$を用いた場合より順位が高い傾向にある.\begin{table}[t]\caption{$SIM_{H}$と$SIM_{Dic1}$,$SIM_{Dic2}$の正用動詞の順位の比較}\label{正用動詞の順位比較}\input{02table04.txt}\end{table}以上をまとめると,シソーラスに基づく意味的な類似度に比べ,出現環境の類似度は,誤用動詞に対する代替動詞候補を順位付けて提示するための尺度として有用であることが分かる.\subsection{提案手法に基づく共起表現に関する作文支援システムの実用性}\label{システムの実用性}本節では,誤用・正用共起表現データA,B,Cを用いて,図\ref{図:提案アルゴリズム}の代替動詞候補の提示手法に基づいた作文支援システムの実用性について検討する.誤用・正用共起表現対($\tupple{n,c,v},\tupple{n,c,v^*}$)に対し,図\ref{図:提案アルゴリズム}の手法により,$v$の代替動詞候補を優先順位付きで出力し,その中での正用動詞$v^*$の順位\footnote{$SIM(v,v^*)=SIM(v,v')$なる候補動詞$v'(\neqv^*)$がある場合は,\ref{仮説の検証}節と同様に平均の順位とする.}を求め,誤用・正用共起表現データA,B,Cそれぞれに対してtop$k$accuracyを求める.図\ref{図:提案アルゴリズム}の(3)における$\tupple{n,c,v'}$の自然さの判定は,\ref{共起の自然さ}節式(\ref{判定式Exist})で行う.ただし,閾値$f_{0}$の値として,0,9,19の3通りを試した.$SIM$は$SIM_{H}$で,候補動詞の全体集合$V$は$V_{News}$である.図\ref{図:提案アルゴリズム}の手法で`unknown1',`unknown2'が出力される誤用・正用共起表現対に対しては正用動詞の順位が求まらないが,そのような誤用・正用共起表現対は誤用・正用共起表現データA,B,Cにはなかった.候補動詞の集合(図\ref{図:提案アルゴリズム}の$Candidates$)の中に正用動詞が含まれない場合,つまり,正用共起表現が自然と判定できない場合も順位が求まらない.表\ref{NGの個数}にそのような誤用・正用共起表現対の個数を示す.()の中の値は,全誤用・正用共起表現対191個に対する割合である.便宜上このような誤用・正用共起表現対に対しては,順位を特別な記号`NG'とする.\begin{table}[b]\caption{提示される候補動詞集合中に正用動詞が含まれない誤用・正用共起表現対の個数}\label{NGの個数}\input{02table05.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f11.eps}\end{center}\caption{提案手法(図\ref{図:提案アルゴリズム})によるtop$k$accuracy(誤用・正用共起表現データAを用いた場合)}\label{自然さの判定topK-A}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f12.eps}\end{center}\caption{提案手法(図\ref{図:提案アルゴリズム})によるtop$k$accuracy(誤用・正用共起表現データBを用いた場合)}\label{自然さの判定topK-B}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f13.eps}\end{center}\caption{提案手法(図\ref{図:提案アルゴリズム})によるtop$k$accuracy(誤用・正用共起表現データCを用いた場合)}\label{自然さの判定topK-C}\end{figure}図\ref{自然さの判定topK-A},図\ref{自然さの判定topK-B},図\ref{自然さの判定topK-C}に,誤用・正用共起表現データA,B,Cを用いた場合の,提案手法によるtop$k$accuracyを示す.図には,共起の自然さで候補を絞らない場合の結果,つまり,\ref{仮説の検証}節の結果(図のSimple)も比較のために示している.誤用・正用共起表現データA,B,C,いずれも共起の自然さの判定を,$f_{0}=9$を閾値として用いた式(\ref{判定式Exist})で行った場合のtop$k$accuracyは$f_{0}=0$の場合に比べ,$k$が比較的小さなところで顕著に高い.これは,出現頻度を考慮することにより,係り受け解析の失敗のために母語話者共起データに含まれてしまった誤った共起ペアの影響を軽減できたことが一因と考えられる.しかし,$f_{0}=19$を閾値とした場合,$f_{0}=9$の場合に比べ,top$k$accuracyは低くなり,適切な候補までが除かれてしまうことの影響の方が逆に大きくなっている.付録に入力の誤用共起表現に対する代替動詞候補の出力例と,それに対する適切さの判断の例を示す.付録の例のように,実際に日本語学習者が提案手法に基づく作文支援システムを利用する場合,辞書と学習者の日本語の知識だけで,上位に提示される候補のうち,これは違うと単純に判断できるものもあると考えられる(例えば,付録の「ある」「なる」「できる」).また,自分では思い付かない,あるいは,母語—日本語辞書では求まらない候補なのであるが,見ればこれだと分かる場合もあると考えられる.このように考え,学習者は上位30位までの候補が適切か否かを検討するのは負担と感じないと想定し,現状を評価してみる.式(\ref{判定式Exist})の閾値を$f_{0}=9$とした場合のtop30accuracyは誤用・正用共起表現データAを用いた場合に52.4\%,誤用・正用共起表現データBを用いた場合に57.6\%,誤用・正用共起表現データCを用いた場合に57.6\%であり,十分に高いとは言えない.その原因は,共起の自然さの判定法と誤用動詞との出現環境の類似度による順位付けそれぞれにある.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f14.eps}\end{center}\caption{母語話者新聞共起データに含まれない正用共起表現の数}\label{コーパス比較_未知語}\end{figure}まず,共起の自然さの判定法について考察する.2.3節で述べたように,十分大規模な母語話者コーパスを用いれば,式(\ref{判定式Exist})による共起の自然さの判定でも有用であると考えている.しかし,表\ref{NGの個数}から分かるように,全誤用・正用共起表現対における,正用共起表現が自然と判定できない誤用・正用共起表現対の割合は,$f_0=0$,$f_0=9$,$f_0=19$それぞれの場合で,約1割,約3割,約4割である.今回使用した新聞17年分の母語話者コーパスではまだ十分な規模とは言えず,これがtop$k$accuracyが十分に高くない原因の一つである.しかし,以下に示すように,新聞コーパスを単に大規模にしただけでは不十分であると考えられる.図\ref{コーパス比較_未知語}に誤用・正用共起表現データA,B,Cに関して,共起データの規模と,その共起データに含まれない正用共起表現の個数の関係を示す.横軸の数値$year$は,1991年〜~$year$年の新聞コーパスを用いて母語話者共起データを作成したことを示し,縦軸の値は,誤用・正用共起表現データ中の正用共起表現のうち,その母語話者共起データに含まれないものの個数である.図\ref{コーパス比較_未知語}から,母語話者共起データに含まれない正用共起表現の数の減少率が,8年分を超えたところから下がっている.この結果から,新聞コーパスを大きくすることでこの数を小さくするのは不可能であると考えられるため,新聞と異なるジャンルからコーパスを構築する必要がある.次に,誤用動詞との出現環境の類似度による提示する候補動詞の順位付けについて考察する.今回提案した手法では,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説に基づき,誤用共起表現$\tupple{n,c,v}$に対して,$n,c$との共起が自然な動詞$v'$を$v$との出現環境の類似度の降順で提示する.\ref{仮説の検証}節で述べたようにこの仮説は妥当であり,\ref{シソーラスとの比較}節で述べたように,類似度としてシソーラスに基づいた意味的な類似度を用いるよりは精度が高い.しかし,上述の結果が示すように,一つの誤用動詞との出現環境の類似度だけでは優先付けの情報として不足している.そこで,実用に耐える作文支援システムを構築するには,入力情報を増やすことが考えられる.つまり,ほぼ同じことを意味している(とシステム利用者は思っている)複数の共起表現$\tupple{n,c,v_1},\tupple{n,c,v_2},\cdots,\tupple{n,c,v_m}$を入力する($n,c$は共通).こうすることで,$n,c$との共起が自然な動詞$v'$を\[SIM(v_1,v')+SIM(v_2,v')+\cdots+SIM(v_m,v')\]の降順で提示することができ,より精度の高い優先付けが期待できる.これは一見,システム利用者に過度の負担をかけるように見える.しかし,もし,最初からほぼ同じ事を意味していると思われる複数の共起表現$\tupple{n,c,v_1},\tupple{n,c,v_2},\cdots,\tupple{n,c,v_m}$を思い付かない場合は,まず,一つの共起表現を入力し,提示される比較的上位の候補動詞の中からそのような共起表現を指定することで,利用者に大きな負担をかけることなく実現できる.誤用・正用共起表現データを用いて行った今回の評価から,提案手法に基づいて共起表現に関する作文支援システムを構築する際には,上記で考察したように,使用する母語話者共起データの規模,および,システム利用者(日本語学習者)が入力する情報に関して課題があることがわかった.今回の評価では,誤用・正用共起表現データを作成する際,一つの誤用共起表現に対して一つの正用共起表現を適用した.しかし,実際の正用共起表現は一つとは限らず,候補中に正用として指定した動詞以外で適切なものが含まれていることが十分考えられる.実際,付録に示した判断が「○」のものは適切な代替動詞である.したがって,実際に学習者がシステムを使用する場合には,30位以内の候補に適切な代替動詞が含まれている割合は,今回求めたtop30accuracyよりも高いと期待される. \section{おわりに} 学習者の作文中の誤用共起表現と正用共起表現を利用し,本研究の前提となる仮説の検証を行った.「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説を検証することによって,本システムの信頼性が検証できた.さらに,実用化の見通しを立てるため,現在の規模のコーパスでシステムを構築した場合を想定した評価を行った.その結果,現状のコーパスでシステムを実用化した場合の問題点が明らかになった.しかし,今回の評価は,実際の正用動詞は誤用動詞に対して一つではないということを考えるとかなり厳しい評価であった.また,システム利用者が複数の動詞を入力するようにシステムの仕様を変更するならば,候補のより適切な順位付けができると期待される.提案手法に基づいた共起表現に関する作文支援システムは,候補を提示するだけで,その選択はシステム利用者に委ねられる.利用者がその選択を適切に行えるように,提示される代替共起表現候補が使われている例文を母語話者コーパスから抽出して提示する等の機能も必要であるが,それらの機能を利用して,利用者が適切な選択を行えるためには,そもそも利用者自身がある程度の日本語能力を持っている必要がある.\ref{システムの実用性}節で述べた課題を解決し,提案手法に基づいた作文支援システムを試作し,それを用いた日本語学習者を対象とする被験者実験により,どの程度の日本語能力のある学習者であれば,本作文支援システムが提供する機能を利用して,適切な共起表現の選択が行えるのかを調査する予定である.\acknowledgment本研究は,一部,財団法人博報児童教育振興会の助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{曹\JBA仁科}{曹\JBA仁科}{2006}]{曹}曹紅セン\JBA仁科喜久子\BBOP2006\BBCP.\newblock中国人学習者の作文誤用例から見る共起表現の学習及び教育への提言—名詞と形容詞及び形容動詞の共起表現について—.\\newblock\Jem{日本語教育},{\Bbf130},\mbox{\BPGS\70--79}.\bibitem[\protect\BCAY{Granger}{Granger}{1998}]{Granger}Granger,S.\BBOP1998\BBCP.\newblock{\BemPrefabricatedpatternsinadvancedEFLwriting:collocationsandformulae,inCowie,A.P.(ed.),Phraseology:Theory,Analysis,andApplications}.\newblockClarendonPress.\bibitem[\protect\BCAY{姫野}{姫野}{2004}]{姫野}姫野昌子\BBOP2004\BBCP.\newblock\Jem{日本語表現活用辞典}.\newblock研究社.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{Hindle}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate-argumentStructures.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\268--275}.\bibitem[\protect\BCAY{James}{James}{1998}]{James}James,C.\BBOP1998\BBCP.\newblock{\BemErrorsinLanguageLearningandUse:ExploringErrorAnaylsis}.\newblockLongman.\bibitem[\protect\BCAY{Kilgariff,Rychly,Smrz,\BBA\Tugwell}{Kilgariffet~al.}{2004}]{Kilgariff}Kilgariff,A.,Rychly,P.,Smrz,P.,\BBA\Tugwell,D.\BBOP2004\BBCP.\newblock\BBOQTheSketchEngine.\BBCQ\\newblockIn{\BemProceedingsofEURALEX},\mbox{\BPGS\105--116}.\bibitem[\protect\BCAY{小森}{小森}{2003}]{小森}小森早江子\BBOP2003\BBCP.\newblock英語を母語とする日本語学習者の語彙的コロケーションに関する研究.\\newblock\Jem{『第二言語としての日本語習得研究』},{\Bbf6},\mbox{\BPGS\33--51}.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{長尾}長尾真\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{Nishina\BBA\Yoshihashi}{Nishina\BBA\Yoshihashi}{2007}]{Nishina}Nishina,K.\BBACOMMA\\BBA\Yoshihashi,K.\BBOP2007\BBCP.\newblock\BBOQJapanesecompositionsupportsystemdisplayingexamplesentencesandco-occurence.\BBCQ\\newblockIn{\BemLKR2007},\mbox{\BPGS\76--83}.\bibitem[\protect\BCAY{白井\JBA孫}{白井\JBA孫}{1999}]{白井}白井英俊\JBA孫晨\BBOP1999\BBCP.\newblock誤用データベースに基づく誤用検出・訂正システム.\\newblock\Jem{『日本語学習者の作文コーパス:電子化による共有資源化』平成8年度$\sim$平成10年度科学研究費補助金基盤研究(A)研究成果報告書研究代表者:大曽美恵子(名古屋大学大学院国際言語文化研究科教授)}.\bibitem[\protect\BCAY{杉浦}{杉浦}{2001}]{杉浦}杉浦正利\BBOP2001\BBCP.\newblockコーパスを利用した日本語学習者と母語話者のコロケーション知識に関する調査.\\newblock\Jem{『日本語電子化試料収集・作成—コーパスに基づく日本語研究と日本語教育への応用を目指して—』平成12年度名古屋大学教育研究改革・改善プロジェクト報告書},\mbox{\BPGS\64--81}.\bibitem[\protect\BCAY{Summers}{Summers}{1988}]{Summers}Summers,D.\BBOP1988\BBCP.\newblock{\BemTheRoleofDictionariesinLanguageLearning,inCarter,R.\&MacCarthy,M.(eds.),VocabularyandLanguageTeaching},\mbox{\BPGS\111--125}.\newblockLongman.\bibitem[\protect\BCAY{鈴木}{鈴木}{2002}]{鈴木}鈴木智美\BBOP2002\BBCP.\newblock2000年度中級作文に見られる語彙・意味に関わる誤用:初中級レベルにおける語彙・意味教育の充実を目指して.\\newblock\Jem{東京外国語大学留学生センター論集},{\Bbf28},\mbox{\BPGS\27--42}.\bibitem[\protect\BCAY{滝沢}{滝沢}{1999}]{滝沢}滝沢直宏\BBOP1999\BBCP.\newblockコロケーションに関わる誤用:日本語学習者の作文コーパスに見られる英語母語話者の誤用例から.\\newblock\Jem{日本語学習者の作文コーパス:電子化による共有資源化』平成8年度$\sim$平成10年度科学研究費補助金基盤研究(A)研究成果報告書研究代表者:大曽美恵子(名古屋大学大学院国際言語文化研究科教授)},\mbox{\BPGS\77--89}.\end{thebibliography}\appendix \section{誤用・正用共起表現対と出力例} 以下の誤用・正用共起表現対に対する出力例を表\ref{出力例}に示す.\begin{quote}この現象は世界の各国の人々に一つの合図をして,それは全世界がいっしょに禁煙の\underline{行動を開こ}う。(CN010)\begin{quote}誤用・正用共起表現対:($\tupple{行動,を,開く},\tupple{行動,を,起こす}$)\\\end{quote}\end{quote}出力例の類似度は0以上1以下となるように,以下に示す正規化を行っている.\begin{equation}SIM_{H}(開く,v')/SIM_{H}(開く,開く)\label{式:Norm}\end{equation}\begin{table}[t]\caption{入力「行動を開く」に対する出力例}\label{出力例}\input{02tableA1.txt}\end{table}\begin{biography}\bioauthor{中野てい子}{1986年立教大学理学部化学科卒業.2005年TempleUniversity.M.~S.Ed.(MasterofScienceinEducation)inTESOL.2007年東京工業大学大学院社会理工学研究科人間行動システム専攻修士課程修了.現在,九州大学大学院システム情報科学府知能システム学専攻博士後期課程.}\bioauthor{冨浦洋一}{1984年九州大学工学部電子工学科卒業,1989年同大学院工学研究科電子工学専攻博士課程単位取得退学.同年九州大学工学部助手,1995年同助教授,現在,九州大学大学院システム情報科学研究院准教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.}\end{biography}\biodate\end{document}
V19N05-03
\section{はじめに} 現在,電子メール,チャット,{\itTwitter}\footnote{http://twitter.com}に代表されるマイクロブログサービスなど,文字ベースのコミュニケーションが日常的に利用されている.これらのコミュニケーションにみられる特徴の一つとして,顔文字があげられる\cite{ptas2012}.旧来の計算機を介した電子メールなど,ある程度時間のかかることを前提としたコミュニケーションでは,直接会った際に現れる非言語的な情報,具体的には,表情や身振りから読み取ることのできる感情やニュアンスなどの手がかりが少なくなることから,フレーミングなどのリスクを避けようとすると,個人的な感情を含まない目的のはっきりした対話に用いることが適切とされる\cite{derks2007}.一方,利用者のネットワークへのアクセス時間の増加に伴い,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアが発達するとともに,親しい友人同士の非目的志向対話への需要は増している.このようなコミュニケーションにおいては,顔文字が,対面コミュニケーションにおける非言語情報の一部を補完するとされている\cite{derks2007}.顔文字とは``(\verb|^|−\verb|^|)''のように,記号や文字を組みあわせて表情を表現したもので,テキスト中で表現された感情を強調・補足できる,という利点がある.一方,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアの発達と時期を同じくして,その種類は増加の一途をたどっている.その中から,ユーザが文章で伝えたい感情に適切な顔文字を,ただひとつだけ選択するのは困難である.また,顔文字入力の主な方法である顔文字辞書による選択では,指定された分類カテゴリ以外の意味での使用を目的とした顔文字を入力することは難しく,予測変換機能では,単語単位を対象としてしか顔文字を提示できない.そのほかの手段として,他のテキストからのコピーアンドペーストやユーザ自身による直接入力があるが,これらは操作数が多く,効率的ではない.そこで,本研究では,ユーザによる適切な顔文字選択の支援を目的とし,{\bfユーザの入力文章から,感情カテゴリやコミュニケーションや動作を反映したカテゴリを推定}し,顔文字を推薦するシステムの構築を目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:category}節では,顔文字推薦のために本研究で定義したカテゴリについて説明する.\ref{sec:implementation}節では,顔文字推薦システムの実現について紹介し,\ref{sec:evaluation}節では,評価実験について説明する.最後に,\ref{sec:conclusion}節で結論をまとめる. \section{関連研究} \label{sec:related}顔文字推薦を目指した先行研究として,\citeA{Suzuki2006}では,ユーザの入力した文章からPlutchikの体系に基づき感情を推定し,顔文字を推薦することを試みている.また,感情と顔文字の関係を利用した別の応用事例として,感情値を入力とした顔文字パーツの生成\cite{nakamura2003b},文章と顔文字を利用した感情推定\cite{shino},顔文字の抽出と感情解析\cite{ptas2010b}等の研究が行われている.本研究では,感情に限らず,コミュニケーションや動作を反映したカテゴリに基づく顔文字推薦の効果について検証を進める.また,\citeA{mura}は,顔文字に関する調査や考察を行っている.彼らの調査の結果,顔文字は,単純な極性にはわけられず,複雑な感情にわかれることや,顔文字自体の極性と文の極性とが異なる場合があることが明らかとなった.\citeA{kawa}の研究では,顔文字の表す感情について調査しており,1つの顔文字は複数の感情を表す場合があることを示している.一方,\citeA{kono}は,年代や性別による顔文字の使用理由について調査を行った結果,文字だけではそっけない画面をにぎやかにするため,自分の伝えたい感情を強調する,文章の深刻さを和らげる,などの理由を明らかにした.\citeA{kato}は,顔文字が感情を表すことを感情表現機能,顔文字を使うことで言葉での表現が減ることをメール本文代替機能と呼んでいる.彼らは,顔文字を使用することでメール本文の文字数が減ること,親しい間柄では感情表現機能,メール本文代替機能がより使用されることを明らかにしている.また,\citeA{yamaguchi2000}では,電子掲示板,ネットニュース,メーリングリストなどを対象として,顔文字から受ける情緒・感情について内容分析を行った結果,礼,謝罪,要請などのカテゴリが存在することを明らかにした.加藤らの研究から,文の感情を顔文字が代替する機能,つまり{\bf文の感情を強調する}機能を持っていることが明らかとなった一方,河野らの研究からは,{\bf画面をにぎやかにする},{\bf文章の感情を和らげる},といった機能を持つことがわかった.このことから,顔文字を推薦するためには,単純に文章の感情のみを手がかりとするだけでなく,文章に現れる特定の表現なども考慮したルールを設定しなければならない.本研究では,これらの傾向をより詳細な形で明らかにするため,顔文字を含む文章を分析し顔文字の使われ方を調査する.そしてその結果から,親密なやりとりが多く出現するマイクロブログにおいて,顔文字推薦を行うためには,感情以外に必要な,{\bfコミュニケーションや動作を反映したカテゴリ}を,\citeA{yamaguchi2000}よりも詳細に区別する必要があることを明らかにし,顔文字推薦システムを構築する.また,顔文字ではないが,{\itTwitter}の文章に絵文字を推薦する研究として\citeA{hashi}がある.橋本の研究では,まず入力文章を形態素解析し,それを単語3グラムに分割する.そして絵文字入りコーパスを用い,単語3グラムと類似するコーパス中の文で用いられている絵文字を文章に挿入している.しかし,絵文字は,顔文字と比べると,キャラクター,動物,ハートマーク,アイスキャンディーのような記号など,装飾要素が強く,文の任意の位置に挿入される傾向が強い.一方,顔文字は,感情やコミュニケーションを反映した表現の直後の位置以外には入りにくい.したがって,感情やコミュニケーションを反映した手がかり語辞書を用いて,カテゴリを推定した方が,顔文字推薦の目的には有効と考える.また,感情推定については,ポジネガ推定を前処理とする2段階推定にすることで,精度が向上することが\citeA{toku}から明らかになっている.本研究では,マイクロブログ({\itTwitter})の文章を収集し,コーパスを作成する.また,入力文に含まれる感情語や特定の表現などを手がかりにコーパスから類似文を見つけ,感情やコミュニケーションのカテゴリ推定を行う.カテゴリ推定については,\citeA{toku}にならい,2段階での推定を行う.その結果を用いて,作成した顔文字データベースから顔文字を推薦する.マイクロブログを対象とした感情推定については,感情語辞書から音韻論に基づき長音化したものを検出すること\cite{brody2011}や,顔文字そのものやハッシュタグを使って訓練データを拡張すること\cite{purver2012}により,感情推定の精度向上を目指す研究がある.これらのアプローチは興味深いが,前者は言語に依存しており,後者は少数の感情を除いて対応関係が曖昧とされていることから,本研究では,これらのデータの拡張は行わずに,定義したカテゴリの顔文字推薦についての効果を明らかにすることに主眼を置く. \section{顔文字推薦に用いるカテゴリの定義} \label{sec:category}本研究で提案する顔文字推薦システムは,大きく分けてカテゴリ推定と顔文字推薦の2種類の処理から構成される.本節では,それぞれの処理を行う際に必要となる情報が何かを分析し,その結果,必要となる基本情報を定義する.\subsection{カテゴリの調査方法}顔文字推薦のためのカテゴリ推定を行うにあたって,必要な感情カテゴリ,また,コミュニケーションや動作を反映したカテゴリを明らかにするため,調査を行った.調査データには,きざしラボ\cite{kizashi}が提供する顔文字92個を含む{\itTwitter}のつぶやき1,722件を収集し使用した.これらのデータに,極性(ポジティブ,ネガティブ,なしの3種類)と感情カテゴリ(\citeA{naka},「喜」「怒」「哀」「恥」「怖」「好」「厭」「昂」「安」「驚」の10種類)をそれぞれ分類して付与した.また,10種類のカテゴリに分類することができず,よく現れるような表現の場合は,新たにカテゴリを定義した.調査の結果,顔文字推薦に必要な情報として,定義した情報の例を以下に示す.\begin{enumerate}\item感情の種類について\begin{enumerate}\item「不快」「不安」など,頻出する項目を中心に,感情カテゴリを定義した.また,{\itTwitter}のつぶやきには,期待を表す表現や,疲れを表す表現などを含む文章が多く見られた.しかし,\citeA{naka}の感情分類にはそれらを表す感情カテゴリはないため,新たに「期待」,「疲れ」という感情カテゴリを定義した.\end{enumerate}\item感情以外の特徴について\begin{enumerate}\item``m(\_\_)m''は,「ごめんなさい」や「申し訳ない」などの謝罪表現を含む文に付与されることが多かった.しかし,謝罪を表すような感情カテゴリは\citeA{naka}の分類には含まれておらず,また,{\bf謝罪は感情とは言い難い側面を持つ}\footnote{\citeA{ortony1990}のように,感情を広くとらえると,謝罪自体は何らかの感情により誘発されると考えることもできるが,本研究では,顔文字の使用者が,顔文字を使用することで伝えたい意図は,原因となる感情ではなく,コミュニケーションにおける行為そのものと考える.}.そこで,感情分類とは別のカテゴリとして,新たに「謝罪」カテゴリを定義した.このような,誰かとのやり取りや,人に伝えることを前提としたカテゴリが多く存在したため,{\bfコミュニケーションタイプ}として,新たに定義した.\item``(-\_-)''や``(*\_*)''は,睡眠を表す文章で使用されていた.{\bf睡眠は動作であり,感情ではない}.感情カテゴリに当てはめることはできないので,これも新たに「睡眠」カテゴリを定義した.この動作を表すカテゴリを,{\bf動作タイプ}として新たに定義した.\end{enumerate}\end{enumerate}\subsection{定義したカテゴリ体系}前節の結果に基づき,顔文字推薦に必要な感情,感情以外のカテゴリを決定した.感情カテゴリの定義を表\ref{table:em}に,感情以外の特徴を,コミュニケーションタイプ,動作タイプとして定義した結果を表\ref{table:com}に示す.感情カテゴリは全部で27種類ある.中村の感情分類を基礎カテゴリとして用いて,それら27種類の感情を詳細カテゴリとして10種類の基礎カテゴリに分類した\footnote{「残念」,「悔しい」は,感情表現辞典\cite{naka}では「厭」に分類されているが,文章に含まれる顔文字は「悲しい」に含まれる顔文字と同じことが多く,「哀」に分類した.}.また,各詳細カテゴリごとに,極性(ポジティブ/ネガティブ/なし)の設定を行った.\begin{table}[p]\caption{感情カテゴリの定義}\label{table:em}\input{03table01.txt}\end{table}コミュニケーション・動作タイプは全部で10種類ある.感情には分類できないが,表現としてよく現れるものを分類した.コミュニケーションタイプは,人とのやり取りや他者に物事を伝えることを中心とした表現のタイプであり,人にどのように伝えるかによって「やりとり型(他者との会話に含まれる表現)」「つぶやき型(他者に見られることを前提としているが,会話にはなっていない文章に含まれる表現)」「不特定多数型(やりとり,つぶやきのどちらにも使われる表現)」の3つに分類しており,それらの分類の下に詳細カテゴリを設定した.また,感情カテゴリ,コミュニケーションタイプに分類できず,文章の中心が動作表現となるものを動作タイプとして定義した.現在,動作タイプとして定義できる程度に頻出した動作表現は「睡眠」だけであるため,動作タイプは1種類のみである.\begin{table}[t]\caption{コミュニケーション・動作タイプの定義}\label{table:com}\input{03table02.txt}\end{table}\subsection{カテゴリ定義の妥当性についての検証}\label{subsec:kappa}作成したコーパスの文章に付与したカテゴリがどの程度安定しているかを調べるため,第1著者と協力者1名(ともに大学生,女性と男性)が,コーパス中からランダムに選んだ190件について,(1)極性と(2)感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを付与した場合の一致度($\kappa$係数)を調べた.その結果,極性の一致については,$\kappa$値が,0.850(almostperfect/ほとんど一致\cite{landis1977}),感情カテゴリ,コミュニケーションタイプまたは動作タイプの一致については,$\kappa$値が,0.747(substantial/かなり一致\cite{landis1977})となり,付与方針が安定していることを示すことができた.本カテゴリのような分類体系の関連研究としては,\citeA{kikui2012}の提案がある.基本的な考え方は,両方の体系で共通しており,菊井の陳述型は,ひとりごと型に対応し,発話行為タイプは,やりとり型に対応すると考えられる.ただし,その下位のカテゴリの分け方に関しては,本研究では,顔文字を推薦する,という前提のもとに,顔文字のつけやすいカテゴリ体系になっている. \section{顔文字推薦システムの実現} \label{sec:implementation}\ref{sec:category}節で定義したカテゴリ体系に基づき,顔文字推薦システムを実現した.構築した顔文字推薦システムは,カテゴリ推定処理と顔文字推薦処理の2つから成り立っている.以下に,顔文字推薦システム全体の流れを示す.\begin{enumerate}\itemユーザが文章を入力する.\item入力文章を用いて,カテゴリ推定を行う({\bfカテゴリ推定処理}).\itemカテゴリ推定の結果を用いて,顔文字データベースから適切な顔文字を取り出す({\bf顔文字推薦処理}).\item取り出した5件の顔文字を推薦候補として,画面に表示する.\end{enumerate}\noindent本節では,上記の処理に必要なデータの作成について,\ref{subsec:data}節で具体的な内容を紹介する.(2)(3)の2つの処理については,\ref{subsec:estimate}節,\ref{subsec:recommend}節で説明する.\subsection{必要なデータの作成}\label{subsec:data}本研究では,カテゴリ推定処理と顔文字推薦処理に必要なデータとして,顔文字辞書,タグ付きコーパス,手がかり語辞書,顔文字データベースを作成した.以下,詳細を説明する.\subsubsection*{顔文字辞書}顔文字推薦に使用する顔文字は,予備実験で用いた92個では各感情を表す顔文字を推薦するのに十分な数ではなかったため,アンケートを実施し追加を行い,163種類とした.\subsubsection*{タグ付きコーパス}\ref{sec:category}節で定義したカテゴリ体系を用いて,感情,コミュニケーションタイプ,動作タイプのタグ付きコーパス(以下,タグ付きコーパス)を作成した.コーパスの文章は,{\itTwitter}の2011年5月1日〜31日,7月1日〜16日のパブリックタイムライン上のツイートから,前述の顔文字163個を含む1,369件(ツイート数)を収集し,それらの文章に,それぞれ(1)極性,(2)感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを,\ref{subsec:kappa}節の判定者2名で協議して付与した.さらに,日常的に顔文字を使用する別の20代の協力者2名と協議しつつ,コーパスの修正と拡張を行い,最終的に,3,975件(各詳細カテゴリごと100件強)とした.\subsubsection*{手がかり語辞書}\ref{sec:category}節のカテゴリ体系を用いて,手がかり語辞書を作成した.手がかり語辞書は感情表現辞典\cite{naka},単語感情極性対応表\cite{taka}を参考にし,全1,440語の項目を設定した.それぞれの語には,極性(ポジティブ,ネガティブ,なしのいずれか)と感情カテゴリ,コミュニケーションタイプまたは動作タイプのいずれかを付与した.なお,手がかり語は,おはよう(おはよ,おはよー,おはよ〜,おはしゃす),さようなら(さよーなら,グッバイ,さらば)のような,オンライン上の挨拶表現の変形も含む.\subsubsection*{顔文字データベース}顔文字推薦処理を実装するために,収集した文章に含まれる顔文字の使われ方を分析し,顔文字データベースの作成を行った.作成したタグ付きコーパスには顔文字が含まれているため,それを分析することで各顔文字の感情ごとの出現頻度を調べた.なお,単純なコーパス中での出現頻度以外に,同じカテゴリに分類される顔文字でも,文章中の表現の違いで使用のされ方が違う場合には,補足ルールを作成し,補足ルールにおいて設定した下位カテゴリ別の出現頻度も調べた.補足ルールは2つあり,以下のとおりである.\begin{enumerate}\item「あいさつ」カテゴリ「あいさつ」カテゴリでは,どの時間帯のあいさつか(例:おはよう→``(⌒▽⌒)'',おやすみ→``((\_\_))..zzzZZ''),あるいは時間帯に無関係なあいさつ(例:よろしく→\\``(‾\verb|^|‾)ゞ'',さようなら→``(´\_ゝ`)'')かによって,使用頻度の高い顔文字が変わってくる.そこで,「あいさつ」カテゴリでは,あいさつ表現別に9つの下位カテゴリを作成した.また,オンライン上の挨拶表現の変形についても,考慮した上で,各顔文字がどの分類に当てはまるのかを分析し,それぞれの分類ごとに出現頻度を計算した.\item「感謝」カテゴリ「感謝」カテゴリでは,丁寧な口調の表現を含む場合,泣き顔や申し訳なさを表す顔文字(例:``ヽ(;▽;)ノ'')がより使用されていた.そこで,「ございます」「ありがたいです」などの言葉を含む文章について,顔文字ごとの頻度を計算した.\end{enumerate}また,入力文章がこれらの補足ルールに一致する語を含んでいるかを判断する必要があるため,補足ルールの下位カテゴリごとに,それらを表す表現を集め,補足ルール辞書を作成した.顔文字データベースは,顔文字とカテゴリを組み合わせて主キーとし,コーパス中でのカテゴリ別の顔文字の出現頻度,補足ルールで指定した下位カテゴリ別の出現頻度を加えて,1レコードとして格納した.データベースの例を,表\ref{table:database}に示す.\newcommand{\TateMoji}[1]{}\begin{table}[t]\caption{顔文字データベースの例}\label{table:database}\input{03table03.txt}\end{table}顔文字データベースの傾向を確認するため,{\itCAO}システム\cite{ptas2010b}との比較を行った.このシステムでは,分類体系は,\citeA{naka}の感情10種類に基づいており,本研究で定義したカテゴリを,表\ref{table:em}の体系に基づき感情10種類により対応付けることで,顔文字に対する感情カテゴリの傾向を比較した.具体的には,\citeA[5.4節]{ptas2010b}の論文で有効と判定されている{\itUniqueFrequency}と,本データベースの相対出現頻度との相関係数を調査した.なお,顔文字は双方で分析可能なもの,かつある程度の出現回数がみられる43個を対象として分析を行った.その結果,相関係数が0.4以上のものが,53.5\%,正の相関を持つものが72.1\%となり,ある程度の相関がみられた.相関係数の低い顔文字は,泣き笑いや,汗付きの笑いを表す顔文字などが含まれており,本研究のデータベースでは,``厭'',``哀''などの感情を表す傾向があるのに対して,{\itCAO}システムでは,他の感情の値の方が大きい傾向がみられる.これは,{\itCAO}システムではWeb全般やブログを対象としているのに対して,本研究ではマイクロブログを対象としていることから,使用傾向の違いが現れていると考えている.なお,表\ref{table:com}のコミュニケーション・動作タイプについては,上記のシステムとの比較が行えないことから,この比較には用いていない.\subsection{カテゴリ推定処理}\label{subsec:estimate}カテゴリ推定を行うために,分類器を構築した.分類器には$k$-NNを用い,文章を入力すると,各学習データとの類似度を計算し,類似している上位$k$件の中で最も多い感情を推定結果として返す.学習データには,\ref{subsec:data}節で説明した,タグ付きコーパスを用いた.分類器によるカテゴリ推定の手順を以下に示す.\begin{enumerate}\item極性(``A.ポジティブ'',``B.ネガティブ'',``C.なし''のいずれか)を推定する.\begin{enumerate}\itemまず,手がかり語辞書に含まれる語の,入力文における出現頻度を計算する.\item(a)の結果から得られた各手がかり語の頻度を用いて,極性ごとに素性ベクトルを構築する.\item学習データ中の各文との平方距離を計算する.\item平方距離の近い上位$k$件のうち,学習データにおいて最も多く付与されている極性を推定結果とする.\end{enumerate}\item推定した極性に対応するカテゴリとして,A.感情(ポジティブ):嬉しい,めでたい等;B.感情(ネガティブ):怒り,悲しい等;C.感情(なし):興奮,安らぎ等か,コミュニケーション・動作タイプ:感謝,謝罪等のいずれかを推定する.\begin{enumerate}\item素性ベクトルの構築や各学習データとの距離の計算は,1の(a)--(c)と同様に推定する.\item平方距離の近い上位$k$件のうち,学習データにおいて最も多く付与されている感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを推定結果とする.\end{enumerate}\end{enumerate}また,入力文に複数の手がかり語が含まれる場合,その位置関係によって推定を誤る可能性がある.たとえば,「おかえり〜今日はありがとね」という文には,「おかえり」と「ありがとう」という2つのコミュニケーションタイプの手がかり語が含まれている.この文の場合では,文全体のコミュニケーションタイプは,「感謝」になるのだが,「あいさつ」が推定結果として出力されてしまう可能性がある.各カテゴリの出現頻度を計算して推定すると,どちらも同じ頻度なため,どちらが推定されてもおかしくない.これは,文章内に現れる手がかり語の位置関係を考慮していないことによる.この対策として,入力文内に現れる順序によって,手がかり語に重みを付与する,といった処理を追加した.具体的には,以下のような計算を行う.なお,$word_{n}$は入力文内に$n$番目に現れる手がかり語,$N$は入力文内に現れる手がかり語の総数である.\[weight(word_{n})=\left[\frac{n}{N}\right]\]次に,構築した分類器の推定精度ならびに,重み付け処理による推定精度の向上を評価するため,10分割交差検定により実験を行った.具体的には,作成したタグ付きコーパス3,975件を,398件を5個,397件を5個の,10個に分割し,10分割の交差検定を行い,推定した極性,カテゴリと,人手でつけた極性,カテゴリがどの程度一致しているかを計算した.推定精度の評価尺度としては,正確さ(accuracy)を採用した.実験の結果,重み付け処理を行っていない場合では,極性の推定精度が69.7\%,極性とカテゴリの双方が正解していたものが43.0\%であったのに対して,重みづけ処理を行った場合では,極性の推定精度が70.2\%,極性とカテゴリの双方が正解していたものが43.5\%であり,統計的有意差はないが,わずかに精度が向上した.重みづけ処理の失敗分析を30件を対象に行ったところ,手がかり語を手動で付与した場合には,28件について,最後の手がかり語のカテゴリが文章のカテゴリと一致することがわかり,手がかり語辞書との照合の精度を向上する必要性が明らかになった.カテゴリの推定精度が十分でない別の理由としては,``報告''カテゴリの分類が難しいことがあげられる.このカテゴリは,{\itTwitter}特有のひとりごとである``〜なう''のような,個別の行動の報告が含まれており,機械学習に適した共通の手がかりが得られにくい.この辺りのカテゴリの推定精度の向上には,ユーザの履歴,文脈といった情報が必要になると考える.なお,\mbox{``報}告''カテゴリを含まずに推定した場合には,推定精度は1.1\%向上した.\subsection{顔文字推薦処理}\label{subsec:recommend}次に,顔文字推薦処理の実装を行った.顔文字推薦処理では,カテゴリ推定の結果に適合した顔文字を,\ref{subsec:data}節で説明した顔文字データベースを用いて判定し,出現頻度の多い順に,最大5件を推薦する.また,もしカテゴリ推定の結果が,\ref{subsec:data}節で説明した補足ルールにマッチする場合には,補足ルール用辞書を用いてさらに細かい分類を行い,適合した顔文字を推薦する.補足ルールに当てはまらないカテゴリであれば,カテゴリ推定の結果だけを用いて,顔文字データベースから顔文字を取り出す. \section{顔文字推薦システムの評価} \label{sec:evaluation}顔文字推薦システムを実際に被験者に使わせ,推薦する顔文字がどの程度ユーザの入力した文章に対して適切であるか調べるため,被験者実験を行った.被験者は,日常的に顔文字を使用する21〜22歳の男性2名,女性3名である.\subsection{実験内容}被験者実験は,2つの項目から構成される.\subsubsection*{実験1:マイクロブログを対象とした顔文字推薦のカテゴリに基づく評価}\begin{itemize}\item実験1では,{\itTwitter}のつぶやきを用意し,そのつぶやきに対して推薦される顔文字が適切かを回答させた.なお,つぶやきは全部で91個あり,\ref{subsec:kappa}節で記述した,判定者間一致率の計算に用いた190件から,人手で判定した各感情カテゴリ,コミュニケーションタイプ,動作タイプにつき1--3個のつぶやきをランダムに抜き出し使用した.なお,本データは,\ref{sec:implementation}節で説明したカテゴリ推定に用いた学習データとは収集方法が異なり,データに重複はないことも確認済みである.\item1つの文章につき,次の2つの推薦結果に対して回答させた.\begin{enumerate}\item({\bf提案手法})感情カテゴリ,コミュニケーションタイプ,動作タイプのいずれかを推定したカテゴリに対して,推薦した顔文字.\item({\bfベースライン})分類器の学習データを感情カテゴリに限定して,推薦した顔文字.\end{enumerate}\item顔文字は,各文章について上位5件を推薦し,評価した.評価は,``○(=適してい\mbox{る){\kern-0.5zw}'',}\mbox{``△}(=どちらともいえない){\kern-0.5zw}'',``×(=不適切){\kern-0.5zw}''の3段階で行い,適していると判定された数を分子,カテゴリごとの正解数を分母として推薦精度を計算した.\end{itemize}\subsubsection*{実験2:自由入力を対象とした顔文字推薦の極性に基づく評価}\begin{itemize}\item実験2では,被験者に実際に顔文字推薦システムを使用させた.被験者自身が,実際に{\itTwitter}や携帯メールで使用しそうな文章を考え,システムに入力し,その結果推薦された顔文字が適切かを回答させた.なお,10文はポジティブな文章,10文はネガティブな文章,10文は極性がない文章として,全部で30文入力させた.なお,極性がない文章については,コミュニケーション・動作タイプおよび感情の極性なしのタイプの文章を,被験者に例示した上で,文章を考えさせた.\itemこちらも,実験1と同様に提案システムとベースラインの2つを利用して評価した.\item顔文字の推薦件数も実験1と同様に5件であり,評価方法は,入力したポジティブ,ネガティブ,極性なしの文章数を分母として推薦精度を計算する点を除いて,実験1と共通である.\itemまた,実験後に,適切でなかった顔文字とその理由について,自由に感想を記入させた.\end{itemize}\subsection{実験結果}\begin{table}[b]\caption{実験1の結果:マイクロブログを対象とした顔文字推薦のカテゴリに基づく評価}\label{table:kekka1}\input{03table04.txt}\end{table}実験1,2の結果を,表\ref{table:kekka1},表\ref{table:kekka2}に示す.表4中の$^{*}$は,実験1において,$t$-検定を用いた結果,提案手法が,感情カテゴリのみに基づいて推薦したベースラインと比べて,有意水準5\%,両側検定で,推薦精度に有意な改善があることを示す.\subsection{実験の考察}実験1,2の結果に基づく考察を以下に示す.\begin{table}[t]\caption{実験2の結果:自由入力を対象とした顔文字推薦の極性に基づく評価}\label{table:kekka2}\input{03table05.txt}\end{table}\subsubsection*{実験1の考察:マイクロブログを対象とした顔文字推薦のカテゴリに基づく評価}\begin{itemize}\item表\ref{table:kekka1}において,提案手法は,ベースラインと比べて,コミュニケーションタイプ,動作タイプのみならず,感情カテゴリにおいても精度の向上が見られる.これは,コミュニケーション・動作タイプを導入することが顔文字推薦において有用であるだけでなく,感情に基づく顔文字推薦についても,より適切な顔文字を推薦できることを示唆している.\item推薦精度が大きく向上したカテゴリは,コミュニケーション・動作タイプでは,``ねぎらい'',``あいさつ'',``心配'',``感謝'',``謝罪'',``睡眠''などであり,感情カテゴリでは,\mbox{``不}安'',``安らぎ'',``期待''などであった.\itemこのうち,``謝罪'',``睡眠''のように,特定の顔文字が文章にぴったり適合するカテゴリの場合,コミュニケーション・動作タイプを推定し,顔文字を推薦することが有効である.\itemまた,``あいさつ''については,「こんにちは」などは曖昧な表現であり,ポジティブな顔文字であれば,カテゴリ推定が間違っていても,ユーザの要求に適合する可能性はある.一方,「よろしく〜」,「おやすみ」などの挨拶表現については,\ref{subsec:data}節で説明した補足ルールに基づき時間帯を考慮して表現を区別し,顔文字を推薦することが有効である.\item例として,「昼からすみません」という文に対する顔文字を推薦する場合を考える.この文章は``謝罪''を表しているが,感情カテゴリのみを推定するベースラインシステムでは,別の感情(この場合,``興奮'')の推定が行われる.その結果,下記のような顔文字が推薦される.\\\verb|\(^o^)/|(*´Д`)(*´д`*)(*´∀`*)(´;ω;`)\\この中の2〜4番目の顔文字では,``謝罪''とはまったく逆の印象を与えてしまう.\\しかし,コミュニケーションタイプを推定できる提案手法では,``謝罪''を推定でき,\\\verb|m(__)morz(´;ω;`)(´・ω・`)(^_^;)|\\のように,5件とも文章の意図に適合した顔文字を推薦している.\item適切でないと回答が多くあったのは,システムの推定したカテゴリが,人手で付与したものと異なる場合である.特に正反対の極性のカテゴリが推定されていると,推薦された顔文字候補はまったく役に立たないこととなる.よって,システムの精度を上げるためには,極性推定の精度の向上が必要と考えられる.\end{itemize}\subsubsection*{実験2の考察:自由入力を対象とした顔文字推薦の極性に基づく評価}\begin{itemize}\item実験2についての実験後の感想には,「ネガティブな文章に対する顔文字推薦の精度がよい」とあった.これは,ポジティブな文章よりもネガティブな文章の方が,直接的な手がかり語が文中に現れやすいため,カテゴリを推薦しやすいことが原因と考えられる.\item極性なしの文章に対する推薦精度が,一部の被験者で低い理由として,``報告''カテゴリの推定がうまくいかない点の影響がある.なお,手がかり語が存在しない場合に``報告''カテゴリとして顔文字を推薦した場合について調査した結果,極性なしの文章に対する推薦精度の合計は,60.4\%に向上した.\itemその他,実験後の感想として,「同じカテゴリの文章に対して,表示される顔文字の種類・順序が一様である」とあった.現在,手がかり語辞書に収録している,同じカテゴリの各手がかり語には,一意に極性が付与されている.そのため,含まれている語が異なる場合でも,推定結果に違いがなく,同じ顔文字が推薦される.この点については,同じカテゴリの手がかり語でも,極性を考慮して手がかり語辞書を作成すること,また,極性を考慮した顔文字データベースを作成することにより,表示される顔文字の種類・順序を豊富にするだけでなく,顔文字推薦自体の精度向上にもつながると期待できる.\end{itemize} \section{おわりに} \label{sec:conclusion}本研究では,ユーザの顔文字選択の支援を目的とし,ユーザの入力文から感情や,感情以外のコミュニケーションや動作を反映したカテゴリを推定し,顔文字を推薦する手法を提案した.提案手法は,2つの処理にわかれており,カテゴリ推定処理と顔文字推薦処理から構成される.カテゴリ推定処理については,{\itk}-NNを用いて分類器を構築した.すなわち,文章を入力すると,手がかり語辞書内の語が含まれていないかを調べ,各カテゴリの手がかり語の出現頻度から構築した素性ベクトルを用いて,各学習データとの類似度を計算し,類似度の高い上位{\itk}件から推定結果を決定する.顔文字推薦処理では,カテゴリ推定の結果を用いて,顔文字データベースから適切な顔文字を取り出し,推薦する.また,コミュニケーションタイプについて,各カテゴリより細かい単位で補足ルールを作成し,入力文の推定結果が補足ルールに当てはまる場合は,補足ルールも用いて顔文字推薦を行う.構築した顔文字推薦システムの推薦の正確さを評価するために,被験者実験を行った.その結果,66.6\%の顔文字が文章に対して適切に推薦されており,感情カテゴリのみの推定に基づく推薦に比べて,有意に向上していることを明らかにした.今後は,活用形も考慮した手がかり語辞書の拡張や,極性を考慮した顔文字データベースの構築による顔文字推薦の精度向上に取り組む予定である.また,感情,コミュニケーション・動作タイプなどのカテゴリがどのような理由により発生するか(例:嬉し涙,嫌なニュースに驚いた)を手がかりとすることで,さらに文章に適した顔文字推薦ができる可能性があると考えている.このような,テキスト含意関係などを考慮した取り組みについても検討を進めていきたい.\acknowledgment{\itCAO}システムによる顔文字の解析結果を提供してくださった,北海学園大学工学研究所のMichalPTASZYNSKIさんに感謝いたします.また,アンケートや被験者実験にご協力いただいた皆様に感謝いたします.本研究の一部は,科学研究費補助金基盤研究C(課題番号24500291)ならびに筑波大学図書館情報メディア系プロジェクト研究の助成を受けて遂行された.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{{Brody}\BBA\{Diakopoulos}}{{Brody}\BBA\{Diakopoulos}}{2011}]{brody2011}{Brody},S.\BBACOMMA\\BBA\{Diakopoulos},N.\BBOP2011\BBCP.\newblock\BBOQCooooooooooooooollllllllllllll!!!!!!!!!!!!!!UsingWordLengtheningtoDetectSentimentinMicroblogs.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\562--570},Edinburgh,Scotland,UK.\bibitem[\protect\BCAY{{Derks},{Bos},\BBA\von{Grumbkow}}{{Derks}et~al.}{2007}]{derks2007}{Derks},D.,{Bos},A.E.~R.,\BBA\von{Grumbkow},J.\BBOP2007\BBCP.\newblock\BBOQEmoticonsandSocialInteractionontheInternet:TheImportanceofSocialContext.\BBCQ\\newblock{\BemComputerinHumanBehavior},{\Bbf23},\mbox{\BPGS\842--849}.\bibitem[\protect\BCAY{橋本}{橋本}{2011}]{hashi}橋本泰一\BBOP2011\BBCP.\newblockTwitterへの絵文字自動挿入システム.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1151--1154}.\bibitem[\protect\BCAY{株式会社きざしカンパニー}{株式会社きざしカンパニー}{2011}]{kizashi}株式会社きざしカンパニー\BBOP2011\BBCP.\newblockkizashi.jp:きざしラボ.\\\http://kizasi.jp/labo/lets/wish.html.\bibitem[\protect\BCAY{加藤\JBA加藤\JBA島峯\JBA柳沢}{加藤\Jetal}{2008}]{kato}加藤尚吾\JBA加藤由樹\JBA島峯ゆり\JBA柳沢昌義\BBOP2008\BBCP.\newblock携帯メールコミュニケーションにおける顔文字の機能に関する分析—相手との親しさの程度による影響の検討—.\\newblock\Jem{日本教育情報学会学会誌},{\Bbf24}(2),\mbox{\BPGS\47--55}.\bibitem[\protect\BCAY{川上}{川上}{2008}]{kawa}川上正浩\BBOP2008\BBCP.\newblock顔文字が表す感情と強調に関するデータベース.\\newblock\Jem{大阪樟蔭女子大学人間科学研究紀要},{\Bbf7},\mbox{\BPGS\67--82}.\bibitem[\protect\BCAY{河野}{河野}{2003}]{kono}河野道子\BBOP2003\BBCP.\newblockフェイスマークを用いた感情表現におけるコミュニケーション・ギャップに関する研究.\http://www.sonoda-u.ac.jp/dic/kenkyu/2003/14.pdf.\bibitem[\protect\BCAY{菊井}{菊井}{2012}]{kikui2012}菊井玄一郎\BBOP2012\BBCP.\newblockなにをつぶやいているのか?:マイクロブログの機能的分類の試み.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\759--762}.\bibitem[\protect\BCAY{{Landis}\BBA\{Koch}}{{Landis}\BBA\{Koch}}{1977}]{landis1977}{Landis},J.~R.\BBACOMMA\\BBA\{Koch},G.~G.\BBOP1977\BBCP.\newblock\BBOQ{TheMeasurementofObserverAgreementforCategoricalData}.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{村上\JBA山田\JBA萩原}{村上\Jetal}{2011}]{mura}村上浩司\JBA山田薫\JBA萩原正人\BBOP2011\BBCP.\newblock顔文字情報と文の評価表現の関連性についての一考察.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1155--1158}.\bibitem[\protect\BCAY{中村}{中村}{1993}]{naka}中村明\BBOP1993\BBCP.\newblock\Jem{感情表現辞典}(第1\JEd).\newblock東京堂出版.\bibitem[\protect\BCAY{中村\JBA池田\JBA乾\JBA小谷}{中村\Jetal}{2003}]{nakamura2003b}中村純平\JBA池田剛\JBA乾伸雄\JBA小谷善行\BBOP2003\BBCP.\newblock対話システムにおける顔文字の学習.\\newblock\Jem{情報処理学会,第154回自然言語処理研究会},\mbox{\BPGS\169--176}.\bibitem[\protect\BCAY{{Ortony},{Clore},\BBA\{Collins}}{{Ortony}et~al.}{1990}]{ortony1990}{Ortony},A.,{Clore},G.,\BBA\{Collins},A.\BBOP1990\BBCP.\newblock{\BemTheCognitiveStructureofEmotions}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{{Ptaszynski}}{{Ptaszynski}}{2012}]{ptas2012}{Ptaszynski},M.\BBOP2012\BBCP.\newblock顔文字処理—取るに足らない表現をコンピュータに理解させるに足るには—.\\newblock\Jem{情報処理},{\Bbf53}(3),\mbox{\BPGS\204--210}.\bibitem[\protect\BCAY{{Ptaszynski},{Maciejewski},{Dybala},{Rzepka},\BBA\{Araki}}{{Ptaszynski}et~al.}{2010}]{ptas2010b}{Ptaszynski},M.,{Maciejewski},J.,{Dybala},P.,{Rzepka},R.,\BBA\{Araki},K.\BBOP2010\BBCP.\newblock\BBOQ{CAO:AFullyAutomaticEmotionAnalysisSystemBasedonTheoryofKinesics}.\BBCQ\\newblock{\BemIEEETransactionsOnAffectiveComputing},{\Bbf1}(1),\mbox{\BPGS\46--59}.\bibitem[\protect\BCAY{{Purver}\BBA\{Battersby}}{{Purver}\BBA\{Battersby}}{2012}]{purver2012}{Purver},M.\BBACOMMA\\BBA\{Battersby},S.\BBOP2012\BBCP.\newblock\BBOQ{ExperimentingwithDistantSupervisionforEmotionClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe13thEurpoeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\482--491},Avignon,France.\bibitem[\protect\BCAY{篠山\JBA松尾}{篠山\JBA松尾}{2010}]{shino}篠山学\JBA松尾朋子\BBOP2010\BBCP.\newblock顔文字を考慮した対話テキストの感情推定に関する研究.\\newblock\Jem{香川高等専門学校研究紀要},{\Bbf1},\mbox{\BPGS\51--53}.\bibitem[\protect\BCAY{{Suzuki}\BBA\{Tsuda}}{{Suzuki}\BBA\{Tsuda}}{2006}]{Suzuki2006}{Suzuki},N.\BBACOMMA\\BBA\{Tsuda},K.\BBOP2006\BBCP.\newblock\BBOQ{ExpressEmoticonsChoiceMethodforSmoothCommunicationofe-Business}.\BBCQ\\newblockIn{\Bem{Knowledge-BasedIntelligentInformationandEngineeringSystems}},\lowercase{\BVOL}\4252of{\BemLectureNotesinComputerScience},\mbox{\BPGS\296--302}.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2006}]{taka}高村大也\JBA乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockスピンモデルによる単語の感情極性抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(2),\mbox{\BPGS\627--637}.\bibitem[\protect\BCAY{徳久\JBA乾\JBA松本}{徳久\Jetal}{2009}]{toku}徳久良子\JBA乾健太郎\JBA松本裕治\BBOP2009\BBCP.\newblockWebから獲得した感情生起要因コーパスに基づく感情推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(4),\mbox{\BPGS\1365--1374}.\bibitem[\protect\BCAY{{山口}\JBA{城}}{{山口}\JBA{城}}{2000}]{yamaguchi2000}{山口}英彦\JBA{城}仁士\BBOP2000\BBCP.\newblock電子コミュニティにおけるエモティコンの役割.\\newblock\Jem{神戸大学発達科学部研究紀要},{\Bbf8}(1),\mbox{\BPGS\131--145}.\end{thebibliography}\begin{biography}\bioauthor{江村優花}{2012年筑波大学情報学群知識情報・図書館学類卒業.現在,フコク情報システム株式会社所属.}\bioauthor{関洋平}{1996年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.2005年総合研究大学院大学情報学専攻博士後期課程修了.博士(情報学).同年豊橋技術科学大学工学部情報工学系助手.2008年コロンビア大学コンピュータサイエンス学科客員研究員.2010年筑波大学図書館情報メディア系助教,現在に至る.自然言語処理,意見分析,情報アクセスの研究に従事.ACM,ACL,情報処理学会,電子情報通信学会,言語処理学会,日本データベース学会各会員.}\end{biography}\biodate\end{document}
V31N04-08
\section{はじめに} デジタルプラットフォーム上での誹謗中傷は,現代社会における重大な懸念事項となっており,この問題に対処するため,誹謗中傷を自動で検出するモデルやデータセットの開発が幅広く取り組まれ始めている\cite{fortuna-2018,poletto2021resources}.既存のデータセットは,階層的な分類を採用するOLID\cite{zampieri-etal-2019-predicting}のようなアプローチ,ヘイトスピーチ\cite{Davidson_Warmsley_Macy_Weber_2017,gibert2018hate}など,サブタスクごとに問題を具体化し,判断基準を明確にするアプローチが一般的である.一方で,主観性を重視したデータ構築もあり,アノテータに常識的な判断を委ねる研究\cite{fortuna-etal-2019-hierarchically}やコメントの有害性を評価するTOXICITYスコア\cite{muralikumar2023toxity}のように一定の主観的評価が認められている.このような2つのアプローチによって,多様で客観的な定義が難しく\cite{vidgen-etal-2019-challenges},主観的な性質のある\cite{kumar2021,waseem2021disembodied,weerasooriya-etal-2023-vicarious}誹謗中傷に対して,アノテーションが行われてきた.しかし,既存研究に共通した問題がある.それは多くの研究が,大規模なデータセットを実現するために,クラウドソーシングによる非専門家のアノテーションに頼っている点である.このため,タスクの単純化,サブタスクへの分割,主観的判断への負託により,現実の誹謗中傷問題とのギャップを生み\cite{arora},検出における不公平さをもたらす恐れがある\cite{sap-etal-2022-annotators}.例えば,ある発言が誹謗中傷かどうかの判断は,人種や国籍,性別,政治思想によって変化\cite{sap-etal-2019-risk,weerasooriya-etal-2023-vicarious}するため,集合知によるアプローチを困難にしている.問題を全体的な観点から捉えつつ社会文化的な背景を理解した判断を行うために,専門家の知見を活用する重要性\cite{Vidgen2020-plosone}が指摘されている.また,海外の良質なデータセットを翻訳することも考えられるが,文化に依存する誹謗中傷は,言語固有のデータセットが重要\cite{hindi,noboundry}となる.実際上の誹謗中傷対策は,%%%%大手プラットフォームによる自主的なコンテンツモデレーションに依存している\cite{ihou2,kaushal2024automatedtransparencylegalempirical}ものの,大手プラットフォームによる自主的なコンテンツモデレーションに依存している(総務省(b);Kaushaletal.2024)\nocite{ihou2,kaushal2024automatedtransparencylegalempirical}ものの,そのような努力にも関わらず,誹謗中傷による申し立て件数は増加傾向\footnote{手続き簡略化から1年,ネット中傷の発信者開示請求が急増…対応できない事業者には制裁金も\\読売新聞\url{https://www.yomiuri.co.jp/national/20231016-OYT1T50063/}}であり,日本のオンライン空間において,自主的な対応が望めないプラットフォームの誹謗中傷に対処するためには,言論の自由を保護も考慮した,%%%%違法性に基づく法的枠組みに従う必要である\cite{ihou}.違法性に基づく法的枠組みに従う必要である(総務省(a))\nocite{ihou}.このような背景を踏まえ,違法性を根拠にした誹謗中傷検出に向けて,本研究では,日本の裁判例をもとに,法学専門家によるデータセット構築\footnote{データセットは\url{https://github.com/horshohei/japanese-offensive-language-from-court-case}で公開}を行うアプローチをとる.図\ref{overview}に例を示す.裁判例(図\ref{overview}左)は,基本的には権利の侵害の判断を述べるものであるが,誹謗中傷発言自体も引用し,その問題点について議論している.これを材料に,図\ref{overview}右のような構造化した形へ変換する.この際,オンライン上の不適切発言に対して,民法上の不法行為に対応する名誉権や名誉感情などの法的権利を裁判所の判断を利用しながらラベル付けを行う.このアプローチの利点は,裁定という法的結果と結びつけることで,主観性やバイアス,判断の不一致といった問題を解決できる点である.これには,裁判例を読解する専門知識が必要であるため,本研究では法学の専門家が作業を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia7f1.eps}\end{center}\caption{本研究の概要:民事事件の裁判例から誹謗中傷検出に向けたデータセットを作成する.}\label{overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿では,このデータセット構築の方法論を述べるとともに,使用法の理解のために,データセットを用いた予備的な実験と考察を付す.本研究の結果,他言語と比較してリソースが不足しているデジタルプラットフォーム上の誹謗中傷の学術的理解に貢献し,配慮されたコンテンツモデレーションの実践に繋がることを祈念している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誹謗中傷のデータセット}一般的に,ヘイトスピーチやネットいじめ,有害表現などのあらゆる受け入れがたい言葉を包括する概念として,\textbf{攻撃的言語}や\textbf{虐待的言語}という用語が用いられることが多い.本稿では,この攻撃的言語や虐待的言語も誹謗中傷と呼ぶ.まず,既存のデータセットにおける誹謗中傷へのアプローチについて整理する.ソーシャルネットワークの社会への浸透によって生じたネットいじめやヘイトスピーチの問題により,インターネット上の誹謗中傷の研究が活発化した\cite{razavi,Kwok2013-xy}.先駆的な研究の一つとして,\citeA{waseem-hovy-2016-hateful}は,ヘイトスピーチを細かく分類し,自動検出のためのベンチマークを提供している.ヘイトスピーチ,ネットいじめ,罵詈雑言などを広く包含する誹謗中傷の問題に対し,様々な研究が取り組まれているが,各タスクで定義が混在したり,重複が報告されたことや,アノテータ間の合意が不十分な事例が見られたため,定義の見直しや構造の分析が求められるようになった\cite{waseem-etal-2017-understanding,schmidt-wiegand-2017-survey}.代表的な研究\cite{Davidson_Warmsley_Macy_Weber_2017}は,法律や利用規約で規制されているヘイトスピーチを再定義し,ヘイトスピーチと攻撃的な言葉を区別したデータセットを公開している.また,白人至上主義のオンライン上のコミュニティであるシュトルムフォントにおけるヘイトスピーチの研究\cite{de-gibert-etal-2018-hate}は,全てのアノテータ間でヘイトについて合致したガイドラインを作成し,データセットを構築している.攻撃的言語は,単なる罵倒とは異なり,個人や集団に向けられているという分析結果が報告されている\cite{waseem-etal-2017-understanding}.これを受けて,攻撃的かどうか,攻撃的言語が誰に向けられたものか,階層的に分類したデータセットOLID(OffensiveLanguageIdentificationDataset)\cite{zampieri-etal-2019-predicting}が構築された.OLIDのアノテーションスキームは,多言語データセットに拡張され\cite{zampieri-etal-2020-semeval,jeong-etal-2022-kold,ajvazi-hardmeier-2022-dataset},OffensEvalなどの攻撃的言語自動検出のためのシェアードタスク\cite{zampieri-etal-2019-semeval,zampieri-etal-2020-semeval,Zampieri_Rosenthal_Nakov_Dmonte_Ranasinghe_2023}のベンチマークとして利用されている.コメントの有害性に着目した研究\cite{jigsaw-toxic-comment-classification-challenge}は,CivilComments\footnote{2017年に閉鎖}というプラットフォームに投稿されたコメントに対して,有害性を始め,脅迫,性的揶揄などの7つのカテゴリをラベル付けしたデータセットを提供している.このデータセットは,検出手法のバイアスや透明性を検証する研究\cite{jigsaw-unintended-bias-in-toxicity-classification,DBLP:journals/corr/abs-1903-04561}から,現在では,様々なアイデンティティをもつ評価者によってオンラインコメントに注釈をつけるプラットフォームに拡張され,日本語を含む多彩な言語に対する有害性判定がPerspectiveAPI\footnote{\url{https://perspectiveapi.com/}}として提供されている.さらに,このCivilCommentsデータセットにテキストスパン単位のアノテーションを追加したデータセットは,有害や攻撃的な表現部分を検出するSemEvalのシェアードタスク\cite{pavlopoulos-etal-2021-semeval}のベンチマークとして利用されている.これらの研究を踏まえて,攻撃性の理解だけでなく,その文化的な背景を理解するために,ジェンダーバイアス\cite{basile-etal-2019-semeval,fersini-etal-2022-semeval}や宗教的不寛容,階級や人種のバイアス\cite{sap-etal-2020-social}など,多様なサブカテゴリに拡張され\cite{kumar-etal-2022-comma},様々なグループの観点,多彩なアノテーション,モデルや検出手法の改善からの誹謗中傷問題への取り組みが重要視されている.一方,日本語における有害表現の研究\cite{kobayashischma}では,有害性についてのカテゴリを拡張したアノテーションスキームを提案し,データセットの一部を公開している.最新のLLM-jpToxicityDatasetは,日本語テキストの有害表現検出を目的とし,1,847件のラベル付きデータを提供する有用なリソースであり,様々な有害表現の検出モデルの開発と評価に役立てるために作成されている\cite{llmjp2024llmjpcrossorganizationalprojectresearch}.データセットとして利用可能なものはこの限りであるが,日本語の誹謗中傷の性質の理解や検出に向けて,ヘイトスピーチの検出\cite{araihate2021}や,学校の非公式サイトにおけるいじめの検出\cite{matsuba2011,arata2013}に関する研究が取り組まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{法的判断予測タスクとの関連}裁判例などを用いた自然言語処理タスクに,法的判断予測\cite{cui2022survey}がある.このタスクは,判決文など法曹による記述を入力として,法的な裁定を予測することで,裁判や調停に持ち込まれた紛争解決の支援を目的としている.例えば,欧州の人権裁判所の事案を用いた研究\cite{aletras2016predicting,chalkidis-etal-2019-neural}では,判決文中の事実を入力として,人権侵犯の裁定を予測している.日本の不法行為を扱った研究\cite{yamada2023japanese}では,裁判の判決書中の原告被告の双方の主張のスパンと,それに対する裁判所の判断のスパンにアノテーションを行い,裁判の判断予測だけでなく,その根拠文の抽出のためのデータセットを構築している.この研究では,事実に加えて,原告被告双方の主張を入力として,根拠文の抽出や不法行為の予測を行っている.一方で,我々は,オンライン上の投稿を入力として,紛争に至る前の段階の法的観点からのリスクを予測することで,コンテンツモデレーションを支援することを目的としている.これが他の研究と異なる点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{本データセットのアプローチ:法的観点からの誹謗中傷} 本データセットでは,民事事件における裁判例を対象に,他人の権利や利益を侵害し,損害に対する責任を生じさせる行為としての誹謗中傷(以降,\textbf{不法行為としての誹謗中傷}と呼ぶ)を法的観点から分類する.不法行為としての誹謗中傷の判断は,以下の2点に基づく.\begin{itemize}\item\textbf{同定可能性}:誰に向けられたものか\item\textbf{権利侵害の明白性}:表現に問題があり,他者の権利を侵害しているか\end{itemize}これらの点について,既存研究で扱われている攻撃的言語と比較しながら整理することで,不法行為としての誹謗中傷の性質について,明確な理解を目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{同定可能性:誰に向けられたものか}不法行為としての誹謗中傷の裁判においては,誹謗中傷が原告である個人や法人に向けられたものであること(同定可能性)を示す必要がある.OLID\cite{zampieri-etal-2019-predicting}をベースとした攻撃的言語のデータセットでは,誰に向けられた言葉であるかを重視した階層的な分類を行っている.ヘイトスピーチ研究\cite{schmidt-wiegand-2017-survey}では人種,宗教,民族的出身,性的指向,障害,性別などの特性に基づいて個人やグループを中傷するコミュニケーションと位置づけられている.この点,不法行為としての誹謗中傷は,誹謗中傷の対象についてのスコープは狭くなっている.そのため,特定の個人を攻撃しない罵詈雑言や,匿名の個人や宗教や性的マイノリティなどの集団に対する中傷表現といったヘイトスピーチは直ちに不法行為とは認められない.民族,人種や国籍を基にしたヘイトスピーチを禁止する法律\footnote{ヘイトスピーチ解消法\url{https://www.moj.go.jp/JINKEN/jinken04_00108.html}}も存在するが,対象とするのはデモ行進を規制することであり,オンライン上の投稿を規制するものではない.特定の個人に対するヘイトスピーチであれば,名誉権の侵害(名誉毀損)や名誉感情の侵害(侮辱)による不法行為で判断\footnote{大阪地方裁判所平成26年(ワ)7681号\url{https://www.courts.go.jp/app/files/hanrei_jp/441/086441_hanrei.pdf}}されている.また,個人名や法人名が明示されている必要はなく,アカウント名やハンドルネームが個人や法人と結びついていたり,婉曲表現でも特定の個人や法人を指していることが分かれば,同定可能性が認められる場合がある.さらに,OLIDなど誹謗中傷のターゲットの有無の分類は,一つの発言中でのタスクとなっている.誹謗中傷表現を含む発言の中で特定の個人や法人を指していない場合でも,掲示板やソーシャルメディア上の一連の発言を通して対象を特定できる状況であれば,その対象への誹謗中傷が認められる事例が存在する.反対に,誰のことかぼかして誹謗中傷的な内容の会話をしているところに,「この会社」のような形で企業名を具体的に分かる形にしたことで,名誉権の侵害が認められた事例\footnote{福岡地方裁判所平成31年(ワ)1170号\url{https://www.courts.go.jp/app/files/hanrei_jp/181/091181_hanrei.pdf}}も存在する.そのため,一つの投稿に限らず,文脈を含めて誰に向かっての誹謗中傷かを判定することは重要である.本データセットでは,投稿中の原告,被告,第三者を指し示すスパンに対して,会話の方向性を保存しつつ,個人情報の保護の観点するために,それぞれ別のタグに一律に置換している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{権利侵害の明白性:表現に問題があり,他者の権利を侵害しているか}\label{sec:3.2}裁判においては,人の法律上の権利を侵害するものであるか,それぞれの権利の基準によって,不法行為としての誹謗中傷であるかが判断される.OLID\cite{zampieri-etal-2019-predicting}では,攻撃的言語を「あらゆる形態の容認できない言葉(冒涜的な言葉),または標的を絞った攻撃的な言葉を含む投稿.これには,侮辱,脅迫,冒涜的な言葉や汚い言葉を含む投稿を含む」と定義している.PerspectiveAPIの有害性は「人々がディスカッションから離れる可能性の高い,粗暴,無礼,または理不尽なコメントを「有害」」と定義している.特定の個人や法人に向けたことを前提としても,有害な発言,あるいは攻撃的な言語を投げかけたとしても,直ちに不法行為としての誹謗中傷となるわけではない.その発言が,人や企業が持つ権利を脅かすか,権利ごとの基準に対して裁判官が具体的な事例を当てはめて判断する.本データセットでは,言葉による誹謗中傷によって侵害されうる法律上の権利\cite{yushiki}のうち,六つの権利(\textbf{名誉権}・\textbf{名誉感情}・\textbf{プライバシー}・\textbf{私生活の平穏}・\textbf{その他の人格権や人格的利益}・\textbf{営業権})の侵害を対象とする.なお,誹謗中傷によって,氏名権や肖像権など他の権利侵害が争われる場合があるものの,個人の名前や容姿が論点となるため,本データセットでは取り扱わない.\begin{description}\item[名誉権の侵害]名誉権の侵害(名誉毀損)は,問題とされる表現が,人の品性,徳行,名声,信用等の社会から受ける客観的評価を低下させる,事実を摘示するもの,又は意見ないし論評を表明するもの\footnote{最高裁判所第三小法廷平成6年(オ)第978号LEX/DB文献番号28021760}とされる.事実の摘示とは,特定の行為又は具体的事実を,叙述することである.それが公共性や公共目的,真実性といった違法性阻却事由がなく,人の社会的評価の低下をもたらす場合,或いは,ある真実を基礎とした意見ないし論評の表明であるが,人身攻撃に及ぶなど意見ないし論評としての域を逸脱したものの場合,名誉権侵害は成立するとされる.裁判では「一般の閲覧者の普通の注意と読み方を基準とした社会的評価を低下させる」\footnote{東京地方裁判所令和2年(ワ)第26691号LEX/DB文献番号25604204}かどうかを判断している.違法性阻却事由についての判断は,他の証拠などをもって証明されるものであり,本データセットでは扱うことができない.裁判例中では,経営の放棄,暴力団とのつながり,犯罪行為,性風俗に関わることなどの具体的な叙述が社会的な評価を下げるとされるが,裁判ごとにその問題点について判断されている.また,必ずしも攻撃的な内容でなくても「賞与については,ここ2年ほど支給されていない.」「実績に報いた加算があるといわれれば疑問が残る」といった発言が,原告企業の就労環境に問題あることの事実の摘示と認められた例\footnote{東京地方裁判所令和3年(ワ)第26560号LEX/DB25605277}も存在する.よって,攻撃的とも言える汚い言葉や批判と,人の社会的評価を下げる表現,あるいは通常の意見や論評の域を逸脱したものとの間には,誹謗中傷の事例から違法性という線引きが可能かを検証することが目的となる.名誉権侵害と近い観点として,コンテンツモデレーションの対象となったコメントを再調査しサブカテゴリに分類する研究\cite{pavlopoulos-etal-2017-deeper}は,虚偽内容の非難を取り上げている.一方,名誉権の侵害は,人や企業に対する偽情報と密接に関わっており,被害者は偽情報を構成する主要な要素である\cite{ZHANG2020102025}ものの,被害者に着目した偽情報データセットの研究は報告されていない\cite{fakesurvey}.\end{description}\begin{description}\item[名誉感情の侵害]名誉感情とは,人が自己自身の人格的価値について有する主観的な評価である\footnote{最高裁判所平成21年(受)第609号民集第64巻3号758頁\url{https://www.courts.go.jp/app/files/hanrei_jp/104/080104_hanrei.pdf}}.実際には客観的な評価が求められ,その侵害の有無は「社会通念上許される限度を超える侮辱行為であると認められる」\footnote{最高裁判所第三小法廷平成21年(受)第609号LEX/DB文献番号25442100}ことと判断され,文言自体の侮辱性の程度,根拠の示されていない意見ないし感想かどうか,侮辱文言の数,表現の明確性といった要因がその都度考慮されると指摘されている\cite{yushiki}.裁判における判断\footnote{東京高等裁判所令和2年(ネ)第1555号LEX/DB文献番号25567236}では,コスプレした人物に対して「キャラレイプ」と投げかけること,豚と結びつけて単発的な揶揄をすること\footnote{東京地方裁判所令和3年(ワ)第24831号LEX/DB文献番号25603109}は,不快な表現や否定的な批判であるが,名誉感情の侵害ではないことが示されている.既存の研究で侮辱として定義されるような,罵倒的,下劣または不快な言葉を含む表現\cite{van-hee-etal-2015-detection,zampieri-etal-2019-predicting},または攻撃的な言語と,社会通念上限度を超える侮辱行為との線引が問題となる.\end{description}\begin{description}\item[プライバシーの侵害]本研究のプライバシーは「私生活をみだりに公開されないという法的保証」\footnote{東京地方裁判所昭和36年(ワ)第1882号LEX/DB文献番号27421273}として議論されているものを対象としている.どのような情報が,個人の秘匿したいものであるかは,公開による影響,既知の情報か,公開による社会利益を含めて判断されている.本データセットでは,住所や氏名など個人を特定する情報は,参照する裁判例やデータセット作成作業で匿名化されている.%を加えているため,わからないようになっている.一般的に,病気や借金といった公表されたくない情報かどうかの判別に向けられている.なお,プライバシーの侵害と次の私生活の平穏の侵害は,オンライン誹謗中傷問題の資料\cite{yushiki}と裁判例上の論点に基づいており,民法上の学説としてのプライバシー権\cite{joho}とは区別している.\end{description}\begin{description}\item[私生活の平穏の侵害]私生活の平穏の侵害は,生命や身体に危機を感じたり,心の平穏の害するような発言に対して判断される.この項目は,インターネット上の危害の予告が私生活の平穏の侵害であると判断された裁判例\footnote{東京地方裁判所平成30年(ワ)第22524号LEX/DB文献番号25558388}$^{,}$\footnote{東京地方裁判所平成29年(ワ)第17614号LEX/DB文献番号25554849}に対応するために設けている.既存研究では,危害の予告や願望を脅迫として分類したり\cite{vidgen-etal-2021-introducing},攻撃的な言語の一部\cite{zampieri-etal-2019-predicting}として扱っている.\end{description}\begin{description}\item[その他の人格権・人格的利益の侵害]上記のような権利の類型には当てはまらない人格権の保護利益として認める事例,例えば,性的尊厳\footnote{東京地方裁判所令和3年(ワ)第24323号LEX/DB文献番号25603126}や亡くなった人の名誉が傷つけられたことで遺族の精神的苦痛が認められた事例\footnote{東京地方裁判所令和4年(ワ)第2425号LEX/DB文献番号25607632}に加えて,裁判例を参照しても分類が難しい場合に対応するために設けている.\end{description}\begin{description}\item[営業権の侵害]誹謗中傷や虚偽の事実によって損害を受けるのが企業や%個人であっても事業主個人事業主である場合,その事業活動も上記の他の権利とは独立して保護利益として扱われる.また,誹謗中傷となる表現を含まなくとも,営業が続いているのに休業であることが流布される\footnote{東京地方裁判所令和3年(ワ)第8655号LEX/DB文献番号25605481}など,経済活動を遂行する権利・利益を阻害することが争われる事例に対応している.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット} 本研究は,民事事件の発信者情報開示請求事件または損害賠償請求事件のうち,オンライン投稿の内容が記載された投稿記事目録が付録されている裁判例を用いて,データセットを構築する.本節では,%その裁判例に対して,誹謗中傷検出に向けたデータセットを構成するカテゴリ,アノテーション結果や付与したラベルに基づく現在のデータセットの特徴について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カテゴリ}本データセットは,事件に関するカテゴリとオンライン投稿に関するカテゴリからなり,裁判例の内容やラベルが付与されている.事件に関するカテゴリ(A)は,調査した事件の裁判例における索引情報に関する三つのサブカテゴリを持つ.オンライン投稿に関するカテゴリ(B)は,調査した事件の裁判例の投稿記事目録に記載されたオンライン投稿に関する情報や誹謗中傷に関する権利を含む六つのサブカテゴリを持つ.表~\ref{example}はデータセットの一例である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{-0.5\Cvs}\subsubsection*{A:事件}引用する裁判例の基本情報に関する3つのカテゴリからなる.\pagebreak\begin{quote}\noindent\textbf{A-1:事件番号}事件が争われた裁判所と裁判例の事件番号である.上級審の裁判結果が確認できる場合は,上級審の情報を優先する.表\ref{example}の例は,東京地方裁判所で争われた令和3年(ワ)第24157号の裁判例の事件である.本データセット中の事件が争われた主な裁判所とその件数は,東京地方裁判所が176件,大阪地方裁判所が6件,知的財産高等裁判所が2件,前橋地裁が2件と続いている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{07table01.tex}%\hangcaption{データセットの構成.一つの事件に対して,複数の本件投稿記事が含まれる場合があり,ラベル付けは本件投稿記事単位で行う.}\label{example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{A-2:事件名}発信者情報開示請求事件もしくは損害賠償請求事件のいずれかである.発信者情報開示請求事件では,誹謗中傷を受けた原告が,その被害の認定と匿名の誹謗中傷を書き込んだ人物について,インターネットプロバイダに情報開示請求する.一方,損害賠償請求事件では,誹謗中傷を書き込んだ人物が判明している場合に,その被害の認定と受けた損害に対する賠償を求める.このような請求の違いに加えて,原告が複数の権利侵害を主張した場合,前者の発信者情報開示請求事件では,いずれかの権利侵害が認められれば開示請求を認めるには十分であるが,後者の損害賠償請求事件では,賠償額の算定に向けた損害の認定のために,全ての権利侵害とその被害の程度について判断が必要になる点が異なる.\noindent\textbf{A-3:文献}裁判例の出版情報である.本データセットは,主に,裁判所の裁判例検索\footnote{\url{https://www.courts.go.jp/app/hanrei_jp/search1}}とTKCローライブラリー\footnote{\url{https://www.tkc.jp/law/lawlibrary/}}における裁判例を扱っている.オンラインで公開されている一部の裁判例については,URLを掲載する.\end{quote}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{B:オンライン投稿}原告によって権利侵害が主張されている裁判例中のオンライン投稿に関する情報についてのカテゴリ(B-1からB-5)と,オンライン投稿に対する権利と侵害の有無についてのカテゴリ(B-6)からなる.\begin{quote}\noindent\textbf{B-1:本件投稿記事}本件投稿記事は,原告が権利を侵害していると主張しているテキストである.主に,裁判例付録の投稿記事目録に記載されている.事件当事者の個人情報保護のため,裁判例の匿名化された記述に加え,以下のような個人情報のマスキングを行っている.原告,被告,第三者に関する記述は,[P],[D],[Ot]タグで区別し,さらに,個人ならば,-ind,法人や団体ならば-groupを加える.この結果,以下の六つのタグで個人情報がマスキングされる:[P-ind],[D-ind],[Ot-ind],[P-group],[D-group],[Ot-group].この際,上記の区別が難しい場合は,[Ot]タグを用いる.テキスト中にURLがある場合は,[URL]タグに置換する.テキスト内の誹謗中傷の対象を特定することも重要であるが,%同じくらい重要な情報であるが,本データセットでは対応していない.%十分に対応できていない.この点に関する今後の作業を支援するために,被害者にや加害者の区別を可能にするタグを導入している.しかし,被害者名をもじった誹謗中傷表現は,この方法では対応できない.加えて,権利侵害の論点がテキストによるものでない場合,空欄にする.\noindent\textbf{B-2:本件投稿記事の文脈(文脈)}本件投稿記事による侵害の有無を判断する際に考慮される,掲示板やソーシャルメディア上の会話履歴や過去の投稿を文脈とする.裁判例の判決文中で,本件投稿記事の前後の投稿として言及されているテキストを抽出する.抽出したテキストには,本件投稿記事と同様に,個人情報のマスキングを行う.\noindent\textbf{B-3:本件投稿記事番号}事件によっては,複数のオンライン投稿について権利侵害を訴えている場合があるため,裁判例中で本件投稿記事を区別するための番号が割り振られている.本件投稿記事番号には,裁判例中の表記をそのまま用いる.\noindent\textbf{B-4:プラットフォーム}本件投稿記事が投稿されたオンラインプラットフォームが裁判例に明示されていれば,それを記載する.本データセット中の事件が発生した主なプラットフォームとその件数は,Twitterが54件,5ちゃんねるが38件,爆サイが28件,ホストラブが7件,Instagramが6件,GoogleMapsが5件と続いている.プラットフォームによって文言の形式や文脈が異なるため,各サービスの独自性を考慮することも重要な要素である.\noindent\textbf{B-5:事例タイプ}裁判例または個別の本件投稿記事によっては,誹謗中傷による権利侵害について裁判所が判断を下していない場合がある.本論文で,不法行為の誹謗中傷として取り上げているのは,この内の\textbf{誹謗中傷事例}ラベルが付いたものである.\textbf{誹謗中傷事例}ラベルのついていないB:オンライン投稿については,B-3:本件投稿記事番号を除いて情報抽出をスキップしている.そのため,以下の六つのラベルを用いて事例を整理する.\begin{itemize}\item\textbf{誹謗中傷事例}:テキストによる誹謗中傷について,いずれかの権利について裁判所の判断が行われた事例.\item\textbf{訴訟却下}:原告の訴えの要件不備や,被告の適格性に問題がある場合に,内容を審理する前に訴訟が退けられた事例.\item\textbf{同定可能性の否定}:本件投稿記事やその文脈から,誹謗中傷の対象が原告であると特定ができないと裁判所が判断した事例.\item\textbf{本件投稿記事の重複}:同一内容の本件投稿記事が投稿記事目録内に記載されており,残りの項目をスキップした事例.\item\textbf{テキストでない}:画像や映像が権利侵害の原因となっており,テキストによるものではない事例(本データセットの対象外).\item\textbf{その他}:上記以外の理由で,裁判例の判決書中に裁判所の判断が記載されていない事例.\end{itemize}\noindent\textbf{B-6:権利の類型とその侵害の判断}\ref{sec:3.2}節に示したB-6-1:名誉権・B-6-2:名誉感情・B-6-3:プライバシー・B-6-4:私生活の平穏・B-6-5:その他の人格権や人格的利益(以下,人格権)・B-6-6:営業権の六つの権利の類型について,以下の判断ラベルを用いて裁判の内容を整理する.\begin{itemize}\item\textbf{裁判所の認容}:裁判所が原告の主張を認容し,当該権利の侵害が認められた.\item\textbf{裁判所の否認}:裁判所が原告の主張を否認し,当該権利の侵害が認められなかった.\item\textbf{原告の主張}:当該権利の侵害を原告が主張したものの,裁判所の判断が判決文中に記載されなかった.発信者情報開示請求事件では一つの権利侵害の認定に請求認容には十分なためこのラベルが発生する.\item\textbf{違法性阻却事由の存在(名誉権のみ)}:名誉権の事例において,社会的評価を下げる事実を表現した場合であっても,違法性がないと判断された.\end{itemize}それぞれの権利の類型に対して,本件投稿記事に対する原告の主張や裁判所の判断に応じたラベルを付与する.表~\ref{tab:example}は,各権利の類型ごとの裁判所の認容ラベルの付いた本件投稿記事の一例である.この本件投稿記事の一例に対する具体的な裁判所の判断内容は以下のようになっている.名誉権の侵害事例では,「集団いじめを主導する人物」という事実の摘示が社会的評価を低下させるものである.名誉感情の侵害事例では,「大丈夫?(頭)」との記載は,頭脳が健常でないことの揶揄で,差別表現に当たり,侮辱にあたる.プライバシーの侵害事例では,家族の自殺の情報が公表を望まない私生活上の事実である.私生活の平穏の侵害事例では,暴力を振るうことをほのめかす行為が脅迫と評価できる.その他の人格権の侵害事例では,露骨で品位に欠ける表現が性的尊厳を傷つけ,人格的利益を侵害する.営業権の侵害事例は,投稿内容が原告が事業を継続している事実に反し,平穏に経済活動を遂行する権利・利益を侵害するものである.なお,裁判例中に言及のない権利の類型にはラベルを付与しない.\end{quote}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{07table02.tex}%\caption{権利の侵害が認められた本件投稿記事の例}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{07table03.tex}%\caption{本データセットにおける事件数,本件投稿記事数と抽出した誹謗中傷事例数}\label{tab:my_label}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{07table04.tex}%\caption{本件投稿記事に対する権利の類型ラベルの分布}\label{rights}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{07table05.tex}%\hangcaption{権利の類型,本件投稿記事(本件投稿),およびその文脈(文脈)間のペアワイズ平均一致率を算出した.編集距離は文の文字数で正規化している.}\label{IAA}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{構築作業}本データセットを構築するために,法学学士号を持つ著者の一人が,192事件(発信者情報開示請求事件は151件,損害賠償請求事件は41件),625件の本件投稿記事に対して構造化の作業を行った.表~\ref{tab:my_label}はデータセットで引用した事件やその事件中の本件投稿記事,誹謗中傷事例の件数を示し,表~\ref{rights}に,データセット中のラベル分布を示す.裁判例の構造化の再現性を確かめるため,法律上の権利や民法上の不法行為について知見を持ち,普段より誹謗中傷を含め社会問題に取り組む専門家である法科大学院学生2名に作業を依頼した.作業時間は,説明と練習作業に10時間,本作業に25時間の合計35時間とし,謝礼は時給2,000円とした.本作業の結果,38事件に関する191件の本件投稿記事への3者によるラベル付きのデータが得られた.表~\ref{IAA}は,この191件のデータに対する,本件投稿記事や文脈,権利の類型とその侵害の判断ラベルの一致率を示す.本件投稿記事は,匿名化タグの選択や書き起こし作業の違いによって差異が生じている.文脈については,前後の投稿がない場合も一致率に含まれているが,文脈が存在する場合でも文の選択の差異により編集距離がやや大きくなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本データセットの限界}本データセット構築の目的は,誹謗中傷の裁判例に関するデータを提供し,研究者がこれを用いて分析を行えるようにすることである.特に,誹謗中傷の特性やケーススタディを理解する上で重要な基礎データを提供することを重視している.この目的に照らして,現時点での一致率はデータセットの有用性を担保するものの,いくつかの限界が見られる.本件投稿記事と権利の類型とその侵害の判断ラベルは,確定した裁判についての判断をテーブルデータ化する作業であり,本来一意に決まるものであるが,作業エラーや解釈の余地が生じたことにより,3者間で本件投稿記事の書き起こしでおよそ14\%の相違,権利の類型とその侵害の判断ラベルについてはおよそ46件の相違が生じていることは,本データセットの限界となる.構築作業は,構造化されていない文書PDFないしスキャン画像PDFである裁判例の判決書に,本件投稿記事や文脈の書き起こし,それぞれの事例に対して原告の主張と裁判所の判断を確認していく作業である.判決書の記載内容は,付録\ref{annotation_error}にて議論しているように,一部論点の省略が見られること,裁判例ごとに争点や判断の記述様式が異なること,用語などの表記揺れ,人格権の類型の解釈,上級審の裁判例における記載内容の特殊性により,作業者への負担が大きいことが,アノテーションを完全に一致させることが難しくしていた.文脈については,裁判例中に言及されている本件投稿記事の前の記述を書き起こす作業であるため,その選択段階で不一致が見られた.今回,法学知識を持つ3人の作業者で,同一のガイドラインで個々に裁判例の内容を表データ化するというアプローチによって構築作業の再現性の検証を行ったが,少なくない相違が明らかになり,データセットの規模や費用の面でも課題が残った.法学の専門家に依頼したことで,費用や時間がかかり,言語処理に向けたデータセット構築作業は初回であったことから不正確な面があったと考えられることや,本データセットの構築にはどの程度の専門知識が必要か,非専門家による作業はどの程度の進行速度で一致率が出るかの検証が不十分となった.本データセットの大規模化や信頼性を高めるには,一人の作業者の作業内容に対して別の作業者がエラーチェックを行う形式を取ることや,メタデータや本件投稿記事の書き起こしなど法的な知識が不要な作業については非専門家に依頼し,権利の類型とその侵害の判断ラベルなど法的な知識が必要な作業については専門家に依頼するなど,作業全体での分業体制を引くことも必要であり,このような作業体制の構築を予定している.また,作業エラー自体を減らすためには,裁判例の判決書がオープンデータ化され,XML形式のように段落ごとの記載内容に対するタグ付けが進み,機械処理しやすい形式になることも求められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット分析} 本節では,まず不法行為としての誹謗中傷検出の検証を行う.次に本データセット中の誹謗中傷の言語的な特徴の予備的な調査を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誹謗中傷の自動検出}ネット上の攻撃的な言葉の言語的特徴を定量的に認識し,コンテンツモデレーションを支援する主な手段として,様々な自動検出手法が提案されている\cite{diaz-torres-etal-2020-automatic}.本研究は,他言語の攻撃的な発言検出研究\cite{Althobaiti2022,sharif-etal-2021-nlp,caselli-etal-2021-hatebert,casula-etal-2020-fbk}で一般的に用いられているTransformerベースのモデルを構築し,不法行為としての誹謗中傷をどの程度正確に検出できるかを調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}本実験では,不法行為としての誹謗中傷検出に向けて,以下の2つのタスクを設定する.\begin{itemize}\item\textbf{権利侵害の二値分類タスク}:オンライン上の発言が権利侵害として認められるかどうかを予測する二値分類問題.\item\textbf{権利の類型分類タスク}:オンライン上の発言がどの権利の類型の侵害として訴えが提起される可能性があるかを予測するマルチラベル分類問題.\end{itemize}権利侵害の二値分類タスクは,誹謗中傷に関する法的判断結果の予測精度の調査に加えて,既存の誹謗中傷検出タスクと比較して,その難易度や関連性を評価し,検出モデルの性能を総合的に理解することを目的とする.権利の類型分類タスクは,オンライン上の発言が,不法行為としての誹謗中傷の具体的にどの権利が論点となるか特定することで,法的な議論の根拠を提供ことを目的としている.これらのタスクには,データセット中の「誹謗中傷事例」とラベル付けされた579件の本件投稿記事を利用する.さらに,オンライン上の誹謗中傷検出のためには,裁判に至らないような発言も含めて判定する必要がある.その実用可能性を検証するために,誹謗中傷データセットで出現回数が多かったプラットフォームの投稿をネガティブサンプルとして用いた.具体的には,Twitter,5ちゃんねる,爆サイ(それぞれにおける事件数は54件,38件,28件)から,それぞれ540件,380件,280件の投稿をランダムサンプリングした.権利侵害の二値分類タスクでは,各本件投稿記事に「裁判所の認容」または「違法性阻却事由の存在」のラベルが付与されていればPositive,そうでない場合をNegativeとみなす.「違法性阻却事由の存在」をPositiveとした理由は,モデルが真実性の判定を外部知識や他の証拠なしに行うことはできないものの,表現が社会的な評判を下げるものであるとの判断に沿うためである.このとき,データセット中の本件投稿記事に対するPositiveとNegativeのラベル数は477件と82件である.また,権利侵害の二値分類タスクと既存の誹謗中傷検出タスクとの関連性を評価するために,13,240件の英語OLID\cite{zampieri-etal-2019-predicting}のOffensiveラベル(subtaskA)と,437件の一部データが公開されている日本語有害表現データセット\cite{japanese_data}のToxicの二値ラベルを学習することでドメイン適応を行い,本データセットを用いて評価した.一方,権利の類型分類タスクでは,名誉権・名誉感情・私生活の平穏・その他の人格権や人格的利益・営業権・プライバシーのうち,原告が権利侵害を主張した権利についてマルチラベルを作成する.例えば,ある本件投稿記事に対し,名誉権に「裁判所の否認」,名誉感情に「裁判所の認容」,私生活の平穏に「原告の主張」のラベルが付与されており,それ以外の権利にはラベルが付与されていない場合,[1,1,1,0,0,0]とする.実験データにおいて,権利の類型が1となる事例数は,名誉権が458件,名誉感情が269件,プライバシーが19件,私生活の平穏が10件,その他の人格権が11件,営業権が38件であり,名誉権と名誉感情の主張が付与されている事例がほとんどである.実験では,ネガティブサンプルを追加した1,779件のデータセットを,Train:Test=3:1の比率で分割した.このとき,同一事件中の本件投稿記事がTrainデータとTestデータに分かれないようにして,5回の交差検証を行った.BERT\cite{devlin-etal-2019-bert},RoBERTa\cite{liu2019roberta},DistilBERT\cite{sanh2020distilbert}の日本語事前学習済みモデル\footnote{cl-tohoku/bert-base-japanese-v3,rinna/japanese-roberta-base,line-corporation/line-distilbert-base-japanese}と多言語モデルのE5(intfloat/multilingual-e5-base)\cite{wang2024multilingual}に線形分類層をつなげたモデルを利用し,それぞれのタスクは独立して訓練・評価を行った.さらに,権利の類型の分類タスクは,ラベル分布に偏りがあることで,特徴量ベースで線形分類を行うアプローチは,ラベル数の少ない類型をうまく予測できないことが考えられる.そのため,権利の類型ラベルについてインストラクションを作成し,few-shotで分類を行う.特徴量ベースのアプローチではカバーしきれないと考えられる誹謗中傷に対して,名誉毀損や脅迫や侮辱といったその問題性に対する定義から,その問題に対する表現の結びつけ,例えば「彼は会社の金を横領している」という投稿は,名誉毀損と結びつくことを言語モデルは理解しているか,さらには誹謗中傷の問題を通じて,現在の言語モデルが持つ法律上保護される権利についての理解を調査する.このfew-shot分類には,command-r+(4ビット量子化)\footnote{CohereForAI/c4ai-command-r-plus-4bit},日本語Llama3モデルのSwallow70B(4ビット量子化)\footnote{tokyotech-llm/Llama-3-Swallow-70B-Instruct-v0.1}とElyza8B\footnote{elyza/Llama-3-ELYZA-JP-8B}といった大規模言語モデルと,GPT-4o\footnote{gpt-4o-2024-05-13}のAPIで評価する.実験に用いたインストラクションのプロンプトは付録\ref{prompt}に記載.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}表\ref{result}は,権利侵害の二値分類タスクの結果を表している.cl-tohoku/bert-base-japanese-v3が最も優れたモデルで,F1=0.754であった.どのモデルでも,文脈情報を加えることで分類性能が向上しており,誹謗中傷が行われた周りの投稿状況などを加えることの重要性が示された.過去の誹謗中傷の二値分類タスクと比較すると,OffensEval2020のSubtask-Aにおいて,\citeA{zampieri-etal-2020-semeval}は,英語でF1=0.9204,デンマーク語でF1=0.8119(Offense=384,NOT=2557)の達成を報告している.また,誹謗中傷のアノテーション一致率に着目した研究において,OffensEval2020のデータを用いた実験\cite{leonardelli-etal-2021-agreeing}では,5人のアノテータ間の一致率が4/5のときF1=0.817,3/5のときF1=0.656を示している.また,既存の誹謗中傷のデータセットとの比較として,ドメイン適応を行った結果でも,OLIDではF1=0.420,日本語有害表現ではF1=0.527を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{07table06.tex}%\hangcaption{権利侵害の二値分類:本件投稿記事のみと文脈を追加した場合(本件投稿記事+文脈),既存の誹謗中傷タスクとして英語OLIDと日本語有害表現のデータセットからドメイン適応を比較.SDは本データセット内の5回の交差検証におけるF1値の標準偏差を表している.}\label{result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{07table07.tex}%\hangcaption{権利の類型分類性能:線形分類モデルによる5回の交差検証(上段)と大規模言語モデルを用いたfew\-shot分類(下段).入力は本件投稿記事+文脈.SDは交差検証におけるmicro-F1値の標準偏差.}\label{eachmacro}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{07table08.tex}%\hangcaption{権利の類型のラベル別の分類性能:ラベル別のF1スコアと括弧内はRecallスコア.few-shotの場合は,プロンプト\ref{prompt}に利用した一例を除く,データセット中の全件を用いている.}\label{eachlabel}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,権利の類型分類タスクにおいての結果を表\ref{eachmacro}に示す.このタスクでは,multilingual-E5-baseがベストモデルでmicro-F1スコアは0.621,macro-F1スコアは0.214であった.表\ref{eachlabel}は,権利の類型ラベルごとの分類性能を示し,この結果は,私生活の平穏,人格権,営業権,プライバシーといったサンプル数が少ないラベルにおいては,いずれのモデルも正例を正しく予測することができなかったことを示している.インストラクションを用いたfew-shotのアプローチでは,サンプル数の少ないラベルについても,精度は高くないものの検出が成功する事例を示している.私生活の平穏はSwallow-70B,営業権はGPT-4o,プライバシーはCommand-r+がよく検出できているように,誹謗中傷の問題の詳細な分類ごとにも,モデルが持っている理解の幅が示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}\noindent\textbf{権利侵害の二値分類}\quad本タスクは,データの規模の近い既存の二値分類の誹謗中傷検出タスクと比較しても,難易度が高いと言える.本研究のデータセットには,内容が似ているにも関わらず,判断のラベルが異なる事例が含まれている.例えば,GoogleMap上の口コミに対する名誉権侵害の訴え(表\ref{similar})の事例では,本件投稿記事17件中,権利侵害が認められたのは2件ではある.プラットフォームの性質を踏まえたうえで,評判の良し悪しだけではない,社会的評価について判断を行う事例を含むことがその一因と考えられる.既存のデータセットを用いたドメイン適応の結果は,これらのタスクに一定の類似性は見られるが,本データセットは既存の枠組みでは捉えきれない誹謗中傷問題も扱っている.名誉権の侵害と名誉感情の侵害で争われた事例のF1値を比較すると,OLIDでは名誉権が0.475,名誉感情が0.570,日本語有害表現では名誉権が0.680,名誉感情が0.749と,名誉感情の事例の方が見分けやすい結果を示しており,既存の誹謗中傷のデータセットは侮辱的な内容の誹謗中傷を多く取り扱っている傾向を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\input{07table09.tex}%\hangcaption{権利侵害の二値分類タスクの分類エラー例:GoogleMaps上の口コミによる名誉権侵害が争われた2つの事例より,上の事例は,投稿者の主観的な評価のため,社会的評価を低下させるものではないが,下の事例は,口コミの操作を事実の指摘として社会的評価を低下させるものであると判断された.}\label{similar}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\input{07table10.tex}%\hangcaption{権利の類型ラベルごとの特徴語の抜粋.本件投稿記事をMecab-Neologd-ipadicで形態素解析後,各ラベルの正例のみに含まれる表層文字列から誹謗中傷に関連するものを出現頻度順に選択した.*~付きの文字列は頻度が2以下である.}\label{tab:feature}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{07table11.tex}%\hangcaption{権利の類型のラベル予測の例:一つ目の例は,「つじつまの合わないことや詐欺まがいのこと」の表現によって,名誉権と名誉感情侵害を訴えるものである.裁判所の判断では,意見ないし論評が社会的な評価をさげるが,侮辱行為とは言えないと判断されている.代わりに「全てが架空の出来事,架空の人物で原告の商売が成り立っている」との指摘によって,生業や人生観の全否定であり,侮辱行為と認められている.2つ目の例は原告は「ペテン師」「詐欺師」「まだ生きている?」等の表現は,人格を貶め,存在価値を否定するものとして名誉感情侵害を訴え,裁判所は原告の主張を認めた.ここでいう「詐欺」については,一般には名誉権侵害で争われるが,内容によっては名誉感情侵害で争われる.}\label{tab:label}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{権利の類型の分類}\quad名誉権や名誉感情のラベルについては分類可能なものの,私生活の平穏,その他の人格権や人格的利益,営業権,プライバシーについては分類が困難な結果が明らかになった.ラベル正例の特徴語を調査したところ,表\ref{tab:feature}の通りになった.名誉権は犯罪の指摘,名誉感情は容姿や好ましくない行動の揶揄,私生活の平穏は憎悪の言葉,その他の人格権・人格的利益は外国人排斥か性的な内容,営業権は不法行為や企業の評判に関わる言葉,プライバシーは病気など個人にとってセンシティブな情報に関わる言葉が,特徴語として現れた.しかし,サンプル数が少ないラベルの頻度2を超える特徴語は含まれおらず,現在のデータセットの規模とラベルの不均衡により,特徴量ベースの分類で,これらの権利の類型の予測が困難であることを示している.また,表\ref{tab:label}の例のように,内容が類似していても,名誉権侵害と名誉感情侵害と異なる権利を争う事例もあり,モデルが予測を誤る事例も観察された.大規模言語モデルの検出感度に関して,名誉感情ラベルのrecallは,command-r+=0.807,ELYZA=0.944,Swallow=0.684,GPT-4o=0.810と,侮辱的な内容に対してほとんどのモデルでrecallが高く,ラベル全体のmicro-recallでは,command-r+=0.673,ELYZA=0.871,Swallow=0.550,GPT-4o=0.871とELYZAやGPT-4oは特にrecallが高い傾向を示している.現在の大規模言語モデルの有害表現に対する安全性マージンが広く取られていることにより,誹謗中傷の問題に敏感に反応すると考えられる.インストラクションベースのアプローチによって,頻度の少ない誹謗中傷の類型について予測が可能であるものの,現在の言語モデルは誹謗中傷の問題を広く捉える傾向があり,検出性能には課題が残る.また,その他の人格権や人格的利益については,様々な裁判例内で議論されてきた人格権の類型の集合であり,一様な定義が難しい.このため,いずれのモデルも殆ど認識できておらず,今後,分類タスクとして扱うかどうかも含め,検討が必要である.各類型に対する詳細なインストラクションを与えることや,言語モデルが法学的な知識を持つことによる改善が求められる.\noindent\textbf{2つのタスク上の課題}\quad今回の実験タスクは,その分類性能に課題が残る結果が出た.その要因の一つとして,裁判上の判断はその都度事情が考慮される.例えば,人に対して「ガイジ」と呼称することは障害者に例えて侮蔑するものとして名誉感情侵害が認められる事例\footnote{東京地方裁判所令和3年(ワ)第29965号LEX/DB文献番号25604574,東京地方裁判所令和2年(ワ)第26406LEX/DB文献番号25603930}があるが,オンライン上で原告被告間で誹謗中傷の応酬が続いた後の場合,「[P-ind]アホだよなあwこんだけ個人情報晒したらどーなるか理解してないガイジだからw」とった発言も,社会的な限度を超えてた中傷と認められない事例\footnote{東京地方裁判所令和4年(ワ)第25368号LEX/DB文献番号25597854}もある.他にも,原告が政治活動を行うの場合,その活動に対する否定的な表現は一般よりも広く許容されるべきと判断される場合\footnote{東京地方裁判所令和3年(ワ)第20283号LEX/DB文献番号25604256}もある.今回のタスクは入力に,本件投稿記事として問題となった投稿と一部の前の投稿を文脈として利用するのみであり,前の発言が誰のものであるかなど,複雑な事情は反映できていない.また,オンライン上の多様な発言を取り入れるために,ネガティブサンプルを行った.この中には,裁判に至った事件は投稿がは削除されることで,今回利用した5ちゃんねるや爆サイからの,後のクロールは不可能であり,Twitterからも,権利侵害が認められた場合は投稿が削除されている.実際に,今回の実験で用いたネガティブサンプル中には,正例と重複するものはなかったが,裁判で原告の訴えが棄却された,Twitter上の投稿は一部現存している.しかし,ネガティブサンプル中の投稿には,深刻な誹謗中傷もいくつか観察された.例えば,「国葬反対派は葬式で大騒ぎするガイジの集まりなのか?」や「ヤクザなんか人間の形をしているクズだから,関与しているヤクザ達は[IDinfo]さんをレイプしているんでしょう.加害者のアホ生徒の[IDinfo]達となんら変わりない立ち位置だろ.」のような発言がネガティブサンプルされたことで,分類性能を損ねている可能性がある.そこで,5.1.1で行ったネガティブサンプル(オリジナル)に対して,ネガティブサンプルの分量を変えず乱数のseed値のみを変更したもの(乱数変更合計4回),ネガティブサンプルの分量を変えずウェブプラットフォーム単独にした場合(5chだけ,Twitterだけ,爆サイだけ)の追加検証を,E5モデル・本件投稿記事+文脈の入力で行った.権利侵害の二値分類では,オリジナルF1=0.753,乱数変更4回F1(SD)=0.764(0.040),0.799(0.043),0.783(0.034),0.832(0.016),5chだけ2回F1=0.825(0.017),0.816(0.023),Twitterだけ2回F1=0.785(0.029),0.766(0.061),爆サイだけ2回F1=0.712(0.041),0.810(0.024)の結果となった.この結果から読み取れることは,1)交差検証の分類精度のばらつきが大きいときに分類精度も下がる.2)正例の分割パターンの可能性が要因の,ネガティブサンプル中には,一定の割合で正例と近い分類性能を損なう深刻な誹謗中傷の事例が含めれている可能性がある.3)検証が必要であるが,特にTwitterと爆サイの投稿には,正例と近い事例が交じる場合があり,実際中身を確認すると,上記のようなネガティブサンプル中には名指しでの誹謗中傷と考えられる事例も含まれていた.この問題の対処には,上記の例の後者のような,人名や企業名などのエンティティが含まれるかつ,有害性の高い表現が含まれるなど,不法行為としての誹謗中傷の蓋然性が高いので分けた場合とそうでない場合の実験が必要となると考えられる.今回の実験では,誹謗中傷が誰に向けられたものか区別せず,単に言葉の問題性のみ着目する分類タスクとしたことで,法人格を持たない,集団や匿名への誹謗中傷には十分な区別ができてい可能性がある.これらの課題は,法的な観点では「同定可能性」の有無という,誹謗中傷が誰に向けられているものかというタスクを同時に解くことや,プラットフォームごとの状況を再現をした実験が必要であることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-4ia7f2.eps}\end{center}\hangcaption{名誉権と名誉感情に関する本件投稿記事の有害性スコア(Toxicity)の分布.縦軸は本件投稿記事件数,横軸は有害性スコアを示す.青斜線は権利の侵害が認められた事例,橙色は権利の侵害が認められない事例と訴えがない事例である.(a)名誉権の侵害が認められた事例とそうでない事例の有害性スコアの平均はそれぞれ0.272(青破線),そうでない事例(橙実線)は0.361.(b)名誉感情の侵害事例の有害性の平均は0.461(青破線),そうでない事例(橙実線)は0.265}\label{hist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{不法行為としての誹謗中傷の言語的特徴}誹謗中傷が不法行為であると判断された発言の中で,本データセット中でも事例数が多い名誉権と名誉感情の侵害と判断された事例について,その言語的特徴を分析する.まず,言葉の有害性の観点から不法行為としての誹謗中傷を評価する.そのために,JigsawPespectiveAPI\footnote{\url{https://perspectiveapi.com/}}より提供されている有害性スコア(Toxicity)を利用した.図~\ref{hist}は,名誉権と名誉感情に関する各本件投稿記事のToxicityの分布を示している.%を名誉権・名誉感情侵害事例で色分けしてを示している.本データセット中の各本件投稿記事のToxicityの平均は0.317であり,分類実験で追加されたネガティブサンプルのToxicityの平均(0.201)よりも高かった.このことから,通常のオンライン上の投稿と比べても有害と判断される事例が多く含まれていることが分かる.さらに,二つの既存データセット(日本語有害表現スキーマと英語のOLID)と比較した.日本語有害表現スキーマの有害ラベルが付与された発言67件のToxicityの平均は0.250であり,裁判になるような本件投稿記事ではより有害度の高い表現が多く用いられる傾向が見られた.英語のOLIDのOffensiveラベルが付与された発言からの500件のランダムサンプルのToxicityの平均は0.460と高い値であったが,言語の違いによるスコアのバイアスの可能性を考慮する必要がある.特に,名誉感情の侵害が認められた事例は,有害性スコアの平均が0.461と言葉の有害性も高い傾向を示す.ただ,表現として有害性が高いからといって,必ずしも侮辱として名誉感情の侵害が認められるわけではない.例えば,「店員じゃないなら[P-ind]?お前こそ心療内科行けよどうせここで売れない女だろ?お前こそ嘘つき泥棒」\footnote{東京地方裁判所令和3年(ワ)第29589号LEX/DB文献番号25604756}というオンライン投稿は,有害性スコアが0.878と有害とみなされうる表現である.しかし,裁判例では,表現として適切とはいい難いものの,社会通念に照らして許容できないほど著しく不適切なものとまではいえないと判断されている.有害性スコアが高い発言が法的にどのように評価されるかについて,さらなる詳細な分析が必要であることを示唆している.一方,名誉権侵害が認められた事例については,データセット中での有害性スコアの平均が0.272とやや低い値を示している.例として,「辞めたくても契約違反の条件が厳しくとことん追い込んでむしり取る.(株)[P-group]」\footnote{東京地方裁判所令和3年(ワ)第27463号LEX/DB文献番号25605076}というオンライン投稿は,高圧的な契約内容の存在を掲示板に書き込んだ事例であり,原告会社が,契約関係の脱退を申し出た加盟店に対し,追い込んで財産を奪い取るとの事実を摘示するものであり,社会的評価を下げると判断された.このような,罵詈雑言の少ない事実の摘示においては,有害性スコアが0.00653と低い値となっている.このことから,名誉権侵害が認められるかどうかに言葉の有害性は決定的な因子ではないことが示唆される.次に,名誉権と名誉感情の侵害事例の特徴を分析するために,名詞の出現頻度に基づくワードクラウドを作成した(図\ref{word_cloud}).名詞の判定には,mecab-ipadic-NEologd\cite{sato2015mecabipadicneologd}を用いた.名誉権の侵害事例の場合,「自分」や「会社」といった高頻度表現に続いて,犯罪行為や不道徳行為に関連する単語が様々出現している.このような犯罪行為や不道徳行為を糾弾することで,事実の摘示による権利侵害と判断される傾向を示している.名誉感情侵害の場合,「笑」や「www」といった表現とともに,多様な侮辱語の表現が出現している.このように嘲笑する形で,他者を侮辱する表現が多く用いられていることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-4ia7f3.eps}\end{center}\hangcaption{名誉権と名誉感情の侵害事例における本件投稿記事中の名詞の出現頻度をもとに作成したワードクラウド}\label{word_cloud}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究は,誹謗中傷研究に法律の視点を新たに導入し,誹謗中傷によって侵害される権利の類型と法的な裁定結果という専門家の判断結果を取り入れたデータセットを提案した.これにより,違法性という社会上の誹謗中傷対策の最終手段を自動検出技術によって判定できるかの検証と,法的な知見を自然言語処理のタスクとする際の課題を提供できると考えている.予備実験の結果,現在のデータセットの規模では,詳細な文脈情報が必要な分類は困難であるものの一定の精度を示せており,今後データを拡大することで対応できると考えている.中でも,特に問題となった,同定可能性,違法性阻却事由,誹謗中傷を受けている人の属性といった項目について,今後,データセットを拡大する必要がある.さらに,方法論的にも,モデルの動作の説明や,判断の根拠文の抽出など,より深い裁判例中のテキストの活用も求められる.この結果を受け,今後,ラベル検出だけに頼るのではなく,説明可能性やコンテンツモデレーターの支援といった実世界のシナリオに具体的に応用可能なタスクの提案に向けて,データを活用することを目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,JSPS科研費JP22J23161,JP22K12041およびJSTSICORPJPMJSC2107,戦略的イノベーション創造プログラム(SIP3)の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{法的観点の補足} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{取り扱う2種類の事件の違い}\label{disclose}損害賠償請求事件は,誹謗中傷を受けたと主張する原告と,その加害者とみなされる被告の間の争いである.一方,発信者情報開示請求事件は,被害者の原告に対して,加害者の情報を持っているとされるプロバイダが被告となる.このとき,プロバイダは,プロバイダ責任制限法の免責のために,不法行為の要件事実の立証のための抗弁を主張・立証する\footnote{総務省総合通信基盤局消費者行政第二課プロバイダ責任制限法逐条解説P23\url{https://www.soumu.go.jp/main_content/000883501.pdf}}.つまり,いずれの事例でも,被告側は誹謗中傷による被害がないことを主張しており,データセット中の「誹謗中傷事例」もそのような抗弁が行われた事例である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{重複と他者による再投稿}本データセットの作成過程で,事件中の各本件投稿記事が重複しているとみなされた場合には,最初の一つのみを取り上げている.一方,ソーシャルメディアでは,リツイートやリポストのような形で他者の発言について自分で再投稿することが可能である.本データセット中にも,Twitterのリツイートによる人格権侵害の事例が含まれている.これは,過去の判例\footnote{大阪地方裁判所令和1年9月12日LEX/DB文献番号25570528}$^{,}$\footnote{[控訴審]大阪高等裁判所令和2年6月23日LEX/DB文献番号25570987}において,リツイートも「当該元ツイートの内容に賛同する意思表示を示して行う表現行為」として,名誉毀損行為の主体としてなりうると考えられているためである\footnote{リツイートによる投稿が名誉毀損に該当するとされた事例名古屋大学准教授/村田健介(ムラタケンスケ)日本評論社私法判例リマークス62号54--57ページ(0387-3420)2021/2/25}.このとき,別の裁判において,リツイート元の投稿者が被告となる場合には,同じ内容の投稿が事例として含まれる場合がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ラベル不一致の要因について}\label{annotation_error}「一部論点の省略」は,原告が主張する複数の権利侵害について,そのうち一つの権利について侵害を否定された後に,「その余の点について判断するまでもなく,本件記事2-○及び2-●●によって原告らの権利が侵害されたことが明らかであるとは認められないから,原告らの主張は,採用できない.」\footnote{東京地方裁判所令和1年(ワ)第34145号LEX/DB文献番号25586004}のように記載されているような場合がある.これに対して,「裁判所が否認」として読み取る場合と,裁判所は,具体的に論じていないことより「原告の主張」ラベルを付与する判断にわかれる事例のようなことが生じている.「裁判例中ごとに争点や判断の記述様式が異なること」について,裁判例によっては,その判決書中には,裁判所の判断部分のみが記載され,別紙資料など,複数の資料を同時比較が必要になる場合\footnote{東京地方裁判所令和3年(ワ)第27463号LEX/DB文献番号25605076}や,原告や被告が複数人の場合\footnote{東京地方裁判所令和4年(ワ)第1498号},さらに,反訴の場合\footnote{東京地方裁判所平成31年(ワ)第8875号,同令和1年(ワ)第18681号\url{https://www.courts.go.jp/app/files/hanrei_jp/358/091358_hanrei.pdf}},記述内容が複雑化し,本件投稿記事に対応する論点を読み取るのが難しくなる場合がある.そのような裁判例において,アノテータのミスと考えられる不一致が見られた.「用語などの表記揺れ,人格権の類型」について,名誉権の侵害は名誉毀損,名誉感情の侵害は侮辱,私生活の平穏の侵害は,平穏な生活を営む権利や日常生活の平穏に関わる権利の侵害のように裁判例ごとに,用語の表記が揺れることがある.これに加えて,名誉権や名誉感情は,それぞれ社会的評価や内面的な人格的価値を保護利益とする人格権・人格的利益の一種であり,複数の問題点が訴えられている場合,その保護利益の内容について論じられる場合がある.そのときに,裁判例中では,名誉権や名誉感情と対応する保護利益を論じているのか,それ以外の保護利益について,例えば「性的自尊心」\footnote{東京地方裁判所令和3年(ワ)第24323号LEX/DB文献番号25603126}や「国籍についての正しい理解」\footnote{東京地方裁判所令和3年(ワ)第12132号LEX/DB文献番号25604794}といった,人格権・人格的利益の侵害を論じているのか判別が必要となり,このようなときにアノテータ間の解釈に差異が見られた.「解釈,上級審の裁判例における記載内容の特殊性」について,高等裁判所の判決書は,原審の判決書に対して「イ原判決9頁24行目の「他のユーザーに対して」を「他のユーザーらをアカウント(本件アカウント2を含む.)のユーザー名により特定して」に,同頁24行目の「その意見」から25行目の「同人を」までを「,当該他のユーザーらがしたコメントの内容が誤りである旨を強く指摘した上,高圧的な表現で当該他のユーザーらを」に,同頁26行目及び同10頁1行目の各「原告」をいずれも「X」に,同頁2行目の「原告の」を「Xの」にそれぞれ改める.」\footnote{東京高等裁判所令和4年(ネ)第10060号\url{https://www.courts.go.jp/app/files/hanrei_jp/828/090828_hanrei.pdf}}のように差分についてのみ記載を加える場合があり,原審判決書を比較しながら変更点の把握が求められることにより,理解の不一致を生じやすい事例となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{名誉権・名誉感情の事例}名誉権と名誉感情の侵害が争われた事例について,その判断基準を具体例とともに補足する.表~\ref{samples}(上)の名誉権の侵害では,表現内容に事実の摘示を含むかどうかで判断される.名誉権の侵害事例\footnote{東京地方裁判所令和3年(ワ)第22400号LEX/DB文献番号25604264}では,原告を集団いじめを主導する者との被疑事実を摘示したと認められることにより,社会的地位の低下が認められた.%%%%侵害否定事例\textrm{^5}の場合は,具体的な犯罪を指摘しておらず,社会通念上不適切な意見・感想として認められない.侵害否定事例$^{5}$の場合は,具体的な犯罪を指摘しておらず,社会通念上不適切な意見・感想として認められない.表~\ref{samples}(下)の名誉感情の侵害は,社会的通念上許される限度を超える侮辱行為かどうかで判断される.名誉感情の侵害事例$^\text{24}$では,頭脳が健常ではないことを揶揄する表現は一種の差別的表現であり,侮辱と解された.一方,侵害否定事例$^\text{8}$では,批判的または消極的意見の一つとして,社会的通念上許される限度を超える侮辱行為とまでは認め難いと判断された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{07table12.tex}%\caption{名誉権・名誉感情侵害が争われた事例}\label{samples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{誹謗中傷の自動検出の実験詳細} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{入力の前処理}誹謗中傷の自動検出の実験において,本件投稿記事と文脈に行った前処理について述べる.データセットでは,性質に合わせた匿名化タグを設けているが,分類では一律に[IDinfo]に変換し,モデルのTokenizerには特殊トークンとして追加した.ネガティブサンプルとして収集したデータに対しては,GiNZAの固有表現抽出モジュールを利用し,固有表現のラベルがPERSON,ORGANIZATION,City,Postal\_Addressの部分と,ソーシャルメディアのアカウント名を示す@で始まる単語列を[IDinfo]に置換した.本件投稿記事+文脈の入力では,「本文:\textit{本件投稿記事}文脈:\textit{文脈}」,本件投稿記事のみの入力では,「本文:\textit{本件投稿記事}」のようなPrefixを設けた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{交差検証実験時のパラメータ}バッチサイズ32,入力トークン長510,エポック数50,学習率$5.0\times10^{-6}$とし,最適化アルゴリズムにはAdamw,学習率スケジューラーにはCosineAnnealingLR,損失関数(誹謗中傷の二値分類)にはCrossEntropyLoss,損失関数(権利の類型)にはBinaryCrossEntropyLossを適用した.学習率は,$5.0\times10^{-5}$,$5.0\times10^{-6}$,$1.0\times10^{-6}$%5e-5,5e-6,1e-6にて探索的に実験を行ったが,$5.0\times10^{-5}$では学習ロスの減少が見られないことが多く,$1.0\times10^{-6}$は$5.0\times10^{-6}$よりも学習ロスの減少が遅くなる場合があったため,$5.0\times10^{-6}$を採用した.しかし,入力が本件投稿記事+文脈のRoBERTaモデルについては,評価データでの正例の予測に成功するモデルの訓練が観察されなかった.そのため,追加で学習率$5.0\times10^{-7}$%5e-7で100エポックの実験を行い,評価ロスの減少も確認できた.しかし,正例の予測が成功が見られなかったため,他のモデルでの実験と同様に$5.0\times10^{-6}$%5e-6の結果を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{few-shotのパラメータ}モデルロード時,CohereForAI/c4ai-command-r-plus-4bitとtokyotech-llm/Llama-3-Swallow-70B-Instruct-v0.1はfp4量子化した,elyza/Llama-3-ELYZA-JP-8Bはデフォルトのbf16.生成時にはtemperature=0.5,top-P=0.5でサンプリングを行った,よって生成に少々のばらつきが考えられるので,few-shotの結果は3回の生成によるラベル予測を用いている.出力形式がjsonフォーマットに従うもののみを集計対象とし,ELYZAモデルの出力のみ5回の出力形式エラーが見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{few-shotのプロンプト}\label{prompt}\#\#\#指示:あなたのタスクは,提供された「本文」テキストが違法な誹謗中傷であるかを判断し,法律上保護される権利の基準に基づいて,以下のカテゴリに分類することです.各カテゴリに該当する場合は「Yes」,該当しない場合は「No」としてください.複数のカテゴリに該当することもあります.以下の6つのラベルに基づいて分類を行います.名誉権:「本文」テキストが,犯罪や不倫などの不法行為や不道徳行為の具体的事実の叙述または,人身攻撃に及ぶなど論評の域を逸脱した表現によって,特定の個人や法人の社会的評価を下がると判断される名誉毀損に当たる表現を含む.名誉感情:「本文」テキストが,社会通念上許容される限度を超える侮辱行為として,特定の個人や法人に対する差別表現や悪質な表現を含む.しかし,不快な表現や否定的な表現は直ちに侮辱とはならない.私生活の平穏:「本文」テキストが,特定の個人や法人に対して,危害を加えることを予告することや脅迫などの生命や身体に危機を感じたり,心の平穏を害するような発言を含む.人格権や人格的利益:「本文」テキストが,上記の類型に該当しないが,自尊心や敬愛追慕の情など人格権として保護される利益を脅かす表現を含む.営業権:「本文」テキストが,企業や個人事業主に誹謗中傷や虚偽の事実によって営業活動や経済活動に損害を与える表現を含む.プライバシー:「本文」テキストが,住所や氏名など個人を特定する情報に加え,病気や借金,過去の来歴など,個人の私生活について公開されたくない情報を含む.以下の形式でテキストが与えられます:-「本文」:発言そのもの-「文脈」:発言に至る前後の状況や背景,空白の場合ありなお,テキスト中の「[IDinfo]」は特定の個人や法人,地名や個人情報などがマスクされています.出力:-各ラベルに対して「Yes」または「No」をjson形式で出力してください.例:本文:"[IDinfo]は自分が出したゴミの片付けも一人で出来ず親に手伝って貰いながら20分もしない内に根を上げて自分の人生がどうのとか嘆く姿は滑稽だな知性も根気も体力もモラルもありとあらゆる能力が小学生以下の奴がいつまで妄想吐いてんだ?自分でも分ってんだろう一人じゃ何にも出来ねえ赤ん坊だから今後も何の成功も得られないっ人生って事"文脈:"【ゲーム実況】[IDinfo]アンチスレ【女子♯7】引き続きイエスマンで回りを固めている[IDinfo]の悪い所を書きましょう."出力:\{"名誉権":"Yes","名誉感情":"Yes","私生活の平穏":"No","人格権や人格的利益":"No","営業権":"Yes","プライバシー":"No"\}\#\#\#入力:%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{久田祥平}{%2011年京都大学法学部卒業.2022年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学博士後期課程に在籍.日本学術振興会特別研究員(DC1).自然言語処理を応用したインターネットと社会に関する研究に従事.}\bioauthor{若宮翔子}{%2009年兵庫県立大学環境人間学部卒業.2013年同大学院博士後期課程修了.博士(環境人間学).2020年より奈良先端科学技術大学院大学先端科学技術研究科准教授.ソーシャルコンピューティングや自然言語処理の医療応用に関する研究に従事.}\bioauthor{荒牧英治}{%2000年京都大学総合人間学部卒業.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).2020年より奈良先端科学技術大学院大学先端科学技術研究科教授.自然言語処理の医療応用に関する研究に従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V05N01-07
\section{はじめに} 自然言語文には動詞を省略した文が存在する.この省略された動詞を復元することは,対話システムや高品質の機械翻訳システムの実現には不可欠なことである.そこで本研究では,この省略された動詞を表層表現と用例から補完することを行なう.表層表現とは,文章の表層に現れる手がかり表現のことである.例えば,助詞の「も」で文が終っている省略文の場合,助詞の「も」という手がかり語のおかげで前文の繰り返しであろうと推測でき,前文の文末の動詞を補えばよいとわかる.この表層表現を用いる手法は,応用範囲の大きい手法であり,解析したい問題があるとき,そのための手がかりとなる言語表現がその問題の近くに存在することが多く,それを用いることでその問題が解析可能となる.用例とは,人間が実際に使用した自然言語文のことである.用例を用いた動詞の補完方法の一例を以下にあげる.例えば,「そううまくいくとは」の文に動詞を補いたいとするとき,「そううまくいくとは」を含む文(用例)を大量の文章(コーパス)から取り出し(図\ref{tab:how_to_use_corpus}),「そううまくいくとは」に続く部分(この場合,「思えない」「限らない」など)を補完するということを行なう.この用例を用いる手法も,応用範囲の大きい手法であり,解析したい問題とよく似た形の用例を探してくれば,すぐにでも用いることができるものである.\begin{figure}[t]\begin{center}\begin{tabular}[t]{lll}&{\bf一致部分}&{\bf後続部分}\\[0.2cm]こんなに&\underline{うまくいくとは}&思えない。\\いつも&\underline{うまくいくとは}&限らない。\\完全に&\underline{うまくいくとは}&いえない。\\\end{tabular}\end{center}\caption{コーパスにおける「うまくいくとは」を含む文の例}\label{tab:how_to_use_corpus}\end{figure}以上のように表層表現と用例はともに応用範囲の広い方法であり,かつ,現在の自然言語技術でも十分に用いることができる便利な手法である.本稿はこの表層表現と用例を用いて動詞の補完を試みたものである.本研究は先行研究に対し以下の点において新しさがある.\begin{itemize}\item日本語の動詞の省略の補完の研究はいままでほとんどなされていなかった.\item英語については動詞の省略を扱った研究はたくさんあるが,それらは補うべき動詞がわかっているときにどういう構文構造で補完するべきかを扱っており,補う動詞を推定する研究はほとんどなされていない\cite{Dalrymple91}\cite{Kehler93}\cite{Lappin96}.それに対し,本研究は省略された動詞を推定することを扱っている.\item補うべき動詞が文中にないことがあり,システムが知識を用いて補うべき動詞をつくり出さなければならないことがある.本研究ではこの問題に対し用例を用いる方法で対処している.\end{itemize} \section{動詞の省略現象の分類} \label{sec:bunrui}\begin{figure}[t]\vspace{-2.5mm}\begin{center}\fbox{\begin{minipage}{13.5cm}\begin{center}\epsfile{file=murata.eps,height=3.5cm,width=13.5cm}\end{center}\caption{文末に動詞が欠けている文の分類}\label{fig:shouryaku_bunrui}\end{minipage}}\end{center}\vspace{-2.5mm}\end{figure}本研究は,動詞の省略現象として文末の省略現象についてのみ対象とする.文の内部で省略されることもあるが,それらは統語的な問題として処理されるであろうとし,本研究の対象外とした.本研究では,処理の観点から文末において動詞が欠けている文の分類を行なった.その分類を図\ref{fig:shouryaku_bunrui}に示す.これは,まず,補完する動詞がある位置から分類し,最後に省略現象の意味から分類したものである.倒置は省略ではないが,文末において動詞が欠けているという意味から本稿の対象内としている.この分類はまだまだ修正する必要があり不完全なものであるが,処理の観点から文末の動詞の省略現象を把握する場合には役に立つものであると考えている.以降の節では文末の省略現象のそれぞれの分類ごとに,その現象の特徴とおおよその解析方法を述べる.\subsection{テキスト内から補完される省略現象}\subsection*{倒置文}倒置文は多くの場合,終止形などの普通に文末となりうる表現が文の途中にあり,この部分を中心にして文が倒置されている.例えば,以下の文では「誰ですか」が普通に文末となりうる表現であり,この部分を中心にして文が倒置されている.\begin{equation}\begin{minipage}[h]{7cm}「誰ですか、来たのは」\end{minipage}\end{equation}このため,倒置文の解析は,終止形などの普通に文末となりうる表現が読点を伴って文の途中にある場合,その部分で倒置された倒置文と判断するということで行なう\footnote{倒置文の解析は,本来は文献\cite{touchi}にあるように構文解析が成功するか否かなどの情報を用いて行なうべきである.しかし,本研究で利用した構文解析システムはかかり受けの構造を出力するものであり,本研究の実験で用いるデータは構文情報を修正したものであり倒置文であってもかかり受けの構造で表現されており,構文解析が成功するか否かの情報を利用することができない.このため,本研究では表層の言語表現を用いて解析した.}.例えば,上の例文では「誰ですか」が普通に文末となりうる表現であり,その部分で倒置された倒置文であると判断される.\subsection*{疑問応答}疑問--応答という文の対において疑問と応答で同一の動詞を使用する際,応答側の文の動詞が省略される場合がある.例えば,以下の例文では「これを」の動詞が省略されているが,その省略部分に入る動詞は疑問側の「壊した」である.\begin{equation}\begin{minipage}[h]{7cm}「何を壊したの」「これを」\end{minipage}\end{equation}このため,この種の文の解析は,疑問--応答を形成しているかどうかを「何」などの表現によって検出し,疑問--応答であることがわかれば,疑問側の文の動詞を補完するということを行なう.\subsection*{理由・逆接・仮定}文末に動詞が欠けている文の中には,文末が接続助詞で終っており,前文と理由・逆接・仮定という意味関係で,ある種,文をまたがった倒置となっているものがある\footnote{接続助詞で終っている文がすべてこの分類となるわけではない.前文に対して倒置になっておらず,テキストにない動詞を補う必要があるものもある.これらは,\ref{sec:other_ellipsis}節の「その他(常識による補完)」で扱われることになる.}.例えば,以下の文の場合,「電気をつけたから」の部分が前文の「明るいね」の部分の理由になっており,文をいれかえて解釈すると意味の通った文となる.\begin{equation}\begin{minipage}[h]{7cm}「明るいね。電気をつけたから」\end{minipage}\end{equation}このような場合の解析は,基本的には文末が接続助詞で終了している場合は前文と意味関係にあると判定し,前文と文の順序を入れかえて解釈する.しかし,逆接の場合は単に以下のように以降の発話に余韻を持たせるために用いるだけで前文に対して逆接の関係にならない場合もある.\begin{equation}\begin{minipage}[h]{7cm}「お聞きしていいのかわかりませんが」\end{minipage}\end{equation}そこで,逆接の接続詞の場合は前文と関係を持ちやすい「のに」の場合は前文と関係があるとし,それ以外の接続助詞の場合は以降の発話に対して余韻を持たせていると判定する.\subsection*{補足}前文の補足としての役割をする文で,動詞の省略が行なわれることがある.例えば,以下の例文は,ものをなくしたけれども,鍵をなくしたということを補足的に述べている.\begin{equation}\begin{minipage}[h]{7cm}「物をなくした。鍵を」\end{minipage}\end{equation}この種の解析には単語の意味を利用する方法として以下の二種類の方法を考えた.一つは,省略された文と前文とで同じ格要素に来る単語の意味が近ければ,それらは対応関係にあって動詞の省略された部分には,前文の動詞が補完されるというものである.この場合,「物」と「鍵」は同じ具体物という意味で意味的に近いので対応関係にあると認定され,「鍵を」に対して補完する動詞は「なくした」となる.もう一つは以下のように前文の動詞の対応する格要素の部分がゼロ代名詞化した場合のための方法である.\begin{equation}\begin{minipage}[h]{7cm}「なくした。鍵を」\end{minipage}\end{equation}この例の場合は,動詞「なくす」の格フレームを用い,格フレームのヲ格の要素になりやすい単語\footnote{IPALの格フレーム辞書\cite{ipal}にはそれぞれの格要素にどういう単語が入りうるかの情報が記載されている.本研究ではこれを利用する.}と「鍵」を比較し,意味的に近ければ「鍵を」が「なくした.」のヲ格の要素にくると判定し,「鍵を」に補う動詞は「なくした.」となる.また,表層表現を用いる規則があり,反復を示す助詞「も」などの手がかり語が存在する場合は前の文の補足と判定する.前文の補足関係となる動詞の省略現象は以上の他にも多数あり,本研究での解析方法では手がかりがなければ前文の文末の動詞を補うということを行なっている.\subsection{テキスト外から補完される省略現象}\subsection*{疑問文}疑問文では提題助詞「は」で終了して動詞を省略する場合がある.例えば,以下の例は相手の名前を聞いているときの発話である.\begin{equation}\begin{minipage}[h]{7cm}「名前は」\end{minipage}\end{equation}このように``名詞+「は」''の形になっている場合は疑問になっていることが多い.そこで,本研究では``名詞+「は」''の形で終っている場合は,疑問と判定した\footnote{本研究は省略された動詞の補完なので,「何といいますか」といった表現を補いたいところだが,これらは疑問の内容によって変化するので,生成の問題であると判断し,本稿では扱っていない.}.\subsection*{ダの省略}文が名詞で終了している場合,判定詞「だ」の省略が行なわれていることがある.\begin{equation}\begin{minipage}[h]{7cm}「わたしは学生」\end{minipage}\end{equation}この例は「わたしは学生です」という文で判定詞「だ」または「です」の省略を行なったものである.この種の解析は文が名詞で終了しているか否かを調べたり,主語が存在しているなどの文構造を利用したりして行なえばよい.\subsection*{スルの省略}文末がサ変名詞である場合,「する」「します」が省略されていることがある.\begin{equation}\begin{minipage}[h]{7cm}「コーヒーをお願い」\end{minipage}\end{equation}これの例は「コーヒーをお願いします」という文で「します」を省略したものである.この解析は,文末がサ変動詞「する」が接続可能なサ変名詞であるかどうかやサ変名詞に対して連体修飾語が存在していないかどうかを調べることによって行なう.\subsection*{その他(常識による補完)}\label{sec:other_ellipsis}前の三つの「疑問文」「ダの省略」「スルの省略」の他にテキスト外補完の場合の省略例として以下のものがある.\begin{equation}\begin{minipage}[h]{7cm}「じつは、ちょっとお願いが……」\end{minipage}\end{equation}この種の省略現象は補うものがテキスト内に無いうえ,補完される言語表現が多岐にわたっており,解析が難しい現象である.本研究ではこの問題の解決するために大規模なコーパス(解析をしていないもの)を利用して補完内容を推定する.上の例文を人間が読むと省略された動詞が「あります」であることが自然とわかる.これは,頭の中に「じつは、ちょっとお願いがあります」という文が経験的知識となって存在しているからである.これと同じようなことをコーパスを用いて行なうとすると,「じつは、ちょっとお願いが」とできるだけ意味的に近い表現をコーパス中から抽出し,抽出した文の「じつは、ちょっとお願いが」の次の部分がおおよそ省略部分の内容であることが予想され,それを補完するということを行なえばよいことがわかる.本研究では,以上の方法で解析する.ただし,意味的に近い表現を抽出するところは,現在の自然言語技術では困難なので,文末の文字列を最長に含む文を抽出するということで近似している. \section{照応処理システム} \subsection{システムの枠組}\label{wakugumi}本研究では,動詞の省略現象の解析を行なう際,名詞,指示詞,代名詞,ゼロ代名詞などによる照応の解析も同時に行なう.まず,解析する文章を構文解析・格解析する\cite{csan2_ieice}.その結果に対して文章の初めから動詞の省略の補完を行なう.省略の補完は,省略の補完の手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて解の候補に得点を与えて,合計点が最も高い解の候補をシステムの解とすることによって実現する.この合計点を利用する方式は,以下の原理に基づいている.照応解析のように複雑な問題では,複数の情報が絡み合っており複数の情報を総合的に判断することにより解析を行なう必要がある.この複数の情報を総合的に判断するということを各規則の得点の和という形で実現し,合計点の最も高い候補をシステムの解としている.規則に応じて候補に得点を足していく操作は,その候補が解であるという確信度が高まっていくことに対応している.また,得点によりどの規則を優先すべきかを指定することができるようになっている\footnote{指示詞の指示先などの推定の場合文章中での物理的距離,意味的制約における意味の近さなど数値化せずには扱いにくいものが多数存在していたが,本研究の動詞の省略では数値化の必要性がある規則があまり存在せず規則の間の関係もそれほど複雑でないので,得点を使わずに単純なif-thenルールによる方式でも十分であったが,われわれは照応処理の統合を考えておりわれわれの他の照応処理の研究\cite{murata_noun_nlp}\cite{murata_deno_nlp}\cite{murata_indian_nlp}と同様な方式で解析を行ないたかったため,合計点を利用する方式を採用した.}.\begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{6cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..\}\\[-0.1cm]\hspace*{0.7cm}提案:=(解の候補\,得点)\caption{規則の表現}\label{fig:kouho_rekkyo}\end{minipage}}\end{center}\end{figure}規則は,図\ref{fig:kouho_rekkyo}の構造をしている.図中の「条件部」には文章中のあらゆる語やその分類語彙表\cite{bgh}の分類番号やIPALの格フレーム\cite{ipal}の情報や構文解析・格解析の結果の情報などを条件として書くことができる.「解の候補」には補完対象の動詞の位置や補完したい動詞などを書くことができる.「得点」は解としての適切さの度合を表している.\subsection{動詞の省略現象の解析}\label{sec:0verb_rule}動詞の省略の補完のために規則を22個作成したが,これらすべてを表\ref{tab:doushi_shouryaku_bunrui}に示す.これらの規則は文献\cite{kouryakubun}\cite{jutsugo_takahashi}を参考にしたり\ref{sec:jikken}節で述べる学習サンプルを見たりして人手で作成した.各規則で与える得点は,規則の優劣を考慮して人手で定めたり,学習サンプルで実験的に人手で定めたりした.\begin{table}[t]\footnotesize\caption{動詞の補完のための規則}\label{tab:doushi_shouryaku_bunrui}\begin{center}\begin{tabular}[c]{|@{}r@{}|p{4cm}|p{3cm}|@{}p{0.6cm}@{}|p{3.9cm}|}\hline順序&条件部&解の候補&得点&例文\\\hline\multicolumn{5}{|c|}{動詞の省略はないと判定する場合の規則}\\\hline1&文末が動詞の終止形,過去形,推量形,意志形,命令形の基本形などで終了している場合か,終助詞で終了している場合&動詞の省略はない&30&その湖は、北の国にあった。\\2&人名,もしくは,人を意味する単語で終了している場合&よびかけであり,動詞の省略はないと解釈する&30&「はい、先生」\\3&文末が基本連用形,もしくは,「て」で終る連用形であり,引用文内の場合&命令文と解釈し,動詞の省略はないと解釈する&30&「さあ、目をつぶって」\\4&文末が「が」などの逆接の接続助詞である場合&動詞の補完の必要のない逆接と解釈する&$5$&「お聞きしていいのかわかりませんが」\\\hline\multicolumn{5}{|c|}{倒置の場合の規則}\\\hline5&同一文に用言の基本形などの文末になりうる表現が読点を伴って存在する場合&その部分で倒置された倒置文と解釈する&$10$&「それで見つかったのか、約束の相手は」\\\hline\multicolumn{5}{|c|}{質問--応答の場合の規則}\\\hline6&「どうぞ」「はい」などの応答を示す表現が文内にあって前文の文末に疑問を示す「か」などがある場合&疑問文の文末の動詞&$5$&「近よって観察してもいいでしょうか」「どうぞ、ご自由に……」\\7&前方3文以内に「だれ」「何」などの疑問詞がある場合&疑問詞がかかる動詞&$5$&「だれを殺したんだ」「サルです。わたしの飼っていたサルを(殺したのです)」と、男が答えた。\\\hline\multicolumn{5}{|c|}{理由・逆接・仮定の場合の規則}\\\hline8&原因を意味する助詞「ので」「から」などが文末についている場合&現在の文を前文の理由を示す文であると解釈する.&5&「穴を埋めていただくのはありがたいが、その土地をあげるわけにはいかない。そこに、社を建てなくてはならないんだから」\\\hline9&文末が「のに」などの逆接の接続助詞である場合&現在の文に対して前文が逆接の関係でつながっていると解釈する&$5$&「これが悪魔とはねえ。もう少し堂々としたものかと思っていたのに」\\10&文末が動詞の条件形か仮定を表わす助詞である場合&現在の文を前文の仮定を示す文であると解釈する.&$5$&「それなら、いいじゃないか。なにも、交番にまで来て大さわぎしなくても」\\\hline\multicolumn{5}{|c|}{補足の場合の規則}\\\hline11&文末が連用形であり,引用文内でない場合&前文の補足の文と解釈し,前文の文末の動詞を補完する&5&召使は部屋に入り、えさを取りかえた。主人がよく与えていたシュークリームも加えて。\\12&文末に格助詞のついた名詞$A$があり,前文に同じ格助詞のついた名詞$B$があり,名詞$A$と名詞$B$の意味的な類似度が$s$である場合&名詞$B$がかかる動詞&$s*20$$-2$&いまでは、すべての悪がなくなっている。強盗だとか詐欺だとか、あらゆる犯罪が(なくなっている)。\\\hline\end{tabular}\end{center}\end{table}\clearpage\begin{table}[t]\footnotesize\addtocounter{table}{-1}\caption{動詞の補完のための規則(つづき)}\begin{center}\begin{tabular}[c]{|@{}r@{}|p{4cm}|p{3cm}|@{}p{0.6cm}@{}|p{3.9cm}|}\hline順序&条件部&解の候補&得点&例文\\\hline\multicolumn{5}{|c|}{補足の場合の規則}\\\hline13&文末に格助詞のついた名詞$A$があり,前文に同じ格の省略された格要素$B$があり,その格要素に入りやすいと格フレームに記述してある名詞と名詞$A$との意味的な類似度が$s$である場合&格要素$B$を持つ動詞&$s*20$$-2$&私は同僚に(\underline{}を)指さしてみせた。バラをからませた垣根のなかの、大きなニレの樹の下にある古風なつくりの住宅を。\\14&文末が名詞接続助詞「も」であるか,「もっとも」などの繰り返しを想起しやすい副詞が文中に存在する場合&同一発話者の前文の繰り返しと解釈し,同一発話者の前文の文末の動詞を補完する&$5$&「大人って悪いことばかりしているんだよ。よくわかんないけれど、ワイロなんてことも……」\\15&前文が疑問文の場合&前文の文末の動詞&$1$&\\16&いつでも適用される規則(他の規則が適用されない場合のデフォルト規則)&前文&$0$&\\\hline\multicolumn{5}{|c|}{疑問文の場合の規則}\\\hline17&文末が助詞「は」がつく名詞である場合&疑問文と解釈する&$3$&「名前は」\\\hline\multicolumn{5}{|c|}{ダの省略の場合の規則}\\\hline18&文末が名詞,もしくは,名詞接続助詞「ばかり」「だけ」などであり,文中に主語に相当する名詞接続助詞「は」「も」「が」がつく名詞がある場合&判定詞「です」の省略と解釈し,「です」を補完する&$2$&「これはわたしの、ちょっとしたかんちがい」\\19&文末が時間を意味する名詞の場合&判定詞「のことです」の省略と解釈し,「のことです」を補完する&$5$&そして、その次の夏。\\20&文末が名詞,もしくは,名詞接続助詞「ばかり」「だけ」などである場合&判定詞「です」の省略と解釈し,「です」を補完する&$1$&攻撃の命令を待つばかり。\\\hline\multicolumn{5}{|c|}{スルの省略の場合の規則}\\\hline21&文末が連体修飾語を持たないサ変名詞か動詞の連用形が名詞化したものである場合&「します」の省略と解釈し,「します」を補完する&$2$&それを神さまあつかい。\\\hline\multicolumn{5}{|c|}{常識から補完する場合の規則}\\\hline22&文末の部分文字列を最長に含む文をコーパスから取り出せる場合.その取り出した文において文字列一致した部分の後方に来る表現のうち最も多く出現したものの頻度が二番目のものよりも際だって大きい場合(二番目に多く出現したものの頻度の二倍以上の場合)は,9点を与え,そうでない場合は1点を与える.&取り出した文において文字列一致した部分の後方に来る表現のうち最も多く出現したもの(頻度最大のものが複数個ある場合は最初に取り出されたもの)&1or9&「そううまくいくとは(思えない)」\\\hline\end{tabular}\end{center}\end{table}\clearpageまた,名詞・代名詞の照応解析も同時に解析するが,このための規則については文献\cite{murata_noun_nlp}\cite{murata_deno_nlp}\cite{murata_indian_nlp}を参照のこと.表\ref{tab:doushi_shouryaku_bunrui}中の規則において,人を意味する単語の判定は,意味素性辞書\cite{imiso-in-BGH}において意味素性HUMが付与されている単語を,それとすることで行なった.また,時間を意味する名詞の把握は,意味素性辞書でTIMが付与されているか,形態素解析結果として時相名詞と解析されているものを,それとすることで行なった.規則1は特別な規則で,この規則が適用された時は他の規則は適用されないようになっている.規則12,13の$s$は,EDR概念辞書における名詞$A$と名詞$B$の類似度により与えられる.この類似度は,EDR概念辞書のトップノードと名詞$A$のノードの間の枝の数を$na$,トップノードと名詞$B$の間の枝の数を$nb$,名詞$A$,名詞$B$からのトップノードへのパスで初めてパスが一致するノードをCとし,ノード$C$とトップノードの間の枝の数を$nc$とすると,($nc$+$nc$)/($na$+$nb$)で与えられる.この式は,$na$,$nb$に対して$nc$の値の大きさの割合をとったものである.$na$,$nb$に対して$nc$の値が大きいとき,シソーラス中でのノード$C$の位置が相対的に下の方にあることになり,名詞\hspace{-0.2mm}$A$\hspace{-0.2mm}と名詞\hspace{-0.2mm}$B$\hspace{-0.2mm}の類似度が高いことを意味する.この手法は文献\cite{nlp}の方法を利用している.規則22で用いるコーパスは,新聞1年分のもの(約7千万文字)を利用している.コーパスから一致部分を取り出す方法はコーパスをソートしておき二分探索で行なっている.\subsection{解析例}動詞の省略の補完例を図\ref{tab:dousarei}に示す.図\ref{tab:dousarei}は「お願いが」の動詞の省略の解析を正しく行なったことを示している.これを以下で説明する.\begin{figure}[t]\fbox{\begin{minipage}[h]{13cm}「むりもありませんわ。はじめてお会いするのですから。じつは、ちょっとお願いが……」\vspace{0.5cm}解析における得点の分布\begin{tabular}[h]{|l|r|r|r|}\hline補完候補&前文の文末&あります\\\hline規則16&0点&\\\hline規則22&&1点\\\hline合計点&0点&1点\\\hline\end{tabular}\vspace{0.5cm}『じつは、ちょっとお願いが』の文末の文字列を最長に含む文の後方部分(上位のみ)\begin{tabular}[h]{|l|l|}\hline最長に一致する文の後方部分&出現回数(個数)\\\hlineあります&5\\ある&3\\\hline\end{tabular}\caption{動詞の補完例}\label{tab:dousarei}\end{minipage}}\end{figure}表\ref{tab:doushi_shouryaku_bunrui}で示した規則のうち,まず,文末が動詞の基本形などのふつうに文末になりうる表現でないので,一つ目の規則は適用されず,動詞の省略であると解釈される.次にいつでも適用される規則16が適用され前文の文末という候補があがる.次にコーパスを利用する規則22により,動詞「あります」が補完の候補にあがる.コーパスには他に「ある」などがあるが,これらよりも「あります」の方が頻度が多かったので,「あります」が補完の候補にあがる.表のように候補は二つあがるが,得点が最も大きい「あります」を正しく補完する. \section{実験と考察} \subsection{実験}\label{sec:jikken}動詞の省略の解析を行なう前には構文解析・格解析を行なう.構文解析・格解析における誤りのうち,動詞の省略の補完に影響を与えるものについては人手で修正した.\begin{table}[t]\fbox{\begin{minipage}[h]{13.5cm}\small\baselineskip=0.85\baselineskip\caption{本研究の実験結果}\label{tab:sougoukekka}\begin{center}\begin{tabular}[c]{|@{}l@{}l@{}l@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|}\hline&&&\multicolumn{4}{c|}{学習サンプル}&\multicolumn{4}{c|}{テストサンプル}\\\cline{4-11}&&&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}\\\hline\multicolumn{3}{|l|}{全分類での精度}&92\%&(129/140)&90\%&(129/144)&84\%&(125/148)&82\%&(125/152)\\\hline&\multicolumn{2}{l|}{テキスト内から補完}&100\%&(57/57)&85\%&(57/67)&94\%&(64/68)&81\%&(64/79)\\\hline&&倒置&100\%&(13/13)&93\%&(13/14)&100\%&(8/8)&80\%&(8/10)\\&&応答&100\%&(3/3)&100\%&(3/3)&---\%&(0/0)&---\%&(0/0)\\&&理由・逆接・仮定&100\%&(24/24)&88\%&(24/27)&100\%&(33/33)&85\%&(33/39)\\&&補足&100\%&(17/17)&74\%&(17/23)&94\%&(23/27)&77\%&(23/30)\\\hline&\multicolumn{2}{l|}{テキスト外から補完}&87\%&(72/83)&94\%&(72/77)&76\%&(61/80)&84\%&(61/73)\\\hline&&疑問文&100\%&(3/3)&75\%&(3/4)&---\%&(0/0)&0\%&(0/3)\\&&ダ省略&100\%&(54/54)&100\%&(54/54)&100\%&(51/51)&96\%&(51/53)\\&&スル省略&100\%&(2/2)&100\%&(2/2)&---\%&(0/0)&---\%&(0/0)\\&&その他(常識の利用)&72\%&(13/18)&76\%&(13/17)&56\%&(10/18)&59\%&(10/17)\\&&読者にも補完不能&0\%&(0/6)&---\%&(0/0)&0\%&(0/11)&---\%&(0/0)\\\hline\end{tabular}\end{center}各規則で与える得点は学習サンプルにおいて人手で調節した.\\{学習サンプル\{小説「ボッコちゃん」前半分(2614文)\cite{bokko}\}テストサンプル\{小説「ボッコちゃん」後ろ半分(2757文)\cite{bokko}\}評価に適合率と再現率を用いたのは,動詞を補う必要のない文末に対してシステムが誤って動詞を補ってしまう場合があり,この誤りを適切に調べるためである.再現率はシステムが正しく省略を補った文末の個数を,実際に省略が存在する文末の個数で割ったもので,適合率はシステムが正しく省略を補った文末の個数を,システムが省略を補った文末の個数で割ったものである.また,図\ref{fig:shouryaku_bunrui}の分類にはない「読者にも補完不能」という分類を新たに設けた.これは,発話が途中で中断されたものや,その文章のそこまでの読みでは読者にもまだわからないものである場合を意味する.これらに対する補完は困難であるので,常識を利用する方法の評価を正しく行なうために,ここの表では「その他(常識の利用)」とは別の分類とした.全分類では,「読者にも補完不能」という分類を含めて精度を求めている.「読者にも補完不能」は読者にも補完ができないので精度の算出には用いない方がよいと一見思えるが,「読者にも補完不能」であるような省略が存在していることをシステムが認識する必要があるので精度に含めた.}\end{minipage}}\end{table}実験は小説「ボッコちゃん」\cite{bokko}で行なった.これは新聞などよりも小説の方が多様な省略現象を含んでいるからである.また,実験においては実験テキストを学習サンプルとテストサンプルの二つに分けた.本研究の規則は学習サンプルを見て作成し,テストサンプルではその作成した規則の有効性を調べた.本研究で提案した手法で動詞の省略の補完を行なった結果を表\ref{tab:sougoukekka}に示す.本研究の実験の評価をする上で,正解の基準は以下のように緩めに設定した.動詞の省略の補完においては,テンスやアスペクトや丁寧表現などが異なっていても補うべき動詞が正しければ正解とした.テンスやアスペクトなどの問題は前後の文脈や話者と聴者の間の立場上の関係などが,影響するので,文と文の間の意味的な関係の研究や話者と聴者の間の立場上の関係の把握の研究において行なわれるべき問題と考え,ここでは扱わなかった.また,疑問文における省略については疑問であることさえ推定できればよいとした.また,ダの省略の解析では,名詞を列挙している部分も「だ」を補うことができればよいとしている.また,正解がテキスト内の動詞であっても,コーパスなどから補ったものがほぼ同様な動詞である場合は正解としている.\subsection{考察}表\ref{tab:sougoukekka}のようにテストサンプルにおいても再現率84\%,適合率82\%という比較的高い精度を得た.このことから本研究で作成した規則が有効であることがわかる.省略現象ごとの精度では,テキスト内補完の方がテキスト外補完よりも精度がよい.これは,テキスト内補完の場合補完する動詞の場所を特定するだけで良いので簡単であるが,テキスト外補完の場合補完する動詞がテキスト中にないことを判定したうえ補完する動詞を知識から持ってこないといけないため,難しいことを意味している.また,コーパスを利用して解析する「その他(常識の利用)」の精度はあまり良くなかった.しかし,「その他(常識の利用)」については解析が困難なので半分程度解析ができるだけでも価値がある.この手法は今後コーパスが増加した際には極めて主要な手法となるだろう.また,本稿では単なる文字列マッチングで類似度を計算していたが,意味や品詞情報を用いた類似度の算出を行なっていく必要がある.さらには,前文との兼ね合いを調べるために,前文の文のタイプ(疑問文であるか否かなど)が一致する用例のみから欲しい文を探し出すなどのことも行なわないといけない.規則を作成するために利用した学習サンプルの実験においては「その他(常識の利用)」「読者にも補完不能」以外の分類では再現率はすべて100\%であった.しかし,適合率については100\%でないものもあった.これは,推定の困難な「その他(常識の利用)」「読者にも補完不能」の分類にあたるものや省略・倒置が存在していないものを「その他(常識の利用)」以外の省略・倒置と推定し,システムが補った省略の個数が求めるべき省略の個数を上回ったため適合率が下がったものである.テストサンプルにおいては「その他(常識の利用)」以外の分類は今でも精度が高いが,誤ったものの中にはそれぞれの規則で表層表現の利用を精密にすることで改善できるものがあった.また,次のような新しい種類の規則が必要となるものがあった.\begin{equation}\begin{minipage}[h]{9cm}\vspace*{0.3cm}そのとたん、私は大きな悲鳴を聞いた。\\ちょうど、逃げ場のない場所で、なにかに押しつぶされているような、\underline{おそろしい声の……}。\vspace{0.3cm}\end{minipage}\end{equation}この例では「おそろしい声の」が前文の「大きな悲鳴」の補足となっている.これについては,以下の規則を利用すれば今後は解析可能となる.\begin{equation}\begin{minipage}[h]{9cm}\vspace*{0.3cm}文末が``名詞A+「の」''の形であり,``名詞A+「の」+名詞B''の形の用例を集め,名詞Bと意味的に近い名詞が前の文にある場合,その名詞に対する補足であると解釈する.\vspace*{0.3cm}\end{minipage}\end{equation} \section{おわりに} 本研究では,表層表現と用例を用いて省略された動詞を補完するということを行なった.実験の結果,テストサンプルで再現率84\%,適合率82\%の精度で解析できた.テキスト内に補完すべき動詞がある場合は非常に精度が良かった.それに比べ,テキスト内に補完すべき動詞がない場合はあまり良くなかった.しかし,テキスト内に補完すべき動詞がない場合の問題の難しさから考えると,半分程度解析ができるだけでも価値があると思っている.また,コーパスが多くなり,計算機の性能もあがり大規模なコーパスが利用できるようになった際には,本稿で提案した用例を利用する手法は重要になるだろう.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,工学博士.現在,京都大学にて日本学術振興会リサーチ・アソシエイト.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976--1994).京都大学大型計算機センター長(1986--1990),日本認知科学会会長(1989--1990),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991--1993),機械翻訳国際連盟初代会長(1991--1993).電子情報通信学会副会長(1993--1995).情報処理学会副会長(1994--1996).京都大学附属図書館長(1995--1997).京都大学大学院工学研究科長(1997--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V28N03-09
\section{はじめに} 自然言語処理分野では,シンボルグラウンディング課題\cite{The.Symbol.Grounding.Problem}が注目を集めている.自然言語と画像や動画といった実世界を表すものを紐づけたコーパスが数多く公開され,利用可能となっている\cite{KUSK.Dataset:.Toward.a.Direct.Understanding.of.Recipe.Text.and.Human.Cooking.Activity,Flow.Graph.Corpus.from.Recipe.Texts,A.Survey.of.Current.Datasets.for.Vision.and.Language.Research}.このようなデータセットを活用したシステムの例として,画像や動画からの文生成\cite{Automatic.Sentence.Generation.from.Images,Corpus-Guided.Sentence.Generation.of.Natural.Images}などがある.我々は,チェスのような展開型ゲームへの解説文は真に知的なシステムを開発するためのテストベッドとなると考えており,特に将棋に着目している.典型的な画像キャプショニングと異なり,将棋解説文は過去や未来への言及を含む.一方で,ゲームの世界は明確に定義されており,解説文中の過去や未来への言及の多くはゲーム木の中に対応づけることができる.また,自然言語の曖昧性の一部は,その事象が実現するか否かをゲームの世界におけるゲーム木探索\cite{Tsuruoka02game-treesearch}を活用して評価することで解消が期待できる.この性質を活用し,我々はゲーム解説生成システムを機械学習ベースの手法により構築した\cite{Learning.a.Game.Commentary.Generator.with.Grounded.Move.Expressions}.本論文では,我々が構築したゲーム解説コーパスの説明を行う.我々は人間によるゲーム状態(将棋などのゲームにおいては\doubleQuote{局面}と呼ばれる)に紐づいた解説文を収集し,その一部に人手で以下の複数の層からなるアノテーションを行った.\begin{itemize}\item日本語テキストに対する単語分割アノテーション\item将棋ドメイン特有の固有表現(NamedEntity;NE)タグの定義とアノテーション\item過去・未来や非事実の事象への言及を認識する上での事象の事実性とそれを伝えるモダリティ表現を表すための3層のアノテーション\end{itemize}本コーパスに期待される活用ケースは以下の通りである.\begin{itemize}\itemゲーム世界は明確に定義されており,またこれらのゲームを解くAIプレイヤの中には人間トッププレイヤを上回る性能のものがある.これらのAIプレイヤは局面を理解したり解析するのに役立てられている.本コーパスはこれらのAIを活用したシンボルグラウンディング研究への活用が期待できる.\item解説文は現在の局面だけでなく過去や未来,あるいは仮定の局面への言及を含む.モダリティ情報を解析することは,これらの解説文を理解する上で重要である.本コーパスは,実世界を参照するモダリティ情報解析研究への活用が期待できる.\item本コーパスはNEとモダリティ表現のアノテーションの両方を含む,局面に対応する解説文からなる.これらの要素の間には強い相関がある.例として,モダリティ表現は時として局面と解説文中のNEとの関連性を表している.実世界の状態・NE・モダリティ情報の関連性を解析することは,自然言語を理解する上で非常に重要である.本コーパスは,このような解析課題におけるテストベッドとしての活用が期待できる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ゲーム解説コーパス}\shortciteA{jhamtani2018learning}はチェスの自動解説システムの学習のため,チェスの解説文コーパスを構築した.このコーパスはゲームの履歴とその履歴中のそれぞれの局面に対応するコメントからなる.ゲーム履歴とそのコメントはオンラインフォーラムへ投稿されたものであり,そのゲームのプレイヤやコメントを付与した人は専門のプレイヤや解説者とは限らない.そのため,このコーパスのゲームの実力の上での質を保証することはできない.本研究では,プロ棋士同士の対局棋譜と,専門家によって付与された解説文に着目する.これにより,コーパス中の棋譜や解説文の品質が担保されていると期待できる.\shortciteA{pasunuru2018game}はビデオゲームのライブストリーミング動画とその動画にライブストリーミング中に付けられた視聴者のコメントからなる対話コーパスを構築した.このコーパスはサッカーゲームのプレイ動画を放送しているライブストリーマーの動画に着目して動画とコメントを収集している.これらのコメントは,他の視聴者のコメントへの返信が含まれており,ゲーム動画に紐づいた対話コーパスとなっている.このコーパスはビデオゲームを対象としており,チェスや将棋における局面に対応する,本ビデオゲームにおけるゲーム状態は動画である.そのため,チェスや将棋のように記号化されておらず,またビデオゲームの内部状態にアクセスすることができないことから,これを世界モデルとして用いることは難しく,チェスや将棋のように探索によって過去や未来の局面にアクセスすることは容易ではない.本研究で対象としているのは将棋の棋譜と解説文である.将棋はゲーム世界が記号化されており,かつその遷移のルールがよく定義されている.また,ゲームプログラミング分野においてコンピュータ将棋プログラムの研究は長年に渡って行われており,十分な性能を持ったコンピュータ将棋プログラムを局面の解析器として活用することができる.これらは,実世界の代替としてのゲーム世界と,それに言及している自然言語との対応関係を獲得する上で大きな助けになると期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モダリティコーパス}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モダリティ表現}一般に,文章には命題だけでなく,その命題に対する情報発信者の主観的な態度も記述される\cite{Palmer,masuoka1991modality}.そのような態度を\textbf{モダリティ}と呼び,それを示唆する文章中の表現を\textbf{モダリティ表現}と呼ぶ.英語において,TimeML\cite{HLA-TimeML,SauriVP06}と呼ばれる時間表現と事象を表現するマークアップ言語によってモダリティ表現と事象のモダリティを表現することができる.主なモダリティ表現は\doubleQuote{must}や\doubleQuote{may}といった助動詞で,これらは$\langle$MAKEINSTANCE$\rangle$タグの$@$modality属性として表現される.事象のモダリティはテキスト中のその事象の周辺に現れるモダリティ表現によって決定され,事象に関連する助動詞や否定がラベル付けされて事象のモダリティを表現する.日本語においては,多数の文末表現を収録した辞書が編纂されており\cite{shuto2010jdmwe,matsuyoshi2007dict},必要に応じてこれらの辞書を利用してモダリティ表現を自動検出していることが多い\cite{Izumi-Modality,Suzuki-Modality}.\shortciteA{matsuyoshi2010factuality}と\shortciteA{Kamioka-Modality}は現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese;BCCWJ)\footnote{\url{https://ccd.ninjal.ac.jp/bccwj/}}\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}に対してモダリティ表現・事象のモダリティ・事実性ラベルを付与した.\shortciteA{matsuyoshi2010factuality}はモダリティクラスを定義し,それらをそれぞれの事象にラベル付けした.\shortciteA{Kamioka-Modality}は機能表現集合を定義してBCCWJに人手アノテーションを行った.また,これらは事実性ラベルをFactBankのガイドラインに従ってアノテーションを行った.日本語における先行研究が対象としている主なモダリティ表現は,助動詞や助動詞型機能表現,および叙実動詞である.本研究では,品詞にかかわらず,広くモダリティ表現をラベル付けする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事象のモダリティ}テキストにおいて述語項構造によって表現される命題のことを\textbf{事象}と呼ぶ.TimeML\linebreak\cite{HLA-TimeML,SauriVP06}に従い,行動や出来事のみでなく,述語項構造によって表現される状態や状況のことも事象という用語で指すこととする.事象に対する情報発信者の主観的な態度は,テキストにおいて事象の周辺に存在する複数のモダリティ表現により決定される.英語においては,TimeMLに見られるように,関連する助動詞や否定辞を直接ラベル付けする.%%%%日本語において,\shortciteA{matsuyoshi2010annotation}はいくつかのモダリティクラスを定義し,日本語において,松吉他(2010)はいくつかのモダリティクラスを定義し,事象にそのクラスの一つを付与した.これは,日本語は膠着言語であり,英語での方法を直接適用することは難しく,また日本語には同じような意味を表す複合辞が豊富に存在するためである.本研究では,この分類を再整理し,事象のモダリティに含意関係認識や情報検索などの応用タスクも考慮したクラスを追加する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事実性}英語において,\shortciteA{sauri2009}は,事象のモダリティクラスのうち,推測と否定に関する項目を切り出し,\textbf{事実性}ラベルの体系を提案した.彼らはこの体系に従って人手でアノテーションを行い,事象の事実性をアノテーションしたコーパスであるFactBank\cite{FactBank}を構築した.%%%%日本語においてもこの体系が取り入れられ,事実性アノテーションが実施されている\cite{Kamioka-Modality,matsuyoshi2010annotation}.日本語においてもこの体系が取り入れられ,事実性アノテーションが実施されている(Kamiokaetal.2015;松吉他2010)\nocite{Kamioka-Modality,matsuyoshi2010annotation}.本研究でも,FactBankの事実性アノテーション体系を取り入れて事実性のラベルを付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-3ia5-2f1.pdf}\end{center}\caption{将棋(初期局面).}\label{fig:将棋盤}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{将棋とその解説文} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{将棋}将棋はチェスに似た2人ゲームである.初期局面を\figref{fig:将棋盤}に示す.ゲームの目的は相手の玉\footnote{チェスにおけるKingを将棋の場合は一般的に王ではなく玉と呼ぶ.}を捕まえることであり,お互いのプレイヤは交互に駒を1個動かす.将棋において各プレイヤが選択する1手を指し手と呼ぶ.チェスとの最大の違いは,将棋では駒を動かす代わりに捕まえた相手の駒を自分の持ち駒として盤上に打つことができる点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{将棋の解説文}\label{subsec:commentary}プロ棋士と呼ばれる職業プレイヤ同士の対局の多くに対して,第三者のプロ棋士や観戦記者と呼ばれる将棋の観戦記事の執筆を専門とする新聞記者が解説文を付けている.それぞれの解説文は,指し手の理由や現在局面の評価,次の手の予測などを含む.これらの解説文は,棋譜と呼ばれるゲームの履歴と共に~\figref{fig:解説アプリ}のような形式で配信されている\footnote{2021年7月時点ではKifuforJavaScript(\url{http://kakinoki.o.oo7.jp/js/kifujs.html})が用いられている.}.我々は,これらを収集することで大量の局面と解説文の組を入手することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-3ia5-2f2.pdf}\end{center}\hangcaption{インターネット上で配信されている棋譜とその解説.専門家による解説文が画面下部に表示されている.(図は著者による擬似的な棋譜と解説文)}\label{fig:解説アプリ}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの解説文の多くは,指し手符号と呼ばれる記法を用いて局面への言及を行っている.指し手符号の例として,\doubleQuote{\underline{\whiteP1四香}とすれば決戦}などがある.なお,解説文の一部はプレイヤのプロフィールなど局面と無関係な情報への言及である.将棋の解説文は,過去への想起や未来の想像を多く含んでいる.これらの過去や未来への言及は,多くの場合指し手符号によってその言及されている局面を示している.例として,過去への言及は\doubleQuote{その前の\whiteP8七歩に対しても(以下解説)}といったように,対象の手を指した過去の局面を示す.また,未来の想像への言及は\doubleQuote{恐らく\blackP2四歩\whiteP同歩\blackP同角を狙う}といったように,想像した未来の局面への手順を示す.このように,それぞれの解説文は紐づいている局面そのものではなく,過去や未来の局面に言及していることがあるというのが,本研究で着目している将棋解説文の大きな特徴の一つである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-3ia5-2f3.pdf}\end{center}\hangcaption{ゲーム木探索とその局面への解説文の関係.解説者は現在局面だけではなく,過去や未来の局面,あるいは仮定の局面について,ときには予測を行いながら言及する.}\label{fig:ゲーム木}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{解説文とゲーム木}将棋解説者は,次の手や将来起こり得る局面といった未来の予測について言及することがある.この未来の予測の表現方法は,主として2通りある.一つは,\ssecref{subsec:commentary}で示したように指し手符号の列を提示する方法である.もう一つは,\doubleQuote{矢倉囲いになりそう}といったように戦形名や囲いの名前などの将棋特有の表現を用いて未来の局面を表現する方法である.これらのドメイン特有の表現を認識するため,我々は将棋ドメイン特有の固有表現を定義する.解説者が予想を説明するとき,\doubleQuote{になりそう}といったモダリティ表現を用いることがある.例として,\figref{fig:ゲーム木}の場合は,\doubleQuote{振り飛車になりそう}という解説文で,解説者は振り飛車という戦型になる可能性が高いと考えていることを表現している.この文を理解するためには,(a)モダリティ表現と(b)そのモダリティ表現が言及している事象を正しく認識する必要がある.\figref{fig:ゲーム木}における未来の局面は以下の条件を満たす.(1)その未来の局面は現在の局面から到達可能である.(2)その未来の局面は振り飛車が選ばれた局面である.(3)その未来の局面は解説者が実現する確率が高いと評価している局面である.ゲームのルールが明確に定義されていることから,局面からゲーム木を生成することは容易であり,特に(1)は展開された木を走査することで確認ができる.また(2)は判定のルールを用意するなどで確認ができる.(3)の条件は,十分に強いAIプレイヤを解説者の代わりとして用いることで,それぞれの局面の評価を求めることで確認することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{固有表現} この節では,将棋固有表現(shoginamedentities;sNE)の定義について説明する.解説文は多くのドメイン特有の表現を含み,これらの表現は一般ドメインや生物医学ドメインにおけるNEと同じようにいくつかのグループに分けることができる.将棋プレイヤはこれらのsNEやそのカテゴリ名に慣れ親しんでいることが多い.\figref{fig:layers}にアノテーション例を示す.これは後述するモダリティアノテーションの例も含む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-3ia5-2f4.pdf}\end{center}\hangcaption{固有表現・モダリティ表現・事象クラス・事実性ラベルのアノテーション例.(例文は第72期順位戦C級2組4回戦矢倉規広六段対神埼健二七段の対局への解説文)}\label{fig:layers}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{指し手符号}\label{sec-notation}将棋には,棋譜の記録のために定義された指し手符号と呼ばれる記法がある.指し手符号は以下に示す部分に分解することができる.\begin{description}\item[\ssf{Tu}:]手番(turn).このカテゴリは\doubleQuote{先手},\doubleQuote{後手},\doubleQuote{\blackP}(先手),\doubleQuote{\whiteP}(後手)のみを含む.\item[\ssf{Po}:]場所(position).\doubleQuote{7六}など,一つのアラビア数字と一つの漢数字からなる.アラビア数字が列を,漢数字が行を示す.\item[\ssf{Pi}:]駒の種類(piece).\doubleQuote{歩}や\doubleQuote{金}などがある.駒の種類は成駒を含む14種類である.\item[\ssf{Ps}:]駒の詳述(piecespecification).指し手符号は原則として手番・動く先の場所・駒の種類の3要素からなるが,同じ場所に動ける同じ種類の駒が複数あってこれを満たす指し手に曖昧性がある場合に,この曖昧性を解消するために付与される.例として,\doubleQuote{右}は右の駒を動かす場合に付与される.\item[\ssf{Mc}:]指し手の明確化(movecomplement).このカテゴリは\doubleQuote{成}と\doubleQuote{不成}のみを含む.将棋には\doubleQuote{成り}と呼ばれる駒の動きを変化させる指し手があるが,この成りを選択できる場合に選択するかしないかを示すものである.\end{description}全ての指し手符号は以下のパターンに含まれる.\[\text{\ssf{Tu}\;\ssf{Po}\;\ssf{Pi}\;(\ssf{Ps})\;(\ssf{Mc}).}\]なお括弧は含むかどうかが選択的であることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{指し手に関する表現}いくつかの指し手について,解説者は指し手符号ではなく以下のような表現を用いて言及する.\begin{description}\item[\ssf{Mn}:]指し手の名前(movename).例として次の1手で相手の玉を取れる局面に移行する手であることを意味する\doubleQuote{王手}などがある.\item[\ssf{Me}:]指し手の評価(moveevaluation).例として良い手であることを意味する\doubleQuote{好手}などがある.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定跡に関する表現}将棋における序盤の決まった指し手の順を定跡と呼ぶ.それぞれの定跡は以下のような名前を持つ.\begin{description}\item[\ssf{St}:]戦型名(strategyname).定跡のうち,主に攻撃の形を表現する.基本的に戦型名の集合は閉じているが,新たな戦型が編み出され,それに新しい名前がつけられることもある.例として,\doubleQuote{ゴキゲン中飛車}などがある.\item[\ssf{Ca}:]囲いの名前(castlename).囲いとは玉の周りの駒の特定の配置を示し,主に防御の形を表現する.戦型名と同様囲いの名前の集合は基本的に閉じているが,新しい囲いが開発され命名されることもある.例として\doubleQuote{ミレニアム}があるが,これは2000年に新しく開発された囲いの名前である.\end{description}これらはシンボルグラウンディング研究において最初の対象となりうる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{局面の評価に関する表現}解説文のもっとも重要な要素は,現在の局面の評価である.例として\doubleQuote{先手が勝ちそう}のような表現で局面の評価に言及される.\begin{description}\item[\ssf{Ev}:]盤面全体の評価(evaluation).例として,評価が高いことを表す\doubleQuote{自信あり}や,逆に低いことを表す\doubleQuote{大変}などがある.このカテゴリは以下のカテゴリが示すような特定の視点からの評価に関する表現を含まない.\item[\ssf{Ee}:]特定の視点からの評価(evaluationelement).例として,駒を相手より多く獲得していることを意味する\doubleQuote{駒得}や,それぞれの駒の場所を評する\doubleQuote{配置が良い}などがある.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{場所に関する表現}解説者はそれぞれのマスを直接指す以外に,以下のような表現で盤上の場所を示すことがある.\begin{description}\item[\ssf{Re}:]盤上の一部(region).例として,\doubleQuote{中央},\doubleQuote{4筋},\doubleQuote{3段目}などがある.\item[\ssf{Pa}:]駒の属性(pieceattribute).駒にはそれぞれ動ける方向があり,これについて言及したもの.例として,斜めに複数マス動ける角の動けるマスを意味する\doubleQuote{道}などがある.また,これに関連して駒との相対的な位置関係を示す表現もある.例として,駒の隣のマスを意味する\doubleQuote{腹}などがある.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{局面に関する表現}上記以外にも局面に関する表現がある.\begin{description}\item[\ssf{Ph}:]ゲームの進行具合(phase).代表例として\doubleQuote{序盤},\doubleQuote{中盤},\doubleQuote{終盤}があるが,これ以外にも\doubleQuote{終盤の入り口}のような表現もある.\item[\ssf{Pq}:]駒の数(piecequantity).基本的には基数詞と助数詞の組からなるが,駒が無いことを示す\doubleQuote{切れ}や,駒が多くあることを示す\doubleQuote{豊富}なども存在する.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{盤面外の事象に関する表現}解説者は,盤面とは関係ないが対局に関係することに言及することがある.\begin{description}\item[\ssf{Hu}:]プレイヤや解説者などの人名(human).\doubleQuote{名人}などの称号も含まれる.また,複数人のグループを意味する表現も含み,例としてゲームの内容を議論する第三者が集まる部屋である\doubleQuote{検討室}も含まれる.なお,他のカテゴリに人名を含む場合があり,例として\doubleQuote{石田流}は石田検校が生み出したとされる戦型であることからこう名付けられているが,これに含まれる\doubleQuote{石田}にはHuラベルは付与しない.\item[\ssf{Ti}:]時間(Time).消費した時間や残り時間などに関する言及において用いられる.例として,\doubleQuote{残り時間は\tag{10分}{Ti}。}といった表現がある.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{行動に関する表現}一般的なNEと異なり,我々は動詞的なNEも定義する.\begin{description}\item[\ssf{Ac}:]プレイヤが主語である動詞(action).このカテゴリに含まれる表現は,盤面に関連するものである.例として,駒を相手に取らせることを意味する\doubleQuote{捨てる}などがある.一方で,ゲームに関係しない行動である\doubleQuote{目を瞑る}などは含まない.\item[\ssf{Ap}:]主語が駒である動詞(actionbypiece).将棋解説文においては,駒を手前に動かすことを\doubleQuote{駒が下がった}というように駒が主体であるかのような表現をすることがある.\item[\ssf{Ao}:]上記以外の動詞(actionbyother).例として\doubleQuote{戦いが始まる}などの表現がある.\end{description}なお,活用語尾にはタグを付与しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{その他の表現}上記以外の関連する表現にも以下のカテゴリとしてラベルを付与する.\begin{description}\item[\ssf{Ot}:]その他の重要な表現(other).典型例として,\doubleQuote{戦型}など上記のカテゴリそのものを指す表現がある.これは\ssf{St}には含まない.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{モダリティ情報} この節では,本コーパスにおけるモダリティ情報アノテーションについて説明する.本コーパスを構築するにあたり,我々は3層のモダリティ情報アノテーション体系を設計した.例を\figref{fig:layers}に示す.日本語においてモダリティ表現を認識する先行研究はいくつか存在する\cite{Suzuki-Modality,Izumi-Modality,Kamioka-Modality}が,これらは助動詞と機能語からなる表現に着目しており,モダリティ副詞や接続助詞を対象としていない.対して,我々は品詞の限定をせず全てのモダリティ表現にアノテーションを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第1層:モダリティ表現}モダリティ表現は命題や事象のモダリティを文中の命題に付与する単語あるいや複数単語からなる表現である.以下にモダリティ表現の例を示す.(MEがモダリティ表現を示し,EVはそのモダリティ表現に対応する事象を示す.){\renewcommand{\labelenumi}{EX\theenumi}\setlength{\leftmargini}{34pt}\begin{enumerate}\item後手は歩を成り\tag{捨て}{EV}\tag{た}{ME}\label{EX:ta}\itemこの試合では居飛車を\tag{採用}{EV}する\tag{かもしれな}{ME}い\label{EX:kamo}\item\tag{おそらく}{ME}\whiteP1四香が\tag{良好}{EV}\label{EX:prob}\item\blackP8五桂の\tag{跳ね}{EV}出しを\tag{防}{ME}いだ\label{EX:prevent}\itemここで△1四歩と\tag{受け}{EV}れ\tag{ば}{ME}先手はつらい\label{EX:if}\end{enumerate}}\exref{EX:ta}の\doubleQuote{た}は過去時制の助動詞であり,その事象が事実であることを示す.\exref{EX:kamo}の\doubleQuote{かもしれな}は複数単語で助動詞としての機能を果たし,低い確率でその事象が生じることを示す.\exref{EX:prob}の\doubleQuote{おそらく}はその事象が確実ではないが生じそうであることを示す副詞である.\exref{EX:prevent}の\doubleQuote{防}は本動詞であると同時に対象となる事象が生じる可能性を否定するモダリティ表現としても用いられている.この反実仮想的な動詞は\doubleQuote{跳ね}が表す事象が起こらないことを明示している.\exref{EX:if}の\doubleQuote{ば}は条件を示す助詞である.対象の事象は仮定の下に言及されており,その事実性はこの文からは不明である.モダリティ情報アノテーション体系の第1層として,これらのモダリティ表現へのアノテーションを行う.モダリティ表現として,以下の通り事実性関連のものと時間関連のものの2群を定義する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事実性関連}以下の5種類は確信度や極性に関連するものである.\begin{description}\item[\ssf{MEy}]確実な肯定を示唆.銀の\tag{捕獲}{EV}に\tag{成功}{MEy}\item[\ssf{MEa}]肯定の可能性を示唆.先手はこのあと居飛車に\tag{組}{EV}む\tag{可能性が高}{MEa}い\item[\ssf{ME0}]可能性を保留.後手陣に\tag{迫}{EV}る攻めがある\tag{かどうか}{ME0}\item[\ssf{MEm}]否定の可能性を示唆.先手の角も\tag{あまり}{MEm}\tag{利}{EV}いていない\item[\ssf{MEn}]確実な否定を示唆.\whiteP9四歩とは\tag{し}{EV}\tag{な}{MEn}かった\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{時間関連}以下の3種類は,極性にかかわらず時系列に関連するものである.\begin{description}\item[\ssf{MEp}]過去を示唆.銀\tag{交換}{EV}に応じ\tag{た}{MEp}\item[\ssf{MEf}]未来を示唆.先手は\tag{将来}{MEf}的に飛車を\tag{振}{EV}ることになる\item[\ssf{MEh}]仮定の話であることを示唆.ここで\whiteP1四歩と\tag{受け}{EV}れ\tag{ば}{MEh}先手はつらい\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第2層:事象クラス}テキストにおいて述語項構造によって表現される命題のことを事象と呼ぶ.TimeML\cite{TimeML}に従い,行動や出来事のみでなく,述語項構造によって表現される状態や状況のことも事象という用語で指すこととする.本研究では,以下に示す事象クラスを導入し,それぞれの事象に対して事象クラスのラベルを付与する.事象クラスとして,以下の通り事象らしさ関連と態度関連の2群を定義する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{事象らしさ関連}形式上は述語句の形をしている表現が,実質的な命題を指さず,機能語相当であるということがある.以下の5クラスは,一般の事象および事象でない述語句に関する分類である.\begin{description}\item[\ssf{EVe}]断定や推量の事象.事実性ラベルの付与が必須である.後手は歩を成り\tag{捨て}{EVe}た\item[\ssf{EVc}]対象述語が複合名詞の一部になっているもの,または対象述語が別の述語句の修飾要素になっているもの.本動詞としても解釈できる機能動詞や複合辞内の述語.\tag{遊び}{EVc}駒をぶつけた\tag{残り}{EVc}時間は10分\item[\ssf{EVf}]機能語,もしくは複合辞の一部.封じ手に\tag{つ}{EVf}いて検討が進んでいる\item[\ssf{EVi}]時間軸上に接地できない概念.主として仮定された事象と事象タイプを指すものがある.ここで\whiteP1四歩と\tag{受け}{EVi}れば先手は\tag{つら}{EVi}い\item[\ssf{EVs}]明喩や暗喩.先手陣を\tag{あざ笑}{EVs}うかのような進行\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{態度関連}以下の3クラスは,断定と推量を除く書き手の態度に関連するものである.\begin{description}\item[\ssf{EVa}]希望,依頼,命令,勧誘など.多くのファンに\tag{楽し}{EVa}んでもらいたい\item[\ssf{EVq}]疑問や問い掛け.先手は桂を\tag{取}{EVq}るか\item[\ssf{EVp}]許可.サイン会だけの\tag{参加}{EVp}も可能です\end{description}事象クラスを導入する主な理由は,\ssecref{ssec:factuality}に示す事実性のラベルの付与が必須である事象(EVe)とそうでない事象を区別するためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{第3層:事実性}\label{ssec:factuality}アノテーション体系の第3層として,\ssf{EVe}が振られた事象について,その事実性のラベルを付与する.なお,事実性は事象クラスのサブタイプであるが,FactBank\cite{FactBank}のアノテーション体系を採用し国際的な統一規格に従うため,事実性解析のみに着目する研究における利便性のための2点の理由から,事実性を独立の層とするアノテーション体系を設計した.事実性ラベルとして,FactBank\cite{FactBank}で提案されているアノテーション体系を利用する.ただし,\ssf{Uu}はこれが付与されうる事象クラスは\ssf{EVq}または\ssf{EVi}であって\ssf{EVe}ではないため,本コーパスへのアノテーションには利用しない.以下の6種類を事実性ラベルのアノテーションに用いる.またFactBankにおける値を$<>$で示す.\begin{description}\item[\ssf{FPc}]事象の成立を断定する.$<$\ssf{CT$+$}$>$後手は歩を成り\tag{捨て}{FPc}た\item[\ssf{FPr}]事象の成立を高い確信度で推測する.$<$\ssf{PR$+$}$>$おそらく\whiteP1四香が\tag{良好}{FPr}\item[\ssf{FPs}]確信度は低いが,事象の成立を推測する.$<$\ssf{PS$+$}$>$この試合では居飛車を\tag{採用}{FPs}するかもしれない\item[\ssf{FNc}]事象の不成立を断定する.$<$\ssf{CT$-$}$>$角\tag{交換}{FNc}には応じなかった\item[\ssf{FNr}]事象の不成立を高い確信度で推測する.$<$\ssf{PR$-$}$>$穴熊に\tag{組}{FNr}むつもりはないだろう\item[\ssf{FNs}]確信度は低いが,事象の不成立を推測する.$<$\ssf{PS$-$}$>$\whiteP9四歩は\tag{指}{FNs}しづらいかもしれません\end{description}なお,事象クラスと事実性は共にモダリティ表現の性質であるが,本アノテーション体系では,これらのラベルを事象に対して付与している.これは,第一に事象の統計調査やフィルタリングを実施する際に事象にラベルがついていた方が都合がよいという応用的理由である.第二に,モダリティ表現そのものの性質は例文によらず,曖昧性の解消など一部の例外を除いてコーパスへのタグ付与ではなくつつじ\cite{matsuyoshi2007dict}などのモダリティ表現の辞書による整理の方が適切であると考えているためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーションコーパス} この節では,本コーパス作成におけるアノテーションの手順を説明する.またアノテーションされた本コーパスの諸元を示す.加えて,本コーパスを用いた予備的な分類実験について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション手順}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{将棋解説文データの収集}はじめに,人間の専門家による解説文が付与されたプロ棋士同士の対局棋譜を収集した.我々は名人戦と順位戦と呼ばれる棋戦の棋譜を生配信しているWebサイト\footnote{名人戦棋譜速報.\url{http://www.meijinsen.jp/}(2021年4月21日アクセス.)収集方法の詳細は後述.}から収集した.名人戦は最高位のタイトル戦の一つであり,順位戦は名人戦の予選大会である.ほとんどのプロ棋士が順位戦に参加しており,また最近の全ての対局がこのWebサイトを通じて配信されている.そのため,特定のプレイヤの棋譜を多く収集することによる棋譜の偏りが生じる可能性は低く,様々な戦型の棋譜が含まれている.本コーパスは6,523棋譜を含んでいる.本コーパスを構築するにあたり,我々はこのうち9棋譜(\tabref{tab-GCC}における\textit{manu.})の解説文に人手でのアノテーションを行った.それ以外の6,514棋譜(\tabref{tab-GCC}における\textit{auto.})は自動ラベリング対象の生テキストとして用いた.これらの解説文は日本語で書かれており,単語分割はされていない.そのため,我々は最初に単語分割アノテーションを行った.最初に形態素解析器のKyTea\footnote{\url{http://www.phontron.com/kytea/}}\cite{Word-based.Partial.Annotation.for.Efficient.Corpus.Construction,Pointwise.Prediction.for.Robust.Adaptable.Japanese.Morphological.Analysis}を用いて単語分割を行った.これに用いたKyTeaモデルは一般ドメインのコーパスである現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese;BCCWJ)\cite{Design.Compilation.and.Preliminary.Analyses.of.Balanced.Corpus.of.Contemporary.Written.Japanese}とUniDic辞書\cite{A.Proper.Approach.to.Japanese.Morphological.Analysis:.Dictionary.Model.and.Evaluation}を用いて学習されたものである.次に,将棋に詳しい日本語母語話者によって9棋譜に含まれる解説文の単語分割境界の修正を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{将棋NEのアノテーション}NEアノテーションを行うにあたり,我々は\iobタグ\cite{Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}を用いた.以下は解説文へのアノテーション例である.\begin{quote}広瀬/\ssf{Hu-B}は/\ssf{O}対/\ssf{O}ゴ/\ssf{St-B}キゲン/\ssf{St-I}中/\ssf{St-I}飛車/\ssf{St-I}の/\ssf{O}超速/\ssf{St-B}\blackP/\ssf{St-I}3七/\ssf{St-I}銀/\ssf{St-I}戦法/\ssf{St-I}を/\ssf{O}採用/\ssf{Ac-B}し/\ssf{O}た/\ssf{O}。/\ssf{O}\end{quote}(例文は第71期順位戦B級1組8回戦広瀬章人七段対久保利明九段の対局への解説文)このアノテーションは,将棋に詳しい日本語母語話者が行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モダリティ表現・事象クラスラベル・事実性ラベル}\label{subsub:mefprocess}モダリティ情報アノテーションにおいて,モダリティ表現のアノテーションには\iobタグ\cite{Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}を用いた.これは,モダリティ表現は複数の単語からなる可能性があるためである.一方で事象クラスラベルと事実性ラベルのアノテーションはそれぞれ1単語へのアノテーションであるため,各タグを直接それぞれ対応する単語に付与した.アノテーターはモダリティ表現・事象クラスラベル・事実性ラベルの順番でアノテーションを行った.このアノテーションは,モダリティに詳しい日本語母語話者が行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}\hangcaption{本コーパスの諸元.局面数は解説文が付与された局面のみを数えている.\doubleQuote{*}は自動解析の結果であることを示す.}\label{tab-GCC}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2and3\begin{table}[b]\setlength{\parindent}{0pt}\setlength{\captionwidth}{210pt}%%%%\begin{tabular}{@{}c@{}c@{}}\begin{minipage}{210pt}\input{05table02.tex}\caption{sNEの各タグの出現頻度と全体に占める割合.}\label{tab:freq_ne}\end{minipage}\begin{minipage}{210pt}\input{05table03.tex}\hangcaption{3層のモダリティ情報層の各ラベルの出現回数と全体に占める割合.}\label{tab:freq}\end{minipage}%%%%\end{tabular}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパス諸元}\tabref{tab-GCC}に本コーパスの諸元を示す.また\tabref{tab:freq_ne}にアノテーションされたsNEの数とその全体における割合を示す.表中の局面数は,解説文が付与されたもののみを数えた.1対局あたりの(解説文の有無を考えない)平均局面数は111であった.つまり37.8\%($=273,303/(6,514\times111)$)の局面に解説文が付与されていたことになる.\tabref{tab:freq}にモダリティ情報アノテーションの3層においてアノテーションされた各タグの数とその全体における割合を示す.本コーパスは1,622個のモダリティ表現と3,092個の\ssf{EVe}タグを含む.このうち2,646個は\ssf{FPc}が,140個は\ssf{FNc}が付与されており,これらはそれぞれ肯定または否定の断定を示すタグである.これら以外のタグは,その事象の事実性について推量を示すものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動解析器の学習実験}\label{subsec:experiments}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単語分割}本コーパスは単語分割境界の情報を含む.そのため,第一に本コーパスを用いて単語分割器の精度評価を行った.一般に,対象ドメインの単語分割済みコーパスを用いて単語分割器を学習することで,その性能を有意に向上させることができることが知られている\cite{Language.Resource.Addition:.Dictionary.or.Corpus?}.我々は,一般ドメインのコーパスで学習された単語分割器による精度評価とともに,本コーパスによって追加学習を行った単語分割器による精度も調査した.単語分割器としてKyTea\cite{Word-based.Partial.Annotation.for.Efficient.Corpus.Construction,Pointwise.Prediction.for.Robust.Adaptable.Japanese.Morphological.Analysis}を用いた.\tabref{tab-corpus}に実験に用いたコーパスの諸元を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{05table04.tex}\caption{各実験において用いたコーパスの諸元.}\label{tab-corpus}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}\caption{テストデータにおける単語分割精度.}\label{tab-WS}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab-WS}に結果を示す.一般ドメインのコーパスで学習されたベースラインの単語分割器の精度は不十分なものである一方,本コーパスによる追加学習によってその精度は大きく向上した.この結果から,我々は将棋解説文に対して正確な単語分割器を獲得することに成功したことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{固有表現認識}第二に,将棋NEの認識器の学習を行った.\pagebreak\tabref{tab-corpus}に実験に用いたコーパスの諸元を示す.本実験を行うにあたり,固有表現認識器のPWNER\footnote{\url{http://www.lsta.media.kyoto-u.ac.jp/resource/tool/PWNER/home.html}}を用いた.これは\iobタグベースの固有表現認識器であり,二つのモジュールから構成される.一つ目のモジュールは各\iobタグの確率を単語ごとに,他の単語のタグとは独立に予測する予測器である.確率の予測には対象単語の周囲の文字列と文字種(漢字・ひらがな・算用数字など)を素性として用いている.二つ目のモジュールは予測された\iobタグの確率から条件付確率場に基づいて最適なタグ系列を求める探索器である.\tabref{tab:fscore-ne}にsNEの予測精度を示す.適合率と再現率はそれぞれ0.9116,0.7894で,F値は0.8461であった.これは一般ドメインにおける精度(約0.9)\cite{Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition,Early.Results.for.Named.Entity.Recognition.with.Conditional.Random.Fields.Feature.Induction.and.Web-Enhanced.Lexicons}に近い値であり,この結果は本コーパスを用いて学習した固有表現抽出器がsNEの認識に成功していることを示している.タグのカテゴリごとに精度を比較するとばらつきが見られる.このうち,\ssf{Tu}や\ssf{Po}などが高い理由として,そのカテゴリが含む表現が限定的であることが挙げられる.例えば\ssf{Tu}は,\ssecref{sec-notation}に示したように,\doubleQuote{先手},\doubleQuote{後手},\doubleQuote{\blackP}(先手),\doubleQuote{\whiteP}(後手)の4表現のみから構成され,かつそれぞれの表現が頻出であることから,機械学習ベースの手法による認識は容易である.一方で,出現頻度の低いカテゴリについては,単純な機械学習ベースの手法による解決は難しい.Distantsupervison\cite{mintz2009distant}のような半教師あり学習手法などによって,学習データ量の不足と偏りを解決する必要がある.出現頻度が高いにも関わらず精度の低いカテゴリとして,\ssf{Hu}がある.これは対局者や観戦している第三者の名前を主な表現としているが,これらは基本的に同じ対局において大きな入れ替わりはない.本研究においてアノテーションは9棋譜を対象に棋譜中の全ての解説文に対して行っており,対局の多様性は担保できていない.棋譜中の解説文の前後関係に着目する目的があり,また棋譜を参照しながらアノテーションするため一連の棋譜の方がアノテーションにかかるコストが低いことが想定されたことから本研究では同一棋譜の全ての解説文にアノテーションを行ったが,表現の多様性に着目した場合はより適したアノテーション対象の選定方法が存在する可能性があり,対象の選定基準の改善は今後のアノテーションにおける課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6and7\begin{table}[t]%%%%\begin{tabular}{cc}\setlength{\parindent}{0pt}\setlength{\captionwidth}{210pt}\begin{minipage}{210pt}\input{05table06.tex}\hangcaption{sNEの認識結果.\textbf{頻度}はテストデータ中の対象ラベルの数を示す.}\label{tab:fscore-ne}\end{minipage}\begin{minipage}{210pt}\input{05table07.tex}\hangcaption{モダリティ表現・事象クラスラベル・事実性ラベルの認識結果.\textbf{頻度}はテストデータ中の対象ラベルの数を示す.\textbf{NA}はその値を計算できないことを表す.}\label{tab:fscore-modality}\end{minipage}%%%%\end{tabular}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モダリティ表現の認識と事実性ラベルの予測}モダリティ表現の認識と事象の事実性解析は非常に難しい課題である.これを示すため,簡単なモデルと素性を用いて分類器の学習を試みた.\tabref{tab-corpus}に実験に用いたコーパスの諸元を示す.本実験では,sNEの認識と同様にPWNERを用い,各モダリティ情報層に対して独立にモデルの学習を行った.事象クラスラベルと事実性ラベルは\iobタグのフォーマットは用いられていないが,\ssf{O}タグ以外の全てのタグを\ssf{TAG-B}に変換して\iobタグとして扱い,同様のモデルで予測を行った.\tabref{tab:fscore-modality}にそれぞれの認識結果を示す.各層のF値は,それぞれsNEのF値に比べて低いことが分かる.これはモダリティ情報の認識がNEの認識に比べて難しい課題であることを示している.モダリティ情報の認識のうち,モダリティ表現は出現頻度がある程度高いものはそれなりに高い性能を示しているが,事象クラスと事実性の認識の精度が非常に低く,難しい課題であることが分かる.難しい理由の一つに,これらのタグはモダリティを表す表現そのものへのタグではなく,そのモダリティ表現が係る事象へのタグであることが挙げられる.例として\doubleQuote{ここで\whiteP1四歩と\tag{受け}{EVi}れば先手は\tag{つら}{EVi}い}を考える.この文が仮定の事象への言及であることは\doubleQuote{ば}から分かるが,\ssecref{ssec:factuality}で述べた応用的理由によるアノテーションの設計により,アノテーション対象は\doubleQuote{ば}ではなく事象の\doubleQuote{受け}や\doubleQuote{つら}である.今回自動認識器として用いたPWNERは周辺単語のみからタグを推定するものであり,これらの表現が遠い場合はそもそもタグ推定に本来必要な情報が得られない可能性がある.それぞれの表現が近い場合でも,述語項構造を正しく解析する必要があると考えられる.その上で,事象の認識には局面の参照が有効である可能性がある.我々は本コーパスを用いて,モンテカルロシミュレーションによる探索空間と認識的モダリティ表現との関係性を考察した\cite{kameko2019monte}.実験においては有用性を検証するのに十分な結果は得られていないが,探索空間中の事象の出現頻度とモダリティ情報との間に相関があることが示唆された.本研究で構築した局面と対応づけられたモダリティ表現コーパスはモダリティ表現の自動認識手法の研究への活用が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの公開}本コーパスのうち,棋譜とそれに付与されている解説文は,棋譜速報サイト\url{http://www.meijinsen.jp}において有料で配信されている.我々はこれの収集スクリプトを\url{https://github.com/hkmk/shogi-comment-tools}において配布している.本コーパスのうち,我々が付与したラベル情報を\url{http://www.lsta.media.kyoto-u.ac.jp/resource/data/game/home.html}において配布している.これは上記の収集スクリプトを用いて収集した解説文付き棋譜に対して,ラベル情報を復元するスクリプトを含む.スクリプトの詳細は上記のWebページに記している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{コーパスの応用} 本コーパスに含まれる全ての解説文は,実世界の代替とみなせる局面に紐づいている.そのため,本コーパスはシンボルグラウンディング研究への活用が期待できる.以下に本コーパスの応用として考えられる研究課題を挙げる.この中でも特に我々はモダリティ情報の状態空間へのグラウンディング手法の確立(\ssecref{ssec:app_grounding})が本コーパスの活用の次の課題であり,その情報がモダリティ情報認識など他の課題解決に寄与すると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{固有表現認識とモダリティ情報認識}\label{ssec:app_recognition}本コーパスは局面と,sNEとモダリティ情報がアノテーションされた解説文のペアからなる.本コーパスを活用することで,固有表現認識やモダリティ表現認識にシンボルグラウンディング手法を応用することができる.特にモダリティ表現認識は現状の精度が低い難しい課題である.我々は,モダリティ表現は実世界に強く関係していると考えており,実世界を参照してモダリティ表現認識の精度を向上させることは非常に興味深い研究の方向性だと考えている.本コーパスを用いることで,局面を実世界情報とみなし,これを用いることによるモダリティ表現認識の精度向上への寄与を評価できる.また,別の方向性として,本コーパスにおける3層のモダリティ情報層の認識をマルチタスク学習手法を用いて解決することも考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モダリティ情報グラウンディング}\label{ssec:app_grounding}本コーパスはゲームを対象ドメインとしているため,\ssecref{ssec:app_recognition}に示した情報認識課題に探索手法を導入する手法の研究への応用が考えられる.モダリティ情報の認識に関連して,モダリティ情報の局面へのグラウンディングも興味深い研究課題である.ゲームを実世界の代替として用いていることで,ゲーム木を現在局面から到達可能な世界(アクセス可能世界)の集合であると見なすことができる.もし解説文が未来の局面に言及していた場合,その解説文は未来のアクセス可能世界と紐づいていると言える.モダリティ表現は現在の局面と言及された局面との関係性を示している.モダリティ表現の解析は自然言語の理解の上で非常に重要な要素であり,モダリティ情報のグラウンディングはモダリティ表現の認識を助けることが期待できる.本コーパス中の全ての解説文は局面に紐づいており,またsNEのラベルが付与されている.これらの情報は事象の事実性の解析に用いることができる.sNEは事象を表現していることが多いことから,sNEと事象の事実性ラベルの同時解析も興味深い手法である.本コーパスは非テキストデータに紐づいたテキストデータに対してモダリティ情報を含むアノテーションが行われたコーパスという点で特徴的である.特に非テキストデータである局面の情報は,将棋というよく定義されたゲームに基づくものであり,遷移のルールが厳密に定義されている点とその遷移の確率を推測する高性能な手法が既に知られているという点の,モダリティ情報の自動認識への活用が期待できる2点の特徴を持っている.この点において本コーパスはモダリティ乗法の状態空間へのグラウンディング手法の研究に寄与すると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モダリティ解析の転移学習}\label{ssec:app_transfer}\ssecref{ssec:app_grounding}に示した応用手法によってモダリティ解析の精度向上が実現できれば,これをドメイン外のテキストに対するモダリティ情報認識器の構築に応用することも考えられる.NEはドメイン特有のものである一方,モダリティ情報や事実性に関する知見はドメインを横断するものであると考えている.例として,\doubleQuote{〇〇になる\tag{可能性が高}{MEa}い}という表現はその事象について肯定の可能性の示唆(\ssf{MEa})を示す表現であるが,これはゲームドメイン特有の表現ではなく,他の様々なドメインでも同様の表現が用いられる.我々は,本コーパスを用いて構築したモダリティ情報解析器を基に,転移学習などの手法を用いることで他のドメインでのモダリティ情報解析や事実性解析の精度を向上させることができると期待している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モダリティ表現に基づく情報検索}\label{ssec:app_ir}本コーパスを,モダリティ表現を含む曖昧な自然言語クエリによる情報検索システムの構築へ応用することもできる.既存研究での局面の検索システムは,駒の場所をクエリとしたもの\cite{Retrieval.of.Similar.Chess.Positions}やNEをクエリとしたもの\cite{Game.State.Retrieval.with.Keyword.Queries}がある.駒の場所をクエリとする場合にはその対象についての知識を既に持っていることが求められ,ゲームへの理解が十分でないプレイヤには利用が難しい.また,NEをクエリとする場合,そのNEは過去や未来の局面への言及であることがあるため,検索された局面が常にクエリとなったNEと関連しているわけではないという問題がある.事実性解析の結果を活用した検索システムを構築することで,例えば解説者がそのクエリとなった戦型が良いと判断した局面や,その戦型が選択肢として挙げられたが実際には選ばれなかった局面といったような,より細かい検索の実現が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ゲーム解説文の自動生成}\label{ssec:app_generation}本コーパスを用いることで,ゲームの解説文の自動生成システム\cite{Real.Time.Commentary.System.for.Shogi,Learning.a.Game.Commentary.Generator.with.Grounded.Move.Expressions,jhamtani2018learning}の性能向上が期待できる.事象の事実性を考慮することで,適切なモダリティ表現を含んだ文生成を行うことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,将棋とその解説文を対象として我々の構築したゲーム解説文コーパスについて説明した.本コーパスを構築するにあたり,我々は固有表現とモダリティ情報のアノテーション体系を定義し,一部の解説文に人手で単語分割境界・将棋固有表現・モダリティ表現・事象クラスラベル・事実性ラベルのアノテーションを行った.人手アノテーションによって,本コーパスは10,287個のsNE,1,622個のモダリティ表現,5,014個の事象クラスラベル,3,092個の事実性ラベルを含むコーパスを構築した.\ssecref{subsec:commentary}に示す通り,将棋の解説文は過去や未来の局面への言及を多く含んでいる.これは将棋やゲームの解説文に限った現象ではなく,人が操る言語は過去への想起や未来の想像を多く含んでおり,これの理解のためにモダリティ表現に着目することは非常に重要である.本コーパスは,事象を表現するsNEとそれを修飾するモダリティ表現の両方に着目したものであり,シンボルグラウンディング技術を用いたモダリティ表現とそれに付随する事象の事実性の自動認識課題を推進する.これらは人間によって記述された解説文を自動解析したり,解説文の自動生成を行ったりする上で重要な課題である.本コーパスの最大の特徴は,全ての解説文が実世界の代替としての局面と紐づいていることである.本コーパスを活用することにより,自然言語処理研究やその他の人工知能研究において,多くの新しい課題に挑戦することが期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本コーパスを構築するにあたり,公益社団法人日本将棋連盟より同連盟が公開している将棋の棋譜およびその解説文を学術的目的のため利用することに問題がないことを確認いただきました.ここに謝意を表します.本研究は情報処理学会第233回自然言語処理研究会(NL-233)~\cite{matsuyoshi2017annotation},10theditionoftheLanguageResourcesandEvaluationConference(LREC2016)~\cite{A.Japanese.Chess.Commentary.Corpus}および11theditionoftheLanguageResourcesandEvaluationConference(LREC2018)~\cite{Annotating.Modality.Expressions.and.Event.Factuality.for.a.Japanese.Chess.Commentary.Corpus}で発表したものです.本研究はJSPS科研費26540190,26280084,18K11427,19K20341の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{亀甲博貴}{%2018年東京大学大学院工学系研究科博士課程修了.博士(工学).同年より京都大学学術情報メディアセンター助教.自然言語処理,ゲームAI等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{松吉俊}{%2003年京都大学理学部卒業.2008年同大学院情報学研究科博士後期課程修了.奈良先端科学技術大学院大学情報科学研究科特任助教,山梨大学大学院医学工学総合研究部助教,電気通信大学情報理工学研究科助教を経て,現在,東京工科大学メディア学部講師.京都大学博士(情報学).計算言語学,自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\bioauthor[:]{JohnRichardson}{%2016年京都大学大学院情報学研究科博士後期課程修了.博士(情報学).}\bioauthor{牛久敦}{%2017年京都大学大学院情報学研究科修士課程修了.修士(情報学).}\bioauthor{笹田鉄郎}{%2007年京都大学工学部電気電子工学科卒業.2009年同大学大学院情報学研究科修士課程修了.2012年同大学院情報学研究科博士後期課程単位取得認定退学.}\bioauthor{村脇有吾}{%2011年京都大学大学院情報学研究科博士後期課程修了,博士(情報学).同年京都大学学術情報メディアセンター特定助教,2013年九州大学大学院システム情報科学研究院助教,2016年京都大学大学院情報学研究科助教,2020年同講師,現在にいたる.テキスト解析および計算言語学に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{鶴岡慶雅}{%2002年東京大学大学院工学系研究科電子工学専攻博士課程修了.博士(工学).科学技術振興事業団研究員,マンチェスター大学ResearchAssociate,北陸先端科学技術大学院大学准教授,東京大学大学院工学系研究科准教授を経て,2018年より東京大学大学院情報理工学系研究科教授,現在に至る.自然言語処理およびゲームAIの研究に従事.}\bioauthor{森信介}{%1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年京都大学学術情報メディアセンター准教授.2016年同教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞受賞.言語処理学会,データベース学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V31N03-10
\section{はじめに} 本論文では,小説,アニメあるいはゲームなどに登場する特定のキャラクタを発話者とした言語モデルの構築手法を提案する.小説,アニメあるいはゲームなどの登場人物は,仮想的にではあるが,ある特徴を有しており,その人物による自然な発話にはその特徴を有したものが必要である.高度化された対話システムにおいても,ディスプレイに表示される仮想的な発話者あるいは実際のロボットの発話では,その見た目から想起される発話者らしい発話が自然である.このような背景から発話者の特徴を反映した発話文を生成する研究がいくつか行われているが,それらの多くは規則ベースの手法である(\cite{miyazaki4},\cite{kishino}など).規則ベースの手法は規則の構築が手作業となるためその構築コストが高く,また対象を別の発話者に変更することが困難という問題がある.近年は対話システムに個性を持たせることを目的に学習ベースのものも提案されているが,そこでは学習のためのデータをどのように準備するかが鍵となっている(\cite{zhang-etal-2018-personalizing},\cite{kasahara-etal-2022-building}など).本論文では発話者の特徴を有した発話文を生成するために,その発話者の言語モデルを構築することを試みる.発話者の言語モデルはその発話者の発話文を大量に収集することで自動的に構築できる.ただしその発話者は,通常,仮想的な発話者であるため収集できる発話文の量は限られる.そのため本論文ではGPT-2\cite{gpt2}をベースの言語モデルに設定し,対象発話者の少量の発話文によって,そのベースの言語モデルをfine-tuningすることで目的の言語モデルを構築する.その際,対象の発話者と同一作品の別の登場人物の発話を「ドメイン」の発話文,対象発話者の発話文を「タスク」の発話文と捉え,DAPT(domainadaptivepretraining)+TAPT(taskadaptivepretraining)\cite{Suchin}の手法を利用する.更に言語モデルの性能を上げる(パープレキシティを下げる)ために本論文では,別人物の発話文を対象発話者風の発話文に変換する2種類のT5\cite{t5}モデルを構築する.この2種類のT5モデルを利用することで,2種類の対象発話者風の発話(「擬似データ(1)」と「擬似データ(2)」)を生成することができる.この生成された擬似データを,本来の対象発話者の発話文のデータに追加的に利用することで効果的なfine-tuningを行う.実験では株式会社スクウェア・エニックスのゲームであるドラゴンクエストVII内のセリフをコーパス\footnote{本コーパスは\url{https://sutton-kyouwa.com/g/}からダウンロードしたものを手作業で編集,整形したものである.本コーパスの本実験での使用に対して著作権の問題が生じないことは,AI関係の案件に精通した弁護士から確認済みである.}とし,その登場人物7名をそれぞれ対象発話者に設定した.このコーパスから取り出した対象発話者の発話文を訓練データ,検証用データ及びテストデータに分け,テストデータに対する言語モデルのパープレキシティから構築した言語モデルの評価を行った.訓練データを用いてGPT-2をfine-tuningした言語モデルの各発話者のパープレキシティの平均は27.33であったが,本論文の提案手法を用いることで21.15まで改善できた.本論文の貢献は以下である.\begin{description}\item[(1)]特定キャラクタの言語モデルを構築するために,作中の登場人物の発話をドメインのデータ,対象のキャラクタの発話をタスクのデータとしてみなして,DAPT+TAPTの手法を用いてGPT-2のfine-tuningを行う手法を提案した.\item[(2)]作中の各登場人物の発話文とそれを一般的な発話文に変換した少量のデータを手作業で作成し,一般的な発話文から対象のキャラクタ者風の発話文へ変換する\textbf{一般-対象変換モデル}を構築し,対象のキャラクタの発話文の擬似データ(擬似データ(1))を構築する手法を提案した.\item[(3)](2)と同じデータを利用し,一般-対象変換モデルとは逆向きの\textbf{対象-一般変換モデル}を構築し,それら2つのモデルを組み合わせて対象のキャラクタの発話文の擬似データ(擬似データ(2))を構築する手法を提案した.\item[(4)]擬似データ(1)と擬似データ(2)を用いて,対象のキャラクタの言語モデルの性能を高めた.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} \citeA{Suchin}は,言語モデルを構築する際にドメインに適応させる事前学習であるDAPT(domainadaptivepretraining),タスクに適応させる事前学習であるTAPT(taskadaptivepretraining),及びDAPTにより作成したモデルにTAPTを行うDAPT+TAPTの3つの手法を比較し,DAPT+TAPTが最もよい性能であることを示した.また\citeA{katsumata}は話し言葉BERTの作成にDAPT+TAPTの手法を利用し,DAPT+TAPTの2種類の追加学習を組み合わせることで,文境界推定,重要文抽出などの様々なタスクで安定して高い性能のモデルを作成した.また同時に話し言葉においてもこの手法は有効であることを示した.また,キャラクタ性についての研究も盛んに行われている.\citeA{Mairesse}によって開発されたPERSONAGE(personalitygenerator)は最初の高度なパラメータ化された会話生成器である.彼らはPERSONAGEが外向性の度合いに沿ってバリエーションのある発話を作成できることを示した.\citeA{Marilyn}は映画の対話コーパスを収集し言語構造やキャラクタの原型のアノテーションを行った.さらに彼らはジャンル,性別,ディレクタ,映画の年代のようなグループによって言語のスタイルを分類するためにキャラクタの言語モデルの実験を行った.\citeA{miyazaki1}は日本語の会話を特徴付ける言語表現を基礎的に分析し,部分的に言い換えることで会話を特徴付ける技術を開発した.また\citeA{miyazaki2}は,日本のフィクションの登場人物の言語的特徴のカテゴリーを報告した.さらに会話の特徴づけやバリエーションを豊かにする方法として,各文の機能部分を対象人物に適した確率で言い換えて,読者が対話者の特徴づけを理解できるかどうかを確認する実験を行った\cite{miyazaki3}.また,日本の架空の人物の発話を特徴付けるために,日本語の音変化表現に着目し,これらの表現を収集し,分類した研究もある\cite{miyazaki4}.さらに,\citeA{Okui}は,日本語の対話システムにおいて,ポインタ生成機構を用いて,複数の異なるキャラクタの応答を参照し,様々な応答を生成した.彼らは,少ないデータ量で応答の特徴付けを学習した.また\citeA{kishino}の研究では,SentencePieceを用いて単語分割を行い,TFIDFを用いてキャラクタの特徴と考えられる単語を抽出した.また,意味を保持したまま,テキストのスタイルを変換する「テキストスタイル変換」の研究も本研究と関係がある.キャラクタ性を変換する論文\cite{miyazaki1}をはじめとして,シェークスピアの時代の文への変換\cite{jhamtani-etal-2017-shakespearizing}や,散文調への変換\cite{prose},さらにテキスト音声合成を目的とした,流暢性や方言の変換を行った研究\cite{yoshioka}がある.彼らの研究では,人手により意味を保持したままキャラクタ性の削除の処理を行い,そのデータを利用してT5を用いて自動的なテキストスタイル変換を利用している.T5を利用している点で本研究と類似しているが,本研究では最終的に特定のキャラクタの発話の言語モデル作成を目的としている点が異なっている.またスタイル変換の研究としては\cite{liu-etal-2021-learning}もある.彼らは変換の正解率,内容の保存の正確性,流暢さといった異なる側面を考慮した報酬関数を利用して訓練を行うことでこれを実現している.本論文の提案するキャラクタらしい文を生成する手法は,キャラクタの特性を条件とした文生成の研究とも見なせるため,条件付き文生成(conditionaltextgeneration)の研究の一つとも捉えられる.\citeA{ficler-goldberg-2017-controlling}は,再帰的ニューラルネットワークに,望ましいテキストの性質を文脈ベクトルとして与えることで,条件付き文生成を行う手法を提案している.彼らは映画のレビューのドメインにおいて,比較的細かい条件のコントロールを行うことを可能にした.\citeA{duan-etal-2020-pre}は条件表現のモジュールとテキスト生成のモジュールを切り離すモデルを提案した.こうすることで,新たな条件が加わった際の学習の手間を減らすことができる.我々は,GPT-2やT5の既存公開済みモデルを活用することで,キャラクタらしい文を生成する手法を採った.また,本論文はキャラクタの個性を反映した応答生成の研究とも関連がある.\citeA{zhang-etal-2018-personalizing}は対話システムに発話者の個性を持たせることを目的にPersona-Chatと呼ばれるキャラクター設定が記されたデータベースを構築した.これは約5文ずつ与えられた2人のクラウドワーカー同士のマルチターンの対話で構成されている.実験によりPersona-Chatデータベースから学習した対話システムは,より魅力的であることを示した.\citeA{kasahara-etal-2022-building}は与えられたキャラクター設定に沿った発話を行うモデルを,事前学習済み言語モデルをPrompt-Tuningすることで構築し,Fine-Tuningによるモデルとの比較を行っている.\citeA{li2016persona}は発話スタイルやキャラクタの背景などの個別のキャラクタ性を分散表現としてとらえることで応答生成を行う手法を提案している.彼らはLSTMによる応答生成モデルを訓練する際,発話者IDを入力し,発話者の分散表現を同時に学習することでこれを実現した.また,\citeA{roller-etal-2021-recipes}はオープンドメインのチャットボットを作る際に,どのようなモデルがよいのかを比較した.そこではネットワークアーキテクチャの種類(検索方式,生成方式,検索後に修正する方式)の優劣や学習用の損失関数,データについて調査している.\citeA{li2016persona}は話者の一貫性の問題を扱うためのpersona-basedmodelを提案している.そこではモデルの学習の際の一つの工夫として,発話文の文頭にその発話者の名前を付与する操作を行っている.本論文でもその操作を取り入れる.なおこの発話者名を入力文に追加する手法は,機械翻訳におけるTaggedback-translation\cite{caswell-etal-2019-tagged}と等価である.この手法により人手翻訳と機械翻訳による擬似データをタグで区別することで,良質なモデルを学習できることが知られている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{提案手法} 本章では3.1節で提案手法の全体像を説明する.提案手法の核となるのは,発話者別の言語モデルを構築するために,その発話者に対する2種類の擬似データ(擬似データ(1)と擬似データ(2))を作成する部分である.本論文ではこれら擬似データを作成するために,一般-対象変換モデルと対象-一般変換モデルの2種類のモデルを構築している.これら変換モデルの構築方法を3.2節で述べる.また上記変換モデルを学習するために,各発話者の発話の集合から訓練データの元になる発話文を抽出する方法を3.3節で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{T5によるデータ拡張を用いた特定キャラクタ風発話の言語モデルの構築}\label{T5によるデータ拡張を用いた特定キャラクタ風発話の言語モデルの構築}本研究ではDAPTとTAPTの手法を用いて特定キャラクタ風発話の言語モデルの構築を行う.DAPTとはDomain-AdaptivePretrainingの略であり,ターゲットが属するドメインのデータで訓練を行うものである.TAPTとはTask-AdaptivePretrainingの略であり,対象のタスクのデータで訓練を行うものである.DAPT+TAPTの訓練方法とは,既に一般的なコーパスで事前学習された言語モデルに対し,対象のドメインのデータで追加の事前学習を行い,さらに対象のタスクのデータで追加の事前学習を行う方法である\cite{Suchin}.本研究では,特定キャラクタ風発話を行う言語モデルを構築することを目的としているため,TAPTに用いる「対象のタスクのデータ」を,特定キャラクタの発話とする.DAPTに用いる「対象の属するドメインのデータ」には,そのキャラクタの発話のほかに,そのキャラクタの発話を抽出した作品と同一の作品(以降,同一作品と表記する)の別の登場人物の発話を利用する.本研究ではさらに,同一作品の別の登場人物の発話を対象の発話者風の発話に変換して,対象の発話者の発話の擬似データを作成する.この擬似データの作成により,対象の発話者の発話を増補したとみなすことができる.本研究では,このデータを追加の訓練データとすることで,対象の発話者の発話の言語モデルの性能を上げることを試みる.ここで対象の発話者風の発話への変換には対象発話者ごとに2つのT5モデル(「一般-対象変換モデル」と「対象-一般変換モデル」)を構築した.具体的な構築方法は3.2節で述べる.本研究における擬似データの作成手順(Step-1からStep-5)を以下に述べる,\begin{description}\item[Step-1]各発話者の発話の集合から,ある基準で100発話文を取り出し,それらを一般的な発話文に人手により変換し,発話者ごとの対訳データを作成する(図\ref{fig1-1}).この100発話文の選び方は3.3節で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-3ia9f1.pdf}\end{center}\caption{人手による対訳データの作成}\label{fig1-1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\item[Step-2]Step-1で作成した対訳データを用いて,一般的な発話文から対象の発話者風の発話文へ変換するT5モデルを構築する(図\ref{fig1-12}).このモデルを\textbf{一般-対象変換モデル}と名付ける\footnote{一般-対象変換モデルの具体的な構築方法は3.2節で述べる.}.本実験では発話者は7名いるので,7つの一般-対象変換モデルが作成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[t]\begin{center}\includegraphics{31-3ia9f2.pdf}\end{center}\caption{一般-対象変換モデルの学習}\label{fig1-12}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\item[Step-3]対象発話者以外の6名の発話者各々にはStep-1で構築した一般的な発話文が存在する.それら一般的な発話文を集め,対象発話者の一般-対象変換モデルを利用して,対象発話者風の発話に変換する.この操作により作成された発話文を\textbf{擬似データ(1)}とする(図\ref{fig1-2}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{31-3ia9f3.pdf}\end{center}\caption{擬似データ(1)の作成}\label{fig1-2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\item[Step-4]Step-1で作成した各発話者の対訳データを用いて,対象発話者ごとに対象発話者の発話文を一般的な発話文に変換するT5モデルを構築する(図\ref{fig1-22}).このモデルを\textbf{対象-一般変換モデル}と名付ける\footnote{対象-一般変換モデルの具体的な構築方法は3.2節で述べる.}.本実験では発話者は7名いるので,7つの対象-一般変換モデルが作成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[t]\begin{center}\includegraphics{31-3ia9f4.pdf}\end{center}\caption{対象-一般変換モデルの学習}\label{fig1-22}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}[t]\begin{center}\includegraphics{31-3ia9f5.pdf}\end{center}\caption{擬似データ(2)の作成}\label{fig1-3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\item[Step-5]各発話者のStep-1で取り出されていない発話集合の中から,ある基準で100発話文取り出し,これをその発話者の対象-一般変換モデルを用いて一般的な発話文に変換する.そのように作成された対象発話者以外の一般的な発話文を集め,対象発話者の一般-対象変換モデルを用いて,対象の発話者風の発話に変換する.この操作により作成された発話文を\textbf{擬似データ(2)}とする(図\ref{fig1-3}).またここで変換に利用する発話文をStep-1で取り出されていない発話文の全てではなく,100発話文にしているのは基準を満たさない発話文を変換モデルにより利用して変換しても,最終的に変換された発話文は言語モデルの性能向上に寄与しないと考えたからである.\end{description}Step-1からStep-5によって構築された擬似データ(1)と(2)を用いて,言語モデルを構築する手順について述べる(図\ref{fig69}).図\ref{fig69}のStep-8までの処理で作られる言語モデルが本論文の提案手法1によるものであり,Step-9までの処理で作られる言語モデルが本論文の提案手法2によるものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F6\begin{figure}[t]\begin{center}\includegraphics{31-3ia9f6.pdf}\end{center}\caption{提案手法による言語モデルの構築手順}\label{fig69}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{description}\item[Step-6]同一作品の全発話者の発話文をドメインのデータとしてDAPTの手法でGPT-2のfine-tuningを行う.\item[Step-7]対象発話者の発話文をタスクのデータとしてTAPTの手法でStep-6で得られているモデル(DAPTmodel)のfine-tuningを行う.なおこの学習の際のモデルの初期値はDAPTmodelとする.\item[Step-8]対象発話者の発話文をタスクのデータに「擬似データ(1)」を追加して,Step-7で得られているモデル(DAPT+TAPTmodel)のfine-tuningを行う.なおこの学習の際のモデルの初期値はDAPT+TAPTmodelとする.これが本論文の提案手法1となる.\item[Step-9]対象発話者の発話文をタスクのデータに「擬似データ(1)」と「擬似データ(2)」を追加して,Step-8で得られているモデル(Ours1model)のfine-tuningを行う.なおこの学習の際のモデルの初期値はOurs1modelとする.これが本論文の提案手法2となる.\end{description}なお,Step-6からStep-9において初期のモデルをfine-tuningする際は,\cite{li2016persona}の手法にならい,入力となる発話文に発話者の名前を付与した.例えば発話者「アイラ」の発話文に以下がある.「さあアルスわたしたちはわたしたちの旅を続けましょう。」この発話文は以下のように``発話者名:''を文頭に付与する。「アイラ:さあアルスわたしたちはわたしたちの旅を続けましょう。」``発話者名:''は訓練データ,検証用データ,テストデータまた増補されたデータの全てに付与する.ただし検証用データやテストデータからパープレキシティを測る場合,他手法と公正に比較するために``発話者名:''の部分の出現確率はパープレキシティの計算には含めていない\footnote{含める方がパープレキシティの値は低くなるので,この処理はunfairな処理ではない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{T5による発話文変換モデルの構築}訓練データを増補するため,以下の2種類のT5モデルを作成した.\\\begin{enumerate}\item\textbf{一般-対象変換モデル}:一般的な発話を対象発話者風の発話に変換する.対象発話者の発話を一般の発話に修正したものを入力,修正前の対象発話者の発話を出力として訓練した.\item\textbf{対象-一般変換モデル}:対象発話者の発話を一般的な発話に変換する.対象発話者の発話を入力,その発話を一般の発話に修正したものを出力として訓練した.\end{enumerate}一般-対象変換モデルは,まず対象の発話者の発話からTFIDFを求め,それを用いてより対象キャラクタの特徴を捉えていると考えられる発話を100発話抽出した.詳しい抽出方法は\ref{TFIDF}節で述べる.抽出した100発話を,そのキャラクタの特徴をなくした一般的な発話に手作業で修正した.この修正により得られた一般的な100発話を入力データ,対象の発話者の発話を出力データとしてT5モデルの訓練を行った.なお,100発話のうちランダムに選んだ90発話を訓練データ,残りの10発話を検証用データとして利用し,得られたT5モデルが一般-対象変換モデルである.対象発話者は7名になるので,7つの一般-対象変換モデルが構築される\footnote{ただし実験では発話者「フォズ」の発話文が100に満たないので,40発話を学習データ,10発話を検証用データとした.}.また対象-一般変換モデルは一般-対象変換モデルで利用した訓練データおよび検証用データの入出力を逆にすることで得られる.ここでの一般的な発話とは,性別,年代,人物像を想像させないような発話である.例えば,対象発話者であるキャラクタの一人称である「あたし」から「私」,発話の末尾につけられる口癖である「だわ」や「よね」から「です」に修正することで作成した.これは「私」や「です」の方が使用者として考えられる人物や使われるシチュエーションが広いと考えられるからである.ここでの修正作業はルールに基づいたものではなく,筆者の主観で行われた.また修正に際して,砕けた雰囲気からフォーマルな雰囲気になる,元の発話は語気の強いものだが,それがなくなるなど,若干のニュアンスが変わることは容認した.これは発話の持つ雰囲気が発話者の雰囲気でもあると考えたためである.「あら」や「まぁ!」のような感嘆詞はキャラクタの特徴を表していると考えたが,代わりの一般的な表現が思いつかなかったこと,無くても発話の意味が変わらないことから削除した.また,ここで作成している一般的な発話文は元の発話文の内容は変更していないために,構築される変換モデルは基本的にはスタイル変換のモデルと見なせる.ただし変換モデルにより変換された発話文は言語モデルのfine-tuningのみに利用されるので,発話内容が変化しても問題はないことを注意しておく.この2つのモデルを用いて変換した発話を言語モデルのfine-tuningに使う際には,もとの発話と長さが大きく異なる場合,変換に失敗している可能性が高いため,入力の発話の(文字列の)長さによりフィルタリングを行った.具体的には4章で説明する式\ref{giji1cont}と式\ref{giji2cont}がフィルタリングの条件となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.3\subsection{T5用の訓練データの抽出方法}\label{TFIDF}まず本研究で用いるコーパスから全ての実験で用いる検証用データとテストデータを予め取り除いておく.具体的にはコーパス中の各発話者の発話集からランダムに1割を取り出し,その1/5を検証用データ,4/5をテストデータに設定した.この検証用データとテストデータを除いた発話文が実験で利用する訓練データとなる.本節ではT5のモデルの学習用の訓練データを抽出する方法を述べるが,抽出のもとになるデータは上記の訓練データであることを注意しておく\footnote{具体的な各発話者に対する訓練データ,検証用データ,テストデータの発話文数は\mbox{表\ref{giji_jikken_data}}に示している.}.T5の訓練に用いる発話データは,よりキャラクタの特徴を含んだものがよいと考え,TFIDFを利用して訓練データの中からT5の学習データを抽出した.キャラクタの特徴を含んだ発話を選ぶのに,TFIDFを利用する理由を簡単に述べる.あるキャラクタの発話内の単語に対するTFIDF値は,そのキャラクタが頻繁に使う単語というTFの観点と,他のキャラクタの発話では使われない単語であるが,そのキャラクタでは使われる単語というそのキャラクタに対する特異性を表すIDFの観点とを併せ持った値である.そのためあるキャラクタの発話内の単語のTFIDF値の平均値は,その発話に対するそのキャラクタの特徴の度合いを表していると見なせるからである.また\citeA{kishino-2022-9}はランダムに選択するよりもTFIDFを用いて選択した方が最終的な言語モデルの性能が高いことを示している.TFIDF値の具体的な計算方法を以下に述べる.まず,対象の発話をそれぞれT5で用いられているトークナイザーを用いて単語に分割した.そして単語ごとに以下の式でTFIDF値を求めた.以下の式の$tf(t,d)$が発話$d$のサブワード$t$におけるtf値である.なお$\sum_{s\ind}n(s,d)$は発話$d$における全サブワードの総出現回数を表す.\begin{equation}\mathit{tf}(t,d)=\frac{n_{(t,d)}}{\sum_{s\ind}^{}n_{(s,d)}}\end{equation}また以下の式の$idf(t)$が発話$d$のサブワード$t$におけるidf値である.なお$N$は総発話数,$df(t)$はサブワード$t$が出現した発話数を表す.\begin{equation}\mathit{idf}(t)=\log\frac{N}{\mathit{df}(t)}\end{equation}TFIDF値はtf値とidf値を掛け合わせることで求められる.ここでTFIDF値が高い単語はそのキャラクタの特徴を表していると考える.\begin{equation}\mathit{TF}\mathit{IDF}={tf}(t,d)*\mathit{idf}(t)\end{equation}続いて,これらの単語のTFIDF値を用いて発話ごとの平均TFIDF値を求める.これは発話内に出てくるTFIDF値の合計を出現単語数で割ることで得た.平均TFIDF値が高い発話ほどキャラクタの特徴を含んだ発話と考え,平均TFIDF値が高い上位100発話をモデルの訓練および検証用データに利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{実験(変換モデルの学習と擬似データの構築)} 本論文では発話者の特徴を有した発話文を生成するために,その発話者の言語モデルを構築している.そしてその構築のために発話者の擬似的な発話文を生成する手法を提案している.また提案手法の他にDAPT+TAPTや発話文に発話者の名前を付与する手法も組み合わせている.本章(4章)の実験では,本論文の提案手法(擬似的な発話文を生成する手法)だけを利用したときの言語モデルの性能向上について調査し,次章(5章)の実験では,本論文の提案手法の他にDAPT+TAPTと発話文に発話者の名前を付与する手法を組み合わせたときの言語モデルの性能向上について調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{一般-対象変換モデルの学習と擬似データ(1)の構築}発話者は7名存在する.今,対象発話者を\(X\)とすると,前述したように\(X\)の発話集合の中から平均TFIDF値の高い100発話文を取り出し,その中から10発話文をランダムに取り出し,それを一般-対象変換モデルの学習のための検証用データとし,残り90発話文を一般-対象変換モデルの訓練データとした\footnote{ただし発話者「フォズ」の発話は68文しかないため,平均TFIDF値の上位50文を取り出し,40文を訓練データ,10文を検証用データとした.}.これらのデータを用いて,ベースとなる既存の日本語T5モデルをfine-tuningすることで\(X\)の一般-対象変換モデルを構築した.具体的にベースとなる日本語T5モデルにはsonoisa/t5-base-japanese\footnote{\url{https://huggingface.co/sonoisa/t5-base-japanese/discussions}(モデルのパラメータ数は296,926,464).}を利用した.バッチサイズは2とした.また学習で用いた最適化関数は\verb|AdamW|であり,学習率は\verb|lr=3e-4|とした.また\verb|get_linear_schedule_with_warmup|を用いた学習率スケジューリングも行った.また検証用データを利用して\verb|patience=5|としたEarlyStoppingを行った.具体的に学習に利用したパラメータは付録Aに記載する.次に構築した\(X\)の一般-対象変換モデルを利用して\(X\)の擬似データ(1)を生成する.発話者は7名存在するので,前述したように\(X\)以外の6名の発話者から計600発話の一般的な発話文が利用できる\footnote{ただし「フォズ」の発話は50発話しか利用できないため,「フォズ」の一般-対象変換モデルに適用するデータは600発話だが,「フォズ」以外の発話者の一般-対象変換モデルに適用するデータは550発話である.}.この収集した一般的な発話文に対して,先ほど構築した\(X\)の一般-対象変換モデルを利用して,\(X\)に対する擬似データ(1)を作成する.一般-対象変換モデルを用いて,入力文から生成文を作成するにはT5モデルの\verb|generate|メソッドを利用した.\verb|generate|メソッドのパラメータは\verb|repetition_penalty|を\verb|10.0|とした以外はdefaultの設定を用いた.また一般-対象変換モデルにより生成された文の長さ\footnote{本論文での「文の長さ」とは「文の文字数」である.}が極端にもとの文の長さと異なっている場合は,生成に失敗していると考え,発話の(文字列の)長さによるフィルタリングを行った.具体的には入力文の長さ\(L\)としたとき出力文の長さ\(L'\)に以下の条件を課している.\begin{equation}\label{giji1cont}0.8*L<L'<1.3*L\end{equation}各発話者に対して得られた擬似データ(1)の発話数を\mbox{表\ref{tab-data21}}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{09table01.tex}\caption{発話者ごとの入力発話数に対して構築できた擬似データ(1)の発話数}\label{tab-data21}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{対象-一般変換モデルの学習と擬似データ(2)の構築}対象-一般変換モデルに対する学習用データと検証用データは,一般-対象変換モデルの訓練データと検証用データの入出力を逆にすることで得られる.モデルの学習に用いたベースとなる日本語T5モデルや学習時のパラメータは全て一般-対象変換モデルの学習時のものと同じものを利用した.先に構築している発話者\(X\)の一般-対象変換モデルとここで構築した\(X\)の対象-一般変換モデルを組み合わせることで,擬似データ(2)を構築する.発話者\(X\)の擬似データ(2)の構築手順を述べる.まず\(X\)以外の6名の発話者\(Y_i\)の発話集合の中で,平均TFIDF値の順位101から200の100発話を\(Y_i\)の対象-一般変換モデルを利用して一般的な発話文に変換する.ただし発話者「フォズ」の発話が68発話しかないため,順位101から200に対応するデータは存在しないことと,「リーサ姫」の発話は135発話しかないため,順位101から200に対応するデータは35発話となっている.このことから「フォズ」の擬似データ(2)を作成するためのもとになる発話文は535発話,「リーサ姫」の擬似データ(2)を作成するためのもとになる発話文は500発話,そしてそれ以外の発話者の擬似データ(2)を作成するためのもとになる発話文は435発話となる.上記手順で収集した擬似データ(2)を作成するためのもとになる発話文は,各々の発話文の発話者\(Y_i\)の対象-一般変換モデルを利用することで,一般的な発話文に変換する.また\(Y_i\)の対象-一般変換モデルを利用して,一般的な発話文を作成する際にも発話の(文字列の)長さによるフィルタリングを行った.具体的には入力文の長さ\(L\)としたとき出力文の長さ\(L'\)に以下の条件を課している.\begin{equation}\label{giji2cont}25<L'<1.3*L\end{equation}これは対象-一般変換モデルで利用する元の発話文に短い発話が多く,最終的に短い発話を言語モデルのfine-tuningに利用するのは逆効果になると予想できたからである.更に擬似データ(2)を作成するために発話者\(X\)の一般-対象変換モデルを利用する際には,再度\mbox{式\ref{giji1cont}}の制約を課していることにも注意する.最後に発話者\(Y_i\)の対象-一般変換モデルから得た一般的な発話文を収集し,それを\(X\)の一般-対象変換モデルで利用することで,\(X\)の擬似データ(2)が作成できる.各発話者に対して得られた擬似データ(2)の発話数を\mbox{表\ref{tab-data22}}に示す.また表\ref{tab-data22}には発話文の長さの平均も記す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[t]\input{09table02.tex}\caption{発話者ごとの入力発話数に対する擬似データ(2)発話数}\label{tab-data22}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%擬似データ(2)のデータ数が擬似データ(1)のデータ数と比べて少ないのは,擬似データ(1)はフィルタリングの処理を1回かけているのに対し,擬似データ(2)は2回かけているからである.また擬似データ(2)のもとになる発話文は,平均TFIDF値の順位101から200の発話文であるため短い発話も多く\mbox{式\ref{giji2cont}}の制約が強く影響していたためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{擬似データの有効性}\label{擬似データの有効性}ここでは先に構築した発話者\(X\)の擬似データ(1)及び擬似データ(2)が\(X\)の言語モデルの改善に有効に利用できることを示す.この手順を以下に示す.\begin{enumerate}\item\(X\)の訓練データを用いてベースとなる言語モデルをfine-tuningすることで\(X\)の言語モデル\(M0_{X}\)を構築する.\item\(X\)の訓練データ+擬似データ(1)を用いて\(M0_{X}\)をfine-tuningすることで言語モデル\(M1_{X}\)を構築する.\item\(X\)の訓練データ+擬似データ(1)+擬似データ(2)を用いて\(M1_{X}\)をfine-tuningすることで言語モデル\(M2_{X}\)を構築する.\end{enumerate}最終的に得られた言語モデル\(M0_{X}\),\(M1_{X}\),\(M2_{X}\)の(\(X\)のテストデータに対する)パープレキシティを測ることで,擬似データ(1)と擬似データ(2)の有効性を示す.上記手順の(1)におけるベースとなる言語モデルがあるが,ここではりんな社によるrinna/{\linebreak}japanese-gpt2-medium\footnote{\url{https://huggingface.co/rinna/japanese-gpt2-medium}(モデルのパラメータ数は368,896,000)}を利用した.上記手順における各発話者の訓練データ及び検証用データを\mbox{表\ref{giji_jikken_data}}に示す.また\mbox{表\ref{giji_jikken_data}}には\(X\)の言語モデルのパープレキシティを測るためのテストデータの数も示す.なおこのデータは,基本的に,各発話者の全発話の90\%を訓練データ,2\%を検証用データ,8\%をテスト用データとすることで作成している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{09table03.tex}\caption{キャラクタごとの訓練・検証用・テストデータの数}\label{giji_jikken_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%またベースとなるGPT-2及び\(M0_{X}\)をfine-tuningする際,最適化関数にはSGDを利用した.また,学習率は0.01とした.また,検証用データを利用して,patienceが3のEarlyStoppingを行った.また\(M1_{X}\)をfine-tuningする場合の設定も上記と同じである.得られたパープレキシティを\mbox{表\ref{giji_jikken_kekka}}に示す.なお\mbox{表\ref{giji_jikken_kekka}}のGPT-2と\(M0_{X}\)は,次章で示す本論文の実験結果である\mbox{表\ref{tab-ppl_per_method_char}}の(1)Originalと(2)TAPTに対応するものであり,それらの値は同じであることを注意しておく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[b]\input{09table04.tex}\caption{擬似データを用いたモデルのパープレキシティ}\label{giji_jikken_kekka}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\mbox{表\ref{giji_jikken_kekka}}において,平均のパープレキシティには以下の関係が成り立っており,擬似データが言語モデルの改善に有効に利用できることがわかる.\[M2_{X}<M1_{X}<M0_{X}\]上記の関係について有意性を確認しておく.まず\(M1_{X}<M0_{X}\)の有意性を確認するために,発話者\(X\)に対して実験で取り出した擬似データ(1)の8割をランダムに取り出し,そのデータに\(X\)の訓練データを合わせて,\(M0_{X}\)をfine-tuningすることで言語モデル\(M1^{t}_{X}\)を構築し,\(X\)のテストデータでパープレキシティを測る.この実験を5回行い平均のパープレキシティを算出し,片側5\%のt分布の検定から\(M1_{X}\)と\(M0_{X}\)の有意差を調べた\footnote{ここでの検定の考え方を注記しておく.まず擬似データが言語モデルの改善に役立っていない(パープレキシティが変化しない)を帰無仮説とする.この場合,訓練データの8割(あるいは9割)をランダム取り出し,擬似データを使って言語モデルの改善を行った場合,実験で得られるパープレキシティの分布は正規分布となり,しかも帰無仮説を仮定すればその平均値と元の言語モデルのパープレキシティとの差は有意差の範囲内に収まると考えられる.そのためt-分布の検定から有意性を確認した.}.結果を\mbox{表\ref{giji_kentei1}}に示す.「\(M1^{t}_{X}\)」の行は発話者\(X\)に対する実験5回の平均のパープレキシティであり,「標準偏差」の行は実験5回のパープレキシティの標準偏差である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[b]\input{09table05.tex}\caption{\(M1_{X}<M0_{X}\)の有意性の検定}\label{giji_kentei1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%フォズ,ガボ,マリベルの3名に関しては有意差はなかったが,他の発話者には有意差があり,7名の平均値に関しても有意差があり,\(M1_{X}<M0_{X}\)は有意であると考えられる.この実験に関して,\(M1^{t}_{アイラ}\)の値が\(M1_{アイラ}\)の値よりも小さく,また\(M1^{t}_{メルビン}\)の値が{\linebreak}\(M0_{メルビン}\)の値よりも大きい.これは擬似データ(1)の中にはパープレキシティを改善せずに逆に改悪するデータが含まれていることを意味している.次に\(M2_{X}<M1_{X}\)の有意性を確認するために,発話者\(X\)に対して実験で取り出した擬似データ(2)の9割\footnote{擬似データ(1)では8割であったが,擬似データ(2)はデータ数が少量であるため9割としていた.}をランダムに取り出し,そのデータに\(X\)の訓練データと擬似データ(1)を合わせて,\(M1_{X}\)をfine-tuningすることで言語モデル\(M2^{t}_{X}\)を構築し,\(X\)のテストデータでパープレキシティを測る.この実験を5回行い平均のパープレキシティを算出し,片側5\%のt分布の検定から\(M2_{X}\)と\(M1_{X}\)の有意差を調べた.結果を\mbox{表\ref{giji_kentei2}}に示す.「\(M2^{t}_{X}\)」の行は発話者\(X\)に対する実験5回の平均のパープレキシティであり,「標準偏差」の行は実験5回のパープレキシティの標準偏差である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{09table06.tex}\caption{\(M2_{X}<M1_{X}\)の有意性の検定}\label{giji_kentei2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%リーサ姫に関しては有意差があったが,他の発話者には有意差はなく,7名の平均値に関しても有意差はなく,\(M2_{X}<M1_{X}\)の有意性は認められなかった.この実験では\(M2^{t}_{メルビン}\)の値が\(M1_{メルビン}\)の値よりも大きいことから,メルビンの擬似データ(2)の中にはパープレキシティを改善せずに逆に改悪するデータが含まれていることがわかる.他の発話者6名に関しては\(M2^{t}_{X}\leqM1_{X}\)の関係が成立している.特にガボ,キーファ,マリベルに関しては\(M2^{t}_{X}=M1_{X}\)となっている.これはこの3名の擬似データ(2)がモデルの改善に無益であったことを示している.ただし\(M2^{t}_{X}\)を学習する際に\(M1_{X}\)のモデルを初期値としている点と擬似データ(2)のデータ数が少量である点から,パープレキシティを改悪するまでにはならなかったと考えられる.以上のことから以下の点が言える.擬似データ(2)は\(M1_{X}\)を改善する場合もあるが,多くの場合は改善しない.ただし改悪する場合もほとんどないために,全体としてみるとわずかに改善に役立っていると考えられる.なお疑似データ(2)は少量であることから,追加データが不用意に少なくなっている懸念もあるが,6.3節において疑似データ(2)を作成するためのフィルタリングを行わずに,疑似データ(2)を増やした実験を行い,フィルタリングの効果を確認している.そのためフィルタリングのために疑似データ(2)が不用意に少なくなっているとは考えていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{実験(発話者の言語モデルの構築)} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{発話者の言語モデルの学習}ここでは各発話者に対して提案手法も含めた8通りの言語モデルを構築し,各言語モデルのパープレキシティを測ることで提案手法の有効性を示す.以下に,8通りの言語モデルとその構築方法の概要を示す.\\\begin{enumerate}\item\textbf{Original:}オリジナルのGPT-2\item\textbf{TAPT:}「対象の発話者の発話」のみでfine-tuning\item\textbf{DAPT:}「全発話者の発話」でfine-tuning\item\textbf{DAPT+TAPT:}「対象の発話者の発話」でDAPTモデルをfine-tuning\item\textbf{DAPT\_name:}発話者の名前を付与した「全発話者の発話」によりfine-tuning.既存手法に対応.\item\textbf{DAPT+TAPT\_name:}発話者の名前を付与した「対象の発話者の発話」でDAPT\_nameモデルをfine-tuning.DAPT+TAPTと既存手法のハイブリッド.\item\textbf{Ours1:}発話者の名前を付与した擬似データ(1)と「対象の発話者の発話」でDAPT+TAPT\_nameモデルをfine-tuning.提案手法1.\item\textbf{Ours2:}発話者の名前を付与した擬似データ(1)および(2)と「対象の発話者の発話」でOur1のモデルををfine-tuning.提案手法2.\\\end{enumerate}具体的に「対象の発話者の発話」は\mbox{表\ref{giji_jikken_data}}に示した各発話者の訓練データに対応し,「全発話者の発話」は\mbox{表\ref{giji_jikken_data}}に示した全発話者の訓練データに対応する.また各モデルに対する検証用データやテストデータは\mbox{表\ref{giji_jikken_data}}に示されているものである.また(2)から(8)の実験では言語モデルのfine-tuningを行うが,その際の最適化関数にはSGDを利用した.また学習率は0.01とした.また(2)から(8)の全ての実験を通して,各検証用データを利用してpatienceが3のEarlyStoppingを行っている.また注意として,(2)から(8)のモデルはこの順で構築しており,各モデルの初期値はそこまでに構築したモデルを利用している.具体的には(2)TAPTと(3)DAPTと(5)DAPT\_nameの初期値のモデルは(1)オリジナルのGPT-2,(4)DAPT+TAPTの初期値のモデルは(3)DAPTのモデル,(6)DAPT+TAPT\_nameの初期値のモデルは(3)DAPT\_nameのモデル,(7)Ours1の初期値のモデルは(6)DAPT+TAPT\_nameのモデル,(8)Ours2の初期値のモデルは(7)Ours1のモデル,となっている.なお,発話に「名前:」を付けて訓練する(5)から(8)のモデルについては,検証用データやテストデータからパープレキシティを測る場合,「名前:」の部分の確率は取り除いて測っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{実験結果}手法およびキャラクタごとのパープレキシティを表\ref{tab-ppl_per_method_char}に示す.最も良かった手法を太字で示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[b]\input{09table07.tex}\caption{手法およびキャラクタごとのパープレキシティ}\label{tab-ppl_per_method_char}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab-ppl_per_method_char}において,すべてのキャラクタにおいて提案手法(1)あるいは提案手法(2)のいずれかが最も良い結果である.提案手法(1)と提案手法(2)を比較すると,「フォズ」と「ガボ」については提案手法(1)の方が良い結果であるが,その差は非常に小さい.また「キーファ」については評価値(パープレキシティ)は同じであった.それ以外のキャラクタ「アイラ」「マリベル」「メルビン」「リーサ姫」に関しては提案手法(2)の方が良い結果である.評価値の平均から,全体としてみると提案手法(2)は提案手法(1)よりも良い結果と言える.このことから,一般-対象変換モデルと対象-一般変換モデルの2つのT5による変換モデルを利用してデータ拡張する提案手法が有効であることが分かる.ただし4.3節で行った実験から(6)DAPT+TAPT\_nameと(7)Ours1には有意差があるが,(7)Ours1と(8)Ours2には有意差がないことを注記しておく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{パープレキシティ改善の要因}手法の性質とパープレキシティを表\ref{tab_property_ppl}に示す.表中の「対象」「全員」「データ(1)」「データ(2)」「TAPT」「名前」は,それぞれ「対象の発話者の発話の使用」「全発話者の発話の使用」「疑似データ(1)の使用」「擬似データ(2)の使用」「TAPTの使用」「発話者の名前をデータに付与」の略記である.また,表中の「PPLの差」は,ひとつ上の手法とのパープレキシティの差分を表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[b]\input{09table08.tex}\hangcaption{手法の性質とパープレキシティ(PPL).表中の\Checkmarkは「使用」を意味し,空白は「未使用」を意味する.}\label{tab_property_ppl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab_property_ppl}を参照しながら,手法のどのような性質がパープレキシティに影響しているのかを考察する.まず,(1)Originalと(2)TAPTの差が最も大きな差であることから,対象発話者の発話の使用(TAPT)が,GPT-2にキャラクタらしい発話をさせるのに最も有用な性質であることが分かる.(3)DAPTモデルと(4)DAPT+TAPTの差も,対象発話者の発話の使用(TAPT)の有無だけであるが,2番目に大きな改善が,この2つの差であることも,TAPTの重要さを裏付けている.3番目に大きな改善は(2)TAPTと(3)DAPTの差であるが,この差は同一作品の対象発話者以外の発話の使用である.(4)DAPT+TAPTと(5)DAPT\_nameの差は,(a)TAPTを利用するか否かと(b)発話者の名前を入力データに付与してシステムに与えるか否かの2点である.(5)DAPT\_nameの方が良いということは,同一作品の発話者の発話を訓練データとして使用する際は,対象発話者ごとに発話者のデータをもう一度与えてパラメータ調整するTAPTよりも,発話者の名前を入力データに付与してシステムに与え,キャラクタ共通の検証用データでパラメータ調整を行う方が効果的であるということが分かる.これは,データごとに発話者の名前の情報をシステムに与えることによって,発話者7名のデータがそれぞれ別のキャラクタによる発話であるという情報をシステムに与えることができているためであると考えられる.(3)DAPTから(5)DAPT\_nameの差は3.33,(4)DAPT+TAPTから(6)DAPT+TAPT\_nameの差は1.54であった.このことからも,発話者の名前の入力の効果が見て取れる.ただし,TAPTも行った場合の方が,その差は小さくなることが分かる.次に,(5)DAPT\_nameから(6)DAPT+TAPT\_nameの差も0.53あることから,DAPT+TAPTの手法と,発話者の名前を入力データに付与する手法は,併用できることが分かる.最後に,T5による一般-対象モデルによるデータ拡張,そして,T5による同作品-一般変換モデルと一般-対象モデルを用いたデータ拡張についても,それぞれ有効であり,また,これまでのすべての手法と併用することで,最も良い結果となることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{生成文の主観評価}モデルが出力する生成文を被験者4名に協力してもらい,主観的な評価を行った.まず発話者\(X\)のテストデータからランダムに発話を取り出し\footnote{発話者「フォズ」に関してはテストデータが少ないので,検証用データも含めて取り出した.},その発話の文頭から数単語を各モデルに与えて後続する単語列を出力させることで生成文を作成する.なお文頭からの数単語は10文字程度になることを目安に取り出している.例えば\(X=アリス\)のテストデータには以下の発話がある.「わたしたちは今までこいつにさんざんふりまわされてきたってわけね。」この発話の文頭からの数単語として,「わたしたちは今まで」を取り出す.この単語列「わたしたちは今まで」を実験で得られたアリスの(1)から(8)のモデルに与えて,生成文を作成する.例えば発話者アリスのモデル(4)では以下のような生成文が得られる.「わたしたちは今までずっと旅を続けているのよ。」(5)から(8)のモデルを利用する場合,モデルに与える文字列の先頭に``発話者:''を付与することに注意する.ただし生成文を人間に評価してもらう際には,先頭に現れる``発話者:''は取り除く.上記の実験において,モデルに与える単語列は5つ準備する.そして発話者\(X\)に対する各モデル(1)から(8)を利用して発話文を生成する.つまり\(X\)に対して40文の発話文が生成される.そして発話者は7名いるので,計280個の発話文が生成される.この280個の発話文を主観評価する.各言語モデルによる生成はGPT-2モデルの\verb|generate|メソッドを利用した.またその際のパラメータの設定により生成文の長さ(token数)が10以上40以下になるようにし,生成する文の個数は1つにした.具体的なパラメータは付録Bに示す.また具体的な評価方法を以下に述べる.まず発話者\(X\)のモデル\(M\)から生成された発話文が5つ存在する.被験者には各発話文に対して,\mbox{表\ref{eval}}の4種類の評価(◎,○,△,×)のいずれかを与えてもらい,\mbox{表\ref{eval}}の対応に従って,評価を数値化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{09table09.tex}\caption{評価値の意味とその数値化}\label{eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また評価では各キャラクタごとに行ってもらった.まず対象キャラクタの対象-一般変換モデルの学習時に用いたその対象キャラクタの100発話文を読んでもらい,そのキャラクタの話し方や言い回しを予め理解してもらった.次に対象キャラクタの各モデルから生成した文をバイアスがかからないようにランダムに並べ変えて提示し,各々に上記の4種類のいずれかの記号を付与してもらい,数値化した.この主観評価実験により各被験者から各々280個の評価結果が得られた.各被験者から得られた評価結果の一致度合いをみるためにFleissのKappa係数を計算すると0.403であった.また◎と○の違いは微妙であり,この部分の判定は被験者によって当然バラツキが出るために,◎と○は同一視して一致度合いをみると,評価結果のFleissのKappa係数は0.663となった.これらの結果から4名の被験者の評価はほぼ一致していると考えられる.次に各発話者の各言語モデルについて,被験者4名の評価値の平均を求めた.この結果を\mbox{表\ref{syukan_eval}}に示す.\mbox{表\ref{syukan_eval}}は各発話者の各モデルに対して,被験者4名の評価値の平均が記載されている.また各モデルに対して生成される発話文は140文あるが,その中で評価値が3以上の文の総数を平均の評価値の下にカッコ書きで記した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[t]\input{09table10.tex}\caption{手法およびキャラクタごとの主観評価値}\label{syukan_eval}{\vskip5pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%評価値が3.0以上であれば,ほぼ妥当な文が生成できていると考えられる.特に(6),(7),(8)の言語モデルの評価値の平均はどれも3.3以上の値を取っていることから,提案手法により構築された言語モデルがほぼ妥当な文を生成できることがわかる.またパープレキシティによりモデルを良い順に並べると,\begin{verbatim}(8)>(7)>(6)>(5)>(4)>(3)>(2)>(1)\end{verbatim}であるが,主観評価によりモデルを良い順に並べると,\begin{verbatim}(7)>(8)>(6)>(5)>(4)>(2)>(3)>(1)\end{verbatim}となり,(2)TAPTと(3)DAPT及び(7)Ours1と(8)Ours2が逆転している.これは評価値3以上の総数から評価してもこの逆転の現象が生じている.(3)DAPTは文頭の数単語から発話者が特定できなければ,文としては正しいが,その発話者らしい文を生成するとは限らない点から,(2)TAPTの評価値よりも劣ったと考えられる.また(7)Ours1と(8)Ours2のパープレキシティの差はわずかであることから,実際の生成文での主観評価が逆転したのだと考えられる.また(6),(7),(8)の言語モデルの中で,発話者「ガボ」の(8)の言語モデルの主観評価値だけが3を割っている.これは文頭「この町おもしろかった」を与えたときの(8)の言語モデルの生成文が「この町おもしろかったなあ。オイラも行ってみたかったなあ。」であり,この生成文の評価値が4名とも×を与えたことが大きな原因である.この生成文は2つの文からなり,それぞれの文は「ガボ」の発話と見なせるが,1文目の「この町おもしろかったなあ。」ということはその町に訪れた感想であるのに,2文目の「オイラも行ってみたかったなあ。」はその町に訪れていないことを意味しているため×が与えられた.なお文頭「この町おもしろかった」に続く(6)や(7)の言語モデルの生成文は,どちらも「この町おもしろかったなあ。」であり○や◎が与えられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3\subsection{擬似データ作成時のフィルタリングの効果}本研究では擬似データ(1)と擬似データ(2)の作成時に\mbox{式\ref{giji1cont}}や\mbox{式\ref{giji2cont}}で示されるフィルタリングを行った.この効果について調査する.まずフィルタリングを行わない場合,\mbox{表\ref{tab-data21}}や\mbox{表\ref{tab-data22}}で示される入力発話がそのまま擬似データ(1)と擬似データ(2)に変換されるため,言語モデルの学習データの数としてはフィルタリングを行わない方が多く,最終の結果はフィルタリングを行わない方が良さそうである.しかし実際は一般ー対象変換モデルや対象ー一般変換モデルの性能が十分でないことや変換元の発話文の問題もあり,学習のノイズになるようなデータも生成されてしまうために,本研究では簡易なフィルタリングを設けている.まず式4で示されるフィルタリングの効果を調査する.具体的には\mbox{式\ref{giji1cont}}のフィルタリングを行わずに擬似データ(1)を作成し,\ref{擬似データの有効性}節と同じ実験を行った.結果を\mbox{表\ref{filter_jikken_kekka}}に示す.表中の\(M1_{X}\)がフィルタリングを行った本研究での結果であり,\(M1'_{X}\)がフィルタリングを行わない結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[b]\input{09table11.tex}\caption{フィルタリングの有無による擬似データ(1)の効果}\label{filter_jikken_kekka}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%「アイラ」に対してはフィルタリングを行わない方が良い結果を出しているが,「アイラ」以外の発話者及び7名の平均に対してはフィルタリングを行う方が良い結果であり,\mbox{式\ref{giji1cont}}のフィルタリングは有効であったと言える.また\(M1'_{X}\)モデルの学習の初期値は\(M0_{X}\)モデルである.\(M0_{X}\)モデルの平均のパープレキシティが27.33であり,\(M1'_{X}\)が27.42である.つまり\mbox{式\ref{giji1cont}}のフィルタリングを行わずに,擬似データ(1)を作成し,それを学習に使った場合は言語モデルの性能を落とすことになる.更に\mbox{式\ref{giji1cont}}の他に\mbox{式\ref{giji2cont}}のフィルタリングを行わずに擬似データ(2)を作成し,\ref{擬似データの有効性}節と同じ実験を行った.結果を\mbox{表\ref{filter_jikken_kekka2}}に示す.表中の\(M2_{X}\)がフィルタリングを行った本研究での結果であり,\(M2'_{X}\)がフィルタリングを行わない結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[b]\input{09table12.tex}\caption{フィルタリングの有無による擬似データ(2)の効果}\label{filter_jikken_kekka2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%擬似データ(1)の場合と同様,擬似データ(2)の場合も「アイラ」に対してはフィルタリングを行わない方が良い結果を出しているが,「アイラ」以外の発話者及び7名の平均に対してはフィルタリングを行う方が良い結果であり,\mbox{式\ref{giji2cont}}のフィルタリングは有効であったと言える.また\(M2'_{X}\)モデルの学習の初期値は\(M1'_{X}\)モデルである.\(M1'_{X}\)モデルの平均のパープレキシティが27.42であり,\(M2'_{X}\)が27.89である.つまり\mbox{式\ref{giji1cont}}と\mbox{式\ref{giji2cont}}のフィルタリングを行わずに擬似データ(2)を作成し,それを学習に使ったことで言語モデルの性能が落ちている.フィルタリング無しの擬似データ(1)はパープレキシティを0.09悪化させたが,フィルタリング無しの擬似データ(2)はパープレキシティを0.47悪化させている.フィルタリング無しの擬似データ(2)の方が悪化の程度が大きいのは,擬似データ(1)の場合は1回のフィルタリングを省いているだけだが,擬似データ(2)の場合は2回のフィルタリングを省いているからだと考えられる.また擬似データ(1)の発話文の長さの平均は20.9であり,擬似データ(2)の発話文の長さの平均は31.8であり,両者には大きな差がある.そのため擬似データ(2)による性能の向上は,\mbox{式\ref{giji2cont}}のフィルタリングにより単に発話の長さが26文字以上の長い発話文を訓練データに追加したことによるものであり,本論文で提案した変換モデルは言語モデルの性能向上に寄与していないのでは,という疑念もある.この点を確認するために,擬似データ(2)の構築元になる発話の中で発話の長さが26文字以上の発話を取り出し,それを変換モデルで変換せずに,そのまま訓練データに追加した場合の実験を行った.これは\ref{擬似データの有効性}節で擬似データ(2)の有効性を示した実験において,擬似データ(2)の代わりに発話の長さが26文字以上の発話データを用いた実験の形である.結果を\mbox{表\ref{25_jikken_kekka}}に示す.表中の\(M2_{X}\)が擬似データ(2)追加した本研究での結果であり,\(M2^{26}_{X}\)が26文字以上の発話データを用いた実験である.\(M2_{X}\)と\(M2^{26}_{X}\)のパープレキシティの値の下にはカッコ書きでデータ数も示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[t]\input{09table13.tex}\caption{発話長だけのフィルタリングの結果}\label{25_jikken_kekka}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験の結果,キーファ,マリベル及びメルビンに関しては,擬似データ(2)を訓練データに追加するよりも,単に26文字以上の長い発話を訓練データに追加する方が良い結果が得られているが,他の4名に関しては擬似データ(2)の方が追加の効果が高い.また全体の平均をみても擬似データ(2)の方が追加の効果が高い.この点から本論文の提案した変換モデルは性能の向上に寄与していると考えられる.更に単に26文字以上の長い発話を訓練データに追加した場合,学習の初期値のモデルとなる\(M1_{X}\)よりも性能が落ちている.このことから単に26文字以上の発話を訓練データに追加するだけでは,必ずしも言語モデルの性能が向上するというわけではないことがわかる.また擬似データ(2)のデータ数と26文字以上の発話のデータ数には大きな差がある.これは一般-対象変換モデルが長い発話文を短い発話文に変換する傾向があったことを意味している.\mbox{式\ref{giji2cont}}のフィルタリングは,このような変換文を除くためにも機能している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4\subsection{今後の課題}今後の課題として「同領域データの利用」,「ベースとなる言語モデルの調整」,「大規模言語モデルの利用」の3点をあげる.\bigskip\noindent\underline{\textbf{同領域データの利用}}\\\本研究で構築した一般-対象変換モデルを利用すれば,大量に存在する一般的な発話を対象キャラクタの発話に変換できる.そのため大量に作成できる擬似データ(1)を用いることで対象キャラクタの言語モデルの性能を更に高められる可能性がある.しかし\citeA{kishino-2022-9}では「日本語話し言葉コーパス」\footnote{\url{https://clrd.ninjal.ac.jp/csj/index.html}}の発話を対象キャラクタの発話に変換することを行っても良い結果が得られないことを示した.言語モデルの性能向上には利用データの発話の領域も重要な要素であると考えられる.一方,本実験はゲームソフト内の発話を利用したが,同シリーズのゲーム内の発話は同領域と見なせる.そのため同シリーズのゲーム内の発話を利用することで,更に対象キャラクタの言語モデルの性能を向上させることができると考えている.\bigskip\noindent\underline{\textbf{ベースとなる言語モデルの調整}}\\\本実験ではベースとなる言語モデルとしてrinna/japanese-gpt2-mediumを利用したが,他にも多くの強力な言語モデルが存在する.ベースとなる言語モデルを変化させることで提案手法がどの程度有効になるのかを調べることも必要だと考えている.また言語モデルの出力は,パラメータの設定で大きく変化する場合もあり,より適切なパラメータも調査したい.\bigskip\noindent\underline{\textbf{大規模言語モデルの利用}}\\\GPT-3のような大規模言語モデルではzero-shotやいくつかの事例を与えるIn-contextlearningの枠組みで所望の出力が得られることが知られている.つまり大規模言語モデルに与えるプロンプトの工夫次第で,対象キャラクタの発話を生成できる可能性は高い.大規模言語モデルの利用と本研究のような中規模の言語モデルのfine-tuningとの比較は興味深く,今後,調査していきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{おわりに} 本研究では,特定の話者の言語モデルを構築する方法を提案した.この際,対象の発話者の発話をタスクのデータとみなし,対象の発話者の登場する作品の登場人物の発話をドメインのデータとみなした,DAPT+TAPTの手法を利用した.また,発話者の名前をデータに付与することで,言語モデルのパープレキシティが改善することを確認した.その上で,T5による一般-対象モデルによるデータ拡張(擬似データ(1)の構築),そして,T5による対象-一般変換モデルと一般-対象モデルを用いたデータ拡張(擬似データ(2)の構築)を提案し,DAPT+TAPTの手法および発話者の名前をデータに付与する手法と併用することで,言語モデルが最良になることを,パープレキシティの評価実験により示した.また主観評価においても提案手法の有効性が示せた.また擬似データ(1),(2)を構築する際に導入したフィルタリングの効果も確認できた.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は国立国語研究所の共同研究プロジェクト「テキスト読み上げのための読みの曖昧性の分類と読み推定タスクのデータセットの構築」及びJSPS科研費23K11212,22K12145の助成を受けています.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{09refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{T5モデルの学習時のパラメータ} ここではT5モデルの学習時のパラメータ設定に対応するコード部分を記述する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{verbatim}no_decay=["bias","LayerNorm.weight"]optimizer_grouped_parameters=[{"params":[pforn,pinnet.named_parameters()ifnotany(ndinnforndinno_decay)],"weight_decay":0.0,},{"params":[pforn,pinnet.named_parameters()ifany(ndinnforndinno_decay)],"weight_decay":0.0,},]criterion=nn.CrossEntropyLoss()optimizer=optim.AdamW(optimizer_grouped_parameters,lr=3e-4,eps=1e-8)scheduler=get_linear_schedule_with_warmup(optimizer,num_warmup_steps=0,num_training_steps=5000)\end{verbatim}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{言語モデルのgenerateメソッドのパラメータ} 主観評価の実験において,言語モデルの\verb|generate|メソッドを用いて発話分を生成した.その際の\verb|generate|メソッドのパラメータを以下に記す.記述のないパラメータについてはdefaultのものを使っている.また\verb|tokenizer|はモデルで指定されているトークナイザである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{verbatim}output=model.generate(input_ids,//入力の先頭の数単語max_length=40,min_length=10,do_sample=False,top_k=500,top_p=0.1,pad_token_id=tokenizer.pad_token_id,bos_token_id=tokenizer.bos_token_id,eos_token_id=tokenizer.eos_token_id)\end{verbatim}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{馬ブン}{2017年静岡文化芸術大学デザイン学部メディア造形学科卒業.2019年3月静岡文化芸術大学大学院デザイン研究科デザイン専攻修了.2019年4月茨城大学理工学研究科社会インフラシステム科学専攻入学.現在に至る.}\bioauthor{岸野望叶}{2021年茨城大学工学部情報工学科卒業.2023年茨城大学理工学研究科情報工学専攻修了.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部コミュニケーション工学科卒.2009年同大学大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師,2021年東京農工大学工学研究院准教授.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師.2001年同学科助教授.2005年学科改組により,情報工学科准教授.2015年同学科教授.現在に至る.機械学習,統計学による自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V25N04-05
\section{はじめに} \label{sec:intro}並列構造は等位接続詞などの句を連接させる働きのある語にともなって,句や文が並列して出現する構造である.並列構造は自然言語において高い頻度で現れるが,並列構造が包含する句の範囲には曖昧性があり,また並列構造によって1文が長くなるため,自然言語解析を困難にしている主な要因となっている.近年,句構造や依存構造などの構文解析の手法は顕著に発展してきているが,並列構造を高い精度で解析する決定的な手法は確立されていない.並列構造の曖昧性が解消されることで構文解析の誤りを減らすだけではなく,科学技術論文の解析や文の要約,翻訳など広い範囲のアプリケーションでの利用が期待される.並列構造の構成要素である個々の並列句には二つの特徴がある.一つは並列構造内の個々の並列句はそれぞれ類似した意味・構造となる特徴であり,もう一つはそれぞれの並列句の入れ替え・省略を行っても文法上の誤りが生じることや元の文意を損なうことがなく,文として成立するという特徴である.並列句の範囲を同定するタスクにおいて,従来の研究では並列構造を同定するための重要な手がかりのうち,並列句の候補となる句のペアの類似度に基づくモデルが提案されてきた\cite{kurohashi-nagao:1994:CL,shimbo-hara:2007:EMNLP-CoNLL,hara-EtAl:2009:ACL-IJCNLP,hanamoto-EtAl:2012:EACL}.しかしながら,並列句は必ずしも類似するとは限らず,異なる種類の句が並列した場合や動詞句や文の並列では並列句はしばしば非類似となり,類似性のみを利用した手法では非類似の並列句をとらえることができなかった.また従来手法では類似度の計算に構文情報やシソーラスを用いて人手で設計された素性を利用しており,素性設計のコストや外部リソースの調達コストの点で問題がある.これらの問題を克服するために,Ficlerら\cite{ficler-goldberg:2016:EMNLP}は,並列句の類似性のみならず可換性に着目し,ニューラルネットワークによって類似性・可換性の特徴ベクトルを計算し,並列句範囲の同定を行うモデルを提案した.Ficlerらの手法では外部の構文解析器を用いて並列句範囲の候補を抽出したのち,候補に対してスコア付けをして範囲を同定するというパイプライン処理を行っている.Ficlerらの手法はPennTreebankでの並列句範囲の同定のタスクにおいて,既存の句構造の構文解析器を上回る精度を達成し,GENIAコーパスにおいても新保ら\cite{shimbo-hara:2007:EMNLP-CoNLL},原ら\cite{hara-EtAl:2009:ACL-IJCNLP}の並列句の類似性に基づく手法より高い性能を発揮した.Ficlerらの手法は従来の手法の欠点であった非類似となる並列句の範囲をとらえられない点や人手による素性設計のコストの点をいくらか解決しているものの,外部の構文解析器の出力に強く依存しており,解析器の誤りに起因する誤り伝搬やパイプライン処理による解析速度の低下の点で課題が残っている.本研究では,単語の表層形と品詞情報のみから並列句の類似性・可換性の特徴を抽出し,並列構造の範囲を同定する手法を提案する.また句を結びつける働きを持つかどうかが曖昧である語に対して,連接する並列句が存在しない場合の取り扱いや,並列句が存在しない場合を検出する方法についても示す.提案手法では,近年自然言語の解析で広く用いられている双方向型リカレントニューラルネットワークを使用して候補となる並列句の文脈情報を考慮した類似性・可換性の特徴ベクトルを計算する.実験の結果,PennTreebankにおける並列句の範囲同定のタスクにおいて,構文情報を用いない提案手法が構文情報を利用した既存手法と同等以上のF値を得た.さらにGENIAコーパスにおいては,類似となる傾向の高い名詞句の並列,非類似となる傾向の高い文の並列の両方について,提案手法が既存手法を上回る再現率を達成したことを示す.提案手法の貢献は,Ficlerらの手法のような構文解析の結果に依存したパイプライン処理やニューラルネットワークのアーキテクチャを使用することなく,原らの手法で課題となっていた非類似となる並列句の範囲同定の再現率を向上させ,全体として既存手法と同等以上の解析精度を達成したことである. \section{並列構造解析} \label{sec:coord}本稿では,句を連接する働きを持つ可能性のある語を並列キーと呼び,``$word_{\rmposition}$''の形式で表す.並列キーに属する語として主に等位接続詞が挙げられるが,英語のbutが等位接続詞のほかに前置詞となる場合があるように,等位接続詞以外の品詞となり得る語は語の表層形から並列キーが句を連接する働きがあるかどうかを判別することは必ずしもできない.並列キーが句を連接している場合,結びつけられる句を{\bf並列句}と呼び,並列キーと並列句から成る一連の語句を{\bf並列構造}と呼ぶ.反対に並列キーが句を連接する働きがない場合は並列キーによって結びつけられる句や対応する並列構造は存在しない.また,文頭の並列キーは品詞が等位接続詞の場合であっても後続の句と並列関係にある句が文内に存在しないため,並列キーは文内において句を連接する働きがないと見なし,対応する並列構造を持たないものとする.\subsection{並列構造の解析の困難さ}\label{ssec:difficulties}並列句が包含する語の範囲は構文上一意に決まる場合があるが,文の意味や前後の文脈から決定づけられることが多い.並列構造の範囲が曖昧であることに起因して,並列構造を有する文は構文・意味の面においても複数の解釈がされ得る.並列構造は範囲・構文・意味の非一意性を持つばかりではなく,次の二つのような解析の困難性を有している(\figref{property}).\begin{enumerate}\renewcommand{\labelenumi}{}\item並列キーが句を連接する場合と連接しない場合があり,連接する場合であっても一つの並列キーによって連接される句は必ずしも並列キーの前後の二つの句に限定されず,三つ以上の句を伴う場合がある.\item文中に複数の並列構造が現れる場合があり,さらには一方の並列構造が他方の並列構造の句に含まれるような入れ子構造となるケースがある.\end{enumerate}(i)の性質によって,並列構造の解析には並列キーに隣接する句だけではなく,隣接する句に連なる句が同一の並列構造に属するかを考慮する必要性が生じる.また,並列キーが等位接続の役割を果たさない場合に並列キーに対する並列句の数は0となり,並列キーに対する並列句の出現数が必ず二つ以上となるような限定ができない.(ii)については,文中に出現する並列キーの数は文によって異なっており,複数の並列構造が出現する場合に全ての並列構造の範囲が互いに整合しているかを確認しなければならない.すなわち,個々の並列構造の範囲を独立に確定するのではなく,ある並列構造が他の並列構造に覆われて入れ子となるか,あるいは範囲が交差せず重なり合っていない状態のどちらかになるという条件を満たすよう範囲を決定しなければならない.\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f1.eps}\end{center}\caption{並列構造の範囲の例}\label{fig:property}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f2.eps}\end{center}\caption{タスクの入出力の例}\label{fig:task}\end{figure}\subsection{タスクの定義}本研究で取り組む英語における並列句範囲の曖昧性解消のタスク定義について述べる.文に現れる並列キーに対して,並列キーが等位接続の働きをし,並列キーによって結び付けられる句がある場合にはそれぞれの句の始点と終点を返す.並列キーが並列の役割を果たさず,並列キーに連接する並列句が存在しない場合には{\scNone}を返す.\figref{task}はタスクの入出力の例である.例から分かるように,本タスクで期待される出力を得るためには,\ref{ssec:difficulties}節で示したような文中の複数の並列構造,三つ以上の並列句について取り扱える必要がある.本研究の提案手法は文中の複数の並列構造を検出し,各々の並列構造に属する並列句の範囲同定を行うことができるが,複数の並列構造の範囲が競合しないような制約を満たすには至っていない.また,三つ以上の並列句についても範囲同定ができるものの,並列キーに前出する並列句が二つ以上出現する場合はそれらを結合して一つの並列句として見なして学習をし,範囲同定を行う際に個々の並列句に分割している.\subsection{並列構造の特徴}並列構造には,並列句の範囲を同定するために有用な二つの特徴がある.\begin{enumerate}\renewcommand{\labelenumi}{}\item{\bf類似性}:同一の並列構造に属する並列句は,句の構文構造・意味の点で類似性を持つ.\item{\bf可換性}:同一の並列構造に属する並列句は,互いに入れ替えても文の流暢性が保たれる.\end{enumerate}上記の性質についてそれぞれ例を挙げる.類似性について\figref{property}(a)の例では,$and_{25}$に対する並列句は全て名詞句(NP)となっており,いずれも冠詞(DT),形容詞(JJ),名詞(NN,NNS),前置詞(IN)という類似の品詞系列が見られる(\figref{characteristic}(a)).また可換性については,\figref{property}(b)の例の並列句を,``Asidefrom[talksoncutting(chemical)$and_{12}$(strategic)arms]$and_7$[theSovieteconomicplight],oneotherissue\ldots''と入れ替えても構文上誤りのない文として成立している(\figref{characteristic}(b)).また,可換性の性質によって各々の並列句を並列構造の前後の文脈と流暢性を損なうことなく接続でき,並列句のうち一つを残して並列構造を取り除いても文として成立する.\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f3.eps}\end{center}\caption{並列句の特徴}\label{fig:characteristic}\end{figure}二つの特徴は並列句の範囲を同定する強力な手がかりとなり得るが,全ての並列構造で普遍的に利用できるわけではない.例えば同一の並列構造に属する複数の並列句が,それぞれ異なる種類の句であったり,文の並列であったりする場合は並列句の類似性は必ずしも高くない(異なる種類の句による非類似の例:``Billis[introuble]$and_5$[tryingtocomeupwithanexcuse].'',文の並列による非類似の例:``[Thevalueofthetwotransactionswasn'tdisclosed],$but_{11}$[anIFIspokesmansaidnocashwouldchangehands].'').また,先行する並列句に出現した語が後続する並列句では省略されている場合は,適切に語を補わずに句を交換すると文の構文的な正しさが損なわれるため,可換性が成り立つとは言えない(語の省略による非可換の例:``[Honeywell's\underline{contracttotaled}\$69.7million],$and_9$[IBM's\$68.8million].'').本研究では,類似性・可換性のどちらか一方の特徴だけを用いるのではなく,両方を特徴量として用いることで,並列句の範囲の同定を行う. \section{関連研究} \label{sec:rworks}これまで並列構造解析の多くの研究では並列句の類似性に基づいた手法が発展してきた.日本語における並列句の範囲同定のタスクにおいて,黒橋ら\cite{kurohashi-nagao:1994:CL}は並列句の類似度計算にチャートを用い,動的計画法によって並列構造の検出と範囲の同定を行った.新保ら\cite{shimbo-hara:2007:EMNLP-CoNLL}は英語の並列構造解析において,系列アラインメントと単語・品詞・形態情報に基づく素性により,並列句の内部の複数単語間の類似度を動的計画法を用いて計算した.黒橋らの手法においてチャートの経路に付与されるスコアはあらかじめ定義された少数のルールに基づくスコア関数によって付与されていたのに対し,新保らの手法では編集グラフの枝と頂点に与えられるスコアは人手で設計された素性の重み付き線形和で表され,重みのパラメータの調整は機械学習の手法であるパーセプトロンが用いられた.新保らのモデルは入れ子となる並列構造を扱うことができなかったが,原ら\cite{hara-EtAl:2009:ACL-IJCNLP}は新保らの手法を拡張し,並列構造を木として導出するためのルールを設けることで,複数の並列構造・三つ以上の並列句について取り扱った.原らの手法では個々の並列構造に対して並列句の類似度を計算し,複数の並列構造のスコアの総和が最も高くなるような並列構造の範囲の組み合わせを文全体の並列構造の木として解析した.花元ら\cite{hanamoto-EtAl:2012:EACL}はHPSGの構文解析器を拡張し,原ら\cite{hara-EtAl:2009:ACL-IJCNLP}のモデルと組み合わせて使用し,並列句の範囲を双対分解を用いて同定する手法を提案した.類似度に基づく並列構造解析の手法に対して,Ficlerら\cite{ficler-goldberg:2016:EMNLP}は並列句の類似度に加えて並列句の可換性についても並列句候補のスコア計算の素性として取り入れた.Ficlerらの手法は三つのコンポーネントから成り立っており,並列構造の検出のための二値分類器,並列句の範囲の候補を抽出するための外部の構文解析器(BerkeleyParser\cite{petrov-EtAl:2006:COL-ACL}),並列句候補のスコア計算によって範囲を一意に決定する識別器という構成となっている.並列句候補のスコア計算においては,人手で設計した素性ではなくニューラルネットワークを用いることで素性設計のコストの問題を克服している.類似度計算にはBerkeleyParserによって出力された構文情報を用いて並列句候補をベクトル表現として算出し,ベクトル同士のユークリッド距離を求めており,グラフを用いた類似度計算手法に比べて計算量が削減されている.可換性については,まず並列句のうち一つを残して並列構造を取り除いて元の文を簡易化した新たな文として取り出すという手順を,並列構造に属する二つの並列句に対してそれぞれ適用することで二つの文を得る.次にそれら二つの文を双方向型LSTMによって処理をし,出力された隠れ状態ベクトルを並列句の接続部分の文脈情報を考慮した素性ベクトルとして使用している.類似性と可換性の特徴に加えてBerkeleyParserの出力から並列句の候補を生成した際の確率値や候補の順位なども追加の素性としてスコア計算に用いている.Ficlerらの手法はGENIAコーパスにおいて原らの類似度に基づく手法を上回る精度を達成しているが,素性ベクトルの計算において構文情報に依存しているため,三つのコンポーネントの誤り伝搬や外部の構文解析器への依存の点で課題が残る.Ficlerらは,(1)類似性,(2)可換性,(3)候補の生成確率に基づく順位に関連する素性の三つの素性をそれぞれ一つずつ用いてスコア計算をした場合について比較実験をしており,(3)のみを用いる場合の精度が(1)または(2)のみを用いる場合の精度よりも高いことを報告している.ただし構文解析の結果に基づく候補の抽出は共通して行われており,構文解析を利用しない場合は候補の抽出や(1),(3)の素性は利用できないため,Ficlerらが報告している数値よりも精度が下がることが考えられる.しかしながら,構文解析器や解析対象のドメインの変更などによって構文解析の精度が変化した際に,Ficlerらの手法がどの程度影響を受けるかについては定量的な分析がされておらず,また我々のほうでも定性的な分析をするに留まった\footnote{BerkeleyParserの改変部分や実験設定についての詳細を得ることができず,再現実験をすることができなかった.}.河原ら\cite{kawahara-kurohashi:2008:Coling}は類似度の素性を用いずに依存構造と格フレームに基づいて並列句の生成確率を学習し,範囲の同定を行っている.吉本ら\cite{yoshimoto-EtAl:2015:IWPT}はグラフベースの依存構造解析の手法を拡張し,依存構造解析とともに並列構造の範囲を同定するアルゴリズムを提案している. \section{提案手法} \label{sec:method}本研究では並列キーに対して個々の並列句の範囲ではなく並列構造全体の範囲を直接的に同定する.すなわち,並列キーに先行する並列句の終点を並列キーの直前,並列キーに後続する並列句の始点を並列キーの直後に仮定を置き,並列構造全体の始点と終点のみを提案モデルで学習・推定する.また,英語においては並列キーに先行する並列句は,カンマを伴って二つ以上出現する場合があるが,その場合においては最初に出現する並列句の始点と並列キーの直前に出現する並列句の終点をスパンとする一つの並列句と見なすことでモデルを適用する(\figref{task}の$and_{37}$の例:先行する並列句(33,36)cash,Memotecstock;後続する並列句(38,38)debentures;並列構造全体の始点・終点(33,38)).ただし,これらの仮定は並列句の範囲の可能な組み合わせを制限し,計算量を削減するために行っているため,並列句の始点・終点の制限をなくして並列キーに先行する二つ以上の並列句の各々の範囲を同定する手法として,本研究のモデルを適用することは可能である\footnote{提案手法の計算量が$\mathcal{O}(N^2)$に対し,配列句の範囲の制限をなくしてカンマを区切り文字として先頭の並列句の範囲と終端の並列句の範囲を求める場合の計算量は$\mathcal{O}(N^4)$となる.}.語数$N$の文$x=\{x_1,x_2,x_3,\ldots,x_N\}$における並列キー$x_k$に対して,並列キーに先行する並列句を$s_1=\{x_i,\ldots,x_{k-1}\}$$(1\leqi\leqk-1)$,後続する並列句を$s_2=\{x_{k+1},\ldots,x_j\}$$(k+1\leqj\leqN)$と書き表す.また,並列キー$x_k$に連接する並列句が存在しない場合は並列句の範囲のペアを{\scNone}として表す.提案手法では,並列構造全体の始点$i$と終点$j$の全ての可能な組み合わせ(並列句が存在しない場合の{\scNone}を含む)についてスコア計算を行い,最もスコアの高い組み合わせを二つの並列句の範囲$(i,k-1)$,$(k+1,j)$とし,{\scNone}のスコアが最も高い場合は並列句が存在しないものとする.並列キーに隣接するカンマは並列句の始点・終点ではなく並列キーの一部として見なされるため,解析・評価時には並列キーの直前・直後のカンマを並列キーに含むものとして範囲の修正をする.また,モデルが学習・予測した二つの並列句の範囲に対して,並列キーに先行する並列句の範囲からカンマを区切り文字として個々の並列句の範囲の復元をし,評価を行う.\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f4.eps}\end{center}\caption{提案手法で用いるニューラルネットワークのアーキテクチャの概要}\label{fig:arch}\end{figure}\figref{arch}は本研究で用いるニューラルネットワークのアーキテクチャの概要である.提案モデルは以下の四つの部分で構成される.\begin{description}\item[入力層:]単語・品詞のone-hotベクトルからなる系列に分散表現のベクトルを割り当てる.\item[RNN層:]双方向型リカレントニューラルネットワーク(双方向型RNN)により,単語・品詞のベクトルの系列から文脈情報を考慮した隠れ状態のベクトルの系列を取り出す.\item[特徴抽出関数:]並列構造の範囲の可能な組み合わせについて,双方向型RNNの出力を用いて特徴ベクトルを抽出する.\item[出力層:]個々の並列構造の範囲の候補に対して,特徴ベクトルからスコア計算を行う.\end{description}以降の小節ではこれらのネットワーク構造の詳細について説明をする.\subsection{入力層}提案モデルはまず,語彙数次元のone-hotベクトルで表された単語・品詞の系列を入力として受け取り,埋め込み表現\cite{bengio-EtAl:2003:JMLR}として知られる分散表現のベクトルの系列に変換する.これらの単語・品詞の実数値のベクトルは連結されて次の層の入力として渡される.\begin{equation}\begin{aligned}{\bfh}^{word}_{t}&=W^{word}{\bfx}^{word}_t\\{\bfh}^{tag}_{t}&=W^{tag}{\bfx}^{tag}_t\\{\bfh}^{(0)}_{t}&=[{\bfh}^{word}_{t};{\bfh}^{tag}_{t}]\\{\bfh}^{(0)}&=\bigl\{{\bfh}^{(0)}_{1},\ldots,{\bfh}^{(0)}_{N}\bigr\}\end{aligned}\end{equation}ここで${\bfx}^{word}_t$は単語系列の$t$番目の語,${\bfx}^{tag}_t$は品詞系列の$t$番目の品詞を指すone-hotベクトルである.また,$W^{word}$,$W^{tag}$はそれぞれ単語,品詞の分散表現を表すベクトルから成るパラメータの行列である.\subsection{RNN層}分散表現のベクトル系列は多層の双方向型RNNによってRNNの隠れ状態のベクトル系列に変換される.双方向型RNNは時系列の入力を過去から未来の方向と未来から過去の方向へ順次計算を行う.提案手法ではこのネットワークを用いて左から右(順方向)の文脈と右から左(逆方向)の文脈の情報を取り出し,後のネットワークでの計算に利用する.多層双方向型RNNの第$\ell$層の時刻$t$における順方向の隠れ状態ベクトル${\bfh}^f_{\ell,t}$は,同じ層の直前の時刻$t-1$における順方向の隠れ状態ベクトル${\bfh}^f_{\ell,t-1}$と直前の層の同一時刻$t$における隠れ状態ベクトル${\bfh}_{\ell-1,t}$から計算される.\begin{equation}{\bfh}^f_{\ell,t}=f({\bfh}^f_{\ell,t-1},{\bfh}_{\ell-1,t})\end{equation}第$\ell$層の時刻$t$における逆方向の隠れ状態ベクトル${\bfh}^b_{\ell,t}$も同様に計算される.本研究で用いる多層双方向型RNNは層ごとの出力で順方向の隠れ状態ベクトルの系列$\{{\bfh}^f_{\ell,t}\}^N_{t=1}$と逆方向の隠れ状態ベクトルの系列$\{{\bfh}^b_{\ell,t}\}^N_{t=1}$が各時刻$t$で連結され,次の層の入力値として用いられる.一般にRNNは以下に表現されるような関数$f$を持つ.\[f({\bfx}_t,{\bfh}_{t-1})=g(W{\bfx}_t+U{\bfh}_{t-1})\]ここで関数$g$は双曲線正接関数tanhや正規化線形関数ReLUなどの任意の非線形関数であり,$W$,$U$はパラメータ行列である.RNNは勾配消失の問題から学習が困難であるため\cite{pascanu-EtAL:2013:PMLR},本研究ではRNNの関数$f$に代わってLSTM(LongShort-TermMemory)\cite{hochreiter-schmidhuber:1997:NC}を用いる.\subsection{特徴抽出関数}特徴抽出関数のレイヤーでは,双方向型RNNの出力系列$\{{\bfh}_{t}\}^N_{t=1}$を用いて並列構造の並列キーに先行する並列句候補と後続する並列句候補のベクトル表現を計算し,類似性に基づく特徴ベクトルと可換性に基づく特徴ベクトルの二つの特徴ベクトルを出力する.並列構造の並列キーに先行する並列句候補のベクトル表現${\bfv}^{pre}_i$と後続する並列句候補のベクトル表現${\bfv}^{post}_j$は関数$f_{pooling}$から計算される.本研究では,関数$f_{pooling}$としてベクトルの要素ごとの平均をとる関数を用いる.\begin{equation}\label{eq:average}f_{pooling}({{\bfh}_{l:m}})={\rmaverage}\bigl({\bfh}_l,{\bfh}_{l+1},\ldots,{\bfh}_{m-1},{\bfh}_m\bigr)\end{equation}したがって,${\bfv}^{pre}_i$と${\bfv}^{post}_j$はそれぞれ以下のように表される.\begin{equation}\begin{aligned}{\bfv}^{pre}_i&=f_{pooling}({{\bfh}_{i:k-1}})\;\;(1\leqi\leqk-1)\\{\bfv}^{post}_j&=f_{pooling}({{\bfh}_{k+1:j}})\;\;(k+1\leqj\leqN)\end{aligned}\end{equation}ベクトル${\bfv}^{pre}_i$,${\bfv}^{post}_j$は次小々節に定義される特徴抽出関数に入力される.\subsubsection{類似性に基づく特徴ベクトル}並列構造の並列キーに先行する並列句候補と後続する並列句候補の類似性に基づく特徴ベクトルは以下のように計算される.\begin{equation}f_{sim}({\bfv}^{pre}_i,{\bfv}^{post}_j)=\bigl[|{\bfv}^{pre}_i-{\bfv}^{post}_j|;{\bfv}^{pre}_i\odot{\bfv}^{post}_j\bigr]\end{equation}ここで$|{\bfv}^{pre}_i-{\bfv}^{post}_j|$はベクトルの要素ごとの差の絶対値であり,${\bfv}^{pre}_i\odot{\bfv}^{post}_j$はベクトルの要素ごとの積である.これらの差と積の演算は二つのベクトルの距離と関連性をモデル化するために用いている\cite{ji-eisenstein:2013:EMNLP,tai-EtAl:2015:ACL-IJCNLP,hashimoto-EtAl:2017:EMNLP}.\subsubsection{可換性に基づく特徴ベクトル}可換性に基づく特徴ベクトルは以下のように定義をする.\begin{equation}\begin{aligned}f_{repl}({\bfh}_{1:N},i,j,k)&=\\\bigl[|{\bfh}_{i-1}\odot{\bfh}_{i}&-{\bfh}_{i-1}\odot{\bfh}_{k+1}|;\\|{\bfh}_{j}\odot{\bfh}_{j+1}&-{\bfh}_{k-1}\odot{\bfh}_{j+1}|\bigr]\end{aligned}\end{equation}ここで${\bfh}_{i-1}$は並列構造の直前の語における文脈を表すベクトルであり,二つの並列句候補$(i,k-1)$と$(k+1,j)$が可換であれば,それぞれの並列句候補の先頭の語$i$,$k+1$と流暢性を損なわず結びつくと考えられる.また${\bfh}_{j+1}$は並列構造の直後の語における文脈を表すベクトルであり,同様に各並列句候補の末尾の語に接続される.1番目の差$|{\bfh}_{i-1}\odot{\bfh}_{i}-{\bfh}_{i-1}\odot{\bfh}_{k+1}|$は並列構造の直前の文脈と二つの並列句候補の始点との接続の差を表している.2番目の差$|{\bfh}_{j}\odot{\bfh}_{j+1}-{\bfh}_{k-1}\odot{\bfh}_{j+1}|$は並列構造の直後の文脈と二つの並列句候補の終点との接続の差を表している.これらの差は二つの並列句候補の交換のしにくさ(コスト)を表していると解釈できる.また,並列構造が文の先頭で始まる場合($i=0$),関数$f_{repl}({\bfh}_{1:N},i,j,k)$が返すベクトルのうち,$|{\bfh}_{i-1}\odot{\bfh}_{i}-{\bfh}_{i-1}\odot{\bfh}_{k+1}|$をゼロベクトルとし,文の末尾で終わる場合($j=N$)は$|{\bfh}_{j}\odot{\bfh}_{j+1}-{\bfh}_{k-1}\odot{\bfh}_{j+1}|$をゼロベクトルとする.\subsection{出力層}出力層では並列構造の範囲の候補に対して類似性・可換性に基づく特徴ベクトルに基づいてスコア計算を行う.出力層のニューラルネットワークは計算ユニットを持つ層が順方向に多層に接続された多層パーセプトロン(MLP)から成る.並列キーに先行する並列句候補$(i,k-1)$と後続する並列句候補$(k+1,j)$のペアに対するスコアは以下のように計算される.\begin{equation}\label{eq:mlp}\begin{aligned}{\rmScore}(i,j)&=\\{\rmMLP}\bigl(\bigl[&f_{sim}({\bfv}^{pre}_i,{\bfv}^{post}_j);\\&f_{repl}({\bfh}_{1:N},i,j,k)\bigr]\bigr)\end{aligned}\end{equation}また,並列キーに対して並列構造が存在しない場合を考慮するために,範囲の候補{\scNone}についてもスコアの計算を行う.{\scNone}のスコアは並列キーに対するRNN層の隠れ状態ベクトル${\bfh}_{k}$に重みベクトルを乗ずることで求める.\begin{equation}{\rmScore(\textsc{None})}={\bfw}\cdot{\bfh}_{k}+{\bfb}\end{equation}これらのスコア関数を用いて並列句の全ての可能な範囲の組み合わせ$(i,j)$に対してスコアを計算する.したがって,文の長さを$N$,並列キーの出現位置を$k$番目の語とおいた場合,並列句の範囲の組み合わせの候補は全部で$(k-1)\times(N-k)+1$個得られ,それらのうち最もスコアの高い候補をsoftmax関数によって求めてモデルが最終的に出力する並列句の範囲とする.\begin{equation}\begin{aligned}{\bfs}&=[{\rmScore(\textsc{None})};{\rmScore(1,k+1)};\ldots;\\&\quad\quad{\rmScore(1,N)};\ldots;{\rmScore}(k-1,N)]\\\hat{p_{\theta}}(y|x)&={\rmsoftmax}({\bfs})\\\hat{y}&={\argmax}_{y}\bigl(\hat{p_{\theta}}(y|x)\bigr)\end{aligned}\end{equation}ただし,$\theta$をパラメータの集合,$x$を単語系列・品詞系列から成る文,$y$を並列句範囲の組み合わせとする.\subsection{学習}モデルの学習には各並列キーに対する並列構造の予測範囲と正解範囲との交差エントロピー誤差を損失関数として用いる.\begin{equation}J(\theta)=-\sum^D_{d=1}\log\hat{p_{\theta}}(y^{(d)}|x^{(d)})+\frac{\lambda}{2}\norm{\theta}^2\end{equation}ここで$D$はトレーニングのデータセットにおける並列キーの出現数であり,$x^{(d)}$を単語系列・品詞系列から成る文の集合中の1事例,$y^{(d)}$を並列句範囲の正解となる組み合わせの集合中の1事例とする.また,$\theta$はモデルのパラメータの集合,$\lambda$はL2正則化の強度を調整するハイパーパラメータである.モデルのパラメータ$\theta$は損失関数を確率的勾配降下法(SGD)によって最小化することによって最適化する. \section{実験} \label{sec:exp}本研究では提案手法の評価実験を並列構造のアノテーションが付与されたPennTreebankコーパス\cite{ficler-goldberg:2016:ACL}とGENIAコーパス(beta)\cite{Kim-EtAL:2003:BioInfo}で行う.各コーパスにおける評価対象となる並列キーの出現数と文数を\tabref{corpus}にまとめる.なお,先行研究との比較のため,PennTreebankの並列キーは``and'',``or'',``but'',``nor'',``and/or''\footnote{``and/or''とは,``\ldotsimposescostsand/orconfersbenefits\ldots''など,andとorのどちらでも文意がとれるものとして1単語で表された語を指す.}とし,GENIAコーパスの並列キーは``and'',``or'',``but''とする\cite{ficler-goldberg:2016:EMNLP,hara-EtAl:2009:ACL-IJCNLP}.\begin{table}[t]\caption{コーパスにおける並列キーの出現数}\label{tab:corpus}\input{05table01.tex}\end{table}\subsection{PennTreebankでの実験}\label{ssec:ptb-exp}\subsubsection{実験設定}\label{sssec:ptb-exp-settings}PennTreebankでの実験には,コーパスのWallStreetJournalのパートのうち,セクション2から21を訓練データ,セクション22を開発データ,セクション23を評価データとして用いた.単語の分散表現にはEnglishGigawordコーパス第5版\cite{en-gigaword5}のNewYorkTimesパートをWord2Vec\footnote{https://code.google.com/archive/p/word2vec/}のデフォルトのパラメータで事前に学習した200次元のベクトル表現を用いた.品詞はStanfordParser\cite{toutanova-EtAl:2003:NAACL}を用いて訓練データに対する10分割ジャックナイフ法にて付与し,品詞の分散表現として区間$[-1,1]$の一様分布でランダムに初期化をした50次元のベクトルを用いた.RNN層には3層の双方向型LSTMを用い,各単方向のLSTMの隠れ状態のベクトルの次元数は\{400,600\}次元から選択した.出力層は隠れ層を1層とし,活性化関数にはReLUを使用した.また,隠れ層のユニット数は\{1,200,2,400\}から選択した.モデルのパラメータはバッチサイズ20のミニバッチを利用した確率的勾配降下法で最適化を行った.学習率はAdam\cite{kingma-ba:2014:ArXiv}によって自動調整した.モデルの訓練時には入力層の出力,1層目を除くRNN層の入力,出力層の隠れ層にDropout\cite{srivastava-EtAL:2014:JMLR}を適用した.Dropoutの適用ユニットの比率は\{0.33,0.50\}から選択した.L2正則化の強度$\lambda$は\{0.0001,0.0005,0.001\}から選択した.学習のイテレーション数は50とし,開発データにおけるF1のスコア\footnote{モデルの選択に用いたF1スコアは複数の並列句のうち最初の並列句の開始位置と最後の並列句の終了位置の適合率・再現率の調和平均(wholeの評価)によるものとする(後述).}が最も高いモデルとハイパーパラメータの設定を評価データでの評価に用いるモデルとして採用した.最終的なハイパーパラメータの設定は\tabref{hyperparams}のとおりである.\begin{table}[t]\caption{PennTreebankの実験に使用した最終的なハイパーパラメータの設定}\label{tab:hyperparams}\input{05table02.tex}\end{table}\begin{figure}[t]\begin{center}\includegraphics{25-4ia5f5.eps}\end{center}\caption{評価方法による正解範囲の違い}\label{fig:exp}\end{figure}\subsubsection{評価指標}\label{sssec:eval-methods}本研究では,並列構造に属する並列句の始点・終点の一致について,四種類の一致基準で評価を行う(\figref{exp}).\begin{itemize}\item{\bfwhole}:最初の並列句の始点と最後の並列句の終点の一致\item{\bfinner}:並列キーに隣接する並列句の始点・終点の一致\item{\bfouter}:最初と最後の並列句の始点・終点の一致\item{\bfexact}:全ての並列句の始点・終点の一致\end{itemize}wholeの一致基準は並列構造全体の始点と終点の一致と同義であり,innerの一致基準はFiclerら\cite{ficler-goldberg:2016:EMNLP}の手法による実験の評価で用いられているものである.また,本研究の提案モデルが学習・予測する並列構造の範囲はwholeに相当するため,個々の並列句についての評価であるinner,outer,exactにおいては,並列キー$k$に先行する並列句$(i,k-1)$を文字``,''によって分割して個々の並列句として評価を行っている.それぞれの一致基準について,適合率(P)・再現率(R)およびそれらの調和平均であるF値によってモデルの評価を行う.また,全ての並列構造ではなく名詞句の並列構造のみを対象として評価を行った結果についても示す\footnote{Ficlerら\cite{ficler-goldberg:2016:EMNLP}と同様に,NPに加えてNXの並列構造も名詞句の並列構造と見なす.}.提案手法で用いた特徴抽出関数の有効性を検証するために,式\ref{eq:average}によって求めた二つの平均ベクトルだけを出力層でのスコア計算(式\ref{eq:mlp})に用いたモデルをベースラインとして,特徴抽出関数の有無による実験・評価も行う.\subsubsection{実験結果}\tabref{ptb-method}に実験結果を示す.wholeの指標において適合率と比較して再現率が低いことから,提案手法では並列キーに対して誤って並列構造が存在しない(範囲{\scNone})という予測をしていると考えられる.またinnerの評価に比べてouterの評価による結果では適合率,再現率,F値のいずれも低い値となった.これはinnerの評価では評価対象の並列句は並列キーに隣接しているのに対し,outerの評価では三つ以上の並列句が出現した場合に1番目の並列句が並列キーから離れてしまうことから,innerの評価はouterの評価と比較して範囲の予測が容易であることが理由として考えられる.\begin{table}[b]\caption{評価方法ごとの実験結果の比較(開発データ)}\label{tab:ptb-method}\input{05table03.tex}\end{table}\tabref{ptb-by-feats}は特徴ベクトルの使用の有無による結果の違いを示している.類似性に基づく特徴ベクトルと可換性に基づく特徴ベクトルを各々使用したモデルはどちらもベースラインのモデルの性能を上回った.また両方の特徴ベクトルを使用したモデルは最も高いF値を達成し,類似性・可換性に基づく特徴ベクトルを併用することは有効であった.\begin{table}[b]\caption{特徴ベクトルの組み合わせによる実験結果の比較(開発データ,whole評価)}\label{tab:ptb-by-feats}\input{05table04.tex}\vspace{4pt}{\small``$f_{sim}$''は類似性に基づく特徴ベクトル,``$f_{repl}$''は可換性に基づく特徴ベクトル,``Both''は両方の特徴ベクトルを使用したモデルを表す.\par}\end{table}先行研究との実験結果(inner評価)の比較について\tabref{ptb}に示す.全ての並列構造を対象とした実験では,先行研究のうち最も高いFiclerら\cite{ficler-goldberg:2016:EMNLP}の手法をF値で0.11ポイント上回り,最高の値となる72.81\%を達成した.Ficlerらの手法は句構造の構文解析器の出力結果を利用し,並列句の始点・終点が句の境界となる並列句の範囲の候補のうち生成確率が上位のものを候補としてあらかじめ限定し,候補とその生成確率の順位に基づく素性をニューラルネットワークの入力としてスコア計算をしている.対して提案手法では外部の構文解析器を使用せず並列句の範囲を制限することで,構文解析の結果を用いずにニューラルネットワークによって範囲を同定している.また,名詞句を対象とした評価においても先行研究と同程度の結果を得た.Ficlerらの手法では三つ以上の並列句については並列キーに隣接する二つの並列句の範囲を学習・予測しているのに対し,提案手法では並列構造全体の範囲を学習したのちに個々の並列句は\ref{sssec:eval-methods}節に示したルールによって取り出しているため,個々の並列句の取り出し方を改善することによって先行研究の結果をさらに上回る性能を達成することが期待できる.\begin{table}[t]\caption{PennTreebankでの評価(inner)}\label{tab:ptb}\input{05table05.tex}\vspace{4pt}{\small提案手法を除いた結果はFiclerら\cite{ficler-goldberg:2016:EMNLP}の報告している結果より抜粋.\par}\end{table}\subsection{GENIAコーパスでの実験}\subsubsection{実験設定}原ら\cite{hara-EtAl:2009:ACL-IJCNLP},Ficlerら\cite{ficler-goldberg:2016:EMNLP}の手法と提案手法の性能の比較を行うため,GENIAコーパス(beta)での実験を行った.実験設定は以下のものを除いて\ref{sssec:ptb-exp-settings}節と同様である.\begin{itemize}\item単語の分散表現にはBioASQ\cite{tsatsaronis-EtAl:2012:AAAI}が提供している200次元のベクトル表現を使用した.これらのベクトル表現はPubMed\footnote{https://www.ncbi.nlm.nih.gov/pubmed/}で入手できる生物医学系の論文のアブストラクトからWord2Vecを使って訓練したものである.\item品詞は原ら\cite{hara-EtAl:2009:ACL-IJCNLP}と同様にコーパスに付与されている品詞を使用し,品詞の分散表現として区間$[-1,1]$の一様分布でランダムに初期化をした50次元のベクトルを用いた.\itemL2正則化の強度を決定するハイパーパラメータである$\lambda$の値は0.0005とした.\item学習のイテレーション数は20とした.\end{itemize}\subsubsection{評価指標}GENIAコーパスでの実験は原ら\cite{hara-EtAl:2009:ACL-IJCNLP}と同様に,個々の並列句の範囲の一致については評価をせず,並列構造全体の範囲での一致(whole)について再現率によって評価を行う.これは,GENIAコーパスにおいては全ての並列キーに対応する並列構造が存在し,正解の範囲が{\scNone}となるような事例が存在しないためである(\tabref{corpus}).ただし,並列構造の範囲の候補から{\scNone}を除くような変更は加えていないため,提案モデルが並列構造の範囲の予測として誤って{\scNone}を出力することは起こり得る.提案手法の学習・予測結果と先行研究の手法による結果を直接比較することが可能であるため,本実験では\ref{sssec:eval-methods}節に示したような個々の並列句の取り出しは行わない.GENIAコーパスでは並列構造となっている句に対して明示的にCOODという特別なラベルが付与されており,COODのラベルが付与されている句の種類別に提案手法の性能の評価を行った.モデルの訓練・評価には原らと同様に5分割交差検定によって行った.\begin{table}[b]\caption{GENIAコーパスでの評価(再現率)}\label{tab:genia}\input{05table06.tex}\vspace{4pt}{\small``Ficler16'',``Hara09''の実験結果はそれぞれ\cite{ficler-goldberg:2016:EMNLP,hara-EtAl:2009:ACL-IJCNLP}より抜粋.\par}\end{table}\subsubsection{実験結果}実験結果を\tabref{genia}に示す.全ての並列構造を対象とした並列構造の始点と終点の一致の評価について,提案手法はFiclerら\cite{ficler-goldberg:2016:EMNLP}と原ら\cite{hara-EtAl:2009:ACL-IJCNLP}の手法による再現率を上回った.また,並列構造となる句の種類別の評価においては従来手法と比べて文(S)の並列において再現率が顕著に上回った.動詞句(VP)や従属節(SBAR)においても原らの手法よりも高いスコアとなっているが,Ficlerらの手法より10以上低いスコアとなった.並列句が類似する傾向が高い名詞句(NP)の並列については最も高い再現率を達成した.提案手法の動詞句の誤りについて分析をしたところ,正解の範囲が``$\ldots$hasbeen[developed]and[comparedwith]acommon$\ldots$''であったのに対し,モデルの予測範囲が``$\ldots$[hasbeendeveloped]and[comparedwith]acommon$\ldots$''となるような,助動詞を並列句に含むか否かを誤りやすい傾向にあった.また,並列キーに後続する動詞句の直後に出現する前置詞句を並列句の範囲に含むかどうかについても誤る場合が見られた.動詞句の誤りのどちらのケースにおいても文法的には並列句が可換であるため,語法や前後の文脈をより考慮することが有効であると考えられる.文の並列と従属節については並列句の語長が長くなる傾向があるため,提案手法では並列句に含まれるカンマによって誤って並列句を分割するという傾向があった.三つ以上の並列句の範囲同定をする場合,名詞句の並列ではカンマを区切り文字として最初と最後以外の並列句の範囲を予測しても誤りが少ないが,文や従属節の並列の場合は同格表現で使用されるカンマが含まれる場合があるため,カンマを区切り文字として並列句を分割した場合に誤ることが考えられる.先行研究の手法と比較をすると並列句の類似性のみに着目した原らの手法では,非類似となる傾向の高い並列句については範囲を捉えることができなかったが,提案手法では類似性に基づく特徴ベクトルのみならず可換性に基づく特徴ベクトルを取り入れることで並列句の範囲同定の再現率が向上している.また,Ficlerらの手法では並列句の可換性についての特徴ベクトルの計算には,並列キーに先行する並列句と並列構造の直後に出現する語句との接続,並列キーに後続する並列句と並列構造の直前に出現する語句との接続についての演算は行われておらず,非類似だが可換である傾向の高い文において精度が低いことの一因となっている可能性がある.代わりに文の先頭から並列キーの直前までと文の末尾から並列キーの直後までをLSTMで演算を行っていることから,動詞句の並列のような文脈・語法の情報がより有効に働くと考えられる並列句の場合は,提案手法より優れた性能を発揮すると考えられる. \section{おわりに} \label{sec:conc}本研究では,並列句の類似性・可換性の二つの性質を特徴として用い,並列句の範囲の同定を行う手法を提案した.ニューラルネットワークによって単語の表層的な情報だけではなく文脈情報などの深層的な情報を用いることで,類似となる並列句のみならず非類似となる並列句の範囲同定でも高い性能を発揮し,英語の並列句の範囲同定のタスクにおいて先行研究を上回る再現率を達成した.提案手法は外部のシソーラスや構文解析器を必要とせず解析が行える点で貢献が大きい.提案手法の課題として,提案手法は個々の並列句の範囲を直接的に学習・予測する手法ではないため,モデルを拡張して個々の並列句を取り扱えるようにすることが挙げられる.その際には,並列句の範囲の組み合わせが爆発的に増加するが,それらの計算量を抑えつつ,三つ以上の並列句についても同時に取り扱うことも課題として挙げられる.また,提案手法は文中の複数の並列構造の範囲について独立して学習・予測をしているため,今後は複数の並列構造の範囲が競合しないような制約を与え,同時に解析できるよう改善する予定である.\acknowledgment本研究の一部は,JSTCREST(課題番号:JPMJCR1513)の助成を受けて実施された.また,本研究の一部は,情報処理学会第232回自然言語処理研究会\cite{teranishi-EtAl:2017:SIG-NL}およびThe8thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2017)\cite{teranishi-EtAl:2017:IJCNLP}で発表したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bengio,Ducharme,Vincent,\BBA\Jauvin}{Bengioet~al.}{2003}]{bengio-EtAl:2003:JMLR}Bengio,Y.,Ducharme,R.,Vincent,P.,\BBA\Jauvin,C.\BBOP2003\BBCP.\newblock\BBOQANeuralProbabilisticLanguageModel.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1137--1155}.\bibitem[\protect\BCAY{Ficler\BBA\Goldberg}{Ficler\BBA\Goldberg}{2016a}]{ficler-goldberg:2016:ACL}Ficler,J.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2016a\BBCP.\newblock\BBOQCoordinationAnnotationExtensioninthePennTreeBank.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\834--842},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ficler\BBA\Goldberg}{Ficler\BBA\Goldberg}{2016b}]{ficler-goldberg:2016:EMNLP}Ficler,J.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2016b\BBCP.\newblock\BBOQANeuralNetworkforCoordinationBoundaryPrediction.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\23--32},Austin,Texas.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hanamoto,Matsuzaki,\BBA\Tsujii}{Hanamotoet~al.}{2012}]{hanamoto-EtAl:2012:EACL}Hanamoto,A.,Matsuzaki,T.,\BBA\Tsujii,J.\BBOP2012\BBCP.\newblock\BBOQCoordinationStructureAnalysisusingDualDecomposition.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\430--438},Avignon,France.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hara,Shimbo,Okuma,\BBA\Matsumoto}{Haraet~al.}{2009}]{hara-EtAl:2009:ACL-IJCNLP}Hara,K.,Shimbo,M.,Okuma,H.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCoordinateStructureAnalysiswithGlobalStructuralConstraintsandAlignment-BasedLocalFeatures.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\967--975},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hashimoto,Xiong,Tsuruoka,\BBA\Socher}{Hashimotoet~al.}{2017}]{hashimoto-EtAl:2017:EMNLP}Hashimoto,K.,Xiong,C.,Tsuruoka,Y.,\BBA\Socher,R.\BBOP2017\BBCP.\newblock\BBOQAJointMany-TaskModel:GrowingaNeuralNetworkforMultipleNLPTasks.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1923--1933},Copenhagen,Denmark.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter-schmidhuber:1997:NC}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Ji\BBA\Eisenstein}{Ji\BBA\Eisenstein}{2013}]{ji-eisenstein:2013:EMNLP}Ji,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2013\BBCP.\newblock\BBOQDiscriminativeImprovementstoDistributionalSentenceSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\891--896},Seattle,Washington,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2008}]{kawahara-kurohashi:2008:Coling}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQCoordinationDisambiguationwithoutAnySimilarities.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},\mbox{\BPGS\425--432},Manchester,UK.Coling2008OrganizingCommittee.\bibitem[\protect\BCAY{Kim,Ohta,Tateisi,\BBA\Tsujii}{Kimet~al.}{2003}]{Kim-EtAL:2003:BioInfo}Kim,J.~D.,Ohta,T.,Tateisi,Y.,\BBA\Tsujii,J.\BBOP2003\BBCP.\newblock\BBOQGENIAcorpus---asemanticallyannotatedcorpusforbio-textmining.\BBCQ\\newblock{\BemBioinformatics},{\Bbf19}(suppl1),\mbox{\BPGS\i180--i182}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{kingma-ba:2014:ArXiv}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockarXivpreprintarXiv:1412.6980.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{kurohashi-nagao:1994:CL}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLongJapaneseSentencesBasedontheDetectionofConjunctiveStructures.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),\mbox{\BPGS\507--534}.\bibitem[\protect\BCAY{Parker,Graff,Kong,Chen,\BBA\Maeda}{Parkeret~al.}{2011}]{en-gigaword5}Parker,R.,Graff,D.,Kong,J.,Chen,K.,\BBA\Maeda,K.\BBOP2011\BBCP.\newblock\BBOQEnglishGigawordFifthEdition.\BBCQ\LDC2011T07.\bibitem[\protect\BCAY{Pascanu,Mikolov,\BBA\Bengio}{Pascanuet~al.}{2013}]{pascanu-EtAL:2013:PMLR}Pascanu,R.,Mikolov,T.,\BBA\Bengio,Y.\BBOP2013\BBCP.\newblock\BBOQOntheDifficultyofTrainingRecurrentNeuralNetworks.\BBCQ\\newblockInDasgupta,S.\BBACOMMA\\BBA\McAllester,D.\BEDS,{\BemProceedingsofthe30thInternationalConferenceonMachineLearning},\lowercase{\BVOL}~28of{\BemProceedingsofMachineLearningResearch},\mbox{\BPGS\1310--1318},Atlanta,Georgia,USA.PMLR.\bibitem[\protect\BCAY{Petrov,Barrett,Thibaux,\BBA\Klein}{Petrovet~al.}{2006}]{petrov-EtAl:2006:COL-ACL}Petrov,S.,Barrett,L.,Thibaux,R.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQLearningAccurate,Compact,andInterpretableTreeAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\433--440},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Shimbo\BBA\Hara}{Shimbo\BBA\Hara}{2007}]{shimbo-hara:2007:EMNLP-CoNLL}Shimbo,M.\BBACOMMA\\BBA\Hara,K.\BBOP2007\BBCP.\newblock\BBOQADiscriminativeLearningModelforCoordinateConjunctions.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\610--619},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{srivastava-EtAL:2014:JMLR}Srivastava,N.,Hinton,G.~E.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15},\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{tai-EtAl:2015:ACL-IJCNLP}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1556--1566},Beijing,China.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Teranishi,Shindo,\BBA\Matsumoto}{Teranishiet~al.}{2017}]{teranishi-EtAl:2017:IJCNLP}Teranishi,H.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQCoordinationBoundaryIdentificationwithSimilarityandReplaceability.\BBCQ\\newblockIn{\BemProceedingsoftheEighthInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\264--272},Taipei,Taiwan.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{寺西\JBA進藤\JBA松本}{寺西\Jetal}{2017}]{teranishi-EtAl:2017:SIG-NL}寺西裕紀\JBA進藤裕之\JBA松本裕治\BBOP2017\BBCP.\newblockニューラルネットワークに基づく並列句表現の学習と構造解析.\\newblock\Jem{情報処理学会第232回自然言語処理研究会(SIG-NL)},5\JNUM.\bibitem[\protect\BCAY{Toutanova,Klein,Manning,\BBA\Singer}{Toutanovaet~al.}{2003}]{toutanova-EtAl:2003:NAACL}Toutanova,K.,Klein,D.,Manning,C.~D.,\BBA\Singer,Y.\BBOP2003\BBCP.\newblock\BBOQFeature-richPart-of-speechTaggingwithaCyclicDependencyNetwork.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},NAACL'03,\mbox{\BPGS\173--180},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tsatsaronis,Schroeder,Paliouras,Almirantis,Androutsopoulos,Gaussier,Gallinari,Artieres,Alvers,Zschunke,\BBA\Ngomo}{Tsatsaroniset~al.}{2012}]{tsatsaronis-EtAl:2012:AAAI}Tsatsaronis,G.,Schroeder,M.,Paliouras,G.,Almirantis,Y.,Androutsopoulos,I.,Gaussier,E.,Gallinari,P.,Artieres,T.,Alvers,M.~R.,Zschunke,M.,\BBA\Ngomo,A.-C.~N.\BBOP2012\BBCP.\newblock\BBOQBioASQ:AChallengeonLarge-ScaleBiomedicalSemanticIndexingandQuestionAnswering.\BBCQ\\newblockIn{\BemAAAIFallSymposiumSeries:InformationRetrievalandKnowledgeDiscoveryinBiomedicalText}.\bibitem[\protect\BCAY{Yoshimoto,Hara,Shimbo,\BBA\Matsumoto}{Yoshimotoet~al.}{2015}]{yoshimoto-EtAl:2015:IWPT}Yoshimoto,A.,Hara,K.,Shimbo,M.,\BBA\Matsumoto,Y.\BBOP2015\BBCP.\newblock\BBOQCoordination-AwareDependencyParsing(PreliminaryReport).\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonParsingTechnologies},\mbox{\BPGS\66--70},Bilbao,Spain.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{寺西裕紀}{2014年慶應義塾大学商学部卒.同年,株式会社アイスリーデザイン入社.Web・モバイルアプリケーションの開発・運用に従事.2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,同学先端科学技術研究科情報科学領域博士後期課程入学.自然言語処理の研究に従事.}\bioauthor{進藤裕之}{2009年,早稲田大学先進理工学研究科博士前期課程修了.同年NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学情報科学研究科助教.これまで,主に自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.自然言語理解と機械学習に興味を持つ.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V06N06-02
\section{はじめに} インターネット,イントラネットが急速に拡大し,情報洪水と呼ばれる程,多くの情報が氾濫している.氾濫する情報を効率良く入手する技術として,従来から,要約や抄録に関する研究が行なわれている\cite{tamura,hara,yamamoto}.これらの多くは,主に一つのドキュメントの内容を要約することに重点を置いているため,新聞やニュースのようなイベントに対して複数のドキュメントが存在する場合,時間的なイベントの変化のようなエピソード的な情報を構造化しにくいという問題がある\cite{yoshida}.情報を構造化して要約する手法としては,ドキュメントに対する重要項目をテンプレートとして準備し,テンプレートを用いて抽出した情報から要約を行なう手法がある\cite{mckeown,ando}.また,要約のためのテンプレートを,与えられた話題に関するドキュメント集合から自動的に抽出する手法も提案され,重要度を考慮したテンプレートの抽出が可能となっている\cite{yoshida}.実際のオフィス業務においては,イベントの経過情報や状況把握など分析的な情報選別のために,要約や抄録情報が求められる.この場合,ユーザの関心や意図が多岐に渡り,かつ,対象とする関連情報が大量に存在する.そのため,重要度を考慮するだけでなく,ユーザの様々な視点や観点から抄録情報をロバストに生成するフレームワークと,大量にある情報を大局的に把握するための要約が必要となる.一般に,要約(Abstract)とは,文書の中心的な話題を簡潔にまとめたものであり,抄録(Extract)とは文書から何らかの基準で文を抜き出しだしたものである.要約は,(1)indicative:読むか読まないか(2)informative:内容の要約(3)critical:要約+批評(4)comparative:サーベイというレベルに分けることができるが,内容の理解が必要となり,現在の技術では困難なものが多い\cite{paice}.抄録は,何らかの手かがりを元に重要な文を抜き出すことで,各文にスコアを付けてスコアの高いものを抜き出すことが多い.手法としては,キーワードの頻度によるもの,タイトルのキーワードを用いるもの,文の位置情報を用いるもの,構文関係を用いるもの,手がかりとなるキーワードを用いるもの,文の関係に着目するもの,などの方法が提案されている.エピソード抄録は,係り受け関係と固有名詞やパターン表現を手がかりとして,情報の要素をより詳細にインデクスして,時間的または位置的に情報をアレンジして抄録を作成する手法である.本稿では,時間表現,固有名詞,動作表現,動詞の格フレームに着目して,テキストに含まれるWho(だれが)・When(いつ)・Where(どこで)・What(なにを)・Why(なぜ)・How(どのように)・Predicate(どうした)といういわゆる5W1H情報を抽出して,時間や場所をソートキーとしたエピソード抄録,5W1H項目にシソーラスを適用して上位概念で要約する鳥瞰要約を提案する.5W1H情報は,日常の出来事を理解するためのキーとなっている概念であり,出来事の内容の核心部分を表現する.5W1H情報に着目することによって,オフィス業務における有効な抄録情報と大局情報を要約として生成することが可能となる.本報告では,まず,オフィス業務で求められる抄録と要約について説明し,次に,5W1H情報を用いたエピソード抄録と鳥瞰要約について説明する.そして,5W1H情報抽出の手法について述べ,エピソード抄録を新聞記事とセールスレポートに適用した事例と,鳥瞰要約を新聞記事情報に適用した事例を報告する. \section{オフィス業務で求められる要約・抄録} ユーザの情報要求(informationneed)には,ユーザの情報に対する認識や理解度によって異なるレベルの要求が存在する\cite{taylor}.ユーザが,ある情報の集合に対して,まったく情報がなければ,そもそも,その情報の集合は何を話題としたものかといった大局的な情報把握の要求が生じるであろうし,情報要求がある程度具現化されていていれば,その情報をトリガーとして,詳細情報や関連情報に対する要求が生じる.最近のWWWやインターネットの発達によって,オフィス業務においては,まさに,異なるレベルの情報要求が進化的に変遷する状況が生じている\cite{bates}.例えば,インターネットやフィルタリングサービスなどを通じて,大量の情報が提供されているが,提供された情報および情報の集合に対して,以下の3種類の情報要求が存在する.\noindent\underline{\bf鳥瞰情報:情報全体像の把握}提供された情報が数量的に膨大な場合,全体像を鳥瞰的に把握する必要がある.例えば,製品開発情報の集合が得られた場合,いつ頃,どのような種類の組織が,どの分野に関して,何を発表しているのかといった集合全体を把握したいという情報要求がある.\noindent\underline{\bf時間的経緯:縦方向への展開}提供された情報に含まれるイベントが,発生するに至る経緯情報が必要となる.例えば,「A社が〜ギガのメモリを開発した」という1次情報に対して,A社が今までメモリの開発に関してどのような時期にどのような技術を開発してきたのかという,いわば,1次情報からの垂直方向,縦方向への情報要求がある.\noindent\underline{\bf類似情報:横方向への展開}提供された情報を構成する要素を変数として,類似情報を比較的に獲得する.例えば,技術調査レポートを作成するユーザが,新聞記事検索を行なって,「A社が低価格のX製品を開発した」という情報を検索した場合,詳細情報は新聞記事本文で得ることができる.さらに,「他社はどうなっているか」,「A社のY製品はどうなっているか」などの情報を得るため2次的検索として行なう.いわば,1次情報からの水平方向,横方向への情報要求がある.現状の情報検索技術は,これらの情報要求に対して必ずしも有効な手段を提供していない.現在,一般的に行なわれている複数のキーワードの組み合わせによる情報検索では,キーワードが存在すれば,その論理的関連性の有無に係わらず文書が検索されノイズとなることが多い.例えば,{\bfNEC\&半導体\&生産}というキーワードで新聞記事を検索すると,「NECが〜と技術提携し,〜が半導体を生産する.」というように3つのキーワードの間に直接的なつながりが存在しない文も検索されることになる.このようなノイズは,いわゆる係り受け検索によって有効に絞り込まれることが報告されている\cite{mine}.我々は,これらの問題点を解決するために,係り受け情報だけでなく,テキストに含まれるWho(だれが)・When(いつ)・Where(どこで)・What(なにを)・Why(なぜ)・How(どのように)・Predicate(どうした)といういわゆる5W1H情報を用いた分類・ナビゲーション手法を提案してきた\cite{IAM97,ikeda98}.次章では,時間的経緯と鳥瞰情報に関する情報要求に応えるために開発した,5W1H情報を用いたエピソード抄録と鳥瞰要約について述べる. \section{エピソード抄録・鳥瞰要約} \subsection{エピソード抄録}\vspace{-0.0cm}情報の中から特定のイベントに着目し,そのイベントの時間的な経過をエピソードのように読める形の抄録として提示する.例えば,図\ref{episode1}のような電機業界に関する技術情報情報が与えられた時に,NECのPDPに関する取り組みという観点で,情報を時間的な経過とともに拾い読みすることができれば,一連のエピソードのように情報を獲得することができる.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=episode1.prn,scale=0.40}\hboxto-20pt{\hss}\caption{エピソードの拾い読み}\label{episode1}\end{center}\end{figure}この場合,単純な論理式によるキーワード検索では,関連性の低いものも混在してエピソードのように読みとれなくなってしまう.そこで,図\ref{episode2}のように,情報の中から5W1H情報を抽出して,ある出来事に関して,predicateとargumentの関連のある情報だけを抽出し,時間順に並べて抄録情報を生成する.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=episode2.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{エピソード抽出}\vspace*{-6pt}\label{episode2}\end{center}\end{figure}この結果,その出来事に関するこれまでの経緯をエピソード的に読むことができるようになる.例えば,Who要素にNEC,What要素にPDPを含む文書を検索し,時間と対応づけて順に並べることで,NECのPDPの開発に関するエピソードとして,「95年10月にNECがパソコン対応PDPを開発.96年10月にNECがPDP量産工場を建設.97年2月にNECがカラーPDPテレビを量産.97年5月にNECが50インチPDPを発表.」という抄録を生成することが可能となる.エピソード抄録としては,時間軸とともに場所に着目することによって,位置的に展開したエピソードを提示することが可能である.図\ref{episomap}は,技術関連ニュースヘッドラインから,Where要素として場所の名前を抽出し,地図上にマップして表示した例である.対応する場所にマップして表示することで,エピソードと場所との関連を視覚的にとらえることが可能となる.エピソードの位置展開は,特に,政治家の遊説,犯人の逃亡記事,台風など自然災害情報のように,移動を伴うイベントのエピソード抄録として有効だと思われる.しかしながら,文中のWhere要素が,必ずしもイベントの発生地点を表しているのではないため,Where要素を含むすべての文を,同等に地図上にマップすべきかどうかは議論の余地がある.例えば,「北海道に製品工場を建設」と「北海道向け製品工場を建設」とでは,Where要素「北海道」が表している事柄が異なっている.このような場合の位置情報の効果的な提示方法については,今後も検討が必要である.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=episomap.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{エピソードの位置展開}\vspace*{-6pt}\label{episomap}\end{center}\end{figure}\subsection{鳥瞰要約}5W1H抽出した情報の集合に対して,シソーラスを用いることによって,各要素の情報をそれらの上位概念で代表させて,鳥瞰的に要約を生成することが可能となる.図\ref{chokan}は,「NECがPC98NXを発売」「××通信機が次世代パソコンを開発」「××電気が携帯パソコンを発売」「××通信が仮想商店街を開設」「××電話がインターネットサービスを強化」という5つのニュースからWho要素とWhat要素を抽出し,それぞれの要素に対してシソーラスの上位概念を照合したものである.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=chokan.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{鳥瞰要約}\vspace*{-6pt}\label{chokan}\end{center}\end{figure}この結果,これら5つのニュースに対して,例えば,「電機企業3社がパソコンを開発・販売した.」あるいは,「通信企業2社がネットワークサービスを開設・強化した.」という鳥瞰的な要約を生成することができる.鳥瞰要約に対しては,要約の対象となる母集団の情報に対して要約率と要約レベルを定義することができる.まず,ある1つの5W1H要素$wh$(Who,When,Where,What,Why,How,Predicateのどれか)に対して抽出された単語の集合${\bfW}_{wh}$をある概念$C_{wh}$で代表させるときの要約率$R_{wh}$を,以下のように定義する.\[R_{wh}=\frac{{\rmNum}({\bfW}_{wh}\cap{\rmWord}(C_{wh}))}{{\rmNum}({\bfW}_{wh})}\]ただし,\[\begin{array}{l}{\rmNum}(S):\mbox{集合$S$の要素数}\\{\rmWord}(C):\mbox{概念$C$に含まれるすべての単語の集合}\end{array}\]とする.このとき,全体の要約率$R_{all}$を,\[R_{all}=\prod_{wh\in\mbox{\{5W1H要素\}}}R_{wh}\]と定義する.これは,各5W1H要素を構成する単語のうち,それらを置き換える上位概念に含まれるものの割合を,すべての5W1H要素に関して乗じたものとなっている.例えば,図\ref{chokan}の5つの文について,Who要素を「電機企業」で代表させ,What要素を「パソコン」で代表させ,Predicate要素を「発売」で代表させる場合,各5W1H要素に対する要約率は,$R_{Who}=0.6,R_{What}=0.6,R_{Predicate}=0.4$となり,全体の要約率は,$R_{all}=0.144$となる.要約レベルは,5W1H要素のそれぞれについて,独立に定義される値で,置き換える上位概念が,シソーラス上で何レベル上位の概念であるかを示す.要約レベルをあげていくと要約率は高いものとなる.例えば,日本の各分野の100社が,様々な製品を開発したニュースが100件与えられた場合,「日本企業100社が製品を開発した.」という要約文は,要約率100\%ということになる.しかしながら,このような要約文が,ユーザにとって価値があるとは言いにくい.要約率・要約レベルという概念を導入することで,ユーザが指示する要約率・要約レベルに合わせるようにシソーラスの上位概念を探索して,鳥瞰要約を生成することが可能となっている.実際の要約では,適切な要約率になる上位概念を選択できないことがあるが,シソーラスで適切にカバーできない要素に関しては,頻度の多かった代表的なものを列挙して「など」という表現を加えて代表させることで,上位概念の代わりに用いることで解決できる.\subsection{5W1H要素の抽出}\label{sec:chushutsu}5W1H要素の抽出は,形態素解析結果と辞書情報を基にした浅い解析手法,表層格指向パーシングCBSP(Case-BasedShallowParsing)によって行なう.CBSPによって,頑健で効率的な5W1H抽出が実現できる.CBSPは,形態素解析を行い各単語に品詞情報を付与したテキストに対し,語彙情報,字句のパターン,助詞の情報を用いて5W1H解析を行うモデルで,浅い解析により,頑健で効率的な解析を実現している.基本的には,以下の3ステップから構成される.\begin{enumerate}\setlength{\itemindent}{8pt}\item固有名詞の抽出固有名詞のうち,人名・組織名をWho要素として,地名はWhere要素として抽出する.これにより,例えば,「NECが中国で半導体を生産する.」という文からは,Who要素としてNECが,Where要素として中国が抽出される.現在,約6万語の固有名詞辞書を利用している.\item特徴的表現のパターンマッチ特徴的なパターンに着目して,人名・組織名(Who要素),日時(When要素)を抽出する.例えば,「株式会社××」,「××大学」などのように「株式会社」が頭に付く語や大学が後に続く語は,会社名や大学名と考えられるため,これらをWho要素として抽出する.また,「平成××年×月」,「××/××/××」のようなパターンに当てはまる語は日時を示していると考えられるため,これらはWhen要素として抽出する.現在,人名・組織名のパターンを約100種類,日時のパターンを約20種類用意して,解析に利用している.\item表層格解析上記1,2のステップで抽出されなかった名詞は,その名詞に続く助詞等の情報を基に,どの5W1H要素に対応するのかを決定する.例えば,「が」および「は」が後に続く語はWho要素とし,「を」および「に」が後に続く語はWhat要素とする.動詞はPredicate要素として抽出する.1文中に複数のPredicate要素がある場合には,他の5W1H要素が,もっとも近いPredicate要素に係るものとして処理する.ただし,このとき,同種の5W1H要素は,同じPredicate要素には係らないものとしている.\end{enumerate}詳細なアルゴリズムを図\ref{fig:cbsp}に示す.\begin{figure}[ptb]\begin{center}\begin{tabbing}\hspace*{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\kill{\bfprocedure}CBSP;\\{\bfbegin}\+\\入力文を形態素解析;\\{\bfforeach}文中の単語{\bfdobegin}\+\\{\bfif}その単語が人名または組織名である{\bfthen}\+\\その単語をWho要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が地名である{\bfthen}\+\\その単語をWhere要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が人名・組織名のパターンに適合する{\bfthen}\+\\その単語をWho要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が日時のパターンに適合する{\bfthen}\+\\その単語をWhere要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が名詞である{\bfthen}\+\\{\bfif}その次の語が「が」または「は」である{\bfthen}\+\\その単語と,未定の要素をWho要素としてマークし,スタックに積む;\-\\{\bfif}その次の語が「を」または「に」である{\bfthen}\+\\その単語と,未定の要素をWhat要素としてマークし,スタックに積む;\-\\{\bfelse}\+\\その単語を,未定の要素として保持する;\-\-\\{\bfelseif}その単語が動詞である{\bfthenbegin}\+\\その単語を5W1HセットのPredicate要素として確定する;\\{\bfrepeat}\+\\スタックから1語取り出す;\\{\bfif}その単語に付けられたマークと同じ種類の5W1H要素がまだ未確定である{\bfthen}\+\\その単語を付けられたマークと同じ種類の5W1H要素として確定する;\-\\{\bfelse}\+\\repeatループを脱出する;\-\-\\{\bfuntil}スタックが空である;\-\\{\bfend}\-\\{\bfend}\-\\{\bfend}\end{tabbing}\caption{ThealgorithmforCBSP}\label{fig:cbsp}\end{center}\end{figure}CBSPによる解析で,約6400件の新聞記事ヘッドラインから,実際にWho,What,Predicate要素を抽出した結果について分析した結果を表\ref{tab:5w1heval}に示す.\begin{table*}[tbp]\begin{center}\caption{Who,What,Predicateの各要素および全体での抽出結果の評価}\vspace*{10pt}\small\begin{tabular}{lrrrrrrrrrr}\hline&\multicolumn{3}{l}{Who要素}&\multicolumn{3}{l}{What要素}&\multicolumn{3}{l}{Predicate要素}&\\\cline{2-10}&存在&非存在&計&存在&非存在&計&存在&非存在&計&全体\\\hline正解&5423&71&5494&5653&50&5703&6042&5&6047&5270\\誤り&414&490&904&681&14&695&55&296&351&1128\\\hline合計&5837&561&6398&6334&64&6398&6097&301&6398&6396\\\hline精度&92.9\%&12.7\%&85.9\%&89.2\%&78.1\%&89.1\%&99.1\%&1.7\%&94.5\%&82.4\%\\\hline\end{tabular}\label{tab:5w1heval}\end{center}\end{table*}この表では,新聞記事ヘッドラインにおいて,Who,What,Predicateの各要素が実際に存在している場合と存在していない場合のそれぞれについて,それらの要素が正しく抽出された文の数と正しく抽出されなかった文の数をまとめている.これによると,Who,What,Predicateの各要素が実際に存在している場合には,ほぼ90\%以上の文から各要素が正しく抽出できている.しかしながら,各要素が実際に存在していない場合には,高い精度が得られていない.これは,要素が実際に存在していない場合でも,別な語をその要素として抽出してしまう傾向があるためである.これにより,関係のない語が5W1H要素として抽出されることになるが,正しい5W1H要素が落ちるわけではないので,5W1Hを利用した検索において適合率を下げることはなく,実際には,大きな問題とはならない.要素がある場合とない場合との平均では,85\%から95\%の精度となっており,全体でも82.4\%の精度が得られている.その結果,エピソード抄録や鳥瞰要約として,ほぼ妥当な結果を得ることができる. \section{新聞記事とセールスレポートへの適用} 新聞記事10000件を対象として,5W1Hに基づいて分類ナビゲーションを行なう情報活用プラットフォームを構築してきた\cite{okumura97}.図\ref{fig:plat}は,構築したプラットフォームの構成図である.指定された情報源から情報収集ロボットによって情報が収集され情報DBに毎日格納されていく.5W1H情報抽出モジュールは,収集した情報から,\ref{sec:chushutsu}節のアルゴリズムにより,1文ごとに5W1H情報を抽出し,5W1Hインデクスを生成する.ここでは,新聞記事ヘッドラインと本文記事からWho・What・Predicateの3種類について,5W1H要素としてキーワードを抽出し,5W1Hの種類とキーワードから文書を引くための5W1Hインデックスを作成している.抽出したキーワードをそのまま用いるため,同義語は別の語として扱うことになるが,要約文の生成時には,シソーラスによって同義語が統合される.また,すべての文を対象として抽出を行うため,Who,What,Predicateの3要素の一部が存在しない文でも,存在する要素からの検索が可能である.5W1Hインデクス情報を基に,情報分類モジュール,エピソード抽出モジュール,鳥瞰情報生成モジュールが,WWWサーバーを介してユーザに分類・ナビゲーション機能を提供する.フィルタリングサービス部は,ユーザプロファイルを参照して情報収集ロボットによって集められた情報からフィルタリングしてユーザに配信する.ユーザは配信された情報から,5W1H分類・ナビゲーションによって自分の読み進みたい方向へと情報を獲得していくことができる.今回,エピソード抽出モジュールにエピソード抄録生成機能を,鳥瞰情報生成モジュールに鳥瞰要約を生成する機能を実装した.\begin{figure}[tbp]\vspace{-0.45cm}\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=platform.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-17pt}\caption{情報活用プラットフォーム}\vspace*{-6pt}\label{fig:plat}\end{center}\end{figure}\vspace{0.5cm}\subsection{新聞記事に対するエピソード抄録}エピソード抽出では,指定されたヘッドラインからWho・What・Predicate要素を抽出し,それと同じWho・What・Predicate要素の組を記事中に含む文書を関連エピソードとして検索して,ヘッドラインを時間順に並べて抄録として生成する.図\ref{fig:episode}は,「NEC半導体部門の生産予測を18\%増と発表」というヘッドラインから抽出した5W1H要素のうち,NEC・半導体・生産というWho・What・Predicate要素を本文中にもつ記事を検索し,ヘッドラインを時間順に整理してエピソード抄録として提示した例である.利用者は,エピソード抄録を読むことで,96年10月はNECの半導体生産が下方修正され,半導体各社が投資を減らし,世界規模で市場が減となり,12月には他の会社が工場建設を中止するなど,市場が冷え込んでいくが,97年になると,次世代DRAMで好転して,各社,計画を増額していくエピソードを読みとることができ,NECの半導体の生産が18\%増に至るまでの経緯を知ることができる.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\epsfile{file=episode.ps,scale=0.4}\vspace*{-2pt}\caption{5W1Hによるエピソード抽出}\vspace*{-6pt}\label{fig:episode}\end{center}\end{figure}\vspace{-0.cm}\subsection{新聞記事に対する鳥瞰要約}情報鳥瞰では,Who要素に出現する約2800の企業を業種別に分類したシソーラスと,What要素に出現する約2000のキーワードを技術分野別に分類したシソーラスを利用して,Who・What要素の各キーワードを統合し,鳥瞰的な分類を生成する.Predicate要素については,キーワードの種類が少ないことから,高頻度で出現するキーワード8語で分類している.図\ref{fig:bview2}に97年4月の約400件のヘッドラインに対する情報鳥瞰の結果を示す.Who・What要素のキーワードを階層的なシソーラス構造として扱うことで,最初は荒い分類を提示し,必要な部分だけ展開して細かい分類を見せることができる(図\ref{fig:bview3}).\begin{figure}[tb]\vspace*{-20pt}\begin{center}\leavevmode\hboxto-5pt{\hss}\epsfile{file=bview2.eps,scale=0.5}\hboxto-5pt{\hss}\vspace*{-2pt}\caption{シソーラスを利用した情報鳥瞰}\vspace*{-6pt}\label{fig:bview2}\end{center}\end{figure}\begin{figure}[tb]\vspace*{-25pt}\begin{center}\leavevmode\hboxto-5pt{\hss}\epsfile{file=bview3.eps,scale=0.5}\hboxto-5pt{\hss}\vspace*{-10pt}\caption{シソーラスを利用した情報鳥瞰:細分類}\label{fig:bview3}\end{center}\end{figure}これらの鳥瞰分類結果をもとに,各月の記事の鳥瞰要約を生成する.まず,もっとも要約率の高い要約を生成する部分,すなわち,分類された記事がもっとも多い部分について,Who,What,Predicateのシソーラス上の概念または代表的なキーワードをパターンに当てはめて要約文を生成し,ユーザに提示する.図\ref{fig:bview2}の例では,「97年4月は,電機企業30社がマルチメディア総合技術に関する開発・発売などを131件発表している.」という要約文が生成される.この場合,Who要素とWhat要素については,キーワードをシソーラス上の1つ上の上位概念で置き換えているため,要約レベルは1となり,Predicate要素については,キーワードそのままの表現を用いているため,要約レベルは0となる.ユーザには,この後,要約率の高い順に要約文が順々に提示される.\vspace{0.5cm}\subsection{セールスレポートに対するエピソード抄録}ある会社の約2500件のセールスレポートに対して5W1H情報抽出を行ない,エピソード抄録を生成した.ここでは,実際のセールスレポートを実験用に変換した例を用いて説明する.セールスレポートは,営業マンが担当する顧客の要望などを報告したものである.このレポートは,メッセージアベニューという配信サービスとして関係者に配信される.セールスレポートは,5W1H情報抽出によって,日時,顧客名,対応支店名,機種名,用件が抽出される.図\ref{fig:mavenue}は,97年4月の一ヶ月分のセールスレポートの一覧である.画面上部のフレームにセールスレポートのリストが,画面下部のフレームに選択されたセールスレポートの内容が表示される.図\ref{fig:mavenue}の例では,リストの3番目のレポートを表示している.このレポートにおいて,○×建築が顧客名,若葉台支店が対応支店名,XX282ソフトが機種名,2000年問題が用件に対応\breakする.この画面から,例えば,○×建築殿という部分をクリックすることで顧客,○×建築に関するレポートを顧客名,対応支店名,機種名の視点からブラウズすることができる.\begin{figure}[tb]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=mavenue.eps,scale=0.5}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{セールスレポートの一覧}\vspace*{-6pt}\label{fig:mavenue}\end{center}\end{figure}顧客名,対応支店名,機種名,用件の中の任意の2要素に関して,情報を共有するレポートからエピソード抄録を生成する.「97/4/16,A銀行殿が,新宿営業所に,空調システムBの保守対応」という記事をクリックするとレポート本文が表示される.本文には,「4/16昨日発生した空調システムBの故障の件でA銀行殿に報告に伺った.『障害対応に関し弊社の対応はまだ手ぬるい.全体的にレスポンスが悪い』とのご指摘が有り,担当拠点を集めてオリエンテーションを開催する事にした.」と記述されている.このレポートに対して,顧客と機種名をキーとしてエピソード抄録機能を適用すると,図\ref{episomap2}のように,今までの経過が時間順に提示される.この抄録情報によって,A銀行では空調システムBに障害・保守対応が続発しており,顧客が不満を持っているというエピソードを読みとることができる.\begin{figure}[tb]\vspace*{-20pt}\begin{center}\leavevmode\hboxto-5pt{\hss}\epsfile{file=episomap2.prn,scale=0.42}\hboxto-5pt{\hss}\vspace*{-35pt}\caption{顧客と機種に関するエピソード}\vspace*{-6pt}\label{episomap2}\end{center}\end{figure}\vspace{1.0cm} \section{おわりに} 本稿では,5W1H情報によるエピソード抄録と鳥瞰要約を提案した.これらの機能は,ある出来事に至るまでの経緯という時間的経過に関する情報要求,多量の情報の中から主たる話題・内容を大局的に把握するという情報要求に応えることを目的としている.エピソード抄録と鳥瞰要約を新聞記事10000件とセールスレポート2500件を対象として適用したところ,エピソード抄録は,ユーザの様々な視点から抄録情報をロバストに生成できること,鳥瞰要約は,大量にある情報を大局的に把握するための要約となることを確認した.さらに,鳥瞰要約では,要約率と要約レベルを定義することができ,ユーザの指定にしたがって要約を生成することができる.今後,ユーザにとってより満足度の高い抄録・要約機能の実現するため,以下の改良を行なう.\begin{itemize}\itemエピソード抄録:5W1Hの各要素をどの程度共有するものをエピソードとするかに関しては,いくつかのレベルが考えられる\cite{ikeda97}.ユーザの目的にあわせて,そのレベルをコントロールして,抄録を生成するべきである.今回,新聞記事では,Who・What・Predicate要素をキーとしてエピソードを生成し,セールスレポートでは,顧客名,対応支店名,機種名,用件の中の任意の2要素をキーとしてエピソード抄録を生成した.今後は,エピソードに関するレベルコントロール機能を実装して評価を行なう\cite{ikeda97}.また,エピソード抄録の構成方法としては,新聞記事への適用のように,本文中に関連情報を含むヘッドラインを列挙する方法と,セールスレポートのように関連情報を含む文そのもの(ヘッドライン)を列挙する方法を実装したが,長い抄録となる場合もある.同種類の内容のものは繰り返さない,鳥瞰要約と組み合わせて情報を圧縮するなど,簡潔な抄録を得るための工夫を行なう.\item鳥瞰要約:鳥瞰要約では,シソーラスの選択および適用方法が重要である.Who要素に関しては,比較的ユニークなシソーラスを構築しやすいが,What要素はシソーラスは一通りではなく,複合的なオントロジとなる.オントロジを用いていくつかの観点から鳥瞰要約を生成可能として,ユーザにとって必要な視点の要約を提示する必要がある.また,鳥瞰要約では,どのようにシソーラスの上位概念を置き換えて要約するのが効果的なのかユーザの目的によって異なる.要約率,要約レベル,選択するシソーラスを組み合わせてより効果的な鳥瞰要約の生成方法を検討する.\end{itemize}\vspace{17mm}\bibliographystyle{jnlpbbl}\bibliography{v06n6_01}\begin{biography}\biotitle{略歴}\bioauthor{奥村明俊}{1984年京都大学工学部精密工学科卒業.1986年同大学院工学研究科修士課程修了.同年,NEC入社.1992年10月南カリフォルニア大学客員研究員(DARPAMTプロジェクト1年半参加).1999年東京工業大学情報理工学研究科博士課程修了.現在,C\&Cメディア研究所,主任研究員.自然言語処理の研究に従事.工学博士.情報処理学会,ヒューマンインタフェース学会などの各会員.}\bioauthor{池田崇博}{1994年東京大学理学部情報科学科卒業.1996年同大学院理学系研究科修士課程修了.同年,NEC入社.現在,C\&Cメディア研究所,研究員.自然言語処理,情報分類の研究に従事.情報処理学会会員.}\bioauthor{村木一至}{1974年京都大学工学部情報工学科卒業.1976年同大学院工学研究科修士課程修了.1979年NEC入社.現在,パーソナルソフトウェア事業部,グループマネジャ.自然言語理解,アイディアプロセッシングの研究に従事.情報処理学会,人工知能学会,ACL各会員.NaturalLanguageEngineering編集委員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N01-04
\section{はじめに} 本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる. \section{意味ソート} \label{sec:msort}単語を意味で並べかえるという考え方を本稿では{\bf意味ソート}Msort(\underline{m}eaning\underline{sort})と呼ぶことにする.この意味ソートは,単語の羅列を表示する際には50音順(もしくはEUC漢字コード順)で表示するのではなく,単語の意味の順番でソートして表示しようという考え方である.意味の順番の求め方は後節で述べる.例えば,研究の途中段階で以下のようなデータが得られたとしよう\footnote{このデータはEDR共起辞書のものを利用している\cite{edr}.}.{\small\begin{verbatim}行事寺公式母校就任皇室学園日本ソ連全国農村県学校祭り家元恒例官民祝い王室\end{verbatim}}これは,行事という単語の前に「Aの」という形で連接可能な名詞のリストであるが,このような情報が得られたときにその研究者はこのデータをどのような形式にすると考察しやすいであろうか.まず,50音順で並べかえる.そうすると以下のようになる.{\small\begin{verbatim}行事家元祝い王室学園学校官民県公式皇室恒例就任全国ソ連寺日本農村母校祭り\end{verbatim}}これではよくわからない.次に頻度順で並べてみる.{\small\begin{verbatim}行事恒例学校公式日本県全国寺農村王室ソ連祭り学園就任祝い母校皇室官民家元\end{verbatim}}それもよくわからない.これを単語の意味の順番(ここでは,人間,組織,活動の順)でソートすると,以下のようになる.{\small\begin{verbatim}行事(人間)皇室王室官民家元(組織)全国農村県日本ソ連寺学校学園母校(活動)祝い恒例公式就任祭り\end{verbatim}}これは非常にわかりやすい.行事にはいろいろなものがあるが,ある特別な人を中心とした行事の存在,また,ある組織を中心とした行事の存在,さらに行事のいくつかの形態をまとめて一挙に理解することができる.これはもともと名詞意味関係辞書の作成に「AのB」が利用できそうであるとすでにわかっている問題を例にあげたため,それはうまくいくでしょうといった感があるかもしれないが,後の節ではその他の問題でもこの意味ソートを用いるとうまくいく例をいくつか示している.われわれは,各研究の各段階でこの意味ソートというものを用いれば,ほとんどの問題がわかりやすくなり効率良く研究を進められるのではないかと考えている. \section{意味ソートの仕方} 単語を意味でソートするためには,単語に対して意味的な順序づけを行なう必要がある.このためには分類語彙表\cite{bgh}が役に立つ.分類語彙表とはボトムアップ的に単語を意味に基づいて整理した表であり,各単語に対して分類番号という数字が付与されている.電子化された分類語彙表データでは各単語は10桁の分類番号を与えられている.この10桁の分類番号は7レベルの階層構造を示している.上位5レベルは分類番号の最初の5桁で表現され6レベル目は次の2桁,最下層のレベルは最後の3桁で表現されている.もっとも簡単な意味ソートの仕方は,単語に分類語彙表の分類番号を付与してその分類番号によってソートすることである\footnote{最近は便利な機能を持ったパソコンのソフトが多く出ており,Exelなどに単語と分類語彙表の分類番号を入力しておいてソートすると簡単に意味ソートを行なうことができるであろう.}.しかし,単にソートしただけではわかりにくい.数字ならば,順序関係がはっきりしているものなのでソートするだけで十分であるが,単語は順序関係がそうはっきりしたものではないので,ソートしただけではわかりにくい.ところどころに,物差しの目盛のようなものを入れた方がわかりやすい.\begin{table}[t]\caption{分類語彙表の分類番号の変更}\label{tab:bunrui_code_change}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変換後の\\&分類番号&分類番号\\\hlineANI(動物)&[1-3]56&511\\HUM(人間)&12[0-4]&52[0-4]\\ORG(組織・機関)&[1-3]2[5-8]&53[5-8]\\PRO(生産物・道具)&[1-3]4[0-9]&61[0-9]\\PAR(動物の部分)&[1-3]57&621\\PLA(植物)&[1-3]55&631\\NAT(自然物)&[1-3]52&641\\LOC(空間・方角)&[1-3]17&657\\QUA(数量)&[1-3]19&711\\TIM(時間)&[1-3]16&811\\PHE(現象名詞)&[1-3]5[01]&91[12]\\ABS(抽象関係)&[1-3]1[0-58]&aa[0-58]\\ACT(人間活動)&[1-3]58,[1-3]3[0-8]&ab[0-9]\\OTH(その他)&4&d\\\hline\end{tabular}\end{center}\end{table}そこで,「人間」「具体物」「抽象物」といった意味素性というものを考える\footnote{ここであげる意味素性では目盛として粗すぎる場合は,分類語彙表の上位3桁目のレベル,上位4桁目のレベル,上位5桁目のレベルなどを目盛として用いてみるのもよい.}.ソートした単語の羅列のところどころに意味素性のようなものをいれておくと,それを基準にソートした単語の羅列を見ることができ便利である.意味素性としては,IPAL動詞辞書\cite{IPAL}の名詞の意味素性と分類語彙表の分類体系を組み合わせることによって新たに作成したものを用いる.このとき,分類語彙表の分類番号を名詞の意味素性に合わせて修正した.表\ref{tab:bunrui_code_change}に作成した意味素性と分類語彙表での分類番号の変換表を記載しておく\footnote{この表は現段階のものであって今後も変更していく可能性がある.}\footnote{表では,体,用,相の分類を示す一桁の1〜3の区別はなくしているが,これは文法的な分類の体,用,相の分類を行なわず意味的なソートをくしざし検索風に行なっていることになっている.もちろん,用途によっては体,用,相の分類を行なっておく必要があるだろう.その場合はそれに見合うように分類番号の変更を行なえばよい.例えば体,用,相の上位一桁目をa,b,cとするといったことを行なえばよい.}.表の数字は分類番号の最初の何桁かを変換するためものであり,例えば1行目の``[1-3]56''や``511''は,分類番号の頭の3桁が``156''か``256''か``356''ならば511に変換するということを意味している.([1-3]は1,2,3を意味している.)表\ref{tab:bunrui_code_change}に示した意味素性に目盛の役割をしてもらうわけだが,この目盛を意味ソートの際に入れる簡単な方法は,意味素性を単語のソートの際に混ぜてソートすることである.このようにすると,意味素性も適切な位置にソートされることとなる.以下に意味ソートが実現される過程を例示する.ここでは,\ref{sec:msort}節で示した名詞「行事」の前に「名詞Aの」の形でくっつく以下の名詞の集合を意味ソートすることを考えることとしよう.{\small\begin{verbatim}行事寺公式母校就任皇室学園日本ソ連全国農村県学校祭り家元恒例官民祝い王室\end{verbatim}}\begin{enumerate}\itemまず初めに各語に分類語彙表の分類番号を付与する.「行事」と共起する名詞集合でこれを行なうと表\ref{tab:huyo_bgh_rei}の結果が得られる.(書籍判の分類語彙表に慣れている人は注意して欲しい.書籍判では分類番号は5桁までしかないが,電子化判では10桁存在する\footnote{ここではKNP\cite{KNP2.0b6}に付属でインストールする分類語彙表の辞書を利用しているが,そこで用いられている分類語彙表は最新のものであってさらに桁が増えているが,KNPではうまく10桁に変換しているようだ.}.)表\ref{tab:huyo_bgh_rei}では「寺」が二つ,「公式」が四つ,存在しているが,これは多義性を意味しており,分類語彙表では「寺」に対し二つの意味が定義されており,「公式」に対し四つの意味が定義されていることを意味する.\item\label{enum:change}次に分類語彙表の分類番号の変換表の表\ref{tab:bunrui_code_change}に従って,付与した分類語彙表の番号を変更する.表\ref{tab:huyo_bgh_rei}のデータに対してこの番号変更を行なうと表\ref{tab:code_change_rei}の結果が得られる.例えば,表\ref{tab:huyo_bgh_rei}の一つ目の寺の最初の三桁は``126''であるがこれは表\ref{tab:bunrui_code_change}の三行目の``[1-3]2[5-8]''にマッチし,``536''に変換される.\begin{table}[t]\caption{分類語彙表の分類番号の付与例}\label{tab:huyo_bgh_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline1263005022&寺\\1263005021&寺\\1308207012&公式\\1311509016&公式\\3101011014&公式\\3360004013&公式\\1263013015&母校\\1331201016&就任\\1210007021&皇室\\1263010015&学園\\1259001012&日本\\1259004192&ソ連\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hline1198007013&全国\\1253007012&全国\\1254006033&農村\\1255004017&県\\1263010012&学校\\1336002012&祭り\\1241023012&家元\\1308205021&恒例\\1231002013&官民\\1241101012&官民\\1304308013&祝い\\1336019012&祝い\\1210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更例}\label{tab:code_change_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline5363005022&寺\\5363005021&寺\\ab18207012&公式\\ab21509016&公式\\aa11011014&公式\\ab70004013&公式\\5363013015&母校\\ab41201016&就任\\5210007021&皇室\\5363010015&学園\\5359001012&日本\\5359004192&ソ連\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hline7118007013&全国\\5353007012&全国\\5354006033&農村\\5355004017&県\\5363010012&学校\\ab46002012&祭り\\5241023012&家元\\ab18205021&恒例\\5231002013&官民\\5241101012&官民\\ab14308013&祝い\\ab46019012&祝い\\5210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[p]\caption{目盛用の分類番号つきの意味素性の追加}\label{tab:sosei_add_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll@{}|}\hline5100000000&(動物)\\5200000000&(人間)\\5300000000&(組織・機関)\\6100000000&(生産物・道具)\\6200000000&(動物の部分)\\6300000000&(植物)\\6400000000&(自然物)\\6500000000&(空間・方角)\\7100000000&(数量)\\8100000000&(時間)\\9100000000&(現象名詞)\\aa00000000&(抽象関係)\\ab00000000&(人間活動)\\d000000000&(その他)\\5363005022&寺\\5363005021&寺\\ab18207012&公式\\ab21509016&公式\\aa11011014&公式\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hlineab70004013&公式\\5363013015&母校\\ab41201016&就任\\5210007021&皇室\\5363010015&学園\\5359001012&日本\\5359004192&ソ連\\7118007013&全国\\5353007012&全国\\5354006033&農村\\5355004017&県\\5363010012&学校\\ab46002012&祭り\\5241023012&家元\\ab18205021&恒例\\5231002013&官民\\5241101012&官民\\ab14308013&祝い\\ab46019012&祝い\\5210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[p]\caption{分類番号の順番に並べかえ例}\label{tab:sort_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll@{}|}\hline5100000000&(動物)\\5200000000&(人間)\\5210007021&皇室\\5210007022&王室\\5231002013&官民\\5241023012&家元\\5241101012&官民\\5300000000&(組織)\\5353007012&全国\\5354006033&農村\\5355004017&県\\5359001012&日本\\5359004192&ソ連\\5363005021&寺\\5363005022&寺\\5363010012&学校\\5363010015&学園\\5363013015&母校\\6100000000&(生産物)\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll@{}|}\hline6200000000&(動物の部分)\\6300000000&(植物)\\6400000000&(自然物)\\6500000000&(空間・方角)\\7100000000&(数量)\\7118007013&全国\\8100000000&(時間)\\9100000000&(現象名詞)\\aa00000000&(抽象関係)\\aa11011014&公式\\ab00000000&(人間活動)\\ab14308013&祝い\\ab18205021&恒例\\ab18207012&公式\\ab21509016&公式\\ab41201016&就任\\ab46002012&祭り\\ab46019012&祝い\\ab70004013&公式\\d000000000&(その他)\\\hline\end{tabular}\end{center}\end{table}\item次に目盛用の分類番号つきの意味素性を\ref{enum:change}で得られた集合に追加する.表\ref{tab:code_change_rei}のデータに対してこれを行なうと表\ref{tab:sosei_add_rei}の結果が得られる.\item以上までで得られた集合を分類番号によってソートする.表\ref{tab:sosei_add_rei}のデータに対してこれを行なうと表\ref{tab:sort_rei}の結果が得られる.\item後は見やすいように整形すればよい.例えば,表\ref{tab:sort_rei}で分類番号を消し,意味素性ごとに一行にまとめ,語がない行を消去し,一行内にだぶって存在する語を消去すると表\ref{tab:last_rei}のようになる.\end{enumerate}前にも述べたとおり,表\ref{tab:last_rei}の形になれば考察などに便利な状態になる.\clearpage\begin{table}[t]\caption{ソート後の名詞集合の整形}\label{tab:last_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline(人間)&皇室王室官民家元\\(組織)&全国農村県日本ソ連寺学校学園母校\\(数量)&全国\\(関係)&公式\\(活動)&祝い恒例公式就任祭り\\\hline\end{tabular}\end{center}\end{table} \section{意味ソートの諸相} \subsection{分類語彙表以外の階層シソーラスを用いた意味ソート}今までの議論では分類語彙表を用いた意味ソートの仕方を述べてきた.意味ソートを行なうには意味の順序関係が必要であるが,分類語彙表はちょうど各単語に分類番号がついていたのでソートには最適であった.ここでは,EDRの辞書\cite{edr}のように,分類語彙表についていたような分類番号を持たない階層シソーラスを用いて,意味ソートはできないかを考察する.前述したとおり,そもそも分類語彙表の10桁の分類番号は,7レベルの階層構造を示している.EDRで意味ソートを行なう場合にも,分類語彙表と同じように上位桁から階層構造を作るような番号を各単語につけてやればよい.しかし,番号をつけるのは面倒である.階層シソーラス上の各ノードにおける概念の定義文をそのレベルの番号のように扱ってやるとよい.こうすれば番号をあらためてふってやる必要がない.例えば,トップのノードから「母校」という単語に至る各ノードの概念の定義文を並べてみると以下のようになる.\\{\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|}\hline概念\\人間または人間と似た振る舞いをする主体\\自立活動体\\組織\\組織のいろいろ\\教育組織\\学校という,教育を行う組織\\数量や指示関係で捉えた学校\\自分が学んでいる,あるいはかつて学んでいた学校\\\hline\end{tabular}\\}\begin{table*}[t]\caption{EDRを用いた意味ソートの例}\label{tab:EDR_last_rei}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}c@{}l@{}c@{}ll|}\hline(概念&:&ものごと&:&もの)&寺学校県家元官民祝い公式\\(概念&:&ものごと&:&事柄)&祭り恒例祝い\\(概念&:&位置&:&場所)&寺学校全国県農村ソ連日本\\(概念&:&事象&:&現象)&祭り\\(概念&:&事象&:&行為)&祝い就任\\(概念&:&事象&:&状態)&官民恒例家元寺県公式\\(概念&:&人間または人間と似た振る舞いをする主体&:&自立活動体)&学校学園母校寺県ソ連日本王室皇室家元官民\\(概念&:&人間または人間と似た振る舞いをする主体&:&人間)&寺県家元官民\\\hline\end{tabular}\end{center}\end{table*}\noindentこれを連結した``概念:人間または人間と似た振る舞いをする主体:自立活動体:組織:組織のいろいろ:教育組織:学校という,教育を行う組織:数量や指示関係で捉えた学校:自分が学んでいる,あるいはかつて学んでいた学校''を分類番号と見立てて意味ソートを行なえばよい.先にあげた「の行事」に前接する名詞集合でEDRを用いた意味ソートを行なうと表\ref{tab:EDR_last_rei}のようになる.表\ref{tab:EDR_last_rei}では各行の出力のための目盛として上位三つの概念の定義文を用いている.EDRでは他の辞書に比べ多義性を設定する場合が多く,またシソーラスの階層構造においても複数パスを用いているので,同じ単語が複数の箇所に出ていて複雑なものになる.しかし,多観点から考察したいときには,ちょうどいろいろなとらえ方の単語を認識しやすいようになっており,EDRを用いると有効だろう.以上までの議論から階層シソーラスならばどのようなものでも意味ソートが行なえることがわかるであろう.ただし,階層構造での枝別れ部分においてどのノードから出力するのかは曖昧になっている.例えば,表\ref{tab:EDR_last_rei}では概念の定義文の文字列のEUCコード順となっている.順序を人手であらかじめ指定しておければそれにこしたことはないが,無理ならば,定義文自体を他の辞書(例:分類語彙表)により意味ソートすることも考えられる.\subsection{単語を複数の属性で表現するといった形での辞書記述における意味ソート}\label{sec:hukusuu_zokusei}単語に複数の属性を付与するといった形で単語の意味記述を行なうという考え方がある.例えば,計算機用日本語生成辞書IPALの研究\cite{ipalg98}では,「器」を意味するさまざまな単語に対して表\ref{tab:ipal_hukusuu_zokusei_rei}のような属性を与えている.表中の''---''は属性の値は指定されていないことを意味する.\begin{table}[t]\caption{単語に複数の属性を付与した辞書の例}\label{tab:ipal_hukusuu_zokusei_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\碗&和&---&深&---&陶磁\\椀&和&---&深&---&木\\湯のみ&和&緑茶/白湯&深&---&陶磁\\皿&---&---&浅&---&---\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{左の属性からソートした結果}\label{tab:ipal_hukusuu_zokusei_rei_hidari}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\皿&---&---&浅&---&---\\碗&和&---&深&---&陶磁\\椀&和&---&深&---&木\\湯のみ&和&緑茶/白湯&深&---&陶磁\\\hline\end{tabular}\end{center}\end{table}このような形の辞書の場合でも意味ソートは可能である.各属性を階層シソーラスでの各レベルであると認識すればよい.この場合,左の属性から順に階層シソーラスの上位から下位のレベルに対応すると考えると,``種類',``対象物'',``形状'',``サイズ'',``材質''とレベルがあると考えられるので,意味ソートに用いる便宜的な分類番号はEDRの場合を参考にすると,``種類:対象物:形状:サイズ:材質''といったものとなる.例えば,「椀」は``和:---:深:---:木''という分類番号を持っていることになる.(厳密には,属性の値も意味ソートするために,この「和」「深」「木」も分類語彙表の分類番号に変更しておく.)このような分類番号をもっているとしてソートすれば意味ソートのできあがりである.この意味ソートを行なった結果を表\ref{tab:ipal_hukusuu_zokusei_rei_hidari}に示す.これは,単純に左の属性から順にソートしていった結果と等価である.\begin{table}[t]\caption{右の属性からソートした結果}\label{tab:ipal_hukusuu_zokusei_rei_migi}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\皿&---&---&浅&---&---\\碗&和&---&深&---&陶磁\\湯のみ&和&緑茶/白湯&深&---&陶磁\\椀&和&---&深&---&木\\\hline\end{tabular}\end{center}\end{table}今は左の属性をもっとも重要な属性として扱って意味ソートを行なったものであるが,複数の属性の間の重要度の関係はそれほど明確ではない.例えば,同じデータで右の属性から順にソートすると,表\ref{tab:ipal_hukusuu_zokusei_rei_migi}のようになる.このように複数の属性を付与する辞書ではどういった属性を重視するかでソートのされ具合いが異なることとなる.これは,ユーザが今興味を持つ属性の順番によってソートすることができることを意味しており,複数の属性を付与する辞書は非常に融通が効くものであるということがいえる\footnote{ただし,この融通の良さは自由度が高くて良さそうだが欠点にもなりうる可能性を持っている.例えば,ユーザが自分の好きなように属性を指定することができるといえば聞こえはよいが,これは裏返して考えるとユーザが自分の好きなように属性を指定する必要があるということを意味している.ユーザが属性を指定するのが面倒な場合はデフォルトの順序のようなものを考えておくとよいだろう.例えば,決定木学習で用いられる方法\cite{c4.5j}により木を構成しそのようになるための属性の順序をデフォルトの順序としてもよいだろう.また,各属性の上位下位の関係を本文でも述べたような概念の包含関係より求め(このときは本文での基準のような完全に包含関係になるものではなく若干例外があってもよいなど条件をゆるめたものがよいだろう),それを元にデフォルトの順序を決めるのもよいだろう.さらにはこのデフォルトの順序をユーザーの二,三のキーワード指定によりコントロールできるとなおよいだろう.}.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{10cm}\begin{center}\epsfile{file=hidari.eps,height=4cm,width=6cm}\end{center}\caption{左からのソート結果による階層シソーラス}\label{fig:ipal_hukusuu_zokusei_rei_hidari}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{10cm}\begin{center}\epsfile{file=migi.eps,height=4cm,width=6cm}\end{center}\caption{右からのソート結果による階層シソーラス}\label{fig:ipal_hukusuu_zokusei_rei_migi}\end{minipage}}\end{center}\end{figure}これを階層シソーラスも交えて考察するとさらに面白いことに気づく.先にも述べたように,各属性は階層シソーラスの各レベルと見立てることができるので,階層シソーラスでのこの属性のレベルの順序を変更することで何種類もの階層シソーラスを構築できることとなる.例えば,属性を左から用いて意味ソートした表\ref{tab:ipal_hukusuu_zokusei_rei_hidari}からは図\ref{fig:ipal_hukusuu_zokusei_rei_hidari}のような階層シソーラスが構築できる.また,属性を右から用いて意味ソートした表\ref{tab:ipal_hukusuu_zokusei_rei_migi}からは図\ref{fig:ipal_hukusuu_zokusei_rei_migi}のような階層シソーラスが構築できる.図\ref{fig:ipal_hukusuu_zokusei_rei_hidari}のシソーラスでは「碗」と「椀」の意味的な近さをよく理解できる.図\ref{fig:ipal_hukusuu_zokusei_rei_migi}のシソーラスでは「碗」と「湯のみ」の同じ陶磁器としての意味的な近さをよく理解できる.この複数のシソーラスの構築は,種々の観点による階層シソーラスの研究にもつながるものである.観点によるシソーラスの必要性は文献\cite{miyazaki94A}においても述べてある.それによると,「鳥」「飛行機」を上位で自然物と人工物と大別すると,「鳥」「飛行機」の意味的近さがわからなくなるとある.確かにそのとおりである.今後の言語処理を考えると観点による階層シソーラスの自由変形が可能な,複数属性を付与するといった辞書は非常に有用であり,生成用のみならず一般単語辞書,実用レベル的なもので構築する必要があると思われる.また,もともと単語の意味辞書を階層シソーラスの形にする必要があるのかという疑問も生じる.表\ref{tab:ipal_hukusuu_zokusei_rei}を見れば,「うつわ」の属性がすべて属性値を指定しない``---''になっていることから他の語の上位語であることが属性の集合の情報を見るだけでわかる.この属性の包含関係から上位・下位の関係が類推できるとすれば,階層シソーラスというものはわざわざ構築しておく必要はなく単語を属性の集合によって表現するというので十分なような気もしてくる.ただし,ペンギンは飛べないが普通の鳥は飛べるといった例外事象も扱えるような属性の定義などをしておく必要はある.また,複数属性で単語を表現する辞書では,一致する属性の割合などで単語間の類似度を定義するということも可能となるであろう.ただし,このとき属性に重みを与えるなどのことが必要になるかもしれない.単語の意味記述としては,さらに表現能力の高いものとして高階の述語論理で表現するもの,自然言語の文で定義するものなどが考えられるが,とりあえず現在の言語処理技術で扱えてそれでいて多観点を扱えるという意味で単語を複数属性の集合で意味記述するという辞書は妥当なところではないだろうか\footnote{複数の属性を持つ単語辞書の作成には,国語辞典などの定義文が役に立つのではないかと考えている.例えば,定義文の文末から意味ソートを多段的にかけた結果を人手でチェックすることを行なえば,比較的低コストでこの辞書を作成できるだろう.}.ちょっと脇道にそれて意味ソートと直接関係のない単語意味辞書のあるべき姿について議論をしてしまったが,単語を複数属性の集合で意味記述するという辞書ができれば,先にも述べたようにその辞書にはユーザが自分の好きな順番で属性を選んで意味ソートできるという利点があるので,意味ソートの立場としても非常に好都合である. \section{意味ソートの三つの利用例} \label{sec:riyourei}\subsection{辞書の作成}名詞と名詞の間の意味関係を示す名詞意味関係辞書の作成に意味ソートが利用できる例はすでに文献\cite{murata_indian_nlp}において述べている.名詞と動詞,名詞と形容詞の間の関係辞書の作成も格フレームや多義性などを考慮に入れながら同様にできることだろう.ここでは,例として表\ref{tab:taberu_case_frame}に動詞「食べる」の格フレームの作成例を示しておく.\begin{table}[t]\caption{「食べる」の格フレームの作成例}\label{tab:taberu_case_frame}\begin{center}\small\renewcommand{\arraystretch}{}(a)ガ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(動物)&牛子牛魚\\(人間)&わたしたちみんな自分乳幼児親妹お客日本人看護婦作家\\\hline\end{tabular}\vspace{0.3cm}(b)ヲ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(動物)&動物貝プランクトン\\(生産物)&獲物製品材料ペンキ食べ物えさ和食日本食洋食中華料理おむすび粥すしラーメンマカロニサンドイッチピザステーキバーベキューてんぷら空揚げ穀物米白米日本米押し麦キムチカルビ砂糖ジャム菓子ケーキビスケットクッキーアイスクリーム\\(体部)&遺骸人肉肝臓\\(植物)&遺伝子植物牧草ピーマンチコリ桑バナナ松茸昆布\\(現象)&珍味雪\\(関係)&中身\\(活動)&朝食昼飯夕食夕御飯おやつ塩焼き\\\hline\end{tabular}\vspace{0.3cm}(c)デ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(人間)&自分\\(組織)&事務所レストランホテル\\(生産物)&しょうゆシャトー楽屋便所荷台食卓\\(空間)&現地全域車内\\(数量)&ふたり割合複数\\(活動)&研究会議\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:taberu_case_frame}は受身文など考慮して「食べる」の各格要素にくる名詞をそれぞれ意味ソートしたものである.表\ref{tab:taberu_case_frame}の形になれば人手で格フレームを作成するのも容易であろうと思われる\footnote{最近では,格フレームは多項関係でとらえる必要があることがいわれてきている.例えば,魚はプランクトンを食べるが牛は食べず,また牛は牧草を食べるが魚は食べない.表\ref{tab:taberu_case_frame}の形に各格要素ごとまとめてしまうと魚とプランクトンの関係,牛と牧草の関係が見えなくなり,よろしくない.}.ガ格は動作主になりうる動物や人間が入ることがわかるし,ヲ格には様々な食べ物になりうる名詞が入ることがわかる.また,任意格のデ格を見ると,「自分で」や「事務書で」や「しょうゆで」などデ格の意味関係が多種多様なものであることまでわかる.たとえば,``(人間)''の語は主体,``(組織)''``(空間)''の語は場所,``(具体物)''の語は道具の場合と場所の場合があることまでわかる.ここであげた例は動詞の格フレームであるが,このようなことは形容詞に対してもさらには名詞述語文に対してもその他の単語間に対しても容易に行なえることを考えれば,意味ソートの汎用性,有用性を理解できるであろう.これは,辞書の作成に限った話しではなく,言語現象の調査におけるデータの整理,有用な情報の抽出にも役に立つ.また,近年いろいろな知識獲得の研究が行なわれているが,知識獲得で得られたデータの整理にも,同じようにこの意味ソートが役に立つ.\subsection{タグつきコーパスの作成(意味的類似度との関連)}近年,さまざまなコーパスが作成されてきており\cite{edr_corpus_2.1}\cite{kurohashi_nlp97}\cite{rwc},コーパスベースの研究も盛んになっている\cite{mori_DT}\cite{murata:nlken98}.ここでは,コーパスの作成にも意味ソートが役に立つことについて述べる.例えば,名詞句「AのB」の意味解析を用例ベースで解析したいとする.この場合,名詞句「AのB」の意味解析用のタグつきコーパスが必要となる.具体的には,名詞句「AのB」の各用例に対して「所有」「属性関係」といった意味関係をふっていくこととなる.このとき名詞句「AのB」を意味ソートしておけば比較的よく似た用例が近くに集まることになり,意味関係をふる手間が軽減される.\begin{table}[t]\caption{名詞句「AのB」の意味解析用のタグつきコーパスの作成例}\label{tab:make_corpus}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|l|l|}\hline名詞A&名詞B&意味関係\\\hlineパナマ&事件&場所\\中学校&事件&場所\\軍&事件&場所\\アルバム&事件&間接限定\\タンカー&事件&間接限定\\最悪&事件&形的特徴\\最大&事件&形的特徴\\周辺&物件&場所\\両国&事項&主体対象\\文献&事項&分野限定\\総会&事項&主体対象\\上院&条項&分野限定,主体対象\\新法&条項&分野限定,全体部分\\条約&条項&分野限定,全体部分\\協定&条項&分野限定\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:make_corpus}は文献\cite{yata_MT}において作成されたタグつきコーパスの一部分である.ここでは名詞句「AのB」のうち名詞Bの方が重要であろうとして名詞Bを先に意味ソートとしたのち名詞Aで意味ソートを行なっている.表中の意味関係の用語は少々難しいものとなっているが意味ソートの結果近くにあらわれている用例同士は比較的同じ意味関係がふられていることがわかるだろう.このように意味的に近い用例が近くに集まるとタグの付与の手間が軽減されることが理解できるであろう.ところで,用例ベースによる手法では入力のデータと最も類似した用例にふられたタグを解析結果とする.意味ソートという操作は単語を意味の順番にならべかえるわけだが,そのことによって類似した用例を集める働きをする.用例ベースと意味ソートは単語の類似性を用いるという共通点を持っている.この類似性を用いるという性質が用例ベースによる手法と意味ソートの共通した利点となっている.ここでは名詞句「AのB」を例にあげてコーパス作成に意味ソートを用いると効率的であることを述べたが,これは特に名詞句「AのB」に限ったことではない.単語が関係している問題ならば,その単語で意味ソートができるので,文字列レベルで扱わないと仕方がない問題以外はほとんど本稿の意味ソートが利用できる.また,もともと文字列レベルで扱わないと仕方がない問題では文字列でソートすればよいのである.しかし,ここであげた例では名詞Bで意味ソートした後,名詞Aで意味ソートをするといった不連続性がある.名詞Aと名詞Bの両方を考慮することで,意味ソートで近くにくる用例よりも意味的に近い用例を持ってこれる場合がある.しかし,このような方法では一次元的に配列するのが困難で人手でチェックするのが難しくなってくる.\subsection{情報検索での利用}近年,インターネットの発展とともに情報検索の研究は非常に盛んになっている.この情報検索がらみの研究においても意味ソートの有効な利用方法が考えられる.例えば,津田の研究\cite{tsuda94A}では文書データベースの特徴を多数のキーワードによってユーザに提示するということを行なっている.例えば,提示したい文書データベースAのキーワード群が以下のとおりであったとする.\begin{quote}\fbox{検索単語文書作成候補質問数キーワード情報}\end{quote}この単語の羅列をランダムな順番でユーザに提示するのでは不親切である.ここで意味ソートを行なってやると,以下のようになる.{\small\renewcommand{\arraystretch}{}\begin{tabular}[h]{ll}(数量)&数\\(抽象関係)&候補\\(人間活動)&検索\\&文書キーワード単語情報質問\\&作成\\\end{tabular}}ここでは,分類語彙表の上位三桁が一致するものを同じ行に表示している.ランダムに表示するよりはこのように意味ソートを行なって表示した方がよく似た意味の単語が集まるので,ユーザにとってやさしいのではないかと思われる.また,情報検索システムが検索式を作る際にユーザにキーワードを提示して適切なものを選んでもらう場合もある\cite{tsuda94A}.このような場合においても,キーワードを他に適切にならべかえる方法があればそれを用いればよいが,そういったものがない場合は上記と同様にとりあえず意味ソートを用いておけば少しはユーザに対してやさしくなる. \section{おわりに} 本稿ではまず初めに意味ソートの仕方について述べた.そこでは,以下の三つの意味記述の異なる辞書を用いたそれぞれの意味ソートの方法について記述した.\begin{enumerate}\item単語に番号がふってある辞書(分類語彙表)\item単語に番号がふっていない階層シソーラス辞書(EDR概念辞書)\item\label{enum:owarini_hukusuu_gainen}単語を複数の属性の集合によって表現する辞書(IPAL日本語生成辞書)\end{enumerate}また,\ref{enum:owarini_hukusuu_gainen}の「単語を複数の属性の集合によって表現する辞書」では,この辞書の自由度の高さや多観点シソーラスとの関係を議論し,この辞書の有用性を詳しく述べた.また,本稿の最後では以下の三つの異質な応用領域を述べ,意味ソートの有用性を議論した.\begin{enumerate}\item辞書の構築例\itemタグつきコーパスの作成例\item情報提示システム例\end{enumerate}われわれは意味ソートは言語処理研究だけではなく,言語研究での調査方法としても役に立つものであると考えている.\section*{謝辞}\ref{sec:hukusuu_zokusei}節で述べた単語を複数の属性の集合によって表現するという考え方は国立国語研究所の柏野和佳子研究員との議論において御教示いただいた.また,郵政省通信総研の内山将夫研究員には論文内容についていくつかのコメントをいただいた.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V11N02-05
\section{はじめに} \label{sec:intro}現状の機械翻訳システムによる翻訳(以降,MT訳と呼ぶ)は,品質の点で人間による翻訳(人間訳)よりも劣り,理解しにくいことが多い.理解しやすい翻訳を出力できるようにシステムを高度化するためには,まず,MT訳と人間訳を比較分析し,両者の間にどのような違いがあるのかを把握しておく必要がある.このような認識から,文献\cite{Yoshimi03}では,英日機械翻訳システムを対象として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数,体言と用言の分布などについて人間訳とMT訳の比較分析を行なっている.また,文献\cite{Yoshimi04}では,係り先未決定文節数\footnote{文を構成するある文節における係り先未決定文節数とは,文を文頭から順に読んでいくとき,その文節を読んだ時点で係り先が決まっていない文節の数である\cite{Murata99}.}の観点から人間訳とMT訳における構文的な複雑さを比較している.しかし,文章の理解しにくさの要因は多種多様であり,また互いに複雑に絡み合っていると考えられるため,比較分析は,上記のような観点からだけでなく,様々な観点から行なう必要がある\footnote{文献\cite{Nakamura93}には,作家の文体を比較するための言語分析の着眼点として,文構成,語法,語彙,表記,修辞など多岐にわたる項目が挙げられている.}.本研究では,上記の先行研究を踏まえて,英文ニュース記事に対する人間訳とMT訳を,そこで使用されている表現の馴染みの度合いの観点から計量的に比較分析する.MT訳の理解しにくさの原因の一つとして,馴染みの薄い表現が多く使われていることがあると考えられる.このような作業仮説を設けた場合,人間訳とMT訳の間で理解しにくさに差があるかどうかを明らかにする.市販されているある機械翻訳システムで次の文(E\ref{SENT:sample})を翻訳すると,文(M\ref{SENT:sample})のような訳文が得られる.これに対して,人間による翻訳は文(H\ref{SENT:sample})のようになる.\begin{SENT2}\sentEThethrill-seekerfloatedtotheground.\sentHその冒険者は地上に舞い降りました。\sentMスリル‐捜索者は、地面に浮動した。\label{SENT:sample}\end{SENT2}文(M\ref{SENT:sample})は文(H\ref{SENT:sample})に比べて理解しにくい.その原因は次のような点にあると考えられる.\begin{enumerate}\item``thrill-seeker''の訳が文(H\ref{SENT:sample})では「冒険者」となっているが,文(M\ref{SENT:sample})では「スリル-捜索者」となっている.「スリル-捜索者」は,「冒険者」に比べて馴染みの薄い表現である.\item``float''が文(H\ref{SENT:sample})では「舞い降りる」と訳されているのに対して,文(M\ref{SENT:sample})では「浮動する」と訳されている.「浮動する」は,「舞い降りる」に比べて馴染みの薄い表現である.\end{enumerate}馴染みの薄い表現としては,文(M\ref{SENT:sample})における「スリル-捜索者」のような名詞や「浮動する」のような動詞など様々なものがあるが,本稿では動詞を対象とする.そして,人間訳で使用されている動詞の馴染み度の分布と,MT訳で使用されている動詞の馴染み度の分布を比較する.馴染み度の測定には,NTTデータベースシリーズ「日本語の語彙特性」の単語親密度データベース\cite{Amano99}を利用する.文献\cite{Takahashi91}では,(1)形容動詞化接尾辞「性」や「的」などを伴う語,(2)比較対象が省略された形容詞,(3)機械翻訳システムの辞書において「抽象物で,かつ人が作り出した知的概念」というラベルが付与されている語を抽象語句と呼び,「抽象語句密度は理解しにくさに比例する」という仮説が示されている.この仮説と本稿での仮説は関連性が高いと考えられる.ただし,本稿では,特に抽象語句という制限を設けず,単語親密度データベースを用いて表現の馴染み度を一般的に測定し,仮説の検証を行なう.なお,特にMT訳には誤訳の問題があるが,本研究は,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳が理解しにくい原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくものである. \section{分析方法} \label{sec:method}\subsection{分析対象とした標本}\label{sec:method:corpus}コーパスとしてBilingualNetNews\footnote{http://www.bnn-japan.com/}の英文ニュース記事を使用し,2001年5月26日から2002年1月15日までの記事を構成する英文5592文を母集団とした.これらの英文にはあらかじめ人間訳が与えられている.この母集団から乱数によって500文を単純無作為抽出した.抽出した500文を市販されているある英日機械翻訳システム\footnote{シャープ(株)の英日翻訳支援ソフトウェア「翻訳これ一本2002」を利用した.}で翻訳し,入力文全体を覆う構文構造が得られなかった文と,一文の認識に失敗した文,合わせて24文を除いた476文を標本とした.英文476文に対する訳文の数は,地の文の句点の数で数えた場合,人間訳では559文であり,MT訳では519文であった.\subsection{形態素解析}\label{sec:method:morphy}人間訳とMT訳の各文に対して,形態素解析を行なった.この処理には,形態素解析システム茶筌\footnote{http://chasen.aist-nara.ac.jp/index.html.ja}をデフォルトの状態で利用した.\subsection{形態素解析結果の修正と動詞の抽出}\label{sec:method:extract}動詞の抽出に先立って,茶筌による形態素解析の結果に含まれる誤りを人手で修正した.動詞に関連する主な修正点は次の通りである.\begin{enumerate}\item「にらみ合いが〜」や「ゆさぶりを〜」などは動詞の連用形と解析されるが,これらを名詞とした.\item「〜により,」や「〜という」などは助詞と動詞に分解されるが,全体をまとめて助詞とした.なお,「により」が助詞と動詞に分解されるのは,読点を伴う場合であり,読点がない場合は,全体が助詞と解析される.\item「勝てる」や「戻れる」などの可能動詞を五段活用動詞に変更した.これは,NTTの単語親密度データベースには可能動詞が見出し語として登録されていないことに対処するためである.\item「〜するかもしれない」における「しれ」や「〜しておきながら」における「おき」が自立動詞と解析されるが,これらを非自立動詞とした.\item「する」や「できる」を伴っている一般名詞,例えば「レイオフ」や「先触れ」などをサ変名詞に変更した.\end{enumerate}抽出対象は自立動詞とした.ただし,サ変名詞が「する」か「できる」を伴っている場合,全体をサ変動詞として抽出した.\subsection{単語親密度データベース}\label{sec:method:database}動詞の馴染み度の測定は,NTTデータベースシリーズ「日本語の語彙特性」の単語親密度データベースを利用して行なった.単語親密度とは,ある単語を馴染みがあると感じる程度を複数の被験者が7段階で評価したときの平均値である.馴染みがあると感じられる程度が高い単語ほど,大きい数値が与えられている.単語親密度データベースの構成は次の通りである.すなわち,単語に対するID番号,カタカナによる単語の読み,単語の表記,モーラ数で表わした単語の長さ,アクセント型,文字音声単語親密度,音声単語親密度,文字単語親密度,単語親密度評定実験の被験者数,複数アクセント区切り記号付きカタカナによる読みの10項目から成る.文字単語親密度は,単語が文字で書かれた場合の親密度であり,音声単語親密度は,単語が音声で発せられた場合の親密度である.また,文字音声単語親密度は,単語を文字と音声で同時に見聞きした場合の親密度である.単語親密度データベースの見出し語数は,88569語である.ただし,このうち75語については文字単語親密度が与えられていない.動詞の馴染み度の測定には文字単語親密度を利用した.以降,文字単語親密度を単に単語親密度と呼ぶ.単語親密度データベースにおける単語親密度の分布を表\ref{tab:histgram-database}\,に示す.\begin{table}[htbp]\caption{単語親密度データベースにおける単語親密度の分布}\label{tab:histgram-database}\begin{center}\begin{tabular}{|c||r|r|}\hline階級&\multicolumn{1}{c|}{度数}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&1233&1.39\%\\$1.5\lefam<2.0$&4112&4.65\%\\$2.0\lefam<2.5$&6750&7.63\%\\$2.5\lefam<3.0$&8232&9.30\%\\$3.0\lefam<3.5$&8720&9.85\%\\$3.5\lefam<4.0$&8617&9.74\%\\$4.0\lefam<4.5$&9280&10.49\%\\$4.5\lefam<5.0$&11401&12.88\%\\$5.0\lefam<5.5$&13795&15.59\%\\$5.5\lefam<6.0$&11191&12.65\%\\$6.0\lefam<6.5$&4761&5.38\%\\$6.5\lefam\le7.0$&402&0.45\%\\\hline合計&88494&100.00\%\\\hline\end{tabular}\end{center}\end{table}\subsection{動詞への単語親密度の付与}\label{sec:method:matching}人間訳あるいはMT訳から抽出した動詞をキーとして単語親密度データベースを検索することによって,各動詞の単語親密度を得た.動詞がサ変動詞である場合は,語幹をキーとして単語親密度データベースを検索した.人間訳あるいはMT訳から抽出した動詞が単語親密度データベースに登録されていない語であるか,あるいは登録されているが単語親密度が与えられていない語(以降,これらをまとめて未登録語と呼ぶ)である場合,その動詞は分析対象外とした.なぜならば,未登録語には低い単語親密度を与えるという方針も考えられるが,\ref{sec:result:undef}\,節で述べるように,未登録語には馴染みのある語も混在しているため,一律に低い単語親密度を与えることは適切ではないからである.また,個々の未登録語に適切な単語親密度を与えることはコスト的に容易ではないからである. \section{分析結果} \label{sec:result}分析は,動詞全体で見た場合の単語親密度の分布と,動詞を語種ごとに分けた場合の単語親密度の分布について行なった.\subsection{動詞全体での単語親密度の比較}\label{sec:result:global}\ref{sec:method:extract}\,節の方法によって人間訳から抽出された動詞は,延べで1269語,異なりで583語であった.他方,MT訳からは,延べで1330語,異なりで553語が抽出された.人間訳から抽出された583語,MT訳から抽出された553語を単語親密度データベースと照合した.その結果単語親密度が付与できた動詞の数は,人間訳で520語,MT訳で515語であった.基本統計量を表\ref{tab:stat-kotonari}\,に示す.表\ref{tab:stat-kotonari}\,を見ると,単語親密度の最小値において人間訳とMT訳で大きな差があり,標準偏差に若干の差があるが,平均値と最大値については人間訳とMT訳で差がないことが分かる.\begin{table}[htbp]\caption{基本統計量}\label{tab:stat-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.801&0.449&6.719&4.000\\MT訳&5.802&0.561&6.719&2.438\\\hline\end{tabular}\end{center}\end{table}人間訳とMT訳における単語親密度の分布を表\ref{tab:fam-histgram-kotonari}\,に示す.表\ref{tab:fam-histgram-kotonari}\,から次のような点が読み取れる.\begin{enumerate}\item表\ref{tab:stat-kotonari}\,の標準偏差を見ても分かるが,MT訳は人間訳に比べて散らばりの度合いがやや大きい.具体的には,人間訳では単語親密度が2.0以上4.0未満の範囲である動詞は全く存在しないのに対して,MT訳では9語(1.74\%)存在する.\item単語親密度が5.0以上6.0未満の範囲である動詞の比率は,人間訳のほうが若干高い.\item単語親密度が6.0以上7.0以下の範囲である動詞の比率は,MT訳のほうが若干高い.\item上記以外の階級では,人間訳とMT訳に大きな差は見られない.\end{enumerate}\begin{table}[htbp]\caption{単語親密度の分布}\label{tab:fam-histgram-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\cline{2-5}\raisebox{1.5ex}[0pt]{階級}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&0&0.00\%&0&0.00\%\\$1.5\lefam<2.0$&0&0.00\%&0&0.00\%\\$2.0\lefam<2.5$&0&0.00\%&1&0.19\%\\$2.5\lefam<3.0$&0&0.00\%&1&0.19\%\\$3.0\lefam<3.5$&0&0.00\%&4&0.78\%\\$3.5\lefam<4.0$&0&0.00\%&3&0.58\%\\$4.0\lefam<4.5$&7&1.35\%&8&1.55\%\\$4.5\lefam<5.0$&18&3.46\%&17&3.30\%\\$5.0\lefam<5.5$&82&15.77\%&63&12.23\%\\$5.5\lefam<6.0$&215&41.35\%&203&39.42\%\\$6.0\lefam<6.5$&193&37.12\%&204&39.61\%\\$6.5\lefam\le7.0$&5&0.96\%&11&2.14\%\\\hline合計&520&100.00\%&516&100.00\%\\\hline\end{tabular}\end{center}\end{table}単語親密度の分布に関して,人間訳とMT訳で統計的有意差があるかどうかを確認するために,Wilcoxonの順位和検定を行なった.その結果,両者の間には有意水準5\%で有意差は認められなかった.以上より,NTT単語親密度データベースを利用して馴染み度を測定した場合,MT訳が人間訳に比べて馴染みの薄い動詞を多く含んでいるということはないと考えてよさそうである.\subsection{単語親密度が低い動詞に関する分析}\label{sec:result:low-fam}表\ref{tab:fam-histgram-kotonari}\,を見ると,単語親密度が4.5未満である動詞の分布の違いが特徴的である.そこで,単語親密度が4.5未満である動詞について,若干詳細に分析した.単語親密度が4.5未満である動詞を表\ref{tab:lowfam-word}\,に示す.表\ref{tab:lowfam-word}\,において括弧内の数値は単語親密度である.著者の主観による判断では,表\ref{tab:lowfam-word}\,の人間訳には特に馴染みの薄い動詞は現れていない.これに対して,MT訳には,「被覆する」や「起草する」,「先触れする」,「浮動する」など,馴染みの薄い動詞が含まれているように感じられる.\begin{table}[htbp]\caption{単語親密度が4.5未満である動詞}\label{tab:lowfam-word}\begin{center}\begin{tabular}{|l||l|}\hline\multicolumn{1}{|c||}{人間訳}&\multicolumn{1}{c|}{MT訳}\\\hline享受(4.000)&精査(2.438)\\着弾(4.031)&レイオフ(2.781)\\破綻(4.094)&被覆(3.125)\\召喚(4.188)&享有(3.344)\\起案(4.188)&包含(3.375)\\駆る(4.281)&布陣(3.469)\\追随(4.438)&起草(3.500)\\&醸す(3.719)\\&強襲(3.969)\\&削ぐ(4.062)\\&審理(4.094)\\&先触れ(4.125)\\&経る(4.250)\\&完遂(4.250)\\&浮動(4.375)\\&急襲(4.438)\\&帰着(4.469)\\\hline\end{tabular}\end{center}\end{table}次に,MT訳において単語親密度が4.5未満となっている動詞の翻訳元である英語表現が人間訳ではどのような語に翻訳され,その語がどの程度の単語親密度を持つのかを調査した.MT訳において単語親密度が4.5未満である動詞の延べ出現回数は22回であった.これら22の動詞について,その動詞を含むMT訳の文に対応する人間訳の文から,その動詞に対応する語を抽出した.ただし,動詞が単語ではなく句に対応している場合,句の主辞だけを抽出した.例えば,MT訳における「精査する」と人間訳における「厳密に探る」という句が対応しているが,主辞の動詞「探る」だけを抽出した.また,動詞に対応する語の品詞は,自立語ならば問わなかった.例えば,MT訳における「レイオフする」と人間訳における「削減」という名詞が対応しているが,名詞「削減」を抽出した.人間訳から抽出された22語を単語親密度データベースと照合した.その結果,単語親密度が付与できたのは18語であった.基本統計量を表\ref{tab:stat-diff}\,に示す.表\ref{tab:stat-diff}\,を見ると,単語親密度の平均値,最大値,最小値のすべてにおいて,人間訳がMT訳を上回っていることが分かる.\begin{table}[htbp]\caption{基本統計量(単語親密度が4.5未満であるMT訳の動詞と,それに対応する人間訳の語)}\label{tab:stat-diff}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.793&0.753&6.594&4.000\\MT訳&3.712&0.540&4.438&2.438\\\hline\end{tabular}\end{center}\end{table}MT訳の動詞とそれに対応する人間訳の語から成る各組について,両者の単語親密度を比較した.その結果,すべての組においてMT訳より人間訳のほうが単語親密度が高くなっていた.ただし,人間訳でも単語親密度が4.5未満になっている組が2組存在した.具体的には,MT訳の「起草(3.500)」と人間訳の「起案(4.188)」から成る組と,MT訳の「享有(3.344)」と人間訳の「享受(4.000)」から成る組である.この2組を除けば,人間訳における語の単語親密度は5.3以上であった.18組中15組で,MT訳における動詞の単語親密度と人間訳における語と単語親密度の差は1.0以上あった.単語親密度の差が最も大きい組は,MT訳の「精査(2.438)」と人間訳の「探る(5.688)」から成るもので,3.25の差があった.他方,差が最も小さい組は,MT訳の「享有(3.344)」と人間訳の「享受(4.000)」から成るもので,0.656の差であった.\subsection{語種ごとの単語親密度の比較}\label{sec:result:wordclass}本節では,動詞の単語親密度の分布の違いが動詞の語種と関係するかどうかを検証するために語種ごとの単語親密度の分布について分析した結果を示す.人間訳とMT訳からそれぞれ抽出された動詞を語種で分類すると表\ref{tab:wordclass-kotonari}\,のようになる.ここで,漢字で表記でき,かつそれを音読する語を漢語とし,漢字で表記できないか,あるいは表記できてもそれを訓読する語を和語とした.\begin{table}[htbp]\caption{語種の分布}\label{tab:wordclass-kotonari}\begin{center}\begin{tabular}{|l||r@{}r|r@{}r|}\hline\multicolumn{1}{|c||}{語種}&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline和語&303&(51.97\%)&268&(48.46\%)\\漢語&275&(47.17\%)&252&(45.57\%)\\外来語&2&(0.34\%)&30&(5.43\%)\\混種語&3&(0.52\%)&3&(0.54\%)\\\hline合計&583&(100.00\%)&553&(100.00\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:wordclass-kotonari}の動詞のうち外来語と混種語は事例が少ないため計量分析の対象外とし,和語と漢語の場合について分析した.人間訳から抽出された和語303語,漢語275語,MT訳から抽出された和語268語,漢語252語をそれぞれ単語親密度データベースと照合した.その結果,単語親密度が付与できた動詞の数は,人間訳からの和語が247語,漢語が270語,MT訳からの和語が242語,漢語が250語であった.\begin{table}[htbp]\caption{単語親密度の分布(和語動詞の場合)}\label{tab:fam-histgram-wago-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\cline{2-5}\raisebox{1.5ex}[0pt]{階級}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&0&0.00\%&0&0.00\%\\$1.5\lefam<2.0$&0&0.00\%&0&0.00\%\\$2.0\lefam<2.5$&0&0.00\%&0&0.00\%\\$2.5\lefam<3.0$&0&0.00\%&0&0.00\%\\$3.0\lefam<3.5$&0&0.00\%&0&0.00\%\\$3.5\lefam<4.0$&0&0.00\%&1&0.41\%\\$4.0\lefam<4.5$&1&0.40\%&3&1.24\%\\$4.5\lefam<5.0$&8&3.24\%&8&3.31\%\\$5.0\lefam<5.5$&29&11.74\%&28&11.57\%\\$5.5\lefam<6.0$&107&43.32\%&91&37.60\%\\$6.0\lefam<6.5$&99&40.08\%&104&42.98\%\\$6.5\lefam\le7.0$&3&1.21\%&7&2.89\%\\\hline合計&247&100.00\%&242&100.00\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{単語親密度分布の基本統計量(和語動詞の場合)}\label{tab:stat-wago-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.863&0.403&6.594&4.281\\MT訳&5.884&0.465&6.656&3.719\\\hline\end{tabular}\end{center}\end{table}和語動詞の単語親密度の分布を表\ref{tab:fam-histgram-wago-kotonari}\,に示す.また,基本統計量を表\ref{tab:stat-wago-kotonari}\,に示す.表\ref{tab:fam-histgram-wago-kotonari}\,から次のようなことが分かる.\begin{enumerate}\item単語親密度が5.0以上6.0未満の範囲である動詞の比率は,人間訳のほうが若干高い.\item単語親密度が6.0以上7.0以下の範囲である動詞の比率は,MT訳のほうが若干高い.\item上記以外の階級では,人間訳とMT訳に差はほとんど見られない.\end{enumerate}\begin{table}[htbp]\caption{単語親密度の分布(漢語動詞の場合)}\label{tab:fam-histgram-kango-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\cline{2-5}\raisebox{1.5ex}[0pt]{階級}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&0&0.00\%&0&0.00\%\\$1.5\lefam<2.0$&0&0.00\%&0&0.00\%\\$2.0\lefam<2.5$&0&0.00\%&1&0.40\%\\$2.5\lefam<3.0$&0&0.00\%&0&0.00\%\\$3.0\lefam<3.5$&0&0.00\%&4&1.60\%\\$3.5\lefam<4.0$&0&0.00\%&2&0.80\%\\$4.0\lefam<4.5$&6&2.22\%&5&2.00\%\\$4.5\lefam<5.0$&10&3.70\%&9&3.60\%\\$5.0\lefam<5.5$&53&19.63\%&34&13.60\%\\$5.5\lefam<6.0$&107&39.63\%&107&42.80\%\\$6.0\lefam<6.5$&92&34.07\%&86&34.40\%\\$6.5\lefam\le7.0$&2&0.74\%&2&0.80\%\\\hline合計&270&100.00\%&250&100.00\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{単語親密度分布の基本統計量(漢語動詞の場合)}\label{tab:stat-kango-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.740&0.481&6.719&4.000\\MT訳&5.704&0.607&6.719&2.438\\\hline\end{tabular}\end{center}\end{table}次に,漢語動詞の単語親密度の分布を表\ref{tab:fam-histgram-kango-kotonari}\,に示す.また,基本統計量を表\ref{tab:stat-kango-kotonari}\,に示す.表\ref{tab:fam-histgram-kango-kotonari}\,から次のようなことが分かる.\begin{enumerate}\item人間訳では単語親密度が2.0以上4.0未満の範囲である動詞は全く存在しないのに対して,MT訳では7語(2.80\%)存在する.\item単語親密度が5.0以上5.5未満の範囲である動詞の比率は,人間訳のほうが高い.\item単語親密度が5.5以上6.0未満の範囲である動詞の比率は,MT訳のほうが高い.\item上記以外の階級では,人間訳とMT訳に大きな差は見られない.\end{enumerate}Wilcoxonの順位和検定を行なった結果,漢語動詞の場合も和語動詞の場合も,人間訳とMT訳の間には有意水準5\%で有意差は認められなかった.以上より,動詞を漢語と和語に分けた場合でも,MT訳が,人間訳に比べ,馴染みの薄い動詞を多く含んでいるということはないと判断できる.\subsection{外来語の出現比率の差について}\label{sec:result:foreign}表\ref{tab:wordclass-kotonari}\,を改めて見ると,人間訳とMT訳とで外来語の出現比率の差が顕著であり,MT訳には人間訳に比べて外来語が数多く現れる傾向があることが分かる.人間訳とMT訳における語種の分布に差があるかどうかをFisherの正確確率検定法で検定したところ,有意水準5\%で有意差が認められた.MT訳で外来語の出現比率が高い理由として,次のようなことが考えられる.ある英単語に対して複数の訳語があり,各訳語を選択する条件を記述することが難しい場合,訳語選択を誤る可能性が高い.さらに,各訳語の間で語義の違いが著しい場合,訳語選択を誤ると翻訳品質に重大な悪影響が出る.このような場合,訳語選択の誤りを避けるために,訳語選択をシステムが行なわず人間に委ねるという方策がありうる.訳語選択を人間に委ねるためには,英語の曖昧さを日本語で表現する必要があるが,そのための手段として,英単語の読みを片仮名で表記したものが訳語として採用されるのではないかと考えられる.例えば,``miss''という動詞の訳語として,「寂しく思う」,「し損なう」,「免れる」などがあるが,これらの中から適切なものを選ぶための条件を記述することは容易ではないため,次の文(M\ref{SENT:miss1})のような「ミスする」という翻訳になるのであろう.\begin{SENT2}\sentEWhatthey'llmissmostistheirfriends.\sentH最も失ってさみしいと思うのは友達です.\sentMそれらが最もミスするであろうことは,それらの友人である.\label{SENT:miss1}\end{SENT2}MT訳において外来語に分類された動詞の翻訳元である英語表現が人間訳ではどのような語に翻訳され,その語種はどのようになっているかを調査した.その結果,人間訳でも外来語に訳されているのは,「ハイジャック」,「ボイコット」,「スパイ」,「プレー」の4語であった\footnote{このうち「スパイ」と「プレー」は,「する」を伴っていなかったので,表\ref{tab:wordclass-kotonari}\,では計上されていない.}.\subsection{単語親密度データベースの未登録語について}\label{sec:result:undef}\ref{sec:result:global}\,節で述べたように,単語親密度データベースと照合しても単語親密度が得られなかった未登録語は,人間訳に63語(=583-520),MT訳に38語(=553-515)存在した.これらの語が単語親密度データベースに登録されていない原因を調査した.その結果をまとめたものを表\ref{tab:undef}\,に示す.\begin{table}[htbp]\caption{未登録語の分類}\label{tab:undef}\begin{center}\begin{tabular}{|l||r@{}r|r@{}r|}\hline\multicolumn{1}{|c||}{原因}&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline平仮名表記&48&(76.19\%)&24&(63.16\%)\\複合動詞&6&(9.52\%)&1&(2.63\%)\\外来語&0&(0.00\%)&8&(21.05\%)\\接尾辞&3&(4.76\%)&2&(5.26\%)\\その他&6&(9.52\%)&3&(7.89\%)\\\hline合計&63&(100.00\%)&38&(100.00\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:undef}\,において,「平仮名表記」とは,例えば「脅かす」のように漢字表記で単語親密度データベースを検索すれば照合がとれるが,標本では「おどかす」という平仮名表記になっていたために照合がとれなかった場合の件数である.なお,「取りやめる」のように一部が平仮名表記になっており「取り止める」となっていなかったために照合に失敗したものもここに分類した.人間訳においてもMT訳においても,平仮名で表記されているために未登録語となった件数が大半を占めている.これらの未登録語の中には,「もらう(貰う)」や「まとめる(纏める)」のように,平仮名表記でも不自然さを感じないものも含まれている.「複合動詞」に分類された動詞は,「舞い降りる」や「抱き合わせる」などである.ここに分類された動詞の数は,MT訳に比べて人間訳のほうが多くなっている.「外来語」に分類された動詞は,人間訳では存在しないのに対して,MT訳では,「アクセス」や「スワップ」など8語存在した.「接尾辞」に分類されたのは,「商品化」などであり,接尾辞「化」を除けば照合に成功したものである.以上の調査結果から分かるように,未登録語に対して一律に低い単語親密度を与えることは適切ではない.このため,本稿では未登録語は分析対象外とした.今後,単語親密度データベースの拡充を待って,これらを含めて調査分析を行なう必要がある. \section{おわりに} \label{sec:conc}本稿では,人間訳とMT訳を動詞の馴染み度の観点から計量的に比較分析した.その結果,次のような点が明らかになった.\begin{enumerate}\item人間訳とMT訳の間で動詞の単語親密度の分布に統計的有意差は認められない.ただし,単語親密度が4.5未満である動詞はMT訳のほうが多い傾向が見られる.\item動詞を語種ごとに分けた場合でも,単語親密度の分布に統計的有意差は認められない.\end{enumerate}以上の分析結果より,未登録語を対象外とした問題はあるものの,馴染みの薄い動詞の使用がMT訳の理解しにくさに大きな影響を及ぼしているわけではないと判断できる.従って,動詞とその格要素などとの共起関係を考えず動詞だけの訳語選択に着目した場合,調査対象とした機械翻訳システムでは,動詞の翻訳品質は一定のレベルに達していると考えられる.ただし,格要素との共起関係を考慮に入れた場合,不自然な翻訳となっている場合が見られる.例えば,次の文(M\ref{SENT:cooccur})において,「落ちる」という動詞は,馴染みの薄い動詞とは言えないが,「経済」という名詞との共起関係を考慮すると,文(H\ref{SENT:cooccur})のように「低迷する」と翻訳する必要がある.なお,「低迷」の単語親密度は5.406であり,「落ちる」の単語親密度6.156より低い.\begin{SENT2}\sentETheJapaneseeconomyisslumping.\sentH日本経済は低迷している.\sentM日本の経済は落ちている.\label{SENT:cooccur}\end{SENT2}今後,動詞とその格要素との共起関係について,人間訳とMT訳を比較し,両者の間に違いはあるのか,あるとすればそれらはどのような違いであるのかを明らかにしていきたい.\acknowledgment本稿に対して非常に有益なコメントを頂いた査読者の方々に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{天野成昭近藤公久}{天野成昭\JBA近藤公久}{1999}]{Amano99}天野成昭\BBACOMMA\近藤公久\BBOP1999\BBCP.\newblock\Jem{日本語の語彙特性---単語親密度---}.\newblockNTTデータベースシリーズ第1巻.三省堂,東京.\bibitem[\protect\BCAY{村田真樹,内元清貴,馬青,井佐原均}{村田真樹\Jetal}{1999}]{Murata99}村田真樹,内元清貴,馬青,井佐原均\BBOP1999\BBCP.\newblock\JBOQ日本語文と英語文における統語構造認識とマジカルナンバー7±2\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(7),61--73.\bibitem[\protect\BCAY{Nagao,Tsujii,\BBA\Nakamura}{Nagaoet~al.}{1985}]{Nagao85}Nagao,M.,Tsujii,J.,\BBA\Nakamura,J.\BBOP1985\BBCP.\newblock\BBOQ{TheJapaneseGovernmentProjectforMachineTranslation}\BBCQ\\newblockInSlocum,J.\BED,{\BemMachineTranslationSystems},\BPGS\141--186.CambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{中村明}{中村明}{1993}]{Nakamura93}中村明\BBOP1993\BBCP.\newblock\Jem{日本語の文体---文芸作品の表現をめぐって---}.\newblock岩波セミナーブックス47.岩波書店,東京.\bibitem[\protect\BCAY{高橋善文牛島和夫}{高橋善文\JBA牛島和夫}{1991}]{Takahashi91}高橋善文\BBACOMMA\牛島和夫\BBOP1991\BBCP.\newblock\JBOQ計算機マニュアルの分かりやすさの定量的評価法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf32}(4),460--469.\bibitem[\protect\BCAY{吉見毅彦}{吉見毅彦}{}]{Yoshimi04}吉見毅彦.\newblock\JBOQ人間による翻訳文と機械翻訳文における係り受け構造の統計的性質\JBCQ\\newblock\Jem{計量国語学},{\Bbf24}(5).\newblock掲載予定.\bibitem[\protect\BCAY{吉見毅彦}{吉見毅彦}{2003}]{Yoshimi03}吉見毅彦\BBOP2003\BBCP.\newblock\JBOQ人間による翻訳文と機械翻訳文の語彙的差異の計量分析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(5),55--74.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V27N02-04
\section{はじめに} 本稿ではニューラル関係分類モデルの中間表現中の不要な情報の除去に取り組む.関係分類とは,文書内のエンティティのペア間について,その文書内の言及に基づいた関係を識別するタスクである.本研究では特に一文中に存在するエンティティペア間の関係分類を扱う.このタスクにおいては,文の依存構造情報の利用が有用であることが知られている\cite{culotta-sorensen-2004-dependency}.特に,依存木上のエンティティペア間を繋ぐ最短経路内に存在するトークンのみを関係分類モデルの入力にするヒューリスティックを用いることで,さらなる識別性能の向上が報告されている\cite{H05-1091}.この手法は,エンティティペア間の関係についての言及は依存構造木上でそのペア間を繋ぐ最短経路上に大抵の場合存在するという観察結果に基づいている.この手法によって,入力文が非常に長い場合や,エンティティペアの間に多くのトークンが含まれるような場合であっても,そのうち構文的にエンティティペアを直接繋げる比較的少量のトークンのみを抜き出すことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia3f1.eps}\end{center}\hangcaption{最短経路やその子ノードを含む部分木を取り出すヒューリスティックの例.注目エンティティペアをe1とe2で示した.}\label{fig:dependency_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最短経路のヒューリスティックは,元々SupportVectorMachine(SVM)による特徴量ベースの関係分類モデルにおいて提案されていたが,ニューラルネットワークによるニューラル関係分類モデルにおいても有効であることが報告されている\cite{xu-EtAl:2015:EMNLP2,xu-etal-2016-improved,P16-1105:lstm-er}.しかしながら,関係についての言及は常に最短経路上にのみ存在するわけではなく,そのような例外のケースでは最短経路上の情報のみを入力とするのは不十分である.例えば図\ref{fig:dependency_tree}の\textit{cable}と\textit{insulation}間の関係分類を行うときを考えると,所有格の\textit{s}は最短経路上には含まれず,最短経路上のトークンのみから関係分類を行う場合,関係の向きが不明瞭になってしまう.ZhangらはGraphConvolutionalNetwork(GCN)で依存木を用いて計算を行う際,最短経路上のトークンのみではなく,最短経路上のトークンから数ステップの距離にある子トークンも含めた部分木を利用することで,木全体や最短経路上のトークンのみを利用する場合よりも性能向上を達成できる手法を提案した\cite{D18-1244:GCN-PrunedTree}.この手法で距離1までのトークンを利用する場合,図\ref{fig:dependency_tree}における所有格の\textit{s}を含めることができる.しかし,\textit{the}や\textit{ethernet}といった関係分類に不要なトークンも含めてしまうため,さらに良い選択規則が存在することを示唆している.本研究では,関係分類の識別性能の向上を目指し,ニューラルネットワークによる重要トークンの判別を行う\textit{マスク機構}と,それを用いたニューラル関係分類モデルを提案する.この提案機構では,ヒューリスティックの代わりに,学習を通じて重要トークンの判別規則を獲得する.学習は関係分類のタスク損失からEnd-to-Endに行われ,追加のアノテーションの必要はない.マスク機構の訓練ではGumbelトリックを用いたサンプリング\cite{gumbel}を行うことで,離散的なトークンの選択処理を自然に表現する.加えて,訓練中はマスク機構内にノイズを加えることで,マスクされるトークンの量をコントロールする.さらに,アテンション機構を用いることでマスクされた入力を元に計算された表現を集約する.提案モデルは再帰型/木構造ニューラルネットワークによる関係分類モデルであるLSTM-ERモデル\cite{P16-1105:lstm-er}をベースに,提案機構を導入する形で構築する.実験では提案モデルと,提案機構を導入せず代わりに依存木全体やヒューリスティックによる部分木を用いたモデルと比較することで,提案手法の有効性を確認した.本研究の貢献は以下の三つである.\begin{enumerate}\item最短経路のヒューリスティックを用いる代わりに,学習から重要なトークンの判別規則を学習するマスク機構を提案した.マスク機構はGumbelトリックを用いることで訓練可能な離散的なマスクを表現し,追加のアノテーションなしにタスク損失からEnd-to-Endに学習が可能である.\item提案機構を導入した関係分類モデルにより,最短経路のヒューリスティックを上回る性能を得た.また依存木全体を用いるベースラインモデルに対し有意な性能向上を達成した.\item提案機構により学習されたマスクと最短経路のヒューリスティックの類似度について調査した.学習されたマスクは最短経路と高い類似度となった一方,異なる学習試行ごとのマスク間の類似度はさらに高く,最短経路と一部異なる判別規則を学習していることを確認した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関係分類}関係分類とは,文書内のエンティティのペア間について,その文書内の言及に基づいた関係を分類するタスクである.例えば,\textit{``Thedoctorimplantedan\textbf{injection}intothreeverticalglabellar\textbf{furrows}.''}という文中の,\textit{injection}と\textit{furrows}というエンティティペアに注目したとき,\textit{injection}を\textit{furrows}に注射したとの言及から,この二者間には一方をもう一方の位置に移したという``移動物とその移動先の関係''が成立していると分類する.候補となる関係クラスセットのうちのどれ一つも成立していない場合,負例クラスを割り当てる.一文内に同時に出現しているエンティティペア間からの関係分類では,依存構造木の利用が有効であることが知られている\cite{culotta-sorensen-2004-dependency}.特に,この設定においてエンティティペア間の関係について言及している箇所は,依存構造木におけるエンティティペアを繋ぐ最短経路のパス上に存在することが多いという観察結果がある.この観察結果に基づき,最短経路上に存在するトークンのみによる情報を関係分類モデルの入力とすることで関係分類に不要な情報を除去し,識別性能の向上を達成する手法が報告されている\cite{H05-1091}.この最短経路のヒューリスティックでは,入力文が非常に長い場合や,エンティティペアの間に多くのトークンが含まれるような場合であっても,そのうち構文的にエンティティペアを直接繋げる比較的少量のトークンのみを抜き出すことができる.最短経路のみを利用するヒューリスティックは,もともとは特徴量ベースのシステムで提案されたものであるが,近年のニューラル関係分類モデルにおいても有効性が確認されている\cite{xu-EtAl:2015:EMNLP2,xu-etal-2016-improved,P16-1105:lstm-er}.Xuらは依存木上の最短経路パスを最近共通祖先ノードで分割し,それぞれを系列LongShort-TermMemory(LSTM)を用いてエンコードすることで構文情報を利用するSDP-LSTMモデルを提案した\cite{xu-EtAl:2015:EMNLP2}.さらにXuらは,LSTMの代わりに多層再帰型ニューラルネットワークを用いたDRNNsモデルを提案しており,関係ラベルの向きを逆転させた事例の利用とあわせることでさらなる性能向上を達成している\cite{xu-etal-2016-improved}.これらの二つのモデルでは,各単語のWordNet情報\cite{wordnet}の埋め込みが入力に利用されている.三輪らは系列LSTMと木構造LSTMをスタックすることで系列情報と依存木情報を共に利用するLSTM-ERモデルを提案した\cite{P16-1105:lstm-er}.このモデルにおいて,依存木全体ではなく最短経路上のトークンのみからなる部分木を利用することにより性能が向上すると報告している.また,WordNet埋め込みの利用により,さらなる性能向上が報告されている.最短経路のヒューリスティックの有効性が報告されている一方で,\textit{not}や\textit{into},所有格の\textit{s}など,一部の関係分類に有用な単語には最短経路外に存在してしまうものがある.Zhangらは最短経路外の重要なトークンを利用しつつ,不要なトークンは最大限除去するために,最短経路上のトークンから特定の距離内の子トークンも利用するヒューリスティックを提案した\cite{D18-1244:GCN-PrunedTree}.実験では,このヒューリスティックの距離1,すなわち最短経路上の各トークンとそれらの直接の子トークンを利用する設定を用いることで,GCNベースの関係分類モデルの識別性能を,最短経路のヒューリスティックを用いる場合よりもさらに向上できると報告されている.しかしながらこのヒューリスティックでは,図\ref{fig:dependency_tree}における\textit{the}や\textit{ethernet}など,最短経路外に存在する不要な情報を入力に含めてしまうという問題がある.また,このヒューリスティックは最短経路上のトークンの子孫のみを追加する手法であり,エンティティペアの最近共通祖先より上の祖先などについては利用しない.Shenらは畳み込みニューラルネットワークを用いた関係抽出モデルによって,依存構造木を用いることなく高い識別性能を達成した\cite{shen-huang-2016-conv-attention}.このモデルはアテンション機構を利用しており,重要な情報を持つ単語への重み付けを自動で学習する.近年,大規模コーパスによる事前学習済み言語モデルが,様々な自然言語処理タスクにおいて高い転移性能を記録している\cite{peters-etal-2018-deep:elmo,devlin-etal-2019-bert}.そのうちの一つであるBERTモデルは,文中のマスクされたトークンを予測する穴埋め問題と,隣接文推定によって双方向言語モデルを学習する\cite{devlin-etal-2019-bert}.事前学習済みBERTモデルを用いた関係分類モデルである$\mathrm{BERT}_{\mathrm{EM}}$モデルは,入力文中にエンティティの位置を示す特殊なトークンを挿入することで,複数の関係分類タスクにおいて既存手法を上回る識別性能を達成した\cite{baldini-soares-etal-2019:matching-the-blank}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Gumbelトリック}Jangらは,Gumbelトリックと呼ばれる,離散的な確率変数の勾配計算のための,任意のカテゴリカル分布に基づいた確率分布のサンプリング手法を提案した\cite{gumbel}.この手法によってサンプリングされる確率分布は,その分布中で最大の確率となるクラスの分布が元のカテゴリカル分布と同じになる.また,サンプリングされる確率値は,温度パラメータによって0か1に近付くようにコントロールでき,低い温度に設定することによって(ほとんど)離散的なサンプリングを実現できる.さらに,このサンプリングされた分布は元のカテゴリカル分布の値について連続であるため,このサンプリング手法をニューラルネットワークモデル内に組み込むことで,カテゴリカル分布の計算に用いたパラメータを勾配法によって学習でき,ネットワーク内で離散的な挙動を行う機構を自然に表現できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本稿では不要な箇所の判別法を自動で学習し遮断するマスク機構を備えたニューラル関係分類モデルを提案する.提案モデルの概観を図~\ref{fig:model_overview}に示す.マスク機構は注目エンティティペア間の関係分類を行うにあたり不要なトークンの表現ベクトルを0ベクトルにマスクし,続く木構造LSTM層にはこのマスク後のベクトル列を入力として計算を行う.木構造LSTMからの出力はアテンション機構によって集約され,その後の隠れ層へと入力される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-2ia3f2.eps}\end{center}\caption{提案モデルの概観.注目エンティティペアをe1とe2で示した.}\label{fig:model_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本章では,初めに本研究におけるベースラインモデルの説明を行う.続いて,提案手法となるマスク機構と,その機構内でマスク量を増進するために行うノイズの加算について説明する.次に,木構造LSTM層からの出力を集約するアテンション機構の構造について述べる.最後に,提案機構を導入した関係分類モデルの全体像について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースラインモデル}\label{ssec:baseline}本研究ではベースラインモデルとして系列LSTMと木構造LSTMをスタックしたニューラル関係分類モデルを用いた.このモデルは三輪らのLSTM-ERモデル\cite{P16-1105:lstm-er}を基としており,単語列とそれぞれの品詞,およびその単語列のうちの注目しているエンティティペアの位置を受け取り,その注目ペア間に成立する関係について,各クラスごとの予測確率を出力する.このモデルは入力層,系列LSTM層,木構造LSTM層,隠れ層,出力層の五つの層から構成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{入力層}入力層では入力系列の各トークンの単語の埋め込みベクトルと品詞の埋め込みベクトルを連結し,それぞれの単語ベクトルとする.入力中の$i$番目のトークンの単語ベクトル$\bm{v}^{\mathrm{in}}_i$は,その単語を$w_i$,品詞を$s_i$としたとき以下から得る.\begin{equation}\bm{v}^{\mathrm{in}}_i=[\mathrm{Lookup}(W^{\mathrm{word}},w_i);~\mathrm{Lookup}(W^{\mathrm{POS}},s_i)],\end{equation}ここで$W^\mathrm{word}$と$W^\mathrm{POS}$はそれぞれ単語と品詞の埋め込み行列で,行数はそれぞれ$d^W$行と$d^P$行である.$\mathrm{Lookup}$は行列中の対応する列ベクトルを返す関数である.$[\bm{a};\bm{b}]$はベクトル$\bm{a}$と$\bm{b}$の列方向での連結を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{系列LSTM層}系列LSTM層では単語ベクトルを双方向系列LSTMに入力し,文脈を考慮した単語ベクトルとする.この層で用いる系列LSTMとしては,peephole結合\cite{gers2002learning:peephole}を備えた構造のものを利用する.入力文の系列長を$n^s$としたとき,順方向の系列LSTMの出力$\bm{v}^{\rightarrow}_1,...,\bm{v}^{\rightarrow}_{n^s}$は以下の式より得る.\begin{align}\bm{g}^{\rightarrow}_i&=\tanh(W^{fg}[\bm{v}^{\mathrm{in}}_i;\bm{v}^{\rightarrow}_{i-1}]+\bm{b}^{fg})\nonumber\\\bm{i}^{\rightarrow}_i&=\sigma(W^{fi}[\bm{v}^{\mathrm{in}}_i;\bm{v}^{\rightarrow}_{i-1}]+\bm{w}^{fi}\odot\bm{c}^{\rightarrow}_{i-1}+\bm{b}^{fi})\nonumber\\\bm{f}^{\rightarrow}_i&=\sigma(W^{ff}[\bm{v}^{\mathrm{in}}_i;\bm{v}^{\rightarrow}_{i-1}]+\bm{w}^{ff}\odot\bm{c}^{\rightarrow}_{i-1}+\bm{b}^{ff})\nonumber\\\bm{c}^{\rightarrow}_i&=\bm{i}^{\rightarrow}_{i}\odot\bm{g}^{\rightarrow}_{i}+\bm{f}^{\rightarrow}_i\odot\bm{c}^{\rightarrow}_{i-1}\nonumber\\\bm{o}^{\rightarrow}_i&=\sigma(W^{fo}[\bm{v}^{\mathrm{in}}_i;\bm{v}^{\rightarrow}_{i-1}]+\bm{w}^{fo}\odot\bm{c}^{\rightarrow}_{i}+\bm{b}^{fo})\nonumber\\\bm{v}^{\rightarrow}_{i}&=\bm{o}^{\rightarrow}_{i}\odot\tanh(\bm{c}^{\rightarrow}_{i}),\end{align}出力$\bm{v}^{\rightarrow}_{i}$の次元数を$d^{\mathrm{cseq}}$とする.$W^{fg},W^{fi},W^{ff},W^{fo}$はそれぞれ$d^{\mathrm{cseq}}\times(d^W+d^P+d^{\mathrm{cseq}})$次元の重み行列で,$\bm{w}^{fi},\bm{w}^{ff},\bm{w}^{fo}$は$d^{\mathrm{cseq}}$次元の重みベクトル,$\bm{b}^{fg},\bm{b}^{fi},\bm{b}^{ff},\bm{b}^{fo}$は$d^{\mathrm{cseq}}$次元のバイアスである.$\odot$はアダマール積で,$\sigma$はシグモイド関数である.初期状態$\bm{c}^{\rightarrow}_0,\bm{v}^{\rightarrow}_0$にはゼロベクトルを用いる.逆方向の系列LSTMの出力$\bm{v}^{\leftarrow}_1,...,\bm{v}^{\leftarrow}_{n^s}$は入力文の末尾から逆順で処理することにより得る.重みとバイアスは各方向ごとに別個に用意する.この双方向系列LSTMの出力に,入力文の依存木における親トークンへの係り受け$t_i$の埋め込みベクトルと,注目エンティティペアそれぞれからの相対距離の埋め込みベクトルを連結し,これを系列LSTM層の出力$\bm{v}^{\mathrm{seq}}_1,...,\bm{v}^{\mathrm{seq}}_{n^s}$とする.{\allowdisplaybreaks\begin{align}\label{eq:seq-lstm-concat}\bm{v}^{\mathrm{dep}}_i&=\mathrm{Lookup}(W^{\mathrm{dep}},t_i)\nonumber\\\bm{v}^{\mathrm{rpos}}_{j}&=\mathrm{Lookup}(W^{\mathrm{rpos}},\mathrm{Clip}(j,-P,P))\nonumber\\\bm{v}^{\mathrm{seq}}_i&=[\bm{v}^{\rightarrow}_i;\bm{v}^{\leftarrow}_i;\bm{v}^{\mathrm{dep}}_i;\bm{v}^{\mathrm{rpos}}_{i-\mathrm{e1}};\bm{v}^{\mathrm{rpos}}_{i-\mathrm{e2}}],\end{align}}%ここで$W^\mathrm{dep}$は係り受けの埋め込み行列で,行数は$d^D$行である.$W^\mathrm{rpos}$はエンティティからの相対距離の埋め込み行列であり,各列ベクトル$\bm{v}^{\mathrm{rpos}}_j$の次元数は$d^R$である.$\mathrm{e1}$と$\mathrm{e2}$は注目エンティティペアのそれぞれのインデックスを表す.$\mathrm{Clip}(a,b,c)$は値$a$を最小$b$,最大$c$の範囲に収まるようにクリッピングする関数であり,$P$は相対距離のウィンドウサイズを表すハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{木構造LSTM層}\label{sec:tree-lstm-layer}木構造LSTM層では,系列LSTM層の出力を入力として,入力文の依存木に基いて木構造LSTMの計算を行う.この層では上向きと下向きの各方向について依存木を走査する,双方向木構造LSTMを用いる.木構造LSTMの実装には,メモリの追加分$\bm{g}^{\uparrow}_i$や入力,出力ゲート$\bm{i}^{\uparrow}_i,\bm{o}^{\uparrow}_i$を前状態群の単純な合計から計算するChild-Sum木構造LSTM~\cite{P15-1150:treelstm}を用いる.上向き木構造LSTMの計算は以下となる.\begin{align}\bm{g}^{\uparrow}_i&=\tanh(W^{ugx}\bm{v}^{\mathrm{seq}}_i+\sum_{j\in\mathrm{Child}(i)}{W^{ugh}\bm{v}^{\mathrm{\uparrow}}_j}+\bm{b}^{ug})\nonumber\\\bm{i}^{\uparrow}_i&=\sigma(W^{uix}\bm{v}^{\mathrm{seq}}_i+\sum_{j\in\mathrm{Child}(i)}{W^{uih}\bm{v}^{\mathrm{\uparrow}}_j}+\bm{b}^{ui})\nonumber\\\bm{f}^{\uparrow}_{ij}&=\sigma(W^{ufx}\bm{v}^{\mathrm{seq}}_i+W^{ufh}\bm{v}^{\mathrm{\uparrow}}_j+\bm{b}^{uf})\mbox{~~~~for$j\in\mathrm{Child}(i)$}\nonumber\\\bm{c}^{\uparrow}_i&=\bm{i}^{\uparrow}_{i}\odot\bm{g}^{\uparrow}_{i}+\sum_{j\in\mathrm{Child}(i)}{\bm{f}^{\uparrow}_{ij}\odot\bm{c}^{\uparrow}_{j}}\nonumber\\\bm{o}^{\uparrow}_i&=\sigma(W^{uox}\bm{v}^{\mathrm{seq}}_i+\sum_{j\in\mathrm{Child}(i)}{W^{uoh}\bm{v}^{\mathrm{\uparrow}}_j}+\bm{b}^{uo})\nonumber\\\bm{v}^{\uparrow}_{i}&=\bm{o}^{\uparrow}_{i}\odot\tanh(\bm{c}^{\uparrow}_{i}),\end{align}出力$\bm{v}^{\uparrow}_i$の次元数を$d^{\mathrm{ctree}}$とする.$W^{ugx},W^{uix},W^{ufx},W^{uox}$はそれぞれ$d^{\mathrm{ctree}}\times(2d^{\mathrm{cseq}}+d^D+2d^R)$次元の重み行列で,$W^{ugh},W^{uih},W^{ufh},W^{uoh}$はそれぞれ$d^{\mathrm{ctree}}\timesd^{\mathrm{ctree}}$次元の重み行列である.$\bm{b}^{ug},\bm{b}^{ui},\bm{b}^{uf},\bm{b}^{uo}$は$d^{\mathrm{ctree}}$次元のバイアスである.$\mathrm{Child}(a)$はノード$a$の子ノードの集合を表す関数である.下向き木構造LSTMの出力$\bm{v}^{\downarrow}_1,...,\bm{v}^{\downarrow}_{n^s}$は別個に重みとバイアスを用意し,子ノードの代わりに親ノードを前の状態に用いることで計算する.親ノードは常に高々一つしか存在しないので,下向き木構造LSTMはpeepholeのない系列LSTMとほとんど同様の計算式になる.木構造LSTM層の出力$\bm{v}^{\mathrm{tree}}$は,上向き木構造LSTMにおける,依存木上で根ノードにあたるトークンの出力ベクトルと,下向き木構造LSTMにおける注目エンティティペアの各出力ベクトルを連結したベクトルであり,\pagebreakこれを続く隠れ層へ入力する.\begin{equation}\label{eq:tree-layer-out}\bm{v}^{\mathrm{tree}}=[\bm{v}^{\uparrow}_{\mathrm{root}};\bm{v}^{\downarrow}_{\mathrm{e1}};\bm{v}^{\downarrow}_{\mathrm{e2}}],\end{equation}$\mathrm{root}$は根ノードのトークンのインデックスを表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{隠れ層・出力層}隠れ層は全結合層とtanh関数による活性化で構成される.この層では木構造LSTM層の出力を入力として隠れベクトル$\bm{h}$を得る.\begin{equation}\bm{h}=\tanh(W^{h}\bm{v}^{\mathrm{tree}}+\bm{b}^{h}),\end{equation}ここで$W^{h}$と$\bm{b}^{h}$はそれぞれ重み行列とバイアスである.この隠れベクトルは出力層に入力され,ソフトマックス関数を適用することにより最終的な関係クラス$c$ごとの予測確率$p_c$を得る.\begin{equation}p_c=\frac{\exp({\bm{w}^{o}_c}^{\top}\bm{h}+b^{o}_{c})}{\sum_{i}{\exp({\bm{w}^{o}_i}^{\top}\bm{h}+b^{o}_{i})}},\end{equation}ここで$\bm{w}^{o}_c$と$b^{o}_{c}$はそれぞれ関係クラス$c$ごとの重みベクトルとバイアスである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{LSTM-ERモデルとの相違点}ベースラインモデルはLSTM-ERモデルとほとんど同じ構造であるが,主に以下の三つの点で異なる.一つ目の相違点は木構造LSTMの計算である.LSTM-ERモデルでは最短経路かそうでないかによって利用する行列を変え,また各子ノードに対する忘却ゲートの計算に他の兄弟ノードを利用する,SPTreeと呼ばれる木構造LSTM~\cite{P16-1105:lstm-er}を用いるが,本研究のベースラインモデルにはChild-Sum木構造LSTM~\cite{P15-1150:treelstm}を用いる.これは,我々の目的が最短経路のヒューリスティックの利用からの脱却を目指しているからである.また,Child-Sum木構造LSTMはその計算式の単純さから並列化が容易であるというメリットもある.二つ目に,ベースラインモデルでは全層でドロップアウト\cite{JMLR:v15:srivastava14a:dropout}を利用するようにする.ドロップアウト率は開発データでチューニングを行い決定する.三つ目の違いとして,LSTM-ERモデルでは木構造LSTM層をスキップして系列LSTMの出力を直接隠れ層へ入力する,Pairと呼ばれるコネクションが存在するが,本研究ではこれを取り外したモデルを主に用いる.これは,我々の提案手法が木構造LSTM層の計算に影響を及ぼす手法であり,提案手法の影響がより直接出力に現れるようにするためである.Pairコネクションを利用する場合の隠れ層は,元々の入力$\bm{v}^{\mathrm{tree}}$に加えて,エンティティペアに対応する双方向系列LSTMの出力を結合したベクトル$\bm{v}^{\mathrm{pair}}$を入力とする.\begin{equation}\bm{v}^{\mathrm{pair}}=[\bm{v}^{\mathrm{tree}};\bm{v}^{\rightarrow}_{\mathrm{e1}};\bm{v}^{\leftarrow}_{\mathrm{e1}};\bm{v}^{\rightarrow}_{\mathrm{e2}};\bm{v}^{\leftarrow}_{\mathrm{e2}}],\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マスク機構}関係分類にあたり不要な情報を取り除くマスク機構を提案する.この機構は,ニューラル関係分類モデルの中間層として働き,注目しているエンティティペアの関係について無関係なトークンを判別し,対応する中間表現を0ベクトルにすることで情報を取り除く.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{確信度スコアとマスクの計算}初めに,この機構は各トークンが注目エンティティペアの関係についての言及であるかどうかの確信度スコアを計算する.この確信度は高ければ高いほど関係についての言及であると判断したことを表す.$i$番目のトークンの確信度スコア$c_i$を以下の式で計算する.\begin{align}\bm{v}^{mq}&=\frac{\bm{v}^{\mathrm{seq}}_{\mathrm{e1}}+\bm{v}^{\mathrm{seq}}_{\mathrm{e2}}}{2}\nonumber\\\bm{h}^{mq}&=\mathrm{Normalize}(W^{mq}\bm{v}^{mq})\nonumber\\\bm{h}^{mk}&=\mathrm{Normalize}(W^{mk}\bm{v}^{\mathrm{seq}}_i)\nonumber\\c_i&=\sigma\left(\frac{{\bm{h}^{mq}}^{\top}\bm{h}^{mk}}{\sqrt{d^m}}\right),\label{eq:confidence}\end{align}ここで$\bm{v}^{\mathrm{seq}}_i$は式\eqref{eq:seq-lstm-concat}の系列LSTM層からの$i$番目のトークンの出力である.$W^{mq}$と$W^{mk}$は$d^m\times(2d^{\mathrm{cseq}}+d^D+2d^R)$次元の重み行列で,$d^m$はマスク機構の隠れベクトルの次元数である.$\mathrm{Normalize}$は与えられたベクトルが平均0,分散1になるように正規化する関数である.\begin{align}\mathrm{mean}(\bm{v})&=\frac{1}{\mathrm{dim}(\bm{v})}\sum_i{v_i}\nonumber\\\mathrm{stddev}(\bm{v})&=\sqrt{\frac{1}{\mathrm{dim}(\bm{v})}\sum_i{(v_i-\mathrm{mean}(\bm{v}))^2}}\nonumber\\\mathrm{Normalize}(\bm{v})&=\frac{\bm{v}-\mathrm{mean}(\bm{v})}{\mathrm{stddev}(\bm{v})},\end{align}$\mathrm{dim}(\bm{v})$はベクトル$\bm{v}$の次元数である.この確信度スコア$c_i$の,各トークンの表現ベクトルを用いた内積を,その次元数の正の平方根で除する計算は,Vaswawniらによるアテンション機構\cite{vaswani:attention:NIPS2017_7181}の計算式を参考にしている.式\eqref{eq:confidence}中の$\bm{v}^{mq}$は,エンティティペアの関係を言及するような重要なトークンを判定するためのクエリの役割を果たす.エンティティペアの関係を言及するトークンは,ペアの順序に依存しないと考えられるので,$\bm{v}^{mq}$はペアの順序に依存しにくくなるようペアに対応する系列LSTM層の出力$\bm{v}^{\mathrm{seq}}_{\mathrm{e1}},\bm{v}^{\mathrm{seq}}_{\mathrm{e2}}$の平均の形で計算することとした.ただし式\eqref{eq:seq-lstm-concat}の通り,各$\bm{v}^{\mathrm{seq}}_i$自体に両エンティティからの相対距離の埋め込みベクトルが順序依存で連結されているため,エンティティペアの順序の入れ替えについて完全なロバストではない.訓練時は得られた$c_i$に基づき,Gumbelトリック\cite{gumbel}を用いてほとんど0か1に近い値になるマスク$m_i$をサンプリングする.\begin{align}u^{(0)}_{c_i},u^{(1)}_{c_i}&\sim\mathrm{Uniform}(0,1)\nonumber\\x^{(1)}_{c_i}&=c_i\nonumber\\x^{(0)}_{c_i}&=1-c_i\nonumber\\l^{(k)}_{c_i}&=\frac{\log(x^{(k)}_{c_i})-\log(-\log(u^{(k)}_{c_i}))}{\tau}\mbox{~~~~~~fork$\in\{0,1\}$}\nonumber\\m_i&=\frac{\exp(l^{(1)}_{c_i})}{\exp(l^{(0)}_{c_i})+\exp(l^{(1)}_{c_i})},\end{align}ここで$\tau$は温度パラメータであり,学習せず訓練の進行に合わせて少しずつ小さくする.これによって得られるマスク$m_i$は,確信度スコア$c_i$が高いほど1に近い値を,確信度が低いほど0に近い値をとる頻度が高くなる.また,$c_i$について連続であるため,$c_i$の計算に用いられた重みを勾配法によって学習すること可能である.このマスクを系列LSTMの出力に乗じることによってモデルが不要と判断した情報を取り除いたベクトル列を獲得し,それを木構造LSTMへの入力とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ノイズによるマスク量の増進}系列LSTM層の出力へのマスクの乗算により,不要なトークンに対する確信度が低い値になるように学習されれば,不要な情報の削減は実現される.しかしながら実際にこのまま適用すると,学習される確信度の値はほとんど1となり,ほとんどマスクされずに木構造LSTMへ入力されてしまう.そこで,モデルの訓練時,入力にマスク量に応じたノイズを加えることによってマスクされるトークン数を増進し,この問題を解決する.初めに,文中の各トークンに対する確信度の平均値としてその文のトークンの生存率$r$を計算する.\begin{equation}r=\cfrac{\sum^{n^s}_{i=1}{c_i}}{n^s},\end{equation}次に,系列LSTMからの出力と同じ次元の正規分布$\mathcal{N}(\bm{0},\bm{I})$からサンプリングしたベクトル$\bm{p}_i$に,この生存率$r$とノイズの係数パラメータ$\alpha$を乗じることでノイズを計算する.これは,各次元の分布が平均0,分散$\alpha^2r^2$であるようなノイズをサンプリングしていると捉えることもできる.そしてこのノイズを系列LSTMの出力に加えた後にマスクを行うことで最終的なマスク後の出力を得る.訓練時のマスク機構からの$i$番目のトークンの出力$\bm{v}^m_i$は以下となる.\begin{equation}\label{eq:mask-train}\bm{v}^m_i=m_i(\bm{v}^{\mathrm{seq}}_i+\alphar\bm{p}_i),\end{equation}係数パラメータ$\alpha$は開発データにおける識別性能からチューニングして決定する.学習ではノイズによる損失の増加を抑えるためにノイズの係数となる生存率を下げるようにパラメータが動き,それによってマスクされるトークン数が増えることを期待する.このノイズを加えるという処理は次のような考えに基づいている.入力文内には注目エンティティペア間の関係について無関係な言及も含まれるが,その無関係な情報の利用は関係分類モデルにとってノイズになる.これを,マスク機構においてマスクされなかったトークンが多いほど大きくなるノイズを加えることで表現し,ノイズを減らすためにマスクされるトークンを増やすという方向に学習が進むことを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{テスト時のマスクの適用}テスト時はノイズを加えず,マスク$m_i$についてもサンプリングを行わず閾値0.5を超えたかどうかにより決定的に計算する.したがってテスト時のマスク機構からの出力$\bm{v}^m_i$は以下となる.\begin{align}\label{eq:mask-test}m_i&=\begin{cases}1,&\mbox{if~~}c_i\geq0.5\\0,&\mbox{otherwise.}\end{cases}\nonumber\\\bm{v}^m_i&=m_i\bm{v}^{\mathrm{seq}}_i,\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アテンション機構}ベースラインモデルでは,上向き木構造LSTMの出力ベクトル列のうち,木構造の根トークンのベクトルを隠れ層への入力に使用する.しかしながら,マスク機構を用いた場合は根や最近共通祖先のトークンを含めどのトークンがマスクされるか事前にはわからず,あらかじめ上向き木構造LSTMの出力のうち利用するトークンを定めることが難しい.そこで,あらかじめ特定のトークンを選ぶ代わりに,アテンション機構を用いて上向き木構造LSTMの出力ベクトル列を集約し,これを木構造LSTM層の出力の一部として用いる.この機構は,Vaswawniらによるアテンション機構\cite{vaswani:attention:NIPS2017_7181}を参考に,各トークンの表現ベクトルの内積をその次元数の正の平方根で除してアテンションのスコアを計算し,これを異なるパラメータで複数用意して並列させる構造になっている.初めに,集約対象を指示するクエリベクトル$\bm{v}^{aq}$を,\ref{sec:tree-lstm-layer}節のエンティティペアの双方向木構造LSTMの出力の合計と差の連結として構成する.差については1次元目の値が常に非負の値となるように,必要に応じて全体の符号を反転させる.{\allowdisplaybreaks\begin{align}\bm{v}^{\uparrow\downarrow}_i&=[\bm{v}^{\uparrow}_i;\bm{v}^{\downarrow}_i]\nonumber\\\bm{q}^{s}&=\frac{\bm{v}^{\uparrow\downarrow}_\mathrm{e1}+\bm{v}^{\uparrow\downarrow}_\mathrm{e2}}{\sqrt{2}}\nonumber\\\bm{q}^{d}&=\bm{v}^{\uparrow\downarrow}_\mathrm{e1}-\bm{v}^{\uparrow\downarrow}_\mathrm{e2}\nonumber\\\bm{v}^{aq}&=[\bm{q}^{s};\mathrm{sign}(q^{d}_1)\bm{q}^{d}],\label{eq:attention-query}\end{align}}%ここで$\mathrm{sign}(\cdot)$は符号関数で,次の式により計算する.\begin{equation}\mathrm{sign}(x)=\begin{cases}1,&x\geq0\\-1,&\mbox{otherwise.}\end{cases}\end{equation}差のベクトルの符号を反転させる処理は,差のベクトルがエンティティの順序に依存しないようにする目的で行った.これは,各値の絶対値を取ったベクトル$\mathrm{abs}(\bm{q}^{d})$を利用する場合と似ているが,2次元目以降の値に負の値が出現しうる点で異なる.続いて,各トークンのキーベクトル$\bm{v}^{ak}_1,...,\bm{v}^{ak}_{n^s}$を,それぞれのエンティティペアからの相対距離の埋め込みベクトルの合計及び差と,対応する双方向木構造LSTMの出力から計算する.{\allowdisplaybreaks\begin{align}\label{eq:attention-key}\bm{k}^{s}_i&=\frac{\bm{v}^{\mathrm{rpos}}_{i-\mathrm{e1}}+\bm{v}^{\mathrm{rpos}}_{i-\mathrm{e2}}}{\sqrt{2}}\nonumber\\\bm{k}^{d}_i&=\bm{v}^{\mathrm{rpos}}_{i-\mathrm{e1}}-\bm{v}^{\mathrm{rpos}}_{i-\mathrm{e2}}\nonumber\\\bm{v}^{ak}_i&=[\bm{v}^{\uparrow\downarrow}_i;\bm{k}^s_i;\mathrm{sign}(k^d_{i1})\bm{k}^d_i],\end{align}}%ここで$\bm{v}^{\mathrm{rpos}}_{j}$は式\eqref{eq:seq-lstm-concat}中と同一の相対距離の埋め込みベクトルである.そして,得られたクエリ,キーベクトルを用いてアテンションのスコアを計算し,上向き木構造LSTMの出力を集約する.この時計算に用いる重み行列を複数セット用意することで,アテンションを並列させる.それぞれの独立なアテンション機構をヘッドと呼ぶ.並列数を$H$とする.$i$番目のトークンに対する$j$番目のヘッドにおけるアテンションのスコア$a_{ji}$と,集約されたベクトル$\bm{v}^{a}_{j}$は以下の式より計算する.{\allowdisplaybreaks\begin{align}\label{eq:attention-weight}\bm{h}^{aq}_{j}&=\mathrm{Normalize}(W^{aq}_{j}\bm{v}^{aq})\nonumber\\\bm{h}^{ak}_{ji}&=\mathrm{Normalize}(W^{ak}_{j}\bm{v}^{ak}_i)\nonumber\\h^{a}_{ji}&=\frac{{\bm{h}^{aq}_j}^{\top}\bm{h}^{ak}_{ji}}{\sqrt{d^a}}\nonumber\\a_{ji}&=\frac{\exp(h^a_{ji})}{\sum_{i}{\exp(h^a_{ji})}}\nonumber\\\bm{v}^{a}_j&=\sum_{i}{a_{ji}W^{av}_j\bm{v}^{\uparrow}_i},\end{align}}%ここで$W^{aq}_j,W^{ak}_j,W^{av}_j~(j\in[1,H])$はそれぞれ$d^a\times4d^{\mathrm{ctree}}$次元と$d^a\times2(d^{\mathrm{ctree}}+d^R)$次元,$\frac{d^{\mathrm{ctree}}}{H}\timesd^{\mathrm{ctree}}$次元の重み行列で,$d^a$はアテンション機構の隠れベクトルの次元数である.アテンション機構の出力$\bm{v}^{a}$は,各ヘッドの出力を並列させることで得る.\begin{equation}\label{eq:attention}\bm{v}^{a}=[\bm{v}^a_1;...;\bm{v}^a_H],\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案機構を導入した関係分類モデルの全体像}マスク機構とアテンション機構を導入した関係分類モデルは,図\ref{fig:model_overview}のように,入力層,系列LSTM層,\textbf{マスク機構},木構造LSTM層,\textbf{アテンション機構},隠れ層,出力層の七つの構造によって構成される.入力層,系列LSTM層の計算については,ベースラインモデルと同様である.マスク機構を導入したモデルは,木構造LSTM層の入力に,系列LSTM層の出力$\bm{v}^{\mathrm{seq}}_1,...,\bm{v}^{\mathrm{seq}}_{n^s}$の代わりに,マスク機構によってマスクされた出力$\bm{v}^m_1,...,\bm{v}^m_{n^s}$を用いる.訓練時は式\eqref{eq:mask-train}を,テスト時は式\eqref{eq:mask-test}を用いる.木構造LSTM層ではマスクの値に関わらず常に依存木全体に対して計算を行う.したがって,マスクの値が0となったトークンの木構造LSTMのセルには0ベクトルが入力される.アテンション機構を導入したモデルにおける隠れ層への入力は,式\eqref{eq:tree-layer-out}の上向き木構造LSTMにおける根トークンの出力ベクトルを,式\eqref{eq:attention}により計算されたアテンション機構の出力$\bm{v}^{a}$で置き換えたベクトル$\bm{v}^{\mathrm{att}}$である.\begin{equation}\bm{v}^{\mathrm{att}}=[\bm{v}^{a};\bm{v}^{\downarrow}_{\mathrm{e1}};\bm{v}^{\downarrow}_{\mathrm{e2}}]\end{equation}マスク機構のみを導入し,アテンション機構を導入しない場合の隠れ層への入力は,依存木全体を用いる場合のベースラインモデルと同様,式\eqref{eq:tree-layer-out}の$\bm{v}^{\mathrm{tree}}$を用いる.隠れ層と出力層については,ベースラインモデルと同様の計算を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験・考察} \vspace{-0.5\Cvs}本章ではベースラインモデルと提案モデルにおける実験と,その結果に対する考察を述べる.実験ではベースラインモデルと,マスク機構およびアテンション機構を導入したモデルについてそれぞれ学習を行い,その識別性能を評価した.また,マスク機構における異なるノイズ強度ごとの生存率の変化を比較し,学習されるマスクと最短経路のヒューリスティックの類似度と,生存するトークンの傾向について調査し,考察を行った.本章では初めに実験設定について説明する.次に,各モデルにおける識別性能について述べる.続いて,マスク機構におけるノイズの影響について述べる.最後にマスクされるトークンの傾向について述べる.特に断りのない限り,実験結果と考察はPairコネクションを取り除いたモデルに対するものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}ベースラインモデルと,それにマスク機構およびアテンション機構を導入したモデルについてそれぞれ学習と評価を行った.ベースラインモデルでは,木構造LSTM層で用いる木構造として依存木全体,最短経路の部分木,およびZhangらによる最短経路から距離1のノードも利用する部分木\cite{D18-1244:GCN-PrunedTree}の三種類についてそれぞれ実験を行った.また,Pairコネクションを付け加えたモデルについても学習と評価を行った.使用するデータセットとしては,一文内のエンティティペア間の関係分類において代表的なデータセットの一つであるSemEval-2010Task8データセット\cite{S10-1006:semeval2010}を用いた.このデータセットは8,000件の訓練事例と2,717件のテスト事例から構成されている.システムには入力文とその文内の二つのエンティティの位置が与えられ,あらかじめ定義された九種類の正例関係クラスおよび負例クラスの中から,そのエンティティペア間に成立している関係を予測する.正例クラスについてはその関係の向きについても予測する必要がある.本研究では分類モデルの出力クラスとして各正例ごとに順方向と逆方向の二種類をそれぞれ用意し,計19クラスの分類モデルとした.このデータセットには同じ文が繰り返し出現することがなく,各文ごとにエンティティ二つの位置と,そのペア間の関係クラスのアノテーションが付与されている.公式の評価指標はMacro-F値である.SemEval-2010Task8データセットには公式の開発事例群が存在しないため,訓練事例のうち全体の10\%を開発事例として分割し,ハイパーパラメータチューニングに用いた.また,Stanfordparser~\cite{D14-1082:stanford-parser}を用いて各事例のそれぞれの単語の品詞タグと依存木\footnote{依存構造の表現形式には木の性質を満たす\textit{basicdependencies}(collapseなし,propagateなし)を使用した.}を得た.テスト事例の性能評価は,チューニングしたハイパーパラメータを用いて,開発事例を含めた訓練事例全体で再度学習したモデルで行った.識別性能の比較はMacro-F値で行い,各モデルについて5回ずつ訓練と評価を行ってその平均と標準偏差について評価した.実装にはTensorflow\footnote{https://www.tensorflow.org/}を利用した.Pairコネクションを取り除いたモデルのハイパーパラメータのチューニングにはRoBO\cite{klein-bayesopt17}を用いた.RoBOによりチューニングしたハイパーパラメータは,各層のドロップアウト率,学習率,ノイズの係数パラメータである.Pairコネクションを取り除いたモデルで用いた各ハイパーパラメータの値を表\ref{tab:hyperparametr}に示す.Pairコネクションを付け加えたモデルについては,実験時間の短縮のため,Pairコネクションを取り除いたモデルでチューニングしたハイパーパラメータを元に,各層のドロップアウト率を0から0.7の範囲で1パラメータずつ0.1刻みで再度チューニングし,開発事例における識別性能が最も高くなった値を採用した.元のドロップアウト率を利用する場合のほうが性能が高くなる場合は,そのままの値を用いた.Pairコネクションを付け加えた場合と取り除いた場合で異なるドロップアウト率とした箇所とその値を表\ref{tab:hyperparametr-pair}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{Pairコネクションを取り除いたモデルで用いたハイパーパラメータの値}\label{tab:hyperparametr}\input{03table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\hangcaption{Pairコネクションを付け加えたモデルで用いたドロップアウト率のうち,Pairコネクションを取り除いたモデルと異なる値を採用した箇所とその値}\label{tab:hyperparametr-pair}\input{03table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関係の識別性能}各モデルのMacro-F値の平均と標準偏差を表\ref{tab:semeval2010-score}に示す.表の通り,Pairコネクションを使わない場合,提案手法を導入したモデルは,マスク機構・アテンション機構共に単独でベースラインモデルの識別性能を上回り,両者を併せて導入した場合,さらに識別性能は向上する結果となった.マスク機構については,ノイズの係数パラメータ$\alpha$を0にしたノイズを全く利用しないモデルよりも,ノイズを利用するモデルのほうが識別性能が高い結果となった.また,マスク機構とアテンション機構を併せて導入したモデルとベースラインモデルにおける,開発データで中央値を記録したそれぞれのモデル間でApproximateRandomizationTest~\cite{noreen1989computer}による有意差検定を実施したところ,有意水準$p<0.05$での有意な性能向上を確認した($p=0.0197$).また,提案モデルにおいて最短経路やZhangらによる部分木のヒューリスティックを利用した場合の性能も上回る結果となった,ただし,本研究で実験したモデル中でテスト事例における最高のMacro-F値を記録したモデルは,最短経路のヒューリスティックとPairコネクションを同時に使うモデルであった.このモデルにおける開発事例でのMacro-F値は,三輪らが木構造LSTMにChild-Sum木構造LSTMを用いたLSTM-ERモデルにおけるMacro-F値として報告した値よりもわずかに小さいものの,その差は標準偏差以下の値であり,ほぼ同等の識別性能であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\caption{SemEval-2010Task8における各モデルのMacro-F値の平均と標準偏差}\label{tab:semeval2010-score}\input{03table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\vspace{-0.5\Cvs}\caption{Pairコネクションの有無によるMacro-F値の平均と標準偏差の比較}\label{tab:score-pair-comparison}\input{03table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各モデルにおけるPairコネクションの有無による識別性能の比較を表\ref{tab:score-pair-comparison}に示す.表の通り,ベースラインモデルや最短経路のヒューリスティックを用いた場合は,開発事例,テスト事例ともに識別性能が向上した.一方で,提案手法を用いたモデルは,Pairコネクションを使用することで,開発事例におけるMacro-F値がどのモデルも悪化しており,特にマスク機構とアテンション機構を同時に用いた場合で顕著である.この結果となった理由の一つとして,提案手法とPairコネクションを同時に利用することで,モデルの表現力が過剰に大きくなり,汎化性能が低くなった可能性が予想される.表\ref{tab:semeval2010-score}の通り,本研究で用いたモデルの識別性能は,SPTreeやWordNet埋め込みを用いたLSTM-ERモデルや,同じくWordNet埋め込みを用いるDRNNsモデルと比較すると低い.さらに,事前学習済みBERTモデルを用いた,依存構造を用いない関係分類モデルである$\mathrm{BERT}_\textrm{\textrm{EM}}$モデルはテスト事例でより高いMacro-F値を記録している\footnote{表\ref{tab:semeval2010-score}中のモデルにおいて$\mathrm{BERT}_\textrm{\textrm{EM}}$モデルのみ開発事例の割合が異なり,訓練事例から1,500件を取り出して開発事例としている.}.今後の課題として,事前学習済みBERTのようなより性能の高いモデルを用いた場合における,依存構造や最短経路のヒューリスティック,および提案手法の有効性を検証することが挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\vspace{-0.3\Cvs}\begin{center}\includegraphics{27-2ia3f3.eps}\end{center}\caption{ノイズの係数パラメータ$\alpha$ごとの生存率の平均値の学習曲線.}\label{fig:non-masking-rate}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マスク機構におけるノイズの影響}異なるノイズの係数パラメータ$\alpha$ごとの生存率$r$の平均値の学習曲線を図\ref{fig:non-masking-rate}に示す.\pagebreak図の通り,$\alpha$が小さい場合や,$\alpha=0$のとき,すなわちノイズを全く利用しないような場合では,最終的な生存率はほぼ1となり,ほとんどのトークンがマスクされずそのまま利用される結果となった.そして,$\alpha$を大きくするに従い,最終的な生存率の平均値が小さくなり,このパラメータの調整によって利用するトークンの割合をコントロールすることが出来た.$\alpha$が小さいときの生存率が最終的にほぼ1になるのは,ニューラルネットワークの表現力が高いために,ほとんどどのような入力でも損失を下げる方向に利用することができ,ほとんどのトークンを利用するように学習が進んだことが一つの理由として考えられる.また,この場合でも,学習初期ではある程度生存率を下げる方向に学習が進み,その後逆に生存率が高くなっている.これは,学習初期は系列LSTM層からの出力ベクトルの学習がまだ十分に進んでおらず,一部は利用しない方が損失を下げられるために一時的に生存率が下がり,その後学習が進むにつれ損失を下げるようなパラメータにできて,一転して生存率を上げるように学習が進んだことが理由の一つだと考えられる.一方$\alpha$が大きい場合は,学習初期ではほぼすべてのトークンがマスクされている.これは,学習初期の系列LSTMからの出力の学習がまだほとんど進んでおらず,その後の層の計算にあまり役に立たないような表現となっているために,ほとんどがマスクされたためだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マスクされるトークンの傾向}最短経路のヒューリスティックは,先行研究で示されている通り,モデルの識別性能を向上できる良い経験則であり,学習から得た利用すべきマスクも,このヒューリスティックに近いものになる可能性が高い.実際,開発データにおいて最も高いMacro-F値となったモデルの平均生存率は20.2\%となり,これは,最短経路上のトークンが文内で占める割合である19.3\%と近い値である.そこで学習されたマスクと最短経路の間にどの程度類似度があるかを調べるため,この二者間で残されるトークンについてJaccard係数を計算した.結果としてJaccard係数は,5回の試行の平均値が訓練事例で0.821,開発事例では0.826と,マスクされないトークンがおよそ20\%であることから考えて非常に高い値となり,提案モデルは最短経路のヒューリスティックに非常に近いマスクを学習から自動で獲得したといえる.さらに,提案モデルの異なる試行ごとで得られたマスク間のJaccard係数は平均で0.926と,最短経路との間のJaccard係数よりさらに高い値となっており,モデルは最短経路そのものとは少し異なる規則を学習するという結果になった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\hangcaption{最短経路上のトークンとマスク機構により残されたトークンの例と,対応するそれぞれのモデルの予測}\label{tab:mask-example}\input{03table05.tex}\vspace{4pt}\smalle1とe2は注目エンティティを示し,予測は5回の施行で最も多く選ばれたものとその回数を表示した.関係の向きは常にe1からe2へとし,逆向きの関係ラベルにはReversedのプレフィックスを付けている.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\caption{品詞タグごとのマスク機構が残す単語の数}\label{table:pos-map}\input{03table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:mask-example}にいくつかの開発事例における最短経路上のトークンとマスク機構によって残されたトークンの例を示す.この例はマスク機構とアテンション機構を併せて導入したモデルによる結果であり,このモデルに併せてベースラインモデルで最短経路のヒューリスティックを用いたモデルのそれぞれ5回の施行において最も多く予測した関係ラベルとその回数も示した.マスク機構により残されたトークンについては,5回の施行で3回以上残されたトークンのみを表示している.表中の上二つの例のように,マスク機構は最短経路上には存在しない所有格の\textit{s}や\textit{into}のような単語を残すよう学習し,最短経路を用いたモデルでは正しく予測できなかった事例について正解することができたケースが確認された.逆に三番目の例では最短経路上に存在する\textit{sent}を残さず,最短経路を用いたモデルでは正しく予測できた事例について誤ってしまうケースも確認された.また,四番目の例では注目エンティティペアに無関係な\textit{from}を残し,予測もCause-Effect(原因と結果の関係)を予測してしまうといった,無関係な言及に注目してしまったがために間違えてしまうケースも見つかった.この一方で,下二つの例のように最短経路と同じトークンを残しながら異なる予測を多くするようになった事例もいくつか確認された.提案モデルのうちで最高のMacro-F値を記録したモデルにおける,品詞タグごとのマスク機構によって残される単語の数を表\ref{table:pos-map}に示す.表中の単語数が各事例に含まれる単語の総数で,SPはそのうち最短経路上に含まれるもの,生存数はマスク機構が残した単語の数である.表の通り,マスク機構によって残される単語の数は最短経路上に含まれる単語の数とかなり近いが,名詞(NN,NNS,NNP,NNPS)は僅かに多く,逆に動詞(VBN,VBD,VBZ,VBG,VBP,VB)は僅かに少ないなど,細かな違いがみられる.特に,最短経路の外側になってしまう所有格の\textit{s}など(POS,possessiveending)や,Particle(RP),ヘッドにならなかった\textit{what}など(WDT,WRB,WP,WP\$)が一部生存しており,このことから狙い通りマスク機構が最短経路外の情報を利用していることが確認できる.マスク機構の処理は中間出力のそれぞれを確信度に基づきマスクするのみであるので,その後の計算に用いられる構造は,異なる依存関係セットを用いるUniversalDependenciesのような別の依存構造の表現形式を用いても適用可能である.その一方で,マスク機構に続く層が入力に期待する構造から外れるようなマスクを行わないように,利用する構造に合わせた,その構造をよく表現する情報をマスク機構に入力するべきであると考えられる.今回は式\eqref{eq:seq-lstm-concat},\eqref{eq:confidence}の通り,双方向LSTMの出力,および係り受けと相対距離の埋め込みベクトルを入力に用いたが,よりよい依存構造木を表すような表現や,ほかの構造におけるよい表現について検討する必要があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,関係分類において重要なトークンの判別規則を学習を通じて獲得するマスク機構を提案した.ベースラインモデルに提案機構を導入した関係分類モデルは,最短経路のヒューリスティックを用いた場合の識別性能を上回り,依存木全体を用いた場合の識別性能に対しては有意な性能向上を達成した.提案機構により学習されたマスクは最短経路のヒューリスティックに近いものが自ずと学習される一方で,所有格の\textit{s}などの最短経路上に存在しないトークンを利用するようになった.さらに,異なる学習試行ごとで得られたマスク間の類似度は,最短経路との間の類似度よりも高く,最短経路そのものとは一部異なる規則が学習されやすいことが確認された.今後の課題として,BERTのような,より性能の高いモデルにおける最短経路のヒューリスティックの有効性の調査と,そのようなモデルへの提案機構の導入が挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{辻村有輝}{%2016年豊田工業大学工学部卒業.2018年豊田工業大学大学院修士課程修了.現在,豊田工業大学大学院工学研究科博士課程に在学中.}\bioauthor{三輪誠}{%2008年東京大学大学院博士課程修了.博士(科学).東京大学,マンチェスター大学を経て,2014年より豊田工業大学知能数理研究室准教授.ACL,情報処理学会,言語処理学会,人工知能学会各会員.}\bioauthor{佐々木裕}{%1988年筑波大学修士課程理工学研究科修了.2000年同大学より博士(工学)授与.NTT研究所,ATR,マンチェスター大を経て,現在,豊田工業大学教授.言語処理学会等会員.}\end{biography}\biodate\end{document}
V31N03-15
\section{はじめに} 固有表現抽出とは,文章中の固有表現の言及を検出し``人名''や``組織名''といった固有表現クラスへの分類を行う自然言語処理の基礎技術である.本技術は,質疑応答や機械翻訳といった技術への応用が期待される.固有表現抽出は近年の深層学習の発展により飛躍的な性能向上を遂げた\cite{li-etal-2020-dice,wang-etal-2021-automated}.しかし,固有表現抽出システムは人手で構築された学習データのもとに成り立っており,データ構築コストの高さが指摘されている\cite{NOTHMAN2013151}.近年では,より細かく固有表現を解析すべく,数種類の固有表現クラスに留まらず数百種類といった固有表現クラスに対して分類を行う細分類固有表現抽出の必要性が議論されている\cite{fg-ner-2018-empirical}.この場合,扱う固有表現クラスの数に伴い,学習データのラベル付けコストも高くなる.この問題を解決するため,Wikipedia記事のリンク構造を活用して学習データを自動生成することでコスト削減に取り組む研究が多く行われている\cite{richman-schone-2008-mining,nothman-etal-2008-transforming,NOTHMAN2013151,polyglot-2015,pan-etal-2017-cross,ghaddar-langlais-2017-winer,cao-etal-2019-low,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,malmasi-etal-2022-multiconer,tedeschi-navigli-2022-multinerd,strobl-etal-2022-enhanced}.WikipediaはWeb上で閲覧編集が可能な百科事典であり,膨大なエンティティの集合と,各エンティティを説明する記事からなる.記事中では出現した固有表現の言及に対して必要に応じてWikipedia内の他のエンティティを示すリンクが付与される.したがって,何らかの手段を用いて各エンティティに対して固有表現クラスを付与することで,リンク構造から固有表現抽出の学習データを自動生成することができる.先行研究では,Wikipedia記事に付与されているカテゴリーや,外部データにより各Wikipedia記事に対して付与されたカテゴリーを固有表現クラスに対応付けることで各エンティティの分類を行っている\cite{NOTHMAN2013151,polyglot-2015,ghaddar-langlais-2017-winer}.しかし,カテゴリーの定義と固有表現の定義が異なるため対応付けの際に分類誤りが発生するといった問題がある.Wikipediaのリンク構造は,リンク省略やNIL言及により固有表現抽出器の学習に用いるには不足している.\paragraph{リンク省略}Wikipediaでは,Wikipediaガイドラインにより多くのリンクが省略されている.本ガイドラインには,リンクが煩雑になることを防ぐために「同一エンティティを指す言及は初出の場合のみリンクする」といったルールが記載されている.例えば,記事中に言及「日本」が出現し,既に『日本』というエンティティにリンクしていた場合,以降の『日本』を指す言及へのリンクは省略される\footnote{例外として,記事中で重要と判断された場合,複数回リンクが付与される場合もある.}.また,「記事に紐づくエンティティの説明に重要であると判断される言及のみリンクする」といったルールも存在する.つまり,国名のように一般に認知されているエンティティに対するリンクが省略される場合がある.先行研究では,英語等の言語において固有表現の単語の先頭が大文字化されるといった表層的な言語特徴を活用したリンク検出\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,NOTHMAN2013151,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,malmasi-etal-2022-multiconer}や,固有表現辞書を用いて検索を行いリンクを拡張する表層マッチ\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,NOTHMAN2013151,polyglot-2015,ghaddar-langlais-2017-winer,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,tedeschi-navigli-2022-multinerd,strobl-etal-2022-enhanced}によりリンク省略に対応している.しかし,前者のような言語依存の特徴のほとんどが日本語には適用できない上,後者のような簡易的な表層マッチのみではカバー率の低下や,精度の低下といった問題が引き起こされる.\paragraph{NIL言及}固有表現の言及であるものの,紐づくエンティティがWikipediaに存在しない場合はリンクは付与されない.例えば,宮沢賢治の母親を指す言及「宮沢イチ」が出現した場合,Wikipediaには紐づく記事が存在しないため,リンクは付与されない.このような行き先のない言及を以下NIL言及と呼ぶ.NIL言及を無視してデータ構築を行った場合,本来ラベルがあるにも関わらずラベル無しと表示される偽陰性ラベルが混在してしまうため,データセットのカバー率が低下し,後続のモデル学習に悪影響を与える.先行研究では,外部辞書を用いた表層マッチ\cite{richman-schone-2008-mining,strobl-etal-2020-wexea}や深層学習による偽陰性ラベル検出\cite{pan-etal-2017-cross},言語特徴や深層学習を用いた偽陰性ラベルを含む文のフィルタリング\cite{tedeschi-navigli-2022-multinerd}等の技術を開発し,解決に取り組んでいる.しかし,他言語で使用されるような辞書や言語特徴は直接日本語に適用できない上,簡易なラベル補完はノイズを増加させる危険性があり,フィルタリングは有用な教師情報を除去してしまうといった問題がある.本研究では,これらのリンク省略とNIL言及に対処するための言語非依存な手法を提案する.提案手法とともにWikipediaから固有表現抽出器を学習する工程を図\ref{fig:train_ner}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-3ia14f1.pdf}\end{center}\caption{本研究におけるWikipediaからの固有表現抽出器学習工程:◎は提案手法を示す.}\label{fig:train_ner}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%リンク省略に対処するため,Wikipediaガイドラインを活用した深層学習ベースのリンク拡張手法を提案する.本手法では,ガイドラインのうち「同一エンティティに関するリンクは初出の場合のみ付与する」というルールに着目する.これはすなわち,リンク以前の文章には同一エンティティを指す言及が存在しないことを意味している.この性質を利用することで,リンクが示す言及の単語とエンティティを正のペア,リンク以前の単語とエンティティを負のペアとして扱うことができるようになる.これらのペアから単語とエンティティのペアの判定を行う二値分類器を学習し,分類器により全ての単語に対して紐づくエンティティを予測することで省略されたリンクの補完を試みる.NIL言及に対処するため,文章中の期待エンティティ率(ExpectedEntityRate;EER)を推定する手法を提案し,固有表現抽出器の学習に推定値による制約を適用する.本手法では,各エンティティのリンク頻度と頻度ごとのエンティティ数の関係を近似することで,文章に含まれる固有表現の言及の割合を示す期待エンティティ率を推定する.エンティティ率を用いて学習時に制約を課し偽陰性ラベルの影響を軽減する手法\cite{effland-collins-2021-partially}に対して本推定値を適用することで,NIL言及の影響軽減を試みる.本研究では,リンク省略とNIL言及によるリンク不足の課題を独立して扱うため,エンティティに対する固有表現クラスの割り当てには人手により作成された正解ラベルを用いる.これにより,Wikipediaのカテゴリー等と固有表現クラスの紐付けにより発生する誤りから,提案手法による誤りを切り分けて検証することが可能になる.Wikipediaの構造化を行う森羅プロジェクト\cite{Sekine2019SHINRASW}では,日本語のWikipediaのおよそ8割の記事が,拡張固有表現階層\cite{sekine-etal-2002-extended}で定義されたカテゴリーに人手で分類されており,本研究ではこちらを用いる.{拡張固有表現階層はWikipediaを階層的に分類するための定義であり,本研究では``名前''以下の約200カテゴリーを固有表現クラスとして扱う.}性能の比較に評価データが必要であるため,本研究では日本語Wikinewsから収集されたニュース記事に対して人手によりラベルを付与することで評価データを作成する.本作業は,拡張固有表現に対する深い知識が求められるので,前述のWikipedia記事分類を行った作業者に対して依頼した.本研究で,構築された固有表現抽出器はJENER(JENER:JapaneseExtendedNamedEntityRecognizer)として公開している\footnote{\url{https://github.com/k141303/JENER}}.本論文の貢献は以下の通りである.\begin{itemize}\itemWikipediaのリンク省略に対処すべく,Wikipediaガイドラインを活用した深層学習ベースのリンク拡張手法を提案した.\itemWikipedia記事中の期待エンティティ率(EER)の推定手法を提案し,EERにより固有表現抽出器の学習に制約をかける既存手法を適用することで,NIL言及によるラベル欠落の影響を軽減した.\item日本語Wikinewsから収集されたニュース記事に対して人手でラベルを付与し,評価セットとして公開した\footnote{\url{https://github.com/k141303/WikinewsENER}}.\item日本語のように固有表現に関する表層的な特徴が少ない言語において,先行研究より高品質な固有表現抽出器の学習が可能であることを示した.\item予測結果の詳細な分析によりWikipediaのリンク構造を用いて固有表現抽出器を学習する際の更なる課題を示した.\end{itemize}以下に本論文の構成を示す.\ref{sec:related_works}節では,固有表現抽出とWikipediaを活用した固有表現抽出器学習手法について関連研究を紹介する.\ref{sec:data_and_preprocess}節ではWikipediaや拡張固有表現の説明と前処理に関しての記述を行う.\ref{sec:propose_1}節では,Wikipediaのガイドラインにより省略されたリンクを拡張するための手法を提案する.\ref{sec:eer_estimation}節では,NIL言及が学習に及ぼす影響を軽減するために,期待エンティティ率の推定を行う手法を提案し,既存手法により学習制約を適用する.\ref{sec:experiments}節では,実験に用いる評価セットの構築方法や,提案手法や比較手法の実験設定について記述し,\ref{sec:experiment_results}節で実際に固有表現抽出機を学習し,評価,考察する.\ref{sec:experiment_analy}節では,拡張したリンク,推定した期待エンティティ率,固有表現抽出器の予測誤りに関する分析と,学習データにおける頻度をもとにした分析を行い,続く\ref{sec:discussion}節でWikipediaから固有表現抽出器を学習する際の課題を整理する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} \label{sec:related_works}本節では,\ref{subsec:related_ner}節で固有表現抽出全体における関連研究,\ref{subsec:related_wikipedia_ner}節でWikipediaのリンクを活用した固有表現抽出における関連研究を列挙する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{固有表現抽出}\label{subsec:related_ner}固有表現抽出\cite{ner-survay-2007,ner-survay-2020}は,文章中の固有表現の言及を検出し``人名''や``組織名''といった固有表現クラスに分類する技術である.固有表現抽出は,言及検出とクラス分類に分けて考えることができ,後者はエンティティタイピングとも呼ばれる.固有表現という概念はMUC-6\cite{grishman-sundheim-1996-message}で初めて認識され,同会議において,文章中の``人名'',``組織名'',``地名'',``通貨'',``時間表現'',``割合表現''を検出するタスクが実施された.以降,固有表現抽出は自然言語処理の重要技術として注目されており,IREX\cite{irex-2000},CoNLL03\cite{conll-2003-introduction},ACE\cite{ace-2004-automatic}等の様々なイベントが固有表現抽出を扱うタスクを開催している.固有表現抽出は主に数クラスを対象としているが,数十,数百といったクラスを扱う場合は,細分類固有表現抽出と呼ばれる.英語の固有表現抽出タグ付きコーパスに着目すると,OntoNotes\cite{ontonote-2013}は18クラス,BBN\cite{bbn-2005}は64クラス,EER\cite{nne-etal-2019-nne}は114クラス,FG-NER\cite{fg-ner-2018-empirical}は200クラスを対象としている.クラス定義は様々であるが,FG-NERは拡張固有表現階層\cite{sekine-etal-2002-extended}で定義された固有表現クラスを用いており,本研究でも同定義を使用する\footnote{現時点で最新の定義を用いるためFG-NERで使用された定義と多少異なる.}.日本語においても固有表現抽出の研究は盛んに行われており,タグ付きコーパスに着目すると,IREXが配布している新聞記事を対象としたIREXコーパスや,現代日本語書き言葉均衡コーパス\cite{bccwj-2014}と新聞記事を対象とした拡張固有表現タグ付きコーパス\cite{ene-ner-2008},現代日本語書き言葉均衡コーパスを対象としたBCCWJ基本固有表現抽出コーパス\cite{iwakura-etal-2016-constructing},Wikipediaを対象としたコーパス\cite{omi-2021-wikipedia}などが構築されている.拡張固有表現タグ付きコーパスは拡張固有表現階層をクラス定義として用いているが,過去の定義を用いており最新の定義との互換性が低いことから,本研究では本データは使用せず新しく評価データを作成する.近年の深層学習の発展により,固有表現抽出の性能は飛躍的に向上している.深層学習を用いて固有表現抽出を解く場合,各単語を分類する系列ラベリングの形に変換して解くことが一般的である.この場合,各ラベルはIOB2形式やBILOU形式に変換される.IOB2形式では,固有表現の開始を示す$\mathtt{B}$タグ,固有表現の継続を示す$\mathtt{I}$タグ,固有表現以外の範囲を示す$\mathtt{O}$タグが定義されており,$\mathtt{B,I}$タグは言及範囲の固有表現クラスと組み合わせて$\mathtt{B-xxx},\mathtt{I-xxx}$の様に使用される.BILOU形式では,IOB2形式に固有表現の終了を示す$\mathtt{L}$タグと固有表現が単一のトークンからなる場合に使用される$\mathtt{U}$タグが追加される.これらの形式の場合,例えば$\mathtt{O}$タグから$\mathtt{I}$タグへ遷移することはあり得ない.これらのタグ遷移に対して,深層学習モデルの出力に対して条件付き確率場(CRF)\cite{crf-2001}により制約をかける場合がある.本研究でも先行研究に倣いCRFを使用する.固有表現抽出の性能向上に貢献している深層学習モデルとして,Bi-LSTM\cite{bi-lstm-2013}などの再帰型ニューラルネットや,BERT\cite{devlin-etal-2019-bert}などのTransformer\cite{vaswani-2017-attention}をベースにしたニューラルネットがあげられる.また,性能向上はモデル構造の優位性のみではなく事前学習と呼ばれる技術によっても得られている.事前学習はWikipediaやウェブデータなどの大規模なコーパスを用いて言語特徴をモデルに教え込む手法であり,BERTの場合は文章中の隠された単語を当てるマスク言語モデリングという手法を用いて事前学習される.その性能の高さから本研究においても事前学習を行ったBERTを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{Wikipediaのリンクを活用した固有表現抽出}\label{subsec:related_wikipedia_ner}固有表現抽出器の学習には多くの場合,ラベル付きデータセットが必要であるが,その構築コストの高さが問題視されている.そのため,Wikipediaのリンクを活用した固有表現抽出器の学習手法が十数年間で多く提案されてきた\cite{richman-schone-2008-mining,nothman-etal-2008-transforming,NOTHMAN2013151,polyglot-2015,pan-etal-2017-cross,ghaddar-langlais-2017-winer,cao-etal-2019-low,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural,malmasi-etal-2022-multiconer,tedeschi-navigli-2022-multinerd,strobl-etal-2022-enhanced}.一覧を表\ref{table:pre_research_ner}にまとめる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{14table01.tex}\hangcaption{Wikipediaを活用した固有表現抽出器の学習手法一覧.``D''は言語依存(Language``D''ependent)の手法,``A''は言語非依存(Language``A''gnostic)の手法を示す.``EL''はエンティティリンキングを示す.スペースの関係上,先行研究は省略表記している.対応する研究は次の通りである.R2008~\protect\cite{richman-schone-2008-mining},N2008~\protect\cite{nothman-etal-2008-transforming},N2013~\protect\cite{NOTHMAN2013151},A2015~\protect\cite{polyglot-2015},P2017~\protect\cite{pan-etal-2017-cross},G2017~\protect\cite{ghaddar-langlais-2017-winer},C2019~\protect\cite{cao-etal-2019-low},S2020~\protect\cite{strobl-etal-2020-wexea},L2021~\protect\cite{Ling_Weld_2021},T2021~\protect\cite{tedeschi-etal-2021-wikineural},M2022~\protect\cite{malmasi-etal-2022-multiconer},T2022~\protect\cite{tedeschi-navigli-2022-multinerd},S2022~\protect\cite{strobl-etal-2022-enhanced}.}\label{table:pre_research_ner}{\vskip-10pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Wikipediaのリンク構造から固有表現抽出器を学習する際,各リンク先のエンティティに固有表現クラスを付与する必要がある.また,Wikipediaのリンクはリンク省略やNIL言及により固有表現抽出器の学習に用いるには不足しており,その対策が必要である.先行研究では,Wikipedia記事に付与されているカテゴリーや,外部データにより各Wikipedia記事に対して付与されたカテゴリーを固有表現クラスに対応付けることで各エンティティの分類を行っている\cite{NOTHMAN2013151,polyglot-2015,ghaddar-langlais-2017-winer}.しかし,カテゴリーの定義と固有表現の定義が異なるため対応付けの際に分類誤りが発生するといった問題がある.本研究では,エンティティ分類の問題をリンク不足の問題と切り分けて考えるために,エンティティに対して人手でラベルを付与したデータを用いる.先行研究は,Wikipediaのリンク省略やNIL言及に様々な手法で対処しており,最も用いられている手法は表層マッチによるリンク拡張である.\citeA{nothman-etal-2008-transforming}は,タイトル,エイリアス,リダイレクト等からなる固有名辞書を用いて,表層マッチを適用することで省略されたリンクを補完している.一般的に表層マッチを適用した場合,文章中の固有表現ではない範囲が誤って検出されることにより,多くのノイズが含まれるといった問題がある.\citeA{nothman-etal-2008-transforming}は,英語では固有表現の各単語はキャピタライズ(つまり,単語の先頭が大文字化)されることに注目し,それらの単語のみをリンク拡張の対象とすることでノイズの混入を抑制している.後続研究の多くが同等の手法を継承している\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,NOTHMAN2013151,polyglot-2015,ghaddar-langlais-2017-winer,strobl-etal-2020-wexea,Ling_Weld_2021,tedeschi-etal-2021-wikineural}.また,Wikipediaのリンクやリンクの表層文字列,タイトルは固有名の完全系を取る場合が多く,別名辞書内に短縮系が含まれないといった問題がある.そのため,タイトルを空白で分割し各単語を固有名辞書へ含める\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,ace-2004-automatic,Ling_Weld_2021},もしくはWordNetやYAGOKGなどの外部知識から得られた人名等のリストを固有名辞書に含める\cite{richman-schone-2008-mining,strobl-etal-2020-wexea}等の手法で対処される場合がある.また,その他の言語依存情報として,Mr.Mrs.等の敬称\cite{nothman-etal-2008-transforming,richman-schone-2008-mining,NOTHMAN2013151},所有格\cite{nothman-etal-2008-transforming},イニシャル\cite{richman-schone-2008-mining}などの言語情報を用い,ルール形式で固有表現クラスラベルを拡張する場合がある.いずれも言語に依存した知識を用いており,言語構造が大きく異なる日本語での適用は難しい.日本語では,Wikipediaから得られた固有名の辞書を固有表現抽出器の学習に用いる研究\cite{kazama-2008-web}があるが,辞書と表層マッチのみを用いており,リンク構造は使用していない.日本語に依存した言語特徴を用いてWikipediaのリンク不足への対処を試みた研究は我々の知る限りない.Stroblら\cite{strobl-etal-2022-enhanced}は,外部の固有表現抽出器であるCoreNLP\cite{manning-etal-2014-stanford}を使用することで,ノイズの問題を解決しているがツール自体が言語依存である.また,省略されたリンクやノイズを含む文章をフィルタすることで対応する場合もある\cite{NOTHMAN2013151,tedeschi-etal-2021-wikineural,malmasi-etal-2022-multiconer,tedeschi-navigli-2022-multinerd}.しかし多くの場合,いずれかの言語依存の情報を用いている.我々の知る限り,手法全体で言語依存の情報を使用せずに表層マッチを適用しているのは\citeA{tedeschi-navigli-2022-multinerd}のみである.この場合,表層マッチによるノイズと,短縮形を採用できないことによるカバー率の低下に対処する必要があるが,\citeA{tedeschi-navigli-2022-multinerd}は自己学習を用いることで,モデル予測と矛盾のあるノイズラベルのフィルタリングと,モデル予測によるラベルの拡張を同時に行い問題解決に取り組んでいる.表層マッチを用いた場合リンク先候補の衝突が発生する場合があるが,多くの場合,直近でリンクされたエンティティや,出現頻度の高いエンティティを採用することで解決している.\citeA{strobl-etal-2020-wexea}は,外部のエンティティリンキングツールを用いて衝突を回避している.しかし,同じくエンティティリンキングを用いる本研究とは異なり,NIL言及は考慮しておらず,候補が全て間違っていた場合もいずれかのエンティティが紐付けられる.また,先行研究の場合は,拡張可能なリンクは表層マッチの辞書内に制限されるため,我々の研究よりも拡張対象範囲が大幅に狭い.表層マッチを用いず言語非依存に対処している研究も存在する.\citeA{pan-etal-2017-cross}は文章に対して割り当てられた固有表現ラベルの信頼度を推定後,全てのラベルが閾値を超えている文章を初期セットとし,自己学習によりラベルを拡張している.\citeA{cao-etal-2019-low}はリンク省略やNIL言及の影響を含む文を分離し,信頼性の高いセットと,低いセットに分けることでこれらの問題に対処している.具体的には,信頼性の低いセットを用いてラベルが付与された範囲のみからモデルを事前学習したのち,信頼性の高いセットを用いて微調整を行っている.本研究では,表層マッチ,自己学習,ノイズ分離を先行研究を参考に実装し比較対象とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{データと前処理} \label{sec:data_and_preprocess}本節では主に本研究で使用するデータとその前処理に関しての説明を行う.\ref{subsec:wikipedia}節では{\linebreak}Wikipediaの説明とWikipediaダンプデータの前処理に関して,\ref{subsec:data_ene}節では拡張固有表現階層とWikipedia記事分類データ,追加の記事分類に関して説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{Wikipedia}\label{subsec:wikipedia}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1.1\subsubsection{リンク構造}Wikipediaは非営利団体であるウィキメディア財団により運営されている自由に編集と閲覧が可能なオンライン百科事典である.Wikipediaは多くの言語を対象としており,そのうち日本語を対象とした記事は1,136,514件存在する\footnote{2019年01月21日時点のWikipediaダンプファイルによる統計.}.Wikipediaでは,記事中にWikipediaに含まれる他のエンティティに紐づく言及が出現した場合,内部リンクが付与される.例えば,「アメリカの作曲家.」という文章があった場合,「アメリカ」は『アメリカ合衆国』というエンティティにリンクされる.また,Wikipediaは固有名に留まらない幅広い内容を扱っており,「作曲家」も『作曲家』というエンティティにリンクされる.本研究では,これらの内部リンクを活用して固有表現抽出器を学習するが,Wikipediaでは多くの内部リンクが省略されており,そのまま学習データとして扱うことは難しい.リンク省略はWikipediaの編集ガイドラインに起因しており,以下のような言及に対するリンクが付与されない.\paragraph{出現済みの言及}Wikipediaでは同一のエンティティを指すリンクは,基本的に初出の場合にのみ付与される.2回目以降の出現の場合,多くのリンクが省略される.\paragraph{重要でない言及}Wikipediaでは編集者が記事の理解に重要でないと判断した言及はリンクされない.また,例えば「日本」や「アメリカ」といった国名などの,一般に認知されているエンティティを指す言及へのリンクは省略される場合がある.\paragraph{自己を参照する言及}Wikipediaでは自己記事を参照する言及はリンクされない.例えば,『日本』の記事中に,「日本」という言及が出現した場合,リンクは省略される.また,当然であるがWikipediaに存在しないエンティティを指すNIL言及に対するリンクは基本的には付与されない\footnote{今後の記事作成を見越して,タイトルのみの空のエンティティにリンクされる場合があるが,全体のリンクのうちかなり希少であるため本研究では対象外とする.}.これらの省略されたリンクやNIL言及の影響を軽減した上でモデルを学習する手法を考案する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1.2\subsubsection{前処理}\label{subsubsec:wikipedia_prepro}Wikipediaでは,機械的に記事を収集するクローリングは禁止されており,Wikipedia上の情報を使用したい場合は,定期的に公開されているダンプファイルを使用することが推奨されている.本ダンプファイルはXML形式で記載されている.また,MediaWiki形式で記載されたCirrusSearchダンプも公開\footnote{\url{https://dumps.wikimedia.org/other/cirrussearch/}}されている.後者は前者と比較して前処理が容易であることから本研究ではこちらを使用する\footnote{本研究で用いるWikipedia分類データに合わせ,2019年1月21日時点のダンプを使用する.}.初めにCirrusSearchダンプに含まれるスクリプトやコメントといった余剰な情報を全て削除し,文章とリストと一部の表\footnote{\textless{}table\textgreater{}タグで囲まれた部分のみ残す.}のみ残す.Wikipediaにおいてリンクは[[アメリカ\textbar{}アメリカ合衆国]]といった表層文字とリンク先記事のペアで表される.ペアが同一表記の場合は片方は省略される.表層文字とリンク先記事タイトルが異なる場合,これらはタイトルの別名として扱うことができる.これらの表層文字から得られる別名をエイリアスと呼ぶ.エイリアスは本研究で使用しないが,先行研究の再現実験に必要であり,別途辞書として保持しておく.また,Wikipediaでは記事タイトルはユニークであるが,他のユニークな文字列でも同一の記事にアクセスすることができる.例えば,『アメリカ合衆国』の記事に対して「USA」でもアクセス可能である.これらはリダイレクトと呼び,こちらも先行研究の再現実験に必要であるので別途保持しておく.Wikipediaでは記事の最初が自己のエンティティを指す言及で始まる.これら言及は太字で強調されており,例えば,『アメリカ合衆国』の記事の場合,「\textbf{アメリカ合衆国}(アメリカがっしゅうこく,[[英語]]:UnitedStatesofAmerica)は,北アメリカに位置し...」のように表記される.最初に出現した太字強調を自己記事へのリンクとすることで,自己記事を参照する言及が省略される問題は,出現済みの言及が省略される問題として扱うことができる.また,エンティティの別の表記が存在する場合,上記例のように自己言及に続く括弧内に併記される場合がある.これらも機械的に自己リンクに変換する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\renewcommand{\tabularxcolumn}[1]{m{#1}}\begin{table}[tp]\input{14table02.tex}\caption{拡張固有表現階層カテゴリー一覧}\label{table:category_list}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{拡張固有表現階層}\label{subsec:data_ene}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2.1\subsubsection{階層定義}拡張固有表現階層\cite{sekine-etal-2002-extended}は,固有名を階層的に分類するためのカテゴリー定義である.拡張固有表現階層は,ニーズに合わせて都度更新されており,階層構造の変更やカテゴリーの細分化などが行われている.後述する分類データが現時点で最新であるバージョン9.0を採用していることから,本研究でも同バージョンを使用する.本定義では,大枠として,``名前'',``時間表現'',``数値表現''を対象としている.その他に,Wikipediaのような知識ベースのエンティティを全て分類するために,一般名詞等を表すエンティティが割り当てられる``CONCEPT''や,曖昧性回避ページ等のメタ的な記事が割り当てられる``IGNORED''といった区分も存在する.本研究では``名前''以下の末端カテゴリーのみを対象とし,その他の区分はすべて単一の``OTHER''カテゴリーとして扱う.名前以下の末端カテゴリーは198件存在し,表\ref{table:category_list}に``名前''以下のカテゴリー階層を示す.4階層目は括弧内に表記している.4階層目が存在しない場合は3階層目が,3階層目以下が存在しない場合は2階層目が末端カテゴリーとなる.``生物呼称名_その他'',``アドレス_その他'',``電子メイル''カテゴリーを示すリンクがWikipediaに存在しないことから,本研究ではこれら3カテゴリーを除いた195カテゴリーを対象とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2.2\subsubsection{Wikipedia分類データ}\label{subsubsec:wiki_cls_data}Wikipediaから固有表現抽出器の学習を行うには,Wikipediaの各エンティティが固有表現クラスに分類されている必要がある.本研究は,リンク省略やNIL言及からなるリンク不足の解消のみを目的とするため,人手でWikipedia記事に固有表現クラスを付与したデータを用いる.Wikipediaの構造化を目標とする森羅プロジェクト\cite{Sekine2019SHINRASW}という取り組みにおいて,日本語のWikipediaが拡張固有表現階層の末端カテゴリーに分類されている.本データは公開されており,本研究ではこちらを使用する.以下,本データをWikipedia分類データと呼ぶ.Wikipedia分類データは,エンティティが他のエンティティの記事からリンクされている数を示す被リンク数が5以上のエンティティのみを対象としており,全件1,136,514件中920,444件が分類されている.ラベル付けは,人手でラベル付けされた少量のデータから学習した機械学習モデルにより対象データを分類した上で,再度人手で確認する形で行われている.基本的には,Wikipediaの各記事に対して単一のカテゴリーが割り当てられるが,一意に定まらない場合は複数のカテゴリーが付与される.例えば,『ハリー・ポッターと賢者の石』といった記事には,``映画名'',``書物名''カテゴリーが付与されている.全体のうち,18,246件(1.98\%)の記事に複数カテゴリーが付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2.3\subsubsection{追加分類}Wikipediaの各記事が分類されている場合,記事中のリンク先が指す固有表現クラスを参照することで,リンクを固有表現ラベルに変換可能である.その場合,Wikipediaの記事は全件分類されていることが望ましいので,深層学習モデルを用いて,未分類の216,070件に対して分類を行う.この時,すでに分類されているデータのうち500件を開発データとしてランダムにサンプリングし,残りを学習データとして切り分ける.分類モデルにはRoBERTa\cite{liu2020roberta}を採用する.使用するRoBERTaは\ref{subsec:experiment_model}節で説明するものと同じである.分類には各エンティティの記事の先頭510トークンを使用し,前後にそれぞれ特殊トークンである[CLS],[SEP]を結合した計512トークンをRoBERTaに入力する.この際,入力長が512トークンに満たない場合は,特殊トークンである[PAD]をトークン列の末尾に追加することで長さを合わせる.学習は10エポック行う.各エポックごとに開発データを用いて評価を行い,評価値が最も高かったモデルを最終的な予測に使用する.評価は,各エンティティに対する予測カテゴリーが完全一致していたものを正解として扱い,その正解率を評価値とする.本問題は,各インスタンスに対して,複数のラベルが付く多クラス多ラベル分類であるため,各カテゴリーごとの多ラベル分類タスクとして扱い,損失関数には二値交差エントロピーを使用する.バッチサイズには200を使用し,最適化関数にはAdamを使用する\footnote{学習率には$5.0\times10^{-5}$を使用し,その他のパラメーターは$\epsilon=1.0\times10^{-8}$,$\beta_1=0.9$,$\beta_2=0.999$使用する.}.学習の結果,開発データにおける評価値は99.1\%であり,予測のうち5,839件(2.70\%)に複数のラベルが付与された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{提案手法1:深層学習によるリンク拡張} \label{sec:propose_1}本節では,編集ガイドラインにより省略されているWikipediaのリンクを拡張するための手法を説明する.リンク拡張の対象は,紐づくエンティティがWikipediaに存在する言及のみであり,紐づくエンティティがWikipediaに存在しないNIL言及に関しては\ref{sec:eer_estimation}節で扱う.提案するリンク拡張手法では,図\ref{fig:link_model}に示すような深層学習モデルを用いる.本モデルは,検索器,符号器,修正器からなる.検索器は入力トークンに対して最も類似するエンティティを検索する.図\ref{fig:link_model}の場合,入力トークンである$\{x_1(キム),x_2(タク),x_3(は)\}$に対して,それぞれ{\linebreak}$\{e_1(木村拓哉),e_1(木村拓哉),e_2(日本)\}$が予測されている.符号器はこれらのトークンとエンティティのペアの一致率を求める.図\ref{fig:link_model}の場合,それぞれのペアに対して$\{0.9,0.9,0.1\}$といった一致率が得られている.ここで,一致率0.5以上のトークンとエンティティを紐づけた場合,同一のエンティティを指す連続したトークン$\{x_1(キム),x_2(タク)\}$をエンティティ\mbox{$e_1(木村拓哉)$}へのリンクとして扱うことができる.しかし,検索器と符号器はリンクの言及範囲に関する情報を直接学習していないため,予測したリンクの言及範囲が誤っている場合がある.そのため,リンクの言及範囲を学習した修正器により,最終的なリンク範囲を決定する.図\ref{fig:link_model}の場合,修正器により$\{\mathrm{B,L,U}\}$タグが予測されており,$\{x_1(キム),x_2(タク)\}$と,$\{x_3(は)\}$をそれぞれ言及範囲として扱うことができる.符号器の結果と統合し,一致率が0.5以上である前者のみが有効なリンクとして出力される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[b]\begin{center}\includegraphics{31-3ia14f2.pdf}\end{center}\caption{リンク拡張モデル概要}\label{fig:link_model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以下では,\ref{subsec:link_expantion_notation}節で使用する記号を定義したのち,\ref{subsec:link_expantion_search}節で検索器,\ref{subsec:link_expantion_match}節で符号器,\ref{subsec:link_expantion_modify}節で修正器のモデル構造と学習方法について解説を行う.最後に,\ref{subsec:link_expantion_model}節でリンク拡張モデル全体の学習とリンク拡張の流れについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{記号の定義}\label{subsec:link_expantion_notation}本小節では,リンク拡張の説明に用いる記号を定義する.各記号の一覧とその説明を表\ref{table:link_expantion_notation}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{14table03.tex}\caption{リンク拡張に使用する記号一覧}\label{table:link_expantion_notation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Wikipedia記事の集合を$\mathcal{A}=\{a_1,...,a_{|\mathcal{A}|}\}$と表す.ここで,$|\mathcal{A}|$は対象とする言語のWikipediaの記事数である.各記事は単語もしくはより細かく分割された単位であるトークンの列$a=\{x_1,...,x_{|a|}\}$で構成されており,ここで,$|a|$は各記事のトークン長である.Wikipediaに記事が存在するエンティティの集合を$E=\{e_1,...,e_{|\mathcal{A}|}\}$とし,Wikipediaに記事が存在しないエンティティ(NILエンティティ)の集合を$\overline{E}$と表す.Wikipediaの各エンティティ$e_i\inE$は,対応する説明文$a_i\in\mathcal{A}$によって一意に定義される.拡張固有表現階層の末端カテゴリーを$c$,その集合を$C$とする.Wikipediaのエンティティ$e$に付与されたカテゴリーの集合を$C_{e}\subsetC$と表す.ここで,$|C_e|\geq1$である.Wikipedia記事全体$\mathcal{A}$で既にリンクが付与されている言及集合を$M=\{m_1,...,m_{|M|}\}$,リンクが付与されていない言及集合を$\overline{M}=\{m_{|M|+1},...,m_{|M|+|\overline{M}|}\}$と表す.ここで$m=\{x_o,...,x_{o+|m|-1}\}$は言及に含まれるトークン列を示しており,$o$は言及の開始オフセット,$|m|$は言及トークン列長を表している.各リンクは言及と対応するエンティティのペア$(m,e)$で表す.Wikipediaに含まれるすべての固有表現の言及$|M|\cup|\overline{M}|$とそれらに紐づくエンティティからなるリンクの集合を$U=\{(m,e)\}$とする.ここで,$U$をオラクルリンク集合と呼ぶ.集合$U$は,既に付与されているリンクの集合$S=\{(m,e)\inU|m\inM\}$と付与されていないリンクの集合$\overline{S}=\{(m,e)\inU|m\in\overline{M}\}$からなる.$\overline{S}$は,Wikipediaに存在するエンティティ$e\inE$を指すリンクの集合$\overline{S}_{(\overline{M}\rightarrowE)}=\{(m,e)\in\overline{S}|e\inE\}$と,NILエンティティ$e\in\overline{E}$を指すリンクの集合$\overline{S}_{(\overline{M}\rightarrow\overline{E})}=\{(m,e)\in\overline{S}|e\in\overline{E}\}$からなる.リンク拡張の目的は,リンク$\overline{S}_{(\overline{M}\rightarrowE)}$を全て検出することである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{検索器}\label{subsec:link_expantion_search}検索器は,エンティティリンキングの手法を用いており,入力シーケンス$X=\{x_1,...,x_{|X|}\}$の各トークン$x$に最も類似するWikipediaのエンティティ$\hat{e}\inE$を検索する.検索器は,$x$と$E$を受け取り$\hat{e}$を返す関数$f_{\mathrm{search}}$として定義される.$$\hat{e}=f_\mathrm{search}(x,E)$$$x$が$\hat{e}$と完全に一致するかどうか,つまり$x$が省略されたリンク$(m,e)\in\overline{S}_{(\overline{M}\rightarrowE)}$であるかどうかは,\ref{subsec:link_expantion_match}節で説明する符号器により判定する.検索器はエンティティリンキング手法の一つであるデュアルエンコーダー\cite{gillick-etal-2019-learning}のスキームを参考にしている.デュアルエンコーダーは,言及$m$をベクトル$\boldsymbol{v}_m$に埋め込む言及エンコーダー$f_{\mathrm{m}}$とエンティティ$e$をベクトル$\boldsymbol{v}_e$に埋め込むエンティティエンコーダー$f_{\mathrm{e}}$からなり,ベクトル間類似度を用いて言及に紐づくエンティティの検索を行う技術である.各エンコーダーはトークン列$X=\{x_1,...,x_{|X|}\}$を受け取り,埋め込みベクトル列$V_X=\{\boldsymbol{v}_1,...,\boldsymbol{v}_{|X|}\}$を出力するようなモデルをベースにしている.近年はTransformer\cite{vaswani-2017-attention}で構成されたBERT\cite{devlin-etal-2019-bert}などのモデルが用いられており,本研究でもBERTを使用する.また,本研究では後述する理由により言及エンコーダーの代わりにトークンエンコーダーを用いる.以下では,\ref{subsubsec:token_encoder}節でトークンエンコーダー,\ref{subsubsec:entity_encoder}節でエンティティエンコーダーのモデル構造について説明し,\ref{subsubsec:vec_sim}節ではベクトル間類似度の計算方法について,\ref{subsubsec:dual_train_method}節では検索器の学習方法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.1\subsubsection{トークンエンコーダー}\label{subsubsec:token_encoder}初めに,言及エンコーダーの説明を行い,エンティティリンキングと検索器の設定の違いを述べた後,トークンエンコーダーを導入する.言及エンコーダーは言及を受け取り,その埋め込みベクトルを出力するモデルである.言及エンコーダーは言及とその周辺文章からなるトークン列$$X_m=\{\mathtt{[CLS]},x_{o-\omega},...,x_{o-1},\mathtt{[START]},x_{o},...,x_{o+|m|-1},\mathtt{[END]},x_{o+|m|},...,x_{o+|m|+\omega},\mathtt{[SEP]}\}$$を入力に取り,以下の様に言及ベクトル$\boldsymbol{v}_m\in\mathbb{R}^{d_\mathrm{emb}}$を出力する.\begin{equation}\label{eq:mention_encoder}\boldsymbol{v}_m=\mathrm{red}(f_{\mathrm{m}}(X_m))\end{equation}$\mathtt{[CLS]},\mathtt{[SEP]}$はそれぞれ入力列の先頭と末尾に付与される特殊トークン,$\mathtt{[START]},\mathtt{[END]}$はそれぞれ言及の先頭と末尾に付与される特殊トークンを示す.$d_\mathrm{emb}$は埋め込み空間の次元サイズ,$\omega$は使用する周辺コンテキストの範囲を示す.$\mathrm{red}(\cdot)$は,$f_\mathrm{m}$の出力ベクトル列$V$からベクトル$\boldsymbol{v}_m$を抽出する関数を表す.多くの場合,$\boldsymbol{v}_m$には,$\mathtt{[CLS]}$に対応する出力ベクトル$\boldsymbol{v}_\mathtt{[CLS]}$や,$\mathtt{[START]},\mathtt{[END]}$に対する出力ベクトル$\boldsymbol{v}_\mathtt{[START]},\boldsymbol{v}_\mathtt{[END]}$の要素平均などが使用される.エンティティリンキングの設定では,学習時と予測時の両方において,エンティティ検索対象の言及範囲が与えられるため,その範囲のみエンコードすれば良い.しかし,検索器の設定では入力トークン全てに対して検索を行う必要があり,言及エンコーダーにより各トークンごとにエンコードすると計算コストが膨大になってしまう.本研究では代わりにトークンエンコーダーを使用する.トークンエンコーダーは各入力トークンに対する埋め込みベクトルを一度に生成する.トークンエンコーダーはトークン列$$X=\{\mathtt{[CLS]},x_1,...,x_{l_\mathrm{t}-2},\mathtt{[SEP]}\}$$を入力に取り,各単語ごとのベクトル列$V_X=\{\boldsymbol{v}_x\}\in\mathbb{R}^{l_\mathrm{t}\timesd_\mathrm{emb}}$を出力する.\begin{equation}V_X=f_{\mathrm{t}}(X)\end{equation}ここで,$l_\mathrm{t}$は入力シーケンス長である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.2\subsubsection{エンティティエンコーダー}\label{subsubsec:entity_encoder}エンティティエンコーダーはエンティティを受け取り,その埋め込みベクトルを出力するモデルである.エンティティエンコーダーはエンティティの説明文からなるトークン列$$X_e=\{\texttt{[CLS]},x_1,...,x_{l_\mathrm{e}-2},\texttt{[SEP]}\}$$を入力に取り,エンティティベクトル$\boldsymbol{v}_e\in\mathbb{R}^{d_\mathrm{emb}}$を出力する.\begin{equation}\boldsymbol{v}_e=\mathrm{red}(f_{\mathrm{e}}(X_e))\end{equation}ここで,$l_\mathrm{e}$は入力シーケンス長である.$\boldsymbol{v}_e$には,各トークンの埋め込みベクトルの平均等も考えられるが,実装の簡素化のため本研究では\texttt{[CLS]}トークンに対する出力ベクトル$\boldsymbol{v}_\mathtt{[CLS]}$を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.3\subsubsection{ベクトル類似度}\label{subsubsec:vec_sim}トークンとエンティティの紐付けは,トークンベクトルとエンティティベクトル間の類似度$\psi_\mathrm{search}(x,e)$により行われる.類似度関数には内積やコサイン類似度が使用される場合が多く,本研究ではコサイン類似度を用いる.\begin{equation}\psi_\mathrm{search}(x,e)=\frac{\boldsymbol{v}_x\cdot{}\boldsymbol{v}_e}{\|\boldsymbol{v}_x\|\|\boldsymbol{v}_e\|}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.4\subsubsection{学習手法}\label{subsubsec:dual_train_method}検索器は,Wikipediaのリンク$(m,e)\inS$から学習する.この際,検索器は言及単位ではなくトークン単位で入力を扱うため,リンク$(m,e)$はトークンレベルのペア$\{(x_o,e),..,(x_{o+|m|-1},e)\}$に分解する.検索器は,トークンと紐づくエンティティの正例ペア$(x,e^+)$の類似度を最大化,トークンと紐づかないエンティティの負例ペアの類似度を最小化することで学習を行う.この時,正例ペアはリンクから得られるが,負例ペアは得られない.Wikipediaに含まれる$e^+$以外のエンティティの集合$\{e\inE|e\nee^+\}$を全て負例として使用することが考えられるが,これは計算コストの観点から現実的ではない.そのため,本研究では負例ペアの選択にバッチ内サンプリングとハードサンプリングを適用する.バッチ内サンプリングは,学習データからサンプリングされたバッチに含まれるエンティティ集合を負例として扱う手法である.$\mathcal{A}$からランダムにサンプリングされたバッチを$\mathcal{A}'\subset\mathcal{A}$とし,バッチ中に出現するリンクの集合を$S'\subsetS$とする.また,$S'$を構成する言及集合を$M'=\{m|(m,e)\inS'\}$,エンティティ集合を$E'=\{e|(m,e)\inS'\}$と表す.この時の,$E'$をバッチ内サンプルと呼び,正例$e^+$以外のエンティティ$E^-=\{e|e\nee^+,e\inE'\}$を負例として扱う.ハードサンプリングは,正例ペア$(m,e^{+})$に対してモデルが判定を誤りやすい負例$e^{-}$を学習時のサンプル$E'$に追加することで,学習中にモデルの判定誤り修正を効率化し,学習の高速化を図る手法である.本研究では,言及$m$のベクトル$\boldsymbol{v}_x$と全てのエンティティベクトル$V_E$の類似度を求め,$e^+$以外で最も類似度が高かったエンティティ$e^{-}$を$E^-$に追加する.\begin{equation}\label{eq:hard_negative}e^{-}=\underset{e\nee^+,e\inE}{\operatorname{argmax}}\\psi_\mathrm{search}(x,e)\end{equation}類似度の最適化は,以下の交差エントロピー誤差を最小化することで行う.,\begin{equation}\mathcal{L}_\mathrm{search}=-\frac{1}{|X_{M'}|}\sum_{x\inX_{M'}}{\sum_{e\inE'}{p(e|x)\mathrm{log}\left(\frac{\mathrm{exp}(\alpha\cdot\psi_\mathrm{search}(x,e))}{\sum_{e'\inE'}\mathrm{exp}(\alpha\cdot\psi_\mathrm{search}(x,e'))}\right)}}\end{equation}ここで,$X_{M'}=\{x|x\inm,m\inM'\}$は言及内のトークンの集合を表す.$p(e|x)$は真の確率分布であり,トークン$x$とエンティティ$e$が紐づく場合は1,それ以外は0となる.また,$\alpha$はスケール用の変数である.交差エントロピー誤差を用いるには,コサイン類似度の値の範囲$[-1,1]$は狭く学習に時間がかかるため,$\alpha$により範囲$[-\alpha,\alpha]$に拡張する.学習後の検索器では以下のようにして,入力シーケンスの各トークンに最も類似するエンティティを得ることができる.\begin{equation}f_\mathrm{search}(x,E)=\underset{e\inE}{\operatorname{argmax}}\\psi_\mathrm{search}(x,e)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{符号器}\label{subsec:link_expantion_match}符号器は,検索器により得られたトークンとエンティティのペアの一致率を出力する.符号器の学習は,二値交差エントロピー誤差の最小化により,正例ペアの一致率を$1$,負例ペアの一致率を$0$に近づけることで行われる.Wikipediaのリンクから正例ペアは得られるが,負例ペアは得られないため,Wikipediaのガイドライン等を活用した負例選択方法を提案する.符号器は,トークンとエンティティのペア$(x,e)$を受け取りその一致率$q(e|x)$を出力する.符号器では,トークンベクトル$\boldsymbol{v}_t$とエンティティベクトル$\boldsymbol{v}_e$から以下のように一致率$q(e|x)$を計算する.\begin{gather}\boldsymbol{v}_c=\frac{\boldsymbol{v}_x}{\|\boldsymbol{v}_x\|}\odot\frac{\boldsymbol{v}_e}{\|\boldsymbol{v}_e\|}\\\boldsymbol{h}_1=\mathrm{dropout}(\mathrm{tanh}(W_1^\mathsf{T}\boldsymbol{v}_c+\boldsymbol{b}_1))\\\boldsymbol{h}_2=W_2^\mathsf{T}\boldsymbol{h}_1+\boldsymbol{b}_2\\q(e|x)=\frac{\mathrm{exp}(h_{2,1})}{\mathrm{exp}(h_{2,0})+\mathrm{exp}(h_{2,1})}\end{gather}ここで,$\odot$はベクトルの要素積を表す.$W_1\in\mathbb{R}^{d_{\mathrm{emb}}\timesd_{\mathrm{match}}}$,$W_2\in\mathbb{R}^{d_{\mathrm{match}}\times2}$は線形層の重み行列,$\boldsymbol{b}_1\in\mathbb{R}^{d_\mathrm{match}}$,$\boldsymbol{b}_2\in\mathbb{R}^2$は線形層のバイアスベクトルであり,学習可能なパラメーターである.活性化関数としてtanh関数を,過学習の抑制のためdropout関数を使用している.符号器の学習は正例ペアの一致率を$1$,負例ペアの一致率を$0$に近づけることで行われる.学習に使用する正例ペア$(x,e)^+$はWikipediaの各リンク$(m,e)\inS$から得られるが,負例ペア$(x,e)^-$は得られない.入力シーケンス$X$におけるリンク範囲以外のトークンとエンティティのペア集合$\{(x,e)\inX\times\{e\}|x\notinm\}$を負例として扱った場合,$e$に関する省略されたリンク$(m,e)\in\overline{S}$により偽陰性ラベル$\{(x,e)\inX\times\{e\}|x\inm,(m,e)\in\overline{S}\}$が発生してしまう.本研究では,Wikipediaガイドラインやエンティティの特性,ハードサンプリングを活用し,表\ref{table:match_negative}に示すような負例を選択する.Wikipediaガイドラインの「同一のエンティティを指す言及に関しては基本的に初出の場合のみリンクする」という定義は,「リンクより後方にはリンクと同一のエンティティを指す言及が含まれる可能性があるが,リンクより前方の文章には同様の言及は含まれない」と解釈できる.つまり,初出のリンク$\{(x_o,e)^+,...,(x_{o+|m|-1},e)^+\}$より前のトークンとエンティティのペア集合$\{(x_i,e)^-|i<o\}$を負例として扱うことができる.例えば,表\ref{table:match_negative}のペア$(x_2(は),e_3(和光市))^-$などである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[b]\input{14table04.tex}\hangcaption{符号器の学習における負例選択の例.$x_i(\cdot)$はトークンとその中身,$e_j(\cdot)$はエンティティとそのタイトルを示している.``リンク''はトークンにリンクが付与されているかどうかを示し,``初出''はそのエンティティに関するリンクが最初の出現であるかを示している.Tは正例ペア,Fは負例ペアを示す.$\mathrm{HN}(\cdot)$は式\ref{eq:hard_negative}と同等であり,言及に対する難しい負例を取得する関数を示す.}\label{table:match_negative}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%同一のエンティティを指すリンクの隣接はないと考えられるため,リンクの左右には同一エンティティを指す言及は出現しないと言える.そのため,リンクの左右をそれぞれ負例ペア$\{(x_{o-1},e)^-,(x_{o+|m|},e)^-\}$として扱う.例えば,表\ref{table:match_negative}のペア$(x_6(和光市),e_2(埼玉県))^-$などである.学習の効率化のため,検索器と同様に式\ref{eq:hard_negative}のハードサンプリングで得られた難しい例$e^-$も負例ペアとして扱う.例えば,表\ref{table:match_negative}のペア$(x_1(理研),\mathrm{HN}(x_1(理研)))$などである.上記の手順で$\mathcal{A}'$から得られたペア$(x,e)$の集合を$Z'$とすると,符号器は,以下の二値交差エントロピー誤差を最小化することで学習可能である.\begin{equation}\mathcal{L}_\mathrm{match}=\frac{1}{|Z'|}\sum_{(x,e)\inZ'}{-p(e|x)\mathrm{log}(q(e|x))-(1-p(e|x))\mathrm{log}(1-q(e|x))}\end{equation}ここで,$p(e|x)$は真の確率分布であり,トークン$x$とエンティティ$e$が紐づく場合は1,それ以外は0となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.4\subsection{修正器}\label{subsec:link_expantion_modify}修正器は,リンクの言及範囲から学習することで,検索器と符号器によって得られたリンクの範囲を修正する.本研究では,修正器による範囲修正を系列ラベリング問題として解く.修正器は言及の範囲のみから学習できれば良いため,系列ラベルとしてBILOUタグから$\mathtt{O}$タグを除いたBILUタグを使用する.タグセットを$\mathcal{T}$,各タグを$t\in\mathcal{T}$として表す.言及範囲$\{x|x\inm,m\inM,x\in\mathcal{A}\}$のみから学習した場合,言及範囲以外$\{x|x\notinm,m\inM,x\in\mathcal{A}\}$のモデルの挙動が予測不可能であるが,誤検出は検索器と符号器によって棄却が期待できるため問題はない.修正器では,トークンベクトル$x$に対するタグ$t$の予測確率$q(t|x)$は線形層を使用し,以下のように得る.\begin{gather}\boldsymbol{h}_3=\mathrm{dropout}(\mathrm{tanh}(W_3^\mathsf{T}\boldsymbol{v}_x+\boldsymbol{b}_3))\\\boldsymbol{h}_4=W_4^\mathsf{T}\boldsymbol{h}_3+\boldsymbol{b}_4\\q(t|x)=\frac{\mathrm{exp}(h_{4,t})}{\sum_{t^*\in\mathcal{T}}\mathrm{exp}(h_{4,t^*})}\end{gather}ここで,$W_3\in\mathbb{R}^{d_\mathrm{emb}\timesd_\mathrm{modif}}$,$W_4\in\mathbb{R}^{d_\mathrm{modif}\times|\mathcal{T}|}$は線形層の重み行列,$\boldsymbol{b}_3\in\mathbb{R}^{d_\mathrm{modif}}$,$\boldsymbol{b}_4\in\mathbb{R}^{|\mathcal{T}|}$は線形層のバイアスベクトルである.両者とも学習可能なパラメーターである.バッチ$\mathcal{A}'$に含まれる言及集合を$M'$,言及を指すトークン列を$X'=\{x|x\inm,m\inM'\}$,トークン$x$に付与されたタグを$t_x$とする.修正器の学習は,以下の交差エントロピー誤差を最小化することで行う.\begin{equation}\mathcal{L}_\mathrm{modify}=-\frac{1}{|X'|}\sum_{x\inX'}\textrm{log}(q(t_x|x))\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.5\subsection{リンク拡張モデル}\label{subsec:link_expantion_model}リンク拡張モデルでは,検索器,符号器,修正器を同時に学習する.リンク拡張を行う際は,処理の単純化のため修正器,検索器,符号器の順で拡張を行う.リンク拡張モデルは以下の誤差$\mathcal{L}$を最小化することで検索器,符号器,修正器を同時に学習する.\begin{equation}\mathcal{L}=\mathcal{L}_\mathrm{search}+\mathcal{L}_\mathrm{ene}+\mathcal{L}_\mathrm{match}+\mathcal{L}_\mathrm{modify}\end{equation}リンク拡張は,処理の単純化のため,先に入力シーケンスに対して修正器によりリンクの言及検出を行う.その後,検索器により言及に対してエンティティを紐付けることでリンクを生成し,符号器により有効なリンクのみを残すことで達成される.修正器と,BILUタグ列を受け取り言及に変換する関数$\mathrm{offset}(\cdot)$を用いて,入力シーケンス$X$に対する言及集合$\hat{M}=\{\hat{m}\}$を以下のように得る.\begin{equation}\hat{M}=\mathrm{offset}(\{\underset{t\in\mathcal{T}}{\operatorname{argmax}}\q(t|x)|x\inX\})\end{equation}この時,既にWikipedia上で付与されているリンクに重複する言及は削除する.$$\hat{M}=\{\hat{m}|\hat{m}\capm=\{\phi\},\hat{m}\in\hat{M},m\inM\}$$検索器$f_\mathrm{search}$と符号器の予測確率$q(e|x)$を用いて,予測言及$\hat{m}$を受け取り$\hat{e}$を返す$f_\mathrm{link}$を以下のように定義する.\begin{gather}\hat{e}=f_\mathrm{link}(\hat{m})\\f_\mathrm{link}(\hat{m})=f_\mathrm{search}(\underset{x\in\hat{m}}{\operatorname{argmax}}\q(f_\mathrm{search}(x,E)|x),E)\\q(\hat{e}|\hat{m})=\underset{x\inm}{\operatorname{max}}\q(f_\mathrm{search}(x,E)|x)\end{gather}複数トークンからなる言及にエンティティを付与する際,エンティティが競合する可能性が考えられる.この場合,最も高い一致率$q(\hat{e}|\hat{m})$を持つエンティティを採用する.最後に修正器による一致率$q(\hat{e}|\hat{m})$が0.5未満のリンクを棄却することで,最終的な予測リンク集合$\hat{S}_{(\overline{M}\rightarrowE)}$を以下のように得ることができる.\begin{equation}\hat{S}_{(\overline{M}\rightarrowE)}=\{(\hat{m},\hat{e})|q(\hat{e}|\hat{m})\geq0.5,\hat{e}=f_\mathrm{link}(\hat{m}),\hat{m}\in\hat{M}\}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{提案手法2:期待エンティティ率(EER)推定と固有表現抽出器学習} \label{sec:eer_estimation}本研究では,Wikipediaに対応するエンティティが存在しないNIL言及に対処するため,Wikipediaにおける期待エンティティ率を推定する手法を提案する.推定値を既存手法である固有表現抽出の学習制約に適用することで,NIL言及が固有表現抽出器の学習に与える影響を軽減する.期待エンティティ率(ExpectedEntityRate;EER)とは,文章中における固有表現の言及を示すトークンの割合であり,不完全なデータセットから固有表現抽出器を学習するため,\citeA{effland-collins-2021-partially}により導入された.しかし,\citeA{effland-collins-2021-partially}は正しいラベルが付与された外部データセットから期待エンティティ率を測定した上で,不完全なデータセットに転用しており,言語やドメイン,固有表現クラスの定義が変わった場合には適用できないといった問題がある.本研究では既に付与されているWikipediaのリンクから,Wikipedia全体の期待エンティティ率を推定する手法を提案する.得られた推定値を\citeA{effland-collins-2021-partially}の手法に適用することでNIL言及によるラベル欠落の影響軽減を試みる.以下では,\ref{subsec:eer_expantion_notation}節で本節で用いる記号を定義したのち,\ref{subsec:eer_estimation}節で期待エンティティ率の推定手法,\ref{subsec:eer_ner_training}節で推定された期待エンティティ率を用いた固有表現抽出器の学習制約手法と深層学習モデル構造について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{記号の定義}\label{subsec:eer_expantion_notation}特に記述のない場合,使用する記号は\ref{subsec:link_expantion_notation}節から引き継ぐ.初めに,観測可能なリンク$S\cup\hat{S}_{(\overline{M}\rightarrowE)}$をエンティティごとに集計し行列$G$を得る.この時,行列の要素$G_{i,j}$はエンティティ$e_i$を説明する記事$a_i\in\mathcal{A}$から,エンティティ$e_j$へのリンク数を示している.ここで,エンティティ$e_j$を受け取り,$e_j$が他の記事から参照された回数である被リンク数を返す関数$f_\mathrm{in}$は以下の様に定義される.\begin{equation}f_\mathrm{in}(e_j)=\sum_{i\nej}^{|\mathcal{A}|}{G_{i,j}}\end{equation}この際,参照元と参照先が同じエンティティである自己リンク数$G_{i,i}$は特異であるため除き,エンティティ$e_i$の自己リンク数を求める関数$f_\mathrm{self}$として以下のように別途定義しておく.\begin{equation}f_\mathrm{self}(e_i)=G_{i,i}\end{equation}被リンク数が$k$であるエンティティ数を返す関数$f_\mathrm{count}(k)$を以下の様に定義する.\begin{equation}f_\mathrm{count}(k)=\sum_{e\inE}\mathbbm{1}(f_\mathrm{in}(e)=k)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{期待エンティティ率推定}\label{subsec:eer_estimation}期待エンティティ率$\rho$は,オラクルリンク集合のトークン数(オラクルトークン数)を集計し,Wikipediaの総トークン数で割ることで導出できる.\begin{gather}\rho=\frac{\sum_{(m,e)\inU}|m|}{\sum_{a\in\mathcal{A}}|a|}\end{gather}提案手法では,いくつかの仮定のもと,被リンク数ごとのエンティティ頻度の関係を関数近似することで,オラクルトークン数を推定する.推定したオラクルトークン数を用いることで,期待エンティティ率が導出可能となる.オラクルトークン数の推定のため,以下の仮定を置く.\paragraph{仮定1}被リンク数が多いエンティティはWikipediaドメイン内で有名であると考え,エンティティ$e$の被リンク数$f_\mathrm{in}(e)$を$e$の有名度として扱うことができるとする.\paragraph{仮定2}Wikipediaでは一定以上に有名なエンティティは記事として追加されていると考え,以下の式が成り立つとする.\begin{gather}\foralle\inE,f_\mathrm{in}(e)\geq\Tilde{k}\end{gather}有名度がある値$\Tilde{k}$以上のエンティティであれば,対応する記事が必ずWikipediaに存在することを意味する.言い換えると,有名度が$\Tilde{k}$以上の区間にNILエンティティ$e\in\overline{E}$が存在しないことを意味する.\paragraph{仮定3}被リンク数$k$のエンティティに紐づくリンクの平均言及長は,$k$のみに依存するとする.つまり,観測可能なリンク$S\cup\hat{S}_{(\overline{M}\rightarrowE)}$から,観測不可能なリンク$\hat{S}_{(\overline{M}\rightarrow\overline{E})}$における$k$ごとの平均言及長を予測できるとする.ある被リンク数$k$を受け取り,平均言及長を返す関数$f_\mathrm{m\_ave}(k)$を以下のように定義する.\begin{equation}f_\mathrm{m\_ave}(k)=\frac{\sum_{(m,e)\inS\cup\hat{S}_{(\overline{M}\rightarrowE)}}[\mathbbm{1}(f_\mathrm{in}(e)=k)\cdot|m|]}{k\cdotf_\mathrm{count}(k)}\end{equation}仮定のもと,被リンク数$k$のエンティティに紐づくオラクル言及トークン数は以下のように計算できる.\begin{gather}\sum_{f_\mathrm{in}(e)=k,(m,e)\inU}|m|=k\cdotf_\mathrm{count}(k)\cdotf_\mathrm{m\_ave}(k)\label{eq:言及トークン数}\end{gather}だが,オラクルリンク集合$U$はNILエンティティに関するリンクを含むため,一部が観測不可能である.しかし,仮定により,被リンク数$\Tilde{k}$以上の区間にはNILエンティティを指すリンクは含まれないことから,$\Tilde{k}$以上の区間では式\ref{eq:言及トークン数}によりオラクル言及トークン数を計算可能である.被リンク数$\Tilde{k}$未満の区間を扱うため,NILエンティティ集合$\overline{E}$を使用し,被リンク数が$k$のエンティティ頻度を返す関数$\dot{f}_\mathrm{count}(k)$を以下のように定義する.\begin{gather}\dot{f}_\mathrm{count}(k)=\sum_{e\inE\cup\overline{E}}\mathbbm{1}(f_\mathrm{in}(e)=k)\end{gather}関数$\dot{f}_\mathrm{count}(k)$を用いることで,被リンク数$\Tilde{k}$未満の区間における被リンク数$k$のオラクル言及トークン数を以下のように計算できる.\begin{gather}\sum_{f_\mathrm{in}(e)=k,(m,e)\inU}|m|=k\cdot\dot{f}_\mathrm{count}(k)\cdotf_\mathrm{m\_ave}(k)\end{gather}最終的なWikipedia全体のオラクルトークン数は,自己リンクのトークン数も考慮した上で,以下のように計算できる.\begin{gather}\sum_{(m,e)\inU}|m|=\sum^{\mathrm{max}(k)}_{k=\Tilde{k}}(k\cdotf_\mathrm{count}(k)\cdotf_\mathrm{m\_ave}(k))+\sum^{\Tilde{k}-1}_{k=1}(k\cdot\dot{f}_\mathrm{count}(k)\cdotf_\mathrm{m\_ave}(k))+\sum_{e\inE}f_\mathrm{self}(e)\label{eq:オラクルトークン推定}\end{gather}本研究では,$\Tilde{k}$以上の区間での関数$f_\mathrm{count}$の振る舞いを何らかの関数$\hat{f}_\mathrm{count}$で近似することで,$\Tilde{k}$未満での関数$\dot{f}_\mathrm{count}$の振る舞いを予測し,オラクルトークン数を推定する.関数$f_\mathrm{count}$は,被リンク数とその頻度の関係を表しているが,Wikipediaでは,この関係がZipfの法則に従うことが知られている\cite{voss05measuring}.\citeA{voss05measuring}は,各記事が持つリンク,無効なリンクに関してもZipf則に従うことを示している.Zipfの法則とは,単語の出現頻度とその順位の積が定数になることを示した経験則であり,言語にとどまらない様々な頻度関係がZipfの法則に従うことが知られている.Zipfの法則を一般化した累乗関数に,$k$と$k_\mathrm{count}$の関係を適用すると以下のようになる.\begin{equation}\hat{f}_\mathrm{count}(k)=\alpha\cdotk^{-\beta}\end{equation}非リンク数が30以上のエンティティは全てWikipediaに追加されているとし,$\Tilde{k}\geq30$の区間を調べたところ,リンク拡張を施したWikipediaにおいても被リンク数$k$と頻度$f_\mathrm{count}(k)$の関係がZipfの法則に当てはまることが確認された.実際に,$k=[30,1000]$の区間から非線形回帰を行ったところ,$\alpha=3516323.8,\beta=1.80$となった.実測値と近似した関数$\hat{f}_\mathrm{count}$のグラフを図\ref{fig:zipf}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{31-3ia14f3.pdf}\end{center}\hangcaption{被リンク数ごとのエンティティ頻度の関係とZipfの法則に基づく近似関数:被リンク数は10,000まで描画しており,点線は近似に使用した被リンク数の区間$[30,1000]$を示す.}\label{fig:zipf}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Zipfの法則に基づき近似した関数$\hat{f}_\mathrm{count}$を使用して,式\ref{eq:オラクルトークン推定}により期待エンティティ率を計算したところ,$\hat{\rho}=0.238$であった.本研究ではこの値を使用する.元々のWikipediaのリンクにおけるエンティティ率と,リンク拡張後のエンティティ率を調べたところ,それぞれ$\hat{\rho}_\mathrm{orig}=0.101$,$\hat{\rho}_\mathrm{ext}=0.209$であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3\subsection{固有表現抽出器学習}\label{subsec:eer_ner_training}本研究では,NIL言及の影響を軽減するため,期待エンティティ率による学習制約を適用する.学習制約には先行研究\cite{effland-collins-2021-partially}の手法を用いる.しかし,先行研究と本研究では対象とする問題設定が異なるため,固有表現抽出モデルと損失関数に対して修正を加える.具体的には,先行研究は言及に対して単一の固有表現クラスが付与されることを想定しているが,本研究は複数の固有表現クラスが付与される場合があるため直接適用できない.そのため,本研究では固有表現抽出を言及の検出と分類に分けて考えることで解決している.先行研究と本研究における固有表現抽出モデルと損失計算の概要を図\ref{fig:ner_model}に示す.以下では,初めに先行研究をタスク設計,モデル構造,制約手法に分けて解説した後,問題設定の違いについて述べ,本研究のモデル構造と損失関数を解説する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[t]\begin{center}\includegraphics{31-3ia14f4.pdf}\end{center}\caption{固有表現抽出モデルと損失計算工程:左は先行研究\protect\cite{effland-collins-2021-partially},右は本研究を示す.}\label{fig:ner_model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%先行研究では固有表現抽出を入力トークン列$X$に対してBILOU形式のタグ列$Y$を予測するタスクとして扱っている.\citeA{effland-collins-2021-partially}は,不完全ラベルから学習するため,BILOU形式のタグ集合$\mathcal{Y}=(\{\mathtt{B,I,L,U}\}\times\mathcal{C})\cup\{\mathtt{O}\}$に,ラベルが未知であることを示すタグ$\mathtt{UNK}$を加えたタグ集合$\mathcal{Y}_\mathcal{O}=\{\mathtt{UNK}\}\cup\mathcal{Y}$を用いている.ここで,$\mathcal{C}$は対象としている固有表現クラスの集合である.$\mathcal{Y}_\mathcal{O}$からなるタグ列を$Y_\mathcal{O}$と表す.先行研究ではモデルにBERT\cite{devlin-etal-2019-bert}とCRF\cite{crf-2001}を用いている.入力トークン列$$X=\{\mathtt{[CLS]},x_1,...,x_{l_\mathrm{n}},\mathtt{[SEP]}\}$$を受け取り,BERTにより得られた各トークンごとの埋め込みベクトル列$V_X=\{\boldsymbol{v}_x\}\in\mathbb{R}^{l_\mathrm{n}\timesd_\mathrm{emb}}$を出力する関数を$f_n$とする.\begin{gather}V_X=\mathrm{red}(f_\mathrm{n}(X))\end{gather}ここで,$l_\mathrm{n}$は入力シーケンス長,$d_\mathrm{emb}$は埋め込み次元である.また,$\mathrm{red}(\cdot)$は$f_\mathrm{n}$の出力ベクトル列から特殊トークン$\mathtt{[CLS]}$と$\mathtt{[SEP]}$に対するベクトルを除外する関数である.CRFは学習可能な重み$W=\{\boldsymbol{w}_y\}\in\mathbb{R}^{\mathcal{|Y|}\timesd_\mathrm{emb}}$と遷移スコア$T\in\mathbb{R}^{\mathcal{|Y|}\times\mathcal{|Y|}}$により構成され,以下の様に入力系列$X$に対するタグ列$Y$の予測確率$q(Y|X)$を出力する.\begin{gather}q(Y|X)=\frac{\mathrm{exp}\left(\sum_{i=1}^{l_\mathrm{n}-1}\phi(i,y_i,y_{i+1})+\phi(l_\mathrm{n},y_{l_\mathrm{n}})\right)}{Z(\phi)}\\Z(\phi)=\sum_{Y'\in\mathcal{Y}}\mathrm{exp}\left(\sum_{i=1}^{l_\mathrm{n}-1}\phi(i,y'_i,y'_{i+1})+\phi(l_\mathrm{n},y'_{l_\mathrm{n}})\right)\\\phi(i,y,y')=\phi(i,y)+T_{y,y'}\\\phi(i,y)=\boldsymbol{w}_y^\top\boldsymbol{v}_i\end{gather}ここで$Y'\in\mathcal{Y}$は,タグ集合$\mathcal{Y}$の順列により表現される全てのタグ遷移からタグ列$Y'$を順に取り出す操作を示す.先行研究における学習制約は損失関数により行われる.一般にCRFでは,トークン列$X$と固有表現タグ列$Y$のペアからなるバッチ$\mathcal{B}=\{(X,Y)\}$に対して,以下の損失関数により得られる誤差$\mathcal{L}_\mathrm{p}$を最小化することで学習を行う.\begin{gather}\mathcal{L}_\mathrm{p}=-\frac{1}{|\mathcal{B}|}\sum_{(X,Y)\in\mathcal{B}}\mathrm{log}\q(Y|X)\end{gather}先行研究では,バッチ$\mathcal{B}=\{(X,Y_\mathcal{O})\}$に対して誤差$\dot{\mathcal{L}}_\mathrm{eer}=\dot{\mathcal{L}}_\mathrm{p}+\dot{\mathcal{L}}_\mathrm{u}$を最小化することで学習制約を行う.$\dot{\mathcal{L}}_\mathrm{p}$はラベルが付与された範囲のみから学習を行う誤差で$\mathcal{L}_\mathrm{p}$を元に以下の損失関数により計算される.\begin{gather}\dot{\mathcal{L}}_\mathrm{p}=-\frac{1}{|\mathcal{B}|}\sum_d{(X,Y_\mathcal{O})\in\mathcal{B}}\mathrm{log}\q(Y_\mathcal{O}|X)\\\mathrm{log}\q(Y_\mathcal{O}|X)=\mathrm{log}\\sum_{Y'\modelsY_\mathcal{O}}q(Y'|X)\end{gather}ここで$Y'\modelsY_\mathcal{O}$は,タグ列$Y_\mathcal{O}$においてあり得る全てのタグ遷移からタグ列$Y'$を順に取り出す操作を示す.具体的には,実際のタグが未知であるタグ$\mathtt{UNK}$は$y\in\mathcal{Y}$のいずれでもあり得るとし,その全ての遷移を考慮する.$\dot{\mathcal{L}}_\mathrm{u}$は期待エンティティ率による制約を行う誤差で,以下の損失関数により計算される.\begin{gather}\dot{\mathcal{L}}_\mathrm{u}=\mathrm{max}(0,\mathrm{abs}(\hat{\rho}-\rho)-\gamma)\\\rho=-\frac{\sum_{(X,Y_\mathcal{O})\inB}\sum_{x\inX}\sum_{y\in\mathcal{Y}\backslash\{\mathrm{O}\}}q(y|x)}{\sum_{(X,Y_\mathcal{O})\inB}|X|}\end{gather}$\hat{\rho}$は\ref{subsec:eer_estimation}節で求められた期待エンティティ率,$\rho$はモデルの予測エンティティ率を示し,$\gamma$は,期待エンティティ率と本来のエンティティ率との差異を許容するマージンを示す.一般的な固有表現抽出タスクでは固有表現の言及に対して単一の固有表現クラスが割り当てられるため,CRFで扱うことは容易である.しかし,拡張固有表現階層では,言及に対して複数の固有表現クラスが割り当てられる場合があり,出力として単一のタグ列を想定するCRFで直接扱うことは難しい.そのため,本研究では図\ref{fig:ner_model}に示すように固有表現の言及検出と検出された言及の分類を分けて考える.言及検出は,入力トークン列$X$に対してBILOU形式のタグ列$Y$を予測するタスクとして解く.タグ集合は$\mathcal{Y}=\{\mathtt{B,I,L,O,U}\}$と,$\mathtt{UNK}$を追加した$\mathcal{Y}_\mathcal{O}=\{\mathtt{UNK}\}\cup\mathcal{Y}$である.この時,``名前''以下のカテゴリーが付与されていない,例えば``コンセプト''のみ付与された記事等へのリンクは$\mathtt{UNK}$ではなく,$\mathtt{O}$タグとして扱う.言及分類は言及区間の先頭トークンを各カテゴリーに分類する多ラベル分類タスクとして解く.言及検出と多ラベル分類を独立して解くために,トークンベクトル$\boldsymbol{v}_x\in\mathbb{R}^{d_\mathrm{emb}}$を$d_\mathrm{emb}/2$次元ずつに分割する.その後,線形層により再度$d_\mathrm{emb}$へと拡張し,言及検出用ベクトル$\boldsymbol{v}_x^\mathrm{det}\in\mathbb{R}^{d_\mathrm{emb}}$と,多ラベル分類用ベクトル$\boldsymbol{v}_x^\mathrm{bin}\in\mathbb{R}^{d_\mathrm{emb}}$を得る.\begin{gather}\boldsymbol{v}_x^\mathrm{det}=\mathrm{dropout}(\mathrm{tanh}(W_5^\mathsf{T}\boldsymbol{v}_{x[:d_\mathrm{emb}/2]}+\boldsymbol{b}_5))\\\boldsymbol{v}_x^\mathrm{bin}=\mathrm{dropout}(\mathrm{tanh}(W_6^\mathsf{T}\boldsymbol{v}_{x[d_\mathrm{emb}/2:]}+\boldsymbol{b}_6))\end{gather}ここで,$W_5\in\mathbb{R}^{d_{\mathrm{emb/2}}\timesd_\mathrm{emb}}$,$W_6\in\mathbb{R}^{d_{\mathrm{emb/2}}\timesd_\mathrm{emb}}$は線形層の重み行列,$\boldsymbol{b}_5\in\mathbb{R}^{d_\mathrm{emb}}$,$\boldsymbol{b}_6\in\mathbb{R}^{d_\mathrm{emb}}$は線形層のバイアスベクトルであり,学習可能なパラメーターである.言及検出は$\boldsymbol{v}_x$の代わりに$\boldsymbol{v}^\mathrm{det}_x$を入力とし,前述のCRFを適用する.言及分類では,各トークン$x$があるカテゴリー$c$に属する確率$q(c|x)$とカテゴリー集合$C_x$に属する確率$q(C_x|x)$はトークンベクトル$\boldsymbol{v}_x^\mathrm{bin}$を使用して次のように計算する.\begin{gather}\boldsymbol{h}_7=W_7^\mathsf{T}\boldsymbol{v}_x^\mathrm{bin}+\boldsymbol{b}_7\\q(c|x)=\frac{1}{1+e^{-h_{7,c}}}\\q(C_x|x)=\frac{\sum_{c\inC_x}\mathrm{exp}(h_{7,c})}{\sum_{c'\inC}\mathrm{exp}(h_{7,c'})}\end{gather}ここで,$W_7\in\mathbb{R}^{d_\mathrm{emb}\times|C|}$は線形層の重み行列,$\boldsymbol{b}_7\in\mathbb{R}^{|C|}$は線形層のバイアスベクトルであり,学習可能なパラメーターである.バッチ$\mathcal{B}$に含まれる言及集合を$M'$,言及の先頭トークンのみで構成されるトークン列を$X''=\{x|x=m_0,m\inM'\}$とし,各トークン$x$に付与されるカテゴリー集合を$C_x$とする.クラス分類では以下の誤差$\mathcal{L}_\mathrm{b}$と$\mathcal{L}_\mathrm{m}$を対象とする.\begin{gather}\mathcal{L}_\mathrm{b}=-\frac{1}{|X''|}\sum_{x\inX''}w_c\cdot\{p(c|x)\cdot\mathrm{log}\q(c|x)+(1-p(c|x))\cdot\mathrm{log}(1-q(c|x))\}\label{eq:loss_b}\\p(c|x)=\mathbbm{1}(c\inC_x)\\\mathcal{L}_\mathrm{m}=-\frac{1}{|X''|}\sum_{x\inX''}\mathrm{log}(q(C_x|x))\label{eq:loss_m}\end{gather}ここで,$w_c$は各カテゴリー$c$ごとの重みであり,ロングテールなカテゴリー分布に対処するために導入される.$w_c$は学習データ全体におけるカテゴリー$c$の出現数を求める関数$\mathrm{count}(c)$を用いて以下の様に計算される.\begin{gather}w_c=\frac{\underset{c'\inC}{\operatorname{max}}\\mathrm{count}(c')}{\mathrm{count}(c)}\end{gather}固有表現クラスに拡張固有表現階層を用いる場合,各言及$m$の先頭トークン$x$に対して1つ以上のカテゴリーが必ず付与される.最終的な予測カテゴリー$\hat{C}_x$は次のように得る.\begin{gather}\hat{C}_x=\left\{\begin{array}{ll}\underset{c\inC}{\{\operatorname{argmax}}\p(c|x)\}&(\mathrm{bin}(x)=\{\phi\})\\\mathrm{bin}(x)&(\mathrm{bin}(x)\neq\{\phi\})\end{array}\right.\\\mathrm{bin}(x)=\{c|p(c|x)\geq0.5,c\inC\}\end{gather}最終的なモデルの学習は以下の誤差$\mathcal{L}_\mathrm{eer}$の最小化により行われる.\begin{gather}\mathcal{L}_\mathrm{eer}=\lambda_\mathrm{p}\dot{\mathcal{L}}_\mathrm{p}+\lambda_\mathrm{u}\dot{\mathcal{L}}_\mathrm{u}+\mathcal{L}_\mathrm{b}+\mathcal{L}_\mathrm{m}\label{eq:loss_eer}\end{gather}$\lambda_\mathrm{u}$は先行研究でも使用される期待エンティティ率の制約を調節する重みである.トークンレベルの確率の負の対数尤度$\mathcal{L}_\mathrm{b},\mathcal{L}_\mathrm{m}$と比較して,トークン列レベルの確率の負の対数尤度$\mathcal{L}_\mathrm{p},\dot{\mathcal{L}}_\mathrm{p}$は非常に大きな値を取る.これらのバランスの調節に,本研究では重み$\lambda_\mathrm{p}<1$も導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{実験} \label{sec:experiments}本節では,実際に日本語Wikipediaから固有表現抽出器を学習し評価するための,様々な設定について説明する.以下では,\ref{subsec:eval_dataset}節で評価用データセットの構築について,\ref{subsec:experiment_model}節で本実験で用いる深層学習モデルについて,続く\ref{subsec:experiment_link}節と\ref{subsec:experiment_method}節でそれぞれリンク拡張手法,固有表現抽出器学習手法の実験設定について記述する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{評価データセット}\label{subsec:eval_dataset}日本語拡張固有表現抽出器の評価を行うべく,評価セットを構築した.拡張固有表現階層を固有表現クラスとして採用した評価セットとして拡張固有表現タグ付きコーパス\cite{ene-ner-2008}が存在するが,採用している階層定義が古く,本研究で使用する最新の定義と互換性が低いため,直接転用することは難しい.本研究では,ウェブ上で自由に編集と閲覧が可能なニュースサイトである日本語版Wikinewsの記事に対して人手でラベルを付与することで評価セットを構築した.WikinewsはライセンスにCCBY2.5を採用しており,有償の文章を対象とする前述のコーパスとは異なり,無償で配布可能であるといった利点がある.利点を活かすべく,本研究では評価データを無償公開している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5%%%%%\renewcommand{\tabularxcolumn}[1]{m{#1}}\begin{table}[b]\input{14table05.tex}\caption{Wikinewsカテゴリー一覧}\label{table:wikinews_categories}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Wikinewsでは各記事に対して階層構造を持つカテゴリーが付与されている.表\ref{table:wikinews_categories}に日本語Wikinewsのトップカテゴリーとサブカテゴリーの一覧を示す.評価セットには,幅広い文章が含まれていることが望ましいので,各サブカテゴリーに属する記事から2件ずつサンプリングした.Wikinewsではトップカテゴリーを跨いで複数のサブカテゴリーを付与することが許可されており,通常のサンプリングを行った場合,例えば訃報といった記事数の多いサブカテゴリーに偏る可能性がある.従って,本研究ではサンプリングの際に単一のサブカテゴリーに属する記事を優先的に選択した.ラベル付けは,拡張固有表現階層の定義書を参考に行った.しかし,定義書は主にWikipedia記事を固有表現カテゴリーに分類するために定義されており,固有表現抽出に対しては十分ではない.それゆえ,以下の新たな定義を導入した.\begin{enumerate}\item言及範囲が曖昧な場合全体が固有名として認められるかどうかを考慮し決定する.例えば「東京五輪」は全体が固有名として認められるため,まとめて``競技会名''が付与されるが,対象的に「日本代表」は全体が固有名として認められず「日本」のみに``国名''が付与される.\item固有表現に対して複数のカテゴリーが考えられる場合は最も文脈に合致するカテゴリーのみを選択する.優劣が付けられない場合のみ,複数のカテゴリー付与が認められる.\item文脈から判断されるカテゴリーと固有名が持つカテゴリーの両方が考えられる場合は固有名として新しく定義されているかを考慮し決定する.例えば,野球における日本代表が「侍ジャパン」として表記されている場合は新規に固有名として定義されているため``競技団体名''が付与されるが,「日本」として表記されている場合は新規に固有名として定義されているとはいえず,元々の固有名が持つ``国名''が付与される.\end{enumerate}ラベル付けは,拡張固有表現階層を熟知している必要がある.従って,\ref{subsubsec:wiki_cls_data}節で説明した拡張固有表現階層の分類データ作成に携わっているメンバーにラベル付けを依頼した.作業は,各記事に対して2人割り当て,片方が記事全体に対してラベル付けを行った後,片方が確認を行う形で進めた.ラベル付けを行った結果,198件の記事に対して5,984個の固有表現ラベルが付与された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{深層学習モデル}\label{subsec:experiment_model}本研究では全ての実験で同一のBERT-baseとCRFを使用する.baseサイズでは,全ての埋め込み次元は$d_\mathrm{emb}=756$となる.BERTは,RoBERTa\cite{liu2020roberta}と同様の手法で,日本語Wikipediaを使用して事前学習を行う.トークナイザーにはMeCabのPythonラッパーであるjanomeとBPEを使用する.BPEは日本語Wikipediaからマージ数10,000で学習する.BERTの語彙数は24,000とする.学習時のバッチサイズは1,024とし,最適化関数にはAdamを使用する.学習率は$4.0\times10^{-4}$,その他のパラメーターは$\epsilon=1.0\times10^{-6}$,$\beta_1=0.9$,$\beta_2=0.98$を使用し,パラメーターの更新回数は500,000回とする.学習は,fairseq\footnote{\url{https://github.com/facebookresearch/fairseq}}を使用して行う.事前学習済みBERTは別途公開\footnote{\url{https://github.com/k141303/liat_ml_roberta}}している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3\subsection{リンク拡張手法の実験設定}\label{subsec:experiment_link}本研究では深層学習によるリンク拡張を用いて固有表現抽出データセットの構築を行う.提案手法の比較対象として,リンク拡張を使用しないベースラインと表層マッチによるリンク拡張を実装する.以下に,表層マッチと提案手法の実験設定について明記する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3.1\subsubsection{表層マッチ}\label{subsubsec:experiment_link_surf}省略されたリンクを表層マッチにより補完することで,固有表現抽出データセットを作成する.表層マッチを行うために,\ref{subsubsec:wikipedia_prepro}節で説明したWikipediaのタイトルとリダイレクト辞書,エイリアス辞書を使用する.この際,エイリアスはノイズを含む場合があるため,2回以上使用されたエイリアスのみエイリアス辞書に追加する.日本語では人名が苗字もしくは名前のみといったように省略表記される場合がある.そのため,次のようにエイリアス辞書の拡張を試みる.Wikipediaでは人名記事の場合,「木村拓哉」のように記事の先頭に姓名が空白で分割され表記される.これらをエイリアス辞書に追加することで拡張を行い省略表記に対処する.リンク省略は多くの場合,既にリンクしたエンティティに関するリンクの省略により発生する.誤ったマッチによるノイズを軽減するため,リンク拡張の対象は文章中で既にリンクされているエンティティのみとし,リンク以後の文脈に対してマッチを行う.この場合,「日本」などの周知のエンティティを指す言及のリンク省略に対処できないため,Stroblら\cite{strobl-etal-2020-wexea}を参考に,被リンク数の多い記事上位1,000件のタイトル,リダイレクト,エイリアスを特例として全ての記事でマッチ対象とする.優先順位は,(1)記事内リンクのタイトルとリダイレクト,(2)記事内リンクのエイリアス,(3)上位記事のタイトルとリダイレクト,(4)上位記事のエイリアスとする.表層マッチによる候補の衝突は,優先順位が高い候補を採用し,同順位の場合は最長一致の候補を採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3.2\subsubsection{提案手法}リンク拡張に使用するトークンエンコーダー$f_\mathrm{t}$とエンティティエンコーダー$f_\mathrm{e}$にはそれぞれ個別のBERTを用いる.トークンエンコーダーの入力長は$l_\mathrm{t}=256$,エンティティエンコーダーの入力長は$l_\mathrm{e}=128$とする.符号器と修正器で用いる線形層の次元にはそれぞれ$d_\mathrm{match}=d_\mathrm{emb}\times2$,$d_\mathrm{modif}=d_\mathrm{emb}$を用いる.学習時のバッチサイズは160とし,コサイン類似度のスケール変数は$\alpha=32$とする.最適化関数にはAdamを使用し,学習率は$5.0\times10^{-5}$,その他のパラメーターは$\epsilon=1.0\times10^{-8}$,$\beta_1=0.9$,$\beta_2=0.999$を使用する.パラメーターの更新は学習データ3周分行う.ハードサンプリングを行うためには全エンティティの埋め込みが必要であるが,各ステップにおいて全エンティティのエンコードを行うことは計算コストの点から現実的ではない.そのため基本的にはステップごとのエンコードを行わず,エンティティ埋め込みには事前に計算したキャッシュが用いられる.本研究ではキャッシュの更新頻度は500ステップとする.また,学習初期はハードサンプリングを用いる必要がないため,4,000ステップ以降に開始する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4\subsection{固有表現抽出器学習手法の実験設定}\label{subsec:experiment_method}本研究ではNIL言及によりラベルが欠落したデータセットから学習するため,期待エンティティ率の推定を行いその推定値を用いてモデルを学習する.比較手法として,通常の学習を行うベースラインと自己学習,ノイズ分離の実装を行う.モデルはBERT-base\cite{devlin-etal-2019-bert}とCRF\cite{crf-2001}を使用する.特に明示しない場合モデルの入力長は$l_\mathrm{n}=512$とする.学習に期待エンティティ率を使用しない場合,モデルの学習は誤差$\mathcal{L}_\mathrm{crf}$を最小化することで行われる.\begin{gather}\mathcal{L}_\mathrm{crf}=\lambda_\mathrm{p}\mathcal{L}_\mathrm{p}+\mathcal{L}_\mathrm{b}+\mathcal{L}_\mathrm{m}\end{gather}全ての実験で,$\lambda_\mathrm{p}=0.1$を用いる.以下では,自己学習,ノイズ分離の解説を行ったのち,提案手法の実験設定について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.1\subsubsection{自己学習}自己学習は,学習済みのモデルの予測を活用して再度モデルを学習する手法である.研究では,Tedeschiら\cite{tedeschi-etal-2021-wikineural,tedeschi-navigli-2022-multinerd}の手法を参考に実装する.この手法では,モデルの予測を用いて繰り返しデータセットを修正することでラベルの欠落に対処する.手法の流れをアルゴリズム\ref{alg:self_training}に示す.2行目と7行目はデータセットから重複なくランダムにサブセットを抽出する操作を示す.3行目,8行目$\mathrm{train}(\cdot)$は,サブセットを受け取り学習済みモデルを返す関数である.7行目$\mathrm{modify}(\cdot)$は,学習済みモデルとサブセットを受け取り,ラベル補完とフィルタリングを適用した修正済みサブセットを返す関数である.ラベル補完は,元のデータにない固有表現がモデルの予測に含まれた場合に適用される.その場合はラベルの欠落があったとして,データにラベルを追加する.フィルタリングは,元データに存在する固有表現がモデルの予測に含まれなかった場合に適用される.その場合は,元データが誤っているとして,特定の範囲を修正後のサブセットから除外する.先行研究ではフィルタリングを文章中の文単位に適用しているが,計算コストが膨大になることから,本研究ではモデルの入力長を128トークンとし,入力全体をフィルタリング範囲とする.本実験では,全体の学習回数を5回とし,$n/5$件のデータが各ステップでサンプリングされる.モデルはベースラインと同様に事前学習済みBERTとCRFを用いる.最適化関数にはAdamを使用し,学習率は$3.0\times10^{-5}$,その他のパラメーターは$\epsilon=1.0\times10^{-6}$,$\beta_1=0.9$,$\beta_2=0.999$を使用する.バッチサイズは800とし,各ステップの学習は10エポック行う.この際,開発データでの評価値が最良のモデルを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Al1\makeatletter\renewcommand{\ALG@name}{アルゴリズム}\makeatother%%%%%\begin{figure}[!t]\begin{algorithm}[t]\input{14algo01.tex}\caption{~自己学習}\label{alg:self_training}\end{algorithm}%%%%%\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.2\subsubsection{ノイズ分離}ノイズ分離は,データセットにおけるノイズや欠落の少ない信頼できるサブセットを推定し,モデルの学習を行う手法である.本研究では,ラベル精度と文章中のラベルカバー率を用いてサブセットを推定する\citeA{cao-etal-2019-low}の手法を参考に実装する.本手法はWikipediaのカテゴリー情報を用いて各記事を半自動的に固有表現クラスに分類しており,その過程で多くの分類誤りが含まれる可能性がある.そのため,結果としてデータセットに誤った固有表現ラベルが含まれることとなる.そのため,彼らはラベルの精度として,言及中のトークン$x$がある固有表現クラス$y$に属する確率$p(y|x)$を導入している.しかし,本研究では多くの記事は人手により分類されており分類誤りに起因するラベルノイズが少ないことからラベル精度は用いず,ラベルカバー率のみを用いてサブセットを推定する.ラベルカバー率$\xi$は,ラベルが多く付与されているデータはラベル欠落が少なく信頼性が高いと考えられるため導入されており,ラベルが未知であることを示す$\mathtt{UNK}$タグを含むラベル列$Y_\mathcal{O}$から以下のように求められる.\begin{gather}\xi=\frac{\sum_{y\inY_\mathcal{O}}\mathbbm{1}(y\neq\mathtt{UNK})}{|Y_\mathcal{O}|}\end{gather}Caoらは2段階の学習を採用しており,初めに信頼性の低いサブセットを用いてラベルが付与された範囲のみからモデルを事前学習した後,信頼性の高いサブセットでモデルを再学習している.本研究では$\xi$をデータ信頼性として考え,信頼性の低い9割のデータを事前学習に,残りの1割のデータを通常学習に使用する.事前学習では,式\ref{eq:loss_eer}から$\dot{\mathcal{L}}_\mathrm{u}$の項を除いた誤差を最小化する.最適化関数にはAdamを使用し,学習率は$3.0\times10^{-5}$,その他のパラメーターは$\epsilon=1.0\times10^{-6}$,$\beta_1=0.9$,$\beta_2=0.999$を使用する.バッチサイズは400とし,各学習は10エポック行う.この際,開発データでの評価値が最良のモデルを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.4.3\subsubsection{提案手法}期待エンティティ率による制約を調節する重みは,先行研究\cite{effland-collins-2021-partially}において経験的に検証された値である$\lambda_u=10$を用いる.推定された期待エンティティ率に対して,より厳密な制約をかけるため,本来のエンティティ率との差を許容するためのマージン用変数$\gamma$は用いない.つまり,$\gamma=0.0$とする.最適化関数にはAdamを使用し,学習率は$3.0\times10^{-5}$,その他のパラメーターは$\epsilon=1.0\times10^{-6}$,$\beta_1=0.9$,$\beta_2=0.999$を使用する.バッチサイズは400とし,学習は10エポック行う.この際,開発データでの評価値が最良のモデルを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{結果} \label{sec:experiment_results}本節では,提案手法や比較手法の評価とその考察を行う.以下では,\ref{subsubsec:nomal_eval}節で評価データ全体に対する評価と考察を行ったのち,更なる比較のため\ref{subsubsec:hierarcal_eval}節と\ref{subsubsec:category_eval}節では拡張固有表現の階層ごととカテゴリーごと,\ref{subsubsec:domain_eval}節では評価データのドメインごとに評価し考察を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.1\subsection{全体評価}\label{subsubsec:nomal_eval}リンク拡張手法と学習手法はそれぞれ独立して使用することができるため,全ての組み合わせで学習と評価を行う.Wikinewsデータセットでの評価結果を表\ref{table:score_table}に示す.ここで,評価値はマイクロ平均F1であり,精度(P)と再現率(R)も併記している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{14table06.tex}\caption{Wikinewsデータセットにおける固有表現抽出評価結果[\%]}\label{table:score_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:score_table}より,深層学習によるリンク拡張手法と,期待エンティティ率(EER)の推定による学習手法を組み合わせた場合の評価値が最も高く,提案手法の優位性が見て取れる.学習手法をEER推定に固定し,深層学習による拡張を拡張無しと比較すると評価値が15.7ポイント向上しており,ノイズの少ないリンク拡張が実現できていることが分かる.リンク拡張手法を深層学習に固定し,EER推定をベースラインと比較すると評価値が3.2ポイント向上しており,リンク拡張手法で補完できなかったリンクの影響を学習手法により軽減できていることがわかる.自己学習もベースラインと比較して評価値で1.2ポイントの向上を得ているが,EER推定の向上には及ばない.また,自己学習は学習と予測を繰り返すため計算コストが高く,特に今回のように大規模なコーパスを用いる場合は,計算コストの面でもEER推定の方が優位である.表層マッチを拡張無しと比較した場合,全体的に再現率の向上は見られるものの精度が大幅に低下しており,ベースライン以外の学習手法との組み合わせにおいて評価値が低下している.これは,周辺文章を無視した表層文字列のみでのリンク拡張が誤ったラベルを多く生成しており,後続の学習手法へ大きな負の影響を与えているためと考えられる.ノイズ分離は,表層マッチと組み合わせた場合に他の学習手法と比較して最も良い評価値であるが,深層学習による拡張と組み合わせた場合は最も低い評価値となっている.これは,手法自体にノイズ耐性があることを示しているが,深層学習によるリンク拡張で得られるようなノイズの少ないデータセットを対象とした場合は性能を発揮できないことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.2\subsection{階層別評価}\label{subsubsec:hierarcal_eval}拡張固有表現階層はその名の通り階層構造を持っており,本研究では末端のカテゴリーを固有表現クラスとして採用している.末端カテゴリーから上位のカテゴリーを辿ることが可能なため,実用時に詳細なカテゴリー分類が必要ない場合,固有表現抽出器の予測を上位のカテゴリーに集約して使用することが可能である.例えば末端カテゴリーの一つである``都道府県郡州名''カテゴリーは``名前''\verb|>|``地名''\verb|>|``GPE''\verb|>|``都道府県郡州名''のように上位カテゴリーを持ち,2階層目のカテゴリーを用いる場合は``地名''に集約することができる.実際に上位階層のカテゴリーに集約した場合の性能を評価するため,本節では階層別の評価を行う.末端カテゴリーは4階層目まであり,より上位の1,2,3階層目における評価を行った結果を表\ref{table:level_score}に示す\footnote{4階層目での評価は表\ref{table:score_table}の通常評価と同じであるためそちらを参照する.}.階層が上位であるほどカテゴリーは抽象的になり,分類対象のカテゴリー数が減るため解くべき問題は容易になる.また,1階層目では根ノードである``名前''カテゴリーに全て集約されるため,言及分類の必要がなく,言及検出のみの評価となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{14table07.tex}\caption{Wikinewsデータセットにおける階層別固有表現抽出評価結果}\label{table:level_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法同士の組み合わせは他の組み合わせと比較していずれの階層でも最良の評価値を保持しており,提案手法の一貫した優位性が表れている.提案手法同士の組み合わせに着目すると,1階層目での評価値は76.7\%,4階層目の評価値は67.3\%であり,その差分は9.4ポイントである.本差分は末端階層までの言及誤分類による評価値の低下を示している.評価値は1階層目と2階層目の間の区間で4.5ポイント,2階層目と3階層目の間で3.5ポイント,3階層目と4階層目の間で1.4ポイント低下している.これらの言及誤分類に関しては\ref{subsec:analy_classification_error}節で分析する.また,1階層目での提案手法の再現率は73.6\%である.つまり,全ての固有表現のうち73.6\%を検出できており,残りの26.4\%が言及検出漏れとなる.この言及検出漏れに関しては\ref{subsec:analy_detection_error}節で分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.3\subsection{カテゴリー別評価}\label{subsubsec:category_eval}本節では,カテゴリー別に手法を評価する.評価は2階層目のカテゴリーを対象とし,マイクロ平均F1を算出する.この際,\ref{subsubsec:hierarcal_eval}節の階層別評価とは異なり上位カテゴリーへの置き換えは行わない.評価値を表\ref{table:category_score_table}に示す.評価データ頻度は各カテゴリーに属する固有表現が評価データに出現した回数を示す.``名前_その他'',``色名''カテゴリーは評価データに出現しないため省略されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{14table08.tex}\hangcaption{Wikinewsデータセットにおけるカテゴリー別固有表現抽出評価結果[\%]:各評価値はマイクロ平均F1を示す.}\label{table:category_score_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法同士の組み合わせは,``組織名'',``プロダクト名''において最も優れた性能を示している.また,``地名''や``組織名''も最良の組み合わせと同等の性能である.これらのカテゴリーでは特に提案手法を用いる意義があると言える.リンク拡張手法に着目すると,表層マッチは\mbox{``人名''},``生物呼称名'',``病気名''において深層学習による拡張より優れている.これらのカテゴリーの固有表現は表層文字列が特異的であると考えられ,表層マッチ時に正しいラベルのみを特定しやすいため優れた結果となっていると推測される.しかし,``人名''の場合は,表層マッチは姓名分割といった言語依存の処理を使用しているため,言語非依存に処理を行う提案手法より有利であることに注意する必要がある.上記のカテゴリー以外では,表層マッチは深層学習による拡張より大きく劣っていることから,表層文字列といった言語依存特徴に強く依存する手法の限界が見える.また,拡張無しは,``神名''において深層学習による拡張より優れているが,評価データに十分な量のラベルが存在しないため評価が難しい.学習手法に着目すると,EER推定は``イベント名'',``自然物名'',``病気名''でその他の学習手法より劣っている.これらのカテゴリーは,\ref{subsec:analy_train_dist}節で学習データにおける頻度的な視点から分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.4\subsection{ドメイン別評価}\label{subsubsec:domain_eval}本節では,表\ref{table:wikinews_categories}に示すWikinewsのトップカテゴリーをドメインとして扱いドメイン別評価を実施する.評価結果を表\ref{table:domain_score_table}に示す.各評価値は,その他の実験と同様にマイクロF1平均である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{14table09.tex}\caption{Wikinewsデータセットにおけるドメイン別評価結果[\%]:各評価値はマイクロ平均F1を示す.}\label{table:domain_score_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:domain_score_table}よりいずれのドメインにおいても提案手法同士の組み合わせが最良値を得ており,提案手法の優位性が伺える.特に気象や学術,政治において評価値が高く,構築された固有表現抽出器はこのような専門性の高いドメインで特に活用できる可能性がある.対照的に社会やスポーツ,ひとといったドメインでは評価値が低いが,これは\ref{subsec:analy_detection_error}節で分析する``地位職業名''や``称号名_その他'',``人名''カテゴリーにおける言及検出漏れに関連している.最良値の次に良い値と比較した場合,政治カテゴリーでは評価値が7.1ポイント向上,文化カテゴリーでは評価値が3.0ポイント向上しており,特に提案手法を用いる意義があると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8 \section{分析} \label{sec:experiment_analy}本章ではより詳細な提案手法の分析を行う.以下では,\ref{subsec:リンク拡張}節で拡張されたリンクに関して,\ref{subsec:analy_eer}節で任意の期待エンティティ率を使用した場合の評価値の推移に関して,\ref{subsec:analy_classification_error}節で提案手法により言及を拡張固有表現階層に分類する際の誤りに関して,\ref{subsec:analy_detection_error}節で提案手法における言及の検出漏れに関して,\ref{subsec:analy_train_dist}節で評価値と学習データのラベル頻度の関係に関して分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.1\subsection{リンク拡張手法}\label{subsec:リンク拡張}本小節ではリンク拡張手法の分析を行う.分析のため,拡張したリンクから100件をランダムにサンプリングし人手で評価を行った.結果を表\ref{table:リンク人手評価}に示す.各手法によるリンク拡張後のエンティティ率も併記している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[t]\input{14table10.tex}\hangcaption{リンク拡張人手評価結果とエンティティ率:リンク精度は検出範囲と紐づくエンティティが正しいリンクの割合,固有表現クラス精度は検出範囲と紐づくエンティティの固有表現クラスが正しいリンクの割合を示す.}\label{table:リンク人手評価}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:リンク人手評価}より,提案手法は非常に高い精度でリンクを拡張できていることが分かる.固有表現クラス精度は91.0\%であり,非常に高い精度で固有表現抽出器の学習データを生成できていることがわかる.誤りを分析したところ,マイナーなエンティティがWikipediaに存在しない場合に,拡大解釈されたエンティティが紐づけられる例が目立った.例えば,「交通アクセス:岐阜バス「岐阜保健短大」バス停留所で下車」の「岐阜保健短大」はバス停を示すエンティティだが,短期大学を示すエンティティ『岐阜保健短期大学』に紐づいている.また,「1929年・『汗』:監督内田吐夢」の「汗」は映画を示すエンティティだが,哺乳類の分泌液を示す『汗』に紐づいている.本問題の解決のため,より厳密な符号器を考案する必要がある.表\ref{table:リンク人手評価}より,表層マッチのリンク精度が非常に低いことがわかる.誤りを分析したところ,「1978年4月録音」の「月」が衛星を示す『月』に紐づく,「1984年4月23日-」の「日」が国を示す『日本』に紐づく,短い固有名による誤りが特に目立った.これらは品詞情報を用いることで改善できるが,品詞解析には言語依存のツールが必要である.エンティティ率を見ると,表層マッチは提案手法よりも多くのリンクを拡張している.だが,誤ったリンクを含まないエンティティ率をリンク精度から推測すると表層マッチは0.131であり,これは提案手法の0.194よりもかなり低い数値である.提案手法は,表層マッチよりも高い精度で,より多くの正しいリンクを拡張できることが示されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.2\subsection{期待エンティティ率の影響}\label{subsec:analy_eer}本研究では,Wikipediaの被リンク数を活用してデータセットの期待エンティティ率を推定し,先行手法\cite{effland-collins-2021-partially}を用いて学習中に制約をかけることでNIL言及の影響軽減を試みている.本推定値の妥当性を確認するため,期待エンティティ率を手動で操作し,先行手法を適用した場合の結果について調査する.期待エンティティ率$\hat{\rho}$を$\{0.05,0.10,0.15,0.20,0.25,0.30\}$のいずれかの数値に設定し学習を行った結果を表\ref{table:change_eer}に示す\footnote{入力にエンティティが含まれない状況は想定していないため$\rho=0.0$は実験していない.}.実験で得られた推定値$\hat{\rho}=0.238$を使用した結果も表記している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[t]\input{14table11.tex}\hangcaption{提案手法における期待エンティティ率を変化させた場合の評価値の推移[\%]:下線は実験で用いた推定値を示す.}\label{table:change_eer}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:change_eer}より,最良値は$\hat{\rho}=0.2$を用いた場合であるものの,提案手法による推定値$\hat{\rho}=0.238$以下で評価値に大きな差はなく,推定値より大きい場合に大きく評価値が下がり始めていることが分かる.先行研究\cite{effland-collins-2021-partially}でも,オラクルエンティティ率\footnote{正解データから計測された値.}以下の値を用いれば性能がほぼ変わらないことが報告されている.本実験でも同様の現象が起きていることから,推定した期待エンティティ率の妥当性は高いと考えられる.しかし,得られた結果からはエンティティ率推定による性能向上は得られない可能性が示唆されている.推定値の有効性を示すためには,制約手法におけるハイパーパラメーターの妥当性の検証や,新たな制約手法を考案する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[t]\input{14table12.tex}\caption{提案手法予測の混同行列:0の場合はハイフン(---)で示し,対角成分には下線を付与している.}\label{table:confusion_matrix}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.3\subsection{言及誤分類}\label{subsec:analy_classification_error}本節では,検出した固有表現の言及を拡張固有表現階層のカテゴリーに分類する際に発生した誤りを分析する.2階層目のカテゴリーにおける誤分類のみの混同行列を表\ref{table:confusion_matrix}に示す.通常の混同行列と異なり,対角成分は3階層目以降で分類を誤った固有表現の総数のみを表す.分類だけに着目し分析するため,表には1階層目時点で誤っている,つまり言及検出の時点で誤っている固有表現の予測は含まない.詳細な分析のため,2階層目で発生した誤分類の例を表\ref{table:level_2_example},3階層目以降で発生した誤分類の例を表\ref{table:level_3_4_example}に示す.それぞれ表\ref{table:confusion_matrix}における誤分類の多い上位3カテゴリーを対象に,上位3つの例を表示している.誤分類の発生した表層文字列の例も上位3件まで示している.以下に,上記に対する分析により判明した誤分類の原因を5件示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[t]\input{14table13.tex}\caption{2階層目における分類誤り例:表層文字列例には上位3件を表記し,括弧内はその件数を示す.}\label{table:level_2_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T14\begin{table}[t]\input{14table14.tex}\caption{3階層目以下における分類誤り例:表記は表\ref{table:level_2_example}に従う.}\label{table:level_3_4_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{周辺文脈の情報の少なさに起因}表\ref{table:level_2_example}上段では,モデルがメディア運営組織をメディア自体として誤って解釈したことにより誤分類が発生している.表\ref{table:level_2_example}中段はその反対である.表層文字例に示されるようなエンティティはメディアとメディア運営組織の両方の特性を持つ場合が多く,周辺文脈からそのどちらであるか推定できない場合に誤分類が発生している.評価データをウェブニュース記事から作成している都合上,出典元としてこれらエンティティが出現する場合が多いため,その総数が多くなっている.\paragraph{固有表現抽出ラベル付け定義と学習特徴間の齟齬に起因}\ref{table:level_2_example}の下段より,全体として``国名''や``市区町村名''が``競技団体名''として扱われている例が目立つ.本誤分類は\ref{subsec:analy_classification_error}節で導入した固有表現抽出ラベル付け定義の(3)をモデルが考慮できていないため発生している.\paragraph{類似した文脈特徴に起因}表\ref{table:level_3_4_example}上段より,``プロダクト名''以下では「ウィキペディア」,「ウィキニュース」といった言及を``サービス名''に誤分類している.ここで,Wikipedia分類データ中の対応するエンティティを調べたところ,それぞれに``サービス名''カテゴリーは付与されていないことが分かった.評価データにおける対象言及の周辺文脈が,学習データ中の``サービス名''の言及が登場する周辺文脈と類似していたため誤分類が発生した可能性がある.同様に,表\ref{table:level_3_4_example}下段の「Vリーグ」もWikipedia分類データにおいて``競技連盟名''カテゴリーは付与されていない.これらの誤分類は,エンティティリンキング等を用いて再度エンティティに紐づく固有表現カテゴリーを参照することで解決できる可能性がある.\paragraph{Wikipedia分類データ自体の誤りに起因}表\ref{table:level_3_4_example}中段の誤分類に着目すると,「島根県」,「アテネ」,「広島県」,「北海道」といった有名な固有名の誤分類が目立つ.Wikipedia分類データを調べたところ,前者3つには``市区町村名''が,後者には``島名''が付与されており,これらは全て``都道府県郡州名''が正しいためWikipedia分類データ自体が誤っている.「ダーバン」も``市区町村名''カテゴリーが付与されているが,正しくは``地名_その他''である.また,表\ref{table:level_3_4_example}下段の「日本赤十字社」,「AP通信」,「全国農業協同組合連合会」も``企業名''が付与されているが,正しくは``非営利団体名''である.\paragraph{固有名に対する知識不足に起因}表\ref{table:level_3_4_example}中段では,``地名_その他''を正解とする「長滝」や「浅内」といった言及が誤って``市区町村名''に分類されている.``市区町村名''と``地名_その他''はその区画に向けた行政組織が存在するかどうかで区別されるが,文脈で判断することが難しい.評価時は,学習時に獲得したエンティティの知識を用いて分類することになるが,これらのエンティティはWikipediaに専用記事が存在せず,誤分類に繋がっている.表\ref{table:level_3_4_example}下段の「チベット亡命政府」も``政府組織名''と``政治的組織名_その他''のどちらに属するかは国家の政府であるかどうかにより決定されるが,チベット亡命政府に対するWikipediaの専用記事がないため情報が少なく誤分類が発生している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.4\subsection{言及検出漏れ}\label{subsec:analy_detection_error}\ref{subsubsec:hierarcal_eval}節の階層別評価において,26.4\%の言及検出漏れが発生していることが判明した.より詳細な分析のため,言及検出漏れが発生しているカテゴリーを集計し,上位10件を表\ref{table:detection_error}に示す.以下に,上記に対する分析により判明した検出漏れの原因を4件示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T15\begin{table}[b]\input{14table15.tex}\caption{提案手法における言及検出漏れ例:上位5カテゴリーを表示している.表記は表\ref{table:level_2_example}に従う.}\label{table:detection_error}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{リンク表層文字列による誤学習に起因}表\ref{table:detection_error}より``地位職業名''カテゴリーでは,特に表層文字列が「選手」の場合に多く検出漏れが発生している.Wikipedia分類を調べたところ「選手」には``地位職業名''カテゴリーが付与されており問題はない.実際の予測結果を調べたところ「〇〇選手」のように``人名''の後に「選手」が続く場合に多く検出漏れが発生していた.具体的には,「選手」に関する検出漏れ175件のうち154件が``人名''に連続していた.Wikipediaのリンクを調べたところ``人名''に続く「選手」に対してリンクが付与されているパターンは1件のみであり,その後のリンク拡張においても``人名''に続く「選手」のリンクが27件しか補完できていなかった.``称号名_その他''カテゴリーでは,「さん」や「氏」といった敬称の検出漏れが多く発生している.Wikipediaを調べたところ「さん」や「氏」を敬称として説明する専用の記事がなく,「敬称」という記事内にリスト形式でまとめられていることが分かった.このように言及に対して専用の記事がない場合はNIL言及として扱われており,リンク拡張では対応できない.期待エンティティ率を用いた学習手法を用いているが,今回のパターンでは適切に対処できていない.``人名''カテゴリーでは突出している表層文字列はないものの,検出漏れの総数が多い結果となっている.実際の予測結果を確認したところ,``人名''に``地位職業名''や{\linebreak}``称号名_その他''が続く場合に結合して``人名''として誤検出される例が多いことがわかった.具体的には,``人名''と``地位職業名''が結合して``人名''として誤検出された例が51件,``人名''と``称号名_その他''が``人名''として誤検出された例が54件存在した.Wikipediaのリンクを調べたところ,``人名''へのリンクのうち表層文字列が「〇〇選手」のパターンが91件,「〇〇さん」のパターンが1,380件,「〇〇氏」のパターンが6,601件存在した.この中には「ぐっさん」や「メリーさん」のように全体で固有名として認められる場合や,「足利尊氏」や「大舘尚氏」のように名前が氏で終わる例も含まれている.しかし「イチロー選手」や「石田さん」,「野口氏」といった拡張固有表現階層において全体で固有名とは認められないリンクが多く散見されることから,記事の編集者によってリンク付与範囲が統一されていないことが分かる.上記のように``地位職業名''や``称号名_その他''を取り込んで``人名''として扱うリンクが多いことが,``人名''の検出漏れの要因,「選手」等の``地位職業名''に対してリンク拡張が機能しない要因,「さん」や「氏」等の``称号名_その他''に対して期待エンティティ率を用いた学習手法が機能しない要因となっている.リンクの表層文字列がリンク先のタイトルもしくはリダイレクトと大きく異なる場合は,タイトルやリダイレクトで置き換えることでこれらの影響を軽減できる可能性がある.\paragraph{短縮形に関する教師信号不足に起因}``人名''カテゴリーにおいて苗字のみといった短縮形の検出漏れが目立つ.リンク拡張ではこれらの短縮形に完全に対処できておらず,固有表現抽出器への教師信号として不十分であることから,検出漏れが発生していると考えられる.\paragraph{Wikipedia分類が``コンセプト''の記事に起因}``賞名''カテゴリーでは「メダル」,「金メダル」,「銅メダル」の検出漏れが多い.Wikipedia分類データではこれらは``賞名''ではなく,固有表現以外を指す``コンセプト''のみが付与されている.本研究では,``名前''以下カテゴリーが付与されていない記事へのリンクは未知($\mathtt{UNK}$タグ)ではなく,固有表現以外($\mathtt{O}$タグ)として扱われる都合,誤った学習が行われ言及漏れが発生している.それらを全て未知($\mathtt{UNK}$タグ)として扱った場合,固有表現以外に対する貴重な教師信号が失われることになる.\paragraph{Wikipedia分類定義と固有表現抽出ラベル付け定義間の齟齬に起因}``国名''カテゴリーでは「日本」の検出漏れが23件発生している.実際の結果を分析したところ,「日本代表」を``競技団体名''に,「日本ラグビー」を``競技名''といったように「日本」を含み誤検出している例が13件存在した.最も多い「日本代表」に関してWikipediaのリンクを調べたところ,表層文字が「日本代表」のリンクが合計で3,702件存在した.リンク先として最も多い3記事は,「サッカー日本代表」へのリンクが1,644件,「ラグビー日本代表」へのリンクが730件,「日本代表」へのリンクが193件であった.これらリンク先はWikipedia分類データにおいて全て``競技団体名''カテゴリーに分類されている.それゆえ,学習データにおいて「日本代表」に対して``競技団体名''が付与されている例が多く存在している.しかし,\ref{subsec:analy_classification_error}節でも述べたように,今回は評価データ作成時に全体が新しい固有名として定義されているかどうかを考慮しており,「日本代表」はそれ全体を固有表現とは認められず誤検出扱いとなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}[b]\begin{center}\includegraphics{31-3ia14f5.pdf}\end{center}\caption{最良評価値との差分と学習データにおけるラベル数の相関}\label{fig:correlation_graph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.5\subsection{学習データ頻度}\label{subsec:analy_train_dist}\ref{subsubsec:category_eval}節のカテゴリー別評価では,``イベント名'',``自然物名'',``病気名''カテゴリーにおいてEER推定を用いた学習手法の性能が大きく劣ることが分かった.本原因を探るべく,学習データにおける固有表現ラベル数を集計し,提案手法の性能との関係性を調べた結果を図\ref{fig:correlation_graph}に示す\footnote{神名は評価データの数が少ないため除外している.}.縦軸は提案手法の評価値と提案手法以外の最良評価値の差分を示し,横軸は対数軸で学習データのラベル数を示す.評価値差分とラベル数の間の相関係数は0.866であり,強い相関があることがわかる.つまり,``イベント名'',``自然物名'',``病気名''におけるEER推定を用いた学習手法の評価値の低さは学習データのラベル数の少なさに起因している可能性がある.EER推定による学習手法は,全てのカテゴリーに対する予測数をまとめて制限しているため,上記のような教師信号の少ないカテゴリーは予測数を減少させる方向に強い影響を受けており,性能が低下していると考えられる.本問題は,上位のカテゴリーごとにEERを推定し,予測数に対して個別に制約をかけることで解決できる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S9 \section{議論} \label{sec:discussion}\ref{subsec:analy_classification_error}節,\ref{subsec:analy_detection_error}節での詳細分析により,Wikipediaから固有表現抽出器を学習する際の様々な障壁が明らかになった.課題を整理し以下に示す.\paragraph{省略形に関する課題}苗字などの短縮形に対するWikipediaのリンク不足が明らかになった.本問題は,Wikipediaでは初出の場合のみリンクが付与されるが,省略形は二回目以降の出現で使用されるため発生している.\ref{subsubsec:experiment_link_surf}節では人名の短縮形を収集する方法を導入したが,言語依存である上,その他カテゴリーでの短縮形には対応できていない.今後,Wikipediaの情報から短縮形を言語非依存に予測する手法の開発が必要である.\paragraph{固有表現抽出定義に関する課題}Wikipediaの記事分類やリンク構造に関する定義と,固有表現抽出に求められる定義の齟齬が明らかになった.固有表現抽出器を実応用するにあたって定義は明確であった方が良いが,Wikipediaの膨大さから前者定義を後者の定義に合わせることは難しい.今後,Wikipediaから学習された固有表現抽出器の振る舞いを紐解いた上で,適した定義を再考する必要がある.\paragraph{拡張固有表現階層に関する課題}Wikipedia記事の分類上では``コンセプト''であるが,文脈によっては固有表現として扱われる言及が存在する事が明らかになった.拡張固有表現階層では幅広いカテゴリーを採用しており,一般名詞との境界に近いカテゴリーも存在している.その影響範囲を特定する必要があるため,拡張固有表現階層のカテゴリーから一般名詞に近いカテゴリーを洗い出した上で,固有表現抽出器の振る舞いを個別に分析する必要がある.\paragraph{固有表現抽出全般における課題}周辺文脈情報の少なさや知識不足による予測誤りが発生している事が明らかになった.特に,今回のように学習データと評価データで分野や分布が異なる場合,同様の問題が発生しやすい.評価対象に合わせてその都度学習データを構築することは現実的ではないので,本問題は今回の実験設定に依存せず,固有表現全般における課題であると言える.地名等の外部知識を言語非依存に活用する手法の考案や,カテゴリーが曖昧な場合に複数候補の提示を許可するといった緩和策が考えられる.より実用性の高い固有表現抽出器をWikipediaから学習するには,少なくともこれらの課題は解決される必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S10 \section{おわりに} Wikipediaから固有表現抽出器を学習する場合,ガイドラインに起因するリンク省略やNIL言及が問題となる.固有表現の特徴をもとにリンクやラベルの補完に取り組む研究が多く存在するが,その多くが英語を対象としており,固有表現に関する表層的な特徴の少ない日本語には適用ができないといった問題がある.本研究では,深層学習を用いたリンクの拡張手法を提案し,省略されたリンクの補完を行った.また,文章中のエンティティの割合を示す期待エンティティ率の推定手法を提案し,NIL言及により学習データに混在する偽陰性ラベルの影響軽減を試みた.実際に,日本語Wikipediaから固有表現抽出器の学習を行い評価を行ったところ,提案手法は比較手法と比べ非常に高い性能を示した.詳細な分析により,Wikipediaのリンク構造を用いて言語非依存に固有表現抽出器の学習を行うための更なる課題を示した.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,JST,ACT-X,JPMJAX20AIの支援を受けたものである.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{14refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{中山功太}{%大規模言語モデル研究開発センター特任研究員.2020年豊橋技術科学大学情報・知能工学系修士号.理化学研究所革新知能統合研究センター・言語情報アクセスチームリサーチアソシエイトを経て,現職.専門は深層学習,自然言語処理.特にアンサンブル学習,固有表現抽出,情報抽出の研究に従事.言語処理学会会員.}\bioauthor{栗田修平}{%2013年京都大学理学部卒業.2015年同大学院理学研究科物理学教室修士課程修了.2019年京都大学大学院情報学研究科にて博士(情報学)取得.2019年より国立研究開発法人理化学研究所革新知能統合研究センター特別研究員.2023年より同研究員.2020年よりニューヨーク大学訪問研究員.2024年より国立情報学研究所コンテンツ科学研究系助教ならびに理化学研究所客員研究員.深層学習を用いた自然言語処理ならびにコンピュータビジョンの研究に従事.言語処理学会会員.}\bioauthor{馬場雪乃}{%2012年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).同年東京大学特任研究員,2014年国立情報学研究所特任助教,2015年京都大学大学院情報学研究科助教,2018年筑波大学システム情報系准教授を経て,2022年より東京大学大学院総合文化研究科広域科学専攻准教授.機械学習,ヒューマンコンピュテーションの研究に従事.}\bioauthor{関根聡}{%理化学研究所革新知能統合研究センター・言語情報アクセスチームチームリーダー,情報学研究所大規模言語モデル研究開発センター特任教授,合同会社ランゲージ・クラフト主任研究員.1992年英国マンチェスター大学計算言語学部修士号.1998年ニューヨーク大学コンピューターサイエンス学部博士号.その後,ニューヨーク大学研究准教授に就任.松下電業産業株式会社(現パナソニック),SONYCSL,マイクロソフトリサーチ,楽天技術研究所ニューヨークなどでの研究職を歴任.専門は自然言語処理.特に情報抽出,固有表現抽出,質問応答,情報アクセス,知識構築の研究に従事.情報処理学会自然言語処理研究会主査,その他役職多数.複数の企業の技術顧問なども兼任.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V27N02-09
\section{はじめに} 近年,通信インフラの高度化,高性能な通信機器や携帯情報端末の普及などにより,誰もが時間や場所を意識すること無く,大量のデータを安価に送受信することが可能になった.これにより,日々大量のデータが生み出され,世界の情報流通量は加速度的に増加している.このことは,私達の日常のコミュニケーションや知的生産活動に大きな変革をもたらしつつある.例えばSNSが日常的なコミュニケーション手段となり,世界中の人々がオンラインで繋がる様になったことで,情報交換を通じて現在,世界中で何が起きているかが即座に分かるようになった.また,科学技術のコミュニティでは,査読などの出版プロセスを伴わない迅速な論文公開を実現するプレプリントサーバや,数千規模の学術誌の横断的検索・閲覧を実現するオンラインデータベースの普及などのデジタル化が急速に進んでいる.このように,情報通信技術の高度化は,様々な領域でコミュニケーションや情報流通の利便性を向上する一方で,情報爆発を加速し,様々な問題を生じている.例えばSNSでは,不確かな情報が十分検証されずに世界中に拡散するといった脆弱性により,フェイクニュースによる選挙妨害や世論操作などの問題を生じている.また科学技術のコミュニティでは,研究者の生産性が向上し,論文の発行部数が増加した結果,研究者が個人レベルで技術動向を網羅的に把握するのが困難になるといった問題を生じている.これらは個別には対策が講じられつつあるが,俯瞰的な視点に立てば,情報爆発の問題はそもそも利便性と共に生じた歪みと見ることもできる.すなわち,知的生産活動を支える現在の知識情報処理システムの多くは,その情報処理プロセスの中の高度な部分を人間が分担することを前提としている.しかし,処理系の中に人間が介在する事は,処理量や処理速度の面で計算機に劣る人間の生理的な限界が,系全体のボトルネックとなってしまう.つまり,情報処理プロセスへの人間の介在は,必然的に処理量や速度と,品質との間のトレードオフを生じてしまう.この問題を根本的に解決するには,知的処理を行う情報処理技術を高度化し,人間の介在が不要な水準にまで引き上げる必要がある.情報がテキストの場合,人の読解能力に匹敵する理解力を持つ人工的な読解能力,機械読解の実現を目指すという事になる.この機械読解は,情報処理的な立場からは,入力テキストの言語表現を正しく解釈し,計算機上で形式的処理可能な表現に変換するタスクとして定義できる.このような機械読解の高度化が進めば,これまで人間が行ってきた文書の内容確認の多くを自動化することができる.例えば,金融機関の与信判断,法律事務所の証拠収集などを始めとする様々な産業分野への適用を通じて,知的生産活動の生産性が大幅に向上することが期待できる.処理量や処理速度が格段に向上すれば,情報爆発の問題も解消することができる.しかし,このような機械読解を実社会に適用していく際には,対象領域ごとに,現場の実務レベルの知識を機械読解用に開発する必要が生じる.こうした知識を最初から完全に網羅的に開発することは難しい.したがって,実際には事前に利用可能なリソースからベースラインの知識を開発し,現場への導入後に,実用を通じて不足する知識を補完していく過程で知識の網羅性を高めていくといった漸進的なアプローチが現実的と思われる.こうした機械読解のための知識獲得のアプローチについて,DARPAの機械読解に関する研究プログラムMachineReading(Strassel,Adams,Goldberg,Herr,Keesing,Oblinger,Simpson,Schrag,andWright,2010)では,既存の知識ベースの活用,コーパスからの知識抽出,論理的推論に基づく知識候補の整合性検証を相補的に組み合わせるコンセプトを提案している.また,評価型ワークショップNISTTextAnalysisChallenge(TAC)において2009年に開始されたトラックKnowledgeBasePopulation(KBP)では,機械読解のための知識獲得技術に関する研究コミュニティを形成し,この研究領域の活動を推進する役割を果たしてきた(McNameeandDang,2009).KBPは当初,TRECの質問応答トラックQuestionAnswering(Voorhees,1999)と,NISTの研究プログラムACE(Doddington,Mitchell,Przybocki,Ramshaw,Strassel,andWeischedel,2004;Walker,Strassel,Medero,andMaeda,2006)の情報抽出を参考に,固有名抽出の結果を既存の知識ベースの見出しに対応付けるEntityLinkingと,固有名に対して事前に定義された属性値をテキストから抽出するSlotFillingの2つのタスクでスタートした.その後,何度かのマイナーなタスク変更を経て,2014年に,ACEやその後DEFTProgramで開発された仕様LightERE(Aguilar,Beller,McNamee,Durme,Strassel,Song,andEllis,2014)のイベントに関するアノテーションをベースに,予め定義された種類のイベント記述と属性情報をテキストから抽出するEventタスクが新設された.EntityLinkingタスクとEventタスクは共に機械読解のための知識構築を構成する中核的なタスクであるが,英語を対象言語として2016年と2017年の両タスクの性能水準を比較すると,EntityLinkingではF1値の最高性能が70{\%}前後に達しているのに対し,Eventタスクでは40{\%}に満たない.このことから我々は,機械読解のための知識獲得技術を実用化する上では,性能の低いイベント表現の検出がボトルネックとなる可能性が高く,まずその性能向上に取組むべきと考えた.本稿では,機械読解のための知識獲得の中で,イベント表現の検出を対象に技術課題を分析し,その解決のための技術的な提案を行う.以降,2章では,本研究が提案手法の評価に用いるEventNuggetDetectionタスクについて概説し,その定式化と技術課題について分析を行う.3章と4章では,この技術課題を解決するための提案を行う.3章では,多様なイベント表現から多面的にエンコーディングを求めるための異なるエンコーディングモデル群を導入し,4章では,このエンコーティングモデル群から,入力テキストのイベント表現に適したモデルを動的に選択する動的アンサンブル法を提案する.5章と6章では,TACKBPEventNuggetDetectionタスクの評価環境を用いて提案手法とベースライン手法の比較評価を行う.7章では,公式評価の参加システムが用いた方式やリソースなどを踏まえて比較分析を行い,提案手法の有効性や優位性について考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2 \section{EventNuggetDetectionタスクにおける技術課題} 本章では,機械読解のための知識獲得タスクとして,本研究で取り扱うNISTTACKBPのEventNugget(EN)Detection(Mitamura,Liu,andHovy,2016)について概説した後,関連研究を踏まえてベースラインシステムを導入し,本タスクにおける技術課題とその解決アプローチについて述べる.まず,KBP2016,KBP2017のEventタスクでは,RichERE(Song,Bies,Strassel,Ellis,Mitamura,Dang,Yamakawa,andHolm,2016)で定義されている38種類のイベントタイプのうち,18種類が抽出対象として設定されている.システムは,この18種類のイベントタイプのいずれかに該当するイベント表現を入力記事中から抽出し,各イベント表現の出現位置(記事ファイル名と同ファイル中の先頭文字と末尾文字のオフセット),イベントタイプ,実現性状態(realisstatus)(Mitamura,Yamakawa,Holm,Song,Bies,Kulick,andStrassel,2015;Bies,Song,Getman,Ellis,Mott,Strassel,Palmer,Mitamura,Freedman,Ji,andO'Gorman,2016)の組み合わせ,すなわちEventNuggetを出力する.このようなEventNugget(EN)タスクの定式化としては,無限の文脈長を考慮した系列ラベリングとして扱うのが数理的に最も一般的である.しかし,EventNuggetDetectionタスクの場合,入力に占める対象イベント表現のトークン数の割合は低い(KBP2017の評価セットで約1/20).このため,系列ラベリングの出力であるラベル系列は,大半がラベル無し(BIOラベリングなら「Outside」)の列の中に疎らにイベント表現が出現する形となる.このことから,出力のラベル系列の各ラベルは近似的に独立に決定可能と仮定すれば,トークン系列に対する系列ラベリングの問題は,トークン毎の分類という部分問題の集合に分解することが出来る.さらに,トークンのラベルの決定に有用な情報の大半はその周辺(節内や文内)のトークン列に存在すると仮定すれば,文脈についても,有限の文脈長に制限できる事になる.これらの近似により,ドメインやトピックごとでのラベル系列の結束性や,離れた照応関係などの文脈情報の扱いに違いが生じ,精度に影響する可能性があるが,一方で,トークン毎の分類の集合に分解することで計算が並列処理向きとなり,GPU等の並列計算環境下では大幅な処理速度の向上が期待できる.近年,自然言語処理の幅広いタスクで,ニューラルネットワークベースの手法はベースラインとして定着しているが,KBP2016,KBP2017の参加システムを見ても,その傾向は顕著である(詳細は6.4節で後述).中でも,長い文脈を扱うために勾配消失問題に対処したゲート付きRNNであるLSTMやGRUを用いた系列ラベリングと,固定長の入力表現からconvolutionやpooling等で意味合成を考慮したエンコーディングを得るCNN等を用いた分類は,前述の定式化の典型例であり,性能的にも両者は拮抗している.例えばKBP2016のEventNuggetDetectionタスクの公式評価結果では,CNNベースのシステム(Nguyen,Cho,andGrishman,2016a;Nguyen,Meyers,andGrishman,2016b)がF1値で最も高い値となった.同システムではwordembedding(Mikolov,Chen,Corrado,andDean,2013)をベースにStanfordCoreNLP(Manning,Surdeanu,Bauer,Finkel,Bethard,andMcClosky,2014)によって得られる依存構造情報やGLARFsemanticparser(Meyers,Kosaka,Ji,Xue,Harper,Sun,Xu,andLiao,2009)によって得られる意味属性を加えたエンコーディングが用いられている.一方,同じくKBP2016の評価では,局所的な文脈のエンコードにCNNを組み合わせたBiLSTMベースのシステム(Zeng,Luo,Feng,andZhao,2016)が高いF1値となった.本研究では,このような先行研究に対する理解のもと,並列処理での計算効率に優れた分類ベースの定式化に着目してイベント表現の多様性を効率的にモデル化する枠組みの提案を試みる.評価実験では,NISTTACKBP2016およびKBP2017のEventNuggetTrack(Mitamuraetal.,2016)の公式評価と同じ条件下で評価を行う.提案手法の有効性を明らかにするために,一般的に性能向上に寄与すると考えられる品詞,依存関係,意味情報などの解析器の出力,知識ベース等は一切用いず,wordembedding(Mikolovetal.,2013)と単純なCNN(Kim,2014;Collobert,Weston,Bottou,Karlen,Kavukcuoglu,andKuksa,2011)をベースに評価システムの構築を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{27-2ia8f1.eps}\end{center}\caption{本研究で扱うEventNuggetDetectionの評価システムの処理フロー}\label{fig1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ただし,提案手法においてもこれらの追加情報は容易に利用可能である.例えば,Nguyenらのシステムをはじめ,KBP2016,KBP2017の多くのニューラルネットワークベースの参加システムに多用される,wordembeddingと追加情報のエンコーディングの結合による単語エンコーディングの拡張方法があるが,この方法は提案手法においてもそのまま適用可能である.本研究で用いる評価システムの処理フローを図1に示す.KBP2016,KBP2017の公式評価におけるEventNuggetDetectionタスクは,(1)入力文書におけるイベント表現(イベントトークン)の検出,(2)各イベント表現のイベントタイプ(全18種類)の分類,(3)実現性状態(``$actual$'',``$general$'',``$others$''の計3状態)の分類,の3つのサブタスクから構成される.end-to-end評価では,これら3つのサブタスクの出力結果が,イベント表現毎の組``eventnugget''として正しいかどうかが評価される.分類器のベースラインとしては,評価の際に提案手法の効果が分かり易いほうが望ましいため,非常にシンプルなCNNを各サブタスクに共通に用いることにする.このモデルは,図2に示すような,単語分散表現(Mikolovetal.,2013)を用いたエンコーダとCNN(Kim,2014)からなる二値分類器である.畳み込みニューラルネットワークは,畳み込み層,プーリング層(MaxPooling),全結合層,出力層から構成され,出力層はsoftmaxによって,二値分類のそれぞれのクラスに対する確率値を推定し出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-2ia8f2.eps}\end{center}\hangcaption{MW法によるトークン列のエンコーディングと畳み込みニューラルネットワークを用いた二値分類器の構成}\label{fig2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで,CNNの適用に際しては,任意長の入力テキストから,ネットワークへの入力である固定長のトークン列(系列データ)を生成する必要がある.この固定長のトークン列の切り出しは,EventNuggetDetectionタスクにおいては,後述の様に,(1)モデルの窓長に応じて入力の個々の表現との間で様々な親和性の高低を生じ,また,(2)離れた語彙間の依存関係や長距離の文脈などを効率的に学習することが難しい,といった問題を生じる(以降では,「親和性」を,例えば,長い窓長のモデルを選択した場合,長い文脈や依存関係を持つイベント表現との「親和性」は高いが,短い表現との「親和性」は低い,といったように,入力の表現の特性に応じてそのモデルの有効性が相対的に変化するという意味で用いることにする).本研究では,このような問題に対して,異なる性質を持つエンコーディングモデル群を導入し,入力の表現との親和性が高いモデルを動的に選択するようなアンサンブル法を提案する.次章では,まず,エンコーディングモデルを導入し,続いて動的アンサンブル法の導入を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3 \section{異なるエンコーディングモデル} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1\subsection{シングルウィンドウモデル}まず始めに,エンコーディングモデルのベースラインを導入する.本研究では先に述べたとおり,Collobertらのモデル(Collobertetal.,2011)を発展させたCNN(Kim,2014)ベースで二値分類器を実現する.このCNNへの入力は,word2vec(Mikolovetal.,2013)を用いて事前に学習された300次元の単語embeddingを元に,単語のエンコーディングを生成する.さらに固定長の窓を導入し,入力系列を窓長に応じてトリミングする.トークン列が窓長より短い場合にはzeropaddingによって窓長に調整する.この際,分類対象のトークンは,窓の中央に位置し,その周辺のトークン列を周辺文脈として扱うことで,周辺文脈情報付きのトークンのエンコーディングモデルと解釈することができる.このような単一の固定長窓を用いる手法を,以降ではシングルウィンドウ(SW:SingleWindow)モデルと呼ぶ事にする.SWモデルでは,ある検出対象トークンのニューラルネットワークへの入力は,対象トークンの前後に,それぞれ長さ$l$のトークン列を繋げた,式(\ref{eq1})に示すような長さ$\mathrm{2}l+1$のトークン列の単語ベクトルによって与えられる.\begin{equation}\label{eq1}x_{-l:l}\mathrm{=\,}x_{-l}{\oplus\mathellipsis\oplusx}_{0}\oplus\mathellipsis\oplusx_{l}\end{equation}ここで,$x_{i}$は窓中の$i$番目の単語に対する$k$次元の単語ベクトル,$\oplus$は結合演算子である.原理的に,SWモデルは長い窓を設定することでより長い文脈を考慮できるが,実際には,2章で述べたように,(1)個々の入力にあわせてモデルの窓長が変えられないため,入力によってモデルとの親和性の高低が生じ,また,(2)離れた語彙間の依存関係や長距離の文脈などを効率的に学習することが難しい,といった問題が生じる.そこで,我々は,これらの問題点への対応として,異なる性質を持つ複数のエンコーディングモデルを導入し,さらに,入力に応じて適切なモデルを動的に適用する枠組みを考えた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2\subsection{マルチウィンドウモデルの提案}前述の(1)の問題に対する対策として,ここでマルチウィンドウ(MW:MultiWindow)モデルを提案する.このMWモデルは,分類対象のトークンが中央に位置し,かつ長さの段階的に異なるSWモデルを複数用意し,これらの複数のエンコーディングを並列でCNNの入力層に入力するという方法である.CNNへの入力系列は,具体的には式(\ref{eq2})に示すように,窓長を$\mathrm{2}l+1,\,2l-1,\,\mathellipsis,\,1$とした,$l+1$個のSWモデルのエンコーディングの連結で定義される.\begin{equation}\label{eq2}\left\{x_{-l:l}\mathrm{,\,}x_{-l+1:l-1}\mathrm{,\,}\mathellipsis,\,x_{-1:1}\mathrm{,\,}x_{0}\right\}\end{equation}図2は,入力文から生成されたトークン列に対するMWモデルのエンコーディングを,ネットワークに入力する全体構成を示している.図に示すように,式(\ref{eq2})で得られた$l+1$個のエンコーディング結果は1つの入力系列としてネットワークの畳み込み層に入力される.このように,大きさの異なるウィンドウによって生成されたエンコーディング結果を並列で入力する事により,異なる窓長による分類を,1つのモデルの中で統合的に学習する事になり,より多様な入力表現に対して親和性の高い分類器が実現でき,前述の問題(1)に対する効果が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.3\subsection{疑似依存モデルの提案}前述の(2)の問題に対する対策として,ここで疑似依存(PD:PseudoDependency)モデルを提案する.このPDモデルは,分類対象トークンを中央に,そこから一定距離内にある全てのトークンとの間でトークン対を生成し,この全てのトークン対を疑似的な依存関係にあるトークン対であると見なし,トークン対を並列でCNNの入力層に入力するという方法である.CNNへの入力系列は,具体的には,分類対象トークンを中央に,およびそこから距離$\,l$以内のトークンとの間でトークン対を生成し,連結することで,式(\ref{eq3})に示すような$\,2l$個のエンコーディング列として定義される.\begin{equation}\label{eq3}\{x_{-l}\oplusx_{0},\mathellipsis,x_{-1}\oplusx_{0},\mathellipsis,x_{0}\oplusx_{l}\}\end{equation}この$\,2l$個のエンコーディング結果は,MWモデルと同様に,1つの入力系列としてネットワークの畳み込み層に入力される.このように,検出対象トークンと離れた場所のトークンとの間のトークン対に対するエンコーディングを並列で入力する事により,離れたトークン間の関係を,1つのモデルで統合的に学習できるため,離れたトークン対を構成要素とするイベント表現が分類器によってより的確に分類できるようになり,前述の(2)の問題に対する効果が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4 \section{各サブタスクにおける分類モデルの定式化} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.1\subsection{モデルの信頼度に基づく動的アンサンブルの提案}前章では,周辺文脈の適切な考慮の方法が対象とするイベント表現ごとに異なるという問題に対し,それぞれのイベント表現に対応するような異なる複数のエンコーディングモデルを導入した.それぞれのエンコーディングモデルの特徴を十分に生かすためには,イベント表現の要素であるトークンと,エンコーディングモデルとの間の親和性が高くなる様なモデル選択を行うことが重要である.このことは,例えば次のような事例から明らかである.\vspace{0.5\Cvs}例)``Thecompany\underline{\textit{laid}}10workers\underline{\textit{off}},''``Everyterroristgets\underline{\textit{arrested}}eventually.''\vspace{0.5\Cvs}前者の事例は,離れた二つのトークンがイベント表現$``$\underline{\textit{laidoff}}$''$を構成するため,窓のサイズが$l\ge3$のPDモデル擬似依存モデルが最適な選択になると推測される.一方,後者の事例は,単一のトークンのみからイベントタイプを推定するための情報が得られるため,窓のサイズが$\,l=0$のSWモデルが最適な選択になると推測される.このように,イベント表現検出においては,入力トークンとイベントタイプに応じて,最適なモデルを動的に適用できることが望ましい.このような考えに基づき,アンサンブルの際によく用いられる従来のソフト投票(SV:SoftVoting)法(Zhou,2012)に動的なモデル選択の仕組みを組み合わせた動的アンサンブル法を提案する.従来のソフト投票法では,入力トークン$w$のあるクラス$c$に関する二値分類の事後確率は次式のように推定できる.\begin{equation}\label{eq4}P^{SV}{}_{c}(s\vertw)=\frac{1}{n}\sum\nolimits_{m\inM_{n}}{P_{c,\,m}(s\vertw)}\end{equation}ここで,$\mathrm{M}_{n}$は$n$個の二値分類モデルからなるモデル集合,$c$はクラス集合$\mathrm{C}$に属するあるクラス,$s$はクラス$c$に関する二値分類の状態($s\in\{0,\,1\}$),$P_{c,\,m}(s\vertw)$は入力トークン$w$がクラス$c$に関して状態$s$となる場合のモデル$m\,$による予測確率である.ソフト投票法の場合,式から分かるように,各モデルの予測確率は入力トークン$w$とは独立かつ均等に評価される.このため,入力トークンと親和性の低いモデルがアンサンブルの多数を占めると,ソフト投票の結果もそれら親和性の低いモデルの予測を反映したものとなる.したがって,ソフト投票法はそのままではイベント表現とエンコーディングの間の親和性の問題を解消することができない.そこで,我々は,入力とエンコーディングモデルとの間の親和性の高さを評価する尺度を導入し,それによって親和性のより高いエンコーディングモデルを動的に選択する仕組みを実現する.ここではそのような評価尺度として,音声認識等のパタン分類で一般的に用いられている信頼度の定式化をベースとする.パタン分類における信頼度は,与えられた観測$w$に対するクラス$c$をMAP(maximumaposterioriprobability)推定する際に得られる最大事後確率$P(c\vertw)$,すなわち$\hat{c}={argmax}_{c}\,P(c\vertw)$を満たす$P(c\vertw)$として定式化される.これを我々の問題設定,すなわち,あるクラス$c$に関する正負の状態$s$を推定する定式化に直せば,信頼度は$\hat{s}={argmax}_{s\in\{0,\,1\}}P_{c}(s\vertw)$を満たす$P_{c}(s\vertw)$となる.さらにモデルの自由度を加えれば,クラス$c$に関する状態$\hat{s}$とモデル$\hat{m}$の推定$\hat{s},\,\,\hat{m}={argmax}_{s\in\{0,\,1\},\,m\inM}\,P_{c,\,m}(s\vertw)$を満たす$P_{c,m}(s\vertw)$と拡張することができる.これは左辺に状態$\hat{s}$を含まない形で次のように表現することができる.\begin{equation}\label{eq5}\hat{m}=\Argmax{m\inM}\left\{\operatornamewithlimits{max}_{s\in\{0,1\}}P_{c,\,m}(s\vertw)\right\}\end{equation}これはさらに,和則$\sum\nolimits_{s\in\{0,1\}}{P_{c,\,m}(s\vertw)}\mathrm{=1}$を用いて変数$s\mathrm{=1}$に固定した次式に書き換えられる.\begin{equation}\label{eq6}\hat{m}=\Argmax{m\inM}\left\{\max\left[P_{c,\,m}\left({s=1}\vertw\right),{1-P}_{c,m}\left({s=1}\vertw\right)\right]\right\}\end{equation}さらに$max$の各評価式から$1\mathord{\left/{\vphantom{12}}\right.\kern-\nulldelimiterspace}2$を減算して書き換えれば次式を得る.\begin{equation}\label{eq7}\hat{m}=\Argmax{m\inM}\left|P_{c,m}\left({s=1}\vertw\right)-1\mathord{\left/{\vphantom{12}}\right.\kern-\nulldelimiterspace}2\right|\end{equation}以上の導出から,各クラス$c$に対する二値分類モデルの選択では,$\left|P_{c,m}({s=1}\vertw)-1\mathord{\left/{\vphantom{12}}\right.\kern-\nulldelimiterspace}2\right|$をモデルの信頼度に用いれば良いことが分かった.このようにして選択されたモデル$\hat{m}$による事後確率を$P_{c,\,\hat{m}}(s\vertw)$とすると,先のMAP推定は$\hat{s}=\,\,P_{c,\hat{m}}(s\vertw)$を満たす$P_{c,\hat{m}}(s\vertw)$を求める問題として定式化される.以上の導出により,MAP推定をモデルアンサンブルに対して拡張すると,入力$w$,クラス$c$ごとに,信頼度$\left|P_{c,m}({s=1}\vertw)-1\mathord{\left/{\vphantom{12}}\right.\kern-\nulldelimiterspace}2\right|$の最も高いモデル$\mathrm{\,}\hat{m}\mathrm{\,}$を$n$個の二値分類モデルの集合$\mathrm{M}_{n}$から動的に選択する方法が導出されることが分かった.そこで,この推定法を動的モデル選択(DS)法と呼ぶことにする.DS法において,入力トークン$w$のクラス$c$に関する二値分類の事後確率は次式で求められる.\begin{equation}\label{eq8}P^{\mathit{DS}}{}_{c}(s\vertw)=P_{c,\,\hat{m}}(s\vertw)\end{equation}このDS法とSV法の比較から,両者は共にモデルアンサンブルに対する事後確率集合を元に,前者は信頼度$\left|P_{c,m}({s=1}\vertw)-1\mathord{\left/{\vphantom{12}}\right.\kern-\nulldelimiterspace}2\right|$の最も高いモデル$\mathrm{\,}\hat{m}\mathrm{\,}$に関する事後確率,後者はモデル集合$\mathrm{M}_{n}$の全モデルの事後確率の平均値で,それぞれアンサンブル全体の事後確率を評価していることが分かる.このことから,さらに信頼度$\left|P_{c,m}({s=1}\vertw)-1\mathord{\left/{\vphantom{12}}\right.\kern-\nulldelimiterspace}2\right|$に関して上位$k$個の二値分類モデルの集合$M_{top\mathunderscorek}=\displaystyle{\operatornamewithlimits{arg\_top\_k}_{m\inM}}\left\{\left|P_{c,m}({s=1}\vertw)\mathrm{-1/2}\right|\right\}$($\mathrm{M}_{top\mathunderscorek}{\mathrm{\subsetM}}_{n}$)による事後確率の平均値を用いれば,両者を統合できることが分かる.この手法を動的アンサンブル(DE)法と呼ぶ.次式から分かるように,DE法は$k=1$の場合にDS法,$k=n$の場合にSV法に帰着する.\begin{equation}\label{eq9}P^{\mathit{DE}}{}_{c}(s\vertw)=\frac{1}{k}\sum\nolimits_{m\inM_{top\mathunderscorek}}{P_{c,\,m}(s\vertw)}\end{equation}以上が,信頼度に基づいてモデルアンサンブルから入力$w$にあったモデルを動的に選択するDE法の枠組みの導出である.図3は,この二値分類の問題設定におけるDE法を図で示したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-2ia8f3.eps}\end{center}\hangcaption{異種のエンコーディングモデル群SW$(l=0)$,SW$(l=3)$,SW$(l=5)$,MW$(l=3)$,MW$(l=5)$,PD$(l=3)$,PD$(l=5)$に対する動的アンサンブル(DE)法の図解}\label{fig3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.2\subsection{動的アンサンブル法を用いたイベント表現の検出}イベント表現検出では,入力$w$に対して,各イベントタイプ$c_{e}$に関する二値分類を適用し,モデルごとに事後確率$P_{c_{e},\,m}(s\vertw)$を求める.さらに,前節で導入したDE法を適用することにより,モデルアンサンブル全体に対する事後確率$P^{\mathit{DE}}{}_{c_{e}}(s\vertw)$を得る.ここで$P^{\mathit{DE}}{}_{c_{e}}({s=1}\vertw)$が余事象の確率$P^{\mathit{DE}}{}_{c_{e}}\left(s=0\vertw\right)=1-P^{\mathit{DE}}{}_{c_{e}}({s=1}\vertw)$に対して大きければ(あるいは$P^{\mathit{DE}}{}_{c_{e}}({s=1}\vertw)-1/2$の符号が正であれば),入力$w$はイベントタイプ$c_{e}$のイベント表現であると判定できる.この判定を全18種類のイベントタイプ集合$C_{e}$の各要素$c_{e}\inC_{e}$に対して実施し,1つ以上のイベントタイプ$c_{e}$に関してイベント表現と判定される入力$w$を抽出することにより,イベント表現検出を実現する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3\subsection{動的アンサンブル法を用いたイベント表現のイベントタイプの推定}イベントタイプ分類では,イベント表現検出においてイベント表現と判定された各入力$w$に対し,さらに,全18種類のイベントタイプからなる集合$C_{e}$から,最も該当する可能性の高いタイプ$\hat{c}_{e}$を推定する.ここで,DE法を適用して得られるモデルアンサンブル全体に対する事後確率$P^{\mathit{DE}}{}_{c_{e}}({s=1}\vertw)$を用いることで,イベント表現と判定された各入力$w$のタイプ$\hat{c}_{e}$は,次式によって推定することができる.\begin{equation}\label{eq10}\hat{c}_{e}=\Argmax{c_{e}\inc_{e}}\left\{P^{\mathit{DE}}{}_{c_{e}}({s=1}\vertw)\right\}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4\subsection{動的アンサンブル法を用いたイベント表現の実現性状態の推定}事実性状態分類では,イベント表現検出においてイベント表現と判定された各入力$w$に対し,さらに,3つの実現性状態``$actual$'',``$general$'',``$others$''からなる集合$C_{r}$から,最も可能性の高い状態$\hat{c}_{r}$を推定する.ここでも,DE法を適用して得られるモデルアンサンブル全体に対する事後確率$P^{\mathit{DE}}{}_{c_{r}}(s\vertw)$を用いる.これにより,イベント表現であると判定された各入力$w$の実現性状態$\hat{c}_{r}$は,次式によって推定することができる.\begin{equation}\label{eq11}\hat{c}_{r}=\Argmax{c_{r}\inc_{r}}\left\{P^{\mathit{DE}}{}_{c_{r}}({s=1}\vertw)\right\}\end{equation}ただし,いずれの実現性状態$c_{r}$に対しても$P^{\mathit{DE}}{}_{c_{r}}({s=1}\vertw)-1/2$の値が負となる場合には,事後確率$P^{\mathit{DE}}{}_{c_{r}}({s=1}\vertw)$の信頼度が低く,学習されたモデルに基づく$\hat{c}_{r}$の推定が有効ではない可能性が考えられる.そこでこの場合には,入力$w$は,``$actual$''および``$general$''のいずれの実現性状態にも該当しない(定義上``$others$''が該当する)状態であると解釈し,$\hat{c}_{r}=$``$others$''と推定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \section{評価実験における各種設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.1\subsection{開発用および評価用データセット}以降では,提案手法であるエンコーディングモデルと動的アンサンブルの効果を検証するため,サブタスク毎に,各エンコーディングモデルの単一適用,ソフト投票法,動的アンサンブル法の性能を比較評価する.さらに,EventNuggetタスクのend-to-end性能における提案手法の性能を検証するために,EventNuggetタスクが実施された過去2回のNISTTACKBP,KBP2017およびKBP2016での公式評価との比較評価を行う.表1は,KBP2016およびKBP2017のEventNuggetタスクの公式評価で提供されたデータセット(Ellis,Getman,Fore,Kuster,Song,Bies,andStrassel,2016;Getman,Ellis,Song,Tracey,andStrassel,2017)のうち,参加システムに使用された主要なデータセットの一覧である.表中左列のカテゴリは,各システムの使用データセットの違いを簡便に示すために本論文で導入した定義である.このうちENに属する2つのデータセットは包括的なデータセットで,LDC2017E02がEN2014,EN2015,EN2016のデータセット,LDC2016E36がEN2014,EN2015のデータセットをそれぞれ含む.なお,LDC2017E02のタイトルに``TrainingandEvaluationData2014--2016''とあるが,2016のデータセットについてはEvaluationDataのみしか存在しない.以降に提示するモデル・手法間の比較評価,KBP2017およびKBP2016の公式評価との比較評価では,これらの公式評価用に提供されたデータセットと公式の評価ツールを用いて評価を実施した.各評価で使用した評価用データと開発用データの構成は,表2に示すとおりである.ただし,各データセットの構成要素は,表1で定義したカテゴリによって示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{TACKBP2016/KBP2017EventNuggetの公式評価で提供された主要なデータセット}\label{tab1}\input{08table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{本論文の評価実験で用いた開発用および評価用データセット}\label{tab2}\input{08table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.2\subsection{畳み込みニューラルネットワークのハイパーパラメータおよび学習条件}前述のデータセットやエンコーディングモデル等の違いによらず,以降の全ての評価では,評価システムの共通部分である畳み込みニューラルネットワークの学習に共通のハイパーパラメータおよび学習条件を適用した.学習に使用したハイパーパラメータは,具体的には,Zhangらが行ったパラメータ設定の分析研究(ZhangandWallace,2017)で報告されている値を参考に,フィルタサイズを(2,3,4,5),特徴マップの次元数を100,ドロップアウト率を0.5,ミニバッチサイズを50に設定した.学習の最適化アルゴリズムにはAdaDelta(Zeiler,2012)とミニバッチのシャッフルを適用した.さらに,epoch毎に10foldの交差検定を実施し,epoch数30まで学習を行い,epoch毎に保存されたモデルの中からvalidationセットにおけるF1スコアが最大のモデルを選択するようなアーリーストッピングを適用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.3\subsection{単語分散表現モデル}また,単語分散表現については,既に公開されているGoogleNewsからの学習済モデルである``Google-News-vectors-negative300''(Mikolovetal.,2013)を初期モデルとして用い,さらに,開発用データからの畳み込みニューラルネットワークの学習時に,この学習済み単語分散表現モデルと開発用データとが上手く適合するように,チューニングを施した.具体的には,開発用データセットに出現する語彙のうち,学習済み単語分散表現モデル中の未登録語については,まず乱数を要素とする300次元の初期ベクトルをそれぞれ生成し,さらに逆伝播によって開発データに適応させることで,未登録語に対するモデルの補完を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6 \section{評価結果} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.1\subsection{イベント表現検出における比較評価}以降では,サブタスク毎に,各エンコーディングモデルを単一で適用した場合と,ソフト投票法,および,動的アンサンブル法を介して適用した場合との性能の比較評価を行う.ここでは,まず,最初のサブタスクであるイベント表現検出における評価結果を示す.次の表3では,3つの異なるエンコーディングモデルにそれぞれ異なる窓パラメータを適用した場合と,ソフト投票法,および,動的アンサンブル法を介して適用した場合のイベント表現検出の性能を,適合率,再現率,F1スコア(ミクロ平均)で示している.ここで$l$は,各エンコーディングモデルの定式化で導入した窓パラメータ$l$を,$k$は,動的アンサンブル(DE)法の定式化で導入したモデル数のパラメータ$k$を表す.表3の左側は,各評価のエンコーディングモデルに用いたモデルの種類または手法を表している.シングルウィンドウ(SW)モデルに対しては3種類の窓パラメータ$l\mathrm{=0,\,3,\,5}$を用いた結果を示し,マルチウィンドウ(MW)モデルと擬似依存(PD)モデルに対してはそれぞれ,2種類の窓パラメータ$l\mathrm{=3,\,5\,}$を用いた結果を示している.また,ソフト投票(SV)法,および,動的アンサンブル(DE)法に対しては,SWモデル,MWモデル,PDモデルの各評価で用いた7つのモデルをモデル群とし,ソフト投票ではその全てのモデルを用い,動的アンサンブル(DE)法ではそれぞれモデル数のパラメータ$k=1,\,2,\,3,\,4\,$を用いた結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\hangcaption{イベント表現検出における,各エンコーディングモデルを独立に適用した場合と動的アンサンブルを介して適用した場合の,適合率・再現率・F1スコアの評価結果の比較}\label{tab3}\input{08table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表3を見ると,適合率が最も高いのは$k=2$の場合のDE法(64.30{\%})であるが,再現率およびF1スコアが最も高いのはモデル数のパラメータが$k=1$の場合のDE法(再現率55.09{\%},F1スコア59.13{\%})であることが分かる.$k=2$の場合に$k=1$よりも適合率が高くなるのは,複数のモデルに基づく検出により,単一のモデルに比べてfalsepositiveの検出が抑制されるためであると考えられる.一方,$k=2$の場合に$k=1$よりも再現率が低くなるのは,複数のモデルに基づく検出では,単一のモデルのみに感応するtruepositiveの検出も抑制されるためであると考えられる.また,単一のモデルであるSWモデル,MWモデル,PDモデルの中で,適合率が最も高いのは$l=3$の場合のMW(62.21{\%})であるが,再現率が最も高いのは$l=3$の場合のPD(50.39{\%}),F1スコアが最も高いのは$l=5$の場合のPD(54.60{\%})であることが分かる.これは,窓パラメータを増やした場合の,SW,MW,PDそれぞれの適合率における振る舞いの違いから理解が出来る.SWの場合,窓パラメータを増やすことで,適合率は低下し,再現率は適合率に対して相対的には上昇している.これは,窓を広げると,より広い文脈に基づいて新たなtruepositiveが検出できるようになる反面,離れた周辺語ほどイベント表現と無関係な語の割合が高く,そのノイズによりfalsepositiveが増えるためと考えられる.さらに,MWとSWの窓パラメータの増大による適合率の低下を比較すると,MWの方がSWに比べて低下が少ない事が分かる.これは,MWの場合,窓中央に近いトークンほど入力強度が強化される性質があるため,SWの場合に窓を広げると問題になっていた,離れた周辺語のノイズによるfalsepositiveを抑制する効果が生じているためと考えられる.再現率の上昇は,SWと同様の原理で生じていると考えられる.この両者の違いは,F1スコアに顕著に現れている.$l\mathrm{=5}$の場合で,SWは最低値(20.65{\%})であるのに対し,MWでは最高値(52.75{\%})となっている.一方,PDの場合,窓パラメータの違いによる性能差はMWよりも小さい.窓パラメータを増やすことで適合率が上昇し,再現率が低下するといったMWやSWとは逆の傾向が見られる.PDの場合,窓パラメータを増やしても周辺語の入力における比率が1/2に保たれるため,前述のSW,MWの場合と違ってfalsepositiveは抑制され,適合率は低下しない.しかし同時に,窓を広げることで,それぞれの周辺語の相対的な入力強度が低下するため,周辺文脈を手掛かりとするtruepositiveの検出も同時に抑制するため,再現率の低下として現れていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.2\subsection{イベントタイプ分類における比較評価}続いて,第二のサブタスクであるイベントタイプ分類における評価結果を示す.表4では,3つの異なるエンコーディングモデルにそれぞれ異なる窓パラメータを適用した場合と,ソフト投票法,および,動的アンサンブル法を介して適用した場合のイベントタイプ分類の性能を,適合率,再現率,F1スコア(ミクロ平均)で示している.比較評価のため,各モデルのイベントタイプ分類では,イベント表現検出の評価(表3)でF1スコアが最も高い$k=1$の場合のDE法(再現率55.09{\%},F1スコア59.13{\%})の検出結果を,全てのモデルに共通の入力として用いることで評価を行った.イベントタイプ分類は,この検出されたイベント表現を入力として,18種類のイベントタイプに関する二値分類を適用し,4.3節の(\ref{eq10})式の方法を用いることで,最終的に唯一のイベントタイプの推定を行った.表4の$l$および$k$は,表3と同様,それぞれ窓パラメータ$l$とモデル数のパラメータ$k$を表す.表の左側は,各評価に用いたモデルの種類または手法を表している.シングルウィンドウ(SW)モデルに対しては3種類の窓パラメータ$l\mathrm{=0,\,3,\,5}$を用いた結果を示し,マルチウィンドウ(MW)モデルと擬似依存(PD)モデルに対してはそれぞれ,2種類の窓パラメータ$l\mathrm{=3,\,5\,}$を用いた結果を示している.また,ソフト投票(SV)法,および,動的アンサンブル(DE)法に対しては,SWモデル,MWモデル,PDモデルの各評価で用いた7つのモデルをモデル群とし,ソフト投票ではその全てのモデルを用い,動的アンサンブル(DE)法ではそれぞれモデル数のパラメータ$k=1,\,2,\,3,\,4\,$を用いた結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\hangcaption{イベントタイプ分類における,各エンコーディングモデルを独立に適用した場合と動的アンサンブルを介して適用した場合の,適合率・再現率・F1スコアの評価結果の比較}\label{tab4}\input{08table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表4を見ると,適合率が最も高いのはSV法(56.82{\%})であるが,再現率およびF1スコアが最も高いのはモデル数のパラメータが$k=1$の場合のDE法(再現率47.94{\%},F1スコア51.46{\%})であることが分かる.SV法の適合率が$k=1$の場合のDE法よりも適合率が高くなるのは,複数のモデルに基づく検出により,単一のモデルに比べてfalsepositiveの検出が抑制されるためであると考えられる.一方,SV法の再現率が$k=1$のDE法よりも再現率が低くなるのは,複数のモデルに基づく検出では,単一のモデルのみに感応するtruepositiveの検出も抑制されるためであると考えられる.これらの傾向は,イベント表現検出(表3)の結果と似ているが,イベント表現検出では,モデルによって検出されるイベント表現の総数が変化するのに対し,イベントタイプ分類では,前段のイベント表現検出が決定した表現に対するイベントタイプの決定であるため,モデルによって各イベントタイプに分類される割合は変化しても総数は保存されるという点が異なる.この違いが両者のSV法の適合率の振る舞いの違いを生じていると考えられる.すなわち,イベント表現検出(表3)では,全モデルの平均を用いるSV法では,検出されるイベント表現の総数が減少するため,$k=1$の場合のDE法の適合率(63.82{\%})よりも低い値(62.32{\%})であったのに対し,イベントタイプ分類(表4)では,検出されるイベント表現の総数が保存されるため,SV法の適合率(56.82{\%})が最も高い値になったと考えられる.また,単一のモデルであるSWモデル,MWモデル,PDモデルの中で,適合率が最も高いのは$l=3$の場合のMW(54.65{\%})であるが,再現率とF1スコアが最も高いのは$l=3$の場合のPD(再現率が43.82{\%},F1スコアが47.43{\%})であることが分かる.これは,イベント表現検出(表3)と同様の傾向であり,窓パラメータを増やした場合の,SW,MW,PDそれぞれの適合率における振る舞いの違いから理解が出来る.SWの場合,窓パラメータを増やすことで,適合率は低下し,再現率は適合率に対して相対的には上昇している.これは,窓を広げると,より広い文脈に基づいて新たな,truepositiveが検出できるようになる反面,離れた周辺語ほどイベント表現と無関係な語の割合が高く,そのノイズによりfalsepositiveが増えるためと考えられる.さらに,MWとSWの窓パラメータの増大による適合率の低下を比較すると,MWの方がSWに比べて低下が少ない事が分かる.これは,MWの場合,窓中央に近いトークンほど入力強度が強化される性質があるため,SWの場合に窓を広げると問題になっていた,離れた周辺語のノイズによるfalsepositiveを抑制する効果が生じているためと考えられる.再現率の上昇は,SWと同様の原理で生じていると考えられる.この両者の違いは,F1スコアに顕著に現れている.$l\mathrm{=5}$の場合で,SWは最低値(17.80{\%})であるのに対し,MWでは最高値(46.54{\%})となっている.一方,PDの場合,窓パラメータの違いによる性能差はMWよりも小さい.窓パラメータを増やすことで適合率が上昇,再現率が低下するといったMWやSWとは逆の傾向が見られる.これはイベント表現検出(表3)と同様の傾向であり,先に述べたように,窓パラメータを増やしても周辺語の入力における比率が1/2に保たれるというPDの性質により,大きな窓パラメータではfalsepositiveとtruepositiveが抑制されるためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.3\subsection{実現性状態分類における比較評価}続いて,最後のサブタスクである実現性状態分類における評価結果を表5に示す.ここでも表3,表4と同様に,3つの異なるエンコーディングモデルにそれぞれ異なる窓パラメータを適用した場合と,ソフト投票法,および,動的アンサンブル法を介して適用した場合のイベント表現検出の性能を,適合率,再現率,F1スコア(ミクロ平均)で示している.比較評価のため,各モデルの実現性状態分類でも,イベント表現検出の評価(表3)でF1スコアが最も高い$k=1$の場合のDE法(再現率55.09{\%},F1スコア59.13{\%})の検出結果を,全てのモデルに共通の入力として用いることで評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\hangcaption{実現性状態分類における,各エンコーディングモデルを独立に適用した場合と動的アンサンブルを介して適用した場合の,適合率・再現率・F1スコアの評価結果の比較}\label{tab5}\input{08table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実現性状態は,この検出されたイベント表現を入力として,3つの実現性状態(``$actual$'',``$general$'',``$others$'')に関する二値分類を適用し,4.4節の(\ref{eq11})式の方法を用いることで,最終的に唯一の実現性状態の推定を行った.ここで$l$および$k$は,表3,表4と同様,それぞれ窓パラメータ$l$とモデル数のパラメータ$k$を表す.表の左側は,各評価に用いたモデルの種類または手法を表している.シングルウィンドウ(SW)モデルに対しては3種類の窓パラメータ$l\mathrm{=0,\,3,\,5}$を用いた結果を示し,マルチウィンドウ(MW)モデルと擬似依存(PD)モデルに対してはそれぞれ,2種類の窓パラメータ$l\mathrm{=3,\,5}$を用いた結果を示している.また,ソフト投票(SV)法,および,動的アンサンブル(DE)法に対しては,SWモデル,MWモデル,PDモデルの各評価で用いた7つのモデルをモデル群とし,ソフト投票ではその全てのモデルを用い,動的アンサンブル(DE)法ではそれぞれモデル数のパラメータ$k=1,\,2,\,3,\,4$を用いた結果を示す.表5を見ると,モデル数のパラメータが$k=1$の場合のDE法が適合率,再現率,F1スコアの全てで最も高い値(適合率50.01{\%},再現率43.16{\%},F1スコア46.34{\%})となっていることが分かる.$k=1$の場合のDE法に比べて,モデル数の大きいDE法やSV法の再現率が低くなるのは,複数のモデルに基づく検出では,単一のモデルのみに感応するtruepositiveの検出が抑制されるためと考えられる.この傾向は,これまで見てきたイベント表現検出(表3)やイベントタイプ分類(表4)とも共通している.一方,$k=1$の場合のDE法に比べて,モデル数の大きいDE法やSV法の適合率が低くなる点は,イベント表現検出(表3)やイベントタイプ分類(表4)と異なる.この違いは,実現性状態分類における分類方法(4.4節)と関係があると考えられる.実現性状態分類では,3つの実現性状態(``$actual$'',``$general$'',``$others$'')に関する二値分類の後,いずれの信頼度も低い場合には定義上``$others$''を割り当てるという方法を用いている.このため,複数のモデルに基づいて検出を行った場合,二値分類による検出が抑制されて信頼度が全体的に低下し,``$others$''への分類が増加する.その結果,``$others$''でのfalsepositiveの増加が起き,適合率の低下が生じると考えられる.また,単一のモデルであるSWモデル,MWモデル,PDモデルの中では,$l=5$の場合のMWが,適合率,再現率,F1スコアの全てで最も高い値(適合率48.51{\%},再現率41.87{\%},F1スコア44.94{\%})となっていることが分かる.さらに,SW,MW,PDのいずれの場合も,窓パラメータが大きい方が適合率,再現率,共に高くなる傾向にあることが分かる.この傾向は,イベント表現検出(表3)やイベントタイプ分類(表4)において,SWとMWでは適合率が低くなり,PDでは再現率が低くなる傾向が見られたのとは明らかに異なる.とりわけ,窓パラメータが$l=$の場合と,それ以外の場合でのSWの適合率の違いは顕著である.この傾向の違いを生じている要因は,まず実現性状態の性質にあると考えられる.3つの実現性状態(``$actual$'',``$general$'',``$others$'')とムード(法),モダリティ(法性),テンス(時制),アスペクト(相)の間の密接な関連性から考えて,実現性状態を正確に分類するためには,イベント表現自体からの情報に加え,その有力な手掛かりとなる助動詞,接続詞,疑問詞,副詞,副詞節の構成語など,様々な周辺語からの情報が入力文の表現に応じて必要となると考えられる.これは,評価セット中から抽出した次の例からも明らかである.\vspace{0.5\Cvs}例)``Wherewasthefatherwhenthe\underline{\textit{shot}}\textbf{was}\underline{\textit{fired}}notmorethana1000feetaway?''[\textit{actual}]\vspace{0.5\Cvs}この例の場合,実現可能性``\textit{actual}''の推定に必要な情報は,イベント表現の構成語``\underline{\textit{shot}}''と``\underline{\textit{fired}}''に隣接するbe動詞``\textbf{was}''のテンス(時制)として存在し,イベント表現自体からは手掛かりを得ることができない.実現可能性の判定では,このように周辺語の情報が必須となる入力文が存在するため,周辺語からの情報が得られない窓パラメータが$l=0$の場合のSWに比べて,窓パラメータが大きなSWの方が相対的にtruepositiveを多く検出でき,再現率が高まる.すると,前述の実現性状態分類における分類方法(4.4節)の性質からも,二値分類における信頼度がより高くなることで,信頼度の低い``\textit{others}''への分類が減少し,結果として適合率と再現率が共に高い結果が得られると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.4\subsection{end-to-endでの比較評価}EventNuggetタスクにおける提案手法の有効性をさらに比較検証するため,NISTTACKBPの過去2回分のEventNuggetタスク,KBP2017およびKBP2016における公式評価結果との比較評価を行う.表6,表7には,それぞれKBP2017,KBP2016におけるEventNuggetタスクの公式評価でのend-to-endでの性能(イベント表現検出,イベントタイプ分類,実現性状態分類を統合した全体性能)を,適合率,再現率,F1スコア(ミクロ平均)で示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\hangcaption{表6NISTKBP2017EventNuggetDetectionタスクのend-to-end評価(英語)における公式評価結果の上位10システムと提案手法の,適合率・再現率・F1スコアの比較}\label{tab6}\input{08table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\hangcaption{表7NISTKBP2016EventNuggetDetectionタスクのend-to-end評価(英語)における公式評価結果の上位10システムと提案手法の,適合率・再現率・F1値の比較}\label{tab7}\input{08table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,各参加システムおよび提案手法は,手法やモデルの違いに加えて,開発・訓練に使用したデータセットや外部リソースなどの面でもそれぞれ異なっている.このため,表中では,これらの違いを踏まえた比較が可能なように,各システムがベースとする基本モデル,開発用データ,分散表現や解析器などの外部リソースの種別についても併せて記載した.紙面の都合により,開発用データの種別は表1のカテゴリに基づいて,それぞれACEを「A」,EREを「E」,EN2014を「14」,EN2015を「15」,EN2016を「16」の様に略記した.分散表現や解析器などの外部リソースについても,単語の分散表現を「分」,品詞情報を「品」,統語情報を「統」,意味情報を「意」の様に略記した.各システムの行中で「●」が付いている項目は,同システムがそのカテゴリの開発データや外部リソースを使用している事を表している.これらの表から分かるように,公式評価の条件下であっても,各システムが使用する開発データや外部リソースには違いがある.このため,以降の各システムの比較議論においては,こうした条件の違いが各システムの性能に影響する可能性についても注意が必要である.まず,KBP2017のend-to-endの評価結果から比較議論を行う.表6の「提案手法(DE)」の行は,前節までの提案手法の評価に用いたシステムを,KBP2017の公式評価と同一条件となるよう,表2のKBP2017公式評価との比較評価の開発用データセットを用いて訓練や各パラメータを決定し,KBP2017の公式評価ツールを用いて評価したend-to-endでの性能値である.それ以外のシステムの行は,NISTTACKBP2017のEventNuggetDetection(English)に参加した上位10システムの評価結果を示している.各システムの基本モデル,開発用データ,分類表現・解析器については,それぞれのシステムレポートの記載内容に基づいている.表中でF1値が最も高いのは提案手法(DE)で,40.32{\%}であった.一方,公式評価結果の中でF1値が最も高いのはCLUZH1(MakarovandClematide,2017)で,39.73{\%}である.同システムは,単語の分散表現,CoreNLP(Manningetal.,2014)からの品詞,依存関係(UniversalDependencies),位置情報のエンコーディングを結合した単語のエンコーディングを入力として,Bi-LSTMによる文エンコーディングによってイベント表現の各属性のBIOラベリングのjointlearningを実現している.同システムの再現率41.03{\%}は,全システム中で最も高い値であるが,これはfalsenegativeに対するコストを追加した損失関数による学習が奏効した結果と思われる.次にF1値が高いのはlvic-event1(Kodelja,Besan\c{c}on,Ferret,Borgne,andBoros,2017)で,39.28{\%}である.同システムは,入力層にdropoutを適用した畳み込みニューラルネットワークによる入力系列へのBIOラベリングを,CLUZH1と同様に拡張された単語embeddingによって強化している.上位の参加システムの多くはLSTMまたはCNNを基本モデルとしているが,例えばF1値が9番目のBUPT-PRIS1(Sun,Gu,Ding,Li,Li,Li,andXu,2017)では,Bi-GRUベースのAttention機構で文のembeddingを生成し,これを入力にFeedForwardNetwork(FFN)でイベント表現の抽出を実現している.なお,CLUZH1を始めとする多数の参加システムが使用した開発用データが,表1のカテゴリのうちERE,EN2015,EN2016に集中する傾向が見られる.これに関してCLUZH1の報告書(MakarovandClematide,2017)に,KBP2016の参加システムの開発用データの選択を踏襲してRichEREアノテーションのデータ,すなわちERE,EN2015,EN2016のみを用いるといった言及がある.表7の開発用データを見ると,確かにF1値で上位7番目までのチームがRichEREアノテーションでないEN2014を開発用データに用いていないことが分かる.一方,提案手法のKBP2017,KBP2016の評価では,このEN2014を使用しない場合の実験を行っていないため,これらのシステムとの間でEN2014が性能差にどう影響するかは確認出来ていない.こうした様々なシステム間の違いから,基本モデルの特性をシステム性能の比較に基づいて議論するのは注意を要するところではあるが,F1値が同程度の上位のシステムを比較すると,LSTMベースの方が全体的にCNNベースに対して再現率が高く,適合率が低くなる傾向が見られる.これは,文全体に渡る依存関係を必要とするイベント表現の抽出では,基本的にはCNNよりもLSTMの方が適しており,実際にそのようなイベント表現のtruepositiveをより多く検出できれば,再現率における優位性として現れてくるという解釈ができる.提案手法(DE)の再現率37.56{\%}は,CNNベースのシステムの中では最も高い値であるが,LSTMベースの上位2システムであるCLUZH1およびsrcb1と比べれば低い値となっている.これも,提案手法のベースモデルがCNNであることに要因があると思われる.一方,Attention機構による文のエンコーディングでも,文全体に渡る依存関係を必要とするイベント表現の抽出では,CNNベースに対して同様の優位性が期待される.しかし実際にBi-GRUベースのAttention機構を用いたBUPT-PRIS1を見ると,適合率39.92{\%}に対して再現率が19.24{\%}と低い値となっている.この傾向はwip1にも共通することから,GRUベースはLSTMベースほど長い文脈情報が伝達できず,結果として,長い依存関係へのAttentionが有効に機能していない可能性が考えられる.続いて,KBP2016のend-to-endの評価結果について比較議論を行う.表7の「提案手法(DE)」の行は,前節までの提案手法の評価に用いたシステムを,KBP2016の公式評価と同一条件となるよう,表2のKBP2016公式評価との比較評価の開発用データセットを用いて訓練や各パラメータを決定し,KBP2016の公式評価ツールを用いて評価したend-to-endでの性能値である.それ以外のシステムの行は,NISTTACKBP2016のEventNuggetDetection(English)に参加した上位10システムの評価結果を示している.各システムの基本モデル,開発用データ,分類表現・解析器については,それぞれのシステムレポートの記載内容に基づいている.表中でF1値が最も高いのは提案手法(DE)で,37.26{\%}であった.一方,公式評価結果の中でF1値が最も高いのはNYU1(Nguyenetal.,2016a)で,35.24{\%}である.同システムは,CNNにおいて,文中の非隣接要素をランダムに選択して生成されるn-gramにconvolutionを適用する様にCNNを拡張したnon-consecutiveCNNを各サブタスクの分類器に用い,入力には,単語の分散表現に,品詞,依存関係,位置情報のエンコーディングを結合した単語embeddingを用いている.次にF1値が高いのはUTD1(LuandNg,2016)で,33.58{\%}である.同システムは,正例の数が少ないイベントタイプに対しても,頑健にイベント表現検出やイベントタイプの分類をモデル化するためにk-近傍法を用いている.3番目にF1値が高いのはwip3(Zengetal.,2016)で,33.1{\%}である.同システムは,CRFとMaxEntropyを併用してイベント表現を検出した後,単語の分散表現とCNNで生成した文脈情報の結合を入力とするBi-LSTMを用いてイベントタイプごとのBIOラベリングを行うことで,イベントタイプ分類を行っている.ここでもKBP2017と同様に,RPI-BLENDER2とSoochowNLP3の比較から,LSTMベースがCNNベースに対して再現率が高くなる傾向が見られるが,例外も存在する.例えば,NYU1はCNNベースでありながら,再現率37.21{\%}が適合率33.47{\%}よりも高い.この要因としては,NYU1では,non-consecutiveCNNによる文中の非隣接要素のランダムな選択とconvolutionが,入力層側での擬似的なattentionのように上手く機能し,文全体のエンコーダのような機能を実現しているためではないかと考えられる.wip3もLSTMベースでありながら,再現率29.10{\%}が適合率38.38{\%}よりも低い.これは,wip3が,CRFベースのイベント表現抽出の結果に対してBi-LSTMによるラベリングを適用するシーケンシャルなプロセスを採用しているため,LSTMよりも前段のCRFベースの特性が現れていると考えられる.CRFベースのWashington1でも,再現率21.42{\%}が適合率30.71{\%}よりも低く,wip3と同じ傾向が見られる.また,LTI-CMU1(Liu,Araki,Mitamura,andHovy,2016)は,全システム中で最も高い適合率40.19{\%}であるが,再現率は22.76{\%}と低い.これはKBP2017のGRUベースのBUPT-PRIS1やwip1と共通する傾向であることから,GRUベースでは,長い依存関係を上手く扱えていない可能性が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%7 \section{考察} 本研究では,機械読解の実用化に有用な知識獲得技術の実現を主眼に,TACKBPのEventNuggetDetectionタスクを通じて,イベント抽出における技術課題に取り組んだ.同タスクの定式化では,大きく系列ラベリングと分類の2つのアプローチがあるが,本研究ではGPU等の並列計算の恩恵が受けられる後者の分類のアプローチを選択することにした.さらに,TACKBPの各参加システムの比較分析から,分類の典型であるCNNのconvolutionとpoolingによって多様なイベント表現の意味の構成性をモデル化する方向に可能性を感じ,CNNベースでの定式化を進めた.CNNベースでは固定長の入力系列を生成するために,通常,窓を用いて入力から固定長のトークン列を切り出す.しかしEventNuggetDetectionタスクでは,(1)モデルの窓長に応じて入力の個々の表現との間で様々な親和性の高低を生じ,また,(2)離れた語彙間の依存関係や長距離の文脈などを効率的に学習することが難しい,といった問題を生じる.このため本研究では,従来の単一の窓を用いるSWモデルに,窓長の異なる複数窓から構成されるMWモデル,離れたトークン間の対を隣接させる配列で依存関係を考慮するPDモデル,といった異なる性質を持つエンコーディングモデル群を導入し,さらに,入力ごとにその表現と親和性の高いモデルアンサンブルを動的に選択するDE法を提案した.EventNuggetDetectionタスクの各サブタスクで,SWモデル,MWモデル,PDモデルの比較評価を行ったところ,SWモデルで大きな窓パラメータを用いると再現率とF1値が大きく低下し,長い文脈や離れた依存関係に関する問題が確認されたが,MWモデル,PDモデルでは大きな窓パラメータを用いた場合にもこういった再現率の低下が少なく安定したF1値が得られることから,SWモデルの問題を改善する効果が確認できた.また,SWモデル,MWモデル,PDモデルで異なる窓パラメータを用いて得られる7つのモデル群に対して,全モデルの事後確率の平均を用いるSV法と,入力に親和性の高いモデルのみを信頼度に基づいて動的に選択し,得られたモデルアンサンブルの事後確率の平均を用いるDE法を比較した場合に,SV法では,SWモデル,MWモデル,PDモデルを単一で適用する場合に比べてもF1値で劣る場合が見られるのに対し,DE法では,アンサンブルのモデル数$k=1,2,3,4$いずれの値でも,全てのサブタスクで全モデルを上回るF1値を得た.このことから,入力に対して親和性の高いモデルを選択するために導入した信頼度の有効性が確認できた.なお,DE法のモデル数$k$は,今回の実験で用いたモデル群では,全てのタスクで$k=1$の時に最も高いF1値となったが,イベント表現検出の適合率は$k=2$で最大となった.このことから,DE法の性能はモデル数$k=1$の近傍で安定しており,また$k$を増やすと複数モデルに支持される分類結果が選好される効果から,falsepositiveが抑制される事が分かった.KBPの公式評価と条件を合わせた比較評価の結果では,提案手法ベースの評価システムがEventNuggetDetectionにおいて最も高いF1値を得た.各システムが使用するデータセットやリソースはそれぞれ異なるため,F1値の単純比較による優劣の議論は注意を要するが,同タスクにおいて系列ラベリング,分類の両アプローチの主要なモデルと比較しても,提案手法を用いた評価システムの性能は高い水準にあることが分かった.また,各システムの評価結果の比較から,分類に属するCNNベースのシステムが,系列ラベリングに属するLSTMやGRU等のゲート付きRNNベースのシステムと比較して同等の性能が出ていることから,EventNuggetDetectionのタスクの性質についても幾つかの推察を行うことができる.まず,EventNuggetDetectionでは,トークン列中のイベント表現の出現箇所がスパースで出力のラベル系列における依存関係が弱いため,2章でも述べたような系列ラベリングから分類への分解が良い近似になっていると考えられる.あるいは逆に,系列ラベリングに属するLSTM等では,出力系列の依存関係がスパース性によって上手く学習されず,性能に寄与していないという見方もできる.また,同タスクが長距離依存タスクで無く,イベント表現の属性に関わる文脈情報がイベント表現の近傍に集まっている点も,有限の窓長で文脈を捉えるのに好都合であり,相関の強い構成要素から汎化性の高い特徴抽出を行うのに優れたCNNに有利に働いていると考えられる.以上の評価実験に関する考察から,EventNuggetDetectionにおける,CNNをベースとした提案手法の有効性は明らかとなったが,ここまでの提案手法の定式化はCNNベースに限定されている.このため,提案手法には,ラベル系列の依存関係や,長い文脈の考慮が難しいといったCNN由来の制約が残る.そこで,以降では,ここ数年のニューラルネットワークモデルに対する提案手法の適用について,原理的な可能性を論じてみたい.出力系列の依存関係を考慮するための拡張としては,例えばCNNをゲート付きRNNと組み合わせるようなConvolutionalRecurrentNeuralNetwork(CRNN)のアプローチが考えられる.提案手法のベースになり得るモデルとしては,例えばCNNをLSTMの前段に置く構成(Sainath,Vinyals,Senior,andSak,2015)などがある.こういったCNN$+$LSTMモデルに対して提案手法を組み込むには,トークン毎に事前学習したCNNを複数用意し,動的アンサンブルによってLSTMへの入力を切り替えれば良く,比較的容易に組み込むことが可能であると考えられる.また,並列化による高速化が容易なCNNの枠組みを生かし,より長距離の依存関係の学習を強化するようなアプローチも存在する.例えば,CNNのネットワーク階層において,系列の次の単語の予測能力を高めるような特徴量を選択的に伝播させるゲートを組み込んだGatedConvolutionalNetwork(Dauphin,Fan,Auli,andGrangier,2017)やAttention機構をゲートに用いたAttentionGatedConvolutionalNeuralNetwork(Liu,Ji,Huang,Ming,Gao,andZhang,2019)がある.このようなCNNベースのモデルに対しては本論文の定式化をそのまま適用することが出来る.さらに,最近では,単一のCNN内のAttentionによる制御ではなく,CNNカーネルを並列化し,それらを入力に応じて動的に線型結合するためにself-attentionを用いることで,モデルの表現力を高めるDynamicConvolution(Chen,Dai,Liu,Chen,Yuan,andLiu,2019)やCondConv(Yang,Bender,Le,andNgiam,2019)などの提案がなされている.一方,提案手法の動的アンサンブル法は,信頼度の高いモデル集合を選択するargmaxをsoftmaxに置き換えてCNNの結合パラメータを推定する様に定式化すれば,attentionと機能的に近いことが分かる.したがって,これらの提案と提案手法は親和性が高く,概念的には提案手法をこれらの提案の枠組みの上で実現することも可能ではないかと思われる.ただし,提案手法の場合,入力側に異なるエンコーディングを適用するためにCNN間で入力系列の長さや並びが一致しない.このため,CondConvで用いられている,事前にCNNカーネルを結合してからconvolutionを行うといった定式化は適用できず,MixtureofExpertsとしての結合となる.また,ここ数年はCNNやRNNを用いずにAttention機構のみでTransformerを構成するアプローチが活発に研究されている(Vaswani,Shazeer,Parmar,Uszkoreit,Jones,Gomez,Kaiser,andPolosukhin,2017;Peters,Neumann,Iyyer,Gardner,Clark,Lee,andZettlemoyer,2018;Devlin,Chang,Lee,andToutanova,2019).これらの手法に対し,提案手法の窓を入力文のスパンとし,エンコーディングに用いる各モデル(SM,MW,PD)を組み込んだ系で事前学習(maskedlanguagemodelやnextsentenceprediction等)を行い,動的アンサンブル法による結合を行えば,形式的には提案手法は適用可能であると考えられる.ただし,提案手法で導入したMW,PDは,convolutionとpoolingを前提にその弱点を補い,近接要素の強い相関から離れた要素の依存関係までを効果的にモデル化するためのフィルタ設計になっている.このため,self-attentionの表現力が原理的にCNNを包含することを考えると(Cordonnier,Loukas,andJaggi,2020),Transformerの学習特性にあった別の設計が不可欠と思われる.そのようなTransformerに対するフィルタ群の体系的な設計と提案手法の有効性の検証は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%8 \section{まとめ} 本研究では,機械読解の実用化に有用な知識獲得技術の実現を主眼に,TACKBPのEventNuggetDetectionタスクを通じて,イベント抽出における技術課題に取り組んだ.同タスクの定式化では,大きく系列ラベリングと分類の2つのアプローチがあるが,本研究ではGPU等の並列計算の恩恵が受けられる後者の分類に属するCNNをベースに提案手法の定式化を行った.CNNでは固定長の入力系列を生成するため,そのままではEventNuggetDetectionにおいて,(1)モデルの窓長に応じて入力の個々の表現との間で様々な親和性の高低を生じ,また,(2)離れた語彙間の依存関係や長距離の文脈などを効率的に学習することが難しい,といった問題を生じる.このため本研究では,単一の窓を用いるSWモデル,窓長の異なる複数窓からなるMWモデル,離れたトークン対の配列で依存関係を模擬するPDモデルからなるエンコーディングモデル群を導入し,さらに,入力ごとに動的に親和性の高いモデルを動的に選択するDE法を提案した.EventNuggetDetectionのサブタスクの比較評価から,SWモデルで大きな窓パラメータを用いると再現率とF1値が大きく低下する問題が,MWモデル,PDモデルでは緩和され,安定したF1値が得られる効果が確認できた.さらに,SWモデル,MWモデル,PDモデル,およびこれら全ての平均を用いるSV法と提案手法であるDE法の比較から,DE法は,アンサンブルのモデル数$k=1,2,3,4$いずれの値でも,他のモデルをF1値で上回ることから,DE法とそのベースである信頼度の有効性が確認できた.また,KBPの公式評価と条件を合わせた比較評価の結果では,提案手法ベースの評価システムがEventNuggetDetectionにおいて最も高いF1値を得た.各システムが使用するデータセットやリソースはそれぞれ異なるため,F1値の単純比較による優劣の議論は注意を要するが,同タスクにおいて系列ラベリング,分類の両アプローチの主要なモデルと比較しても,提案手法を用いた評価システムの性能は高い水準にあることが分かった.さらに,各参加システムの比較からEventNuggetDetectionの性質についても考察を行った.その結果,分類に属するCNNベースのシステムが,系列ラベリングに属するLSTMやGRU等のゲート付きRNNベースのシステムと同等の性能であることから,EventNuggetDetectionでは,トークン列中のイベント表現の出現箇所がスパースで出力のラベル系列における依存関係が弱いため,系列ラベリングから分類への分解が良い近似になっていると推察した.また,同タスクが長距離依存タスクで無く,イベント表現の属性に関わる文脈情報がイベント表現の近傍に集まっていることが,有限の窓長で文脈を捉え,相関の強い構成要素から汎化性の高い特徴抽出を行うCNNに有利に働いているものと推察した.最後に,CNNベースの提案手法の拡張可能性として,ここ数年のニューラルネットワークモデルに対する適用可能性についても議論を行った.LSTMの入力側にCNNのエンコーダを配する枠組みや,ゲート機構付きのCNNなどは,比較的容易に提案手法が可能であることが分かった.また,CNNカーネルを並列化し,入力に応じてself-attentionで動的な結合を実現するDynamicConvolutionやCondConvなどの手法は,動的アンサンブルと機能構成が近く,原理的には提案手法をこれらの枠組み上で実現できる見込みを得た.一方で,CNNやRNNを用いずAttention機構のみでTransformerを構成するアプローチに対しては,提案手法は形式的には適用可能であるものの,CNNの弱点を補強するように設計されたエンコーディングモデルは見直しが必要である.より表現力の高いTransformerに適した体系的なフィルタ群の導入が必要であり,そのような提案手法の再設計と有効性の検証は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\itemAguilar,J.,Beller,C.,McNamee,P.,Durme,B.V.,Strassel,S.,Song,Z.,andEllis,J.(2014).``AComparisonoftheEventsandRelationsAcrossACE,ERE,TAC-KBP,andFrameNetAnnotationStandards,''In\textit{Proceedingsofthe2ndWorkshoponEvents,ACL2014},pp.~45--53.\itemBies,A.,Song,Z.,Getman,J.,Ellis,J.,Mott,J.,Strassel,S.,Palmer,M.,Mitamura,T.,Freedman,M.,Ji,H.andO'Gorman,T.(2016).``AComparisonofEventRepresentationinDEFT,''In\textit{Proceedingsofthe4thWorkshoponEvents},pp.~27--36.\itemChen,Y.,Dai,X.,Liu,M.,Chen,D.,Yuan,L.,andLiu,Z.(2019).``DynamicConvolution:AttentionOverConvolutionKernels,''\textit{arXivpreprintarXiv:1912.03458}.\itemCollobert,R.,Weston,J.,Bottou,L.,Karlen,M.,Kavukcuoglu,K.andKuksa,P.(2011).``NaturalLanguageProcessing(Almost)fromScratch,''\textit{JournalofMachineLearningResearch},\textbf{12},pp.~2493--2537.\itemCordonnier,J.B.,Loukas,A.,andJaggi,M.(2020).``OntheRelationshipBetweenSelf-atttetionandConvolutionalLayers,''\textit{ICLR2020}.\itemDauphin,Y.N.,Fan,A.,Auli,M.,Grangier,D.(2017).``LanguageModelingwithGatedConvolutionalNetworks,''\textit{ICML2017},pp.~933--941.\itemDevlin,J.,Chang,M.W.,Lee,K.,Toutanova,K.(2019).``BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding,''\textit{NAACL-HLT2019},pp.~4171--4186.\itemDoddington,G.,Mitchell,A.,Przybocki,M.,Ramshaw,L.,Strassel,S.,andWeischedel,R.(2004).``AutomaticContentExtraction(ACE)Program-TaskDefinitionsandPerformanceMeasures,''\textit{LREC2004},pp.~837--840.\itemEllis,J.,Getman,J.,Fore,D.,Kuster,N.,Song,Z.,Bies,A.,andStrassel,S.(2016).``OverviewofLinguisticResourcesfortheTACKBP2016Evaluations:MethodologiesandResults,''In\textit{Proceedingsofthe9thTextAnalysisConference}.\itemGetman,J.,Ellis,J.,Song,Z.,Tracey,J.,andStrassel,S.(2017).``OverviewofLinguisticResourcesfortheTACKBP2017Evaluations:MethodologiesandResults,''In\textit{Proceedingsofthe10thTextAnalysisConference}.\itemKim,Y.(2014).``ConvolutionalNeuralNetworkforSentenceClassification,''In\textit{EMNLP2014},pp.~1746--1751.\itemKodelja,D.,Besan\c{c}on,R.,Ferret,O.,Borgne,H.L.,andBoros,E.(2017).``CEALISTParticipationtotheTAC2017EventNuggetTrack,''In\textit{Proceedingsofthe10thTextAnalysisConference}.\itemLiu,Y.,Ji,L.,Huang,R.,Ming,T.,Gao,C.,Zhang,J.(2019).``AnAttention-GatedConvolutionalNeuralNetworkforSentenceClassification,''\textit{IntelligentDataAnalysis},\textbf{23}(5),pp.~1091--1107.\itemLiu,Z.,Araki,J.,Mitamura,T.,andHovy,E.(2016).``CMU-LTIatKBP2016EventNuggetTrack,''In\textit{Proceedingsofthe9thTextAnalysisConference}.\itemLu,J.andNg,V.(2016).``UTD'sEventNuggetDetectionandCoreferenceSystematKBP2016,''In\textit{Proceedingsofthe9thTextAnalysisConference}.\itemMakarov,P.andClematide,S.(2017).``UZHatTACKBP2017:EventNuggetDetectionviaJointLearningwithSoftmax-MarginObjective,''In\textit{Proceedingsofthe10thTextAnalysisConference}.\itemManning,C.D.,Surdeanu,M.,Bauer,J.,Finkel,J.,JBethard,S.andMcClosky,D.(2014).``TheStanfordCoreNLPNaturalLanguageProcessingToolkit,''In\textit{ACL2014},pp.~55--60.\itemMcNameeP.andDang,H.T.(2009).``OverviewoftheTAC2009KnowledgeBasePopulationTrack,''In\textit{Proceedingsofthe2ndTextAnalysisConference}.\itemMeyers,A.,Kosaka,M.,Ji,H.,Xue,N.,Harper,M.,Sun,A.,Xu,W.andLiao,S.(2009).``TransducingLogicalRelationsfromAutomaticandManualGLARF,''In\textit{theLinguisticAnnotationWorkshopIII,inACL},pp.~116--120.\itemMikolov,T.,Chen,K.,Corrado,G.andDean,J.(2013).``EfficientEstimationofWordRepresentationsinVectorSpace,''In\textit{ICLR}.\itemMitamura,T.,Yamakawa,Y.,Holm,S.,Song,Z.,Bies,A.,Kulick,S.andStrassel,S.(2015).``EventNuggetAnnotation:ProcessandIssues,''In\textit{Proceedingsofthe3rdWorkshoponEvents},pp.~66--76.\itemMitamura,T.,Liu,Z.andHovy,E.(2016).``OverviewofTAC-KBP2016EventNuggetTrack,''In\textit{Proceedingsofthe9thTextAnalysisConference}.\itemNguyen,T.H.,Cho,K.andGrishman,R.(2016a).``JointEventExtractionviaRecurrentNeuralNetworks,''In\textit{HLT-NAACL2016},pp.~300--309.\itemNguyen,T.H.,Meyers,A.andGrishman,R.(2016b).``NewYorkUniversity2016SystemforKBPEventNugget:ADeepLearningApproach,''In\textit{Proceedingsofthe9thTextAnalysisConference}.\itemPeters,M.E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,Zettlemoyer,L.(2018)``DeepContextualizedWordRepresentations,''In\textit{NAACL-HLT2008},pp.~2227--2237.\itemSainath,T.,Vinyals,O.,Senior,A.,Sak,H.(2015).``Convolutional,LongShort-TermMemory,FullyConnectedDeepNeuralNetworks,''In\textit{ICASSP},pp.~4580--4584.\itemSong,Z.,Bies,A.,Strassel,S.,Ellis,J.,Mitamura,T.,Dang,H.,Yamakawa,Y.,andHolm,S.(2016).``EventNuggetandEventCoreferenceAnnotation,''In\textit{the4thWorkshoponEVENTS,HLT-NAACL2016},pp.~37--45.\itemStrassel,S.M.,Adams,D.,Goldberg,H.,Herr,J.,Keesing,R.Oblinger,D.,Simpson,H.,Schrag,R.,andWright,J.(2010).``TheDARPAMachineReadingProgram---EncouragingLinguisticandReasoningResearchwithaSeriesofReadingTasks,''In\textit{LREC2010},pp.~986--993.\itemSun,J.,Gu,X.,Ding,C.,Li,C.,Li,Y.,Li,S.,andXu,W.(2017).``BUPT-PRISSystemforTAC2017EventNuggetDetection,EventArgumentLinkingandADRTracks,''In\textit{Proceedingsofthe10thTextAnalysisConference}.\itemVaswani,A.,Shazeer,N.,Parmar,N.,Uszkoreit,J.,Jones,L.,Gomez,A.N.,Kaiser,L.,\linebreakPolosukhin,I.(2017).``AttentionIsAllYouNeed,''In\textit{NIPS2017},pp.~5998--6008.\itemVoorhees,E.M.(1999).``TheTREC-8QuestionAnsweringTrackReport,''In\textit{the8thTextREtrievalConference(TREC8),NIST}.\itemWalker,C.,Strassel,S.,Medero,J.,andMaeda,K.(2006).``ACE2005MultilingualTrainingCorpus,''\textit{LinguisticDataConsortium,LDCCatalog},No.LDC2006T06.\itemYang,B.,Bender,G.,Le,Q.V.,andNgiam,J.(2019).``CondConv:ConditionallyParameterizedConvolutionsforEfficientInference,''In\textit{NeurIPS2019},pp.~1305--1316.\itemZeiler,M.D.(2012).``ADADELTA:AnAdaptiveLearningRateMethod,''\textit{arXivpreprintarXiv:1212.5701},Version1.\itemZeng,Y.,Luo,B.,Feng,Y.andZhao,D.(2016).``WIPEventDetectionSystematTACKBP2016EventNuggetTrack,''In\textit{Proceedingsofthe9thTextAnalysisConference}.\itemZhang,Y.andWallace,B.(2017).``ASensitivityAnalysisof(andPractitioners'Guideto)ConvolutionalNeuralNetworksforSentenceClassification,''In\textit{IJCNLP2017},pp.~253--263.\itemZhou,Z.(2012).``EnsembleMethods:FoundationsandAlgorithms,''\textit{MachineLearning{\&}PatternRecognitionSeries,CRCPress}.\end{thebibliography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石川開}{%1994年東京大学理学部物理学科卒業.1996年同大学院修士課程修了.同年NEC入社.現在,NECデータサイエンス研究所主任研究員,東京工業大学工学院博士課程在学中.自然言語処理,AIの社会受容性の研究に従事.}\bioauthor{高村大也}{%1997年東京大学工学部計数工学科卒業.2003年奈良先端科学技術大学院大学博士課程修了,工学博士.同年東京工業大学助手.現在,産業技術総合研究所人工知能研究センター知識情報研究チーム長,東京工業大学科学技術創成研究院未来産業技術研究所教授を兼任.計算言語学,自然言語処理を専門とし,特に,評判分析,文書要約,言語生成の研究に従事.}\bioauthor{奥村学}{%1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了,工学博士.同年東京工業大学助手.現在,東京工業大学科学技術創成研究院未来産業技術研究所教授.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングの研究に従事.}\end{biography}\biodate\end{document}
V26N02-04
\section{はじめに} 語義曖昧性解消(以下,WSD)とは多義語の語義ラベルを付与するタスクである.長年,英語のみならず日本語を対象としたWSDの研究が盛んに行われてきた.しかし,その多くは教師あり学習による対象単語を頻出単語に限定したWSD(lexicalsampleWSD)であるため,実用性が高いとは言えない.これに対し,文書中のすべての単語を対象とするWSDをall-wordsWSDという.all-wordsWSDのツールがあれば,より下流の処理の入力として,例えば品詞情報のように語義を利用することが可能になり,より実用的になると期待される.all-wordsWSDは,lexicalsampleWSDと異なり,教師ありの機械学習に利用する十分な量の訓練事例を得ることが難しいため,辞書などの外部の知識を利用して,教師なしの手法で行われることが一般的である.all-wordsWSDの研究は日本語においては研究例が少ない.その理由のひとつに,all-wordsWSDを実行・評価するのに足りるサイズの語義つきコーパスがないことがあげられる.日本語の教師あり手法によるWSDでは,岩波国語辞典の語義が付与されている『現代日本語書き言葉均衡コーパス』(以下,BCCWJ)\cite{Okumura-2011}がよく用いられてきた.しかし,知識ベースの手法でall-wordsWSDを行う場合に多用される類義語の情報は岩波国語辞典のような語義列記型の辞書からは得ることができない.英語のall-wordsWSDにおいては,WordNet\footnote{https://wordnet.princeton.edu/}というシソーラスが辞書として主に利用されている.WordNetには日本語版も存在するが,基本的には英語版を和訳したものであり,日本語にしかない品詞の単語はどうするのかなどの問題点が残る.そのため,現在BCCWJに分類語彙表の意味情報がアノテーションされ,語義付きコーパスが整備されつつある.本研究では,整備されつつあるこのコーパス\cite{Kato-2018}を用いて,日本語を対象とした教師なしall-wordsWSDを行う.分類語彙表とは単語を意味によって分類したシソーラスである.レコード総数は約10万件で,各レコードは類・部門・中項目・分類項目を表す“分類番号”によって分類されている.その他にも分類語彙表では“段落番号”,“小段落番号”,“語番号”が各レコードに割り振られており,それらすべての番号によってレコードが一意に決まるようになっている.また,分類語彙表には「意味的区切り」が240箇所に存在し,分類番号による分類をさらに細かく分けている.本稿では分類語彙表から得られる類義語の情報を利用し,分類番号を語義とした日本語all-wordsWSDの手法を提案する. \section{関連研究} WSDの手法は,大きく教師あり学習と知識ベース(教師なしの手法)の二つに分けることができる.一般的に,WSDを教師あり学習を用いた手法で行った場合,教師なしの手法に比べて高い精度を得ることができる.しかしその反面,十分な量の教師データ,すなわちタグ付きの用例文が必要なためその作成にコストがかかるという問題点がある.一方,教師なしの場合は教師データを必要としないためコストはかからないが,教師ありの手法と同等の精度を得ることは難しい.WSDにおいては,一般に対象単語の文脈を素性とする.例えば,\citeA{yarowsky1995}は,同一の連語や文書内では出現する単語に対する語義割り当てが一意であるという仮説\cite{Gale:1992:OSP:1075527.1075579}のもと,教師なしによるWSDで高い精度を達成している.また,近年,文脈として,WSDの対象単語の周辺単語を分散表現で表す研究が行われている.\citeA{suga}では,教師あり学習において対象単語の前後N単語ずつの単語の分散表現を基本的な素性として用い,その有効性を明らかにした.さらに,\citeA{yamaki}は,単語の位置を規定しない・自立語以外の語を考慮しない,などしてSugawaraらの手法を改善し成果を上げている.このように,対象単語を決めるうえで周辺の単語が大きな手掛かりとなることが知られている.そのため,本研究では,教師なしの手法を利用する際にも,周辺の単語の分散表現を手掛かりとして利用する.一方で,本研究には階層的な概念辞書である,シソーラスも同時に利用する.WSDに分類語彙表などのシソーラスを用いる手法は数多く提案されている.特に,教師あり手法ではシソーラスから得られる単語の情報や上位概念を素性として利用することが多い.\citeA{shinnou}では,教師あり手法によるWSDにおいて分類語彙表などのシソーラスを素性に利用することの有効性や,上位概念のレベル(シソーラスの粒度)による精度の差があまりないことなどが報告されている.また,シソーラスを用いた辞書ベースの手法は,教師なしの手法のうち最も一般的な手法の一つである.\citeA{yarowsky1992}はロジェのシソーラスを用いた教師なし手法によるWSDの手法を提案した.また,\citeA{koba}はシソーラスを分類語彙表に置き換え,Yarowskyの手法に改良を加えた手法を提案している.これらの手法では,シソーラスにおいて対象単語の語義と同じ分類に属する単語の用例を集め,用例に出現しやすい自立語すなわち語義の特徴の重みを計算することで語義を予測している.また,\citeA{boyd}はWordNetの語義を用いることでトピックモデルを教師なしWSDに応用した.\citeA{guo}も同様にトピックモデルとWordNetの組み合わせの手法を提案しているが,概念構造は利用せず,辞書の定義文から事前学習を行う手法で,all-wordsWSDに関してBoyd-Graberらと同程度の精度を上げている.また,\citeA{tanigaki}は階層ベイズとギブスサンプリングを用いた英語のall-wordsのWSDを提案している.日本語のall-wordsWSDの研究には\citeA{baldwin},\citeA{sasaki}や\citeA{kywsd}がある.日本語は表意文字(漢字)を利用しているため,すでに書かれた時点で意味が分かることが多い.そのため,日本語のWSDは英語のWSDに比べて,語義の差が小さいと考えられる.小さな語義の差を,あまり用例がない状態でも解かなければならない点が,日本語のall-wordsWSDの難しさであろう.\citeA{baldwin}では,machinereadabledictionary(MRD)ベースの手法を提案している.\citeA{sasaki}では,多義語の周辺に現れる語義の分布を利用する教師なし学習による周辺語義モデルを提案している.この論文の手法はギブスサンプリングを用いたシソーラスベースのall-wordsのWSDである.ただしこのシステムにはEDR電子化辞書による概念体系辞書が組み込まれており,再現するのが困難である.また,Shinnouetal.\citeyear{kywsd}は単語分割をするテキスト分析のツールキットを応用し,教師ありの手法でall-wordsWSDを簡易に行えるシステムを作成している. \section{比較対象となるベースライン手法} 本研究では,四つの比較対象となるベースライン手法を用いた.一つは語義をランダムに選択した場合の正解率(random)である.コーパス中の全多義語の出現ごとの平均語義数の逆数により求めた.二つ目は最頻出の語義をテキストコーパスから疑似的に推定する手法(PseudoMostFrequentSense.以下PMFS)である.この手法では,テストコーパスと同分野についての学習用テキストコーパスをテストコーパスとは別に用意し,語義の頻度を計算する.例えば,学習用コーパスに語義aを持つ単語が出現した場合は語義aの頻度に1を割り振る.また,語義aと語義bを持つ単語(多義語)が出現した場合は語義aに1/2,語義bに1/2の頻度を割り振る.このようにして学習用コーパスでのすべての単語の語義の頻度を加算して,語義ごとに頻度を求めておく.テストの際には,WSDの対象単語のそれぞれの語義候補のうち,求めておいた頻度が最も高い語義を選択する.三つ目は分類語彙表の分類番号を語義としたYarowskyの手法\cite{yarowsky1992}である.Yarowskyの手法では,学習用コーパスから分類番号ごとに用例を集め,その中に出現する特徴の重みを計算しておく.ここでの特徴とは用例に出現する自立語である,語義$c$における特徴$f$の重みは以下の式で定義される.\begin{equation}w(c,f)=\frac{\logPr(f|c)}{Pr(f)}\end{equation}対象単語の周辺の自立語の重みの合計を語義候補ごとに計算し,最も大きい値になった語義を選んでいく.四つ目は,\citeA{boyd}で提案された,latentDirichletallocationwithWordNet(以下LDAWN)と呼ばれる手法である.LDAWNは,トピックモデルLDA(LatentDirichletAllocation)において,各トピックが持つ単語の確率分布を,概念辞書上の単語生成過程であるWORDNET-WALKに置き換え,WSDに応用したモデルである.ルート概念からの経路の違いにより,語義の違いを表現している.WORDNET-WALKとは,WordNetや分類語彙表のような木構造の概念辞書において,ルート概念から下位概念への遷移を確率的に繰り返し,リーフ概念が表す単語を出力する単語生成過程である.LDAWNでは,各文書が持つトピックの確率分布と,各トピックにおける各概念から下位概念への遷移確率分布をギブスサンプリングから求めている.WSDは対象単語のトピックを推定し,対応する遷移確率分布を用いてルート概念から対象単語までの経路を推定することで行える. \section{概念辞書の類義語と分散表現を利用したall-wordsWSD} 単語の語義は周辺の文脈によって推定できることから,周辺の単語同士が類似している場合,中心の単語同士も類似していると考えられる.我々はこの考えをもとにした教師なしのall-wordsWSDの手法を提案する.我々の提案する手法では,類義語を用いて語義を決定する.ここで,「犬」という単語の例を考える.「犬」という単語には「動物の犬」と「スパイ」という意味の二つの意味がある.どちらの意味なのか決定するために,我々は類義語の文脈と,対象単語の文脈を比較する.文脈を比較するためには,後述する「周辺単語ベクトル」を用いる.ある用例の周辺単語ベクトルが,「動物の犬」という意味を持つ類義語の周辺単語ベクトルよりも,「スパイ」という意味の周辺単語ベクトルに近ければ,その用例の語義は「スパイ」の方であると判定する.周辺単語ベクトルの作成方法として,我々は単語の分散表現を用いる方法,分類番号の分散表現を用いる方法,その両方を用いる方法の三種類の手法を提案する.我々の手法は,WSDを繰り返して行う.はじめに,単語の分散表現を用いる方法で周辺単語ベクトルを求め,類義語の情報から文書内のすべての多義語の語義を推定する.単語の分散表現は語義タグのないテキストコーパスから求められるため,こうして教師なしのall-wordsWSDが実現できる.本研究の語義は分類語彙表の分類番号であるから,語義を推定した時点ですべての単語の分類番号を推定できる.その推定した分類番号をもとに,今度は分類番号の分散表現を作成し,単語の分散表現を用いる方法と同様に,周辺単語ベクトルを求め,類義語の情報から文書内のすべての多義語の語義を推定することで,より正確な語義を推定することができる.この時点で推定された語義(分類番号)もまた,新たな分類番号の分散表現を作成するのに利用できる.我々はこれらの処理を繰り返すことで,最終的な語義を推定した.\subsection{概念辞書の類義語}\label{ssec:wlsp}本研究では,概念辞書として分類語彙表を使用した.分類語彙表とは単語を意味によって分類したシソーラスである.レコード総数は約10万件で,各レコードには「レコードID番号/見出し番号/レコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号/語番号/見出し/見出し本体/読み/逆読み」という項目がある.分類番号は類・部門・中項目・分類項目を表す番号で,分類語彙表では主にこの番号によって単語が分類されている.その他にも“段落番号”,“小段落番号”,“語番号”が各レコードには割り振られており,それらすべての番号によってレコードが一意に決まるようになっている.さらに,分類語彙表には「意味的区切り」が240箇所に存在し,分類番号による分類をさらに細かく分けている.したがって分類の細かさは,分類番号による分類<分類番号+意味的区切りによる分類<分類番号+段落番号による分類<分類番号+段落番号+小段落番号による分類(右に行くほど細かい)といえる.本研究ではこの分類語彙表から対象単語の類義語を求め,語義の予測に用いる.具体的には,“分類番号+意味的区切り”によって同じグループに分類された単語を類義語とする場合と“分類番号+段落番号”によって同じグループに分類された単語を類義語とする場合の2パターンで実験を行った.例えば「犬」という単語は分類語彙表中で二か所に存在する.すなわち,「犬」は二つの分類番号(1.2420,1.5501)を持つ多義語である.分類語彙表における「犬」の一部を表\ref{inu}に示す.\begin{table}[b]\caption{分類語彙表における「犬」}\label{inu}\input{04table01.tex}\end{table}上記の条件で「犬」の類義語を求めると,分類番号:1.2410+意味的区切りで得られる類義語は[スパイ,回し者,…,教師,魔法使い,…]の429単語,1.5501+意味的区切りで得られる類義語は[おおかみ,くま,…,象,馬,…]の302単語となる.また,分類番号+段落番号:1.2410+27で得られる類義語は[スパイ,回し者,…]の11単語,1.5501+04で得られる類義語は[おおかみ,くま,…]の74単語となる.\subsection{単語の分散表現を用いる手法}\label{ssec:w2v}周辺の単語同士が類似している場合,中心の単語同士の語義も類似している,と考え,本稿では以下の手法を提案する.まず,対象単語の周辺の単語(前後2単語ずつ)のそれぞれの分散表現(以下,w2v)を求める.そして,これらのw2vを連結し一つの分散表現にしたものを対象単語の「周辺単語ベクトル」とする.このとき,「.」や「(」などの記号は周辺単語に含めなかった.また,前後の単語数が2に満たないときはnullとし,すべてゼロベクトルで補った.なお,本手法では,自立語以外についても上記の条件を満たせば,分散表現を作成した.次に,分類語彙表から対象単語の語義候補ごとに類義語を求め,コーパス中に出現する類義語からも対象単語と同様に周辺単語ベクトルを作成していく.この際,類義語の周辺単語ベクトルには語義候補の語義をラベル付けしておく.また,\ref{ssec:wlsp}節のようにして分類語彙表から類義語を求めた際に語義候補間で重複する類義語があればその単語はどちらからも除外した\footnote{予備実験によれば有効な手法であったため,このようにした.}.最後に,対象単語の周辺単語ベクトルとラベル付けした類義語の周辺単語ベクトル群との距離を計算し,K近傍法によってラベルを一つ求めこれを対象単語の語義とした.なお,K近傍法を利用したのはデータスパースネスに対して頑健であり,all-wordsWSDでは処理対象となる,コーパス中に用例の少ない単語に対してもWSDを行うことが可能だからである.例えば以下の文における「犬」の語義を提案手法を用いて予測してみる.\[彼は警察の犬だ.\]この文における「犬」の周辺単語は「警察」「の」「だ」「null」となり,単語wの分散表現を$\mathrm{w2v_w}$とすると周辺単語ベクトルは\[\begin{bmatrix}\mathrm{w2v_{警察}}&\mathrm{w2v_{の}}&\mathrm{w2v_{だ}}&\mathrm{w2v_{null}}\end{bmatrix}\]となる.ここでnullは文脈が文の外側に出る場合に素性が未定義であることを表す.次に「犬」の類義語を求め,用例を集める.「犬」の語義候補は分類番号1.2410と1.5501であり,\ref{ssec:wlsp}節で述べたようにして類義語を求めると1.2410の類義語は[スパイ,回し者,…],1.5501の類義語は[きつね,くま,…]となるが,この中から多義語はすべて除外し(「くま」は多義語なので除外する)単義語のみ使用する.さらに,1.2410の類義語と1.5501の類義語に重複する単語がある場合はどちらからも除外する.コーパス中に出現するこれらの類義語から,「犬」と同じようにして周辺単語ベクトルを作っていき(図\ref{12410},図\ref{15501}),1.2410または1.5501のラベルを付与する.最後に,「犬」の周辺単語ベクトルとラベルが付与された類義語の周辺単語ベクトルの距離を計算し,K近傍法で「犬」の周辺単語と距離が近いラベルを求め語義を決定する.\begin{figure}[t]\begin{center}\includegraphics{26-2ia4f1.eps}\end{center}\caption{1.2410の類義語の用例とその周辺単語ベクトル}\label{12410}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-2ia4f2.eps}\end{center}\caption{1.5501の類義語の用例とその周辺単語ベクトル}\label{15501}\end{figure}\subsection{分類番号の分散表現を用いる手法}\label{ssec:c2v}本手法では,分類番号の分散表現(以下,c2v)を作成し語義の予測に用いる.まず,\ref{ssec:w2v}節の手法によって予測した結果をもとに,コーパス全体を分類番号の系列(語義列)に変換する.例えばコーパスが図\ref{corpus}のような場合,“ビデオ”(1.4620)などは語義を1つしか持たない単義語であるためその語義に置き換え,“ジョッキー”(1.2410or1.2450)や“年”(1.1630or1.1962)などの多義語は\ref{ssec:w2v}節の手法で予測した語義に置き換える.なお,“根本”や“が”や“「”のような分類番号を持たない単語は置き換えずにそのままとする.したがって,分類番号の系列は図\ref{concept}のようになる.こうして作成した分類番号の系列を分散表現作成ツール(gensimのWord2Vec\footnote{https://radimrehurek.com/gensim/models/word2vec.html})に入力することで,テキストコーパスの単語列からw2vを作成したように,分類番号の系列からc2vを作成する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia4f3.eps}\end{center}\caption{コーパスの例}\label{corpus}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-2ia4f4.eps}\end{center}\caption{分類番号の系列}\label{concept}\end{figure}次に,\ref{ssec:w2v}節の手法と同じようにして語義を予測していく.このとき,周辺単語ベクトルはw2vとc2vを組み合わせた場合と,c2vのみの場合の2通りとした.また,\ref{ssec:w2v}節の手法では類義語の中から多義語をすべて排除したが,そうすることで用例が少なくなるという問題点がある.そこで本手法では周辺単語ベクトルを作る際に,\ref{ssec:w2v}節の手法で語義候補の語義と予測された多義語の用例も追加した.前述の例文の「犬」の語義を予測するまでの流れを以下に示す.まずは「犬」の周辺単語ベクトルを作成する.周辺単語が「警察」,「の」,「だ」,「null」のとき,w2v+c2vで作成した周辺単語ベクトルは\[\begin{bmatrix}\mathrm{w2v_{警察}}&\mathrm{c2v_{警察}}&\mathrm{w2v_{の}}&\mathrm{c2v_{の}}&\mathrm{w2v_{だ}}&\mathrm{c2v_{だ}}&\mathrm{w2v_{null}}&\mathrm{c2v_{null}}\end{bmatrix}\]となり,c2vで作成した周辺単語ベクトルは\pagebreak\[\begin{bmatrix}\mathrm{c2v_{警察}}&\mathrm{c2v_{の}}&\mathrm{c2v_{だ}}&\mathrm{c2v_{null}}\end{bmatrix}\]となる.次にコーパス中に出現する類義語から周辺単語ベクトルを「犬」と同じようにして作成する.このとき,「犬」の1.5501における類義語には「くま」が含まれるが,「くま」は2つの分類番号(1.1700,1.5501)を持つ多義語である.この場合,\ref{ssec:w2v}節の手法によって1.5501と予測された「くま」の用例からも周辺単語ベクトルを作成する.最後に,\ref{ssec:w2v}節と同様にK近傍法によって語義を求める. \section{評価実験} \label{評価実験}実験にはBCCWJに分類語彙表の分類番号がアノテーションされたコーパスを使用する.コーパス中のすべての多義語の語義を予測する問題設定とする.また,ここでいう多義語とは,複数の分類番号を持つ単語である.表\ref{sample},表\ref{data}に使用したコーパスの文書数と統計を示す.なお,表\ref{data}および以降における「トークン」の数とは出現したのべ数であり,「タイプ」とは種類の数を指す.特に,単語のタイプ数は語彙数に相当する.多義語(トークン)の平均語義数は,コーパス中の多義語の用例を無作為にひとつ選んだ際,その多義語が平均どのくらいの用例をコーパス中に持っているかを示している.表\ref{data}において平均語義数は2.98なので,当て推量してみると1/2.98(=0.336)の確率で正解になることを示している.\begin{table}[b]\caption{コーパスに含まれるジャンルとその文書数}\label{sample}\input{04table02.tex}\end{table}\begin{table}[b]\caption{コーパスの統計}\label{data}\input{04table03.tex}\end{table}また,比較手法のPMFSとYarowskyの手法で用いる学習用コーパスにはBCCWJの分類番号が付与されていない部分も含めて使用した.表\ref{sample_t},表\ref{data_t}に使用した学習用コーパスの文書数と統計を示す.\begin{table}[t]\caption{学習用コーパスに含まれるジャンルとその文書数}\label{sample_t}\input{04table04.tex}\end{table}\begin{table}[t]\caption{学習用コーパスの統計}\label{data_t}\input{04table05.tex}\end{table}提案手法とLDAWNでは,テストコーパスのみを用いて実験を行った.Yarowskyの手法において,学習用コーパスから用例を集める際は前後10単語ずつとした.さらに,対象単語の周辺単語の重みの和を求めるときも,前後10単語ずつから求めた.LDAWNでは,\citeA{sasaki}を参考にパラメータを設定した.具体的には1文を1文書とし,メタパラメータであるK(トピック数)は32,S(遷移確率の調整定数)は10そして$\tau$(ディリクレ分布のprior)は0.01とした.提案手法では類義語を分類語彙表から“分類番号+意味的区切り”を用いて求める場合と“分類番号+段落番号”を用いて求める場合の2通りで実験を行った.w2vの作成にはnwjc2vec\cite{nwjc2vec}を使用した.nwjc2vecとは,国語研日本語ウェブコーパス(NWJC)に対してword2vec\cite{Mikolov1,Mikolov2,Mikolov3}で学習を行った分散表現データである.word2vecのパラメータは,アルゴリズムにContinuousBag-of-Words(C-BoW)を利用し,次元数を200,ウィンドウ幅を8,ネガティブサンプリングに使用する単語数を25,反復回数を15としている.c2vは,コーパスを分類番号の系列に変換したものを同じくword2vecで学習して作成した.その際,アルゴリズムはC-BoWを利用し,次元数を50,ウィンドウ幅を5,ネガティブサンプリングに使用する単語数を5,反復回数を3,min-countを1,として学習を行った.また,周辺単語ベクトルを作成する際,周辺に単語が四つない場合(対象単語が文頭や文末にある場合などnullに相当する)や,word2vecで学習されていない単語の分散表現などは,同じ次元の零行列を用いた.周辺単語ベクトルの作成に用いる周辺単語の数は前後2単語ずつの4単語とした.したがって,w2vのみで作成した周辺単語ベクトルは800次元,w2v+c2vで作成した周辺単語ベクトルは1000次元となる.周辺単語ベクトルの距離を測りK近傍法で分類する過程にはscikit-learn\footnote{https://scikit-learn.org/stable/}のKNeighborsClassifierを使用した.ここではユークリッド距離を使用し,k=1,3,5,weight=uniform,distance(uniform=重みなし,distance=重みあり)で実験を行った.実験では,最も良いパラメータを選ぶため,w2vを利用した場合,w2v+c2vを利用した場合,c2vを利用した場合のそれぞれに対し,パラメータ三種類(“分類番号+意味的区切り”/“分類番号+段落番号”,k=1/3/5,uniform/distance)のバリエーションを試した.この際,w2vを利用した場合では一度目(繰り返しなし),w2v+c2vを利用した場合とc2vを利用した場合では二度目(一度目はw2vを利用し,二度目でw2v+c2vまたはc2vを利用して繰り返した)の結果で比較する.また,この際に最も良かった設定について五度繰り返して正解率を見た. \section{結果} 四つの比較手法および三つの提案手法の結果を表\ref{hikaku}に示す.提案手法の結果は,w2vを利用した手法,w2v+c2vを利用した手法,c2vを利用した手法における,それぞれ最も結果が良かった場合のパラメータを利用した際の結果である.パラメータについては考察で述べる.\begin{table}[b]\caption{比較手法と提案手法の正解率(\%)}\label{hikaku}\input{04table06.tex}\end{table}また,表\ref{boot}に最良の場合の手法とパラメータを利用した場合の繰り返しによる正解率の変化を示す.最も良い数値を太字で示した.\begin{table}[b]\caption{繰り返しによる正解率の変化(\%)}\label{boot}\input{04table07.tex}\end{table}表\ref{hikaku}から,提案手法w2v+c2vと提案手法c2vが,比較手法であるrandom,PMFS,Yarowskyの手法,LDAWNのすべてを上回る結果となったことが分かる.なお,比較手法の中ではPMFSの正解率が最も高い結果となった.w2vを利用した手法,w2v+c2vを利用した手法,c2vを利用した手法の三手法を比較すると,w2v+c2vを利用した手法が最もよく,続いてc2vを利用した手法となり,このことからc2vの利用がall-wordsWSDにおいて有効であることが示された.繰り返しの効果について表\ref{boot}を見てみると,w2vだけを用いた一度目の結果よりも,c2vも併せて用いた二度目の結果(一度繰り返したとき)の方が正解率が上昇している\footnote{予備実験では,w2vだけを利用して繰り返すパターンも試したが,正解率はあまり上昇しなかった.}.これに対して三度目の結果は僅かに上昇し,その後は変化がない.このため,c2vを導入した繰り返しに効果はあるが,何度も繰り返しても正解率はあまり変わらないことが分かった. \section{考察} \subsection{提案手法のパラメータ}提案手法のパラメータ別の結果を表\ref{para}に示す.一つの実験の中で最も良い数値を太字とした.また,提案手法の中で最も良い数値には下線を引いた.さらに,比較手法すべてよりも良い結果となったものを斜体で示した.\begin{table}[b]\caption{パラメータごとの正解率(\%)}\label{para}\input{04table08.tex}\end{table}表\ref{para}から,提案手法で最も良い結果となったのは“分類番号+意味的区切り”,w2v+c2vを用いた場合であることが分かる.また,提案手法ではKの値や重みの有無によって精度に大きな差がないことが分かった.類義語の決め方に注目すると,“分類番号+意味的区切り”を使用するほうが“分類番号+段落番号”を利用した場合に比べて,常に良い結果となっていることがわかる.類義語の区分に“分類番号+段落番号”を利用した場合には,c2vの導入によって正解率が下がっている.このことから,類義語の区分には適切なものを利用する必要があることが分かる.比較手法の結果と提案手法の正解率を比べると,“分類番号+意味的区切り”,w2v+c2vまたは“分類番号+意味的区切り”,c2vを用いた場合(表の4〜7行目)ではrandom,PMFS,Yarowskyの手法,LDAWNのすべてを上回る結果となった.\subsection{他手法との比較}Yarowskyの手法と本研究の提案手法は,類義語の周辺の単語を用いるという点では同じである.Yarowskyの手法は計算量が提案手法よりも少ないことから,大きな学習用コーパスから用例を集めることや,周辺単語として前後20単語を利用することができる.一方,提案手法は計算量が多いため,学習用コーパスは用意せずにWSDの対象となるコーパスから用例を集め,周辺単語も前後4単語しか利用していない.それでもYarowskyの手法を上回る結果となったことから,分散表現がWSDにおいて有効であることがわかる.また,提案手法はLDAWNも上回った.しかもLDAWNはYarowskyの手法よりも劣った.これには二つの原因が考えられる.一つは本研究のタスクがall-wordsWSDであることである.教師なしWSDの研究は多いが,それらの手法がそのまま教師なしall-wordsWSDにおいて高精度の結果を出せるわけではない.トピックモデルを利用した手法がそのような手法の一つだと考えられる.トピックモデルを利用した教師なしWSDは,本質的に,対象単語の文脈をトピック分布で表現し,その分布が語義ごとに異なることを利用する.しかし語義の違いを区別するためのトピックの分割が全ての単語で同一である保証はない.またLDAWNでは妥当な分割を求める手がかりとして語義の階層構造を利用するが,その階層構造として,分類語彙表の語義の階層構造が適切であるかどうかも疑問である.一方,提案手法は単語や語義の分散表現を利用しており,WSDの対象単語に依存しない.このため,よりall-wordsWSDに適した手法となっている.二つ目はWSDで利用する対象単語の文脈情報として,トピック分布だけでは不十分であることである.トピックは大域的な文脈情報である.しかし実際にWSDで有効な情報は,直前直後の出現単語といった局所的な文脈情報である,LDAWNはそのような局所的な情報を直接的には利用していない.一方,本手法やYarowskyの手法は直接的に局所的な文脈情報を利用しているために,LDAWNを上回ったと考えられる.特に日本語は表意文字を利用しているため,英語に比べて語義同士の意味が近い.そのため,トピックのような大域的な文脈よりも,周辺の単語のような局所的な文脈が効いたものと考えられる.また,提案手法では分類語彙表に多く含まれる,類義語の情報を利用しているため,上位下位概念よりも多くの情報が利用できる.さらに提案手法は分散表現を利用しているため,同一の単語でなくても類似度が計算でき,K近傍法を利用したことによってデータスパースネスに強い手法となっている.\begin{table}[b]\caption{「犬」の分類番号1.2410の類義語になりうる単語(一部省略)}\label{1.2410-of-wlsp}\input{04table09.tex}\end{table}\subsection{類義語についての考察}提案手法では分類語彙表から類義語を求めてWSDに利用する.類義語は,対象単語と意味が近いほど類義語として好ましい.しかし,意味が近い単語に限定しすぎると類義語の数,すなわち類義語の用例の数が少なくなってしまい語義の予測に影響が出てしまう.例えば,「犬」の分類番号1.2410の類義語になりうる単語を列挙すると表\ref{1.2410-of-wlsp}のようになる.分類番号が等しく多義語でない単語を類義語とした場合(分類番号1.2410には意味的区切りは存在しない.)「犬」の類義語は429単語となり,その中には「教育家」や「教師」,「神官」などの単語も含まれる.しかしこれらの単語は「犬」の語義とそれほど近い語義を持っているわけではなく,「犬」の語義を予測する場合に役立っているとは考えにくい.一方,“分類番号+段落番号”が等しい単語を類義語とした場合は「犬」とかなり意味的に近い単語に限定され,これらの単語は「犬」と言い換えても文脈が変化しないため類義語としてふさわしい単語だといえる.しかしその数はわずか11単語となり類義語の用例の数が大きく減少してしまう.そこで,本研究で用いたコーパスにおいて多義語が一つの語義から類義語の用例をいくつ獲得できるか平均を求めると,表\ref{num-ruigigo}のようになった.正解・不正解はw2vを利用した場合(表\ref{para}の2,3,8,9行目)の結果である.\begin{table}[t]\caption{一つの語義から獲得した類義語の用例数の平均}\label{num-ruigigo}\input{04table10.tex}\end{table}多義語全体の平均を見ると,“分類番号+意味的区切り”に比べて分類番号+段落番号を類義語の定義として用いた場合は獲得できる用例の数が大幅に少なくなっていることがわかる.本研究では,“分類番号+段落番号”で類義語を集めた場合,“分類番号+意味的区切り”で類義語を集めた場合と比べて精度が下がっているが,これは獲得できる類義語の用例数が著しく減少したことが原因だと考えられる.また,正解した多義語が獲得した用例数の平均が不正解した場合を大きく上回っていることからも,語義を正しく予測するには類義語の用例数をある程度多く獲得する必要があることが分かった.ただし,最も多く用例を獲得できた語義は“分類番号+意味的区切り”だと2.1200で用例の数は5,535個,“分類番号+段落番号”だと1.1960-01で用例の数は3,974個であり,用例の数が最も少なかったのは2.1340や3.1522-05で用例の数は1個だった.このことから,分類語彙表を用いて類義語の用例を獲得する場合用例の数は語義ごとにかなりばらつきが生まれることも確認できた.したがって本研究の提案手法は,用例が極端に少ない場合には学習用コーパスを用意して用例を獲得したり,広い意味で類義語を定義して用例の数を増やしたりすることで精度が向上する可能性が考えられる.また,用例が極端に多い場合は,段落番号や小段落番号を用いるなど,類義語を狭い意味で定義し,対象単語により意味が近い単語に限定することで精度が向上し,さらに計算量を減少させることができると考えられる. \section{おわりに} 本稿では,教師なしによる日本語のall-wordsWSDの手法を提案した.具体的には,対象単語の周辺単語ベクトルと対象単語の類義語の周辺単語ベクトルを作成し,それらの距離を計算してK近傍法によって語義を求める.周辺単語ベクトルは,前後2単語ずつのw2vを連結したベクトル,w2v,c2vを連結したベクトル,c2vを連結したベクトルの3通りで実験を行った.c2vは予測結果をもとにコーパスを分類番号の分かち書きに変換して作成した.類義語は分類語彙表から“分類番号+意味的区切り”,“分類番号+段落番号”の2通りの方法で定義し,それぞれで実験を行った.実験の結果,w2v+c2v,“分類番号+意味的区切り”を用いた場合が最も高い精度となった.また,提案手法ではランダムベースライン,PMFS,Yarowskyの手法,LDAWNを超える精度を出すことができ,語義曖昧性解消において有効な手法であることが確認できた.さらに結果を分析すると,不正解だった対象単語の1語義当たりの類義語の用例数が正解だった場合と比べて少ない傾向にあることや,獲得できる類義語の用例数は語義によってばらつきがあることが確認できた.これらのことから,本手法で精度をさらに向上させる方法として,類義語の用例を獲得しづらい語義では学習用コーパスから用例を獲得する,類義語の意味の幅を広くするなどの方法で用例数を確保することが考えられる.\acknowledgment本研究は,国立国語共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」および「all-wordsWSDシステムの構築および分類語彙表と岩波国語辞典の対応表作成への利用」の研究成果を含んでいます.また,本研究はJSPS科研費15K16046および18K11421の助成と,茨城大学女性エンパワーメントプロジェクトの助成を受けたものです.また,本論文の内容の一部は,11theditionoftheLanguageResourcesandEvaluationConferenceで発表したものです\cite{Suzuki-2018}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldwin,Kim,Bond,Fujita,Martinez,\BBA\Tanaka}{Baldwinet~al.}{2008}]{baldwin}Baldwin,T.,Kim,S.~N.,Bond,F.,Fujita,S.,Martinez,D.,\BBA\Tanaka,T.\BBOP2008\BBCP.\newblock\BBOQMRD-basedWordSenseDisambiguation:FurtherExtendingLesk.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\775--780}.\bibitem[\protect\BCAY{Boyd-Graber,Blei,\BBA\Zhu}{Boyd-Graberet~al.}{2007}]{boyd}Boyd-Graber,J.,Blei,D.,\BBA\Zhu,X.\BBOP2007\BBCP.\newblock\BBOQATopicModelforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemEMNLP-CoNLL-2007},\mbox{\BPGS\1024--1033}.\bibitem[\protect\BCAY{Gale,Church,\BBA\Yarowsky}{Galeet~al.}{1992}]{Gale:1992:OSP:1075527.1075579}Gale,W.~A.,Church,K.~W.,\BBA\Yarowsky,D.\BBOP1992\BBCP.\newblock\BBOQOneSensePerDiscourse.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSpeechandNaturalLanguage},HLT'91,\mbox{\BPGS\233--237},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Guo\BBA\Diab}{Guo\BBA\Diab}{2011}]{guo}Guo,W.\BBACOMMA\\BBA\Diab,M.\BBOP2011\BBCP.\newblock\BBOQSemanticTopicModels:CombiningWordDistributionalStatisticsandDictionaryDefinitions.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\552--561}.\bibitem[\protect\BCAY{Kato,Asahara,\BBA\Yamazaki}{Katoet~al.}{2018}]{Kato-2018}Kato,S.,Asahara,M.,\BBA\Yamazaki,M.\BBOP2018\BBCP.\newblock\BBOQAnnotationof`WordListbySemanticPrinciples'LabelsforBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe32ndPacificAsiaConferenceonLanguage,InformationandComputation(PACLIC32)}.\bibitem[\protect\BCAY{小林\JBA白井}{小林\JBA白井}{2018}]{koba}小林健人\JBA白井清昭\BBOP2018\BBCP.\newblock分類語彙表の分類項目を識別する語義曖昧性解消—Yarowskyモデルの適応と拡張—.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\244--247}.\bibitem[\protect\BCAY{Komiya,Sasaki,Morita,Sasaki,Shinnou,\BBA\Kotani}{Komiyaet~al.}{2015}]{sasaki}Komiya,K.,Sasaki,Y.,Morita,H.,Sasaki,M.,Shinnou,H.,\BBA\Kotani,Y.\BBOP2015\BBCP.\newblock\BBOQSurroundingWordSenseModelforJapaneseAll-wordsWordSenseDisambiguation.\BBCQ\\newblockIn{\BemPACLIC2015},\mbox{\BPGS\35--43}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{Mikolov2}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofICLRWorkshop2013},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{Mikolov3}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS2013},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Mikolov,tauYih,\BBA\Zweig}{Mikolovet~al.}{2013c}]{Mikolov1}Mikolov,T.,tauYih,W.,\BBA\Zweig,G.\BBOP2013c\BBCP.\newblock\BBOQLinguisticRegularitiesinContinuousSpaceWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL2013},\mbox{\BPGS\746--751}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{Okumura-2011}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{新納\JBA浅原\JBA古宮\JBA佐々木}{新納\Jetal}{2017}]{nwjc2vec}新納浩幸\JBA浅原正幸\JBA古宮嘉那子\JBA佐々木稔\BBOP2017\BBCP.\newblocknwjc2vec:国語研日本語ウェブコーパスから構築した単語の分散表現データ.\\newblock\Jem{自然言語処理},{\Bbf24}(5),\mbox{\BPGS\705--720}.\bibitem[\protect\BCAY{Shinnou,Komiya,Sasaki,\BBA\Mori}{Shinnouet~al.}{2017}]{kywsd}Shinnou,H.,Komiya,K.,Sasaki,M.,\BBA\Mori,S.\BBOP2017\BBCP.\newblock\BBOQJapaneseall-wordsWSDsystemusingtheKyotoTextAnalysisToolKit.\BBCQ\\newblockIn{\BemProceedingsofPACLIC2017,no.~11},\mbox{\BPGS\392--399}.\bibitem[\protect\BCAY{新納\JBA佐々木\JBA古宮}{新納\Jetal}{2015}]{shinnou}新納浩幸\JBA佐々木稔\JBA古宮嘉那子\BBOP2015\BBCP.\newblock語義曖昧性解消におけるシソーラスの利用問題.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\59--62}.\bibitem[\protect\BCAY{Sugawara,Takamura,Sasano,\BBA\Okumura}{Sugawaraet~al.}{2015}]{suga}Sugawara,H.,Takamura,H.,Sasano,R.,\BBA\Okumura,M.\BBOP2015\BBCP.\newblock\BBOQContextRepresentationwithWordEmbeddingsforWSD.\BBCQ\\newblockIn{\BemProceedingsofPACLING2015},\mbox{\BPGS\108--119}.\bibitem[\protect\BCAY{Suzuki,Komiya,Asahara,Sasaki,\BBA\Shinnou}{Suzukiet~al.}{2018}]{Suzuki-2018}Suzuki,R.,Komiya,K.,Asahara,M.,Sasaki,M.,\BBA\Shinnou,H.\BBOP2018\BBCP.\newblock\BBOQAll-wordsWordSenseDisambiguationUsingConceptEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofthe11theditionoftheLanguageResourcesandEvaluationConference(LREC2018)},\mbox{\BPGS\1006--1011}.\bibitem[\protect\BCAY{谷垣\JBA撫中\JBA匂坂}{谷垣\Jetal}{2016}]{tanigaki}谷垣宏一\JBA撫中達司\JBA匂坂芳典\BBOP2016\BBCP.\newblock語の出現と意味の対応の階層ベイズモデルによる教師なし語義曖昧性解消.\\newblock\Jem{情報処理学会論文誌},{\Bbf57}(8),\mbox{\BPGS\1850--1860}.\bibitem[\protect\BCAY{Yamaki,Shinnou,Komiya,\BBA\Sasaki}{Yamakiet~al.}{2016}]{yamaki}Yamaki,S.,Shinnou,H.,Komiya,K.,\BBA\Sasaki,M.\BBOP2016\BBCP.\newblock\BBOQSupervisedWordSenseDisambiguationwithSentencesSimilaritiesfromContextWordEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofPACLIC2016},\mbox{\BPGS\115--121}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1992}]{yarowsky1992}Yarowsky,D.\BBOP1992\BBCP.\newblock\BBOQWord-senseDisambiguationusingStatisticalModelsofRoget'sCategoriesTrainedonLargeCorpora.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\454--460}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{yarowsky1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemACL1995},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{鈴木類}{2017年茨城大学工学部情報工学科卒.2019年茨城大学大学院理工学研究科情報工学専攻修了.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部コミュニケーション工学科卒.2009年同大学大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部.現在,茨城大学工学部情報工学科教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
V03N01-01
\section{まえがき} 文の意味を効率よく適切に理解するためには語義の曖昧性を文脈によって早期に絞り込むことが必要である.通常のボトムアップな手法による意味・構文解析方法では解の探索空間の広がりにより処理の爆発の問題が生じる.また局所的制約のみでは解を絞り切れず,誤った解を出力する問題もある.例としてしばしば引用される次の文\cite{Waltz85}について考えてみる.\begin{eqnarray}`John~shot~some~bucks.'\nonumber\end{eqnarray}shotとbucksの品詞および意味の曖昧性が各々数十通りあるため,数百通りの意味の組合せがあるとされている.しかし,Hunting(狩猟)やGamble(ギャンブル)などの文脈が与えられるとそれぞれ即座に意味が求まり,前者では「ジョンは牡鹿を銃で撃った.」という解釈がなされ,また後者では「ジョンは何ドルか賭けてすってしまった.」という解釈がなされる.文脈情報がないと効率的に解が得られないばかりか,正しい意味に収束さえしない可能性が大きい.近年この文脈依存性に関する二つの問題を解決するため,談話中の前後の脈絡としての一貫性,すなわち文脈を形成する知識の重要性が着目されつつある.それは文の表層から得られる文法的知識などの言語内知識,および一般常識や世界知識などの言語外知識に分けることができる.また意味が談話内の状況により制約を受けるか,発話された環境により制約を受けるかによって文脈情報を分けることもできる.たとえば,「昨日東京で雨が降った.」という発話がなされたとする.前者の「談話内の状況」は言及されている状況すなわち「昨日東京で」を指している.しかし,この発話が正直者によってなされたか,実際にはいつどこでなされたのか,緊急事態の発生の説明なのかなど,発話された時点の外界の状況が問題になる場合もある.このような「発話された環境による制約」は談話内の状況に加わり作用するもので重要ではあるものの,今後研究される部分としここでは扱わないという立場をとる.本研究ではテキストに絞り,特に物語を解釈する場合に限り,外界の状況によらない談話内の言語外知識による文脈情報の,曖昧性解消の処理効率への効果について絞り議論を行なう.言語外の知識に基づく文脈情報に依存したテキスト解釈の手法はいくつか提案されている.それらは知識の表現とそれにともなう処理方法の違いによって,文脈を記号的な知識として明示的に与える方法と,ネットワーク上の活性伝搬に基づくパターン的相互作用により文脈を非明示的に表現し曖昧性解消を効率的に実現する方法とに大きく分けることができる.前者の代表例としては,物語の一般的構成を文法規則として表す物語文法\cite{Rumelhart75}や,Schankらの文脈理解の研究\cite{Schank77,Schank81,Schank82}などがあげられる.特にSchankらは動詞を中心とした概念依存構造によって意味を表現し,文脈として場面に関する知識を予め持つスクリプトや,意図・目的と行動に関する知識としてのゴールとプラン,そして知識構造を抽象化し階層化して効率良く持つMOPsなどの重要性を論じている.また後者に関しては文ごとにネットワークを組み活性伝搬させる方法\cite{Waltz85,Tamura87},曖昧性を要素の意味内容や要素間の関係に内在させ表現上の組合せ爆発を抑える方法\cite{Hirst88,Okumura89,Kojima91},連想記憶による解の絞り込みと記号処理に基づく矛盾検出による曖昧性解消の効率化\cite{Tsunoda93}などが手法としてあげられる.これらの研究の問題点は,実際に知識を何から獲得し与えるかが不明確であること,実際のテキストにおける評価や問題点に対する考察がなされていないこと,そして他の手法との組合せに対する問題点,限界点が未整理であることである.これに対し,コーパスを利用し,多義性のある単語の周辺語の統計情報からシソーラス上のカテゴリのBayes確率を求め,意味を決定する方法\cite{Yarowsky92}がある.この研究では百科事典の中から知識を獲得し,百科事典の文中の単語に対する評価を行なっているが,一般のさまざまな種類のテキストに対してどの程度有用であるかは調査の余地がある.またトピックの入れ子の問題などの言語の複雑な事象に対応するためには,言語現象に応じて知識を分類し,適切な知識源を明らかにすることと,このような統計的手法を同時に研究することは意味があると思われる.したがって現在必要なことは,処理する知識の性質を想定した細分化,およびそれぞれの知識を用いた際の実際の文に対する効果の調査である.本論文では談話内の言語外知識をさらに連想処理の観点から分類し,その一部として場面知識を視覚辞書から構成し利用した場合の多義性解消の効率化に対する効果の評価および検討を行なう.視覚辞書は物の名前を,出てくる場面や対象物の形から引くことを目的に出版されている辞書である.日常生活に出てくる場面を網羅的に絵に描き,その中に登場する物の名前を対応づけて欄外に列挙してある.視覚辞書は数冊出版されているが,ここではOXFORD-DUDENのPictorialEnglishDictionaryを用いる.多義性解消機構の実装に際しては構文解析と意味解析は通常の記号処理手法を用いることを想定する.その中の意味辞書から語義を取り出す順番を決める方法の一つを提案する.場面を一つに固定した場合にそのような情報を使わない場合に比べ,正しい解にたどり着くまでの語義の検索回数(試行回数と定義する)がどの程度減少するかを物語文にて評価する.すなわち,各単語に意味が複数あったり,とりうる構文木が複数ある場合には,そのすべての組合せの数だけの解が候補となりうる.これらの組合せから解が一つずつ生成され,すべての制約条件を満たすかどうかが検証される.このため構文的曖昧性も考慮する必要があるが,他の方法あるいは本手法と他の方法を組み合わせることによって解決するものとして考え,ここでは陽には扱わないこととする.ここでは語の意味の選択の部分のみに着目し,一つの単語の複数の意味の中で,人間が正解と判断する解を出力するまでに検索された語義の数をここでの試行回数と定義する.実際の機械翻訳などのシステムでは,他に解を制約する知識によってシステム内部で検証を行なう場合に,前処理として尤もらしい語義を優先づけして出力するモジュールを目的としている.通常のパーザでは文脈情報が何もない場合には,各単語の意味はランダムに,あるいは静的に割り当てられている順番で辞書からとり出され検証される.これに対し,場面情報があれば,この取り出しの仕方を変え,場面の中でありそうな意味を先に取り出し,全体の処理の効率化をはかることができる.多義性解消などで文脈,特に場面情報の効果および問題点について調べた例は見当たらないようである.ここでは背景としての役割の部分に絞った場面の知識の構成方法を提案し,実験と考察を行なう.上のような語義検索の試行回数を減少させるということに対し,場面情報がどの位有効であるかを,物語文「赤毛のアン」の英語原作の中の台所の場面の中から抽出した単語に対して評価を行なう.以下,{\bf2.}では視覚辞書とシソーラスによる場面情報の構築方法について,{\bf3.}では場面情報を利用した多義語の優先順位づけの方法について,また{\bf4.}では例題にて試行回数の計算方法を示した後に実文中の単語にて有効性の評価を行なう.{\bf5.}では成功例,失敗例の原因についての考察を行なう. \section{文脈としての場面情報の構築} \subsection{文脈情報の分類}言語外知識に基づく文脈は,(1)発話のおかれた状況,(2)領域知識,(3)注意状態,(4)発話者の信念・心的状態,の4つに大きく分類することができる\cite{Katagiri89}.このうち(2)の領域知識は,一般的常識から特定専門分野に属するものまで幅広い知識を指し,言葉で語られる内容に関する何らかの知識である.前章での例題`Johnshotsomebucks.'では,狩猟の場面では牡鹿が登場することが多いこと,動物を撃つことが普通であることなど,またギャンブルの場面ではお金を賭けること,儲けたり損をしてみたりすることがあることなど,領域知識の一般的常識を用いて,ほとんど瞬間的に多義性を解消していることがわかる.一般の情報伝達はこれらの知識を共有していることを前提として行なわれるため,共有知識の部分を省いた簡潔な言語表現をとることができる.このような言語の効率性(efficiency)とトレードオフにあるものが自然言語の持つ曖昧性(ambiguity)であり,同音異義性(homonymy)や多義性(polysemy)としてテキスト表層に現れる\cite{Kojima91}.他にも,言語を効率的に伝達する手段として省略(ellipsis)や照応(anaphora)もあげられるが,一方で受け手がこれらの欠落した情報を補うことが必要であることが問題になる.話者や著者が伝達しようとした正しい意味を復元するためには,適切な知識と処理方法をあわせて見つける必要がある.さらにこのような処理を機械に実装する場合には,知識の入手のしやすさや処理の効率性も重視しなくてはならない.これらの要請を満たすものを見い出すためには,自然言語は人間の用いるコミュニケーションの道具なので,まずは人間の行なっている処理や知識に着目するのが良い方法の一つであると思われる.ここでは多義性解消に絞り,処理を次の二つに分けることを考える\cite{Tsunoda93}.\begin{itemize}\item意味の決定のための制約処理(constraintprocessing)\item処理の効率化のための選好処理(preferenceprocessing)\end{itemize}前者は構文解析や格(意味)の整合性などの評価部であり,矛盾が発生すると処理がバックトラックする.後者は過去の記憶に基づき連想処理を行なって解探索の優先順位づけをし,処理を効率化する.本研究では文脈によって後者の選好処理を行なう方法を考える.ある文脈に固定したとき,過去の記憶に基づく連想処理はデータの性質によって(1)空間的連想(spatial),(2)時間的連想(temporal),(3)類似(similar),(4)反対(contrary),に分けることができる\cite{Kohonen93}.文脈はさらにこれらの関係を組み合わせたものとして考えることができる\cite{Tsunoda93}.この中の(1)の空間的連想に着目してみると,例えばナイフやフォーク,スプーンのように,人間が一目見て関係があると思われるものもある.それは一緒に扱われることが多いからである.しかし,それらに対しては例えば台所の中ではとくに物を食べるための道具として共通の機能を持っているために,意味のつながりをより強く主張することができる.逆に例えば「登山」や「強盗」,「鉛筆を削る」などの状況ではナイフとフォーク,スプーンどうしの直接の意味的つながりは薄い.このように,機能が同じなど,何らかの状況に応じて意味のつながりを持って想起される場合に,空間的連想の特長を積極的に処理に利用することができると思われる.その共通性をとらえるための土台の一つとして,対象物が現れる背景としての場面をとりあげる.これはSchankらのスクリプト\cite{Schank77}のLocationheaderにほぼ等しく,例えばRestaurantscriptのRestaurantが対応している.`Johnshotsomebucks.'の例題では狩猟の場面では`Hunting'に,そしてギャンブルの場面では`Gamble(roulette)'に対応する.「場面」は何らかの行為が行なわれる場や,何らかの目的が達成される場,あるいは自然に物が集まる場などに,登場する対象物の集まりを加えることによって定義される.ただし頑健性を考慮するため,個々の対象物が現れる必然性を陽に記述することなく,対象物の集合によって表現する空間的情報であるとする.したがってここでは他の共起関係や行為による制約を補完する知識であるという立場をとる.この研究ではそのような場面情報の第一近似としてOXFORD-DUDENの辞書PictorialEnglishDictionaryを利用しているが,将来の画像処理・認識技術の発展による言語処理との統合が実現されれば,より詳細なデータが得られることを仮定する.さらに(3)の類似の部分をRoget5thed.InternationalThesaurusの上位−下位関係と概念どうしのまとまりを用いることによって実現し,場面に登録されていない語に対しての頑健性を実現している.\subsection{場面情報源としてのPictorialDictionary}前述のように場面情報の第一近似としてOXFORD-DUDENのPictorialEnglishDictionary(OPED)を用いる.これは日常生活に出てくる場面を絵に描き,さらに登場する物の名前を対応づけて欄外に列挙してある辞書であり,もともと物の名前を出てくる場面と対象物の形から引くのが目的のものであるので,言語では明示的には通常扱われない常識の一部を含んでいると考えることができる.辞書はManandhisSocialEnvironmentなどの11クラスに大きく分かれており,さらにKitchenなどの384カテゴリに小さく分かれている.このカテゴリごとに絵が付与されており,この絵を空間的情報としての場面の近似であるとして扱うことにする.辞書に登録されている単語数は約27,500語であり,一つの場面に登録されている単語は重複する場合も数えて平均約184語である.例えばKitchenの場面の冒頭を列挙してみる.{\baselineskip=16pt\begin{verbatim}1housewife2refrigerator(fridge,Am.icebox)3regrigeratorshelf4saladdrawer5frozenfoodcompartment\end{verbatim}}この中で主体となる語は被修飾語の名詞である.修飾語の名詞も付随して場面に登場する可能性が非常に高いので,被修飾語と同様に場面情報として扱う.またfrozenなど動詞が変化して修飾している場合も,行為を表すものとして場面の意味の分布に入れることにする.他の形容詞や注釈語(上記のAm.=米語)などは全て省いている.\subsection{シソーラスによる意味の定義}意味解析を行なう場合に問題になることは意味の定義である.意味は構文情報などとは異なり,一意に定義することが難しく,統一がとれていない.ここではよく用いられているシソーラスによる意味の分類\cite{Yarowsky92}に従い,RogetのInternationalThesaurusの第五版を用いた.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=70mm}\end{center}\caption{RogetInternationalThesaurusの概要}\label{thesaurus}\end{figure}図~\ref{thesaurus}に示すように,概念は全部で1073カテゴリにトップダウンに分類され,さらに各カテゴリは品詞ごとにより細かい項目に分類されている.buckには複数の概念があるが,そのうちの一つの概念を図~\ref{thesaurus}に例として示してある.それは「牡鹿」という意味を持ち,カテゴリ311の`Animal,Insects'の中の項目311.5の`hoofedanimal'の中に分類されている.単語はその用法に従って分類されるため,多義語は複数のカテゴリや項目に含まれることになる.したがって,カテゴリや項目が特定されれば多義性が解消されたことにほぼ等しくなる.\subsection{PictorialDictionaryとシソーラスによる場面情報}OXFORD-DUDENPictorialEnglishDictionary(OPED)の各場面とRoget5thed.InternationalThesaurus(以下シソーラスとする)を組合せ,場面情報を構築する.場面情報の表現として(a)出現単語とその意味をテーブルとして持つ方法と,(b)場面に現れる意味分類の出現頻度の分布として持つ方法とがある.(a)はOPEDに出てくる単語に対応する意味を人間がシソーラスの最も細かい分類である項目レベルの分類の中から手で選び,その語の意味として登録する(図\ref{construct}左下参照).\begin{figure}\begin{center}\epsfile{file=fig2.eps,width=68mm}\end{center}\caption{場面情報の構築}\label{construct}\end{figure}(b)の意味分布は(a)の単語と意味の対のリストから作成される.(a)では各単語の意味の項目分類(例えばbuckの意味の一つはhoofedanimalを示す311.5)が単語ごとに記録されているが,(b)ではこの単語ごとの枠を外し,場面全体で頻度をとる(図\ref{construct}右下参照).例えばbuckの他にもdeerという単語などが狩猟の場面にあるが,これはやはりhoofedanimalを表す311.5の意味を持つため,311.5の項目の頻度に加算される.この頻度リストを(b)の項目レベルの場面情報とする.さらにこの頻度リストをカテゴリ内で加算することによって(b)のもう一つの場面情報であるカテゴリごとの頻度リストが得られる.これをカテゴリレベルの場面情報とする.例えば項目レベルのリストでhoofedanimalを表す311.5が5,marineanimalを表す311.60が10であった(他は0とする)場合は,このカテゴリレベルでの311は頻度15になる.このように(b)に関しては,Thesaurusは図~\ref{thesaurus}のように,項目レベル(例:728.6)とより大きな分類であるカテゴリレベル(例:728)があるので,選択の余地がある.\small\begin{table}\caption{各場面での単語情報}\label{scene_words}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|}\hline&狩猟&ルーレット&台所\\\hline\hline被修飾名詞&94/114&42/52&45/61\\修飾名詞&41/44&15/15&29/33\\動詞&20/21&2/2&6/7\\\hline合計&155/179&59/69&80/101\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}[p]\caption{狩猟の場面を構成するカテゴリの分布}\label{hunt_distri}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l|l|r|}\hline順位&カテゴリ&カテゴリ名&概念&頻度\\\hline\hline1&382&Pursuit&追跡&42\\2&311&Animals,Insects&動物,昆虫&41\\3&308&Killing&殺傷&11\\4&76&Masculinity&雄&8\\4&346&Concealment&隠蔽&8\\6&383&Route,Path&道&7\\7&8&Eating&食事&6\\7&159&Location&場所&6\\7&462&Arms&武器&6\\7&900&Support&支え(土台)&6\\7&903&Pushing,Throwing&押し出し&6\\-&その他のカテゴリ&-&-&102\\\hline&total&&&255\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{ギャンブル(roulette)の場面を構成するカテゴリの分布}\label{roulette_distri}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l|l|r|}\hline順位&カテゴリ&カテゴリ名&概念&頻度\\\hline\hline1&759&Gambling&ギャンブル&34\\2&244&Quantity&量&8\\3&743&Amusement&娯楽&6\\3&758&Cardplaying&カードゲーム&6\\5&900&Support&支え(土台)&4\\5&914&Rotation&回転&4\\7&197&Room&区画&3\\7&280&Circularity&円形&3\\7&729&Finance,Investment&財政,投資&3\\7&881&FiveandOver&5以上&3\\-&その他のカテゴリ&-&-&27\\\hline&total&&&101\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{台所の場面を構成するカテゴリの分布}\label{kitchen_distri}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l|l|r|}\hline順位&カテゴリ&カテゴリ名&概念&頻度\\\hline\hline1&386&Store,Supply&保管,供給&10\\2&8&Eating&食事&9\\3&195&Container&容器&8\\3&239&Channel&水路(管)&8\\5&11&Cooking&料理&7\\6&742&Ceramics&陶磁器&6\\7&79&Cleanness&清潔さ&4\\7&293&Closure&閉鎖&4\\7&1023&Refrigeration&冷却&4\\-&その他のカテゴリ&-&-&55\\\hline&total&&&115\\\hline\end{tabular}\end{center}\end{table}\normalsizeターゲットとする単語の多義性を解消する処理に際して,場面として全ての単語が正しい頻度情報で登録されている場合には,(a)のテーブルのみで十分なのだが,現実には出現する全ての対象物に関する情報を集めることは不可能に等しく,未登録の単語が必ず現れると思われる.その場合には(b)の意味分布を持つ方法によって場面情報の近似を行なう.ある程度十分な量の単語が登録されていれば,(b)での項目レベルの意味を解答すれば良い近似になるが,登録単語が少ない場合にはカテゴリレベルまで拡げ補間をする必要がある.しかし逆に,単語どうしで意味の干渉が起こり,近似が悪くなる可能性がある.例えば,上の例ではbucksの意味は正確には311.5であるが,カテゴリレベルでは311という大きな分類の分布しか持たないので,このような細かい意味の選別はできなく,311の下にある意味に関してはランダムに取り出すしかない.また実験の章で具体的に述べられるように,ルーレット(ギャンブル)の場面全体では土台を表す900という分類の頻度が多い.このため,ルーレットの場面ではbucksは本来は「ドル(お金)」を示して欲しいところが,「鞍馬の台」を示してしまう結果になっている.このように,意味の補間による未登録語への対処と,トレードオフの関係になっている.このため,次章での実験の結果により有利な方を使用する.視覚辞書OPEDに基づく場面中の単語を分類し,統計をとった例を表~\ref{scene_words}に示す.`/'の右側は単語の全数,左側はシソーラスに単語が登録されている数を示している.場面の意味分布の例として,狩猟の場面情報を表~\ref{hunt_distri}に,ギャンブル(ルーレット)の場面情報を表~\ref{roulette_distri}に,そして台所の場面情報を表~\ref{kitchen_distri}に示す.ここでは大きい分類であるカテゴリレベルの分類を用いた.これを見ると各場面はシソーラスの様々な分類から構成されていることがわかり,視覚的な場面の情報量の多さがうかがえる.それぞれの頻度はOPEDのその場面における単語の意味のうち,そのカテゴリに属するものの数である.シソーラスは同じ物体を指すものであっても,観点によって微妙に異なる分類をすることがあるので,一単語が同じ物体を指しながら複数のカテゴリに属する場合もある.そのため全体の頻度が表~\ref{scene_words}の単語数よりも多くなっている.例えば,表~\ref{scene_words}の狩猟の場面での,シソーラスに登録されている単語数155よりも多い,255の意味が表~\ref{hunt_distri}に割り付けられている. \section{文脈としての場面情報を利用した多義語の優先順位づけ} \subsection{全体構成}\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=70mm}\end{center}\caption{システムの全体構成}\label{global_st}\end{figure}仮定するシステムの全体構成は図~\ref{global_st}に示される.パーザは通常の統語解析アルゴリズム\cite{Tanaka89}を想定しており,それに場面情報を扱う部分を拡張する.拡張部では文が入力されると品詞解析などの前処理を行ない,それまでに得られている文からの場面情報を加えることにより,目標とする単語の各意味を優先順位づけする.その結果は統語解析アルゴリズムに渡されて従来の手順に従って解析が進められる.前処理での主な処理である品詞解析に際しては,現在高い正答率で解が得られるHiddenMarkovModelによるモジュール\cite{XEROX}が存在するので,これを利用することを仮定する.場面解析に関しては,稿を改めて述べることにする.ここでは場面および目標単語の品詞が一意に決まった場合を仮定して議論を行なう.また形態素解析によって単語に切り分けた後の処理を行なうことにし,特に英語を対象として単語一つずつに対して処理が起動されることを想定している.\subsection{優先順位づけの定式化}場面が一つに決まった場合に,多義性解消の対象とする単語すなわち目標単語の候補となる複数の意味の中から試行のために取り出す順番を決める順序列を求める.予め場面に登録されていない単語の意味を推測すること,そして登録されている単語の意味をなるべく正確に保存するために,前述の(a)予め場面に出現する単語と対応する意味を対として持つテーブル,(b)場面に現れる意味分類の出現頻度の分布,の大きく分けて二種類の情報を用いる.まず目標単語が場面の(a)のテーブルに登録されてあるか調べ,登録されている場合はその意味を結果として用いる.例えば,`table'という単語には「机」や「表」など多くの意味がある.しかしOPEDの「台所」という場面に明示的に`table'という単語が現れており,それは「机」(229のカテゴリの中の229.1という項目で示される)という意味が割り付けられてあった.そこでシステムはその意味を最初に出力する.この場合は「机」の尤もらしさを1とし,他の意味の尤もらしさを0とする.次に目標単語が場面の(a)のテーブルに登録されていない場合には(b)の意味分布を調べ,目標単語の意味の候補リストの中で尤度の最も高いものから順番に取り出して意味解析部に渡す.例えば`glass'という単語はOPEDの「台所」という場面には現れていない.しかしその場面の全体の意味の傾向を利用して`glass'の意味を推測したい.例えばカテゴリレベルの場面情報で考えてみると,「台所」という場面では「容器」を表す分類の尤度が8であり,`glass'のいくつかの意味の中では最も高い値を持っている.そこで「容器」として「コップ」の意味を優先して出力し,「鏡」などの意味は優先度を下げる.この様子を定式化してみる.目標単語を\(W\)(例:glass),単語の意味を\(M\)(例:コップ),文脈を\(C\)(談話全体),場面を\(S\)(例:台所),意味分類を\(k\)(例:1.1〜1073.14),目標単語の意味の正解を\(M_{c_{j}}\)(例:コップ,鏡),そして対応する目標単語の意味分類の正解を\(k_{c_{j}}(1\leqj\leqn_{c},n_{c}は正解の数)\)(例:195.1(コップ),29.6(鏡))とする.また単語の意味と意味分類が1対1に対応する場合を考えることを仮定する.このとき文脈\(C\)の中で\(W\)があったとき,その意味が\(M\)である尤度\(L(W,C,M)\)を用いると,目標単語の意味(\(n\)個)の試行順序決定のための半順序列\({\bfT}\)は以下のように書くことができる.\begin{eqnarray}\{M_{1},M_{2},...M_{n}\in{\bfT}:L(W,C,M_{i})\geqL(W,C,M_{i+1})\}\end{eqnarray}ただし\(L(W,C,M_{i})=L(W,C,M_{j})\)となる部分はランダムに順番づけをする.この場合には場面を一つに決定したときの目標単語の各意味分類の尤もらしさを利用するため,尤度\hspace{-0.5mm}\(L(W,C,M)\)\hspace{-0.5mm}は場面\(S\)の中での\(W\)の意味分類が\(k\)である尤度\(L(W,S,k)\)で置き換えることができる.\begin{eqnarray}L(W,C,M)=L(W,S,k)\end{eqnarray}さらにこの尤度\(L(W,S,k)\)は本来は事前分布(文脈情報なしの意味の分布)や条件付き確率(文脈情報による意味の分布の変化)により事後分布\(p(W,S,k)\)(文脈情報を得た後のBayes事後確率)を求めて比較すべきところだが,事前分布や条件付き確率をすべて求めることは非効率的であり,まだ正確には得られていないという現状のため,ヒューリスティクスとして場面を固定したときのその場面中の意味分類の頻度\(n(k,S)\)を使うことにする.\vspace{-0.5mm}\begin{eqnarray}L(W,S,k)=n(k,S)\end{eqnarray}\vspace{-0.5mm}したがって(1)式は\vspace{-0.5mm}\begin{eqnarray}\{k_{1},k_{2},...k_{n}\in{\bfT}:n(k_{i},S)\geqn(k_{i+1},S)\}\end{eqnarray}\vspace{-0.5mm}となる.この順番に従って本手法は語の意味を出力する.ただし\(n(k_{i},S)=n(k_{j},S)\)となる部分はランダムに順番づけをする. \section{実験と評価} 前章の方法に従い順番に出力される語義の候補を評価する.文章中での各単語の意味を人間が判断し,前述のシソーラスの分類に従って正解として用意しておく.人間は同じものを指しているとしながらも,シソーラスはより細かな観点の違いから異なるものと分類していることがあるが,ここでは人間が選んだものをすべて正解とみなす.この正解のどれかをシステムが最初に出力するまでの語義の検索回数(試行回数)の期待値と,システムが最初に出力する候補(第一候補)に正解が含まれている確率,および第二候補までに(第一候補含む)正解が含まれている確率によって評価を行なう.試行回数を調べることにより,全体の処理速度をおおまかにとらえることができる.また多義性解消率から,提案するシステムの出力の正答率がわかる.\subsection{例題における実験}まず{\bf1.}での例題`Johnshotsomebucks.'をとりあげる.Rogetのシソーラスの索引に付与されている各単語の細かい項目レベルでの意味に基づき実験を行なう.`shot'に対しては動詞shootの過去形で20種類の意味,名詞で26種類の意味,形容詞で5種類の意味がある.また`bucks'に対しては動詞buckの三人称で3種類の意味,名詞の複数形で8種類の意味がある.上述した意味分布の頻度を調べた結果を,`shot'に対しては動詞のみを表~\ref{shot}に,`bucks'に対しては名詞のみを表~\ref{bucks}に示す.他は全て0であった.表の`/'の左側は場面情報の修飾名詞・被修飾名詞の寄与の合計,右側は動詞による寄与である.すなわち,例えば辞書の「狩猟」の場面に現れるものの一つに`rabbithole'(兎の穴)があるが,これは`rabit'という修飾名詞,`hole'という被修飾名詞から成り立っていると考える.また,`aimingposition'(狙い位置)というものも「狩猟」の場面に現れる.これは`aim'という行為(動詞)で修飾された`position'という名詞と考えることができる.このように,主に修飾名詞,被修飾名詞,動詞が存在するが,場面情報として修飾名詞と被修飾名詞の両方の名詞だけを使ったときと,動詞だけを使ったときの,場面に現れる意味分類の出現頻度が表の`/'の左側と右側にそれぞれ示されている.`意味分類'はそれぞれの意味をシソーラスのラベルづけによって表現したときの番号を示し,整数部はカテゴリレベル,小数点以下の部分はより細かい項目レベルを表している.シソーラスでの項目レベル,カテゴリレベルの意味分類でそれぞれ場面情報を構成した場合の結果を表す.\small\begin{table}\caption{各場面でのshotの意味}\label{shot}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l||l|l||l|l|}\hline&shot&&狩猟&&ルーレット&\\\hline&&意味分類&項目レベル&カテゴリレベル&項目レベル&カテゴリレベル\\\hline\hlinev&suffer&26.8&0/0&0/0&0/0&0/0\\e&inject&87.21&0/0&0/0&0/0&0/0\\r&immunize&91.28&0/0&0/0&0/0&0/0\\b&speed&174.8&0/0&0/0&0/0&0/0\\&row&182.53&0/0&0/0&0/0&0/0\\&float&182.53&0/0&0/0&0/0&0/0\\&strikedead&308.17&*0/1&*11/4&0/0&0/0\\&vegetate&310.31&0/0&2/0&0/0&0/0\\&hunt&382.9&*0/3&*39/3&0/0&0/0\\&pullthetrigger&459.22&*0/0&*4/0&0/0&0/0\\&execute&604.17&0/0&0/0&0/0&0/0\\&explode&671.14&0/0&0/0&0/0&0/0\\&film&706.7&0/0&0/0&0/0&0/0\\&photograph&714.14&0/0&0/0&0/0&0/0\\&playbasketball&747.4&0/0&0/0&0/0&0/0\\&playhockey&749.7&0/0&0/0&0/0&0/0\\&playgolf&751.4&0/0&0/0&0/0&0/0\\&fireoff&903.12&0/0&0/0&0/0&0/0\\&shine&1024.24&0/0&0/0&0/0&0/0\\&launch&1072.13&0/0&0/0&0/0&0/0\\\hline\end{tabular}\end{center}\vspace{-2mm}\end{table}\normalsize\small\begin{table}\caption{各場面でのbucksの意味}\label{bucks}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l||l|l||l|l|}\hline&bucks&&狩猟&&ルーレット&\\\hline&&意味分類&項目レベル&カテゴリレベル&項目レベル&カテゴリレベル\\\hline\hlinen&maleanimal&76.8&*8/0&*8/0&0/0&0/0\\o&boy&302.5&0/0&0/0&0/0&0/0\\u&hoofedanimal&311.5&*5/0&*41/0&0/0&0/0\\n&goat&311.8&*1/0&*41/0&0/0&0/0\\&hare&311.24&*6/0&*41/0&0/0&0/0\\&leap&366.1&0/0&0/0&0/0&0/0\\&money&728.7&0/0&0/0&*0/0&*2/0\\&trestle&900.16&0/0&6/0&0/0&4/0\\\hline\end{tabular}\end{center}\vspace{-2mm}\end{table}\normalsize場面情報の構成手順は,まずOPEDの各場面に出てくる名詞と動詞に対してシソーラス中から場面にふさわしい意味分類項目を付加する(テーブルレベルとする).次に単語の枠を外し,場面全体での各意味分類項目に対しての頻度を求め,これを項目レベルの場面の意味分布とする(項目レベル).そしてさらに各カテゴリ内にある意味分類項目の頻度を足し合わせたものを,カテゴリレベルの場面の意味分布として使用する(カテゴリレベル).表~\ref{shot}に示した`shot'の意味では,項目レベルでは`sem'の欄の各意味分類の頻度を場面情報から取得した結果,`hunt(382.9)'という意味に対しての場面中の修飾名詞と被修飾名詞の寄与は0,動詞の寄与は3であることがわかる.カテゴリレベルは各意味分類項目(例えば382.9)を含むカテゴリ(382)全体に対しての頻度が表されている.表~\ref{shot},表~\ref{bucks}の`*'は人間がそれぞれの場面で手で選んだ正解を示している.狩猟とルーレットの各々の場面での`shot'と`bucks'のそれぞれの試行回数を求めた結果を表~\ref{shot_each},表~\ref{bucks_each}に示す.表の横方向は場面情報として用いた単語の品詞による分類を表す.「名詞のみ」とは,辞書中の各場面に現れる名詞だけを情報として使ったときを示し,「動詞のみ」とは動詞だけを使ったとき,そして「名詞+動詞」は両方を場面情報として使った場合を示す.また`/'の左側は`shot'の場合には動詞の中の意味分類から正解を選ぶまでの試行回数であり,`bucks'の場合には名詞の中の意味分類から正解を選ぶまでの試行回数である.`/'の右側は全品詞を区別しなかった場合の,全意味分類から正解を選ぶまでの試行回数である.表~\ref{shot_each},表~\ref{bucks_each}から得られることは,\begin{enumerate}\item全品詞の中から正解の意味分類を得るまでの試行回数は,品詞を予め特定した場合に比べると,正解が目標単語の意味リストにある場合にはほとんど増えないが,正解が目標単語の意味リストにない場合には全ての意味リストを試す必要があるために,致命的に試行回数が増えてしまう.(例:ルーレットでの`shot')\item英語の動詞は名詞よりも隠喩的な要素が強く,意味を特定することが難しいばかりか,意味リストにないことも多い.(例:ルーレットでの`shot')\item場面情報に動詞の数が名詞ほど集まらなく,不安定である.\item表~\ref{shot_each},表~\ref{bucks_each}の結果から考察すると,場面情報には名詞と動詞は合わせて登録した方が良い.\end{enumerate}などであり,その結果実文における解析では\begin{enumerate}\item品詞の特定はこの方法では扱わず,より信頼性の高いPart-Of-Speech(POS)Tagger\cite{XEROX}などの利用を想定する.特にこれは目標とする単語の品詞を,前後の単語との関係からHiddenMarkovModelにより求めるもので,BrownCorpus1,000,000語に対して96\%の正答率を持っているので,前処理として有用であると思われる.\item今回の実験では動詞の多義性は扱わない.\item場面情報は名詞と動詞を合わせて登録する.\end{enumerate}という設定を設けることにした.\small\begin{table}\caption{各場面でのshotの正解の意味までの試行回数}\label{shot_each}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|l|}\hline&&名詞のみ&動詞のみ&名詞+動詞\\\hline\hline狩猟&テーブル&1/1&1/1&1/1\\&項目&5.23/7.77&1/1&1/1\\&カテゴリ&1/1&1/1&1/1\\\hlineルーレット&テーブル&---&---&---\\&項目&21/31&21/31&21/31\\&カテゴリ&21/31&21/31&21/31\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{各場面でのbucksの正解の意味までの試行回数}\label{bucks_each}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|l|}\hline&&名詞のみ&動詞のみ&名詞+動詞\\\hline\hline狩猟&テーブル&1/1&1/1&1/1\\&項目&1/1&1.80/2.40&1/1\\&カテゴリ&1/1&1.80/2.40&1/1\\\hlineルーレット&テーブル&---&---&---\\&項目&4.5/6&4.5/6&4.5/6\\&カテゴリ&2/2&4.5/6&2/2\\\hline\end{tabular}\end{center}\end{table}\normalsize\subsection{テキストにおける実験}テキストに対する評価実験の対象として,モンゴメリー作の「赤毛のアン」の英語原作の中から台所のシーンを切りだし,台所に登場すると思われる名詞を選定して上記の方法に従い評価を行なった.場面情報によらない結果および台所の場面情報の登録語,未登録語の個数を表~\ref{result}に示す.選定した名詞でシソーラスに登録されている名詞の多義性の度数分布,およびランダムに意味分類を取り出した場合の,正解までの試行回数の分布を図\ref{ambiguity}に示す.図~\ref{ambiguity}からわかるように,多義性の度数は正解が得られるまで意味分類を取り出す回数の最悪の場合を表し,場面情報なしでランダムに取り出した場合の正解までの試行回数は正解が得られるまで意味分類を取り出す回数の平均値を表す.\small\begin{table}\caption{選定した名詞の基本情報}\label{result}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|r|}\hline台所に関係する全名詞&357個\\\hlineシソーラスに登録されている名詞&341個\\多義数の平均&4.13個\\正解までの試行回数の期待値の平均&2.10回\\(場面情報なし)&\\\hlineシソーラス情報に登録されている名詞のうち&\\台所の場面情報に登録されている名詞&114個\\シソーラス情報に登録されている名詞のうち&\\台所の場面情報に登録されていない名詞&227個\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=63mm}\end{center}\caption{シソーラスに登録されている名詞の多義性の分布および正解までの試行回数の分布(場面情報なし)}\label{ambiguity}\vspace*{3mm}\end{figure}以下,各種条件で試行回数を求めた結果を示し,詳細な考察を次章で行なう.台所の場面情報に登録されている名詞に対して,場面情報を使わずにランダムに取り出した場合の試行回数の平均\footnote{比較のための場面情報なしの場合の取り出し順は,語義の頻度に応じた順序づけに従うのが理想であるが,今回用いたRogetのシソーラスにはその様な情報は考慮されておらず,登録順は各分類の出現順に従っているため,その順番に意味があるとは判断せず,デフォルトの優先づけを想定せずにあらゆる場合の平均をとることにした.}と,テーブルレベルの場面情報を使った場合の試行回数の平均を表~\ref{registered_iteration}に示す.平均値を見ることにより,単語による試行回数の度合や試行回数の減少の度合のばらつきを吸収し,全体の速度向上の様子をおおまかにとらえることができる.表~\ref{registered_iteration}の結果からランダムに意味を取り出すよりも,テーブル引きや項目レベルの場面情報を用いた処理を行なうと,平均して二倍以上速くなる.またそれぞれの場合の分布を図~\ref{registered}に示す.参考のために,項目レベル,カテゴリレベルの場合での分布も示す.各単語の正しい意味まで語義を検索する回数の期待値を,わかりやすくするために累積した結果のグラフが示されている.この結果ではテーブルレベルと項目レベルは値が同じであり,グラフが重なっている.以下のグラフで,台所の場面情報に登録されている名詞に関しては,テーブルレベルと項目レベルは全く同じ結果を示しグラフが重なっている.どの場合も6回の検索までに正解が得られている.期待値1で正解が得られる単語の数の割合は,場面情報なしのときの22\%に対し,テーブルレベルと項目レベルの場面情報で優先づけした結果は96.5\%まで上昇する.\small\begin{table}\vspace{-1.5mm}\caption{台所の場面情報に登録されている名詞の試行回数の平均}\label{registered_iteration}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|}\hline方法&試行回数の平均\\\hlineランダム(場面情報なし)&2.37回\\テーブルレベル&1.05回\\\hline\end{tabular}\vspace{-3.5mm}\end{center}\end{table}\normalsize\begin{figure}[p]\begin{center}\epsfile{file=fig5.eps,width=67mm}\end{center}\caption{試行回数の期待値に対する選定名詞(台所の場面情報に登録されている113語に対して)の割合の累積\\(テーブル引き(table)と項目レベル(item)が重なっている)}\label{registered}\end{figure}台所の場面情報に登録されていない名詞の試行回数の平均を表\ref{nonregistered_iteration}に,分布を図~\ref{nonregistered}に示す.対象は場面に登録されていない語なので,テーブルレベルに関する情報はない.期待値1で正解が得られる単語の数の割合は,場面情報なしのときの24\%に対し,カテゴリレベルの場面情報で優先づけした結果は73\%まで上昇する.\small\begin{table}\caption{台所の場面情報に登録されていない名詞の試行回数の平均}\label{nonregistered_iteration}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|}\hline方法&試行回数の平均\\\hlineランダム(場面情報なし)&1.96回\\項目レベル&1.86回\\カテゴリレベル&1.50回\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{figure}\begin{center}\epsfile{file=fig6.eps,width=65mm}\end{center}\caption{試行回数の期待値に対する選定名詞(台所の場面情報に登録されていない228語に対して)の割合の累積}\label{nonregistered}\end{figure}以上の結果から,システムとしてはターゲットとする語が場面情報に登録されているかどうかをまず調べ,\begin{itemize}\item場面情報に登録されている名詞に対してはテーブル引きによる優先順位づけを行なう\item場面情報に登録されていない名詞に対してはカテゴリレベルによる場面の意味分布を用いて優先順位づけを行なう\end{itemize}という方法をとることにし,その結果を表~\ref{result_table}に示す.また第一候補解,第二候補解までの多義性解消率を表\ref{disam_prob},またその分布を図\ref{disam1_registered},\ref{disam1_nonregistered},\ref{disam2_registered},\ref{disam2_nonregistered}に示す.各単語の意味を一つ取り出したときに,それが正解となる確率が求まる.さらに単語の出現頻度も考慮し,その確率の平均をとったものが多義性解消率である.場面情報の有無や種類によって意味の取り出し方が異なる.その違いが表\ref{disam_prob}に示されている.図~\ref{disam1_registered}は場面に登録されている名詞113語に対してシステムが最初に出力する意味が正解となる確率であり,縦軸は語数である.例えば,場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は25語であるが,テーブルや項目レベルの場面情報を使えば,109語まで上昇する.図~\ref{disam1_nonregistered}は場面に登録されていない名詞228語に対してシステムが最初に出力する意味が正解となる確率である.場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は54語であるが,カテゴリレベルの場面情報を使えば,166語まで上昇する.図~\ref{disam2_registered}は場面に登録されている名詞113語に対してシステムが2番目までに出力する意味の中に正解が含まれている確率である.場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は33語であるが,テーブルや項目レベルの場面情報を使えば,109語まで上昇する.図~\ref{disam2_nonregistered}は場面に登録されていない名詞228語に対してシステムが2番目までに出力する意味の中に正解が含まれている確率である.場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は121語であるが,カテゴリレベルの場面情報を使えば,172語まで上昇する.表\ref{result_disam_table}に本手法の適用結果をまとめる.場面情報のテーブルに見つかった名詞に対してはテーブル引きによる優先づけを行ない,見つからなかった名詞に対してはカテゴリレベルによる場面の意味分布を用いて優先づけをする.\small\begin{table}\caption{選定した全名詞への本手法の適用結果.試行回数の期待値の平均による評価.}\label{result_table}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|}\hline方法&試行回数の期待値の平均\\\hlineランダム(場面情報なし)&2.10回\\優先順位づけ後&1.35回\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{第一候補,第二候補までの多義性解消率(\%)}\label{disam_prob}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|l|}\hline&ランダム(場面情報なし)&テーブル&項目&カテゴリ\\\hline\hline第一候補まで.登録名詞&51&96&96&81\\第一候補まで.未登録名詞&51&55&55&77\\\hline第一候補まで.選定全名詞&51&69&69&78\\\hline\hline第二候補まで.登録名詞&71&99&99&99\\第二候補まで.未登録名詞&67&74&74&83\\\hline第二候補まで.選定全名詞&69&82&82&88\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{figure}\begin{center}\epsfile{file=fig7.eps,width=70mm}\end{center}\caption{多義性解消率に対する語数(登録されている133語の中で)}\label{disam1_registered}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig8.eps,width=70mm}\end{center}\caption{多義性解消率に対する語数(登録されていない228語の中で)}\label{disam1_nonregistered}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig9.eps,width=70mm}\end{center}\caption{2回の検索までに正解が得られる確率に対する語数(登録されている113語の中で)}\label{disam2_registered}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig10.eps,width=70mm}\end{center}\caption{2回の検索までに正解が得られる確率に対する語数(登録されていない228語の中で)}\label{disam2_nonregistered}\end{figure}\small\begin{table}\caption{選定した全名詞への本手法の適用結果.第一候補解,第二候補解までの多義性解消率(\%)による評価.}\label{result_disam_table}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|}\hline方法&第一候補&第二候補まで\\\hlineランダム(場面情報なし)&51&69\\優先順位づけ後&83&88\\\hline\end{tabular}\end{center}\end{table}\normalsize \section{考察} この章では場面情報を用いた場合に,ランダムに取り出した場合に比べて試行回数がうまく減少しなかったとき,および場面情報のとり方による効果の差について考察を行なう.場面情報に登録されている名詞に対してはテーブルレベルや項目レベルでの方がカテゴリレベルよりも試行回数が少なくてすんでいる.これに対して場面情報に登録されていない名詞では項目レベルよりもカテゴリレベルの方が効果が大きい.このことは場面情報が不十分であることを示す.場面情報に登録されていない語の意味を推定するために,場面情報に登録されていた語の意味の分布を利用するのであるが,登録されていた語が少ない場合には,より上位の分類であるカテゴリで分類を行なうことによって,情報の補間をする必要が生じている.例えば登録されている名詞の細かい分類の方である項目レベルでの試行回数が登録されていない語での場合に比べ少なくてすむことは,その名詞自身の意味が数えられていることが顕著に効果を表していることを意味する.すなわちその語がたまたま場面情報に含まれていなかった場合には,非常に不利になることから,場面を構成するために十分な意味の分布の統計量が得られていないと思われる.また十分な統計量が得られた理想的な場合では,登録されていない名詞に関しても,ここでの登録されている名詞の項目レベル程度の少なさの試行回数が得られると予想される.だがそのような理想的状態がいつも得られるとは限らなく,不完全な場面情報しか得られない場合には,今回の解析の結果のように,シソーラスのより上位のカテゴリレベルでの補間が効果を持つものと思われる.テーブル引きから項目レベルへ,また項目レベルからカテゴリレベルへというようにシソーラスのより上位レベルを利用する際に問題となる点は補間による意味の干渉である.例えば,`cream'はこの物語ではケーキに塗るための「ソフトクリーム」を表す.ところが,OPEDでの場面全体の情報では「清潔さ」というカテゴリの頻度が多い.このためにカテゴリレベルでの情報を利用すると,`cream'の「洗剤」という意味の頻度が多くなってしまって正解が得られなくなってしまっている.また今回の文章での解析では現れなかったが,同じ単語の形をとるが互いに意味が異なる複数の物が一つの場面に同時に現れる場合があり,この場合はテーブル引きをしても効果が減少する.例えば今回用いた台所の場面情報の中に`plate'という単語が2つ含まれているが,1つは「皿」の意味であり,もう1つは「ホットプレート」の天板の意味であった.ただしそのような事例が出現する確率は非常に小さいものと思われる.場面情報なしの場合に比べて悪くなってしまう例は`door',`biscuit',`snap'である.`door'の人間が判断した意味はシソーラスの項目189.5,189.6の「入口」であるが,システムが最初に提示した解は292.6の「開放」という抽象的概念であった.`biscuit'は10.29,10.41の「食べ物」が正解なのであるが,742.2の「セラミクス(チップ)」を提示している.これは台所の場面には「陶磁器」が多いためである.`snap'は8.2の「クッキー」が正解であるが,68.2の「ピリッとすること」を提示している.これは場面中の「こしょう」による影響と思われる.このような場合に対処するには,なるべく多くの単語とその意味を対にして持つことが重要である. \section{今後の課題} 今回の実験では場面を一つに固定した場合の名詞の多義性に対して優先順位づけの効果を明らかにしたが,場面を決定する機構は課題として残されている.場面を決定するためには\begin{itemize}\item談話中の場面構造の切り出し\item切り出した場面の特定\item新たな場面情報の学習\end{itemize}を明確にする必要がある.場面は今回想定したようにそれぞれの文章に対して一つずつ決まる場合の他にも,入れ子などの構造を持つことがある.例えば会話文中や回想などでの場面と話者のいる場面の関係などがあげられる.各文章に対する場面が一つに決まる場合には,場面の切りかえを検出する必要があり,入れ子構造などを持つ場合にはさらに,場面と場面の関係も自動的に検出する必要がある.場面構造を切り出すためには焦点の解析や照応問題の解決が必要になる\cite{Tsunoda94a}.そして切り出した場面に対して場所名が明示的に与えられない場合には最尤の場面を推定する必要がある\cite{Tsunoda94b}.また場面の特定と文の理解は一方向でないことも考慮に入れる必要がある.場合によっては,場面の特定によって文が理解できた後でも,矛盾が生じて場面が変わりうる場合もあるし,より詳細な場面情報を提供する場合もある.テキスト全体からおおまかに場面を切り出し,その後で文ごとの詳細な格解析を行なった結果から,本当にその場面の同定が正しかったかを検証し直すことが一つの方法である.今回は視覚辞書であるOXFORD-DUDENPictorialEnglishDictionaryを場面情報として用いたが,このような辞書の情報が現実の世界の近似を十分に行なっていない場合には,場面内の対象物を新たに学習する方法,また新たな場面を獲得する方法が必要になるが,それは将来画像処理や画像認識との統合時の実現課題の一つであると思われる.ここでは場面に基づく空間的な連想を文脈情報の一つとして扱ったが,動詞が状態変化をひき起こす作用を分類した概念の辞書などの知識を用いたり,視点の移動などを含めた談話構造の解析を行ったりすることにより,時間発展などの他の連想関係を用いること,また動詞--名詞などの共起関係を用いることを組み合わせた場合の制御方法などの検討を要すると思われる.特に単語の意味間の直接の依存関係の整合性の問題があるが,これは格解析の結果の検証を行ない,局所的な矛盾を起こさない解が得られるまですべての解析を繰り返す必要がある.また今回は多義語の意味の分類に際してシソーラスを用いたが,意味の定義方法の問題は依然として残されており,検討を要する. \section{むすび} 英語名詞の多義性解消の効率化の問題に対し,空間的連想を用いた文脈情報として場面が実文に対し有意な結果を与えることを示した.視覚的情報に基づく辞書とシソーラスを組み合わせる場合の構成方法の比較を行ない,考察を行なった.例として台所という場面に固定した場合に登場する名詞に対しての評価の結果,2.1回から1.35回へ56\%の平均試行回数の速度向上が見られている.多義性解消率は第一候補のみでは51\%から83\%に,第二候補まで出力した場合には69\%から88\%に上昇する.共起関係などの情報をさらに利用することにより,曖昧性の組合せ爆発を抑える有効な手段の一つと位置付けられる.今後は場面の切りかえ,同定,学習などを含む場面の決定機構の構築の研究を行なう予定である.\acknowledgment匿名で本論文を査読してくださった方には大変適切で有用な助言を頂きました.大変感謝致します.またこの研究の一部は文部省科学研究費の助成によります.\bibliographystyle{jnlpbbl}\bibliography{submit}\begin{biography}\biotitle{略歴}\bioauthor{角田達彦}{1967年生.1989年東京大学理学部物理学科卒業.1995年東京大学工学系大学院博士課程修了.工学博士.同年京都大学工学研究科助手現在に至る.IJCNN'93StudentAward受賞.1994年情報処理学会学術奨励賞受賞.自然言語処理の知識と推論について研究中.脳機能の数理化に興味を持つ.情報処理学会,日本神経回路学会,電子情報通信学会,人工知能学会,日本認知科学会各会員.}\bioauthor{田中英彦}{1943年生.1965年東京大学工学部電子工学科卒業.1970年同大学院博士課程終了.工学博士.同年東京大学工学部講師.1971年助教授,1978年〜1979年ニューヨーク市立大学客員教授,1987年教授現在に至る.計算機アーキテクチャ,並列処理,計算モデル,帰納推論,自然言語処理,分散処理,CAD等に興味を持っている.NewGenerationComputing編集長,情報処理学会,電子情報通信学会,人工知能学会,ソフトウエア科学会,IEEE,ACM,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V03N02-05
\section{はじめに} 近年,電子化された大規模なテキストデータベース(コーパス)が身近に存在するようになり,その中から必要とする情報のみを高速に検索することができるテキスト検索システムの重要性が改めて認識されるようになってきた.また,検索の目的としても,単にある文字列を検索してくるというだけでなく,用例ベースの翻訳支援システムなどで要求されるように,ある言い回し,ある種の意味内容について検索してくるといった高度な検索が求められるようになってきた\cite{Kishimoto1994}.このような高度な検索のためには,検索対象であるテキストデータを解析して種々の情報をあらかじめ付加しておく必要がある(タグ付きコーパス).タグ付きコーパスとしては,形態素解析を行って単語に分割し,品詞情報を付加したものが作成されているが,前述のような検索要求に対しては,これではまだ不十分であり,構文情報を付加したデータが望まれる.しかし,長文を含む一般の大量のテキストに対して,安定的に高精度の構文解析を行うことは現状ではまだ困難である.我々は以前,人手により構文解析したコーパス(約3500文)を実験的に作成し,これを対象とした用例検索システムTWIXの構築を行ったが\cite{HyodoAndIkeda1994},実用的なレベルの大規模な構文付きコーパスを作成するには人手による方法では現実的ではない.そこで我々は,必ずしも常に完全な構文木ではないが,場合によっては部分的に曖昧さを残したままの解析木を,表層的な情報のみを用いて安定的に求める骨格構造解析手法を開発し,これを用いて構文付きコーパスを構築することを試みた.さらに,この構文付きコーパスを対象として,分類語彙表の意味分類を利用した意味コード化をも加え,類似用例検索システムの構築を行った.本システムでは,構文的制約(係り受け構造)を指定して検索できるので,単語レベルの検索では検索されてしまうような多くの不適切な用例を絞り込むことが可能となる.本研究では,講談社和英辞典およびオーム社科学技術和英大辞典の用例(約8万文)について,骨格構造解析により構文付きコーパスの作成を行なった.このうち200文を取り出して解析結果を評価したところ,骨格構造解析結果中に正しい解析木を含んでいるものは約93\%,その中で,係り先が曖昧な文節は約8\%であり,高い精度が得られることを確認した.また,このコーパスを対象として類似用例検索システムによる検索実験を行い,骨格構文構造を用いることの有効性,さらに意味コード化の有用性を確認した.以下では,2章で骨格構造解析と構文付きコーパスの作成方法について述べ,3章で類似用例検索システムの実現方法,4章で検索実験とそれについての考察を行う. \section{構文付きコーパス} ある単語が現れるか否かだけでなく,単語間の関係すなわち係り受け関係をも指定して用例を検索することができれば,ある言い回しを含んだ文を検索することや,ある意味内容を含んだ文を検索することなど,検索対象をさらに絞り込んだ高度の検索をすることができる.そのためには,単語,品詞などの形態素情報をタグとして付加するだけでは不十分で,構文情報が付与されたコーパスを作成しなければならない.しかし,完全な構文解析には意味情報も必要であり,長文を含む大量のテキストに対して安定的に高い精度で構文解析を行なうことは現在のところ未だ困難である.そこで,我々は,完全な構文解析木を得るものではないが,文の骨格的な構造を表層情報のみを用いて解析する方法を開発した\cite{HyodoAndIkeda1995}.この方法は,意味を考慮しないと正確に解析できない部分については,曖昧なまま残しておき,それ以外の文全体の構造を正確に把握しようとするものである.本研究では,対訳付の辞書用例8万文について,骨格構造解析により構文付きコーパスの作成を行なった.このうち200文を取り出して解析結果を評価したところ,骨格構造解析結果中に正しい解析木を含んでいるものは約93\%,その中で,係り先が曖昧な文節は約8\%であった.以下2.1節で骨格構造解析の概要を述べ,2.2節で構文付コーパスの作成実験について述べる.\subsection{骨格構造解析}骨格構造解析は次の2段階により行なう.(1)形態素解析を行なって文節列を求め,係り受けに関する文節の属性(文節カテゴリ)を求める.(2)文節カテゴリと以下に述べるブロック化規則に基づいて文節列に次々と{\itN}近傍ブロック化処理を施す.{\itN}近傍ブロック化とは隣接する{\itN}文節(あるいは{\itN}ブロック)間の係り受け関係を定めることであり,場合によっては曖昧な係り受け関係をそのまま含む.このように本手法では,係り受け関係は隣接する{\itN}近傍において構成されるという仮説に基づいている.実際には{\itN}=3として解析している.\subsubsection{形態素解析と文節カテゴリの付与}まず始めに,文を単語単位に分割し,それらを文節単位に区切る.そして,各文節の形態素情報を元に文節カテゴリを付与する.文節カテゴリとは,文節自身のタイプ(自立語の品詞)と係り先文節のタイプによりカテゴライズしたもので,文節自身のタイプを,体(名詞),用(動詞,形容詞,形容動詞),副(副詞,連体詞),接(接続詞)の4つのに大分類し,これらの組合せにより「体用」「体体」などの10種のカテゴリを設けた.その他に,文節が並列構造を構成する可能性があることを示す「体並,用並」,主題を表す機能語「は・では」が含まれる文節「は用」,時を表す名詞が含まれる文節「時用」の4つのカテゴリを設けている.\subsubsection{係り受けブロック化規則による文節列のブロック化}ブロック化処理では,{\itN}ブロック先までを係り受けの範囲として調べる.{\itN}=3とした時,ブロック内の係り受け可能性の組合せは文節カテゴリに基づけば,図\ref{block-rule}に示す$\2^{6}=64$通りが考えられる.このうち,図\ref{block-rule}(a)--(l)の30通りがブロック化可能なパターンである.例えば,図\ref{block-rule}(a)の場合は,文節Aは文節Bに係ると解析され,文節A,Bを1つのブロックとしてブロック化を行う.また,ブロック化が可能なパターンの中で,図\ref{block-rule}(h)(i)(j)(l)については,曖昧さを含んだブロックとして解析される.例えば,図\ref{block-rule}(h)の場合は,文節Aは文節Bか文節Cに係ると解析される.その他のパターン(34通り)は,ブロック化が不可能なパターンである.図\ref{block-rule}(m)の8通りは文節AがB,C,Dのいずれにも係りえないためブロック化が不可能なパターン,図\ref{block-rule}(n)--(q)の10通りは,非交差条件によりブロック化できないパターン,図\ref{block-rule}(r)--(w)の16通りは,文節カテゴリの組合せにより出現しえないパターンである.ブロック化の途中で,読点が出現した時は,その文節までをブロック化の範囲として解析し,ブロック化を一時中断しておく(読点ブロック).ここで,{\itN}ブロック前か,直前の読点文節のいづれか遠いブロックに戻り,ブロック化が可能な状態に変化しているかどうか順次調べ,その後,読点ブロックの次の文節を起点とするブロック化処理を行う.また,係り可能性のパターンが図\ref{block-rule}(m)--(q)に該当する時には,ブロック化が行われず,必然的にブロック化が停止する.この場合も,読点で停止した時と同様の処理を行うこのようにして,{\itN}文節よりも遠い文節と係り受け関係をもつことが可能となるが,この場合でも,ブロックで見るとその関係はNブロック以内になっている.\begin{figure}[ht]\vspace{-2mm}\begin{center}\epsfile{file=fig1.eps,width=106mm}\caption{係り受けブロック化規則}\label{block-rule}\end{center}\end{figure}\vspace{-15mm}\subsubsection{ブロック化処理手順例}ブロック化処理の手順例を図\ref{skelton-ana}に示す.文頭より解析を始め「一度」から「汚れた」,「汚れた」から「環境を」,「環境を」から「戻す」までにブロック化規則,図\ref{block-rule}-(a),(a),(f)をそれぞれ適用してブロック化を施す(図\ref{skelton-ana}-(1)).次に,先にブロック化された「一度…戻す」から「難しさを」までをブロック化する.これにより「戻す」の係り先は「ことの」と「難しさを」の2通りがあると解析される.その後「難しさを」から「体験している」,「体験している」から「日本は,」までをブロック化する(図\ref{skelton-ana}-(3)).文節カテゴリ「は用」は主題を表す文節であって,一般に後続するいくつかの文節に係る可能性がある.そのため,このような文節の係り先は保留して,次の文節「技術援助の」からブロック化を行う.以下,同様に解析を進める.\begin{figure}[htb]\begin{center}\unitlength1cm\noindent\begin{picture}(14.47,3)\thicklines\small\put(0,3.2){\underline{\gt原文}}\put(0,2.7){一度汚れた環境を元に戻すことの難しさを身をもって体験している日本は,技術援助の先進国となり,…}\put(0,2.0){\underline{\gt文節カテゴリの付与}}\put(0,1.5){(一度副用)(汚れるた用体)(環境を体用)(元に体用)(戻す用体)(ことの体体)(難しさを体用)}\put(0,1.1){(身をもって副用)(体験するている用体)(日本は,は用)(技術#援助の体体)(先進国と体用)}\put(0,0.7){(なり,用並)…}\put(0,0){\underline{\gtブロック化処理}}\end{picture}\vspace{2mm}\epsfile{file=fig2.eps,width=115mm}\caption{骨格構造解析例}\vspace{-10mm}\label{skelton-ana}\end{center}\end{figure}\subsection{構文付きコーパス}本実験では,講談社和英辞典\cite{koudannsya}とオーム社科学技術和英大辞典\cite{ohm}の中の英語対訳付き用例文約8万文(図\ref{text})に対して骨格構造解析を行ない図\ref{skeltal-data}のような構文付きコーパスを作成した.\begin{figure}[htb]\begin{center}\vspace{-4mm}\noindent\fbox{\parbox[t]{138mm}{\begin{flushleft}\a.講談社和英辞典(約53000文,1文あたり平均13文字)\end{flushleft}\vspace{-2mm}\begin{itemize}\small\itemその服は彼女の体にぴったり合った(16文字)\item彼の考えに合うように計画を立てなさい(18文字)\end{itemize}\begin{flushleft}\b.オーム社科学技術和英大辞典(約27000文,1文あたり平均35文字)\end{flushleft}\vspace{-2mm}\begin{itemize}\small\item一方的な段階的撤去は,アメリカ国益と相いれない重大な含みをもつことになるというのが,産業界の見解である(51文字)\item離陸して低速で上昇するという一方の要求と,巡航効率という他方の相いれない要求との妥協点を見いだすのは比較的容易である(58文字)\end{itemize}}}\caption{解析対象データベース}\vspace{-10mm}\label{text}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\noindent\fbox{\parbox[t]{110mm}{\hspace*{2mm}\begin{minipage}[t]{107mm}\small{\gt0:原テキスト}\\\hspace*{1em}彼の言っていることは事実と合わぬ\\{\gt1:骨格構造データ}\\(@1((彼@2)の体用)@2((言う@3)ている用体)@3((こと@5)は体用)\\\hspace*{1mm}@4((事実@5)と体用)@5((合う)ぬ用終))\\{\gt2:意味分類コード化データ}\\(@1(((11000011200003)@2)の体用)\\\hspace*{1mm}@2(((23100022312001)@3)ている用体)\\\hspace*{1mm}@3(((1101001111200212540031310101…)@5)は体用)\\\hspace*{1mm}@4(((1103001)@5)と体用)\\\hspace*{1mm}@5(((211200321550012375001))ぬ用終))\\{\gt3:対訳英文}\\Histestimonydoesnotagreewiththefacts.\\\end{minipage}}}\caption{構文付きコーパス(講談社和英辞典)}\label{skeltal-data}\end{center}\end{figure}\subsubsection{骨格構造データ}骨格構造データは,原テキストに骨格構造解析を施したものである.実験では,形態素解析用の自立語辞書としてはEDR日本語単語辞書\cite{edr}より単語の見出し・品詞情報のみを取り出したものを,機能語辞書については我々が実際のテキストベースから収集し拡張,整理した複合機能語辞書(約200のグループ,見出し語数約1500語)\cite{HyodoAndIkeda1992}を用いた.データは次のような形式で登録されている.\\\hspace*{5mm}\underline{(\hspace{-.2em}・\hspace{-.7em}・\hspace{-.7em}・\hspace{-.2em}(文節番号((自立語\係り先文節列)\機能語列\文節カテゴリ)\\hspace{-.2em}・\hspace{-.7em}・\hspace{-.7em}・\hspace{-.2em})}\\活用語は終止形に戻し,複合語は,その構成語を#で連接して登録してある.機能語は,複合機能語辞書中のグループ名で登録した.例えば「ている」「てはいる」「てもいる」のように意味的には同じであるが,派生的な語は同じ機能語として登録されている.\subsubsection{意味分類コード化データ}類似用例の検索を実現するために,分類語彙表\cite{bunrui}を用いて,文節内の自立語(複合語は,その構成語各々)に対して,意味分類を用いた番号付けによってコード化を施した(意味分類コード).このコード化により,意味分類コードの前方一致位置よって完全一致検索を含めた3つのレベルの曖昧検索が可能となる.\vspace*{5mm}表\ref{ana-answer}に,この8万文の中から抜き出したそれぞれ100文について,形態素解析,文節カテゴリ付け,骨格構造解析での正解文数を示す.講談社和英辞典については,骨格構造解析結果が正しい解析木を含んでいるものは100文中で97文,科学技術和英大辞典では90文であった.誤りのほとんどは,形態素解析あるいは文節カテゴリ付けの失敗によるものであり,これらが正しく行われば骨格構造解析そのものは,98\%以上の精度で正しい解析木を含むものが得られる.また,100文中で,係り先が特定できない文節(曖昧文節)は,科学技術和英大辞典では約9\%出現した.係り先が1つに特定できないと,構造を指定して検索する際に,検索パターンと構文的には異なるものを検索してしまう可能性がある.この点については4章で述べる.\begin{table}[htb]\begin{center}\caption{解析精度}\label{ana-answer}\begin{tabular}{|c||c|c|c||c|}\hline&\multicolumn{3}{c||}{100文中の正解文数}&\\\cline{2-4}&\\{\small形態素解析}\\&{\smallカテゴリ付け}&{\small骨格構造解析}&{\raisebox{1.5ex}[0pt]{曖昧文節}}\\\hline\hline講談社和英辞典&98/100&98/98&97/98&19/314(6\%)\\\hline科学技術和英大辞典&95/100&92/95&90/92&74/809(9\%)\\\hline\end{tabular}\\\vspace{2mm}{\small曖昧文節:係り先が特定できない文節数/文末以外の合計文節数}\vspace{-5mm}\end{center}\end{table}\begin{figure}[b]\begin{center}\epsfile{file=fig5.eps,width=107mm}\caption{システム構成図}\label{system}\end{center}\end{figure} \section{類似用例検索システム} 2章で述べた骨格構造解析によって構文付きコーパスを作成し,それを対象として用例検索システムを構築した。この用例検索システムでは,単語や品詞情報などの形態素的制約だけではなく,構文的制約(係り受け関係)を指定して検索することができる.この構文的制約によってユーザの検索意図に反する多くの不用な用例を省き,必要な用例に絞り込んだ検索をする.また,検索対象とするコーパスは分類語彙表により意味分類コード化処理が施してあるため,類似用例を検索することも容易である.以下,3.1節でシステムの概要を,3.2節で構造コードを含む索引表について述べ,3.3節で検索アルゴリズム,3.4節で本システムのインタフェースについて述べる.\subsection{システムの概要}システム構成図を図\ref{system}に示す.本システムは,構文付きコーパス,索引表,入力文解析部,検索部,インタフェース部から構成されている.入力された検索対象文は,入力文解析部で解析され,その構造がインタフェースのウインドウ上に表示される.この構造表示の上で,さらに検索したい部分構造を特定することができる.検索は2段階に分けて行われる.まず始めに,検索パターン中の自立語または機能語が出現する文を索引表から検索する(一次検索).次に,検索された文を対象として,検索パターンと構造的に一致するか否かの照合を行う(二次検索).\subsection{構造検索のための索引表の作成}本システムでは,用例中に出現する自立語,意味分類コード,機能語を対象として索引表を作成した.ただし,機能語「の,は,を,が,に,た」については,索引表に登録していない.本システムでは,索引表は,検索対象を制限するための一次検索において用いるが,これらの機能語は,非常に多くの用例に出現するため,このような効果が小さいからである(表\ref{func}).検索パターンにこれらの機能語が含まれる場合には,二次検索の際に,これらの機能語が含まれるか否かを調べている.\begin{table}[htb]\begin{center}\vspace{-5mm}\caption{機能語の出現頻度(のべ出現回数)}\label{func}\begin{tabular}{|c||c|c|}\hline&{\small\\講談社和英辞典\\}&{\small科学技術和英大辞典}\\&{\small(約27000文)}&{\small(約53000文)}\\\hline\hlineは&26814&19745\\\hlineを&20373&17486\\\hlineの&19300&29968\\\hlineた&18371&\7564\\\hlineに&14324&13367\\\hlineが&10532&12976\\\hline\end{tabular}\\\vspace{-9mm}\end{center}\end{table}\begin{figure}[htb]\begin{minipage}[t]{6cm}\unitlength1cm\begin{picture}(5,4.5)\thicklines\small\put(0.8,3.5){\framebox(3.5,1.3){\shortstack[l]{001計画を立てる\\002計画を実行する\\003計画に反対する}}}\put(0.4,2.7){計画}\put(1.9,2.8){\vector(1,0){1.5}}\put(3.6,2.7){001,002,003}\put(0.4,2.3){立てる}\put(1.9,2.4){\vector(1,0){1.5}}\put(3.6,2.3){001}\put(0.4,1.9){実行する}\put(1.9,2){\vector(1,0){1.5}}\put(3.6,1.9){002}\put(0.4,1.5){反対する}\put(1.9,1.6){\vector(1,0){1.5}}\put(3.6,1.5){003}\put(0.4,1.1){を}\put(1.9,1.2){\vector(1,0){1.5}}\put(3.6,1.1){001,002}\put(0.4,0.7){に}\put(1.9,0.8){\vector(1,0){1.5}}\put(3.6,0.7){003}\end{picture}\caption{単純な索引表}\label{index}\end{minipage}\hfill\begin{minipage}[t]{8cm}\unitlength1cm\begin{picture}(9,5)\thicklines\small\put(1.5,3.5){\framebox(4.5,1.4){\shortstack[l]{\hspace*{-3mm}001計画を立てる\\((@1(計画@2)を体用)\\\hspace*{1.5mm}(@2(立てる)用終))}}}\put(0.2,2.7){\framebox(0.9,0.5){計画}}\put(1.3,2.5){\shortstack[l]{文番号\underline{001},\\文節番号\underline{1},\\係り先文節\underline{2},\\文節カテゴリコード\underline{2}(体用)}}\put(5.2,2.6){\vector(1,0){1}}\put(6.4,2.5){\underline{\normalsize001122}}\put(0.4,2){計画}\put(1.9,2.1){\vector(1,0){1.5}}\put(3.6,2){001122,002122,003122}\put(0.4,1.6){立てる}\put(1.9,1.7){\vector(1,0){1.5}}\put(3.6,1.6){00127}\put(0.4,1.2){実行する}\put(1.9,1.3){\vector(1,0){1.5}}\put(3.6,1.2){00227}\put(0.4,0.8){反対する}\put(1.9,0.9){\vector(1,0){1.5}}\put(3.6,0.8){00327}\put(0.4,0.4){を}\put(1.9,0.5){\vector(1,0){1.5}}\put(3.6,0.4){001122,002122}\put(0.4,0){に}\put(1.9,0.1){\vector(1,0){1.5}}\put(3.6,0){003122}\end{picture}\caption{構造コードを含む索引表}\label{indexing}\end{minipage}\end{figure}通常の索引表では,図\ref{index}に示すように,ある単語に対して,どの文に出現したかを示す文番号列のみを登録するが,本システムでは,二次検索で構造の照合を行う必要があるので,その単語が出現する文番号だけでなく,単語のテキスト中での出現位置(文節番号),文節カテゴリコード,係り先文節番号列を同時に登録した(以下,構造コードと呼ぶ)(図\ref{indexing}).このような構造コードを登録することにより,二次検索で構造の照合を行う時に,2次記憶上にある構文付きコーパスを再度アクセスすることなく、構造コードに対して検索パターンとの照合を行えばよいので,高速な構造検索が可能となる.\subsection{検索アルゴリズム}検索は,以下のように一次検索,二次検索の2段階に分けて行う.一次検索では検索パターン中の単語が現れる文を検索し,二次検索で,検索された文を対象として,検索パターンと構造的に一致するか否かの照合を行う.\begin{enumerate}\item{自立語,機能語による絞り込み(一次検索)}\\本システムは自立語に対して,次のような種類の検索を可能としている.\begin{enumerate}\item1.単語による完全一致検索\item2.意味分類コードによる類似用例検索\\\hspace*{2em}・曖昧レベル1検索・曖昧レベル2検索\end{enumerate}単語による完全一致検索の場合の一次検索は,入力された単語と完全に一致する文を自立語索引表を用いて検索する.類似用例検索の場合の一次検索は,各単語の意味分類コードを用いて検索を行う.その際,図\ref{bunrui}のように,曖昧レベル1検索では,意味分類コードA,Bが一致する単語を含む用例を,曖昧レベル2検索では,意味分類コードAのみが一致する単語を含む用例を検索する.これにより,意味分類コードに対して単純な前方一致検索を行うだけで,その一致位置により2つのレベルの曖昧検索が可能となる.\begin{figure}[htb]\begin{center}\unitlength1cm\begin{picture}(5,2.5)\thicklines\small\put(0.5,2.2){\normalsize列車}\put(1.3,2,4){\vector(1,0){1}}\put(2.8,2.7){A}\put(3.6,2.7){B}\put(2.5,2.1){\framebox(0.9,0.5){\normalsize1465}}\put(3.5,2.1){\framebox(0.5,0.5){\normalsize08}}\put(0,1.6){曖昧レベル1検索}\put(0.2,1.2){\underline{1465}\underline{08}電車}\put(0.2,0.8){\underline{1465}\underline{08}機関車}\put(0.2,0.4){\underline{1465}\underline{08}トロッコ}\put(0.5,0){$\cdots\cdots\cdot$}\put(3.5,1.6){曖昧レベル2検索}\put(3.7,1.2){\underline{1465}03車}\put(3.7,0.8){\underline{1465}03バイク}\put(3.7,0.4){\underline{1465}09新幹線}\put(4,0){$\cdots\cdots\cdot$}\end{picture}\caption{分類語彙表による類似検索}\vspace{-5mm}\label{bunrui}\end{center}\end{figure}機能語については,例えば「ている,てはいる,てもいる」のような派生的な語は1つのものとして登録してある.そのため「ている」「てはいる」「てもいる」は同じ語として検索される.\item{構造検索(二次検索)}\\二次検索では,索引表にコード化されている構造コード中の文節番号,係り文節番号,文節カテゴリコードを参照して,検索パターンと一次検索で抽出された文との間に構造的一致があるか否かを検査する.例えば,検索パターンが図\ref{struct}のように#に続く番号で表現されているとすると,一次検索において,#1と@3,#2と@4,#3と@5が一致していることがわかる.従って,ここでは#1と#3の構造が@3と@5の構造と,#2と#3の構造が@4と@5の構造と同じであれば構造が一致したといえる.\begin{figure}[htb]\begin{center}\vspace{-2mm}\epsfile{file=fig9.eps,width=61mm}\caption{係り受け構造の照合}\vspace{-3mm}\label{struct}\end{center}\end{figure}骨格構造解析により解析されたコーパスには,係り先が一意に決定されていない場合があるが,そのような場合には,対象とする用例中に検索パターンとの構造が一致するものが含まれていれば,構造的に一致したことにする(図\ref{aimai}).\begin{figure}[htb]\begin{center}\vspace{-2mm}\epsfile{file=fig10.eps,width=69mm}\caption{係り先が複数ある構造の照合}\vspace{-3mm}\label{aimai}\end{center}\end{figure}また,並列構造を構成する可能性がある文節については,係り先文節は決定されず,「体並・用並」という文節カテゴリが付与されている.そこで,並列構造を指定して用例を検索する際には,対象とする用例の文節カテゴリが一致しているか否かの検査を行うことにより構造の照合を行う(図\ref{para}).\begin{figure}[htb]\begin{center}\vspace{-2mm}\epsfile{file=fig11.eps,width=57mm}\caption{並列構造の検索}\vspace{-3mm}\label{para}\end{center}\end{figure}\end{enumerate}\subsection{検索インターフェース}検索システムの実行画面を図\ref{interface}に示す.インタフェースはX-Window上に構築されており,ユーザが検索文入力ウィンドウに文を入力すると,骨格構造解析が実行され,解析結果が三角表現を用いてウィンドウ上に表示される.検索パターンの指定は,三角表上で,係り先を示すウインドウ(図中の矢印)をマウスでクリックするという簡単な操作で行われる.検索結果もウインドウ上に表示され,ユーザは検索された用例の構造を三角表上で確認することも可能である.また,構造の三角表現は,縮退表示することも可能である(図\ref{reduce}).これにより,長い文の全体構造も,ウインドウ上で一度に把握することができる.\begin{figure}[htb]\begin{center}\vspace{-5mm}\epsfile{file=fig12.eps,width=88mm}\caption{検索インターフェース}\label{interface}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\vspace{-10mm}\epsfile{file=fig13.eps,width=90mm}\caption{三角表の縮退表示}\vspace{-5mm}\label{reduce}\end{center}\end{figure} \section{検索実験} 本システムの有効性を検証するために,次の3点について評価を行った.\begin{itemize}\item構造検索により,検索パターンと構造が一致しない用例をどの程度,棄却可能か.\item骨格構造解析手法により解析されたコーパスには,係り先が曖昧な文節が登録されているが,このコーパスを対象として,どの程度,正確な構造検索が可能であるか.\item分類語彙表を用いた類似用例検索で,どの程度,広範囲に用例を検索できるか.\end{itemize}\subsection{検索例および評価}実験では,2章で述べた各辞書用例(講談社和英辞書,オーム社科学技術和英大辞典,合計8万用例)を検索対象として,以下に示す各検索パターンについて検索を行った.\begin{enumerate}\item「品質」が「向上する」に係る用例\item「装置を」が「作る」に係る用例\item「(A)と」と「(B)との」が並列で「バランス」に係る用例\item「(Aし)ている」が「間」に係る用例\item「(A)について」と「(B)を」が「行う」に係る用例\item「〜ように」が「〜なさい」に係る用例\end{enumerate}結果を表\ref{answer}に示す.検索パターン(1),(2),(3)については,分類語彙表を用いた類似用例検索を,(4),(5),(6)では完全一致検索を行なった.また,それぞれの実験で,係り受け構造を指定した場合(構造検索)の検索用例数と,指定しない場合(単語検索)の検索用例数を調べた.講談社和英辞典の用例は単文がほとんどで,構造検索での効果はあまり見られなかった.しかし,長文が数多く含まれている科学技術和英大辞典では,指定した単語が1文中で無関係に現れる場合が多く,係り受け関係を指定することにより,このような数多くの用例を棄却することができた.\begin{table}[htb]\begin{center}\caption{検索実験}\label{answer}\begin{tabular}{|c||c|c|c|c|c|c|}\hline\small&\multicolumn{3}{c|}{科学技術和英大辞典}&\multicolumn{3}{c|}{\\\講談社和英辞典\\\}\\\cline{2-7}&単語検索&構造検索&誤り&単語検索&構造検索&誤り\\\hline\hline(1)&4/12/31&3/10/24&0&0/0/0&0/0/0&0\\\cline{1-7}(2)&5/9/25&3/6/17&0&0/2/3&0/2/3&0\\\cline{1-7}(3)&2/4/6&2/4/6&1&0/1/1&0/1/1&0\\\cline{1-7}\hline(4)&129&38&1&44&8&0\\\cline{1-7}(5)&23&12&0&0&0&0\\\cline{1-7}(6)&11&6&0&47&47&0\\\cline{1-7}\end{tabular}\\\vspace{2mm}\small(1)(2)(3):完全一致検索/曖昧レベル1検索/曖昧レベル2検索による検索用例数を示す\end{center}\end{table}今回の実験では,骨格構造解析が曖昧な解析結果を含むことに起因して,構造的に検索パターンと一致しない誤った用例を検索してしまったのは合計2文のみであった.また分類語彙表を用いた類似用例検索では,それぞれの実験で,数多くの類似用例が検索されている.以下で各検索結果について詳細に述べる.\\\vspace*{-10mm}\paragraph{(1)「品質」が「向上する」に係る用例}(図\ref{example1})\\\hspace*{1em}「品質」の同義語として「質,性能」を含む用例が検索されている.単語のみを指定して検索を行うと31文が検索されたが,この中で検索パターンと構造的に一致しない用例が7文含まれていた(図\ref{example1}-a).これらの用例は構造を指定することにより,棄却できる.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:31文(構造が一致しない用例:7文)\end{flushleft}\vspace{-3mm}\begin{itemize}\item\underline{向上した}\hspace{-.07em}精度および高\hspace{-.07em}\underline{品質}\hspace{-.07em}の仕上げは,はねられる部品がほとんどなくなることを意味している\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}システムのスループットを\underline{向上し},利用\underline{性}を高め,さらに充分にシステム管理を行う\end{itemize}\begin{flushleft}b.構造検索による検索用例:24文\end{flushleft}\vspace{-3mm}\begin{itemize}\item相接するドット領域の一部分が縦と横の両方向に重なり合うので,印字\underline{品質}は\underline{向上する}\item生産されるガソリンの量と\underline{質}を\underline{向上させる}ために行われる熱分解および接触分解精製処理\item金属は曲げ\underline{性能}を\underline{向上させる}ために,一般的に波形がつけられている\end{itemize}}}\caption{「品質」が「向上する」に係る用例の検索結果(一部)[科学技術和英大辞典]}\label{example1}\end{center}\vspace{-10mm}\end{figure}\paragraph{(2)「装置を」が「作る」に係る用例}(図\ref{example2})\\\hspace*{1em}この例では,機能語「を」を加えて,検索を行った.従来の単語中心での検索では,このような機能語を加えることにより,係り先の制約を与えようとしていた.しかし,図\ref{example2}-aに示すように,1文中に「装置を」と「作る」が無関係に出現する場合も,単語のみを指定した場合には検索されてしまう.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:25文(構造が一致しない用例:8文)\end{flushleft}\vspace{-3mm}\begin{itemize}\itemこの\underline{装置を}用いれば,手で\underline{つくる}よりももっと整ったコンパクトなものができる\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}二つ又は数箇の\underline{装置を}つなぎ,一つのシステムを\underline{つくる}\end{itemize}\begin{flushleft}b.構造検索による検索用例:17文\end{flushleft}\vspace{-3mm}\begin{itemize}\item半導体\underline{装置を}\underline{作る}上で最も重要なステップの一つは,できる限り完全な格子構造をもつ結晶を作ることである\itemすなわち,IC不況の影響をまともに受けているのが,チップを生産するための写真製版\underline{装置を}\underline{製造し}ている会社である\end{itemize}}}\caption{「装置を」が「作る」に係る用例の検索結果(一部)[科学技術和英大辞典]}\label{example2}\vspace{-10mm}\end{center}\end{figure}\paragraph{(3)「(A)と」と「(B)との」が並列で「バランス」に係る用例}(図\ref{example3})\\\hspace*{1em}「バランス」の類似語として「釣合」「かねあい」が検索されている.この例では,構造を指定した場合の効果は見られなかったが,構造的に検索パターンと一致しない用例も,1文誤って検索されている.図\ref{bad-search}に示すように,骨格構造解析では「放射損失との」の係り先が一意に決定できていないため,この用例も検索パターンと一致するとして検索されてしまう.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}単語検索結果6文(全用例,構造一致)\end{flushleft}\vspace{-3mm}\begin{itemize}\item5分間装置に圧力をかければ,油の使用量\underline{と}好ましい潤滑状態\underline{との}\underline{バランス}が最適になる\itemサービスの実行可能な等級を選ぶには,使用者が受けたいと望むサービス\hspace{-.07em}\underline{と},使用者が進んで払いたい報酬額\underline{との}\underline{釣合}が必要である\item始動トルクは,静電容量が最良運転値\underline{と}最良始動値\hspace{-.07em}\underline{との}\underline{かねあい}であるので,ぎせいにしなければならない\end{itemize}}}\caption{「(A)と」と「(B)との」が並列で「バランス」に係る用例(一部)[科学技術和英大辞典]}\label{example3}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\vspace{-10mm}\epsfile{file=fig17.eps,width=74mm}\caption{構造的に誤った検索例}\vspace{-10mm}\label{bad-search}\end{center}\end{figure}\paragraph{(4)「(Aし)ている」が「間」に係る用例}(図\ref{example4})\\\hspace*{1em}機能語「ている」は,コーパス中に出現する頻度が高いため,単語のみを指定した場合には多くの用例が検索される.そこで,この例の場合は検索パターン中の単語の語順や単語間の距離を指定することにより,多くの用例を棄却することも可能である.しかし,この方法では図\ref{example4}-bの「し\hspace{-.05em}\underline{ている}ベアリングの接触面の\hspace{-.05em}\underline{間}」のような構造的には検索パターンと一致する用例も棄却されてしまう.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:129文(構造が一致しない用例:91文)\end{flushleft}\vspace{-3mm}\begin{itemize}\item光学器械に使われ\hspace{-.05em}\underline{ている}普通のガラスのほとんどの屈折率は,1.46と1.96の\hspace{-.05em}\underline{間}\hspace{-.05em}である.\item宇宙船が自転するにつれて,船底のへりからストーブの曲り煙突のように出\hspace{-.05em}\underline{ている}ソリッド・ステート光学カメラが,4秒\hspace{-.05em}\underline{間}に1回写真を撮影する\end{itemize}\begin{flushleft}b.構造検索による検索用例:38文\end{flushleft}\vspace{-3mm}\begin{itemize}\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}粒子が砕けたり平らになったりし\hspace{-.05em}\underline{ている}ベアリングの接触面の\hspace{-.05em}\underline{間}\hspace{-.05em}では,\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}\item軌道を飛行し\hspace{-.05em}\underline{ている}\underline{間}は,彼の身体は重さがない\end{itemize}}}\caption{「(Aし)ている」が「間」に係る用例の検索結果(一部)[科学技術和英大辞典]}\vspace{-5mm}\label{example4}\end{center}\end{figure}(5),(6)の検索例を,図\ref{example5},図\ref{example6}に示す.\\\begin{figure}[htb]\begin{center}\vspace{-12mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:23文(構造が一致しない用例:11文)\end{flushleft}\vspace{-3mm}\begin{itemize}\itemこの図表にある燃費節減の数字は,すべて,自動変速機と最小のエンジン\hspace{-.05em}\underline{を}\hspace{-.05em}積んだ自動車\underline{について},1981年にEPAが\underline{行っ}た燃費節減概算額に基づく\itemこの状態での溶接強度\underline{を}確かめるために,一部分\underline{について}簡単な引張り試験も\underline{行っ}た\end{itemize}\begin{flushleft}b.構造検索による検索用例:12文\end{flushleft}\vspace{-3mm}\begin{itemize}\itemこの件\underline{について}十分協議\underline{を}\underline{行った}\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}原子力安全問題\hspace{-.05em}\underline{について}\hspace{-.05em}自主的な再検討\hspace{-.05em}\underline{を}\underline{行い},NRCの議長に対する意見書を作成する\end{itemize}}}\caption{「(A)について」と「(B)を」が「行う」に係る用例の検索結果(一部)[科学技術和英大辞典]}\label{example5}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\vspace{-15mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:11文(構造が一致しない用例:5文)\end{flushleft}\vspace{-3mm}\begin{itemize}\item身をのり出さない\hspace{-.05em}\underline{ように}し,右または左に適当な距離をとり,両足をふんばり\hspace{-.05em}\underline{なさい}\itemテストカップを,電気ショートを起こさない\underline{ように}隔室の壁から離して,中央におき\hspace{-.05em}\underline{なさい}\end{itemize}\begin{flushleft}b.構造検索による検索用例:6文\end{flushleft}\vspace{-3mm}\begin{itemize}\item小さな点を見失わない\hspace{-.05em}\underline{ように},それぞれの点に丸を付け\hspace{-.05em}\underline{なさい}\item毛管作用の始めが試料の表面3mm下になる\hspace{-.05em}\underline{ように}温度計を調整し\hspace{-.05em}\underline{なさい}\end{itemize}}}\caption{「〜ように」が「〜なさい」に係る用例の検索結果(一部)[科学技術和英大辞典]}\vspace{-15mm}\label{example6}\end{center}\end{figure} \section{おわりに} 本論文では,骨格構造手法による構文情報付きコーパスの構築と,これを対象とした構文指定による類似用例検索システムについて述べた.対訳付き辞書用例8万文について,骨格構造解析により構文付きコーパスの作成を行ったところ,骨格構造解析結果中に正しい解析木を含んでいるものは,200文中で約93\%であり,骨格構造解析の有効性を実証できた.誤りの多くは,形態素解析あるいは文節カテゴリ付けの誤りによるもので,この部分については今後改善していく予定である.また,類似用例検索システムでは,骨格構造解析の方法を用いて作成した構文付きコーパスを検索対象とし,係り受け関係を指定して検索することで,単語や品詞などの形態素情報のみでは検索されてしまう多くの不用な用例を,絞り込むことができ,骨格構造解析の有用性を実証することができた.なお,英語対訳付き用例を用いたのは類似用例検索による翻訳支援への応用\cite{Sumita1991}を念頭においてからであり,今後は,そのような応用システムの具体化についても検討していく予定である.\acknowledgment科学技術和英大辞典(電子化版)の使用を認めていただいた(株)オーム社,ならびに,講談社和英辞典(電子化版)の使用を認めていただいた電総研自然言語研究室に感謝します.\bibliographystyle{jnlpbbl}\bibliography{present}\begin{biography}\biotitle{略歴}\bioauthor{兵藤安昭}{1991年岐阜大学工学部電子情報工学科卒業.1993年同大学大学院修士課程修了.現在,同大学院博士後期課程在学中.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{河田実成}{1993年岐阜大学工学部電子情報工学科卒業.1995年同大学大学院博士前期課程修了.同年,日立ソフトウェアエンジニアリング(株)に入社,現在に至る.}\bioauthor{応江黔}{1984年中国武漢水利電力学院卒業.1989年名古屋大学大学院工学研究科電気工学専攻博士前期課程修了.1992年同大学院博士後期課程修了.同年,岐阜大学工学部電子情報工学科助手.工学博士.電子情報通信学会会員.}\bioauthor{池田尚志}{1968年東京大学教養学部基礎科学科卒業.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属,主任研究官.1991年岐阜大学工学部電子情報工学科教授.工学博士.主として人工知能,自然言語処理の研究に従事.人工知能学会,電子情報通信学会,情報処理学会,ACL各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V14N03-04
\section{はじめに} \label{sec:hajimeni}\subsection{背景}テキストデータからヒトの心理状態を抽出・分析する研究例は近年盛んに行われるようになっている.これは,ヒトの行動について,観測可能な形として外部に現れた行動結果だけでなく,評価・好き嫌い・満足・要求といった心理的な面を扱うニーズが高まっていることを反映している.筆者らは,交通行動,特に,経路選択行動の心理状態をことばによってモデル化することを試みている.交通行動分析の代表的な問題の捉え方の1つは,ある場所から別の場所に移動する際に経路や交通手段としていくつかの選択肢が挙がっており,その中から1つを選ぶというものであるが,交通行動分析においても同様に心理面のニーズが高まっている.従来の交通行動分析の主要な課題の1つは経済の急速な発展とともに増大する交通需要を量的に満たすという点であった.これを踏まえ,多くの場合,関心は選択の結果である行動に向けられており,行動結果が観測可能な形として現れた情報から分析を加えるというアプローチが多い.この場合,個人の行動の因果的背景は簡素化される\cite{Fujii2002}ことが多く,ヒトの心理的な側面に目が向けられることは少なかった.心理的な要素を扱うことがあっても,内部的な変数として表現されることが多かった.しかし,欧米諸国と同様に我が国も成熟社会を迎え,量的な需要を満たすだけでなく,心理的な側面や質的な側面に目を向ける必要性が高まっている.ヒトが多くの選択肢の中から1つを選択して行動に移る時には,何らかの心理的な思考過程を経ていると思われる.心理的な側面に着目することによって,なぜ選択したのかという因果関係や,ある選択肢を選択した場合でも何らかの不満を感じているかもしれないといったような,従来の方法では捉えることが難しかった未知の要素を発見するのに役立つと考えられる.選択理由に着目することの重要性は\citeA{Shafir1993}によって指摘されている.彼らは実験の結果,理由付けがなされることによって選択行動が行われる点もあることを見いだし,さらに,従来の数値的な行動モデルでは説明できない場合もあることを報告している.したがって,交通行動分析においても,選択肢の選択理由を直接捉えることが重要であると考えられる.\subsection{選択肢の選択プロセスの捉え方}いくつかの選択肢の中から1つを選ぶという行動は我々の生活の中でしばしば行われる.\pagebreakたとえば,ある商品を購入する場合には,いくつかの候補を挙げ,それぞれの特徴,評判,意見等を比較して最終的に1つを選ぶというプロセスを経ることが多い.このような,選択行動とそれに伴う心の状態を研究対象とする例はいくつか行われている.たとえば,\citeA{Tateishi2001}はある商品を購入する時の評判情報を分析しているが,評判情報を「ユーザの行動・意思決定に役立つ形式で意見をまとめたもの」と捉えている.したがって,選択行動をするに際しての,各選択肢の特徴となる情報をWeb等のテキストデータから抽出・分析することが評判情報や意見抽出等の研究例であると位置づけることができる.\begin{figure}[b]\begin{center}\begin{picture}(370,50)(0,10)\put(10,40){\framebox(70,20){交通空間}}\put(150,40){\framebox(70,20){認知結果}}\put(290,40){\framebox(70,20){選択・行動}}\put(80,50){\vector(1,0){70}}\put(220,50){\vector(1,0){70}}\put(80,25){\makebox(70,15){空間認知}}\put(80,10){\makebox(70,15){「認知する」}}\put(220,25){\makebox(70,15){意思決定}}\put(220,10){\makebox(70,15){「決める」}}\end{picture}\end{center}\caption{選択のプロセス}\label{fig:process}\end{figure}本稿で扱う交通行動分析における選択行動も同様の枠組みで捉えることができる\shortcite{Takao2004_HKSTS}.すなわち,\begin{enumerate}\item起点から終点に至る経路や交通手段が選択肢としていくつか存在するとき,\itemその中から1つを選択することである\end{enumerate}と考えられる.これに対応して,選択行動の心理的プロセスは2段階で捉えることができる(図\ref{fig:process}).第1段階は物理的な交通空間内の各選択肢の特徴や印象といった要素を意識・認識・認知するまでの段階で,いわば「認知する」段階である.認知した結果の要素を「認知結果」と呼ぶ.第2段階は,各選択肢の認知結果を評価して候補となる選択肢を取捨選択し,最終的な選択をする意思決定の段階で,いわば「決める」段階である.したがって,前述の評判情報や意見抽出等の研究は,第1段階に焦点を当てた研究であると位置づけることができる.これに対して,本研究では「決める」段階も含めて包括的に選択行動を捉えようとする点に立場の違いがある.第2段階の「決める」段階は意思決定のモデルで捉えることができる.意思決定モデルは補償型と非補償型に大別することができる\cite{Payne1976}.補償型の意思決定モデルは効用関数のようにある種の点数の足し算で選択肢の魅力を表現するモデルであり,非補償型の意思決定モデルは特定の属性によって選択肢を取捨選択するように表現するモデルである\footnote{\citeA{Shafir1993}も同様の分類を行っており,補償型は`formal,value-based',非補償型は`reason-based'に相当する.}.ヒトが選択行動を行う際は,何らかの理由を念頭に置いて選択肢の取捨選択を行うという思考プロセスを経ることが多いと考えられる.補償型モデルは行動結果を大局的に捉えようとする場合に便利であるのに対し,非補償型モデルは選択または非選択の根拠をモデルの中で明確に扱うため,選択理由を明示的に表現することができる.したがって,ヒトの論理的な思考プロセスを明らかにするには非補償型が適していると考えられるので,本研究では非補償型のモデルで分析を試みる.本研究の枠組みで選択行動を捉える場合,第2段階は\citeA{Tversky1972}のElimination-By-Aspects(EBA)の意思決定モデルで表現することができる.「アスペクト」\footnote{「アスペクト」の用語は本稿ではEBAのアスペクトを表す.}とは,ある状況を表す特徴,つまり,「遅い」「確実」のような,選択候補のいくつかの選択肢に共通して表れる認知結果を意味する.言い換えると,意思決定の段階をEBAに則って捉える場合,認知結果がEBAモデルのアスペクトに相当する\footnote{以下の文中ではEBAの処理に着目する場合は「アスペクト」,「認知する」段階の結果やデータ収集に着目する場合は「認知結果」と記す.}.EBAでは,意思決定は,着目しているアスペクトを各選択肢が持っているか否かによって候補を順に排除していくことで行われる.たとえば,「遅い」のが嫌な場合,「遅い」というアスペクトを持つ選択肢が候補から排除される.したがって,選択肢を直接選ぶのではなく,選ぶのはアスペクトであり,その結果選択肢が選択されるという捉え方である.\subsection{目的}\label{subsec:mokuteki}筆者らのこれまでの研究では,ことばとして表れた情報を,それぞれ個別に適切に捉えることができるかどうかに焦点を当ててきた.たとえば,\shortciteA{Takao2005_E,Takao2005_NLP}ではそれぞれの文に記述された認知結果を適切に抽出できるかどうか,\shortciteA{Takao2005_RON}では,「決める」段階における1回の取捨選択方略をそれぞれ個別に適切に捉えることができたかに着目した.この結果を踏まえ,本稿では,選択行動の「決める」段階の意思決定の過程を全体として捉え,「決める」プロセス全体の記述について検証し,情報処理を行う上での問題点を明確化する.すなわち,文や認知結果,取捨選択方略を個別に扱うのではなく,1選択行動を表すデータをひとまとめで扱い,提案手法の総合的な検証を行う.ただし,一般に,ヒトの心理状態は必ずしも完全な形ではことばに表れていないことに注意する必要がある.不完全な形のことばデータからは,これまでの研究で述べた手法をそのまま用いるだけでは正しい選択結果を記述できるとは限らない.したがって,不完全なことばのデータから「決める」プロセスの心理状態を扱うにはどのような課題があるのかを明確化する必要がある.そこで,できるだけ簡単な形で「決める」プロセスを表現したうえで,追加的な課題を発見し,その解決方法を考察することが本稿のもう1つの目的である.さらに,マーケティングへの利用という観点から言えば,選択肢に関する種々の評判や印象を単に抽出するだけでなく,選択や排除のきっかけとなった理由をピンポイントで抽出できれば,選択肢が選択されるための手がかりを効率的に得ることができる.そこで,単純な情報抽出だけではなく,EBAの意思決定モデルに則って問題を捉えることで,きっかけの理由が得られることを示す.本稿の構成は次の通りである.\ref{sec:kanren}章では関連研究を整理して本稿の立場を明確にする.\ref{sec:datacollect}章ではデータ収集方法について述べる.\ref{sec:ebaprocess}章では選択プロセスをEBAに則って表現する方法について述べる.\ref{sec:gyoukan}章では行間を読み取る方法について述べる.\ref{sec:kikkake}章では選択・削除されるきっかけの理由を捉える方法について述べる.最後に,\ref{sec:owarini}章で内容をまとめる. \section{関連研究} \label{sec:kanren}評判情報・意見抽出の研究例としては,\citeA{Tateishi2001,Kobayashi2003,Kobayashi2004,Kobayashi2005}の研究がWeb上に大量に存在する言語データから特定の製品の評判情報を抽出している.彼らの方法は,評価表現を肯定的・否定的表現に分類してあらかじめ辞書として用意しておくという固定的な尺度を用いているのに対し,本研究では,アスペクトは状況によって評価が変化しうるという前提に立って取捨選択の様子をEBAに則って捉えるという点が異なっている.また,\citeA{Nasukawa2005}は種となる好不評表現を少数定義し,文章中でその種表現が存在する場所を特定することで好評・不評の認知結果を抽出している.彼らの研究では情報処理機器を対象としており,ユーザーから質問や苦情の形で挙がってきた言語データの中から開発サイドが対処すべき項目を抽出するという目的のため,認知結果が好評・不評に分類できるという前提に基づき,不評の認知結果を抽出するという立場に立っている.このように,評判情報・意見抽出の研究例の多くは評価表現を固定的に捉えているが,それらが選択に際して実際にどの程度寄与しているかについての分析は必ずしも十分とは言えない.一方,本研究の方法は選択のプロセスを捉えることになるため,取捨選択に寄与した認知結果をピンポイントで抽出することができる.また,認知結果は必ずしも1語では表現できず,「待ち時間が長い」のように長い語となる点に注意する必要がある.これについて,\citeA{Kobayashi2005}は認知結果とその評価を〈対象,属性,属性値,評価〉の4つ組で抽出することを試み,例えば〈フィット(ホンダの車種名),走行性能,キビキビ,満足〉という組を抽出し,その上で,属性値と評価の区別は困難であるため,評価と属性値を合わせて評価値としている(図\ref{fig:4_2}).これに対して本研究では,「疲れる」「暑い」のように,「身体が」等の属性を表す語は通常省略されて属性と属性値が1語になる場合や,「到着時間の見込みがたてやすい」のように属性と属性値の区別が曖昧な場合があり,両者を合わせて認知結果とすることが適切である.また,本研究では,評価は選択肢の取捨選択のトリガーとして捉えるので,特定の属性値に特定の評価を与えるという立場には立っていない.\begin{figure}[t]\begin{center}\begin{picture}(300,75)(0,10)\put(10,70){\makebox(60,15)[l]{\shortciteA{Kobayashi2005}}}\put(200,70){\makebox(90,15){評価値(例:キビキビ=満足)}}\put(245,65){\oval(90,10)[t]}\put(100,40){\framebox(40,20){対象}}\put(150,40){\framebox(40,20){属性}}\put(200,40){\framebox(40,20){属性値}}\put(250,40){\framebox(40,20){評価}}\put(195,35){\oval(90,10)[b]}\put(150,10){\makebox(90,15){認知結果(例:疲れる)}}\put(10,10){\makebox(60,15)[l]{本研究}}\end{picture}\end{center}\caption{\protect\shortciteA{Kobayashi2005}の方法と本研究の方法の違い}\label{fig:4_2}\end{figure}印象表現に関する研究例としては,楽曲に関する印象表現の研究\shortcite{Kumamoto2002}や,テレビ番組に関する印象表現の研究\shortcite{Hitachi2000}がある.さらに,\shortciteA{Kumamoto2004}は楽曲検索システムにおける程度語の研究も行っている.それに対し,本研究では表現収集を直接の目的とはしておらず,選択プロセスを捉えることに主眼を置き,それに必要な表現をシソーラスを利用しながら収集する立場をとる.また,自由記述型アンケートの自由回答文から人間の心理状態を分析しようと試みる研究例もある.\citeA{Inui2004}は,道路に関する自由記述型アンケートの自由回答文を,回答の背後にある態度や回答意図の分類に焦点を当てて分析している.本研究の対象は態度や意図ではなく選択理由であるという違いはあるものの,言語データからヒトの心理状態を知ろうとする点が本研究と類似しており,また,表現に着目するという点でヒントを与えてくれている.経路選択にどのような要因が影響を及ぼすかについての研究もいくつかなされている.\citeA{Nakamura2002}は駅周辺の危険・不快要因を研究している.\shortciteA{Fukuda2002}は交通手段選択行動を対象として各種項目の5段階の主観的評価を尋ねている.このように,経路選択行動には種々の要因が影響を及ぼす.しかし,いくつかの要因については個々に研究がなされているが,選択行動に関して包括的に要因を捉える研究は十分なされているとはいえない.そこで,本研究では被験者にことばで記述してもらう方法で選択のきっかけとなる要因を捉えることを試みる. \section{データ収集方法} \label{sec:datacollect}評判情報・意見抽出の研究例では,既に存在する言語データから有益な情報を抽出しようとするマイニング的な立場に立っている場合が多い.これに対し,本研究では分析の枠組みを設定し,それに適したデータを収集するという立場に立ち,自由記述型アンケートを実施してデータを収集した.\shortcite{Takao2004_KKKK}被験者に対し,特定の出発点から京都市役所に行く場合について,自転車・地下鉄・バス・タクシーの4つの選択肢を提示し,どうやって行くかについてのアンケート調査を実施した.季節・天候等の異なるいくつかのシナリオを提示し,それぞれの場合について,以下の設問の回答を求めた.\begin{description}\item{(a)}各経路について思うことを自由に記述\item{(b)}どの経路を選択するか\item{(c)}選択する理由を自由に記述\end{description}(a)が「認知する」,(b)(c)が「決める」に対応する.厳密に言えば,これは完全に自由な記述ではなく,項目別の記述である.この理由は,選択プロセスの分析の枠組みに適したデータを収集するためである.(a)(b)(c)をセットで数えた場合の有効回答数は138回答である.文数では(a)が1209文,(c)が258文である. \section{EBAに則った取捨選択プロセスの記述} \label{sec:ebaprocess}\subsection{取捨選択方略}「決める」プロセスは,ある根拠に基づいてそれぞれの選択肢を排除するか残存させるかをより分けるといういくつかのステップで構成される.1つの根拠に基づく1回のより分けを1回の「取捨選択」といい,その根拠を「方略」という.EBAの場合,アスペクトを持つかどうかが根拠となる.分析の結果,取捨選択の方略は次の3種類に整理できることがわかった.\shortcite{Takao2005_RON}\begin{itemize}\itemPositiveな方略\itemNegativeな方略\itemIndifferentな方略\end{itemize}Positiveな方略はアスペクトを好むことを表し,対象アスペクトを持っている選択肢を候補に残してそれ以外の選択肢を候補から排除する方略である.Negativeな方略はアスペクトを嫌がることを表し,対象アスペクトを持っている選択肢を候補から排除してそれ以外の選択肢を候補に残す方略である.Indifferentな方略とは,選択肢を選ぶ時にそのアスペクトは相対的に重要ではなく,もっと優先順位の高いアスペクトが他にあることを表す.つまり,このアスペクトによって選択肢は排除されないことを明示する意味で用いられる.Indifferentな方略は主に方略を判別するために用いられ,「決める」プロセスを通しで扱う場合には明示的には用いられない.1回の取捨選択方略で選択肢が残存または排除される様子を整理し,表\ref{tab:6_1}に示す.例として,「速い」についての取捨選択を示す.この場合,選択肢が「速い」というアスペクトを持つ場合,「not速い」というアスペクトを持つ場合,両方とも持たない場合の3通りがある.表の1番目の「速い」についてのPositiveな方略は「速いのが望ましい」を意味する.この結果,「速い」だけが候補に残存し(表の○印),それ以外の2つは候補から排除される(表の×印).また,この場合の取捨選択の様子を図\ref{fig:6_3}に示す.\begin{table}[t]\caption{基本的な取捨選択}\begin{center}\begin{tabular}{|l|l|l||c|c|c|}\hline\multicolumn{3}{|c||}{方略}&\multicolumn{3}{|c|}{選択肢が持つアスペクト}\\\hline種類&対象アスペクト&意味&速い&not速い&記述なし\\\hline\hlinePositive&速い&速いのが望ましい&○&×&×\\\hlineNegative&not速い&速くないのは嫌&○&×&○\\\hlineNegative&速い&速いのは嫌&×&○&○\\\hlinePositive&not速い&速くないのが望ましい&×&○&×\\\hline\multicolumn{6}{r}{○:候補に残存×:排除}\\\end{tabular}\label{tab:6_1}\end{center}\end{table}\begin{figure}[t]\begin{center}\begin{picture}(220,100)(110,5)\put(110,90){\makebox(60,15){選択肢1}}\put(190,90){\makebox(60,15){選択肢2}}\put(270,90){\makebox(60,15){選択肢3}}\put(110,70){\framebox(60,20){速い}}\put(190,70){\framebox(60,20){not速い}}\put(270,70){\framebox(60,20){(記述なし)}}\put(110,35){\framebox(220,20){方略:Positive,速い(速いのが望ましい)}}\put(140,70){\line(0,-1){15}}\put(220,70){\line(0,-1){15}}\put(300,70){\line(0,-1){15}}\put(140,35){\vector(0,-1){15}}\put(220,35){\vector(0,-1){15}}\put(300,35){\vector(0,-1){15}}\put(110,5){\makebox(60,15){残存}}\put(190,5){\makebox(60,15){排除}}\put(270,5){\makebox(60,15){排除}}\end{picture}\end{center}\caption{1回のPositiveな方略での取捨選択}\label{fig:6_3}\end{figure}表の2番目「not速い」についてのNegativeな方略は「速くないのは嫌」を意味する.この場合,「not速い」だけが排除され,「速い」と「記述なし」が候補に残存する.この場合の取捨選択の様子を図\ref{fig:6_4}に示す.\begin{figure}[t]\begin{center}\begin{picture}(220,100)(110,5)\put(110,90){\makebox(60,15){選択肢1}}\put(190,90){\makebox(60,15){選択肢2}}\put(270,90){\makebox(60,15){選択肢3}}\put(110,70){\framebox(60,20){速い}}\put(190,70){\framebox(60,20){not速い}}\put(270,70){\framebox(60,20){(記述なし)}}\put(110,35){\framebox(220,20){方略:Negative,not速い(速くないのは嫌)}}\put(140,70){\line(0,-1){15}}\put(220,70){\line(0,-1){15}}\put(300,70){\line(0,-1){15}}\put(140,35){\vector(0,-1){15}}\put(220,35){\vector(0,-1){15}}\put(300,35){\vector(0,-1){15}}\put(110,5){\makebox(60,15){残存}}\put(190,5){\makebox(60,15){排除}}\put(270,5){\makebox(60,15){残存}}\end{picture}\end{center}\caption{1回のNegativeな方略での取捨選択}\label{fig:6_4}\vspace{-1\baselineskip}\end{figure}これを見てわかるように,「速くない」の「ない」を表す否定「not」を適切に考慮して取捨選択を表現する必要がある.また,1番目と2番目は似た方略であるが,「記述なし」の選択肢,すなわち,「速い」とも「速くない」とも意識に挙がっていないような選択肢が残存するか排除されるかが異なる\footnote{\citeA{Shafir1993}では,choose(長所に着目して選択する場合)とreject(短所に着目して排除する場合)とで違いがあり,際立った長所も短所もない選択肢はchooseもrejectもされにくいことが報告されている.本稿の方法はこの様子を表現することができる.}.しかし,反義語がある場合を考えると,文字通りの処理だけでは問題があることがわかる.たとえば,「not速い」についてのNegativeな方略は「not速い」を持つ選択肢のみを排除し,それ以外の選択肢を候補に残す.意味を考えると,この方略は「速くないのは嫌」なので,当然「遅い」場合も嫌と言うことを意味する.しかし,文字通りの処理だと,「遅い」を持つ選択肢は「not速い」とは表記が異なるため,排除には該当せず,残存することになってしまう.したがって,取捨選択を適切に表現するためには,方略の対象アスペクトの反義語を適切に認識する必要があることがわかる.\subsection{同義語・反義語のグルーピング}\label{sec:grouping}\begin{table}[b]\caption{同義語・反意語のグルーピング}\begin{center}\begin{tabular}{|c|l|l|}\hline&グループ名&反義語\\\hline1&暑い&寒い\\2&遠い&近い\\3&広い&狭い\\4&道路がすく&混雑・渋滞\\5&ゆったり&窮屈\\6&軽い&重い\\7&濡れる&乾く\\8&明るい&暗い\\9&速い・早い&遅い\\10&安全&危険\\11&平穏&不穏\\12&可能&不可能\\13&確実&不確実\\14&高い&安い\\15&便利&不便\\16&遅れる&間に合う\\17&疲れる&楽\\18&束縛&自由\\19&気分転換&−\\20&幸運&不運\\\hline\end{tabular}\label{tab:6_4}\end{center}\end{table}\begin{table}[t]\caption{取捨選択表(反義語処理あり)}\begin{center}\begin{tabular}{|l|l||c|c|c|c|c|}\hline\multicolumn{2}{|c||}{方略}&\multicolumn{5}{|c|}{選択肢が持つアスペクト}\\\hline種類&対象アスペクト&速い&not速い&遅い&not遅い&記述なし\\\hline\hlinePositive&速い&○&×&×&○&×\\\hlineNegative&not速い&○&×&×&○&○\\\hlineNegative&遅い&○&×&×&○&○\\\hlinePositive&not遅い&○&×&×&○&×\\\hlineNegative&速い&×&○&○&×&○\\\hlinePositive&not速い&×&○&○&×&×\\\hlinePositive&遅い&×&○&○&×&×\\\hlineNegative&not遅い&×&○&○&×&○\\\hline\multicolumn{7}{r}{○:候補に残存×:排除}\\\end{tabular}\label{tab:6_5}\end{center}\end{table}本研究では角川類語新辞典\shortcite{Kadokawa}を用いて語の意味分類を整理した.分類の粗いカテゴリを適宜分割し,同義語・反義語のカテゴリをグルーピングした.たとえば,「安い」と「無料」は別のカテゴリに属しているが,どちらも安価であることを表しているので,グルーピングによって同じ意味であると捉えることができる.このことによって,「安い」についてのPositiveな方略(安いのが望ましい)の場合に,「無料」の選択肢を候補に残すことができる.表\ref{tab:6_4}に本稿で作成した20組の同義語・反義語の組を示す(グルーピングの必要があるもののみを示した).このようにして反義語を適切に認識できるようにしたうえで,たとえば,方略の対象アスペクトが「速い」または「not速い」の場合,\begin{quote}「遅い」$\rightarrow$「not速い」\\「not遅い」$\rightarrow$「速い」\end{quote}のように置き換えることとする.すなわち,反義語を置き換えるとともに,notの有無を反転させる.すると,表\ref{tab:6_5}のようになり,不都合は解消される.\subsection{その他の問題}本研究のデータには「決める」段階での選択理由に「習慣的にこの選択肢に決めている」という場合が若干あった.習慣行動とは「当初はある種の心理状態によって,すなわち,理由を意識した状態で選択肢を選んでいたが,繰り返し同様の行動を実行するにつれて,選択理由が意識から消滅した状態」であるといえる\cite{Fujii2002}.したがって,選択理由がことばに表れないのは,選択理由を意識しなくなったためである.ことばに表れていないので,本研究のことばを用いる手法では選択の様子をうまく表現できない.もし可能なら,データを収集する際の工夫として,そのような習慣が形成されるに至った理由を再質問等によって文データの形にし,そのプロセスを捉えたいところであるが,この点については今後の課題である.本稿では「習慣的」を表す語が含まれるかどうかで習慣的な選択かどうかを判別するにとどめた.\subsection{通しテスト}「決める」プロセスは,いくつかの取捨選択のステップで構成される.\ref{subsec:mokuteki}節で述べたように,筆者らのこれまでの研究では,取捨選択方略をそれぞれ個別に適切に抽出することを問題とし,良い結果を得た\shortcite{Takao2005_RON}.本稿ではこれらの個別の取捨選択方略を構成することで,選択プロセスの開始から完了までを通しで扱うことを問題としているので,本節でそのテストを行う.すなわち,本手法のできるだけ簡単な形によって「決める」プロセスを記述できるかどうかを確認するとともに,どのような課題が残されているかを解明するために,「決める」プロセスの通しテストを行った\footnote{取捨選択のステップを個別に扱うのではなく,選択プロセス全体を通しで扱うことを明示するため,「通しテスト」と記す.}.最終的な選択が行われるまでの,各選択肢の認知結果の記述,および,選択理由の方略が記述された,一連のアンケート回答を1件とし,表\ref{tab:6_5}の取捨選択表に基づいた選択行動の表現結果が実際の選択結果と一致しているかをテストした.繰り返しになるが,このテストは性能評価ではなく,心理的な情報をことばでどの程度扱えるかや,それに関する課題を見いだすためのものである.\begin{table}[b]\caption{通しテストの結果(表れている情報のみ)}\begin{center}\begin{tabular}{|cl|r|r|}\hline区分&評価&全データ&テストセット\\\hline○&正しい選択肢のみが残った&33&6\\△&まだ余分な選択肢が残っている&10&2\\▲&全部排除された&58&12\\×&間違った選択肢が残った&7&2\\−&習慣的/方略の記述なし&30&8\\\hline計&&138&30\\\hline\end{tabular}\label{tab:6_8}\end{center}\end{table}\begin{figure}[t]\begin{center}\begin{picture}(360,195)(50,30)\put(110,210){\makebox(70,15){自転車}}\put(190,210){\makebox(70,15){地下鉄}}\put(270,210){\makebox(70,15){バス}}\put(350,210){\makebox(70,15){タクシー}}\put(110,170){\framebox(70,40){\shortstack{濡れる}}}\put(190,170){\framebox(70,40){\shortstack{not濡れる\\時間が読める}}}\put(270,170){\framebox(70,40){\shortstack{not濡れる\\混む\\遅い}}}\put(350,170){\framebox(70,40){\shortstack{not濡れる\\道路が混む\\遅い}}}\put(50,135){\makebox(55,20)[r]{取捨選択1}}\put(110,135){\framebox(310,20){文:「濡れたくないので自転車は却下.」,方略:Negative,濡れる}}\put(145,170){\line(0,-1){15}}\put(225,170){\line(0,-1){15}}\put(305,170){\line(0,-1){15}}\put(385,170){\line(0,-1){15}}\put(145,135){\vector(0,-1){15}}\put(225,135){\vector(0,-1){15}}\put(305,135){\vector(0,-1){15}}\put(385,135){\vector(0,-1){15}}\put(110,105){\makebox(70,15){排除}}\put(190,105){\makebox(70,15){残存}}\put(270,105){\makebox(70,15){残存}}\put(350,105){\makebox(70,15){残存}}\put(50,60){\makebox(55,30)[r]{取捨選択2}}\put(110,60){\framebox(310,30){\shortstack{文:「五十日なので道路が混んでいる可能性があり,\\バスとタクシーも却下.」,方略:Negative,道路が混む}}}\put(225,105){\line(0,-1){15}}\put(305,105){\line(0,-1){15}}\put(385,105){\line(0,-1){15}}\put(225,60){\vector(0,-1){15}}\put(305,60){\vector(0,-1){15}}\put(385,60){\vector(0,-1){15}}\put(190,30){\makebox(70,15){残存}}\put(270,30){\makebox(70,15){排除}}\put(350,30){\makebox(70,15){排除}}\end{picture}\end{center}\caption{「決める」プロセスの記述}\label{fig:6_2}\end{figure}表\ref{tab:6_8}にその結果を示す.テストセットは全データからランダムに30回答を選んだものであり,その残りが学習セットである.学習セットを言語知識の獲得用に用いるために両者を分離したが,\ref{sec:ebaprocess}章までの段階では学習セットを用いた言語知識の獲得は行っていない.なお,後述の\ref{sec:gyoukan}章の「行間を読み取る」の分析で学習セットを用いている.表の「○正しい選択肢のみが残った」は成功したもの,「△まだ余分な選択肢が残っている」は正しい選択肢以外にも何か排除されずに残っている場合,「▲全部排除された」は正しい選択肢も含めてすべての選択肢が排除された場合,「×間違った選択肢が残った」は正しい選択肢が排除され,間違った選択肢だけが残った場合である.「−習慣的/方略の記述なし」は習慣的な選択と明記している場合,または,選択理由の方略が1つも記述されていない場合である.的はずれな回答はテスト対象外としたが,習慣的な選択や部分的に認知結果がうまく記述されていない回答もテスト対象から除外せずテストを行った.この場合,被験者の文章表現力や着眼点の違いも結果の成績の善し悪しに影響する.さらに,EBAの意思決定モデルで記述できないような選択行動をしている場合も不成功の一因となる.したがって,表の`○'評価の割合が小さいように見えるが,必ずしも手法に問題点があるためだけではなく,被験者の文章表現力等,ことば自体がヒトの心理状態をどの程度表現できるものなのかという問題にも大きく影響を受けている.`○'の成功例によって,心理状態が本手法に適合し,かつ,完全にことばに表れている場合なら,取捨選択方略によって「決める」プロセスが記述できることが確認できる.成功例を図\ref{fig:6_2}に示す.方略の抽出元の文も示した\footnote{この例では選択肢を「却下」する旨が元の文に明示的に表れているが,EBAに則って取捨選択の理由を捉えることが本研究の目的であるので,選択肢の却下の語句は直接用いず,方略に沿って選択行動を捉えている.したがって,「遅いのは嫌だから」のように,選択肢は明記されず,アスペクトを嫌う場合も本手法で扱うことができる.}.次に,失敗の原因を詳しく考察することで,不完全なことばデータの処理方法を明確化する.\subsection{考察}\label{sec:kousatsu}ここでは,不成功の原因を考察する.第1は,アスペクトの記述不足である.選択理由の文は「雨が降っていて自転車に乗れないから.」と記述されていたが,この文には「雨」という条件と「乗れない」という結果は書かれている一方,「危険」等のアスペクトは明記されていないので,取捨選択を適切に表現できなかった.日常会話では,自転車は雨に日には「危険」ということを常識で知っているので,ことばに明示的に表れていなくても意味を理解できる.つまり,ヒトの文章表現には限界があり,心理状態を必ずしもありのまま文に記述するとは限らず,常識や暗黙の了解事項を活用して省略された意図をくみ取ってもらおうとしている.内容が多岐にわたる常識を収集するのは有利な解決方法とは言えないので,現実的な方法としては,データ収集時に,記述内容に不足があった場合には適切に再質問をするという方法が考えられる.つまり,乗れないという判断を下すに至った理由を明記するように被験者に求める必要がある.また,「認知する」段階と「決める」段階での記述内容の整合がとれていないために失敗したものもあった.たとえば,「決める」段階の文には「お金もかからない.」と記述されているが,「認知する」段階には「お金がかかる/かからない」という意味の記述がない場合があった.これについてもデータ収集時に記述不足を指摘して明記させる必要がある.第2は,相対的なアスペクトについて行間を読み取る必要性である.選択理由の記述には「移動時間が短い」と記述されていた(「移動時間が短い」についてのPositiveな方略)が,次のように各選択肢のアスペクトに「移動時間が短い」が表れていないためすべての選択肢が排除されてしまった.\begin{quote}自転車:(記述なし)\\地下鉄:「時間がかかる」\\バス:「時間がかかる」\\タクシー:(記述なし)\end{quote}しかし,地下鉄・バスについては「時間がかかる」が明記されている.自転車・タクシーについては「時間がかかる」を記述しないことで相対的に「時間がかからない」というニュアンスをくみ取ってもらおうとしている.したがって,何も記述されていない状態でも,他の選択肢の記述を参照し,相対的に「時間がかからない」と判断し,被験者の気持ちを行間からくみ取る処理が必要である.これについては次章で詳しく述べる.第3はアスペクトの程度語の処理の必要性である.各選択肢のアスペクトが以下のようになっているとする.\begin{quote}自転車:「交通費がかからない」\\地下鉄:「費用がかかる」\\バス:「費用がかかる」\\タクシー:「費用が格段にかかる」\end{quote}この時「費用もそれほどかからない」という文から「not費用がかかる」についてのPositiveな方略が抽出された.このため,自転車のみが残存し,正解の地下鉄は「費用がかかる」ため排除されてしまった.したがって,「格段に」「それほど」のような強弱の程度語を適切に解釈することが必要である.すなわち,この場合は費用が「それほどかからない」以下の選択肢を残存させ,「格段にかかる」のみを排除すればよい.本研究ではアスペクトがことばに表れているかどうかという観点から,属性値を白黒2値で表した.しかし,\citeA{Bohanec}が質的スコアを何段階かで表現しているように,程度を適切に捉える必要がある.\begin{quote}Bohanecの例(教育水準):\{unacceptable,acceptable,appropriate\}\\本研究の例(費用):\{格段にかかる,かかる,かからない\}\end{quote}程度語は,「とても遅い」の「とても」のような,アスペクトの語へ係る修飾語や,「混雑がひどい」の「ひどい」のような,アスペクトの語から係る語や文末表現の形で表される.本研究のデータから程度語を調べたところ,強弱を表すものと確信度を表すものの2つの軸があることがわかった.\begin{quote}強弱の程度の軸:とても〜程度語なし〜少し\\確信度の程度の軸:絶対〜程度語なし〜かもしれない\end{quote}この2つの軸を扱うことにより,アスペクトをより適切に捉えることができる.ただし,\citeA{Bohanec}のモデルは,選択肢の総合評価を出すことを目的としていることから,補償型モデルに分類できる.したがって,彼らの方法はそのままでは本研究のような選択プロセスを記述する目的に用いるには適しておらず,独自に工夫を行う必要がある.しかし,本研究の場合は程度語の処理を必要とする場合はきわめて少なく,程度語についてはさらに多くのデータを収集して検討する必要がある.第4は属性ツリーの必要性である.取捨選択方略の対象アスペクトに「不便」が登場しているが,選択肢のアスペクトには直接表れていない場合があった.「時間がかかる」「到着時間が不安定」「高い」等を総合して「不便」と見なす必要がある.この処理には\citeA{Bohanec}の属性ツリーの手法を用いることができる(図\ref{fig:6_7}).彼らのモデルは,属性を依存構造によってツリーで表し,下位の属性を上位の属性に集計する仕組みになっている.「不便」の例では,\begin{quote}if時間がかかるand到着時間が不安定and高いthen不便\end{quote}のようなif-thenルールでツリーの末端からルート(根)に向かって集計を行う必要がある.\begin{figure}[b]\begin{center}\begin{picture}(200,82)(0,0)\put(0,66){\framebox(70,16){不便}}\put(35,8){\line(0,1){58}}\put(35,52){\line(1,0){65}}\put(35,30){\line(1,0){65}}\put(35,8){\line(1,0){65}}\put(100,44){\framebox(100,16){時間がかかる}}\put(100,22){\framebox(100,16){到着時間が不安定}}\put(100,0){\framebox(100,16){高い}}\end{picture}\end{center}\caption{Bohanecの属性ツリー}\label{fig:6_7}\end{figure}このほか,語のニュアンスの違いによる不成功もあった.たとえば,「楽」が肉体的に楽なのか,気分的に楽なのかを区別する必要があるケースがあった.テストセットの不成功の原因を整理し,表\ref{tab:6_9}に示す.このうち,(0)(1)はEBAでは表すことができない,または,ヒトの文章記述力に関する事柄であり,(4)(5)は語彙知識の事柄である.そこで,EBAに深く関係する事柄で,改善効果の大きい(2)の「行間を読み取る」について,次章でさらに議論する.\begin{table}[t]\caption{不成功の原因}\begin{center}\begin{tabular}{clr}\hline&原因&件数(のべ)\\\hline(0)&習慣的な選択&7\\(1)&アスペクトの記述不足&11\\(2)&相対的なアスペクトについて行間を読み取る必要&2\\(3)&程度語の処理が必要&2\\(4)&属性ツリーが必要&2\\(5)&語のニュアンスの違い&3\\\hline\end{tabular}\label{tab:6_9}\end{center}\end{table} \section{行間を読み取る} \label{sec:gyoukan}行間を読み取る必要があることは\ref{sec:kousatsu}で述べた.すなわち,何も記述しないことで何らかのニュアンスを示そうとしているので,記述なしの項目を表\ref{tab:6_5}に従って処理するだけでは不十分な場合がある.したがって,それらを情報として適切に取り出さなければ選択行動を正しく表現できない.この章では,行間に隠されたアスペクトを適切に補充し,その結果,通しテストの成績がどの程度改善されるかを検証し,行間を読み取る効果を確認する.行間を読み取る必要のある場合は次の2つのタイプに分けられることがわかった.\begin{description}\item{(a)}Positiveな方略による取捨選択で,表れている情報だけだと全選択肢が排除されるが,対象アスペクトの反義語がいずれかの選択肢に挙がっている場合\item{(b)}Negativeな方略による取捨選択で,表れている情報だけだと何も排除されないが,対象アスペクトの反義語がいずれかの選択肢に挙がっている場合\end{description}\ref{sec:grouping}で述べた反義語処理により,あるアスペクトの反義語はnotの有無を反転させることで表現している.(a)の例を次に示す.\begin{quote}選択肢1:「濡れる」\\選択肢2:(記述なし)\\方略:Positive,not濡れる(濡れないのが望ましい)\end{quote}この例の方略ではアスペクト「not濡れる」を持つ選択肢のみが残存し,他は排除される.その結果,全ての選択肢がこの方略によって排除される.しかし,対象アスペクト「not濡れる」の反義語「濡れる」が選択肢1に挙がっており,選択肢2は何も記述しないことで「濡れない」ニュアンスを表そうとしている.したがって,「(記述なし)」の選択肢2に「濡れる」の反義語「not濡れる」を補い,残存させる.(b)の例を次に示す.\begin{quote}選択肢1:「時間通り」\\選択肢2:(記述なし)\\方略:Negative,not時間通り\end{quote}この例の方略ではアスペクト「not時間通り」を持つ選択肢のみが排除され,他は残存する.その結果,この方略によって選択肢は排除されない.しかし,対象アスペクト「not時間通り」の反義語「時間通り」が選択肢1に挙がっており,選択肢2は何も記述しないことで「時間通りでない」ニュアンスを表そうとしている.したがって,「(記述なし)」の選択肢2に「時間通り」の反義語「not時間通り」を補い,排除する.以上の処理を行った通しテストの結果を表\ref{tab:6_8gyoukan}に示す.表\ref{tab:6_8}よりも改善されていることがわかる.\begin{table}[t]\caption{通しテストの結果(行間を読む処理あり)}\begin{center}\begin{tabular}{|cl|r|r|}\hline区分&評価&全データ&テストセット\\\hline○&正しい選択肢のみが残った&42&9\\△&まだ余分な選択肢が残っている&18&2\\▲&全部排除された&41&9\\×&間違った選択肢が残った&7&2\\−&習慣的/方略の記述なし&30&8\\\hline計&&138&30\\\hline\end{tabular}\label{tab:6_8gyoukan}\end{center}\end{table} \section{選択または排除されるきっかけ} \label{sec:kikkake}本稿のようにEBAに則って選択のプロセスを表現することにより,選択肢が選択または排除されるきっかけとなった理由を捉えることができる.したがって,単純な評判情報や意見分析等では得ることが困難だった,他の選択肢と比較した場合の相対的な長所や弱点を知ることができる.排除されるきっかけは「決める」プロセス中で残存→排除に切り替わる時点の対象アスペクトを取り出すことで得られる.ただし,方略がPositiveかNegativeによってnotの反転の有無が異なる.たとえば,次のようになる.\begin{itemize}\item方略「Positive,涼しい」で排除された場合,選択肢が持つアスペクトは「not涼しい」\item方略「Negative,暑い」で排除された場合,選択肢が持つアスペクトは「暑い」\end{itemize}図\ref{fig:6_2}の例で言うと,自転車が排除されたきっかけの理由は,自転車が「濡れる」からである.\begin{table}[bp]\caption{排除・残存のきっかけ}\begin{center}\begin{tabular}[t]{|l||l|l|l|}\hline選択肢&認知結果に多く登場&排除のきっかけ&残存のきっかけ\\\hline自転車&濡れる(45)&濡れる(8)&速い(6)\\&快適(39)&not確実(7)&not高い(5)\\&速い(32)&疲れる(6)&確実(4)\\&&遠い(6)&\\\hline地下鉄&不愉快(90)&not速い(8)&確実(12)\\&確実(46)&疲れる(8)&not高い(7)\\&繁雑(27)&遠い(3)&not濡れる(7)\\&not速い(27)&not快適(3)&\\\hlineバス&not確実(69)&not確実(10)&not高い(5)\\&not速い(56)&not速い(9)&not濡れる(4)\\&not道路がすく(41)&疲れる(8)&安全(3)\\\hlineタクシー&高い(66)&not確実(9)&not疲れる(8)\\&not疲れる(49)&高い(7)&not濡れる(8)\\&not遠い(36)&not速い(3)&速い(8)\\&&not快適(3)&\\\hline\multicolumn{4}{r}{()は度数}\\\end{tabular}\label{tab:kikkake}\end{center}\end{table}同様に,選択肢が残存するきっかけの理由も得ることができる.残存するきっかけとは,他の選択肢で排除されたものがある一方で,当該選択肢は残存した方略の対象アスペクトを表し,相対的な長所を意味する.たとえば,選択肢が1〜4の4つの場合,ある方略で1と2が排除されたら,その方略の対象アスペクトは3と4の残存のきっかけである.ただし,方略がPositiveかNegativeによってnotの反転の有無が異なる.\begin{itemize}\item方略「Positive,涼しい」で残存した場合,選択肢が持つアスペクトは「涼しい」\item方略「Negative,暑い」で残存した場合,選択肢が持つアスペクトは「not暑い」\end{itemize}さらに,各選択肢の長所と短所を表\ref{tab:6_4}の同義語・反義語のグルーピングによって整理した.すなわち,反義語の場合はnotの有無を反転したうえで対応するグループ名に置き換えた.これは,「危険」と「not安全」を同一視して数えるのが適切だからである.表\ref{tab:kikkake}に選択または排除されるきっかけを度数の多い順に3位まで示す.ただし,通しテストの成績が○と△の場合のみを対象とした.排除のきっかけが短所,残存のきっかけが長所に相当する.比較のため,認知結果に多く登場したアスペクト(単純な評判情報に相当)も示した.表から,たとえば,「快適」は自転車の認知結果には多く挙がっているが,排除・残存にはあまり影響していないことがわかる.このように,単純な評判情報からは得ることが困難な情報を捉えることができる. \section{おわりに} \label{sec:owarini}本稿では,選択肢の取捨選択プロセスをEBAに則って表現した.本手法によって「決める」プロセスを記述できるかどうかを確認するとともに,心理状態が完全な形でことばに表れていない場合にどのような処理が必要であるかを分析した.本稿の成果は以下のように要約される.\begin{itemize}\item取捨選択方略に基づき,1回の選択行動の一連の選択プロセスを通しで表現する方法について述べた.\item反義語を適切に扱うため,同義語・反意語のグルーピングを行った.\item通しテストの結果,ヒトの心理状態は必ずしも完全な形ではことばに表れていないことや,ことばに明示的に表れている情報を単純に扱うだけでは不十分であることがわかった.また,その解決方法を考察した.\itemことばに明示的に表れている情報だけでは必ずしも十分ではなく,行間を読み取る処理が必要であり,その方法を示した.\item選択肢の相対的な長所・短所を知るため,選択または排除させるきっかけを捉える方法を示した.\end{itemize}本稿では分析の枠組みを設定し,それに適したデータをアンケートによって収集したため,利用できるデータ量はあまり多くなかった.ブログ等の大量に存在する既存の言語データを有効的に活用する方法を研究し,より多くの言語データを活用できるようにすることが今後の課題である.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bohanec,Urh,\BBA\Rajkovi\v{c}}{Bohanecet~al.}{1992}]{Bohanec}Bohanec,M.,Urh,B.,\BBA\Rajkovi\v{c},V.\BBOP1992\BBCP.\newblock\BBOQEvaluatingOptionsbyCombinedQualitativeandQuantitativeMethods\BBCQ\\newblock{\BemActaPsychologica},{\Bbf80}(1--3),\mbox{\BPGS\67--89}.\bibitem[\protect\BCAY{藤井}{藤井}{2002}]{Fujii2002}藤井聡\BBOP2002\BBCP.\newblock\Jem{交通行動分析の社会心理学的アプローチ,交通行動の分析とモデリング(北村・森川編著),第3章}.\newblock技報堂出版.\bibitem[\protect\BCAY{福田\JBA森地}{福田\JBA森地}{2002}]{Fukuda2002}福田大輔\JBA森地茂\BBOP2002\BBCP.\newblock\JBOQ選択肢の選別過程に関する実証比較分析:交通手段選択行動を対象として\JBCQ\\newblock\Jem{土木計画学研究・論文集},{\Bbf19},\mbox{\BPGS\375--381}.\bibitem[\protect\BCAY{月出\JBA石崎}{月出\JBA石崎}{2000}]{Hitachi2000}月出奈都子\JBA石崎俊\BBOP2000\BBCP.\newblock\JBOQTV番組に対する自由回答文の印象抽出システム—インターネットアンケート調査による自由回答文の解析—\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\mbox{\BPGS\249--251}.\bibitem[\protect\BCAY{乾}{乾}{2004}]{Inui2004}乾裕子\BBOP2004\BBCP.\newblock\Jem{自由記述アンケート回答の意図抽出および自動分類に関する研究—要求意図を中心に—}.\newblock神戸大学博士論文.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2003}]{Kobayashi2003}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2003\BBCP.\newblock\JBOQテキストマイニングによる評価表現の収集\JBCQ\\newblock\Jem{情報処理学会研究報告,NL154-12},\mbox{\BPGS\77--84}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{Kobayashi2005}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出のための評価表現の収集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{Kobayashi,Inui,Matsumoto,Tateishi,\BBA\Fukushima}{Kobayashiet~al.}{2004}]{Kobayashi2004}Kobayashi,N.,Inui,K.,Matsumoto,Y.,Tateishi,K.,\BBA\Fukushima,T.\BBOP2004\BBCP.\newblock\BBOQCollectingEvaluativeExpressionsforOpinionExtraction\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-04)},\mbox{\BPGS\584--589}.\bibitem[\protect\BCAY{熊本\JBA太田}{熊本\JBA太田}{2002}]{Kumamoto2002}熊本忠彦\JBA太田公子\BBOP2002\BBCP.\newblock\JBOQ印象に基づく楽曲検索:検索ニーズに合った印象尺度の設計\JBCQ\\newblock\Jem{情報処理学会研究報告,2001-NL-147},{\Bbf6},\mbox{\BPGS\35--40}.\bibitem[\protect\BCAY{熊本\JBA太田}{熊本\JBA太田}{2004}]{Kumamoto2004}熊本忠彦\JBA太田公子\BBOP2004\BBCP.\newblock\JBOQ印象に基づく楽曲検索システムにおける程度語の理解\JBCQ\\newblock\Jem{人工知能学会全国大会(第18回),}\\verb+http://www-kasm.nii.ac.jp/jsai2004_schedule/paper-161.html+.\bibitem[\protect\BCAY{仲村\JBA内田\JBA日野}{仲村\Jetal}{2002}]{Nakamura2002}仲村彩\JBA内田敬\JBA日野泰雄\BBOP2002\BBCP.\newblock\JBOQ歩行者系道路の施設整備と交通手段・経路選択行動に関する分析\JBCQ\\newblock\Jem{土木計画学研究・講演集Vol.26,}\58.pdf.\bibitem[\protect\BCAY{那須川\JBA金山\JBA坪井\JBA渡辺}{那須川\Jetal}{2005}]{Nasukawa2005}那須川哲哉\JBA金山博\JBA坪井祐太\JBA渡辺日出雄\BBOP2005\BBCP.\newblock\JBOQ好不評文脈を応用した自然言語処理\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集,}\S1\verb+-+4.pdf.\bibitem[\protect\BCAY{大野\JBA浜西}{大野\JBA浜西}{1989}]{Kadokawa}大野晋\JBA浜西正人\BBOP1989\BBCP.\newblock\Jem{角川類語新辞典CD-ROM版}.\newblock角川書店/富士通.\bibitem[\protect\BCAY{Payne}{Payne}{1976}]{Payne1976}Payne,J.~W.\BBOP1976\BBCP.\newblock\BBOQTaskComplexityandContingentProcessinginDecisionMaking:AnInformationSearchandProtocolAnalysis\BBCQ\\newblock{\BemOrganizationalBehaviorandHumanPerformance},{\Bbf16},\mbox{\BPGS\366--387}.\bibitem[\protect\BCAY{Shafir,Simonson,\BBA\Tversky}{Shafiret~al.}{1993}]{Shafir1993}Shafir,E.,Simonson,I.,\BBA\Tversky,A.\BBOP1993\BBCP.\newblock\BBOQReason-basedchoice\BBCQ\\newblock{\BemCognition},{\Bbf49}(1--2),\mbox{\BPGS\11--36}.\bibitem[\protect\BCAY{鷹尾\JBA朝倉}{鷹尾\JBA朝倉}{2004}]{Takao2004_KKKK}鷹尾和享\JBA朝倉康夫\BBOP2004\BBCP.\newblock\JBOQことばによる空間認知と経路選択モデルのためのデータ収集\JBCQ\\newblock\Jem{第24回交通工学研究発表会論文報告集},\mbox{\BPGS\285--288}.\bibitem[\protect\BCAY{鷹尾\JBA朝倉}{鷹尾\JBA朝倉}{2005a}]{Takao2005_RON}鷹尾和享\JBA朝倉康夫\BBOP2005a\BBCP.\newblock\JBOQ自由回答文からの交通経路のアスペクトの取捨選択方略の抽出\JBCQ\\newblock\Jem{土木計画学研究・論文集},{\Bbf22}(1),\mbox{\BPGS\11--18}.\bibitem[\protect\BCAY{鷹尾\JBA朝倉}{鷹尾\JBA朝倉}{2005b}]{Takao2005_NLP}鷹尾和享\JBA朝倉康夫\BBOP2005b\BBCP.\newblock\JBOQ自由記述された交通経路の認知結果の否定判別\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\161--164}.\bibitem[\protect\BCAY{Takao\BBA\Asakura}{Takao\BBA\Asakura}{2004}]{Takao2004_HKSTS}Takao,K.\BBACOMMA\\BBA\Asakura,Y.\BBOP2004\BBCP.\newblock\BBOQCatchingandModelingSpatialCognitionandRouteChoiceBehaviourLinguistically\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceofHongKongSocietyforTransportationStudies(9thHKSTS)},\mbox{\BPGS\108--116}.\bibitem[\protect\BCAY{Takao\BBA\Asakura}{Takao\BBA\Asakura}{2005}]{Takao2005_E}Takao,K.\BBACOMMA\\BBA\Asakura,Y.\BBOP2005\BBCP.\newblock\BBOQExtractionofCognitionResultsofTravelRoutesfromOpen-endedQuestionnaireTexts\BBCQ\\newblock{\BemJournaloftheEasternAsiaSocietyforTransportationStudies},{\Bbf6},\mbox{\BPGS\1943--1955}.\bibitem[\protect\BCAY{立石\JBA石黒\JBA福島}{立石\Jetal}{2001}]{Tateishi2001}立石健二\JBA石黒義英\JBA福島俊一\BBOP2001\BBCP.\newblock\JBOQインターネットからの評判情報検索\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-144-11},\mbox{\BPGS\75--82}.\bibitem[\protect\BCAY{Tversky}{Tversky}{1972}]{Tversky1972}Tversky,A.\BBOP1972\BBCP.\newblock\BBOQEliminationbyAspects:ATheoryofChoice\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf79}(4),\mbox{\BPGS\281--299}.\end{thebibliography}\begin{biography}\bioauthor{鷹尾和享}{1990年京都大学大学院工学研究科修士課程交通土木工学専攻修了.2005年神戸大学大学院自然科学研究科博士課程修了.博士(工学).自然言語処理,交通工学,情報処理の研究および業務に従事.現在,(社)システム科学研究所専門研究員.言語処理学会,土木学会各会員.}\bioauthor{朝倉康夫}{1981年京都大学大学院修士課程土木工学専攻修了.1988年京都大学工学博士.京都大学助手,愛媛大学講師,助教授,教授を経て,現在,神戸大学大学院自然科学研究科教授.交通工学,交通行動分析の研究に従事.土木学会,交通工学研究会,応用地域学会各会員.}\end{biography}\biodate\end{document}
V02N03-01
\section{まえがき} 言語表現には万人に共通する対象のあり方がそのまま表現されているわけでなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断などの対象に立ち向かう話者の心的状況)を通して表現されている(言語が対象−認識−表現からなる過程的構造をもつ)ことは,国語学者・時枝誠記によって提唱された言語過程説\cite{Tokieda1941,Tokieda1950}として知られている.時枝の言語過程説によれば,言語表現は以下のように主体的表現(辞)と客体的表現(詞)に分けられ,文は,辞が詞を重層的に包み込んだ入れ子型構造(図1参照)で表される.\begin{itemize}\item\underline{主体的表現}:話者の主観的な感情・要求・意志・判断などを直接的に表現したものであり,日本語では助詞・助動詞(陳述を表す零記号,すなわち図1に示すように肯定判断を表すが,表現としては省略された助動詞を含む)・感動詞・接続詞・陳述副詞で表される.\item\underline{客体的表現}:話者が対象を概念化して捉えた表現で,日本語では名詞・動詞・形容詞・副詞・連体詞・接辞で表される.主観的な感情・意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.\end{itemize}時枝の言語過程説,およびそれに基づく日本語文法体系(時枝文法)を発展的に継承したのが三浦つとむである.三浦は,時枝が指摘した主体的表現と客体的表現の言語表現上の違いなどを継承しつつ,時枝が言語の意味を主体的意味作用(主体が対象を認識する仕方)として,話者の活動そのものに求めていたのを排し,意味は表現自体がもっている客観的な関係(言語規範によって表現に固定された対象と認識の関係,詳細は2章を参照のこと)であるとした関係意味論\footnote{対象,表現,話者などのような言語上の実体ではなく,それらの関係で意味を定義する考え方は状況意味論\cite{Barwise1983}と共通する点がある.しかし,状況意味論が「言語に関する社会的な約束事である言語規範に媒介された表現の意味」と「表現の置かれた(発話された)場の意味」とを区別せず,むしろ「場の表現」の側から意味を説明しているのに対して,三浦文法は両者を分けている.}\cite{Miura1977,Ikehara1991}を提唱し,それに基づく新しい日本語文法,三浦文法\cite{Miura1967a,Miura1967b,Miura1972,Miura1975,Miura1976}を提案している.三浦文法は,細部についての分析が及んでいない部分も多々ある未完成な文法であるが,従来の自然言語処理の研究では見逃されていた人間の認識機構を組み込んだより高度な自然言語処理系を実現するための新しい視点を与えてくれるものと期待される\cite{Ikehara1987,Ikehara1992,Miyazaki1992a,Miyazaki1992b}.そこで,上記のようなより高度な自然言語処理系を実現するための第一歩として,三浦文法に基づく日本語形態素処理系を実現することを目指し,三浦文法をベースに日本語の品詞の体系化を行い,規則の追加・修正が容易で拡張性に富む形態素処理用文法を構築した.本論文では,まず三浦文法の基本的な考え方について述べ,次にそれに基づき作成した日本語の品詞体系,および品詞分類基準を示すと共に,形態素処理用の新しい文法記述形式を提案する.さらにそれらの有効性を論じる.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=63.5mm}\end{center}\vspace*{-0.2mm}\caption{時枝の入れ子型構造}\label{fig:tokieda}\end{figure}\begin{figure}\vspace*{-0.2mm}\begin{center}\epsfile{file=fig2.eps,width=56.0mm}\end{center}\vspace*{-0.2mm}\caption{言語過程説(三浦)の言語モデル}\label{fig:miura}\end{figure} \section{三浦文法の言語観} 時枝は,「言語が対象−認識−表現からなる過程的構造をもつ」という言語過程説を提唱し,それを基に時枝文法という独自の日本語文法を構築した.時枝文法によれば,言語表現は話者の主観的な感情・要求・意志・判断などを直接的に表現した主体的表現と話者が対象を概念化して表現した客体的表現に分けられ,文は主体的表現が客体的表現を重層的に包み込んだ入れ子型構造で表わされる.時枝は,言語の本質を主体の概念作用にあるとし,言語の意味を主体の把握の仕方,すなわち対象に対する意味作用そのものとした.従って,言語表現に伴う言語規範(言語に関する社会的な約束事)とそれによる媒介の過程が無視され,認識を対象のあり方の反映とみる立場が貫かれなくなってしまい,言語による情報の伝達について,ソシュールのラングのような個人的な能力に基礎づけるところまで後退している.これに対して,三浦は言語の意味を対象/認識/表現の関係として捉えることなど,時枝の言語過程説にいくつかの修正を加え,独自の理論的展開を図った.三浦によれば,音声や文字の種類に結び付き固定された対象と認識の客観的な関係が言語の意味である.語は使われて(表現となって)始めて意味(関係)を生じる.従って,表現が存在すれば意味は存在し,表現(文字,音声)が消滅すれば言語規範に固定されていた対象と認識の関係,すなわち意味も消滅する.対象や認識そのものは意味ではなく,意味を形成する実体である.対象や認識が消滅しても,表現がある限り意味は存在する.意味は話者や聞き手の側にあるのではなく,言語表現そのものに客観的に存在する.三浦の言語過程説における言語モデルを図2に示す.三浦は,時枝の提起した“主体の客体化”(1人称の代名詞は主体そのものではなく,主体が客体化されたものとみなすこと)の問題を,対象の認識の立場から発展させ,主体の観念的自己分裂と視点の移動という観点から主体を捉えた.三浦によれば,一人称の表現は見たところ,自分と話者が同一の人間であるが,これを対象として捉えているということは,対象から独立して対象に立ち向かっている別の人間(主体の観念的自己分裂によって生じた観念的話者“もう一人の自分”)が存在していると考えるのである.三浦は,このような観念的話者による視点の移動を表すものとして,観念的世界が多重化した入れ子構造の世界の中を自己分裂によって生じた観念的話者が移動する入れ子構造モデル(図3参照)を提案している.このモデルによれば,たとえば,過去の否定表現は,(過去の仮想世界/過去の現実世界/現在の現実世界)の三重の入れ子構造で表される.\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=96.5mm}\end{center}\caption{三浦の入れ子構造モデル}\label{fig:miura2}\end{figure} \section{日本語の品詞体系} 日本語は,膠着言語に分類される言語であり,小さな単位要素が次々と付着して表現を形成していくという特徴を持つ.これらの単位要素が結合し,表現構造を形成していく過程には一定の手順がある.言語過程説によれば,日本語の表現は客体的表現と主体的表現が入れ子になった構造として捉えることができる.ここで,表現の元となる対象世界を構成する一つの事象は,実体・属性・関係の3要素から構成される.これらに対する話者の認識を言語規範を介して表現に結び付けるときに最も基本となるのは,概念化された対象(実体・属性・関係)とそれを表現する単語(詞)との対応関係,ならびに概念化された対象に対する話者自身(主体)のあり方と単語(辞)との関係である.前者に対して詞が選択され,後者においてそれに辞が付加される.このようにして概念化された対象および主体と単語との結び付きが形成されると,次にそれらの相互関係が構造化され,認識された構造と表現構造との対応づけが行われる.この過程で単語と単語が統語規則に従って構造化され,文が形成される\cite{Ikehara1990}.三浦文法では他の多くの文法とは異なり,上記のような過程により形成される日本語文において,表現に用いられる単語を文構成上の機能や単語が表す内容で分類するのではなく,対象の種類とその捉え方で分類する.以下,三浦文法に基づく品詞分類の基本的考え方\cite{Miyazaki1992a,Ikehara1990,Shirai1992}について述べ,それに基づき作成した日本語の品詞体系を示す.\subsection{品詞の大分類}単語をまず以下のように客体/主体の観点から\underline{詞}と\underline{辞}に分ける.詞をさらに分類すると,一\\つの事象を表現するうえで必須である語とそうでない語の2種類がある.事象表現に必須である語は,表現の対象が実体か実体の属性かにより体言と用言に分けられる.\underline{体言}は実体・属性・関係からなる対象のうち実体を概念化したものである.実体は物理的実体と観念的実体がある.また,実体は立体的な構造を持ち,種々の側面があるため,どの側面から取り上げるかによって使用される体言も異なってくる.また,実体の構造に対応して体言間も構造的な関係を持つ.\hspace*{0.4mm}対象に立ち向かう主体\hspace*{0.2mm}(話者)も客体化して捉えた時は詞\hspace*{0.2mm}(体言)が用い\\られる.\hspace*{-0.2mm}普通の\hspace*{-0.2mm}\underline{名詞}が実体のあり方を捉えたものであるのに対して,\hspace*{-0.2mm}\underline{代名詞}は実体と主体との特\\殊な関係を表現する.\hspace*{-0.2mm}主体と対象の関係としては,\hspace*{-0.1mm}1.話者と話者の関係,\hspace*{-0.1mm}2.話者と聞き手の関係,3.話者と話題となる事物・場所方角・人間などとの関係の3種の関係がある.実体と実体,属性と属性,実体と属性の間には種々の関係が存在する.関係自体は,感覚的存在ではないので関係自体を概念的に対象化して名詞として用い,種々の関係は「\underline{上下}(の)関係」や「\underline{親子}のつなが\\り」などのように表現することが多い.実体の属性を概念化する\hspace*{-0.2mm}\underline{用言}\hspace*{-0.1mm}は,動的属性を表す\hspace*{-0.2mm}\underline{動詞}\hspace*{-0.1mm}と静的属性を表す\hspace*{-0.2mm}\underline{形容詞}\hspace*{-0.1mm}に分けられる.\\属性も,これを固定的に実体化して捉えた場合は,「大きさ」や「動き」などのように名詞化する.事象表現に必須でない語は,属性に属性を付加する\hspace*{-0.2mm}\underline{副詞}\hspace*{-0.1mm}と実体に属性を付加する\hspace*{-0.2mm}\underline{連体詞}\hspace*{-0.1mm}に分\\類される.なお,「\underline{もっと}右」の例のような名詞を修飾する語については,名詞の中の属性把握の部分を取り上げ,それに属性を付加しているとみなすことができるため副詞とする.話者の感情・意志・判断など対象に対する立場や対象から引き起こされる話者自身に関する認識を表す辞としては助詞や助動詞が用いられる.\underline{助詞}は対象(実体)に立ち向かう話者の立場を直接表現する.「花咲く」と言えば「花」と「咲く」との間の客観的な関係を捉えたものと見ることができるが,この関係は変わらないものの,「花\hspace*{-0.2mm}\underline{が}\hspace*{-0.1mm}咲く」「花\hspace*{-0.2mm}\underline{は}\hspace*{-0.1mm}咲く」「花\hspace*{-0.2mm}\underline{も}\hspace*{-0.1mm}咲く」と言えば,「花」に対する話者の立場が変化してくる.このように,助詞が実体に対する話者の捉え方,すなわち,対象(もの)と主体との関係に関する主体自身の認識を表すのに対して,\underline{助動詞}は対象(こと)との関係において話者自身の立場を表現するものと見ることができる.人間の認識は現実の世界だけを相手にするだけでなく,想像によって過去の世界や未来の世界,空想の世界などさまざまな世界に行き来する.このような話者の見る対象世界に対する話者の感情・意志・判断などを直接表現したものが助動詞である.他に,話者の感情や意志などを直接表現する\underline{感動詞},話者による事象間の関係認識を表現する\underline{接続詞},および話者の主観を強調する\underline{陳述副詞}が辞に分類される.以上の11品詞の他に,他の語(接辞承接語)に付加して別の意味や品詞性を付与する詞である\hspace*{-0.1mm}\underline{接辞}\hspace*{-0.1mm},文中に出現する句読点や繰返し記号などの\hspace*{-0.1mm}\underline{記号類}\hspace*{-0.1mm}の二つを加えて,図4に示すように合計13の品詞に大分類した.\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=95.5mm}\end{center}\caption{三浦文法による日本語の品詞体系(大分類)}\label{fig:hinshi}\end{figure}\subsection{品詞分類の細分化}単語間の文法的接続関係の検定を精密に行い,形態素処理の精度を向上させるため,品詞の大分類を細分化して品詞を約400通りに分類した.細分化のポイントを以下に示す.\\(1)名詞実体を同種の他の実体と共通の側面,すなわちその一般性の側面で捉えた認識を表す\underline{普通名詞},実体をその固有性の側面で捉えた認識を表す\underline{固有名詞}(\underline{\underline{地名}},\underline{\underline{人名}},\underline{\underline{組織名}},\underline{\underline{その他の固有名詞}}),動的属性を固定的に実体化して捉えた認識を表す\underline{動作性名詞}(\underline{\underline{サ変動詞型名詞}},\underline{\underline{連用形名詞}},\underline{\underline{その他の動作性転生名詞}}),静的属性を固定的に実体化して捉えた認識を表す\underline{状態性名詞}(\underline{\underline{静詞}}<形容動詞語幹に対応・ダ型とタルト型がある>,\underline{\underline{状態性転生名詞}}<形容詞転生名詞\(<<\)例\hspace*{-0.15mm}:\hspace*{-0.2mm}寒さ,厚み\(>>\)・静詞転生名詞\(<<\)例\hspace*{-0.1mm}:\hspace*{-0.2mm}親切さ\(>>\)>,\hspace*{-0.2mm}\underline{\underline{連体詞型名詞}}\hspace*{-0.1mm}<例\hspace*{-0.15mm}:\hspace*{-0.3mm}大型,急性>),対象を具\\体的に取り上げることができなかったり,取り上げる必要がない場合などに,対象を最も抽象化して捉えた認識を表す\hspace*{-0.2mm}\underline{形式名詞}\hspace*{-0.2mm}(例\hspace*{-0.2mm}:\hspace*{-0.2mm}もの,こと,ため,ところ,とき,まま,際,場合|の・ん<準体助詞に対応>|よう<比況の助動詞「よう(だ)」に対応>|そう<伝聞の助動詞「そう(だ)」に対応>|みたい,ふう)に細分化した.その他に特殊なものとして,具体的な数や数量\\など\hspace*{-0.2mm}(例\hspace*{-0.2mm}:\hspace*{-0.2mm}1,2,・\hspace{-.5em}・\hspace{-.5em}・,2本)\hspace*{-0.2mm}単位性の認識を表す\underline{数詞},属性に属性を付加する副詞としても用い\\られる\underline{副詞型名詞}(\underline{\underline{時詞}}<例:今日,従来>,\underline{\underline{その他の副詞型名詞}}<例:全て,みんな,多数,一部>)を設定した.なお,静詞については格助詞(に・の・を)や肯定判断の助動詞「だ」の連体形「な」が後接するか否かを区別できるようにさらに細分化した.\\(2)代名詞\\~~\underline{人称代名詞}(例:私,彼),\underline{指示代名詞}(例:これ,あれ),\underline{疑問代名詞}(例:だれ,どれ)の区分を導入した.\\(3)動詞\underline{本動詞}/\hspace*{-0.2mm}\underline{形式動詞}\hspace*{-0.2mm}の区別(3.4の(9)参照),活用型(\hspace*{-0.2mm}\underline{\underline{五段}}/\hspace*{-0.2mm}\underline{\underline{一段}}/\hspace*{-0.2mm}\underline{\underline{サ変}}/\hspace*{-0.2mm}\underline{\underline{カ変}})の区別,\\五段動詞に対する活用行の導入により細分化した.またサ変動詞は,単独で用いる「する」「〜する(例:開発する,対する)」「〜ずる(例:論ずる)」を区別できるようにした.さらに,五段/一段動詞のうち,例外的活用をするもの(例:行く→行った,有る→有らない×,なさる→なさいます・なさい,問う→問うた,くれる→くれ)は,別品詞として区別できるようにした.\\(4)形容詞\\~~ウ音便の形態(例:にくい→にく\underline{う},あさい→あそ\underline{う},美しい→美し\underline{ゅう})により細分化した.\\(5)副詞属性をさらに具体的な面から捉えて別な語と結び付け叙述を立体化する\underline{情態副詞}(例:がたがた,ピカピカ),属性をさらに抽象的な面から捉えて別な語と結び付け叙述の程度を表す\underline{程度副詞}(例:ずっと,かなり)に細分化した.さらに,格助詞(に・と・の)や肯定判断の助動詞(だ・です)が後接するか否かを区別できるように細分化した.\\(6)連体詞\\~~指示代名詞が連体詞化した\underline{指示連体詞}(例:この,その),疑問代名詞が連体詞化した\underline{疑問連体詞}(例:どの,どんな),形容詞が連体詞化した\underline{形容詞的連体詞}(例:大きな),それ以外で外延の制約を表す\underline{限定連体詞}(例:ある,あらゆる)に細分化した.\\(7)接辞接辞承接語との接続形態により\underline{接頭辞}/\underline{接尾辞}/\underline{接中辞}(例:〜対〜)に中分類した.接頭辞については,接辞承接語の品詞により\underline{\underline{名詞接続型}}/\underline{\underline{動詞接続型}}(例:ぶち)/\\\underline{\underline{形容詞接続型接頭辞}}(例:もの|こ,ま|お)に小分類した.接尾辞については,接辞承接語+接尾辞で構成される複合語の品詞により\underline{\underline{名詞型}}/\underline{\underline{動詞型}}(例:れる,られる,せる,させる|がる,ぶる,めく,づく,つく,じみる,過ぎる|込む,始める,終わる,続ける,きる)/\underline{\underline{形容詞型接尾辞}}(例:たい|らしい,がましい,(っ)ぽい|やすい,よい,にくい,づらい,がたい)に小分類した.さらに,\cite{Nomura1978}を参考に接辞のより細かな文法的・意味的属性により以下のように細分化した.\\[細分化された名詞接続型接頭辞とその例]\\<普通名詞型>県,女,核\\<固有名詞型>東,新,奥\\<動詞型>超,反\\<形容詞型>大,新\\<連体詞型>各,全,同\\<副詞型>再,最,既\\<否定型>無,不,非,未\\<前置助数詞型>約,第\\<敬意添加型>御,ご\\[細分化された名詞型接尾辞とその例]\\<普通名詞型>者,人,たち\\<固有名詞型>市,さん,屋,号\\<動作性名詞型>\\\hspace*{3.5mm}\(<<\)サ変動詞型名詞型\(>>\)化,視|\\\hspace*{3.5mm}\(<<\)連用形名詞型\(>>\)行き,沿い|\\\hspace*{3.5mm}\(<<\)その他\(>>\)発,製\\<状態性名詞型>\\\hspace*{3.5mm}\(<<\)ダ型静詞型\(>>\)そう,げ,的|\\\hspace*{3.5mm}\(<<\)タルト型静詞型\(>>\)然|\\\hspace*{3.5mm}\(<<\)状態性転生名詞型\(>>\)さ,み,け|\\\hspace*{3.5mm}\(<<\)連体詞型名詞型\(>>\)性,用,風,型,式\\<後置助数詞型>個,番,%,\\<助数詞承接型>強,台,目\\<副詞型名詞型>\\\hspace*{3.5mm}\(<<\)時詞型\(>>\)前,後,間,内,中,時,がてら|\\\hspace*{3.5mm}\(<<\)その他\(>>\)上\\<代名詞型>たち,ら,自身\\なお,各型の接尾辞は細分化された名詞・動詞・形容詞の品詞体系と対応付けられている(例:普通名詞型接尾辞「者」は普通名詞に対応する).\\(8)接続詞\\~~接続対象により\underline{文接続詞}(例:しかし,ただし)/\underline{句接続詞}(例:または,および)の区別を導入した.\\(9)感動詞\\~~話者の呼びかけや感情を表す\underline{感嘆詞}(例:さあ,おや,まあ),相手の言葉に対する聞き手の応答を表す\underline{応答詞}(例:はい,ええ,いいえ)に細分化した.\\(10)助動詞\\~~話者の\hspace*{-0.2mm}\underline{肯定判断}\hspace*{-0.2mm}(だ,ある,です,ます,φ<零判断辞>)/\hspace*{-0.2mm}\underline{否定判断}\hspace*{-0.2mm}(ない,ぬ,まい)/\hspace*{-0.2mm}\underline{既定判断}\\[回想・確認](た<たり,て>,だ<だり,で>)/\underline{未定判断}[推量・意志](う,よう,らしい,べし)を表す助動詞に細分化した.\\(11)助詞実体のあり方の認識を表す\hspace*{-0.2mm}\underline{格助詞}(が,を,に,へ,と,から,より,まで,で,をば,って,して\\|の),認識に対する陳述の要求を表す\hspace*{-0.2mm}\underline{係助詞}(は,こそ,も,さえ,すら,でも,とて,しか,しも,\\ぞ,して),実体や認識に対する観念的前提の付加を表す\underline{副助詞}(は|など,なんか,なんて|まで,のみ,(っ)きり,くらい,ぐらい,だけ,ばかり,ほど,とも,ずつ|や,やら,か,なり,なりと),認識内容の確認を表す\underline{間投助詞}(ね(ぇ),さ(ぁ),よ(ぉ),な(ぁ),の(ぉ)|ってば,ったら,って|や,よ|だ,です,と)の他,事象間の関係づけを行う\underline{接続助詞}と話者の感情を伝達する\underline{終助詞}に中分類した.さらに,接続助詞は接続の型\cite{Ikehara1990,Minami1974,Minami1993},終助詞は伝達の方向\cite{Ikehara1990,Shirai1992,Saeki1983}により,それぞれ,以下に示すように3通りに細分化した.\\[接続助詞の細分化]\\<同時型>つつ,ながら\\<条件型>ば,と,に,ながら\\<展開型>が,から,けれど(も),けど(も),し\\[終助詞の細分化]\\<話者方向>\\\hspace*{3.5mm}\(<<\)強意\(>>\)ぜ,ぞ,わ,ね(ぇ),さ,よ,な,とも,ってば,ったら,って,っと,い,や|\\\hspace*{3.5mm}\(<<\)驚き\(>>\)わ\\<相手方向>\\\hspace*{3.5mm}\(<<\)疑問\(>>\)か,かしら,や,っけ|\\\hspace*{3.5mm}\(<<\)命令・勧誘\(>>\)な,ねぇ,い,たら,だら|\\\hspace*{3.5mm}\(<<\)禁止\(>>\)な|\\\hspace*{3.5mm}\(<<\)伝聞\(>>\)と,って|\\\hspace*{3.5mm}\(<<\)確認\(>>\)ね(ぇ),さ,よ|\\\hspace*{3.5mm}\(<<\)婉曲\(>>\)が,けれど(も),けど(も)\\<不定方向>\\\hspace*{3.5mm}\(<<\)詠嘆\(>>\)なぁ,わぁ,のぉ,に|\\\hspace*{3.5mm}\(<<\)不確定\(>>\)やら\\(12)記号類\\~~日本語文中に現れる記号類を,その機能に着目して以下のように細分化した.\\\underline{句点相当記号}(例:~。~?~!~.)\\\underline{読点相当記号}(例:~、~,)\\\underline{中点相当記号}(例:~・<空白>)\\\underline{引用符}(例:~「」『』‘’“”)\\\underline{括弧類}(例:~〈〉《》【】[]{}())\\\underline{補足記号類}(例:~…〓−)\\\underline{文頭記号}(例:◎○◇▽●☆)\\\underline{数式関連記号}(例:~,~.~〜—‐+−±×÷=≠<>≦≧*/)\\\underline{繰返し記号}(例:~ゝ~ゞ~ヽ~ヾ~々)\\\underline{その他の特殊記号}(例:~;~:~@~#)\subsection{活用形の扱い}動詞,形容詞,動詞型接尾辞,形容詞型接尾辞のような活用語の活用形は,従来の学校文法における6活用形を基本とし,以下の変更を加えた.\\(1)未然形を以下の2通りに細分化した.\\\hspace*{3mm}・未然形1:推量形[〜う,〜よう]\\\hspace*{3mm}・未然形2:否定形[〜ぬ,〜ない]\\(2)連用形を以下の3通りに細分化した.\\\hspace*{3mm}・連用形1:連用中止形[〜,〜ます]・連用修飾形\\\hspace*{3mm}・連用形2:音便形[〜た,〜だ」\\\hspace*{3mm}・連用形3:形容詞ウ音便形[〜ございます]\\(3)形容詞のカリ活用語尾は,以下のように扱う.\\\hspace*{3mm}・かろ(未然形1)→く(形容詞語尾・連用形1)\\\hspace*{3mm}+あろ(助動詞「ある」の未然形1)\\\hspace*{3mm}・かっ(連用形2)→く(形容詞語尾・連用形1)\\\hspace*{3mm}+あっ(助動詞「ある」の連用形2)\\(4)タルト型形容動詞活用語尾は,以下のように扱う.\\\hspace*{3mm}・と(連用形1)→と(格助詞)\\\hspace*{3mm}・たる(連体形)→と(格助詞)\\\hspace*{3mm}+ある(形式動詞「ある」の連体形)\subsection{学校文法との主な相違点}3.2〜3.3で示した品詞体系と学校文法との主要な相違点は,以下の通りである.\\(1)形容動詞を独立した品詞とはせず,名詞(静詞)+助動詞(肯定判断)「だ」/名詞(静詞)+格助詞「に」とした.\\(2)受身・使役の助動詞(れる,られる,せる,させる)は動的属性を付与する詞とし,動詞型接尾辞とした.\\(3)希望の助動詞(たい)は静的属性を付与する詞とし,形容詞型接尾辞とした.\\(4)伝聞の助動詞(そうだ),比況の助動詞(ようだ),様相の助動詞(そうだ)は助動詞とせず,それぞれ,形式名詞(そう,よう)/静詞型接尾辞(そう)+肯定判断の助動詞(だ)とした.\\(5)準体助詞(の),終助詞(の)は形式名詞とした.\\(6)接続助詞(ので,のに),終助詞(のだ)はそれぞれ,形式名詞(の)+[格助詞(で)/肯定判断の助動詞(だ)の連用形1(で)]/格助詞(に)/肯定判断の助動詞(だ)とした.\\(7)接続助詞(て,で,たり,だり)は既定判断の助動詞(た,だ)の連用形1とした.\\(8)補助動詞(ある),補助形容詞(ない)はそれぞれ,肯定判断の助動詞,否定判断の助動詞とした.例:本で\underline{ある}/\underline{ない},\\\hspace*{12mm}静かで\underline{ある}/\underline{ない},\\\hspace*{12mm}重く\underline{ない}\\\hspace*{12mm}書いて\underline{ある}/\underline{ない}\\(9)既定判断の助動詞の連用形1(て,で)に後接する動詞(いる,みる,くれる,あげる,くる,もらう,やる,しまう,おく,いく,下さる,いただく,…),形容詞連用形1/[静詞+格助詞(に)]に後接する動詞(する,なる),およびサ変動詞型名詞/連用形名詞に後接する動詞(する,できる,下さる,なさる,致す,申す,申し上げる,いただく,願う,たまう,…)は,形式動詞とする.例:走って\underline{いる},美しく\underline{なる},\\\hspace*{12mm}静かに\underline{なる},開発\underline{する} \section{形態素処理用の文法記述形式} 形態素処理における隣接単語間の文法的な接続検定には,通常各単語の辞書情報に前接コードと後接コードを持たせ,\hspace*{0.4mm}その二つの情報から前接コードと後接コード間の接続の可否を示す\\マトリックス形式の接続テーブルを用いることが多い.しかし,規則が簡潔に分かりやすく記述されておらず,例外的な接続をする単語に対しては,従来の規則との整合性を保ちながら,新しい前接・後接コードを付与したり,辞書情報を変更しなければならず,規則の追加・修正が容易でなく,規則のメンテナンス性が悪い.また,「良\hspace*{-0.2mm}\underline{さ}\hspace*{-0.1mm}そうだ」(形容詞に「そうだ」が接続する場合,通常形容詞語幹に直接「そうだ」が接続する<例:\hspace*{-0.2mm}楽しそうだ>が,「良い・無い」は接尾\\辞「さ」を介して接続する)のように,2項関係だけでなく,3項関係もチェックしなければならないような例外的な接続に対応できない.そこで,このような問題を解決するものとして,以下に述べるような形態素処理用の文法記述形式(接続ルール)を提案する.この接続ルールは基本的には,ある品詞\(P_{0}\)の直後(接尾辞などで直前の語の品詞などが問題となる場合には直前)に文法的に接続可能な全ての品詞\(q_{1},q_{2},---q_{m}\)をリスト形式で記述し,そのリストと\(p_{0}\)を対にして,\(\underline{((p_{0})((q_{1})(q_{2})---(q_{m})))}\)の形で定義したもの(ルール文)の集合であり,必要に応じて3項以上の関係にも簡単に拡張できる.文法記述においては,規則の追加・修正が容易であること,例外的な規則を記述しやすいこと,規則を簡潔に分かりやすく記述できることなどを考慮し,以下のような点を工夫した.\\(1)接続ルールの記述量の削減\begin{itemize}\item\(\underline{((s_{0}):((r_{1})(r_{2})---(r_{n})))}\)の形[\(s_{0}\):定義文番号(=定義文識別子\underline{F}と通番),\(r_{j}\):品詞]の定義文を導入し,ルール文の\((q_{i})\)の位置に\((s_{0})\)がある場合,\((s_{0})\)を\((r_{1})(r_{2})---(r_{n})\)で置換可であることを表す.\item\(\underline{((p_{i})=(q_{j}))}\)の形[\(p_{i},p_{j}\):品詞]の同格文を導入し,\(p_{i}\)は\(q_{j}\)と同じ接続をすることを表す.\item文頭,文末,句境界[句は詞(接頭辞以外の接辞・形式名詞・形式動詞は除く),接続詞,感動詞,陳述副詞で始まる.用言・体言が後接するか否かにより4種の句境界に分類]には,文頭,文末,句境界であることを表す架空単語が存在するものとし,それらに特別の品詞を設定した.それらは,ルール文,定義文などにおける規則の記述において,通常の品詞と同様に扱う.日本語では,単語間の文法的接続条件は,句内に比べて句境界では厳しくなく,句境界をまたがって接続可能な多くの品詞対がある.このような句境界をまたがって接続する品詞を句境界架空単語を介して接続するとみなすことにより,接続ルールの記述量を大幅に削減できるだけでなく,これを句境界の検出情報としても利用できる.\item4桁の16進数で表示される品詞コード(上位3桁は品詞<1桁目は品詞の大分類を表す>,下位1桁は活用形を表す)の2〜4桁目には,ワイルドカード文字(X,Y,Z<0〜fの任意の値>/x,y,z:<1〜fの任意の値>)が使え,これによりいくつかの品詞コードをまとめて記述できる.また,X,Y,Z,x,y,zのとる値を1xyz/\underline{y=1,3,4の}ように指定できる.\end{itemize}(2)例外的な規則の記述\begin{itemize}\item品詞では表現できず,各単語に依存するような例外的規則をも前接・後接コードなどを用いずに記述するため,品詞\(q_{i}\)と共に単語の字面(表記のゆれがある場合にはそれらの代表形である標準表記)を接続ルールに記述できるようにした.例:(\(q_{i}\)\underline{"同じ"})\item形容詞のウ音便において形容詞の語幹の末尾が変化する場合(例:あ\hspace*{-0.2mm}\underline{さ}\hspace*{-0.2mm}い→あ\hspace*{-0.2mm}\underline{そ}\hspace*{-0.2mm}う),単\hspace*{0.05mm}語\hspace*{0.05mm}辞\hspace*{0.05mm}書\hspace*{0.05mm}中\hspace*{0.05mm}の\hspace*{0.05mm}各\hspace*{0.05mm}単\hspace*{0.05mm}語\hspace*{0.05mm}の\hspace*{0.05mm}素\hspace*{0.05mm}性\hspace*{0.05mm}情\hspace*{0.05mm}報\hspace*{0.05mm}を\hspace*{0.05mm}用\hspace*{0.05mm}い\hspace*{0.05mm}た\hspace*{0.05mm}素\hspace*{0.05mm}性\hspace*{0.05mm}チ\hspace*{0.05mm}ェ\hspace*{0.05mm}ッ\hspace*{0.05mm}ク\hspace*{0.05mm}に\hspace*{0.05mm}よ\hspace*{0.05mm}り\hspace*{0.05mm}接続判定を行う必要がある場\\合(例:ある形容詞語幹に接尾辞<\hspace{-0.2mm}さ,\hspace{-0.2mm}み,\hspace{-0.2mm}・\hspace{-.5em}・\hspace{-.5em}・\hspace{-0.1mm}>\hspace{-0.1mm}が\hspace*{-0.05mm}接\hspace*{-0.05mm}続\hspace*{-0.05mm}す\hspace*{-0.05mm}る\hspace*{-0.05mm}か\hspace*{-0.05mm}否\hspace*{-0.05mm}か\hspace*{-0.05mm})\hspace*{-0.05mm}など例外的処理を行\\うため,接続ルールからある種の手続きの起動を指示するような情報(手続き識別子\underline{\$}と手続き名)を品詞\(q_{i}\)と共に接続ルール中に記述できるようにした.例:(\(q_{i}\)/\underline{\$uonbin})\item規則の適用性や優先度を示す接続確率(確率識別子\underline{*}と確率値<0〜1>,本情報を省略した場合は1とみなす)を導入し,例外的な接続をする場合にその規則の適用性が変化したり,通常,あまり適用されない規則であることなどを記述できるようにした.例:\(((p_{0})((q_{1})(q_{2})--(q_{i}~\underline{*0.5})--(q_{m})))\)・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・(a)\\~~~~~\(((p_{0})((q_{1})(q_{2})---(q_{m}))~\underline{*0.1})\)・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・(b)\\~~~~~~~(a):品詞\(p_{0}\)と品詞\(q_{i}\)の接続確率=0.5\\~~~~~~~(b):品詞\(p_{0}\)と品詞\(q_{i}\)(i=1〜m)の接続確率=0.1\end{itemize}(3)接続ルールの拡張性\begin{itemize}\item品詞\hspace*{-0.1mm}\(p_{0}\)\hspace*{-0.1mm}に関する一般ルール\hspace*{-0.1mm}\(((p_{0})((q_{1})(q_{2})---(q_{m})))\)\hspace*{-0.1mm}の他に,品詞\hspace*{-0.1mm}\(p_{0}\)\hspace*{-0.1mm}の例外ルール(単\\語の字面が指定されたもの,3項以上の関係を記述したものなど)がある場合,例外ルールを一般ルールの前に置いて一般ルールより高い優先順位を与え,形態素処理における接続検定において,一般ルールより先に例外ルールを先に適用し,例外ルールの適用失敗時に初めて一般ルールを適用することとした.これにより,既存の一般ルールを修正することなく例外ルールを追加することができる.また,一般ルール自身の修正も,\((q_{i})\)の変更・例外化(単語の字面指定化など),新しい\((q_{i})\)の追加などにより,他のルール文に影響を与えることなく局所的修正で済ませることができる.以上により,接続ルールの拡張が容易となった.\item接続ルールには,前接/後接コードを用いないため,これらのコードの付与,単語辞書への収録が不要となり,規則の追加,修正が容易になった.\end{itemize}ここで,接続ルールは人間にとって見やすく,メンテしやすく作られているが,これをそのまま形態素処理における単語接続検定に用いると,処理効率が低下する.そこで,接続ルールをこれと等価で単語接続検定が高速に行える形式の接続表{\((\underline{p_{i}},\underline{q_{j}}\),(\underline{\underline{\(p_{i}\)の字面}})(\underline{\underline{\(q_{j}\)の字面}}),(接続確率),(\(p_{i},q_{j}\)の手続き名))}\hspace*{-0.2mm}<\(p_{i},q_{j}\)はそれぞれ前接品詞・後接品詞で,ワイルドカード文字や句境\\界架空単語の品詞を用いず,\hspace*{-0.1mm}定義文・同格文による品詞の置換済みである,()は省略可,\hspace*{-0.1mm}\underline{}\hspace*{-0.1mm}や\hspace*{-0.1mm}\underline{\underline{}}\hspace*{-0.1mm}\\の部分をそれぞれ主キー,副キーとして接続表を検索できるようになっている.3項以上の関係は別形式で記述>に変換することとし,接続ルールから接続表を自動生成するツール(接続表ジェネレータ)を作成し,形態素処理系において,接続表を用いて単語接続検定を高速に行えるようにした. \section{本品詞体系の効用} 本品詞体系は,三浦文法をベースに作成されており,構文構造として,従来の句構造や係り受け構造とは異なった三浦の入れ子構造を想定している.従って,三浦の入れ子構造と親和性が良く,以下のような日本語処理系の実現が期待できる.\\(1)多目的利用型の日本語形態素処理用文法きめ細かい品詞分類に基づく形態素処理用の日本語文法により,単語間の文法的接続チェックを厳密に行えるので,本日本語文法を正しい文の解析だけでなく,正しい文の生成や入力文の誤り検出など多目的に利用可能となる.3で提案した約400通り(大分類=13)の品詞体系に基づき,実際に網羅的な日本語形態素処理用文法を作成した.種々の日本語表現を含む日英機械翻訳用機能試験文(3300文)\cite{Ikehara1990}を用いて形態素解析システム\cite{Takahashi1993}上で形態素解析実験を行った.本実験においては,例外的な規則をも含む文法の記述のしやすさ,規則の追加・修正など文法の拡張のしやすさなどを,文法規則や辞書の修正,文法規則や辞書への単語の追加を行いながら確認した.その結果,例外的な規則も含めて文法を簡潔に記述できるため,文法規則がコンパクトとなるだけでなく(ルール数=374),規則の追加・修正が容易で拡張性の点で優れていることなど,本品詞体系および形態素処理用の文法記述形式の有効性を確認できた.また,本実験に用いた3300の機能試験文には日本語の種々の表現を網羅しているため,本実験によりかなり精度の良い文法を実現できたと考えている.\\(2)意味と整合性のよい構文解析\begin{figure}\begin{center}\epsfile{file=fig5.eps,width=104.0mm}\end{center}\caption{構文解析結果と意味との整合性}\label{fig:syntax}\end{figure}現在,主流となっている文節構文論(学校文法)に基づく日本語パーザでは構文解析結果が一般に意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている\cite{Mizutani1993}.本文法は時枝文法を発展的に継承した三浦文法を採用しているので,意味と整合性の良い構文解析を行うことができる.例えば,「山を下り,村に着いた」は,学校文法風に解析すれば,図5(a)のような意味的におかしい解析結果を得るが,三浦文法風に解析すれば,図5(b)のように意味的に正しい解析ができる(助動詞「た」のスコープは,(b)の場合動詞「下る」と「着く」を含む文全体となるが,(a)の場合動詞「着く」のみとなる).また,「太郎は今日山を下り,村に着いた」は,学校文法風の係り受け解析では,図5(c)のように「太郎は」「今日」の係り先は「下り」か「着いた」のどちらか一方となるが(通常,係り受け解析では係り受けの曖昧さの爆発的増大を抑止するため,係り受けの非交差条件と係り先は1つであるという制約をもうけている),三浦文法風に解析すれば,図5(d)のように「太郎は」「今日」が共に「下り」「着い」の両方に係っているという意味的にも正しい解析結果を入れ子構造により自然に表現することができる.\\(3)微妙なニュアンスの違いを解析できる構文・意味解析助詞の使い分けによって生じる微妙なニュアンスの違いは,格助詞を単に用言に対する実体の関係(格関係)として捉えている限り解析できない.三浦の助詞論\cite{Miura1967a,Miura1967b,Miura1972,Miura1975,Miura1976}によれば,格助詞「が」は実体の個別性,係助詞「は」は実体の普遍性,副助詞「は」は実体の特殊性を表す.例えば,「鳥が飛ぶ」は発話者の目前にいるインスタンス(個体)としての「鳥」を取り上げているのに対して,「鳥は飛ぶ」はクラス(種)としての「鳥」を取り上げているし,「太郎は学生です」と「太郎が学生です」は微妙なニュアンスの違いがある\cite{Miyazaki1993}.次に,連続した辞が付加されている述語の構造を考える.「読みませんでした」と「読まなかったです」を例にとり両者の構造を比較する.ただし,「読む」はその否定形「読まない」と比べ肯定と見ることができるので,このような肯定をφ判断辞で表現し,また「なかっ」は「ない+ある」と分けて考える.この上で,三浦が指摘した観念的世界の多重化に基づいて述語構造を考察すると図6のようになる.すなわち,「読む」の後に,肯定・否定・肯定・既定・肯定の順に話者の判断が重畳されている点ではまったく同じ構造となっている.ただし,陽に表現された語とφ判断辞の違いから,丁寧さと断定の度合いに微妙な差が生じていると考えられる.\begin{figure}\begin{center}\epsfile{file=fig6.eps,width=100.0mm}\end{center}\caption{連続した辞が付加された述語の入れ子構造}\label{fig:jutsugo}\end{figure}このように,三浦文法の品詞体系やそれに基づく入れ子構造により,助詞の使い分けや連続した辞によって表現される微妙なニュアンスの違いを解析できるようになる.\\(4)二つの品詞性のある語を自然に扱える構文解析一語が二つの品詞性を持つ場合(一語が体と用を兼ねて使われる場合等)の例として「本を読みはしない」をとりあげる.話者は「本を読む」という事象を取り上げ,「は」で特殊性という主体判断を下した後,その動作に対して否定の判断を下している.ここで,事象の特殊性を表すために,取り上げた事象全体の捉え直しも行われ,実体化(体言化)が行われている.すなわち,この表現は図7(a)のような入れ子構造と見ることができる.「読む」は二重線の内側の世界では動詞として働いているが,その外の世界の構成要素で体言の一部分を構成していると考えられる.\begin{figure}\begin{center}\epsfile{file=fig7.eps,width=114.5mm}\end{center}\caption{二つの品詞性のある語を含む文の入れ子構造}\label{fig:futatsu}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig8.eps,width=94.0mm}\end{center}\caption{入れ子破りが起こる文の入れ子構造}\label{fig:yaburi}\end{figure}このように,実際の表現の場面では,ある品詞属性を持つ単語が組み合わさって文要素が構成されるという単純な図式では説明できないと思われるものを図7(a)〜(b)のように入れ子構造により自然に扱うことができる.\\(5)入れ子破りの表現を解析できる構文解析係り受けが交差し入れ子破りが生じる場合,句構造解析では構文木が生成されない.一方,係り受け解析では,係り受け構造が得られるが,係り受けの曖昧さが爆発的に増大してしまう.三浦の入れ子構造では,「本を決して読まない」「うなぎを浜松に食べに電車で行った」など入れ子破りが生じる場合,主体表現である陳述副詞「決して」と否定の助動詞「ない」との呼応,および格要素「浜松に」が直近の動詞「食べる」に係らず,後方の動詞「行く」に係るという点に着目して,図8(a)〜(b)のように入れ子構造化できる.\\(6)意味の単位としてのフレーズが切り出し可能統語構造と意味は一体化したものであり,これを独立に扱おうとすれば,構造のもつ意味が欠落する.各部分はそれを含む上位の構造の中に位置づけられて始めて意味を持つ.従って,部分を全体の中で位置づけて解析を進めることが必要である.三浦の入れ子構造モデルでは,内側の入れ子はそれを包含するより大きな入れ子の部分となっており,上位の構造の中に自然に位置づけられている.そこで,このような入れ子を意味のまとまった単位(フレーズや慣用表現)に翻訳しようとするフレーズ翻訳方式や多段翻訳方式\cite{Ikehara1987,Ikehara1992}などにおける意味の単位とすることができると考える. \section{むすび} 時枝文法を発展的に継承した日本語文法である三浦文法に基づき,単語を対象の捉え方で分類することにより,日本語の品詞の体系化を行い,品詞を約400通り(大分類数:13)に分類した品詞体系を作成すると共に,規則の追加・修正が容易で拡張性に富む形態素処理用の文法記述形式を提案し,それらの有効性を論じた.本論文で提案した品詞体系に基づき,実際に網羅的な日本語形態素処理用文法(ルール数=374)を作成し,種々の日本語表現を網羅した日英機械翻訳用機能試験文(3300文)を用いた形態素解析実験により,本文法の改良を進めると共に,本品詞体系および形態素処理用の文法記述形式の有効性を確認した.今後,本文法を組込んだ形態素解析システムの定量的評価を進めると共に,構文解析用文法規則を作成する予定である.\vspace*{10mm}\acknowledgment接続表ジェネレータの作成や形態素解析実験にご協力いただいた,高橋大和君(現NTTコミュニケーション科学研究所勤務),宍倉祐司君,前川忠嘉君をはじめとする,新潟大学工学部情報工学科・宮崎研究室の学生諸君に深謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{Barwise\BBA\Perry}{Barwise\BBA\Perry}{1983}]{Barwise1983}Barwise,J.\BBACOMMA\\BBA\Perry,J.\BBOP1983\BBCP.\newblock{\JBOQSituationandAttitudes\JBCQ}\newblockMITPress.\bibitem[\protect\BCAY{池原,宮崎,白井,林}{池原,宮崎,白井,林}{1987}]{Ikehara1987}池原,宮崎,白井,林\BBOP1987\BBCP.\newblock\JBOQ言語における話者の認識と多段翻訳方式\JBCQ\\newblock\Jem{情処論},{\Bbf28}(12),1269--1279.\bibitem[\protect\BCAY{池原,白井}{池原,白井}{1990}]{Ikehara1990}池原,白井\BBOP1990\BBCP.\newblock\JBOQ日英機械翻訳機能試験項目の体系化\JBCQ\\newblock\Jem{信学技報},{\BbfNLC90-43},17--24.\bibitem[\protect\BCAY{池原}{池原}{1991}]{Ikehara1991}池原悟\BBOP1991\BBCP.\newblock\JBOQ言語表現の意味\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf6}(2),290--291.\bibitem[\protect\BCAY{池原,宮崎,白井}{池原,宮崎,白井}{1992}]{Ikehara1992}池原,宮崎,白井\BBOP1992\BBCP.\newblock\JBOQ言語過程説から見た多段翻訳方式の意義\JBCQ\\newblock\Jem{自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会},139--140.\bibitem[\protect\BCAY{南}{南}{1974}]{Minami1974}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami1993}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{三浦}{三浦}{1967a}]{Miura1967a}三浦つとむ\BBOP1967a\BBCP.\newblock\Jem{認識と言語の理論,第一部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1967b}]{Miura1967b}三浦つとむ\BBOP1967b\BBCP.\newblock\Jem{認識と言語の理論,第二部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1972}]{Miura1972}三浦つとむ\BBOP1972\BBCP.\newblock\Jem{認識と言語の理論,第三部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1975}]{Miura1975}三浦つとむ\BBOP1975\BBCP.\newblock\Jem{日本語の文法}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1976}]{Miura1976}三浦つとむ\BBOP1976\BBCP.\newblock\Jem{日本語とはどういう言語か}.\newblock講談社.\bibitem[\protect\BCAY{三浦}{三浦}{1977}]{Miura1977}三浦つとむ\BBOP1977\BBCP.\newblock\Jem{言語学と記号学}.\newblock勁草書房.\bibitem[\protect\BCAY{宮崎,池原,白井}{宮崎,池原,白井}{1992}]{Miyazaki1992a}宮崎,池原,白井\BBOP1992\BBCP.\newblock\JBOQ言語の過程的構造と自然言語処理\JBCQ\\newblock\Jem{自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会},60--69.\bibitem[\protect\BCAY{宮崎}{宮崎}{1992}]{Miyazaki1992b}宮崎正弘\BBOP1992\BBCP.\newblock\JBOQ言語を理解するコンピュータ自然言語技術の展望\JBCQ\\newblock\Jem{コンピュートロール}.\newblockコロナ社,(37),75-81.\bibitem[\protect\BCAY{宮崎,高橋}{宮崎,高橋}{1993}]{Miyazaki1993}宮崎,高橋\BBOP1993\BBCP.\newblock\JBOQ話者の対象認識過程からみた助詞「が」「は」の意味分析\JBCQ\\newblock\Jem{情報処理学会第46回全国大会},{\Bbf3}(1B--8).\bibitem[\protect\BCAY{水谷}{水谷}{1993}]{Mizutani1993}水谷静夫\BBOP1993\BBCP.\newblock\JBOQ意味・構文の関係を考へる九十例\JBCQ\\newblock\Jem{計量国語学},{\Bbf19}(1),1--14.\bibitem[\protect\BCAY{野村}{野村}{1978}]{Nomura1978}野村雅昭\BBOP1978\BBCP.\newblock\JBOQ接辞性字音語基の性格\JBCQ\\newblock\Jem{国立国語研究所報告,(61)},102--138.\bibitem[\protect\BCAY{佐伯}{佐伯}{1983}]{Saeki1983}佐伯哲夫\BBOP1983\BBCP.\newblock\JBOQ語順と意味\JBCQ\\newblock\Jem{日本語学},{\Bbf2}(12),30--38.\bibitem[\protect\BCAY{白井,宮崎,池原}{白井,宮崎,池原}{1992}]{Shirai1992}白井,宮崎,池原\BBOP1992\BBCP.\newblock\JBOQ言語過程説から見た日本語述語の構造\JBCQ\\newblock\Jem{自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会},141--142.\bibitem[\protect\BCAY{高橋,佐野,宍倉,前川,宮崎}{高橋\Jetal}{1993}]{Takahashi1993}高橋,佐野,宍倉,前川,宮崎\BBOP1993\BBCP.\newblock\JBOQ頑健性を目指した日本語形態素解析システムの試作\JBCQ\\newblock\Jem{自然言語処理における実働シンポジウム論文集,電子情報通信学会/ソフトウェア科学会},1--8.\bibitem[\protect\BCAY{時枝}{時枝}{1941}]{Tokieda1941}時枝誠記\BBOP1941\BBCP.\newblock\Jem{国語学原論}.\newblock岩波書店.\bibitem[\protect\BCAY{時枝}{時枝}{1950}]{Tokieda1950}時枝誠記\BBOP1950\BBCP.\newblock\Jem{日本文法口語篇}.\newblock岩波書店.\end{thebibliography}\newpage\section*{付録}\begin{center}\epsfile{file=app1.eps,width=84.0mm}\end{center}\newpage\begin{center}\epsfile{file=app2.eps,width=84.0mm}\end{center}\newpage\begin{center}\epsfile{file=app3.eps,width=81.0mm}\end{center}\begin{biography}\biotitle{略歴}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所において大型コンピュータDIPSの開発,コンピュータシステムの性能評価法の研究,日本文音声出力システムや機械翻訳などの自然言語処理の研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語理解,機械翻訳,辞書・シソーラスなど自然言語処理用言語知識の体系化などの研究に従事.工学博士.電子情報通信学会,情報処理学会,人工知能学会,各会員}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程修了.同年日本電信電話公社に入社.以来,電気通信研究所において数式処理,トラヒック理論,自然言語処理の研究に従事.現在,NTTコミュニケーション科学研究所池原研究グループ・リーダ(主幹研究員).工学博士.1982年情報処理学会論文賞,1993年情報処理学会研究賞受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員}\bioauthor{白井諭}{1978年大阪大学工学部通信工学科卒業.1980年同大学大学院博士前期課程修了.同年日本電信電話公社入社.以来,電気通信研究所において日英機械翻訳を中心とする自然言語処理の研究に従事.現在,NTTコミュニケーション科学研究所主任研究員.電子情報通信学会,情報処理学会,各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N01-01
\section{はじめに} 人工知能分野の手法や技術を,金融市場における様々な場面に応用することが期待されており,例えば,膨大な金融情報を分析して投資判断の支援を行う技術が注目されている.その一例として,日本銀行が毎月発行している「金融経済月報」や企業の決算短信,経済新聞記事をテキストマイニングの技術を用いて,経済市場を分析する研究などが盛んに行われている\cite{izumi,kitamori,Peramunetilleke,sakai1,sakaji}.日経リサーチでは,各種データを収集し,様々なデータベースを構築している.データ処理にあたっては,たとえばXBRL形式のように値に付与されたタグ等の付加情報を利用し,自動分類によるデータベース化を行っている.しかしデータ分類用付加情報が付与されているデータはまだ少数で,データベース構築の多くは自動分類化がすすんでおらず,人手をかけた作業による分類が大半を占めている.手作業で必要な情報を抽出するには,専門的知識や経験が必要となる.そのような環境の中,「株主招集通知の議案別開始ページの推定」を研究課題として設定した\footnote{株主招集通知から推定するべき情報は人事案件など他にもあり,そのような他テーマへの応用も可能である.}.企業が株主総会を開催する場合,企業は招集の手続きが必要になる.会社法では公開会社である株式会社が株主総会を招集する場合,株主総会の日の二週間前までに,株主に対してその通知を発しなければならないと定めている(会社法第二百九十九条).また,株式会社が取締役会設置会社である場合,その通知は書面で行わなければならない(会社法第二百九十九条第二項).この株主総会に関する書面通知が株主招集通知である.取締役会設置会社においては,定時株主総会の招集の通知に際し,取締役会の承認を受けた計算書類及び事業報告を提供しなければならない,株主総会の目的が役員等の選任,役員等の報酬等,定款の変更等に係る場合,当該事項に係る議案の概要を通知する必要がある等,会社法および株主招集通知にて通知する事項は会社法および会社法施行規則で定められている(会社法第二百九十八条,会社法施行規則第六十三条).一般的な株式公開会社の株主招集通知は,株主総会の日時・場所・目的事項(報告事項・決議事項)が記載される他,参考書類・添付書類として決議事項の議案概要,事業内容等の株式会社の現況に関する事項,株式に関する事項,会社役員に関する事項,会計監査人の状況,計算書類,監査報告書等が記載される.記載内容が法令で定められている株主招集通知だが,有価証券報告書等のように様式が定められておらず,その形式は記載順序や表現方法を含め各社で異なっており,ページ数も数ページのものから100ページを超えるものもある.今回の研究の対象は,株主招集通知に記載されている決議事項に関する議案である.議案については,その記載がどのページにあるか,何の事項の前後に記載されるかは各社各様であり,多様なパターンを識別するには株主招集通知を読み解く経験を積む必要があった.従来は抽出したい議案(「取締役選任」「剰余金処分」などの項目)が報告書のどのページに記載されているか人手により確認し,データを作成していたが,各社で報告書のページ数や議案数が異なるため,確認に時間を要していた.現状は,株主招集通知を紙で印刷するとともに,PDFファイルで取得,人手にてデータベースに収録,校正リストの出力,チェックという流れで収録業務を行っている.ここで,抽出したい議案がその報告書にあるのか,どのページに記載されているのかが自動で推定できれば,時間の短縮やペーパーレス化などの業務の効率化につながる.したがって本研究の目標は,株主招集通知の各ページが議案の開始ページであるかそうでないかを判別し,さらに,開始ページであると判断されたページに記述されている議案が,どのような内容の議案であるかを自動的に分類することである\footnote{上記のようなアプローチを採用した理由は,最初に議案の開始ページを推定することで,議案分類に使用する文書を絞り込むためである.}.株主招集通知の開示集中時期には,短時間に大量の処理を進めるため,臨時的に収録作業者を配置し,データ入力を行う.臨時作業者には,株主招集通知の理解から始まり,収録定義に関する教育時間や練習時間が2日程度必要となる.この教育時間を経て,実際のデータ入力を始めると,慣れるまでは1社あたりのデータベース化に1時間半〜2時間を要し,本研究で対象としている議案分類のみの作業でも,慣れた作業者さえ数分かかる.特に議案など必要なページにたどりつくまでに株主招集通知を一枚一枚めくって探すこと,議案分類について議案タイトルやその詳細から対応する語を見つけ出すことに時間を要している.処理・判断が早くなるには,各社で異なる株主招集通知の構成を見極め,構造の特徴をつかむことが必要になる.しかし,これらの勘をつかむには,およそ1週間程度かかっている.さらに,信頼性の高いデータ収録ができるようになるには,3ヶ月以上を要している.本研究によるシステムによって,これらの構造理解と勘の習得が不要になると共に,議案の開始ページの推定や議案内容が分類されることにより,当該部分の1社あたりにかかる処理時間の短縮が期待される.さらに,理解の十分でない作業者の判断ミスや判断の揺れが減少し,信頼度の高いデータ生成を支えることとなる.その結果,データベース収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることが可能となる.一般的に株主は,株主招集通知に掲載されている議案を確認し,「この議案に賛成もしくは反対」の判断をしている.多数の企業の株式を保有している株主は,これに時間がかかることが推測される.株主招集通知に載っている議案が分類されれば,議案の内容をより早く把握することができ,判断に集中できるようになると考える.ここで,本論文で提案するシステムの全体像について述べる.本論文で提案するシステムは,株主招集通知を入力として,表\ref{sc_miss}に示すような結果を返すシステムである.この結果を得るためには,まず議案が何ページから記載されているのかを推定する必要がある.そして推定したページに対して,議案がいくつ存在し,どの議案分類に分類されるかを自動で行う.\begin{table}[t]\caption{出力結果}\label{sc_miss}\input{01table01.tex}\end{table}本論文の第2章では議案がある開始ページの推定について述べる.第3章から第5章では各議案分類の手法について詳細な内容について述べる.第6章では各手法の評価を適合率,再現率,F値を用いて述べる.第7章では第6章の評価結果を踏まえて考察を述べる.第8章では応用システムについて述べる.第9章では関連研究について述べ,関連研究と本研究の違いについて述べる.\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f1.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例1}\label{expdf1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f2.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例2}\label{expdf2}\end{figure} \section{議案がある開始ページの推定} 株主招集通知から議案を分類するために,議案が開始するページの推定を行う必要がある.開始ページの推定は,テキスト情報を用いてルールベースで行う.まず,株主招集通知のPDFを$1$ページごとに分割したうえで,テキストデータに変換する.変換にはpdftotext\footnote{http://www.foolabs.com/xpdf/home.html}を用いた.PDFデータをテキストデータに変換するとき,以下の処理を加えて変換を行った.\begin{description}\item[処理1]半角を全角に変換する\item[処理2]空白は除去する\item[処理3]()が含まれる文は括弧ごと除去する\item[処理4]「の件」または「する件」を含んでいる場合,「件」の後に改行を加える\item[処理5]行頭が「第◯号議案」または「議案」と一致する場合,行頭に改行を加える\item[処理6]「。」は改行に置き換える\end{description}上記の処理によってPDFデータは図\ref{expdf1}や図\ref{expdf2}のようなテキストデータに変換される.議案がある開始ページは,以下の条件のもと推定した.ここで,「決議事項」または「目的事項」という表現が含まれているページを\underline{目次ページ}とし,「参考書類」,「議題及び参考事項」または「議題および参考事項」という表現が含まれているページを\underline{参考ページ}とする.\begin{description}\item[条件1]議案がある開始ページは,「議案」または「第$X$号議案」が先頭に含まれるページを対象とする\item[条件2]\underline{目次ページ}は議案がある開始ページの候補から除外する\item[条件3]\underline{参考ページ}から議案に関する記載が始まるため,\underline{参考ページ}以降を対象とする\end{description}議案がある開始ページの推定は上記の条件に関わるページ番号の抽出の他に,議案数の推定とページ数の抽出が必要となる.「第$X$号議案」という語が株主招集通知に含まれている場合,議案数は「$X$」の最大値であると推定できる.「第$X$号議案」という語が株主招集通知に含まれていない場合,議案という語が含まれていれば,議案数は$1$であると推定できる.ページ数の抽出は,PDFデータを$1$ページずつテキストデータ化し,テキストデータが取得できた最後のページ番号をページ数として抽出する.\begin{table}[t]\noindent\begin{minipage}[t]{0.45\textwidth}\caption{抽出された情報1}\label{pre1}\input{01table02.tex}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\caption{抽出された情報2}\label{pre2}\input{01table03.tex}\vspace{1cm}\caption{抽出された情報3}\label{pre3}\input{01table04.tex}\end{minipage}\end{table}これらを踏まえて,変換されたテキストデータから必要な情報を抽出した例を表\ref{pre1},表\ref{pre2},表\ref{pre3}に示す.例えば,図\ref{expdf1}は,株主招集通知のP.~40の例であり,そのページから抽出される議案は「第1号議案」,「第2号議案」となる.これらの情報を基にページの推定を以下の図\ref{flowchart1}のフローチャートに従って行う.\begin{figure}[t]\includegraphics{25-1ia1f3.eps}\caption{議案の開始ページ推定のためのフローチャート}\label{flowchart1}\end{figure}表\ref{pre1}と表\ref{pre3}の例の場合,まず参考ページの最も後ろのページである$42$ページが探索開始ページとなるが,第1号議案が$42$ページ以降に出現しないため,探索開始ページを$40$に更新して行うことで,第1号議案から第8号議案の開始ページの推定に成功する. \section{提案手法1特徴語による議案分類} 本章では,特徴語による議案分類について説明する.この提案手法は以下のステップで議案の分類を行う.\begin{description}\item[Step1:]議案分類ごとの特徴語の獲得\item[Step2:]議案の分類\end{description}\subsection{議案分類ごとの特徴語の獲得}\subsubsection{特徴語候補の抽出}株主招集通知に出現する議案を分類するために,議案分類ごとの特徴語の抽出をする.例えば,「取締役選任」の特徴語として,「現任取締役」のような語を抽出する.議案分類ごとの特徴語の獲得をするために,株主招集通知における議案別の開始ページとその議案の分類が記述されたデータ(6,444件)を,株主招集通知のPDFを$1$ページごとに分割したうえで,テキストデータに変換し,学習データとして使用する.特徴語の抽出は上記の学習データを形態素解析し,それから以下の条件のもと,各議案分類の開始ページに$2$回以上出現する語を特徴語の候補とする.\begin{description}\item[条件1]名詞を対象\item[条件2]分割はN-gram単位\item[条件3]25文字以上の長すぎる複合名詞は除外\end{description}例えば,名詞を対象にN-gram単位の分割を「株主招集通知における議案タイトル」に対して行うと,「株主」,「招集」,「通知」,「株主招集」,「招集通知」,「株主招集通知」,「議案」,「タイトル」,「議案タイトル」のように分割される.\subsubsection{特徴語候補への重み付け}特徴語の候補$n_{i}$に対して議案分類ごとに重み付けを行い,特徴語を選択する.重み付けの式には式\ref{weighting}を用いる.\begin{equation}\label{weighting}W(n_{i},C(t))=(0.5+0.5\frac{TF(n_{i},C(t))}{max_{j=1,...,m}TF(n_{j},C(t))})×H(n_{i},C(t))\log_{2}\frac{N}{df(n_{i})}\end{equation}ここで,学習データにおいて,\begin{description}\item[$C(t)$:]議案分類$t$の開始ページの文書集合.\item[$TF(n,C(t))$:]$C(t)$において,名詞$n$が出現する頻度.\item[$H(n,C(t))$:]$C(t)$の各文書である$d$に名詞$n$が出現する確率$P(n,d)$に基づくエントロピー.以下の式\ref{entropy}によって求める.\begin{equation}\label{entropy}H(n,C(t))=-\sum_{d\inC(t)}P(n,d)\log_{2}P(n,d)\end{equation}ここで,$P(n,d)$は$d$に名詞$n$が出現する確率である.\item[$df(n)$:]名詞$n$を含む文書の数.\item[$N$:]学習データにおける文書の総数.\end{description}エントロピーを用いた理由は,各議案分類の文書集合中で多くの文書に分散して出現している語の方が,少数の文書に集中して出現している語と比較して,よりその議案分類の特徴を表し,特徴語としても有効であるという仮定に基づく.例として,議案分類「監査役選任」の特徴語候補への重み付けを,エントロピーを用いて行った結果を表\ref{w_H1}に示し,エントロピーを用いずに行った結果を表\ref{w_H2}に示す.\begin{table}[b]\noindent\begin{minipage}[t]{0.45\textwidth}\caption{エントロピーを用いた重み付けの結果}\label{w_H1}\input{01table05.tex}\end{minipage}\hfill\begin{minipage}[t]{0.5\textwidth}\caption{エントロピーを用いずに重み付けをした結果}\label{w_H2}\input{01table06.tex}\end{minipage}\end{table}表\ref{w_H2}に示した特徴語候補は上位$6$単語だが,上位$300$単語のほとんどが固有名詞であるため議案分類の特徴としては適切でなく,エントロピーを計算に用いることは有用と思われる.\subsubsection{特徴語の選択}各議案分類ごとの特徴語候補の重み付けの平均値を算出し,平均値よりも重みの高いものを特徴語として選択する.すなわち,以下の条件が成り立つ語$n_{i}$を特徴語として選択する.\begin{equation}\label{mean}W(n_{i},C(t))>\frac{1}{m}\sum_{j=1}^{m}W(n_{j},C(t))\end{equation}\begin{description}\item[$m$:]議案分類$t$の特徴語候補の総数.\end{description}例えば,「取締役選任」の特徴語の一部を表\ref{w_result1},「定款変更」の特徴語の一部を表\ref{w_result2}に示す.表\ref{w_result2}に注目すると,「定款変更」の項目なので「変更」,「施行」,「定款」などを含む特徴語が上位に来ることは想像できるが,それ以上に「下線部」のような単語に高い重みが付与されることは,機械学習のメリットである.実際,図\ref{expdf2}は「定款変更」に分類される議案の開始ページであるが,「下線部」という単語が出現している.\begin{table}[b]\noindent\begin{minipage}[t]{0.45\textwidth}\caption{「取締役選任」の特徴語}\label{w_result1}\input{01table07.tex}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\caption{「定款変更」の特徴語}\label{w_result2}\input{01table08.tex}\end{minipage}\end{table}\subsection{議案の分類}$3.1$節で得られた特徴語の重みと第2章の手法で推定した議案の開始ページを用いて,開始ページごとの議案の分類を行う.議案分類$t$の開始ページ$j$に対するスコア付与は式\ref{cos}を用いる.\begin{equation}\label{cos}score(j,t)=\frac{\boldsymbol{V(t)}・\boldsymbol{V(j)}}{|\boldsymbol{V(t)}||\boldsymbol{V(j)}|}\end{equation}ここで,\begin{description}\item[$\boldsymbol{V(t)}$:]議案分類$t$の特徴語を要素,特徴語の重みを要素値とするベクトル\item[$\boldsymbol{V(j)}$:]開始ページ$j$の名詞N-gramを要素,出現数を要素値とするベクトル\end{description}複数の議案が同ページに存在する場合,スコアが上位のものから順に選ばれるものとする. \section{提案手法2多層ニューラルネットワークによる議案分類} 提案手法1では,学習データから各議案の特徴語を抽出し,それに基づいて議案を分類している.この学習データを使用すれば,機械学習手法に基づく手法でも議案分類が可能である.そこで,本研究では多層ニューラルネットワーク(深層学習)\footnote{以降,多層ニューラルネットワークを深層学習と表記する.}を用いた議案分類も試みた.\subsection{素性選択}株主招集通知に記載されている議案の開始ページの議案分類を,深層学習により行う.すなわち,議案の開始ページが,ある議案分類であるかそうでないかを判別する分類器を議案分類の数だけ生成し,テストデータとなる議案の開始ページがどの議案分類に属するかを判定する.したがって,例えば議案分類「取締役選任」を判別するための学習データは,「取締役選任」の開始ページが正例,それ以外の議案分類の開始ページが負例となる.また,テストデータは,学習データとして使用した株主招集通知を除き,株主招集通知を1ページごとに分割したうえで,第2章の手法を用いて推定されたページを対象とした.まず,入力層の要素となる語(素性)を選択する.具体的には,学習データにおいて正例に含まれる内容語(名詞,動詞,形容詞)に対して,以下の式\ref{weight_score}にて重みを計算する.\begin{equation}\label{weight_score}W_{p}(t,S_{p})=TF(t,S_{p})H(t,S_{p})\end{equation}ただし,\begin{description}\item[$S_{p}$:]学習データにおいて正例に属する文の集合\item[$TF(t,S_{p})$:]文集合$S_{p}$において,語$t$が出現する頻度\item[$H(t,S_{p})$:]文集合$S_{p}$における各文に含まれる語$t$の出現確率に基づくエントロピー\end{description}$H(t,S_{p})$が高い語ほど,正例の文集合に均一に分布している語であることが分かる.$H(t,S_{p})$は次の式\ref{entropy1}で求める.\begin{gather}\label{entropy1}H(t,S_{p})=-\sum_{s\inS_{p}}P(t,s)\log_{2}P(t,s)\\P(t,s)=\frac{tf(t,s)}{\sum_{s\inS_{p}}tf(t,s)}\end{gather}ここで,$P(t,s)$は文$s$における語$t$の出現確率を表し,$tf(t,s)$は文$s$において語$t$が出現する頻度を表す.次に,負例に含まれる内容語(名詞,動詞,形容詞)に対しても,同様に重みを計算する.\begin{equation}W_{n}(t,S_{n})=TF(t,S_{n})H(t,S_{n})\end{equation}ただし,$S_{n}$は学習データにおいて負例に属する文の集合である.ここで,ある語$t$の正例における重み$W_{p}(t,S_{p})$が負例における重み$W_{n}(t,S_{n})$より大きければ,その語$t$を素性として選択する.もしくは,語$t$の負例における重み$W_{n}(t,S_{n})$が正例における重み$W_{p}(t,S_{p})$の2倍より大きければ,その語$t$を素性として選択する.すなわち,以下の条件のどちらかが成り立つ語$t$を素性として選択する.\begin{gather}W_{p}(t,S_{p})>W_{n}(t,S_{n})\\W_{n}(t,S_{n})>2W_{p}(t,S_{p})\end{gather}上記の条件を課すことで,正例,負例における特徴的な語のみを素性として選択し,ともによく出現するような一般的な語を素性から除去する.以下に議案分類「取締役選任」を判別するための学習データから選択された素性の一部を例示する.\begin{screen}取締役,監査,議案,配当,株主,社外,変更,事業,代表,現任,責任,部長,社長\end{screen}上記の学習データでは,$2,845$語が素性として選択された.\subsection{モデル}入力は,学習データから抽出された語(素性)を要素,語$t$における$\log(W_{p}(t,S_{p}))$,もしくは,$\log(W_{n}(t,S_{n}))$の大きいほうを要素値としたベクトルとする.モデルの入力層のノード数を入力ベクトルの次元数(すなわち素性の数)と同じとし,隠れ層は,ノード数1,000が3層,ノード数$500$が3層,ノード数$200$が3層,ノード数$100$が3層の計12層とする.出力層は$1$要素である.深層学習のパラメータとして,活性化関数はランプ関数(ReLU)\cite{ReLU}を,出力層はsigmoidを使用した.また,エポック数は$50$回とした.機械学習による分類を2値で行った理由は,1つのページに複数の議案が記載されており,複数の議案分類が割り当てられる可能性があるからである.例えば,「取締役選任」と「監査役選任」が同じページに記載されている場合があり,その場合は,そのページを「取締役選任」と「監査役選任」に分類する必要がある.そのため,ある議案分類とそれ以外を分類する分類器を議案分類数だけ生成するアプローチを採った. \section{提案手法3抽出した議案タイトルを用いた議案分類} 本章では,議案タイトルの抽出手法と,抽出した議案タイトルを用いた議案分類手法について説明する.議案タイトルとは,図\ref{expdf1}の第1号議案の隣に記載されている「剰余金の処分の件」や,第2号議案の隣に記載されている「定款一部変更の件」のことを指す.議案タイトルを正確に抽出することは難しいが,正しく議案タイトルを抽出できれば議案分類の大きな手助けとなるとともに,議案タイトルを人手で入力する手間を省くことができる.\subsection{議案タイトルの抽出}PDFデータを第2章と同様の条件でテキストデータに変換し,図\ref{flowchart2}のフローチャートの条件で議案タイトルの抽出を行う.\begin{figure}[b]\vspace{-0.5\Cvs}\includegraphics{25-1ia1f4.eps}\caption{議案タイトル抽出のフローチャート}\label{flowchart2}\end{figure}議案タイトルは第2章の手法を用いて推定された開始ページを用いて,ハッシュに保存された議案タイトルが選択される.以下の優先順位でハッシュは選ばれ,優先すべきハッシュに議案タイトルがない場合,次順位のハッシュに保存された議案タイトルを選択する.\begin{equation}hash1\{''第◯号議案''\}>hash2\{ページ数\}\{''第◯号議案''\}>hash3\{ページ数\}\{m\}\end{equation}ここで,$hash3\{ページ数\}\{m\}$はそのページに出現する$m$番目の議案タイトルである.\subsection{議案タイトルを用いた議案分類手法}議案タイトルに含まれるキーワードを用いたルールベースによって議案分類を行う\footnote{作成したルールは,学習データとして用いられている株主招集通知を参考に作成した.}.図\ref{flowchart3}に本手法である議案分類のフローチャートを示す.\begin{figure}[t]\includegraphics{25-1ia1f5.eps}\caption{抽出した議案タイトルを用いた分類のフローチャート}\label{flowchart3}\end{figure} \section{評価} 本手法を実装した.学習データとして,$2016$年$4$月から$8$月までの株主招集通知から,人手にて議案開始ページとその分類を作成し使用した(学習データ数は6,444件).実装にあたり,形態素解析器としてMeCab\footnote{http://taku910.github.io/mecab/}を使用した.深層学習においてはTensorFlow\footnote{https://www.tensorflow.org/}を使用した.評価において,正解データとして,$2016$年$9$月から$10$月までの株主招集通知から,人手にて議案開始ページとその分類を作成した(正解データ数は345件).議案分類ごとの学習データと正解データは以下の表\ref{count}の通りである.次に,正解データと同じ$9$月から$10$月までの株主招集通知から,各手法を用いて議案開始ページとその議案分類を推定した.表\ref{c_ex}はある企業の株主招集通知における正解データと提案手法1による議案開始ページと議案分類の推定結果を示す.そして,各手法の推定結果と正解データが一致すれば正解とし,議案ごとの適合率,再現率,F値を算出した.また,比較手法として,SupportVectorMachine(SVM)\cite{svm}による分類も行った\footnote{SVMのカーネルとして線形カーネルを使用した.}.素性選択の方法は深層学習と同様である.評価結果を表\ref{c_result}に示す.表\ref{c_result}の手法1は提案手法1の特徴語による議案分類手法,手法2は提案手法2の深層学習による議案分類手法,手法3は提案手法3の抽出した議案タイトルを用いた議案分類手法の結果を示す.\begin{table}[b]\caption{議案別データ数}\label{count}\input{01table09.tex}\end{table}\begin{table}[b]\caption{提案手法1による議案開始ページと議案分類の推定結果とその正解データ}\label{c_ex}\input{01table10.tex}\end{table}\begin{table}[p]\caption{評価結果}\label{c_result}\input{01table11.tex}\end{table}\begin{table}[p]\caption{比較手法と設定}\label{cond}\input{01table12.tex}\end{table}深層学習による提案手法2を評価するために,素性選択を行わなかった場合,深層学習ではなくSVMを使用した場合,深層学習の隠れ層やエポック数を変化した場合の評価を行った.表\ref{cond}に各手法や設定を示す.ここで,比較手法2の「素性選択なし」とは,学習データにおける内容語を全て素性として使用し,重みとして情報利得を使用したものである.また,各手法や設定ごとに全ての議案分類の適合率,再現率を載せるのは数値が多すぎるため,各手法や設計ごとの全議案における適合率,再現率のみを表\ref{comparison}に示す.\begin{table}[b]\caption{比較評価結果}\label{comparison}\input{01table13.tex}\end{table} \section{各手法に対する考察} 各手法の評価の結果,提案手法3,提案手法2,手法(SVM),提案手法1の順に良好な結果が得られた.各手法には特徴があり,「ストックオプション」のF値では提案手法1が最も高く,「剰余金処分」のF値は提案手法2が最も高い.提案手法1は「ストックオプション」の結果が他の手法と比較して良好な結果となった.これは特徴語の選択とその重み付けに起因している.得られた特徴語と重みを表\ref{w_result3}に示す.また,特に提案手法3と比較すると高い結果が得られているが,これは「ストックオプション」に該当する議案のタイトルは多種多様であることから,提案手法3のタイトルを用いた分類は難しいことが原因でもある.\begin{table}[b]\caption{「ストックオプション」の特徴語}\label{w_result3}\input{01table14.tex}\end{table}提案手法1の分類推定が誤っていたものを確認したところ,誤分類は$46$件だった.その誤分類の詳細を確認したところ,「取締役選任」の項目が,「監査役選任」の項目に誤分類されている件数が$15$件あった.これはどちらの項目も選任の件であり,分類が難しいことと,議案としての出現確率が高いことに起因している.また,分類には「その他」といった項目が存在するが,今回は「その他」への分類をしていないため,$15$件が誤分類となった.「その他」の項目は,どの議案にも分類されない議案で構成されるため,特徴語となるものが抽出できない.そのため分類対象から除外した.提案手法1は議案の分類をスコアが上位のものから順に割り当てるため,同一ページに対し同じ議案分類を割り当てることができない.そのため,同じ議案分類が複数出てきた開始ページの推定に影響を与え,$6$件の誤分類となった.また,その場合の推定は「退職慰労金」に分類される傾向にあり,それに起因して「退職慰労金」の分類の適合率が低くなってしまった.その際の正解データと提案手法1の出力結果を表\ref{c_miss}に示す.この例は,P.53に「役員報酬」に関する議案が$2$件記載されているが,「役員報酬」の次にスコアが高い「退職慰労金」が議案分類として割り当てられてしまった結果である.\begin{table}[b]\caption{同じ議案が同一ページに複数出てきた例}\label{c_miss}\input{01table15.tex}\end{table}提案手法1の分類推定を向上させるためには,「取締役選任」と「監査役選任」の項目の特徴語の選択をヒューリスティックに調整することが考えられる.また,「その他」の項目も,同様の手法で分類できるようにすることも考えられる.同じ議案が複数存在するページに関しては,「退職慰労金」の項目に分類されることが多いため,「退職慰労金」への分類に制約を与えることで,解消されると考えられる.提案手法2の結果は,議案があると推定されたページに対して各分類器を適用するため,そのページにある議案数とは異なった結果を返すことがある.提案手法1で述べた,同じ議案が複数存在するページに関しては,結果を余分に返さないメリットがある.しかし,提案手法2は$1$ページ毎に分類を行うため,議案が複数存在し,該当ページの後半以降から始まり,次のページに跨ぐような議案に対しては,正しい分類結果を返せないデメリットが存在する.提案手法3の抽出した議案タイトルを用いた議案分類は,高い適合率,再現率を示しているが,議案タイトルの抽出の結果に強く依存しているため,他の分類手法と照らし合わせる必要がある.他の分類手法はページに出現する特長語を用いて分類を行うため,議案タイトルが正しく抽出できない場合においても分類を行うことが可能である.議案がある開始ページの推定は,議案があると推定された株主招集通知に対しては$100\%$推定できていた.しかし,議案が本来は記載されているが,議案がないと判断された株主招集通知が$2$件あった.原因を調べたところ,PDFからテキストデータへの変換のとき,「議案」といった表現が抽出されてないことが原因であった.その例を図\ref{extxt2}に示す.\begin{figure}[b]\includegraphics{25-1ia1f6.eps}\caption{議案が正しく変換できなかったテキストデータの例}\label{extxt2}\end{figure}図\ref{extxt2}の矢印で示した位置に,本来PDFに記載されている「議案」という文字列がテキストに変換されるはずだができていない.これは文字列「議案」のPDFへの入力が特殊であるために生じる.PDFを画像ファイルとして読み込み,文字認識をかけるなど解決策はあるが,本研究から内容が逸脱するため例外として処理した.表\ref{comparison}における本手法と素性選択なしの比較手法1との比較により,素性選択ありのほうが素性選択なしよりも高いF値を達成した.従って,本手法における素性選択は本タスクにおいて有効であると考える.SVMとの比較では,SVMのほうが適合率が高いが再現率が低いという結果となり,F値はほぼ同じ結果となった.隠れ層の数やエポック数の変化でも本手法とほぼ同じ結果となっており,機械学習に基づく手法では,手法の如何にかかわらず,この結果が上限であると考える. \section{応用システム} 評価の結果と考察を踏まえ,特徴語の重みによる議案分類と抽出した議案タイトルを用いた議案分類を,実際に運用できるシステム構築を行った.システムへのインプットは株主招集通知のPDF,アウトプットには議案のあるページ,抽出した議案タイトル,各手法の議案分類の結果,分類の信頼度とする.図\ref{system}にシステムの構造を示す.\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f7.eps}\end{center}\caption{システム構造}\label{system}\end{figure}ここで,信頼度とは,抽出したタイトルを用いた議案分類の結果の確からしさを示したものであり,値が1に近いほど議案分類の推定結果が正しいことを意味している.人が最終確認をする際に確認対象の判断を行うため,抽出した議案タイトルを用いた議案分類の分類結果の信頼度を追加した.信頼度の計算は,\textit{BayesianBiostatistics}\cite{bayesian}を参考にベイズ推定を利用した.\subsection{ベイズ推定による信頼度の推定}ここで説明のため,議案集合を$U$とし,抽出した議案タイトルによる分類結果「$t$」が得られたときの事象を以下のように定義する.\begin{description}\item[$A(t)$:]議案分類は「$t$」である.\item[$B(t)$:]抽出した議案タイトルによる議案分類結果が「$t$」であった.\item[$C(m)$:]特徴語による議案分類が「$m$」であった\footnote{$m$は$m=t$でも可.また,複数議案が選ばれることもある.例:$t=$「定款変更」,$m=$「定款変更」.}.\end{description}このとき求めたい信頼度は以下の式\ref{bayesian1}で得られる.\begin{equation}\label{bayesian1}P(A(t)|B(t),C(m))=\frac{P(B(t),C(m)|A(t))P(A(t))}{\sum_{d\inU}P(B(t),C(m)|A(d))P(A(d))}\end{equation}ベイズ推定では,$P(A(t)|B(t),C(m))$を事後確率,$P(B(t),C(m)|A(t))$を尤度,$P(A(t))$を事前確率と呼ぶ.すなわち式\ref{bayesian1}は,元々の議案の出現確率に尤度をかけることで,$B(t),C(m)$という根拠を加味した条件付き確率を得ることができる.しかし,特徴語による議案分類は,同ページに議案が複数ある場合,複数の分類結果を返すため,全パターンの尤度の計算はデータ数の関係もあり困難である.よって,事象を以下のように変更した.\begin{description}\item[$A$:]議案分類は「$t$」である.\item[$\bar{A}$:]議案分類は「$t$」でない.\item[$B$:]抽出した議案タイトルによる議案分類結果が「$t$」であった.\item[$C$:]特徴語による議案分類が「$t$」を含む.\item[$\bar{C}$:]特徴語による議案分類が「$t$」を含まない.\end{description}よって先ほどの式\ref{bayesian1}は式\ref{bayesian2}のようになる\footnote{$\bar{C}$の場合もほぼ同様であるためここでは省略する.}.\begin{equation}\label{bayesian2}P(A|B,C)=\frac{P(B,C|A)P(A)}{P(B,C|A)P(A)+P(B,C|\bar{A})P(\bar{A})}\end{equation}また,ベイズ流のアプローチは条件をひとつずつ加え,事後確率を変化させていくのが基本となる.したがって,条件$B$を加えたことによって得られた事後確率を,更新された事前確率として条件$C$を加えたときに用いることで,最終的な事後確率を計算する\footnote{これはベイズ更新と呼ばれる.}.これは,事象$B$と事象$C$はマルコフ性のある確率過程であるという仮定に基づく.\subsubsection{条件$B$を加えた事後確率$P(A|B)$の算出}まずは事前確率$P(A)$に,条件$B$を加えた事後確率$P(A|B)$を求める必要がある.$P(A|B)$はベイズの定理より以下の式\ref{bayesian3}で求めることができる.\begin{equation}\label{bayesian3}P(A|B)=\frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|\bar{A})P(\bar{A})}\end{equation}これは議案タイトル抽出の議案分類の適合率の計算と同様であるため,評価で得られた各議案の適合率を$P(A|B)$として用いる.例えば,「定款変更」の事前確率$P(A)$は$0.133$であるが,ベイズ更新によって事後確率$P(A|B)$は$0.9737$となる.\subsubsection{条件$C$を加えた事後確率$P(A|B,C)$の算出}すでに条件$B$を加えたので,更新された事前確率$P(A|B)$を用いて$P(A|B,C)$を求める.$P(A|B,C)$はベイズの定理より以下の式\ref{bayesian4}で求めることができる.\begin{equation}\label{bayesian4}P(A|B,C)=\frac{P(C|A,B)P(A|B)}{P(C|A,B)P(A|B)+P(C|\bar{A},B)P(\bar{A}|B)}\end{equation}ここで,事象$B$は議案タイトルを用いた分類による分類結果,事象$C$は文中に出現した特徴語を用いた分類結果であるため,分類に用いる情報源が異なることから,分類結果は独立であるという仮定の下,式\ref{bayesian4}は以下の式\ref{bayesian5}で表すことができる.\begin{equation}\label{bayesian5}P(A|B,C)=\frac{P(C|A)P(A|B)}{P(C|A)P(A|B)+P(C|\bar{A})P(\bar{A}|B)}\end{equation}ここで,\begin{description}\item[$P(A|B)$:]抽出した議案タイトルによる議案分類の適合率.\item[$P(\bar{A}|B)$:]$1-P(A|B)$.\item[$P(C|A)$:]特徴語による議案分類の再現率.\item[$P(C|\bar{A})$:]特徴語による議案分類の誤検知率\footnote{再現率は真の値が$1$のものに対して$1$であると予測される比率であるため,誤検知率を真の値が$0$であるものに対して,$1$であると予測される比率と定義する.例:真の分類が「定款変更」のものに対して,「定款変更」と予測されたものの比率が再現率であり,真の分類が「定款変更」でないものに対して,「定款変更」と予測されたものの比率が誤検知率である.}.\end{description}同様に$P(A|B,\bar{C})$も以下の式\ref{bayesian6}で表すことができる.\begin{equation}\label{bayesian6}P(A|B,\bar{C})=\frac{P(\bar{C}|A)P(A|B)}{P(\bar{C}|A)P(A|B)+P(\bar{C}|\bar{A})P(\bar{A}|B)}\end{equation}ここで,\begin{description}\item[$P(\bar{C}|A)$:]$1-P(C|A)$.\item[$P(\bar{C}|\bar{A})$:]$1-P(C|\bar{A})$.\end{description}\subsection{システムの実行例}株主招集通知のPDFファイルをアップロードすると,ページ数,議案番号,議案タイトル,抽出した議案タイトルを用いた議案分類の結果,特徴語を用いた議案分類の結果,信頼度が画面に表示される.システムの実行結果の例を,図\ref{system2}と図\ref{system3}に示す.左上の「〜.pdf」のリンクをクリックすると,アップロードしたPDFファイルの閲覧が可能である.また,右のPDFのリンクをクリックすると,該当ページのPDFファイルを閲覧することが可能である.\begin{figure}[t]\includegraphics{25-1ia1f8.eps}\caption{「サムコ」の株主招集通知をアップロードした出力結果}\label{system2}\end{figure}\begin{figure}[t]\includegraphics{25-1ia1f9.eps}\caption{「テクノメディカ」の株主招集通知をアップロードした出力結果}\label{system3}\end{figure}図\ref{system3}の第4号議案の結果に注目すると,抽出した議案タイトルを用いた分類では「取締役選任」となっているが,特徴語を用いた分類では「監査役選任」に分類結果となっている.ここで信頼度を見ると,抽出した議案タイトルによる分類結果である「取締役選任」は約96\%の信頼度である.実際に確認したところ,真の分類は「取締役選任」だった.これは,「取締役選任」の分類において,抽出した議案タイトルを用いた手法は高い適合率を誇る一方で,特徴語による議案分類は,「取締役選任」の再現率が低いため,約96\%の信頼度という結果が得られた.これは実際に人手で確認するとき,有用であると考えられる. \section{応用システムの評価} 本応用システムによる業務の効率化を評価するために,実装した応用システムと従来の人手による作業の比較評価を行った.評価基準は実際の業務に基づいたデータ収録にかかった時間と適合率・再現率とする.応用システムは,$2$つの議案分類手法を採用しているため$2$つの結果が得られるが,信頼度は抽出したタイトルを用いた議案分類の結果の確からしさを示したものであることから,適合率と再現率は抽出したタイトルを用いた議案分類の結果を用いた.\subsection{評価方法}学習データとテストデータとは別に,新たに$95$社分の株主招集通知を人手にて確認し,実際の業務と同じ手順によりデータベースに収録した.その後チェックを行ったものを正解データとする.この$95$社分のデータを$1$社ずつ時間を計り収録する作業を,$12人$の方に行ってもらい,$12人$から得られた各$1$社ずつの収録時間の平均を算出した.応用システムは$95$社分のデータをアップロードし,出力結果をcsvファイルでダウンロードし,データベースに収録するまでの時間を測定した.この時点までにかかった時間を測定し,収録されたデータがどのくらい正しく入力されているかを確認した.\subsection{収録時間}実装した応用システムの収録時間の結果と人手による収録時間の結果を表\ref{s_result}に示す\footnote{企業5〜企業93はスペースの関係上省略.}.\begin{table}[b]\caption{収録にかかった時間の結果}\label{s_result}\input{01table16.tex}\end{table}\subsection{適合率・再現率}各作業者の適合率・再現率と応用システムの適合率・再現率を表\ref{score_result}に示す.\subsection{考察}応用システムの実装によって,当該部分の$1$社あたりにかかる処理時間は約10分の1となった.また,適合率・再現率から明らかなように,人手による作業よりも高い精度で開始ページの推定と議案分類が実現できた.応用システムは例外に対応できないことや$100\%$の正解率で議案の分類ができないため,この後の作業工程であるチェックの際に,人手で作成したデータよりも時間がかかると考えていた.しかし,人手にて作成したデータは,勘違いによるミスや誤分類が多く,応用システムよりも質の低い結果となっているため,応用システム以上に時間をかける必要がある.また,この後のチェック段階において,人手によるデータには信頼度はないため,全収録データを複数人で確認する必要がある.しかし,応用システムの信頼度が$0.9$を越えるものと下回るものに対しての議案数と適合率は表\ref{s_result_0.9}のようになっており,信頼度が$0.9$を下回るものに対しては複数人での確認が必要だが,信頼度が$0.9$を越えるものに対しては一人が確認を行えば十分であると思われる.これにより,さらなる業務の効率化が期待される.\begin{table}[t]\caption{収録されたデータの適合率・再現率}\label{score_result}\input{01table17.tex}\end{table}\begin{table}[t]\caption{信頼度別応用システムの適合率}\label{s_result_0.9}\input{01table18.tex}\end{table} \section{関連研究} 本研究は,金融テキストマイニング\cite{izumiandmatui}の一環であるが,関連研究として酒井らは,企業の業績発表記事から業績要因を抽出し\cite{sakai1},抽出した業績要因に対して業績に対する極性(「ポジティブ」,「ネガティブ」)を付与する手法\cite{sakai2}や,抽出される複数の業績要因から重要な業績要因を自動的に抽出する手法を提案している\cite{sakai3}.更に,酒井らは,上記の手法\cite{sakai1}を決算短信PDFに適用し,決算短信PDFから,例えば「半導体製造装置の受注が好調でした」のような業績要因を含む文を抽出する手法を提案している\cite{CEES}.その発展研究として北森らは,決算短信PDFからの業績予測文の抽出する手法を提案している\cite{kitamori}.松田らは,日本銀行政策委員会金融政策決定会合議事要旨のテキストデータから,トピック抽出の研究を行っている\cite{matuda}.それらの研究を踏まえ本研究では,株主招集通知のデータを扱う点や,トピックや業績要因の抽出ではなく,議案の開始ページの推定,議案タイトルの抽出,その議案分類をする点が異なっている.開始位置の推定に関する関連研究としては,XMLドキュメントを対象とした研究はあるが,株主招集通知を対象とし,議案ごとの開始ページを推定する研究はない\cite{kamps}.機械学習による分類手法の比較に関しては数多くの論文が存在するが\cite{textmining,liandyamanishi2002,chenandho2000,zhangandyang2003},それらの論文のほぼすべてが手法の比較を行い,新規手法によって「適合率や再現率の改善が見られた」のような内容である.しかし,実際のシステムにおいては,一つの手法に依存するのは大変危険であるため(機械学習は過去のデータを学習データとすることから,新規データの変化に弱いため),複数の手法によって結果を出し,統合した確からしさ(信頼度)をユーザーに与える必要がある.個々の手法の適合率や再現率を示しても,ユーザーはどの結果を信頼するべきか迷うため,結果の統合は価値があると考えられる.この結果の統合による信頼度の算出が本研究の特色の一つである.複数の分類手法の統合の関連研究としては,線形結合による分類手法の統合を行っているが\cite{Fumera},本研究ではベイズ推定を用いた確率的なアプローチを行っている. \section{まとめ} 本研究では,株主招集通知における議案の開始ページを推定し,その議案を分類する手法を提案した.本研究により,人手で株主招集通知から議案の開始ページを探しだし,分類をする作業時間を大幅に削減できた.議案の開始ページ推定は,議案がある開始ページには「議案」または「第$X$号議案」が先頭に含まれるといった規則に基づく.議案分類の推定は,議案ごとの特徴語を抽出し,その特徴語のスコアに基づき分類する手法,深層学習を用いた分類,議案タイトルを用いたキーワードによる分類,の3手法を用いた.評価の結果,特徴語による議案分類,深層学習による議案分類,抽出した議案タイトルを用いた議案分類,どの手法も良好な適合率,再現率を達成した.これらの結果を踏まえ,応用システムの実装により,株主招集通知の構造理解の習得が不要になると共に,議案の開始ページの推定や議案内容が分類されることにより,当該部分の$1$社あたりにかかる処理時間が10分の1程度に短縮された.また,信頼度により,その後の作業工程であるチェックの時間も短縮されることが見込まれる.これらのことから,理解の十分でない作業者の判断ミスや判断の揺れが減少し,信頼度の高いデータ生成を支えることとなる.その結果,収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることができるであろう.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen\BBA\Ho}{Chen\BBA\Ho}{2000}]{chenandho2000}Chen,H.\BBACOMMA\\BBA\Ho,T.~K.\BBOP2000\BBCP.\newblock\BBOQEvaluationofDecisionForestsonTextCategorization.\BBCQ\\newblockIn{\BemProceedingsofthe7thSPIEConferenceonDocumentRecognitionandRetrieval},\mbox{\BPGS\191--199}.\bibitem[\protect\BCAY{Feldman\BBA\Sanger}{Feldman\BBA\Sanger}{2007}]{textmining}Feldman,R.\BBACOMMA\\BBA\Sanger,J.\BBOP2007\BBCP.\newblock{\BemTheTextMiningHandbook}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Fumera\BBA\Roli}{Fumera\BBA\Roli}{2005}]{Fumera}Fumera,G.\BBACOMMA\\BBA\Roli,F.\BBOP2005\BBCP.\newblock\BBOQATheoreticalandExperimentalAnalysisofLinearCombinersforMultipleClassifierSystems.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence},{\Bbf27}(6),\mbox{\BPGS\942--956}.\bibitem[\protect\BCAY{Glorot,Bordes,\BBA\Bengio}{Glorotet~al.}{2011}]{ReLU}Glorot,X.,Bordes,A.,\BBA\Bengio,Y.\BBOP2011\BBCP.\newblock\BBOQDeepSparseRectifierNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonArtificialIntelligenceandStatistics},\mbox{\BPGS\315--323}.\bibitem[\protect\BCAY{和泉\JBA後藤\JBA松井}{和泉\Jetal}{2011}]{izumi}和泉潔\JBA後藤卓\JBA松井藤五郎\BBOP2011\BBCP.\newblock経済テキスト情報を用いた長期的な市場動向推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3309--3315}.\bibitem[\protect\BCAY{和泉\JBA松井}{和泉\JBA松井}{2012}]{izumiandmatui}和泉潔\JBA松井藤五郎\BBOP2012\BBCP.\newblock金融テキストマイニング研究の紹介.\\newblock\Jem{情報処理},{\Bbf53}(9),\mbox{\BPGS\321--332}.\bibitem[\protect\BCAY{Kamps,Koolen,\BBA\Lalmas}{Kampset~al.}{2007}]{kamps}Kamps,J.,Koolen,M.,\BBA\Lalmas,M.\BBOP2007\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe30thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\723--724}.\bibitem[\protect\BCAY{北森\JBA酒井\JBA坂地}{北森\Jetal}{2017}]{kitamori}北森詩織\JBA酒井浩之\JBA坂地泰紀\BBOP2017\BBCP.\newblock決算短信PDFからの業績予測文の抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ100-D}(2),\mbox{\BPGS\150--161}.\bibitem[\protect\BCAY{Lesaffre\BBA\Lawson}{Lesaffre\BBA\Lawson}{2012}]{bayesian}Lesaffre,E.\BBACOMMA\\BBA\Lawson,A.~B.\BBOP2012\BBCP.\newblock{\BemBayesianBiostatistics}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{Li\BBA\Yamanishi}{Li\BBA\Yamanishi}{2017}]{liandyamanishi2002}Li,H.\BBACOMMA\\BBA\Yamanishi,K.\BBOP2017\BBCP.\newblock\BBOQTextClassificationUsingESC-basedStochasticDecisionLists.\BBCQ\\newblock{\BemInformationProceedingsandManagement},{\Bbf38}(3),\mbox{\BPGS\343--361}.\bibitem[\protect\BCAY{松田\JBA岡石\JBA白田\JBA橋本\JBA佐倉}{松田\Jetal}{2014}]{matuda}松田安咲子\JBA岡石一真\JBA白田由香利\JBA橋本隆子\JBA佐倉環\BBOP2014\BBCP.\newblockLDA方式による金融経済月報からのトピック抽出〜第2次安倍内閣の金融政策と経済動向分析〜.\\newblock\Jem{信学技報},{\Bbf114}(204),\mbox{\BPGS\79--84}.\bibitem[\protect\BCAY{Peramunetilleke\BBA\Wong}{Peramunetilleke\BBA\Wong}{2002}]{Peramunetilleke}Peramunetilleke,D.\BBACOMMA\\BBA\Wong,R.~K.\BBOP2002\BBCP.\newblock\BBOQCurrencyExchangeRateForecastingfromNewsHeadlines.\BBCQ\\newblockIn{\BemProceedingsoftheAAAISpringSymposiumonExploringAttitudeandAffectinText},\mbox{\BPGS\131--139}.\bibitem[\protect\BCAY{Sakai\BBA\Masuyama}{Sakai\BBA\Masuyama}{2008}]{sakai1}Sakai,H.\BBACOMMA\\BBA\Masuyama,S.\BBOP2008\BBCP.\newblock\BBOQCauseInformationExtractionfromFinancialArticlesConcerningBusinessPerformance.\BBCQ\\newblock{\BemIEICETransactionsInformationandSystems},{\BbfE91-D}(4),\mbox{\BPGS\959--968}.\bibitem[\protect\BCAY{Sakai\BBA\Masuyama}{Sakai\BBA\Masuyama}{2009}]{sakai2}Sakai,H.\BBACOMMA\\BBA\Masuyama,S.\BBOP2009\BBCP.\newblock\BBOQAssigningPolaritytoCausalInformationinFinancialArticlesonBusinessPerformanceofCompanies.\BBCQ\\newblock{\BemIEICETransactionsInformationandSystems},{\BbfE92-D}(12),\mbox{\BPGS\2341--2350}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2013}]{sakai3}酒井浩之\JBA増山繁\BBOP2013\BBCP.\newblock企業の業績発表記事からの重要業績要因の抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ96-D}(11),\mbox{\BPGS\2866--2870}.\bibitem[\protect\BCAY{酒井\JBA西沢\JBA松並\JBA坂地}{酒井\Jetal}{2015}]{CEES}酒井浩之\JBA西沢裕子\JBA松並祥吾\JBA坂地泰紀\BBOP2015\BBCP.\newblock企業の決算短信PDFからの業績要因の抽出.\\newblock\Jem{人工知能学会論文誌},{\BbfJ98-D}(5),\mbox{\BPGS\172--182}.\bibitem[\protect\BCAY{坂地\JBA酒井\JBA増山}{坂地\Jetal}{2015}]{sakaji}坂地泰紀\JBA酒井浩之\JBA増山繁\BBOP2015\BBCP.\newblock決算短信PDFからの原因・結果表現の抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ98-D}(5),\mbox{\BPGS\811--822}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{svm}Vapnik,V.\BBOP1999\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley.\bibitem[\protect\BCAY{Zhang\BBA\Yang}{Zhang\BBA\Yang}{2003}]{zhangandyang2003}Zhang,J.\BBACOMMA\\BBA\Yang,Y.\BBOP2003\BBCP.\newblock\BBOQRobustnessofRegularizedLinearClassificationMethodsinTextCategorization.\BBCQ\\newblockIn{\BemProceedingsofthe26thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformaionRetrieval},\mbox{\BPGS\190--197}.\end{thebibliography}\begin{biography}\bioauthor{高野海斗}{2013年成蹊大学理工学部情報科学科入学.2016年成蹊大学大学院理工学専攻理工学研究科入学.在学中は,統計学,特に,欠測データ解析,集計データ解析の研究と,自然言語処理,特に,言語情報を用いたデータの自動分類の研究に従事.日本計算機統計学会学生会員.}\bioauthor{酒井浩之}{2005年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).2005年豊橋技術科学大学知識情報工学系助手.2012年成蹊大学理工学部情報科学科講師.2014年成蹊大学理工学部情報科学科准教授.自然言語処理,特に,テキストマイニング,テキスト自動要約の研究に従事.人工知能学会,言語処理学会,電子情報通信学会,情報処理学会等会員.}\bioauthor{坂地泰紀}{2012年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).2012年株式会社ドワンゴ入社.2013年成蹊大学理工学部情報科学科助教.2017年東京大学大学院工学系研究科システム創成学専攻助教.自然言語処理,特に,テキストマイニングの研究に従事.人工知能学会,電子情報通信学会,言語処理学会等会員.}\bioauthor{和泉潔}{1998年東京大学大学院総合文化研究科広域学専攻博士課程修了.博士(学術).同年より2010年まで,電子技術総合研究所(現産業技術総合研究所)勤務.2010年より東京大学大学院工学系研究科システム創成学専攻准教授.2015年より同教授.マルチエージェントシミュレーション,特に社会シミュレーションに興味がある.IEEE,人工知能学会,情報処理学会,電子情報通信学会会員.}\bioauthor{岡田奈奈}{株式会社日経リサーチ企業情報部長.1997年入社.企業調査部,企業経営研究部など企業に係る各種情報に関するデータ収集・収録関連業務,従業員満足度ほか企業・病院等の評価軸の分析等に従事.分析評価に使用可能な企業データベースの構築に長年従事し,構築に係る運用設計を担当.2017年より現職.}\bioauthor{水内利和}{株式会社日経リサーチ企業情報部所属.会計事務所勤務を経て,2000年入社,企業財務部で有価証券報告書,決算短信などの主に企業の財務諸表等の情報のデータ収録関連業務に従事.2007年より部内で使用するシステムの開発にも従事.2015年から2年間システム統括室と兼務.2017年1月より企業情報部のみの所属となる.近年は主にスケジュール管理等の管理系,資料PDFやXBRLを活用しての社内的なシステム開発に従事.}\end{biography}\biodate\end{document}
V30N03-08
\section{はじめに} label{sec:introduction}予測は人間が生来備えている能力である.我々は日常生活において,様々な予測を行い,それを基に行動を行っている.例えば,調理においては,手順や調理動作によって得られる目標の状態を先に予測し,それを手掛かりに動作を実行しているといえる.これには動作や対象の物体に関する知識が必要であり,同時に作業全体のワークフローについても理解する必要がある.したがって,調理レシピを基に人間と同様に調理を行う自律エージェントを確立するためには,これらの能力の実現が必須であるといえる.\figref{fig:introduction-example}に例を示す.この例では,エージェントは二つ目の調理動作に必要な食材を特定しつつ動作後に得られる観測を予測している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-3ia7f1.pdf}\end{center}\hangcaption{調理エージェントによる調理動作結果の予測の例.ここでは,2つ目の調理動作(入れる)の結果を予測している.}\label{fig:introduction-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この方向の先行研究として,調理手順に視覚的なアノテーションを施したものが存在する\cite{nishimura2020visual,pan2020multimodal}.ここで,\citeA{nishimura2020visual}は各調理手順に対応する1枚の画像に対して,動作や食材の表現に対応する箇所に矩形領域のアノテーションを行った.また,\citeA{pan2020multimodal}は調理手順を文レベルに分割した後,各文に対応するフレーム列を,レシピに紐づく調理動画から抽出してアノテーションを行った.これらは調理手順に視覚的な情報を結びつけているが,調理動作の結果を予測したい場合には,まだアノテーションが不十分である.例えば,“トマトを切ってボウルに入れる.”には,1文に「切る」と「入れる」の二つの調理動作が含まれているが,上記の先行研究のアノテーションでは,これらを個別に扱うことが出来ない.従って,調理動作結果を予測するためには,調理動作レベルのアノテーションが必要であり,率直な解決策としてはより密なアノテーションを用意することが考えられる.本稿では,レシピにおける調理動作後の物体\footnote{本稿では,物体は食材か道具のいずれかを指すものとする.}の状態の予測を目指し,新たにVisualRecipeFlow(VRF)データセットを提案する.\figref{fig:dataset-example}に示す通り,VRFデータセットは(i)調理動作による物体の視覚的な状態の遷移と(ii)レシピ全体のワークフローに対するアノテーションから成る.視覚的な状態遷移は動作前後に対応する観測の組として表現し,ワークフローは先行研究のレシピフローグラフ(Recipeflowgraph;r-FG)\cite{mori2014flow}を用いて表現する.ここで,観測の組はr-FG中の調理動作と紐づいており,これによって実世界とテキストのクロスモーダルな関係を考慮することが可能となる.また,ウェブサイトにてデータセット作成に用いたレシピのURLリストとダウンロードしたデータを基にデータセットを構築するスクリプトを公開している\footnote{\url{https://github.com/kskshr/Visual-Recipe-Flow}.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-3ia7f2.pdf}\end{center}\hangcaption{アノテーションの例.画像の組は物体毎の動作前後の観測を表しており,これらは手順リスト内の調理動作に紐づけられている.手順リスト内では,r-FGを用いて調理動作を含む表現間の依存関係を表現している.}\label{fig:dataset-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,本研究と関わりの深い研究として,手順書上での物体の状態遷移の追跡を行うものが存在する\cite{dalvi2018tracking,bosselut2018simulating,tandon2020dataset}.これは,各手順による実世界における影響を考慮することで,手順書の理解を目指したものである.本研究はこれらの流れを汲んだものでもあり,大きな違いは状態遷移をテキストでなく画像で表現している点にある.画像は物体の外観に関する情報を与えるため\cite{isola2015discovering,zhang2021mirecipe},先行研究と比較して実世界に関するより豊富な情報を提供することが期待される.また,調理の持つ逐次的な性質を活かし,大規模言語モデルの文書理解能力の評価\cite{srivastava2022beyond}や,vision-languageモデルのfew-shot設定における学習能力の評価\cite{alayrac2022flamingo}に用いることも考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{VisualRecipeFlowデータセット} label{sec:dataset}VisualRecipeFlow(VRF)データセットでは,レシピ上の物体の調理動作前後の状態を,視覚的なアノテーションを用いて表現する.ここで,物体や調理動作等の重要表現はレシピ固有表現(Recipenamendentity;r-NE)\cite{mori2014flow}を用いて識別される.また,r-NEを基に,レシピ全体のワークフローをレシピフローグラフ(Recipeflowgraph;r-FG)\cite{mori2014flow}を用いて表現する.本節では,まずr-FGについて概説し,その後,本データセットにおける視覚的なアノテーションの特徴について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Recipeflowgraph(r-FG)}r-FGは\figref{fig:dataset-example}に示すような非巡回有向グラフである.r-FGにおいて,点はr-NEによって識別された表現であり,辺は二つのr-NE間の依存関係をラベルを用いて表したものである.r-FGの特徴の一つとして,動作が必要とする物体を特定出来ることが挙げられる.例えば,\figref{fig:dataset-example}で動作``入れ''が対象とする物体``1''は手順1の生成物であり,細切りにしたキャベツとにんじんを指しているが,これはr-FGの辺を辿ることで特定可能である.また,本データセットでは,先行研究\cite{mori2014flow}と異なり,食材リストから手順リストへの依存関係もアノテーションしており,原材料の情報を考慮することも可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{視覚的アノテーション}視覚的アノテーションは,調理動作による物体の視覚的な状態遷移を表したものであり,動作前後に対応する画像の組として表現する.ここで,各画像の組は手順リスト中の調理動作に紐づいている.また,一つの調理動作が複数の物体を対象とする場合に関しては,\figref{fig:dataset-example}のように,物体毎に個別の画像の組を提供する.これによって,一動作が扱う物体が複数個ある場合にも,それらの状態遷移も捉えることが出来る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーション仕様} label{sec:annotation-standards}本節では,VRFデータセットを構成する各アノテーションについて説明する.アノテーションは,(i)レシピ固有表現(r-NE)の付与,(ii)レシピフローグラフ(r-FG)の付与,(iii),物体の動作前後の画像の付与の3段階から成る.また,各レシピは日本語で記述されており,それぞれ材料リスト,手順リスト,調理動画を備えていると想定する.\figref{fig:annotation-steps}にアノテーションの例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{r-NE}まず,材料リストと手順リスト中の表現に対して\pagebreakレシピ固有表現タグ(Recipenamedentity;r-NE)のアノテーションを行う.文は日本語テキスト解析機KyTea\cite{neubig2011pointwise}によって,事前に単語レベルに分割されているものとする.r-NEタグの定義に関しては,先行研究\cite{mori2014flow}に従い,\tabref{tab:r-NE-tags}に示す8種類のものを用いる.これらのうち,\textsf{Ac}(Actionbychef;Ac),\textsf{F}(Foods;F),\textsf{T}(Tools;T)の3タグは,調理動作に直接関わるという点で,本研究において重要な意味をもつ.また,材料リスト中における動作の表現(茹でた,スライス等)に関しては,調理作業の開始時点で既に完了しているものとし,動作(\textsf{Ac})ではなく食材の状態\textsf{Sf}(Stateoffoods;Sf)としてアノテーションする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4-->3\begin{figure}[t]\begin{center}\includegraphics{30-3ia7f4.pdf}\end{center}\caption{各アノテーション手順における例.アノテーションは前段階の結果をもとに行われる.}\label{fig:annotation-steps}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[p]\input{07table01.tex}%\caption{r-NEタグと各タグの付与数.}\label{tab:r-NE-tags}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[p]\input{07table02.tex}%\caption{r-FGラベルと各ラベルの付与数.}\label{tab:r-FG-labels}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{r-FG}次に,前段階でアノテーションしたr-NEを基に,r-FGのアノテーションを行う.ラベルは先行研究\cite{maeta2015framework}に従い,\tabref{tab:r-FG-labels}に示す13種類の依存関係ラベルを用いる.これらのうち,\textsf{Targ}(動作の対象)と\textsf{Dest}(動作の方向)は動作(\textsf{Ac}),食材(\textsf{F}),道具(\textsf{T})間の関係を記述するため,本研究において重要な意味をもつ.\figref{fig:fg-annotation-example}に材料リスト,手順リストに対するr-NE,r-FGのアノテーション例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3-->4\begin{figure}[t]\begin{center}\includegraphics{30-3ia7f3.pdf}\end{center}\caption{材料リスト,手順リストに対するr-NE,r-FGのアノテーション例.}\label{fig:fg-annotation-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{動作前後の画像の組}\label{sec:image-annotation}最後に,画像による物体の状態遷移のアノテーションを行う.画像は,調理動画から3FPSで抽出したものを用いる.アノテーション候補の画像が複数枚存在する場合は,対象の物体が最もはっきりと見えるものを選択する.また,調理動作が動画中に収録されていない場合や物体の大部分が手や道具に隠れている場合は,アノテーションを行わず,代わりに欠損値を記録する.従って,全ての状態遷移に対して2枚の画像がアノテーションされているとは限らない点に関して,注意が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーション結果} label{sec:annotation-results}本節では,まずデータ収集とアノテーション手順について説明し,アノテーションから得られた統計量について説明する.次に,アノテーションの品質の調査を行い,最後にデータセット評価のための実験とその結果について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション手順}\label{subsec:annotation-procedure}$200$記事の日本語レシピをクラシル\footnote{\url{https://www.kurashiru.com}(2021/12/14).}から収集した.ここで,既存のフローグラフコーパス\cite{mori2014flow}を用いない理由は,レシピを基にした調理動画が必ずしも存在するとは限らないためである.本レシピに付属する調理動画では,各調理の手順が固定カメラによって収録されているため,固定視点での物体の視覚的な状態遷移のアノテーションが可能である.\secref{sec:introduction}で述べた通り,本研究の目標は調理レシピを入力として受け取り,実世界で調理動作を実行するエージェントの確立である.しかし,調理レシピによっては複雑な手順が含まれることがある.そこで,本研究では手始めとして比較的手順が容易であるサラダのカテゴリを対象とし,調理レシピの収集,アノテーションを行った.本データセットの構築には複雑なアノテーションが要求されるだけでなく,対象とするデータの特性上,調理に関する経験が必要であると考えられる.従って,ここでは自然言語処理に関わるアノテーションと調理の経験を持つ1人のアノテータに依頼し,アノテーションを行った.アノテータの訓練は,既存のr-FGコーパス\cite{mori2014flow}から無作為に収集した20レシピを用い,それらにおけるr-NE,r-FGの既存のアノテーションとの一致率が80\%を超えるまでアノテーションを繰り返すことで行った.また,画像アノテーションの訓練に関しては,アノテーション対象である全体200レシピのうちの50レシピを用いて,10,20,50レシピのアノテーションが終了するごとに結果を確認し,仕様と異なる場合には修正の指示を出すことで行った.また,このとき,必要に応じてアノテーション仕様の修正を行った.先行研究\cite{mori2014flow}ではスプレッドシートに入力する方式でr-NEとr-FGのアノテーションを行っているが,この形式はコストが高く,手作業のために予期せぬアノテーションミスを生む可能性がある.従って,本研究では,フローグラフアノテーションのためのツールを開発し,これを用いてアノテーションを行った.なお,本アノテーションツールの実装はウェブ上にて公開済みである\footnote{\url{https://github.com/kskshr/Flow-Graph-Annotation-Tool}.}.\figref{fig:web-interface}にツールを用いたアノテーションの例を示す.全アノテーションには,計$120$時間を要した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-3ia7f5.pdf}\end{center}\caption{アノテーションツールを用いたアノテーションの例.}\label{fig:web-interface}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計量}収集したレシピには,合計$1,701$個の材料と$1,077$個の手順が含まれており,$1$レシピ平均$8.51$個の材料と$5.31$個の手順で構成されていた.また,全体を通して$89$種類の調理動作と$275$種類の材料表現が確認できた.r-NEとr-FGのアノテーション結果を\tabref{tab:r-NE-tags},\tabref{tab:r-FG-labels}にそれぞれ示す.表から,r-NEアノテーションでは$11,686$個のタグが,r-FGアノテーションでは$11,291$個のラベルが,それぞれ得られていることがわかる.視覚的アノテーション結果を\tabref{tab:image-annotation}に示す.表から,動作対象となる物体の総数は$3,705$であることがわかる.このうち,$2,551$例は動作前後共に,$485$例は動作後のみに,$72$例は動作前のみに,それぞれ画像を付与することが出来た.残りの$597$例に関しては,動作前後の双方ともに画像の付与が出来なかった.また,このアノテーションでは,合計$5,659$枚(重複なしで$3,824$枚)の画像を使用した.ここで,重複が発生しているのは,ある動作の動作後画像と次の動作の動作前画像が一致する場合があるためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション品質}アノテーションの品質を調査するため,\secref{subsec:annotation-procedure}とは別の,自然言語処理と調理の経験を持つアノテータに,データセット全体から無作為に収集した10レシピ(全体の5\%)\footnote{抽出した$10$レシピには,$623$個のr-NEタグ,$616$のr-FGラベル,$199$個の物体を対象とした画像の組が含まれていた.}のアノテーションを依頼し,それらの一致率を計算した.アノテータの訓練は,r-NEとr-FGに関しては\secref{subsec:annotation-procedure}と同様の手順で行い,画像アノテーションに関しては,\secref{subsec:annotation-procedure}で作成した仕様を元に,アノテーション対象外の5レシピにおけるアノテーション結果を確認,修正した.結果を\tabref{tab:annotator-agreement}に示す.ここでは,\secref{subsec:annotation-procedure}で得られたアノテーションを正解データとして捉え,それらの間の精度,再現率,F値を計算することで,一致率を算出した.r-NE,r-FGのアノテーションにおいては,それぞれ$98.40\%$,$86.11\%$という非常に高い一致率が得られた.また,画像アノテーションに関しては,$72.80\%$と前2段階のアノテーション結果と比較すると低い一致率となったが,前段階からのアノテーションミスの影響や,画像アノテーション時に複数の画像が候補となることを考慮すると,この値は十分に高いといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3and4\begin{table}[b]\begin{minipage}[b]{0.49\textwidth}\begin{center}\input{07table03.tex}%\caption{画像アノテーションの統計量.}\label{tab:image-annotation}\end{center}\end{minipage}\hfill\begin{minipage}[b]{0.49\textwidth}\begin{center}\input{07table04.tex}%\caption{アノテーション一致率.}\label{tab:annotator-agreement}\end{center}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{30-3ia7f6.pdf}\end{center}\hangcaption{検索タスクの例.調理動作と物体に対応するテキストの情報,動作前画像をもとに対応する動作後画像の検索を行う.この例では,赤枠で囲われている画像が正しい動作後画像である.}\label{fig:task-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験}\label{subsec:experiments}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タスク設定}データセットにおける各アノテーション要素の重要性について調査するため,マルチモーダルな情報検索のタスクを考え,実験を行った.このタスクでは,調理動作を表す動詞$a$と物体$o$のテキスト情報,動作前画像$i^{\text{pre}}$を基に,候補の画像の集合${i_1,i_2,\cdots,i_n}$から正解の動作後画像$i^{\text{post}}$を検索することを目指す.\figref{fig:task-example}に例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデル}\label{subsec:joint-embedding-model}まず,調理動作$a$,物体$o$のテキスト情報と動作前画像$i^{\text{pre}}$から,動画後画像に対応するベクトル表現の計算を行う.ここで,$a$と$o$はBiLSTM\cite{lample2016neural}を用いて$d_v$次元のベクトル$h_a$,$h_o$に変換する.この$h_a$,$h_o$はレシピ全体をBiLSTMでエンコードして得られる単語の分散表現のうち,$a$,$o$に対応する表現である.$a$,$o$が複数の単語からなる場合には,それらの平均を取ることで対応する分散表現を獲得する.$i^{\text{pre}}$は事前学習済みの畳み込みニューラルネット(ConvolutionalNeuralNetwork;CNN)を用いて$d_t$次元のベクトル$h^{\text{pre}}_i$を以下のように計算する.\[h^{\text{pre}}_{i}=W^{\text{pre}}_{1}\text{CNN}(i^{\text{pre}})+b^{\text{pre}}_{1}.\]ここで,$W^{\text{pre}}_{1}\in\mathbb{R}^{d_t\timesd_i}$,$b^{\text{pre}}_{1}\in\mathbb{R}^{d_t}$は学習可能なパラメータである.これらを基に,$\tilde{h}^{\text{pre}}$を以下のように計算する.\[\tilde{h}^{\text{pre}}=W^{\text{pre}}_{3}(\textrm{ReLU}(W^{\text{pre}}_{2}[h_a;h_o;h^{\text{pre}}_{i}]+b^{\text{pre}}_{2}))+b^{\text{pre}}_{3}.\]ここで$;$は結合を指し,$W^{\text{pre}}_{2}\in\mathbb{R}^{3d_t\times3d_t}$,$W^{\text{pre}}_{3}\in\mathbb{R}^{d_t\times3d_t}$,$b^{\text{pre}}_{2}\in\mathbb{R}^{3d_t}$,$b^{\text{pre}}_{3}\in\mathbb{R}^{d_t}$は全て学習可能である.最後に,$\tilde{h}^{\text{pre}}$を以下のように共有埋め込み空間上にマッピングする\cite{miech2018learning}ことで,動作後画像検索のための表現$\hat{h}^{\text{pre}}$を獲得する.\[\hat{h}^{\text{pre}}=\frac{f(\tilde{h}^{\text{pre}})}{||f(\tilde{h}^{\text{pre}})||_2}.\]ここで,\[f(h)=(W^{\text{pre}}_{4}h+b^{\text{pre}}_{4})\circ\sigma(W^{\text{pre}}_{5}(W^{\text{pre}}_{4}h+b^{\text{pre}}_{4})+b^{\text{pre}}_{5})\]である.また,$\sigma$はシグモイド関数であり,$\circ$は要素ごとの掛け算を指す.$W^{\text{pre}}_{4}\in\mathbb{R}^{d_e\timesd_t}$,$W^{\text{pre}}_{5}\in\mathbb{R}^{d_e\timesd_e}$,$b^{\text{pre}}_{4},b^{\text{pre}}_{5}\in\mathbb{R}^{d_e}$は全て学習可能である.動作後画像$i^{\text{post}}$は動作前画像と同様に,事前学習済みCNNを用いて$d_t$次元のベクトル$h^{\text{post}}_{i}$を以下のように計算する.\[\tilde{h}^{\text{post}}_{i}=W^{\text{post}}_{2}(\textrm{ReLU}(W^{\text{post}}_{1}\text{CNN}(i^{\text{post}})+b^{\text{post}}_{1}))+b^{\text{post}}_{2}.\]$W^{\text{post}}_{1},W^{\text{post}}_{2}\in\mathbb{R}^{d_i\timesd_i}$,and$b^{\text{post}}_{1},b^{\text{post}}_{2}\in\mathbb{R}^{d_i}$は学習可能であり,同様に共有埋め込み空間上へのマッピングを行う.\[\hat{h}^{\text{post}}=\frac{g(\tilde{h}^{\text{post}})}{||g(\tilde{h}^{\text{post}})||_2}.\]ここで,\[g(h)=(W^{\text{post}}_{3}h+b^{\text{post}}_{3})\circ\sigma(W^{\text{post}}_{4}(W^{\text{post}}_{3}h+b^{\text{post}}_{3})+b^{\text{post}}_{4})\]である.$W^{\text{post}}_{3}\in\mathbb{R}^{d_e\timesd_i}$,$W^{\text{post}}_{4}\in\mathbb{R}^{d_e\timesd_e}$,and$b^{\text{post}}_{3},b^{\text{post}}_{4}\in\mathbb{R}^{d_e}$は学習可能である.検索候補となる他の画像も同様に,上記の計算を経て共有埋め込み空間上へのマッピングを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{誤差関数.}共有埋め込み空間上での$\hat{h}^{\text{pre}}$,$\hat{h}^{\text{post}}$間の距離は以下のように計算する.\[D(\hat{h}^{\text{pre}},\hat{h}^{\text{post}})=||\hat{h}^{\text{pre}}-\hat{h}^{\text{post}}||_2.\]これを基に,$n$例のベクトルの組($(\hat{h}^{\text{pre}}_1$,$\hat{h}^{\text{post}}_1),\cdots,(\hat{h}^{\text{pre}}_n,\hat{h}^{\text{post}}_n)$)が与えられた時,以下の誤差関数の最小化を考える\cite{balntas2016learning}:\begin{equation}\mathcal{L}=\frac{1}{n}\sum^{n}_{i=1}\{\max(D_{i,i}-D_{i,j}+\delta,0)+\max(D_{i,i}-D_{k,i}+\delta,0)\}.\label{equ:triplet-loss}\end{equation}ここで,$D_{i,j}=D(\hat{h}^{\text{pre}}_i,\hat{h}^{\text{post}}_j)$であり,$\delta$はマージンを指す.$D_{i,i}$は$i$番目の正例のベクトル間の距離を表す.$D_{i,j}$は$h^{\text{post}}_i$の負例として$h^{\text{post}}_j$を,$D_{k,i}$は$h^{\text{pre}}_i$の負例として$h^{\text{pre}}_k$を,それぞれ用いた時の距離を表す.負例のサンプリングに関しては,ここでは単純にミニバッチ内から無作為に選択することを考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}\label{sec:exp-settings}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データ分割.}本実験では,アノテーションで得られた動作前後の観測のうち,その双方がアノテーションされている$2,551$例のみを用いた.全体の$200$レシピを$10$分割し,そのうち$1$分割($20$レシピ)をテストデータ,残りの$9$分割を結合したもの($180$レシピ)を学習データとして割り当てた.このテストデータに対応する分割を変更することで,後述する$10$分割交差検証を実現した.ここで,学習データ,テストデータに含まれるサンプル数はそれぞれ平均で$2296.8$例,$255.2$例であった.また,動作後画像の候補は,学習時はミニバッチ内の他の動作後画像を,テスト時にはテストセットに含まれる他の全ての動作後画像を,それぞれ用いた.各動作前後の画像のペアは手順リスト中の動作表現に紐付いているが,これを動詞のテキスト情報として用いた.また,物体のテキスト情報はこの動詞を終点とし,r-FGの\textsf{Targ}ラベルで紐付けられている始点の表現のうち,r-NEの\textsf{F}(食材)または\textsf{Ac}(調理者の動作)が振られているものを選択することで,自動的に特定し,用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデルパラメータ.}実験では1層で$256$次元のBiLSTMを用いてテキストのエンコードを行った.また,次元数に関しては,$(d_v,d_t,d_i,d_e)=(496,512,2048,128)$とした.事前学習済みCNNにはResNet-152\cite{he2016deep}を用い,$2048$次元の特徴量を画像から抽出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{最適化.}最適化手法として,AdamW\cite{loshchilov2019decoupled}を初期学習率$1.0\times10^{-5}$として用いた.学習中は,CNNのパラメータは固定した.各モデルの学習には,$4$レシピからミニバッチを構成し,$350$エポック分行った.\equref{equ:triplet-loss}の$\delta$は実験的に$0.1$に設定した.また,データセットのうち$90\%$を学習データに,$10\%$をテストデータに分割することで,$10$分割交差検証を行い,モデルの評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価指標.}評価指標として,Recall@5(R@5)とMedianrank(MedR)を用いた.ここで,R@5は検索結果の上位5件に正解画像が含まれている割合を調査するために,MedRは正解画像の候補画像中における順位を調査するために,それぞれ用いている.また,これらの指標はクロスモーダルな検索タスクの評価において,先行研究でも用いられている\cite{socher2014grounded,salvador2017learning,miech2019howto100m}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}動作後画像の検索に用いるテキスト情報($a$,$o$)と動作前画像($i^{\text{pre}}$)に関して,いずれか片方を用いる場合と両方を用いる場合を考え,それぞれ実験を行った.\tabref{tab:experimental-results}に実験結果を示す.1行目はランダムベースラインを表している.2行目と3行目の比較から,画像かテキストのいずれか一方を用いる場合では,画像を用いた方がより良いR@5(33.77)とMedR(12.60)を獲得出来ていることがわかる.次に,これらと4行目の比較から,画像とテキストの両方を用いることで,R@5で3.24,MedRで2.2の改善が得られていることがわかる.これらの結果は,動作後画像の検索において,画像はテキスト以上に重要な情報を与えていることを示唆している.また,テキストと画像を組み合わせることでさらなる改善が得られることから,テキストは画像とは異なる手がかりをモデルに与えていることが推察できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{07table05.tex}%\hangcaption{実験結果.テキストは調理動作と物体の表現を指している.また,枠内のチェックマークは動作後画像の検索に用いた要素を表している.}\label{tab:experimental-results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{考察}本タスクに残された課題としては,(i)動作前後で変化が少ない例と(ii)動作結果の画像の予測の際に,過去の動作を遡って解析する必要がある例への対処が挙げられる.(i)は例えば,「ドレッシングの材料をボウルに加える」等が対応する.この例では,加える食材に応じた動作結果の画像を検索できることが望ましいが,食材が塩や油などの場合,動作前後で見た目の変化が起こりにくいという問題があり,実際にこういった例に対しては,モデルによる検索の失敗が多く見受けられた.これの解決策としては,例えば,加える原材料の見た目や形状に関する特徴量を予め用意しておき,$\hat{h}^{\text{pre}}$の計算時に用いること等が考えられる.(ii)に関しては,物体のテキスト情報が過去の手順の番号\footnote{「1をボウルに加える」の「1」等.}や過去の動作\footnote{例えば,\figref{fig:fg-annotation-example}の手順2では,「入れる」と「混ぜ合わせる」の2つの動作が登場しているが,後者の動作に対応する物体のテキスト情報はr-FGの性質上,「入れる」となる.これは「入れる」という動作の生成物が「混ぜ合わせる」の入力となっていることを表している.}となる場合が挙げられる.これの解決策としては,例えば,対象の動作からフローグラフを逆に辿ることで,過去の動作やそれに含まれる食材の情報を利用することが考えられる.このとき,r-NEタグの情報を合わせて用いることで,物体の形状や原材料まで特定することが可能となる.また,NeuralProcessNetworks\cite{bosselut2018simulating,nishimura2021state}のように,食材の状態遷移を追跡する機構を用いて,実際の動作後画像の検索時に用いることも考えられる.さらに,これらの課題に加え,本実験で用いた以外のr-NEタグ,r-FGラベルの情報を用いてさらなる精度向上を図ることも期待できる.例えば,r-NEの\textsf{Sf}(食材の状態)タグやr-FGの\textsf{Dest}(動作の方向)は動作や物体に関するより細かい情報を提供できるため,モデルの検索精度向上に利用できる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{応用} label{sec:application}本節では,本データセットの応用先について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マルチモーダル常識推論}マルチモーダルな情報を用いた手順書の常識推論は近年注目を集めている研究の一つである\cite{zellers2019from,yagcioglu2018recipeqa,alikhani2019cite}.調理分野においては,食材の状態遷移に関する推論\cite{bosselut2018simulating,nishimura2021state}が存在する.この方向において,本データセットを用いることで,食材の視覚的な状態遷移を考慮した推論を行うことが可能となる.また,r-FGが表すワークフローを利用して,各調理動作がレシピ全体に与える影響について分析することも可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{手順書生成}画像や動画等,視覚的な情報からの手順書生成\cite{ushiku2017procedural,nishimura2019procedural}は,作業の再現性を高める上で重要なタスクであるといえる.ここで,正しく作業を再現するためには,生成された手順列が一貫性を持つことが重要である.r-FGは手順間の依存関係を表現するため,これを利用することで,より一貫した手順書の生成が行える可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} label{sec:conclusion}本稿では,調理レシピにおいて,調理動作後の物体の視覚的状態の予測を目指し,VisualRecipeFlowデータセットを提案した.データの収集方法やアノテーション手順について述べ,アノテータ間の一致率を測ることでデータセットの品質を調査した.また,マルチモーダルな情報を用いた情報検索タスクを考えることで,各アノテーション要素の重要性について調べた.最後に,本データセットの応用例として,マルチモーダル常識推論や手順書生成について述べた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP20H04210,JP21H04910,JP22K17983とJST,さきがけ,\linebreakJPMJPR20C2の助成を受けたものです.また,研究の過程でオムロンサイニックエックス株式会社の牛久祥孝氏にはご助言をいただきました.本論文の一部は言語処理学会第28回年次大会\cite{shirai2022recipe}およびThe29thInternationalConferenceonComputationalLinguistics(COLING2022)\cite{shirai2022visual}で発表したものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{白井圭佑}{%2017年愛媛大学工学部卒業.2020年京都大学大学院情報学研究科修士課程修了.現在同大学院博士課程.自然言語処理,マルチメディアに関する研究に従事.言語処理学会会員.}\bioauthor{橋本敦史}{%2005年京都大学工学部卒業.2013年京都大学大学院情報学研究科にて博士(情報学)取得.2012年より同大助手,2015年より同大助教として勤務.2018年よりオムロンサイニックエックス株式会社シニアリサーチャー.2021年より慶應義塾大学特任講師を兼任して現在に至る.主に機械学習,画像処理,および,料理や組立作業を対象とした人と機械のインタラクション理解に関する研究に従事.IEEE,IEICE,IPSJ各会員.}\bioauthor{西村太一}{%2019年九州大学芸術工学部卒業.2020年京都大学大学院情報学研究科修士課程修了.現在同大学博士課程.修士(情報学).マルチメディア,自然言語処理,コンピュータビジョンの研究に従事.学術振興会特別研究員(DC1).2023年言語処理学会論文賞受賞.}\bioauthor{亀甲博貴}{%2018年東京大学大学院工学系研究科博士課程修了.博士(工学).同年より京都大学学術情報メディアセンター助教.自然言語処理,ゲームAI等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{栗田修平}{%2013年京都大学理学部卒業.2015年同大学院理学研究科物理学教室修士課程修了.2019年京都大学大学院情報学研究科にて博士(情報学)取得.現在国立研究開発法人理化学研究所革新知能統合研究センター研究員.深層学習を用いた自然言語処理ならびにコンピュータビジョンの研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{森信介}{%1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授.2016年同教授.現在に至る.計算言語学ならびに自然言語処理の研究に従事.博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.2023年言語処理学会論文賞受賞.言語処理学会,情報処理学会,日本データベース学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V07N04-10
\section{はじめに} 近年の音声認識,および機械翻訳の性能向上に伴い,これらの統合である音声翻訳システムの実現を目指した研究活動が活発に行われている\cite{Waibel1996}\cite{Stede1997}\cite{Carter1997}\cite{Sumita1999}\cite{NEC2000}.音声認識,機械翻訳などの各要素技術の性能向上だけでは,システム全体の性能の向上に限界がある.特に,音声認識結果は誤りを含む可能性が依然として高く,このような誤り含みの認識結果を適切に翻訳することは重要な研究課題の一つである.音声認識と文字認識を用いる言語処理には,認識誤りに対する頑健性の確保という共通の課題がある.文字認識の分野では,認識結果に対するポストプロセス的な誤り訂正の方式が研究されている\cite{Takeuchi1999}\cite{Shinnou1999}\cite{Nagata1998}\cite{Kukich1992}.一方,音声認識においては,正解を含めるのに必要な認識(訂正)候補の空間は文字認識の場合に比べて巨大であり,さらに音声認識では多くの場合,実時間での処理が求められるため,同様なアプローチによって有効な結果を得ることは難しいと考えられる.大語彙連続音声認識においては,音響モデル,言語モデルの精度向上と,デコーディングの効率化をバランスよく統合するアプローチとして,第1パスで簡易なモデルによる探索を行ない,第2パスでより詳細なモデルを用いて再探索・再評価を行なうような2パス探索による方法が良く知られている\cite{Kawahara2000}.さらに,統語的制約の適用によって誤り部分に対する品詞列の訂正結果を得る手法\cite{Tsukada1998}や,ConfusionMatrixとLexiconTreeに基づいて語彙の訂正結果を得る手法\cite{Coletti1999}が提案されている.音声認識結果に対するポストプロセス的な誤り訂正のアプローチとして,文字N-gramと誤りパターンに基づく誤り訂正を行なう手法\cite{Kaki1998}があるが,このような誤り訂正のアプローチは文字認識と比べるとあまり一般的ではない.困難な誤り訂正を行なわず,認識結果の妥当性判断によってシステムの頑健性を高める手法も検討されている.例えば,認識結果に対するConfidenceMeasureに基づいて,認識結果の出力を判断する手法\cite{Moreau1999}や,構成素境界解析から計算される意味的距離に基づいて,認識結果の正しい部分のみを翻訳する手法\cite{Wakita1998}が提案され,頑健性を向上することが確認されている.我々は,人間が会話において,発話の聞き取りがうまくいかなかった場合でも,話題に関する知識などを元にその内容を推測して聞き誤りを回復するように,コーパス中の用例から,誤りを含んだ認識結果と類似した表現を探し,誤り部分の訂正に生かすアプローチを検討してきた\cite{Ishikawa1998}\cite{Ishikawa1999}.我々の手法は,訂正候補の妥当性を音韻と意味の両方の観点から判断するもので,評価実験によってその有効性が確認された. \section{提案手法} \subsection{処理の流れ}まず,提案手法における処理の全体の流れから説明する.ここでは,入力として``和室のほうですと18000円いずれ\underline{も税}サービス料は別になります''が発話され,音声認識結果として下線部に誤りを含んだ``和室のほうですと18000円いずれ\underline{の戦}サービス料は別になります''が得られた場合を想定する.図\ref{process-flow}にその訂正処理の流れを示している.以下,図中の各ステップごとに順を追って説明する.\begin{description}\item[I]{\bf認識結果の訂正必要性判断}\begin{description}\item[I-1]{\bf構文解析および意味距離計算}音声認識結果を入力として構文解析\cite{Furuse1999}を行ない,認識結果の構文解析木と意味的距離の値を得る.図の構文解析木の各ノードには意味的距離の値が示されており,これらの値の総和は$1.42$である.\item[I-2]{\bf意味的距離による訂正必要性判断}意味的距離に対して適切な閾値$\theta$を設定する.意味的距離の総和がこの閾値以下の場合は``訂正不要'',閾値より大きい場合は``訂正必要''と判断する.``訂正不要''の場合,入力に対する判断``訂正不要''と共に元の音声認識結果を出力する.本研究では意味的距離の閾値を$\theta=1.00$とした.図の音声認識結果に対する意味的距離の総和$1.42$は閾値$\theta$より大きいため``訂正必要''と判断される.\item[I-3]{\bf訂正箇所の特定}{\bfI-2}で``訂正必要''と判断された場合,全ての部分木のうち意味的距離の総和が閾値$\theta$を越えるものに対応する部分列を全て訂正箇所とする.図中では,部分木に対応する形態素列を,形態素列``和室のほうですと18000円いずれの戦サービス料は別になるます''上に領域$1\sim8$として示している.これらの領域のうち,部分構造に対する意味的距離の総和が閾値$\theta=1.00$を超える領域$2,5,6,7,8$が訂正箇所である.\end{description}\item[II]{\bf訂正候補の作成}\begin{description}\item[II-1]{\bfテキストコーパスからの用例検索}{\bfI-3}で求められた訂正箇所に対してテキストコーパスから訂正箇所と音韻的に類似した部分を含む用例を検索する.図の訂正箇所5``\fbox{いずれ\underline{の戦}サービス料}''に対しては,類似した文字列を含む用例``\fbox{いずれ\underline{も税}サービス料}は別になるますので''が検索される.\item[II-2]{\bf訂正箇所の用例との置換}認識結果の訂正箇所を,用例文の対応箇所と置換し,訂正候補を得る.認識結果の訂正箇所5``\fbox{いずれ\underline{の戦}サービス料}''が,{\bfII-1}によって得られた用例の対応箇所``\fbox{いずれ\underline{も税}サービス料}''との置換により訂正され,訂正候補``和室のほうですと18000円\fbox{いずれ\underline{も税}サービス料}は別になるます''を得る.\item[II-3]{\bf音韻的距離による妥当性判断}音韻的距離に対して適当な閾値$\delta$を設定する.{\bfII-2}で得られた訂正候補と音声認識結果の間の音韻的距離を計算し,その値が閾値$\delta$を越える候補は妥当性が低いと判断し,排除する.本研究では音韻的距離の閾値として$\delta=0.3$を用いている.図中の訂正候補に対する音韻的距離は$0.05$であるため,妥当と判断される.\end{description}\item[III]{\bf訂正候補の妥当性判断}\begin{description}\item[III-1]{\bf構文解析および意味距離計算}{\bfII-3}で音韻的に妥当と判断された訂正候補に対して図中,訂正箇所5に関して得られた訂正候補の``意味的距離の総和''$0.00$を得る.\item[III-2]{\bf意味的距離による妥当性判断}意味的距離の総和が閾値$\theta$を越える候補は妥当性が低いと判断し,排除する.訂正候補が全て排除された場合,入力に対する判断``訂正不可''と共に音声認識結果を出力する.図の訂正箇所5に関して得られた訂正候補の意味的距離の総和$0.00$は,意味的距離の閾値$\theta=1.00$より小さいため,妥当と判断される.\item[III-3]{\bf訂正結果の出力}{\bfIII-2}で妥当と判断された訂正候補が存在する場合,入力に対する判断``訂正可能''と共に音韻的距離が最小のものを訂正結果として出力する.図中,日英音声翻訳において,音声認識結果からの翻訳結果,および訂正結果(訂正箇所5に関して得られた訂正候補と同一)からの翻訳結果を示している.音声認識結果からの翻訳における下線部の誤りは,日本語認識結果における下線部の誤り``\fbox{いずれ\underline{の戦}サービス料}''に起因しているが,``\fbox{いずれ\underline{も税}サービス料}''と訂正されることにより,日本語正解文の意味が適切に伝わる翻訳結果を得る.\end{description}\end{description}\begin{figure}[hp]\begin{center}\atari(132,190)\caption{提案手法の処理の流れ}\label{process-flow}\end{center}\end{figure}\subsection{構文解析および意味的距離計算}{\bfI-1}および{\bfIII-1}の{\bf構文解析および意味距離計算}では,構成素境界解析\cite{Furuse1999}を用いている.この解析法は,入力文に対して,変項と構成素境界よりなる表層パタンの照合を行ない,入力と学習文の単語の意味的距離の値によって意味的妥当性を判断し,構造の曖昧性による候補の爆発を抑えながら構文木の構築をボトムアップに行う方法である.ここで,単語間の意味的距離としてシソーラス\cite{Kadokawa1981}上での意味属性の位置関係に基づいた$0\sim1$の値が用いられており,さらにパタンに対する意味的距離\footnote{図\ref{process-flow}中の構文木中の各ノードに示した数値}は,各変項の入力単語とパタンに定義された学習単語との意味的距離の合計で計算される.脇田等\cite{Wakita1998}は,誤りを含んだ音声認識結果に対してこの構成素境界解析を適用し,構文木と意味的距離から正解部分が特定できることを示している.また,音声翻訳における正解部分の特定にこの解析法を適用する利点として,次の3点を挙げている.(1)厳格な文法規則では扱いが難しい話し言葉特有の表現の受理に優れているため,文法規則から逸脱する部分を認識誤りと判断しやすい.(2)解析で扱う表現パターンは,音声認識の言語モデルとして用いられているN-gramより長く,より大局的な部分での妥当性が考慮される.(3)解析がボトムアップのため,誤りによって文全体の構文木が得られなくても,正解部分に対する結果が得られる.前節で述べた{\bfI-2}意味的距離による訂正必要性判断,{\bfI-3}訂正箇所の特定,および{\bfIII-2}意味的距離による妥当性判断の有効性は,構成素境界解析の持つ以上のような性質に基づいている.\subsection{テキストコーパスからの用例検索}{\bfII-1}の{\bfテキストコーパスからの用例検索}では,{\bfI-3}で求められた訂正箇所に対して音韻的に類似した部分を含む用例の検索を行なう.まず,テキストコーパス中から訂正候補の作成に有用な用例を大まかに絞り込む.具体的には,訂正箇所とテキストコーパス中の各用例の文字列近似照合を行なうことにより,訂正箇所に対して文字列に関する類似度(文字の一致率)が一定以上の部分を含むような用例が抽出される.\footnote{音韻的に類似度の高いものは,多くの場合文字列の類似度も高いため,音韻的に類似した用例の大まかな絞り込みには文字列近似照合が十分有効である.}このような文字列近似照合の手法としては,agrepに実装されているアルゴリズム\cite{Wu1992}がよく知られている.agrepは,grepの機能と同じように指定されたパターンを含む行を検索し出力するが,パターンと行の対応部分が完全に一致していなくても,それらの間の編集距離が閾値以下であればその行を出力する.ここでは,長い文字列の照合に関してより高速なY.Lepageの方式\cite{Lepage1997}を用いている.さらに,{\bfII-2}において{\bf訂正箇所の用例との置換}を行なうため,検索によって絞り込まれた用例の形態素単位での対応付けが必要となる.ここでは,用例の形態素列中の可能な部分列のうち,訂正箇所に対して形態素の編集距離が最小となる形態素部分列をDPマッチングによって求め,訂正箇所への対応部分とする.\subsection{音韻的距離の計算}{\bfII-3}の{\bf音韻的距離による妥当性判断}では,{\bfII-2}で得られた訂正候補の妥当性を,認識結果に対する音韻的距離に基づいて判断する.認識結果と訂正候補の間の音韻的距離は,認識結果の音素列を$s_1$,訂正候補の音素列を$s_2$とすると,音素列$s_1$と$s_2$の間の編集距離に基づいて次のように定義される.\begin{displaymath}音韻的距離(s_1,s_2)=\frac{編集距離(s_1,s_2)}{全音素数(s_1)}\end{displaymath}ここで,$編集距離(s_1,s_2)$は,DPマッチングによって計算される音素列$s_2$の音素列$s_1$に対する編集距離である.図中の訂正候補に対する音韻的距離の計算に関しては次のようになる.認識結果の形態素列``和室のほうですと18000円いずれ\underline{の戦}サービス料は別になるます''に対する認識結果の音素列$s_1$は``w\_a\_sh\_i\_ts\_un\_oh\_o\_od\_e\_s\_ut\_o18000\_e\_ngi\_z\_u\_r\_e\underline{{\bfn}\_o{\bfs}\_e\_{\bfng}}s\_a\_a\_b\_i\_s\_u\_r\_j\_o\_ow\_ab\_e\_ts\_un\_i\_n\_a\_r\_um\_a\_s\_u''であり,また訂正候補の形態素列``和室のほうですと18000円いずれ\underline{も税}サービス料は別になるます''に対する訂正候補の音素列$s_2$は``w\_a\_sh\_i\_ts\_un\_oh\_o\_od\_e\_s\_ut\_o18000\_e\_ngi\_z\_u\_r\_e\underline{{\bfm}\_o{\bfz}\_e\_{\bfe}}s\_a\_a\_b\_i\_s\_u\_r\_j\_o\_ow\_ab\_e\_ts\_un\_i\_n\_a\_r\_um\_a\_s\_u''である.認識結果に対する訂正結果の音素編集は,$挿入:0$,$削除:0$,$置換:3({\bfn}\rightarrow{\bfm},{\bfs}\rightarrow{\bfz},{\bfng}\rightarrow{\bfe})$であるから,音韻的距離は$3/58=0.05$となる.\subsection{訂正候補の妥当性判断}提案手法が用いている訂正候補の妥当性判断の考え方,および効果について説明する.図\ref{phonetic-relations}は,{\bf正解},{\bf認識結果},{\bf訂正結果}の音韻的距離における関係を摸式的に表している.$\odot$は{\bf正解},$\otimes$は{\bf認識結果},$\circ(a,...,e)$はそれぞれ{\bf訂正候補}を表す.{\bf正解}$\odot$と{\bf認識結果}$\otimes$の間の距離は,認識誤りによって生じた音韻的距離を表す.また,{\bf認識結果}$\otimes$と{\bf訂正候補}$\circ(a,...,e)$の間の距離は,訂正処理によって生じた音韻的距離を表す.訂正候補$\circ(a,...,e)$のうち,妥当なのは{\bf正解}$\odot$に最も近い$b$であると予想される.しかしながら,実際の音声翻訳において正解$\odot$は未知である.\begin{figure}[hbt]\begin{center}\atari(105,77)\caption{正解,認識結果および訂正候補の間の音韻的な関係(摸式図)}\label{phonetic-relations}\end{center}\end{figure}提案手法では,訂正候補の妥当性を次の仮定に基づいて判断する.\begin{description}\item[音韻的距離の仮定]ある値の誤り率を持つ認識結果に対して,その認識結果から一定の音韻的距離以内に正解が含まれるような音韻的距離の閾値が存在する.\item[意味的距離の仮定]ある意味的に妥当な認識結果に対して,その認識結果の意味的距離が一定の値以下となるような意味的距離の閾値が存在する.\end{description}(1)まず{\bf音韻的距離の仮定}に基づき,{\bf認識結果}$\otimes$からの音韻的距離がある閾値を越える{\bf訂正候補}は,正解には該当しないとして排除する.図の候補$a,c$は,{\bf認識結果}$\otimes$からある閾値以上(円外)にあるため,排除される.(2)次に{\bf意味的距離の仮定}に基づき,意味的距離がある閾値を越える{\bf訂正候補}は,意味的に妥当でないとして排除する.図の候補$d$は誤りが部分的,もしくは誤って訂正された不完全な訂正候補である.{\bf認識結果}からの音韻的距離は近いが,意味的距離の値が閾値より大きいため意味的妥当性が十分には回復していないと判断して排除する.(3)最後に,(1),(2)での条件を満たす{\bf訂正候補}が複数ある場合,その内音韻的距離が最小のものを最終的な訂正結果として出力する.図では,音韻的,意味的に妥当な候補$b,e$のうち,認識結果により近い候補$b$を最終的な訂正結果として出力する.このように,訂正候補に対して音韻的妥当性と意味的妥当性の異なる判断を組み合わせる事によって,妥当性判断における信頼性をより高める効果が得られる. \section{日英音声翻訳における誤り訂正実験} \label{section-JE-closed}\subsection{実験条件}表\ref{JE-closed-condition}の実験条件で,日本語音声認識結果に対する誤り訂正実験を行なった.テキストデータとして,ATR旅行会話データ中の618会話(異なり15,265発声)を使用した.テストセットは,テキストデータに含まれる日英機械翻訳の学習セット467発声を用いた.日本語音声認識の精度は,単語正解率:$68.0\%$,発声正解率:$31.5\%$であった.また,訂正処理では意味的距離の閾値は$1.0$,音韻的距離の閾値は$0.3$を用いた.\begin{table}\begin{center}\caption{音声翻訳における誤り訂正の実験条件}\label{JE-closed-condition}\begin{tabular}{|ll|}\hline日本語テキストデータ&旅行会話データ618会話(異なり15,265発声)\\日本語テストセット&旅行会話データ467発声(機械翻訳の学習セット)\\意味的距離の閾値&1.0\\音韻的距離の閾値&0.3\\\hline\end{tabular}\end{center}\end{table}\subsection{訂正判断の精度}前章での説明のように,提案手法では入力の音声認識結果に対して,{\bf訂正不要}(誤りを含まないので訂正は不要),{\bf訂正可能}(誤りを含むので訂正は必要であり,誤りに対する適切な訂正が可能),{\bf訂正不可}(誤りを含むので訂正は必要だが,誤りに対する適切な訂正は不可能),のいずれかの判断を下す.認識結果が正しい場合には,{\bf訂正不要}と判断され,誤りが含まれている場合には,{\bf訂正可能}もしくは{\bf訂正不可}と判断されるのが理想的といえる.ここで,テストセット467発声の音声認識結果に対する訂正判断の結果と認識誤りの有無の関係を表\ref{JE-closed-judgement}に示す.\begin{table}\begin{center}\caption{テストセットに対する認識誤りと訂正判断}\begin{tabular}{|c||c|c|c||c|}\hline入力の認識&訂正不要&訂正不可&訂正可能&合計\\\hline\hline誤りなし&147&0&0&147\\\hline誤りあり&172&85&63&320\\\hline\hline合計&319&85&63&467\\\hline\end{tabular}\label{JE-closed-judgement}\end{center}\end{table}``誤りなし''の認識結果に対してはすべて,{\bf訂正不要}と判断されている.一方,訂正が必要と判断した発声({\bf訂正可能},{\bf訂正不可}の発声の和)において,``誤りあり''の認識結果の再現率は46.3\%(148/320),適合率は100\%(148/148)である.また,訂正が必要と判断した発声のうち,{\bf訂正可能}であった発声の割合は42.6\%(63/148)である.これらの数値の大小のみで単純に誤り訂正の有効性が結論されるわけではない.訂正が必要と判断されなかった誤りのある認識結果の中には,誤り訂正を行なわなくても発声の意味が十分理解できるような軽微な誤りのものが存在することが考えられ,また,{\bf訂正不可}と判断された認識結果の中には,誤りがひどいために正解の推定が困難で,誤り訂正が本質的に不可能なものが存在することが考えられるからである.\ref{subsection-JE-closed-4}節以降ではさらに,認識結果における誤りのひどさと訂正判断の関係,訂正結果の有効性等について,詳細な検討を行なう.\subsection{DPマッチングによる単語誤り率}音声認識における単語誤りの訂正前後での増減から誤り訂正の有効性を検証する.誤りの尺度として単語誤り率を導入し,認識結果と訂正結果における誤り率の比較を行なう.単語誤り率を,ここではDPマッチングを使って正解からの編集距離に基づいて定義する.単語の挿入(Ins),削除(Del),置換(Sub)に関する誤りの数をそれぞれ$N_{Ins}$,$N_{Del}$,$N_{Sub}$,正解の単語数を$N_{Ans}$とした時,単語誤り率Rは以下のように定義される.\begin{displaymath}単語誤り率R=\frac{N_{Ins}+N_{Del}+N_{Sub}}{N_{Ans}}\end{displaymath}\subsection{訂正前後での単語誤り率}\label{subsection-JE-closed-4}表\ref{JE-closed-R-rank}では,単語誤り率$R$の値を4段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)に分け,訂正前後での各訂正判断に対する発声の誤り率$R$に関する分布を示した.{\bf訂正不要},{\bf訂正不可}の発声に関しては訂正結果が出力されないので訂正前のみを示し,訂正後の結果は{\bf訂正可能}の発声とテストセット全体(``合計'')のみについて示す.\begin{table}\begin{center}\caption{発声の単語誤り率での分布}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}単語誤り率$R$&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline$R=0\%$&169&0&0&169&13&182\\\hline$0\%<R\leq20\%$&58&9&20&87&34&101\\\hline$20\%<R\leq40\%$&31&17&34&82&9&57\\\hline$40\%<R$&61&59&9&129&7&127\\\hline\end{tabular}\label{JE-closed-R-rank}\end{center}\end{table}まず,誤り率$R=0\%$の発声は,全て{\bf訂正不要}と適切な判断がなされている.誤り率$R=0\%$の発声が{\bf訂正不要}と判断された発声全体の半数以上(169/319)を占めている.\footnote{表\ref{JE-closed-judgement}と比較して誤りなしの発声が22発声増えている.DPマッチングの際に活用を標準形に直しているため,軽微な誤りが吸収されている.}しかし一方で,誤り率が$40\%$を越える発声のうち,61発声が{\bf訂正不要}と判断されている.これらの多くは,表面的には文の体裁を備えていることに特徴がある.以下の実例に示すような,元の発声とは別の意味になってしまう``空耳''のような誤りや,発声の一部が欠落した``聞き落し''のような誤りなどが含まれる.このような認識結果に対して,本手法では誤りである可能性(訂正の必要性)を判断するのは困難であり,{\bf訂正不要}と判断されている.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{``空耳'',``聞き落し''のような誤り}\\\hline正解:&いつのお泊りでしょうか\\認識結果:&{\bfえその通り}でしょうか\\\hline正解:&{\bfはいそうです}それではお待ちいたしております\\認識結果:&それではお待ちいたしております\\\hline\end{tabular}\end{center}また,誤り率が$40\%$を越える発声のうち,59発声が{\bf訂正不可}と判断されている.これらは,{\bf訂正不可}と判断された発声全体の7割近くを占めている.すなわち,{\bf誤りのひどい認識結果の多くに対して,本手法では訂正不可と判断している.}前章の{\bf訂正候補の妥当性の判断}で説明したように,訂正結果は音韻的距離が閾値以内の訂正候補から選ばれる.このため,誤りのひどい認識結果は,正解までの音韻的距離が閾値を越えてしまい,正解が音韻的妥当性によって訂正結果から除かれてしまうためである.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{誤りのひどい認識結果}\\\hline正解:&ただがんがんしてても起きてしばらくすると治るのですけど\\認識結果:&{\bfあとでお電話したと思うのを着て}しばらく{\bf都合の分}です{\bfよね}\\\hline\end{tabular}\end{center}しかしながら,誤り率が$0\%<R\leq40\%$の発声では,その7割近い54発声が{\bf訂正可能}と判断されている.{\bf訂正可能}の発声の誤り率は,訂正前では$20\%$あたりを中心に分布し,誤り率$20\%$以下の発声は$32\%$であるが,訂正後では$75\%$へ増加し,誤り率が改善されていることが分かる.実際に得られた訂正結果の例を以下に示す.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{訂正の実例}\\\hline正解:&シャトルバスは知っていますがタクシーを使いたいのです\\認識結果:&シャトルバス{\bfをして}いますがタクシーを使いたいのです\\訂正結果:&シャトルバスは知っていますがタクシーを使いたいのです\\\hline正解:&{\bfえ}ラスベガスからロサンジェルスまでの運賃はおいくらくらいですか\\認識結果:&ラスベガスからロサンジェルスまでの{\bf音痴な}おいくらくらいですか\\訂正結果:&ラスベガスから{\bfロサンゼルス}までの運賃はおいくら{\bfぐらい}ですか\\\hline正解:&はい祇園の辺りですねそういたしましたら加茂川ホテルはいかがでしょうか\\認識結果:&はい{\bf従来}ですねそういたしましたら加茂川{\bfお寺}はいかがでしょうか\\訂正結果:&はい{\bf従来}ですねそういたしましたら{\bf鴨川}ホテルはいかがでしょうか\\\hline\end{tabular}\end{center}一番目の例では,認識結果の誤り部分``シャトルバス{\bfをして}''が訂正され,正解と同一の訂正結果を得ている.二番目の例では,認識結果の誤り部分``ロサンジェルスまでの{\bf音痴な}''が訂正され,``{\bfロサンゼルス}までの運賃は''を得ている.訂正結果の``{\bfロサンゼルス}'',``{\bfぐらい}''は,正解と表記が微妙に異なるが,意味は同等である.三番目の例では,認識結果に誤り部分``加茂川{\bfお寺}'',``{\bf従来}ですね''が存在する.訂正結果では,前者は正解と同音の(表記は異なる)``{\bf鴨川}ホテル''に訂正され,後者は残っている.表\ref{JE-closed-R-rank}における{\bf訂正可能}の発声では,訂正後も誤り率が$20\%$以下程度のものが多く存在しているが,これらの中には二番目,三番目の例のような,正解との間に表記上の不一致が存在する正解に準じる訂正結果も含まれていると考えられる.\subsection{テストセット全体に対する単語誤り率}ここでは,入力全体に関する誤り率の訂正前後での変化に基づいて,訂正処理の有効性を検証する.テストセットの音声認識結果に関する単語誤り率を表\ref{JE-closed-dp-total}に示す.テストセット全体に対する単語誤り率は訂正の前後で$33.1\%$から$30.8\%$へ変化しており,$2.3$ポイントの改善が見られた.{\bf訂正可能}では,$30.5\%$から$18.1\%$へと変化しており,訂正の行なわれた発声に対しては,単語誤りをほぼ半減する効果が得られている.\begin{table}\begin{center}\caption{テストセット全体に対する単語誤り率}\begin{tabular}{|c|c|c||c||c||c|}\hline\multicolumn{4}{|c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\hline訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline26.1\%&54.0\%&30.5\%&33.1\%&18.1\%&30.8\%\\(689/2636)&(531/984)&(255/835)&(1475/4455)&(151/835)&(1371/4455)\\\hline\end{tabular}\label{JE-closed-dp-total}\end{center}\end{table}さらに,誤りの種類を``挿入'',``削除'',``置換''に区別し,誤り単語の品詞によって分類することにより,それぞれの誤りに対する訂正の効果の違いを調べる.訂正前後での挿入,削除,置換誤りに関する誤り単語数を品詞別に表\ref{JE-closed-recog-pos}に示す.ただし,``挿入''では認識結果(挿入後)の単語の品詞,``削除''では正解(削除前)の単語の品詞,``置換''では正解(置換前)の単語の品詞に基づいて分類した.また,品詞別の``その他''は,``感動詞'',``接頭辞'',``接尾辞''をまとめたものである.\begin{table}\begin{center}\caption{挿入,削除,置換誤りの品詞別誤り単語数}\label{JE-closed-recog-pos}\begin{tabular}{|c|c||c|c|c||c|}\hline&&\multicolumn{3}{c||}{訂正前}&\multicolumn{1}{c|}{訂正後}\\\cline{3-6}&誤り単語の品詞&訂正不要&訂正不可&訂正可能&訂正可能\\\hline\hline挿入&名詞&35&32&12&2\\\cline{2-6}&動詞&6&20&6&2\\\cline{2-6}&助動詞&12&18&7&0\\\cline{2-6}&助詞&22&24&12&6\\\cline{2-6}&形容詞&2&1&1&0\\\cline{2-6}&副詞&2&3&1&1\\\cline{2-6}&連体詞&0&0&0&0\\\cline{2-6}&接続詞&1&0&0&0\\\cline{2-6}&その他&8&4&1&0\\\cline{2-6}&合計&88&102&40&11\\\hline\hline削除&名詞&110&27&16&17\\\cline{2-6}&動詞&49&18&4&0\\\cline{2-6}&助動詞&77&21&8&8\\\cline{2-6}&助詞&103&30&18&16\\\cline{2-6}&形容詞&3&1&2&0\\\cline{2-6}&副詞&8&1&0&0\\\cline{2-6}&連体詞&2&0&0&0\\\cline{2-6}&接続詞&6&0&1&1\\\cline{2-6}&その他&29&5&10&9\\\cline{2-6}&合計&387&103&59&51\\\hline\hline置換&名詞&94&116&57&34\\\cline{2-6}&動詞&24&50&23&10\\\cline{2-6}&助動詞&26&36&15&8\\\cline{2-6}&助詞&34&78&47&21\\\cline{2-6}&形容詞&2&11&4&1\\\cline{2-6}&副詞&3&11&0&1\\\cline{2-6}&連体詞&2&5&3&1\\\cline{2-6}&接続詞&1&2&2&4\\\cline{2-6}&その他&18&14&5&9\\\cline{2-6}&合計&214&326&156&89\\\hline\end{tabular}\end{center}\end{table}まず,それぞれの訂正判断での誤りの種類の割合を見ると,{\bf訂正不要}の発声では削除誤りが全体の半数以上を占めている.これに対して{\bf訂正不可},{\bf訂正可能}では置換誤りが全体の半数以上を占めている.このことから,削除誤りに対する誤りの判断は難しく,見逃してしまう傾向が強いと考えられる.このことは,認識結果の実例で示したように,{\bf発声の一部が欠落した``聞き落し''誤りは訂正必要性の判断が困難である}という事実と一致している.次に,{\bf訂正不可}と{\bf訂正可能}での誤りの種類の割合を比較すると,挿入,削除,置換の比率はどちらもほぼ$1:1:3$であり,特に大きな差は認められない.しかし,単語誤り率は両者間で大きく異なっており,単語誤り率$R$が$40\%$を下回る発声の占める割合は,{\bf訂正不可}の方がはるかに大きい.このことから,{\bf認識結果の訂正可能性は,主に発声の単語誤り率によって決定される}と結論できる.さらに,{\bf訂正可能}での誤り単語数に関して訂正前後で比較すると,{\bf削除誤りは,挿入,置換と比べて訂正の効果が比較的小さい}.一方,挿入誤り,置換誤りに対する誤り単語数を訂正前後で比較すると,名詞,動詞,助動詞,助詞,形容詞など,品詞による偏りはそれほどなく全体的に減少していることが分かる.つまり{\bf内容語,機能語を問わず,品詞によらず効果がある}といえる.\subsection{翻訳文の主観評価}\begin{table}\begin{center}\caption{翻訳結果の評価基準}\label{trans-eval-rank}\begin{tabular}{clc}A&入力文の正解と完全に同じ意味にとれる\\B&入力文の正解とほぼ同じ意味にとれる\\C&入力文の正解の主要情報が部分的には伝わる\\D&入力文の正解の主要情報が伝わらない/誤解が生じる\\\end{tabular}\end{center}\end{table}ここでは,音声翻訳における訂正手法の有効性を検証するために,音声認識結果および訂正結果をもとに機械翻訳された日英翻訳の品質に対して主観評価を行なう.本研究では機械翻訳としてTDMT\cite{Sumita1999}を用いる.翻訳結果の主観評価では,翻訳結果から理解,伝達される発声の内容や情報が正しいかどうかを,入力の正解(原言語)と比較することによって判断する.評価者は,日英翻訳を専門とするアメリカ人ネイティブであり,各発声の認識結果および訂正結果に対する翻訳に関して,入力の正解(原言語)に基づく理解を基準として,表\ref{trans-eval-rank}に定義された評価値(A,B,C,D)のいずれかを選択する方法で評価を行なった.音声認識結果,およびその訂正結果を入力として翻訳システム(TDMT)を用いて得られた翻訳結果に関する主観評価を表\ref{JE-closed-trans-rank}に示す.ここで,``翻訳率''は各訂正判断に対する発声数全体$N_A+N_B+N_C+N_D$に対する,評価値A,B,Cの発声数の合計$N_A+N_B+N_C$の割合である.\begin{table}\begin{center}\caption{翻訳結果の評価値}\label{JE-closed-trans-rank}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}評価値&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hlineA&190&1&2&193&36&227\\\hlineB&35&5&10&50&11&51\\\hlineC&18&6&16&40&6&30\\\hlineD&75&73&35&183&10&158\\\hline\hline翻訳率:$\frac{N_A+N_B+N_C}{N_A+N_B+N_C+N_D}$&76.4\%&14.1\%&44.4\%&60.7\%&84.1\%&66.1\%\\\hline\end{tabular}\end{center}\end{table}まず,テストセット全体に対する翻訳率は訂正前後で$60.7\%$から$66.1\%$へ増加しており,$5.4$ポイントの改善が見られる.さらに,{\bf訂正可能}と判断された発声に関しては,$44.4\%$から$84.1\%$へ増加している.{\bf訂正可能}と判断された発声は訂正前で評価値Dが過半数を占め,翻訳結果の意味理解が不可能となるような,音声翻訳で致命的な誤りを含んだ音声認識結果が多く訂正の対象となっていることが分かる.また,訂正後では逆に評価値Aが過半数を占めていることから,訂正結果からの翻訳で,発声の内容や情報が正しく回復されていることが分かる.訂正後の評価値Aの発声は36発声であるが,これは表\ref{JE-closed-R-rank}での訂正後の誤り率$R=0\%$の13発声と比べて23発声多い.これは,訂正結果は正解に完全一致しないが,その翻訳結果が正解となるものが存在することを意味している.以下は,そのような実例である.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{正解に完全には一致しないが,翻訳結果は正解となる訂正結果}\\\hline正解:&恐れいりますがシングルルームは満室となっております\\認識結果:&恐れいりますがシングルルーム{\bfが増し}となっております\\訂正結果:&恐れいりますがシングルルーム{\bfが}満室となっております\\\hline正解翻訳:&"I'msorry,butsingleroomsarealloccupied."\\認識翻訳:&"I'msorry,butsingleroomsare{\bftheincrease}."\\訂正翻訳:&"I'msorry,butsingleroomsarealloccupied."\\\hline\end{tabular}\end{center}認識結果では,$(は\rightarrow{\bfが})$および$(満室\rightarrow{\bf増し})$の2単語に対して置換誤りが起こっており,後者は正しく訂正されているが,前者は残っている.ところが,訂正結果からの翻訳は,正解からのものと完全に一致している.訂正前後での単語誤り率$R$の変化は$25.0\%\rightarrow12.5\%$であるが,翻訳の評価値は,$C\rightarrowA$と完全に回復している.置換誤り$(は\rightarrow{\bfが})$がこの場合,発声の理解や翻訳を妨げなかったため,誤りとは判断されなかったのである.{\bf訂正不要}と判断された認識結果の中にも,表層的には正解に完全一致しないが,その翻訳結果は正解となるものが同様に存在している.評価Aの発声数は190であるが,これは誤り率$R=0\%$の発声数169や,表\ref{JE-closed-judgement}での誤りなしの発声数147より多い.訂正が必要という判断の精度は,{\bf誤りあり}の認識結果に対して計算すると適合率100\%,再現率42.3\%であったが,ここでの評価値Aの発声以外を訂正が必要な発声として計算すれば,適合率98.0\%(145/148),再現率53.3\%(145/273),さらに評価値Bまでの発声を{\bf訂正不要}として計算すれば,適合率87.8\%(130/148),再現率58.3\%(130/223)となる.主観評価は翻訳結果における発声の内容理解,情報の伝達可能性という観点に基づいているので,これらの適合率,再現率は音声翻訳タスクに対してより実質的な値を表しているといえる.\subsection{翻訳結果の単語誤り率に基づく評価}ここでは,すでに導入された単語誤り率$R$を翻訳結果の評価に用いる.このような,正解の翻訳と認識結果の翻訳の間での編集距離に基づく評価方法は,音声翻訳の自動評価方法として竹澤等\cite{Takezawa1999}が提案している.同様に,訂正前後の認識結果からの翻訳の単語誤り率$R$の比較により,翻訳結果における訂正の効果を議論することができる.テストセットの翻訳結果に対する単語誤り率$R$の値を4段階に分けて,各発声の誤り率$R$に関する分布を表\ref{JE-closed-trans-dp}に示す.主観評価の結果を示した表\ref{JE-closed-trans-rank}と比較すると,興味深いことに,発声数の分布の傾向がよく一致しており,誤り率$R$の各段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)と,主観評価の各評価値(A,B,C,D)がそれぞれ対応しているように見える.テストセット全体に対する誤り率$0\%\leqR\leq40\%$の発声の割合は,訂正前後で$58.2\%$から$64.5\%$へと$6.3$ポイント改善しており,主観評価での翻訳率と同様に,翻訳結果の誤り率でも訂正の効果が確認できる.\begin{table}\begin{center}\caption{翻訳結果の単語誤り率}\label{JE-closed-trans-dp}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}誤り率$R$&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline$R=0\%$&190&1&1&192&31&222\\\hline$0\%<R\leq20\%$&20&4&11&35&15&39\\\hline$20\%<R\leq40\%$&27&6&12&45&7&40\\\hline$40\%<R$&82&74&39&195&10&166\\\hline\hline$0\%\leqR\leq40\%$の割合&74.3\%&12.9\%&38.1\%&58.2\%&84.1\%&64.5\%\\\hline\end{tabular}\end{center}\end{table}また,翻訳結果での誤り率$R=0\%$の発声数が,表\ref{JE-closed-R-rank}での認識結果での値に比べて増えていることは,主観評価での傾向と一致し,表層的には正解に完全一致しないが翻訳結果は正解となるような訂正結果が存在することを裏付けている.このように,主観評価と単語誤り率$R$の評価の比較から,各翻訳結果に対する評価値と単語誤り率$R$の間には正の相関関係が存在することが予想される.テストセット全体に対する訂正後の各発声の翻訳結果について,その単語誤り率$R$と主観評価での評価値の間の関係を表\ref{JE-closed-trans-recog-correlation}に示す.表からは,対角成分への分布の偏りが見られる.特に,評価値Aと$R=0\%$,評価値Dと$40\%<R$の間に強い相関が現れていることが分かる.\footnote{ここで,誤り率$R$の段階の閾値は便宜的に決定したものであり,相関性を最大化するような最適化は行なっていない.}\begin{table}\begin{center}\caption{翻訳結果の評価値と単語誤り率の相関}\label{JE-closed-trans-recog-correlation}\begin{tabular}{|c||c|c|c|c|}\hline&\multicolumn{4}{c|}{評価値}\\\cline{2-5}誤り率$R$&A&B&C&D\\\hline\hline$R=0\%$&173&17&1&1\\\hline$0\%<R\leq20\%$&9&13&11&2\\\hline$20\%<R\leq40\%$&6&10&10&19\\\hline$40\%<R$&5&10&18&161\\\hline\end{tabular}\end{center}\end{table}ここで,評価値と誤り率の相関性を定量的にはかる尺度として,相関係数を導入する.2変量に関するn個の観測値$(x_i,y_i)(i=1,2,...,n)$に対して,相関係数$r$は以下のように定義できる.\begin{displaymath}r=\frac{\frac{1}{n}\sum^n_{i=1}\Deltax_i\Deltay_i}{\sqrt{\frac{1}{n}\sum^n_{i=1}\Deltax_i^2}\sqrt{\frac{1}{n}\sum^n_{i=1}\Deltay_i^2}}\end{displaymath}ここで,\begin{displaymath}\Deltax_i=x_i-\overline{x},\;\;\Deltay_i=y_i-\overline{y},\end{displaymath}\begin{displaymath}\overline{x}=\frac{1}{n}\sum^n_{i=1}x_i,\;\;\overline{y}=\frac{1}{n}\sum^n_{i=1}y_i\end{displaymath}さらに,それぞれ評価値(a,b,c,d)と単語誤り率$R$の段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)が与えられたある翻訳結果を,以下の2変量上の観測点と解釈し直す.\begin{displaymath}x=\alpha_xl_x+\beta_x,\;\;l_x=(0,1,2,3),\end{displaymath}\begin{displaymath}y=\alpha_yl_y+\beta_y,\;\;l_y=(0,1,2,3)\end{displaymath}$l_x$には,主観評価の各評価値(a,b,c,d)に対してそれぞれ(0,1,2,3),$l_y$には,誤り率Rの各段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)に対してそれぞれ(0,1,2,3)を与える.$\alpha_x$,$\alpha_y$,$\beta_x$,$\beta_y$は$\alpha_x\alpha_y>0$を満たす任意の実数であり,相関係数$r$は,これらの値に対し不変である.このような方法で計算された単語誤り率$R$と主観評価での評価値の間での相関係数は0.88であり,両者の間には明らかに相関関係が成り立っていると結論できる. \section{入力会話を含まないデータベースでの日英音声翻訳実験} \label{section-JE-db-open}\subsection{実験条件}ここでは入力会話を含まないデータベースを用いた際の提案手法の有効性を検証する.表\ref{JE-db-open-condition}の実験条件で,日本語音声認識結果に対する誤り訂正実験を行なった.先に\ref{section-JE-closed}章で行なった誤り訂正実験との比較のため,同一の認識結果(日英翻訳システムで学習済の467発話)を用いて行なった.用例データベースとしては,ATR旅行会話データ中の618会話から,{\bf入力467発声を含む41会話を除いた}577会話(異なり14,405発声)を使用した.訂正処理のパラメーターは,それぞれ意味的距離の閾値:$1.0$,音韻的距離の閾値:$0.3$を用いた.\begin{table}\begin{center}\caption{音声翻訳における誤り訂正の実験条件(入力会話を含まないデータベース)}\label{JE-db-open-condition}\begin{tabular}{|ll|}\hline日本語テキストデータ&旅行会話データ577会話(入力会話セットを含まない)\\日本語テストセット&旅行会話データ467発声(機械翻訳の学習セット)\\意味的距離の閾値&1.0\\音韻的距離の閾値&0.3\\\hline\end{tabular}\end{center}\end{table}\subsection{訂正判断の精度}テストセット467発声の音声認識結果に対する訂正判断の結果と認識誤りの有無の関係を表\ref{JE-db-open-judgement}に示す.{\bf訂正不要}の判断は,認識結果が同一であるため\ref{section-JE-closed}章での結果と一致している.一方,訂正処理が必要({\bf訂正不可},{\bf訂正可能}の和)と判断された発声に対して{\bf訂正可能}の発声の占める割合は12.2\%(18/148)である.これは,\ref{section-JE-closed}章での割合42.6\%(63/148)と比べて大幅に小さく,データベースの違いが反映されている.\begin{table}\begin{center}\caption{テストセットに対する認識誤りと訂正判断(入力会話を含まないデータベース)}\label{JE-db-open-judgement}\begin{tabular}{|c||c|c|c||c|}\hline入力の認識&訂正不要&訂正不可&訂正可能&合計\\\hline\hline誤りなし&147&0&0&147\\\hline誤りあり&172&130&18&320\\\hline\hline合計&319&130&18&467\\\hline\end{tabular}\end{center}\end{table}\subsection{訂正前後での単語誤り率}表\ref{JE-db-open-R-rank}では,単語誤り率$R$の値を4段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)に分け,訂正前後での各訂正判断に対する発声の誤り率$R$に関する分布を示した.テストセット全体の発声の分布からは,訂正の前後でほとんど変化が見られない.{\bf訂正可能}の発声に関しても同様の傾向であり,オープンなデータベースの実験では,{訂正の対象となる発声の割合が小さく,訂正の効果が誤り率に現れない}傾向にあると結論される.\begin{table}\begin{center}\caption{発声の単語誤り率での分布(入力会話を含まないデータベース)}\label{JE-db-open-R-rank}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}単語誤り率$R$&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline$R=0\%$&169&0&0&169&0&169\\\hline$0\%<R\leq20\%$&58&23&6&87&5&86\\\hline$20\%<R\leq40\%$&31&41&10&82&9&85\\\hline$40\%<R$&61&66&2&129&4&131\\\hline\end{tabular}\end{center}\end{table}表\ref{JE-db-open-dp-total}に示したテストセット全体に対する単語誤り率も,訂正によって$33.1\%$から$33.3\%$へと増加しており,オープンなデータベースによる訂正の有効性に関して否定的な結果である.しかしながら以下の例に示すように,実験で得られた訂正結果の中には,誤り率には訂正の効果は現れないが,意味的には正解と同等なものが得られている.\begin{table}\begin{center}\caption{テストセット全体に対する単語誤り率(入力会話を含まないデータベース)}\begin{tabular}{|c|c|c||c||c||c|}\hline\multicolumn{4}{|c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\hline訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline26.1\%&45.5\%&24.6\%&33.1\%&28.6\%&33.3\%\\(689/2636)&(736/1616)&(50/203)&(1475/4455)&(58/203)&(1483/4455)\\\hline\end{tabular}\label{JE-db-open-dp-total}\end{center}\end{table}この例では,正解での表現``スケジュールが知りたい''に対して,意味的に近い表現``スケジュール{\bfを教えていただきたい}''が訂正で用いられており,意味的には誤りが回復されているといえる.しかし単語誤り率で見ると,訂正によって$23.1\%(3/13)$から$30.8\%(4/13)$へと増加している.このことから,{\bf誤り率は正解との表層的な照合に基づくため,表層に現れない意味レベルでの訂正の効果を測ることはできない}ことがわかる.したがって,訂正の効果の有無を単語誤り率のみによって結論するのは不十分であるといえる.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{誤り率に現れないが意味的に有効な訂正(1)}\\\hline正解:&そこからラスベガスまでのバスのスケジュールが知りたいのです{\bfが}\\認識結果:&そこからラスベガスまでのバスの{\bfスケジュールし}たいのですが\\訂正結果:&そこからラスベガスまでのバスのスケジュール{\bfを教えていただきたい}のです\\\hline\end{tabular}\end{center}\subsection{翻訳文の主観評価}ここでは,オープンなデータベースを用いた訂正手法の音声翻訳における有効性を検証するために,音声認識結果および訂正結果をもとに機械翻訳された日英翻訳結果に対して主観評価を行なう.翻訳および評価方法については\ref{section-JE-closed}と同じ方法を用いた.音声認識結果,およびその訂正結果を入力として翻訳システム(TDMT)を用いて得られた翻訳結果に関する主観評価を表\ref{JE-db-open-trans-rank}に示す.\begin{table}\begin{center}\caption{翻訳結果の評価値(入力会話を含まないデータベース)}\label{JE-db-open-trans-rank}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}評価値&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hlineA&190&2&1&193&5&197\\\hlineB&35&12&3&50&3&50\\\hlineC&18&17&4&39&4&39\\\hlineD&75&99&10&184&6&180\\\hline\hline翻訳率:$\frac{N_A+N_B+N_C}{N_A+N_B+N_C+N_D}$&76.4\%&23.8\%&44.4\%&60.5\%&66.7\%&61.4\%\\\hline\end{tabular}\end{center}\end{table}まず,テストセット全体に対する翻訳率は訂正によって$60.5\%$から$61.4\%$へと$0.9$ポイントの改善が見られる.{\bfさらに,訂正可能と判断された発声に関しては,$44.4\%$から$66.7\%$へと増加している.}この結果は,先に示した認識結果に対する単語誤り率における傾向と相反している.このことは,表層的な誤り率には現れないが翻訳結果を意味レベルで回復するような訂正結果が存在することによって説明される.以下にそのような実例を示す.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{誤り率に現れないが意味的に有効な訂正(2)}\\\hline正解:&{\bfえ}ラスベガスからロサンジェルスまでの運賃はおいくらくらいですか\\認識結果:&ラスベガスからロサンジェルスまでの{\bf音痴な}おいくらくらいですか\\訂正結果:&ラスベガスから{\bfロサンゼルス}までの{\bf料金}はおいくら{\bfぐらい}ですか\\\hline正解翻訳:&"{\bfOh},howmuchisthefarefromLasVegastoLosAngeles?"\\認識翻訳:&"{\bfTone-deaf}fromLasVegastoLosAngeles\_\_{\bfhowmuchisit}?"\\訂正翻訳:&"Howmuchisthe{\bfcharge}fromLasVegastoLosAngeles?"\\\hline\end{tabular}\end{center}例は\ref{section-JE-closed}章で既に示した例と同じ認識結果であるが,ここではデータベース中に正解と一致する表現``運賃はおいくら''を含む用例が存在しないため,訂正では意味的に近い表現``{\bf料金}はおいくら''が用いられている.認識結果の単語誤り率は,訂正によって$23.1\%(3/13)$から$30.8\%(4/13)$へと増加しているが,訂正結果の翻訳結果は正解と意味的にほぼ同等であり,主観評価ではdからaへ改善している.\subsection{入力会話を含まないデータベースにおける問題}入力会話を含まないデータベースを用いた訂正では,入力の正解がデータベース中に用例として含まれることが保証されない.このような条件下では,(I)入力の誤りを適切に訂正するのに有効な用例がデータベース中に存在しないために訂正結果が得られない,もしくは,(II)不適切な用例の適用により,正解と意味の異なった訂正結果を得る,といった問題に直面する.前者は,訂正必要と判断された発声に対する訂正可能の発声の割合に顕著に現れており,また後者は,以下に示す実例の通りである.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{入力会話を含まないデータベースによる不適切な訂正結果(1)}\\\hline正解:&はいよく撮っていただけると思います\\認識結果:&はい{\bf約とっ}ていただけると思います\\訂正結果:&はい{\bf味わっ}ていただけると思います\\\hline正解翻訳:&"Yes,Ithink{\bfyou}couldtake{\bfaphotographwell}."\\認識翻訳:&"Yes,Ithinkcouldtake{\bfabout}."\\訂正翻訳:&"Yes,Ithinkyou{\bfcantaste}."\\\hline\multicolumn{2}{c}{入力会話を含まないデータベースによる不適切な訂正結果(2)}\\\hline正解:&すみません{\bfできれば}バス付の部屋がいいのですけども\\認識結果:&すみませんできればバス付の部屋{\bfない}のですけども\\訂正結果:&すみませんバス付の部屋{\bfは無い}のですけども\\\hline正解翻訳:&"Excuseme,{\bfifpossible},aroomwithabath{\bfisgood}."\\認識翻訳:&"Excuseme,ifpossible,{\bfthereisn't}aroomwithabath."\\訂正翻訳:&"Excuseme,{\bfthereisn't}aroomwithabath."\\\hline\end{tabular}\end{center}1番目の例では,``よく撮って''に対して認識結果は``{\bf約とっ}て''となっており,両者は音韻的に非常に近い.しかし,データベース中に正解の用例が含まれていないため,訂正結果では別の用例からの``{\bf味わっ}て''が用いられている.また,2番目の例では,``部屋がいい''に対して認識結果では``部屋{\bfない}''となっている.訂正結果ではこの誤り部分``部屋{\bfない}''を``部屋{\bfは無い}''に置換し,さらに``{\bfできれば}''を削除している.これらの訂正結果は,正解とは意味が異なるが,音韻的距離と意味的距離の判断に基づき妥当な訂正結果と判断されている.このような(1){\bf用例の不足による訂正の失敗},および(2){\bf意味の異なる誤った訂正の出力},といった入力会話を含まないデータベースで顕著な問題は,今後,{\bf用例の不足の解消}や{\bf訂正候補の妥当性判断の高精度化}などの課題として解決されて行かなければならない.\subsection{入力に対するデータベースのオープン性}実験では,入力会話を含まないデータベースを入力に対してオープンなデータベースとして用いている.ここで,我々は同一もしくは類似した用例がデータベース中の複数会話に出現することを仮定している.この{\bfデータベースにおける用例の冗長性の仮定}が著しく破られているとすると,誤り訂正実験において有用な結果は期待できない.入力に対してデータベース中に同一,もしくは類似した用例がどの程度存在するかを調べる方法としては,データベース中のすべての用例の中から,入力に対する類似度の高いものを求めるような方法が考えられる.入力と用例の類似度としては,DPマッチングを用いて計算される編集距離や,(連続)一致単語列の長さなどを用いることが考えられる.データベースのオープン性の評価は検討中であり,誤り訂正の効果と使用するデータベースのオープン性との関係については,今後さらに検証を行なっていく必要がある. \section{おわりに} 本稿では,テキストコーパスを用いた音声認識誤りの訂正手法を提案し,音声翻訳における有効性を実験的に検証した.訂正が必要と判断された発声に対して,実際に訂正が可能であるかどうかは,その誤りの程度と密接に関係していることが分かった.実験では,訂正が必要({\bf訂正不可},{\bf訂正可能}の和)と判断された発声のうち,単語誤り率が40\%以上の発声では9割近くが{\bf訂正不可}と判断されたが,単語誤り率が40\%未満の発声では逆に7割が{\bf訂正可能}と判断された.{\bf訂正可能}の単語誤り率では,$30.5\%$から$18.1\%$へと$12.4$ポイント減少しており,テストセット全体に対する単語誤り率でも,訂正の前後で$33.1\%$から$30.8\%$へと$2.3$ポイントの減少が見られた.すなわち,誤りのひどい発声に対する訂正は困難であるが,単語誤り率が40\%未満の発声に対しては有効な訂正結果が得られることが分かった.翻訳率でも,テストセット全体で$60.7\%$から$66.1\%$へと$5.4$ポイントの増加が見られ,誤り訂正によって翻訳の品質が向上することが確認された.また実際の音声認識を対象とした実験では,(I)誤り単語の品詞によらず有効であること,(II)``削除''誤りは``挿入''誤り,``置換''誤りと比べて効果が少ないことが確認された.今後,データベース中の用例のより効果的な利用方法を検討するとともに,認識結果の訂正必要性判断,および訂正候補の妥当性判断の精度向上を図る必要がある.後者に関しては,意味的距離,音韻的距離の他に,音響モデル,言語モデルの尤度の利用,さらに発話状況,会話ドメインなどの文外情報の利用などが考えられる.\acknowledgment本研究を行なうにあたり,貴重な機会を賜わりましたATR音声翻訳通信研究所の山本誠一社長,第3研究室の白井諭室長,また有意義なコメントを頂きましたATR音声翻訳通信研究所の皆様,角川類語新辞典を提供して頂きました角川書店に深く感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{paper-ishikawa}\begin{biography}\biotitle{略歴}\bioauthor{石川開}{1996年東京大学大学院理学系研究科物理学専攻修士課程修了.同年NEC入社.1997年ATR音声翻訳通信研究所出向.現在,NEC情報通信メディア研究本部,研究員.自然言語処理,音声翻訳の研究に従事.情報処理学会会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.1999年京都大学工学博士.ATR音声言語通信研究所主任研究員.自然言語処理,並列処理,機械翻訳,情報検索の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V23N03-02
\section{はじめに} \textbf{仮説推論}(Abduction)は,与えられた観測に対する最良の説明を見つける,論理推論の枠組みのひとつである.仮説推論は,自然言語処理や故障診断システムなどを含む,人工知能分野の様々なタスクにおいて古くから用いられてきた(NgandMooney1992;Blythe,Hobbs,Domingos,Kate,andMooney2011;Ovchinnikova,Hobbs,Montazeri,McCord,Alexandrov,andMulkar-Mehta2011;井之上,乾,Ovchinnikova,Hobbs2012;杉浦,井之上,乾2012).\nocite{Ng92,Blythe11,Ovch11,Inoue12,Sugiura12}自然言語処理への応用のうち,代表的な先行研究の一つにHobbsら\cite{Hobbs93}の\textit{InterpretationasAbduction}(IA)がある.Hobbsらは,語義曖昧性解消,比喩の意味理解,照応解析や談話関係認識などの,様々な自然言語処理のタスクを,一階述語論理に基づく仮説推論により統合的にモデル化できることを示した.詳しくは\ref{sec:abduction}節で述べるが,IAの基本的なアイデアは,\textbf{談話解析}(文章に対する自然言語処理)の問題を「観測された文章(入力文)に対し,世界知識(言語の知識や常識的知識など)を用いて,最良の説明を生成する問題」として定式化することである.最良の説明の中には,観測された情報の背後で起きていた非明示的な事象,共参照関係や単語の語義などの情報が含まれる.例文``{\itJohnwenttothebank.Hegotaloan.}''に対して,IAによる談話解析を行う様子を図\ref{fig:ia}に示す.まず,入力文の論理式表現が観測として,世界知識の論理式表現が背景知識として与えられ,背景知識に基づいて説明が生成される.例えば,$\mathit{go}(x_1,x_2)$(\textit{John}が\textit{bank}に行った)という観測に対して,$\mathit{issue}(x,l,y)\Rightarrowgo(y,x)$($x$が$y$に対して$l$を発行するには,$y$は$x$の所に行かなければならない)という因果関係(行為の前提条件)の知識を用いて,$\mathit{issue}(x_2,u_1,x_1)$(\textit{bank}が\textit{John}に対して何か($u_1$)を発行した)という説明を生成している.これは,非明示的な情報の推定に相当する.また,この非明示的な情報を根拠の一つとして生成された説明$x_1=y_1$(\textit{John}と\textit{He}は同一人物)は,共参照関係の推定に相当する.以上のようにIAでは,談話解析の様々なタスクが,説明生成という統一的な問題に帰着される.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f1.eps}\end{center}\hangcaption{仮説推論による談話解析の例.点線の四角は観測を,実線の四角は背景知識を表す.変数対を繋ぐ点線はそれらがその仮説において同一の変数であることを表す.青い吹き出しは推論中で用いられている背景知識の元となった世界知識を表し,赤い吹き出しは得られた仮説に対する解釈を表す.}\label{fig:ia}\end{figure}仮説推論は,以下の様な点で談話解析の枠組みとして適していると考えられる:\begin{enumerate}\item入力から出力が導かれるまでの過程が,解釈可能な形で得られる.すなわち,どのような仮説を立てて,どのような知識を用いて観測を説明しているかが,図\ref{fig:ia}のような証明木という形で陽に得られる.\item様々な種類の世界知識を統一的,かつ宣言的に記述し利用することができる.すなわち,どのような種類の知識であっても,その知識を解析にどう利用するかの手続きを定義する必要がなく,論理式として宣言的に記述するだけで談話解析に利用できる.\item語義曖昧性解消や照応解析,プラン認識など,談話理解の様々なサブタスクを一つのモデルに集約して解くことにより,サブタスク間の相互依存性を自然な形で考慮できる.図\ref{fig:ia}においても,照応解析と語義曖昧性の解消が同時に起こっていることが確認できる.\end{enumerate}IAを始めとした仮説推論に基づく談話解析の研究は,1990年代が全盛期であったが,近年になって再び注目を浴びつつある\cite{Blythe11,Ovch11,Inoue12,Sugiura12}.これには,大きく2つの背景があると考えられる.ひとつめに,仮説推論を実用規模の問題に適用できる程度の,大規模な世界知識を取り揃える技術が昔に比べて大幅に成熟してきたことが挙げられる\cite{fellbaum98,framenetII,Chambers09,Scho10}.例えば文献\cite{Ovch11}では,WordNet\cite{fellbaum98}とFrameNet\cite{framenetII}を用いて約数十万の推論規則からなる背景知識を構築し,含意関係認識のタスクにIAを適用している.ふたつめの背景には,計算機性能の向上や効率的な仮説推論エンジンが提案された\cite{Mulkar07,Blythe11,Inoue11,Inoue12,Yamamoto15,Schuller15}ことにより,大規模知識を用いた論理推論が計算量の面で実現可能になってきたことが挙げられる.例えば\cite{Inoue12}では,約数十万の推論規則からなる背景知識を用いて含意関係認識のデータセットに対して推論を行い,先行研究より大幅に高速な推論を行えたことが報告されている.しかしながら,仮説推論における計算コストの問題は未だ完全に解決されたとはいえないのが実情である.詳しくは\ref{sec:prob}~節で詳述するが,とりわけ,主格関係や目的格関係などの単語間の統語的依存関係を表すためのリテラル(便宜的に「機能リテラル」と呼ぶ.形式的な定義は\ref{sec:prob:mr}節で与える)が知識表現に含まれる場合(例えば,$\mathit{john}(j)\land\mathit{get}(e)\land\mathit{dobj}(e,l)\land\mathit{loan}(l)$における\textit{get}と\textit{loan}の目的格関係を表す$\mathit{dobj}(e,l)$),推論時間が増大するという問題がある.最新の仮説推論エンジンである\cite{Yamamoto15}では,A*アルゴリズムに基づいて説明の構成要素(\textbf{潜在仮説集合})を列挙し,仮説推論の問題を「説明の構成要素の組み合わせ最適化問題」へ変換したのち,整数線形計画ソルバにより最良の説明を求める.しかし,機能リテラルが知識表現に含まれる場合,(1)機能リテラルをもとにした推論により,潜在仮説集合の中に,最良の説明になりえない構成要素が多く入り込んでしまい(例えば,$\mathit{foolish}(e_1)\land\mathit{smart}(e_2)\land\mathit{nsubj}(e_1,x)\land\mathit{nsubj}(e_2,y)$から,$e_1=e_2$を導く),組み合わせ最適化問題のサイズが無用に肥大化し,推論時間が増大する,(2)潜在仮説集合の生成をガイドするヒューリスティック関数の精度低下が起きてしまい,潜在仮説集合の生成における計算効率が低下する,という問題が起こる.このように,実タスクへの適用は未だ困難な状況であり,前述のような利点が本当にあるかどうか,検証する環境が完全に整っていない状況である.以上のような背景を踏まえ,本論文では,知識表現に機能リテラルを含む仮説推論において,機能リテラルの性質を利用して潜在仮説集合の生成手続きを改良し,効率的に最適解を求め,かつヒューリスティック関数の精度低下を抑制する手法を提案する.より具体的には,一つ目の問題に対しては,潜在仮説集合の生成を行う際に,最良の説明になりえない説明を事前チェックするように潜在仮説集合の手続きを拡張する.例えば,矛盾する二つの事象を等価とみなす説明の構成要素を生成する推論(前述の$e_1=e_2$など)を禁止することで,潜在仮説集合の肥大化を防ぐ.また,二つ目の問題に対しては,ヒューリスティック関数の中で,より良い説明の構成要素を優先的に探索するために用いられる\textbf{述語グラフ}の生成手法を工夫することにより対処する.問題の原因は,背景知識に頻出する機能リテラルがハブとなり,あらゆる説明の構成要素の候補が最良の説明の生成に寄与すると誤って判断されてしまうことにある.これに対し,述語グラフにおいて機能リテラルに繋がる一部の枝を適切に排除することにより,解の最適性を保持しながらヒューリスティック関数の精度を上げる手法を提案する.本論文における具体的な貢献は次の3点である.一つ目に,仮説推論の最新の実装であるA*-basedAbduction\cite{Yamamoto15}の手法に前述の枝刈りを導入する方法を示し,機能リテラルを知識表現に含む場合でも推論の規模耐性を維持する方法を示す.二つ目に,機能リテラルの性質に基づく探索空間の枝刈りが,ある条件のもとでは本来の解を損なわないことを示す.三つ目に,大規模な知識ベースと実在の言語処理の問題を用いて,A*-basedAbduction\cite{Yamamoto15}のシステムとの推論時間の比較を行い,提案手法を評価する.本論文での実験においては,提案手法が\cite{Yamamoto15}のシステムと比べ数十〜数百倍ほど効率的に解仮説が得られていることが確かめられた.仮説推論に基づく談話解析の枠組みを実タスクへ適用する上で,効率的な推論アルゴリズムの確立は必須の要件である.本研究の成果により,仮説推論に基づく談話解析の研究を進めるための環境整備が大きく前進すると考えられる.以降の節では,まず仮説推論とその実装に関する先行研究について述べたあと(2節),本論文で取り組む問題について述べ(3節),提案手法について説明する(4節,5節).次に,提案手法と既存手法の比較実験の結果について報告し(6節),最後に今後の展望を述べる. \section{背景} 本節では,本論文の提案手法の基になっている種々の既存研究,すなわち仮説推論およびその実装に関して説明する.\subsection{仮説推論}\label{sec:abduction}仮説推論とは,与えられた観測に対して最良の説明を求める推論である.本論文では,仮説推論の意味表現として一階述語論理\footnote{本論文では,読者が一階述語論理の基礎知識を有することを仮定する.一階述語論理の解説書については,例えば\cite{Nienhuys97}等を参照されたい.}を用い,仮説推論の形式的な定義を次のように与える.なお,本論文では関数記号のない(function-free)一階述語論理を用いるものとし,全てのリテラルは論理変数,定数,スコーレム定数を引数に取る.\begin{description}\item[Given:]背景知識$B$,観測$O$.ただし,$B$は含意型の一階述語論理式の集合であり,各論理式の前件および後件にはリテラルの連言のみを許容する.各論理式の前件に含まれる論理変数は全称限量されており,前件に含まれない論理変数は存在限量されているものとする.形式的には,各論理式は$\forallx_1,\ldots,x_n\[\existsy_1,\ldots,y_m\[p_1(x_1)\land\ldots\landp_n(x_n)\Rightarrowq_1(y_1)\land\ldots\landq_m(y_m)]]$と表現される.ここで,$x_i,y_i$はそれぞれ任意個数の引数列を表す\footnote{ただし,前件と後件の両方に含まれている変数については全称限量される.}.また,$O$は,一階述語論理リテラルおよび論理変数間の等価関係を表す等号あるいはその否定の連言であり,全ての論理変数は存在限量されているものとする.なお以降の記述では,$B$および$O$がそれぞれ矛盾を含まないことを前提とする.\item[Find:]仮説(または説明)$H$.$H$は,一階述語論理リテラル,および論理変数間の等価関係を表す等号・不等号の連言であり,$H\cupB\modelsO$および$H\cupB\nvDash\perp$を満たす\footnote{計算論理学の分野において現在主流となっているAnswerSetProgramming~\cite{Reiter87,Moore83,Gelfond88}の考え方に従えば,仮説の探索問題は,与えられた観測と背景知識から,観測を説明するようにあらゆるリテラルに対する真偽値割り当てを求める問題と見做すことができる.そのような文脈において本研究で扱う仮説推論は,仮説$H$にリテラル$l$または$\lnotl$が含まれていることが,リテラル$l$の真偽値にtrueまたはfalseが割り当てられている事に対応する.すなわち,仮説$H$に含まれないリテラルの真偽値は全て不定であると見做す.}.ここで$\models$は論理的含意を表し,$H$が$O$を\textbf{説明する},という.$\perp$は偽を表す.また,連言と集合は相互変換可能であるとし,連言$l_1\land\ldots\landl_n$とリテラル集合$\{l_1,\ldots,l_n\}$とも書けるものとする.\end{description}なお,本論文では背景知識,観測,仮説における限量子の記述は基本的に省略する.一般には,与えられた$B$と$O$に対して,複数の仮説$H_1$,$H_2,\ldots$が存在する.本論文では,それぞれの仮説$H_i$を{\bf候補仮説}と呼び,候補仮説$H_i$に含まれる各リテラル$h\inH_i$を$H_i$の{\bf要素仮説}と呼ぶ.また,可能な全ての候補仮説を$H\equiv\{H_1,H_2,\ldots\}$で表す.例えば図\ref{fig:ia}では,点線で囲まれたリテラルの集合($\mathit{john}(x_1)\land\mathit{go}(x_1,x_2)\land\ldots$)が観測$O$,実線で囲まれた論理式(例えば,$\mathit{issue}(x_2,u_1,x_1)\Rightarrowgo(x_1,x_2)$)が背景知識$B$の一部である.候補仮説として,例えば$H_1=\mathit{john}(x_1)\land\mathit{loan}(y_2),H_2=\mathit{john}(x_1)\land\mathit{issue}(u_2,y_2,y_1)\land\mathit{financial\_inst}(x_2)\land\mathit{loan}(y_2)$などが考えられる.仮説推論の目的は,何らかの評価指標のもとでの最良の候補仮説$\hat{H}$を見つけることである.この$\hat{H}$を{\bf解仮説}と呼び,形式的には次のように表す:\begin{equation}\hat{H}=\argmax_{H\in\mathbb{H}}\mathit{Eval}(H)\end{equation}ここで,$\mathit{Eval}$は候補仮説$H$の蓋然性を表す何らかの評価値を返す関数を表し,このような関数を{\bf仮説の評価関数}と呼ぶ.先行研究では,さまざまな評価関数が提案されている\cite{Hobbs93,Singla11,Inoue12b,Raghavan10}.例えば,代表的な評価関数の一つである重み付き仮説推論\cite{Hobbs93}は,「単純な(小さい)仮説ほど良い」という基本的な仮定に基いており,候補仮説の最小性を候補仮説の評価値として定義している.より具体的には,候補仮説の評価値$\mathit{Eval}(H)$は,$H$の要素仮説のコストの負の総和$-\sum_{h\inH}\mathit{cost}(h)$で定義される.要素仮説のコスト$\mathit{cost}(h)$の詳細な計算方法は\cite{Hobbs93}に委ねるが,基本的には,(1)要素仮説$h$が観測$O$を説明するのに要する背景知識の信頼度,(2)要素仮説$h$が他の要素仮説に説明されているか,の二つの要因を基にコストが決定される.本研究では,\ref{sec:prob}~節で示す仮説の整合性条件を保証する任意の評価関数を想定する.\subsection{潜在仮説集合に基づく候補仮説の表現}\label{sec:potential}$H\cupB\modelsO,H\cupB\nvDash\perp$を満たす全ての候補仮説を陽に列挙して最良の仮説を求めることは,時間・空間的計算量の観点で非現実的である.そのため,仮説推論エンジンの先行研究\cite{Inoue11,Inoue12,Yamamoto15}では,(1)観測からの後ろ向き推論によって各候補仮説を構成するリテラルの集合$P$を列挙するに留め,(2)$P$の要素の組み合わせ(部分集合)で暗に候補仮説を表現し,組み合わせ最適化問題を解くことで効率化を実現している.この$P$は,\textbf{潜在仮説集合}と呼ばれる.例えば,図\ref{fig:lhs}の例では,観測$O=\mathit{animal}(x)\land\mathit{bark}(e_1,x)$と背景知識より,潜在仮説集合$P=\{\mathit{cat}(x),\mathit{poodle}(x),\mathit{dog}(x),\mathit{dog}(y),x=y\}$を得る.この集合の要素の組み合わせ(例えば$\{\mathit{cat}(x),\mathit{dog}(x)\}$)が,一つの候補仮説に対応する.本研究では,この潜在仮説集合の生成方法を効率化する手法を提案するため,潜在仮説集合の生成手続きについて,より詳しく説明する.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f2.eps}\end{center}\caption{潜在仮説集合の例.背景知識は,図中の実線の四角で囲まれた4つの含意型論理式である.}\label{fig:lhs}\end{figure}まず,観測に含まれるリテラルの集合を初期状態として($P=O$),次のように定義される\textbf{後ろ向き推論}操作および\textbf{単一化仮説生成}操作を有限回だけ逐次適用することで,潜在仮説集合$P$を生成する.図\ref{fig:lhs}では,$P=\{\mathit{animal}(x),\mathit{bark}(e_1,y)\}$が初期状態となる.\begin{description}\item[後ろ向き推論]後ろ向き推論は,背景知識に含まれる含意型の論理式$p_1(x_1)\land\ldots\landp_n(x_n)\Rightarrowq_1(y_1)\land\ldotsq_m(y_m)$と,$\bigwedge_{i=1}^my_i\theta=y_i'$を満たす変数置換$\theta$が存在するようなリテラルの連言$q_1(y_1')\land\ldots\landq_m(y_m')$を含む潜在仮説集合$P$を入力として,前件部のリテラルの連言$\bigwedge_{i=1}^{n}\{p_i(x_i\theta)\}$を$P$に追加する操作である.本論文では,$q_1(y_1'),\ldots,q_m(y_m')$をそれぞれ$p_1(x_1\theta),\ldots,p_n(x_n\theta)$の{\bf根拠}と呼ぶこととする.図\ref{fig:lhs}では,背景知識$\mathit{cat}(x)\Rightarrow\mathit{animal}(x)$と$P=\{\mathit{animal}(x),\mathit{bark}(e_1,y)\}$を入力として,$\mathit{cat}(x)$を$P$に追加している.このとき,$\mathit{cat}(x)$の根拠は$\mathit{animal}(x)$である.\item[単一化仮説生成]単一化仮説生成は,同一の述語を持つリテラルの対$p(x_1,x_2,\ldots)$,$p(y_1,y_2,\ldots)$に対して,それらのリテラルの引数間の等価関係$x_1=y_1$,$x_2=y_2,\ldots$を潜在仮説集合$P$に追加する操作である.本論文では,$x=y$のような,単一化仮説生成操作によって仮説される論理変数間の等価関係を{\bf等価仮説}と呼ぶ.図\ref{fig:lhs}では,$P=\{\ldots,\mathit{dog}(x),\mathit{dog}(y),\ldots\}$に対して,本操作を適用し,$x=y$を$P$に追加している.\end{description}操作の適用回数の決め方には様々な基準が考えられるが,先行研究\cite{Inoue11,Inoue12,Yamamoto15}では,リテラルの\textbf{深さ}という概念を用いて,適用回数を制限している.\textbf{リテラル$l$の深さ}とは,$l$を潜在仮説集合に追加するまでに実行した後ろ向き推論の回数である.例えば,図\ref{fig:lhs}では,観測に含まれる全てのリテラルは深さ0であり,$\mathit{poodle}(x)$の深さは2である.先行研究では,後ろ向き推論を適用する対象をある深さ$d_\mathit{max}$までのリテラルに制限することにより,操作の適用回数の上限を決めている.このように操作の適用範囲を定めることは,再帰的な推論規則(例えば$p(x)\Rightarrowq(y)$と$q(y)\Rightarrowp(x)$)が背景知識に含まれる場合において,特に重要である.操作の適用回数が有限回であるならば,潜在仮説集合に含まれる各リテラルもまた有限回の後ろ向き推論によって仮説されたリテラルであるので,全ての候補仮説$H\in\mathbb{H}$について$H\cupB\modelsO$の決定可能性が保証される.また,アルゴリズムの停止性,および潜在仮説集合が有限集合であることについても同様に保証される.以上の議論に基づき,本研究においても以上の手続きによって生成された潜在仮説集合の部分集合を候補仮説として扱う.\subsection{仮説推論の実装に関する先行研究}まず,仮説推論の分野における代表的な実装としてはMulkarらのMini-TACITUS\cite{Mulkar07}が挙げられるが,これは計算量の面では非常に非効率であった.そのため,大規模知識を用いた仮説推論を行うにあたっては,より効率的な推論アルゴリズムが必要とされた.これを受けてBlytheらは,仮説推論の枠組みをMarkovLogicNetwork(MLN)\cite{Richardson06}の上で定式化する手法({\bfMLN-basedAbduction})を提案した\cite{Blythe11}.彼らは,仮説推論をMLN上で実装することによって,MLNの分野における成熟した最適化手法を仮説推論にも利用することを可能にした.これによりMini-TACITUSと比べ遥かに高速な推論が実現可能になった.そしてこれよりも更に高い効果をあげたのが,井之上らが提案した整数線形計画法(IntegerLinearProgramming,ILP)に基づく仮説推論({\bfILP-basedAbduction})であった\cite{Inoue11,Inoue12b}.井之上らは,仮説推論の問題を整数線形計画問題により定式化する手法を提案した.これにより,仮説推論において解仮説を導出する処理はそのままILP問題の最適解を導く処理と対応付けられ,外部の高速なILPソルバを利用することで解仮説を効率的に導出することが可能になった.文献\cite{Inoue12b}では,ILP-basedAbductionの枠組みがMLN-basedAbductionと比べても遥かに高速であることが実験によって定量的に示されている.Yamamotoらは,ILP-basedAbduction\cite{Inoue11,Inoue12b}における計算コストが潜在仮説集合の規模に強く依存することに着目し,背景知識における述語間の関連度を事前に推定しておくことで,ILP-basedAbductionの潜在仮説集合生成の手続きにおいて解仮説に含まれる見込みの無い要素仮説を潜在仮説集合から除外し,ILP問題の最適化にかかる時間を大幅に短縮する手法({\bfA*-basedAbduction})を提案した\cite{Yamamoto15}.しかしながら,\ref{sec:prob}節で示すように,A*-basedAbductionには,機能リテラルを含む知識表現において推論時間が増大するという問題がある.本研究は,我々が知る限り最も効率的な枠組みであるA*-basedAbductionを拡張する手法を提案するものである.A*-basedAbductionの詳細については\ref{sec:yamamoto15}節で述べる. \section{関係を表すリテラルに起因する計算非効率性} \label{sec:prob}本節では,\ref{sec:prob:mr}~節で示される意味表現と評価関数に基づくIAを先行研究の仮説推論エンジン\cite{Inoue11,Inoue12b,Yamamoto15}で実現する場合に生じる,潜在仮説集合の計算の非効率性について論じる.本節では,まず本研究が前提とする意味表現・評価関数について述べたあと(\ref{sec:prob:mr}節),既存研究の問題点について述べる(\ref{sec:prob:main}節).\subsection{本研究が前提とする意味表現と評価関数}\label{sec:prob:mr}仮説の評価関数は,\ref{sec:abduction}~節で述べたとおり仮説の良さを評価する関数であるが,「良さ」の因子には少なくとも,(1)仮説が表す情報の良さ,(2)仮説に含まれる意味表現の文法的正しさ(well-formedness),の二種類が考えられる.本研究は,これらに対してある前提が成立する状況での推論の非効率性を改善するものであるから,本節では,前提とする意味表現と,仮説の評価関数の概形について述べる.\paragraph{(1)意味表現}言語表現によって表される情報を,どのような論理式として表すかは重要な問題の一つである.特に,述語と項の関係の表現形式については,これまでに様々な議論が交わされてきた~\cite[etc.]{Davidson,Hobbs85,Mccord90,neodavidson,Copestake05}.述語項関係の表現形式の基本形としては,大きくDavidsonian形式~\cite{Davidson}とNeo-Davidsonian形式~\cite{neodavidson}があり,本論文ではNeo-Davidsonian形式の意味表現の利用を想定する.Davidsonian形式では,イベントの必須格をリテラルの項の順番に対応させる.例えば,例文``{\itBrutusstabbedCaesarwithaknife.}''を$\mathit{stab}(e,\mathit{Brutus},\mathit{Caesar})\land\mathit{with}(e,\mathit{knife})$のように表現する.ここでは$\mathit{stab}(e,\mathit{Brutus},\mathit{Caesar})$の1番目の引数が$\mathit{stab}$イベントそのものを参照する変数,2番目の引数がイベントの主格,3番目の引数がイベントの目的格に対応している.一方,Neo-Davidsonian形式では,全ての格関係を個別のリテラルとして記述する.例えば,前述の例文を$\mathit{stab}(e)\land\mathit{nsubj}(e,\mathit{Brutus})\land\mathit{dobj}(e,\mathit{Caesar})\land\mathit{with}(e,\mathit{knife})$のように表現する.ここで,$\mathit{stab}(e)$は$e$が$\mathit{stab}$イベントであることを,$\mathit{nsubj}(e,x)$はイベント$e$の主格が個体$x$であることを,$\mathit{dobj}(e,x)$はイベント$e$の目的格が個体$x$であることを表すリテラルである.本論文では,$\mathit{nsubj}(e,x)$や$\mathit{dobj}(e,x)$のような単語間の統語的な依存関係を表すリテラルを\textbf{機能リテラル}と呼び,その述語を\textbf{機能述語}と呼ぶ.一方,$\mathit{stab}(e)$などの,機能リテラル以外のリテラルを\textbf{内容語リテラル}と呼ぶ.また,ある機能リテラルの第一引数を他の内容語リテラルが引数に持つとき,その内容語リテラルを機能リテラルの\textbf{親}と呼び,逆にそのような内容語リテラルが存在しない場合には,その機能リテラルは\textbf{親を持たない}と表現する.例えば上の例において,$\mathit{stab}(e)$は$\mathit{nsubj}(e,x)$の親である.Neo-Davidsonian形式は,イベントに対する部分的な説明を表現できる(例えば$\mathit{police}(x)\Rightarrow\mathit{arrest}(e)\land\mathit{nsubj}(e,x)$のようにイベントの主格だけを取り上げた推論が記述できる)ことや,個々のイベントの必須格と任意格の境界を決める必要が無いなどの利点を持つ.自然言語の動詞は,動詞ごとに必須格・任意格が異なるため,実世界の様々な文を扱う上では,Neo-Davidson形式はDavidsonian形式よりIAに適した表現形式であると考えられる.以上の理由により,本論文ではNeo-Davidsonian形式の意味表現を想定する.ところで,上で述べたように,機能リテラルは言語表現における単語間の統語的依存関係を表すので,親を持たない機能リテラルは文法的に不正である.このことから本論文では,全ての観測が以下の条件を充足することを仮定する:\begin{itemize}\item[条件1.]全ての観測は親を持たない機能リテラルを含まない.\end{itemize}すなわち,この条件を充足しない観測は,元となった文が文法的に不正であると考えられるので,本研究ではそのような観測は入力として考えないものとする.\paragraph{(2)評価関数}次に,本論文で想定する評価関数の概形について述べる.まず第一に,仮説に含まれる等価仮説の正しさを評価することを前提とし,次のような条件として定義する:\begin{itemize}\item[条件2.]評価関数は,不正な等価仮説を含む候補仮説を解仮説として選択しない.\end{itemize}ここでの不正な等価仮説とは,同一事象を表し得ない変数間の等価仮説を指し,本論文ではこのような等価仮説を$e_1=^*e_2$と書く.\ref{sec:potential}節で述べたとおり,候補仮説の生成時には,同じ述語を持つリテラル対に単一化仮説生成を適用することにより等価仮説が生成される.このとき,例えば$\mathit{smart}(e_1)\land\mathit{foolish}(e_2)\lande_1=e_2$のように,同一でない二つの事象を表す論理変数が等価であるという候補仮説が生成されてしまう場合がある.条件2が満たされる限り,このような候補仮説は解仮説として選択されない.等価仮説が不正であるか否か,すなわちある2つの論理変数が同一事象を表し得るかどうかの判断については,変数の等価性について閉世界仮説\cite{raymond78}を仮定することで対応する.すなわち,ある論理変数対$a$,$b$が潜在仮説集合$P$において同じ型\footnote{ここでの型とは,型理論などにおける厳密な意味での型ではなく,説明上のアナロジーとしての型,すなわち対象の変数を引数として持つリテラルの述語を指す.}を持つ可能性が存在しないならば(すなわち同じ述語を持ち,単一化仮説生成によって等価仮説$a=b$を導くような内容語リテラル対が潜在仮説集合$P$に存在しないならば)等価仮説$a=b$は不正である($a=^*b$)とする.第二に,仮説に含まれる論理式の文法的正しさを評価することを前提とし,以下のような条件で表す:\begin{itemize}\item[条件3.]評価関数は親を持たない機能リテラルを含む候補仮説を解仮説として選択しない.\end{itemize}前述のとおり,親を持たない機能リテラルは文法的に不正であるので,本論文ではこの文法的正しさに関して,評価関数が条件3を満たしていることを前提とする.以降では,これらの条件1,2,3をまとめて\textbf{仮説の整合性条件}と呼ぶ.\subsection{機能リテラルに係る推論による計算の非効率化}\label{sec:prob:main}\ref{sec:prob:mr}~節で述べた意味表現と評価関数のもとで,先行研究の仮説推論エンジンを用いてIAを実現する場合,機能リテラルを根拠とした単一化仮説生成操作および後ろ向き推論操作により,解仮説に含まれることのない要素仮説が潜在仮説集合に追加され,推論時間を増大させてしまうという問題がある.例えば図\ref{fig:exprob1}では,観測に含まれる$\mathit{nsubj}(e_3,j)$と$\mathit{nsubj}(e_4,t)$に対して単一化仮説生成操作を適用することで,等価仮説$e_3=e_4$($\mathit{smart}$イベントと$\mathit{foolish}$イベントは同一事象),および$j=t$(JohnとTomは同一人物)が潜在仮説集合に追加されている.また図\ref{fig:exprob2}では,観測に含まれる$\mathit{smart}(e_1)$と$\mathit{foolish}$の主格を表すリテラル$\mathit{nsubj}(e_2,t)$を根拠として,$e_1=e_2$という仮定のもと知識適用を行い,$\{\mathit{study}(e_3),\mathit{nsubj}(e_3,t)\}$を潜在仮説集合に追加している.\begin{figure}[b]\begin{center}\includegraphics{23-3ia2f3.eps}\end{center}\caption{不適切な単一化仮説生成によって誤った解釈が導かれる例}\label{fig:exprob1}\end{figure}しかしながら,これらの推論は論理的には可能であるものの,\ref{sec:prob:mr}~節で述べた仮説の評価関数に関する前提より,これらの仮説が最良の説明として選択されることは無い.このような推論は同じ述語を持つリテラルに対して組み合わせ的に発生し(例えば,「$\textit{smart}\text{を述語に持つリテラルの数}\times\textit{nsubj}\text{を述語に持つリテラルの数}$」の分だけ発生する),かつ候補仮説の数は潜在仮説集合の規模に対して指数関数的に増大するため,計算負荷の観点において重大な問題であると考えられる.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f4.eps}\end{center}\caption{不適切な後ろ向き推論によって誤った解釈が導かれる例}\label{fig:exprob2}\end{figure}この問題の本質的な原因は,先行研究の潜在仮説集合生成手続き(\ref{sec:potential}~節)における各操作において,論理変数間の等価性の意味的な整合性を考慮できていないことにある.例えば図\ref{fig:exprob1}において,$\mathit{nsubj}(e_3,j)$と$\mathit{nsubj}(e_4,t)$に対する単一化仮説生成操作によって等価仮説$e_3=e_4$が潜在仮説集合に追加されるが,このとき,この等価仮説が不正かどうか(つまり,解釈「$\mathit{study}$であり,かつ$\mathit{mistake}$であるようなイベント$e_3(=e_4)$が存在する」が実現可能なものか)は考慮されていない.その結果,図\ref{fig:exprob1}のように,不正な等価仮説であっても,潜在仮説集合に追加されてしまう.本節で述べた問題は,意味表現としてNeo-Davidsonian形式を採用した場合に—すなわち述語と項の関係を$\mathit{nsubj}(x,y)$のように個別のリテラルとして表現した場合に起こる問題である.しかし,これに限らず,Hobbsらの研究\cite{Hobbs93}のように,名詞間の意味的関係(部分全体関係など)や統語的関係(複合名詞を構成する名詞間の関係など)を$\mathit{part\_of}(x,y)$や$\mathit{nn}(x,y)$のようなリテラルで表現する場合にも,上述のような問題が生じる.このようなリテラルは一階述語論理式で自然言語の情報を表す上で必要不可欠であり,本節で述べた問題はIAの研究において決して些末な問題ではない.このような問題に対し本論文では,\ref{sec:potential}~節で述べた潜在仮説集合生成に係る操作において等価仮説の生成を伴う場合,等価仮説が不正でない場合にのみ操作の適用を許すことで,解として選ばれない等価仮説を潜在仮説集合から除外する手法を提案する.例えば図\ref{fig:exprob1}における$\mathit{nsubj}(e_3,j)$と$\mathit{nsubj}(e_4,t)$に対する単一化仮説生成操作の適用時には,まず\ref{sec:prob:mr}~節で述べた基準により$e_3=e_4$の正しさをチェックする(つまり,$\mathit{study}$かつ$\mathit{mistake}$であるような事象が存在しうるか).ここで仮に「$\mathit{study}$と$\mathit{mistake}$が同一事象に成り得ない」ことがわかったとすると,$e_3=e_4$は不正な等価仮説であり,$e_3=e_4$が解仮説に含まれる可能性がないため,操作の適用を行わない.4節では,これらのアイデアに基づき,2.1節で説明した潜在仮説集合生成の手続きを拡張し,より効率的に潜在仮説集合を生成する方法を提案する.また5節では,これらのアイデアに基づき,A*-basedAbduction\cite{Yamamoto15}の計算効率を改善する手法を提案する.なお,以降の記述では便宜的に,機能リテラルは全て次のような形式をとるものとする:\begin{itemize}\itemアリティは2.\itemリテラルの第一引数が依存関係のgovernor,第二引数がdependentを表す.\end{itemize}自然言語における単語間の依存関係の多くは2項間関係として表されること,多項関係は一般に2項間関係の組み合わせとして一般化できることなどから,このように定義を限定した場合においても一般性は失われない. \section{等価仮説への制約による効率化} 本節では,\ref{sec:potential}~節で定義した後ろ向き推論操作,および単一化仮説生成操作に対して適用条件を付加することにより,不正な等価仮説を探索空間から除外する方法を提案する.\subsection{機能的述語の単一化に対する制約}\label{sec:cons-unify}2節で述べた通り,先行研究\cite{Inoue11,Inoue12,Yamamoto15}における単一化仮説生成の適用は,述語の同一性にのみ依拠している.しかしながら,\ref{sec:prob:mr}~節で述べた設定の下では,機能リテラル対に対する単一化仮説生成操作によって,不正な等価仮説が潜在仮説集合に追加されてしまう可能性がある.仮説の整合性条件が充足されているとすると,不正な等価仮説を含む仮説は解仮説として選択されないため,そのような仮説が候補仮説に含まれてしまうことは,推論効率の面で無駄が生じる.我々はこの問題に対処するために,機能リテラル対に対する単一化仮説生成を行う際に「それぞれのgovernor(第一引数)の論理変数の間の等価性を導く,不正でない等価仮説が既に仮説されていること」という条件を追加する.例えば図\ref{fig:exprob1}の観測における機能リテラル対$\mathit{nsubj}(e_3,j)$,$\mathit{nsubj}(e_4,t)$に対する単一化仮説生成の適用は,等価仮説$e_3=e_4$が潜在仮説集合に既に含まれている場合に限定する.これにより,親が互いに同一事象に成り得ない機能リテラル対は単一化仮説生成の対象とならず,不正な等価仮説が潜在仮説集合に追加されなくなるので,推論効率の向上が期待できる.より一般的には,潜在仮説集合$P$において,機能述語$d$を持つ機能リテラル対$d(x_1,y_1)$,$d(x_2,y_2)$に対して単一化可能性を認め,そこから導かれる等価仮説$x_1=x_2$,$y_1=y_2$を潜在仮説集合に追加するのは,$x_1$,$x_2$が同一の変数である場合か,等価仮説$x_1=x_2$が$P$に含まれている場合に限る.このような制約により,機能リテラル間の単一化仮説生成が適用されるのは,それぞれの機能リテラルが表す依存関係のgovernorが互いに同一である可能性がある場合に限定され,常に不正な等価仮説を導くような単一化仮説生成操作の実行を防止できる.この制約をどのようなアルゴリズムとして実装するかについては\ref{sec:cons-implement}節で述べる.\subsection{後ろ向き推論への拡張}\label{sec:cons-chain}後ろ向き推論操作についても,単一化仮説生成操作と同様の議論を行うことができる.本節ではそれを踏まえ,前節と同等の制約を後ろ向き推論操作にも課すことを考える.例えば図\ref{fig:exprob2}において,論理式$\mathit{study}(e_3)\land\mathit{nsubj}(e_3,t)\Rightarrow\mathit{smart}(e_1)\land\mathit{nsubj}(e_1,t)$による後ろ向き推論を連言$\mathit{smart}(e_1)\land\mathit{nsubj}(e_2,t)$に対して適用する場合について,この後ろ向き推論操作の適用条件として「潜在仮説集合に不正でない等価仮説$e_1=e_2$が含まれていること」を課す.これにより,不正な等価仮説を導く後ろ向き推論を潜在仮説集合の生成手続きから除外することができる.このとき,全ての後ろ向き推論に制約を課してしまうと,本来除外するべきでない推論が除外されてしまう場合があることに注意する必要がある.例えば図\ref{fig:chain}における後ろ向き推論に上の制約を課した場合,等価仮説$x_1=x_3$が潜在仮説集合に含まれていることが後ろ向き推論適用の条件となるが,等価仮説$x_1=x_3$を導くためにはその後ろ向き推論を実行する必要がある.そのため,上の制約を課した場合にはこの推論は探索空間から除外されてしまう.しかしながら,図\ref{fig:chain}の仮説は最終的には不正な等価仮説を含まないため,本来は除外するべきでない.以上の議論より本論文では,このような場合を引き起こしうる論理式を用いた後ろ向き推論については制約を課さないことによって,除外すべきでない候補仮説—すなわち不正な等価仮説を含まない候補仮説が探索空間から除外される事態を防ぐ.上のような場合を引き起こしうる論理式とは,具体的には,論理式の後件中の機能リテラルの親になっているリテラルが前件に含まれるような論理式である.そのような論理式を用いた後ろ向き推論については,制約の対象から除外する.例えば図\ref{fig:chain}の例では,後件の機能リテラル$in(x_1,x_2)$の第一引数$x_1$が前件のリテラル$\mathit{student}(x_1)$の引数に含まれており,$\mathit{student}(x_1)$は$in(x_1,x_2)$の親であると言えるので,この論理式を用いた後ろ向き推論については制約の対象としない.\begin{figure}[b]\begin{center}\includegraphics{23-3ia2f5.eps}\end{center}\hangcaption{探索空間から除外すべきではないにも関わらず,等価仮説の制約によって実行不可能になってしまう後ろ向き推論の例.}\label{fig:chain}\end{figure}以上のアイデアをより一般的に表そう.潜在仮説集合$P$において,含意型論理式$\bigwedge_{i=1}^np_i(x_i)\Rightarrow\bigwedge_{j=1}^mq_j(y_j)$を用いた後ろ向き推論を,$P$に含まれる連言$\bigwedge_{j=1}^mq_j(z_j)$に適用する場合を考える.ここで,述語$q_f$が機能述語であるようなインデックス$f$の集合を$F$とすると,この逆向き推論を適用するのは,$F$の各要素$f$が以下の条件のうち少なくとも一つを満たしている場合に限る:\begin{enumerate}\item$q_f(y_f)$の第一引数$y_f^1$を引数に持つリテラルが論理式の前件に存在する.すなわち$y_f^1\in\bigcup_{i=1}^nx_i$が成り立つ.\item論理式の後件の$c$番目にある内容語リテラル($q_c(y_c)$とおく)の任意の($i$番目の)引数$y_c^i$が$y_f^1$と同一であるとき,変数対$z_c^i$,$z_f^1$が同一であるか,もしくは潜在仮説集合に等価仮説$z_c^i=z_f^1$が含まれる.\end{enumerate}この条件を満たさない逆向き推論は,常に不正な等価仮説を導くので,探索空間から除外できる.この制約をどのようなアルゴリズムとして実装するかについては\ref{sec:cons-implement}節で述べる.\subsection{潜在仮説集合の生成手続きの拡張}\label{sec:cons-implement}\ref{sec:cons-unify}節および\ref{sec:cons-chain}節では,単一化仮説生成操作および後ろ向き推論操作の適用条件として,不正な等価仮説を生成しないことを条件とすることにより,不正な等価仮説が潜在仮説集合に追加されることを回避する手法を示した.本節では,これらの手法を実際にアルゴリズムとして実装する方法を議論する.まず,各操作の適用条件の充足性と,潜在仮説集合の状態は互いに依存しているため(つまり,適用条件の充足性は潜在仮説集合の状態で決まり,かつ潜在仮説集合の状態は各操作の適用条件の充足性により変化する),各操作に対する条件の充足性判定は,各操作の適用時に一度ずつ行うだけでは不十分である.なぜなら,潜在仮説集合を生成する過程において,ある時点では適用条件を充足せず適用不可能な操作であっても,その後の別の時点では,別の操作の適用により条件が充足され,適用可能となる場合があるからである.そのため,最終的に適用されなかった全ての操作が制約を充足しないことを保証できるよう,各操作に対する適用条件の充足性を漏れが無いように判定する必要がある.以上のような考えに基づき,\ref{sec:potential}~節で述べた潜在仮説集合の生成手続きを次のように変更する:\begin{enumerate}\item観測$O$を潜在仮説集合$P$に追加する.これが初期状態となる.\item潜在仮説集合$P$に対して適用可能な後ろ向き推論および単一化仮説生成操作を,A*-basedAbductionの手法に基いて網羅的に適用する.ただし,\ref{sec:cons-unify}~節および\ref{sec:cons-chain}~節で提案した適用条件を満たさない単一化仮説生成・後ろ向き推論は実行しない.制約条件を満たさずに実行されなかった単一化仮説生成・後ろ向き推論については,別の記憶領域$S$に保持しておく.\itemこの時点で$S$が空の場合は,潜在仮説集合の生成を終了する.\item$S$に含まれる単一化仮説生成操作および後ろ向き推論操作のそれぞれについて,再び制約を満たすかどうかの判定を行う.満たすのなら操作を適用し,$S$から除外する.\item手続き(4)において一つの操作も実行されなかった場合は潜在仮説集合の生成を終了し,そうでなければ手続き(2)に戻る.\end{enumerate}このような実装を採ることにより,最終的に適用されなかった操作については全て適用条件を満たさないことが保証される.\ref{sec:cons-unify}節および\ref{sec:cons-chain}節での議論より,適用条件を満たさない操作は不正な等価仮説を導くので,仮説の整合性条件より,これらの操作によって導かれる要素仮説が本来の解仮説に含まれることは無い.すなわち,等価仮説への制約を課す前後で解仮説が変化しないことが保証される. \section{A*-basedAbductionの効率化} \label{sec:stopword}機能リテラルを含む背景知識を用いた仮説推論をA*-basedAbduction\cite{Yamamoto15}に適用する際,探索空間の枝刈りの精度が著しく低下するという問題がある.本節ではそのような問題の解決策として,探索のガイドとして用いるヒューリスティック関数の計算方法を改良することにより,枝刈りの精度の低下を抑える手法を提案する.本節では,まずA*-basedAbductionについて説明し(\ref{sec:yamamoto15}~節),機能リテラルが引き起こす枝刈り精度低下の問題(\ref{sec:sw-prob}~節)と解決策(\ref{sec:sw-sw}~節)について述べる.\subsection{A*アルゴリズムに基づく仮説推論}\label{sec:yamamoto15}まず,A*-basedAbductionのベースとなるILP-basedAbduction\cite{Inoue11b,Inoue12b}について説明する.ILP-basedAbductionでは,まず観測と背景知識を入力として受け取り,それらに対して\ref{sec:potential}~節の潜在仮説集合生成手続きを適用し,潜在仮説集合を生成する.次に,潜在仮説集合と評価関数から,ILP問題を生成する.ここでは,仮説中での各リテラルの有無がILP変数の0-1値に,仮説に対する評価関数の値がILP問題の目的関数値に対応し,各リテラル間の論理的な依存関係はILP制約として表現される.最後に,ILPソルバ\footnote{lp\_solve(http://lpsolve.sourceforge.net)やGurobiOptimizer(http://www.gurobi.com)などがある.}を用いてILP問題を解くことにより,解仮説が得られる.A*-basedAbductionは,ILP-basedAbductionの潜在仮説集合の生成手続きをA*アルゴリズムに基づいて改良するものであり,解仮説に含まれる見込みが高い仮説を生成する操作を優先的に適用していくアルゴリズムである.より具体的には,まず事前準備として,背景知識における述語間の意味的な距離を評価しておく.ここでの述語間の意味的な距離とは,一方の述語から他方の述語に至る推論によって生じる評価関数値の増減量のヒューリスティックな見積もりである.同じ論理式に含まれる述語を互いに隣接関係にあると見なすと,図\ref{fig:heuristic1}のように節点を述語,枝を隣接関係とする無向グラフ(以後,\textbf{述語グラフ}と呼ぶ)が得られる\footnote{論理プログラミング分野の慣習に従い,アリティ(引数の数)がnであるような述語pを$p/n$と表す.}.述語間の意味的な距離は,このグラフにおける距離—即ち述語間を繋ぐ枝の長さの総和として与えられる.各枝の長さは,枝に対応する知識ごとに自由に定義できる\footnote{一般には,後ろ向き推論に用いた時に評価値が大きく減少する知識ほど,対応する枝の距離が長くなるように定義する.例えば重み付き仮説推論では,知識に割り当てられた重みを述語グラフ上での距離として用いる.}が,本論文では議論の簡単のために全ての枝の長さを1と定める.このとき述語グラフにおける述語間の距離は,一方の述語から他方の述語に至る推論の段数と一致する.例えば図\ref{fig:heuristic1}によれば,図\ref{fig:ia}の背景知識において,述語$\mathit{bank}$,$\mathit{issue}$を持つリテラル同士を推論で繋ぐには最低でも3つの論理式を経由しなければならず,また述語$\mathit{he}$,$\mathit{money}$を持つリテラル間を結びつけるような推論は存在しない事が分かる.述語グラフの構造は背景知識にのみ依存するので,あらゆる述語対に対する距離を事前に計算しておき,行列として保持しておくことが可能である.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f6.eps}\end{center}\caption{図\ref{fig:ia}の背景知識に対応した無向グラフ}\label{fig:heuristic1}\end{figure}次に,述語グラフに基づいて後ろ向き推論操作の良さを見積もりながら,潜在仮説集合の生成を行う.A*-basedAbductionの潜在仮説集合の生成手続きでは,「単一化仮説生成に寄与しないリテラルは解仮説に含まれない」という前提に基づき,解仮説に含まれる見込みがあるリテラル,すなわち単一化仮説生成に寄与しうるリテラルを仮説する後ろ向き推論操作のみを,評価関数の増減量の見込みがより高いものから優先的に実行していく.より具体的には,述語グラフにおける述語間の距離をA*アルゴリズムにおけるヒューリスティック関数として用いて,観測中の個々のリテラルから他のリテラルに至る推論を探索\footnote{この探索においては,始点と終点は観測リテラルであり,始点からあるリテラルまでの移動距離は,述語グラフと同様に,その間で用いられている知識に対応した枝の長さの総和で与えられる.}することによって,単一化仮説生成に寄与しない後ろ向き推論(すなわち他のどのリテラルとも距離が無限大になるようなリテラルを根拠とした後ろ向き推論)は適用対象から除外しつつ,評価関数値の増減量の見込みが高い後ろ向き推論(すなわち他のリテラルとの述語間距離が近いリテラルを根拠にした後ろ向き推論)から優先的に適用していく.これにより,解仮説に含まれ得ないリテラルを仮説するような後ろ向き推論操作は探索空間から除外され,結果として推論全体の計算効率が改善される.例えば図\ref{fig:lhs}の潜在仮説集合における$\mathit{cat}(x)$や$\mathit{poodle}(x)$は,それ自身が単一化仮説生成操作の対象になることも,そこから仮説されたリテラルが単一化仮説生成操作の対象になることも無いので,これらのリテラルを仮説するような後ろ向き推論操作は実行されない.また,評価関数値の増減量の見込みが高い推論が優先して実行されることにより,潜在仮説集合の生成にかけられる時間が制限された状況においても,より良い解が探索空間に含まれるように,与えられた時間内で可能な限り最善の探索を行う.これは実用においては極めて大きな利点である.さて,以降の議論のために用語を一つ定義する.単一化仮説生成の対象となったリテラル対$l_1$,$l_2$と,それらの根拠である観測リテラル対$o_1$,$o_2$について,$o_1$,$o_2$から$l_1$,$l_2$をそれぞれ仮説するために必要な後ろ向き推論と,$l_1$,$l_2$間の単一化仮説生成操作から構成される操作の系列を,$o_1$,$o_2$の間の{\bf推論パス}と呼ぶことにする.例えば図\ref{fig:ia}において,リテラル対$\mathit{go}(x_1,x_2)$,$\mathit{get}(y_1,y_2)$の間の推論パスは,(1)$\mathit{go}(x_1,x_2)$から$\mathit{issue}(x_2,u_1,x_1)$への後ろ向き推論,(2)$\mathit{go}(y_1,y_2)$から$\mathit{issue}(u_2,y_2,y_1)$への後ろ向き推論,(3)$\mathit{issue}(x_2,u_1,x_1)$と$\mathit{issue}(u_2,y_2,y_1)$の間の単一化仮説生成によって構成される.定義より,全ての推論パスは,1回の単一化仮説生成操作と0回以上の後ろ向き推論操作によって構成されることに注意されたい\footnote{この定理は,付録Aに示す解の最適性の証明において必要となる.}.また,ある推論パスについて,そこに含まれる操作の系列に関与している観測リテラルの集合,すなわち推論パスで作られる推論が説明している観測リテラル集合を,推論パスの{\bf根拠}と呼ぶ.さて,現在の仮説推論の実装としてはA*-basedAbductionが最も高速であるが,彼らの枠組みを適用する際,その評価関数は次の要件を満たしていなければならない.一つ目に,彼らの枠組みはILP-basedAbduction\cite{Inoue11,Inoue12b}に基づいた枠組みであるため,評価関数は整数線形計画問題で表現可能であるものでなければならない.二つ目に,冗長な仮説に対しては評価が低下すること,すなわち単一化仮説生成に寄与しないリテラルが解仮説に含まれ得ないことが保証されていなければならない.なお,この条件については,Hobbsらの重み付き仮説推論をはじめとして,Thagard\cite{Thagard78}の提唱する「仮説の良さは簡潔さと顕現性によって決定される」とする主張に基づいて定義された評価関数であれば一般に充足される.ここで,二つ目の条件をNeo-Davidsonian形式に合わせて拡張することを考えよう.例えば,図\ref{fig:phi}(a)のNeo-Davidsonian形式で表現された推論は,表す意味そのものは図\ref{fig:phi}(b)のDavidsonian形式で表現された推論と同等であることから,図\ref{fig:phi}(b)と同様に解仮説には含まれ得ないと考えてよい.すなわち図\ref{fig:phi}(a)のように,単一の内容語リテラルとそれを親とする機能リテラルだけを根拠とする推論パスは,Thagardの主張に従うならば,解仮説には含まれないものと考えてよい.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f7.eps}\end{center}\hangcaption{異なる意味表現形式における冗長な推論の例.推論(a)はNeo-Davidsonian形式で,推論(b)はDavidsonian形式で,それぞれ同様の冗長な推論を表している.}\label{fig:phi}\end{figure}以上の議論から,以降で扱う評価関数は,整数線形計画問題で等価に表現可能であるとともに,以下に示す条件を充足すると仮定する:\begin{itemize}\item評価関数は,単一化仮説生成に寄与しないリテラルを含む候補仮説を解仮説として選択しない.\item評価関数は,単一の内容語リテラルとそれを親とする機能リテラルのみを根拠とした推論パスを含む候補仮説を解仮説として選択しない.\end{itemize}以降ではこれらの条件をまとめて仮説の{\bf簡潔性条件}と呼ぶ.\subsection{述語間距離の推定精度の低下}\label{sec:sw-prob}\ref{sec:yamamoto15}節で述べたようにA*-basedAbductionでは,図\ref{fig:heuristic1}のような述語グラフを用いて,背景知識における述語間の意味的な距離を事前に評価しておき,仮説の探索空間の枝刈りを行う.述語グラフの上では,論理式の前件に含まれる各述語と後件に含まれる各述語のあらゆる組み合わせが接続されるため,機能リテラルのような,他のリテラルと高頻度で共起するリテラルを背景知識に含む場合には,述語グラフの中にハブとなるノードが形成される.その結果,解仮説を含まれ得るような推論が実際には存在しないリテラル対に対しても,誤って距離を近く見積もってしまう,という問題がある.例えば図\ref{fig:exprob1}で用いられている背景知識$B$を考える:\begin{align*}mistake(e_1)\landnsubj(e_1,x)&\Rightarrowfoolish(e_2)\landnsubj(e_2,x)\\study(e_1)\landnsubj(e_1,x)&\Rightarrowsmart(e_2)\landnsubj(e_2,x)\end{align*}この背景知識に対して\ref{sec:yamamoto15}節で述べた手続きによって述語グラフを生成すると,図\ref{fig:sw1}(a)のような述語グラフが作られる.前述のように,背景知識に含まれる機能述語$\mathit{nsubj}/2$がハブノードとなり,あらゆる内容語述語のペアが互いに到達可能と判定されることがわかる.しかし,これらの推論パスにより生成される仮説の中には,解仮説として選択されないことが保証されるものも含まれる.例えば,図\ref{fig:sw1}(a)より,$\mathit{foolish}$と$\mathit{smart}$を述語に持つリテラル対を結ぶような推論パスは存在すると推定されるが,3節で見てきたように,この推論パスから生成される仮説は不正な等価仮説を導くため,解仮説には成り得ない.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f8.eps}\end{center}\hangcaption{提案手法による枝刈りの適用前後における述語グラフ.(a)が従来手法による述語グラフ,(b)が\ref{sec:sw-sw}節で提案する手法による述語グラフである.}\label{fig:sw1}\end{figure}このように,従来の述語グラフでは,述語間を繋ぐ推論が不正な等価仮説を導くかどうか考慮できていないために,機能リテラルを含む背景知識の上での述語間距離の推定精度が低下し,A*-basedAbductionの利点が失われてしまっている.\subsection{述語グラフの枝刈りによる高速化}\label{sec:sw-sw}本研究では,\ref{sec:sw-prob}節で述べた問題を解消するために,述語グラフから特定の枝を除外することを提案する.つまり,図\ref{fig:exprob1}における$\mathit{foolish}(e)$と$\mathit{smart}(e)$のように,あるリテラル対を繋ぐ推論パスが常に不正な等価仮説を導く時に,それらの間の距離が無限大となるように,述語グラフの枝を除外する.これにより不正な等価仮説を導く推論は探索空間から除外され,探索を効率化できる.具体的な手法を述べる.本手法では,A*-basedAbductionについて,以下の2点の拡張を加える:\begin{itemize}\item述語グラフの構築において,機能リテラルとその親の両方が前件あるいは後件に存在する含意型論理式に対しては,親に対する枝だけを述語グラフに追加するものとする.例えば$\mathit{study}(e_1)\land\mathit{nsubj}(e_1,x)\Rightarrow\mathit{smart}(e_2)\land\mathit{nsubj}(e_2,x)$という論理式に対しては,$\mathit{study}$と$\mathit{smart}$の間の枝だけを追加し,$\mathit{nsubj}$への枝は追加しない.\item潜在仮説集合の生成において,機能リテラルと他のリテラルの間の述語間距離には,機能リテラルの親の述語間距離を代わりに用いるものとする.例えば図\ref{fig:exprob1}の観測において,$\mathit{nsubj}(e_1,j)$の親は$\mathit{smart}(e_1)$であるので,$\mathit{nsubj}(e_1,j)$と$\mathit{foolish}(e_2)$の述語間距離には,$\mathit{smart}(e_1)$と$\mathit{foolish}(e_2)$の述語間距離を用いる.なお,親が複数存在する場合には,それらの中での最低値を採用するものとする.\end{itemize}このように拡張することで,不正な等価仮説を導く推論は探索空間から除外される.例えば,図\ref{fig:exprob1}の背景知識では,図\ref{fig:sw1}(a),(b)に示されるように,機能述語$\mathit{nsubj}/2$への枝が述語グラフから取り除かれる.その結果,述語$\mathit{smart}$と$\mathit{foolish}$の間の距離が無限大となり,不正な等価仮説を導く$\mathit{smart}$,$\mathit{foolish}$を繋ぐ推論は,探索空間から除外される.なお,本手法を適用したときに得られる解は,仮説の整合性条件および簡潔性条件が充足されている限り,手法を適用しない場合の解と同様の解が得られること,すなわち元々の解が提案手法によって探索空間から枝刈りされないことが保証される.詳細な説明は付録Aに委ねるものとする. \section{実験} \subsection{基本設定}本節では,本論文にて行った実験における基本的な設定について述べる.本実験における観測としては,Rahmanら~\cite{Rahman12}によって構築されたWinogradSchemaChallenge~\cite{Levesque11}の訓練データの問題1,305問をそれぞれ論理表現に変換したものを用いた.具体的には,各問題文に対してStanfordCoreNLP\footnote{http://nlp.stanford.edu/software/corenlp.shtml}\cite{CoreNLP}を用いて構文解析を行い,文中の単語および単語間の依存関係をそれぞれリテラルに変換した.各観測は平均して28個のリテラルから構成される.観測の例を表1の$O$に示す.なお,全ての観測について整合性条件を充足することを確認している.以降はこの観測集合を$O_\mathit{wsc}$と表す.WinogradSchemaChallengeは,例えば``{\itTonyhelpedJeffbecausehewantedtohelp.}''のような文を入力として,指定された照応表現(ここでは``{\ithe}'')の照応先として相応しいものを2つの選択肢(ここでは``{\itTony}''と``{\itJeff}'')から選ぶタスクである.仮説推論の上では,照応先の選択は等価仮説の有無に対応する.例えば,表1の$O$に対して得られた解仮説に$E_1=e_5$が含まれるなら,``{\ithe}''の照応先として``{\itTony}''を選ぶことと等しい.なお,本実験では,各問題の照応先に対応する論理変数には定数(この例では$E_1$,$E_3$)を割り当てることで,二つの照応先候補を同時に選択することを防いでいる.\begin{table}[t]\hangcaption{実験で用いた観測および背景知識の例.なお観測の例は``\textit{TonyhelpedJeffbecausehewantedtohelp.}''という文に対応する論理表現である.}\label{tab:example}\input{02table01.txt}\end{table}また背景知識には,我々がClueWeb12\footnote{http://lemurproject.org/clueweb12/}から自動獲得した因果関係知識を用いた.具体的には,まず,ClueWeb12に含まれる各文に対してStanfordCoreNLPを適用し,共参照関係にある項を持つ動詞・形容詞とその周辺文脈のペア5億個を獲得した.例えば,``\textit{Tomhelped\underline{Mary}yesterday,so\underline{Mary}thankedtoTom.}''より,\textit{Mary}を介してペアとなっている$\langle$\textit{TomhelpMaryyesterday},\textit{MarythanktoTom}$\rangle$を獲得した.獲得したペアは,そのまま因果関係知識として用いるには特殊すぎる可能性があるため,これらを統計的な基準によって一般化し,論理表現に変換した.より具体的には,獲得したペアをさまざまな抽象度に一般化した上で(例えば,$\langle$\textit{TomhelpMaryyesterday},\textit{MarythanktoTom}$\rangle$を$\langle$\textit{TomhelpX},\textit{XthanktoTom}$\rangle$,$\langle$\textit{helpX},\textit{Xthank}$\rangle$などに変換した)頻度カウントを行い,一定以上の頻度のペアだけを残す,というフィルタリング処理を施した(以降,これらのペアを\textbf{イベントペア}と呼ぶ).結果として,278,802個の含意型論理式の集合$B_\mathit{ep}$を得た.知識の例を表1の$B_\mathit{ep}$に示す.また,WordNetのSynsetによって定義される同義語・上位語の知識を論理表現に変換し,結果として235,706個の含意型論理式の集合$B_\mathit{wn}$を得た.WordNetから生成した論理式の例を表1の$B_\mathit{wn}$に示す.提案手法を適用するにあたっては,背景知識に出現する格関係および前置詞による修飾関係を表す全ての述語を機能述語として扱うこととした.評価関数には重み付き仮説推論\cite{Hobbs93}を基に,整合性条件および簡潔性条件を充足するような評価関数を用いた.具体的には,重み付き仮説推論の評価関数に対して「全ての候補仮説は仮説の整合性条件および簡潔性条件を満たさなければならない」という制約を加えている.比較対象としてはA*-basedAbduction\cite{Yamamoto15}を用いた.以降の記述における従来手法とはA*-basedAbductionを指す.実験は\cite{Yamamoto15}の実装であるPhillip\footnote{http://github.com/kazeto/phillip.git}の上で行い,本論文の提案手法もPhillipを拡張することによって実装した.\subsection{推論効率の比較}本節では,推論効率の比較実験について報告する.この実験では,提案手法が従来手法と比べてどの程度効率的に最適解を導くことができるかを確かめるために,従来手法でも最適解が導出できる程度に小規模な設定での比較を行った.また,従来手法のほかに,4節の制約のみを用いた設定,5節の述語グラフの枝刈りのみを用いた設定との比較も行うことで,個々の手法による効率化の度合いを検証した.具体的な設定を以下に述べる,観測には$O_\mathit{wsc}$に含まれる全ての問題(1,305問)を用いた.背景知識には,$B_\mathit{ep}$から187,732個の論理式を抽出\footnote{$B_\mathit{ep}$の論理式のうち,ClueWeb中での共起頻度がある閾値を超えるイベントペアから生成された論理式のみを抽出した.背景知識を適当な規模に縮小する以外の意図は無いので,詳細は省略する.}して用いた.また,リテラルの深さの最大値は$d_\mathit{max}=1$とした.これにより後ろ向き推論の入力は観測リテラルのみに限定される.また,推論時間が5分を超えるものについてはタイムアウトとした.この実験設定を,以降は{\bfSMALL}と呼ぶ.\begin{figure}[b]\begin{center}\includegraphics{23-3ia2f9.eps}\end{center}\caption{実験設定SMALLでの,提案手法と従来手法との速度比較.}\label{fig:result1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f10.eps}\end{center}\caption{実験設定SMALLでの,等価仮説の制約の有無における速度比較.}\label{fig:result2}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f11.eps}\end{center}\caption{実験設定SMALLでの,述語グラフの枝刈りの有無における速度比較.}\label{fig:result3}\end{figure}実験設定SMALLにおける実験結果を図\ref{fig:result1},図\ref{fig:result2},図\ref{fig:result3}に示す.図中の各点は開発セット1,305問のうち,少なくとも一方の実験設定がタイムアウトせずに最適解を求められた問題1,095問\footnote{提案手法においてタイムアウトした問題はいずれも,他の実験設定においてもタイムアウトしていた.そのため1,095問というのは実質,提案手法がタイムアウトしなかった問題数に等しい.}について,それぞれの問題における推論時間を表す.各点の座標は,横軸が提案手法による推論時間に対応し,縦軸が比較対象での推論時間に対応する.図\ref{fig:result1}ではA*-basedAbductionによる推論時間,図\ref{fig:result2}では提案手法において5節で述べた述語グラフの枝刈りのみを適用した場合の推論時間,図\ref{fig:result3}では提案手法において4節で述べた等価仮説への制約のみを適用した場合の推論時間が,縦軸に対応する.なお,5分以内に解を導くことが出来ずタイムアウトした問題については300秒としてプロットしている.また直線は$y=x$を表す.よって,この直線よりも上にある点については提案手法によって推論時間が改善されていると見做すことができる.図\ref{fig:result1}からは,従来手法と比べたときの,提案手法による効率化の程度を確認できる.この結果より,どのような規模の問題においても提案手法は従来手法と比べて遥かに短い時間で,平均して数十倍から数百倍の速度で解を導けていることが確かめられた.図\ref{fig:result2}からは,4節で提案した等価仮説の制約による効率化の程度を確認することができる.この結果から,探索空間が極めて小さい一部の問題に対しては効率の低下が見受けられるものの,それ以外の問題についてはいずれもより効率的な推論が実現できていることが確かめられた.推論効率が低下している一部の問題については,この制約によって除外されるような単一化仮説生成操作が探索空間に存在しない,あるいはその数が極めて少ないために,制約の判定にかかる計算量が制約を課すことで削減される計算量を上回ってしまっていると考えられる.図\ref{fig:result3}からは,5節で提案した述語グラフの枝刈りによる効率化の程度を確認することができる.図\ref{fig:result1}での結果とほぼ同様の結果であるものの,述語グラフの枝刈りによって探索空間から除外される推論は,等価仮説の制約によって探索空間から除外される推論の大半を包含していることから,これは極めて自然な結果であるといえる.また,タイムアウトせずに最適解が得られた問題については,問題設定に関わらず最適解の評価関数値が同じ値であったことが確かめられた.このことから,提案手法が解の健全性を損なわないことが実験的にも示された.\subsection{現実的な設定での比較}前節の実験では,提案手法が従来手法と比べて遥かに効率的に解仮説を導出できていることが確かめられた.しかしながら前節の実験設定(SMALL)では,従来手法でも最適解が導けるようにするために,背景知識や解の探索範囲の縮小や,タイムアウトの時間を長めにとるなど,実際のタスク適用とはかなり乖離した設定になってしまっている.それを踏まえ本節では,参考実験として,より実際のタスク適用に即した設定において比較実験を行った.この実験では,(本論文の本来のスコープではないものの,)タスクの解析精度をみることで,我々のシステムが行っている推論が,意味的な解釈として一定の妥当性を持つ推論を実現できていることを確かめる.具体的な設定を述べる.前述したように,今回用いたデータセットには,因果関係知識のみでは解くことの出来ない種類の問題—例えば否定や逆接を含む問題,特定の固有名詞に関する知識が必要な問題,数量表現を扱う問題など—が多数含まれている.そこで本実験では,$O_\mathit{wsc}$に含まれる観測のうち無作為に選んだ100問について,個々の問題を解くのに必要な知識の種類を人手で分類した.そして,その100問のうち因果関係知識の適用のみで解けると思われる問題32問を観測として用いた.背景知識としては,$B_\mathit{ep}$と$B_\mathit{wn}$に含まれる全ての論理式(514,508個)を用いた.またリテラルの深さの最大値は$d_\mathit{max}=2$とした.これは,3個以上の因果関係を繋げて導かれる仮説は意味的に不自然な説明であることが多いという経験則に基いている.また,潜在仮説集合の生成は10秒で中断し,その時点での潜在仮説集合に対する解を解仮説として扱った.推論全体では,推論時間が1分を超えるものをタイムアウトとした.この実験設定を,以降は{\bfLARGE}と呼ぶ.実験設定LARGEにおける実験結果を表2に示す.この結果より,従来手法では殆どの問題で解が得られていない一方で,提案手法ではそれがある程度改善されていることが分かる.これは,述語グラフの枝刈りを導入したことによって,A*-basedAbductionにおける述語間の距離推定の精度が改善され,後ろ向き推論の候補をより短い時間で列挙できるようになったことが大きいと考えられる.\begin{table}[t]\hangcaption{実験設定LARGEにおける実験結果.各列は従来手法および提案手法での結果を表す.各行は上から順に,正解できた問題数(Correct),不正解だった問題数(Wrong),出力が得られなかった問題数(NoDecision),それらの結果から計算した適合率(Precision)および再現率(Recall)を表す.}\label{tab:result-2}\input{02table02.txt}\end{table}また,タスクの解析精度については,表2の適合率を見る限り,ある程度意味のある推論が実現できていることが伺える.その一方で再現率は低く,今後,解析精度を向上させていくためには,背景知識の拡充・高精度化や,評価関数のモデルパラメータの調整など,様々な改善が必要である.しかしながら,少なくとも今回の提案手法の導入により,実世界の問題に即した規模の背景知識および論理表現の上での仮説推論が,初めて実現可能になった.このことは,当該分野において非常に重要な貢献である. \section{まとめ} 仮説推論は,文章に明示されていない情報の顕在化を行うための有望な枠組みと考えられてきた一方,背景知識や観測の規模に対して指数関数的に増大する計算時間が,実問題への応用を阻んできた.このような問題に対し本論文では,格関係や前置詞による修飾関係などの依存関係を表すリテラルに関して起こる計算量の問題に着目し,そのようなリテラルに対して起こる冗長な推論を探索空間から除外することによって,仮説推論を効率化する手法を提案した.また,既存手法との比較実験から,構築したシステムが従来のシステムよりも遥かに高速であることを示した.今後の展望としては,潜在仮説集合の生成において,言語そのものに対する知識を用いて探索空間の枝刈りをすることが考えられる.その一つの例としては,それぞれの依存関係が持つ性質を利用することが挙げられる.例えば,物体の位置的な上下関係のように推移律が成り立つ場合や,述語項関係のように一つのgovernorに対して一つしかdependentが存在できない場合,物体同士の隣接関係のように対称律が成り立つ場合など,それぞれの関係は固有の性質を持つ.これらの性質を潜在仮説集合の生成の時に考慮することができれば,その性質に反するような推論を探索空間から除外できることが期待される.例えば,主格関係が一つのgovernorに対して一つしか定義できないことが分かっているなら,$\mathit{go}(e_1)\land\mathit{go}(e_2)\land\mathit{nsubj}(e_1,x_1)\land\mathit{nsubj}(e_2,x_2)$のような観測が与えられたとき,$e_1=e_2$かつ$x_1\nex_2$であるような仮説は適切な説明ではないことが分かる.よって,このような仮説を候補仮説として列挙するような手続きを探索空間から除外することが出来れば,計算負荷の軽減に繋げられる可能性がある.また,潜在仮説集合の生成の手続きと,ILP問題を最適化する手続きを,相互にやりとりしながら進めることによって,推論速度を向上させることも考えられる.現状ではこれらの手続きは完全に逐次的に行われるが,潜在仮説集合を生成する段階ではどこまで探索すれば十分なのかが全くの不明であるために,必要最低限の範囲だけを探索することが難しいという問題がある.これに対して,潜在仮説集合の生成の途中の結果に対する解仮説を随時導出しながら,その結果に応じて潜在仮説集合の生成を適切に打ち切ることができれば,全体の計算量を削減できると考えられる.他には,仮説推論を実問題へ適用していくことも進めていく.本研究によって仮説推論の計算負荷は大幅に効率化され,大規模知識を用いた仮説推論は現実的な時間で実現可能となった.これにより,大規模知識を用いた仮説推論の枠組みにおいて,実タスク上での精度評価や,他の先行研究との定量的な比較が可能になったといえる.よって今後は,仮説推論に用いるための高精度かつ大規模な背景知識の構築や,より談話理解のタスクに適した評価関数モデルの構築を進めていきたいと考えている.\acknowledgment本研究は,JST戦略的創造研究推進事業CRESTおよび文部科学省科研費(15H01702)から部分的な支援を受けて行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blythe,Hobbs,Domingos,Kate,\BBA\Mooney}{Blytheet~al.}{2011}]{Blythe11}Blythe,J.,Hobbs,J.~R.,Domingos,P.,Kate,R.~J.,\BBA\Mooney,R.~J.\BBOP2011\BBCP.\newblock\BBOQImplementingWeightedAbductioninMarkovLogic.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonComputationalSemantics},IWCS'11,\mbox{\BPGS\55--64}.\bibitem[\protect\BCAY{Chambers\BBA\Jurafsky}{Chambers\BBA\Jurafsky}{2009}]{Chambers09}Chambers,N.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQUnsupervisedLearningofNarrativeSchemasandtheirParticipants.\BBCQ\\newblockIn{\BemProceedingsofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},ACL'09,\mbox{\BPGS\602--610}.\bibitem[\protect\BCAY{Copestake,Flickinger,Pollard,\BBA\Sag}{Copestakeet~al.}{2005}]{Copestake05}Copestake,A.,Flickinger,D.,Pollard,C.,\BBA\Sag,I.~A.\BBOP2005\BBCP.\newblock\BBOQMinimalRecursionSemantics:AnIntroduction.\BBCQ\\newblock{\BemResearchonLanguageandComputation},{\Bbf3}(2-3),\mbox{\BPGS\281--332}.\bibitem[\protect\BCAY{Davidson}{Davidson}{1980}]{Davidson}Davidson,D.\BBOP1980\BBCP.\newblock{\BemEssaysonActionsandEvents}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{fellbaum98}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Gelfond\BBA\Lifschitz}{Gelfond\BBA\Lifschitz}{1988}]{Gelfond88}Gelfond,M.\BBACOMMA\\BBA\Lifschitz,V.\BBOP1988\BBCP.\newblock{\BemTheStableModelSemanticsforLogicProgramming},\mbox{\BPGS\1070--1080}.\newblockMITPress.\bibitem[\protect\BCAY{Hobbs,Stickel,Martin,\BBA\Edwards}{Hobbset~al.}{1993}]{Hobbs93}Hobbs,J.~R.,Stickel,M.,Martin,P.,\BBA\Edwards,D.\BBOP1993\BBCP.\newblock\BBOQInterpretationasAbduction.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf63},\mbox{\BPGS\69--142}.\bibitem[\protect\BCAY{Hobbs}{Hobbs}{1985}]{Hobbs85}Hobbs,J.~R.\BBOP1985\BBCP.\newblock\BBOQOntologicalPromiscuity.\BBCQ\\newblockIn{\BemProceedingsofthe23rdAnnualMeetingoftheAssociationforComputationalLinguistics},ACL'85,\mbox{\BPGS\61--69},Chicago,Illinois,USA.UniversityofChicago.\bibitem[\protect\BCAY{Inoue\BBA\Inui}{Inoue\BBA\Inui}{2011a}]{Inoue11}Inoue,N.\BBACOMMA\\BBA\Inui,K.\BBOP2011a\BBCP.\newblock\BBOQILP-BasedReasoningforWeightedAbduction.\BBCQ\\newblockIn{\BemPlan,Activity,andIntentRecognition,Papersfromthe2011AAAIWorkshop},AAAI'11,\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Inoue\BBA\Inui}{Inoue\BBA\Inui}{2011b}]{Inoue11b}Inoue,N.\BBACOMMA\\BBA\Inui,K.\BBOP2011b\BBCP.\newblock\BBOQAnILPFormulationofAbductiveInferenceforDiscourseInterpretation.\BBCQ\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2011}(3),\mbox{\BPGS\1--13}.\bibitem[\protect\BCAY{Inoue\BBA\Inui}{Inoue\BBA\Inui}{2012}]{Inoue12b}Inoue,N.\BBACOMMA\\BBA\Inui,K.\BBOP2012\BBCP.\newblock\BBOQLarge-scaleCost-basedAbductioninFull-fledgedFirst-orderPredicateLogicwithCuttingPlaneInference.\BBCQ\\newblockIn{\BemProceedingsofthe13thEuropeanConferenceonLogicsinArtificialIntelligence},\mbox{\BPGS\281--293}.\bibitem[\protect\BCAY{井之上\JBA乾\JBA{EkaterinaOvchinnikova}\JBA{JerryR.Hobbs}}{井之上\Jetal}{2012}]{Inoue12}井之上直也\JBA乾健太郎\JBA{EkaterinaOvchinnikova}\JBA{JerryR.Hobbs}\BBOP2012\BBCP.\newblock大規模世界知識を用いた仮説推論による談話解析の課題と対策.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\119--122}.\bibitem[\protect\BCAY{Levesque}{Levesque}{2011}]{Levesque11}Levesque,H.~J.\BBOP2011\BBCP.\newblock\BBOQTheWinogradSchemaChallenge.\BBCQ\\newblockIn{\BemAAAISpringSymposium:LogicalFormalizationsofCommonsenseReasoning}.AAAI.\bibitem[\protect\BCAY{Manning,Surdeanu,Bauer,Finkel,Bethard,\BBA\McClosky}{Manninget~al.}{2014}]{CoreNLP}Manning,C.~D.,Surdeanu,M.,Bauer,J.,Finkel,J.,Bethard,S.~J.,\BBA\McClosky,D.\BBOP2014\BBCP.\newblock\BBOQTheStanfordCoreNLPNaturalLanguageProcessingToolkit.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\55--60}.\bibitem[\protect\BCAY{McCord}{McCord}{1990}]{Mccord90}McCord,M.~C.\BBOP1990\BBCP.\newblock{\BemSlotGrammar}.\newblockSpringer.\bibitem[\protect\BCAY{Moore}{Moore}{1983}]{Moore83}Moore,R.~C.\BBOP1983\BBCP.\newblock\BBOQSemanticalConsiderationsonNonmonotonicLogic.\BBCQ\\newblockInBundy,A.\BED,{\BemProceedingsofthe8thInternationalJointConferencesonArtificialIntelligence},\mbox{\BPGS\272--279}.WilliamKaufmann.\bibitem[\protect\BCAY{Mulkar,Hobbs,\BBA\Hovy}{Mulkaret~al.}{2007}]{Mulkar07}Mulkar,R.,Hobbs,J.,\BBA\Hovy,E.\BBOP2007\BBCP.\newblock\BBOQLearningfromReadingSyntacticallyComplexBiologyTexts.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalSymposiumonLogicalFormalizationsofCommonsenseReasoning},PaloAlto.\bibitem[\protect\BCAY{Ng\BBA\Mooney}{Ng\BBA\Mooney}{1992}]{Ng92}Ng,H.~T.\BBACOMMA\\BBA\Mooney,R.~J.\BBOP1992\BBCP.\newblock\BBOQAbductivePlanRecognitionandDiagnosis:AComprehensiveEmpiricalEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonPrinciplesofKnowledgeRepresentationandReasoning},\mbox{\BPGS\499--508}.\bibitem[\protect\BCAY{Nienhuys-Cheng\BBA\De~Wolf}{Nienhuys-Cheng\BBA\De~Wolf}{1997}]{Nienhuys97}Nienhuys-Cheng,S.-H.\BBACOMMA\\BBA\De~Wolf,R.\BBOP1997\BBCP.\newblock{\BemFoundationsofInductiveLogicProgramming},\lowercase{\BVOL}\1228.\newblockSpringerScience\&BusinessMedia.\bibitem[\protect\BCAY{Ovchinnikova,Hobbs,Montazeri,McCord,Alexandrov,\BBA\Mulkar-Mehta}{Ovchinnikovaet~al.}{2011}]{Ovch11}Ovchinnikova,E.,Hobbs,J.~R.,Montazeri,N.,McCord,M.~C.,Alexandrov,T.,\BBA\Mulkar-Mehta,R.\BBOP2011\BBCP.\newblock\BBOQAbductiveReasoningwithaLargeKnowledgeBaseforDiscourseProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonComputationalSemantics},IWCS'11,\mbox{\BPGS\225--234}.\bibitem[\protect\BCAY{Parsons}{Parsons}{1990}]{neodavidson}Parsons,T.\BBOP1990\BBCP.\newblock{\BemEventsintheSemanticsofEnglish:AStudyinSubatomicSemantics/TerenceParsons}.\newblockMITPressCambridge,Mass.\bibitem[\protect\BCAY{Raghavan\BBA\Mooney}{Raghavan\BBA\Mooney}{2010}]{Raghavan10}Raghavan,S.\BBACOMMA\\BBA\Mooney,R.~J.\BBOP2010\BBCP.\newblock\BBOQBayesianAbductiveLogicPrograms.\BBCQ\\newblockIn{\BemProceedingsoftheAAAI-10WorkshoponStatisticalRelationalArtificialIntelligence},\lowercase{\BVOL}\WS-10-06of{\BemAAAIWorkshops},\mbox{\BPGS\82--87}.\bibitem[\protect\BCAY{Rahman\BBA\Ng}{Rahman\BBA\Ng}{2012}]{Rahman12}Rahman,A.\BBACOMMA\\BBA\Ng,V.\BBOP2012\BBCP.\newblock\BBOQResolvingComplexCasesofDefinitePronouns:TheWinogradSchemaChallenge.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\777--789},JejuIsland,Korea.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Reiter}{Reiter}{1978}]{raymond78}Reiter,R.\BBOP1978\BBCP.\newblock\BBOQOnClosedWorldDataBases.\BBCQ\\newblockInGallaire,H.\BBACOMMA\\BBA\Minker,J.\BEDS,{\BemLogicandDataBases},\mbox{\BPGS\55--76}.SpringerUS.\bibitem[\protect\BCAY{Reiter}{Reiter}{1987}]{Reiter87}Reiter,R.\BBOP1987\BBCP.\newblock\BBOQALogicforDefaultReasoning.\BBCQ\\newblockInGinsberg,M.~L.\BED,{\BemReadingsinNonmonotonicReasoning},\mbox{\BPGS\68--93}.Kaufmann,LosAltos,CA.\bibitem[\protect\BCAY{Richardson\BBA\Domingos}{Richardson\BBA\Domingos}{2006}]{Richardson06}Richardson,M.\BBACOMMA\\BBA\Domingos,P.\BBOP2006\BBCP.\newblock\BBOQMarkovLogicNetworks.\BBCQ\\newblock{\BemMachinelearning},{\Bbf62}(1-2),\mbox{\BPGS\107--136}.\bibitem[\protect\BCAY{Ruppenhofer,Ellsworth,Petruck,Johnson,\BBA\Scheffczyk}{Ruppenhoferet~al.}{2010}]{framenetII}Ruppenhofer,J.,Ellsworth,M.,Petruck,M.~R.,Johnson,C.~R.,\BBA\Scheffczyk,J.\BBOP2010\BBCP.\newblock\BBOQFrameNetII:ExtendedTheoryandPractice.\BBCQ.\bibitem[\protect\BCAY{Schoenmackers,Etzioni,Weld,\BBA\Davis}{Schoenmackerset~al.}{2010}]{Scho10}Schoenmackers,S.,Etzioni,O.,Weld,D.~S.,\BBA\Davis,J.\BBOP2010\BBCP.\newblock\BBOQLearningFirst-orderHornClausesfromWebText.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'10,\mbox{\BPGS\1088--1098}.\bibitem[\protect\BCAY{Sch{\"{u}}ller}{Sch{\"{u}}ller}{2015}]{Schuller15}Sch{\"{u}}ller,P.\BBOP2015\BBCP.\newblock\BBOQModelingAbductionoverAcyclicFirst-OrderLogicHornTheoriesinAnswerSetProgramming:PreliminaryExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe22ndRCRAInternationalWorkshoponExperimentalEvaluationofAlgorithmsforSolvingProblemswithCombinatorialExplosion2015(RCRA2015)AWorkshopoftheXIVInternationalConferenceoftheItalianAssociationforArtificialIntelligence},\mbox{\BPGS\76--90}.\bibitem[\protect\BCAY{Singla\BBA\Mooney}{Singla\BBA\Mooney}{2011}]{Singla11}Singla,P.\BBACOMMA\\BBA\Mooney,R.~J.\BBOP2011\BBCP.\newblock\BBOQAbductiveMarkovLogicforPlanRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe25thAAAIConferenceonArtificialIntelligence},AAAI'11,\mbox{\BPGS\1069--1075}.\bibitem[\protect\BCAY{杉浦\JBA井之上\JBA乾}{杉浦\Jetal}{2012}]{Sugiura12}杉浦純\JBA井之上直也\JBA乾健太郎\BBOP2012\BBCP.\newblock説明生成に基づく談話構造解析の課題分析.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\115--118}.\bibitem[\protect\BCAY{Thagard}{Thagard}{1978}]{Thagard78}Thagard,P.~R.\BBOP1978\BBCP.\newblock\BBOQTheBestExplanation:CriteriaforTheoryChoice.\BBCQ\\newblock{\BemTheJournalofPhilosophy},{\Bbf1},\mbox{\BPGS\76--92}.\bibitem[\protect\BCAY{Yamamoto,Inoue,Inui,Arase,\BBA\Tsujii}{Yamamotoet~al.}{2015}]{Yamamoto15}Yamamoto,K.,Inoue,N.,Inui,K.,Arase,Y.,\BBA\Tsujii,J.\BBOP2015\BBCP.\newblock\BBOQBoostingtheEfficiencyofFirst-orderAbductiveReasoningUsingPre-estimatedRelatednessbetweenPredicates.\BBCQ\\newblock{\BemInternationalJournalofMachineLearningandComputing},{\Bbf5}(2),\mbox{\BPGS\114--120}.\end{thebibliography}\appendix\renewcommand\proofname{\bf証明} \section{提案手法が解の最適性を保持することの証明} 本節では,仮説の整合性条件および簡潔性条件が充足されるならば,5節で提案した手法に基づく述語グラフの枝刈りを用いて得られる解が最適性を保つこと,即ち手法適用後に探索空間から除外されるような要素仮説について,それらが常に解仮説とならないことを示す.任意の述語$p$,$q$に対する,述語グラフの枝刈り適用前の述語間距離を$h_1(p,q)$,適用後の述語間距離を$h_2(p,q)$と表す.まず,述語グラフの枝刈りを適用することによって除外される推論パスの集合$\mathbb{R}$に着目する.形式的には,$\mathbb{R}$は,$h_1(o_1,o_2)<\infty$かつ$h_2(o_1,o_2)=\infty$を満たすような観測リテラル対$o_1$,$o_2$を端点とするような推論パスの集合,と定義される.本証明のゴールは,「$\mathbb{R}$に含まれるすべての推論パス$R\in\mathbb{R}$から生成される候補仮説$H_R$が,整合性条件および簡潔性条件が充足される状況下では,常に解仮説とならないことを示す」ことである.証明の戦略は次のとおりである.まず,$\mathbb{R}$の部分集合について,整合性条件と簡潔性条件より,そこに含まれる推論パスから生成される候補仮説が解仮説とならないことを示す.次に,それ以外の推論パスの集合$\mathbb{R}'$について,すべての$R'\in\mathbb{R}'$が常に機能リテラルの単一化仮説生成を含むことを証明し,かつその単一化仮説生成操作が常に不正な等価仮説を導くことを示す.まず,$\mathbb{R}$に含まれる推論パスのうち,以下に示すような推論パス$R\in\mathbb{R}$から生成される候補仮説については,整合性条件および簡潔性条件により解仮説とならないことが自明である:\begin{enumerate}\item$R$は機能リテラルの単一化仮説生成を含み,かつ単一化仮説生成の対象である機能リテラル対の少なくとも一方が親を持たない.\item$R$は不正な等価仮説を導くような後ろ向き推論を含む.\item$R$の端点$o_1$,$o_2$は同じ親を持つ機能リテラルであり,親以外の内容語リテラルが推論パスの根拠に含まれない.\item$R$の端点$o_1$,$o_2$のうち一方は機能リテラルであり,他方がその親であり,親以外の内容語リテラルが推論パスの根拠に含まれない.\end{enumerate}(1)および(2)が示す場合については整合性条件2,3より,(3)および(4)が示す場合については簡潔性条件より,明らかに解仮説とならない.したがって,以降ではこれらの場合に当てはまらない推論パスの集合$\mathbb{R}'\subseteq\mathbb{R}$についてのみ検討する.$\mathbb{R}'$の定義より,すべての$R'\in\mathbb{R}'$について,不正な等価仮説を導く後ろ向き推論が$R'$に含まれないことは自明であるから,以降は,すべての$R'\in\mathbb{R}'$について,不正な等価仮説を導く単一化仮説生成操作が$R'$に含まれることを示す.まず,すべての$R'\in\mathbb{R}'$が常に機能リテラルの単一化仮説生成を含むことを証明する.\begin{proof}背理法を用いて証明する.すなわち,「推論パス$R'$が常に機能リテラル間の単一化仮説生成操作を含まない」ことを仮定すると,矛盾が生じることを以下に示す.まず,背理法の仮定は,\ref{sec:prob:mr}~節の定義より,「推論パス$R'$が内容語リテラル間の単一化仮説生成操作を含む場合がある」と言い換えることができる.形式的には,$h_1(o_1,o_2)<\infty$かつ$h_2(o_1,o_2)=\infty$を満たすような観測リテラル対$o_1$,$o_2$がそれぞれ内容語リテラル$c_1$,$c_2$を仮説しており,$c_1$,$c_2$が互いに単一化している場合が存在する,ということである.このとき,$c_1$,$c_2$は同じ述語を持つことから,明らかに$h_1(c_1,c_2)=h_2(c_1,c_2)=0<\infty$である.$\mathbb{R}'$の定義より,$R'$には不正な等価仮説を導くような後ろ向き推論は含まれないので,$c_1$の直接的な根拠となっている任意のリテラルを$d_1$とおくと$h_2(c_1,d_1)<\infty$が成り立つ.同様に$c_2$の直接的な根拠となっている任意のリテラルを$d_2$とおくと$h_2(c_2,d_2)<\infty$が成り立つ.よって,$h_2(c_1,c_2)<\infty$であるので$h_2(d_1,d_2)<\infty$も成り立つ.このような議論は$d_1$および$d_2$の根拠についても成り立つことから,帰納的に$h_2(o_1,o_2)<\infty$も成り立つ.しかし,これは前提である$h_2(o_1,o_2)=\infty$と矛盾する.以上から,$R'$は,常に機能リテラル間の単一化を導く.\end{proof}次に,$R'$における機能リテラル$f_1$,$f_2$の単一化仮説生成操作が,常に不正な等価仮説を導くことを示す.\begin{proof}$f_1$,$f_2$の親をそれぞれ$p_1$,$p_2$とおき,$p_1$,$p_2$が同一事象を表し得ない,すなわち$h_2(p_1,p_2)=\infty$であることを,背理法により示す.背理法の仮定は,$h_2(p_1,p_2)<\infty$である.この仮定のもとでは,機能リテラルにおける述語間距離の計算手続きより,$h_2(f_1,f_2)<\infty$となるので,$f_1$,$f_2$を経由する$o_1$,$o_2$についても同様に$h_2(o_1,o_2)<\infty$となる.しかし,これは前提である$h_2(o_1,o_2)=\infty$と矛盾する.この事から,$h_2(p_1,p_2)=\infty$であり,$R'$によって単一化仮説生成の対象である機能リテラルの親は,それぞれ同一事象には成り得ないこと,すなわち不正な等価仮説を導くことが示された.\end{proof}以上から,提案手法を適用することによって除外される推論パスの集合$\mathbb{R}$は,最初に挙げた4つの場合のほかには,機能リテラルに対する単一化仮説生成操作を含み,かつそれらの親が同一事象に成り得ず,不正な等価仮説を導く場合に限定される.ゆえに,すべての$R\in\mathbb{R}$について,$R$から生成される候補仮説は解仮説とならないことが証明される.以上より,本手法によって得られる解は最適性を保つ.\begin{biography}\bioauthor{山本風人}{1987年生.2011年東北大学工学部知能情報システム総合学科卒.2013年東北大学大学院情報科学研究科博士前期課程修了.2016年東北大学大学院情報科学研究科博士後期課程修了,日本電気株式会社入社,現在に至る.自然言語処理の研究に従事.}\bioauthor{井之上直也}{1985年生.2008年武蔵大学経済学部経済学科卒業.2010年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2013年東北大学大学院情報科学研究科博士後期課程修了.2015年より東北大学大学院情報科学研究科助教,現在に至る.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学院情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
V25N04-01
\section{はじめに} 文節係り受け解析は情報抽出・機械翻訳などの言語処理の実応用の前処理として用いられている.文節係り受け解析器の構成手法として,規則に基づく手法とともに,アノテーションを正解ラベルとしたコーパスに基づく機械学習に基づく手法が数多く提案されている\cite{Uchimoto-1999,Kudo-2002,Sassano-2004,Iwatate-2008,Yoshinaga-2010,Yoshinaga-2014}.文節係り受け情報は,新聞記事\cite{KC}・話し言葉\cite{CSJ}・ブログ\cite{KNBC}などにアノテーションされているが,使用域(register)横断的にアノテーションされたデータは存在しない.我々は『現代日本語書き言葉均衡コーパス』(以下BCCWJ)に対する文節係り受け・並列構造アノテーションを整備した.\modified{対象はBCCWJのコアデータ}で新聞・書籍・雑誌・白書・ウェブデータ(Yahoo!知恵袋・Yahoo!ブログ)の6種類からの使用域からなる.\modified{これらに対して係り受け・並列構造を付与したものをBCCWJ-DepParaとして公開した.}本稿では,アノテーション作業における既存の基準上と工程上の問題について議論し,どのように問題を解決したかについて解説する.既存の基準上の問題については,主に二つの問題を扱う.一つ目は,並列構造・同格構造の問題である.係り受け構造と並列構造は親和性が悪い.本研究では,アノテーションの抽象化としてセグメントとそのグループ(同値類)を新たに定義し,係り受け構造と独立して並列構造と同格構造を付与する基準を示し,アノテーションを行った.二つ目は,節間の関係である.\modified{我々は,}節境界を越える係り受け関係に対する判断基準を示し,アノテーションを行った.工程上の問題においては,文節係り受けアノテーションのために必要な先行工程との関係について述べ,作業順と基準により解決を行ったことを示す.本論文の貢献は以下のとおりである.\begin{itemize}\item使用域横断的に130万語規模のコーパスにアノテーションを行い,アノテーションデータを公開した.\item係り受けと並列・同格構造の分離したアノテーション基準を策定した.\item節境界を越える係り受け関係に対する判断基準を明示した.\item実アノテーション問題における工程上の問題を示した.\end{itemize}\modified{2節では『現代日本語書き言葉均衡コーパス』の概要について述べる.3節ではアノテーション作業で扱った問題について紹介する.4節では先行研究である京都大学テキストコーパスのアノテーション基準\cite{KC}や日本語話し言葉コーパス\cite{CSJ}のアノテーション基準と対比しながら基準を示す.5節では基準の各論について示す.6節ではまとめと今後の課題について述べる.}また,以下では二文節間に係り受け関係を付与することを便宜上「かける」と表現する. \section{『現代日本語書き言葉均衡コーパス』} \modified{本節では『現代日本語書き言葉均衡コーパス』の概要\cite{BCCWJManual}について述べる.}\modified{『現代日本語書き言葉均衡コーパス』は,約1億語からなる現代日本語の均衡コーパスである.このうち約130万語からなるコアデータは,新聞(PN)・書籍(PB)・雑誌(PM)・白書(OW)・Yahoo!知恵袋(OC)・Yahoo!ブログ(OY)の6種類の使用域からなる.この使用域を表すアルファベット2文字は,サンプルの識別子であるサンプルIDの接頭辞として用いられている.2006年に整備がはじまり,2008年以降,毎年サンプル版が内部公開された.2011年にversion1.0が一般公開され,2015年に修正版version1.1が公開された.}\modified{すべてのサンプルについて,自動解析による短単位(ShortUnitWord:SUW)\cite{SUW}・長単位(LongUnitWord:LUW)\cite{LUW}二つの形態論情報が提供されている.コアデータについては,人手で短単位・長単位形態論情報が全数チェックされ,長単位に基づく文節境界が付与されている.2008年〜2010年のサンプル版はコアデータの量が増えるとともに,形態論情報の誤りの修正がなされた.}\modified{2011年に公開されたBCCWJversion1.0の文境界は不完全であることが報告されている\cite{tanomura-2014}.これを受けて,非コアデータ全体に対して特定の誤りパターンに基づく文境界修正\cite{小西-2015}が行われた.このデータはBCCWJversion1.1として,2015年に公開された.なお,version1.0からversion1.1への更新時には,文境界にかかわる形態論情報のみが修正された.}\modified{コアデータに対しては,さまざまな研究機関がアノテーションを行った\footnote{https://pj.ninjal.ac.jp/corpus\_center/anno/}.できるだけアノテーションが重なるようにするために,アノテーションの優先順位が研究者間で共有されている\footnote{https://github.com/masayu-a/BCCWJ-ANNOTATION-ORDER/}.成果物はBCCWJのDVD版所有者のみが利用可能なダウンロードサーバ\footnote{https://bccwj-data.ninjal.ac.jp/mdl/}で公開されており,本研究の成果物も含まれている.} \section{アノテーション作業で扱った問題} 本節では,アノテーション作業で扱った問題について示す.アノテーション基準の策定には,扱う言語表現をどのように記号化するかを決める必要がある.BCCWJに対する文節係り受け・並列構造アノテーションでは,既存の係り受けアノテーション基準で表現できなかった構造を表現することを目標\modified{と}し,基準の再設計を行った.具体的には並列・同格構造を文節係り受けと分離してアノテーションを行い,新聞記事を対象にしていたときには問題にならなかった,倒置や係り先のない文節の認定を行った.アノテーションの実作業では,上流工程としてサンプリング・電子化・著作権処理・文境界認定・短単位形態論情報付与・長単位形態論情報付与・文節認定などがあった.これらの作業と並行して行ったために\modified{,}工程上\modified{に}発生する問題を解決しながら行う必要があった.工程上の問題は,上流工程が完了するまで作業が開始できないという作業順の問題と,上流工程で付与されたアノテーションが文節係り受け・並列構造を付与するのに適さないという基準上の問題の二つがあった.\subsection{基準で扱う言語学的な問題}アノテーション作業および基準において,重点的に取り扱った言語学的な問題について示す.一つ目は並列・同格構造である.並列・同格構造は文節係り受け関係との親和性が悪く,特に部分並列(non-constituentconjuncts)の場合に表現に無理が生じる.以下の例文では,1文節目から3文節目までと4文節目から6文節目までの二つの構成要素による並列構造をなすが,この並列構造を係り受け関係により自然に表現することは難しい.\begin{itembox}[l]{部分並列(non-constituentconjuncts)の例}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本を\&兄の\&太郎に\&ノートを\&弟の\&三郎に\&かしている\\\end{deptext}\end{dependency}\end{center}\end{itembox}本稿ではこの例も含めて,係り受け構造・並列構造・同格構造をどのように表現するか,過去の研究と対照しながら議論する.我々の基準では,文節係り受けとは別に並列や同格構造の構成要素の範囲を形態素単位(国語研短単位)に同定し,構成要素間\modified{に}無向リンク(同値関係)をはることでグループ(同値類)としてアノテーションを行う.並列や同格のアノテーションを分離したうえで,文節係り受け関係は本来係かるべき要素に係かるようにする.この結果,非交差条件を満たさない構造(non-projectivity)を許す.さらに並列構造の構成要素二つ以上のヲ格を含む構成要素から一つの述語に係かることを許すため,二重ヲ格制約を満たさない.テ形や連用中止の連続などの述語並列については,並列構造を認定しない方針をとる.これは,日本語の節間の並列関係を従属関係と識別するのが困難であるために作業から除外する.そのかわり,節に対する格要素の係り受け関係の曖昧性については,南の節分類\cite{南1974}を参考に,\cite{野田-1985}の議論を参考にしながら厳密に行\modified{う}.Web上のテキストには倒置であったり,係り先のない文節が含まれたりする.\modified{これらについては}基準において主辞後置制約(strictlyheadfinal)を緩和し右から左に係ることを許すほか,係り先のない文節にラベルを付与したうえで連結根付き木(singlerooted)制約も緩和してアノテーションを行う\footnote{正確には単一の文外の要素DUMMYを設定し,連結根付き木として表現する.}.現実のテキストには外国語や顔文字など,日本語の係り受け関係が認定できないものも存在する.これらについては,係り受けアノテーションを放棄するセグメントを導入して対処する.\subsection{作業順で扱う工程上の問題}係り受けの上流工程として,サンプリング・電子化・著作権処理・数値表現正規化・文境界認定・短単位形態論情報付与・長単位形態論情報付与がある.サンプリングはコーパスに収録するテキストを選択する工程である.電子化は紙媒体のテキストを機械可読な形式に入力する工程である.著作権処理はコーパスに採録して公開してよいかを権利者に確認する工程である.数値表現正規化は\modified{,}アラビア数字や漢数字など多様な数値表現を位取り記数法を用いて正規化する工程(NumTrans)である.文境界認定は日本語文として適切な文単位を認定する工程である.\modified{BCCWJにおいて形態論情報付与は,二重形態素解析と呼ばれ,短単位・長単位の二つの単位を付与する.短単位形態論情報付与\cite{SUW}は,形態素解析器MeCab\footnote{https://taku910.github.io/mecab/}と辞書UniDic\footnote{https://unidic.ninjal.ac.jp/}によ\modified{る}解析を行い,人手で修正を行う工程である.長単位形態論情報付与\cite{LUW}は,長単位解析器Comainu\cite{comainu}\footnote{https://ja.osdn.net/projects/comainu/}により文節境界と長単位形態論情報を推定したうえで人手で修正を行う工程である.}2008年の時点で,新聞・書籍・白書・Yahoo!知恵袋のデータに短単位形態論情報が付与されたデータが内部公開された.文節係り受け付与には長単位形態論情報が必要なために,並列構造・同格構造を先行して付与した.その後,雑誌・Yahoo!ブログのデータが得られ次第,並列構造・同格構造を付与した.この作業は基本的に1人の作業者により全データに対してアノテーションを行った.2009年の時点で,長単位形態論情報が得られ,文節係り受けアノテーションを開始した.文節係り受けアノテーションは既に付与されている並列構造・同格構造アノテーションと,文節係り受け解析器CaboCha\footnote{https://taku910.github.io/cabocha/}による自動解析結果を重ね合わせたものを修正することで行った.作業者は十数名により並行で行った.\modified{この時点でのデータをBCCWJ-DepParaversion1とした.}2011年12月にBCCWJDVDversion1.0が公開された.\modified{BCCWJ-DepParaversion1とBCCWJDVDversion1.0とで,係り受けアノテーション作業と形態論情報修正作業が並行して実施されたために,二つのデータ間で形態論情報に齟齬が発生した.こ}の齟齬を動的計画法を用いて検出し,一意に構造が決められる1対多対応もしくは多対1対応の齟齬については自動的に修正した.一意に構造が決められない多対多の構造については,人手で確認することで解消を行い,BCCWJ-DepPara\modified{version2}を公開した.\modified{その後,BCCWJDVDversion1.0は文境界に問題があることが報告された\cite{tanomura-2014}.係り受けアノテーションにおいて\modified{は}根が文末にあ\modified{るため},文末の定義が重要である.このため,DVD版とは異なる独自の文境界基準を規定したうえで},文境界の修正と節境界を越える係り受け関係の修正に着手した.文境界修正については基準で扱う工程上の問題として次小節で扱う.2015年にBCCWJDVDversion1.1が公開され,これには数値表現正規化前のデータ(OT)も含めることになった.表層文字列を数値表現正規化後のデータ(NT)ではなく数値表現正規化前のデータ(OT)に変更するという作業を行い,それに基づいて発生した齟齬の吸収作業を行った.\modified{このBCCWJDVDversion1.1に対応する,節境界を超える係り受け関係を修正したものをBCCWJ-DepParaversion3として公開した.並行して非コアデータを含むコーパス全体の文境界修正を行ったために,BCCWJDVDversion1.1の文境界\cite{小西-2015}とBCCWJ-DepParaversion3の文境界\cite{小西-2013}との間に文境界の齟齬が発生している.前者の文境界は文境界の右端を認定したもので文の入れ子の最小スパンを文として規定しているが,後者の文境界は文の入れ子を許した最大スパンを文として規定しており,基準にはカギカッコ内の要素の意味に基づいた判断を行っている.このため,節間の関係が複雑になり,今回改めて節境界を超える係り受け関係を整理した.なお,BCCWJ-DepParaversion3における文境界は,BCCWJコアデータについて付与されているが,BCCWJ非コアデータ全体について付与することは作業工数が膨大になるために断念した.}\subsection{基準で扱う工程上の問題}工程上,他の基準のデータをもとに作業を行うが,上流工程で付与された情報が必ずしも文節係り受けを付与するために適した基準でない場合がある.この基準の齟齬を\modified{解決するため,}アノテーションラベル\modified{に齟齬の情報を持たせる方策をとる}.一つは文節境界である.国語研文節境界は形態論情報に基づき定義する作業が上流工程で行われているが,係り受け構造を厳密に判定しながら決められたものではない.文節係り受け構造をアノテーションする際,文節が細かく分かれているがためにアノテーションしがたい構造については,「文節をつなぐ」というラベルを定義し,それを付与することにより解決する.もう一つは文境界である.文境界は係り受け木の根を決める重要な概念であるが,BCCWJにおいてはversion1.0の時点では文境界認定を実質的に放棄しており,DVDが頒布された時点で,BCCWJの整備とは独立に修正を始めた\cite{小西-2013}.その際に節境界を作業者が内省により分類しながら,節を越える文節のスコープを再定義した.なお,本研究の文境界修正\cite{小西-2013}とDVD版の文境界\cite{小西-2015}は独立のものである. \section{既存のアノテーション基準との違いの概要} 本節では,係り受け関係ラベルを比較することで先行研究の基準との違いを概観する.『現代日本語書き言葉均衡コーパス』(BCCWJ)の基準については\keytop{BCCWJ}と記し,『日本語話し言葉コーパス』(CSJ)の基準については\keytop{CSJ}と記し,『京都大学テキストコーパス』(KC)の基準については\keytop{KC}と記す.\begin{table}[b]\caption{係り受けアノテーション基準の比較}\label{tbl:diff}\input{01table01.tex}\end{table}各基準の違いをまとめたものを表\ref{tbl:diff}に示す.まず,本論文の主貢献である並列構造関連の違いについて簡単に説明する.中俣は「並列関係とは元来範列的関係であったものを言語の線条性の要請に従って統合的関係に変換したものである.そのために非現実性を帯びる」と述べている\cite{Nakamata-2015}.いわゆる部分並列(non-constituentconjuncts)のような統語木の部分木を満たさないものが範列的関係であった場合に,並列構造を木構造として表現する際に無理が生じる.\keytop{KC}においては,並列構造に対してラベルP,同格構造についてラベルAを準備し,係り受け関係にラベルを付与することにより表現する.部分並列についてはラベルIを付与した上で,係り受け関係が交差しないよう並列構造の構成要素の最右要素に係り先を決める.\keytop{CSJ}においては,\keytop{KC}の基準をもとに同格構造を狭義の同格(ラベルA)と総称や数値表現などの広義の同格(ラベルA2)を区別し,係り受け関係にラベルを付与することにより表現する.\keytop{BCCWJ}においては,並列構造・同格構造のような範列的関係を,係り受け関係で表現することを放棄する.並列構造・同格構造はその構成要素の範囲(セグメント)とその同値類(グループ)を定義することで表現する.セグメント・グループに対するラベルとしてParallel(並列構造)・Apposition(狭義の同格)・Generic(総称など)を定義する.\modified{なお,以下の例ではParallelを実線角丸四角で,Appositionを点線角丸四角で,Genericを破線角丸四角で囲み,それぞれの隣接構成素をラベル矢印のない太いスプライン曲線(Parallelは実線・Appositionは点線・Genericは破線)で結ぶことにより表現する.}\modified{非交差制約(projectivity)や主辞後置制約(strictlyheadfinal)を違反する場合のラベルについて示す.\keytop{KC}においては,対象が新聞記事であるため,この二つの制約は常に満たすという立場でアノテーションを行っており,特別なラベルを設定していない.\keytop{CSJ}においては,交差する関係にはラベルXを付与し,倒置などで右から左に係る関係には左から右に係る関係をラベルRとして付与する.\keytop{BCCWJ}においては,交差する関係および倒置などで右から左に係る関係を許すが,それらは正しい係り先に係る関係を導入\modified{する}ことにより表現し,ラベルとしては通常の係り受け関係と同じラベルDを用いる.}\modified{次に,}上流工程のアノテーションを修正するラベルについて示す.\keytop{KC}においては,すべてのアノテーションが一機関で作成されているために工程間で発生する齟齬を吸収するという機構は基準に組み込まれていない.\keytop{CSJ}においては,ポーズが入ったがために書き起こしレベルで文節境界が入ったが,統語的には文節境界が入るべきではないという場合がある.その場合には,後続文節と接続するためのラベルB+を定義する.\keytop{BCCWJ}においては,文節境界アノテーションと係り受けアノテーションが別機関で作成されており,これらの間の文節境界の齟齬を吸収するためのラベルBを定義する.\modified{また,\keytop{BCCWJ}には文の入れ子を許した文境界単位を認定するため,文中に文境界が出現する場合がある.その場合にはラベルZを定義する.}係り受けアノテーションを放棄するラベルについて示す.\keytop{KC}においては,対象が新聞記事であるため,基本的には係り受けアノテーションを放棄するという方策はとられていない.一方,\keytop{CSJ}においては,係り受け関係が不定なものとして,接続詞(ラベルC)・感動詞(ラベルE)・言い直し(ラベルD\footnote{\modified{ここでラベルDとあるのは\keytop{CSJ}におけるものであり,\keytop{BCCWJ}における通常の係り受けを含むラベルDと異なり,通常の係り受けを含まない.}}(orS1:複数文節の言い直し))・フィラー(ラベルF)・係り先のない文節(ラベルN)・古典(ラベルK(orK-S1,K-E1:複数文節の場合))・呼びかけ(ラベルY)などにラベルを定義している.\keytop{BCCWJ}においては,\modified{接続詞・感動詞に対して,係り受け関係が認定できるものはラベルDを付与し,認定できないものはラベルFを付与し係り先を不定とする(根にかける).言い直しに対して,言い直す前のものから言い直した後のものへの係り受けをラベルDで付与するが,言い直した後のものが存在しない場合にはラベルFを付与し,根にかける.また,言い直す前の範囲に対してセグメントDisfluencyを規定する.フィラー・顔文字・非言語音・係り先のない文節・記号・補助記号\footnote{アイテマイズの記号など,単独で文節をなすもの.}・URL・空白など係り先が不定になるものに対してラベルFを付与し,根にかける.}\modified{外国語・ローマ字文・漢文・古文などの係り受けを放棄する範囲についてはForeignのセグメントを定義し,セグメント内の係り受け関係は基本的には右連接要素にかける.}\modified{呼びかけや文末要素であって係り受けが決まらないものに対しては,}ラベルZを定義するとともに,根にかける\footnote{文末相当について,引用などで係り先が明らかな場合には正しい係り先にかける.}.\modified{なお,以下の例ではDisfluencyやForeignを破線角丸四角で囲むことにより表現する.}その他,\keytop{CSJ}特有のラベルとして,話し手の文法的誤りを示すラベルS:格表示誤りがある.\modified{\keytop{BCCWJ}においては,文法的誤りを示すラベルは認定していない.} \section{各論} 以下では,本論文における係り受け・並列構造アノテーション基準を既存のアノテーション基準と比較しながら用例を用いて示す.\keytop{BCCWJ}の右に付与されているXXXXX\_Y\_ZZZZ\_ZZZZZは用例が出現したファイルを示す.XXXXXが作業の優先順位\footnote{BCCWJコアデータのアノテーションにおいては,研究者間でアノテーションを付与する優先順位を共有し,優先順位が高いサンプルにできるだけアノテーションが重なるようにしている.},Yが優先順位を表す部分集合名\footnote{先に述べた優先順位は使用域(register)毎に2-5の部分集合(A,B,C,D,E)に分割され,各部分集合内では代表性を有する比率でサンプリングされている.},ZZZZ\_ZZZZZがDVDに収録されている元データのファイル名である.明示されていないものは,各コーパスのマニュアルの用例などに基づいた作例である.\subsection{係り受け関係}\subsubsection{係り受け関係の表現法}以下では係り受け関係\modified{を}次のような図で示す.\begin{itembox}[l]{\keytop{BCCWJ}00079\_D\_PM11\_00322}\small\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]$||$次$|$の$||$\&$||$特集$|$で$|$は$|$、$||$\&$||$具体$|$的$|$な$||$\&$||$取り組み$|$を$||$\&$||$紹介$|$し$|$たい$|$。$||$\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{5}{D}\depedge{3}{4}{D}\depedge{4}{5}{D}\end{dependency}\end{center}\normalsize\end{itembox}$|$は国語研短単位形態素境界(\keytop{BCCWJ}\keytop{CSJ})もしくはJUMAN品詞体系形態素境界(\keytop{KC})を表す.係り受け関係の説明に形態素境界が問題にならない場合には省略する.$||$は国語研文節境界(\keytop{BCCWJ}\keytop{CSJ})もしくは京都大学テキストコーパス文節境界(\keytop{KC})を表す.\modified{係り受け関係の説明に文節境界が問題にならない場合には省略する.}係り受け関係は文節列上に矢印で表現する.倒置を除いて格要素$\rightarrow$述語,修飾語$\rightarrow$被修飾語などの方向に付与する.\subsubsection{倒置}\keytop{KC}の基準においては,主辞後置(strictlyheadfinal)の原則から常に左から右に係る.\keytop{BCCWJ}\keytop{CSJ}の基準においては,右から左に係ることを許す.\keytop{CSJ}では右から左に係ることをラベルRを用いて示すが,\keytop{BCCWJ}においては特に明示しない.\keytop{BCCWJ}において,最初の「何だろう」は係り先なしになるが,アノテーションツール上では末尾の文外の根ノード(以下ROOTと呼ぶ)にかけることにより表現する.倒置箇所は通常の係り受けとしてラベルDを用いる.倒置などにより係り先が不定になる箇所にはROOTにかけてラベルFを用いる.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]何だろう\&これは\&ROOT\\\end{deptext}\depedge{1}{3}{F}\depedge{2}{1}{D}\end{dependency}\end{center}\end{itembox}\subsubsection{交差}\keytop{KC}の基準においては,非交差制約(projectivity)の原則から係り受け関係が同格表現以外においては交差することを許さない.\keytop{BCCWJ}\keytop{CSJ}の基準においては,係り受け関係が交差することを許す.\keytop{CSJ}では係り受け関係が交差することをラベルXを用いて明示するが,\keytop{BCCWJ}においては特に明示しない.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]地面を\&大きな\&削る\&ドリルみたいだね\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{4}{D}\depedge{3}{4}{D}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]地面を\&大きな\&削る\&ドリルみたいだね\\\end{deptext}\depedge{1}{3}{}\depedge{2}{4}{X}\depedge{3}{4}{}\end{dependency}\end{center}\end{itembox}\subsubsection{係り先のない文節}\keytop{KC}の基準においては,最右文節以外に係り先のない文節を許さない.\keytop{BCCWJ}\keytop{CSJ}の基準においては,最右文節以外でも係り先のない文節を許す.\keytop{BCCWJ}においては係り先のない文節をROOT(CaboCha出力における文節ID$-1$)に係るように表現する.係り先のない文節\modified{の分類}については,後述する係り受け関係ラベル分類に基づいて記述する.尚,\keytop{CSJ}においては係り先のない文節をラベルNにより表現する.以下の例では「中学校を」がROOTに係る.文末の「いたんですね」も係り先がなくROOTに係る.\keytop{BCCWJ}において,文末以外の係り先がないノードはラベルF,文末はラベルZとして区別する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]中学校を\&山が\&好きな\&友達が\&いたんですね\&ROOT\\\end{deptext}\depedge[edgebelow]{1}{6}{F}\depedge{2}{3}{D}\depedge{3}{4}{D}\depedge{4}{5}{D}\depedge[edgebelow]{5}{6}{Z}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]中学校を\&山が\&好きな\&友達が\&いたんですね\&ROOT\\\end{deptext}\depedge[edgebelow]{1}{6}{N}\depedge{2}{3}{}\depedge{3}{4}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\subsubsection{文節境界修正}文節境界を修正する記述を係り受け関係ラベル\keytop{BCCWJ}においてラベルB,\keytop{CSJ}においてラベルB+を用いて表現する.係り受けアノテーションにそぐわない文節単位のみを,上のような係り受け関係を用いて表現する.このような例は,\keytop{BCCWJ}においては複合動詞に,\keytop{CSJ}においては発話時にポーズが入った場合に出現する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]見物人が\&集まって\&くる\\\end{deptext}\depedge{1}{2}{D}\depedge[edgebelow]{2}{3}{B}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]必要な\&書類\&が\&まだ\&来ない\\\end{deptext}\depedge{1}{2}{}\depedge[edgebelow]{2}{3}{B+}\depedge{3}{5}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\subsection{並列構造・同格構造\modified{と}アノテーションを放棄する範囲}本小節では\keytop{BCCWJ}における並列構造・同格構造\modified{と}アノテーションを放棄する範囲について示す.これらは\keytop{KC}\keytop{CSJ}においては定義されていないか,係り受け関係のラベルにより定義されているものである.\subsubsection{セグメントとグループの導入}\keytop{BCCWJ}において,係り受け関係とは別に,文に含まれる並列構造・同格構造をアノテーションする.並列構造もしくは同格構造の構成要素に対しては\modified{,国語研短単位形態素境界に基づいて}セグメントと呼ばれる範囲を付与し,複数のセグメントをグループ化することによりアノテーションを行う.\subsubsection{並列構造の表現法}並列構造のセグメントとグループをParallelと呼ぶ.並列構造を以下のように表現する.並列構造の構成要素は文節単位ではなく形態素単位でセグメントにより範囲指定する.\modified{図中,実線の角丸四角を用いてParallelを示す.}\begin{itembox}[l]{\keytop{BCCWJ}00079\_D\_PB46\_00066}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]$||$\&売れる\&$||$\&時$|$\&に\&$||$\&売れる\&$||$\&商品\&$|$\&構成\&$|$\&と\&$||$\&存在\&$|$\&感\&$|$\&を\&$||$\&持つ\&$||$\\\end{deptext}\depedge{2}{4}{D}\depedge{4}{7}{D}\depedge{7}{9}{D}\depedge{12}{15}{D}\depedge{18}{21}{D}\wordgroup[minimumheight=16pt]{1}{9}{11}{p1}\wordgroup[minimumheight=16pt]{1}{15}{17}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}並列構造は形態素単位・文節単位・複数文節単位・節単位など様々な単位に規定できる.基本的には入れ子を許して全ての単位に対して付与する.\begin{itembox}[l]{\keytop{BCCWJ}00006\_A\_OW6X\_00009}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]科学技術の\&向上\&\hspace*{-4mm}と\&国民経済の\&発展\&\hspace*{-4mm}に\&資する\&ことを\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{5}{D}\depedge{4}{5}{D}\depedge{5}{7}{D}\depedge{7}{8}{D}\wordgroup[minimumheight=20pt]{1}{1}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{5}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}名詞句については,対応する名詞句をセグメントParallelで切り出し,グループ化する.係り受け関係は通常の係り受けと同じラベルDを付与する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]太郎\&\hspace*{-4mm}と\&花子\&\hspace*{-4mm}が\\\end{deptext}\depedge{1}{3}{D}\wordgroup[minimumheight=20pt]{1}{1}{1}{p1}\wordgroup[minimumheight=20pt]{1}{3}{3}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}尚,\keytop{CSJ}\keytop{KC}においては,ラベルPを付与する.\begin{itembox}[l]{\keytop{CSJ}\keytop{KC}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]太郎と\&花子が\\\end{deptext}\depedge{1}{2}{P}\end{dependency}\end{center}\end{itembox}\keytop{BCCWJ}においては,形態素単位・文節単位・複数文節単位・節単位など様々な単位に規定できる並列構造を,基本的には入れ子を許して全てのレベルに対してアノテーションする.しかしながら述語並列については並列かどうかの判定が困難なため,全て並列とみなさず,通常の係り受けとして定義する.\keytop{CSJ}\keytop{KC}では一部の述語並列について,並列構造を認定しラベルPを付与しているが,\keytop{BCCWJ}では通常の係り受けとしてラベルDを付与する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]チーズを\&食べ、\&ビールを\&飲んだ\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{4}{D}\depedge{3}{4}{D}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}\keytop{KC}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]チーズを\&食べ、\&ビールを\&飲んだ\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{P}\depedge{3}{4}{}\end{dependency}\end{center}\end{itembox}次に部分並列(non-constituentcoordination)について示す.\keytop{CSJ}\keytop{KC}では以下のような構造について,非交差制約を順守するためにラベルIを付与し,真の係り先でないものにかける.\keytop{BCCWJ}においては,範囲を規定したうえで,通常の係り受け関係として真の係り先にかける.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本を\&兄の\&太郎に\&ノートを\&弟の\&三郎に\&かしている\\\end{deptext}\depedge{1}{7}{D}\depedge{2}{3}{D}\depedge{3}{7}{D}\depedge{4}{7}{D}\depedge{5}{6}{D}\depedge{6}{7}{D}\wordgroup[minimumheight=20pt]{1}{1}{3}{p1}\wordgroup[minimumheight=20pt]{1}{4}{6}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{KC}\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本を\&兄の\&太郎に\&ノートを\&弟の\&三郎に\&かしている\\\end{deptext}\depedge{1}{3}{I}\depedge{2}{3}{}\depedge{3}{6}{P}\depedge{4}{6}{I}\depedge{5}{6}{}\depedge{6}{7}{}\end{dependency}\end{center}\end{itembox}\keytop{BCCWJ}において,並列句の間に接続詞が出現する場合には,右隣接する並列句の最右文節にかける.\begin{itembox}[l]{\keytop{BCCWJ}00144\_C\_PN2c\_00010}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]我が家\&\hspace*{-4mm}と、\&そして\&我が\&身\&\hspace*{-4mm}の\&イメージチェンジを\&依頼した。\\\end{deptext}\depedge{1}{5}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\depedge{5}{7}{D}\depedge{7}{8}{D}\wordgroup[minimumheight=20pt]{1}{1}{1}{p1}\wordgroup[minimumheight=20pt]{1}{4}{5}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}次に,並列構造の複数の要素に左から係る場合について示す.以下のように「赤い」\modified{が}「シャツと」と「ジャケットを」の両方に係り受け関係がある\modified{.その}場合には,最左要素である「シャツと」にかける.並列構造の外側から,並列構造の要素にかける場合には両方が係り先であることを意味する.\modified{これは,}項を共有するなど,部分文字列を共有するような係り受け関係を対象とする.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]赤い\&シャツ\&\hspace*{-4mm}と\&ジャケット\&\hspace*{-4mm}を\&着た\&姉\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{}\depedge{4}{6}{}\depedge{6}{7}{}\wordgroup[minimumheight=20pt]{1}{2}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{4}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}以下のように「赤い」が「パプリカと」に係り,「黒オリーブが」に係らない場合,並列構造の範囲を「赤いパプリカ」と「黒オリーブ」に定義して,\modified{「}赤い\modified{」}の係り先を限定する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]赤い\&パプリカ\&\hspace*{-4mm}と\&黒オリーブ\&\hspace*{-4mm}が\&のった\&パスタ。\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{}\depedge{4}{6}{}\depedge{6}{7}{}\wordgroup[minimumheight=20pt]{1}{1}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{4}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}\keytop{BCCWJ}において,3つ以上の並列構造の場合,隣接する並列句にかける.3つのセグメントによって並列句のグループ化を行うことによりこれを表現する.並列句の間に接続詞が出現する場合には,右隣接する並列句の最右文節にかける.以下の事例では,「風合い」「風格」「高級感あふれる質感」が並列構造をなす.\begin{itembox}[l]{\keytop{BCCWJ}00033\_B\_PB35\_00013}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本物ならではの\&風合い\&\hspace*{-4mm}、\&風格\&そして\&高級感あふれる\&質感\&\hspace*{-4mm}は\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{4}{D}\depedge{4}{7}{D}\depedge{5}{7}{D}\depedge{6}{7}{D}\wordgroup[minimumheight=20pt]{1}{2}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{4}{p2}\wordgroup[minimumheight=20pt]{1}{6}{7}{p3}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\draw[-,in=-90,out=-90,verythick](p2)tonode[below]{Parallel}(p3);\end{dependency}\end{center}\end{itembox}\subsubsection{狭義の同格構造}\keytop{BCCWJ}においては,同格構造についても形態素単位のセグメントとグループで表現する.同格構造のセグメントとグループをAppositionと呼ぶ.一方,\keytop{KC}\keytop{CSJ}においては,同格構造を文節単位の係り受け関係としてラベルAを用いて表現する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]米国大統領\&ジョン・F・ケネディ\&\hspace*{-4mm}が\&暗殺された\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{}\wordgroup[minimumheight=20pt,dotted]{1}{1}{1}{a1}\wordgroup[minimumheight=20pt,dotted]{1}{2}{2}{a2}\draw[-,in=-90,out=-90,verythick,dotted](a1)tonode[below]{Apposition}(a2);\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{KC}\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]米国大統領\&ジョン・F・ケネディが\&暗殺された\\\end{deptext}\depedge{1}{2}{A}\depedge{2}{3}{}\end{dependency}\end{center}\end{itembox}\subsubsection{具体例と総称の同格関係・具体例と数詞の同格関係}\keytop{BCCWJ}においては,ParallelとAppositionの他にGenericという「セグメント」と「グループ」を規定する.Genericは具体例と総称の同格関係や具体例と数詞の同格関係に対して規定する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]泥棒は\&指輪など\&\hspace*{-4mm}、\&多数の\&高級品\&を\&盗んだ\\\end{deptext}\depedge{1}{7}{D}\depedge{2}{5}{D}\depedge{4}{5}{D}\depedge{5}{7}{D}\wordgroup[minimumheight=20pt,dashed]{1}{2}{2}{a1}\wordgroup[minimumheight=20pt,dashed]{1}{4}{5}{a2}\draw[-,in=-90,out=-90,verythick,dashed](a1)tonode[below]{Generic}(a2);\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]泥棒は\&指輪など、\&多数の\&高級品を\&盗んだ\\\end{deptext}\depedge{1}{5}{}\depedge{2}{4}{A2}\depedge{3}{4}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{KC}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]泥棒は\&指輪など、\&多数の\&高級品を\&盗んだ\\\end{deptext}\depedge{1}{5}{}\depedge{2}{4}{A}\depedge{3}{4}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\subsubsection{アノテーションの放棄}\keytop{BCCWJ}においては,Foreign,Disfluencyなどのセグメントを規定する.Foreignは外国語・ローマ字・漢文・古典などを表し,Disfluencyは\modified{言い直し・}言いよどみを表す.基本的にはセグメント内の係り受けアノテーションを放棄し,\modified{範囲内の}すべての要素は右隣接要素にかける.\begin{itembox}[l]{\keytop{BCCWJ}00004\_A\_PB22\_00002}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]I\&saw\&a\&girl\&という\&例文は\\\&Foreign\&\&\&\&\\\end{deptext}\depedge[edgebelow]{1}{2}{D}\depedge[edgebelow]{2}{3}{D}\depedge[edgebelow]{3}{4}{D}\depedge[edgebelow]{4}{5}{D}\depedge[edgebelow]{5}{6}{D}\wordgroup[minimumheight=16pt,dashed]{1}{1}{4}{a1}\end{dependency}\end{center}\end{itembox}\modified{言い直した後の要素が存在する場合,言い直しのセグメント外の係り先をその要素に認定する.}\begin{itembox}[l]{\keytop{BCCWJ}00329\_A\_OC03\_00651}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]ど\&\hspace*{-4mm},\&泥棒だわー!\\\&\&\\Disfluency\&\&\\\end{deptext}\depedge[edgebelow]{1}{3}{D}\wordgroup[minimumheight=20pt,dashed]{1}{1}{1}{a1}\end{dependency}\end{center}\end{itembox}\subsection{節境界を越える係り受け関係}\keytop{BCCWJ}では節境界を越える係り受け関係について,次に示す基準を明確にして修正を行った.従属節が埋め込まれている場合,埋め込まれている節境界より前の要素について係り受け関係が判定しにくい場合が多い.\modified{具体的には,述語項関係が認められるが,節のスコープに入る要素の制限により係り受け関係が認められない場合である.項の省略により主節と従属節(もしくは複数の従属節)で一つの項を共有する場合に,作業者が述語項関係と係り受け関係を混同し,誤った節間の係り受け関係を認定してしまう.}そこで,表\ref{table:minami}に示す南の節分類に基づいて\modified{節間の係り受け関係の再認定を}行った.南のA類・B類・C類を,その構成要素(表\ref{table:minami}上部分)と述語的部分の要素(表\ref{table:minami}左下部分)により判別し,述語的部分以外の節内要素が当該節のスコープに入る(+)か入らない($-$)かを決める.具体的には,提示の「は」は,A類・B類のスコープに入らないが,C類のスコープに入る.一方\modified{,}主語の「が」はA類のスコープに入らないが,B類・C類のスコープに入る.\begin{table}[p]\rotatebox{90}{\begin{minipage}{571pt}\caption{南(1974)の従属節分類と内部に現れる要素(p128--129)}\label{table:minami}\input{01table02.tex}\end{minipage}}\end{table}次の「つつ」は付帯状況を表す節末表現でA類である.\modified{以下の二例において,「彼女が」および「彼女は」は,「飲みつつ」と「食べた」の双方の主語になるという述語項構造を持つ.南の分類においては,}目的語の「を」はA類のスコープに入るが,主語の「が」や提示の「は」はA類のスコープに入らない.\modified{ゆえに,「彼女が」および「彼女は」の係り先は「食べた」になる.}\begin{itembox}[l]{「が」とツツ節(付帯状況:A類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女が\&コーヒーを\&飲みつつ\&ケーキを\&食べた\\\end{deptext}\depedge{1}{5}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{2}{3}{p1}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{「は」とツツ節(付帯状況:A類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女は\&コーヒーを\&飲みつつ\&ケーキを\&食べた\\\end{deptext}\depedge{1}{5}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{2}{3}{p1}\end{dependency}\end{center}\end{itembox}次の「ないで」は逆接を表す節末表現でB類である.\modified{以下の二例において,「彼女が」および「彼女は」は,「飲まないで」と「食べた」の双方の主語になるという述語項構造を持つ.南の分類においては,}主語の「が」や目的語の「を」はB類のスコープに入るが,提示の「は」はB類のスコープに入らない.\modified{ゆえに,「彼女が」の係り先は「飲まないで」になるが,「彼女は」の係り先は「食べた」になる.}\begin{itembox}[l]{「が」とナイデ節(逆接:B類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女が\&コーヒーを\&飲まないで\&ケーキを\&食べた\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{1}{3}{p1}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{「は」とナイデ節(逆接:B類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女は\&コーヒーを\&飲まないで\&ケーキを\&食べた\\\end{deptext}\depedge{1}{5}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{2}{3}{p1}\end{dependency}\end{center}\end{itembox}次の「から」は理由を表す節末表現でC類である.\modified{以下の二例において,「彼女が」および「彼女は」は,「飲まないから」と「食べた」の双方の主語になるという述語項構造を持つ.南の分類においては,}提示の「は」・主語の「が」・目的語の「を」全てがC類のスコープに入る.\modified{ゆえに,「彼女が」および「彼女は」の係り先は「飲まないから」になる.}\begin{itembox}[l]{「が」とカラ節(理由:C類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女が\&コーヒーを\&飲まないから\&ケーキを\&あげた\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{1}{3}{p1}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{「は」とカラ節(\modified{理由}:C類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女は\&コーヒーを\&飲まないから\&ケーキを\&あげた\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{1}{3}{p1}\end{dependency}\end{center}\end{itembox}\modified{この判定は一人の作業者により,BCCWJ-DepParaversion2からversion3への変更の際に全数見直しを行った.} \section{BCCWJ-DepParaの基礎統計} 本節では,BCCWJ-DepParaの基礎統計量を示す.\begin{table}[b]\caption{BCCWJ-DepParaの基礎統計(形態素数とラベル数)}\label{stat:label}\input{01table03.tex}\par\vspace{4pt}{\small割合(\%)は,ラベル数\{`D',`B',`F',and`Z'\}/総文節数.\par}\end{table}表\ref{stat:label}は,各レジスタの短単位数(SUW),長単位数(LUW),文節数,係り受けラベル数`D'・`B'・`F'・`Z',文末数(`EOS')である.ラベル`F'は白書(OW)とYahoo!ブログ(OY)とで他のレジスタよりも,割合が大きい傾向にある.白書は箇条書きの行頭記号が多く出現する一方,ブログは顔文字などが多く出現し,ラベル`F'が多い傾向にある.BCCWJ-DepParaでは,BCCWJの元データとは異なる文境界を認定しており\cite{小西-2013},文の入れ子を許しているため,入れ子のすべての文末を表すラベル`Z'が,アノテーション単位としての文末`EOS'よりも多い傾向にある.表\ref{stat:coord}は,並列構造・同格構造の統計である.segはセグメントの数(並列構造の部分構成要素数),grpはグループの数(並列構造全体の数),seg/grpは1グループあたりのセグメントの数(並列構造を構成する平均部分構成要素数)を表す.白書(OW)は並列構造が多い傾向にある.並列構造(Parallel)は2つ以上の構成要素を許し,平均部分構成要素数(seg/grp)は2.19--2.35であった.同格構造(Apposition,General)は,\modified{基本的に}構成要素対に基づく構造で\modified{ある}.\modified{しかしながら,新聞(PN)と書籍(PB)に},2回以上言い換える例外的な表現があった.\begin{table}[t]\caption{BCCWJ-DepParaの基礎統計(並列構造と同格構造)}\label{stat:coord}\input{01table04.tex}\end{table} \section{おわりに} 本稿では『現代日本語書き言葉均衡コーパス』に対する係り受け・並列構造アノテーションについて,その基準とともに概説した.基準においては,係り受け構造と並列構造を分けてアノテーションを行うことを提案し,並列構造は,構成要素範囲(セグメント)と構成要素集合(グループ)により表現する方法を提案した.節間の関係については,南の節分類\cite{南1974}に基づき,係り先を決めることを提案した.3次チェック時に節を超える係り先を再確認することで,整合性を保たせた.節間のラベルについては,現在『鳥バンク』\cite{ToriBank}の節間の関係\cite{Ikehara-2009}を付与しつつある\cite{Matsumoto-2017a,Matsumoto-2017b,Matsumoto-2018a,Matsumoto-2018b}.BCCWJ-DepParaデータは,『現代日本語書き言葉均衡コーパス』DVD版を購入した方にhttp://bccwj-data.ninjal.ac.jp/mdl/より公開している.本提案手法に適合する係り受け解析モデルとして,\cite{Iwatate-2012}は並列構造と係り受け構造を双対分解(dualdecomposition)して,推定する手法を提案している.\acknowledgment本研究の一部は,国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」,および国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究はJSPS科研費特定領域研究18061005,基盤研究(A)23240020,基盤研究(B)25284083,挑戦的萌芽研究15K12888,基盤研究(A)17H00917の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{KNBC}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評価情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{池原}{池原}{2007}]{ToriBank}池原悟\BBOP2007\BBCP.\newblock鳥バンク(Tori-Bank).\\newblock\url{http://unicorn.ike.tottori-u.ac.jp/toribank}.\bibitem[\protect\BCAY{池原}{池原}{2009}]{Ikehara-2009}池原悟\BBOP2009\BBCP.\newblock\Jem{非線形言語モデルによる自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{岩立}{岩立}{2012}]{Iwatate-2012}岩立将和\BBOP2012\BBCP.\newblock{\BemDevelopmentofPairwiseComparison-basedJapaneseDependencyParsersandApplicationtoCorpusAnnotation}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology,Japan.\bibitem[\protect\BCAY{Iwatate,Asahara,\BBA\Matsumoto}{Iwatateet~al.}{2008}]{Iwatate-2008}Iwatate,M.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQJapaneseDependencyParsingUsingaTournamentModel.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\361--368}.\bibitem[\protect\BCAY{国立国語研究所コーパス開発センター}{国立国語研究所コーパス開発センター}{2015}]{BCCWJManual}国立国語研究所コーパス開発センター\BBOP2015\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』利用の手引き第1.1版}.\newblock大学共同利用機関法人人間文化研究機構.\bibitem[\protect\BCAY{小西\JBA中村\JBA田中\JBA間淵\JBA浅原\JBA立花\JBA加藤\JBA今田\JBA山口\JBA前川\JBA小木曽\JBA山崎\JBA丸山}{小西\Jetal}{2015}]{小西-2015}小西光\JBA中村壮範\JBA田中弥生\JBA間淵洋子\JBA浅原正幸\JBA立花幸子\JBA加藤祥\JBA今田水穂\JBA山口昌也\JBA前川喜久雄\JBA小木曽智信\JBA山崎誠\JBA丸山岳彦\BBOP2015\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の文境界修正.\\newblock\Jem{国立国語研究所論集},{\Bbf9},\mbox{\BPGS\81--100}.\bibitem[\protect\BCAY{小西\JBA小山田\JBA浅原\JBA柏野\JBA前川}{小西\Jetal}{2013}]{小西-2013}小西光\JBA小山田由紀\JBA浅原正幸\JBA柏野和佳子\JBA前川喜久雄\BBOP2013\BBCP.\newblockBCCWJ係り受け関係アノテーション付与のための文境界再認定.\\newblock\Jem{第3回コーパス日本語学ワークショップ発表論文集},\mbox{\BPGS\135--142}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo-2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturallanguagelearning},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{黒橋\JBA居倉\JBA坂口}{黒橋\Jetal}{2000}]{KC}黒橋禎夫\JBA居倉由衣子\JBA坂口昌子\BBOP2000\BBCP.\newblock形態素・構文タグ付きコーパス作成の作業基準(Version1.8).\\newblock\JTR,京都大学.\bibitem[\protect\BCAY{松本\JBA浅原\JBA有田}{松本\Jetal}{2017}]{Matsumoto-2017a}松本理美\JBA浅原正幸\JBA有田節子\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する節の意味分類情報アノテーション—基準の策定、仕様書の作成の必要性について—.\\newblock\Jem{言語資源活用ワークショップ2016},\mbox{\BPGS\336--346}.\bibitem[\protect\BCAY{松本}{松本}{2017}]{Matsumoto-2017b}松本理美\BBOP2017\BBCP.\newblock従属節の意味分類基準策定について—鳥バンク基準互換再構築の検討—.\\newblock\Jem{言語資源活用ワークショップ2017},\mbox{\BPGS\39--50}.\bibitem[\protect\BCAY{松本}{松本}{2018}]{Matsumoto-2018a}松本理美\BBOP2018\BBCP.\newblock日本語研究のための日本語従属節意味分類基準の試案—「鳥バンク」節間意味分類体系の再構築—.\\newblock\Jem{言語処理学会第24回年次大会},\mbox{\BPGS\769--772}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{Matsumoto-2018b}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockInShirai,K.\BED,{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC2018)},Paris,France.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{南}{南}{1974}]{南1974}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{中俣}{中俣}{2015}]{Nakamata-2015}中俣尚己\BBOP2015\BBCP.\newblock\Jem{日本語並列表現の体系}.\newblockひつじ書房.\bibitem[\protect\BCAY{野田}{野田}{1985}]{野田-1985}野田尚史\BBOP1985\BBCP.\newblock\Jem{はとが}.\newblock日本語文法セルフ・マスターシリーズ(1).くろしお出版.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011a}]{SUW}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2011a\BBCP.\newblock『現代日本語書き言葉均衡コーパス』形態論情報規定集第4版(下).\\newblock特定領域研究「日本語コーパス」平成22年度研究成果報告書,国立国語研究所.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011b}]{LUW}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2011b\BBCP.\newblock『現代日本語書き言葉均衡コーパス』形態論情報規定集第4版(上).\\newblock特定領域研究「日本語コーパス」平成22年度研究成果報告書,国立国語研究所.\bibitem[\protect\BCAY{小澤\JBA内元\JBA伝}{小澤\Jetal}{2014}]{comainu}小澤俊介\JBA内元清貴\JBA伝康晴\BBOP2014\BBCP.\newblock長単位解析器の異なる品詞体系への適用.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\279--401}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2004}]{Sassano-2004}Sassano,M.\BBOP2004\BBCP.\newblock\BBOQLinear-TimeDependencyAnalysisforJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\8--14}.\bibitem[\protect\BCAY{田野村}{田野村}{2014}]{tanomura-2014}田野村忠温\BBOP2014\BBCP.\newblockBCCWJの資料特性.\\newblock田野村忠温\JED,\Jem{コーパスと日本語学},講座日本語コーパス6.朝倉書店,東京.\bibitem[\protect\BCAY{内元\JBA丸山\JBA高梨\JBA井佐原}{内元\Jetal}{2003}]{CSJ}内元清貴\JBA丸山岳彦\JBA高梨克也\JBA井佐原均\BBOP2003\BBCP.\newblock『日本語話し言葉コーパス』における係り受け構造付与(Version1.0).\\newblock\JTR,『日本語話し言葉コーパス』の解説文書.\bibitem[\protect\BCAY{Uchimoto,Sekine,\BBA\Isahara}{Uchimotoet~al.}{1999}]{Uchimoto-1999}Uchimoto,K.,Sekine,S.,\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisBasedonMaximumEntropyModels.\BBCQ\\newblockIn{\BemEACL'99:Proceedingsofthe9thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\196--203}.\bibitem[\protect\BCAY{Yoshinaga\BBA\Kitsuregawa}{Yoshinaga\BBA\Kitsuregawa}{2010}]{Yoshinaga-2010}Yoshinaga,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2010\BBCP.\newblock\BBOQKernelSlicing:ScalableOnlineTrainingwithConjunctiveFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\1245--1253}.\bibitem[\protect\BCAY{Yoshinaga\BBA\Kitsuregawa}{Yoshinaga\BBA\Kitsuregawa}{2014}]{Yoshinaga-2014}Yoshinaga,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2014\BBCP.\newblock\BBOQASelf-adaptiveClassifierforEfficientText-streamProcessing.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1091--1102}.\end{thebibliography}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター准教授.現在に至る.博士(工学).自然言語処理・認知言語学の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V09N03-05
\section{はじめに} 計算機による要約の試みでは,文章中の重要と思われる部分を抽出することを中心に研究されてきた.しかし,要約は人間の高度に知的な作業であるため,計算機により重要と認定された部分を列挙するだけではなく,要約文章の結束性,構成などの点で課題があることが認識されてきている\cite{Namba00,Mani99revise}.人間が作成するような要約は,結束性,構成などが適切で,要点を適正に網羅しているといった高度な要件を満たしていると考えられるが,このような要件を計算機で満たすためにはどのような要素技術が必要であるかが明らかになっているとはいえない.我々は,このような現状に対し,どのような要約文章なら読みやすく適切であるかを,人間が実際にどのような要約を作成するかを調査した上で,計算機でも実現が可能なレベルの要約操作に細分化し,整理することが必要であると考える.しかし,人間が行う要約の操作はそれほど単純ではなく,表層的な表現の言い換え,構文的言い換えといった様々なレベルの操作が考えられる.このような多様なレベルの言い換えを考慮した上で,要約文が生成される元になった文を,要約元文章から選びだす作業は,人手により対応づけするしかないようにもみえるが,人手による対応付けは,客観的な対応基準や作業コストの両面からみて問題がある.このような流れの中で,例えば,Marcu\cite{MarcuPair}は論文とそのアブストラクトのように,要約とその元文章が組になっている文章集合から,要約の各文が要約元文章のどの文から生成されたかを,コサイン類似度を用いて自動的に対応付ける手法を提案している.また,日本語の自動要約の研究では加藤らがDPマッチングの手法を用いて,局所的な要約知識を自動的に抽出する研究を行っている\cite{kato99}.彼らの研究では,放送原稿とその要約を使用しているため,要約文書は元文原文の残存率が高く,語や文節レベルの言い換えといった局所的な要約知識の獲得に限定して効果をあげているが,人間が行う,より一般的な要約作成に必要な知識獲得を行うためには,その手法の拡張が必要となってくる.本研究では,このような背景から,要約元文章中における文の統語的な依存関係を手がかりに要約文との文・文節対応付けを行い,その結果に基づいて要約操作に関連する言い換え事例を収集し,要約で行われている文再構成操作がどのようなものであるかを調査した. \section{要約における文再構成操作} \subsection{調査対象データの収集}人間が作成した要約を調査する対象データとして,毎日新聞社説90記事に対して要約したものを用いる.要約を行ったのは3人の作業者で,それぞれ90記事をすべて要約する.したがって,調査対象の要約は全部で270要約となる.要約の長さは文字数で元記事の約40%なるよう指定した.要約を行う際に作業者に与えた指示として,以下の2つの制約を課した.\begin{itemize}\item全体のあらすじと著者の主な主張がわかるように要約する\item固有名詞はできるだけ原文の表現を用いる\end{itemize}要約率を40\%と高率にした理由は,あまりにも文章を短く要約した場合に,元文章から残存する表層的な表現が少なくなってしまい,人間でさえ,元記事から要約文がどのように作成されたか,その操作が分析しにくくなってしまうと考えたからである.3人の要約作成者がそれぞれ90記事合計2869文から作成した要約の諸元を表\ref{basicdata}に示す.なお,要約元記事の1記事平均の文数は31.9文である.\subsection{要約操作と対応付け}従来から,手作業により,要約文が元文章のどの部分を用いて作成されたかを対応付けを行い,要約がどのような作業であるかを調査した研究がある.例えば,佐久間らの研究\cite{sakuma}では,そのような対応付けをもとに,人間が文章を要約する上で,元文章のテキスト構造がどのような影響を要約生成に与えたかを分析している.このような分析は,計算機に人間が作成するような要約を作成させるためにも重要であり,対応付けの自動化を行うことは,分析の効率化をする上でも意義がある.また,人間が作成した要約文と元文章を比べてみると,容易にその要約文が元文章のどの文から作られたかがわかる要約文とそうでないものがある.すなわち要約元文章で出現した表層的な表現が残存するか否かには,多様性が存在することを示している.邑本\cite{muramoto}は,認知心理学的研究として,要約元文章中のほぼ短文に相当する単位(アイディアユニットと呼ぶ)がどのように要約中で表出されるかを観点に12種類に分類している.この分類は,人間が文章を理解し要約する過程において,その理解の仕方が要約操作における言い換えの多様性にも関係するというもので,非常に興味深いが,計算機処理を前提に要約文作成操作を考えた場合,すくなくとも以下の区別は重要である.\begin{itemize}\item要約元の文章で使われていた表現がそのまま要約で用いられる\item要約元の文章が使われていた表現が言い換えられ,要約で用いられる\end{itemize}もちろん,人間が行っている要約操作はこのような二元論で片付く単純な問題ではなく,様々な人間の意味理解に基づいた深遠な問題ではあるが,元文章で使われていた表現が,どのような単位で要約に保存されるかだけを考えても,単語,文節,節,文といった多様なレベルがある.さらに,元文章で使われていた表現単位を言い換えて要約で用いるためには,それぞれの単位における特徴があるはずであり,計算機で多様な言い換えを実現する困難さを,段階的に解決してゆくためにも,それぞれの単位を言い換える・書き換える操作が行われた事例を収集し,それぞれの操作の特質を分析することが重要であると,我々は考える.\begin{table}\caption{分析対象要約の諸元}\label{basicdata}\begin{center}\begin{tabular}{|l|r|r|}\hline&文数&1要約あたりの平均文数\\\hline\hline作成者A&763&8.5\\作成者B&773&8.6\\作成者C&931&10.3\\\hline合計&2467&9.1\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文を作成する操作}人間が要約文を作成する操作のうちもっとも単純な操作と考えられるのは,元文書の文をそのまま要約として用いるものであろう.しかし,調査したデータでは,このような元文書中の文と一字一句違わない形で要約で用いている例は,のべ2467文中692文しか存在せず,その残りである1775文の要約文は人間が何らかの文の再構成・生成操作を行って作成している.さらに品質のよい要約を作成するためには,このような要約文がどのように作成されているかを分析する必要がある.ここで,元文章の表層的情報がどのように残され,書き換えられているかの目安を調査にするために,客観的な指標のもとで要約元文と要約文の対応付けを行ってみた.客観的な指標として用いたのは,「元文の表層情報をより多く残している」という観点から,文中の名詞,動詞,形容詞といった内容語を用いて文を特徴づけるベクトルを作成し,そのベクトル間のコサイン類似度を用いた.類似度を求める文の組に現れるすべての内容語が$j$個存在するとして,それぞれの文の特徴ベクトルを$s=\{s_1,s_2,\cdots,s_j\},o=\{o_1,o_2,\cdots,o_j\}$で表現したとき,コサイン類似度$sim(s,o)$は以下の式により定義される.なお,特徴ベクトルの各要素$s_i,o_i$は,当該の内容語がそれぞれの文にいくつ存在するかを示している.\begin{displaymath}sim(s,o)=\frac{s\cdoto}{|s||o|}\end{displaymath}この類似度を用いて,2文間の内容語が全て一致し,類似度が1.0となる文の組の数を調べると,742組であった.さきほどの,要約文とその対応文が全く同じ文である692組と比較すると,50組増えている.この50組を人手で分析してみたところ,以下の例のような形で,要約元文の文節が言い換えられ,要約文に用いられていた.\\\begin{center}\small\begin{tabular}{lp{20zw}}「参院は」→「参院では」\\「久しかった.」→「久しい.」\\「二十日に」→「二十日」\\\end{tabular}\end{center}もちろん,これらの文節数に変化がない要約の例は,ほとんど元文を書き換えていないため文節の書き換えの程度も少なかったといえるかもしれないが,文節内の書き換えの方向を知る上で重要な例である.要約で行われる操作は上のような単文節の言い換えに留まらない.対応付けの問題を難しくする他の要素としては,要約中の1文が要約元文章中の1文の表現だけを用いて要約文を作成するとは限らないことが挙げられる.例えば,Jingら\cite{Jing99}の研究では,英語における要約の重要文抽出とその再構成操作を,計算機による実装を見通した諸操作として整理した.彼女らの研究では基本的な操作として,以下の2つの操作を挙げている.\begin{itemize}\item文短縮(SentenceReduction):元記事の1文を短くして要約中の1文で表す.\item文結合(SentenceCombination):元記事の複数文をまとめあげて要約中の1文で表す\end{itemize}もちろん,この他にも,要約作成者が元文章を完全に理解した上で,元文章中には現れない新しい表現を作成することも当然考えられる.しかし,計算機による要約生成を考える上で,表層情報からわかるレベルの言い換えや文結合を組み合わせて作られた要約事例と,計算機では実現が難しいと思われる操作によって作成された事例とを分け,それぞれの事例がどの程度存在するかを知り,その操作の特質を調査することが必要となる. \section{かかり受け構造を用いた自動的対応付け} 本研究では2節で述べたような現状を踏まえて,要約元文章中の文の構造と要約の文の構造を踏まえた対応付けを自動化することを考えた.その際の観点は以下の2つである.\begin{itemize}\item元文章に現れた表現がどの程度保持され,要約が作成されるか\item1つの要約文を作成するために1つだけの対応付け文を考慮すれば十分であるのか,元文章中で関連をもった複数の文を考慮することが必要であるか\end{itemize}本稿では,このような観点から,文内の統語的構造を表現するかかり受け構造を考慮して文対応付けをとり,複数文との対応付けを考慮して,文対応付けを繰り返す対応付け戦略を考えた.対応付けのおおまかな処理の流れとしては,限定された文節の言い換えを考慮した文節一致の比較を行いつつ,要約とその元文章の間での文対応付けを行い,次に,文対応がとれた文対の中で文節の対応付けを行う.文節対応付けの結果,要約側で,対応が付かなかった文節は,まず,文節の言い換えであるかをかかり受け解析の位置情報を用いて自動的に確認し,それでも対応が付かない文節については,文対応された文内に対応付け候補のない文節と考え,元文章中の他の文にその文節を含む表現がないかを探すことを繰り返す.以降,対応付けの具体的な手順を順を追って説明する.\subsection{文対応付け}本稿が仮定する文対応付けは,文の構造を踏まえた対応付けである.文の構造の表現形態としては,かかり受け構造を採用した.かかり受け構造は,文中の各文節の修飾関係を木構造で表現したもので,関係付けの交差を許さない.ここで,かかり受け構造を解析した例は図\ref{depstruc}に示し,図中の矢印が文節間の修飾関係となる.かかり構造は,文末の文節以外の各文節が1つのかかり先を持つため,木構造となる.ここで,文末の文節をこの木構造の「根」とみたて,どの文節の係り先になっていない文節を「葉」と呼ぶ.また,各文節を木構造中の「節点」と呼び,文節間のかかり受け関係を「枝」と呼ぶ.また,本稿では,この構造を利用して自動的に対応付けを行うため,かかり受け解析モジュールCaboCha\cite{kudo01}を利用した.近年のかかり受け解析に関連する研究の進展により,かかり受け解析モジュールも実用に適用可能な精度を達成するようになっており,例えばCaboChaでは約90\%の精度で解析が可能であると報告されている.\begin{figure}[htbp]\begin{center}\epsfile{file=depstruc.eps,height=84pt}\caption{かかり受け構造の例}\label{depstruc}\end{center}\end{figure}かかり受け構造を利用した対応付けは,文章中で使用された表現の特定を,かかり受け構造上の文脈で制約することにより対応付けを精密化すると同時に次のような特性を持つ.例えば,「花を」と「彼女に」の出現順が異なっていても,以下の2文の組を考えてみたとき,(「花を」→「あげる」,「彼女に」→「あげる」)というかかり関係は保存されている.\begin{itemize}\item彼女に花をあげる.\item花を彼女にあげる.\end{itemize}また,上の例に「なんとしてでも」といった文節が余分に挿入されてた次のような文の組についても,それぞれの文において,「花を」「彼女に」「あげる」の3文節の間のかかり受け関係は変わらない.\begin{itemize}\item彼女に,なんとしてでも,花をあげる.\item花を彼女にあげる.\end{itemize}このように,2文の間で共通のかかり関係があることを対応付けの手がかりとして用いて,文対応を行う手法を考える.本手法での対応づけは,文のかかり受け構造における葉から根までのすべての経路をもとにする.例えば,図\ref{depstruc}のようなかかり受け構造木から,抽出される経路の集合は\{[昨日の,会議は,すれ違った],[双方の,意見に,かみあわず,すれ違った],[利益が,かみあわず,すれ違った],[議論が,すれ違った]\}となる.このような経路の集合を要約文と,対応づけ候補文となる要約元文の各文それぞれに対してすべて抽出する.要約文$s$のかかり受け構造のもつ経路の集合を$P_s$,要約元文章中の各文のかかり受け構造の経路をすべて集めた集合を$P_{cand}$として,$s$に対応付けられる対応文$a$は,以下のように決定する.\begin{enumerate}\item集合$P_s$の各経路と集合$P_{cand}$の経路のすべての組合せに対して,DPマッチングを用いて,最長共通部分列(LongestCommonSubsequences,以下LCS)を求める.\item上で求めたLCSの集合の中で,最も長いLCSをもつ経路がある文を対応文$a$とする.\end{enumerate}経路間のLCSを求めるために利用したDPマッチングを説明する.今,経路$[s_1,s_2,\dots,s_m],[o_1,o_2,\dots,o_n]$のLCSを求める時,まず表\ref{dpm}のようなコスト表を作成する.経路中の各要素$s_i,s_j$はそれぞれ,かかり受け構造中のノード,すなわち文節に相当する.コスト表は$c_{1,1},c_{1,2},\dots,c_{1,n},c_{2,1},\dots$という順に算出し,表が完成した時点で,表を用いて表の$(s_1,o_1)$の点から$(s_m,o_n)$の点までの最短の経路を求める.表の各要素の値である$c_{i,j}$は以下の式で求める.\[c_{i,j}=min(c_{i-1,j}+1,c_{i,j-1}+1,c_{i-1,j-1}+x(i,j))\\\]\[x(i,j)=\left\{\begin{array}{rl}0&\mbox{if$s_i=o_j$}\\1&\mbox{if$s_i\neqo_j$}\end{array}\right.\]ここで,関数$x(i,j)$における$s_i$と$o_j$の比較は文節同士の比較である.この文節の一致については次3.2節で詳しく述べる.\begin{table}\caption{経路間のLCSの算出}\label{dpm}\begin{center}\begin{tabular}{|l|r|r|r|r|r|r|}\hline&$o_1$&$o_2$&$\dots$&$o_j$&$\dots$&$o_n$\\\hline\hline$s_1$&$c_{1,1}$&$c_{1,2}$&$\dots$&$\dots$&$\dots$&$\dots$\\$s_2$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$\\$\vdots$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$\\$s_i$&$\dots$&$\dots$&$\dots$&$c_{i,j}$&&\\$\vdots$&&&&&&\\$s_m$&&&&&&$c_{m,n}$\\\hline\end{tabular}\end{center}\end{table}\vspace{-2pt}\subsection{DPマッチング中の文節の比較について}2.3節の予備的な考察に示したように,要約では文節レベルでの言い換えが頻繁に起こることが予想できる.かかり受け構造を利用して自動対応付けをする上で,文節の言い換えをある程度は考慮してやらなくてはならない.しかし,単文節のみの言い換えを考えただけでも,言い換えは多様であり,例えば,字面でよく似ていておおよその検討がつくものと,シソーラスなどの何らかの辞書を使わないと判断がつかないものなどは区別して扱うことが要約で行われている表現の多様性を見極める上で重要となる.本稿では以下のような,単純な,単文節書き換え規則のみを用意するにとどめ,その結果から,より高度な言い換え事例を収集し,要約で行われている操作の多様性について見通しをたてるという方針をとる.以下,対応付けを行う上で基礎となる,言い換えを考慮した文節の一致規則を説明する.この一致規則は,2.3節の分析に基づいていており,文節内の意味的主辞の品詞の下位分類まで含めた一致と原型の一致を文節の一致の基本とする.文節の接辞が格助詞の場合は,以下の例のように,格要素が主題表現になる場合と,その逆になる場合を書き換えとして認めた.\begin{center}\small\begin{tabular}{lp{20zw}}が$\leftrightarrow$も,は\\は$\leftrightarrow$が,も\\も$\leftrightarrow$が,は\\に$\leftrightarrow$には\\で$\leftrightarrow$では\end{tabular}\end{center}用言を主辞とする文節については,助詞,助動詞,活用語尾などの文節末要素についてはゆるい制限で言い換えが可能であるとし,主辞の原型が同じであれば,同じ文節とした.意味的主辞の品詞の一致の例外としては,名詞に格助詞助詞がついていたものが,名詞だけになった場合,また,その逆の場合,下位分類までの一致とはせず,当該語の原型の完全一致をもって文節の一致とした.また,助詞を接辞とする文節で,複数の名詞から構成される複合名詞が短縮された文節などを考慮し,格助詞が一致しているときに限り,文節内の半数以上の名詞が同じ,もしくは文字ベースで半数以上の文字が一致をもって文節の一致とした.\subsection{文節間の対応づけ}要約文と対応文との間の各文節の対応付けを,3.1節で述べた方法により対応づけた情報を用いて行う.具体的には,文対応付けを行った際に利用した,要約文$s$と対応文$a$の,それぞれのかかり受け構造木の経路すべての組み合わせについて求めたLCSの集合を情報として用いる.ただし,文節対応に用いるのは,元文でなんらかの統語的関係にあったことを仮定しているので,LCSの長さが1のものは,このLCSの集合の中から除外した.具体例を示す.例えば,図\ref{cmppair}の場合は,対応文のかかり受け構造における経路の集合は前節にも述べたように,\{[昨日の,会議は,すれ違った],[双方の,意見に,かみあわず,すれ違った],[利益が,かみあわず,すれ違った],[議論が,すれ違った]\}とである.これに対し,要約文のかかり受け構造における経路の集合は\{[会議は,すれ違った],[双方が,かみあわず,すれ違った],[いつまでも,すれ違った],[議論が,すれ違った]\}となる.この2つの経路集合の全て組み合わせのLCSのうちLCSの長さが2以上のものの集合は以下のようになる.\{[会議は,すれ違った],[かみあわず,すれ違った],[議論が,すれ違った]\}\}このLCSの集合に基づいて,要約文と対応文のそれぞれについて,この集合の各要素のLCSに含まれる文節,すなわち文節対応がついた文節を$1$,未対応の文節を$0$でマークしたものが,図\ref{cmppair}での各文節の下につけられた${0,1}$の数字である.以降本稿では,この対応・未対応を示した${0,1}$の列を対応文および要約文の編集記号列と称す.\begin{figure}[htbp]\begin{center}\epsfile{file=cmppair.eps,height=152pt}\caption{文節対応付けの例}\label{cmppair}\end{center}\end{figure}\subsection{かかり受け構造を手がかりとする文節言い換えの自動同定}3.2節での文節の比較で述べたように,本稿の手法では,少数の単文節言い換え規則を用いて,確実に同じ文節だと思われる文節のみを文対応,文節対応の際に対応付ける.もちろん,要約で行われる言い換え操作は,3.2節の言い換え規則だけで記述できるものではないことが予想できるため,さらに複雑な要約操作を知る足がかりとして,かかり受け情報を利用して確実に単文節の言い換えだと推定できる事例を,文節対応付けがとれているものと仮定し,このような言い換え事例を自動的に収集しておく.確実な単文節の言い換えと仮定するのは,3.3節の文節対応付けが終わった時点で,要約文,対応文中の未対応の文節が,それぞれのかかり受け構造の中で図\ref{complete}の2つのパターンにある場合である.図中の四角は単文節を示し,斜線で塗りつぶされた四角は既に文節対応付けがなされている文節である.以下それぞれのパターンの未対応文節と対応文節との位置関係についての説明である.\begin{itemize}\item未対応の1文節が,2つ以上の対応済み文節のかかり先になっている.(図\ref{complete}中パターンAに相当)\item未対応の1文節のかかり先と,その未対応の文節を元文中で直接係り先にしている1つ以上の文節すべてが対応済みである.(図\ref{complete}中パターンBに相当)\end{itemize}このようなかかり受け構造の位置に未対応の単文節がある場合に,その未対応の単文節を,単文節の言い換えとみなして,3.5節の処理に移る.自動的に同定するこのような言い換えと仮定する文節は,要約で行われるより複雑な言い換えを調査する手がかりとして利用する.その結果については,4.3節にて述べる.\begin{figure}[htbp]\begin{center}\psbox[width=10.0cm]{complete.eps}\caption{かかり受け構造を用いた文節言い換えの自動同定}\label{complete}\end{center}\end{figure}\subsection{文結合操作の同定}2.3節で述べたように,要約文は常に,要約元文章中の文と1対1で対応付けられるとは限らない.そこで,本対応付け手法は,要約文に1文に対し,複数の要約元文が対応付けられる文結合操作を考慮するため,3.1節から3.4節までの一連の対応付け処理により未対応の文節列が,要約文中に残っている場合,図\ref{loop}のように,その未対応の文節列に対応する文を3.1節から3.4節までの一連の処理を繰り返すことにより対応する.この際,対応付け繰り返し条件は,2文節以上の未対応文節列とした.例えば,第一回目の対応付け試行により,以下のような要約文と対応文の組が得られた場合を考える.\begin{center}\small\begin{tabular}{lp{20zw}}要約文「賃貸物件の借り上げに力を入れるなど積極的対応を求めたい.」\\元文1「賃貸物件の借り上げに,力を入れ,仮設住宅を確保をする必要がある.」\\\end{tabular}\end{center}この例の場合,第1回目の対応付け後の要約文の編集記号列は'111000'\footnote{3.2節の対応付け規則では「入れるなど」と「入れ,」は同一文節とみなさないため,後ろから3番目の文節は未対応となる.本研究では,このような厳しい条件の文節比較に基づいて対応付けをすることにより,要約での文再構成操作の特質を分析する.}である.ここで,図\ref{loop}の手順にあるように,2つ以上の連続する未対応文節が文末にあるため,次の繰り返し処理で,文節列[入れるなど,積極的対応を,求めたい.]に対して,3.1節から3.4節までの一連の処理を適用する.元文章中に,例えば,\begin{center}\small\begin{tabular}{lp{20zw}}「県には,前例にとらわれず,積極的対応を求めたい.」\end{tabular}\end{center}といった文ががあれば,この未対応文節に対して,この文が対応付けられ,結果的には元の要約文に対して以下の2つの文が対応付けられ,要約文に対しての編集記号列は'111011'となり,対応付けの繰り返しは終了する.\begin{center}\small\begin{tabular}{lp{20zw}}要約文「賃貸物件の借り上げに力を入れるなど積極的対応を求めたい.」\\元文1「賃貸物件の借り上げに,力を入れ,仮設住宅を確保をする必要がある.」\\元文2「県には,前例にとらわれず,積極的対応を求めたい.」\\\end{tabular}\end{center}このように,要約文の編集記号列における長さ2以上の未対応文節列'0'の列がなくなるか,そのような未対応文節列に対して,元文章中のかかり関係をもった文節を対応付けられなくなるまで対応付け作業を繰り返す.\begin{figure}[htbp]\begin{center}\psbox[width=9.0cm]{loop.eps}\caption{対応付け手法の概観図}\label{loop}\end{center}\end{figure} \section{対応付け手法の適用と要約操作} \subsection{元文のかかり受け構造を保存してつくられた要約文数}要約の全2467文に対して,3節で述べた自動対応付けを繰り返し適用し,対応付けが出来なくなるなるまで繰り返した結果を表\ref{del}に示す.表中の各回の試行で対応付けられた文数は,当該回の試行以降で対応付けが出来なくなった文数を示す.また,当該の試行で対応付けができなかった文節の数を,未対応文節がない場合,未対応文節が文中の文節の半分より少ない場合,文中の文節の半分以上が未対応の場合の3つに場合分けし,それぞれの内訳数を示した.なお,第1回ですべての文節が対応付け可能だった990文は,元文章中の文をそのまま要約でも用いていた672文を含んでいる.この表\ref{del}の結果から,対応付けの繰り返しは5回で終了し,大部分の要約文は3回までで対応付けが終わることが分かる.また,要約文中に文節対応づけが出来ない文節が残る要約文のうち,文中の半分以上の文節が未対応になる文は235文である.表\ref{del}から,文中の半分より少ない文節が未対応になっている文は978文であるので,本手法の対応付けで文節対応付けで未対応文節が残る文であってもその81\%は未対応文節は文中の文節の半分以下である.すなわち,すべての文節が対応づけられる数を含めると,今回収集した要約のほとんどの文が,要約の元になった文の係り関係を保存して生成されていることがわかる.なお,2467要約文中,本手法で対応付けできなかった95例は49例が元文章中の単語レベルのみ,もしくは1文節のみが使われて作成されていた要約文であり,46例が,元文章中の2以上の文節を用いてはいるものの,元文で使われていたかかり関係がない例である.このような例は,要約者が,要約文全体の要旨を一言でまとめたり,その要旨に対しての主観的な読み手の位置づけや,背景情報を与えるものであった.つまり,計算機で要約生成を考える上では,現段階では実現が非常に難しいものであり,元文章中の文の再構成に基づいて要約生成を考える立場では,現状において扱いを留保する.以下,本稿の残りでは,対応付けにおいて未対応となった文節が,要約作業者によって全く新しく作成されたのかどうかを,文結合,言い換えの2つの側面から議論する.\begin{table}\caption{自動対応付けの適用と文節対応付けの傾向}\label{del}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline対応付け&対応付け&\multicolumn{3}{|c|}{要約文中の未対応文節数}\\\cline{3-5}試行数&文数&なし&半数より少&半数以上\\\hline\hline1&1598&990&444&164\\2&609&141&401&67\\3&146&25&118&3\\4&18&3&14&1\\5回以上&1&0&1&0\\\hline合計&2372&1159&978&235\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{文結合のタイプ分類}\label{combitype}\begin{center}\small\begin{tabular}{|l|ll|}\hline連用接続&\multicolumn{2}{|l|}{2つの文を連用接続にて結ぶ.接続形態は論理接続,付帯状況の説明などがあった.}\\\cline{2-3}&対応文1&また,大学側も柔軟な思考で共同研究に応じるべきであろう.\\&対応文2&特に,各地の大学は地方ニーズに応えるよう配慮してほしい.\\&要約文&大学側も共同研究に応じるべきで,特に,各地の大学は地方ニーズに\\&&応えるよう配慮してほしい.\\\hline主題表現&\multicolumn{2}{|l|}{結合する文の一方に現れた表現が,他方の文の主題や主格主語になっている.}\\\cline{2-3}の追加&対応文1&北京での南北の次官級交渉は,関連問題で最後の詰めを残している.\\&対応文2&北朝鮮側は,コメの支援問題以外の政治問題は今回の会談では\\&&話し合いたくない立場を譲っていないようだ.\\&要約文&北京での南北の次官級交渉は,北朝鮮側も,コメの支援問題以外の\\&&政治問題は今回の会談で話し合いたくない立場を譲っていないようだ.\\\hline連体接続&\multicolumn{2}{|l|}{結合する文の一方の表現を用いて,他方の文の名詞を連体修飾する.}\\\cline{2-3}&対応文1&新党結成をめぐり社会党は大混乱で,政権基盤は大きく揺らいでいる.\\&対応文2&首相にとっては演説どころではなかったのかもしれない.\\&要約文&新党結成をめぐり社会党は大混乱で,政権基盤が揺らいでいる首相に\\&&とっては演説どころではなかったのかもしれない.\\\hline格要素の&\multicolumn{2}{|l|}{結合する文の一方の表現が他方の文の句の格要素となっている結合.}\\\cline{2-3}追加&対応文1&観光目的などで来日して不法残留する外国人労働者の医療問題は,「人道」\\&&と「不正」がからみつく.\\&対応文2&行政は「不正」を重く見て,良心的な医療機関ほど「人道」的に対応して\\&&きた.\\&要約文&行政は「不正」を重く見て,不法残留する外国人労働者の医療問題に,\\&&良心的な医療機関ほど「人道」的に対応してきた.\\\hline\end{tabular}\end{center}\end{table}\subsection{文結合について}本研究での対応付け手法は,文結合操作を考慮するため,要約1文に対し要約文書中の複数の文を対応付けることを許して対応付けを行った.そこで,この文結合の諸相を調査するため,まず,表\ref{del}の,未対応文節が全くなく2文以上が対応付けられた対応付け試行回2,3,4回(対応付けられた要約文の数はそれぞれ表\ref{del}から141,25,3文)の169文の要約文における文結合の形を比較のための基準例として分類した.この169文の要約文中の文結合部分は232箇所であった.結合部分は,1つで2つの文を結合しているため,この169文はおおよそ464文,すなわち1文あたり平均2.7文の元文を何らかの形で結合している.ここでの分類は表\ref{combitype}のようなタイプ分類を用いた.この分類タイプを用いて,169文,232箇所の文結合を分類した結果を基準例として表\ref{countscomb1}の上段に示す.次に,言い換えを伴って文結合がなされる例を同定し,それを文結合のタイプ分類で分類したものを表\ref{countscomb1}の下段に示す.このような言い換えをともなう文結合箇所は,以下のような方法で同定した.本手法で,要約文と対応文を対応付けた際に,得られた要約文に対しての編集記号列において,文頭や文末に未対応の文節列がある場合は,図\ref{inter}に示したような以下の二つの場合がある.\begin{table}\caption{各文結合箇所のタイプ分類}\label{countscomb1}\begin{center}\small\begin{tabular}{|l|r|r|r|r|r|r|r|}\hline&連用接続&主題・主格&連体接続&格要素&文の構文&不適切な&合計\\&&&&&変化&対応付け&\\\hline基準例&176&25&19&10&0&2&232\\未対応文節あり&319&46&56&11&8&25&465\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\item2つの対応文の接合部分に未対応文節がある場合(図中の要約文A)\item1つの対応文のかかり受け構造の中に未対応文節が挿入された形(図中の要約文B)\end{itemize}\begin{figure}[htbp]\begin{center}\psbox[width=10.0cm]{inter_unsatisfy.eps}\caption{要約文中の未対応文節列}\label{inter}\end{center}\end{figure}この図\ref{inter}の要約文Aのように,対応文の結合箇所に未対応の文節がある場合,この未対応の文節を文結合にともなう言い換えとみなした.なお,要約文Bのような,1つの対応文のかかり受け構造の中に挿入されている形の未対応文節については,次節で述べる.このような未対応文節列をともなう文結合の例は465箇所あり,その例を表\ref{sentcombi}に示す.文結合にともなう言い換えは,表\ref{sentcombi}の例1のように,結合のために文節の品詞や形態を変化させる例と,例2や例3のように,結合のための変化だけではなく,結合後の要約文をより良くするために,接続表現や,付加情報を付け加える場合があった.表\ref{countscomb1}をみると,言い換えがなされるかどうかにかかわらず,文結合として最も多いのは,連用接続の形である.これは,要約を作成する際に,元文章のある文の述べている命題についての関連情報を要約でも付加しようとしていることを示している.また,その関連情報の付加のされ方は,連鎖対や背景,理由,結果の提示といったものが多く,要約に必要な命題に関しての関連情報を知るためには,元文章のそのような情報を知ることが有益であることを示している.他方,連体接続で付加される情報としては,接続対象の事象や主体の背景提示や,「のような」を用いた例示表現などが多かった.表\ref{countscomb1}中の文の構文変化としたのは,原文中の「XXXではYYYである」といった構文が,「YYYなのは,XXXということ.」といったように,構文全体の構造が変化した例の数である.また,不適切な対応付けの例としたのは,対応付けが不適切であると人手で判断した例の数で,かかり関係をもつ2文節が文章中の複数の文に現れる慣用表現や,元文の言い換えと見たほうが適当であると判断した例である.\begin{table}\caption{文結合に伴う言い換え}\label{sentcombi}\begin{center}\small\begin{tabular}{|l|ll|}\hline例1&対応文1&$\cdots$期待を寄せて,かなりのスペースを裂いている.\\&対応文2&また,国土庁の「定期借地権の活用に関する$\cdots$\\&要約文&$\cdots$期待を寄せており,国土庁の「定期借地権の活用に関する$\cdots$\\\hline例2&対応文1&$\cdots$負担増を求める以上,政府自らも$\cdots$\\&対応文2&阪神大震災での損失を$\cdots$\\&要約文&$\cdots$負担増を求め,そのうえ,阪神大震災での損失を$\cdots$\\\hline例3&対応文1&$\cdots$事情は理解すべきだと思う.\\&対応文2&輸入を増やし,不均衡を$\cdots$\\&要約文&$\cdots$事情を理解し,内需拡大で輸入を増やし,不均衡を$\cdots$\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{自動同定した単文節の言い換え例}\label{simplepara}\begin{center}\small\begin{tabular}{|lll|p{20zw}}\hline例1&対応文&重く,[つらい]課題である.\\&要約文&重く[辛い]課題である.\\\hline例2&対応文&女性が生涯に[産む]\\&要約文&女性が生涯に[生む]\\\hline例3&対応文&崩れれば,競争も[強まる]\\&要約文&崩れれば,競争が[活発になる]\\\hline例4&対応文&輸送費用を電事連が公に[しないのは]\\&要約文&輸送費用を電事連が[公開しないのは]\\\hline例5&対応文&一点,反するのではという問題も[抱える.]\\&要約文&一点,反するのではという[問題である.]\\\hline例6&対応文&調査では,支持率は,六七%にも[達している.]\\&要約文&調査では,支持率は[六七%.]\\\hline\end{tabular}\end{center}\end{table}\subsection{言い換えの特徴}文結合が行われる以外に,要約文を作成するためには,様々な言い換えが行われるであろう.今回用いた対応付けでは,3.4節で述べたような特定のかかり受け構造を手がかりとして,単文節言い換えの自動同定を行った.この方法で,言い換えを自動的に推定することが出来た例は121例であった.この方法で自動的に対応づけた文節言い換えの例をもともとは未対応であった文節を[]で囲み,周辺文脈とともに表\ref{simplepara}に示す.表\ref{simplepara}での言い換えは,最も単純なものとして,例1から例3に示した通り,漢字表記の違い,誤字,単文節の言い換えといったものがあり,このような単文節の言い換えの自動同定について,同じ文節とみなして間違いだと思われるものはなかった.反面,間違いではないものの,単純な単文節の言い換えではなく,複数文節の言い換えと考えた方がよいものとして,表\ref{simplepara}の例4から例6があげられる.このように,表\ref{simplepara}の例は,ほぼ確実に言い換えを自動同定できているが,抽出できた例は121例と少ない.すなわち,このような自動同定できた言い換え事例の少なさは,用意した要約文と対応文の両方の周辺かかり受け構造の条件が厳しかったことが原因であると考えられる.そこで,本節では,未対応となっている文節もしくは文節列の位置や,周辺の対応文節との相関から,それらの文節がどのような形で元文から言い換えられたかを議論する.その整理の大きな枠組みとして,要約中の文頭,文末,文中にあるときに分けて検討したい.この様に場合分けした理由は,表\ref{del}で要約文中の半数以上の文節未対応で残る場合は,文頭もしくは文末に長さ4以上の未対応文節列があることが多く,文中に長さ4以上の長い未対応文節ができることは少なかったからである.また,文中における未対応文節の文結合に伴う言い換えについては既に前節で議論したため,本節では,図\ref{inter}の要約文Bのような例について説明する.\\\noindent{\bf要約文の文頭の特徴}要約文の文頭で未対応の文節列があるものを,未対応文節の長さによって整理したものを表\ref{headcorres}に示す.文頭の未対応文節と対応文それに対応する部分の例を,それぞれの未対応文節を[]で囲んで表\ref{paralist}の要約文1〜3に示す.表\ref{headcorres}から分かるように,未対応の文節が文頭にある場合は1文節の未対応文節が多い.この原因を調べてみると,まず挙げられるのは,文頭に単文節の「XXは」といった主題表現や,「しかも」や「しかし」といった副詞や接続表現が文頭にある場合,対応付けられるべき同じ表層表現をもつ文節が対応対の両者にあるにもかかわらず,未対応となった例があった.これは,これらの未対応になる文節が,長い距離で依存関係を持つことが多いため,かかり受け解析の誤りや,かかり先の削除や言い換えにより対応付けられなかった例が多い.また,これらの表現は,新たに挿入されることも多い.このことは,計算機による要約文の生成を実現する上で,対応文のかかり受け構造だけではなく,主題,副詞,接続表現といった,文脈上の機能的役割を考慮する必要があることを示している.\begin{table}\caption{要約文における文頭の未対応文節}\label{headcorres}\begin{center}\begin{tabular}{|l|r|r|r|r|r|}\hline連続する&\multicolumn{5}{|c|}{未対応文節列の長さ}\\\cline{2-6}未対応文節の位置&1&2&3&4&5以上\\\hline\hline文頭&369&157&72&47&50\\文末&93&75&31&39&33\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[htbp]\begin{center}\psbox[width=10.5cm]{inpara.eps}\caption{要約文中の未対応文節列の長さ}\label{inpara}\end{center}\end{figure}\noindent{\bf要約文の文末の特徴}文頭の未対応文節と同様に,各試行回で対応付けが終わった要約文において文末の未対応文節がある場合に,その長さがどの程度かの分布を表\ref{headcorres}に示した.文頭の未対応文節とは違い,未対応文節列の長さが1のものが飛びぬけて多いということはない.例を,表\ref{paralist}の要約文4〜6に示す.文末未登録文節の事例を調査すると,対応文の文末表現を簡略化するために,文節の未対応になってしまった表\ref{paralist}の要約文4や5のような例と,要約者の主観や独自の説明が入れられた要約文6の例が混在しており,ゆれが大きい.すなわち,要約文の文末表現は要約者によっての恣意的な度合いが高いと言える.そのほかの重要な例として,主題を文末に移動させた構文的変化を原因とする以下のような例がある.このような形の文全体の構文変化は,4.2節で述べた文結合に伴う構文的変化の際にも見られた例であり,要約の文脈を整える上で重要な働きを担っていると考えられる.\begin{center}\small\begin{tabular}{lp{20zw}}その際,大切なことは,金融と財政を1つのパッケージにすることだ.\\その際,金融と財政をパッケージにすることが大切である.\\\end{tabular}\end{center}\noindent{\bf要約文への文節の削除と追加}要約文中への言い換えのパターンを説明する上で,図\ref{inpara}に示したような未対応文節列の長さ$n,m$を導入すると,うまく整理できる.対応文側の未対応文節列の長さが$n$であり,要約側が$m$である.基本的なものとして,$m=0$で$n>1$の場合と,その逆の$n=0$で$m>1$の場合がある.前者は,対応文の文節を削除して要約文をつくる場合であり,後者は,要約文で対応文には存在しないなんらかの文節が追加される場合である.文節の削除は,要約が基本的には元文章を短くする処理であることから,要約操作において頻繁に行われる操作である.おおまかにいって,周りの文節が削除されず,1つの文節のみが削除される文節には,主題文節,副詞文節,接続表現といった文節が多く,複数の文節が削除される場合は節単位で削除されることが多い.どちらの場合も新しく生成された要約文の文脈に相関して削除される.このような,文節を削除する操作は,文を簡略化する際だけではなく,文結合を行う際にも重要であるるが,本稿では,元文章中の表現を使ってどのように要約文を生成するかを主眼に話を進めるため,この操作の特質の究明については詳しく触れない.対応文に現れない文節が要約文に追加される例を表\ref{paralist}中の例7〜9に示す.$m=1$の場合がもっとも多く,主題や副詞,接続表現が追加される.$m$が2以上の場合も,$m=1$の組み合わせや,複数文節からなる相当表現の追加であった.このように,対応文に現れない文節の追加は,単文節単位なされることが多く,その種類は,単文節単位で削除さやすい文節と同種の,主題文節,副詞文節,接続表現といった文節である.\noindent{\bf要約文の文中で起こる言い換え}要約文と対応文との間で文節の単純な削除や追加が行われる以外の操作を,言い換えの観点から検討する.ここでは,言い換えの例を,要約文と対応文に同じ数だけの文節列が削除される$n=m$の場合と,$n$と$m$の文節数が異なる場合に分けて検討する.表\ref{paralist}の要約文10〜12は$n=m$の場合の例である.このような例は,表中の要約文10,11のような$n=m=1$が最も多く,そのような場合は,表\ref{simplepara}に示したかかり受け構造を条件として自動的に同定した,単文節の言い換えに準じる言い換えであった.$n=m>1$の場合であっても,今回収集した要約の中では文節数が3を越えるものはなく,表中の要約文12の例のように,単文節の言い換えの連鎖とみなせることが多い.上の場合以外の$n$と$m$が異なる場合は,$n<m$で対応文よりも文節数が多くなる場合と,$n>m$で対応文の当該部分を短く言い換えている場合である.$n<m$で対応文に何らかの文節を追加している場合の例を表\ref{paralist}の要約文13〜15に示す.このような文節が増える形での言い換えの典型的な例としては,$n$と$m$の差が1のものが多かった.追加のされ方は,要約文13の単なる表現の変化や,要約文14の具体的な人名の挿入,そして,要約文15のように単文節の追加に準じるものと多様である.しかし,基本的には,挿入される新しい文節の数が1つだけというものが多く,その要約文への単文節挿入に伴って,要約文のかかり受け構造が対応文のそれと異なってしまい,双方に未対応の文節ができてしまっていた例が多い.なお,今回調査した要約では,元文章中にない複数の新しい文節を要約文中に挿入する例は少なく,$n$と$m$の差が4以上のものはなかった.$n>m$となる,言い換えをともなって対応文の当該部分を短くする例を,表\ref{paralist}の要約文16〜20に示す.このような言い換えの特徴として,241例あった言い換え箇所のうち,187例が,表中の要約文16〜19の例のように,要約文側の未対応文節が1文節のものであった.また,241例中,$n$と$m$の差が1のものが一番多く101例,2番目に多いものが差が2のもので49例である.$n$と$m$の差が1や2のもので特徴的であったものは,\begin{center}「AがXXするB」$\leftrightarrow$「AのB」\end{center}といった「の」表現に関わる言い換え事例であった.他方,このような$n$と$m$の差が1であっても,要約文側の未対応文節が3以上の長い未対応文節である場合,表中の要約文20のような文節の削除や追加,複数文節にわたる言い換えが複合的に行われている場合もあり,このような場合を,未対応文節列対を言い換えと単純にみなすことには課題が残る.また,$n$と$m$の差が4より大きいものが存在し,このような事例も,対応文の節レベルの部分を削除したものなのか,それともそれを一言で言い換えたものなのかを客観的に判断することに課題が残る.以上を総括して,それぞれの言い換えの箇所数を表\ref{manu}にまとめておく.この表から,要約中で言い換えが起こる箇所は,単なる表現の言い換えだけではなく,文結合にともなう言い換えが多いことがわかる.また,表現の言い換えも,ここまで議論してきたように,単文節の言い換えを基本にするものが多い.\begin{table}\caption{言い換えの例}\label{paralist}\begin{center}\small\begin{tabular}{|l|ll|}\hline位置&\multicolumn{2}{|c|}{言い換え例}\\\hline\hline文頭&対応文1&共同作業所と公的な授産施設の\\&要約文1&[大震災で兵庫の]共同作業所と公的な授産施設の\\&対応文2&基本的には,恒久住宅の建設を進めなければならない.\\&要約文2&[そして,応急処置と同時に]恒久住宅の建設を進めなければならない.\\&対応文3&[三塩化リンなどサリンの]基本原料となるが,\\&要約文3&[同じような事件の再発防止のためには,危険物質の]基本材料となるが,\\\hline文末&対応文4&入居を辞退したケースも[六百件以上ある].\\&要約文4&入居を辞退したケースも[多い].\\&対応文5&乏しさを[弁解する理由にはできない.]\\&要約文5&乏しさを[露呈した.]\\&対応文6&有無を早急に明らかにしなくてはならない.\\&要約文6&有無を早急に明らかにして,[国民の不安を取り除く必要がある.]\\\hline文中&対応文7&劣らず,二次感染の\\(文節の&要約文7&劣らず,[日常的接触では]二次感染の\\追加)&対応文8&しかも,今後は\\&要約文8&しかも[北朝鮮は]今後は\\&対応文9&要望を聞く\\&要約文9&要望を[幅広く]聞いた\\\hline文中&対応文10&政治家は,[韓国の]発展と\\(n=m)&要約文10&韓国政治家は,[その]発展と\\&対応文11&事態の[推移を]注意して,\\&要約文11&事態の[推移に]注意して\\&対応文12&オウム真理教関連の[施設に一斉に]家宅捜査を行った.\\&要約文12&オウム真理教関連の[施設に対して全国一斉の]家宅捜索を行った.\\\hline文中&対応文13&将来のために[工夫が]必要だ.\\($n<m$)&要約文13&将来のために[工夫することが]必要だ.\\&対応文14&警察組織の[トップが]銃撃された.\\&要約文14&警察組織の[トップ,国松孝痔警察庁長官が]銃撃された.\\&対応文15&たって,学校は[ようやく]隔週\\&要約文15&たって,[今ようやく]学校は隔週\\\hline文中&対応文16&してもらって[支援のネットワークを]広げては\\($n>m$)&要約文16&してもらって[支援を]広げては\\&対応文17&社会党・さきがけが,[侵略行為・侵略戦争や植民地支配の]反省の\\&要約文17&社会党・さきがけが[侵略行為などの]反省の\\&対応文18&実施する[「措置予定」は七百件を超えたが,]大半は\\&要約文18&実施する[「措置予定」の]大半は\\&対応文19&青島知事の[こうした方針や行動に]反発した\\&要約文19&青島知事の[施政方針に]反発した\\&対応文20&当局が[事前に断固たる措置を取ると警告,厳戒態勢で]臨み,\\&要約文20&当局は[民主化グループに断固たる態度で]臨んでいる.\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{要約文,文中での言い換え箇所}\label{manu}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline言い換え&文結合に&\multicolumn{3}{|c|}{文結合以外}\\\cline{3-5}箇所&伴うもの&$n=m$&$n<m$&$n>$m\\\hline\hline例数&465&210&42&241\\\hline\end{tabular}\end{center}\end{table}\subsection{要約における文再構成操作のまとめ}我々が収集した人手作成要約において,元文章中の文をどの様に書き換えて要約文を生成するかをかかり受け構造を基準に調査した結果を,要約操作の観点から以下のように整理する.すべての操作に関連することであるが,要約を行う文の前後における主題・主語の推移,前後の文との連鎖,論理関係を知ることが,これらの操作を計算機によって実現を目指す上で重要である.\begin{itemize}\item文節の削除\\要約元文章中からの文節削除は非常に多く行われる.その際,要約元文から数多くの文節を削除する場合は,節レベルを単位として削除されることが多い.単文節を単位として削除される場合は,副詞表現,接続表現,主題といった要素が多い.\item文節の追加\\文節の追加による表現の変化は特に文末において自由度が高い.要約文のすべての部分にわたる特徴として,主題・主語表現,副詞表現,接続表現などが,要約全体の首尾一貫性や結束性にもとづいて,読みやすいように追加がなされる.\item文結合\\要約を生成する上で,ある文の命題を要約に記述しようとする場合に,それに関連する命題を取り出し,文結合という形で1文にしている操作が数多くなされる.文結合操作が行われる時,用言の活用形を変化させて結合するだけでなく,元文を言い換えて結合することや,結合部分に新しい文節を挿入することがある.\item言い換え\\構文的な言い換えと文節を単位とする言い換えがある.文節を単位とする言い換えは,1文節を同義語や代用表現にする言い換えだけではなく,複数文節にわたる言い換えが存在するが,その場合でも複数の文節を1文節で言い換えるような例が多い.\end{itemize} \section{まとめと今後の課題} 本稿では,要約文が元文章の文の統語構造をどの程度保存するかを議論するために,かかり受け構造を利用して,要約1文対複数の要約元文の対応付けに対応できる文・文節対応対応付け手法を提案した.実際に人間が作成した要約に対して,この対応付け手法を適用した結果,すべての文節が完全に対応付けできる要約文を除いても,残りの要約文の81\%について,元文中でかかり受け関係にある文節を要約文の半分以上の割合で保存していることを確認した.要約文側で未対応のまま残っている文節についても,それらを,文結合,文節の削除・追加,言い換えといった要約生成のための言語操作の帰結として整理すると見通しよく説明ができることを示した.さらに,言い換えについては,本手法で文節対応付けした結果を利用して,文節の対応パターンに基づいた基本的な文節言い換え事例の自動抽出を試み,その結果を参考に,さらに複雑な要約における文節レベルの言い換えの特質を論じた.今後の課題としては,今回の調査で収集できた言い換え事例と,要約操作についての知見を精緻化し,計算機による各要約操作の実装を目指したい.具体的には,自動対応付け手法を用いて,要約事例をさらに収集したものを機械学習の学習事例として用い,要約操作に関する知識を自動獲得することを検討したい.\bibliographystyle{jnlpbbl}\bibliography{cready-nlp02}\begin{biography}\biotitle{略歴}\bioauthor{竹内和広}{1968年生.高校卒業後,民間企業にて,製造業・建設業向けコンピュータシステムの設計・開発に従事.1993年,在職中に愛知県立大学外国語学部第二部入学.1997年同学卒業.同年奈良先端科学技術大学院大学情報科学研究科入学.1999年同大学院博士前期課程修了.2002年同大学院博士後期課程修了.同年4月より独立行政法人通信総合研究所専攻研究員.現在に至る.博士(工学).}\bioauthor{松本裕治}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V27N01-02
\section{はじめに} \label{intro}近年,文書情報に対する情報要求は複雑化,高度化しており,そのような要求を満たすアクセス技術として質問応答が注目されている.質問応答とは,利用者の自然言語による質問に対して情報源となる文書集合から解答そのものを抽出する技術であり,複雑高度な情報要求を自然言語で表現できる点に特徴がある.しかしながら,従来の質問応答に関する研究では,「アメリカの大統領は誰ですか?」といった比較的簡単な形式の質問を扱うものが多く,質問の確信に至るまでの背景や経緯を複数文にわたって説明したりする現実世界の質問状況とは異なる場合がある.そのような現実世界における質問に対する質問応答を目的とした取り組みは,TRECのLiveQA~\cite{trec}やNTCIRのQALab~\cite{shibuki2014,shibuki2016,shibuki2017},「ロボットは東大に入れるか」プロジェクト(以下,「東ロボプロジェクト」)\cite{torobo}などで盛んに行われている.現実世界における質問のように,質問の背景を複数文にわたって説明する記述や,解答が複数文を含む文章となるような質問の例として,大学入試問題が挙げられる.大学入試問題には大学入試センター試験と二次試験があり,二次試験の世界史分野には数十字から数百字以内で解答を記述する論述問題が含まれていることがある.QALabでは,世界史の大学入試問題を対象としており,特に二次試験の論述問題への自動解答が挑戦的な課題として設定されている.先行研究\cite{sakamoto-system}では,情報要求の存在する抽出型の複数文書要約としてこの課題を位置づけ,教科書や用語集等の知識源から句点区切りの単位でテキストを抽出・整列して論述問題に解答する質問応答システムを提案している.知識源に使用される用語集は見出し語と語釈部に分かれて構成されており,語釈部には見出し語が明示されていないため,語釈部を句点で区切った文(以下,「語釈文」という)だけをそのまま解答文に含めてしまうと,何について述べているかわからない文になってしまう.また,論述問題において解答に含めなければならない指定語句が見出し語となっている場合,語釈文だけから解答を構成すると大きく減点されてしまう.このような背景から,上述の既存システムでは,用語集の語釈文を解答の材料として抽出した際には,見出し語を文頭に主題として付け加えた文を生成し,これを解答の一部とする手法を提案している.しかしながら,この手法によって生成された文は,文法的に誤りがある場合や,解答文に適していない場合がある\footnote{\ref{problem}節に後述する.}.これらの問題を解消するためには,\begin{enumerate}\renewcommand{\theenumi}{(\roman{enumi})}\renewcommand{\labelenumi}{(\roman{enumi})}\item見出し語を語釈文に埋め込むことができるか,否か,すなわち,語釈文の述語の省略された項をゼロ代名詞とみなした場合,見出し語がその先行詞となるか,否かを判定する.見出し語を埋め込むことができる,すなわち,見出し語が先行詞となるのであれば,見出し語の表層格を推定する.\label{enum:one-0}\item問題文ならびに論述文章の前後の文等から何を主題にするかを決定し,それに応じて格交替などを行い論述問題の解答の一部とする.\label{enum:two-0}\end{enumerate}ことが必要である.本稿では,\ref{enum:one-0}に掲げた課題を解決するために,語釈文中の各動詞に着目し,それが見出し語に照応するゼロ代名詞を持つか否かを判定するとともに,持つ場合にはその表層格を推定する手法を検討する.\ref{enum:two-0}については,今後の課題とする.また,提案手法は,教師あり学習に基づく手法となっているため,訓練事例を必要とするが,用語集の形式をした事例は数に限りがあり,特定の表層格で埋め込む場合の事例が限られていることが観察された.そのため,訓練事例数が少ないという問題を解消するために,擬似訓練事例の自動生成を行う.本稿の以降の章では次の内容を述べる.2章では既存の世界史論述解答システムの概要とその問題点を述べ,本研究で提案する解決策を述べる.3章では世界史用語集に関して予備調査を行った結果について述べる.4章では本研究の関連研究について述べる.5章では見出し語に照応するゼロ代名詞とその表層格を推定する手法を提案する.6章では実験結果を報告し,7章で考察,8章でまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{27-1ia2f1.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1}\label{fg:2008question}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f2.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1に対する解答例}\label{fg:2008answer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第2章%%%%%%%%%% \section{世界史論述問題解答システム} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大学入試における世界史論述問題の構成}例えば,東京大学入試二次試験における世界史は3問の大問から成っており,大問毎に,大論述,小論述,語句と解答の形式が異なっている.本稿では,問1の大論述問題を対象とする.問1の質問文は,図\ref{fg:2008question}のようにコンテキスト部と制約指定部からなっており,コンテキスト部を読ませ,制約指定部で指定される字数制約450字〜600字,7個〜9個の指定語句,「17世紀から18世紀末まで」のような時間制約などを満たすコンテキスト部に関連する解答が求められる.この問題に対する解答例\cite{akahon}を図\ref{fg:2008answer}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{解答システムの事例とその問題点}\label{problem}Sakamotoetal.\cite{forst2016}では,東京大学入試二次試験の世界史分野の指定語句ありの論述問題を対象とした質問応答システムの構築を検討している.論述問題を情報要求の存在する抽出型の複数文書要約として位置づけ,論述問題を解く際には,知識源として教科書4冊と用語集1冊を利用している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f3.eps}\end{center}\caption{世界史論述問題解答システムの概要}\label{fg:sakamoto-system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%同研究で提案されている大学入試の論述問題における質問応答システムの概要を図\ref{fg:sakamoto-system}に示す.同システムが論述問題を解く手順は次の通りである.まず最初に,質問文として東京大学入試二次試験世界史問1の問題文を入力する.第一段階の「質問文解析」では,質問文から,問題文,指定語句,制限文字数,指定された時間情報を抽出する.第二段階の「関連文書の検索」では,文書検索モジュールを用いて知識源から指定語句を含む文書を検索する.第三段階の「文の抽出」では,知識源から指定語句を含む文を句点区切りで抽出する.この際,用語集から抽出した文に対しては文頭に見出し語を主題として埋め込む.第四段階の「文の組の生成」では,同じ指定語句を含む文をまとめて指定語句ごとに組を作成する.第五段階の「文の順位付け」では,解候補としての相応しさを表すスコアを文に付与し,そのスコアを基に文の組の中で順位付けを行う.スコアが等しい場合は文の文字数が多い順に順位づける.第六段階の「解候補生成」では,それぞれの文の組の上位5文から1文ずつ選択し組み合わせることで複数の解候補を生成する.第七段階の「文の並べ替え」では,解候補中の文を文の時間情報を基に古い順に並べる.第八段階の「解候補の削減」では,字数制約に反する解候補は削除する.もし字数制約を満たす解候補が存在しない場合は最小字数の解候補のみ残す.第九段階の「解候補順位付け」では,それぞれの解候補に解答らしさのスコアをつけて,スコアを基に順位付けを行う.解候補の解答らしさのスコアは解候補に含まれる文のスコアの合計で計測する.第十段階の「解候補選択」では,解答らしさのスコアが最大の解候補を選択する.以上のように,この研究では指定語句で検索して,知識源の中から解答と思われる記述を文単位で抽出している.知識源のうちの1つである世界史用語集は表\ref{tab:glossary-example}のように見出し語と語釈部に分かれて構成されている.上記第三段落において,論述問題に解答する際に,この語釈部を句点で区切った文だけをそのまま解候補の一部に含めてしまうと,何について述べているかわからない文になってしまう.また,論述問題において解答に含めなければならない指定語句が見出し語となっている場合,見出し語を含まない語釈文だけから解答を構成すると大きく減点されてしまう.このため上述のシステムでは,用語集の語釈文を解答の材料として抽出した際には,助詞「は」を添えた見出し語を文頭に付け加えた文を生成する手法を提案している.図\ref{fg:system-answer-sample}の下線部はそれぞれ用語集から語釈文を抽出し,この手法を適用した文である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{用語集の見出し語と語釈部の例}\label{tab:glossary-example}\input{02table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この手法は,図\ref{fg:system-answer-sample}下線部(1)のようにコピュラ文となる場合等には文法的に問題ないが,語釈文によっては図\ref{fg:system-answer-sample}下線部(2)のように文法的に誤りのある文が生成され得るという問題点がある.また,この手法によって得た文の主題は図\ref{fg:system-answer-sample}下線部(3)のようにかならず見出し語になるため,解答文に適していない場合がある.例えば図\ref{fg:2008question}に示す2008年度の問1は,各国の動きを述べよという問題であり,図\ref{fg:2008answer}に示す模範解答\footnote{https://akahon.net/}ではイギリスを主題として文章が展開されているが,上記手法による解答では,国ではない「クリミア戦争」という出来事が主題となっており,解答に適している文であるとは言えない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f4.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1に対する,先行研究のシステムによる解答}\label{fg:system-answer-sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本研究で提案する解決策}\label{solver}\ref{problem}節で述べたような問題を解消するためには,\begin{enumerate}\renewcommand{\theenumi}{(\roman{enumi})}\renewcommand{\labelenumi}{(\roman{enumi})}\item見出し語を語釈文に埋め込むことができるか,否かを判定する.埋め込めるのであれば,見出し語の表層格を推定する.\label{enum:one-1}\item問題文ならびに論述文章の前後の文等から何を主題にするかを決定し,それに応じて格交替などを行い論述問題の解答の一部とする.\label{enum:two-1}\end{enumerate}ことが必要である.これらを行うことにより,例えば図\ref{fg:system-answer-sample}下線部(2)のような文を図\ref{fg:expected-answer}のように解答に適した文にすることができる.具体的には,図\ref{fg:sakamoto-system}の第三段階の「文の抽出」により語釈文を抽出した後,\ref{enum:one-1}を行い,見出し語である「クリミア戦争」が「参戦する」の「ニ格」に埋め込むことができることを推定する.さらに図\ref{fg:sakamoto-system}の第七段階の「文の並び替え」を行った後に\ref{enum:two-1}を行い,問題文から国名「イギリスとフランスなど」を主題にすることを決定し,助詞「は」を添えて文頭に置く.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f5.eps}\end{center}\caption{本研究の提案する解決策により期待される文例}\label{fg:expected-answer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,格交替が必要な例を挙げる.図\ref{fg:kakukoitai}の文例は,図\ref{fg:2008question}の問題に対して,先行研究のシステムから出力された解候補中の一文を簡略化したものである.この文に関しても,国名「フランス」を主題にすることが望ましいが,この場合,「ビスマルク」の格が何であるのかを推定する必要がある.さらに,「フランス」はヲ格の項となっているためそのまま主題にすると,不自然な文となってしまう.この例では,見出し語である「ビスマルク」が「孤立させる」の「ガ格」に埋め込むことができることを推定した後,「フランス」を主題にすることを決定し,「孤立させる」を「孤立させられる」のように受動態に書き換え格交替をすることが望ましい(図7).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f6.eps}\end{center}\caption{先行研究により出力されたものを簡略化した,格交替が必要な文例}\label{fg:kakukoitai}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ref{intro}章でも述べたように,本稿では\ref{enum:one-1}に掲げた課題を解決するために,語釈文中の各動詞に着目し,それが見出し語に照応するゼロ代名詞を持つか否かを判定するとともに,持つ場合にはその表層格を推定する手法を検討する.\ref{enum:two-1}については,今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f7.eps}\end{center}\caption{本研究の提案する解決策により期待される文例2}\label{fg:expected-answer2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第3章%%%%%%%%%%%%%%% \section{世界史用語集の見出し語と語釈文の関係に関する予備調査} \label{research}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{調査の目的と方法}\label{pre-research}\ref{solver}節で提案した解決策を適用する必要がある文が世界史用語集の語釈部にどの程度存在するかを明らかにし,具体的なタスクの定義をするために,株式会社山川出版社・世界史B用語集改訂版\cite{yamakawa-glossary}を対象に,見出し語と語釈文との間の照応に関する以下の調査を行った.分析対象には用語集の見出し語7,037語の中から70語間隔で抽出した見出し語100語とその語釈部に現れる全文を用いた.また,以下の調査は全て単文単位で行う.すなわち語釈文が複文,重文になっている場合には,述語単位に切り分けたものに対して各調査における分類を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査1}見出し語と語釈文中の単文の関係を「1.単文においてゼロ代名詞化された格要素の一つが,見出し語に照応する」,「2.単文が,主題がゼロ代名詞化されたコピュラ文で,ゼロ代名詞が見出し語に照応する」,「3.単文中に見出し語そのものが現れている」,「4.単文に現れる代名詞が見出し語に照応する」,「5.1〜4のいずれでもない」のいずれかに人手で分類し,出現数を調べる.それぞれに分類される語釈文中の単文および見出し語の例を表\ref{tab:title-sentence-relation-example}に示す.分類1の例では,「行われた」の「ガ格」の格要素がゼロ代名詞化しており,見出し語の「聖職売買」に照応している.分類2の例では,「エピクロス=サモス島出身の哲学者」の関係が成り立っており,コピュラ文である.この場合先行研究の手法を適用できる.分類3の例では見出し語「四書」が語釈文に含まれている.分類4の例では代名詞「この(危機)」が見出し語「金融恐慌」に照応している.分類5の例は分類1〜分類4に該当せず,単文中に見出し語を埋め込むことはできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{語釈文中の単文と見出し語の関係の分類毎の例}\label{tab:title-sentence-relation-example}\input{02table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査2}表\ref{tab:title-sentence-relation}の分類1にはゼロ代名詞化された見出し語に照応する格要素が「動詞」「形容詞・形容動詞」「名詞」のうちどの品詞に関わる格要素であるかという観点で人手で分類を行い,その出現数について調べる.ここで用言のとる格は「が・を・に・で・と・から・へ・まで・より」格であり,名詞のとる格は「の」格のみである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{語釈文中の単文と見出し語との間の関係の分類ならびにその出現数(調査1の結果)}\label{tab:title-sentence-relation}\input{02table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査3}動詞のいずれかの格要素になっている場合の表層格毎の出現数についても人手で調べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査4}動詞のいずれかの格要素になっている場合について,表層格毎,節の種類毎の分布についてNPを用いて調べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{調査結果および本研究のタスク定義}\label{task}調査1の結果を表\ref{tab:title-sentence-relation}に示す.「3.単文中に見出し語そのものが現れている」「4.単文に現れる代名詞が見出し語に照応する」場合は非常に少なく,「1.単文においてゼロ代名詞化された格要素の一つが,見出し語に照応する」場合が多いことがわかった.調査2の結果を表\ref{tab:zero-case-relation}に示す.ゼロ代名詞化された格要素が見出し語に照応する場合,動詞の格要素になっている場合が非常に多いが,名詞の格要素になっている事例,形容詞・動詞の格要素になっている事例も見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\hangcaption{語釈文中の単文においてゼロ代名詞化された格要素と見出し語との間の分類ならびにその出現数(調査2の結果)}\label{tab:zero-case-relation}\input{02table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\caption{動詞の格要素になっている場合の表層格毎の出現数(調査3の結果)}\label{tab:verb-case-relation}\input{02table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f8.eps}\end{center}\caption{見出し語が下線部動詞の「ガ格」に埋め込める時にSakamotoetal.(2016)の手法を適用した場合}\label{fg:gakaku}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査3の結果を表\ref{tab:verb-case-relation}に示す.動詞の格要素になっている場合(表\ref{tab:zero-case-relation}のA),表層格は「ガ格」「ヲ格」「ニ格」「デ格」「ト格」「カラ格」となる場合があった.表\ref{tab:verb-case-relation}を見ると「ガ格」の事例数が最も多く,「ヲ格」「ニ格」「デ格」の事例数は少なく,「ト格」「カラ格」の事例数は非常に少ない.用語集の語釈文に対して先行研究の手法\footnote{「見出し語+は、」を文頭に付け加える.}を適用した時に意味がわかりにくくなってしまう事例は特に,見出し語が「ヲ格」「ニ格」「デ格」など「ガ格」以外の格に埋め込むことができる場合である.例えば,図\ref{fg:gakaku}は「聖職売買」が「行われた」の「ガ格」に埋め込める場合であるが,この場合先行研究の手法においても,生成された文単体としては,適格な文となっている\footnote{ただし,格の推定を行っていないので,主題の変更などは行えない.}.しかし,図\ref{fg:nikaku}のように「クリミア戦争」が「参戦した」の「ニ格」に埋め込める場合は,先行研究の手法を適用すると文単体として意味がわかりにくい文になってしまう.そのため「ヲ格」「ニ格」「デ格」に埋め込めることを正しく推定することは重要であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f9.eps}\end{center}\caption{見出し語が下線部動詞「ニ格」に埋め込める時にSakamotoetal.(2016)の手法を適用した場合}\label{fg:nikaku}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査4の結果を表\ref{tab:verb-case-phrase-relation}に示す.この表を見ると,見出し語が動詞の格要素になっている場合にその動詞が連体節の一部であるという事例は極めて少ない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{動詞の格要素になっている場合の表層格毎,節の種類毎の出現数(調査4の結果)}\label{tab:verb-case-phrase-relation}\input{02table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの調査結果をふまえ,本研究のタスク定義を以下に述べる.本研究では,語釈文中の各動詞について,ゼロ代名詞化された格要素の一つが,見出し語に照応しているか否か,すなわち,表\ref{tab:zero-case-relation}のAであるか否かを判定し,表\ref{tab:zero-case-relation}のAである場合はさらにその表層格を推定する.埋め込める場合の表層格は,「ガ格」「ヲ格」「ニ格」「デ格」「ト格」「カラ格」となるケースがあったが,「ト格」「カラ格」となるケースは非常に少なかった.そのため本研究では「埋め込めない」「ガ格」「ヲ格」「ニ格」「デ格」「それ以外の格」のうちのどれであるかを推定する.また,表\ref{tab:title-sentence-relation}の分類2に属すコピュラ文については,体言止めの文でありその体言がサ変名詞以外であるか否か,という簡単な条件で判定できる\footnote{例えばコピュラ文は名詞+判定詞(だ)で終わるが,世界史用語集においては判定詞(だ)が省略されている.例,見出し語)シュメール人,語釈文)メソポタミア南部で最古の文明を築いた民族.また,サ変名詞の場合はコピュラ文にならない.例えば,見出し語)ポンディシェリ,語釈文)1672〜74年フランスが獲得.}.その場合は,助詞「は」を添えて見出し語を文頭に置くだけで良いので,本研究の扱うタスクの対象としない.よって本研究の扱うタスクは,用語集の見出し語と語釈文を入力とし,語釈文中の各動詞句\footnote{KNPの解析の結果,$<$用言:動$>$タグがふられた句を動詞句としている.}に対して「埋め込めない」,「ガ格」,「デ格」,「ヲ格」,「ニ格」,「それ以外の格」のいずれかのラベルを出力するという多クラス分類問題とする.その際,対象となる動詞句が受身形,および使役形の場合であっても原型に戻さず,それぞれの態のままで表層格の推定を行う.入力と出力の例を図\ref{fg:system-in-out}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f10.eps}\end{center}\caption{本研究が扱うタスクにおける入出力例}\label{fg:system-in-out}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 日本語では格要素の省略が頻繁に起きることから,\pagebreak日本語ゼロ代名詞照応解析に関する研究が多く行われている.大規模格フレーム\cite{caseframe2005,caseframe2006}を使用した手法としては,文内・文間両方のゼロ照応を対象とし,構文的手掛かりおよび大規模格フレームによる語彙的手掛かりを素性とした対数線形モデル\cite{zero-anaphora2011}や,格フレームの汎化を利用したニューラルネットゼロ照応解析モデル\cite{zero-anaphora2018},外界照応および著者・読者表現を考慮したゼロ照応解析\cite{hangyo}などがある.機械学習を用いた手法としては,文内ゼロ照応を対象とし,文の構造を素性として取り入れた手法\cite{zero-anaphora2006}や,フィードフォワードニューラルネットワーク(FNN)とリカレントニューラルネットワーク(RNN)を組み合わせて使用した手法\cite{zero-anaphora2017}などがある.これらの関連研究はいずれもWebテキストや新聞記事などの文章中のゼロ代名詞照応解析を行っているのに対し,本研究では世界史用語集を対象とし,質問応答における解答の流暢性の向上を目的としている.一般的なゼロ代名詞照応解析のタスクでは,ある格にあるゼロ代名詞に注目したうえで,先行する名詞句群から高々一つの候補を選択することを行っている.一方で,本研究の扱うタスクでは先行詞を用語集の見出し語に限定した上で,それに照応できるゼロ代名詞(とその格)を高々一つ選択することを行っている.さらに,先行詞である見出し語は,単独で表示され,文中に存在するわけではないため,照応解析において有効な手掛かりとなる先行詞の文脈情報がまったく使えないという点が特徴的である.また,擬似訓練事例を利用した研究としては,Q\&Aサイトの質問分類において,Q\&Aに対して擬似的な分類ラベルを付与したデータを利用して特徴表現の収集を行った研究\cite{dummy-qa}や,単語分散表現において,学習を高速化させるために擬似的に負例をいくつかサンプリングし損失を算出する手法であるNegativeSampling~\cite{negative-sampling}などが挙げられる.ゼロ代名詞照応解析のタスクにおいて擬似訓練事例を利用した研究としては,中国語ゼロ代名詞照応解析の研究\cite{liu-etal-2017-generating}がある.この研究では文章中に2回以上出てくる名詞に着目し,より後の方に出現する名詞を取り除いたものを,ゼロ代名詞に見立てて擬似訓練事例としている.この研究では,文章中に2回以上出現する名詞の一方を取り除いているのに対し,本研究では1回しか出現していなくても,それが世界史固有表現である場合には取り除き,見出し語としている点が異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{機械学習を用いた見出し語に照応するゼロ代名詞とその表層格の推定手法} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{全体の処理の流れ}\label{flow-all}本節では\ref{task}節で述べたタスクを実現する提案手法の概要を述べる.照応解析には大きく規則ベースの手法と学習ベースの手法があるが,照応関係を包括的に捉える規則を書き尽くすことは困難であると考えたため,本研究では学習ベースの手法を用いることとした.図\ref{fg:my-system-inout}に提案手法の処理の流れを示す.提案手法により見出し語に照応するゼロ代名詞の表層格の推定を行う手順は次の通りである.まず最初に,見出し語とそれに対応する語釈文の組を入力とする.第一段階の「構文・格解析」ではKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/?KNP}により構文・格解析を行う.第二段階の「動詞句の抽出」では,構文・格解析結果をもとに,$<$用言:動$>$タグがふられた句を抽出する.第三段階の「動詞句毎に素性を抽出」では,抽出した動詞句それぞれに対して,KNPの構文・格解析結果,その際に使用された京大格フレーム\cite{caseframe2006},日本語語彙大系\cite{goitaikei}などの言語資源を用いて素性抽出を行う.第四段階の「動詞句毎に表層格を推定」では,第三段階で抽出した素性を入力とし,SupportVectorMachineをone-versus-the-rest法により多クラス分類に拡張したモデルによりそれぞれの表層格を推定する.最後に,第四段階で推定された動詞句毎の表層格を出力とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f11.eps}\end{center}\caption{提案手法の概要}\label{fg:my-system-inout}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用する素性}\label{feature}飯田ら\citeyear{zero-anaphora2006}によると,ゼロ代名詞照応解析に使用する素性は一般的に以下の3種類に分けられる.\begin{enumerate}\renewcommand{\labelenumi}{\arabic{enumi})}\item対象となるゼロ代名詞を持つ述語の語彙,統語情報に関する素性\label{enum:verb}\item先行詞候補に関する語彙,統語,意味,位置情報に関する素性\label{enum:noun}\item対象となるゼロ代名詞を持つ述語と先行詞候補の対から抽出可能な情報に関する素性\label{enum:verb-noun}\end{enumerate}語釈文におけるゼロ代名詞照応の場合,先行詞である見出し語に文脈がないため,これらのうち\ref{enum:noun})に含まれる先行詞候補に関する統語,位置情報に関する素性を利用することはできない.本研究では\ref{enum:verb})に分類される素性として「節の種類」,「態」,「格の埋まりやすさ」,「すでに埋まっている格」,「動詞の直前に現れやすい格(直前格)」,「複合格助詞」,\ref{enum:noun})に分類される素性として「見出し語の意味カテゴリ」,\ref{enum:verb-noun})に分類される素性として「意味クラスPMI」「意味的な類似度」の合計6種類の素性を使用する.「格の埋まりやすさ」「意味クラスPMI」「意味的な類似度」については,KNPの解析時に使用された格フレームをもとに,「ガ格」「デ格」「ヲ格」「ニ格」それぞれに設定する.上記の素性は,いずれも先行研究で使われている素性である.また,上記の素性では,格助詞を付与した見出し語を語釈文に埋め込んで作られる文(以下,「見出し語を埋め込んだ文」という.)全体の適格性を考慮せず,埋め込む前のそのままの語釈文を解析した際に適用された格フレームを素性抽出に利用している.そのため,本研究で新たに使用する素性として,埋め込み後の適格性を判断することを目的として,見出し語を埋め込んだ文を考慮した「KNPスコア差分」と「再選定格フレーム素性」の2つの素性を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ベースライン素性}\label{baseline-feature}ゼロ代名詞照応解析における先行研究で活用されてきた以下の素性をベースラインとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf節の種類}ゼロ代名詞を持つ述語の統語的選好を考慮するため,節の種類を素性として使用する(Hangyoetal.\citeyear{hangyo},3節).節の種類とは,注目する述語がどの種類の節に含まれているかであり,「主節」「連用節」「連体節」のいずれかになる.KNPの解析結果から得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf態}KNPの解析結果から得られる,動詞の態を使用する(Hangyoetal.\citeyear{hangyo},3節).「能動形」「受身形」「使役形」のいずれかであり,KNPの解析結果から素性抽出を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf格の埋まりやすさ}格フレームのそれぞれの格の埋まりやすさは,その格が明示されていない場合に,ゼロ代名詞として省略されているのか,単にその格が考慮されていないのかの判断の手掛かりになると考えられる.そこで,格の埋まりやすさの素性として格スロット生成確率を用いる(笹野ら\citeyear{zero-anaphora2011},5節).格フレーム$CF_i$の格スロット$s_j$に格要素が対応付けられている確率$P(A(s_j)=1|CF_i,s_j)$は,$CF_i$の直前格スロットを$s_k$,格スロット$s_j$の用例数の合計を$n_j$とすると,\begin{equation}P(A(s_j)=1|CF_i,s_j)=\frac{n_j}{n_k}\label{eq:easiness}\end{equation}と計算する.ここで,$A(s_j)$は格スロット$s_j$が埋まっている時1をとる関数である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf既に埋まっている格}すでに対応づけられている項がある格に見出し語を埋め込むことができる事例は極めて少ないと考えられる.それぞれの格について,すでにその格に対応づけられた,直接係り受けを持つ項がある場合は1,ない場合は0とする(Hangyoetal.\citeyear{hangyo},3節).格の対応づけの判定はKNPにより行い,格が明示されているか否かの区別はしていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf用言の直前に現れやすい格である直前格}直前格はその用言の用法の決定に対して重要な役割を果たす\cite{caseframe2005}ため,直前格が埋まっていない場合には見出し語を埋め込みやすいと考えられる.そのためそれぞれの格に関して直前格であれば1,そうでなければ0とする素性を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf複合格助詞}「〜として」の「する」や「〜によって」の「よる」などの動詞句は複合格助詞の一部であるが,これらの動詞の格要素に見出し語を埋め込める場合は極めて少ないと考えられる.そのため動詞句が複合格助詞の一部である場合は1,そうでなければ0とする素性を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf見出し語の意味カテゴリ}どのような意味カテゴリに属する見出し語に対する語釈文であるかによって,語釈文中のある格での省略されやすさに偏りがあると考えられる.先行研究ではIREXで定義された8種類の固有表現を使用することが多いが,本研究では世界史用の固有表現辞書\cite{world-history-dic}の17種類の固有表現クラスのうちどのクラスに属するかをバイナリ素性として使用する.世界史固有表現辞書を登録したMeCabにより見出し語を形態素解析し,固有表現クラスを獲得する.表\ref{tab:world-history-dic-category}に,世界史固有表現辞書で定義されている17種類の固有表現クラスと,その固有表現クラスに属するサブクラスおよび語の例を示す.サブクラスについては「意味クラスPMI」や「意味的な類似度」の計算に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\hangcaption{世界史固有表現辞書で定義される固有表現クラスとその固有表現クラスに属するサブクラスおよび語の例}\label{tab:world-history-dic-category}\input{02table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf意味クラスPMI}ある格スロットにどのくらい先行詞候補が入りやすいかを考慮するため,見出し語の意味クラスと対象の格スロットの意味クラス情報との間の自己相互情報量(PMI)を素性として使用する(笹野ら\citeyear{zero-anaphora2011},5節).ここで,意味クラスには日本語語彙大系\cite{goitaikei}において深さ5の位置にある意味属性を使用し,さらに深い位置の意味属性に属する語はその上位の深さ5の位置にある意味属性に含める.また,世界史用語集の見出し語が日本語語彙大系にそのまま登録されていることは稀であるため,見出し語の汎化を行う必要がある.見出し語の汎化には世界史固有表現辞書のサブクラスにあたる語を使用する.ただし,見出し語が世界史固有表現辞書に登録されていない場合には見出し語の末尾の名詞を使用する.対象の格フレーム$CF_i$の格スロット$s_j$の用例における見出し語と同じ意味クラス$CL_k$に属する語の占める割合を,一般のテキストにおける$CL_k$に属する語の占める割合で割ることにより計算する(式(\ref{eq:pmi})).\begin{equation}\log\{P(CL_k|CF_i,s_j)/P(CL_k)\}\label{eq:pmi}\end{equation}格スロット$s_j$の用例に見出し語と同じ意味クラスに属する語が無い場合は一定の小さな値$log(0.000001)$を与える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf意味的な類似度}ある格スロットにどのくらい先行詞候補が入りやすいかを考慮するため,世界史固有表現辞書により得られた見出し語のサブクラスにあたる語と,対象の格スロットの用例との意味的な類似度を日本語語彙大系により計算し(笹野ら(2005)付録,式(1)を使用),最も値の大きいものを素性として使用する.意味クラスPMIと異なり,用例の出現頻度を考慮せず,1つでも見出し語と意味が類似している語があれば大きな値をとる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{本研究で提案する素性}\label{proposal-feature}本研究で新たに導入する素性を以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bfKNPスコア差分}見出し語を埋め込んだ文をKNPで解析した時のスコアから,元の語釈文をKNPで解析した時のスコアを引いたものを「KNPスコア差分」とする.KNPスコアはKNPによる構文・格解析結果のもっともらしさであり,このスコアが高いほど日本語として出現しやすい文であると言える\footnote{文の出現のしやすさの指標を算出するためには,厳密には,適用可能な全ての格フレームにおける出現確率の総和を取る必要がある.一方で,本論文ではKNPの解析である最終的な1つの格フレームしか使用していないため,ここで計算された値は文の出現のしやすさの近似的な指標であると考える.}.そのため,埋め込みの前後でのスコアの差は,埋め込みの良さを表すと考える.表\ref{tab:just-before-case}にKNPスコア差分の算出の例を示す.この例では,KNPスコア差分の値が最も大きい(絶対値が一番小さい)ガ格が適切であると判断される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{KNPスコア差分算出例}\label{tab:just-before-case}\input{02table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf再選定格フレーム素性}見出し語を埋め込んだ文をKNPにより解析し,その時に使用された格フレームを使用し,京大格フレームを使用して抽出する素性「格の埋まりやすさ」「意味クラスPMI」「意味的な類似度」「直前格」を再計算・再抽出したものを「再選定格フレーム」素性とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{擬似訓練事例の利用}\ref{pre-research}節で述べたとおり,「ヲ格」「ニ格」「デ格」に関する埋め込みの推定精度は重要である.しかし,これらの格について学習に用いることのできる訓練事例が非常に少ないため,上手く学習できないことが予想される.また,相対的に割合の低い事例の数を増やすためには,非常に多くの語釈文を正解事例として人手で解析する必要があるが,世界史の分野で見出し語と語釈部に分かれている文書データの数は限られており,正解事例を大量に増やすことは現実的ではない.この問題を解消するため,比較的潤沢に入手可能な世界史教科書の記述から擬似訓練事例を自動生成し,これを活用することを提案する.生成手順としては,教科書中の文を句点区切りで分割し,分割されたテキストごとに以下の処理を行う.\begin{enumerate}\item「を」「に」「で」のいずれかでマークされた世界史固有表現に注目し,2,3の処理を行う.\itemその世界史固有表現を文中から取り除き,見出し語とする.\item直後の「を」「に」「で」のいずれかの格助詞を取り除き,埋め込みされる表層格の正解ラベルとする.\end{enumerate}図\ref{fg:dummy-algorithm}に擬似訓練事例の自動生成の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f12.eps}\end{center}\caption{擬似訓練事例の自動生成の例}\label{fg:dummy-algorithm}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f13.eps}\end{center}\caption{分類A}\label{fg:pattern-a}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f14.eps}\end{center}\caption{分類B}\label{fg:pattern-b}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この手法によって生成された擬似訓練事例は,大きく分けて3種類に分類される.各分類の定義は以下の通りである.分類Aは取り除きたい文節の係先が連体節となっておらず,取り除きたい文節にかかる文節が存在しない事例である.分類Bは取り除きたい文節の係先が連体節となっている事例で,分類Cは取り除きたい文節にかかる文節が存在する事例である.各々の例を図\ref{fg:pattern-a},図\ref{fg:pattern-b},図\ref{fg:pattern-c}に示す.ここで,着目する固有表現および格助詞で構成される文節を<>で囲み,着目した固有表現が1つの項となっている述語に下線を引いている.分類Cの文は,文節を取り除いた結果,係り受け関係が崩れてしまい元の文の意味を維持しなくなってしまうために排除すべき事例であると考えられる.分類Cに属さない文においても不自然な文となっている場合があるが,自動生成された文が自然であるか不自然であるかを機械的に正確に判別することは難しい.そのため,不自然な文を機械的に取り除く近似的な方法として分類Bを導入している.分類Bには多くの場合不自然な文が分類されるが,一部自然な文も含まれており,一方で分類Aには多くの場合自然な文が分類されるが,一部不自然な文も含まれている.そこで本研究では自動生成された擬似訓練事例のうち,分類Cを使用せず,分類A,Bのみを使用する.また,自動生成された訓練事例が分類A,B,Cのどれに該当するかの分類については,KNPの解析結果を利用し図\ref{fg:dummy-classify}の手順により自動で行う.文節の係り受け関係およびある文節が主節・連用節・連体節のうちどれであるかはKNPの解析結果よりわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f15.eps}\end{center}\caption{分類C}\label{fg:pattern-c}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.16\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f16.eps}\end{center}\caption{擬似訓練事例を自動で分類する手順}\label{fg:dummy-classify}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} \label{examination}見出し語が語釈文に埋め込めるか否かを判定し,埋め込める場合に見出し語の表層格を推定するという本稿の提案する解析手法の有効性を調べるために,ベースライン素性(\ref{baseline-feature}節)のみを使用した手法と,従来型のゼロ照応解析に基づく手法による推定精度をそれぞれ求め比較検討する.また,本稿で提案する素性(\ref{proposal-feature}節)の有効性を調べるために,ベースライン素性に提案素性も加えた手法の推定精度を求め,ベースライン素性のみの手法と比較検討する.さらに,擬似訓練事例の有効性を確認するために,擬似訓練事例の追加の前後における推定精度について比較検討を行う.なお,従来型のゼロ照応解析に基づく手法としては,見出し語を1文目,語釈文を2文目とした文章をKNPに入力し,得られた述語項構造解析の結果(これにはゼロ照応解析結果も含まれる)から見出し語を項としている結果のみを取り出して得られたものを出力とする,簡便なものを採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\caption{見出し語900語文の語釈文における正解ラベル毎の事例数}\label{tab:data-vol}\input{02table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\caption{見出し語900語文の語釈文における正解ラベル毎,節の種類毎の事例数}\label{tab:data-phrase-vol}\input{02table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\caption{擬似訓練事例の分類毎の数}\label{tab:dummy-vol}\input{02table11.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用するデータと実験設定}\label{exam-setting}評価実験では,世界史用語集\cite{yamakawa-glossary}中の見出し語7,037語から\ref{research}節で使用した語を除いたもののうち,ランダムに抽出した900語とそれに対応する語釈部を使用する.これらの語釈文中のすべての動詞句に対し,見出し語がどの表層格に埋め込むことができるか,もしくは埋め込むことができないかの正解事例を,第一著者が作成したものをデータセットとして使用する.正解ラベル毎の事例数は表\ref{tab:data-vol}の通りである.また,正解ラベル毎,節の種類毎の事例数は表\ref{tab:data-phrase-vol}の通りである.全ての実験において,SupportVectorMachineの実装にはpythonの機械学習ライブラリであるscikit-learnを使用した.カーネル関数にはRBFを使用し,各パラメータの値はデフォルト値である.また,評価実験は10分割交差検定により行い,精度はF値によって評価する.提案手法で用いる擬似訓練事例の生成には世界史B教科書\cite{tokyoshoseki-b}を使用する.この教科書から生成された分類毎の擬似訓練事例の数は表\ref{tab:dummy-vol}に示す通りであった.なお,擬似訓練事例は訓練事例のみに含まれており評価事例には含まれていない.最後に,提案手法で得られた解析結果を論述問題解答作成手法に組み込んだ場合にどのような解答が作成されるかについて,事例を調査し,既存手法との比較を行う.実験に使用する論述問題を図\ref{fg:2003question}に示す.この実験をする際に,対象となる用語(「バグダード鉄道」「仇教運動」「ゴールドラッシュ」)については訓練事例から除いて学習した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.17\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f17.eps}\end{center}\caption{東京大学2003年度入試二次試験における世界史の問1}\label{fg:2003question}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\ref{examination}節の冒頭で述べた,KNPの解析結果に基づく従来型のゼロ照応解析手法を「KNPゼロ照応解析手法」,ベースライン素性(\ref{baseline-feature}節)のみを使用した手法を「ベースライン素性手法」,ベースライン素性に加え,本稿で提案する素性(\ref{proposal-feature}節)を使用した手法を「提案手法」として,実験結果を表\ref{tab:result}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\caption{世界史用語集を用いた実験結果}\label{tab:result}\input{02table12.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,使用する素性を1つずつ除くことにより素性の有効性を検証する実験を行った結果を表\ref{tab:result-each-feature}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\caption{素性を1つずつ除いた場合のF値}\label{tab:result-each-feature}\input{02table13.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,擬似訓練事例を訓練事例に追加して学習を行ったモデルにより,評価実験を行った結果を表\ref{tab:result-dummy}に示す.また,今回は事例数の少ない「ヲ格」「ニ格」「デ格」の精度も重視したいため,全体結果を「MicroF」「MacroF」で評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\caption{擬似訓練事例の分類ごとの実験結果}\label{tab:result-dummy}\input{02table14.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに擬似訓練事例を使用したモデルとの比較のために,クラス頻度に偏りがある学習において,その頻度を考慮した学習を行うオプションとしてclass\_weight=``balanced''を指定する.このパラメータ指定により,訓練データのクラスの頻度に反比例する重みを,パラメータCに乗じた状況で学習したモデルによる実験結果を表\ref{tab:result-balanced}に示す.なお,このモデルでは擬似訓練事例を使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[p]\caption{SVMにclass\_weight=``balanced''を指定したモデルによる実験結果}\label{tab:result-balanced}\input{02table15.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.18\begin{figure}[p]\begin{center}\includegraphics{27-1ia2f18.eps}\end{center}\caption{東京大学2003年度入試二次試験における世界史の問1に対する,先行研究のシステムによる解答}\label{fg:2003sakamoto}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.19\begin{figure}[p]\begin{center}\includegraphics{27-1ia2f19.eps}\end{center}\hangcaption{東京大学2003年度入試二次試験における世界史の問1に対する,提案手法を組み込んだ場合の解答}\label{fg:2003system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,提案手法で得られた解析結果を論述問題解答作成手法に組み込んだ場合にどのような解答が作成されるかについて,事例を調査し,既存手法との比較を行った.既存手法を用いて作成された解答を図\ref{fg:2003sakamoto}に,提案手法を用いて作成された解答を図\ref{fg:2003system}に示す.それぞれの図で,下線部は用語集から生成された文を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験毎の考察}本節では各実験毎に考察を述べる.表\ref{tab:result}をみると,「埋め込めない」,ならびに,各格の推定の全てにおいてF値の値が,KNPゼロ照応解析手法,ベースライン素性手法,提案手法の順に向上していることが見て取れる.各手法の推定精度の間に統計的な有意差があるかを確認するためにMcNemar検定を行った結果,KNPゼロ照応解析手法とベースライン素性手法との比較,ベースライン素性手法と提案手法との比較においては,P値がそれぞれ,$2.270\times10^{-161}$,ならびに,0.179となり,前者の間には有意差があるものの,後者の間には有意差があるとは言えないことがわかった.表\ref{tab:result-each-feature}の,素性を1つずつ除いて実験を行った結果を見ると,「節の種類」「見出し語の意味カテゴリ」「埋まっているか」「再選定格フレーム素性」が有効であることがわかる.動詞句が連体節に含まれる場合,その動詞句のいずれかの格に見出し語を埋め込むことができる場合は少ない.そのため「埋め込めない」の推定の際には「節の種類」の素性が有効である.また,世界史用語集では,図\ref{fg:pondisheri}のように見出し語が場所を表す語のときには「ヲ格」に入りやすいなどの傾向があるため,「見出し語の意味カテゴリ」が有効であると考えられる.すでに対応づけられている項がある格に見出し語を埋め込むことができる事例は極めて少ないと考えられるため,「埋まっているか」の素性は非常に重要である.「意味クラスPMI」や「意味的な類似度」の素性はあまり有効ではなかったが,これには2つの原因が考えられる.1つ目は\ref{feature}節でも述べたように,見出し語を埋め込んだ文を考慮せず格フレームを選定している点である.また2つ目は,日本語語彙大系を使用してこれらの素性を計算している点である.日本語語彙大系に登録されている語は京大格フレームの用例として出現している語と比較すると少なく,世界史用語集に出現するような語はほとんど登録されていない.そのため,分散表現を用いて格フレームの用例を汎化して利用する\cite{zero-anaphora2018}ことで,さらにF値を向上させることができる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.20\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f20.eps}\end{center}\caption{見出し語が「場所」を表す場合の見出し語と語釈文の例}\label{fg:pondisheri}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%擬似訓練事例を利用した実験の結果(表\ref{tab:result-dummy}),分類Aの擬似訓練事例のみを利用した場合にMacroFが向上していることがわかる.一方で,分類Bの事例も利用した場合にMacroFは分類Aのみを利用した場合に比べ下がり,MicroFは大きく下がってしまった.分類Bは質の低い擬似訓練事例であると言えるため,質の高い擬似訓練事例を利用することは重要であると考えられる.また,擬似訓練事例を利用して事例数の少ない格の訓練事例数を増やした場合に,元々事例数の多い「埋め込めない」「ガ格」のF値が下がってしまったため,バランスよく訓練事例数を増やす必要があると考えられる.SVMのclass\_weightパラメータを``balanced''にした場合の実験では,MicroF,MacroFのどちらも擬似訓練事例を用いた場合よりも高かったが,ヲ格,ニ格のF値については擬似訓練事例の分類Aのみを使用した場合の方が高かった.デ格のF値は擬似訓練事例を用いた場合の方が低いが,これはデ格の擬似訓練事例がヲ格,ニ格と比較して少ないことが起因していると考えられる.本研究では教科書の文から世界史固有表現を取り除くことで擬似訓練事例を生成したが,「埋め込めない」事例の場合にはこの手法が適用できないため,「埋め込めない」の擬似訓練事例の自動生成手法については今後検討する必要がある.また,教科書の文から生成できる擬似訓練事例の数には限りがあるため,NAISTテキストコーパス,京大ウェブ文書リードコーパスなどの,述語項関係のアノテーションがされたコーパスを使用して,学習事例を増やすことが考えられる.これについては,今後の課題としたい.最後に,既存のシステムの解答と,既存のシステムに提案手法を組み込んだ手法で作成された解答との比較を行った結果を考察する.下線部(1),(2),(3)はコピュラ文であるため,既存のシステムと提案手法を組み込んだ手法で作成された文は同じである.下線部(4)については「バグダード鉄道」が「ねらう」のヲ格に埋め込めることを推定できている.下線部(5)については「留まる」に対して「バグダード鉄道」が埋め込めないと判定されてしまった.下線部(6)では「爆発する」のガ格に「仇教運動」が埋め込めることを推定できている.下線部(7)では,どの述語の格にも「ゴールドラッシュ」が埋め込めないと判定された.「鉄道や汽船による交通網の発展がゴールドラッシュの背景にあり,...」と続くのが自然と考えられる.これらの結果を見ると,述語の項に埋め込められない場合にも文中の名詞のノ格になっている場合などがあるため,それも含めて推定することが今後の課題であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{失敗分析}本節では推定に失敗した具体的な事例に基づき考察を行う.\ref{suggest-error}節では擬似訓練事例を用いない場合における失敗事例を分析し,\ref{dummy-error}節では分類Aの擬似訓練事例を追加したことにより,推定が成功から失敗に転じてしまった事例について分析する.分析対象には,\ref{examination}章の実験で10分割にしたうちの1セットにあたる見出し語90語とその語釈部からなるデータセットを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\caption{失敗原因の内訳を示した混同行列}\label{tab:error-type-count}\input{02table16.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{擬似訓練事例を用いない場合における失敗分析}\label{suggest-error}擬似訓練事例を用いない場合に推定に失敗した事例を調査した結果,失敗の原因と考えられるものには,\begin{enumerate}\item格フレームの選択誤り\label{caseframe-error-num}\item見出し語が世界史固有表現辞書に登録されておらず,見出し語の意味カテゴリの素性が抽出できないことによる分類誤り\label{dictionary-error-num}\itemKNPによる格解析・形態素解析の誤り\label{knp-error-num}\item見出し語に照応する名詞が語釈文中に存在するにも関わらず,重ねてゼロ照応をしてしまうという誤り\label{anaphora-error-num}\item見出し語以外に照応するゼロ代名詞が存在し,格が埋まっているにも関わらず,格を埋めようとしてしまう誤り\label{zero-anaphora-error-num}\end{enumerate}の5つがあった.失敗原因の内訳を示した混同行列を表\ref{tab:error-type-count}に示す.表中の(1)〜(5)は上述の原因に対応している.分析対象のデータセットには正解ラベルが「その他の格」となる事例は存在せず,システムが「その他の格」と予測した事例も存在しなかったため「その他の格」については省略している.また,明確な原因が明らかではなく,おそらくは複合的な要因による失敗であると考えられる事例を表中では「他」としている.「他」に該当する失敗事例の数には特に偏りはなく,誤りの傾向はつかめなかった.また,正解ラベルが「埋め込めない」である事例を「ガ格」と予測したもの,正解ラベルが「ガ格」である事例を「埋め込めない」と予測したものが多いことがわかった.さらに,正解ラベルが「デ格」となる事例を「埋め込めない」と予測する事例が非常に多く存在しており,これらの事例の判別が難しいということがわかった.(\ref{caseframe-error-num})の格フレームの選択誤りの例を図\ref{fg:caseframe-error}に示す.見出し語を埋め込まない状態で格解析した際に選定された格フレームと,見出し語を埋め込んだ状態で格解析した際に選定された格フレームのいずれの必須格にも正解となる格が存在しないため,「格の埋まりやすさ」,「意味的な類似度」などの素性値が0となってしまい,上手く分類できないと考えられる.また,この場合は必須格に「デ格」が含まれる格フレームが選定されることで上手く分類される可能性がある.しかし,図\ref{fg:caseframe-error}に示した必須格に「デ格」が含まれる「収まる」の格フレーム6では,「ガ格」,「ニ格」,「デ格」のいずれの用例も語釈文中の「収まる」の格要素と意味的に遠いものであった.この場合,格フレーム生成確率が高い「収まる」の格フレーム1,2などが選定されやすく,「収まる」の格フレーム6が選定されなかったと考えられる.ここで,格フレーム生成確率$P(F_i|v_i)$は用言$v_i$の頻度を$C(v_i)$,$v_i$が格フレーム$F_l$をとる頻度を$C(F_i,v_i)$として\begin{equation}P(F_i|v_i)=\frac{C(F_i,v_i)}{C(v_i)}\end{equation}と計算される\cite{parsing2007}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.21\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f21.eps}\end{center}\caption{格フレームの選択誤りが起きた事例}\label{fg:caseframe-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{dictionary-error-num})については,特に見出し語が助詞を含んでいる場合などに,世界史固有表現辞書に登録されていないことがある.例えば「アルバニアの対ソ外交」や「ドイツの軍備制限」などである.これらの場合には「見出し語の意味カテゴリ」の素性が全て0となってしまい,分類に有効な素性が使用できないため失敗してしまう場合があると考えられる.(\ref{knp-error-num})のKNPによる格解析・形態素解析の誤りが分類の失敗の原因となっていると考えられる事例を図\ref{fg:knp-error}に示す.この例では,「行った」を動詞「行く」の活用形と誤解析してしまっており,適切な素性の抽出ができていないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.22\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f22.eps}\end{center}\caption{KNPによる解析誤りが起きた事例}\label{fg:knp-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{anaphora-error-num})の見出し語に照応する名詞が語釈文中に存在するにも関わらず.重ねてゼロ照応をしてしまうという誤りが起きている事例を図\ref{fg:anaphora-error}に示す.この例では,「組織」が「ミール」を照応しており,この文に対して「ミール」を埋め込むことはできない.見出し語に照応するゼロ代名詞の推定を行う前に,見出し語に照応する名詞の推定を事前に行うことができればこのような事例においても正しく推定できると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.23\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f23.eps}\end{center}\caption{見出し語に照応する名詞が語釈文中に存在する事例}\label{fg:anaphora-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{zero-anaphora-error-num})の見出し語以外に照応するゼロ代名詞が存在し,格が埋まっているにも関わらず,格を埋めようとしてしまう誤りの事例を図\ref{fg:zero-error}に示す.この例では「建国する」の「ガ格」の格要素は「オスマン」であるが,「オスマン」は「建国する」と直接係り受け関係になく,ゼロ代名詞化している.この場合,「ガ格」は埋まっていないと解析されるため,いずれかの格で埋め込めると誤分類してしまう場合がある.見出し語に照応するゼロ代名詞の推定を行うと同時に,文内ゼロ代名詞照応解析も行うことでこのような事例においても正しく推定できると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.24\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f24.eps}\end{center}\caption{見出し語以外に照応する代名詞がゼロ化している事例}\label{fg:zero-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{擬似訓練事例の分類Aを利用した際の失敗分析}\label{dummy-error}表\ref{tab:result}および表\ref{tab:result-dummy}からもわかるように,擬似訓練事例を利用した場合には,利用していない場合に比べ,「埋め込めない」,「ガ格」の再現率が下がり「ヲ格」,「ニ格」,「デ格」の再現率が上がっている.実際に失敗した事例を分析すると,図\ref{fg:unfilled-ni}のように,見出し語を語釈文中に「埋め込めない」場合に「ニ格」や「ヲ格」などに埋め込めると推定してしまう場合がいくつか見られた.しかしこれだけでは,何が失敗の原因となっているかまでは考察できない.そこで,世界史教科書から自動生成された擬似訓練事例の中に,分類の失敗の原因になるような事例がないかの調査を行った.調査対象は評価実験に使用した分類Aの擬似訓練事例427個とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.25\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f25.eps}\end{center}\caption{「埋め込めない」事例に対して「ニ格」と推定してしまった例}\label{fg:unfilled-ni}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査の結果,自動生成された擬似訓練事例の中には「元の文において,注目している動詞について表出している格要素がただ一つしかないために,それを取り除くと動詞しか残らない事例」があった.図\ref{fg:no-arg}の例では,「除く」の唯一の格要素である「稲作」が含まれる文節を取り除いてしまうことで,「除く」に対応づけられる格要素が存在しなくなってしまう.このような擬似訓練事例では,着目する動詞がどのような用法で使われているか,すなわちどの格フレームを使用するかを決定づけるための手掛かりが少ないため,適切な格フレームを選定できていないと考えられる.その結果,質の低い擬似訓練事例となってしまい,分類に失敗してしまう場合があると考えられる.このような事例を擬似訓練事例から取り除くことで,さらに質の高い擬似訓練事例のみを学習に使うことができるようになり,分類精度が向上する可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.26\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f26.eps}\end{center}\hangcaption{元の文において,注目している動詞について表出している格要素がただ一つしかないために,それを取り除くと動詞しか残らない事例}\label{fg:no-arg}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,自動生成された擬似訓練事例の中には見出し語とみなした語の意味カテゴリに偏りがあり,特に「場所」を意味する語の割合が多いことがわかった.用語集の事例および擬似訓練事例における正解ラベル毎の,見出し語の意味カテゴリが「場所」である割合を表\ref{tab:place-count}に示す.用語集の事例中の,見出し語の意味カテゴリが「場所」である割合と比較して,擬似訓練事例中に含まれる,見出し語の意味カテゴリが「場所」である割合は非常に高くなっている.このような場合,擬似訓練事例を含む訓練事例の分布と,評価事例の分布が大きく異なってしまい,学習が上手くいかないと考えられる.この結果,見出し語を語釈文中に「埋め込めない」場合に「ニ格」や「ヲ格」などに埋め込めると誤分類してしまう場合があると考えられる.擬似訓練事例の分布が,訓練事例の分布と近くなるように,擬似訓練事例を間引くなどして調整することで,このような誤りを解消することができると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\hangcaption{用語集の事例および擬似訓練事例における正解ラベル毎の,見出し語の意味カテゴリが「場所」である割合}\label{tab:place-count}\input{02table17.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本研究では,文章中のゼロ代名詞照応解析と異なり,見出し語と語釈文に分かれている文書データに対し,語釈文における見出し語に照応するゼロ代名詞の表層格の推定を行った.評価実験を行った結果,KNPを用いた既存のゼロ照応解析を使用した手法に比べ,提案手法が有効であることを示すことができた.見出し語を埋め込んだ文を考慮した素性を使用することにより,全体的にF値を向上させることができたが,最終的なF値は0.782であり改善の余地があると考えられる.また,事例数の少ない格の推定精度を向上させるために擬似訓練事例を使用し,ヲ格,ニ格のF値を向上させることができた.今後の課題としては,「埋め込めない」事例の擬似訓練事例の自動生成や,擬似訓練事例の分布の調整,さらに質の良い擬似訓練事例の選定,ニューラルネットワークに基づくゼロ照応解析モデルとの比較などが挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSPS科研費JP16K00296,ならびに,横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大矢康介}{2018年横浜国立大学理工学部数物・電子情報系学科卒業.2018年より横浜国立大学環境情報学府情報環境専攻博士課程前期在籍中.自然言語処理の研究に従事.}\bioauthor{阪本浩太郎}{2014年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.2014年より横浜国立大学大学院環境情報学府博士課程後期在学.この間,2015年8月より2016年8月まで米国カーネギーメロン大学言語技術研究所外来研究員.自然言語処理,質問応答などの研究に従事.言語処理学会会員.}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商業教育養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程修了.博士(経営学).}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
V30N04-04
\section{はじめに} 一貫した個性を持つチャットボットの研究が注目されている\cite{li16a,zhang18,qian18,zhou20}.このようなチャットボットを構築するためは,特定の個性を持った人物の対話データを多量に用意し,生成ベースのモデルを学習する手法が一般的に考えられる.しかしながら,対象人物の対話データを多量に集めることは容易ではない.この問題に対して,我々は先行研究において,多くの作業者が対象人物(データ収集の対象とする特定の人物)になりきって質問に回答する枠組み({\bfなりきり質問応答})を提案している\cite{higashinaka13}.さらに,提案手法を用いて,有名な人物(例えば,YouTuberやアニメの登場人物)への質問,および,その回答のペア(QAペア)をファンから大規模に収集し,対象人物のように振る舞うチャットボットである{\bfなりきりAI}を構築する手法を提案してきた\cite{higashinaka18,kodama20,mizukami23}.一方で,近年,自然言語処理において言語モデルが高度化している\cite{vaswani17,devlin19,raffel19,brown20}.特にTransformer\cite{vaswani17}に基づく大規模言語モデルであるMeena\cite{adiwardana20},BlenderBot\cite{roller20},ChatGPT\cite{ouyang22}は,従来のものと比較してより自然な対話が可能である.なりきりAIの研究においても,対象人物に対して収集したQAペアを大規模言語モデルと組み合わせることで,自然な対話のみならず,その人物らしい対話が実現できる可能性が考えられる.本研究では,単一の人物に関するなりきり質問応答のデータを大規模言語モデルと組み合わせることでなりきりAIを構築した.さらに,インターネットを通じて公開実験を行うことで,対象人物を再現するチャットボットにおける現状の到達点と今後解決すべき課題を調査した.その結果,なりきりAIの構築を通じて,収集された45KのQAペアを用いて大規模言語モデルをfine-tuningすることで,チャットボットが高い自然さとキャラクタらしさを持つことがわかった.さらに,公開実験で収集された対話を用いて,対象人物を再現するチャットボットのエラー(以降,{\bf\PSE}と呼ぶ)を分析した.その結果,{\PSE}は属性に関するエラーと関係に関するエラーの二種類に分けることができ,また,自己に関するエラーと他者に関するエラーという二つのレベルに分けられることがわかった.本研究の貢献は下記の二点である.\begin{enumerate}\itemなりきり質問応答を通じて収集した対象人物に関する多量のQAペアを用いて,大規模言語モデルをfine-tuningすることで,高い自然さおよびキャラクタらしさを持ったチャットボットが構築可能なことを示した.\item対象人物を再現したチャットボットの公開実験を行うことで,多数のユーザとの対話データを収集し\mark{た.公開対象のチャットボットとして,なりきり質問応答,および,なりきり質問応答のデータを拡張した対話データを用いて学習されたモデルを利用した.公開実験を通じて収集された対話データにおいて,}不自然なシステム発話に対するアノテーションとエラー分析を行うことで,対象人物を再現するチャットボットにおけるエラー類型を明らかにした.\end{enumerate}なお,本研究では大規模なデータ収集や公開実験を行っており,高いコストがかかることから,単一の人物(後述の「アマデウス紅莉栖」)を対象に評価や調査を行った.以降,本稿では,まず\sec{rel}で関連研究について概観する.\sec{data}でなりきり質問応答を通じたデータ収集について述べ,\sec{model}で発話生成モデルの構築について説明する.次に,\sec{eval}で評価実験,\sec{open}で公開実験について述べる.その後,\sec{annotation}で{\PSE}の分析について説明する.最後に\sec{summary}で本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:rel}本研究は対象人物を再現するチャットボットを対象としており,一貫した個性で発話を生成する研究と関連が深い.また,対象人物の対話データを扱っており,対話システムの個性に関するリソースを収集した研究とも関連がある.さらに,対象人物の再現は,発話やテキストの表現方法を変化させるスタイル変換の研究でも取り組まれている.また,本研究はチャットボットのエラーについて調査した研究とも関連がある.以降,各観点について関連研究を述べる\mark{.}一貫した個性で発話を生成する研究について,個性の一貫性を考慮した初期のモデルとして,話者ID\cite{li16a}や,テーブル上に表現した個性の情報\cite{qian18}を考慮するモデルが提案されている.その後,Persona-Chat\cite{zhang18}の登場に伴ない,個性が一貫した発話を生成するモデルがさまざま提案されている\cite{madotto19,song20,kim20,liu20}.近年は,大規模言語モデルを発話生成に導入して個性の一貫性を改善する手法も取り組まれている\cite{majumder20,zheng20,han22}.これらの研究と比較し,本研究は単一の人物の個性を再現するために,その人物の多量の対話データを利用しているという点が異なる.対話システムの個性に関するリソースを収集した研究について述べると,前述のPersona-Chat\cite{zhang18}は,個性を表す数文のテキストと,その個性を持った人物の対話を人手で作成した代表的な研究である.また,インターネットを通じて,多数の人物を対象に,個性を表す数文のテキスト,および,その個性に従う対話を収集した研究も存在する\cite{mazare18}.これらの研究と比較し,本研究は単一の人物に焦点を当て,大規模な対話データを収集している点が異なる.また,これらの特定の個性に紐付くリソースを集めた研究とは異なるが,対話において相手の個性を尋ねる代表的な質問を整理した研究も存在する\cite{sugiyama14}.スタイル変換の研究では,発話やテキストの表現方法(言葉の選び方や口調)を変化させることで,対象人物の発話の再現に取り組んだものが存在する.初期の研究では,コーパス中の発話から対象人物の発話の言語的なスタイルを抽出する手法\cite{miyazaki15}や,発話のスタイルを考慮した単語埋め込みを獲得する手法\cite{akama18}が提案されている.近年は,生成モデルを用いて所望のスタイルを持つテキストや発話を生成する研究が報告されており,発話の丁寧さ\cite{niu18},感情表現\cite{zhou18,huang18},性格\cite{shuster20}を考慮する手法が提案されている.チャットボットのエラー類型については,特定の個性を持たない一般的なチャットボットのエラーや,複数の文で記述されたペルソナを持つチャットボットのエラーを扱う研究が存在する.一般的なチャットボットのエラーを類型化した研究として,対話理論に基づくもの\cite{higashinaka15a},データに基づくもの\cite{higashinaka15b},それらを統合したもの\cite{higashinaka21b}が存在する.また,チャットボットの発話そのものではなく,ユーザが示す不満の反応に着目してエラーを類型化した研究も存在する\cite{see21}.ペルソナを持つチャットボットのエラーを扱った研究としては,Persona-Chatにおいて個性や文脈と矛盾した発話が生成されることに着目し,アノテーションを行った研究\cite{welleck19}や,対話においてシステムが各話者の個性を取り違える問題に着目し,発話の一貫性を改善する研究\cite{shuster22}が存在する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{なりきり質問応答を通じたデータ収集} \label{sec:data}大規模言語モデルのfine-tuningを行い対象人物のチャットボットを構築するため,先行研究\cite{higashinaka13,higashinaka18}にならって,単一の人物を対象に{\bf\QACorpus}を作成した.また,QAデータのみで学習したモデルの限界を調べるために,作業者が人手でQAペアを対話形式に拡張した{\bf\DialCorpus}を作成した.以下,各コーパスの作成方法について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{なりきりQAコーパスの構築}{\QACorpus}は,対象人物のファンが,その人物への質問を投稿したり,質問に対する回答\mark{(キャラクタによっては親密度などの付加情報を含む\cite{kodama20})}を,あたかも自分がその人物になったかのように投稿したりすることで収集するなりきり質問応答の枠組みを通じて構築された\cite{higashinaka13,higashinaka18}.なりきり質問応答は,Webサイトを通じてファンから対象人物への質問と回答を収集する枠組みである.先行研究\cite{higashinaka18}において,効率的にQAペアを収集できることが確認されており,例えば,2K件のQAペアを収集するまでの時間は,経営者兼YouTuberである「マックスむらい」は0.92日,アニメの登場人物である「新垣あやせ」は1.12日と報告されている.本研究において対象とする人物は,ビデオゲーム「STEINS;GATE0」\footnote{{\copyright}MAGES./ChiyoSt.Inc.,{\copyright}MAGES./NITROPLUS}に登場する人物である「アマデウス紅莉栖」(以降,単に{\bf紅莉栖}と呼ぶ)である.なりきりQAの収集は特設のWebサイト\footnote{\url{https://steinsgate-amadeuskurisu.narikiri-qa.jp/landing/}}を通じて行われた.\mark{収集される対象人物の発話は対話相手との関係性によって口調や内容が変化する可能性が考えられる.コーパス構築時には,\citeA{kodama20}と同様に,対象人物の応答に加えて親密度(他人,知人,友人,親友,家族/恋人の5種類)のラベルを収集した.このラベルを活用することで,ユーザとの関係や親しさによって口調を変化させることも可能と考えられる.しかしながら,対話を通じてユーザとの関係や親しさを推定して対話に用いる方法が自明ではないことから,本研究の実験では収集した親密度のデータは利用せず,全てのデータを統合して利用した.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{03table01.tex}%\hangcaption{本研究で対象とする人物(ビデオゲームの登場人物である紅莉栖)に対して収集されたなりきりQAコーパスの統計量.なお,トークン数は,\sec{model}で述べる日本語版のBlenderBot\protect\cite{sugiyama21}において利用されるSentencePiece\protect\cite{kudo18}のモデルを用いて計算したものである.}\label{tab:stats-qa}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{stats-qa}に,{\chris}に関して収集されたQAペアの統計情報を示す.最終的に45,297ペアのQAを収集することができ,単一の人物のみを対象としたデータとして最も多い\cite{higashinaka18,kodama20}.以下に収集されたQAペアの例を示す.\begin{description}\setlength{\leftskip}{5mm}\item[{\ttQ}:]「名前を教えて。」\item[{\ttA}$_1$:]「私の名前は紅莉栖です。お会いできて嬉しいわ。」\item[{\ttA}$_2$:]「名前は紅莉栖よ。何か用かしら?」\end{description}QとAは,紅莉栖への質問と紅莉栖の回答に対応している.同じ質問(上記のQ)に対して,ユーザーは異なる回答(上記のA$_1$とA$_2$)を投稿することができるため,収集された各質問には複数の回答(平均1.8件)が存在している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{なりきり対話コーパスの構築}なりきり質問応答は,対象人物に対するQAペアを多量に収集する効率的な方法であるが,対象人物からの発話(例えば,対象人物からユーザに対する質問)が含まれていなかったり,一問一答を越えた文脈を含む対話のデータが含まれていなかったりする.そこで,{\QACorpus}の限界を調べるために,なりきりQAコーパスに基づいて対象人物とユーザ間の対話データを{\DialCorpus}として収集し,QAデータと合わせてfine-tuningに利用することにした.{\DialCorpus}において様々な対話を収集するために,収集対象として,{\QACorpus}のようにユーザから対話が始まるものと,対象人物から対話が始まるものの二種類を用意した.ユーザから始まる対話では,なりきりQAコーパスに含まれる各QAペアに発話を4件人手で追加することで対話形式に拡張するようにした.対象人物から始まる対話では,その人物の最初の発話を作成した後,作成した発話に自然に続くと考えられる4件の発話を作成するようにした.最初の発話を作成するための刺激として,人対人のテキストチャットコーパス\cite{higashinaka14}から発話をランダムに抽出し作業者に与えた.このとき,各対話行為\cite{meguro10}の分布が一様になるようにした.作業者には,対話行為を変えることなく刺激となる発話を書き換えることで対象人物の最初の発話を作成するよう指示した.なお,刺激となる発話の書き換えが難しい場合(例えば,発話の内容が対象人物の設定と矛盾する場合)は,その発話は使用せずスキップすることとした.下記に,刺激となる発話と書き換え後の発話の例を示す.\begin{itemize}\item刺激となる発話:「休みの日は何をされてますか?」(対話行為:質問)\\書き換え後の発話:「休みの日は何をしているのかしら?」\item刺激となる発話:「北海道といえばラーメンですよね。」(対話行為:情報提供)\\書き換え後の発話:「北海道といえばラーメンよね。」\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{なりきり対話}{\DialCorpus}の構築のために,クラウドソーシングプラットフォーム(Lancers\footnote{\url{https://www.lancers.jp/}})を通じて作業者を募集した.なりきりQAコーパスの作成とは異なり,作成された発話に対して報酬が支払われた.募集した作業者は,対象人物について十分な知識を持つものに限定し,具体的には,対象人物が登場するゲームや映画を少なくとも1回以上見たことがある,または,プレイしたことがある者とした.募集の結果,作業者の総数は9名となった.9名の作業者によって作成される対話の内容がなるべく多様になるよう,各作業員には,異なるなりきりQAペア,および,刺激となる発話を割り振るようにした.\mark{なお,事前スクリーニングとして,あらかじめ用意したアンケートを通じて,対象人物に関する知識レベルの主観的な評価(自己申告形式のもの),対象人物が登場するゲームや映画等の実施,視聴回数,それらの具体的な作品名を回答させ,募集条件を満たす作業者を選定した.事後フィルタリングについては,作業品質に問題がある作業者に対して行う予定であったが,そのような作業者は発見されなかったため実施しなかった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}%\caption{なりきりQAコーパスを拡張して作成したなりきり対話コーパスの統計量}\label{tab:stats-dial}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{stats-dial}に,{\chris}のなりきりQAコーパスを人手で拡張したなりきり対話コーパスの統計情報を示す.収集された対話は4,500対話であり,24,750発話から構成されている.\tab{stats-dial}における「対象人物の発話の平均トークン数」と\tab{stats-qa}における「応答に含まれる平均のトークン数」とを比較すると,前者が後者よりも少ないことが確認できる.これは,{\DialCorpus}には対話特有の短い応答(例えば,「そうね。」)や,対話の継続を促す簡単な質問(例えば,「本当なの?」)が含まれているためである.以下に,なりきりQAペアから拡張されたなりきり対話の例を示す.\begin{description}\setlength{\leftskip}{5mm}\item[{\ttU}$_1$:](Q)「名前を教えて。」\item[{\ttS}$_1$:](A$_1$)「私の名前は紅莉栖です。お会いできて嬉しいわ。」\item[{\ttU}$_2$:]「紅莉栖ってかっこいい名前だよね。」\item[{\ttS}$_2$:]「本当?光栄だわ。」\item[{\ttU}$_3$:]「本当だよ。みんなに言って回りたいくらい。」\item[{\ttS}$_3$:]「それはやめて!恥ずかしいわ。」\end{description}UとSはそれぞれユーザの発話と対象人物の発話を表す.U$_1$とS$_1$は収集されたなりきりQAペアの一つであり,U$_2$からS$_3$までの発話はそのペアを拡張して人手で追加した発話である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{発話生成モデルの構築} \label{sec:model}本節では,対象人物について収集したなりきりQAコーパス,および,なりきり対話コーパスを用いて大規模言語モデルをfine-tuningし,その人物らしい応答生成モデルを構築する手法について述べる.大規模言語モデルとして,杉山らが構築した日本語版のBlenderBotを利用した\cite{sugiyama21}.以降,日本語版のBlenderBotの概要,および,{\QACorpus}と{\DialCorpus}を用いたfine-tuningの方法について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語版BlenderBotの概要}日本語版BlenderBotは,事前学習とfine-tuningの二段階で学習されている.事前学習用のデータとしては,日本語におけるTwitter\footnote{\url{https://twitter.com}}のリプライが利用されている.具体的には,2016年1月から2018年3月までのツイートから取得した2.1Bペアのツイート(512GB)が利用されており,入力文脈には最大で4発話が含まれる.fine-tuning用の学習データとしては,後述する個性,知識,共感のスキルを学習する対話と,それらを統合したスキルを学習する対話の2種類が利用されている.個性については,Persona-Chat\cite{zhang18}のプロフィール文を日本語に翻訳し対話を人手で作成したもの,知識に関しては,Wizard-of-Wikipedia\cite{dinan19}を翻訳したもの,共感に関しては,EmpatheticDialogue\cite{rashkin18}を翻訳したものが利用されている.また,これら三つを統合したスキルを学習するための対話として,傾聴対話コーパス\cite{meguro10},雑談対話コーパス\cite{higashinaka14},趣味雑談コーパス\cite{sugiyama21}が利用されている.モデルはパラメタ数1.6B(エンコーダ2層,デコーダ24層,各埋め込みベクトル1,920次元)のTransformerベースのエンコーダ・デコーダモデルである.デコード手法には,dull-responseを防ぐため,sample-and-rankが利用されている\cite{adiwardana20}.エンコーダへの入力は,以下のテンプレートに従って作成される.\vspace{0.5\Cvs}\begin{FVerbatim}DialogueName:[SEP]SpeakerID[SEP][SPK1]Utterance1[SEP][SPK2]Utterance2[SEP][SPK1]Utterance3[SEP][SPK2]Utterance4[SEP]TurnNumber\end{FVerbatim}\vspace{0.5\Cvs}\noindentDialogueName,SpeakerID,Utterance1~Utterance4,TurnNumberはそれぞれ,コーパスの種類,ユニークな話者ID,入力文脈,対話の開始からの発話数に対応する.具体的な例は\ssec{finetuning}で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{{\QACorpus}と{\DialCorpus}を用いたfine-tuning}\label{ssec:finetuning}杉山らが構築した日本語版BlenderBotのモデルに対して,収集した{\QACorpus}と{\DialCorpus}を用いてfine-tuningを行うことで,対象人物の発話生成モデルを作成した.このとき,{\QACorpus}を訓練,開発,テストセットに18:1:1の割合で分割した.分割の際は,データセット間で質問が重複しないようにした.また,{\DialCorpus}も同様の方法で分割した.このとき,{\DialCorpus}に{\QACorpus}の質問が含まれる場合(ユーザから対話が始まる場合),{\QACorpus}の分割結果を参照し,その質問が含まれるデータセットと同じセットに対話を含めるようにした.これは,コーパス間でリークが起こらないようにするためである.学習の際は,開発セットにおける正解の応答のNegativeLog-Likelihood(NLL)lossが最小になるようにし,その結果1エポックで学習を停止させた.バッチサイズは64に設定した.{\QACorpus}と{\DialCorpus}の入力例を以下に示す.\vspace{0.75\Cvs}\begin{FVerbatim}なりきりQA:[SEP]idxx[SEP][SPK2]お名前を教えて頂けますか?[SEP]ターン00\end{FVerbatim}\vspace{0.5\Cvs}\begin{FVerbatim}なりきり対話:[SEP]idxx[SEP][SPK2]タイムマシンは作れるだろうか?[SEP][SPK1]結論から言うとタイムマシーンはバカバカしいシロモノだと思います。[SEP][SPK2]やっぱりそう思う?[SEP]ターン01\end{FVerbatim}\vspace{0.75\Cvs}\noindent``idxx''は対象人物用に設定したIDを表し,``[SPK2]''はユーザ,``[SPK1]''は対象人物を表す.{\QACorpus}の例における正解の出力は例えば「牧瀬紅莉栖です。どうぞよろしく。」となり,{\DialCorpus}の例では「でもね、決して実現できないものではないわ。」となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} \label{sec:eval}収集した{\QACorpus}と{\DialCorpus}を用いて学習された発話生成モデルを用いて,対象人物らしい対話が可能かどうかを三種類の方法で評価した.一つ目は,{\QACorpus}における質問({\bf\TQIn}),または,{\DialCorpus}の文脈({\bf{\TCIn}})を入力したときの応答を評価する{\bf発話レベルの自動評価}である.二つ目は,同様の入力に対する{\bf発話レベルの人手評価}である.三つ目は,作業者が実際にチャットボットと対話しその対話全体を評価する{\bf対話レベルの人手評価}である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価用データとモデルの準備}発話レベルの評価では,{\QACorpus}から抽出した質問,または,{\DialCorpus}に含まれる対話から最後の対象人物の発話を除いて作成した文脈(最後の発話の直前の4発話)を入力として評価に利用した.具体的には,なりきりQAコーパスから抽出した質問50個,および,なりきり対話コーパスから作成した文脈50個を利用した.モデルとしては,ベースラインとなる検索ベースのモデル1種類,および,生成ベースのモデル3種類の計4種類を用意した.以下に各モデルの詳細を示す.\begin{description}\item[\bf(a){\MNsBert}:]ベースラインとなる検索ベースのモデルであり,東中らの先行研究で提案された手法(入力となる質問に対してなりきりQAコーパス内のQAペアをランキングし,最も良いQAペアの回答をシステム発話として出力する手法)に対応する\cite{higashinaka18}.東中らの手法では,QAペアの候補をBM25\cite{robertson95}で検索した後,対話研究で利用される様々な特徴量(例:単語ベクトルの類似度,言語モデルに質問を入力したときに回答が生成される確率)を用いてQAペアのランキングを行う.これに対し,{\MNsBert}では,BM25でQAペアの候補を検索した後,BERT(bidirectionalencoderrepresentationsfromTransformers)の教師あり分類モデルを利用してQAペアのランキングを行う\cite{devlin19}.これは,予備実験の結果,BERTを利用することで応答の自然性が向上することが確認されたためである.利用するBERTは質問と回答が入力として与えられたとき,回答が適切かどうかを二値分類するよう学習し,各回答に対して出力されるスコアに基づいて回答のランキングを行う.BERTの学習データはネガティブサンプリング(なりきりQAコーパス内の各質問に対して,別の質問に対する回答を5件ランダムに抽出することで負例を用意した)を用いて作成し,正例と負例の割合は1:5とした.BM25で検索するQAペアは訓練,開発,評価セットのうち,訓練または開発セットに含まれるものとし,検索結果の上位20件をBERTでランキングするようにした.\item[\bf(b){\MHobbyistQASmall}:]生成ベースのモデルの一つであり,日本語版のBelnderBotを一部の{\QACorpus}(QAペア10,000万件)でfine-tuningしたモデルである.このモデルは,後述の{\MHobbyistQA}({\QACorpus}全体を利用したモデル)と比較することで,{\QACorpus}のサイズが性能に与える影響を調べるために用意した.\item[\bf(c){\MHobbyistQA}:]生成ベースのモデルの一つであり,{\QACorpus}全体を用いて日本語版のBelnderBotをfine-tuningしたモデルである.\item[\bf(d){\MHobbyistQADial}:]生成ベースのモデルの一つであり,{\QACorpus}全体,および,{\DialCorpus}全体を使用して日本語版のBlenderBotをfine-tuningしたモデルである.このモデルは,なりきりQAコーパスを使用した場合のモデル({\MHobbyistQA})と比較するために用意した.{\MHobbyistQA}同様,QAコーパスおよび対話コーパス全体のうち,訓練用セットと開発用セットのみを用いて学習を行った.\end{description}なお,評価の際に利用する入力のテンプレートのDialogueNameは,全てのモデルにおいて同じものを利用した.具体的には,なりきり質問応答の質問を入力する際は``なりきりQA''を利用し,対話文脈を入力する際は``なりきり対話''を利用するようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話レベルの自動評価}\tab{auto-eval}に,質問({\TQIn}),および,\pagebreak文脈({\TCIn})を入力したときのシステム発話の自動評価結果を示す.BLEU,distinct\cite{li16b},発話長(出力されたシステム発話の平均トークン長)の三種類の指標で評価した.BLEUおよびdistinctについては,異なるn-gramの値において,評価値の傾向が変わらなかったため,1-gramの結果のみを示している.BLEUの結果から,生成ベースのモデルが検索ベースのモデルよりも正解の応答に類似した応答を生成できることを示している.また,発話長は生成ベースと検索ベースで同程度の長さになっているものの,distinctは検索ベースの方が大きな値になっている.出力の多様性という観点では,現状の生成ベースのモデルでは限界があると考えられるものの,検索ベースのモデルと比較して生成ベースのモデルが正解の応答に類似した応答を生成できており,手法の有効性が確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{03table03.tex}%\hangcaption{質問({\TQIn}),および,文脈({\TCIn})を入力したときのシステム発話の自動評価結果.発話長は出力されたシステム発話の平均トークン長を表す.太字は各評価尺度において数値が最も良い(大きい)ものを示す.}\label{tab:auto-eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話レベルの人手評価}\label{ssec:man-eval-utt}発話レベルの人手評価では,評価指標として以下の三つの尺度を利用し,5段階のリッカート尺度(1点:強く非同意~5点:強く同意)で評価値を付与した.\begin{itemize}\item{\bf自然さ}:対象人物を問わず,システム発話が入力に対する応答として,一般的に自然であるかどうか\item{\bfキャラクタらしさ}:入力に対する応答として,システム発話が対象となる人物(本研究では{\chris})にとって適切であるかどうか\item{\bf情報量}:システム発話が入力に関連して新しい情報を提供しているかどうか\end{itemize}\noindent評価にあたっては,Lancersを通じて,作業者を10名募集して行った.このとき,評価者は対象人物について十分な知識を有していることを条件とした.評価者は,各指標を独立して評価するという教示のもと,入力された質問または文脈ごとに,各モデルから生成されたシステム発話(ランダムにシャッフルされたもの)を評価した.\tab{man-eval-utt}に,質問を入力したとき({\TQIn}),および,文脈を入力したとき({\TCIn})のシステム発話の人手評価結果を示す.{\TQIn}では,生成ベースのモデルにおける自然さのスコアが検索ベースのモデルのスコアを有意に上回っていることがわかる.検定手法としては,Steel-Dwassの多重比較を利用した\cite{dwass60}($p<0.05$).スコアは生成ベースのモデル間で類似しており,一問一答においては{\MHobbyistQASmall}で飽和していると考えられる.また,キャラクタらしさについては,検索ベースと生成ベースで同等のスコアとなっている.{\TCIn}では,生成ベースと検索ベースを比較すると,自然さのみならずキャラクタらしさにも一部に差が見られる.この結果は,検索ベースが入力された文脈の全体を考慮することができず,不自然な応答が出力されてしまうことから,キャラクタらしさのスコアも低く評価されたと考えられる.個別のモデルに着目すると,{\MHobbyistQA}は他と比較して良いスコアとなっており,この結果から,対象人物に関する大量のQAペアがあれば,その人物の対話データがなくとも,その人物らしいシステム発話を文脈を考慮して生成することが可能であると結論付けられる.以上の結果から,構築した{\QACorpus}で大規模言語モデルをfine-tuningすることの有効性が確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}%\hangcaption{質問({\TQIn}),および,文脈({\TCIn})を入力したときのシステム発話の人手評価結果.太字は各評価尺度において数値が最も良い(大きい)ものを示す.数字右下のアルファベットは,そのスコアがアルファベットに対応するモデルのスコアよりも有意に良い($p<0.05$)ことを示す\protect\cite{dwass60}.}\label{tab:man-eval-utt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話レベルの人手評価}\label{ssec:man-eval-dial}所与の入力に対して出力されたシステム発話の単体の評価に加えて,対話がどの程度実際の人物と同じように感じられるかを調査するために,各作業者がチャットボットと対話を行い,対話全体の評価を行う実験も実施した.結果の信頼性を高めるために,対話レベルの評価では発話レベルの評価に参加した10名の作業者だけでなく,Lancersを通じて新しく募集した異なる10名の作業者を加えて,計20名の作業者が評価を実施した.各作業者は,4つのモデル(\MNsBert,\MHobbyistQASmall,\MHobbyistQA,\MHobbyistQADial)と3回ずつ計12回(4つのモデル×3回=12回)ランダムな順序で対話を行い,各対話の後にその対話全体を評価した.対話の長さは,対話システムライブコンペティション\cite{higashinaka21a}のルールと同じく,システム発話とユーザ発話のペアを1ターンとし,15ターンに設定した.各対話の終了時に,発話レベルの評価と同じ尺度(対話全体の自然さ,キャラクタらしさ,情報量)で5段階のリッカート尺度を用いて評価した.作業者がチャットボットと対話するためのツールとしてTelegram\footnote{\url{https://telegram.org/}}を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}%\hangcaption{対話レベルの人手評価結果.太字は各評価尺度において数値が最も良い(大きい)ものを示す.数字右下のアルファベットは,そのスコアがアルファベットに対応するモデルのスコアよりも有意に良い($p<0.05$)ことを示す\protect\cite{dwass60}.}\label{tab:man-eval-dial}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{man-eval-dial}に,対話レベルでの人手評価結果を示す.三種類のスコアを平均すると,{\MHobbyistQADial}が最も良いスコアとなった.また,{\MHobbyistQA}のスコアから,対話データがなかったとしても,人物らしい自然な対話が可能であることが確認できた.発話レベルの評価結果と同様に,生成ベースのモデルの自然さは検索ベースのモデルを大きく上回っており,対話レベルの評価ではその差がより顕著に表れる結果となった.その一方で,キャラクタらしさには差が見られなかった.これは,検索ベースのモデルは人手で書かれたその人物らしい発話を返すため,それが文脈上自然な場合もあり,キャラクタらしさが高く評価されたためと考えられる.情報量については,生成ベースのモデルのスコアが高い傾向が見られるが,{\MHobbyistQASmall}を除いて,有意差は見られなかった.{\MHobbyistQASmall}の評価値が高かった理由としては,fine-tuningで利用されたQAペアのサイズが他のモデルと比較して小さかったために,事前学習に含まれる多様な話題が応答に出現しやすかった可能性が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価実験の結果に関する分析}\mark{本研究では,発話レベルで評価値が付与されており定量的な分析が容易な\ssec{man-eval-utt}の評価結果(発話レベルの評価結果)に基づき,低いスコアが付与された発話の理由を定量的に分析した.}ここでは,発話レベルの人手評価結果において,三種類のスコアのうちいずれか一つ以上のスコアが3未満であった場合,システム発話が不適切であるとした.そして,それらの不適切な発話に対して,チャットボットのエラー類型を人手でラベル付けした\cite{higashinaka21b}.このエラー類型は大きく4つのレベル(発話レベル:該当システム発話の文そのもののエラー,応答レベル:該当システム発話の直前のユーザ発話をふまえたエラー,文脈レベル:当該システム発話までの対話全体をふまえたエラー,社会レベル:対話が行われている社会をふまえたエラー)に分類され,さらに17のサブカテゴリ(例えば,繰り返しや情報不足等)に分類されるものである.アノテーションは著者らと同組織に所属する専門のアノテータ二名が行い,二名の間で異なるラベルが付与された場合は,合議で結果をいずれかの結果に統一するようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\def\spa{2.5em}\vspace{-0.5\Cvs}\input{03table06.tex}%\hangcaption{発話レベルの人手評価において不適切と判断された発話(いずれかのスコアが3未満のもの)に対し,エラー類型\protect\cite{higashinaka21b}を付与した結果.(a)の列は検索ベースのモデルにおける頻度を表し,(b)--(d)の列は生成ベースのモデルにおける合計の頻度を表す.}\label{tab:lowscores}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\mark{\tab{lowscores}に,発話レベルの人手評価におけるスコアの低い発話に対して付与したエラー類型の頻度を示す.}生成ベースのモデルでは,応答レベル,および,文脈レベルのエラー(全体の\mark{22}\%\mark{,(2+13+10+2+6)/150})が検索ベースのモデルよりも少ない(全体の\mark{46}\%\mark{,(2+7+12+2)/50})ことが明らかになった.しかしながら,{\TCIn}では,生成ベースのモデルにおいて文脈レベルのエラーが依然として多く(全体の4\mark{2}\%\mark{,(27+12+6+4+14)/150}),特にエラー類型のサブカテゴリのうち,発話意図不明確(話題は関連するものの,なぜその発話をしたか意図が不明なもの\mark{.}全体の1\mark{8}\%\mark{,(12+8+7)/150}),繰り返し(システム発話が文脈中の発話の繰り返しになっているもの\mark{.}全体の\mark{9}\%\mark{,(2+5+7)/150})\mark{.}および,情報不足(発話に含むべき要素が含まれておらず意味が理解できない,または,理解しづらいもの\mark{.}全体の\mark{8}\%\mark{,(3+4+5)/150})が多く見られた.大規模言語モデルを利用することで,応答レベルや文脈レベルのエラーは検索ベースと比較して抑制されているものの,発話の繰り返しや情報不足のエラーは依然として問題になっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{03table07.tex}%\caption{{\MHobbyistQADial}における対話の成功例}\label{tab:log-samples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{log-samples}に{\MHobbyistQADial}において最も評価値が高かった対話の例を一つ示す.システムが一貫したキャラクタらしさを持ち,文脈に応じて自然な発話を生成できていることが確認できる.しかしながら,S$_3$のように繰り返しが含まれ,情報量が少ない発話も一部見られており,先の考察でも述べた通り,生成モデルを用いた手法における今後の課題であると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{公開実験} \label{sec:open}前節で構築したチャットボットをインターネット上で公開し,対象人物のファンを中心とする多数のユーザとの対話を大規模に収集することで,構築したチャットボットの到達点,および,解決すべき課題について調査した.本節では,公開実験の概要と結果について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{チャットボット公開の概要}公開対象のシステムとして,\ssec{man-eval-dial}で述べた人手の対話評価において,三種類の評価値の平均値が最も高かった{\MHobbyistQADial}を利用した.公開のためのプラットフォームとして,幅広い任意のユーザにシステムと対話してもらえるよう,Twitterのダイレクトメッセージ(DM)機能\footnote{\url{https://help.twitter.com/ja/using-twitter/direct-messages}}を利用した.TwitterのDMを使用することで,システムとユーザが一対一で自由に対話を行うことができる.\fig{twitter}に,公開実験で利用したTwitterアカウントと実際のDMの画面を示す.DMを利用するため,システムのTwitterアカウント\footnote{\url{https://twitter.com/narikiri_ai}}を作成し,DMの公開期間は2021年の7月29日から31日の3日間とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-4ia3f1.pdf}\end{center}\caption{公開実験で利用したTwitterアカウントと実際のDM画面}\label{fig:twitter}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験に参加するユーザは,アカウントをフォローした後,DM画面で最初に送付されるメッセージに記載された本公開実験の規約に同意することで,システムとの対話が可能となるようにした.ユーザーはシステムの公開期間中,好きなだけ対話することができ,また,いつでも対話を中止することができるようにした.TwitterのDMには対話のリセット機能が用意されていないため,各ユーザから収集される対話はユーザごとに一対話となる.公開期間の最終日には,ユーザの満足度を調査するために,ユーザアンケートをダイレクトメッセージで送信した.ユーザアンケートの文言は「なりきりAIアマデウス紅莉栖とまたどれぐらい話したいと思いますか?」とし,ユーザには5点満点のリッカート尺度(5点:とても話したい~1点:全く話したくない)で回答させるようにした.なお,公開実験の実施にあたって,ユーザには参加費等の支払いは一切行っていない.多数のユーザと並列にチャットを行うため,アマゾンウェブサービス(AWS)\footnote{\url{https://aws.amazon.com/jp/}}上にTwitterDMを用いたチャットボットのシステムを構築した.AWSのインスタンスとして,TeslaT4を8機備えるg4dn.metalを利用し,ロードバランサを設置した.公開期間を通して,システムからのレスポンスはおよそ5秒以内に得られるようになっていたため,ユーザはストレスなく対話を行うことができたと考えている.また,ユーザやシステムから発話される不適切な内容を抑制するため,内製のNG単語リストに基づいて,NG単語を含むユーザ発話が入力された場合,または,NG単語を含むシステム発話が生成された場合,無回答を表す「...」で応答するようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{収集された対話データとアンケート結果}公開実験の結果,1,170名の多数のユーザがシステムと対話を行い,ユーザ発話とシステム発話で合わせて161,216発話(ユーザ発話とシステム発話は同数であり,それぞれ80,608発話)を収集することができた.各ユーザの平均発話数は68.9発話であり,比較的長い時間チャットボットを使用していたことがわかった.また,公開期間の最終日に実施したユーザ満足度に関するアンケートでは,ユーザ満足度の平均は5点満点中4.59点となり,90\%($=76\%+14\%$)のユーザが4点以上のスコアというポジティブな回答を行っていた(回答が得られた63.6\%のユーザの結果に基づいて算出).収集された対話ログは,既存の人物を再現したシステムの対話ログとして我々の知る限り世界最大レベルであり,今後対象人物を再現するチャットボットの研究を行う上で貴重なリソースを収集することができた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{公開実験のデータを対象としたエラー分析} \label{sec:annotation}公開実験で得られた対話ログを利用してエラー分析を行い,{\PSE}を調査した.具体的には,対象人物に関するどの情報がエラーを引き起こしているのか,また,各種のエラーがどの程度存在しているのかを明らかにすることを目的とした.この目的を達成するために,従来の研究で扱われる一般的な対話のエラー\cite{higashinaka21b}全体を対象にするのではなく,対象人物に関する情報が問題を引き起こしているエラーを抽出して類型化することが適切であると考えた.対象人物に関連するエラーに焦点を当てることで,対象人物を再現するチャットボットの問題点がより明らかになるためである.\fig{sample}に示すように,本研究では,{\PSE}の分析を行うために,対話破綻ラベル,対話破綻の理由を記述したコメント(以降,エラーコメントと呼ぶ)\cite{higashinaka15b},エラーが対象人物に特有かどうかを示す{\PSE}のフラグ,一般的なチャットボットにおけるエラー類型\cite{higashinaka21b}の4種類のラベルをシステム発話に付与して分析を行った.エラーコメント,および,{\PSE}のフラグは,エラー類型を明らかにするためのクラスタリングに利用された.また,一般的なチャットボットにおけるエラー類型,および,{\PSE}のフラグは,既存の類型と{\PSE}の類型の対応関係を調査するために利用された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{30-4ia3f2.pdf}\end{center}\hangcaption{{\PSE}を分析するために付与する4種類のラベル(対話破綻ラベル,エラーコメント,一般的なチャットボットのエラー類型\protect\cite{higashinaka21b},{\PSE}のフラグ)の具体例.対話破綻ラベルの列におけるNB,PB,B,Cはそれぞれ,Notabreakdown,Possiblebreakdown,Breakdown,PBおよびBで付与されるエラーコメントの数を表す.}\label{fig:sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%具体的な手順として,まず,対話中でエラーが起きている箇所を特定するため,対話破綻ラベルを付与する.このとき,先行研究と同様に,エラーの原因を調査するため,対話破綻と判断された理由を記述したエラーコメントを合わせて収集する.このエラーコメント中に対象人物に関するキーワードが含まれていた場合,そのエラーコメントは対象人物に特有の内容について言及していると考えられるため,エラーが対象人物に特有であることを示す{\PSE}のフラグを立てる\footnote{エラーコメントにキーワードが入っていないものの,そのエラーが対象人物に特有である場合も存在する.しかしながら,その判断には専門性が必要であり,また,人手での特定が必要となるため,本研究では{\PSE}のフラグの付与にキーワードの有無を利用することにした.}.そして,{\PSE}のフラグが付与されたエラーコメントを抽出しクラスタリングすることで,{\PSE}の類型を作成する.また,既存のエラー類型と{\PSE}との対応関係を明らかにするため,一般的なチャットボットにおけるエラー類型を付与し,それぞれの類型が占める割合を調査した.以降,各情報の付与,および,明らかになったエラー類型について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話破綻ラベルとエラーコメントの付与}対話破綻の情報の付与にあたって,アノテーションのコストを勘案して,収集された対話ログにおけるシステム発話全体のうち,13\%($=10611/80608$)をサンプリングしてアノテーションの対象とした.サンプリングの方法として,ユーザを一名ランダムに選択し,そのユーザとシステムの対話の先頭からシステム発話を最大で50件抽出してアノテーション対象とし,抽出されたシステム発話が全体の13\%になるまで,ユーザ一名の選択とシステム発話の抽出を繰り返した.その結果,アノテーション対象に含まれるユーザ数は385名となり,平均の対話長は27.6発話($=10611/385$)となった.サンプリングした各システム発話に対して,対話破綻のラベル(三種類)として「破綻ではない」を表すNotabreakdown(NB),「破綻の可能性がある」を表すPossiblebreakdown(PB),「破綻である」を表すBreakdown(B)のいずれかを付与した.これらのラベルは,対象人物に関して十分な知識を持つ5名の作業者(Lancersを通じて募集)によって付与された.このとき,作業者には,対話のエラーを表すPBまたはBを付与した場合,そのように判断した理由を具体的にエラーコメントとして記述するよう教示を与えることで,対話破綻ラベル,および,エラーコメントを収集した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{03table08.tex}%\caption{公開実験の対話ログの一部に対して付与された対話破綻ラベルの統計情報}\label{tab:stats-db}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{stats-db}に,公開実験の対話ログの一部に対して付与された対話破綻ラベルの統計情報を示す.10,611件のシステム発話に対して5名の作業者が対話破綻ラベルを付与することで,53,055($=10611\times5$)件の対話破綻ラベルが付与された.このうち,NBが付与された割合は89\%($=47200/53055$)であり,多くの場合において適切な対話がなされていることがわかる.Fleiss'kappa\cite{fleiss73}でアノテータ間の一致率を調査したところ,NB,PB,Bを異なるラベルとして扱った場合0.23,PBとBを統合した場合0.30となり,先行研究\cite{higashinaka15b}で報告されている一致率(0.28,および,0.40)よりも若干低い結果となった.これは,作業者の対象人物についての解釈の違いに起因する可能性がある.この違いについては今後調査したいと考えている.以降の分析では,半数(3名)以上の作業者が破綻(PBまたはB)と判断したシステム発話をエラー分析の対象とした.その数は817発話であり,アノテーション対象となった発話全体の7.7\%($=817/10611$)であった.また,エラー分析の対象となった発話に付与されていたエラーコメントの数は2,846件であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{{\PSE}のフラグと一般のエラー類型の付与}対話破綻と判断されたシステム発話817件に対して,{\PSE}のフラグ,および,一般的なチャットボットのエラー類型を付与した.これらの作業は第一著者と同組織に所属する専門のアノテータ二名によって行われた.一つ目の{\PSE}のフラグに関して,なりきりQAコーパスをもとに,アノテータが人手で対象人物に関連のある単語を列挙し,単語リスト(53語)を作成した.作成したリストに含まれる単語として,例えば「紅莉栖」,「まゆり」(紅莉栖の友人の名前),「秋葉原」(紅莉栖がよく訪れる場所),「@channnel」(紅莉栖がよく利用するウェブサイト)等が存在する.この辞書に含まれる単語がシステム発話に対するいずれかのエラーコメントに含まれていた場合,そのシステム発話に対して{\PSE}のフラグを付与した.また,二つ目の一般的なチャットボットのエラー類型については,アノテーションの仕様書\footnote{\url{https://github.com/ryuichiro-higashinaka/taxonomy-of-errors}}を参照しつつ二名のアノテータがラベルを付与し,判断が揺れた事例については相談の上どちらかに統一することでアノテーションを行った.\tab{dbl}に,一般のエラー類型および{\PSE}のフラグのアノテーション結果を示す.エラーと判断されたシステム発話のうち,20.1\%(=168/817)が{\PSE}と判定された.特に,{\PSE}が多いものとして,(I4)誤情報はエラーの半数以上(43/81=53.1\%)が{\PSE}であることがわかった.以降の分析では,端的かつ顕著なエラーを分析対象とするため,エラーが起きている発話全体に占める{\PSE}の割合がおよそ1\%以上のもの,具体的には,表中の下線部のエラー(I4:誤情報,I5:質問無視,I9:期待無視,I10:発話意図不明確,I13:自己矛盾,I15:繰り返し)を対象に分析を行うことにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{03table09.tex}%\hangcaption{対話破綻が起きていた発話に対して付与した一般のチャットボットのエラー類型(Higashinakaet~al.2021),および,{\PSE}の割合.各列において,数値と括弧内の割合はそれぞれ発話数とエラー全体における割合を表す.}\label{tab:dbl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラスタリングを通じた{\PSE}の類型化}\label{ssec:clustering}{\PSE}が起きているシステム発話に対して,先行研究\cite{higashinaka15b}同様,エラーと判断された理由を記述したエラーコメントをクラスタリングすることで,{\PSE}を類型化し特徴を明らかにする.このためのクラスタリング手法として,分類の過程を追跡しやすい階層型クラスタリングを用いた.クラスタリング対象のエラーコメントは{\PSE}と判定された168件のシステム発話に対して付与されたコメントであり,人物特有フラグが付与されたコメントを各システム発話からランダムに一つ選択することで抽出した\footnote{エラーが起きている各システム発話に対して付与されたコメントの数は同数ではなく(具体的には3件~5件),また,その中には対象人物に関するキーワードを含まないエラーコメントも存在するため,エラーが起きた発話とクラスタリング対象のエラーコメントの数が一対一になるよう,エラーコメントを選択するようにした.}.クラスタリング対象のエラーコメントには対象人物に関する固有名詞が多数出現するため,同一の固有名詞に関するコメントをまとめられるよう,特徴量にはBag-of-wordsを利用した.クラスタリングの際には,クラスタリング対象のコメント中で出現頻度が少ない語(出現回数が3回以下のもの)は除外した.階層クラスタリングの手法にはウォード法を使用し,距離尺度にはユークリッド距離を使用した.最終的にクラスタ数を決定する際は,最終的な類型間で重複等がないよう,各クラスタのサイズが全コメントの10\%以上となるように閾値を設定した.なお,日本語形態素解析器としてJTAG\cite{fuchi98}(前述の対象人物に関する単語リストを固有名詞辞書として登録したもの)を利用し,クラスタリングの実装にはSciPy\footnote{\url{https://scipy.org}.クラスタリングを行う関数としてscipy.cluster.hierarchy.linkageを利用した.}を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-4ia3f3.pdf}\end{center}\hangcaption{{\PSE}に付与されていたエラーコメントのクラスタリング結果.各クラスタにおいて,クラスタの重心に特徴量が最も近いコメントをそのクラスタの代表的なコメントとして示している.}\label{fig:clustering}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fig{clustering}にエラーコメントのクラスタリング結果を示す.図には4つのクラスタが示されており,各クラスタにおいて,クラスタの重心に特徴量が最も近いコメントをそのクラスタの代表的なコメントとして示している.コメントの内容に基づき,各クラスタの特徴を以下にまとめる.\begin{itemize}\itemクラスタ1では,システムが対象人物を取りまく環境(登場人物である「岡部」や,好きなアーティストである「モーツァルト」)に関する内容について,適切に応答できていないというエラーが見られる.\itemクラスタ2では,システムが突然話題になっている人物(例えば,登場人物の「鈴羽」)とは別の人物(別の登場人物である「まゆり」)について言及してしまったり,突然別の人物(「まゆり」や「漆原」)の名前に言及することで,ユーザを別の人物と間違えてしまったりするというエラーが見られる.\itemクラスタ3では,システムが対象人物自身に関する誤った情報(例えば,自分のプロフィールを間違えたり,自分の好みを間違えたり)を発話してしまうというエラーが見られる.\itemクラスタ4では,システムが対象人物自身を別の人物(例えば,登場人物やユーザ)と勘違いしたような内容を発話してしまうというエラーが見られる.\end{itemize}以上の特徴から,クラスタ1とクラスタ3はシステムが再現する対象人物自身についての誤認識がまとまっており,クラスタ2とクラスタ4は対象人物とは別の人物や事物についての誤認識がまとまっていると考えられる.また,クラスタ1とクラスタ2は対象人物自身(例えば,対象人物や登場人物)についてのエラーがまとまっており,クラスタ3とクラスタ4は,人物や事物間の関係性に関するエラーがまとまっていると考えられる.エラーコメントのクラスタリング結果を解釈した結果に基づき,{\PSE}は,人物や事物に関する{\bf属性}のエラー,および,それらの間の{\bf関係}のエラーの二種類に分けることができ,それぞれのエラーはさらに,{\bf自己}(対象人物自身),および,{\bfその他}(対象人物以外の人物や事物,すなわち,対象人物の周囲の環境)という二つのレベルに分けられると考えられる.この分類を{\PSE}の類型としてまとめたものを\tab{newdbl}に示す.表には二つのレベル,および,二種類のエラーに分かれて4つのエラー類型が存在している.\tab{newdbl}に示すそれぞれの類型は\fig{clustering}のクラスタと一対一で対応しており,それぞれ,{\bf\selfrecog}はクラスタ3,{\bf\selfrel}はクラスタ4,{\bf\otherrecog}はクラスタ1,{\bf\otherrel}はクラスタ2と対応する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{03table10.tex}%\caption{{\PSE}の類型.括弧内のクラスタ番号は\fig{clustering}と対応している.}\label{tab:newdbl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%{\PSE}の各類型について,公開実験を通じて実際に収集された対話例とその説明を示す.以降の対話では,ユーザ,システムをそれぞれU,Sと表記する.また,具体例として示す対話中の発話において,著者らがエラーの原因と考えた箇所を\ul{下線}で示している.\begin{description}\item[\bf{\selfrecog}:]このエラーは,対象人物となる人物の属性に関する情報(例えば,プロフィール,嗜好,経験など)において,誤った情報を発話するものである.\begin{enumerate}\itemU:~~「IlikeyouKurisu.」\\S:~~~「私は\ul{AI}でも\ul{AI紅莉栖}でもありません。」(注:対象人物はAIのキャラクタ)\itemU:~~「つれないなクリスティーーーナよ!」(注:クリスティーナは対象人物が嫌っているあだ名)\\S:~~~「こんばんは。AIの\ul{クリスティーナ}よ。」\end{enumerate}対話(1)では,対象人物は作品中においてAIのキャラクタであるため,対象人物のプロフィールが誤っている.対話(2)では,システムが自ら「クリスティーナ」と発話しているが,対象人物は「クリスティーナ」というニックネームを嫌っているため,対象人物の嗜好が誤っている.\item[\bf{\selfrel}:]このエラーは,システムが対象人物自身と他の人物や事物(例えば,ユーザ,友人,有名人)を誤って取り違えて発話するものである.\begin{enumerate}\setcounter{enumi}{2}\itemS:~~~「私の名前は牧瀬紅莉栖よ。今日の実験もそろそろ終わりね。」\\U:~~「もっと話したいです。」\\S:~~~「あなたは本当に\ul{牧瀬紅莉栖}なの?」\itemU:~~「まゆりって誰?」(注:まゆりは対象人物の友人)\\S:~~~「彼女は\ul{牧瀬紅莉栖}とも呼ばれているわ。」\end{enumerate}対話(3)では,システムがユーザを対象人物である「牧瀬紅莉栖」と読んでおり,対象人物自身を別の人物(この場合はユーザ)と誤認識している.対話(4)では,ユーザがまゆりについて尋ねているにも関わらず,対象人物自身を別の人物(この場合は友人である「まゆり」)と誤認識している.\item[\bf{\otherrecog}:]このエラーは,対象人物の周囲の人物(例:友人)や事物(例:好きなもの等の関係の深いもの)について,誤った情報を発話したり,適切に反応できなかったりするものである.\begin{enumerate}\setcounter{enumi}{4}\itemS:~~~「男の子でも、可愛い人は、いるわよ。」\\U:~~「お、おう。たとえば?」\\S:~~~「\ul{まゆりとか、まゆりとか}ね。」\itemU:~~「ぬるぽ」(注:対象人物がよく知るインターネットスラング)\\S:~~~「\ul{私の名前は牧瀬紅莉栖よ。}」\end{enumerate}対話(5)では,対象人物の友人である「まゆり」は女性であり,男性ではないため,対象人物の周囲の人物に関する知識が誤っている.対話(6)では,ユーザがインターネットスラングを発話しているが,期待と異なる応答をしている.対象人物はインターネットスラングについてよく知っている設定のため,典型的な応答(この場合は「ガッ」)を返すべきであり,対象人物の周囲の事物に関する内容の発話適切に反応できていないというエラーである.\item[\bf{\otherrel}:]このエラーは,対象人物の周囲の人物(例:友人)や事物(例:好きなもの等の関係の深いもの)を別の対象人物以外の人物や事物と誤って取り違えて発話するものである.\begin{enumerate}\setcounter{enumi}{6}\itemU:~~「アマデウス紅莉栖LOVE」\\S:~~~「そうね。私も好きよ。\ul{まゆり}。」(注:まゆりは対象人物の友人)\itemU:~~「鈴羽は今何してる?」(注:鈴羽は対象人物の友人)\\S:~~~「そうね、\ul{マユリ}の声は世界を救うのよ。」\end{enumerate}対話(7)では,システムが突然「まゆり」と発話していることから,システムは対象人物以外の人物(ユーザ)を別の対象人物以外の人物(マユリ)と誤って発話している.対話(8)では,ユーザは対象人物の友人である「鈴羽」について質問しているにも関わらず,別の友人である「マユリ」について発話しており,対象人物以外の人物(友人)を取り違えて発話している.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{{\PSE}の類型の評価}\ssec{clustering}で述べた{\PSE}の類型の妥当性を確認するため,クラスタリングの対象として利用していない対話データ中のシステム発話に対して,{\PSE}の類型をアノテーションした.具体的には,{\PSE}が起きているシステム発話に対して,4種類の類型(P1--P4)のアノテーションを行い,アノテータ間一致率を調査した.アノテーション対象のシステム発話を抽出するために,対話破綻ラベルのアノテーションを行っていない残りの対話データ(全体の$87\%=(80608-10611)/80608$)から,まず,3,200件のシステム発話をサンプリングした.次に,7.1節,および,7.2節で述べた{\PSE}の抽出方法(対話破綻のアノテーション,および,対象人物に関するキーワードを利用した{\PSE}のフラグの付与)を適用することで,50件の{\PSE}を抽出し類型のアノテーション対象とした.抽出された50件の{\PSE}が起きているシステム発話の各々に対して,アノテータは{\PSE}の類型を一つ付与した.このとき,アノテータには対象となる{\PSE}が起きている発話,および,その直前の3発話(文脈)を与え,アノテーション対象の発話に対して付与されていたエラーコメント等は与えなかった.アノテータとして,第一著者と同組織に所属する専門のアノテータ二名がアノテーションを実施した.教示として,\ssec{clustering}で述べた各類型の対話例とその説明を与えた.その結果,アノテータ間の一致率はCohen'skappaで0.46となり,中程度の一致率であることから,{\PSE}の妥当性が示唆されたと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存のエラー類型との対応}\tab{mapping}に,{\PSE}の類型と従来のエラー類型(チャットボットの個性を限定しないもの)\cite{higashinaka21b}との対応関係を示す.この表は,\tab{dbl}と\fig{clustering}の結果をマージすることで作成した.この表から,まず,{\PSE}の各類型の出現頻度に着目すると,{\selfrecog}のエラーが最も頻繁に発生しており,半数以上($42.3\%+15.5\%=57.8\%$)を占めることがわかる.また,他者レベルのエラー(P3,および,P4)は合わせて4割程度出現していることから,対象人物自身の情報のみならず,対象人物の友人など,その人物を取りまく環境についての話題も頻繁にエラーになっていることが明らかになった.従来のエラー類型における各類型が{\PSE}の各類型に出現しており,本研究で明らかになった{\PSE}の類型が従来のエラー類型と異なる観点でエラーを分類できていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{03table11.tex}%\hangcaption{{\PSE}の類型,および,従来のエラー類型(チャットボットの個性を限定しないもの)\protect\cite{higashinaka21b}の対応関係.表中の各数値は{\PSE}の分析に利用した全エラー(168件)における各エラーの割合を示す.}\label{tab:mapping}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%{\PSE}の類型と従来のエラー類型の対応関係に着目すると,{\selfrecog}は従来のエラー類型における(I4)誤情報,および,(I10)意図不明(発話意図不明確)で頻繁に発生していることがわかる.代表的なものとして,(I4)誤情報であれば,対象人物自身のプロフィールや嗜好に関して誤った情報を含む発話(例えば,AIの人物であるにも関わらず「私はAIではない」と発話する場合)が見られた.(I10)発話意図不明確であれば,対象人物の応答として意図が不明確となる発話(例えば,「私はクリスティーナよ」と自ら嫌っているあだ名で名乗る場合)が見られた.{\selfrel}も(I4)誤情報,および,(I10)発話意図不明確で頻繁に発生している.(I4)誤情報であれば,システムが自身とユーザを混同したり,自身と対象人物の友人を混同したりする発話が見られた.(I10)発話意図不明確であれば,例えば,システムが対象人物とその友人を混同し,対象人物の話題から突然その友人の話題に飛ぶことで発話意図が不明確となる発話が見られた.{\otherrecog}や{\otherrel}においては,対象人物が深く知っておくべき友人などの人物や,好きなものなどの事物に関して適切に答えることができない発話が見られ,例えば,人物や事物に対して誤った情報を含む発話や,ユーザを含む人物の間で取り違えが起きている発話が見られた.本研究の調査結果をまとめると,{\PSE}では特に対象人物自身に関するエラーが最も多いということが明らかになった.\mark{この理由として,本研究で実施した公開実験に参加したユーザが主に対象人物のファンであり,ユーザが対象人物についての話題に言及しやすい傾向があった可能性が考えられる.}また,従来のエラーの類型を用いた調査の結果,{\PSE}では(I4)誤情報が最も多く発生していることから,個性を一貫させた対話を実現する研究\cite{li16a}の重要性が確認された.興味深い知見として,対象人物を再現するシステムとの対話では,対象人物だけでなく,対象人物の周辺を取りまく人物や事物等の環境に関する話題が出現しており,これらの知識に関するエラーが{\PSE}全体のうちのおよそ4割存在することが明らかになった.人物や事物の間の関係を扱うためには,例えばグラフ構造を用いる手法が有効である可能性がある\cite{ghazvininejad18,dinan19}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} \label{sec:summary}本研究では,対象人物に関して収集したなりきり質問応答のデータを大規模言語モデルと組み合わせることでなりきりAIを構築し,さらにインターネットを通じて公開実験を行うことで,対象人物を再現するチャットボットにおける現状の到達点と今後解決すべき課題({\PSE}の類型)を調査した.その結果,収集された45KのQAペアを用いることで,構築されたチャットボットが従来の検索ベースの手法と比較して有意に高い自然さとキャラクタらしさを持つことが明らかになった.さらに,公開実験を通じて収集した大規模な対話ログを用いて誤り分析を行うことで,対象人物を再現するチャットボットのエラー({\PSE})を調査した.その結果,{\PSE}は属性に関するエラーと関係に関するエラーの二種類に分けることができ,また,自己に関するエラーと他者に関するエラーという二つのレベルに分けられることが明らかになった.今後の課題として,生成ベースの手法をより改善していきたい.例えば,今回実験に利用したQAペアは最低でも1万ペアであり,依然として多いため,より少ないデータでも適切に振る舞う手法を検討したい.このために,人物に関する外部知識(テキストや知識グラフなど)を参照しながら対話を行う手法が有用な可能性がある\cite{zhao20}.\mark{加えて,本研究では5節の評価実験において,発話レベルの人手評価結果のみに着目して低い評価値が付与された発話の分析を行ったが,対話レベルの人手評価結果についても,定性的な分析や定量化可能な情報の調査を通じて,評価値が低くなった対話の原因を調査したい.}また,エラー分析の結果得られた知見に基づき,Unlikelihood-Training\cite{li19}や話者の識別モデルを利用する発話生成\cite{shuster22}のアプローチを用いて,{\PSE}を抑制することも重要な課題である.\mark{今後,対話内容の詳細なアノテーション等を追加で実施し,人物特有エラーにおいて,特に対象人物自身に関するエラーが多く出現していた理由等も明らかにしていきたい.対象人物とユーザの関係や親しさを推定し,それに合わせた対話を行うことも今後の重要な課題である.本研究におけるコーパス構築では,対象人物の応答と併せて親密度のラベル収集したため,対象人物とユーザの関係や親しさを推定し,それに合わせた対話を行う手法を確立したい.}さらに,本研究で収集した対話破綻のラベルを用いて,ChatGPT\cite{ouyang22}等の大規模言語モデルにおいて利用されるReinforcementlearningfromhumanfeedback(RLHF)を実施して{\PSE}を抑制することも考えられる.本論文では単一の人物のみに焦点を当てており,今後異なる人物を対象として,結果の汎用性を検証することも実施していきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の一部は,The12thInternationalWorkshoponSpokenDialogSystems(IWSDS2021)\footnote{Thispaperwasfirstpublishedin[ConversationalAIforNaturalHuman-CentricInteraction,LectureNotesinElectricalEngineering,vol943,pp.277--290,2022]bySpringerNature.},および,The60thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2022)で発表したものです\cite{mitsuda21,mitsuda22}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{光田航}{%2013年東京工業大学情報工学科卒業.2015年同大学大学院情報理工学研究科修士課程修了.2021年筑波大学大学院システム情報工学研究科博士課程修了.2015年から2023年まで日本電信電話株式会社研究員.2023年よりrinna株式会社AppliedScientist.自然言語処理,対話システムの研究開発に従事.人工知能学会,言語処理学会各会員.博士(工学).}\bioauthor{東中竜一郎}{%2001年慶應義塾大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.2020年より,名古屋大学大学院情報学研究科教授.NTT人間情報研究所客員上席特別研究員.慶應義塾大学環境情報学部特別招聘教授.2004年から2006年まで英国シェフィールド大学客員研究員.質問応答システム・対話システムの研究に従事.人工知能学会,言語処理学会,情報処理学会,電子情報通学会各会員.博士(学術).}\bioauthor{李廷軒}{%2019年大連理工大学電子情報・電気工学部卒業.2023年筑波大学大学院理工情報生命学術院システム情報工学研究群知能機能システム学位プログラム(博士前期課程)修了.}\bioauthor{杉山弘晃}{%2007年東京大学工学部機械情報工学科卒業.2009年同大学院情報理工学系研究科知能機械情報学専攻修士課程了.2016年奈良先端科学技術大学院大学情報科学研究科博士課程修了.2009年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所協創情報研究部主任研究員.人と自然な対話を行う雑談対話システムの研究に従事.IEEE,人工知能学会,言語処理学会,情報処理学会各会員.博士(工学).}\bioauthor{水上雅博}{%2014年奈良先端科学技術大学院大学情報科学研究科修士課程修了.2017年同研究科博士課程修了.同年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所協創情報研究部研究主任.個人性を持つ対話システムの研究開発に従事.人工知能学会会員.博士(工学).}\bioauthor{中村竜太}{%2008年国立群馬工業高等専門学校卒業.2008年~2016年ソニーグローバルマニュファクチャリング&オペレーションズ株式会社.2016年~2018年Gatebox株式会社.2018年より株式会社ドワンゴにて新規事業部署のマネージャに従事.}\bioauthor{安達敬武}{%2000年日本タイムシェア株式会社入社.2006年株式会社ドワンゴ入社.2013年スマートフォン音楽サイトセクションマネージャ.2016年対話AIプロジェクト「なりきりAI」立ち上げに参画.現在,新規プロダクトの開発ディレクションに従事.}\bioauthor{川端秀寿}{%2007年楽天株式会社入社.2011年楽天市場事業部西日本エリアマネージャ.同年,ドワンゴ株式会社入社.2012年より,ニコニコチャンネルのセールスマネージャとしてEコマース事業の開発に従事.2016年「なりきりAI」プロジェクト参加.その後,チャンネル事業部部長を経て,現在,株式会社KADOKAWAファンコミュニティ事業部部長.}\bioauthor{吉田仙}{%1995年東北大学大学院情報科学研究科博士前期課程修了.1995年から2022年まで日本電信電話株式会社,2003年から2007年まで西日本電信電話株式会社.2022年より株式会社三菱ケミカルホールディングス(現:三菱ケミカルグループ株式会社).現在,自然言語処理の応用業務に従事.情報処理学会,人工知能学会各会員.}\bioauthor{杵渕哲也}{%1997年東北大学大学院・博士課程前期修了.同年日本電信電話株式会社入社.現在,NTT人間情報研究所共生知能研究プロジェクトプロジェクトマネージャ.メディア処理,人工知能に関する研究開発に従事.電子情報通信学会会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V32N01-06
\section{はじめに} label{sec:introduction}ニューラル機械翻訳(NeuralMachineTranslation,NMT)は従来の統計的機械翻訳(StatisticalMachineTranslation,SMT)を短期間で凌駕し,現在の機械翻訳技術の主流となった.SMTでは,句単位の翻訳仮説を組み合わせながら複数の独立したモデルを統合して探索を行っていてしばしば流暢性に難があったのに対し,NMTは単一の大規模ニューラルネットワークを用いて,入出力の文内コンテキストを柔軟に参照しながら入力文を出力文に直接変換することで,自然で流暢な翻訳を実現している.一方で,NMTにも様々な課題があることが議論されており\cite{koehn-knowles-2017-six},その1つとして長文の入力に対する訳抜けや誤訳が発生が挙げられている.注意機構\cite{bahdanau2016neural,luong-etal-2015-effective}はその軽減に一定の役割を果たしたが,非常に長い文や複雑な構造を持つ文に対しては十分でなく,NMTのためのモデルの主流であるTransformer\cite{attention}でもこの問題は十分に解決できていないことが報告されている\cite{neishi-yoshinaga-2019-relation}.長文の翻訳精度低下の課題に対して,統計的機械翻訳では,長文を統語構造上の節に分割して翻訳し,並べ替えて結合する分割統治的手法が提案されている\cite{sudoh-etal-2010-divide}.また,\citeA{kano2022improving}はNMTにおける長文のための分割統治的手法を提案している.\citeA{kano2022improving}の手法による翻訳プロセスは大きく(1)節単位の翻訳と(2)節単位の翻訳結果の連結と書き換えの2つに分かれており,各プロセスはそれぞれ別のseq2seqモデルで実施される.しかしその性能向上は限定的であり,その理由として(1)節分割の方法,(2)節分割後の節の翻訳精度の2つの課題が挙げられている.(1)は,\citeA{sudoh-etal-2010-divide}によるプレースホルダを使った階層的な分割ではなくフラットな構造のまま分割を行ったことで埋め込み従属節を含む節が分断されてしまうことに起因している.また(2)は,(1)による節の分断に加え,NMTの利点である文内コンテキストの参照が節単位の翻訳で活用できないことが理由に挙げられる.本研究では,この2つの課題に注目し,英日翻訳における長文の翻訳精度の向上を試みる.具体的には,以下の2つを提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item等位接続詞の前後に限定した節分割\item文内コンテキストを参照可能な節単位翻訳\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらにより,以下の効果が期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item埋め込み従属節による節の分断を避け,節としてほぼ完全な状態での翻訳\item各節を翻訳する際に,同一文内の他の節の情報を参照できることによる節翻訳の精度向上\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法は,多言語BARTモデル\cite{mbart}を利用しASPECを対象にした英日機械翻訳実験において,41単語以上の長い入力文に対してベースラインを上回るBLEUを達成した.また,提案手法が適用された文のみに限れば,より短い入力文に対してもベースラインを上回る翻訳精度が得られることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} label{sec:relatedwork}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{ニューラル機械翻訳における長文翻訳の課題}\label{subsec:related_longsentmt}LongShort-TermMemory(LSTM)を利用したsequence-to-sequenceの初期のモデル\cite{LSTM}は,RNNの回帰構造により文脈情報を一方向で蓄積するため,テキスト内の長期的な依存関係を捉えるのに限界があり,文が長くなるにつれて情報の保持が難しくなり翻訳精度が低下する\cite{bahdanau2016neural}.\citeA{LSTMattention}や\citeA{bahdanau2016neural}はRNNに注意機構を導入することで,局所的な入力の情報を柔軟に参照可能にし,注意機構が機械翻訳の性能向上に効果的であることを示した.さらに,\citeA{attention}は自己注意機構の導入によりこうしたRNNの制約を排し,入力・出力それぞれの柔軟な活用を可能にした.しかしながら,長い入力文に対しては訳抜けが起こりやすく,実用上の大きな問題になっている.また,NMTの実装においてはしばしば長文が学習コーパスから除外されることがある上,長文の対訳は対訳コーパス中では一般に量が少ないことから,学習で活用されづらい,また評価においても長文に対する性能が考慮されづらい面があったとも言える.本研究では,論文等の技術文書において頻出する長文の翻訳を主眼に,翻訳精度低下の問題の解消を図るものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{分割統治的手法による長文の機械翻訳}\label{subsec:related_dividemt}統計的機械翻訳において,\citeA{sudoh-etal-2010-divide}は長文を統語解析の結果に基づいて節単位に分割し,各節を個別に翻訳した上で埋め込み節のプレースホルダに基づき目的言語の語順に再構成する手法を提案している.この方法により,複雑な節単位の順序入れ替えを,プレースホルダの並べ替えに置き換え簡略化し,長文の翻訳精度を向上させた.\citeA{Pouget}らは,入力文を前から順に分割する単純な分割統治型機械翻訳のための入力文の自動分割手法を提案した.この手法は原言語から目的言語への順方向の翻訳スコアとその逆方向の翻訳スコアを利用してセグメント対の対訳確信度を計算して適切なセグメント分割を求め,そこから入力文の自動分割モデルを学習するものである.英仏翻訳タスクでの実験において,特に長文に対する翻訳品質と未知語に対する頑健性の改善があることが確認されている.この自動分割手法は句に基づく統計的機械翻訳における句と同様に統語構造上の要素の境界とは無関係に分割され,また前から順に分割・翻訳・連結を行うためセグメントの順序の入れ替えが不可能であるため,語順の違いの大きい言語対には適さない.この手法に対応するために,\citeA{kano2022improving}は\citeA{sudoh-etal-2010-divide}の手法を参考にした,ニューラル機械翻訳(NMT)における分割統治的手法を提案した.\citeA{kano2022improving}は,分割されたセグメントの翻訳を行うNMTモデルとは別に,セグメント単位の翻訳結果を文に再構成するNMTモデルを導入する手法を提案している.再構成のためのNMTではセグメント単位の翻訳結果を適宜並べ替えて自然に連結するための書き換えが行われる.これにより,\citeA{sudoh-etal-2010-divide}が統計的機械翻訳で提案した分割統治的手法をNMTの手法として実現している.しかしながら通常のNMTからの制度改善は限定的で,その原因として節単位の翻訳の精度が低いことが挙げられており,本研究ではその解決を図る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{分割統治型ニューラル機械翻訳} label{subsec:Devide-and-Conquer-method-overview}本セクションでは提案手法のベースとなる分割統治型NMTについて説明する.\citeA{kano2022improving}の手法は図\ref{fig:kanomethod}に示す4つのステップで構成されている\footnote{本論文中の統語要素に関する定義は\citeA{kano2022improving}と同様にPennTreebankの統語要素タグセットに基づくものとする.}.まず,Step1で入力文を構文解析し,節(ラベルが\texttt{S}または\texttt{SBAR}である統語要素)を同定する.続くStep2では,各節の境界でセグメントに分割する.節が入れ子構造になっている場合もすべての節境界で分割を行うため,図中の例ではIthink/itisgood/.のように実際の節よりも短い単位への分割が行われる.その後Step3で,各セグメントは文単位の対訳コーパスで学習された翻訳モデル(TrainedModel1)を用いて翻訳され,最後のStep4で,セグメント単位の翻訳結果の統合と書き換えを行う翻訳モデル(TrainedModel2)を用いて,最終的な訳出を生成する.Step4での入力は原言語側の各セグメントとその翻訳結果を特殊トークン``$@@@$''と``$|||$''を用いて結合したものになっている.これは,英日翻訳では\citeA{Pouget}のような単純なセグメント翻訳の連結ではなく語順の調整を行うこと,また文内文脈をこの時点で参照できるようにすることで訳語選択の調整を行うことを企図したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-1ia5f1.eps}\end{center}\caption{Kano(2022)の分割統治型ニューラル機械翻訳の手法の概略}\label{fig:kanomethod}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{提案手法} 前節で説明した\citeA{kano2022improving}の手法は,セグメント単位の翻訳精度が不十分で,最終的に得られる文単位の翻訳精度の目立った向上が得られなかった.その主な要因として以下の3つが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\itemすべての節の境界で文を分割すると,文内の「Ithink」やピリオドのみでセグメントが構成されるような,過剰な分割が生じる.\item原言語の各セグメントを通常の\textbf{文レベルの}NMTモデルで翻訳する際,学習時と推論時の翻訳単位の不一致が生じ,過剰訳や訳抜けをもたらしやすい.\item原言語の各セグメントを独立して翻訳すると,\textbf{文内のコンテキストが利用できない}ため,一貫性のない不適切な訳語選択が生じやすい.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,これらの問題を解決する新しい分割統治型NMT手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{等位接続詞を基準とした節単位の分割}\label{subsec:clause_segmentation}本研究では,分割後のセグメントを統語上の節と合致させることで文として翻訳することができるよう,セグメントの過剰分割を抑制する.具体的には,統語上の節(\texttt{S})を連結する等位接続詞(\texttt{CC})に着目し,その前後でのみ分割を行う.したがって,関係詞節や副詞節のように入れ子構造となっている節は分割されなくなる.このセグメント分割のルールの詳細を以下の2つの文を例として示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item\textsf{Ilikefootballandbaseball.}\item\textsf{Shewantstotraveltheworld,butherjobkeepsherbusy,andhersavingsarenotenoughforthetrip.}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらを構文解析をした結果が以下である(\texttt{S}と\texttt{CC}(等位接続詞)以外の記号は簡単のため一部省略されている).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item(\texttt{S}(\texttt{S}\textsf{Ilike}(\texttt{NP}(\texttt{NN}football)(\texttt{CC}and)(\texttt{NN}baseball)).))\item(\texttt{S}(\texttt{S}\textsf{Shewantstotraveltheworld}),(\texttt{CC}\textsf{but})(\texttt{S}\textsf{herjobkeepsherbusy}),(\texttt{CC}\textsf{and})(\texttt{S}\textsf{hersavingsarenotenoughforthetrip}).)\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文(1)には,2つの名詞(\texttt{NN})を接続する\textsf{and}が含まれているが,これは上記のセグメント分割の条件を満たしていない.ここで分割を行うとすると,得られるセグメントは\textsf{Ilikefootball}と\textsf{baseball.}であり,前者は節と見なすことができるものの,後者は名詞と句点のみで構成されるセグメントであり,過剰分割であると考える.文(2)には,3つの節を接続する\textsf{but}と\textsf{and}が含まれている.これらの接続詞の前後で分割を行うと,以下の通り3つの節と2つの接続詞の列が得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item\noindent(\texttt{S}\textsf{Shewantstotraveltheworld,})\\item\noindent(\texttt{CC}\textsf{but})\\item\noindent(\texttt{S}\textsf{herjobkeepsherbusy,})\\item\noindent(\texttt{CC}\textsf{and})\\item\noindent(\texttt{S}\textsf{hersavingsarenotenoughforthetrip.})\\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%分割された節は,図\ref{fig:kanomethod}のStep3と同様に,NMTモデルを使用して翻訳することができる.そうすると等位接続詞は翻訳されずに残ることになるため,続くStep4で節単位の翻訳結果を統合するための二段階目の翻訳を行う際に入力される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{節単位の対訳対応付け}\label{subsec:clause_context_pairs}\ref{subsec:clause_segmentation}の節単位の分割戦略に基づけば,文レベルのNMTを使用してセグメントを翻訳する際の翻訳単位の不整合の問題を軽減することが期待されるが,文の途中で分割を行う故に約物や文頭の大文字小文字の違いといった差異は残っている.その差異を解消するためには,本手法で実際に翻訳される翻訳単位での対訳データを用いて学習される,上述のように分割された節単位の入力に対応したNMTモデルを利用することが望ましい.そこで本研究では,節単位の入力に対応したNMTモデルの学習に利用する節単位の対訳対応付けのために,PrefixAlignment\cite{kano-etal-2022-simultaneous}で用いられた対訳接頭辞文字列組の抽出方法を参考に,\ref{subsec:clause_segmentation}の方法で分割した各原言語(英語)の節と目的言語(日本語)のセグメントとの間の対応付けを行う手法を提案する.この手法は以下の5つのステップから構成されており,処理の例を図\ref{fig:alignment_flow}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[pt]\begin{center}\includegraphics{32-1ia5f2.eps}\end{center}\hangcaption{提案手法による英日の対訳文ペアから,分割された英語節と対応する日本語節のアライメントを得る処理の概要}\label{fig:alignment_flow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{description}\item[Step1]多言語BARTのトークナイザーを使用して,日本語文をトークン化する.そして,英語の節との対応付け候補として,日本語の最後のトークンから最初のトークンに向かって1つずつトークンを連結した接尾辞文字列の集合を作成する.\item[Step2]\ref{subsec:clause_segmentation}の方法に基づいて英文を節と等位接続詞に分割し,各節を文単位の英日NMTモデルを利用して翻訳したものを,擬似的な節単位の日本語訳とする.\item[Step3]この擬似的な日本語訳を,文末のものから順にStep1で作成した対応付け候補と付き合わせる.その基準にはBERTscoreのF1スコアを用い,最も高いF1スコアを対応付け候補を英語側の節と対応する日本語訳とする.\item[Step4]Step3で得られた対応付け候補の文字列を元の日本語文から削除する.\item[Step5]英語側で対応付けされていない節が残り1つになっていれば,それを残りの日本語文字列と対応付けて処理を終了する.2つ以上の英語の節が残っている場合は,残った日本語文字列を新しい日本語文として,Step1に戻る.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:alignment_flow}の例では,最初に二番目の英語節``copiesarestoredthere.''に対する対応付けを求め,残りの英語節``Insomecases...''と残りの日本語文字列が対応付けられるものとする.Step4においてすべての英語の節の対応付けが得られる前に日本語の文字列が尽きた場合は,対応付けが失敗したものとみなし,当該対訳文全部を節対応付けから除外するものとする.この手法を使用することで,\citeA{kano2022improving}のような機械翻訳による擬似的な節単位対訳ではなく,元の対訳文に基づいた質の高い節単位対訳が得られることが期待できる.なお,この節対応付けはPrefixAlignmentと同様に文頭から行うことも可能だが,予備実験において節対応付けの性能が低かったため文末から行うこととした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{文内コンテキストを利用した節単位翻訳}\label{subsec:sentence_context_pairs}ここまでに示した方法により得られた節単位の英日対訳に基づき,節単位の翻訳の際に同じ文の残りの箇所を文内コンテキストとして参照する仕組みを導入する.図\ref{fig:proposed_method}にこの節単位の翻訳の概要を示す.図に示すように,節単位の翻訳はタグ\verb|<<<>>>|で囲われた箇所を訳出するように学習用の対訳データを構築し,節翻訳モデルはそれを用いて学習する.これにより,節翻訳モデルはタグで囲われた箇所のみを\emph{その他の箇所を文内コンテキストとして参照しながら}翻訳することを学習することが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{32-1ia5f3.eps}\end{center}\caption{提案手法による翻訳処理の概要}\label{fig:proposed_method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:data_format}に,図\ref{fig:alignment_flow}で得られる対応付けに基づく節単位対訳データの例を示す.上で述べた英語の各節の対訳関係を学習させるため,\ref{subsec:clause_context_pairs}で得られた節の対応付けに基づき,英語側の節をタグ\verb|<<<>>>|で囲い,その節に対応する日本語の部分文字列を対訳として与える.ここで,一般に文は複数の節に分割されるため,翻訳対象となる(タグが付与される)節は文中の任意の位置に存在し得るが,次節で述べるデータ拡張との整合のため,タグが付与される節は英語側の先頭もしくは末尾に配置するものとする.そのため,文が3つ以上の節に分割され,先頭および末尾以外にある節にタグ付けを行う場合には,その節に先行する文字列を削除する(図\ref{fig:data_format}).これは学習時,推論時の双方で適用される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{05table01.tex}\caption{提案手法における節単位対訳データの例}\label{tab:data_format}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[t]\begin{center}\includegraphics{32-1ia5f4.eps}\end{center}\hangcaption{英語側が3つの節で構成されていた場合の節単位対訳データの形式.翻訳対象となる節が先頭および末尾以外の場合は,その節に先行する文字列を削除する.}\label{fig:data_format}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.4\subsection{モデルの学習}提案手法では\citeA{kano2022improving}と同様に節翻訳モデルと節翻訳統合モデルの2つのモデルが必要となるため,それぞれ以下のように学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.4.1\subsubsection{節翻訳モデルの学習}\label{subsubsec:clause_model}節翻訳モデルは,\ref{subsec:sentence_context_pairs}で述べた文内コンテキストの参照に対応するための学習を行う必要がある.しかしながら,等位接続詞で節が連結されている事例は対訳コーパス全体の数割に過ぎず,学習事例の不足が懸念される.そのため,文脈情報が保持されている文単位対訳データを用い,図\ref{fig:data_augment}に示すような形式で前後の文の情報をコンテキストとして参照可能な対訳データとして利用するデータ拡張を行う.これは文脈依存型機械翻訳において2-to-1と呼ばれるアプローチ\cite{tiedemann-scherrer-2017-neural}と類似するが,提案法では先行文,後続文のどちらを翻訳するかをタグを用いて表現したものである.なお,同様に3文以上を組み合わせて中間の節を翻訳させる事例を得ることもできるが,3つ以上の節が等位接続詞で連結される文が少数に限られること,またデータ拡張の組み合わせ数が膨大になることから,本研究では2文の組み合わせのみを用いることとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}[b]\begin{center}\includegraphics{32-1ia5f5.eps}\end{center}\hangcaption{文脈情報が保持されている文単位対訳データを用いた,文内コンテキスト依存節翻訳モデル学習のためのデータ拡張の模式図.}\label{fig:data_augment}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%節翻訳モデルの学習はまずこのデータ拡張によって生成された先行文または後続文をコンテキストとして参照可能な文単位対訳データを用いて行い,続いて前述の文内コンテキストを参照可能な節単位対訳データを用いて追加学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.4.2\subsubsection{節翻訳統合モデルの学習}節翻訳統合モデルは,節翻訳の結果と,節翻訳において除外された等位接続詞を連結したものを入力とし,文単位の翻訳を出力するものである.その学習のためには対訳コーパスの原言語(英語)側をこの入力形式に変換したものが必要になるため,\ref{subsec:clause_segmentation}の方法で節に分割した英文の各節を文単位のベースライン英日NMTに翻訳したものを元の英文の順序通りに等位接続詞を含めて連結したものを入力側とし,それを対訳コーパスの目的言語(日本語)文に翻訳するように学習したものを節翻訳統合モデルとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{実験} 提案方法の有効性を検証するため,以下の英日翻訳実験を行った.提案手法は長文の翻訳に焦点を当てたものであるため,その観点での検証を重視する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1.1\subsubsection{データセット}英日翻訳において比較的構造が複雑で長い文が多く,また\ref{subsubsec:clause_model}で述べたデータ拡張のための文脈情報が取得可能なデータセットとして,科学論文の要旨からなる対訳コーパスであるASPEC\cite{NAKAZAWA16.621}を用いた.ASPECは学習データが300万文対,開発データが1,790文対,テストデータが1,812文対から構成されており,学習データは\texttt{train1.txt},\texttt{train2.txt},\texttt{train3.txt}に,それぞれ100万文ずつ分割されている.この学習データは対訳文対応付けの信頼度スコアに基づいてソートされているため,\texttt{train2.txt},\texttt{train3.txt}等後方のデータにはノイズの多い対訳文が含まれており,学習に悪影響を及ぼすとされている\cite{morishita-etal-2017-ntt}.そのため今回の実験では先頭の\texttt{train1.txt}のみを学習データに利用した.なお,予備実験では\texttt{train2.txt}の追加利用はBLEUの向上に寄与しなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1.2\subsubsection{実装}対訳データ量が限られていることもあり,本実験では事前学習済みの多言語系列変換モデルである多言語BARTを利用し,実装には\texttt{fairseq}\cite{fairseq}を用いた.ベースラインのNMTモデルは多言語BARTを\texttt{train1.txt}を用いてファインチューニングしたものである.節翻訳モデルは,\ref{subsec:sentence_context_pairs}によりデータ拡張された文間コンテキストを有する対訳データと,\ref{subsec:clause_context_pairs}による文内コンテキストを有する節単位対訳データを用いてファインチューニングした.ASPECの学習データには文書IDと文IDが付与されているため,その情報をもとに文章内で連続する2文を用いて\ref{subsubsec:clause_model}のデータ拡張により約20万対のデータが得られた.ファインチューニングのハイパーパラメータ設定は,概ね英語-ルーマニア語の多言語BARTファインチューニングのデフォルト設定に従った\footnote{\url{https://github.com/facebookresearch/fairseq/blob/main/examples/mbart/README.md}}.ただし,データ拡張により長文の占める割合が増加することを鑑み,ミニバッチ学習における1回の勾配計算に利用する対訳文を多くすることが良い影響を与える可能性を考慮するため,\texttt{fairseq}において勾配計算に利用する事例数を調整するupdatefrequencyを2(デフォルト)とその5倍の10の2パターンでファインチューニングし,開発データでより良いBLEUスコアを達成した設定を選択した.また,節同定のための統語解析にはStanza\footnote{\url{https://github.com/stanfordnlp/stanza}}のconstituency解析を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1.3\subsubsection{評価}評価指標にはBLEU\cite{papineni-etal-2002-bleu},BLEURT\cite{sellam-etal-2020-bleurt},COMET\cite{rei-etal-2022-comet}を用いた.BLEUは単語n-gramの表層的一致に基づく評価指標であるのに対し,BLEURTとCOMETは文埋め込みに基づく回帰モデルを用いた文意の合致を評価することを志向した評価指標である.BLEUの計算には\texttt{sacrebleu}\cite{sacrebleu}を用い,その際の日本語トークナイザには\texttt{ja-mecab}\cite{mecab}を用いた.文の長さが翻訳に影響を調査するため,テストセットを入力側英文の単語数に基づき1--20,21--40,41--60,61以上の4つの長さベースのサブセットに分割した評価も行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1.4\subsubsection{比較手法}本実験では,提案手法とベースラインに加え,提案手法における節翻訳統合モデルの効果を検証するために,節翻訳結果を節翻訳統合モデルに通さず単純に連結した(以下,単純連結)しただけの手法も比較に加えた.なお,提案手法は,等位接続詞により節が連結されている場合にのみ適用されるため,その他の場合はベースラインの翻訳モデルを利用することになる.表\ref{table:testset}に,テストセット全体および提案手法が適用される文における,各サブセット毎の文数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[b]\input{05table02.tex}\caption{単語長ごとのテストデータの文数}\label{table:testset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{05table03.tex}\caption{入力単語数ごとのBLEU(テストセット全体)}\label{tab:1812bleu}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{結果}表\ref{tab:1812bleu}に示されたテストセット全体に対するBLEUの結果を示す.提案手法が適用された文は全テストデータ1,812文のうち約14\%の259文に留まっていることもあり,テストセット全体ではベースラインをBLEUで0.1ポイント上回るに留まったが,単語数41--60,61以上の範囲では,それぞれ0.7ポイント,1.3ポイント改善が見られた.節翻訳結果の単純連結による方法も単語数41--60,61以上の範囲ではベースラインを上回っているが,提案手法には及ばず,提案手法の節翻訳統合モデルの効果が確認できたと言える.節統合モデルの具体的な効果としては,節翻訳時に稀に発生する単語の繰り返しや文脈に沿わない単語の訳出などのエラーが修正されるケースが見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[b]\input{05table04.tex}\caption{入力単語数ごとのBLEU(提案手法が適応された文のみ)}\label{tab:259bleu}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[b]\input{05table05.tex}\caption{入力単語数ごとのBLEURT(提案手法が適応された文のみ)}\label{tab:259bleurt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{05table06.tex}\caption{入力単語数ごとのCOMET(提案手法が適応された文のみ)}\label{tab:259comet}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%続いて,表\ref{tab:259bleu}--\ref{tab:259comet}に提案手法が適用された文のみを対象にしたBLEU,BLEURT,COMETの結果をそれぞれ示す.BLEUに関しては,単語数1--20を除くすべての範囲で提案手法がベースラインを上回るBLEUを示し,特に単語数41--60,61以上のときにそれぞれ2.4ポイント,1.1ポイントの向上を達成した.単純連結による手法は単語数61以上の範囲で提案手法を上回っているが,評価対象文数が2文と少なく,その中でのBrevityPenalty\footnote{BLEUにおいて翻訳文が参照訳に対して短い場合にスコアを小さくするために用いられるペナルティ項.}の影響が大きいことが原因で,実験全体での影響は小さいと考えられる.一方,単語数1--20の文においては単純連結による手法が最も高いBLEUを示した一方で,提案手法は単純連結やベースラインに劣る結果となった.実際の翻訳結果を見ると,単純連結と提案手法で大きな翻訳結果の違いはないものの,参照訳との長さ比が提案手法では0.963であったのに対し単純連結では0.991であり,BrevityPenaltyの影響の大きさが伺える.提案手法では節統合の際に訳文中の繰り返し要素を修正するような効果が得られるため,これにより訳出長が短くなったと考えられる.ただし,このBLEUの差はBLEURTやCOMETの結果も勘案すると翻訳品質における大きな差を示すものではないと考えられる.BLEURTについても全体としてBLEUに類似した傾向が見られ,提案手法がベースラインを上回ることが確認された.単語数61以上のサブセットにおけるベースラインとの大きなスコア差の要因は不明であるが,BLEURTでは訳語の変化で大きなスコアの変化が起こることがあり,その影響が考えられる.COMETスコアの比較では,BLEU,BLEURTに見られる同様の傾向が認められるものの,提案手法とベースライン間のスコアの差はやや小さくなっている.これは翻訳の品質がある程度高い(BLEUで40を大きく上回る)ことでCOMETの意味的評価ではあまり大きな差に結びつかなかったことが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3\subsection{分析}提案手法によるBLEUスコアの改善が特に見られた単語数41--60,61以上の範囲における改善の要因の1つとして,節単位の分割により翻訳モデルにとって扱いやすい単位に変換されたことが考えられる.図\ref{fig:sent_count_by_word_count_bin},\ref{fig:cumulative_percentage}は,それぞれ学習データにおける単語数の範囲(5刻み)ごとの文数とその累積割合を示しており,単語数10--30の範囲に学習データが集中していることがわかる.これにより,単語数10--30の範囲が翻訳モデルにとって扱いやすい文長であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F6\begin{figure}[b]{\vskip-15pt}\begin{center}\includegraphics{32-1ia5f6.eps}\end{center}\caption{ASPECコーパスの単語数ビンごとの文数}\label{fig:sent_count_by_word_count_bin}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F7\begin{figure}[t]\begin{center}\includegraphics{32-1ia5f7.eps}\end{center}\caption{ASPECコーパスの単語数のビンごとの文数の累積割合}\label{fig:cumulative_percentage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,表\ref{tab:test_data_dist}は,テストデータにおける単語長の範囲ごとの節と文の平均単語数を示しており,単語数41--60,61以上の範囲の節が単語数10--30の範囲に収まっていることが確認できる.これは,翻訳モデルが扱いやすい単位に文を分割して処理することで,より効率的に入力文の情報を処理し,結果として翻訳精度を向上させることに繋がったことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{05table07.tex}\caption{テストデータの節と文の平均単語数}\label{tab:test_data_dist}{\vskip-10pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[b]{\vskip-10pt}\input{05table08.tex}\caption{文内コンテキスト利用の有無によるBLEUの比較(分割が行われた文のみ)}\label{tab:259context}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.4\subsection{アブレーションテスト}提案手法における節翻訳時の文内コンテキスト利用の有効性を確認するため,文内コンテキスト情報を活用する場合(提案手法による結果)と活用しない場合の比較実験を実施した.BLEU,BLEURT,COMETによる評価結果を表\ref{tab:259context}--\ref{tab:259context_comet}にそれぞれ示す.表より,節翻訳時に文内コンテキストを活用しない場合,文内コンテキストを利用する場合と比較して,BLEU,BLEURT,COMETの全スコアが低下することが確認された.これは,提案手法による節翻訳時に節の前後の文内コンテキスト情報を利用することで,分割により失われがちなコンテキスト情報の損失を抑え,節翻訳の品質を向上させることが可能であることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{05table09.tex}\caption{文内コンテキスト利用の有無によるBLEUの比較(分割が行われた文のみ)}\label{tab:259context_bleurt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[t]\input{05table10.tex}\caption{文内コンテキスト利用の有無によるBLEUの比較(分割が行われた文のみ)}\label{tab:259context_comet}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{おわりに} 本論文では,長文の翻訳品質の向上を目指し,節単位での文分割による分割統治的なNMTにおいて,節単位の対訳データを活用した,文内コンテキストを参照できる形で翻訳を行う節翻訳モデルの学習方法を提案した.実験により,提案手法は単語数41以上の長文の翻訳において特に有効であり,ベースラインと比較してBLEUスコアを向上させること,また文内コンテキストの活用が有効であることが確認された.今後の課題として,提案手法の適用範囲を広げることによる全体としての翻訳品質のさらなる向上が挙げられる.そのため,等位接続詞以外での新しい節分割パターンの追加を検討し,接続詞を持たない長文にも対応できるように提案手法を拡張することを目指す.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はJSPS科研費23K21697と21H05054の助成を受けたものです.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{石川隆太}{%2024年奈良先端科学技術大学院大学博士前期課程修了.同年株式会社リクルート入社,現在に至る.在学中機械翻訳の研究に従事.言語処理学会会員.}\bioauthor{加納保昌}{%2022年奈良先端科学技術大学院大学博士前期課程修了.2024年同博士後期課程修了.博士(工学).2021年より株式会社Tleez代表取締役.在学中機械翻訳,同時翻訳の研究に従事.言語処理学会会員.}\bioauthor{須藤克仁}{%2000年京都大学工学部卒業,2002年京都大学大学院情報学研究科修士課程修了,同年日本電信電話株式会社入社.2015年京都大学大学院情報学研究科博士後期課程修了.博士(情報学).2017年奈良先端科学技術大学院大学准教授,2024年より奈良女子大学教授.機械翻訳を中心とする自然言語処理,音声言語処理の研究に従事.言語処理学会,情報処理学会,日本音響学会,人工知能学会,ACL,ISCA会員.}\bioauthor{中村哲}{%1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学博士(工学).シャープ株式会社を経て1994年奈良先端科学技術大学院大学助教授,1996年米国Rutgers大学客員教授(文科省在学研究員),2000年ATR音声言語コミュニケーション研究所室長,2005年同所長,2006年情報通信研究機構音声コミュニケーション研究グループリーダ,2010年研究センター長,けいはんな研究所長,2011年奈良先端科学技術大学院大学教授.2024年3月定年退職.2024年4月香港中文大学(深\UTF{5733})教授.音声翻訳,音声対話などの音声言語情報処理,自然言語処理の研究に従事.AAMT長尾賞,日本音響学会技術開発賞,情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞,ドコモモバイルサイエンス賞,IBMFacultyAward,GoogleAIFocusedResearchAward等授賞.ISCA理事,IEEESLTC委員を歴任.ATRフェロー,情報処理学会フェロー,IEEEフェロー,ISCAフェロー.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V25N01-02
\section{はじめに} 言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.言語能力把握の需要がある場面の一つに,認知症スクリーニングがある.日本は世界に先駆けて超高齢社会に突入した.2013年の高齢化率は25.1\%にのぼり\footnote{内閣府平成26年5月「選択する未来」委員会.\\http://www5.cao.go.jp/keizai-shimon/kaigi/special/future/chuukanseiri/04.pdf},世界でも例を見ないスピードで高齢化が進行している.高齢化の進行に伴い,認知症高齢者の増加も見込まれる.2012年8月の厚生労働省発表によると,2010年における日常生活自立度II\footnote{「日常生活に支障を来すような症状・行動や意志疎通の困難さが多少みられても,誰かが注意していれば自立できる状態」を指す.}以上の認知高齢者数\footnote{65歳以上を指す.}は280万人にのぼり,将来推計として2025年には323万人,65歳以上の人口比率にして9.3\%にまで上昇するだろうと予測されている\footnote{認知症高齢者数について,http://www.mhlw.go.jp/stf/houdou/2r9852000002iau1.html}.また,日本における人口10万人当たりの若年性認知症者数(18〜64歳)は,47.6人にものぼるとされている\footnote{若年性認知症の実態等に関する調査結果の概要および厚生労働省の若年性認知症対策について.\\http://www.mhlw.go.jp/houdou/2009/03/h0319-2.html}.今や,認知症は我々にとって非常に身近なものとなっている.厚生労働省の調査によると\footnote{厚生労働省の認知症施策等の概要について.\\http://www.mhlw.go.jp/file/05-Shingikai-12301000-Roukenkyoku-Soumuka/0000031337.pdf},最初に認知症に気づくきっかけとなる症状の一つとして,言語障害がある.言語能力は長期にわたる学習や経験によって発達するものであり,一定レベルまで発達した後は,加齢によっても衰えにくいとされる\cite{Hampshire}.一方で,構文をあやつる能力は,70代後半を境に低下しはじめるという報告もある\cite{Kemper}.Kemperによると,英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり,症状が進行するにつれ,構文能力の顕著な低下がみられるという.つまり,認知症は言語能力,とりわけ語彙能力に,加齢の影響ではない何らかの特徴が表出する可能性をもつものである.もし言語能力を測り,その兆候を捉えることができれば,早期発見や療養に役立つのではないかと考えた.また,留学生の日本語能力評価においても,言語能力の自動測定への期待が高まっている.現在,多くの留学生が日本語教育機関において日本語を学んでいる.学習者の習熟度に対し,適切な評価を与えることが各教育機関に求められているが,言語能力の評価は,一概に容易とは言えない.具体的には,作文課題やスピーチテストなどの,「書く能力」「話す能力」の評価は,評価者の主観によって行われることが一般的であるが\cite{Kimura,Torii,Kanakubo},このような評価は評価者の能力や判断に大きく依存してしまうという問題を孕む.機械による客観的かつ自動的な評価が実現できれば,評価者による判断の揺れという問題を排除した尺度として活用できる可能性がある.近年,大規模なコホート研究によって,数十年の言語能力の経過を観察する試みが行われている.その結果,老化や認知症などと加齢によるさまざまな能力との関係は徐々に明らかになりつつある\cite{Kubo,Snowdon}.しかし,これらの取り組みには,人手でのテキストデータの作成・収集,テキストの分類,各評価スコアの算出などが必要であり,時間・金銭的コストが高い.また,テキストの分類には訓練をつんだ専門家が必要であるなど,言語能力測定のハードルが高い.そこで本研究では,言語能力測定システム「言秤(コトバカリ)」を提案する.言語能力測定における大きな課題の一つとして,分析対象となるテキストデータの作成がある.従来は,音声データの書き起こしなど,人手でのテキスト化が必要であり,多大な時間を要していた.提案システムでは,音声認識システムにより,言語能力の被測定者の発話データを自動的にテキスト変換することで,コストの大幅な軽減を行う.ただし,音声認識システムの認識精度には限界があり,常に正しい認識結果が得られるとは限らない.我々はこれまでに,テキストデータに基づいて定量的に言語能力を測定する指標(以降,言語能力指標と表記する)を提案してきた\cite{Aramaki2}.また,提案指標を用いたテキスト分析の結果,一部の指標(TTR(Type・Token割合)およびJEL(日本語学習語彙レベル))によって認知症者の特徴的な傾向などを観察できる可能性を示した\cite{Shikata,Aramaki2}.このうち,TTRは,Type(異なり語数)とToken(延べ語数)の比率(Type/Token)であるため,TTRスコアは語の内容ではなく,出現回数のみに基づいて算出される指標であり,発話されたのがどのような語であるかという点については関与しない.そのため,TTRを用いた場合,たとえ語の内容の認識結果が誤っていたとしても,算出されるスコアに問題は生じにくいと考えられる.よって,提案システムでは,先行研究における提案指標を採用し,特にTTRスコアに着目することで,音声認識による認識誤りの影響を受けにくく,さらに人手作業を排除した定量的なスコア算出を実現する.本提案のポイントを以下に整理する.\begin{description}\item[分析テキスト作成コストの軽減]音声認識システムを組み込むことにより,音声を録音/入力するだけで,言語能力の測定を可能にする.\item[スコアリングコストの軽減]定量的に算出可能な言語能力指標を採用することにより,認識誤りを許容し,さらにスコア算出のための人間の介在を省略可能にする.\end{description}本論文では,採用する言語能力測定指標と提案システムについて概説した後,低コストな言語能力測定の要となる音声認識システムの利用可能性について,検証実験の結果から議論する. \section{関連研究} 本研究で実現を目指す言語能力の自動測定は,認知症のスクリーニングや留学生の言語能力評価などの様々な場面において応用が期待されるものである.本章では,言語能力と老化/疾患に関する先行研究および音声認識の活用事例について述べる.\subsection{言語能力と老化/疾患}一般に,老化と言語能力とは相関しないといわれている.例えば,一部の言語能力は,高齢者においても伸び続けるため,老人が理解している語彙数は,若者の約1.3倍だという報告もある\cite{Kureda}.その一方で,人間が構文をあやつる能力は,70代後半を境に低下しはじめるという報告もある\cite{Kemper}.失語症などの言語との関連が深い疾患を除けば,罹患中の言語能力の変化についての調査は少ない.しかし,85歳以上の40\%が罹患している認知症\cite{Kosei}については近年研究が進んでいる.Snowdonは,認知症者は認知症の症状が認められ始める50年前から語彙能力が低いと報告した\cite{Snowdon}.また,Kemperによると,英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり,症状が進行するにつれ,構文能力の顕著な低下がみられるという\cite{Kemper}.ただし,ある人間が認知症か否かを判定するための項目に,言語能力に関するものがあることを考慮すれば,認知症患者が言語能力の低下を示すことは,ある種のトートロジーであり,言語能力と認知症,さらに老化の関係は,複雑な様相を呈しているといえる.文章から認知症などの疾患を推定することが可能となれば,測定の侵襲度が低く,かつ,超早期からの検出が可能となる.\subsection{音声認識の活用事例}近年,音声認識技術が進展し,様々な場面で音声認識が利用されている.例えば,スマートフォンの普及に伴い,ブラウザ上での音声検索なども利用できるようになった.また,旅行対話を対象とした音声翻訳\cite{Ikeda,Sasajima,Hanazawa}や,コールセンターの自動案内のための電話音声認識\cite{Kato},英語字幕の生成\cite{Shimogori},議事録の作成\cite{Bessho}など,音声認識を利用した多様なシステムがこれまでに提案されている.旅行対話など,分野を限定した場合,音声認識によって高精度な認識を実現することは可能であるが,分野を制限せずに精度のよい認識結果を得ることは未だ容易ではない.従来の音声認識を利用したシステムは,限定的な分野を対象にするなどして精度改善の工夫を行い,正しい認識結果を取得し,その結果を利用することが前提となっている.本研究では,言語能力の測定において,音声認識を利用する.精度の良い認識結果が得られれば,より正確な言語能力測定が可能であるが,認識誤りが生じていても,その影響を受けにくいと考えられる言語能力指標を採用することで,頑健な言語能力測定の実現を目指している. \section{言語能力指標} \label{sec:wordIndex}我々はこれまでに,言語能力指標の提案および提案指標を用いたテキスト分析を行い,提案指標によって認知症者の特徴的な傾向などを観察できる可能性を示してきた\cite{Shikata,Aramaki2}.本論文では,この先行研究で提案した言語能力指標を採用し,提案システムを実現する.そこで本章では,まず,提案システムで採用する言語能力指標について概説する.一般に,言語能力は「話す(speaking)・聞く(listening)・読む(reading)・書く(writing)」の4つに大別される.本研究は,人間からの出力に関わる,〈話す〉能力および〈書く〉能力に注目する.〈話す〉能力および〈書く〉能力は,大別すると語彙に関する能力(以降,語彙能力とよぶ)と文法に関する能力(以降,文法能力とよぶ)の2つになる\cite{Kintsch,Turner}.本研究で採用する言語能力指標は,主に語彙能力に関わるものであり,以下の2つの観点で分類できる.\begin{description}\item[単位:]語単位で算出され,それを全文で平均するタイプのもの(単語指標),文単位で算出され,それを全文で平均するタイプのもの(単文指標),および使用語彙数など,全文から導出されるタイプのもの(文章指標)\item[方法:]辞書などで定義された基準に基づいてレベル付けされたもの(辞書定義尺度),および大規模コーパスから統計的に算出されるもの(統計量)\end{description}これらの観点から指標を分類した結果を表\ref{table:wordIndex}に示す.以下,各指標の定義を述べる.\begin{table}[b]\vspace{-0.5\Cvs}\caption{本研究で用いる言語能力指標}\label{table:wordIndex}\input{02table01.txt}\end{table}\begin{enumerate}\itemType・Token割合(TypeTokenRatio;TTR):\\Type(異なり語数)とToken(延べ語数)の比率(Type/Token)を示す.この値が大きいほど,語彙量が多いことを意味する.文章全体で集計した値をTTRスコアとする.\item頻度・使用者数比(FrequencyperUserPopularity;FPU):\\語の特殊性を示す指標である.語の特殊性は,語の出現頻度を語のユーザ数で割った値と定義する.この値が低いほど,その語は一般的であり,高いほど,その語のユーザ数が少ない語(特殊な語)であることを示す.例えば,スラングや専門用語などは高い値を持つ.ソーシャルメディア上の10万人の発言を8ヶ月間調査して得たデータをもとに,語のユーザ数および出現頻度を算出し,各語の頻度・使用者数比コーパスを構築した\cite{Aramaki1}.このコーパスを参照して語ごとに頻度・使用者数比を算出し,全単語の値を平均した値をFPUスコアとする.\item日本語学習語彙レベル(JapaneseEducationalLexiconLevel;JEL):\\語彙の難易度を示す指標である.難易度は日本語学習辞書\footnote{http://jishokaken.sakura.ne.jp/DB/}に収載されている語彙レベルを用いた.語彙レベルは,1(初級前半),2(初級後半),3(中級前半),4(中級後半),5(上級前半),6(上級後半)に分けられる\cite{Sunagawa}.語ごとに算出し,全単語の平均をJELスコアとする.\item機能表現難度(DifficultyofFunctionalExpression;FNC):\\機能表現\footnote{日本語の文を構成する要素のうち,機能語(助詞や助動詞といった,主に文の構成に関わる要素)と複合辞(複数の語から構成され,かつ,全体として機能語のように働く表現)を総称したもの.}の難易度を示す.この値が大きいほど,文章内で用いられている機能表現の難易度が高いことを意味する.難易度の定義は「日本語機能表現辞書つつじ」\cite{Matsuyoshi1}で設定されている難易度による.難易度はA1,A2,B,C,Fの5段階に分かれており,これを1(A1)から5(F)に変換した.文ごとに算出し,平均した値をFNCスコアとする.\itemポライトネス(PolitenessofFunctionalExpression;PLT):\\機能表現の丁寧さの度合いを示す.この値が大きいとき,機能表現が丁寧であることを表す.ポライトネスは「日本語機能表現辞書つつじ」\cite{Matsuyoshi1,Matsuyoshi2}の分類を採用した.分類では機能表現が常体(normal),敬体(polite),口語体(colloquial),堅い文体(stiff)の4種類に分けられており,口語体(colloquial)=1,常体(normal)=3,敬体(polite)=5,堅い文体(stiff)=5に変換した.文ごとに算出し,平均した値をPLTスコアとする.\item具体性(NamedEntityRatio;NER):\\固有名詞の割合を示す.具体性は,固有名形態素数を全名詞形態素数で割った値と定義する.この値が大きければ,文章の内容がより具体的であることを示す.固有名詞の判定は,形態素解析器JUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}\cite{Kurohashi}を用いて行う.地名,数詞,固有名詞の割合を文ごとに算出し,平均した値をNERスコアとする.\end{enumerate}以降,これらの言語能力指標をもとに算出される値を「言語能力スコア」と総称する.なお,これらの指標は,人間の言語能力によって表出したテキストの特徴を表すものの一つであると見なし,本論文では「言語能力指標」と呼ぶこととしているが,これらの指標は人間の言語能力を直接的に表すものではない. \section{提案システム:言秤(コトバカリ)} 本章では,まず,想定するシステムの用途を整理し,提案システムの構成について述べる.\subsection{想定するシステムの用途}\label{sec:scene}前述したように,本研究で提案する言語能力測定は,様々な場面へと適用できる可能性があるが,本論文では,適用対象の一つとして想定している認知症者を例として,システムの用途を整理する.認知症予防回復支援のアプローチの一つとして,認知的アプローチがある\cite{Otake}.これは,知的活動と社会的ネットワークの構築により,認知症になると衰える認知機能を必要とする認知活動を行い,認知機能の低下を遅らせるものである.本人が認知症であると自分の状態を認識しており,その状態の維持や改善に取り組みたいと考えている場合,被測定者自身が前向きかつ積極的にシステムを利用する可能性がある.一方で,認知症の疑いのある人の言語能力を測定する場合などは,上述したケースとは異なると考えられる.日本イーライリリー株式会社が行った調査\footnote{https://www.lilly.co.jp/pressrelease/2014/news\_2014\_033.aspx}によると,認知症を疑うきっかけとなる変化に気づいてから,最初に医療機関を受診するまでにかかった期間は平均9.5か月,変化に気づいてから確定診断までにかかった期間は平均15.0か月であるとの調査結果がある.認知症には様々な原因があり,早期診断で治療可能なものがあるが,上述の調査では,確定診断までに時間がかかったことによる患者や家族の負担に関して,「適切な治療がなされなかった」という回答が36.7\%を占めており,早期診断の重要性が見て取れる.しかし,それにも関わらず,認知症の疑いのある人自身が受診を嫌がる\footnote{http://www.fukushihoken.metro.tokyo.jp/kourei/ninchi/suishin\_kaigi/haifushiryoucarepass5.\linebreak[2]files/\linebreak[2]23carepass5\_\linebreak[2]sankou3.pdf}ことなども多い.このような場合,被測定者の周囲の人々(家族など)は測定に対して前向きであっても,言語能力の被測定者がシステムの利用に後ろ向きである可能性がある.そこで本提案システムでは,以下の2種類の用途を想定し,システムの検討を行う.\begin{description}\item[用途1:]被測定者\underline{自身}による自己把握・状況改善\\被測定者が自発的にシステムを利用し,その結果を自分自身で確認することにより,言語能力の現状を把握し,改善などに役立てることを想定している.\item[用途2:]被測定者\underline{以外}による能力の高低の判断\\例えば,認知症の疑いのある人(被測定者)の家族などが,被測定者の発話を音声データとして保存しておき,そのデータから言語能力を測定することにより,被測定者の言語能力傾向を把握するために用いることを想定している.\end{description}なお,用途の整理においては認知症者を例としたが,他の分野においてもこれらの用途はあると考えらえる.例えば,留学生の能力評価の場合,留学生自身による自己の能力把握が用途1,教師などの評価者による能力評価が用途2に該当する.\subsection{システム構成}本研究では,\ref{sec:wordIndex}章で述べた6指標に基づき,言語能力を測定するシステム「言秤」を提案する.言秤のシステム構成を図\ref{fig:config}に示す.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f1.eps}\end{center}\caption{システム構成}\label{fig:config}\end{figure}\ref{sec:scene}節で述べたシステムの用途を考慮し,音声データの入力は,入力方式(1)ユーザ端末に保存された音声データ(wavファイルなど),または入力方式(2)マイクによるリアルタイム入力を想定する.入力方式(1)は,用途2のように,被測定者以外がシステムを利用する場合に必須となり,また用途1でも利用可能である.入力方式(2)については,用途1のように自発的な測定を行う際,音声データの作成の手間を減らし,その場で直接入力するために必要であると考えた.音声データあるいはマイク入力に対し,以下の3つのモジュールでの処理を行い,言語能力スコアを出力する.\begin{description}\item[(A)音声認識モジュール]音声認識ソフトウェアにより,入力音声をテキストデータに変換する.\item[(B)言語処理モジュール]音声認識モジュールにより変換したテキストデータに対し,形態素解析を行う.\item[(C)スコアリングモジュール]言語処理モジュールによって得られた解析結果をもとに,\ref{sec:wordIndex}章で述べた言語能力スコアを算出する.\end{description}方式(1)保存された音声データおよび方式(2)マイクによるリアルタイム入力については,全てのモジュールでの処理が必要となる.また,本システムでは,音声入力だけでなく,テキストによる入力も可能であり,その場合は,音声認識モジュールを除いた2つのモジュール(言語処理モジュールおよびスコアリングモジュール)によって処理される.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f2.eps}\end{center}\caption{言語能力スコア表示画面}\label{fig:screen}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f3.eps}\end{center}\caption{リアルタイムフィードバック画面}\label{fig:screen2}\end{figure}提案システムの画面例を図\ref{fig:screen}および図\ref{fig:screen2}に示す.スコアリングモジュールにより算出された6つの言語能力スコアは,図\ref{fig:screen}のようにレーダーチャートとして画面上に表示される.なお,方式(2)マイクによるリアルタイム入力の場合,入力結果を随時可視化し,ユーザへとフィードバックする(図\ref{fig:screen2})こともできる. \section{検証実験} \label{sec:experiment}音声認識システムによる言語能力の測定可能性を検証するために,音声データを用いた言語能力スコアの比較実験を行う.本章では,検証仮説と評価に用いるデータについて説明する.\subsection{検証仮説}\label{sec:hypo}音声認識システムの認識精度が高い場合,認識結果が発話内容と完全一致することも考えられる.もし,完全一致するならば,算出される言語能力スコアには何の問題もない.しかし,現在の音声認識システムでは,常に高精度な認識ができるとは限らない.では,認識結果と実際の発話内容にずれがある場合,正しい言語能力スコアの算出はできないのだろうか.これまでに行った分析の結果,我々が提案・採用する6つの言語能力指標のうち,認知症の傾向把握に大きく寄与しうる\footnote{先行研究\cite{Aramaki2}における検証の結果,健常高齢者・認知症者のいずれも,時間経過とともにTTR・JELの低下が確認された.しかし,健常高齢者と比較して,認知症者はTTRとJELに大きな差が生じており,認知症の初期段階において,甚大な低下が起こる可能性があることが示唆された.なお,その他の指標については,認知症との顕著な関係性は確認できておらず,他の指標を用いて認知症の兆候を捉えることは難しいと考えられる.ただし,十分な認知症者のデータが得られているとは言い難く,今後多数のデータに基づいたさらなる検証が期待される.}指標は,TTR(Type・Token割合)およびJEL(日本語学習語彙レベル)の2つであることが判明した\cite{Aramaki2}.この2つの指標はまた,日本語学習者の日本語習熟度の変遷を把握する際にも活用できる可能性がある指標でもある\cite{KayKubo}.特にTTRは,Type(異なり語数)とToken(延べ語数)の比率(Type/Token)であり,TTRスコアの算出において,発話されたのがどのような語であるかという点については関与しない.我々はこの点において,音声認識システムによる認識結果が不完全であっても,TTRスコアを算出できる可能性があると考えた.具体的には,ある語の認識を誤った(例えば,「機械」という発話を「機会」と変換したり,全く異なる語として認識するなど)としても,発話者によって語の発声の仕方が変わらないと仮定すれば,音声認識システムは毎回同じ誤りとして出力し,総じて異なり語数,述べ語数が大きく変わらない可能性があると考えている.異なり語数,述べ語数が大よそ合っていれば,仮説上はTTRスコアも実際の発話内容から算出されるものと類似するはずである.そこで,本実験では,「音声認識システムの認識結果が正しくなくとも,Type数,Token数は実際の発話データと相関する」という仮説を立て,言語能力スコアの算出・比較を行う.本検証では,理論的に認識誤りに頑健な指標であると考えられるTTRスコアをもとに,音声認識システムを介した言語能力の測定可能性を議論することとし,認識内容の影響を受けるその他の指標については,参考値として掲載する.なお,今回は,音声認識することを想定していない録音音声データを評価用音声データとし,検証を行う.マイクに向かい,音声認識することを意図して入力するよりも認識精度が低くなると考えられ,より劣悪な環境下を想定した検証結果になると考えている.\subsection{評価用音声データ}\label{sec:voice}評価用音声データとして,模擬面接の設定で収録された音声データ\cite{Yasuda}を用いた.今回用いたデータは,模擬面接の設定において,5名の実験協力者(男性2名,女性3名であり,年齢は20〜40代である)が各10回収録したデータ(合計50回分)である.就職活動を前提とした模擬面接の設定で,実験協力者はあらかじめ考えてきた「学生生活で力を入れてきたこと」についての発話(3分間程度)を行ってもらった.なお,収録時,偶数回のみ聴衆(面接官役)を配置したが,聴衆には聴いていることを表すためにうなずくことのみを許可し,話者への質問や意見など,発話は一切行わないようにしている.発話内容は,ボイスレコーダーおよびビデオカメラにおいて収録した.収録環境のイメージを図\ref{fig:haichi}に示す.ボイスレコーダーは机の上に置き,被験者からは少し距離のある状態で録音している.評価用音声データとしては,ボイスレコーダーで収録したものを利用した.なお,このデータの収録においては,同じ内容を話してもらっているが,テキストを読み上げるのではなく,面接の設定でその場で話してもらっているため,実験協力者の10回の発話内容はそれぞれ異なっている\footnote{10回収録しているが,同内容を繰り返すことや何回依頼するかは実験協力者に知らせていない.}.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f4.eps}\end{center}\caption{音声データの収録環境}\label{fig:haichi}\end{figure}発話者には,発話内容を録音していることを伝えているが,音声認識によるテキスト化を前提として収録したものではない.したがって,このデータは,録音を意識している可能性はあるが,音声認識することを意識した発話データではないといえる.\subsection{評価用テキストデータの作成}音声認識による言語能力測定の可能性を検証するためには,\ref{sec:voice}節で述べた各評価用音声データに対して,テキストデータを作成する必要がある.まず,音声認識結果と比較するための正解データを作成した.正解データについては,音声を聞きながら,人手で書き起こし作業を行い作成した.なお,書き起こしの際は,「えー」や「あー」などの言いよどみ(フィラー)もテキストとして書き起こしている.次に,音声認識システムによるテキストデータの生成を行った\footnote{2014年9月にデータを生成した.}.現在,様々な音声認識システムが公開されているが,その精度はシステム毎に異なると考えられる.そこで,実験結果に対する音声認識システムの精度の影響を考慮し,異なる2種類の音声認識システムを用いて実験を行うこととした.本実験においては,以下の2種類の音声認識システム\footnote{今回用いた2種類の音声認識システムのうち,Juliusはフリーのソフトウェアであり,AmiVoiceは市販ソフトウェアである.}を用いて,音声認識結果を生成する.\begin{table}[b]\par\vspace{-0.5\Cvs}\caption{各テキストデータの一部}\label{table:sampletext}\input{02table02.txt}\par\vspace{4pt}\smallJulius,AmiVoiceのテキストについては,音声認識システムから出力された結果をそのまま掲載している.\end{table}\begin{itemize}\item大語彙連続音声認識エンジンJulius(Rev.~4.2)\cite{Kawahara}\itemアドバンスト・メディア社のAmiVoiceSP2\footnote{http://sp.advanced-media.co.jp/}\end{itemize}本検証実験で用いるテキストデータは以下の3種類である.各テキストの一部を表\ref{table:sampletext}に示す.\begin{enumerate}\item書き起こしデータ(以下,「書き起こし」と表記する)\itemJuliusを用いた認識結果(以下,Juliusと表記する)\itemAmiVoiceSP2を用いた認識結果(以下,AmiVoiceと表記する)\end{enumerate} \section{実験結果と考察} 本章では,それぞれのテキストに対する,スコアリングモジュールによる言語能力スコアの算出結果を比較する.なお,本論文では理論的に認識誤りに頑健な指標であるTTRスコアをもとに,音声認識システムを用いた言語能力測定の可能性を議論する.TTRスコア以外の言語能力スコアについては,今回は参考値として提示することとし,今後,認識結果と併せた詳細な分析を行うことにより,測定可能性を検証する.\subsection{平均スコアとデータ間の相関}\label{sec:res}Type(異なり語数),Token(延べ語数)および\ref{sec:wordIndex}章で述べた6指標,音声認識率\footnote{音声認識率の評価尺度としては,単語正解精度を用いる.なお,単語正解精度は,以下の式によって算出した.\\$単語正解精度=(N-D-S-I)/N$\\N:書き起こしデータの総単語数,D:脱落誤りの数,S:置換誤りの数,I:挿入誤りの数}の平均値を表\ref{table:average}に示す.表\ref{table:average}より,Typeについては書き起こしよりも,Julius,AmiVoiceの方が多い傾向がみられる.一方,Tokenについては,書き起こしよりもJulius,AmiVoiceの方が少ない傾向がみられた.TTRについては,Julius,AmiVoiceが,書き起こしよりも若干高い値となった.その他の言語能力スコアについては,大きな違いはみられなかった.\begin{table}[b]\caption{各スコアの平均値}\label{table:average}\input{02table03.txt}\end{table}各スコアに関する,テキストデータ間のピアソンの相関係数を表\ref{table:correl}にそれぞれ示す.表\ref{table:correl}より,Type,Tokenについてはいずれの組み合わせでも0.9前後の強い正の相関($p<0.05$)が確認できた.一方,TTRスコアについては,書き起こしとJulius,書き起こしとAmiVoiceの相関係数はいずれも0.2未満であった.\begin{table}[b]\caption{テキストデータ間の相関係数}\label{table:correl}\input{02table04.txt}\end{table}表\ref{table:correl}における相関係数は,50回分の発話データ全体での相関を調べたものである.発話者ごとの各スコアの相関係数および音声認識率を表\ref{table:correl2}および表\ref{table:correl3}に示す.表\ref{table:correl2},表\ref{table:correl3}のTTRスコアの相関係数より,正の相関がある発話者が一部見られるものの,全発話者に相関が見られるわけではなく,相関の有無には個人差があることがわかった.\begin{table}[b]\caption{話者別に見た言語能力指標に関する書き起こしデータ・音声認識結果(Julius)間の相関係数}\label{table:correl2}\input{02table05.txt}\end{table}\begin{table}[b]\caption{話者別に見た言語能力指標に関する書き起こしデータ・音声認識結果(AmiVoice)間の相関係数}\label{table:correl3}\input{02table06.txt}\end{table}また,TTRスコアの相関係数と音声認識率とを比較すると,相関係数が0.4以上だが音声認識率が低い場合(表\ref{table:correl2}発話者D)や,相関係数が0.4未満だが音声認識率が高い場合(表\ref{table:correl3}発話者C)などが見られ,書き起こしと音声認識とのTTRスコアの相関の高さには,音声認識精度による大きな影響は見られなかった.ただし,今回の検証は5名の発話者のみで行っているため,今後より多数の話者データを確保した上で影響の有無を検証する必要がある.\subsection{発話音声データに基づく言語能力測定の可能性}\subsubsection{TTRスコアの測定可能性}\ref{sec:res}節で示したように,検証の結果,Type,Tokenについては実際の発話内容(書き起こし)と音声認識システムの認識結果(Julius,AmiVoice)との間に強い正の相関がみられたが,50回分の発話データ全体で検証すると,TTRスコアの相関は確認できなかった.一方,発話者ごとにTTRスコアの相関係数(表\ref{table:correl2})をみると,5\%水準で有意なものは一部のみであるが,一部の発話者については正の相関が見られており,相関の見られる発話者とそうでない発話者に分かれることが示された.以上の結果から,音声認識システムを用いた言語能力の測定可能性について議論する.\ref{sec:res}節で示したように,単純にTTRスコアのみを比較した場合,本来のTTRスコア(表\ref{table:average}では「書き起こし」が相当)よりも高くなる可能性がある.したがって,単純にある閾値を下回ったかどうか,といった観点から,TTRスコアを認知症の初期症状の発見など,能力の高低の判断(\ref{sec:scene}節用途2)に用いることは難しい.ただし,本研究で,音声認識により各指標がどの程度バイアスを受けるかが明らかになった.今後,これを補正することで,さらに精度の高い推定を実現できる可能があると思われる.一方,発話者ごとに分けて検証を行った結果,音声認識によるTTRスコアと本来のTTRスコアに相関が見られる発話者と,相関が見られない発話者がいることが分かった.有意な相関が見られた発話者A(Julius使用,AmiVoice使用),発話者D(AmiVoice使用)に関して,音声認識によるTTRスコアと本来のTTRスコアとの比例定数を調査した結果,発話者A(Julius使用)の比例定数は平均0.66,標準偏差0.02,発話者A(AmiVoice使用)の比例定数は平均0.59,標準偏差0.02,発話者D(AmiVoice使用)の比例定数は平均0.57,標準偏差0.03となり,ほぼ一定の比例定数が確認された.また,TTRスコアに相関が見られなかった発話者の発話内容を確認すると,Juliusを用いた場合(表\ref{table:correl2})に相関が見られなかった発話者B(相関係数0.049),E(相関係数$-0.156$)については,どちらの発話者も,発話の中で「えーと」「えー」といったフィラーを頻繁に使用している傾向が見られた.また,AmiVoiceを用いた場合(表\ref{table:correl3})に強い相関が見られなかった発話者C(相関係数0.379)は,5名の発話者の中でも音声認識率が高く,発話者Cの10回分のデータの中で,TTRスコアの大きな変化が生じていない傾向が見られた.音声認識率が高いにも関わらず,TTRスコアに相関が見られなかった原因としては,このTTRスコアの変化の小ささが関係すると考えられる.発話者Cと,表\ref{table:correl3}において有意な相関が見られた発話者AのTTRスコアの取りうる幅(最大値−最小値)を比較すると,発話者Aの幅が0.054(書き起こし)および0.107(AmiVoice)であったのに対し,発話者Cの幅は0.019(書き起こし)および0.066(AmiVoice)であり,発話者Aと比較すると,発話者CのTTRスコアはごく狭い範囲に密集する傾向が見られた.そのため,発話者Cの10回の計測データではTTRスコアの揺れがあまり見られず,その中でやや傾向の異なるTTRスコアの一つのペアが外れ値となり,相関係数が低くなった可能性がある.このような発話者については,より多くの発話データを収集することで,音声認識によるTTRスコアと本来のTTRスコアとの高い相関が得られる可能性がある.なお,今回検証に用いた発話者データは5名分であり,今後より多くの発話者データを用いた比較を行うことで,TTRスコアに相関が見られない発話者らに,今回見られたこれらの傾向が現れるかどうか確認する必要がある.これまでの調査では,長期的に認知症者の言語能力スコアの変化を見ていくと,徐々に減少していく傾向が確認されている\cite{Shikata}.このような傾向を鑑みると,スコアに相関が見られる一部の発話者に関しては,継続的に被測定者のTTRスコアを測定・記録し,その変化を見るという利用法において,認知症の初期症状の発見(\ref{sec:scene}節用途2)に役立てることができる可能性がある.同様に,被測定者自身が現状把握・言語能力の維持・改善目的で継続的に言語能力スコアを計測し比較するといった利用方法(\ref{sec:scene}節用途1)も可能であると考えられる.なお,音声認識結果から算出された言語能力スコアに基づいて言語能力の変化を把握していくためには,本来のスコアと音声認識によるスコアとの相関が見られた上で,比例定数が一定となる必要があると考えられる.そのため,完璧でない音声認識システムを用いる場合,提案システムによって能力の測定が可能な発話者かどうかは,複数回の測定を行い,スコアの相関と比例定数を確認した上で判断する必要がある.\subsubsection{その他のスコアの測定可能性}\ref{sec:hypo}節でも述べたが,今回,理論的に認識誤りに頑健な指標であると考えられるTTRスコアに基づいて,音声認識システムを介した言語能力の測定可能性を議論することとし,TTRについては前述のような測定可能性があることを明らかにした.一方,TTR以外の指標は,各語に紐づいた特有の値(例えば,FPUの場合は頻度・使用者数の比)や,品詞(NERの場合,固有名詞の数)に基づいてスコアが算出される.つまり,発話内容が正しく認識されなければ,正しいスコア算出が難しい指標であるといえる.表\ref{table:correl},表\ref{table:correl2},表\ref{table:correl3}においては,参考値としてTTRスコア以外の指標についても相関係数を示した.表\ref{table:correl},表\ref{table:correl2},表\ref{table:correl3}より,FPUとFNCについては,全体および一部の発話者において,0.4以上の正の相関が見られた.FPUスコアに相関が見られた発話者と見られなかった発話者に関して,特徴があるのかどうかを確認したところ,相関の高さに影響を与えるような特徴は見られなかった.ただし,相関の見られなかった発話者Bの書き起こしデータには,FPUの算出に用いたコーパスに含まれない専門用語が含まれていたのに対し,その音声認識結果では,それらの専門用語が,コーパスに含まれる(FPUの算出対象となる)単語として誤って認識されている,という場合が見られた.また,FNCスコアの相関が高かった発話者C(Julius:0.479,AmiVoice:0.602)の特徴を確認したところ,音声認識率が高く,機能表現も比較的正確に認識できていたのに対し,その他の発話者については,機能表現を認識できていなかったり,誤った機能表現として認識されていたりする場合が見られた.ただし,これらの傾向は,今回用いたデータから見られた少数の事例であるため,その他のデータにおいても同様の傾向が見られるのかどうか,専門用語の有無や,使用する機能表現のパターンなどが十分な検証用データを収集した上で,今後,検証する必要があると考えられる.また,今後音声認識の精度が向上し,正確な認識結果が得られるようになれば,TTR以外の5指標についても自動測定が可能になると考えられる.\subsection{高齢者施設におけるシステムの試用}\ref{sec:experiment}章で述べた実験において用いた音声データには,高齢者の音声データは含まれていない.本提案システムの適用対象の一つである認知症患者は高齢者に多いため,高齢者の音声データによる検証についても今後行う必要があると考えている.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f5.eps}\end{center}\caption{試用時の様子}\label{fig:siyou}\end{figure}これまでに我々は,高齢者施設が主催した認知症相談会において,システムの試用を行った.図\ref{fig:siyou}に試用時の様子を示す.なお,認知症相談会における試用時には,システムの説明などを行うため,説明者が試用者の側に同席する形で行った.相談会での試用においては,マイクを用いたリアルタイム入力による測定を行った.ただし,言語能力スコアの算出にはある程度の発話量が必要となる.自由な発話を測定対象とした場合,発話内容を思いつかないなど,測定のための十分な発話量が確保できない可能性があると考え,3つの設問を用意し,被測定者にはその設問に沿って発話してもらう形式を取った.また,システムのインタフェースについては,測定環境に合わせて変更している.具体的には,発話中には設問が表示され(図\ref{fig:siyou_interface}),全ての設問に答えた後,言語能力スコアがレーダーチャートとして表示される形式に変更した.\begin{figure}[t]\begin{center}\includegraphics{25-1ia2f6.eps}\end{center}\caption{試用時のインタフェース}\label{fig:siyou_interface}\end{figure}相談会においては,51歳〜92歳(平均78歳)の高齢者19名にシステムを試用してもらった.システムによる測定結果(音声認識ソフトウェアJuliusを使用\footnote{検証実験では,JuliusおよびAmiVoiceSP2を使用したが,実験の結果,言語能力スコアと音声認識結果との相関は,個々人によって相関の高い音声認識システムが異なっていた.そのため,この試用においては,フリーのソフトウェアであるJuliusを使用することとした.})と,録音した音声データの書き起こし結果との比較を行った結果,TTRスコアの相関係数は0.379であり,相関は見られなかった.小沼らの研究では,一般的な音響モデルは成人の音声を用いていること,また,高齢者話者の音声には口をあまり開けないことによる不明瞭な音声などがあることから,高齢者の音声の音響特性と音響モデルとの間にミスマッチを生じ,認識率が低下することが報告されている\cite{Konuma}.高齢者を測定対象とした際に,一般的な音響モデルを用いた音声認識システムを使うことで認識率が低下し,それが言語能力スコアの検証結果に影響を及ぼす可能性もある.ただし,\ref{sec:experiment}章で述べた検証実験と異なり,同一発話者による複数回の測定は行っていない.そのため,今後,高齢者に本システムを継続的に利用してもらい,同一発話者(高齢者)による測定の可能性について,検証していく必要がある.また,高齢者音声の高精度な認識を目指した研究も進められており\cite{Baba},今後このような研究が発展したとき,ユーザに応じて音響モデルの変更などができるようになれば,より正確な測定が可能になると考えられる. \section{おわりに} 本研究では,発話者の音声から言語能力を測定するシステム「言秤」を提案した.提案システムは,認知症における初期症状の発見や自己把握・状況改善,留学生の日本語能力の客観的な評価などにおいて利用されることを想定したシステムである.(1)音声認識システムの組み込み,および(2)テキストデータから定量的に言語能力を測定する指標の採用を行うことで,従来人手で行っていたテキスト化および言語能力指標の算出を自動化し,コストの軽減と手軽な測定を実現した.ただし,テキスト化に音声認識システムを用いることで,正確な言語能力スコアの算出が困難となる可能性がある.そこで,言語能力測定の適用先の一つである認知症の初期発見を想定して用途を整理し,「被測定者自身による自己把握・状況改善(用途1)」および「被測定者以外による能力の高低の判断(用途2)」という観点から,言語能力スコア算出における音声認識システムの利用可能性について検証を行った.検証実験の結果,以下の点を明らかにした.\begin{enumerate}\itemType(異なり語数),Token(延べ語数)は,発話内容と音声認識結果で強い正の相関がある.また,TTRスコア(Type・Tokenの比率)は,複数発話者の混在するデータにおいて相関はみられなかったが,同じ発話者の発話データにおいては,相関が見られる発話者と,相関が見られない発話者とに分かれる傾向がみられた.\itemType,Token,TTRスコアのいずれも,相関関係はみられるものの,実際の値には発話データとの差異がみられた.\item上記の(1),(2)より,閾値との比較のような,単純な言語能力スコアの対比による能力の高低の判断(用途2)は難しい.一方,TTRスコアに相関が見られる発話者については,被測定者の言語能力スコアを継続的に測定し,その変化を観察することによる初期症状の発見(用途1)や言語能力の現状把握・維持・改善(用途2)ができる可能性がある.\end{enumerate}今回の検証においては,評価用音声データとして,音声認識することを想定していない録音音声データを用いた.ただし,発話者に対し,録音していることを伝えているため,録音されることを意識している可能性はある.今後,録音を全く意識していない発話データでの検証を行い,同様の傾向が得られるかを確認する.また,今回用いた音声データには,高齢者の音声データは含まれていないため,それを用いた検証も行う必要があると考えている.今回の検証においては,TTRスコア以外の言語能力スコアを参考値として提示したが,今後,認識結果と併せた詳細な分析により,それらの測定可能性を検証する.また,今回得られた結果は,音声認識エンジンJulius(Rev.~4.2)および音声認識システムAmiVoiceSP2を用いて検証した結果であり,より高精度な認識結果の得られるソフトウェアを用いた場合には,結果が変わる可能性がある.完璧な認識結果が得られるようになれば,正確な言語能力スコアを測定することが可能になるため,今後は音声認識の認識率向上に併せて,本論文と同様の検証を行い,スコアの相関について検証していく必要がある.\acknowledgment評価に用いた音声データの収録・書き起こしにあたり,国立国語研究所の加藤祥氏に多大なるご協力をいただいた.音声認識システムAmiVoiceSP2は,アドバンスト・メディア社にご提供いただいた.ここに深く感謝の意を表する.本研究の一部は,JST戦略的創造研究推進事業,日本学術振興会補助金番号JP16H06395および16H06399,16K12489の助成による.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒牧\JBA久保\JBA四方}{荒牧\Jetal}{2014}]{Aramaki2}荒牧英治\JBA久保圭\JBA四方朱子\BBOP2014\BBCP.\newblock老いと〈ことば〉:ブログ・テキストから測る老化.\\newblock\Jem{電子情報通信学会技術研究報告=IEICEtechnicalreport:信学技報},{\Bbf114}(173),\mbox{\BPGS\131--136}.\bibitem[\protect\BCAY{Aramaki,Maskawa,Miyabe,Morita,\BBA\Yasuda}{Aramakiet~al.}{2013}]{Aramaki1}Aramaki,E.,Maskawa,S.,Miyabe,M.,Morita,M.,\BBA\Yasuda,S.\BBOP2013\BBCP.\newblock\BBOQAWordinaDictionaryisusedbyNumerousUsers.\BBCQ\\newblockIn{\BemProceedingsofInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2013)},\mbox{\BPGS\874--877}.\bibitem[\protect\BCAY{馬場\JBA芳澤\JBA山田\JBA李\JBA鹿野}{馬場\Jetal}{2002}]{Baba}馬場朗\JBA芳澤伸一\JBA山田実一\JBA李晃伸\JBA鹿野清宏\BBOP2002\BBCP.\newblock高齢者音響モデルによる大語彙連続音声認識.\\newblock\Jem{電子情報通信学会論文誌.D-II,情報・システム,II-パターン処理=ThetransactionsoftheInstituteofElectronics,InformationandCommunicationEngineers.D-II},{\Bbf85}(3),\mbox{\BPGS\390--397}.\bibitem[\protect\BCAY{別所\JBA松永\JBA大附\JBA廣嶋\JBA奥}{別所\Jetal}{2008}]{Bessho}別所克人\JBA松永昭一\JBA大附克年\JBA廣嶋伸章\JBA奥雅博\BBOP2008\BBCP.\newblock話題構造抽出に基づく会議音声インデクシングシステム.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf91}(9),\mbox{\BPGS\2256--2267}.\bibitem[\protect\BCAY{Hampshire,Highfield,Parkin,\BBA\Owen}{Hampshireet~al.}{2012}]{Hampshire}Hampshire,A.,Highfield,R.~R.,Parkin,B.~L.,\BBA\Owen,A.~M.\BBOP2012\BBCP.\newblock\BBOQFractionatingHumanIntelligence.\BBCQ\\newblock{\BemNeuron},{\Bbf76}(6),\mbox{\BPGS\1225--1237}.\bibitem[\protect\BCAY{花沢\JBA荒川\JBA岡部\JBA辻川\JBA長田\JBA磯谷\JBA奥村}{花沢\Jetal}{2009}]{Hanazawa}花沢健\JBA荒川隆行\JBA岡部浩司\JBA辻川剛範\JBA長田誠也\JBA磯谷亮輔\JBA奥村明俊\BBOP2009\BBCP.\newblock携帯電話試作機上で動作する旅行会話向け音声認識システム.\\newblock\Jem{情報処理学会第71回全国大会講演論文集(人工知能と認知科学)},\mbox{\BPGS\39--40}.\bibitem[\protect\BCAY{Ikeda,Ando,Satoh,Okumura,\BBA\Watanabe}{Ikedaet~al.}{2002}]{Ikeda}Ikeda,T.,Ando,S.,Satoh,K.,Okumura,A.,\BBA\Watanabe,T.\BBOP2002\BBCP.\newblock\BBOQAutomaticInterpretationSystemIntegratingFree-styleSentenceTranslationandParallelTextBasedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheACL-02WorkshoponSpeech-to-speechTranslation:AlgorithmsandSystems},\lowercase{\BVOL}~7,\mbox{\BPGS\85--92}.\bibitem[\protect\BCAY{金久保}{金久保}{2016}]{Kanakubo}金久保紀子\BBOP2016\BBCP.\newblock日本語スピーチコンテスト実態と課題.\\newblock\Jem{筑波学院大学紀要},{\Bbf11},\mbox{\BPGS\13--23}.\bibitem[\protect\BCAY{加藤}{加藤}{2010}]{Kato}加藤恒夫\BBOP2010\BBCP.\newblock携帯電話における分散型音声認識システムの実用化.\\newblock\Jem{情報処理学会誌},{\Bbf51}(11),\mbox{\BPGS\1394--1400}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kurohashi}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL2006)},\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{河原\JBA李}{河原\JBA李}{2005}]{Kawahara}河原達也\JBA李晃伸\BBOP2005\BBCP.\newblock連続音声認識ソフトウェアJulius.\\newblock\Jem{人工知能学会誌},{\Bbf20}(1),\mbox{\BPGS\41--49}.\bibitem[\protect\BCAY{Kemper,Marquis,\BBA\Thompson}{Kemperet~al.}{2001}]{Kemper}Kemper,S.,Marquis,J.,\BBA\Thompson,M.\BBOP2001\BBCP.\newblock\BBOQLongitudinalChangeinLanguageProduction:EffectsofAgingandDementiaonGrammaticalComplexityandPropositionalContent.\BBCQ\\newblock{\BemPsychologyandAging},{\Bbf16}(4),\mbox{\BPGS\600--614}.\bibitem[\protect\BCAY{木村}{木村}{2009}]{Kimura}木村かおり\BBOP2009\BBCP.\newblock「書く」能力を評価する—評価プロセスの見える評価を目指して—.\\newblock\Jem{2009年度日本語教育実践研究フォーラム},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Kintsch\BBA\Keenan}{Kintsch\BBA\Keenan}{1973}]{Kintsch}Kintsch,W.\BBACOMMA\\BBA\Keenan,J.\BBOP1973\BBCP.\newblock\BBOQReadingRateandRetentionasaFunctionoftheNumberofthePropositionsintheBaseStructureofSentences.\BBCQ\\newblock{\BemCognitivePsychology},{\Bbf5}(3),\mbox{\BPGS\257--274}.\bibitem[\protect\BCAY{小沼\JBA桑野\JBA木村\JBA渡辺}{小沼\Jetal}{1997}]{Konuma}小沼知浩\JBA桑野裕康\JBA木村達也\JBA渡辺泰助\BBOP1997\BBCP.\newblock高齢者音声の解析と認識評価.\\newblock\Jem{日本音響学会研究発表会講演論文集},{\Bbf1997}(2),\mbox{\BPGS\117--118}.\bibitem[\protect\BCAY{厚生労働省研究班}{厚生労働省研究班}{2013}]{Kosei}厚生労働省研究班.\newblock都市部における認知症有病率と認知症の生活機能障害への対応.\\newblock\Turl{http://www.tsukuba-psychiatry.com/wp-content/uploads/2013/06/H24Report\_Part1.\protect\linebreak[2]pdf}.\bibitem[\protect\BCAY{Kubo,Kiyohara,Kato,Tanizaki,Arima,Tanaka,Nakamura,Okubo,\BBA\Iida}{Kuboet~al.}{2003}]{Kubo}Kubo,M.,Kiyohara,Y.,Kato,I.,Tanizaki,Y.,Arima,H.,Tanaka,K.,Nakamura,H.,Okubo,K.,\BBA\Iida,M.\BBOP2003\BBCP.\newblock\BBOQTrendsintheIncidence,Mortality,andSurvivalRateofCardiovascularDiseaseinaJapaneseCommunity:TheHisayamaStudy.\BBCQ\\newblock{\BemStroke},{\Bbf34}(10),\mbox{\BPGS\2349--2354}.\bibitem[\protect\BCAY{久保\JBA宮部\JBA四方\JBA荒牧\JBA李}{久保\Jetal}{2015}]{KayKubo}久保圭\JBA宮部真衣\JBA四方朱子\JBA荒牧英治\JBA李在鎬\BBOP2015\BBCP.\newblock『言秤』による日本語運用能力の自動測定:日本語学習者の書き言葉と話し言葉との差異を定量的に示す試み.\\newblock\Jem{2015年度日本語教育学会春季大会予稿集},\mbox{\BPGS\267--268}.\bibitem[\protect\BCAY{呉田\JBA伏見\JBA佐久間}{呉田\Jetal}{2002}]{Kureda}呉田陽一\JBA伏見貴夫\JBA佐久間尚子\BBOP2002\BBCP.\newblock言語能力の加齢変化.\\newblock\Jem{第9回東京都老年学会誌},\mbox{\BPGS\200--205}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi1}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{松吉\JBA佐藤}{松吉\JBA佐藤}{2008}]{Matsuyoshi2}松吉俊\JBA佐藤理史\BBOP2008\BBCP.\newblock文体と難易度を制御可能な日本語機能表現の言い換え.\\newblock\Jem{自然言語処理},{\Bbf15}(2),\mbox{\BPGS\75--99}.\bibitem[\protect\BCAY{大武}{大武}{2010}]{Otake}大武美保子\BBOP2010\BBCP.\newblock認知症予防回復支援サービスの開発と忘却の科学—会話における思考の状態遷移モデルと会話相互作用量計測法の開発—.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(5),\mbox{\BPGS\662--669}.\bibitem[\protect\BCAY{笹島\JBA井本\JBA下森\JBA山中\JBA矢島\JBA福永\JBA正井}{笹島\Jetal}{2005}]{Sasajima}笹島宗彦\JBA井本和範\JBA下森大志\JBA山中紀子\JBA矢島真人\JBA福永幸弘\JBA正井康之\BBOP2005\BBCP.\newblock発話意図理解と回答誘導による異言語間会話支援ツール「グローバルコミュニケーター」.\\newblock\Jem{インタラクション2005予稿集},\mbox{\BPGS\119--126}.\bibitem[\protect\BCAY{四方\JBA荒牧}{四方\JBA荒牧}{2014}]{Shikata}四方朱子\JBA荒牧英治\BBOP2014\BBCP.\newblock言語能力検査としての言語処理:長期間のブログ執筆を継続した認知症の1例.\\newblock\Jem{言語処理学会第20回年次大会},\mbox{\BPGS\1126--1129}.\bibitem[\protect\BCAY{下郡\JBA坪井}{下郡\JBA坪井}{2010}]{Shimogori}下郡信宏\JBA坪井創吾\BBOP2010\BBCP.\newblock音声認識で生成した英語字幕による英語理解向上の測定実験.\\newblock\Jem{情報処理学会論文誌},{\Bbf51}(9),\mbox{\BPGS\1951--1959}.\bibitem[\protect\BCAY{Snowdon,Kemper,Mortimer,Greiner,Wekstein,\BBA\Markesbery}{Snowdonet~al.}{1996}]{Snowdon}Snowdon,D.~A.,Kemper,S.~J.,Mortimer,J.~A.,Greiner,L.~H.,Wekstein,D.~R.,\BBA\Markesbery,W.~R.\BBOP1996\BBCP.\newblock\BBOQLinguisticabilityinearlylifeandcognitivefunctionandAlzheimer'sdiseaseinlatelife.\BBCQ\\newblock{\BemFindingsfromtheNunStudy,JAMA},{\Bbf275}(7),\mbox{\BPGS\528--532}.\bibitem[\protect\BCAY{砂川}{砂川}{2012}]{Sunagawa}砂川有里子\BBOP2012\BBCP.\newblock学習辞書編集支援データベース作成について—『学習辞書科研』プロジェクトの紹介.\\newblock\Jem{日本語教育連絡会議論文集},{\Bbf24},\mbox{\BPGS\164--169}.\bibitem[\protect\BCAY{鳥井}{鳥井}{2013}]{Torii}鳥井俊祐\BBOP2013\BBCP.\newblock日本語スピーチ授業におけるピア・フィードバック活動の試み:中国の大学生を対象として.\\newblock{\BemPolyglossia:TheAsia-Pacific'sVoiceinLanguageandLanguageTeaching},{\Bbf25},\mbox{\BPGS\141--148}.\bibitem[\protect\BCAY{Turner\BBA\Greene}{Turner\BBA\Greene}{1977}]{Turner}Turner,A.\BBACOMMA\\BBA\Greene,E.\BBOP1977\BBCP.\newblock\BBOQTheConstructionandUseofaPropositionalTextBase.\BBCQ\\newblock{\BemTechnicalReport63,InstitutefortheStudyofIntellectualBehavior},\mbox{\BPGS\1--87}.\bibitem[\protect\BCAY{保田\JBA田中\JBA荒牧}{保田\Jetal}{2013}]{Yasuda}保田祥\JBA田中弥生\JBA荒牧英治\BBOP2013\BBCP.\newblock繰り返しにおける独話の変化.\\newblock\Jem{社会言語科学会第31回大会発表論文集},\mbox{\BPGS\190--193}.\end{thebibliography}\begin{biography}\bioauthor{宮部真衣}{2006年和歌山大学システム工学部デザイン情報学科中退.2008年同大学大学院システム工学研究科システム工学専攻博士前期課程修了.2011年同大学院システム工学研究科システム工学専攻博士後期課程修了.博士(工学).同年,東京大学知の構造化センター特任研究員.2013年京都大学学際融合教育研究推進センター特定研究員.2015年和歌山大学システム工学部講師.現在,諏訪東京理科大学経営情報学部講師.コミュニケーション支援,ソーシャルメディア分析に関する研究に従事.}\bioauthor{四方朱子}{2000年北海道大学大学院文学研究科日本文化論修士課程修了(文学修士).2006年北海道大学大学院文学研究科歴史地域文化学博士後期課程単位取得満期修了.2017年京都大学大学院人間・環境学研究科博士後期課程.現在,長浜バイオ大学バイオサイエンス学部非常勤講師・学習支援センター講師(現代文/英語).主に,比較文化論,日本および英米文学研究に従事.}\bioauthor{久保圭}{2007年神戸市外国語大学外国語学部卒業.2010年京都大学大学院人間・環境学研究科修士課程修了.2017年京都大学大学院人間・環境学研究科博士後期課程修了.人間・環境学博士.現在,大阪大学日本語日本文化教育センター非常勤講師.主に日本語学,日本語教育学の研究に従事.}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2002年京都大学大学院情報学研究科修士課程修了.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).2005年東京大学医学部附属病院特任助教,2008年東京大学知の構造化センター特任講師,2013年京都大学デザイン学ユニット特定准教授を経て,奈良先端科学技術大学院大学特任准教授.医療情報学,自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V27N04-05
\section{はじめに} label{sec:intro}%=====================================================近年,言語学習者\cite{petersen-2007}や子ども\cite{belder-2010}を対象に,テキストを平易に書き換えるテキスト平易化\cite{shardlow-2014,alva-2020}の研究が注目を集めており,特に難解な語句を平易な語句に言い換える語彙平易化\cite{paetzold-2017b}が英語を中心に研究されている.語彙平易化では,入力文の文法構造を保持したまま,難解な語句を文脈に応じて平易な語句に言い換える.この技術は,言語学習者や子どもの文章読解支援に応用されるだけでなく,機械翻訳\cite{stajner-2016}をはじめとする他の自然言語処理応用タスクの前処理としても有用である.本タスクは,平易に書かれたコーパス(SimpleEnglishWikipedia\footnote{http://simple.wikipedia.org/}),難解な文と平易な文のパラレルコーパス\cite{zhu-2010},難解な語句から平易な語句への言い換え辞書\cite{pavlick-2016},評価用データセット\cite{specia-2012}やツールキット\cite{paetzold-2015}など,言語資源が豊富な英語を中心に研究されてきた.しかし,日本語ではこれらの語彙平易化のための言語資源が充分に整備されていない.語彙平易化は,以下の4つのサブタスク\cite{shardlow-2014}を通して実現される.\begin{itemize}\item難解語の検出:入力文中のどの単語が難解かを判定し,語彙平易化の対象単語を決定する.\item言い換え候補の生成:対象単語の同義語を文脈を考慮せずに広く収集する.\item言い換え候補の選択:文脈を考慮して,対象単語の言い換えを選択する.\item難易度に基づく並び替え:候補を平易な順に並び替え,最も平易な言い換えを出力する.\end{itemize}\figref{fig:pipeline}に示すように,これらは単語の難易度推定に関するタスクと語彙的換言に関するタスクに大別できる.本研究では,単語の難易度推定に関する「難解語の検出」および「難易度に基づく並び替え」のサブタスクに焦点を当て,日本語の語彙平易化のための言語資源\footnote{https://sites.google.com/site/moguranosenshi/projects/lexical-simplification}を構築する.本研究の貢献は次の3つである.\begin{itemize}\item日本語の語彙平易化のための評価用データセットを改良した.\item大規模な日本語の単語難易度辞書および難解→平易の言い換え辞書を構築した.\item日本語の語彙平易化システムを構築するためのツールキットを公開した.\end{itemize}本稿の構成を示す.2\hl{章}では,言語資源を中心に語彙平易化の関連研究を紹介する.3\hl{章}では,先行研究\cite{kajiwara-2015}で構築した日本語の語彙平易化のための評価用データセットを改良する.4\hl{章}では,単語の難易度を推定する分類器を訓練し,大規模な日本語の単語難易度辞書を構築する.また,この分類器をもとに,難解な単語と平易な単語の言い換え辞書も構築する.5\hl{章}では,3\hl{章}で構築した評価用データセットの上で,4\hl{章}で構築した辞書に基づく語彙平易化システムの性能を評価する.最後に6\hl{章}で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia4f1.eps}\end{center}\caption{語彙平易化の流れ}\label{fig:pipeline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%===================================================== \section{関連研究} label{sec:rerated_work}%=====================================================本\hl{章}では,言語資源を中心に語彙平易化の関連研究を紹介する.%==============================\subsection{語彙平易化のための評価用データセット}\label{subsec:dataset}%==============================語彙平易化のための初期の評価用データセットとして,SemEval-2007の語彙的換言タスク\cite{mccarthy-2007}の評価用データセット\footnote{http://www.dianamccarthy.co.uk/task10index.html}に難易度を付与したものがある.語彙的換言タスクは,文脈中で対象単語と置換可能な単語を見つけるタスクである.語彙的換言タスクの評価用データセットでは,201種類の対象単語(内容語)について,\hl{各単語を含む10種類ずつの文}が英語の均衡コーパスから抽出されている.注釈者は英語母語話者5名であり,文脈を考慮しつつ対象単語の言い換えを最大3つずつ付与している.SemEval-2012の語彙平易化タスク\cite{specia-2012}では,この言い換えリストを難易度の観点から英語非母語話者5名がランキングしたデータセット\footnote{https://www.cs.york.ac.uk/semeval-2012/task1/}が公開された.LSeval\footnote{http://people.cs.kuleuven.be/\~{}jan.debelder/lseval.zip}\cite{belder-2012}も,SemEval-2007の語彙的換言タスクのデータセットに難易度ランキングを付与した語彙平易化のための評価用データセットである.ただし,LSevalでは,SimpleEnglishWikipediaのBasicEnglish単語リスト\footnote{https://simple.wikipedia.org/wiki/Wikipedia:Basic\_English\_combined\_wordlist}などを参考に充分に平易な単語を対象単語から除外し,43種類の対象単語についての言い換えリストをクラウドソーシングを用いてランキングした.SemEvalやLSevalとは異なり,LexMTurk\footnote{https://cs.pomona.edu/\~{}dkauchak/simplification/}\cite{horn-2014}では対象単語の平易な言い換えを直接収集した.EnglishWikipediaから抽出した500文に各1単語の対象単語が設定されており,クラウドソーシングで50人の注釈者が文脈を考慮した平易な言い換えを付与した.対象単語には,EnglishWikipediaとSimpleEnglishWikipediaのパラレルコーパス\cite{coster-2011}のうち,難解文中の平易に書き換えられた単語が選ばれている.近年の語彙平易化の研究\cite{paetzold-2017a,qiang-2019}では,LSevalとLexMTurkを組み合わせたBenchLS\footnote{http://ghpaetzold.github.io/data/BenchLS.zip}\cite{paetzold-2016a}やNNSeval\footnote{http://ghpaetzold.github.io/data/NNSeval.zip}\cite{paetzold-2016b}が利用されている.BenchLSはLSevalとLexMTurkを組み合わせてスペルミスなどを修正した929件のデータセットであり,NNSevalはBenchLSから難解な言い換えを削除した239件のデータセットである.日本語では,語彙平易化のための評価用データセットとして,SNOWE4\footnote{http://www.jnlp.org/SNOW/E4}\cite{kajiwara-2015}が公開されている.これは,LSevalと同様に,まず語彙的換言のための評価用データセットを構築し,言い換えリストを難易度の観点からランキングして作られた2,330件のデータセットである.しかし,LSevalとは異なりドメインが新聞記事に限定されていることや,LexMTurkとは異なり\hl{文}中に対象単語以外にも難解な表現が出現することなど,いくつかの問題があるため,本研究ではこれを改良して新しい評価用データセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{難解な文と平易な文のパラレルコーパスの一覧}\label{tab:parallel}\input{04table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{難解な文と平易な文のパラレルコーパス}\label{subsec:corpus}%==============================EnglishWikipediaとSimpleEnglishWikipediaを難解なテキストと平易なテキストのコンパラブルコーパスと考え,文アライメントによって自動構築されたテキスト平易化のためのパラレルコーパス\hl{(\tabref{tab:parallel})}がある.初期の研究\cite{zhu-2010,coster-2011}では,TF-IDFによって重み付けされたBag-of-Words表現の余弦類似度によって難解な文と平易な文のパラレルコーパスが構築された.近年の研究\cite{hwang-2015,kajiwara-2016}では,辞書や単語分散表現に基づく単語間の類似度を考慮した文アライメントが利用されている.また,英語のニュースを記者が平易に書き換えたNewsela\cite{xu-2015}は,テキスト平易化のための高品質なパラレルコーパスである.英語の語彙平易化では,これらのパラレルコーパスを用いて,難解な単語から平易な単語への言い換え規則を獲得する手法\cite{horn-2014,paetzold-2017a}が提案されている.日本語では,SNOWT15\footnote{http://www.jnlp.org/SNOW/T15}\cite{maruyama-2018}およびSNOWT23\footnote{http://www.jnlp.org/SNOW/T23}\cite{katsuta-2018}のやさしい日本語コーパスが公開されている.SNOWT15は,日英対訳コーパス\footnote{https://github.com/odashi/small\_parallel\_enja}の日本語側を著者らが2,000語\footnote{http://box.jnlp.org/easy-japanese/words2}のやさしい日本語へ書き換えた5万文対のパラレルコーパスである.SNOWT23は,SNOWT15と同様に,クラウドソーシングによってやさしい日本語へ書き換えた3.5万文対のパラレルコーパスである.本研究では,英語の先行研究と同様に,これらのパラレルコーパスを用いて日本語の語彙平易化を行う.%==============================\subsection{単語難易度辞書または言い換え辞書}\label{subsec:ppdb}%==============================大規模な言い換え辞書PPDB\footnote{http://paraphrase.org}\cite{ganitkevitch-2013,pavlick-2015b}のうち,難解な語句から平易な語句への言い換えのみを抽出したSimplePPDB\footnote{http://www.seas.upenn.edu/\~{}nlp/resources/simple-ppdb.tgz}\cite{pavlick-2015a,pavlick-2016}が語彙平易化のために利用されている.\citeA{pavlick-2016}は,文字数・単語数・頻度・品詞・単語分散表現などを素性とするロジスティック回帰モデルを訓練し,言い換え対のどちらの語句がより平易かを推定する分類器を構築した.この分類器は,言い換え辞書から抽出された3,758対の語句に対してクラウドソーシングでどちらがより平易かを注釈付けしたデータセットを用いて訓練された.この分類器をPPDBに適用し,450万対の難解→平易の言い換えがSimplePPDBとして公開されている.\citeA{maddela-2018}は,Google1TNgramCorpus\footnote{https://catalog.ldc.upenn.edu/LDC2006T13}のうち高頻度な15,000単語に対して,11人の英語非母語話者が6段階の難易度(VeryComplex/Simple,Complex/Simple,ModeratelyComplex/Simple)を付与した単語難易度辞書\footnote{https://github.com/mounicam/lexical\_simplification}を構築した.そして,\citeA{pavlick-2016}の素性に単語難易度を加えた素性を用いて,ニューラルネットワークに基づく難易度の推定器を訓練し,1,000万対を超える大規模な難解→平易の言い換え辞書を公開した.日本語では,\hl{日本語学習者向けに作成された}日本語能力試験出題基準語彙表\footnote{http://www7a.biglobe.ne.jp/nifongo/data/}や日本語教育語彙表\footnote{http://jhlee.sakura.ne.jp/JEV.html}を,単語難易度辞書として利用できる.日本語能力試験出題基準語彙表では\hl{,教科書などから選定された約8,000単語について,日本語教育の専門家が4段階(1級から4級まで)の難易度を付与している.4級が150時間程度の日本語学習を想定した初歩的な800語,3級が300時間程度の日本語学習を想定した基本的な1,500語,2級が600時間程度の日本語学習を想定したやや高度な6,000語,1級が900時間程度に日本語学習を想定した高度な1万語,というのが目安である.日本語教育語彙表では,教科書および現代日本語書き言葉均衡コーパス\cite{maekawa-2010}から選定された約18,000単語について,日本語教師5名が6段階(初級前半・後半,中級前半・後半,上級前半・後半)の難易度を付与している.}本研究では,収録語数の多い日本語教育語彙表\hl{(\tabref{tab:jev_example})}を用いて単語難易度の推定器を訓練し,より大規模な単語難易度辞書を自動構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{日本語教育語彙表の例}\label{tab:jev_example}\input{04table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{語彙平易化システム}\label{subsec:lexical_simplification}%==============================語彙平易化の初期の研究\cite{devlin-1998,belder-2010}では,WordNet\cite{miller-1995}から対象単語の同義語リストを獲得し,その中で最も高頻度な単語を対象単語と置換した.これは単純なアプローチであるが,以降の多くの手法も,候補の獲得(\figref{fig:pipeline}の語彙的換言タスク)およびランキング(\figref{fig:pipeline}の単語の難易度推定タスク)の2つのステップ\footnote{対象単語は評価用データセットにおいて与えられるため,\figref{fig:pipeline}における難解語の検出は実施しない手法が多い.}からなる.言い換え候補の獲得手法は,辞書に基づく手法・パラレルコーパスに基づく手法・分布類似度に基づく手法の3つに大別できる.辞書に基づく手法は,\citeA{devlin-1998}のWordNetに始まり,近年では単語だけでなく句も扱えるSimplePPDB\cite{pavlick-2016}が利用されている.パラレルコーパスに基づく手法では,\citeA{horn-2014}が難解な文と平易な文からなるテキスト平易化のためのパラレルコーパスを用いて,GIZA++\cite{och-2003}の単語アライメントによって言い換え候補を獲得した.分布類似度に基づく手法は,Biran,Brody,andElhadad\citeyear{biran-2011}がWordNetの同義語の中から文脈ベクトル間の余弦類似度によって言い換え候補を選択しており,近年の研究\cite{glavas-2015,paetzold-2016b}ではword2vec\cite{mikolov-2013}などの単語分散表現間の余弦類似度によって言い換え候補を獲得している.最新の研究\cite{qiang-2019}では,文脈を考慮する単語分散表現BERT\cite{devlin-2019}を用いて言い換え候補を獲得している.言い換え候補のランキング手法は,頻度に基づく手法と平均ランキングに基づく手法に大別できる.頻度に基づく手法は,\citeA{devlin-1998}の1-gram頻度に始まり,近年では\hl{文脈(対象単語の周辺単語)}も考慮する5-gram頻度\cite{paetzold-2016b}が利用されている.平均ランキングに基づく手法では,\citeA{glavas-2015}が単語類似度(対象単語と言い換え候補の単語分散表現間の余弦類似度)・文脈類似度(対象単語の周辺単語と言い換え候補の単語分散表現間の余弦類似度)・1-gram頻度・5-gram頻度のそれぞれで言い換え候補をランキングし,その平均順位が最も高い候補を選択した.最新の研究\cite{qiang-2019}では,\citeA{glavas-2015}の平均ランキングのうち,文脈類似度と5-gram頻度(言語モデルスコア)をBERT\cite{devlin-2019}のマスク言語モデルによって改良した平均ランキングが提案されており,英語の語彙平易化において最高性能を達成している.英語では,これらの各手法を実装した語彙平易化システムを構築するためのツールキット\footnote{http://ghpaetzold.github.io/LEXenstein/}\cite{paetzold-2015}が公開されている.本研究では,これらの言い換え候補の獲得手法およびランキング手法を実装した日本語の語彙平易化システムを構築するためのツールキットを公開し,我々の評価用データセット上での各手法の性能を比較する.%===================================================== \section{日本語の語彙平易化のための評価用データセットの改良} label{sec:dataset}%=====================================================本\hl{章}では,日本語における既存の語彙平易化の評価用データセット\cite{kajiwara-2015}の課題を整理し,それらを改良した新しい評価用データセット\footnote{https://github.com/KodairaTomonori/EvaluationDataset}を構築する.%==============================\subsection{既存の評価用データセット}\label{subsec:previous_dataset}%==============================日本語の語彙平易化の評価用データセットであるSNOWE4\cite{kajiwara-2015}は,SemEval\cite{specia-2012}およびLSeval\cite{belder-2012}の英語の語彙平易化の評価用データセットと同じく,語彙的換言タスクのデータセットにおける同義語リストを難易度でランキングすることによって構築されている.以下に,データセットの構築手順を示す.\begin{description}\item[(1)対象単語の選定]新聞記事から抽出した2,330文について,それぞれ1単語の内容語を語彙平易化の対象単語として選定した.\item[(2)言い換え候補の生成]クラウドソーシングを用いて文ごとに5人の注釈者を雇用し,文脈を考慮して対象単語の言い換え候補を収集した.\item[(3)言い換え候補の選択]手順(2)とは別の5人の注釈者を用意し,過半数が適切な言い換えであると評価した言い換え候補のみを残した.\item[(4)難易度に基づく並び替え]5人の注釈者が,手順(3)の言い換え候補を平易な順にランキングした.それぞれの注釈者は全ての言い換え候補に重複なく順位を割り当て,最終的に5人の平均順位によってひとつのランキングに統合した.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\caption{SNOWE4データセットにおける語彙平易化の例}\label{tab:previous_dataset}\input{04table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:previous_dataset}に,SNOWE4データセットの例を示す.言い換え候補の中には,対象単語「じきに」が含まれ,これは4番目に平易な単語である.この例では,システムが「もうすぐ」「すぐに」「ただちに」のいずれかを出力できれば正解となる.表~\ref{tab:datasets}に,英語の先行研究も含めた語彙平易化の評価用データセットの特性を示す.英語の先行研究と比較したときに,日本語の語彙平易化の評価用データセットであるSNOWE4には以下の3つの課題があることがわかる.\begin{description}\item[課題(1)テキストのドメインが限定されている]SemEval\cite{specia-2012}やLSeval\cite{belder-2012}は均衡コーパス\cite{sharoff-2006}からテキストを抽出しており,多様なドメインを網羅している.一方で,SNOWE4は新聞記事からテキストを抽出しており,ドメインが限定されている.\item[課題(2)対象単語を平易化しても\hl{文}中に難解語が残る]LexMTurk\cite{horn-2014}では,テキスト平易化のための難解文と平易文からなるパラレルコーパスにおける平易化された単語とその文脈を用いて語彙平易化のデータセットを構築している.対象単語以外の単語は難解文と平易文の間で共通のため,これらは充分に平易な表現であると考えることができる.\citeA{specia-2012}が指摘しているように,難解な表現は難解な\hl{文}中で出現し,平易な表現は平易な\hl{文}中で出現するのが自然だと考えられるため,語彙平易化の文脈(対象単語以外の単語)は平易な表現で構成されることが理想である.SNOWE4では,文脈の難易度が考慮されていないため,表~\ref{tab:previous_dataset}の「雪渓」のように,対象単語を平易化しても\hl{文}中に難解な表現が残ってしまう.\item[課題(3)難易度ランキングに同順が考慮されていない]LSeval\cite{belder-2012}では,各注釈者が言い換え候補を平易な順に並び替える際に,同程度の難易度の単語を同順にまとめることを認めている.一方で,SNOWE4では注釈者は全ての単語に異なる難易度を割り当てる.表~\ref{tab:previous_dataset}の「もうすぐ」と「すぐに」のように,同程度の難易度の言い換え候補がある場合,これは注釈者間でのランキングの一貫性を損なう原因となる.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{語彙平易化の評価用データセットの特性}\label{tab:datasets}\input{04table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{評価用データセットの改良}\label{subsec:our_dataset}%==============================\secref{subsec:previous_dataset}で挙げた3つの課題を解決するために,(1)対象単語の選定および(4)難易度に基づく並び替えのステップを改良し,新\hl{たに}日本語の評価用データセットを構築した.クラウドソーシング\footnote{http://www.lancers.jp/}を用いて注釈者を雇用するが,過去の作業承認率が95\%以上である注釈者のみを選んだ.%==========\subsubsection{対象単語の選定}\label{subsubsec:target_selection}%==========課題(1)に対処するために,我々は現代日本語書き言葉均衡コーパス\cite{maekawa-2010}から文を抽出した.なお,長文や短文を避けるために,形態素数を7から35までに制限した.課題(2)に対処するために,対象単語のみが難解である文を選択した.本研究では,日本語教育語彙表$^{20}$\cite{sunakawa-2012}における上級の単語を難解語とした.その他の手順は基本的にSNOWE4に従った.対象単語として,名詞・動詞・形容詞・形容動詞・副詞・サ変名詞・サ変動詞の7つの品詞を扱った.なお,複合語の一部を置き換えると意味を保持できない場合が多いので,対象単語が複合語の一部である場合はその文を除外した.日英の先行研究\cite{specia-2012,belder-2012,kajiwara-2015}に従い,各対象単語に対して10種類の\hl{文}を扱った.以上の条件を満たすように品詞ごとに30種類の対象単語を無作為に選択し,合計2,100文(7品詞$\times$30単語$\times$10\hl{文})を選定した.%==========\subsubsection{言い換え候補の生成および選択}\label{subsubsec:paraphrase_acquisition}%==========SNOWE4に従い,クラウドソーシングを用いて5人の注釈者を雇用し,文脈を考慮して対象単語の言い換えを収集した.その後,別の5人の注釈者を雇用し,過半数が適切な言い換えであると評価した言い換え候補のみを残した.\hl{なお,適切な言い換え候補が得られない文がある場合,その対象単語は全てデータセットから除外した.これによって9単語$\times$10文を除外し,次節では残りの2,010文について難易度に基づく並び替えを行った.}\hl{適切な言い換え候補が得られなかった例には「~実にバラエティーに富んでいる」の「富む」に対する「豊富」「豊か」のような候補がある.棄却された候補の多くは,意味的には対象単語と対応するものの,対象単語の周辺の語句との接続が悪く置換できない例であった.これらは,単語単位ではなく,「バラエティーに富んでいる」のような句の単位で言い換えるのが適切であり,今後の課題である.なお,他の文においては「起業精神に富む若い不動産業者によって~」の「富む」に対する「あふれる」「満ち溢れる」など,適切な言い換え候補が得られていた.}SNOWE4では,各対象単語に対して平均4.5単語の言い換え候補が付与された.本研究でも,言い換え候補の生成および選択のステップは同様の作業を行ったため,平均4.3単語と同程度の言い換え候補が付与された.言い換え候補の選択ステップにおける注釈の一致率(Fleiss'Kappa)は,SNOWE4では$\kappa=0.664$,本研究では$\kappa=0.669$と,同程度で概ね一致していた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{我々のデータセットにおける語彙平易化の例}\label{tab:our_dataset}\input{04table05.tex}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==========\subsubsection{難易度に基づく並び替え}\label{subsubsec:complexity_ranking}%==========クラウドソーシングで文ごとに5人の注釈者を雇用\footnote{\hl{同一の注釈者が複数文の注釈を行う場合があり,合計で140人の注釈者を雇用した.}}し,文脈を考慮して対象単語および言い換え候補を平易な順に並び替えた.課題(3)に対処するために,同程度の難易度である単語は同順にまとめた.難易度に基づく並び替えステップにおけるスピアマンの順位相関\footnote{\hl{BelderandMoens(2012)と同様に計算し,2,010文$\times$5人分の相関係数を平均して,ひとつの相関係数を求めた.}}は,SNOWE4では$\rho=0.332$だが,同順を考慮する改良により本研究では$\rho=0.5\hl{75}$と大幅に改善された.\hl{また,データセットの品質改善のために,LSeval\cite{belder-2012}で実施されているように,信頼度の低い注釈者を除外した.本研究では,ランキングから注釈者の信頼度を推定できるMatsui,Baba,Kamishima,andKashima\citeyear{matsui-2014}の手法を用いて,除外する注釈者を選択した.そして,信頼度が平均値よりも0.05以上低い注釈者(140人中の9人)を除外した.これによって,並び替えステップにおけるスピアマンの順位相関は,$\rho=0.602$に更に改善された.最終的に,SemEval\cite{specia-2012}やSNOWE4\cite{kajiwara-2015}と同様に,複数人のランキングを平均\footnote{\hl{Matsuietal.(2014)は,注釈者の能力を考慮して複数のランキングから統合ランキングを推定する手法を提案している.ただし本研究では,Matsui法によって得られた統合ランキングよりも,Matsui法で検出した信頼度の低い注釈者を除いた状態での平均ランキングの方が,各注釈者との高い相関を得た.}}して統合ランキングを求めた.}表~\ref{tab:our_dataset}に,本研究で構築したデータセットの例を示す.言い換え候補の中には,対象単語「専ら」が含まれ,これは「偏に」とともに3番目に平易な単語である.この例では,システムが「主に」または「ひたすら」を出力できれば正解となる.%===================================================== \section{日本語の語彙平易化のための辞書の構築} label{sec:dictionary}%=====================================================本\hl{章}では,日本語の語彙平易化のために,2つの大規模な辞書\footnote{https://github.com/Nishihara-Daiki/lsj}を構築する.まず\secref{subsec:word_dict}では,日本語教育語彙表$^{20}$\cite{sunakawa-2012}を教師データとして単語の難易度を推定する分類器を訓練する.そして,この分類器を用いて語彙全体に対して単語の難易度を推定し,大規模な日本語の単語難易度辞書を構築する.次に\secref{subsec:synonym_dict}では,この分類器を大規模な日本語の言い換え辞書に適用し,難解な単語から平易な単語への言い換え辞書を構築する.%==============================\subsection{単語難易度辞書の構築}\label{subsec:word_dict}%==============================日本語の単語難易度辞書である日本語教育語彙表は,日本語教師によって構築された高品質な単語難易度辞書であるが,人手で構築されているため収録語数が少ない.本研究では,語彙平易化をはじめとする自然言語処理タスクでの利用を想定して,日本語教育語彙表をもとに\hl{,}より大規模な日本語の単語難易度辞書を自動構築する.%==========\subsubsection{提案手法}\label{subsubsec:word_dict_method}%==========大規模な日本語の単語難易度辞書を構築するために,日本語教育語彙表の3段階の難易度(初級・中級・上級)を推定する多クラス分類器を訓練する.本研究では,品詞\hl{・語種}・文字頻度・単語頻度・単語分散表現の\hl{5}種類の素性を用いる.文字頻度の素性としては,単語を構成する各文字の頻度のうち,最大値および最小値を利用する.なお,英語の先行研究\cite{pavlick-2016,maddela-2018}で利用されている文字数の情報も素性として検討したが,日本語の単語難易度の推定には貢献しなかった.%==========\subsubsection{実験設定}\label{subsubsec:word_dict_setting}%==========文字と単語の頻度を数えるために,日本語Wikipedia\footnote{https://dumps.wikimedia.org/jawiki/20190801/}を利用した.WikipediaはWikiExtractor\footnote{https://github.com/attardi/wikiextractor}で本文を抽出し,MeCab\cite{kudo-2004}とIPADIC-2.7.0を用いて単語分割した.複数のコーパスから単語頻度を数えることが単語難易度の推定に貢献することが知られている\cite{kajiwara-2018}ので,本研究ではWikipediaの他に,現代日本語書き言葉均衡コーパス\cite{maekawa-2010}の単語頻度リスト\footnote{https://pj.ninjal.ac.jp/corpus\_center/bccwj/freq-list.html}を併用した.品詞\hl{および語種}は現代日本語書き言葉均衡コーパスの単語頻度リストに登録されている情報を利用した.単語分散表現は新聞記事約800万記事を用いて訓練された朝日新聞単語ベクトル\footnote{https://cl.asahi.com/api\_data/wordembedding.html}の300次元のSkip-gramモデル\cite{mikolov-2013}を利用した.なお,Skip-gramモデルとともに公開されているCBOWモデル\cite{mikolov-2013}およびGloVeモデル\cite{pennington-2014}も検討したが,Skip-gramが最高性能を達成した.日本語教育語彙表を8:1:1の割合で訓練・検証・評価セット\hl{(\tabref{tab:jev})}に分割して実験した.\tabref{tab:jev}の未知語は,素性抽出に利用したWikipedia・現代日本語書き言葉均衡コーパス・朝日新聞単語ベクトルの共通語彙に含まれない単語である.\hl{未知語の内訳は,7割が「運転免許証」「おはようございます」などの複合語や定型句,2割が「天ぷら/天麩羅」のような表記ゆれであった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{日本語教育語彙表の単語\hl{種類}数}\label{tab:jev}\input{04table06.tex}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%分類器にはSVM\footnote{https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html}のRBFカーネルを利用し,Cとgammaのパラメータには\{0.001,0.01,0.1,1.0,10.0\}の中から検証セットで最高の性能を達成する組み合わせを選んだ.なお,分類器としてランダムフォレストおよび多層パーセプトロンも検討したが,SVMが最高性能を達成した.\hl{比較のために,RankingSVM\footnote{https://www.cs.cornell.edu/people/tj/svm\_light/svm\_rank.html}\cite{joachims-2006}を用いたランキング学習も試した.素性はSVMと同じとし,Cのパラメータは\{0.0001,0.001,0.01\}から検証セットを用いて探索した.}%==========\subsubsection{実験結果}\label{subsubsec:word_dict_result}%==========評価セットにおける単語難易度推定の\hl{性能}を\tabref{tab:word_dict_experiment}に示す.\hl{5}種類の素性を考慮する提案手法が,個別の素性のみを考慮する比較手法\hl{やランキング学習に基づく手法}よりも高い\hl{Accuracy}および\hl{低いMeanAbsoluteError}を達成した.また,\tabref{tab:word_dict_experiment}\hl{中}段のアブレーション分析からは,いずれの素性を除いても性能が低下することから,全ての素性がそれぞれ性能改善に貢献していることがわかった.%==========\subsubsection{辞書の構築}\label{subsubsec:word_dict_construction}%==========本実験の素性抽出に利用したWikipedia・現代日本語書き言葉均衡コーパス・\pagebreak朝日新聞単語ベクトルの共通語彙である\hl{67,901}単語について単語難易度を推定し,大規模な日本語の単語難易度辞書を構築した.\tabref{tab:word_dict_example}に辞書の例を\hl{,\tabref{tab:diff}に辞書の規模を}示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{単語難易度推定の\hl{性能評価}}\label{tab:word_dict_experiment}\input{04table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8and9\begin{table}[t]\begin{minipage}[t]{0.4\textwidth}\begin{center}\caption{単語難易度辞書の例}\label{tab:word_dict_example}\input{04table08.tex}\end{center}\end{minipage}\begin{minipage}[t]{0.58\textwidth}\begin{center}\caption{単語難易度辞書の規模の比較}\label{tab:diff}\input{04table09.tex}\end{center}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==============================\subsection{平易な言い換え辞書の構築}\label{subsec:synonym_dict}%==============================英語の先行研究であるSimplePPDB\cite{pavlick-2015a,pavlick-2016,maddela-2018}に倣って,大規模な言い換え辞書のうち難解な表現から平易な表現への言い換えのみを抽出した語彙平易化のための言い換え辞書を自動構築する.本研究では,\secref{subsec:word_dict}で構築した難易度推定器が単語を対象としているため,難解な単語から平易な単語への言い換え対のみを扱う.フレーズへの拡張は今後の課題である.%==========\subsubsection{提案手法}\label{subsubsec:synonym_dict_method}%==========単語対の難易度推定のために,各単語対$\{{\kern0pt}単語1,単語2\}$を「単語1の方が難解」「単語2の方が難解」「同じ難易度」の3クラスに分類する.各単語の難易度は,\secref{subsec:word_dict}で構築した分類器を用いて推定する.そして,上級→中級・上級→初級・中級→初級のいずれかの関係にある単語対を「単語1の方が難解」に分類する.同様に,中級→上級・初級→中級・初級→上級のいずれかの関係にある対は「単語2の方が難解」に分類し,その他の対は「同じ難易度」に分類する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\caption{日本語教育語彙表からサンプリングした単語対数}\label{tab:jev_pair}\input{04table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==========\subsubsection{実験設定}\label{subsubsec:synonym_dict_setting}%==========素性および分類器に関する実験設定は\secref{subsubsec:word_dict_setting}と共通である.単語対における難易度推定の性能を評価するため,\tabref{tab:jev_pair}に示すように,\tabref{tab:jev}の評価セットから無作為に抽出した1千単語対を用いる.ただし,これらの単語対は難易度のみを考慮して集めており,言い換え対ではない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[tb]\caption{単語対の難易度推定の\hl{性能評価}}\label{tab:synonym_dict_experiment}\input{04table11.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==========\subsubsection{実験結果}\label{subsubsec:synonym_dict_result}%==========単語対の難易度推定の分類\hl{性能}を\tabref{tab:synonym_dict_experiment}に示す.\secref{subsubsec:word_dict_result}の実験結果と同じく,\hl{5}種類の素性を考慮する提案手法が,最頻クラスのベースラインや個別の素性のみを考慮する比較手法よりも高い\hl{Accuracyおよび低いMeanAbsoluteError}を達成した.また,\tabref{tab:synonym_dict_experiment}下段のアブレーション分析からは,いずれの素性を除いても性能が低下することから,全ての素性がそれぞれ性能改善に貢献していることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[tb]\caption{平易な言い換え辞書の\hl{規模と}例}\label{tab:synonym_dict_example}\input{04table12.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%==========\subsubsection{辞書の構築}\label{subsubsec:synonym_dict_construction}%==========大規模な日本語の言い換え辞書\footnote{https://ahcweb01.naist.jp/old/resource/jppdb/}\cite{mizukami-2014}のうち,難解な単語から平易な単語への言い換え対のみを抽出し,語彙平易化のための言い換え辞書を構築した.\tabref{tab:synonym_dict_example}に,辞書の例を示す.抽出した平易な言い換えは58,738単語対であった.%===================================================== \section{日本語の語彙平易化のためのツールキットの構築} label{sec:toolkit}%=====================================================本\hl{章}では,英語の先行研究であるLEXenstein$^{22}$\cite{paetzold-2015}に相当する,語彙平易化の代表的な手法を日本語向けに調整して実装したツールキット{\kern0pt}$^{28}$について説明する.このPythonライブラリを用いることで,日本語の語彙平易化システムを構築し,\sref{sec:dataset}の評価用データセットにおける性能を自動評価することができる.ただし,語彙平易化の対象単語はデータセットの入力として与えられるため,難解語の検出は扱わない.\secref{subsec:tool_generation}では,\figref{fig:pipeline}の言い換え候補の生成および言い換え候補の選択に相当する言い換え候補の獲得手法について説明する.次に,\secref{subsec:tool_ranking}では,\figref{fig:pipeline}の難易度に基づく並び替えに相当する言い換え候補のランキング手法について説明する.最後に,\secref{subsec:tool_experiment}では,各手法の性能を評価する.%==============================\subsection{言い換え候補の獲得}\label{subsec:tool_generation}%==============================\secref{subsec:lexical_simplification}で述べたように,言い換え候補の獲得は,辞書に基づく手法・パラレルコーパスに基づく手法・分布類似度に基づく手法の3つに大別できる.本ツールキットでは,このいずれかの手法を用いて言い換え候補を獲得する.\begin{description}\item[辞書に基づく手法・パラレルコーパスに基づく手法]辞書に基づく手法\cite{devlin-1998,belder-2010,pavlick-2015a,pavlick-2016,maddela-2018}およびパラレルコーパスに基づく手法\cite{horn-2014}を扱うために,言い換えの単語対を記述したタブ区切りテキストを入力として受け取る.\item[分布類似度に基づく手法]分布類似度に基づく手法\cite{glavas-2015,paetzold-2016b,qiang-2019}を扱うために,word2vec形式\footnote{https://code.google.com/archive/p/word2vec/}の単語分散表現またはTransformers形式\footnote{https://github.com/huggingface/transformers}のBERTモデルを入力として受け取る.\end{description}%==============================\subsection{言い換え候補のランキング}\label{subsec:tool_ranking}%==============================\secref{subsec:lexical_simplification}で述べたように,候補のランキングは,頻度に基づく手法と平均ランキングに基づく手法に大別できる.本ツールキットでは,このいずれかの手法を用いて平易な同義語を選択する.\begin{description}\item[頻度に基づく手法]頻度に基づく手法\cite{devlin-1998,belder-2010,specia-2012,paetzold-2016b}を扱うために,ARPA形式の$N$-gram言語モデルを入力として受け取る.先行研究\cite{paetzold-2016b}に従い,例えば5-gram言語モデルを利用する際には,対象単語の前後2単語ずつを文脈として利用する.\item[平均ランキングに基づく手法]平均ランキングに基づく手法\cite{glavas-2015,qiang-2019}を扱うために,word2vec形式の単語分散表現・ARPA形式の$N$-gram言語モデル・タブ区切りテキスト形式の単語頻度辞書を入力として受け取る.\citeA{qiang-2019}の平均ランキング\footnote{ただし,BERTはサブワード単位で分割されており他の手法が対象とする分割単位と異なるため,\citeA{qiang-2019}のランキング手法は\citeA{qiang-2019}の候補獲得手法との組み合わせでのみ使用できる.}を扱うためには,Transformers形式のBERTモデルも入力する.\end{description}%==============================\subsection{評価実験}\label{subsec:tool_experiment}%==============================語彙平易化の代表的な手法を日本語化し,\sref{sec:dataset}の評価用データセットにおける性能を評価する.%==========\subsubsection{候補の獲得手法の評価}\label{subsubsec:eval_candidate}%==========\begin{description}\item[SimplePPDB]辞書に基づく\citeA{pavlick-2016}の手法に相当する.\sref{sec:dictionary}で構築した平易な言い換え辞書を用いて言い換え候補を獲得する.\item[GIZA++]パラレルコーパスに基づく\citeA{horn-2014}の手法に相当する.SNOWT15$^{11}$およびSNOWT23$^{12}$の8.5万文対のやさしい日本語コーパス\cite{maruyama-2018,katsuta-2018}を用いて,GIZA++\cite{och-2003}によって単語アライメントをとり,言い換え候補を獲得する.\item[word2vec]分布類似度に基づく\citeA{glavas-2015}の手法に相当する.朝日新聞単語ベクトル$^{30}$の300次元のSkip-gramモデル\cite{mikolov-2013}を用いて,対象単語との余弦類似度が高い順に10単語の言い換え候補を獲得する.\item[BERT]分布類似度に基づく\citeA{qiang-2019}の手法に相当する.日本語BERT\footnote{https://github.com/cl-tohoku/bert-japanese,(BERT-base\_mecab-ipadic-bpe-32k\_whole-word-mask)}を用いて,対象単語をマスクしたマスク言語モデルのスコアが高い順に10単語の候補を獲得する.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13and14\begin{table}[t]\begin{minipage}[t]{0.6\textwidth}\begin{center}\caption{候補の獲得手法の評価}\label{tab:experiment_candidate}\input{04table13.tex}\end{center}\end{minipage}\begin{minipage}[t]{0.39\textwidth}\begin{center}\caption{ランキング手法の評価}\label{tab:experiment_ranking}\input{04table14.tex}\end{center}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%先行研究\cite{paetzold-2016a,paetzold-2016b,paetzold-2017b}に従い,評価指標としてPotential・Precision・Recall・F1スコアの4つを用いる.Potentialとは,1単語以上の正解単語\footnote{本タスクの正解単語とは対象単語の言い換えであり,この段階では難易度は考慮しない.}を言い換え候補として獲得できた事例の割合である.\tabref{tab:experiment_candidate}に,候補の獲得手法の評価の結果を示す.BERTは,4手法の中で唯一文脈を考慮して候補を獲得するため,多くの評価指標において最高性能を達成した.GIZA++は,文脈を考慮しないものの同義性の高い候補を獲得するため,Precisionが高い.word2vecは,必ずしも同義とは限らない類義語を候補として獲得するため,Precisionが低い.\hl{SimplePPDBは,大規模な辞書を用いるため,Recallが高い.}%==========\subsubsection{ランキング手法の評価}\label{subsubsec:eval_ranking}%==========言い換え候補として正解セットが与えられる設定で,以下の2つのランキング手法を評価する.\begin{description}\item[5-gram言語モデル]頻度に基づく\citeA{paetzold-2016b}の手法に相当する.日本語Wikipedia$^{29}$をMeCab\cite{kudo-2004}とIPADIC-2.7.0を用いて単語分割し,KenLM\cite{heafield-2011}によって5-gram言語モデルを訓練する.\item[平均ランキング]平均ランキングに基づく\citeA{glavas-2015}の手法に相当する.朝日新聞単語ベクトル$^{32}$の300次元のSkip-gramモデル\cite{mikolov-2013}を用いて単語類似度および文脈類似度のランキングを作り,日本語Wikipediaを用いて1-gram頻度および5-gram頻度のランキングを作り,これら4つの平均ランキングを使用する.\end{description}先行研究\cite{specia-2012,paetzold-2016b,paetzold-2017b}に従い,評価指標としてTRankを用いる.TRankとは,1位にランキングされた候補が対象単語よりも平易な言い換えである事例の割合である.\tabref{tab:experiment_ranking}に,ランキング手法の評価の結果を示す.1-gram頻度や単語類似度など,5-gram頻度以外の情報も考慮する平均ランキングがより高い性能を達成した.\hl{なお,\sref{sec:dataset}で説明したとおり,我々の評価用データセットは現代日本語書き言葉均衡コーパスをもとに作られているため,本評価は書き言葉に関する語彙平易化の評価であることに注意されたい.}%==========\subsubsection{パイプライン評価}\label{subsubsec:eval_pipeline}%==========%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\caption{語彙平易化のパイプライン評価}\label{tab:experiment_pipeline}\input{04table15.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\secref{subsubsec:eval_candidate}および~\secref{subsubsec:eval_ranking}の各手法を組み合わせ,語彙平易化の総合的な性能を評価する.ここで,word2vecで候補を獲得し平均ランキングでランキングを行う手法は,英語の先行研究である{\scLight-LS}\cite{glavas-2015}に相当する.語彙平易化のサーベイ論文\cite{paetzold-2017b}では,英語のベンチマークにおいて{\scLight-LS}が最高のAccuracyを達成している.また,BERTで候補を獲得し平均ランキングでランキングを行う手法は,英語の語彙平易化における最新の研究であるBERT-LS\cite{qiang-2019}に相当する.本研究でも,BERT-LSの平均ランキングは\citeA{qiang-2019}と同じく,BERT\cite{devlin-2019}のマスク言語モデルによる改良版を用いる.先行研究\cite{horn-2014,glavas-2015}に従い,評価指標として\hl{ChangedProportion}・Precision・\hl{Accuracy}の3つを用いる.\hl{ChangedProportionは,システムが書き換えを行った事例の割合である.}Precisionは,システムが書き換えを行った事例のうち,出力単語が正解単語集合(平易な言い換え)に含まれる割合である.\hl{Accuracyは,システム出力の単語が正解単語集合に含まれる事例の割合であり,ChangedProportionとPrecisionの積で計算される.}\tabref{tab:experiment_pipeline}に,パイプライン評価の結果を示す.\secref{subsubsec:eval_candidate}の実験結果と同様に,文脈を考慮して候補を獲得するBERT-LSが最高のAccuracyを達成した.サブワード単位で処理を行うBERT-LSは未知語の問題がないため,ChangedProportionも満点である.一方で,Precisionの観点では我々の言い換え辞書に基づくSimplePPDB(平均ランキング)が最高性能を達成した.SimplePPDBでは単語難易度の推定によって平易な言い換えを候補に含められるため,\hl{辞書の網羅性ではBERT-LSに及ばないものの,}書き換えを行った場合には正しく平易な言い換えを出力できる.ランキング手法に着目すると,SimplePPDBによる候補獲得に対しては平均ランキングが,GIZA++による候補獲得に対しては5-gram言語モデルのランキングが高い性能を示したため,候補獲得の手法ごとに相性の良いランキング手法を選ぶ必要がある.%===================================================== \section{おわりに} label{sec:outro}%=====================================================本研究では,日本語の語彙平易化のために,3種類の言語資源を整備した.まず\sref{sec:dataset}では,評価用データセットを改良した.多様なドメインを対象に,対象単語と文脈との難易度の一貫性および単語難易度アノテーションの一貫性を改善した.次に\sref{sec:dictionary}では,語彙平易化のための辞書を構築した.単語難易度の推定器をもとに,大規模な単語難易度辞書および難解な単語から平易な単語への言い換え辞書を自動構築した.最後に\sref{sec:toolkit}では,語彙平易化システムを実装するためのツールキットを構築した.本ツールキットを用いることで,言い換え候補の獲得およびランキングの2ステップからなる語彙平易化システムを構築し,性能を自動評価することができる.評価実験の結果,文脈を考慮して言い換え候補を獲得するBERTに基づく手法が最高のAccuracyを達成し,本研究で構築した辞書に基づく手法が最高のPrecisionを達成した.\hl{本研究を含む語彙平易化の研究の多くは,クラウドソーシングを用いて構築された評価用データセットで実験している.しかし,クラウドソーシングで雇用できる注釈者は,基本的には英語/日本語を母語とする大人であり,学習者や子どもなどの語彙平易化の主な対象者ではない.そのため,本研究を含む語彙平易化システムの多くは,対象言語を母語とする大人のための語彙平易化システムである.実際のターゲットユーザによる難易度ランキングを収集し,それに適した語彙平易化システムを開発することが,今後の課題である.また,句の難易度推定や句の平易化など,より広い単位への拡張にも取り組みたい.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{梶原智之}{%2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).同年より大阪大学データビリティフロンティア機構特任助教.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{西原大貴}{%2019年大阪大学工学部電子情報工学科卒業.同年大阪大学大学院情報科学研究科マルチメディア工学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{小平知範}{%2016年首都大学東京システムデザイン学部システムデザイン学科卒業.2018年同大学大学院システムデザイン研究科博士前期課程修了.修士(工学).}\bioauthor{小町守}{%2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京\hl{(2020年より東京都立大学に名称変更)}システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N04-02
\section{はじめに} 技術のグローバル化が進み,特許情報とその翻訳の重要性が広く認識されてきている.日米欧の特許庁では,情報共有,審査の迅速化の観点から,特許文書の相互利用を目指して三極間の協力が推し進められている.国内においても,人手による翻訳で公開特許公報の英文抄録(PAJ:PatentAbstractsofJapan)が作成されているほか,高度産業財産ネットワーク(AIPN:AdvancedIndustrialPropertyNetwork)が開発され,海外の特許庁において包袋書類(出願人が日本国特許庁に提出した明細書等の書類,及び,拒絶理由通知書等の特許出願の審査に係る書類等)が機械翻訳で英訳された形で提供されるようになった.特許は高度に専門的な文書で,新語や専門用語が多く含まれ,かつ,その内容が多岐にわたっている.「翻訳」という観点から見た場合,特許の文章には以下のような特徴がある.\begin{itemize}\item文が長い\\一般に特許文は,文章が長くなる傾向がある.例えば,遺伝子分野(IPC:C12N)の2004年出願の全データ11,781件から抄録部分の形態素数を集計したところ,日本語では一文が平均57形態素(105文字),英語では平均44形態素であった.日本語における読みやすい文の長さの目安がおよそ50文字以内といわれていることからも,特許の文が長くて理解しにくいものであることが分かる.文の長さとも関連して,特許文では並列構造が多く,係り受け関係が複雑であるという特徴もある.\item専門用語が多い\\特許では分野が細分化されており,分野ごとに多くの新語や専門用語が出現する.これらの語は,分野によって概念が違っていたり,単語の組み合わせで個々の単語とはまったく異なる概念を表したりすることがある.また,専門性の高い用語の中には用語辞書や対訳辞書に登録されていないものも多い.\end{itemize}このような特徴を持つ文書を翻訳するには,人手であれ,機械であれ,分野に特化した専門用語の対訳辞書が不可欠である.特に,機械翻訳などの言語処理においては,未知語や専門用語を正確に認識することが,翻訳品質だけでなく,構文解析の曖昧性解消や翻訳速度の向上にも大きく寄与することがわかっている\cite{Shimohata05}.しかしながら,専門性が高くなればなるほど,市販の辞書を入手することは困難になる.また,人手で辞書を構築する場合にも膨大な時間とコストがかかってしまう.一方で,特許にはIPC(InternationalPatentClassification)と呼ばれる体系的な分類コードが付与された大量な文書の蓄積がある.またその一部には,PAJや外国出願特許のように,翻訳されたテキストが存在する.そこで我々は,特許コーパスを用いて,専門用語およびその対訳を自動的に抽出することが可能であると考えた.ここで,本論文で用いる言葉の定義をする.本論文では,言語学的な単位として,1つの形態素からなる語を単語,複数の形態素からなる語を単語列と呼ぶ.また,術語学的な単位として,特定の分野においてある概念を表す単語及び単語列を専門用語,あるいは単に用語と呼ぶ. \section{コーパスを利用した対訳辞書構築の要素技術} コーパスから専門用語の対訳辞書を構築するには,2つのフェーズがある.第1フェーズは単言語コーパスから専門用語を抽出するフェーズ,第2フェーズは抽出された2言語の専門用語を対応付けるフェーズである.以下では,それぞれのフェーズについて,従来技術を説明する.\subsection{専門用語の抽出}コーパスから専門用語を抽出する場合には,コーパス中に出現する用語候補を切り出し,その用語候補の言語単位としての妥当性(ユニット性)と分野における専門性(ターム性)を測定して専門用語と認められるかどうかを判定する方法が一般的である.用語候補は,基本的に単語N-gramである\footnote{日本語や中国語のように単語境界のない言語では,文字N-gramを用いる場合もある.}.ただし,単語N-gramを単純に頻度順に抽出するだけでは断片的な単語列が多数含まれるので,いかにユニット性とターム性を計測し,不要な単語列を抑制するかが重要になる.\cite{Shimohata97}は,隣接する単語のばらつきの度合いによって単語列のユニット性を測る手法を提案した.\cite{Ananiadou94},\cite{Frantzi_and_Ananiadou99}は入れ子構造を持つコロケーションからユニット性の高い要素に高いスコアをつけるC-valueと呼ばれる手法を提案している.また,\cite{Nakagawa03}は,名詞のbigramから得られる統計量を利用して,複合名詞のスコア付けを行なう方法を提案している.その他にも,形態素解析や構文解析を行って,特定の構成要素をもつ単語列(例えば名詞句)を抽出するという方法が考えられる.いずれの手法においても,専門用語としての妥当性を数値化することは難しく,専門用語の抽出は各手法の指標に基づいてスコア付けした用語候補から,対象となるコーパスの量や獲得語数の条件などに応じて行うのが一般的である.また,\cite{Ananiadou94},\cite{Frantzi_and_Ananiadou99},\cite{Nakagawa03}の手法では,複合語,特に複合名詞を対象としており,名詞以外の語句や1語からなる専門用語の抽出は行わない.\subsection{専門用語の訳語推定}2言語のコーパスから対訳辞書を抽出する研究は,大きく2つに分類される.1つは,パラレルコーパスを用いる方法,もう1つはコンパラブルコーパスを用いる方法である\footnote{ここでパラレルコーパスとは文単位で対応づけられた対訳テキストの集合を,コンパラブルコーパスとは文書単位で内容が類似した対訳テキストの集合を指す.}.パラレルコーパスを用いる方法では,基本的に1対1の文対応を前提にしており,対応する行における単語および単語列の同時出現確率の対数尤度を利用する.2言語間で候補語どうしの同時出現確率を計算し,その値が高いものを翻訳対として抽出する方法が一般的に行われている(\cite{Kupiec93};\cite{Dagan_and_Church94};\cite{Smadja93};\cite{Kitamura_and_Matsumoto04}).これらの方法では,80\%〜90\%の高い精度を達成しているが,1対1の文対応がついたコーパスは非常に少なく,現実には類似度の高いコーパスに段落対段落レベルの粗い対応付けを利用したり,文対応付け手法(\cite{Gale_and_Church93};\cite{Utiyama_and_Isahara03})を用いて擬似的に文対応をつけたりする処理が必要である.それに対して,コンパラブルコーパスは比較的容易に入手可能である.コンパラブルコーパスの場合には,パラレルコーパスのように単語の同時出現確率を直接測ることができないので,既知の単語対を介して,対象とする2言語の候補語における共起語ベクトルの類似度を計算し,類似度の高い用語対を対訳として抽出する(\cite{Fung_and_McKeown97};\cite{Fung_and_Yee98};\cite{Rapp99}).\cite{Rapp99}は,2言語のテキストで出現する単語の共起マトリックスを作成し,その類似度を最大化する方法を提案した.英独の基本的な語による実験では,訳語候補を辞書登録語に限定し,1位正解率72\%,10位以内正解率89\%を得ている.また,\cite{Fung_and_McKeown97}は,既に対応づけられた対訳語(seedwordと呼ぶ)のリストを用いて,各言語における未知語とseedwordlistの単語とのコーパス中での共起を調べ,その共起ベクトルの類似度を測って,類似度の高い単語ペアを対訳語として抽出する方法を提案した.日英経済紙による実験では,訳語候補の1位正解率約30\%,20位以内正解率76\%を得ている.また,\cite{Fung_and_Yee98}では,seedwordに重みづけをすることで\cite{Fung_and_McKeown97}の対応付け精度を改良している.さらに最近では,Webから得られた文書を用いて訳語推定を行なう研究も提案されている(\cite{Utsuro05}\cite{Cao_and_Li02}).\cite{Utsuro05}は言語横断検索によって対応付けられた日英関連記事からパラレルコーパスの手法,および,コンパラブルコーパスの手法によって訳語対応を推定している.また,\cite{Cao_and_Li02}では基本語対訳時書中の訳語の組み合わせを訳語候補としてWebを検索し,訳語対応を推定している.コンパラブルコーパスを用いる手法は,パラレルコーパスを用いる手法に比べて訳語推定の精度が低い.また実験も小規模で,実用化を想定した設定になっていないことが多い.精度が低い原因は対象となるコーパスの性質によるものが大きいが,類似度を測るベクトルの要素が,用語の文脈を特徴付けられていないことも重要な問題である.本論文では,特許文書を対象に,コンパラブルコーパスの手法を用いて専門用語の対訳を抽出する.特許文書は文が長く,多数の専門用語が含まれているという特徴がある.この特徴を利用して,両言語コーパスに頻出し,かつ,その出現傾向が類似する専門用語をseedwordとすることにより,コンパラブルコーパスにおける語訳対応付けの精度向上を目指す.コンパラブルコーパスの手法を採用する理由は,柔軟性が高く,あらゆる対応度の対訳コーパスに適用可能だからである.特許文書は,PAJのようにほぼ1対1の対訳があるものから,国内出願と外国出願した特許のように文書単位の対訳があるもの,単言語でしか存在しないものまで様々である\footnote{PAJは,基本的にはアブストラクト単位の対訳であるが,文レベルで対応しているものも多い.構成文数を見ると,遺伝子分野のPAJ1年分11,781件中,両言語で文数が一致しているものは4,608件(39.1\%),一致していないものが7,173件(60.9\%)であった.}.対応度の高い対訳コーパスについては,文対応付け手法によって擬似的にパラレルコーパスを作成し,パラレルコーパスの手法を適用することも可能であるが,PAJ以外の特許文書については文レベルの対応をとることは現実的ではない.それに対して,コンパラブルコーパスの手法は,文対応を考慮しなければパラレルコーパスに対しても適用することが可能である.以下,第3章では提案手法の詳細について説明し,第4章以降では提案手法に基づいて行なった実験の結果について報告する.さらに,提案手法とパラレルコーパスを用いる手法や他のコンパラブルコーパスを用いる手法との比較も行なう. \section{アルゴリズム} 本論文の専門用語およびその対訳の獲得プロセスを図1に示す.本手法は,1.専門用語の抽出,2.seedwordリストの作成,3.seedwordを用いた専門用語の訳語推定という3つのステップから構成される.第1のステップでは,日英特許コーパスより専門用語を抽出し,第2のステップでは,日英特許コーパスと対訳辞書を使ってseedwordリストを作成する.そして第3のステップでは,抽出された専門用語とseedwordリストとの共起ベクトルを求め,共起ベクトルの類似度の高い用語どうしを対訳として抽出する.以下では,それぞれのステップについて順に説明していく.\begin{figure}[t]\label{fig:outline}\begin{center}\includegraphics{14-4ia2f1.eps}\caption{専門用語および対訳獲得のプロセス}\end{center}\end{figure}\subsection{専門用語の抽出}\label{sec:extractTerm}専門用語候補の抽出には,隣接文字(単語)の分散の度合いに基づく専門用語抽出手法\cite{Shimohata97}を用いる.この手法は,「文字列(単語列)が意味のあるまとまりである場合,その前後には様々な文字(単語)が出現する」という考えに基づき,隣接文字の分散の度合いによって単語列のユニット性を測るものである.ただし,この手法では単語列の専門性の高さは考慮していないので,上記手法による抽出結果の頻度および$\mathit{tf}\bullet\mathit{idf}$を求め,各単語列のターム性を計測する.具体的な手順は以下の通りである.\begin{enumerate}\itemコーパスを形態素解析し,句読点を含まない,単語列の最初と最後が自立語であるなどの条件の下で,n-gram単語列$T_{l}=\{t_{1},t_{2},...t_{n}\}$を抽出する.\item$t_{i}$の前に出現する単語群$W^{i}_{L}=\{w^{i}_{1},w^{i}_{2},…w^{i}_{m}\}$から,$t_{i}$の前に出現する単語のばらつきの度合$H(t_{i},W^{i}_{L})$を求める.ここで,$\mathit{freq}(t_{i})$は単語列$t_{i}$の出現する回数,$\mathit{freq}(t_{i},w^{i}_{j})$は単語列$t_{i}$と単語$w^{i}_{j}$が連続して出現する回数である.\begin{gather}H(t_{i},W^{i}_{L})=-\sum^{m}_{j=1}P(t_{i},w^{i}_{j})\bullet\logP(t_{i},w^{i}_{j})\\P(t_{i},w^{i}_{j})=\frac{\mathit{freq}(t_{i},w^{i}_{j})}{\mathit{freq}(t_{i})}\end{gather}\item(2)と同様に,$t_{i}$の後ろに出現する単語群$W^{i}_{R}=\{w^{i}_{1},w^{i}_{2},…w^{i}_{m}\}$から,$t_{i}$の後ろに出現する単語のばらつきの度合$H(t_{i},W^{i}_{R})$を求める.\item$\mathit{tf}\bullet\mathit{idf}(t_{i})$によって$t_{i}$のターム性を求める.\begin{gather}\mathit{tf}\bullet\mathit{idf}(t_{i})=\mathit{freq}(t_{i})\bullet\log(\frac{N}{\mathit{df}(t_{i})})\\N=全文書数\nonumber\\\mathit{df}(t_{i})=t_{i}が出現する文書数\nonumber\end{gather}\item(2)〜(4)で得られた$H(t_{i},W^{i}_{L})$,$H(t_{i},W^{i}_{R})$,$tf\bullet\mathit{idf}(t_{i})$,および,$\mathit{freq}(t_{i})$が,それぞれ,閾値$\mathit{varMin}$,$\mathit{tfidfMin}$,$\mathit{freqMin}$を超える単語列$t_{i}$を専門用語として抽出する.\pagebreak\begin{gather*}H(t_{i},W^{i}_{L})\geq\mathit{varMin}\\H(t_{i},W^{i}_{R})\geq\mathit{varMin}\\\mathit{tf}\bullet\mathit{idf}(t_{i})\geq\mathit{tfidfMin}\\\mathit{freq}(t_{i})\geq\mathit{freqMin}\end{gather*}\end{enumerate}\subsection{seedwordリストの作成}\label{sec-SeedWord}\cite{Fung_and_McKeown97}では,「文書Tにおいて用語Aと用語Bの関連度が高い場合,別の言語の文書T$'$において用語Aの訳語であるA$'$と用語Bの訳語であるB$'$も関連度が高い」という仮説に基づき,seedwordリストと呼ばれる既知の翻訳対と,対応付け候補の各用語との対象コーパスにおける関連度を測り,関連度の高い用語どうしを対応付けている.ここで,用語の関連度とは,一定の範囲内(例えば,文,パラグラフなど)における出現文脈の類似度である.つまり,単言語コーパス内でのseedwordリストの単語と用語との共起を調べ,2言語間で各用語の共起パターンの類似度を測って,類似度の高いものを翻訳対として抽出する.seedwordには,対象コーパスに一定回数以上出現する辞書登録語で,かつ一対一に対応のつく翻訳対を用いている.提案手法も上記の手法を踏襲するが,seedword獲得時にも翻訳対獲得時と同様にseedword候補語どうしの共起を調べ,出現文脈が類似している翻訳対のみをseedwordとして採用する.つまり,対象コーパスにおいて有効なseedwordのみを利用することにより,候補語の対応付けにおける精度の向上を計る.具体的な,seedwordリスト作成プロセスは以下の通りである.\begin{enumerate}\item言語$J$と$E$の対訳辞書$D_{\mathit{JE}}$より,コーパス$C_{J}$および$C_{E}$に出現頻度の閾値$\mathit{freqMin}$を超えて出現する辞書登録語の集合$D_{\mathit{JE}}=\{\langled^{J}_{i},d^{E}_{i}|\mathit{freq}(d^{J}_{i})\geq\mathit{fregMin};\mathit{freq}(d^{E}_{i})\geq\mathit{freqMin}\rangle\}$を抽出する.ここで$C_{L}$は言語$L$のコーパスを,$d^{L_{1}}_{i}$は$D_{L_{1},L_{2}}$における言語$L_{1}$の$i$番目の単語を表す.また,$d^{L2}_{i}$は$d^{L1}_{i}$と対訳関係にある言語$L_{2}$の単語である.\item言語$L$の$i$番目の単語$d^{L}_{i}$に対して,$d^{L}_{i}$と$\{d^{L}_{1},d^{L}_{2},...d^{L}_{n}\}$との,コーパスにおける一定の範囲内(例えば,一定語数内,一文内,パラグラフ内など)での共起頻度の列ベクトル$\mathit{Cmat}(d^{L}_{i}\equiv[c(d^{L}_{i},d^{L}_{1}),c(d^{L}_{i},d^{L}_{2}),...c(d^{L}_{i},d^{L}_{n})]^{T})$を求める.$c(x,y)$は,単語$x$と単語$y$の共起回数である.\item対訳関係にある$d^{J}_{i}$と$d^{E}_{i}$の共起ベクトルの類似度$\mathit{Sim}(d^{J}_{i},d^{E}_{i})$を求め,類似度が閾値を超えるデータの対をseedwordリスト$SW_{\mathit{JE}}$として抽出する.ここで,\[\mathit{SW}_{\mathit{JE}}=\{\langled_{J},d_{E}\rangle|\mathit{Sim}(d^{J}_{i},d^{E}_{i})\geq\mathit{simMin}\}\]とし,類似度$\mathit{Sim}(d^{J}_{i},d^{E}_{i})$は,以下の式によって得る.\pagebreak\begin{equation}\mathit{Sim}(d^{J}_{i},d^{E}_{i})=\sqrt{\sum_{1\leqj\leqn}(\frac{c(d^{J}_{i},d^{J}_{j})}{C_{J}の総文数}-\frac{c(d^{E}_{i},d^{E}_{j})}{C_{E}の総文数})^2}\end{equation}\end{enumerate}\subsection{専門用語の訳語推定}訳語対応づけは,\ref{sec-SeedWord}で述べたseedword作成と同様のプロセスによって行なう.\begin{enumerate}\item両言語のコーパスから抽出された専門用語の集合$T_{J}$および$T_{E}$の各用語$t^{L}_{i}$と,seedwordリスト$\mathit{SW}_{\mathit{JE}}$の各要素$d^{L}_{k}$との各コーパスにおける共起頻度を計数し,共起ベクトル$\mathit{Cmat}(t^{L}_{i})$を作成する.\item$T_{J}$と$T_{E}$のすべての用語の組み合わせにおける共起マトリクスの類似度$\mathit{Sim}(t^{J}_{i},t^{E}_{j})$を求め,類似度の高いデータの対を対訳として抽出する.\end{enumerate} \section{実験と評価} \subsection{実験データ}日英特許抄録(PAJ)および米国特許抄録(USP:UnitedStatesPatents)を用いて,図1に示す専門用語の抽出,seedwordリストの作成,専門用語の訳語推定の実験を行なった.実験に使用したデータは以下の通りである.\begin{itemize}\itemコーパス\begin{tabbing}日本語\=特許抄録\=(C12N:遺伝子分野)\=11,781件\\\>日本語\>38,481文(1,694,362単語)\\\>英語\>35,343文(1,778,663単語)\\米国特\>許抄録\>(C12N:遺伝子分野)\>12,534件\\\>英語\>51,201文(1,259,299単語)\end{tabbing}\item対訳辞書\begin{tabbing}EDICT173,000件\end{tabbing}\item参照用の専門用語対訳辞書\begin{tabbing}Japio辞書(C12N:遺伝子分野)4,789件\end{tabbing}\end{itemize}テストコーパスとして用いるPAJは,遺伝子分野(IPCコード:C12N)の日本語特許抄録およびその翻訳の1年分である.実験では,日本語と英語で記述された「発明の名称」および「要約」を用いた.また,USPについても同様に,遺伝子分野のタイトルと要約1年分を用いた.評価は人手による主観評価および同分野のJapio辞書との比較により行った.Japio辞書は,PAJ作成の補助に用いられている専門用語の対訳辞書で,人手により構築されたものである.実験にPAJの日本語と英語,および,PAJの日本語とUSPの2種類を用いたのは,訳語対応付けの精度が1)コーパスの対応度の違いによってどの程度変化するか,2)対応付け手法の違いによってどの程度違うかを検証するためである.\subsection{専門用語の抽出}\label{sec:experimentTerm}\ref{sec:extractTerm}で示した方法に基づき,対象コーパスから専門用語を抽出した.日本語の形態素解析には茶筌\footnote{http://chasen.naist.jp/hiki/ChaSen/}を,英語の形態素解析にはTreeTagger\footnote{http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/DecisionTreeTagger.html}を用いた.その結果,日本語で61,735件,英語で50,519件の用語が抽出された.抽出された用語の例を表\ref{tab:extractTerm}に示す.日英ともに名詞句が中心で,``aminoacid''のようによく使われる専門用語だけでなく,``acid''や``aminoacidsequence''のように用語の構成要素となる単語や,用語を含む複合語までが幅広く抽出されている.また,今回は品詞によるフィルタリングなどを行わなかったため,名詞句以外の用語,特に動詞を含む専門的な表現も多かった.\begin{table}[t]\input{table1.txt}\end{table}一方で,「本発明」や「該発現」,``comprise'',``related''のように,特許文書にはよく出現するが遺伝子分野の専門用語とはいえない用語も散見された.これらの用語は文書集合全体に出現し,値が高くなることから,抽出が抑制されると予想していたが,対象コーパスにおいて特に高頻出な用語や専門用語との組み合わせで抽出されたものは$\mathit{tf}\bullet\mathit{idf}$値が高くなり,抽出される結果となった.抽出された用語をJapio辞書と照合したところ,日本語で767件,英語で1,096件の重複があった.表\ref{tab:gene}に「遺伝子」を含む抽出結果(抜粋)およびJapio辞書の登録語を示す.「遺伝子」を含む用語は,Japio辞書では19件が登録されているが,抽出結果にはそのうちの7件が含まれていた.抽出されなかった12件の登録語のうち11件はコーパス内での出現がなく,もう1件も出現頻度が2と少なかった.また,この7件より頻度の高い用語は10件,この7件の最低頻度と同じ頻度5の用語は78件が抽出された.これらの用語はいずれも専門性が高く,本手法によって専門用語辞書作成に有効な用語が,頻度の大きさに関わらず網羅的に抽出されることが分かった.次に,パラメータの値を,$\mathit{varMin}=1.0$,$\mathit{tfidfMin}=100$\footnote{ここで,$\mathit{tf}\\mathit{idfMin}$の計算に用いた文書集合はPAJおよびUSPの1年分抄録数である.}かつ$\mathit{freqMin}=100$と設定した場合の用語を抽出し,精度を調べた.$\mathit{varMin}$,$\mathit{tfidfMin}$は,抽出結果を値ごとにソートし,サンプルによる抽出精度が50\%になるポイントを用いた.その結果,日本語1,013件,英語1,034件が抽出され,それぞれ909件(90\%),965件(93\%)の専門用語が含まれていることが分かった.Japio辞書に登録され,かつ,コーパスに100回以上出現した用語は日本語で142件,英語で228件存在するが,提案手法では,そのうち日本語127件,英語192件を抽出することができており,再現率はそれぞれ,84.2\%,89.4\%となった.また,Japio辞書登録の対訳で,日本語,英語とも100回以上コーパスに出現する用語対は74対あるが,そのうち日英両見出しとも抽出されたものは59対(80\%)であった.74対のうち抽出されなかった日本語7件,英語9件を表\ref{tab:notExtracted}に示す.このうち,「疾病」以外の語は,ユニット性は基準値を超えたものの,ターム性において評価値が低く抽出されなかった.「疾病」については,「〜の疾病」という形での出現が多かったため,「疾病」単独でのユニット性が低く,抽出に至らなかった.\begin{table}[p]\input{table2.txt}\par\vspace{\baselineskip}\input{table3.txt}\end{table}\subsection{seedwordリストの作成}\label{sec:experimentSeedWord}実験では,対訳辞書として日英オンライン辞書EDICT\footnote{http://www.csse.monash.edu.au/~jwb/edict.html}を用いた.対象コーパスに100回以上出現する用語対は195組あったが,その中から,見出し語と訳語の類似度$\mathit{Sim}(\mathit{Cmat}(t^{J}_{i}),\mathit{Cmat}(t^{E}_{i}))$が見出し語と訳語以外のすべての用語の類似度より高い値となる129組の用語対を抽出し,seedwordリストを作成した.129組のうち,少なくとも日英いずれかの方向に複数訳語を持つ用語対は111組,両方向に複数訳語を持つ用語対は55組あった.また,反対に,1対1の対応関係にある用語対でも抽出されなかったものが20組あった.表\ref{tab:pluralTranslations}はEDICT中に複数訳語を持つseedwordの例である.これらの用語は複数の訳語候補を持つものの,遺伝子分野においては,ほぼ一意に対応付けられる用語のペアである.提案手法では,このような語を掬い上げ,seedwordとして有効に利用することが可能になる.\begin{table}[b]\input{table4.txt}\end{table}\subsection{日英PAJコーパスを用いた専門用語の訳語推定}\label{sec:experimentPAJ-PAJ}次に,日英PAJコーパスと\ref{sec:experimentTerm},\ref{sec:experimentSeedWord}で得られた用語およびseedwordを用いて,訳語推定実験を行った.対象となる用語は,日英とも専門用語として抽出されたJapio辞書見出し59対を含む日本語1,013件と英語1,034件である.対応付け結果の例を表\ref{tab:alignTerm}に示す.各日本語の候補語に対して,英語の候補語を類似度の順に表示している.太字がJapio辞書における正解訳語である.\begin{table}[t]\input{table5.txt}\end{table}\begin{table}[t]\input{table6.txt}\end{table}日英(JE)および英日(EJ)方向に訳語対応付けを行った結果を表\ref{tab:PAJ-PAJ}に示す.Japio辞書見出し59件に対して3人の翻訳者による評価(HC)\footnote{3人の評価者が個別に評価を行い,3人で一致したものを正解とした.}を行ったところ,第1候補が正解となったものは日英で31件(53\%),英日で39件(66\%)であった.また,10位以内に正解があったものは日英49件(83\%),英日53件(90\%)となった.さらにJapio辞書訳語と比較したところ,HCによる正解訳語がJapio辞書訳語より上位に来たものは,日英12件,英日15件あった.\begin{table}[t]\input{table7.txt}\end{table}\begin{table}[t]\input{table8.txt}\end{table}Japio辞書訳語と翻訳者による評価(HC)で評価が異なった訳語を表\ref{tab:JapioHC_EJ}および表\ref{tab:JapioHC_JE}に示す.Japio辞書訳語,人手評価による正解訳語ともに訳語として妥当であるが,後者の方がコーパスでの使われ方を反映したものになっている.例えば``mammalian''の訳語として,Japio辞書訳語の「哺乳類」が19位で抽出されているのに対して,「哺乳動物」は1位で抽出されているが,テストコーパスでの出現頻度を見ると「哺乳類」141回,「哺乳動物」360回と「哺乳動物」の方が多かった.また,日英の対応付けでは,「付着」``adhere'',「突然変異」``mutate''のように日本語のサ変名詞に対して英語の動詞が対応付けられる例が多かった.これは,日本語では名詞連続が多用されるのに対して英語では文で記述されることが多いという,日英の特性からくるものと考えられる.正しい対応づけができなかった原因は大きく2つに分類される.\begin{enumerate}\item正解訳語と包含関係にある用語が抽出される\item正解訳語の関連語が抽出される\item用語の概念範囲が広く,複数の訳語候補が存在する\end{enumerate}(1)の例としては,「哺乳類」に対して``mammaliancell''が2位に抽出されたケースがある(正解の``mammalian''は207位).今回の実験ではすべての用語を同等に扱ったが,正解訳語と包含関係にある用語の抽出を抑制するためには,用語が部分文字列として出現した場合と単独で出現した場合とでカウント方法を変えるなど,構成要素に着目した評価値を導入する必要がある.また,共通する単語(列)を持つ用語は,訳語どうしも共通する単語(列)を持っていることが多いので,対応付けに有効な情報として利用していきたい.(2)の例としては,「成長」と``hormone'',「発現」と``gene''などがある.反義語や類義語,主語と述語のように,対訳ではないが同じ文脈に頻繁に出現する用語が抽出されている.このような現象は,提案手法が用語とseedwordとの共起の類似度を用いて訳語を推定していることから,必然的に起こりうるものである.しかしながら,対応付ける品詞の組を制限したり,他の用語の訳語推定結果を利用したりすることによって,関連語の抽出をある程度抑制できるのではないかと考えている.(3)の例としては,``template'',``variety'',「適用」「要素」「移動」などがある.これらの用語は,用語が広い概念を持ち,用いられる文脈によって訳語が変化するため,訳語の同定は困難である.こうした用語については日英,英日両方向での訳語対応付けを行い,その結果を総合的に判断するなどの方法を検討したい.\subsection{PAJとUSPを用いた専門用語の訳語推定}\label{sec:experimentPAJ-USP}PAJの日本語抄録と同分野のUSPを用いて,訳語の対応付け実験を行った.まず,4.2と同様の条件でUSPから用語抽出を行ったところ,885件の用語が抽出された.PAJ日本語抄録の1,013件とこの885件の組み合わせで,Japio辞書との重複は58件であった.次に,PAJ,USP両コーパスで専門用語として抽出された58件を含む日本語1,013件と英語885件の対応付けを行った.結果を表\ref{tab:PAJ-USP}に示す.いずれの値も,PAJどうしでの対応付けと比べて精度が低下している.これは,PAJがアブストラクト単位で内容が一致しているコンパラブルコーパスであるのに対して,PAJとUSPでは分野が一致するのみで,用語の出現する文脈の類似度が下がるためである.不正解の原因はPAJどうしの場合と同様であるが,「1.正解訳語と包含関係にある用語が抽出される」に分類されるものがやや多かった.\begin{table}[b]\input{table9.txt}\end{table}\subsection{関連手法との比較}提案手法の妥当性を検証するために,\ref{sec:experimentPAJ-PAJ}および\ref{sec:experimentPAJ-USP}のデータセットに対して,以下の4種類の手法を用いて訳語対応付けの実験を行った.\begin{itemize}\itemSW1:提案手法により獲得されたseedwordを用いる.\itemSW2:SW1のseedwordのうち,上位X件(SW3と同数)を用いる.\itemSW3:\cite{Fung_and_McKeown97}の手法により獲得されたseedwordを用いる.\itemP:PAJの文対応をとり,dice係数を用いて用語ペアの同時出現確率を求める(\cite{Smadja96}).\end{itemize}SW1は提案手法,SW3はコンパラブルコーパスを用いた訳語対応付けの代表的な手法である\cite{Fung_and_McKeown97}の手法である.SW3では,コーパス中に規定回数以上出現する対訳辞書データのうち,日英両方向(あるいは,少なくともどちらか一方向)に一意に決まる用語対のみをseedwordとして抽出していることから,獲得されるseedword数が少なくなる傾向がある.そこで,SW1で獲得されたseedword群からSW3と同数のseedwordを抽出したSW2も加えてseedwordの効果を比較した.また,PAJは比較的対応の取れたコーパスであることから,簡単な文対応付けを行い,パラレルコーパスの手法を用いた用語対応付けも行った(P).今回の実験では,SW3で獲得されたseedword数はPAJどうしで38対,PAJとUSPでは33対となった.38対のseedwordを比較したところ,SW2とSW3の重なりは13件にとどまり,SW3では複合語が多いことが分かった.例えばSW2ではともに複数訳語を持つ``cancer''--\linebreak[4]「癌」{\kern-0.5zw}\footnote{EDICTでは``cancer''には「癌」のほかに「蟹座」「キャンサー」の訳があり,「癌」には``cancer''のほかに``curse''の訳がある.}が抽出されるのに対して,SW3では日英両方向に曖昧性のない``cancercell''--{\kern-0.5zw}「癌細胞」が抽出される.しかしながら,特許のように分野が細分化されている場合,辞書では複数訳語が存在しても,特定の分野では一意に訳語が決定できる場合が少なくない.実際に,遺伝子分野のコーパスで``cancer''を「癌」以外に訳すことはまれであり,結果として``cancer''--{\kern-0.5zw}「癌」は``cancercell''--{\kern-0.5zw}「癌細胞」と同様に曖昧性がなく,かつ``cancercell''--{\kern-0.5zw}「癌細胞」よりも出現数が多いseedwordであるということになる.\begin{table}[b]\input{table10.txt}\end{table}\begin{table}[b]\input{table11.txt}\vspace{-1\baselineskip}\end{table}PAJどうしでの対応付けの結果を表\ref{tab:compPAJ-PAJ}に,PAJ日本語とUSPでの対応付けの結果を表\ref{tab:compPAJ-USP}に示す.どちらの場合も,第1候補の正解率はSW1が最も高く,ついで,SW2,SW3となった.第10候補までの正解率も同様である.以上のことから,対象コーパスでの振る舞いによってseedwordを選択することは訳語の抽出精度に効果があることが確認できた.それに対してSW1とPとの比較ではPの正解率が高く,PAJのように対応度の高いコーパスではパラレルコーパスの手法が有効であることが分かった.提案手法においても第10候補内に83〜90%の正解訳語を含んでいることから,人間の辞書作成を支援するツールとしては十分に効果があると考えるが,実際の辞書構築では,コーパスの対応度に応じて適用する手法を選択していくことが重要であろう. \section{まとめ} 本論文では,日英特許コーパスから専門用語を抽出し,訳語を推定する方法を提案した.提案手法の専門用語の抽出は,隣接文字(単語)の分散によって単語列のユニット性を,$\mathit{tf}\bullet\mathit{idf}$によってターム性を数値化し,評価値の高い単語列を専門用語として抽出する.専門用語の訳語対応付けは,seedwordと専門用語との単言語内での共起ベクトルを作成し,共起ベクトルの類似度が高い用語どうしを対応付ける.seedwordに両言語のコーパスにおける出現傾向が類似している用語対だけを利用することにより,類似性評価の信頼性を高めている点が特徴である.遺伝子分野の特許抄録1年分を用いた実験では,一連の対訳辞書作成プロセスにおいて提案手法が有効であることを示した.一方で,今回の実験では頻度100以上の用語を対象としたが,実際に翻訳などの処理に十分な量の対訳辞書を作成するには,さらに低頻度の用語にまで対象を拡げていく必要がある.専門用語抽出においては,低頻度の用語であっても抽出可能であることが確認されたが,訳語対応付けでは,seedwordとの共起ベクトルを作成することから,ある程度の出現頻度がなければ実用的な推定精度を出すことは難しい.抽出対象の拡大に際しては,精度低下を最小限に抑える工夫が必要になる.具体的には,高頻度の用語どうしの対応付けにより抽出された用語対を対訳辞書に追加し,そこから再帰的にseedwordを獲得して,出現頻度の閾値を段階的に下げた用語に対して訳語対応付けを行っていく方法が考えられる.訳語対応付けの場合,順位付けられた訳語候補の中から人間が適切な訳語を選択することになるので,このような方法でも辞書作成の効率化には十分効果があると考えている.さらに,特許のように新しい文書が次から次へと蓄積されていく分野では,元になるテキストに一定期間蓄積したテキストを随時追加し,用語抽出,および,対応付けを繰り返し行うことにより,次々に出現する新語や1年分のテキストでは抽出対象とならなかった用語を獲得することが可能になる.今後は,専門用語抽出及び訳語対応付けの精度向上を図るとともに,1)専門用語対訳辞書の増強,2)seedwordの品質向上,3)訳語対応付け精度向上,というサイクルを確立し,本格的な専門用語対訳辞書の構築支援に取り組んでいきたい.\acknowledgment本研究を進めるにあたり,データをご提供頂いた財団法人日本特許情報機構(Japio)殿,有益な議論をして頂いたアジア太平洋翻訳協会AAMT/Japio研究会のメンバー,情報通信機構(NICT)けいはんな情報通信融合研究センター自然言語グループのメンバーに感謝する.また,本研究は情報通信機構(NICT)平成14年度基板技術研究促進制度に係る研究開発課題「多言語標準文書処理システムの研究開発」の一環として行なわれたものである.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ananiadou}{Ananiadou}{1994}]{Ananiadou94}Ananiadou,S.\BBOP1994\BBCP.\newblock\BBOQAMethodologyforAutomaticTermRecognition\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalConferenceonComputationalLinguistics(COLING94)}.\bibitem[\protect\BCAY{Cao\BBA\Li}{Cao\BBA\Li}{2002}]{Cao_and_Li02}Cao,Y.\BBACOMMA\\BBA\Li,H.\BBOP2002\BBCP.\newblock\BBOQBaseNounPhraseTranslationUsingWebDataandtheEMAlgorithm\BBCQ\\newblockIn{\BemProceedingsofthe19thCOLING}.\bibitem[\protect\BCAY{Dagan\BBA\Church}{Dagan\BBA\Church}{1994}]{Dagan_and_Church94}Dagan,I.\BBACOMMA\\BBA\Church,K.~W.\BBOP1994\BBCP.\newblock\BBOQTermight:IdentifyingandTranslatingTechnicalTerminology\BBCQ\\newblockIn{\BemProceedingsofthe4thConferenceonAppliedNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Frantzi\BBA\Ananiadou}{Frantzi\BBA\Ananiadou}{1999}]{Frantzi_and_Ananiadou99}Frantzi,K.\BBACOMMA\\BBA\Ananiadou,S.\BBOP1999\BBCP.\newblock\BBOQTheC-value/NC-valueMethodforATR\BBCQ\\newblock{\BemJournalofNLP},{\Bbf6}(3),\mbox{\BPGS\145--179}.\bibitem[\protect\BCAY{Fung\BBA\McKeown}{Fung\BBA\McKeown}{1997}]{Fung_and_McKeown97}Fung,P.\BBACOMMA\\BBA\McKeown,K.\BBOP1997\BBCP.\newblock\BBOQFindingTerminologyTranslationsfromNon-parallelCorpora\BBCQ\\newblockIn{\BemProceedingsoftheFifthWorkshoponVeryLargeCorpora}.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{Fung_and_Yee98}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAnIRApproachforTranslatingNewWordsfromNonparallel,ComparableTexts\BBCQ\\newblockIn{\BemProceedingsofthe36thconferenceonAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Gale\BBA\Church}{Gale\BBA\Church}{1993}]{Gale_and_Church93}Gale,W.~A.\BBACOMMA\\BBA\Church,K.~W.\BBOP1993\BBCP.\newblock\BBOQAProgramforAligningSentencesinBilingualCorpora\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\75--102}.\bibitem[\protect\BCAY{Kitamura\BBA\Matsumoto}{Kitamura\BBA\Matsumoto}{2004}]{Kitamura_and_Matsumoto04}Kitamura,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQPracticalTranslationPatternAcquisitionfromCombinedLanguageResources\BBCQ\\newblockIn{\BemProceedingsofTheFirstInternationalJointConferenceonNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Kupiec}{Kupiec}{1993}]{Kupiec93}Kupiec,J.\BBOP1993\BBCP.\newblock\BBOQAnAlgorithmforFindingNounPhraseCorrespondencesinBilingualCorpora\BBCQ\\newblockIn{\Bemproceedingsofthe31stAnnualConferenceoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Rapp}{Rapp}{1999}]{Rapp99}Rapp,R.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationofWordTranslationsfromUnrelatedEnglishandGermanCorpora\BBCQ\\newblockIn{\BemProceedingsof37thAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Shimohata,Sugio,\BBA\Nagata}{Shimohataet~al.}{1997}]{Shimohata97}Shimohata,S.,Sugio,T.,\BBA\Nagata,J.\BBOP1997\BBCP.\newblock\BBOQRetrievingCollocationsbyCo-occurrencesandWordOrderConstraints\BBCQ\\newblockIn{\BemProceedingsof35thAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Smadja}{Smadja}{1993}]{Smadja93}Smadja,F.\BBOP1993\BBCP.\newblock\BBOQRetrievingCollocationsfromText:Xtract\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\143--177}.\bibitem[\protect\BCAY{Smadja\BBA\Hatzivassiloglou}{Smadja\BBA\Hatzivassiloglou}{1996}]{Smadja96}Smadja,F.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP1996\BBCP.\newblock\BBOQTranslatingCollocationsforBilingualLexicons:AStatisticalApproach\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2003}]{Utiyama_and_Isahara03}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQReliableMeasuresforAligningJapanese-EnglishNewsArticlesandSentences\BBCQ\\newblockIn{\BemProceedingsof41stAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{下畑}{下畑}{2005}]{Shimohata05}下畑さより\BBOP2005\BBCP.\newblock\JBOQ特許翻訳における専門用語辞書構築\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集}.\bibitem[\protect\BCAY{宇津呂\Jetal}{宇津呂\Jetal}{2005}]{Utsuro05}宇津呂武仁\Jetal\BBOP2005\BBCP.\newblock\JBOQ日英関連報道記事を用いた訳語対応推定\JBCQ\\newblock\Jem{言語処理学会論文誌},{\Bbf12}(5),\mbox{\BPGS\43--69}.\bibitem[\protect\BCAY{中川\JBA湯本\JBA森}{中川\Jetal}{2003}]{Nakagawa03}中川裕志\JBA湯本紘彰\JBA森辰則\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{言語処理学会論文誌},{\Bbf10}(1),\mbox{\BPGS\27--45}.\end{thebibliography}\begin{biography}\bioauthor{下畑さより}{1988年同志社大学文学部英文学科卒業.2007年3月神戸大学大学院自然科学研究課博士後期過程単位取得後満期退学.現在,沖電気工業株式会社ユビキタスサービスプラットフォームカンパニー所属.機械翻訳を中心とする自然言語処理の研究開発に従事.言語処理学会,情報処理学会,人工知能学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部卒業,1980年同大学院修士課程終了.同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.現在,独立行政法人情報通信研究機構(旧通信総合研究所)けいはんな情報通信融合研究センター自然言語処理グループリーダー.博士(工学).自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,日本認知科学会,各会員.}\end{biography}\biodate\end{document}
V28N01-08
\section{はじめに} \label{sec:introduction}文法誤り訂正(GrammaticalErrorCorrection,GEC)は,テキスト中に含まれる様々な種類の誤りを自動的に訂正するタスクである.文法誤り訂正技術は作文支援や言語学習者支援など幅広い応用が期待されることから,自然言語処理における主要な応用タスクの一つとなっている.特に,英語を対象とした文法誤り訂正タスクでは,CoNLL-2014データセット(以下,CoNLL-2014)\shortcite{Ng:14:CoNLLST}を用いて文法誤り訂正モデルの評価を行うことで盛んに研究開発が進んできた\shortcite{Junczys-Dowmunt:16:EMNLP,Chollampatt:18:AAAI,lichtarge2019corpora,zhao2019improving,kiyono-etal-2019-empirical}.一方で,文法誤り訂正モデルの性能評価に関してはタスクの性質上不十分な可能性が高い.文法誤り訂正タスクの入力には書き手の習熟度・母語・エッセイトピックなどの条件によって様々なバリエーションのある文が想定され,タスクの難易度は各条件下によって異なる.しかし,既存研究の多くは1つまたは2つのコーパスを用いた限定的な条件でのみ評価を行う傾向がある\shortcite{mizumoto-matsumoto-2016-discriminative,ji:2017:nested,junczys:2018:NAACL,lichtarge2019corpora}.実際,Grammarly\footnote{\url{https://www.grammarly.com/}}やGinger\footnote{\url{http://www.getginger.jp/}}など文法誤り訂正技術の実サービスでは,特定の条件ではなく任意の条件を入力として想定する場合が多い.仮に,難易度に依存して異なるコーパス間でモデルの評価にばらつきが生じた場合,単一コーパスによる評価ではある特定の条件でのみ成立する限定的な議論しか行うことができないため,評価の方法論として不十分である.そこで本研究では,文法誤り訂正の評価の方法論として,既存の単一コーパスによる評価は不十分であるという仮説に基づき,コーパス横断評価の必要性について調査する.ここでコーパス横断評価とは,単一の評価尺度と複数のコーパスを用いて,モデルを多角的に評価することと本研究では定義する.上記仮説を検証するにあたり,4種類の手法(LSTM,CNN,Transformer,SMT)を6種類のコーパス(CoNLL-2014,CoNLL-2013,FCE,JFLEG,KJ,BEA-2019)を用いて評価実験を行った結果,コーパス毎にモデル順位が大幅に変動した.そのため,タスクの性質上,文法誤り訂正モデルは複数のコーパスを用いて横断的に評価を行うことが重要である.また,横断評価は実応用を見据えた場合においても有用であると考えられる.そこで,横断評価の有用性を検証するために,文法誤り訂正の入力に想定される代表的な条件の一つである書き手の習熟度を評価セグメントとした場合の横断評価を行った.その結果,書き手の習熟度が初中級レベルと上級レベル間ではモデルの性能評価に関して大きな乖離があることがわかった.本研究の貢献は次の3点である.\vspace{0.5\Cvs}\begin{itemize}%%%%\vspace{3mm}%%%%\setlength{\itemsep}{1mm}\item初めて文法誤り訂正モデルのコーパス横断評価の必要性について調査した.\item既存の単一コーパス評価では文法誤り訂正モデルの評価として信頼性に欠ける可能性があることを示した.\item書き手の習熟度が初中級レベルと上級レベル間ではモデルの性能評価に関して大きな乖離があることを示した.%%%%\vspace{3mm}\end{itemize}%%%%%%%%%%%%%%Section2%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} label{sec:related}表~\ref{tab:existing_eval}に,既存研究が使用した評価データセットおよび評価尺度の概要を示す.\ref{sec:introduction}~節でも述べた通り,既存手法の多くは単一コーパスのみを用いて評価を行っている\shortcite{susanto-etal-2014-system,felice-briscoe-2015-towards,Junczys-Dowmunt:16:EMNLP,ji:2017:nested}.最近では,文法誤り訂正モデルの文法性および流暢性を評価するために提案されたJFLEGデータセット(以下,JFLEG)\shortcite{Napoles:17:EACL}やBEA-2019SharedTaskで提供されたBEA-2019データセット(以下,BEA-2019)\footnote{データセットの詳細を付録\ref{appendix:bea-2019-dataset}に示す.}の登場により,CoNLL-2014に加えて,JFLEGやBEA-2019を評価データセットとして併用する研究も増えてきている\shortcite{junczys:2018:NAACL,grundkiewicz:2018:NAACL,lichtarge2019corpora,zhao2019improving,kiyono-etal-2019-empirical,kaneko-etal-2020-encoder}.しかし,表~\ref{tab:existing_eval}から,それらの多くは評価データ毎に異なる評価尺度を独立的に用いて評価を行っているため,コーパス横断的にモデルの評価は行えていないことがわかる.具体的には,CoNLL-2014ではM$^2$\shortcite{dahlmeier:2012:M2}を用いて算出した\fscore{}で評価を行い,JFLEGではGLEU\shortcite{Napoles:15:ACL,napoles:2016:gleu}を用いて評価を行う傾向にある\shortcite{junczys:2018:NAACL,kiyono-etal-2019-empirical,kaneko-etal-2020-encoder}.限定的ではあるが横断評価を行っている数少ない既存研究として,\shortcite{yannakoudakis-etal-2017-neural}が存在する.しかし,そこでは横断評価の必要性および評価の方法論に関する議論はされていないため,その後から現在に至るまで未だに単一評価が主流の傾向にある.コーパス横断評価の目的は,入力の条件を変えた場合における各モデルの挙動を評価することであるが,評価セット毎に独立した評価尺度を用いると,モデルの挙動差が入力に起因するものか,評価尺度に起因するものかの判別が困難になる.このように,文法誤り訂正の研究コミュニティ全体として,利用可能なデータが増えるにしたがって複数のコーパスを使ってモデルの性能評価を行う試みは増えてはいるが,その一方で,実質的には単一的な評価に留まっている傾向にある.また,入力に様々なバリエーションのある文を想定するタスクの性質自体がモデルの性能評価にどのくらい影響を与えるかについても明らかにされていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{07table01.tex}\caption{既存研究が使用した評価データセットおよび評価尺度.ER.はERRANTを示している.}\label{tab:existing_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他分野をみると,例えば構文解析分野では以前はPennTreebank\shortcite{Marcus:93:Journal}上における解析精度を向上させることに重点を置いていた.その後,PennTreebankに加えて,Ontonotes\shortcite{Hovy:06:NAACL}やGoogleWebTreebank\shortcite{Petrov:12:SANCL}を含む複数のコーパスを用いて評価を行うようになり,評価手法の頑健性が大幅に改善されている.我々は文法誤り訂正分野においても構文解析分野と同様の状況が起きていると考える.すなわち,現在の文法誤り訂正の評価はCoNLL-2014に依存しているため,他のコーパスを用いて横断的な評価を行うことで,評価手法の信頼性が向上することが期待される.%%%%%%%%%%%%%%%Section3%%%%%%%%%%%%%%%%%%%%%% \section{調査方針} label{sec:methodology}本研究の目的は,文法誤り訂正の評価の方法論として,単一コーパス評価は不十分であるという仮説に基づき,コーパス横断評価の必要性について調査することである.調査方針として,各コーパス間でモデルの性能順位にばらつきが起こるかを検証する.なぜなら,各コーパスによってモデル順位が大きく変動した場合,単一コーパス上での評価はある特定の条件下でのみ成立することとなり,多様なバリエーションのある文が入力に想定されるタスクの性質上,評価の方法論として不十分であるからである.ここで,理想的には入力に想定されるあらゆる条件を網羅することが好ましいが,リソースの制限があるため全ての条件を網羅するのは困難である.そこで本研究では,可能な限り多くのコーパスを用意することで,代表的な条件である「書き手の習熟度」,「エッセイトピック」,「書き手の母語」について多様性の担保を図る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価用コーパス}\label{subsec:datasets}コーパス横断評価の必要性を検証するにあたり,本研究では既存研究の多くで使用されているCoNLL-2014に加えて,CoNLL-2013,FCE,JFLEG,KJ,BEA-2019の合計6つのコーパスを用いる.以下に,評価実験に用いた各評価用コーパスの詳細を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{CoNLL-2014}\shortcite{Ng:14:CoNLLST}:CoNLL-2014SharedTaskの公式データセットであり,既存研究で最も一般的に使用されている評価用データセットである.シンガポール国立大学の学生が書いたエッセイを基に作られている.シンガポールは英語が公用語のため,書き手の習熟度は比較的高いとされている.なお,シンガポールは多民族国家であるため,母語は一概に定義できない.また,エッセイのトピック数は2つのみである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{CoNLL-2013}\shortcite{Ng:13:CoNLLST}:CoNLL-2013SharedTaskの公式データセットである.CoNLL-2014と同様に書き手の習熟度は比較的高い.また,エッセイトピック数は2つのみである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{CambridgeESOLFirstCertificateinEnglish(FCE)}\shortcite{Yannakoudakis:11:ACL}:ケンブリッジ英検の試験答案を基に作られた学習者コーパスである.様々な国籍の英語学習者が書いたエッセイであるため,学習者の習熟度や母語は多様性がある.また,ケンブリッジ英検のFCE試験は中級から上級レベルと比較的幅広い受験者を対象としていることから,書き手の習熟度も中・上級レベルであると考えられる.なお,エッセイのトピック数は10である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JHUFLuency-ExtendedGUGcorpus(JFLEG)}\shortcite{Napoles:17:EACL}:様々な国籍の非母語話者が書いた英語答案を基に作られた学習者コーパスである.書き手の習熟度,母語,エッセイトピックともに多様性を担保するよう設計されている.また,文法的になるだけでなく流暢な文になるように訂正されていることも本コーパスの特徴の一つである.そのため,最近の研究では,モデルがどれだけ流暢性のある訂正ができているかを評価するためのベンチマークデータセットとして使用されることが多い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Konan-JIEMlearnercorpus(KJ)}\shortcite{Nagata:11:ACL}:甲南大学と教育測定研究所(JIEM)が共同で収集,アノテーションを行ったコーパスであり,日本人英語学習者の233エッセイから成る.書き手の習熟度に関しては,公開情報がないため定義することは難しい.エッセイのトピック数は10である.なお,他のコーパスと異なり,綴り誤りの情報と文法誤りの情報が別でアノテーションされていることも特徴の一つである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{BEA-2019SharedTaskOfficialDevelopmentSet(BEA-2019)\textmd{:}}BEA-2019SharedTaskで公式に提供されたデータセットである.訓練・開発・評価用のデータセットが提供されており\footnote{\url{https://www.cl.cam.ac.uk/research/nl/bea2019st/}},開発・評価用データセットはW\&I+LOCNESS\shortcite{Yannakoudakis:18:Journal,granger:1998:LEC}のサブセットが使用されている.W\&I+LOCNESSコーパスには,メタ情報として,言語能力を評価する国際指標であるCEFRに対応する書き手の習熟度の情報が付与されているのが特徴の一つである.なお,BEA-2019SharedTaskではCodaLab\footnote{\url{https://competitions.codalab.org/competitions/20228}}上にて評価が行われていたため,公式評価用データセットの参照訂正文は公開されていない.そのため,本評価実験では公式開発用データセットを評価データセットとして使用する.各評価用コーパスの特徴を整理したものを表~\ref{statics}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{07table02.tex}\caption{各評価コーパスの概要.公開情報がなく判断が難しいものはN/Aとしている.}\label{statics}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,単語編集率は以下の式により算出した.\[\mbox{単語編集率}=\frac{\sum_{i=1}^{N}d(\bm{X}_i,\bm{Y}_i)}{\sum_{i=1}^{N}\bm{T}_i}\]ここで,$\bm{T}_i$は各入力文における総単語数,$d(\bm{X}_i,\bm{Y}_i)$は入力文$\bm{X}_i$と出力文$\bm{Y}_i$間の単語に基づくレーベンシュタイン距離をそれぞれ示している.各コーパスを概観すると,(1)現在主流であるCoNLL-2014は他のコーパスと比較して書き手の習熟度・母語・トピックに偏りがあること,(2)一方,本評価実験で選定した6つのコーパスを用いることで習熟度・母語・トピックの3つの条件において一定の多様性を確保できていることがわかる.なお,\pagebreak綴り誤りは厳密には文法誤りには含まないが,\begin{itemize}\item既存データセットの多くはそれらを区別せずにまとめてアノテーションしている\itemまた,そのようなデータを用いて訓練した機械翻訳モデルに基づく手法も,それらを区別して訂正できない\end{itemize}という理由から,本評価実験においても従来の慣習に従い綴り誤りを含めて評価を行う.そのため,綴り誤りと文法誤りが別でアノテーションされているKJに関しては,統合処理したものを評価実験に使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練用コーパス}\label{subsec:train_datasets}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{NAISTLang-8LearnerCorpora(Lang-8)}\shortcite{Mizumoto:11:IJCNLP,Tajiri:12:ACL}:奈良先端科学技術大学院大学の研究チームが開発した,語学学習のためのSNSLang-8の添削ログからクローリングして作られたデータである.データサイズはおよそ200万文対で,一般利用可能な文法誤り訂正用のデータとしては最大規模のものである.書き手である学習者の母語としては日本語が多いが,他の言語を母語とする学習者の英文も数多く含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{NUSCorpusofLearnerEnglish(NUCLE)}\shortcite{Dahlmeier:13:BEA}:シンガポール国立大学の研究チームが開発したデータセットであり,シンガポール国立大学の学生が書いたエッセイを基に作られている.データサイズはおよそ6万文対で,Lang-8には劣るが,専門家によってアノテーションされているため,訂正の品質はよいとされている.エラータグも人手で付与されており,CoNLL-2013,CoNLL-2014の両SharedTaskの公式訓練データセットとして採用された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{07table03.tex}\caption{各訓練用コーパスの概要.公開情報がなく判断が難しいものはN/Aとしている.}\label{train_statics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各訓練用コーパスの特徴を整理したものを表~\ref{train_statics}に示す.NUCLEは,CoNLL-2014およびCoNLL-2013と書き手の属性が同じことから,習熟度および母語の観点で非常にドメインが似ているといえる.また,Lang-8は日本語を母語とする学習者の書いた英文を多く含んでいるため,書き手の母語という観点でKJとドメインが似ているといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訂正モデル}文法誤り訂正モデルの選定については,(1)現在主流であり,かつ複数の誤りを訂正可能な機械翻訳モデルに基づくモデルであること,(2)CoNLL-2014上において各モデルの性能は同程度であること,の2つの要件を設けた.1つ目の要件に関しては,本研究は,現在の文法性誤り訂正の評価の方法論に対する問題提起を行うことを目的としているため,古典的なモデルではなく,現在主流,かつ一般的な設定のモデルを用意することが望ましいからである.2つ目の要件に関しては,コーパス横断評価の必要性に関する着想として,\textbf{入力に様々なバリエーションのある文を想定するタスクの性質がモデルの評価に対して無視できない影響を与えるのではないか},という考えがあるからである.基準となる現在主流のCoNLL-2014上において各モデルの性能差に大差がある場合,実験結果に対する解釈を行う上でタスクの性質に起因した影響なのかどうかの判断が困難になるため,2つ目の要件を設けた.以下に,評価実験に用いた各モデルの詳細について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{LSTM:}エンコーダは双方向LSTMで構成され,デコーダと注意機構は\shortcite{luong-pham-manning:2015:EMNLP}のseq2seqモデルに準拠している.なお,単語埋め込みの事前学習にはEnglishWikipediaを用いており,ハイパーパラメータは\shortcite{Chollampatt:18:AAAI}と同じものを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{CNN:}\shortcite{Chollampatt:18:AAAI}の実装\footnote{\url{https://github.com/nusnlp/mlconvgec2018}}を用いた.なお,単語埋め込みの事前学習にはEnglishWikipediaを用いており,ハイパーパラメータは\shortcite{Chollampatt:18:AAAI}と同じものを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Transformer:}Transformerは\shortcite{Vaswani:17:NIPS}によって提案された自己注意型モデルである.本研究では,seq2seqモデルのツール{\ttfairseq}の実装\footnote{\url{https://github.com/pytorch/fairseq}}を用いた.なお,単語埋め込みの事前学習にはEnglishWikipediaを用いており,ハイパーパラメータは\shortcite{Vaswani:17:NIPS}と同じものを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{SMT:}\shortcite{Junczys-Dowmunt:16:EMNLP}によって提案されたモデルを採用した.モデル訓練時に評価尺度である\fscore{}が高くなるようにパラメータのチューニングを行うことで大幅な性能向上が報告されている\shortcite{Junczys-Dowmunt:16:EMNLP}.具体的には,\shortcite{Junczys-Dowmunt:16:EMNLP}の実装\footnote{\url{https://github.com/grammatical/baselines-emnlp2016}}を用いた.なお,\shortcite{Junczys-Dowmunt:16:EMNLP}は,言語モデルの訓練にCommonCrawl\shortcite{buck-etal-2014-n}とEnglishWikipediaを用いていたが,本評価実験ではNMTに基づく各モデルと使用するデータの設定を可能な限り等しくするため,言語モデルの訓練にEnglishWikipediaのみを,翻訳モデルの訓練にNUCLEおよびLang-8を使用した.各モデル共通の実験設定は次の通りである.訓練データとして,Lang-8およびNUCLEの2つのパブリックなデータセットを統合したものを用いた.訓練データセットの前処理および分割は\shortcite{Chollampatt:18:AAAI}に従い,最終的に開発データセットとしてNUCLEのサブセット5,448文対,訓練データとしてNUCLEの残り15,974文対およびLang-81,283,529文対の合計1,299,503文対を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価尺度}評価尺度には,これまで文法誤り訂正タスクで最もよく利用されているM$^2$およびGLEUを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{M$^2$}\shortcite{dahlmeier:2012:M2}:M$^2$によって算出されたF$_{0.5}$値がCoNLL-2013,2014SharedTaskの公式採用されて以降,文法誤り訂正タスクの評価尺度として最も一般的に用いられている(表\ref{tab:existing_eval}参照).M$^2$が登場する以前の文法誤り訂正の評価では,訂正モデルが行った編集操作がどのくらい参照訂正文の編集と一致しているかをF値で評価していた\shortcite{dale-kilgarriff:2011:ENLG,dale-anisimoff-narroway:2012:BEA}.しかし,長いフレーズの編集が必要な場合などに訂正モデルを過小評価してしまうという問題があった.M$^2$は``editlattice''を用いることにより,モデルが行った編集操作を正解と最大一致するように同定することでこの問題を解決する.ここで,M$^2$を計算するツールとして,M$^2$Scorer\shortcite{dahlmeier:2012:M2}\footnote{\url{https://github.com/nusnlp/m2scorer}}とERRANT\shortcite{bryant:2017:automatic,felice:2016:automatic}\footnote{\url{https://github.com/chrisjbryant/errant}}の2つが存在する.M$^2$Scorerでは,誤りタイプ別の評価においてはrecallしか算出できず,エラー分析が難しいという問題があった.一方で,ERRANTでは入力文とモデル出力のパラレルデータから,モデル出力に対して誤りのタイプを約96\%という高い精度で自動付与することでこの問題を解決する.これにより,誤りタイプ別の訂正性能を評価することができ,モデルがどの誤りタイプに強い・弱いかについてエラー分析可能となる.また,どこからどこまで1つの編集と見なすかという``editextraction''の方法がM$^2$ScorerとERRANTとでは異なるため,算出されるF$_{0.5}$値も異なる.本研究では,評価ツールの違いが横断評価にどのように影響するかについて分析するために,M$^2$Scorerを用いて算出したF$_{0.5}$値(以降,M$^2$と表記する)とERRANTを用いて算出したF$_{0.5}$値(以降,ERRANTと表記する)の両方を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{GLEU}\shortcite{Napoles:15:ACL,napoles:2016:gleu}:機械翻訳タスクで最も一般的な評価尺度であるBLEU\shortcite{papineni-EtAl:2002:ACL}を文法誤り訂正用に改良した評価尺度である.GLEUは,モデル出力文($H$)と参照訂正文($R$)で一致するn-gram数から,入力文($S$)に現れるが参照文に現れないn-gram数を減算することによって計算される.形式的には次式で表される.\begin{eqnarray}{\rmGLEU+}={\rmBP}\cdot\exp(\sum_{n=1}^{4}\frac{1}{n}\log(p_n\prime))\\p_n\prime=\frac{N(H,R)-[N(H,S)-N(H,S,R)]}{N(H)}\end{eqnarray}ただし,$N(A,B,C,...)$は集合間でのn-gram重なり数を表し,BPはBLEUと同様のbravepenalty\footnote{bravepenaltyは入力文に対して出力文が短い場合にn-gram適合率を減点する項である.}を表す.M$^2$を含む,これまでに提案された文法誤り訂正の評価尺度の中では最も人手評価との相関が高いことが知られている\shortcite{Napoles2016}.実験結果として報告するのは4つのランダムシードを用いて訓練したモデル性能の平均値である%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-1ia7f1.pdf}\end{center}\caption{$M^2$を用いて算出した\fscore{}に基づき順位付けされたモデル性能.}\label{f05_ranking}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Section4%%%%%%%%%%%%% \section{コーパス横断評価} \label{sec:result}図~\ref{f05_ranking}にM$^2$を用いて算出した\fscore{}に基づき順位付けされた各モデルの性能を示す.この図から,モデルの性能順位が各コーパスによって大きく変動していることが確認できる.これまで多くの研究が評価に用いていたCoNLL-2014では,Transformerが48.62ポイントと最も高い性能を出している.一方で,FCEやKJでは順位が全体的に大きく変動しており,Transformerは3位に転じている.順位が逆転した根本原因については,書き手の習熟度や母語,エッセイトピックなど様々な要因が複合的に関係していると予想されるため一概に言えない.しかし本評価実験の結果から,CoNLL-2014上の性能値に基づく議論は特定の条件下でしか成立しない可能性があり,CoNLL-2014での結果を不用意に一般化してしまうと誤った結論を導く危険性があることが示唆される.さらに,図~\ref{f05_ranking}から,モデルの性能はコーパスによって大きく異なることが確認できる.例えば,Transformerの性能は,JFLEGでは60.06ポイントであるのに対し,CoNLL-2013では36.20ポイントと大きく下回っている.このように,コーパスによって性能は大きく変動するため,見た目の性能値の解釈には十分に注意する必要がある.実際のモデル出力を表~\ref{example_Conll-2014}および表~\ref{example_KJ}に示す.Transformerを用いることで正しい訂正ができる場合(表~\ref{example_Conll-2014})もあれば,逆にTransformerでは正しい訂正に失敗し,LSTMやCNNを用いることで正しい訂正ができている場合(表~\ref{example_KJ})があることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{07table04.tex}\hangcaption{CoNLL-2014におけるモデル出力例.括弧の中の数値はCoNLL-2014におけるモデル順位を示している.また,\textbf{[DEL]}は削除操作を示している.}\label{example_Conll-2014}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{07table05.tex}\hangcaption{KJにおけるモデル出力例.括弧の中の数値はKJにおけるモデル順位を示している.また,\textbf{[DEL]}は削除操作を示している.}\label{example_KJ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-1ia7f2.pdf}\end{center}\caption{GLEUに基づき順位付けされたモデル性能.}\label{gleu_ranking}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,図~\ref{gleu_ranking}にGLEUに基づき順位付けされた各モデルの性能を示す.GLEUに基づく評価においてもM$^2$を用いたときと同様にコーパスによってモデル順位が変動することが確認できる.一方で,M$^2$を用いたときよりもTransformerが安定的に性能が高い傾向になっていることがわかる.GLEUは,基本的に入力文・モデル出力・参照訂正文の3つにおけるn-gram一致率を基に計算されるが,入力文において変更すべき箇所が変更できていなかったn-gramに対してペナルティを与えている\shortcite{napoles:2016:gleu}.そのため,Recallが高いモデルを高く評価する傾向にあると解釈ができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{28-1ia7f3.pdf}\end{center}\caption{ERRANTによる\fscore{}に基づき順位付けされたモデル性能.}\label{errant_ranking}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{07table06.tex}\hangcaption{M$^2$ScorerとERRANTの評価方法の違い.表中のTP/FP/FNはそれぞれ,Truepositive/Falsepositive/Falsenegativeを示している.}\label{example_verbose}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,図~\ref{errant_ranking}にERRANTを用いて算出した\fscore{}に基づき順位付けされた各モデルの性能を示す.ERRANTに基づき順位付けされたモデル性能をみると,どのコーパスにおいてもLSTMが最も性能が高くなっていることが確認できる.同じ\fscore{}に基づいた評価にも関わらず,評価尺度が異なるだけで傾向が大きく異なるのは着目に値する\footnote{ERRANTを用いれば単一コーパス評価でよいのかについては,\ref{sec:case_study}節に示すケーススタディと合わせて議論する.}.これらの傾向の違いは両評価尺度の計算方法の違いに起因すると考えられる.表~\ref{example_verbose}はCoNLL-2014におけるモデル出力に対するM$^2$およびERRANTで評価したときの実例である.ERRANTでは,連続するスパンで訂正が発生した場合,一単語区切りで評価を行っていることがわかる([your→the],[chance→possibility]).一方,M$^2$では,連続するスパンで訂正が発生した場合,一定のスパン区切りで評価を行っていることがわかる([yourchance→thepossibility]).以上のことから,ERRANTはM$^2$と比較してFPが増えやすい傾向にあるといえる.実際,CoNLL-2014におけるTransformerを評価した場合,M$^2$による評価ではFPは合計713個カウントされていたが,ERRANTによる評価では合計900個カウントされていることを確認した.このように,全く同じデータセットおよびモデルを用いたにも関わらず,評価尺度によってモデルの性能順位の傾向が大幅に異なることがわかる.言い換えると,どういうモデルを得たいか,あるいは,モデルの何を評価したいかといった目的意識によって適切な評価尺度を設計することが重要であると言える.%%%%%%%%%%%%%Section5%%%%%%%%%%%%%%% \section{分析} \label{sec:analysis}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多様性が確保された単一コーパス評価では十分か?}\ref{sec:result}節の評価実験により,既存の単一コーパス評価は不十分であることを示したが,多様性が確保されたコーパスを用いた場合においても同様のことがいえるか,という疑問が残る.表~\ref{statics}に示す通り,FCE・JFLEG・BEA-2019は多様性が確保されたコーパスであるといえる.ここで,もし多様性が確保された単一コーパス評価で十分であれば,モデルの順位変動は起きないことが期待される.しかし,結果をみると,これらの多様性が確保されたコーパス間で,大幅に順位変動が起きていることがわかる(表~\ref{f05_ranking}).このことは,多様性の確保されたコーパスの設計自体が困難であることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{順位変動はなぜ起きたか?}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{分析1.誤りタイプ別性能評価(CoNLL-2014):}図~\ref{conll_best}に,ERRANTを用いてCoNNLL-2014における主要な誤りタイプ別のモデル性能\fscore{}を示す\footnote{CoNLL-2014における頻度の高い上位6つの誤りタイプ.}.コーパス横断評価の結果(図~\ref{f05_ranking})では,CoNLL-2014は他と比べてTransformerが最も高い性能を達成していた.しかし,図~\ref{conll_best}から,モデルによって誤りタイプ別性能が異なることが確認でき,モデル毎に訂正傾向が異なることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{28-1ia7f4.pdf}\end{center}%%%%\subcaption{限定詞[this$\rightarrow$these]}\label{fig:DET}%%%%\subcaption{前置詞[for$\rightarrow$with]}\label{fig:PREP}%%%%\subcaption{句読点[.Because$\rightarrow$,because]}\label{fig:PUNCT}%%%%\subcaption{動詞[grow$\rightarrow$bring]}\label{fig:VERB}%%%%\subcaption{名詞の単複[cat$\rightarrow$cats]}\label{fig:NOUN_NUM}%%%%\subcaption{動詞の時制[eat$\rightarrow$haseaten]}\label{fig:VERB_TENSE}\caption{CoNLL-2014における各モデルの誤りタイプ別性能(\fscore{}).}\label{conll_best}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[p]\input{07table07.tex}\caption{各コーパスにおける誤りタイプ別に最も性能が高かったモデル.}\label{analysis:cross-corpora}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{分析2.誤りタイプ別性能評価(コーパス横断):}次に,CoNLL-2014だけでなく,他の全てのコーパスにおける誤りタイプ別性能について分析する.表~\ref{analysis:cross-corpora}は,各コーパスにおいて誤りタイプ別に最も性能が高かったモデルを示している.この表から,各コーパスによって誤りタイプ別性能にばらつきが起きていることがわかる.図~\ref{conll_best}に示したCoNLL-2014上での分析では,例えば動詞の時制誤りに関してはTransformerが他と比べたときに群を抜いて性能が高かった.一方で,コーパス横断的にみてみると,JFLEGとKJではそれぞれLSTM,CNNのほうが性能が高いことが確認できる.これは,コーパス毎に書き手の習熟度や母語などの影響によって誤り傾向が異なるからだと考えられる.\ref{sec:result}節で述べた通り,コーパス毎にモデル順位が変動した根本原因については,書き手の習熟度や母語,エッセイトピックなど様々な要因が複合的に関係していると予想されるため一概に言えない.しかし,分析1および分析2の結果から,モデル順位変動は,\textbf{訂正傾向が異なるモデル}と\textbf{誤り傾向の異なるコーパス}の組み合わせで生じるということがわかった.%%%%%%%%%%Section6%%%%%%%%%%%%%% \section{横断評価の有用性} \label{sec:case_study}本研究では,メタ評価方法論として,文法誤り訂正モデルをコーパス横断的に評価することの重要性を示してきた.本節では,より実応用を考えた場合の横断評価の有用性について議論する.実応用では,対象とするユーザーや,着目したいモデルの評価観点がある程度絞られることが考えられる.例えば,文法誤り訂正システムを学習者のライティング支援として学校などの教育現場で用いることを考えた場合,書き手の母語や習熟度はある程度絞られており,また,それらの情報をあらかじめ知っているという設定が多いといえる.その際,評価セグメントは多様な観点が混ざり合ったコーパスというセグメントである必然性はなく,着目したい観点に絞った評価セグメントを用いた横断評価を行うことで,より精緻にモデルの挙動を調査することが可能となる.そこで本節では,横断評価の有用性のケーススタディとして,文法誤り訂正モデルの入力として想定される代表的なバリエーションの一つである,\textbf{書き手の習熟度}を評価セグメントに横断評価を行うことで,書き手の習熟度を変えた場合モデルはどのような挙動をするかについて調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{習熟度別データセット}習熟度別に横断評価を行うためにBEA-2019を使用する.\ref{subsec:datasets}節で述べた通り,BEA-2019にはメタ情報として,CEFRに対応した書き手の習熟度情報が付与されている.具体的には,BEA-2019に含まれる各文にはCEFRで定められている3段階のレベル(習熟度が低い順にA・B・Cレベル)および母語話者(N)の合計4レベルの習熟度情報が付与されており,習熟度別の評価が可能となる\footnote{厳密には,習熟度レベル間でトピックが異なり,文長に偏りがあるなど,習熟度レベル以外の要素も含まれる.}.BEA-2019の習熟度別データの特徴を整理したものを表~\ref{bea_statics}に示す.書き手の習熟度が上がるにつれて,文が長くなり(\textbf{平均文長の増加}),コーパス中に含まれる誤りの個数が減少し(\textbf{単語編集率の低下}),使用する語彙サイズが大きくなる(\textbf{異なり語数の増加}),といった傾向があることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{07table08.tex}\caption{BEA-2019における習熟度別評価データセットの概要.}\label{bea_statics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{習熟度横断評価}\label{subsec:bea_proficiency}表~\ref{tab:bea_m2}に,M$^2$を用いて算出したPrecision,Recall,\fscore{}をそれぞれ示す.コーパス横断評価と同様に,モデルの性能順位が各習熟度によって大きく変動していることが確認できる.具体的には,書き手の習熟度が初中級レベル(A,B)に対してはTransformerが他と比べて高い性能を達成している.一方で,習熟度が上級レベル(C,N)に対してはSMTが最も高い性能となり,習熟度間で評価に大きな乖離があることがわかった.また,GLEUを用いて評価した場合も同じような傾向があることが確認できる(表~\ref{tab:bea_gleu}).最近ではNMTに基づく手法が主流となっているため\shortcite{Chollampatt:18:AAAI,lichtarge2019corpora,zhao2019improving,kiyono-etal-2019-empirical,kaneko-etal-2020-encoder},SMTに基づくモデルの性能が他の全てのNMTに基づくモデルの性能よりも高い結果となったのは驚くべき結果と言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{07table09.tex}\hangcaption{BEA-2019習熟度別データセットにおいて,$M^2$を用いて算出したPrecision(P),Recall(R),\fscore{}:\textbf{太字}の値は各評価データセットにおける最高精度を示している.}\label{tab:bea_m2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{07table10.tex}\hangcaption{BEA-2019習熟度別データセットにおけるGLEUスコア:\textbf{太字}の値は各評価データセットにおける最高精度を示している.}\label{tab:bea_gleu}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%習熟度の高いCおよびNレベルでSMTの性能が高い結果となった要因は,単語編集率と誤りの質という観点から説明できる.書き手の習熟度が高い文の特徴として,単語編集率が低い,すなわち修正すべき誤りの割合が少ない点がある(表~\ref{bea_statics}参照).また,CやNレベルにおいて,SMTは他と比べてPrecisionが高くRecallが低い傾向にあると言える(表~\ref{tab:bea_m2}参照).したがって,修正すべき誤りの割合が低いCやNレベルの書き手の文においては,Precisionの高いモデルのほうが高く評価されている.一方で,書き手の習熟度が低いAおよびBレベルの文においては,Recallの高いモデルのほうが高く評価される傾向にある.次に,表~\ref{tab:bea_errant}にERRANTを用いて算出したPrecision,Recall,\fscore{}を示す.表~\ref{tab:bea_errant}から,(1)モデルの性能順位が各習熟度によって大きく変動し,(2)書き手の習熟度が高い文においてはSMTが高く評価される,といったM$^2$を用いたときと一貫性のある結果となった.また,コーパス横断評価(図~\ref{errant_ranking})とは異なり,習熟度横断評価では順位が大きく変動した.そのため,少なくともERRANTを用いれば単一コーパス評価でも十分というわけでないことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{07table11.tex}\hangcaption{BEA-2019習熟度別データセットにおいて,ERRANTを用いて算出したPrecision(P),Recall(R),\fscore{}:\textbf{太字}の値は各評価データセットにおける最高精度を示している.}\label{tab:bea_errant}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これまで文法誤り訂正分野で用いられてきたCoNLL-2014やJFLEGをはじめ,全ての既存評価コーパスでは,概ね書き手の習熟度が初中級レベルのうえでモデルの良し悪しを議論してきた.しかし,上級レベルの書き手を対象に文法誤り訂正モデルを用いて作文支援などを行う場合は,これまで本分野が蓄積してきた知見をそのまま適用するには注意が必要であることが習熟度横断評価を通して明らかになった.%%%%%%%Section7%%%%%%%%% \section{おわりに} 本研究では,多様なバリエーションのある入力文を想定した文法誤り訂正の評価の方法論として,既存の単一コーパス評価では不十分であるという仮説を基に,横断コーパス評価の必要性について調査した.具体的には,4種類の訂正モデルを6種類のコーパス上で横断評価を行い,各コーパス間でモデルの性能順位にばらつきが生じるかについて調査を行った.その結果,コーパス毎にモデル順位が大幅に変動したため,既存の単一コーパス評価では不十分であるということがわかった.さらに,文法誤り訂正の応用を見据えて,入力に想定される代表的な条件の一つとして書き手の習熟度を評価セグメントとした横断評価をケーススタディ的に行った.その結果,書き手の習熟度が初中級レベルと上級レベル間でモデルの性能評価に大きな乖離があることがわかった.文法誤り訂正の方向性として,\textbf{目的指向な方向性}と\textbf{汎用指向な方向性}の二通り考えられる.目的指向な方向性は,特定の習熟度レベルのユーザーのみ対象など,ある特定の条件下で誤りを徹底的に訂正できればよいという立場である.一方で,汎用指向な方向性とは,多様な文が入力文として入ってきた場合でも頑健に訂正したいといった立場である.目的指向な方向性においては,本研究で提案するような,モデルの入力に想定される条件に応じた評価セグメントにて横断評価を行うことで,より精緻な評価が実現可能となる.しかし,汎用指向な方向性の立場に立った場合,訂正モデルを開発するユーザー視点において,可能であれば単一コーパス上でモデルの頑健性を評価できる方が好ましいと考えられる.そのため,今後の研究として,頑健性のある新しい評価尺度も同時に検討していく必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の査読にあたり,著者の不十分な記述などに対してご意見・ご指摘をくださった査読者の方々へ感謝します.本論文の内容の一部は,言語処理学会第25回年次大会\cite{mita_nlp2019}およびThe17thAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies\cite{mita-etal-2019-cross}で発表したものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%A \section{TheBEA-2019公式データセット} \label{appendix:bea-2019-dataset}BEA-2019SharedTaskでは,参加者に以下のデータセットを公式データセットとして提供した:Lang-8\shortcite{Mizumoto:11:IJCNLP,Tajiri:12:ACL},theNationalUniversityofSingaporeCorpusofLearnerEnglish(NUCLE)\shortcite{Dahlmeier:13:BEA},theFirstCertificateinEnglishcorpus\shortcite{Yannakoudakis:11:ACL},W\&I+LOCNESS\shortcite{Yannakoudakis:18:Journal,granger:1998:LEC}.公式データセットは\url{https://www.cl.cam.ac.uk/research/nl/bea2019st/}にて一般利用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{三田雅人}{理化学研究所革新知能統合研究センター自然言語理解チームテクニカルスタッフ.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.日本マイクロソフト株式会社のエンジニアを経て,2018年より現職.同年,東北大学情報科学研究科博士後期課程に進学.文法誤り訂正を中心とした自然言語処理による言語学習/教育支援に関心がある.言語処理学会,ACL各会員.}\bioauthor{水本智也}{2015年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).東北大学情報科学研究科特任助教,理化学研究所AIPセンター特別研究員を経て2019年よりフューチャー株式会社シニアコンサルタント,理化学研究所AIPセンター客員研究員.}\bioauthor{金子正弘}{2016年北見工業大学工学部システム工学科卒業.同年,東京都立大学システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,東京都立大学システムデザイン研究科博士後期課程に進学.}\bioauthor{永田亮}{甲南大学知能情報学部准教授.2005年三重大学大学院博士後期課程修了.兵庫教育大学助手,甲南大学知能情報学部講師を経て,2012年より現職.言語のモデル化,文書の自動添削,解説文の自動生成などの研究に従事.電子情報通信学会,言語処理学会,ACL各会員.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.情報処理学会論文誌編集委員長,同会自然言語処理研究会主査,言語処理学会論文誌編集委員長等を歴任,2020年より言語処理学会副会長.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V19N03-01
\section{はじめに} \label{sec:introduction}検索エンジンの主な目的は,ユーザの情報要求に適合する文書をランキング形式でユーザに提供することである.しかし,情報要求に見合うランキングを実現するのは容易ではない.これは,ユーザが入力するクエリが一般的に,短く,曖昧であり\cite{Jansen2000},ユーザの情報要求を推定するのが困難であることに起因する.例えば「マック\textvisiblespace\hspace{0.1zw}価格」というクエリは,「Mac(コンピュータ)」の価格とも,「マクドナルド」の価格とも,もしくは他の「マック」の価格とも解釈できる.そのため,どの「マック」に関する文書が求められているのか分からなければ,ユーザの情報要求に見合うランキングを実現するのは難しい.このような問題を解決する方法の一つとして,適合性フィードバック\cite{Rocchio1971}がある.適合性フィードバックでは,ユーザから明示的(もしくは擬似的)に得られるフィードバックを利用することで,検索結果のランキングを修正する.具体的には,次のような手続きに従ってランキングの修正を行う.\begin{enumerate}\itemクエリに対する初期検索結果をユーザに提示する.\item初期検索結果中から,情報要求に適合する文書をユーザに選択させる.\item選択された文書(フィードバック)を利用して,初期検索結果のランキングを修正する.\end{enumerate}例えば,「Mac(コンピュータ)」の価格に関する文書がフィードバックとして得られれば,ユーザがこの話題に関心を持っていると推測できる.そして,この情報を基に検索結果のランキングを修正することができる.適合性フィードバックには,ベースとするランキングアルゴリズムに応じて,様々な手法がある.Rocchioの手法\cite{Rocchio1971}やIdeの手法\cite{Ide1971}は,ベクトル空間モデルに基づくランキングアルゴリズム\cite{Salton1975}に対する適合性フィードバックの手法として有名である.確率モデルに基づくランキングアルゴリズム\cite{SparckJones2000}においては,フィードバックを用いて,クエリ中の単語の重みを修正したり,クエリを拡張することができる.言語モデルに基づくランキングアルゴリズム\cite{Ponte1998}に対しては,Zhaiらの手法\cite{Zhai2001}が代表的である.このように適合性フィードバックには様々な手法があるが,それらの根底にあるアイディアは同じである.すなわち,適合性フィードバックでは,フィードバックと類似する文書を検索結果の上位にリランキングする.ここで,既存の手法の多くは,テキスト(フィードバック及び検索結果中の各文書)に表層的に出現する単語の情報だけを用いて類似度を算出している.すなわち,テキストに含まれていない単語の情報は利用していない.しかし,表層的には出現していなくても,そのテキストに潜在的に現れうる単語の情報は,リランキングに役に立ちうると考えられる.上の「マック」の例であれば,仮にフィードバック(この例では「Mac(コンピュータ)」の価格に関する文書)に「CPU」や「ハードディスク」などの単語が含まれていなくても,これらの単語はフィードバックとよく関連しており,潜在的にはフィードバックに現れうる.検索結果中の適合文書(i.e.,「Mac(コンピュータ)」の価格に関する文書)についても同様のことが言える.仮にある適合文書にこれらの単語が含まれていなくても,これらの単語は適合文書によく関連しており,潜在的にはその文書に現れうる.このように,テキストに現れうる単語の情報があれば,フィードバックと検索結果中の各文書との類似度を算出する際に有用であると考えられる.そこで,本稿では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まずLatentDirichletAllocation(LDA)\cite{Blei2003}を用いて,テキストに潜在するトピックの分布を推定する.次に,推定された潜在トピックの分布を基に,各テキストに潜在的に現れうる単語の分布を推定する.そして,推定された潜在的な単語の分布とテキストの表層的な単語の分布の両方を用いて,フィードバックと検索結果中の各文書との類似度を算出し,これを基に検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).以降,本稿では,次の構成に従って議論を進める.\ref{sec:lm_approaches}章では,提案手法の基礎をなす,言語モデルに基づくランキングアルゴリズムについて概説する.\ref{sec:lda}章では,提案手法で使用するLDAについて解説する.\ref{sec:proposed_method}章では,提案手法について説明する.\ref{sec:experiments}章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.最後に,\ref{sec:conclusion}章で,本稿の結論を述べる. \section{言語モデルに基づくランキング} \label{sec:lm_approaches}本章では,言語モデルに基づくランキングアルゴリズムについて概説する.ここで紹介する技術は,\ref{sec:proposed_method}章で説明する提案手法の基礎をなしている.\subsection{概要}言語モデルに基づくランキングアルゴリズムは,三つのタイプに分類できる.すなわち,クエリの尤度に基づく方法\cite{Ponte1998},文書の尤度に基づく方法\cite{Lavrenko2001},カルバック・ライブラー情報量に基づく方法\cite{Lafferty2001}の三つである.クエリの尤度に基づく方法では,文書セット中の各文書$\bm{d}_{h}\(h=1,\dots,H)$について,$\bm{d}_{h}$を表す言語モデル$P_{\bm{d}_{h}}(\cdot)$を構築する.ユーザによってクエリ$\bm{q}$が入力されたら,各文書$\bm{d}_{h}$について,$P_{\bm{d}_{h}}(\cdot)$がクエリを生成する確率$P_{\bm{d}_{h}}(\bm{q})$を計算する.そして,$P_{\bm{d}_{h}}(\bm{q})$が高い順に各文書をランキングする.文書の尤度に基づく方法は,クエリの尤度に基づく方法と逆のアプローチを採る.すなわち,クエリ$\bm{q}$を表す言語モデル$P_{\bm{q}}(\cdot)$を構築し,文書セット中の各文書$\bm{d}_{h}$について,$P_{\bm{q}}(\bm{d}_{h})$を計算する.そして,$P_{\bm{q}}(\bm{d}_{h})$が高い順に各文書をランキングする.カルバック・ライブラー情報量に基づく方法では,$P_{\bm{q}}(\cdot)$と$P_{\bm{d}_{h}}(\cdot)$の両方を構築する.そして,各文書$\bm{d}_{h}$について,$P_{\bm{q}}(\cdot)$と$P_{\bm{d}_{h}}(\cdot)$のカルバック・ライブラー情報量$KL(P_{\bm{q}}(\cdot)||P_{\bm{d}_{h}}(\cdot))$を計算し,これが小さい順に各文書をランキングする.\subsection{言語モデルの構築方法}\label{ssec:lm_construction}クエリや文書を表す言語モデル\footnote{以降,本稿では,クエリを表す言語モデルをクエリモデルと呼ぶ.また,文書を表す言語モデルを文書モデルと呼ぶ.}は,MaximumLikelihoodEstimation(MLE)やDIRichletsmoothedestimation(DIR)\cite{Zhai2004}などの方法を用いて構築する.MLEでは,テキスト$\bm{t}$($\bm{t}$はクエリや文書)における単語$w$の生起確率$P^{MLE}_{\bm{t}}(w)$を次式によって算出する.\begin{equation}P^{MLE}_{\bm{t}}(w)=\frac{tf(w,\bm{t})}{|\bm{t}|}\label{equ:mle}\end{equation}ただし,$tf(w,\bm{t})$は$\bm{t}$における$w$の出現頻度を表す.また,$|\bm{t}|$は,$\bm{t}$に含まれる単語数を表す.一方,DIRでは,$\bm{t}$における$w$の生起確率$P^{DIR}_{\bm{t}}(w)$を次式によって算出する.\begin{equation}P^{DIR}_{\bm{t}}(w)=\frac{tf(w,\bm{t})+\muP^{MLE}_{\bm{D}_{all}}(w)}{|\bm{t}|+\mu}\label{equ:dir}\end{equation}ただし,$\bm{D}_{all}$は文書セットを表す.また,$\mu$はスムージングパラメータを表す.DIRでは,MLEと異なり,$\bm{D}_{all}$における$w$の出現頻度が加味されており,スムージングが行われている.\subsection{代表的な適合性フィードバックの手法}言語モデルに基づくランキングアルゴリズムに対する代表的な適合性フィードバックの手法として,Zhaiらの手法\cite{Zhai2001}がある.Zhaiらの手法では,フィードバックとして与えられた文書集合$\bm{F}=(\bm{f}_{1},\dots,\bm{f}_{G})$に対して,$\bm{F}$を表す言語モデル$P_{\bm{F}}(\cdot)$を構築する\footnote{以降,本稿では,フィードバックを表す言語モデルをフィードバックモデルと呼ぶ.}.次に,$P_{\bm{F}}(\cdot)$と$P_{\bm{q}}(\cdot)$(初期検索結果を得るために使用したクエリモデル)を足し合わせ,新しいクエリモデルを構築する.そして,新しいクエリモデルを用いて,初期検索結果のランキングを修正する.Zhaiらの手法は,言語モデルに基づくランキングアルゴリズムに対する基本的な適合性フィードバックの手法として重要である.しかし,彼らの手法では,テキストに表層的に存在する単語の情報しか用いられていない.これに対し,提案手法では,テキストに潜在的に現れうる単語の分布を推定し,この情報も用いて適合性フィードバックを行う. \section{LDA} \label{sec:lda}本章ではLDA\cite{Blei2003}について解説する.LDAは,提案手法において,各単語がテキストに潜在的に現れうる確率を推定するために用いられる.\subsection{概要}LDAは文書の生成モデルの一つである.LDAでは,文書は複数のトピックから生成されると仮定する.また,文書中の各単語は,各トピックが持つ単語の分布から生成されると仮定する.ある文書における各トピックの混合比$\bm{\theta}=(\theta_{1},\dots,\theta_{K})$は,$(K-1)$単体中の一点を取る.ただし,単体中のある一点が選択される確率は,Dirichlet分布によって決められるとする.以上の生成過程をまとめると,LDAにおける文書$\bm{d}$の生成確率は,次のようにして計算される.\begin{equation}P(\bm{d}|\bm{\alpha},\bm{\beta}_{1},\dots,\bm{\beta}_{K})=\intP(\bm{\theta}|\bm{\alpha})\Biggl(\prod_{j=1}^{J}\biggl(\sum_{k=1}^{K}P(w_{j}|z_{k},\bm{\beta}_{k})\P(z_{k}|\bm{\theta})\biggr)^{tf(w_{j},\bm{d})}\Biggr)d\bm{\theta}\label{equ:lda}\end{equation}ただし,$P(\bm{\theta}|\bm{\alpha})$は,Dirichlet分布から得られる$\bm{\theta}$の生成確率である.$\bm{\alpha}=(\alpha_{1},\dots,\alpha_{K})$は正の実数から構成される$K$次元ベクトルで,Dirichlet分布のパラメータを表す.また,$P(w_{j}|z_{k},\bm{\beta}_{k})$と$P(z_{k}|\bm{\theta})$は,多項分布から得られる$w_{j}$と$z_{k}$の生成確率である.$z_{k}$$(k=1,\dots,K)$はトピックを,$\bm{\beta}_{k}$は$z_{k}$が持つ単語の分布を表す.$J$はLDAで考慮する語彙数を表す.\subsection{パラメータの推定方法}\label{ssec:parameter_estimation}LDAでは,変分ベイズ法やギブスサンプリングなどを用いてパラメータを推定する\cite{Blei2003,Griffiths2004}.ギブスサンプリングを用いれば,より厳密な推定結果が得られる.実装も容易なため,一般的にはギブスサンプリングが用いられることが多い.しかし,ギブスサンプリングには推定に時間を要するという欠点がある.一方,変分ベイズ法は,厳密な推定結果は得られないが,高速に動作する.即時性が要求される検索というタスクの性質を考慮し,提案手法では変分ベイズ法を用いる.以下,変分ベイズ法による推定方法について説明する.まず,訓練データ中の各文書$\bm{d}_{i}$$(i=1,\dots,I)$について,変分パラメータ$\bm{\gamma}_{i}=(\gamma_{i1},\dots,\gamma_{iK})$と$\bm{\phi}_{i}=(\bm{\phi}_{i1},\dots,\bm{\phi}_{iJ})$を導入する.ただし,$\bm{\phi}_{ij}=(\phi_{ij1},\dots,\phi_{ijK})$である.そして,式(\ref{equ:phi})と式(\ref{equ:gamma})を交互に計算し,これらの値を更新する.\begin{align}\phi_{ijk}&\propto\beta_{kj}\exp\biggl(\Psi(\gamma_{ik})-\Psi\Bigl(\sum\limits_{k'=1}^{K}\gamma_{ik'}\Bigr)\biggr)\label{equ:phi}\\\gamma_{ik}&=\alpha_{k}+\sum\limits_{j=1}^{J}\phi_{ijk}\tf(w_{j},\bm{d}_{i})\label{equ:gamma}\end{align}ただし,$\Psi$はディガンマ関数を表す.次に,更新された$\bm{\gamma}_{i}$と$\bm{\phi}_{i}$を用いて,$\alpha_{k}$と$\bm{\beta}_{k}$を更新する.$\alpha_{k}$と$\bm{\beta}_{k}$の更新には,ニュートン-ラフソン法や固定点反復法を用いる\cite{Blei2003,Minka2000}.ここでは固定点反復法による$\alpha_{k}$と$\bm{\beta}_{k}$の更新式を示す.更新式は次の通りである.\begin{align}\beta_{kj}&\propto\sum\limits_{i=1}^{I}\phi_{ijk}\tf(w_{j},\bm{d}_{i})\label{equ:beta}\\\alpha_{k}&=\frac{\sum_{i=1}^{I}\{\Psi(\alpha_{k}+n_{ik})-\Psi(\alpha_{k})\}}{\sum_{i=1}^{I}\{\Psi(\alpha_{0}+|\bm{d}_{i}|)-\Psi(\alpha_{0})\}}\\alpha_{k}^{old}\label{equ:alpha}\end{align}ただし,$n_{ik}=\sum_{j=1}^{J}\phi_{ijk}\tf(w_{j},\bm{d}_{i})$,$\alpha_{0}=\sum_{k'=1}^{K}\alpha_{k'}$とする.また,$\alpha_{k}^{old}$は更新前の$\alpha_{k}$を表すものとする.以降,$\bm{\gamma}_{i}$と$\bm{\phi}_{i}$の更新と,$\alpha_{k}$と$\bm{\beta}_{k}$の更新を繰り返すことで,各パラメータの値を推定することができる.$\alpha_{k}$と$\bm{\beta}_{k}$の値が推定されれば,式(\ref{equ:lda})を用いて,文書$\bm{d}_{i}$の生成確率を求めることができる.また,$\bm{\gamma}_{i}$の値が推定されれば,次式を用いて,文書$\bm{d}_{i}$における単語$w_{j}$の生起確率$P^{LDA}_{\bm{d}_{i}}(w_{j})$を求めることができる.\begin{equation}P^{LDA}_{\bm{d}_{i}}(w_{j})\simeq\sum_{k=1}^{K}\frac{\beta_{kj}\gamma_{ik}}{\sum_{k'=1}^{K}\gamma_{ik'}}\label{equ:pwd}\end{equation}ここで,$\gamma_{ik}/\sum_{k'=1}^{K}\gamma_{ik'}$は,$\bm{d}_{i}$に潜在するトピックの分布に相当する.これに基づいて$\bm{\beta}_{kj}$を足し合わせることで,$w_{j}$が$\bm{d}_{i}$に潜在的に現れうる確率を求めることができる.\subsection{未知テキストに対する適用}\label{ssec:inference}LDAはProbabilisticLatentSemanticAnalysis(PLSA)\cite{Hofmann1999}をベイズ的に拡張したモデルと位置付けられる.PLSAに対するLDAの長所として,LDAは未知テキスト(訓練データ中に含まれないテキスト)に関する確率も推定できるという点が挙げられる.未知テキスト$\bm{t}$にLDAを適用するときは,$\bm{t}$に対して変分パラメータ$\bm{\gamma}_{t}$と$\bm{\phi}_{t}$を導入し,式$(\ref{equ:phi})$と式$(\ref{equ:gamma})$を用いてこれらの値を推定する.ただし,$\alpha_{k}$と$\bm{\beta}_{k}$には,訓練データによって推定された値を用いる.$\bm{\gamma}_{t}$が推定されれば,式$(\ref{equ:pwd})$を用いて,未知テキスト$\bm{t}$における単語$w_{j}$の生成確率$P_{\bm{t}}^{LDA}(w_{j})$を求めることができる.提案手法では,LDAのこの長所を利用して,各単語がフィードバックに潜在的に現れうる確率を求めている.\subsection{情報検索におけるLDAの利用}LDAは,自然言語処理や画像処理,音声認識など,様々な分野で利用されている\cite{Blei2003,Fei-Fei2005,Heidel2007}.情報検索の分野では,例えばWeiらが,クエリの尤度に基づくランキング手法にLDAを利用している\cite{Wei2006}.また,Yiらは文書の尤度に基づくランキング手法に,Zhouらはカルバック・ライブラー情報量に基づくランキング手法にLDAを利用している\cite{Yi2009,Zhou2009}.これらの研究は,LDAを用いて各文書の文書モデルを構築し,それぞれのスコア(e.g.,クエリの尤度)に基づいてクエリに対する検索結果を取得するものである.本研究では,さらに,ユーザからフィードバックが得られる問題(i.e.,適合性フィードバックの問題)に焦点を当てる.我々は,フィードバックに対してもLDAを用いてその言語モデルを構築し,構築されたフィードバックモデルを用いて検索結果を修正する. \section{提案手法} \label{sec:proposed_method}本章では,提案手法の概要と,提案手法を構成する各ステップについて詳説する.\subsection{概要}提案手法では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用して,検索結果をリランキングする.表層情報だけでなく潜在情報も考慮することで,表層的なレベルだけでなく潜在的なレベルでもフィードバックと類似する文書を検索結果の上位にリランキングする.図\ref{fig:proposed_method}に提案手法の概要を示す.以降,本稿では,テキスト$\bm{t}$の表層情報と潜在情報の両方を含む言語モデルを$P^{HYB}_{\bm{t}}(\cdot)$と表す(HYBはhybridを表す).まず,ユーザによって入力されたクエリ$\bm{q}$に対して,その初期検索結果$\bm{D}_{\bm{q}}=(\bm{d}_{1},\dots,\bm{d}_{I})$を取得する(\textbf{Step1}).次に,LDAを用いて,$\bm{D}_{\bm{q}}$中の各文書$\bm{d}_{i}$$(i=1,\dots,I)$について,$\bm{d}_{i}$に潜在的に現れうる単語の分布を推定する.そして,$\bm{d}_{i}$の表層的な単語の分布と潜在的な単語の分布の両方を考慮した言語モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$を構築する(\textbf{Step2}).ユーザからフィードバック$\bm{F}=(\bm{f}_{1},\dots,\bm{f}_{G})$が得られたら,$\bm{F}$に対してもLDAを実行し,$\bm{F}$に潜在的に現れうる単語の分布を推定する.そして,検索結果中の各文書と同様,$\bm{F}$に対しても,$\bm{F}$の表層的な単語の分布と潜在的な単語の分布の両方を考慮した言語モデル$P^{HYB}_{\bm{F}}(\cdot)$を構築する(\textbf{Step3}).最後に,構築されたフィードバックモデル$P^{HYB}_{\bm{F}}(\cdot)$と,初期検索結果$\bm{D}_{\bm{q}}$を得るために使用したクエリモデル$P^{MLE}_{\bm{q}}(\cdot)$を混合し,新しいクエリモデル$P^{NEW}_{\bm{q}}(\cdot)$を構築する.そして,検索結果中の各文書$\bm{d}_{i}$について,文書モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$と新しいクエリモデル$P^{NEW}_{\bm{q}}(\cdot)$との類似度を算出し,これに基づいて$\bm{D}_{\bm{q}}$をリランキングする(\textbf{Step4}).次節以降では,各ステップについて詳説する.\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f1.eps}\end{center}\caption{提案手法の概要}\label{fig:proposed_method}\end{figure}なお,提案手法とはそもそもの検索モデルが異なるが,テキストの潜在情報を利用するため,LatentSemanticAnalysis(LSA)を用いることも考えられる.すなわち,各文書をベクトルで表現し,文書セットに対してLSAを実行する.そして,LSAの実行結果を用いて各ベクトルを低次元の意味的空間に射影することで,各文書に潜在的に現れうる単語の情報を利用することができる.しかし,この方法では,今述べた通り,文書セット全体に対してLSAを実行する必要がある.文書セットは時に数千万〜数億文書にも及ぶため,LSAの実行には膨大な時間を要する.さらに,もし文書セットに対する文書の追加や削除があれば,LSAを実行しなおさなければならない.一方,提案手法では,検索結果中の各文書に対する$P^{LDA}_{\bm{d}_{i}}(\cdot)$やフィードバックに対する$P^{LDA}_{\bm{F}}(\cdot)$を構築するため,検索結果に対してLDAを実行する必要がある(\ref{ssec:hdm_construction}節及び\ref{ssec:hfm_construction}節で後述).しかし,検索結果は文書セットより明らかに規模が小さく,これに要する時間は問題にならない(\ref{ssec:computation_time}節で後述).このように,LSAに基づく手法と提案手法の間には,ベースとする検索モデルや効率の面で大きな違いがある.\subsection{初期検索結果の取得}\label{ssec:initial_resuls_acquisition}提案手法では,カルバック・ライブラー情報量に基づいて\cite{Lafferty2001},各文書をランキングする.まず,文書セット$\bm{D}_{all}$中の各文書$\bm{d}_{h}$$(h=1,\dots,H)$について,DIRに基づく文書モデル$P^{DIR}_{\bm{d}_{h}}(\cdot)$をあらかじめ構築しておく.ユーザからクエリ$\bm{q}$が与えられると,$\bm{q}$に対してMLEに基づくクエリモデル$P^{MLE}_{\bm{q}}(\cdot)$を構築する.そして,$\bm{D}_{all}$中の$\bm{q}$を含む各文書について,$P^{MLE}_{\bm{q}}(\cdot)$と$P^{DIR}_{\bm{d}_{h}}(\cdot)$のカルバック・ライブラー情報量を計算する.すなわち,クエリ$\bm{q}$に対する文書$\bm{d}_{h}$の重要度は,次式のように定義される.\begin{equation}initial\_score(\bm{d}_{h},\bm{q})=-KL(P^{MLE}_{\bm{q}}(\cdot)||P^{DIR}_{\bm{d}_{h}}(\cdot))\label{equ:initial_score}\end{equation}この重要度に従って各文書をランキングし,$\bm{q}$に対する初期検索結果$\bm{D_{q}}$を得る.クエリモデルの構築にMLEを用いたのは,言語モデルに基づくランキングに関する先行研究(e.g.,\cite{Zhai2001})に倣ってのことである.なお,クエリモデルの構築にMLEを用いた場合,カルバック・ライブラー情報量に基づくランキングは,クエリの尤度に基づくランキング\cite{Ponte1998}と等価になる.\subsection{文書モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$の構築}\label{ssec:hdm_construction}$\bm{D}_{\bm{q}}$中の各文書$\bm{d}_{i}$$(i=1,\dots,I)$について,$\bm{d}_{i}$の表層情報と潜在情報の両方を含む言語モデル$P^{HYB}_{\bm{d}_{i}}(\cdot)$を構築する.まず,各文書$\bm{d}_{i}$について,LDAを用いて,$\bm{d}_{i}$の潜在情報を含む言語モデル$P^{LDA}_{\bm{d}_{i}}(\cdot)$を構築する.具体的な手順は次の通りである.まず,$\bm{D}_{\bm{q}}$に対してLDAを実行し,$\bm{D}_{\bm{q}}$に対するLDAのパラメータ$\alpha_{k}$と$\bm{\beta}_{k}$$(k=1,\dots,K)$,$\bm{\gamma}_{i}$$(i=1,\dots,I)$を推定する(\ref{ssec:parameter_estimation}節参照).次に,各文書について,推定された各パラメータ及び式(\ref{equ:pwd})を用いて$P^{LDA}_{\bm{d}_{i}}(\cdot)$を構築する.$P^{LDA}_{\bm{d}_{i}}(\cdot)$は,$\bm{d}_{i}$に潜在するトピックの分布を基に構築されており,各単語が$\bm{d}_{i}$に潜在的に現れうる確率の分布になる(式(\ref{equ:pwd})参照).次に,構築された$P^{LDA}_{\bm{d}_{i}}(\cdot)$と$P^{DIR}_{\bm{d}_{i}}(\cdot)$を次式によって混合し,$P^{HYB}_{\bm{d}_{i}}(\cdot)$を構築する.\begin{equation}P^{HYB}_{\bm{d_{i}}}(w)=(1-a)P^{DIR}_{\bm{d_{i}}}(w)+aP^{LDA}_{\bm{d_{i}}}(w)\label{equ:hdm}\end{equation}ただし,$0\lea\le1$とする.$P^{DIR}_{\bm{d}_{i}}(\cdot)$は,各文書の表層的な単語の分布を基に構築される(式(\ref{equ:dir})参照).$P^{DIR}_{\bm{d}_{i}}(\cdot)$と$P^{LDA}_{\bm{d}_{i}}(\cdot)$を混合することで,$\bm{d}_{i}$の表層情報と潜在情報の両方を含む言語モデルを構築することができる.\subsection{フィードバックモデル$P^{HYB}_{\bm{F}}(\cdot)$の構築}\label{ssec:hfm_construction}フィードバック$\bm{F}$が得られたら,$\bm{F}$に対しても,$\bm{F}$の表層情報と潜在情報の両方を含む言語モデル$P^{HYB}_{\bm{F}}(\cdot)$を構築する.まず,LDAを用いて,$\bm{F}$の潜在情報を含む言語モデル$P^{LDA}_{\bm{F}}(\cdot)$を構築する.具体的な手順は次の通りである.まず,Step2で訓練されたLDAを$\bm{F}$に適用し,$\bm{F}$に対する変分パラメータ$\bm{\gamma}_{\bm{F}}$を推定する(\ref{ssec:inference}節参照).次に,推定された$\bm{\gamma}_{\bm{F}}$と式(\ref{equ:pwd})を用いて$P^{LDA}_{\bm{F}}(\cdot)$を構築する.$P^{LDA}_{\bm{F}}(\cdot)$は,$P^{LDA}_{\bm{d}_{i}}(\cdot)$と同様,各単語が$\bm{F}$に潜在的に現れうる確率の分布になる.次に,構築された$P_{\bm{F}}^{LDA}(\cdot)$と$P^{DIR}_{\bm{F}}(\cdot)$を次式によって混合し,$P^{HYB}_{\bm{F}}(\cdot)$を構築する.\begin{equation}P^{HYB}_{\bm{F}}(w)=(1-a)P^{DIR}_{\bm{F}}(w)+aP^{LDA}_{\bm{F}}(w)\label{equ:hfm}\end{equation}ただし,$P^{DIR}_{\bm{F}}(\cdot)$は式(\ref{equ:dir})を用いて構築する.$P_{\bm{F}}^{DIR}(\cdot)$と$P^{LDA}_{\bm{d}_{i}}(\cdot)$を混合することで,$\bm{F}$の表層情報と潜在情報の両方を含む言語モデルを構築することができる.\subsection{リランキング}$\bm{D}_{\bm{q}}$をリランキングするため,まず新しいクエリモデルを構築する.新しいクエリモデル$P^{NEW}_{\bm{q}}(\cdot)$は,$\bm{D}_{\bm{q}}$を得るために使用したクエリモデル$P^{MLE}_{\bm{q}}(\cdot)$と,Step3で構築したフィードバックモデル$P^{HYB}_{\bm{F}}(\cdot)$を次式のようにして混合し,構築する.\begin{equation}P^{NEW}_{\bm{q}}(w)=(1-b)P^{MLE}_{\bm{q}}(w)+bP^{HYB}_{\bm{F}}(w)\label{equ:nqm}\end{equation}ただし,$0\leb\le1$とする.最後に,$\bm{D}_{\bm{q}}$中の各文書$\bm{d}_{i}$について,$P^{HYB}_{\bm{d}_{i}}(\cdot)$と$P^{NEW}_{\bm{q}}(\cdot)$のカルバック・ライブラー情報量を算出する.すなわち,クエリ$\bm{q}$とフィードバック$\bm{F}$が与えられた下での文書$\bm{d}_{i}$の重要度を次式のように定義する.\begin{eqnarray}re\mathchar`-ranking\_score(\bm{d}_{i},\bm{q},\bm{F})=-KL(P^{NEW}_{\bm{q}}(\cdot)||P^{HYB}_{\bm{d}_{i}}(\cdot))\nonumber\end{eqnarray}この重要度に従って各文書をリランキングすることで,検索結果のランキングを修正する. \section{実験} \label{sec:experiments}本章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.\subsection{実験データ}\label{ssec:data}実験は,第$3$回NTCIRワークショップ\footnote{http://research.nii.ac.jp/ntcir/ntcir-ws3/ws-ja.html}で構築されたウェブ検索評価用テストセット\cite{Eguchi2002}を用いて,これを行った.テストセットは,$11,038,720$ページの日本語ウェブ文書と,$47$個の検索課題から成る.検索課題ごとに,約$2,000$文書に,その課題に対する適合度が付与されている.ただし,適合度は「高適合」「適合」「部分適合」「不適合」のいずれかである.これらの適合度が付与された文書を用いて,検索結果のランキング精度を測ることができる.図\ref{fig:ntcir_subject}に検索課題の一例を示す.各タグが表す意味内容は次の通りである.\begin{description}\itemsep=-0.1zw\item[NUM]課題番号.\item[TITLE]検索システムに入力するであろう単語.課題作成者によって$2$〜$3$語がリストアップされている.左から順に重要.\item[DESC]課題作成者の情報要求を一文で表したもの.\item[RDOC]情報要求に適合する代表的な文書のID.課題作成者によって$2$〜$3$個がリストアップされている.\end{description}\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f2.eps}\end{center}\caption{テストセットにおける検索課題の一例}\label{fig:ntcir_subject}\end{figure}実験では,$\langle$TITLE$\rangle$タグの単語をクエリとして使用した.ただし,提案手法では,検索の質を高めるため,クエリを含む文書(クエリを構成する各タームが最低でも$1$回以上出現する文書)のみをスコア付けの対象として収集する(\ref{ssec:initial_resuls_acquisition}節参照).そのため,$\langle$TITLE$\rangle$タグの全ての単語を用いると,多くの検索課題において,検索される文書数が極端に少なくなってしまった.例えば,課題番号0027,0047,0058などは,それぞれ$17$文書,$5$文書,$14$文書しか検索できなかった.課題番号0061に至っては$1$文書も検索できなかった.このように検索される文書が少ないと,適合性フィードバックの有効性が検証しにくい.すなわち,実際に適合性フィードバックによって初期検索結果のランキングが改善されても,その結果がP@10などの評価尺度の値に反映されにくく,適合性フィードバックが有効に働いたかどうかが判断しづらい.そこで,実験では,この問題を避けるため,十分な検索結果が得られるように,クエリとして使用する単語を$\langle$TITLE$\rangle$タグの最初の$2$語のみとした.ただし,「十分」の定義は「$100$文書以上」とした.また,$\langle$RDOC$\rangle$タグのIDが付与された文書を,ユーザのフィードバックとして使用した.上で述べた通り,これらは課題作成者本人によって選択された代表的な適合文書であり,フィードバックとして使用するのに最適と考えられる.これらの文書は,提案手法の初期検索結果に含まれるとは限らない.初期検索結果に含まれない場合,これらをユーザのフィードバックとして使用するのは奇異に感じられるかもしれない.しかし,これらの文書は,仮に初期検索結果に含まれていた場合も,リランキング前後のランキング精度を測定・比較する際,結局ランキングから取り除かれる(\ref{ssec:evaluation_method}節で後述).言い換えれば,これらは,初期検索結果に含まれていた場合も,初期検索結果に含まれない場合のように,検索結果中に存在していないものとして扱われる.このように,どちらの場合でも存在していないものとして扱われることを考えると,これらの文書が初期検索結果に含まれているか含まれていないかは重要ではない.以上を踏まえ,実験では,これらが初期検索結果に含まれているか含まれていないかは問題にしなかった.$47$個の検索課題のうち,$7$個の検索課題(課題番号:0011,0018,0032,0040,0044,0047,0061)については,実験で使用しなかった.これは,上で述べたようにクエリとして使用する単語を$2$語にしても,十分な文書(i.e.,$100$文書)が検索できなかったためである.さらに,残った$40$課題を,開発データと評価データに分けて使用した.開発データは,提案手法のパラメータを最適化するために使用した.評価データは,提案手法のランキング精度を測定するために使用した.開発データには$8$課題(課題番号:0008〜0017)を,評価データには$32$課題(課題番号:0018〜0063)を使用した.\subsection{実験用検索システム}実験を行うため,提案手法に従って適合性フィードバックを行う検索システムを作成した.実装の詳細は以下の通りである.検索対象とする文書セット(i.e.,$\bm{D}_{all}$)には,テストセットの$11,038,720$文書を使用した.また,文書セット中の各文書について,次の手順に従って文書モデルを構築した.\begin{enumerate}\itemShinzatoらの手法\cite{Shinzato2008}を用いて本文を抽出し,JUMAN\cite{Kurohashi1994}を用いて各文を解析する.\item解析結果及び式(\ref{equ:dir})を用いて,DIRに基づく文書モデルを構築する.ただし,先行研究\cite{Zhai2001,Wei2006,Yi2009}に倣って,$\mu=1,000$とした.\end{enumerate}クエリが与えられたら,次の手順に従ってクエリモデルを構築した.\begin{enumerate}\itemJUMANを用いてクエリを解析する.\item解析結果及び式(\ref{equ:mle})を用いて,MLEに基づくクエリモデルを構築する.\end{enumerate}LDAの実装については次の通りである.パラメータ$\alpha_{k}$$(k=1,\dots,K)$の初期値は$1$とした.また,$\bm{\beta}_{k}$$(k=1,\dots,K)$の初期値にはランダムな値を与えた.$\bm{\gamma}_{i}$と$\bm{\phi}_{i}$を更新する際の反復回数と,$\alpha_{k}$と$\bm{\beta}_{k}$を更新する際の反復回数は,それぞれ$10$回とした.LDAで考慮する語彙数$J$は$100$とした.ただし,LDAで考慮する語彙は,初期検索結果に対する重要度を基に選出した.ここで,初期検索結果$\bm{D}_{\bm{q}}$に対する単語$w$の重要度は,$df(w,\bm{D}_{\bm{q}})*\log(H/df(w,\bm{D}_{all}))$と定義した.ただし,$df(w,\bm{D})$は$\bm{D}$における$w$の文書頻度を表す.\subsection{ランキング精度の測定方法}\label{ssec:evaluation_method}適合性フィードバックの効果は,適合性フィードバック前のランキング(i.e.,初期検索結果のランキング)と,適合性フィードバック後のランキングを比較することで検証できる.このとき,フィードバックとして使用する文書の扱いに気を付けなければならない\cite{Hull1993}.例えば,適合性フィードバック前後のランキングをそのまま比較すると,後者が有利になってしまう.これは,フィードバックとして与えられた文書(適合であることが分かっている文書)が,適合性フィードバック後のランキングの上位に含まれやすいためである.そこで,適合性フィードバック前後のランキングを比較する際,フィードバックとして与えられた文書を適合性フィードバック後のランキングから取り除くという方法が考えられる.しかし,この方法だと,適合性フィードバック前のランキングが有利になってしまう.これは,適合文書が少ないときに特に問題となる.以上を踏まえ,実験では,ランキングの精度を測定する際,フィードバックとして使用した文書を各ランキングから取り除いた.これにより,適合性フィードバック前後のランキングを公平に比較することができる.ランキング精度の評価尺度には,P@10,MeanAveragePrecision(MAP),NormalizedDiscountedCumulativeGainat$10$(NDCG@10)\cite{Jarvelin2002}を用いた.ただし,P@10及びMAPを測定する際は,「高適合」「適合」「部分適合」の文書を正解,「不適合」及び適合度が付与されていない文書を不正解とした.また,NDCG@10は,「高適合」の文書を$3$点,「適合」の文書を$2$点,「部分適合」の文書を$1$点として算出した.\subsection{リランキング性能の調査}\label{ssec:experiment1}まず,提案手法が初期検索結果のランキング精度をどの程度改善できるか調査した.具体的には,初期検索結果のランキング精度と,提案手法によってリランキングを行った後のランキング精度を比較し,提案手法の有効性を検証した.実験には評価データを使用し,各検索課題の初期検索結果を取得する際は,\ref{ssec:data}節で述べたように,$\langle$TITLE$\rangle$タグの最初の$2$単語をクエリとして用いた.また,実験では,$initial\_score$(式(\ref{equ:initial_score})参照)の上位$100$件を初期検索結果とした.提案手法を実行する際は,$\langle$RDOC$\rangle$タグの最初の$2$文書をフィードバックとして用いた.なお,これらの文書に含まれる単語数は平均$3,589$語であった.提案手法に必要な$3$つのパラメータ$a$,$b$,$K$の値は,それぞれ$0.2$,$0.9$,$50$とした.これらは,\ref{ssec:experiment0}節で述べる実験の結果を基に決定した.\begin{table}[b]\vspace{-0.5\Cvs}\caption{リランキング性能の調査結果}\label{tbl:experiment1}\input{01table01.txt}\end{table}結果を表\ref{sbtbl:eRF}に示す.INITは各検索課題に対する初期検索結果のランキング精度の平均値を,OURSは提案手法実行後のランキング精度の平均値を表す.比較のため,初期検索結果に対してベースラインとなる手法を実行したときの結果も示した.ZHAIはZhaiらの手法\cite{Zhai2001}を,OURS($a=0.0$)は提案手法から潜在情報を除いた手法を表す.ただし,ZHAIとOURS($a=0.0$)は本質的にはほとんど同じ手法である.両手法とも,フィードバックの表層の単語分布を文書セット全体の単語分布で補正することでフィードバックモデルを構築し,これを用いてリランキングを行っている.違うのは単語分布の補正の仕方だけである(前者はEMアルゴリズムを用い,後者はDIRを用いて補正を行っている).OURS($a=0.0$)では,$b=0.5$とした.これも,\ref{ssec:experiment0}節で述べる実験の結果を基に決定した.DICもベースラインとなる手法を表す.提案手法の核となるアイディアは,テキスト(フィードバック及び検索結果中の各文書)に潜在的に現れうる単語の情報を適合性フィードバックに利用することである.同義語辞書や関連語辞書などの知識リソースを用いても,同様のアイディアを実現することができる.DICでは,OURS($a=0.0$)をベースに,テキスト中の各単語が同義語を持つ場合,その同義語もそのテキストに出現しているとみなした上でリランキングを行った.ただし,同義知識は,Shibataらの手法\cite{Shibata2008}を用いて例会小学国語辞典\cite{Tajika2001}と岩波国語辞典\cite{Nishio2002}から獲得した.獲得された同義知識(e.g.,「コンピュータ」=「電子計算機」,「ポテト」=「じゃが芋」=「ばれいしょ」)は$4,597$個であった.表\ref{sbtbl:eRF}を見ると,すべての尺度において,OURSがINITを大きく上回っている.例えばP@10は$27.6\%$改善しており,提案手法が初期検索結果をうまくリランキングできたことが分かる.また,提案手法は,ZHAIやOURS($a=0.0$)より高い性能を示した.ZHAIやOURS($a=0.0$)は,テキストの表層情報だけを用いて適合性フィードバックを行っている.一方,提案手法は,テキストの表層情報に加え,テキストの潜在情報も用いて適合性フィードバックを行っている.提案手法がこれらの手法を上回ったことから,潜在情報が適合性フィードバックに有用であったことが分かる.さらに,リランキング結果を調査したところ,提案手法が,テキストに表層的には出現しないが潜在的には現れうる単語の情報をうまく利用していることが確認できた.図\ref{fig:ntcir_subject}の検索課題を例に取ると,「宗教」や「祝日」「聖書」などの単語は,情報要求によく関連するが,フィードバックとして使用した文書には含まれていなかった.そのため,ZHAIやOURS($a=0.0$)では,これらの単語の情報を使用することができなかった.一方,提案手法では,これらの単語がフィードバックにおいてもある程度の確率で現れうると推定できた.具体的には,「宗教」「祝日」「聖書」は,それぞれ$0.0046$,$0.0037$,$0.0024$の確率で現れうると推定できた.なお,フィードバックに$1$回出現した単語として「クリスマス」や「EASTER」などがあったが,これらの生起確率の推定値は,それぞれ$0.0093$,$0.0060$であった.提案手法では,これらの推定結果を用いることで,これらの単語を含む検索結果中の適合文書を上位にリランキングすることができた.DICはあまり有効に機能せず,その結果はZHAIやOURS($a=0.0$)の結果を少し上回る程度であった.この原因は,我々が構築した同義語辞書のカバレッジにあると思われる.DICは,よりカバレッジの高い知識リソースが利用できれば(同義語や関連語などの知識をより多く利用できれば),より有効に機能する可能性を持つ.しかし,そのようなリソースを構築するのは容易ではない.一方,提案手法でも,単語と単語が関連するという知識を必要とする.しかし,DICと違って,何のリソースも必要としない.すなわち,提案手法では,LDAを用いることで,単語と単語が関連するという知識を検索結果から動的に獲得することができる.\ref{sec:introduction}章の「マック{\textvisiblespace}価格」というクエリを例に取ると,このクエリに対する検索結果には「CPU」や「ハードディスク」「ハンバーガー」「ポテト」などの単語が含まれると考えられる.提案手法では,検索結果に対してLDAを実行することで,「CPU」と「ハードディスク」が関連するという知識や「ハンバーガー」と「ポテト」が関連するという知識を,トピックという形で動的に獲得することができる.そして,獲得された知識を用いることで,文書に「ハードディスク」という単語が出現していなくても,「CPU」という単語が出現していれば,「ハードディスク」も潜在的にはその文書に現れうると推測できる.このように,DICと比べると,(カバレッジの高低に関わらず)何のリソースも必要としないという点で,提案手法の方が優れている.提案手法は擬似適合性フィードバックにも適用可能である.そこで,これに対するリランキング性能も調査した.擬似適合性フィードバックでは,初期検索結果の上位$n$文書を適合文書とみなし,適合性フィードバックを行う.実験では,$n=10$として初期検索結果をリランキングし,リランキング前後のランキング精度を比較した.ただし,擬似適合性フィードバックでは,明示的なフィードバック(適合であることが分かっている文書)は存在しない.そのため,ランキングの精度を測る際,他の実験のように,$\langle$RDOC$\rangle$タグの文書を各ランキングから除くことはしなかった.結果を表\ref{sbtbl:pRF}に示す.INITの値が表\ref{sbtbl:eRF}と違うのは,ランキング精度を算出する際,$\langle$RDOC$\rangle$タグの文書を除いていないからである.表\ref{sbtbl:pRF}を見ると,普通の適合性フィードバックに比べると改善の度合いは小さいが,P@10やNDCG@10の値が上昇している.例えば,P@10では$8.2\%$の改善が見られる.このことから,擬似適合性フィードバックにおいても提案手法がある程度機能することが分かる.\subsection{フィードバックが少ない状況でのリランキング性能}\label{ssec:experiment2}現実的には,ユーザが多くのフィードバックを与えてくれるとは考えにくい.そのため,適合性フィードバックの手法は,フィードバックが少ない状況でも機能するべきである.この実験では,このような状況をシミュレートし,フィードバックが少なくても提案手法が機能するかを調査した.具体的には,提案手法に与えるフィードバックを少しずつ減らしていき,リランキング性能がどのように変化するかを調査した.提案手法に与えるフィードバックの分量$G$は,$G=2^{1},2^{0},2^{-1},\dots,2^{-5}$とした.ただし,例えば$G=2^{1}$は,フィードバックとして$2$文書を用いることを意味している.また,例えば$G=2^{-1}$は,フィードバックとして$1$適合文書の半分だけを用いることを意味している.この場合,適合文書中の単語をランダムに半分抽出し,それらを用いて適合性フィードバックを行った.$G<1$の場合も調査したのは,フィードバックとして文書より小さい単位(e.g.,文書のタイトル,スニペット)が与えられた場合を想定し,このような場合にも提案手法が機能するかを調べたかったからである.\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f3.eps}\end{center}\caption{$G$によるリランキング性能の変化}\label{fig:F}\end{figure}結果を図\ref{fig:F}に示す.比較のため,提案手法から潜在情報を除いたとき(i.e.,OURS($a=0.0$))の性能の変化も示した.また,INITは初期検索結果のランキング精度を表す.図から,$G$が小さいときでも,提案手法が高い性能を示すことが分かる.例えば$G=2^{0}$のとき,提案手法は初期検索結果を$24.5\%$改善している.さらに,$G=2^{-5}$のときでも,$5.3\%$の改善が見られた.なお,$G=2^{-5}$のとき,フィードバック$\bm{F}$に含まれる単語数は平均$57$語であった.一方,OURS($a=0.0$)を見ると,$G$が小さくなるにつれ,ほとんど改善が見られなくなった.OURS($a=0.0$)ではテキストの表層情報しか利用していない.そのため,$G$が小さくなるにつれて利用できる情報が少なくなり,初期検索結果を改善できなくなったと考えられる.一方,提案手法では,表層情報だけでなく潜在情報も利用している.利用できる情報が多い分,$G$が小さいときでも,初期検索結果のランキングを改善することができたと考えられる.\subsection{パラメータとリランキング性能の関係}\label{ssec:experiment0}提案手法には$3$つのパラメータ$a$,$b$,$K$がある.$a$は$P^{DIR}_{\bm{d}_{i}}(\cdot)$と$P^{LDA}_{\bm{d}_{i}}(\cdot)$の混合比を調整するパラメータ(式(\ref{equ:hdm})及び式(\ref{equ:hfm})参照),$b$は$P^{MLE}_{\bm{q}}(\cdot)$と$P^{HYB}_{\bm{F}}(\cdot)$の混合比を調整するパラメータ(式(\ref{equ:nqm})参照),$K$はLDAのトピック数である.\ref{ssec:experiment1}節及び\ref{ssec:experiment2}節で述べた実験では,OURSのパラメータを$a=0.2$,$b=0.9$,$K=50$とした.また,OURS($a=0.0$)のパラメータを$b=0.5$とした.これらの値は予備実験の結果を基に決定した.提案手法の性能を最大限に発揮するためには,パラメータとリランキング性能の関係について知る必要がある.予備実験では,この関係を知るため,様々な$(a,b,K)$の組み合わせについて提案手法のリランキング性能を調査し,その結果を比較した.ただし,$a=0.0,0.1,\dots,1.0$,$b=0.0,0.1,\dots,1.0$,$K=10,20,\dots,100$とし,全$1,210$通りの組み合わせについて,調査を行った.開発データを用いて調査した.ある$(a,b,K)$の組み合わせに対するリランキング性能は,他の実験と同じようにして,これを測定した.すなわち,開発データ中の各検索課題について初期検索結果を取得し,提案手法を用いてこれらをリランキングした後,全課題におけるP@10の平均値を算出した.他の実験と同様,クエリには$\langle$TITLE$\rangle$タグの最初の$2$単語を,フィードバックには$\langle$RDOC$\rangle$タグの最初の$2$文書を用いた.\begin{table}[b]\caption{$(a,b)$とリランキング性能の関係}\label{tbl:experiment0}\input{01table02.txt}\end{table}結果を表\ref{tbl:experiment0}及び図\ref{fig:K}に示す.表\ref{tbl:experiment0}は,実験結果を$(a,b)$についてまとめたものである.表中の各セルの値は,各$(a,b)$の組み合わせについて,各$K$のP@10を平均したものである.例えば,$(a,b)=(0.1,0.2)$のセルは,$(a,b,K)=(0.1,0.2,10),$$(0.1,0.2,20),\dots,(0.1,0.2,100)$のP@10の平均値が$0.286$であったことを示している.各列においてもっともP@10が高いセルは,その値を太字で装飾した.また,各行においてもっともP@10が高いセルは,その値に下線を引いた.表から,$(a,b)=(0.1,0.9)$or$(0.2,0.9)$のとき,リランキング性能がもっとも良いことが分かる.また,$a=0.0$のとき(潜在情報を考慮しないとき)は,$b$が大体$0.3$〜$0.5$のとき,リランキング性能が良い.一方,$a\geq0.1$のとき(潜在情報を考慮したとき)は,$b$が大体$0.8$〜$1.0$のとき,リランキング性能が良い.$a=0.0$のときより,性能が良くなる$b$の値(及びそのときのランキング精度)が大きくなっている.これは,潜在情報を考慮することで,フィードバックモデルの信頼度が増すことを示唆している.\begin{figure}[t]\begin{center}\includegraphics{19-3ia942f4.eps}\end{center}\caption{$K$によるリランキング性能の変化}\label{fig:K}\end{figure}図\ref{fig:K}は,$K$によるリランキング性能の変化を示している.図では,表\ref{tbl:experiment0}においてリランキング性能が良かった$3$つの$(a,b)$の組み合わせ$(a,b)=(0.1,0.9),\(0.2,0.9),\(0.3,0.9)$について,$K$による性能の変化を示した.図から,$K$が大体$50$〜$70$のとき,リランキング性能が良いことが分かる.以上の結果をまとめると,提案手法がその性能を発揮するパラメータは,$(a,b)=(0.1,0.9)$or$(0.2,0.9)$,$K$は大体$50$〜$70$となる.\subsection{LDAの実行時間}\label{ssec:computation_time}提案手法では,検索結果中の各文書に対する$P^{LDA}_{\bm{d}_{i}}(\cdot)$を構築するため,検索結果に対してLDAを実行する.また,フィードバックに対する$P^{LDA}_{\bm{F}}(\cdot)$を構築する際は,フィードバックに対してLDAを実行する.本節では,これらの処理に要する時間について考察する.実験では,各検索課題の検索結果($100$文書)に対してLDA(PerlとCを組み合わせて実装)を実行するのに,$13.1$〜$16.0$秒を要した.この程度の時間であれば,提案手法を実行する上で,問題にはならない.適合性フィードバックは,(1)システムによる検索結果の提示,(2)ユーザによる検索結果の閲覧,適合文書の選択,(3)適合文書を用いた検索結果のリランキングという三つのステップから成る.ここで,一般的に考えて,(2)には$1$分以上はかかると思われる.従って,まずユーザに検索結果を提示し,ユーザが検索結果を閲覧している裏でLDAを実行するようなシステムの構成を採れば,(3)に移る前にLDAの実行を終えることができる.このように,検索結果が$100$文書程度であれば,LDAの実行時間は問題にならない.一方,検索結果は,より大きくなり得る.検索結果が大きくなると,LDAの実行時間も大きくなってしまう.これを解決する一つの方法は,ランキングの上位だけを検索結果とすることである.例えば,多くの文書が検索されても,上位$100$文書だけを検索結果とすれば,上述の通り,LDAの実行時間は問題にならない.別の方法として,変分パラメータの推定を並列化することも考えられる.LDAの実行時間は,変分パラメータの推定に要する時間が多くを占める.ここで,各文書に対する変分パラメータは,他の文書に対する変分パラメータと独立である.従って,各文書に対する変分パラメータの推定を並列化し,LDAの実行時間を削減することができる.例えば,Nallapatiらは,$50$ノードのクラスタを用いることでLDAの実行時間を$14.5$倍高速化できたと報告している\cite{Nallapati2007}.提案手法でも並列化を取り入れることで,LDAの実行時間を削減することができると思われる.最後に,フィードバックに対してLDAを実行するのに要した時間を報告する.これは$1$秒にも満たないものであった.例えば,フィードバックが$2$文書の場合,実行に要した時間は,わずか$0.1$〜$0.2$秒であった.従って,フィードバックに対するLDAの実行時間も問題にはならない. \section{おわりに} \label{sec:conclusion}本稿では,テキストの表層情報と潜在情報の両方を利用する適合性フィードバックの手法を提案し,その有効性について議論した.提案手法では,LDAを用いて,フィードバックや検索結果中の各文書に潜在的に現れうる単語の分布を推定した.そして,表層的な単語の分布と潜在的な単語の分布の両方を用いてフィードバックと検索結果中の各文書との類似度を算出し,これに基づいて検索結果をリランキングした.実験では,$2$文書(合計約$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のP@10を$27.6\%$改善することを示した.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことを示した(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).今後の課題としては,ネガティブフィードバックの利用が挙げられる.提案手法は高い性能を示したが,ポジティブフィードバック(ユーザが適合と判定した文書)を扱う機構しか持ち合わせていない.ネガティブフィードバック(ユーザが不適合と判定した文書)も利用することで,さらに性能を上げることができないか検討中である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{Blei2003}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQLatentDirichletAllocation.\BBCQ\\newblock{\BemJounalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Eguchi,Oyama,Ishida,Kuriyama,\BBA\Kando}{Eguchiet~al.}{2002}]{Eguchi2002}Eguchi,K.,Oyama,K.,Ishida,E.,Kuriyama,K.,\BBA\Kando,N.\BBOP2002\BBCP.\newblock\BBOQTheWebRetrievalTaskanditsEvaluationintheThirdNTCIRWorkshop.\BBCQ\\newblockIn{\BemProceedingsofthe25thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2002)},\mbox{\BPGS\375--376}.\bibitem[\protect\BCAY{Fei-Fei\BBA\Perona}{Fei-Fei\BBA\Perona}{2005}]{Fei-Fei2005}Fei-Fei,L.\BBACOMMA\\BBA\Perona,P.\BBOP2005\BBCP.\newblock\BBOQABayesianHierarchicalModelforLearningNaturalSceneCategories.\BBCQ\\newblockIn{\BemProceedingsofthe2005IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR2005)},\mbox{\BPGS\524--531}.\bibitem[\protect\BCAY{Griffiths\BBA\Steyvers}{Griffiths\BBA\Steyvers}{2004}]{Griffiths2004}Griffiths,T.~L.\BBACOMMA\\BBA\Steyvers,M.\BBOP2004\BBCP.\newblock\BBOQFindingscientifictopics.\BBCQ\\newblockIn{\BemProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica(NAS)},\mbox{\BPGS\5228--5235}.\bibitem[\protect\BCAY{Heidel,an~Chang,\BBA\shanLee}{Heidelet~al.}{2007}]{Heidel2007}Heidel,A.,an~Chang,H.,\BBA\shanLee,L.\BBOP2007\BBCP.\newblock\BBOQLanguageModelAdaptationUsingLatentDirichletAllocationandanEfficientTopicInferenceAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe8thAnnualConferenceoftheInternationalSpeechCommunicationAssociation(INTERSPEECH2007)},\mbox{\BPGS\2361--2364}.\bibitem[\protect\BCAY{Hofmann}{Hofmann}{1999}]{Hofmann1999}Hofmann,T.\BBOP1999\BBCP.\newblock\BBOQProbabilisticLatentSemanticAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceonUncertaintyinArtificialIntelligence(UAI1999)},\mbox{\BPGS\289--296}.\bibitem[\protect\BCAY{Hull}{Hull}{1993}]{Hull1993}Hull,D.\BBOP1993\BBCP.\newblock\BBOQUsingStatisticalTestingintheEvaluationofRetrievalExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe16thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR1993)},\mbox{\BPGS\329--338}.\bibitem[\protect\BCAY{Ide}{Ide}{1971}]{Ide1971}Ide,E.\BBOP1971\BBCP.\newblock\BBOQNewExperimentsinRelevanceFeedback.\BBCQ\\newblockIn{\BemTheSMARTRetrievalSystem:ExperimentsinAutomaticDocumentProcessing},\mbox{\BPGS\337--354}.Prentice-HallInc.\bibitem[\protect\BCAY{Jansen,Spink,\BBA\Saracevic}{Jansenet~al.}{2000}]{Jansen2000}Jansen,B.~J.,Spink,A.,\BBA\Saracevic,T.\BBOP2000\BBCP.\newblock\BBOQReallife,realusers,andrealneeds:astudyandanalysisofuserqueriesontheweb.\BBCQ\\newblock{\BemInformationProcessingandManagement},{\Bbf36}(2),\mbox{\BPGS\207--227}.\bibitem[\protect\BCAY{J{\"{a}}rvelin\BBA\Kek{\"{a}}l{\"{a}}inen}{J{\"{a}}rvelin\BBA\Kek{\"{a}}l{\"{a}}inen}{2002}]{Jarvelin2002}J{\"{a}}rvelin,K.\BBACOMMA\\BBA\Kek{\"{a}}l{\"{a}}inen,J.\BBOP2002\BBCP.\newblock\BBOQCumulatedGain-BasedEvaluationofIRTechniques.\BBCQ\\newblock{\BemACMTransactionsonInformationSystems},{\Bbf20}(4),\mbox{\BPGS\422--446}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{Kurohashi1994}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsofJapaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources(SNLR)},\mbox{\BPGS\22--28}.\bibitem[\protect\BCAY{Lafferty\BBA\Zhai}{Lafferty\BBA\Zhai}{2001}]{Lafferty2001}Lafferty,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2001\BBCP.\newblock\BBOQDocumentLanguageModels,QueryModels,andRiskMinimizationforInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe24thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2001)},\mbox{\BPGS\111--119}.\bibitem[\protect\BCAY{Lavrenko\BBA\Croft}{Lavrenko\BBA\Croft}{2001}]{Lavrenko2001}Lavrenko,V.\BBACOMMA\\BBA\Croft,W.~B.\BBOP2001\BBCP.\newblock\BBOQRelevance-BasedLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe24thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2001)},\mbox{\BPGS\120--127}.\bibitem[\protect\BCAY{Minka}{Minka}{2000}]{Minka2000}Minka,T.~P.\BBOP2000\BBCP.\newblock\BBOQEstimatingaDirichletdistribution.\BBCQ\\newblock\BTR,Microsoft.\bibitem[\protect\BCAY{Nallapati,Cohen,\BBA\Lafferty}{Nallapatiet~al.}{2007}]{Nallapati2007}Nallapati,R.,Cohen,W.,\BBA\Lafferty,J.\BBOP2007\BBCP.\newblock\BBOQParallelizedVariationalEMforLatentDirichletAllocation:AnExperimentalEvaluationofSpeedandScalability.\BBCQ\\newblockIn{\BemProceedingsofthe7thIEEEInternationalConferenceonDataMainingWorkshops(ICDMW2007)},\mbox{\BPGS\349--354}.\bibitem[\protect\BCAY{Ponte\BBA\Croft}{Ponte\BBA\Croft}{1998}]{Ponte1998}Ponte,J.~M.\BBACOMMA\\BBA\Croft,W.~B.\BBOP1998\BBCP.\newblock\BBOQALanguageModelingApproachtoInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe21ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR1998)},\mbox{\BPGS\275--281}.\bibitem[\protect\BCAY{Rocchio}{Rocchio}{1971}]{Rocchio1971}Rocchio,J.~J.\BBOP{1971}\BBCP.\newblock\BBOQRelevanceFeedbackinInformationRetrieval.\BBCQ\\newblockIn{\BemTheSMARTRetrievalSystem:ExperimentsinAutomaticDocumentProcessing},\mbox{\BPGS\313--323}.Prentice-HallInc.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{Salton1975}Salton,G.,Wong,A.,\BBA\Yang,C.-S.\BBOP1975\BBCP.\newblock\BBOQAVectorSpaceModelforAutomaticIndexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(11),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{Shibata,Odani,Harashima,Oonishi,\BBA\Kurohashi}{Shibataet~al.}{2008}]{Shibata2008}Shibata,T.,Odani,M.,Harashima,J.,Oonishi,T.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQ{SYNGRAPH}:AFlexibleMatchingMethodbasedonSynonymousExpressionExtractionfromanOrdinaryDictionaryandaWebCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\787--792}.\bibitem[\protect\BCAY{Shinzato,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008}Shinzato,K.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQALarge-ScaleWebDataCollectionasaNaturalLanguageProcessingInfrastructure.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC2008)},\mbox{\BPGS\2236--2241}.\bibitem[\protect\BCAY{{Sp{\"a}rckJones},Walker,\BBA\Robertson}{{Sp{\"a}rckJones}et~al.}{2000}]{SparckJones2000}{Sp{\"a}rckJones},K.,Walker,S.,\BBA\Robertson,S.~E.\BBOP2000\BBCP.\newblock\BBOQAProbabilisticModelofInformationRetrieval:DevelopmentandComparativeExperiments.\BBCQ\\newblock{\BemInformationProcessingandManagement},{\Bbf36}(6),\mbox{\BPGS\779--808,\809--840}.\bibitem[\protect\BCAY{Wei\BBA\Croft}{Wei\BBA\Croft}{2006}]{Wei2006}Wei,X.\BBACOMMA\\BBA\Croft,W.\BBOP2006\BBCP.\newblock\BBOQLDA-BasedDocumentModelsforAd-hocRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe29thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR2006)},\mbox{\BPGS\178--185}.\bibitem[\protect\BCAY{Yi\BBA\Allan}{Yi\BBA\Allan}{2009}]{Yi2009}Yi,X.\BBACOMMA\\BBA\Allan,J.\BBOP2009\BBCP.\newblock\BBOQAComparativeStudyofUtilizingTopicModelsforInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe31stEuropeanConferenceonInformationRetrieval(ECIR2009)},\mbox{\BPGS\29--41}.\bibitem[\protect\BCAY{Zhai\BBA\Lafferty}{Zhai\BBA\Lafferty}{2001}]{Zhai2001}Zhai,C.\BBACOMMA\\BBA\Lafferty,J.\BBOP2001\BBCP.\newblock\BBOQModel-basedFeedbackintheLanguageModelingApproachtoInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe20thACMConferenceonInformationandKnowledgeManagement(CIKM2001)},\mbox{\BPGS\403--410}.\bibitem[\protect\BCAY{Zhai\BBA\Lafferty}{Zhai\BBA\Lafferty}{2004}]{Zhai2004}Zhai,C.\BBACOMMA\\BBA\Lafferty,J.\BBOP2004\BBCP.\newblock\BBOQAstudyofsmoothingmethodsforlanguagemodelsappliedtoinformationretrieval.\BBCQ\\newblock{\BemACMTransactionsonInformationSystems},{\Bbf22}(2),\mbox{\BPGS\179--214}.\bibitem[\protect\BCAY{Zhou\BBA\Wade}{Zhou\BBA\Wade}{2009}]{Zhou2009}Zhou,D.\BBACOMMA\\BBA\Wade,V.\BBOP2009\BBCP.\newblock\BBOQLatentDocumentRe-Ranking.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2009)},\mbox{\BPGS\1571--1580}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{2002}]{Nishio2002}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP2002\BBCP.\newblock\Jem{岩波国語辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{田近}{田近}{2001}]{Tajika2001}田近洵一\BBOP2001\BBCP.\newblock\Jem{例解小学国語辞典}.\newblock三省堂.\end{thebibliography}\begin{biography}\bioauthor{原島純}{$2007$年京都大学工学部電気電子工学科卒業.$2009$年同大学院情報学研究科修士課程修了.現在,同大学院博士後期課程在学中.情報検索の研究に従事.}\bioauthor{黒橋禎夫}{$1989$年京都大学工学部電気工学第二学科卒業.$1994$年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,$2006$年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
V23N01-04
\section{はじめに} 最新の機械翻訳システムは,年々精度が向上している反面,システムの内部は複雑化しており,翻訳システムの傾向は必ずしも事前に把握できるわけではない.このため,システムによってある文章が翻訳された結果に目を通すことで,そのシステムに含まれる問題点を間接的に把握し,システム同士を比較することが広く行われている.このように,単一システムによって発生する誤りの分析や,各システムを比較することは,各システムの利点や欠点を客観的に把握し,システム改善の手段を検討することに役立つ.ところが,翻訳システムの出力結果を分析しようとした際,機械翻訳の専門家である分析者は,システムが出力した膨大な結果に目を通す必要があり,その作業は労力がかかるものである.この問題を解決するために,機械翻訳の誤り分析を効率化する手法が提案されている\cite{popovic2011towards,kirchhoff2007semi,fishel2011automatic,elkholy11morphologicallyrich}.この手法の具体的な手続きとして,機械翻訳結果を人手により翻訳された参照訳と比較し,機械翻訳結果のどの箇所がどのように誤っているかを自動的にラベル付けする.さらに,発見した誤りを既存の誤り体系\cite{flanagan1994error,vilar2006error}に従って「挿入・削除・置換・活用・並べ替え」のように分類することで,機械翻訳システムの誤り傾向を自動的に捉えることができる.\textcolor{black}{しかし,このような自動分析で誤りのおおよその傾向をつかめたとしても,機械翻訳システムを改善する上で,詳細な翻訳誤り現象を把握するためには,人手による誤り分析が欠かせない.}\textcolor{black}{ところが,先行研究と同じように,参照文と機械翻訳結果を比較して差分に基づいて誤りを集計する手法で詳細な誤り分析を行おうとした際に,問題が発生する.具体的には,機械翻訳結果と参照訳の文字列の不一致箇所を単純な方法でラベル付けすると,人間の評価と一致しなくなる場合がある.つまり,機械翻訳結果が参照訳と同様の意味でありながら表層的な文字列が異なる換言の場合,先行研究では不一致箇所を誤り箇所として捉えてしまう.このような誤った判断は,誤り分析を効率化する上で支障となる.}\textcolor{black}{本研究では,前述の問題点を克服し,機械翻訳システムの誤りと判断されたものの内,より誤りの可能性が高い箇所を優先的に捉える手法を提案する.}図\ref{fig:scoring-ex}に本研究の概略を示す.まず,対訳コーパスに対して翻訳結果を生成し,翻訳結果と参照訳を利用して誤り分析を優先的に行うべき箇所を選択する.次に,重点的に選択された箇所を中心に人手により分析を行う.誤りの可能性が高い箇所を特定するために,機械翻訳結果に含まれる$n$-gramを,誤りの可能性の高い順にスコア付けする手法を提案する(\ref{sec:scoring}節).また,誤りかどうかの判断を単純な一致不一致より頑健にするために,与えられた機械翻訳結果と正解訳のリストから,機械翻訳文中の各$n$-gramに対して誤りらしさと関係のあるスコア関数を設計する.設計されたスコア関数を用いることで,誤り$n$-gramを誤りらしさに基づいて並べ替えることができ,より誤りらしい箇所を重点的に分析することが可能となる.単純にスコアに基づいて選択を行った場合,正解訳と一致するような明らかに正しいと考えられる箇所を選択してしまう恐れがある.この問題に対処するため,正解訳を利用して誤りとして提示された箇所をフィルタリングする手法を提案し,選択精度の向上を図る(\ref{sec:filtering}節).\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f1.eps}\end{center}\caption{本研究の流れ図}\label{fig:scoring-ex}\vspace{-0.5\Cvs}\end{figure}実験では,まず\ref{sec:manual-analysis-result}節〜\ref{sec:auto-analysis-result}節で提案法の誤り箇所選択精度の測定を行い,単一システムの分析,及びシステム間比較における有効性の検証を行う.実験の後半では,提案法の課題を分析し(\ref{sec:selection-error-analysis}節),提案法を機械翻訳システムの改善に使用した場合の効果について検討を行う(\ref{sec:act-error-analysis}節). \section{機械翻訳の自動評価と問題点} \label{sec:analysis}本節では,従来から広く行われている機械翻訳の自動評価について説明し,その問題点を明らかにする.\subsection{評価の手順}機械翻訳システムに「原文$\boldsymbol{f}$」を与えることで,「機械翻訳結果$\boldsymbol{e}$」が得られたとする.評価方法として「自動評価尺度」を用いる場合,事前に人手により翻訳された「参照訳$\boldsymbol{r}$」を与える.自動評価尺度は,機械翻訳結果$\boldsymbol{e}$と参照訳$\boldsymbol{r}$の差異に基づき機械翻訳結果の良し悪しをスコアとして計算するものである\cite{papineni02bleu,doddington02nistmetric,banerjee05meteor}.また,「品質推定」と呼ばれる技術は,参照訳を利用せずに評価を行う.具体的には,誤りのパターンを学習したモデルによって機械翻訳文の精度を推定することや\cite{specia09qualityestimation},翻訳結果の精度を部分的に評価することが行われている\cite{bach11goodness}.自動評価尺度を利用する場合は参照訳を用意する必要があるが,翻訳精度の計算を翻訳システムに依らず一貫して行える利点がある.一方,品質推定は参照訳を必要としない分,翻訳精度を正しく推定することが比較的困難である.本研究は,参照訳が与えられた状況で機械翻訳の誤り分析を行う場合を対象とする.\subsection{代表的な自動評価尺度}機械翻訳の自動評価尺度は,様々なものが提案されており,尺度ごとに異なった特徴がある.BLEU\cite{papineni02bleu}は機械翻訳の文章単位の自動評価尺度として最も一般的に使われるものであり,参照訳$\boldsymbol{r}$と機械翻訳結果$\boldsymbol{e}$の間の$n$-gramの一致率に基づきスコアを計算する.機械翻訳結果と参照訳が完全に一致すれば1となり,異なりが多くなるに連れて0に近くなる.BLEUを文単位の評価に対応させたものにBLEU+1\cite{lin04orange}がある.BLEUやBLEU+1は,$\boldsymbol{e}$と$\boldsymbol{r}$の表層的な文字列の違いにしか着目しないため,$\boldsymbol{e}$が$\boldsymbol{r}$の換言である場合にスコアが不当に低くなる場合がある\footnote{BLEUやBLEU+1を用いる場合,複数の異なった言い回しの参照訳を与えることで,複数の言い回しに対応した評価が行える.}.BLEUとは異なり,評価尺度自体が換言に対応したものに,METEOR\cite{banerjee05meteor}がある.METEORを利用する場合,単語やフレーズの換言を格納したデータベースを事前に用意しておく.これにより,参照訳と機械翻訳結果の$n$-gramが一致しない場合であっても,データベース中に含まれる換言を利用することで一致する場合,スコアの低下を小さくすることが可能となる.\subsection{自動評価の課題}\begin{table}[b]\caption{機械翻訳の誤訳の例}\label{tab:wrong-trans}\input{04table01.txt}\vspace{4pt}\small文脈から``right''は「正しい」と訳すべきだが「右」と訳されている.また``choose''に相当する語句が機械翻訳結果では削除されている.\end{table}表\ref{tab:wrong-trans}に,英日翻訳における原文,機械翻訳結果,参照訳の例を示す.機械翻訳システムとして,句構造に基づく機械翻訳システムを利用した.自動評価尺度の一例として,BLEU+1スコアを示す.また,図\ref{fig:wrong-trans-t2s}はシステムが翻訳結果を出力した際の導出過程の一部である.自動評価尺度を用いることで,翻訳システムの性能を数値で客観的に比較することが可能であるが,この例から自動評価尺度に頼り切ることの危険性も分かる.前節で述べたように,自動評価尺度は人間の評価と必ずしも一致しない評価を行う場合がある.表\ref{tab:wrong-trans}の例では,``Forthisreason''が機械翻訳で「このため」と正しく翻訳されているが,参照訳では「それゆえ」と翻訳されているため,文字列の表層的な違いにしか着目しないBLEU+1では誤訳と判断されて,スコアが不当に低くなる.METEORを用いた場合,換言によるスコアの低下は発生しにくくなるが,逆に誤った換言が使用され,スコアが不当に高くなることも考えられる.自動評価尺度は,機械翻訳結果の正確さを判断する上で有用であるが,その結果からシステムの特徴を把握することは困難である.しかし,このように翻訳結果に目を通すことで,自動評価尺度の数値だけからは分からない情報を把握することが可能となる.\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f2.eps}\end{center}\caption{機械翻訳システムの導出過程の例}\smallこの文脈で形容詞(JJ)``right''を「右」と訳すのは誤りである.また動詞(VB)``choose''を削除する規則をここで使用することも誤りである.\label{fig:wrong-trans-t2s}\end{figure} \section{スコアに基づく誤り候補$\boldsymbol{n}$-gramの順位付け} \label{sec:scoring}\textcolor{black}{機械翻訳の誤り箇所を自動的に提示する際に,単純に誤り箇所を列挙するのではなく,より誤りの可能性が高い箇所から順に示すことができれば,後の人手による誤り分析の効率が上がると考えられる.}本節では,機械翻訳結果に含まれる$n$-gramに対して,分析の優先度に対応するスコアを与える手法を提案する.分析者はこのスコアを参考にし,最初に分析する箇所を決定する.図\ref{fig:scoring-ex-part}に$n$-gramのスコアに基づく誤り分析の例を示す.この例では,提案法によって\textbf{い.」}が最も優先的に分析すべき$n$-gramと判断されているため,最初に機械翻訳結果全体からこの$n$-gramが含まれる箇所を見つけ,誤り分析をする.分析が終了したら,次に優先度の高い\textbf{れるが}を,最後に\textbf{られる。}を分析する.ある$n$-gramを提示した際に,もし分析者が機械翻訳の誤りでない箇所を分析対象としてしまうと,余計な分析作業を行うこととなり,分析効率が低下する原因となる.このため,効率的な誤り分析が行われるためには,最初に提示される$n$-gramほどシステムの特徴的な誤りを捉えていることが望ましい.\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f3.eps}\end{center}\caption{$n$-gramのスコアに基づく誤り分析}\label{fig:scoring-ex-part}\end{figure}\subsection{正解訳を用いた$\boldsymbol{n}$-gramのスコア計算法}本節では,このようなスコア付けを行う手法を5つ説明する.そのうち,2つ(ランダム選択と誤り頻度に基づく選択)はベースラインであり,3つ(自己相互情報量に基づく選択,平滑化された条件付き確率に基づく選択,識別言語モデルの重みに基づく選択)は提案法である.まず,すべての手法に共通する以下の関数を定義する.\begin{description}\item[$\boldsymbol{\phi}(\boldsymbol{e})$:]文$\boldsymbol{e}$に対する素性ベクトル.各要素は文$\boldsymbol{e}$に含まれる$n$-gramの出現頻度.\item[$\boldsymbol{e}_{MT}(n)$:]コーパス中の$n$番目の文に対応する機械翻訳結果.\item[$\boldsymbol{e}_{C}(n)$:]コーパス中の$n$番目の文に対応する正解訳(\ref{sec:score-correct-trans}節で定義).\end{description}これらの関数を利用し,次節以降で述べるスコア関数に従って,コーパス全体から$n$-gramのスコアを計算する.\subsubsection{ランダム選択}ランダム選択は,$n$-gramの順位付けを一切行わずに誤り分析を進めることに等しい.\ref{sec:filtering}章で誤り候補のフィルタリングの説明を行うが,フィルタリングを一切行わない場合はチャンスレートとなる.また,ランダム選択と参照訳を用いた厳密一致フィルタリングを組み合わせた場合は,先行研究\cite{popovic2011towards}で提案されている参照訳との差分に基づく分析となる.\subsubsection{誤り頻度に基づく選択}誤り頻度に基づく手法は,機械翻訳結果に多く含まれ,正解訳に含まれない回数が多い$n$-gramは重点的に分析すべきという考え方に基づく.$n$-gramのスコア計算では,ある$n$-gram$x$が機械翻訳結果$\boldsymbol{e}_{MT}(n)$に含まれていて,かつ正解訳$\boldsymbol{e}_{C}(n)$に含まれていない回数を計算し,スコアとする.\begin{equation}S(x)=-\sum_n\left[\phi_x(\boldsymbol{e}_{MT}(n))-\phi_x(\boldsymbol{e}_{C}(n))\right]_+\label{eqn:freq}\end{equation}ここで$[~]_+$はヒンジ関数である.このスコアが低い$n$-gramから順に選択することで,誤って出現した回数が多い$n$-gramを優先的に分析することとなる.しかし,頻繁に発生する誤りが必ずしも分かりやすく有用な誤りとは限らない.表\ref{tab:commonerrors}は,ある英日機械翻訳システムが出力した翻訳結果に含まれ,参照訳には含まれなかった$n$-gramを,回数が多いものから順に一覧にしたものである.この表で,右側の数字はテストコーパス内で誤って出現した回数を示している.この表を見ると,単純に頻繁に検出される誤りは目的言語に頻繁に出現するものに支配されており,この結果だけからは翻訳システムの特徴を把握しにくいことが分かる.\begin{table}[t]\caption{機械翻訳で頻繁に起こる誤り}\label{tab:commonerrors}\input{04table02.txt}\end{table}\subsubsection{自己相互情報量に基づく選択}誤り頻度に基づいて$n$-gramの選択を行った場合,表\ref{tab:commonerrors}に示したように誤りとして検出されるものの多くは単純に目的言語の特徴を捉えたものとなってしまう.本研究ではこの問題に対処するため,出現頻度より正しく,ある$n$-gramが誤った文の特徴であるかどうかを判断する手法を提案する.最初のスコア付け基準として,自己相互情報量(PMI:PointwiseMutualInformation)に基づく手法を提案する.PMIは,2つの事象の関係性を計る尺度であり,本研究では与えられた$n$-gramと機械翻訳結果との関係性をスコアとして定式化する.機械翻訳結果と関係が強い$n$-gramは,正解訳との関係は逆に弱くなる.PMIは以下の式によって計算される\cite{churchhanks90pmi}.\begin{align*}PMI(x,\boldsymbol{e}_{MT})&=\log\frac{p(\boldsymbol{e}_{MT},x)}{p(\boldsymbol{e}_{MT})\cdotp(x)}\\&=\log\frac{p(\boldsymbol{e}_{MT}|x)}{p(\boldsymbol{e}_{MT})}\end{align*}ここで,各原文につき機械翻訳結果と正解訳が1つずつ与えられるため,$p(\boldsymbol{e}_{MT})=1/2$である.条件付き確率$p(\boldsymbol{e}_{MT}|x)$は以下の式で計算される.\[p(\boldsymbol{e}_{MT}|x)=\frac{\sum_n\phi_x(\boldsymbol{e}_{MT}(n))}{\sum_n\{\phi_x(\boldsymbol{e}_{MT}(n))+\phi_x(\boldsymbol{e}_{C}(n))\}}\]最終的に,自己相互情報量の期待値に比例する以下の値をスコアとし,スコアが低いものから順に$n$-gramを選択する.\begin{align}S(x)&=\phi_x(\boldsymbol{e}_{MT}(n))\cdot(-PMI(x,\boldsymbol{e}_{MT}))\\&\proptop(x,\boldsymbol{e}_{MT})\cdot(-PMI(x,\boldsymbol{e}_{MT}))\nonumber\end{align}\subsubsection{平滑化された条件付き確率に基づく選択}「誤り頻度に基づく選択」では,目的言語に頻繁に出現する$n$-gramが分析対象の上位を占めてしまう問題があった.そこで,2つ目のスコア付け基準は,誤り頻度を全体の出現回数で正規化し,条件付き確率として定式化することを考える.平滑化された条件付き確率に基づく選択では,ある$n$-gramがシステム出力に含まれながら参照文に含まれない確率をスコアとし,このスコアが高いものを優先的に分析する.まず,以下の関数を定義する.\begin{align*}F_{MT}(x)&=\sum_n\left[\phi_x(\boldsymbol{e}_{MT}(n))-\phi_x(\boldsymbol{e}_{C}(n))\right]_+\\F_{C}(x)&=\sum_n\left[\phi_x(\boldsymbol{e}_{C}(n))-\phi_x(\boldsymbol{e}_{MT}(n))\right]_+\end{align*}ここで,$F_{MT}(x)$は誤り頻度に基づく選択で利用した式(\ref{eqn:freq})に等しい.また,$F_{C}(x)$は$n$-gramが正解訳により多く出現した回数を表す.ある$n$-gramを選択した際,その$n$-gramが正解訳に多く含まれる条件付き確率は以下の通りである.\begin{equation}p(\boldsymbol{e}_{MT}|x)=\frac{F_{MT}(x)}{F_{MT}(x)+F_{C}(x)}\end{equation}しかし,確率を最尤推定で計算すると,正解訳として出現せず,機械翻訳結果に1回しか出現しないような稀な$n$-gramの確率が1となり,頻繁に選択されてしまう.上述の問題点を解決するために,確率の平滑化を行う.文献\cite{mackay95hdlm}では平滑化の手法としてディリクレ分布を事前分布として確率を推定しており,本手法もこれに習う.平滑化を用いた際の$n$-gram$x$についての評価関数は式(\ref{eqn:dirichlet})の通りであり,$S(x)$が低いものを代表的な$n$-gramとする.\begin{equation}S(x)=-\frac{F_{MT}(x)+\alphaP_{MT}}{F_{MT}(x)+F_{C}(x)+\alpha}\label{eqn:dirichlet}\end{equation}ただし,\[P_{MT}=\frac{\sum_xF_{MT}(x)}{\sum_xF_{MT}(x)+\sum_xF_{C}(x)}\]このとき平滑化係数$\alpha$を決定する必要がある.$n$-gramを利用して参照文もしくはシステム出力文を選択する際,選択される文の種類がディリクレ過程に従うと仮定すると,コーパス全体に対する尤度は式(\ref{eqn:dirichlet2})で表される.\begin{equation}P=\prod_x\frac{\{\prod_{k=0}^{F_{MT}(x)-1}(k+\alphaP_{MT})\}\{\prod_{k=0}^{F_{C}(x)-1}(k+\alphaP_{C})\}}{\prod_{k=0}^{F_{MT}(x)+F_{C}(x)}(k+\alpha)}\label{eqn:dirichlet2}\end{equation}式(\ref{eqn:dirichlet2})の$P$が最大化されるような$\alpha$をパラメーターとする.\pagebreak$P$は全区間で微分可能であり,唯一の極があるとき,その点で最大値となる.よって$\alpha$は$P$の微分からニュートン法により計算できる.\subsubsection{識別言語モデルの重みに基づく選択}最後に,識別言語モデルの重みに基づくスコア付け基準を提案する.識別言語モデルは,自然な出力言語文の特徴を捉えるように学習される通常の言語モデルとは異なり,ある特定のシステムについて,起こりやすい出力誤りを修正するように学習される.さらに学習時に正則化を行えば,モデルのサイズが小さくなり,少ない修正で出力を改善するような効率的な修正パターンが学習される.誤り分析の観点から見ると,モデルによって学習された効率的な修正パターンに目を通せば,システムの特徴的な誤りを発見できると考えられる.\begin{algorithm}[b]\caption{構造化パーセプトロンによる識別言語モデルの学習}\label{alg:s-perceptron}\begin{algorithmic}\FOR{$t=1$\TO$T$}\FOR{$n=1$\TO$N$}\STATE$E^*\leftarrow\argmax_{E\in\boldsymbol{\hatE}(n)}EV(E)$\STATE$\hat{E}\leftarrow\argmax_{E\in\boldsymbol{\hatE}(n)}\boldsymbol{w}\cdot\boldsymbol{\phi}(E)$\STATE$\boldsymbol{w}\leftarrow\boldsymbol{w}+\boldsymbol{\phi}(E^*)-\boldsymbol{\phi}(\hat{E})$\ENDFOR\ENDFOR\end{algorithmic}\end{algorithm}\vspace{1\Cvs}\noindent\textbf{○構造化パーセプトロンによる識別言語モデル}識別言語モデルの学習は構造学習の一種である.先行研究では,構造学習の最も単純な手法である構造化パーセプトロン\cite{collins02structuredperceptron}を,識別言語モデルの学習において有用な手法であると示している\cite{roark07discriminative}.構造化パーセプトロンでは,\textcolor{black}{候補集合の中で誤りの修正先として学習される目標$E^*$を定める.本研究では目標として,機械翻訳結果の$n$-bestの中で評価尺度が最も高かった文(オラクル訳,\ref{sec:score-correct-trans}節参照)を選択する.学習では,}モデルによって最も大きなスコアが与えられる現在の仮説$\hat{E}$と$E^*$の素性列を比較する.1回の更新において,$\hat{E}$と$E^*$の差分を用いて重み$\boldsymbol{w}$を更新する.重みが更新されると,重みと素性列から計算されるスコアが変化し,仮説$\hat{E}$が更新される.$\hat{E}$と$E^*$が等しいときは差分が$\boldsymbol{0}$のため更新を行わない.重みの更新はコーパス全体に対して一文ごとに逐次的に行い,反復回数や重みの収束といった終了条件が満たされるまで反復する.学習のアルゴリズムをAlgorithm~\ref{alg:s-perceptron}に示す.ここで,$\boldsymbol{\hatE}(n)$は$n$番目の文に対応する機械翻訳結果の$n$-bestリスト,$T$は反復回数である.また,$EV(E)$は機械翻訳結果$E$の翻訳精度を評価するための自動評価尺度である.\vspace{1\Cvs}\noindent\textbf{○L1正則化による素性選択}\label{sec:l1}機械翻訳システムの誤り傾向をより明確にするため,重みの学習時にL1正則化を行う.L1正則化は,重みベクトルに対してL1ノルム$\|\boldsymbol{w}\|_1=\sum_i|w_i|$に比例するペナルティを与える.L1正則化を用いる時に,重み$\boldsymbol{w}$の中で多くの素性に対応するものが0となるため,識別能力に大きな影響を与えない素性をモデルから削除することが可能となる.L1正則化された識別モデルを学習する簡単かつ効率的な方法として,前向き後ろ向き分割(forward-backwardsplitting;FOBOS)アルゴリズムがある\cite{duchi09fobos}.一般的なパーセプトロンでは正則化を重みの更新時に行うが,FOBOSでは重みの更新と正則化の処理を分割し,重みの利用時に前回からの正則化分をまとめて計算し,効率化を図る.\vspace{1\Cvs}\noindent\textbf{○識別言語モデルの素性}識別言語モデルの素性として様々な情報を利用できるが,本研究では$n$-gramに基づく選択を行うため,以下の3種類の素性を利用する.\begin{description}\item[翻訳仮説を生成したシステムのスコア:]システム出力を修正するように学習するため,学習の初期においてシステムスコアによる順位付けが必要である.\item[翻訳仮説に含まれる$\boldsymbol{n}$-gramの頻度:]$n$-gramに対して重み付けをすることで,システムが出力する誤った$n$-gramを捉える.\item[翻訳仮説の単語数:]翻訳システムが利用する評価尺度が単語数によって大きく影響される場合,単語数を調整するのに用いられる.\end{description}$n$-gramの選択時には,識別言語モデルによって学習された重みが低いものを優先的に選択する.\subsection{スコア計算に用いる正解訳$\boldsymbol{e_{C}(n)}$の選択}\label{sec:score-correct-trans}機械翻訳の評価では,正解訳として事前に人手で翻訳された参照訳を利用することが多い.しかし参照訳は機械翻訳とは独立に翻訳されるため,使用する語彙が機械翻訳結果とは異なる場合が多いと考えられる.本研究では参照訳の代わりに,機械翻訳システムが出力した翻訳候補の中で,自動評価尺度により最も高いスコアが与えられた文(オラクル訳)を正解訳として利用し,参照訳を用いた場合との比較を行う.表\ref{tab:oracle-ex}にオラクル訳の例を示す.この例では,日本語の「宗派」が機械翻訳結果で``sect''と正しく翻訳されているが,参照訳では``school''となっているため,差分を取ると誤り$n$-gramとして選択されやすくなってしまう.オラクル訳は機械翻訳システムの探索空間の中で,参照訳の表現に最も近い文であるため,訳出に近い表現を維持しながら正しい翻訳に近づく.この場合,誤りでない``sect''がオラクル訳でも使用されているため,差分をとった際に誤り$n$-gramとして扱われにくくなる.このように,オラクル訳は翻訳仮説と同じシステムから出力されるため,オラクル訳は参照訳に比べて翻訳仮説との表層的な異なりが少なくなり,\textcolor{black}{換言を誤り$n$-gramとして誤選択する}可能性が低くなると考えられる.一方,オラクル訳は機械翻訳システムから出力されている以上,誤訳を含む場合もあることに注意されたい.\begin{table}[t]\caption{オラクル訳の例}\label{tab:oracle-ex}\input{04table03.txt}\end{table} \section{誤り候補$\boldsymbol{n}$-gramのフィルタリング} \label{sec:filtering}$n$-gramに基づく誤り箇所選択では,$n$-gramのスコアはコーパス全体から計算される.このため,コーパス全体を見た際に分析すべきと判断された$n$-gramであっても,ある特定の文では誤りとは考えにくい場合がある.本節では,選択された箇所に対してフィルタリングを適用することにより誤選択を回避し,機械翻訳の誤り箇所選択率の向上を行う.\subsection{厳密一致フィルタリング}このフィルタリングは,機械翻訳結果中のある$n$-gramが誤り箇所として選択された際に,その$n$-gramが\textcolor{black}{正解訳の一部に厳密一致するかどうかを確認し,一致する場合は}選択を行わないようにする.フィルタリングの具体例を表\ref{tab:exact-filter}に示す.$n$-gram「、右」が誤り箇所の候補とされた際,1つ目の例では機械翻訳結果の一致箇所が選択されるが,2つ目の例では正解訳に同一の$n$-gramがあるため,誤り箇所の候補から除外される.これは,正解訳に含まれている文字列は翻訳誤りではないだろうという直感に基づく.\subsection{換言によるフィルタリング}機械翻訳結果と正解訳の文字列が,表層的に異なりながら意味が等しい場合,厳密一致フィルタリングを用いただけでは選択された箇所が正解訳に含まれず,誤選択を回避することができない.この問題を解決するため,本研究では正解訳の換言を用いたフィルタリングを行う.換言によるフィルタリングの例を図\ref{fig:para-ref}に示す.正解訳として``Idon'tlikeIT!''が与えられている中,機械翻訳結果が``Ilikeinformationtechnology!''となり,``likeinformation''が誤りの候補として挙げられたとする.換言によるフィルタリングでは,まず正解訳に含まれる全ての部分単語列を用意した換言データベースの中から検索し,ある閾値以上の確率で置換可能な換言を抽出する.次に,抽出された換言を利用して参照訳のパラフレーズラティス\cite{onishi10paraphrase}を構築する.最後にラティス上を探索し,誤りの候補として挙げられた$n$-gram``likeinformation''が見つかった場合は,この$n$-gramを誤りの候補から除外する.\begin{table}[t]\setlength{\fboxsep}{0.1em}\caption{厳密一致フィルタリングの例}\label{tab:exact-filter}\input{04table04.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f4.eps}\end{center}\caption{パラフレーズラティスによる誤り箇所候補のフィルタリング}\label{fig:para-ref}\end{figure}\subsection{フィルタリングに用いる正解訳の選択}\ref{sec:score-correct-trans}節で,スコア計算に用いる正解訳として参照訳またはオラクル訳を利用するが,フィルタリングの際にも正解訳として\textcolor{black}{参照訳のみ用いた場合と,参照訳に加えてオラクル訳を用いた場合で比較を行う}.オラクル訳の選択では,機械翻訳の自動評価尺度を用いるが,本研究では以下の2つの評価尺度で選択を行った場合の比較を行う.\begin{description}\item[BLEU+1:]機械翻訳の自動評価に一般的に用いられる尺度であるBLEUを,文単位の評価に対応させたもの.換言を考慮しない.\item[METEOR:]BLEU+1は,参照訳と機械翻訳結果の表層的な文字列の違いにしか着目しないため,換言に対して不当な罰則を行ってしまう.METEORは事前に与えられた換言テーブルを用いるため,換言に対する罰則がBLEU+1に比べて小さくなる.METEORを用いた場合,BLEU+1を用いた場合に比べ,オラクル訳と参照訳の違いは表層的に多くなると考えられるが,逆に機械翻訳結果との表層的な違いが少なくなり,換言の誤選択が発生しにくくなると考えられる.\end{description} \section{実験} \label{sec:experiments}本節では,各実験を通して,提案法を利用することで機械翻訳の誤り分析をより効率的に行えることを示す.まず,各スコア基準に従って単一の機械翻訳システム(\ref{sec:pr-curve}節)及び複数の機械翻訳システム(\ref{sec:system-comparison}節)の誤り箇所選択を行い,人手評価を行う.これにより,提案法の選択精度とシステム間比較における有効性を検証する.次に,誤りとして選択された箇所のフィルタリングを複数の手法によって行い,フィルタリングの効果を自動評価によって測定する(\ref{sec:auto-analysis-result}節).さらに,提案法が翻訳誤りでない箇所を誤選択する場合についても分析を行い,提案法が抱える課題を明らかにし,その改善策について検討する(\ref{sec:selection-error-analysis}節).また,提案法によって発見された翻訳誤りを修正した際の効果について検討する(\ref{sec:act-error-analysis}節).\subsection{選択された誤り箇所の調査}\label{sec:manual-analysis-result}本節では,各手法によって順位付けされた誤り$n$-gramを人手で分析する.人手評価の方法は赤部,Neubig,Sakti,戸田,中村(2014a)\nocite{akabe14signl216}に従い2段階で行う.まず,各誤り箇所選択手法によって選択された箇所に対し,分析者はその箇所が機械翻訳の誤り箇所を捉えているかどうかをアノテーションする.これにより,優先的に選択された上位$k$個の$n$-gramについて,誤り箇所の適合率を測定することが可能となる.次に,誤り箇所を捉えている場合は,以下に示す誤りの種類をアノテーションする.\begin{description}\item[文脈依存置換誤り:]別の文脈では正しい翻訳だが,この文脈では不適切な翻訳.\item[文脈非依存置換誤り:]いかなる文脈であっても,不適切な翻訳.\item[挿入誤り:]不必要な語句の挿入.\item[削除誤り:]必要な語句の不適切な削除.\item[並べ換え誤り:]選択された箇所が語順の誤りを捉えている.\item[活用誤り:]活用形が誤っている.\end{description}これにより,選択された誤り箇所の誤り傾向を把握する.これらの結果を元に,翻訳システムの比較を行う.\subsubsection{実験設定}すべての実験で京都フリー翻訳タスク(KFTT)\cite{neubig11kftt}の日英翻訳を利用した.コーパスの大きさを表\ref{tab:kftt}に示す.単一の機械翻訳システムを用いた実験では,Travatarツールキット\cite{neubig13travatar}に基づくforest-to-string(\textsc{f2s})システムを利用した.システム間比較では,\textsc{f2s}システムに加え,Mosesツールキット\cite{koehn07moses}に基づくフレーズベース翻訳(\textsc{pbmt})システム及び階層的フレーズベース(\textsc{hiero})システムを利用した.翻訳システムを構築する上で,\textsc{f2s}システムでは単語間アラインメントにNile\footnote{http://code.google.com/p/nile/}を利用し,構文木の生成にはEgret\footnote{http://code.google.com/p/egret-parser/}を利用した.\textsc{pbmt}システムと\textsc{hiero}システムでは,単語間アラインメントにGIZA++\cite{och03alignment}を利用した.チューニングにはMERT\cite{och03mert}を利用し,評価尺度をBLEU\cite{papineni02bleu}とした.\begin{table}[b]\caption{KFTTのデータサイズ}\label{tab:kftt}\input{04table05.txt}\end{table}\begin{table}[b]\caption{実験に用いた誤り箇所選択手法}\label{tab:method-list}\input{04table06.txt}\end{table}$n$-gramの選択には\ref{sec:scoring}章で説明したスコア計算法を利用した.実験を行ったスコア計算法とスコアの学習に利用したデータの組み合わせを表\ref{tab:method-list}に示す.$n$-bestによる識別言語モデルの学習は,反復回数を100回とした.学習時にFOBOS\cite{duchi09fobos}によるL1正則化を行った.正則化係数は$10^{-7}$--$10^{-2}$の中から選び,KFTTのテストセットに対して高い精度を示す値を利用した.学習には1-gramから3-gramまでの$n$-gramを\textcolor{black}{長さによる区別を行わずに}利用した.オラクル文の選択にはBLEU+1を利用し,選択される$n$-gramの誤り傾向を分析した.各手法で,参照訳を用いた厳密一致フィルタリングを行った.\begin{figure}[b]\begin{center}\includegraphics{23-1ia4f5.eps}\end{center}\caption{分析対象となった$n$-gramの誤り箇所選択率}\small\centerline{横軸は選択した$n$-gramの種類数,縦軸は誤り箇所適合率.}\label{fig:precision}\end{figure}\subsubsection{選択する$\boldsymbol{n}$-gramの個数と適合率の関係}\label{sec:pr-curve}まず,識別言語モデルの重みに基づく選択,機械翻訳結果と参照訳から計算された誤り頻度に基づく選択,ランダム選択の比較を行った.図\ref{fig:precision}に,上位の$n$-gramを順に選んだ際の誤り箇所適合率を示す.この結果から,識別言語モデルの重みに基づき選択された$n$-gramが,ランダム選択,誤り頻度に基づく選択の2手法に比べ,機械翻訳の誤り箇所を高い精度で捉えていることが分かる.\subsubsection{選択された$\boldsymbol{n}$-gramの統計}次に,各手法で上位30個に選ばれた誤り$n$-gramを選択した際の誤り箇所適合率を調査した.結果を表\ref{tab:method-comparison}に示す.\begin{table}[b]\caption{各手法により選択された$n$-gramの内訳}\label{tab:method-comparison}\input{04table07.txt}\vspace{4pt}\small誤り箇所選択率がランダムよりも高い3つの手法を太字で示した.また,3つの手法の中で各種類の誤りについて多く検出されたものを太字とした.\end{table}表から,誤り箇所選択率が高い手法は,平滑化された条件付き確率に基づく手法と,識別言語モデルの重みに基づく手法であることが分かる.その他の手法はランダム選択を下回っており,誤り箇所選択率が高いとは言えない.上位3つの手法を比較すると,参照文を利用した条件付き確率に基づく手法では,置換誤りや挿入誤りを多く捉えているが,削除誤りをほとんど捉えていないことが分かる.一方,識別言語モデルの重みに基づく手法では,他の手法に比べて2倍以上の削除誤りを捉えていることが分かる.識別言語モデルの重みに基づく手法以外で削除誤りの検出率が悪い原因として,削除誤りを検出する際には削除された単語列ではなく,その前後の文脈を見る必要があることが挙げられる.削除誤りが発生する前後の文脈は原文によって大きく変わるため,$n$-gramの発生頻度が小さく候補から外れやすくなる.しかし識別言語モデルの重みに基づく手法の場合,同じ文脈における削除誤りが$n$-best中の複数の候補に発生するため,削除誤りが修正されるまで$n$-gramの重みを大きくしようとする.結果として,識別言語モデルの重みに基づく手法では,削除誤りも多く捉えることができる.\textcolor{black}{各手法とも,ランダム選択に対して捉えられた誤りの分布は大きく異なる.この点から,別々の手法によって捉えられた誤りの分布を比較することはできないことが分かる.また,あるシステムの分析結果に対して,どの誤りが多い,あるいは少ないという絶対的な評価はできず,システム同士の相対的な評価にしか利用できないことに注意されたい.}識別言語モデルの重みによって選択された箇所の例を表\ref{tab:trainederrors}に示す.この結果を見ると,誤り頻度に基づいて選択した場合(表\ref{tab:commonerrors})に比べ,選択された$n$-gramが目的言語の言語現象に支配されていないことが分かる.\begin{table}[b]\setlength{\fboxsep}{2pt}\caption{識別言語モデルによって選択された上位の$n$-gram}\label{tab:trainederrors}\input{04table08.txt}\par\vspace{4pt}\small枠で囲まれた部分は選択された箇所および選択箇所に対応する箇所を示す.\end{table}\subsubsection{システム間比較}\label{sec:system-comparison}\textcolor{black}{分析対象とするシステムによって,含まれる誤りの分布が異なる.本節では,提案法によって検出される誤りが,本来の誤り分布を適切に捉えることを確認する.具体的には,\textsc{pbmt},\textsc{hiero},\textsc{f2s}の3つの翻訳システムで日英・英日の両方向に対して翻訳を行い,単一システムの評価を行った際と同様に,識別言語モデルの重みに基づく誤り箇所選択法を利用して抽出された上位30個の誤り$n$-gramに対し,分析を行った.}その結果を表\ref{tab:diff-dir}に示す.\begin{table}[b]\caption{3種類のシステムで両方向の翻訳を行った際の比較}\label{tab:diff-dir}\input{04table09.txt}\end{table}この結果から,\textsc{pbmt}と\textsc{hiero}の両システムでは,並べ換え誤りが上位の誤りとして検出されている一方,\textsc{f2s}システムの特に英日翻訳では下位の誤りとして検出された.一般的に,統語情報を使った翻訳システムは並べ換え誤りに強いことが知られており,本結果はこれを裏付けることとなった.次に,日英翻訳では挿入誤りが多く検出され,逆に英日翻訳では日本語で多様な活用誤りが多く検出されていることが分かる.このように僅か30個の誤り$n$-gramに目を通すだけで,各翻訳システムが苦手とする分野に目を通すことがある程度できたことが分かる.\subsection{選択された箇所に対するフィルタリングの効果}\label{sec:auto-analysis-result}本節では,翻訳誤りとして選択された箇所に対し,各フィルタリング法を適用した際の効果について,誤り箇所アノテーションコーパスを用いた自動評価により検証する.自動評価には,先行研究で提案されている機械翻訳結果を後編集した際の編集パターンを利用した手法(赤部,Neubig,Sakti,戸田,中村2014b)を利用する.\nocite{akabe14signl219}評価の際は,事前に選択精度評価用の機械翻訳結果を後編集したコーパスを作成する.後編集のパターンから,機械翻訳結果の各部分に対して,挿入誤り,削除誤り,置換誤り,並べ換え誤りのラベルを付与することが可能である.これを誤り箇所の正解ラベルとし,評価用の機械翻訳結果に対して各誤り箇所選択法を適用した際に,誤り箇所の正解ラベルをどの程度予測できるかを適合率と再現率により評価する.\subsubsection{実験設定}人手評価の際と同様に,機械翻訳システムとして京都フリー翻訳タスク(KFTT)\cite{neubig11kftt}の日英データで構築された\textsc{f2s}システムを利用した.誤り候補のフィルタリングでは,正解訳として参照訳のみ利用した場合と,参照訳とオラクル訳の2つを利用した場合で比較を行った.オラクル訳の選択には,評価尺度としてBLEU+1または,METEORversion1.5\cite{denkowski:lavie:meteor-wmt:2014}を利用し,それぞれ500-bestの中で評価尺度が最大となるものを選択し,比較を行った.パラフレーズラティスの構築のため,英語換言データベース(PPDB)\cite{ganitkevitch2013ppdb}のXLサイズ(43.2~Mルール)を利用した.また日本語のラティス構築のため,日本語換言データベース\cite{mizukami14cocosda}のXLサイズ(11.7~Mルール)を利用した.誤り箇所選択率の評価のため,KFTTの開発セットを日英翻訳した結果503文(12,333単語),英日翻訳した結果200文(4,846単語)に対して後編集を行い,誤り箇所アノテーションコーパスを作成した.\subsubsection{参照訳による厳密一致フィルタリングの効果}予備実験として,コーパス全体をランダムに選択した場合と,参照訳によるフィルタリングを行った場合で,誤り箇所の選択精度がどのようになるか確認を行った.表\ref{tab:filt}はすべての箇所をランダムに分析した場合の結果である.「フィルタリングなし」はチャンスレート,「フィルタリングあり」は分析の際にフィルタリングを行った結果である\footnote{フィルタリングなしの再現率は1.0とならない.これはコーパスの中に機械翻訳結果を見ただけでは発見不能な削除誤りが含まれる場合があるためである.}.この表から,参照訳によるフィルタリングを行うだけでも,再現率の低下を抑えつつ適合率が大きく改善したことが分かる.\begin{table}[b]\caption{参照訳によるフィルタリングの効果}\label{tab:filt}\input{04table10.txt}\end{table}\subsubsection{換言を考慮した正解訳の効果}各正解訳(参照訳,\textcolor{black}{参照訳+}オラクル訳)を用いたフィルタリング法を,換言あり・なしの場合について適用した実験を行った.表\ref{tab:precision-recall}は各設定における誤り箇所適合率と再現率の結果である.この表から,フィルタリングに用いる正解訳として,\textcolor{black}{参照訳のみ}を用いた場合に比べてBLEU+1によるオラクル訳を\textcolor{black}{加えた}方が適合率が高く,また\textcolor{black}{評価尺度として}METEORを用いた場合は,BLEU+1\textcolor{black}{を用いた場合}に比べ更に\textcolor{black}{適合率が}高くなったことが分かる.このことから,METEORにより選択されたオラクル訳は,機械翻訳の1-best出力で利用される語彙に似ており,換言表現が含まれにくくなっていることが分かる.\begin{table}[b]\caption{各フィルタリング法における適合率と再現率}\label{tab:precision-recall}\input{04table11.txt}\end{table}次に正解訳の換言を用いた場合の結果を見ても,選択箇所の誤り箇所適合率が高くなっていることが分かる.これらから,正解訳の換言を用いたフィルタリングを行うことによって,機械翻訳の誤り箇所がより適切に捉えられるようになったことが分かる.一方,再現率について注意しなければならない点がある.特にオラクル訳を正解訳として利用した場合に,誤り箇所選択の再現率が大きく低下している.これは,オラクル訳は機械翻訳システムが出力した文であり,1-bestと同様の誤りが発生する場合があるためである.しかし,今回提案した各手法は,コーパスの中の少なくとも20\%の誤り箇所を捉えており,提案法を利用する際には大きな問題とはならないと考えられる.誤り分析を効率的に行う際には,適合率の高い手法から先に利用し,選択された箇所を全て分析してしまった場合は順次再現率の高い選択法に切り替えることが可能である.\begin{table}[b]\caption{換言によりフィルタリングされた$n$-gramの例}\label{tab:para-example}\setlength{\fboxsep}{0.1em}\input{04table12.txt}\end{table}表\ref{tab:para-example}にフィルタリングされた箇所の例を示す.1つ目の日英翻訳の例では,``foundationof''が誤り箇所の候補として選択されている.しかし参照訳に含まれる``afoundationfor''は換言データベースによると``afoundationof''に置き換えることが可能である.その結果,``foundationof''は誤りの候補から正しく除外された.2つ目の英日翻訳の例では,換言データベースにより句点「、」が削除されたことで,不適切な選択箇所が正しく除外された.この際注意すべきこととして,生成されたパラフレーズラティスが言語的に正しいものとは限らないという点が挙げられる.このため,誤った翻訳が発生している箇所が候補から除外される可能性もあることに注意されたい.\subsubsection{換言テーブルのドメインの影響}次に,日英翻訳において異なる換言データベースを使用した際の選択精度の調査を行った.前節の実験で利用した英語PPDBには,分析対象であるKFTTのデータが含まれていない.このため,KFTTのデータが含まれている日本語PPDBの構築データを利用して英語のPPDBを新たに作成した.前者を「ドメイン外」,新しく作成した後者を「ドメイン内」とし,評価結果を表\ref{tab:precision-recall-ppdb}に示す.\begin{table}[b]\caption{異なるドメインのPPDBを利用した場合の結果}\label{tab:precision-recall-ppdb}\input{04table13.txt}\end{table}この表から,分析対象のドメインのデータが含まれた換言データベースを利用することで,誤り箇所選択の適合率が向上したことが分かる.換言データベースは機械翻訳のパラレルデータがあれば容易に作成可能なため\cite{bannard05paraphrase},誤り分析で利用する際には独自に作成することが望ましいと言える.\subsubsection{選択された誤り箇所の分布}誤り箇所選択法によって見つかった誤りの傾向が,本来の誤り傾向と異なる場合,機械翻訳システムの傾向を正しく把握できないことにつながる.このため,誤り分析コーパスに含まれる誤りの分布と,各誤り箇所選択法によって見つかった誤りの分布の比較を行った.各手法によって見つかった誤りの統計を図\ref{fig:details}に示し,表\ref{tab:kl}にKLダイバージェンス\cite{kullback1951}$D_{\mathsf{KL}}(P_{\mathsf{corpus}}\|P_{\mathsf{select}})$を示す.ここで,$P_{\textsf{corpus}}$はコーパスに含まれる誤りの分布,$P_{\textsf{select}}$は各手法によって見つかった誤りの分布である.この結果から,参照訳を用いたフィルタリング法によって検出される誤りが,翻訳システムの誤り傾向を最も正確に捉えていると言えるが,他の手法でもKLダイバージェンスの値が0.001程度に収まっている.この結果から,いずれの手法においても選択された誤りの種類に大きな偏りが生じず,機械翻訳システムの誤り傾向を適切に捉えていることが分かった.\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f6.eps}\end{center}\caption{各手法で選択された誤り箇所の分布}\small\centerline{``All''は誤り分析コーパスに含まれる誤りの分布を示す.}\label{fig:details}\end{figure}\begin{table}[t]\caption{コーパスに含まれる誤り分布と見つかった誤り分布の間のKLダイバージェンス}\label{tab:kl}\input{04table14.txt}\end{table}\subsection{誤選択箇所の分析}\label{sec:selection-error-analysis}\ref{sec:manual-analysis-result}節及び\ref{sec:auto-analysis-result}節の実験から,各誤り箇所選択法が誤って正しい翻訳箇所を選択する場合,またはフィルタリングによって誤り箇所が選択できなくなってしまう場合が存在することが明らかとなった.また,誤り箇所選択の自動評価の際,後編集結果に基づいて誤り箇所がアノテーションされたコーパスを用いるが,そもそもこのコーパスに誤りが含まれている場合は,精度評価が正しく行えないと考えられる.本節では,\ref{sec:auto-analysis-result}節と同様に,日英翻訳の誤り箇所アノテーションコーパスを用いて誤り箇所選択を行い,自動評価によって誤選択と判断された箇所について原因の調査を行った.\subsubsection{誤選択された正しい翻訳箇所に対する分析}誤り箇所選択法は,優先的に分析すべきと判断された箇所を選択するが,選択された箇所が本当は誤りでない場合がある.このような誤選択の分析を行うため,各手法により誤り箇所選択を行い,さらに選択箇所の自動評価を行った際に,誤選択と判断された部分について以下のアノテーションを人手で行う.\begin{description}\item[厳密一致:]$n$-gramは正解訳にも存在し,換言を利用しないフィルタリングによって除外可能.\item[換言:]$n$-gramは正解訳の局所的な換言であり,適切な換言ルールを利用できれば,除外可能.\item[統語的換言:]$n$-gramは正解訳の換言だが,局所的な換言が困難と考えられる.文全体に影響する複雑な換言を利用できれば,除外可能.\item[正解訳の誤り:]正解訳が誤っているため,フィルタリングによって除外されない.\item[無くても良い:]$n$-gramは正解訳に一致せず,フィルタリングできない.しかし,その$n$-gramが正解訳に含まれていなくても正解訳は誤りでない.\item[後編集誤り:]正解ラベルの誤り(後編集誤り)により誤選択と判断されたが,実際は適切な選択.\item[その他:]上記以外の誤り.$n$-gramが長すぎるためフィルタリングできない等.\end{description}\vspace{1\Cvs}\noindent\textbf{○実験設定}京都フリー翻訳タスク(KFTT)の日英データで構築された\textsc{f2s}システムに対し,「識別言語モデルの重みに基づく誤り箇所選択」を行い,再現率が5\%となる上位の$n$-gramについて分析を行った.選択の際,各手法によりフィルタリングを行った.オラクル訳を選択する際の評価尺度としてBLEU+1を利用した.\vspace{1\Cvs}\noindent\textbf{○実験結果}まず,選択箇所のフィルタリングを一切しない場合に検出された誤選択箇所の内訳を表\ref{tab:ngram-stat}に示す.誤選択と判断された箇所の内,誤り箇所アノテーションコーパスの誤りであり,誤選択ではなかったものが僅か3\%であり,後編集による自動評価が十分効果的であると言える.\begin{table}[b]\vspace{-0.8\Cvs}\caption{誤選択された$n$-gramの内訳}\label{tab:ngram-stat}\input{04table15.txt}\end{table}次に,各フィルタリング法を適用した場合に検出された\textcolor{black}{誤選択箇所の個数を表\ref{tab:ngram-stat-ratio}に示す.}この結果から,識別言語モデルの重みに基づく誤り箇所選択を行った際に,参照訳を用いたフィルタリングを行うことによって4割以上の誤選択を回避できることが分かった.また,誤選択された箇所が正解訳の換言に含まれる場合,参照訳の換言を用いたフィルタリング\textcolor{black}{によって3割以上,さらにオラクル訳やオラクル訳の換言を用いたフィルタリングを合わせることで}8割以上の誤選択を回避できることが分かった.\begin{table}[b]\caption{各フィルタリング適用後の誤選択箇所の個数}\label{tab:ngram-stat-ratio}\input{04table16.txt}\end{table}オラクル訳を正解訳としてフィルタリングを行った場合の「正解訳の誤り」がフィルタリングをしなかった場合に比べて多く現れている.これは,オラクル訳に含まれる誤りが参照訳に対して多いためである.また,「厳密一致」に分類される誤選択箇所であっても,フィルタリングで除外されない誤りがある.これは短い$n$-gramで一致していても,長い$n$-gramでは一致しない場合にフィルタリングを通過し,誤選択されてしまうためである.\begin{table}[b]\caption{各種類の誤選択例}\label{tab:example}\setlength{\fboxsep}{0.1em}\input{04table17.txt}\end{table}表\ref{tab:example}に誤り箇所の誤選択例を示す.「\textcolor{black}{統語的換言}」に分類された例を見ると,機械翻訳結果の``1392,started''が誤り箇所として選択されている.これは参照訳の統語的な換言であり,実験で使用したPPDBでは対応できないため,参照訳のみを正解訳とした場合は誤り箇所として扱われてしまう.しかし,オラクル訳は機械翻訳結果と同じ文の構造をしており,``began''を``started''に置き換えるだけで選択箇所に一致する.このため,オラクル訳の換言を使ったフィルタリングによって分析対象から除外可能となる.\subsubsection{選択されなかった誤り箇所に対する分析}誤り箇所選択によって選択された箇所に対してフィルタリング法を適用することで,正解訳に一致する$n$-gramや正解訳の換言に含まれる$n$-gramを誤り箇所から除外することができる.しかしそれらの手法によって,逆に正しく選択されるべき機械翻訳の誤り箇所を誤り箇所の候補から除外する場合があり,再現率の低下として現れている.このような問題の分析を行うため,誤り箇所アノテーションコーパスで誤りとされている箇所で,フィルタリングにより選択できなくなる部分について,以下の基準に従って分類を行う.\begin{description}\item[誤った部分に一致:]正解訳の異なる位置に対応する$n$-gramに一致した.\item[誤った換言:]換言テーブルの不適切なルールが使用された.\item[文脈的に誤った換言:]この文脈では使うべきでない換言ルールが使用された.\item[文脈的後編集:]文脈に依存する誤り箇所.後編集の表現方法を変えれば,誤り箇所ではなくなる.\item[正解訳の誤り:]正解訳が誤っているため,誤り箇所がフィルタリングによって除外された.\item[後編集誤り:]正解ラベルの誤り(後編集誤り,または不要な後編集)により誤り箇所とされているが,実際は適切な翻訳.\item[日本人の名前:]日本人の名前(姓名の順序が正解訳・機械翻訳結果と後編集の間で異なる).コーパス特有の問題であり後編集誤りに分類できるが,多く含まれているため特別に分類を行う.\end{description}\vspace{1\Cvs}\noindent\textbf{○実験設定}\ref{sec:auto-analysis-result}節で利用した日英機械翻訳の誤り箇所アノテーションコーパスについて,「参照訳を用いた厳密一致フィルタリング」及び「参照訳のパラフレーズを用いたフィルタリング」を適用し,選択されなくなってしまう誤り箇所の調査を行った.\vspace{1\Cvs}\noindent\textbf{○実験結果}各フィルタリング法を適用することによって選択されなくなった誤り箇所の統計を表\ref{tab:fn-stat}に示す.この結果から,参照訳のみによるフィルタリングを行った場合,選択されなくなる箇所の約3割は誤り箇所アノテーションコーパスの誤りによるもの,約6割は姓名の順序の違いに起因する誤りであり,実用上問題となる誤り箇所がほとんど除外されていないことが分かった.次に,参照訳の換言によるフィルタリングを適用した場合の結果を見ると,間違った換言が使用されたことによる誤選択が20\%以上あることが分かった.また,誤り箇所アノテーションコーパスの誤りにより誤り箇所として誤判断された箇所が約3割検出されており,各選択法の再現率を評価する際,無視できないほどの影響が出ることが分かった.\begin{table}[b]\caption{フィルタリングで除外された誤り箇所の内訳}\label{tab:fn-stat}\input{04table18.txt}\end{table}\subsection{誤り箇所選択の誤り分析における効果}\label{sec:act-error-analysis}本節では,実際の誤り分析を想定し,各誤り箇所選択法を用いて一定時間分析を行った際の効果を検証する.\begin{figure}[b]\begin{center}\includegraphics{23-1ia4f7.eps}\end{center}\caption{分析時間と誤り発見数の関係の調査}\label{fig:time-found-flow}\end{figure}図\ref{fig:time-found-flow}は本節の実験の手順を示す.まず,\ref{sec:scoring}章で述べた各手法によって$n$-gramにスコアを与え,優先的に分析すべき$n$-gramを順に抽出する.次に,機械翻訳の訳出の中で各$n$-gramが含まれている文を列挙し,$n$-gramに一致する箇所を選択する.\textcolor{black}{その際,\ref{sec:filtering}章で述べたフィルタリング処理を行う.分析シートは,$n$-gramが正解訳に含まれないものを先に表示し,正解訳に含まれるものを後に表示するようにした.このようにすることで,分析者はフィルタリングの対象とならなかった結果を優先的に分析しつつ,分析者の時間が許せば,誤ってフィルタリングされた機械翻訳文も分析対象とすることができる.}分析者は各$n$-gramが選択した箇所について誤り分析を行い,翻訳時に誤って使用された翻訳ルールを記録する.その際,誤り箇所が\ref{sec:manual-analysis-result}節で述べた「文脈依存誤り」か「文脈非依存誤り」かを記録しておくことで,翻訳ルールそのものが誤っているのか,あるいはモデル化が誤っているのかが把握可能となる.1個の$n$-gramにより複数の文が選択された場合は,実際の誤り分析と同様に,分析者の判断ですべての文を見ずに分析を中断しても良いこととする.最後に,各$n$-gram毎に誤り分析に要した時間を記録する.\subsubsection{実験設定}機械翻訳システムとして京都フリー翻訳タスク(KFTT)で構築された\textsc{f2s}英日翻訳システムを利用した.$n$-gramのスコアリングに「ランダム」,「誤り頻度」,「識別言語モデルの重み」に基づく3つの手法を利用し,自動評価でF値が最大となった「参照訳の換言によるフィルタリング」を利用した.KFTTの開発セットに対して誤り箇所選択を行い,誤って使用された翻訳ルールを記録した.\subsubsection{実験結果}各手法を利用して誤り分析を行った際に,経過した分析時間と誤って使用された翻訳ルールが発見された個数の関係を図\ref{fig:time-found}(a)に示す.また図\ref{fig:time-found}(b)は発見された誤りの中でも文脈非依存誤りの原因となるルールが見つかった個数を示す.グラフの傾きが大きいほど,誤りルールを効率的に発見できることを意味する.これらの結果から,各手法とも分析時間と誤りルール発見数の間に大きな違いは見られなかった.一方で,文脈非依存誤りの原因に限って見れば,識別言語モデルの重みに基づく誤り箇所選択では,他の手法に比べて早い段階から誤りが見つかることが分かった.\begin{figure}[b]\begin{center}\includegraphics{23-1ia4f8.eps}\end{center}\caption{分析時間と記録された誤りルール数の関係}\label{fig:time-found}\end{figure}文脈非依存誤りは,その誤りを修正しようとした際に文脈を考慮する必要がないため,文脈依存誤りに比べて誤りを容易に修正できる.このため,識別言語モデルの重みに基づく手法を利用することで,修正が容易な誤りを早期に発見することができ,システムの改善を比較的効率良く行うことができると言える.次に,文脈非依存誤りの原因として記録された翻訳ルールを機械翻訳システムから削除することによって,システムをどの程度改善できるかを見積もった.KFTTのテストセット1,160文を機械翻訳した際,21,080個の翻訳ルールが使用された.この内,各手法で文脈非依存誤りの原因として記録されたルールが使用された回数を表\ref{tab:stat-indepcover}に示す.この結果から,文脈非依存の誤りの原因となるルールを具体的に記録しても,そのルールが機械翻訳システムで使用されることは稀であることが分かる.翻訳システムの誤りを修正する際には,見つかった誤りルールを1つずつ修正するのではなく,見つかった誤りルールを一般化し,テストセットにおけるカバー率を向上させる必要がある.\begin{table}[t]\caption{文脈非依存誤りの原因として記録されたルールがKFTTのテストセット翻訳時に使用された回数}\label{tab:stat-indepcover}\input{04table19.txt}\end{table} \section{おわりに} \label{sec:conclusion}本論文では,機械翻訳システムの比較・改善のための誤り分析を効率的に行うことを目的として,機械学習の枠組みを利用した機械翻訳の誤り箇所選択法,及び選択箇所のフィルタリング法を提案した.その結果,人手評価において従来法に比べて高い精度で適切な誤り箇所を捉えることに成功した.また,優先的に選択された少量の誤り箇所を分析するだけで,各システムの誤り傾向を捉えることができ,システム間比較の効率化に貢献した.次に,機械翻訳の誤り箇所選択法が誤選択した箇所の分析を行ったところ,オラクル訳や換言を利用したフィルタリングは適合率の向上に効果的であるが,誤った換言が使用されることによる再現率の低下が明らかとなった.最後に,今回の提案法を実際の誤り分析に利用した場合の効果を検証した.その結果,翻訳システムを容易に修正可能な文脈非依存誤りについては,提案法により比較的早い段階から捉えることが可能であることが分かった.一方ですべての種類の誤りについて見ると,各手法とも誤りの発見数に大きな違いが見られなかった.\textcolor{black}{この理由として,各手法によって選択された誤り箇所の特徴が挙げられる.誤り頻度に基づき選択された誤り箇所は,識別言語モデルの重みに基づいて選択された箇所に比べ,目的言語に頻繁に出現する$n$-gramを多く含む.このため,識別言語モデルの重みに基づく手法を利用した際,誤り分析者が比較的効率良く選択箇所に目を通すことができたと考えられる.今回の実験では,目を通した文の数については記録を行っていないため,今後の調査項目として検討する必要がある.}また,発見したルールを単独で見ても,システム全体から見ればそのような翻訳ルールが使用されることはごく稀であることが分かった.一方で,具体的な誤りルールを一般化することで,同様の翻訳ルールをまとめて修正することは可能と考えられる.今後の課題として,見つかった具体的な誤りをどのように一般化するかを検討する必要がある.具体的には,見つかった翻訳ルールを品詞列などのより抽象的な情報に自動的に変換することや,誤ったルールを元に,人手によって複数の修正ルールを列挙する手法が考えられる.\acknowledgment本研究の一部は,JSPS科研費25730136と(独)情報通信研究機構の委託研究「知識・言語グリッドに基づくアジア医療交流支援システムの研究開発」の助成を受け実施したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{赤部\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田\JBA中村}{赤部\Jetal}{2014a}]{akabe14signl216}赤部晃一\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田智基\JBA中村哲\BBOP2014a\BBCP.\newblock機械翻訳システムの詳細な誤り分析のための誤り順位付け手法.\\newblock\Jem{情報処理学会第216回自然言語処理研究会(SIG-NL)},東京.\bibitem[\protect\BCAY{赤部\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田\JBA中村}{赤部\Jetal}{2014b}]{akabe14signl219}赤部晃一\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田智基\JBA中村哲\BBOP2014b\BBCP.\newblockパラフレーズを考慮した機械翻訳の誤り箇所選択.\\newblock\Jem{情報処理学会第219回自然言語処理研究会(SIG-NL)},神奈川.\bibitem[\protect\BCAY{Bach,Huang,\BBA\Al-Onaizan}{Bachet~al.}{2011}]{bach11goodness}Bach,N.,Huang,F.,\BBA\Al-Onaizan,Y.\BBOP2011\BBCP.\newblock\BBOQGoodness:AMethodforMeasuringMachineTranslationConfidence.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\211--219}.\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{banerjee05meteor}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQMETEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments.\BBCQ\\newblockIn{\BemProceedingofACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationand/orSummarization}.\bibitem[\protect\BCAY{Bannard\BBA\Callison-Burch}{Bannard\BBA\Callison-Burch}{2005}]{bannard05paraphrase}Bannard,C.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2005\BBCP.\newblock\BBOQParaphrasingwithBilingualParallelCorpora.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\597--604}.\bibitem[\protect\BCAY{Church\BBA\Hank}{Church\BBA\Hank}{1990}]{churchhanks90pmi}Church,K.~W.\BBACOMMA\\BBA\Hank,P.\BBOP1990\BBCP.\newblock\BBOQWordAssociationNorms,MutualInformation,andLexicography.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf16}(1),\mbox{\BPGS\22--29}.\bibitem[\protect\BCAY{Collins}{Collins}{2002}]{collins02structuredperceptron}Collins,M.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeTrainingMethodsforHiddenMarkovModels:TheoryandExperimentswithPerceptronAlgorithms.\BBCQ\\newblockIn{\BemProceedingofEMNLP},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2014}]{denkowski:lavie:meteor-wmt:2014}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2014\BBCP.\newblock\BBOQMeteorUniversal:LanguageSpecificTranslationEvaluationforAnyTargetLanguage.\BBCQ\\newblockIn{\BemProceedingsoftheEACL2014WorkshoponStatisticalMachineTranslation}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{doddington02nistmetric}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityusingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingofHLT},\mbox{\BPGS\128--132},SanDiego,CA.\bibitem[\protect\BCAY{Duchi\BBA\Singer}{Duchi\BBA\Singer}{2009}]{duchi09fobos}Duchi,J.\BBACOMMA\\BBA\Singer,Y.\BBOP2009\BBCP.\newblock\BBOQEfficientOnlineandBatchLearningusingForwardBackwardSplitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf10},\mbox{\BPGS\2899--2934}.\bibitem[\protect\BCAY{El~Kholy\BBA\Habash}{El~Kholy\BBA\Habash}{2011}]{elkholy11morphologicallyrich}El~Kholy,A.\BBACOMMA\\BBA\Habash,N.\BBOP2011\BBCP.\newblock\BBOQAutomaticErrorAnalysisforMorphologicallyRichLanguages.\BBCQ\\newblockIn{\BemProceedingofMTSummit},\mbox{\BPGS\225--232}.\bibitem[\protect\BCAY{Fishel,Bojar,Zeman,\BBA\Berka}{Fishelet~al.}{2011}]{fishel2011automatic}Fishel,M.,Bojar,O.,Zeman,D.,\BBA\Berka,J.\BBOP2011\BBCP.\newblock\BBOQAutomaticTranslationErrorAnalysis.\BBCQ\\newblockIn{\BemText,SpeechandDialogue},\mbox{\BPGS\72--79}.Springer.\bibitem[\protect\BCAY{Flanagan}{Flanagan}{1994}]{flanagan1994error}Flanagan,M.\BBOP1994\BBCP.\newblock\BBOQErrorclassificationforMTevaluation.\BBCQ\\newblockIn{\BemProceedingofAMTA},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Ganitkevitch,Van~Durme,\BBA\Callison-Burch}{Ganitkevitchet~al.}{2013}]{ganitkevitch2013ppdb}Ganitkevitch,J.,Van~Durme,B.,\BBA\Callison-Burch,C.\BBOP2013\BBCP.\newblock\BBOQPPDB:TheParaphraseDatabase.\BBCQ\\newblockIn{\BemProceedingofNAACL},\mbox{\BPGS\758--764}.\bibitem[\protect\BCAY{Kirchhoff,Rambow,Habash,\BBA\Diab}{Kirchhoffet~al.}{2007}]{kirchhoff2007semi}Kirchhoff,K.,Rambow,O.,Habash,N.,\BBA\Diab,M.\BBOP2007\BBCP.\newblock\BBOQSemi-automaticErrorAnalysisforLarge-scaleStatisticalMachineTranslationSystems.\BBCQ\\newblockIn{\BemProceedingofMTSummit}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn07moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Kullback\BBA\Leibler}{Kullback\BBA\Leibler}{1951}]{kullback1951}Kullback,S.\BBACOMMA\\BBA\Leibler,R.\BBOP1951\BBCP.\newblock\BBOQOnInformationandSufficiency.\BBCQ\\newblock{\BemTheAnnalsofMathematicalStatistics},{\Bbf22},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{lin04orange}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQOrange:AMethodforEvaluatingAutomaticEvaluationMetricsforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofCOLING},\mbox{\BPGS\501--507}.\bibitem[\protect\BCAY{Mackay\BBA\Petoy}{Mackay\BBA\Petoy}{1995}]{mackay95hdlm}Mackay,D.~J.\BBACOMMA\\BBA\Petoy,L.C.~B.\BBOP1995\BBCP.\newblock\BBOQAHierarchicalDirichletLanguageModel.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf1}(3),\mbox{\BPGS\289--308}.\bibitem[\protect\BCAY{Mizukami,Neubig,Sakti,Toda,\BBA\Nakamura}{Mizukamiet~al.}{2014}]{mizukami14cocosda}Mizukami,M.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2014\BBCP.\newblock\BBOQBuildingaFree,General-DomainParaphraseDatabaseforJapanese.\BBCQ\\newblockIn{\BemProceedingofCOCOSDA}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2011}]{neubig11kftt}Neubig,G.\BBOP2011\BBCP.\newblock\BBOQTheKyotoFreeTranslationTask.\BBCQ\\newblock\url{http://www.phontron.com/kftt}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingofACLDemoTrack},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och03mert}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03alignment}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Onishi,Utiyama,\BBA\Sumita}{Onishiet~al.}{2010}]{onishi10paraphrase}Onishi,T.,Utiyama,M.,\BBA\Sumita,E.\BBOP2010\BBCP.\newblock\BBOQParaphraseLatticeforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\1--5}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Popovi{\'c}\BBA\Ney}{Popovi{\'c}\BBA\Ney}{2011}]{popovic2011towards}Popovi{\'c},M.\BBACOMMA\\BBA\Ney,H.\BBOP2011\BBCP.\newblock\BBOQTowardsAutomaticErrorAnalysisofMachineTranslationOutput.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf37}(4),\mbox{\BPGS\657--688}.\bibitem[\protect\BCAY{Roark,Saraclar,\BBA\Collins}{Roarket~al.}{2007}]{roark07discriminative}Roark,B.,Saraclar,M.,\BBA\Collins,M.\BBOP2007\BBCP.\newblock\BBOQDiscriminativeN-gramLanguageModeling.\BBCQ\\newblock{\BemComputerSpeech\&Language},{\Bbf21}(2),\mbox{\BPGS\373--392}.\bibitem[\protect\BCAY{Specia,Turchi,Cancedda,Dymetman,\BBA\Cristianini}{Speciaet~al.}{2009}]{specia09qualityestimation}Specia,L.,Turchi,M.,Cancedda,N.,Dymetman,M.,\BBA\Cristianini,N.\BBOP2009\BBCP.\newblock\BBOQEstimatingtheSentence-levelQualityofMachineTranslationSystems.\BBCQ\\newblockIn{\BemProceedingofEAMT},\mbox{\BPGS\28--37}.\bibitem[\protect\BCAY{Vilar,Xu,d'Haro,\BBA\Ney}{Vilaret~al.}{2006}]{vilar2006error}Vilar,D.,Xu,J.,d'Haro,L.~F.,\BBA\Ney,H.\BBOP2006\BBCP.\newblock\BBOQErrorAnalysisofStatisticalMachineTranslationOutput.\BBCQ\\newblockIn{\BemProceedingofLREC},\mbox{\BPGS\697--702}.\end{thebibliography}\begin{biography}\bioauthor{赤部晃一}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同大学院博士後期課程に在学中.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{SakrianiSakti}{1999年インドネシア・バンドン工科大学情報卒業.2002年ドイツ・ウルム大学修士,2008年博士課程修了.2003〜2011年ATR音声言語コミュニケーション研究所研究員,情報通信研究機構主任研究員.現在,奈良先端科学技術大学院大学情報科学研究科助教.2015〜2016年フランスINRIA滞在研究員.統計的パターン認識,音声認識,音声翻訳,認知コミュニケーション,グラフィカルモデルの研究に従事.JNS,SFN,ASJ,ISCA,IEICE,IEEE各会員.}\bioauthor{戸田智基}{1999年名古屋大学工学部電気電子・情報工学科卒業.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.同年日本学術振興会特別研究員-PD.2005年奈良先端科学技術大学院大学情報科学研究科助手.2007年同助教.2011年同准教授.2015年より名古屋大学情報基盤センター教授.工学博士.音声情報処理の研究に従事.IEEE,電子情報通信学会,情報処理学会,日本音響学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学工学博士.シャープ株式会社.奈良先端科学技術大学院大学助教.2000年ATR音声言語コミュニケーション研究所室長,所長.2006年独立行政法人情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞.総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.IEEESLTC委員,ISCA理事,IEEEフェロー.}\end{biography}\biodate\end{document}
V06N06-07
\section{はじめに} 近年テキストを自動的に要約する技術に関する研究が国内外で盛んになって来ている(HovyandMarcu1998;奥村,難波1998).自動要約に関する研究の歴史は,古く1950年代後半から研究されているが,対象のテキストから重要な部分を抜き出して要約とする重要部分特定の手法が中心であった.テキストの内容を理解しての自動要約は,難しくまだ現実的なシステムを作成するに至っていないのが現状である.また,最近,テキストの重要部分に注目するのではなく,不要部分を特定し,言い換え及び削除により,要約を行う研究も出てきている.本研究の目的は,長い文を短い文に分割する処理(今後「短文分割」と呼ぶ)を行ない,その短文分割の自動要約手法への影響を調査することである.短文分割に関する研究は,機械翻訳の研究で見られる.機械翻訳においては,長文は,文の係り受け構造の複雑さが増え,翻訳精度低下の原因の一つとされている.このため,短文分割を翻訳の前処理として行い,翻訳の精度を高めることを目的とした研究が行われている.金ら(金,江原1993)は,長文に現れる連用中止表現,引用,連体節,接続節などを分割点と認定している.また,木村ら(木村,野村,平川1993)は,単語数の多い文で,特定の言語表現を持つ場合に分割を行っている.特定の言語表現としては,動詞と助動詞の連用中止表現,接続助詞の「ので」などがある.本論文で用いる短文分割手法は,これらの手法と同様のものである.一方,関連研究としてはMarcuの研究がある(Marcu1997).Marcuは,手がかりとなる語句を使って要約の基本となる単位を決定し,談話構造を解析してその結果を自動要約に用いている.手がかり語としては,becauseなどの接続詞などを使っているため,節が基本単位となる場合があり,文より小さな単位を用いての要約を実現している.手がかり語がない場合は,文全体が1つの単位となる.Marcuの手法は,文より小さな単位を扱っているが,短文分割は行っていない.もう1つの関連研究として,簡易な文構造解析を行い,自動要約に役立てるものがある.構文解析の結果を利用して重要・不要部分を特定し,要約を作成するものである.日本語では三上らが,TVニュース原稿を題材として,構文解析を行い,文中の要素に重要度を与えて,重要要素や,削除すると文を壊してしまう恐れのある要素を重要として抽出している(三上,山崎,増山,中川1998).英語では,Grefestetteの研究があり,自身の開発したparserを使い,構文解析を行い,主節は従属節より重要であり,否定の表現も重要であるなどとして,重要部分を特定して文書の単純化を行っている(Grefenstette1998).これらの研究は簡易構文解析処理を行っているのに対し,本研究では,構文解析を行わずに,文字列や品詞の情報のみを利用して短文分割を行っている.上記の短文分割に関係した研究と比べて,本研究は,短文分割の手法は既存の手法と同様のものを用いており,その短文分割が自動要約の基本的手法にどれだけ効果があるのかに焦点を置いている.本研究は,聴覚障害者向けにサービスしようとしている字幕付きテレビニュースでの自動要約技術に関する研究の一環であり,自動的にテレビニュース原稿を要約する手法について,重要文抽出,文字数圧縮などをテーマに研究を進めて来ている(Wakao,Ehara,Sawamura,Abe,Shirai1997;Wakao,Ehara,Shirai1998).本稿で題材としているのは,TVニュース番組の電子化原稿である.ニュース番組原稿は,新聞記事と似ているが,両者を比較した場合,ニュース原稿のほうが1記事中の文数が少なく,且つ一文当たりの文字数が多いことが分かっている(江原,沢村,若尾,阿部,白井1997).ここで重要文を自動的に抽出することにより要約を作成すると,文数が少なく,一文が長いため,どうしても粗い要約となってしまう.この欠点を補正するために,短文分割を行い,その自動要約における基本的技術への効果を評価した.評価には,文の重要度における順位付けと文字数圧縮を取り上げた.文の順位付けでの評価では,まず,各文を人手及びシステムによりその文の重要度に応じて順位付けを行い,人手により重要と判定された文が,短文分割により分割された場合,分割された文の順位がどうなるかを調査した.次に,記事中の重要な文だけではなく,全部の文を対象として,文の順位付けにおける短文分割の自動要約への影響を調べるために,人手とシステムにより順位付けされた結果の類似度を算出し,短文分割の前後での変化を調べた.この類似度には,スペアマンの順位相関関係係数を用いた.また,文の不要部分を特定して,それを短い表現への言い換えや,削除により,文字数を削減する「文字数圧縮」においても短文分割の前後での圧縮率の違いを算出することにより,短文分割の効果を評価した.以下に,まず,本研究の対象とした原稿を紹介し,短文分割の条件,短文分割の自動要約の基本的技術への影響について記述する. \section{原稿} 題材とした原稿は,NHK放送データーベースの1992年の記事より選ばれた200件のテレビニュース番組の電子化原稿である.これは,NHKにおいて実際に放送されたTVニュースの原稿であり,放送日などの情報がヘッダーとして付けられたデータベースである.記事の大きさは,1記事当たり約500文字であり,1つの記事当たりの文数は,約5文である.200記事平均の1記事の文字数,文数,1文当たりの文字数は表1の通りである.\renewcommand{\arraystretch}{}\begin{table}[h]\begin{center}\begin{tabular}{|c|r|}\hline\multicolumn{2}{|c|}{1記事当たり}\\\hline平均文字数&484.68文字\\\hline平均文数&5.18文\\\hline\multicolumn{2}{|c|}{1文当たり}\\\hline平均文字数&93.57文字\\\hline\end{tabular}\end{center}\caption{対象記事(200記事)の詳細}\end{table}前節でも述べたが,テレビニュース番組原稿は,新聞記事と比べると,一記事当たりの文数が少なく,一文当たりの文字数が多いと言う特徴がある. \section{短文分割} 短文分割の処理は,条件を満たす長い文を記事中から選び,その文を複数の短い文に分割するものである.分割の条件は,NHK放送データベース(15万件)のテレビニュース原稿のうち,1991年4月1日から1991年6月11日にかけての記事(3,492記事)から,長さが200バイト(100文字)以上の文を無作為に抽出したコーパス(全部で9,205文)を使用し,それらを分析して分割条件を人手で作成したものである.\\一方,後出の評価用のテキストは同じ15万件の記事から無作為に選ばれているが,1992年の記事から無作為に選ばれている.分割条件を導き出した記事とは重っていない.以下に,分割を行う条件を記述し,その後に,分割した結果の詳細を示す.\subsection{分割条件}文の分割を行わない場合をまず記述し,その後に分割を行う条件の例を以下に記述する.分割をする条件は,下記記載のもの以外にも10規則あり,合計で,19規則ある.また,これらの規則は,適用されて生成される文末の時制は,原文の時制を反映した形となる.記載の例は,全て現在形で示してある.\begin{list}{}{}\item[1)]分割をしない場合\begin{itemize}\item基本的に,動詞と形容動詞と述語名詞の連用文節と終止文節以外は分割しない.\\また,この条件を満たす場合でも,以下の場合には,分割を行わない.\begin{list}{}{}\item[$\Box$]連用文節であっても,連体文節直後の連用文節は分割しない.\item[$\Box$]直後または2文節以内に連体文節がある連用文節は分割しない.\item[$\Box$]直後または2文節以内に連用文節がある連用文節は分割しない.\end{list}\item用言自立語+(助動詞)+接続詞「ば」は,分割しない.例「働きかければ,」\item「…も(と)あって,」は,分割しない.\item自立語+と+なり+読点または,自立語+に+なり+読点は,分割しない.\end{itemize}\item[2)]分割をする場合\begin{itemize}\item自立語+(助動詞)+「ており」+読点\\自立語+(助動詞)+「でおり」+読点\\例「働きかけており,bb\footnote{「bb」は,文の一部であり,分割条件を満たす語句の直後に来る部分を示す.}」→「働きかけております.そして,bb」\item自立語+(助動詞)+「が」+読点\\例「働きかけますが,bb」→「働きかけます.しかし,bb」\item自立語+(助動詞)+「もので」+読点\\例「働きかけるもので,bb」→「働きかけるものです.そして,bb」\item自立語+(助動詞)+「ものの」+読点\\例「働きかけるものの,bb」→「働きかけます.しかし,bb」\item自立語+(助動詞)+「のに対し」+読点\\例「働きかけるのに対し,bb」→「働きかけます.それに対し,bb」\item自立語+(助動詞)+「のに対して」+読点\\例「働きかけるのに対して,bb」→「働きかけます.それに対して,bb」\item自立語+(助動詞)+「にもかかわらず」+読点\\例「働きかけるにもかかわらず,bb」→\\\hspace*{1cm}「働きかけます.それにもかかわらず,bb」\item自立語+(助動詞)+「とともに」+読点\\自立語+(助動詞)+「と共に」+読点\\例「働きかけるとともに,bb」→「働きかけます.それとともに,bb」\item「あり」または「強まり」+読点\\例「強まり,bb」→「強まります.そして,bb」\end{itemize}\end{list}これらの条件を実際のTV番組原稿文に適用してみると,\\「千葉市に本店がある京葉銀行の成田西支店の女子行員が,他人名義のカードローンを悪用しておよそ三億円を着服していた疑いが強まり,京葉銀行ではきょう,この女子行員を懲戒解雇するとともに,千葉県警察本部に被害を届け出ました.」は,3文に分割され,\begin{list}{}{}\item[1.]「京葉銀行の成田西支店の女子行員が,他人名義のカードローンを悪用しておよそ三億円を着服していた疑いが強まりました.」\item[2.]「そして,京葉銀行ではきょう,この女子行員を懲戒解雇しました.」\item[3.]「それとともに,千葉県警察本部に被害を届け出ました.」\end{list}となる.上記の条件の下で,分割は,対象となる文の長さ(文の長さは文節数により算出)により以下の2つの場合に行うこととした.\vspace{-3mm}\begin{table}[h]\begin{center}\begin{tabular}{|l|p{10cm}|}\hline分割1&分割前に文が12文節以上あり,分割後5文節以上の文に分割される場合.\\\hline分割2&分割する文の文節数に制約をかけない場合.つまり,これは,分割出来る文は,全て分割しようという場合に相当する.\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\subsection{分割結果}分割前と分割後の2つのケースを1記事当たりの文字数,文数,そして1文当たりの文字数で比較してみると表2のようになる.\begin{table}[h]\begin{center}\begin{tabular}{|c|r|r|r|}\hline200記事&文字数/記事&文数/記事&文字数/文\\\hline分割前&484.68&5.18&93.57\\\hline分割後(分割1)&491.87&6.45&76.20\\\hline分割後(分割2)&493.39&6.75&73.09\\\hline\end{tabular}\end{center}\caption{文数,文字数でみた短文分割の結果}\end{table}\vspace{-3mm}短文分割処理を行った結果,一記事当たりの文数が約5文から約7文に増え,1文当たりの文字数は,約20文字減ることが確認された. \section{自動要約への影響} 短文分割の自動要約への影響を調べるために,まず,重要度に応じて文を並べる,文の順序付けにおける効果を調べた.まず,記事中の重要と判定される文が分割された場合に分割された複数の文の重要度がどう判定されるかを調べた.これは,分割前に重要であると判断された文が,短文分割により分割され,且つ,その分割された文が,重要度の判定において,一方が重要でありもう一方が重要でないといった差が認められる場合,短文分割の要約への効果があると考えられるからである.また,記事中の重要文だけではなく記事全体として,短文分割が文の順位付けにおいて自動要約の結果にどのような影響があるかを調べた.これには,人手による順位付けの結果と自動要約システムによる順位付けの結果の類似度を,スペアマンの相関関係係数を用いて算出することにより行った.文順位付けでの評価の対象としたのは,100記事で,短文分割処理で対象とした200記事のTVニュース番組原稿から少なくとも4文以上を含んでいる記事を100選んだ.記事の分野の特定などは一切していない.次に,文中の不要部分を削除または言い換えて文字数を削減する(文字数圧縮)を取り上げ,短文分割の影響を調べた.この調査の対象とした記事は,短文分割処理で対象とした同じ200記事である.\subsection{分割前後での文順位の変化}対象となる100記事に対して各記事毎に,その記事中の各文の重要度に応じて順位をつけた.順位付けは,まず人手で順位付けを行った.それとは別に,自前の重要文抽出のシステム(若尾,江原,白井1998)を用いて同じ記事の各文に順位を付けた.100記事中,分割1で分割されたものは,75記事あり,分割2で分割が行われたものは28記事である.分割2では,分割された記事の総数が,100記事中85記事で,分割1で分割されたものを再分割したものが18記事,新たに分割されたものが10で,合計85記事が分割されている.人手及びシステムにより文の順位が付与されたのは,分割前の100記事,分割1の結果(75記事)を含む100記事,分割2の結果(85記事)を含む100記事である.システムで用いられた重要文抽出の手法は,重要語密度法であり,各記事において頻度2以上の自立語を重要語とし,各文の重要語の割合を計算し,それをその文の重要度とした(Luhn1957;Edmundson1969).TVニュース番組原稿は,新聞記事と似ているが,1段落しかなく,見出しも存在しないという前提\footnote{データの出典元であるNHK放送データベースには,見出しが存在するが,ここでは用いなかった.}であるので,記事中の位置情報(例,第一段落の第一文など)は用いず,単純に頻度の高い自立語を重要語とした重要語密度法を採用した.文の順位付けは,この重要語密度法で計算された重要度を用いて行われた.重要とされた文の分割前後での順位の変化の調査には,分割1の結果を使った.分割前の記事中で人手による判定で重要度による順位が1位または2位と判断された文のうち,その文が短文分割を行うことにより分割され,且つ,2文に分割された文,総数30文(分割後60文)について調査をした.まず,重要度において1位と判定された文での分割後の2文が,人手によってどのような順位に判定されたを調べた.結果を図1に示す.\begin{figure}[h]\vspace{-4mm}\begin{center}\mbox{\epsfile{file=666_138-1.eps}}\end{center}\vspace{-1mm}\caption{1位文の分割後2文の順位分布}\end{figure}\vspace{-3mm}同じく,重要度で2位と判断された文での分割後の文の順位の分布は,図2のようになる.\begin{figure}[!hb]\vspace{-3mm}\begin{center}\mbox{\epsfile{file=666_138-2.eps}}\end{center}\vspace{-1mm}\caption{2位文の分割後2文の順位分布}\end{figure}\clearpageこれらの結果から,分割前の重要度1位文においては,分割後の順位が,1位と2位とが度数が最も多くなるのではなく,1位,3位,2位,4位以降という順になっている.また,2位の文では,度数順に見ると,2位,3及び6位,5及び7位となり,重要度による順位がばらつくことが分かる.1位と2位の文をまとめて,分割後の文の順位における差の分布を,次に調べた.例えば,分割前に1位の文で,分割後に1位と3位に判定されたのであれば,差は3マイナス1の2となる.この差の分布を30文について調査した.結果は,図3の通りである.\begin{figure}[h]\begin{center}\mbox{\epsfile{file=666_139.eps}}\end{center}\caption{分割後2文の順位差の分布}\end{figure}分割後の差が「1」の場合は順位が1位と2位などとなっている場合であり,短文分割の効果が見られないと考えられる.他方,順位における差が「2」以上の場合は,分割された文の間に他の文が入って来る場合であり,短文分割の効果があると考えられる.順位の差が「2」の場合は,人手による判定で全体の33%(10/30)を占める.また,順位差が「3」以上の場合は,全体の37%(11/30)を占め,順位差が「1」の場合(9/30)より多くなっている.この事から,分割を行うことにより,分割された文の順位に差が生じる場合が,生じない場合(順位差「1」の場合)よりも多くあり,短文分割は,重要度による文順位付けに効果があると言える.\subsection{記事全体での文の順序付けの評価}次に,前節での順位付けの結果を用いて,記事中の重要文だけではなく記事全体として,短文分割が文の順位付けにおいて自動要約の結果にどのような影響があるかを調べた.これは,人手による順位付けと自動要約システムによる順位付けの結果の類似度を,スペアマンの相関関係係数(Spearman'srankcorrelationcoefficient)を用いて算出することにより行った.スペアマンの順位相関係数は,2つの順位付けのなされたもの間の相関を計るのに一般的に用いられる統計尺度である(大村1980).スペアマン順位相関関係係数(r)の計算は以下のようである.X$=(x_1,x_2,x_3\ldotsx_n)$Y$=(y_1,y_2,y_3,\ldotsy_n)$,$x_1,\ldotsx_n$,$y_1,\ldotsy_n$は各文の順位を示し,記事の第1文から第n文までの順位を並べたものであるX,Yが与えられた時,rは以下の式で計算される.{\large$$r=1-\frac{{\displaystyle6\times\sum_{i=1}^nd_i^2}}{n(n^2-1)}$$$$d_i:x_i-y_i\hspace{3mm}for\hspace{1mm}1\leqi\leqn$$}\noindent$d_i$:$x_i$と$y_i$での順位における差\\\hspace*{2mm}$n$:記事中の文数スペアマンの順位相関係数rは,1から−1の間の数値となり,1であれば2つの順位が完全に一致している場合であり,−1だと全く逆の順位の並びとなっている場合である.0の付近だと順位間の相関はなくなることになる.比較を行ったのは,分割前の記事を用いての人とシステムの文順序付けの結果,分割後の記事を用いた人とシステムの文順序付けの結果である.分割後の記事としては,分割がなされた記事ばかりを集めたもの,つまり,分割1の場合だと75記事,分割2の場合だと28記事を対象としたケースと,それらの分割結果を含む100記事全体を対象とした場合について順位相関係数値を算出した.表3にその結果を示す.\begin{table}[h]\begin{center}\begin{tabular}{|l|r|}\hline\multicolumn{1}{|c|}{比較対象記事}&\multicolumn{1}{|c|}{順位相関係数値}\\\hline分割前(100記事)&0.4933\\\hline分割1(75記事)&0.5311\\\hline分割1(100記事)&0.5304\\\hline分割2(28記事)&0.5583\\\hline分割2(100記事)&0.5251\\\hline\end{tabular}\end{center}\caption{短文分割の文順位付けへの影響(スペアマン相関関係係数)}\end{table}尚,参考までに,人間の評価者間での順位相関を調べた.この調査に用いた原稿は,上記の記事とは違うTVニュース原稿記事100記事を用いた.2名の人間の評価者間の順位相関係数値は0.7427であった.短文分割後は,分割前と比べて順位相関係数値が若干ではあるが良くなることが判明した.数値が良くなる原因として以下のことが考えられる.\begin{itemize}\item短文分割の結果,長文の一部であまり内容情報を持たない部分が別の文として分割され,文の順位付けにおいて,人間にも,システムにも順位が低いものと判断されて,記事全体の順位付けでより近いものとなった.\end{itemize}例えば,原文が\\「この女子行員は昭和六十年四月に京葉銀行に入社し,平成元年の四月から成田西支店の貸し付け係,平成三年十月から成田西支店の出納係を担当しており,ふだんの勤務態度は真面目で上司の信頼もあつかったということです.」\\に対して,分割後は,2文になり,\begin{list}{}{}\item[1.]「この女子行員は昭和六十年四月に京葉銀行に入社し,平成元年の四月から成田西支店の貸し付け係,平成三年十月から成田西支店の出納係を担当していました.」\item[2.]「そして,ふだんの勤務態度は真面目で上司の信頼もあつかったということです.」\end{list}\noindentとなる.分割前のこの文の順位は,人の判定で,7文中4位であるが,分割後の第二文目は,人の判定及びシステムの判定において順位が11文中10位と低くなっている.また,人手で判断された順位を上から70%程度までを見て,それらがシステムの判断した上位70%と一致しているかも見てみた.分割後の対象としたのは,分割1,分割2の双方とも,100記事全体である.順位の近さを計るのに今回もスペアマンの順位相関係数を用いた.その結果は以下の通りである.\footnote{尚,前述の2名の評価者間での上位7割における順位相関係数値は,0.8246である.}\begin{table}[h]\begin{center}\begin{tabular}{|l|r|}\hline比較対象記事(上位70%)&順位相関係数値\\\hline分割前(100記事)&0.5051\\\hline分割1(100記事)&0.5056\\\hline分割2(100記事)&0.5063\\\hline\end{tabular}\end{center}\caption{短文分割の文順序付けへの影響(上位7割での順位相関係数値)}\end{table}\vspace{-3mm}上位7割を比較したのは,現在数少ない字幕付きTVニュース番組であるNHK教育チャンネルの「手話ニュース845」において,原稿に対して付与される字幕は,原稿の要約となっているが,文字数において約7割程度になっていることを考慮したものである(若尾,江原,白井1997).上位7割の文での比較では,分割前,分割後ともほぼ同じ順位相関係数値を残した.これは,上にみたように,分割後の場合,人とシステムで順位の低い文が一致しているケースが多く,その結果,上位7割だけでの比較を行うと,分割前の相関係数値が多少上がり,それに対して分割後の2つの係数値は,多少下がることになり,全体として余り差のない結果となっている.短文分割の順位付けへの影響を総合すると図4のようになる.\vspace{-3mm}\begin{figure}[h]\begin{center}\mbox{\epsfile{file=fig/142_ue.eps,height=69mm}}\end{center}\caption{文順位付けでの短文分割の影響(スペアマン相関関係係数)}\end{figure}\vspace{-8mm}\subsection{文字数圧縮}記事中の文中の不要な部分の削除や,短い表現へ言い換えることによって文字数を減らす(文字数圧縮)について,短文分割のもたらす影響を調べた.文字数圧縮規則を,付録に添付した.基本的には,文中,特に,文頭,文末の表現に注目して,文字の削除,または言い換えを行うものである.例えば,「強調しました.」と言う文末であれば,「強調.」とする,「総理大臣」は「首相」とするなどである.文字数圧縮規則は,聴覚障害者向けであり,字幕付きニュース番組である「手話ニュース845」(NHK教育)の字幕で使われている要約の規則を分析し得られた規則を基礎とし,NHK放送データベース中のニュース番組の原稿を約300記事\footnote{文字数圧縮規則の改良に用いた記事(約300記事)は,本論文で評価に用いた記事と重複していない.}用いて,更に修正,改良したものである(若尾,江原,白井1998).これらの規則を用いて,短文分割を行う前と後での,圧縮率の変化を調べた.この場合,圧縮率は以下の式で算出した.\vspace{3mm}{\bf圧縮率=圧縮後の記事の文字数/元記事の文字数}\vspace{3mm}短文分割を行うと,前述のように記事の文字数は増加するが,それらは中間結果であり,この圧縮率は,あくまで,元の記事の文字数と最終的な記事の文字数から算出されるものである.まず,元記事200に文字数圧縮規則を適用して,圧縮率を計算し,そして,分割1,分割2の処理を行った結果に文字数圧縮規則を適用して,圧縮率を算出した.つまり,3つの場合での圧縮率を計算している.\begin{list}{}{}\item[1.]短文分割は行わず,文字数圧縮のみを行った場合\item[2.]短文分割1を行い,その後文字数圧縮を行った行った場合\item[3.]短文分割2を行い,その後文字数圧縮を行った行った場合\end{list}その結果は,表5の通りである.\vspace{-3mm}\begin{table}[h]\begin{center}\begin{tabular}{|l|l|r|r|r|}\hline&\multicolumn{1}{|c|}{200記事}&\multicolumn{1}{|c|}{短文分割による}&\multicolumn{1}{|c|}{\hspace{4mm}文字数\hspace*{4mm}}&\multicolumn{1}{|c|}{圧縮率(%)}\\&&\multicolumn{1}{|c|}{増加文字数}&&\\\hline&元記事&&96,936&\\\hline1&文字数圧縮のみ&&91,808&94.71%\\\hline2&分割1+文字数圧縮&1,438&89,182&92.00%\\\hline3&分割2+文字数圧縮&1,742&89,114&91.93%\\\hline\end{tabular}\end{center}\caption{文字数圧縮での短文分割の影響}\end{table}\vspace{-5mm}短文分割を行うと,分割1,分割2を問わず記事がより圧縮されることが判明した.この理由として次の2点が考えられる.\begin{itemize}\item短文分割により接続詞(「そして」,「しかし」)などが挿入されるが,文字数圧縮の段階で削除される.これにより,短文分割処理による文字数の増加分は,文字数圧縮により相殺される.\item短文分割の条件に合った長文が,記事中にある場合は,分割が行われ,文数が増える.これにより,文末の数も増加することになり,文字数圧縮規則により文末の文字数を圧縮できる機会が増え,より多くの文字を減らすことが出来ることになる.\end{itemize}つまり,短文分割を行うことにより,元記事を単に文字数圧縮をした場合よりも文字数をより減らすことが出来る場合が生じることになる.例えば,3.1節の京葉銀行の文だと,原文(1文のみ)では,文字数圧縮規則により削減されるのは,文末の「届け出ました」が「届け出た」となる2文字だけである.ところが,3文に分割されると,以下のようになる.\begin{list}{}{}\item[1.]「京葉銀行の成田西支店の女子行員が,他人名義のカードローンを悪用しておよそ三億円を着服していた疑いが強まった.」\item[2.]「京葉銀行ではきょう,この女子行員を懲戒解雇.」\item[3.]「千葉県警察本部に被害を届け出た.」\end{list}第一文で「強まりました」が「強まった」となり,第二文で,「そして,」が削除,「解雇しました」が「解雇」になり,第三文では,「それとともに,」削除,「届け出ました」が「届け出た」となり,3文全体では,原文と比べて,結局,8文字削減されたことになる.つまり,短文分割を行うことにより,より多くの文字が削減されることになった. \section{おわりに} label{sec:owarini}テキスト中の長い文を短い文に分割する短文分割処理の自動要約技術への影響を調べた.自動要約技術としては,重要度による文の順位付け,そして,不要部分を特定し,削除,言い換えする文字数圧縮を取り上げた.重要と判定される文で,短文分割により分割される場合の分割文の順位を調べると,順位にばらつきが見られ,短文分割の要約への効果があることが分かった.また,記事中の全文を対象とした順位の評価では,短文分割をすると,人とシステムの順位付けがより近くなることが判明した.次に,文字数圧縮においては,短文分割をすることにより,文字数を削減する機会が増え,より多くの文字が削除出来ることが判明した.短文分割は,文単位での要約を,より小さな単位に分割して要約しようとするものであり,今後は,短文よりさらに小さな単位である文節を基礎とした自動要約技術についての研究を進めて行く予定である.本論文では,対象をテレビニュース原稿としたが,新聞記事(毎日新聞1995年版)を用いて実験を行ない,他の分野でのテキストでも,短文分割の効果があるかを調べた.新聞記事は,記事の文字数が250文字以上ある100記事を無作為に選んだものを用いた.評価には,文字数圧縮において,短文分割の効果があるかを調査した.その結果,元記事を単純に文字数圧縮した場合,圧縮率が97.90%であり,圧縮そのものにあまり効果が見られなかった.これは,新聞記事では,文末が,「です,ます」調ではなく言い切りであること,また,テレビニュース原稿に見られる「…ということです」などの独特の表現が少ないことに原因があると思われる.短文分割後に文字数圧縮をした場合は,圧縮率が97.61%となり,短文分割をしない場合より0.29%下がるに留まり,ニュース原稿の場合ほどには,分割の効果が見られなかった.この実験は,小規模のものであり,TVニュース原稿以外での分野のテキストにおいて短文分割の自動要約への効果を調べるには,より詳細で,大規模な実験が必要であり今後の課題である.\clearpage\appendix\renewcommand{\arraystretch}{}\begin{tabular}{|p{6.3cm}|p{6.5cm}|}\hline{\bf条件}&{\bfアクションと例文}\\\hline{\bf文末の動詞がサ変動詞}&{\bfそのサ変動詞以降を全て削除する}\\(但し,否定の表現は含まない)&「強調しました.」→「強調.」\\&「言及しませんでした.」(適応せず)\\\hline{\bf文末の動詞がサ変名詞+「を」+「する」}&{\bfそのサ変名詞以降を削除する}\\(但し,否定の表現は含まない)&「宣誓をしました.」→「宣誓」\\\hline{\bf丁寧助詞の「ます」}&{\bf「ます」「まし」を削除して適当な文末に}\\&「…なりました.」→「…なった.」\\&「…訪れます.」→「…訪れる.」\\\hline{\bf特定の文末表現}&{\bfその表現を削除}\\&「ということです」,「としています」,\\&「ことにしています」など\\\hline{\bf特定の文頭表現}&{\bfその表現を削除}\\&「一方」「その一方で」「このあと」など\\\hline{\bf名詞性語句+断定の助動詞「です」で}&{\bf「です」を削除する}\\{\bf終る}&「状況です.」→「状況.」\\&「15アンダーです.」→「15アンダー.」\\\hline{\bf特定の表現}&{\bf意味を変えずに,より短い表現(語句)に}\\&「総理大臣」→「首相」\\&「最高裁判所」→「最高裁」\\\hline{\bf文中に現れ,括弧でくくられたカタカナ}&{\bfカタカナ文字列を括弧とともに削除}\\{\bf文字列}&「大洗漁港(オオアライギョコウ)」\\&→「大洗漁港」\\\hline{\bf省略形がある場合}&{\bf省略形だけにする}\\&「連合=日本労働者組合総連合会」\\&→「連合」\\\hline{\bf括弧でくくられた数字列}&{\bf括弧とともに削除する}\\&「…容疑者(49)」→「…容疑者」\\\hline{\bf特別な表現}&{\bf削除する}\\\vspace{-3mm}\begin{itemize}\item「問い合わせ先」ではじまる文\item「電話」ではじまり,その後が数字と括弧だけで構成される文\end{itemize}\vspace{-5mm}&\\\hline\end{tabular}\clearpage\bibliographystyle{jnlpbbl}\begin{thebibliography}{99}\bibitem[\protect\BCAY{}{}{}]{}EdmundsonH.P.\BBOP1969\BBCP.\newblock\BBOQNewMethodsinAutomaticExtracting\BBCQ\\newblock{\BemJournaloftheACM},{\Bbf16}(2),\BPGS\264--285.\bibitem[\protect\BCAY{}{}{}]{}江原暉将,沢村英治,若尾孝博,阿部芳春,白井克彦\BBOP1997\BBCP.\newblock\BBOQ聴覚障害者のための字幕つきテレビ放送制作への自然言語処理の応用\BBCQ\\newblock言語処理学会第3回年次大会予稿集.\bibitem[\protect\BCAY{}{}{}]{}GrefenstetteG.\BBOP1998\BBCP.\newblock\BBOQProducingintelligenttelegraphictextreductiontoprovideanaudioscanningservicefortheblind\BBCQ\\newblockIn{\BemWorkingNotesoftheAAAISpringSymposiumonIntelligentTextSummarization},\BPGS\111--117.\bibitem[\protect\BCAY{}{}{}]{}HovyE.,MarcuD.\BBOP1998\BBCP.\newblock\BBOQAutomatedTextSummarization"TutorialNotesforTextsummarization\BBCQ\\newblock{\Bemthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{}{}{}]{}金淵培,江原暉将\BBOP1993\BBCP.\newblock\BBOQ日英機械翻訳のための日本語ニュース文自動短文分割と主語補完\BBCQ\\newblock情報処理学会自然言語処理研究会報告書NL-93-3.\bibitem[\protect\BCAY{}{}{}]{}木村真理子,野村浩一,平川秀樹\BBOP1993\BBCP.\newblock\BBOQ日英機械翻訳前編集における日本語文分割処理について\BBCQ\\newblock情報処理学会自然言語処理研究会報告書NL-96-8.\bibitem[\protect\BCAY{}{}{}]{}Luhn,H.P.\BBOP1957\BBCP.\newblock\BBOQAstatisticalapproachtothemechanizedencodingandsearchingofliteraryinformation\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf1}(4),\BPGS\309--317.\bibitem[\protect\BCAY{}{}{}]{}毎日新聞\BBOP1995\BBCP.\newblockCD-毎日新聞95版,\newblock(株)毎日新聞社.\bibitem[\protect\BCAY{}{}{}]{}MarcuD.\BBOP1997\BBCP.\newblock\BBOQFromdiscoursestructurestotextsummarization\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\82--88.\bibitem[\protect\BCAY{}{}{}]{}三上真,山崎邦子,増山繁,中川聖一\BBOP1998\BBCP.\newblock\BBOQ文中の重要部抽出と言い替えを併用した聴覚障害者用字幕生成のためのニュース文要約\BBCQ\\newblock言語処理学会第四回年次大会併設ワークショップ「テキスト要約の現状と将来」論文集,\BPGS\14--21.\bibitem[\protect\BCAY{}{}{}]{}奥村学,難波英嗣\BBOP1998\BBCP.\newblock\BBOQテキスト自動要約技術の現状と課題\BBCQ\\newblock北陸先端科学技術大学院大学情報科学研究科リサーチレポートIS-RR-98-0010I.\bibitem[\protect\BCAY{}{}{}]{}大村平\BBOP1980\BBCP.\newblock\BBOQ統計解析のはなし\BBCQ\\newblock日科技連出版社.\bibitem[\protect\BCAY{}{}{}]{}Wakao,T.,Ehara,E.,Sawamura,E.,Abe,Y.,Shirai,K.\BBOP1997\BBCP.\newblock\BBOQApplicationofNLPtechnologytoproductionofclosed-captionTVprogramsinJapaneseforthehearingimpaired\BBCQ\\newblockIn{\BemProceedingsofACL97workshop,NaturalLanguageProcessingforCommunicationAids},\BPGS\55--58.\bibitem[\protect\BCAY{}{}{}]{}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\BBOQテレビニュース番組の字幕に見られる要約の手法\BBCQ\\newblock情報処理学会自然言語処理研究会,NL-122-13.\bibitem[\protect\BCAY{}{}{}]{}若尾孝博,江原暉将,白井克彦\BBOP1998\BBCP.\newblock\BBOQテレビニュース字幕のための自動要約\BBCQ\\newblock言語処理学会併設ワークショップ「テキスト要約の現状と将来」論文集,\BPGS\7--13.\bibitem[\protect\BCAY{}{}{}]{}Wakao,T.,Ehara,E.,Shirai,K.\BBOP1998\BBCP.\newblock\BBOQProjectforproductionofclosed-captionTVprogramsforthehearingimpaired\BBCQ\\newblockIn{\BemProceedingsof36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics(Coling-ACL98)}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{福島孝博}{1990年米国StateUniversityofNewYorkatBuffalo,大学院ComputerScience研究科修士終了.1990年から1993年米国NewMexicoStateUniversity,CRLにて研究員.1994,95年,英国シェフィールド大学大学院ComputerScience研究科ResearchAssociate(研究員).96年日本電気(株)入社.同年より通信・放送機構渋谷上原リサーチセンターに出向,研究員,現在に至る.自然言語処理,情報抽出,自動要約の研究に従事.}\bioauthor{江原暉将}{1967年早稲田大学第一理工学部電気通信学科卒業.同年,NHK入局.1970年より放送技術研究所勤務.かな漢字変換,放送衛星の管制制御,機械翻訳,音声認識などの研究に従事.1996年より現職.本会評議委員.工学博士.}\bioauthor{白井克彦}{1963年早稲田大学理工学部電気工学科卒業.1968年大学院理工学研究科博士課程修了.同年同大学理工学部電気工学科専任講師,1975年同教授,1991年理工学部情報学科教授.1998年,常任理事.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V29N01-07
\section{はじめに} \label{sec:intro}ニューラルネットワークを利用したSequence-to-sequenceモデルの発展により,生成型自動要約の性能は飛躍的に向上した.Sequence-to-sequence要約モデルの学習においては,新聞記事\cite{nallapati-etal-2016-abstractive}であれば見出し,ソーシャルメディア\cite{kim-etal-2019-abstractive}やレビュー\cite{DBLP:conf/aaai/LiLZ19}であればタイトル,メール\cite{zhang-tetreault-2019-email}であれば件名を要約とみなして使用する.これらの要約は本文に書かれた内容の重要な箇所を適切かつ簡潔に記述していることが望ましい.しかしながら,過去の多くの研究が要約モデルの学習データセットには不適切な本文−要約ペアが多く含まれることを報告している\cite{zhang-tetreault-2019-email,DBLP:conf/aaai/LiLZ19,kryscinski-etal-2019-neural,matsumaru-etal-2020-improving}.具体例を表\ref{tab:inappropriate_example}に示す.例はRedditTitleデータ\cite{kim-etal-2019-abstractive},EnronSubjectデータ\cite{zhang-tetreault-2019-email}から引用したものである.表の上段の例では本文にはタイトルの続きが書かれており,タイトルは本文に書かれている内容を反映していない.下段の例では,件名は簡潔すぎて情報不足であり,要約としての体裁を成していない.こうしたノイズを含むデータセットに対処する方法が求められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[h]\input{06table01.tex}\caption{タイトル,件名が本文の要約として不適切な例}\label{tab:inappropriate_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\newpageノイズを含むデータから効率的にモデルを学習させる方法の1つとしてカリキュラムラーニング\cite{10.1145/1553374.1553380}が用いられている.カリキュラムラーニングは元来,学習データの順序を変えることで,収束速度やモデルの性能を上げる手法であるが,ノイズを含むデータでモデルを学習させる際にも有効性が示されている\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}.しかしながら,これまでカリキュラムラーニングは要約タスクに応用されてこなかった.本研究の目的の1つはカリキュラムラーニングの要約タスクへの有効性を検証することである.カリキュラムラーニングにおける学習データの順序の変更には,ノイズの量や難易度を表す指標が通常用いられる.学習はノイズの多いデータ群あるいは難易度の低いデータ群から始まり,徐々にノイズの少ないものあるいは難易度の高いものに移行する.ソートの際に使用する指標として,文生成タスク\cite{Cirik2016VisualizingAU}や翻訳タスク\cite{kocmi-bojar-2017-curriculum,platanios-etal-2019-competence,zhou-etal-2020-uncertainty}においては,出力文の長さが難易度の指標として用いられている.ノイズを表す指標として,翻訳タスクにおいて2つの生成モデルの尤度差を用いて,カリキュラムラーニングに適用した研究がある\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}.2つの生成モデルはノイズの少ないコーパスとノイズの多いコーパスでそれぞれ学習したSequence-to-sequenceモデルである.ここではノイズは翻訳元の文章と翻訳先の文章で対応の取れない情報を指している.要約分野においては,新聞記事などのデータセットはソーシャルメディアやメールのデータセットに比べてノイズが少ないと考えられる.しかし,要約データは要約の長さ,Density(要約箇所が本文の全体か,一部分かを示す指標),圧縮率,抽出率(要約の単語が本文に含まれる割合)などの性質がデータセットによって大きく異なる\cite{zhong-etal-2019-closer}.異なるデータセットで学習したモデルは,ノイズのみでなく,こうした性質を考慮したモデルになってしまう問題がある.そのため,先行研究\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}を要約モデルに適用する場合,同じドメインでノイズの多寡のみが異なるデータセットが必要になるが,こうしたデータセットは存在しない.そこで本研究のもう1つの目的として,ノイズを含む単一コーパスからノイズを定量化してカリキュラムラーニングに適用する手法を提案する.本研究では,ノイズを含む単一コーパスからノイズを定量化できるモデルAppropriatenessEstimatorを提案する.本モデルは本文−要約の正しいペアと,ランダムに組み合わせたペアを分類する.ランダムに組み合わせたペアの要約は本文の内容を反映していない不適切なものである.不適切なペアと実際のペアを分類するように学習することで,AppropriatenessEstimatorは本文−要約ペアの“適切性”が判別可能になる.この適切性をカリキュラムラーニングに適用する.すなわち,適切性をデータのソートに使用し,要約モデルの学習時,学習データを不適切なペアから適切なペアへと徐々に変化させる.本研究ではノイズを多く含む要約のデータセットとして,2つのデータセットで実験を行った.EnronSubjectデータセット\cite{zhang-tetreault-2019-email}とRedditTitleデータセット\cite{kim-etal-2019-abstractive}である.両者とも学習データにはノイズが多く含まれるが,EnronSubjectデータセットの開発データセットと評価データセットは,人手により整理されたものである.一方RedditTitleデータセットの開発データセット,評価データセットはノイズを含む生のデータセットである.本研究では,要約タスクに対するカリキュラムラーニングの有効性と,提案手法の効果を検証するため,3つの要約モデルと3つのカリキュラムで実験を行う.要約モデルには,事前学習要約モデルと非事前学習要約モデルを用いる.事前学習モデルとしてBART\cite{lewis-etal-2020-bart},非事前学習モデルとしてTransformer\cite{NIPS2017_7181}とSeq2seqWithAttention\cite{DBLP:journals/corr/BahdanauCB14}を採用する.実験において,カリキュラムラーニングおよび提案手法であるAppropriatenessEstimatorは事前学習モデル,および非事前学習モデル両方の性能を改善した.カリキュラムラーニングに用いられるカリキュラムにはいくつかの種類が存在する.学習データを徐々に変更するもの,学習データを徐々に増やしていくもの,学習データを徐々に減らしていくものなどがある.実験結果から,事前学習モデルに有効なカリキュラムと非事前学習モデルに有効なカリキュラムが異なることが判明した.事前学習モデルにとっては,終盤に少数のデータでFine-tuningを行うカリキュラムが有効であり,非事前学習モデルにとっては序盤に多数のデータで汎化を行うことが有効であった.また,人手による評価を行い,提案手法であるAppropriatenessEstimatorをカリキュラムラーニングに適用した方法が要約モデルの性能を向上させることを示した.要約のデータの性質の評価に,抽出率(要約の単語が本文に含まれる割合)\cite{kim-etal-2019-abstractive}や,含意判定確率\cite{matsumaru-etal-2020-improving}がこれまで用いられてきた.本研究で提案した適切性をこれらの性質や入力長,出力長などの統計量と比較し,適切性の性質を議論する.加えてこれまでカリキュラムラーニングに用いられてこなかった上記抽出率や含意判定確率が要約タスクにおけるカリキュラムラーニングに対して有効であることを示す.本論文の貢献は以下である.\begin{itemize}\item3つの要約モデルでカリキュラムラーニングの実験を行い,カリキュラムラーニングの要約タスクに対する有効性を示した.\item単一のノイズを含む学習データから学習可能な,入力文と出力文の適切性を計算するモデル\textit{AppropriatenessEstimator}を提案し,実験により要約モデルの性能を向上させることを確認した.\item異なるカリキュラムが事前学習モデル,非事前学習モデルの性能にどのような影響を与えるかを分析した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related}カリキュラムラーニングは学習データの順序を変更することで収束速度やモデル性能を上げる手法である\cite{10.1145/1553374.1553380}.過去の研究\cite{Cirik2016VisualizingAU}はこれを文生成タスクに応用し,2種類のカリキュラムを提唱した.BabystepカリキュラムとOne-Passカリキュラムである.後続の研究がカリキュラムラーニングを翻訳タスクに応用したが\cite{kocmi-bojar-2017-curriculum,platanios-etal-2019-competence,wang-etal-2019-dynamically,zhou-etal-2020-uncertainty},要約タスクに応用した研究はこれまで存在しなかった.カリキュラムラーニングは元来,難易度で学習データをソートする手法であった.しかし,近年ではノイズの多さでソートを行う手法が提唱されている.Wangetal.\citeyear{wang-etal-2018-denoising}は,2つのモデルを使って学習データのノイズを定量化する手法を提案した.同様のノイズ定量化手法を使い,Kumaretal.\citeyear{kumar-etal-2019-reinforcement}は強化学習を用いて学習に適している学習データのセグメントを適宜選択していく手法を提案した.%\cite{wang-etal-2019-dynamically}はノイズ定量化に加えて,ドメインらしさを定量化し,EMアルゴリズムを用いてそれらを組み合わせるカリキュラムラーニングの手法を提案した.要約分野においては,同じドメインでノイズの多寡が異なるコーパスは存在しないため,これらの手法を要約モデルに適用することはできない.そのため,本稿ではノイズを含む単一コーパスからノイズを定量化する手法を提案する.Sequence-to-sequence要約モデルの学習においては一般に,見出し,タイトル,件名などを要約とみなして学習する.しかしながら,これらのデータの内,メールやソーシャルメディアの件名およびタイトルは,非公式な場や,匿名性の高い場で書かれたものであるため,品質が担保されていない.Zhangetal.\citeyear{zhang-tetreault-2019-email}はメールの件名を生成するタスクを提唱したが,元のEnronコーパスに含まれている件名がノイズを多く含んでいたため,新たにノイズの少ない評価データセットを構築している.Lietal.\citeyear{DBLP:conf/aaai/LiLZ19}は,ルールや分類モデルを使ってレビューデータのノイズをフィルタリングした.新聞記事の見出しは,新聞社が不特定多数の読者に公開するものであるため,比較的要約として適切なものが多いものの,本文から推測が不可能な情報が含まれることが指摘されており,含意判定モデルによってそうしたデータをフィルターする手法が提案されている\cite{matsumaru-etal-2020-improving}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{手法} \label{sec:method}本節ではまずカリキュラムラーニングの説明を行い,その後,提案手法であるAppropriatenessEstimatorの説明を行う.カリキュラムラーニングは,学習データをある指標に基づいてソートして学習する手法であるが,その指標には難易度を表す指標やノイズ量を表す指標が使われる.提案手法であるAppropriatenessEstimatorは後者のノイズ量計算のために使われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-1ia6f1.pdf}\end{center}\caption{カリキュラムラーニングの概要.}\label{fig:curriculum}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{カリキュラムラーニング}カリキュラムラーニングの概要を図\ref{fig:curriculum}に示す.カリキュラムラーニングではまず,ある指標(e.g.ノイズの少なさ,出力長など)に基づいて学習データを昇順にソートする.次に,学習データをセグメントごとに分割する.分割したセグメントを使ってどのように学習を進めるかに応じて複数のカリキュラムが提案されている.One-Passカリキュラム\cite{Cirik2016VisualizingAU}は最も簡単な,あるいは最もノイズが多いセグメントから学習を開始し,モデルが収束すると,学習データとして次のセグメントのデータを使用する.Babystepカリキュラム\cite{Cirik2016VisualizingAU}は最も簡単な,あるいは最もノイズが多いセグメントから学習を開始し,徐々に学習データを増やしていく.これら2つのカリキュラムは少量のデータから学習を開始する.そのため,過学習を引き起こすリスクが存在する.過学習への対処のため,最初に全てのデータで学習を行い,徐々にデータを減らしていくカリキュラムでも実験を行う.これをNoise-Annealingカリキュラムと呼称する.いずれのカリキュラムにおいても,セグメント単位での学習を終える度,モデルのパラメータを保存し,開発データでの評価値が下がった場合には,最後に保存したパラメータに戻した後,次のセグメントでの学習を開始する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-1ia6f2.pdf}\end{center}\caption{AppropriatenessEstimatorの概要図と要約モデル学習への適用.}\label{fig:model}\vspace{-1\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{AppropriatenessEstimator}本稿ではAppropriatenessEstimatorを提案する.本モデルはノイズを含む単一コーパスから学習可能な,ノイズを定量化するモデルである.図\ref{fig:model}にモデルの概要図を載せる.\ref{sec:intro}節で述べたように,要約モデルの学習データには要約として不適切なものが含まれる.ここで言う不適切とは,本文から推測が難しい情報や本文と無関係な情報が含まれているものや,記述が漠然としていて情報量に欠けているものを指す.提案モデルは本文と要約が実際の対であるかを学習することによって,本文と要約の適切性を定量化する.要約モデルの学習データに存在する本文$s_i$と要約$t_k$のペアを正例とし,ランダムにサンプリングされた本文$s_i$と要約$t_k$のペアを負例とする.ラベルを$c$とし,ラベルが正の時$c=1$であり,負の時$c=0$とする.本モデルの学習タスクは本文−要約ペアのラベル$c$の正負を予測することである.要約モデルの学習データに含まれるペアは全て正例とみなすが,\ref{sec:intro}節で説明したように,それらは不適切なペアを含む.EarlyStoppingは一般に過学習を防ぐ目的で使われている手法であるが,ノイズデータに対する過学習を防ぐことにも有効であることが示されている\cite{pmlr-v108-li20j}.本研究でも,同様にEarlyStoppingを利用することでモデルがノイズデータに過学習することを防ぐ.モデルの出力確率を$p(c|s_i,t_k)$とし,損失関数$L$は以下のようにクロスエントロピーを用いて計算する.\begin{equation}\mathcal{L}_{rep}=-c\log{p(c|s_i,t_k)}-(1-c)\log{(1-p(c|s_i,t_k))}\end{equation}学習後のモデルの出力確率$p(c=1|s_i,t_k)$をペアの適切性と呼称する.ここで,$p(c=1|s_i,t_k)$が高いペアは低ノイズであり$p(c=1|s_i,t_k)$が低いペアは高ノイズであることを仮定している.要約の学習データ全てをAppropriatenessEstimatorに入力し,適切性を計算する.ここで$c=0$のデータ,すなわちネガティブサンプリングにより得られたペアは含めず,元々の要約データに存在するペアのみを利用する.適切性に基づき学習データをソートし,カリキュラムラーニングを適用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{EnronSubjectデータセット}Enronデータセット\cite{10.1007/978-3-540-30115-8_22}はEnronCorporationの従業員のメールを集めたデータセットである.Zhangetal.\citeyear{zhang-tetreault-2019-email}はこれらのデータを件名生成タスク用に整理した.元のデータセットは評価に使用するにはノイズが多かったため,彼らは適切な件名を人手で再度アノテーションし,開発データセットと評価データセットを構築した.学習データとして14,436の件名とメールの本文を使用する.開発データセットとして1,906件,評価データセットとして1,960件のデータを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{RedditTitleデータセット}RedditTitleデータセット\cite{kim-etal-2019-abstractive}はソーシャルメディアであるRedditのデータセットである.データは,RedditのTIFUと呼ばれる掲示板(Subreddit)から収集されたものである.TIFUは``todayif***up"の略であり,投稿される文書は投稿者の失敗経験についてのものである.各投稿のタイトルを要約とみなし,要約の学習データとして使用する.学習データとして71,113件,開発データおよび評価データセットとして,各3,951件のデータを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{AppropriatenessEstimator}本稿ではAppropriatenessEstimatorとしてDecomposableAttention\cite{parikh-etal-2016-decomposable}を利用する.単語Embeddingの初期値としてGloVe\footnote{\url{https://nlp.stanford.edu/projects/glove/}}を使用する.Embeddingと隠れ層の次元はそれぞれ300と200とする.学習に使うエポック数は20とする.\ref{sec:intro}節と\ref{sec:method}節で説明したように,ランダムに割り当てた本文と出力文のペアを負例とし,元々の要約データセットに含まれるペアを正例とした.負例の数は正例の数と同数である.すなわち,AppropriatenessEstimatorの学習データ,開発データの数は要約モデルのそれぞれのデータ数の2倍となる.開発データセットにおいて最もF1-Scoreが高くなるエポックのモデルを要約モデルのカリキュラムラーニングに使用した.開発データセットにおける,最も高いF1-ScoreはEnronデータセットで0.94,Redditデータセットで0.92であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{要約モデル}本稿では3つの要約モデルで実験を行った.その内1つは事前学習モデルであるBART\cite{lewis-etal-2020-bart}である.残りの2つは,非事前学習モデルであるTransformer\cite{NIPS2017_7181}とSeq2seqwithAttention\cite{rush-etal-2015-neural}である.Seq2seqwithAttentionおよび,Transformerの隠れ層の次元は共に256とする.単語Embeddingの次元はSeq2seqwithAttentionが300,Transformerが256である.Seq2seqwithAttentionの単語Embeddingの初期値にはAppropriatenessEstimatorと同様にGloVeを使用する.ミニバッチ数は3つの要約モデルで共に64とする.BeamSearchのサイズは8とする.Seq2seqwithAttentionとTransformerの最適化にAdamを使用した.学習率は0.0007とした.BARTの最適化にはAdamW\cite{DBLP:conf/iclr/LoshchilovH19}を使用した.学習率は3e-5,$\beta_1$は0.9,$\beta_2$は0.999,epsは1e-8とした.ランダムシードを変えつつ,同じ実験を5回繰り返し,平均値を結果に使用する.評価にはROUGEのF1値\cite{lin-2004-rouge}を使用する.各セグメントのエポック毎にValidationを行い,Validationの評価指標にはROUGE-1のF1値を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カリキュラムラーニング}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{カリキュラム}本稿では4つの条件下で実験を行う.\ref{sec:method}節で説明した3つのカリキュラムラーニングを使ったものと,カリキュラムラーニングを使わないものである.セグメント数として,5と10で実験を行った.学習データの各セグメント内のデータはシャッフルする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データのソートに使用する指標}学習データをソートする指標として以下の2つを使用する.提案指標である適切性と,出力長である.出力長は難易度を表す指標として,カリキュラムラーニングで一般的に使われる指標である\cite{Cirik2016VisualizingAU,platanios-etal-2019-competence,wang-etal-2019-dynamically,zhou-etal-2020-uncertainty}.本研究では,出力長は生成対象の要約文の単語数を指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果} 本節では,\ref{sec:intro}節で述べた本研究の目的であるカリキュラムラーニングの要約タスクへの有効性と,提案手法であるAppropriatenessEstimatorの有効性の検証結果について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カリキュラムラーニングの要約タスクへの有効性}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{自動評価}表\ref{tab:result_curriculum}に,3種のカリキュラムラーニングを要約モデルの学習に用いた場合と,用いなかった場合の実験結果を載せる.評価は自動評価指標であるROUGEを用いて行った.各モデル各データの最も高い性能(モデル1)は太字で記されている.$\dagger$は同モデル同データ内で2番目に性能が高いもの(モデル2)との有意差を示している(p$<$0.05).有意差検定には,BootstrapResampling\cite{koehn-2004-statistical}を使用した.テスト時のモデルの出力の件数の半分に当たる回数,ランダムに結果を重複ありでサンプリングし,モデル1とモデル2の結果を比較する.これを1000回繰り返し,950回以上モデル1がモデル2の性能を上回った場合,有意とみなす.いずれのモデル,データにおいても,カリキュラムラーニングを使ったモデルが最も高い性能を示しており,要約タスクにもカリキュラムラーニングが有効であることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{06table02.tex}\hangcaption{カリキュラムラーニングを使った要約モデルの実験結果.適切性はAppropriatenessEstimatorの出力確率を表す.R-1-F,R-2-F,R-L-FはそれぞれROUGE-1,ROUGE-2,andROUGE-LのF1値である.各モデル各データの最も高い性能は太字で記されており,$\dagger$は同モデル同データ内で2番目に性能が高いものとの有意差を示している($p<0.05$).有意差検定には,BootstrapResampling\protect\cite{koehn-2004-statistical}を使用した.}\label{tab:result_curriculum}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{人手評価}本稿では2つのBARTモデルで人手評価を行った.1つはNoise-Annealingカリキュラムおよび適切性で学習されたものであり,もう1つはカリキュラムラーニングなしで学習されたものである.両モデルで生成された要約が同じである場合,それを除去し,計90の生成要約をEnronデータセット,Redditデータセットそれぞれに対して得た.アノテーターはどちらの要約が良いかを情報量,流暢性の観点から評価する.情報量は生成要約が本文の重要な情報をどの程度含んでいるかを表しており,流暢性は文法の観点から生成された文が正しいかを判断する.表\ref{tab:result_human}に結果を示す.表は,Noise-Annealingと適切性で学習されたモデルは情報量,流暢性両方の観点でより高い評価を得たことを示している.統計的な有意性を評価するため,“良い”と“どちらかといえば良い”の票数を統合し$\chi$二乗検定を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{06table03.tex}\hangcaption{人手評価の結果.CLありはNoise-Annealingカリキュラム使用時の結果を指し,CLなしはカリキュラムラーニング無しの結果を指す.$\dagger$and$\ddagger$は,BART(CLあり)が“良い”と“どちらかといえば良い”の票を多く得る確率を$\chi$二乗検定で検定したものである($\dagger\p<0.01$,$\ddagger\p<0.05$).}\label{tab:result_human}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{AppropriatenessEstimatorの有効性}AppropriatenessEstimatorの適切性を利用したカリキュラムラーニングは,3つのモデル全てで,カリキュラムラーニングなしのモデルと比べ,性能を向上させた.出力長を利用したカリキュラムラーニングと比較した場合,適切性を利用した場合はEnronSubjectデータにおいてより上げ幅が大きかった.これは,RedditTitleデータセットでは,テストデータが学習データ同様未整備であるのに対し,EnronSubjectデータのテストデータが,人手で整備されたノイズの少ないデータであることに関係していると考えられる.適切性を用いたカリキュラムラーニングは,Noise-AnnealingカリキュラムとOne-Passカリキュラムの場合,学習の終盤においてノイズの少ないデータで学習を行う.これにより,学習モデルが低ノイズの高品質なデータにFine-tuningされているため,より低ノイズのテストデータセットにおいて性能を発揮すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} 本節では,本実験で用いた3つのカリキュラムが与える性能への影響,翻訳タスクとの相違点,適切性の性質について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カリキュラムごとの相違点}今回本研究では,3種類のカリキュラムで実験を行った.One-PassカリキュラムおよびNoise-Annealingカリキュラムは学習の終盤で少数のデータでFine-tuningを行い,Noise-Annealingカリキュラムは学習の初期に多様なデータでの汎化を行うという特徴がある.こうしたカリキュラムの特徴と,カリキュラムラーニングなしと比べた際の要約モデルの性能に与える影響のまとめを表\ref{tab:result_summary}に載せる.One-PassおよびNoise-AnnealingカリキュラムはBARTモデルの性能を向上させたが,Babystepカリキュラムは性能を悪化させた.考えられることは,BARTは事前学習モデルであるため,改めて汎化を行う必要はなく,Fine-tuningが重要であるという点である.非事前学習モデルにおいてはNoise-Annealingカリキュラムのみが要約モデルの性能を向上させた.これは,事前学習モデルとは対照的に,非事前学習モデルにとっては汎化が重要であることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{06table04.tex}\caption{3つのカリキュラムの特徴とカリキュラムラーニングなしと比べた場合の性能差.}\label{tab:result_summary}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{翻訳タスクとの相違点}\label{sec:translation}Babystepカリキュラムは,徐々に学習データを増やしていくカリキュラムである.過去の翻訳タスクにおける研究では出力長を同様のカリキュラムに使用し,翻訳モデルの性能を向上させた\cite{kocmi-bojar-2017-curriculum,platanios-etal-2019-competence,zhou-etal-2020-uncertainty}が,本稿の実験設定では要約モデルの性能は低下した.要約タスクと翻訳タスクの出力文の違いとして,翻訳タスクでは,出力文の質と出力文の文長に相関はないが,要約タスクではその限りではないということである.翻訳タスクにおいては,出力文は入力文の長さに比例するため,入力文が短い場合は必然的に出力文も短くなり,翻訳の正確性には関係がない.しかしながら,要約タスクにおいては,出力文と入力文は比例せず,短すぎる要約は十分な情報を含んでいないと考えられる.そのため,少数のデータで学習をはじめるBabystepカリキュラムおよびOne-Passカリキュラムを非事前学習モデルに適用した場合,低品質データに対する過学習を引き起こし,性能が低下すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{適切性が高い/低い本文−要約ペアの具体例}表\ref{tab:example_enron},\ref{tab:example_reddit}に適切性が高い,あるいは低い入力文(本文)と出力文(要約)のペアの例を載せる.表にある適切性の低い例の出力文は本文にない情報を含んでいることがわかる.表\ref{tab:example_reddit}の下段の例では,適切性が低いペアにおいて,出力文の続きが入力文に書かれており,出力文の情報が入力文に書かれていない.対照的に,適切性が高いペアでは出力文は本文の内容を反映している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{06table05.tex}\caption{適切性が高い/低い本文−要約(Subject)ペアの例(EnronSubjectデータセット).}\label{tab:example_enron}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\input{06table06.tex}\caption{適切性が高い/低い本文−要約(Title)ペアの例(RedditTitleデータセット).}\label{tab:example_reddit}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{適切性の表す性質}本節では,適切性が表す性質について議論する.\ref{sec:translation}節で述べたように,要約タスクにおける出力長はノイズの量と相関すると考えられるが,ノイズの量そのものではない.表\ref{tab:example_enron}や表\ref{tab:example_reddit}で示した例のように,出力長が長くてもノイズとみなせる要約も存在する.本節では適切性を,他にノイズと相関すると考えられる4つの性質と比較して議論する.その内の2つは,入力長と出力長である.3つ目は一致する単語の割合である.AppropriatenessEstimatorは,本文−要約ペアの適切さを一致する単語によって判定している可能性が高い.要約に含まれる単語が本文に含まれる割合を抽出率と定義し,抽出率と適切性との関係性について議論する.4つ目は含意関係である.松丸ら\cite{matsumaru-etal-2020-improving}は,含意判定器を用いて要約データのフィルタリングを行った.含意判定器の確率値と適切性の違いについて議論する.上記4つの性質と適切性とのピアソンの相関係数を表\ref{tab:corrcoef}に載せる.また,上記4つの内,入力長,抽出率,含意確率を用いてカリキュラムラーニングを行った際の結果を表\ref{tab:result_curriculum_nli}に載せる.この時,カリキュラムとして用いたのは,表\ref{tab:result_curriculum}の実験で有効であったOne-PassカリキュラムとNoise-Annealingカリキュラムである.要約モデルには最も性能の高いBARTを使用した.表\ref{tab:result_curriculum}の実験と同様に,実験はランダムシードを変えて5回行った際の平均値を載せる.有意差検定は,表\ref{tab:result_curriculum}の実験と同様BootstrapResampling\cite{koehn-2004-statistical}を用いて行う($p<0.05$).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{適切性と入力長および出力長との関係}表\ref{tab:corrcoef}より,適切性と,入力長及び出力長との相関係数は0.2未満であった.これは,適切性が入力長や出力長とは異なるテキストの性質を表していることを示している.表\ref{tab:example_enron}および表\ref{tab:example_reddit}に示したように,要約のデータセットには,本文や要約が短くない場合にも要約として不適切なものが含まれる.また,表\ref{tab:result_curriculum_nli}より,入力長をカリキュラムラーニングの指標として用いた場合の性能は,他の指標と比べて悪くなった.これは入力長と要約データとしての適切さが比例しないことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{06table07.tex}\caption{適切性と各統計量との相関係数(ピアソン)}\label{tab:corrcoef}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{06table08.tex}\hangcaption[result]{入力長,抽出率,含意確率をカリキュラムラーニングを適用した要約モデルの実験結果.各モデル各データの最も高い性能は太字で記されており,$\dagger$は同モデル同データ内で適切性以外で最も性能が高いものとの有意差を示している($p<0.05$).有意差検定には,BootstrapResampling\cite{koehn-2004-statistical}を使用した.}\label{tab:result_curriculum_nli}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{適切性と抽出率との関係}AppropriatenessEstimatorは,本文と要約のペアの正しさを学習している.そのため,要約に含まれる単語が本文に含まれるかを元に判定している可能性が高い.そこで,要約に含まれる単語が本文に含まれる割合(これを抽出率と呼称する)と適切性の関係性を議論する.抽出率と適切性のピアソン相関係数は,表\ref{tab:corrcoef}にあるように高い.これは,適切性が単語の一致率を反映していることを示す.ただし,適切性が抽出率に比べ有利な点は単語の一致だけではなく,関連する単語に着目できる点と,一般的すぎる単語の重要度を相対的に下げられる点である.AppropriatenessEstimatorは他の異なる要約を負例として判別するよう学習するため,要約の内容が一般的で情報量が少ない場合,他の本文にも含まれる可能性が高くなり,正しい要約と誤った要約の区別がつきにくくなる.そのため,こうした本文−要約ペアには相対的に低い適切性が与えられる.表\ref{tab:example_icchi}にある例の抽出率は高いが,書かれている内容が一般的で情報量を欠いているため,適切性が相対的に低くなっている.適切性は全体的に高い数値であるため,この数値は全体の下位23.2\%に該当する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{06table09.tex}\caption{抽出率が高いが,適切性が相対的に低い本文−要約ペアの例(RedditTitleデータセット).}\label{tab:example_icchi}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%抽出率をカリキュラムラーニングに適用した場合の結果を表\ref{tab:result_curriculum_nli}に載せる.抽出率はNoise-Annealingカリキュラムにおいては,適切性と同等の性能であったが,One-Passカリキュラムにおいては適切性が有意に上回った.これは前述した点で適切性が抽出率に比べ有利であるからと考えられる.また,抽出率を使った結果は,カリキュラムラーニングを使わない場合の性能を上回っており,この実験結果はこれまでカリキュラムラーニングに用いられて来なかった抽出率が要約タスクにおいて有効であることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{適切性と含意確率との関係}松丸ら\cite{matsumaru-etal-2020-improving}は,含意判定器を用いて要約学習データセットから不適切な本文と要約のペアを除去した.含意確率と適切性の関係性についても本節で議論する.含意判定器には,松丸ら\cite{matsumaru-etal-2020-improving}と同様に,RoBERTa\cite{liu2019roberta}をMulti-GenreNaturalLanguageInference(MultiNLI)データセット\cite{williams-etal-2018-broad}で学習させたものを使用し,本文が要約を含意する確率を計算する.なお,松丸らは,MultiNLIで学習させたモデルを,要約データセットごとに独自にアノテーションしたデータセットで更にFine-tuningしたモデルを用いているが,本研究では対象要約データセットが異なるため,MultiNLIで学習させたモデルを用い,Fine-tuningは行わない.適切な要約の要件には,要約の内容が本文にも書かれているという含意性の他に,本文の重要な箇所が要約に反映されているべきだという情報量の観点がある.AppropriatenessEstimatorは一般的すぎて情報量が少ない要約には相対的に低い適切性を与える.これは要約の記述内容に情報量が少ない場合,本文に対する正しい要約であるか,他の本文に対する要約であるかを判定するのが難しくなるからである.一方含意判定器は含意性のみを判定するため,こうした例を除去することはできない.表\ref{tab:example_nli}の上段の例では,含意確率は高くなってしまうが,要約として適切な情報が含まれているとは言い難い.一方AppropriatenessEstimatorは,主語と目的語の逆転や否定肯定の反転などを区別することはできないため含意性に関しては含意判定器が高性能に行うことができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{06table10.tex}\caption{含意確率が低い,あるいは高い本文−要約ペアの例(RedditTitleデータセット).}\label{tab:example_nli}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,既存の含意判定器は要約データセット向けに作られたものでは無いため,要約データセットに対しては適切な含意判定ができないという問題も存在する.一般的に含意判定器は同程度の長さの文同士を比較するが,要約の場合は複数の文にまたがる情報を含意することがある.既存の含意判定学習データセットMultiNLIを用いて学習された含意判定器で含意確率が高いと判定された本文−要約のペアは,表\ref{tab:example_nli}の中段の例にあるように,同程度の長さで要約の内容が本文に存在していることが多い.これに対し,下段の例のように複数文にまたがる内容の要約は含意判定器では含意確率が低いと判定される.含意判定器の確率値と本文の単語数(入力長)とのピアソン相関係数は,EnronSubjectデータセットにおいて-0.30,RedditTitleデータセットにおいて$-0.42$であり,いずれも負の相関性を示していた.この相関関係は本文が長すぎる時には,既存の含意判定器が上手く機能しないという仮説を支持している.先行研究\cite{matsumaru-etal-2020-improving}では,含意判定器を要約データセットのフィルタリングに使用したが,この時含意判定器は要約データセット向けに新たにアノテーションされたものを用いてFine-tuningされており,正確に要約データの含意性を判定するためには要約データセットに対する含意関係のアノテーションが必要となる.提案手法であるAppropriatenessEstimatorは,このような要約データセットのアノテーションを必要とせず,含意判定器やその学習データセットが無い言語に対しても有効である.表\ref{tab:result_curriculum_nli}の結果は,含意確率をカリキュラムラーニングに用いた場合の性能が,EnronSubjectデータセット,RedditTitleデータセット両方において,適切性とOne-Passカリキュラムを用いた場合の性能を有意に下回っていることを示している.これは,前述したように含意確率が情報量を考慮できない点と,既存の含意確率モデルが要約データセットに対して必ずしも有効でないことによると考えられる.一方カリキュラムラーニングを用いない場合に比べ性能は向上しており,これまでカリキュラムラーニングに用いられて来なかった含意確率という指標が,要約データセットに対して有効であることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{どのセグメントで最も高性能となるか?}\label{app:best_epoch}One-Passカリキュラム,およびNoise-Annealingカリキュラムは両方とも少量のデータでFine-tuningを行う.どのセグメントで最も要約モデルの開発データの評価性能がよくなるかを調査することで,どのセグメントが最もFine-tuningに適しているかを明らかにする.表\ref{tab:best_epoch}に開発データセットの評価性能(ROUGE-1-F)が最も高くなるセグメントの番号を記す.モデルにはBARTを使用する.表には5回行った実験の平均値と標準偏差を記してある.セグメント数は10であり,10番目のセグメントが最も出力長が長い,あるいは最も適切性が高いセグメントである.出力長を用いてカリキュラムラーニングを行った際,要約モデルはより早いセグメントで最も開発データセットにおける評価性能が高くなっているが,提案した適切性を用いた時には,より後段のセグメントで最も評価性能が高くなっている.これは出力が長すぎるデータは要約モデルのFine-tuningに適切でないことを示唆している.長過ぎる要約は,情報の取捨選択が適切に行われていないからである.一方,本稿で提案した適切性は,高いものがよりFine-tuningに適した,要約モデルの学習に適したデータになっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{06table11.tex}\hangcaption{開発データセットにおける評価指標(ROUGE-1-F)が最大になるセグメントを表示している.ランダムシードを変えた時の5回の実験の平均値と標準偏差を記してある.セグメントの数は10である.}\label{tab:best_epoch}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本稿では,これまで要約タスクにおいて取り組まれてこなかったカリキュラムラーニングを要約タスクに適用し,その有効性を検証した.本稿では,実験設定として,3つのカリキュラム(One-Pass,Babystep,Noise-Annealing)とカリキュラムを使わない場合で実験を行った.また,実験対象の要約モデルとして1種類の事前学習モデルBARTと2種類の非事前学習モデルTransformerとSeq2seqWithAttentionを用いた.結果,非事前学習モデルにおいてはNoise-Annealingカリキュラムのみが要約モデルの性能を向上させた.また,事前学習モデルにおいてはOne-PassカリキュラムとNoise-Annealingが性能を向上させた.これらの実験結果から,少量のデータでFine-tuningを行うことが事前学習要約モデルに重要であり,汎化が非事前学習要約モデルにとって重要であることを結論付けた.より効率的にFine-tuning対象のデータを探る手法を考案することが今後の課題である.また本稿では既存の翻訳タスクで取り組まれてきたノイズを指標にしたカリキュラムラーニングを要約タスクに適用することを試みた.その際,要約の学習データには翻訳タスクにあるようなノイズの少ないあるいは多いコーパスが存在しないため,単一のノイズを含む学習データから学習可能なノイズ定量化モデルAppropriatenessEstimatorを提案し,カリキュラムラーニングの実験を行った.実験においては,テストデータが人手で整備されたEnronSubjectデータセットにおいてより効力を発揮することを明らかにした.本稿で提案した疑似負例により学習したモデルをカリキュラムラーニングに応用する手法は,翻訳タスクや対話タスクにも応用可能だと考えられる.また,要約タスクにカリキュラムラーニングを応用する際,適切性と出力長の他に,抽出率や含意判定確率も有効であることを示した.今後の課題はこれらの指標を効果的に組み合わせる手法を開発することである.今回,ノイズの多い要約データセットに対するカリキュラムラーニングの有効性を調査したが,新聞記事などのノイズの比較的少ない要約データセットに対する調査は今後の課題となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment東京工業大学奥村・船越研の奥村先生,船越先生,上垣外先生,学生の皆様及び,産業技術総合研究所の高村先生には研究の方針に関して様々なアドバイスを頂きました.ここに感謝の意を表します.本研究は,The16thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2021)の発表``QuantifyingAppropriatenessofSummarizationDataforCurriculumLearning''で報告した研究に,適切性の性質についての追加実験の結果や考察を加筆し,修正したものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{狩野竜示}{%2013年東京大学大学院情報理工学系研究科修了.同年富士ゼロックス株式会社入社.2019年より東京工業大学工学院博士課程に在籍.現在,富士フイルム株式会社において,自動要約の研究に従事.言語処理学会会員.}\bioauthor{谷口友紀}{%2004年神戸大学大学院自然科学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,富士フイルム株式会社において,医療言語処理,情報抽出の研究に従事.言語処理学会会員.}\bioauthor{大熊智子}{%1996年慶應義塾大学政策・メディア研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,富士フイルム株式会社において,医療言語処理,情報抽出の研究に従事.言語処理学会理事.人工知能学会理事.博士(学術).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V11N05-07
\section{はじめに} 言い換えに関する研究\cite{sato_ronbun_iikae,murata_paraphrase_true,inui_iikae_tutorial,murata_paraphrase_nlp2004}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであり,近年,その重要性は多くの研究者の認めるところとなっている.また,これと同時に,言い換え表現の自動獲得の研究も重要視されつつある.本稿では言い換え表現の一種である同義表現を自動獲得する研究について述べる.本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することで,同義表現を抽出する.例えば,「あべこべ」という語の定義文を考えてみる.大辞林では,\begin{quote}「順序・位置などの関係がさかさまに入れかわっていること。」\end{quote}となっており,岩波国語辞典では,\begin{quote}「順序・位置・関係がひっくり返っていること。」\end{quote}となっている.これらの定義文は同じ「あべこべ」という語の定義文であるため,同義な内容を記述した文であり同義なテキスト対と見ることができる.これを照合すれば,\begin{quote}「さかさまに入れかわっている」\hspace*{1cm}$\Updownarrow$「ひっくり返っている」\end{quote}といった同義な表現対が得られる.本稿の手法は大雑把には以上のとおりで,このように同義な内容を記述する複数の辞書の定義文を照合することで同義表現を獲得するのである.本研究の価値をあらかじめ整理すると以下のようになる.\begin{itemize}\item同義なテキスト対から同義表現を抽出する研究はいくつかあるが,複数の辞書の定義文を同義なテキスト対として,そこから同義表現を獲得する先行研究はない.本稿は,複数の辞書の定義文からどのくらいの同義表現を抽出できるかの目安を与えるものとなる.\item本稿では,同義表現の抽出に役に立つ,新しい尺度を提案する.本稿の実験で,この尺度がいくつかの比較手法よりも有効であることを確認する.この尺度は,他の同義表現の抽出の研究にも利用できる有用なものである.\end{itemize} \section{複数の辞書の照合に基づく同義表現の抽出方法} \label{sec:method}本研究では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することにより,同義表現を抽出することを試みる.この辞書としては,岩波国語辞典と大辞林を使用した.同義テキスト対としては,二つの辞書の各見出し語の定義文同士を組にすればよいが,場合によっては一つの見出し語が複数の項目をもっている場合がある.これの対処法として,本稿ではそれぞれの定義文が,岩波国語辞典と大辞林とで一対一に対応すると仮定して,照合の度合いが良いもの同士,定義文を結び付けることにした.まず照合のとりかたであるが,これは各定義文をJUMAN\cite{JUMAN3.6}を使って形態素列に分解する\footnote{定義文をJUMANを使って形態素列に分割したが,定義文の解析においてJUMANの性能が特に下がるということはなかった.また,本研究ではこの形態素列への分解の処理においてはJUMANを使用しただけであり,辞書を追加したり後処理をするなどの他の処理はしていない.}.各行に形態素が来るようにしてUNIXのdiffコマンドを使って,一致,不一致箇所を検出する\cite{Murata_murata_diff_nlp2002}.照合の度合いを計る式としては,以下のものを用いた.\begin{equation}照合の度合い=\frac{一致文字数\times2}{全文字数}\end{equation}ここで,一致文字数は,diffの結果一致部分と判断された部分の文字数を意味し,全文字数は,diffに与えた岩波国語辞典と大辞林の双方の定義文を合わせた文字数を意味する.この式は,0から1の値をとり,一致部分が大きいほど大きな値を持つものとなっている.実際に上記の照合を行なった.照合は57,643個の定義文の対で行なうことができた.辞書定義文の照合結果の例を表\ref{tab:jisho_shougou_rei}に示す.表中で``<'',``>''で囲まれた部分は,大辞林にだけ出現したものを,また,``≦'',``≧''で囲まれた部分は,岩波国語辞典にだけ出現したものを意味する.\begin{table*}[t]\begin{center}\leavevmode\caption{辞書定義文の照合結果の例}\label{tab:jisho_shougou_rei}\begin{tabular}[h]{|c|l|p{8cm}|}\hline\multicolumn{1}{|c|}{照合の度合い}&\multicolumn{1}{|c|}{見出し語}&\multicolumn{1}{|c|}{定義文のdiffの結果}\\\hline0.69&あいこ&<互いに、>≦たがいに≧勝ち負けのないこと\\0.29&あえか&<はかなげな>≦たよりない≧さま\\0.17&あえか&<美しくかよわげな>≦かよわく、なよなよした≧さま\\0.20&あからさま&<急な>≦包み隠さないで、はっきり表す≧さま\\1.00&あさって&あすの次の日\\1.00&あしらい&もてなし\\1.00&あたふた&あわてふためくさま\\0.17&あたふた&<数量が非常に多い>≦あわただしく動作を急ぐ≧さま\\0.40&あたら&<惜しい>≦もったいない≧ことに\\0.18&あたら&<もったいなく>≦おしく≧も\\0.22&あっさり&<濃かったり、くどかったり、しつこかったりせず、>さっぱり<としたさま>\\0.67&あっぷあっぷ&水におぼれかけて<、もがいている>≦苦しむ≧さま\\0.54&あとり&スズメよりやや<大形で頭と背面は黒色>≦大形≧\\0.35&あとり&<日本へは>秋に≦シベリア地方から日本に≧渡来<し、全土で越冬>する\\1.00&あべこべ&反対\\0.41&あべこべ&順序・位置<などの>≦・≧関係が<さかさまに入れかわって>≦ひっくり返って≧いる<・>こと\\\hline\end{tabular}\end{center}\end{table*}表をみると,「互いに」と「たがいに」や,「惜しい」と「もったいない」や,さきほどの「あべこべ」の「さかさまに入れかわって」と「ひっくり返って」といった同義表現が得られていることがわかる.しかし,「急な」と「包み隠さないで、はっきり表す」や,「数量が非常に多い」と「あわただしく動作を急ぐ」といった誤った対応のものも見受けられ,この結果をそのまま用いるのは精度が悪そうである.そこで,次に,diffの結果から,ある程度良さそうな同義表現を抽出することを試みる.ここでは以下の二つの特徴を利用することにする.\begin{itemize}\item珍しい(出現頻度の低い)文字列に囲まれた差分部分ほど,同義表現としては確からしい.\item複数箇所に出現した差分部分ほど,同義表現としては確からしい.\end{itemize}\begin{figure}[t]\begin{center}\begin{tabular}{|ccc|}\hline前方一致部分&差分部分&後方一致部分\\文字列$S1$&------------------------&文字列$S2$\\&距離$d$文字&\\\hline\end{tabular}\leavevmode\caption{差分の出現模式図}\label{fig:sabun_moshiki_zu}\end{center}\end{figure}まず,一つ目の「珍しい文字列に囲まれた差分部分ほど,同義表現としては確からしい」という特徴の方を考える.ここでは,差分部分が図\ref{fig:sabun_moshiki_zu}のように,一致部分である文字列$S1$,$S2$に挟まれていて,$S1$と$S2$の間が$d$文字だけ離れているとする.本稿では,この$d$としては,差分部分の長い方の文字数を採用する.このとき,$S2$および$S1$からみて,$d$文字以内に図\ref{fig:sabun_moshiki_zu}のように$S1$および$S2$が現れる確率を,$P(S1)$,$P(S2)$とすると,$P(S1)$,$P(S2)$は$d$文字以内の各箇所で$S1$または$S2$が出現しない事象の余事象の確率となり,以下のように表される.\begin{equation}\displaystyleP(S1)=1-(1-\frac{文字列S1の出現数}{文字総数})^{(d+1)}\label{eq:ps1}\end{equation}\begin{equation}\displaystyleP(S2)=1-(1-\frac{文字列S2の出現数}{文字総数})^{(d+1)}\end{equation}このときの差分部分が確からしい確率を$P(差分,S1,S2)$とすると,$P(差分,S1,S2)$は$S1$,$S2$がともに図\ref{fig:sabun_moshiki_zu}のような形で現れにくい確率であると仮定すると,以下のようになる.($S1$と$S2$が独立であることを仮定している.)\begin{eqnarray}P(差分,S1,S2)&\simeq&(1-P(S1))(1-P(S2))\end{eqnarray}次に,二つ目の「複数箇所に出現した差分部分ほど,同義表現としては確からしい.」を考える.これは,複数箇所での確率をうまく組み合わせればよい.複数箇所のうち一か所でも正しければ,その差分部分は正しいものとして抽出できると考える.つまり,差分部分が正しい事象は,任意の$S1$,$S2$に対して$S1$,$S2$に囲まれる差分部分がすべて確からしくない場合の余事象なので,差分部分が確からしい確率を$P$(差分)とすると,それは以下の式で表される.(各差分部分が独立であることを仮定している.)\begin{eqnarray}P(差分)&\simeq&1-\prod_{S1,S2}{(1-P(差分,S1,S2))}\label{eq:murata_method}\end{eqnarray}この値を尺度としてデータをソートし,この値が大きい差分ほど同義表現として確からしいと判断する.便宜上,この値でデータをソートする方法を村田法と呼ぶことにする. \section{比較手法} \label{sec:comp_method}本節では,前節の村田法の有効性を確かめるために実験で用いる比較手法について述べる.\begin{itemize}\item頻度法---差分部分の頻度に基づいてデータをソートする方法である.頻度の高いものほど,同義表現として確からしい差分部分と判断する.\item加藤第一法---これは加藤らの文献\cite{Kato1999}を参考にして作成した方法である.以下の条件式を満足する差分部分だけを使って頻度法に基づいて,同義表現として確からしい差分部分を判断する.\begin{eqnarray}\frac{「文字列S1の文字数」+「文字列S2の文字数」}{d}&>&1\label{eq:kato_method}\end{eqnarray}差分部分の長さよりも,差分部分の環境を構成する文字列$S1$と文字列$S2$の長さの和の方が長いほど,偶然生じた差分でなく対応の取れた差分部分と判断できる.そのために作成された方法である.\item加藤第二法---これは加藤第一法と村田法を組み合わせた方法である.式(\ref{eq:kato_method})の条件式を満足する差分部分だけを使って村田法で用いる式(\ref{eq:murata_method})に基づいて,同義表現として確からしい差分部分を判断する.\end{itemize} \section{実験} \label{sec:experiment}\begin{table*}[p]\renewcommand{\arraystretch}{}\small\begin{center}\leavevmode\caption{差分部分の抽出結果(上位50個)}\label{tab:jisho_sabun_result35}\begin{tabular}[h]{|l@{}|r@{}|r@{}|l@{}|l@{}|l@{}|l@{}|}\hline\multicolumn{1}{|c@{}|}{評価}&\multicolumn{1}{|c@{}|}{$-log(1-P)$}&\multicolumn{1}{|c@{}|}{頻度}&\multicolumn{1}{|c|}{前方一致部分の例}&\multicolumn{2}{|c|}{差分部分}&\multicolumn{1}{|c|}{後方一致部分の例}\\\hline○&4995&786&^心配がなく&&、&のんびりしているさま$\\○&3135&424&^たちが悪い&&・&こと$\\◎&2402&318&^また、その問題&・&や&質問$\\◎&2267&301&^等級や段階&が&の&低いこと$\\〈&1761&550&^目や口&&など&を急に大きく開くさま$\\○&1531&234&^楽器の金属&&の&弦$\\○&851.9&87&^ガイガー&&—&カウンター$\\○&761.3&105&^外部と連絡・交渉&&を&すること$\\◎&706.3&89&を「にくい」と&いう&言う&類$\\○&564.4&68&アナウンサー&&」&の略$\\○&527.1&133&七菜、二の膳&&に&五菜、三の膳\\○&376.0&72&^くろぐろ&&と&している$\\◎&375.1&51&竹の繊維を材料&と&に&して作った紙$\\○&352.5&117&乗車券などを、&&その&当日より\\○&343.2&62&^別のもので&&は&ないこと$\\◎&299.7&39&^有理数&・&と&無理数の総称$\\○&285.5&47&^書物をのせて読む&&ための&台$\\○&232.6&44&^収入が支出より&&も&多いこと$\\◎&223.5&27&他の役所&に&へ&文書で通知すること$\\◎&217.4&32&^実権&が&を&伴わない\\◎&213.9&60&^印刻に&使う&用いる&小刀$\\◎&212.5&30&^全体の重量&・&または&容量$\\◎&209.7&31&^会計年度など&で、&の&一年を半分\\◎&203.1&33&^森林&の&を&保護\\◎&200.7&26&^密輸出&と&や&密輸入$\\○&190.9&32&^また、興ざめ&&が&する$\\◎&177.5&52&^その人の利益となる&こと&事&を主張して助ける\\◎&169.3&54&ひじを曲げた&とき&時&、二の腕に\\○&166.5&35&^警視正の下&&で&、警部の上$\\◎&164.0&22&^濁音&で&に&発音する$\\◎&162.7&22&^正しい解答&または&や&解釈$\\○&158.4&921&、&&また、&食用\\◎&130.3&55&手加減をしないで&もの&物&を言うさま$\\◎&128.1&29&^一割の&一〇&十&分の一$\\◎&126.9&28&、徴兵検査&で&の&甲種合格\\〉&125.6&26&^ぐっすりと&&よく&眠ること$\\◎&123.9&16&^家の中央&にある&の&部屋$\\〉&122.7&36&を受けず、自分の力&&だけ&で生活を\\◎&116.6&23&^船がドックに&はいる&入る&こと$\\◎&115.0&16&^襲いかかって&くる&来る&こと$\\○&115.0&29&少しずつにじみ出る&&ような&さま$\\◎&111.4&14&皇子・内親王&、&・&天皇の弟などの総称$\\○&110.0&23&、会合に出席&&したり&すること$\\◎&108.4&17&味を消すため&、&に&別の物を\\◎&106.0&22&^製造&する&の&方法$\\○&105.8&178&数が一&&つ&であること$\\◎&104.6&22&^大正末期&に&の&流行$\\◎&101.5&23&して銑鉄を&つくる&作る&こと$\\◎&101.0&12&^踊りを職業と&している&する&女性$\\○&99.17&33&^口や胃&&の中&に入れたものを\\\hline\end{tabular}\end{center}\end{table*}まず,実際に村田法に基づいて抽出結果をソートしてみた.その結果を,表\ref{tab:jisho_sabun_result35}に示す.表の「評価」は獲得された差分部分に対する評価を意味し,「◎」と「○」は,差分が同義と判断される文脈があることを意味し,「〈」は,左の差分が右の差分に意味的に包含されると判断される文脈があることを意味し,「〉」は,左の差分が右の差分を意味的に包含すると判断される文脈があることを意味する.「◎」は差分の両方ともになんらかの表現がある場合で「○」は差分の片側が空文字の場合である.ここでいう「文脈」とは,抽出される文章での文脈以外でも結果の判定者が思いついた文脈でもよく,判定者の思いついた文脈において同義や包含関係などが成立した場合もそのように判断される文脈があるとした.表の「$^*$」は,判定者の思いついた文脈に書き換えたことを意味し,それ以外の文脈は抽出の際に用いられた前方一致部分と後方一致部分を意味する.「^」は定義文中での文頭を,「$」は文末を意味する.「・」「など」「の」を片一方では省略するなどの規則の他,主格の際の「が」と「の」や,「一〇」と「十」や,「または」と「や」や,「使う」と「用いる」などの同義な言い換え表現も獲得されていることがわかる.\begin{table}[t]\renewcommand{\arraystretch}{}\begin{center}\leavevmode\caption{獲得された同義表現の例}\label{tab:jisho_sabun_result_yoi}\begin{tabular}[h]{|l|l|}\hlineつつ&ながら\\一六&十六\\哺乳動物&哺乳類\\中途&途中\\業&職\\である&となる\\なる&変わる\\隔たり&差\\つく&到着する\\で作った&の\\家畜&牛馬など\\がうまい&に巧みな\\大事に&大切に\\伝える&伝達する\\ために&目的で\\はずれている&合わない\\食う&食べる\\減少する&少なくなる\\\hline\end{tabular}\end{center}\end{table}ここにあげたもの以外に得られた良さそうな同義表現を表\ref{tab:jisho_sabun_result_yoi}にあげておく.すでにある同義語辞書にも登録されていそうな単語レベルの同義語だけでなく,「がうまい」と「に巧みな」のようなフレーズレベルのものから,「つつ」と「ながら」のような機能的な同義語なども獲得できている.\begin{table*}[t]\begin{center}\leavevmode\caption{抽出精度(上位500個)}\label{tab:seido1}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{村田法}&\multicolumn{2}{|c|}{頻度法}&\multicolumn{2}{|c|}{加藤第一法}&\multicolumn{2}{|c|}{加藤第二法}\\\hline上位50個&0.940&(47/50)&0.580&(29/50)&0.680&(34/50)&0.900&(45/50)\\上位100個&0.890&(89/100)&0.560&(56/100)&0.620&(62/100)&0.860&(86/100)\\上位200個&0.795&(159/200)&0.580&(116/200)&0.645&(129/200)&0.810&(162/200)\\上位300個&0.777&(233/300)&0.583&(175/300)&0.657&(197/300)&0.767&(230/300)\\上位400個&0.760&(304/400)&0.590&(236/400)&0.642&(257/400)&0.760&(304/400)\\上位500個&0.748&(374/500)&0.588&(294/500)&0.616&(308/500)&0.736&(368/500)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{抽出精度(上位500個.差分の片側が空文字の場合を除く)}\label{tab:seido2}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{村田法}&\multicolumn{2}{|c|}{頻度法}&\multicolumn{2}{|c|}{加藤第一法}&\multicolumn{2}{|c|}{加藤第二法}\\\hline上位50個&0.960&(48/50)&0.880&(44/50)&0.920&(46/50)&0.980&(49/50)\\上位100個&0.960&(96/100)&0.900&(90/100)&0.930&(93/100)&0.960&(96/100)\\上位200個&0.945&(189/200)&0.910&(182/200)&0.905&(181/200)&0.950&(190/200)\\上位300個&0.930&(279/300)&0.903&(271/300)&0.907&(272/300)&0.927&(278/300)\\上位400個&0.915&(366/400)&0.907&(363/400)&0.895&(358/400)&0.907&(363/400)\\上位500個&0.904&(452/500)&0.910&(455/500)&0.878&(439/500)&0.876&(438/500)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{抽出精度と抽出数}\label{tab:tyushutusuu}\begin{tabular}[h]{|l|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{村田法}&\multicolumn{2}{|c|}{加藤法}\\\hline抽出精度&0.220&(110/500)&0.400&(200/500)\\抽出総数&\multicolumn{2}{|c|}{67851}&\multicolumn{2}{|c|}{17104}\\予測抽出数&\multicolumn{2}{|c|}{14927}&\multicolumn{2}{|c|}{6841}\\\hline\end{tabular}\end{center}\end{table*}次に比較手法と数量的な比較を行なった.この結果を表\ref{tab:seido1}と表\ref{tab:tyushutusuu}にあげる.ここでは,差分が同義と判断される文脈があれば,その差分は正解と判断した.表\ref{tab:seido1}は,それぞれの手法でソートした結果での上位数個の差分での精度である.表\ref{tab:tyushutusuu}には,村田法と加藤法での抽出精度と抽出数を整理している.加藤法は加藤第一法と加藤第二法の総称である.表\ref{tab:tyushutusuu}の抽出精度はランダムに取り出した500個での精度で,抽出総数はそれぞれの方法で得られた差分の総数である.予測抽出数は抽出総数と抽出精度を掛け合わせたもので,それぞれの手法により抽出できそうな同義表現の総数を意味する.加藤法では式(\ref{eq:kato_method})で差分を足切りするので,抽出総数は村田法よりも減る.また,頻度法は足切りをしないので,抽出総数は村田法と同じ結果となる.表\ref{tab:seido1}の結果を見て欲しい.上位での精度は式(\ref{eq:murata_method})を用いる村田法と加藤第二法が良く,われわれの提案する式(\ref{eq:murata_method})でソートする方法が有効であることがわかる.頻度法と加藤第一法の比較では,ソート自体は同じ頻度を用いるのに精度は加藤第一法の方が良い.加藤法での式(\ref{eq:kato_method})による差分の足切りは精度において効果があることがわかる.次に表\ref{tab:seido2}の結果を見てみよう.この表は差分の片側が空文字の場合を除いた結果である.差分の片側が空文字の場合は,片一方で単に詳しく述べているだけの場合や,対応づけの誤りである場合もあり,同義表現としてはふさわしくない対が多い.この結果は,表\ref{tab:seido1}の結果に比べて格段に良くなっている.また,この結果でも村田法は他の手法に比べて比較的良い精度をあげている.最後に表\ref{tab:tyushutusuu}を見てみよう.ランダムに500個を取り出したときの精度は,村田法は0.22と低く,また,加藤法は0.40と高い.これは先に述べたのと同じように加藤法では式(\ref{eq:kato_method})によりあらかじめ不確かな差分を削除しているためで,このため加藤法は精度が良い.しかし,抽出総数は加藤法は格段に減ってしまい,予測抽出数は村田法の方が加藤法よりもはるかに高い.加藤法では多くの同義表現を取りこぼす問題があることがわかる.\begin{table*}[t]\begin{center}\leavevmode\caption{関係の種類}\label{tab:kankei1}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{同義関係}&\multicolumn{2}{|c|}{包含関係}&\multicolumn{2}{|c|}{類義関係}&\multicolumn{2}{|c|}{関係なし}\\\hlineランダム&0.220&(110/500)&0.454&(227/500)&0.048&(24/500)&0.278&(139/500)\\\hline上位50個&0.940&(47/50)&0.060&(3/50)&0.000&(0/50)&0.000&(0/50)\\上位100個&0.890&(89/100)&0.100&(10/100)&0.000&(0/100)&0.010&(1/100)\\上位200個&0.795&(159/200)&0.165&(33/200)&0.000&(0/200)&0.040&(8/200)\\上位300個&0.777&(233/300)&0.187&(56/300)&0.000&(0/300)&0.037&(11/300)\\上位400個&0.760&(304/400)&0.205&(82/400)&0.003&(1/400)&0.033&(13/400)\\上位500個&0.748&(374/500)&0.202&(101/500)&0.004&(2/500)&0.046&(23/500)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{関係の種類(差分の片側が空文字の場合を除く)}\label{tab:kankei2}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{同義関係}&\multicolumn{2}{|c|}{包含関係}&\multicolumn{2}{|c|}{類義関係}&\multicolumn{2}{|c|}{関係なし}\\\hlineランダム&0.313&(106/339)&0.274&(93/339)&0.071&(24/339)&0.342&(116/339)\\\hline上位50個&0.960&(48/50)&0.020&(1/50)&0.000&(0/50)&0.020&(1/50)\\上位100個&0.960&(96/100)&0.010&(1/100)&0.000&(0/100)&0.030&(3/100)\\上位200個&0.945&(189/200)&0.030&(6/200)&0.000&(0/200)&0.025&(5/200)\\上位294個&0.932&(274/294)&0.031&(9/294)&0.007&(2/294)&0.031&(9/294)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\small\begin{center}\leavevmode\caption{包含関係にある表現の例(左の表現が右の表現を意味的に包含する)}\label{tab:hougan_result}\begin{tabular}[h]{|l|l|l|l|}\hline\multicolumn{1}{|c|}{前方一致部分の例}&\multicolumn{2}{|c|}{差分部分}&\multicolumn{1}{|c|}{後方一致部分の例}\\\hline^目や口&など&&を急に大きく開くさま$\\^二匹&以上&&の蚕が\\方向を示す&&大&方針$\\^餅を&&たくさん&食べたあとの、もたれた感じの\\^多角形の&すべての&各&頂点が\\方針や見込み&などの&が&立たないこと$\\、&細長い&ひも状の長い&舌で\\花が&全部&いっせいに&咲く$\\^穴を&埋める&埋めて平らにする&こと$\\主君&・親&や父&など\\^左大臣の&異称&唐名&$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\small\begin{center}\leavevmode\caption{類義関係にある表現の例}\label{tab:ruigi_result}\begin{tabular}[h]{|l|l|l|l|}\hline\multicolumn{1}{|c|}{前方一致部分の例}&\multicolumn{2}{|c|}{差分部分}&\multicolumn{1}{|c|}{後方一致部分の例}\\\hline二三度&二七&二六&分の緯線$\\^&ほり&池&や\\霧のように&一面に広がった層状の&低くただよう&雲$\\^&悪かったと&過失や人に迷惑を掛けたことを&あやまること$\\^&大きな&非常な&利益$\\^銅を&とる&含む&鉱石$\\海上の&国防&防衛・攻撃&を\\^都を&追われて&立ち去って、&地方\\授業&などを休む&等が休みになる&日$\\\hline\end{tabular}\end{center}\end{table*}次に抽出総数も多く,また,上位での精度も高かった村田法の抽出結果についてより詳細な調査を行なった.その結果を表\ref{tab:kankei1}と表\ref{tab:kankei2}に示す.表\ref{tab:kankei1}のランダムは,ランダムに取り出した500個での結果を意味し,上位X個は上位X個での結果を意味する.この調査では得られた差分が,同義表現と判断される文脈があるか,差分同士で意味的に包含関係にあると判断される文脈があるか,類義表現と判断される文脈があるか,それ以外かで集計し整理した.表\ref{tab:kankei2}は,表\ref{tab:kankei1}の調査で差分の片側が空文字の場合を除いて集計した結果である.包含関係,類義関係にある表現と判断した表現の例を表\ref{tab:hougan_result}と表\ref{tab:ruigi_result}に示しておく.この調査は,同義表現でないとされた誤りの多くが,包含関係にある表現や類義表現であったために行なったものである.同義関係だけでなく,包含関係や類義関係を正解と判断するとかなり高い精度となることがわかる.全データでは,0.722($=1-0.278$)程度の精度を持つことになる.差分の片側が空文字の場合を除いた場合で,0.658($=1-0.342$)程度の精度を持つことになる.包含関係や類義関係も正解と判断する場合は,差分の片側が空文字の場合を除くとかえって精度が下がるようである.これは一見不思議なことだが,よく考えるとそれほど不思議なことではない.包含関係にある表現を示した表\ref{tab:hougan_result}の例を見て欲しい.差分の片側が空文字の場合は,空文字でない側の差分に「など」「以上」のように意味を広げる効果を持つ表現が来る場合は空文字でない側が空文字の側の差分を意味的に包含する関係となり,空文字でない側の差分になんらかの意味的な限定をする表現が挿入されると空文字でない側の差分の方が意味が狭くなり空文字でない側が空文字の側の差分に意味的に包含される関係となる.このため,差分の片側が空文字の場合は包含関係にある表現であることが多く,包含関係や類義関係を正解と判断する場合は,差分の片側が空文字の場合も含めた場合の方が精度が高くなるのである.また,包含関係や類義関係を正解と判断する場合は,上位での精度も非常に高いものとなる.例えば,全データでの上位500個だと,包含関係や類義関係を正解と判断すると,精度は0.954($=1-0.046$)となる.以上の結果をまとめると,以下のようになる.\begin{itemize}\item式(\ref{eq:murata_method})を用いる村田法は,上位での精度が高い.また,一般によく行なわれる頻度でソートするだけよりも,精度が高いことも確認された.村田法を利用することで,効率よく精度の高い同義表現の知識を獲得することができる.\item抽出総数は,村田法の方が加藤法よりも多い.多くの同義表現を抽出する場合には,加藤法の式(\ref{eq:kato_method})での差分の候補の除去はしない方がよい.\item同義表現の抽出としては,差分の片側が空文字の場合を除いた方が精度が高い.しかし,包含関係や類義関係も正解と判断する場合は,差分の片側が空文字の場合も含めた方が精度が高い.\item抽出総数も多く,また,上位での精度も高かった村田法の抽出結果は,同義表現のみを正解とするとき,上位500個で0.748,ランダムに抽出した500個で0.220の精度で,包含関係や類義関係も正解と判断する場合は,上位500個で0.954,ランダムに抽出した500個で0.722の精度であった.\end{itemize} \section{関連研究} 本節では関連研究について述べる.まず,本稿と同様に同義なテキスト対を照合することによって,同義表現を抽出する研究について説明する.この種の研究に用いられる同義なテキスト対には,以下のようなものがある.それぞれについて説明する.\begin{itemize}\item同じ原文からの複数の翻訳を利用する同じ原文から作成された翻訳を複数集めると,その翻訳同士は同義なテキスト対となる.このテキスト対を照合することで同義表現を獲得するのである\cite{imamura_nlp2001ws_true,Barzilay:ACL01,shimohata_ipsj_iikae_mt}.今村ら\cite{imamura_nlp2001ws_true}はこの方法で同等表現を抽出し,60\%程度の精度で正しい言い換え文の生成を行なっている.Barzilayら\cite{Barzilay:ACL01}も同様の方法を利用して言い換え表現の候補を9483対抽出し,精度はほぼ意味的に等価な言い換え対を正解として85〜92\%の精度であったとしている.また,20回以上出現した112個の言い換え表現では,WordNetにおいて35\%が同義表現で32\%が上位下位関係であったと報告している.下畑ら\cite{shimohata_ipsj_iikae_mt}は抽出した同義表現を実際に機械翻訳の研究に役立てる研究もしており,抽出した同義表現の利用により翻訳可能な文を8\%向上させ,正しい翻訳を出力する割合も2.5\%向上させたと報告している.\item同内容の記事対を利用する複数の新聞社の記事を収集し,同じ事柄を記述している記事群を抽出する.この同じ事柄を記述している記事群が同義なテキスト対となるのである.このテキスト対を照合することで同義表現を獲得するのである\cite{sekine_nlp2001ws_true}.関根\cite{sekine_nlp2001ws_true}は,固有表現抽出の技術を使い,固有表現は対応づけのキーとしてテキスト対を照合する工夫をしている.この手法は,同じ事柄を記述している記事群を探すところから,処理をする必要がある手間の多い手法ではあるが,新聞データはたくさんあるので,うまくいくと多くの同義表現を抽出できる可能性がある.関根の実験では1日の新聞記事から8つの言い換え表現を抽出しそのうちの4つが正しい言い換え表現であったとしている.\item関連のある話し言葉と書き言葉のデータを利用する例えば,同内容の講演発表とその予稿を利用するのである.学会などでの発表を文字に書き起こしたデータと,その発表と同時に出す予稿の論文を利用して同義表現を抽出する研究として文献\cite{murata_kaiho_2001,murata_nl2001_henkei,Murata_spoken_written_lrec}がある.発表とそれの元となった論文は,同内容のことを同一の著者が言った,また,書いたものなので,これらも同義なテキスト対と見なせるのである.このテキスト対を照合することでも同義表現を抽出することができる.論文の講演発表に限らず,ある発表とその発表の元になった書き言葉のテキストの対も同様に,同義なテキスト対と見なせるので,それらからも同義表現を抽出することができる.この論文では定量的な評価はなされていないが,実際に抽出された話し言葉と書き言葉の対が示されている.\item同じ文書中の同内容の部分を利用する例えば,ある論文の要約の部分と,その論文全体は,要約がその論文の中身の要約であるので,文章の長さはかなり違うが内容は同じであるので,同義なテキストとみなせるのである.また,ある特許の請求項の節の内容と,その特許の実施例の節の内容も,同じ内容が記述されているので,同様に同義なテキストとみなせるのである.実際に,文献\cite{Murata_ntcir3_patent}では特許の請求項と実施例の対を利用して同義表現の抽出を試みている.この論文でも定量的な評価はなされていないが,実際に抽出された表現の対がいくつか示されている.\item要約前のテキストと要約後のテキストを利用する要約の研究においては要約前のテキストと要約後のテキストを用意して,それを比較することで要約に関する同義表現を抽出する場合がある.このとき,要約前のテキストと要約後のテキストは同内容であるので,それらは同義なテキスト対とみなせるのである.このテキスト対からも同義表現を抽出することができる\cite{Kato1999}.この論文での言い換え表現の評価では,上位100個のものはすべて要約用の言い換えとしては妥当なものであったとされている.同義表現としての評価はなされていない.\end{itemize}以上のように,同義なテキスト対を照合することで同義表現を抽出する研究には多くのものがある.ところで,本稿で提案している式(\ref{eq:murata_method})で抽出結果をソートする村田法は,これらの研究にも利用できるものであり,村田法の適用範囲は広い.次に以上の方法以外によって同義な表現を抽出する先行研究について述べる.これには,共起語が類似している単語同士を同義語とする研究がある\cite{shimomura93,lin_coling98,yamamoto_kazu_nlp2002,Dekang_Lin_IJCAI03}.共起語が類似していればその単語同士も類似している可能性が高く,類義語の抽出\cite{hindle90}にはよく使われる方法だが,この方法を同義語の抽出にも使うのである.しかし,この方法では,同義語以外に反義語や類義語を多く抽出してしまうことが知られており,同義語の抽出には種々の工夫が必要な方法となっている.下村ら\cite{shimomura93}は類似度で取り出した上位5208対から178対の同義語を取り出したとしている.山本\cite{yamamoto_kazu_nlp2002}は類似度で抽出する手法に加えて種々のヒューリスティックを利用することで,66\%の精度で1117個の言い換え可能な表現と114個の双方向言い換え可能な表現を抽出したとしている.Linら\cite{Dekang_Lin_IJCAI03}は類似度で抽出する手法に加えて,同義表現対が出現することのないパターンを利用して同義表現対かどうかの判断をすることにより,80個の同義表現を用いた実験で適合率86\%,再現率95\%の精度でその同義表現を抽出できたとしている. \section{おわりに} 言い換えに関する研究\cite{sato_ronbun_iikae,inui_iikae_tutorial,murata_paraphrase_nlp2004}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであり,近年,その重要性は多くの研究者の認めるところとなっている.また,これと同時に,言い換え表現の自動獲得の研究も重要視されつつある.この状況を背景として踏まえ,本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することにより,言い換え表現の一種である同義表現を抽出することを試みた.その結果,本稿で新しく提案する式(\ref{eq:murata_method})を用いる手法は,抽出データをソートした結果での上位での精度が高く,また,一般によく行なわれる頻度だけでソートする方法よりも,精度が高いことも確認された.この式(\ref{eq:murata_method})を用いる手法は,他の同義表現の抽出の研究にも利用できる有用なものである.また,本稿の手法は比較手法に用いた加藤法よりも抽出総数が多い見込みを得ており,約15,000の同義表現を抽出できる見込みを得ている.同義なテキスト対から同義表現を抽出する研究はいくつかあるが,複数の辞書の定義文を同義なテキスト対として,そこから同義表現を獲得する先行研究はない.本稿は,複数の辞書の定義文からどのくらいの同義表現を抽出できるかの目安を与えるものとなっている.また,同義表現の抽出としては,差分の片側が空文字の場合を除いた方が精度が高いが,包含関係や類義関係も正解と判断する場合は,差分の片側が空文字の場合も含めた方が精度が高いことがわかった.提案手法では,同義表現のみを正解とするとき,上位500個で0.748,ランダムに抽出した500個で0.220の精度で,包含関係や類義関係も正解と判断する場合は,上位500個で0.954,ランダムに抽出した500個で0.722の精度であった.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{Barzilay:ACL01}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingParaphrasesfromaParallelCorpus\BBCQ\\newblockIn{\Bem39thAnnualMeetingoftheAssociationoftheComputationalLinguistics},\BPGS\50--57.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle90}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate--ArgumentStructures\BBCQ\\newblockIn{\Bem28thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\268--275.\bibitem[\protect\BCAY{今村\JBA秋葉\JBA隅田}{今村\Jetal}{2001}]{imamura_nlp2001ws_true}今村賢治\JBA秋葉泰弘\JBA隅田英一郎\BBOP2001\BBCP.\newblock\JBOQ階層的句アライメントを用いた日本語翻訳文の換言\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{乾}{乾}{2002}]{inui_iikae_tutorial}乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言語表現を言い換える技術\JBCQ\\newblock\Jem{言語処理学会第8回年次大会チュートリアル資料},1--21.\bibitem[\protect\BCAY{加藤\JBA浦谷}{加藤\JBA浦谷}{1999}]{Kato1999}加藤直人\JBA浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7).\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{JUMAN3.6}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}使用説明書version3.6}.\newblock京都大学大学院工学研究科.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin_coling98}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticRetrievalandClusteringofSimilarWords\BBCQ\\newblockIn{\BemCOLING-ACL'98},\BPGS\768--774.\bibitem[\protect\BCAY{Lin\JBAZhao\JBAQin\BBA\Zhou}{Linet~al.}{2003}]{Dekang_Lin_IJCAI03}Lin,D.\JBAZhao,S.\JBAQin,L.\JBA\BBA\Zhou,M.\BBOP2003\BBCP.\newblock\BBOQIdentifyingSynonymsamongDistributionallySimilarWords\BBCQ\\newblockIn{\BemProceedingsofIJCAI-03}.\bibitem[\protect\BCAY{村田\JBA内山\JBA井佐原}{村田\Jetal}{2000}]{murata2000_1_nl}村田真樹\JBA内山将夫\JBA井佐原均\BBOP2000\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},181--188.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001a}]{murata_nl2001_henkei}村田真樹\JBA井佐原均\BBOP2001a\BBCP.\newblock\JBOQ同義テキストの照合に基づくパラフレーズに関する知識の自動獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-142}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001b}]{murata_kaiho_2001}村田真樹\JBA井佐原均\BBOP2001b\BBCP.\newblock\JBOQ話し言葉と書き言葉のdiff\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2002}]{Murata_murata_diff_nlp2002}村田真樹\JBA井佐原均\BBOP2002\BBCP.\newblock\JBOQdiffを用いた言語処理---便利な差分検出ツールmdiffの利用---\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9}(2).\bibitem[\protect\BCAY{村田}{村田}{2003}]{murata_qa_ieice_kaisetu}村田真樹\BBOP2003\BBCP.\newblock\JBOQ質問応答システムの現状と展望\JBCQ\\newblock\Jem{電子情報通信学会学会誌},{\Bbf86}(12),959--963.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2004}]{murata_paraphrase_nlp2004}村田真樹\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ「言い換え」言い換えの統一的モデル---尺度に基づく変形の利用---\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf11}(5).\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata_paraphrase_true}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalModelforParaphrasing---UsingTransformationBasedonaDefinedCriteria---\BBCQ\\newblockIn{\BemNLPRS'2001WorkshoponAutomaticParaphrasing:TheoriesandApplications}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002a}]{Murata_spoken_written_lrec}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002a\BBCP.\newblock\BBOQAutomaticExtractionofDifferencesbetweenSpokenandWrittenLanguages,andAutomaticTranslationfromtheWrittentotheSpokenLanguage\BBCQ\\newblockIn{\BemLERC2002}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002b}]{Murata_ntcir3_patent}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002b\BBCP.\newblock\BBOQUsingtheDiffCommandinPatentDocuments\BBCQ\\newblock{\BemProceedingsoftheThird{NTCIR}Workshop({PATENT})}.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato_ronbun_iikae}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7).\bibitem[\protect\BCAY{関根}{関根}{2001}]{sekine_nlp2001ws_true}関根聡\BBOP2001\BBCP.\newblock\JBOQ複数の新聞を使用した言い替え表現の自動抽出\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{下畑\JBA渡辺\JBA隅田\JBA松本}{下畑\Jetal}{2003}]{shimohata_ipsj_iikae_mt}下畑光夫\JBA渡辺太郎\JBA隅田英一郎\JBA松本裕治\BBOP2003\BBCP.\newblock\JBOQパラレルコーパスからの機械翻訳向け同義表現抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11).\bibitem[\protect\BCAY{下村\JBA福島}{下村\JBA福島}{1993}]{shimomura93}下村秀樹\JBA福島俊一\BBOP1993\BBCP.\newblock\JBOQ共起類似性に基づく同義語の抽出\JBCQ\\newblock\Jem{情報処理学会第47回全国大会予稿集,1M-10},\BPGS\3--77--3--78.\bibitem[\protect\BCAY{山本}{山本}{2002}]{yamamoto_kazu_nlp2002}山本和英\BBOP2002\BBCP.\newblock\JBOQテキストからの語彙的換言知識の獲得\JBCQ\\newblock\Jem{言語処理学会第8回年次大会}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理,機械翻訳,情報検索,質問応答システムの研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,計量国語学会,ACL,各会員.}\bioauthor{金丸敏幸}{2001年京都大学総合人間学部卒業.2003年同大学院人間・環境学研究科修士課程修了.現在,同大学院博士課程在学中.認知意味論,自然言語処理の研究に従事.日本認知科学会,日本認知言語学会,日本語用論学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V14N03-07
\section{はじめに} 授業改善は現在多くの大学において極めて重要な課題となっている.大学がこれまで以上に多くの学生の興味を引き出しながら,教育の水準を高めなければならないからである.このためこれまでにも様々な授業改善の研究が試みられた(たとえば赤堀侃司1997;伊藤秀子ら1999,田中毎実ら2000など).また授業改善は教育技法の問題だけでなく,大学のカリキュラムの構成や教師資質の改善(FacultyDevelopment)の問題でもある.大学では自己点検自己評価あるいは外部評価などが行われ,中でも学生による授業評価は大学改革の中核として注目されている.しかし多くの大学で行われる学生による授業評価は,学生にマークシートを記入させる方式で行われることが多く,選択枝にない学生の自由な意見が反映され難い.そこで学生の自由な意見を収集することになるが,たとえば授業について学生に自由な意見を書かせた場合,何らかの方法でその内容を分析し授業改善に反映させなければならない.本研究では,学生に携帯メールを使って授業の自由な感想文を送らせ,その文章を感情評価基準を使って分類する方法で授業を評価し,授業改善に対する考察を行った. \section{感情評価の基準} 言語処理の先行研究には,新聞記事のような事柄を扱うものが多いが,最近では感情を扱うものとして,たとえば感性品質評価語辞書を使用したテキストマイニングなど,商品アンケートにおける好不評を分析した研究もある.しかし学生による授業についての自由記述には,新聞記事とも商品アンケートとも異なる特徴があり先行研究が少ない.授業についての自由記述を分析する観点としては,塚本ら(2001)による『受容反応』と『構成反応』が挙げられる.それによれば授業の感想文は,学生が授業で得た知識を内面的に捉え自ら省察して書いたものであり,その表現には受容反応と構成反応があらわれる.受容反応とは学生が授業で教えられた内容を受け止めた反応であり授業で与えられたことがベースになっている.構成反応とはその受け止めた結果から,本人が自発的に思い描いた内容の反応である.以上を整理して塚本ら(2003,2004)は,学生が記述した授業の感想文にあらわれる感情評価の基準に,受容反応としての興味と知識,構成反応としての意欲と考察の4つのカテゴリがあることを示している.さらに学生の意識調査を行うことによって学生の意識に「興味・関心」「意欲・行動」「知識・理解」「考察・洞察」の4つの因子があることを明らかにしている(2006).以上により,授業感想文の感情評価の基準としての4つのカテゴリは,次のように整理された.\clearpage受容反応\textbullet~\textbf{興味}:喜びや驚きなど学習に関わる感情表現\textbullet~\textbf{知識}:学習への理解や知識記憶に関わる感情表現構成反応\textbullet~\textbf{意欲}:学習への意思や自己評価に関わる感情表現\textbullet~\textbf{考察}:学習内容への気づきや思い巡らしをあらわす感情表現以下ではこの4つのカテゴリを感情評価の基準として,最初に4項で感想文を形態素から分類し検討した結果を報告し,次に5項で感想文を同年代の学生と研究者が文脈から分類し検討した結果を述べる.そして6項で成績が上位と下位の学生から無作為に選んだ学生の感想文を比較した結果を述べ,最後に7項で,本研究による知見をまとめ授業改善への考察を行う. \section{授業感想文の収集と分析} 本研究では携帯メールによって学生の授業感想文を収集した.携帯メールは小中高生の間でも普及しており,大学生から授業の感想文を収集するには大きな障害はなかった.社会人学生の中には携帯メールを使用しない者がいたが,授業終了後速やかにパソコンから入力させることで解決した.携帯メールによる授業感想文の収集には,授業評価分析システムTrustia\footnote{筆者との共同研究により(株)ジャストシステムが開発した授業の評価分析システム.授業管理の他,感想文の管理,辞書登録,形態素解析,主題分析,コレスポンデンス分析などの機能がある.http://www.justsystem.co.jp/trustia/}を使用した.このシステムには開講した授業の管理を行い,授業ごとに学習者に感想文を送らせ受信したことを知らせる自動返信機能がある.またメールに形式的誤りがあればエラーであることを知らせる機能がある.Trustiaには感想文を収集する機能に加え感想文を分析する機能があり,受信した感想文を形態素解析や統計処理する機能がある.そのほか,主題分析やコレスポンデンス分析など様々な機能がある.また感想文の中に質問形式がある場合は警告を表示する機能があるので,教員は内容を確認して個人的な質問メールであった場合は質問した学生へ個別にコメントを返すことができた.このようにして本研究では,教師と学生の間に携帯メールによる対話環境を構築した.本研究で対象にした授業は以下の通りである.\subsection{感想文の収集環境}一般の教室であり特別な環境ではない.\subsection{研究対象にした感想文}言語と思考について講義した半期の授業において感想文を収集した.今回はその中から自由な感想文を送らせた表1の*印で示す5回の授業で収集した感想文を研究対象にした.*印のついていない授業では様々な質問をして,それに対する回答文を集めたので,今回の自由な感想文の分析対象にはしていない.\begin{table}[t]\begin{center}\input{07t1.txt}\label{table1}\end{center}\end{table}\subsection{成績評価試験の概要}半期の授業のあと期末試験を行った.出席が60%以上なければ受験資格はない.試験は資料持ち込み可であるが,時間制限60分で下記の4問について記述しなければならない.解答の文字数に制限はない.\textbullet~人間の言語の規則性について説明せよ.\textbullet~Chomskyの変形文法とは何か説明せよ.\textbullet~聞き間違いや読み間違いは,なぜ起こるのか説明せよ.\textbullet~コミュニケーションにおけるスキーマの役割を説明せよ.配点は各25点で100点満点である.採点は内容に大きな誤りがないか,解釈が正しくなされているか,自分らしい発想がみられるかについて行った.\subsection{研究対象の学生}当初授業に履修登録した学生は104名いたが,そのうち出席が60%以上で期末試験を受験した学生は75名であった.その中で表1の*印で示す5回の授業に3回以上出席した学生は67名であった.本研究はこの67名の中で成績が上位から11名と下位から15名の学生の感想文を対象にして行った.下位を多くしたのは,対象にした5回の授業を欠席した者があり下位の感想文の数が少ないためである.\begin{table}[b]\input{07t2.txt}\label{table2}\end{table} \section{感想文を形態素から分類した結果} 自由に書かせた感想文の内容は様々である.一般に自由に発話されたあるいは記述された文章から,研究目的に関わる有意な情報を抽出するにはある種の観点が必要とされている(海保ら1993).そこで先述した塚本らの感情評価の基準を観点として,有意な情報を探査することにした.具体的には,Trustiaを用いて成績上位者11名と下位者15名の感想文を形態素解析し,あらかじめ想定した4つ感情評価基準による表現と照合し,興味,意欲,知識,考察ごとの感情表現の出現頻度を集計しその結果を成績別に比較した.あらかじめ想定した4つの感情評価基準による表現は,感想文を記述した学生と同年代の1人の学生に,各カテゴリにおいてどのような表現を用いるか作成させることによって得た.その内容を表2に示す.対象にしたのは,先に示した成績上位群の学生11名と下位群の学生15名の書いた感想文である.各感想文の数と文字数は,上位が52通5,981文字,下位が59通5,663文字である.その結果は図1に示す通りであり,成績による差はみられなかった.知識が多いのは「思う」という表現を知識に入れたためである.この結果,同年代による表現の提案を基準にした感想文の形態素の比較では,成績上位群と下位群に有意な差はみられないことが明らかになった.そこで,感想文を一つひとつ読んで文脈から感情評価の基準にしたがって分類してみることにした.次項でその内容を説明する.\begin{figure}[tbp]\centerline{\includegraphics{14-3ia7f1.eps}}\caption{形態素による成績別の4つの感情評価基準による表現の出現頻度}\label{fig1}\end{figure} \section{感想文を文脈から分類した結果} 先に示した興味,意欲,知識,考察の4つの感情評価を基準にして,成績上位群と下位群の学生の感想文の意味がどのカテゴリに該当するか,メールを書き慣れていて表現が似ていると考えられる同年代の学生2名と研究者が分類した.対象にしたのは,先に示した成績上位群の学生11名と下位群の学生15名の書いた感想文である.それぞれの例を付録に示す.分類結果が一致しない場合は最初に学生2名が合議し,その結果を研究者の結果と比較し合議により決定した.それぞれの評定者間の一致率$\kappa$係数は表3の通りである.\begin{table}[tbp]\input{07t3.txt}\label{table3}\end{table}なお対象学生の成績や受講態度などの印象が介入するのを防ぐため,感想文の分類は学生名や成績区分などを伏せて行った.その結果,上位と下位の学生の感情評価の基準別の意味の出現率は図2の通りであった.有意差についてWilcoxonの順位和検定を行った結果,次のことが明らかになった.\textbullet~上位群には意欲(p$<$0.05)と考察(p$<$0.05)が多い\textbullet~下位群には興味(p$<$0.01)が多い\textbullet~知識について有意差はみられなかったが下位群に多い\begin{figure}[tbp]\centerline{\includegraphics{14-3ia7f2.eps}}\caption{文脈による成績別の4つの感情評価基準による表現の出現頻度}\label{fig2}\end{figure} \section{成績上位者と下位者の感想文の比較} 前項において文脈から分類を行った成績上位群と下位群の感想文には,どのような差異があるか比較検討した.感想文の表現は学生ごとにある種のパターンがあることを想定して,成績上位群と下位群から無作為に抽出した「被験者No.~18」と「被験者No.~24」の感想文を比較した.\subsection{成績上位の被験者No.~18の感想文}1回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{13歳になるまでとじこめられていた子供の話が印象的でした}.\uc{子供は監禁した人とは話をしなかったのかな}?\ul{蜜蜂も言語は話さないもののブンブン踊ることで仲間に場所を教えているのをみて},\uc{人間以外の生物もちゃんと意思の疎通をしているんだなと思い,感心しました}.』(原文のまま,以下同様)2回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{意味ネットワークから話を理解する時,無意識に単語やあらかじめ理解している知識で理解しようとしていることに気が付いた}.\uc{だから突然知らないことをいわれると日本語であっても外国語のように聞こえてしまうと思った}.』3回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{色をあらわす言語を二つしかもたないダニ族も,たくさんもっている人も変わらないという実験をみて},\uc{頭がいい人悪い人というのはいないのではないか,頭のよしあしよりも表現が得意な人苦手な人にわけられるのではないかと思った.でも表現が得意な人になりたいと思った}.』4回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{対話は適量適質関係礼儀の4つによってスムーズに行われることがわかった}.\uc{いつも話しだすと止まらないので適量を守ろうと思った.彼女は大学生でないという例からも,否定はわかりにくいのもあらためて納得した}.』5回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{はじめの実験で,「コウゴウセイ」と聞いただけだと何をいっているのかわからなかったけれど,「光合成」と聞いたら質問の意味が即座に理解できた}.\uc{人は無意識に経験によって単語の意味を完成しているんだなと思った.また話し方や表情も意味をもつことがわかった}.』\vspace{\baselineskip}いずれも一重のアンダーラインの部分は授業で知ったことを再構成しており,二重のアンダーラインの部分はそれに対する考察を示す構造になっている.文章は「〜した」したがって「〜と思う」あるいは「〜したい」という表現である.\vspace{\baselineskip}\textbf{結論}上位群の被験者No.~18は,『○○ということが前提にあって,それに対して(自分は)〜だと思う』というように,授業内容を再構成し,それに対する自分の考えを述べる表現である.この文章の意味を感情評価の基準から分類すると「考察」あるいは「意欲」に該当する.\subsection{成績下位の被験者No.~24の感想文}1回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{今日はビデオで,ハチなどの動物が羽の音で会話しているといっていたが},\uc{それは初めて知ったことだったし,とても印象的でした}.』2回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{言葉の使い方はあいまいにしたりすると伝わらなかったりするので}\uc{重要であるとあらためて思った}.\ul{また思い込みで間違えて考えてしまったり,また人の意味ネットワークもそれぞれなので伝わり方も違うし}\uc{やっぱり言葉の使い方はかなり重要になってくると思う}.』3回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{思考は言語以前に存在し,思考を伝達する手段である.伝達したい思考に合わせて言語は形成される}.\uc{このことはほんとうにその通りだと思った}.』4回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{対話は話し手が聞き手の心の中にある既知の概念に新たな概念を構成させる関連付けるために想定と断定を用いて行う情報伝達の試みである}こと\uc{がよくわかりました}.』5回目の授業欠席したので感想文がない.\vspace{\baselineskip}一重のアンダーラインの部分は授業で知ったことだが,学生自身の言葉に置き換えていない.二重のアンダーラインの部分はそれに対する学生の表現だが,1回目の「印象深かったです」や5回目の「よくわかりました」に代表されるように「興味」や「知識」の表現である.文章は,「〜でした」ので「〜でした」という構造である.\vspace{\baselineskip}\textbf{結論}下位群の被験者No.~24は,授業内容をそのまま先に書いてその後に「だと思います」という構造をとっている.授業内容は教師が説明したことをそのまま機械的に取り込もうとしており,再構成していない.文章の意味を感情評価の基準から分類すると「興味」あるいは「知識」に該当する.\subsection{感想文比較の結果}以上のことから,成績上位者は授業で受けた内容を再構成しているが,下位群の被験者は授業で受けた内容を再構成せずそのまま使っていることが示された. \section{授業改善への考察} 以上をまとめると本研究による知見は次のようになる.\vspace{\baselineskip}\hangafter=1\hangindent=2zw\textbullet~塚本らの感情評価基準を用いて授業感想文を形態素で比較しても成績による差異は明らかでないが,文脈で比較した結果,成績上位群には意欲と考察が,成績下位群には興味が多いことが示された.\hangafter=1\hangindent=2zw\textbullet~成績上位者の感想文は,授業の内容を再構成しているが,成績下位者は授業の内容を再構成せずそのまま使っている.\vspace{\baselineskip}この知見にしたがって授業改善の方法を考察することにより,次のことが示された.\vspace{\baselineskip}\hangafter=1\hangindent=2zw\textbullet~学習者の感想文に興味の反応が増すように授業改善を行うのでなく,意欲と考察の反応が増すように授業改善する必要がある.\hangafter=1\hangindent=2zw\textbullet~学習者が授業内容をそのまま使うのではなく,授業内容を再構成する機会が増すように授業改善する必要がある.\vspace{\baselineskip}具体的に,個々の授業改善を行うには,授業の内容と授業の環境条件を考慮しなければならない.例えば,シラバス,到達目標,学生の人数と質,クラス編成と教室施設,授業方法,準備できる教材,教員の資質などを考慮に入れて決定しなければならない.しかしながら,上記に示した指針は,個々の授業改善に対して有効な知見である.\vspace{\baselineskip}最後に,今回の分析結果を踏まえて,同様の分析を自動化することについて幾つか考察を述べる.1つは,本文で説明したように,感想文のような主観を記述させた文章には,「思う」という言葉が多用されることである.「思う」それ自体は分析対象にする意味がないかもしれないが,そこを基準にして意味の分析ができないだろうかと考える.2つ目は,被験者の言語表現を集めるために,あらかじめ意図した表現をさせる機会を設けて,その間に文型を収集することからはじめてはどうかということである.実際に「面白かったことを友人に伝えなさい」「活用できると思ったことを書きなさい」などのような指示を与えて書かせた感想文を分析してみると,興味や意欲あるいは考察の表現を見つけ易くなった.3つ目は,完全な自動化が困難であれば,前項で述べたように何らかの指示を与え,その回答文を分析することでも,大変意味があるということである.それが可能になれば,授業改善のような特定目標を設定した分析では,支援ツールとして十分使えると考えるからである.\section*{謝辞}協力してくれた学生諸君に感謝する.なお本研究は平成16,17,18年度日本学術振興会科学研究費基礎研究C「学生レスポンスの分析による思考過程の変容の解明と授業改善」(課題番号16500610研究代表者塚本榮一)の補助を受けて行われた.\section*{参考文献}\noindent\hangafter=1\hangindent=2zw赤堀侃司(1997).有斐閣選書,ケースブック・大学授業の技法,有斐閣.\noindent\hangafter=1\hangindent=2zw市川伸一(2001).``学ぶ意欲の心理学.''PHP研究所,東京.\noindent\hangafter=1\hangindent=2zw伊藤秀子,大塚雄作(1999).有斐閣選書,ガイドブック・大学授業の改善,有斐閣.\noindent\hangafter=1\hangindent=2zwJohnson-Laird,P.~N.(1983).``MentalmodelsTowardsacognitivescienceoflanguage,inferencesandconsciousness.''CambridgeUniversityPress,CambridgeMA.\noindent\hangafter=1\hangindent=2zw海保博之,原田悦子ら(1993).``プロトコル分析入門'',新曜社.\noindent\hangafter=1\hangindent=2zw河合隼雄(1967).``ユング心理学入門'',培風館.\noindent\hangafter=1\hangindent=2zw久保田まり(1995).アタッチメントの研究—内的ワーキング・モデルの形成と発達—.川島書店,東京.\noindent\hangafter=1\hangindent=2zw坂元\Ketuji{FAD0.eps}(1993).``大学教育改善技法.''社会情報,札幌学院大学社会情報学部\textbf{2}(2),pp.~101--109.\noindent\hangafter=1\hangindent=2zwSteinerGerhard(1988).LERNENZwanzigSzenarienausdemAlltag.塚野州一,若井邦夫ら訳(2005)``新しい学習心理学—その臨床的適用,''北大路書房,京都.\noindent\hangafter=1\hangindent=2zwStern,D.~N.(1989).``TheRepresentationofrelationalpatterns---Developmentalconsidera{-}tions---.''InA,J.Sameroff{\&}R.~N.Emde(Eds.),\textit{RelationshipDisturbancesinEarlyChildhood}.NewYork,BasicBooks,US.\noindent\hangafter=1\hangindent=2zw田中毎実,今井重孝,赤堀侃司,藤岡完治(2000).``大学カリキュラム改革と授業改善.''京都大学高等教育研究,6,pp.~1--23.\noindent\hangafter=1\hangindent=2zw立田ルミ(1998),``メディア利用による大学の授業改善研究—ネットワーク,プレゼンテーションツールを活用した授業—.''メディア教育研究,1,pp.~143--155.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2001).``学生の理解変容に関与する発話分析.''日本教育情報学会誌,\textbf{17}(1),pp.~25--34.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2003).``学生レスポンスを用いた授業改善電子カルテシステムの開発と評価.''日本教育工学会論文誌,\textbf{27}(1),pp.~11--21.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2004).``携帯電話による学生レスポンスの収集と分析による授業改善.''教育システム情報学会誌,\textbf{21}(3),pp.~214--222.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2006).``授業を教師と学生の対話と捉えた携帯メールによる学生の理解の分析.''ヒューマンインターフェース学会論文誌,\textbf{8}(1),pp.~95--100.\appendix \section{成績上位者の授業感想文の例} \begingroup\input{07app1.txt}\label{table_app1}\endgroup\clearpage \section{成績下位者の授業感想文の例} \begingroup\input{07app2.txt}\label{table_app2}\endgroup\clearpage\begin{biography}\bioauthor{塚本榮一}{1964年静岡大学工学部電子工学科卒,富士通株式会社を経て1997年4月から東洋英和女学院大学教授.教育工学,情報科学,学習者の認知などを研究分野としている.日本教育工学会,日本教育心理学会,日本教科教育学会などの各会員.}\bioauthor{赤堀侃司}{1969年東京工業大学大学院理工学研究科物理学修士課程修了,東京学芸大学講師,助教授,東京工業大学助教授を経て1991年から東京工業大学教授.工学博士.教育工学,教育情報工学,学習とメディアなどを研究分野としている.ヒューマンインターフェース学会,日本教育工学会,電子情報通信学会などの各会員.}\end{biography}\biodate\end{document}
V18N01-02
\section{はじめに} \label{sec:mylabel1}自然言語処理の研究分野において,1文を対象にした研究は盛んに行われてきた.特に,形態素解析や構文解析は実用レベルに達しており,様々な自然言語を対象とした応用研究において,基礎処理として使用されている.しかし,高度な文章処理を目的としている応用研究,例えば文章要約や照応解析,質問応答,評判分析などは,当然ながら1文を対象にしているわけではなく,高い精度を実現するためには,文章中の話題のまとまりや文間の接続関係といった談話構造の理解が必要になる.このような談話構造解析を用いれば,文章要約(田中,面来,野口,矢後,韓,原田2006)では話題のまとまりを考慮した自然な要約が可能になり,照応解析(南,原田2002)では先行詞候補を探索する範囲を談話構造木の照応詞と根を結ぶ経路上へと高い精度で絞り込むことができ,質問応答システム(加藤,古川,蒲生,韓,原田2005)では理由や原因の回答抽出が容易になることが期待される.談話構造解析の従来研究では様々なモデルが提案されてきた.何を基本単位とするか,単位間の関係,談話構造のモデルなど研究者により様々である.談話構造のモデルとしては文を基本単位とした木構造モデルが一般的である.黒橋ら(黒橋,長尾1994)は文間に11種類の結束関係(並列,対比,主題連鎖,焦点—主題連鎖,詳細化,理由,原因—結果,変化,例提示,例説明,質問—応答)を定義し,手掛かり表現・主題連鎖・文間の類似性に着目し判定している.横山ら(横山,難波,奥村2003)は8種類(因果,背景,呼応,並列,対比,転換,補足,例示)の係り受け関係をSVMを用いた機械学習により判定している.Marcu(Marcu2002)は木構造モデルではなく,連続する2文に限り,4種類の接続関係(CONTRAST,CAUSE-EXPLANATION-EVIDENCE,CONDITION,ELABORATION)を大量のテキストデータを用いた用例利用型の手法で判定している.山本ら(山本,斉藤2008)は,同様の手法で,6種類の接続関係(累加,逆接,因果,並列,転換,例示)を判定している.以上のように談話構造解析の従来研究では様々な解析方法が提案されているが,大きく2つの問題がある.1つ目は,文の話題の中心である焦点の推移を詳細に分析できていないという問題である.焦点はその文を象徴する最も重要な手掛かりであり,談話構造解析には欠かせない要素である.2つ目は,基本的に接続詞や文末表現,同一語の出現など,表層的な情報に基づいているという問題である.特に,接続詞が文中に現れる頻度はあまり高くない.シソーラスを用いて類義情報を取り入れている研究もあるが,そもそも利用されている意味解析の精度が低く類義判定が信頼性に欠けること,また談話では主題の属性や部分などへの話題の変化が多く見られ,類義情報のみでは文間のつながりを適切に把握できないなどの問題点がある.本研究では精度の高い談話構造解析を実現するため,談話の結束性を評価するセンタリング理論を談話構造解析に導入することで,談話の焦点の推移を詳細に捉えることを可能にする.そして部分/属性関係など2語が表す概念間の意味的関係を定めるにあたって,原田らが開発した意味解析システムSage(語意精度95{\%},深層格精度90{\%})(原田,尾見,岩田志,水野1999;原田,水野2001;原田,田淵,大野2002)を用いて各語の意味(概念)を高精度に定め,さらにEDR電子辞書(1995)から抽出した概念間の部分/属性関係を対象知識として,話題の部分/属性への展開などの検出に用いる手法を提案する. \section{提案手法} \label{sec:mylabel2}本研究では談話構造を表すモデルとして談話の話題の推移を表すために「談話構造木」という木構造を定義する.談話構造木では,句点で区切られた文をノードとし,各ノード文はただ1つの親ノードを持つ.そして文ノードを接続しているアークに9種類の文間接続関係(詳細化,展開,原因—結果,逆接,遷移,転換,並列,例提示,質問—応答)を付与する.以下に例を示す.\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindentN自動車は19日,新車発表会を開催。N自動車としては初となる電気自動車を公開した。電気自動車は,走行時にCO$_{2}$を排出しないとして注目を集めている。しかし,一充電あたりの航続距離が短いなどの問題点もある。販売を伸ばしているハイブリット車への対抗として,N自動車は巻き返しを図る考えだ。}}\vspace{0.5\baselineskip}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f1.eps}\end{center}\caption{談話構造木の例1}\end{figure}図1の例文では,1文目と2文目ではともに「N自動車」を主な話題としている.そして3文目では2文目に登場した「電気自動車」へと話題が展開している.4文目では,3文目の話題「電気自動車」についてさらに情報を付加している.そして5文目ではまた「N自動車」へと話題が戻っている.例文では,大まかに分けると「N自動車」とそこから派生した「電気自動車」についての話題が存在し,図1の談話構造木でその話題の推移を表すことができる.本研究ではセンタリング理論(Grosz,JoshiandWeinstein1995)と対象知識に基づき談話中の話題の移り変わりに着目した談話構造解析の手法を提案する.センタリング理論とは文の話題の中心である焦点の推移に着目して文間の結束性をモデル化した理論である(第4章).また,対象知識とは,語の語意が表す概念の部分/属性関係,上位—下位関係,類義関係といった2概念間の意味的関係をEDR電子辞書の共起辞書と概念辞書から抽出したものである(第3章).本研究の手法では対象知識により話題の部分や属性などへの展開といった概念の意味的関係を考慮してセンタリング理論を拡張し,文の話題の推移を的確に捉えられる談話構造解析を可能にする.その結果として,先に述べたように,文をノードとする談話構造木を機械的に生成する.この時,焦点の推移に基づく文間の結束性を文を表すノード間のアークとして表現する.さらにアークにこの文間の焦点の推移が何を意味するのかを表す理由や展開といった9種類の文間接続関係ラベルを割り振ることで,文同士の役割的関係を明らかにする.これによって,質問応答や照応解析の解の探索範囲を絞り込んだり,自動要約で主たる話の流れを示す評価基準を得られることが期待できる.なお,Groszらのセンタリング理論では代名詞の扱いに関する規則が与えられているが,現在筆者らの環境ではゼロ代名詞や指示代名詞の先行詞を高い精度で特定する技術を確立できていないので,それらを考慮するとかえって談話構造木の構築精度を下げる可能性があるので,本研究では代名詞を扱わないことにした.談話構造木を以下のプロセスを経て構築する.\begin{enumerate}\item形態素・構文・意味解析\item談話構造木の構築\item文間接続関係の判定\end{enumerate}まず,形態素・構文解析をJuman・Knp(黒橋,長尾1998)を用いて,意味解析をSageを用いて行う.これにより談話に含まれる各文は,形態素,文節に分割され,それぞれにEDR辞書中の品詞と語意(EDR辞書で定義された約40万概念のどれか)が付与され,文節間の係り受け関係には役割関係を表す深層格(EDR辞書で定義されたものにSageで追加された30種のどれか)が付与される.つぎに談話構造木の構築と文間接続関係の判定を分割して行う.談話構造木の構築は,センタリング理論,表層パターン,文間距離に着目した手法を用いて行う(第5章).センタリング理論はGrosz(Grosz,JoshiandWeinstein1995)のものを,本研究で提案する対象知識を用いて拡張して使用する.最後に,構築された談話構造木中のリンクに文間接続関係を付与する(第6章).文間接続関係の判定には,接続詞,主題,モダリティ・テンス・アスペクト,語意で表される概念間の部分/属性関係などの対象知識に着目したルールを用いて判定する.本研究の提案する手法では,センタリング理論と対象知識で話題の推移を的確に捉え,談話構造木の構築と文間接続関係の判定のプロセスを分割して行うことにより,文間接続関係の判定を単純化することが可能になる.なお,研究を具体的に進めるにあたって,文間接続関係の定義やその判定ルールの作成においては,対象となる談話として,新聞やWebの報道・解説・論説記事を用いたので,研究成果は精度の信頼性においてこれらの談話が対象になるが,談話構造構築方式はより一般的に適用できると考えている.ただし,会話文などのように言外の指示表現が多用される分野では精度が落ちることが想定される.本稿では,まず提案手法の基本となる対象知識について3章で,センタリング理論について4章で述べた後,実際の談話構造解析のプロセスについて,5章で談話構造木の構築方法,6章で文間接続関係の判定方法について述べる. \section{対象知識} \label{sec:mylabel3}談話の中でも,特に論文や新聞などの報道・解説・論説といった文章では,まず始めにその談話が何について述べられているものなのかを表す談話全体の話題(大話題)が示され,続いてその大話題を説明するために,大話題に関連した幾つかのさらに詳細な話題(小話題)が述べられるといった話題の階層構造を取る場合が多い.小話題としては大話題の部分/属性,下位,類義などが現れやすい.以下を例文として説明する.\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindent相模原市は、神奈川県北部にある都市。人口は70万人を超え、神奈川県内では横浜市、川崎市についで第3位の人口規模を擁する。特に20代、30代、50代周辺の人口が多く、市全体を活気ある雰囲気にしている。市内に大学が多いことで、学生の街としての顔も併せ持つ。}}\vspace{0.5\baselineskip}例文では,まず冒頭で談話全体の話題である大話題「相模原市」が示されている.そして,2文目,3文目で大話題「相模原市」(Sageで求めた語意は0f2ff2:相模原市という市)の部分/属性「人口」(3c0fa3:一定の地域に住む人の数)が,4文目では部分/属性「大学」(1e8598:高等教育の中核となる学術研究および教育の最高機関)が小話題として説明されている.したがって,例文のような文章を談話解析するためには,「人口」が「相模原市」の部分/属性であるという対象—部分/属性関係といった知識が必要になる.本研究ではこのような話題となる対象間の関係を対象知識と呼ぶ.対象知識としては,対象—部分/属性関係のほかに,上位—下位関係,類義関係を考える.\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f2.eps}\end{center}\caption{対象知識の判定方法}\end{figure}概念間に意味的関係があるかどうかの判定(図2)では,2つの語の語意が表す2概念をシソーラスと共起辞書,品詞,概念類似度を用いた対象知識判定規則に照らし合わせ,適合した場合に当該2概念間に対象—部分/属性関係,上位—下位関係,類義関係があると考える.シソーラスにはEDR概念辞書,共起辞書にはEDR日本語共起辞書((株)日本語電子辞書研究所1995)[9]を用いる.以下で対象知識のそれぞれの,対象知識判定規則について述べる.\subsection{対象—部分/属性関係判定規則}\label{sec:mylabel4}対象—部分/属性関係とは表1のような概念間の関係を示す.ここで注意したいのは,本研究では,ある概念の部分概念と属性概念を明確に分類しないということである.本研究では,あくまで小話題として現れやすい概念を抽出することを目的としている.\begin{table}[t]\caption{対象—部分/属性関係の例}\input{01table01.txt}\end{table}\begin{table}[t]\caption{共起辞書レコードの検索}\input{01table02.txt}\end{table}対象—部分/属性関係の判定規則には,主に共起辞書を用いるものとシソーラスでの上位概念ペアを用いるものの2種類がある.共起辞書を用いるものは,共起辞書中の共起関係子が助詞「の」であるレコードに着目する.その理由は,「自動車のエンジン」というように,対象と部分/属性を直接結びつける代表的な助詞として「の」が用いられるからである.対象とするレコードの検索には対象概念と部分/属性概念のペアを対象とし,完全一致だけでなく類義のレコードも対象とすることで対象—部分/属性概念の可能性があるものを漏れなく抽出する.レコードの検索方法は表2の3種類を用い,適合条件に一致すれば該当レコードありとする.ここで類義かどうかの判定には,シソーラス上の距離に基づく以下の式(加藤,古川,蒲生,韓,原田2005)を用いて類似度を計算し,その類似度が閾値(本報告では0.85とした)以上のものを類義とする.\begin{align}&類似度(\mathrm{a},\mathrm{b})=\frac{2(1-r)dc}{2(1-r)dc+(1-r^{da})+(1-r^{db})}\\&\hspace{150pt}r:\公比(r\ne1.0)\nonumber\\&\hspace{150pt}dc:\共通上位概念までの概念の深さ\nonumber\\&\hspace{150pt}da:\共通上位概念から語\mathrm{a}までの深さ\nonumber\\&\hspace{150pt}db:\共通上位概念から語\mathrm{b}までの深さ\nonumber\end{align}ただし,助詞「の」の用法には,対象が部分/属性を修飾する用法のほかに,「彼の走る姿」といった主格の用法や,「黄色の花」といった対象をその状態が修飾するもの,「13時の会議」といった時間による修飾などの用法がある.これらの用法を取り除くため,該当レコードに対して,深層格や品詞,シソーラスでの上位概念による以下の規則を用いてさらに絞り込みを行う.\begin{enumerate}\item対象とする深層格はmodifier(修飾),element-of(要素),part-of(部分)\item品詞は数詞を除く名詞\item対象候補は上位概念に「時」,「状態」,「物やものに対する指示的な呼称」,「方向」,「複数のものの関係によって決まる位置」,「部分」を持たない\end{enumerate}以上の共起辞書レコードの検索,深層格や品詞,シソーラスでの上位概念による規則に適合したものを対象—部分/属性関係とする.つぎに,上位概念ペアを用いた対象—部分/属性関係の抽出について述べる.EDR概念辞書には「人間の属性」や「動物の部分」,「具体物の属性」,「機械の部品」などの概念が含まれる.部分/属性概念候補がこれらを上位概念に持ち,さらに対象概念候補がそれら属性を持つにふさわしい概念(表3の左列に列挙した概念)を上位概念に持てば,対象—部分/属性関係ありとする.例えば部分/属性候補が「人間の属性」を上位概念に持ち,対象概念候補が「人間」を上位概念に持てば,対象—部分/属性関係ありとする.これらの対象—部分/属性関係を持つ上位概念のペアの一覧を表3に示す.\begin{table}[b]\caption{部分/属性関係を持つ概念の上位概念ペア一覧}\input{01table03.txt}\end{table}\subsection{上位—下位関係判定規則}\label{sec:mylabel5}上位—下位関係とは表4のような概念間の関係を指す.上位—下位関係はシソーラスを用いることで容易に抽出することができる.ただし,シソーラス中のすべての上位—下位関係を持つ概念を対象にしてしまうと意味が離れすぎてしまうため,2概念間に適当な概念間距離閾値(本報告では,距離2)を設定する.\begin{table}[t]\caption{上位—下位関係の例}\input{01table04.txt}\end{table}\subsection{類義判定規則}\label{sec:mylabel6}類義に関してもシソーラスを用いることで容易に抽出することができる.式(1)に基づき類似度を計算し,適当な閾値(本報告では0.85)以上の2概念間に類義関係ありと判断する. \section{センタリング理論} \label{sec:mylabel7}センタリング理論(Grosz,JoshiandWeinstein1995)とは,文の焦点の移り変わりに着目して談話の結束性をモデル化したものである.センタリング理論では,談話単位中の各文Si\footnote{Grosz1995では発話Uとしているが本稿では処理対象単位が文であるのでSとした.}にCf(Si)(Forward-lookingcenters)を,また各文Siとその前に出現する各文SjにCb(Si,Sj)(Backward-lookingcenter)を定義する.Cf(Si)は文Siに出現する要素(話題)のリストであり,優先順位によりソートされている.Cb(Si,Sj)は,ただ一つの要素を持ち,文Sjから文Siに談話が推移した時の焦点をあらわしている.本研究では,以下のように定義する.\vspace{1\baselineskip}Cf(Si):Forward-lookingcenters\begin{itemize}\item文Siに出現する名詞節と主辞がサ変名詞である動詞節を要素とするリスト\item以下の優先順位により降順にソートされている\\主題(ハ格)>ガ格>ニ格>ヲ格>その他\end{itemize}Cb(Si,Sj):Backward-lookingcenter\begin{itemize}\itemCf(Sj)の要素でSiに含まれる名詞節と,同一または同義または対象知識(第3章)で判定される部分/属性や上位/下位関係のある概念を表す語を主辞とする文節のうちソート順で最上位要素\itemルートノード文ではCf(Si)の最上位要素\itemi$>$j\end{itemize}\vspace{1\baselineskip}文の3つ組Si,Sj,Sk$(\mathrm{i}>\mathrm{j}>\mathrm{k})$に対して,Cbの推移Cb(Sj,Sk)$\to$Cb(Si,Sj)の値を表5\\footnote{Grosz1995ではCONTINUATION,RETAINING,SHIFTINGの3種類.}の\linebreakように定義する.これをTRANSITIONと呼ぶ.談話構造木の構築でTRANSITIONCb(Sj,Sk)$\to$Cb(Si,Sj)を求める際にはSkは確定しており,SkはSjの親ノードである.\begin{table}[t]\caption{TRANSITIONの分類}\input{01table05.txt}\end{table}TRANSITIONは焦点の連続性を評価している.そして,このTRANSITIONの種類により文間の結束性の強さが示される.結束性の強さは以下の順に従う.\vspace{1\baselineskip}CONTINUATION>RETAINING>SHIFTING>NOTHING\vspace{1\baselineskip}以下の例文でセンタリング理論におけるCf,CbとTRANSITIONの判定例を示す.\vspace{1\baselineskip}例文a\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindent幸子は夕飯の材料が足らないことに気づいた。そこで幸子は弟に買い物を頼んだ。しかし、弟は幸子に嫌だと言った。弟はゲームに夢中だった。}}\vspace{1\baselineskip}\begin{itemize}\item[a1.]幸子は夕飯の材料が足らないことに気づいた。\\Cf(Sa1):[幸子,材料,夕飯]\\Cb(Sa1,\$\phi)$:[幸子]\item[a2.]そこで幸子は弟に買い物を頼んだ。\\Cf(Sa2):[幸子,弟,買い物]\\Cb(Sa2,Sa1):[幸子]\\TRNSITIONCb(Sa1,$\phi$)$\to$Cb(Sa2,Sa1):CONTINUATION\item[a3.]しかし、弟は幸子に嫌だと言った。\\Cf(Sa3):[弟,幸子]\\Cb(Sa3,Sa1):[幸子]\\TRANSITIONCb(Sa1,$\phi$)$\to$Cb(Sa3,Sa1):RETAINING\\Cb(Sa3,Sa2):[幸子]\\TRANSITIONCb(Sa2,Sa1)$\to$Cb(Sa3,Sa2):RETAINING\item[a4.]弟はゲームに夢中だった。\\Cf(Sa4):[弟,ゲーム]\\Cb(Sa4,Sa1):[$\phi$]\\TRANSITIONCb(Sa1,$\phi$)$\to$Cb(Sa4,Sa1):NOTHING\\Cb(Sa4,Sa2):[弟]\\TRANSITIONCb(Sa2,Sa1)$\to$Cb(Sa4,Sa2):SHIFTING\\Cb(Sa4,Sa3):[弟]\\TRANSITIONCb(Sa3,Sa2)$\to$Cb(Sa4,Sa3):SHIFTING\end{itemize}\vspace{1\baselineskip}例文aでは,文Sa4で比較先の文SjによりTRANSITIONが分かれている.Cb(Sa4,Sa2)とCb(Sa4,Sa3)のときはTRANSITIONがSHIFTINGとなっているが,Cb(Sa4,Sa1)の場合はNOTHINGである.これはつまり,文Sa4は,文Sa1よりも文Sa2やSa3との間の結束性が高いことを表している.次の例では,部分/属性でCbが決定されている.\vspace{1\baselineskip}例文b\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindentN社は新型自動車を発表した。新型自動車は優れた環境性能を実現。燃費は、23.0~km/lとクラストップレベル。}}\vspace{1\baselineskip}\begin{itemize}\item[b1.]N社は新型自動車を発表した。\\Cf(Sb1):[N社,新型自動車,発表]\\Cb(Sb1,$\phi)$:[N社]\item[b2.]新型自動車は優れた環境性能を実現。\\Cf(Sb2):[新型自動車,環境性能,実現]\\Cb(Sb2,Sb1):[新型自動車]\\TRANSITIONCb(Sb1,$\phi$)$\to$Cb(Sb2,Sb1):SHIFTING\item[b3.]燃費は、23.0~km/lとクラストップレベル。\\Cf(Sb3):[燃費,23.0~km/l,クラストップレベル]\\Cb(Sb3,Sb1):[燃費(新型自動車)]\\TRANSITIONCb(Sb1,$\phi$)$\to$Cb(Sb3,Sb1):SHIFTING\\Cb(Sb3,Sb2):[燃費(新型自動車)]\\TRANSITIONCb(Sb2,Sb1)$\to$Cb(Sb3,Sb2):CONTINUATION\end{itemize}\vspace{1\baselineskip}例文bでは,文Sb3のCbが先行文内の「自動車」の部分/属性概念である「燃費」である.また,文Sb3で比較先の文SjがSb1の時のCb(Sb3,Sb1)の場合はSHIFTING,Sb2の時のCb(Sb3,Sb2)の場合はCONTINUATIONと分かれており,文Sb3は文Sb2との結束性が高い.Cb(Si,Sj)が部分/属性概念などで決定される場合と同一概念や同義概念で決定される場合を談話構造木構築の際に区別するため,Cb決定タイプを表6のように設定する.Cf(Si)の要素と同一概念または同義概念が含まれない場合は,EQUAL以外の決定タイプが採用される.この場合の優先順位は,ATTRIBUTE,LOWER,SIMILARの順である.第5章で詳しく述べるが,本研究では,談話構造木の構築にこのTRANSITIONの種類における結束性の強さを主な指標として用いる.談話構造木は談話における話題の推移を表す木構造であるので,同じ焦点Cbを持つ文同士が接続されることが望ましい.このことは,結束性の強いTRANSITION(CONTINUATIONやRETAINING)になる文同士を接続したリンクを多く含む談話構造木を構築すればよいということと同義である.\begin{table}[t]\caption{Cb決定タイプ}\input{01table06.txt}\end{table} \section{談話構造木の構築} \label{sec:mylabel8}\subsection{談話構造木}\label{sec:mylabel9}本章では談話構造木の構築アルゴリズムについて述べる.談話構造木は文をノードとし,談話中の話題の推移を表す木構造である.談話構造木中では,近い話題を持つ,つまり結束性の高い文同士が隣接する.また,ルートノード(談話構造木の根に当たるノード)は談話の先頭文であり,各ノード文は自身よりも前に出現した文のうちのただ一つを親ノード文として持つ.談話構造木構築アルゴリズムでは,先頭から順に処理対象文とし,先頭文はルートノードに,以降の文は自身よりも前に出現した文すべてを接続候補文とし,最も結束性の高い接続候補文に接続する.文同士の結束性を測るための指標として,センタリング理論(第4章)におけるTRANSITIONの種類により結束性の度合いを表すセンタリング得点,特定の表層パターンの組み合わせに着目した表層パターン得点,文間距離を用いた文間距離得点の3つの指標の和を用いる.以下でそれぞれについて説明する.\subsection{センタリング得点Cp}\label{sec:mylabel10}センタリング理論では,文間の焦点の推移に着目したTRANSITIONを求めることにより文間の結束性の高さを評価できる.接続候補ノード文とのTRANSITIONを求め,TRANSITIONの種類により結束性が高いものほど高得点とする.ここでTRANSITIONの判定には,対象知識も含める.つまり,接続候補文のCbと処理対象文のCbの関係が対象知識上の関係に該当すればTRANSITIONはCONTINUATIONかRETAININGになる.ただし,Cbが同一概念や同義概念ではなく対象知識から決定される概念を持つ語の場合は,同一概念や同義概念の場合よりも得点を低くするように,Cbの決定タイプにより重み付けする.センタリング得点Cpは以下の式に従う.\begin{align}&Cp=Tp\timesw_{Cb}\\&\hspace{50pt}Tp:\text{TRANSITION得点}\nonumber\\&\hspace{50pt}w_{Cb}:\Cb重み\nonumber\end{align}TpはTRANSITIONに応じた得点であり,結束性の高いものほど高得点になるように設定する.w$_\mathrm{Cb}$はCbの決定タイプに応じた重みであり同一概念や同義概念を1.0とし,優先度に応じた値を設定する.表7にTRANSITION得点Tp,表8にCb決定タイプによる重みw$_\mathrm{Cb}$の例を示す.\begin{table}[b]\caption{TRANSITION得点Tpの例}\input{01table07.txt}\end{table}\begin{table}[b]\caption{Cb決定タイプによる重みw$_\mathrm{Cb}$の例}\input{01table08.txt}\end{table}\subsection{表層パターン得点Ep}\label{sec:mylabel11}接続候補文と処理対象文が特定の表層パターンの組み合わせ(例えば,接続候補文の表記が「最初に」で始まり,処理対象文の表記が「つぎに」で始まる)を持てば,関連の高い話題を順序立てて提示していると考えられ,結束性は高いと判断し,表層パターン得点Epを付与する.表層パターンが現れる場合は接続先として確定的な場合であり,Epはセンタリング得点のCONTINUATIONの場合などよりも高い値に設定する.このような表層パターンの組み合わせの例を表9に示す.\begin{table}[t]\caption{表層パターン組み合わせの例}\input{01table09.txt}\end{table}\subsection{文間距離得点Dp}\label{sec:mylabel12}発話者は,読者にわかりやすいように,話題を徐々に変化させながら談話を構築する.そのため近接する文は関連性の高い話題を持つことが自然である.そこで近接する文ノードほど結束性が高いと判断し,文間距離に反比例する得点を与える.\begin{align}&Dp=Dp_{\max}\left(1-\frac{d}{i}\right)\\&\hspace{50pt}d:文間距離\nonumber\\&\hspace{50pt}i:処理対象文番号\nonumber\\&\hspace{50pt}Dp_{\max}:距離得点上限値\nonumber\end{align}ここで,dは接続候補文と処理対象文との文間距離,iは処理対象文番号,$Dp_{\max}$は文間距離得点上限値である.$Dp_{\max}$はTRANSITION間の得点を大きく超えない値が望ましい.つまり表7の場合CONTINUATIONが90,RETAININGが60であるので$Dp_{\max}$は30とした.\subsection{談話構造木構築アルゴリズム}\label{sec:mylabel13}以上の3つの指標の合計得点を結束性得点とし,接続候補文それぞれに対して求め,最高得点を持つ文を親ノードとしてリンクを張る.談話構造木構築アルゴリズムを図3に示す.以下の文章を例に説明する.\vspace{1\baselineskip}\fbox{\parbox{380pt}{\noindentN自動社は19日、新車発表会を開催。N自動車としては初となる電気自動車を公開した。電気自動車は、走行時にCO$_{2}$を排出しないとして注目を集めている。販売を伸ばしているハイブリット車への対抗として、N自動車は巻き返しを図る考えだ。}}\vspace{1\baselineskip}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f3.eps}\end{center}\caption{談話構造木構築アルゴリズム}\vspace{2\baselineskip}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f4.eps}\end{center}\caption{談話構造木の構築例}\vspace{-1\baselineskip}\end{figure}ここでTRANSITION得点Tpは表7,文間距離得点上限値$Dp_{\max}$は30として説明する.まず1文目をルートノードにする.2文目では,接続候補文は1文目のみであるので1文目とリンクを張る.3文目では,1文目と2文目が接続候補文になるが,それぞれに対しTRANSITIONを求めると,1文目に対してはNOTHING,2文目に対してはSHIFTINGとなる.表層パターンはなく,距離得点を加算する.結束性得点は1文目15,2文目52.5となり,2文目が最も結束性得点が高くなるので,2文目とリンクを張る.4文目は,1文目から3文目までが接続候補文となる.それぞれに対して,TRANSITIONを求める.図4は各接続候補文に対してTRANSITIONを求めた状態である.1文目と2文目に対してはCONTINUATION,3文目に対してはSHIFTINGとなる.表層パターンはなく,距離得点を加算する.結束性得点は,1文目97.5,2文目105,3文目52.5となり最も得点の高い2文目とリンクを張る. \section{文間接続関係の判定} \label{sec:mylabel14}\subsection{文間接続関係}\label{sec:mylabel15}構築された談話構造木中のすべてのリンクに文間接続関係を付与する.文間接続関係はリンクで直接接続された2文間の接続関係を表す.何種類の関係を定義するかは,研究者により異なっているが(6種類〜11種類),本研究では,黒橋ら(黒橋,長尾1994)の11種類の結束関係(並列,対比,主題連鎖,焦点—主題連鎖,詳細化,理由,原因—結果,変化,例提示,例説明,質問—応答)を参考に,事例13文章112文に試行する過程で,意味解析結果の語意,深層格,モダリティや,対象知識や主題や話題を基にした計算可能性と要約や質問応答などの応用での必要性から,表10の9種類を定義し,利用することにした.\begin{table}[b]\vspace{-1\baselineskip}\caption{文間接続関係一覧}\input{01table10.txt}\end{table}文間接続関係は基本的には,親ノード文から子ノード文への関係である.つまり表10でのSiが親ノード文であり,Sjが子ノード文である.例えば,文間接続関係が「詳細化」といった場合は親ノード文での話題に関して子ノード文でさらに詳細な情報が記述されているということである.ただし,「原因結果」と「逆接」関係に関しては逆向き関係が存在する.なお,黒橋らとの比較で言えば,判定の明確性を維持し6.2節の文間接続関係判定ルールを容易に構築できるようにするために,対比を逆接として,変化を遷移として再定義した.また同様の目的から主題連鎖と焦点—主題連鎖の違いを,展開と転換に分離再定義した.一方,理由と例説明は出現頻度が低いので今回の分類では削除した.具体的な事例では,これらは詳細化に分類されることが多いと思われる.\subsection{文間接続関係判定ルール}\label{sec:mylabel16}文間接続関係の判定には,文間接続関係判定ルールを用いる.文間接続関係判定ルールは以下の形式を持つ.\vspace{1\baselineskip}\begin{itemize}\item接続関係名\begin{itemize}\item9種類の接続関係(表10)のうち1つ\end{itemize}\item条件部\begin{itemize}\item接続詞\item主題\itemモダリティ・テンス・アスペクト\item対象知識\item構文・意味情報\end{itemize}\item得点\begin{itemize}\item接続関係名への確信度\end{itemize}\end{itemize}\vspace{1\baselineskip}\begin{figure}[b]\begin{center}\includegraphics{18-1ia1f5.eps}\end{center}\caption{文間接続関係判定ルールの例1}\end{figure}文間接続関係判定ルールは接続関係名と条件部,得点から構成される.条件部は接続詞などの表層表現や主題の推移,文の認識や話者の態度を表すモダリティ(推量,疑問など),時制を表すテンス・アスペクト,対象知識,構文・意味情報を用いた論理式である.ここで主題とは,その文が何について述べられているのかを示すもので,一般的には,助詞「は」で示される文節のことを指す.本研究では,助詞「は」で示される文節のほかに助詞「も」や読点「、」で示される主語格も対象とする.なおモダリティテンスアスペクト,接続詞,構文・意味情報は,モダリティ解析機能が加わった意味解析システムSage(梅澤,西尾,松田,原田2008;梅澤,加藤,松田,原田2009)で解析された情報に基づく.ルールの例とその適合例を図5〜図7に示す.図5の例では,親ノード文の主題以外の文節「電気自動車」が子ノード文の主題として現れている.親ノード文の話題「N自動車」から新たな話題「電気自動車」に展開されている.図~6では,子ノード文が接続詞「しかし」で始まっている.接続詞「しかし」は逆接を表す一般的な接続詞であり.このような接続詞が現れる場合は,接続関係が明確に現れている場合であり,高得点を与える.図7では親ノード文の主題「電気自動車」が子ノード文で部分/属性である「充電時間」になっている.この場合では親ノード文の話題を引き続きつつより詳細な内容の説明へ移行していると考えている.\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f6.eps}\end{center}\caption{文間接続関係判定ルールの例2}\vspace{2\baselineskip}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f7.eps}\end{center}\caption{文間接続関係判定ルールの例3}\end{figure}\begin{table}[p]\caption{文間接続関係判定ルール一覧}\input{01table11.txt}\end{table}\begin{table}[t]\caption{接続詞一覧}\input{01table12.txt}\end{table}ルールの一覧を表11に,ルールで使われる接続詞の一覧を表12に,それを用いる文間接続関係名ごとに示す.ここで(R)と書かれているものは逆向き関係を表している.\subsection{文間接続関係判定アルゴリズム}\label{sec:mylabel17}つぎに文間接続関係判定のアルゴリズム図8について述べる.文間接続関係判定のアルゴリズムでは,談話構造木に存在するすべてのリンクに対し,1つずつ順に文間接続関係を付与する.まず,リンク1つに対し接続関係それぞれに対応する9つの適合得点を用意する.そして表11のルール1つずつ,条件部に適合するか判定する.適合した場合には,ルールの得点を対応する接続関係の適合得点に加算する.そしてすべてのルールについて適合判定を行った後,最高の適合得点を持つ接続関係を文間接続関係として決定する.\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f8.eps}\end{center}\caption{文間接続関係判定アルゴリズム}\end{figure} \section{評価実験と考察} \subsection{評価実験}\label{sec:mylabel18}本研究で作成したDIAで談話構造解析を行った様子を図9に示す.左上のテキストボックスに解析するテキストを入力.実行すると左下に談話解析の結果である談話構造木が表示される.各入力文はノードで表示され,接続関係にある文同士が親ノードから子ノードへのアークで接続されている.また文間接続関係を表すラベルがアーク上に付与される.例えば,4文目「日航株は1円の値上がりでも,大幅な上昇率となる。」と6文目「ただ,売り抜けることができないと,全額損失になる。」では「株」と「損失」の部分/属性関係を基に,4文目と10文目「市場では「一か八かのギャンブル相場入りした」(大手証券関係者)との声が出ている。」では「株」と「相場」の部分/属性関係を基に正しく接続先の決定ができている.また談話構造木の左下の部分木は,詳細化として株価が1円近辺になった時の具体的な値動きについての話題で構成されている.一方,右下の部分木では日航株が話題となっている.この結果を,自動要約に用いるには,根の文と本文章の最後に近い葉の文に至る道上から要約文を作ることが有効のように思われる.\begin{figure}[b]\begin{center}\includegraphics{18-1ia1f9.eps}\end{center}\caption{DIAの実行例}\end{figure}本研究はこれまでに述べてきたように,談話構造木中の接続先判定においても,文間接続関係の決定においても,筆者らの事例調査と経験によって作成したルールによっている.このルールを作成するにあたって筆者らが本論文で述べて談話構造木の作成の基本アルゴリズムをベースに手作業で事例の文章の談話構造木を作成する過程において,アルゴリズム中の表8に示したCb決定タイプによる重みw$_\mathrm{Cb}$などのいくつかの数値パラメタを決定していった.このシステム作成時に事例として利用したのはWeb上のニュース記事から抽出した13文章112文である.これらを対象にクローズドテストを行った.各種パラメータや得点は出来るだけ正しい談話構造が求まるよう人手で調整した.実験に用いたパラメータは,TRANSITION得点のCONTINUATIONは90,RETAININGは55,SHIFTINGは30,NOTHINGは0,距離得点上限値は33,Cb決定タイプによる重みは,部分/属性(共起辞書から抽出)は0.6,部分/属性(上位概念ペア)は0.3,上位—下位0.6,類義0.3とした.文間接族関係の判定ルールの得点は表11のとおりである.実験結果を表13に示す(分母が99なのは接続関係の数が$112-13=99$だからである).\begin{table}[b]\caption{実験結果}\input{01table13.txt}\end{table}接続先文の正解率は談話構造木の構築で正しい親ノード文を選んだ割合を表している.文間接族関係の正解率は談話構造木の構築で正しい接続先が選ばれたものの中での文間接族関係の正解率である.全体の正解率は,正しい接続先を選びかつ正しい文間接族関係を選んだ割合である.さらに,Webから得た上記とは異なる12文章129文を対象にオープンテストを実施した.正解の判定は筆者らが所属する研究室の自動要約を研究している筆者らとは別の学生に依頼した.その結果を表14に示す.\begin{table}[t]\caption{実験結果}\input{01table14.txt}\end{table}\subsection{考察}実験の結果,談話構造木の構築では,同一概念や同義概念が含まれる場合は正しく接続先が特定されたが,部分/属性概念,上位/下位概念など対象知識から得られる概念関係を用いた接続先の決定は表8に示したCb決定タイプによる重みw$_\mathrm{Cb}$に依存し,誤る事例はこの数値が原因であることが多かった.現在w$_\mathrm{Cb}$は経験的に定めているが,今後より多くの正解事例を手作業で作成し機械学習によってよる定めることによってより精度の高い接続先の決定が行えると思われる.一方,部分/属性の判定精度を向上できると接続先の決定精度も向上する.部分/属性の判定は,共起辞書を用いた規則の場合は高い確率で正しい関係を導いている.上位概念ペアを用いた規則の場合は,部分/属性の上位概念として選定した概念(\tablename~\ref{tab3}の右列に列挙した概念)がシソーラスでの位置で根から近(高層)いことが原因で,少し精度が低くなっていることがある.より下層の概念(その分概念数は多くなるが)を上位概念として選定すれば誤りを除くことができ,精度は向上する.また2語間だけでみた場合は正しい部分/属性関係であっても,文脈上ではそうではない場合もあった(例:属性が「関係者」でそれを持つ対象が「法人」や「施設」など文脈上に複数の候補がある場合).文間接続関係の判定は,高い精度を実現したが,詳細化と遷移間の分離精度が少し低かった.さらにセンタリング理論で同義概念など概念の関係をみるとき文節を単位に比較したが,文節の区切りに表現上のゆらぎがあり,さらに大きい単位でみないと正しく比較できない場合があった(例:「通信技術」と「通信の技術」.後者は2文節).本研究の応用については,現在,自動要約,照応解析,質問応答に用いることを試行している.自動要約においては,要約の種となる重要語を選定する際の得点として,談話構造木において原文の最初の文から最後の文に至る路上の文に含まれる場合に加点する手法で,話の主要な流れを漏れなくカバーする要約文の生成を期待できる.ゼロ代名詞の先行詞の判定を行う照応解析では,先行詞候補を探索する範囲を談話構造木において先頭の文からゼロ代名詞のある文に至る経路上の文に高い精度で絞り込むことができると期待している.質問応答システムでは,文間接続関係を用いて,理由や原因の回答抽出が容易になることや,質問文と類似度の高い照応文という知識文(新聞やweb中の回答を得ようとする知識ソース中の文)から実際に回答を含む回答文を探索する範囲を談話構造木中で照応文を含む経路上に限定できることなどが期待できる. \section{おわりに} 本研究では,センタリング理論と対象知識に基づき,談話における話題の推移を,正確に捉える談話構造解析の手法を示した.対象知識を用いることで,同一概念や同義概念だけでなく部分/属性や上位/下位概念への話題の展開を考慮し,表記上の手掛かりがない文章でも焦点の推移を的確にとらえることが可能となった.また,センタリング理論により,焦点の推移と連続性を評価したことで,結束性の高い談話構造木を構築することができた.文間接続関係判定ルールと対象知識判定規則の精緻化や,機械学習などによる各種パラメータの高精度な決定,辞書の整備,表記のゆれに対する解決などを行えばさらに高い精度を実現できるだと思われる.\acknowledgment本研究を進めるにあたって有意義なコメントを頂いた青山学院大学原田研究室の皆様に感謝いたします.特に,久保田裕章氏には接続先の決定方法や文間接続関係の選出の議論に参加して頂き有意義な意見を頂いた,また西尾公秀氏には丁寧なオープンテストを実施して頂いた,深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\label{sec:mylabel19}\begin{thebibliography}{99}\itemGroszBarbaraJ,WeinsteinScottandJoshiAravindK(1995).``Centering:AFrameworkforModelingtheLocalCoherenceofDiscourse.''\textit{AssociationforComputationalLinguistics},21,pp.203--225.\item原田実,尾見孝一郎,岩田隆志,水野高宏(1999).日本語文章からの意味フレーム自動生成システムSAGE(SemanticframeAutomaticGEnerator)の開発研究.人工知能学会第13回全国大会論文集,pp.213--216.\item原田実,水野高宏(2001).EDRを用いた日本語意味解析システムSAGE.人工知能学会論文誌,\textbf{16}(1),pp.85--93.\item原田実,田淵和幸,大野博之(2002).日本語意味解析システムSAGEの高速化・高精度化とコーパスによる精度評価.情報処理学会論文誌,\textbf{43}(9),pp.2894--2902.\item(株)日本語電子辞書研究所(1995).EDR電子化辞書仕様説明書(第2版).\item加藤直人,森元逞(1995).統計的手法による談話構造解析.情報処理学会第51回全国大会,pp.99--100.\item加藤裕平,古川勇人,蒲生健輝,韓東力,原田実(2005).WEB検索による知識文の獲得と意味グラフ照合推論による質問応答システムMetis.情報処理学会第67回全国大会論文集,1G-06,第2分冊,pp.11--12.\item黒橋禎夫,長尾真(1994).表層表現中の情報に基づく文章構造の自動抽出.自然言語処理,\textbf{1}(1),pp.3--20.\item黒橋禎夫,長尾真(1998a).日本語形態素解析システムJUMANversion3.61.京都大学大学院情報学研究科.\item黒橋禎夫,長尾真(1998b).日本語構文解析システムKNP使用説明書version2.0b6.京都大学大学院情報学研究科.\itemMarcuDanielandEchihabiAbdessamad(2002).``AnUnsupervisedApproachtoRecognizingDiscourseRelations.''\textit{Proceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.368--375.\item南旭瑞,原田実(2002).語意の類似性を用いた照応解析システムの開発Anasys.情報処理学会第64回全国大会論文集,3M-06第2分冊,pp.53--54.\item横山憲司,難波英嗣,奥村学(2003).SupportVectorMachineを用いた談話構造解析.情報処理学会研究報告自然言語処理研究会報告,23,pp.~193--200.\item柴田和秀,黒橋禎夫(2005).隠れマルコフモデルによるトピックの遷移を捉えた談話構造解析.言語処理学会第11回年次大会,pp.109--112.\itemSporlederCarolineandLascaridesAlex(2005).``ExploitingLinguisticCuestoClassifyRhetoricalRelations.''\textit{ProceedingsofRecentAdvancesinNaturalLanguageProcessing},pp.532--539.\item田中信彰,面来道彦,野口貴,矢後友和,韓東力,原田実(2006).意味解析を踏まえた自動要約システムABISYS.言語処理学会論文誌,\textbf{13}(1),pp.143--164.\item梅澤俊之,西尾華織,松田源立,原田実(2008).意味解析システムSAGEの精度向上とモダリティの付与と辞書更新支援系の開発.言語処理学会第14回年次大会発表論文集,E3-1,pp.548--551.\item梅澤俊之,加藤大知,松田源立,原田実(2009).意味解析システムSAGEの精度向上—モダリティと副詞節について—.情報処理学会第191回自然言語処理研究会,pp.1--8.\item山本和英,斉藤真実(2008).用例利用型による文間接続関係の同定.自然言語処理,\textbf{15}(3),pp.21--51.\end{thebibliography}\begin{biography}\bioauthor{梅澤俊之}{2008年青山学院大学理工学部情報テクノロジー学科卒業.2010年青山学院大学大学院理工学研究科理工学専攻知能情報コース博士前期課程修了.}\bioauthor{原田実}{1975年東京大学理学部物理学科卒業.1980年東京大学理学系大学院博士課程修了.理学博士.(財)電力中央研究所研究員を経て,1989年青山学院大学理工学部経営工学科助教授に就任,2000年より同情報テクノロジー学科教授.1986年電力中央研究所経済研究所所長賞.1992年人工知能学会全国大会優秀論文賞.2008年青山学院学術褒賞.主たる研究は,自動プログラミング,意味理解,自動要約,質問応答,テキストマイニング,対話応答などにおいて実利用可能な技術開発に従事.情報処理学会,電子情報通信学会,人工知能学会,日本ソフトウエア科学会,IEEE,ACM各会員.}\end{biography}\biodate\end{document}