Datasets:
id
stringlengths 9
9
| text
stringlengths 10.2k
92.7k
| title
stringclasses 1
value |
---|---|---|
V24N01-05
|
\section{はじめに}
製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンターを運営している.コールセンターでは,オペレータが電話やメールによる顧客問い合わせに対応する際や,顧客自身が答えを探す際の支援のために,FrequentlyAskedQuestion(FAQ)の整備および,FAQ検索システムを導入していることが多い.FAQ検索の利用者は,自然文や単語の集合を検索クエリとして,検索を実施するのが一般的である.しかし,FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため,類義語や同義語,表記の揺れといった問題により,正しく検索できない場合がある.たとえば,以下の例のように入力の問い合わせと対応するFAQで語彙が一致しないことがある.\begin{itemize}\item問い合わせ:○○カードの再度発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.\item正解のFAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法\item不正解のFAQの質問部分:○○カードを新規発行する方法\end{itemize}\noindentこの例では,正解のFAQへの語彙の一致は「○○カード」のみである.一方,不正解のFAQには,「○○カード」に加え,「発行」も一致するため,不正解のFAQが上位にランクされてしまう.このような問題に対して,たとえば,Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では,統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている\cite{riezler:07,soricut:04,xue:08}.また,Web検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張するpseudo-relevancefeedbackといった手法も用いられている.しかし,アライメントモデルが学習しているのは,単語と単語の対応確率であり,FAQを特定するために有効な語を学習しているとは言えない.また,Webやコミュニティ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられるpseudo-relevancefeedbackは,適合するFAQが複数存在することがWeb検索ほど期待できないFAQ検索では十分な効果が得られない可能性がある.本論文では,問い合わせを対応するFAQに分類する文書分類器を利用したFAQ検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象のFAQに一致していなくてもFAQを精度良く検索することを目指す.しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る.そこで,文書分類器を学習するために,コールセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる.問い合わせ履歴には,問い合わせに対するオペレータの対応内容は記入されているものの,明示的にどのFAQが対応するという情報は付与されていない場合がある.そのため,本論文では,Jeonらの\cite{jeon:05}「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し,閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる.さらに,本論文では,文書分類器の判別結果に加え,問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために,教師有り学習に基づくランキングモデルの適用を提案する.素性には,問い合わせとFAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる.ある企業のコールセンターのFAQおよび問い合わせ履歴を用いて提案手法を評価をした.提案手法は,pseudo-relevancefeedbackおよび統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して,高いランキング性能を示した.
\section{関連研究}
類似質問を検索する方法として,機械翻訳で用いられる単語単位のアライメントモデルであるIBMModel\cite{brown:93}を用いた手法が提案されている\cite{jeon:05,riezler:07,soricut:04,xue:08}.IBMModelは単語の対応確率をEMアルゴリズムで推定する手法である.統計的機械翻訳では,アライメントモデルは,原言語と,目的言語の文の対からなる対訳コーパスを用いて,単語間の対応確率を推定するために用いられる.類似質問検索においては,質問とその回答の対を対訳コーパスとみなしたり,あるいは類似する回答を持つこの方法では,FAQと問い合わせ間の単語の対応確率を学習する.しかしながら,単語間の対応確率は,対応するFAQを検索するために有効な語彙知識であるとは言えない.例えば,入力の「方法」とFAQの「方法」が対訳コーパス中で良く共起して出現し,学習の結果,対応確率が高くなったとする.この対応確率を利用してFAQをスコアリングすると,「方法」が出現する誤ったFAQが上位になりうる.Caoら\cite{cao:10,cao:09}はYahoo!Answersのカテゴリ情報を考慮して,回答済みの質問を検索する手法を提案した.Yahoo!Answersの質問にはユーザによってカテゴリが付与されているため,この手法はカテゴリが付与された質問を学習データとして,事前に入力の質問をカテゴリに分類するための分類器を作成する.実際に検索する際には,まず入力の質問が検索対象の質問に付与されているカテゴリに所属する確率を分類器を使って計算する.入力の質問と検索対象の質問との間の単語の一致や,単語の対応確率に対して,カテゴリの確率を重みとして与え,検索対象の質問に対するスコアを計算する.文書分類器を用いて検索するという観点で本論文と類似する研究であるが,本論文で扱う問い合わせ履歴の問い合わせには事前にカテゴリが付与されていないこと,本論文ではFAQを直接カテゴリとみなしていることが異なる.Singh\cite{singh:12},Zhouら\cite{zhou:13}はWikipediaを外部知識として利用して,コミュニティ質問応答サイトの類似質問検索性能を上げる手法を提案した.たとえばFAQ検索においては,業務ルールなどのドメイン固有の知識を含むため,一般的な知識源だけでは十分ではない.\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f1.eps}\end{center}\caption{提案手法のモデルを学習する処理の概要と例}\label{fig:flow}\end{figure}
\section{提案手法}
提案手法の学習時の処理を図\ref{fig:flow}に示す.提案手法の学習は大きく3つの処理からなる.まず,既存の方法を用いてFAQと問い合わせ履歴を用いて学習データを自動生成する(\ref{sec:train-data}節).続いて,問い合わせを対応するFAQに分類するための文書分類器を学習する(\ref{sec:classifier}節).最後に,学習データと,分類器の出力を素性に加えて,問い合わせに対して,正解のFAQが不正解のFAQよりもスコアが高くなるようにランキングモデルを学習する(\ref{sec:learn2rank}節).文書分類器の出力するスコアは問い合わせとFAQの単語の厳密一致や単語の関連度に依存せずに出力することができる.ランキング学習を適用することで,文書分類器から得られるスコアを,問い合わせとFAQの単語ベクトルのコサイン類似度などの素性とともに用いてFAQ検索結果のランキングをおこなうことが可能となる.\subsection{学習データの自動生成}\label{sec:train-data}先行研究\cite{jeon:05}に従い,FAQと問い合わせのペアについてお互いの回答部分の類似度をもとに自動で学習データを生成する.この手法は,似た意味の質問には似た回答がされるという仮説に基づき,回答間の表層的な類似度が閾値以上の回答済み質問文の対を収集した.この仮説はコールセンターではより有効であると考えられる.なぜならば,オペレータは問い合わせに対して対応する際に,対応するFAQを検索し,その回答部分を引用することが少なくないためである.学習データの生成には,FAQの質問$Q$および回答$A$,問い合わせ履歴中の問い合わせ$I$およびオペレータの対応内容$R$を用いる.図\ref{fig:flow}の例では$Q$,$A$,$I$,$R$はそれぞれ「○○カードを紛失」,「ヘルプデスクへご連絡ください」,「○○カードを失くしたかも」,「ヘルプデスクへご連絡ください」を形態素解析して得た名詞,動詞,形容詞の集合である.学習データの自動生成には,質問$Q$と回答$A$の対からなるFAQの集合$\FAQSet=\{(Q_1,A_1),\ldots,\linebreak(Q_{|\FAQSet|},A_{|\FAQSet|})\}$および,問い合わせ$I$とオペレータの対応内容$R$の対からなる問い合わせ履歴の集合$\HistorySet=\{(I_1,R_1),...,(I_{|\HistorySet|},R_{|\HistorySet|})\}$を用いる.具体的には全文検索を使って,オペレータの対応内容,FAQの回答の内容語でお互いにOR検索し,式(\ref{eq:hrank})によってスコア$\textrm{hrank}(A_{i},R_{j})$を計算する.\begin{equation}\textrm{hrank}(A_{i},R_{j})=\frac{1}{2}\left(\frac{1}{rank_{A_{i}}}+\frac{1}{rank_{R_{j}}}\right)\label{eq:hrank}\end{equation}$\textrm{rank}_{A_{i}}$は問い合わせ履歴の回答$R_{j}$を入力としてFAQの回答$A_1,...,A_{|\FAQSet|}$を検索した場合の$A_{i}$の順位,$\textrm{rank}_{R_{j}}$はFAQの回答$A_{i}$を入力として問い合わせ履歴の回答$R_1,...,R_{|\HistorySet|}$を検索した場合の$R_{j}$の順位である.$\textrm{hrank}(A_{i},R_{j})$があらかじめ人手で設定した閾値を超えたFAQと問い合わせのペアの集合$D=\{\langle(Q_i,A_i),I_j\rangle|1\leqi\leq|\FAQSet|,1\leqj\leq|\HistorySet|\}$を生成する.例えば,問い合わせ履歴の回答$R_j$でFAQの回答を検索して,FAQの回答$A_i$の順位が2位でFAQの回答$A_i$で問い合わせ履歴の回答を検索して,問い合わせ履歴の回答$R_j$が1位だった場合,hrankは0.75となる.学習データの自動生成手順をAlgorithm\ref{alg:gendata}に示す.hrankを計算するために,事前に問い合わせ履歴の回答を入力としたときのFAQの回答の順位の逆数を$\mathbf{M}_1\in\mathbb{N}^{|F|\times|H|}$に,FAQの回答を入力としたときの問い合わせ履歴の回答の順位の逆数を$\mathbf{M}_2\in\mathbb{N}^{|H|\times|F|}$に格納する.順位のリスト$\textrm{ranks}$を得るために,$\textrm{GetRanks}$の第一引数を入力($A$もしくは$R$),第二引数を順位を付与する対象の文書集合($\FAQSet$もしくは$\HistorySet$)として実行する.順位を付与するために,全文検索エンジンを使う.もし検索時に該当の文書が得られない場合,その文書の順位は,入力が問い合わせ履歴の回答であれば$|\FAQSet|$,FAQの回答であれば$|\HistorySet|$とする.\begin{algorithm}[t]\caption{学習データの自動生成の疑似コード}\label{alg:gendata}\input{06algo01.txt}\end{algorithm}\subsection{文書分類器の学習}\label{sec:classifier}文書分類器の学習には,\ref{sec:train-data}節で生成した学習データ$D$を用いて,FAQごとに正例と負例を作成して二値分類器を学習する.対象のFAQと対応する問い合わせの集合を正例,その他のFAQと対応する問い合わせの集合をすべて負例として学習データとする.対応する問い合わせを持たないFAQも存在するため,対象のFAQそのものも正例に追加している.例えば,「○○カードを紛失・盗難・破損した場合の手続き方法」というFAQの分類器を学習するときには,正例に「○○カードの再発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.」という問い合わせがあった場合,「○○カード」,「再発行」,「見当らない」といった素性の重みを正の方向に大きく更新する.学習にはAdaptiveRegularizationofWeightsLearning\cite{koby:09}を用いた.素性には,内容語(名詞,動詞,形容詞),係り受け関係にある名詞と動詞の対を用いる.名詞句は同一の文節中に連続して出現する接頭詞と名詞とした.また,少なくとも片方が内容語であるような単語bigramの出現も素性として用いる.\subsection{ペアワイズランキング学習}\label{sec:learn2rank}ペアワイズランキング学習では,\ref{sec:train-data}節で生成した学習データ$D$を用いて,問い合わせに対して,正解のFAQが,不正解のFAQよりもスコアが高くなるように重みベクトルを更新する.ランキングの重みの学習アルゴリズムにはSOLAR-IIを用いた\cite{wang:15}.SOLAR-IIはペアワイズランキングのオンライン学習手法であり,AdaptiveRegularizationofWeightsLearning\cite{koby:09}のように,素性の重み$\mathbf{w}\in\mathbb{R}^d$に対して共分散行列$\Sigma\in\mathbb{R}^{d\timesd}$を保持する.重みの更新時に,分散の値が小さい素性ほど,学習の信頼度が高いとみなして,重みの更新幅を小さくする.\begin{algorithm}[b]\caption{ペアワイズランキング学習}\label{alg:pairrank}\input{06algo02.txt}\end{algorithm}ランキングの重みベクトルの更新手順をAlgorithm\ref{alg:pairrank}に示す.最初に重み$\mathbf{w}$を$\mathbf{0}$,共分散行列$\Sigma$を単位行列$\mathbf{E}$として初期化する.問い合わせに対する正解のFAQおよびランダムに選択した不正解のFAQから抽出した素性ベクトル$\textbf{x}_p\in\mathbb{R}^d$および$\textbf{x}_n\in\mathbb{R}^d$を$\textrm{ExtractFeatureVector}$によって取得し,2つのベクトルの差$\textbf{x}$をもとに重みを更新する.$\gamma$はハイパーパラメータであり,値が大きいほど重みの更新幅を小さくする.本論文では$1.0$とした.$\alpha$はヒンジ損失であり,正解のFAQのスコアが不正解のFAQのスコアよりも低い値となったときに$0$以上の値を取る.$\beta$は事例に含まれる素性の分散が小さい,つまり信頼度が高いほど大きな値を取る.そのため,信頼度が高い素性を多く含む事例に対して順位の予測を誤った場合には重みの更新幅や信頼度の更新幅を減らし,学習が過敏になり過ぎないようにする役割を持つ.学習を高速化するために,負例の生成にランダムサンプリングを適用した.ランダムサンプリングによるランキング学習でも,ペアワイズランキング学習で良い性能を出しているRankingSVM\cite{joachims:02}と同等の性能であることが示されている\cite{sculley:09}.負例の数$K$は$300$とした.$\textrm{ExtractFeatureVector}$では基本的な素性のグループ\textbf{Basefeatures}および自動生成した学習データを用いた素性\textbf{tfidf\_FAQ+query}および\textbf{faq-scorer}を抽出する.\begin{itemize}\item{\bfBasefeatures}\begin{itemize}\item{\bfcos-q,cos-a}:cos-qは,問い合わせとFAQの質問に対する内容語(名詞,動詞,形容詞)のコサイン類似度.cos-aは,問い合わせとFAQの回答に対する内容語のコサイン類似度.これらの値は,問い合わせに出現する単語をより含み,出現する単語の異なり数が少ないFAQほど1に近い値を取り,そうでないほど0に近い値を取る.\item{\bfdep}:係り受け関係にある文節に出現する名詞,名詞句,動詞の対の一致回数.\item{\bfnp}:FAQの質問と問い合わせに対して,出現する名詞句が一致する割合.\end{itemize}\item{\bftfidf\_FAQ+query}:FAQの質問$Q$,回答$A$および$D$中のそのFAQに対して生成された$L$個の学習データ$\{I'_l\}_{l=1}^L$を用いて計算するtfidfに基づくスコア\\$\textrm{score}(Q,A,\{I'_l\}_{l=1}^L,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I))+\max_{{I'}_{l}}\textrm{tfidf\_sim}(I,I'_l)$.\\付録\ref{ap:es}の式(\ref{eq:es})を用いて計算した.入力の問い合わせに対して質問もしくは回答と一致している単語が多いほど高く,さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在するFAQに対して高いスコアとなる.\item{\bffaq-scorer}:問い合わせに対して,該当するFAQの二値分類器のマージンを計算し,sigmoid関数によって$[0,1]$へ変換した値を素性に用いる.この分類器は過去の問い合わせ履歴を使って,どのような表現が出現する問い合わせならばこのFAQが正解らしいかどうかを学習したものである.そのため,この素性は問い合わせに対してこのFAQが正解らしいほどスコアが1に近く,そうでないほど0に近い値を取る.\end{itemize}学習した重みベクトル$\mathbf{w}$を使って未知の問い合わせ$I$に対してFAQをランキングするときには,各FAQから抽出した素性ベクトル$\mathbf{x}$と$\mathbf{w}$の内積を計算して,その値をもとにFAQをソートする.
\section{実験}
本実験では,文書分類器の出力を用いたランキングの有効性を確認するために,ある企業のFAQおよび問い合わせ履歴を用いて,既存手法との比較をおこなう.また,自動生成した学習データを分析し,ランキングの評価値への影響を調べる.\subsection{実験設定}実験にはある企業のFAQおよび問い合わせ履歴を用いた.問い合わせ履歴は個人情報を含むため,人名や個人を特定しうる数字列や地名,所属などの情報をパターンマッチによって秘匿化している.そのため,本来は個人情報ではない文字列も秘匿化されていることがある.今回の実験で用いたFAQの数は4,738件で,問い合わせ履歴はおよそ54万件である.評価のために,問い合わせ履歴中の286件に対し,3人のアノテータで正解のFAQを付与したデータを作成した.アノテータには,問い合わせに対してもっとも対応するFAQを1つ付与するよう依頼した.評価データ中に付与されたFAQの異なり数は186件となった.正解を付与した問い合わせ履歴の286件のうち,86件は開発用のデータ,残りは評価データに用いた.開発用データは,学習データ自動生成の閾値を決定するために用いた.本実験では,閾値を0から1まで0.1刻みで変えて,MRRが最も高くなる$0.4$とした.評価データは,各手法の精度評価に用いる.回答が短いFAQは,誤った問い合わせが多くペアになりうるため,文字数が10文字以下のFAQに対しては学習データの自動生成候補から除外した.また,学習データの生成後,学習データの中から評価データに含まれる問い合わせを削除した.形態素解析器,係り受け解析器にはそれぞれ,MeCab\footnote{MeCab:YetAnotherPart-of-SpeechandMorphologicalAnalyzer$\langle$https://taku910.github.io/mecab/$\rangle$(2016年5月20日アクセス)},CaboCha\footnote{CaoboCha:YetAnotherJapaneseDependencyStructureAnalyzer$\langle$https://taku910.github.io/cabocha/$\rangle$(2016年5月20日アクセス)}を用いた.システム辞書にはmecab-ipadic-NEologd\cite{sato:15}を用いた.ユーザ辞書には秘匿化で用いたタグを追加し,秘匿化した際に用いたタグが分割されないようにしている.評価尺度にはランキングの評価で用いられるMRR(MeanReciprocalRank),Precision@N(P@N)を用いた.MRRは式(\ref{eq:mrr})で表され,正解の順位$r_i$の逆数に対して平均を取った値であり,正解のFAQを1位に出力できるほど1に近い値を取り,そうでないほど0に近い値を取る.P@Nは式(\ref{eq:patn})で表され,正解が$N$位以上になる割合である.正解が$N$位以上に出力している問い合わせが多いほど1に近い値を取り,そうでないほど0に近い値を取る.{\allowdisplaybreaks\begin{gather}\textrm{MRR}=\frac{1}{N}\sum_{i=1}^{N}\frac{1}{r_i}\label{eq:mrr}\\[1ex]\textrm{P@N}=\frac{\textrm{正解がN位以上の評価データの数}}{\textrm{評価データの数}}\label{eq:patn}\end{gather}}\subsection{比較手法}tf-idf法に基づく全文検索2種類,pseudo-relevancefeedbackおよび翻訳モデルを用いる手法と比較する.全文検索にはElasticsearch\footnote{ElasticRevealingInsightsfromData(FormerlyElasticsearch)$\langle$https://www.elastic.co/jp/$\rangle$(2016年5月20日アクセス)}を用いた.索引語は形態素解析器のkuromoji\footnote{elastic/elasticsearch-analysis-kuromoji:Japanese(kuromoji)AnalysisPlugin$\langle$https://github.com/\linebreak[2]elastic/\linebreak[2]elasticsearch-analysis-kuromoji$\rangle$(2016年5月20日アクセス)}によって形態素解析をおこない,品詞で指定された条件\footnote{$\langle$https://svn.apache.org/repos/asf/lucene/dev/branches/lucene3767/solr/example/solr/conf/lang/stoptags\_\linebreak[2]ja.txt$\rangle$(2016年5月20日アクセス)}と一致しない形態素の原形とした.また,全角半角は統一し,アルファベットはすべて小文字化した.\begin{description}\item[tfidf\_FAQ]検索対象はFAQの質問および回答としてtfidfにもとづく類似度を計算する.類似度は付録\ref{ap:es}の式(\ref{eq:es-base})を用いた.\item[tfidf\_FAQ+query]\ref{sec:learn2rank}節と同じ計算式を用いた.\item[pseudo-relevancefeedback]pseudo-relevancefeedbackにはofferweight\cite{robertson:94}を用いた.offerweightは式(\ref{eq:ow})のようにして,単語$w$に対するスコアを計算する.\begin{equation}score(w)=r\log\left(\frac{(r+0.5)(N-n-R+r+0.5)}{(n-r+0.5)(R-r+0.5)}\right),\label{eq:ow}\end{equation}\item[翻訳モデル]翻訳モデルに基づく検索には,Jeonら\cite{jeon:05}の手法を用いる.この手法では入力の問い合わせ$I$を受け付け,式(\ref{eq:jeon-score})によって検索対象のFAQを,質問部分$Q$を用いてスコアリングする.\begin{equation}P(Q|I)=\prod_{w\inQ}P(w|I)\label{eq:jeon-score}\end{equation}ただし$P(w|I)$は式(\ref{eq:jeon-pwd})のように計算する.\begin{equation}P(w|I)=(1-\lambda)\sum_{t\inQ}(P_{tr}(w|t)P_{ml}(t|I))+\lambdaP_{ml}(w|C)\label{eq:jeon-pwd}\end{equation}式(\ref{eq:jeon-pwd})の$P_{tr}(w|t)$は,\ref{sec:train-data}節で生成した$D$におけるFAQの質問と問い合わせを対訳部分とみなしてGIZA++\footnote{GIZA++$\langle$http://www.statmt.org/moses/giza/GIZA++.html$\rangle$(2016年5月20日アクセス)}を使って学習した単語$w$と$t$の対応確率である.$P_{ml}(t|I)$は問い合わせ$I$における単語$t$の相対的な重要度である.本論文では文書頻度の逆数に対して対数を掛けた値を求め,問い合わせに出現する単語の値の総和で割った値とした.$C$は$D$の問い合わせの集合とした.そのため$P_{ml}(w|C)$は単語$w$の一般的な重要度を表す.Jeonらの設定に従い,$P_{tr}(w|w)=1$というヒューリスティクスを加えている.$\lambda$は$0$から$1$まで$0.1$刻みで変えて実験をおこない,開発データのMRRが最も良くなる値を用いた.\end{description}\subsection{実験結果}\subsubsection{自動生成した学習データの分析}Algorithm\ref{alg:gendata}の自動生成手法により,学習データ$D$のサイズは38,420件となった.3,185件のFAQに対して学習データを生成し,学習データが生成されていないFAQも含めて平均すると1件のFAQにつき8.03件の問い合わせを生成した.問い合わせと対応するFAQの対は自動生成するため,学習データ$D$の問い合わせとFAQが正しく対応しているとは限らない.自動生成した学習データ$D$の中からランダムに50件の事例を抽出し,問い合わせとFAQの対応が正しいかそうでないかを人手で評価した結果を表\ref{tab:human-eval-pair}に示す.おおよそ半分のデータは正解のFAQと正しい対応になっており,残りの半分は不正解のFAQと対応する.FAQの回答が短い場合には,類似する回答がされる問い合わせが多くなることがあるのと,回答の内容は同じであるが,FAQの質問と対応する問い合わせの内容が意味的に一致しないような事例がみられた.\begin{table}[b]\caption{人手によるFAQと問い合わせの対応の評価}\label{tab:human-eval-pair}\input{06table01.txt}\end{table}提案手法の文書分類器の性能はFAQに対して学習データとして生成できた問い合わせの数が影響すると想定される.FAQごとに正例として生成できた問い合わせ数を調べた.図\ref{fig:histogram-train}は評価データおよび開発データに含まれるFAQに対して生成された問い合わせ数を表すヒストグラムである.区間の幅を10とした.評価データに含まれるFAQのうち,1件も正例となる学習データが生成できなかったFAQは7件となった.\begin{figure}[t]\begin{center}\includegraphics{24-1ia6f2.eps}\end{center}\hangcaption{正例として生成された問い合わせ数ごとのFAQの度数分布.x軸はひとつのFAQに対して正例として生成された問い合わせの数で,y軸はFAQの数を表す.}\label{fig:histogram-train}\end{figure}\subsubsection{ランキングの評価}比較手法と提案手法の実験結果を表\ref{tab:compare}に示す.faq-scorerは,\ref{sec:classifier}節で作成した文書分類器の出力に応じてFAQをランキングした場合の結果である.Basefeatures\&tfidf\_FAQ+queryおよびBasefeatures\&tfidf\_FAQ+query\&faq-scorerは\ref{sec:learn2rank}節で挙げた素性を用いて学習したランキングモデルである.\begin{table}[t]\caption{評価結果}\label{tab:compare}\input{06table02.txt}\vspace{4pt}\smallpairedt-testをおこない,有意水準0.05でBasefeatures\&tfidf\_FAQ+query\&faq-scorerと有意差がある比較手法の結果に$\dagger$を付与した.\end{table}faq-scorerは比較手法よりも高いP@1となった.一方で他の評価値はtfidf\_FAQ+queryを下回った.Basefeaturesおよびtfidf\_FAQ+queryに加えてfaq-scorerを素性としてランキングモデルを学習することでどの評価値も他の比較手法より高くなったことから,文書分類器を素性として加えることで,精度改善に貢献することがわかる.\subsubsection{結果分析}正例として生成された問い合わせ数が文書分類器に及ぼす影響を調べるため,評価データに含まれるFAQを正例として生成された問い合わせ数でまとめてfaq-scorerおよびtfidf\_FAQ+queryのMRRを算出した結果を図\ref{fig:mrr-numtrain}に示す.プロットする学習データの数は25までとした.評価データの数が多くないためばらつきがみられるが,生成される学習データの数が多いFAQほど,文書分類器は正しく分類できる傾向にあることを確認できる.一方で学習データが少ないFAQに対してはtfidf\_FAQ+queryよりも誤りが多い.\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f3.eps}\end{center}\caption{評価データ中のFAQの集合を正例として生成された問い合わせ数でまとめて算出したMRR}\label{fig:mrr-numtrain}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-1ia6f4.eps}\end{center}\hangcaption{Basefeatures+tfidf\_FAQ+queryのMRRの学習曲線.横軸は利用した学習データの件数を表し,縦軸はMRRを表す.}\label{fig:mrr-lr}\end{figure}提案手法に対する学習データの影響を調べるため,学習データの数を変えて実験した.Basefeatures+tfidf\_FAQ+queryのMRRの学習曲線を図\ref{fig:mrr-lr}に示す.MRRの学習曲線をプロットするために,学習データとしてFAQと問い合わせの対応を1,000件ずつ増やして文書分類器およびランキングモデルを学習している.提案手法は学習データの量に応じてMRRが向上している.表\ref{tab:human-eval-pair}が示すようなある程度ノイズを含むような学習データであっても,量を増やすことでランキングの性能向上に貢献していることがわかる.文書分類器は問い合わせに出現する単語などを素性として分類するため,問い合わせのトピックが複数存在するような場合に誤りやすいと考えられる.ただし,トピックを明示的に与えることが難しい.そこで問い合わせの単語数が長いほど複数のトピックが出現しやすいという仮定のもと,問い合わせの単語数に応じてMRRの評価値を算出する.評価データを単語数で10刻みで分割し,単語数が1から100までの問い合わせ集合に対して,Basefeatures\&faq-scorerとtfidf\_FAQについてMRRを評価した.結果を表\ref{tab:mrr_each_num_token}に示す.単語数が1から10個の問い合わせは,単語数が10個以上の問い合わせに比べてMRRが高くなる傾向にあるが分かる.このことから,単語数が多い問い合わせに対しては質問のトピックを認識するような技術が必要であるが,これは今後の課題とする.\begin{table}[t]\caption{全文検索とBasefeatures+tfidf\_FAQ+queryの単語数ごとのMRR}\label{tab:mrr_each_num_token}\input{06table03.txt}\end{table}最後に,学習結果の内容の詳細を確認するため,「○○カードを紛失・盗難・破損した場合の手続き」というFAQについて,文書分類器の学習結果の内容を調べた.大きい重みのついた素性から順に眺め,人手で選択した素性を表\ref{tab:feature}に示す.自動生成した学習データを用いることで,「磁気不良」「おとした」等のこのFAQの質問や回答には出現しない表現であるが,判別に寄与する語彙を学習していることがわかる.\begin{table}[t]\caption{FAQ「○○カードを紛失・盗難・破損した場合の手続き」の学習結果の中で重みが大きい素性}\label{tab:feature}\input{06table04.txt}\end{table}
\section{おわりに}
本論文では,FAQおよび問い合わせ履歴が持つ特徴を利用して自動生成した学習データを用いて,問い合わせを対応するFAQへ分類する文書分類器を学習し,その文書分類器の出力をランキング学習の素性として用いる手法を提案した.ある企業のFAQを用いた評価実験から,提案手法がFAQ検索の性能向上に貢献することを確認した.今後は,学習データの自動生成方法をより改善すること,さらに,より検索対象が多い場合でも同様の結果が得られるか検証したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown:93}Brown,P.~F.,Pietra,V.J.~D.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Cao,Cong,Cui,\BBA\Jensen}{Caoet~al.}{2010}]{cao:10}Cao,X.,Cong,G.,Cui,B.,\BBA\Jensen,C.~S.\BBOP2010\BBCP.\newblock\BBOQAGeneralizedFrameworkofExploringCategoryInformationforQuestionRetrievalinCommunityQuestionAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonWorldWideWeb},WWW'10,\mbox{\BPGS\201--210}.ACM.\bibitem[\protect\BCAY{Cao,Cong,Cui,Jensen,\BBA\Zhang}{Caoet~al.}{2009}]{cao:09}Cao,X.,Cong,G.,Cui,B.,Jensen,C.~S.,\BBA\Zhang,C.\BBOP2009\BBCP.\newblock\BBOQTheUseofCategorizationInformationinLanguageModelsforQuestionRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement},CIKM'09,\mbox{\BPGS\265--274}.ACM.\bibitem[\protect\BCAY{Crammer,Kulesza,\BBA\Dredze}{Crammeret~al.}{2009}]{koby:09}Crammer,K.,Kulesza,A.,\BBA\Dredze,M.\BBOP2009\BBCP.\newblock\BBOQAdaptiveRegularizationofWeightVectors.\BBCQ\\newblockInBengio,Y.,Schuurmans,D.,Lafferty,J.~D.,Williams,C.K.~I.,\BBA\Culotta,A.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems22},\mbox{\BPGS\414--422}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Jeon,Croft,\BBA\Lee}{Jeonet~al.}{2005}]{jeon:05}Jeon,J.,Croft,W.~B.,\BBA\Lee,J.~H.\BBOP2005\BBCP.\newblock\BBOQFindingSimilarQuestionsinLargeQuestionandAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe14thACMInternationalConferenceonInformationandKnowledgeManagement},CIKM'05,\mbox{\BPGS\84--90}.ACM.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims:02}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesUsingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},KDD'02,\mbox{\BPGS\133--142}.ACM.\bibitem[\protect\BCAY{Riezler,Vasserman,Tsochantaridis,Mittal,\BBA\Liu}{Riezleret~al.}{2007}]{riezler:07}Riezler,S.,Vasserman,A.,Tsochantaridis,I.,Mittal,V.,\BBA\Liu,Y.\BBOP2007\BBCP.\newblock\BBOQStatisticalMachineTranslationforQueryExpansioninAnswerRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\464--471}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Robertson\BBA\Jones}{Robertson\BBA\Jones}{1994}]{robertson:94}Robertson,S.~E.\BBACOMMA\\BBA\Jones,K.~S.\BBOP1994\BBCP.\newblock\BBOQSimple,ProvenApproachestoTextRetrieval.\BBCQ\\newblock\BTR\TechnicalReportNo.356.\bibitem[\protect\BCAY{Sato}{Sato}{2015}]{sato:15}Sato,T.\BBOP2015\BBCP.\newblock\BBOQNeologismDictionarybasedontheLanguageResourcesontheWebforMeCab.\BBCQ\\texttt{https://github.com/neologd/mecab-ipadic-neologd}.\bibitem[\protect\BCAY{Sculley}{Sculley}{2009}]{sculley:09}Sculley,D.\BBOP2009\BBCP.\newblock\BBOQLargeScaleLearningtoRank.\BBCQ\\newblockIn{\BemNIPSWorkshoponAdvancesinRanking}.\bibitem[\protect\BCAY{Singh}{Singh}{2012}]{singh:12}Singh,A.\BBOP2012\BBCP.\newblock\BBOQEntitybasedQ\&ARetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1266--1277}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Soricut\BBA\Brill}{Soricut\BBA\Brill}{2004}]{soricut:04}Soricut,R.\BBACOMMA\\BBA\Brill,E.\BBOP2004\BBCP.\newblock\BBOQAutomaticQuestionAnsweringUsingtheWeb:BeyondtheFactoid.\BBCQ\\newblockInSusan~Dumais,D.~M.\BBACOMMA\\BBA\Roukos,S.\BEDS,{\BemHLT-NAACL2004:MainProceedings},\mbox{\BPGS\57--64}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Wang,Wan,Zhang,\BBA\Hoi}{Wanget~al.}{2015}]{wang:15}Wang,J.,Wan,J.,Zhang,Y.,\BBA\Hoi,S.\BBOP2015\BBCP.\newblock\BBOQSOLAR:ScalableOnlineLearningAlgorithmsforRanking.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1692--1701}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Xue,Jeon,\BBA\Croft}{Xueet~al.}{2008}]{xue:08}Xue,X.,Jeon,J.,\BBA\Croft,W.~B.\BBOP2008\BBCP.\newblock\BBOQRetrievalModelsforQuestionandAnswerArchives.\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},SIGIR'08,\mbox{\BPGS\475--482}.ACM.\bibitem[\protect\BCAY{Zhou,Liu,Liu,Zeng,\BBA\Zhao}{Zhouet~al.}{2013}]{zhou:13}Zhou,G.,Liu,Y.,Liu,F.,Zeng,D.,\BBA\Zhao,J.\BBOP2013\BBCP.\newblock\BBOQImprovingQuestionRetrievalinCommunityQuestionAnsweringUsingWorldKnowledge.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalJointConferenceonArtificialIntelligence},IJCAI'13,\mbox{\BPGS\2239--2245}.AAAIPress.\end{thebibliography}\appendix
\section{Elasticsearchで利用したtfidfスコアの計算式}
label{ap:es}本論文でElasticsearchを利用したFAQのスコア計算は2種類ある.1つはFAQの質問と回答を利用する場合で,もう1つはFAQの質問と回答および$D$中のそのFAQに対して生成された学習データを利用する場合である.FAQが質問$Q$,回答$A$とフィールドを分けて索引付けしている場合,問い合わせ$I$を入力としたときのFAQのスコアは次のように計算する.\pagebreak\begin{equation}\textrm{score}(Q,A,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I)),\label{eq:es-base}\end{equation}この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高いスコアとなる.FAQが質問$Q$,回答$A$に加えて,$D$中でそのFAQに対して生成された学習データ$\{I'_l\}_{l=1}^L$と3つのフィールドで索引付けしている場合,問い合わせ$I$に対するFAQのスコアを次のように計算する.\begin{equation}\textrm{score}(Q,A,\{I'_l\}_{l=1}^L,I)=\max_{Q,A}(\textrm{tfidf\_sim}(Q,I),\textrm{tfidf\_sim}(A,I))+\max_{{I'}_{l}}\textrm{tfidf\_sim}(I,I'_l),\label{eq:es}\end{equation}この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高く,さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在するFAQに対して高いスコアとなる.質問,回答,学習データなどの検索対象を$T$,$T$の索引語の数を$|T|$,$T$の索引語と一致する問い合わせ中の名詞,動詞,形容詞からなる単語集合を$\{i_s\}_{s=1}^{S}$とすると,以下のようにtfidfに基づく類似度を次のように設定した.\begin{equation}\textrm{tfidf\_sim}(T,I)=\textrm{coord}\sum_{s=1}^S(\textrm{tf}(i_s)\cdot\textrm{idf}(i_s)^2\cdot\textrm{fieldNorm}),\nonumber\end{equation}ただし,\begin{align*}\textrm{coord}&=\frac{S}{|I|},\\\textrm{fieldNorm}&=\frac{1}{|T|},\end{align*}とする.coordは$T$がより多くの単語を含んでいる検索クエリを含んでいるほど高い値を取る.fieldNormは$T$の索引語の数$|T|$が大きいほど小さい値を取る.\begin{biography}\bioauthor{牧野拓哉}{2012年東京工業大学総合理工学研究科物理情報システム専攻修士課程修了.同年,(株)富士通研究所入社.自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{野呂智哉}{2002年東京工業大学大学院情報理工学研究科計算工学専攻修士課程修了.2005年同専攻博士課程修了.同専攻助手,助教を経て,2015年(株)富士通研究所入社.現在に至る.博士(工学).自然言語処理の研究開発に従事.言語処理学会会員.}\bioauthor{岩倉友哉}{2003年(株)富士通研究所入社.2011年東京工業大学大学院総合理工学研究科物理情報システム専攻博士課程修了.博士(工学).現在,(株)富士通研究所主任研究員.自然言語処理の研究開発に従事.情報処理学会,言語処理学会会員.}\end{biography}\biodate\end{document}
| |
V06N01-03
|
\section{はじめに}
\label{sec:introduction}電子化テキストの急増などに伴い,近年,テキストから要点を抜き出す重要文選択技術の必要性が高まってきている.このような要請に現状の技術レベルで応えるためには,表層的な情報を有効に利用することが必要である.これまでに提案されている表層情報に基づく手法では,文の重要度の評価が主に,1)文に占める重要語の割合,2)段落の冒頭,末尾などのテキスト中での文の出現位置,3)事実を述べた文,書き手の見解を述べた文などの文種,4)あらかじめ用意したテンプレートとの類似性などの評価基準のいずれか,またはこれらを組み合わせた基準に基づいて行なわれる\cite{Luhn58,Edmundson69,Kita87,Suzuki88,Mase89,Salton94,Brandow95,Matsuo95,Sato95,Yamamoto95,Watanabe96,Zechner96,FukumotoF97,Nakao97}.本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて文の重要度を決定する手法を提案する.提案する手法では文の重要度に関して次の仮定を置く.\begin{enumerate}\item表題はテキスト中で最も重要な文である.\item重要な文とのつながりが強ければ強いほど,その文は重要である.\end{enumerate}表題はテキストの最も重要な情報を伝える表現であるため,それだけで最も簡潔な抄録になりえるが,多くの場合それだけでは情報量が十分でない.従って,不足情報を補う文を選び出すことが必要となるが,そのような文は,表題への直接的なつながりまたは他の文を介しての間接的なつながりが強い文であると考えられる.このような考え方に基づいて,文から表題へのつながりの強さをその文の重要度とする.文と文のつながりの強さを評価するために次の二つの現象に着目する.\begin{enumerate}\item人称代名詞と先行(代)名詞の前方照応\item同一辞書見出し語による語彙的なつながり\end{enumerate}重要文を選択するために文間のつながりを解析する従来の手法としては,1)接続表現を手がかりとして修辞構造を解析し,その結果に基づいて文の重要度を評価する手法\cite{Mase89,Ono94}や,2)本稿と同じく,語彙的なつながりに着目した手法\cite{Hoey91,Collier94,FukumotoJ97,Sasaki93}がある.文と文をつなぐ言語的手段には,照応,代用,省略,接続表現の使用,語彙的なつながりがある\cite{Halliday76,Jelinek95}が,接続表現の使用頻度はあまり高くない\footnote{文献\cite{Halliday76}で調査された七編のテキストでは,照応,代用,省略,接続表現の使用,語彙的なつながりの割合は,それぞれ,32\%,4\%,10\%,12\%,42\%である\cite{Hoey91}.}.このため,前者の手法には,接続表現だけでは文間のつながりを解析するための手がかりとしては十分でないという問題点がある.後者の手法では,使用頻度が比較的高い照応を手がかりとして利用していない.
\section{テキストの結束を維持する手段}
\label{sec:coherence}適格なテキストでは通常,文と文の間につながりがある.二つの文をつなぐ言語的手段のうち照応と語彙的なつながりは,他の結束維持手段よりも頻繁に見られる.照応は,二つのテキスト構成要素が一つの事象に言及することによってテキストの結束を生む手段である.前方照応では,ある要素の解釈が,テキスト中でその要素より前方に現れる先行要素に依存して決まる.ある要素$Y$とその先行要素$X$の間で照応が成り立つためには,1)$Y$は$X$を縮約した言語形式であり,2)$Y$の意味と$X$の意味は矛盾してはならない\cite{Jelinek95}.例えば,代名詞は名詞句を,名詞句は分詞節を,分詞節は文をそれぞれ縮約した言語形式である.次のテキスト\ref{TEXT:dismiss}\,では斜体の表現の意味は互いに矛盾しないので,それらはいずれも同一事象を指しているとみなせる.\begin{TEXT}\text{\itTheSovietNationalEmergencyCommitteedismissedPresidentGorbachovfromoffice.}Aswellas{\itdismissingthePresident},theCommitteeembarkeduponchoosinghisreplacement.{\itGorbachov'sdismissal}isboundtoputWesternpoliciesvis-a-vistheSovietUnionintogreatturmoil.{\itIt}willhavegraverepercussionsontheexchangerates.\label{TEXT:dismiss}\end{TEXT}語彙的なつながりでは,照応と異なり,二つのテキスト構成要素が同一事象に言及しているとは限らない\cite{Halliday76}.次のテキスト\ref{TEXT:boy_same}\,では第二文の``boy''は先行文の``boy''と同じ少年に言及しているが,テキスト\ref{TEXT:boy_exclude}\,では別の少年に言及している.\begin{TEXT}\textThere'sa{\itboy}climbingthattree.The{\itboy}'sgoingtofallifhedoesn'ttakecare.\label{TEXT:boy_same}\textThere'sa{\itboy}climbingthattree.Andthere'sanother{\itboy}standingunderneath.\label{TEXT:boy_exclude}\end{TEXT}テキスト\ref{TEXT:boy_same}\,と\ref{TEXT:boy_exclude}\,では同一辞書見出し語が繰り返されているが,類義語や上位概念語などの使用によって語彙的なつながりが生じることもある.次のテキスト\ref{TEXT:boy_lad}\,では``boy''の類義語``lad''が用いられている.\begin{TEXT}\textThere'sa{\itboy}climbingthattree.The{\itlad}'sgoingtofallifhedoesn'ttakecare.\label{TEXT:boy_lad}\end{TEXT}\vspace{-3mm}
\section{文の重要度の評価}
\label{sec:importance}\subsection{テキスト構造と文の重要度に関する仮定}\label{sec:importance:assumption}本稿では,テキストを構成する文$S_1,S_2,\cdots,S_n$の間で次の条件が成り立つと仮定する.\begin{enumerate}\item冒頭文$S_1$はどの文にもつながらない.\item$S_1$以外の各文$S_j$について,$S_j$が直接つながる先行文$S_i(i<j)$が唯一つ存在する.\end{enumerate}この仮定は,二つの文(の構成要素)のつながりに,後続文(の構成要素)から先行文(の構成要素)への方向性があることを意味する.この方向性に対する反例として後方照応\cite{Hirst81}があるが,後方照応が用いられることは希である\footnote{提案手法の開発に際して訓練用に用いた英文テキスト20編では,代名詞による照応のうち後方照応は3\%に満たなかった.}.また,この仮定に従えば,文が同時に複数の先行文に直接つながることはないので,テキスト構造は,図\ref{fig:texttree}\,に示すように,冒頭文$S_1$を根節点とする木で表される.\begin{figure}[htbp]\begin{center}\epsfile{file=texttree.eps,width=0.7\columnwidth}\end{center}\caption{文の重要度の評価}\label{fig:texttree}\end{figure}\ref{sec:introduction}\,節で述べたように,本稿では,文の重要度の評価を,1)表題はテキスト中で最も重要な文であり,2)重要な文へのつながりが強い文ほど重要な文であるという仮定に基づいて行なう.この仮定は次のように具体化できる.\begin{enumerate}\itemテキストの冒頭文$S_1$は,多くの場合,そのテキストの表題であるので,$S_1$にはテキスト全体で最大の重要度を与える.\item冒頭文$S_1$以外の文$S_j$の重要度は$S_j$から先行文$S_i$へのつながりの強さ(関連度)と$S_i$の重要度によって決まると考え,文$S_j$の重要度を求める式を次のように定める.\begin{equation}S_jの重要度=\max_{i<j}\{S_iの重要度\timesS_iとS_jの関連度\}\label{eq:importance}\end{equation}\end{enumerate}文の重要度を(\ref{eq:importance})式で求めることにすると,テキストの冒頭から順に処理を行なっていけば,テキストを構成する文すべての重要度が決定できるが,そのためには,二つの文の関連度をどのようにして求めるかを定めなければならない.\subsection{二文間の関連度の評価}\label{sec:importance:relevance}提案手法への入力はテキストの形態素解析結果である.形態素解析によってテキスト中の各語の辞書見出し語と品詞が得られる.今回利用した形態素解析系からの出力では品詞は一意に決定されている.以降,品詞が名詞,人称代名詞,動詞,形容詞,副詞のいずれかである辞書見出し語を重要語と呼ぶ.文$S_j$の先行文$S_i$へのつながりの強さ(関連度)を求める式を次のように定める.\begin{equation}S_iとS_jの関連度=\frac{S_j中の重要語のうちS_iの題述中の重要語につながるものの重みの和}{S_iの題述中の重要語の数}\label{eq:relevance}\end{equation}(\ref{eq:relevance})式の意味は\ref{sec:importance:relevance:anaphora}\,節以降で説明する.二つの重要語の間につながりがあるかどうかの判定は,人称代名詞と先行(代)名詞の前方照応を検出すること(\ref{sec:importance:relevance:anaphora}\,節)と,同一辞書見出し語による語彙的なつながりを検出すること(\ref{sec:importance:relevance:lexical}\,節)によって行なう.重要語への重み付けについては\ref{sec:importance:relevance:title_weight}\,節で述べ,本稿でいう文の題述(rheme)の定義は\ref{sec:importance:relevance:rheme}\,節で与える.\vspace{-1mm}\subsubsection{人称代名詞と先行(代)名詞の照応の検出}\label{sec:importance:relevance:anaphora}\vspace{-1mm}人称代名詞と先行名詞または先行代名詞との照応を検出するためには,両者の人称,性,数,意味素性をそれぞれ照合する必要がある.しかし,今回は,名詞の性と意味素性が記述されていない辞書を用いたので,照応の検出は両者の人称,数をそれぞれ照合することによって行なった.しばしば指摘されるように,代名詞との間で照応が成り立つ先行(代)名詞は,その代名詞を含む文$S_j$あるいは$S_j$の直前の文$S_{j-1}$に現れることが多い\footnote{訓練テキスト20編では,人称代名詞による前方照応のうち96\%がこのような事例であった.}ので,先行(代)名詞の検索対象文を$S_j$と$S_{j-1}$に限定する.検索は$S_j$,$S_{j-1}$の順で行ない,$S_j$中の(代)名詞との照合が成功した場合は,$S_{j-1}$に対する処理は行なわない.\vspace{-1mm}\subsubsection{重要語の語彙的なつながりの検出}\label{sec:importance:relevance:lexical}\vspace{-1mm}二つの文に現れる重要語が文字列として一致するとき,両者の間に語彙的なつながりがあるとみなす.ここでは,\ref{sec:coherence}\,節で述べたような,二つの語が同一事象に言及しているかどうかの区別は行なわない.文字列照合において,照合対象が両方とも単語である場合は,二つの重要語が完全に文字列一致したときに限り照合成功とみなすが,照合対象の両方またはいずれか一方が辞書に登録されている連語である場合は,両者が前方一致または後方一致したときも照合成功とみなす.例えば,``putpressureon''と``put''は前方一致で,``cabinetmeeting''と``meeting''は後方一致で照合が成功する.二つの文がある一定の距離以上離れていると,それらに含まれる重要語の文字列照合が成功しても二つの文の間に直接的なつながりはないと考えられる.このため,二文間の距離に関して制限を設ける.提案手法を開発する際に訓練用として用いた英文テキスト20編において,文字列照合が成功する重要語(人称代名詞は除く)を含む二つの文の間の距離と,その重要語が二つの文を直接つなぐ役割を実際に果たしているかどうかとの関連を調べた結果に基づいて,処理対象範囲を文$S_j$から五文前までの先行文$S_i(j-5\lei<j)$とする.直観的には,単に処理対象範囲を制限するだけでなく,文字列照合が成功する重要語を含む二文間の距離に応じて照合結果に重み付けを行なう方が自然かもしれない.このため,訓練テキストを対象とした実験において,文$S_j$から五文前までの先行文$S_i$の範囲で,二つの文の距離が離れるにつれてつながりの強さが弱まるように重み付けを試みた.しかし,重み付けを行なわない場合の再現率と適合率を上回る結果は得られなかった.このため,本稿では処理範囲を制限するに留める.\vspace{-1mm}\subsubsection{表題語への重み付け}\label{sec:importance:relevance:title_weight}\vspace{-1mm}テキストの表題中に現れる重要語(以降,表題語と呼ぶ)は,そのテキストにおいて重要な情報を伝えると考えられる.従って,表題語を含む文の重要度を大きくするために,他の重要語に与える重みの値よりも大きな値を与えること\cite{Edmundson69,Mase89,Watanabe96}が適切である.本稿では,表題語への重み付けを行なう際にテキスト中での表題語の出現頻度を考慮する.すなわち次のような仮定を置く.\begin{quote}表題語を含む文の重要性は,表題語がテキスト中に頻繁に現れる場合は,表題語を含まない文の重要性に比べて特に高いわけではないが,表題語がテキスト中に希にしか現れない場合には,表題語を含まない文に比べて特に高くなる.\end{quote}訓練テキスト20編を分析した結果に基づいて,表題語を含む文の数がテキストの総文数の$1/4$以下である場合に限り,表題語の重みを$w(>1)$とする.表題語以外の重要語の重みは常に1とする.\[重要語kwの重み=\left\{\begin{array}{lp{0.6\columnwidth}}w(>1)&$kw$が表題語であり,かつ$kw$を含む文の数が総文数の1/4以下の場合\\1&その他\end{array}\right.\]重み$w$の具体的な値は,訓練テキストを対象とした実験で再現率と適合率ができるだけ高くなるように調整し,最終的に$w=5$とした.\vspace{-1mm}\subsubsection{先行文の題述へのつながり}\label{sec:importance:relevance:rheme}テキストは,通常,先行文$S_i$における題述(rheme)が文$S_j$においてその主題(theme)として受け継がれ,それに新たな情報が付け加わるという形で展開する\cite{Givon79}.従って,文$S_j$の先行文$S_i$へのつながりの強さの評価を,$S_j$が$S_i$の題述をどれだけ多く主題として受け継いでいるかに基づいて行なう.主題と題述は,文の前半部分が主題,後半部分が題述というように文中の位置で区別されることが多い\cite{Fukuchi85}が,本稿では,文中の位置ではなく,関連文とのつながりに基づいて区別する.ここで,$S_j$の関連文とは,\ref{sec:importance:assumption}\,節の(\ref{eq:importance})式において,\{$S_i$の重要度$\times$$S_i$と$S_j$の関連度\}の値が最大となるときの先行文$S_i$を意味する.この値を最大にする先行文が複数存在する場合は,$S_j$との距離が最も近いものを関連文と呼ぶ.関連文とのつながりに基づいて主題と題述を次のように定める.\begin{quote}文$S_j$の主題は,$S_j$中の重要語のうち$S_j$の関連文中の重要語につながるものから構成され,文$S_j$の題述は,つながらない重要語から構成される.ただし,関連文を持たない冒頭文$S_1$では,それに含まれる重要語すべてが題述を構成する.\end{quote}例えば,図\ref{fig:texttree}\,において,括弧\{と\}で括った英大文字を各文に現れる重要語とすると,各文の主題と題述は表\ref{tab:theme-rheme}\,のように分けられる.\begin{table}[htbp]\caption{図\protect\ref{fig:texttree}\,の各文の主題と題述}\label{tab:theme-rheme}\begin{center}\begin{tabular}{|c||c|l|l|}\hline文&関連文&\multicolumn{1}{|c}{主題}&\multicolumn{1}{|c|}{題述}\\\hline\hline$S_1$&---&\multicolumn{1}{c|}{---}&A,B,C\\$S_2$&$S_1$&A&D,E\\$S_3$&$S_2$&A,D,E&F\\$S_4$&$S_1$&B,C&G\\:&:&\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}\\$S_{j-1}$&$S_2$&D&H\\\hline\end{tabular}\end{center}\end{table}\subsection{重要文選択手順と処理例}\label{sec:importance:algorithm}\ref{sec:importance:assumption}\,節と\ref{sec:importance:relevance}\,節で述べた考え方に従って重要文を選ぶ処理は図\ref{fig:algorithm}\,のようにまとめられる.\begin{figure}[htbp]\samepage\begin{center}\fbox{\begin{minipage}{0.9\columnwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGO}\step入力を形態素解析する.\step表題語への重み付け処理を行なう.\step冒頭文$S_1$の重要度を次式で求める.\[S_1の重要度=\frac{S_1中の重要語の重みの和}{S_1の重要語の数}\]\label{ALGO:init}\step各文$S_j(j=2,3,\cdots,n)$について,$S_j$から五文前までの先行文$S_i$の範囲$(j-5\lei<j)$で,\ref{sec:importance:assumption}\,節の(\ref{eq:importance})式と\ref{sec:importance:relevance}\,節の(\ref{eq:relevance})式に従って重要度を求める.\stepあらかじめ定められた数だけ文を重要度の順に選択し,それらをテキストでの出現順に出力する.\end{ALGO}\vspace*{0.5em}\end{minipage}}\end{center}\caption{重要文選択手順}\label{fig:algorithm}\end{figure}例として,図\ref{fig:example}\,のテキストを処理して得られる結果を表\ref{tab:example_result}\,に示す.このテキストでは,表題語``amorphous'',``Si'',``TFT''を含む文はそれぞれ三文,三文,五文存在し\footnote{表題も含めて数えている.},いずれもテキスト総文数10文の$1/4$を越えるので,表題語への重み付けは行なわれない.表\ref{tab:example_result}\,の「つながり語」欄に現れる記号$\phi$は,先行文の題述中の重要語につながる重要語が存在しなかったことを意味する.このテキストからは,文選択率が25\%に設定されているとき,表題$S_1$,$S_1$につながる文$S_4$,$S_4$につながる文$S_6$の三文が重要文として選び出される.\begin{figure}[htbp]\samepage\begin{center}\fbox{\begin{minipage}{0.9\columnwidth}\vspace*{0.5em}\small{\begin{NEWS}\item[$S_1$]AmorphousSiTFT\item[$S_2$]ActivematrixLCDswhicharetypicallyusedinproductssuchasLCDcolorTVsarecontrolledbyaswitchingelementknownasathin-filmtransistororthin-filmdiodeplacedateachpixel.\item[$S_3$]Thefundamentalconceptwasrevealedin1961byRCAofAmerica,aU.S.company,butbasicresearchonlybeganinthe1970's.\item[$S_4$]AmorphousSiTFTLCDsintroducedin1979and1980havebecomethemainstreamfortoday'sactivematrixdisplays.\item[$S_5$]Theseunitsplaceanactiveelementateachpixel,andtakingadvantageofthenon-linearityoftheactiveelement,areabletoapplysufficientdrive-voltagemargintotheliquidcrystalitself,evenwiththeincreaseinthenumberofscanlines.\item[$S_6$]AsshowninFigure1,TFTLCDsthatuseamorphousSithin-filmtransistors(TFTs)astheactiveelementsarebecomingthemainstreamtoday,andfull-colordisplaysachievingcontrastratiosof100:1andwhichcomparefavorablytoCRTsarebeingdeveloped.\item[$S_7$]ThedriverelectronicsforTFTLCDsconsistofdata-linedrivecircuitrythatappliesdisplaysignalstothedatalines(sourcedrivers)andscanninglinedrivecircuitrythatappliesscanningsignalstothegatelines(gatedrivers).\item[$S_8$]Asignalcontrolcircuittocontroltheseoperationsandapowersupplycircuitcompletethesystem.\item[$S_9$]LiquidcrystalmaterialsusedinTFTLCDsareTN(twistednematic)liquidcrystals,butdespitethefactthatpixelcountshaveincreasedandadriveelementisplacedateachpixel,wehavestillbeenabletorapidlyincreasethecontrast,viewingangle,andimagequalityofthesedisplays.\item[$S_{10}$]However,manufacturingtechnologiestofabricateseveralhundredthousandsuchelementsontothesurfaceofalargescreenareextremelyproblematic,andthefundamentalapproachdevelopedin1987isstillbeingusedtoday.\end{NEWS}}\vspace*{0.5em}\end{minipage}}\end{center}\caption{テキスト例}\label{fig:example}\end{figure}\begin{table}[htbp]\caption{図\protect\ref{fig:example}\,のテキストに対する処理結果}\label{tab:example_result}\begin{center}\small{\begin{tabular}{|c||c|l|c|c|c|}\hline文&関連文&\multicolumn{1}{|c|}{つながり語}&関連度&重要度&選択順位\\\hline\hline$S_1$&---&\multicolumn{1}{|c|}{---}&---&1&1\\$S_2$&---&$\phi$&0&0&---\\$S_3$&---&$\phi$&0&0&---\\$S_4$&$S_1$&amorphous,Si,TFT&3/3&1&2\\$S_5$&$S_4$&active&1/9&1/9&7\\$S_6$&$S_4$&LCD,active,become,mainstream,today,display&6/9&2/3&3\\$S_7$&$S_4$&LCD,display&2/9&2/9&4\\$S_8$&$S_7$&signal&1/13&2/117&8\\$S_9$&$S_4$&LCD,display&2/9&2/9&5\\$S_{10}$&$S_6$&element,develop,use&3/16&1/8&6\\\hline\end{tabular}}\end{center}\end{table}
\section{実験と考察}
\label{sec:experiment}重要文選択実験には英文報道記事100編を用いた.100編のテキストを訓練用の20編と試験用の80編に分けた.まず,訓練テキスト20編を対象として実験を繰り返し,再現率と適合率ができるだけ高くなるように,\ref{sec:importance:relevance:title_weight}\,節で述べた表題語の重みを調整した.次に,訓練テキストを対象とした実験で最も高い再現率と適合率が得られた設定で,試験テキスト80編を対象として実験を行なった.テキストの総文数は,訓練テキストの場合,最も短いもので15文,最も長いもので36文,一テキスト当たりの平均では26.2文であり,試験テキストの場合,それぞれ12文,64文,29.0文であった.各テキストについて,第三者(一名)によって重要と判断された文を,選択すべき正解文とした.人手による正解文の選択では,システムが行なっているような各文についての選択順位付けは行なわず,テキスト中の各文についてそれが重要な文であるかそうでないかを判断するに留めた.正解文の数は,訓練テキストの場合,平均で元テキストの総文数の20.8\%であり,試験テキストの場合17.9\%であった.\subsection{訓練テキストでの実験結果}\ref{sec:importance:relevance:title_weight}\,節で述べた表題語への重み付けに関して次のような三種類の設定で,各訓練テキストについて正解文と同じ数だけ文を選択した場合の平均精度(再現率と適合率は同じ値となる)を表\ref{tab:training}\,に示す.\begin{CONFIG}\config表題語を含む文の数がテキスト総文数の$1/4$以下である場合に限り,表題語の重みを5とする.表題語以外の重要語の重みは1とする.\label{CONFIG:freq}\config表題語の重みをその出現頻度に関係なく常に5とする.表題語以外の重要語の重みは1とする.\label{CONFIG:always}\config表題語の重みを他の重要語の重みと同じ1とする.\label{CONFIG:none}\end{CONFIG}\newpage\begin{table}[htbp]\caption{訓練テキスト20編での実験結果}\label{tab:training}\begin{center}\begin{tabular}{|c||c|c|c|}\hline設定&\ref{CONFIG:freq}&\ref{CONFIG:always}&\ref{CONFIG:none}\\\hline\hline精度&71.0\%&70.0\%&62.5\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:training}\,によれば,設定\ref{CONFIG:freq}\,での精度が最も高くなっており,\ref{sec:importance:relevance:title_weight}\,節で示した,出現頻度を考慮した表題語への重み付けが有効であることがわかる.\subsection{試験テキストでの実験結果}訓練テキストを対象とした実験で最も高い再現率と適合率が得られた設定で,80編の各試験テキストについて正解文と同じ数だけ文を選択した場合の精度は,平均で72.3\%であった.各テキストごとの精度分布を図\ref{fig:distri}\,に示す.\begin{figure}[htbp]\begin{center}\input{distri.tex}\end{center}\caption{提案手法による精度分布}\label{fig:distri}\end{figure}文選択率を5\%から100\%まで五刻みで変化させたときの平均再現率と平均適合率の変化の様子を図\ref{fig:rec_pre}\,に示す.図\ref{fig:rec_pre}\,には,精度比較のために実装した重要語密度法による実験結果を併せて示す.重要語密度法に関して改良手法が提案されている\cite{Suzuki88}が,ここでは次式で文$S$の重要度を評価した.\[文Sの重要度=\frac{文S中の各重要語のテキスト全体での出現頻度の和}{文S中の重要語の数}\]図\ref{fig:rec_pre}\,によれば,一般的な抄録において適切な文選択率であるとされる20\%から30\%までの付近で,特に,提案手法の精度が重要語密度法の精度を大きく上回っている.\begin{figure}[htbp]\begin{center}\input{denst_source.tex}\end{center}\caption{提案手法と重要語密度法の精度比較}\label{fig:rec_pre}\end{figure}提案手法の精度と,インターネット上で試用可能なシステムAと,市販されている三つのシステムB,C,Dの精度を比較した.それぞれの平均再現率と平均適合率を表\ref{tab:comparison}\,に示す.システムA,B,C,Dの文選択率は,各システムの既定状態で選ばれた文の数とテキストの総文数から逆算したものである.提案手法の文選択率は,四システムの文選択率とほぼ同じである25\%とした.表\ref{tab:comparison}\,によれば,一般ユーザに利用されている実動システムの精度を提案手法の精度が上回っており,提案手法の実用的な抄録システムとしての有効性が示されている.\begin{table}[htbp]\caption{提案手法と他の実動システムの精度比較}\label{tab:comparison}\begin{center}\begin{tabular}{|c||r|r|r|}\hline&\multicolumn{1}{c}{再現率}&\multicolumn{1}{|c|}{適合率}&\multicolumn{1}{|c|}{文選択率}\\\hline\hline提案手法&78.2\%&57.7\%&25\%\\%\hlineシステムA&72.3\%&52.6\%&26\%\\%\hlineシステムB&61.7\%&39.5\%&29\%\\%\hlineシステムC&61.4\%&40.9\%&29\%\\%\hlineシステムD&57.5\%&42.2\%&27\%\\\hline\end{tabular}\end{center}\end{table}\subsection{考察}\label{sec:experiment:discussion}提案手法によって正解文に与えられた重要度が小さく,正解文が選択されなかった原因を分析した.ここでは代表的な原因を二つ挙げる.一つは,辞書見出し語の文字列照合では,語彙的なつながりが捉えられなかったことである.あるテキストでは,``shooting''と``gunfire''の類義関係が把握できないため,``gunfire''を含む正解文はどの先行文にもつながらないとみなされ,重要文として選択できなかった.このような語彙的なつながりを捉えるためにはシソーラスが必要となるが,他のテキストでは,辞書見出し語の文字列照合の代わりに語基(base)の文字列照合を行なえば,つながりが捉えられる可能性もあった.例えば,``announce''と``announcement''は,辞書見出し語としては異なるが語基は同一であるので,文字列照合が成功するだろう.本研究では,一般ユーザに利用される実動システムへの組み込みを前提として,高速な処理を実現することを目標の一つとした.実動システムでは,プロトタイプシステムと異なり,重要文選択の精度と共に処理速度も重要視される.シソーラスの検索に比べて,文字列照合は処理効率の点で有利である.正解文に十分大きい重要度が与えられなかったもう一つの原因は,テキストが複数のサブトピックから構成されていることであった.一般に,トピックが切り替わると,それまでとは異なった語彙が用いられるようになる.このため,提案手法のように同一辞書見出し語による語彙的なつながり(と人称代名詞による前方照応)に基づいて文と文のつながりを評価する手法では,トピックが切り替わる文から先行文へのつながりが弱いと判定され,トピック切り替わり文に対して与えられる重要度は小さくなる.従って,トピック切り替わり文が正解文であるようなテキストでは,高い精度を得ることが難しくなる.
\section{おわりに}
本稿では,人称代名詞による前方照応と,同一辞書見出し語による語彙的なつながりを検出することによって,テキストを構成する各文と表題との直接的なつながりまたは他の文を介しての間接的なつながりの強さを評価し,その強さに基づいて各文の重要度を決定する手法を提案した.平均で29.0文から成る英文テキスト80編を対象とした実験では,文選択率を25\%に設定したとき,再現率78.2\%,適合率57.7\%の精度を得,提案手法が比較的短いテキストに対して有効であることを確認した.複数のサブトピックから成るような比較的長いテキストの扱いは今後の課題である.同一辞書見出し語の出現頻度と出現分布を利用してトピックの切り替わりを検出し\cite{Hearst97},各サブトピックごとに提案手法を適用すると,長いテキストに対してどの程度の精度が得られるかを今後検証したい.\bibliographystyle{jnlpbbl}\bibliography{v06n1_03}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)ソフト事業推進センターにて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{奥西稔幸}{1984年大阪大学基礎工学部情報工学科卒業.同年シャープ(株)に入社.1985〜89年(財)新世代コンピュータ技術開発機構に出向.現在,同社情報システム事業本部ソフト事業推進センターに勤務.機械翻訳システムの研究開発に従事.}\bioauthor{山路孝浩}{1990年大阪市立大学理学部数学科修士課程修了.同年シャープ(株)に入社.1993〜95年(財)新世代コンピュータ技術開発機構に出向.現在,同社OAシステム事業部においてワープロの開発に携わる.}\bioauthor{福持陽士}{1982年インディアナ大学言語学部応用言語学科修士課程修了.翌年,シャープ(株)に入社.現在,情報システム事業本部ソフト事業推進センター副参事.機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N03-03
|
\section{はじめに}
日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる.
\section{センター試験『国語』と傍線部問題}
\begin{table}[b]\caption{センター試験『国語』の大問構成—出典\protect\cite{Kakomon2014}}\label{table:questions}\input{1001table01.txt}\vspace{-0.5\Cvs}\end{table}大学入試センター試験の『国語』では,毎年,大問4題が出題される\cite{Kakomon2014}.その大問構成を表\ref{table:questions}に示す.この表に示すように,現代文に関する出題は,第1問の「評論」と第2問の「小説」であり,『国語』の半分を占めている.第1問の「評論」は,何らかの評論から抜き出された文章(本文)と,それに対する6問の設問から構成される.6問の内訳は,通常,以下のようになっている.\begin{description}\item[問1]漢字の書き取り問題が5つ出題される.\item[問2--問5]本文中の傍線部について,その内容や理由が問われる.\item[問6]本文全体にかかわる問題で,2006年以降は本文の論の進め方や本文の構成上の特徴などが問われる.\end{description}一方,第2問の「小説」は,何らかの小説から抜き出された文章(本文)と,それに対する\mbox{6問}の設問から構成される.6問の内訳は,通常,以下のようになっている.\begin{description}\item[問1]語句の意味内容を問う問題が3つ出題される.\item[問2--問5]本文中の傍線部を参照し,登場人物の心情・人物像・行動の理由などが説明問題の形で問われる.\item[問6]本文全体の趣旨や作者の意図,表現上の特徴などが問われる.\end{description}\begin{figure}[b]\begin{center}\includegraphics{21-3ia1001f1.eps}\end{center}\caption{傍線部問題の例(2011年度本試験第1問の問5(2011M-E5))}\label{fig:2011M-E5}\end{figure}これらの設問のうち,「評論」「小説」の両者の\mbox{問2}から\mbox{問5}を{\bf傍線部問題}と呼ぶ.傍線部問題の具体例を図\ref{fig:2011M-E5}に示す.この図に示すように,傍線部問題は,原則として5つの選択肢の中から正解を一つ選ぶ5択問題である.傍線部問題の配点は,2009年度本試験では,第1問32点,第2問\mbox{33点}の計65点であり,現代文の配点100点の約2/3を占める.\subsection*{使用する試験問題}本研究では,2001年度から2011年度の奇数年の大学入試センター試験の本試験および追試験の『国語』(2005年以前は『国語I・II』)を使用する.ただし,諸般の事情により,本文等が欠けているものがあり,それらは使用しない.表\ref{table:all}に,本研究で使用する傍線部問題の一覧を示す.\begin{table}[t]\caption{使用する傍線部問題の一覧}\label{table:all}\input{1001table02.txt}\end{table}なお,以降では,設問を指し示すIDとして,以下のような4つの情報を盛り込んだ形式を採用する.\begin{enumerate}\item年度(4桁)\item試験区分(M:本試験,S:追試験)\item出題区分(E:評論,N:小説)\item設問番号(2,3,4,5)\end{enumerate}たとえば,図\ref{fig:2011M-E5}に示した,2011年度本試験第1問「評論」の問5は,「2011M-E5」と表す.なお,この例に示したとおり,(2)と(3)の間に,ハイフォン`-'を挟む.
\section{傍線部問題の定式化}
\subsection{定式化}センター試験『国語』現代文傍線部問題では,正解となる選択肢の根拠が必ず本文中に存在すると指摘されている\cite{Funaguchi}.そして,その根拠となる部分は,傍線部の付近に存在することが多いことが,板野の分析によって明らかにされている\cite{Itano2010}.我々は,これらの知見に基づき,傍線部問題を,図\ref{fig:formalization}に示すように定式化する.\begin{figure}[t]\begin{center}\includegraphics{21-3ia1001f2.eps}\end{center}\caption{傍線部問題の定式化}\label{fig:formalization}\end{figure}この定式化は,次のことを意味する.\begin{enumerate}\itemそれぞれの設問を入力とする.設問は,本文$T$,設問文$Q$,選択肢集合$C$から構成されるものとする.(図\ref{fig:2011M-E5}では,これらのうち,本文$T$を除いた,設問文$Q$と選択肢集合$C$を示している.)\item設問文$Q$と本文$T$から,選択肢と照合する本文の一部$\widehat{T}=\mathrm{extract}(T,Q)$を定める.\item選択肢集合$C$の中から,実際に本文の一部$\widehat{T}$と照合する部分集合$\widehat{C}=\mathrm{pre\_select}(C,Q)$を定める.これは,選択肢の事前選抜に相当する.\item設問文の極性$\mathrm{polarity}(Q)$を判定する.この関数は,設問文$Q$が「適当なもの」を要求している場合に$+1$を,「適当でないもの」を要求している場合に$-1$を返すものとする.\item事前選択済の選択肢集合$\widehat{C}$に含まれる選択肢$c_i$と,本文の一部$\widehat{T}$との照合スコア$\mathrm{score}(\widehat{T},c_i)$を計算する.これに設問文の極性$\mathrm{polarity}(Q)$をかけたものを,その選択肢の最終スコアとする.\item事前選択済の選択肢集合$\widehat{C}$に含まれる選択肢$c_i$のなかで,最終スコアが最大のものを,解として出力する.\end{enumerate}この定式化の特徴は,図\ref{fig:formalization}に示した(a)--(d)の4つの関数に集約される.これらの背後にある考え方について,以下で説明する.\subsection{本文の一部と照合する}正解の選択肢の根拠となる箇所は,多くの場合,本文中の傍線部の周辺にあると考えるのが妥当である.先に述べたように,この点についての詳細な分析が,板野によってなされている\cite{Itano2010}.実際,我々人間が傍線部問題を解くとき,本文中の傍線部の前後に注目するのは,標準的な戦略である.このような戦略は,選択肢$c_i$を本文$T$全体と照合するのではなく,あらかじめ,本文から,根拠が書かれていそうな部分$\widehat{T}$を抜き出し,$\widehat{T}$と$c_i$の照合スコアを計算することで,具体化できる.本文の一部を取り出す方法として,\begin{enumerate}\item本文の先頭から,当該傍線部までを$\widehat{T}$とする,\item一つ前の設問で参照された傍線部から,当該傍線部までを$\widehat{T}$とする,\item傍線部の前後のある範囲を$\widehat{T}$とする,\end{enumerate}などの方法が考えられ,これらと,採用する単位(文または段落)を組み合わせることにより,多くのバリエーションが生まれることになる.もちろん,設問毎に,設問文$Q$や本文$T$に応じて異なる(適切な)方法を採用してもよい.関数$\mathrm{extract}$は,これらの方法を抽象化したもので,以下のような関数として定義する.\begin{equation}\widehat{T}=\mathrm{extract}(T,Q)\end{equation}なお,厳密に言えば,設問文$Q$には一つ前の設問の傍線部の情報は含まれないが,その情報は本文を参照することによって得られるものと仮定する.事実,センター試験では,傍線部にはA,B,C,Dの記号が順に振られるため,当該傍線部がBであれば,一つ前の設問の傍線部はAであることがわかる.\subsection{照合スコアを採用する}本文の一部$\widehat{T}$が,選択肢$c_i$とどの程度整合するか(その根拠となりうるか)を,照合スコア$\mathrm{score}(\widehat{T},c_i)$として抽象化する.本来的には,整合するかしないかの2値であるが,そのような判定を機械的に下すのは難しいので,0から1の実数をとるものとする.\subsection{設問文の極性を考慮する}ほとんどの傍線部問題の設問文は,「最も適当なものを,次の1〜5のうちから一つ選べ」という形式となっている.しかし,2001S-E4のように,「適当でないものを,次の1〜5のうちから一つ選べ」という形式も存在する.このような「適当でないもの」を選ぶ設問に対しては,照合スコアを逆転させる(照合スコアが最も小さなものを選択する)のが自然である.上記のような設問形式に応じた選択法の変更を採用するために,設問文$Q$の極性を判定する関数$\mathrm{polarity}(Q)$を導入する.この関数は,設問が「適当なもの」を要求している場合に$+1$を,「適当でないもの」を要求している場合に$-1$を返すものとする.\subsection{選択肢の事前選抜を導入する}本定式化では,「設問文と5つの選択肢をよく読めば,本文を参照せずとも,正解にはならない選択肢のいくつかをあらかじめ排除できる」場合が存在すると考え\footnote{実際にセンター試験を受験したことがある複数人の意見に基づく.},選択肢の事前選抜を明示的に導入する.事前選抜$\mathrm{pre\_select}$は,選択肢集合$C$と設問文$Q$から,$C$の部分集合を返す関数として定式化する.\begin{equation}\widehat{C}=\mathrm{pre\_select}(C,Q),\qquad\widehat{C}\subseteqC\end{equation}
\section{実装}
\begin{table}[b]\vspace{-0.3\Cvs}\caption{実装の概要}\label{table:implementation}\input{1001table03.txt}\vspace{-0.3\Cvs}\end{table}前節の定式化に基づいて傍線部問題ソルバーを実装するためには,$\mathrm{score}$,$\mathrm{polarity}$,$\mathrm{extract}$,$\mathrm{pre\_select}$の4つの関数を実装する必要がある.表\ref{table:implementation}に,今回実装した方法の概要を示す(詳細は,以下で説明する).なお,前節の定式化では,正解と考えられる選択肢を一つ出力する形になっているが,実際のシステムは,選択肢を照合スコア順にソートした結果(すなわち,それぞれの選択肢の順位)を出力する仕様となっている.なお,照合スコアが一致した場合は,選択肢番号の若いものを上位とする\footnote{結果に再現性をもたせるために,照合スコアが一致したものからランダムに選ぶ方法は採用しない.}.\subsection{オーバーラップ率}照合スコア$\mathrm{score}$,および,選択肢の事前選抜$\mathrm{pre\_select}$の実装には,オーバーラップ率を用いる.オーバーラップ率の定義には,服部と佐藤の定式化\cite{Hattori2013,SKL2013}を採用する.この定式化では,まず,ある集合$E$を仮定する.この集合の要素が,オーバーラップ率を計算する際の基本単位となる.集合$E$としては,たとえば,文字集合$A$,形態素集合$W$,あるいは,文字$n$-gramの集合$A^n$などを想定する.オーバーラップ率の算出の出発点となる式は,2つの文字列$t_1$と$t_2$に共通に出現する集合$E$の要素の数を求める次式である.\begin{equation}\mathrm{overlap}({E};t_1,t_2)=\sum_{e\inE}\min(\mathrm{fr}(e,t_1),\mathrm{fr}(e,t_2))\end{equation}ここで,$\mathrm{fr}(e,t)$は,文字列$t$における$e\:(\inE)$の出現回数を表す.この値を,$t_2$の長さ,あるいは,$t_1$と$t_2$の長さの和で正規化することにより,オーバーラップ率を定義する.\begin{align}\mathrm{overlap\_ratio}_D(E;t_1,t_2)&=\frac{\mathrm{overlap}(E;t_1,t_2)}{\displaystyle\sum_{e\inE}\mathrm{fr}(e,t_2)}\label{eq:directional}\\\mathrm{overlap\_ratio}_B(E;t_1,t_2)&=\frac{2\\mathrm{overlap}(E;t_1,t_2)}{\displaystyle\sum_{e\inE}\mathrm{fr}(e,t_1)+\sum_{e\inE}\mathrm{fr}(e,t_2)}\end{align}前者の$\mathrm{overlap\_ratio}_D$は,$t_2$の長さのみで正規化したもので,方向性を持った(directional)オーバーラップ率となる.後者の$\mathrm{overlap\_ratio}_B$は,$t_1$と$t_2$の長さの和で正規化したもので,方向性を持たない,双方向性(bidirectional)のオーバーラップ率となる.\subsection{照合スコア}本文の一部$\widehat{T}$と選択肢$c_i$の照合スコアには,方向性を持ったオーバーラップ率$\mathrm{overlap\_ratio}_D$を用いる.\begin{equation}\mathrm{score}(\widehat{T},c_i)=\mathrm{overlap\_ratio}_D(E,\widehat{T},c_i)\end{equation}ここで,オーバーラップを測る際の単位(要素)集合$E$として,以下の4種類を実装した.\begin{enumerate}\item$A$:文字集合\item$A^2$:文字bigramの集合\item$W$:形態素表層形の集合\item$L$:形態素原形の集合\end{enumerate}いずれの場合も,句読点は要素に含めなかった.形態素解析器にはmecab-0.994を,形態素解析辞書には,ipadic-2.7.0またはunidic-2.1.0を用いた.すなわち,$W$と$L$は,それぞれ2種類存在することになる.\subsection{設問文の極性判定}設問文の極性判定は,文字列マッチングで実装した.具体的には,正規表現「\verb+/(適切|適当)でないものを/+」に一致した場合はnegative($-1$),それ以外はpositive($+1$)と判定する.対象とした問題は限られているので,極性判定結果は,人間の判断とすべて一致する.\subsection{本文の一部の抽出}段落(P)単位および文(S)単位の抽出を実装した.抽出する領域は,連続領域を採用した.すなわち,抽出単位,抽出開始点,抽出終了点の3つの情報によって,抽出領域は定まる.抽出開始・終了点は,当該傍線部を含む単位(段落または文)を基準点0とし,その前後何単位であるかを,整数で表す.たとえば,S-$m$-$n$は,当該傍線部を含む文と,その前$m$文,後$n$文を表す(全部で$m+1+n$文となる).この他に,本文先頭(a),前問の傍線部の位置(b),本文末尾(e)という3種類の特別な位置を指定できるようにした.さらに,当該傍線部を含む文を除外するというオプション($\overline{X}$)も実装した\footnote{設問の多くは,傍線部のある種の言い換えを求めているので,傍線部自身は,選択肢を選ぶ根拠とはならないことが多いと考えられる.今回の実装では,テキストを扱う最小単位は文なので,「当該傍線部を含む文」を除外するという実装となった.}.\subsection{選択肢の事前選抜}選択肢の事前選抜には,次の方法を採用した.\begin{enumerate}\itemそれぞれの選択肢$c_i$において,以下に示す事前選択スコア$\mathrm{ps}(c_i,C)$を計算する.\begin{equation}\mathrm{ps}(c_i,C)=\frac{1}{|C|-1}\sum_{c_j\inC,\c_j\nec_i}\mathrm{overlap\_ratio}_B(A;c_i,c_j)\end{equation}このスコアは,他の選択肢$c_j$との双方向文字オーバーラップ率$\mathrm{overlap\_ratio}_B(A;c_i,c_j)$の平均値である.\item得られた事前選択スコアが低い選択肢を,選択肢集合から除外する.(最終順位付けでは,かならず5位とする)\end{enumerate}なお,この実装は,いわば「もっとも仲間はずれの選択肢を一つ除外する」という考え方に基づいている.
\section{実験と検討}
\subsection{実験結果}実装した傍線部問題ソルバーを用いて,評論傍線部問題40問を解いた結果を表\ref{table:result1}および表\ref{table:result2}に示す.この表の各行の先頭の欄(ID)は,本文抽出法($\mathrm{extract}$)に対応しており,次の2つの数字は,その抽出法(ID)で抽出された文数(40問の平均値),および,該当傍線部を含む文を除外した場合($\overline{\mbox{ID}}$)の文数を示す\footnote{S-$m$-$n$で文数が$m+1+n$を越えるのは,2003S-E5の設問文が複数の傍線部(正確には,波線部)を含むためである.この場合,最初に現れる波線部の前方$m$文から,最後に現れる波線部の後方$n$文までを抽出する.}.斜線で区切られた4つの数字は,ある要素集合を単位としてオーバーラップ率を計算した場合に対応し,それぞれの数字は,順に,以下の場合の正解数を示す.\begin{enumerate}\item抽出法ID+事前選択なし(no)\item抽出法$\overline{\mbox{ID}}$+事前選択なし(no)\item抽出法ID+事前選択あり(yes)\item抽出法$\overline{\mbox{ID}}$+事前選択あり(yes)\end{enumerate}表\ref{table:result1}の2行目(P-a-0)の$A$欄の最初の数字20が,我々に衝撃を与えた数字である.これは,\begin{quote}本文の先頭から当該傍線部を含む段落までを$\widehat{T}$として抽出し(P-a-0),\\$\widehat{T}$と各選択肢$c_i$との照合スコアを文字オーバーラップ率($A$)で計算して,\\スコアが最大値を取る選択肢を選んだ場合,\\{\bf「評論」の傍線部問題の半分(20/40)が正しく解ける}\end{quote}ことを意味する.センター試験の設問は5択問題であるので,解答する選択肢をランダムに選んだとしても1/5の確率で正解する.40問においてランダムに解答を選んだ場合,正解する問題数は,$8\pm4.96$($p=0.05$)である\footnote{$\displaystyleB\left(40,\\frac{1}{5}\right)\approxN\left(8,\2.53^2\right)$.故に$1.96\times2.53\approx4.96$}.この値と比べ,正解数20問は有意に多い.我々は,このような性能が得られることを,まったく予期していないかった.この結果を受けて,我々は,色々な設定($84\times6\times4-12=\mbox{2,004}$通り)\footnote{傍線部を含む段落が1文のみから構成されている場合があるので,抽出法$\overline{\mbox{P-0-0}}$は設定しない.これが$-12$に相当する.84は,表\ref{table:result1}--\ref{table:result2}の行数の合計を,$6\times4$は1行に記述される設定数を示す.}での性能を網羅的に調べた.こうして得られたのが表\ref{table:result1}と表\ref{table:result2}である.これらの表では,正解数20以上をボールド体で表示した.さらに,正解数が22以上となった16の設定とその設定における正解の順位分布(第$n$位として出力された正解がいくつあるか)を,表\ref{table2}に示した.\begin{table}[p]\caption{「評論」に対する実験結果(その1)}\label{table:result1}\input{1001table04.txt}\end{table}\clearpage\begin{table}[t]\caption{「評論」に対する実験結果(その2)}\label{table:result2}\input{1001table05.txt}\end{table}\subsection{実験結果を検討する}表\ref{table:result1}と表\ref{table:result2}を観察すると,以下のことに気づく.\begin{table}[t]\caption{正解数が22以上の設定と正解の順位分布(「評論」)}\label{table2}\input{1001table06.txt}\end{table}\begin{enumerate}\item照合するテキスト$\widehat{T}$が極端に短い場合を除き,ほとんどの場合(2,004通り中1,828通りの設定)で,正解数はランダムな方法より有意に多い.すなわち,「評論」の傍線部問題に対しては,本論文で示した解法は,有効に機能する.\item照合スコアのオーバーラップ率の計算には,文字($A$)を用いると相対的に成績がよい場合が多い.文字オーバーラップ率が有効に機能するという,この結果は,日本語の含意認識(RITE2)における服部らの結果\cite{Hattori2013,SKL2013}に合致する.文字オーバーラップ率が有効に機能するのは,おそらく,日本語の文字の種類が多いこと,および,漢字1文字が内容的情報を表しうること,の2つの理由によるものと考えられる.\item照合スコアのオーバーラップ率の計算に,文字bigram($A^2$),形態素出現形($W$),形態素原形($L$)を用いた場合は,比較的短い$\widehat{T}$のいくつかに対して,成績がよい.これは,比較的短いテキストの照合では,語や文字bigramなどの,より長い要素の一致が大きな意味を持つためと考えられる.今回の実験で最も成績がよかった正解数23は,抽出法$\overline{\mbox{S-9-0}}$,照合法$A^2$または$L$-unidic,事前選抜あり(yes)の場合に得られた.\item照合テキスト$\widehat{T}$から,当該傍線部を含む文を除外した方が,除外しなかった場合よりも,成績は若干よい傾向を示す.脚注4でも述べたように,傍線部の言い換えを求めるような設問では,該当傍線部自身は,選択肢の根拠とはならないことが多い.このような設問に対しては,該当傍線部を含む文を除外することによる効果があると考えられる.\item選択肢の事前選抜は,正解数を増やす効果が見られる.なお,今回使用した40問において,正解が事前選抜によって除外される設問は,1問(2005M-3)だけ存在した.\item用いる形態素解析辞書によって,得られる結果は若干異なる.これは,形態素として認定する単位,および,原形の認定法の違い\footnote{unidicでは,語彙素を原形として採用した.}による.今回の実験では,ipadicを使用した方が,相対的によい結果が得られた場合が多かった.\end{enumerate}\subsection{性能の上限を見積もる}本論文で提案した方法で,どの程度の性能が達成可能であるかを見積もってみよう.性能の上限は,それぞれの設問において,\begin{enumerate}\item最も適切な本文の一部$\widehat{T}$が選択でき,かつ,\item最も適切な照合スコアを選択できる\end{enumerate}と仮定した場合の正解率で与えられる.ここでは,\begin{itemize}\item形態素解析辞書にはipadicのみを用いる\item選択肢の事前選択は行なわない\footnote{事前選抜を上限の計算に含めるのは複雑なので,除外した.}\end{itemize}こととした668($=84\times4-4$)通りの設定\footnote{数字84は,表\ref{table:result1}--\ref{table:result2}の行数の合計に,$4$は1行に対する設定数に,$-4$は抽出法$\overline{\mbox{P-0-0}}$は設定しないことに対応する.}を採用し,各設問毎に668通りの設定の成績(正解の順位)を集計した.その結果を表\ref{table:dist}に示す.表7に示すように,668通りの設定のいずれにおいても正解を出力できなかった設問は,\mbox{2問}(2001S-E5と2009M-E4)のみであった.すなわち,38/40(${}=95$\%)の設問に対して,本論文で示した解法は正解を出力できる可能性がある.表7において,1位となった設定数が多い設問は,言わば「ストライクゾーンが広い」設問である.つまり,パラメータ選択に「鈍感」であり,機械にとってやさしい設問である.たとえば,2003S-E3(1行目)は,668通り中664通りの設定で正解が得られている.逆に,1位となった設定数が少ない設問は,正解を出力するのが難しい設問である.たとえば,2003M-E5(下から3行目)は,668通り中14通りの設定でしか正解が得られない.これらのことを考慮して,次に,もうすこし現実的な到達目標を考えよう.正解率1/5でランダムに668回の試行を行なった場合の正解数は$133.6\pm20.26\:(p=0.05)$である.この値の上限をひとつの目安として\footnote{表\ref{table:dist}の左側の区切り線は,この境界を示す.},これよりも多い正解数が得られた設問は,設問に応じた適切なパラメータ選択により,正解を導ける可能性が高いとみなそう.このような設問は,40問中27問(67.5\%)である.実際,今回の実験で得られた最大正解数は23であり,正解数27は,現実的に到達可能な範囲にあると考えられる.\begin{table}[t]\caption{各設問における正解順位分布(「評論」)}\label{table:dist}\input{1001table07.txt}\end{table}\subsection{好成績の理由を考える}このような比較的単純な解法でも,半数以上の設問が正しく解けるのは,どうしてだろうか.その理由は,おそらく,「センター試験がよく練られた試験問題である」ということになろう.センター試験の問題は,当然のことながら,「正解が一意に定まる(大多数の人が,正解に納得できる)」ことが必要である.答の一意性を保証できる『数学』の問題とは異なり,『国語』の傍線部問題は,潜在的には多数の「正解文」が存在する.作問者の立場に立てば,そのうちの一つを選択肢に含め,それ以外を選択肢に含めないように問題を作らなければならない.そのため,正解選択肢とそれ以外の選択肢の間に,明示的な差異を持ち込まざるを得なくなる.そして,そのために持ち込まれた差異は,オーバーラップ率のような表層的な指標においても,識別できる差異として現れてしまうのであろう.もし,この推測が正しいとすれば,「良い問題であれば,機械にも解ける」ということであり,本論文で提案した解法は,センター試験ならではの性質を利用していることになろう.\subsection{正解が得られない設問}すでに何度も述べたように,我々は,本論文で提案した解法で「評論」の傍線部問題の半数以上が解けてしまうことが驚きであり,解けない設問があることに何の不思議さも感じない.しかしながら,査読者より,採録条件として,「提案手法では正解が得られない設問に対する分析(定性的な議論)が必要である」との指摘があったので,この点についての我々の見解を以下に述べる.まず,(ある特定パラメータを使用した)この解法によって正解が得られない直接的な理由は,抽出した本文の領域$\widehat{T}$と正解選択肢との照合スコア(オーバーラップ率)が低いことによる.この理由をさらに分解すると,次の3つの理由に行きつく.\begin{description}\item[R1]そもそも本文中に根拠がない\item[R2]不適切な領域$\widehat{T}$を抽出している\item[R3]照合スコアが意味的整合性を反映していない\end{description}しかしながら,特定の設問が解けない理由を,このどれか一つに特定することは難しい.まず,理由R1であるが,確かに,これがほぼ明白なケースは存在する.たとえば,2003M-E4は,傍線部の「具体例」を問う問題であるが,本文中にはその具体例は述べられていない.しかしながら,「根拠」という言葉はいささか曖昧であり,広くも狭くも解釈できるため,その解釈を固定しない限り,根拠の有無を明確に判断することは難しい.受験対策本がいう「根拠」は,「正解選択肢を選ぶ手がかり」という広い意味であり,「『適切に語句や表現を言い換えれば,選択肢の表現に変換できる』本文の一部」という狭い意味ではない.前者の意味では,ほとんどの設問に根拠は存在するが,後者の意味では,ほとんどの設題に根拠は存在しない.評論の傍線部問題で問われるのは,本文全体の理解に基づく傍線部の解釈であり,表現レベルの単純な言い換えではない.次に,理由R2であるが,今回の解法では,選択肢と照合する領域として文または段落を単位とする連続領域のみを扱っている.しかし,実際の(広い意味での)根拠は,より小さな句や節といった単位の場合もあり,かつ,不連続に複数箇所存在する場合も多い.現在の実装の自由度における最適な領域が,必ずしも真の意味で適切な領域であるとは限らない.最後に,理由R3であるが,現在の照合スコアが意味的整合性を適切に反映しない場合が存在するのは自明である.しかし,問題はそれほど単純ではない.照合スコアの具体的な値は,照合領域$\widehat{T}$に依存する.最適な領域が定まれば,使用している照合スコア計算法の善し悪しを議論できるが,最適な領域が不定であれば,正解を導けない原因を,領域抽出の失敗(R2)に帰すべきか,照合スコアの不適切さ(R3)に帰すべきかは,容易には定まらない.以上のように,特定の設問が解けない理由を追求し,解けない設問を類形化することは,かなり難しい.さらに,チャンスレベルは20\%であるから,たまたま解ける設問も存在する\footnote{前述の2003M-E4は正解する場合もある.}.そのような困難さを踏まえた上で,解けない設問を大胆に類形化するのであれば,次のようになろう.\begin{itemize}\item正解選択肢を選ぶ根拠が,傍線部のかなり後方に位置する設問.\item正解選択肢を選ぶ根拠が,本文全体に点在している設問.\item正解選択肢が,本文全体の理解・解釈を前提として,本文中には現れない表現で記述されている設問.\item本文と整合しない部分を含む選択肢を除外していくこと(いわゆる消去法\cite{Itano2010})によって,正解選択肢が導ける設問.\end{itemize}\subsection{「小説」に適用する}本論文で提案した解法を,そのまま「小説」の傍線部問題に適用すると,どのような結果が得られるであろうか.その疑問に答えるために,「評論」と同様の実験を,「小説」に対しても実施した.対象とした「小説」の傍線部問題は計38問なので,ランダムに解答すると,$7.6\pm4.83$問($p=0.05$)の正解が得られることになる.\begin{table}[b]\caption{正解数が13以上の設定と正解の順位分布(「小説」)}\label{table:novel}\input{1001table08.txt}\end{table}実験において,統計的に有意な結果(正解数13以上)が得られたのは,2,004通り中13通りの設定のみであった.これらを表\ref{table:novel}に示す.さらに,「評論」と同様に,各設問に対しても668通りの実験結果を集計した\footnote{表\ref{table:novel}の結果に基づき,形態素解析辞書にはipadicではなくunidicを採用した.}.正解数が$133.6\pm20.26$の上限を越えたのは,38問中10問であった.これらの結果より,「小説」に対しては,本論文で提案した解法の性能は,チャンスレベルと大差がないとみなすのが妥当であろう.
\section{結論}
本研究で得られた結果をまとめると,次のようになる.\begin{enumerate}\itemセンター試験『国語』現代文の傍線部問題に対する解法を提案・定式化した.\item本論文で示した解法は,「評論」の傍線部問題に対しては有効に機能し,半数以上の設問に対して正解を出力することができる.今回の実験から推測される性能の上限は95\%,現実的に到達可能な性能は65--70\%である.\item本論文で示した解法は,「小説」の傍線部問題に対しては機能しない.その性能はチャンスレベルと同等である.\end{enumerate}本論文で示した解法で「『評論』が解ける」という事実を言い換えるならば,それは,「『評論』では,本文に書かれていることが問われる」ということである.これに対して,「『小説』が解けない」という事実は,その裏返し,すなわち,「『小説』では,本文に書かれていないこと(心情や行間)が問われる」ということを示している.このような差異の存在を,船口\cite{Funaguchi}も指摘しているが,表層的なオーバーラップ率を用いる比較的単純な方法においても,その差異が明確な形で現れることが判明した.\acknowledgment本研究では,国立情報学研究所のプロジェクト「ロボットは東大に入れるか」から,データの提供を受けて実施した.本研究の一部は,JSPS科研費24300052の助成を受けて実施した.本研究では,mecab/ipadic,mecab/unidicを使用した.\begin{thebibliography}{}\bibitem[\protect\BCAY{新井\JBA松崎}{新井\JBA松崎}{2012}]{Arai2012}新井紀子\JBA松崎拓也\BBOP2012\BBCP.\newblockロボットは東大に入れるか?—国立情報学研究所「人工頭脳」プロジェクト—.\newblock\Jem{人工知能学会誌},{\Bbf27}(5),\mbox{\BPGS\463--469}.\bibitem[\protect\BCAY{船口}{船口}{1997}]{Funaguchi}船口明\BBOP1997\BBCP.\newblock\Jem{きめる!センター国語現代文}.\newblock学研教育出版.\bibitem[\protect\BCAY{服部\JBA佐藤}{服部\JBA佐藤}{2013}]{Hattori2013}服部昇平\JBA佐藤理史\BBOP2013\BBCP.\newblock多段階戦略に基づくテキストの意味関係認識:RITE2タスクへの適用\newblock情報処理学会研究報告,2013-NLP-211No.4/2013-SLP-96No.4,情報処理学会.\bibitem[\protect\BCAY{Hattori\BBA\Sato}{Hattori\BBA\Sato}{2013}]{SKL2013}Hattori,S.\BBACOMMA\\BBA\Sato,S.\BBOP2013\BBCP.\newblock\BBOQTeamSKL'sStraregyandExpericenceinRITE2\BBCQ\\newblockIn{\Bem{Proceedingsofthe10thNTCIRConference}},\mbox{\BPGS\435--442}.\bibitem[\protect\BCAY{板野}{板野}{2010}]{Itano2010}板野博行\BBOP2010\BBCP.\newblock\Jem{ゴロゴ板野のセンター現代文解法パターン集}.\newblock星雲社.\bibitem[\protect\BCAY{教学社編集部}{教学社編集部}{2013}]{Kakomon2014}教学社編集部\BBOP2013\BBCP.\newblock\Jem{センター試験過去問研究国語(2014年版センター赤本シリーズ)}.\newblock教学社.\end{thebibliography}\begin{biography}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.現在,本学会理事.}\bioauthor{加納隼人}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.現在,名古屋大学大学院工学研究科電子情報システム専攻在学中.}\bioauthor{西村翔平}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.}\bioauthor{駒谷和範}{1998年京都大学工学部情報工学科卒業.2000年同大学院情報学研究科知能情報学専攻修士課程修了.2002年同大学院博士後期課程修了.博士(情報学).京都大学大学院情報学研究科助手・助教,名古屋大学大学院工学研究科准教授を経て,2014年より大阪大学産業科学研究所教授.現在,SIGDIALScientificAdvisoryCommitteemember.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
| |
V07N01-04
|
\section{はじめに}
本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
\section{意味ソート}
\label{sec:msort}単語を意味で並べかえるという考え方を本稿では{\bf意味ソート}Msort(\underline{m}eaning\underline{sort})と呼ぶことにする.この意味ソートは,単語の羅列を表示する際には50音順(もしくはEUC漢字コード順)で表示するのではなく,単語の意味の順番でソートして表示しようという考え方である.意味の順番の求め方は後節で述べる.例えば,研究の途中段階で以下のようなデータが得られたとしよう\footnote{このデータはEDR共起辞書のものを利用している\cite{edr}.}.{\small\begin{verbatim}行事寺公式母校就任皇室学園日本ソ連全国農村県学校祭り家元恒例官民祝い王室\end{verbatim}}これは,行事という単語の前に「Aの」という形で連接可能な名詞のリストであるが,このような情報が得られたときにその研究者はこのデータをどのような形式にすると考察しやすいであろうか.まず,50音順で並べかえる.そうすると以下のようになる.{\small\begin{verbatim}行事家元祝い王室学園学校官民県公式皇室恒例就任全国ソ連寺日本農村母校祭り\end{verbatim}}これではよくわからない.次に頻度順で並べてみる.{\small\begin{verbatim}行事恒例学校公式日本県全国寺農村王室ソ連祭り学園就任祝い母校皇室官民家元\end{verbatim}}それもよくわからない.これを単語の意味の順番(ここでは,人間,組織,活動の順)でソートすると,以下のようになる.{\small\begin{verbatim}行事(人間)皇室王室官民家元(組織)全国農村県日本ソ連寺学校学園母校(活動)祝い恒例公式就任祭り\end{verbatim}}これは非常にわかりやすい.行事にはいろいろなものがあるが,ある特別な人を中心とした行事の存在,また,ある組織を中心とした行事の存在,さらに行事のいくつかの形態をまとめて一挙に理解することができる.これはもともと名詞意味関係辞書の作成に「AのB」が利用できそうであるとすでにわかっている問題を例にあげたため,それはうまくいくでしょうといった感があるかもしれないが,後の節ではその他の問題でもこの意味ソートを用いるとうまくいく例をいくつか示している.われわれは,各研究の各段階でこの意味ソートというものを用いれば,ほとんどの問題がわかりやすくなり効率良く研究を進められるのではないかと考えている.
\section{意味ソートの仕方}
単語を意味でソートするためには,単語に対して意味的な順序づけを行なう必要がある.このためには分類語彙表\cite{bgh}が役に立つ.分類語彙表とはボトムアップ的に単語を意味に基づいて整理した表であり,各単語に対して分類番号という数字が付与されている.電子化された分類語彙表データでは各単語は10桁の分類番号を与えられている.この10桁の分類番号は7レベルの階層構造を示している.上位5レベルは分類番号の最初の5桁で表現され6レベル目は次の2桁,最下層のレベルは最後の3桁で表現されている.もっとも簡単な意味ソートの仕方は,単語に分類語彙表の分類番号を付与してその分類番号によってソートすることである\footnote{最近は便利な機能を持ったパソコンのソフトが多く出ており,Exelなどに単語と分類語彙表の分類番号を入力しておいてソートすると簡単に意味ソートを行なうことができるであろう.}.しかし,単にソートしただけではわかりにくい.数字ならば,順序関係がはっきりしているものなのでソートするだけで十分であるが,単語は順序関係がそうはっきりしたものではないので,ソートしただけではわかりにくい.ところどころに,物差しの目盛のようなものを入れた方がわかりやすい.\begin{table}[t]\caption{分類語彙表の分類番号の変更}\label{tab:bunrui_code_change}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変換後の\\&分類番号&分類番号\\\hlineANI(動物)&[1-3]56&511\\HUM(人間)&12[0-4]&52[0-4]\\ORG(組織・機関)&[1-3]2[5-8]&53[5-8]\\PRO(生産物・道具)&[1-3]4[0-9]&61[0-9]\\PAR(動物の部分)&[1-3]57&621\\PLA(植物)&[1-3]55&631\\NAT(自然物)&[1-3]52&641\\LOC(空間・方角)&[1-3]17&657\\QUA(数量)&[1-3]19&711\\TIM(時間)&[1-3]16&811\\PHE(現象名詞)&[1-3]5[01]&91[12]\\ABS(抽象関係)&[1-3]1[0-58]&aa[0-58]\\ACT(人間活動)&[1-3]58,[1-3]3[0-8]&ab[0-9]\\OTH(その他)&4&d\\\hline\end{tabular}\end{center}\end{table}そこで,「人間」「具体物」「抽象物」といった意味素性というものを考える\footnote{ここであげる意味素性では目盛として粗すぎる場合は,分類語彙表の上位3桁目のレベル,上位4桁目のレベル,上位5桁目のレベルなどを目盛として用いてみるのもよい.}.ソートした単語の羅列のところどころに意味素性のようなものをいれておくと,それを基準にソートした単語の羅列を見ることができ便利である.意味素性としては,IPAL動詞辞書\cite{IPAL}の名詞の意味素性と分類語彙表の分類体系を組み合わせることによって新たに作成したものを用いる.このとき,分類語彙表の分類番号を名詞の意味素性に合わせて修正した.表\ref{tab:bunrui_code_change}に作成した意味素性と分類語彙表での分類番号の変換表を記載しておく\footnote{この表は現段階のものであって今後も変更していく可能性がある.}\footnote{表では,体,用,相の分類を示す一桁の1〜3の区別はなくしているが,これは文法的な分類の体,用,相の分類を行なわず意味的なソートをくしざし検索風に行なっていることになっている.もちろん,用途によっては体,用,相の分類を行なっておく必要があるだろう.その場合はそれに見合うように分類番号の変更を行なえばよい.例えば体,用,相の上位一桁目をa,b,cとするといったことを行なえばよい.}.表の数字は分類番号の最初の何桁かを変換するためものであり,例えば1行目の``[1-3]56''や``511''は,分類番号の頭の3桁が``156''か``256''か``356''ならば511に変換するということを意味している.([1-3]は1,2,3を意味している.)表\ref{tab:bunrui_code_change}に示した意味素性に目盛の役割をしてもらうわけだが,この目盛を意味ソートの際に入れる簡単な方法は,意味素性を単語のソートの際に混ぜてソートすることである.このようにすると,意味素性も適切な位置にソートされることとなる.以下に意味ソートが実現される過程を例示する.ここでは,\ref{sec:msort}節で示した名詞「行事」の前に「名詞Aの」の形でくっつく以下の名詞の集合を意味ソートすることを考えることとしよう.{\small\begin{verbatim}行事寺公式母校就任皇室学園日本ソ連全国農村県学校祭り家元恒例官民祝い王室\end{verbatim}}\begin{enumerate}\itemまず初めに各語に分類語彙表の分類番号を付与する.「行事」と共起する名詞集合でこれを行なうと表\ref{tab:huyo_bgh_rei}の結果が得られる.(書籍判の分類語彙表に慣れている人は注意して欲しい.書籍判では分類番号は5桁までしかないが,電子化判では10桁存在する\footnote{ここではKNP\cite{KNP2.0b6}に付属でインストールする分類語彙表の辞書を利用しているが,そこで用いられている分類語彙表は最新のものであってさらに桁が増えているが,KNPではうまく10桁に変換しているようだ.}.)表\ref{tab:huyo_bgh_rei}では「寺」が二つ,「公式」が四つ,存在しているが,これは多義性を意味しており,分類語彙表では「寺」に対し二つの意味が定義されており,「公式」に対し四つの意味が定義されていることを意味する.\item\label{enum:change}次に分類語彙表の分類番号の変換表の表\ref{tab:bunrui_code_change}に従って,付与した分類語彙表の番号を変更する.表\ref{tab:huyo_bgh_rei}のデータに対してこの番号変更を行なうと表\ref{tab:code_change_rei}の結果が得られる.例えば,表\ref{tab:huyo_bgh_rei}の一つ目の寺の最初の三桁は``126''であるがこれは表\ref{tab:bunrui_code_change}の三行目の``[1-3]2[5-8]''にマッチし,``536''に変換される.\begin{table}[t]\caption{分類語彙表の分類番号の付与例}\label{tab:huyo_bgh_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline1263005022&寺\\1263005021&寺\\1308207012&公式\\1311509016&公式\\3101011014&公式\\3360004013&公式\\1263013015&母校\\1331201016&就任\\1210007021&皇室\\1263010015&学園\\1259001012&日本\\1259004192&ソ連\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hline1198007013&全国\\1253007012&全国\\1254006033&農村\\1255004017&県\\1263010012&学校\\1336002012&祭り\\1241023012&家元\\1308205021&恒例\\1231002013&官民\\1241101012&官民\\1304308013&祝い\\1336019012&祝い\\1210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更例}\label{tab:code_change_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline5363005022&寺\\5363005021&寺\\ab18207012&公式\\ab21509016&公式\\aa11011014&公式\\ab70004013&公式\\5363013015&母校\\ab41201016&就任\\5210007021&皇室\\5363010015&学園\\5359001012&日本\\5359004192&ソ連\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hline7118007013&全国\\5353007012&全国\\5354006033&農村\\5355004017&県\\5363010012&学校\\ab46002012&祭り\\5241023012&家元\\ab18205021&恒例\\5231002013&官民\\5241101012&官民\\ab14308013&祝い\\ab46019012&祝い\\5210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[p]\caption{目盛用の分類番号つきの意味素性の追加}\label{tab:sosei_add_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll@{}|}\hline5100000000&(動物)\\5200000000&(人間)\\5300000000&(組織・機関)\\6100000000&(生産物・道具)\\6200000000&(動物の部分)\\6300000000&(植物)\\6400000000&(自然物)\\6500000000&(空間・方角)\\7100000000&(数量)\\8100000000&(時間)\\9100000000&(現象名詞)\\aa00000000&(抽象関係)\\ab00000000&(人間活動)\\d000000000&(その他)\\5363005022&寺\\5363005021&寺\\ab18207012&公式\\ab21509016&公式\\aa11011014&公式\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll|}\hlineab70004013&公式\\5363013015&母校\\ab41201016&就任\\5210007021&皇室\\5363010015&学園\\5359001012&日本\\5359004192&ソ連\\7118007013&全国\\5353007012&全国\\5354006033&農村\\5355004017&県\\5363010012&学校\\ab46002012&祭り\\5241023012&家元\\ab18205021&恒例\\5231002013&官民\\5241101012&官民\\ab14308013&祝い\\ab46019012&祝い\\5210007022&王室\\\hline\end{tabular}\end{center}\end{table}\begin{table}[p]\caption{分類番号の順番に並べかえ例}\label{tab:sort_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll@{}|}\hline5100000000&(動物)\\5200000000&(人間)\\5210007021&皇室\\5210007022&王室\\5231002013&官民\\5241023012&家元\\5241101012&官民\\5300000000&(組織)\\5353007012&全国\\5354006033&農村\\5355004017&県\\5359001012&日本\\5359004192&ソ連\\5363005021&寺\\5363005022&寺\\5363010012&学校\\5363010015&学園\\5363013015&母校\\6100000000&(生産物)\\\multicolumn{2}{|l|}{右上につづく}\\\hline\end{tabular}\begin{tabular}[c]{|ll@{}|}\hline6200000000&(動物の部分)\\6300000000&(植物)\\6400000000&(自然物)\\6500000000&(空間・方角)\\7100000000&(数量)\\7118007013&全国\\8100000000&(時間)\\9100000000&(現象名詞)\\aa00000000&(抽象関係)\\aa11011014&公式\\ab00000000&(人間活動)\\ab14308013&祝い\\ab18205021&恒例\\ab18207012&公式\\ab21509016&公式\\ab41201016&就任\\ab46002012&祭り\\ab46019012&祝い\\ab70004013&公式\\d000000000&(その他)\\\hline\end{tabular}\end{center}\end{table}\item次に目盛用の分類番号つきの意味素性を\ref{enum:change}で得られた集合に追加する.表\ref{tab:code_change_rei}のデータに対してこれを行なうと表\ref{tab:sosei_add_rei}の結果が得られる.\item以上までで得られた集合を分類番号によってソートする.表\ref{tab:sosei_add_rei}のデータに対してこれを行なうと表\ref{tab:sort_rei}の結果が得られる.\item後は見やすいように整形すればよい.例えば,表\ref{tab:sort_rei}で分類番号を消し,意味素性ごとに一行にまとめ,語がない行を消去し,一行内にだぶって存在する語を消去すると表\ref{tab:last_rei}のようになる.\end{enumerate}前にも述べたとおり,表\ref{tab:last_rei}の形になれば考察などに便利な状態になる.\clearpage\begin{table}[t]\caption{ソート後の名詞集合の整形}\label{tab:last_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|ll|}\hline(人間)&皇室王室官民家元\\(組織)&全国農村県日本ソ連寺学校学園母校\\(数量)&全国\\(関係)&公式\\(活動)&祝い恒例公式就任祭り\\\hline\end{tabular}\end{center}\end{table}
\section{意味ソートの諸相}
\subsection{分類語彙表以外の階層シソーラスを用いた意味ソート}今までの議論では分類語彙表を用いた意味ソートの仕方を述べてきた.意味ソートを行なうには意味の順序関係が必要であるが,分類語彙表はちょうど各単語に分類番号がついていたのでソートには最適であった.ここでは,EDRの辞書\cite{edr}のように,分類語彙表についていたような分類番号を持たない階層シソーラスを用いて,意味ソートはできないかを考察する.前述したとおり,そもそも分類語彙表の10桁の分類番号は,7レベルの階層構造を示している.EDRで意味ソートを行なう場合にも,分類語彙表と同じように上位桁から階層構造を作るような番号を各単語につけてやればよい.しかし,番号をつけるのは面倒である.階層シソーラス上の各ノードにおける概念の定義文をそのレベルの番号のように扱ってやるとよい.こうすれば番号をあらためてふってやる必要がない.例えば,トップのノードから「母校」という単語に至る各ノードの概念の定義文を並べてみると以下のようになる.\\{\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|}\hline概念\\人間または人間と似た振る舞いをする主体\\自立活動体\\組織\\組織のいろいろ\\教育組織\\学校という,教育を行う組織\\数量や指示関係で捉えた学校\\自分が学んでいる,あるいはかつて学んでいた学校\\\hline\end{tabular}\\}\begin{table*}[t]\caption{EDRを用いた意味ソートの例}\label{tab:EDR_last_rei}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}c@{}l@{}c@{}ll|}\hline(概念&:&ものごと&:&もの)&寺学校県家元官民祝い公式\\(概念&:&ものごと&:&事柄)&祭り恒例祝い\\(概念&:&位置&:&場所)&寺学校全国県農村ソ連日本\\(概念&:&事象&:&現象)&祭り\\(概念&:&事象&:&行為)&祝い就任\\(概念&:&事象&:&状態)&官民恒例家元寺県公式\\(概念&:&人間または人間と似た振る舞いをする主体&:&自立活動体)&学校学園母校寺県ソ連日本王室皇室家元官民\\(概念&:&人間または人間と似た振る舞いをする主体&:&人間)&寺県家元官民\\\hline\end{tabular}\end{center}\end{table*}\noindentこれを連結した``概念:人間または人間と似た振る舞いをする主体:自立活動体:組織:組織のいろいろ:教育組織:学校という,教育を行う組織:数量や指示関係で捉えた学校:自分が学んでいる,あるいはかつて学んでいた学校''を分類番号と見立てて意味ソートを行なえばよい.先にあげた「の行事」に前接する名詞集合でEDRを用いた意味ソートを行なうと表\ref{tab:EDR_last_rei}のようになる.表\ref{tab:EDR_last_rei}では各行の出力のための目盛として上位三つの概念の定義文を用いている.EDRでは他の辞書に比べ多義性を設定する場合が多く,またシソーラスの階層構造においても複数パスを用いているので,同じ単語が複数の箇所に出ていて複雑なものになる.しかし,多観点から考察したいときには,ちょうどいろいろなとらえ方の単語を認識しやすいようになっており,EDRを用いると有効だろう.以上までの議論から階層シソーラスならばどのようなものでも意味ソートが行なえることがわかるであろう.ただし,階層構造での枝別れ部分においてどのノードから出力するのかは曖昧になっている.例えば,表\ref{tab:EDR_last_rei}では概念の定義文の文字列のEUCコード順となっている.順序を人手であらかじめ指定しておければそれにこしたことはないが,無理ならば,定義文自体を他の辞書(例:分類語彙表)により意味ソートすることも考えられる.\subsection{単語を複数の属性で表現するといった形での辞書記述における意味ソート}\label{sec:hukusuu_zokusei}単語に複数の属性を付与するといった形で単語の意味記述を行なうという考え方がある.例えば,計算機用日本語生成辞書IPALの研究\cite{ipalg98}では,「器」を意味するさまざまな単語に対して表\ref{tab:ipal_hukusuu_zokusei_rei}のような属性を与えている.表中の''---''は属性の値は指定されていないことを意味する.\begin{table}[t]\caption{単語に複数の属性を付与した辞書の例}\label{tab:ipal_hukusuu_zokusei_rei}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\碗&和&---&深&---&陶磁\\椀&和&---&深&---&木\\湯のみ&和&緑茶/白湯&深&---&陶磁\\皿&---&---&浅&---&---\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{左の属性からソートした結果}\label{tab:ipal_hukusuu_zokusei_rei_hidari}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\皿&---&---&浅&---&---\\碗&和&---&深&---&陶磁\\椀&和&---&深&---&木\\湯のみ&和&緑茶/白湯&深&---&陶磁\\\hline\end{tabular}\end{center}\end{table}このような形の辞書の場合でも意味ソートは可能である.各属性を階層シソーラスでの各レベルであると認識すればよい.この場合,左の属性から順に階層シソーラスの上位から下位のレベルに対応すると考えると,``種類',``対象物'',``形状'',``サイズ'',``材質''とレベルがあると考えられるので,意味ソートに用いる便宜的な分類番号はEDRの場合を参考にすると,``種類:対象物:形状:サイズ:材質''といったものとなる.例えば,「椀」は``和:---:深:---:木''という分類番号を持っていることになる.(厳密には,属性の値も意味ソートするために,この「和」「深」「木」も分類語彙表の分類番号に変更しておく.)このような分類番号をもっているとしてソートすれば意味ソートのできあがりである.この意味ソートを行なった結果を表\ref{tab:ipal_hukusuu_zokusei_rei_hidari}に示す.これは,単純に左の属性から順にソートしていった結果と等価である.\begin{table}[t]\caption{右の属性からソートした結果}\label{tab:ipal_hukusuu_zokusei_rei_migi}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|ccccc|}\hline単語&\multicolumn{5}{c|}{属性}\\\cline{2-6}&\multicolumn{1}{c}{種類}&\multicolumn{1}{c}{対象物}&\multicolumn{1}{c}{形状}&\multicolumn{1}{c}{サイズ}&\multicolumn{1}{c|}{材質}\\\hlineうつわ&---&---&---&---&---\\皿&---&---&浅&---&---\\碗&和&---&深&---&陶磁\\湯のみ&和&緑茶/白湯&深&---&陶磁\\椀&和&---&深&---&木\\\hline\end{tabular}\end{center}\end{table}今は左の属性をもっとも重要な属性として扱って意味ソートを行なったものであるが,複数の属性の間の重要度の関係はそれほど明確ではない.例えば,同じデータで右の属性から順にソートすると,表\ref{tab:ipal_hukusuu_zokusei_rei_migi}のようになる.このように複数の属性を付与する辞書ではどういった属性を重視するかでソートのされ具合いが異なることとなる.これは,ユーザが今興味を持つ属性の順番によってソートすることができることを意味しており,複数の属性を付与する辞書は非常に融通が効くものであるということがいえる\footnote{ただし,この融通の良さは自由度が高くて良さそうだが欠点にもなりうる可能性を持っている.例えば,ユーザが自分の好きなように属性を指定することができるといえば聞こえはよいが,これは裏返して考えるとユーザが自分の好きなように属性を指定する必要があるということを意味している.ユーザが属性を指定するのが面倒な場合はデフォルトの順序のようなものを考えておくとよいだろう.例えば,決定木学習で用いられる方法\cite{c4.5j}により木を構成しそのようになるための属性の順序をデフォルトの順序としてもよいだろう.また,各属性の上位下位の関係を本文でも述べたような概念の包含関係より求め(このときは本文での基準のような完全に包含関係になるものではなく若干例外があってもよいなど条件をゆるめたものがよいだろう),それを元にデフォルトの順序を決めるのもよいだろう.さらにはこのデフォルトの順序をユーザーの二,三のキーワード指定によりコントロールできるとなおよいだろう.}.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{10cm}\begin{center}\epsfile{file=hidari.eps,height=4cm,width=6cm}\end{center}\caption{左からのソート結果による階層シソーラス}\label{fig:ipal_hukusuu_zokusei_rei_hidari}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{10cm}\begin{center}\epsfile{file=migi.eps,height=4cm,width=6cm}\end{center}\caption{右からのソート結果による階層シソーラス}\label{fig:ipal_hukusuu_zokusei_rei_migi}\end{minipage}}\end{center}\end{figure}これを階層シソーラスも交えて考察するとさらに面白いことに気づく.先にも述べたように,各属性は階層シソーラスの各レベルと見立てることができるので,階層シソーラスでのこの属性のレベルの順序を変更することで何種類もの階層シソーラスを構築できることとなる.例えば,属性を左から用いて意味ソートした表\ref{tab:ipal_hukusuu_zokusei_rei_hidari}からは図\ref{fig:ipal_hukusuu_zokusei_rei_hidari}のような階層シソーラスが構築できる.また,属性を右から用いて意味ソートした表\ref{tab:ipal_hukusuu_zokusei_rei_migi}からは図\ref{fig:ipal_hukusuu_zokusei_rei_migi}のような階層シソーラスが構築できる.図\ref{fig:ipal_hukusuu_zokusei_rei_hidari}のシソーラスでは「碗」と「椀」の意味的な近さをよく理解できる.図\ref{fig:ipal_hukusuu_zokusei_rei_migi}のシソーラスでは「碗」と「湯のみ」の同じ陶磁器としての意味的な近さをよく理解できる.この複数のシソーラスの構築は,種々の観点による階層シソーラスの研究にもつながるものである.観点によるシソーラスの必要性は文献\cite{miyazaki94A}においても述べてある.それによると,「鳥」「飛行機」を上位で自然物と人工物と大別すると,「鳥」「飛行機」の意味的近さがわからなくなるとある.確かにそのとおりである.今後の言語処理を考えると観点による階層シソーラスの自由変形が可能な,複数属性を付与するといった辞書は非常に有用であり,生成用のみならず一般単語辞書,実用レベル的なもので構築する必要があると思われる.また,もともと単語の意味辞書を階層シソーラスの形にする必要があるのかという疑問も生じる.表\ref{tab:ipal_hukusuu_zokusei_rei}を見れば,「うつわ」の属性がすべて属性値を指定しない``---''になっていることから他の語の上位語であることが属性の集合の情報を見るだけでわかる.この属性の包含関係から上位・下位の関係が類推できるとすれば,階層シソーラスというものはわざわざ構築しておく必要はなく単語を属性の集合によって表現するというので十分なような気もしてくる.ただし,ペンギンは飛べないが普通の鳥は飛べるといった例外事象も扱えるような属性の定義などをしておく必要はある.また,複数属性で単語を表現する辞書では,一致する属性の割合などで単語間の類似度を定義するということも可能となるであろう.ただし,このとき属性に重みを与えるなどのことが必要になるかもしれない.単語の意味記述としては,さらに表現能力の高いものとして高階の述語論理で表現するもの,自然言語の文で定義するものなどが考えられるが,とりあえず現在の言語処理技術で扱えてそれでいて多観点を扱えるという意味で単語を複数属性の集合で意味記述するという辞書は妥当なところではないだろうか\footnote{複数の属性を持つ単語辞書の作成には,国語辞典などの定義文が役に立つのではないかと考えている.例えば,定義文の文末から意味ソートを多段的にかけた結果を人手でチェックすることを行なえば,比較的低コストでこの辞書を作成できるだろう.}.ちょっと脇道にそれて意味ソートと直接関係のない単語意味辞書のあるべき姿について議論をしてしまったが,単語を複数属性の集合で意味記述するという辞書ができれば,先にも述べたようにその辞書にはユーザが自分の好きな順番で属性を選んで意味ソートできるという利点があるので,意味ソートの立場としても非常に好都合である.
\section{意味ソートの三つの利用例}
\label{sec:riyourei}\subsection{辞書の作成}名詞と名詞の間の意味関係を示す名詞意味関係辞書の作成に意味ソートが利用できる例はすでに文献\cite{murata_indian_nlp}において述べている.名詞と動詞,名詞と形容詞の間の関係辞書の作成も格フレームや多義性などを考慮に入れながら同様にできることだろう.ここでは,例として表\ref{tab:taberu_case_frame}に動詞「食べる」の格フレームの作成例を示しておく.\begin{table}[t]\caption{「食べる」の格フレームの作成例}\label{tab:taberu_case_frame}\begin{center}\small\renewcommand{\arraystretch}{}(a)ガ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(動物)&牛子牛魚\\(人間)&わたしたちみんな自分乳幼児親妹お客日本人看護婦作家\\\hline\end{tabular}\vspace{0.3cm}(b)ヲ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(動物)&動物貝プランクトン\\(生産物)&獲物製品材料ペンキ食べ物えさ和食日本食洋食中華料理おむすび粥すしラーメンマカロニサンドイッチピザステーキバーベキューてんぷら空揚げ穀物米白米日本米押し麦キムチカルビ砂糖ジャム菓子ケーキビスケットクッキーアイスクリーム\\(体部)&遺骸人肉肝臓\\(植物)&遺伝子植物牧草ピーマンチコリ桑バナナ松茸昆布\\(現象)&珍味雪\\(関係)&中身\\(活動)&朝食昼飯夕食夕御飯おやつ塩焼き\\\hline\end{tabular}\vspace{0.3cm}(c)デ格の意味ソート結果\begin{tabular}[c]{|lp{10cm}|}\hline(人間)&自分\\(組織)&事務所レストランホテル\\(生産物)&しょうゆシャトー楽屋便所荷台食卓\\(空間)&現地全域車内\\(数量)&ふたり割合複数\\(活動)&研究会議\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:taberu_case_frame}は受身文など考慮して「食べる」の各格要素にくる名詞をそれぞれ意味ソートしたものである.表\ref{tab:taberu_case_frame}の形になれば人手で格フレームを作成するのも容易であろうと思われる\footnote{最近では,格フレームは多項関係でとらえる必要があることがいわれてきている.例えば,魚はプランクトンを食べるが牛は食べず,また牛は牧草を食べるが魚は食べない.表\ref{tab:taberu_case_frame}の形に各格要素ごとまとめてしまうと魚とプランクトンの関係,牛と牧草の関係が見えなくなり,よろしくない.}.ガ格は動作主になりうる動物や人間が入ることがわかるし,ヲ格には様々な食べ物になりうる名詞が入ることがわかる.また,任意格のデ格を見ると,「自分で」や「事務書で」や「しょうゆで」などデ格の意味関係が多種多様なものであることまでわかる.たとえば,``(人間)''の語は主体,``(組織)''``(空間)''の語は場所,``(具体物)''の語は道具の場合と場所の場合があることまでわかる.ここであげた例は動詞の格フレームであるが,このようなことは形容詞に対してもさらには名詞述語文に対してもその他の単語間に対しても容易に行なえることを考えれば,意味ソートの汎用性,有用性を理解できるであろう.これは,辞書の作成に限った話しではなく,言語現象の調査におけるデータの整理,有用な情報の抽出にも役に立つ.また,近年いろいろな知識獲得の研究が行なわれているが,知識獲得で得られたデータの整理にも,同じようにこの意味ソートが役に立つ.\subsection{タグつきコーパスの作成(意味的類似度との関連)}近年,さまざまなコーパスが作成されてきており\cite{edr_corpus_2.1}\cite{kurohashi_nlp97}\cite{rwc},コーパスベースの研究も盛んになっている\cite{mori_DT}\cite{murata:nlken98}.ここでは,コーパスの作成にも意味ソートが役に立つことについて述べる.例えば,名詞句「AのB」の意味解析を用例ベースで解析したいとする.この場合,名詞句「AのB」の意味解析用のタグつきコーパスが必要となる.具体的には,名詞句「AのB」の各用例に対して「所有」「属性関係」といった意味関係をふっていくこととなる.このとき名詞句「AのB」を意味ソートしておけば比較的よく似た用例が近くに集まることになり,意味関係をふる手間が軽減される.\begin{table}[t]\caption{名詞句「AのB」の意味解析用のタグつきコーパスの作成例}\label{tab:make_corpus}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|l|l|}\hline名詞A&名詞B&意味関係\\\hlineパナマ&事件&場所\\中学校&事件&場所\\軍&事件&場所\\アルバム&事件&間接限定\\タンカー&事件&間接限定\\最悪&事件&形的特徴\\最大&事件&形的特徴\\周辺&物件&場所\\両国&事項&主体対象\\文献&事項&分野限定\\総会&事項&主体対象\\上院&条項&分野限定,主体対象\\新法&条項&分野限定,全体部分\\条約&条項&分野限定,全体部分\\協定&条項&分野限定\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:make_corpus}は文献\cite{yata_MT}において作成されたタグつきコーパスの一部分である.ここでは名詞句「AのB」のうち名詞Bの方が重要であろうとして名詞Bを先に意味ソートとしたのち名詞Aで意味ソートを行なっている.表中の意味関係の用語は少々難しいものとなっているが意味ソートの結果近くにあらわれている用例同士は比較的同じ意味関係がふられていることがわかるだろう.このように意味的に近い用例が近くに集まるとタグの付与の手間が軽減されることが理解できるであろう.ところで,用例ベースによる手法では入力のデータと最も類似した用例にふられたタグを解析結果とする.意味ソートという操作は単語を意味の順番にならべかえるわけだが,そのことによって類似した用例を集める働きをする.用例ベースと意味ソートは単語の類似性を用いるという共通点を持っている.この類似性を用いるという性質が用例ベースによる手法と意味ソートの共通した利点となっている.ここでは名詞句「AのB」を例にあげてコーパス作成に意味ソートを用いると効率的であることを述べたが,これは特に名詞句「AのB」に限ったことではない.単語が関係している問題ならば,その単語で意味ソートができるので,文字列レベルで扱わないと仕方がない問題以外はほとんど本稿の意味ソートが利用できる.また,もともと文字列レベルで扱わないと仕方がない問題では文字列でソートすればよいのである.しかし,ここであげた例では名詞Bで意味ソートした後,名詞Aで意味ソートをするといった不連続性がある.名詞Aと名詞Bの両方を考慮することで,意味ソートで近くにくる用例よりも意味的に近い用例を持ってこれる場合がある.しかし,このような方法では一次元的に配列するのが困難で人手でチェックするのが難しくなってくる.\subsection{情報検索での利用}近年,インターネットの発展とともに情報検索の研究は非常に盛んになっている.この情報検索がらみの研究においても意味ソートの有効な利用方法が考えられる.例えば,津田の研究\cite{tsuda94A}では文書データベースの特徴を多数のキーワードによってユーザに提示するということを行なっている.例えば,提示したい文書データベースAのキーワード群が以下のとおりであったとする.\begin{quote}\fbox{検索単語文書作成候補質問数キーワード情報}\end{quote}この単語の羅列をランダムな順番でユーザに提示するのでは不親切である.ここで意味ソートを行なってやると,以下のようになる.{\small\renewcommand{\arraystretch}{}\begin{tabular}[h]{ll}(数量)&数\\(抽象関係)&候補\\(人間活動)&検索\\&文書キーワード単語情報質問\\&作成\\\end{tabular}}ここでは,分類語彙表の上位三桁が一致するものを同じ行に表示している.ランダムに表示するよりはこのように意味ソートを行なって表示した方がよく似た意味の単語が集まるので,ユーザにとってやさしいのではないかと思われる.また,情報検索システムが検索式を作る際にユーザにキーワードを提示して適切なものを選んでもらう場合もある\cite{tsuda94A}.このような場合においても,キーワードを他に適切にならべかえる方法があればそれを用いればよいが,そういったものがない場合は上記と同様にとりあえず意味ソートを用いておけば少しはユーザに対してやさしくなる.
\section{おわりに}
本稿ではまず初めに意味ソートの仕方について述べた.そこでは,以下の三つの意味記述の異なる辞書を用いたそれぞれの意味ソートの方法について記述した.\begin{enumerate}\item単語に番号がふってある辞書(分類語彙表)\item単語に番号がふっていない階層シソーラス辞書(EDR概念辞書)\item\label{enum:owarini_hukusuu_gainen}単語を複数の属性の集合によって表現する辞書(IPAL日本語生成辞書)\end{enumerate}また,\ref{enum:owarini_hukusuu_gainen}の「単語を複数の属性の集合によって表現する辞書」では,この辞書の自由度の高さや多観点シソーラスとの関係を議論し,この辞書の有用性を詳しく述べた.また,本稿の最後では以下の三つの異質な応用領域を述べ,意味ソートの有用性を議論した.\begin{enumerate}\item辞書の構築例\itemタグつきコーパスの作成例\item情報提示システム例\end{enumerate}われわれは意味ソートは言語処理研究だけではなく,言語研究での調査方法としても役に立つものであると考えている.\section*{謝辞}\ref{sec:hukusuu_zokusei}節で述べた単語を複数の属性の集合によって表現するという考え方は国立国語研究所の柏野和佳子研究員との議論において御教示いただいた.また,郵政省通信総研の内山将夫研究員には論文内容についていくつかのコメントをいただいた.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N05-04
| "\\section{はじめに}\n多言語話し言葉翻訳システムの処理には,文法から逸(...TRUNCATED) | |
V22N05-01
| "\\section{はじめに}\nProjectNextNLP\\footnote{https://sites.google.com/site/projectnextnlp/}は(...TRUNCATED) | |
V09N01-06
| "\\section{まえがき}\n自然言語処理の最大の問題点は,言語表現の構造と意(...TRUNCATED) | |
V26N01-08
| "\\section{はじめに}\n近年,ニューラルネットワークに基づく機械翻訳(ニ(...TRUNCATED) | |
V25N04-04
| "\\section{はじめに}\n作文中における誤りの存在や位置を示すことができる(...TRUNCATED) | |
V16N05-02
| "\\section{はじめに}\n\\label{sec:Intro}検索エンジン\\textit{ALLTheWeb}\\footnote{http://w(...TRUNCATED) |
This dataset was created from the Japanese NLP Journal LaTeX Corpus. The titles, abstracts and introductions of the academic papers were shuffled. The goal is to find the corresponding full article with the given abstract. This is the V1 dataset (last updated 2020-06-15).
Task category | t2t |
Domains | Academic, Written |
Reference | https://huggingface.co/datasets/sbintuitions/JMTEB |
Source datasets:
How to evaluate on this task
You can evaluate an embedding model on this dataset using the following code:
import mteb
task = mteb.get_task("NLPJournalAbsArticleRetrieval")
evaluator = mteb.MTEB([task])
model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)
To learn more about how to run models on mteb
task check out the GitHub repository.
Citation
If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.
@misc{jmteb,
author = {Li, Shengzhe and Ohagi, Masaya and Ri, Ryokan},
howpublished = {\url{https://huggingface.co/datasets/sbintuitions/JMTEB}},
title = {{J}{M}{T}{E}{B}: {J}apanese {M}assive {T}ext {E}mbedding {B}enchmark},
year = {2024},
}
@article{enevoldsen2025mmtebmassivemultilingualtext,
title={MMTEB: Massive Multilingual Text Embedding Benchmark},
author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
publisher = {arXiv},
journal={arXiv preprint arXiv:2502.13595},
year={2025},
url={https://arxiv.org/abs/2502.13595},
doi = {10.48550/arXiv.2502.13595},
}
@article{muennighoff2022mteb,
author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Loïc and Reimers, Nils},
title = {MTEB: Massive Text Embedding Benchmark},
publisher = {arXiv},
journal={arXiv preprint arXiv:2210.07316},
year = {2022}
url = {https://arxiv.org/abs/2210.07316},
doi = {10.48550/ARXIV.2210.07316},
}
Dataset Statistics
Dataset Statistics
The following code contains the descriptive statistics from the task. These can also be obtained using:
import mteb
task = mteb.get_task("NLPJournalAbsArticleRetrieval")
desc_stats = task.metadata.descriptive_stats
{
"test": {
"num_samples": 908,
"number_of_characters": 14292969,
"documents_statistics": {
"total_text_length": 14113469,
"min_text_length": 10224,
"average_text_length": 28002.914682539682,
"max_text_length": 92725,
"unique_texts": 504
},
"queries_statistics": {
"total_text_length": 179500,
"min_text_length": 120,
"average_text_length": 444.3069306930693,
"max_text_length": 1290,
"unique_texts": 404
},
"relevant_docs_statistics": {
"num_relevant_docs": 404,
"min_relevant_docs_per_query": 1,
"average_relevant_docs_per_query": 1.0,
"max_relevant_docs_per_query": 1,
"unique_relevant_docs": 404
},
"instructions_statistics": null,
"top_ranked_statistics": null
}
}
This dataset card was automatically generated using MTEB
- Downloads last month
- 57